lOMoARcPSD|12602152 Riassunto AMD - Gallucci Analisi multivariata dei dati (Università degli Studi di Milano-Bicocca) StuDocu non è sponsorizzato o supportato da nessuna università o ateneo. Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 ANALISI MULTIVARIATA DEI DATI Multivariata: compresenza di più variabili, tecniche volte a studiare e quantificare gli effetti di una o più variabili indipendenti (esplicative → predittori) Introduzione slide perugini sulla statistica- PRIMA LEZIONE SLIDE SLIDE GALLUCCI Le slide sono prevalentemente di Gallucci, con qualche aggiunta presa da Perugini Tecniche Multivariate, cosa sono? - Per capire le tecniche multivariate dobbiamo ricordare cosa sono le tecniche univariate - Per ricordare le tecniche univariate dobbiamo ricordare la logica delle tipo tecniche statistiche che andremo a studiare Tecniche volte allo studio delle relazioni tra variabili Tecniche Univariate → Tecniche volte a studiare e quantificare gli effetti di una o più variabili indipendenti (variabili esplicative o predittori) su una variabile dipendente (variabile di interesse) - Cosa intendiamo per “effetti” - Cosa intendiamo per “variabile dipendente” - Cosa intendiamo per “variabili indipendenti” Relazioni statistiche: La maggior parte delle tecniche statistiche che conosciamo (e incontreremo) definiscono un modello statistico delle relazioni fra variabili di interesse Variabile di interesse: Un semplice modello statistico è una rappresentazione efficiente e compatta dei dati raccolti per descrivere un fenomeno empirico Senza la statistica non si può sapere se si ha ragione o torto! Es: uno dei primi esperimenti della storia:Lind ( medico scozzese) e lo scorbuto LA STATISTICA è la base di tutte le discipline scientifiche, in un mondo fondato su leggi di natura probabilistica e non deterministica - Esistono tecniche statistiche per ogni tipo di dato e per rispondere ad ogni tipo di questione scientifica - Se qualcosa è quantificabile, lo si può analizzare statisticamente Concetti di base: Statistica distributiva: Indicatori e forma della distribuzione dei dati → Media : È il punto di equilibrio di una distribuzione di dati, coincide con il valore atteso e, se la distribuzione è normale, è anche il valore più probabile, cioè la “speranza matematica”. INTRODUZIONE Il modello statistico e la rappresentazione che ne facciamo serve (tra l'altro) a tre scopi: - 1 Descrizione efficiente e compatta - 2 Predizione del futuro - 3 Inferenza sulla popolazione Cioè: comprensione del fenomeno Errore di approssimazione Come tutte le rappresentazioni compatte ed efficienti, anche quella statistica è una approssimazione dei dati rappresentati. Calcolando questo errore per ogni caso (ogni studente), elevandolo al quadrato (sbagliare in più o in meno è uguale) e facendo la media per ogni caso, quantifichiamo l'errore medie associato alla media Inferenza statistica Il modello statistico è associato ad una serie di test inferenziali che ci consentono di trarre conclusioni sulla popolazione di riferimento 1 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Errore di misura Praticamente in ogni forma di misurazione, all’aumentare dei casi osservati, diminuisce l’errore Errore e variabilità • L’errore di stima non dipende solamente dalla numerosità, ma anche dalla variabilità del carattere osservato (la varianza della variabile oggetto di studio) • Se tutti rispondono allo stesso modo, basta chiedere ad una sola persona! • Quanto maggiore è la variabilità, tanto maggiore è la necessità di osservazioni (casi, risposte) • L’errore di stima lega il campione alla popolazione L’errore standard Quando facciamo una stima di un parametro facciamo un errore di stima. L’ampiezza di questo errore è stimata attraverso l’errore standard. L’errore standard è la deviazione standard della distribuzione campionaria di una statistica. → L’errore standard indica l’ampiezza attesa dell’errore commesso nel utilizzare un campione (con numerosità e variabilità date) per stimare una caratteristica della popolazione - Aumenta con l’aumentare della varianza della variabile - Diminuisce con l’aumentare della numerosità Il modello statistico sarà una buona rappresentazione dei dati se: I parametri sono modellati correttamente Gli errori sono modellati correttamente La struttura dei dati è rispettata L’ intervallo di confidenza è un intervallo di valori plausibili per quel parametro (ad es., media) nella popolazione (ad es., studenti Bicocca) → L’IC è molto importante per capire i risultati ottenuti e cattura il concetto di accuratezza nella stima del parametro. Correlazione 1. È un indice statistico che misura l’associazione fra due variabili 2. Misura come le due variabili si muovono assieme, ossia come correlano 3. Viene espresso come un valore che varia fra –1 e 1 4. La correlazione indica quanta variabilità ci aspettiamo in una variabile al variare dell’altra Il coefficiente di correlazione è positivo quando c’è concordanza tra gli scarti (+ con + e – con -) è negativo quando c’è disconcordanza tra gli scarti (+ con - e - con +) è pressoché nullo (quasi zero) quando le variabili non sono associate linearmente (per alcuni casi c’è concordanza, per altri discordanza) La media e la correlazione sono indipendenti! Varianza condivisa → La varianza di una variabile può essere rappresentata mediante un diagramma di Venn, Maggiore è la varianza, più grande è il cerchio. Se due variabili condividono della varianza, cioè se covariano, le loro varianza saranno sovrapposte. Il quadrato della correlazione, R2, ci indica la percentuale (proporzione) di varianza condivisa dalle due variabili → Per capire quanto forte è l’associazione possiamo elevare al quadrato la correlazione e interpretarla come varianza condivisa Scegliere un modello statistico Per costruire un corretto modello statistico dei nostri dati dobbiamo sapere una serie di cose: ➢ Cosa ci serve il modello (lo scopo dell'analisi) ➢ Che tipo di variabili abbiamo 2 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 ➢ Che tipo di relazioni vogliamo studiare ➢ Quali sono le unità di misurazioni dei dati ➢ Come sono strutturati i nostri dati IL MODELLO DI REGRESSIONE (CAPITOLO 2 E 3) Lo scopo della retta di regressione è di rappresentare la relazione lineare tra la variabile indipendente e la dipendente. Nel caso più semplice, abbiamo una retta semplice La retta può essere descritta mediante due coefficienti: il termine costante ed il coefficiente angolare a l'intercetta della linea: indica il valore atteso (medio) della VD per la VI=0 B è il coefficiente angolare della retta: indica il cambiamento atteso nella VD al variare di una unità della VI ( pendenza della retta)→ Per ogni birra che si beve, i sorrisi aumentano in media di .709 unità Coefficienti sottostanti: Il coefficiente Beta equivale al coefficiente di regressione calcolato dopo aver standardizzato tutte le variabili Il coefficiente standardizzato è uguale al coefficiente r di Pearson Correlazione: interpretazione La correlazione indica il cambiamento atteso in v, al variare di x di una deviazione standard ➔ Test inferenziale: I coefficenti vengono testati per la loro significatività statistica mediante il t-test t test ➔ Se Sig. < 0.05, diremo che B (e beta) sono significativamente diversi da zero Bontà di adattamento : Non tutte le rette di regressione hanno lo stesso potere predittivo, cioè la stessa capacità di adattarsi ai dati osservati Quanto è grande l’errore di regressione Calcoliamoci la distanza media tra i punti osservati e la retta: - le differenze si calcolano mediante le differenze al quadrato - discrepanza osservati-predetti - notiamo che questa è una varianza che chiameremo varianza di errore - Dunque i valori osservati di Y possono essere espressi come somma dei valori predetti e l’errore Proporzione riduzione errore Il modello si adatterà ai dati tanto più riduce l'errore di predizione rispetto a non usare tale modello La logica è di confrontare due casi: • L'errore calcolato per la regressione data • L'errore associato alla media, cioè errore associato a non utilizzare la regressione Dunque il fit della regressione è tanto buono quanto riesce a migliorare la predizione, cioè a diminuire l'errore→ Cioè: Quanto si riduce l’errore di predizione grazie al fatto che usiamo la regressione Quella parte della varianza che non è di errore, sarà varianza che possiamo spiegare (predire) grazie all’uso della regressione 3 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 L’errore standard Un altro modo generale per determinare la bontà del modello, cioè delle stime associate al modello è basato sull'errore standard Se il carattere stimato ha poca variabilità, campioni piccoli possono dare buone stime Se il carattere stimato ha molta variabilità, campioni grandi sono necessari Numerosità e tipi di fenomeni studiati: Un conseguenza importante di questo principio è che tanto più generale (uguale per tutti) è il fenomeno che stiamo studiando, tanto meno casi ci serviranno (e viceversa) Intervallo di confidenza: L'errore standard consente di calcolare l'intervallo di confidenza di una stima (come la media, la correlazione, il coefficiente di regressione) L’ intervallo di confidenza è un intervallo di valori plausibili per quel parametro (ad es., media) nella popolazione (ad es., bevitori di birra) Dato che la nostra stima varia da campione a campione, IC indica in quale intervallo di valori è ragionevole che cada la stima ripetendo il campionamento - L’IC è molto importante per capire i risultati ottenuti e cattura il concetto di accuratezza nella stima del parametro - Dato che la nostra stima varia da campione a campione, IC indica in quale intervallo di valori è ragionevole che cada la stima ripetendo il campionamento Test Inferenziale In generale, il valore p indica la probabilità di ottenere il nostro risultato, o ancora più grande, sotto l’ipotesi nulla - La probabilità p equivale alla proporzione di possibili campioni i cui scostamenti standardizzati sono distanti dall’ipotesi nulla almeno quanto il campione da noi osservato - Il valore p indica il rischio che noi prendiamo quando affermiamo che l’ipotesi nulla è falsa Probabilità p - Se l’ipotesi nulla è falsa, ci abbiamo azzeccato Se l’ipotesi nulla è vera, abbiamo commesso un errore, detto del Tipo I Effetti statistici: - Per effetto statistico si intende quanto il cambiamento di una o più variabili ha effetto sul cambiamento di un’altra variabile Quando possiamo quantificare il cambiamento in termini di variabilità, possiamo interpretare gli effetti statistici come segue: Interpretazione esplicativa: quanto siamo in grado di spiegare della variabilità di una variabile sulla base della variabilità delle altre - s Interpretazione predittiva: quanto siamo in grado di predirre della variabilità di una variabile basandoci sulla variabilità delle altre LEZIONE 2 GALLUCCI IL MODELLO DI REGRESSIONE- RIPASSO CAPITOLI 2-3 Lo scopo della retta di regressione è di rappresentare la relazione lineare tra la variabile indipendente e la dipendente. Nel caso più semplice, abbiamo una retta semplice: - a: l'intercetta della linea: indica il valore atteso (medio) della VD per la VI=0 → Quando un partecipante ha bevuto zero birre, mostra (in media) 2.09 sorrisi 4 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 - B è il coefficiente angolare della retta: indica il cambiamento atteso nella VD al variare di una unità della VI→ Per ogni birra che si beve, i sorrisi aumentano in media di .709 unità - Il coefficiente Beta equivale al coefficiente di regressione calcolato dopo aver standardizzato tutte le variabili - I coefficienti vengono testati per la loro significatività statistica mediante il t-test t test→ Se Sig. < 0.05, diremo che B (e ) sono significativamente diversi da zero Bontà di adattamento →Non tutte le rette di regressione hanno lo stesso potere predittivo, cioè la stessa capacità di adattarsi ai dati osservati Errore di regressione → Notiamo che la predizione non corrisponde di norma ai valori osservati Dunque i valori osservati di Y possono essere espressi come somma dei valori predetti e l’errore. Calcoliamoci la distanza media tra i punti osservati e la retta. Le distanze si calcolano mediante le differenze al quadrato. Notiamo che questa è una varianza, che chiameremo varianza di errore. Il modello si adatterà ai dati tanto più riduce l'errore di predizione rispetto a non usare tale modello. Predizione senza regressione → Ricordiamo che in assenza di ogni ulteriore informazione, la miglior predizione che si può fare dei punteggi di una variabile è predire il valore medio Varianza ed errore di predizione La varianza della variabile da predire rappresenta sia l’errore che commettiamo nell’usare la media come predittore, sia tutta l’informazione che possiamo spiegare se usassimo un predittore migliore della media Errore della Regressione: Anche la predizione fatta con la regressione commetterà degli errori, cioè il valore predetto non coinciderà perfettamente con il valore osservato → Questa varianza, detta di errore, indica la parte della varianza della VD che non è predicibile mediante i punteggi della VI→ Rapportando tutto a 1 (standardizzando) otteniamo la percentuale di errore Riduzione dell’errore → Potremo dire che l’errore di predizione si è ridotto, al confronto con l’errore che facevamo senza usare la regressione (usando cioè la media di Y come valore predetto) Varianza spiegata Quella parte della varianza che non è di errore, sarà varianza che possiamo spiegare (predire) grazie all’uso della regressione Quindi la varianza d’errore è data da 1- R^2 Predizione e Spiegazione • All’aumentare della correlazione, aumenta la nostra capacità di predire il cambiamento di una variabile usando la variabilità dell’altra • All’aumentare della correlazione, aumenta la nostra capacità di spiegare la variabilità una variabile usando la variabilità dell’altra • In sostanza, predire una variabile mediante un’altra ci consente di spiegarne la variabilità. Migliore è l’adeguatezza della nostra predizione, migliore è la capacità esplicativa Spiegazione e Causalità • Spiegare la variabilità statistica di una variabile non significa spiegare le cause del fenomeno che la variabile misura • La spiegazione statistica dipende dalla bontà del modello statistico e dall’associazione fra variabili • La spiegazione causale dipende dalla spiegazione statistica e dalla fondatezza teorica del modello utilizzato Esempio 5 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 In ricerca sull’anoressia sono state misurate su un campione di 85 donne la propria “figura reale”, la “figura ideale” e l’autostima - Ci proponiamo di capire se la propria corporatura ideale (variabile figura ideale) dipenda (cioè sia influenzata) dalla autostima (media di dieci items su scala da 0 a 6). - Ci proponiamo di capire se la propria corporatura ideale (variabile figura ideale) dipenda (cioè sia influenzata) dalla autostima Per ogni punto in più di autostima, la figura ideale aumenta di .117 Per autostima molto bassa (x=0) si preferisce una fig. molto magra (2.6) - In termini di correlazione Ad una deviazione standard sopra la media di autostima, corrisponde un incremento della “figura” di .25 deviazioni standard. C’è dunque una relazione tra figura ideale ed autostima, nel senso che per minori livelli di autostima si tende ad una figura ideale più magra Funzionale vs. Causa-effetto Quando diciamo che una variabile ne “spiega” un’altra, intendiamo dire che stiamo cercando di stabilire una relazione funzionale Una relazione funzionale non è necessariamente una relazione di causa-effetto. La variabile “spiegata” varia in funzione della variabile che spiega ma non necessariamente quest’ultima è anche la causa Una relazione statistica non è necessariamente una relazione causale Inizio regressione multipla: quando una variabile dipendente può essere spiegata da più di una variabile parliamo di regressione multipla→ La regressione multipla aggiunge termini lineari (altre VI) alla retta di regressione Interpretazione. Il coefficiente di regressione esprime l’effetto diretto di x su y, togliendo l’effetto che passa indirettamente per w, al netto di quell’effetto Effetti Parziali Togliere l’effetto indiretto è equivalente a bloccare la possibilità che x vada su y mediante w: Il coefficiente viene dunque detto coefficiente parziale, cioè l’effetto di x parzializzando l’effetto di w LEZIONE 3 GALLUCCI: REGRESSIONE MULTIPLA→ Il caso in cui la variabile dipendente possa essere spiegata da più di una variabile. Quando vi sono 2 o più variabili indipendenti. Ogni variabile indipendente è associata a un coefficiente B di regressione Rappresentazione: path diagram→ y in funzione di x per il suo coefficiente + w per il suo coefficiente ecc Effetti Parziali Togliere l’effetto indiretto è equivalente a bloccare la possibilità che x vada su y mediante w: Il coefficiente viene dunque detto coefficiente parziale, cioè l’effetto di x parzializzando l’effetto di w La regressione multipla isola il legame unico di ogni predittore con il criterio 6 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Si aggiunge nella regressione multipla nell’interpretazione del coefficiente tenendo costante le VI. Per ogni VI viene calcolato il variabile eliminando l’effetto delle altre VI, come se tutti avessero lo stesso livello delle altre VI—si parzializza la variabile, vengono prese tutte le variabili e tenute costanti: si rimuove la varianza dell’altra variabile. La RM crea un piano, i punteggi predetti non sono su una retta ma su un piano, e questo spiega perchè si dice tenere costante una variabile: il coefficiente di regressione è la pendenza del piano visto dal lato della VD ad esso associato. Se le 2 variabili non hanno effetto sarà piatto, più sarà alto l’effetto al netto delle altre variabili indip. È utile questo modello perché isola il legame unico che c’è fra una variabile e un'altra nel contesto delle variabili analizzate Il coefficiente semplice dice quanto varia y in funzione x. Il coefficiente multiplo dice quanto varia al netto delle altre variabili. Effetto semplice e parziale sono uguali quando le due variabili indipendenti sono correlate fra loro 0 Perchè la regressione? - La regressione multipla isola il legame unico di ogni predittore con il criteri - Per tenere sotto controllo la variabilità nel criterio causata da variabili che non sono per noi teoricamente interessanti, ma possono creare ‘rumorè nei dati- il covariare di variabili di disturbo - Per stimare la validità incrementale di un predittore – es aggiungendo un'altra variabile aggiungo informazioni in più? Utilizzo la regressione multipla per valutare l’effetto incrementale - Per testare quali predittori sono più importanti? Quale VI contano di + → selezionare i predittori migliori e più utili - Per confrontare gruppi di variabili indipendenti: Cosa è più importante nel determinare il grado di felicità di una persona, gli aspetti sociali (es. numero di amici e contatti) oppure gli aspetti materiali (es. reddito, proprietà, status - Per testare modelli teorici più complessi : Per esempio modelli di mediazione- modello che fa un passo avanti perchè consente di strutturare le relazioni fra variabili in modo piu preciso. Nella RM LE <Vi sono tutte allo stesso livello. Nella mediazione si vede anche i percorsi fra VI, es l’effetto di una VI su una VD grazie all’intervento di un mediatore ( altra variabile indipendente) es Le persone che leggono più romanzi hanno risultati scolastici migliori perché hanno una maggiore padronanza linguistica - Modello di moderazione: una variabile interveniente modifica l’effetto di una variabile interveniente, cambia l’effetto in +- (L’effetto della lettura sulle competenze linguistiche è più forte nei giovani che negli anziani) - Tipi di regressione multipla Regressione multipla standard (simultanea) Regressione gerarchica (sequenziale) - Regressione statistica (stepwise, per passi) Regressione multipla standard (simultanea) • I predittori sono inseriti nell’analisi tutti insieme • L’effetto di ciascuno viene stimato tenendo sotto controllo tutti gli altri predittori • Ciascun predittore viene valutato nei termini di quanto aggiunge alla previsione, rispetto a tutti gli altri Regressione gerarchica (sequenziale) Spesso siamo interessati a capire come un predittore (o un gruppo di predittori) si comporta nel contesto di altri predittori 7 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 • Nella regressione gerarchica teniamo sotto controllo statistico gli effetti di alcuni predittori mentre esaminiamo le relazioni a cui siamo interessati • I predittori sono inseriti nell’analisi nell’ordine che noi specifichiamo Es. Vogliamo studiare l’effetto dell’allenamento sulla performance di un giocatore di basket: Prima inseriamo nell’analisi di regressione l’altezza Poi inseriamo la quantità di allenamenti Regressione statistica (stepwise, per passi) • Obiettivo: individuare i predittori migliori (da un punto di vista esclusivamente statistico) • Procedura ateorica • L’ordine in cui i predittori sono inseriti nell’analisi è basato esclusivamente su criteri statistici: Il significato o l’interpretazione delle variabili non è rilevante • Esistono diversi metodi di regressione statistica (forward, backward, stepwise) • Tipicamente usata per sviluppare un sottoinsieme di predittori utile nella previsione del criterio e eliminare i predittori che non danno ulteriori informazioni utili Per ogni ora in piu di studio il voto aumenta di 0.13 unità esempio: P=sign. < .05 ( Spesso .01 scienze mediche) Si rifiuta l’idea che la correlazione sia 0 ( ipotesi nulla) 2 componenti: coefficienti sopra e riepilogo del modello.R QUADRO che ci dice la bontà del modello in termini di varianza spiegata in questo caso dalla variabile ore di studio 30% del voto è spiegato dalle ore di studio Anche qui per R2 vi è un test di significatività che nella regressione multipla va analizzato ( nella semplice è uguale). Il test inferenziale associato al r2 si chiama test F presente nella tabella ANOVA (excursus) su ANOVA – analisi della varianza- con variabili indipendenti categoriche ci si concentra sull’analisi delle varianze, nella regressione sui coefficienti. Nella regressione semplice r2 è quadrato della correlazione ( coeff B). Nella regressione multipla questo non vale perchè non parla delle singole variabili Regressione multipla: quanto varia il voto per ogni ora studiata al netto degli appelli fatti. Il coefficiente associato agli appelli è negativo al netto delle ore studiate ( come se tutti avessero studiato le stesse ore)- P >.05 ampiamente non significato l’elemento più importante è la grandezza dell’effetto e questo si vede dal Beta e da altri indice, se vedo che non è significativo lo riporto e fine analisi r2: la combinazione ore appelli spiega il 33% della varianza ed è significativo Concluderemo che le ore di studio hanno un effetto sul voto finale, anche al netto del numero di appelli fatti nel semestre. Il numero di appelli, al netto delle ore studiate, non hanno effetto Come si decompone la varianza spiegata per attribuirla alle varie variabili? Il calcolo di r2: è dato da il contributo unico delle singole variabili alla spiegazione della varianza ( parte di varianza spiegata unicamente da una variabile ) più una parte di varianza spiegata dalle variabili ma non in maniera univoca ( condivisa dalle V). non è la mera somma 8 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 ➔ Varianza non spiegata: Percentuale di varianza di errore, non spiegabile mediante la regressione (Coefficiente di alienazione) Modello es Adamo ed Eva - Cose che solo eva sa: conoscenze residue - Certe cose di eva provengono da adamo ( sole e mercoledi - Certe cose di eva vengono dal serpente ( relatività e mercoledi) - Totale di informazioni passate sono 3, perchè una informazione trasmessa è condivisa- il contributo unico invece è quello che ha dato solo un informatore Parzializzazione: rimuoviamo il contributo di adamo es per vedere il contributo unico del serpente. Quello che rimane è quello del serpente e viceversa Errore: totale delle conoscenze di eva meno il totale delle conoscenze degli informatori Parzializzazione Parzializzare significa rimuovere l’effetto di una (o più) VI, cioè calcolare gli effetti come se quella variabile abbia nessuna variabilità. Effetto congiunto: L’effetto combinato di A e S è dato dai loro effetti unici (parziali) e dal loro contributo comune Ricordiamo che nella regressione semplice, la correlazione quadrata semplice è la varianza condivisa (spiegata dalla VI) Nella regressione M dobbiamo pero quantificare il contributo unico della varianze Vogliamo quantificare il loro contributo unico e combinato mediante degli indici che rappresentino la grandezza dei vari effetti Contributo unico di VI Il contributo unico di una VI può essere stimato grazie al quadrato della correlazione parziale→ Il quadrato della correlazione parziale indica l’effetto di una VI dopo aver rimosso tutta la variabilità delle altre. qualunque varianza condivisa corrisponde a una correlazione essendone il quadrato. Elevando la correlazione parziale al quadrato si trova la varianza unica spiegata. È la proporzione fra il contributo unico della variabile in questione diviso la varianza non spiegata dalle altre variabili indipendenti ➔ ETA2 ( QUADRO) Coefficiente di correlazione semiparziale: Il contributo unico di una VI può essere anche stimato grazie al quadrato della correlazione semi-parziale (più usato) Il coefficiente di correlazione semiparziale al quadrato esprime il contributo unico di una Vi, come rapporto tra la variabilità spiegata unicamente dalla VI in questione, e la variabilità totale ( totalità della variabilità della Vd). Si indica con sr2 e esprime il contributo unico di una VI al totale della varianza spiegata. Ovvero indica quanto R^2 aumenta grazie al contributo della Vi in questione. Riassunto sul libro più chiaro! Entrambi insistono sulla stessa varianza, esprimono il contributo unico di una V 9 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 - Semiparziale esprime il contributo come proporzione di varianza totale ( di tutta la varianza quanta ne spieghi) Il parziale spiega quanta VARIANZA rispetto a QUELLA NON spiegata dalle altre variabili Quale scegliere? IN NATURA senza manipolazione si dovrebbe riportare il semiparziale al quadrato. Con variabili di disturbo o con variabili manipolate sperimentalmente, create ah hoc, quando vogliamo sapere quanto un’altra variabile spiegherebbe senza quella alterazione, dobbiamo usare il parziale al quadrato Es il semiparziale non si può ingrandire a piacimento, l’altro si perché l’errore diminuisce Spss in regressione statistiche flagghi correlazioni parziali ecc - Ordine 0 le ignoriamo - Semiparziale sotto parte - Parziale sotto parziale Elevate al quadrato diventano varianza spiegate! SPSS LEZIONE QUARTA Analisi avanzate basate sulla regressione (Cap. 7 e 5) MEDIAZIONE E PATH ANALISYSIS I (CAP7) PERUGINI - A volte la regressione viene usata allo scopo di identificare tra un insieme di VI quelle che predicono significativamente le VD - Tutte le VI sono teoricamente “uguali” all’inizio ed alla fine verranno considerate soltanto quelle VI che predicono in modo significativo - Ci sono veri metodi per questo tipo di regressione- Il più diffuso è il metodo stepwise Stepwise: - Metodo iterativo - Al primo passo viene selezionata la VI che predice meglio di tutte (p<.05) - Al secondo passo viene aggiunta la VI che predice meglio tra le restanti - Viene ricalcolato il contributo delle due VI. Se una VI non è più significativa, viene esclusa (p>.10) - Terzo passo, quarto passo, ecc., fino all’ultimo passo nel quale non ci sono più VI significative da aggiungere - Si interpreta la regressione finale RLM a blocchi sequenziali - Studio delle relazioni tra stipendio percepito dal corpo accademico, anni di anzianità lavorativa e produttività scientifica (numero di pubblicazioni) - Scopo indagine: stabilire se vi sia una forma di riconoscimento economico della produttività Esempio su effetto unico e parziale in regressione Alcuni punti chiave della RLM - Alcuni punti chiave della RLM - La regressione multipla è una generalizzazione di una regressione semplice lineare - La significatività dei coefficienti è calcolata come per la regressione semplice - I coefficienti sono interpretati come gli effetti di una IV tenendo costanti le altre IV (effetti parziali) 10 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 - R2 è la capacità complessiva delle IV a spiegare la DV - Le variabili possono essere selezionate teoricamente o empiricamente - Situazione ideale: Le IV non sono correlate tra di loro e sono correlate con la DV Regressione multipla avanzata: a seconda dello status delle variabili indipendenti, possiamo differenziare diversi tipi di tecniche statistiche: analisi della mediazione e path analysis ANALISI DELLA MEDIAZIONE Vi ( variabili indipendenti) sono teoricamente organizzate in cause endogene ed esogene PATH ANALYSIS: a path analysis è una tecnica statistica che permette di stimare l'intensità degli effetti esercitati da determinate variabili all'interno di un sistema causale ipotizzato dal ricercatore. VI E VD sono teoricamente organizzate in un modello preciso Ripresa lezione gallucci SONO sempre basate sulla regressione multipla ma permettono di fare un’analisi più dettagliata dei dati. Vediamo modelli volti a studiare la struttura della relazione fra variabili, specificando il processo sottostante alla relazione ➢ mediazione ➢ moderazione ➢ sono modelli logici che guidano l’interpretazione di fenomeni, hanno una diretta testabilità statistica Struttura delle relazioni: la correlazione o regressione semplice standardizzata, ovvero in cui una varabile indipendente fa variare una dipendente, dunque le due variabili variano insieme= Covariano. - Le due variabili si muovono insieme: al cambiare dei valori di X cambiano (in media) i valori di Y X è un predittore di Y: sapendo i valori di X possiamo stimare i valori di Y X ha un effetto su Y: modificando i valori di X possiamo modificare i valori di Y ma stimano la quantità di relazione. → Una relazione statistica non prova mai una relazione causale: l'ipotesi Sono modelli che non provano la relazione causale, causale va giustificata con: • Metodo sperimentale • Metodi temporali (longitudinali) • Teoria Noi dobbiamo dire che sono in relazione, perché per puro caso due variabili possono correlare. Osservare una correlazione vuol dire vedere una relazione funzionale fra variabili, al variare di una varia l’altra, ma solo la logica la teoria può giustificarlo. Anche in presenza di una teoria sensata il metodo sperimentale ( manipolazione ) può dimostrare la causalità – con manipolazione difficile osservandola nel tempo si può vedere come la causa si muove prima e guida l’effetto successivo Relazione Funzionale vs. Causa-effetto Quando diciamo che una variabile ne “spiega” un’altra, intendiamo dire che stiamo cercando di stabilire una relazione funzionale. Una relazione funzionale non è necessariamente una relazione di causa-effetto. La variabile “spiegata” varia in funzione della variabile che spiega ma non necessariamente quest’ultima è anche la causa Una relazione statistica non è necessariamente una relazione causale Regressione multipla: abbiamo già visto che vi sono più variabili indipendenti, ma contano tutte allo stesso modo in termini logici. Non c’è una struttura. Le relazioni possibili diventano più interessanti strutturalmente quando siamo in presenza di tre o più variabili. Una terza variabile può intervenire in vari modi nella relazione tra una variabile indipendente (IV) ed una dipendente VD. Questi modelli danno una struttura a queste relazioni. Nel vedere le varie VI come agiscono nel fenomeno 11 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Mediazione e Moderazione L'analisi della mediazione e l'analisi della moderazione servono a comprendere come una (o più) terze variabili intervengono nella relazione tra due (o più) variabili. Attengono cioè allo studio della struttura delle relazioni: come le relazioni tra X e Y sono influenzate da Z, come gioca la terza variabile nella relazione fra VI e VD ( in un modello di base con 1 vd e 1 vi) Esempio slide gallucci Supponiamo di voler testare se una campagna pubblicitaria abbia avuto effetto in quanto rende salienti i rischi associati al fumo. Abbiamo misurato l'esposizione alla campagna mediante un test di ricordo delle immagini e spot della campagna, l'avversione al fumo mediante questionario, la percezione del rischio associata al fumo, ed il genere dei partecipanti. Ipotesi iniziale: una maggiore esposizione alla campagna incrementa l'avversione al fumo → regressione/correlazione per vedere il covariare delle variabili L'analisi (logica per ora) della mediazione e della moderazione ci aiutano a capire meglio questa relazione grazie all'intervento di altre variabili, cioè rischio (percezione dei rischi) e genere (sesso Possiamo domandarci perché esposizione abbia un effetto su avversione Possiamo ipotizzare che coloro che sono stati maggiormente esposti sviluppino una maggiore percezione del rischio del fumo - Possiamo ipotizzare che coloro che sono più esposti alla campagna sviluppino una percezione del rischio più alta - E che avere una percezione maggiore implichi maggiore avversione al fumo - dunque, uno dei motivi per cui esposizione ha un effetto sull'avversione, è che esposizione aumenta la percezione del rischio (rischio), e la percezione del rischio aumenta l'avversione - chiameremo la variabile interveniente mediatore. Osservando un effetto della VI sulla Vd e un effetto del mediatore sulla VD - In presenza di una relazione tre una IV (X) e una VD (Y), possiamo domandarci se uno dei motivi per cui osserviamo un effetto è l'intervento di una terza variabile M, che è responsabile (in parte o del tutto) dell'effetto originale l’effetto della VI sulla VD passi attraverso, sia mediato dalla variabile mediatrice 12 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Il modello di mediazione (semplice) prevede che il processo per cui una variabile X ha un effetto su Y sia descrivibile come segue: X ha un effetto su M, M ha un effetto su Y, e perciò X ha un effetto su Y per via dell'intervento di M. - Il modello (logico) di mediazione regge se la variabile mediatore possiede alcune caratteristiche: - Una condizione logica che si dovrebbe osservare prima un effetto semplice PRIMA CONDIZIONE: M deve poter essere causata (o almeno dipendere logicamente) da X ( La percezione del rischio deve poter essere influenzata dal esposizione) ( quindi la variabile esogena deve avere un effetto sul mediatore SECONDA CONDIZIONE: M deve poter causare Y indipendentemente da X La percezione rischio deve poter far cambiare l'avversione al netto dell'esposizione (Il mediatore deve avere un effetto sulla VD, parzializzando la V. esogena). Se queste caratteristiche sono rispettate (per ora solo logicamente), siamo in presenza di una variabile mediatore, e dunque di un valido modello di mediazione. L’effetto di mediazione sarà l’effetto della variabile VI sulla VD che passa dal mediatore. → 'effetto di mediazione sarà quella parte dell'effetto di X su Y che passa per M, cioè che è portato da X ad Y attraverso M. ALTRA DOMANDA: Possiamo anche domandarci per chi, o in quali condizioni, esposizione abbia un effetto su avversione - Possiamo ipotizzare che l'effetto di esposizione non sia uguale per tutti, ma che sia più o meno forte a seconda del genere - Ad esempio che l'effetto di esposizione sia più forte per i maschi, e più debole per le femmine Cioè ipotizziamo che l'effetto di esposizione su rischio non sia uguale per tutti, ma la sua intensità cambi (e.g. cresce) al variare di genere (oppure variare delle nazioni). Ipotizziamo che l'effetto di X su Y varia per diversi livelli di M Quindi per quali livelli di variare l’effetto è più forte o pèiu debole- questo modello è il modello di moderazione Moderazione: Se l'intensità dell'effetto di X su Y cambia al variare dei livelli (valori) di un variabile M, diremo che M è un moderatore dell'effetto di X su Y, e che l'effetto di X su Y è condizionale ai valori di ML’EFFETTO DÌ UNA VARIABILE Vi cambia ai variare dei livelli punteggi del moderatore Il moderatore è indipendente dalla variabile indipendente. Di solito è un tratto o una caratteristica o una variabile manipolata, che non ha una relazione con la VI, ma ha caratteristiche che possono influenzare la forza dell’effetto della VI Caratteristiche del moderatore Analisi della mediazione statistica 13 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 In presenza di una relazione (effetto c) tra una IV (X) e una VD (Y), possiamo domandarci se uno dei motivi per cui osserviamo un effetto è l'intervento di una terza variabile M, che è responsabile (in parte o del tutto) dell'effetto originale Condizioni statistiche Il modello (statistico) di mediazione regge se si verificano le seguenti condizioni: - X esercita un effetto non nullo sulla variabile mediatore M • L'effetto si ottiene con un regressione semplice con X come IV e Y come DV • Il coefficiente che si ottiene deve essere non nullo- coefficente di regressione lo chiamiamo a, quanto varia il mediatore al variare di x - Il mediatore deve avere un effetto sulla vd- M esercita un effetto non nullo su Y, tenendo costante X • L'effetto si ottiene con un regressione multipla con Y come DV e X e M come IV • Il coefficiente che si ottiene deve essere non nullo. Se non avesse un effetto di suo, ma è solo perché è legato ala vi non è un mediatore, non è parte del processo. Quindi calcoliamo l’effetto del mediatore al netto della Vi sulla VD. Otteniamo quindi B e c’ ovvero l’effetto di Vi al netto di M. L'effetto mediato L'effetto mediato da M rispetto all'effetto di X su Y sarà dato dal prodotto dei coefficienti relative alla parte mediazionale del modello EM= a x b Decomposizione dell'effetto: L'effetto totale (semplice) di X su Y viene decomposto in effetto mediato ed effetto diretto (o non mediato dal mediatore in questione) Il coefficiente c è l’aumentare in y per una unità di x (effetto totale) –nella mediazione scomponiamo questo effetto in effetto mediato e effetto diretto Es c uguale 10- per una unità di x y varia di 10 unità Riduzione dell'effetto –> Ciò implica che l'effetto diretto di X su Y sarà ridotto rispetto all'effetto totale, e sarà ridotto esattamente dell'effetto mediato L’effetto di mediazione è presente o quando l’effetto mediato è diverso da 0 o cmq una riduzione dell’effetto totale passando dal modello semplice al modello multiplo c-c’ = a x b → confrontando l’effetto totale con l’effetto diretto al netto del mediatore si osserva una riduzione dell’effetto vediamo in Spss effetto mediato statisticamente significativo quando il prodotto a x b è statisticamente significativo – tuttavia non è sempre facile stabilirlo 14 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Effetto mediato L’effetto mediato è quella parte dell’effetto semplice che influenza la variabile dipendente attraverso l’effetto della variabile mediatrice. L’effetto mediato rappresenta la riduzione dell’effetto di una variabile esogena, dopo aver parzializzato l’effetto della variabile mediatrice Effect size dell'effetto mediato Per riportare un effect size si può standardizzare le variabili e ottenere un effetto mediato standardizzato Oppure esesposizionare l'effetto mediato come proporzione (approssimata) dell'effetto totale Mediazione parziale o totale Quando l’effetto della variabile esogena, parzializzando l’effetto del mediatore, risulta non significativo, diremo che la mediazione è totale ( c’ non è significativo) Quando l’effetto della variabile esogena, parzializzando l’effetto del mediatore, risulta ridotta ma ancora significativa, diremo che la mediazione è parziale (c’ è significativo) Significatività! Per decidere se il nostro effetto mediato dobbiamo operare un test inferenziale su a*b Vi sono molti test, tra cui il Sobel Test, Aroian test, Goodman test, che si differenziano nel come stimano l'errore standard Un'alternativa valida è usare il metodo bootstraap Esistono vari plug-in per calcolare la significatività dell'effetto mediato in SPSS (vedi esercitazioni) con precisione. Se sia a che b sono significativi, l'effetto mediato sarà da considerarsi significativo ➔ Inferenza sull’effetto mediato Sebbene non sia il metodo più preciso, possiamo comunque basarci sulle significatività dei coefficienti L’effetto mediato sarà statisticamente diverso da zero se i suoi componenti (a e b) saranno statisticamente diversi da zero 15 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Mediazione multipla: È possibile estendere il modello di mediazione a più di un mediatore - L'effetto mediato per ogni mediatore si calcola come nella mediazione semplice L'effetto mediato totale è la somma degli effetti mediati dai mediatori Variabili intervenenti e mediatori - Considereremo effetti di mediazione quegli effetti indiretti che possono essere strutturati secondo una logica causale (Esogena>mediatore→dipendente) - Considereremo effetti intervenenti quegli effetti indiretti che non possono essere strutturati secondo una logica causale di tale tipo - La differenza tra i due tipi di effetti non è statistica, ma logica (statisticamente ci vengono le stesse stime) Dalla mediazione alla path analysis Notiamo che il modello considerato per la mediazione, è un semplice modello di path analysis. La path analysis (tra l’altro) consente stimare le relazioni tra variabili strutturate in un modello logico definito Path Diagram Una regressione per ogni variabile che riceve una freccia DV riceve la freccia, IV mandano la freccia L'effetto mediato è sempre il prodotto tra path IV → Med e Med → DV Grafico path diagram- gallucci Analisi avanzate basate sulla regressione: Path Analysis II e Moderazione (Cap. 5) Marco Perugini La Path Analysis rappresenta dei modelli di relazione tra le variabili secondo un flusso teorico I modelli di Path Analysis sono spesso chiamati “modelli causali” ma NON usate questo termine (la causalità non è intrinseca all’analisi statistica!) Causalità ipotetica: la Path Analysis può essere usata per testare delle relazioni ipotetico-causali e non per trovarle La Path Analysis può essere compresa come un insieme di regressioni multiple a più strati 16 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Un modello di path può essere risolto con una serie di regressioni multiple Regole - Ciascuna linea curva è una correlazione semplice tra due variabili - Ciascuna variabile endogena richiede una regressione con tutte le variabili che inviano una freccia come VI verso di essa (esclusa la e) - I coefficienti di relazione ( path) sono stimati con le regressioni Dalla path analisys alla mediazione La path analisys può includere al suo interno modelli di mediazione Ma un modello di path analisys da solo può assumere un effetto di mediazione ma non testa la mediazione Per testare la mediazione bisogna applicare a parte l’approccio che è stato illustrato precedentemente, cioè la verifica delle tre condizioni e l’esame del cambiamento del path (mediazione piena e parziale o nulla) Esempi vari grafici per far vedere la differenza fra path analisys I-II-III LA MODERAZIONE: es Quando un effetto di una VI su una VD varia in funzione di un’altra VI, si parla di effetto interattivo o moderazione La relazione tra ricchezza e salute è moderata dall’investimento nel SSN La relazione tra classe sociale e grado di istruzione è moderata dall’esistenza di un welfare state efficiente e borse di studio EFFETTO DÌ MODERAZIONE- quando una variabile interveniente modifica l’effetto della VI sulla VD, lo rende più forte meno forte lo inverte. Risponde alla domanda: per chi, per quale condizioneDunque l’effetto della VI non è uguale per tutti.molto usata in psicologia perchè spesso gli effetti sono moderati da determinate condizioni Se non ce moderazione per esempio il genere ( mf) non modera l’effetto, non lo altera. In presenza dell’effetto di moderazione l’effetto della vi sulla vd varia a seconda dei livelli del moderatore ( es tratti di personalità) Moderazione Se l'intensità dell'effetto di X su Y cambia al variare dei livelli (valori) di un variabile M, diremo che M è un moderatore dell'effetto di X su Y, e che l'effetto di X su Y è condizionale ai valori di M ( nella mediazione non c’è nessuna modifica dell’effetto, che viene solo trasportato- qui invece abbiamo una variabile che cambia direttamente l’effetto- il moderatore insiste sull’effetto) Moderazione Statistica Regole generali: le interazioni sono definite come il prodotto tra le due variabili indipendenti (X1 x X2) Le interazioni vanno sempre stimate insieme agli effetti principali (Y=X1+X2+X1X2) - Le VI vanno centrate (o standardizzate) prima di calcolare il termine di interazione (riduce la multicollinearità tra effetti principali e termine di interazione) 17 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Può convenire anche standardizzare la VD perchè così i valori dell’interazione possono essere ricavati precisamente (vedi dopo) RIPRESA GALLUCCI Il modello (logico) di moderazione si testa statisticamente andando a testare l'interazione tra la variabile indipendente e il moderatore Se X e M interagiscono nel predire Y, possiamo affermare che M sia un moderatore Si stima tramite l’integrazione nella regressione multipla dell’effetto di interazione, inserendo un nuovo termine ( spss lo fa solo) che è il prodotto delle due variabili indipendenti. Il coefficiente si chiama termine di interazione e indiica quanto cambia l’effetto di una Vi al variabile dei livelli dell’altra Moderazione=Interazione → L'interazione tra due variabili indipendenti è data dal coefficiente associato al loro prodotto (X*M). Il termine di interazione indica quanto l'effetto di una variabile indipendente cambia al variare dell'altra variabile indipendente. È simmetrico – noi dobbiamo scegliere per motivi teorici il moderatore e interpretare la regressione con interazione - Grafico: es rette non parallele se c’è moderazione Ovvero anche l’effetto di genere varia al variare dei livelli di esposizione. Per motivi pratici se ne sceglie 1 INTERAZIONE NELLA REGRESSIONE MULTIPLA: per dettagli vedi il riassunto libro Due variabili continue Sappiamo (lezione 2) che se non c’è interazione (regressione multipla) tutte le rette del piano( senza curve, perchè l’effetto di una variabile al netto delle altre variabili) di regressione sono parallele. L’effetto di una VI è costante (non condizionale) al punteggio dell’altra. Tuttavia inserire l’interazione rilascia questa assunzione che gli effetti di una variabile sono costanti nei livellli dell’altra. Ci consente di misurare la variazione degli effetti di una Vi per i livelli delle altre VI- avremo una superficie curva, poiché l’effetto cambia l’effetto al variare degli effetti dell’altra. Se c’è interazione le rette non sono parallele, ed il piano si incurva. L’effetto di una VI cambia per punteggi diversi dell’altra IV. Maggiore è l’interazione, maggiore è la differenza tra le pendenze delle rette di una VI al variare dell’altra VI. EFFETTO MOLTIPLICATIVO SI inserisce il termine di interazione- il coefficiente che lo misura dice quanto cambia l’effetto di una variabile al variare dell’altra- quanto cambia la pendenza. ( coefficiente B) Se è significativo c’è una moderazione – è un metodo che generalizzala regressione multipla Terminologia Quando vi è una interazione in una regressione con variabili continue, gli effetti dei termini lineari si chiamano effetti di primo ordine. 18 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 L’interazione invece ci informa come cambia un altro effetto quindi EFFETTO DÌ SECONDO ORDINE La regressione si semplifica standardizzano le variabili- quindi noi facciamo subito questo passo e standardizziamo le variabili in gioco. → guardo coefficienti standardizzati Media =0, dev.stand =1. Scala delle variabili indipendenti ➔ L’interpretazione del modello di regressione condizionale (cioè con interazione) può diventare complessa a seconda delle caratteristiche delle unità di misura delle variabili indipendenti ➔ Per semplificare l’interpretazione dei risultati è conveniente operare sulle variabili standardizzate ➔ Non standardizzare non è un errore, ma rende l’interpretazione (molto) più complessa EFFETTI DÌ PRIMO ORDINE IN PRESENZA DÌ INTERAZIONE Lanciando una regressione multipla con interazione, i coefficienti associati a effetti di primo ordine, associati alle VI ( x1 e x2) -→ Gli effetti di primo ordine sono calcolati per il centro della superficie, cioè in corrispondenza dell'altra variabile uguale a zero Indicano l’effetto della variabile quando l’altra è uguale a 0. Avendo standardizzato 0 vuol dire la media. Quindi il coefficiente che escono dalla regressione con interazione su variabili standardizzati rappresentano l’effetto medio della variabile indipendente Es effetto di avversione in media di ansia Essendo il centro dell'altra variabile la sua media (variabile standardizzata), essi rappresentano l'effetto “medio”: effetto principale ➔ Effetto principale: quale è l'effetto di una variabile in media rispetto a tutti i possibili effetti EFFETTO DÌ INTERAZIONE: Il coefficiente di interazione (BI) indica di quanto cambia l'effetto di una VI al variare dell'altra Di quanto aumenta o diminuisce- del coefficiente di interazione Esempio spss slide- modello lineare generale- metto le Vi continue in covariate standardizzando le variabili! - In termini di software si esegue una regressione multipla inserendo anche il prodotto del delle variabili indipendenti - Standardizzo le variabili per semplificare l’interpretazione: STATISTICHE- DESCRITTIVE – METTO LE VARIABILI- FLAGGO “ SALVA VALORI STANDARDIZZATI COME VARIABILI” - Per fare la regressione con interazione è comodo usare il comando GLM univariata (invece che regressione) - GLM consente di stimare molti tipi di modelli. Importante è mettere le variabili al posto giusto→ VI continu van messe in COVARIATE - MODELLO “personalizzato”- inserisco gli effetti principali e l’interazione - OPZIONI- chiedo i coefficienti “ STIME DEI PARAMETRI” - OUPUT E RISULTATI 19 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Riassumendo: L’interazione con variabili continue La logica è la stessa delle variabili dicotomiche, ma l’esecuzione è leggermente più complicata Un moderatore continuo non ha solo due valori. Si tratta perciò di scegliere alcuni valori utili del moderatore per calcolare le rette di regressione separatamente Per convenzione, vengono usati i valori di +1 DS e -1DS, oltre a 0 che rappresenta il valore medio (effetto principale) – LIBRO E ESERCITAZIONI LO SPIEGANO BENE Si calcola quindi l’equazione di regressione (VI predice VD) condizionale al valore nel moderatore di +1 (-1), (0). L’equazione di regressione calcolata quando il moderatore ha valore di +1 ci dice cosa accade quando le persone hanno valore elevato (+1DS) nel moderatore, quella con -1 cosa accade quando le persone hanno valore basso (-1DS), e quella con 0 cosa accade quando le persone hanno valore medio (effetto principale) - Le rette di regressione così calcolate necessariamente differiscono tra di loro (cioè NON sono parallele) altrimenti non c’è moderazione - Le rette possono essere rappresentate compattamente in un unico grafico per comprendere il loro significato, anche comparativamente In sostanza si tratta di svolgere equazioni separate per diversi livelli del moderatore e poi rappresentarle graficamente Ciò può essere fatto a mano, con Excel, o con una serie di comandi su SPSS Esistono dei moduli per SPSS quali PROCESS di Hayes (2013) che facilitano l’esecuzione Ma prima di usarli è fondamentale avere chiaro in mente la logica della moderazione e cosa essa ci può dire (e cosa invece non dice) Sapere usare PROCESS non significa aver capito cosa è la moderazione Esempio con PROCESS Perugini-vedi esempio esercitazione forgianini Inserire nomi delle variabili (standardizzate) Scegliere l’opzione: - Mean center for products (centrare le variabili per il termine d’interazione) – “Generate Date for Plotting” per poter fare il grafico Condizioni: mean +- sd from mean Moderatore continuo: simple slope analysis ai valori –DS, M e +DS del moderatore per la decomposizione dell’interazione (se significativa Costruire il grafico: Quando il predittore e il moderatore sono continui, crea 3 gruppi per ciascuna delle variabili per poter creare un grafico: otteniamo 3 x 3 valori di Y Valori che prende Y per Basso Moderatore Valori che prende Y per Medio Moderatore Valori che prende Y per alto Moderatore esempio 20 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 - Cliccando sul grafico posso chiedere le linee di interpolazione REGRESSIONE MODERATA: ripresa gallucci E RIPASSO - STANDARDIZZO LE VARIABILI - Regressione con VI e il loro prodotto - Ottengo 3 coefficienti- 2 per gli effetti di primo ordine e 1 coefficiente di interazione - Se il coeff.interazione è significativo cè interazione/moderazione. Se non cè è una regressione multipla normale - Se cè moderazione gli effetti principali ci dicono quale è l'effetto di una variabile in media rispetto a tutti i possibili effetti. Esempio spss slide gallucci lezione 5: da slide 24 1) Standardizzo le variabili per semplificare l’interpretazione 2) In descrittive: porto dentro e variabili da standardizzare e flaggo “ salva valori standardizzati come variabili” 3) Regressione come Modello Lineare Generale- Per fare la regressione con interazione è comodo usare il comando GLM univariata (invece che regressione) GLM consente di stimare molti tipi di modelli. Importante è mettere le variabili al posto giusto. Cliccando su MODELLO specifichiamo gli effetti richiesti→ vedi parte di prima PROBLEMI CON LE INTERAZIONI: spiegazione migliore Perugini ( vd sopra) - Come interpretare l’andamento degli effetti al variare delle VI - Come testare che le variabili abbiano un effetto per specifici valori delle altre ➔ SIMPLE SLOPE ANALISYS • Rappresentare l’interazione • Nella simple slope analysis si rappresenta ciascuna linea per un valore positivo ed uno negativo della IV moderatrice (di solito 1 e -1) • Nella simple effect analysis si rappresenta ciascuna linea di regressione per ciascun gruppo • La simple effect analysis è semplice soprattutto perché ci sono già due gruppi distinti (variabile dicotomica) • La simple slope analysis è leggermente più complicata da effettuare perché i gruppi distinti vanno creati (ma adesso ci sono software e pacchetti specializzati) • Aldilà del come si fa, è importante capire la logica sottostante IN LINEA di principio, potremmo interpretare il grafico della superficie, in pratica non è molto chiaro come grafico Usiamo la SIMPLE SLOPE ANALISYS: - È più semplice selezionare due o più rette della superficie di regressione - Possiamo scegliere tre rette corrispondenti a valori sensati del moderatore 21 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 E RAPPRESENTARLE IN DUE DIMENSIONI In SPSS- GRAFICO DELLE SIMPLE SLOPES In pratica dobbiamo chiedere al software di fare un grafico dell'effetto della variabile indipendente (una retta): - Per il moderatore uguale alla media (punteggi medi) - Per il moderatore uguale ad una deviazione standard sopra la media (punteggi alti) - Per il moderatore uguale ad una deviazione standard sotto la media (punteggi bassi) - Useremo un plug-in di spss (vedi esercitazione) per produrre il grafico- GRAFICI- SEGUIRE LE ISTRUZIONI SLIDE PERUGINI - Ci concentriamo sulla sua interpretazione Recap 1.La regressione moderata ci consente di studiare come e quanto l'effetto di una VI cambia al variare dei livelli di un'altra variabile: moderazione 2.L'effetto di interazione indica quanto forte è il condizionamento dell'effetto da parte del moderatore 3.Interpretiamo i risultati guardando il grafico delle simple slopes, cioè gli effetti di una VI per livelli bassi, medi e alti del moderatore - Dati per costruire grafico Quando il predittore e il moderatore sono continui, crea 3 gruppi per ciascuna delle variabili per poter creare un grafico: otteniamo 3 x 3 valori di Y - Valori che prende Y per Basso Moderatore Valori che prende Y per Medio Moderatore Valori che prende Y per alto Moderatore Esempio Perchè è meglio standardizzare? Centrare (esprimere i punteggi come deviazioni dalla media) è essenziale prima di calcolare il prodotto tra VI e Moderatore. Mentre il livello di significatività (p) è stimato correttamente, il valore del parametro beta di interazione è stimato come “semi-standardizzato”. Per avere un beta pienamente standardizzato, bisogna standardizzare tutte le variabili (VD, VI, Moderatore) prima della regressione. I valori corretti dei parametri saranno dati dai valori B (non standardizzati). Se le variabili sono standardizzate, le B sono espresse su una scala direttamente standardizzata. VEDI NB: sul libro spiega bene la parte sull’interazione e quali considerare. 22 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Articolo classico: Sul sito troverete il lavoro di Baron e Kenny (JPSP, 1986) sulla mediazione e sulla moderazione LEZIONE ANOVA: variabili categoriche/nominali VI- v. categoriche nominali. Con le variabili categoriche bisogna fare attenzione a parlare di quantità e dobbiamo capire come il modello della regressione si adatta a queste variabili- l’unica informazione che contengono è l’appartenenza a un numero. Variabili nella Regressione Nella regressione, la variabile dipendente è sempre quantitativa e, per quello che abbiamo visto, anche le variabili indipendenti→ La retta di regressione rappresenta la predizione lineare (o dipendenza lineare) tra una variabile indipendente ed una dipendente, espressa nelle unità di misura originali Variabili Nominali (categoriche) → Nelle variabili nominali i valori indicano sono delle qualità, cioè sono equivalenti a delle etichette (sesso, nazionalità, facoltà, gruppi sperimentali) - Nelle variabili nominali, l’unità di misura non ha la stessa interpretazione ad ogni livello della scala di misura Passare da Italiano a Francese, non è la stessa cosa che passare da Francese a Tedesco Qualunque numero che distingua i gruppi rappresenta la stessa qualità Il gruppo è rappresentato dalla media, per vedere le differenze si guarda la differenza fra le medie. Non studiamo il t-test perché una sottospecie del modello lineare generalizzato. Piu in generale si fa l’analisi della varianza, per variabili categoriche - esempio Diversi livelli di ancoraggio 10 vs 80 per cento→ Quesito sperimentale: L’ancoraggio ha un effetto significativo sulla stima numerica? ( media 10-17 vs media 80-44) Stabilire se le differenze sono significative: partiamo con una regressione codifico le variabili categoriche 0 e 1-stimiamo la regressione- ci darà un coefficiente costante A e un coefficiente di regressione. Questa retta dove passa? È la retta che meglio interpola la nuvola di punti, che sta in mezzo. Essendo qua una nuvola solo con 2 colonne di dati la retta passa per le due colonne. I punti saranno le medie Dunque la regressione passerà necessariamente per la media di Y per il gruppo X=0 e per la media di Y per il gruppo X=1 Quale valore indicherà il coefficiente di regressione? Il coefficiente costante A di questa regressione sarà la media del gruppo a cui diamo 0. Il coefficiente B,è la differenza quando mi muovo sulla x di una unità, in questo caso passo dalla media del gruppo 0 a quella del gruppo 1 e il cambiamento sarà la differenza delle medie. Se è stat.sigificativo il coefficiente di regressione le medie sono stat. Differenti→ lo vedo dal sig. è equivalente a fare un t-test per campioni indipendenti, che è un caso particolare della regressione in cui la variabile indipendente ha 2 valori se si vuole esprimere la grandezza di questo effetto standardizzato si guarda il coefficiente B, la correlazione fra l’essere in gruppo e la VD 23 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Rquadro- quanta varianza spiegata dall’effetto della VI sulla VD- quanto la differenza fra i gruppi spiegano le differenze nelle variabili dipendenti. È il TEST F Rapporto varianza Se la variabile indipendente è dicotomica, la varianza di errore sarà la somma delle varianza dentro i gruppi L’errore associato è la varianza dentro i gruppi, che non può essere attributo alla differenza fra i gruppi, viceversa la varianza spiegata è spiegata dalla differenza fra i gruppi- ( varianza tra i gruppi- between groups) Varianza tra i gruppi Equivalentemente, testiamo la bontà della predizione che noi facciamo dando ad ogni soggetto il punteggio medio del gruppo (variabilità dovuta ai gruppi), rispetto all’errore che facciamo. Quindi es la poca variabilità infra gruppo ( es nel genere) fa attribuire la differenza all’appartenenza al gruppo Maggiore la variabilità fra gruppi e piu difficile è attribuire le differenze medie Piu i gruppi sono omegenei dentro di loro e piu è facile attribuire la differenza Questa fa si che l’analisi della varianza confronta la variabilità fra gruppi in rapporto fra la variabilità dentro il gruppo Mentre nel coefficiente di regressione può essere solo calcolato con 2 gruppi- la retta passa x 2 punti. Per il rapporto di varianza i gruppi possono essere piu di 2 ma quanti vogliamo, perchè confronto la varianza di questi tot elementi Variabili Nominali→ Quando la variabile indipendente ha più di due gruppi, lasceremo la rappresentazione in termine di retta, ma manteniamo i concetti di varianza tra i gruppi e varianza nei gruppi - Testeremo le differenze tra i gruppi in termini di F - Ciò si chiama analisi della varianza (Analysis Of Variance Perdiamo la retta →Perdiamo la rappresentazione in termini di una retta in quanto la variabile indipendente non è ordinabile in maniera univoca-→ Ed un’unica retta (non spezzata) non potrebbe rappresentare i dati a nostra disposizione Si testa l’ipotesi nulla che le medie siano tutti uguali, con il test F che confronta le medie dei gruppi, SE è significativo, anova in pratica 24 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Mettere le variabili categoriche indipendenti in fattori fissi Es guardo l’effetto di nazione, f di 14, significativo- ha un effetto principale sulla variabile dipendente. Il passaggio successivo è guardare le medie ( non ho bisogno di guadare il coefficiente come nella regressione)→ guardo il grafico delle medie Es la differenza fra le due medie spiega lo 0,06 per cento → guardo R quadrato Colonna eta quadro parziale uguale R quadro con una variabile sola. È un indice di grandezza dell’effetto identico al coefficiente di correlazione parziale, quanta varianza spiega la variabile della varianza non spiegata dalle altre variabili, essendoci solo una variabile è quanto spiega della varianza Chiedo il grafico delle medie – giudicarlo in funzione della significativà perchè mette sempre in scala per far vedere una differenza ➔ Attenzione al grafico Il software produce un grafico delle medie che è sempre “espanso” e potrebbe far sembrare che vi sia una differenze Se l’effetto non è significativo, il grafico non va guardato RICERCA ANORESSIA SULLA FIGURA DÌ DONNA IDEALE nella figura ideale l’analisi mostra che i due gruppi hanno una media statisticamente differente .098—eta quadrato parziale Analisi della covarianza Si potrebbe dubitare che la differenza sia dovuta alla differenza tra autostima ( v. continua) possibile nei due gruppi Testiamo prima se vi è una differenza tra i gruppi nell’autostima- Poi testiamo le differenze nei tra PIBS ideale al netto dell’autostima - Faccio l’anova mettendo come VI continua l’autostima. Metto insieme anova e regressione, ANCOVA- una variabile categorica e una continua 25 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Ora proviamo a testare BIPS ideale tenendo costante la autostima Cioè facciamo una ANOVA ed inseriamo anche una variabile indipendente continua (come nella regressione) L’effetto di GROUP sarà dunque la differenza tra Anoressiche e Controllo nel BIPS ideale tenendo costante le differenze in autostima (come se Anoressiche e Controllo fossero uguali nell’autostima ANCOVA Con PIU DÌ UNA variabile indipendente l’interpretazione degli effetti va fatta al netto delle altre- tenendo costante l’autostima la differenza la questi 2 gruppi si riduce, quindi una parte delle differenze fra gruppi è attribuibile all’autostima ANALISI DELLA VARIANZA FATTORIALE – cap.4/8 Ripasso dell’ANOVA- con variabili categoriche ci concentriamo sulle varianze perché le categoriche definiscono i gruppi e il valore predetto è la media. In questo modo vediamo quanto le medie dei gruppi sono differenti. (mentre nella regressione vediamo i coefficienti perché sono variabili continue) Lo studio degli effetti di una serie di variabili indipendenti nominale (gruppi) su un variabile dipendente continua Effetti principali: Effetto operato da una variabile indipendente (VI) sulla variabile dipendente (VD) F-Test: Testa l’ipotesi che la varianza spiegata dal fattore principale associato sia zero (cioè: le medie sono uguali) R2: Totale di varianza della VD spiegata dall’effetto principali. Abbiamo per ora vista una sola variabile indipendente- anova ad una via Ora inseriamo più di una VI-l’estensione ci introduce al concetto di disegno fattoriale . il disegno di ricerca ovvero come è fatta la ricerca Disegni Fattoriali :_Nelle maggior parte delle applicazioni di ricerca, il disegno di ricerca prevede più variabili indipendenti incrociate. Nei disegni fattoriali ogni gruppo di partecipanti rappresenta una combinazioni di livelli delle variabili indipendenti→ piu di una VI ( fattori fissi sperimentali) 26 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Disegni between subjects- fra soggetti. In cui ogni soggetto appartiene a una sola condizione L’ANOVA nei disegni fattoriali testa la significatività degli effetti principali più gli effetti di interazione I gruppi possono essere o naturali o fatti dallo sperimentatore. Definiamo disegno sperimentale quello in cui l’appartenenza al gruppo è attribuita casualmente . A volte non puoi assegnare a caso i soggetti – disegni quasi sperimentali- manipoli senza la possibilità di assegnare a caso. Quando non si fa nessuna delle cose ( es. il genere) – fattori naturali Tutto questo rientra nella ricerca empirica Tornando al disegno fattoriale: si riportano il numero di livelli e il nome della variabile- possiamo calcolare gli effetti principali di ogni VI – Allo stesso modo come nella moderazione il disegno fattoriale consente di studiare l’effetto di interazione, definito come nella regressione multipla, quanto l’effetto di una Vi varia per i livelli dell’altra, quanto l’effetto cambia nei diversi gruppi dell’altra VI Es l’effetto di stress sarà diverso per maschi e femmine Effetti principali Nei disegni fattoriale l’effetto principale è calcolato come se fosse costante (lo stesso) per tutti i livelli delle altre variabili indipendenti Interpretazione Geometrica Si assume che le linee che rappresentano gli effetti di una VI ai vari livelli dell’altra VI siano parallele Effetti Condizionali → Quando gli effetti di una VI sono diversi a livelli diversi dell’altra VI, siamo in presenza di una interazione facendo il grafico dell’interazione notiamo che se c’è una interazione che linee che uniscono le medie non saranno parallele →Interazione In presenza di una interazione tra due (o più) VI , gli effetti di una VI si dicono condizionali al livello dell’altra → L’effetto di interazione tra A e B misura il grado di non parallelismo delle linee dell’effetto di A a diversi livelli di B. l’interazione definisce un effetto condizionale perchè dipende dalle condizioni , da quale gruppo sei nella variabile moderatrice. L’interazione è simmetrica, puoi scegliere quale è il moderatore e quale la VI 27 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 ➔ L’effetto di interazione nell’ANOVA è concettualmente identico a quello visto nella regressione moderata ➔ Vedo nella regressione nella simple analysis la retta di regressione per i diversi livelli, nell’anova è piu semplice e guardo il grafico delle medie SPSS In grafici- ottiene il grafico delle medie nei gruppi- scelgo gli assi le VI Vd Fattori fissi- vi Opzioni- Chiediamo “effect size index” Opzioni- stima della dimensione degli effetti- cosi mi mente etaquadro Interpreto: F-Significativa Eta-quadro-Significatività Quando la probabilità associata alla F di un effetto principale è minore di .05, diremo che l’effetto è significativo, dunque i gruppi da esso definiti avranno medie differenti Essendo gruppi non ho bisogno di standardizzare Vedo gli effetti principali – controllo e genere- se non è significativo devo dire “ il genere non ha un effetto in media” Significatività dell’interazione Quando la probabilità associata alla F dell’interazione è minore di .05, diremo che l’effetto di interazione è significativo, dunque gli effetti di ogni variabile indipendente sono condizionali ai livelli dell’altra variabile Quantificazione dell’effetto – la proporzione di varianza spiegata di quell’effetto dopo aver rimosso la varianza spiegata dagli altri effetti Gli effetti (principali e di interazione) possono essere quantificati mediante l’eta-quadro parziale (Partial eta-squared Eta-quadro rappresenta la varianza spiegata dell’effetto principale, dopo aver rimosso (parzializzato) la varianza spiegata dagli altri effetti principali e interazione- quanto spiega l’effetto diviso quanta varianza rimane dopo aver eliminato la varianza spiegata dagli altri effetti 28 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Ha le stesse caratteristiche della correlazione parziale, se aggiungo altre variabili questa aumenta perché in relazione alle altre L’effetto di interazione di solito è più piccolo degli effetti principale, perché è un effetto di second’ordine . La risposta sarebbe quanto aumenta la capacità di spiegare il fenomeno grazie all’interazione? Es eta-quadro interazione .09 spiega il 10% Guardo il grafico delle medie l’interpretazione giustifica 2 effetti differenziati di condizione a seconda del genere. Puoi parlare dell’effetto della variabile in maniera diversa a seconda dei gruppi del moderatore es maschi forti in cond. Cognitiva e un calo nella cond. Emotiva A seconda della forma dell’interazione, distinguiamo due tipi di interazione: Ordinale e non Ordinale ORDINALE: in questa interazione l’effetto di una VI RIMANE qualitativamente lo stesso ma cambia quantitativamente ai livelli dell’altra VI ➔ l’effetto non cambia, cambia la sua intensità NON ORDINALE O CROSS-OVER- le rette si incrociano L’effetto cambia qualitativamente ai diversi livelli dell’altra Un effetto diventa più potente cambiando il livello dell’altra variabile dipendente ➔ Esempio: La soddisfazione matrimoniale modera l’effetto della soddisfazione sul lavoro nell’influenzare la soddisfazione generale ➔ L’effetto cambia proprio di qualità INTERPRETAZIONE DEGLI EFFETTI PRINCIPALI Il problema è sempre come interpretare gli effetti principali nell’interazione. In presenza dell’interazione, gli effetti principali vanno interpretati con cautele, e sempre come effetti medi rispetto ai diversi livelli dell’altra variabile indipendente IN PRESENZA di una ordinale, si può interpretare l’effetto principale Con una non ordinale, l’effetto principale perde di senso, perchè se l’effetto si inverte Nell’interazione l’effetto principale sta in mezzo, affermare che in media c’è un effetto con una relazione ordinale si può affermare Se invece trovo una crossover, anche se c’è un effetto principale sarà invalidato da una parte del disegno. Quando c’è una interazione alcuni dicono, non interpretare l’effetto principale. Non è proprio cos’ sarebbe meglio con le ordinali Se è cross over c’è un effetto principale ma non lo descrivo Con le ordinali lo descrivo e spiego dove è piu cambia Grafico delle medie Interpretazione: Il grafico delle medie informa sulla direzione di tutti gli effetti (principali e di interazione) linee parallele: moderatore 29 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 il centro delle linee sono le medie ( effetto principale è la distanza fra le medie, più è ampia piu alto l’effetto) qui non c’è effetto della nazionalità, la linea non si alza o abbassa Effetto di interazione GRAFICO DELLE MEDIE- che effetti abbiano Effetto principale di nazione, una è più in basso dell’altra. Effetto di interazione2 generi perché se prendo le medie, l’effetto di nazione varia nei C’è effetto principale di genere Non c’è effetto principale di nazio Con una crossover perfetto→ c’è solo effetto di interazione ( in media nei principali non c’è perchè si annullano, non devo dire però non c‘è effetto ma l’effetto medio di genere per esempio non è stat. Significativo) INTERAZIONI DÌ Più ALTO GRADO: È possibile analizzare disegni con più di due variabili indipendenti Ad esempio 2 x 2 x 2 In ogni disegno possiamo stimare gli effetti principali, le interazioni a 2, le interazioni a 3, etc. 30 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 L’interazione a 3 vie indica che l’interazione a 2 vie cambia al variare dei valori del moderatore - Stimo effetti principali - Interazioni a 2 - Interazioni a 3 ecc - Cosi via fino a seconda delle VI che ho Con quattro variabili tante interazioni a 2, tante a 3 , una a 4 Tre effetti principali (G, T, N) Tre interazioni a due (G*T, G*N, T*N) Una interazione a tre (G*T*N) Le metto in spss- con i fattori fissi per le VI In grafici – è bene rappresentare l’interazione a 2, tante volte quante sono i livelli della terza variabili. Genere x titolo ( 2x2) diviso per nazioni ( che metto in grafici separati)- medie per maschi per titolo dei francesi, dell’italia, dei tedeschi Se sig. dell’interazione a 3 è <.05 l’interazione è significativa , l’interazione a 2 titolo x genere varia nelle diverse nazioni. Dato il moderatore, l’effetto di ordine di piu basso, varia nei diversi livelli del moderatore. Possiamo interpretare le tre interazioni come differenti da nazione a nazione L’effetto principale è come il 2x2 ma aggiungendo in media a titolo di studio ecc L’interazione a 2 ( genere titolo) è fatta considerando la media rispetto alla nazionalità Tutti gli effetti si interpretano aggiungendo in media rispetto all’altro fattore MISURE RIPETUTE- CAP.9 22/03/17 Appunti Gallucci- non ha caricato le slide Slide Perugini 31 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Più chiaro il cap. sul libro 9 Diversa versione del disegno fattoriale molto usato in ricerca sperimentale- misure ripetute ( anova per misure ripetute MISURE RIPETUTE (Spss Modello lineare- anova - misure ripetute) applicazione di un modello fattoriale/disegno fattoriale con diverse condizioni, vari livelli di v categoriche, in cui lo stesso soggetto viene misurato in condizioni diverse. FINO AD ora un caso esprimeva un solo risultato, in questi disegni invece sei in tutte le condizioni Es misura della variabile dipende prima e dopo il trattamento ( vi) – le stesse persone, unità statistiche vengono misurati più volte, in tempi diversi siamo di fronte a un disegno a misure ripetute, si usa una anova modificata, analisi della varianza a misure ripetute. Come l’anova generalizza il t-test, anche qui vi è il t-test a misure ripetute ( t-test per campioni appaiati) La VD è misurata per vari gruppi, ognuno rappresenta un livello della VI Gli effetti sono valutati come le differenze tra i gruppi rispetto alle differenze dentro i gruppi Test statistico = variazione tra i gruppi / variazioni entro i gruppi Varianza di errore=Varianza dentro ogni occasione Varianza dell’effetto=Varianza dovuta alle differenza prima-dopo L’ANOVA ci permette di stabilire se la variabilità tra le medie delle diverse misure ripetute è abbastanza grande rispetto alla variabilità entro le misure da poter dire che la differenza tra le medie è statisticamente significativa È utile capire che gli effetti within-subject possono essere pensati come la media delle differenze tra le misure, calcolate per ogni soggetto TEST F: Varianza dell’effetto prima dopo/ varianza di errore Può essere applicata a molte misurazioni ripetute. È molto usata in ricerca clinica e neuropsicologica, per vedere se tot variabili cambiano nel tempo- è il disegno longitudinale, oneroso in termini di tempo ma che però può evidenziare effetti di causa e effetto L’ANOVA a misure ripetute è molto simile all’ANOVAbetweensubjects (tra gruppi) La differenza è che i livelli delle variabili indipendenti (VI) non sono misurate su ogni soggetto, ma rappresentano le diverse condizioni (tempi, coppia, etc.) in cui la variabile dipendente (VD) è misurata SPSS MGL- Prima dobbiamo specificare il fattore ripetuto e quanti misure abbiamo - Poi inseriamo, negli spazi appositi per i livelli, le variabili che rappresentano i diversi livelli del fattore ripetuto NB Le variabili che creano gruppi si chiamano fattori between subjects vs le variabili che ripetono la condizioni si chiamano fattori within subjects Questi possono essere messi insieme in un ANOVA MISTA, che combina misure ripetute e gruppi: un esempio sono i clinical trials. Es terapia a vs terapia b per il gruppo 1 Terapia b vs terapia a per il gruppo 2 Nel confrontare 2 trattamenti si controbilancia l’ordine, per controbilanciare effetti di carryover. Essendo una anova, si può avere anche un’anova fattoriale ( in questo caso within) – l’unità stastica ripetuta può essere anche non essere lo stesso soggetto Es terapia moglie e marito- l’unità di misura è la coppia che è a se stante, non il soggetto, ogni coppia esprime 2 livelli, mogli e marito—DIVERSA unità d’analisi È un disegno fattoriale a misure ripetute, in cui l’unità è la coppia, con 2 fattori moglie e marito, e misurazione prima o dopo 32 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 2x2- disegno fattoriale a misure ripetute Lo stesso vale per i disegni con i gemelli -→ anova fattoriale a misure ripetute 2x2 ( moderazione within)tutti i soggetti esprimono una condizione piu volte Il modello statistico cerca di decomporre un punteggio in qualcosa per capire dove viene. Nella between subjects ci danno una media degli effetti che stiamo cercando. Quindi il tizio che prendiamo risponde 8 – la media è 5, giustifico la sua risposta fino a 5 poi è errore casuale ( tutta una parte che io non posso giustificare) – in questa anova l’errore è tutta la varianza che non è spiegata dalle differenze delle medie dei gruppi NELLE misure ripetute per esempio abbiamo le stesse persone misurate prima e dopo. Se prendo il soggetto con punteggio 8 ora ha anche un altro punteggio. Sempre le medie ci interessano però quando mi domando da dove viene il punteggio, a misure ripetute le risposta è diversa. Fino alla media ci arriva per media, c’è un pezzetto però in più che posso giustificare ( dire da dove viene cosi) Posso dire che al di la della condizioni oltre alla media ce un pezzo che posso aggiungere o togliere perchè è la caratteristica unica di quel soggetto e il resto sarà errore ( oltre la media del soggetto)—è la componente sistematica tipica di ogni soggetto Es. esperimento tempi di reazioni- riassunti libro Anova 1 In quello between la velocità di risposta è o la media o l’errore Nelle misure ripetute, se sarò lento o veloce, lo sarò sempre al di la delle condizioni, avendo piu misure ripetute, puoi calcolare in media la velocità della persona al di la dell’effetto,è l’unicità del soggetto. Le misure sono correlate, ovvero che io sia sempre lento o lui sempre veloce fa si che le misure correlano, fa si che correlano in proporzione a quanto è forte questa unicità. Come stimiamo la componente dovuta all’unicità dei soggetti? Vedendo la correlazione delle misure ripetute, non è piu errore ( tutto ciò che non so spiegare), ma questa parte possiamo attribuire all’unicità dei soggetti, non è errore, ma dovuta al fatto che gente tende a ecc. la stimiamo con la correlazione, una covarianza. E possiamo sottrarla dall’errore. Correlano proporzionalmente a quanto sia forte questa unicità. Dunque l’errore non è più solo la somma delle varianze, ma si toglie anche la parte di covarianza fra le misure Nelle misure l’errore dobbiamo togliere la covarianza fra le misure – il disegno misure ripetute rispetto a uno between, a parità del resto è un disegno piu accurato, perché l’errore è minore , perchè togli dall’errore quella parte di variabilità dovute alle caratteristiche individuali del soggetto, che porta ad avere correlazione fra le misure- registrazione min.7 Alla fine è una anova uguale all’altra come la between Slide esempio ansia- esame In un disegno misure ripetute- le differenze di ansia saranno presenti sia nel primo esame che nel secondo ( componente sistematica). Una parte della variabilità dell’ansia creerà punteggi alti alti, bassi basis nei soggetti. Maggiore è forte la componente sistematica, maggiore sarà la correlazione dei due risultati ( i voti all’esame). Questa parte di ansia, la si trova nella correlazioni fra variabili, anche se non la hai misurata puoi stimare il suo effetto. Tutte le influenze che il sogg, porta nell’esperimento dovuto alle sue unicità, alle differenze individuali creano correlazioni. Se togliamo questa, l’errore si riduce, tolgo la varianza condivisa, ottenendo un punteggio scevro delle differenze individuali Vantaggi delle misure ripetute: →Tutte le differenze legate all’unicità del soggetto, le differenze individuali, crei correlazioni fra le variabili. Se tu togli questa, l’errore del modello si riduce. Oppure- nelle MR i soggetti si fanno da controlli per se stessi Errore piu piccolo→ maggiore potere statistico – la grandezza dell’effetto è piu grande 33 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 In sintesi → Vantaggio dei disegni entro i soggetti: riduzione della varianza d’errore (disegno più potente – richiede meno soggetti). - Si possono avere molte condizioni di misura (e.g. condizioni sperimentali) con pochi soggetti - Dunque:Maggior potere statistico Rimuovono (più che i disegni between) la variabilità individuale (le caratteristiche ideosincratiche dei soggetti) non inerente alle variabili misurate Dunque: minore varianza di errore - Consentono di misurare il cambiamento nel tempo Dunque: a) Consentono studi sui processi “causali” b) apprendimento c) evoluzione, etc.. Utile se la variabilità interindividuale incide molto sulla V.D. Svantaggi dei within - Carico del soggetto - Drop-out perdita dei soggetti - Learning effect- effetto di apprendimento - Stanchezza e noia - Carryover effect- Effetti di sorpresa e di novità della misura si perdono - Effetto sorpresa - Effetti di contrasto del soggetto: Problema della coerenza- cercano di dare un’immagine di sé non manipolabile, cercando comportarsi in modo congruo con quello che ha risposto precedentemente Esempio spss Non esiste una variabile con le varie condizioni, ma i livelli delle misure ripetute sono espresse da varie colonne, ogni misura ripetuta è rappresentata da una colonna e quando lanciamo l’analisi devo dire quale è il fattore a misure ripetute e quanti livelli ha Ogni misura ripetuta classicamente è una colonna, una diversa variabile Nella Between dico la Vi è genere e automaticamente utilizza gruppo 0 1. In questo caso devo dire quanti sono i livelli → Li metto nelle vari livelli ANALYSIS- modello lineare generale- MISURE RIPETUTE Prima di aprirsi la solita finestra se ne apre una- come chiami il fattore e quanti livelli ha - Metto il nome che voglio, es TIME fai continua e trovi la schermata e negli spazi metto le colonne che corrispondo alle misure ripetute - Quindi a destra, metto mis 1 – var.1 ecc bisogna ricordarsi l’ordine, dobbiamo noi dire quale colonne del file corrispondono ai livelli delle misure ripetute OUTPUT ---- Otteniamo la tabella degli effetti - F, ETAQUADRO PARZIAL ECC • EFFETTO TIME 3 righe- per adesso guardiamo la prima. È identica a qualunque altra anova , test f, P, etaQ. In questo caso non c’è significatività, non c’è differenza fra le medie. L’interpretazione è la stessa di una normale anova Between. Quindi quando è significativa, andiamo a guardare le medie e le interpretiamo, con post hoc o contrasti come vedremo poi • Grafico delle medie, idem come anova • Età quadro da 0 a 1, varianza spiegata dell’effetto non spiegata Della varianza non spiegata da altri effetti. • Vi sono delle righe in più. Riferite all’assunzione del modello Riga ERRORE: una delle assunzioni , l’omoschedasticità nelle anova ripetute è molto importante, se non viene rispettata i risultati vengono distorti. Viene detta SFERICITÀ e richiede che le correlazioni fra le misure ripetute sian piu o meno le stesse – se ho 3 misure ho 3 correlazioni, l’assunzione che serve per far 34 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 funzionare l’analisi vuole che siano piu o meno le stesse, piu sono diverse e piu i risultati possono essere distorti Es- Se devo rimuovere la covarianza, stima un valore medio e lo sottrae: se sono più o meno le stesse è accurata. Ma se è sbilanciata i valori che verranno fuori saranno distorti. Se sono molte diverse la sfericità non sarà rispettata Sono state inventate correzioni del test F, della significatività, per bilanciare questa violazione dell’assunzione Quanto è violata l’assunzione lo vedo nel grafico di prima — nel TEST DÌ MAUCHLY ➔ Ho- le correlazioni sono uguali- l’assunzione è rispettata se il test non è significato, quindi sig > .05 ➔ Se non è significativo, interpreto la riga dell’output “ assumendo la sfericità” ➔ Se è significativo e non rispettiamo l’assunzione, guardo una riga che corregge con possibili correzioni→ RIGA HUYNN-FIELDS- test corretto per la mancanza di sfericità (cambiano i gradi di libertà) 1 GUARDO TEST DÌ MAUCHLY - 2 SE NON è SIGN. GUARDO PRIMA RIGA - 3 SE è SIGN, GUARDO HYYNN-FIELDS ( una delle possibili, non vi è consenso) - I risultati spesso non cambiano, queste correzioni cambiano i gradi di libertà per ciò il valore di significatività potrebbe cambiare. Bisogna cmq eseguire questo passaggio fondamentale!!! ANALISI DELLE MEDIE POST ANOVA 27-03-17. Dopo aver trovato un effetto principale, capire quali medie sono differenti, testare meglio gli effetti nell’effetto principale, si SONDA l’effetto principale per eventuali differenze Problema: ➔ Se il test F è significativo, concludiamo che esiste una differenza fra le medie dei gruppi ➔ Ciò vuol dire che almeno due medie sono differenti, ma non necessariamente che tutte le medie sono differenti ➔ Chiameremo questo effetto Effetto principale (main effect) ➔ Ci manca di sapere dove esattamente sono queste differenze ➔ Ovviamente se i gruppi sono solo 2, il problema non si pone perché la differenza fra medie è sicuramente fra di loro Soluzione: 1 Analisi dei contrasti • Se abbiamo ipotesi specifiche da testare riguardanti gruppi di medie - Consente di testare tante possibili combinazioni di medie 2 Test post-hoc • Se volgiamo confrontare tutte le medie con tutte le altre.. Più semplice e più utilizzato- Dopo aver visto l’effetto principale ( mentre i contrasti potrebbero essere fatti anche prima indipendentemente) 35 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 METODO DEI CONTRASTI: trend analysis ed altro voglio fare confronti specifici fra gruppi, in presenza di più di 2 medie possiamo confrontare sia una media contro l’altra, sia combinazione di medie ( es italia diversa nazioni del nord germania olanda) Permette di analizzare tutte le situazioni possibili, i testare tutte le ipotesi nulle all’interno dell’effetto principale in modo da poter testare specifiche comparazioni - Costruire un contrasto 1Un contrasto è un set di coefficienti (pesi) che specificano un’ipotesi nulla che volgiamo rifiutare 2Scriviamo tale relazione in modo tale che se le medie fossero tutte uguali (l’ipotesi nulla), la somma delle medie sarebbe zero. 3I coefficienti dei contrasti sono semplicemente i numeri che moltiplicano le medie nella nostra ipotesi Stimare un contrasto equivale a costruire una nuova variabile sommi le medie dei gruppi pesandoli (moltiplicandoli) per dei coefficienti I coefficienti hanno somma zero, e dunque testano una ipotesi nulla L'ipotesi nulla testata è la differenza tra le medie con peso positivo e quelle con peso negativo esempio 3 gruppi c controllo e stress emotivo g cognitivo l’effetto principale rifiuta l’ipotesi nulla che siano tutte uguali, ora vogliamo testare ipotesi specifiche. Testiamo per esempio comparazioni a due che 2 vs 1. Es prima ipotesi del ricercatore c diverso da e-→ ipotesi nulla C = E ( contrario di quello che cerco), che la media del gruppo di controllo sia uguale alla media del gruppo emotivo Quindi la differenza fra le medie per l’ipotesi nulla è 0. Quindi la media del gruppo di controllo – il gruppo emotivo + (il gruppo Cognitivo x0) = 0 → questa è una somma di medie, e ogni media ha un coefficiente Con1 C +1 emot -1 cogn 0 Sommo le medie moltiplicando ogni media per un oppurtuno coefficiente. Si può testare qualsiasi combinazione di medie, come una nuova variabile con la somma delle medie ognuno con un suo coefficiente. Se scelgo il coefficiente bene testo l’ipotesi iniziale, perché equivale a dire che C-e =0, È un po complesso In generale possiamo usare qualunque peso purchè descriva un’ipostesi nulla C1 coefficienti C +1 E -1 G 0 Seconda ipotesi – secondo contrasto Ho C = (E + G ) /2- H1 il gruppo di controllo è diverso dalla media degli altri due Quindi equivale a C-( E + G)/2 quindi C – E/2 – G/2 Quindi i coefficienti sono C 1 E -1/2 G -1/2 36 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 La somma delle medie moltiplicata per opportuni coefficienti Ora ipotizziamo 4 gruppi- Mettiamo un quarto gruppo ----- Somatico S - avrebbe valore 0 ( perché in questo caso non centrava nulla nel calcolo nella mia ipotesi Hp3 C= (E +g+ S) /3 C – e/3 –g/3 –s/3 Coefficienti +1 -1/3 -1/3 -1/3 Una regola che consente che ti permette di testare ogni combinazione, dando giusti coefficienti, rispettando che la somma dei coefficienti sia sempre 0 Quindi io li dico testa l’Ho con questi coefficienti • SE LE MEDIE non sono uguali, la somma sarà diversa da 0 e quindi il test sarà significativo • Contrastiamo coefficienti + e - , il valore deve essere bilanciato perché deve venire 0 la somma dei coefficienti Per ora abbiamo confrontato delle medie custom- decise da noi. In molti casi in cui siamo interessati non solo a differenza delle medie, ma anche nel vedere se il pattern delle medie, segue un trend, ovvero assume forme particolari- NELLE MR le misure sono ordinabili, per quello capita spesso Metodo dei contrasti polinomiali Nei contrasti polinomiale testa con lo stesso metodo l’andamento delle medie: se le medie hanno un andamento risulterà significativo, piatto non sarà significato, Es andamento lineare- più passa il tempo e più aumenta la media ( o diminuisce ) ne fai uno per vedere se ce un andamento lineare ( su - giu )→ definisco un contrasto lineare che disegna un andamento lineare nel tempo, se risulterà significativo, sarà lineare. Nel contrasto i coefficienti devono sommare a zero e il passo di cambio deve essere lo stesso, ti muovi sempre di un tot – tra ogni coppia c’è sempre la stessa distanza Lineare = (-3 -1 1 3) 2. Un altro per vedere se è quadratico ( se si incurvano progressivamente). Q ( -1 1 1 -1) Se il contrasto è significativo, l’andamento delle medie assumerà questa forma Il vantaggio è che non devi fare tutti i confronti possibili, ma se ho delle ipotesi posso verificarle direttamente il terzo_ se a zig zag, con i coefficiente sempre sullo zero detto anche contrasto cubico Ogni contrasto ti dice quando nel tuo pattern di dati quanto è presente quella tendenza ( trend) , ricordando le caratteristiche associate Cubico – vanno su giu C = (-1 1 -1 1 ) 37 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Lineare-→ salgono in media Quadratico—si storcono- incurvano Cubico—vanno su giuù I dati potrebbero avere anche caratteristiche multiple di questi andamenti , es posso salire in media ma non linearmente, es si incurvano ma non come il quadratico, è un mix – significativi entrambi- o meglio testando i coefficienti polinomiali guarda il grafico, guarda cosa è significativo e trae le conclusioni Es se c’è un lineare significativo, vuol dire che in media aumentano nel tempo ecc Si possono stimare quanti contrasti quante sono le medie (gruppi) – 1 Es con 2 – lineare Con 3 lineare quadratico Con 4 lineare quadratico cubico Sopra al cubico non serve nulla ma aggiunge non aggiunge informazioni qualitative sulle caratteristiche delle medie ma solo info quantitativa Costruire un contrasto In SPSS alcuni tipi di contrasti vengono stimati automaticamente dal software, altri dobbiamo specificare noi i coefficienti I contrasti dai noi ideati devono essere specificati mediante la sintassi di SPSS Esempio: Ci proponiamo ora di testare due ipotesi specifiche sui dati “ancoraggio-numerico a tre gruppi”. Per intenderci sui pesi da dare alle medie, consideriamo ancora=10 il primo gruppo, ancora=nessuna il secondo gruppo e ancora=80 il terzo. Non si possono mettere in SPSS nei menu MA NELLA SINTASSI- SI FA L’ANOVA NORMALE E SI PREME INCOLLA – mi apre la sintassi Vd. STIMA FISSI- Ancora INCOLLA Premo freccia verde x inviare DOPO L’ANOVA NORMALE VENGONO FUORI TABELLE SUI CONTRASTI Questi sono sempre contrasti personalizzati “ custom” CONTRASTO 1 Stima del contrasto; differenze fra le due medie 24-21 Sig>.05 38 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Quindi le medie di controllo e ancoraggio 10 non sono statisticamente diverse, non possiamo rifiutare HO CONTRASTO 2 Stime- contrasto=17 ( media di 1 – la media degli altri 2) significativo quindi no ancora e ancora 10, sono statisticamente diversi da ancora 80 Guardo sempre il sig per accettare o rifutare l’ipotesi nulla ESEMPIO DATI: Abbiamo un esperimento in cui un tre set di parole vengono somministrate ad un campione in sequenza (1 2 3 e 4) sotto nel tempo. Si vuole stabilire se vi sia un peggioramento della performance mnemonica (misurata in proporzione di errori) Risultati: Abbiamo un effetto significativo del fattore tempo, ora vogliamo stabilire la forma dell’andamento delle medie nel tempo SPSS default: SPSS fornisce automaticamente i contrasti polinomiali Esempi contrasti polinomiali con anova misure ripetute- “ test dei contrasti fra i soggetti” tab.spss ➔ Se il trend lineare è significativo, le medie tendono ad aumentare (diminuire nel tempo ➔ Se il trend quadratico è significativo, le medie tendono ad aumentare prima e diminuire dopo ➔ Se il trend cubico è significativo, il grafico delle medie contiene una parte a forma di S 39 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 ➔ Possono essere anche tutti significativi. In questo caso in media c’è la tendenza ad andare su ( il pattern non è piatto). Allo stesso modo in media tendono a aumentare prima e diminuire ( incurvamento). Infine in media essendo il cubico,il trend tende a essere su e giù. Vi sono tutte e tre le tendenze ➔ Quando i contrasti sono applicati allo studio delle tendenze si chiamano trend analysis, spesso vengono chiamate COMPARAZIONE PIANIFICATE ( PLANED) – i confronti pianificati hanno appunto come caratteristica il fatto che sono pianificati prima – mentre i post hoc- post effetto. Questa differenza è molto importante, perché se non ho ipotesi e voglio vedere dove variano le medie ho un atteggiamento POST HOC. Interpretazione alternativa Ricordando i persi: I contrasti si possono anche interpretare non in base al tempo, ma in base alle misure confrontate SUI CONTRASTI SLIDE PERUGINI SPSS - Compare Means - One way Anova - Variabile vd - Fattore VI - Coefficienti - Flag descrittive e exclude cases analysis by analysis - OUTPUT-anova normale- tabella dei coefficienti e constrast test Riprese contrasti polinomiali Contrasti ortogonali: Si preferisce utilizzare contrasti ortogonali fra loro (non correlati) - Il test dell’ipotesi inerente al contrasto non influenza il test degli altri contrasti - Non c’è sovrapposizione di varianza con altri contrasti - Il pattern di medie viene decomposto in maniera chiara Due contrasti sono ortogonali se la somma dei prodotti dei loro pesi è zero 40 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 - I contrasti ortogonali sono solo più comodi da utilizzare L’idea che si possano stimare solo contrasti ortogonali è sbagliata Ma anche altri set di contrasti che esauriscono i gradi di libertà dell’effetto principale sono stimabili Purchè siano fra loro non correlati 1 E la somma dei pesi sia 0 in ogni contrasto TEST-POC HOC- atteggiamento esploratorio I confronti post-hoc (a posteriori) servono a trovare le differenze tra i gruppi, presi a due a due Con ipotesi a priori, tutte significative, è quasi più difficile che venga sign. un singolo test Invece se accetto qualsiasi risultato è più facile trovare un effetto, ma l’errore aumenta ( 5%+5% eccc) Ogni volta che facciamo un test con la sign, Piu test faccio più l’errore aumenta – teorema di bonferroni Problema della molteplicità dei test: facendo molti test senza una ipotesi a priori- la prob, di ottenere un risultato significativo aumenta proporzionalmente col numero di test- se faccio tutti i confronti fra medie la probabilità di trovarne significativa aumenta con numero di test. Quindi se non ci sono ipotesi a priori bisogna usare un metodo che renda più difficile che un test venga significativo tanto più sono i confronti che noi facciamo. In generale, facendo K test, se rifiutiamo l’ipotesi nulla per p<.05, il nostro errore diventa sempre maggiore e maggiore di 0.05 Questi metodi sono i POST-HOC, dei contrasti ma il cui valore p viene corretto proporzionalmente al numero di test fatti, SPSS- premo post hoc – usiamo TUKEY e REGWG Interpretiamo la significatività dei confronti Si paga un prezzo a non avere una ipotesi pianificate e usare i post-hoc, se è significativo, perdiamo pero una chance, abbassando le chance generale che venga significativo, perdo un pezzo d’effetto, perdo potere statistico – si dice che “ ammazzano l’effetto” Criterio di bonferroni- è IL POST HOC Più conservativo, lavora sul criterio e non sul valore p , non considera significato .0.5 ma P/ test fatti – si abbassa il criterio di significatività Se abbiamo dei test ma non abbiamo i dati (analisi pubblicate da altri) possiamo sempre usare il criterio Bonferroni in quanto si applica sul criterio di significatività IN CONCLUSIONE---→ SAREBBE MEGLIO DUNQUE usare I CONTRASTI- FARE LE IPOTESI E usare la sintassi IN FASE esplorativa si possono usare i post hoc ricordandosi che si ha meno probabilità di trovare qualcosa di significativo, noi di solito usiamo il tukey SI Riportano le tabelle, diciamo quale post hoc abbiamo eseguito ecc ASSUNZIONI 28/03/17 Noi ne facciamo alcune delle più importanti- anche libro. Se l’assunzione non è rispettata il risultato da noi trovato è distorto,diverso da quello che ci aspettiamo essere Nel modello lineare generale adoperiamo il modello per compiere delle operazioni, ma affinchè abbiamo l’outcome che noi ci aspettiamo ci sono alcune caratteristiche dei nostri dati che devono essere rispettati, in caso contrario i risultati ottenuti non conciliano con quello che noi ci aspettiamo. Modello Lineare Generale La regressione semplice e multipla e l'ANOVA sono sottocasi del modello lineare generale (GLM) 41 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 - La validità del GLM applicato ai propri dati dipende dalla soddisfazione di alcune assunzioni relative ai dati Se le assunzioni sono violate, i risultati saranno distorti 1la relazione è lineare 2 la distanza fra punteggi osservati e predetti sia omogenea 3 la distribuzioni di questi residui assume la forma della curva normale gaussiana Ogni violazione corrisponde a una distorsione diversa dei risultati In generale sono uguali per anova e regressione con qualche eccezione ASSUNZIONE 1- linearità: Come visto precedentemente, la relazione che riusciamo a catturare con la regressione è una relazione lineare Nella regressione vi è la linearità, che assume come la retta sia la miglior soluzione per legare nella nuvola di punti vd e vi→ la relazione che riusciamo a catturare con la regressione è una relazione lineare. Le relazioni non lineari non sono catturate dalla correlazione/regressione perché La correlazione/regressione è in grado di quantificare solo le relazioni lineari Relazione lineare: L’incremento della variabile della VD al variare del variare della VI è costante per i livelli della VI, al suo crescerees . Se questo non avviene non è detto che non vi sia una relazione, ma sono relazioni non lineari→ la parte non lineare della relazione si perde in quanto le concordanza tra scostamenti (covarianza) è diversa ai diversi valori delle variabili Quando parliamo di una relazione con una regressione, non stiamo parlando di qualunque relazione, ma dobbiamo parlare di relazioni lineare, perché quello stimiamo, ricordarci questa assunzione ci permette di limitare l’ampiezza delle nostre conclusioni ASSUNZIONE residui del modello- ovvero la distanza fra il punteggio predetto e osservato. Di quanto sbaglia il nostro modello di predire → Dunque i valori osservati di Y possono essere espressi come somma dei valori predetti e l’errore Le assunzioni che riguardano i residui del modello 42 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 1 OMOSCHEDASTICITÀ-Quando stimiamo la varianza spiegata assumiamo che la varianza di errore sia uguale per tutti i valori predetti, cioè gli errori siano omoschedastici. L’ampiezza degli errori deve essere più o meno la stessa intorno alla retta Violazione- eteroschedasticità Mentre la linearità si applica solo alla regressione visto che l’anova è sempre lineare ( confronto fra medie), questa la testiamo anche nell’anova, perchè la varianza di errore viene valutata fra gruppi: le varianze dentro i gruppi sono più meno l stesse- la variabilità di ogni gruppo è piu o meno la stessa Abbiamo imparato che l’R2 dipende dalla varianza di errore. Se è diversa da gruppo a gruppo, in media non è rappresentativa dei gruppi, quindi tutte le stime basate sulla varianza se non si rispetta l’omeschadesticità verranno distorti ASSUNZIONE 3-normalità dei residui → Si assume che i residui siano distribuiti normalmente. ( distribuzione degli errori distribuiti lungo la normale) Cioè se facciamo un istogramma dei residui per tutti i soggetti, otteniamo una distribuzione fatta a campana ( media e moda al centro, simmetrica, con le code alla stessa altezza) Errore casuale- qualsiasi fattore che può influenzare la dipendente, tolti l’influenza della VI, si guardano i residui si guardano la somma di tutte queste influenze, per il teorema centrale del limite, dovrebbero seguire una distribuzione normale. Mentre se c’è una distorsione si formerà una distribuzione storta- tolto la VI, guardando i residui, come insieme di tutti i possibili effetti casuali, deve assumere una distribuzione normale ( simmetrici, moda,media al centro, con altezza delle code simmetrica) Nel modello lineare generale, la stessa distribuzione dell’ipotesi nulla è una normale, quindi calcolando p ci dice quant’è la probabilità di campionare un risultato da una distribuzione normale. Se la distribuzione non è normale il risultato viene distorto. COME SI TESTANO Analisi dei residui → Per determinare se e quanto le assunzioni sono rispettare, è possible analizzare i residui della regressione/ANOVA Il calcolo dei residui (di norma fatto dal software automaticamente) consta nella mera sottrazione, per ogni soggetto, del punteggio predetto da quello osservato OVVERO i valori osservati – i valori predetti Accediamo in spss a SALVA in univariata Regressione VALORI Osservati meno valore regressione 43 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Anova- V.o- media del gruppo di provenienza Anova –spss- salva residui e punteggi predetti ( valori attesi) OMESCHADATICITà- SCATTER PLOT METTENDO I VALORI RESIDUI SULLE Y, E I VALORI PREDETTI SULLE X ➔ Linearità e omoschedasticità: Se la relazione tra le variabili è lineare e l'assunzione di omoschedasticità è rispettata, lo scatterplot dei “predetti” vs “residui” deve avere una forma a “casuale rispetto all'asse delle X” Noi dobbiamo controllare l’ampiezza se è la stessa piu o meno x il grafico – se l’ampiezza è la stessa “ sembrano distribuiti a caso, distribuzione casuale dell’errore”- omeschedastica FOTO VI CONTINUA IN ANOVA basta confrontare la variabilità fra gruppi, non facciamo test statistici come LEVEN E altri Qui si vede che non sono distribuiti a caso- le fasce hanno ampiezze diverse!! Non ci sarò mai una distribuzione perfettamente omo o etero schedastica, c’è sempre una gradualità Quindi il test statistico taglia le cose un pò a metà. Meglio vederle dal grafico, se la differenza di ampiezza non è lampante, l’assunzione è rispettata, se la differenza di ampiezza è lampante non è omoschedastica Se c’è un OUTLIAR? Sono delle VIOLAZIONI!! Presenza di casi estremi, magari 1-3 che esula chiaramente dalla distribuzione dei residui I punteggi chiaramente fuori sono outliar Chiaramente dal punto visivo che il punteggio non proviene dalla stessa distribuzione degli altri punteggi Outlier o “influential points” sono residui di molto discordanti con la distribuzione nel campione. Essi corrispondono a soggetti con valori estremi o nella variabile dipendente o nella indipendente. ➔ Gli outlier si eliminano dall'analisi Sono delle violazioni perchè non è rappresentativo della popolazione di provenienza Non dovrebbero superare il 5%- per evitare problemi spesso si è soliti eliminare i punteggi residui che sono 2-3 dev,standard lontani dalla media, nella distribuzione normale vuol dire eliminare le code estreme NORMALITÀ DEI RESIDUI- istogramma dei residui → Per verificare la normalità dei residui (cioè che si distribuiscano secondo una distribuzione Gaussiana normale), osserveremo l'istogramma Test di Normalità → È possibile testare l'ipotesi nulla che la distribuzione dei residui sia normale: TEST DI KOLMOGOROV-SMIRNOV KS – ipotesi nulla che La DISTRIBUZIONE è normale, se non è significativo, la 44 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 distribuzione è normale ( stessa caratteristica del test di sfericità per l’anova misure ripetute di Mauchly test di SFERICITÀ ) -→ SPSS- analizza- descrittive- esplora-grafici- indice di normalità e istogramma Ooppure analizza- test non parametrici- Ks per un campione- metto residuo e guardo il sig. Il test di KolmogorvSmirnov testa la differenza tra la distribuzione dei residui e una normale gaussiana→ Se il test NON è significativo, l'assunzione di normalità è rispettata Con un campione molto ampio tenderà a dire che non sarà normale e viceversa- quindi meglio guardare l’istogramma e il grafico, se è chiaramente storto o ok a posto. Nel dubbio test KS per verificare Per outliars se sono indeciso- ANALIZZA-STAT.DESCRITTIVE-ESPLORA(grafici a scatole-livelli dei fattori insieme) VERIFICA ASSUNZIONI• Per poter affermare che i risultati della nostra regressione/ANOVA sono validi, è necessario che i dati rispettino le assunzioni • É possibile verificare le assunzioni analizzando i residui della regressione/ANOVA • Il diagramma di dispersione che lega i valori predetti ai residui deve avere un andamento piatto, simetrico e regolare (banda costante senza outliers) • La distribusione dei residui deve essere normale (test di Kolmogorov-Smirnov) • Nella prossima lezione affronteremo dei possibili rimedi alla violazione delle assunzioni Soluzioni alla violazione Quando una delle assunzioni è violata, si possono analizzare i dati seguenti tre approcci: Cambiare le variabili: Trasformazione delle variabili Cambiare test: test non parametrici Cambiare modello: Modello lineare generalizzato (vedi lezioni succ.) Ouliars- lo elimino Intanto guardiamo 2 metodi_ Trasformazione delle variabili dipendenti Essendo i residui, la variabile dipendente – i valori predetti, la distribuzione dei residui dipende dalla distribuzione della variabile dipendente Se riesco a normalizzare la VD IN MODO che sia normale e abbia i residui omoschedastici posso fare l’analisi sulla trasformata di questa variabile ( NEI punteggi x cambiano la scala)- qui cambiamo proprio la forma Da una VD storta→ residui storti Es- tempi di reazione- rispondi veloce – allungamento dei tempi Trasformazione variabili Quando la variabile dipendente non è distribuita normalmente, si può operare una trasformazione della variabile al fine di modificarne la forma della distribuzione Esistono vari tipi di trasformazioni, suddivisibili in due classi 45 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 1) Trasformazioni volte a normalizzare la variabile 2) Trasformazioni in ranghi (ranks) Normalizzazione Le trasformazioni volte a normalizzare la distribuzione hanno come scopo quello di rendere la nuova variabile dipendente “più normale” dell'originale: Ogni formula può funzionare, purchè non cambi l'ordine dei punteggi. Applicare qualunque formula per trasformare la VD in nuova variabile, possiamo usare una serie di formule per trasformare i punteggi affinchè la scala prenda una forma differente e assomigli alla normale 2 metodi per sapere quale fare: guardare la letteratura di riferimento→ qualcuno magari lo ha già fatto. Es tempi di reazione normalizzabili tramite la trasformazione logaritmica – allarga la distanza fra punteggi bassi e restringe quella fra punteggi alti →Se la trasformazione funziona, la nuova variabile sarà una normale (testate, ad esempio, con il KolmogovSmirnof Scelta della Trasformazione Normalizzante Non esiste una regola precisa per scegliere la trasformazione: La trasformazione che normalizza la variabile è quella che funziona Se non c’è letteratura; proviamo varie formule cuadrato,cubo,logartimo 1/vd 1/vd alla seconda Se si trova la trasformazione che normalizza la variabile dipendente, i risultati della regressione/anova saranno più attendibili Il limite è che la trasformazione deve essere monotonica rispetto ai punteggi- non deve cambiare l’ordine dei punteggi ( es se un punteggio è-4 diventa 16 non va bene) Si deve però fare attenzione che le unità di misura sono cambiate, dunque si interpreteranno preferibilmente i coefficienti standardizzati TRASFORMAZIONE IN RANGHI- trasformazione per cui il punteggio viene classificato in una classifica, il piu alto prende 1 ecc- preserva solo l’ordine dei punteggi Un'altra classe di trasformazioni prevede di calcolare i ranghi delle variabili continue inserite nelle analisi La trasformazione in ranghi modifica i test del GLM (regressione/correlazione/anova) in test non parametrici I ranghi rispettano l'ordine dei punteggi, non la loro intensità relativa, ha sempre la stessa distribuzione piatta È ALLA BASE DÌ UNA FAMIGLIA DÌ TEST che vengono usati quando la distribuzione della VD non rispetta le assunzioni e non si riesce a trovare una trasformarla→ i test non parametrici 1 vd 2 RANGHI Test non parametrici I test non parametrici (che studiamo in questo corso) equivalgono alle tecniche statistiche studiate fino ad ora operate dopo aver 46 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 trasformato le variabili continue nei loro rispettivi ranghi, A una applicazione del modello lineare fatta sui ranghi Si dirà quindi la differenza media fra i ranghi, l’interpretazione è la stessa, ma piuttosto che interpretare l’effetto della Vi sulla Vd si interpreterà l’effetto sui ranghi della VD Test non parametrici- riassunti libro per dettagli Correlazione di Spearman Consta nel calcolare la correlazione (quella che conosciamo) sui ranghi (R) delle variabili → Indica il grado di monotonicità della relazione tra due variabili Regressione non-parametrica Consta nel calcolare regressione sui ranghi delle variabili Indica il grado di monotonicità della relazione tra due variabili espressa come cambiamento del rango in Y per un rango in più di X- il rango medio dei sorrisi aumenta all’aumentare del rango medio delle birre ecc coefficiente B – correlazione di spearman Mann-Whitney Equivale a calcolare il t-test sui ranghi delle variabili- 1 Indica il grado differenza delle distribuzioni di Y tra due gruppi Kruskal-Wallis- generalizza il mann-whitney Equivale a calcolare il ANOVA-one way (la Ftest) sui ranghi delle variabili NOI dobbiamo ricordare quale test corrisponde a quale- i gruppi hanno es rango medio diverso, le loro posizione in classifica sono in media diverse Perchè non si usano sempre questi?? La quantità informazione dei test non parametrici + molto meno di quella del modello lineare generale. Nei modelli non parametrici l’informazione è degradata perchè si perde la quantità in questione, ho solo una classifica- ci dice solo se l’effetto è significativo, non possiamo fare le interazioni ecc il KW si fa sempre solo x una via Li usiamo solo se non possiamo utilizzare il modello lineare generale Un consiglio è di fronte a una violazione delle assunzioni evidente - Stimare il modello - Testare quello che è possibile con i non-parametrici e vedere se c’è congruenza per capire se posso fidarmi dell’anova se concorda con il Kruskal wallis - Se non c’è corrispondenza non possiamo affidarci e quindi citiamo solo il non parametrico ESERCITAZIONE IN CLASSE 29/03/17 REGISTRAZIONE - Disegno between subjects perchè i soggetti sono collocati in una solo situazione - Disegno sperimentale 3 condizioni x 2 difficoltà - VD indice di creatività - Altre variabili di differenze individuali Determinare gli effetti di condizione e difficoltà sulla performance al task ( a volte al domanda può essere determinare se la variabile, se la x ha un effetto su y)- bisogna sempre descrivere cosa fai e le condizioni 47 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 1 tavola di contingenza per la distribuzioni dei dati- vedere frequenze, i dati che abbiamo ecc - Analizza-> descrittive- tabelle di contingenza Condizione in righe In colonne difficoltà Incrociamo le frequenze per vedere quanta gente ce dentro – vediamo un disegno bilanciato 20 soggetti per condizione 3x 2 totale 120 Con 0 individuale 1 imposto 2 spontaneo Variabili categoriche- facciamo una anova ( se fosse categoriche e continue ancova) Analizza- modello uni- uni variata- indipendente ( Fttori FISSI) CONdizione e difficoltà- vd = performance Cosi vediamo effetti principali e interazione→ chiediamo anche grafico delle medie per interpretare effetti Grafici: cond- asse orizzontale, linee separate DIFFICOLTÀ Dobbiamo ottenere l’indice degli effetti- eta quadro o parziale→in opzioni e chiediamo STIMA DELLE DIMENSIONI DEGLI EFFETTI Inviamo: vediamo i risultati - Prima c’è la tabella degli effetti- effetto principale di condizione e difficoltà e effetto di interazione - Diremo in media rispetto alla difficoltà in media le tre condizioni non sono tutte uguali P < .01 – - In media i due task difficile e facile risultato statisticamente differenti, ma questi effetti sono moderati – perché c’è interazione, e cambiano a seconda della condizione - Il modello spiega il 36%, condizione 15 % della varianza non spiegata dagli altri effetti, difficoltà 20%. Effetto di interazione decisamente non trascurabile - Riportiamo dagli effetti principali fino all’interazione, riportiamo la F con i suoi gradi di libertà (Gl) DELLA F E DELL’ERRORE, P ( segnare mai uguale a 0) e infine età quadro - Nel rispondere alla domanda o scrivendo la tesi vanno anche interpretati- guardiamo il grafico Essendoci una interazione possiamo interpretare gli effetti divisi per gruppi, l’effetto di condizione per i livelli del moderatore. Per quanto riguarda il task difficile la perfomance è diverso nella 2 condizioni sperimentali, nella condizione facile la permorncance migliora nella condizione obbligato rispetto alla condizione da solo, ma aumenta ancora i piu nella condizione gruppo spontaneo registrazione 29 Dobbiamo descrivere l’effetto di una variabile sui livelli dell’altra Determinare gli effetti di condizione, ignorando difficoltà( vuol dire non considerare la variabile, come se non ci fosse---- è il contrario di tenere costante ( è attivo) la variabile) , su performance e confrontare i gruppi a 2 a 2, usando un modello ANOVA e un test non parametrico. Confrontare le conclusioni delle due analisi Testo gli effetti e faccio un confronto 2-2 anova a una via visto che ignoro la difficoltà come condizione VIfaccio post hoc ( per confrontare tutti gruppi) Non parametrico- kruskal wallis. Equivalente dell’anova a 1 via fatta sui ranghi, Ma per i post hoc? Non posso con i non parametrici – lo dobbiamo fare noi - Anova a una via post hoc e vediamo i risultati - Analizza modello linerare- uni variata - Vd performance, fattori fissi condizione - Post hoc – tukey per condizione – confronto tutti i gruppi di condizione - Grafico non ci serve lo mando 48 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 L’effetto di condizione giustamente è ancora significativo- la condizione ignorando le altre variabili ha un effetto significativo sulla performance Tabella post hoc- 0 vs 1, da solo vs imposto, ha una differenza media di -,75 che non risulta statisticamente significativo- in media non sono significativi Gruppo da solo 0 vs 2 spontaneo ha una differenza di -2 ed è statisticamente significativo - Gruppo 1 vs 2, ha una differenza di -1,28 e non è statisticamente significativo - Riportiamo la differenza media e la significativa ( se proprio vogliamo differenza/errore standard = t test) - Interpretazione l’effetto principale è giustificato dal fatto che il gruppo solo è diverso da quello spontaneo. Mentre quello obbligato non è significativamente diverso dagli altri Ora test non parametrici - Finestre di dialogo legacy - K per campioni indipendenti ( gruppi) ( quello per campioni correlati è per le misure ripetute) - Variabili del test –vd- “ elenco variabile del test”-→ Performance - v. raggruppamento- VI condizione mette due ?? chiede di definire il range ( definisci l’intervalloquali considerare?- gli chiediamo da 0 a 2) - Invio: ok- non c’è la F ma il Chi- quadrato- è significativo- i ranghi in media di questi 3 gruppi sono differenti . riporto chi quadrato, significatività, gradi di libertà. La posizione in classifica in media fra i 3 gruppi non è tutto uguale. - Non ci sono i post hoc dobbiamo fare noi i confronti a 2 a 2- il krusakl wallis generalizza il main Whitney - Facciamo il main Whitney a 2 a 2- finestre dialogo- 2 campioni indipendenti- le variabili le stessefacciamo definisci gruppi - Iniziamo 0 vs 1 – in media il rango della condizione 1 è piu o meno uguale a quello della condizione 0 - Ora 0-2 2 campioni indipendenti, tutto uguale e mettiamo gruppi 0 e 2 – risulta staticamente significativo, con i test non parametrici si riporta p e non so - Confronto 1-2 risulta statisticamente significativo Con il parametrico confermo l’effetto principale, 0 risulta non diverso da 1, 0 diverso da 2, ma nel confronto non parametrico 1 risulta diverso da 2 Tuttavia non è un confronto equo, poiché I post hoc però hanno corretto la significatività in relazione a quanti confronti fai, nel non parametrico non viene corretto nulla Solo un test può essere utilizzato con i non parametrici: Posso fare il Bonferroni a mano, considero significativo non p < ,05 ma p < (.05/numero di confronti) Quindi .05/3 fa = 0.016 e dovremmo considerare significativo solo ciò che è piu basso di .016 qui abbiamo .03 quindi è in linea comla situazione di prima che era quasi significativo in anova ( .053) Quindi possiamo usare bonferroni per rispondere ad occhio Domanda 3 determinare i coefficiente standardizzati del seguente path diagram e determinare gli effetti mediati ( c’è spesso) come indicato dal diagramma - 49 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Modello per scrivere relazioni fra variabili risolvibile una serie di regressione, per stimare i coefficienti faccio tante regressioni quante sono le variabili che ricevono una freccia ( dipendenti) da quelle che mandano le indipendenti Questo è una mediazione doppia Iniziamo dai coeffieicienti A_ regressione semplice ( guardo i b per coefficiente standardizzati) dove iQ indipendente e autonomia dipendente B rispettivo per B C e d effetto su perfromance considerando l’effetto al netto Analizza regressione lineare - Prima regressione Autonomia ( vd) indipendente ( iq)- ok estraggo coefficiente Beta = .31 ( segno statistificamente significativo) a=. 31 - Seconda regressione – estroversione ( vd) VI Iq- coefficiente Beta .028 ( non significativo) - Regresisone multipla totale che mi dice gli altri coefficiente VD Performance , le altre variabili come indipendenti • d = -.17 non sign. • c = .052 non sign • e = effetto diretto .39 stat. significativo risposta - RIPORTO I VALORI NEL PATH DIAGRAM- frega un cazzo della significatività riporto i beta standardizzati perché me lo chiede – se devo riportare risultati li riporto sempre indipendentemente dalla significativita - Effetto mediato autonomia = a x d = .313 x - .175 = non è significativo perchè non erano tutte e due significativi - Effetto mediato estroversione b x c – riporto valore e dico che non è significativo - Effetto mediato totale – la somma dei due precedenti Quarta domanda Determina gli effetti di condizione e difficoltà sulla performance ( prima anova fatta )ma al netto di Qi e autonomia- analisi della covarianza ANOVA- METTE INSIEME CATEGORICHE E CONTINUE È la stessa analisi della prima domanda – VD ( PERFORMANCE) E VI ( cond e difficoltà) - In covariate metto IQ E AUTONOMIA - Chiedo ancora il grafico - Opzione- chiedo stime dimensione effetti - Invio – ok 50 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Interpretazione: calcoliamo gli effetti delle Vi categoriche al netto di quelle continue (potremmo interpretare pure questi ma questa domanda non c’è lo chiede Condizione, difficoltà e interazione significativo. spiegano più di prima perchè età quadro PARZIALE si BASA sulla varianza non spiegata degli altri, togliendoli, aumenta Qualitativamente non cambia niente, anche al netto i IQ e autonomia ritroviamo effetti principali e interazione- tuttavia per vedere se è cmq uguale O GLI Effetti cambiano di tendenza guardo il grafico In questo caso è sostanzialmente identico – i risultati ottenuti nella prima domanda sono sostanzialmente replicati sia qualitativamente si quantitativamente anche tenendo costante IQ e autonomia ( quindi non hanno a che fare con gli effetti delle variabili categoriche) Riporto P F gradi libertà, confronto medie e confronto con la domanda 1 MODELLI LINEARI GENERALIZZATI Preludio La maggior parte delle comuni tecniche statistiche volte ad individuare le relazioni fra variabili, quali Correlazioni, Regressione, ANOVA, ANCOVA, sono riconducibili al Modello Lineare Generale (GLM) Il GLM ci permette di studia gli effetti di variabili indipendenti di vario tipo su variabili quantitative (variabili dipendenti continue) La ricerca empirica è disseminata di variabili dipendenti qualitative (scelte dicotomiche, scelte multiple, frequenze di eventi, classificazioni, etc) I Modelli Lineari Generalizzati ci consentono di studiare gli effetti di variabili indipendenti su variabili dipendenti qualitative ( che rappresentano qualita, o variabili nominali) modello lineare generale. Modello lineare generalizzato, prendono nome diverso a seconda della variabile dipendente MLGZ :Tecniche volte a studiare e quantificare gli effetti di una o più variabili indipendenti continue o nominali su una variabile dipendente nominale (qualitativa) Tecniche statistiche: - La regressione logistica: Variabile dipendente dicotomica (noi vediamo questo e non gli altri, che tendono a essere basati sulla logistica, adattata a casi più complessi) - La regressione ordinale: Variabile dipendente ordinabile - La regressione multinomiale: Variabile dipendente politomica - La regressione di Poisson: Variabile dipendente basata su frequenze - Tutto ciò, anche a misure ripetute Tecniche volte a studiare e quantificare gli effetti di una o più variabili indipendenti continue o nominali su una variabile dipendente nominale (qualitativa) I modelli generalizzati non sono complicati ma vanno approcciati nella maniera giusta. ASSUNZIONI: ❖ Quando le assunzioni non sono soddisfatte, i risultati sono da considerarsi dubbi ❖ Se la violazione delle assunzioni è grave, la regressione/ANOVA non può essere applicata ❖ Nella pratica, con variabili dipendenti continue normalmente distribuite, queste assunzioni sono abbastanza semplici da soddisfare 51 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 ❖ Ma cosa succede se volessimo usare una variabile dipendente dicotomica? La REGRESSIONE LOGISTICA (SPSS ggml- logistica binaria) si propone di studiare e quantificare le relazioni tra una o più variabili indipendenti quantitative (es. età, salario, atteggiamenti, personalità) e una variabile dipendente dicotomica (es. stato civile, voto al referendum, appartenenza ad un gruppo, etc.) Essendo solo 2 i punteggi- lo scatter plot avrà sempre solo 2 strisce Inoltre non può essere omoschedastica, perché all’aumentare della x aumentano gli errori, i residui non saranno inoltre mai normale Quando abbiamo una variabile dipendente dicotomca, ogni soggetto ha o 1 o 0 come valore della variabile dipendente La media della variabile dipendente è la probabilità di ottenere il valore 1 .Ciò che prediciamo è la probabilità p di appartenere al gruppo con valore 1 (e 1-p sarà la probabilità di appartenere al gruppo 0). Come varia la probabilità di essere in un gruppo o in un altro I punteggi predetti saranno senza senso Fittata una retta cosi dumble produce punteggi senza senso- non dobbiamo predire la probabilità per sé ma predire una trasformazione della probabilità, immaginarla in maniera diversa cosi quello che rappresenta la retta abbia senso Dunque l’assunzione di linearità è sicuramente violata. SOLUZIONE: Necessitiamo dunque di un tipo di regressione che: Risolva il problema della omoschedasticità, linearità e normalità degli errori Ammetta valori non assurdi Ci esprima le relazioni sulla base di probabilità o qualcosa di comparabile Cioè dobbiamo usare un modello che trasformi la variabile dipendente tale da linearizzare la relazione, rendere la variabile dipendente continua, e farla variare su tutto l’asse (valori positivi e negativi) Soluzione: parte 1 Intanto decidiamo di non cercare di predire la probabilità, ma il rapporto tra probabilità Tale rapporto è detto odd (rapporto di probabilità)- probabilita di essere nel gruppo 1/ probabilità di essere nel gruppo0. Varia da 0 a infinito ODD: L’odd è il rapporto tra la probabilità di un evento (appartenere ad un gruppo) rispetto alla probabilità del non evento (appartenere all’altro gruppo), quanto è più probabile un evento rispetto al suo complemento. 52 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Se è uguale a 1 gli eventi sono equiprobabili , se è >1 la prob, di essere nel gruppo 1 è maggiore rispetto al gruppo 0. È una scala diversa con cui esprimere la probabilità fra 2 gruppi → L’odd indica quanto più probabile è un evento rispetto al suo complemento. Se è < 1, la prob di essere nel gruppo 1 è minore della probabilità di essere nel gruppo 0. Non basta questa trasformazione → Se usassimo gli odd come variabile dipendente, potremmo ottenere predizioni impossibili, come predizioni di valori negativi Soluzione parte 2: Decidiamo di non cercare di predire l’odd, ma il logaritmo dell’odd. Regressione logistica- regressione lineare che non viene fatta sulla variabile grezza (probabilità di essere nel gruppo 1) ma nel logit, cioè predice il logaritmo dell’odd. Il logaritmo in base A di B è quel numero a cui dobbiamo elevare A per ottenere B. Trasforma una variabile odd in una sia positiva che negativa. Prende una che va da 0 a 1 – poi l’odd da 0 a infinito, trasformandola in una che va da – infinito a piu infinito. ll logaritmo di una variabile che varia da 0 ad infinito (come gli odd), varia per tutti i valori possibili, da negativi a positivi Il logaritmo dell’Odd permette di esprimere la probabilità mediante valori sia positivi che negativi Linearizzazione della relazione Grazie al fatto che il logit sta in rapporto sigmoidale con la probabilità, il logit sarà in rapporto lineare con le variabili dipendenti ❖ X predirrà LOGIT grazie a una retta ❖ Il logit inoltre è centrato sulla probabilità, positivo per p >.5, negativo per p <.5, centrato a 0 per p = 5 Viene predetto il logit e i punteggi predetti saranno ragionevoli Il logaritmo dell’OR sta in relazione sigmoidale con la probabilità Se una variabile è in relazione a S con la probabilità, avra una relazione lineare con il LOGIT, assorbe la S e la fa diventare una retta, la linea rizza→ Grazie al fatto che il logit sta in rapporto sigmoidale con la probabilità, il logit sarà in rapporto lineare con le variabili dipendenti La regressione logistica è una regressione in cui la variabile dipendente è dicotomica, e dunque si predice mediante una regressione lineare il logaritmo del rapporto tra la probabilità di essere in un gruppo piuttosto che l’altro Quindi possiamo interpretare un modello lineare come prima ma considerano che la VARIABILE DIPENDENTE SARà NOMINALE DUNQUE DOBBIAMO CONSIDERARE IL LOGIT Quindi- REGRESSIONE LOGISTICA - Dato che la variabile è stata trasformata, la regressione ora è possibile 53 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 - Rispetto alla regressione che già conosciamo, cambierà: Come interpretare i coefficienti→ Il test di significatività (si usa il Wald test, ma la logica è come con il t-test) Come interpretare l’R2 LOGISTICA IN PRATICA: Ci proponiamo di studiare in un campione di 133 soggetti, le relazioni tra atteggiamento politico (conserv, positivo= conservatore, 0=incerto, negativo=liberal) e voto alle elezioni presidenziali americane vd 0-1 VOTO BUSH- 1, voto Kenny 0 SPSS - Analizza- Regressione binaria logistica - Logistica - Vd - vi- covariate - Essendo una regressione, ci aspettiamo di trovare un coefficiente B, un coefficiente costante, e un test di significatività del coefficiente Costante in regressione è il valore medio di y per x uguale a 0 .132è il logit di bush per x =0 Il logit non è significativo, logit quindi 0, quindi probabilità 50% L’effetto è il coefficiente di regressione, all’aumentare di un’unità di conservatorismo quanto aumenta la probabilità di votare bush – è significativo, la Vi influenza la probabilità di votare bush rispetto a kerry. ll problema sta nel fatto che tutte le informazioni (come in ogni regressione) sono espresse nell’unità di misura della VD Nel caso del logaritmo di Odd, questa unità è non intuitiva e poco informativa. Ovvero: Per ogni unità in più di conserv, ci aspettiamo un aumento del logaritmo di Odd di .907! Ma è tanto o poco? Quanto aumenta? Il problema del logaritmo è che la sua unità di misura non è intuitivamente interpretabile. Boh, nessuno capisce la scala logaritmica – non si interpreta la si rimuove, guardiamo i coefficienti di regressione ottenuti rimuovendo la scala logaritmica— osservando i coefficienti EXP. Per ovviare a ciò, le quantità espresse su scala logaritmiche possono essere riportate all’unità originale mediante la FUNZIONE ESPONENZIALE→ Unità più comprensibili Dato che nella logistica le informazioni sono ottenute sulla base di una VD logaritmica, la funzione esponenziale le riporta all’unità precedente (funzione inversa) L’unità precedente è l’odd ratio—i coefficienti vengono espressi nella scala odd 54 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Relazioni tra unità di misure: Al fine interpretativo è importante ricordare che: La somma tra due logaritmi, equivale al prodotto tra gli argomenti. Interpretazione di exp(B)- il coefficiente ci dice di quante volte aumenta l’odd Exp(B) è il tasso con cui aumenta Odd per ogni unità della VI ( l’odd aumenta di 2.47 vole per ogni unità della x)→ Per ogni unità in più di conserv, il rapporto di probabilità tra votare Bush e votare Kerry aumenta di 2.47 volte Cioè il tasso con cui cambia il rapporto di probabilità al variare della VI Interpretazione di exp (costante) Exp(Costante) è l’Odd atteso quanto la VI è zero Se conservatorismo è uguale a zero, ci aspettiamo un odd ratio di 1.141, cioè votare Bush è 1.142 volte più probabile che votare Kerry. Se conservatorismo è uguale a zero (soggetto incerto), votare Bush o Votare Kerry sono quasi equiprobabili Interpretazione di exp (b)→ Exp(B) è quanto aumenta l’Odd per ogni unità in più della VI ( tasso di cambio, effetto della variabile indipendente espressa in scala odd e coefficienti associati a ogni indipendente, che dice di quante volte cambia l’odd. Sarà sempre positivo. Se passiamo da conservatorismo=0 a conservatorismo=1 (aumentiamo x di una unità), ci aspettiamo che l’ odd ratio aumenti di 2.476 (Per ogni unità in più l’odd aumenta di 2.47 volte. Interpretazione di exp(B) Aumentando X di 1, aumento in termini di logaritmo di .907. L’esponenziale di .907 è 2.476. Dunque in termini di Odd aumento di 2.476. Cioè se un soggetto ha conservatorismo uguale ad 1, il suo Odd di votare Bush sarà 2.476 volte più grande del soggetto che ha conservatorismo uguale a 0. Se standardizziamo la variabile indipendente prima dell’analisi l’exp ci dice di quanto aumenta l’odd per un aumento della vi di 1 deviazione standard. ❖ Di fronte a una regressione logistica facciamo una interpretazione grezza basandoci sul logaritmi e la significativa, per essere precisi interpretiamo EXP per dire di quanto aumenta l’odd all’aumentare di una unità della variabile indipendente TRASFORMARE UN ODD ( rapporto di probabilità) in PROBABILITÀ ➔ PROB = ODD variabile / 1+ODDvariabile REGRESSIONE LOGISTICA MULTIPLA 55 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Tutto ciò che sappiamo sulla regressione lineare (interazione, effetti parziali, mediazione, path analysis) rimane concettualmente equivalente per la logistica Cambia cosa si predice ed il calcolo dei coefficienti Cambia anche come valutare la bontà complessiva dell’equazione di regressione Coefficienti I coefficienti sono espressi nella scala logaritmica [B] e nella scala dei rapporti di probabilità o odd ratio [exp(B)] Al netto del numero bicchieri, l’odd degli italiani è 6,9 volte di quello degli inglesi, per ogni bicchiere in più l’odd raddoppia Esempio di RL multipla: Vogliamo predire se le persone preferiscono il vino (1) o la birra (0) in funzione della loro nazionalità (Italiani, 1, vs. Inglesi, 0) tenendo sotto controllo la quantità (quanti bicchieri bevono ogni giorno) In anova confronti l’odd in più gruppi- non dici le medie sono differenti, ma l’odd medio è differente B è il cambiamento predetto nella logit per un’unita di cambiamento nella VI, mantenendo costante (al netto, parzializzando) l’altra VI exp(B) è di quanto il OR di appartenere al gruppo 1 si moltiplica quando muoviamo la VI di 1 unità Bontà dell’equazione complessiva Abbiamo tre indici di bontà complessiva dell’equazione Quasi equivalente alla R2 nella RLM Per R2 NON ce proprio una varianza da spiegare essendo una variabile dicotomica, vi sono indice pseudoR2che si interpretano allo stesso modo Quanto il modello fitta i dati- bontà del modello ➔ Nagelkerke: 1) Più è grande, meglio è 2) Come Cox, ma raggiunge 1 ➔ Likelihood ratio: 1) Più è grande, peggio è 2) Quanto della VD non è spiegato dopo avere considerato le VI ➔ Cox & Snell: 1) Più è grande, meglio è (0<r<1) 2) Quanto la VI spiega la VD rispetto a quanto è possibile spiegarla 3) Non raggiunge 1 Significatività complessiva Possiamo testare la significatività complessiva della regressione con un test del Chi-quadro Concettualmente equivalente al test F per la R2 in RLM Predetto vs. Reale 56 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Dato che i valori predetti sono probabilità, le persone possono essere classificati nei due gruppi (ad es., vino vs. birra) secondo la probabilità predetta (ad es, dalla nazione, Italia vs. Germania). Il gruppo “predetto” può essere comparato con il gruppo reale. Più i due coincidono, meglio la VI spiega la VD. È la tabella di classificazione- stima il modello, sulla base dei valori modelli riclassifica i soggetti – un modello è buono quando i valori predetti sono in linea con i valori osservati Se il modello perfetto la percentuale in basso è 100%,il minimo è 50% Riassumendo • La Regressione Logistica è una regressione con una VD binaria • Si focalizza sulla probabilità di appartenenza al gruppo • I coefficienti sono espressi in scala logaritmica (B) come Odd Ratio exp(B) • Il exp(B) è la quantità per la quale OR viene moltiplicato quando muoviamo la VI di 1 unità • La bontà dell’equazione complessiva è espressa con il likelihood ratio e delle approssimazioni di R2 (Cox & Snell, NagelKerke), con la classificazione nei gruppi predetti vs. reali, e la significatività con un test Chi-Quadro • La logica di fondo è come per la Regressione Lineare Multipla • È comprensibile come un caso particolare di Modello Lineare Generalizzato NB Nel riassunto sul libro c’è la spiegazione di tutti gli altri modelli che prevedevano VD qualitative Esempio: esercitazione – esercizio 3 GALLUCCI- file sui topi RATS Regressione logistica con variabile indipendente categorica, in questo caso dicotomica - Regressione logistica- si può fare in analizza- regressione logistica binaria ( questa mi fa vedere anche R^2 - Oppure in modelli lineari generalizzati (sempre sotto analizza)- flaggo logistica binaria - Gallucci preferisci questa seconda via poiché ti permette di segnare la categoria di riferimento per calcolare il rapporto di prob Analizza- modelli lineari generalizzati Regressione logistica binaria RISPOSTA- V. DIPENDENTE “sotto categoria di riferimento, sempre in risposta, premo “PRIMA”, Mi calcola come riferimento dunque la categoria dicotomica della variabile indipendente 0 Procedo- metto la Vi in FATTORE, perché categorica STATISTICA- includo stime esponenziali ( EXP- che mi mostra l’odd) OUTPUT: - TEST DEGLI EFFETTI: Equivalente al valore F. “ i due gruppi differiscono nella probabilità di uscire a sinistra. Essendo categorica la VI, la probabilità è il valore atteso medio, dunque la media - Gruppo 0 media 0.38 - Gruppo 1 media 0.89 - Il coefficiente B è la differenza fra il logit di 0 e 1 di uscire a sinistra - expB =ODD gruppo 0 – probabilità gruppo 0/ 1- probabilità = 0.7→ la probabilità di uscire a sinistra per il gruppo 0 ( che fa un training a destra) è 0.7 volte minore del gruppo 1. 57 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 IL MODELLO LINEARE MISTO. Modello Lineare Generale- vantaggi Consente di stimare le relazioni fra due o più variabili Si applica ad una ampio spettro di tipi di dati Consente di stimare vari tipi di effetti svantaggi Assume una struttura dei dati molto semplice Non consente di modellare una ampia serie di relazioni e dipendenza tra unità di misurazione Es dipendenza fra i dati, es bambini in classe diverse la cui performance dipende anche dagli insegnati, è un cluster che raggruppa i punteggi in maniera uniforme. Dobbiamo generalizzare il nostro modello permettendo di studiare la relazione fra variabili anche quando i punteggi sono raggruppati in maniera meno strutturata del disegno a misura ripetute. Trovare un modo per prendere in considerazione questa struttura a cluster. Se pensiamo alla media (modello lineare più semplice)- in un modello del genere esiste un solo valore del parametro nella popolazione. I punteggi osservati diversi dal predetto dal parametro sono dovuti a variazioni casuali (errori)→ Le variazioni casuali sono indipendenti l'una dall'altra. Le assunzioni vogliono che i punteggi residui siano fra loro indipendenti, un fattore più alto della media non influenza l’andamento di un altro fattore. Ci sono casi però in cui questa assunzione sono violate- es analisi della valutazione di un corso (i vari soggetti non si influenzano ma se considero tutte le classi la situazione cambia). Di fronte a un modello come quelli che abbiamo visto per ora assumiamo che rappresenti in termini statistici la popolazione di cui il nostro campione è un esempio, ma questi parametri noi li diamo fissi nella popolazione, cioè quel parametro si applica a tutti allo stesso modo, quindi le variazioni sono casuali- ovvero che i parametri siano fissi nella popolazione e descrivono tutti nella popolazione. Nel modello lineare generale Il valore stimato della popolazione si definisce FISSO (fixed parameter). Violazioni delle assunzioni Le ASSUNZIONI DI UNICITÀ DEGLI EFFETTI (EFFETTI FISSI) E INDIPENDENZA DELLE MISURAZIONI (ERRORI INDIPENDENTI) NON SONO RISPETTATE IN TUTTI I SEGUENTI CASI: - MISURAZIONI CORRELATE DISEGNI A MISURE RIPETUTE DISEGNI LONGITUDINALI DATI CON STRUTTURE GERARCHICHE DATI CON MISURAZIONI MULTI-LIVELLO Si può ottenere un modello anova- regressione anche in casi con dati aventi una struttura clusterizzata MODELLI LINEARI MISTI ( non confondere con l’anova mista) - Non esiste un solo valore fisso che intendiamo stimare - Le variazioni casuali non sono indipendenti l'una dall'altra I modelli misti consentono di estendere il modello lineare generale in tutte quelle situazioni in cui le due assunzioni fondamentali del GLM non sono rispettate Estensione del GLM al modello misto Esempio birre e sorrisi: Consideriamo il caso in cui abbiamo ampliato il nostro campione di “bevitori di birra”, avendo raccolto ulteriori dati in diversi bar della città Lo scatterplot mostra una distribuzione differente dall'esempio precedente- 58 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Questa analisi ignora completamente il fatto che i dati non sono stati raccolti casualmente, ma presi in cluster, in gruppi appartenenti a livelli diversi della variabile bar. Possibili spiegazioni: I risultati potrebbero essere distorti (e ciò spiegherebbe il risultato inatteso) dal non aver considerato la struttura dei dati I dati infatti: o I soggetti sono stati campionati in diversi bar o Ogni bar potrebbe avere caretteristiche particolari (ambiente, qualità della birra, etc) che condizionano la relazione tra le variabili o I soggetti in ogni singolo bar potrebbero essere più simili tra loro di quando lo siano soggetti in bar diversi Se guardo i bar specifici, dati dal colore, sembra che essere in un bar piuttosto che in un altro, possa influenzare i parametri della relazione. Le intercette nei vari gruppi sono diverse, (valore atteso per x uguale a 0, punto in cui la retta taglia l’asse delle y). In questo caso le rette sono tutte positivi, diverso da quello che c’è venuto ignorando i bar (correlazione negativa). Inoltre in questo modo i residui verranno calcolati come distanza nella loro retta e saranno fra loro indipendenti. Risolviamo così l’effetto dei bar e dei residui – fittiamo i risultati e li rendiamo più aderenti Modello ➔ Sembrerebbe che considerando tutti i soggetti come equivalenti ed indipendenti (assunzione della regressione) otteniamo un risultato distorto→ PARADOSSO DÌ SIMPSON; un trend compare in un gruppo di dati ma scompare (o si inverte) quando si considerano i dati combinati ➔ Se stimassimo un modello in cui la retta di regressione (intercetta e coefficiente B) sia diversa in ogni gruppo, avremmo dei risultati più soddisfacenti OVVERO Se stimassimo un modello in cui la retta di regressione (intercetta e coefficiente B) sia diversa in ogni gruppo, avremmo dei risultati che tengono conto di questa possibilità ➔ I parametri del nostro modello (intercetta e coefficiente di regressione- 1 vi) possono variare da cluster a cluster, vengono stimati come diversi da cluster a cluster ➔ In queste regressioni, sia l'intercetta che i coefficienti sono diversi (non fissi) nei vari gruppi- la media non vale più per tutti. Non sono più fissi → coefficienti avranno una distribuzione rispetto ai bar per i quali sono calcolati. IN STATISTICA CIÒ CHE NON È FISSO È RANDOM ➔ I coefficienti che cambiano sono definiti coefficienti RANDOM- random inteso come che varia, che ha una varianza, I coefficienti avranno una distribuzione random (cioè avranno una loro variabilità) Cioè, nella popolazione esiste una variazione random dei coefficienti Rappresentano una distribuzione di possibili coefficienti che variano da bar a bar ( in questo esempio) Media dei Coefficiente Se i coefficienti sono delle variabili, avranno una loro media ed una loro varianza Quale sarà la relazione generale fra birra e sorrisi? Servirà una media delle rette del grafico, calcoliamo la media dei coefficienti dei vari bar per ottenere un effetto generale.--> La media dei coefficienti per bar indica la relazione (media) tra birre e sorrisi in tutto il campione La media (come visto prima) è un parametro fisso del modello che descrive la distribuzione dei coefficienti nei cluster (bar)- la media è una - Una regressione per cluster - Ogni coefficiente è espresso come deviazione dalla media dei coefficienti 59 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 È UN MODELLO LINEARE MISTO perchè I modelli che contengono coefficienti sia random che fissi sono definiti modelli misti (mixed models). I coefficienti possono variare da cluster a cluster, per questo sono definiti “random” l’effetto generale si calcola come media dei coefficienti random, coefficiente fisso, e in un modello ch stima entrambi si chiama modello fisso. I coefficienti random sono deviazioni dalla media Y: Il punteggio della VD (i sorrisi) di ogni soggetto in un dato cluster (bar) è influenzato da - a = La media dei valori attesi di Y per x=0, Per x=0, in media quanto è grande y per x=0 - à = I valori attesi di y per x=0 in ogni cluster (bar), Per x=0, quanto devo aggiungere o sottrarre al valore atteso medio per un cluster specifico - b’ per xij = L'effetto specifico di x su y per il cluster j- In un dato cluster, quanto aumenta (o diminuisce) l'effetto di x su y - b per xij = L'effetto medio di x su y In media, quanto aumenta y per ogni unità in più di x GLM come sottocaso La corrispondenza logica tra le varie tecniche inerenti al Modello Lineare Generale con le tecniche inerenti ai Modelli Misti è data dal fatto che il GLM può essere pensato come sottocaso dei MM. Ovvero se non vi sono coefficienti random, non ci sono variazioni, ci troviamo nel modello lineare generale, il modello misto lo generalizza, ha gli stessi effetti a cui sia aggiungono la possibilità di aumentare o diminuire questi effetti in funzione dell’appartenenza al cluster Il modello misto allarga il GLM perchè consente agli effetti di variare da cluster a cluster – effetti random “con una variabilità) Modelli Misti In sostanza, i modelli misti consentono di stimare gli effetti di VI su una VD, consentendo a tali effetti di variare in diverse unità di misurazione (cluster). Gli effetti che variano sono detti effetti random. Gli effetti che non variano (cioè gli effetti medi uguali per tutto il campione) sono detti effetti fissi. Per stimare correttamente un modello misto, si deve semplicemente capire quale siano gli effetti random, e per quali unità variano (quali sono i cluster) Una volta stimato il modello, gli effetti fissi si interpretano esattamente come nel GLM (regressione/anova etc). Gli effetti random generalmente non si interpretano, ma se ne può studiare la variabilità. La definizione corretta del modello, consente di ottenere stime e errori standard (e dunque test inferenziali) corretti. Noi dobbiamo usarlo quando i dati sono clusterizzati. Nel modello fisso guardiamo ciò che facciamo nel MGL, l’interpretazione è la stessa. Se la varianza degli effetti è 0, i coefficienti non sono random, e indipendentemente dal bar, l’effetto è sempre lo stesso. Birre al Bar Definiamo un modello dove le intercette e i coefficienti di regressione possono variare nei diversi bar. Dobbiamo porci delle domande: 1. Quali sono gli effetti fissi? INTERCETTA E EFFETTO DI BIRRE – effetti a cui noi siamo interessati,t utti quegli effetti di cui vogliamo il risultato 2. Quali sono gli effetti random? INTERCETTA ED EFFETTO DI BIRRE – qualunque effetto che può variare da cluster a cluster, che possono essere calcolati dentro ogni cluster 60 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 3. Quali sono i cluster su cui variano gli effetti random? Bar- una variabile cluster è una variabile che definisce un campione di gruppi, un certo numero di gruppi che rappresentano una selezione di una più ampia gamma di gruppi RIASSUMENDO Settiamo il modello e vediamo quale è la variabile cluster, quali sono gli effetti random e quali sono gli effetti fissi Quindi tutto quello che noi sappiamo sul modello lineare generale lo facciamo allo stesso modo nell’interpretazione sugli effetti fissi Qualsiasi cosa mi si chiede indipendentemente dai cluster interpreto i fattori fissi normalmente, ma per ottenerli nella maniera corretta devo considerare la struttura dei dati (stretta e lunga). Vari autori e libri definiscono questo modello: Random-coefficients regression Altri come Intercepts- and Slopes-as-outcomes model-noi la chiamiamo → REGRESSIONE MISTA SPSS- MODELLI MISTI IN ANALIZZA 1. Lineare 2. Variabile cluster: SUBJECTS- CONTINUA 3.STESSA interfaccia VI E VD dipendenti nella regressione le VI LE METTO IN covariate, nella anova in fattori 4.Clicco RANDOM- Trascino EFFETTI RANDOM QUI sotto tipo di covarianza vedi “ NON strutturato- unstructured”Possiamo tenere questo se ho una intercetta, oppure 1 intercetta ( che devon sempre flaggare) e 1 un effetto random. Se invece ho più variabili da mettere random ( es se soltre a beer avevo un'altra come vino) è meglio usare il primo comando ( analisi della covarianza generale) perché altrimenti viene troppo complesso. Output spss In primo luogo riceviamo la definizione del modello dato in input 61 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Negli effetti random dobbiamo guardare che siano diversi da 0, per vedere che abbiamo fatto bene a usare il modello mistol’intercetta deve essere diversa da 0 Stime dei parametri di covarianza: se l’effetto random dell’intercetta non è significativo, la media della y da cluster a cluster non varia in modo sig. All’aumentare di una unità di birra si ride circa 5.37 di più (INTERCETTA)- l’effetto è significativo quindi dico che c’è l’effetto Birre: Per ogni birra in più ci attendiamo 0.64 sorrisi PUNTI NOTEVOLI 1) Notiamo come in questo modello abbiamo tre stime relative alle varianze degli effetti random 2) Notiamo che la varianza dei b non è significativa(2.1 p>.05, 2.2 p>.05) NB se i coefficienti random (ESTIMATE) vengono 0 c’è un punto – la significatività non la guardo ( un2.2 diverso da 0) RIASSUMENDO- x gallucci basta che guardiamo il valore sotto ESTIMATE. Se è empiricamente diverso da 0 ho fatto bene a fare il modello misto, se è anche significativo ancora meglio. 1.1intercetta varia significativamente, dunque le rette per x=0 danno un numero di sorrisi diverso nei bar 2.1intercetta/random 2.2varianza coefficiente random. È diverso da 0.vuol dire che un pò di differenza cè nell’effetto della birra sui sorrisi nei vari bar, ma questa differenza non è significativa. Si potrebbe dunque togliere però va bene considerarla in quanto tale 62 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Varianze La varianza degli effetti random ci indica quanta variabilità c'è tra i cluster nell'effetto Se non significativa, l'effetto random può essere tolto (con cautela, vedi oltre nel corso, RIASSUNTI LIBRO). Se è zero (esattamente), l'effetto random deve essere tolto dal modello Covarianze La covarianza tra gli effetti random ci indica la relazione tra i coefficienti tra i cluster ✓ Esempio di modello con covarianza tra a e b positiva → Più è alta la costante, più è forte l'effetto di x ✓ Esempio di modello con covarianza tra a e b negativa → Più è alta la costante, meno è forte l'effetto di x ESERCITAZIONE CAP.9 MODELLI MISTI DATI IN TERAPEUTIC.SAV Una ricerca è volta a valutare l’efficacia di due approcci terapeutici (che chiameremo approccio A e B) nel recupero di pazienti con diagnosi di disturbo di sostanze. I pazienti sono reclutati in comunità di recupero differenti, ognuna gestita da un terapeuta appartenente ad uno dei due approcci (o A o B). I pazienti di una comunità condividono lo stesso terapeuta. In ogni comunità sono presenti sia pazienti con diagnosi di dipendenza da droghe pesanti che pazienti con abuso di alcol. Ad ogni paziente `e stato somministrato un questionario che misura la resilienza (capacità di adattarsi a situazioni avverse) e l’outcome terapeutica, cioè una misura (continua) di miglioramento delle condizioni psicologiche del paziente. Lo scopo della ricerca `e di studiare gli effetti dell’approccio terapeutico, della resilienza e del tipo di disturbo del soggetto sull’outcome della terapia. Indipendenti- sono sia continue ( resilienza- basta su questionario) sia categoriche ( diagnosi e approccio) Dipendenti: outcome continua 1. Stabilire quante comunità sono presenti nel campione, quanti pazienti vi sono approssimativamente in ogni comunità, e la distribuzione approssimativa delle diagnosi dentro le comunità Domanda particolare, è un disegno complesso, è una domanda volta a far ragionare sulla struttura dei dati QUANTE SONO LE COMUNITÀ- variabile center, variabile nominale per cui ogni comunità ha un numero diverso Facciamo le frequenze della variabile center e vediamo quanti sono i valori e le persone dentro Analizza- frequenze- center 45 comunità 673 pazienti raggruppati in cluster definiti dalla variabile center- approssimativamente 15 pazienti per comunità 63 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 distribuzione delle diagnosi : tabella di contingenza – tabelle di frequenza dove si incrociano piu variabili. analizza- descrittive- tabelle di contingenza- RIGHE: Variabile con piu valori.- center, COLONNEdiagnosi- chiedo le percentuali in CELLE- percentuali per riga cosi mi dice le proporzioni di DIAGNOSI per ogni comunità ( cluster di center) ad occhio approssimativamente vedo come in ogni comunità sono presenti entrambe le diagnosi con una distruzione circa di 50-50 2. Determinare l’effetto di resilienza sull’outcome Con dati non clusterizzati faremo una regressione semplice, ma non è questo il caso e serve il modello misto. Serve una regressione modello misto Prima domanda- quale è la variabile cluster? CENTER Quali sono le variabili random? Quali gli effetti fissi? Che alla fine sono effetti medi sui cluster ( se non c’è variabilità è uguale per tutti, altrimenti è la media) Nb una variabile può essere sia fissa che random, tanto che gli effetti random sono anche fissi ANALIZZA modello misto –lineare SOGGETTI (variabile cluster)→ CENTER – PREMO CONTINUA VARIABILE DIPENDENTE- OUTCOME Covariate: RESILIENCE (qui perchè è una variabile continua e facciamo una regressione) Quali sono gli effetti fissi?? PREMIAMO FISSO - includi intercetta flaggato- mettiamo la variabile RESILIENCE fissa nel modello ( ovvero calcoli l’effetto medio ) EFFETTO RANDOM?? Premiamo casuale- PRIMA mettiamo l’intercetta – includi intercetta in alto • metto resilienza e specifico in “ raggruppamento di soggetti” che varia in CENTER- metto center in combinazioni vado in statistiche - il coefficiente di regressione non c’è di default- chiedo “ stime dei parametri” 64 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 continua _ ok OUTPUT Prima tabella riassunto del modello Criteri di informazione non li guardiamo Stime dei parametri di covarianza: Stime dei parametri di covarianza: DOBBIAMO STABILIRE SE C’è VARIABILITÀ NEGLI EFFETTI RANDOM. DEVO GUARDUARE prima questi per capire se ho fatto bene a utilizzare un modello MM. Se c’è variabilità abbiamo fatto bene C’è variabilità nelle variabili random? Se si abbiamo fatto bene a metterli come effetti random- e vuol dire che fra cluster e cluster c’è variabilità. l’intercetta ha una varianza diversa da 0, cosi come la RESILIENZA ( Estimate, coefficiente B), questi gruppi hanno un outcome media differente, c’è una variabilità nel livello medio di outcome fra comunità e comunità. L’intercettaè il proxit della media. Fra cluster e cluster cambia l’effetto, l’importanza della resilienza, ovvero fra cluster e cluster cambia l’importanza della resilienza)- appartenere a una comunità cambia l’effetto della resilienza sull’outcome Questi valori vanno riportati, chi legge deve sapere che questi coefficienti variano da cluster e cluster, e soprattutto giustificano il modello misto. Se non c’è variabilità non è necessario il MM STIME DEGLI EFFETTI FISSI Coefficiente B ( resilienza) effetto medio di resilienza - in media ALL’aumentare della resilienza aumenta l’outcome, effetto positivo , significativo Intercetta: coefficiente A Per avere delle unità di misura piu precise si potrebbe standardizzare- es standardizzare tutto il campione, dando la stessa scala 65 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 ANALIZZA- DESCRITTIVE- mettiamo outcome e resilienza—salva valori standardizzati come variabili ZRESILIENZA ZOUTCOME LA interpreto come una deviazione standard in più e in meno ( come unità) calcolata sul campione totale Rifaccio il modello ma usando le variabili standardizzate Stime dei parametri: la sostanza non cambia Effetti fissi: guardo in stima il coefficiente B di resilienza- all’aumentare di una deviazione standard di resilienza in media l’outcome migliora di .46 deviazione standard 3. Determinare i possibili effetti di diagnosi e approccio sull’outcome Anova modello misto È un 2x2 → Analizza- modello misto lineare Cluster sempre center Vd outcome FATTORI: variabili categoriche – diagnosi e approccio PREMO FISSI: le metto dentro (con fattoriale) mi fa effetti principali e interazione (seleziono entrambe) RANDOM- CASUALE- mettiamo sempre l’intercetta (mettiamo center sotto) Ragioniamo: quali di questi due effetti possono essere random (tutti quei effetti che possono essere calcolati dentro ogni cluster) – abbiamo visto che dentro ogni cluster l’approccio è solo 1 mentre la diagnosi varia circa 50-50 ( lo abbiamo visto in frequenza)- quindi DIAGNOSI può essere un effetto random . L’APPROCCIO non è random perché non varia nel cluster. O sei A o B IN TUTTA LA COMUNITÀ Il grafico lo devo chiedere dopo a parte se vedo degli effetti, per capire come interpretarli OUTPUT C’è VARIANZA all’intero di diagnosi – la differenza fra alcool e droga rispetto all’outcome varia da comunità a comunità– intercetta diversa da 0 - ho fatto bene a fare il modello misto Non guardo il sig, ma estimate! I coefficienti devono essere diversi da 0. TABELLA DEGLI EFFETTI FISSI- si legge esattamente come se fosse una anova – nel modello misto i calcoli sul grado di libertà è più complesso, dobbiamo sempre riportarli senza problemi ( gl numeratore 1 gl denominatore 43 --- nel modello misto il calcolo è più complesso e genera numero non interi, dobbiamo cmq riportarli- la base di calcolo sono il n. delle comunità) → 66 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 estrae tutta l’ informazione dei cluster e usa i cluster per fare i test- serve quindi almeno un 20 cluster ( comunità) e un 10-15 persone x cluster, altrimenti il campione è troppo piccolo. In media rispetto ai cluster c’è un effetto principale di diagnosi e di approccio e una interazione. La interpretiamo come una normale anova Guardiamo i valori delle medie, il grafico delle medie che incrocia diagnosi con approccio GRAFICI-FINESTRE LEGACY- LINEE – grafico multiplo- DEFINISCI – Asse categorie→ x approccio Definisci linee: diagnosi Dobbiamo dire che le linee rappresentano le medie di outcome- premo altre statistiche e butto dentro in VARIABILE- mean ( outcome) Interpretazione grafico: L’EFFETTO principale di approch - si vede che chi ha fatto quello b sta meglio di quello a, particolarmente pronunciato per gli alcolisti rispetto ai drogati, in generale gli alcolisti stanno meglio dei drogati 4. Determinare i possibili effetti di diagnosi e approccio sull’outcome al netto della resilienza Ancova modello misto Stessa analisi di prima , ma devo considerare gli effetti al netto di resilienza ( variabile continua che metto in covariate) Modello misto- impostazione vI categoriali come prima - Metto resilience in covariate - In effetto fisso: aggiungiamo l’effetto di resilienza che dobbiamo tenerlo costante Casuale- random : dobbiamo mettere resilienza ( perché può variare fra soggetti) Stime dei parametri di covarianza_ varianza di intercetta diversa da 0, di diagnosi anche, di resilienza anche ( DEVO SEMPRE GUARDARLEdevo sempre considerarle perché magari al netto di resilienza la diagnosi poteva non essere più random ecc) ANALISI DELLA COVARIANZA: effetto di diagnosi significativo, approccio non significativo, significativa la resilienza e significativo l’interazione. Al netto di resilienza osservo un effetto significativo di diagnosi e dell’interazione diagnosi e approccia, mentre scompare l’effetto di approccio – se tengo costante la resilienza questo effetto scompare Perché scompare?? forse la resistenza è un mediatore Alcune analisi aggiuntive: Analisi della mediazione : uso cmq il modello misto – 2 regressioni: 1) ANALIZZA modello misto lineare – lo faccio solo con approccio – ( ricordando che non è un effetto random) – solo approccio c’è effetto significativo ( effetto totale -2.97) 67 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 2) L’approccio ha un effetto sulla resilienza-sempre tutto uguale, cambio la VD METTO resilienza – non è significativo – non rispetto le condizioni della mediazione- l’ipotesi di mediazione non funziona Provo la moderazione- aggiungo l’interazione: outcome come dipendente, covariata zresileinza- le aggiungo ad approach l’interazione non è significativo, dunque non c’è moderazione CONCLUDENDO quindi semplicemente la differenza di approccio ha un effetto sull’outcome influenzato però dalla resilienza e se tolgo la resilienza l’effetto di approccio non risulta più statisticamente significativo l’interazione fra diagnosi e approccio – gli effetti medi di approccio si riducono se tiene costante gli effetti di diagnosi e resilienza – se non tieni costante DIAGNOSI ,’effetto di approccio rimane significativo. L’approccio si differenzia se le persone hanno diverse diagnosi e diversa resilienza. l’approccio funziona solo se c’è diversa resilienza e diagnosi. In una comunità a pari diagnosi e resilienza le differenze di approccio non sono statisticamente significative. non abbiamo visto il grafico della interazione al netto di resilienza- potevamo fare il grafico e chiedere i punteggi predetti LO STUDIO DEL MODELLO DI MISURA- cap11 Operazione di misurazione: La misurazione diretta (esplicita) ed indiretta (implicita)- fra un costrutto e la teoria psicometrica - Valutazione della bontà delle misurazioni Costrutto- quantità latente che vogliamo misurare, latente (anche qualità latente) perchè la maggior parte dei costrutti psicologici non è manifesta, vi sono indici esterni ecc Noi assumiamo che il costrutto vari fra persone, in quantità o qualità ecc La misurazione è l’insieme delle operazioni che facciamo per assegnare un numero al soggetto in funzione del costrutto che vogliamo misurare. legare un numero alla quantità di costrutto presente in quella persona La misurazione diretta (esplicita) Per misurazione diretta (esplicita) si intende una misurazione di un costrutto che si basa su delle risposte con una componente sostanziale di deliberazione, riflessione, elaborazione, descrizione, ecc. Tipicamente sono basate su una serie di domande alle quali la persona deve rispondere (items) – attingiamo direttamente al soggetto che pensa consapevolmente a quale numero sia migliore per rappresentare il costrutto rispetto a lui Il costrutto può essere esplicito- accessibile coscientemente (o implicito) mentre la misurazione diretta (o indiretta). Nella prassi, si usa spesso il termine misurazione esplicita anche se non è il termine migliore Es item, presenti in batterie, scale- domande a cui il soggetto risponde usando una scala numerica Operazione di misurazione Si cerca di estrapolare un valore numerico che rifletta in una qualche misura quantitativa il costrutto psicologico che si vuole misurare. Il legame tra misura e costrutto sarà influenzato dai processi che accadono nelle persone quando si misurano le loro risposte. Le risposte che otteniamo rifletteranno sia il costrutto psicologico che le modalità specifiche di risposta delle persone Alcune cose possono influenzare la risposta all’item oltre il costrutti ➔ Metrica assoluta vs relativa • Michele e Henk sono entrambi alti 1.80m • Michele vive in Sicilia (altezza media≈1.74), Henk nell’Olanda del Nord (altezza media≈1.86) • Gli chiediamo di rispondere alla domanda “Penso di essere alto” su una scala da 0 (per nulla) a 10 (assolutamente) • Michele probabilmente risponderà più verso il 10 mentre Henk risponderà più verso lo 0 68 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 • Il punteggio (metrica) rifletterà la loro valutazione della domanda (parte della operazione di misurazione) e NON direttamente il costrutto La misura dunque propone un confronto equo? La domanda fatta è recuperabile?? Desiderabilità sociale, va sempre considerata Una teoria della risposta a questionari Il compito di rispondere ad una domanda può essere diviso in cinque passi 1. Comprensione della domanda 2. Recupero dalla memoria del comportamento rilevante alla domanda 3. Utilizzo di inferenze e strategie per rispondere 4. Trasformazione della risposta nel formato di risposta a disposizione 5. “Aggiustamento” della risposta (desiderabilità sociale, auto-presentazione Effetto dell’ordine delle domande La risposta alle domande può essere influenzata dall’ordine nel quale esse sono presentate. Se viene chiesto prima quanto si è soddisfatti della vita in generale e poi quanto si esce per appuntamenti “romantici/relazionali” (dating frequency), la correlazione è bassa (-.12). Se l’ordine è l’inverso, la correlazione è alta (.66) – per controbilanciare il problema dell’ordine bisognerebbe randomizzare Effetto del formato di risposta Se viene chiesto quanto si ha avuto successo nella vita, i risultati sono diversi se si usa una scala da 0 a 10 o da -5 a +5. Scala da 0 a 10: media = 6.4 (+1.4 dal punto medio=5), Scala da -5 a +5: media = 2.3 (+2.3 dal punto medio=0) Usare una scala da -5 a +5 aumenta il successo nella vita Effetto del gruppo di riferimento (Group reference effect) La risposta alle domande può essere influenzata dall’utilizzo di gruppi di riferimento implicito “Di solito, sono una persona che prende l’iniziativa” (da 0=per nulla a 10=assolutamente) “Una persona” rispetto ad un gruppo di confronto Difficoltà per ricerche cross-culturali e cross-gruppi Assunzioni “nascoste” Quando usiamo uno strumento di misura che si basa su delle risposte autovalutative (o comunque “opinioni personali”) stiamo assumendo almeno due cose 1. Le persone sono in grado di riferire accuramente le loro opinioni o i loro comportamenti (introspezione accurata) 2. Le persone sono disposte a fornire risposte anche quando sono socialmente indesiderabili (impermeabilità alla desiderabilità sociale) Introspezione accurata Le persone non sono troppo accurate nel valutare le proprie motivazioni, cause delle proprie opinioni, ricordare i propri comportamenti, ecc. Un esempio classico (Ross e Nisbett, 1977) Scelta tra quattro paia di calzini – posti da destra a sinistra Effetto di ordine: i calzini sulla destra sono scelti 4 volte più frequentemente di quelli a sinistra I partecipanti citano varie ragioni per le loro scelte (ad es., colore, disegno, materiale), ma NON la loro posizione – eppure statisticamente è la variabile più importante di influenza sulla scelta Impermeabilità alla desiderabilità sociale I questionari non sono impermeabili alle influenze della desiderabilità sociale Immaginate un questionario sulla pedofilia che abbia domande come “I bambini mi eccitano sessualmente”- Quanto è probabile che un potenziale pedofilo risponda “certamente si”?? Esempio una domanda del tipo “Sono una persona onesta” Giovanni è disonesto e Sara è onesta. Entrambi risponderanno che sono onesti – per definizione, Giovanni è disonesto e quindi risponderà che è onesto Limiti delle misure “esplicite” Una misura esplicita ha perciò dei limiti inerenti 69 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Inoltre risente di tutta una serie di fattori di distorsione (operazioni di misurazione) del legame tra punteggio e costrutto Il punteggio che otterremo sarà inevitabilmente una misura imperfetta del costrutto – l’errore di misura è inevitabile (ma si può cercare di ridurlo) Ogni metodo di misurazione ha pro e contro – non esiste un metodo “ideale” ma metodi diversi hanno vantaggi e svantaggi Il vantaggio di un questionario è che è di facile somministrazione e, se ben fatto, ha comunque un certo grado di validità La validità la si dimostra empiricamente (vedi prossima lezione) IL MODELLO DI MISURA - ATTENDIBILITÀ E CONGRUENZA DELLE MISURE Proprietà psicometriche: PRELUDIO La maggior parte delle ricerche empiriche in ambito psicologico condividono le seguenti caratteristiche Data un'ipotesi (o una serie di ipotesi) viene formulato un disegno di ricerca Pianificato una set di misurazioni per i costrutti rilevanti Studiate le relazioni tra costrutti Determinazione nei gruppi o tempi ( obesi- anoressici) → definizione e individuazione dei costrutti ( fattori di personalità, tratti) → relazione fra costrutti ( differenze dei fattori di Personalità) Ogni costrutto ha bisogno di una misura, tuttavia non sempre funzionano Modello di misurazione: dobbiamo stimare come le nostre misure funzionano nel campione e conoscere le proprietà delle misure - Stabilire le proprietà psicometriche delle nostre misure - Stabilire se il le misure selezionate abbiano “retto” nel nostro campione - Nelle ricerche più sofisticate, stabilire se le nostre misure abbiano la struttura dimensionale e la coerenza attesa sulla base della letteratura Validità e attendibilità: L'ATTENDIBILITÀ → la misura cattura coerentemente un costrutto- ovvero ha a che fare con la coerenza interna della misura LA VALIDITÀ → la misura cattura effettivamente il costrutto atteso, misura ciò che noi intendiamo misurare (la scala di metacognizione misura la metacognizione) Escludendo gli studi di validità, la maggior parte degli studi empirici di cui trattiamo si preoccupa dell'attendibilità, ed assume (sulla base della letteratura) la validità Quanto la mia misura es di estroversione realmente varia per la diversa estroversione- parte vi varianza legata al costrutto che vogliamo misurare- COSTRUTTO MISURATO COSTRUTTO INTERVENIENTE- una caratteristiche delle persone che influenza con il punteggio ma non ha a che fare con il costrutto misurato, oppure non è quello che vogliamo misurare ma ci correla E- variabilità casuale – in ogni forma di misurazione c’è sempre una componente casuale, e non è una variabilità sistematica La variabile sistematica può essere divisa quindi in costrutto misurato e variabili intervenienti La validità attiene alla corrispondenza tra misura e costrutto misurato, a grande rispetto a b70 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 la proporzione di varianza che la misura ha dovuta al costrutto che vogliamo misurare e non ad altri costrutti- ne consegue che la nostra misura misura quel che intende misurare L’attendibilità attiene alla riproducibilità e coerenza dei punteggi di una misura (a grande rispetto a e) Proporzione fra variabile sistematica e quella casuale, una misura è attendibile se misura sempre la stessa cosa, nelle misure e nei tempi Studio di validità bisogna apposta fare studi empirici per dimostrare che la misura è valida Mentre per l’attendibilità, dovrebbe essere accertata in ogni studio in cui la misura viene usata Una misura potrebbe essere valida ma non attendibile → Accettare l’attendibilità equivale vedere quanta variabilità sistematica c’è rispetto a quella casuale Il concetto di buona misura Una buona misura avrà una componente sistematica grande rispetto a quella casuale (A parte i dettagli) Tutte le forme di studio della bontà della misura insistono sul concetto di componente “sistematica” e componente “casuale” del dato osservato Quanto è buona la mia misura del costrutto X? → Quanto è risultata attendibile la mia misura? - Tipo di raters- self report vs raters esterno - Tipo di scala- variabili continue vs ordinali vs categoriali vs assenza/presenza - Dimensionalità: un costrutto vs costrutto multidimensionale Il concetto di buona misura Le differenze tra le varie tecniche di assessment della bontà di una misura risiede nel tipo di informazione da trattare (e.g. un valore numeriche vs una categoria) e dalla definizione di componente sistematica La componente sistematica → A volte detta la componente “vera” della misura→ Se la misura è attendibile, differenti forme di misura convergeranno nella componente sistematica e non in quella casuale ➔ In generale, differenti fonti di informazione relative al costrutto misurato dovrebbero convergere nell'indicare la quantità/qualità del costrutto per il caso sotto osservazione ➔ Convergenza di informazioni_ In buona sostanza, tutte le tecniche di rilevazione della bontà di una misura condividono la stessa logica: Il tratto misurato emerge dalla convergenza tra “fonti” diverse di misurazione dello stesso costrutto Es raters - Congruenza tra raters Assumiamo che due raters valutino N pazienti relativamente alla presenza di un comportamento (aggressivo - Incrociando i giudizi otteniamo una tabella di valutazione Quale sarà l'informazione a disposizione? L'informazione rilevante sarà data data dalla combinazione di giudizi uguali (aggressivo – aggressivo, non aggressivo-non aggressivo) - Piu sono congruenti piu diranno la stessa cosa, ( congruenza =somma delle volte che sono in accordo/ il totale) - Congruenza Causale Tabella frequenze attese: Se i raters fossero completamenti indipendenti (guidati dal caso) le frequenze nelle celle dipenderebbero solo dalle frequenze marginali→ La congruenza dovuta al caso è data dalla somma delle proprozioni delle celle congruenti nella tabella delle frequenze attese - Convergenza- La congruenza dipenderà da quanto i rater convergono rispetto a quello che farebbe il caso K-COHEN – ci dice l’attendibilità delle nostre classificazioni, è la congruenza osservata dei nostri rater rispetto alla congruenza a caso, quanto in proporzione da 0-1 fanno meglio del caso 0→ vanno perfettamente a caso, 1 sono perfettamente congruenti 71 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Caratteristiche Si adatta alle valutazioni nominali - Richiede punteggi >.80 (generalmente accettato come buono)- possiamo usare un rater come classificatore – se non sono congruenti si possono rifare la classificazioni, si cerca di fare risolvere i casi di incongruenza – quando non possibile farlo dobbiamo considerare che i risultati possano essere influenzati negativamente dalla bassa attendibilità, se fosse 0 la misura non va bene – in generare le misure valide ma poco attendibili spesso si ottengono risultati non significativi e per colpa della poca attendibilità perdo valore statistica perchè c’è tanta varianza casuale e l’errore aumenta. Quando invece la misura non è valida può saltare fuori di tutto - Dipende dal numero di categorie. Maggiore è il numero di categorie, più basso può essere il punteggio - Non cattura congruenze sfalsate (tutte le volte che Rater 1 dice A, rater 2 dice B) - È indifferente all'ordine Esempio SPSS – 30 pazienti giudicati da due raters - Descrittive - Tabelle di contingenza - Metto le variabili - Statistics- kappa - Mai guardare la p nella tabella dei k di cohen , non va guardata la significatività Repetita iuvant! Se abbiamo più di due raters, possiamo usare il K di Fleiss→ Dove la congruenza (probabilità di uguale risposta) viene sostituita dalla congruenza media fra raters. Si interpreta come la K di cohen ESEMPIO 2 – RATER e classificazione continua – ( scala likert 1-7) - La componente sistematica_ La componente sistematica sarà data dalla correlazione (o varianza condivisa) dei punteggi dati due raters La componente di errore è data dalla varianza non condivisa Coefficiente di correlazione-intraclasse: Il coefficiente indica quanta variabilità dei punteggi è dovuta a differenze effettive tra soggetti (cioè riscontrate da tutti i raters) rispetto alle differenze tra i ratersvarianza condivisa dai punteggi dei raters diviso la varianza totale Varia da 0 a 1, più è alt migliore è Cattura congruenze sfalsate (se rater 1 attribuisce sistemativamente un punteggio minore del rater 2, i raters risulteranno convergenti) Si applica anche quando si hanno più di due raters Si giudica buono tendenzialmente quando è >.70 Caratteristiche - Si adatta alle valutazioni quantitative - Cattura congruenze sfalsate (se rater 1 attribuisce sistemativamente un punteggio minore del rater 2, i raters risulteranno convergenti) - Si applica anche quando si hanno più di due raters TERZO CASO - Scala di valutazione di caratteristiche continue (intensità di un tratto, items su scala Likert ) Self-report (questionari classici - Se due item misurano lo stesso costrutto, i due item saranno correlati Dunque condivideranno varianza 72 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Correlazione Pearson - Data lE varianze Vitem degli items - Che equivale a dire: componente sistematica (comune) diviso informazione massima ottenibile Caratteristiche Sebbene scale da due items siano rare, la correlazione di Pearson viene usata come indice di attendibilità in varie situazioni: • Test-retest di una scala ( misurare una scala prima – dopo, i due punteggi dovrebbero correlare) • Split-half reliability (divido il test in due parti e le correlo) • Attendibilità di misure non parcellizzate in items (ad esempio tempi di reazione, etc) ➔ Se abbiamo una serie di items (che misurano lo stesso costrutto), considereremo la varianza condivisa dagli items Indice di attendibilità: alpha di cronbach Dice quanto una scala/questionario è attendibile, congruente e si basa sulla media delle correlazioni, calcola tutte le correlazioni fra item e calcola la media È la media delle correlazioni scalata al numero di item, varia da 0 a 1 e la consideriamo buona superiore a .70, ma diremo che se gli item sono minori di 5 si tende a essere un po piu liberali ( 65), dai 5 ai 10 item è 70, sopra i 10 item il cut off si alza perché piu item si hanno piu alta deve essere l’alpha È l'indice di coerenza interna più usato Assume che le variabili siano tutte orientate nella stessa direzione- dobbiamo girare gli item tutte nelle stesse direzioni non possono esserci variabili girate al contrario, la prima cosa è ricodificare le variabili e farle andare tutte nella stessa direzione • Se gli item non hanno tutti correlazioni positive, gli item con correlazioni negative con gli altri vanno moltiplicati per -1 prima di calcolare l'alpha di Cronbach Può essere calcolato anche su variabili dicotomiche ESEMPIO SPSS - SCALA - Reliability analysis ( analisi affidabilità in spss italiano ) la traduzione sarebbe attendibilità- la usiamo ogni volta che si analizza l’attendibilità di una scala - Inserisco gli item- model alpha - Posso chiedere iCC- intraclass correlation coefficient VALIDITÀ: Per quanto riguarda la validità di una misura, esistono vari metodi per stabilirla. Questi metodi definiscono diversi tipologie di validità ( PIU DAL PUNTO DÌ VISTA TEORICO, assumiamo la validità della misura che facciamo) Varie proprietà per valutare la validità, per capire che sia valida si va a vedere se ha una o piu forme di validità Contenuto (≈ interna) Criterio (≈ esterna) Costrutto (≈ nomologica 73 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Validità di contenuto – modo in cui la misura è fatta 1.Riguarda il disegno della misura 2.Qualità del paradigma di misura (operazioni di misurazione) 3.Punto cruciale: massimizzare la variazione nei punteggi dovuta al costrutto rispetto a quella dovuta a fattori teoricamente irrelevanti (costrutti intervenienti Validità di criterio Si focalizza sulla capacità della misura di predire comportamenti o processi (criteri) associati al costrutto Concorrente: Misura e criterio sono misurati allo stesso tempo Predittiva: La misura è ottenuta prima del criterio I criteri sono stabiliti teoricamente come conseguenze rilevanti che devono essere predette dalla misura (ad es., scala di depressione e benessere soggettivo) - Predittori e criteri NON sono proprietà intrinseche delle variabili Si verifica tramite modelli di regressione Correlazione tra VI (predittore) e VD (criterio) o regressione lineare semplice Quando abbiamo più predittori simultaneamente usiamo la regressione multipla Validità incrementale: La capacità predittiva unica di una VI (al netto delle altre VI, coefficienti parziali Validità di costrutto Attiene alla dimostrazione che il costrutto misurato è effettivamente quello inteso e non un altro costrutti - Si esamina mediante la correlazione con altre misure Validità convergente: la nostra misura dovrà mostrare correlazioni alte con misure alternative del costrutto Validità discriminante: la nostra misura dovrà mostrare correlazioni L’attendibilità e considerata la base della validità: una misurazione, per essere valida, deve essere anche attendibile. Si dice anche la l’attendibilità e il limite massimo della validità: una misurazione non può essere valida più di quanto sia attendibile. Ma attenzione: una misurazione può essere attendibile senza per questo essere necessariamente anche valida. - ESERCITAZONE esercizio cap.11 In una ricerca 90 pazienti neurologici con lesione laterale destra e presenza di neglect sono stati osservati da due sperimentatori-osservatori durante le loro attività quotidiane e categorizzati in neglect evidente e neglect non evidente sulla base della presenza di segni evidenti di negligenza spaziale durante le loro attività quotidiane. Ai pazienti sono stati somministrati anche 6 item self-report riguardo le loro difficoltà percepita nello svolgere attività quotidiane. Gli item descrivevano ciascuno una attività, ed erano intesi come misure parallele del costrutto “difficoltà quotidiane”. Il soggetto rispondeva, per ogni item, su una scala da 1 (per 74 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 nulla) a 7 (moltissimo). Gli item sono stati successivamente standardizzati. Gli item erano: 1. mangiare autonomamente 2. lavarsi e prendersi cura del proprio corpo 3. fare delle passeggiate e uscite ricreative 4. guardare la tv 5. tenere in ordine le proprie cose 6. Vestirsi 1) DETERMINARE LA CONGRUENZA TRA OSSERVATORI NELLA CLASSIFICAZIONE DEI PAZIENTI E QUANTIFICARLA IN TERMINI DI NUMERO DI PAZIENTI COERENTEMENTE CLASSIFICATI Prima domanda- 2 rater- categorie- nominali → k- di cohen ANALIZZA- DESCRITTIVE- TABELLE DI CONTINGENZA ( il di cohen di calcola qui nella tabella che incrocia le frequenze delle valutazioni dei nostri giudici) righe- sper1, colonne sper2- apro da parte statistiche, spuntiamo il KAPPAe il chiquadro per ripassare continua→ nella prima tabella vedo le frequenza, 43 casi classificati entrambi con non problematici, 26 entrambi problematici, per 7 casi in totale manca coerenza fra gli sperimentatori kappa- è .807 ( non devo guardare la significatività) ma il valore ( almeno .70, .80 va bene) RISPOSTA- abbiamo usato k come indice di congruenza fra i due giudici e risulta .807 e indica una attendibilità molto alta fra i due giudici che hanno coerentemente classificato i pazienti – ha una congruenza 69 soggetti su 76- dove mettiamo questi 7 soggetti? Con una k di cohen alta come la nostra non ci importa perché sono sostanzialmente in linea. Per essere precisi si potrebbe di questi 7 classificati vengono assegnati a caso nelle due categorie, ma si può fare solo con k alto. Se la congruenza fosse bassa nella pratica ci si pone il problema- perché è bassa? Chi quadrato ( vedere se due variabili nominali sono associate- qui non ci serve lo facciamo per ripassare)si usa quando sia Vi che VD categoriche ➔ testa HO che le celle interne siano distribuite casualmente ➔ H1 appartenere a una cella nelle righe influenza l’appartenenza a una categorie nelle colonne ( in questo esercizio non ci bastava sapere che fossero diverse dal caso,ma volevamo sapere il grado di congruenza) Domanda n.2 Determinare l'attendibilità dei 6 item utilizzati 3) Selezionare il subset di item con una attendibilità più alta o quantomeno accettabile Item analysis- eliminare item poco attendibili per fare alzare l’alpha di cronbach Attendibilità dei 6 item utilizzabili e massimizzare l’attendibilità domanda 3 Usiamo l’alfa di cronbach ( ricordiamo l’assunzione che gli item siano tutti nella stessa direzione) - Analizza - Scala - Analisi di affidabilità- metto dentro da item1 a item6 – se fossimo solo interessati all alpha clicco ok, pero devo vedere se ci sono item che correlano negativamente altrimenti violo la sua assunzione, ma soprattutto per la domanda 3 come migliorare l’analisi -- premo statistiche- descrittivi ( elemento, scala, scala se l’elemento è eliminato- mi permette di vedere se migliora una volta tolto un item) - Vedo che l’alfa è .37 ( dovrebbe essere >.70) – le misure non sono congruenti 75 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 - Tabella statistiche elemento totale: x ogni item come si comporta rispetto alla somma degli altri item. -→ anche solo calcolando l’alpha dobbiamo vedere che nessun item correli negativamente - Vedo che l’item 5 correla negativamente ( correlazione elemento totale corretta- quindi devono ribaltare l’item→ calcolo una nuova variabile moltiplicata per -1, cosi le sue correlazioni rimangono identiche ma di segno opposto) - Giro item 5- TRASFORMA – calcola nuova variabile- item5R- scrivo –ITEM5 - Ricalcolo lo stesso alpha usando item5r e non item5—ALPHA .47—scendo e vedo che nessuno ha correlazione negativa. L’attendibilità dei sei item è di .47 quindi gli item opportunamente rigirati per direzione danno una attendibilità pari a una Alpha di crobach di .47 che risulta bassa output Domanda 3 item analysis – eliminare qualche item dannoso per l’attendibilità, che abbassa l’alpha Se guardo l’ultima colonna della tabella riporta l’alpha se viene eliminato quell’item – elimino una volta volta in maniera iterativa l’item piu dannoso, quello che se elimino, fa alzare di piu l’alpha- si fa sempre una volta Il peggiore qui è l’item 3- arrivo a .655 già è una alpha ragionevole Rilancio l’analisi senza l’item 3 vedo che viene .65 e ispeziono vedendo se eliminando un altro item posso alzare l’alpha ancor di piu Non posso però far degenerare un scala eliminando tutti gli item- a parità di correlazioni piu item ho maggiore è l’alpha perciò se elimino variabili l’alpha si abbassa, questo è il punto in cui non posso piu migliorarla – vediamo ora che l’item 4 non correla piu con la nuova scala e se lo togliamo arriviamo a .7 Abbiamo determinato che il sottoinsieme di item 1-2-6 garantisce la piu alta attendibilità pari a .75 ( PERCH VEDO che se tolgo ancora scendo .721) dunque non posso più andare oltre Domanda 4) Usando la classificazione dell'osservatore 2 e l'insieme di item maggiormente attendibile, determinare se i due gruppi di pazienti differiscono nella loro difficoltà percepita. Creo la vd. Difficoltà percepita maggiormente attendibile - Somma dei 3 item (1-2-6) -media DOMANDA 4 - Anova- dipendente top3 item - Fissi- sperim 2 chiedo anche il grafico Ce un effetto significativo della classificazione sulla variabile self report, c’è congruenza Etaquadroparziale- il 13% è attribuibile al giudice 2 e coloro classificati come problematici hanno piu problemi 76 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 o- non problematici 1- problematici Domanda 5) Usando la classificazione dell'osservatore 2 e l'insieme dei 6 item, determinare le differenze nella loro difficoltà percepita e spiegare il motivo delle differenze con la risposta 4 fai la stessa analisi con tutti gli item Calcolare l’indice totala dei 6 item- trasfroma calcola variabile- top 6 e faccio la somma delle variabili ( con item5 R e non item5)/6 Rifacciamo l’analisi – uni variata – tot6 Fattori fissi sper 2 Effetto significativo .027 e eta quadro è .065 – vedo che è molto minore, quasi la metà 6% rispetto a prima mentre la direzione del grafico vedo che è identica, il gruppo 1 ha piu problemi del 0. Dal punto di vista qualitativo i risultati sono in linea, l’unica differenza è che l’effetto della classificazione sper2 sulla variabile a 3 ( ottoinsieme e piu attendibile) è quasi il doppio dell’effetto della variabile a 6)- perché?? L’eta quadro è piu basso in quello meno attendibile – se la misura è valida l’attendibilità ci dice quanta varianza ce del costrutto rispetto alla varianza casuale, che non correla con nulla. Dunque se una contiene piu quantità casuale, gli effetti saranno piu deboli – la percentuale di effetto sarà piu bassa perchè diluita dalla variabilità casuale. Se io confronto 2 misure Se mi capita che una misura meno attendibile da risultati migliori, quelli non sono risultati migliori ma spuri riferiti a un altro costrutto ( perchè appunto sono meno attendibili) – la misura poco attendibili deve mostrare effetti piu bassi di quella attendibile- se questo non avviene è sintomo di mancanza di validità Analisi Fattoriale Concetti introduttivi Scopi generali 77 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 L’Analisi Fattoriale (e varianti) si propone di estrarre un numero limitato di fattori (variabili latenti o sottostanti) da un set di variabili osservate (e.s. items), al fine di rappresentare al meglio la variabilità di tale set- le dimensioni sono nuove variabili che rappresentano in maniera compatta la stessa variabilità rappresentata dagli item Ciò consente di interpretare le relazioni tra un gran numero di variabili osservate mediate un numero limitato di fattori ( i fattori rappresentano la componente comune) Analisi fattoriale- tecniche statistiche volte a identificare le dimensioni sottostanti a un insieme di variabili. Si usa soprattutto nell’individuare le dimensioni sottostanti a un set di item, ma anche a qualunque insieme di variabili, misurando uno o più costrutti comuni Indicatori- si parte da una serie di item/variabili- misure empiriche osservabili. E assumiamo che rappresento la variabilità di un costrutto latente Parsimonia Il numero delle dimensioni (costrutti) è SEMPRE minore del numero delle misure (indicatori, variabili) I costrutti hanno un livello di astrazione più elevato degli indicatori. Lo scopo è di spiegare il più possibile le relazioni tra le variabili con il numero minore di dimensioni. La parsimonia NON è la semplicità, ma un punto di equilibrio tra semplicità e potere esplicativo (rappresentatività) Indicatori - Un buon indicatore deve essere una buona misura del costrutto e non deve essere una buona misura di altri costrutti- ovvero che sia valido - Più indicatori sono necessari per definire un costrutto, per capire quanta variabilità comune questi item hanno ( assumendo che questa variabilità provenga dallo stesso costrutto) - La definizione concreta (operazionalizzazione-) di un costrutto deriva degli indicatori - Molto spesso in Psicologia il costrutto è ipotetico/latente mentre gli indicatori sono osservabili/empirici Costrutto: Un costrutto può essere definito come un un concetto (dimensione, fattore, tratto, classe, componente) teorico con certe conseguenze empiriche - Gli indicatori misurano le conseguenze empiriche - Il costrutto associa gli indicatori (legno può associare tavolo, sedia, quadro, bastone, albero, casa, barca) - Da un punto di vista statistico, se alcuni indicatori corrrelano tra di essi, possiamo inferire la presenza di un costrutto sottostante (o viceversa) 78 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Due tipi di indicatori e costrutti: sia lo studio dell’affidabilità che l’analisi fattoriale si basa su indicatori riflessivi del costrutto, ovvero che le differenze fra persone nel costrutto si assume siriflettano nelle differenze nelle risposte. Gli item saranno correlati vi sono altri indicatori non soggetti allo studio dell’analisi fattoriale o dell’affidabilità ( serve riconoscerli per non usare questi termini), sono indicatori formativi, che non riflettono tutto il costrutto ma lo creano! – i vari item non sono correlati ( non vuole dire che non sia attendibile dell’alcolismo, ma il punteggio è dato dalla presenza del tratto in almeno 1 degli indicatori)- non vanno analizzate con le tecniche classiche. lo studio di indicatori formativi si fa solo a livello teorico. Invece gli indicatori riflessivi si assume che abbiano questo tipo di modello possibile: La variabilità osservata negli items è rappresentata da un unico fattore che raggruppa le variabili. Ovviamente i fattori utili a rappresentare la variabilità delle variabili osservate possono essere numerosi. Cercano di decomporre la varianza ( le differenze di differenti fra item>) nella variabilità catturata dalle dimensioni latenti e variabilità di errore, ci informa quanta variabilità è spiegata da dimensioni sottostanti e quanta non sia spiegata da queste ( Var di errore) Guadagnando in parsimonia ed interpretabilità delle relazioni, non ci si può aspettare di non perdere qualcosa in precisione. Una buona misura di costrutto più avrà una alta percentuale di variabilità comune spiegata da dimensioni comuni e bassa % d’errore Per analisi fattoriale intendiamo cmq varie tecniche, divisibili lungo vari continuum, fra cui ESPLORATORIA- CONFERMATORIA, può essere usata per capire quante dimensioni ci sono o quali ci sono, oppure per confermare che i nostri dati abbiano alcune caratteristiche La differenza sta in quante decisioni prendiamo noi e quanti vengono dai dati - Più ne decido io, è un approccio confermatorio - Se mi lascio guidare dai dati- esploratoria Dipende anche da come utilizzo io l’analisi fattoriale: noi ci concentriamo sulla esploratoria Concetti di base Alcuni concetti sono utili per ogni tipo di Analisi Fattoriale, indipendentemente dalle differenze tecniche (che vedremo successivamente) tra questi tipi di analisi Tutte le varianti dell’AF: Rappresentazione delle relazioni fra variabili misurate mediante un numero ristretto di fattori La base dell’analisi fattoriale è lo studio della correlazione di Pearson fra le variabili osservate → Relazioni fra variabili Le relazioni fra variabili (continue) sono calcolabili mediante il coefficiente r di correlazione di Pearson - Cerca di estrarre un n. di dimensioni che sia in grado di rappresentare al meglio la matrice di correlazione delle variabili osservate - L'idea di fondo è che le variabili osservate correlano perché condividono un fattore sottostante - Un altro modo per definire lo scopo dell’Analisi Fattoriale è l’estrazione di un numero ristretto di fattori che riproducano al meglio la matrice di correlazione osservata 79 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Dunque vogliamo creare delle nuove variabili (fattori) che combinino le variabili osservate che correlano molto, E separino le variabili che non correlano fra loro Se rappresentiamo le variabili con delle frecce tramite la rappresentazione vettoriale posso rappresentare la correlazione fra le variabili come l’angolo - Se la correlazione è alta, i vettori sono orientati nella stessa direzione e viceversa Rappresentazione vettoriale Ogni variabile può essere rappresentata mediante un vettore di lunghezza uguale alla sua deviazione standard L’associazione tra due variabili si può rappresentare mediante l’angolo tra i due vettori (prodotto tra i vettori=prodotto tra gli z =correlazione) La correlazione quantifica la proiezione di un vettore-variabile sull’altro Se due variabili correlano andranno in media nella stessa direzione, negativamente vanno in direzione opposta Se non c’è correlazione vanno in direzione ortogonali ( o- Se la proiezione è zero, cioè r=0, le due variabili saranno indipendenti (linearmente) un vettore non proietta nulla sull’altro Variabili obliqui- fra loro correlate Logica dell'estrazione dei fattori→ In tutte le varianti dell’AF il fine è di estrarre una serie di fattori che siano al “centro” dell'insieme di variabili Per rappresentare la traiettoria, quella che sta in mezzo rappresenta bene la direzione → In tutte le varianti dell’AF il fine è di estrarre una serie di fattori che siano al “centro” dell'insieme di variabili dobbiamo rappresentarlo con una variabile che stia in mezzo ai due vettori, e se uso una variabile al centro, avrò un modello più compatto e non perdo le informazioni di dove stanno andando le variabili Il fattore deve essere una nuova variabile che meglio rappresenti entrambe le variabili- vale anche con tante variabili→ Nel caso generale (non due variabili) le correlazioni con il fattore sono differenti per le varie variabili ➔ Il fattore comune sarà al centro! Che vuol dire precisamente? Che minimizza contemporaneamente l’angolo con X e V ➔ L’angolo è tanto più piccolo quanto più è alta la correlazione ➔ Che minimizza contemporaneamente l’angolo con X e V ➔ Dunque il miglior fattore è quello che massimizza le correlazioni con le variabili osservate ➔ Le correlazioni possono variare: Nel caso generale (non due variabili) le correlazioni con il fattore sono differenti per le varie variabili Correlazioni e Varianze Ricorda che la correlazione (al quadrato) indica la varianza condivisa, DUNQUE IL MIGLIOR FATTORE È QUELLO CHE MEGLIO CATTURA LA VARIANZA CONDIVISA Quanto sarà questa varianza? La varianza spiegata dal fattore sarà la somma delle varianze che condivide con ogni singola variabile. Dunque sarà la somma dei quadrati delle correlazioni tra variabili e fattori PIÙ DI UN FATTORE: Consideriamo di aver estratto un fattore da questo insieme di variabili 80 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 - Il fattore che estraiamo sarà quello che massimizza la varianza spiegata - Ma non necessariamente cattura tutta la varianza condivisa - Avremo così rappresentato le varianze osservate mediante due fattori - fattori non condividono varianza, dunque non sono correlati- ortogonali - Definiranno dunque degli assi fattoriali dove proiettare le variabili - E le proiezioni saranno le correlazioni tra fattori e variabili (come per il caso di un fattore) Condizioni di applicabilità ANALISI FATTORIALE ❖ Variabili misurate a livello di intervallo (può essere usata con poche distorsioni anche con variabili binarie – purchè equilibrate) ❖ Perlomeno 100 soggetti ❖ Rapporto tra soggetti e variabili almeno di 3 a 1. Ma dipende dalla complessità della soluzione finale ❖ Assenza di violazioni sostanziali della distribuzione normale ❖ Relazioni lineari tra le variabili ❖ Nessuna variabile può essere una combinazione lineare di altre variabili analizzate (singolarità) ANALISI FATTORIALE: - Inizialmente ci sono tanti fattori quante variabili, estratti però in modo tale da massimizzare la varianza comune delle variabili - Il primo fattore massimizza la varianza comune delle variabili. Si ricalcola una nuova matrice parzializzando la varianza spiegata dal primo fattore. Si estrae un secondo fattore che massimizza la varianza residua e cosi’ via per gli altri fattori - estrae un fattore alla volta al fine di catturare il più possibile varianza condivisa inizia dalla maggior parte, e quella non condivisa si cerca di spiegare con 1 secondo fattore, e cosi via. I fattori andranno a prendere gruppi di variabili correlate, 1 cluster di variabili per fattore. - SE un fattore cerca di catturare la varianza non catturata dagli altri fattori, i fattori non condividono varianza, e saranno fra loro non correlati, saranno fra loro ortogonali - Estrae nuove variabili per rappresentare le vecchie, crea un nuovo sistema di assi su cui rappresentare le variabili osservate, e questi assi sono fra loro ortogonali La soluzione fattoriale si compone di: 1.varianza spiegata da ogni fattore- autovalore 2.La matrice di correlazione tra fattori e variabili ( matrice delle componenti)- ogni variabile quanto è allineata con il fattore ( spss matrice delle componenti) Le correlazioni tra fattori e variabili si chiamano PESI FATTORIALI o SATURAZIONI FATTORIALI 81 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 La soluzione fattoriale rappresentata geometricamente può essere vista anche in una matrice numerica Saturazioni = correlazioni Fattori variabili Plot dei Fattori : Comunemente si visualizza lo spazio fattoriale mediante gli assi fattoriali e le variabili rappresentate come punti con coordinate uguali alle correlazioni con i fattori → L’estrazione di K fattori definisce uno spazio a K dimensioni dove tutte le variabili sono rappresentate mediante coordinate uguali alle correlazioni con i fattori Per più di 3 fattori, si può visualizzare i fattori a 2 a 2 L’altra parte è la tabella delle varianze spiegate, quanto il fattore riesce a catturare delle variabili spiegate –Proiezioni= correlazioni fattori variabili La soluzione fattoriale si compone di: La varianza spiegate da ogni fattore Le varianze spiegate dai fattori si chiamano AUTOVALORIquanta varianza di tutte le variabili il fattore riesce a spiegare Importante per decidere quanti fattori tenere Il primo è quello che cattura di più e cosi via, e la varianza a disposizione per i fattori è via via minore La somma dei quadrati in colonna equivale alla varianza spiegata dal fattore corrispettivo NELLA MATRICE DEI COMPONENTI, La somma dei quadrati in riga equivale alla varianza dell’item spiegata da tutti i fattori estratti Tale quantità e denominata comunalità → Ovvero quanto tutti i fattori estratti spiegano l’item. Se è bassa la comunalità vuol dire che non centra con il resto dei fattori→ La comunalità indica quanto un item partecipa alla costruzione dei fattori ( in questo caso i due fattori estratti spiegano il 21% della varianza dell’item). ESEMPIO provvisorio slide- PROVVISORIO Perché mancano ancora nozioni teoriche sull’analisi fattorialevd pag successive ✓ L’Analisi Fattoriale (e varianti) si propone di estrarre un numero limitato di fattori al fine di rappresentare al meglio la variabilità di tale set ✓ A tale scopo estrae una serie di fattori fra loro ortogonali al fine di massimizzare la correlazione fra variabili osservate ✓ La soluzione fattoriale è l'insieme di questi fattori, descritti dalle loro varianze (autovalori / numero item), le saturazioni fattoriali e la comunalità degli item SPSS . PROVVISORIO- riduzione dimensionale-- fattori • Seleziono le variabili che voglio analizzare • Chiedo di estrarre un fattore (poi vedremo altri metodi per decidere quanti fattori estrarre • l primo fattore estratto (quello che ci interessa) spiega il 65% della varianza degli item 82 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 • • Gli item sono ben correlati con il fattore, dunque possiamo utilizzare il fattore come variabile rappresentativa degli item, quindi ci aspettiamo saturazioni alte ( la standardizzazione è ininfluente perché la matrice di correlazione parte già da valori standardizzati 2 tabelle - Tabella con gli auto valori - Tabella delle componenti, con la correlazione fra il singolo item e la componente, varia da -1 a 1 , consideriamo le alte le saturazioni sopra .35 ,piu sono alte e più gli item sono allineanti. Le correlazioni a differenza dell’alfa di cronbach possono essere anche negative - Possiamo poi salvare i punteggi delle dimensioni rispetto ai fattori Non esiste un numero fisso per predire quanta varianza bisogna spiegare Nelle scienze psicologiche tutti i fattori i psicologici dovrebbero spiegare almeno il 30-35%, la restante è varianza d’errore, quindi accetto massimo un 60% di varianza casuale, visto che siamo misurando variabili complessi ( vedi esercitazioni per chiarimenti) CONTINUAZIONE ANALISI FATTORIALE-LEZIONE 2 La soluzione fattoriale ed il modello ACP → Scelta del numero dei fattori I PASSAGGI FONDAMENTALI 1SCELTA DEL MODELLO FATTORIALE 2 SCELTA DEL NUMERO DI FATTORI 3ROTAZIONE DELLA STRUTTURA FATTORIALE 4SELEZIONE DELLE VARIABILI 5INTERPRETAZIONE DEI FATTORI 6PUNTEGGI FATTORIALI Analisi delle componenti principali La ACP (PCA) produce componenti, mentre la AFC produce fattori. I processi della ACP e della AFC sono simili, tranne che o nella preparazione della matrice di correlazioni osservate per l’estrazione o nella teoria sottostante Matematicamente, la differenza tra ACP e AFC è nella varianza che viene analizzata: - nella ACP viene analizzata tutta la varianza osservata nelle variabili nella AFC viene analizzata solo la varianza condivisa (stimata tramite regressione); Non si considera la varianza non condivisa (unica di ciascuna variabile). Teoricamente, la differenza tra ACP e AFC è nella ragione per cui le variabili sono associate in un fattore o in una componente: 83 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 ➔ Di solito si ritiene che i fattori ‘causinò le variabili – il costrutto sottostante (il fattore) è ciò che produce i punteggi nelle variabili (AFC). ➔ Le componenti sono semplici aggregati di variabili correlate (ACP) ACP vs. AFC La ACP considera tutta la varianza delle variabili e la divide in varianza comune (spiegata dai fattori considerati) and varianza unica (errore o residua). Nelle ACP si ipotizza che tutta la varianza di un item sia spiegabile, o V comune o dell’item. Quindi si potrebbe spiegare il 100% della varianza delle variabili. Potrei spiegare tutto ma ci vorrebbero troppi fattori, allora scelgo quelli che spiegano più varianza. La AFC prima stima la varianza condivisa e distingue tra varianza comune tra le variabili (covarianza) e varianza di errore. Analizza solo la prima e la divide in varianza comune (spiegata dai fattori considerati) e varianza specifica. La differenza sta in come viene approcciata la varianza. AFC- non potrò mai spiegare tutta la varianza perché ci sarà sempre errore, allora lo scopo è spiegare la varianza specifica che non è errore. Prima si cerca dunque di capire quanto è la varianza di ogni item e cercare di spiegarla • ACP- è più facile, si prendono tutti gli item e si cercano i fattori. È però meno precisa perché cerca di spiegare tutto • Afc più precisa Dal punto di vista pratico ACP si usa di più con un approccio completamente esploratorio. Mentre AFC essendo più precisa si usa con un approccio più confermatorio, ( vogliamo vedere se trovo un certo numero di fattori come suggerito dalle letteratura ecc) La grossa differenza tecnica IL PROBLEMA DELLA COMUNALITÀ INIZIALE NELLA AFC→ quanto è la varianza spiegabile • Per calcolare la varianza spiegata e quella di errore, dobbiamo prima sapere quanto è la varianza spiegabile • Ma per sapere quanto è la varianza spiegabile, dobbiamo sapere quanto è la varianza spiegata e quella di errore • Ciò crea un circolo vizioso che va risolto stimando precedentemente una quantità plausibile di varianza spiegabile ed iterando il procedimento di calcolo dei fattori finché tale quantità soddisfa alcuni criteri • Ogni algoritmo di calcolo (minimi quadrati, massima verosimiglianza, ecc.) usa un criterio diverso • Noi vediamo la logica sottostante Comunalità iniziale Ma se tutta la varianza di un item non è inclusa nell’analisi, la matrice di correlazione iniziale non potrà avere 1 sulla diagonale Nella ACP si parte dall’assunzione che ogni variabile ha varianza 1, e dunque la totale è data dalla somma delle variabili Nella AFC ci sarà una parte di errore, pertanto non si parte con la matrice di correlazione 1 nella diagonale, ma una stima della variabilità spiegabile da ogni item la COMUNALITÀ INZIALE, data Varianza spiegabile dell’item= comunalità iniziale nella AFC. Il massimo che posso spiegare di un item, è legato a quanto è la variabilità comune di ogni item → 84 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Stima iniziale della comunalità. Se la parte spiegabile di varianza di un item deve essere comune agli items e ai fattori, sicuramente non potrà essere più piccola della parte di varianza che l’item condivide con gli altri items→ LA VARIANZA CONDIVISA CON TUTTI GLI ALTRI ITEMS È UNA BUONA STIMA DELLA VARIANZA SPIEGABILE → Dunque possiamo usare tale stima al posto degli 1 nella matrice di correlazione Varianza condivisa non spiegata=Varianza di errore R2 multiplo Quanto è tale varianza? Dallo studio della regressione sapremo che la varianza condivisa da un insieme di variabili indipendenti ed una dipendente è dato dall’R2 della regressione NELLA AFC SI Parte da un modello in cui nella diagonale vi è R2 QUADRO, è sicuramente meno di 1, ma è migliore, più precisa, è una varianza spiegata più stabile → Ripetendo tale stima per tutti gli items, abbiamo una stima iniziale delle varianze spiegabili per ogni item Passi successivi della AFC A questo punto i vari metodi di AFC: estraggono i fattori calcolano le nuove comunalità sulla base dei fattori estratti riestraggono i fattori sulla base della matrice con le nuove comunalità fin quando il criterio stabilito (ad es., minimo errore, massima verosimiglianza) è soddisfatto ANALISI DELLE COMPONENTI PRINCIPALI L’ACP estrae inizialmente tanti fattori quante sono le variabili osservate L’estrazione iniziale spiega il 100% della varianza degli items e di ogni item (diversamente dalla AFC ) Tale soluzione non è soddisfacente, in quanto non rappresenta una soluzione efficiente e parsimoniosa Useremo dei metodi per decidere quanti fattori tenere che bastano a rappresentare in maniera efficiente le relazioni fra variabili Nell’analisi delle componenti principali (ACP) i fattori sono formati come combinazione lineare (somma pesata) degli items Il primo fattore estratto è la combinazione lineare degli items che massimizza la varianza spiegata - I pesi sono calcolati per massimizzare la correlazione fra la somma pesata e gli item - Nell’analisi delle componenti principali (ACP) i fattori sono formati come combinazione lineare degli items Il secondo fattore estratto è la combinazione lineare degli items che massimizza la varianza non spiegata (ortogonale) dal primo - I valori sono calcolati affinché siano massimizzati, sotto il vincolo che F1 e F2 siano ortogonali - I valori degli items nella combinazione fattoriale sono le correlazioni tra fattori e items Numero di Fattori L’algoritmo della ACP che estrae i fattori dalla matrice di correlazione di partenza, estrae tanti fattori quante sono le variabili (cioè tutti i fattori possibili) Estraendo tanti fattori quanti items (variabili osservate), spieghiamo tutta la varianza 85 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 l’AUTOVALORE è indice di bontà del fattore, nel spiegare i nostri dati in questo caso è ovvio che spiego il 100% ma ho solo ristrutturato le variabili Guardando gli auto valori (varianze spiegate dai fattori) dobbiamo decidere quanti fattori tenere - L’ACP estrae inizialmente tanti fattori quante sono le variabili osservate L’estrazione iniziale spiega il 100% della varianza degli items e di ogni item Tale soluzione non è soddisfacente, in quanto non rappresenta una soluzione efficiente e parsimoniosa Useremo dei metodi per decidere quanti fattori tenere che bastano a rappresentare in maniera efficiente le relazioni fra variabili Varianza e comunalità Nell’ACP la comunalità iniziale è 1 (100%) Dunque si assume che tutta la varianza di ogni item può essere spiegata Anche se poi ne spiegheremo solo una parte Scelta del numero di fattori: • Decidere il numero di fattori • Esistono diversi metodi per decidere quanti fattori/componenti tenere • Non esiste un criterio “oggettivo” (ad es., algoritmo) che determina in maniera inequivocabile ed assoluta il numero dei fattori da scegliere Perché? • I fattori rappresentano un modello della realtà e diversi modelli possono essere plausibili • Alcuni sono più plausibili, altri sono meno plausibili, ed altri ancora sono non plausibili • C’è un elemento soggettivo nella decisione • Soggettivo NON significa arbitrario METODI PRINCIPALI Autovalore maggiore di 1 (Kaiser-Guttman, mineigen) Scree-Test (Cattell) Analisi Parallela (Horn) Interpretabilità dei fattori Criterio Mineigen (Autovalore > 1) Ricordiamo che autovalore = varianza spiegata dal fattore - Ogni variabile spiega se stessa, dunque spiega 1 (variabili standardizzate) Dunque un fattore che spiega meno di 1, spiega meno di una variabile 86 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 - Usare fattori che spiegano meno di 1 non è efficiente (sarebbe più efficiente usare una variabile osservata) Criterio detto Mineigen o di Kaiser-Guttman Problemi Tende a sovrastimare il numero di fattori (tipicamente intorno ad 1/3 delle variabili) È più utile considerarlo come indicatore del numero massimo di fattori da considerare (con buon senso…) Qual è la differenza tra un autovalore di 1.01 ed uno di 0.99? (ma questo vale per qualsiasi soglia) È l’opzione di default di SPSS eppure è il criterio più debole tra quello che considereremo sconsigliato - Piu solo gli item più gli auto valori maggiori di uno sono tanti - Uso questo metodo per capire quale escludere e poi scelgo altri metodi per decidere quali auto valori maggiori di 1 tenere 2 SCREE TEST - I fattori sono estratti in sequenza, secondo la loro capacità di spiegare varianza - Vi sarà un punto in questa sequenza dopo il quale aggiungere fattori non cambia molto la capacità di spiegare varianza Facciamo il grafico degli auto valori, li mettiamo sull’asse delle y, e il numero della componente sulle x - Tracciamo una retta a partire dagli auto valori più bassi e osserviamo il cambiamento di tendenza - Attraverso il grafico degli autovalori, è possibile stimare tale punto - Detto anche Test del Ghiaione- gli auto valori sono sempre decrescenti - La logica è che gli ultimi fattori, saranno casuali, raccolgono varianza a caso Fossero tutti casuali sarebbero tutti su una linea, i fattori sopra la retta spiegano una quota più importante di varianza. Tirando una retta che interpola i valori più piccoli, valutiamo quelli che secondo noi che hanno un auto valore che esce da questa retta, in questo esempio potremmo dire che ci sono 3 fattori che escono dalla retta, auto valori che spiegano una varianza non casuale Scree-test e Autovalore>1 ➔ Con gli stessi dati, il criterio Autovalore>1 suggerisce la presenza di 5 componenti ➔ Il criterio scree-test è preferibile, purchè i fattori tenuti abbiano auto valore >1 Scree-test ✓ Migliore tra i metodi semplici ✓ Necessita di esperienza, buon occhio e conoscenza teorica ✓ Meglio se usato insieme a considerazioni teoriche ✓ Focus sul cambiamento di pendenza (salto degli autovalori) ✓ Tende a suggerire un numero corretto di fattori ✓ Logica: i raggruppamenti principali tendono ad emergere in maniera distinta dai raggruppamenti secondari ✓ I raggruppamenti principali tendono ad essere più affidabili rispetto a quelli secondari (segnale vs. rumore) 87 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Problemi • Metodo soggettivo • Può indicare più soluzioni plausibili • Necessita di esperienza, buon occhio e conoscenza teorica • Indicazioni chiare sono meno probabili con campioni piccoli e con un rapporto più basso tra variabili e fattori estratti DÌ FRONTE a uno scree test chiaro possiamo fermarci li. Quando non è chiaro possiamo adoperare un nuovo metodo→ 3 METODO ANALISI PARALLELA (HORN, 1965)- lo usiamo solo quando lo scree test non è chiaro Proprietà desiderabile: la soluzione fattoriale prescelta deve essere non casuale (random) Non vogliamo considerare dei fattori che emergono casualmente Vogliamo considerare fattori che sono “validi” Condizione minima di validità: i fattori devono spiegare più varianza rispetto a fattori costruiti in modo casuale a partire dai dati disponibili→ Il software costruisce un campione come quelle delle nostre variabili crea delle variabili a caso e calcola gli auto valori e le varianze ecc. fa finta di campionare tante volte da una popolazione con variabili casuali. Se le tue variabili fossero non correlate, e i fattori casuali, questi sarebbero gli auto valori che ti aspetti- quindi se hai auto valori maggiori di quelli che ti da il software vuol dire che non sono casuali dunque tienili La logica: Non siamo interessati a considerare un fattore che spiega meno varianza di un fattore emerso casualmente SPSS non prevede questo metodo (si può implementare con il linguaggio sintassi) La procedura: - 1. Generare dati casuali con stesso numero di soggetti e variabili dei dati veri - 2. Estrarre gli autovalori dalla matrice di dati generati casualmente - 3. Ripetere le operazioni (1) – (2) almeno 100 volte, registrando ogni volta gli autovalori di tutti i fattori estratti - 4. Calcolare autovalori medi e 95° percentile per tutti i fattori estratti - 5. Condurre l’analisi fattoriale sui dati veri - 6. Confrontare gli autovalori dei dati casuali e quelli dei dati veri - 7. Scegliere i fattori che spiegano più varianza del fattore corrispondente estratto dai dati casuali (usando la media o il 95° percentile) - 8. Condurre l’analisi fattoriale estraendo il numero di fattori così identificato Confronto i due valori- se sono diversi, se è maggiore il nostro rispetto a quello generato a caso ,vuol dire che l’autovalore non è casuale teniamo i fattori con auto valore maggiore del valore casuale- che ci da l’analisi parallela L’ANALISI PARALLELA RISENTE DELLA NUMEROSITÀ CAMPIONARIA: più casi = autovalori casuali più bassi. Il ruolo della numerosità campionaria - Più piccolo è il campione, maggiore deve essere l’autovalore per essere considerato non casuale - Per un campione che tende ad infinito, gli autovalori di controllo saranno uguali a 1 88 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 - Più è grande il campione e più gli auto valori che ci danno per confronto saranno bassi, quindi salverò più fattori a nostro vantaggio – potrebbe quindi dare troppi fattori e viceversa con pochi fattori. Questo difetto è il motivo per cui meglio guardare prima lo scree test Analisi parallela (Horn, 1965) È considerato il migliore dei criteri avanzati Però anche in questo caso non sempre coincide con la soluzione “migliore” Identifica i fattori che spiegano più varianza, rispetto a fattori presi a caso È influenzato dalla numerosità campionaria Utilizzo diffuso negli ultimi anni 4.INTERPRETAZIONE TEORICA RIASSUMENDO – cosa fare quindi? ➢ Mineigein è il peggiore, AP e Scree-test sono migliori ➢ Non c‘è un metodo infallibile ➢ È essenziale conoscere la teoria relativa ai dati che si esaminano ➢ La teoria ci può aiutare a scegliere la soluzione migliore ➢ Ci sono casi semplici e casi complessi ➢ Nei casi complessi, è meglio usare più metodi ➢ L’esperienza è fondamentale Qualunque sia il criterio per scegliere il numero di fattori, tenere un numero di fattori ridotti comporta un aumento dell’efficienza ma una perdita di capacità di rappresentazione di tutta la varianza - Se tutti i fattori spiegano tutta la varianza → Un numero ridotto perderà un pò di capacità di spiegazione ma catturerà gli aspetti principali → Lo scopo è di cercare di ottenere un buon equilibrio tra semplicità e rappresentatività (modello parsimonioso) Schema quindi per l’analisi fattoriale - Scegliamo che analisi fare- faremo noi ACP ( QUALCHE volta AFC) - Scegliamo quanti fattori tenere- partendo dall’estrazione di valori usando i 3 metodi ( auto valori, scree test, A.parallela. - Scelto il numero di fattori rilancio l’analisi tenendo solo i fattori prescelti, vanno poi interpretati i fattori. Prima di interpretarli devo miglioare la struttura fra gli item e i fattori tramite la ROTAZIONE, e poi si interpretano le matrici, salvo le variabili le nomino, creo i punteggi fattoriali ecc → lezioni successive LA ROTAZIONE DELLA STRUTTURA FATTORIALE - I passaggi fondamentali - 1) Scelta del modello fattoriale - 2) Scelta del numero di fattori - 3) Rotazione della struttura fattoriale - 4) Selezione delle variabili - 5) Interpretazione dei fattori - 6) Punteggi fattoriali Vogliamo massimizzare la chiarezza della struttura, così che l’interpretazione sia migliore, per questo è necessari la rotazione, un aggiustamento che permette di ottenere la migliore possibile. Dal punto di vista statistico cattura già la varianza, ma noi vogliamo interpretarla. Cosi come escono non è sempre ottimale. Il modo per migliorarla è la rotazione delle saturazioni (correlazioni fra item- fattori) Struttura monofattoriale 89 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 ➢ Quando decidiamo di considerare un solo fattore, la soluzione ottenuta inizialmente è quella ottimale ➢ Perciò non abbiamo bisogno di rotazione ➢ Perché? ➢ Per definizione, il primo fattore è quello che massimizza la varianza condivisa tra gli items ➢ Perciò, sarà già ottimale SOLUZIONI MUTIFATTORIALI: Notiamo che molti items saturano meglio in un fattore, ma saturano anche sull’altro → Altri saturano su entrambi i fattori (il segno qui non conta) Questi item saturano su entrambe le dimensioni, non è chiara, non è cosi semplice quindi dire su che fattore saturano. Dovrebbero essere costrutti indipendenti Plot delle saturazioni fattoriali: - Analizziamo la soluzione - Notiamo che molti items sembrano una combinazione di entrambi i fattori - Altri si posizionano al centro - Nessun item cade sull’asse, in modo tale da dare una chiara definizione al fattore LA MAGGIOR parte delle mutifattoriale hanno questa caratteristica SOLUZIONE COMPLESSA Quando la soluzione non presenta items che cadono chiaramente su un solo fattore, ma presenta molti items complessi (a metà strada), la soluzione si dice complessa ➔ In una soluzione complessa l’interpretazione dei fattori risulta molto difficile e dubbia Dobbiamo trasformare i nostri fattori per rendere la soluzione meno complessa → semplice Soluzione è idealmente semplice (Thurstone): Ogni item ha una sola saturazione sostanziale Soluzione è praticamente semplice: Il numero di items in posizioni interstiziali è relativamente piccolo (ad es., <10% di items Ogni item appartiene a un fattore soltanto Soluzione è semplice ideale (Thurstone): Ogni item ha una sola saturazione sostanziale→ Non vi sono posizioni interstiziali INTERPERTAZIONE: Quando la soluzione è semplice, useremo gli items che meglio saturano sul fattore per interpretare il suo significato PROBLEMA Il problema è che la maggior parte delle soluzioni fattoriali estratte dall’ACP saranno complesse PERCHÈ’? Consideriamo un esempio con 4 variabili-vettore→ Se dovessimo estrarre due fattori ortogonali che diano una struttura semplice, probabilmente la soluzione dovrebbe essere qualcosa del genere 90 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 ➔ Ma ricordiamo la logica della determinazione dei fattori: ➔ Il primo fattore è estratto in modo da massimizzare la correlazione con tutte le variabili. Il primo fattore dunque si mette in mezzo ai cluster di item, in questo caso tenta di minimizzare a distanza fra item e si metterà in mezzo e perciò risulta non semplice perché sarà correlato con tutti. ➔ Il secondo è estratto ortogonale al primo- quindi finirà lontano dai cluster ➔ Quindi le nostre soluzioni saranno complesse ➔ Il risultato è che nella maggior parte dei casi, i fattori non si troveranno IN gruppi di variabili, ma TRA gruppi Dobbiamo cambiare il riferimento dei nostri fattori, affinchè si mettano il più possibile dentro i cluster, il posizionamento dei nostri fattori facendoli finire in mezzo ai cluster--→ eseguiamo una rotazione Soluzioni Per ovviare a questi problemi interpretativi, si ricorre ad una rotazione degli assi volta a rendere la soluzione la più semplice possibile, cioè la più interpretabile possibile Rotazioni Ortogonali: VARIMAX - In cui gli assi sono ruotati mantenendo la loro ortogonalità (cioè sono indipendenti) - Ruota i fattori preservando il fatto che siano ortogonali, ovvero che la correlazione fra i fattori rimanga 0 Rotazioni Oblique: OBLIMIN - In cui gli assi sono ruotati senza mantenere la loro ortogonalità (cioè sono correlati) LA ESEGUIAMO SEMPRE CON ANALISI FATTORIALI CON + DI UN FATTORE. ( IL consiglio generale è di iniziare con la obliqua, se le correlazioni fra fattori sono basse passare all’ortogonale) ROTAZIONE ORTOGONALE La rotazione ortogonale modifica il posizionamento degli assi al fine di far passare gli assi il più possibile all’interno di gruppi omogenei di variabili Notiamo che le variabili rimangono fisse nelle posizioni relative, ma cambiano solo le loro proiezioni sui fattori Per rappresentare meglio una struttura ruotata, si allineano di nuovo i fattori ruotati con gli assi ortogonali ➔ La soluzione ruotata è sempre più semplice di quella iniziale, e dunque useremo la ruotata per interpretare i fattori ➔ La rotazione ortogonale trasforma le saturazioni fattoriali al fine di rendere la soluzione massimamente semplice Se cambiano le saturazioni, cambieranno anche la loro somma dei quadrati- AUTOVALORI DEI FATTORI ( CI dice quanto è importante un fattore e questo può cambiare con la rotazione- spss ci permette di confrontarli) Le varianze dei fattori cambieranno in quanto la rotazione rialloca la varianza tra i fattori Cambia il sistema di riferimento ma la relazione fra variabili rimane tale In generale, i fattori ruotati risulteranno più omogenei in termini di varianza spiegata. 91 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Perché? ricordiamo la logica dell’estrazione dei fattori iniziali - F1 spiega il massimo, F2 quella che rimane - Con la rotazione Sia F1 che F2 sono posizionati ognuno per spiegare il massimo possibile Cosa rimane costante? Ovviamente, la varianza spiegata in totale non può essere aumentata da una rotazione, altrimenti roteremmo i fattori per spiegare tutto, cambia solo quanto ogni fattore riesce a spiegare di quel totale La comunalità (quanto tutti i fattori estratti spiegano per ogni singolo item- somma degli autovalori dei fattori per variabile) rimane invariata es vedi immagine- scherzoso fattore 1+ fattore 2 = .39 sia con quella normale che quella ruotata, cambia come si alloca- di norma i primi fattori perdono i varianza, i secondi ne guadagnano ROTAZIONE ORTOGONALE - Al fine di ottenere una soluzione semplice si può ruotare la soluzione - La rotazione ortogonale mantiene l’ortogonalità degli assi (rotazione rigida) - La rotazione ortogonale modifica le saturazioni al fine di renderle il più semplici possibili - Le varianze dei fattori risulteranno cambiate dopo la rotazione - La varianza totale spiegata non risulta cambiata - La comunalità degli items non risulta cambiata - Vi sono vari tipi di rotazione (algoritmi) La più usata è la rotazione VARIMAX Ruota gli assi massimizzando la varianza delle saturazioni dei fattori Tale varianza è massima quanto le saturazioni sono tutte 0, 1, e -1 Dunque la soluzione è massimamente semplice ROTAZIONE OBLIQUALa rotazione obliqua procede come la rotazione ortogonale, ma ruota un asse alla volta senza mantenerli ortogonali.Invece che ruotarli rigidamente, ne ruota uno alla volta, di conseguenza la correlazione fra fattori risulti diversa da 0- l’angolo non sarà 90 gradi ma angoli differenti Riesce a catturare cluster di item distinti in termini di dimensioni ma con dimensioni correlati. Lo svantaggio è che mentre nella ortogonale abbiamo che la correlazione item-fattore è indipendente dagli altri fattori ( + semplice da interpretare perchè non faccio riferimento all’altro fattore), con quella obliqua i fattori condivideranno una quantità di varianza. Elementi della soluzione obliqua Le relazioni tra items e fattori non possono essere espresse semplicemente dalle saturazioni fattoriali (correlazioni item fattore) in quanto i fattori sono correlati Spss Matrice di struttura- si guarda raramente CORRELAZIONE SEMPLICE FRA ITEM E FATTORE Le relazioni tra items e fattori sono decomposte in due matrici di pesi I valori indicano la correlazione tra item e fattore, inclusa quella parte condivisa con altri fattori DÌ SOLITO SI GUARDA LA MATRICE DEI MODELLI 92 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 MATRICE DEI MODELLI Le relazioni tra items e fattori sono decomposte in due matrici di pesi MATRICE DÌ CORRELAZIONE PARZIALE ITEM FATTORE PARZIALIZZANDO GLI ALTRI FATTORI- Correlazione pura, non influenzata dagli altri fattori, migliore come indice per dirci quando l’item sarà spiegato da fattore ◼ I valori indicano la correlazione tra item e fattore, parzializzando ogni altra relazione con altri fattori ◼ La matrice dei modelli indica il contributo unico della variabile al fattore, e dunque useremo tali valori per interpretare i fattori Soluzione ruotata obliquamente L’Interpretazione è la stessa, quella che correlano di più con la componente sono quelli che ci informano di più sul fattore La soluzione ruotata ci fornisce anche la correlazione tra i fattori La matrice dei modelli è più «semplice» fattorialmente Quando questa correlazione è bassa la soluzione obliqua non conviene Correlazione bassa: <.20 (andare sulla rotazione ortogonale) Correlazione media (>.20 ma <.30) (forse rotazione obliqua) Correlazione alta: >.30 (rotazione obliqua) QUALE SCEGLIERE—vedere esercitazione- spiegazione migliore - Si fa la rotazione obliqua per partire - Poi si guarda se la soluzione ha senso, è interpretabile poi la correlazione fra componenti - Se è bassa sotto.20, rifacciamo l’analisi imponendo la rotazione ortogonale. Se la correlazione è bassa è inutile portarsi dietro dimensioni vagamente correlate, meglio averle ortogonali - SE è MAGGIORE di .30 manteniamo la rotazione obliqua - 20-30 non c’è consenso- meglio mantenere l’obliqua Riassumendo - l più usato è il metodo OBLIMIN Il metodo OBLIMIN varia in funzione del parametro delta ( ). Il metodo usato da SPSS di default è con =0, che corrisponde ad una rotazione quartimin diretta. Un’altra rotazione obliqua è la PROMAX (meno usata, ma molto valida) Tutte le rotazioni (sia oblique che ortogonali) mirano a riprodurre il più possibile la struttura semplice, ma differiscono sul cosa si intende per semplicità (dati vs. concettuale) In pratica… • Se decidete di estrarre 2 o più fattori, dovete ruotare la soluzione fattoriale • Ruotate prima con la Oblimin (o Promax) e vedete le correlazioni tra i fattori • Se tutte le correlazioni sono basse (ad es. <.20), rifate l’analisi fattoriale con rotazione Varimax • Se sono alte, considerate la Oblimin (per interpretare le saturazioni fattoriali, vedete la matrice dei modelli) ALTRI TIPI DÌ ROTAZIONI- non le faremo a livello pratico ROTAZIONI TEORICHE - Non sempre si vuole ottenere una soluzione semplice 93 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 - A volte il nostro obiettivo può essere di ruotare verso una struttura teorica conosciuta, vedere se la soluzione abbia caratteristiche specifiche delineate da una teoria, un modello ecc Vogliamo verificare il grado di sovrapponibilità - ES Nei modelli circomplessi si vuole testare che le variabili prendano una disposizione “circolare” intorno a due o più fattori - Si delinea quale dovrebbe essere un pattern di saturazioni che assomiglia alla forma che vorrei avere e ruoto per cercare di mettere gli assi in modo tale che le saturazioni siano più vicine possibili a quelle orientate teoricamente. Si calcola poi la discrepanza - Sono molto usate con strutture di dati particolari Si testa di solito con LA ROTAZIONE PROCRUSTEA- ma serve a stabilire se la nuvola dei nostri dati hanno una struttura particolare - La rotazione procustea ruota la matriche delle saturazioni verso una matrice target E poi verifica il grado di sovrapponibilità della matrice ruotata con quello target - La matrice target può essere sia teorica che osservata (ad esempio osservata in altri studi)→ Si ruota la matrice delle saturazioni fattoriali dei dati reali verso la matrice che contiene le posizioni ideali delle saturazioni - Cerca di minimizzare le distanze - Si ruota la matrice delle saturazioni fattoriali dei dati reali verso la matrice che contiene le posizioni ideali delle saturazioni Esercitazione per analisi fattoriale –n.2 cap.12 L’analisi fattoriale necessità della conoscenza delle variabili. Dobbiamo avere in mano cosa significano gli item per interpretare i fattori. - SELEZIONE DELLE VARIABILI INTERPRETAZIONE DEI FATTORI Dobbiamo vedere quali sono i costrutti sottostanti ai fattori vedendo i marker del fattore, ovvero gli item che correlano maggiormente con quel fattore, e che non correlano con quei fattori. Sono gli item semplici, che rappresentano il nucleo di item più vicini al fattore. Dobbiamo dare una spiegazione di queste correlazioni. Un fattore non interpretabile è inutile- dobbiamo trovare un motivo teorico per cui questi item vadano insieme. Alcuni item hanno saturazione basse in tutti i fattori, questi item si possono eliminare, lo si fa sempre in maniera iterativa, eliminando uno per volta quello peggiore, si rilancia l’analisi, si reinterpreta e così via, togliendo fino a una soluzione soddisfacente. La selezione degli item si fa di norma quando si cerca un scala, si fa meno per confermare un questionario già validato. Descrizione della ricerca Ad campione di 78 ragazze adolescenti è stato somministrato un questionario sulle preferenze alimentari. Gli item del questionario vertevano su due dimensioni: cibi dietetici e cibi grassi. All'interno delle due dimensioni sono stati presentati item che descrivono sia snacks (sia grassi che dietetici) che cibi generalmente cucinati in casa (sia grassi che dietetici). Le ragazze del campione sono state suddivise in due gruppi rispetto alla tendenza a fare la dieta (attento alla dieta vs non attento alla dieta). L'età è codificata in due valori a seconda che l'età della ragazza fosse minore di 15 o maggiore uguale di 15 anni. Descrizione dei dati I dati sono organizzati nelle seguenti variabili. 1. tipo, indica la tipologia del soggetto: 1=attento alla dieta, 2=non attento alla dieta. 2. eta= 1 età <15; eta=2 età =>15 3. item a1-a4 snacks grassi (merendine, patatine, etc.) 4. item b1-b4 cibi grassi cucinati (carne, insaccati, etc.) 94 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 5. item c1-c4 snacks dietetici (barrette, insalate preconfezionate) 6. item d1-d4 cibi dietetici cucinati (pesce, carni bianche, etc) Domande 1) Determinare se una struttura fattoriale degli item a due fattori è compatibile con le dimensioni cibi grassi – cibi dietetici. 2) Confrontare le rotazioni (obliqua vs ortogonale) per la struttura a due fattori. 3) Determinare la bontà di una struttura a 4 fattori? 4) Sulla base della struttura a 4 fattori, determinare se vi siano effetti di tipo e eta sui quattro fattori estratti. Discutere solo gli effetti significativi? PRIMA DÌ INIZIARE facciamo una prima analisi fattoriale→ è LA RISPOSTA ALLA DOMANDA 3 - analizza - riduzione delle dimensioni - fattore - inseriamo tutti gli item estrazione: già selezionato metodo delle componenti principali ( è uno dei vari metodi di estrazione) - chiediamo scree-plot - per ora lasciamo auto valore magg.1 e lanciamo è l’analisi iniziale - osserviamo la tabella degli auto valori - osserviamo lo scree plot - 4 fattore >1 autovalore - Confermato dallo scree plot Sappiamo che abbiamo 4 fattori- ( non ne chiedo 4 perché sono cmq già chiesti dall’autovalore 1) la rilanciamo chiedendo la rotazione La faremo per prima cosa OBLIQUA IN OPZIONI- segnare ordinato per dimensioni,ordina gli item e semplifica la lettura Tabella varianza totale spiegata Caricamenti delle sommE dei quadrati di rotazione- auto valori nuovi Per esprimere la varianza spiegata dai nuovi auto valori post rotazione, dividiamo questi valori per il n. di variabili Matrice delle componenti ruotate-→ MATRICI DEL MODELLO COME SI INTERPRETANO? Si guardano che hanno saturazione primaria alta e saturazione secondaria bassa È una soluzione molto buona La prima componente è formata da D2 D3 D1 D4 con saturazione alte sulla prima e basse sulla seconda Quindi la prima componente è la dimensione che misura cattura le differenze circa l’atteggiamento rispetto ai cibi dietetici Lo stesso vale rispettivamente per le altre È semplice perchè tutti i fattori hanno un item con saturazione alta, e gli altri basse I marker migliori hanno saturazione alta sul primo fattore Es d.2 .982/ .036 Facendo questo rapporto, gli item che hanno saturazione primaria sopra .35 e rapporto più alto sono i marker 95 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Qui non c’è bisogno perché è chiaro che le saturazione si clusterizzano in gruppi Cosa riportiamo? - Riportare l’autovalori dell’estrazione iniziale, perché dobbiamo giustificare la scelta del numero di fattori (anche se è dato a priori, chi legge vuole vedere la corrispondenza)- si riportano gli auto valori scelti + 2 piu piccoli, in questo caso riporto i primi 6 autovalori - Si dichiara la rotazione effettuata - Si riportano gli auto valori post rotazione - Si riporta il totale di varianza spiegata - Si riporta la matrice di saturazione, in questo caso dei modelli ( in tesi la incolliamo). Nell’esame è bene descrivere gli item che appartengono a ogni fattore dicendo quali sono il minimo e il massimo delle saturazioni trovate, per dare una idea di come è la soluzione, dicendo poi quale è ilvalore massimo degli item che non saturano- lo facciamo per ogni fattore Ex nella componente 2 saturano gli item da 1 a 4 con saturazioni che vanno da .72 a .87, con nessun altro item che supera .047 ( ricordiamo che il segno non conta in termini di grandezze, serve solo per comprendere la direzione del fattore, noi il segno lo mettiamo. Spesso nelle scale si cerca di bilanciare + e - ) - Risposta. Nella componente 1 i marker sono gli item d2 d3 d1 d4 con saturazioni primarie da .98 a .96. mentre nessun’altra variabile satura sul fattore 1 + di.15 Abbiamo fatto la OBLIMIN- DOVEVAMO VEDERE LA MATRICI DÌ CORRELAZIONI, per capire se la soluzione è obliqua C’è ABBASTANZA correlazione, sono sopra 0.2, anche se i fattori vanno a coppie Questo abbinamento ha un senso- dietetici con dietetici Ci sono correlazioni fra fattori non trascurabili e che hanno un senso con la struttura dei dati ( x capire meglio vedi esercitazioni pagine dopo) 4.Sulla base della struttura a 4 fattori, determinare se vi siano effetti di TIPO E ETA sui quattro fattori estratti. Discutere solo gli effetti significativi? Analisi successivi, vogliamo vedere come questi 4 fattori sono associati ad altre variabili CREIAMO LE VARIABILI: creo i punteggi fattoriali, un punteggio per ogni soggetto rispetto a quel fattore ( es stabilità emotiva) 2 METODI 1.Un metodo calcolare il punteggi fattoriale- somma degli item pesati per quanto gli item correlano con il fattore- chiediamo quindi i punteggi fattoriali che saranno 4 nuove variabili, si crea quindi una nuova variabile che rispetterà le correlazione fra saturazione e fattori ANALIZZA - FATTORE - PUNTEGGI- salva come variabili - La rilanciamo—mi aggiunge ai dati tante variabili quanti sono i fattori - In VISTA VARIABILI togliamo LE ETICHETTE- e le nominiamo es F_cu_die (in tesi usiamo le etichette) - Vediamo le caratteristiche facendo le descrittive di queste variabili- notiamo che hanno sempre punteggi standardizzati, con media 0 e dev.standard 1- ho una scala di rifermento. Però non preservano la scala degli item 96 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 2. Secondo metodo per creare variabili con i fattori→ sommare gli item NON tutti pesati, ma solo gli item appartenenti al fattore ( è un metodo buono in generale anche quando non uso la fattoriale, per calcolare il punteggio su una certa scala ecc) Si chiamano punteggi semplici o aggregati—creiamo noi la variabile sommando solo quelle che appartengono al fattore, quelle che saturano >.35 Es primo fattore- somma di d2 d3 d1 d4 ecc CALCOLA nuova variabile S ( semplici) S_CU_DIE: d1+ d2+ d3+ d4 Se per curiosità faccio la correlazione fra le due variabili ( fattoriale vs aggregate) calcolate con i due metodi vediamo che saturano tantissimo I punteggi fattoriale con i punteggi semplici è utile soprattutto quando la soluzione è semplice. Se è complessa tende a diminuire. È sempre meglio usare i punteggi fattoriale (da spss) perché pesano gli item relativamente all’importanza degli item sul fattore ( il primo metodo) Risposta domanda 4- fare anova usando VI TIPO ETA 2X2, vd la nuova variabile fattoriale DOMANDA 1 Verifica se una struttura fattoriale a 2dimensioni è compatibile con cibi grassi- cibi dietetici Rifacciamo l’analisi ma in estrazione chiediamo 2 fattori, lasciamo la rotazione obliqua - Spieghiamo il 46.066% della varianza - Leggermente cambiati gli auto valori - Perdiamo un pò di varianza, ma spieghiamo con 2 valori una sufficiente varianza Per ora imporre una struttura a 2 fattori è compatibile, guardiamo però come gli item si localizzano MATRICE DEI MODELLI LA PRIMa componente è formata dagli item D e C, LA seconda dagli A E b, LA PRIMA mette insieme la componente cucinare dietetici e snack dietici, e l’altra cucinare grassi e snack grassi Primo componente- cibi dietetici vs cibi grassi- secondo fattore Quindi la soluzione fattoriale è compatibile con questi 2 fattori- cosa vuol dire rispetto all’analisi di prima? Già in quella di 4 fattori, 2 fattori erano correlati, si può immaginare una struttura gerarchica, ovvero 4 componenti, che se semplifichiamo si raggruppano in 2 dimensioni, e quelle che correlano vengono schiacciate insieme Con la oblimin devo vedere se il modello ha senso, qui ha senso – tabella delle correlazioi C1-c2 SONO un pò interstiziali – se in rotazione chiedo GRAFICO DÌ CARICAMENTO- mi esegue lo scatter plot degli item sui fattori Sono minori di .35 e con un rapporto piccolo → SELEZIONE DELLE VARIABILE. Di fronte a una scala già validata che dobbiamo usare così come è anche se l’item funziona poco dobbiamo tenerlo dentro, perché tanto nei punteggi fattoriali conterà poco. Invece nella selezione della migliore misura possibile si possono selezionare le variabili e tolgo iterativamente la peggiore Rifacciamo quindi l’analisi senza C2 Notiamo nella tabella degli auto valori- si spiega più varianza ( 48,8 % vs 46) C1 è ancora minore di .35 togliamo anche questo rilanciando l’analisi Vediamo che togliendo C1 diminuisce anche C3- togliamolo C4 è quasi buono ma qua sto togliendo il fattore C quindi se continuo così perdo un pezzo e il modello è sbilanciato, o mi tengo la prima componente solo fatta senza C, oppure torno indietro spiegando che se vado avanti non ottengo miglioramenti, ci conviene avere un fattore che spiega meno ma che rappresenta, meglio il dominio che stiamo spiegando (se invece avesse tolto un po’ di C e un po’ di D sarebbe stato diverso, avrebbe rispettato la struttura e sarebbe stato equilibrato) Domanda 2 97 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 CONFRONTARE LE ROTAZIONI (OBLIQUA E ORTOGONALE) PER LA STRUTTURA A DUE FATTORI - Emerge lo stesso problema Analisi Fattoriale SELEZIONE DELLE VARIABILI ED INTERPRETAZIONE DEI FATTORI - 1) Scelta del modello fattoriale - 2) Scelta del numero di fattori - 3) Rotazione della struttura fattoriale - 4) Selezione delle variabili 5) Interpretazione dei fattori 6) Punteggi fattoriali Selezione delle variabili e interpretazione dei fattori ✓ Nella prassi i due passaggi sono spesso iterativi ✓ Si interpretano in via preliminare i fattori ✓ Si selezionano le variabili ✓ Si riverifica l’interpretazione dei fattori in funzione delle variabili selezionate ✓ Si ripete il ciclo se necessario ✓ Affronteremo prima la questione della selezione delle variabili ✓ Ma anzitutto accenneremo cosa si intende per interpretazione dei fattori e selezione delle variabili Interpretazione dei Fattori Una volta estratto un numero limitato di fattori, si pone il problema di identificare cosa essi rappresentino in termini di contenuto. Cioè rispondere alle domande: ◼ Il fattore quale dimensione indica? - Quale è la variabile latente (generale) che viene misurata con un dato fattore ? - Come è diverso/simile rispetto ad altri fattori? Esempio: analisi ACP Abbiamo misurato 7 item di personalità (aggettivi di autodescrizione), di cui 5 dovrebbero essere aggettivi associati all’estroversione e due alla socievolezza - Ci proponiamo di vedere se esiste un fattore unico sottostante a questi item e vogliamo capire quale sia - Estraiamo comunque un fattore solo per vedere cosa indica - Ricordiamo che la saturazione fattoriale, la correlazione tra fattore (componente) e variabile, indica quanto è stretto il legame tra items e fattore, cioè quanto ciascun item partecipa alla costruzione del fattore Interpretiamo questo fattore come “estroversione”, dicendo che gli items che saturano sostanzialmente sono accomunati dalla dimensione estroversione mentre gli altri items non appaiono accomunati ai primi In generale, la saturazione si considera sostanziale (alta) quando supera ±.35 Interpreteremo il fattore come quel costrutto, tratto o dimensione che accomuna gli items con saturazione maggiore di ±.35 L’interpretazione dei fattori ha sempre una certa dose di soggettività (come ogni interpretazione) ma NON è perciò arbitraria ➔ Daremo più importanza ad items che saturano di più ➔ Il nome usato di solito raggruppa gli items e non è uno di essi (ma dipende dalla teoria… in esercitazione i primi 2-3 più significativi) ➔ È fondamentale raccordarsi con le teorie esistenti Nel nostro esempio- Notiamo che potremmo anche definire questa componente come “simpatia”, ma non come “intelligenza” Selezione delle variabili Non tutte le variabili sono egualmente importanti 98 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 - Specialmente se si sta costruendo una scala di misura di un costrutto psicologico, si porrà il problema di selezionare le variabili migliori oppure escludere quelle peggiori Bisognerà perciò utilizzare delle procedure che ci portino ad individuare le variabili da escludere o da selezionare Le procedure comporteranno un misto di considerazioni numeriche e teoriche e potranno variare in funzione dei nostri obiettivi Sulla base dei risultati precedenti, possiamo eliminare dal fattore i tre items che non saturano (<±.35) e vedere se la soluzione migliora La selezione delle variabili è particolarmente rilevante quando: 1. Vogliamo costruire e validare un nuovo strumento di misura 2. Vogliamo individuare i migliori indicatori per un certo fenomeno 3. Vogliamo considerare soltanto le variabili che “funzionano” per una certa misura 4. Vogliamo fare una versione ridotta di uno strumento di misura più lungo La selezione delle variabili è MENO indicata quando: 1. Vogliamo verificare la struttura fattoriale di uno strumento già validato 2. Vogliamo verificare la struttura fattoriale di un certo fenomeno Selezione delle variabili Il metodo di gran lunga più usato è quello della saturazione primaria (Primary Loading) >|.35|, spesso con qualche correzione soggettiva Due criteri chiave: Una variabile dovrebbe 1) saturare sufficientemente su un fattore (>|.35|) 2) non saturare su altri fattori (<|.20|). Ciò può essere catturato dal rapporto tra saturazione primaria e secondarie che dovrebbe essere elevato (>|2|) Interpretazione dei Fattori • Senza una conoscenza teorica solida, è difficile interpretare correttamente i fattori • Gli elementi chiave sono le saturazioni fattoriali. L’attenzione va posta sulle variabili con le saturazioni più elevate e puliti. Ci si chiede “cosa accomuna queste variabili?” e “cosa le differenzia da altre variabili/fattori?” • Non basta focalizzarsi sulle saturazioni alte sul fattore • Bisogna porre attenzione anche alle saturazioni delle altre variabili sugli altri fattori • Bisogna cercare di capire cosa è, ma anche cosa non è ( ricordiamoci che alcuni items hanno saturazioni negative sul fattore, sono ugualmente importanti, indicano solamente la direzione) ELIMINAZIONE - È meglio eliminare un item per volta 99 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 E poi rifare l’analisi ed eliminare il secondo item e così via in maniera iterativa Può accadere che un item che sarebbe stato eliminato, in realtà poi non lo si elimina più Le saturazioni fattoriali sono sempre relative alla soluzione prescelta e dipendono dagli altri items considerati SELEZIONE DELLE VARIABILI E INTERPRETAZIONI DEI FATTORI ✓ I due passaggi sono spesso iterativi ✓ Le variabili si selezionano in funzione della loro “pulizia” fattoriale ✓ Ma attenzione anche agli aspetti teorici e di contenuto ✓ Specialmente quando stiamo sviluppando una misura di un costrutto, noi vogliamo rappresentarne vari aspetti ✓ Un’analisi teorica precedente ci aiuta ad identificare questi aspetti ✓ La selezione degli items non sarà solo numerica ma anche teorica ✓ Ci interessa rappresentare i vari aspetti del costrutto USO DEI FATTORI IN ANALISI SUCCESSIVE - Punteggi fattoriali I punteggi fattoriali possono essere calcolati alla fine della AF al fine di attribuire ad ogni soggetto un punteggio sul fattore I punteggi fattoriali sono calcolati come la somma pesata degli items, ogni item pesato per l’importanza che ha sul fattore I pesi usati sono detti “coefficienti di punteggio fattoriale” e sono una trasformazione delle saturazioni (cioè dipendono dalle saturazioni) Punteggi fattoriali: vedi sopra, lo chiedo ad Spss→ IMPORTANZA DÌ OGNI ITEM nel fattore, danno un misura del fattore per ogni soggetto-“ salva punteggi” PUNTEGGI SEMPLICI: Mentre i punteggi semplici (aggregati, creo io una variabile semplice con gli item che saturano con il fattore >.35) E Faccio la media( controllare nei riassunti libro) I punteggi fattoriali sono affidabili con un campione di numerosità perlomeno decente (n>100) Altrimenti il peso dato ad ogni item può essere influenzato troppo dalla fluttuazione campionaria Alternativa semplice: pesare ugualmente gli items solo in funzione della loro appartenenza al fattore (cf. punteggio semplice) Si vede quali items appartengono al fattore Si calcola il valore medio di questi items Quello sarà il punteggio nel fattore o nella dimensione o scala (NON il punteggio fattoriale A cosa servono i punteggi fattoriali Come per qualsiasi altro punteggio, li possiamo utilizzare per verificare differenze, predire altre variabili, ecc., a livello dei fattori Nella lezione di Perugini vi è una parte sui MODELLI GERARCHICI Nell’analisi fattoriale sinora siamo passati dagli items al fattore Un livello di astrazione Ma a volte c’è bisogno di più livelli di astrazione 100 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 ES Analisi di fattori che fanno parte di fattori più grandi es Degli aspetti diversi di intelligenza (verbale, numerica) che poi si riferiscono ad un fattore generale di intelligenza (g) Come affrontiamo queste situazioni? 1) Abbiamo bisogno di un modello teorico che lega le variabili a due livelli di astrazione 2) Facciamo una serie di analisi fattoriali (almeno due) Procedura per modelli gerarchici PRIMO PASSO Analisi fattoriale (ACP) sulle variabili Estrazione di tanti fattori quanti aspettati teoricamente (gli items di solito sono scritti per misurare dei fattori e non random…) Estrazione di tanti fattori quanti suggeriti dai criteri di scelta (ad es., Scree-test, stabilità) Rotazione Oblimin della struttura fattoriale Ispezione delle saturazioni e delle correlazioni tra i fattori. È la soluzione sensata? Sono i fattori correlati? Salvare i punteggi fattoriali SECONDO PASSO - Analisi fattoriale (ACP) sui punteggi fattoriali precedentemente salvati Estrazione di tanti fattori quanti attesi teoricamente o secondo criteri di scelta (di solito solo un fattore) Se si estrae un solo fattore, non ruotare - Se si estraggono due o più fattori, ruotare (di solito Varimax, ma può anche essere Oblimin, dipende dalla teoria) - Ispezione delle saturazioni (ed eventualmente delle correlazioni tra i fatttori). È la soluzione di secondo ordine sensata? Salvare i punteggi fattoriali Disegnare il modello concettuale per illustrare i risultati USO COMPLESSO_ Scelta dei fattori - Una forte conoscenza teorica aiuta nella scelta del numero dei fattori - Specialmente quando ci sono più soluzioni plausibili - L’interpretabilità dei fattori èun esempio - Per aiutarla, si può cercare di scomporre le varie soluzioni fattoriali - In questo modo, si può vedere il flusso teorico e comprendere se la soluzione con piùfattori aiuta a spiegare meglio il raggruppamento delle variabili - Cosa significa “meglio” dipende dalla conoscenza teorica (ma sempre sulla base dei risultati numerici) L’ultima lezione Fondamentale l’interpretazione e come si scrive Rispondere ad un quesito statistico Per rispondere ad un quesito statico (di ricerca o di esame) possiamo strutturare il ragionamento rispondendo ad una serie di domande: RIGUARDA LA RELAZIONE TRA VARIABILI O IL MODELLO DI MISURA? - Relazioni fra variabili • Effetto di una o più variabili su una dipendente • Associazione tra due variabili • Differenze fra gruppi • Influenza di una variabile su un altro effetto 101 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 - Modello di misura • Attendibilità di una misura • Dimensionalità di una misura ( estrai n.fattori ecc) • Coerenza tra misure alternative • Clusterizzazione di item in costrutti • Validità di una misura Relazioni fra variabili Le domande a cui dobbiamo rispondere per gestire un’analisi relativa alle relazioni fra variabili sono sostanzialmente due: ➢ 1Che tipo di modello dobbiamo stimare? ➢ 2Come lo dobbiamo stimare? ➢ 3È il modello empiricamente sostenibile? Ovvero le assunzioni sono rispettate? ➢ 4A quale effetto siamo interessati? TIPO DÌ MODELLO: 1Quale è la natura della variabile dipendente? - Continua → MODELLO LINEARE - Categorica→ ( modello Logistico)- modello lineare generalizzato 2Quale è la natura della variabili indipendenti? - Continua → modello regressione - Categorica→ anova Modello regressione - Entrambe → Modello ANCOVA COME SONO STRUTTURATI I DATI? - Cross-sectional –il soggetto ha solo un punteggio della VD - Misure ripetute ( è un caso particolare delle clusterizzate, DEL SOGGETTO viene misurato più volte, o l’unità statistica, che non sono una persona. Es se sto studiando la terapia di coppia - Misure clusterizzate- generalizzano le misure ripetute, sono un sovra caso delle misure ripetute. Prevede anche situazioni in cui le misure prese sono raggruppabili in cluster con la caratteristica che le misure dentro il cluster sono più simili, rispetto a quelle fra cluster CROSS-SECTIONAL • Survey di questionari • Esperimento between-subject • Osservazioni senza ripetizione • Etc.. Ogni soggetto misurato indipendentemente dagli altri ed una volta sola MISURE RIPETUTE • Esperimento within-subject • Studi logitudinali • Etc.. Ogni soggetto misurato in diversi tempi ed occasioni MISURE CLUSTERIZZATE • Esperimento within-subject • Studi logitudinali • Studi multilivello • Studi su soggetti campionati in gruppo 102 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 SOSTENIBILE? ABBIAMO RISPETTATO LE ASSUNZIONI? A QUALI EFFETTI SIAMO INTERESSATI? OGNUNO di questi effetti ha un indice di grandezza dell’effetto associato R2, eta quadro ecc MODELLO DI MISURA Attendibilità ( coerenza interna delle misure) vs dimensionalità , coerenza tra misure alternative, clusterizzazione di item in costrutti, validità di una misura Riguarda l’attendibilità delle misure? Attendibilità • Categoriche: Kappa di Cohen • Ranking: coefficiente di correlazione intraclasse • Continue: correlazione ( 2, o in tempi diversi) e alpha di Cronbach Riguarda la dimensionalità delle misure? Analisi fattoriale Scelta del modello Scelta dei fattori Rotazione Interpretazione dei fattori Punteggi fattoriali Esempio 1 - Vd continua - Vi- categoriche 103 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 - 1 sola misura Domanda 1- anova – guardo l’interazione – riportando un modello si è soliti riportare i numeri statistici di tutti gli effetti, e interpreto quel che mi serve Interpretazione del grafico - Domanda 2 post hoc - 3) ancova- autostima ma continuo - 4) assunzioni Esempio2 - Ogni sogg.- 2 misure- test/ pre test - 1) posso usare l’anova a misure ripetute( e guardo l’interazione). Oppure una ancova in cui metti come VI gruppo e come altra indipendente ansia prima - 2) uso indice dell’effetto- eta quadro dell’interazione-. Si prendono i due, chi lo ha più grande, è il modello più forte - 4) fare un grafico—RAPPRESENTARE- regressione logistica – chiedo di salvare i punteggi predetti e faccio un grafico fra perfomance e punteggi predetti ( che sono trasformati in probabilità)- con uno scatter si vede come cambia Esempio 4 - Dati clusterizzati – sicuramente modelli misti – dobbiamo rendere quali sono gli effetti random - 1) regressione, entrambe indipendenti- l’intercetta della regressione ( costante ) come randoml’effetto è fisso e l’intercetta varia- riportiamo il coefficiente di regressione che lag performance e intelligenza - 2) salvo i punteggi opredetti vD punteggi predetti. Se fosse stata l’anova faremo le medie - 3)come la 1 e aggiungiamo l’effetto di intelligenza - 5) è lo stesso e inserisco come VI la disponibilità, considerando l’interazione COME SI SCRIVE APA style The following examples illustrate how to report statistics in the text of a research report. You will note that significance levels in journal articles-- especially in tables--are often reported as either "p > .05," "p < .05," "p < .01," or "p < .001." APA style dictates reporting the exact p value within the text of a manuscript (unless the p value is less than .001). P NON è MAI ZERO Also, with the exception of some p values, most statistics should be rounded to two decimal places. Mean and Standard Deviation are most clearly presented in parentheses: The sample as a whole was relatively young (M = 19.22, SD = 3.45). Percentages are also most clearly displayed in parentheses with no decimal Places: “Nearly half (49%) of the sample was married”. Chi-Square statistics are reported with degrees of freedom and sample size in parentheses, the Pearson chi-square value (rounded to two decimal places), and the significance level: The percentage of participants that were married did not differ by gender, c 2 (1, N = 90) = 0.89, p = .35. T Tests are reportedwith the degrees of freedom in parentheses. Following that, report the t statistic (rounded to two decimal places) and the significance level: There was a significant effect for gender, t(54) = 5.43, p < .001, with men receiving higher scores than women. Correlations are reported with the degrees of freedom (which is N-2) in parentheses and the significance level: The two variables were strongly correlated, r(55) = .49, p < .01. Regression results are reported with the B's (or betas), t-test, degrees of freedom, and pvalues. The Rsquared is reported with the F test: Social support significantly predicted depression scores, b = -.34, t(225) = 6.53, p < .001. Social support also explained a significant proportion of variance in depression scores, R2 = .12, F(1, 225) = 42.64, p < . 001. 104 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Anova results are reported with F-test, degrees of freedom, and p-values, and some effect size for each effect: There was a significant main effect for treatment, F(1, 145) = 5.43, p= .02, eta2=.24 and a significant interaction, F(2, 145) = 3.24, p = .04, eta2=.09 Any other linear model is reported accordingly APPUNTI esercitazioni turno FORGIANINI Prima lezione Ripasso spss dei primi due anni - Ricodifica stessa variabile - Ricodifica in variabili differenti – es da una continua a una variabile categoriale Primo argomento; la regressione Quando facciamo inferenze, intendiamo il passare da una piccola parte della popolazione all’intera popolazione, cerchiamo di capire quanto di quello che ho osservato in un campione sia attribuito al caso o meno. HO DEI test inferenziali è che non si trova nulla, ovvero l’effetto non vale sulla popolazione. L’intento nostro falsificare questa ipotesi nulla → “ approccio falsificazionista”. – a partire da HO sulla popolazione e da un dato su un campione, stime la probabilità di avere quel dato, quell’effetto sul campione. (Se HO è vera)--valore p ( sig). probabilità condizionata, minore è, più è bassa e maggiore sarà la significatività del test inferenziale. In qualunque test abbiamo un valore p, maggiore è il p, minore è la probabilità di avere quel fato sulla popolazione,e dunque è vera HO. Accettiamo come violata HO, quando sig.p < 0.05 in spss .05, ovvero la probabilità che i risultati siano legati al caso è minore del 5%, una volta su 20, 5 su 100. Errore di tipo 1 o alfa- la probabilità che HO sia violata, quando in realtà l’ipotesi nulla è vera ( massimo 5 volte su 100 per le scienze sociali) Errore di tipo 2 o beta- La probabilità complementare, (1- β), ossia la probabilità di rifiutare correttamente un ipotesi nulla falsa, si chiama potenza del test • Maggiore è la potenza di un test, maggiore sarà la possibilità del test di identificare come corretta l’ipotesi alternativa quando questa è effettivamente vera REGRESSIONE semplice - Entrambe le variabili siano quantitative - 1 solo predittore, una VI eun Vd - MODELLO lineare Y= a ( intercetta o costante, stima di y quando x è 0) + bx - Ad ogni x viene associata una y, viene stimato il migliore modello lineare per due variabili quantitative - La significatività del coefficiente b è la significatività di quel predittore- noi commentiamo la sig. di questo fattore - R2- è la stima della varianza spiegata ovvero quanta varianza di Y è dovuta a X Seconda lezione: regressione multipla e moderazione Modelli lineari con più di un predittore, più di un predittore contemporaneamente ha un impatto sulla variabile dipendente. Più variabili vengono prese in considerazione, maggiore è R2. Siamo interessati a capire il legame fra i predittori; ogni singolo effetto viene stimato al netto degli altri, tenendo costante, parzializzando gli altri predittori. File : auto- analizza regressione lineare - VD peso - VI lungh e potenza - Permette di rispondere a una domanda tipo “ relazione lunghezza-potenza”- effetto a parità di lunghezza della potenza e vicevera. 105 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 R2 è l’indice di bontà dell’intero modello e tiene conto di tutti i predittori B è il coefficiente di ogni predittore, stima il valore e la significatività Quindi per ogni cm di lunghezza delle auto, il peso aumenta di 3,6 kg al netto della potenza del motore ( a parità di cavalli del motore) - La costante ( stima del modello quando i predittori sono 0)-è una stima teorica non ha senso - Questo modello stima il 91% della varianza della vd ( R2), 8,4%di errore ( varianza non spiegata) - R2-indice di bontà complessivo ( presente in tabella anova) si tende ad utilizzarlo quando ho tanti predittori e quindi R2 normale potrebbe essere gonfiato, può essere utile e bene dire quando è simile a quello corretto. In questo file viene significativo. Correlazioni parziali e semiparziali- regressione→ statistiche-→ flaggo correlazione di ordine 0 e parziali Tabella coefficienti: - Correlazioni di ordine 0: coefficienti di pearson non parzializzati fra predittori e VD - Ultima colonna della tabella: “parte”- SR- semiparziali- indicano le correlazioni semiparziali, posso valutare il contributo unico del singolo predittore, elevando questo valore alla seconda- SR^20,542 X 0,542 – 27%- questo valore indica quanta varianza spiegata aggiungo al modelllo con questo predittore - SECONDA colonna – parziale- PR^2- è il guadagno sull’errore, se introduco questo predittore l’errore diminuisce del ecc ( PR^2= a/a+e) Questa stessa interazione nell’ANOVA è una MODERAZIONE- osservo se i vari effetti sono variabili nelle categorie del campione La moderazione risponde al perché, con l’anova vale lo stesso discorso ma con variabili categoriche Nella regressione si osserva nel nostro esempio se l’effetto di lunghezza sul prezzo è moderato dalla potenza ( quantitativa)- con variabili quantitative, l’analisi della moderazione la posso fare tramite PROCESS, un programma aggiuntivo scaricabile oltre SPSS - Y: PREZZO - X: LUNGHEZZA- VI - M: moderatore- potenza - Gli chiedo il modello di tipo 1- moderazione per regressione - Opzioni- generate data for plotting - Altro modo- Modell → INT_1- interazione di primo ordine, indica di quanto aumenta l’effetto di x su y per ogni punto in più del moderatore - Condizional. Stima in 3 livelli di “cavalli- potenza” e il B di lunghezza corrispettivo - Effect: di quanto aumenta il prezzo per ogni cm in più per i vari valori di cavalli - <1 dev standard, media moderatore, >1 ( questi sono i valori di potenza) - Per fare i grafici: Click- seleziono da data ( sotto paste) a cavalli in basso- copio in sintassi su spss e clicco il verde – doppio click sul grafico- curva di adattamento ai sottogruppi - Risposta: in generale l’effetto di lunghezza su prezzo è forte e significativo, ma dipende dalla potenza del motore ( moderatore), in particolare l’effetto di lunghezza è basso con auto molto potenti, e alto con auto meno potenti 3.lezione: anova between subject- anova fra soggetti Rispetto a prima ciò che cambia è il tipo di variabile indipendente, con l’anova abbiamo variabili indipendenti categoriali , che definiscono gruppi. Avere un effetto significa dunque avere che le medie dei gruppi sono significativamente diverse fra loro ( l’unica variabile che incide sull’errore sono le differenza infragruppo, in questo senso il miglior predittore è la media). Fra le medie dei gruppi- gli scarti all’interno del gruppo- è l’errore del mio modello, “ entro il modello” Differenze delle medie fra i gruppi e entro i gruppi: 106 - Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 - F di Fisher, rapporto di varianze ( 1 grado di libertà per il numeratore, 1 per il denominatore) V.effetto fra oggetti o spiegata, between fra gruppi, numerator della F / denominatore della F, varianza entro gruppi, varianza non spiegata, errore H1: almeno 2 medie fra loro sono diverse (non è necessario che tutte le medie siano diverse) In questo caso non abbiamo ancora misure ripetute, ma 1 misura per ogni soggetto 1 soggetto→ 1 gruppo Per comprendere le differenze sono necessari confronti fra medie post-hoc, e ovviamente non han senso se ho solo 2 medie e so che la differenza è fra loro. Allo stesso modo se l’effetto non è significativo, e non c’è differenza fra medie è concettualmente sbagliato fare i post hoc. Quindi es. effetto di ETÀ ( variabili con 3categorie)- su pressione - Modello lineare generale - Uni variata - Vd pressione - Fattori fissi ETA - In covariate si mettono le variabili quantitative per l’ancova- analisi della covarianza. Importante fare i grafici delle medie Output - Tabella- frequenze per ogni gruppo - 2- test per gli effetti • In questa: media quadratica- spieghiamo 851 della varianza –varianza dell’effetto • 197- varianza d’errore, somma degli scarti, delle differenze fra soggetti entro il gruppo • Gradi di libertà- df numeratore- F- = k ( numerodi gruppi) -1 =2 • Gradi di libertà errore- df denominatore N ( numero di soggetti)- K = 97 -→ dipendono quindi in gran parte dal campione • 851/197-→ F di fisher- 4,31 • F(2,97)=4.31, p< 0.05 • Ricorda: differenziare i decimali uso ilpunto, differenziare statistiche diverse la virgola • In questo caso abbiamo più di 2 gruppi-chiediamo i post hoc che mi aiuta a capire quali sono statisticamente differenti Post hoc- sono dei tentativi in cui vengono confrontate tutte le medie e si nota quali sono diverse-→ tuttavia aumentando il numero di test aumenta l’errore I post hoc allora riducono questo errore tramite una correzione dell’alfa che rischia però di “ ammazzare gli effetti”, riportandoli più piccoli di quanto sono Es: tukey, Bonferroni ( fino a 3 gruppi) Reginf- consigliato con tanti gruppi, più bilanciato MODERAZIONE- più di un predittore categoriale – si verifica se gli effetti sono stabili o variano fra i livelli dell’altro fattore ( es fra i diversi generi) 4.lezione: MISUR RIPETUTE- disegni fattoriali within subjects Vediamo se i valori della Vd sono influenzati da 1 o più fattori sperimentali, ma la struttura sperimentale non è basata solo su gruppi, ma su più misure lungo il tempo delle stesse variabili sugli stessi soggetti es. studi longitudinali Domande: cambiare le cond.sperimentali cambia gli effetti? Con variabili quantitative: guardo la media per ogni condizione sperimentale e la confronto- se l’effetto è significativo al variare delle condizioni sperimentali variano le Y ( vd) 107 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Ricordiamoci le assunzioni dei modelli lineari: distribuzione della varianza lungo i tempi - La varianza di Y deve essere costante, in tutti i modelli lineari- ovvero non deve esserci correlazione fra X e la varianza di Y: assunzione di omoschedasticità Nell’anova a misure ripetute: prende il nome di Sfericità: la varianza e le covarianza di y nelle varie condizioni sperimentali devono essere costanti Se si viola l’assunzione→ stime dell’anova corretta TEST PER VERIFICARE QUESTA ASSUNZIONE-→ TEST DÌ mauchly SFERICITÀ__> ho: SE non è significativo, l’assunto di sfericità è rispettato, vi è omogeneità di varianze e covarianze Se è significativo il P, la sfericità è violata e riporto i valori corretti dell’anova Sono anche modelli fattoriali- in cui stimiamo le interazione fra gli effetti, ovvero se l’effetto di un fattore è moderato dai livelli dell’altro NB:_ CON LE MISURE RIPETUTE I POST HOC NON SI POSSONO FARE Esempio ricerca: studiare l’empatia verso il prossimo, gli stessi soggetti ottengono più misure Disegno 3x2 In SPSS- ogni condizione sperimentale ( o tempo) èuna colonna nei disegni a misure ripetute, è quindi importante avere in mente la struttura sperimentale Stimolo – 2 livelli Etnia- 3 livelli Definisci: mi chiede i dati che corrispondono alle 6 condizioni sperimentali→ conoscere la struttura è importante per non sbagliae l’ordine Chiedo i grafici OUTPUT. - Prima tabella—riassunto del modello - Test di mauchly- di sfericità- si testa per i vari effetti ( viene assunto per vero se il fattore ha 2 livelli)—dobbiamo cmq scriverlo “ il fattore stimolo ha 2 livelli, viene rispettato l’assunto di sfericità”- riporto valore P e W ( con le misure ripetute levene) - Vedo gli effetti e interpreto il grafico per comprendere l’interazione Quinta lezione: MODELLO lineare generalizzato e MODELLI MISTI ( altro tipo di anova) ➔ Inclusione di fattori random ( casuali)- ammettiamo che i nostri valori possano variare fra soggetti ➔ CLUSTER- vogliamo vedere se c’è una variazione fra cluster e cluster ( ES FRA CLASSI di una stessa scuola) ➔ Vediamo se l’effetto fisso cambia fra cluster ➔ Idea che i punteggi dei soggetti si influenzano fra di loro • Stimo gli effetti fissi, come in una normale anova • Effetti random: variazione degli effetti fissi fra cluster IL CLUSTER non è un fattore dell’anova ma è la struttura dei dati NB Situazioni tipiche in cui si usano i modelli misti: - Dati gerarchici: studenti, università. Classi- analizzo se nei gruppetti vi è variazione rispetto agli effetti fissi - Dati a misure ripetute La struttura in SPSS deve essere adeguata, per i modelli misti è necessaria una struttura LONG, lunga e stretta 108 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 Il cluster struttura i dati—in questo caso il cluster è ID: file empatia- tasto dx- ordine crescente- ogni soggeto si ripete 6 volte Righe? Quante osservazioni per ogni cluster: 6 misure x soggetto- 6x47- 282 misure Slide : modo per passare da FILE WIDE ( largo e corto) e LONG ( stretto e lungo) Es wide: id X1 X2 X3 X4 2 Es long 1.1 1.2 1.3 1,4 1.5 1.6 2.1 Ecc Eta empatia Esempio: file BRAIN RATE - 5 soggetti - 6osservazioni - Disegno 3x2- farmaco 2 livelli x regioni 3 livelli Cosa osserviamo? - Effetto fisso del trattamento - Effetto fisso di regione - Interazione - Se questi variano fra cluster→ se l’effetto ha una sua varianza Modelli misti→ lineare - Soggetti; metto il cluster- “ animal” - Ripetuto niente - Vd activate - Fattori: regioni e treatment - Su fisso alto dx- seleziono entrambi e interazione - Casuale: alto dx: metto in combinazioni ( animal in basso)- serve se ho più cluster, rara cosa. - Flaggo “ includi intercetta”→ valore medio di ogni cluster – va sempre chiesta - Metto dentro nel modello- senza interazione- la aggiungo io Stiamo chiedendo la varianza di differenze- vediamo se gira il programma - Statistiche: stime dei parametri e test di covarianza - Medie- le inserisco tutte e 3 Il programma non gira- lo devo semplificare- non mi stima regione – LA TOLGO – tolgo regione e rifaccio MM Output: - Effetti fissi - Stime dei parametri di covarianza: l’effetto random dell’intercetta non è significativo, la media della y da cluster a cluster non varia in modo sig. 109 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 - Treatment: la varianza dell’effetto fisso non è sig, l’effetto del farmaco non varia fra cluster - Guardando le medie posso vedere come variano Lezione 6: ANALISI FATTORIALE - Variabili continue quantitative- quelle della retta di regressione - Si basa sulle correlazioni - Risponde alla domanda: perché 2 variabili correlano? Perché hanno un fattore comune, latene, sottostante che produce un cambiamento simultaneo - È un modello che non cambia i dati ma il modo di guardarli 2 tipi di approcci: - Esplorativo- non conosco quanti fattori spiegano il modello – mi faccio guidare dati dati - Confermativo- ho già un num. Di fattori in mente e cerco di confermare l’ipotesi Primo step- analisi della dimensionalità: andrebbe sempre fatta, sia nell’approccio confermatorio che esploratorio 2: interpretazione del modello- scelgo il numero di fattori ( per l’analisi fattoriale servono almeno 10 soggetti ogni item ) Punto di partenza- n. variabili estratte = n.variabili osservate→ 100% varianza spiegata - Fattori ortogonali - Estraggo per primo il migliore - ANALISI DELLE COMPONENTI PRINCIPALI- Assumiamo per ipotesi che l’intera varianza sia spiegabile - Afc- più complicata Spss - Riduzione delle dimensioni - Fattoriale - ( “analisi delle corrispondenze” è invece per le V.categoriali vs scaling ottimale- per le mappe di posizionamento) - Inserisco gli item - Estrazioni “ metodo delle componenti principali” – utilizzo questo a meno di specifiche indicazioni - Chiedo scree-test grafico degli auto valori 1) Lascio come criterio di estrazione AUTOVALORE >1, perché un fattore non può spiegare meno di se stesso - Opzioni: ordino per dimensione OUTPUT - PRIMA TABELLA: comunalità- varianza d’errore di ogni singola variabile - 2 tab: varianza totale spiegata: tabella per i fattori latenti Un modello accettabile spiega circa 35-40% in psicologia – massimo 70-80% altrimenti è inutile, non c’è differenza fra variabili e fattori - Grafico degli auto valori: retta di interpolazione a mano, i fattori non interpolati sono quelli che spiegano meglio il modello - Vi sarebbe poi anche analisi parallela e interpretazione teorica - Rieseguo l’analisi chiedendo i fattori prescentli, rotazioni ecc - Terza tabella;matrice delle componenti- vedo dove gli item saturano con quali fattori Lezione 7 Saturazioni: si vedono i pesi di ogni componente che aiutano a ristimare gli item Analisi parallela: confronto gli auto valori e dati generali casualmente a parità di soggetti e variabili 110 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 - Nel confronto, se gli auto valori sono > di quelli random si possono tenere—lo posso fare tramite la sintassi Ho compreso quanti fattori richiede il modello- l’analisi diviene confermato ria - Matrice della saturazione: comprendo i legami item/fattori Prima di questo vogliamo massimizzare il nostro modello: chiediamo la rotazione ➔ Vogliamo che nella matrice per ogni item vi sia solo un valore che si avvicina a 1 e altri vicini a 0 ➔ La non ruotata è per definizione ortogonale- l’algoritmo estrae un fattore per volta in maniera ortogonale ➔ 2 tipi di rotazioni: varimax ortogonale vs oblimin obliqua Varimax: mantengono l’ortogonalità Oblimin- correlazioni fra fattori ( o Promax) In genere si parte dall’Obliqua perché posso capire se è la migliore, cosa non possibile eseguendo subito l’ortogonale - Se non la oblimin il programma non gira, aumento il numero di iterazioni ( x10) Soluzione ruotata: - La varianza totale spiegata rimane uguale in quanto dipende solo dal N.di fattori - Il grafico rimane identico Matrici: 1) Non ruotata 2) Ruotata 3) Struttura: non lo guardo, non tiene conto delle correlazioni fra fattori- non sono parzializzate 4) Correlazioni MATRICE DEL MODELLO: prima di interpretarla devo capir se la rotazione oblimin va bene, ➔ Tabella delle correlazioni, mancano le significatività ➔ Soglia >.20 – se maggiori si considerano stabili, intepretabili ➔ Che far se su 5 correlazioni solo 1 è obliqua? Devo capire che peso ha nella struttura ➔ Gallucci scrive nella slide che per passare alla ortogonale devono essere tutte minori di .2 ➔ Es quante correlazioni sono? 5 fattori- ( p x (p-1))/ 2 5x4/2 =10- quindi 1 su 10 un pò poco Se ne ho 3-4-5 su 2?? 1 2 3 4 5 1 1 . . . . 2 X 1 . . . 3 X x 1 . . 4 . . . 1 . 5 . . . . 1 In questo caso 3 sono >.20 (x) – è una soluzione cmq obliqua- 1 correla con 2 e 3, e 3 correla on 2- c’è una struttura- non è ortogonale Se passo alla Varimax lo dico- “ dopo aver ruotato ecc” ROTAZIONE ORTOGONALE - Matrice 1 non ruotata - 2 ruotata - 3 non si guarda CON QUALI FATTORI SATURANO GLI ITEM ➔ Saturazioni nella matrice- >.35 111 Scaricato da UTENTE ANONIMO ([email protected]) lOMoARcPSD|12602152 ➔ A/B- MAGGIORE DÌ 2- se il rapporto fra la prima e la seconda correlazione è >2 si può accettare che l’item saturi su quel fattore Diamo delle etichette a quel fattore sulla base degli item più correlati Es - Sicuro - Sereno - Romantico Fattore stabilità emotiva STIMIAMO I PUNTEGGI FATTORIAI- creiamo variabili standardizzate in cui creiamo un punteggio per ogni soggetto in ogni fattore Posso cosi vedere se ci sono eventuali outliars e eliminarli ( es nel nostro file, il soggetto 15 è 2 deviazioni standard nel fattore 1 Oppure posso eseguire tutte le statistiche che abbiamo studiato usando le variabili fattori Es effetto di genere su estroversione - Anova uni variata fra soggetti - Oppure t-test per variabili indipendenti - I risultati sono simili- infatti il test di LEVENE- test di omeschedasticità- se non è significativo- le varianza sono costanti, rispetto l’assunzione - La F dell’anova infatti è il quadrato del T del T-Test. 112 Scaricato da UTENTE ANONIMO ([email protected])