caricato da Utente15991

riassunto-amd-gallucci

annuncio pubblicitario
lOMoARcPSD|12602152
Riassunto AMD - Gallucci
Analisi multivariata dei dati (Università degli Studi di Milano-Bicocca)
StuDocu non è sponsorizzato o supportato da nessuna università o ateneo.
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
ANALISI MULTIVARIATA DEI DATI
Multivariata: compresenza di più variabili, tecniche volte a studiare e quantificare gli effetti di una o più
variabili indipendenti (esplicative → predittori)
Introduzione slide perugini sulla statistica- PRIMA LEZIONE SLIDE
SLIDE GALLUCCI
Le slide sono prevalentemente di Gallucci, con qualche aggiunta presa da Perugini
Tecniche Multivariate, cosa sono?
- Per capire le tecniche multivariate dobbiamo ricordare cosa sono le tecniche univariate
- Per ricordare le tecniche univariate dobbiamo ricordare la logica delle tipo tecniche statistiche che
andremo a studiare
Tecniche volte allo studio delle relazioni tra variabili
Tecniche Univariate → Tecniche volte a studiare e quantificare gli effetti di una o più variabili indipendenti
(variabili esplicative o predittori) su una variabile dipendente (variabile di interesse)
- Cosa intendiamo per “effetti”
- Cosa intendiamo per “variabile dipendente”
- Cosa intendiamo per “variabili indipendenti”
Relazioni statistiche: La maggior parte delle tecniche statistiche che conosciamo (e incontreremo)
definiscono un modello statistico delle relazioni fra variabili di interesse
Variabile di interesse: Un semplice modello statistico è una rappresentazione efficiente e compatta dei dati
raccolti per descrivere un fenomeno empirico
Senza la statistica non si può sapere se si ha ragione o torto! Es: uno dei primi esperimenti della storia:Lind (
medico scozzese) e lo scorbuto
LA STATISTICA è la base di tutte le discipline scientifiche, in un mondo fondato su leggi di natura probabilistica e non deterministica
- Esistono tecniche statistiche per ogni tipo di dato e per rispondere ad ogni tipo di questione
scientifica
- Se qualcosa è quantificabile, lo si può analizzare statisticamente
Concetti di base:
Statistica distributiva: Indicatori e forma della distribuzione dei dati → Media : È il punto di equilibrio di
una distribuzione di dati, coincide con il valore atteso e, se la distribuzione è normale, è anche il valore più
probabile, cioè la “speranza matematica”.
INTRODUZIONE Il modello statistico e la rappresentazione che ne facciamo serve (tra l'altro) a tre scopi:
- 1 Descrizione efficiente e compatta
- 2 Predizione del futuro
- 3 Inferenza sulla popolazione
Cioè: comprensione del fenomeno
Errore di approssimazione Come tutte le rappresentazioni compatte ed efficienti, anche quella statistica è
una approssimazione dei dati rappresentati. Calcolando questo errore per ogni caso (ogni studente),
elevandolo al quadrato (sbagliare in più o in meno è uguale) e facendo la media per ogni caso,
quantifichiamo l'errore medie associato alla media
Inferenza statistica Il modello statistico è associato ad una serie di test inferenziali che ci consentono di
trarre conclusioni sulla popolazione di riferimento
1
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Errore di misura Praticamente in ogni forma di misurazione, all’aumentare dei casi osservati, diminuisce
l’errore
Errore e variabilità
• L’errore di stima non dipende solamente dalla numerosità, ma anche dalla variabilità del carattere
osservato (la varianza della variabile oggetto di studio)
• Se tutti rispondono allo stesso modo, basta chiedere ad una sola persona!
• Quanto maggiore è la variabilità, tanto maggiore è la necessità di osservazioni (casi, risposte)
• L’errore di stima lega il campione alla popolazione
L’errore standard Quando facciamo una stima di un parametro facciamo un errore di stima. L’ampiezza di
questo errore è stimata attraverso l’errore standard. L’errore standard è la deviazione standard della
distribuzione campionaria di una statistica.
→ L’errore standard indica l’ampiezza attesa dell’errore commesso nel utilizzare un campione (con
numerosità e variabilità date) per stimare una caratteristica della popolazione
- Aumenta con l’aumentare della varianza della variabile
- Diminuisce con l’aumentare della numerosità
Il modello statistico sarà una buona rappresentazione dei dati se:
I parametri sono modellati correttamente
Gli errori sono modellati correttamente
La struttura dei dati è rispettata
L’ intervallo di confidenza è un intervallo di valori plausibili per quel parametro (ad es., media) nella
popolazione (ad es., studenti Bicocca) → L’IC è molto importante per capire i risultati ottenuti e cattura il
concetto di accuratezza nella stima del parametro.
Correlazione
1. È un indice statistico che misura l’associazione fra due variabili
2. Misura come le due variabili si muovono assieme, ossia come correlano
3. Viene espresso come un valore che varia fra –1 e 1
4. La correlazione indica quanta variabilità ci aspettiamo in una
variabile al variare dell’altra
Il coefficiente di correlazione è positivo quando c’è concordanza
tra gli scarti (+ con + e – con -) è negativo quando c’è
disconcordanza tra gli scarti (+ con - e - con +)
è pressoché nullo (quasi zero) quando le variabili non sono
associate linearmente (per alcuni casi c’è concordanza, per altri
discordanza)
La media e la correlazione sono indipendenti!
Varianza condivisa → La varianza di una variabile può essere rappresentata mediante un
diagramma di Venn, Maggiore è la varianza, più grande è il cerchio. Se due variabili condividono della
varianza, cioè se covariano, le loro varianza saranno sovrapposte.
Il quadrato della correlazione, R2, ci indica la percentuale (proporzione) di varianza condivisa dalle due
variabili → Per capire quanto forte è l’associazione possiamo elevare al quadrato la correlazione e
interpretarla come varianza condivisa
Scegliere un modello statistico
Per costruire un corretto modello statistico dei nostri dati dobbiamo sapere una serie di cose:
➢ Cosa ci serve il modello (lo scopo dell'analisi)
➢ Che tipo di variabili abbiamo
2
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
➢ Che tipo di relazioni vogliamo studiare
➢ Quali sono le unità di misurazioni dei dati
➢ Come sono strutturati i nostri dati
IL MODELLO DI REGRESSIONE (CAPITOLO 2 E 3)
Lo scopo della retta di regressione è di rappresentare la relazione lineare tra la variabile indipendente e la
dipendente. Nel caso più semplice, abbiamo una retta semplice
La retta può essere descritta mediante due coefficienti: il
termine costante ed il coefficiente angolare
a l'intercetta della linea: indica il valore atteso (medio)
della VD per la VI=0
B è il coefficiente angolare della retta: indica il
cambiamento atteso nella VD al variare di una unità della
VI ( pendenza della retta)→ Per ogni birra che si beve, i
sorrisi aumentano in media di .709 unità
Coefficienti sottostanti: Il coefficiente Beta equivale al
coefficiente di regressione calcolato dopo aver standardizzato tutte le variabili
Il coefficiente standardizzato è uguale al coefficiente r di Pearson
Correlazione: interpretazione
La correlazione indica il cambiamento atteso in v, al variare di x di una deviazione standard
➔ Test inferenziale: I coefficenti vengono testati per la loro significatività statistica mediante il t-test t
test
➔ Se Sig. < 0.05, diremo che B (e beta) sono significativamente diversi da zero
Bontà di adattamento : Non tutte le rette di regressione hanno lo stesso potere predittivo, cioè la stessa
capacità di adattarsi ai dati osservati
Quanto è grande l’errore di regressione
Calcoliamoci la distanza media tra i punti osservati e la retta:
- le differenze si calcolano mediante le differenze al quadrato
- discrepanza osservati-predetti
- notiamo che questa è una varianza che chiameremo varianza
di errore
- Dunque i valori osservati di Y possono essere espressi come
somma dei valori predetti e l’errore
Proporzione riduzione errore
Il modello si adatterà ai dati tanto più riduce l'errore di predizione rispetto a non usare tale modello
La logica è di confrontare due casi:
• L'errore calcolato per la regressione data
• L'errore associato alla media, cioè errore associato a non utilizzare la regressione
Dunque il fit della regressione è tanto buono quanto riesce a migliorare la predizione, cioè a diminuire
l'errore→ Cioè: Quanto si riduce l’errore di predizione grazie al fatto che usiamo la regressione
Quella parte della varianza che non è di errore, sarà varianza che possiamo spiegare (predire) grazie all’uso
della regressione
3
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
L’errore standard
Un altro modo generale per determinare la bontà del
modello, cioè delle stime associate al modello è basato
sull'errore standard
Se il carattere stimato ha poca variabilità, campioni
piccoli possono dare buone stime
Se il carattere stimato ha molta variabilità, campioni
grandi sono necessari
Numerosità e tipi di fenomeni studiati: Un conseguenza
importante di questo principio è che tanto più generale
(uguale per tutti) è il fenomeno che stiamo studiando, tanto meno casi ci serviranno (e viceversa)
Intervallo di confidenza: L'errore standard consente di calcolare l'intervallo di confidenza di una stima
(come la media, la correlazione, il coefficiente di regressione)
L’ intervallo di confidenza è un intervallo di valori plausibili per quel parametro (ad es., media) nella
popolazione (ad es., bevitori di birra) Dato che la nostra stima varia da campione a campione, IC indica in
quale intervallo di valori è ragionevole che cada la stima ripetendo il campionamento
- L’IC è molto importante per capire i risultati ottenuti e cattura il concetto di accuratezza nella stima
del parametro
- Dato che la nostra stima varia da campione a campione, IC indica in quale intervallo di valori è
ragionevole che cada la stima ripetendo il campionamento
Test Inferenziale
In generale, il valore p indica la probabilità di ottenere il nostro risultato, o ancora più grande, sotto
l’ipotesi nulla
- La probabilità p equivale alla proporzione di possibili campioni i cui scostamenti standardizzati sono
distanti dall’ipotesi nulla almeno quanto il campione da noi osservato
- Il valore p indica il rischio che noi prendiamo quando affermiamo che l’ipotesi nulla è falsa
Probabilità p
- Se l’ipotesi nulla è falsa, ci abbiamo azzeccato
Se l’ipotesi nulla è vera, abbiamo commesso un errore, detto del Tipo I
Effetti statistici:
- Per effetto statistico si intende quanto il cambiamento di una o più variabili ha effetto sul
cambiamento di un’altra variabile
Quando possiamo quantificare il cambiamento in termini di variabilità, possiamo interpretare gli effetti
statistici come segue:
Interpretazione esplicativa: quanto siamo in grado di spiegare della variabilità di una variabile sulla
base della variabilità delle altre
- s Interpretazione predittiva: quanto siamo in grado di predirre della variabilità di una variabile
basandoci sulla variabilità delle altre
LEZIONE 2 GALLUCCI
IL MODELLO DI REGRESSIONE- RIPASSO CAPITOLI 2-3
Lo scopo della retta di regressione è di rappresentare la relazione lineare tra la variabile indipendente e la
dipendente. Nel caso più semplice, abbiamo una retta semplice:
- a: l'intercetta della linea: indica il valore atteso (medio) della VD per la VI=0 → Quando un
partecipante ha bevuto zero birre, mostra (in media) 2.09 sorrisi
4
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
-
B è il coefficiente angolare della retta: indica il cambiamento atteso nella VD al variare di una unità
della VI→ Per ogni birra che si beve, i sorrisi aumentano in media di .709 unità
- Il coefficiente Beta equivale al coefficiente di regressione calcolato dopo aver standardizzato tutte le
variabili
- I coefficienti vengono testati per la loro significatività statistica mediante il t-test t test→ Se Sig. <
0.05, diremo che B (e ) sono significativamente diversi da zero
Bontà di adattamento →Non tutte le rette di regressione hanno lo stesso potere predittivo, cioè la stessa
capacità di adattarsi ai dati osservati
Errore di regressione → Notiamo che la predizione non
corrisponde di norma ai valori osservati
Dunque i valori osservati di Y possono essere espressi come
somma dei valori predetti e l’errore. Calcoliamoci la distanza
media tra i punti osservati e la retta. Le distanze si calcolano
mediante le differenze al quadrato. Notiamo che questa è una
varianza, che chiameremo varianza di errore.
Il modello si adatterà ai dati tanto più riduce l'errore di
predizione rispetto a non usare tale modello. Predizione senza
regressione → Ricordiamo che in assenza di ogni ulteriore
informazione, la miglior predizione che si può fare dei punteggi di una variabile è predire il valore medio
Varianza ed errore di predizione
La varianza della variabile da predire rappresenta sia l’errore che commettiamo nell’usare la media come
predittore, sia tutta l’informazione che possiamo spiegare se usassimo un predittore migliore della media
Errore della Regressione: Anche la predizione fatta con la regressione commetterà degli errori, cioè il
valore predetto non coinciderà perfettamente con il valore osservato → Questa varianza, detta di errore,
indica la parte della varianza della VD che non è predicibile mediante i punteggi della VI→ Rapportando
tutto a 1 (standardizzando) otteniamo la percentuale di errore
Riduzione dell’errore → Potremo dire che l’errore di predizione si è ridotto, al confronto con l’errore che
facevamo senza usare la regressione (usando cioè la media di Y come valore predetto)
Varianza spiegata Quella parte della varianza che non è di errore, sarà varianza che possiamo spiegare
(predire) grazie all’uso della regressione
Quindi la varianza d’errore è data da 1- R^2
Predizione e Spiegazione
• All’aumentare della correlazione, aumenta la nostra capacità di predire il cambiamento di una
variabile usando la variabilità dell’altra
• All’aumentare della correlazione, aumenta la nostra capacità di spiegare la variabilità una variabile
usando la variabilità dell’altra
• In sostanza, predire una variabile mediante un’altra ci consente di spiegarne la variabilità. Migliore
è l’adeguatezza della nostra predizione, migliore è la capacità esplicativa
Spiegazione e Causalità
• Spiegare la variabilità statistica di una variabile non significa spiegare le cause del fenomeno che la
variabile misura
• La spiegazione statistica dipende dalla bontà del modello statistico e dall’associazione fra variabili
• La spiegazione causale dipende dalla spiegazione statistica e dalla fondatezza teorica del modello
utilizzato
Esempio
5
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
In ricerca sull’anoressia sono state misurate su un campione di 85 donne la propria “figura reale”, la
“figura ideale” e l’autostima
- Ci proponiamo di capire se la propria corporatura ideale (variabile figura ideale) dipenda (cioè sia
influenzata) dalla autostima (media di dieci items su scala da 0 a 6).
- Ci proponiamo di capire se la propria corporatura ideale (variabile figura ideale) dipenda (cioè sia
influenzata) dalla autostima
Per ogni punto in più di autostima, la figura ideale aumenta di .117
Per autostima molto bassa (x=0) si preferisce una fig. molto
magra (2.6)
-
In termini di correlazione
Ad una deviazione standard sopra la media di autostima,
corrisponde un incremento della “figura” di .25 deviazioni
standard. C’è dunque una relazione tra figura ideale ed
autostima, nel senso che per minori livelli di autostima si tende
ad una figura ideale più magra
Funzionale vs. Causa-effetto
Quando diciamo che una variabile ne “spiega” un’altra,
intendiamo dire che stiamo cercando di stabilire una relazione funzionale Una
relazione funzionale non è necessariamente una relazione di causa-effetto. La
variabile “spiegata” varia in funzione della variabile che spiega ma non
necessariamente quest’ultima è anche la causa Una relazione statistica non è
necessariamente una relazione causale
Inizio regressione multipla: quando una variabile dipendente può essere spiegata da più di una variabile
parliamo di regressione multipla→ La regressione multipla aggiunge termini lineari (altre VI) alla retta di
regressione
Interpretazione. Il coefficiente di regressione esprime l’effetto diretto di x su y, togliendo l’effetto che passa
indirettamente per w, al netto di quell’effetto
Effetti Parziali Togliere l’effetto indiretto è equivalente a bloccare la possibilità che x vada su y mediante w:
Il coefficiente viene dunque detto coefficiente parziale, cioè l’effetto di x parzializzando l’effetto di w
LEZIONE 3 GALLUCCI:
REGRESSIONE MULTIPLA→ Il caso in cui la variabile dipendente possa essere spiegata da più di una
variabile. Quando vi sono 2 o più variabili indipendenti. Ogni variabile indipendente è associata a un
coefficiente B di regressione
Rappresentazione: path diagram→ y in funzione di x per il suo coefficiente + w per il suo coefficiente ecc
Effetti Parziali
Togliere l’effetto indiretto è equivalente a bloccare la possibilità che x vada su y mediante w: Il coefficiente
viene dunque detto coefficiente parziale, cioè l’effetto di x parzializzando l’effetto di w
La regressione multipla isola il legame unico di ogni predittore con il criterio
6
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Si aggiunge nella regressione multipla nell’interpretazione del coefficiente tenendo costante le VI. Per ogni
VI viene calcolato il variabile eliminando l’effetto delle altre VI, come se tutti avessero lo stesso livello delle
altre VI—si parzializza la variabile, vengono prese tutte le variabili e tenute costanti: si rimuove la varianza
dell’altra variabile.
La RM crea un piano, i punteggi predetti non sono su una retta ma su un piano, e questo spiega perchè si
dice tenere costante una variabile: il coefficiente di regressione è la pendenza del piano visto dal lato della
VD ad esso associato. Se le 2 variabili non hanno effetto sarà piatto, più sarà alto l’effetto al netto delle
altre variabili indip.
È utile questo modello perché isola il legame unico che c’è fra una variabile e un'altra nel contesto delle
variabili analizzate
Il coefficiente semplice dice quanto varia y in funzione x. Il coefficiente multiplo dice quanto varia al netto
delle altre variabili. Effetto semplice e parziale sono uguali quando le due variabili indipendenti sono
correlate fra loro 0
Perchè la regressione?
- La regressione multipla isola il legame unico di ogni predittore con il criteri
- Per tenere sotto controllo la variabilità nel criterio causata da variabili che non sono per noi
teoricamente interessanti, ma possono creare ‘rumorè nei dati- il covariare di variabili di disturbo
- Per stimare la validità incrementale di un predittore – es aggiungendo un'altra variabile aggiungo
informazioni in più? Utilizzo la regressione multipla per valutare l’effetto incrementale
- Per testare quali predittori sono più importanti? Quale VI contano di + → selezionare i predittori
migliori e più utili
- Per confrontare gruppi di variabili indipendenti: Cosa è più importante nel determinare il grado di
felicità di una persona, gli aspetti sociali (es. numero di amici e contatti) oppure gli aspetti materiali
(es. reddito, proprietà, status
- Per testare modelli teorici più complessi : Per esempio modelli di mediazione- modello che fa un
passo avanti perchè consente di strutturare le relazioni fra variabili in modo piu preciso. Nella RM
LE <Vi sono tutte allo stesso livello. Nella mediazione si vede anche i percorsi fra VI, es l’effetto di
una VI su una VD grazie all’intervento di un mediatore ( altra variabile indipendente) es Le persone
che leggono più romanzi hanno risultati scolastici migliori perché hanno una maggiore padronanza
linguistica
- Modello di moderazione: una variabile interveniente modifica l’effetto di una variabile
interveniente, cambia l’effetto in +- (L’effetto della lettura sulle competenze linguistiche è più forte
nei giovani che negli anziani)
- Tipi di regressione multipla
Regressione multipla standard (simultanea)
Regressione gerarchica (sequenziale)
- Regressione statistica (stepwise, per passi)
Regressione multipla standard (simultanea)
• I predittori sono inseriti nell’analisi tutti insieme
• L’effetto di ciascuno viene stimato tenendo sotto controllo tutti gli altri predittori
• Ciascun predittore viene valutato nei termini di quanto aggiunge alla previsione, rispetto a tutti gli
altri
Regressione gerarchica (sequenziale) Spesso siamo interessati a capire come un predittore (o un gruppo
di predittori) si comporta nel contesto di altri predittori
7
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
•
Nella regressione gerarchica teniamo sotto controllo statistico gli effetti di alcuni predittori mentre
esaminiamo le relazioni a cui siamo interessati
• I predittori sono inseriti nell’analisi nell’ordine che noi specifichiamo Es. Vogliamo studiare
l’effetto dell’allenamento sulla performance di un giocatore di basket: Prima inseriamo nell’analisi
di regressione l’altezza Poi inseriamo la quantità di allenamenti
Regressione statistica (stepwise, per passi)
• Obiettivo: individuare i predittori migliori (da un punto di vista esclusivamente statistico)
• Procedura ateorica
• L’ordine in cui i predittori sono inseriti nell’analisi è basato esclusivamente su criteri statistici: Il
significato o l’interpretazione delle variabili non è rilevante
• Esistono diversi metodi di regressione statistica (forward, backward, stepwise)
• Tipicamente usata per sviluppare un sottoinsieme di predittori utile nella previsione del criterio e
eliminare i predittori che non danno ulteriori informazioni utili
Per ogni ora in piu di studio il voto aumenta di 0.13 unità
esempio:
P=sign. < .05
( Spesso .01 scienze mediche)
Si rifiuta l’idea che la correlazione sia 0 ( ipotesi nulla)
2 componenti: coefficienti sopra e riepilogo del modello.R QUADRO che ci dice
la bontà del modello in termini di varianza spiegata in questo caso dalla
variabile ore di studio
30% del voto è spiegato dalle ore di studio
Anche qui per R2 vi è un test di significatività che nella regressione multipla va
analizzato ( nella semplice è uguale). Il test inferenziale associato al r2 si
chiama test F presente nella tabella ANOVA
(excursus) su ANOVA – analisi della varianza- con variabili indipendenti
categoriche ci si concentra sull’analisi delle varianze, nella regressione sui
coefficienti. Nella regressione semplice r2 è quadrato della correlazione (
coeff B). Nella regressione multipla questo non vale perchè non parla delle
singole variabili
Regressione multipla:
quanto varia il voto per ogni ora studiata al netto degli appelli fatti. Il
coefficiente associato agli appelli è negativo al netto delle ore studiate (
come se tutti avessero studiato le stesse ore)- P >.05 ampiamente non
significato
l’elemento più importante è la grandezza dell’effetto e questo si vede dal Beta e da altri indice, se vedo che
non è significativo lo riporto e fine
analisi r2: la combinazione ore appelli spiega il 33% della varianza ed è significativo
Concluderemo che le ore di studio hanno un effetto sul voto finale, anche al netto del numero di appelli
fatti nel semestre. Il numero di appelli, al netto delle ore studiate, non hanno effetto
Come si decompone la varianza spiegata per attribuirla alle varie variabili?
Il calcolo di r2: è dato da il contributo unico delle singole variabili alla spiegazione della varianza ( parte di
varianza spiegata unicamente da una variabile ) più una parte di varianza spiegata dalle variabili ma non in
maniera univoca ( condivisa dalle V). non è la mera somma
8
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
➔ Varianza non spiegata: Percentuale di varianza di errore, non spiegabile mediante la regressione
(Coefficiente di alienazione)
Modello es Adamo ed Eva
- Cose che solo eva sa: conoscenze residue
- Certe cose di eva provengono da adamo ( sole e mercoledi
- Certe cose di eva vengono dal serpente ( relatività e mercoledi)
- Totale di informazioni passate sono 3, perchè una informazione
trasmessa è condivisa- il contributo unico invece è quello che ha
dato solo un informatore
Parzializzazione: rimuoviamo il contributo di adamo es per vedere il
contributo unico del serpente. Quello che rimane è quello del serpente e
viceversa
Errore: totale delle conoscenze di eva meno il totale delle conoscenze degli
informatori
Parzializzazione
Parzializzare significa rimuovere l’effetto di una (o più) VI, cioè calcolare gli
effetti come se quella variabile abbia nessuna variabilità. Effetto
congiunto: L’effetto combinato di A e S è dato dai loro effetti unici
(parziali) e dal loro contributo comune
Ricordiamo che nella regressione semplice, la correlazione quadrata
semplice è la varianza condivisa (spiegata dalla VI)
Nella regressione M dobbiamo pero quantificare il contributo unico della
varianze
Vogliamo quantificare il loro contributo unico e combinato mediante
degli indici che rappresentino la grandezza dei vari effetti
Contributo unico di VI
Il contributo unico di una VI può essere stimato grazie al quadrato della
correlazione parziale→ Il quadrato della correlazione parziale indica
l’effetto di una VI dopo aver rimosso tutta la variabilità delle altre.
qualunque varianza condivisa corrisponde a una correlazione essendone
il quadrato. Elevando la correlazione parziale al quadrato si trova la
varianza unica spiegata.
È la proporzione fra il contributo unico della variabile in questione diviso
la varianza non spiegata dalle altre variabili indipendenti
➔ ETA2 ( QUADRO)
Coefficiente di correlazione semiparziale: Il contributo unico di una VI può essere anche stimato grazie al
quadrato della correlazione semi-parziale (più usato) Il coefficiente di correlazione semiparziale al
quadrato esprime il contributo unico di una Vi, come rapporto tra la variabilità spiegata unicamente dalla
VI in questione, e la variabilità totale ( totalità della variabilità della Vd). Si indica con sr2 e esprime il
contributo unico di una VI al totale della varianza spiegata. Ovvero indica quanto R^2 aumenta grazie al
contributo della Vi in questione. Riassunto sul libro più chiaro!
Entrambi insistono sulla stessa varianza, esprimono il contributo unico di una V
9
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
-
Semiparziale esprime il contributo come proporzione di varianza totale ( di tutta la varianza quanta
ne spieghi)
Il parziale spiega quanta VARIANZA rispetto a QUELLA NON spiegata dalle altre variabili
Quale scegliere?
IN NATURA senza manipolazione si dovrebbe riportare il semiparziale al
quadrato. Con variabili di disturbo o con variabili manipolate
sperimentalmente, create ah hoc, quando vogliamo sapere quanto
un’altra variabile spiegherebbe senza quella alterazione, dobbiamo usare
il parziale al quadrato
Es il semiparziale non si può ingrandire a piacimento, l’altro si perché
l’errore diminuisce
Spss in regressione statistiche flagghi correlazioni parziali ecc
- Ordine 0 le ignoriamo
- Semiparziale sotto parte
- Parziale sotto parziale
Elevate al quadrato diventano varianza spiegate!
SPSS LEZIONE QUARTA
Analisi avanzate basate sulla regressione (Cap. 7 e 5)
MEDIAZIONE E PATH ANALISYSIS I (CAP7)
PERUGINI
- A volte la regressione viene usata allo scopo di identificare tra un insieme di VI quelle che
predicono significativamente le VD
- Tutte le VI sono teoricamente “uguali” all’inizio ed alla fine verranno considerate soltanto quelle VI
che predicono in modo significativo
- Ci sono veri metodi per questo tipo di regressione- Il più diffuso è il metodo stepwise
Stepwise:
- Metodo iterativo
- Al primo passo viene selezionata la VI che predice meglio di tutte (p<.05)
- Al secondo passo viene aggiunta la VI che predice meglio tra le restanti
- Viene ricalcolato il contributo delle due VI. Se una VI non è più significativa, viene esclusa (p>.10)
- Terzo passo, quarto passo, ecc., fino all’ultimo passo nel quale non ci sono più VI significative da
aggiungere
- Si interpreta la regressione finale
RLM a blocchi sequenziali
- Studio delle relazioni tra stipendio percepito dal corpo accademico, anni di anzianità lavorativa e
produttività scientifica (numero di pubblicazioni)
- Scopo indagine: stabilire se vi sia una forma di riconoscimento economico della produttività
Esempio su effetto unico e parziale in regressione
Alcuni punti chiave della RLM
- Alcuni punti chiave della RLM
- La regressione multipla è una generalizzazione di una regressione semplice lineare
- La significatività dei coefficienti è calcolata come per la regressione semplice
- I coefficienti sono interpretati come gli effetti di una IV tenendo costanti le altre IV (effetti parziali)
10
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
- R2 è la capacità complessiva delle IV a spiegare la DV
- Le variabili possono essere selezionate teoricamente o empiricamente
- Situazione ideale: Le IV non sono correlate tra di loro e sono correlate con la DV
Regressione multipla avanzata: a seconda dello status delle variabili indipendenti, possiamo differenziare
diversi tipi di tecniche statistiche: analisi della mediazione e path analysis
ANALISI DELLA MEDIAZIONE Vi ( variabili indipendenti) sono teoricamente organizzate in cause endogene
ed esogene
PATH ANALYSIS: a path analysis è una tecnica statistica che permette di stimare l'intensità degli effetti
esercitati da determinate variabili all'interno di un sistema causale ipotizzato dal ricercatore. VI E VD sono
teoricamente organizzate in un modello preciso
Ripresa lezione gallucci
SONO sempre basate sulla regressione multipla ma permettono di fare un’analisi più dettagliata dei dati.
Vediamo modelli volti a studiare la struttura della relazione fra variabili, specificando il processo
sottostante alla relazione
➢ mediazione
➢ moderazione
➢ sono modelli logici che guidano l’interpretazione di fenomeni, hanno una diretta testabilità
statistica
Struttura delle relazioni: la correlazione o regressione semplice standardizzata, ovvero in cui una varabile
indipendente fa variare una dipendente, dunque le due variabili variano insieme= Covariano.
- Le due variabili si muovono insieme: al cambiare dei valori di X cambiano (in media) i valori di Y
X è un predittore di Y: sapendo i valori di X possiamo stimare i valori di Y
X ha un effetto su Y: modificando i valori di X possiamo modificare i valori di Y
ma stimano la quantità di relazione. → Una relazione statistica non prova mai una relazione causale:
l'ipotesi
Sono modelli che non provano la relazione causale, causale va giustificata con:
• Metodo sperimentale
• Metodi temporali (longitudinali)
• Teoria
Noi dobbiamo dire che sono in relazione, perché per puro caso due variabili possono correlare. Osservare
una correlazione vuol dire vedere una relazione funzionale fra variabili, al variare di una varia l’altra, ma
solo la logica la teoria può giustificarlo. Anche in presenza di una teoria sensata il metodo sperimentale (
manipolazione ) può dimostrare la causalità – con manipolazione difficile osservandola nel tempo si può
vedere come la causa si muove prima e guida l’effetto successivo
Relazione Funzionale vs. Causa-effetto
Quando diciamo che una variabile ne “spiega” un’altra, intendiamo dire che stiamo cercando di stabilire
una relazione funzionale.
Una relazione funzionale non è necessariamente una relazione di causa-effetto. La variabile “spiegata”
varia in funzione della variabile che spiega ma non necessariamente quest’ultima è anche la causa
Una relazione statistica non è necessariamente una relazione causale
Regressione multipla: abbiamo già visto che vi sono più variabili indipendenti, ma contano tutte allo stesso
modo in termini logici. Non c’è una struttura.
Le relazioni possibili diventano più interessanti strutturalmente quando siamo in presenza di tre o più
variabili. Una terza variabile può intervenire in vari modi nella relazione tra una variabile indipendente (IV) ed
una dipendente VD.
Questi modelli danno una struttura a queste relazioni. Nel vedere le varie VI come agiscono nel fenomeno
11
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Mediazione e Moderazione
L'analisi della mediazione e l'analisi della moderazione servono a
comprendere come una (o più) terze variabili intervengono nella
relazione tra due (o più) variabili.
Attengono cioè allo studio della struttura delle relazioni: come le
relazioni tra X e Y sono influenzate da Z, come gioca la terza
variabile nella relazione fra VI e VD ( in un modello di base con 1 vd
e 1 vi)
Esempio slide gallucci
Supponiamo di voler testare se una campagna pubblicitaria
abbia avuto effetto in quanto rende salienti i rischi associati al
fumo. Abbiamo misurato l'esposizione alla campagna mediante
un test di ricordo delle immagini e spot della campagna,
l'avversione al fumo mediante questionario, la percezione del
rischio associata al fumo, ed il genere dei partecipanti.
Ipotesi iniziale: una maggiore esposizione alla campagna
incrementa l'avversione al fumo → regressione/correlazione per
vedere il covariare delle variabili
L'analisi (logica per ora) della mediazione e della moderazione ci
aiutano a capire meglio questa relazione grazie all'intervento di
altre variabili, cioè rischio (percezione dei rischi) e genere (sesso
Possiamo domandarci perché esposizione abbia un effetto su avversione
Possiamo ipotizzare che coloro che sono stati maggiormente esposti sviluppino una maggiore percezione del
rischio del fumo
- Possiamo ipotizzare che coloro che sono più esposti alla
campagna sviluppino una percezione del rischio più alta
- E che avere una percezione maggiore implichi maggiore
avversione al fumo
- dunque, uno dei motivi per cui esposizione ha un effetto
sull'avversione, è che esposizione aumenta la percezione del
rischio (rischio), e la percezione del rischio aumenta l'avversione
- chiameremo la variabile interveniente mediatore. Osservando un
effetto della VI sulla Vd e un effetto del mediatore sulla VD
- In presenza di una relazione tre una IV (X) e una VD (Y), possiamo domandarci se uno dei motivi per
cui osserviamo un effetto è l'intervento di una terza variabile M, che è responsabile (in parte o del
tutto) dell'effetto originale
l’effetto della VI sulla VD passi attraverso, sia mediato dalla variabile mediatrice
12
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Il modello di mediazione (semplice) prevede che il processo per cui una variabile X ha un effetto su Y sia
descrivibile come segue: X ha un effetto su M, M ha un effetto su Y, e perciò X ha un effetto su Y per via
dell'intervento di M.
- Il modello (logico) di mediazione regge se la variabile mediatore possiede alcune caratteristiche:
- Una condizione logica che si dovrebbe osservare prima un effetto semplice
PRIMA CONDIZIONE: M deve poter essere causata (o almeno dipendere logicamente) da X ( La percezione
del rischio deve poter essere influenzata dal esposizione) ( quindi la variabile esogena deve avere un effetto
sul mediatore
SECONDA CONDIZIONE: M deve poter causare Y indipendentemente da X La percezione rischio deve
poter far cambiare l'avversione al netto dell'esposizione (Il mediatore deve avere un effetto sulla VD,
parzializzando la V. esogena).
Se queste caratteristiche sono rispettate (per ora solo logicamente), siamo in presenza di una variabile
mediatore, e dunque di un valido modello di mediazione. L’effetto di mediazione sarà l’effetto della
variabile VI sulla VD che passa dal mediatore. → 'effetto di mediazione sarà quella parte dell'effetto di X su
Y che passa per M, cioè che è portato da X ad Y attraverso M.
ALTRA DOMANDA: Possiamo anche domandarci per chi, o in quali condizioni, esposizione abbia un effetto
su avversione
- Possiamo ipotizzare che l'effetto di esposizione non sia uguale per tutti, ma che sia più o meno
forte a seconda del genere
- Ad esempio che l'effetto di esposizione sia più forte per i maschi, e più debole per le femmine
Cioè ipotizziamo che l'effetto di esposizione su rischio non sia uguale per tutti, ma la sua intensità cambi
(e.g. cresce) al variare di genere (oppure variare delle nazioni). Ipotizziamo che l'effetto di X su Y varia per
diversi livelli di M
Quindi per quali livelli di variare l’effetto è più forte o pèiu debole- questo modello è il modello di
moderazione
Moderazione:
Se l'intensità dell'effetto di X su Y cambia al variare dei livelli (valori) di un variabile M, diremo che M è un
moderatore dell'effetto di X su Y, e che l'effetto di X su Y è condizionale ai valori di ML’EFFETTO DÌ UNA
VARIABILE Vi cambia ai variare dei livelli punteggi del moderatore
Il moderatore è indipendente dalla variabile indipendente. Di solito è un tratto o una caratteristica o una
variabile manipolata, che non ha una relazione con la VI, ma ha caratteristiche che possono influenzare la
forza dell’effetto della VI
Caratteristiche del moderatore
Analisi della mediazione statistica
13
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
In presenza di una relazione (effetto c) tra una IV (X) e una VD (Y),
possiamo domandarci se uno dei motivi per cui osserviamo un effetto
è l'intervento di una terza variabile M, che è responsabile (in parte o
del tutto) dell'effetto originale
Condizioni statistiche
Il modello (statistico) di mediazione regge se si verificano le seguenti
condizioni:
- X esercita un effetto non nullo sulla variabile mediatore M • L'effetto si ottiene con un
regressione semplice con X come IV e Y come DV • Il coefficiente che si ottiene deve essere non
nullo- coefficente di regressione lo chiamiamo a, quanto varia il
mediatore al variare di x
- Il mediatore deve avere un effetto sulla vd- M esercita un effetto
non nullo su Y, tenendo costante X • L'effetto si ottiene con un
regressione multipla con Y come DV e X e M come IV • Il coefficiente
che si ottiene deve essere non nullo. Se non avesse un effetto di suo,
ma è solo perché è legato ala vi non è un mediatore, non è parte del
processo. Quindi calcoliamo l’effetto del mediatore al netto della Vi
sulla VD. Otteniamo quindi B e c’ ovvero l’effetto di Vi al netto di M.
L'effetto mediato
L'effetto mediato da M rispetto all'effetto di X su Y sarà dato dal prodotto
dei coefficienti relative alla parte mediazionale del modello
EM= a x b
Decomposizione dell'effetto: L'effetto totale (semplice) di X su Y
viene decomposto in effetto mediato ed effetto diretto (o non
mediato dal mediatore in questione)
Il coefficiente c è l’aumentare in y per una unità di x (effetto
totale) –nella mediazione scomponiamo questo effetto in effetto mediato e effetto diretto
Es c uguale 10- per una unità di x y varia di 10 unità
Riduzione dell'effetto –> Ciò implica che l'effetto diretto di X su Y sarà ridotto rispetto all'effetto totale, e
sarà ridotto esattamente dell'effetto mediato
L’effetto di mediazione è presente o quando l’effetto mediato è diverso da 0 o cmq una riduzione
dell’effetto totale passando dal modello semplice al modello multiplo
c-c’ = a x b → confrontando l’effetto totale con l’effetto diretto al netto del mediatore si osserva una
riduzione dell’effetto
vediamo in Spss effetto mediato statisticamente significativo quando il prodotto a x b è statisticamente
significativo – tuttavia non è sempre facile stabilirlo
14
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Effetto mediato
L’effetto mediato è quella parte dell’effetto semplice che influenza
la variabile dipendente attraverso l’effetto della variabile
mediatrice. L’effetto mediato rappresenta la riduzione dell’effetto
di una variabile esogena, dopo aver parzializzato l’effetto della
variabile mediatrice
Effect size dell'effetto mediato
Per riportare un effect size si può standardizzare le variabili e
ottenere un effetto mediato standardizzato
Oppure esesposizionare l'effetto mediato come proporzione (approssimata)
dell'effetto totale
Mediazione parziale o totale
Quando l’effetto della variabile esogena, parzializzando l’effetto del mediatore, risulta non significativo,
diremo che la mediazione è totale ( c’ non è significativo)
Quando l’effetto della variabile esogena, parzializzando l’effetto del
mediatore, risulta ridotta ma ancora significativa, diremo che la
mediazione è parziale (c’ è significativo)
Significatività!
Per decidere se il nostro effetto mediato dobbiamo operare un test inferenziale su a*b
Vi sono molti test, tra cui il Sobel Test, Aroian test, Goodman test, che si differenziano nel come stimano
l'errore standard
Un'alternativa valida è usare il metodo bootstraap
Esistono vari plug-in per calcolare la significatività dell'effetto mediato in SPSS (vedi esercitazioni) con
precisione.
Se sia a che b sono significativi, l'effetto mediato sarà da considerarsi significativo
➔ Inferenza sull’effetto mediato
Sebbene non sia il metodo più preciso, possiamo comunque basarci sulle significatività dei
coefficienti
L’effetto mediato sarà statisticamente diverso da zero se i suoi componenti (a e b) saranno
statisticamente diversi da zero
15
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Mediazione multipla: È possibile estendere il modello di mediazione a più di un mediatore
- L'effetto mediato per ogni mediatore si calcola come nella mediazione semplice
L'effetto mediato totale è la somma degli effetti mediati dai mediatori
Variabili intervenenti e mediatori
- Considereremo effetti di mediazione quegli effetti indiretti
che possono essere strutturati secondo una logica causale
(Esogena>mediatore→dipendente)
- Considereremo effetti intervenenti quegli effetti indiretti
che non possono essere strutturati secondo una logica
causale di tale tipo
- La differenza tra i due tipi di effetti non è statistica, ma
logica (statisticamente ci vengono le stesse stime)
Dalla mediazione alla path analysis
Notiamo che il modello considerato per la mediazione, è un semplice
modello di path analysis. La path analysis (tra l’altro) consente
stimare le relazioni tra variabili strutturate in un modello logico
definito
Path Diagram
Una regressione per ogni variabile che riceve una freccia
DV riceve la freccia, IV mandano la freccia
L'effetto mediato è sempre il prodotto tra path IV → Med
e Med → DV
Grafico path diagram- gallucci
Analisi avanzate basate sulla regressione: Path Analysis II e Moderazione (Cap. 5)
Marco Perugini
La Path Analysis rappresenta dei modelli di relazione tra le variabili
secondo un flusso teorico
I modelli di Path Analysis sono spesso chiamati “modelli causali”
ma NON usate questo termine (la causalità non è intrinseca
all’analisi statistica!)
Causalità ipotetica: la Path Analysis può essere usata per testare
delle relazioni ipotetico-causali e non per trovarle
La Path Analysis può essere compresa come un insieme di
regressioni multiple a più strati
16
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Un modello di path può essere risolto con una serie di regressioni multiple
Regole
- Ciascuna linea curva è una correlazione semplice tra due variabili
- Ciascuna variabile endogena richiede una regressione con tutte le variabili che inviano una freccia
come VI verso di essa (esclusa la e)
- I coefficienti di relazione ( path) sono stimati con le regressioni
Dalla path analisys alla mediazione
La path analisys può includere al suo interno modelli di mediazione
Ma un modello di path analisys da solo può assumere un effetto di
mediazione ma non testa la mediazione
Per testare la mediazione bisogna applicare a parte l’approccio che è
stato illustrato precedentemente, cioè la verifica delle tre condizioni e
l’esame del cambiamento del path (mediazione piena e parziale o
nulla)
Esempi vari grafici per far vedere la differenza fra path analisys I-II-III
LA MODERAZIONE: es Quando un effetto di una VI su una VD varia in funzione di un’altra VI, si parla di
effetto interattivo o moderazione
La relazione tra ricchezza e salute è moderata dall’investimento nel SSN
La relazione tra classe sociale e grado di istruzione è moderata dall’esistenza di un welfare state efficiente e
borse di studio
EFFETTO DÌ MODERAZIONE- quando una variabile interveniente
modifica l’effetto della VI sulla VD, lo rende più forte meno forte lo
inverte.
Risponde alla domanda: per chi, per quale condizioneDunque l’effetto della VI non è uguale per tutti.molto usata in
psicologia perchè spesso gli effetti sono moderati da determinate
condizioni
Se non ce moderazione per esempio il genere ( mf) non modera
l’effetto, non lo altera. In presenza dell’effetto di moderazione l’effetto
della vi sulla vd varia a seconda dei livelli del moderatore ( es tratti di personalità)
Moderazione Se l'intensità dell'effetto di X su Y cambia al variare dei livelli (valori) di un variabile M, diremo
che M è un moderatore dell'effetto di X su Y, e che l'effetto di X su Y è condizionale ai valori di M
( nella mediazione non c’è nessuna modifica dell’effetto, che viene solo trasportato- qui invece abbiamo
una variabile che cambia direttamente l’effetto- il moderatore insiste sull’effetto)
Moderazione Statistica
Regole generali:
le interazioni sono definite come il prodotto tra le due
variabili indipendenti (X1 x X2)
Le interazioni vanno sempre stimate insieme agli effetti
principali (Y=X1+X2+X1X2)
- Le VI vanno centrate (o standardizzate) prima di
calcolare il termine di interazione (riduce la
multicollinearità tra effetti principali e termine di interazione)
17
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Può convenire anche standardizzare la VD perchè così i valori dell’interazione possono essere ricavati
precisamente (vedi dopo)
RIPRESA GALLUCCI
Il modello (logico) di moderazione si testa statisticamente andando a testare l'interazione tra la variabile
indipendente e il moderatore
Se X e M interagiscono nel predire Y, possiamo affermare che M sia un moderatore
Si stima tramite l’integrazione nella regressione multipla dell’effetto di interazione, inserendo un nuovo
termine ( spss lo fa solo) che è il prodotto delle due variabili indipendenti. Il coefficiente si chiama termine
di interazione e indiica quanto cambia l’effetto di una Vi al
variabile dei livelli dell’altra
Moderazione=Interazione → L'interazione tra due variabili
indipendenti è data dal coefficiente associato al loro prodotto
(X*M). Il termine di interazione indica quanto l'effetto di una
variabile indipendente cambia al variare dell'altra variabile
indipendente.
È simmetrico – noi dobbiamo scegliere per motivi teorici il
moderatore e interpretare la regressione con interazione
-
Grafico: es rette non parallele se c’è moderazione
Ovvero anche l’effetto di genere varia al variare dei livelli di
esposizione. Per motivi pratici se ne sceglie 1
INTERAZIONE NELLA REGRESSIONE MULTIPLA: per dettagli
vedi il riassunto libro
Due variabili continue
Sappiamo (lezione 2) che se non c’è interazione (regressione
multipla) tutte le rette del piano( senza curve, perchè l’effetto
di una variabile al netto delle altre variabili) di regressione sono parallele.
L’effetto di una VI è costante (non condizionale) al punteggio dell’altra.
Tuttavia inserire l’interazione rilascia questa assunzione che gli effetti di
una variabile sono costanti nei livellli dell’altra. Ci consente di misurare la
variazione degli effetti di una Vi per i livelli delle altre VI- avremo una
superficie curva, poiché l’effetto cambia l’effetto al variare degli effetti
dell’altra. Se c’è interazione le rette non sono parallele, ed il piano si
incurva. L’effetto di una VI cambia per punteggi diversi dell’altra IV.
Maggiore è l’interazione, maggiore è la differenza tra le pendenze delle rette di una VI al variare dell’altra
VI.
EFFETTO MOLTIPLICATIVO
SI inserisce il termine di interazione- il coefficiente che lo misura dice
quanto cambia l’effetto di una variabile al variare dell’altra- quanto
cambia la pendenza. ( coefficiente B) Se è significativo c’è una
moderazione – è un metodo che generalizzala regressione multipla
Terminologia
Quando vi è una interazione in una regressione con variabili continue,
gli effetti dei termini lineari si chiamano effetti di primo ordine.
18
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
L’interazione invece ci informa come cambia un altro effetto quindi EFFETTO DÌ SECONDO ORDINE
La regressione si semplifica standardizzano le variabili- quindi noi facciamo subito questo passo e
standardizziamo le variabili in gioco. → guardo coefficienti standardizzati
Media =0, dev.stand =1.
Scala delle variabili indipendenti
➔ L’interpretazione del modello di regressione condizionale (cioè con interazione) può diventare
complessa a seconda delle caratteristiche delle unità di misura delle variabili indipendenti
➔ Per semplificare l’interpretazione dei risultati è conveniente operare sulle variabili standardizzate
➔ Non standardizzare non è un errore, ma rende l’interpretazione (molto) più complessa
EFFETTI DÌ PRIMO ORDINE IN PRESENZA DÌ INTERAZIONE
Lanciando una regressione multipla con interazione, i coefficienti associati
a effetti di primo ordine, associati alle VI ( x1 e x2) -→ Gli effetti di primo
ordine sono calcolati per il centro della superficie, cioè in corrispondenza
dell'altra variabile uguale a zero
Indicano l’effetto della variabile quando l’altra è uguale a 0. Avendo
standardizzato 0 vuol dire la media. Quindi il coefficiente che escono
dalla regressione con interazione su variabili standardizzati rappresentano
l’effetto medio della variabile indipendente
Es effetto di avversione in media di ansia
Essendo il centro dell'altra variabile la sua media (variabile standardizzata), essi rappresentano l'effetto
“medio”: effetto principale
➔ Effetto principale: quale è l'effetto di una variabile in media rispetto a tutti i possibili effetti
EFFETTO DÌ INTERAZIONE: Il coefficiente di interazione (BI) indica di quanto cambia l'effetto di una VI al
variare dell'altra
Di quanto aumenta o diminuisce- del coefficiente di interazione
Esempio spss slide- modello lineare generale- metto le Vi continue in covariate standardizzando le
variabili!
- In termini di software si esegue una regressione multipla inserendo anche il prodotto del delle
variabili indipendenti
- Standardizzo le variabili per semplificare l’interpretazione: STATISTICHE- DESCRITTIVE – METTO LE
VARIABILI- FLAGGO “ SALVA VALORI STANDARDIZZATI COME VARIABILI”
- Per fare la regressione con interazione è comodo usare il comando GLM univariata (invece che
regressione)
- GLM consente di stimare molti tipi di modelli. Importante è mettere le variabili al posto giusto→ VI
continu van messe in COVARIATE
- MODELLO “personalizzato”- inserisco gli effetti principali e l’interazione
- OPZIONI- chiedo i coefficienti “ STIME DEI PARAMETRI”
- OUPUT E RISULTATI
19
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Riassumendo: L’interazione con variabili continue
La logica è la stessa delle variabili dicotomiche, ma l’esecuzione è leggermente più complicata
Un moderatore continuo non ha solo due valori. Si tratta perciò di scegliere alcuni valori utili del moderatore
per calcolare le rette di regressione separatamente
Per convenzione, vengono usati i valori di +1 DS e -1DS, oltre a 0 che rappresenta il valore medio (effetto
principale) – LIBRO E ESERCITAZIONI LO SPIEGANO BENE
Si calcola quindi l’equazione di regressione (VI predice VD) condizionale al valore nel moderatore di +1 (-1),
(0). L’equazione di regressione calcolata quando il moderatore ha valore di +1 ci dice cosa accade quando le
persone hanno valore elevato (+1DS) nel moderatore, quella con -1 cosa accade quando le persone hanno
valore basso (-1DS), e quella con 0 cosa accade quando le persone hanno valore medio (effetto principale)
- Le rette di regressione così calcolate necessariamente differiscono tra di loro (cioè NON sono
parallele) altrimenti non c’è moderazione
- Le rette possono essere rappresentate compattamente in un unico grafico per comprendere il loro
significato, anche comparativamente
In sostanza si tratta di svolgere equazioni separate per diversi livelli del moderatore e poi rappresentarle
graficamente
Ciò può essere fatto a mano, con Excel, o con una serie di comandi su SPSS
Esistono dei moduli per SPSS quali PROCESS di Hayes (2013) che facilitano l’esecuzione
Ma prima di usarli è fondamentale avere chiaro in mente la logica della moderazione e cosa essa ci può dire
(e cosa invece non dice)
Sapere usare PROCESS non significa aver capito cosa è la moderazione
Esempio con PROCESS Perugini-vedi esempio esercitazione forgianini
Inserire nomi delle variabili (standardizzate)
Scegliere l’opzione:
- Mean center for products (centrare le variabili per il termine
d’interazione) –
“Generate Date for Plotting” per poter fare il grafico
Condizioni: mean +- sd from mean
Moderatore continuo: simple slope analysis ai valori –DS, M e
+DS del moderatore per la decomposizione dell’interazione (se
significativa
Costruire il grafico: Quando il predittore e il moderatore sono
continui, crea 3 gruppi per ciascuna delle variabili per poter
creare un grafico: otteniamo 3 x 3 valori di Y
Valori che prende Y per Basso Moderatore
Valori che prende Y per Medio Moderatore
Valori che prende Y per alto Moderatore
esempio
20
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
-
Cliccando sul grafico posso chiedere le linee di interpolazione
REGRESSIONE MODERATA: ripresa gallucci E RIPASSO
- STANDARDIZZO LE VARIABILI
- Regressione con VI e il loro prodotto
- Ottengo 3 coefficienti- 2 per gli effetti di primo ordine e 1 coefficiente di interazione
- Se il coeff.interazione è significativo cè interazione/moderazione. Se non cè è una regressione
multipla normale
- Se cè moderazione gli effetti principali ci dicono quale è l'effetto di una variabile in media rispetto a
tutti i possibili effetti.
Esempio spss slide gallucci lezione 5: da slide 24
1) Standardizzo le variabili per semplificare l’interpretazione
2) In descrittive: porto dentro e variabili da standardizzare e flaggo “ salva valori standardizzati come
variabili”
3) Regressione come Modello Lineare Generale- Per fare la regressione con interazione è comodo usare
il comando GLM univariata (invece che regressione)
GLM consente di stimare molti tipi di modelli. Importante è mettere le variabili al posto giusto. Cliccando su
MODELLO specifichiamo gli effetti richiesti→ vedi parte di prima
PROBLEMI CON LE INTERAZIONI: spiegazione migliore Perugini ( vd sopra)
- Come interpretare l’andamento degli effetti al variare delle VI
- Come testare che le variabili abbiano un effetto per specifici valori delle altre
➔ SIMPLE SLOPE ANALISYS
• Rappresentare l’interazione
• Nella simple slope analysis si rappresenta ciascuna linea per un
valore positivo ed uno negativo della IV moderatrice (di solito 1
e -1)
• Nella simple effect analysis si rappresenta ciascuna linea di
regressione per ciascun gruppo
• La simple effect analysis è semplice soprattutto perché ci sono
già due gruppi distinti (variabile dicotomica)
• La simple slope analysis è leggermente più complicata da
effettuare perché i gruppi distinti vanno creati (ma adesso ci sono software e pacchetti specializzati)
• Aldilà del come si fa, è importante capire la logica sottostante
IN LINEA di principio, potremmo interpretare il grafico della superficie, in pratica non è molto chiaro come
grafico
Usiamo la SIMPLE SLOPE ANALISYS:
- È più semplice selezionare due o più rette della superficie di regressione
- Possiamo scegliere tre rette corrispondenti a valori sensati del moderatore
21
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
E RAPPRESENTARLE IN DUE DIMENSIONI
In SPSS- GRAFICO DELLE SIMPLE SLOPES
In pratica dobbiamo chiedere al software di fare un grafico dell'effetto della variabile indipendente (una
retta):
- Per il moderatore uguale alla media (punteggi medi)
- Per il moderatore uguale ad una deviazione standard sopra la media (punteggi alti)
- Per il moderatore uguale ad una deviazione standard sotto la media (punteggi bassi)
- Useremo un plug-in di spss (vedi esercitazione) per produrre il grafico- GRAFICI- SEGUIRE LE
ISTRUZIONI SLIDE PERUGINI
- Ci concentriamo sulla sua interpretazione
Recap
1.La regressione moderata ci consente di studiare come e quanto l'effetto di
una VI cambia al variare dei livelli di un'altra variabile: moderazione
2.L'effetto di interazione indica quanto forte è il condizionamento
dell'effetto da parte del moderatore
3.Interpretiamo i risultati guardando il grafico
delle simple slopes, cioè gli effetti di una VI per
livelli bassi, medi e alti del moderatore
-
Dati per costruire grafico
Quando il predittore e il moderatore sono continui, crea 3 gruppi per ciascuna
delle variabili per poter creare un grafico: otteniamo 3
x 3 valori di Y
- Valori che prende Y per Basso Moderatore
Valori che prende Y per Medio Moderatore
Valori che prende Y per alto Moderatore
Esempio
Perchè è meglio standardizzare?
Centrare (esprimere i punteggi come deviazioni dalla media) è essenziale prima
di calcolare il prodotto tra VI e Moderatore. Mentre il livello di significatività (p)
è stimato correttamente, il valore del parametro beta di interazione è stimato
come “semi-standardizzato”. Per avere un beta pienamente standardizzato,
bisogna standardizzare tutte le variabili (VD, VI, Moderatore) prima della
regressione.
I valori corretti dei parametri saranno dati dai valori B (non standardizzati). Se le
variabili sono standardizzate, le B sono espresse su una scala direttamente
standardizzata. VEDI NB: sul libro spiega bene la parte sull’interazione e quali
considerare.
22
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Articolo classico: Sul sito troverete il lavoro di Baron e Kenny (JPSP, 1986) sulla mediazione e sulla
moderazione
LEZIONE ANOVA: variabili categoriche/nominali
VI- v. categoriche nominali.
Con le variabili categoriche bisogna fare attenzione a parlare di quantità e dobbiamo capire come il modello
della regressione si adatta a queste variabili- l’unica informazione che contengono è l’appartenenza a un
numero.
Variabili nella Regressione
Nella regressione, la variabile dipendente è sempre quantitativa e, per quello che abbiamo visto, anche le
variabili indipendenti→ La retta di regressione rappresenta la predizione lineare (o dipendenza lineare) tra
una variabile indipendente ed una dipendente, espressa nelle unità di misura originali
Variabili Nominali (categoriche) → Nelle variabili nominali i valori indicano sono delle qualità, cioè sono
equivalenti a delle etichette (sesso, nazionalità, facoltà, gruppi sperimentali)
- Nelle variabili nominali, l’unità di misura non ha la stessa interpretazione ad ogni livello della scala
di misura
Passare da Italiano a Francese, non è la stessa cosa che passare da Francese a Tedesco
Qualunque numero che distingua i gruppi rappresenta la stessa qualità
Il gruppo è rappresentato dalla media, per vedere le differenze si guarda la differenza fra le medie. Non
studiamo il t-test perché una sottospecie del modello lineare generalizzato. Piu in generale si fa l’analisi
della varianza, per variabili categoriche - esempio
Diversi livelli di ancoraggio 10 vs 80 per cento→ Quesito sperimentale: L’ancoraggio ha un effetto
significativo sulla stima numerica? ( media 10-17 vs media 80-44)
Stabilire se le differenze sono significative: partiamo con una
regressione
codifico le variabili categoriche 0 e 1-stimiamo la regressione- ci darà
un coefficiente costante A e un coefficiente di regressione. Questa
retta dove passa? È la retta che meglio interpola la nuvola di punti, che
sta in mezzo. Essendo qua una nuvola solo con 2 colonne di dati la retta
passa per le due colonne. I punti saranno le medie
Dunque la regressione passerà necessariamente per la media di Y per il
gruppo X=0 e per la media di Y per il gruppo X=1
Quale valore indicherà il coefficiente di regressione?
Il coefficiente costante A di questa regressione sarà la media del gruppo a cui
diamo 0. Il coefficiente B,è la differenza quando mi muovo sulla x di una
unità, in questo caso passo dalla media del gruppo 0 a quella del gruppo 1 e il
cambiamento sarà la differenza delle medie.
Se è stat.sigificativo il coefficiente di regressione le medie sono stat.
Differenti→ lo vedo dal sig.
è equivalente a fare un t-test per campioni indipendenti, che è un caso particolare della regressione in cui
la variabile indipendente ha 2 valori
se si vuole esprimere la grandezza di questo effetto standardizzato si guarda il coefficiente B, la
correlazione fra l’essere in gruppo e la VD
23
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Rquadro- quanta varianza spiegata dall’effetto della VI sulla VD- quanto la
differenza fra i gruppi spiegano le differenze nelle variabili dipendenti.
È il TEST F
Rapporto varianza
Se la variabile indipendente è dicotomica, la varianza di errore sarà la
somma delle varianza dentro i gruppi
L’errore associato è la varianza dentro i gruppi, che non può essere
attributo alla differenza fra i gruppi, viceversa la varianza spiegata è
spiegata dalla differenza fra i gruppi- ( varianza tra i gruppi- between
groups)
Varianza tra i gruppi
Equivalentemente, testiamo la bontà della predizione che noi
facciamo dando ad ogni soggetto il punteggio medio del gruppo
(variabilità dovuta ai gruppi), rispetto all’errore che facciamo. Quindi
es la poca variabilità infra gruppo ( es nel genere) fa attribuire la
differenza all’appartenenza al gruppo
Maggiore la variabilità fra gruppi e piu difficile è attribuire le
differenze medie
Piu i gruppi sono omegenei dentro di loro e piu è facile attribuire la
differenza
Questa fa si che l’analisi della varianza confronta la variabilità fra
gruppi in rapporto fra la variabilità dentro il gruppo
Mentre nel coefficiente di regressione può essere solo calcolato con 2
gruppi- la retta passa x 2 punti. Per il rapporto di varianza i gruppi
possono essere piu di 2 ma quanti vogliamo, perchè confronto la
varianza di questi tot elementi
Variabili Nominali→ Quando la variabile indipendente ha più di due
gruppi, lasceremo la rappresentazione in termine di retta, ma
manteniamo i concetti di varianza tra i gruppi e varianza nei gruppi
- Testeremo le differenze tra i gruppi in termini di F
- Ciò si chiama analisi della varianza (Analysis Of Variance
Perdiamo la retta →Perdiamo la rappresentazione in termini di una
retta in quanto la variabile indipendente non è ordinabile in maniera
univoca-→ Ed un’unica retta (non spezzata) non potrebbe
rappresentare i dati a nostra disposizione
Si testa l’ipotesi nulla che le medie siano tutti uguali, con il test F che
confronta le medie dei gruppi, SE è significativo,
anova in pratica
24
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Mettere le variabili categoriche indipendenti in fattori fissi
Es guardo l’effetto di nazione, f di 14, significativo- ha un effetto principale sulla variabile dipendente.
Il passaggio successivo è guardare le medie ( non ho bisogno di guadare il coefficiente come nella
regressione)→ guardo il grafico delle medie
Es la differenza fra le due medie spiega lo 0,06 per cento → guardo R quadrato
Colonna eta quadro parziale uguale R quadro con una variabile sola. È un indice di grandezza dell’effetto
identico al coefficiente di correlazione parziale, quanta varianza spiega la variabile della varianza non
spiegata dalle altre variabili, essendoci solo una variabile è quanto spiega della varianza
Chiedo il grafico delle medie – giudicarlo in funzione della significativà perchè mette sempre in scala per
far vedere una differenza
➔ Attenzione al grafico
Il software produce un grafico delle medie che è sempre “espanso” e potrebbe far sembrare che vi sia
una differenze
Se l’effetto non è significativo, il grafico non va guardato
RICERCA ANORESSIA SULLA FIGURA DÌ DONNA IDEALE nella figura ideale l’analisi mostra che i due gruppi
hanno una media statisticamente differente
.098—eta quadrato parziale
Analisi della covarianza
Si potrebbe dubitare che la differenza sia dovuta alla
differenza tra autostima ( v. continua) possibile nei due gruppi
Testiamo prima se vi è una differenza tra i gruppi
nell’autostima- Poi testiamo le differenze nei tra PIBS ideale al netto
dell’autostima
- Faccio l’anova mettendo come VI continua
l’autostima. Metto insieme anova e regressione,
ANCOVA- una variabile categorica e una continua
25
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Ora proviamo a testare BIPS ideale tenendo costante la autostima
Cioè facciamo una ANOVA ed inseriamo anche una variabile
indipendente continua (come nella regressione)
L’effetto di GROUP sarà dunque la differenza tra Anoressiche e
Controllo nel BIPS ideale tenendo costante le differenze in
autostima (come se Anoressiche e Controllo fossero uguali
nell’autostima
ANCOVA
Con PIU DÌ UNA variabile indipendente l’interpretazione degli effetti va fatta al netto delle altre- tenendo
costante l’autostima la differenza la questi 2 gruppi si riduce, quindi una parte delle differenze fra gruppi è
attribuibile all’autostima
ANALISI DELLA VARIANZA FATTORIALE – cap.4/8
Ripasso dell’ANOVA- con variabili categoriche ci concentriamo sulle varianze perché le categoriche
definiscono i gruppi e il valore predetto è la media. In questo modo vediamo quanto le medie dei gruppi
sono differenti. (mentre nella regressione vediamo i coefficienti perché sono variabili continue)
Lo studio degli effetti di una serie di variabili indipendenti nominale (gruppi) su un variabile dipendente
continua
Effetti principali: Effetto operato da una variabile indipendente (VI) sulla variabile dipendente (VD)
F-Test: Testa l’ipotesi che la varianza spiegata dal fattore principale associato sia zero (cioè: le medie sono
uguali)
R2: Totale di varianza della VD spiegata dall’effetto principali.
Abbiamo per ora vista una sola variabile indipendente- anova ad una via
Ora inseriamo più di una VI-l’estensione ci introduce al concetto di disegno fattoriale . il disegno di ricerca
ovvero come è fatta la ricerca
Disegni Fattoriali :_Nelle maggior parte delle applicazioni di ricerca, il disegno di ricerca prevede più
variabili indipendenti incrociate.
Nei disegni fattoriali ogni gruppo di partecipanti rappresenta una combinazioni di livelli delle variabili
indipendenti→ piu di una VI ( fattori fissi sperimentali)
26
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Disegni between subjects- fra soggetti. In cui ogni soggetto appartiene a una sola condizione
L’ANOVA nei disegni fattoriali testa la significatività degli
effetti principali più gli effetti di interazione
I gruppi possono essere o naturali o fatti dallo
sperimentatore. Definiamo disegno sperimentale quello
in cui l’appartenenza al gruppo è attribuita casualmente .
A volte non puoi assegnare a caso i soggetti – disegni
quasi sperimentali- manipoli senza la possibilità di
assegnare a caso.
Quando non si fa nessuna delle cose ( es. il genere) –
fattori naturali
Tutto questo rientra nella ricerca empirica
Tornando al disegno fattoriale: si riportano il numero di livelli e il nome della variabile- possiamo calcolare
gli effetti principali di ogni VI –
Allo stesso modo come nella moderazione il disegno fattoriale consente di studiare l’effetto di interazione,
definito come nella regressione multipla, quanto l’effetto di una Vi varia per i livelli dell’altra, quanto
l’effetto cambia nei diversi gruppi dell’altra VI
Es l’effetto di stress sarà diverso per maschi e
femmine
Effetti principali Nei disegni fattoriale
l’effetto principale è calcolato come se fosse
costante (lo stesso) per tutti i livelli delle
altre variabili indipendenti
Interpretazione Geometrica
Si assume che le linee che rappresentano gli
effetti di una VI ai vari livelli dell’altra VI siano
parallele
Effetti Condizionali → Quando gli effetti di una VI sono diversi a livelli diversi dell’altra VI, siamo in
presenza di una interazione
facendo il grafico dell’interazione notiamo che se c’è una interazione che linee che uniscono le medie non
saranno parallele
→Interazione
In presenza di una interazione tra due (o più) VI , gli effetti di una VI si dicono condizionali al livello dell’altra
→ L’effetto di interazione tra A e B misura il grado di non parallelismo delle linee dell’effetto di A a diversi
livelli di B. l’interazione definisce un effetto condizionale perchè dipende dalle condizioni , da quale gruppo
sei nella variabile moderatrice.
L’interazione è simmetrica, puoi scegliere quale è il moderatore e quale la VI
27
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
➔ L’effetto di interazione nell’ANOVA è concettualmente identico a quello visto nella regressione
moderata
➔ Vedo nella regressione nella simple analysis la retta di
regressione per i diversi livelli, nell’anova è piu semplice e
guardo il grafico delle medie
SPSS
In grafici- ottiene il grafico delle medie nei gruppi- scelgo gli assi
le VI
Vd
Fattori fissi- vi
Opzioni- Chiediamo “effect size index”
Opzioni- stima della dimensione degli effetti- cosi mi mente etaquadro
Interpreto:
F-Significativa
Eta-quadro-Significatività
Quando la probabilità associata alla F di un effetto principale è
minore di .05, diremo che l’effetto è significativo, dunque i
gruppi da esso definiti avranno medie differenti
Essendo gruppi non ho bisogno di standardizzare
Vedo gli effetti principali – controllo e genere- se non è
significativo devo dire “ il genere non ha un effetto in media”
Significatività dell’interazione
Quando la probabilità associata alla F dell’interazione è minore
di .05, diremo che l’effetto di interazione è significativo, dunque gli effetti di ogni variabile indipendente
sono condizionali ai livelli dell’altra variabile
Quantificazione dell’effetto – la proporzione di varianza spiegata di quell’effetto dopo aver rimosso la
varianza spiegata dagli altri effetti
Gli effetti (principali e di interazione) possono essere quantificati mediante l’eta-quadro parziale (Partial
eta-squared
Eta-quadro rappresenta la varianza spiegata dell’effetto principale, dopo aver
rimosso (parzializzato) la varianza spiegata dagli altri effetti principali e
interazione- quanto spiega l’effetto diviso quanta varianza rimane dopo aver
eliminato la varianza spiegata dagli altri effetti
28
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Ha le stesse caratteristiche della correlazione parziale, se aggiungo altre variabili questa aumenta perché in
relazione alle altre
L’effetto di interazione di solito è più piccolo degli effetti
principale, perché è un effetto di second’ordine .
La risposta sarebbe quanto aumenta la capacità di spiegare il
fenomeno grazie all’interazione?
Es eta-quadro interazione .09 spiega il 10%
Guardo il grafico delle medie
l’interpretazione giustifica 2 effetti differenziati di condizione a
seconda del genere. Puoi parlare dell’effetto della variabile in
maniera diversa a seconda dei gruppi del moderatore
es maschi forti in cond. Cognitiva e un calo nella cond. Emotiva
A seconda della forma dell’interazione, distinguiamo due
tipi di interazione: Ordinale e non Ordinale
ORDINALE: in questa interazione l’effetto di una VI
RIMANE qualitativamente lo stesso ma cambia
quantitativamente ai livelli dell’altra VI
➔ l’effetto non cambia, cambia la sua intensità
NON ORDINALE O CROSS-OVER- le rette si incrociano
L’effetto cambia qualitativamente ai diversi livelli dell’altra
Un effetto diventa più potente cambiando il livello
dell’altra variabile dipendente
➔ Esempio: La soddisfazione matrimoniale modera
l’effetto della soddisfazione sul lavoro
nell’influenzare la soddisfazione generale
➔ L’effetto cambia proprio di qualità
INTERPRETAZIONE DEGLI EFFETTI PRINCIPALI
Il problema è sempre come interpretare gli effetti
principali nell’interazione. In presenza dell’interazione, gli effetti principali vanno interpretati con cautele, e
sempre come effetti medi rispetto ai diversi livelli dell’altra variabile indipendente
IN PRESENZA di una ordinale, si può interpretare l’effetto principale
Con una non ordinale, l’effetto principale perde di senso, perchè se l’effetto si inverte
Nell’interazione l’effetto principale sta in mezzo, affermare che in media c’è un effetto con una relazione
ordinale si può affermare
Se invece trovo una crossover, anche se c’è un effetto principale sarà
invalidato da una parte del disegno.
Quando c’è una interazione alcuni dicono, non interpretare l’effetto
principale. Non è proprio cos’ sarebbe meglio con le ordinali
Se è cross over c’è un effetto principale ma non lo descrivo
Con le ordinali lo descrivo e spiego dove è piu cambia
Grafico delle medie
Interpretazione: Il grafico delle medie informa sulla direzione di tutti
gli effetti (principali e di interazione)
linee parallele: moderatore
29
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
il centro delle linee sono le medie ( effetto
principale è la distanza fra le medie, più è ampia piu
alto l’effetto)
qui non c’è effetto della nazionalità, la linea non si
alza o abbassa
Effetto di interazione
GRAFICO DELLE MEDIE- che effetti abbiano
Effetto principale di nazione,
una è più in basso dell’altra.
Effetto di interazione2 generi
perché se prendo le medie,
l’effetto di nazione varia nei
C’è effetto principale di genere
Non c’è effetto principale di nazio
Con una crossover perfetto→ c’è solo effetto di interazione ( in
media nei principali non c’è perchè si annullano, non devo dire
però non c‘è effetto ma l’effetto medio di genere per esempio
non è stat. Significativo)
INTERAZIONI DÌ Più ALTO GRADO: È possibile analizzare disegni
con più di due variabili indipendenti
Ad esempio 2 x 2 x 2 In ogni disegno possiamo stimare gli effetti principali, le interazioni a 2, le interazioni
a 3, etc.
30
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
L’interazione a 3 vie indica che l’interazione a 2 vie
cambia al variare dei valori del moderatore
- Stimo effetti principali
- Interazioni a 2
- Interazioni a 3 ecc
- Cosi via fino a seconda delle VI che ho
Con quattro variabili tante interazioni a 2, tante a 3
, una a 4
Tre effetti principali (G, T, N)
Tre interazioni a due (G*T, G*N, T*N)
Una interazione a tre (G*T*N)
Le metto in spss- con i fattori fissi per le VI
In grafici – è bene rappresentare l’interazione a 2, tante volte
quante sono i livelli della terza variabili.
Genere x titolo ( 2x2) diviso per nazioni ( che metto in grafici
separati)- medie per maschi per titolo dei francesi, dell’italia, dei
tedeschi
Se sig. dell’interazione a 3 è <.05 l’interazione è significativa ,
l’interazione a 2 titolo x genere varia nelle diverse nazioni. Dato il
moderatore, l’effetto di ordine di piu basso, varia nei diversi livelli
del moderatore.
Possiamo interpretare le tre interazioni come differenti da nazione a nazione
L’effetto principale è come il 2x2 ma aggiungendo in media a titolo di studio ecc
L’interazione a 2 ( genere titolo) è fatta considerando la media rispetto alla nazionalità
Tutti gli effetti si interpretano aggiungendo in media rispetto all’altro fattore
MISURE RIPETUTE- CAP.9 22/03/17
Appunti Gallucci- non ha caricato le slide
Slide Perugini
31
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Più chiaro il cap. sul libro 9
Diversa versione del disegno fattoriale molto usato in ricerca sperimentale- misure ripetute ( anova per
misure ripetute
MISURE RIPETUTE
(Spss Modello lineare- anova - misure ripetute) applicazione di un modello fattoriale/disegno fattoriale con
diverse condizioni, vari livelli di v categoriche, in cui lo stesso soggetto viene misurato in condizioni diverse.
FINO AD ora un caso esprimeva un solo risultato, in questi disegni invece sei in tutte le condizioni
Es misura della variabile dipende prima e dopo il trattamento ( vi) – le stesse persone, unità statistiche
vengono misurati più volte, in tempi diversi siamo di fronte a un disegno a misure ripetute, si usa una anova
modificata, analisi della varianza a misure ripetute. Come l’anova generalizza il t-test, anche qui vi è il t-test
a misure ripetute ( t-test per campioni appaiati)
 La VD è misurata per vari gruppi, ognuno rappresenta un livello della VI
 Gli effetti sono valutati come le differenze tra i gruppi rispetto alle differenze dentro i gruppi
 Test statistico = variazione tra i gruppi / variazioni entro i gruppi
 Varianza di errore=Varianza dentro ogni occasione
 Varianza dell’effetto=Varianza dovuta alle differenza prima-dopo
L’ANOVA ci permette di stabilire se la variabilità tra le medie delle diverse misure ripetute è abbastanza
grande rispetto alla variabilità entro le misure da poter dire che la differenza tra le medie è statisticamente
significativa
 È utile capire che gli effetti within-subject possono essere pensati come la media delle differenze
tra le misure, calcolate per ogni soggetto
 TEST F: Varianza dell’effetto prima dopo/ varianza di errore
Può essere applicata a molte misurazioni ripetute. È molto usata in ricerca clinica e neuropsicologica, per
vedere se tot variabili cambiano nel tempo- è il disegno longitudinale, oneroso in termini di tempo ma che
però può evidenziare effetti di causa e effetto
L’ANOVA a misure ripetute è molto simile all’ANOVAbetweensubjects (tra gruppi)
La differenza è che i livelli delle variabili indipendenti (VI) non sono misurate su ogni soggetto, ma
rappresentano le diverse condizioni (tempi, coppia, etc.) in cui la variabile dipendente (VD) è misurata
SPSS
MGL- Prima dobbiamo specificare il fattore ripetuto e quanti misure abbiamo
- Poi inseriamo, negli spazi appositi per i livelli, le variabili che rappresentano i diversi livelli del
fattore ripetuto
NB Le variabili che creano gruppi si chiamano fattori between subjects vs le variabili che ripetono la
condizioni si chiamano fattori within subjects
Questi possono essere messi insieme in un ANOVA MISTA, che combina misure ripetute e gruppi: un
esempio sono i clinical trials.
Es terapia a vs terapia b per il gruppo 1
Terapia b vs terapia a per il gruppo 2
Nel confrontare 2 trattamenti si controbilancia l’ordine, per controbilanciare effetti di carryover.
Essendo una anova, si può avere anche un’anova fattoriale ( in questo caso within) – l’unità stastica
ripetuta può essere anche non essere lo stesso soggetto
Es terapia moglie e marito- l’unità di misura è la coppia che è a se stante, non il soggetto, ogni coppia
esprime 2 livelli, mogli e marito—DIVERSA unità d’analisi
È un disegno fattoriale a misure ripetute, in cui l’unità è la coppia, con 2 fattori moglie e marito, e
misurazione prima o dopo
32
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
2x2- disegno fattoriale a misure ripetute
Lo stesso vale per i disegni con i gemelli -→ anova fattoriale a misure ripetute 2x2 ( moderazione within)tutti i soggetti esprimono una condizione piu volte
Il modello statistico cerca di decomporre un punteggio in qualcosa per capire dove viene. Nella between
subjects ci danno una media degli effetti che stiamo cercando. Quindi il tizio che prendiamo risponde 8 – la
media è 5, giustifico la sua risposta fino a 5 poi è errore casuale ( tutta una parte che io non posso
giustificare) – in questa anova l’errore è tutta la varianza che non è spiegata dalle differenze delle medie dei
gruppi
NELLE misure ripetute per esempio abbiamo le stesse persone misurate prima e dopo. Se prendo il
soggetto con punteggio 8 ora ha anche un altro punteggio. Sempre le medie ci interessano però quando mi
domando da dove viene il punteggio, a misure ripetute le risposta è diversa. Fino alla media ci arriva per
media, c’è un pezzetto però in più che posso giustificare ( dire da dove viene cosi)
Posso dire che al di la della condizioni oltre alla media ce un pezzo che posso aggiungere o togliere perchè è
la caratteristica unica di quel soggetto e il resto sarà errore ( oltre la media del soggetto)—è la componente
sistematica tipica di ogni soggetto
Es. esperimento tempi di reazioni- riassunti libro
Anova 1 In quello between la velocità di risposta è o la media o l’errore
Nelle misure ripetute, se sarò lento o veloce, lo sarò sempre al di la delle condizioni, avendo piu misure
ripetute, puoi calcolare in media la velocità della persona al di la dell’effetto,è l’unicità del soggetto. Le
misure sono correlate, ovvero che io sia sempre lento o lui sempre veloce fa si che le misure correlano, fa si
che correlano in proporzione a quanto è forte questa unicità.
Come stimiamo la componente dovuta all’unicità dei soggetti? Vedendo la correlazione delle misure
ripetute, non è piu errore ( tutto ciò che non so spiegare), ma questa parte possiamo attribuire all’unicità
dei soggetti, non è errore, ma dovuta al fatto che gente tende a ecc. la stimiamo con la correlazione, una
covarianza. E possiamo sottrarla dall’errore. Correlano proporzionalmente a quanto sia forte questa
unicità. Dunque l’errore non è più solo la somma delle varianze, ma si toglie anche la parte di covarianza fra
le misure
Nelle misure l’errore dobbiamo togliere la covarianza fra le misure – il disegno misure ripetute rispetto a
uno between, a parità del resto è un disegno piu accurato, perché l’errore è minore , perchè togli
dall’errore quella parte di variabilità dovute alle caratteristiche individuali del soggetto, che porta ad avere
correlazione fra le misure- registrazione min.7
Alla fine è una anova uguale all’altra come la between
Slide esempio ansia- esame
In un disegno misure ripetute- le differenze di ansia saranno presenti sia nel primo esame che nel secondo (
componente sistematica). Una parte della variabilità dell’ansia creerà punteggi alti alti, bassi basis nei
soggetti. Maggiore è forte la componente sistematica, maggiore sarà la correlazione dei due risultati ( i voti
all’esame). Questa parte di ansia, la si trova nella correlazioni fra variabili, anche se non la hai misurata
puoi stimare il suo effetto. Tutte le influenze che il sogg, porta nell’esperimento dovuto alle sue unicità, alle
differenze individuali creano correlazioni. Se togliamo questa, l’errore si riduce, tolgo la varianza condivisa,
ottenendo un punteggio scevro delle differenze individuali
Vantaggi delle misure ripetute:
→Tutte le differenze legate all’unicità del soggetto, le differenze individuali, crei correlazioni fra le variabili.
Se tu togli questa, l’errore del modello si riduce. Oppure- nelle MR i soggetti si fanno da controlli per se
stessi
Errore piu piccolo→ maggiore potere statistico – la grandezza dell’effetto è piu grande
33
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
In sintesi → Vantaggio dei disegni entro i soggetti: riduzione della varianza d’errore (disegno più potente –
richiede meno soggetti).
- Si possono avere molte condizioni di misura (e.g. condizioni sperimentali) con pochi soggetti
- Dunque:Maggior potere statistico Rimuovono (più che i disegni between) la variabilità individuale
(le caratteristiche ideosincratiche dei soggetti) non inerente alle variabili misurate Dunque: minore
varianza di errore
- Consentono di misurare il cambiamento nel tempo Dunque: a) Consentono studi sui processi
“causali” b) apprendimento c) evoluzione, etc..
Utile se la variabilità interindividuale incide molto sulla V.D.
Svantaggi dei within
- Carico del soggetto
- Drop-out perdita dei soggetti
- Learning effect- effetto di apprendimento
- Stanchezza e noia
- Carryover effect- Effetti di sorpresa e di novità della misura si perdono
- Effetto sorpresa
- Effetti di contrasto del soggetto: Problema della coerenza- cercano di dare un’immagine di sé non
manipolabile, cercando comportarsi in modo congruo con quello che ha risposto precedentemente
Esempio spss
Non esiste una variabile con le varie condizioni, ma i livelli delle misure ripetute sono espresse da varie
colonne, ogni misura ripetuta è rappresentata da una colonna e quando lanciamo l’analisi devo dire quale è
il fattore a misure ripetute e quanti livelli ha
Ogni misura ripetuta classicamente è una colonna, una diversa variabile
Nella Between dico la Vi è genere e automaticamente utilizza gruppo 0 1. In questo caso devo dire quanti
sono i livelli → Li metto nelle vari livelli
ANALYSIS- modello lineare generale- MISURE RIPETUTE
Prima di aprirsi la solita finestra se ne apre una- come chiami il fattore e quanti livelli ha
- Metto il nome che voglio, es TIME
fai continua e trovi la schermata e negli spazi metto le colonne che corrispondo alle misure
ripetute
- Quindi a destra, metto mis 1 – var.1 ecc bisogna ricordarsi l’ordine, dobbiamo noi dire quale
colonne del file corrispondono ai livelli delle misure ripetute
OUTPUT ---- Otteniamo la tabella degli effetti - F, ETAQUADRO PARZIAL ECC
• EFFETTO TIME 3 righe- per adesso guardiamo la prima. È identica a qualunque altra anova , test f, P,
etaQ. In questo caso non c’è significatività, non c’è differenza fra le medie. L’interpretazione è la
stessa di una normale anova Between. Quindi quando è significativa, andiamo a guardare le medie
e le interpretiamo, con post hoc o contrasti come vedremo poi
• Grafico delle medie, idem come anova
• Età quadro da 0 a 1, varianza spiegata dell’effetto non spiegata Della varianza non spiegata da altri
effetti.
• Vi sono delle righe in più. Riferite all’assunzione del modello
Riga ERRORE: una delle assunzioni , l’omoschedasticità nelle anova ripetute è molto importante, se non
viene rispettata i risultati vengono distorti. Viene detta SFERICITÀ e richiede che le correlazioni fra le misure
ripetute sian piu o meno le stesse – se ho 3 misure ho 3 correlazioni, l’assunzione che serve per far
34
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
funzionare l’analisi vuole che siano piu o meno le stesse, piu sono diverse e piu i risultati possono essere
distorti
Es- Se devo rimuovere la covarianza, stima un valore medio e lo sottrae: se sono più o meno le stesse è
accurata. Ma se è sbilanciata i valori che verranno fuori saranno distorti. Se sono molte diverse la sfericità
non sarà rispettata
Sono state inventate correzioni del test F, della significatività, per bilanciare questa violazione
dell’assunzione
Quanto è violata l’assunzione lo vedo nel grafico di prima — nel TEST DÌ MAUCHLY
➔ Ho- le correlazioni sono uguali- l’assunzione è rispettata se il test non è significato, quindi sig > .05
➔ Se non è significativo, interpreto la riga dell’output “ assumendo la sfericità”
➔ Se è significativo e non rispettiamo l’assunzione, guardo una riga che corregge con possibili
correzioni→ RIGA HUYNN-FIELDS- test corretto per la mancanza di sfericità (cambiano i gradi di
libertà)
1 GUARDO TEST DÌ MAUCHLY
- 2 SE NON è SIGN. GUARDO PRIMA RIGA
- 3 SE è SIGN, GUARDO HYYNN-FIELDS ( una delle possibili, non vi è consenso)
- I risultati spesso non cambiano, queste correzioni cambiano i gradi di libertà per ciò il valore di
significatività potrebbe cambiare. Bisogna cmq eseguire questo passaggio fondamentale!!!
ANALISI DELLE MEDIE POST ANOVA 27-03-17.
Dopo aver trovato un effetto principale, capire quali medie sono differenti, testare meglio gli effetti
nell’effetto principale, si SONDA l’effetto principale per eventuali differenze
Problema:
➔ Se il test F è significativo, concludiamo che esiste una differenza fra le medie dei gruppi
➔ Ciò vuol dire che almeno due medie sono differenti, ma non necessariamente che tutte le medie
sono differenti
➔ Chiameremo questo effetto Effetto principale (main effect)
➔ Ci manca di sapere dove esattamente sono queste differenze
➔ Ovviamente se i gruppi sono solo 2, il problema non si pone perché la differenza fra medie è
sicuramente fra di loro
Soluzione:
1 Analisi dei contrasti
• Se abbiamo ipotesi specifiche da testare riguardanti gruppi di medie - Consente di testare tante possibili
combinazioni di medie
2 Test post-hoc
• Se volgiamo confrontare tutte le medie con tutte le altre..
Più semplice e più utilizzato- Dopo aver visto l’effetto principale ( mentre i contrasti potrebbero essere fatti
anche prima indipendentemente)
35
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
METODO DEI CONTRASTI: trend analysis ed altro
voglio fare confronti specifici fra gruppi, in presenza di più di 2 medie
possiamo confrontare sia una media contro l’altra, sia combinazione
di medie ( es italia diversa nazioni del nord germania olanda)
Permette di analizzare tutte le situazioni possibili, i testare tutte le
ipotesi nulle all’interno dell’effetto principale in modo da poter
testare specifiche comparazioni
-
Costruire un contrasto
1Un contrasto è un set di coefficienti (pesi) che specificano
un’ipotesi nulla che volgiamo rifiutare
2Scriviamo tale relazione in modo tale che se le medie
fossero tutte uguali (l’ipotesi nulla), la somma delle medie
sarebbe zero.
3I coefficienti dei contrasti sono semplicemente i numeri
che moltiplicano le medie nella nostra ipotesi
Stimare un contrasto equivale a costruire una nuova variabile sommi le medie dei gruppi pesandoli
(moltiplicandoli) per dei coefficienti
I coefficienti hanno somma zero, e dunque testano una ipotesi nulla
L'ipotesi nulla testata è la differenza tra le medie con peso positivo e quelle con peso negativo
esempio 3 gruppi
 c controllo
 e stress emotivo
 g cognitivo
l’effetto principale rifiuta l’ipotesi nulla che siano tutte uguali, ora vogliamo testare ipotesi specifiche.
Testiamo per esempio comparazioni a due che 2 vs 1.
Es prima ipotesi del ricercatore c diverso da e-→ ipotesi nulla C = E ( contrario di quello che cerco), che la
media del gruppo di controllo sia uguale alla media del gruppo emotivo
Quindi la differenza fra le medie per l’ipotesi nulla è 0.
Quindi la media del gruppo di controllo – il gruppo emotivo + (il gruppo Cognitivo x0) = 0 → questa è una
somma di medie, e ogni media ha un coefficiente
Con1 C +1 emot -1 cogn 0
Sommo le medie moltiplicando ogni media per un oppurtuno coefficiente. Si può testare qualsiasi
combinazione di medie, come una nuova variabile con la somma delle medie ognuno con un suo
coefficiente. Se scelgo il coefficiente bene testo l’ipotesi iniziale, perché equivale a dire che C-e =0,
È un po complesso
In generale possiamo usare qualunque peso purchè descriva un’ipostesi nulla
C1 coefficienti C +1 E -1 G 0
Seconda ipotesi – secondo contrasto Ho C = (E + G ) /2- H1 il gruppo di controllo è diverso dalla media
degli altri due
Quindi equivale a C-( E + G)/2 quindi C – E/2 – G/2
Quindi i coefficienti sono C 1 E -1/2 G -1/2
36
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
La somma delle medie moltiplicata per opportuni coefficienti
Ora ipotizziamo 4 gruppi- Mettiamo un quarto gruppo ----- Somatico S - avrebbe valore 0 ( perché in
questo caso non centrava nulla nel calcolo nella mia ipotesi
Hp3 C= (E +g+ S) /3
C – e/3 –g/3 –s/3
Coefficienti +1 -1/3 -1/3 -1/3
Una regola che consente che ti permette di testare ogni combinazione, dando giusti coefficienti,
rispettando che la somma dei coefficienti sia sempre 0
Quindi io li dico testa l’Ho con questi coefficienti
• SE LE MEDIE non sono uguali, la somma sarà diversa da 0 e quindi il test sarà significativo
• Contrastiamo coefficienti + e - , il valore deve essere bilanciato perché deve venire 0 la somma dei
coefficienti
Per ora abbiamo confrontato delle medie custom- decise da noi. In molti casi in cui siamo interessati non
solo a differenza delle medie, ma anche nel vedere se il pattern delle medie, segue un trend, ovvero assume
forme particolari- NELLE MR le misure sono ordinabili, per quello capita spesso
Metodo dei contrasti polinomiali
Nei contrasti polinomiale testa con lo stesso metodo l’andamento delle medie:
se le medie hanno un andamento risulterà significativo, piatto non sarà significato,
Es andamento lineare- più passa il tempo e più aumenta la media ( o
diminuisce ) ne fai uno per vedere se ce un andamento lineare ( su - giu )→
definisco un contrasto lineare che disegna un andamento lineare nel tempo,
se risulterà significativo, sarà lineare. Nel contrasto i coefficienti devono
sommare a zero e il passo di cambio deve essere lo stesso, ti muovi sempre
di un tot – tra ogni coppia c’è sempre la stessa distanza
Lineare = (-3 -1 1 3)
2. Un altro per vedere se è quadratico ( se si incurvano
progressivamente).
Q ( -1 1 1 -1)
Se il contrasto è significativo, l’andamento delle medie
assumerà questa forma
Il vantaggio è che non devi fare tutti i confronti possibili, ma se ho delle ipotesi
posso verificarle direttamente
il terzo_ se a zig zag, con i coefficiente sempre sullo zero detto anche contrasto
cubico
Ogni contrasto ti dice quando nel tuo pattern di dati quanto è presente quella
tendenza ( trend) , ricordando le caratteristiche associate
Cubico – vanno su giu C = (-1 1 -1 1 )
37
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Lineare-→ salgono in media
Quadratico—si storcono- incurvano
Cubico—vanno su giuù
I dati potrebbero avere anche caratteristiche multiple di questi andamenti , es posso salire in media ma non
linearmente, es si incurvano ma non come il quadratico, è un mix – significativi entrambi- o meglio testando
i coefficienti polinomiali guarda il grafico, guarda cosa è significativo e trae le conclusioni
Es se c’è un lineare significativo, vuol dire che in media aumentano nel tempo ecc
Si possono stimare quanti contrasti quante sono le medie (gruppi) – 1
Es con 2 – lineare
Con 3 lineare quadratico
Con 4 lineare quadratico cubico
Sopra al cubico non serve nulla ma aggiunge non aggiunge informazioni qualitative sulle caratteristiche
delle medie ma solo info quantitativa
Costruire un contrasto
In SPSS alcuni tipi di contrasti vengono stimati automaticamente dal software, altri dobbiamo specificare
noi i coefficienti
I contrasti dai noi ideati devono essere specificati mediante la sintassi di SPSS
Esempio: Ci proponiamo ora di testare due ipotesi specifiche sui dati “ancoraggio-numerico a tre gruppi”.
Per intenderci sui pesi da dare alle medie, consideriamo ancora=10 il primo gruppo, ancora=nessuna il
secondo gruppo e ancora=80 il terzo.
Non si possono mettere in SPSS nei menu MA NELLA
SINTASSI- SI FA L’ANOVA NORMALE E SI PREME INCOLLA –
mi apre la sintassi
Vd. STIMA FISSI- Ancora INCOLLA
Premo freccia verde x inviare
DOPO L’ANOVA NORMALE VENGONO FUORI TABELLE SUI
CONTRASTI
Questi sono sempre contrasti personalizzati “ custom”
CONTRASTO 1
Stima del contrasto; differenze fra le due medie 24-21
Sig>.05
38
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Quindi le medie di controllo e ancoraggio 10 non sono statisticamente diverse, non possiamo rifiutare HO
CONTRASTO 2
Stime- contrasto=17 ( media di 1 – la media degli altri 2)
significativo
quindi no ancora e ancora 10, sono statisticamente diversi da ancora 80
Guardo sempre il sig per accettare o rifutare l’ipotesi
nulla
ESEMPIO DATI: Abbiamo un esperimento in cui un tre set
di parole vengono somministrate ad un campione in
sequenza (1 2 3 e 4) sotto nel tempo. Si vuole stabilire se
vi sia un peggioramento della performance mnemonica
(misurata in proporzione di errori)
Risultati: Abbiamo un effetto significativo del fattore
tempo, ora vogliamo stabilire la forma dell’andamento
delle medie nel tempo
SPSS default: SPSS fornisce automaticamente i contrasti polinomiali
Esempi contrasti polinomiali con anova misure ripetute- “ test dei contrasti fra i soggetti” tab.spss
➔ Se il trend lineare è significativo, le medie tendono ad aumentare (diminuire nel tempo
➔ Se il trend quadratico è significativo, le medie tendono ad aumentare prima e diminuire dopo
➔ Se il trend cubico è significativo, il grafico delle medie contiene una parte a forma di S
39
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
➔ Possono essere anche tutti significativi. In questo caso in media c’è la tendenza ad andare su ( il
pattern non è piatto). Allo stesso modo in media tendono a aumentare prima e diminuire (
incurvamento). Infine in media essendo il cubico,il trend
tende a essere su e giù. Vi sono tutte e tre le tendenze
➔ Quando i contrasti sono applicati allo studio delle tendenze si chiamano trend analysis, spesso
vengono chiamate COMPARAZIONE PIANIFICATE ( PLANED) – i confronti pianificati hanno appunto
come caratteristica il fatto che sono pianificati prima – mentre i post hoc- post effetto. Questa
differenza è molto importante, perché se non ho ipotesi e voglio vedere dove variano le medie ho
un atteggiamento POST HOC.
Interpretazione alternativa Ricordando i persi: I contrasti si possono anche interpretare non in base al
tempo, ma in base alle misure confrontate
SUI CONTRASTI
SLIDE PERUGINI
SPSS
- Compare
Means
- One way
Anova
- Variabile
vd
- Fattore
VI
- Coefficienti
- Flag descrittive e exclude cases analysis by analysis
- OUTPUT-anova normale- tabella dei coefficienti e constrast test
Riprese contrasti polinomiali
Contrasti ortogonali: Si preferisce utilizzare contrasti ortogonali fra loro (non correlati)
- Il test dell’ipotesi inerente al contrasto non influenza il test degli altri contrasti
- Non c’è sovrapposizione di varianza con altri contrasti
- Il pattern di medie viene decomposto in maniera chiara
Due contrasti sono ortogonali se la somma dei prodotti dei loro pesi è zero
40
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
-
I contrasti ortogonali sono solo più comodi da utilizzare
L’idea che si possano stimare solo contrasti ortogonali è sbagliata
Ma anche altri set di contrasti che esauriscono i gradi di libertà dell’effetto principale sono stimabili
Purchè siano fra loro non correlati 1
E la somma dei pesi sia 0 in ogni contrasto
TEST-POC HOC- atteggiamento esploratorio
I confronti post-hoc (a posteriori) servono a trovare le differenze tra i gruppi, presi a due a due
Con ipotesi a priori, tutte significative, è quasi più difficile che venga sign. un singolo test
Invece se accetto qualsiasi risultato è più facile trovare un effetto, ma l’errore aumenta ( 5%+5% eccc)
Ogni volta che facciamo un test con la sign, Piu test faccio più l’errore aumenta – teorema di bonferroni
Problema della molteplicità dei test: facendo molti test senza una ipotesi a priori- la prob, di ottenere un
risultato significativo aumenta proporzionalmente col numero di test- se faccio tutti i confronti fra medie la
probabilità di trovarne significativa aumenta con numero di test. Quindi se non ci sono ipotesi a priori
bisogna usare un metodo che renda più difficile che un test venga significativo tanto più sono i confronti
che noi facciamo.
In generale, facendo K test, se rifiutiamo l’ipotesi nulla per p<.05, il nostro errore diventa sempre maggiore
e maggiore di 0.05
Questi metodi sono i POST-HOC, dei contrasti ma il cui valore p viene corretto proporzionalmente al
numero di test fatti,
SPSS- premo post hoc – usiamo TUKEY e REGWG
Interpretiamo la significatività dei confronti
Si paga un prezzo a non avere una ipotesi pianificate e usare i post-hoc, se è significativo, perdiamo pero
una chance, abbassando le chance generale che venga significativo, perdo un pezzo d’effetto, perdo potere
statistico – si dice che “ ammazzano l’effetto”
Criterio di bonferroni- è IL POST HOC Più conservativo, lavora sul criterio e non sul valore p , non considera
significato .0.5 ma P/ test fatti – si abbassa il criterio di significatività
Se abbiamo dei test ma non abbiamo i dati (analisi pubblicate da altri) possiamo sempre usare il criterio
Bonferroni in quanto si applica sul criterio di significatività
IN CONCLUSIONE---→ SAREBBE MEGLIO DUNQUE usare I CONTRASTI- FARE LE IPOTESI E usare la sintassi
IN FASE esplorativa si possono usare i post hoc ricordandosi che si ha meno probabilità di trovare qualcosa
di significativo, noi di solito usiamo il tukey
SI Riportano le tabelle, diciamo quale post hoc abbiamo eseguito ecc
ASSUNZIONI 28/03/17
Noi ne facciamo alcune delle più importanti- anche libro.
Se l’assunzione non è rispettata il risultato da noi trovato è distorto,diverso da quello che ci aspettiamo
essere
Nel modello lineare generale adoperiamo il modello per compiere delle operazioni, ma affinchè abbiamo
l’outcome che noi ci aspettiamo ci sono alcune caratteristiche dei nostri dati che devono essere rispettati,
in caso contrario i risultati ottenuti non conciliano con quello che noi ci aspettiamo.
Modello Lineare Generale
La regressione semplice e multipla e l'ANOVA sono sottocasi del modello lineare generale (GLM)
41
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
-
La validità del GLM applicato ai propri dati dipende dalla soddisfazione di alcune assunzioni relative
ai dati
Se le assunzioni sono violate, i risultati saranno
distorti
1la relazione è lineare
2 la distanza fra punteggi osservati e predetti sia
omogenea
3 la distribuzioni di questi residui assume la forma
della curva normale gaussiana
Ogni violazione corrisponde a una distorsione
diversa dei risultati
In generale sono uguali per anova e regressione con
qualche eccezione
ASSUNZIONE 1- linearità: Come visto
precedentemente, la relazione che riusciamo a
catturare con la regressione è una relazione lineare
Nella regressione vi è la linearità, che assume come
la retta sia la miglior soluzione per legare nella
nuvola di punti vd e vi→ la relazione che riusciamo
a catturare con la regressione è una relazione
lineare. Le relazioni non lineari non sono catturate
dalla correlazione/regressione perché La correlazione/regressione è in grado di quantificare solo le relazioni
lineari
Relazione lineare: L’incremento della variabile della VD al variare del variare della VI è costante per i livelli
della VI, al suo crescerees . Se questo non avviene non è detto che non vi sia una relazione, ma sono
relazioni non lineari→ la parte non lineare della relazione si perde in quanto le concordanza tra
scostamenti (covarianza) è diversa ai diversi valori delle variabili
Quando parliamo di una relazione con una regressione, non stiamo parlando di qualunque relazione, ma
dobbiamo parlare di relazioni lineare, perché quello stimiamo, ricordarci questa assunzione ci permette di
limitare l’ampiezza delle nostre conclusioni
ASSUNZIONE residui del modello- ovvero la distanza fra il punteggio predetto e osservato. Di quanto
sbaglia il nostro modello di predire → Dunque i valori osservati di Y possono essere espressi come somma
dei valori predetti e l’errore
Le assunzioni che riguardano i residui del modello
42
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
1 OMOSCHEDASTICITÀ-Quando stimiamo la varianza
spiegata assumiamo che la varianza di errore sia uguale
per tutti i valori predetti, cioè gli errori siano
omoschedastici. L’ampiezza degli errori deve essere più o
meno la stessa intorno alla retta
Violazione- eteroschedasticità
Mentre la linearità si applica solo alla regressione visto
che l’anova è sempre lineare ( confronto fra medie),
questa la testiamo anche nell’anova, perchè la varianza di
errore viene valutata fra gruppi: le varianze dentro i
gruppi sono più meno l stesse- la variabilità di ogni
gruppo è piu o meno la stessa
Abbiamo imparato che l’R2 dipende dalla varianza di
errore. Se è diversa da gruppo a gruppo, in media
non è rappresentativa dei gruppi, quindi tutte le
stime basate sulla varianza se non si rispetta
l’omeschadesticità verranno distorti
ASSUNZIONE 3-normalità dei residui → Si assume
che i residui siano distribuiti normalmente. (
distribuzione degli errori distribuiti lungo la normale)
Cioè se facciamo un istogramma dei residui per tutti
i soggetti, otteniamo una distribuzione fatta a
campana ( media e moda al centro, simmetrica, con
le code alla stessa altezza)
Errore casuale- qualsiasi fattore che può influenzare la dipendente, tolti l’influenza della VI, si guardano i
residui si guardano la somma di tutte queste influenze, per il teorema centrale del limite, dovrebbero
seguire una distribuzione normale. Mentre se c’è una distorsione si formerà una distribuzione storta- tolto
la VI, guardando i residui, come insieme di tutti i possibili effetti casuali, deve assumere una distribuzione
normale ( simmetrici, moda,media al centro, con altezza delle code simmetrica)
Nel modello lineare generale, la stessa distribuzione dell’ipotesi nulla è una normale, quindi calcolando p ci
dice quant’è la probabilità di campionare un risultato da una distribuzione normale. Se la distribuzione non
è normale il risultato viene distorto.
COME SI TESTANO
Analisi dei residui → Per determinare se e quanto le
assunzioni sono rispettare, è possible analizzare i
residui della regressione/ANOVA
Il calcolo dei residui (di norma fatto dal software
automaticamente) consta nella mera sottrazione, per
ogni soggetto, del punteggio predetto da quello
osservato
OVVERO i valori osservati – i valori predetti
Accediamo in spss a SALVA in univariata
Regressione VALORI Osservati meno valore
regressione
43
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Anova- V.o- media del gruppo di provenienza
Anova –spss- salva residui e punteggi predetti ( valori
attesi)
OMESCHADATICITà- SCATTER PLOT METTENDO I VALORI
RESIDUI SULLE Y, E I VALORI PREDETTI SULLE X
➔ Linearità e omoschedasticità: Se la relazione tra le variabili è lineare e l'assunzione di
omoschedasticità è rispettata, lo scatterplot dei “predetti” vs “residui” deve avere una forma a
“casuale rispetto all'asse delle X”
Noi dobbiamo controllare l’ampiezza se è la stessa piu o meno x il grafico – se l’ampiezza è la stessa
“ sembrano distribuiti a caso, distribuzione casuale dell’errore”- omeschedastica
FOTO VI CONTINUA
IN ANOVA basta confrontare la variabilità fra gruppi, non
facciamo test statistici come LEVEN E altri
Qui si vede che non sono distribuiti a caso- le fasce hanno
ampiezze diverse!!
Non ci sarò mai una distribuzione perfettamente omo o etero
schedastica, c’è sempre una gradualità
Quindi il test statistico taglia le cose un pò a metà. Meglio vederle
dal grafico, se la differenza di ampiezza non è lampante,
l’assunzione è rispettata, se la differenza di ampiezza è lampante non è omoschedastica
Se c’è un OUTLIAR? Sono delle VIOLAZIONI!!
Presenza di casi estremi, magari 1-3 che esula chiaramente
dalla distribuzione dei residui
I punteggi chiaramente fuori sono outliar
Chiaramente dal punto visivo che il punteggio non proviene
dalla stessa distribuzione degli altri punteggi
Outlier o “influential points” sono residui di molto discordanti
con la distribuzione nel campione. Essi corrispondono a
soggetti con valori estremi o nella variabile dipendente o
nella indipendente.
➔
Gli outlier si eliminano dall'analisi
Sono delle violazioni perchè non è rappresentativo della popolazione di provenienza
Non dovrebbero superare il 5%- per evitare problemi spesso si è soliti eliminare i punteggi residui che sono
2-3 dev,standard lontani dalla media, nella distribuzione normale vuol dire eliminare le code estreme
NORMALITÀ DEI RESIDUI- istogramma dei residui → Per verificare la normalità dei residui (cioè che si
distribuiscano secondo una distribuzione Gaussiana normale), osserveremo l'istogramma
Test di Normalità → È possibile testare l'ipotesi nulla che la distribuzione dei residui sia normale: TEST DI
KOLMOGOROV-SMIRNOV KS – ipotesi nulla che La DISTRIBUZIONE è normale, se non è significativo, la
44
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
distribuzione è normale ( stessa caratteristica del test di sfericità per l’anova misure ripetute di Mauchly
test di SFERICITÀ ) -→ SPSS- analizza- descrittive- esplora-grafici- indice di normalità e istogramma
Ooppure analizza- test non parametrici- Ks per un campione- metto residuo e guardo il sig.
Il test di KolmogorvSmirnov testa la differenza tra la distribuzione dei residui e una normale gaussiana→ Se
il test NON è significativo, l'assunzione di normalità è rispettata
Con un campione molto ampio tenderà a dire che non sarà normale e viceversa- quindi meglio guardare
l’istogramma e il grafico, se è chiaramente storto o ok a posto. Nel dubbio test KS per verificare
Per outliars se sono indeciso- ANALIZZA-STAT.DESCRITTIVE-ESPLORA(grafici a scatole-livelli dei fattori
insieme)
VERIFICA ASSUNZIONI• Per poter affermare che i risultati della nostra regressione/ANOVA sono validi, è necessario che i
dati rispettino le assunzioni
• É possibile verificare le assunzioni analizzando i residui della regressione/ANOVA
• Il diagramma di dispersione che lega i valori predetti ai residui deve avere un andamento piatto,
simetrico e regolare (banda costante senza outliers)
• La distribusione dei residui deve essere normale (test di Kolmogorov-Smirnov)
• Nella prossima lezione affronteremo dei possibili rimedi alla violazione delle assunzioni
Soluzioni alla violazione
Quando una delle assunzioni è
violata, si possono analizzare i dati
seguenti tre approcci:

Cambiare le variabili:
Trasformazione delle variabili

Cambiare test: test non
parametrici

Cambiare modello: Modello
lineare generalizzato (vedi lezioni
succ.)

Ouliars- lo elimino
Intanto guardiamo 2 metodi_
Trasformazione delle variabili dipendenti
Essendo i residui, la variabile dipendente – i valori predetti, la distribuzione dei residui dipende dalla
distribuzione della variabile dipendente
Se riesco a normalizzare la VD IN MODO che sia normale e abbia i residui omoschedastici posso fare
l’analisi sulla trasformata di questa variabile
( NEI punteggi x cambiano la scala)- qui cambiamo proprio la forma
Da una VD storta→ residui storti
Es- tempi di reazione- rispondi veloce – allungamento dei tempi
Trasformazione variabili Quando la variabile dipendente non è distribuita normalmente, si può operare
una trasformazione della variabile al fine di modificarne la forma della distribuzione
Esistono vari tipi di trasformazioni, suddivisibili in due classi
45
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
1) Trasformazioni volte a normalizzare la variabile
2) Trasformazioni in ranghi (ranks)
Normalizzazione
Le trasformazioni volte a normalizzare la distribuzione hanno come scopo quello di rendere la nuova
variabile dipendente “più normale” dell'originale: Ogni formula può funzionare, purchè non cambi l'ordine
dei punteggi.
Applicare qualunque formula per trasformare la VD in nuova variabile, possiamo usare una serie di
formule per trasformare i punteggi affinchè la scala prenda una forma differente e assomigli alla normale
2 metodi per sapere quale fare:
guardare la letteratura di riferimento→ qualcuno magari lo ha già fatto. Es tempi di reazione
normalizzabili tramite la trasformazione logaritmica – allarga la distanza fra punteggi bassi e restringe
quella fra punteggi alti
→Se la trasformazione funziona, la nuova variabile sarà una normale (testate, ad esempio, con il KolmogovSmirnof
Scelta della Trasformazione Normalizzante
Non esiste una regola precisa per scegliere la trasformazione: La trasformazione che normalizza la variabile
è quella che funziona
Se non c’è letteratura; proviamo varie formule cuadrato,cubo,logartimo 1/vd 1/vd alla seconda
Se si trova la trasformazione che normalizza la variabile dipendente, i risultati della regressione/anova
saranno più attendibili
Il limite è che la trasformazione deve essere monotonica rispetto ai punteggi- non deve cambiare l’ordine
dei punteggi ( es se un punteggio è-4 diventa 16 non va bene)
Si deve però fare attenzione che le unità di misura sono cambiate, dunque si interpreteranno
preferibilmente i coefficienti standardizzati
TRASFORMAZIONE IN RANGHI- trasformazione per cui il punteggio viene classificato in una classifica, il piu
alto prende 1 ecc- preserva solo l’ordine dei punteggi
Un'altra classe di trasformazioni prevede di calcolare i ranghi delle variabili continue inserite nelle analisi
La trasformazione in ranghi modifica i test del GLM
(regressione/correlazione/anova) in test non
parametrici
I ranghi rispettano l'ordine dei punteggi, non la loro
intensità relativa, ha sempre la stessa distribuzione
piatta
È ALLA BASE DÌ UNA FAMIGLIA DÌ TEST che vengono
usati quando la distribuzione della VD non rispetta le
assunzioni e non si riesce a trovare una trasformarla→
i test non parametrici
1 vd
2 RANGHI
Test non parametrici
I test non parametrici (che studiamo in questo
corso) equivalgono alle tecniche statistiche
studiate fino ad ora operate dopo aver
46
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
trasformato le variabili continue nei loro rispettivi ranghi, A una applicazione del modello lineare fatta sui
ranghi
Si dirà quindi la differenza media fra i ranghi, l’interpretazione è la stessa, ma piuttosto che interpretare
l’effetto della Vi sulla Vd si interpreterà l’effetto sui ranghi della VD
Test non parametrici- riassunti libro per dettagli
Correlazione di Spearman
Consta nel calcolare la correlazione (quella che conosciamo) sui ranghi (R) delle variabili → Indica il grado
di monotonicità della relazione tra due variabili
Regressione non-parametrica
Consta nel calcolare regressione sui ranghi delle variabili
Indica il grado di monotonicità della relazione tra due variabili espressa come cambiamento del rango in Y
per un rango in più di X- il rango medio dei sorrisi aumenta all’aumentare del rango medio delle birre ecc
coefficiente B – correlazione di spearman
Mann-Whitney
Equivale a calcolare il t-test sui ranghi delle variabili- 1 Indica il grado differenza delle distribuzioni di Y
tra due gruppi
Kruskal-Wallis- generalizza il mann-whitney
Equivale a calcolare il ANOVA-one way (la Ftest) sui ranghi delle variabili
NOI dobbiamo ricordare quale test corrisponde
a quale- i gruppi hanno es rango medio diverso,
le loro posizione in classifica sono in media
diverse
Perchè non si usano sempre questi?? La
quantità informazione dei test non parametrici
+ molto meno di quella del modello lineare generale. Nei modelli non parametrici l’informazione è
degradata perchè si perde la quantità in questione, ho solo una classifica- ci dice solo se l’effetto è
significativo, non possiamo fare le interazioni ecc il KW si fa sempre solo x una via
Li usiamo solo se non possiamo utilizzare il modello lineare generale
Un consiglio è di fronte a una violazione delle assunzioni evidente
- Stimare il modello
- Testare quello che è possibile con i non-parametrici e vedere se c’è congruenza per capire se posso
fidarmi dell’anova se concorda con il Kruskal wallis
- Se non c’è corrispondenza non possiamo affidarci e quindi citiamo solo il non parametrico
ESERCITAZIONE IN CLASSE 29/03/17
REGISTRAZIONE
- Disegno between subjects perchè i soggetti sono collocati in una solo situazione
- Disegno sperimentale 3 condizioni x 2 difficoltà
- VD indice di creatività
- Altre variabili di differenze individuali
Determinare gli effetti di condizione e difficoltà sulla performance al task ( a volte al domanda può essere
determinare se la variabile, se la x ha un effetto su y)- bisogna sempre descrivere cosa fai e le condizioni
47
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
1 tavola di contingenza per la distribuzioni dei dati- vedere frequenze, i dati che abbiamo ecc
- Analizza-> descrittive- tabelle di contingenza
Condizione in righe
In colonne difficoltà
Incrociamo le frequenze per vedere quanta gente ce dentro – vediamo un disegno bilanciato 20
soggetti per condizione 3x 2 totale 120
Con 0 individuale 1 imposto 2 spontaneo
Variabili categoriche- facciamo una anova
( se fosse categoriche e continue ancova)
Analizza- modello uni- uni variata- indipendente ( Fttori FISSI) CONdizione e difficoltà- vd = performance
Cosi vediamo effetti principali e interazione→ chiediamo anche grafico delle medie per interpretare effetti
Grafici: cond- asse orizzontale, linee separate DIFFICOLTÀ
Dobbiamo ottenere l’indice degli effetti- eta quadro o parziale→in opzioni e chiediamo STIMA DELLE
DIMENSIONI DEGLI EFFETTI
Inviamo:
vediamo i risultati
- Prima c’è la tabella degli effetti- effetto principale di condizione e difficoltà e effetto di interazione
- Diremo in media rispetto alla difficoltà in media le tre condizioni non sono tutte uguali P < .01 –
- In media i due task difficile e facile risultato statisticamente differenti, ma questi effetti sono
moderati – perché c’è interazione, e cambiano a seconda della condizione
- Il modello spiega il 36%, condizione 15 % della varianza non spiegata dagli altri effetti, difficoltà
20%. Effetto di interazione decisamente non trascurabile
- Riportiamo dagli effetti principali fino all’interazione, riportiamo la F con i suoi gradi di libertà (Gl)
DELLA F E DELL’ERRORE, P ( segnare mai uguale a 0) e infine età quadro
- Nel rispondere alla domanda o scrivendo la tesi vanno anche interpretati- guardiamo il grafico
Essendoci una interazione possiamo interpretare gli effetti divisi per gruppi, l’effetto di condizione
per i livelli del moderatore. Per quanto riguarda il task difficile la perfomance è diverso nella 2
condizioni sperimentali, nella condizione facile la permorncance migliora nella condizione obbligato
rispetto alla condizione da solo, ma aumenta ancora i piu nella condizione gruppo spontaneo
registrazione 29
Dobbiamo descrivere l’effetto di una variabile sui livelli dell’altra
Determinare gli effetti di condizione, ignorando difficoltà( vuol dire non considerare la variabile, come se
non ci fosse---- è il contrario di tenere costante ( è attivo) la variabile) , su performance e confrontare i
gruppi a 2 a 2, usando un modello ANOVA e un test non parametrico. Confrontare le conclusioni delle
due analisi
Testo gli effetti e faccio un confronto 2-2 anova a una via visto che ignoro la difficoltà come condizione VIfaccio post hoc ( per confrontare tutti gruppi)
Non parametrico- kruskal wallis. Equivalente dell’anova a 1 via fatta sui ranghi, Ma per i post hoc? Non
posso con i non parametrici – lo dobbiamo fare noi
- Anova a una via post hoc e vediamo i risultati
- Analizza modello linerare- uni variata
- Vd performance, fattori fissi condizione
- Post hoc – tukey per condizione – confronto tutti i gruppi di condizione
- Grafico non ci serve lo mando
48
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
L’effetto di condizione giustamente è ancora significativo- la condizione ignorando le altre variabili
ha un effetto significativo sulla performance
Tabella post hoc- 0 vs 1, da solo vs imposto, ha una differenza media di -,75 che non risulta statisticamente
significativo- in media non sono significativi
Gruppo da solo 0 vs 2 spontaneo ha una differenza di -2 ed è statisticamente significativo
- Gruppo 1 vs 2, ha una differenza di -1,28 e non è statisticamente significativo
- Riportiamo la differenza media e la significativa ( se proprio vogliamo differenza/errore standard = t
test)
- Interpretazione l’effetto principale è giustificato dal fatto che il gruppo solo è diverso da quello
spontaneo. Mentre quello obbligato non è significativamente diverso dagli altri
Ora test non parametrici
- Finestre di dialogo legacy
- K per campioni indipendenti ( gruppi) ( quello per campioni correlati è per le misure ripetute)
- Variabili del test –vd- “ elenco variabile del test”-→ Performance
- v. raggruppamento- VI condizione mette due ?? chiede di definire il range ( definisci l’intervalloquali considerare?- gli chiediamo da 0 a 2)
- Invio: ok- non c’è la F ma il Chi- quadrato- è significativo- i ranghi in media di questi 3 gruppi sono
differenti . riporto chi quadrato, significatività, gradi di libertà. La posizione in classifica in media fra
i 3 gruppi non è tutto uguale.
- Non ci sono i post hoc dobbiamo fare noi i confronti a 2 a 2- il krusakl wallis generalizza il main
Whitney
- Facciamo il main Whitney a 2 a 2- finestre dialogo- 2 campioni indipendenti- le variabili le stessefacciamo definisci gruppi
- Iniziamo 0 vs 1 – in media il rango della condizione 1 è piu o meno uguale a quello della condizione
0
- Ora 0-2 2 campioni indipendenti, tutto uguale e mettiamo gruppi 0 e 2 – risulta staticamente
significativo, con i test non parametrici si riporta p e non so
- Confronto 1-2 risulta statisticamente significativo
Con il parametrico confermo l’effetto principale, 0 risulta non diverso da 1, 0 diverso da 2, ma nel confronto
non parametrico 1 risulta diverso da 2
Tuttavia non è un confronto equo, poiché I post hoc però hanno corretto la significatività in relazione a
quanti confronti fai, nel non parametrico non viene corretto nulla
Solo un test può essere utilizzato con i non parametrici:
Posso fare il Bonferroni a mano, considero significativo non p < ,05 ma p < (.05/numero di confronti)
Quindi .05/3 fa = 0.016 e dovremmo considerare significativo solo ciò che è piu basso di .016 qui abbiamo
.03 quindi è in linea comla situazione di prima che era quasi significativo in anova ( .053)
Quindi possiamo usare bonferroni per rispondere ad occhio
Domanda 3 determinare i coefficiente standardizzati del seguente path diagram e determinare gli effetti
mediati ( c’è spesso) come indicato dal diagramma
-
49
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Modello per scrivere relazioni fra variabili risolvibile una serie di regressione, per stimare i coefficienti
faccio tante regressioni quante sono le variabili che ricevono una freccia ( dipendenti) da quelle che
mandano le indipendenti
Questo è una mediazione doppia
Iniziamo dai coeffieicienti
A_ regressione semplice ( guardo i b per coefficiente standardizzati) dove iQ indipendente e autonomia
dipendente
B rispettivo per B
C e d effetto su perfromance considerando l’effetto al netto
Analizza regressione lineare
- Prima regressione Autonomia ( vd) indipendente ( iq)- ok estraggo coefficiente Beta = .31 ( segno
statistificamente significativo) a=. 31
- Seconda regressione – estroversione ( vd) VI Iq- coefficiente Beta .028 ( non significativo)
- Regresisone multipla totale che mi dice gli altri coefficiente VD Performance , le altre variabili
come indipendenti
• d = -.17 non sign.
• c = .052 non sign
• e = effetto diretto .39 stat. significativo
risposta
- RIPORTO I VALORI NEL PATH DIAGRAM- frega un cazzo della significatività riporto i beta
standardizzati perché me lo chiede – se devo riportare risultati li riporto sempre
indipendentemente dalla significativita
- Effetto mediato autonomia = a x d = .313 x - .175 = non è significativo perchè non erano tutte e
due significativi
- Effetto mediato estroversione b x c – riporto valore e dico che non è significativo
- Effetto mediato totale – la somma dei due precedenti
Quarta domanda
Determina gli effetti di condizione e difficoltà sulla performance ( prima anova fatta )ma al netto di
Qi e autonomia- analisi della covarianza ANOVA- METTE INSIEME CATEGORICHE E CONTINUE
È la stessa analisi della prima domanda – VD ( PERFORMANCE) E VI ( cond e difficoltà)
- In covariate metto IQ E AUTONOMIA
- Chiedo ancora il grafico
- Opzione- chiedo stime dimensione effetti
- Invio – ok
50
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Interpretazione: calcoliamo gli effetti delle Vi categoriche al netto di quelle continue (potremmo
interpretare pure questi ma questa domanda non c’è lo chiede
Condizione, difficoltà e interazione significativo. spiegano più di prima perchè età quadro PARZIALE si
BASA sulla varianza non spiegata degli altri, togliendoli, aumenta
Qualitativamente non cambia niente, anche al netto i IQ e autonomia ritroviamo effetti principali e
interazione- tuttavia per vedere se è cmq uguale O GLI Effetti cambiano di tendenza guardo il grafico
In questo caso è sostanzialmente identico – i risultati ottenuti nella prima domanda sono
sostanzialmente replicati sia qualitativamente si quantitativamente anche tenendo costante IQ e
autonomia ( quindi non hanno a che fare con gli effetti delle variabili categoriche)
Riporto P F gradi libertà, confronto medie e confronto con la domanda 1
MODELLI LINEARI GENERALIZZATI
Preludio
La maggior parte delle comuni tecniche statistiche volte ad individuare le relazioni fra variabili, quali
Correlazioni, Regressione, ANOVA, ANCOVA, sono riconducibili al Modello Lineare Generale (GLM)
Il GLM ci permette di studia gli effetti di variabili indipendenti di vario tipo su variabili quantitative (variabili
dipendenti continue)
La ricerca empirica è disseminata di variabili dipendenti qualitative (scelte dicotomiche, scelte multiple,
frequenze di eventi, classificazioni, etc)
I Modelli Lineari Generalizzati ci consentono di studiare gli effetti di variabili indipendenti su variabili
dipendenti qualitative ( che rappresentano qualita, o variabili nominali)
modello lineare generale.
Modello lineare generalizzato, prendono nome diverso a seconda
della variabile dipendente
MLGZ :Tecniche volte a studiare e quantificare gli effetti di una o
più variabili indipendenti continue o nominali su una variabile
dipendente nominale (qualitativa)
Tecniche statistiche:
- La regressione logistica: Variabile dipendente dicotomica
(noi vediamo questo e non gli altri, che tendono a essere
basati sulla logistica, adattata a casi più complessi)
- La regressione ordinale: Variabile dipendente ordinabile
- La regressione multinomiale: Variabile dipendente
politomica
- La regressione di Poisson: Variabile dipendente basata su
frequenze
- Tutto ciò, anche a misure ripetute
Tecniche volte a studiare e quantificare gli effetti di una o più
variabili indipendenti continue o nominali su una variabile
dipendente nominale (qualitativa)
I modelli generalizzati non sono complicati ma vanno approcciati nella maniera giusta.
ASSUNZIONI:
❖ Quando le assunzioni non sono soddisfatte, i risultati sono da considerarsi dubbi
❖ Se la violazione delle assunzioni è grave, la regressione/ANOVA non può essere applicata
❖ Nella pratica, con variabili dipendenti continue normalmente distribuite, queste assunzioni sono
abbastanza semplici da soddisfare
51
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
❖ Ma cosa succede se volessimo usare una variabile dipendente dicotomica?
La REGRESSIONE LOGISTICA (SPSS ggml- logistica binaria) si propone di studiare e quantificare le
relazioni tra una o più variabili indipendenti quantitative (es. età,
salario, atteggiamenti, personalità) e una variabile dipendente
dicotomica (es. stato civile, voto al referendum, appartenenza ad
un gruppo, etc.)
Essendo solo 2 i punteggi- lo scatter plot avrà sempre solo 2 strisce
Inoltre non può essere omoschedastica, perché all’aumentare della
x aumentano gli errori, i residui non saranno inoltre mai normale
Quando abbiamo una variabile dipendente dicotomca, ogni
soggetto ha o 1 o 0 come valore della variabile dipendente
La media della variabile dipendente è la probabilità di ottenere il
valore 1 .Ciò che prediciamo è la probabilità p di appartenere al
gruppo con valore 1 (e 1-p sarà la probabilità di appartenere al
gruppo 0).
Come varia la probabilità di essere in un gruppo o in un altro
I punteggi predetti saranno senza senso
Fittata una retta cosi dumble produce punteggi senza senso- non
dobbiamo predire la probabilità per sé ma predire una
trasformazione della probabilità, immaginarla in maniera diversa
cosi quello che rappresenta la retta abbia senso
Dunque l’assunzione di linearità è sicuramente violata.
SOLUZIONE: Necessitiamo dunque di un tipo di regressione che:
 Risolva il problema della omoschedasticità, linearità e normalità degli errori
 Ammetta valori non assurdi
 Ci esprima le relazioni sulla base di probabilità o qualcosa di comparabile
 Cioè dobbiamo usare un modello che trasformi la variabile dipendente tale da linearizzare la
relazione, rendere la variabile dipendente continua, e farla variare su tutto l’asse (valori positivi e
negativi)
Soluzione: parte 1
Intanto decidiamo di non cercare di predire la probabilità, ma il rapporto tra probabilità
Tale rapporto è detto odd (rapporto di probabilità)- probabilita di essere nel gruppo 1/ probabilità di
essere nel gruppo0. Varia da 0 a infinito
ODD: L’odd è il rapporto tra la probabilità di un evento
(appartenere ad un gruppo) rispetto alla probabilità del non
evento (appartenere all’altro gruppo), quanto è più probabile
un evento rispetto al suo complemento.
52
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Se è uguale a 1 gli eventi sono equiprobabili , se è >1 la prob, di
essere nel gruppo 1 è maggiore rispetto al gruppo 0. È una
scala diversa con cui esprimere la probabilità fra 2 gruppi →
L’odd indica quanto più probabile è un evento rispetto al suo
complemento. Se è < 1, la prob di essere nel gruppo 1 è minore
della probabilità di essere nel gruppo 0. Non basta questa
trasformazione → Se usassimo gli odd come variabile
dipendente, potremmo ottenere predizioni impossibili, come
predizioni di valori negativi
Soluzione parte 2: Decidiamo di non cercare di predire l’odd, ma il
logaritmo dell’odd. Regressione logistica- regressione lineare che
non viene fatta sulla variabile grezza (probabilità di essere nel
gruppo 1) ma nel logit, cioè predice il logaritmo dell’odd. Il logaritmo
in base A di B è quel numero a cui dobbiamo elevare A per ottenere
B. Trasforma una variabile odd in una sia positiva che negativa.
Prende una che va da 0 a 1 – poi l’odd da 0 a infinito, trasformandola
in una che va da – infinito a piu infinito. ll logaritmo di una variabile
che varia da 0 ad infinito (come gli odd), varia per tutti i valori
possibili, da negativi a positivi
Il logaritmo dell’Odd permette di esprimere la probabilità mediante
valori sia positivi che negativi
Linearizzazione della relazione
Grazie al fatto che il logit sta in rapporto sigmoidale con la probabilità,
il logit sarà in rapporto lineare con le variabili dipendenti
❖ X predirrà LOGIT grazie a una retta
❖ Il logit inoltre è centrato sulla probabilità, positivo per p >.5,
negativo per p <.5, centrato a 0 per p = 5
Viene predetto il logit e i punteggi predetti saranno ragionevoli
Il logaritmo dell’OR sta in relazione sigmoidale con la
probabilità
Se una variabile è in relazione a S con la probabilità, avra
una relazione lineare con il LOGIT, assorbe la S e la fa
diventare una retta, la linea rizza→ Grazie al fatto che il logit
sta in rapporto sigmoidale con la probabilità, il logit sarà in
rapporto lineare con le variabili dipendenti
La regressione logistica è una regressione in cui la variabile
dipendente è dicotomica, e dunque si predice mediante una
regressione lineare il logaritmo del rapporto tra la
probabilità di essere in un gruppo piuttosto che l’altro
Quindi possiamo interpretare un modello lineare come
prima ma considerano che la VARIABILE DIPENDENTE SARà NOMINALE DUNQUE DOBBIAMO CONSIDERARE
IL LOGIT
Quindi- REGRESSIONE LOGISTICA
- Dato che la variabile è stata trasformata, la regressione ora è possibile
53
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
-
Rispetto alla regressione che già conosciamo, cambierà:
Come interpretare i coefficienti→ Il test di significatività (si usa il Wald test, ma la logica è come
con il t-test)
Come interpretare l’R2
LOGISTICA IN PRATICA: Ci proponiamo di studiare in un campione di 133 soggetti, le relazioni tra
atteggiamento politico (conserv, positivo= conservatore, 0=incerto, negativo=liberal) e voto alle elezioni
presidenziali americane
vd 0-1
VOTO BUSH- 1, voto Kenny 0
SPSS
- Analizza- Regressione binaria logistica
- Logistica
- Vd
- vi- covariate
- Essendo una regressione, ci aspettiamo di trovare un coefficiente B, un coefficiente costante, e un
test di significatività del coefficiente
Costante in regressione è il valore medio di y per x
uguale a 0
.132è il logit di bush per x =0
Il logit non è significativo, logit quindi 0, quindi
probabilità 50%
L’effetto è il coefficiente di regressione,
all’aumentare di un’unità di conservatorismo
quanto aumenta la probabilità di votare bush – è
significativo, la Vi influenza la probabilità di votare
bush rispetto a kerry. ll problema sta nel fatto che tutte le
informazioni (come in ogni regressione) sono espresse
nell’unità di misura della VD
Nel caso del logaritmo di Odd, questa unità è non intuitiva e
poco informativa. Ovvero: Per ogni unità in più di conserv, ci
aspettiamo un aumento del logaritmo di Odd di .907! Ma è
tanto o poco?
Quanto aumenta? Il problema del logaritmo è che la sua unità
di misura non è intuitivamente interpretabile. Boh, nessuno
capisce la scala logaritmica – non si interpreta la si rimuove,
guardiamo i coefficienti di regressione ottenuti rimuovendo la scala logaritmica— osservando i coefficienti
EXP. Per ovviare a ciò, le quantità espresse su scala logaritmiche possono essere riportate all’unità originale
mediante la FUNZIONE ESPONENZIALE→
Unità più comprensibili
 Dato che nella logistica le informazioni sono ottenute sulla base di una VD logaritmica, la funzione
esponenziale le riporta all’unità precedente (funzione inversa)
 L’unità precedente è l’odd ratio—i coefficienti vengono espressi nella scala odd
54
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Relazioni tra unità di misure: Al fine interpretativo è
importante ricordare che: La somma tra due logaritmi, equivale
al prodotto tra gli argomenti.
Interpretazione di exp(B)- il coefficiente ci dice di quante
volte aumenta l’odd
Exp(B) è il tasso con cui aumenta Odd per ogni unità della VI (
l’odd aumenta di 2.47 vole per ogni unità della x)→ Per ogni
unità in più di conserv, il rapporto di probabilità tra votare Bush
e votare Kerry aumenta di 2.47 volte
Cioè il tasso con cui cambia il rapporto di probabilità al variare
della VI
Interpretazione di exp (costante)
Exp(Costante) è l’Odd atteso quanto la VI è zero
Se conservatorismo è uguale a zero, ci aspettiamo un odd ratio
di 1.141, cioè votare Bush è 1.142 volte più probabile che
votare Kerry. Se conservatorismo è uguale a zero (soggetto
incerto), votare Bush o Votare Kerry sono quasi equiprobabili
Interpretazione di exp (b)→ Exp(B) è quanto aumenta l’Odd
per ogni unità in più della VI ( tasso di cambio, effetto della
variabile indipendente espressa in scala odd e coefficienti associati a ogni indipendente, che dice di quante
volte cambia l’odd. Sarà sempre positivo. Se passiamo da conservatorismo=0 a conservatorismo=1
(aumentiamo x di una unità), ci aspettiamo che l’ odd ratio aumenti di 2.476 (Per ogni unità in più l’odd
aumenta di 2.47 volte.
Interpretazione di exp(B)
Aumentando X di 1, aumento in termini di logaritmo di .907.
L’esponenziale di .907 è 2.476. Dunque in termini di Odd aumento di
2.476. Cioè se un soggetto ha conservatorismo uguale ad 1, il suo
Odd di votare Bush sarà 2.476 volte più grande del soggetto che
ha conservatorismo uguale a 0.
Se standardizziamo la
variabile indipendente
prima dell’analisi l’exp ci
dice di quanto aumenta
l’odd per un aumento della
vi di 1 deviazione standard.
❖ Di fronte a una regressione logistica facciamo una
interpretazione grezza basandoci sul logaritmi e la
significativa, per essere precisi interpretiamo EXP per dire di quanto aumenta l’odd all’aumentare
di una unità della variabile indipendente
TRASFORMARE UN ODD ( rapporto di probabilità) in PROBABILITÀ
➔ PROB = ODD variabile / 1+ODDvariabile
REGRESSIONE LOGISTICA MULTIPLA
55
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
 Tutto ciò che sappiamo sulla regressione lineare (interazione, effetti parziali, mediazione, path
analysis) rimane concettualmente equivalente per la logistica
 Cambia cosa si predice ed il calcolo dei coefficienti
 Cambia anche come valutare la bontà complessiva dell’equazione di regressione
Coefficienti
 I coefficienti sono espressi nella scala logaritmica [B] e nella scala dei rapporti di probabilità o odd
ratio [exp(B)]
 Al netto del numero bicchieri, l’odd degli italiani è 6,9 volte di quello degli inglesi, per ogni bicchiere
in più l’odd raddoppia
Esempio di RL multipla: Vogliamo predire se le persone preferiscono il vino (1) o la birra (0) in funzione
della loro nazionalità (Italiani, 1, vs. Inglesi, 0) tenendo sotto controllo la quantità (quanti bicchieri bevono
ogni giorno)
In anova confronti l’odd in più gruppi- non dici le medie sono differenti, ma l’odd medio è differente
B è il cambiamento predetto nella logit per un’unita di cambiamento nella VI, mantenendo costante (al
netto, parzializzando) l’altra VI
exp(B) è di quanto il OR di appartenere al gruppo 1 si moltiplica quando muoviamo la VI di 1 unità
Bontà dell’equazione complessiva
Abbiamo tre indici di bontà complessiva dell’equazione
Quasi equivalente alla R2 nella RLM
Per R2 NON ce proprio una varianza da spiegare essendo una variabile dicotomica, vi sono indice
pseudoR2che si interpretano allo stesso modo
Quanto il modello fitta i dati- bontà del modello
➔ Nagelkerke: 1) Più è grande, meglio è 2) Come Cox, ma raggiunge 1
➔ Likelihood ratio: 1) Più è grande, peggio è 2) Quanto della VD non è spiegato dopo avere
considerato le VI
➔ Cox & Snell: 1) Più è grande, meglio è (0<r<1) 2) Quanto la VI spiega la VD rispetto a quanto è
possibile spiegarla 3) Non raggiunge 1
Significatività complessiva
Possiamo testare la significatività complessiva della regressione con un test del Chi-quadro
Concettualmente equivalente al test F per la R2 in RLM
Predetto vs. Reale
56
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Dato che i valori predetti sono probabilità, le persone
possono essere classificati nei due gruppi (ad es., vino vs.
birra) secondo la probabilità predetta (ad es, dalla nazione,
Italia vs. Germania). Il gruppo “predetto” può essere
comparato con il gruppo reale. Più i due coincidono, meglio
la VI spiega la VD. È la tabella di classificazione- stima il
modello, sulla base dei valori modelli riclassifica i soggetti –
un modello è buono quando i valori predetti sono in linea
con i valori osservati
Se il modello perfetto la percentuale in basso è 100%,il minimo è 50%
Riassumendo
• La Regressione Logistica è una regressione con una VD binaria
• Si focalizza sulla probabilità di appartenenza al gruppo
• I coefficienti sono espressi in scala logaritmica (B) come Odd Ratio exp(B)
• Il exp(B) è la quantità per la quale OR viene moltiplicato quando muoviamo la VI di 1 unità
• La bontà dell’equazione complessiva è espressa con il likelihood ratio e delle approssimazioni di R2
(Cox & Snell, NagelKerke), con la classificazione nei gruppi predetti vs. reali, e la significatività con
un test Chi-Quadro
• La logica di fondo è come per la Regressione Lineare Multipla
• È comprensibile come un caso particolare di Modello Lineare Generalizzato
NB Nel riassunto sul libro c’è la spiegazione di tutti gli altri modelli che prevedevano VD qualitative
Esempio: esercitazione – esercizio 3 GALLUCCI- file sui topi RATS
Regressione logistica con variabile indipendente categorica, in questo caso dicotomica
- Regressione logistica- si può fare in analizza- regressione logistica binaria ( questa mi fa vedere
anche R^2
- Oppure in modelli lineari generalizzati (sempre sotto analizza)- flaggo logistica binaria
- Gallucci preferisci questa seconda via poiché ti permette di segnare la categoria di riferimento per
calcolare il rapporto di prob
Analizza- modelli lineari generalizzati
Regressione logistica binaria
RISPOSTA- V. DIPENDENTE
“sotto categoria di riferimento, sempre in risposta, premo “PRIMA”, Mi calcola come riferimento dunque la
categoria dicotomica della variabile indipendente 0
Procedo- metto la Vi in FATTORE, perché categorica
STATISTICA- includo stime esponenziali ( EXP- che mi mostra l’odd)
OUTPUT:
- TEST DEGLI EFFETTI: Equivalente al valore F. “ i due gruppi differiscono nella probabilità di uscire a
sinistra. Essendo categorica la VI, la probabilità è il valore atteso medio, dunque la media
- Gruppo 0 media 0.38
- Gruppo 1 media 0.89
- Il coefficiente B è la differenza fra il logit di 0 e 1 di uscire a sinistra
- expB =ODD gruppo 0 – probabilità gruppo 0/ 1- probabilità = 0.7→ la probabilità di uscire a sinistra
per il gruppo 0 ( che fa un training a destra) è 0.7 volte minore del gruppo 1.
57
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
IL MODELLO LINEARE MISTO.
Modello Lineare Generale- vantaggi
 Consente di stimare le relazioni fra due o più variabili
 Si applica ad una ampio spettro di tipi di dati
 Consente di stimare vari tipi di effetti
svantaggi
 Assume una struttura dei dati molto semplice
 Non consente di modellare una ampia serie di relazioni e dipendenza tra unità di misurazione
Es dipendenza fra i dati, es bambini in classe diverse la cui performance dipende anche dagli insegnati, è un
cluster che raggruppa i punteggi in maniera uniforme. Dobbiamo generalizzare il nostro modello
permettendo di studiare la relazione fra variabili anche quando i punteggi sono raggruppati in maniera
meno strutturata del disegno a misura ripetute. Trovare un modo per prendere in considerazione questa
struttura a cluster. Se pensiamo alla media (modello lineare più semplice)- in un modello del genere esiste
un solo valore del parametro nella popolazione. I punteggi osservati diversi dal predetto dal parametro
sono dovuti a variazioni casuali (errori)→ Le variazioni casuali sono indipendenti l'una dall'altra.
Le assunzioni vogliono che i punteggi residui siano fra loro indipendenti, un fattore più alto della media non
influenza l’andamento di un altro fattore. Ci sono casi però in cui questa assunzione sono violate- es analisi
della valutazione di un corso (i vari soggetti non si influenzano ma se considero tutte le classi la situazione
cambia). Di fronte a un modello come quelli che abbiamo visto per ora assumiamo che rappresenti in
termini statistici la popolazione di cui il nostro campione è un esempio, ma questi parametri noi li diamo
fissi nella popolazione, cioè quel parametro si applica a tutti allo stesso modo, quindi le variazioni sono
casuali- ovvero che i parametri siano fissi nella popolazione e descrivono tutti nella popolazione. Nel
modello lineare generale Il valore stimato della popolazione si definisce FISSO (fixed parameter).
Violazioni delle assunzioni Le ASSUNZIONI DI UNICITÀ DEGLI EFFETTI (EFFETTI FISSI) E INDIPENDENZA
DELLE MISURAZIONI (ERRORI INDIPENDENTI) NON SONO RISPETTATE IN TUTTI I SEGUENTI CASI:
- MISURAZIONI CORRELATE
DISEGNI A MISURE RIPETUTE
DISEGNI LONGITUDINALI
DATI CON STRUTTURE GERARCHICHE
DATI CON MISURAZIONI MULTI-LIVELLO
Si può ottenere un modello anova- regressione anche in casi con dati aventi una struttura clusterizzata
MODELLI LINEARI MISTI ( non confondere con l’anova mista)
- Non esiste un solo valore fisso che intendiamo stimare
- Le variazioni casuali non sono indipendenti l'una dall'altra
I modelli misti consentono di estendere il modello lineare generale in tutte quelle situazioni in cui le due
assunzioni fondamentali del GLM non sono rispettate
Estensione del GLM al modello misto
Esempio birre e sorrisi: Consideriamo il caso in cui abbiamo ampliato il nostro campione di “bevitori di
birra”, avendo raccolto ulteriori dati in diversi bar della città
Lo scatterplot mostra una distribuzione differente dall'esempio precedente-
58
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Questa analisi ignora completamente il fatto che i dati non sono stati
raccolti casualmente, ma presi in cluster, in gruppi appartenenti a livelli
diversi della variabile bar. Possibili spiegazioni: I risultati potrebbero
essere distorti (e ciò spiegherebbe il risultato inatteso) dal non aver
considerato la struttura dei dati
I dati infatti:
o
I soggetti sono stati campionati in diversi bar
o
Ogni bar potrebbe avere caretteristiche particolari (ambiente,
qualità della birra, etc) che condizionano la relazione tra le variabili
o I soggetti in ogni singolo bar potrebbero essere più simili tra loro di quando lo siano
soggetti in bar diversi
Se guardo i bar specifici, dati dal colore, sembra che essere in un bar piuttosto
che in un altro, possa influenzare i parametri della relazione. Le intercette nei
vari gruppi sono diverse, (valore atteso per x uguale a 0, punto in cui la retta
taglia l’asse delle y). In questo caso le rette sono tutte positivi, diverso da quello
che c’è venuto ignorando i bar (correlazione negativa). Inoltre in questo modo i
residui verranno calcolati come distanza nella loro retta e saranno fra loro
indipendenti. Risolviamo così l’effetto dei bar e dei residui – fittiamo i risultati e
li rendiamo più aderenti
Modello
➔ Sembrerebbe che considerando tutti i soggetti come equivalenti ed
indipendenti (assunzione della regressione) otteniamo un risultato distorto→ PARADOSSO DÌ
SIMPSON; un trend compare in un gruppo di dati ma scompare (o si inverte) quando si considerano
i dati combinati
➔ Se stimassimo un modello in cui la retta di regressione (intercetta e coefficiente B) sia diversa in
ogni gruppo, avremmo dei risultati più soddisfacenti OVVERO Se stimassimo un modello in cui la
retta di regressione (intercetta e coefficiente B) sia diversa in ogni gruppo, avremmo dei risultati
che tengono conto di questa possibilità
➔ I parametri del nostro modello (intercetta e coefficiente di regressione- 1 vi) possono variare da
cluster a cluster, vengono stimati come diversi da cluster a cluster
➔ In queste regressioni, sia l'intercetta che i coefficienti sono diversi (non fissi) nei vari gruppi- la
media non vale più per tutti. Non sono più fissi → coefficienti avranno una distribuzione rispetto ai
bar per i quali sono calcolati. IN STATISTICA CIÒ CHE NON È FISSO È RANDOM
➔ I coefficienti che cambiano sono definiti coefficienti RANDOM- random inteso come che varia, che
ha una varianza,
I coefficienti avranno una distribuzione random (cioè avranno una loro variabilità) Cioè, nella
popolazione esiste una variazione random dei coefficienti
Rappresentano una distribuzione di possibili coefficienti che variano da bar a bar ( in questo esempio)
Media dei Coefficiente Se i coefficienti sono delle variabili, avranno una loro media ed una loro varianza
Quale sarà la relazione generale fra birra e sorrisi? Servirà una media delle rette del grafico, calcoliamo la
media dei coefficienti dei vari bar per ottenere un effetto generale.--> La media dei coefficienti per bar
indica la relazione (media) tra birre e sorrisi in tutto il campione
La media (come visto prima) è un parametro fisso del modello che descrive la distribuzione dei coefficienti
nei cluster (bar)- la media è una
- Una regressione per cluster
- Ogni coefficiente è espresso come deviazione dalla media dei coefficienti
59
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
È UN MODELLO LINEARE MISTO perchè I modelli che contengono
coefficienti sia random che fissi sono definiti modelli misti (mixed
models). I coefficienti possono variare da cluster a cluster, per
questo sono definiti “random” l’effetto generale si calcola come
media dei coefficienti random, coefficiente fisso, e in un modello ch
stima entrambi si chiama modello fisso. I coefficienti random sono
deviazioni dalla media
Y: Il punteggio della VD (i sorrisi) di ogni soggetto in un dato cluster (bar) è influenzato da
- a = La media dei valori attesi di Y per x=0, Per x=0, in media quanto è grande y per x=0
- à = I valori attesi di y per x=0 in ogni cluster (bar), Per x=0, quanto devo aggiungere o sottrarre al
valore atteso medio per un cluster specifico
- b’ per xij = L'effetto specifico di x su y per il cluster j- In un dato cluster, quanto aumenta (o
diminuisce) l'effetto di x su y
- b per xij = L'effetto medio di x su y In media, quanto aumenta y per ogni unità in più di x
GLM come sottocaso La corrispondenza logica tra le varie tecniche inerenti al Modello Lineare Generale
con le tecniche inerenti ai Modelli Misti è data dal fatto che il GLM può essere pensato come sottocaso dei
MM. Ovvero se non vi sono coefficienti random, non ci sono variazioni, ci
troviamo nel modello lineare generale, il modello misto lo generalizza, ha
gli stessi effetti a cui sia aggiungono la possibilità di aumentare o diminuire
questi effetti in funzione dell’appartenenza al cluster
Il modello misto allarga il GLM perchè consente agli effetti di variare da
cluster a cluster – effetti random “con una variabilità)
Modelli Misti
In sostanza, i modelli misti consentono di stimare gli effetti di VI su una
VD, consentendo a tali effetti di variare in diverse unità di misurazione
(cluster). Gli effetti che variano sono detti effetti random. Gli effetti che
non variano (cioè gli effetti medi uguali per tutto il campione) sono detti
effetti fissi. Per stimare correttamente un modello misto, si deve
semplicemente capire quale siano gli effetti random, e per quali unità
variano (quali sono i cluster)
Una volta stimato il modello, gli effetti fissi si interpretano esattamente
come nel GLM (regressione/anova etc). Gli effetti random generalmente
non si interpretano, ma se ne può studiare la variabilità. La definizione
corretta del modello, consente di ottenere stime e errori standard (e
dunque test inferenziali) corretti. Noi dobbiamo usarlo quando i dati sono
clusterizzati. Nel modello fisso guardiamo ciò che facciamo nel MGL,
l’interpretazione è la stessa. Se la varianza degli effetti è 0, i coefficienti
non sono random, e indipendentemente dal bar, l’effetto è sempre lo
stesso. Birre al Bar Definiamo un modello dove le intercette e i coefficienti
di regressione possono variare nei diversi bar.
Dobbiamo porci delle domande:
1. Quali sono gli effetti fissi? INTERCETTA E EFFETTO DI BIRRE – effetti a cui noi siamo interessati,t utti
quegli effetti di cui vogliamo il risultato
2. Quali sono gli effetti random? INTERCETTA ED EFFETTO DI BIRRE – qualunque effetto che può variare
da cluster a cluster, che possono essere calcolati dentro ogni cluster
60
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
3. Quali sono i cluster su cui variano gli effetti random? Bar- una variabile cluster è una variabile che
definisce un campione di gruppi, un certo numero di gruppi che rappresentano una selezione di una
più ampia gamma di gruppi
RIASSUMENDO Settiamo il modello e vediamo quale è la variabile cluster, quali sono gli effetti random e
quali sono gli effetti fissi
Quindi tutto quello che noi sappiamo sul modello lineare generale lo facciamo allo stesso modo
nell’interpretazione sugli effetti fissi
Qualsiasi cosa mi si chiede indipendentemente dai cluster interpreto i fattori fissi normalmente, ma per
ottenerli nella maniera corretta devo considerare la struttura dei dati (stretta e lunga).
Vari autori e libri definiscono questo modello: Random-coefficients regression Altri come Intercepts- and
Slopes-as-outcomes model-noi la chiamiamo → REGRESSIONE MISTA
SPSS- MODELLI MISTI IN ANALIZZA
1. Lineare
2. Variabile cluster: SUBJECTS- CONTINUA
3.STESSA interfaccia VI E VD dipendenti nella regressione le VI LE
METTO IN covariate, nella anova in fattori
4.Clicco RANDOM- Trascino
EFFETTI RANDOM
QUI sotto tipo di covarianza vedi “ NON strutturato- unstructured”Possiamo tenere questo se ho una intercetta, oppure 1 intercetta (
che devon sempre flaggare) e 1 un effetto random. Se invece ho più
variabili da mettere random ( es se soltre a beer avevo un'altra come
vino) è meglio usare il primo comando ( analisi della covarianza
generale) perché altrimenti viene troppo complesso.
Output spss
In primo luogo riceviamo la definizione del modello dato in
input
61
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Negli effetti random dobbiamo guardare che siano diversi da 0, per
vedere che abbiamo fatto bene a usare il modello mistol’intercetta deve essere diversa da 0
Stime dei parametri di covarianza: se l’effetto random dell’intercetta
non è significativo, la media della y da cluster a cluster non varia in
modo sig. All’aumentare di una unità di birra si ride circa 5.37 di più
(INTERCETTA)- l’effetto è significativo quindi dico che c’è l’effetto
Birre: Per ogni birra in più ci attendiamo 0.64 sorrisi
PUNTI NOTEVOLI
1) Notiamo come in questo modello abbiamo tre stime relative alle varianze degli effetti random
2) Notiamo che la varianza dei b non è significativa(2.1 p>.05, 2.2 p>.05)
NB se i coefficienti random (ESTIMATE) vengono 0 c’è un punto – la significatività non la guardo ( un2.2
diverso da 0)
RIASSUMENDO- x gallucci basta che guardiamo il valore sotto ESTIMATE. Se è empiricamente diverso da 0
ho fatto bene a fare il modello misto, se è anche significativo ancora meglio.
1.1intercetta varia significativamente, dunque le rette per x=0 danno un numero di sorrisi diverso nei bar
2.1intercetta/random
2.2varianza coefficiente random. È diverso da 0.vuol dire che un pò di differenza cè nell’effetto della birra
sui sorrisi nei vari bar, ma questa differenza non è significativa. Si potrebbe dunque togliere però va bene
considerarla in quanto tale
62
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Varianze La varianza degli effetti random ci indica quanta variabilità c'è tra i cluster nell'effetto
Se non significativa, l'effetto random può essere tolto (con cautela, vedi oltre nel corso, RIASSUNTI
LIBRO).
Se è zero (esattamente), l'effetto random deve essere tolto dal modello
Covarianze La covarianza tra gli effetti random ci indica la relazione tra i coefficienti tra i cluster
✓ Esempio di modello con covarianza tra a e b positiva → Più è alta la costante, più è forte l'effetto
di x
✓ Esempio di modello con covarianza tra a e b negativa → Più è alta la costante, meno è forte
l'effetto di x
ESERCITAZIONE CAP.9 MODELLI MISTI DATI IN TERAPEUTIC.SAV
Una ricerca è volta a valutare l’efficacia di due
approcci terapeutici (che chiameremo approccio A
e B) nel recupero di pazienti con diagnosi di
disturbo di sostanze. I pazienti sono reclutati in
comunità di recupero differenti, ognuna gestita da
un terapeuta appartenente ad uno dei due
approcci (o A o B). I pazienti di una comunità
condividono lo stesso terapeuta. In ogni comunità sono presenti sia pazienti con diagnosi di dipendenza da
droghe pesanti che pazienti con abuso di alcol. Ad ogni paziente `e stato somministrato un questionario che
misura la resilienza (capacità di adattarsi a situazioni avverse) e l’outcome terapeutica, cioè una misura
(continua) di miglioramento delle condizioni psicologiche del paziente. Lo scopo della ricerca `e di studiare
gli effetti dell’approccio terapeutico, della resilienza e del tipo di disturbo del soggetto sull’outcome della
terapia.
Indipendenti- sono sia continue ( resilienza- basta su questionario) sia categoriche ( diagnosi e approccio)
Dipendenti: outcome continua
1. Stabilire quante comunità sono presenti nel campione, quanti pazienti vi sono
approssimativamente in ogni comunità, e la distribuzione approssimativa delle diagnosi dentro le
comunità
Domanda particolare, è un disegno complesso, è una domanda volta a far ragionare sulla struttura dei dati
QUANTE SONO LE COMUNITÀ- variabile center, variabile nominale per cui ogni comunità ha un numero
diverso
Facciamo le frequenze della variabile center e vediamo quanti sono i valori e le persone dentro
Analizza- frequenze- center
45 comunità
673 pazienti raggruppati in cluster definiti dalla variabile center- approssimativamente 15 pazienti
per comunità
63
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
distribuzione delle diagnosi : tabella di contingenza – tabelle di frequenza dove si incrociano piu
variabili.
analizza- descrittive- tabelle di contingenza- RIGHE: Variabile con piu valori.- center, COLONNEdiagnosi- chiedo le percentuali in CELLE- percentuali per riga cosi mi dice le proporzioni di
DIAGNOSI per ogni comunità ( cluster di center)
ad occhio approssimativamente vedo come in ogni comunità sono presenti entrambe le diagnosi
con una distruzione circa di 50-50
2. Determinare l’effetto di resilienza sull’outcome
Con dati non clusterizzati faremo una regressione semplice, ma non è questo il caso e serve il modello
misto. Serve una regressione modello misto
Prima domanda- quale è la variabile cluster? CENTER
Quali sono le variabili random?
Quali gli effetti fissi? Che alla fine sono effetti medi sui cluster ( se non c’è variabilità è uguale per tutti,
altrimenti è la media)
Nb una variabile può essere sia fissa che random, tanto che gli effetti random sono anche fissi
ANALIZZA modello misto –lineare
SOGGETTI (variabile cluster)→ CENTER – PREMO CONTINUA
VARIABILE DIPENDENTE- OUTCOME
Covariate: RESILIENCE (qui perchè è una variabile continua e facciamo una regressione)
Quali sono gli effetti fissi?? PREMIAMO FISSO
- includi intercetta flaggato- mettiamo la variabile RESILIENCE fissa nel modello ( ovvero calcoli l’effetto
medio )
EFFETTO RANDOM?? Premiamo casuale- PRIMA mettiamo l’intercetta – includi intercetta in alto
• metto resilienza e specifico in “ raggruppamento di soggetti” che varia in CENTER- metto center in
combinazioni
vado in statistiche - il coefficiente di regressione non c’è di default- chiedo “ stime dei parametri”
64
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
continua _ ok
OUTPUT
Prima tabella riassunto del modello
Criteri di informazione non li guardiamo
Stime dei parametri di covarianza: Stime dei parametri di covarianza: DOBBIAMO STABILIRE SE C’è
VARIABILITÀ NEGLI EFFETTI RANDOM.
DEVO GUARDUARE prima questi per capire
se ho fatto bene a utilizzare un modello
MM. Se c’è variabilità abbiamo fatto bene
C’è variabilità nelle variabili random? Se si
abbiamo fatto bene a metterli come effetti
random- e vuol dire che fra cluster e cluster
c’è variabilità. l’intercetta ha una varianza
diversa da 0, cosi come la RESILIENZA (
Estimate, coefficiente B), questi gruppi
hanno un outcome media differente, c’è
una variabilità nel livello medio di outcome
fra comunità e comunità. L’intercettaè il proxit della media. Fra cluster e cluster cambia l’effetto,
l’importanza della resilienza, ovvero fra cluster e cluster cambia l’importanza della resilienza)- appartenere
a una comunità cambia l’effetto della resilienza sull’outcome
Questi valori vanno riportati, chi legge deve sapere che questi coefficienti variano da cluster e cluster, e
soprattutto giustificano il modello misto. Se non c’è variabilità non è necessario il MM
STIME DEGLI EFFETTI FISSI
Coefficiente B ( resilienza) effetto medio di resilienza - in media ALL’aumentare della resilienza aumenta
l’outcome, effetto positivo , significativo
Intercetta: coefficiente A
Per avere delle unità di misura piu precise si potrebbe standardizzare- es standardizzare tutto il
campione, dando la stessa scala
65
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
ANALIZZA- DESCRITTIVE- mettiamo outcome e resilienza—salva valori standardizzati come variabili
ZRESILIENZA ZOUTCOME
LA interpreto come una deviazione standard in più e in meno ( come unità) calcolata sul campione totale
Rifaccio il modello ma usando le variabili standardizzate
Stime dei parametri: la sostanza non cambia
Effetti fissi: guardo in stima il coefficiente B di resilienza- all’aumentare di una deviazione standard di
resilienza in media l’outcome migliora di .46 deviazione standard
3. Determinare i possibili effetti di diagnosi e approccio sull’outcome
Anova modello misto
È un 2x2 → Analizza- modello misto lineare
Cluster sempre center
Vd outcome
FATTORI: variabili categoriche – diagnosi e approccio
PREMO FISSI: le metto dentro (con fattoriale) mi fa effetti principali e
interazione (seleziono entrambe)
RANDOM- CASUALE- mettiamo sempre l’intercetta (mettiamo center sotto)
Ragioniamo: quali di questi due effetti possono essere random (tutti quei effetti che possono essere
calcolati dentro ogni cluster) – abbiamo visto che dentro ogni cluster l’approccio è solo 1 mentre la diagnosi
varia circa 50-50 ( lo abbiamo visto in frequenza)- quindi DIAGNOSI può essere un effetto random .
L’APPROCCIO non è random perché non varia nel cluster. O sei A o B IN TUTTA LA COMUNITÀ
Il grafico lo devo chiedere dopo a parte se vedo degli effetti, per capire come interpretarli
OUTPUT
C’è VARIANZA all’intero di diagnosi – la differenza fra alcool e droga rispetto all’outcome varia da
comunità a comunità– intercetta diversa da 0 - ho fatto bene a fare il modello misto
Non guardo il sig, ma estimate! I coefficienti devono essere diversi da 0.
TABELLA DEGLI EFFETTI FISSI- si legge
esattamente come se fosse una anova – nel
modello misto i calcoli sul grado di libertà è
più complesso, dobbiamo sempre riportarli
senza problemi ( gl numeratore 1 gl
denominatore 43 --- nel modello misto il
calcolo è più complesso e genera numero
non interi, dobbiamo cmq riportarli- la base
di calcolo sono il n. delle comunità) →
66
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
estrae tutta l’ informazione dei cluster e usa i cluster per fare i test- serve quindi almeno un 20 cluster (
comunità) e un 10-15 persone x cluster, altrimenti il campione è troppo piccolo.
In media rispetto ai cluster c’è un effetto principale di diagnosi e di approccio e una interazione. La
interpretiamo come una normale anova
Guardiamo i valori delle medie, il grafico delle medie che incrocia diagnosi con approccio
GRAFICI-FINESTRE LEGACY- LINEE – grafico multiplo- DEFINISCI –
Asse categorie→ x approccio
Definisci linee: diagnosi
Dobbiamo dire che le linee rappresentano le
medie di outcome- premo altre statistiche e
butto dentro in VARIABILE- mean ( outcome)
Interpretazione grafico: L’EFFETTO principale di
approch - si vede che chi ha fatto quello b sta
meglio di quello a, particolarmente pronunciato
per gli alcolisti rispetto ai drogati, in generale gli
alcolisti stanno meglio dei drogati
4. Determinare i possibili effetti di diagnosi e approccio sull’outcome al netto della resilienza
Ancova modello misto
Stessa analisi di prima , ma devo considerare gli effetti al netto di resilienza ( variabile continua che metto
in covariate)
Modello misto- impostazione vI categoriali come prima
- Metto resilience in covariate
- In effetto fisso: aggiungiamo l’effetto di resilienza che dobbiamo tenerlo costante
Casuale- random : dobbiamo mettere
resilienza ( perché può variare fra soggetti)
Stime dei parametri di covarianza_ varianza di
intercetta diversa da 0, di diagnosi anche, di
resilienza anche ( DEVO SEMPRE GUARDARLEdevo sempre considerarle perché magari al netto di
resilienza la diagnosi poteva non essere più random
ecc)
ANALISI DELLA COVARIANZA: effetto di diagnosi significativo,
approccio non significativo, significativa la resilienza e
significativo l’interazione. Al netto di resilienza osservo un
effetto significativo di diagnosi e dell’interazione diagnosi e
approccia, mentre scompare l’effetto di approccio – se tengo
costante la resilienza questo effetto scompare
Perché scompare??
forse la resistenza è un mediatore
Alcune analisi aggiuntive: Analisi della mediazione : uso cmq il
modello misto –
2 regressioni:
1) ANALIZZA modello misto lineare – lo faccio solo con approccio – ( ricordando che non è un effetto
random) – solo approccio c’è effetto significativo ( effetto totale -2.97)
67
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
2) L’approccio ha un effetto sulla resilienza-sempre tutto uguale, cambio la VD METTO resilienza – non
è significativo – non rispetto le condizioni della mediazione- l’ipotesi di mediazione non funziona
Provo la moderazione- aggiungo l’interazione:
outcome come dipendente, covariata zresileinza- le aggiungo ad approach
l’interazione non è significativo, dunque non c’è moderazione
CONCLUDENDO quindi semplicemente la differenza di approccio ha un effetto sull’outcome influenzato
però dalla resilienza e se tolgo la resilienza l’effetto di approccio non risulta più statisticamente significativo
l’interazione fra diagnosi e approccio – gli effetti medi di approccio si riducono se tiene costante gli effetti
di diagnosi e resilienza – se non tieni costante DIAGNOSI ,’effetto di approccio rimane significativo.
L’approccio si differenzia se le persone hanno diverse diagnosi e diversa resilienza. l’approccio funziona solo
se c’è diversa resilienza e diagnosi. In una comunità a pari diagnosi e resilienza le differenze di approccio
non sono statisticamente significative.
non abbiamo visto il grafico della interazione al netto di resilienza- potevamo fare il grafico e chiedere i
punteggi predetti
LO STUDIO DEL MODELLO DI MISURA- cap11
Operazione di misurazione: La misurazione diretta (esplicita) ed indiretta (implicita)- fra un costrutto e la
teoria psicometrica
- Valutazione della bontà delle misurazioni
Costrutto- quantità latente che vogliamo misurare, latente (anche qualità latente) perchè la maggior parte
dei costrutti psicologici non è manifesta, vi sono indici esterni ecc
Noi assumiamo che il costrutto vari fra persone, in quantità o qualità ecc
La misurazione è l’insieme delle operazioni che facciamo per assegnare un numero al soggetto in funzione
del costrutto che vogliamo misurare. legare un numero alla quantità di costrutto presente in quella persona
La misurazione diretta (esplicita)
Per misurazione diretta (esplicita) si intende una misurazione di un costrutto che si basa su delle risposte
con una componente sostanziale di deliberazione, riflessione, elaborazione, descrizione, ecc. Tipicamente
sono basate su una serie di domande alle quali la persona deve rispondere (items) – attingiamo
direttamente al soggetto che pensa consapevolmente a quale numero sia migliore per rappresentare il
costrutto rispetto a lui
Il costrutto può essere esplicito- accessibile coscientemente (o implicito) mentre la misurazione diretta (o
indiretta). Nella prassi, si usa spesso il termine misurazione esplicita anche se non è il termine migliore
Es item, presenti in batterie, scale- domande a cui il soggetto risponde usando una scala numerica
Operazione di misurazione
Si cerca di estrapolare un valore numerico che rifletta in una qualche misura quantitativa il costrutto
psicologico che si vuole misurare. Il legame tra misura e costrutto sarà influenzato dai processi che
accadono nelle persone quando si misurano le loro risposte. Le risposte che otteniamo rifletteranno sia il
costrutto psicologico che le modalità specifiche di risposta delle persone
Alcune cose possono influenzare la risposta all’item oltre il costrutti
➔ Metrica assoluta vs relativa
• Michele e Henk sono entrambi alti 1.80m
• Michele vive in Sicilia (altezza media≈1.74), Henk nell’Olanda del Nord (altezza media≈1.86)
• Gli chiediamo di rispondere alla domanda “Penso di essere alto” su una scala da 0 (per nulla) a
10 (assolutamente)
• Michele probabilmente risponderà più verso il 10 mentre Henk risponderà più verso lo 0
68
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
•
Il punteggio (metrica) rifletterà la loro valutazione della domanda (parte della operazione di
misurazione) e NON direttamente il costrutto
La misura dunque propone un confronto equo? La domanda fatta è recuperabile?? Desiderabilità sociale,
va sempre considerata
Una teoria della risposta a questionari
Il compito di rispondere ad una domanda può essere diviso in cinque passi 1. Comprensione della
domanda 2. Recupero dalla memoria del comportamento rilevante alla domanda 3. Utilizzo di inferenze e
strategie per rispondere 4. Trasformazione della risposta nel formato di risposta a disposizione 5.
“Aggiustamento” della risposta (desiderabilità sociale, auto-presentazione
Effetto dell’ordine delle domande La risposta alle domande può essere influenzata dall’ordine nel quale
esse sono presentate. Se viene chiesto prima quanto si è soddisfatti della vita in generale e poi quanto si
esce per appuntamenti “romantici/relazionali” (dating frequency), la correlazione è bassa (-.12). Se l’ordine
è l’inverso, la correlazione è alta (.66) – per controbilanciare il problema dell’ordine bisognerebbe
randomizzare
Effetto del formato di risposta Se viene chiesto quanto si ha avuto successo nella vita, i risultati sono
diversi se si usa una scala da 0 a 10 o da -5 a +5. Scala da 0 a 10: media = 6.4 (+1.4 dal punto medio=5),
Scala da -5 a +5: media = 2.3 (+2.3 dal punto medio=0)
Usare una scala da -5 a +5 aumenta il successo nella vita
Effetto del gruppo di riferimento (Group reference effect) La risposta alle domande può essere influenzata
dall’utilizzo di gruppi di riferimento implicito
“Di solito, sono una persona che prende l’iniziativa” (da 0=per nulla a 10=assolutamente)
“Una persona” rispetto ad un gruppo di confronto
Difficoltà per ricerche cross-culturali e cross-gruppi
Assunzioni “nascoste”
Quando usiamo uno strumento di misura che si basa su delle risposte autovalutative (o comunque
“opinioni personali”) stiamo assumendo almeno due cose
1. Le persone sono in grado di riferire accuramente le loro opinioni o i loro comportamenti (introspezione
accurata)
2. Le persone sono disposte a fornire risposte anche quando sono socialmente indesiderabili
(impermeabilità alla desiderabilità sociale)
Introspezione accurata
Le persone non sono troppo accurate nel valutare le proprie motivazioni, cause delle proprie opinioni,
ricordare i propri comportamenti, ecc. Un esempio classico (Ross e Nisbett, 1977) Scelta tra quattro paia di
calzini – posti da destra a sinistra Effetto di ordine: i calzini sulla destra sono scelti 4 volte più
frequentemente di quelli a sinistra I partecipanti citano varie ragioni per le loro scelte (ad es., colore,
disegno, materiale), ma NON la loro posizione – eppure statisticamente è la variabile più importante di
influenza sulla scelta
Impermeabilità alla desiderabilità sociale
I questionari non sono impermeabili alle influenze della desiderabilità sociale Immaginate un questionario
sulla pedofilia che abbia domande come “I bambini mi eccitano sessualmente”- Quanto è probabile che un
potenziale pedofilo risponda “certamente si”?? Esempio una domanda del tipo “Sono una persona onesta”
Giovanni è disonesto e Sara è onesta. Entrambi risponderanno che sono onesti – per definizione, Giovanni è
disonesto e quindi risponderà che è onesto
Limiti delle misure “esplicite”
 Una misura esplicita ha perciò dei limiti inerenti
69
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
 Inoltre risente di tutta una serie di fattori di distorsione (operazioni di misurazione) del legame tra
punteggio e costrutto
 Il punteggio che otterremo sarà inevitabilmente una misura imperfetta del costrutto – l’errore di
misura è inevitabile (ma si può cercare di ridurlo)
 Ogni metodo di misurazione ha pro e contro – non esiste un metodo “ideale” ma metodi diversi
hanno vantaggi e svantaggi

Il vantaggio di un questionario è che è di facile
somministrazione e, se ben fatto, ha comunque un certo
grado di validità

La validità la si dimostra empiricamente (vedi
prossima lezione)
IL MODELLO DI MISURA - ATTENDIBILITÀ E CONGRUENZA DELLE MISURE
Proprietà psicometriche: PRELUDIO La maggior parte delle ricerche empiriche in ambito psicologico
condividono le seguenti caratteristiche
Data un'ipotesi (o una serie di ipotesi) viene formulato un disegno di ricerca
Pianificato una set di misurazioni per i costrutti rilevanti
Studiate le relazioni tra costrutti
Determinazione nei gruppi o tempi ( obesi- anoressici)
→ definizione e individuazione dei costrutti ( fattori di personalità, tratti)
→ relazione fra costrutti ( differenze dei fattori di Personalità)
Ogni costrutto ha bisogno di una misura, tuttavia non sempre funzionano
Modello di misurazione: dobbiamo stimare come le nostre misure funzionano nel campione e conoscere le
proprietà delle misure
- Stabilire le proprietà psicometriche delle nostre misure
- Stabilire se il le misure selezionate abbiano “retto” nel nostro campione
- Nelle ricerche più sofisticate, stabilire se le nostre misure abbiano la struttura dimensionale e la
coerenza attesa sulla base della letteratura
Validità e attendibilità:
L'ATTENDIBILITÀ → la misura cattura coerentemente un costrutto- ovvero ha a che fare con la coerenza
interna della misura
LA VALIDITÀ → la misura cattura effettivamente il costrutto atteso, misura ciò che noi intendiamo misurare
(la scala di metacognizione misura la metacognizione)
Escludendo gli studi di validità, la maggior parte degli studi empirici di cui trattiamo si preoccupa
dell'attendibilità, ed assume (sulla base della letteratura) la validità
Quanto la mia misura es di estroversione realmente varia per la diversa estroversione- parte vi varianza
legata al costrutto che vogliamo misurare- COSTRUTTO MISURATO
COSTRUTTO INTERVENIENTE- una caratteristiche delle persone che influenza con il punteggio ma non ha a
che fare con il costrutto misurato, oppure non è quello che vogliamo misurare ma ci correla
E- variabilità casuale – in ogni forma di misurazione c’è sempre una componente casuale, e non è una
variabilità sistematica
La variabile sistematica può essere divisa quindi in costrutto misurato e variabili intervenienti
La validità attiene alla corrispondenza tra misura e costrutto misurato, a grande rispetto a b70
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
la proporzione di varianza che la misura ha dovuta al costrutto che vogliamo misurare e non ad altri
costrutti- ne consegue che la nostra misura misura quel che intende misurare
L’attendibilità attiene alla riproducibilità e coerenza dei punteggi di una misura (a grande rispetto a e)
Proporzione fra variabile sistematica e quella casuale, una misura è attendibile se misura sempre la stessa
cosa, nelle misure e nei tempi
Studio di validità bisogna apposta fare studi empirici per dimostrare che la misura è valida
Mentre per l’attendibilità, dovrebbe essere accertata in ogni studio in cui la misura viene usata
Una misura potrebbe essere valida ma non attendibile → Accettare l’attendibilità equivale vedere quanta
variabilità sistematica c’è rispetto a quella casuale
Il concetto di buona misura
Una buona misura avrà una componente sistematica grande rispetto a quella casuale
(A parte i dettagli) Tutte le forme di studio della bontà della misura insistono sul concetto di componente
“sistematica” e componente “casuale” del dato osservato
Quanto è buona la mia misura del costrutto X? → Quanto è risultata attendibile la mia misura?
- Tipo di raters- self report vs raters esterno
- Tipo di scala- variabili continue vs ordinali vs categoriali vs assenza/presenza
- Dimensionalità: un costrutto vs costrutto multidimensionale
Il concetto di buona misura
Le differenze tra le varie tecniche di assessment della bontà di una misura risiede nel tipo di informazione
da trattare (e.g. un valore numeriche vs una categoria) e dalla definizione di componente sistematica
La componente sistematica → A volte detta la componente “vera” della misura→ Se la misura è
attendibile, differenti forme di misura convergeranno nella componente sistematica e non in quella casuale
➔ In generale, differenti fonti di informazione relative al costrutto misurato dovrebbero convergere
nell'indicare la quantità/qualità del costrutto per il caso sotto osservazione
➔ Convergenza di informazioni_ In buona sostanza, tutte le tecniche di rilevazione della bontà di una
misura condividono la stessa logica: Il tratto misurato emerge dalla convergenza tra “fonti” diverse
di misurazione dello stesso costrutto
Es raters
- Congruenza tra raters
Assumiamo che due raters valutino N pazienti relativamente alla presenza di un comportamento
(aggressivo
- Incrociando i giudizi otteniamo una tabella di valutazione
Quale sarà l'informazione a disposizione?
L'informazione rilevante sarà data data dalla combinazione di giudizi uguali (aggressivo –
aggressivo, non aggressivo-non aggressivo)
- Piu sono congruenti piu diranno la stessa cosa, ( congruenza =somma delle volte che sono in
accordo/ il totale)
- Congruenza Causale Tabella frequenze attese: Se i raters fossero completamenti indipendenti
(guidati dal caso) le frequenze nelle celle dipenderebbero solo dalle frequenze marginali→ La
congruenza dovuta al caso è data dalla somma delle proprozioni delle celle congruenti nella tabella
delle frequenze attese
- Convergenza- La congruenza dipenderà da quanto i rater convergono rispetto a quello che farebbe
il caso
K-COHEN – ci dice l’attendibilità delle nostre classificazioni, è la congruenza osservata dei nostri rater
rispetto alla congruenza a caso, quanto in proporzione da 0-1 fanno meglio del caso 0→ vanno
perfettamente a caso, 1 sono perfettamente congruenti
71
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Caratteristiche
Si adatta alle valutazioni nominali
- Richiede punteggi >.80 (generalmente accettato come buono)- possiamo usare un rater come
classificatore – se non sono congruenti si possono rifare la classificazioni, si cerca di fare risolvere i casi
di incongruenza – quando non possibile farlo dobbiamo considerare che i risultati possano essere
influenzati negativamente dalla bassa attendibilità, se fosse 0 la misura non va bene – in generare le
misure valide ma poco attendibili spesso si ottengono risultati non significativi e per colpa della poca
attendibilità perdo valore statistica perchè c’è tanta varianza casuale e l’errore aumenta. Quando invece
la misura non è valida può saltare fuori di tutto
- Dipende dal numero di categorie. Maggiore è il numero di categorie, più basso può essere il punteggio
- Non cattura congruenze sfalsate (tutte le volte che Rater 1 dice A, rater 2 dice B)
- È indifferente all'ordine
Esempio SPSS – 30 pazienti giudicati da due raters
- Descrittive
- Tabelle di contingenza
- Metto le variabili
- Statistics- kappa
- Mai guardare la p nella tabella dei k di cohen , non va guardata la significatività
Repetita iuvant!
Se abbiamo più di due raters, possiamo usare il K di Fleiss→ Dove la congruenza (probabilità di uguale
risposta) viene sostituita dalla congruenza media fra raters. Si interpreta come la K di cohen
ESEMPIO 2 – RATER e classificazione continua – ( scala likert 1-7)
- La componente sistematica_ La componente sistematica sarà data dalla correlazione (o varianza
condivisa) dei punteggi dati due raters
La componente di errore è data dalla varianza non condivisa
Coefficiente di correlazione-intraclasse: Il coefficiente indica quanta variabilità dei punteggi è dovuta a
differenze effettive tra soggetti (cioè riscontrate da tutti i raters) rispetto alle differenze tra i ratersvarianza condivisa dai punteggi dei raters diviso la varianza totale
Varia da 0 a 1, più è alt migliore è
Cattura congruenze sfalsate (se rater 1 attribuisce
sistemativamente un punteggio minore del rater 2, i raters risulteranno
convergenti)
Si applica anche quando si hanno più di due raters
Si giudica buono tendenzialmente quando è >.70
Caratteristiche
- Si adatta alle valutazioni quantitative
- Cattura congruenze sfalsate (se rater 1 attribuisce sistemativamente un punteggio minore del rater
2, i raters risulteranno convergenti)
- Si applica anche quando si hanno più di due raters
TERZO CASO
- Scala di valutazione di caratteristiche continue (intensità di un tratto, items su scala Likert )
Self-report (questionari classici
- Se due item misurano lo stesso costrutto, i due item saranno correlati
Dunque condivideranno varianza
72
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Correlazione Pearson
- Data lE varianze Vitem degli items
- Che equivale a dire: componente sistematica (comune) diviso informazione massima ottenibile
Caratteristiche
Sebbene scale da due items siano rare, la correlazione di Pearson viene usata come indice di attendibilità in
varie situazioni:
• Test-retest di una scala ( misurare una scala prima – dopo, i due punteggi dovrebbero correlare)
• Split-half reliability (divido il test in due parti e le correlo)
• Attendibilità di misure non parcellizzate in items (ad esempio tempi di reazione, etc)
➔ Se abbiamo una serie di items (che misurano lo stesso costrutto), considereremo la varianza
condivisa dagli items
Indice di attendibilità: alpha di cronbach
Dice quanto una scala/questionario è attendibile, congruente e si
basa sulla media delle correlazioni, calcola tutte le correlazioni fra
item e calcola la media
È la media delle correlazioni scalata al numero di item, varia da 0
a 1 e la consideriamo buona superiore a .70, ma diremo che se gli
item sono minori di 5 si tende a essere un po piu liberali ( 65), dai
5 ai 10 item è 70, sopra i 10 item il cut off si alza perché piu item si
hanno piu alta deve essere l’alpha
È l'indice di coerenza interna più usato
Assume che le variabili siano tutte orientate nella stessa
direzione- dobbiamo girare gli item tutte nelle stesse direzioni
non possono esserci variabili girate al contrario, la prima cosa è
ricodificare le variabili e farle andare tutte nella stessa direzione
• Se gli item non hanno tutti correlazioni positive, gli item con correlazioni negative con gli altri vanno
moltiplicati per -1 prima di calcolare l'alpha di Cronbach
Può essere calcolato anche su variabili dicotomiche
ESEMPIO SPSS
- SCALA
- Reliability analysis ( analisi affidabilità in spss italiano ) la traduzione sarebbe attendibilità- la
usiamo ogni volta che si analizza l’attendibilità di una scala
- Inserisco gli item- model alpha
- Posso chiedere iCC- intraclass correlation coefficient
VALIDITÀ: Per quanto riguarda la validità di una misura, esistono vari metodi per stabilirla. Questi metodi
definiscono diversi tipologie di validità ( PIU DAL PUNTO DÌ VISTA TEORICO, assumiamo la validità della
misura che facciamo)
Varie proprietà per valutare la validità, per capire che sia valida si va a vedere se ha una o piu forme di
validità
Contenuto (≈ interna)
Criterio (≈ esterna)
Costrutto (≈ nomologica
73
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Validità di contenuto – modo in cui la misura è fatta
1.Riguarda il disegno della misura
2.Qualità del paradigma di misura (operazioni di
misurazione)
3.Punto cruciale: massimizzare la variazione nei punteggi
dovuta al costrutto rispetto a quella dovuta a fattori
teoricamente irrelevanti (costrutti intervenienti
Validità di criterio
Si focalizza sulla capacità della misura di predire comportamenti o processi (criteri) associati al
costrutto
Concorrente: Misura e criterio sono misurati allo stesso tempo
Predittiva: La misura è ottenuta prima del criterio
I criteri sono stabiliti teoricamente come conseguenze rilevanti che devono essere predette dalla
misura (ad es., scala di depressione e benessere soggettivo)
- Predittori e criteri NON sono proprietà intrinseche delle variabili
Si verifica tramite modelli di regressione
Correlazione tra VI (predittore) e VD (criterio) o regressione lineare semplice
Quando abbiamo più predittori simultaneamente usiamo la regressione multipla
Validità incrementale: La capacità predittiva unica di una VI (al netto delle altre VI, coefficienti
parziali
Validità di costrutto
Attiene alla dimostrazione che il costrutto misurato è effettivamente quello inteso e non un altro
costrutti
- Si esamina mediante la correlazione con altre misure
Validità convergente: la nostra misura dovrà mostrare correlazioni alte con misure alternative del
costrutto
Validità discriminante: la nostra misura dovrà mostrare correlazioni
L’attendibilità e considerata la base della validità: una misurazione,
per essere valida, deve essere anche attendibile. Si dice anche la
l’attendibilità e il limite massimo della validità: una misurazione non
può essere valida più di quanto sia attendibile. Ma attenzione: una
misurazione può essere attendibile senza per questo essere
necessariamente anche valida.
-
ESERCITAZONE esercizio cap.11
In una ricerca 90 pazienti neurologici con lesione laterale destra e presenza di neglect sono stati osservati da
due sperimentatori-osservatori durante le loro attività quotidiane e categorizzati in neglect evidente e
neglect non evidente sulla base della presenza di segni evidenti di negligenza spaziale durante le loro attività
quotidiane. Ai pazienti sono stati somministrati anche 6 item self-report riguardo le loro difficoltà percepita
nello svolgere attività quotidiane. Gli item descrivevano ciascuno una attività, ed erano intesi come misure
parallele del costrutto “difficoltà quotidiane”. Il soggetto rispondeva, per ogni item, su una scala da 1 (per
74
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
nulla) a 7 (moltissimo). Gli item sono stati successivamente standardizzati. Gli item erano: 1. mangiare
autonomamente 2. lavarsi e prendersi cura del proprio corpo 3. fare delle passeggiate e uscite ricreative 4.
guardare la tv 5. tenere in ordine le proprie cose 6. Vestirsi
1) DETERMINARE LA CONGRUENZA TRA OSSERVATORI NELLA CLASSIFICAZIONE DEI PAZIENTI E
QUANTIFICARLA IN TERMINI DI NUMERO DI PAZIENTI COERENTEMENTE CLASSIFICATI
Prima domanda- 2 rater- categorie- nominali → k- di cohen
ANALIZZA- DESCRITTIVE- TABELLE DI CONTINGENZA ( il di cohen di calcola qui nella tabella che incrocia le
frequenze delle valutazioni dei nostri giudici)
righe- sper1, colonne sper2- apro da parte statistiche, spuntiamo il
KAPPAe il chiquadro per ripassare
continua→ nella prima tabella vedo le frequenza, 43 casi classificati
entrambi con non problematici, 26 entrambi problematici, per 7 casi
in totale manca coerenza fra gli sperimentatori
kappa- è .807 ( non devo guardare la significatività) ma il valore ( almeno .70, .80 va bene)
RISPOSTA- abbiamo usato k come indice di congruenza fra i due giudici e risulta .807 e indica una
attendibilità molto alta fra i due giudici che hanno coerentemente classificato i pazienti – ha una
congruenza 69 soggetti su 76- dove mettiamo questi 7 soggetti? Con una k di cohen alta come la nostra
non ci importa perché sono sostanzialmente in linea. Per essere precisi si potrebbe di questi 7 classificati
vengono assegnati a caso nelle due categorie, ma si può fare solo con k alto.
Se la congruenza fosse bassa nella pratica ci si pone il problema- perché è bassa?
Chi quadrato ( vedere se due variabili nominali sono associate- qui non ci serve lo facciamo per ripassare)si usa quando sia Vi che VD categoriche
➔ testa HO che le celle interne siano distribuite casualmente
➔ H1 appartenere a una cella nelle righe influenza l’appartenenza a una categorie nelle colonne ( in
questo esercizio non ci bastava sapere che fossero diverse dal caso,ma volevamo sapere il grado di
congruenza)
Domanda n.2 Determinare l'attendibilità dei 6 item utilizzati 3) Selezionare il subset di item con una
attendibilità più alta o quantomeno accettabile
Item analysis- eliminare item poco attendibili per fare alzare l’alpha di cronbach
Attendibilità dei 6 item utilizzabili e massimizzare l’attendibilità domanda 3
Usiamo l’alfa di cronbach ( ricordiamo l’assunzione che gli item siano tutti nella stessa direzione)
- Analizza
- Scala
- Analisi di affidabilità- metto dentro da item1 a item6 – se fossimo solo interessati all alpha clicco ok,
pero devo vedere se ci sono item che correlano negativamente altrimenti violo la sua assunzione, ma
soprattutto per la domanda 3 come migliorare l’analisi -- premo statistiche- descrittivi ( elemento,
scala, scala se l’elemento è eliminato- mi permette di vedere se migliora una volta tolto un item)
- Vedo che l’alfa è .37 ( dovrebbe essere >.70) – le misure non sono congruenti
75
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
-
Tabella statistiche elemento totale: x ogni item come si comporta rispetto alla somma degli altri item.
-→ anche solo calcolando l’alpha dobbiamo vedere che nessun item correli negativamente
- Vedo che l’item 5 correla negativamente ( correlazione elemento totale corretta- quindi devono
ribaltare l’item→ calcolo una nuova variabile moltiplicata per -1, cosi le sue correlazioni rimangono
identiche ma di segno opposto)
- Giro item 5- TRASFORMA – calcola nuova variabile- item5R- scrivo –ITEM5
- Ricalcolo lo stesso alpha usando item5r e non item5—ALPHA .47—scendo e vedo che nessuno ha
correlazione negativa. L’attendibilità dei sei item è di .47 quindi gli item opportunamente rigirati per
direzione danno una attendibilità pari a una Alpha di crobach di .47 che risulta bassa
output
Domanda 3 item analysis – eliminare qualche item dannoso per l’attendibilità, che abbassa l’alpha
Se guardo l’ultima colonna della tabella riporta l’alpha se viene eliminato quell’item – elimino una volta
volta in maniera iterativa l’item piu dannoso, quello che se elimino, fa alzare di piu l’alpha- si fa sempre una
volta
Il peggiore qui è l’item 3- arrivo a .655 già è una alpha ragionevole
Rilancio l’analisi senza l’item 3 vedo che viene .65 e ispeziono vedendo se eliminando un altro item posso
alzare l’alpha ancor di piu
Non posso però far degenerare un scala eliminando tutti gli item- a parità di correlazioni piu item ho
maggiore è l’alpha perciò se elimino variabili l’alpha si abbassa, questo è il punto in cui non posso piu
migliorarla – vediamo ora che l’item 4 non correla piu con la nuova scala e se lo togliamo arriviamo a .7
Abbiamo determinato che il sottoinsieme di item 1-2-6 garantisce la piu alta attendibilità pari a .75 ( PERCH
VEDO che se tolgo ancora scendo .721) dunque non posso più andare oltre
Domanda 4) Usando la classificazione dell'osservatore 2 e l'insieme di item maggiormente attendibile,
determinare se i due gruppi di pazienti differiscono nella loro difficoltà percepita.
Creo la vd. Difficoltà percepita maggiormente attendibile - Somma dei 3 item (1-2-6) -media DOMANDA 4
- Anova- dipendente top3 item
- Fissi- sperim 2 chiedo anche il grafico
Ce un effetto significativo della classificazione sulla variabile self report, c’è congruenza
Etaquadroparziale- il 13% è attribuibile al giudice 2 e coloro classificati come problematici hanno piu
problemi
76
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
o- non problematici
1- problematici
Domanda 5) Usando la classificazione dell'osservatore 2 e l'insieme dei 6 item, determinare le differenze
nella loro difficoltà percepita e spiegare il motivo delle differenze con la risposta 4
 fai la stessa analisi con tutti gli item
 Calcolare l’indice totala dei 6 item- trasfroma calcola variabile- top 6 e faccio la somma delle
variabili ( con item5 R e non item5)/6
 Rifacciamo l’analisi – uni variata – tot6
 Fattori fissi sper 2
Effetto significativo .027 e eta quadro è
.065 – vedo che è molto minore, quasi la
metà 6% rispetto a prima mentre la
direzione del grafico vedo che è
identica, il gruppo 1 ha piu problemi del
0. Dal punto di vista qualitativo i risultati
sono in linea, l’unica differenza è che
l’effetto della classificazione sper2 sulla
variabile a 3 ( ottoinsieme e piu
attendibile) è quasi il doppio dell’effetto della variabile a 6)- perché??
L’eta quadro è piu basso in quello meno attendibile – se la misura è valida l’attendibilità ci dice quanta
varianza ce del costrutto rispetto alla varianza casuale, che non correla con nulla. Dunque se una contiene
piu quantità casuale, gli effetti saranno piu deboli – la percentuale di effetto sarà piu bassa perchè diluita
dalla variabilità casuale.
Se io confronto 2 misure
Se mi capita che una misura meno attendibile da risultati migliori, quelli non sono
risultati migliori ma spuri riferiti a un altro costrutto ( perchè appunto sono meno
attendibili) – la misura poco attendibili deve mostrare effetti piu bassi di quella
attendibile- se questo non avviene è sintomo di mancanza di validità
Analisi Fattoriale
Concetti introduttivi
Scopi generali
77
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
L’Analisi Fattoriale (e varianti) si propone di estrarre un numero limitato di fattori (variabili latenti o
sottostanti) da un set di variabili osservate (e.s. items), al fine di rappresentare al meglio la variabilità di tale
set- le dimensioni sono nuove variabili che rappresentano in maniera compatta la stessa variabilità
rappresentata dagli item
Ciò consente di interpretare le relazioni tra un gran numero di
variabili osservate mediate un numero limitato di fattori ( i fattori
rappresentano la componente comune)
Analisi fattoriale- tecniche statistiche volte a identificare le
dimensioni sottostanti a un insieme di variabili. Si usa soprattutto
nell’individuare le dimensioni sottostanti a un set di item, ma
anche a qualunque insieme di variabili, misurando uno o più
costrutti comuni
Indicatori- si parte da una serie di item/variabili- misure empiriche osservabili. E assumiamo che
rappresento la variabilità di un costrutto latente
Parsimonia
Il numero delle dimensioni (costrutti) è SEMPRE minore del numero delle misure (indicatori, variabili) I
costrutti hanno un livello di astrazione più elevato degli indicatori. Lo scopo è di spiegare il più possibile le
relazioni tra le variabili con il numero minore di dimensioni. La parsimonia NON è la semplicità, ma un
punto di equilibrio tra semplicità e potere esplicativo (rappresentatività)
Indicatori
- Un buon indicatore deve essere una buona misura del costrutto e non deve essere una buona
misura di altri costrutti- ovvero che sia valido
- Più indicatori sono necessari per definire un costrutto, per capire quanta variabilità comune questi
item hanno ( assumendo che questa variabilità provenga dallo stesso costrutto)
- La definizione concreta (operazionalizzazione-) di un costrutto deriva degli indicatori
- Molto spesso in Psicologia il costrutto è ipotetico/latente mentre gli indicatori sono
osservabili/empirici
Costrutto: Un costrutto può essere definito come un un concetto (dimensione, fattore, tratto, classe,
componente) teorico con certe conseguenze empiriche
- Gli indicatori misurano le conseguenze empiriche
- Il costrutto associa gli indicatori (legno può associare tavolo, sedia, quadro, bastone, albero, casa,
barca)
- Da un punto di vista statistico, se alcuni indicatori corrrelano tra di essi, possiamo inferire la
presenza di un costrutto sottostante (o viceversa)
78
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Due tipi di indicatori e costrutti:
sia lo studio dell’affidabilità che l’analisi fattoriale si
basa su indicatori riflessivi del costrutto, ovvero che le
differenze fra persone nel costrutto si assume
siriflettano nelle differenze nelle risposte. Gli item
saranno correlati
vi sono altri indicatori non soggetti allo studio
dell’analisi fattoriale o dell’affidabilità ( serve
riconoscerli per non usare questi termini), sono
indicatori formativi, che non riflettono tutto il
costrutto ma lo creano! – i vari item non sono correlati
( non vuole dire che non sia attendibile dell’alcolismo,
ma il punteggio è dato dalla presenza del tratto in almeno 1 degli indicatori)- non vanno analizzate con le
tecniche classiche. lo studio di indicatori formativi si fa solo a livello teorico. Invece gli indicatori riflessivi si
assume che abbiano questo tipo di modello possibile: La variabilità osservata negli items è rappresentata
da un unico fattore che raggruppa le variabili. Ovviamente i fattori utili a rappresentare la variabilità delle
variabili osservate possono essere numerosi. Cercano di decomporre la varianza ( le differenze di differenti
fra item>) nella variabilità catturata dalle dimensioni latenti e variabilità di errore, ci informa quanta
variabilità è spiegata da dimensioni sottostanti e quanta non sia spiegata da queste ( Var di errore)
Guadagnando in parsimonia ed interpretabilità delle relazioni, non ci
si può aspettare di non perdere qualcosa in precisione. Una buona
misura di costrutto più avrà una alta percentuale di variabilità comune
spiegata da dimensioni comuni e bassa % d’errore
Per analisi fattoriale intendiamo cmq varie tecniche, divisibili lungo vari
continuum, fra cui ESPLORATORIA- CONFERMATORIA, può essere
usata per capire quante dimensioni ci sono o quali ci sono, oppure per
confermare che i nostri dati abbiano alcune caratteristiche
La differenza sta in quante decisioni prendiamo noi e quanti vengono
dai dati
- Più ne decido io, è un approccio confermatorio
- Se mi lascio guidare dai dati- esploratoria
Dipende anche da come utilizzo io l’analisi fattoriale: noi ci concentriamo sulla esploratoria
Concetti di base
Alcuni concetti sono utili per ogni tipo di Analisi Fattoriale, indipendentemente dalle differenze tecniche (che
vedremo successivamente) tra questi tipi di analisi
Tutte le varianti dell’AF: Rappresentazione delle relazioni fra variabili misurate mediante un numero ristretto
di fattori
La base dell’analisi fattoriale è lo studio della correlazione di Pearson fra le variabili osservate → Relazioni fra
variabili
Le relazioni fra variabili (continue) sono calcolabili mediante il coefficiente r di correlazione di Pearson
- Cerca di estrarre un n. di dimensioni che sia in grado di rappresentare al meglio la matrice di correlazione
delle variabili osservate
- L'idea di fondo è che le variabili osservate correlano perché condividono un fattore sottostante
- Un altro modo per definire lo scopo dell’Analisi Fattoriale è l’estrazione di un numero ristretto di fattori che
riproducano al meglio la matrice di correlazione osservata
79
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Dunque vogliamo creare delle nuove variabili (fattori) che combinino le variabili osservate che correlano
molto, E separino le variabili che non correlano fra loro
Se rappresentiamo le variabili con delle frecce tramite la rappresentazione vettoriale posso rappresentare la
correlazione fra le variabili come l’angolo
- Se la correlazione è alta, i vettori sono orientati nella stessa direzione e viceversa
Rappresentazione vettoriale
Ogni variabile può essere rappresentata mediante un vettore di
lunghezza uguale alla sua deviazione standard
L’associazione tra due variabili si può rappresentare mediante l’angolo
tra i due vettori (prodotto tra i vettori=prodotto tra gli z =correlazione)
La correlazione quantifica la proiezione di un vettore-variabile
sull’altro
Se due variabili correlano andranno in media nella stessa direzione,
negativamente vanno in direzione opposta
Se non c’è correlazione vanno in direzione ortogonali ( o- Se la
proiezione è zero, cioè r=0, le due variabili saranno indipendenti
(linearmente) un vettore non proietta nulla sull’altro
Variabili obliqui- fra loro correlate
Logica dell'estrazione dei fattori→ In tutte le varianti dell’AF il fine
è di estrarre una serie di fattori che siano al “centro” dell'insieme di variabili
Per rappresentare la traiettoria, quella che sta in mezzo
rappresenta bene la direzione → In tutte le varianti dell’AF il fine
è di estrarre una serie di fattori che siano al “centro” dell'insieme
di variabili
dobbiamo rappresentarlo con una variabile che stia in mezzo ai
due vettori, e se uso una variabile al centro, avrò un modello più
compatto e non perdo le informazioni di dove stanno andando le
variabili
Il fattore deve essere una nuova variabile che meglio rappresenti
entrambe le variabili- vale anche con tante variabili→ Nel caso
generale (non due variabili) le correlazioni con il fattore sono differenti per le varie variabili
➔ Il fattore comune sarà al centro! Che vuol dire precisamente? Che minimizza contemporaneamente
l’angolo con X e V
➔ L’angolo è tanto più piccolo quanto più è alta la correlazione
➔ Che minimizza contemporaneamente l’angolo con X e V
➔ Dunque il miglior fattore è quello che massimizza le correlazioni con le variabili osservate
➔ Le correlazioni possono variare: Nel caso generale (non due variabili) le correlazioni con il fattore
sono differenti per le varie variabili
Correlazioni e Varianze
Ricorda che la correlazione (al quadrato) indica la varianza condivisa, DUNQUE IL MIGLIOR FATTORE È
QUELLO CHE MEGLIO CATTURA LA VARIANZA CONDIVISA
Quanto sarà questa varianza? La varianza spiegata dal fattore sarà la somma delle varianze che condivide
con ogni singola variabile. Dunque sarà la somma dei quadrati delle correlazioni tra variabili e fattori
PIÙ DI UN FATTORE: Consideriamo di aver estratto un fattore da questo insieme di variabili
80
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
- Il fattore che estraiamo sarà quello che massimizza la varianza spiegata
- Ma non necessariamente cattura tutta la varianza condivisa
- Avremo così rappresentato le varianze osservate mediante due fattori
- fattori non condividono varianza, dunque non sono correlati- ortogonali
- Definiranno dunque degli assi fattoriali dove proiettare le variabili
- E le proiezioni saranno le correlazioni tra fattori e variabili (come per il caso di un fattore)
Condizioni di applicabilità ANALISI FATTORIALE
❖ Variabili misurate a livello di intervallo (può essere usata con poche distorsioni anche con variabili
binarie – purchè equilibrate)
❖ Perlomeno 100 soggetti
❖ Rapporto tra soggetti e variabili almeno di 3 a 1. Ma dipende dalla complessità della soluzione
finale
❖ Assenza di violazioni sostanziali della distribuzione normale
❖ Relazioni lineari tra le variabili
❖ Nessuna variabile può essere una combinazione lineare di altre variabili analizzate (singolarità)
ANALISI FATTORIALE:
- Inizialmente ci sono tanti fattori quante variabili, estratti però in modo tale da massimizzare la
varianza comune delle variabili
- Il primo fattore massimizza la varianza comune delle variabili. Si ricalcola una nuova matrice
parzializzando la varianza spiegata dal primo fattore. Si estrae un secondo fattore che massimizza la
varianza residua e cosi’ via per gli altri fattori
- estrae un fattore alla volta al fine di catturare il più possibile varianza condivisa inizia dalla maggior
parte, e quella non condivisa si cerca di spiegare con 1 secondo fattore, e cosi via. I fattori
andranno a prendere gruppi di variabili correlate, 1 cluster di variabili per fattore.
- SE un fattore cerca di catturare la varianza non catturata dagli altri fattori, i fattori non
condividono varianza, e saranno fra loro non correlati, saranno fra loro ortogonali
- Estrae nuove variabili per rappresentare le vecchie, crea un nuovo sistema di assi su cui
rappresentare le variabili osservate, e questi assi sono fra loro ortogonali
La soluzione fattoriale si compone di:
1.varianza spiegata da ogni fattore- autovalore
2.La matrice di correlazione tra fattori e variabili ( matrice delle
componenti)- ogni variabile quanto è allineata con il fattore ( spss
matrice delle componenti)
Le correlazioni tra fattori e variabili si chiamano PESI FATTORIALI o
SATURAZIONI FATTORIALI
81
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
La soluzione fattoriale rappresentata geometricamente può essere vista anche in una matrice numerica
Saturazioni = correlazioni Fattori variabili
Plot dei Fattori : Comunemente si visualizza lo spazio fattoriale mediante gli
assi fattoriali e le variabili rappresentate come punti con coordinate uguali alle
correlazioni con i fattori → L’estrazione di K fattori definisce uno spazio a K
dimensioni dove tutte le variabili sono rappresentate mediante coordinate
uguali alle correlazioni con i fattori
Per più di 3 fattori, si può visualizzare i fattori a 2 a 2
L’altra parte è la tabella delle varianze spiegate, quanto il fattore riesce a
catturare delle variabili spiegate –Proiezioni= correlazioni fattori variabili
La soluzione fattoriale si compone di:
La varianza spiegate da ogni fattore
Le varianze spiegate dai fattori si chiamano AUTOVALORIquanta varianza di tutte le variabili il fattore riesce a spiegare
Importante per decidere quanti fattori tenere
Il primo è quello che cattura di più e cosi via, e la
varianza a disposizione per i fattori è via via minore
La somma dei quadrati in colonna equivale alla
varianza spiegata dal fattore corrispettivo
NELLA MATRICE DEI COMPONENTI,
La somma dei quadrati in riga equivale alla varianza
dell’item spiegata da tutti i fattori estratti
Tale quantità e denominata comunalità → Ovvero
quanto tutti i fattori estratti spiegano l’item. Se è
bassa la comunalità vuol dire che non centra con il
resto dei fattori→ La comunalità indica quanto un
item partecipa alla costruzione dei fattori ( in questo caso i due fattori estratti spiegano il 21% della
varianza dell’item).
ESEMPIO provvisorio slide- PROVVISORIO Perché mancano ancora nozioni teoriche sull’analisi fattorialevd pag successive
✓ L’Analisi Fattoriale (e varianti) si propone di estrarre un numero limitato di fattori al fine di
rappresentare al meglio la variabilità di tale set
✓ A tale scopo estrae una serie di fattori fra loro ortogonali al fine di massimizzare la correlazione fra
variabili osservate
✓ La soluzione fattoriale è l'insieme di questi fattori, descritti dalle loro varianze (autovalori / numero
item), le saturazioni fattoriali e la comunalità degli item
SPSS . PROVVISORIO- riduzione dimensionale-- fattori
• Seleziono le variabili che voglio analizzare
• Chiedo di estrarre un fattore (poi vedremo altri metodi per decidere quanti fattori estrarre
• l primo fattore estratto (quello che ci interessa) spiega il 65% della varianza degli item
82
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
•
•
Gli item sono ben correlati con il fattore, dunque possiamo utilizzare il fattore come variabile
rappresentativa degli item, quindi ci aspettiamo saturazioni alte
( la standardizzazione è ininfluente perché la matrice di correlazione parte già da valori
standardizzati
2 tabelle
- Tabella con gli auto valori
- Tabella delle componenti, con la correlazione fra il singolo item e la componente, varia da -1 a 1 ,
consideriamo le alte le saturazioni sopra .35 ,piu sono alte e più gli item sono allineanti. Le
correlazioni a differenza dell’alfa di cronbach possono essere anche negative
- Possiamo poi salvare i punteggi delle dimensioni rispetto ai fattori
Non esiste un numero fisso per predire quanta varianza bisogna spiegare
Nelle scienze psicologiche tutti i fattori i psicologici dovrebbero spiegare almeno il 30-35%, la restante è
varianza d’errore, quindi accetto massimo un 60% di varianza casuale, visto che siamo misurando variabili
complessi ( vedi esercitazioni per chiarimenti)
CONTINUAZIONE ANALISI FATTORIALE-LEZIONE 2
La soluzione fattoriale ed il modello ACP → Scelta del numero dei fattori
I PASSAGGI FONDAMENTALI
1SCELTA DEL MODELLO FATTORIALE
2 SCELTA DEL NUMERO DI FATTORI
3ROTAZIONE DELLA STRUTTURA FATTORIALE
4SELEZIONE DELLE VARIABILI
5INTERPRETAZIONE DEI FATTORI
6PUNTEGGI FATTORIALI
Analisi delle componenti principali
La ACP (PCA) produce componenti, mentre la AFC produce fattori.
I processi della ACP e della AFC sono simili, tranne che
o nella preparazione della matrice di correlazioni osservate per l’estrazione
o nella teoria sottostante
Matematicamente, la differenza tra ACP e AFC è nella varianza che viene analizzata: - nella ACP viene analizzata tutta la varianza osservata nelle variabili
nella AFC viene analizzata solo la varianza condivisa (stimata tramite regressione); Non si considera
la varianza non condivisa (unica di ciascuna variabile).
Teoricamente, la differenza tra ACP e AFC è nella ragione per cui le variabili sono associate in un fattore o
in una componente:
83
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
➔ Di solito si ritiene che i fattori ‘causinò le variabili – il costrutto sottostante (il fattore) è ciò che
produce i punteggi nelle variabili (AFC).
➔ Le componenti sono semplici aggregati di variabili correlate (ACP)
ACP vs. AFC
La ACP considera tutta la varianza delle variabili e la divide in varianza
comune (spiegata dai fattori considerati) and varianza unica (errore o
residua). Nelle ACP si ipotizza che tutta la varianza di un item sia
spiegabile, o V comune o dell’item. Quindi si potrebbe spiegare il
100% della varianza delle variabili. Potrei spiegare tutto ma ci
vorrebbero troppi fattori, allora scelgo quelli che spiegano più
varianza.
La AFC prima stima la varianza condivisa e distingue tra varianza comune tra le variabili (covarianza) e
varianza di errore. Analizza solo la prima e la divide in varianza comune (spiegata dai fattori considerati) e
varianza specifica. La differenza sta in come viene approcciata la varianza. AFC- non potrò mai spiegare
tutta la varianza perché ci sarà sempre errore, allora lo scopo è spiegare la varianza specifica che non è
errore. Prima si cerca dunque di capire quanto è la varianza di ogni item e cercare di spiegarla
• ACP- è più facile, si prendono tutti gli item e si cercano i fattori. È però meno precisa perché cerca
di spiegare tutto
• Afc più precisa
Dal punto di vista pratico ACP si usa di più con un approccio completamente esploratorio. Mentre AFC
essendo più precisa si usa con un approccio più confermatorio, ( vogliamo vedere se trovo un certo numero
di fattori come suggerito dalle letteratura ecc)
La grossa differenza tecnica
IL PROBLEMA DELLA COMUNALITÀ INIZIALE NELLA AFC→ quanto è la varianza spiegabile
• Per calcolare la varianza spiegata e quella di errore, dobbiamo prima sapere quanto è la varianza
spiegabile
• Ma per sapere quanto è la varianza spiegabile, dobbiamo sapere quanto è la varianza spiegata e
quella di errore
• Ciò crea un circolo vizioso che va risolto stimando precedentemente una quantità plausibile di
varianza spiegabile ed iterando il procedimento di calcolo dei fattori finché tale quantità soddisfa
alcuni criteri
• Ogni algoritmo di calcolo (minimi quadrati, massima verosimiglianza, ecc.) usa un criterio diverso
• Noi vediamo la logica sottostante
Comunalità iniziale
Ma se tutta la varianza di un item non è inclusa nell’analisi, la
matrice di correlazione iniziale non potrà avere 1 sulla
diagonale
Nella ACP si parte dall’assunzione che ogni variabile ha varianza
1, e dunque la totale è data dalla somma delle variabili
Nella AFC ci sarà una parte di errore, pertanto non si parte con
la matrice di correlazione 1 nella diagonale, ma una stima della
variabilità spiegabile da ogni item la COMUNALITÀ INZIALE,
data Varianza spiegabile dell’item= comunalità iniziale nella
AFC. Il massimo che posso spiegare di un item, è legato a quanto è la variabilità comune di ogni item →
84
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Stima iniziale della comunalità. Se la parte spiegabile di varianza di
un item deve essere comune agli items e ai fattori, sicuramente non
potrà essere più piccola della parte di varianza che l’item condivide
con gli altri items→ LA VARIANZA CONDIVISA CON TUTTI GLI ALTRI
ITEMS È UNA BUONA STIMA DELLA VARIANZA SPIEGABILE → Dunque
possiamo usare tale stima al posto degli 1 nella matrice di
correlazione
Varianza condivisa non spiegata=Varianza di errore
R2 multiplo Quanto è tale varianza?
Dallo studio della regressione sapremo che la varianza condivisa da un insieme di variabili indipendenti ed
una dipendente è dato dall’R2 della regressione
NELLA AFC SI Parte da un modello in cui nella diagonale vi è R2 QUADRO, è sicuramente meno di 1, ma è
migliore, più precisa, è una varianza spiegata più stabile → Ripetendo tale stima per tutti gli items,
abbiamo una stima iniziale delle varianze spiegabili per ogni item
Passi successivi della AFC
A questo punto i vari metodi di AFC:
estraggono i fattori
calcolano le nuove comunalità sulla base dei fattori estratti
riestraggono i fattori sulla base della matrice con le nuove comunalità
fin quando il criterio stabilito (ad es., minimo errore, massima verosimiglianza) è soddisfatto
ANALISI DELLE COMPONENTI PRINCIPALI
 L’ACP estrae inizialmente tanti fattori quante sono le variabili osservate
 L’estrazione iniziale spiega il 100% della varianza degli items e di ogni item (diversamente dalla AFC
)
 Tale soluzione non è soddisfacente, in quanto non rappresenta una soluzione efficiente e
parsimoniosa
 Useremo dei metodi per decidere quanti fattori tenere che bastano a rappresentare in maniera
efficiente le relazioni fra variabili
Nell’analisi delle componenti principali (ACP) i fattori sono formati come combinazione lineare (somma
pesata) degli items
Il primo fattore estratto è la combinazione lineare degli items che massimizza la varianza spiegata
- I pesi sono calcolati per massimizzare la correlazione fra la somma pesata e gli item
- Nell’analisi delle componenti principali (ACP) i fattori sono formati come combinazione lineare degli
items
Il secondo fattore estratto è la combinazione lineare degli items che massimizza la varianza non
spiegata (ortogonale) dal primo
- I valori sono calcolati affinché siano massimizzati, sotto il vincolo che F1 e F2 siano ortogonali
- I valori degli items nella combinazione fattoriale sono le correlazioni tra fattori e items
Numero di Fattori
L’algoritmo della ACP che estrae i fattori dalla matrice di correlazione di partenza, estrae tanti fattori
quante sono le variabili (cioè tutti i fattori possibili)
Estraendo tanti fattori quanti items (variabili osservate), spieghiamo tutta la varianza
85
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
l’AUTOVALORE è indice di bontà del fattore, nel spiegare i nostri
dati
in questo caso è ovvio che spiego il 100% ma ho solo ristrutturato
le variabili
Guardando gli auto valori (varianze spiegate dai fattori) dobbiamo
decidere quanti fattori tenere
- L’ACP estrae inizialmente tanti fattori quante sono le
variabili osservate
L’estrazione iniziale spiega il 100% della varianza degli
items e di ogni item
Tale soluzione non è soddisfacente, in quanto non rappresenta una soluzione efficiente e
parsimoniosa
Useremo dei metodi per decidere quanti fattori tenere che bastano a rappresentare in maniera
efficiente le relazioni fra variabili
Varianza e comunalità
Nell’ACP la comunalità iniziale è 1 (100%)
Dunque si assume che tutta la varianza di ogni item
può essere spiegata
Anche se poi ne spiegheremo solo una parte
Scelta del numero di fattori:
• Decidere il numero di fattori
• Esistono diversi metodi per decidere quanti
fattori/componenti tenere
• Non esiste un criterio “oggettivo” (ad es.,
algoritmo) che determina in maniera inequivocabile
ed assoluta il numero dei fattori da scegliere
Perché?
• I fattori rappresentano un modello della realtà e
diversi modelli possono essere plausibili
• Alcuni sono più plausibili, altri sono meno plausibili,
ed altri ancora sono non plausibili
• C’è un elemento soggettivo nella decisione
• Soggettivo NON significa arbitrario
METODI PRINCIPALI
 Autovalore maggiore di 1 (Kaiser-Guttman, mineigen)
 Scree-Test (Cattell)
 Analisi Parallela (Horn)
 Interpretabilità dei fattori
Criterio Mineigen (Autovalore > 1)
Ricordiamo che autovalore = varianza spiegata dal fattore
- Ogni variabile spiega se stessa, dunque spiega 1 (variabili standardizzate)
Dunque un fattore che spiega meno di 1, spiega meno di una variabile
86
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
-
Usare fattori che spiegano meno di 1 non è efficiente (sarebbe più efficiente usare una variabile
osservata)
Criterio detto Mineigen o di Kaiser-Guttman
Problemi Tende a sovrastimare il numero di fattori (tipicamente intorno ad 1/3 delle variabili) È più utile
considerarlo come indicatore del numero massimo di fattori da considerare (con buon senso…)
Qual è la differenza tra un autovalore di 1.01 ed uno di 0.99? (ma questo vale per qualsiasi soglia)
È l’opzione di default di SPSS
eppure è il criterio più debole tra quello che considereremo sconsigliato
- Piu solo gli item più gli auto valori maggiori di uno sono tanti
- Uso questo metodo per capire quale escludere e poi scelgo altri metodi per decidere quali auto
valori maggiori di 1 tenere
2 SCREE TEST
- I fattori sono estratti in sequenza, secondo la loro capacità di spiegare varianza
- Vi sarà un punto in questa sequenza dopo il quale aggiungere fattori non cambia molto la
capacità di spiegare varianza
Facciamo il grafico degli auto valori, li mettiamo sull’asse delle y, e il numero della componente sulle x
- Tracciamo una retta a partire dagli auto valori più bassi e
osserviamo il cambiamento di tendenza
- Attraverso il grafico degli autovalori, è possibile stimare
tale punto
- Detto anche Test del Ghiaione- gli auto valori sono sempre
decrescenti
- La logica è che gli ultimi fattori, saranno casuali,
raccolgono varianza a caso
Fossero tutti casuali sarebbero tutti su una linea, i fattori
sopra la retta spiegano una quota più importante di varianza.
Tirando una retta che interpola i valori più piccoli, valutiamo
quelli che secondo noi che hanno un auto valore che esce da
questa retta, in questo esempio potremmo dire che ci sono 3
fattori che escono dalla retta, auto valori che spiegano una
varianza non casuale
Scree-test e Autovalore>1
➔ Con gli stessi dati, il criterio Autovalore>1 suggerisce la
presenza di 5 componenti
➔ Il criterio scree-test è preferibile, purchè i fattori tenuti
abbiano auto valore >1
Scree-test
✓ Migliore tra i metodi semplici
✓ Necessita di esperienza, buon occhio e conoscenza teorica
✓ Meglio se usato insieme a considerazioni teoriche
✓ Focus sul cambiamento di pendenza (salto degli autovalori)
✓ Tende a suggerire un numero corretto di fattori
✓ Logica: i raggruppamenti principali tendono ad emergere in maniera distinta dai raggruppamenti
secondari
✓ I raggruppamenti principali tendono ad essere più affidabili rispetto a quelli secondari (segnale vs.
rumore)
87
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Problemi
• Metodo soggettivo
• Può indicare più soluzioni plausibili
• Necessita di esperienza, buon occhio e conoscenza teorica
• Indicazioni chiare sono meno probabili con campioni piccoli e con un rapporto più basso tra variabili e
fattori estratti
DÌ FRONTE a uno scree test chiaro possiamo fermarci li. Quando non è chiaro possiamo adoperare un
nuovo metodo→ 3 METODO ANALISI PARALLELA (HORN, 1965)- lo usiamo solo quando lo scree test non è
chiaro
 Proprietà desiderabile: la soluzione fattoriale prescelta deve essere non casuale (random)
 Non vogliamo considerare dei fattori che emergono casualmente
 Vogliamo considerare fattori che sono “validi”
Condizione minima di validità: i fattori devono spiegare più varianza rispetto a fattori costruiti in modo
casuale a partire dai dati disponibili→ Il software costruisce un campione come quelle delle nostre variabili
crea delle variabili a caso e calcola gli auto valori e le varianze ecc. fa finta di campionare tante volte da una
popolazione con variabili casuali. Se le tue variabili fossero non correlate, e i fattori casuali, questi
sarebbero gli auto valori che ti aspetti- quindi se hai auto valori maggiori di quelli che ti da il software vuol
dire che non sono casuali dunque tienili
 La logica: Non siamo interessati a considerare un fattore che spiega meno varianza di un fattore
emerso casualmente
SPSS non prevede questo metodo (si può implementare con il linguaggio sintassi)
La procedura:
- 1. Generare dati casuali con stesso numero di soggetti e variabili dei dati veri
- 2. Estrarre gli autovalori dalla matrice di dati generati casualmente
- 3. Ripetere le operazioni (1) – (2) almeno 100 volte, registrando ogni volta gli autovalori di tutti i
fattori estratti
- 4. Calcolare autovalori medi e 95° percentile per tutti i fattori estratti
- 5. Condurre l’analisi fattoriale sui dati veri
- 6. Confrontare gli autovalori dei dati casuali e quelli dei dati veri
- 7. Scegliere i fattori che spiegano più varianza del fattore corrispondente estratto dai dati casuali
(usando la media o il 95° percentile)
- 8. Condurre l’analisi fattoriale estraendo il numero di fattori così identificato
Confronto i due valori- se sono diversi, se è maggiore il nostro rispetto a quello generato a caso ,vuol dire
che l’autovalore non è casuale
teniamo i fattori con auto valore maggiore del valore casuale- che
ci da l’analisi parallela
L’ANALISI PARALLELA RISENTE DELLA NUMEROSITÀ
CAMPIONARIA: più casi = autovalori casuali più bassi.
Il ruolo della numerosità campionaria
- Più piccolo è il campione, maggiore deve essere
l’autovalore per essere considerato non casuale
- Per un campione che tende ad infinito, gli autovalori di
controllo saranno uguali a 1
88
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
-
Più è grande il campione e più gli auto valori che ci danno per confronto saranno bassi, quindi
salverò più fattori a nostro vantaggio – potrebbe quindi dare troppi fattori e viceversa con pochi
fattori. Questo difetto è il motivo per cui meglio guardare prima lo scree test
Analisi parallela (Horn, 1965)
 È considerato il migliore dei criteri avanzati
 Però anche in questo caso non sempre coincide con la soluzione “migliore”
 Identifica i fattori che spiegano più varianza, rispetto a fattori presi a caso
 È influenzato dalla numerosità campionaria
 Utilizzo diffuso negli ultimi anni
4.INTERPRETAZIONE TEORICA
RIASSUMENDO – cosa fare quindi?
➢ Mineigein è il peggiore, AP e Scree-test sono migliori
➢ Non c‘è un metodo infallibile
➢ È essenziale conoscere la teoria relativa ai dati che si esaminano
➢ La teoria ci può aiutare a scegliere la soluzione migliore
➢ Ci sono casi semplici e casi complessi
➢ Nei casi complessi, è meglio usare più metodi
➢ L’esperienza è fondamentale
Qualunque sia il criterio per scegliere il numero di fattori, tenere un numero di fattori ridotti comporta un
aumento dell’efficienza ma una perdita di capacità di rappresentazione di tutta la varianza
- Se tutti i fattori spiegano tutta la varianza → Un numero ridotto perderà un pò di capacità di
spiegazione ma catturerà gli aspetti principali → Lo scopo è di cercare di ottenere un buon
equilibrio tra semplicità e rappresentatività (modello parsimonioso)
Schema quindi per l’analisi fattoriale
- Scegliamo che analisi fare- faremo noi ACP ( QUALCHE volta AFC)
- Scegliamo quanti fattori tenere- partendo dall’estrazione di valori usando i 3 metodi ( auto valori,
scree test, A.parallela.
- Scelto il numero di fattori rilancio l’analisi tenendo solo i fattori prescelti, vanno poi interpretati i
fattori. Prima di interpretarli devo miglioare la struttura fra gli item e i fattori tramite la
ROTAZIONE, e poi si interpretano le matrici, salvo le variabili le nomino, creo i punteggi fattoriali
ecc → lezioni successive
LA ROTAZIONE DELLA STRUTTURA FATTORIALE
- I passaggi fondamentali
- 1) Scelta del modello fattoriale
- 2) Scelta del numero di fattori
- 3) Rotazione della struttura fattoriale
- 4) Selezione delle variabili
- 5) Interpretazione dei fattori
- 6) Punteggi fattoriali
Vogliamo massimizzare la chiarezza della struttura, così che l’interpretazione sia migliore, per questo è
necessari la rotazione, un aggiustamento che permette di ottenere la migliore possibile. Dal punto di vista
statistico cattura già la varianza, ma noi vogliamo interpretarla. Cosi come escono non è sempre ottimale. Il
modo per migliorarla è la rotazione delle saturazioni (correlazioni fra item- fattori)
Struttura monofattoriale
89
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
➢ Quando decidiamo di considerare un solo fattore, la soluzione ottenuta inizialmente è quella
ottimale
➢ Perciò non abbiamo bisogno di rotazione
➢ Perché?
➢ Per definizione, il primo fattore è quello che massimizza la varianza condivisa tra gli items
➢ Perciò, sarà già ottimale
SOLUZIONI MUTIFATTORIALI:
Notiamo che molti items
saturano meglio in un fattore,
ma saturano anche sull’altro →
Altri saturano su entrambi i
fattori (il segno qui non conta)
Questi item saturano su
entrambe le dimensioni, non è
chiara, non è cosi semplice
quindi dire su che fattore
saturano. Dovrebbero essere costrutti indipendenti
Plot delle saturazioni fattoriali:
- Analizziamo la soluzione
- Notiamo che molti items sembrano una combinazione di entrambi i fattori
- Altri si posizionano al centro
- Nessun item cade sull’asse, in modo tale da dare una chiara definizione al fattore
LA MAGGIOR parte delle mutifattoriale hanno questa caratteristica
SOLUZIONE COMPLESSA
Quando la soluzione non presenta items che cadono chiaramente su un solo fattore,
ma presenta molti items complessi (a metà strada), la soluzione si dice complessa
➔ In una soluzione complessa l’interpretazione dei fattori risulta molto difficile e dubbia
Dobbiamo trasformare i nostri fattori per rendere la soluzione meno complessa → semplice
Soluzione è idealmente semplice (Thurstone): Ogni item ha una sola saturazione sostanziale
Soluzione è praticamente semplice: Il numero di items in posizioni interstiziali è relativamente piccolo (ad
es., <10% di items
Ogni item appartiene a un fattore soltanto
Soluzione è semplice ideale (Thurstone): Ogni item ha una sola saturazione sostanziale→ Non vi sono
posizioni interstiziali
INTERPERTAZIONE: Quando la soluzione è semplice,
useremo gli items che meglio saturano sul fattore per
interpretare il suo significato
PROBLEMA
Il problema è che la maggior parte delle soluzioni fattoriali
estratte dall’ACP saranno complesse
PERCHÈ’?
Consideriamo un esempio con 4 variabili-vettore→ Se
dovessimo estrarre due fattori ortogonali che diano una struttura semplice, probabilmente la soluzione
dovrebbe essere qualcosa del genere
90
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
➔ Ma ricordiamo la logica della determinazione dei fattori:
➔ Il primo fattore è estratto in modo da massimizzare la correlazione con tutte le variabili. Il primo
fattore dunque si mette in mezzo ai cluster di item, in questo caso tenta di minimizzare a distanza
fra item e si metterà in mezzo e perciò risulta non semplice perché sarà correlato con tutti.
➔ Il secondo è estratto ortogonale al primo- quindi finirà lontano dai cluster
➔ Quindi le nostre soluzioni saranno complesse
➔ Il risultato è che nella maggior parte dei casi, i fattori non si troveranno IN gruppi di variabili, ma
TRA gruppi
Dobbiamo cambiare il riferimento dei nostri fattori, affinchè si mettano il più possibile dentro i cluster, il
posizionamento dei nostri fattori facendoli finire in mezzo ai cluster--→ eseguiamo una rotazione
Soluzioni
Per ovviare a questi problemi interpretativi, si ricorre ad una rotazione degli assi volta a rendere la
soluzione la più semplice possibile, cioè la più interpretabile possibile
Rotazioni Ortogonali: VARIMAX
- In cui gli assi sono ruotati mantenendo la loro ortogonalità (cioè sono indipendenti)
- Ruota i fattori preservando il fatto che siano ortogonali, ovvero che la correlazione fra i fattori
rimanga 0
Rotazioni Oblique: OBLIMIN
- In cui gli assi sono ruotati senza mantenere la loro ortogonalità (cioè sono correlati)
LA ESEGUIAMO SEMPRE CON ANALISI FATTORIALI CON + DI UN FATTORE. ( IL consiglio generale è di
iniziare con la obliqua, se le correlazioni fra fattori sono basse passare all’ortogonale)
ROTAZIONE ORTOGONALE
La rotazione ortogonale modifica il posizionamento degli assi al fine di far
passare gli assi il più possibile all’interno di gruppi omogenei di variabili
Notiamo che le variabili rimangono fisse nelle posizioni relative, ma
cambiano solo le loro proiezioni sui fattori
Per rappresentare meglio una struttura ruotata, si allineano di nuovo i
fattori ruotati con gli assi ortogonali
➔ La soluzione ruotata è sempre più semplice di quella iniziale, e dunque useremo la ruotata per
interpretare i fattori
➔ La rotazione ortogonale trasforma le saturazioni fattoriali al fine di rendere la soluzione
massimamente semplice
Se cambiano le saturazioni, cambieranno anche la loro
somma dei quadrati- AUTOVALORI DEI FATTORI (
CI dice quanto è importante un fattore e questo può
cambiare con la rotazione- spss ci permette di confrontarli)
Le varianze dei fattori cambieranno in quanto la rotazione
rialloca la varianza tra i fattori
Cambia il sistema di riferimento ma la relazione fra
variabili rimane tale
In generale, i fattori ruotati risulteranno più omogenei in termini di varianza spiegata.
91
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Perché? ricordiamo la logica dell’estrazione dei fattori
iniziali
- F1 spiega il massimo, F2 quella che rimane
- Con la rotazione Sia F1 che F2 sono posizionati
ognuno per spiegare il massimo possibile
Cosa rimane costante?
Ovviamente, la varianza spiegata in totale non può essere aumentata da una rotazione, altrimenti
roteremmo i fattori per spiegare tutto, cambia solo quanto ogni fattore riesce a spiegare di quel totale
La comunalità (quanto tutti i fattori estratti spiegano per ogni singolo item- somma degli autovalori dei
fattori per variabile) rimane invariata es vedi immagine- scherzoso fattore 1+ fattore 2 = .39 sia con quella
normale che quella ruotata, cambia come si alloca- di norma i primi fattori perdono i varianza, i secondi ne
guadagnano
ROTAZIONE ORTOGONALE
- Al fine di ottenere una soluzione semplice si può ruotare la soluzione
- La rotazione ortogonale mantiene l’ortogonalità degli assi (rotazione rigida)
- La rotazione ortogonale modifica le saturazioni al fine di renderle il più semplici possibili
- Le varianze dei fattori risulteranno cambiate dopo la rotazione
- La varianza totale spiegata non risulta cambiata
- La comunalità degli items non risulta cambiata
- Vi sono vari tipi di rotazione (algoritmi)
La più usata è la rotazione VARIMAX
Ruota gli assi massimizzando la varianza delle saturazioni dei fattori Tale varianza è massima
quanto le saturazioni sono tutte 0, 1, e -1
Dunque la soluzione è massimamente semplice
ROTAZIONE OBLIQUALa rotazione obliqua procede come la rotazione ortogonale, ma ruota un asse alla volta senza mantenerli
ortogonali.Invece che ruotarli rigidamente, ne ruota uno alla volta, di conseguenza la correlazione fra
fattori risulti diversa da 0- l’angolo non sarà 90 gradi ma angoli differenti
Riesce a catturare cluster di item distinti in termini di dimensioni ma con dimensioni correlati.
Lo svantaggio è che mentre nella ortogonale abbiamo che la correlazione item-fattore è indipendente dagli
altri fattori ( + semplice da interpretare perchè non faccio riferimento
all’altro fattore), con quella obliqua i fattori condivideranno una
quantità di varianza.
Elementi della soluzione obliqua
Le relazioni tra items e fattori non possono essere espresse
semplicemente dalle saturazioni fattoriali (correlazioni item fattore)
in quanto i fattori sono correlati
Spss
Matrice di struttura- si guarda raramente
CORRELAZIONE SEMPLICE FRA ITEM E FATTORE
Le relazioni tra items e fattori sono decomposte in due matrici di pesi
I valori indicano la correlazione tra item e fattore, inclusa quella parte condivisa con altri fattori
DÌ SOLITO SI GUARDA LA MATRICE DEI MODELLI
92
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
MATRICE DEI MODELLI
Le relazioni tra items e fattori sono decomposte in due matrici di pesi
MATRICE DÌ CORRELAZIONE PARZIALE ITEM FATTORE PARZIALIZZANDO GLI ALTRI FATTORI- Correlazione
pura, non influenzata dagli altri fattori, migliore come indice per dirci quando l’item sarà spiegato da fattore
◼ I valori indicano la correlazione tra item e fattore, parzializzando ogni altra relazione con altri fattori
◼ La matrice dei modelli indica il contributo unico della variabile al fattore, e dunque useremo tali
valori per interpretare i fattori
Soluzione ruotata obliquamente
L’Interpretazione è la stessa, quella che correlano di più con la
componente sono quelli che ci informano di più sul fattore
La soluzione ruotata ci fornisce anche la correlazione tra i fattori
La matrice dei modelli è più «semplice» fattorialmente
Quando questa correlazione è bassa la soluzione obliqua non
conviene
Correlazione bassa: <.20 (andare sulla rotazione ortogonale)
Correlazione media (>.20 ma <.30) (forse rotazione obliqua)
Correlazione alta: >.30 (rotazione obliqua)
QUALE SCEGLIERE—vedere esercitazione- spiegazione
migliore
- Si fa la rotazione obliqua per partire
- Poi si guarda se la soluzione ha senso, è interpretabile poi la correlazione fra componenti
- Se è bassa sotto.20, rifacciamo l’analisi imponendo la rotazione ortogonale. Se la correlazione è
bassa è inutile portarsi dietro dimensioni vagamente correlate, meglio averle ortogonali
- SE è MAGGIORE di .30 manteniamo la rotazione obliqua
- 20-30 non c’è consenso- meglio mantenere l’obliqua
Riassumendo
- l più usato è il metodo OBLIMIN
Il metodo OBLIMIN varia in funzione del parametro delta ( ). Il metodo usato da SPSS di default è
con =0, che corrisponde ad una rotazione quartimin diretta.
Un’altra rotazione obliqua è la PROMAX (meno usata, ma molto valida)
Tutte le rotazioni (sia oblique che ortogonali) mirano a riprodurre il più possibile la struttura
semplice, ma differiscono sul cosa si intende per semplicità (dati vs. concettuale)
In pratica…
• Se decidete di estrarre 2 o più fattori, dovete ruotare la soluzione fattoriale
• Ruotate prima con la Oblimin (o Promax) e vedete le correlazioni tra i fattori
• Se tutte le correlazioni sono basse (ad es. <.20), rifate l’analisi fattoriale con rotazione Varimax
• Se sono alte, considerate la Oblimin (per interpretare le saturazioni fattoriali, vedete la matrice dei
modelli)
ALTRI TIPI DÌ ROTAZIONI- non le faremo a livello pratico
ROTAZIONI TEORICHE
- Non sempre si vuole ottenere una soluzione semplice
93
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
-
A volte il nostro obiettivo può essere di ruotare verso una struttura teorica conosciuta, vedere se la
soluzione abbia caratteristiche specifiche delineate da una teoria, un modello ecc
Vogliamo verificare il grado di sovrapponibilità
- ES Nei modelli circomplessi si vuole testare che le variabili prendano una disposizione “circolare”
intorno a due o più fattori
- Si delinea quale dovrebbe essere un pattern di saturazioni che assomiglia alla forma che vorrei
avere e ruoto per cercare di mettere gli assi in modo tale che le saturazioni siano più vicine possibili
a quelle orientate teoricamente. Si calcola poi la discrepanza
- Sono molto usate con strutture di dati particolari
Si testa di solito con LA ROTAZIONE PROCRUSTEA- ma serve a stabilire se la nuvola dei nostri dati hanno
una struttura particolare
- La rotazione procustea ruota la matriche delle saturazioni verso una matrice target
E poi verifica il grado di sovrapponibilità della matrice ruotata con quello target
- La matrice target può essere sia teorica che osservata (ad esempio osservata in altri studi)→ Si
ruota la matrice delle saturazioni fattoriali dei dati reali verso la matrice che contiene le posizioni
ideali delle saturazioni
- Cerca di minimizzare le distanze
- Si ruota la matrice delle saturazioni fattoriali dei dati reali verso la matrice che contiene le posizioni
ideali delle saturazioni
Esercitazione per analisi fattoriale –n.2 cap.12
L’analisi fattoriale necessità della conoscenza delle variabili. Dobbiamo avere in mano cosa significano gli
item per interpretare i fattori.
- SELEZIONE DELLE VARIABILI
INTERPRETAZIONE DEI FATTORI
Dobbiamo vedere quali sono i costrutti sottostanti ai fattori vedendo i marker del fattore, ovvero gli item
che correlano maggiormente con quel fattore, e che non correlano con quei fattori. Sono gli item semplici,
che rappresentano il nucleo di item più vicini al fattore. Dobbiamo dare una spiegazione di queste
correlazioni. Un fattore non interpretabile è inutile- dobbiamo trovare un motivo teorico per cui questi item
vadano insieme. Alcuni item hanno saturazione basse in tutti i fattori, questi item si possono eliminare, lo si
fa sempre in maniera iterativa, eliminando uno per volta quello peggiore, si rilancia l’analisi, si reinterpreta
e così via, togliendo fino a una soluzione soddisfacente.
La selezione degli item si fa di norma quando si cerca un scala, si fa meno per confermare un questionario
già validato.
Descrizione della ricerca
Ad campione di 78 ragazze adolescenti è stato somministrato un questionario sulle preferenze alimentari.
Gli item del questionario vertevano su due dimensioni: cibi dietetici e cibi grassi. All'interno delle due
dimensioni sono stati presentati item che descrivono sia snacks (sia grassi che dietetici) che cibi
generalmente cucinati in casa (sia grassi che dietetici). Le ragazze del campione sono state suddivise in due
gruppi rispetto alla tendenza a fare la dieta (attento alla dieta vs non attento alla dieta). L'età è codificata in
due valori a seconda che l'età della ragazza fosse minore di 15 o maggiore uguale di 15 anni. Descrizione dei
dati
I dati sono organizzati nelle seguenti variabili.
1. tipo, indica la tipologia del soggetto: 1=attento alla dieta, 2=non attento alla dieta.
2. eta= 1 età <15; eta=2 età =>15
3. item a1-a4 snacks grassi (merendine, patatine, etc.)
4. item b1-b4 cibi grassi cucinati (carne, insaccati, etc.)
94
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
5. item c1-c4 snacks dietetici (barrette, insalate preconfezionate)
6. item d1-d4 cibi dietetici cucinati (pesce, carni bianche, etc)
Domande
1) Determinare se una struttura fattoriale degli item a due fattori è compatibile con le dimensioni cibi grassi
– cibi dietetici.
2) Confrontare le rotazioni (obliqua vs ortogonale) per la struttura a due fattori.
3) Determinare la bontà di una struttura a 4 fattori?
4) Sulla base della struttura a 4 fattori, determinare se vi siano effetti di tipo e eta sui quattro fattori
estratti. Discutere solo gli effetti significativi?
PRIMA DÌ INIZIARE facciamo una prima analisi fattoriale→ è LA RISPOSTA ALLA DOMANDA 3
- analizza
- riduzione delle dimensioni
- fattore
- inseriamo tutti gli item
estrazione: già selezionato metodo delle componenti principali ( è uno dei vari metodi di estrazione)
- chiediamo scree-plot
- per ora lasciamo auto valore magg.1 e lanciamo
è l’analisi iniziale
- osserviamo la tabella degli auto valori
- osserviamo lo scree plot
- 4 fattore >1 autovalore
- Confermato dallo scree plot
Sappiamo che abbiamo 4 fattori- ( non ne chiedo 4 perché sono cmq già chiesti dall’autovalore 1) la
rilanciamo chiedendo la rotazione
La faremo per prima cosa OBLIQUA
IN OPZIONI- segnare ordinato per dimensioni,ordina gli item e semplifica la lettura
Tabella varianza totale spiegata
Caricamenti delle sommE dei quadrati di rotazione- auto valori nuovi
Per esprimere la varianza spiegata dai nuovi auto valori post rotazione, dividiamo questi valori per il n. di
variabili
Matrice delle componenti ruotate-→ MATRICI DEL MODELLO
COME SI INTERPRETANO?
Si guardano che hanno saturazione primaria alta e saturazione secondaria
bassa
È una soluzione molto buona
La prima componente è formata da D2 D3 D1 D4 con saturazione alte sulla
prima e basse sulla seconda
Quindi la prima componente è la dimensione che misura cattura le differenze
circa l’atteggiamento rispetto ai cibi dietetici
Lo stesso vale rispettivamente per le altre
È semplice perchè tutti i fattori hanno un item con saturazione alta, e gli altri
basse
I marker migliori hanno saturazione alta sul primo fattore
Es d.2 .982/ .036
Facendo questo rapporto, gli item che hanno saturazione primaria sopra .35 e
rapporto più alto sono i marker
95
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Qui non c’è bisogno perché è chiaro che le saturazione si clusterizzano in gruppi
Cosa riportiamo?
- Riportare l’autovalori dell’estrazione iniziale, perché dobbiamo giustificare la scelta del numero di
fattori (anche se è dato a priori, chi legge vuole vedere la corrispondenza)- si riportano gli auto
valori scelti + 2 piu piccoli, in questo caso riporto i primi 6 autovalori
- Si dichiara la rotazione effettuata
- Si riportano gli auto valori post rotazione
- Si riporta il totale di varianza spiegata
- Si riporta la matrice di saturazione, in questo caso dei modelli ( in tesi la incolliamo). Nell’esame è
bene descrivere gli item che appartengono a ogni fattore dicendo quali sono il minimo e il massimo
delle saturazioni trovate, per dare una idea di come è la soluzione, dicendo poi quale è ilvalore
massimo degli item che non saturano- lo facciamo per ogni fattore
Ex nella componente 2 saturano gli item da 1 a 4 con saturazioni che vanno da .72 a .87, con nessun
altro item che supera .047 ( ricordiamo che il segno non conta in termini di grandezze, serve solo
per comprendere la direzione del fattore, noi il segno lo mettiamo. Spesso nelle scale si cerca di
bilanciare + e - )
- Risposta. Nella componente 1 i marker sono gli item d2 d3 d1 d4 con saturazioni primarie da .98 a
.96. mentre nessun’altra variabile satura sul fattore 1 + di.15
Abbiamo fatto la OBLIMIN- DOVEVAMO VEDERE LA MATRICI DÌ CORRELAZIONI, per capire se la soluzione è
obliqua
C’è ABBASTANZA correlazione, sono sopra 0.2, anche se i fattori
vanno a coppie
Questo abbinamento ha un senso- dietetici con dietetici
Ci sono correlazioni fra fattori non trascurabili e che hanno un
senso con la struttura dei dati ( x capire meglio vedi esercitazioni
pagine dopo)
4.Sulla base della struttura a 4 fattori, determinare se vi siano effetti di TIPO E ETA sui quattro fattori
estratti. Discutere solo gli effetti significativi?
Analisi successivi, vogliamo vedere come questi 4 fattori sono associati ad altre variabili
CREIAMO LE VARIABILI: creo i punteggi fattoriali, un punteggio per ogni soggetto rispetto a quel fattore (
es stabilità emotiva)
2 METODI
1.Un metodo calcolare il punteggi fattoriale- somma degli item pesati per quanto gli item correlano con il
fattore- chiediamo quindi i punteggi fattoriali che saranno 4 nuove variabili, si crea quindi una nuova
variabile che rispetterà le correlazione fra saturazione e fattori
ANALIZZA
- FATTORE
- PUNTEGGI- salva come variabili
- La rilanciamo—mi aggiunge ai dati tante variabili quanti sono i fattori
- In VISTA VARIABILI togliamo LE ETICHETTE- e le nominiamo es F_cu_die (in tesi usiamo le
etichette)
- Vediamo le caratteristiche facendo le descrittive di queste variabili- notiamo che hanno sempre
punteggi standardizzati, con media 0 e dev.standard 1- ho una scala di rifermento. Però non
preservano la scala degli item
96
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
2. Secondo metodo per creare variabili con i fattori→ sommare gli item NON tutti pesati, ma solo gli item
appartenenti al fattore ( è un metodo buono in generale anche quando non uso la fattoriale, per calcolare il
punteggio su una certa scala ecc)
Si chiamano punteggi semplici o aggregati—creiamo noi la variabile sommando solo quelle che
appartengono al fattore, quelle che saturano >.35
Es primo fattore- somma di d2 d3 d1 d4 ecc
CALCOLA nuova variabile S ( semplici) S_CU_DIE: d1+ d2+ d3+ d4
Se per curiosità faccio la correlazione fra le due variabili ( fattoriale vs aggregate) calcolate con i due metodi
vediamo che saturano tantissimo
I punteggi fattoriale con i punteggi semplici è utile soprattutto quando la soluzione è semplice. Se è
complessa tende a diminuire. È sempre meglio usare i punteggi fattoriale (da spss) perché pesano gli item
relativamente all’importanza degli item sul fattore ( il primo metodo)
Risposta domanda 4- fare anova usando VI TIPO ETA 2X2, vd la nuova variabile fattoriale
DOMANDA 1
Verifica se una struttura fattoriale a 2dimensioni è compatibile con cibi grassi- cibi dietetici
Rifacciamo l’analisi ma in estrazione chiediamo 2 fattori, lasciamo la rotazione obliqua
- Spieghiamo il 46.066% della varianza
- Leggermente cambiati gli auto valori
- Perdiamo un pò di varianza, ma spieghiamo con 2 valori una sufficiente varianza
Per ora imporre una struttura a 2 fattori è compatibile, guardiamo però come gli item si localizzano
MATRICE DEI MODELLI
LA PRIMa componente è formata dagli item D e C, LA seconda dagli A E b, LA PRIMA mette insieme la
componente cucinare dietetici e snack dietici, e l’altra cucinare grassi e snack grassi
Primo componente- cibi dietetici vs cibi grassi- secondo fattore
Quindi la soluzione fattoriale è compatibile con questi 2 fattori- cosa vuol dire rispetto all’analisi di prima?
Già in quella di 4 fattori, 2 fattori erano correlati, si può immaginare una struttura gerarchica, ovvero 4
componenti, che se semplifichiamo si raggruppano in 2 dimensioni, e quelle che correlano vengono
schiacciate insieme
Con la oblimin devo vedere se il modello ha senso, qui ha senso – tabella delle correlazioi
C1-c2 SONO un pò interstiziali – se in rotazione chiedo GRAFICO DÌ CARICAMENTO- mi esegue lo scatter
plot degli item sui fattori
Sono minori di .35 e con un rapporto piccolo
→ SELEZIONE DELLE VARIABILE. Di fronte a una scala già validata che dobbiamo usare così come è anche
se l’item funziona poco dobbiamo tenerlo dentro, perché tanto nei punteggi fattoriali conterà poco. Invece
nella selezione della migliore misura possibile si possono selezionare le variabili e tolgo iterativamente la
peggiore
Rifacciamo quindi l’analisi senza C2
Notiamo nella tabella degli auto valori- si spiega più varianza ( 48,8 % vs 46)
C1 è ancora minore di .35 togliamo anche questo rilanciando l’analisi
Vediamo che togliendo C1 diminuisce anche C3- togliamolo
C4 è quasi buono ma qua sto togliendo il fattore C quindi se continuo così perdo un pezzo e il modello è
sbilanciato, o mi tengo la prima componente solo fatta senza C, oppure torno indietro spiegando che se
vado avanti non ottengo miglioramenti, ci conviene avere un fattore che spiega meno ma che rappresenta,
meglio il dominio che stiamo spiegando (se invece avesse tolto un po’ di C e un po’ di D sarebbe stato
diverso, avrebbe rispettato la struttura e sarebbe stato equilibrato)
Domanda 2
97
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
CONFRONTARE LE ROTAZIONI (OBLIQUA E ORTOGONALE) PER LA STRUTTURA A DUE FATTORI
- Emerge lo stesso problema
Analisi Fattoriale SELEZIONE DELLE VARIABILI ED INTERPRETAZIONE DEI FATTORI
- 1) Scelta del modello fattoriale
- 2) Scelta del numero di fattori
- 3) Rotazione della struttura fattoriale
- 4) Selezione delle variabili 5) Interpretazione dei fattori 6) Punteggi fattoriali
Selezione delle variabili e interpretazione dei fattori
✓ Nella prassi i due passaggi sono spesso iterativi
✓ Si interpretano in via preliminare i fattori
✓ Si selezionano le variabili
✓ Si riverifica l’interpretazione dei fattori in funzione delle variabili selezionate
✓ Si ripete il ciclo se necessario
✓ Affronteremo prima la questione della selezione delle variabili
✓ Ma anzitutto accenneremo cosa si intende per interpretazione dei fattori e selezione delle variabili
Interpretazione dei Fattori
Una volta estratto un numero limitato di fattori, si pone il problema di identificare cosa essi rappresentino
in termini di contenuto. Cioè rispondere alle domande:
◼ Il fattore quale dimensione indica?
- Quale è la variabile latente (generale) che viene misurata con un dato fattore ?
- Come è diverso/simile rispetto ad altri fattori?
Esempio: analisi ACP Abbiamo misurato 7 item di personalità (aggettivi di autodescrizione), di cui 5
dovrebbero essere aggettivi associati all’estroversione e due alla socievolezza
- Ci proponiamo di vedere se esiste un fattore unico sottostante a questi item e vogliamo capire
quale sia
- Estraiamo comunque un fattore solo per vedere cosa indica
- Ricordiamo che la saturazione fattoriale, la correlazione tra fattore (componente) e variabile, indica
quanto è stretto il legame tra items e fattore, cioè quanto ciascun item partecipa alla costruzione
del fattore
Interpretiamo questo fattore come “estroversione”, dicendo che gli
items che saturano sostanzialmente sono accomunati dalla dimensione
estroversione mentre gli altri items non appaiono accomunati ai primi
In generale, la saturazione si considera sostanziale (alta) quando
supera ±.35 Interpreteremo il fattore come quel costrutto, tratto o
dimensione che accomuna gli items con saturazione maggiore di ±.35
L’interpretazione dei fattori ha sempre una certa dose di soggettività
(come ogni interpretazione) ma NON è perciò arbitraria
➔ Daremo più importanza ad items che saturano di più
➔ Il nome usato di solito raggruppa gli items e non è uno di essi (ma dipende dalla teoria… in
esercitazione i primi 2-3 più significativi)
➔ È fondamentale raccordarsi con le teorie esistenti
Nel nostro esempio- Notiamo che potremmo anche definire questa componente come “simpatia”, ma non
come “intelligenza”
Selezione delle variabili
Non tutte le variabili sono egualmente importanti
98
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
-
Specialmente se si sta costruendo una scala di misura di un costrutto psicologico, si porrà il
problema di selezionare le variabili migliori oppure escludere quelle peggiori
Bisognerà perciò utilizzare delle procedure che ci portino ad individuare le variabili da escludere o
da selezionare
Le procedure comporteranno un misto di considerazioni numeriche e teoriche e potranno variare
in funzione dei nostri obiettivi
Sulla base dei risultati precedenti, possiamo eliminare dal
fattore i tre items che non saturano (<±.35) e vedere se la
soluzione migliora
La selezione delle variabili è particolarmente rilevante
quando:
1. Vogliamo costruire e validare un nuovo strumento di misura
2. Vogliamo individuare i migliori indicatori per un certo fenomeno
3. Vogliamo considerare soltanto le variabili che “funzionano” per una certa misura
4. Vogliamo fare una versione ridotta di uno strumento di misura più lungo
La selezione delle variabili è MENO indicata quando:
1. Vogliamo verificare la struttura fattoriale di uno strumento già validato
2. Vogliamo verificare la struttura fattoriale di un certo fenomeno
Selezione delle variabili
Il metodo di gran lunga più usato è quello della saturazione primaria (Primary Loading) >|.35|, spesso con
qualche correzione soggettiva
Due criteri chiave: Una variabile dovrebbe
1) saturare sufficientemente su un fattore (>|.35|)
2) non saturare su altri fattori (<|.20|). Ciò può essere catturato
dal rapporto tra saturazione primaria e secondarie che
dovrebbe essere elevato (>|2|)
Interpretazione dei Fattori
• Senza una conoscenza teorica solida, è difficile interpretare correttamente i fattori
• Gli elementi chiave sono le saturazioni fattoriali. L’attenzione va posta sulle variabili con le
saturazioni più elevate e puliti. Ci si chiede “cosa accomuna queste variabili?” e “cosa le differenzia
da altre variabili/fattori?”
• Non basta focalizzarsi sulle saturazioni alte sul fattore
• Bisogna porre attenzione anche alle saturazioni delle altre variabili sugli altri fattori
• Bisogna cercare di capire cosa è, ma anche cosa non è
( ricordiamoci che alcuni items hanno saturazioni negative sul fattore, sono ugualmente importanti,
indicano solamente la direzione)
ELIMINAZIONE
- È meglio eliminare un item per volta
99
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
E poi rifare l’analisi ed eliminare il secondo item e così via in maniera iterativa
Può accadere che un item che sarebbe stato eliminato, in realtà poi non lo si elimina più
Le saturazioni fattoriali sono sempre relative alla soluzione prescelta e dipendono dagli altri items
considerati
SELEZIONE DELLE VARIABILI E INTERPRETAZIONI DEI FATTORI
✓ I due passaggi sono spesso iterativi
✓ Le variabili si selezionano in funzione della loro “pulizia” fattoriale
✓ Ma attenzione anche agli aspetti teorici e di contenuto
✓ Specialmente quando stiamo sviluppando una misura di un costrutto, noi vogliamo rappresentarne
vari aspetti
✓ Un’analisi teorica precedente ci aiuta ad identificare questi aspetti
✓ La selezione degli items non sarà solo numerica ma anche teorica
✓ Ci interessa rappresentare i vari aspetti del costrutto
USO DEI FATTORI IN ANALISI SUCCESSIVE
-
Punteggi fattoriali
I punteggi fattoriali possono essere calcolati alla fine della AF al fine
di attribuire ad ogni soggetto un punteggio sul fattore
I punteggi fattoriali sono calcolati come la somma pesata degli items,
ogni item pesato per l’importanza che ha sul fattore
I pesi usati sono detti “coefficienti di punteggio fattoriale” e sono
una trasformazione delle saturazioni (cioè dipendono dalle
saturazioni)
Punteggi fattoriali: vedi sopra, lo chiedo ad Spss→ IMPORTANZA DÌ
OGNI ITEM nel fattore, danno un misura del fattore per ogni
soggetto-“ salva punteggi”
PUNTEGGI SEMPLICI:
Mentre i punteggi semplici (aggregati, creo io una variabile
semplice con gli item che saturano con il fattore >.35) E Faccio la
media( controllare nei riassunti libro)
I punteggi fattoriali sono affidabili con un campione di
numerosità perlomeno decente (n>100)
Altrimenti il peso dato ad ogni item può essere influenzato
troppo dalla fluttuazione campionaria
Alternativa semplice: pesare ugualmente gli items solo in
funzione della loro appartenenza al fattore (cf. punteggio
semplice)
Si vede quali items appartengono al fattore
Si calcola il valore medio di questi items
Quello sarà il punteggio nel fattore o nella dimensione o scala (NON il punteggio fattoriale
A cosa servono i punteggi fattoriali
Come per qualsiasi altro punteggio, li possiamo utilizzare per verificare differenze, predire altre variabili,
ecc., a livello dei fattori
Nella lezione di Perugini vi è una parte sui MODELLI GERARCHICI
Nell’analisi fattoriale sinora siamo passati dagli items al fattore Un livello di astrazione Ma a volte c’è
bisogno di più livelli di astrazione
100
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
ES Analisi di fattori che fanno parte di fattori più grandi es Degli aspetti diversi di intelligenza (verbale,
numerica) che poi si riferiscono ad un fattore generale di intelligenza (g)
Come affrontiamo queste situazioni? 1) Abbiamo bisogno di un modello teorico che lega le variabili a due
livelli di astrazione 2) Facciamo una serie di analisi fattoriali (almeno due)
Procedura per modelli gerarchici
PRIMO PASSO
Analisi fattoriale (ACP) sulle variabili
Estrazione di tanti fattori quanti aspettati teoricamente (gli items di solito sono scritti per misurare
dei fattori e non random…)
Estrazione di tanti fattori quanti suggeriti dai criteri di scelta (ad es., Scree-test, stabilità)
Rotazione Oblimin della struttura fattoriale
Ispezione delle saturazioni e delle correlazioni tra i fattori. È la soluzione sensata? Sono i fattori
correlati?
Salvare i punteggi fattoriali
SECONDO PASSO
- Analisi fattoriale (ACP) sui punteggi fattoriali precedentemente salvati
Estrazione di tanti fattori quanti attesi teoricamente o secondo criteri di scelta (di solito solo un
fattore)
Se si estrae un solo fattore, non ruotare
- Se si estraggono due o più fattori, ruotare (di solito Varimax, ma può anche essere Oblimin,
dipende dalla teoria)
- Ispezione delle saturazioni (ed eventualmente delle correlazioni tra i fatttori). È la soluzione di
secondo ordine sensata?
Salvare i punteggi fattoriali
Disegnare il modello concettuale per illustrare i risultati
USO COMPLESSO_ Scelta dei fattori
- Una forte conoscenza teorica aiuta nella scelta del numero dei fattori
- Specialmente quando ci sono più soluzioni plausibili
- L’interpretabilità dei fattori èun esempio
- Per aiutarla, si può cercare di scomporre le varie soluzioni fattoriali
- In questo modo, si può vedere il flusso teorico e comprendere se la soluzione con piùfattori aiuta a
spiegare meglio il raggruppamento delle variabili
- Cosa significa “meglio” dipende dalla conoscenza teorica (ma sempre sulla base dei risultati
numerici)
L’ultima lezione
Fondamentale l’interpretazione e come si scrive
Rispondere ad un quesito statistico
Per rispondere ad un quesito statico (di ricerca o di esame) possiamo strutturare il ragionamento
rispondendo ad una serie di domande:
RIGUARDA LA RELAZIONE TRA VARIABILI O IL MODELLO DI MISURA?
- Relazioni fra variabili
• Effetto di una o più variabili su una dipendente
• Associazione tra due variabili
• Differenze fra gruppi
• Influenza di una variabile su un altro effetto
101
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
-
Modello di misura
• Attendibilità di una misura
• Dimensionalità di una misura ( estrai n.fattori ecc)
• Coerenza tra misure alternative
• Clusterizzazione di item in costrutti
• Validità di una misura
Relazioni fra variabili Le domande a cui dobbiamo rispondere per gestire un’analisi relativa alle relazioni
fra variabili sono sostanzialmente due:
➢ 1Che tipo di modello dobbiamo stimare?
➢ 2Come lo dobbiamo stimare?
➢ 3È il modello empiricamente sostenibile? Ovvero le assunzioni sono rispettate?
➢ 4A quale effetto siamo interessati?
TIPO DÌ MODELLO:
1Quale è la natura della variabile dipendente?
- Continua → MODELLO LINEARE
- Categorica→ ( modello Logistico)- modello
lineare generalizzato
2Quale è la natura della variabili indipendenti?
- Continua → modello regressione
- Categorica→ anova
Modello regressione
- Entrambe → Modello ANCOVA
COME SONO STRUTTURATI I DATI?
- Cross-sectional –il soggetto ha solo un punteggio della VD
- Misure ripetute ( è un caso particolare delle clusterizzate, DEL SOGGETTO viene misurato più volte,
o l’unità statistica, che non sono una persona. Es se sto studiando la terapia di coppia
- Misure clusterizzate- generalizzano le misure ripetute, sono un sovra caso delle misure ripetute.
Prevede anche situazioni in cui le misure prese sono raggruppabili in cluster con la caratteristica
che le misure dentro il cluster sono più simili, rispetto a quelle fra cluster
CROSS-SECTIONAL
• Survey di questionari
• Esperimento between-subject
• Osservazioni senza ripetizione
• Etc.. Ogni soggetto misurato indipendentemente dagli altri ed una volta sola
MISURE RIPETUTE
• Esperimento within-subject
• Studi logitudinali
• Etc.. Ogni soggetto misurato in diversi tempi ed occasioni
MISURE CLUSTERIZZATE
• Esperimento within-subject
• Studi logitudinali
• Studi multilivello
• Studi su soggetti campionati in gruppo
102
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
SOSTENIBILE? ABBIAMO RISPETTATO LE ASSUNZIONI?
A QUALI EFFETTI SIAMO INTERESSATI?
OGNUNO di questi effetti ha un indice di grandezza dell’effetto
associato
R2, eta quadro ecc
MODELLO DI MISURA
Attendibilità ( coerenza interna delle misure) vs dimensionalità , coerenza tra misure alternative,
clusterizzazione di item in costrutti, validità di una misura
Riguarda l’attendibilità delle misure? Attendibilità
• Categoriche: Kappa di Cohen
• Ranking: coefficiente di correlazione intraclasse
• Continue: correlazione ( 2, o in tempi diversi) e alpha di Cronbach
Riguarda la dimensionalità delle misure? Analisi fattoriale
 Scelta del modello
 Scelta dei fattori
 Rotazione
 Interpretazione dei fattori
 Punteggi fattoriali
Esempio 1
- Vd continua
- Vi- categoriche
103
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
-
1 sola misura
Domanda 1- anova – guardo l’interazione – riportando un modello si è soliti riportare i numeri
statistici di tutti gli effetti, e interpreto quel che mi serve Interpretazione del grafico
- Domanda 2 post hoc
- 3) ancova- autostima ma continuo
- 4) assunzioni
Esempio2
- Ogni sogg.- 2 misure- test/ pre test
- 1) posso usare l’anova a misure ripetute( e guardo l’interazione). Oppure una ancova in cui metti
come VI gruppo e come altra indipendente ansia prima
- 2) uso indice dell’effetto- eta quadro dell’interazione-. Si prendono i due, chi lo ha più grande, è il
modello più forte
- 4) fare un grafico—RAPPRESENTARE- regressione logistica – chiedo di salvare i punteggi predetti e
faccio un grafico fra perfomance e punteggi predetti ( che sono trasformati in probabilità)- con uno
scatter si vede come cambia
Esempio 4
- Dati clusterizzati – sicuramente modelli misti – dobbiamo rendere quali sono gli effetti random
- 1) regressione, entrambe indipendenti- l’intercetta della regressione ( costante ) come randoml’effetto è fisso e l’intercetta varia- riportiamo il coefficiente di regressione che lag performance e
intelligenza
- 2) salvo i punteggi opredetti vD punteggi predetti. Se fosse stata l’anova faremo le medie
- 3)come la 1 e aggiungiamo l’effetto di intelligenza
- 5) è lo stesso e inserisco come VI la disponibilità, considerando l’interazione
COME SI SCRIVE
APA style
The following examples illustrate how to report statistics in the text of a research report. You will note that
significance levels in journal articles-- especially in tables--are often reported as either "p > .05," "p < .05,"
"p < .01," or "p < .001." APA style dictates reporting the exact p value within the text of a manuscript
(unless the p value is less than .001). P NON è MAI ZERO
Also, with the exception of some p values, most statistics should be rounded to two decimal places.
Mean and Standard Deviation are most clearly presented in parentheses: The sample as a whole was
relatively young (M = 19.22, SD = 3.45).
Percentages are also most clearly displayed in parentheses with no decimal
Places: “Nearly half (49%) of the sample was married”.
Chi-Square statistics are reported with degrees of freedom and sample size in parentheses, the Pearson
chi-square value (rounded to two decimal places), and the significance level: The percentage of participants
that were married did not differ by gender, c 2 (1, N = 90) = 0.89, p = .35.
T Tests are reportedwith the degrees of freedom in parentheses. Following that, report the t statistic
(rounded to two decimal places) and the significance level: There was a significant effect for gender, t(54) =
5.43, p < .001, with men receiving higher scores than women.
Correlations are reported with the degrees of freedom (which is N-2) in parentheses and the significance
level: The two variables were strongly correlated, r(55) = .49, p < .01.
Regression results are reported with the B's (or betas), t-test, degrees of freedom, and pvalues. The Rsquared is reported with the F test: Social support significantly predicted depression scores, b = -.34, t(225)
= 6.53, p < .001. Social support also explained a significant proportion of variance in depression scores, R2 =
.12, F(1, 225) = 42.64, p < . 001.
104
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Anova results are reported with F-test, degrees of freedom, and p-values, and some effect size for each
effect: There was a significant main effect for treatment, F(1, 145) = 5.43, p= .02, eta2=.24 and a significant
interaction, F(2, 145) = 3.24, p = .04, eta2=.09
Any other linear model is reported accordingly
APPUNTI esercitazioni turno FORGIANINI
Prima lezione
Ripasso spss dei primi due anni
- Ricodifica stessa variabile
- Ricodifica in variabili differenti – es da una continua a una variabile categoriale
Primo argomento; la regressione
Quando facciamo inferenze, intendiamo il passare da una piccola parte della popolazione all’intera
popolazione, cerchiamo di capire quanto di quello che ho osservato in un campione sia attribuito al caso o
meno.
HO DEI test inferenziali è che non si trova nulla, ovvero l’effetto non vale sulla popolazione. L’intento nostro
falsificare questa ipotesi nulla → “ approccio falsificazionista”. – a partire da HO sulla popolazione e da un
dato su un campione, stime la probabilità di avere quel dato, quell’effetto sul campione. (Se HO è vera)--valore p ( sig). probabilità condizionata, minore è, più è bassa e maggiore sarà la significatività del test
inferenziale. In qualunque test abbiamo un valore p, maggiore è il p, minore è la probabilità di avere quel
fato sulla popolazione,e dunque è vera HO.
Accettiamo come violata HO, quando sig.p < 0.05 in spss .05, ovvero la probabilità che i risultati siano legati
al caso è minore del 5%, una volta su 20, 5 su 100.
Errore di tipo 1 o alfa- la probabilità che HO sia violata, quando in realtà l’ipotesi nulla è vera ( massimo 5
volte su 100 per le scienze sociali)
Errore di tipo 2 o beta- La probabilità complementare, (1- β), ossia la probabilità di rifiutare correttamente
un ipotesi nulla falsa, si chiama potenza del test • Maggiore è la potenza di un test, maggiore sarà la
possibilità del test di identificare come corretta l’ipotesi alternativa quando questa è effettivamente vera
REGRESSIONE semplice
- Entrambe le variabili siano quantitative
- 1 solo predittore, una VI eun Vd
- MODELLO lineare Y= a ( intercetta o costante, stima di y quando x è 0) + bx
- Ad ogni x viene associata una y, viene stimato il migliore modello lineare per due variabili
quantitative
- La significatività del coefficiente b è la significatività di quel predittore- noi commentiamo la sig. di
questo fattore
- R2- è la stima della varianza spiegata ovvero quanta varianza di Y è dovuta a X
Seconda lezione: regressione multipla e moderazione
Modelli lineari con più di un predittore, più di un predittore contemporaneamente ha un impatto sulla
variabile dipendente. Più variabili vengono prese in considerazione, maggiore è R2.
Siamo interessati a capire il legame fra i predittori; ogni singolo effetto viene stimato al netto degli altri,
tenendo costante, parzializzando gli altri predittori.
File : auto- analizza regressione lineare
- VD peso
- VI lungh e potenza
- Permette di rispondere a una domanda tipo “ relazione lunghezza-potenza”- effetto a parità di
lunghezza della potenza e vicevera.
105
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
R2 è l’indice di bontà dell’intero modello e tiene conto di tutti i predittori
B è il coefficiente di ogni predittore, stima il valore e la significatività
Quindi per ogni cm di lunghezza delle auto, il peso aumenta di 3,6 kg al netto della potenza del
motore ( a parità di cavalli del motore)
- La costante ( stima del modello quando i predittori sono 0)-è una stima teorica non ha senso
- Questo modello stima il 91% della varianza della vd ( R2), 8,4%di errore ( varianza non spiegata)
- R2-indice di bontà complessivo ( presente in tabella anova) si tende ad utilizzarlo quando ho tanti
predittori e quindi R2 normale potrebbe essere gonfiato, può essere utile e bene dire quando è
simile a quello corretto. In questo file viene significativo.
Correlazioni parziali e semiparziali- regressione→ statistiche-→ flaggo correlazione di ordine 0 e parziali
Tabella coefficienti:
- Correlazioni di ordine 0: coefficienti di pearson non parzializzati fra predittori e VD
- Ultima colonna della tabella: “parte”- SR- semiparziali- indicano le correlazioni semiparziali, posso
valutare il contributo unico del singolo predittore, elevando questo valore alla seconda- SR^20,542 X 0,542 – 27%- questo valore indica quanta varianza spiegata aggiungo al modelllo con
questo predittore
- SECONDA colonna – parziale- PR^2- è il guadagno sull’errore, se introduco questo predittore
l’errore diminuisce del ecc ( PR^2= a/a+e)
Questa stessa interazione nell’ANOVA è una MODERAZIONE- osservo se i vari effetti sono variabili nelle
categorie del campione
La moderazione risponde al perché, con l’anova vale lo stesso discorso ma con variabili categoriche
Nella regressione si osserva nel nostro esempio se l’effetto di lunghezza sul prezzo è moderato dalla
potenza ( quantitativa)- con variabili quantitative, l’analisi della moderazione la posso fare tramite
PROCESS, un programma aggiuntivo scaricabile oltre SPSS
- Y: PREZZO
- X: LUNGHEZZA- VI
- M: moderatore- potenza
- Gli chiedo il modello di tipo 1- moderazione per regressione
- Opzioni- generate data for plotting
- Altro modo- Modell → INT_1- interazione di primo ordine, indica di quanto aumenta l’effetto di x
su y per ogni punto in più del moderatore
- Condizional. Stima in 3 livelli di “cavalli- potenza” e il B di lunghezza corrispettivo
- Effect: di quanto aumenta il prezzo per ogni cm in più per i vari valori di cavalli
- <1 dev standard, media moderatore, >1 ( questi sono i valori di potenza)
- Per fare i grafici: Click- seleziono da data ( sotto paste) a cavalli in basso- copio in sintassi su spss e
clicco il verde – doppio click sul grafico- curva di adattamento ai sottogruppi
- Risposta: in generale l’effetto di lunghezza su prezzo è forte e significativo, ma dipende dalla
potenza del motore ( moderatore), in particolare l’effetto di lunghezza è basso con auto molto
potenti, e alto con auto meno potenti
3.lezione: anova between subject- anova fra soggetti
Rispetto a prima ciò che cambia è il tipo di variabile indipendente, con l’anova abbiamo variabili
indipendenti categoriali , che definiscono gruppi. Avere un effetto significa dunque avere che le medie dei
gruppi sono significativamente diverse fra loro ( l’unica variabile che incide sull’errore sono le differenza
infragruppo, in questo senso il miglior predittore è la media).
Fra le medie dei gruppi- gli scarti all’interno del gruppo- è l’errore del mio modello, “ entro il modello”
Differenze delle medie fra i gruppi e entro i gruppi:
106
-
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
-
F di Fisher, rapporto di varianze ( 1 grado di libertà per il numeratore, 1 per il denominatore)
V.effetto fra oggetti o spiegata, between fra gruppi, numerator della F / denominatore della F,
varianza entro gruppi, varianza non spiegata, errore
H1: almeno 2 medie fra loro sono diverse (non è necessario che tutte le medie siano diverse)
In questo caso non abbiamo ancora misure ripetute, ma 1 misura per ogni soggetto
1 soggetto→ 1 gruppo
Per comprendere le differenze sono necessari confronti fra medie post-hoc, e ovviamente non han senso se
ho solo 2 medie e so che la differenza è fra loro. Allo stesso modo se l’effetto non è significativo, e non c’è
differenza fra medie è concettualmente sbagliato fare i post hoc.
Quindi es. effetto di ETÀ ( variabili con 3categorie)- su pressione
- Modello lineare generale
- Uni variata
- Vd pressione
- Fattori fissi ETA
- In covariate si mettono le variabili quantitative per l’ancova- analisi della covarianza.
Importante fare i grafici delle medie
Output
- Tabella- frequenze per ogni gruppo
- 2- test per gli effetti
• In questa: media quadratica- spieghiamo 851 della varianza –varianza dell’effetto
• 197- varianza d’errore, somma degli scarti, delle differenze fra soggetti entro il gruppo
• Gradi di libertà- df numeratore- F- = k ( numerodi gruppi) -1 =2
• Gradi di libertà errore- df denominatore N ( numero di soggetti)- K = 97 -→ dipendono
quindi in gran parte dal campione
• 851/197-→ F di fisher- 4,31
• F(2,97)=4.31, p< 0.05
• Ricorda: differenziare i decimali uso ilpunto, differenziare statistiche diverse la virgola
• In questo caso abbiamo più di 2 gruppi-chiediamo i post hoc che mi aiuta a capire quali
sono statisticamente differenti
Post hoc- sono dei tentativi in cui vengono confrontate tutte le medie e si nota quali sono diverse-→
tuttavia aumentando il numero di test aumenta l’errore
I post hoc allora riducono questo errore tramite una correzione dell’alfa che rischia però di “ ammazzare gli
effetti”, riportandoli più piccoli di quanto sono
Es: tukey, Bonferroni ( fino a 3 gruppi)
Reginf- consigliato con tanti gruppi, più bilanciato
MODERAZIONE- più di un predittore categoriale – si verifica se gli effetti sono stabili o variano fra i livelli
dell’altro fattore ( es fra i diversi generi)
4.lezione:
MISUR RIPETUTE- disegni fattoriali within subjects
Vediamo se i valori della Vd sono influenzati da 1 o più fattori sperimentali, ma la struttura sperimentale
non è basata solo su gruppi, ma su più misure lungo il tempo delle stesse variabili sugli stessi soggetti es.
studi longitudinali
Domande: cambiare le cond.sperimentali cambia gli effetti?
Con variabili quantitative: guardo la media per ogni condizione sperimentale e la confronto- se l’effetto è
significativo al variare delle condizioni sperimentali variano le Y ( vd)
107
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Ricordiamoci le assunzioni dei modelli lineari: distribuzione della varianza lungo i tempi
- La varianza di Y deve essere costante, in tutti i modelli lineari- ovvero non deve esserci correlazione
fra X e la varianza di Y: assunzione di omoschedasticità
Nell’anova a misure ripetute: prende il nome di Sfericità: la varianza e le covarianza di y nelle varie
condizioni sperimentali devono essere costanti
Se si viola l’assunzione→ stime dell’anova corretta
TEST PER VERIFICARE QUESTA ASSUNZIONE-→ TEST DÌ mauchly
SFERICITÀ__> ho: SE non è significativo, l’assunto di sfericità è rispettato, vi è omogeneità di varianze e
covarianze
Se è significativo il P, la sfericità è violata e riporto i valori corretti dell’anova
Sono anche modelli fattoriali- in cui stimiamo le interazione fra gli effetti, ovvero se l’effetto di un fattore è
moderato dai livelli dell’altro
NB:_ CON LE MISURE RIPETUTE I POST HOC NON SI POSSONO FARE
Esempio ricerca: studiare l’empatia verso il prossimo, gli stessi soggetti ottengono più misure
Disegno 3x2
In SPSS- ogni condizione sperimentale ( o tempo) èuna colonna nei disegni a misure ripetute, è quindi
importante avere in mente la struttura sperimentale
 Stimolo – 2 livelli
 Etnia- 3 livelli
Definisci: mi chiede i dati che corrispondono alle 6 condizioni sperimentali→ conoscere la struttura è
importante per non sbagliae l’ordine
Chiedo i grafici
OUTPUT.
- Prima tabella—riassunto del modello
- Test di mauchly- di sfericità- si testa per i vari effetti ( viene assunto per vero se il fattore ha 2
livelli)—dobbiamo cmq scriverlo “ il fattore stimolo ha 2 livelli, viene rispettato l’assunto di
sfericità”- riporto valore P e W ( con le misure ripetute levene)
- Vedo gli effetti e interpreto il grafico per comprendere l’interazione
Quinta lezione: MODELLO lineare generalizzato e MODELLI MISTI
( altro tipo di anova)
➔ Inclusione di fattori random ( casuali)- ammettiamo che i nostri valori possano variare fra soggetti
➔ CLUSTER- vogliamo vedere se c’è una variazione fra cluster e cluster ( ES FRA CLASSI di una stessa
scuola)
➔ Vediamo se l’effetto fisso cambia fra cluster
➔ Idea che i punteggi dei soggetti si influenzano fra di loro
• Stimo gli effetti fissi, come in una normale anova
• Effetti random: variazione degli effetti fissi fra cluster
IL CLUSTER non è un fattore dell’anova ma è la struttura dei dati
NB Situazioni tipiche in cui si usano i modelli misti:
- Dati gerarchici: studenti, università. Classi- analizzo se nei gruppetti vi è variazione rispetto agli
effetti fissi
- Dati a misure ripetute
La struttura in SPSS deve essere adeguata, per i modelli misti è necessaria una struttura LONG, lunga e
stretta
108
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
Il cluster struttura i dati—in questo caso il cluster è ID: file empatia- tasto dx- ordine crescente- ogni
soggeto si ripete 6 volte
Righe? Quante osservazioni per ogni cluster: 6 misure x soggetto- 6x47- 282 misure
Slide : modo per passare da FILE WIDE ( largo e corto) e LONG ( stretto e lungo)
Es wide:
id
X1
X2
X3
X4
2
Es long
1.1
1.2
1.3
1,4
1.5
1.6
2.1
Ecc
Eta
empatia
Esempio: file BRAIN RATE
- 5 soggetti
- 6osservazioni
- Disegno 3x2- farmaco 2 livelli x regioni 3 livelli
Cosa osserviamo?
- Effetto fisso del trattamento
- Effetto fisso di regione
- Interazione
- Se questi variano fra cluster→ se l’effetto ha una sua varianza
Modelli misti→ lineare
- Soggetti; metto il cluster- “ animal”
- Ripetuto niente
- Vd activate
- Fattori: regioni e treatment
- Su fisso alto dx- seleziono entrambi e interazione
- Casuale: alto dx: metto in combinazioni ( animal in basso)- serve se ho più cluster, rara cosa.
- Flaggo “ includi intercetta”→ valore medio di ogni cluster – va sempre chiesta
- Metto dentro nel modello- senza interazione- la aggiungo io
Stiamo chiedendo la varianza di differenze- vediamo se gira il programma
- Statistiche: stime dei parametri e test di covarianza
- Medie- le inserisco tutte e 3
Il programma non gira- lo devo semplificare- non mi stima regione – LA TOLGO – tolgo regione e rifaccio
MM
Output:
- Effetti fissi
- Stime dei parametri di covarianza: l’effetto random dell’intercetta non è significativo, la media della
y da cluster a cluster non varia in modo sig.
109
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
- Treatment: la varianza dell’effetto fisso non è sig, l’effetto del farmaco non varia fra cluster
- Guardando le medie posso vedere come variano
Lezione 6: ANALISI FATTORIALE
- Variabili continue quantitative- quelle della retta di regressione
- Si basa sulle correlazioni
- Risponde alla domanda: perché 2 variabili correlano? Perché hanno un fattore comune, latene,
sottostante che produce un cambiamento simultaneo
- È un modello che non cambia i dati ma il modo di guardarli
2 tipi di approcci:
- Esplorativo- non conosco quanti fattori spiegano il modello – mi faccio guidare dati dati
- Confermativo- ho già un num. Di fattori in mente e cerco di confermare l’ipotesi
Primo step- analisi della dimensionalità: andrebbe sempre fatta, sia nell’approccio confermatorio che
esploratorio
2: interpretazione del modello- scelgo il numero di fattori
( per l’analisi fattoriale servono almeno 10 soggetti ogni item )
Punto di partenza- n. variabili estratte = n.variabili osservate→ 100% varianza spiegata
- Fattori ortogonali
- Estraggo per primo il migliore
- ANALISI DELLE COMPONENTI PRINCIPALI- Assumiamo per ipotesi che l’intera varianza sia spiegabile
- Afc- più complicata
Spss
- Riduzione delle dimensioni
- Fattoriale
- ( “analisi delle corrispondenze” è invece per le V.categoriali vs scaling ottimale- per le mappe di
posizionamento)
- Inserisco gli item
- Estrazioni “ metodo delle componenti principali” – utilizzo questo a meno di specifiche indicazioni
- Chiedo scree-test grafico degli auto valori
1) Lascio come criterio di estrazione AUTOVALORE >1, perché un fattore non può spiegare meno di se
stesso
- Opzioni: ordino per dimensione
OUTPUT
- PRIMA TABELLA: comunalità- varianza d’errore di ogni singola variabile
- 2 tab: varianza totale spiegata: tabella per i fattori latenti
Un modello accettabile spiega circa 35-40% in psicologia – massimo 70-80% altrimenti è inutile, non
c’è differenza fra variabili e fattori
- Grafico degli auto valori: retta di interpolazione a mano, i fattori non interpolati sono quelli che
spiegano meglio il modello
- Vi sarebbe poi anche analisi parallela e interpretazione teorica
- Rieseguo l’analisi chiedendo i fattori prescentli, rotazioni ecc
- Terza tabella;matrice delle componenti- vedo dove gli item saturano con quali fattori
Lezione 7
Saturazioni: si vedono i pesi di ogni componente che aiutano a ristimare gli item
Analisi parallela: confronto gli auto valori e dati generali casualmente a parità di soggetti e variabili
110
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
-
Nel confronto, se gli auto valori sono > di quelli random si possono tenere—lo posso fare tramite la
sintassi
Ho compreso quanti fattori richiede il modello- l’analisi diviene confermato ria
- Matrice della saturazione: comprendo i legami item/fattori
Prima di questo vogliamo massimizzare il nostro modello: chiediamo la rotazione
➔ Vogliamo che nella matrice per ogni item vi sia solo un valore che si avvicina a 1 e altri vicini a 0
➔ La non ruotata è per definizione ortogonale- l’algoritmo estrae un fattore per volta in maniera
ortogonale
➔ 2 tipi di rotazioni: varimax ortogonale vs oblimin obliqua
Varimax: mantengono l’ortogonalità
Oblimin- correlazioni fra fattori ( o Promax)
In genere si parte dall’Obliqua perché posso capire se è la migliore, cosa non possibile eseguendo subito
l’ortogonale
- Se non la oblimin il programma non gira, aumento il numero di iterazioni ( x10)
Soluzione ruotata:
- La varianza totale spiegata rimane uguale in quanto dipende solo dal N.di fattori
- Il grafico rimane identico
Matrici:
1) Non ruotata
2) Ruotata
3) Struttura: non lo guardo, non tiene conto delle correlazioni fra fattori- non sono parzializzate
4) Correlazioni
MATRICE DEL MODELLO: prima di interpretarla devo capir se la rotazione oblimin va bene,
➔ Tabella delle correlazioni, mancano le significatività
➔ Soglia >.20 – se maggiori si considerano stabili, intepretabili
➔ Che far se su 5 correlazioni solo 1 è obliqua? Devo capire che peso ha nella struttura
➔ Gallucci scrive nella slide che per passare alla ortogonale devono essere tutte minori di .2
➔ Es quante correlazioni sono? 5 fattori- ( p x (p-1))/ 2 5x4/2 =10- quindi 1 su 10 un pò poco
Se ne ho 3-4-5 su 2??
1
2
3
4
5
1
1
.
.
.
.
2
X
1
.
.
.
3
X
x
1
.
.
4
.
.
.
1
.
5
.
.
.
.
1
In questo caso 3 sono >.20 (x) – è una soluzione cmq obliqua- 1 correla con 2 e 3, e 3 correla on 2- c’è una
struttura- non è ortogonale
Se passo alla Varimax lo dico- “ dopo aver ruotato ecc”
ROTAZIONE ORTOGONALE
- Matrice 1 non ruotata
- 2 ruotata
- 3 non si guarda
CON QUALI FATTORI SATURANO GLI ITEM
➔ Saturazioni nella matrice- >.35
111
Scaricato da UTENTE ANONIMO ([email protected])
lOMoARcPSD|12602152
➔ A/B- MAGGIORE DÌ 2- se il rapporto fra la prima e la seconda correlazione è >2 si può accettare che
l’item saturi su quel fattore
Diamo delle etichette a quel fattore sulla base degli item più correlati
Es
- Sicuro
- Sereno
- Romantico
Fattore stabilità emotiva
STIMIAMO I PUNTEGGI FATTORIAI- creiamo variabili standardizzate in cui creiamo un punteggio per ogni
soggetto in ogni fattore
Posso cosi vedere se ci sono eventuali outliars e eliminarli ( es nel nostro file, il soggetto 15 è 2 deviazioni
standard nel fattore 1
Oppure posso eseguire tutte le statistiche che abbiamo studiato usando le variabili fattori
Es effetto di genere su estroversione
- Anova uni variata fra soggetti
- Oppure t-test per variabili indipendenti
- I risultati sono simili- infatti il test di LEVENE- test di omeschedasticità- se non è significativo- le
varianza sono costanti, rispetto l’assunzione
- La F dell’anova infatti è il quadrato del T del T-Test.
112
Scaricato da UTENTE ANONIMO ([email protected])
Scarica