Metodi di ricerca: programma per Ph.D. Metodi Quanti – Qualitativi per le scienze sociali Analisi fattoriale e dintorni. (2 Incontro) Alessandro Pepe. Ph.D. [email protected] Definizione di Analisi Fattoriale “Tecnica di riduzione dei dati disegnata per rappresentare un alto numero di attributi osservati in un numero inferiore di dimensioni”. “Metodo per isolare le componenti sottostanti un certo paniere di dati multidimensionali”. The prime use of factor analysis has been in the development of both the operational constructs for an area and the operational representatives for the theoretical constructs (Gorsuch,1983)* * Gorsuch, R. L. (1983). Factor analysis (2nd ed.). Hillsdale, NJ: Lawrence Erlbaum. 1 Definizione operativa Factor analysis can be broadly characterized as a set of multivariate statistical methods for data reduction and for reaching a more parsimonious understanding of measured variables by determining the number and nature of common factors needed to account for the patterns of observed correlations (Fabrigar, Wegener, MacCallum,& Strahan,1999)*. Introdotta da Spearman (1904), perfezionata da Thurston (1930) e completata da Kaiser (1960) e Cattel (1966) 20.000 occorrenze in Psychinfo (Pruzek, 2005) *Hayton, J. C., Allen, D. G., & Scarpello, V. (2004). Factor retention decisions in exploratory factor analysis: a tutorial on parallel analysis. Organizational Research Methods, 7(2), 191-205. Funzioni principali La funzione di base è identificare gruppi di variabili che presentano qualche forma di relazione tra loro (= base correlazionale). Funzione principale nelle scienze sociali: Misurare costrutti a partire dai fattori costituenti e sottostanti un certo paniere di osservazioni (analisi fattoriale - AF) Ridurre il numero di variabili a disposizione per ottenere un subset più gestibile di informazioni (analisi delle componenti principali – ACP) Scomporre la varianza. 2 Quando scegliere AF e ACP • Tutte le volte che si studiano fenomeni non direttamente osservabili: – Personalità (5BFI vs. 16PF), abilità cognitive generali, stress-lavoro correlato, soddisfazione, esiti percorsi di formazione • Quando si vogliono identificare e lavorare con fattori costitutivi dei costrutti sotto indagine. • Quando si vogliono scoprire ed esplorare pattern “nascosti” che governano il funzionamento delle variabili e ne disvelano i nessi. AF e ACP non sono L’analisi fattoriale e l’analisi delle componenti principali non sono metodi di predizione delle variabili (regressione multipla, modellamento curve previsionali) Sono “soltanto” metodi per isolare relazioni tra le variabili che non emergono direttamente e per valutarne la forza esplicativa. 3 Critiche Trova variabili artificiali, aleatorie, è possibile rintracciarne un numero infinito. Elementi di soggettività legati alle scelte del decisore Ruolo indiscusso: Validazione di questionari e riduzione del numero di variabili in studio, non correlate tra loro Riduzione delle variabili ma non dell’informazione utile. Vantaggi: Creazione di fattori che rappresentano la stessa realtà ma che sono indipendenti fra loro. Non vengono considerate le differenze fra le diverse variabili. Altre ragioni sensate per usare AF o ACP In presenza di troppe “osservazioni” (item, variabili o parole): • • • • • Per ragionare sulla struttura dei dati o scoprire pattern stabili Per visualizzare in modo più immediato la variabilità Per ridurre il rumore (permutazioni casuali) Per una migliore rappresentazioni dei dati senza eccessiva perdita di informazione Per costruire percorsi più robusti ed efficaci di analisi dei dati riducendo lo spazio n dimensionale osservato in uno spazio (n-x) dimensionale sul quale costruire nuove analisi: alberi di classificazione, creazione di cluster La razionale una combinazione ragionata delle variabili osservate aumenta il potere esplicativo dai dati raccolti e di comprensione dei fenomeni oggetto di studio 4 Cosa c’è prima dell’AF (analisi del problema) • Processo standard di ricerca: • Identificazione del dominio di interesse selezione della gamma di fenomeni di interesse (atteggiamenti, tratti di personalità, abilità verbali) • Identificazione della popolazione di interesse selezione della gamma di soggetti di interesse • Dati dominio e popolazione, si selezionano le variabili di interesse (attributi di superficie) attributi che possono essere misurati/osservati • Le misurazioni sono relative ad ogni individuo all’interno del campione selezionato. Assunti dell’AF • Esiste una normale variabilità nei valori degli individui in relazione ai punteggi assunti dagli attributi di superficie. • La variabilità dei punteggi rispecchia la differenze individuali espresse attraverso gli attributi di superficie. • Gli attributi di superficie possono correlare tra loro: alcuni presentano alte correlazioni altri basse/nulle correlazioni. • Il sistema di correlazioni reciproche non è caotico, ma viene governato da un sistema di relazioni sottostanti gli attributi di superficie attributi interni • Gli attributi interni (=variabili latenti o costrutti) sono caratteristiche individuali non osservabili direttamente, ma derivabili dalla valutazione degli attributi di superficie (=comportamenti manifesti) 5 Postulati teorici • Al centro dell’AF vi è la relazione che esiste tra attributi di superficie e attributi interni gli attributi interni influenzano gli attributi di superficie in un modo sistematico e ripetibile • Ciò implica che quando si misura un attributo di superficie, almeno in parte si sta anche misurando l’influenza che l’attributo sottostante esercita (come il magnetismo e la gravità) . 6 AF: esplorativa o confermativa? Entrambi i metodi ricadono sotto l’ombrello dei modelli ad equazioni strutturali (SEM), però: • Analisi fattoriale esplorativa metodo noncondizionale, generazione di nuova struttura fattoriale non formulata a priori, induzione esplorativa, grado di affidabilità dei dati nell’indurre ipotesi su una struttura plausibile • Analisi fattoriale confermativa metodo condizionale, conferma di strutture fattoriali formulate a priori, logica deduttiva, grado di affidabilità dei dati nel riprodurre strutture plausibili. 7 Cosa inficia i risultati dell’AF Alta % Valori mancanti (missing) Outlier (valori fuori scala) Rispondenti seriali Basse varianze (punteggi raggruppati, poca variabilità intrinseca) Livelli di misurazione non adeguati e intervalli troppi stretti Numerosità campione (50 very poor, 100 poor, 200 fair, 300 good, 500 very good and 1000+ excellent, Comrey and Lee, 1992)* Pochi casi per osservazione (n=20 x v) Effetto floor ed effetto ceiling * Comrey, A. L. and Lee, H. B., (1992), A first course in factor analysis, Hillsdale, New Jersey: Erlbaum Terminologia Fattore variabile (costrutto) che non è direttamente osservabile ma deve essere inferito attraverso variabili osservate. Factor Loading (saturazione) è il coefficiente di correlazione che mostra l’importanza (peso) di ogni variabile nel definire un fattore Eigenvalue (autovalore) rappresenta la quota di varianza delle variabili spiegata dal fattore Soluzione fattoriale è il set di fattori e di relazioni tra variabili e fattori che rappresenta la soluzione al problema fattoriale 8 Come funziona FA Generazione matrice di correlazione Scelte da parte del decisore (Algoritmo di generazione dei fattori) Scelte da parte del decisore (rotazione fattori) Analisi delle relazioni tra variabili Presentazione tabelle di output Scelte da parte del decisore (scelta numero fattori) Scelte da parte del decisore (interpretazione della soluzione fattoriale) Come funziona FA Generazione matrice di correlazione 9 Matrice di correlazione La logica dell’AF Considerando tutti gli indicatori (item, parole, variabili) si spiega il 100% della varianza dei dati osservati per studiare il fenomeno oggetto di indagine La factor analysis consente di identificare n fattori, capaci di sintetizzare in modo efficiente gli indicatori empirici e di ridurne la complessità; i fattori, però, spiegano una quantità di varianza inferiore al 100% Quindi, con l’analisi fattoriale, si decide di “sacrificare” una parte della varianza spiegata a favore di una maggiore semplicità intepretativa È comunque auspicabile che i fattori spieghino, in termini cumulati, almeno il 60-70% della varianza totale 10 Logica dell’AF Esempio: perché scegliere una banca? 11 Come funziona FA Generazione matrice di correlazione Scelte da parte del decisore (Algoritmo di generazione dei fattori) Scelte da parte del decisore (rotazione fattori) Scelta dell’algoritmo Per ridurre la complessità preservando la maggior parte della varianza e cercando relazioni uniche tra variabile e fattore analisi delle componenti principali (ACP) Per analisi di concetti di interesse teorico (costrutti) massima verosimiglianza (ML) Lavora per approssimazioni successive e stima una matrice di correlazione e un’insieme di varianza che rappresentano i dati sperimentali, eliminando la ridondanza con la minima dispersione d’informazione. Altri algoritmi Fattorizzazione dell’asse principale 12 La rotazione dei fattori L’algoritmo di generazione dei fattori fa “interagire” le variabili con gli item, simulando la rete di correlazione che lega i fattori agli indicatori. Inoltre l’algoritmo simula anche la rete di relazione che esiste tra i fattori: fattori correlati o fattori non correlati? si seleziona il tipo di rotazione + adatto. E’ una fonte di soggettività diverse strutture fattoriali possono spiegare la stessa porzione di varianza. Il termine utilizzato per descrivere il tentativo di “ridefinire” la struttura fattoriale è detto rotazione. La rotazione dei fattori affonda nell’idea di muovere e far interagire gli item tra loro sulla base dello spazio geometrico (=totale varianza) definito a partire dagli item La principale distinzione è tra metodi ortogonali (coseno tra vettori 0, correlazione 0) e obliqui (coseno ≠ 0, correlazione ≠ 0) Logica dell’AF 13 Soluzioni ortogonali Ipotizza che i fattori siano statisticamente indipendenti (quindi non correlati) L’algoritmo di generazione fattoriale “mette a zero” tutte le correlazioni tra fattori. Diverse tecniche di rotazione (almeno 12). Tre ortogonali: Varimax la più utilizzata, cerca di semplificare (=ridurre) il numero delle colonne, cioè le variabili che generano la matrice di correlazione, semplifica al’interpretazione del fattore Quartimax cerca di semplificare il numero delle righe (=osservazioni), semplifica l’interpretazione delle variabili Equimax cerca di trovare un bilanciamento tra la semplificazione delle righe e delle colonne. Idea di fattore (spazio vettoriale) Coseno α = correlazione Se α = 90 allora r = 0 14 Dalla matrice di correlazione ai fattori Soluzioni oblique Ipotizza che i fattori siano statisticamente dipendenti tra loro (quindi correlati) L’algoritmo di generazione fattoriale “calcola” tutte le possibili correlazioni tra fattori. Diverse tecniche di rotazione (almeno 12) Due oblique: Oblimin Rotazione obliqua che cerca di adattare i fattori agli item e li correla. Promax E’ un metodo più diretto che cerca la rotazione che meglio si adatta a rappresentare i fattori con un singolo item e lo fa direttamente. 15 Spazio vettoriale obliquo Come funziona FA Generazione matrice di correlazione Scelte da parte del decisore (Algoritmo di generazione dei fattori) Scelte da parte del decisore (rotazione fattori) Analisi delle relazioni tra variabili Presentazione tabelle di output 16 Tabelle di output KMO di Bartlett e Test di sfericità dei dati Tabella comunalità Tabella autovalori fattoriali (Eigenvalue) e varianza spiegata Valutazione adeguatezza AF Kaiser-Meyer-Olkin’s measure (KMO=.83) [0 < KMO < 1] E’ una misura di adeguatezza dei dati raccolti, è un indice che segnala la forza delle correlazioni osservate tra le variabil in relazione alle correlazioni parziali. Dovrebbe superare .70 (cioè il 70 % delle correlazioni totali non è spiegato dalle correlazioni parziali tra gli item ma dalle correlazioni con i fattori) Test di Sfericità di Bartlett (χ2 = 4235,01, df = 276 p < .000) Indica se sulla base dati a disposizione è effettivamente sensato applicare un’analisi fattoriale (verifica identità della matrice). Ovvero testa l’ipotesi nulla che le variabili nella popolazione NON siano correlate. Se il test è significativo rifiuto l’ipotesi nulla e concludo che la correlazione tra le variabili esiste. 17 KMO and Bartlett's Test Kaiser-Meyer-Olkin Measure of Sampling Adequacy. Bartlett's Test of Sphericity Approx. Chi-Square df Sig. ,891 2166,885 276 ,000 Tabelle di comunalità La comunalità esprime la proporzione della varianza di ogni variabile riprodotta da un certo numero di componenti. Essendo una proporzione, essa varia tra zero e uno. Quindi ci dice quanta varianza perdiamo di ciascuna variabile, tenendo conto le componenti che abbiamo deciso di utilizzare. Le comunalità indicano la parte di varianza spiegata di ogni indicatore, considerando il modello fattoriale stimato Notazione h2 Vanno tendenzialmente tenuti in considerazione item o variabili che abbiano un valore di comunalità di almeno .500 18 Comunalità – Impact of Event Scale - 13 do you think of the event that shocked you without intention? do you think of canceling the event that shocked you from your memory ? do you have difficulties in concentration ? do you feel a special emotions concerning the event that shocked you? are you easily disturbed or you feel more confused after the shocking event? do you try to avoid the places and persons that remined you of the shocking event ? do you try to avoid talking about the shocking event ? does your mind surprised with a special pictures about the shocking event is there any thing else remind you of the shocking event? do you try to avoid thinking of the shocking event? do you easily disturbed? do you feel that you are anticipated and motivited to un expectedevent? do you face sleeping proplemes because of pictures or ideas that related to the shocking event? Iniziale 1,000 Estrazio ne ,947 1,000 ,937 1,000 1,000 ,532 ,958 1,000 ,533 1,000 ,947 1,000 1,000 ,543 ,379 1,000 ,549 1,000 1,000 1,000 ,947 ,516 ,549 1,000 ,562 Leggere la tabella degli autovalori fattoriali E’ la tabella che ci permette di selezionare il numero di fattori estratti più adatto per descrivere i dati empirici. Parametri da considerare per la scelta del numero di fattori Autovalori (Eigenvalue) Varianza Cumulata Varianza Totale Tecniche per la selezione dei fattori: Kaiser regola degli autovalori superiori a 1 Cattel analisi visuale del grafico decrescente degli autovalori Analisi parallela confronto con dimensionalità casuali di numeri 19 Varianza totale e pesi fattoriali Componente 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 Autovalori iniziali % di % Totale varianza cumulata 4,707 19,613 19,613 3,848 16,032 35,645 1,814 7,560 43,205 1,219 5,080 48,284 1,114 4,641 52,925 ,996 4,150 57,075 ,944 3,934 61,009 ,881 3,672 64,682 ,789 3,288 67,969 ,745 3,103 71,073 ,729 3,037 74,110 ,652 2,716 76,826 ,608 2,534 79,359 ,583 2,428 81,788 ,555 2,313 84,100 ,533 2,222 86,323 ,530 2,206 88,529 ,493 2,052 90,581 ,476 1,985 92,566 ,427 1,780 94,346 ,395 1,645 95,991 ,370 1,540 97,531 ,324 1,349 98,880 ,269 1,120 100,000 Pesi dei fattori non ruotati % di % Totale varianza cumulata 4,707 19,613 19,613 3,848 16,032 35,645 1,814 7,560 43,205 1,219 5,080 48,284 1,114 4,641 52,925 Pesi dei fattori ruotati % di % Totale varianza cumulata 3,051 12,715 12,715 2,795 11,645 24,359 2,760 11,502 35,861 2,333 9,719 45,580 1,763 7,345 52,925 Come funziona FA Generazione matrice di correlazione Scelte da parte del decisore (Algoritmo di generazione dei fattori) Scelte da parte del decisore (rotazione fattori) Analisi delle relazioni tra variabili Presentazione tabelle di output Scelte da parte del decisore (scelta numero fattori) 20 Kaiser’s rule mineigen greater than 1 criterion (K1) Il numero di fattori m sottostanti ad un paniere di variabili n è uguale al numero di fattori m che presentano un autovalore superiore a 1 (Kaiser, 1974). Il valore 1 fa riferimento alla “porzione” di varianza spiegata: superiore a 1 significa che è il fattore è in grado di spiegare più varianza di quanta ne spiegherebbe da solo che senso ha quindi inserire fattori che spiegano meno varianza di quella contenuta in una singola variabile? Problema parsimonia della soluzione. E’ come scrivere l’indice di un libro riportando il contenuto di ogni pagina. E’ una regola empirica metodi simulativi usati da Kaiser nel 1951 Problemi: 1) Tende a sovrastimare il numero di fattori (Hayton, Allen & Scarpello, 2004) 2) Soggettività in casi di fattori con autovalore di poco sopra o di poco sotto il valore 1 (Fabrigar et al., 1999). Varianza totale e pesi fattoriali Componente 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 Autovalori iniziali % di % Totale varianza cumulata 4,707 19,613 19,613 3,848 16,032 35,645 1,814 7,560 43,205 1,219 5,080 48,284 1,161 4,641 52,925 4,150 57,075 1,004 ,944 ,881 ,789 ,745 ,729 ,652 ,608 ,583 ,555 ,533 ,530 ,493 ,476 ,427 ,395 ,370 ,324 ,269 3,934 3,672 3,288 3,103 3,037 2,716 2,534 2,428 2,313 2,222 2,206 2,052 1,985 1,780 1,645 1,540 1,349 1,120 61,009 64,682 67,969 71,073 74,110 76,826 79,359 81,788 84,100 86,323 88,529 90,581 92,566 94,346 95,991 97,531 98,880 100,000 Pesi dei fattori non ruotati % di % Totale varianza cumulata 4,707 19,613 19,613 3,848 16,032 35,645 1,814 7,560 43,205 1,219 5,080 48,284 1,161 4,641 52,925 Pesi dei fattori ruotati % di % Totale varianza cumulata 3,051 12,715 12,715 2,795 11,645 24,359 2,760 11,502 35,861 2,333 9,719 45,580 1,763 7,345 52,925 CHE FARE CON F6 ? 21 Cattel Scree Test (1966) Tecnica che si basa sull’ispezione visuale del grafico decrescente degli autovalori in cerca di discontinuità : “ come i detriti di una frana che smettono di rotolare alla base del declivio” (Cattel, 1966, Raiche, Riopel & Blais, 2006, p. 6) L’interpretazione funziona bene in caso di fattori empirici molto forti. Problemi di soggettività quando non ci sono fattori molto forti oppure in presenza di due o più discontinuità. Può essere fortemente incrementato da un punto di vista matematico applicando uno studio di regressione lineare agli autovalori residuali. Il metodo funziona comunque meglio della regola di Kaiser (Zwick & Velice, 1986). ??? ?? 22 Analisi Parallela (Horn, 1965) La terza tecnica è conosciuta con il nome di “analisi parallela” ed è raccomandata dalla rivista Educational and Psychological Measurement per la “proven merit and accuracy among factor retention methods” (Thompson & Daniel, 1996). Idea dei metodi simulativi Monte Carlo nel caso dell’AF quanto la mia struttura fattoriale osservata nella matrice (n X v ) si differenzia da una ipotetica struttura fattoriale ottenuta a partire da dati casuali (nr X Vr) Ogni database presenta una sua dimensionalità fattoriale: qual è la struttura fattoriale ipotetica ottenuta a partire dalle dimensioni della mia matrice dati? Tre dimensioni: Numero di casi (c) Numero di variabili (v) Metrica di misurazione Procedura Analisi Parallela Procedura su 4 passi: 1) Generare una matrice ottenuta a partire da dati casuali che sia dimensionalmente equivalente ai dati osservati. Dimensionalmente equivalente significa con lo stesso numero di variabili (v) e osservazioni (n) e con la stessa metrica della misurazione (n=966, v= 24 and values ranging from 0 to 4). 2) Eseguire l’analisi fattoriale con la stesse scelte procedurali dell’analisi effettuata su dati reali (scelta algoritmo di generazione, rotazione dei fattori). Per eliminare il problema dell’errore di campionamento (i numeri casuali non sono casuali davvero – stessa probabilità) le operazioni 1 e 2 vanno ripetute almeno 50 volte (Hayton, Allen & Scarpiello, 2004). 3) Il risultato è avere a disposizione 50 strutture fattoriali, con 50 serie di autovalori corrispondenti al numero di fattori “ipotetici” di ogni matrice casuale. A questo punto si possono calcolare le medie degli autovalori di ogni fattori , in modo da ottenere una tabella riassuntiva. 4) Confrontare gli autovalori casuali e gli autovalori reali vanno tenuti solo I fattori che presentano un autovalore superiore a quello ottenuto causalmente. 23 Tab.4 Comparison between actual and generated eigenvalues. Dimensions F1 F2 F3 F4 F5 F6 Real Mean 95th percentile eigenvalues PA eigenvalues PA eigenvalues 1,3 1,25 1,22 1,19 1,16 1,14 1,34 1,3 1,24 1,22 1,18 1,16 4,707 3,848 1,814 1,219 1,161 1.004 Note: Factors confirmed by using parallel analysis (PA) are in bold. Quanti fattori tenere Controllare output autovalori Confrontare Kaiser e Cattel Se ci sono ancora dubbi applicare analisi parallela Controllare la % di varianza cumulata spiegata (sopra 60%) Decidere il numero di fattori. 24 Come funziona FA Generazione matrice di correlazione Scelte da parte del decisore (Algoritmo di generazione dei fattori) Scelte da parte del decisore (rotazione fattori) Analisi delle relazioni tra variabili Presentazione tabelle di output Scelte da parte del decisore (scelta numero fattori) Scelte da parte del decisore (interpretazione della soluzione fattoriale) Interpretare i fattori L’interpretazione dei fattori avviene a partire dai coefficienti di saturazione degli item sul fattore identificato Il coefficiente di saturazione è il coefficiente di correlazione che mostra l’importanza (peso) di ogni variabile nel definire un fattore definisce anche la quota di varianza di quell’indicatore spiegata dal fattore Ogni indicatore (item variabile) presenta una certa correlazione con ogni fattore l’item ideale presenta correlazione 1 con il fattore che “misura” e correlazione 0 con tutti gli altri fattori Forza della correlazione 0 < r < .2 bassa .21 < r < .40 moderata .41 < r < .65 alta .66 < r < 1 altissima 25 Componente 1 2 8)This parent is excessively concerned about the child. ,785 10)This parent never relinquishes control of the child and wants to protect him/her against all dangers. 21) This parent is very concerned about the health of the child ,769 24)This parent is involved with the progress of the child to an excessive degree 23) This parent is overly concerned about the child's education 9)This parent expresses the intention to co-operate, but does not follow through 13)This parent promises you as a teacher to help the child at home, but does not do it 5) This parent failed to follow through with an agreement about supervising the child's homework 2) This parent doesn't accept responsibility for the consequences of a particular decision 14)This parent says he/she thinks you are a bad teacher 3 4 5 ,764 ,619 ,611 ,801 ,768 ,680 ,468 ,720 15)This parent calls to tell you they are unhappy ,717 20)This parent threatens to go to higher authorities when he/she suspects an alleged misuse of professionalism 17)You feel harassed by the parent of the child ,674 ,646 4) This parent uses his/her degree, knowledge or professional experience in attempt to change the approach of the teacher 19) This parent avoids contact with you as a teacher ,672 3) This parent hardly ever comes to school ,559 22) The child of this parent looks tired and neglected ,553 11)This parent shows little initiative ,461 ,507 16)This parent takes little notice of the child ,471 ,501 1)As teacher you feel compelled to take sides with one of the parents. ,641 7)This parent complains about the other parent of the child ,558 6)This parent asks your opinion without having one him/herself 12)This parent uses his/her degree of expertise as an excuse for becoming involved in the education of the child. 18)This parent is over involved in your classroom ,466 ,418 ,426 Costruire i fattori Un buon fattore: 1) ha senso, 2) è semplice da interpretare, 3) 3) ha una struttura semplice Inserire nel fattore soltanto item che presentano valori di saturazione superiori a .40 Ogni fattore deve includere almento due variabili con valori di saturazione superiori a .60. Per interpretare il fattore (=dare un nome) si parte dall’analisi delle dimensioni con valori superiori a .60. (Everaert, 2007) 26 Componente 1 2 8)This parent is excessively concerned about the child. ,785 10)This parent never relinquishes control of the child and wants to protect him/her against all dangers. 21) This parent is very concerned about the health of the child ,769 24)This parent is involved with the progress of the child to an excessive degree 23) This parent is overly concerned about the child's education ,764 3 4 5 F1 ,619 ,611 9)This parent expresses the intention to co-operate, but does not follow through 13)This parent promises you as a teacher to help the child at home, but does not do it 5) This parent failed to follow through with an agreement about supervising the child's homework 2) This parent doesn't accept responsibility for the consequences of a particular decision 14)This parent says he/she thinks you are a bad teacher ,801 ,768 ,680 F2 ,468 ,720 15)This parent calls to tell you they are unhappy ,717 20)This parent threatens to go to higher authorities when he/she suspects an alleged misuse of professionalism 17)You feel harassed by the parent of the child ,674 F3 ,646 4) This parent uses his/her degree, knowledge or professional experience in attempt to change the approach of the teacher 19) This parent avoids contact with you as a teacher ,672 3) This parent hardly ever comes to school ,559 22) The child of this parent looks tired and neglected F4 ,553 11)This parent shows little initiative ,461 ,507 16)This parent takes little notice of the child ,471 ,501 1)As teacher you feel compelled to take sides with one of the parents. ,641 7)This parent complains about the other parent of the child ,558 6)This parent asks your opinion without having one him/herself 12)This parent uses his/her degree of expertise as an excuse for becoming involved in the education of the child. 18)This parent is over involved in your classroom ,466 ,418 F5 ,426 Come utilizzare i risultati Costruire scale di misurazione (fattori) a partire da osservazioni empiriche Analisi di affidabilità (Cronbach) Trovare dimensioni che aggregano altre variabili Costruzione di indici compositi Analisi fattoriali di 2°ordine. 27 Analisi fattoriale confermativa Metodologia basata sui modelli ad equazione strutturale (SEM) Ottima definizione di modelli di misurazione (path model) e prove di invarianza fattoriale tra campioni con caratteristiche diverse. L’analisi fattoriale confermativa riflette l’esistenza di un modello di misurazione in cui le variabili osservate definiscono un set di costrutti latenti (Hoyle, 2000) e fornisce evidenze circa la struttura fattoriale delle misure (Jöreskog, 1993). Si basa sull’equivalenza tra la matrice reale di correlazione (o varianza/covarianza) e la matrice riprodotta a partire dalla struttura fattoriale specificata. Minore è la distanza tra le due matrici, migliore è l’adattamento del modello teorico ai dati raccolti. Si utilizzano software come: AMOS, LISREL, R 28 Differenze tra EFA e CFA Esplorativa Trovare numero fattori Determinare la correlazione tra fattori La variabili sono libere di saturare su tutti i fattori. Generazione di teorie Confermativa Numero fattori stabilito a priori Le correlazioni tra fattori sono impostate a priori Le variabili saturano su fattori decisi a priori Test di teorie Assunti CFA Dimensione del campione: 15 casi per variabile osservata. Adeguatezza del modello: le relazioni tra le variabili devono essere specificate a priori. Variabili di output: Continue e normalmente distribuite. Gestione missing: non ci devono essere missing. Giustificazione teorica del modello: le metodologie SEM devono avere un modello teorico ben definito a priori 29 EFA su 2 fattori 30 CFA a 2 fattori Valutazione della bontà dell’adattamento “no single topic in the field of Structural Equation Modelling has generated as much attention as the issue of how to properly assess the validity of a structural equation model” (Myerscough, 2002, p. 1109). Un modello è definito appropriato quando la matrice di varianza-covarianza (Σ) riprodotta dal modello di misurazione ipotetico si adatta alla matrice reale (S). Il grado di adattamento viene definito dai model fit criteria. Per model fit criteria fuori parametro, il modello va rifiutato. Chi Square: si cercano di ottenere valori di chi-quadro non significativi (=non c’è distanza tra la matrice riprodotta e la matrice reale). Il chi-quadro è una misura sensibile all’ampiezza campionaria e per N> 150 tende a diventare singificativo(Schumacker & Lomax, 2004). QUINDI Normed chi-square (X2/DF): è il χ2 riscalato sulla base dellampiezza del campione (Jöreskog, 1969). NC indica buon adattamento per valori tra 1.0 e 3.0 (Carmines & McIver, 1981). Limiti più accettabili sono posti a 5.0 (Katou, 2008) 31 Altri indici di adattamento Root-mean-square-residual error of approximation (RMSEA): Indice che “misura” la distanza tra le matrici a partire dalla radice quadrata del quadrato dei residui di varianza tra gli elementi di Σ e S (Steiger & Lind, 1980). Il modello si rifiuta per valori a partire da .080 (Browne and Cudek, 1993). Valutazioni più robuste si effettuano a partire dall’intervallo di confidenza al 90% dell’RMSEA (Hu & Bentler, 1999). Goodness of fit (GFI): il GFI misura la quantità di varianza e covarianza di S che può essere predetta da Σ (Schumacker & Lomax, 2004). Il criterio varia tra 0 (0%) e 1 (100%), un punto di cut-off è .90 (90%) (Schumacker & Lomax, 1996). Adjusted goodness of fit (AGFI): simile al GFI e riscalato su parametri di complessità del modello (Gerbin & Andersen, 1993). NFI, Model Akaike’s Information Criterion , ecc… Esempio output Degrees of Freedom = 63 Minimum Fit Function Chi-Square = 195.94 (P = 0.00) Normal Theory Weighted Least Squares Chi-Square = 197.73 (P = 0.00) Estimated Non-centrality Parameter (NCP) = 134.73 90 Percent Confidence Interval for NCP = (96.07 ; 181.01) Minimum Fit Function Value = 0.52 Population Discrepancy Function Value (F0) = 0.36 90 Percent Confidence Interval for F0 = (0.26 ; 0.48) Root Mean Square Error of Approximation (RMSEA) = 0.076 90 Percent Confidence Interval for RMSEA = (0.064 ; 0.088) P-Value for Test of Close Fit (RMSEA < 0.05) = 0.00026 Expected Cross-Validation Index (ECVI) = 0.75 90 Percent Confidence Interval for ECVI = (0.65 ; 0.88) ECVI for Saturated Model = 0.56 ECVI for Independence Model = 12.52 Chi-Square for Independence Model with 91 Degrees of Freedom = 4655.09 Independence AIC = 4683.09 Model AIC = 281.73 Saturated AIC = 210.00 Independence CAIC = 4752.07 Model CAIC = 488.66 Saturated CAIC = 727.33 Normed Fit Index (NFI) = 0.96 Non-Normed Fit Index (NNFI) = 0.96 Parsimony Normed Fit Index (PNFI) = 0.66 Comparative Fit Index (CFI) = 0.97 Incremental Fit Index (IFI) = 0.97 Relative Fit Index (RFI) = 0.94 Critical N (CN) = 175.04 Root Mean Square Residual (RMR) = 0.036 Standardized RMR = .044 Goodness of Fit Index (GFI) = 0.93 Adjusted Goodness of Fit Index (AGFI) = 0.88 Parsimony Goodness of Fit Index (PGFI) = 0.56 32 Conclusioni 1)Scegliere se utilizzare EFA o CFA 2)Identificazione dei passi centrali per condurre EFA 3)Leggere ed interpretare EFA 4)Cenni di CFA 33