MODELLI NON PARAMETRICI Uso dei Modelli in Statistica • Modelli come generalizzazione delle procedure * Modello Lineare Generale (GLM) * Regressione Logistica • Modelli come descrizione di realtà sperimentali complesse * * * * Analisi Fattoriale MDS Analisi delle corrispondenze Modello di Rasch Analisi dei Modelli 1. 2. 3. 4. Definizione del modello Stima dei parametri Valutazione della bontà del modello (**Calcolo della significatività**) Modelli a struttura PREDETERMINATA • Definizione della struttura del modello sulla base di ipotesi a priori • Stima del valore dei parametri • Calcolo dei limiti di confidenza dei parametri • Calcolo della significatività * Ipotesi nulla: parametri = 0 * Possibile inferenza Modelli a struttura STIMATA • Stima della struttura del modello sulla base dei dati sperimentali • Stima del valore dei parametri • *Calcolo dei limiti di confidenza dei parametri • *Calcolo della significatività (su nuovi dati sperimentali) * opzionale: calcolato solo in alcune situazioni * Ipotesi nulla: valori sperimentali = valori del modello * Solo valore descrittivo Ipotesi nulla • Test statistici creati per la falsificazione dell’ipotesi nulla • Asimmetria delle zone di falsificazione e non-falsificazione dell’ipotesi nulla • Inadeguatezza dei test per la conferma dell’ipotesi nulla Analisi della Regressione Lineare Analisi della Regressione Polinomiale 100 90 80 70 60 50 40 potenza 1 potenza 3 30 potenza 5 20 0 5 10 15 20 25 30 35 40 Materiali e metodi • 116 studenti divisi in modo random in due sottogruppi • Questionario sulle modalità di utilizzo di Internet a cinque sottoscale con punteggi da -4 a +4 • Analisi Fattoriale e Analisi della Regressione Analisi Fattoriale Gruppo 1 Componenti Sottoscale 1 2 A 0.792 -0.015 B 0.002 0.804 C 0.001 0.825 D 0.608 0.109 E 0.743 -0.109 Sottoscale A B C D E Gruppo 2 Componenti 1 2 0.761 -0.239 0.083 0.884 -0.066 0.197 0.823 0.310 0.461 -0.569 3 0.051 0.247 0.925 -0.073 0.514 Regressione Multipla Gruppo 1 Model Gruppo 2 Model Unstandardized Coefficients Standardized t Coefficients Sig. B Std. Error Beta 1 (Constant) 0.971 0.443 2.191 B 0.018 0.117 0.020 0.154 C -0.014 0.121 -0.015 -0.116 D 0.176 0.118 0.189 1.489 E 0.402 0.147 0.346 2.730 Unstandardized Coefficients Standardized t Coefficients Sig. B Std. Error Beta 1 (Constant) 1.388 0.528 2.626 B -0.033 0.109 -0.044 -0.307 C -0.043 0.115 -0.051 -0.374 D 0.217 0.109 0.263 1.985 E 0.331 0.162 0.287 2.052 0.033 0.878 0.908 0.142 0.009 95% Confidence Interval for B Lower Bound Upper Bound 0.082 1.860 -0.217 0.254 -0.257 0.229 -0.061 0.412 0.107 0.698 0.011 0.760 0.710 0.052 0.045 95% Confidence Interval for B Lower Bound Upper Bound 0.328 2.448 -0.252 0.185 -0.274 0.188 -0.002 0.435 0.007 0.655 Conclusione Nei modelli a struttura PREDETERMINATA l’affidabilità dei parametri viene misurata dalla loro variabilità, dai limiti di confidenza che delimitano la regione entro cui potrebbe trovarsi la ‘vera’ relazione, se le ipotesi sul modello sono corrette Conclusione Nei modelli a struttura STIMATA, la struttura del modello viene determinata sui dati sperimentali ma la variabilità del numero dei parametri non viene fornita. Viene fornita una misura della loro capacità di rappresentare in modo ‘ADEGUATO’ i dati sperimentali CONFRONTO FRA MODELLI PARAMETRICI E NON PARAMETRICI “Accuracy and certainty are competitors: The surer we want to be, the less we must demand” Basic Ideas of Scientific Sampling di Alan Stuart, Griffin, London 1968 Variabili Qualitative • In alcuni casi il fenomeno in esame può essere valutato solo da variabili qualitative (Es. dipendenza o non dipendenza da droga) • VANTAGGI: corrispondono a situazioni più definite (presenza o assenza di una patologia) • SVANTAGGI: minor precisione nella misura TEST NON PARAMETRICI Una serie di dati - Binomiale - Chi quadrato Due serie di dati correlati - McNemar (proporzioni) - Segno (distribuzione dei valori) - Wilcoxon Più serie di dati correlati - Friedman Due serie di dati indipendenti - Mann-Whitney - Kolmogorov-Smirnov Più serie di dati indipendenti - Kruskall-Wallis MODELLI NON PARAMETRICI Misure di associazione • Tavole di contingenza: associazione fra due variabili qualitative • Modelli Log-Lineari: associazione fra più variabili qualitative Modelli Regressivi • Regressione Logistica: modello generale in cui è possibile esprimere una variabile qualitativa (dicotomica) come funzione di una o più variabili sia qualitative che quantitative. Regressione Logistica • Modello a struttura PREDETERMINATA per variabili qualitative dicotomiche • Tecnica non parametrica Regressione Logistica Procedura 1. La variabile è trasformata in logit ovvero legata ai fattori che la influenzano da una funzione logaritmica logit (variabile)= b0 + b1 x1 + b2 x2 … Regressione Logistica Trasforma la variabile qualitativa dicotomica (evento, non evento) in una variabile quantitativa utilizzando il parametro odds p(evento) odds p(non evento) • 1.Variabile 0,1 • 2.Probabilità 0 • 3.Odds 0 1 Regressione Logistica Per poter utilizzare una equazione nel campo dei numeri reali si esegue una ulteriore trasformazione logarimica che prende il nome di logit Odds logit (valore - --- 0 --- +) p(evento) logit log p(nonevento) Regressione Logistica • Logaritmo: funzione inversa dell’esponente • Logaritmo naturale (Ln) di x è l’esponente da dare a e (numero naturale e = 2.718) per ottenere x • Ln 5 = 1.6 perché 2.718 1.6 = 5 Regressione Logistica Proprietà dei logaritmi • Ln 1 = 0 • Ln 0 = - • Ln + = + Regressione Logistica La variabile può essere vista come funzione dei fattori in un modello regressivo: logit (variabile)= b0 + b1 x1 + b2 x2 + b3 x3 odds(var) e e b0 b1 x1 Regressione Logistica 2. Procedura: VALUTAZIONE della Bontà del modello - stima dei parametri b Diversi metodi di approssimazione – A blocchi: valuta tutti i parametri assieme tramite il criterio di tolleranza (esclude le variabili che apportano poca informazione al modello) – Per passi o per esclusione: toglie o aggiunge i parametri a seconda dell’apporto di questi alla significatività del modello Regressione Logistica Procedura 2. Stima dei Parametri (b) viene fatta con metodo a successive approssimazioni. Il loro significato si può dedurre dall’odds ratio: O.R. odds x1 1 odds x1 0 b1 1 e e b1 e b0 e b0 Regressione Logistica • Nella regressione logistica il modello non è lineare ma esponenziale e i parametri vengono scelti attraverso il principio del massimo likelyhood • Il likelyhood ratio, utilizzato anche per il modello Log lineare, è la probabilità che i dati sperimentali siano stati generati dal modello Regressione Logistica 3. Valutazione della bontà del modello Statistica Wald b Wald SE 2 Tuttavia, la statistica Wald non può esser usata da sola poiché quando il valore assoluto di b diventa molto grande, l’errore standard sarà anche esso grande e la statistica Wald assumerà valori molto piccoli che facilmente falsificheranno l’ipotesi nulla anche quando non sarebbe da falsificare. Regressione Logistica Significatività La significatività dei parametri relativi ai fattori si può anche verificare attraverso l’intervallo di confidenza attorno all’esponenziale di b per ciascun fattore Regressione Logistica La regressione logistica fornisce le significatività per: il modello globale i singoli parametri, togliendo gli effetti dei parametri già considerati Regressione Logistica Il contributo di ciascun fattore e il senso della sua influenza sulla variabile dipendente è stimato attraverso l’esponenziale di b (odds ratio) Expb1 oddsb1 1 oddsb1 0 oddsb1 oddsb0 e b0 b1 e b0 e b1 b1 b0 e e e b0 Regressione Logistica Esempio logit (risposta aggressiva)= b0 + b1 x1 + b2 x2+ b3 x3 Dove il logit della probabilità di rispondere in modo aggressivo è visto in funzione di una costante b0 sommata al contributo dato da ciascun fattore al quale il modello ha attribuito il valore 1 moltiplicato per il suo coefficiente bn Attraverso la regressione logistica tutte le variabili categoriche vengono trasformate in variabili dicotomiche (con valori 0,1) B1 è il parametro relativo all’essere maschi B2 è il parametro relativo all’età B3 è il parametro relativo alla professione di dipendente Regressione Logistica Categorical Variables Codings profes s ione genere 1.00 2.00 maschio femmina Frequency 18 19 16 21 Paramete r coding (1) 1.000 .000 1.000 .000 Regressione Logistica Variables in the Equation Step a 1 genere(1) eta professione(1) Constant B 1.410 .000 -.093 -.856 S.E. .724 .034 .725 1.121 Wald 3.800 .000 .017 .582 a. Variable(s) entered on step 1: genere, eta, professione. df 1 1 1 1 Sig. .051 .993 .898 .445 Exp(B) 4.098 1.000 .911 .425 95.0% C.I.for EXP(B) Lower Upper .992 16.921 .936 1.068 .220 3.769 Regressione Logistica Exp(b) L’esponenziale di b relativo al genere è dato dal rapporto fra l’odds di rispondere con un comportamento aggressivo essendo femmina diviso l’odds di rispondere con un comportamento aggressivo essendo maschi. Analisi Log - lineare • SCOPO: studia la relazione fra più di due variabili qualitative categoriche • TIPO DI PROCEDURA: modello logistico applicato a una tavola di contingenza multidimensionale Analisi Log lineare Tavola di contingenza multidimensionale: ogni cella è vista come combinazione di due o più variabili Esempio T ip o di p erso nalità T erap ia Esito negativo far maco logica Esito positivo A B C 120 46 38 int egrata 14 7 11 far maco logica 28 64 147 int egrata 17 22 80 Analisi Log lineare • Applicare più test χ² per analizzare ciascuna combinazione sarebbe una procedura non corretta perché: • Aumento dell’errore alpha • Lettura dei risultati non comprensibile Analisi Log lineare • Date le tre variabili da studiare nella loro relazione è possibile analizzare: • Ogni confronto binario • L’interazione fra tutte le variabili Analisi Log lineare Modello Log lineare attraverso un’unica procedura di analisi rappresenta tutte le possibili combinazioni in modo indipendente le une dalle altre. 1. Struttura modello 2. Stima dei parametri e valutazione della bontà del modello Analisi Log lineare Struttura: logaritmo delle frequenze di ogni combinazione possibile in funzione dei valori delle varie componenti di classificazione Tuttavia… Scopo del modello è rappresentare adeguatamente i dati sperimentali con il numero minore di relazioni fra le variabili. Analisi Log lineare Tutte le variabili sono considerate come variabili indipendenti o fattori, la variabile dipendente è il numero di casi in ogni cella, ovvero la frequenza osservata, che è proprio l’indice dell’interazione fra le variabili in studio. Analisi Log lineare Stima dei parametri: 1. Calcolo del logaritmo delle frequenze osservate in base al modello 2. Calcolo delle frequenze attese 3. Confronto frequenze attese con le frequenze osservate 4. Valutazione della bontà del modello Analisi Log lineare • Una volta calcolate le frequenze attese per ogni cella si calcolano i punti z dal rapporto di ciascun parametro e il suo errore standard. • Per verificare se il modello rappresenta sufficientemente i dati si può considerare il test sull’ipotesi nulla che λ sia uguale a zero attraverso i limiti di falsificazione della distribuzione z. Analisi Log lineare • I dati sperimentali possono produrre diversi modelli Log Lineari. • Il modello è definito saturo quando rappresenta tutte le possibili combinazioni fra le celle; • non saturato quando solo alcune delle interazioni sono considerate. Analisi Log lineare • Nel modello gerarchico l’effetto interazione (definito termine di ordine superiore in quanto comprende in sé più termini) è accostato a termini di ordine inferiore. • Attraverso questo modello è possibile considerare solo gli effetti di ordine superiore o inferiore Analisi Log lineare Il Goodness of fit test è basato sul Χ2 e testa la probabilità che quel particolare modello (Fij ) rappresenti bene i dati sperimentali (Fij ). È calcolato tramite la formula: 2 i j Fij Fˆij 2 Fˆij Analisi Log lineare Il Likelyhood ratio test: la probabilità che raccolti quei dati sperimentali essi siano generati dal modello ed è dato dal logaritmo del rapporto fra valori sperimentali e teorici per tutte le possibili condizioni. Fij L 2 F ln ˆ F i j 2 ij Tecniche descrittive • Utilizzano modelli matematici per semplificare le relazioni fra le variabili in studio • Il fine è la descrizione semplificata del fenomeno attraverso il modello di riferimento Tecniche descrittive • Metodo: il modello è creato ad hoc sui dati sperimentali • Diversi livelli di complessità del modello a seconda del fenomeno in studio • Esempi: distribuzioni di probabilità, analisi fattoriale, analisi discriminante, cluster analysis Tecniche descrittive Applicazioni: • Indagini esplorative sui dati sperimentali per la successiva formulazione di idee • Verifica della validità interna e esterna di test psicometrici Analisi Discriminante Fine: suddividere il campione in gruppi Metodo 1. Fase di addestramento 2. Fase di analisi Analisi Discriminante Assunti: • I fattori predittivi devono avere distribuzione gaussiana • I fattori devono essere scarsamente correlati fra loro • Le correlazioni devono essere costanti all’interno dei gruppi • Le medie e deviazioni standard dei fattori non devono essere correlate fra loro Analisi Discriminante La fase di addestramento utilizza un campione di soggetti, di cui si conosce l’appartenenza a uno dei gruppi considerati, per calcolare i parametri necessari alla classificazione di un nuovo soggetto Analisi Discriminante I valori prodotti dalla funzione discriminante hanno media = zero, varianza = 1 e garantiscano la massima differenza possibile fra le medie di gruppo Analisi Discriminante La fase di analisi applica i parametri calcolati per la classificazione di nuovi soggetti in una delle classi possibili La classificazione si basa sul calcolo di una funzione in grado di fornire un valore soglia opportunamente determinato che discrimini i gruppi Analisi Discriminante Funzione ottenuta come combinazione lineare dei parametri misurati, cioè come somma dei parametri moltiplicati per opportuni coefficienti dik= b0k+bjkxi1+…bpkxip dik è il valore della k funzione discrimante relativa al soggetto i bjk è il valore del coefficiente j per la funzione k p è il numero dei fattori predittivi xij è il valore dovuto al fattore j per il soggetto i Analisi Discriminante Parametri determinati in modo che: 1. i valori prodotti dalla funzione discriminante abbiano media zero, varianza unitaria 2. garantiscano la massima differenza possibile fra le medie di gruppo Analisi Discriminante Per ogni soggetto viene calcolata la probabilità di appartenere a ciascun gruppo e si procede all’assegnazione del soggetto al gruppo per cui è maggiore la probabilità di appartenenza Analisi Discriminante 2 gruppi: la soglia che divide i due gruppi è situata nel punto di mezzo delle due medie di gruppo Più di 2 gruppi: le funzioni utilizzate sono tante quante il numero dei gruppi meno uno (non è possibile usare una sola soglia ma occorre calcolare la probabilità di appartenenza del soggetto al gruppo) Analisi Discriminante • Al termine della fase di apprendimento è possibile riassegnare i soggetti ai gruppi di appartenenza utilizzando le funzioni discriminanti calcolate • Questa operazione permette di valutare l’efficienza del sistema di classificazione Analisi Discriminante Successo dipende: • dall’efficienza con cui abbiamo creato le funzioni di classificazione • dalle ipotesi che abbiamo formulato • dai parametri che abbiamo conseguentemente considerato Analisi Discriminante Utilizzo: • Sistema di classificazione in grado di classificare ogni nuovo soggetto senza conoscere realmente a quale gruppo appartiene • Individuare quali fattori incidono maggiormente nella discriminazione fra più gruppi Cluster Analysis Scopo: individuare la miglior suddivisione in gruppi del campione in esame Cluster: addensamento attorno a un valore centrale in uno spazio a n dimensioni Cluster Analysis Assunti: • Variabili che determinano la suddivisione devono essere a distribuzione gaussiana • Individua i gruppi in modo che siano massimamente omogenei al loro interno e eterogenei fra loro Cluster Analysis La distanza fra i gruppi viene calcolata sulle medie dei gruppi che devono essere il più diverse possibili Metodo per creare la distanza: Distanza euclidea: la somma dei quadrati delle differenze di tutte le variabili utilizzate (trsformate in variabili z) Cluster Analysis Il numero dei gruppi è stabilito dal ricercatore in base alle considerazioni teoriche sul fenomeno in studio Cluster Analysis La funzione dell’analisi dei cluster è quella di classificare i casi in un certo numero di gruppi senza che venga richiesta una preliminare identificazione dei gruppi. Questi gruppi possono essere utilizzati in ulteriori analisi statistiche per la verifica di ipotesi riguardanti nuove variabili non utilizzate nella classificazione ANALISI FATTORIALE Tecnica esplorativa che indaga la relazione fra più variabili al fine di individuare un modello in grado di sintetizzare l’informazione Il modello di riferimento ha puro valore descrittivo in quanto determinato dalla procedura matematica con cui è stimato Cos’è l’analisi fattoriale? Statistica inferenziale Confermare, dimostrare un’ipotesi di partenza. - H di partenza - Variabili dipendenti - Fattori - Strumenti di raccolta dati - Analisi dei dati - Eventuale falsificazione dell’H0 vs Statistica descrittiva Rappresentazione delle variabili in studio. Aumentare la quantità di informazioni relative ai dati raccolti ed alle variabili considerate. Rappresentazione più efficace ed utile possibile dei dati. Semplificazione dei dati per migliorare la loro interpretazione. Cos’è l’analisi fattoriale? Nasce in ambito medico-psicologico: Utilizzata soprattutto per validare i questionari perché fornisce informazioni relative alla struttura dei dati. E’ una procedura matematica. Spesso viene sovrastimata da molti autori. Non ci permette di arrivare alla conferma di un’H di partenza ma è una tecnica vantaggiosa, per questo ampiamente usata, che ci fornisce informazioni difficili da ottenere in altro modo. Come lavora l’Analisi Fattoriale Variabili di partenza Operazioni matematiche Quantitative, gaussiane, correlate fra loro che vengono analizzate allo stesso livello. Matrice di correlazione Estrazione di fattori ortogonali Rotazione Scopi principali 1. Riduzione del numero di variabili in studio (ma non dell’informazione). 2. Trasformazione delle varabili in studio in variabili indipendenti fra loro* 3. Individuazione delle sorgenti delle variabili** 4. Assegnazione di significato reale a tali variabili*** Critiche: Trova variabili artificiali, aleatorie, è possibile rintracciarne un numero infinito. Sono indipendenti tra loro, per questo non riflettono la realtà psicologica dove è difficile trovare fenomeni non correlati. Ruolo indiscusso: Validazione di questionari e riduzione del numero di variabili in studio, non correlate tra loro - Riduzione delle variabili ma non dell’informazione utile. Vantaggi: - Creazione di fattori che rappresentano la stessa realtà ma che sono indipendenti fra loro. - Non vengono considerate le differenze fra le diverse variabili. I OPERAZIONE: Creazione della Matrice di Correlazione La prima matrice di correlazione estratta dall’analisi è la matrice di correlazione R. Mostra tutte le relazioni possibili tra le variabili. Le variabili vengono correlate a due a due. Due variabili sono statisticamente correlate fra loro quando al variare di una anche l’altra varia. Avremo un numero di nuove variabili, fattori, corrispondente al numero delle variabili iniziali, item. Avremo una varianza complessiva uguale al numero delle variabili iniziali, perché ogni item ha varianza 1 e media 0. II OPERAZIONE: Estrazione dei Fattori Metodi di estrazione: - Metodo delle componenti principali - Metodo della massima verosimiglianza - Metodo dei minimi quadrati - …. Standardizzazione dei dati raccolti I punteggi grezzi vengono trasformati in punti z, ovvero vengono standardizzati x Una variabile gaussiana è detta variabile Z quando ha: =0;S=1 (N = 0; 1) Semplifica i conti. Permette il confronto di punteggi appartenenti a diversi questionari. Cos’è la varianza? Può essere vista come la quantità d’informazione trasportata da ogni parametro. Maggiore è la variabilità e maggiore è l’informazione. La varianza complessiva risulta ora uguale al numero totale delle variabili considerate. Metodo delle componenti principali Tale metodo permette di creare variabili artificiali, dette fattori, fra loro ortogonali (correlazione = 0). I fattori sono combinazioni lineari delle variabili sperimentali, si ottengono cioè dalla somma dei prodotti delle singole variabili sperimentali, o meglio dei loro valori z, per gli opportuni coefficienti. Il valore e il segno di questi coefficienti indicano quanto e come il singolo fattore sia legato alle diverse variabili sperimentali. I fattori non hanno più varianza = 1 Utilizza un processo a cascata per cui il primo fattore spiega il massimo della varianza, ed è il più importante. Si avvale del calcolo degli AUTOVALORI e degli AUTOVETTORI dalla matrice di correlazione. Cosa sono gli AUTOVALORI e gli AUTOVETTORI? Vengono calcolati direttamente dalla matrice di correlazione R attraverso un processo algebrico. Autovalori = la quantità di varianza di un fattore, la comunalità. Autovettori = sono i fattori o componenti. R x AUTOVETTORE = AUTOVETTORE x AUTOVALORE AUTOVETTORE x R dev’essere uguale a se stesso a meno di una costante che si chiama AUTOVALORE. Come decidere quanti fattori tenere? 1. Posso decidere un numero preciso da tenere (sottoscale). 2. Posso decidere la percentuale di informazione spiegata che voglio tenere (60-65%). 3. Tengo solo i fattori con varianza maggiore o uguale ad 1. A cosa mi servono le nuove variabili? - Compattazione dei dati. - Tengo un numero inferiore di dati, perdo una parte accettabile d’informazione ed ho una interpretazione delle variabili in studio. - Guardo il legame tra fattori e variabili di partenza. - Osservando la matrice per colonna posso indagare quanto i singoli fattori sono correlati alle variabili di partenza. - Osservando la matrice per riga è possibile decidere quali sono gli item da scartare in relazione alla loro correlazione con i fattori (quelli meno correlati). E’ possibile calcolare il valore ad ogni fattore soggetto per soggetto. Tali punteggi saranno variabili Z con media = 0 e varianza = 1. Punteggio grezzo del soggetto 1 all’item 1 X Coefficiente di correlazione tra item 1 e fattore 1 Faccio la stessa cosa con tutti gli item (1, 2, 3, …), sommo tutti i prodotti ed ottengo il punteggio del soggetto 1 al fattore 1. Metodo dei minimi quadrati Minimizza la somma dei quadrati degli scarti fra i dati osservati e la matrice di correlazione prodotta dal modello. Metodo della Massima Verosimiglianza Questa tecnica affronta la casualità in termini inversi rispetto alla probabilità: Parte dai dati sperimentali e si chiede che probabilità c’è di avere una distribuzione del fenomeno di un certo tipo. Lavora per approssimazioni successive e stima una matrice di correlazione e un’insieme di varianze che rappresentano i dati sperimentali, eliminando la ridondanza con la minima dispersione d’informazione. Lo sopo principale è quello di rappresentare al meglio la realtà. L’Analisi Fattoriale è utilizzata per studiare modelli che rappresentino al meglio la realtà, caratterizzati da legami tra item e fattori, in altre parole modelli a variabili artificiali, latenti. La tecnica della Massima Verosimiglianza ci offre la miglior rappresentazione della realtà possibile e ci da anche la misura di quanto bene riesca a rappresentarla! Tale tecnica parte dall’estrazione dei fattori delle Componenti Principali. Vengono modificati i fattori per rappresentare al meglio gli item sperimentali. Aumenta e diminuisce la varianza dei fattori e contemporaneamente vengono modificati anche gli altri fattori finchè non trova la combinazione di fattori, varianze, che rappresentano al meglio la realtà. Quando fermarsi? Ogni volta che si fa una modifica viene applicato il test del Chi2 per misurare la bontà dell’adattamento dei dati. La significatività indica che la modifica apportata è significativamente migliore rispetto ai fattori delle Componenti Principali (e della modifica precedente). Il valore reale (dati grezzi) è differente dal valore dei fattori (calcolato), così il Chi2 confronta le due situazioni relative agli stessi dati e ci dice quanto è reale la rappresentazione attuale. Ottengo anche in questo caso delle variabili ortogonali ma non avrò il primo fattore con la maggior quantità d’informazione spiegata e i fattori successivi con varianza man mano sempre minore. C’è una distribuzione equa, più simile possibile alla realtà dell’informazione. Per creare fattori non ridondanti non è necessario creare un fattore principale con effetto a cascata sulla quantità di varianza degli altri, anzi la maggior parte dei questionari distribuisce in modo equo l’informazione fra i diversi item.. Componenti Principali • Calcola i fattori attraverso una formula diretta. • Offre la miglior condensazione di varianza,con la minima dispersione d’informazione; questo non significa che rappresenta la realtà nel miglior modo. • Al variare del numero di fattori da tenere l’ analisi non cambia Massima Verosimiglianza • Usa la tecnica delle approssimazioni successive. • Trova i fattori che meglio rappresentano la realtà. • Non lavora con troppe o troppo poche variabili. • Se vario il numero di fattori che sono interessato a tenere devo rifare l’analisi. Maggiore sarà il numero delle variabili di partenza e maggiore sarà la differenza dei risultati delle due analisi. III Operazione: Rotazione dei fattori Modifica la relazione esistente tra item e fattori attraverso una rotazione dei fattori. Con la rotazione operiamo una combinazione lineare dei fattori di partenza in modo da modificare la loro relazione con gli item. Tali fattori possono rimanere fra loro ortogonali oppure divenire non ortogonali. Nasce principalmente da due critiche: 1. Vengono scoperte variabili latenti indipendenti. 2. Vengono dati dei nomi ai fattori. La rotazione rende i fattori maggiormente interpretabili. Una diversa interpretazione dei fattori, e del loro legame con gli item, modifica l’interpretazione, il significato della ricerca! La rotazione può essere ORTOGONALE oppure OBLIQUA. Mentre la rotazione ORTOGONALE mantiene l’indipendenza dei fattori, la rotazione OBLIQUA rende i fattori correlati fra loro. Le rotazioni sono meglio interpretabili attraverso un grafico cartesiano dove gli assi rappresentano i fattori e le coordinate sono date dalle correlazioni della matrice R. Con la rotazione ORTOGONALE ruoto rigidamente gli assi cartesiani ed essi rimangono ortogonali e la somma totale delle varianze rimane uguale al totale della variabili di partenza. Con la rotazione OBLIQUA gli assi cartesiani non sono più perpendicolari fra loro ma obliqui, quindi non sono più indipendenti ma correlati e la somma totale delle varianze non corrisponderà più al numero totale delle variabili di partenza. Tecniche di rotazione: Varimax Method. Effettua una rotazione ortogonale che minimizza il numero di variabili che sono fortemente correlate con ogni fattore. Il peso dei fattori è così distribuito più uniformemente e l’interpretazione dei fattori è semplificata. Quartimax Method. Ha un funzionamento opposto a quello della Varimax. Minimizza il numero di fattori necessari a spiegare ciascuna variabile. Semplifica la spiegazione delle variabili osservate. Equamax Method. È una combinazione fra il varimax e il quartimax. Oblimin Rotation: Rotazione obliqua che cerca di adattare i fattori agli item e li correla. Promax Rotation. Rotazione obliqua. E’ un metodo più diretto che cerca la rotazione che meglio si adatta a rappresentare i fattori con un singolo item e lo fa direttamente. MISURA della CORRELAZIONE Correlazione fra più variabili di uno stesso campione • • • • Analisi della correlazione Analisi della regressione Analisi della covarianza Analisi della correlazione parziale Analisi della Correlazione Scopo: analizzare la relazione fra variabili quantitative (a distribuzione gaussiana o non gaussiana) Fornisce sia il senso della relazione che la significatività Analisi della Correlazione Correlazioni parametriche: • r di Pearson Correlazioni non parametriche: • Tau di Kendall • Rho di Spearman Analisi della Correlazione r di Pearson • Misura dell’associazione lineare fa due variabili. I valori del coefficiente vanno da -1 a 1. Il segno del coefficiente indica una relazione positiva o negativa. Il suo valore assoluto indica la forza della relazione. • Dipende dalla numerosità campionaria quindi va associato alla significatività Analisi della Correlazione • Tau di Kendall • Rho di Spearman Entrambi misura dell’associazione non parametrica basata su dati o ordinali o a ranghi. • I valori di entrambi i coefficienti vanno da -1 a 1. Il segno del coefficiente indica una relazione positiva o negativa. Il suo valore assoluto indica la forza della relazione. • Dipendono dalla numerosità campionaria quindi va associato alla significatività Esempio Analisi della Correlazione Utilizzi • Misura dell’associazione fra variabili • Verifica dell’attendibilità e della validità di questionari Relazione fra risultati prodotti da diverse ricerche • Misura dell’effect-size • Meta analisi • Review Effect size o forza dell’effetto • Grado con cui il fenomeno è presente nella popolazione • Intensità della relazione fra fattore e variabile dipendente • Confronto fra variabilità dovuta ai fattori e la variabilità totale • Variabilità misurata come varianza spiegata • Diversi indici a seconda dei dati e dei test utilizzati Meta Analisi Scopo: permette di confrontare i risultati di diverse ricerche riguardanti uno stesso argomento nonostante siano basate su numerosità campionaria diverse e diversi test statistici utilizzati Finalità: comprendere il funzionamento del fenomeno da studi diversi a volte discordanti Meta Analisi Per evitare di fare confronti inutili occorre specificare ovvero delimitare l’ambito di analisi in modo da semplificare il problema e quindi l’interpretazione dei risultati Limitare le variabili in studio e eventualmente applicare più di una metanalisi ES. Studio dell’effetto dell’ansia sulle prestazioni cognitive: quali indici di ansia considerare? Meta Analisi Procedimento: 1. Raccolta e codifica degli studi 2. Calcolo degli indici di confronto 3. Sintesi: calcolo dell’effetto medio 4. Interpretazione dei risultati Meta Analisi: 1. Raccolta e codifica • Gli studi raccolti devono essere adeguati e di ampia numerosità per evitare l’errore dovuto alle pubblicazioni (pubblication bias) e all’errore di campionamento • Definire l’ipotesi di riferimento che specifica le variabili da utilizzare (fattori o predittori, covariate o moderatori) • Pesare gli studi in base alla correttezza metodologica (es attraverso intention to treat analysis) Meta Analisi: 2. Calcolo degli indici di confronto Valutazione delle differenze fra le medie rapportate alla deviazione standard casuale Tale valutazione, nel caso di due gruppi indipendenti, può essere calcolata dalla formula effect size x1 x 2 s 2 Meta Analisi: 2. Calcolo degli indici di confronto Nel caso conosciamo solo la numerosità dei gruppi e il valore del parametro t possiamo ottenere lo stesso indice dalla formula n1 n2 effect size t n1 n2 Meta Analisi: 3. Calcolo dell’effetto medio Effetto medio: media degli effetti nelle diverse ricerche effettuate Permette di ottenere una valutazione complessiva dei risultati Meta Analisi: 4. Interpretazione Permette di trasformare le descrizioni delle ricerche effettuate su un particolare argomento in una valutazione obiettiva dei risultati ottenuti Tuttavia necessitano di una interpretazione dettagliata e motivata dell’analisi Inoltre considera solo le ricerche pubblicate