Pre Processing dei dati Modulo 1.2 C – Indici di Asimmetria e Curtosi La forma della distribuzione di frequenza ottenuta a livello empirico è analizzabile anche tramite specifici indici. Tra questi i più usati riguardano l’asimmetria della distribuzione (Skewness) e lo schiacciamento della stessa (Curtosi). Skewness Curtosi Rappresenta lo spostamento del vertice della distribuzione dall’asse centrale: verso sinistra per valori di Skewness positivi e verso destra in concomitanza di valori negativi. La curtosi rappresenta invece lo schiacciamento della campana della distribuzione, in generale un valori di curtosi negativo indica una distribuzione “più schiacciata” verso il basso rispetto alla normale, che viene definita platicurtica. Un valore di curtosi positivo invece indica una distribuzione “più appuntita” rispetto alla normale, che viene definita leptocurtica. Si considera una distribuzione come perfettamente normale quando presenta un valore di 0 relativamente alla Skewness; nonostante questo alcuni autori, data la potenza dei test utilizzati per calcolarla, suggeriscono di considerare accettabili valori di asimmetria compresi tra 0,5 e -0,5 per una buona normalità e tra 1 e -1 per una quasi normalità. N ( xi x ) 3 1 i 1 N •- Fonti bibliografiche 2 3 N ( xi x ) 2 Indice di i 1 asimmetria di Pearson N N ( xi x ) 4 2 i 1 N N ( xi x ) 2 i 1 N 2 Indice di curtosi di Pearson Pre Processing dei dati Modulo 1.2 D – Indici complessivi di Normalità Esistono infine alcuni test statistici che consentono di valutare se la distribuzione è normale. Tra questi di particolare rilievo, anche perché proposti nei più diffusi software statistici, sono il test di Kolmogorov Smirnov ed il test di Shapiro-Wilk. Se il test statistico che viene condotto su tali indici risulta significativo si deve rifiutare l’ipotesi nulla che la distribuzione in oggetto sia normale. •- Fonti bibliografiche Pre Processing dei dati Modulo 1.2 Analisi della Distribuzione Univariata I quattro step precedentemente illustrati sono implementati su SPSS e raggiungibili attraverso la voce analyze della barra degli strumenti. Esempio di calcolo degli indicatori di normalità su alcune variabili relative ai punteggi ottenuti alle scale cliniche del MMPI-II, da un campione di soggetti sani. •- Fonti bibliografiche Histogram Normal Q-Q Plot of Scala L 30 3 2 20 1 Frequency 10 Expected Normal 0 -1 Std. Dev = 8,61 -2 Mean = 48,0 N = 78,00 0 ,0 5 7 ,0 0 70 , 5 60 , 0 60 , 5 50 , 0 5 ,0 5 40 , 0 40 , 5 3 Dev from Normal Scala L -3 30 Scala L 40 50 Observed Value 80 Detrended Normal Q-Q Plot of Scala L 1,0 42 55 70 ,8 ,6 60 ,4 ,2 50 0,0 40 -,2 -,4 30 40 50 60 70 80 30 N = Observed Value 78 Scala L 60 70 80 Histogram Normal Q-Q Plot of Scala F 20 3 2 1 0 Expected Normal Frequency 10 -1 Std. Dev = 11,27 -2 Mean = 55,1 N = 78,00 0 ,0 5 9 ,0 0 9 ,0 5 8 ,0 0 8 ,0 5 7 ,0 0 7 ,0 5 6 ,0 0 6 ,0 5 5 ,0 0 5 ,0 5 4 ,0 0 4 Dev from Normal Scala F -3 30 Scala F 40 50 60 Observed Value 110 Detrended Normal Q-Q Plot of Scala F 2,0 100 65 90 1,5 80 60 56 18 1,0 70 ,5 60 50 0,0 40 -,5 30 40 50 60 70 80 90 100 30 N = Observed Value 78 Scala F 70 80 90 100 Scala K Histogram Normal Q-Q Plot of Scala K 16 3 14 2 12 1 10 8 Frequency 4 Expected Normal 0 6 -1 Std. Dev = 9,53 2 Mean = 47,5 0 N = 78,00 -2 ,0 0 7 ,0 5 60 , 0 60 , 5 50 , 0 50 , 5 4 ,0 0 40 , 5 30 , 0 3 -3 20 Scala K 30 40 50 Observed Value 80 Detrended Normal Q-Q Plot of Scala K ,3 70 ,2 60 ,1 50 0,0 40 -,1 30 -,2 20 30 40 50 60 70 80 20 N = Observed Value 78 Scala K 60 70 80 Indici di Asimmetria, Curtosi e Normalità Univariata Descriptive Statistics Scala L Scala F Scala K Valid N (lis twis e) N Statis tic 78 78 78 78 Skewness Statis tic Std. Error ,689 ,272 1,295 ,272 ,162 ,272 Kurtos is Statis tic Std. Error ,361 ,538 2,093 ,538 -,812 ,538 Tests of Normality a Scala L Scala F Scala K Kol mogorov-Smi rnov Statis tic df Sig. ,119 78 ,008 ,116 78 ,011 ,070 78 ,200* Shapi ro-Wilk Statis tic df ,952 78 ,902 78 ,975 78 *. This i s a lower bound of the true s ignifi cance. a. Lilli efors Signi ficance Correcti on Sig. ,005 ,000 ,132 Pre Processing dei dati Modulo 1.2 Outlier Univariati I valori anomali, o Outlier, sono quei casi che in una presentano valori estremamente elevati o estremamente bassi rispetto al resto della distribuzione. Per individuare tali outlier univariati è possibile standardizzare i punteggi relativi ala variabile in esame e calcolare una distribuzione delle frequenze, solitamente si considerano come valori anomali quei punteggi che corrispondono ad un punteggio Z maggiore di 3 in valore assoluto (Tabachnick e Fidell, 1989). In ogni caso è sempre necessario considerare la distribuzione nella sua interezza, anche perchè dati infrequenti non sempre sono anche “anomali”. Per concludere, i valori anomali sono in grado di influenzare molti indicatori, come la media, la deviazione standard, l’asimmetria e la curtosi. Essi sono in grado quindi di influenzare anche gli indici di associazione tra variabili come avviene con il coefficiente di correlazione di Pearson. •- Fonti bibliografiche Pre Processing dei dati Modulo 1.2 Outlier Univariati In presenza di casi anomali univariati che influenzano i risultati delle analisi è possibile utilizzare degli estimatori dei parametri che risultano meno influenzati dalla presenza ditali valori. Ad esempio, la mediana e la moda spesso possono risultare più affidabili della media. Sono inoltre disponibili alcune statistiche che risultano “robuste” alla presenza di tali valori, come ad esempio la media trimmed che viene calcolata eliminando il 5% dei casi con punteggi più elevati e più bassi. •- Fonti bibliografiche Pre Processing dei dati Modulo 1.2 Outlier univariati Nel nostro esempio risulta opportuno, almeno per le variabili relative alla scala L ed alla scala F che non raggiungono i requisiti di normalità, esaminare in prima istanza la presenza di outlier univariati. Sebbene esista la possibilità di visualizzare i valori estremi, uno degli strumenti più funzionali a questo scopo risulta il Box Plot fornito da SPSS Visualizzazione dei valori anomali Relativamente a tre variabili Ottenute dalle scale di controllo Dell’MMPI-II •- Fonti bibliografiche M-Estimators Scala L Scala F Scala K Huber's a M-Estimator 47,22 53,25 47,16 Tukey's b Biweight 46,91 52,55 47,15 Hampel's c M-Estimator 47,33 53,31 47,28 Andrews' d Wave 46,88 52,54 47,15 a. The weighting constant is 1,339. b. The weighting constant is 4,685. c. The weighting constants are 1,700, 3,400, and 8,500 d. The weighting constant is 1,340*pi. Analisi dei Box Plot per l’individuazione degli Outlier 80 80 110 100 42 55 65 70 60 56 18 60 70 90 80 60 50 70 50 60 40 50 40 30 40 30 20 30 N= 78 N= N= 78 Scala L 78 Scala K Scala F Des cr iptive Statistic s Sca la L Sca la F Sca la K Vali d N (lis twis e) N Sta tis tic 78 78 78 78 Ske wne ss Sta tis tic Std . ,6 89 1 ,29 5 ,1 62 Erro r ,2 72 ,2 72 ,2 72 Kurtos is Sta tis tic Std . ,3 61 2 ,09 3 -,81 2 Erro r ,5 38 ,5 38 ,5 38 Tes ts of Nor mality a Sca la L Sca la F Sca la K Kol mo g or ov-Smi rn ov Sta tis tic df Sig . ,1 19 78 ,0 08 ,1 16 78 ,0 11 ,0 70 78 ,2 00 * Sta tis tic ,9 52 ,9 02 ,9 75 *. This i s a lo wer b ou nd o f the tr ue s ign ifi ca nce. a . L illi efo rs Sig ni fican ce Cor re cti on Sha pi ro -Wilk df 78 78 78 Sig . ,0 05 ,0 00 ,1 32 Pre Processing dei dati Modulo 1.2 Outlier univariati Un primo passo per raggiungere una distribuzione adeguatamente normale nei propri dati, requisito necessario alle successive analisi, risulta quello di considerare i dati anomali come errori di misurazione e/o campionamento. In questo senso, quando questi sono pochi, può essere opportuno eliminarli dall’analisi e ricalcolare gli indici di normalità. Eliminazione dei casi anomali individuati e confronto degli indici di normalità prima e dopo tale resezione. •- Fonti bibliografiche Analisi dei Box Plot per l’individuazione degli Outlier 80 80 42 55 70 70 60 60 Outlier eliminati 2 50 50 40 40 30 30 N= N= 78 72 Scala L Scala L 110 80 100 65 70 90 60 56 18 80 60 Outlier eliminati 5 70 50 60 50 40 40 30 30 N = 78 N = 71 Scala F Scala F Descriptive Statistics Scala L Scala F Scala K Valid N (lis twis e) N Statis tic 78 78 78 78 Skewness Statis tic Std. Error ,689 ,272 1,295 ,272 ,162 ,272 Descriptive Statistics Kurtos is Statis tic Std. Error ,361 ,538 2,093 ,538 -,812 ,538 Scala L Scala F Scala K Valid N (lis twis e) N Statis tic 71 71 71 71 Skewness Statis tic Std. Error ,337 ,285 ,404 ,285 ,150 ,285 Kurtos is Statis tic Std. Error -,382 ,563 -,736 ,563 -,749 ,563 Pre Processing dei dati Modulo 1.2 Trasformazioni sui dati (Normalizzazione) Al fine di rendere normale la distribuzione di una variabile, oltre all’eliminazione quando possibili dei valori anomali, sono state - proposte diverse tecniche. Alcune di esse agiscono senza alterare le proprietà metriche (es., il livello di misurazione) delle variabili originali, altre invece portano a modificazioni più consistenti di tali proprietà. Le prime risultano più adeguate in condizioni di Non-normalità “Moderata” (Valori di asimmetria e curtosi compresi tra |.5| e |1|.) Le seconde sono spesso necessarie nei casi di forte violazione della normalità (Valori di asimmetria e curtosi maggiori di |1|.) •- Fonti bibliografiche Pre Processing dei dati Modulo 1.2 Trasformazioni sui dati (Normalizzazione) L’asimmetria o semilimitazione laterale della distribuzione del carattere statistico sotto esame può essere ridotta tramite opportune trasformazioni operate direttamente sui dati. Si distinguono generalmente quattro condizioni: Asimmetria Positiva Moderata Asimmetria Negativa Elevata Moderata Trasformazione Logaritmica o Radice Quadrata Trasformazione in Reciproco X * Log10 ( X ) 1 * X X X* X Trasformazione Logaritmica o Radice Quadrata X * Log10 ( K X ) X* K X Elevata Trasformazione in Reciproco 1 X KX * X*= Nuova variabile *: Nell’effettuare le trasformazioni in caso di asimmetria negativa è necessario utilizzare una costante (k) di solito uguale a 1 + il valore più elevato presente nella distribuzione originale. Pre Processing dei dati Modulo 1.2 Trasformazioni sui dati Trasformazione logaritmica sui dati grezzi di un carattere statistico distribuito in maniera quesi-normale, presentando una non-normalità moderata ed una semilimitazione a sinistra. Esempio di trasformazione dei dati Da esempio precedente per Scale L e F Riduzione di una asimmetria moderata positiva •- Fonti bibliografiche Distribuzioni Grezze, con valori anomali e dati non trasformati Histogram Histogram 30 20 Asimmetria positiva Moderata 20 Asimmetria positiva Moderata 10 Std. Dev = 8,61 Mean = 48,0 N = 78,00 0 Frequency 10 Std. Dev = 11,27 Mean = 55,1 N = 78,00 0 ,0 9 5 ,0 9 0 ,0 8 5 ,0 8 0 ,0 7 5 ,0 7 0 ,0 6 5 ,0 6 0 ,0 5 5 ,0 5 0 ,0 4 5 ,0 40 ,0 7 5 ,0 7 0 ,0 6 5 ,0 6 0 ,0 5 5 ,0 5 0 ,0 4 5 ,0 4 0 ,0 35 Outliers Scala L Outliers Scala F Histogram Histogram 20 16 14 12 10 10 8 Mean = ,223 N = 71,00 0 ,213 ,200 ,238 ,225 L_TRASF ,263 4 Std. Dev = ,07 2 Mean = 1,720 0 N = 71,00 0 85 1,825 1, 00 8 1,775 0 1 ,7 5 1,725 1, 00 7 1,675 0 1 ,6 5 1,625 1,600 1, ,188 Frequency 6 Std. Dev = ,02 ,250 F_TRASF Distribuzioni dopo eliminazione dei dati anomali e trasformazione logaritmica del punteggio. Pre Processing dei dati Modulo 1.2 Analisi della “Linearità della relazione” Molte analisi statistiche richiedono, oltre alla normalità della distribuzione del carattere statistico sotto indagine, che le relazione tra i punteggi siano di tipo lineare. - Se la relazione tra due variabili X e Y è lineare, allora la variazione nei punteggi in Y attesa in concomitantanza di una variazione nei punteggi di X è costante per tutti i valori di X. Spesso la non linearità della relazione tra due variabili e la non normalità delle distribuzioni delle stesse sono fenomeni collegati. Spesso i tentativi di “normalizzare” la distribuzione di un carattere statistico sotto esame tendono a provocare una “linearizzazione” delle relazioni che il carattere ha con le altre variabili. La linearità può essere rilevata tramite il diagramma di dispersione (Scatterplot) che rappresenta le distribuzioni congiunte delle due variabili. •- Fonti bibliografiche Pre Processing dei dati Modulo 1.2 Creazione ed analisi dello Scatterplot Esempio di analisi della linearità della relazione tra due variabili, produzione dello Scatterplot •- Fonti bibliografiche Pre Processing dei dati Modulo 1.2 Normalità Multivariata La distribuzione normale multivariata rappresenta una generalizzazione della normale univariata quando il numero di variabili che vengono prese in considerazione è maggiore di 1. Considerando il caso di due variabili X e Y, se le distribuzioni dei valori di Y per ogni valore dato di X sono di forma normale, e si verifica anche il contrario, allora la distribuzione congiunta di X e Y viene definita normale bivariata. La distribuzione normale bivariata risulta essere una condizione particolarmente desiderabile almeno per due motivi: A- Questa distribuzione ha la proprietà di rendere la regressione di Y su X lineare. B- Essa determina che gli scarti quadratici delle Y per ciascuna X siano effettivamente identici (Omoschedasticità). •- Fonti bibliografiche Pre Processing dei dati Modulo 1.2 Normalità Multivariata Se abbiamo più di due variabili, l’universo determinato dalle loro distribuzioni congiunte rappresenterà una situazione più complicata, e difficilmente rappresentabile a livello grafico. Si parlerà in questo caso di Normalità Multivariata in riferimento alla assunzione che riguarda l’insieme delle variabili che vengono considerate in analisi. Se consideriamo un insieme di p variabili, la distribuzione multivariata delle p variabili è normale se: -Tutte le distribuzioni univariate sono normali, -Le distribuzioni congiunte di tutte le coppie di variabili sono normali, -Tutte le combinazioni lineari delle variabili sono normali. La normalità multivariata è una proprietà particolarmente rilevante. Infatti se essa viene rispettata le relazioni tra le variabili considerate sono sicuramente lineari, ed i modelli di analisi preposti a valutare gli indici di associazione, di conseguenza, affidabili. •- Fonti bibliografiche Pre Processing dei dati Modulo 1.2 Normalità Multivariata Distanza di Mahalanobis Si definisce innanzi tutto la distanza generalizzata o distanza di Mahalanobis (Di2) come la distanza del vettore dei punteggi di un soggetto (Xi) dal centroide del campione (Xm), ponderata per la covarianza tra le varibili. (Xi Xm) D S 2 2 i La distanza di Mahalanobis può essere utilizzata per diagnosticare la presenza di outlier, o valori anomali, multivariati. Questi rappresentano combinazioni di punteggi delle singole variabili che risultano particolarmente “strani”, appunto “anomali” rispetto al resto dei valori delle variabili. Non si tratta quindi di casi che necessariamente presentano valori estremi su una o più variabili. •- Fonti bibliografiche Pre Processing dei dati Modulo 1.2 Normalità Multivariata Q-Q Plot Se la distribuzione delle variabili è normale multivariata e il numero dei casi meno il numero delle variabili è maggiore di 25, allora i valori della distanza generalizzata seguono la distribuzione del chi quadrato. Di fatto si può sfruttare questa proprietà per costruire un test di normalità multivariata nel modo seguente: A- Si ordinano i valori Di2 per ogni soggetto dal più basso al più alto. B- Si calcola per ogni Di2 il corrispondente punteggio percentile nella distribuzione χ2. C- Si costruisce il grafico dei due valori di punteggi Di2 e χ2 (Q-Q Plot), se la distribuzione è normale multivariata le due serie di punteggi formano un grafico che ha un andamento lineare. •- Fonti bibliografiche Pre Processing dei dati Modulo 1.2 Normalità Multivariata Coefficinte di Curtosi Multivariata di Mardia Per esaminare l’ipotesi di normalità multivariata Mardia (1970) ha sviluppato dei coefficienti di curtosi e di asimmetria multivariata. Se la distribuzione delle p variabili è normale multivariata, e se il campione è sufficientemente ampio (almeno 50 soggetti*) il coefficiente di curtosi multivariata di Mardia dovrebbe essere minore o uguale a p(p+2). Tramite i valori della distanza di Mahalanobis è possibile calcolare questo coefficiente nel modo seguente: N 2 2 i (D ) K N i 1 •- Seber, 1984 Pre Processing dei dati Modulo 1.2 Normalità Multivariata Calcolo delle distanze di Mahalanobis e produzione del Q-Q plot per il test di normalità multivariata. Calcolo del coefficiente di curtosi di Mardia. Dopo aver in precedenza testato la normalità delle distribuzioni delle scala L, F e K, si testa l’ipotesi di normalità multivariata della distribuzione congiunta delle tre variabili. •- Fonti bibliografiche Pre Processing dei dati Modulo 1.2 Il Q-Q plot per la verifica della normalità bivariata - •- Fonti bibliografiche Pre Processing dei dati Modulo 1.2 Il Q-Q plot per la verifica della normalità bivariata - - - •- Fonti bibliografiche Pre Processing dei dati Modulo 1.2 Outliers Multivariati - Rif. Outliers multivariati •- Fonti bibliografiche Pre Processing dei dati Modulo 1.2 Outliers Multivariati - - - •- Fonti bibliografiche Pre Processing dei dati Modulo 1.2 Multicollinearità - •- Fonti bibliografiche Pre Processing dei dati Modulo 1.2 Multicollinearità - - - •- Fonti bibliografiche