Modelli e procedure per l`educazione degli adulti

CdL SEAFC – a.a. 2015-2016 – II semestre
Pedagogia sperimentale.
Modelli e procedure per
l’educazione degli adulti
[email protected]
Benvenuti!
Io sono Francesco Agrusti
mail:: [email protected]
ricevimento:: ogni Lunedì e Giovedì dopo lezione
telefono:: 0657339676
web:: http://tinyurl.com/agrustimodelli
http://lps.uniroma3.it
T6.
Modelli e procedure di valutazione
Ultimo appuntamento con le attività pratiche di valutazione del corso
”Pedagogia sperimentale. Modelli e procedure per l’educazione degli adulti”
Che cosa
faremo
▪
Impostazione di un archivio di dati
▪
Pulizia dei dati
▪
Calcolo delle frequenze
▪
Difficoltà e discriminatività
▪
Misure di tendenza centrale e di
dispersione
▪
Centili, punti z e punti T
▪
Distribuzione pentenaria e punteggi
soglia
▪
Rappresentazione grafica
▪
Alcuni test (t-test, 𝝌2, phi)
▪
Correlazione (Pearson, Spearman)
Statistica inferenziale
•
•
•
t-test (t di Student)
Il test del 𝝌2
phi
Disegni tra i soggetti
•
•
I disegni tra i soggetti sono i
disegni in cui si hanno due o
più gruppi indipendenti e in
cui ogni soggetto viene
sottoposto ad una sola
condizione sperimentale
In questo tipo di disegno il
ricercatore è interessato a
verificare l’ipotesi di
differenza tra due o più
medie
• per verificare l’esistenza di una
differenza tra le medie, il ricercatore
calcola le medie dei veri gruppi
relative alla variabile di interesse (ad
es., prestazione ad un compito di
matematica) e trova che le due
medie sono diverse
Differenza tra le medie
▪ questa diversità tra le medie (variabilità tra i gruppi) può essere
attribuita a tre diverse fonti:
▫
▫
▫
l’effetto del trattamento (ad es., il nuovo metodo per insegnare la matematica)
le differenze individuali (ad es., alcuni studenti, a prescindere dal trattamento
sono più bravi in matematica)
l’errore casuale (ad es., alcune parsone hanno sbagliato a riportare i risultati).
▪ le ultime due fonti di variazione sono accidentali, poiché il ricercatore
non può prevederne la variabilità̀
▪ la variabilità entro i gruppi è invece dovuta alla variazione delle risposte
dei soggetti, poiché è difficile, che i soggetti appartenenti ad uno stesso
gruppo rispondano in modo identico
▪ in questo caso, esistono due fonti di variazione:
▪
▪
le differenze individuali
Llerrore casuale
t-test
▪ quando le medie sono solo due si può utilizzare il t di Student (detto
anche test t o t-test)
▪ è un test statistico di tipo parametrico con lo scopo di verificare se il
valore medio di una distribuzione si discosta significativamente da un
certo valore di riferimento
▪ una volta ottenuto t si verifica di quanto si discosta dal valore critico
con quei gradi di libertà:
▪ se il t ottenuto supera il valore critico, allora possiamo rifiutare
l’ipotesi nulla e accettare l’ipotesi alternativa secondo la differenza tra
le medie è dovuta al trattamento
Passo indietro:
T di Student
▪ è una distribuzione descritta per primo da William Sealy Gosset nel 1908
(usò lo pseudonimo Student perché la fabbrica della Guinnes in cui lavorava non voleva che si
pubblicassero articoli per paura di divulgazione dei segreti di produzione)
▪ è una distribuzione di probabilità continua che governa il rapporto tra due
variabili aleatorie, la prima con distribuzione normale e la seconda, al
quadrato, segue una distribuzione chi quadrato
▪ questa distribuzione interviene nella stima della media di una popolazione
che segue la distribuzione normale, e viene utilizzata negli omonimi test t
di Student per la significatività e per ogni intervallo di confidenza della
differenza tra due medie
Passo indietro:
I gradi di libertà
▪ è un concetto ricorrente nella statistica inferenziale
▪ I gradi di libertà di una statistica esprimono il numero minimo di dati
sufficienti a valutare la quantità d'informazione contenuta nella
statistica
▪ quando un dato non è indipendente, l'informazione che esso fornisce
è già contenuta implicitamente negli altri
▪ ed è possibile calcolare le statistiche utilizzando solo i dati
indipendenti
Passo indietro:
I gradi di libertà
▪ si pensi a tre numeri x1, x2 e x3
▪ siamo completamente liberi di pensare a qualsiasi numero (positivi,
negativi, interi o frazionari ecc...) ossia godiamo di tre gradi di libertà
(uno per ciascun numero)
▪ se però poniamo un vincolo del tipo x1 + x2 + x3 = 10
▪ non godiamo più di tre gradi di libertà in quanto fissati a completo
arbitrio x1 e x2, il terzo (x3) risulta determinato per il vincolo posto
▪ godiamo quindi solo di due gradi di libertà
▪ I gradi di libertà sono in generale calcolati come n-1
▪ es: x1=12, x2=7 necessariamente x3=-9 (12+7-9=10), gradi di libertà
3-1 = 2, infatti sono due le variabili che possiamo scegliere
liberamente
Test del 𝝌2
▪
▪
▪
▪
▪
quando si hanno scale nominali o ordinali, non è possibile calcolare il t,
poiché non abbiamo medie, ma solo frequenze
in questi casi, per verificare se un evento si verifica, in due o più gruppi,
con la stessa frequenza o meno, si usa il test del 𝝌2 (la cui distribuzione
è nota)
Il test 𝝌2 verifica se vi è una differenza tra le frequenze osservate,
ovvero quelle ottenute dalla rilevazione dei dati, e le frequenze attese (o
frequenze teoriche), ovvero le frequenze che ci si aspetta di trovare
per ognuna delle categorie si calcola il quadrato della differenza tra le
frequenze osservate e quelle attese, dividendo il risultato per le
frequenze attese
Il χ2 è dato dalla somma dei risultati di questa operazione, effettuata
per ognuna delle categorie
Test del 𝝌2
▪ a questo punto, si confronta il valore ottenuto 𝝌2 con quello critico,
tendendo conto dei gradi di libertà
▪ se il valore ottenuto è superiore al valore critico si può scartare
l’ipotesi nulla e accettare l’ipotesi alternativa
▪ sappiamo che la differenza esiste ma non sappiamo dove risieda, né
quale sia l’intensità, nè quale sia la causa
▪ risultati affidabili solo su scale nominali e ordinali (no continue), per
frequenze attese sempre superiori all’unità
ϕ (phi), l’intensità del 𝝌2
▪ il φ (phi) misura l’effetto della dimensione del campione sul chi
quadrato
▪ corrisponde alla radice quadrata del rapporto tra chi quadrato e
numero di studenti considerati
▪ Si interpreta così:
▸ <0,1 debole
<0,3 modesto
▸ <0,5 moderato
▸ <0,8 forte
▸ >0,8 molto forte
Correlazione
•
•
La correlazione lineare
I coefficienti di correlazione
LA CORRELAZIONE
La correlazione indica la tendenza che hanno due variabili (X e Y) a variare
insieme, ovvero, a covariare. Ad esempio, si può supporre che vi sia una
relazione tra l’insoddisfazione della madre e l’aggressività del bambino, nel
senso che all’aumentare dell’una aumenta anche l’altra.
Quando si parla di correlazione bisogna prendere in considerazione due
aspetti: il tipo di relazione esistente tra due variabili e la forma della relazione
(ossia la direzione e l’entità).
Relazione di tipo
lineare
▪
la relazione è di tipo lineare se,
rappresentata su assi cartesiane, si
avvicina alla forma di una retta
▪
in questo caso, all’aumentare (o al
diminuire) di X aumenta (diminuisce)
Y
▪
ad esempio, all’aumentare
dell’altezza di una persona aumenta
anche il suo peso
Relazione di tipo
non lineare
▪ la relazione è di tipo non lineare, se
rappresentata su assi cartesiane, ha
un andamento curvilineo (parabola o
iperbole)
▪ in questo caso a livelli bassi e alti di X
corrispondono livelli bassi di Y;
mentre a livelli intermedi di X
corrispondono livelli alti di Y.
▪ ad esempio, il tempo impiegato per
risolvere un problema è alto quando
l’ansia è bassa o alta, è elevato
quando l’ansia ha livelli medi.
La direzione
▪ la direzione può essere: positiva, se all’aumentare di una variabile aumenta
anche l’altra; negativa se all’aumentare di una variabile diminuisce l’atra
L’entità
▪ l’entità si riferisce alla forza della relazione esistente tra due variabili
▪ quanto più i punteggi sono raggruppati attorno ad una retta, tanto più
forte è la relazione tra due variabili
▪ se i punteggi sono dispersi in maniera uniforme, invece, tra le due
variabili non esiste alcuna relazione
▪ ad esempio, quanto più elevata è la temperatura, tanto più si suda
I coefficienti di
correlazione
▪ per esprimere la relazione si utilizza il coefficiente di correlazione
▪ il coefficiente è standardizzato e può assumere valori che vanno da –
1.00 (correlazione perfetta negativa) e +1.00 (c. perf. positiva). Una
correlazione uguale a 0 indica che tra le due variabili non vi è alcuna
relazione
▪ Nota: la correlazione non include il concetto di causa-effetto, ma solo
quello di rapporto tra variabili. La correlazione ci permette di affermare
che tra due variabili c’è una relazione sistematica, ma non che una
causa l’altra
▪ Per le scale a intervalli o rapporti equivalenti si usa il coefficiente r di
Pearson.
▪ Per le scale ordinali si usano il coefficiente rs di Spearman
Il coefficiente di correlazione r di
Pearson
▪ serve a misurare la correlazione tra variabili a intervalli o a rapporti
equivalenti, meglio se su scale continue
▪ è dato dalla somma dei prodotti dei punteggi standardizzati delle due
variabili diviso il numero dei soggetti (o delle osservazioni)
▪ si può calcolare solo su coppie di valori che si riferiscono allo stesso
individuo
▪ può assumere valori che vanno da –1.00 (corr. perf. neg.) e + 1.00 (corr.
perf. positiva). Se 0 tra le due variabili non vi è alcuna relazione
▪ per stabilire se una correlazione è significativa, si fa riferimento alla
distribuzione campionaria di r, tabulata in apposite tavole, in
corrispondenza dei gradi di libertà (N – 2) del coefficiente
Il coefficiente di correlazione r di
Spearman
▪ serve per misurare la correlazione tra due
▪ variabili di tipo ordinale
▪ è dato dalla somma dei prodotti dei punteggi
standardizzati delle due variabili diviso il numero dei
soggetti (o delle osservazioni)
▪ è un’approssimazione del coefficiente di Pearson
▪ la relazione tra X e Y è espressa tenendo conto delle
concordanti o differenti posizioni di ciascun soggetto
nelle due graduatorie