Concetti di base della ricerca scientifica e Inferenza statistica Go back to page: Test parametrici [L'indagine empirica] [tipi di variabili e modi di trattarle] [validità delle indagini empiriche] [i più comuni disegni di ricerca] [significatività statistica delle conclusioni] L'indagine empirica Il procedimento scientifico in psicologia e in psicopedagogia ha come obiettivo descrivere, predire, spiegare il comportamento e le relazioni regolari tra i vari aspetti del comportamento stesso. Un comportamento che per gli insegnanti è importante è l'apprendimento, ad esempio. Tutte le ricerche partono sempre da un quesito derivante: 1) da un'osservazione 2) da una lacuna in una teoria e tale questito guida l'intera ricerca. Per poter procedere verso una descrizione o spiegazione di un evento (di apprendimento, ad esempio) il ricercatore deve trasformare il quesito in una ipotesi di ricerca. Essa è quindi un tentativo di spiegazione dell'evento ed è formulata secondo uno schema: "se….allora….". Per esempio il quesito: "Perché alcuni alunni si comportano in modo aggressivo?" potrebbe diventare l'ipotesi di ricerca: "Se un alunno è frustrato allora si comporta in modo più aggressivo di un individuo che non lo è" o altre analoghe. L'ipotesi deve però essere verificabile. Una ipotesi può non essere verificabile se 1) mancano le definizioni dei concetti implicati (ex: manca la definizione di aggressività) 2) l'ipotesi stessa è circolare ove l'evento è usato come spiegazione di se stesso (se i bambini sono aggressivi, allora si sentono ostili) 3) si fa uso di concetti che non possono essere verificati (ex: se qualcuno è aggressivo è a causa del suo segno zodiacale). Le ipotesi quindi devono a) fondarsi su definizioni operative delle caratteristiche che sono oggetto di studio. b) Il ricercatore deve essere consapevole che possono esserci più definizioni operative dello stesso concetto (ex: apprendimento) c) Il ricercatore si pone in atteggiamento critico rispetto al risultato del proprio lavoro: cioè deve essere convinto che la spiegazione ottenuta è la più probabile rispetto alle altre spiegazioni possibili. d) Il ricercatore deve avere chiaro fin dall'inizio che tipo di relazione ipotizza fra i concetti oggetto di studio. La relazione fra i concetti può essere di tipo causale (x è causa di y) o di tipo correlazionale (x e y si presentano insieme nell'evento comportamentale). e) Se il ricercatore ha come obiettivo di limitarsi a fornire una rappresentazione il più possibile accurata di ciò che avviene, allora la sua indagine empirica sarà a livello descrittivo. f) Se il ricercatore ipotizza una compresenza sistematica in uno stesso evento, dei concetti studiati, il livello dell'indagine sarà correlazionale (ex: tutoring e apprendimento). g) Se il ricercatore ha come obiettivo di spiegare il comportamento in funzione di un'unica causa, allora la sua indagine sarà sperimentale ed è il più elevato livello di indagine. Il ricercatore ipotizza una relazione di causa ed effetto fra x e y. Indagine sperimentale = x e y sono in relazione di causa ed effetto Indagine correlazionale = x e y si presentano insieme nel comportamento Indagine descrittiva= descrizione del comportamento e di x e y Tipi di variabili e modi di trattarle: Si definisce variabile qualsiasi attributo o caratteristica che può cambiare e variare, cioè può assumere valori diversi o categorie diverse: ex: altezza, socievolezza, reddito, tipo di religione, etc. Se un attributo non varia si definisce costante: ex il numero delle teste o dei cuori in un individuo è una costante. Se si è interessati a studiare i ragazzi di 16 anni, anche l'età diventa una costante. Modo di trattare le variabili: 1) Modo X: si tiene la variabile che interessa sotto controllo, facendole assumere solo determinati valori noti al ricercatore. E' la variabile indipendente. 2) Modo Y: consiste nel far variare liberamente la variabile e registrare i valori che assume (variabile dipendente) 3) Modo K: consiste nel mantenere costante una variabile rilevante per l'indagine. Solitamente il ricercatore cerca di trattare in modo K le variabili di disturbo che potrebbero influire sui risultati ma che non sono direttamente rilevanti per l'indagine. L'età potrebbe essere tipicamente una variabile di disturbo, ma anche l'avvicendamento di diversi insegnanti in una stessa classe etc. 4) Modo M: quando non è possibile trattare le variabili di disturbo nel modo K il ricercatore cerca di eliminarne i possibili effetti costruendo dei sottoinsiemi di soggetti nei quali la /le variabili di disturbo siano presenti in eguale misura. Il modo M (da matching) consiste nel misurare la variabile creando dei sottoinsiemi nei quali la variabile stessa è presente in maniera analoga. Ex. Se supponiamo che l'età dei soggetti sia una variabile di disturbo, invece di trattare la variabile nel modo K, cioè prendere soggetti della stessa età, una volta rilevata l'età dei soggetti possiamo creare gruppi composti di individui delle stessa età ed assegnmare a caso un individuo al gruppo sperimentale ed uno al gruppo di controllo. 5) In base al livello di misura che viene adottato, le variabili si distinguono in: A) variabili discrete (categoriali o nominali o mutabili) B) variabili continue La validità delle indagini empiriche: Si definisce validità "la migliore approssimazione disponibile alla verità" (Cook & Campbell,1979): ve ne sono di 4 tipi: 1) validità interna 2) validità esterna 3) validità statistica delle conclusioni 4) validità di costrutto (delle procedure di manipolazione e di misura delle variabili) 1) Validità interna: di una ricerca è il grado con cui le conclusioni che vengono tratte sono riferibili effettivamente alla relazione fra le variabili in gioco e non ad altro. E' il grado di certezza con il quale il ricercatore può escludere interpretazioni alternative alle sue conclusioni. 2) Validità esterna: riguarda la possibilità di estendere i risultati dell'indagine ad altri soggetti in luoghi diversi in tempi diversi. Essa è legata al campionamento dei soggetti. Se il campione è rappresentativo della popolazione, allora la validità esterna è elevata. 3) Validità delle conclusioni statistiche: riguarda la probabilità che la relazione tra la variabile indipendente (il tipo di insegnamento) e quella dipendente (apprendimento) sia effettiva e non dovuta al caso. 4) Validità di costrutto: deriva dalla capacità del ricercatore di definire in termini operativi le variabili rilevanti per l'indagine. I più comuni disegni di ricerca: Disegni sperimentali: consentono al ricercatore il massimo grado di interpretabilità dei risultati poiché lo sperimentatore ha un controllo completo della variabile che assume il ruolo di causa (il tutoring o la lezione frontale). Tale variabile dovrà assumere almeno due valori (variabile dicotomica) assenza/presenza o modalità, che corrisponde al controllo/trattamento, e che i soggetti vengono assegnati a caso a ciascuna delle due modalità della variabile (alla lezione frontale o al tutoring). Nel disegno sperimentale più elementare è presente una prima misura della variabile dipendente rilevata prima dell'esperimento (grado di profitto nella materia X) (pre-test), e una seconda misura rilevata dopo l'esperimento (post-test) sia per il gruppo che ha avuto il trattamento, sia per il gruppo di controllo. Il disegno sarà del tipo: R VD O1 VI SI VD O2 R O3 NO O4 Gruppo sperimentale Gruppo di controllo Dove R (random) sta ad indicare che i soggetti sono assegnati a caso alle due condizioni sperimentali, presenza (SI) e assenza (NO) del trattamento. Il ricercatore è interessato a trovare una differenza fra O2 e O4 in modo da poter attribuire tale effetto alla causa "trattamento" (tutoring): questo purchè non esistesse già una differenza fra O1 e O3. Un buon disegno sperimentale deve: a) prevedere un gruppo di controllo o una condizione di controllo e b) assegnare a caso i soggetti alle condizioni sperimentali. Se quesat condizione b) non può essere rispettata e si devono usare gruppi "già precostituiti" o già esistenti al momento della sperimentazione (una classe di alunni ed esempio) allora si ha un disegno quasi-sperimentale. Nella pratica i disegni di ricerca sono molto complessi e spesso si trovano nello stesso disegno variabili sperimentali e variabili quasi sperimentali (questo succede quasi sempre nei disegni di ricerca psicopedagogica): non esiste una gerarchia assoluta tra i disegni di ricerca, sta al ricercatore decidere, in funzione del tipo di indagine che si propone, quale disegno adottare in relazione al massimo controllo possibile che può esercitare sulle variabili in gioco. La significatività statistica delle conclusioni: Per poter applicare tecniche statistiche ai dati raccolti bisogna definire prima anche le ipotesi statistiche, tradurre cioè l'ipotesi di ricerca in ipotesi suscettibili di verifica in base alla teoria statistica. La verifica probabilistica delle ipotesi è un insieme di procedure inferenziali che, partendo da dati rilevati su campioni, consente di prendere delle decisioni sulla popolazione, consente cioè di generalizzare i risultati ottenuti dal campione alla popolazione di provenienza del campione medesimo. L'ipotesi statistica si esprime in: IPOTESI NULLA (H0) = Gli effetti della variabile indipendente sono nulli (ex: gli effetti della lezione frontale sono nulli) IPOTESI ALTERNATIVA (H1) = la variabile indipendente ha avuto un effetto di generica differenza tra i due gruppi (ipotesi bidirezionale), o ha avuto un effetto specifico (ipotesi monodirezionale), nel senso che ci si aspetta che sul gruppo sperimentale abbia avuto l'effetto di aumentare o diminuire la prestazione. La parte della statistica che si occupa della verifica probabilistica delle ipotesi viene detta statistica inferenziale poiché dalle caratteristiche di un campione si cerca di inferire le caratteristiche della popolazione dalla quale si presume che il campione provenga. L'insieme delle procedure che usano i dati del campione per stabilire la credibilità dell'ipotesi di ricerca sulla popolazione viene detta : verifica delle ipotesi.(torna a Esperimenti su singoli) La verifica delle ipotesi viene fatta sulla base delle distribuzioni campionarie dei test statistici che il ricercatore sceglie come più appropriati al suo caso. Per esempio, nella ricerca sugli effetti dell'induzione di sentimenti di cooperazione (atteggiamenti prosociali) sulla generosità dei soggetti, il ricercatore può scegliere la statistica "media" per sintetizzare la variabile dipendente del suo esperimento ed è interessato a valutare se la differenza riscontrata tra le medie calcolate sui due gruppi di soggetti (sperimentale e di controllo) può essere o meno dovuta al caso. Per poter prendere una tale decisione il ricercatore ha bisogno di una distribuzione campionaria del test statistico che sceglierà per valutare la differenza. Una distribuzione campionaria è una distribuzione teorica di frequenze relative ad una certa statistica (per esempio una media) che viene costruita assumendo di aver estratto un numero infinito di campioni di una certa numerosità da una popolazione e di aver calcolato le statistiche su ciascuno di essi. L'insieme di tali statistiche sarà rappresentabile in una distribuzione di frequenze che viene appunto chiamata distribuzione campionaria di quella statistica e che avrà in ascissa i diversi valori che la statistica può assumere ed in ordinata le probabilità di occorrenza di ciascuno di essi. Esistono distribuzioni campionarie note di varie statistiche come: 1)medie 2)varianze 3)proporzioni 4)differenze fra medie 5)correlazioni 6)la t di Student 7)la F di Fischer 8)il Chi2 (2) ed altri ancora…. All'interno di queste distribuzioni il ricercatore stabilirà il livello di significatività che di solito viene chiamato e corrisponde all'errore che il ricercatore accetta di fare nel trarre le conclusioni: un livello di significatività del 5% ( =.05) significa che il ricercatore accetta di poter sbagliare 5 volte su 100 nel considerare significativa una differenza che non lo è. L'area sottesa alle distribuzioni campionarie è resa uguale a 1 perciò se =.05, la rimanente area sarà pari a .95; la distribuzione campionaria è così divisa in due regioni, la regione di rifiuto e la regione di accettazione dell'ipotesi nulla. Il valore della statistica che divide le due regioni viene chiamato valore critico. Fig.1 H0 H1 Xmedia Si può dire che il test è un procedimento che permette di giungere probabilisticamente ad un giudizio riguardante la validità di una ipotesi. Consideriamo il caso - per esemplificare - in cui si voglia verificare l'efficacia di un certo metodo di insegnamento sull'apprendimento. E' opportuno utilizzare un campione costituito da un numero N di osservazione. In una fase che precede l'esecuzione dell'esperimento, il ricercatore formula due ipotesi (due ipotesi semplici - per il momento) escludentisi fra loro. La prima H0 è l'ipotesi nulla: l'intervento non ha efficacia. La seconda H1: l'intervento ha efficacia. Tali ipotesi corrispondono al altrettante popolazioni alternative da cui si suppone possa essere estratto il campione. Si tratta di determinare, sulla base dei risultati dell'esperimento per campione, a quale ipotesi dare credito, cioè quale popolazione ritenere abbia generato il campione. I soggetti, costituenti il campione presentano un rendimento medio Xmedio che può essere uno dei valori appartenenti alla distribuzione della media campionaria sotto l'ipotesi H0, prima dell'intervento, o dopo in caso di inefficacia, oppure alla distribuzione H1 in caso di efficacia. (Fig1) Il ricercatore, come si nota in Fig1. Difficilmente potrà stabilire di quale distribuzione campionaria (ipotesi) fa parte il campione. Pertanto, nell'incertezza, per decidere se l'intervento è efficace o meno, stabilisce di fissare un punto o valore critico Pc sull'asse delle ascisse, che delimita due zone: Fig.2 Fig.2 H0 H1 1 - 1 - Zona di accettazione di H0 Zona di rifiuto di H0 La linea vericale è la linea del valore critico. L'asse delle ascisse rimane divisa in due zone: una di accettazione ed una di rifiuto di H0. il ricercatore. Se il campione estratto risulta appartenere alla zona di rifiuto, respingerà H0 a favore di H1, se appartiene alla zona di accettazione, accetta H0. IL rischio di sbagliare esiste, ma si tratta di scegliere il margine di errore di questo rischio. Ci possono essere due tipi di errori: Stato del problema (che non conosciamo) decisione Accettiamo H0 Respingiamo H0 ipotesi nulla è vera corretto Errore I tipo Ipotesi nulla è falsa Errore II tipo corretto Si definisce errore del primo tipo quando respingiamo l'ipotesi nulla quando è vera. Si definisce errore di II tipo quello che si commette accettando l'ipotesi nulla quando è falsa. La probabilità di commettere errori di II tipo è legata alla potenza dell'analisi statistica. In realtà il ricercatore è interessato non tanto a scoprire se è vera l'ipotesi nulla, ma a falsificarla, cioè a dimostrare che essa è falsa e che la variabile indipendente (il trattamento) ha avuto effetto. Il ricercatore è interessato a respingere correttamente l'ipotesi nulla. La probabilità corrispondente viene chiamata potenza ed indicata con (1 - ) dove è la probabilità di commettere un errore di II tipo. Accettiamo H0 Ipotesi nulla è vera: ( 1- ) 95% Respingiamo H0 Errore di I tipo 5% L'ipotesi nulla è falsa Errore di II tipo 20% Corretto ( 1-) 80% potenza Le distribuzioni campionarie vanno, oltre che in funzione dello specifico test statistico (la distribuzione normale, la distribuzione della t di Student, la distribuzione del 2 di Poisson, la distribuzione della F di Fischer etc) anche in funzione dei gradi di libertà della statistica specifica. Per decidere se accettare o respingere l'ipotesi nulla il ricercatore deve confrontare il valore della statistica calcolato sui suoi dati con il valore critico previsto al livello di significatività prescelto: se il valore trovato è superiore al valore critico esso si troverà nella regione di rifiuto e potrà respingere l'ipotesi nulla e accettare l'ipotesi alternativa. quasiesper.doc