RICERCA SOCIALE –EARL BABBIECAP. 1 I nostri tentativi di imparare a conoscere il mondo sono collegati solo parzialmente all’esperienza diretta o all’indagine personale. Un’altra parte, molto più consistente, deriva dall’accordo sulla conoscenza che qualcun altro ci ha trasmesso. Stiamo parlando della tradizione e l’esperienza che però mostrano delle insidie costituite da: Osservazione imprecisa; Attenzione selettiva; Ragionamento non logico. I nostri antenati pensavano di vedere le cose semplicemente perché esse erano reali e questo è il punto di vista pre-moderno. Il punto di vista moderno invece, considera legittima la diversità e la accetta. Il punto di vista post moderno considera invece ciò che chiamiamo realtà, le immagini che percepiamo dai nostri punti di vista. La scienza si basa su due pilastri: la logica e l’osservazione così che la conoscenza scientifica del mondo deve avere un senso e corrispondere a ciò che osserviamo. Nella ricerca sociale esistono due spiegazioni: 1. Idiografica: (dove idio vuol dire unico) che è una spiegazione limitata a quel caso specifico; 2. Nomotetica: che è una spiegazione che riguarda una classe di situazioni o eventi piuttosto che un singolo fatto, usando uno solo o pochi fattori esplicativi e stabiliscono una spiegazione parziale. E due ragionamenti: 1. Induttivo: và dal particolare al generale, inizia con il “se” per giungere al “perché”; 2. Deduttivo: procede dal generale allo specifico, inizia con il “perché” per giungere al “se”. I dati invece vengono distinti in quantitativi e qualitativi che, in sostanza, è la differenza fra dati numerici e dati non numerici. Ogni osservazione all’inizio è qualitativa, ma la quantificazione rende più esplicite le nostre osservazioni. Poi ci sono le ricerche pure che cercano di raggiungere “la conoscenza di per sé” e quelle applicate dove “applicano le conoscenze della società che si è acquisito attraverso le ricerche”. CAP. 2 Le teorie si dividono in: Macro: si occupano di aspetti ampi, entità aggregate o dell’intera società; Micro: si occupano di questioni sociali al livello degli individui o di gruppi ristretti. CAP. 3 Esistono quattro vincoli ai progetti di ricerca: scientifici, amministrativi, etici, politici. Quando s’inizia una ricerca infatti, bisogna tener conto de: La partecipazione volontaria e non coartata degli intervistati; Non danneggiare in alcun modo i partecipanti; Assicurare l’anonimato e la riservatezza; Formulare un inganno (ad esempio so vogliamo studiare le condizioni delle famiglie delle case popolari per migliorare gli standard di vita, dobbiamo nascondere che ci manda il Comune altrimenti loro, per paura di essere mandati via, si faranno apparire più in difficoltà di quanto lo sono) La questione etica della ricerca è stata tentata di risolvere anche con l’adozione e la pubblicazione di codici professionali di condotta, ma i ricercatori non hanno trovato ancora un accordo su alcuni principi generali. Pensiamo ad esempio, alla “stanza del tè” di Humphreys che ingannava gli omosessuali che s’incontravano nei bagni pubblici facendo da palo, per poi rintracciarli tramite la targa e porre delle interviste. Molti hanno accusato il sociologo di un’enorme invasione della privacy nel nome della scienza. Un altro problema sono le questioni politiche e anche se molti ricercatori concordano che l’orientamento politico non debba influenzare la ricerca, in pratica può essere difficile separare la politica e le ideologie dalle ricerche. Sebbene le norme della scienza non possano forzare i singoli ricercatori ad abbandonare i loro valori personali, il carattere intersoggettivo della scienza costituisce una barriera contro le scoperte “scientifiche” che derivano soltanto da pregiudizi ed errori. CAP. 4 La ricerca sociale può perseguire molti scopi. I principali sono: 1. L’esplorazione: che avviene solitamente quando un ricercatore s’interessa a un tema per la prima volta, oppure il tema è relativamente nuovo. A volte tale ricerca, avviene attraverso l’uso di focus group, o piccoli gruppi di discussione. Di solito questo studio è eseguito per soddisfare la curiosità del ricercatore e il suo desiderio di comprendere meglio, per controllare la fattibilità di intraprendere uno studio più ampio e per sviluppare metodi da impiegare in studi successivi. Il suo principale difetto è che offre solo in rari casi risposte soddisfacenti e il motivo risiede nella sua mancanza di rappresentatività: le caratteristiche delle persone che analizziamo potrebbero non essere quelle della popolazione più ampia che ci interessa. 2. La descrizione: eseguita soprattutto negli studi qualitativi e di solito i ricercatori continuano la loro analisi per capire anche il perché i modelli che hanno osservato esistono e cosa implicano. 3. La spiegazione: quando si cerca di capire il perché. Esistono tre principali criteri per stabilire le relazioni causali nomotetiche della ricerca sociale: Correlazione: cioè se fra due variabili non troviamo una correlazione, non possiamo affermare che esiste una relazione causale. Ordine temporale: non possiamo sostenere che esiste una relazione causale se la causa non ha luogo prima dell’effetto. La relazione non deve essere spuria: l’effetto non può essere spiegato da una terza variabile (+gelati venduti + annegamento; stagione estiva balneare). E falsi criteri per la causalità nomotetica: Causazione completa: la spiegazione nomotetica è solitamente probabilistica e incompleta e una variabile può essere una delle cause di un risultato, ma non l’unica. Casi eccezionali: essi non confutano il modello causale complessivo. Maggioranza dei casi: le relazioni causali possono essere vere anche se non si applicano alla maggioranza dei casi. Una causa necessaria è una condizione che deve essere presente affinché si verifichi anche l’effetto. Una causa sufficiente invece, è una condizione che, quando presente, garantisce che si verifichi pure l’effetto. Le unità di analisi possono essere gli individui, i gruppi, le organizzazioni, le interazioni sociali e gli artefatti sociali (qualsiasi prodotto degli esseri umani). Ci possono essere dei ragionamenti errati sull’unità di analisi: la fallacia ecologica: l’assunto che qualcosa che accade ad un’unità di ecologica possa essere trasferito anche agli individui che la compongono (anche se abbiamo riscontrato, ad esempio, che i tassi di suicidio sono più alti nei paesi protestanti che in quelli cattolici, non possiamo sapere se davvero i protestanti si suicidano di più dei cattolici). La fallacia individualistica: le generalizzazioni e le affermazioni probabilistiche non sono invalidate dalle eccezioni (per esempio, il fatto di conoscere un ricco democratico non smentisce il fatto che la maggior parte delle persone ricche votino i repubblicani). Riduzionismo:concerne i tentativi di spiegare un particolare fenomeno nei termini di concetti limitati e/o di ordine più basso (potremmo cercare di prevedere chi vincerà lo scudetto analizzando solo i calciatori delle squadre, mentre dovremmo invece analizzare le squadre in sé e quindi anche l’allenatore, lo stadio, le strategie ecc…). Per quanto riguarda invece la dimensione temporale, ci sono gli studi: Trasversali: comportano l’osservazione nello stesso momento temporale di un campione. Gli studi esplorativi e descrittivi sono spesso di questo tipo. Tale studio offrono un’istantanea del fenomeno in un determinato periodo temporale, ma presentano un problema: anche se le conclusioni sono basate su osservazioni fatte soltanto in un determinato punto del tempo, mirano specificatamente alla comprensione di processi causali che si svolgono nel corso del tempo. Longitudinali: effettuati in modo da osservare lo stesso fenomeno in un periodo di tempo più ampio. Può essere di 3 tipi: 1. Trend: analizza i cambiamenti di una popolazione nel tempo (i censimenti) 2. Studio di coorte: esamina sottopopolazioni per osservare i cambiamenti nel tempo, di solito è un gruppo di età, come le persone che avevano vent’anni l’11 settembre 2001. 3. Indagine panel: studia le stesse persone nel corso del tempo, ma soffrono il logoramento dei partecipanti. Gli studi longitudinali possiedono indubbiamente dei vantaggi rispetto a quelli trasversali poiché forniscono informazioni sui processi nel corso del tempo. Tali vantaggi sono però ottenuti a un costo elevato in termini di tempo e di denaro. Approssimare gli studi longitudinali: a volte i dati trasversali implicano processi che avvengono nel tempo, o chiedere alle persone di ricordare il passato, ma corre pericoli come il fatto che le persone non possiedono una buona memoria e altre volte mentono. CAP. 5 Il processo attraverso cui raggiungiamo un accordo sul significato dei termini è la concettualizzazione ed il risultato è detto concetto. Kaplan identifica tre classi di cose che gli scienziati misurano: Ciò che è direttamente osservabile (come il colore di una mela); Ciò che è osservabile indirettamente (se vediamo che una persona segna la casella femmina abbiamo osservato indirettamente il suo genere); I costrutti: creazioni teoriche basate sull’osservazione che non possono essere osservati né direttamente né indirettamente (come il Q.I.) Kaplan definisce un concetto come una famiglia di concezioni. I concetti sono costrutti derivati dal mutuo accordo delle immagini mentali (concezioni). Le nostre concezioni riassumono una serie di raccolte di osservazioni ed esperienze che pensiamo siano collegate fra loro. Le osservazioni e le esperienze sono reali (almeno soggettivamente) ma le concezioni e i concetti derivati da esse sono soltanto creazioni della nostra mente. I costrutti dunque, non sono reali, ma sono utili: ci aiutano ad organizzare, comunicare e comprendere cose che sono reali. Il processo attraverso cui specifichiamo quello che vogliamo dire quando usiamo un termine particolare è la concettualizzazione. La concettualizzazione dà un significato definitivo a un concetto, specificando uno o più indicatori che pensiamo di utilizzare per osservarlo. Un indicatore è un simbolo della presenza o dell’assenza del concetto che stiamo studiando. Gli indicatori devono essere intercambiabili, cioè se diversi indicatori possono rappresentare, in qualche modo, lo stesso concetto, allora tutti si comporteranno come se il concetto fosse reale e potesse essere osservabile. La definizione operativa è lo sviluppo di procedure specifiche di ricerca (operazioni) che permettono di fare osservazioni empiriche che rappresentano concetti del mondo reale. Per definire operativamente un concetto, i ricercatori devono individuare con chiarezza l’intervallo di variazione che intendono utilizzare (per non rischiare di misurare soltanto metà degli individui ad esempio, per il reddito se ci sono alcuni che guadagnano troppo allora l’ultimo gradino dell’intervallo deve essere 80.000 euro o più l’anno). Un altro aspetto, invece, è il grado di precisione e quale livello di misurazione usare. Ogni variabile possiede due qualità: 1. Gli attributi che la compongono devono essere esaustivi (in tutti i casi, dobbiamo sempre essere in grado di classificare ogni osservazione); 2. Gli attributi che compongono una variabile devono essere mutualmente esclusivi (dobbiamo essere in grado di classificare ogni osservazione nei termini di un solo attributo). Le variabili i cui attributi possiedono solo le caratteristiche dell’esaustività e della mutua esclusività sono nominali (il genere, l’affiliazione religiosa). Le variabili ordinali invece, possiedono attributi che possiamo ordinare logicamente e rappresentano un “di più” o un “di meno” (la classe sociale, la raffinatezza culturale). I criteri per valutare la qualità della misurazione sono: La precisione; L’affidabilità, che può essere garantita con: 1. Il metodo test-retest, dove si ripete più volte la stessa misurazione; 2. Il metodo split-half, dove si potrebbe assegnare, ad esempio, casualmente le dieci domande a due gruppi di cinque domande e grazie all’intercambiabilità degli indicatori, ciascuna serie dovrebbe fornire una buona misura; 3. L’utilizzo di misure già testate; 4. L’affidabilità dei ricercatori. La validità (che sta in equilibrio con l’affidabilità a causa della “ricchezza di significato” e a volte accontentare la validità significa venir meno della validità ed è per questo che ci sono le indagini qualitative e quantitative). CAP. 6 Sia le scale, sia gli indici sono misure ordinali di variabili, sono misure composte di variabili. Mentre gli indici sono basati sulle risposte, le scale si basano sui modelli di risposta: individuiamo i modelli logici delle risposte e assegniamo un punteggio alle risposte in base al modello che assomiglia di più alle risposte date. Le scale però, sono superiori agli indici, poiché considerano anche la differente gradazione di intensità con cui le domande riflettono la variabile che stiamo misurando e contengono più informazioni. Il primo passo della creazione di un indice consiste nella selezione degli item attraverso dei criteri: Validità nominale: dove ogni item dovrebbe offrire qualche indicazione di ciò che si sta misurando; Unidimensionalità: una misura composita dovrebbe rappresentare una sola dimensione di un concetto e la natura degli item determinerà la genericità o la specificità della variabile; Variazione: nella scelta degli item dobbiamo preoccuparci pure della loro variazione e ci sono due modo per fare ciò… 1. Selezionando item le cui risposte dividono grosso modo equamente i rispondenti nei termini della variabile, per esempio circa metà uno e metà l’altro. 2. Selezionando item con diversa variabilità e un item potrebbe identificare circa metà rispondenti come un tipo, mentre un altro potrebbe identificarne solo pochi. Il secondo passo consiste nell’analisi delle relazioni empiriche: Relazione bivariata:che riguarda due variabili alla volta, ad esempio chi è favorevole al sostegno militare dovrebbe tendenzialmente essere più favorevole al sostegno finanziario dell’ONU, di coloro che non condividono il sostegno militare. Relazione multivariata: utilizza più di due variabili. Dovremmo dunque cercare di scoprire le interazioni simultanee degli item per determinare quali dovrebbero essere inclusi nello stesso indice. Dopo aver scelto i migliori item per l’indice, dobbiamo assegnare il punteggio per le singole risposte, ciò permetterà di creare un singolo indice composito formato dai diversi item. Dobbiamo trovare però un equilibrio fra l’intervallo di misurazione dell’indice e un numero adeguato di casi in ciascuna estremità dell’intervallo di variazione, decidere poi, se dare a ciascun item lo stesso peso, oppure pesi differenti, anche se è preferibile la prima ipotesi. Un problema ricorrente nella raccolta dei dati è costituito dai dati mancanti. A tale problema ci sono più soluzioni: Se un item ha più valori possibili, potremmo assegnare ai dati mancanti il valore centrale; Sostituire i dati mancanti con valori generati in modo casuale, anche se si indebolisce la purezza dell’indice e si riducono la possibilità che sia associato ad altre variabili. Il metodo migliore per costruire l’indice consiste nel costruirlo secondo vari metodi alternativi e osservare quali risultati otteniamo dall’analisi di ciascuno. Ci sono diversi modi per validare un indice: Con la validazione interna, l’analisi degli item, durante tale analisi infatti, esaminiamo la misura in cui l’indice composito è correlato agli item individuali che comprende; Con la validazione esterna così che l’ordinamento dei gruppi di rispondenti in base all’indice dovrebbe permettere di prevedere l’ordinamento di questi gruppi in relazione ad altre domande riguardanti. Ci sono vari tipi di scale: 1. Scala della distanza sociale di Bogardus: permette di determinare la volontà a partecipare alle relazioni sociali, con vari gradi di contingenza, con altri tipi di persone; 2. Scala di Thurstone: trovare giudici che valutino gli item, ma ciò è difficile e inoltre il significato degli item tende a cambiare nel tempo; 3. Scala di Likert: costituire categorie come “completamente d’accordo”, “d’accordo”, “in disaccordo” e “del tutto in disaccordo”; 4. Differenziale semantico: dove i rispondenti devono scegliere fra due posizioni opposte; 5. Scala di Guttman: si basa sul fatto che chiunque condivida un indicatore più forte di qualche variabile allora condividerà probabilmente anche gli indicatori più deboli; 6. Altre volte possiamo voler riassumere l’intersezione di due o più variabili attraverso la creazione di una serie di categorie, cioè tipologie. Se utilizziamo la tipologia come variabile indipendente non incontreremo mai problemi nell’analisi, perché è molto difficile analizzare una tipologia come variabile dipendente. CAP. 7 Il processo attraverso cui selezioniamo le osservazioni è chiamato campionamento. Per riuscire a generalizzare i risultati del campione a una popolazione più ampia è necessario effettuare un campionamento probabilistico, che si basa sull’idea del campionamento casuale. La storia del campionamento nella ricerca sociale è connessa strettamente con quella dei sondaggi elettorali. I campionamenti non probabilistici sono usati soprattutto nella ricerca qualitativa e sono di quattro tipi: 1. A casaccio: affidandosi sulle persone disponibili, come per esempio fermare le persone all’angolo di una strada. Chiaramente, non permette di avere alcun controllo sulla rappresentatività del campione. La sua applicazione è giustificata soltanto se vogliamo studiare le caratteristiche delle persone che passano nel punto di campionamento in un preciso momento, oppure se non è possibile usare altri metodi. E’ necessario per cui essere molto cauti nella generalizzazione dei dati. 2. A scelta ragionata: selezionando un campione sulle basi delle conoscenze di una popolazione, dei suoi elementi e dello scopo della ricerca; ad esempio, in uno studio comparativo degli studenti di sinistra e di destra potremmo non essere in grado di creare l’elenco degli studenti delle due categorie e allora potremmo decidere di campionare i membri di alcuni gruppi o organizzazioni che sappiamo ispirarsi ai principi della destra o della sinistra. 3. A valanga: è utile quando è molto difficile contattare i membri di una certa popolazione così che si chiede ad ogni intervistato di fornire i contatti per altre interviste. E’ utilizzata soprattutto per indagini esplorative. 4. Per quote: componendo una matrice delle caratteristiche della popolazione che vogliamo studiare, stabilendo la proporzione relativa per ciascuna cella così che la raccolta dei dati riguarda persone che possiedono le caratteristiche indicate in ciascuna cella. Terminata la raccolta, i dati sono ponderati in modo appropriato in base alla proporzione della popolazione totale che rappresentano. In questo modo dovrebbero fornire, nel complesso, una rappresentazione ragionevole della popolazione totale. Le quote però devono essere accurate e non è sempre facile e la selezione degli elementi delle celle potrebbe essere errata. Mentre un rispondente è una persona che fornisce informazioni su se stessa, un informatore è un membro del gruppo che può parlare direttamente del gruppo. Il campionamento probabilistico invece, si basa sull’idea che per fornire un’utile descrizione della popolazione totale, un campione di individui di questa popolazione, deve contenere essenzialmente le stesse variazioni esistenti nella popolazione. Un campione è rappresentativo della popolazione da cui è stato estratto se tutti i membri della popolazione hanno la stessa probabilità di essere selezionati per il campione. I campioni che possiedono questa qualità sono chiamati anche EPSEM “campioni con probabilità di selezione uniforme”, anche se mai o raramente rappresentano perfettamente la popolazione, ma offrono il vantaggio di essere più rappresentativi di altri tipi di campioni e la teoria delle probabilità permette di stimare l’accuratezza o la rappresentatività del campione. Il campione probabilistico è frutto di una media degli intervistati per cui più è ampio il campione selezionato, più produrrà una stima accurata della popolazione e si può stimare anche il margine di errore. I campioni probabilistici sono il metodo più efficiente per selezionare un campione perché permettono di evitare distorsioni nelle selezione degli elementi e di stimare l’errore di campionamento. Il campionamento probabilistico può essere: Casuale semplice: richiede una lista di elementi, ma quando è disponibile i ricercatori preferiscono usare un altro metodo. Comunque prevede di scegliere un elemento della lista ogni tot (intervallo di campionamento) con una ragione di campionamento (proporzione di elementi della popolazione selezionati per un campione). Stratificato: lo scopo è costruire dei sottogruppi omogenei (con eterogeneità fra i sottogruppi) e selezionare il numero appropriato di elementi da ciascun sottogruppo. A Stadi: quando è impossibile compilare un elenco esaustivo degli elementi della popolazione d’indagine (ad esempio, tutti i religiosi che appartengono a una chiesa: si potrebbe campionare una serie di chiese e ottenere la lista dei religiosi che fanno parte delle chiese selezionate e ognuna delle liste poi, potrebbe essere campionata per fornire campioni dei membri delle chiese per la ricerca). Un campione casuale semplice però, è soggetto a un solo errore di campionamento, ma un campionamento a due stadi è soggetto a due errori di campionamento. Può essere anche: 1. per aeree (selezionare un campione di blocchi, creare una lista degli abitanti dei blocchi selezionati ed estrarre un sottocampione da ogni blocco). 2. Multistadio stratificato: per selezionare un campione nazionale di chiese potremmo iniziare stratificando la lista delle chiese per denominazione, regione o tipo, poi in base alle variabili di stratificazione disponibili, è possibile selezionare il campione utilizzando sia il campionamento casuale semplice, sia quello sistematico. Potremmo estrarre un numero specifico di unità da ciascun gruppo oppure ordinare i sottogruppi stratificati in una lista continua ed effettuare un campionamento sistematico da questa lista. L’errore di campionamento in questo stadio sarà minore. 3. Casuale a quantità proporzionale: metodo particolarmente efficace per effettuare i campionamento a stadi. Se i componenti di una popolazione non hanno infatti la stessa probabilità di essere inseriti in un campione, per assicurare la rappresentatività dell’intera popolazione, i ricercatori devono assegnare pesi diversi alle osservazioni. CAP. 8 Gli esperimenti riguardano tre coppie di componenti: 1. Variabili indipendenti e variabili dipendenti: un esperimento studia l’effetto di una variabile indipendente su di una variabile dipendente. La prima è uno stimolo sperimentale che può essere presente o assente, il ricercatore confronta quello che succede quando lo stimolo è presente con quello che accade quando è assente, mentre quella dipendente è ad esempio il pregiudizio. 2. Il pre-test e il post-test: il primo serve a definire la posizione dei soggetti secondo la variabile dipendente, successivamente i partecipanti sono esposti a uno stimolo rappresentato da una variabile indipendente, mentre il secondo serve a misurare la variabile dipendente nuovamente. Qualsiasi differenza fra la prima e l’ultima misurazione della variabile dipendente è attribuita alla variabile indipendente, anche se i soggetti potrebbero dare risposte diverse anche se i loro atteggiamenti non fossero cambiati. 3. Il gruppo sperimentale il gruppo di controllo: gli esperimenti di laboratorio non riguardano quasi mai l’osservazione del solo gruppo sperimentale a cui è somministrato lo stimolo. I ricercatori osservano quasi sempre anche un gruppo di controllo cui non somministrano lo stimolo. Il gruppo di controllo permette di isolare qualsiasi effetto dovuto all’esperimento; negli esperimenti scientifici i gruppi di controllo sono utili per evitare l’effetto dell’esperimento in sé e di qualsiasi altro fattore esterno; alcune volte, un disegno sperimentale richiede più gruppi sperimentali o di controllo. Negli esperimenti in doppio cieco né i soggetti, né lo sperimentatore, sanno quale sia il gruppo sperimentale e quale quello di controllo, ciò è utile soprattutto negli esperimenti medici. Per quanto riguarda la composizione dei gruppi ci sono principalmente tre metodi: 1. Campionamento probabilistico: la selezione casuale, poco efficace quando i campioni sono composti da meno di 100 individui e gli esperimenti sociali considerano raramente un numero così elevato, per cui questo metodo è poco usato, tuttavia i ricercatori utilizzano questo metodo quando assegnano i soggetti ai gruppi. 2. La randomizzazione: si attribuisce un numero progressivo a tutti i soggetti e si selezionano i numeri da inserire in ciascuno dei due gruppi attraverso una tabella dei numeri casuali. 3. Matching: si assegnano un numero di individui a caso a ciascun gruppo se hanno caratteristiche simili, per appurare che sia effettivamente così si potrebbe creare una matrice delle caratteristiche che devono possedere i soggetti dell’esperimento o in una precedente seleziono, eliminare chi non presenta le caratteristiche che vogliamo indagare. Questo metodo è preferibile se i soggetti sono pochi, ma nell’assegnazione dei soggetti, è preferibile la randomizzazione invece. Altre volte ancora si può fondere i due metodi ottenendo una procedura di campionamento stratificato. Per quanto riguarda i disegni “non-sperimentali” Campbell e Stanley parlano di: Case report: dove un solo gruppo di soggetti è studiato attraverso la misurazione di una variabile dipendente dopo la somministrazione di uno stimolo sperimentale; tuttavia, senza aver fatto prima il pre-test non possiamo essere sicuri che le variazioni sono state dovute alla somministrazione o i soggetti avrebbero potuto non avere (ad esempio, in una misurazione sul livello del pregiudizio) molti pregiudizi già prima di iniziare l’esperimento. Prima-dopo senza gruppo di controllo: prevede un pre-test per il gruppo sperimentale, ma è privo di un gruppo di controllo; l’eventuale fallacia potrebbe consistere che il risultato venga causato da un fattore diverso dalla variabile indipendente. Confronto con gruppo statico: prevede un gruppo sperimentale e uno di controllo, ma senza pre-test. One shot: consiste in un esempio che supporta la sua proposizione, ma il ragionamento non è corretto (l’esercizio fisico riduce il peso perché chi corre è magro). I fattori che influiscono sulla ricerca sperimentale sono: Mancanza di validità interna: quando qualsiasi cosa al di fuori dello stimolo sperimentale può influire sulla variabile dipendente come ad esempio la storia (eventi che confondono i risultati dell’esperimento), la maturazione (il continuare a cambiare e a crescere), il test (che può influenzare il comportamento dei soggetti), la strumentazione, gli errori nella selezione, la mortalità durante l’esperimento (i soggetti rinunciano prima della conclusione), la demotivazione (comportarsi male o arrabbiarsi). Mancanza di validità esterna: che riguarda la generalizzazione dei risultati e si concretizza quando c’è un interazione tra il test e lo stimolo dell’esperimento (ad esempio, se il post-test evidenza meno pregiudizio dopo la visione di un film, ma avrebbe avuto lo stesso effetto se avessimo mostrato il film in un teatro o alla televisione). Per questo Solomon ha previsto un disegno che prevede quattro gruppi assegnati in modo casuale dove nel primo viene sollecitato uni stimolo e analizzato sia col pre che col post-test; nel secondo nessuno stimolo viene sollecitato e analizzato sua col pre che col post-test; nel terzo gruppo viene sollecitato lo stimolo senza nessun pre-test, ma col posttest; nel quarto invece, nessuno stimolo viene sollecitato senza nessun pre-test, ma solo col post-test. CAP.9 Nella ricerca sociale, le domande sono il risultato della definizione operativa delle variabili. Le domande devono essere formulate con lo scopo di definire le variabili nel migliore dei modi ed evitare che producano informazioni inutilizzabili e ci sono: 1. Domande e affermazioni: per studiare la misura in cui i rispondenti possiedono un certo atteggiamento o condividono una certa prospettiva, chiedendo loro se la condividono o meno. 2. Domande aperte e domande chiuse: le interviste qualitative si basano sulle prime, ma le seconde sono più diffuse e permettono di raccogliere risposte uniformi e più facili da elaborare. Per elaborare le domande aperte è necessario prima codificarle, cioè attribuire un significato alle risposte. Le domande chiuse invece, devono essere esaustive e mutualmente esclusive. Per quanto riguarda le domande, ci sono alcune regole da seguire: Le domande devono essere chiare e non ambigue; Evitare le domande con doppio significato (soprattutto quelle che contengono la parola “e”); I rispondenti devono essere in grado di rispondere; I rispondenti devono aver voglia di rispondere (garantire l’anonimato); Le domande devono essere pertinenti; E’ meglio usare domande brevi; Evitare la negazione in una domanda perché prepara la strada per un’interpretazione sbagliata; Evitare termini e frasi che possono creare risposte distorte. I questionari devono avere una forma tale da aiutare gli intervistatori nel loro lavoro. Uno dei formati più usati nelle domande prevede che i rispondenti mettano un segno in una casella. Alcune domande possono fungere da “filtro”, cioè essere importanti per qualche rispondente e irrilevanti per altri; esse portano a domande dette “contingenti”, cioè poste solo se ha risposto in un certo modo alla domanda filtro, ciò facilita la compilazione del questionario. E’ utile inoltre, inserire le istruzioni fra parentesi a fianco di ogni risposta, dicendo ai rispondenti a quale punto del questionario devono passare o una nota in cima a ciascuna pagina contenente soltanto le domande contingenti. A volte più domande hanno le stesse categorie di risposta, soprattutto nella categoria Linkert, in questo caso è allora possibile inserire in una matrice la batteria delle domande e delle risposte così che s’impiega meno tempo nella compilazione e si aumenta la comparabilità delle risposte di domande differenti; potrebbero però, incoraggiare il ricercatore ad inserire nella batteria domande per cui sarebbe meglio prevedere modalità di risposta diverse o l’intervistato al response set, cioè la tendenza a rispondere in modo meccanico dando sempre la stessa risposta. Una certa domanda potrebbe poi influenzare le risposte successive è disporle in modo casuale è inutile, sarebbe meglio essere sensibili al problema; è bene iniziare con le domande più interessanti e porre quelle banali, come i dati demografici, alla fine, per le interviste faccia a faccia invece, vale l’opposto. Ogni questionario deve contenere informazioni molto chiare su come compilarlo e il modo più facile per evitare errori di somministrazione del questionario è il pre-test del questionario. Il metodo più semplice per raccogliere dati consiste nell’inviare un questionario accompagnato da una lettera di spiegazioni e da una busta già affrancata con l’indirizzo per la restituzione. Si può utilizzare un grafico del tasso di risposta. Due o tre settimane dopo, se la risposta non è pervenuta, possiamo mandare una lettera di sollecito, aggiungendo un nuovo questionario o scrivendo una lettera in cui si ringrazia chi ha restituito il questionario e pregando chi non l’abbia ancora fatto di sbrigarsi a farlo. Un tasso di risposta elevato riduce la possibilità di distorsioni, un tasso adeguato è il 50%. I rispondenti sono più riluttanti a chiudere la porta davanti ad un intervistatore, la sua presenza consente di diminuire le risposte dubbie e di eliminare incomprensioni, infine può anche osservare i rispondenti. Gli intervistatori dovrebbero vestire in maniera simile alle persone che intervistano, tenere una condotta piacevole, leggere il testo come se si trattasse di una conversazione naturale, seguire perfettamente la formulazione delle domande, riportare con precisione le risposte e agendo il probing cioè fare domande aggiuntive che hanno lo scopo di motivare il soggetto a comunicare e a concentrare la sua attenzione sul contenuto della domanda, senza però influenzarlo. Le interviste telefoniche consentono di risparmiare denaro e tempo, permettono ai soggetti di rispondere con più sincerità e agli intervistatori un maggior controllo dei dati raccolti; tuttavia la facilità con cui si può chiudere o finire repentinamente l’intervista telefonica è preoccupante così come la diffusione di segreterie telefoniche e telefonini. Il metodo CATI prepara automaticamente i dati per l’analisi così che il ricercatore può iniziare ad analizzarli ancora prima che l’indagine sia terminata, potendo in questo modo avere in breve tempo un’idea dei risultati. Le indagini online hanno invece, il problema della rappresentatività degli intervistati, ma tanti vantaggi, tra cui la possibilità di utilizzare in modo appropriato la ponderazione in relazione a diverse tipologie di rispondenti. L’analisi secondaria è una forma di ricerca in cui i dati raccolti ed elaborati da un ricercatore sono analizzati, spesso con uno scopo differente, da un altro ricercatore. CAP. 10 La ricerca sul campo raccoglie tipicamente dati qualitativi, osservazioni difficili da riassumere in numeri, sebbene possa raccogliere anche dati quantitativi, non si limita alla raccolta dei dati, ma produce anche teorie. Lofland elenca alcuni aspetti che si prestano particolarmente a tale metodica: pratiche, episodi, incontri, ruoli e tipi sociali, relazioni sociali e personali, gruppi ristretti, organizzazioni, insediamenti e ambienti, sottoculture e stili di vita. La ricerca sul campo offre il vantaggio di indagare la vita sociale nel suo ambiente naturale. Infatti, sebbene molte cose possano essere studiate con un questionario o in laboratorio, per altre non è possibile e l’osservazione diretta sul campo permette di cogliere più in profondità alcuni aspetti. Il ruolo dell’osservatore può essere: 1. Partecipante completo: che partecipa a ciò che sta studiando o finge di farlo e può mostrarsi solo come un partecipante e non come un ricercatore. Tutto ciò che l’osservatore partecipante fa, o non fa, avrà però qualche conseguenza su ciò che sta osservando. Rivelando invece la sua identità, potrebbe spostare l’attenzione dei soggetti sul progetto di ricerca o, dall’altro lato, il ricercatore potrebbe identificarsi troppo con gli interessi e i punti di vista dei partecipanti. 2. Osservatore completo: studia un processo sociale senza diventarne parte. Se tradizionalmente si è posto l’accento sul’obiettività, oggi si vedono i vantaggi di immergersi nel punto di vista dei soggetti che si sta studiando formulando una “competenza selettiva” o “comprensione dall’interno”. Bellah parla di “realismo simbolico” cioè l’esigenza che i ricercatori sociali trattino le credenze che stanno studiando come degne di rispetto. Gli antropologi chiamano la tecnica di assumere il punto di vista interno “prospettiva emica”, mentre la “prospettiva etica” mantiene invece la distanza. Entrambe offrono dei vantaggi e sembrano mutualmente esclusive, è però possibile adottarle entrambe modificando il nostro punto di vista all’istante. Gli approcci della ricerca qualitativa sono: Approccio naturalistico: sviluppato dalla scuola di Chicago, sostiene che la realtà sociale sia evidente e che basti osservarla e descriverla come è nella realtà. Il paradigma usato è quello dell’etnografia, cioè la ricerca che si concentra sulla descrizione dettagliata e precisa di un fenomeno, piuttosto che sulla sua spiegazione. Etnometodologia: Studia i modelli sottointesi delle interazioni che regolano la vita quotidiana. Mentre l’etnografia s’immerge in una particolare cultura per poter rappresentare la realtà sociale che studia, la fenomenologia attribuisce un significato alla percezione del mondo degli informatori per cui si è tentato di conciliare queste correnti rivelando come le persone attribuiscono un significato alla vita quotidiana. Garfinkel parla di “rompere le regole”, la “rottura della routine della vita quotidiana” come i suoi esperimenti di chiarimento della conversazione. Grounded theory: sviluppata da Glaser e Strauss, è il tentativo di derivare le teorie dell’analisi dei modelli, dei temi e delle categorie comuni scoperte osservando i dati. Si deve pensare in modo comparativo, ottenere più punti di vista, ogni tanto fare un passo indietro, mantenere un atteggiamento di scetticismo, seguire le procedure di ricerca. Lo studio di caso e il metodo di analisi dinamica dei casi: mentre il primo si ha quando ci si concentra su un caso solo, il secondo ha lo scopo di scoprire eventuali lacune nelle teorie per modificarle. L’etnografia istituzionale: elaborata da Dorothy Smith, ritiene che chiedendo a membri di un gruppo subordinato “come funzionano le cose”, sia possibile scoprire le pratiche istituzionali che formano le loro realtà. Lo scopo è studiare le forme di oppressione, iniziando ad esaminare le esperienze personali degli individui, ma procedendo poi cercando di scoprire le relazioni di potere che governano tali esperienze. La ricerca azione partecipativa: il ricercatore costituisce una risorsa per coloro che sta studiando-solitamente gruppi svantaggiati- e un’opportunità per agire effettivamente nel loro interesse. Il sunto è che la ricerca non può avere come scopo solo la produzione di conoscenza, ma dovrebbe anche essere uno strumento per l’educazione e lo sviluppo. Per preparare una ricerca qualitativa sul campo si deve fare un’analisi della letteratura esistente, discutere con qualcuno che ha già studiato il fenomeno o un informatore anche se dovremmo diffidare delle informazioni che otteniamo, ci si deve poi unire al gruppo e se si vuole stabilire un contatto più formale rivelando la nostra identità, sarà necessario stabile un rapporto con i soggetti. Il disegno delle interviste qualitative è flessibile perché basate su un’interazione, una conversazione in cui l’intervistatore assume la direzione cercando di approfondire gli argomenti indicati dal rispondente. Bisogna porre una domanda, ascoltare attentamente la risposta, interpretare il significato alla luce degli interessi della ricerca e poi formulare altre domande per approfondire il tema della risposta Lofland suggerisce di adottare il ruolo de “l’incompetente socialmente accettabile”, presentandosi come qualcuno che non capisce la situazione in cui si trova e deve essere aiutato ad afferrarne gli aspetti basilari e più ovvi. Kvale pala di sette passaggi: tematizzare (chiarire lo scopo e i concetti da esplorare), progettare (impostare il processo attraverso cui raggiungere gli scopi), intervistare, trascrivere, analizzare, verificare (controllare affidabilità e validità del materiale) e presentare (raccontare agli altri). Il focus group è un’intervista di gruppo che permette di intervistare sistematicamente e contemporaneamente più persone. Krueger parla di vantaggi (costa poco, elevata validità nominale, è flessibile, metodo socialmente orientato a raccogliere dati della vita reale in un ambiente, impiega poco tempo) e svantaggi (il ricercatore ha meno controllo, i dati sono difficili da analizzare, i moderatori devono possedere competenze specifiche, la differenza fra gruppi può essere un problema, è difficile formare i gruppi, la discussione deve avere luogo in un ambiente favorevole). Le osservazioni della ricerca qualitativa devono sempre essere registrate. La ricerca qualitativa è più valida di quella quantitativa perché descrive in profondità i concetti, ma ha un problema di affidabilità perché le osservazioni sono spesso soggettive e perciò è meglio limitarsi alla misurazione descrittiva. CAP. 11 Ci sono delle tecniche non intrusive che permettono di studiare il comportamento sociale senza influenzarne il processo e sono: 1. L’analisi del contenuto: è un metodo che studia le comunicazioni umane, quindi sia i processi della comunicazione, sia altri aspetti del comportamento sociale. Le unità di analisi di tale metodo sono solitamente le forme di comunicazione scritte e si possono applicare le tecniche standard di campionamento per raccogliere dati. Questo metodo comporta la codifica, cioè la trasformazione dei dati grezzi in categorie sulla base di uno schema concettuale che potrebbe riguardare sia il contenuto manifesto (significato esplicito come il conteggio delle parole volgari in un romanzo per determinare se sia erotico) o latente (significato implicito, che richiede un giudizio da parte del ricercatore). Per interpretare i dati si possono usare sia le tecniche qualitative che quelle quantitative. I vantaggi sono i costi bassi e la sicurezza e la possibilità di studiare processi che hanno luogo in un intervallo di tempo lungo; gli svantaggi sono che è limitata alle comunicazioni registrate, dunque potrebbero esserci problemi di validità e affidabilità. 2. L’analisi delle statistiche esistenti: è un metodo che usano molte organizzazioni ed enti pubblici che raccolgono dati statistici per studiare alcuni aspetti della vita sociale. Tale metodica soffre di problemi di validità che però possono essere superati con il ragionamento logico e la replicazione, mentre per evitare problemi di affidabilità si deve prestare molta attenzione. 3. La ricerca storica comparativa: è un metodo per scoprire modelli nella storia di culture differenti. E’ considerata una tecnica qualitativa, ma può utilizzare anche tecniche quantitative. CAP. 12 La ricerca valutativa si concentra sullo scopo della ricerca, piuttosto che sul metodo e questo scopo è la valutazione dell’impatto degli interventi sociali. E’ un processo per determinare se un intervento sociale ha prodotto il risultato che si proponeva e può avvenire in molti modi: Ricerca sulla valutazione dei bisogni: che stima l’esistenza e la diffusione dei problemi all’interno di segmenti specifici della popolazione. Analisi costi-benefici: stabilisce se i costi di un programma sono giustificati dai risultati ottenuti. Monitoraggi: la ricerca produce un flusso costante d’informazioni (per esempio sulla diffusione di un’epidemia). La ricerca valutativa soffre però del limite di non poter misurare l’incommensurabile, ecco perché bisogna raggiungere un accordo su come effettuare la misurazione che può avvenire attraverso la misurazione delle variabili dipendenti, la combinazione di misure complementari con l’inclusione di un gruppo di controllo nel disegno di ricerca. E’ importante poi definire la popolazione dei soggetti per cui il programma è appropriato. Si deve anche decidere se utilizzare misure già esistenti o crearne di nuove e quest’ultima scelta offre maggior validità. La ricerca valutativa può essere effettuata secondo: Il disegno sperimentale standard (assegnazione casuale); Il disegno quasi sperimentale, dove troviamo: 1. Il disegno di serie-temporale (la misurazione avviene nel corso del tempo e prevede solo un gruppo sperimentale); 2. Gruppi di controllo non equivalenti (prevede un gruppo do controllo preesistente abbastanza simile al gruppo sperimentale chiamato gruppo di controllo non equivalente). 3. Disegno di serie temporale con gruppo di controllo (il gruppo di controllo viene analizzato in più serie temporali). Gli indicatori sociali (riguarda la creazione e l’analisi di statistiche aggregate che riflettono le condizioni sociali di una società o di un gruppo sociale). CAP. 13 L’analisi qualitativa è l’investigazione e l’interpretazione non numerica delle osservazioni e comporta un continuo intreccio fra la teoria e l’analisi. Nell’analisi dei dati infatti, cerchiamo di scoprire strutture e modelli che cambiano nel tempo o possibili relazioni causali fra variabili che confermino, suggeriscono o aiutino a creare una teoria. Gli approcci adoperati sono: Cross-case analysis: un’analisi trasversale che analizza contemporaneamente più casi. Con due strategie per analizzare i dati: 1. Analisi variable-oriented: incentrata sulle relazioni fra le variabili e gli individui sarebbero considerati come i portatori di queste variabili. 2. Analisi case-oriented: s’indaga profondamente un caso nonostante un caso non può costituire una teoria ecco perché il cross-case analysis secondo Huberman e Miles, deve osservare altri soggetti esaminando tutti i dettagli della loro vita, oltre ad analizzare con attenzione le variabili che apparivano più importanti nel primo caso osservato. La grounded theory: compara gli episodi, integra le categorie e le loro proprietà, delimita la teoria e la scrive. La semiotica: studia i segni di qualsiasi sistema simbolico. L’analisi della conversazione. L’analisi dei dati qualitativi comporta la codifica, cioè la classificazione e la divisione in categorie di singole parti di dati, insieme ad altri modi di organizzare e gestire i dati, che permettono al ricercatore di recuperare il materiale più tardi, nel momento in cui sarà interessato ad usarlo. L’unità di codifica è il concetto, per cui l’unità di testo appropriata per la codifica potrebbe cambiare per ciascun documento. La codifica può essere: 1. Aperta: identificazione di numerosi concetti rilevanti per il soggetto esaminato; 2. Assiale: cerca d’identificare i concetti centrali; 3. Selettiva: cerca d’identificare il codice centrale della ricerca: quello più generale e predominante. Dopo aver codificato i dati è possibile aggiungere promemoria per fissare le nostre note e quelle delle altre persone coinvolte nella ricerca: Le note dei codici: identificano le etichette dei codici e i loro significati; Le note teoriche: riguardano una serie di argomenti come le riflessioni sulle dimensioni e sui significati dei concetti; Le note operative: riguardano soprattutto gli aspetti metodologici. Un altro modo per fare chiarezza fra le relazioni fra i concetti consiste nel rappresentarli in modo grafico attraverso una mappa concettuale. I ricercatori dovrebbero essere in grado di usare insieme la prospettiva qualitativa e quella quantitativa come, ad esempio, utilizzare un grafico per aiutare a comprendere dati quantitativi come dati statistici. Nell’analisi qualitativa gli aspetti soggettivi richiedono un’attenzione particolare per evitare distorsioni nell’interpretazione dei dati, inoltre qui, più che mai, si deve compiere ogni sforzo possibile in favore della privacy dei soggetti. CAP. 14 La quantificazione è il processo attraverso cui i dati sono trasformati in formato numerico, la conversione dei dati rilevati in formato adatto alla lettura e alla manipolazione con il computer. Nel fare ciò ci possiamo aiutare con l’utilizzo di schemi preesistenti che permettono di confrontare i risultati della nostra ricerca con quelli di altre indagini, oppure con l’utilizzo di categorie da noi create che devono essere esaustive e mutualmente esclusive. Abbiamo bisogno però di un codebook, un documento che descrive la posizione e gli attributi di ciascuna variabile così che ci guidi nei riferimenti del processo di codifica e ci serva a cercare le variabili e interpretare i codici del file di dati durante l’analisi. L’analisi univariata: riguarda la descrizione di una singola variabile, per esempio, se abbiamo misurato il genere osserveremo quanti soggetti dell’indagine sono maschi e quanti sono femmine. Bisogna elencare quindi gli attributi di ciascun caso e un modo per valutarne il numero è calcolare la percentuale e la descrizione del numero di volte che osserviamo i vari attributi di una variabile in un campione è chiamata distribuzione di frequenza. Per la presentazione dei dati, è possibile formare una media aritmetica (somma dei valori divisa per il numero dei casi), una moda (il valore più frequente) o una mediana (valore che si trova in mezzo). Il lettore però, non può ricostruire i dati originali basandosi sulla media, ma le misure della dispersione possono ridurre tale svantaggio. La dispersione riguarda il modo in cui sono distribuiti i valori attorno a qualche valore centrale, come la media. La misura più semplice della dispersione è il rango (la distanza che separa il valore più elevato da quello più basso), poi c’è la deviazione standard (indice della variabilità dei dati) o lo scarto interquartile. Il confronto di sottogruppi può essere utilizzato per descrivere le somiglianze e le differenze fra sottogruppi in relazione a qualche variabile. Nella presentazione e nell’interpretazione dei dati possiamo accorpare categorie di risposta e gestire le non risposte. L’analisi bivariata: il cui scopo è la spiegazione, si concentra sulle relazioni fra variabili ed esplora l’associazione statistica fra la variabile indipendente e quella dipendente. Solitamente, i risultati dell’analisi bivariata sono presentati come tabelle di contingenza, cioè tabelle costruite in modo da evidenziare gli effetti della variabile dipendente. L’analisi multivariata: permette di analizzare le relazioni simultanee fra diverse variabili e può essere utilizzata anche per approfondire l’analisi delle relazioni fra due variabili. La diagnostica sociologica: è una tecnica di analisi quantitativa per determinare la natura di problemi sociali, come le discriminazioni etniche o di genere.