L`analisi bivariata - Scienze Criminologiche Investigazione e

RICERCA SOCIALE –EARL BABBIECAP. 1
I nostri tentativi di imparare a conoscere il mondo sono collegati solo parzialmente
all’esperienza diretta o all’indagine personale. Un’altra parte, molto più consistente,
deriva dall’accordo sulla conoscenza che qualcun altro ci ha trasmesso.
Stiamo parlando della tradizione e l’esperienza che però mostrano delle insidie
costituite da:
 Osservazione imprecisa;
 Attenzione selettiva;
 Ragionamento non logico.
I nostri antenati pensavano di vedere le cose semplicemente perché esse erano reali e
questo è il punto di vista pre-moderno.
Il punto di vista moderno invece, considera legittima la diversità e la accetta.
Il punto di vista post moderno considera invece ciò che chiamiamo realtà, le
immagini che percepiamo dai nostri punti di vista.
La scienza si basa su due pilastri: la logica e l’osservazione così che la conoscenza
scientifica del mondo deve avere un senso e corrispondere a ciò che osserviamo.
Nella ricerca sociale esistono due spiegazioni:
1. Idiografica: (dove idio vuol dire unico) che è una spiegazione limitata a quel
caso specifico;
2. Nomotetica: che è una spiegazione che riguarda una classe di situazioni o
eventi piuttosto che un singolo fatto, usando uno solo o pochi fattori esplicativi
e stabiliscono una spiegazione parziale.
E due ragionamenti:
1. Induttivo: và dal particolare al generale, inizia con il “se” per giungere al
“perché”;
2. Deduttivo: procede dal generale allo specifico, inizia con il “perché” per
giungere al “se”.
I dati invece vengono distinti in quantitativi e qualitativi che, in sostanza, è la
differenza fra dati numerici e dati non numerici. Ogni osservazione all’inizio è
qualitativa, ma la quantificazione rende più esplicite le nostre osservazioni.
Poi ci sono le ricerche pure che cercano di raggiungere “la conoscenza di per sé” e
quelle applicate dove “applicano le conoscenze della società che si è acquisito
attraverso le ricerche”.
CAP. 2
Le teorie si dividono in:
 Macro: si occupano di aspetti ampi, entità aggregate o dell’intera società;
 Micro: si occupano di questioni sociali al livello degli individui o di gruppi
ristretti.
CAP. 3
Esistono quattro vincoli ai progetti di ricerca: scientifici, amministrativi, etici,
politici. Quando s’inizia una ricerca infatti, bisogna tener conto de:
 La partecipazione volontaria e non coartata degli intervistati;
 Non danneggiare in alcun modo i partecipanti;
 Assicurare l’anonimato e la riservatezza;
 Formulare un inganno (ad esempio so vogliamo studiare le condizioni delle
famiglie delle case popolari per migliorare gli standard di vita, dobbiamo
nascondere che ci manda il Comune altrimenti loro, per paura di essere
mandati via, si faranno apparire più in difficoltà di quanto lo sono)
La questione etica della ricerca è stata tentata di risolvere anche con l’adozione e la
pubblicazione di codici professionali di condotta, ma i ricercatori non hanno trovato
ancora un accordo su alcuni principi generali. Pensiamo ad esempio, alla “stanza del
tè” di Humphreys che ingannava gli omosessuali che s’incontravano nei bagni
pubblici facendo da palo, per poi rintracciarli tramite la targa e porre delle interviste.
Molti hanno accusato il sociologo di un’enorme invasione della privacy nel nome
della scienza. Un altro problema sono le questioni politiche e anche se molti
ricercatori concordano che l’orientamento politico non debba influenzare la ricerca,
in pratica può essere difficile separare la politica e le ideologie dalle ricerche.
Sebbene le norme della scienza non possano forzare i singoli ricercatori ad
abbandonare i loro valori personali, il carattere intersoggettivo della scienza
costituisce una barriera contro le scoperte “scientifiche” che derivano soltanto da
pregiudizi ed errori.
CAP. 4
La ricerca sociale può perseguire molti scopi. I principali sono:
1. L’esplorazione: che avviene solitamente quando un ricercatore s’interessa a un
tema per la prima volta, oppure il tema è relativamente nuovo. A volte tale
ricerca, avviene attraverso l’uso di focus group, o piccoli gruppi di discussione.
Di solito questo studio è eseguito per soddisfare la curiosità del ricercatore e il
suo desiderio di comprendere meglio, per controllare la fattibilità di
intraprendere uno studio più ampio e per sviluppare metodi da impiegare in
studi successivi. Il suo principale difetto è che offre solo in rari casi risposte
soddisfacenti e il motivo risiede nella sua mancanza di rappresentatività: le
caratteristiche delle persone che analizziamo potrebbero non essere quelle della
popolazione più ampia che ci interessa.
2. La descrizione: eseguita soprattutto negli studi qualitativi e di solito i
ricercatori continuano la loro analisi per capire anche il perché i modelli che
hanno osservato esistono e cosa implicano.
3. La spiegazione: quando si cerca di capire il perché.
Esistono tre principali criteri per stabilire le relazioni causali nomotetiche della
ricerca sociale:
 Correlazione: cioè se fra due variabili non troviamo una correlazione, non
possiamo affermare che esiste una relazione causale.
 Ordine temporale: non possiamo sostenere che esiste una relazione causale se
la causa non ha luogo prima dell’effetto.
 La relazione non deve essere spuria: l’effetto non può essere spiegato da una
terza variabile (+gelati venduti + annegamento; stagione estiva balneare).
E falsi criteri per la causalità nomotetica:
 Causazione completa: la spiegazione nomotetica è solitamente probabilistica e
incompleta e una variabile può essere una delle cause di un risultato, ma non
l’unica.
 Casi eccezionali: essi non confutano il modello causale complessivo.
 Maggioranza dei casi: le relazioni causali possono essere vere anche se non si
applicano alla maggioranza dei casi.
Una causa necessaria è una condizione che deve essere presente affinché si verifichi
anche l’effetto. Una causa sufficiente invece, è una condizione che, quando presente,
garantisce che si verifichi pure l’effetto.
Le unità di analisi possono essere gli individui, i gruppi, le organizzazioni, le
interazioni sociali e gli artefatti sociali (qualsiasi prodotto degli esseri umani).
Ci possono essere dei ragionamenti errati sull’unità di analisi:
la fallacia ecologica: l’assunto che qualcosa che accade ad un’unità di ecologica
possa essere trasferito anche agli individui che la compongono (anche se abbiamo
riscontrato, ad esempio, che i tassi di suicidio sono più alti nei paesi protestanti che in
quelli cattolici, non possiamo sapere se davvero i protestanti si suicidano di più dei
cattolici).
La fallacia individualistica: le generalizzazioni e le affermazioni probabilistiche non
sono invalidate dalle eccezioni (per esempio, il fatto di conoscere un ricco
democratico non smentisce il fatto che la maggior parte delle persone ricche votino i
repubblicani).
Riduzionismo:concerne i tentativi di spiegare un particolare fenomeno nei termini di
concetti limitati e/o di ordine più basso (potremmo cercare di prevedere chi vincerà lo
scudetto analizzando solo i calciatori delle squadre, mentre dovremmo invece
analizzare le squadre in sé e quindi anche l’allenatore, lo stadio, le strategie ecc…).
Per quanto riguarda invece la dimensione temporale, ci sono gli studi:
 Trasversali: comportano l’osservazione nello stesso momento temporale di un
campione. Gli studi esplorativi e descrittivi sono spesso di questo tipo. Tale
studio offrono un’istantanea del fenomeno in un determinato periodo
temporale, ma presentano un problema: anche se le conclusioni sono basate su
osservazioni fatte soltanto in un determinato punto del tempo, mirano
specificatamente alla comprensione di processi causali che si svolgono nel
corso del tempo.
 Longitudinali: effettuati in modo da osservare lo stesso fenomeno in un
periodo di tempo più ampio. Può essere di 3 tipi:
1. Trend: analizza i cambiamenti di una popolazione nel tempo (i censimenti)
2. Studio di coorte: esamina sottopopolazioni per osservare i cambiamenti nel
tempo, di solito è un gruppo di età, come le persone che avevano vent’anni l’11
settembre 2001.
3. Indagine panel: studia le stesse persone nel corso del tempo, ma soffrono il
logoramento dei partecipanti.
Gli studi longitudinali possiedono indubbiamente dei vantaggi rispetto a quelli
trasversali poiché forniscono informazioni sui processi nel corso del tempo. Tali
vantaggi sono però ottenuti a un costo elevato in termini di tempo e di denaro.
 Approssimare gli studi longitudinali: a volte i dati trasversali implicano
processi che avvengono nel tempo, o chiedere alle persone di ricordare il
passato, ma corre pericoli come il fatto che le persone non possiedono una
buona memoria e altre volte mentono.
CAP. 5
Il processo attraverso cui raggiungiamo un accordo sul significato dei termini è la
concettualizzazione ed il risultato è detto concetto. Kaplan identifica tre classi di cose
che gli scienziati misurano:
 Ciò che è direttamente osservabile (come il colore di una mela);
 Ciò che è osservabile indirettamente (se vediamo che una persona segna la
casella femmina abbiamo osservato indirettamente il suo genere);
 I costrutti: creazioni teoriche basate sull’osservazione che non possono essere
osservati né direttamente né indirettamente (come il Q.I.)
Kaplan definisce un concetto come una famiglia di concezioni. I concetti sono
costrutti derivati dal mutuo accordo delle immagini mentali (concezioni). Le nostre
concezioni riassumono una serie di raccolte di osservazioni ed esperienze che
pensiamo siano collegate fra loro. Le osservazioni e le esperienze sono reali (almeno
soggettivamente) ma le concezioni e i concetti derivati da esse sono soltanto
creazioni della nostra mente. I costrutti dunque, non sono reali, ma sono utili: ci
aiutano ad organizzare, comunicare e comprendere cose che sono reali.
Il processo attraverso cui specifichiamo quello che vogliamo dire quando usiamo un
termine particolare è la concettualizzazione.
La concettualizzazione dà un significato definitivo a un concetto, specificando uno o
più indicatori che pensiamo di utilizzare per osservarlo. Un indicatore è un simbolo
della presenza o dell’assenza del concetto che stiamo studiando.
Gli indicatori devono essere intercambiabili, cioè se diversi indicatori possono
rappresentare, in qualche modo, lo stesso concetto, allora tutti si comporteranno come
se il concetto fosse reale e potesse essere osservabile.
La definizione operativa è lo sviluppo di procedure specifiche di ricerca (operazioni)
che permettono di fare osservazioni empiriche che rappresentano concetti del mondo
reale. Per definire operativamente un concetto, i ricercatori devono individuare con
chiarezza l’intervallo di variazione che intendono utilizzare (per non rischiare di
misurare soltanto metà degli individui ad esempio, per il reddito se ci sono alcuni che
guadagnano troppo allora l’ultimo gradino dell’intervallo deve essere 80.000 euro o
più l’anno). Un altro aspetto, invece, è il grado di precisione e quale livello di
misurazione usare.
Ogni variabile possiede due qualità:
1. Gli attributi che la compongono devono essere esaustivi (in tutti i casi,
dobbiamo sempre essere in grado di classificare ogni osservazione);
2. Gli attributi che compongono una variabile devono essere mutualmente
esclusivi (dobbiamo essere in grado di classificare ogni osservazione nei
termini di un solo attributo).
Le variabili i cui attributi possiedono solo le caratteristiche dell’esaustività e della
mutua esclusività sono nominali (il genere, l’affiliazione religiosa).
Le variabili ordinali invece, possiedono attributi che possiamo ordinare logicamente
e rappresentano un “di più” o un “di meno” (la classe sociale, la raffinatezza
culturale).
I criteri per valutare la qualità della misurazione sono:
 La precisione;
 L’affidabilità, che può essere garantita con:
1. Il metodo test-retest, dove si ripete più volte la stessa misurazione;
2. Il metodo split-half, dove si potrebbe assegnare, ad esempio, casualmente le
dieci domande a due gruppi di cinque domande e grazie all’intercambiabilità
degli indicatori, ciascuna serie dovrebbe fornire una buona misura;
3. L’utilizzo di misure già testate;
4. L’affidabilità dei ricercatori.
 La validità (che sta in equilibrio con l’affidabilità a causa della “ricchezza di
significato” e a volte accontentare la validità significa venir meno della validità
ed è per questo che ci sono le indagini qualitative e quantitative).
CAP. 6
Sia le scale, sia gli indici sono misure ordinali di variabili, sono misure composte di
variabili. Mentre gli indici sono basati sulle risposte, le scale si basano sui modelli di
risposta: individuiamo i modelli logici delle risposte e assegniamo un punteggio alle
risposte in base al modello che assomiglia di più alle risposte date.
Le scale però, sono superiori agli indici, poiché considerano anche la differente
gradazione di intensità con cui le domande riflettono la variabile che stiamo
misurando e contengono più informazioni.
Il primo passo della creazione di un indice consiste nella selezione degli item
attraverso dei criteri:
 Validità nominale: dove ogni item dovrebbe offrire qualche indicazione di ciò
che si sta misurando;
 Unidimensionalità: una misura composita dovrebbe rappresentare una sola
dimensione di un concetto e la natura degli item determinerà la genericità o la
specificità della variabile;
 Variazione: nella scelta degli item dobbiamo preoccuparci pure della loro
variazione e ci sono due modo per fare ciò…
1. Selezionando item le cui risposte dividono grosso modo equamente i
rispondenti nei termini della variabile, per esempio circa metà uno e metà
l’altro.
2. Selezionando item con diversa variabilità e un item potrebbe identificare circa
metà rispondenti come un tipo, mentre un altro potrebbe identificarne solo
pochi.
Il secondo passo consiste nell’analisi delle relazioni empiriche:
 Relazione bivariata:che riguarda due variabili alla volta, ad esempio chi è
favorevole al sostegno militare dovrebbe tendenzialmente essere più
favorevole al sostegno finanziario dell’ONU, di coloro che non condividono il
sostegno militare.
 Relazione multivariata: utilizza più di due variabili.
Dovremmo dunque cercare di scoprire le interazioni simultanee degli item per
determinare quali dovrebbero essere inclusi nello stesso indice.
Dopo aver scelto i migliori item per l’indice, dobbiamo assegnare il punteggio per le
singole risposte, ciò permetterà di creare un singolo indice composito formato dai
diversi item. Dobbiamo trovare però un equilibrio fra l’intervallo di misurazione
dell’indice e un numero adeguato di casi in ciascuna estremità dell’intervallo di
variazione, decidere poi, se dare a ciascun item lo stesso peso, oppure pesi differenti,
anche se è preferibile la prima ipotesi.
Un problema ricorrente nella raccolta dei dati è costituito dai dati mancanti. A tale
problema ci sono più soluzioni:
 Se un item ha più valori possibili, potremmo assegnare ai dati mancanti il
valore centrale;
 Sostituire i dati mancanti con valori generati in modo casuale, anche se si
indebolisce la purezza dell’indice e si riducono la possibilità che sia associato
ad altre variabili.
Il metodo migliore per costruire l’indice consiste nel costruirlo secondo vari metodi
alternativi e osservare quali risultati otteniamo dall’analisi di ciascuno.
Ci sono diversi modi per validare un indice:
 Con la validazione interna, l’analisi degli item, durante tale analisi infatti,
esaminiamo la misura in cui l’indice composito è correlato agli item
individuali che comprende;
 Con la validazione esterna così che l’ordinamento dei gruppi di rispondenti in
base all’indice dovrebbe permettere di prevedere l’ordinamento di questi
gruppi in relazione ad altre domande riguardanti.
Ci sono vari tipi di scale:
1. Scala della distanza sociale di Bogardus: permette di determinare la volontà a
partecipare alle relazioni sociali, con vari gradi di contingenza, con altri tipi di
persone;
2. Scala di Thurstone: trovare giudici che valutino gli item, ma ciò è difficile e
inoltre il significato degli item tende a cambiare nel tempo;
3. Scala di Likert: costituire categorie come “completamente d’accordo”,
“d’accordo”, “in disaccordo” e “del tutto in disaccordo”;
4. Differenziale semantico: dove i rispondenti devono scegliere fra due posizioni
opposte;
5. Scala di Guttman: si basa sul fatto che chiunque condivida un indicatore più
forte di qualche variabile allora condividerà probabilmente anche gli indicatori
più deboli;
6. Altre volte possiamo voler riassumere l’intersezione di due o più variabili
attraverso la creazione di una serie di categorie, cioè tipologie. Se utilizziamo
la tipologia come variabile indipendente non incontreremo mai problemi
nell’analisi, perché è molto difficile analizzare una tipologia come variabile
dipendente.
CAP. 7
Il processo attraverso cui selezioniamo le osservazioni è chiamato campionamento.
Per riuscire a generalizzare i risultati del campione a una popolazione più ampia è
necessario effettuare un campionamento probabilistico, che si basa sull’idea del
campionamento casuale. La storia del campionamento nella ricerca sociale è
connessa strettamente con quella dei sondaggi elettorali.
I campionamenti non probabilistici sono usati soprattutto nella ricerca qualitativa e
sono di quattro tipi:
1. A casaccio: affidandosi sulle persone disponibili, come per esempio fermare le
persone all’angolo di una strada. Chiaramente, non permette di avere alcun
controllo sulla rappresentatività del campione. La sua applicazione è
giustificata soltanto se vogliamo studiare le caratteristiche delle persone che
passano nel punto di campionamento in un preciso momento, oppure se non è
possibile usare altri metodi. E’ necessario per cui essere molto cauti nella
generalizzazione dei dati.
2. A scelta ragionata: selezionando un campione sulle basi delle conoscenze di
una popolazione, dei suoi elementi e dello scopo della ricerca; ad esempio, in
uno studio comparativo degli studenti di sinistra e di destra potremmo non
essere in grado di creare l’elenco degli studenti delle due categorie e allora
potremmo decidere di campionare i membri di alcuni gruppi o organizzazioni
che sappiamo ispirarsi ai principi della destra o della sinistra.
3. A valanga: è utile quando è molto difficile contattare i membri di una certa
popolazione così che si chiede ad ogni intervistato di fornire i contatti per altre
interviste. E’ utilizzata soprattutto per indagini esplorative.
4. Per quote: componendo una matrice delle caratteristiche della popolazione che
vogliamo studiare, stabilendo la proporzione relativa per ciascuna cella così
che la raccolta dei dati riguarda persone che possiedono le caratteristiche
indicate in ciascuna cella. Terminata la raccolta, i dati sono ponderati in modo
appropriato in base alla proporzione della popolazione totale che
rappresentano. In questo modo dovrebbero fornire, nel complesso, una
rappresentazione ragionevole della popolazione totale. Le quote però devono
essere accurate e non è sempre facile e la selezione degli elementi delle celle
potrebbe essere errata.
Mentre un rispondente è una persona che fornisce informazioni su se stessa, un
informatore è un membro del gruppo che può parlare direttamente del gruppo.
Il campionamento probabilistico invece, si basa sull’idea che per fornire un’utile
descrizione della popolazione totale, un campione di individui di questa popolazione,
deve contenere essenzialmente le stesse variazioni esistenti nella popolazione.
Un campione è rappresentativo della popolazione da cui è stato estratto se tutti i
membri della popolazione hanno la stessa probabilità di essere selezionati per il
campione. I campioni che possiedono questa qualità sono chiamati anche EPSEM
“campioni con probabilità di selezione uniforme”, anche se mai o raramente
rappresentano perfettamente la popolazione, ma offrono il vantaggio di essere più
rappresentativi di altri tipi di campioni e la teoria delle probabilità permette di stimare
l’accuratezza o la rappresentatività del campione.
Il campione probabilistico è frutto di una media degli intervistati per cui più è ampio
il campione selezionato, più produrrà una stima accurata della popolazione e si può
stimare anche il margine di errore. I campioni probabilistici sono il metodo più
efficiente per selezionare un campione perché permettono di evitare distorsioni nelle
selezione degli elementi e di stimare l’errore di campionamento.
Il campionamento probabilistico può essere:
 Casuale semplice: richiede una lista di elementi, ma quando è disponibile i
ricercatori preferiscono usare un altro metodo. Comunque prevede di scegliere
un elemento della lista ogni tot (intervallo di campionamento) con una ragione
di campionamento (proporzione di elementi della popolazione selezionati per
un campione).
 Stratificato: lo scopo è costruire dei sottogruppi omogenei (con eterogeneità fra
i sottogruppi) e selezionare il numero appropriato di elementi da ciascun
sottogruppo.
 A Stadi: quando è impossibile compilare un elenco esaustivo degli elementi
della popolazione d’indagine (ad esempio, tutti i religiosi che appartengono a
una chiesa: si potrebbe campionare una serie di chiese e ottenere la lista dei
religiosi che fanno parte delle chiese selezionate e ognuna delle liste poi,
potrebbe essere campionata per fornire campioni dei membri delle chiese per la
ricerca). Un campione casuale semplice però, è soggetto a un solo errore di
campionamento, ma un campionamento a due stadi è soggetto a due errori di
campionamento. Può essere anche:
1. per aeree (selezionare un campione di blocchi, creare una lista degli
abitanti dei blocchi selezionati ed estrarre un sottocampione da ogni
blocco).
2. Multistadio stratificato: per selezionare un campione nazionale di chiese
potremmo iniziare stratificando la lista delle chiese per denominazione,
regione o tipo, poi in base alle variabili di stratificazione disponibili, è
possibile selezionare il campione utilizzando sia il campionamento
casuale semplice, sia quello sistematico. Potremmo estrarre un numero
specifico di unità da ciascun gruppo oppure ordinare i sottogruppi
stratificati in una lista continua ed effettuare un campionamento
sistematico da questa lista. L’errore di campionamento in questo stadio
sarà minore.
3. Casuale a quantità proporzionale: metodo particolarmente efficace per
effettuare i campionamento a stadi. Se i componenti di una popolazione
non hanno infatti la stessa probabilità di essere inseriti in un campione,
per assicurare la rappresentatività dell’intera popolazione, i ricercatori
devono assegnare pesi diversi alle osservazioni.
CAP. 8
Gli esperimenti riguardano tre coppie di componenti:
1. Variabili indipendenti e variabili dipendenti: un esperimento studia l’effetto
di una variabile indipendente su di una variabile dipendente. La prima è uno
stimolo sperimentale che può essere presente o assente, il ricercatore confronta
quello che succede quando lo stimolo è presente con quello che accade quando
è assente, mentre quella dipendente è ad esempio il pregiudizio.
2. Il pre-test e il post-test: il primo serve a definire la posizione dei soggetti
secondo la variabile dipendente, successivamente i partecipanti sono esposti a
uno stimolo rappresentato da una variabile indipendente, mentre il secondo
serve a misurare la variabile dipendente nuovamente. Qualsiasi differenza fra
la prima e l’ultima misurazione della variabile dipendente è attribuita alla
variabile indipendente, anche se i soggetti potrebbero dare risposte diverse
anche se i loro atteggiamenti non fossero cambiati.
3. Il gruppo sperimentale il gruppo di controllo: gli esperimenti di laboratorio
non riguardano quasi mai l’osservazione del solo gruppo sperimentale a cui è
somministrato lo stimolo. I ricercatori osservano quasi sempre anche un
gruppo di controllo cui non somministrano lo stimolo. Il gruppo di controllo
permette di isolare qualsiasi effetto dovuto all’esperimento; negli esperimenti
scientifici i gruppi di controllo sono utili per evitare l’effetto dell’esperimento
in sé e di qualsiasi altro fattore esterno; alcune volte, un disegno sperimentale
richiede più gruppi sperimentali o di controllo.
Negli esperimenti in doppio cieco né i soggetti, né lo sperimentatore, sanno
quale sia il gruppo sperimentale e quale quello di controllo, ciò è utile
soprattutto negli esperimenti medici.
Per quanto riguarda la composizione dei gruppi ci sono principalmente tre metodi:
1. Campionamento probabilistico: la selezione casuale, poco efficace quando i
campioni sono composti da meno di 100 individui e gli esperimenti sociali
considerano raramente un numero così elevato, per cui questo metodo è poco
usato, tuttavia i ricercatori utilizzano questo metodo quando assegnano i
soggetti ai gruppi.
2. La randomizzazione: si attribuisce un numero progressivo a tutti i soggetti e si
selezionano i numeri da inserire in ciascuno dei due gruppi attraverso una
tabella dei numeri casuali.
3. Matching: si assegnano un numero di individui a caso a ciascun gruppo se
hanno caratteristiche simili, per appurare che sia effettivamente così si
potrebbe creare una matrice delle caratteristiche che devono possedere i
soggetti dell’esperimento o in una precedente seleziono, eliminare chi non
presenta le caratteristiche che vogliamo indagare. Questo metodo è preferibile
se i soggetti sono pochi, ma nell’assegnazione dei soggetti, è preferibile la
randomizzazione invece. Altre volte ancora si può fondere i due metodi
ottenendo una procedura di campionamento stratificato.
Per quanto riguarda i disegni “non-sperimentali” Campbell e Stanley parlano di:
 Case report: dove un solo gruppo di soggetti è studiato attraverso la
misurazione di una variabile dipendente dopo la somministrazione di uno
stimolo sperimentale; tuttavia, senza aver fatto prima il pre-test non possiamo
essere sicuri che le variazioni sono state dovute alla somministrazione o i
soggetti avrebbero potuto non avere (ad esempio, in una misurazione sul livello
del pregiudizio) molti pregiudizi già prima di iniziare l’esperimento.
 Prima-dopo senza gruppo di controllo: prevede un pre-test per il gruppo
sperimentale, ma è privo di un gruppo di controllo; l’eventuale fallacia
potrebbe consistere che il risultato venga causato da un fattore diverso dalla
variabile indipendente.
 Confronto con gruppo statico: prevede un gruppo sperimentale e uno di
controllo, ma senza pre-test.
 One shot: consiste in un esempio che supporta la sua proposizione, ma il
ragionamento non è corretto (l’esercizio fisico riduce il peso perché chi corre è
magro).
I fattori che influiscono sulla ricerca sperimentale sono:
 Mancanza di validità interna: quando qualsiasi cosa al di fuori dello stimolo
sperimentale può influire sulla variabile dipendente come ad esempio la storia
(eventi che confondono i risultati dell’esperimento), la maturazione (il
continuare a cambiare e a crescere), il test (che può influenzare il
comportamento dei soggetti), la strumentazione, gli errori nella selezione, la
mortalità durante l’esperimento (i soggetti rinunciano prima della conclusione),
la demotivazione (comportarsi male o arrabbiarsi).
 Mancanza di validità esterna: che riguarda la generalizzazione dei risultati e si
concretizza quando c’è un interazione tra il test e lo stimolo dell’esperimento
(ad esempio, se il post-test evidenza meno pregiudizio dopo la visione di un
film, ma avrebbe avuto lo stesso effetto se avessimo mostrato il film in un
teatro o alla televisione). Per questo Solomon ha previsto un disegno che
prevede quattro gruppi assegnati in modo casuale dove nel primo viene
sollecitato uni stimolo e analizzato sia col pre che col post-test; nel secondo
nessuno stimolo viene sollecitato e analizzato sua col pre che col post-test; nel
terzo gruppo viene sollecitato lo stimolo senza nessun pre-test, ma col posttest; nel quarto invece, nessuno stimolo viene sollecitato senza nessun pre-test,
ma solo col post-test.
CAP.9
Nella ricerca sociale, le domande sono il risultato della definizione operativa delle
variabili. Le domande devono essere formulate con lo scopo di definire le variabili
nel migliore dei modi ed evitare che producano informazioni inutilizzabili e ci sono:
1. Domande e affermazioni: per studiare la misura in cui i rispondenti possiedono
un certo atteggiamento o condividono una certa prospettiva, chiedendo loro se
la condividono o meno.
2. Domande aperte e domande chiuse: le interviste qualitative si basano sulle
prime, ma le seconde sono più diffuse e permettono di raccogliere risposte
uniformi e più facili da elaborare. Per elaborare le domande aperte è necessario
prima codificarle, cioè attribuire un significato alle risposte. Le domande
chiuse invece, devono essere esaustive e mutualmente esclusive.
Per quanto riguarda le domande, ci sono alcune regole da seguire:
 Le domande devono essere chiare e non ambigue;
 Evitare le domande con doppio significato (soprattutto quelle che contengono
la parola “e”);
 I rispondenti devono essere in grado di rispondere;
 I rispondenti devono aver voglia di rispondere (garantire l’anonimato);
 Le domande devono essere pertinenti;
 E’ meglio usare domande brevi;
 Evitare la negazione in una domanda perché prepara la strada per
un’interpretazione sbagliata;
 Evitare termini e frasi che possono creare risposte distorte.
I questionari devono avere una forma tale da aiutare gli intervistatori nel loro lavoro.
Uno dei formati più usati nelle domande prevede che i rispondenti mettano un segno
in una casella. Alcune domande possono fungere da “filtro”, cioè essere importanti
per qualche rispondente e irrilevanti per altri; esse portano a domande dette
“contingenti”, cioè poste solo se ha risposto in un certo modo alla domanda filtro, ciò
facilita la compilazione del questionario. E’ utile inoltre, inserire le istruzioni fra
parentesi a fianco di ogni risposta, dicendo ai rispondenti a quale punto del
questionario devono passare o una nota in cima a ciascuna pagina contenente soltanto
le domande contingenti.
A volte più domande hanno le stesse categorie di risposta, soprattutto nella categoria
Linkert, in questo caso è allora possibile inserire in una matrice la batteria delle
domande e delle risposte così che s’impiega meno tempo nella compilazione e si
aumenta la comparabilità delle risposte di domande differenti; potrebbero però,
incoraggiare il ricercatore ad inserire nella batteria domande per cui sarebbe meglio
prevedere modalità di risposta diverse o l’intervistato al response set, cioè la tendenza
a rispondere in modo meccanico dando sempre la stessa risposta.
Una certa domanda potrebbe poi influenzare le risposte successive è disporle in modo
casuale è inutile, sarebbe meglio essere sensibili al problema; è bene iniziare con le
domande più interessanti e porre quelle banali, come i dati demografici, alla fine, per
le interviste faccia a faccia invece, vale l’opposto. Ogni questionario deve contenere
informazioni molto chiare su come compilarlo e il modo più facile per evitare errori
di somministrazione del questionario è il pre-test del questionario.
Il metodo più semplice per raccogliere dati consiste nell’inviare un questionario
accompagnato da una lettera di spiegazioni e da una busta già affrancata con
l’indirizzo per la restituzione. Si può utilizzare un grafico del tasso di risposta. Due o
tre settimane dopo, se la risposta non è pervenuta, possiamo mandare una lettera di
sollecito, aggiungendo un nuovo questionario o scrivendo una lettera in cui si
ringrazia chi ha restituito il questionario e pregando chi non l’abbia ancora fatto di
sbrigarsi a farlo. Un tasso di risposta elevato riduce la possibilità di distorsioni, un
tasso adeguato è il 50%.
I rispondenti sono più riluttanti a chiudere la porta davanti ad un intervistatore, la sua
presenza consente di diminuire le risposte dubbie e di eliminare incomprensioni,
infine può anche osservare i rispondenti. Gli intervistatori dovrebbero vestire in
maniera simile alle persone che intervistano, tenere una condotta piacevole, leggere il
testo come se si trattasse di una conversazione naturale, seguire perfettamente la
formulazione delle domande, riportare con precisione le risposte e agendo il probing
cioè fare domande aggiuntive che hanno lo scopo di motivare il soggetto a
comunicare e a concentrare la sua attenzione sul contenuto della domanda, senza però
influenzarlo.
Le interviste telefoniche consentono di risparmiare denaro e tempo, permettono ai
soggetti di rispondere con più sincerità e agli intervistatori un maggior controllo dei
dati raccolti; tuttavia la facilità con cui si può chiudere o finire repentinamente
l’intervista telefonica è preoccupante così come la diffusione di segreterie telefoniche
e telefonini. Il metodo CATI prepara automaticamente i dati per l’analisi così che il
ricercatore può iniziare ad analizzarli ancora prima che l’indagine sia terminata,
potendo in questo modo avere in breve tempo un’idea dei risultati.
Le indagini online hanno invece, il problema della rappresentatività degli intervistati,
ma tanti vantaggi, tra cui la possibilità di utilizzare in modo appropriato la
ponderazione in relazione a diverse tipologie di rispondenti.
L’analisi secondaria è una forma di ricerca in cui i dati raccolti ed elaborati da un
ricercatore sono analizzati, spesso con uno scopo differente, da un altro ricercatore.
CAP. 10
La ricerca sul campo raccoglie tipicamente dati qualitativi, osservazioni difficili da
riassumere in numeri, sebbene possa raccogliere anche dati quantitativi, non si limita
alla raccolta dei dati, ma produce anche teorie.
Lofland elenca alcuni aspetti che si prestano particolarmente a tale metodica:
pratiche, episodi, incontri, ruoli e tipi sociali, relazioni sociali e personali, gruppi
ristretti, organizzazioni, insediamenti e ambienti, sottoculture e stili di vita.
La ricerca sul campo offre il vantaggio di indagare la vita sociale nel suo ambiente
naturale. Infatti, sebbene molte cose possano essere studiate con un questionario o in
laboratorio, per altre non è possibile e l’osservazione diretta sul campo permette di
cogliere più in profondità alcuni aspetti.
Il ruolo dell’osservatore può essere:
1. Partecipante completo: che partecipa a ciò che sta studiando o finge di farlo e
può mostrarsi solo come un partecipante e non come un ricercatore. Tutto ciò
che l’osservatore partecipante fa, o non fa, avrà però qualche conseguenza su
ciò che sta osservando. Rivelando invece la sua identità, potrebbe spostare
l’attenzione dei soggetti sul progetto di ricerca o, dall’altro lato, il ricercatore
potrebbe identificarsi troppo con gli interessi e i punti di vista dei partecipanti.
2. Osservatore completo: studia un processo sociale senza diventarne parte. Se
tradizionalmente si è posto l’accento sul’obiettività, oggi si vedono i vantaggi
di immergersi nel punto di vista dei soggetti che si sta studiando formulando
una “competenza selettiva” o “comprensione dall’interno”. Bellah parla di
“realismo simbolico” cioè l’esigenza che i ricercatori sociali trattino le
credenze che stanno studiando come degne di rispetto. Gli antropologi
chiamano la tecnica di assumere il punto di vista interno “prospettiva emica”,
mentre la “prospettiva etica” mantiene invece la distanza. Entrambe offrono dei
vantaggi e sembrano mutualmente esclusive, è però possibile adottarle
entrambe modificando il nostro punto di vista all’istante.
Gli approcci della ricerca qualitativa sono:
 Approccio naturalistico: sviluppato dalla scuola di Chicago, sostiene che la
realtà sociale sia evidente e che basti osservarla e descriverla come è nella
realtà. Il paradigma usato è quello dell’etnografia, cioè la ricerca che si
concentra sulla descrizione dettagliata e precisa di un fenomeno, piuttosto che
sulla sua spiegazione.
 Etnometodologia: Studia i modelli sottointesi delle interazioni che regolano la
vita quotidiana. Mentre l’etnografia s’immerge in una particolare cultura per
poter rappresentare la realtà sociale che studia, la fenomenologia attribuisce un
significato alla percezione del mondo degli informatori per cui si è tentato di
conciliare queste correnti rivelando come le persone attribuiscono un
significato alla vita quotidiana. Garfinkel parla di “rompere le regole”, la
“rottura della routine della vita quotidiana” come i suoi esperimenti di
chiarimento della conversazione.
 Grounded theory: sviluppata da Glaser e Strauss, è il tentativo di derivare le
teorie dell’analisi dei modelli, dei temi e delle categorie comuni scoperte
osservando i dati. Si deve pensare in modo comparativo, ottenere più punti di
vista, ogni tanto fare un passo indietro, mantenere un atteggiamento di
scetticismo, seguire le procedure di ricerca.
 Lo studio di caso e il metodo di analisi dinamica dei casi: mentre il primo si ha
quando ci si concentra su un caso solo, il secondo ha lo scopo di scoprire
eventuali lacune nelle teorie per modificarle.
 L’etnografia istituzionale: elaborata da Dorothy Smith, ritiene che chiedendo a
membri di un gruppo subordinato “come funzionano le cose”, sia possibile
scoprire le pratiche istituzionali che formano le loro realtà. Lo scopo è studiare
le forme di oppressione, iniziando ad esaminare le esperienze personali degli
individui, ma procedendo poi cercando di scoprire le relazioni di potere che
governano tali esperienze.
 La ricerca azione partecipativa: il ricercatore costituisce una risorsa per coloro
che sta studiando-solitamente gruppi svantaggiati- e un’opportunità per agire
effettivamente nel loro interesse. Il sunto è che la ricerca non può avere come
scopo solo la produzione di conoscenza, ma dovrebbe anche essere uno
strumento per l’educazione e lo sviluppo.
Per preparare una ricerca qualitativa sul campo si deve fare un’analisi della letteratura
esistente, discutere con qualcuno che ha già studiato il fenomeno o un informatore
anche se dovremmo diffidare delle informazioni che otteniamo, ci si deve poi unire al
gruppo e se si vuole stabilire un contatto più formale rivelando la nostra identità, sarà
necessario stabile un rapporto con i soggetti.
Il disegno delle interviste qualitative è flessibile perché basate su un’interazione, una
conversazione in cui l’intervistatore assume la direzione cercando di approfondire gli
argomenti indicati dal rispondente. Bisogna porre una domanda, ascoltare
attentamente la risposta, interpretare il significato alla luce degli interessi della
ricerca e poi formulare altre domande per approfondire il tema della risposta
Lofland suggerisce di adottare il ruolo de “l’incompetente socialmente accettabile”,
presentandosi come qualcuno che non capisce la situazione in cui si trova e deve
essere aiutato ad afferrarne gli aspetti basilari e più ovvi.
Kvale pala di sette passaggi: tematizzare (chiarire lo scopo e i concetti da esplorare),
progettare (impostare il processo attraverso cui raggiungere gli scopi), intervistare,
trascrivere, analizzare, verificare (controllare affidabilità e validità del materiale) e
presentare (raccontare agli altri).
Il focus group è un’intervista di gruppo che permette di intervistare sistematicamente
e contemporaneamente più persone. Krueger parla di vantaggi (costa poco, elevata
validità nominale, è flessibile, metodo socialmente orientato a raccogliere dati della
vita reale in un ambiente, impiega poco tempo) e svantaggi (il ricercatore ha meno
controllo, i dati sono difficili da analizzare, i moderatori devono possedere
competenze specifiche, la differenza fra gruppi può essere un problema, è difficile
formare i gruppi, la discussione deve avere luogo in un ambiente favorevole).
Le osservazioni della ricerca qualitativa devono sempre essere registrate. La ricerca
qualitativa è più valida di quella quantitativa perché descrive in profondità i concetti,
ma ha un problema di affidabilità perché le osservazioni sono spesso soggettive e
perciò è meglio limitarsi alla misurazione descrittiva.
CAP. 11
Ci sono delle tecniche non intrusive che permettono di studiare il comportamento
sociale senza influenzarne il processo e sono:
1. L’analisi del contenuto: è un metodo che studia le comunicazioni umane,
quindi sia i processi della comunicazione, sia altri aspetti del comportamento
sociale. Le unità di analisi di tale metodo sono solitamente le forme di
comunicazione scritte e si possono applicare le tecniche standard di
campionamento per raccogliere dati. Questo metodo comporta la codifica,
cioè la trasformazione dei dati grezzi in categorie sulla base di uno schema
concettuale che potrebbe riguardare sia il contenuto manifesto (significato
esplicito come il conteggio delle parole volgari in un romanzo per determinare
se sia erotico) o latente (significato implicito, che richiede un giudizio da
parte del ricercatore). Per interpretare i dati si possono usare sia le tecniche
qualitative che quelle quantitative. I vantaggi sono i costi bassi e la sicurezza
e la possibilità di studiare processi che hanno luogo in un intervallo di tempo
lungo; gli svantaggi sono che è limitata alle comunicazioni registrate, dunque
potrebbero esserci problemi di validità e affidabilità.
2. L’analisi delle statistiche esistenti: è un metodo che usano molte
organizzazioni ed enti pubblici che raccolgono dati statistici per studiare
alcuni aspetti della vita sociale. Tale metodica soffre di problemi di validità
che però possono essere superati con il ragionamento logico e la replicazione,
mentre per evitare problemi di affidabilità si deve prestare molta attenzione.
3. La ricerca storica comparativa: è un metodo per scoprire modelli nella storia
di culture differenti. E’ considerata una tecnica qualitativa, ma può utilizzare
anche tecniche quantitative.
CAP. 12
La ricerca valutativa si concentra sullo scopo della ricerca, piuttosto che sul metodo e
questo scopo è la valutazione dell’impatto degli interventi sociali. E’ un processo per
determinare se un intervento sociale ha prodotto il risultato che si proponeva e può
avvenire in molti modi:
 Ricerca sulla valutazione dei bisogni: che stima l’esistenza e la diffusione dei
problemi all’interno di segmenti specifici della popolazione.
 Analisi costi-benefici: stabilisce se i costi di un programma sono giustificati
dai risultati ottenuti.
 Monitoraggi: la ricerca produce un flusso costante d’informazioni (per
esempio sulla diffusione di un’epidemia).
La ricerca valutativa soffre però del limite di non poter misurare l’incommensurabile,
ecco perché bisogna raggiungere un accordo su come effettuare la misurazione che
può avvenire attraverso la misurazione delle variabili dipendenti, la combinazione di
misure complementari con l’inclusione di un gruppo di controllo nel disegno di
ricerca. E’ importante poi definire la popolazione dei soggetti per cui il programma è
appropriato. Si deve anche decidere se utilizzare misure già esistenti o crearne di
nuove e quest’ultima scelta offre maggior validità.
La ricerca valutativa può essere effettuata secondo:
 Il disegno sperimentale standard (assegnazione casuale);
 Il disegno quasi sperimentale, dove troviamo:
1. Il disegno di serie-temporale (la misurazione avviene nel corso del tempo e
prevede solo un gruppo sperimentale);
2. Gruppi di controllo non equivalenti (prevede un gruppo do controllo
preesistente abbastanza simile al gruppo sperimentale chiamato gruppo di
controllo non equivalente).
3. Disegno di serie temporale con gruppo di controllo (il gruppo di controllo
viene analizzato in più serie temporali).
 Gli indicatori sociali (riguarda la creazione e l’analisi di statistiche aggregate
che riflettono le condizioni sociali di una società o di un gruppo sociale).
CAP. 13
L’analisi qualitativa è l’investigazione e l’interpretazione non numerica delle
osservazioni e comporta un continuo intreccio fra la teoria e l’analisi. Nell’analisi dei
dati infatti, cerchiamo di scoprire strutture e modelli che cambiano nel tempo o
possibili relazioni causali fra variabili che confermino, suggeriscono o aiutino a
creare una teoria. Gli approcci adoperati sono:
 Cross-case analysis: un’analisi trasversale che analizza contemporaneamente
più casi. Con due strategie per analizzare i dati:
1. Analisi variable-oriented: incentrata sulle relazioni fra le variabili e gli
individui sarebbero considerati come i portatori di queste variabili.
2. Analisi case-oriented: s’indaga profondamente un caso nonostante un caso non
può costituire una teoria ecco perché il cross-case analysis secondo Huberman
e Miles, deve osservare altri soggetti esaminando tutti i dettagli della loro vita,
oltre ad analizzare con attenzione le variabili che apparivano più importanti
nel primo caso osservato.
 La grounded theory: compara gli episodi, integra le categorie e le loro
proprietà, delimita la teoria e la scrive.
 La semiotica: studia i segni di qualsiasi sistema simbolico.
 L’analisi della conversazione.
L’analisi dei dati qualitativi comporta la codifica, cioè la classificazione e la divisione
in categorie di singole parti di dati, insieme ad altri modi di organizzare e gestire i
dati, che permettono al ricercatore di recuperare il materiale più tardi, nel momento in
cui sarà interessato ad usarlo. L’unità di codifica è il concetto, per cui l’unità di testo
appropriata per la codifica potrebbe cambiare per ciascun documento.
La codifica può essere:
1. Aperta: identificazione di numerosi concetti rilevanti per il soggetto esaminato;
2. Assiale: cerca d’identificare i concetti centrali;
3. Selettiva: cerca d’identificare il codice centrale della ricerca: quello più
generale e predominante.
Dopo aver codificato i dati è possibile aggiungere promemoria per fissare le nostre
note e quelle delle altre persone coinvolte nella ricerca:
 Le note dei codici: identificano le etichette dei codici e i loro significati;
 Le note teoriche: riguardano una serie di argomenti come le riflessioni sulle
dimensioni e sui significati dei concetti;
 Le note operative: riguardano soprattutto gli aspetti metodologici.
Un altro modo per fare chiarezza fra le relazioni fra i concetti consiste nel
rappresentarli in modo grafico attraverso una mappa concettuale.
I ricercatori dovrebbero essere in grado di usare insieme la prospettiva qualitativa e
quella quantitativa come, ad esempio, utilizzare un grafico per aiutare a comprendere
dati quantitativi come dati statistici.
Nell’analisi qualitativa gli aspetti soggettivi richiedono un’attenzione particolare per
evitare distorsioni nell’interpretazione dei dati, inoltre qui, più che mai, si deve
compiere ogni sforzo possibile in favore della privacy dei soggetti.
CAP. 14
La quantificazione è il processo attraverso cui i dati sono trasformati in formato
numerico, la conversione dei dati rilevati in formato adatto alla lettura e alla
manipolazione con il computer. Nel fare ciò ci possiamo aiutare con l’utilizzo di
schemi preesistenti che permettono di confrontare i risultati della nostra ricerca con
quelli di altre indagini, oppure con l’utilizzo di categorie da noi create che devono
essere esaustive e mutualmente esclusive. Abbiamo bisogno però di un codebook, un
documento che descrive la posizione e gli attributi di ciascuna variabile così che ci
guidi nei riferimenti del processo di codifica e ci serva a cercare le variabili e
interpretare i codici del file di dati durante l’analisi.
 L’analisi univariata: riguarda la descrizione di una singola variabile, per
esempio, se abbiamo misurato il genere osserveremo quanti soggetti
dell’indagine sono maschi e quanti sono femmine. Bisogna elencare quindi gli
attributi di ciascun caso e un modo per valutarne il numero è calcolare la
percentuale e la descrizione del numero di volte che osserviamo i vari attributi
di una variabile in un campione è chiamata distribuzione di frequenza. Per la
presentazione dei dati, è possibile formare una media aritmetica (somma dei
valori divisa per il numero dei casi), una moda (il valore più frequente) o una
mediana (valore che si trova in mezzo).
Il lettore però, non può ricostruire i dati originali basandosi sulla media, ma le
misure della dispersione possono ridurre tale svantaggio. La dispersione
riguarda il modo in cui sono distribuiti i valori attorno a qualche valore
centrale, come la media. La misura più semplice della dispersione è il rango (la
distanza che separa il valore più elevato da quello più basso), poi c’è la
deviazione standard (indice della variabilità dei dati) o lo scarto interquartile.
Il confronto di sottogruppi può essere utilizzato per descrivere le somiglianze e
le differenze fra sottogruppi in relazione a qualche variabile. Nella
presentazione e nell’interpretazione dei dati possiamo accorpare categorie di
risposta e gestire le non risposte.
 L’analisi bivariata: il cui scopo è la spiegazione, si concentra sulle relazioni fra
variabili ed esplora l’associazione statistica fra la variabile indipendente e
quella dipendente. Solitamente, i risultati dell’analisi bivariata sono presentati
come tabelle di contingenza, cioè tabelle costruite in modo da evidenziare gli
effetti della variabile dipendente.
 L’analisi multivariata: permette di analizzare le relazioni simultanee fra diverse
variabili e può essere utilizzata anche per approfondire l’analisi delle relazioni
fra due variabili.
 La diagnostica sociologica: è una tecnica di analisi quantitativa per determinare
la natura di problemi sociali, come le discriminazioni etniche o di genere.