Una definizione di statistica
Si definisce statistica la scienza che ha per oggetto la raccolta, l’analisi e l’interpretazione dei
dati empirici riguardanti un determinato fenomeno ed esprimibili con un numero. Verso la
fine del XVI secolo, l’italiano Ghislini ha introdotto, il termine “statistica” per indicare “la
scienza descrittiva degli Stati: la scienza, cioè, che ha per oggetto la descrizione degli
elementi che compongono uno Stato e delle qualità che lo caratterizzano”.
Nel linguaggio corrente, il termine statistica può indicare un dato numerico o una tabella di
dati numerici, assoluti o percentuali, frutto di indagini sistematiche, di elaborazioni organiche,
di sondaggi di inchieste. Ma il termine statistica, con significato notevolmente diverso dal
precedente, indica la disciplina che, descrivendo ed investigando i fenomeni naturali e sociali,
s’identifica come vera e propria scienza del collettivo, trovando impiego ovunque siano
quantificabili fenomeni di massa. In tal modo, essa acquista la fisionomia di “metodologia
scientifica ausiliaria” che parte dall’osservazione e dalla registrazione delle manifestazioni dei
fenomeni predisponendo tecniche e procedure per l’acquisizione di dati individuali, per la
loro elaborazione, per la formulazione delle ipotesi e delle teorie circa i meccanismi di
regolazione dei fenomeni stessi, fino a giungere alla verifica delle ipotesi e delle teorie
formulate. La statistica è in altre parole il momento empirico delle scienze di osservazione,
nonché delle scienze sperimentali, per le quali i dati statistici costituiscono una particolare
forma del contenuto empirico. Essa può rappresentare perciò l’essenza del processo
scientifico che nello stadio dell’osservazione si confonde e si mimetizza con il suo stesso
contenuto.
In altre parole, la statistica non è matematica, ma fa semplicemente uso di algoritmi
matematici (le formule) per i propri scopi, ovvero conoscere la realtà ad un livello
formalizzato. Si potrebbe quasi formalizzare che la statistica (come scienza) è logica, anche se
è più corretto considerarla una visione logico-matematica del mondo: matematica perché la
statistica usa i numeri per descrivere i fenomeni del mondo; logica, perché il passaggio dalla
realtà ai numeri segue regole piuttosto regole piuttosto rigorose che collegano i numeri al loro
significato per il mondo.
Nel modo di sentire comune esiste, però, un sentimento di “diffidenza” nei confronti di questa
scienza, che alcuni ritengono la prima delle scienze inesatte. Scrisse Edouard Herriol che “la
statistica è una signora compiacente che non nega mai nulla di ciò che le viene chiesto”.
Disraeli da buon politico la definì come “l’arte per mentire con precisione: cioè una forma
nobile, raffinata e scientifica di menzogna”.
Conoscere le procedure proprie delle indagini statistiche può aiutare a capire il grado di
affidabilità delle sintesi, dei grafici, delle statistiche come medie, mediana, che vengono
continuamente proposte anche dai principali media di informazione. Lo studio della statistica
può essere, perciò, uno strumento in grado di fornire i mezzi attraverso i quali potersi creare
un’opinione personale, indipendente da quello che altri suggeriscono.
Statistica descrittiva, matematica e probabilistica
La statistica moderna può essere distinta in tre parti: descrittiva, matematica, inferenziale:
1. La statistica descrittiva spiega come i dati raccolti devono essere riportati in tabella,
rappresentati in grafici e sintetizzati in indici matematici, allo scopo di individuare le
caratteristiche fondamentali del campione. Essa mira ad accertare le proprietà dei
fenomeni nell’ambito delle osservazioni effettivamente eseguite. Proprio per questo essa
prevede la fase della raccolta dei dati, la loro rappresentazione (in tabelle o grafici) e
l’elaborazione di indici sintetici (medie o indici di variabilità). Quali sono le statistiche
che si possono fare in questo settore della statistica:
a. Statistiche della tendenza centrale: “regole” per produrre i numeri che
forniscono informazioni sulla tendenza centrale di una distribuzione. Esempi:
media, mediana, moda.
b. Statistiche di posizione: posizione dei dati statistici in una distribuzione:
quantili.
c. Statistiche di dispersione: come e quanto sono dispersi i dati? Esempi: range,
varianza, deviazione standard.
d. Statistiche di forma: com’è fatta la curva di distribuzione dei dati: skewness e
kurtosi.
In particolare la statistica descrittiva univariata prende in esame una variabile alla
volta, mentre la statistica bivariata considera contemporaneamente due variabili. La
statistica multivariata analizza due o più variabili che devono sottostare a particolari
regole.
2.
La statistica matematica presenta le distribuzioni teoriche sia per misure discrete sia
per misure continue, allo scopo di illustrarne le caratteristiche fondamentali, le relazioni
che esistono tra esse, gli usi possibili.
3. L’inferenza statistica serve per la verifica delle ipotesi. Essa può essere distinta in vari
capitoli, in rapporto:
 alle caratteristiche dei dati (se permettono o meno il ricorso alla distribuzione
normale: statistica parametrica e non parametrica
 al numero di variabili (se una, due o più: statistica univariata, bivariata,
multivariata).
Terminologia statistica





Caso statistico/Individuo: singolo oggetto di studio su cui vengono fatte diverse
misurazioni.
Popolazione: insieme di tutte le possibili unità statistiche. Una popolazione può essere
finita (se il numero dei casi rimane comunque limitato) o “infinita” (quando il numero
dei casi è particolarmente elevato).
Campione: sottoinsieme della popolazione, ossia una popolazione in formato ridotto.
Variabile: una qualunque delle “qualità” che vogliamo misurare sul caso. Il valore
varia al variare del caso statistico allo studio.
Costante: contrario della variabile, ossia qualcosa che non cambia al variare del caso
statistico.

Statistiche: numeri sintetici ottenuti tramite l’applicazione di particolari regole, che
riassumono determinate informazioni sul campione o sulla popolazione.
o Statistiche della tendenza centrale: si chiamano in questo modo le “regole” che
producono numeri che danno informazioni sulla tendenza centrale di una
distribuzione numerica. Normalmente gli indici di tendenza centrale sono
considerati rappresentativi dell’intera distribuzione.
o Statistiche di posizione: danno informazioni sulla posizione di alcuni valori
all’interno della distribuzione.
o Statistiche di dispersione: danno informazioni sull’omogeneità o sulla
disomogeneità dei dati.
o Statistiche di associazione: danno informazioni sul legame esistente tra due o più
variabili.
Distribuzione: insieme delle misurazioni effettuate su un insieme di unità statistiche o casi
statistici.
IL PROCESSO DELLA RICERCA E GLI STUDI SUL CAMPO
Il metodo scientifico
Un fattore fondamentale nella storia del processo scientifico è stato il graduale cambiamento
nella metodologia con cui affrontare i problemi della scienza, verificatosi nel corso dei secoli.
Fin dalla antichità scienziati e studiosi si sono dedicati all’osservazione dei fenomeni, per
cercare di dar loro una spiegazione. Ma è stato solo a partire dalla seconda metà del XVII
secolo che si è cominciato ad adottare un metodo più rigoroso e logico, il cosiddetto metodo
scientifico.
Le indagini condotte in questa maniera prevedono cinque fasi successive (fig.1.1):
A. La teoria iniziale. Teorie sociali per spiegare un determinato fenomeno. Su fenomeni
di natura sociale, come ad esempio la delinquenza o l’aggressività dei minori, si
possono elaborare teorie generali e che possono essere verificate sulla base al riscontro
dei dati raccolti.
Esempio: la teoria che mette in relazione la delinquenza giovanile con l’ambito di provenienza sociale del
minore (Hirschi, 1969). In questo modo si mettono a confronto la “genetica” e l’ambiente in cui il soggetto vive.
B. Formulazione delle ipotesi. Per qualche aspetto particolare della teoria risulta utile
formulare specifiche ipotesi.
Ad esempio, Hirschi ipotizza che i bambini collegati ad ambienti con valori classici sono meno delinquenti.
Ossia si ipotizza un legame tra i concetti: a) società convenzionale e valori convenzionali; b) delinquenza
giovanile.
C. Rilevazione dei dati. I concetti devono diventare numeri, ossia si deve essere in grado
di quantificare il fenomeno che si sta osservando. Come? Ad esempio, nel caso sopra
proposto somministrando dei questionari a dei soggetti selezionati secondo dei criteri
definiti a priori (indagine sperimentale).
a.
b.
Questionari ai bambini (che tipo di scuola frequenti? Che tipo di famiglia?.....) per capire
l’ambiente da cui derivano.
Questionari per vedere gli atti “criminali” cui hanno assistito o hanno partecipato
Un’altra via può essere quella della rilevazione esterna. Si osserva “dal di fuori” il
fenomeno allo studio, analizzo, ad esempio, i dati bibliografici che ho a disposizione
(indagine storica).
D. Definizione di una metodologia per analizzare i dati.
E. Analisi ed interpretazione dei risultati.
F. Conclusioni utili a validare o no le ipotesi iniziali.
Si parte perciò dall’osservazione del fenomeno e si cerca di individuare eventuali rapporti di
causalità tra variabili che apparentemente possono sembrare indipendenti tra di loro. Una
volta definite quali può essere la teoria che spiega il fenomeno osservato, si predispone un
disegno sperimentale, cui fa seguito un esperimento. Dall’analisi dei risultati possiamo
scegliere se validare o no l’ipotesi di partenza.
Schematizzando:
OSSERVAZIONE DEL FENOMENO
TEORIA
IPOTESI
ESPLICATIVA
MISURA DEI CONCETTI
SELEZIONE DEI
RISPONDENTI/PARTECIPANT
I
DISEGNO SPERIMENTALE
INDAGINE STORICA (dati
statistici/questionari/interviste)
ESPERIMENTO
(gruppo sperimentale)
RACCOLTA DATI
ANALISI DEI DATI
RISULTATI
CONCLUSIONI
Figura 1.1 Il metodo scientifico
Criteri per definire rapporti di causalità tra le variabili
Nello schema riportato in fig.1.1 viene riportato il processo teorico della ricerca. Uno dei
principali scopi della ricerca è quello di definire rapporti di causalità tra le variabili, ossia
valutare eventuali rapporti causa-effetto.
Qui si seguito vengono riportati alcuni esempi di rapporto causa-effetto tra variabili
nominalmente indipendenti.
CAUSA

EFFETTO
Fumo
Violenza in TV
Martellante pubblicità su diversi media
Presenza di una centrale atomica
Condizioni climatico-vegetazionali





Malattie cardiovascolari, cancro ai polmoni
Comportamento violento dei bambini
Aumento delle vendite dei prodotti
Aumento delle malattie tipo cancro
Predisposizione di un territorio agli incendi
A cosa serve definire questo tipo di relazione? Molteplici sono le utilità che possono derivare
da una definizione precisa del rapporto causa-effetto. Riferendosi agli esempi di cui sopra si
può pensare a:
 Politica di prevenzione del comportamento “sbagliato”, fumo, ossia ridurre gli effetti
partendo dalle cause (legge Sirchia sul fumo)
 Cambiamenti della programmazione della TV
 Strategia di marketing
 Corretta pianificazione territoriale
 ………………………….
Giova però ricordare che la variabile dipendente (la malattia, il comportamento dei bambini o
l’aumento del numero delle vendite…) non è mai completamente influenzata dalla variabile
indipendente (il fumo, la violenza in TV o la pubblicità martellante), o almeno non
unicamente da quella. Dalla difficoltà di stabilire in modo netto queste correlazioni, a causa
dell’elevato numero delle variabili in gioco, nasce la difficoltà nel dimostrare la validità dei
modelli teorici che vengono proposti.
Allo scopo di definire un rapporto di causalità devono verificarsi tre condizioni.
1. Prima di tutto deve esistere una relazione almeno apparente tra le due variabili in
gioco. Questo significa che la distribuzione dei dati relativi ad una variabile influenza
in qualche modo la distribuzione dell’altra variabile. Come si può verificare nella
tabella pubblicità-acquisti, si nota ad esempio che il numero dei minuti di pubblicità
sembra influenzare il numero degli acquisti di un prodotto.
Esempio.
a.
Gruppo
1
2
3
4
5
6
7
8
9
10
Esistenza di una relazione apparente tra due variabili
Minuti pubblicitari per settimana
9’ 30’’
9’ 15’’
8’ 45’’
8’ 25’’
8’ 00’’
5’ 50’’
5’ 10’’
4’ 55’’
4’ 30’’
4’ 00’’
n. acquisti
9
8
7
7
6
4
4
5
3
3
Questo può essere un esempio di una relazione non perfetta tra la variabile “minuti di pubblicità alla settimana” e
la variabile “n. di acquisti”. Questo è il classico esempio di relazione “non perfetta”.
2. Secondo, bisogna dimostrare che la relazione non sia “spuria”, ossia non sia falsa.
Questo significa che si dovrebbe essere in grado di controllare eventuali variabili
“esterne” all’esperimento. Un esempio può essere il seguente: si è notato che persone
con un elevato grado di istruzione trovano più facilmente lavoro. Però, in questo caso
bisogna tenere conto della variabile età: difatti persone più giovani hanno un grado più
elevato. Ma trovano lavoro facilmente perché sono maggiormente istruite o perché
sono giovani?
Bisogna dimostrare che la relazione non sia “spuria”.
Lavoro
Grado di istruzione
Età
3. Terzo, bisogna essere certi che la causa preceda l’effetto, il cosiddetto “time order”.
Con un esempio, l’aggressività dei bambini potrebbe essere spiegata dal fatto che
vedono programmi alla TV particolarmente violenti. Per validare questa ipotesi è
necessario analizzare i dati relativi alla popolazione precedentemente all’esperienza
“violenza in TV”.
TEORIA DELLA MISURAZIONE
Come misurare concetti astratti
Nell’analisi statistica, occorre porre sempre molta attenzione alle caratteristiche dei dati. Già
la fase dell’esperimento che conduce alla raccolta delle informazioni è un punto
fondamentale, poiché da essa dipendono sia i metodi di descrizione, sia i test da applicare.
La statistica ha come oggetto di studio il mondo, dalla cui osservazione si parte per elaborare
teorie scientifiche o più semplicemente rapporti di causalità tra le variabili. I concetti sono alla
base delle ipotesi. Una volta definite quali sono le ipotesi bisogna rendere misurabili i concetti
che in qualche modo descrivono ciò che si sta osservando. Le formule che si applicano per
studiare i dati raccolti devono però tenere conto della natura delle variabili che si stanno
analizzando.
«Misurare è assegnare un modello formale ad oggetti ed eventi secondo una regola, una
qualunque regola, purchè essa sia consistente » (Stevens, 1946). Il sistema numerico deriva
dalla esperienza diretta nella vita, ossia “il sistema numerico deriva dal sistema empirico”.
Cosa significa “consistente”? La misura deve rispettare la natura della “cosa” misurata.
Esempio: “l’autobus ed il suo numero”. Non posso permettermi di fare operazioni di alcun genere sui numeri
degli autobus, che non sono altro che etichette.
Le scale di misura (o livelli di misura)
Le scale di misura sono l’applicazione della teoria della misurazione alla realtà studiata.
Una prima classificazione, efficace ma grezza, distingue variabili qualitative da quantitative.
Si parla di variabili di natura qualitativa, se ci si riferisce ad una qualità del caso statistico (e
più in generale della popolazione) che si sta studiando (colore dei capelli, appartenenza ad una
etnia, …), o di natura quantitativa, nel caso in cui si stia valutando qualche parametro di
natura prettamente quantitativa come l’altezza, il reddito….
Le variabili qualitative o categoriali sono quantificate con conteggi ossia con numeri interi; le
variabili quantitative richiedono risposte numeriche e possono essere espresse su una scala
discreta.
Cosa significa variabile continua o discreta?
1. continua : tra due valori c’è sempre l’intermedio (l’altezza o il peso delle persone.)
2. discreta: tra due valori non c’è l’intermedio (numero di macchine per famiglia,
numero di risposte ad un test)
Perciò una variabile relativa a un caso statistico può essere :
Qualitativa (discreta)
Variabile
Quantitativa (discreta o continua)
Questa suddivisione, ormai storica nella presentazione ed elaborazione dei dati, è stata però
resa più chiara e funzionale dalla classificazione delle scale di misurazione proposta dallo
psicologo S.S. Stevens nel 1946, (vedi l’articolo On the theory of scales of measurement,
pubblicato su Science, vol. 103, pp.:677-680). Tale classificazione è stata aggiornata nel 1951
con le operazioni statistiche “ammissibili” e in seguito divulgata da S. Siegel, nel suo manuale
"Statistica non parametrica" del 1956. Una presentazione ampia e dettagliata può essere
trovata pure nell’ultima edizione del testo di S. Siegel e N. J. Castellan del 1988
(Nonparametric Statistics for the Behavioral Sciences, 2nd ed., Mc Graw Hill, New York),
tradotto anche in italiano.
Prima di entrare nel dettaglio relativamente alla classificazione proposta da Stevens, si riporta
di seguito un semplice esempio, per far comprendere come la teoria nasca dall’esperienza
quotidiana.
Sono alla cassa del supermercato e ci sono tre persone che mi precedono. Noto facilmente
che due sono donne e una è maschio. Noto inoltre che una persona è magra, una è “normale”,
la terza è grassa. Noto infine che la prima persona spende 20 Euro, la seconda 5 euro e la terza
52 euro.
ID
A
B
C
Sesso
Femmina
Maschio
Femmina
Peso
Magra
Normale
Grassa
Conto
20 Euro
5 Euro
52 Euro
Riassumendo i dati che ho raccolto posso affermare quanto segue in merito ai casi statistici
(persone) esaminati:



per quanto riguarda la variabile “sesso”, posso affermare che A=C, ma A≠B e B≠C,
ossia posso determinare solo rapporti di uguaglianza o disuguaglianza.
per quanto riguarda la variabile “peso” in funzione dei valori che essa assume posso
ordinare i casi statistici predisponendo un ordine del tipo C > B > A.
infine, per quanto riguarda la variabile “conto”, oltre a poter ordinare chi ha speso di
più fino a chi ha speso di meno, posso vedere anche quanto ha pagato A più di B o
meno di C.
Dal sistema relazionale empirico (le persone al supermercato)
 Consistente ????
al sistema relazionale numerico (le mie misurazioni)
Il sistema relazionale numerico deve rispecchiare il sistema relazionale empirico.
I quattro tipi di scale di misura
Le misure possono essere, perciò, raggruppate in quattro tipi di scale (o quattro livelli di
scala), che godono di proprietà formali differenti ossia ammettono operazioni differenti.
Come per tutte le discipline, una scala di misurazione dei fenomeni può essere:
1) nominale (o classificatoria)
2) ordinale (o per ranghi)
3) ad intervalli
4) di rapporti
1. La scala nominale
La scala nominale (o classificatoria) è il livello di misurazione più basso. È utilizzata quando i
risultati possono essere classificati o raggruppati in categorie qualitative, dette anche nominali
ed eventualmente identificate con simboli. I caratteri nominali, detti anche “sconnessi”,
costituiscono variabili le cui modalità o attributi non assumono alcun ordine precostituito.
In base alle variabili di tipo nominale i casi possono essere solo distinti gli uni dagli altri o
associati alla stessa categoria. Ossia gli oggetti sono classificati in categorie discrete,
categorie “discretizzate” sulla base delle etichetta.
Esempi:
 religione
 numero di linea dell’autobus
 prefissi dei numeri telefonici
 gruppo etnico di appartenenza
Un caso particolare è quello dei caratteri dicotomici che possono assumere solo due modalità,
come il sesso (maschio o femmina). L'attribuzione di numeri per identificare categorie
nominali, come avviene per individuare i giocatori nei giochi di squadra o per le linee degli
autobus, è solamente un artificio. Ciò significa che non si deve elaborare quei numeri come se
fossero reali (ad esempio calcolandone la media). In questo caso il numero associato alla
variabile è solamente un simbolo.
L’unica operazione ammessa è il conteggio degli individui o dei dati presenti in ogni
categoria. I quesiti statistici che possono essere posti correttamente riguardano le frequenze,
sia assolute che relative. Sono possibili confronti tra frequenze osservate (es.: "Una classe è
significativamente meno numerosa dell’altra?") oppure tra le frequenze osservate e le
rispettive frequenze attese sulla base di leggi biologiche, ipotesi od altro (es.: "I risultati
ottenuti da un esperimento sulle leggi di Mendel sono in accordo con la sua distribuzione
teorica?").
2. La scala ordinale
Nel caso di variabili afferenti alla scala ordinale (o per ranghi), oltre a poterle identificare in
modo univoco è possibile ordinarle. Ovvero alla proprietà precedente di equivalenza tra gli
individui della stessa classe, si aggiunge una gradazione tra le classi o tra individui di classi
differenti.
Con la precedente scala nominale, si ha la sola informazione che gli individui appartenenti a
gruppi differenti sono tra loro diversi, ma non è possibile stabilire un ordine. Con la scala per
ranghi, le differenti classi possono essere ordinate sulla base dell’intensità del fenomeno.
Esempi:
 il livello socio-economico
 la preparazione di uno studente (insufficiente, sufficiente, buono, discreto, ottimo)
 classi di età come giovane, adulto, anziano
Questa misura ha un limite fondamentale dato dal fatto che in una scala ordinale, non è
possibile quantificare le differenze di intensità tra le osservazioni. Questo vuol dire che per
quanto riguarda la preparazione di uno studente la differenza tra buono e ottimo non è
quantificabile in termini numerici.
La scala ordinale o per ranghi è pertanto una scala monotonica (ossia sempre crescente o
sempre decrescente). Alle variabili così misurate è possibile applicare una serie di test non
parametrici (test chi quadro); ma non quelli parametrici (test z, test t). In questi casi, non
sarebbe possibile utilizzare quei test che fanno riferimento alla distribuzione normale, i cui
parametri essenziali sono la media e la varianza, poiché non si possono definire le distanze tra
i valori.
Tuttavia questa indicazione di massima sulla utilizzazione della statistica non parametrica è
spesso superata dall'osservazione che variabili discrete o nominali tendono a distribuirsi in
modo approssimativamente normale, quando il numero di dati è sufficientemente elevato.
3. La scala ad intervalli
Oltre ad avere le caratteristiche delle scale precedenti, la scala ad intervalli aggiunge la
proprietà di misurare le distanze o differenze tra tutte le coppie di valori. Ossia essa possiede
la caratteristica di uguaglianza (propria della scala nominale), la caratteristica di ordine
(propria della scala ordinale), ed inoltre definisce distanze unitarie per le variabili, in modo
tale da poter valutare eventuali differenze tra le variabili. La scala di intervalli si fonda su una
misura oggettiva e costante, anche se il punto di origine e l'unità di misura sono arbitrari.
Esempi classici di scale ad intervalli sono la temperatura (misurata in gradi Celsius o
Fahrenheit, ma non Kelvin) ed il tempo (misurato secondo calendari differenti). Valori di
temperatura, oltre a poter essere facilmente ordinati secondo l’intensità del fenomeno, godono
della proprietà che le differenze tra loro sono direttamente confrontabili e quantificabili; le
date di qualsiasi calendario, non importa se gregoriano, islamico, ebraico o cinese, possono
essere tra loro ordinate dalla più antica a quella più recente e le differenze temporali sono
misurate con precisione oggettiva.
Ma la scala ad intervalli ha un limite, non gode di un'altra proprietà importante nella
elaborazione statistica dei dati, quella del rapporto tra coppie di misure. Ad esempio, una
temperatura di 80 gradi Celsius non è il doppio di una di 40 gradi. Se una persona ponesse la
mano destra in una bacinella con acqua a 80 gradi e la mano sinistra in un’altra con acqua a
10 gradi, non direbbe certamente che la prima scotta 8 volte più della seconda, ma solo che la
prima è molto calda e la seconda fredda.
In una scala ad intervalli, solo le differenze tra i valori sono quantità continue ed isomorfiche
alla struttura dell'aritmetica. Solo per le differenze sono permesse tutte le operazioni: possono
essere tra loro sommate, elevate a potenza oppure divise, determinando le quantità che stanno
alla base della statistica parametrica.
4. La scala a rapporti
La scala di rapporti ha il vantaggio di avere un’origine reale. Sono tipiche scale di rapporti
l'altezza, la distanza, la velocità, l'età, il peso, il reddito, la temperatura in gradi Kelvin; più in
generale, tutte quelle misure in cui 0 (zero) significa quantità nulla. Ossia queste variabili
hanno il vantaggio di avere definito uno “zero assoluto” (come, ad esempio, le risposte giuste
ad un test). Non solo le differenze, ma gli stessi valori possono essere moltiplicati o divisi per
quantità costanti, senza che l'informazione di maggiore importanza, il rapporto tra essi, ne
risulti alterata.
Alle variabili misurate con una scala di rapporti, il tipo di misurazione più sofisticato e
completo, può essere applicato qualsiasi test statistico. Possono essere utilizzati anche la
media geometrica ed il coefficiente di variazione, i quali richiedono che il punto 0 (zero) sia
reale e non convenzionale.
Nominale Ordinale Intervallare A Rapporto
=
si
si
Si
Si
<>
no
si
Si
Si
Intervallo unitario
no
no
Si
Si
Zero assoluto
no
no
No
Si
Tabella 2.1 Caratteristiche delle scale
Occorre, perciò, porre estrema attenzione al reale significato da attribuire ai valori numerici
che vengono utilizzati. Si possono avere numeri che apparentemente hanno le stesse
caratteristiche, ma che in realtà richiedono elaborazioni diverse ed impongono il ricorso a test
differenti, per rispondere ai medesimi quesiti. Questo significa, ad esempio, che non potendo
fare elaborazioni come somma o differenza per variabili di tipo ordinale, non possiamo
elaborare la media aritmetica per variabili di questa natura.
Schematizzando si può affermare quanto riportato in tab.2.2.
VARIABILE
DISCRETA
QUALITATIVA
NOMINALE/ORDINALE
QUANTITATIVA
CONTINUA
INTERVALLARE/A RAPPORTO
Tabella 2.2 Schema della possibile natura delle variabili.
Scarica

Una definizione di statistica