Misure
“… non commettere ingiustizia nelle misure di
lunghezza, nei pesi o nelle misure di capacità. Avrete
bilance giuste, pesi giusti, efa giusti, hin giusti.
Io sono il Signore, vostro Dio, che vi ho fatto uscire
dal paese di Egitto …”
Levitico 19, 35-36
Misure
“Io spesso affermo che quando potete misurare ciò di cui state parlando, e potete
esprimerlo in numeri, allora conoscete qualcosa di ciò di cui parlate;
ma quando non potete esprimerlo in numeri, allora la vostra conoscenza è scarsa
ed insoddisfacente; può rappresentare un inizio di conoscenza, ma vi siete
addentrati, nei vostri pensieri, assai poco nel campo della scienza, qualunque sia
l’argomento che state trattando. Perciò, se scienza significa misurare, senza
la metrologia non ci può essere scienza.”
William Thomson (Lord Kelvin)
6 maggio 1886
Statistica
«Sai ched’è la statistica? È ‘na cosa
Che serve pe’ fa un conto in generale
de la gente che nasce, che sta male,
che more, che va in carcere e che sposa.
Ma pè me la statistica curiosa
è dove c’entra la percentuale,
pè via che, lì, la media è sempre uguale
puro cò la persona bisognosa.
Me spiego: da li conti che se fanno
secondo le statistiche d’adesso
risurta che te tocca un pollo all’anno
e se nun entra ne le spese tue,
t’entra ne la statistica lo stesso
perché c’è un altro che ne magna due.
Trilussa
La misurazione
Misurazione: fornisce un risultato conoscitivo di tipo
quantitativo. Si costruisce una mappatura
caratteristiche in un insieme numerico.
delle
La misurazione è un procedimento empirico e oggettivo
con il quale vengono assegnati dei numeri alle proprietà
di oggetti o fenomeni del modo reale con il fine di
descriverli quantitativamente.
Cosa significa misurare una grandezza?
•La misura di una grandezza è generalmente definita come
il confronto quantitativo di questa stessa grandezza con
un’altra grandezza, omogenea con quella che si vuole
misurare, che viene considerata come l’unità di misura.
• Cinque diversi “agenti” contribuiscono al processo di
misura.
ERRORI DI MISURA
UNA MISURA E’ CORRETTA E PUO’ CONSIDERARSI ACCETTABILE,
QUANDO E’ NOTA L’ENTITA’ DELL’ERRORE O DELL’INCERTEZZA DELLA
MISURA STESSA
ERRORI DOVUTI ALLO STRUMENTO
ERRORI DOVUTI ALL’OPERATORE
ERRORI DOVUTI ALL’AMBIENTE
il risultato di misurazioni diverse e ripetute del medesimo misurando
non è sempre lo stesso
è lo stesso processo di misurazione ad “alterare” più o meno
significativamente il misurando rendendone impossibile la conoscenza
del “valore vero”
non si inficia il presupposto di unicità della misura, ma si è obbligati a
stimare ed esprimere unitamente alla misura la “qualità” della misura
stessa,
ovvero
l’incertezza
X = (x ± uc) gX
• uC (incertezza tipo composta) indica la qualità della misura
• irrealizzabilità di un’esatta conoscenza del valore del misurando
• impossibilità di realizzare il processo di misura senza essere
influenzati dall’ambiente e dalle imperfezioni di strumenti e
operatore.
ERRORE (causa)
INCERTEZZA (effetto)
il valore vero di una grandezza non è, per definizione, noto né conoscibile
(principio di indeterminazione di Heisenberg), anche l’errore così definito
risulta non noto e non conoscibile e, pertanto, di nessuna importanza pratica.
• valore vero Xv di una grandezza:
il valore con un infinito numero di cifre decimali esatte che effettivamente
compete alla grandezza, noto tramite una misurazione perfetta
• errore assoluto:
differenza tra valore misurato Xm ed il valore vero Xv
e = Xm– Xv
Valore Vero (Xv)
Valore Ritenuto Vero (Xrv)
principio di indeterminazione di Heisenberg
Il valore vero di una grandezza non è, per definizione, noto né
conoscibile (), anche l’errore così definito risulta non noto e non
conoscibile e, pertanto, di nessuna importanza pratica.
• valore ritenuto vero Xrv di una grandezza:
valore vero convenzionale
• errore assoluto:
differenza tra valore misurato Xm ed il valore ritenuto vero Xv
e = Xm– Xrv
Compito principale del metrologo è quello di ricavare dalle misure effettuate
il valore più probabile della grandezza di misura e di stimare
contemporaneamente l’intervallo, centrato intorno a tale valore, all’interno
del quale il valore ritenuto vero dovrebbe cadere
Errori sistematici
•
•
•
•
•
•
sono dovuti a difetti costruttivi, o di taratura degli strumenti e dei campioni, o
ad errori e irregolarità nell’applicazione del modello sperimentale (procedura)
sono legati alla causa che li produce da una legge fisica ben determinata
si presentano con segno costante ed entità circa costante.
è quasi sempre possibile compensarne gli effetti
non sono influenzati dalla ripetizione delle misure
Esempi di errori sistematici
• errore sullo zero
• errore sulla caratteristica (differenza tra curva caratteristica nominale e
reale);
• errore di disturbo (schiacciamento, scambio di energia termica, alterazione
• del regime delle correnti in un circuito, perdite di carico, …)
• errori dovuti alle grandezze di influenza (pressione, temperatura ed umidità
• dell’ambiente di misura)
Si intendono errori accidentali gli errori i cui effetti sulla dispersione dei
risultati di misura possono essere attenuati, ripetendo più volte il processo di
misurazione e calcolando la media dei diversi risultati; al contrario, si
intendono errori sistematici gli errori che non sono in alcun modo influenzati
dal procedimento di ripetizione delle operazioni e dalla successiva media.
Gli errori accidentali sono invece prodotti da cause accidentali quali:
• irregolarità casuali del procedimento o dello strumento di misura;
• instabilità delle condizioni ambientali;
• imperfezioni congenite dell’operatore umano;
• conseguenza delle correzioni errore sistematico
1. agiscono di volta in volta con segno diverso ed entità diversa
2. grandezza di natura aleatoria
3. effetto, sia positivo che negativo, di un elevato numero di termini, tutti
egualmente probabili
4. distribuzione di tipo gaussiano intorno al valore medio
Esempi di Errori Accidentali
errore
errore
errore
errore
errore
errore
errore
di risoluzione di lettura
di parallasse
di interpolazione
dovuto al rumore di fondo dello strumento
di mobilità
di inversione
di isteresi
Esempi di cause di errore
Nel lancio di una monetina la probabilità che un evento accada è diverso
dalla frequenza con cui quell’accadimento si realizza nelle osservazioni
sperimentali legate alle ripetizioni.
La legge probabilistica è una legge limite che non fornisce un’uguaglianza
matematica, ma che trova conferma soltanto nella legge dei grandi numeri.
L’analisi statistica si basa dunque sui concetti definiti dalla teoria della
probabilità, ma attraverso un processo inverso di tipo induttivo che va
dall’osservazione dei risultati alla legge matematica.
Tale processo si basa sulla stima dei parametri, sull’individuazione della
distribuzione di probabilità più idonea a rappresentare i risultati osservati
sperimentalmente e sulla stima dei parametri statistici sin qui definiti. Tale
processo è generalmente indicato come «inferenziale».
Una misura è sempre una variabile casuale e può essere intesa come
somma di un evento deterministico (misurando) e di altri eventi
aleatori sovrapposti (errori di misura/correzioni).
Per una stima corretta della misura e degli errori è necessario
applicare tecniche statistiche per il trattamento dei dati aleatori (stima
“a posteriori”) e la teoria della probabilità (stima “a priori”)
Definizione di Unità, Campione e popolazione
 L’unità statistica rappresenta l’elemento su cui vengono
osservati determinati caratteri qualitativi (colore, …) o
quantitativi (volume, massa)
 la popolazione è l’insieme delle unità statistiche di
interesse
 (omogenee rispetto a uno o più caratteri)
 il campione è un sottoinsieme di unità della popolazione
l’unità statistica (evento)
• un autovettura
• il risultato di un lancio di dadi
• un errore di misura
la popolazione
• le autovetture circolanti a Roma
• i lanci effettuati durante un gioco
• i possibili errori
il campione
• le autovetture parcheggiate in un garage
• i primi 20 lanci
• gli errori commessi in una prova ripetuta
ERRORI CAMPIONARI
 campionare gli alunni per valutare l’altezza media nelle scuola senza avere
definito l’età degli alunni (chi?), la regione dove si vuole fare l’indagine
(dove?), il periodo di interesse (quando?)
 campionare i pezzi prodotti all’inizio o al termine della produzione
 effettuare solo 5 analisi per conoscere il numero medio di glucosio nel
sangue degli Italiani
ERRORI NON CAMPIONARI
 effettuare misure su bilance starate per difetto (portano evidentemente ad
una stima distorta)
 campionare confezioni di sale prodotto da una catena (per stimarne il peso
medio) in un giorno in cui c’è un elevato tasso di umidità
In pratica si dispone di campioni contenenti un numero finito di elementi n e
che, pertanto, approssimano il comportamento della popolazione. Le
differenze tra campione e popolazione consistono nel numero degli elementi
e anche nei valori assunti dagli elementi stessi.
Si dispone quindi di un insieme campionario limitato, sottoinsieme della
popolazione in oggetto, la cui distribuzione si definisce «distribuzione
campionaria».
L’indagine statistica può essere:
 totale o censuaria (si rilevano i caratteri di tutte le unità della
popolazione)
 campionaria (si rilevano i caratteri di un campione della popolazione e
per induzione si ottengono informazioni su tutta la popolazione)
L’indagine campionaria necessita di un attenta progettazione per:
 individuare univocamente la popolazione
 evitare distorsioni sistematiche (indirettamente randomizzando la
collezione delle unità o direttamente controllando l’esperimento)
 collezionare un numero significativo di eventi
Regole fondamentali
corretta ed affidabile:
per
una
analisi
statistica
numero degli elementi costituenti il campione
sufficientemente grande
campione collezionato in modo casuale
elementi campionati appartenenti alla medesima
popolazione
Distribuzione di probabilità gaussiana.
Quando una variabile x (ovvero una misura) assume soltanto un certo
numero di valori distinti è possibile rappresentare il suo comportamento a
partire da un campione di n misure tracciando l’istogramma delle frequenze,
Fk , oppure l’istogramma della densità di frequenza fk. .
Nelle fig.1 e 2 è riportato un esempio di istogramma di densità di
frequenza con valori di xk equispaziati di ∆x. Se n è grande ( es. maggiore
di 25/30), le densità di frequenza approssimano molto bene le probabilità
dei singoli valori. L’insieme dei valori è tale che ogni frequenza
dell’istogramma approssima la probabilità che il valore cada tra xk e xk+∆x.
L’istogramma rappresentato in fig.– risulta simmetrico e «quasi gaussiano».
In realtà si rilevano istogrammi asimmetrici e, altrimenti, irregolari per un
certo numero di ragioni: campione troppo piccolo, variazione casuale di
grandezze d’influenza, polarizzazione dell’osservatore, limiti imposti a priori
alle variabili d’osservazione. Un numero elevato di valori tende a produrre un
istogramma il cui inviluppo è la curva gaussiana.
La distribuzione normale (gaussiana) gode di alcune importanti
proprietà:
 Autoproduzione: la risultante della composizione di più variabili
aventi distribuzione normale presenta anch’essa una distribuzione
normale;
 È distribuzione limite: secondo il teorema del limite centrale data
una popolazione di varianza non infinita, le medie di N elementi
tratti dalla popolazione tendono ad assumere la distribuzione
normale, indipendentemente dalla distribuzione della popolazione:
 È modello per fenomeni fisici: si utilizza in fisica, biologia, sociologia,
scienze applicate, ecc. e soprattutto per la distribuzione degli errori
di misura.
Frequenza (stima a posteriori)
La frequenza di un evento è il numero di volte in cui l’evento si è
manifestato, diviso il numero totale delle prove effettuate la frequenza è
quindi diversa dalla probabilità dell’evento la differenza tra frequenza e
probabilità può essere tanto più grande quanto minore è il numero di
prove effettuate se si fa tendere il numero delle prove ad infinito, il valore
della frequenza tende a coincidere con quello della probabilità.
per funzioni discrete
per funzioni continue
Esempio di distribuzione di frequenze di misure
Fig. 1
Fig. 2
quanto più piccolo è Δx, tanto più l’istogramma tende alla curva continua
Esempio di Poligonale delle frequenze
Esempio di funzione di Gauss
Concetti elementari di Statistica
Parametri statistici – Istogramma di frequenza
Tendenza centrale (Media, moda, mediana)
Dispersione (scarto tipo, varianza, percentili)
Frequenza
Intervallo e Livello di Confidenza
fissata la media (μ) e lo scarto (σ) di una popolazione, si vogliono
conoscere gli estremi a e b dell’intervallo centrato su μ e che
comprenda un livello di probabilità fissato (1-α):
•il livello di probabilità è detto livello di confidenza
•l’intervallo [a,b] è detto intervallo di confidenza
l’intervallo di confidenza statistico
± 1σ (k=1) corrisponde un livello di confidenza 68.27 %
± 2σ (k=2) il livello di confidenza è pari al 95.45%
± 3σ (k=3) il livello di confidenza è pari al 99.73%
ripetibilità (repeatability)
capacità di uno strumento di misura a fornire indicazioni
concordi in risposta a condizioni di ingresso (condizioni di
misura) costanti e consecutive.
La ripetibilità è legata al valore dello scarto quadratico
medio di una serie di misure ottenute in condizioni
costanti, ed uno strumento è tanto più ripetibile quanto più
piccolo è lo scarto quadratico medio.
precisione (accuracy)
sintetizza i concetti di ripetibilità ed accuratezza; è
l’attitudine dello strumento a fornire una misura con il
minimo errore rispetto al valore ritenuto vero e con una
elevata ripetibilità.
La precisione è, quindi, legata al valore dell’incertezza
composta estesa.
accuratezza (precision)
differenza in valore e segno tra il valore ritenuto vero e la
media di una serie di misure.
uno strumento è tanto più accurato quanto più la media
di una serie di misure da esso effettuate è vicina al valore
ritenuto vero, cioè al valore ottenuto come media di una serie
di misure effettuate con uno strumento campione.
Eventi aleatori e deterministici
Un evento aleatorio può assumere nel corso di una prova un valore sconosciuto a
priori. Si possono distinguere variabili aleatorie discrete e variabili aleatorie
continue.
o Le variabili discrete possono assumere solo un insieme di valori numerabile,
o Le variabili continue, con i loro valori possibili, non possono essere enumerati
in anticipo e riempiono "densamente" un intervallo.
Eventi aleatori e deterministici
Il risultato di una misura può intendersi sempre come una variabile
aleatoria o più precisamente la somma di un evento deterministico, che
vogliamo misurare, e di altri eventi aleatori sovrapposti che abbiamo definito
errori di misura.
Eventi aleatori e deterministici
Pertanto, per effettuare una stima corretta, sia della grandezza che vogliamo
misurare, sia dell’entità degli errori, è necessario applicare correttamente:
 le metodologie statistiche per il trattamento dei dati aleatori (nel caso in cui
siamo in grado di effettuare una stima “a posteriori”)
 oppure la teoria della probabilità (nel caso in cui tale stima debba essere
effettuata “a priori”).
Concetti elementari di probabilità
Probabilità (stima a priori)
se ciascun evento è equiprobabile la probabilità di accadimento risulta
pari al numero di eventi favorevoli diviso il numero di eventi possibili
la probabilità è un numero compreso tra 0 e 1 (tra 0 e 100%), in
particolare risulta pari a zero quando l’evento è impossibile; risulta
invece pari ad uno (100%) quando l’evento è certo:
testa/croce probabilità 50% (1/2)
dado probabilità 16,7% (1/6)
Concetti elementari di probabilità
Definizione Classica
La probabilità di accadimento di un evento A si ottiene mediante
numerazione (oppure mediante calcolo combinatorio) degli n modi
semplici favorevoli rispetto a tutti gli n modi possibili se tutte le modalità
sono equiprobabili.
Calcolo Combinatorio
Il calcolo combinatorio permette di determinare, senza enumerazione diretta, il
numero degli elementi di un insieme o il numero dei possibili risultati di un dato
esperimento. Una regola fondamentale del calcolo combinatorio consente, data
una sequenza di due eventi in cui il primo può presentarsi in m modi diversi e il
secondo in n modi diversi, di calcolare l’insieme dei modi possibili dei due eventi
mediante il prodotto m*n
Esempio:
Un convertitore analogico/ digitale ad 8 bit: Quanti valori diversi può assumere?
2 * 2 * 2 * 2 * 2 * 2 * 2 * 2 = 256
Quale è la probabilità di ottenere il valore 00000000?
P(A)=1/256
Esempi: calcolo delle probabilità
Esempio 1 – Lancio di un dado
S={1,2,3,4,5,6}; A= {0};
P(A) = Probabilità di fare somma
zero
P(A) = 0
Esempio 2 – Lancio di un dado
S={1,2,3,4,5,6};
A= {1}; Ac= {2,3,4,5,6}
P(Ac) = Probabilità di non fare 1
P(Ac) = 1- P(Ac) = 1-1/6 = 5/6
Esempio 3 – Lancio di un dado
S={1,2,3,4,5,6}; A= {2,4,6};
P(A) = Probabilità di lanciare un
numero pari
P(A) = 1/6 + 1/6 + 1/6=3/6
Esempio 4 – Lancio di due dadi
S={1-1,1-2,1-3, …,6-6}; A= {6-6};
P(A) = Probabilità di lanciare due 6
P(A) = 1/6 * 1/6 =1/36
Concetti elementari di probabilità
Definizione Frequentista
La probabilità di accadimento di un evento si ottiene ripetendo un
esperimento un congruo numero di volte (numero totale di ripetizioni nt) e contando il numero di volte in cui si verifica l’evento (numero di
eventi favorevoli - nf) rispetto al numero totale di eventi
La legge dei grandi numeri
Se un esperimento viene ripetuto molte volte la probabilità stimata
tramite la frequenza relativa di un evento tende ad avvicinarsi alla
vera probabilità di quell’evento
Esempio calcolo probabilità:
Definizione frequentista
Durante una serata di giochi il numero 17 è uscito 10 volte su 400
giocate alla roulette.
Quale è la probabilità di ottenere il numero 17?
P(A)=10/400=1/40
Esempio 1 - Probabilità di essere
colpiti da un fulmine durante un anno
S spazio campionario è costituito da 2 eventi semplici:
- A essere colpiti da un fulmine
- B non esserlo
L’approccio classico non si può applicare in quanto i due eventi
(fortunatamente) non sono equiprobabili
L’approccio soggettivo ci porta a “scommettere” sulla rarità dell’evento:
P(A) = 1 su 1 milione
L’approccio frequentista invece ci consente analizzando i casi di italiani stati
colpiti da un fulmine nel 2001 (80 persone) di scrivere:
P(A) = 80 / 58 milioni = 0,000001379
Media μ / Valore atteso della variabile x, E(x):
per una variabile casuale continua
per una variabile discreta
nel caso di N eventi equiprobabili il valore
medio
può
essere
valutato
più
semplicemente
mediante
la
media
aritmetica
I gradi di libertà di un campione sono pari al numero degli elementi
meno il numero dei parametri che sono determinati dal campione e
vengono presi in considerazione:
ν=n−p
Ad esempio, nel calcolo della varianza del campione, dovendo
introdurre il valor medio stimato (un parametro, p=1), allora il
numero di gradi di libertà è pari a ν=n -1 ed ecco il motivo per cui è
più corretto scrivere:
Parametri statistici di una distribuzione
La Varianza è il valore atteso E ([x-μ]2) della variabile (x-μ)2
per una variabile casuale continua risulta pari a:
per una variabile discreta risulta pari a:
Lo scarto tipo è la radice quadrata della varianza; nel caso di N
eventi equiprobabili lo scarto tipo può essere anche valutato
mediante la relazione semplificata :