LA DISTRIBUZIONE NORMALE o DI GAUSS
Osservando gli istogrammi delle
misure e degli scarti, nel caso di
osservazioni ripetute in identiche
condizioni
Gli istogrammi sono campanulari e simmetrici, con la colonna
centrale corrispondente alla media aritmetica (misure) e allo zero
(scarti).
– p. 1/2
LA DISTRIBUZIONE NORMALE o DI GAUSS
Osservando gli istogrammi delle
misure e degli scarti, nel caso di
osservazioni ripetute in identiche
condizioni
Gli istogrammi sono campanulari e simmetrici, con la colonna
centrale corrispondente alla media aritmetica (misure) e allo zero
(scarti).
Le misure prossime alla media sono più numerose di quelle lontane.
Gli scarti più piccoli sono più numerosi di quelli grandi.
– p. 1/2
LA DISTRIBUZIONE NORMALE o DI GAUSS
Osservando gli istogrammi delle
misure e degli scarti, nel caso di
osservazioni ripetute in identiche
condizioni
Gli istogrammi sono campanulari e simmetrici, con la colonna
centrale corrispondente alla media aritmetica (misure) e allo zero
(scarti).
Le misure prossime alla media sono più numerose di quelle lontane.
Gli scarti più piccoli sono più numerosi di quelli grandi.
Il numero delle misure maggiori della media è all’incirca uguale a
quello delle misure minori della media. Il numero deli scarti positivi (in
eccesso) è all’incirca uguale a quello degli scarti negativi (in difetto).
– p. 1/2
LA DISTRIBUZIONE NORMALE o DI GAUSS
Osservando gli istogrammi delle
misure e degli scarti, nel caso di
osservazioni ripetute in identiche
condizioni
Gli istogrammi sono campanulari e simmetrici, con la colonna
centrale corrispondente alla media aritmetica (misure) e allo zero
(scarti).
Le misure prossime alla media sono più numerose di quelle lontane.
Gli scarti più piccoli sono più numerosi di quelli grandi.
Il numero delle misure maggiori della media è all’incirca uguale a
quello delle misure minori della media. Il numero deli scarti positivi (in
eccesso) è all’incirca uguale a quello degli scarti negativi (in difetto).
Una funzione analitica atta a rappresentare una tale distribuzione
deve essere simmetrica, unimodale e campanulare.
– p. 1/2
DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI
Proprietà ipotetiche dedotte da Gauss dalle
osservazioni:
s = x − x∗ scarto di una misura dal valore vero
– p. 2/2
DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI
Proprietà ipotetiche dedotte da Gauss dalle
osservazioni:
s = x − x∗ scarto di una misura dal valore vero
1. Se s > 0 e s < 0 equiprobabili → distribuzione degli
scarti simmetrica rispetto allo zero.
– p. 2/2
DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI
Proprietà ipotetiche dedotte da Gauss dalle
osservazioni:
s = x − x∗ scarto di una misura dal valore vero
1. Se s > 0 e s < 0 equiprobabili → distribuzione degli
scarti simmetrica rispetto allo zero.
2. Scarti piccoli più probabili: se |s1 | > |s2 | →
P (|s1 |) < P (|s2 |).
– p. 2/2
DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI
Proprietà ipotetiche dedotte da Gauss dalle
osservazioni:
s = x − x∗ scarto di una misura dal valore vero
1. Se s > 0 e s < 0 equiprobabili → distribuzione degli
scarti simmetrica rispetto allo zero.
2. Scarti piccoli più probabili: se |s1 | > |s2 | →
P (|s1 |) < P (|s2 |).
3. Condizione di normalizzazione (ipotesi aggiuntiva)
Z +∞
f (s) ds = 1
−∞
– p. 2/2
DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI
In base alle 3 ipotesi e dal principio della media
aritmetica a Gauss derivò che la distribuzione degli
scarti di misure affette da errori accidentali è descritta
2 2
h
−h
da: f (s) = √π e s funzione di Gauss o legge
normale di distribuzione degli errori
– p. 3/2
DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI
Soddisfa alle 3 ipotesi iniziali:
– p. 4/2
DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI
Soddisfa alle 3 ipotesi iniziali:
1. Forma a campana simmetrica rispetto a s = 0;
– p. 4/2
DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI
Soddisfa alle 3 ipotesi iniziali:
1. Forma a campana simmetrica rispetto a s = 0;
2. Decrescente per |s| crescente;
– p. 4/2
DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI
Soddisfa alle 3 ipotesi iniziali:
1. Forma a campana simmetrica rispetto a s = 0;
2. Decrescente per |s| crescente;
3. Tendente a zero per s → ±∞, come richiesto dalla
condizione di normalizzazione)
– p. 4/2
DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI
Soddisfa alle 3 ipotesi iniziali:
1. Forma a campana simmetrica rispetto a s = 0;
2. Decrescente per |s| crescente;
3. Tendente a zero per s → ±∞, come richiesto dalla
condizione di normalizzazione)
La legge normale degli scarti dipende da un solo
parametro h, detto modulo di precisione della misura.
Tanto maggiore è h tanto minore è la dispersione delle
misure rispetto alla media.
– p. 4/2
DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI
Soddisfa alle 3 ipotesi iniziali:
1. Forma a campana simmetrica rispetto a s = 0;
2. Decrescente per |s| crescente;
3. Tendente a zero per s → ±∞, come richiesto dalla
condizione di normalizzazione)
La legge normale degli scarti dipende da un solo
parametro h, detto modulo di precisione della misura.
Tanto maggiore è h tanto minore è la dispersione delle
misure rispetto alla media.
Per h descrecente la campana si abbassa e si allarga.
– p. 4/2
PROPRIETÀ DELLA LEGGE NORMALE
Hp: Supponiamo di aver infinite misure, N → ∞
– p. 5/2
PROPRIETÀ DELLA LEGGE NORMALE
Hp: Supponiamo di aver infinite misure, N → ∞
Valore di aspettazione dello variabile scarto:
+∞
h
sf (s)ds =
E(s) = √
π −∞
Z +∞
h
−h2 s2
√
ds = 0
se
π −∞
è identicamente nullo.
Z
– p. 5/2
PROPRIETÀ DELLA LEGGE NORMALE
Hp: Supponiamo di aver infinite misure, N → ∞
Valore di aspettazione dello variabile scarto:
+∞
h
sf (s)ds =
E(s) = √
π −∞
Z +∞
h
−h2 s2
√
ds = 0
se
π −∞
è identicamente nullo.
Z
Ne segue un’importantissima conseguenza:
E(s) = E (x − x∗ ) = E(x) − x∗ = 0 → E(x) = x∗
– p. 5/2
PROPRIETÀ DELLA LEGGE NORMALE
E(x) = x∗
– p. 6/2
PROPRIETÀ DELLA LEGGE NORMALE
E(x) = x∗
Il valore di aspettazione delle misure di una grandezza
fisica affette solo da errori casuali esiste, e coincide con
il valore vero della grandezza misurata.
– p. 6/2
PROPRIETÀ DELLA LEGGE NORMALE
ERRORE MEDIO θ: il valore di
aspettazione del
modulo dello scarto θ = E |s|
1
θ= √
h π
– p. 7/2
PROPRIETÀ DELLA LEGGE NORMALE
ERRORE MEDIO θ: il valore di
aspettazione del
modulo dello scarto θ = E |s|
1
θ= √
h π
ERRORE PROBABILE ρ: quel valore di s per cui metà
delle misure ha |s| ≤ ρ
Z +ρ
f (s)ds = 0.5
−ρ
– p. 7/2
PROPRIETÀ DELLA LEGGE NORMALE
ERRORE MEDIO θ: il valore di
aspettazione del
modulo dello scarto θ = E |s|
1
θ= √
h π
ERRORE PROBABILE ρ: quel valore di s per cui metà
delle misure ha |s| ≤ ρ
Z +ρ
f (s)ds = 0.5
−ρ
ERRORE QUADRATICO MEDIO σ : è la radice
quadrata del valore di aspettazione del quadrato degli
1
1
2
scarti ( E s = 2h2 ) σ = √
2h
– p. 7/2
RELAZIONI TEORICHE
Per misure affette da errori distribuiti secondo la legge
normale:
l’errore quadratico medio ed il modulo di precisione h
soddisfano alla relazione σ =
1
√
h 2
– p. 8/2
RELAZIONI TEORICHE
Per misure affette da errori distribuiti secondo la legge
normale:
l’errore quadratico medio ed il modulo di precisione h
soddisfano alla relazione σ =
1
√
h 2
Il rapporto tra errore probabile ed errore quadratico
medio vale σρ ≃ 0.674
– p. 8/2
RELAZIONI TEORICHE
Per misure affette da errori distribuiti secondo la legge
normale:
l’errore quadratico medio ed il modulo di precisione h
soddisfano alla relazione σ =
1
√
h 2
Il rapporto tra errore probabile ed errore quadratico
medio vale σρ ≃ 0.674
Il rapporto tra errore medio ed errore quadratico medio
vale
θ
σ
≃ 0.798
– p. 8/2
RELAZIONI TEORICHE
– p. 9/2
DISTRIBUZIONI DELLE MISURE E DEGLI SCARTI
Esprimendo h in funzione di σ la legge di Gauss diventa
f (s) =
√1
σ 2π
s2
−
e 2σ 2
– p. 10/2
DISTRIBUZIONI DELLE MISURE E DEGLI SCARTI
Esprimendo h in funzione di σ la legge di Gauss diventa
f (s) =
√1
σ 2π
s2
−
e 2σ 2
Esprimendo s = x − µ otteniamo f (x) =
√1
σ 2π
1
−
e 2
x−µ 2
σ
– p. 10/2
DISTRIBUZIONI DELLE MISURE E DEGLI SCARTI
Esprimendo h in funzione di σ la legge di Gauss diventa
f (s) =
√1
σ 2π
s2
−
e 2σ 2
Esprimendo s = x − µ otteniamo f (x) =
√1
σ 2π
1
−
e 2
x−µ 2
σ
– p. 10/2
LO SCARTO NORMALIZZATO
Essendo la distribuzione normale largamente utilizzata
e non avendo il suo integrale indefinito una forma
analitica, per il calcolo delle probabilità vengono usati
valori pre-tabulati.
– p. 11/2
LO SCARTO NORMALIZZATO
Essendo la distribuzione normale largamente utilizzata
e non avendo il suo integrale indefinito una forma
analitica, per il calcolo delle probabilità vengono usati
valori pre-tabulati.
Impossibile avere tabelle per tutte le possibili coppie di
valori dei parametri σ e µ. È quindi conveniente rendere
il calcolo della funzione cumulativa F (x) indipendente
dai parametri.
– p. 11/2
LO SCARTO NORMALIZZATO
Essendo la distribuzione normale largamente utilizzata
e non avendo il suo integrale indefinito una forma
analitica, per il calcolo delle probabilità vengono usati
valori pre-tabulati.
Impossibile avere tabelle per tutte le possibili coppie di
valori dei parametri σ e µ. È quindi conveniente rendere
il calcolo della funzione cumulativa F (x) indipendente
dai parametri.
Definiamo scarto normalizzato o variabile normale
x−µ
standardizzata t =
σ
– p. 11/2
LO SCARTO NORMALIZZATO
Essendo la distribuzione normale largamente utilizzata
e non avendo il suo integrale indefinito una forma
analitica, per il calcolo delle probabilità vengono usati
valori pre-tabulati.
Impossibile avere tabelle per tutte le possibili coppie di
valori dei parametri σ e µ. È quindi conveniente rendere
il calcolo della funzione cumulativa F (x) indipendente
dai parametri.
Definiamo scarto normalizzato o variabile normale
x−µ
standardizzata t =
σ
La densità di probabilità della variabile t è
1 − 1 t2
ϕ(t) = √ e 2
2π
– p. 11/2
DISTRIBUZIONE NORMALE STANDARDIZZATA
Indipendente dall’errore quadratico medio, ovvero dalla
precisione della misura.
– p. 12/2
DISTRIBUZIONE NORMALE STANDARDIZZATA
Indipendente dall’errore quadratico medio, ovvero dalla
precisione della misura.
La distribuzione normale standardizzata è una
particolare normale con E(x) = 0 e σ = 1.
1 − 1 t2
ϕ(t) = √ e 2
2π
– p. 12/2
DISTRIBUZIONE NORMALE STANDARDIZZATA
Alla normale standardizzata può essere ricondotta qualunque
x−µ
funzione di Gauss, effettuando il cambio di variabili: t =
σ
Z z
Z µ+zσ
1 x−µ 2
1 − 1 t2
1
√ e− 2 σ
√ e 2 dt =
valendo la relazione:
2π
−z
µ−zσ σ 2π
– p. 13/2
DISTRIBUZIONE NORMALE STANDARDIZZATA
Alla normale standardizzata può essere ricondotta qualunque
x−µ
funzione di Gauss, effettuando il cambio di variabili: t =
σ
Z z
Z µ+zσ
1 x−µ 2
1 − 1 t2
1
√ e− 2 σ
√ e 2 dt =
valendo la relazione:
2π
−z
µ−zσ σ 2π
Esistono delle tabelle per il calcolo dell’integrale della distribuzione
normale standardizzata
– p. 13/2
DISTRIBUZIONE NORMALE STANDARDIZZATA
Alla normale standardizzata può essere ricondotta qualunque
x−µ
funzione di Gauss, effettuando il cambio di variabili: t =
σ
Z z
Z µ+zσ
1 x−µ 2
1 − 1 t2
1
√ e− 2 σ
√ e 2 dt =
valendo la relazione:
2π
−z
µ−zσ σ 2π
Esistono delle tabelle per il calcolo dell’integrale della distribuzione
normale standardizzata
La distribuzione normale standardizzata presenta le stesse
caratteristiche della distribuzione normale NON standardizzata. Ciò
che distingue le due distribuzioni è che la normale standardizzata ha
µ = 0 e σ = 1.
– p. 13/2
DISTRIBUZIONE NORMALE STANDARDIZZATA
L’aspetto più importante della standardizzazione è che
trasformando una distribuzione normale di parametri
(µ, σ ) nella distribuzione standardizzata (0, 1), le aree
individuate nella prima da due qualsiasi ascisse x1 e x2
sono uguali alle aree individuate nella seconda dagli
scarti normalizzati
x1 − µ
x2 − µ
t1 =
t2 =
σ
σ
– p. 14/2
DISTRIBUZIONE NORMALE STANDARDIZZATA
La distribuzione normale standardizzata è
rappresentata da UNA SOLA CURVA, mentre la
distribuzione normale generale è costituita da una
famiglia a seconda dei valori di µ e σ .
– p. 15/2
LO SCARTO
NORMALIZZATO
Z
+1
Pr t ∈ [−1, +1]
Pr t ∈ [−2, +2]
Pr t ∈ [−3, +3]
=
=
=
√1
2π
√1
2π
2
− t2
√1
2π
e
Z−1
+2
Z−2
+3
2
− t2
e
2
− t2
e
dt = 0.6827 . . .
dt = 0.9545 . . .
dt = 0.9973 . . .
−3
– p. 16/2
LO SCARTO NORMALIZZATO
Ricordando che t = s/σ
Pr s ∈ [−σ, +σ]
≡ Pr t ∈ [−1, +1] ≈ 0.6827
Pr s ∈ [−2σ, +2σ] ≡ Pr t ∈ [−2, +2] ≈ 0.9545
Pr s ∈ [−3σ, +3σ] ≡ Pr t ∈ [−3, +3] ≈ 0.9973
– p. 17/2
INTERPRETAZIONE PROBABILISTICA DI σ
Le misure affette da errori casuali (e quindi normali)
hanno una probabilità del 68% di cadere all’interno di
un intervallo di semiampiezza σ centrato sul valore vero
della grandezza misurata. Il 95% e il 99,7% (quasi la
totalità) delle misure sono affette da errore in modulo
minore o al piu‘ uguale a 2σ e 3σ rispettivemente.
– p. 18/2
INTERPRETAZIONE PROBABILISTICA DI σ
Le misure affette da errori casuali (e quindi normali)
hanno una probabilità del 68% di cadere all’interno di
un intervallo di semiampiezza σ centrato sul valore vero
della grandezza misurata. Il 95% e il 99,7% (quasi la
totalità) delle misure sono affette da errore in modulo
minore o al piu‘ uguale a 2σ e 3σ rispettivemente.
L’intervallo di semiampiezza σ centrato su di una misura
qualsiasi di un campione ha pertanto una probabilità
del 68% di contenere il valore vero, sempreché gli errori
siano casuali e normali.
– p. 18/2
ESAME DEI DATI: criterio del 3σ
In una serie di misure dirette quale criterio per
individuare dati sospetti e anomali?
– p. 19/2
ESAME DEI DATI: criterio del 3σ
In una serie di misure dirette quale criterio per
individuare dati sospetti e anomali?
Si calcolano x e σx
– p. 19/2
ESAME DEI DATI: criterio del 3σ
In una serie di misure dirette quale criterio per
individuare dati sospetti e anomali?
Si calcolano x e σx
Si eliminano le misure |x − x̄| > 3σ (p ∼ 0.003).
– p. 19/2
ESAME DEI DATI: criterio del 3σ
In una serie di misure dirette quale criterio per
individuare dati sospetti e anomali?
Si calcolano x e σx
Si eliminano le misure |x − x̄| > 3σ (p ∼ 0.003).
Si ricalcolano x e σx
– p. 19/2
STIMA DELL’ERRORE QUADRATICO MEDIO
Si abbiano n misure xi di una stessa grandezza fisica
– p. 20/2
STIMA DELL’ERRORE QUADRATICO MEDIO
Si abbiano n misure xi di una stessa grandezza fisica
Sia ǫi = xi − x∗ l’errore di una misura, dove x∗ è il valore vero
(incognito) della grandezza fisica in esame.
– p. 20/2
STIMA DELL’ERRORE QUADRATICO MEDIO
Si abbiano n misure xi di una stessa grandezza fisica
Sia ǫi = xi − x∗ l’errore di una misura, dove x∗ è il valore vero
(incognito) della grandezza fisica in esame.
n
1X
Sia ǫ =
ǫi l’errore da associare alla media aritmetica.
n i=1
– p. 20/2
STIMA DELL’ERRORE QUADRATICO MEDIO
Si abbiano n misure xi di una stessa grandezza fisica
Sia ǫi = xi − x∗ l’errore di una misura, dove x∗ è il valore vero
(incognito) della grandezza fisica in esame.
n
1X
Sia ǫ =
ǫi l’errore da associare alla media aritmetica.
n i=1
Sia si = xi − x lo scarto di una misura rispetto alla media aritmetica.
– p. 20/2
STIMA DELL’ERRORE QUADRATICO MEDIO
Si abbiano n misure xi di una stessa grandezza fisica
Sia ǫi = xi − x∗ l’errore di una misura, dove x∗ è il valore vero
(incognito) della grandezza fisica in esame.
n
1X
Sia ǫ =
ǫi l’errore da associare alla media aritmetica.
n i=1
Sia si = xi − x lo scarto di una misura rispetto alla media aritmetica.
Ne segue che ǫi = si + ǫ.
– p. 20/2
STIMA DELL’ERRORE QUADRATICO MEDIO
Si abbiano n misure xi di una stessa grandezza fisica
Sia ǫi = xi − x∗ l’errore di una misura, dove x∗ è il valore vero
(incognito) della grandezza fisica in esame.
n
1X
Sia ǫ =
ǫi l’errore da associare alla media aritmetica.
n i=1
Sia si = xi − x lo scarto di una misura rispetto alla media aritmetica.
Ne segue che ǫi = si + ǫ.
Quadriamo: (ǫi )2 = (si )2 + ǫ2 + 2si ǫ
– p. 20/2
STIMA DELL’ERRORE QUADRATICO MEDIO
Si abbiano n misure xi di una stessa grandezza fisica
Sia ǫi = xi − x∗ l’errore di una misura, dove x∗ è il valore vero
(incognito) della grandezza fisica in esame.
n
1X
Sia ǫ =
ǫi l’errore da associare alla media aritmetica.
n i=1
Sia si = xi − x lo scarto di una misura rispetto alla media aritmetica.
Ne segue che ǫi = si + ǫ.
Quadriamo: (ǫi )2 = (si )2 + ǫ2 + 2si ǫ
Sommiamo da 1 a n
n
n
n
n
X
X
X
X
[(si )2 + ǫ2 + 2si ǫ] =
(ǫi )2 =
(si )2 + nǫ2 + 2ǫ
si
i=1
n
X
i=1
(ǫi )2 =
i=1
n
X
i=1
i=1
(si )2 + nǫ2
i=1
– p. 20/2
STIMA DELL’ERRORE
QUADRATICO
MEDIO
P
P
Dividiamo per n →
n
2
i=1 (ǫi )
n
=
n
2
i=1 (si )
n
+ ǫ2
– p. 21/2
STIMA DELL’ERRORE
QUADRATICO
MEDIO
P
P
Dividiamo per n →
n
2
i=1 (ǫi )
n
n
2
i=1 (si )
=
n
+ ǫ2
La varianza è dunque:
2
σ =
Pn
i=1 (si )
n
2
+ ǫ2
(1)
espressa in funzione degli scarti e dell’errore della media, ancora
incognito.
– p. 21/2
STIMA DELL’ERRORE
QUADRATICO
MEDIO
P
P
Dividiamo per n →
n
2
i=1 (ǫi )
n
n
2
i=1 (si )
=
n
+ ǫ2
La varianza è dunque:
2
σ =
Pn
i=1 (si )
n
2
+ ǫ2
(1)
espressa in funzione degli scarti e dell’errore della media, ancora
incognito.
Quadriamo l’errore
della media:
!
2
n
X
1
1
si
= 2 (ǫ1 + ǫ2 + · · · ǫn )2 =
ǫ2 = 2
n
n
i=1
1 2
2
2
(ǫ
+
ǫ
+
·
·
·
ǫ
1
2
n + 2ǫ1 ǫ2 + 2ǫ1 ǫ3 + · · · )
2
n
#
" n
1 X
2
ǫ = 2
(ǫi )2 + (2ǫ1 ǫ2 + 2ǫ1 ǫ3 + · · · )
n i=1
– p. 21/2
STIMA DELL’ERRORE
QUADRATICO
MEDIO
P
P
Dividiamo per n →
n
2
i=1 (ǫi )
n
n
2
i=1 (si )
=
n
+ ǫ2
La varianza è dunque:
2
σ =
Pn
i=1 (si )
n
2
+ ǫ2
(1)
espressa in funzione degli scarti e dell’errore della media, ancora
incognito.
Quadriamo l’errore
della media:
!
2
n
X
1
1
si
= 2 (ǫ1 + ǫ2 + · · · ǫn )2 =
ǫ2 = 2
n
n
i=1
1 2
2
2
(ǫ
+
ǫ
+
·
·
·
ǫ
1
2
n + 2ǫ1 ǫ2 + 2ǫ1 ǫ3 + · · · )
2
n
#
" n
1 X
2
ǫ = 2
(ǫi )2 + (2ǫ1 ǫ2 + 2ǫ1 ǫ3 + · · · )
n i=1
La somma dei termini misti può essere ragionevolmente posta = 0
per la simmetria della distribuzione di Gauss degli errori.
– p. 21/2
STIMA DELL’ERRORE QUADRATICO MEDIO
Il quadrato dell’errore della
 nmedia è quindi:
X
#
" n
(ǫi )2 

2
X


σ
1
1
i=1
=
(ǫi )2 = 
ǫ2 = 2

n i=1
n
n
n


– p. 22/2
STIMA DELL’ERRORE QUADRATICO MEDIO
Il quadrato dell’errore della
 nmedia è quindi:
X
#
" n
(ǫi )2 

2
X


σ
1
1
i=1
=
(ǫi )2 = 
ǫ2 = 2

n i=1
n
n
n


Introduciamo
questa relazione nell’ Eq. (1)
Pn
2
2
(s
)
σ
i
σ 2 = i=1
+
n
n
– p. 22/2
STIMA DELL’ERRORE QUADRATICO MEDIO
Il quadrato dell’errore della
 nmedia è quindi:
X
#
" n
(ǫi )2 

2
X


σ
1
1
i=1
=
(ǫi )2 = 
ǫ2 = 2

n i=1
n
n
n


Introduciamo
questa relazione nell’ Eq. (1)
Pn
2
2
(s
)
σ
i
σ 2 = i=1
+
n
n
Pn
Pn
2
2
(s
)
(s
)
1
i
i
→ σ 2 = i=1
= i=1
Esplicitiamo σ 2 → σ 2 1 −
n
n
n−1
– p. 22/2
STIMA DELL’ERRORE QUADRATICO MEDIO
Il quadrato dell’errore della
 nmedia è quindi:
X
#
" n
(ǫi )2 

2
X


σ
1
1
i=1
=
(ǫi )2 = 
ǫ2 = 2

n i=1
n
n
n


Introduciamo
questa relazione nell’ Eq. (1)
Pn
2
2
(s
)
σ
i
σ 2 = i=1
+
n
n
Pn
Pn
2
2
(s
)
(s
)
1
i
i
→ σ 2 = i=1
= i=1
Esplicitiamo σ 2 → σ 2 1 −
n
n
n−1
sP
n
2
i=1 (si )
Infine:
σ=
n−1
che esprime lo scarto quadratico medio in funzione di tutti e soli gli
scarti delle misure.
– p. 22/2
STIMA DELL’ERRORE QUADRATICO MEDIO DELLA MEDIA
L’errore della media o scarto quadratico medio della media deriva
dall’Eq. (??)
sP
r
n
2
σ2
σ
i=1 (si )
=√
σx =
σx =
n
n(n − 1)
n
– p. 23/2
STIMA DELL’ERRORE QUADRATICO MEDIO DELLA MEDIA
L’errore della media o scarto quadratico medio della media deriva
dall’Eq. (??)
sP
r
n
2
σ2
σ
i=1 (si )
=√
σx =
σx =
n
n(n − 1)
n
Il guadagno in precisione
all’aumentare del numero di
misure non scala linearmente
con n. Inoltre Il processo non
può essere spinto all’infinito:
interviene l’usura degli strumenti,
verificarsi di errori accidentali,
ecc.
– p. 23/2
INDETERMINAZIONI STATISTICHE
Nel caso di misure ripetute
lo scarto quadratico medio σm rappresenta
l’indeterminazione statistica da associare alla singola
misura. Infatti se prendiamo un qualunque misura mi , si
ha il ∼ 68% di probabilità che |mi − m| ≤ σm e cioè che
nell’intervallo
mi − σm | − − − − − −mi − −m − − − −|mi − σm
sia compreso il valore m assunto per vero.
– p. 24/2
INDETERMINAZIONI STATISTICHE
Nel caso di misure ripetute
lo scarto quadratico medio σm rappresenta
l’indeterminazione statistica da associare alla singola
misura. Infatti se prendiamo un qualunque misura mi , si
ha il ∼ 68% di probabilità che |mi − m| ≤ σm e cioè che
nell’intervallo
mi − σm | − − − − − −mi − −m − − − −|mi − σm
sia compreso il valore m assunto per vero.
lo scarto quadratico medio della media σm rappresenta
l’indeterminazione statistica da associare alla media
aritmetica. Essa è minore di quella della singola misura
di un fattore 1/n.
– p. 24/2
INDETERMINAZIONI STATISTICHE
Nel caso di misure ripetute
lo scarto quadratico medio σm rappresenta
l’indeterminazione statistica da associare alla singola
misura. Infatti se prendiamo un qualunque misura mi , si
ha il ∼ 68% di probabilità che |mi − m| ≤ σm e cioè che
nell’intervallo
mi − σm | − − − − − −mi − −m − − − −|mi − σm
sia compreso il valore m assunto per vero.
lo scarto quadratico medio della media σm rappresenta
l’indeterminazione statistica da associare alla media
aritmetica. Essa è minore di quella della singola misura
di un fattore 1/n.
– p. 24/2
TEOREMA DEL LIMITE CENTRALE
Hp: N variabili casuali xi , statisticamente indipendenti e provenienti
da una distribuzione avente densità di probabilità ignota, della quale
esistano finite sia la media µi che la varianza σi2 .
– p. 25/2
TEOREMA DEL LIMITE CENTRALE
Hp: N variabili casuali xi , statisticamente indipendenti e provenienti
da una distribuzione avente densità di probabilità ignota, della quale
esistano finite sia la media µi che la varianza σi2 .
Th: Una qualunque cobinazione lineare delle variabili con coefficienti
αi , tende asintoticamente alla distribuzione normale con media µ e
varianza σ 2 /N al crescere di N → ∞.
µ=
N
X
i=1
αi µi
σ2 =
N
X
αi2 σi2
i=1
– p. 25/2
TEOREMA DEL LIMITE CENTRALE
Hp: N variabili casuali xi , statisticamente indipendenti e provenienti
da una distribuzione avente densità di probabilità ignota, della quale
esistano finite sia la media µi che la varianza σi2 .
Th: Una qualunque cobinazione lineare delle variabili con coefficienti
αi , tende asintoticamente alla distribuzione normale con media µ e
varianza σ 2 /N al crescere di N → ∞.
µ=
N
X
i=1
αi µi
σ2 =
N
X
αi2 σi2
i=1
Nessuna ipotesi sulle distribuzioni delle variabili; unico requisito:
esistenza di media e varianza.
– p. 25/2
TEOREMA DEL LIMITE CENTRALE
Hp: N variabili casuali xi , statisticamente indipendenti e provenienti
da una distribuzione avente densità di probabilità ignota, della quale
esistano finite sia la media µi che la varianza σi2 .
Th: Una qualunque cobinazione lineare delle variabili con coefficienti
αi , tende asintoticamente alla distribuzione normale con media µ e
varianza σ 2 /N al crescere di N → ∞.
µ=
N
X
i=1
αi µi
σ2 =
N
X
αi2 σi2
i=1
Nessuna ipotesi sulle distribuzioni delle variabili; unico requisito:
esistenza di media e varianza.
Particolarizzando alla media aritmetica: x, tende asintoticamente alla
distribuzione normale con media µ e varianza σ 2 /N al crescere di N .
– p. 25/2
TEOREMA DEL LIMITE CENTRALE
– p. 26/2
TEOREMA DEL LIMITE CENTRALE
La figura precedente mostra il teorema del limite centrale all’opera. I
tre pannelli in alto mostrano tre distribuzioni continue di eventi
generati secondo una distribuzione normale (sinistra), uniforme
(centro) ed esponenziale (destra).
Successivamente (dall’alto verso il basso) sono mostrate le
distribuzioni delle medie di n variabili casuali estratte dalle due
distribuzioni. n vale, nell’ordine, 2, 5, 30.
Al crescere di n le distribuzioni della media tendono ad assumere
una forma regolare a campana, indipendentemente dalle distribuzioni
iniziali, fino a convergere a distribuzioni normali.
Da notare il secondo pannello centrale dall’alto (per n = 2). La forma
triangolare corrisponde, ad esempio, alla distribuzione della variabile
“somma del punteggio di due dadi”, già incontrata.
Visuallizza qui
– p. 27/2