Distribuzioni di probabilita` - INFN Cagliari

Distribuzioni di probabilita'
Densita' di probabilita'(p.d.f.): P(x < X < x+dx)=f(x)dx ∫E f  x  dx=1
x
F di distribuzione cumulativa
F  x =∫x
Media, mediana e moda:
min
f  x '  dx '
F(xmedian) = ½
Moda: x tale che f(x)=max
Valore di aspettazione:
E g  x =∫E g  x  f  x  dx
E e' un operatore lineare
Media:
=E  x =∫E xf  x  dx
Alessandro De Falco, INFN Cagliari
1
8/19/09
Varianza e momenti di ordine piu'
alto
Media:
=E  x =∫E xf  x  dx
Varianza:
 =E  x− =∫E  x− f  x  dx
Momento k-mo intorno alla media:
k =E  x− =∫E  x− f  x dx
2
Coefficiente di asimmetria (skewness):
2
2
k
k
1=
 2=
Curtosi:
3

3 /2
2
4

2
2
3
=
E  x−

3
−3
Questa definizione implica un confronto con la gaussiana.2>0 (<0) implica che la
distribuzione e' piu' (meno) piccata intorno alla media rispetto ad una distribuzione
normale
1
Vale la diseguaglianza di Bienamye'-Tschebycheff:P∣x−E  x ∣≥ ≤ 2

che limita la probabilita' che x si allontani dal valore
medio per un certo numero di deviazioni standard.
Alessandro De Falco, INFN Cagliari
2
8/19/09
Distribuzioni di piu' variabili
Densita' di probabilita' congiunta: f  x 1, x 2,. .. x n 
∫ f  x 1, x 2,. .. x n  dx1 dx 2 .... dx n=1

Le regole per il calcolo del valore medio di una funzione,
media, varianza etc si applicano in maniera immediata
Matrice di covarianza:
V ij ≡E  x i−i  x j− j =∫  x i− i  x j− j  f  x 1, x 2,. .. x n  dx 1 dx 2 .... dx n

V e' simmetrica
l' elemento diagonale i-mo Vii=i2 e' detto varianza di xi ed e' non negativo.
L'elemento non diagonale Vij=cov(xi,xj) e' detto covarianza di xi e xj
Viene spesso utilizzato il coefficiente di correlazione
  x i , x j =
cov  x i , x j 
Si dimostra che
i  j
Alessandro De Falco, INFN Cagliari
3
−1≤≤1
8/19/09
Le variabili xi sono indipendenti se la loro probabilita' congiunta e'
fattorizzabile: f  x x ... , x = f  x  f  x  ... f  x 
1,
n
2,.
1
1
2
n
2
n
In questo caso gli elementi non diagonali della matrice di
covarianza sono nulli. Inoltre E(xixj)=E(xi)E(xj)
Una proiezione della p.d.f. In un sottospazio e' chiamato distribuzione
marginale. Es.:
x  max  x  max 
x  max 
2
h 1  x 1 =
3
∫
....
∫
x 2  min x 3 min 
n
∫
x n  min
f  x 1, x 2,. .. x n  dx 2 .... dx n
se le variabili sono indipendenti la p.d.f. congiunta e' fattorizzabile
nelle distribuzioni marginali.
La distribuzione condizionata è definita come
f  x 1, x 2,. .. , x n∣x j =
f  x 1, x 2,. .. x n 
h j x j
Cambiamento di variabili.
y=y  x 
Nota la pdf f(x) trovare g(y)
Generalizzazione a piu' variabili:
g  y=J 
Alessandro De Falco, INFN Cagliari
x 1, x 2,. .. , x n
4
y1, y 2,. .. y n
dx
∣ ∣
g  y =
dy
f x
 f  x
8/19/09
Propagazione degli errori
Sia y=y  x x .. x = y x
con V  x  nota. Stimiamo la
varianza di y.
Al primo ordine: y  x ≈y  ∑  x −  ∂ y 
1,
2,.
n
n
i
i=1
i
∂ xi
x=
E  y  x ≈ y 
2
V  y  x =E  y  x −E  y  x  ≈ E y x−y 
n
y  x −y ≈∑  x i−i 
i=1
n
n
V  y  x ≈∑ ∑ 
i=1 j=1
∂y
∂ xi
n


x=
n
V  y  x ≈∑ ∑ 
i=1 j=1
∂y
∂ xj
∂y
∂ xi
n
Per variabili indipendenti
V  y  x ≈∑ 
i=1

x=


x=
∂y
∂ xi
∂y
∂ xi
2

x=
E  xi − i  x j − j 
∂y
∂ xj
2

x=

x=
V ij  x 
Legge di propagazione
degli errori
V ii  x
Le formule sono generalizzabili al caso di m funzioni yk di n variabili xi
Alessandro De Falco, INFN Cagliari
5
8/19/09
Anticipazioni sul campionamento
La p.d.f. f(x) di una variabile continua x, descrive le
proprieta' di una popolazione (o universo).
Un esperimento consistera' di un numero finito di misure
x1,x2,...xn, che costituiscono un campione.
Due quantita' che caratterizzano il campione sono la media
aritmetica e la varianza:
x=
1
n
∑ xi
n i =1
2
s =
1
n−1
n
∑  x i− x
i=1
2
Necessario perche'
s2 costituisca uno
stimatore senza bias
di σ2
Media e varianza sono ancora variabili casuali
Appartengono alla popolazione normale
Sono indipendenti
La media e' distribuita come una variabile normale
S2 e' legata alla distribuzione di χ2
Gli argomenti accennati in questa trasparenza verranno
approfonditi in seguito
Alessandro De Falco, INFN Cagliari
6
8/19/09
Funzione caratteristica
Data la densita' di probabilita' f(x), consideriamo la funzione caratteristica:
 k ≡ f k ≡⟨ eikx ⟩=∫ eikx f  x dx
Per variabili continue, la funzione caratteristica e' la trasformata di Fourier di
f(x)
(per variabili discrete:
ikx i
 k =∑ e
P  x= xi 
)
Se f(x) e' la convoluzione di g(x) e h(x), allora la funzione caratteristica di f(x)
e' il prodotto delle funzioni caratteristiche di g(x) e h(x)
 f  k = g  k ⋅ h  k 
f  x= dx ' g x '  h x−x ' 
∫
Se E(x) = 0
dn
dk n
Inoltre
f  x=
0=i n n
1
2
funzione funzione caratteristica caratteristica di f
di g
momento di ordine n
funzione caratteristica di h
∫ e−ikx   k  dk
La funzione caratteristica congiunta di due variabili indipendenti e' pari al
prodotto delle funzioni caratteristiche delle due variabili, ovvero e' fattorizzabile
Si puo' dimostrare che f(x) e' determinata univocamente dalla sua funzione caratteristica
La funzione caratteristica puo' essere utile nel calcolo
Alessandro De Falco, INFN Cagliari
7
8/19/09
Numeri random
Generazione di numeri casuali al calcolatore
I computers svolgono i calcoli in maniera deterministica!
I numeri generati al computer hanno un numero finito di cifre.
Una variabile potra' essere scritta nella forma
x= a 0 2 0 a1 2 1... a k−1 2 k−1
dove ai potra' essere uguale a 0 o ad 1, con probabilita' 1/2
Una variabile cosi' costruita ammettera' 2k valori diversi possibili.
Se e' possibile estrarre in maniera casuale equiprobabile i valori
degli ai, x avra' una distribuzione uniforme sui 2k valori discreti;
x/2k sara' distribuita tra 0 e 1.
Ogni numero (pseudo)casuale estratto da un computer sara'
funzione dei numeri estratti in precedenza.
x n = f  x n −1 , x n −2 , .... x 1
Alessandro De Falco, INFN Cagliari
8
8/19/09
Metodo lineare congruente
Una possibile funzione per la generazione di numeri random a
distribuzione piatta e' data da:
x n = mod ax n−1c , m
In questa maniera generiamo una sequenza con periodicità m
(purchè c e m non abbiano fattori comuni, a-1 sia un multiplo di
tutti i fattori primi di k e a-1 sia multiplo di 4 se m è multiplo di 4)
Ovviamente se durante la sequenza si ripete uno dei numeri
(interi), tutta la sequenza si ripeterà a partire da quel numero
Per ottenere una sequenza abbastanza lunga dobbiamo usare
a ed m abbastanza grandi, ma non tali per cui a*m causa un
overflow
x n =mod ax n−1c , 2 k 
Solitamente si usa m=2
k
Un generatore che segue questo algoritmo è un generatore
lineare congruente
Es.: routine drand48 nei sistemi AIX genera numeri random
tra 0 e 1 con buone proprietà spettrali. Drand48 usa k=48,
c=B(hex), a=5DEECE66D(hex)
Alessandro De Falco, INFN Cagliari
9
8/19/09
Esercizio: scrivere un generatore di numeri casuali con
a=5, c=13, k=12
verificare che la periodicita' e' 4096.
verificare che la distribuzione e' piatta
DOPO 150
EVENTI
DOPO 4096
EVENTI
DOPO 40960
EVENTI
(Il contatore in ascisse
viene riazzerato
ogni 4096 eventi)
Alessandro De Falco, INFN Cagliari
10
8/19/09
Effetto Marsiglia
Attenzione alle correlazioni!!!!
Uso il generatore col setting dell'esercizio
precedente, estraggo 3 numeri random in
sequenza, r1,r2,r3, e calcolo r3 vs r2-r1
Osserviamo delle evidenti correlazioni
Random numbers fall mainly in the planes:
n-ple successive di numeri generati da un
MCG si dispongono su (n!2nbits)1/n iperpiani
di uno spazio n dimensionale (effetto Marsiglia)
Provate con a=4097, c=10515, k=18
Il meglio che si può fare è aumentare il
numero di iperpiani con una scelta accorta
di a,c,k
Risultato per il generatore di Root
Alessandro De Falco, INFN Cagliari
11
8/19/09
Numeri casuali con distribuzione data
Calcolo analitico
E' possibile estrarre numeri casuali x con distribuzione f(x) a
partire da un set di numeri casuali y a distribuzione piatta
g(y)=1
Y
X
0
x min
Y =∫ dy= ∫ f  x  dx=F  X 
f  x  dx=g  y dy=dy
Se sappiamo integrare f(x), possiamo ricavare X in funzione
di Y.
Estraendo Y con distribuzione piatta tra 0 e 1 otterremo le X
corrispondenti distribuite come f(x)
Esercizio: generare dei numeri random con distribuzioni:
f  x=
1
cosh 2 ax 
f  x=
Alessandro De Falco, INFN Cagliari
Distribuzione simile
ad una gaussiana
1
1 x
12
2
8/19/09
Calcolo numerico
Se non sappiamo integrare f(x) possiamo ancora estrarre numeri casuali
distribuiti secondo f(x) in un intervallo (a,b) procedendo in due modi:
Metodo 1: Calcoliamo numericamente la funzione integrale a passi
discreti e per ogni y ricaviamo la x corrispondente
Normalizzo e
integro f(x) tra -∞
eX
Metodo 2:
✔
✔
✔
✔
✔
Estraggo una Y=F(X)
con distribuzione
piatta...
...Ed ottengo la
X corrispondente
distribuita come
f(x)
Nota: la funzione in questo
esempio puo' essere integrata
analiticamente
Determino fmax nell'intervallo (a,b)
Estraggo x con distribuzione uniforme, in modo che a<= x < b
Estraggo y con distribuzione uniforme, in modo che 0<=y<fmax
Tengo x se y<f(x)
Le x cosi' ottenute sono distribuite secondo la distribuzione f
Alessandro De Falco, INFN Cagliari
13
8/19/09
Metodo Monte Carlo per l'integrazione
di una funzione
Vogliamo determinare l'integrale 1
I 0 =∫ g  x dx 0g  x 1 per 0 x1
y
0
(xj,yj)
(xi,yi)
Estraggo N coppie (x,y) di numeri random a
distribuzione piatta
Conto il numero K di coppie per cui y<=g(x)
Stimo l'integrale come K/N
Posso generalizzare facilmente il calcolo al
caso xmin<x<xmax mediante la trasformazione
x = xmin + (xmax-xmin) x0-1 0<x0-1<1
ed eseguire un'analoga trasformazione per y
x Il metodo e' inefficiente per funzioni
di singola variabile, ma diventa
potente per funzioni di piu' variabili.
Alessandro De Falco, INFN Cagliari
14
8/19/09
Distribuzione binomiale
Prendo un esperimento che puo' dare due soli risultati A e A'
(E=A+A')
P  A= p
P  A' =1− p
Ripetiamo n volte l'esperimento
La probabilita' che il risultato dei primi k esperimenti sia A e quello dei
k
n−k
restanti n-k sia A' e'
p 1− p
Si puo' ottenere k volte l'evento A in n esperimenti in un numero di
combinazioni pari a n ! /[ k !  n−k  !]
La probabilità P di ottenere k volte A in n esperimenti è dunque
data data dalla:
P k , n , p=
n!
k
n−k
p 1− p
k ! n−k  !
Distribuzione binomiale
Valore medio =⟨ k ⟩=∑ k P k =np
Varianza
2
2
2
2
 =⟨ k− ⟩=⟨ k ⟩−⟨ k ⟩ =np1− p
La statistica binomiale si applica nel calcolo dell'efficienza
Alessandro De Falco, INFN Cagliari
15
8/19/09
Esempi di distribuzioni binomiali
p
n
Alessandro De Falco, INFN Cagliari
16
8/19/09
Esercizio: l'efficienza di uno scintillatore S viene determinata ponendolo
tra due scintillatori S1 e S2 e contando il numero k di eventi in cui S,S1 e
S2 hanno dato simultaneamente un segnale ed il numero n di eventi in
cui S1 e S2 hanno dato simultaneamente un segnale
(indipendentemente da S).
Eseguendo la misura si ottiene k=97, n=100.
Quale e' il valore dell'efficienza?
Quale e' l'errore?
raggio
cosmico
S1
S
S2
Esercizio 2: efficienza di scanning
Vengono eseguiti due scanning indipendenti su un campione di dati.
Siano ε1 ed ε2 le efficienze di scanning, che supponiamo gia'
determinate
Quale e' l'efficienza dell'OR dei due scanning e quale e' il suo errore?
Alessandro De Falco, INFN Cagliari
17
8/19/09
Statistica multinomiale
Generalizzazione della statistica binomiale. Se i risultati possibili
sono m,
E = A1 A2 ... A m
P  Ai = pi
m
∑ pi =1
i=1
la probabilita' di ottenere k1 volte A1,.... km volte Am in n
esperimenti e'
m
n!
k
P  k 1, k 2,. .. , k m , n= m
∏ pi
Distribuzione multinomiale
i
∏ ki !
i=1
i=1
Valore medio per 'i-mo evento
Elementi della matrice di covarianza:
⟨ x i ⟩=np i
c ij =npi ij − p j 
oss: gli elementi di matrice non diagonali non sono nulli (gli eventi
non sono indipendenti)
Alessandro De Falco, INFN Cagliari
18
8/19/09
Statistica di Poisson
Es. conteggi in uno scintillatore dovuti ad una sorgente
radioattiva
P k , =e
−

k
k!
Valore medio
=⟨ k ⟩=∑ k P k =
Varianza
 =⟨ k− ⟩=⟨ k ⟩−⟨ k ⟩ =
2
2
2
2
Per piccoli λ la distribuzione poissoniana e' molto asimmetrica
ed e' caratterizzata da una coda a destra del valore medio
skewness:
1
 3=  
Alessandro De Falco, INFN Cagliari
19
8/19/09
Esempi di distribuzioni poissoniane
Alessandro De Falco, INFN Cagliari
20
8/19/09
Alessandro De Falco, INFN Cagliari
=0.5
=1
=5
=0.5
=25
21
8/19/09
Statistica poissoniana: assunti
fondamentali
Si puo' ricavare la statistica poissoniana in maniera del tutto
generale sulla base di alcuni assunti.
Otteniamo la formula a partire da un esempio:
Tracciamento in camera a bolle:
Sia g il numero medio di bolle per unita' di lunghezza in una
traccia
consideriamo un tratto (piccolo) ∆l della traccia
Ipotesi:
✔
✔
✔
✔
g e' costante
C'e' al massimo una bolla nel tratto di lunghezza ∆l
La probabilita' di trovare una bolla lungo questo tratto e' proporzionale a ∆l
La presenza di una bolla tra l e l+∆l e' indipendente dalla presenza di bolle in
altri intervalli ad esso non sovrapposti
p1  l =g  l
probabilita' di avere una bolla in ∆l
p 0  l =1−g  l
probabilita' di avere zero bolle in ∆l
p 0 l  l = p 0 l  p 0  l = p 0 l 1−g  l 
p 0 l l − p 0 l 
l
p 0 l =e−gl
=−gP 0 l 
Alessandro De Falco, INFN Cagliari
22
8/19/09
p n l  l = p n l  p 0  l  p n−1 l  p1  l  probabilita' di avere n bolle in l+∆l
n bolle in l e 0 in ∆l
n-1 bolle in l e 1 in ∆l
p n l  l = p n l 1−g  l  p n−1 l  g  l
p n l l − p n l 
l
n
 gl 
P n l =e−gl
n!
=−g  P n l − p n−1 l 
Esercizio: nella ricerca di correnti neutre deboli, vengono osservati 9
candidati per le reazioni indotte da neutrini
 p   p0
 p  n

fondo:
n p  n p0
n p  nn

Identificando gli eventi di tipo n p  p p si stima un fondo di 4.9 ev.
Supposto che il n. di ev. di fondo sia distribuito con statistica poissoniana con
valore medio pari a 4.9, quale e' la probabilita' che 9 o piu' ev. siano di fondo?
−
Alessandro De Falco, INFN Cagliari
23
8/19/09
Statistica binomiale e poissoniana
Esercizio (dalle lezioni di R. Barlow al CERN)
Uno studente fa l'autostop a bordo della strada. Le
automobili transitano con la frequenza di una al minuto,
seguendo la statistica poissoniana. La probabilità che
un'automobile dia un passaggio allo studente è dell'1%.
Quale è la probabilità che lo studente non ottenga un
passaggio:
✔
1- Dopo il transito di 60 automobili
✔
2- Dopo un'ora
Alessandro De Falco, INFN Cagliari
(0.5472)
(0.5488)
24
8/19/09
Confronto tra la statistica binomiale e
poissoniana
Confrontiamo una
distribuzione poissoniana
con λ=3 con due
distribuzioni binomiali per
cui np= λ
Al diminuire di p e al
crescere di n (fissato il
prodotto) la statistica
binomiale approssima con
precisione crescente quella
poissoniana
Alessandro De Falco, INFN Cagliari
25
8/19/09
Sovrapposizione di due sorgenti poissoniane
I decadimenti di due sorgenti radioattive, governati dalla
1medi
2
statistica di Poisson, sono caratterizzati dai valori
e
Si puo' mostrare che i campioni possono essere combinati
mediante una convoluzione
P r =∑ Pr ' , 1  P r−r ' , 2 
r'
e che la distribuzione ottenuta e' ancora una poissoniana con
valore medio  
1
Alessandro De Falco, INFN Cagliari
2
26
8/19/09
Distribuzione uniforme
Consideriamo una variabile casuale continua x che puo' assumere un
qualunque valore entro un intervallo x1 ≤ x < x2 con la stessa densita' di
probabilita':
f  x =c
x1 ≤ x  x 2
f  x =0
x x 1, x≥ x 2
Poiche' la distribuzione deve essere normalizzata a 1,
f  x=
1
x 2 −x 1
f  x=0
E  x=
x1 ≤xx 2
1
x 2 − x1
x2
∫ x dx=
x1
xx 1, x≥x 2
x 1 x 2
 2  x=
2
1
12
 x 2 −x 1 2
Esercizio: le dimensioni dei pixel di un rivelatore sono 0.04 mm. Non viene
registrata l'informazione sull'ampiezza del segnale e un solo pixel viene acceso dal
passaggio della particella. Quale e' la risoluzione spaziale del rivelatore a pixel?
La distribuzione uniforme e' usata estensivamente nelle simulazioni
Monte Carlo, dove si trasformano numeri casuali a distribuzione piatta in
numeri casuali con qualsivoglia distribuzione
Alessandro De Falco, INFN Cagliari
27
8/19/09
Distribuzione gaussiana
La distribuzione gaussiana (o normale) e' data da:
f  x=
1
 2 

exp −
µ=valore medio
σ2=varianza
La gaussiana e'
simmetrica intorno
al valore medio
1  x−2
2
2

=0
=1

∫− f  x dx=0.683
2
∫
f  x dx=0.955
−2 
3
∫
f  x dx=0.997
−3 
0.68
0.95
0.997
Esercizio: calcolare il rapporto tra FWHM e σ
(FWHM= larghezza a meta' altezza)
Alessandro De Falco, INFN Cagliari
28
8/19/09
Funzione caratteristica della gaussiana
 t =E eitx =e
Alessandro De Falco, INFN Cagliari
1
 i t−  2 t 2
2
29
8/19/09
Teorema di addizione per variabili con
distribuzione gaussiana
E' spesso utile conoscere la distribuzione di una grandezza che e'
funzione di variabili con distribuzione gaussiana.
In particolare, possiamo essere interessati ad una combinazione
lineare di variabili distribuite normalmente.
Siano x1 e x2 due variabili casuali con distribuzione normale N(µ1,σ12) e
N(µ2,σ22)
e y=a1x1+a2x2. Calcoliamo le funzioni caratteristiche
 a1  1 it−
 a x t =e
1
1
2
 a21  21  t 2
1
a
2
x2
t =e
1
a 2 2 it −  a 22  22  t 2
2
Se le variabili sono indipendenti
la f. caratteristica e' fattorizzabile
1
 a1  1 a2 2  it−
 y t =a
1
x1
t   a
2
x2
t =e
2
a 21 12a22  22  t 2
Dunque, una combinazione lineare di due variabili casuali x1 e x2 con
distribuzione normale N(µ1,σ12) e N(µ2,σ22), y=a1x1+a2x2 e' anch'essa
distribuita con distribuzione normale
N  a1 1a 2 2, a 21  21 a22  22 
Alessandro De Falco, INFN Cagliari
30
8/19/09
Teorema del limite centrale
Supponiamo di avere n variabili indipendenti xi (i=1,...n) generate
da una distribuzione qualunque avente media µ e varianza σ2.
Per n→∞ la loro media aritmetica tende ad una gaussiana avente
media µ e varianza σ2/n.
n
xi
i =1
n

x =∑

f  x ∝ exp −
Alessandro De Falco, INFN Cagliari
1  x −2
2 2 / n
31

8/19/09
Somma di n numeri distribuiti
uniformemente
Tiriamo un dado. Il valore risultante sara' una variabile
casuale a valori interi distribuita uniformemente tra 1 e 6
Lanciamo il dado n volte e facciamo la media dei risultati.
Eseguiamo l'operazione per
un certo numero di volte
e mettiamo in un istogramma
la distribuzione
dei valori ottenuti
I grafici riportati sono le
distribuzioni ottenute per
diversi valori di n
Alessandro De Falco, INFN Cagliari
32
8/19/09
Una nota sulla programmazione
Macro di root che produce il grafico della slide precedente
void CLT(Int_t nev=300000){ TCanvas *c1= new TCanvas("c1","c1"); c1­>Divide(3,3); for (Int_t n=1; n<=9; n++) { c1­>cd(n); THF *h1=new TH1F("h1","",7*n*4,0,7); for (Int_t iev=0; iev<nev; iev++){ nota: se anziche' sommare tutti Float_t average = 0; gli addendi e poi dividere per n for (Int_t isum=0; isum<n; isum++) { avessi calcolato direttamente la Int_t x = Int_t(gRandom­>Rndm()*6) + 1; media con average += Float_t(x); }
average += Float_t(x)/n; average /=n;
il risultato sarebbe stato h1­>Fill(average); quello riportato in figura
}
h1­>Draw(); char txt[20];
sprintf(txt,"n=%d",n); TText *text = new TText (0.2,h1­>GetMaximum()*0.9,txt); text­>SetTextSize(0.1); text­>Draw(); c1­>Update();
}
Esercizio: scrivere un programma che calcola media
}
}
aritmetica e deviazione standard per ciascuna delle
distribuzioni ottenute al variare di n
Alessandro De Falco, INFN Cagliari
33
8/19/09
Distribuzioni normali multivariate
Una funzione di due variabili indipendenti con distribuzione
normale sara' distribuita secondo la:
f  x , y =
1
−
2  x  y
e
2
1  x− x 
2
 2x
−
e
2
1  y− y 
2
 2y
Se le variabili non sono indipendenti, la distribuzione sara':
f  x , y =
1
−
2  x  y 1−
Alessandro De Falco, INFN Cagliari

2
e
1
2
2 1− 
34

 x− x 
2
x
2

 y− y 
2
y
2
−2 
 x− x  y− y 
 xy

8/19/09
Distribuzione del χ2
Se {x1, x2, x3, ...xn} sono n variabili distribuite
con pdf gaussiana, la quantita'
n
2 = ∑
 x i −i 
2
 2i
i =1
e' distribuita secondo la:
f  z , n=
z n/2−1 e−z /2
2 n /2   n / 2 
Dove la∞funzione Gamma di Eulero e' definita come:
x −t
  x1=∫ t e dt
0
Alessandro De Falco, INFN Cagliari
  x 1= x   x 
35

1
2
=  
 1=1
8/19/09
Densita' di probabilita' del χ2
Il numero n e' detto
numero di gradi di liberta'.
La distribuzione della somma
di due differenti distribuzioni
di χ2 con n1 e n2 gradi di liberta'
e' ancora un χ2 con n=n1 + n2
gradi di liberta'
Il valore di aspettazione di un
χ2 con n d.o.f. e' pari ad n
Ndf = 1,3,5,7,9
2
χ
Distribuzione cumulativa del χ
2
La varianza e' pari a 2n.
χ2
Alessandro De Falco, INFN Cagliari
36
8/19/09