Distribuzioni
Distribuzioni di probabilità di interesse
Distribuzione binomiale
Distribuzione normale
Distribuzione del t di Student
Distribuzione di F di Fisher
Distribuzione del 2
Distribuzione di Poisson
Distribuzione del Q
Distribuzione binomiale negativa
Distrib Gamma, beta, Cauchy,
Gumbel, Weibull, Log-normale
ecc…
Distribuzione binomiale
Il caso più semplice di distribuzione di variabili discrete è la
binomiale. Viene detta binomiale perché sono contemplate solo
due possibilità, due possibili realizzazioni.
Convenzionalmente ad una delle due realizzazioni possibili viene
assegnata l’etichetta di “successo” e viene indicata con 1. L’altra
(“insuccesso”) viene indicata con 0.
Si indicano:
P(1) = p
P(0) = q = (1 - p)
• Supponiamo di fare un esperimento con appena 2 risultati possibili.
• Gli
–
–
–
–
–
esempi comuni sono:
passare/fallire un esame
vincere/perdere al gioco
Osservare testa/croce lanciando una moneta
includere una persona in una lista [fumatori | non fumatori]
vivere/morire a causa di un ricovero in ospedale
• Si consideri una variabile casuale dicotomica.
• La variabile deve assumere uno di due possibili valori; questi risultati
mutuamente esclusivi possono essere, ad esempio:
[maschio o femmina], [salute o malattia].
Una variabile di questo tipo è nota come
variabile casuale di Bernoulli.
Le prove di Bernoulli e la distribuzione binomiale
• Un esperimento che consiste di singolo lancio di una
moneta, o una singola classificazione è denominato
una prova di Bernoulli.
• Se l'esperimento (o prova) è ripetuto piò volte e le
ripetizioni sono indipendenti tra loro, allora la
distribuzione di probabilità della variabile casuale
• X= # dei successi in n prove indipendenti di
Bernoulli è denominata “distribuzione binomiale”.
Una distribuzione è binomiale quando:
1. Il risultato di ogni prova è uno di 2 risultati, riferito
spesso come un successo|fallimento.
2. La probabilità p di successo è la stessa in ogni prova.
3. Le prove sono indipendenti: il risultato di una prova
non ha influenza sul risultato di un'altra prova.
La variabile casuale Y (numero di successi in un
campione di numerosità n) è una variabile discreta che
ha possibili realizzazioni:
0, 1, 2, …, n
Si tratta in sostanza di associare una probabilità a
ciascuna di queste realizzazioni.
Indicando con y una delle possibili realizzazioni di Y, la
formula è la seguente:
n!
p( y ) 
p y (1  p) ( n y )
y!(n  y )!
n
n!
  
 x  x!(n  x )!
Coefficiente binomiale
Teorema binomiale
100
15
Abbiamo bisogno
di nuovi mezzi di
calcolo!
n
(a+b)n =
Un foglio più
grande potrebbe
bastare!

i=0
n
i
ai bn-i
Triangolo di Pascal
La funzione di distribuzione binomiale è data da
Studiamo la distribuzione binomiale
• La distribuzione binomiale è semplicemente una distribuzione
discreta di probabilità.
• Possiamo studiare la distribuzione scrivendo i risultati possibili
nello spazio dei campioni e determinando la loro probabilità.
Cominciamo con un esempio semplice nel quale una moneta è
gettata due volte.
• Poi studiamo la possibilità di gettare la moneta n=3 volte. Ciò
induce a provare a generalizzare la probabilità di quale risultato
avremmo se la moneta fosse lanciata n=4 volte, o persino di più
volte.
Caratteristiche della distribuzione binomiale
n!
p( y ) 
p y (1  p) ( n y )
y!(n  y )!
Dove y è una delle possibili realizzazioni di Y
È descritta da un solo parametro: p
Se i dati sono espressi come frequenze:
Valore medio (valore atteso): =np
Varianza: 2= np(1-p)
Caratteristiche della distribuzione binomiale
Nel calcolo della probabilità con la distribuzione binomiale
e con la funzione di ripartizione binomale sono utili le
seguenti relazioni
Caratteristiche della distribuzione binomiale
Relazione di ricorrenza
La forma della distribuzione dipende dal valore della
probabilità di successo p
p=1/2 (p=1-p)
La forma della distribuzione dipende dal valore della
probabilità di successo p
p<1/2
Distribuzione normale
Tra le varie distribuzioni di probabilità, una ha ruolo fondamentale in
statistica: la distribuzione normale o Gaussiana
1
y
e
2
1  x   

 
2   
2
Distribuzione normale
Tra le proprietà della Gaussiana ricordiamo:
La variabile x (variabile casuale) può avere valore da - a + 
E’ completamente definita da 2 parametri (media e varianza –
ovvero dev. St.) e viene sinteticamente indicata con N(; )
E’ simmetrica intorno alla media ed è a forma di campana
Ha il massimo in x= e 2 flessi in 
0,6
N(6;2)
0,5
N(6;3,5)
0,4
N(8;0,5)
N(11;1)
0,3
0,2
0,1
0
0
5
10
15
Esistono infinite curve normali (per ogni possibile media & dev. st.)
1
y
e
2
1  x   

 

2   
2
La funzione di distribuzione o funzione di
ripartizione normale è data da:
La curva più importante della famiglia è la distribuzione
normale standardizzata.
Per ricavare questa distribuzione, data la variabile aleatoria X si
passa alla nuova variabile aleatoria Z, detta variabile
standardizzata, ponendo:
Poiché la distribuzione di probabilità f(x) di una variabile
aleatoria X distribuita normalmente non può essere
integrata in forma chiusa tra gli estremi a e b di un
intervallo, per il calcolo di f(x) e F(x) si usano delle tavole.
Visto che è sempre possibile trasformare una distribuzione
normale nella corrispondente normale standardizzata (per
mezzo del cambiamento di variabile), le tavole riportano
solitamente i valori della normale standardizzata.
Proprietà utili per l’uso delle tavole:
 La
distribuzione binomiale permette di
calcolare, per numeri n piccoli, le probabilità di
avere un certo numero k di successi nelle n
prove.
 Se abbiamo molte prove, n diventa molto
grande, e trovare le probabilità dei successi k
diventa difficile.
 Per
alti n il problema non è di trovare la
probabilità connessa ad uno specifico numero
k di successi, ma di trovare ad esempio la
probabilità di trovare più o meno di k successi.
 Si
ricorre allora alla distribuzione NORMALE (
GAUSSIANA) che vale per n molto grande.
 In
questo caso lo scaloide della distribuzione
di probabilità binomiale, ossia l’insieme dei
rettangoli che rappresentano le probabilità dei
singoli k, tende a diventare un’area
sottostante ad una linea continua..
La forma della curva cui tende la distribuzione al tendere di
n all’infinito è differente secondo il valore che p (e quindi q)
assume.
Si danno due casi:
Nel primo caso p e q non sono molto differenti fra loro e
quindi nessuno dei due valori si scosta molto dal valore di
probabilità ½. In questo caso al tendere di n all’infinito la
distribuzione tende alla curva teorica che si chiama
gaussiana.
Si intende di solito che una distribuzione di probabilità è
normale quando il prodotto n p è maggiore di 5 (nel caso
p>q).
Nel secondo caso p è molto maggiore o molto minore di q,
in modo che ambedue si discostano molto da probabilità ½.
Se al tendere di n all’infinito il prodotto p n rimane
costante, la distribuzione tende alla cosiddetta curva di
Poisson.
Funzioni di densità (o di probabilità) congiunte.
Nel caso in cui su uno stesso spazio campionario W si definiscono più
funzioni allora si è in presenza di v.c. multiple.
Dato uno spazio campionario W, riferito ad un dato esperimento, supponiamo
di costruire:
- una prima regola, X, che associa ad ogni elemento di W un numero reale, x;
- una seconda regola, Y, che associa ad ogni evento di W un numero reale, y;
successivamente, calcoliamo le probabilità del contemporaneo verificarsi
delle coppie (x,y).
X :W 
e  X (e)
Y :W 
e  Y (e)
Pr X  x, Y  y
X
x1
x2
….
xi
….
xs
Y y1
y2
p11
p21
….
pi1
….
ps1
p1
p12
p22
….
pi2
….
ps2
p2
….
….
….
….
….
….
….
….
yj ….. yr
p1j
p2j
….
pij
….
psj
pj
….
….
….
….
….
….
….
p1r
p2r
….
pir
….
psr
pr
p ij  Pr X  x i ; Y  y j 
p1
p2
….
pi
….
ps
1
p ij  Pr X  x i ; Y  y j 
È la probabilità del contemporaneo verificarsi della coppia di modalità
(xi,yj).
Inoltre,
r
pi   pij
j 1
s
p j   pij
i 1
Sono le probabilità marginali, rispettivamente, di X e di Y.
Def. 22. Si chiama funzione di probabilità congiunta delle v.c.
discrete X ed Y la funzione
f ( x, y)  Pr X  x, Y  y
Che soddisfa le seguenti proprietà
1) f(x, y)  0
2)
 (x, y)
 f(x, y)  1
x
y
Da f(x,y) è possibile determinare le f. di p. marginali di X e di Y, cioè
f ( x )   f ( x, y )
y
f ( y )   f ( x, y )
x
Da f(x,y) è possibile determinare le f. di p. condizionate, cioè
f ( x, y )
f ( x / y) 
f ( y)
f ( y)  0
f ( x, y )
f ( y / x) 
f ( x)
f ( x)  0
NEL CONTINUO
Def. 23. Si chiama funzione di densità congiunta delle v.c.
continue X ed Y la funzione
f ( x, y )
avente le seguenti proprietà
1) f(x, y)  0
2)
 (x, y)
  f(x, y)dxdy  1
x y
Condizione di indipendenza
Def. 24. Due v.c. X ed Y sono indipendenti se e solo se una delle
seguenti condizioni è soddisfatta
1) f ( x, y )  f ( x) f ( y ) (x, y)
2) f ( x / y )  f ( x)  (x, y)
3) f ( y / x)  f ( y )  (x, y)
Momenti misti di ordine k+m
Def. 25. Siano X ed Y due v.c. con fd ( o fp) congiunta f(x,y), è
chiamato momento misto di ordine k+m la quantità:

  x
 k ,m  E X k Y m 
k
y m f ( x, y )dxdy

nel caso continuo.

k ,m  E X Y
k
m
   x y
k
x
nel caso discreto.
y
m
f ( x, y)
Def. 26. Valore Atteso Condizionato.
Sia (X,Y) una v.c. bidimensionale con fd congiunta f(x,y) e sia
g(.,.) una funzione di due variabili. Il valore atteso condizionato di
g(X,Y) dato che X=x è definito dalla seguente

Eg ( X , Y ) / X  x   g ( x, y ) f ( y / x)dy

N.B. Dato che effettuiamo l’integrale definito rispetto a y tale quantità è
funzione di x.
Def. 27. Varianza Condizionata.
La varianza di Y dato X=x è definita da:


V Y / X  x  E Y / X  x  EY / X  x 
2
2
Dove si è posto nella definizione precedente g(X,Y)=Y2 e g(X,Y)=Y per
definire, rispettivamente, il momento secondo ed il momento primo di Y
dato che X=x.
Covarianza
La covarianza è una misura della strettezza del legame lineare tra due v.c.
X ed Y. Supposto che esistano sia i momenti primi di X e di Y che il
momento primo misto, la covarianza è definita da
 
Cov(X, Y) 
  (x  
1, 0
)( y   0,1 )f ( x , y)dxdy
  
Nel caso continuo
Cov(X, Y)   ( x  1, 0 )( y   0,1 )f ( x, y)
x
Nel caso discreto
y
Teo. 13. Disuguaglianza di Cauchy-Swartz.
Siano X ed Y due v.c. con momenti secondi finiti, allora
Cov(X, Y)
 V( X)V(Y)
Cov(X, Y)
 V(X)V(Y)
2
Inoltre,
2
Se e solo se tra X ed Y vi è una perfetta relazione lineare.
Covarianza

Date due variabili aleatorie X ed Y con varianza finita, si definisce covarianza la
quantità definita da
 XY  Cov( X ,Y )  E[ XY ]  E[ X ]E[Y ]

Se la covarianza è nulla le due variabili si dicono non correlate. Solitamente
viene introdotto un coefficiente di correlazione definito come
 XY 
 XY
 XY


Due variabili si dicono indipendenti se la funzione di
distribuzione congiunta FXY(x, y) è fattorizzabile nel
prodotto delle marginali FX(x)FY(Y).
Due variabili indipendendi con varianza finita sono
anche non correlate ma non è vero il viceversa.
Esercizio 39
La v.c. doppia (X,Y) segue una distribuzione di probabilità
discreta rappresentata dalla tavola seguente:
X
Y
2
3
4
1
2
3
1/12
1/6
0
1/4
1/6
0
1/3
1/2
1/12 1/3
1/6 1/3
0 1/3
1/4 1
Calcolare :
f(x); f(y); f(x/y=2); f(x/y=3); f(x/y=4); f(y/x=1); f(y/x=2); f(y/x=3);
E(X); E(Y); E(X/Y=2); E(X/Y=3); E(X/Y=4); E(Y/X=1);
E(Y/X=2); E(Y/X=3); V(X); V(Y); V(X/Y=2); V(X/Y=3);
V(X/Y=4); V(Y/X=1); V(Y/X=2); V(Y/X=3); Cov(X,Y); (X,Y).
Verificare se X ed Y sono indipendenti.
Esercizio 40
La v.c. doppia (X,Y) ha fd data da:
ke ( x  y )
f ( x , y)  
0
x<0 e y<0
altrove
a) determinare il valore della costante k;
b) Calcolare le fd marginali e condizionali;
c) Verificare se le v.c. X ed Y sono tra loro indipendenti.
Esercizio 41
La v.c. doppia (X,Y) ha come fd congiunta:
4xy
f x , y   
0
0 < x < 1, 0 < y < 1
altrove
a) calcolare E(X), E(Y), V(X), V(Y), V(X/Y), V(Y/X);
b) calcolare la Cov(X,Y) e (X,Y).
c) dire se X e Y sono indipendenti.
Esercizio 42
Se X=Z+W e Y=T+W, essendo le v.c. Z,T,W tra loro
incorrelate e con varianza costante, si dimostri che (X,Y)=1/2.
Normale Bi-dimensionale.
Def. 28. Si dice che la v.c. (X,Y) ha distribuzione Normale Bidimensionale
se presenta la seguente fd congiunta
f ( x, y;  x ,  y ,  x ,  y , ) 
1
2x  y 1  
2
2
2






y


y




1
x  x
x  x


y
y





  2
exp 


2


x
y
 2(1   )   x 
  y   
con
 x  ,  y  ,  x  0,  y  0 e   [-1,1]