Distribuzioni Distribuzioni di probabilità di interesse Distribuzione binomiale Distribuzione normale Distribuzione del t di Student Distribuzione di F di Fisher Distribuzione del 2 Distribuzione di Poisson Distribuzione del Q Distribuzione binomiale negativa Distrib Gamma, beta, Cauchy, Gumbel, Weibull, Log-normale ecc… Distribuzione binomiale Il caso più semplice di distribuzione di variabili discrete è la binomiale. Viene detta binomiale perché sono contemplate solo due possibilità, due possibili realizzazioni. Convenzionalmente ad una delle due realizzazioni possibili viene assegnata l’etichetta di “successo” e viene indicata con 1. L’altra (“insuccesso”) viene indicata con 0. Si indicano: P(1) = p P(0) = q = (1 - p) • Supponiamo di fare un esperimento con appena 2 risultati possibili. • Gli – – – – – esempi comuni sono: passare/fallire un esame vincere/perdere al gioco Osservare testa/croce lanciando una moneta includere una persona in una lista [fumatori | non fumatori] vivere/morire a causa di un ricovero in ospedale • Si consideri una variabile casuale dicotomica. • La variabile deve assumere uno di due possibili valori; questi risultati mutuamente esclusivi possono essere, ad esempio: [maschio o femmina], [salute o malattia]. Una variabile di questo tipo è nota come variabile casuale di Bernoulli. Le prove di Bernoulli e la distribuzione binomiale • Un esperimento che consiste di singolo lancio di una moneta, o una singola classificazione è denominato una prova di Bernoulli. • Se l'esperimento (o prova) è ripetuto piò volte e le ripetizioni sono indipendenti tra loro, allora la distribuzione di probabilità della variabile casuale • X= # dei successi in n prove indipendenti di Bernoulli è denominata “distribuzione binomiale”. Una distribuzione è binomiale quando: 1. Il risultato di ogni prova è uno di 2 risultati, riferito spesso come un successo|fallimento. 2. La probabilità p di successo è la stessa in ogni prova. 3. Le prove sono indipendenti: il risultato di una prova non ha influenza sul risultato di un'altra prova. La variabile casuale Y (numero di successi in un campione di numerosità n) è una variabile discreta che ha possibili realizzazioni: 0, 1, 2, …, n Si tratta in sostanza di associare una probabilità a ciascuna di queste realizzazioni. Indicando con y una delle possibili realizzazioni di Y, la formula è la seguente: n! p( y ) p y (1 p) ( n y ) y!(n y )! n n! x x!(n x )! Coefficiente binomiale Teorema binomiale 100 15 Abbiamo bisogno di nuovi mezzi di calcolo! n (a+b)n = Un foglio più grande potrebbe bastare! i=0 n i ai bn-i Triangolo di Pascal La funzione di distribuzione binomiale è data da Studiamo la distribuzione binomiale • La distribuzione binomiale è semplicemente una distribuzione discreta di probabilità. • Possiamo studiare la distribuzione scrivendo i risultati possibili nello spazio dei campioni e determinando la loro probabilità. Cominciamo con un esempio semplice nel quale una moneta è gettata due volte. • Poi studiamo la possibilità di gettare la moneta n=3 volte. Ciò induce a provare a generalizzare la probabilità di quale risultato avremmo se la moneta fosse lanciata n=4 volte, o persino di più volte. Caratteristiche della distribuzione binomiale n! p( y ) p y (1 p) ( n y ) y!(n y )! Dove y è una delle possibili realizzazioni di Y È descritta da un solo parametro: p Se i dati sono espressi come frequenze: Valore medio (valore atteso): =np Varianza: 2= np(1-p) Caratteristiche della distribuzione binomiale Nel calcolo della probabilità con la distribuzione binomiale e con la funzione di ripartizione binomale sono utili le seguenti relazioni Caratteristiche della distribuzione binomiale Relazione di ricorrenza La forma della distribuzione dipende dal valore della probabilità di successo p p=1/2 (p=1-p) La forma della distribuzione dipende dal valore della probabilità di successo p p<1/2 Distribuzione normale Tra le varie distribuzioni di probabilità, una ha ruolo fondamentale in statistica: la distribuzione normale o Gaussiana 1 y e 2 1 x 2 2 Distribuzione normale Tra le proprietà della Gaussiana ricordiamo: La variabile x (variabile casuale) può avere valore da - a + E’ completamente definita da 2 parametri (media e varianza – ovvero dev. St.) e viene sinteticamente indicata con N(; ) E’ simmetrica intorno alla media ed è a forma di campana Ha il massimo in x= e 2 flessi in 0,6 N(6;2) 0,5 N(6;3,5) 0,4 N(8;0,5) N(11;1) 0,3 0,2 0,1 0 0 5 10 15 Esistono infinite curve normali (per ogni possibile media & dev. st.) 1 y e 2 1 x 2 2 La funzione di distribuzione o funzione di ripartizione normale è data da: La curva più importante della famiglia è la distribuzione normale standardizzata. Per ricavare questa distribuzione, data la variabile aleatoria X si passa alla nuova variabile aleatoria Z, detta variabile standardizzata, ponendo: Poiché la distribuzione di probabilità f(x) di una variabile aleatoria X distribuita normalmente non può essere integrata in forma chiusa tra gli estremi a e b di un intervallo, per il calcolo di f(x) e F(x) si usano delle tavole. Visto che è sempre possibile trasformare una distribuzione normale nella corrispondente normale standardizzata (per mezzo del cambiamento di variabile), le tavole riportano solitamente i valori della normale standardizzata. Proprietà utili per l’uso delle tavole: La distribuzione binomiale permette di calcolare, per numeri n piccoli, le probabilità di avere un certo numero k di successi nelle n prove. Se abbiamo molte prove, n diventa molto grande, e trovare le probabilità dei successi k diventa difficile. Per alti n il problema non è di trovare la probabilità connessa ad uno specifico numero k di successi, ma di trovare ad esempio la probabilità di trovare più o meno di k successi. Si ricorre allora alla distribuzione NORMALE ( GAUSSIANA) che vale per n molto grande. In questo caso lo scaloide della distribuzione di probabilità binomiale, ossia l’insieme dei rettangoli che rappresentano le probabilità dei singoli k, tende a diventare un’area sottostante ad una linea continua.. La forma della curva cui tende la distribuzione al tendere di n all’infinito è differente secondo il valore che p (e quindi q) assume. Si danno due casi: Nel primo caso p e q non sono molto differenti fra loro e quindi nessuno dei due valori si scosta molto dal valore di probabilità ½. In questo caso al tendere di n all’infinito la distribuzione tende alla curva teorica che si chiama gaussiana. Si intende di solito che una distribuzione di probabilità è normale quando il prodotto n p è maggiore di 5 (nel caso p>q). Nel secondo caso p è molto maggiore o molto minore di q, in modo che ambedue si discostano molto da probabilità ½. Se al tendere di n all’infinito il prodotto p n rimane costante, la distribuzione tende alla cosiddetta curva di Poisson. Funzioni di densità (o di probabilità) congiunte. Nel caso in cui su uno stesso spazio campionario W si definiscono più funzioni allora si è in presenza di v.c. multiple. Dato uno spazio campionario W, riferito ad un dato esperimento, supponiamo di costruire: - una prima regola, X, che associa ad ogni elemento di W un numero reale, x; - una seconda regola, Y, che associa ad ogni evento di W un numero reale, y; successivamente, calcoliamo le probabilità del contemporaneo verificarsi delle coppie (x,y). X :W e X (e) Y :W e Y (e) Pr X x, Y y X x1 x2 …. xi …. xs Y y1 y2 p11 p21 …. pi1 …. ps1 p1 p12 p22 …. pi2 …. ps2 p2 …. …. …. …. …. …. …. …. yj ….. yr p1j p2j …. pij …. psj pj …. …. …. …. …. …. …. p1r p2r …. pir …. psr pr p ij Pr X x i ; Y y j p1 p2 …. pi …. ps 1 p ij Pr X x i ; Y y j È la probabilità del contemporaneo verificarsi della coppia di modalità (xi,yj). Inoltre, r pi pij j 1 s p j pij i 1 Sono le probabilità marginali, rispettivamente, di X e di Y. Def. 22. Si chiama funzione di probabilità congiunta delle v.c. discrete X ed Y la funzione f ( x, y) Pr X x, Y y Che soddisfa le seguenti proprietà 1) f(x, y) 0 2) (x, y) f(x, y) 1 x y Da f(x,y) è possibile determinare le f. di p. marginali di X e di Y, cioè f ( x ) f ( x, y ) y f ( y ) f ( x, y ) x Da f(x,y) è possibile determinare le f. di p. condizionate, cioè f ( x, y ) f ( x / y) f ( y) f ( y) 0 f ( x, y ) f ( y / x) f ( x) f ( x) 0 NEL CONTINUO Def. 23. Si chiama funzione di densità congiunta delle v.c. continue X ed Y la funzione f ( x, y ) avente le seguenti proprietà 1) f(x, y) 0 2) (x, y) f(x, y)dxdy 1 x y Condizione di indipendenza Def. 24. Due v.c. X ed Y sono indipendenti se e solo se una delle seguenti condizioni è soddisfatta 1) f ( x, y ) f ( x) f ( y ) (x, y) 2) f ( x / y ) f ( x) (x, y) 3) f ( y / x) f ( y ) (x, y) Momenti misti di ordine k+m Def. 25. Siano X ed Y due v.c. con fd ( o fp) congiunta f(x,y), è chiamato momento misto di ordine k+m la quantità: x k ,m E X k Y m k y m f ( x, y )dxdy nel caso continuo. k ,m E X Y k m x y k x nel caso discreto. y m f ( x, y) Def. 26. Valore Atteso Condizionato. Sia (X,Y) una v.c. bidimensionale con fd congiunta f(x,y) e sia g(.,.) una funzione di due variabili. Il valore atteso condizionato di g(X,Y) dato che X=x è definito dalla seguente Eg ( X , Y ) / X x g ( x, y ) f ( y / x)dy N.B. Dato che effettuiamo l’integrale definito rispetto a y tale quantità è funzione di x. Def. 27. Varianza Condizionata. La varianza di Y dato X=x è definita da: V Y / X x E Y / X x EY / X x 2 2 Dove si è posto nella definizione precedente g(X,Y)=Y2 e g(X,Y)=Y per definire, rispettivamente, il momento secondo ed il momento primo di Y dato che X=x. Covarianza La covarianza è una misura della strettezza del legame lineare tra due v.c. X ed Y. Supposto che esistano sia i momenti primi di X e di Y che il momento primo misto, la covarianza è definita da Cov(X, Y) (x 1, 0 )( y 0,1 )f ( x , y)dxdy Nel caso continuo Cov(X, Y) ( x 1, 0 )( y 0,1 )f ( x, y) x Nel caso discreto y Teo. 13. Disuguaglianza di Cauchy-Swartz. Siano X ed Y due v.c. con momenti secondi finiti, allora Cov(X, Y) V( X)V(Y) Cov(X, Y) V(X)V(Y) 2 Inoltre, 2 Se e solo se tra X ed Y vi è una perfetta relazione lineare. Covarianza Date due variabili aleatorie X ed Y con varianza finita, si definisce covarianza la quantità definita da XY Cov( X ,Y ) E[ XY ] E[ X ]E[Y ] Se la covarianza è nulla le due variabili si dicono non correlate. Solitamente viene introdotto un coefficiente di correlazione definito come XY XY XY Due variabili si dicono indipendenti se la funzione di distribuzione congiunta FXY(x, y) è fattorizzabile nel prodotto delle marginali FX(x)FY(Y). Due variabili indipendendi con varianza finita sono anche non correlate ma non è vero il viceversa. Esercizio 39 La v.c. doppia (X,Y) segue una distribuzione di probabilità discreta rappresentata dalla tavola seguente: X Y 2 3 4 1 2 3 1/12 1/6 0 1/4 1/6 0 1/3 1/2 1/12 1/3 1/6 1/3 0 1/3 1/4 1 Calcolare : f(x); f(y); f(x/y=2); f(x/y=3); f(x/y=4); f(y/x=1); f(y/x=2); f(y/x=3); E(X); E(Y); E(X/Y=2); E(X/Y=3); E(X/Y=4); E(Y/X=1); E(Y/X=2); E(Y/X=3); V(X); V(Y); V(X/Y=2); V(X/Y=3); V(X/Y=4); V(Y/X=1); V(Y/X=2); V(Y/X=3); Cov(X,Y); (X,Y). Verificare se X ed Y sono indipendenti. Esercizio 40 La v.c. doppia (X,Y) ha fd data da: ke ( x y ) f ( x , y) 0 x<0 e y<0 altrove a) determinare il valore della costante k; b) Calcolare le fd marginali e condizionali; c) Verificare se le v.c. X ed Y sono tra loro indipendenti. Esercizio 41 La v.c. doppia (X,Y) ha come fd congiunta: 4xy f x , y 0 0 < x < 1, 0 < y < 1 altrove a) calcolare E(X), E(Y), V(X), V(Y), V(X/Y), V(Y/X); b) calcolare la Cov(X,Y) e (X,Y). c) dire se X e Y sono indipendenti. Esercizio 42 Se X=Z+W e Y=T+W, essendo le v.c. Z,T,W tra loro incorrelate e con varianza costante, si dimostri che (X,Y)=1/2. Normale Bi-dimensionale. Def. 28. Si dice che la v.c. (X,Y) ha distribuzione Normale Bidimensionale se presenta la seguente fd congiunta f ( x, y; x , y , x , y , ) 1 2x y 1 2 2 2 y y 1 x x x x y y 2 exp 2 x y 2(1 ) x y con x , y , x 0, y 0 e [-1,1]