Modelli di Variabili Aleatorie Probabilità Mattia Natali Modelli di Variabili Aleatorie µ Variabili aleatorie di Bernoulli: Ø X è di Bernoulli di parametro p ∈( 0,1) se P ( X = 1) = p e P ( X = 0 ) = 1 − p . Ø Proprietà: § E ( X ) := 1·p X (1) + 0·p X ( 0 ) = p . § ( ) Var ( X ) = E X 2 − E ( X ) ma siccome X = X 2 à 2 Var ( X ) = E ( X ) − E ( X ) = p − p 2 = p (1 − p ) . Ø Notazione: X è di Bernoulli di parametro p ⇔ X Be ( p ) . 2 Ø Prove di Bernoulli: § esperimenti casuali, indipendenti, binari (ossia che hanno solo due possibili esiti che chiamo successo e fallimento). p = P ( successo ) . § § § § Faccio n prove di Bernoulli con probabilità di successo p ∈( 0,1) . Sia X numero di successi in queste n prove. p X ( k ) = P ( X = k ) . ⎧1 se k-esima prova è successo . X = X1 + X2 + ... + Xn à X k = ⎨ ⎩0 se è fallimento E ( X ) = E ( X1 + ... + Xn ) = E ( X1 ) + ... + E ( Xn ) = np . § Var ( X ) = Var ( X1 + ... + Xn ) = Var ( X1 )+ ... + Var ( Xn ) = np (1 − p ) . § ⎛ n⎞ n− k P ( X = k ) = ⎜ ⎟ p k (1 − p ) . ⎝ k⎠ p (1− p ) X è binomiale di parametri n, p , ( X Bi ( n, p )) se • • § X • • • ⎧⎛ n ⎞ k n− k ⎪⎜ ⎟ p (1 − p ) , k ∈{0,1,..., n} P ( X = k ) = ⎨⎝ k ⎠ . ⎪0 altrimenti ⎩ ⎛ n⎞ n! Ricordiamo che il coefficiente binomiale si calcola ⎜ ⎟ := . ⎝ k ⎠ k!( n − k )! Bi ( n, p ) , Y Bi ( m, p ) indipendenti: X Bi ( n, p ) ⇔ X = X1 + ... + Xn , X k Be ( p ) indipendenti. Y Bi ( m, p ) ⇔ Y = Y1 + ... + Ym , Yk Be ( p ) indipendenti. X + Y = X1 + ... + Xn + Y1 + ... + Ym = somma di n + m . Be ( p ) indipendenti ⇒ X + Y Bi ( n + mi , p ) . Ø Utilizzo: quando X può assumere solo i valori 0,1 (successo o fallimento). µ Densità di Poisson: Ø Ci sono in media λ impurità per unità di lunghezza = I k = Ø 1 . n X = numero di impurità sul segmento. E ( X ) = λ , X k = numero di impurità in I k Be ( p ) . 1 Modelli di Variabili Aleatorie Probabilità Mattia Natali Ø ⎛ λ⎞ X = X1 + ... + Xn , E ( X ) = E ( X1 ) + ... + E ( Xn ) = np . X Bi ⎜ n, ⎟ . ⎝ n⎠ Ø ⎛ n⎞ ⎛ λ ⎞ ⎛ λ⎞ P ( X = k ) = ⎜ ⎟ ⎜ ⎟ ⎜1 − ⎟ ⎝ k⎠ ⎝ n ⎠ ⎝ n⎠ k n− k n! λk ⎛ λ⎞ ⎛ λ⎞ 1 − ⎟ ⎜1 − ⎟ k ⎜ k!( n − k )! n ⎝ n⎠ ⎝ n⎠ n = con n→+∞ =e − λ n ( n − 1) ...( n − k + 1) ⎛ λ⎞ = ⎜⎝ 1 − ⎟⎠ k n n →1 −k →1 −k = 1 λk ⎛ λ ⎞ λ k −λ e . ⎜ 1 − ⎟⎠ → k! ⎝ n k! n Ø Definizione: X è una variabile aleatoria di Poisson di parametro λ > 0 se ⎧ λ k −λ ⎪ e , k ∈{0,1, 2,...} P ( X = k ) = ⎨ k! . ⎪0 altrimenti ⎩ Ø Legge del filo: § La variabile aleatoria di Poisson può essere utilizzata come approssimazione di una binomiale ⎧n 1 prove di Bernoulli . ⎩p 1 probabilità di successo di parametri ( n, p ) quando ⎨ ⎛ λ⎞ Poisson ( λ ) ≅ Bi ⎜ n, ⎟ = Bi ( n, p ) ≅ Poisson ( np ) . ⎝ n⎠ § Ø Proprietà: § X Po(λ ) ⇒ E ( X ) = Var ( X ) = λ . X Po ( λ ) ,Y Po ( µ ) ⇒ X + Y Po ( λ + µ ) . § Ø Utilizzo: è un’ottima approssimazione di una binomiale di parametri ( n, p ) , quando n è molto grande e p molto piccolo ponendo λ = np . In altri termini, il totale dei “successi” in un gran numero n di ripetizioni indipendenti di un esperimento che ha una piccola probabilità di riuscita p , è una variabile aleatoria con distribuzione approssimativamente di Poisson, con media λ = np . µ Variabile aleatoria Geometrica: Ø Successione di prove di Bernoulli con p = P ( successo ) e X = numero di prove necessarie per vedere il primo successo. § P ( X = k ) con k ∈{1, 2,...} . • P ( X = 1) = P ( I prova = "successo") = p . • ⎛ I prova = "insuccesso"⎞ P ( X = 2) = P ⎜ = p (1 − p ) . ⎝ II prova = "succeso" ⎟⎠ P ( X = k ) = p (1 − p ) k − 1 insuccessi. • k −1 perché prima del successo della k -­‐esima prova ci sono stati ⎧⎪ p (1 − p )k −1 Ø Definizione: X Geom ( p ) se P ( X = k ) = ⎨ 0 ⎪⎩ Ø 1 = +∞ ∑ P ( X = k ) = ∑ p (1 − p ) k =1 k +∞ à k −1 k ∈{1, 2,...} . altrimenti , sia q := 1 − p ⇔ p = 1 − q con 0 < q < 1 à +∞ ∑q k =1 k −1 = 1 1− q 1 ∑ q = 1 − q . k=0 2 Modelli di Variabili Aleatorie Probabilità +∞ tX tk Ø m X ( t ) = E ⎡⎣ e ⎤⎦ = ∑ e (1 − p ) ⇔ t < − ln (1 − p ) Ø Ø Ø k −1 i =1 +∞ p = ∑e t ( k −1) k=0 (1 − p ) Mattia Natali k p = pe +∞ t ∑ ⎡⎣ e (1 − p )⎤⎦ t k =1 k = et (1 − p ) < 1 q +∞ k p p pet ∑ ⎡⎣ et (1 − p ) ⎤⎦ = pet = −t . Perché è una serie geometrica. t 1 − e (1 − p ) e − (1 − p ) k =1 q m X ( 0 ) = 1 . m′X ( t ) = § ( ) p e−t ⎡⎣ e−t − (1 − p ) ⎤⎦ 1 m′X ( 0 ) = = E ( X ) . p 2 = mX (t ) e−t 1 = mX (t ) . −t t e − (1 − p ) 1 − e (1 − p ) ⎡⎣1 − et (1 − p ) ⎤⎦ − ⎡⎣ −et (1 − p ) ⎤⎦ Ø m ′′X ( t ) = m ′X ( t ) . 2 ⎡⎣1 − et (1 − p ) ⎤⎦ 1 p +1− p 2− p p = = E X 2 . § m ′′X ( 0 ) = 2 2 p p 2 − p 1 1− p 1 1 2 2 − 2 = 2 = 2 − . § Var ( X ) = E X − E ( X ) = p2 p p p p ( ) ( ) Ø X Geom ( p ) , P ( X > k ) = P ( le prime k prove sono insuccessi) = (1 − p ) ...(1 − p ) = (1 − p ) k k volte ⇒ P ( X ≤ k ) = 1 − (1 − p ) . k Ø Proprietà di assenza di memoria: § P ( X > k + h | X > h ) = P ( X > k ) . § Dimostrazione: • P ( X > k + h | X > h) = P ( X > k + h & X > h ) P ( X > k + h ) (1 − p ) = = = P ( X > h) P ( X > h) (1 − p )h k+h = (1 − p ) = P ( X > k ) . k § P ( a < X ≤ b | X > h ) = P ( a − h < X ≤ b − h ) . Ø Utilizzo: è utile quando vogliamo sapere la probabilità che la k -­‐esima ripetizione sia il primo successo. µ Variabile aleatoria ipergeometrica: Ø Definizione: una variabile aleatoria X si dice ipergeometrica di parametri N, M e n se ha massa ⎛ N⎞ ⎛ M ⎞ ⎜⎝ i ⎟⎠ ⎜⎝ n − i ⎟⎠ di probabilità P ( X = i ) = con i = 0,1,..., n . ⎛N + M⎞ ⎜⎝ n ⎟⎠ Ø Utilizzo: possiamo capirlo tramite un esempio. Una scatola contiene N batterie accettabili e M difettose. Si estraggono senza rimessa e in maniera casuale n batterie. Denotiamo con X il numero di batterie accettabili contenute nel campione estratto. 3 Modelli di Variabili Aleatorie Probabilità Mattia Natali µ Variabili aleatoria uniforme: Ø Se noi prendessimo un segmento lungo 1 e un intervallo che va da a a b ivi contenuto, se x è scelto casuale significa che la probabilità che x ∈[ a,b ] dipende soltanto dalla lunghezza del segmento e non dalla sua posizione. ⎧⎪ 1 Ø L’insieme U è uniforme in [ 0,1] se la sua densità è fU ( u ) := ⎨ § § § u ∈[ 0,1] ⎪⎩ 0 altrimenti P (U ∈[ u,u + du ]) = du con u ∈[ 0,1] . . P ( a < U ≤ b ) = b − a . 0 < a < b < 1 P ( a + h < U ≤ b + h ) = b − a con 0 < a + h < b + h < 1 . Ø Definizione generale: una variabile aleatoria continua si dice uniforme sull’intervallo [α , β ] , se ha ⎧ 1 se α ≤ x ≤ β ⎪ funzione di densità data da f ( x ) = ⎨ β − α . ⎪ 0 altrimenti ⎩ Ø U U [ 0,1] . I passi successivi quindi sono riferiti ad un intervallo ampio 1 . § § § Ø Ø Ø Ø Ø Ø Ø E (U ) = ∫ +∞ −∞ ( ) ∫ E U2 = uf ( u ) du = +∞ −∞ ∫ 1 0 u 2 f ( u ) du = U U [ 0,1] , FU ( u ) = ∫ +∞ −∞ u du = ∫ 1 0 u2 2 u 2 du = = 0,1 u3 3 1 . 2 = 0,1 1 1 1 4−3 1 ⇒ Var (U ) = − = = . 3 3 4 12 12 ⎧ 0 x<0 ⎪ fU ( x ) dx = ⎨ x 0 ≤ x < 1 . ⎪ 1 x ≥1 ⎩ (b − a )U + a = X con b > a . § U = 1 à ( b − a )1 + a = b . § U = 0 à ( b − a ) 0 + a = a . X ~ U [ a,b ] , X = ( b − a )U + a , U ~ U [ 0,1] . b−a a+b +a= . 2 2 2 b − a) ( 2 Var ( X ) = Var ⎡⎣( b − a )U + a ⎤⎦ = ( b − a ) Var (U ) = . 12 x − a⎞ ⎛ ⎛ x − a⎞ FX ( x ) = P ( X ≤ x ) = P (( b − a ) ,U + a ≤ x ) = P ⎜ U ≤ = FU ⎜ . ⎟ ⎝ ⎝ b − a ⎟⎠ b − a⎠ d ⎛ x − a⎞ ⎛ x − a⎞ 1 ⎛ x − a⎞ 1 FX′ ( x ) = FU ⎜ = FU′ ⎜ = fU ⎜ . ⎟ ⎟ ⎝ b − a⎠ b − a ⎝ b − a ⎟⎠ b − a dx ⎝ b − a ⎠ ⎧ 1 x−a 0< <1 ⎪ fX ( x ) = ⎨ b − a . b−a ⎪ 0 altrimenti ⎩ x−a < 1 ⇔ 0 < x − a < b − a ⇔ a < x < b . § 0 < b−a E ( X ) = E ⎡⎣( b − a )U + a ⎤⎦ = ( b − a ) E (U ) + a = 4 Modelli di Variabili Aleatorie Ø Probabilità ⎧ ⎪ ⎪ =⎨ ⎪ ⎪ ⎩ ⎛ x − a⎞ FX ( x ) = FU ⎜ ⎝ b − a ⎟⎠ Mattia Natali x<a x−a 0< < 1 ⇔ a < x < b . b−a x≥b 0 x−a b−a 1 Ø Utilizzo: quando la variabile aleatoria ha le stesse probabilità di cadere vicino a un qualunque punto dell’intervallo. µ Variabili aleatorie normali o gaussiane: 2 1 − z2 e . 2π Ø Definizione: z è normale standard se la sua densità fZ ( z ) := § ∫ +∞ −∞ fZ ( z ) dz = 1 ⇔ 2π = ∫ +∞ −∞ e − z2 2 dz . 2 § § Ø 1 − s2 ∫−∞ 2π e ds := Φ ( z ) := P ( Z ≤ z ) . Φ ( −z ) = 1 − Φ ( z ) . z mZ ( t ) = E ⎡⎣ e ⎤⎦ = tZ ∫ +∞ −∞ 2 e 1 − z2 e dz = 2π tZ sostituisco u = z − t , du = dz à m ( z ) = e § § § 1 2π ∫ t2 2 1 2π mZ ( 0 ) = 1 . +∞ −∞ e ∫ − ( ) 1 2 t2 z − 2tz +t 2 + 2 2 +∞ −∞ e − u2 2 2 dz = 1 t2 e 2π ∫ +∞ −∞ e − ( z −t )2 2 dz t2 2 du = e . =1 t2 2 mZ′ ( t ) = te = tmZ ( t ) . • mZ′ ( 0 ) = 0 . mZ′′ ( t ) = mZ ( t ) + tmZ′ ( t ) . ( ) mZ′′ ( 0 ) = mZ ( 0 ) + 0 = 1 ⇒ E ( Z ) = 0 , E Z 2 = 1 = Var ( Z ) . • Ø Definizione: X variabile aleatoria con E ( X ) = 0 , Var ( X ) = 1 ⇒ X è standard. Ø Definizione: X variabile aleatoria è normale se: X = aZ + b , a > 0 , b ∈ , Z è normale standard. Se Z è normale standard ⇔ −Z è normale standard. ( ( Ø Def: X è normale con media µ e varianza σ 2 X ~ N µ, σ standard Z ~ N ( 0,1) . Ø ( )) se X = σ Z + µ , Z normale X ~ N µ, σ 2 , Y = α X + β ∈N (, ) con a ≠ 0 . ( ) ⇔ X = σ Z + µ , Z ~ N ( 0,1) § Dimostrazione: X ~ N µ, σ § ⇒ Y = α X + β = α (σ Z + µ ) + β = (ασ ) Z + αµ + β . E (Y ) = E (α X + β ) = α E ( X ) + β = αµ + β . § Ø ) 2 2 Var (Y ) = Var (α X + β ) = α 2Var ( X ) . ( ) X ~ N µ, σ 2 , calcoliamo la funzione di ripartizione e densità. 5 Modelli di Variabili Aleatorie § Probabilità Mattia Natali ⎛ Con X = σ Z + µ , FX ( x ) = P ( X ≤ x ) = P (σ Z + µ ≤ x ) = P ⎜ Z ≤ ⎝ x − µ⎞ ⎛ x − µ⎞ ⎟⎠ = Φ ⎜⎝ ⎟ à σ σ ⎠ ⎛ x − µ⎞ FX = Φ ⎜ . ⎝ σ ⎟⎠ § § P ( a < X < b ) = FX ( b ) − FX ( a ) per le variabili aleatorie continue. ⎛ b − µ⎞ ⎛ a − µ⎞ P (a < X < b) = Φ ⎜ − Φ⎜ . ⎟ ⎝ σ ⎠ ⎝ σ ⎟⎠ d ⎛ x − µ⎞ ⎛ x − µ⎞ 1 ⎛ x − µ⎞ 1 f X ( x ) = FX′ ( x ) = Φ ⎜ = Φ′ ⎜ = fZ ⎜ = ⎟ ⎟ ⎝ σ ⎠σ ⎝ σ ⎟⎠ σ dx ⎝ σ ⎠ 1 = 2πσ 2 e ⎡ ( x − µ )2 ⎤ ⎢− ⎥ ⎢⎣ 2 σ 2 ⎥⎦ ⎡ 1 ⎛ x−µ⎞2 ⎤ ⎟ ⎥ σ ⎠ ⎥⎦ 1 ⎢⎢⎣− 2 ⎜⎝ e 2π 1 = σ . X−µ ~ N ( 0,1) . σ µ⎞ 1 ⎛ X − µ⎞ E(X) − µ ⎛ X − µ⎞ ⎛1 = = 0 , Var ⎜ = V − ⎜ X − ⎟ = 2 Var ( X ) = 1 . § E ⎜ ⎟ ⎟ ⎝ σ ⎠ ⎝ σ ⎠ ⎝σ σ σ⎠ σ Ø Teorema: X1 , X 2 ,..., X n normali indipendenti ⇒ X1 + ... + X n è normale. Ø ( ) X ~ N µ, σ 2 , § ( Dimostrazione: X ~ N µ, σ X = σ Z + µ , Z ~ N ( 0,1) . 2 ) . m (t ) = E ( e ) ma siccome è normale sappiamo che ∃ tX X m X ( t ) = E ⎡⎣ et (σ Z + µ ) ⎤⎦ = E ⎡⎣ e(tσ ) Z et µ ⎤⎦ = et µ E ⎡⎢ e(tσ ) z ⎤⎥ = et µ mZ ( tσ ) = et µ e ⎣ ⎦ t′ mX = e • ⎡ t 2σ 2 ⎤ +t µ ⎥ ⎢ ⎢⎣ 2 ⎦⎥ ( t σ )2 2 =e ⎡ t 2σ 2 ⎤ +t µ ⎥ ⎢ ⎢⎣ 2 ⎦⎥ à . ⎧ t 2σ 12 ⎫ ⎧ t 2σ 2n ⎫ m X1 +...+ Xn = m X1 ( t ) ...m Xn ( t ) = exp ⎨ + t µ1 ⎬ ...exp ⎨ + t µn ⎬ = ⎩ 2 ⎭ ⎩ 2 ⎭ ⎧ 2 n ⎫ n ⎧ n ⎛ t 2σ 2k ⎞⎫ ⎧t2 ⎫ ⎪t ⎪ 2 2 exp ⎨∑ ⎜ + t µ k ⎟ ⎬ = exp ⎨ ∑ σ k + t ∑ µ k ⎬ = exp ⎨ (σ ′ ) + t µ ′ ⎬ ⎠ ⎪⎭ ⎪⎩ k =1 ⎝ 2 k =1 ⎩2 ⎭ ⎪ 2 k =1 2 ⎪ µ' (σ ′ ) ⎩ ⎭ n ⎛ n ⎞ ⇒ X1 + ... + Xn ~ N ⎜ ∑ µ k , ∑ σ 2k ⎟ . ⎝ k =1 ⎠ k =1 Ø Utilizzo: questo tipo di variabile aleatoria è molto importante e utilizzata grazie al teorema del limite centrale che tratterremo più avanti. µ Esponenziali: ( ) ⎧λ e− λ x x > 0 . 0 altrimenti ⎩ Ø Def: X è esponenziale di parametro λ > 0 X ~ € ( λ ) se f X ( x ) = ⎨ x<0 ⎧⎪0 Ø FX ( x ) = ∫ f X ( s ) ds = ⎨ x − λ s . − λs x −λx −∞ x≥0 ⎪⎩ ∫0 λ e ds = ⎡⎣ −e ⎤⎦ 0 = 1 − e x 6 Modelli di Variabili Aleatorie Probabilità Mattia Natali Ø Funzione generatrice dei momenti: ( )= ∫ mX (t ) = E e = tX +∞ −∞ e f X ( x ) dx = tx +∞ λ ( λ − t ) e− (λ −t ) x dx . ∫ 0 λ − t ( ) ∫ +∞ 0 e λe tx −λx +∞ ds = λ ∫ e λ' − ( λ −t ) x 0 dx con λ > t à =1 λ mX (t ) = . λ−t 1 − λ ( −1) λ à m ′X ( 0 ) = = E ( X ) . m 'X (t ) = 2 = 2 λ (λ − t ) (λ − t ) 2λ 2 − λ ( λ − t ) ( −1) 2λ 2 à m ′′X ( 0 ) = 3 = 2 = E ( X ) . m′′X ( t ) = = 4 3 λ λ (λ − t ) (λ − t ) 2 1 1 Var ( X ) = 2 − 2 = 2 . λ λ λ § § § § Ø Assenza di memoria: § X ~ € ( λ ) ⇒ P ( X > t + s | X > t ) = P ( X > s ) . Dimostrazione: P ( X > t + s | X > t ) = § = P ( X > t + s & X > t ) P ( X > t + s) = = P(X > t) P(X > t) 1 − FX ( t + s ) e− λ (t + s ) = − λt = e− λ s = P ( X > s ) , ricorda che 1 − FX ( t ) e P ( X > z ) = e− λ x ⇒ FX ( x ) = 1 − e− λ x . ⎛ λ⎞ Ø cX ~ € ⎜ ⎟ . ⎝ c⎠ µ Variabili aleatorie di tipo Γ : ⎧ λ α α −1 − λ x x e ⎪ Ø Definizione: X è Γ (α , λ ) se f X ( X ) = ⎨ Γ (α ) ⎪0 ⎩ x>0 . altrimenti Ø Nota: Γ (α ) serve a far sì che la densità faccia uno in ( −∞, +∞ ) : ∫ +∞ −∞ f X ( x ) dx = 1 = +∞ λ α +∞ α −1 − λ x x e dx ⇒ Γ (α ) = λ α ∫ xα −1e− λ x dx facciamo il cambiamento ∫ 0 Γ (α ) 0 di variabili y = λ x , dy = λ dx à λ Ø Γ (α ) := ∫ +∞ 0 ∫ +∞ 0 ⎛ y⎞ ⎜⎝ ⎟⎠ λ ∫ +∞ 0 Osservazione: Γ (1, λ ) = € ( λ ) . § Per mezzo dell’integrazione per parti: +∞ ∫ = ( a − 1) ∫ 0 +∞ yα −1e− y dy = −e− y yα −1 0 + ∫ +∞ 0 +∞ 0 § dy λ α e = λ λα −y ∫ +∞ 0 yα −1e− y dy = Γ (α ) . e− x dx = 1 . § Γ (α ) = α −1 xα −1e− x dx . Ø Gamma di Eulero: Γ (1) = α (α − 1) y(α −1)−1e− y dy = y(α −1) −1e− y dy = (α − 1) Γ (α − 1) à Γ (α ) = (α − 1) Γ (α − 1) . Γ ( n ) = ( n − 1) Γ ( n − 1) = ( n − 1) ( n − 2 ) Γ ( n − 2 ) ....Γ (1) = ( n − 1)! . 7 Modelli di Variabili Aleatorie Ø Probabilità Mattia Natali X ~ Γ ( a, λ ) . Funzione generatrice dei momenti: § λ α +∞ α −1 − λ x tx λ α +∞ α −1 − ( λ −t ) x λ α ( λ − t ) +∞ α −1 − ( λ −t ) x e e dx = x e dx = x e dx = 0 Γ (α ) ∫0 Γ (α ) ∫0 (α ) ∫ ( λ − t )α Γ α ( ) E etX = =1 = α λ . ( λ − t )α α § ⎛ λ ⎞ mX (t ) = ⎜ . ⎝ λ − t ⎟⎠ • ⎛ λ ⎞ m′X ( t ) = α ⎜ ⎝ λ − t ⎟⎠ α −1 ⎡ − λ ( −1) ⎤ α αλ α . ⎢ 2 ⎥ = α +1 à m ′X ( 0 ) = λ ⎢⎣ ( λ − t ) ⎥⎦ ( λ − t ) αλ α (α + 1) ( λ − t ) (1) α (α + 1) • m ′′X ( t ) = − à m ′′X ( 0 ) = . 2α + 2 λ2 (λ − t ) α § E ( X ) = ; λ α (α + 1) § E ( X 2 ) = ; λ2 α (α + 1) α 2 α − 2 = 2 . § Var ( X ) = λ2 λ λ Ø Proprietà: X ~ Γ (α , λ ) ,Y ~ Γ ( β , λ ) indipendenti ⇒ X + Y ~ Γ (α + β , λ ) . α α § § β ⎛ λ ⎞ ⎛ λ ⎞ ⎛ λ ⎞ =⎜ Dimostrazione: m X +Y ( t ) = m X ( t ) mY ( t ) = ⎜ ⎟ ⎜ ⎟ ⎝ λ −t⎠ ⎝ λ −t⎠ ⎝ λ − t ⎟⎠ ⇒ X + Y ~ Γ (α + β , λ ) . α +β Utilità: • Capire X,Y ~ € ( λ ) indipendenti. X ~ € ( λ ) = Γ (1, λ ) à X + Y ~ Γ ( 2, λ ) . Y ~ € ( λ ) = Γ (1, λ ) ♦ In generale: X1 ,..., X n ~ € ( λ ) à X1 + X 2 + ... + X n ~ Γ ( n, λ ) . ♦ µ Distribuzioni Chi-­‐quadro: Ø ⎛ n 1⎞ Z12 + ... + Z n2 ~ Γ ⎜ , ⎟ = χ 2 ( n ) chi-­‐quadro con n gradi di libertà. ⎝ 2 2⎠ § § § ⎛ n 1⎞ X ~ χ 2 ( n ) ⇔ X ~ Γ ⎜ , ⎟ . ⎝ 2 2⎠ n E [ X ] = 2 = n . 1 2 n Var ( X ) = 2 2 = 2n . ⎛ 1⎞ ⎜⎝ ⎟⎠ 2 8 Modelli di Variabili Aleatorie Probabilità n x −1 − ⎧1 1 2 2 x e ⎪ n ⎪ ⎛ n⎞ X ~ χ 2 ( n ) , f X ( x ) = ⎨ 2 2 Γ ⎜ ⎟ ⎝ 2⎠ ⎪ ⎪⎩0 X ~ χ 2 ( n ) ,Y ~ χ 2 ( m ) indipendenti à § § Mattia Natali x>0 . altrimenti X + Y = X12 + ... + Xn2 + Y 12 + ... + Ym2 ⇒ X + Y ~ χ 2 ( n + m ) . Ø Se X è una chi-­‐quadro con n gradi di libertà e α è un reale compreso tra 0 e 1 , si definisce la 2 2 quantità χ α ,n tramite l’equazione seguente: P ( X ≥ χ α ,n ) = α . µ Distribuzioni t: Ø Se Z e Cn sono variabili aleatorie indipendenti, la prima normale standard e la seconda chi-­‐ quadro con n gradi di libertà, allora la variabile aleatoria Tn definita come Tn := Z si dice Cn n avere distribuzione t con n gradi di libertà à Tn ~ t n . Tale variabile aleatorie viene definita spesso t di Student. fT ( t ) = § ⎛ n + 1⎞ Γ⎜ ⎝ 2 ⎟⎠ ⎛ t ⎞ ⎛ n⎞ Γ ⎜ ⎟ nπ ⎜ 1 + ⎟ ⎝ 2⎠ n⎠ ⎝ 2 n +1 2 con t a n gradi di libertà. E [Tn ] = 0 con n ≥ 2 . n § Var (Tn ) = con n ≥ 3 . n−2 Ø Se Tn ~ tα ,n con α ∈( 0,1) à P (Tn ≥ tα ,n ) = α . § § T è simmetrica à P (Tn ≥ −tα ,n ) = 1 − α . µ Teoremi e Teorie: Ø Teoria dell’affidabilità: § T = istante di rottura. T > t ⇔ all’istante t il sistema funziona. § P (T > t ) = 1 − FT ( t ) = funzione di sopravvivenza. § § fT ( t ) . 1 − FT ( t ) P (T ∈(t,t + dt] & T > t ) P (T ∈(t,t + dt]) f ( t ) dt P (T ∈(t,t + dt] | T > t ) = = T = λT ( t ) dt P (T > t ) 1 − FT ( t ) 1 − FT ( t ) Def: intensità di rischio o tasso di guasto. λT ( t ) := § § T > 0 λT ( t ) ⇒ fT ( t ) è nota. f (t ) d λT ( t ) := T = − ln (1 − FT ( t )) integrando il tutto à 1 − FT ( t ) dt t t d λ s ds = − ( ) T ∫0 ∫0 ds ln (1 − FT ( s )) ds = − ⎡⎣ ln (1 − FT (t )) − ln (1 − FT ( 0 ))⎤⎦ , 9 Modelli di Variabili Aleatorie ∫ t 0 Probabilità Mattia Natali = 0 t − λT ( s ) ds . λT ( s ) ds = ln (1 − FT ( 0 )) − ln (1 − FT ( t )) ⇒ 1 − FT ( t ) = e ∫0 { } FT ( t ) = 1 − exp − ∫ λT ( s ) ds . Ricorda che: fT ( t ) = − § § t 0 { λT ( t ) = λ ⇔ T ~ € ( λ ) à FT ( t ) = 1 − exp − ∫ λ ds = 1 − e− λt . t 0 λT ⇒ P (T > t + s | T > s ) ≤ P (T < t ) , ( significa non decrescente). P (T > t + s & T > s ) P (T > t + s ) 1 − FT ( t + s ) • P (T > t + s | T > s ) = = = = P (T > s ) P (T > s ) 1 − FT ( s ) { λ (u ) du} = exp {− ( ∫ = exp {− ∫ λ ( u ) du} exp − ∫ t+s T 0 s 0 • • t+s 0 λT ( u ) du − ∫ λT ( u ) du s 0 T § } d (1 − FT (t )) . dt { )} = exp {− ( ∫ t+s s λT ( u ) du )} } P (T > t ) = 1 − FT ( t ) = exp − ∫ λT ( u ) du . t 0 Facendo i grafici vediamo che P (T > t + s | T > s ) ≤ P (T < t ) effettivamente è vera. T è Weibull ⇔ λT ( t ) = αβ t β −1 . Ø Teorema del limite centrale: § X1 , X 2 ,... variabili aleatorie indipendenti, tutte con la stessa formula di ripartizione, E ( X1 ) = E ( X2 ) = ... = µ , Var ( X1 ) = Var ( X2 ) = ... = σ 2 . § 1 n ∑ Xk = Xn media campionaria. n k =1 • E ( Xn ) = µ . • Var ( Xn ) = • σ2 . n P Xn − µ > ε → 0 (legge dei grandi numeri). ( ) n→∞ § σ2 σ • Var ( X n − µ ) = Var ( X n ) = . X n µ ± k Var ( X n ) = µ ± . n n σ Xn − µ . n Teorema limite centrale: X1 , X 2 ,.. variabili aleatorie indipendenti con la stessa formula di X −µ 2 n . ripartizione E ( X1 ) = E ( X 2 ) = ... = µ , Var ( X1 ) = Var ( X 2 ) = ... = σ ⇒ n σ 2 z ⎛ Xn − µ ⎞ 1 − u2 lim P ⎜ n ≤ z⎟ = Φ ( z ) = ∫ e du . −∞ n→+∞ ⎝ σ ⎠ 2π § Zn = § ⎛ σ2 ⎞ Xn − µ Zσ n ≈ N ( 0,1) . Xn = n + µ , Xn ≈ N ⎜ µ, ⎟ . σ ⎝ n ⎠ n n 1 10 Modelli di Variabili Aleatorie § Probabilità Mattia Natali n 1 n ⎛ n ⎞ ⎛ Z nσ ⎞ + µ ⎟ = σ nZ n + nµ à E ⎜ ∑ X k ⎟ = nµ , nXn = n ∑ X k = ∑ X k à n ⎜ ⎝ n ⎠ ⎝ k =1 ⎠ n k =1 k =1 ≈ N ( 0,1) ⎛ n ⎞ Var ⎜ ∑ X k ⎟ = nσ 2 . ⎝ k =1 ⎠ 11