Elementi di Calcolo delle probabilità PERCHÉ SI STUDIA IL CALCOLO DELLE PROBABILITÀ? Calcolo delle probabilità Stato di incertezza In cui si formano le decisioni Esperimento casuale - prova Un esperimento casuale è un fenomeno del mondo reale per il quale vi è più di un risultato possibile. Evento elementare L’evento elementare è uno dei possibili risultati dell’esperimento casuale L’esito è incerto • • • • • Lancio di una moneta Sondaggio di opinione Esame universitario Partita di calcio Controllo di qualità di un prodotto • PIL • Analisi del sangue • etc Elementi di Calcolo delle probabilità Spazio campione L’insieme di tutti i possibili esiti di un esperimento definisce lo spazio campione • Deve necessariamente verificarsi un evento elementare • Si può verificare un solo evento elementare Slide 2 Descrizione dell’esperimento promosso Esame universitario bocciato vittoria pareggio sconfitta Partita di calcio molto favorevole favorevole indifferente contrario fortemente contrario Sondaggio di opinione E2 E3 A={esce E4 E5 E1 E3 E6 E5 E2 E6 Esempio lancio di un dado E1 Evento Un evento è un insieme di eventi elementari. Eventi elementari: E1, E2,..., En A={E2, E3, E4} L’evento A si verifica quando l’esito dell’esperimento è uno degli eventi elementari che lo costituiscono. S E7 E4 Evento impossibile ∅, l’evento impossibile, è l’evento che non si verifica mai }= E3 B={numero di puntini pari}= ={E2, E4, E6}= E1 E2 E3 E4 E5 E6 Evento certo S, l’evento certo, è l’evento che si verifica sempre C={numero di puntini > 3}= ={E4, E5, E6}= E1 E2 E3 E4 E5 E6 Elementi di Calcolo delle probabilità Slide 3 Altre operazioni sugli eventi Diagrammi di Venn • Unione • Intersezione • Negazione S A B Unione di eventi A∪B Dati due eventi A e B appartenenti ad S, l’unione A∪B è l’evento costituito da tutti gli eventi elementari che appartengono o ad A o a B o ad entrambi. L’evento A∪B si verifica quando: • Si verifica A ma non si verifica B • Si verifica B ma non si verifica A • Si verificano sia A che B A Esempio: Unione Lancio di un dado S={E1, E2, E3, E4, E5, E6} Spazio campione A={numero di puntini pari} = {E2, E4, E6} B={numero di puntini > 3} = {E4, E5, E6} A∪B = {E2, E4, E5, E6} S B A∪B Elementi di Calcolo delle probabilità Slide 4 Intersezione di eventi Dati due eventi A e B appartenenti ad S, l’intersezione A∩B è l’evento costituito da tutti gli eventi elementari che appartengono sia ad A che a B. L’intersezione A∩B si verifica quando si verificano sia A che B. A S A∩B B Lancio di un dado S={E1, E2, E3, E4, E5, E6} A={numero di puntini pari} = {E2, E4, E6} B={numero di puntini > 3} = {E4, E5, E6} A∩B = { E4, E6} Esempio: Negazione Negazione di un evento Ā Dato un evento A appartenente ad S l’insieme di tutti gli eventi elementari che appartengono ad S ma non appartengono ad A costituiscono la negazione di A. La negazione di A si verifica quando A non si verifica S A Esempio: Intersezione Partita di calcio S={E1, E2, E3} E1: vittoria E2: pareggio E3: sconfitta A={vittoria}= E1 Ā={pareggio, sconfitta} = ={E2, E3} S E1=A E2 Ā E3 Elementi di Calcolo delle probabilità Ā Slide 5 Relazioni tra eventi • Inclusione • Incompatibilità • Necessarietà Inclusione Dati due eventi A e B appartenenti ad S, A è incluso in B se il verificarsi di A implica, necessariamente, il verificarsi di B. A⊆B S A N.B. A⊆B e A⊇B Incompatibilità Due eventi A e B appartenenti ad S si dicono incompatibili quando non hanno eventi elementari in comune B A=B Necessarietà Gli eventi A1, A2, ..., An Appartenenti ad S si dicono necessari se A1∪A2∪... ∪An = S A∩B=∅ S A B N.B. Due eventi incompatibili non possono verificarsi contemporaneamente. Elementi di Calcolo delle probabilità Slide 6 Partizione Leggi del De Morgan Gli eventi A∪B= A∩B A1, A2, ..., An Costituiscono una partizione se S A • A1∪A2∪... ∪An = S • Ai∩Aj=∅ ∀ i≠j S A1 A3 A∩B= A∪B A5 A2 A6 B A7 A4 Probabilità • Definizione classica • Definizione frequentista • Definizione soggettivista Impostazione assiomatica A S B Definizione classica di Probabilità Dato un esperimento in cui • Vi è un numero finito di risultati possibili • Gli eventi elementari sono equiprobabili La probabilità è definita come # casi favorevoli # casi totali Pascal (1623-1662) Bernoulli (1713), De Moivre (1718), Laplace (1812) Elementi di Calcolo delle probabilità Slide 7 Definizione frequentista di Probabilità Dato un esperimento perfettamente ripetibile ed un evento possibile E, la probabilità di E è data dal limite della frequenza relativa con cui si verifica E al divergere del numero di ripetizioni dell’esperimento. af fr a E f af n→∞ af nE n→∞ n P E = lim fr E = lim Definizione soggettivista di Probabilità Dato un esperimento ed un evento possibile E, la probabilità di E è il grado di fiducia che un soggetto ha nel verificarsi dell'evento E. È la somma che un individuo è pronto a scommettere per ricevere una somma unitaria se l’evento E si verifica 0 altrimenti. Bernoulli (1713) Anni 20: Ramsey, De Finetti, Savage Laplace, Venn, Von Mises (prima metà del XIX secolo) Impostazione assiomatica Kolmogorov 1930-40 La probabilità è una funzione che soddisfa i postulati Teoremi 1. P(Ā)=1-P(A) 2. P(∅)=0 3. P(A)≤1 4. P(A∪B)=P(A)+P(B)-P(A∩B) Postulati 1. P(A)≥0 2. P(S)=1 3. A∩B=∅ ⇒ P(A∪B)=P(A)+P(B) Elementi di Calcolo delle probabilità A S B Slide 8 Misura della Probabilità E1, E2, ..., En • Ei∩ Ej=∅ (incompatibili) n • ∪ Ei = S (necessarietà) i =1 • P(Ei)=costante (equiprobabilità) A={E1, E2, ..., Ek} # casi favorevoli PA = # casi totali af af PA = a k n f P A∩B Dati due eventi A e B, dalla definizione di probabilità condizionata (dato P B > 0): P A∩B P AB = PB si ha: P A∩B = P AB ⋅P B o in alternativa (dato P A > 0 ) essendo: P A∩B P BA = PA si ha: P A ∩ B = P BA ⋅ P A af b g aaff a f b g af af a f b g af a f b g af Elementi di Calcolo delle probabilità Probabilità condizionata Dati due eventi A e B la probabilità condizionata di A dato B è: P A∩B P AB = PB posto P B > 0 NB la probabilità condizionata soddisfa i postulati: Infatti posto P C > 0 risulta: 1. P A C ≥ 0 2. P S C = 1 3. A∩B=∅ ⇒ P A ∪ BC = P A C + P BC e valgono quindi tutti i teoremi b g aaff af b g b g b af g b g b g Esempio: Probabilità condizionata 3 P( ) = 8 5 P( ) = 8 Estrazione senza rimessa: 2 P(II= | I = )= 7 P(II= | I = )= 5 7 Slide 9 Esempio: Probabilità condizionata 2 Estrazione di due palline senza rimessa 2 3 )=P(II= | I = )·P(I= )= ⋅ 7 8 4 5 P( )=P(II= | I = )·P(I= )= ⋅ 7 8 P( )= =P[(I= ∩II= )∪(I= ∩II= )]= =P(I= ∩II= )+P(I= ∩II= )= 5 3 3 5 = ⋅ + ⋅ 8 7 8 7 P( Eventi indipendenti Due eventi A e B sono indipendenti se (posto P B > 0) P AB = P A l’indipendenza è una relazione simmetrica (posti P B , P A > 0 ): P A B = P A ⇔ P BA = P B af b g af af af b g af b g af Se (e solo se) due eventi sono indipendenti si ha: P A∩B = P A ⋅P B a f af af Elementi di Calcolo delle probabilità Esempio: Probabilità condizionata 3 3 P( ) = 8 5 P( ) = 8 Estrazione senza rimessa 2 P(II= | I = )= 7 3 P(II= | I = )= 7 P(II= )= =P[(I= ∩II= )∪(I= ∩II= )]= =P(I= ∩II= )+P(I= ∩II= )= =P(II= | I = )·P(I= )+ +P(II= | I = )·P(I= )+= 2 3 3 5 21 3 = ⋅ + ⋅ = = 7 8 7 8 56 8 Esempio: eventi indipendenti Estrazione con rimessa P( )=P(I= )·P(II= P( )=P(I= )·P(II= P( )= =P[(I= ∩II= )∪(I= =P(I= ∩II= )+P(I= 5 3 3 5 = ⋅ + ⋅ 8 8 8 8 )=3/8⋅3/8 )=5/8⋅5/8 ∩II= )]= ∩II= )= Slide 10 Teorema Dati due eventi A e B si ha: A e B indipendenti A e B indipendenti A e B indipendenti A e B indipendenti Domanda Eventi incompatibili (con probabilità non nulla) possono essere indipendenti? NO P(A∩B)=P(∅)=0 Incompatibilità a f b g af P A∩B =0 PB Che può essere uguale a P(A) solo se P(A)=0 P AB = Teorema di Bayes Problema Diretto Teorema di Bayes ??? H0 Problema inverso H1 C • H0∩H1=∅ (incompatibili) • H0∪H1=S (necessari) H0 P(H0) P( |H0) P(H0| )=? ??? H1 P(H1) P( |H1) P(H1| )=? Elementi di Calcolo delle probabilità Probabilità note: P(H0) e P(H1) ← a priori P(C|H0) e P(C|H1) ← probative Probabilità da determinare: P(H0|C) e P(H1|C) ← a posteriori Slide 11 Formula di Bayes P H0 C = b Rapporto di probabilità a posteriori g a f b g Pb H Cg Pa H f Pb C H g a f b g a f b g P b H Cg = P a H f ⋅ P b C H g P b H Cg = Rapporto di verosimiglianza Pa H f ⋅ Pb C H g = Pa H f ⋅ Pb C H g + Pa H f ⋅ Pb C H g N.B.: Pb H Cg + Pb H Cg = 1 = P H0 ⋅ P C H0 P H 0 ⋅ P C H 0 + P H1 ⋅ P C H1 0 0 0 1 1 1 1 1 0 0 0 1 1 1 1 Variabili casuali Una variabile casuale è una funzione definita sullo spazio campione che assume valori in R: E1 E3 E2 E4 x1 x2 x3 Esempio: lancio di un dado E1 E2 E3 E4 E5 E6 R X(E)=numero di puntini R X(E): S→R • X(E) non è necessariamente una funzione biunivoca • Variabili casuali bivariate Elementi di Calcolo delle probabilità E1 E2 E3 E4 E5 E6 0 1 R 0: numero di puntini dispari R a f ST1: numero di puntini pari X E = Slide 12 Tipi di variabili casuali Discrete Una variabile casuale X è discreta se assume valori in un insieme discreto (finito o infinito numerabile). Es. Numero di goal, numero di incidenti, numero di promossi etc.. Continue Una variabile casuale è continua se assume valori in un insieme continuo (con la potenza del continuo). Variabili casuali discrete X: x1, x2, .. .., xk. p(x1), p(x2), ..,p(xk). p(xi)=P(X=xi) i=1,2,...,k 1) 2) a f ∑ pa x f = 1 p xi ≥ 0 ∀i k i =1 i X P(X=xi) x1 p(x1) x2 p(x2) P(X=xi) p(x2) Es. Durata, peso, altezza, reddito, etc.. p(x1) xk p(xk) Es. Lancio del dado X={1,2,3,4,5,6} x1 x2 Variabili casuali continue P(X=x)=1/6 funzione densità di probabilità x=1,2,3,4,5,6 P(X=x) xk f(x) x x+dx P(x≤X≤ x+dx)=f(x)⋅dx 1/6 123456 x Proprietà: 1) 2) Elementi di Calcolo delle probabilità af f x ≥0 ∀x ∞ −∞ f x ⋅ dx = 1 z af Slide 13 x Funzione densità di probabilità Funzione di ripartizione F(x)= P(X≤ x) Variabili casuali discrete f(x) af a f F x = ∑ p xi a Variabili casuali continue x b xi ≤ x P(a≤X≤ b)=Area tratteggiata = = ab f x ⋅ dx z af a f z f auf ⋅ du x F x = −∞ f(x) N.B. P(X=x) = 0 x x Funzione di ripartizione per v.c. continue Funzione di ripartizione per v.c. discrete 1 F(x) F(x) 1 F(xj+2) F(xj) 0 0 xj xj+1 xj+2 x x F a x f = z f auf ⋅ du af a f F a x f = pa x f d F a xf da cui: f x = a f F a x f = pa x f + pa x f dx F a x f = pa x f + pa x f+...+ pa x f = 1 x F x = ∑ p xi −∞ xi ≤ x 1 1 2 1 2 k 1 2 k Elementi di Calcolo delle probabilità Slide 14 Proprietà della Funzione di ripartizione af lim F a x f = 0 F a x f è non decrescente F a x f è continua a destra RS lim F a xf − F a x − hf = pa xfUV T W lim F x = 1 x→∞ x→−∞ v.c. identicamente distribuite Due v.c. X ed Y, che hanno la stessa distribuzione si dicono identicamente distribuite. af af X e Y i.d. ⇔ FX u = FY u Come si confrontano v.c. non identicamente distribuite? Momenti h→ 0+ Operatore valore atteso Valore atteso di v.c. k Il valore atteso di una v.c. X si indi∑ g xi ⋅ p xi v.c.discrete ca con E(X) ed è dato da: i =1 E g x = a f R| a f a f af S |T z ga xf ⋅ f a xf ⋅ dx v.c.continue ∞ a f E X = ∑ik=1 xi ⋅ p xi per v.c. discrete a f z −∞ • uguale notazione per v.c. discrete e continue • operatore lineare E a⋅ X +b = a⋅E X +b af ∞ E X = −∞ x ⋅ f x ⋅ dx per v.c. continue a f a f f(x) E(X) x Elementi di Calcolo delle probabilità Slide 15 Momenti di una v.c. Momento r-esimo della v.c. X: µr = E X r d i R| ∑ x ⋅ pa x f v.c.discrete =S |T z x ⋅ f a xf ⋅ dx v.c.continue k µr r i i =1 ∞ r Momenti di una X-µ Variabile casuale scarto X-µ • E X − µ = E X − µ =0 a f a f i fX(u) fX-µ(u) −∞ a f d i 0 µ1 = E X µ2 = E X 2 momento r-esimo di X-µ r µr = E X − µ 0.5 0.5 Mediana • me: F(me)=1/2 Moda moda 2 i =1 ∞ −∞ 2 2 i 2 3 Proprietà della varianza • Var X = µ 2 − µ 2 • Var a ⋅ X + b = a 2 ⋅ Var X • Disuguaglianza di Chebyshev a f a f a f =σ a f R| ∑ a x − µ f ⋅ pa x f v.c.dis. =S |T z a x − µ f ⋅ f a xf ⋅ dx v.c.cont. Pb X − µ ≤ ε g ≥ 1 − σε k 2 µ3 a f = Ea X − µf = 0 = E a X − µf = σ = E a X − µf x Varianza Var X = µ 2 = E X − µ σ µ1 µ2 x me • E(X)= u i 2 2 f(x) x E(X) Scarto quadratico medio: σ = Var X a f Elementi di Calcolo delle probabilità a f 2 2 f(x) µ-ε µ µ+ε x Slide 16 v.c. standardizzata Z= X −µ σ Momenti della v.c. standardizzata r X −µ r µr = E Z = E a f FH X σ− µ IK = σ1 ⋅ E a X − µ f = • 1 = ⋅ Ea X f − µ = 0 • σ E Z =E LF X − µ I OP = Var Z = E M NH σ K Q σ 1 = ⋅ E a X − µf = =1 σ σ 2 2 2 • µ1 µ2 µ3 O L F I d i MNH σ K PQ = E aZ f = 0 = E d Z i = Var a Z f = 1 L X − µI O F = EM HN σ K PQ=β 2 3 1 asimmetria 2 2 µ3 < 0 µ3 = 0 µ3 > 0 γ 2 = µ 4 − 3 → curtosi Elementi di Calcolo delle probabilità Slide 17 v.c. doppie Una variabile casuale doppia è una funzione (...) definita sullo spazio campione che associa ad ogni evento una coppia di valori reali (X, Y) y x1 x2 x xk Pk 1 Pk 2 ⋅⋅⋅ Pkh P•1 P•2 ⋅⋅⋅ P• h P11 P12 ⋅⋅⋅ P1h P21 P22 ⋅⋅⋅ P2 h P1• P2• xk Pk 1 Pk 2 ⋅⋅⋅ Pkh P•1 P•2 ⋅⋅⋅ P• h Pk • a f c Pij = P X = xi ∩ Y = y j h h 2) ∑ ∑ Pij = 1 i =1 j =1 Distribuzioni condizionate d i P a X = x f ∩ cY = y h P = = P PcY = y h P X = xi Y = y j = P1• P2• i j Pk • i ij •j j a f c h P = Pa X = x f = = ∑ P a X = x f ∩ cY = y h = ∑ P c h P cY = y h ∩ a X = x f P = = Pa X = x f P P Y = y j X = xi = j i i ij i• h h j =1 y1 y2 ⋅⋅⋅ yh x1 x2 k Pij = P X = xi ∩ Y = y j i• Y: y1, y2,..., yh 1) Pij ≥ 0 y1 y2 ⋅⋅⋅ yh P11 P12 ⋅⋅⋅ P1h P21 P22 ⋅⋅⋅ P2 h Y X • Distribuzione congiunta • Distribuzione marginale • Distribuzione condizionata →Discrete/continue Distribuzioni marginali X X: x1, x2, .., xk altezza peso Y v.c. doppie discrete Distribuzioni marginali i j j =1 Elementi di Calcolo delle probabilità ij Slide 18 Indipendenza stocastica Variabili casuali doppie continue i a h c d c f h P X = xi Y = y j = P X = xi = Pi • Funzione densità di P Y = y j X = xi = P Y = y j = P• j probabilità congiunta. a f c h = Pa X = x f ⋅ PcY = y h P X = xi ∩ Y = y j = i j Pij = Pi• ⋅ P• j ∀ i=1,2,..., k j=1,2, ...,h Indipendenza stocastica v.c. doppie f(x,y) 1) f(x,y)≥0 2) z z f a x, yf ⋅ dx ⋅ dy = 1 +∞ +∞ −∞ −∞ a f z f a x, yf ⋅ dy f a y f = z f a x , y f ⋅ dx Funzioni densità di probabilità marginali fX x = Y Momenti v.c. doppie −∞ +∞ −∞ µr,s momento misto di ordine r+s d µ r ,s = E X r ⋅ Y s X ed Y indipendenti +∞ i v.c. discrete k h µ r , s = ∑ ∑ xir ⋅ y sj ⋅ Pij i = 1 j =1 v.c. continue µ r ,s = f(x,y)= fX(x) fY(y) z z x ⋅ y ⋅ f a x, yf ⋅ dx ⋅ dy +∞ +∞ r s −∞ −∞ Momenti marginali µ r ,0 = E X r ⋅ Y 0 = E X r = µ r • µ 0,s Elementi di Calcolo delle probabilità d = Ed X 0 i d i ⋅ Y i = E dY i = µ s s •s Slide 19 Valore atteso→Operatore Lineare Momenti in caso di indipendenza d i a µ r , s = E X r ⋅ Y s = ∑ ∑ xir ⋅ y sj ⋅ Pij = k af Dimostrazione = ∑ ∑ xir ⋅ y sj ⋅ Pi • ⋅ P• j = = a f i = 1 j =1 h i = 1 j =1 h k r s ∑ xi ⋅ Pi • ∑ y j i =1 j =1 r s f = E a ⋅ X + b ⋅Y = a ⋅ E X + b ⋅ E Y h k a f E a ⋅ X + b ⋅Y = ⋅ P• j = k h c h = ∑ ∑ a ⋅ xi + b ⋅ y j ⋅ Pij = d i ⋅ E dY i = i =1 j =1 =E X = µ r• ⋅ µ•s k h k h = ∑ ∑ a ⋅ xi ⋅ Pij + ∑ ∑ b ⋅ y j ⋅ Pij = i =1 j =1 i =1 j =1 k h h k i =1 j =1 j =1 i =1 = a ⋅ ∑ xi ∑ Pij ⋅ +b ⋅ ∑ y j ∑ Pij = k h i =1 j =1 = a ⋅ ∑ xi Pi • ⋅ +b ⋅ ∑ y j P• j = a f af = a⋅ E X +b⋅ E Y Covarianza Cov X , Y = E X − µ X ⋅ Y − µ Y a f a fa Coefficiente di correlazione = X − µX Y − µY f a f LMFGH N ρ X ,Y = E = σ XY a µ XY = E X ⋅ Y σ XY = µ XY − µ X ⋅ µ Y f X ed Y ind. ⇒σ XY = 0 a σY σ XY σ X ⋅σ Y IJ OP = KQ a f ρ X , Y è un indice che misura l’intensità del legame lineare f Cov a ⋅ X + b, c ⋅ Y + d = a ⋅ c ⋅ σ X Y Diseguaglianza di Cauchy-Schwaz: σ XY ≤ σ X ⋅ σ Y σ 2X = Var X 2 σ XY rivela se esiste σ Y il segno del legame lineare = σX IJ ⋅ FG KH a f = Var aY f ρ=0,7 ρ=1 ρ=0 ρ=-0,8 È un indice di prevedibilità Elementi di Calcolo delle probabilità Slide 20 Varianza di a⋅X+b⋅Y Proprietà ρ(X,Y) a f a f a f a f a f a f a f 1) ρ X , Y ≤ 1 2) ρ X , Y = ±1 ⇒ Y = a ⋅ X + b 3) ρ X , Y = ρ Y , X 4) ρ a ⋅ X + b, c ⋅ Y + d = ρ X , Y 5) X ed Y ind. ⇒ ρ X , Y = 0 a a f ⋅ Var aY f + 2 ⋅ a ⋅ b ⋅ Cova X , Y f f Var a ⋅ X + b ⋅ Y = a 2 ⋅ Var X + +b 2 X ed Y ind ⇓ Var a ⋅ X + b ⋅ Y = a 2 ⋅ Var X + a f +b 2 a f ⋅ Var aY f Combinazioni lineari Combinazioni lineari a⋅X+b⋅Y W=a1⋅X1+a2⋅X2+...+anXn a a f E a ⋅ X + b ⋅ Y = a ⋅ µ X + b ⋅ µY f Var a ⋅ X + b ⋅ Y = a 2 ⋅ σ 2X +b 2 ⋅ σ Y2 + a f +2 ⋅ a ⋅ b ⋅ σ XY X+Y a f E X + Y = µ X + µY a f Var X + Y = σ 2X + σ Y2 + +2 ⋅ σ XY X-Y a f E X − Y = µ X − µY a f Var X − Y = σ 2X + σ Y2 a f n n E W = ∑ ai ⋅ E X i = ∑ ai ⋅ µ X i a f i =1 F H i =1 I K n a f µ Xi = E Xi Var W = Var ∑ ai ⋅ X i = n i =1 n = ∑ ai2 ⋅ σ 2X i + ∑ ∑ ai ⋅ a j ⋅ σ X i X j i =1 + −2 ⋅ σ XY i =1 j ≠ i a f = Covc X , X h σ 2X i = Var X i σ Xi X j i j Se le Xi sono indipendenti Var aW f = Var F ∑ a ⋅ X I = ∑ a H K n i =1 Elementi di Calcolo delle probabilità n i i i =1 2 i ⋅ σ 2X i Slide 21 Variabile casuale Normale X ~ N µ ,σ 2 d i 1 f d x; µ , σ i = e 2 ⋅π ⋅σ 2 F H v.c. Normale I K 1 x−µ 2 − 2 σ µ−3σ µ+3σ 99.7% µ−2σ µ+2σ 95.46% µ−σ 68.26% µ+σ −∞ < X < +∞ µ = E X , − ∞ < µ < +∞ σ 2 = Var X , 0 < σ 2 < +∞ Simmetrica µ3 = 0 Unimodale a f a f µ µ=mediana µ=moda x µ 4 = 3 ⇒ curtosi µ 4 − 3 = 0 v.c. Normale Standard Z ~ N 0,1 a f af Aree Z~N(0,1) a f af a f a f bg P Z≤z =Φ z 1 − z2 1 φ z = e 2 2 ⋅π af z af z z af P Z > z = 1− Φ z Φ z = φ x ⋅ dx z −∞ af a f Φ z = P Z ≤ z ⇒ Tavole P Z>z =Φ z z2 af − 1 φ z = e 2 2 ⋅π z Z<0 a f bg P Z ≤ z = 1− Φ z z Z<0 0 z Elementi di Calcolo delle probabilità a f P z1 < Z ≤ z2 = a f af = Φ z2 − Φ z1 z1 z2 Slide 22 Teorema Uso tavole Sia X ~ N µ X ,σ 2X X ~ N µ X ,σ 2X una v.c. Y trasformazione lineare di X: P X ≤x Y = a⋅ X +b è ancora una v.c. Normale di parametri µ Y = a ⋅ µ X + b; σ Y2 = a 2 ⋅ σ 2X Y ~ N a ⋅ µ X + b, a 2 ⋅ σ 2X 0 x Nota P X ≤ x = P X −µ≤ x−µ = X −µ 1 µ = X− X −µ x−µ x−µ d i d d Z= σ σ d X ~ N µ X ,σ 2X X −µ σ a f a f=? i a σ i Fµ ~ NG Hσ ⇓ X f a F ≤ H σ F x − µI =Φ H σ K =P i IJ K µ X σ 2X − , = σ σ 2X f I = PF Z ≤ K H σ σ I == K = N 0,1 Proprietà riproduttiva della Normale ⇒ X ~ N µ X ,σ 2X d i ⇒Y ~ N d µ , σ i Y 2 Y X ed Y indipendenti W=a⋅X+b⋅Y 2 ⇒W ~ N µ W ,σ W d i µW = a ⋅ µ X + b ⋅ µ Y σ W2 = a 2 ⋅ σ 2X + b2 ⋅ σ Y2 Esempio: Proprietà riproduttiva ⇒ X ~ N µ X ,σ 2X d i ⇒Y ~ N d µ , σ i X ed Y indipendenti d X + Y ~ N µ X + µ Y ,σ 2X + σ Y2 Generalizzazione Date le v.c. X1, X2,⋅⋅⋅⋅⋅,Xn dove X i ~ N µ , σ 2 ∀i se tali v.c. sono indipendenti d n i d 2 ∑ Xi ~ N n ⋅ µ X , n ⋅ σ X i =1 Elementi di Calcolo delle probabilità 2 Y Y i Slide 23 i v.c. Indicatore/Bernulliana Esperimento con risultato dicotomico v.c. Indicatore/Bernulliana a f X 0 1 X ~ B 1, p F(x) P(X) 1-p=q p 1 a f RST10 ↔↔ SI v.c. Bernoulliana X ~ Ba1, pf 1-p X=I S = X 0 1 P(X) 1-p=q p p=P(S) q=P(I) 0 1 x a f a f E d X i = 0 ⋅ a1 − pf + 1 ⋅ p = p Var a X f = E d X i − E a X f = = p − p = p ⋅ a1 − pf µ = E X = 0 ⋅ 1 − p + 1⋅ p = p 2 2 2 2 2 2 v.c. Binomiale 1) 2) 3) v.c. Binomiale B(n,p) X=0,1,....,n n x P X=x = p ⋅ 1− p x Y1 , Y2 ,....., Yn indipendenti n prove indipendenti risultato dicotomico probabilità p costante X: numero di successi (in n prove) X ~ B n, p a xf SSSSS px n− x IIIIIIII a1 − pf F nI Pa X = x f = G J p ⋅ a1 − pf H xK n− x x f FGH IJK a f a n− x X = ∑Y a f E a X f = E aY + Y +.....+Y f = = E aY f + E aY f+...+ E aY f = n ⋅ p n Yi = B 1, p i =1 1 1 a f 2 2 i n n a f = Var aY f+...+Var aY f = = n ⋅ p ⋅ a1 − pf Var X = Var Y1 + Y2 +.....+Yn = n− x Elementi di Calcolo delle probabilità 1 n Slide 24 v.c. Poisson X ~ P(µ ) X intero 0 ≤ X < +∞ X=0,1,2,3... P( X ) = µx x! e− µ µ=0,5 µ=1 0 1 2 3 4 0 1 2 3 4 µ=4 0 1 2 3 4 5 6 7 8 E ( X ) = Var ( X ) = µ v.c. Esponenziale Negativa X ~ Exp λ • X ≥0 • f x; λ = λ ⋅ e − λ ⋅ x λ > 0 af a f f a x; λ f λ x af af λ 1 ⇒Var a x f = λ • F x = 1 − e− λ ⋅x 1 • E x = 2 Elementi di Calcolo delle probabilità Processo di Poisson Processo di conteggio • Le v.c. che contano il numero di eventi in intervalli disgiunti sono indipendenti • La probabilità che si verifichi un evento in un intervallo piccolo è proporzionale all’ampiezza dell’intervallo • La probabilità che si verifichi più di un evento in un intervallo piccolo è trascurabile X →numero di eventi in (0,t) X ~ P ( µ ) con µ=λ⋅t µ= numero medio di eventi in (0,t) λ= numero medio di eventi in un ∆t unitario Momenti della media X1, X2,⋅⋅⋅⋅⋅,Xn Indipendenti • E Xi = µ • Var X i = σ 2 < +∞ a f a f Xn = 1 n ∑ Xi n i =1 ⇒E( Xn ) = µ ⇒Var ( X n ) = σ2 n Slide 25 Momenti della media 1 n X n = ∑ Xi = n i =1 1 1 1 = X 1 + X 2 +.....+ X n n n n a f b g Teorema del limite centrale X1, X2,⋅⋅⋅⋅ ,Xn • Indipendenti • E X i = µ ∀i • Var X i = σ 2 < +∞ ∀i a f a f a f 1 1 E X 1 +.....+ E X n = n n 1 1 1 = µ +.....+ µ = ⋅ n ⋅ µ = µ n n n E Xn = a f b g a f 1 1 Var X 1 +.....+ 2 Var X n = 2 n n σ2 1 2 1 2 1 2 = 2 σ +.....+ 2 σ = 2 ⋅ n ⋅ σ = n n n n Var X n = 1 n def. X n = ∑ X i n i =1 b g σ Var b X g = n E Xn = µ 2 n Xn − µ Zn = σ n ⇓ Zn ~ N ( 0,1) n→∞ Teorema di De Moivre Laplace X ~ B ( n, p ) a f Var a X f = n ⋅ p ⋅ a1 − pf E X = n⋅ p Zn = X − n⋅ p n ⋅ p ⋅ (1 − p ) ⇓ ~ a f Zn n→∞N 0,1 Elementi di Calcolo delle probabilità Slide 26