Calcolo della probabilità Spazio dei risultati Se si esegue una prova (es. tiro di un dado) si indica con U tutti i possibili risultati che può dare. U E E=evento U=universo Evento: - aleatorio: può accadere E ⊆ U - certo: accade di sicuro E=U - impossibile: E ∩ U = ∅ Probabilità classica (Pascal) Si può utilizzare SOLO se i casi sono equiprobabili (es si può utilizzare con il lancio di un dado, ma non di un dado truccato) La probabilità che è si verifichi è casi favorevoli p( E ) = casi possibili 0 ≤ p( E ) ≤ 1 Probabilità assiomatica 1° assioma: se E è un evento p ( E ) ≥ 0 2° assioma: p(U)=1 3° assioma: se 2 eventi A e B sono INCOMPATIBILI cioè A ∩ B= ∅ Æ Æ p(A ∪ B)=p(A)+p(B) p ( A ∩ B) p( B / A) p( A) 4° assioma: p ( A / B) = = dove p(A/B) è la probabilità cheA si p( B) p( B) verifichi essendo già accaduto B. Allo stesso modo p(B/A) è la probabilità di B essendo già accaduto A. Questo si chiama EVENTO SUBORDINATO o CONDIZIONATO. Teorema 1 __ p( A) = 1 − p( A) dove ___ A è l’evento complementare dim: __ A∪ A =U __ A∩ A = ∅ dato che la loro intersezione è nulla, A ed il suo complementare sono eventi incompatibili Æ __ __ p( A ∪ A) = p( A) + p( A) ma __ p( A ∪ A) = p(U ) = 1 __ __ p( A) + p( A) = 1 → p( A) = 1 − p( A) c.v.d . Teorema 2 Generalizzazione del 3° assioma p ( A ∪ B ) = p ( A) + p ( B ) − p ( A ∩ B ) Evento totale U A H1 H2 H3 Hn A evento trasversale Siano H1, H2, … Hn una partizione di U e sia A un eventi trasversale rispetto ad essi p( A) = p ( A ∩ H1 ) + p ( A ∩ H 2 ) + ... + p ( A ∩ H n ) = = p( A / H1 ) p ( H1 ) + p ( A / H 2 ) p ( H 2 ) + ... + p ( A / H n ) p ( H n ) es. un esempio di evento trasversale: hai 2 urne. Nella prima ci sono 3 palline rosse e 2 nere. Nella seconda ce ne sono 7 rosse e 5 nere. Come evento trasversale potresti considerare “estrarre una pallina rossa”. Sarà, a parole, la probabilità di estrarre una pallina rossa, avendo scelto l’urna 1, per la probabilità di scegliere l’urna 1 più la probabilità di estrarre una pallina rossa avendo scelto l’urna 2 per la probabilità di scegliere l’urna 2. In numeri: 3 1 7 1 p ( A) = * + * 5 2 12 2 Teorema di Bayes Risalire alle cause vedendo l’effetto p( A / B) = p( B / A) p( A) p( B) STATISTICA Sia X una variabile casuale reale (può assumere tutti i valori di R). p(X=x) si assume nulla Si calcola la probabilità che X cada in un intervallo quindi, perché la probabilità che assuma un valore ben preciso è tendente a 0. Il calcolo della probabilità è basato su una funzione, detta funzione densità di probabilità che gode di 3 proprietà fondamentali: 1. E’ sempre positiva f ( x) ≥ 0 ∀x ∈ D 2. L’integrale da -∞ a +∞ di f(x) vale 1 ∫ +∞ −∞ f ( x) dx = 1 3. La probabilità che X cada in un intervallo [a,b] è l’integrale di f(x)dx da a b a b. p (a ≤ X ≤ b) = ∫ f ( x)dx a a b La probabilità che X assuma un valore compreso tra a e b è rappresentata dall’area colorata in rosso, quindi dall’integrale calcolato nell’intervallo [a,b]. Si definisce allora la funzione di ripartizione, cioè la funzione integrale per definizione calcolata da -∞ ad x di f(t)dt. Es. ⎧0 ⎪ f ( x) = ⎨3 x 2 ⎪0 ⎩ f(x) ∫ 1 0 rispetta 3 x 2 dx = 3[ x<0 0 ≤ x ≤1 x >1 tutte 3 le x 1 ]0 = 1 3 condizioni: non è negativa in nessun punto e La funzione di ripartizione allora sarà x<0 ⎧0 ⎪⎪ x 2 F ( x) = ⎨ ∫ 3t dt = [t 3 ]0x = x3 0 ⎪ ⎪⎩1 x > 1 0 ≤ x ≤1 Per x>1 vale 1 perché per definizione la funzione di ripartizione va da -∞ a x, bisogna ricordarsi questo aspetto!! Media di X X=x x1 x2 … xn p(X=x) p1 p2 … pn Per le variabili discrete (cioè che assumono solo valori per definiti es. numeri interi) la media E(x)= x1p1 + x2p2 +…+ xnpn Invece nelle variabili continue E(x) è ∫ +∞ −∞ x * f ( x) dx Varianza di X 2 б è ∫ +∞ −∞ ( x − E ( x)) 2 f ( x)dx DISTRIBUZIONE NORMALE Supponiamo di voler effettuare una misura: possiamo supporre che le probabilità di ottenere una misura maggiore o minore siano simmetriche. La funzione densità di probabilità di tale distribuzione è la curva normale o gaussiana: g ( x) = 1 e δ 2π 1 ⎛ x−M ⎞ − ⎜ ⎟ 2⎝ δ ⎠ E la sua funzione di ripartizione è 2 1 ∫−∞ δ 2π e x 1 ⎛ t −M ⎞ − ⎜ ⎟ 2⎝ δ ⎠ 2 dt Un integrale non calcolabile con funzioni elementari: bisogna usare delle tabelle specifiche. La curva ha il suo massimo in x=M, cioè nel punto di ascissa che individua la media della distribuzione. Possiede due flessi nei punti M+б e M-б dove б è lo scarto quadratico medio, radice quadrata della varianza. Le tabelle in cui leggiamo i valori della funzione di ripartizione e quindi la probabilità si riferiscono ad una gaussiana standard in cui M=0 (la funzione è centrata quindi in 0) e б2=1. Si scrive così: X~N(M, б2) ovvero la variabile casuale è approssimabile ad una distribuzione normale di media M e varianza б2. Standardizzare una distribuzione significa operare una sostituzione nell’integrale per ricondurre la funzione alla curva standard di cui possediamo le tabelle. La sostituzione diventa z= x−M δ G( z) = ∫ z −∞ 1 − 12 t 2 e dt 2π Quando si usa la curva standard bisogna fare attenzione agli estremi di integrazione, che sono da cambiare! DISTRIBUZIONE BINOMIALE Variabile discreta. Assume solo valori interi. Dobbiamo usarla se si interessa sapere la probabilità di ottenere m successi in n prove. X~Bin(n, p) X è approssimabile ad una distribuzione binomiale con n prove con probabilità p. Esempio: Supponiamo che una prova consista nel tirare contemporaneamente 2 monete. Decido che il successo sia rappresentato da ottenere 2 croci, quindi p=1/4. Voglio sapere qual è la probabilità che io ottenga 3 successi in 5 prove. p(X=3)= ⎛ 5⎞ 3 5−3 ⎜ ⎟ p (1 − p ) ⎝ 3⎠ Quando nÆ+∞ (e in statistica significa superiore a 25-30) possiamo approssimare la distribuzione binomiale ad una normale con questi parametri: X~N(np, np(1-p)) L’approsimazione di una variabile discreta ad una continua comporta attenzione a certi particolari. Ad esempio se volevo conoscere la probabilità che X assumesse un valore appartenente ad un determinato intervallo tenevo in considerazione che essa potesse assumere solo valori interi. Prendiamo che io volessi sapere p(x≥5). Quando approssimo a normale considererò p(x≥4.5) perché approssimando i valori maggiori o uguali a 4.5 ottengo 5. Bisogna quindi stare attenti a questo aspetto di approssimazione negli esercizi. DISTRIBUZIONE DI POISSON Sia E un evento che in media si presenta λ volte. Sia X il numero di volte in cui X si può presentare. X~P(λ) X è approssimabile ad una poissoniana con parametro λ. X=x 0 1 2 … N p(X=x) λx p(X=x)= x! e−λ esempio: Se in media ci sono 50 guasti al giorno (λ) sulle linee telefoniche qual è la probabilità che in un’ora vengano segnalati meno di 3 guasti. p(X<3)=p(X=0)+p(X=1)+p(X=2) λ=50/8 (considero solo le 8 ore lavorative e non le 24 di un giorno intero) X~P(50/8) ( 50 / 8) 0 0! = 5,17% ( 50 / 8) + 1 e − (50 / 8) 1! e − (50 / 8) ( 50 / 8) + 2! 2 e − (50 / 8) = DISTRIBUZIONE GEOMETRICA Sia E un evento che può accadere con probabilità p e sia X il numero di prove da effettuare affinchè E accada. X=x p(X=x) 1 p 2 p(1-p) … … n p(1-p)n-1 X~G(p) X è approssimabile ad una distribuzione geometrica con probabilità p. E(x)=1/p б2=(1-p)/p2 esempio: Carlo l’arciere colpisce il bersaglio con una probabilità del 20% (p=0.2). Qual è la probabilità che Tizio impieghi più di 5 lanci per colpirlo. p(X>5)=1-(p(X=1)+p(X=2)+ p(X=3)+p(X=4)+p(X=5))= =1-(0.2*0.80+0.2*0.8+0.2*0.82+0.2*0.83+0.2*0.84)=32.8% Ricapitolando possiamo dividere le variabili casuali in 2 gruppi: 1. Variabili discrete - Binomiale - Poissoniana - Geometrica 2. Variabili continue - Normale (Gaussiana) - Funzione densità di probabilità Calcolo combinatorio 1° caso Disposizioni semplici di n oggetti presi k alla volta, ovvero i gruppi di k oggetti DISTINTI TRA LORO scelti tra gli n dati, considerando diversi 2 gruppi che differiscono per l’ordine degli elementi (es. ABC ≠ BCA) Dn ,k = n(n − 1)(n − 2)...(n − k + 1) es. diposizioni di 9 oggetti presi 3 alla volta D9,3 = 9(9 − 1)(9 − 2) = 9 *8*7 2° caso Permutazioni: disposizioni di n oggetti presi n alla volta Pn = n ! es. Quanti anagrammi di SALE posso creare? P4 = 4! Ma potrebbero esserci oggetti ripetuti (es. anagramma di PAOLA la A si ripete 2 volte, quindi se permuto, mi verranno alcuni risultati uguali e li conterò più volte!) Æ Permutazioni di n oggetti con k ripetuti: Pn ( k ) = n! k! e se ci sono k elementi di un tipo che si ripetono e h elementi di un altro: Pn ( k ,h ) = n! k !h ! 3° caso Disposizione di n oggetti presi k alla volta con ripetizione (es. Se vogliono considerare le possibili disposizioni di ABC e prendere in esame anche disposizioni come AAB oppure CCC oppure BCC e via dicendo) D r n,k = n k 4° caso Dati n oggetti DISTINTI vogliamo formare gruppi da k oggetti non ripetuti. 2 gruppi che differiscano per l’ordine sono considerati uguali (es ABC = CBA). Cn , k = Dn ,k k! = n(n − 1)(n − 2)...(n − k + 1) ⎛ n ⎞ n! =⎜ ⎟= k! ⎝ k ⎠ k !(n − k )! 5° caso Combinazioni con ripetizione (es. AAB che poi è considerato uguale a BAA ABA) ⎛ n + k − 1⎞ (n + k − 1)! Cnr,k = ⎜ ⎟= k ⎝ ⎠ k !(n − 1)! Metodo dei trapezi: integrazione numerica a x1 x2 b Si divide l’intervallo di integrazione in n parti e si trova lo step, cioè la lunghezza di un singolo intervallo (b-a)/n Prendi in esame l’area sottesa alla curva nell’intervallo [a, x1]: puoi approssimare ad un trapezio, che avrà area step A= ( f (a ) + f ( x1 )) 2 Sommando le varie aree ottieni la formula A= step ( f (a) + f (b) + 2( f ( x1 ) + f ( x2 ) + ... + f ( xn−1 )) ) 2 Metodo di Newton-Fourier : calcolo degli zeri di una funzione Sia f: IÆR Derivabile nel suo dominio Consideriamo un punto x0 ∈ I x1 x0 L’equazione della retta tangente in x0 sarà y - f(x0)=f’(x0)(x- x0) Essa intersecherà l’asse x nel punto x1 , più vicino allo zero della funzione. Se ripetiamo il procedimento troveremo un punto x2 ancora più vicino allo zero della funzione, arrivando infine a trovarlo con una buona approssimazione. Per ottenere la formula iterativa: Considero la retta passante per xn : y - f(xn)=f’(xn)(x- xn) Intersecherà l’asse x in xn+1 , punto che appartiene alla medesima retta: possiamo sostituire le sue coordinate nell’equazione delle retta 0 - f(xn)=f’(xn)(xn+1- xn) Ricaviamo xn+1 xn+1 = xn - f ( xn ) f '( xn ) Con la calcolatrice si può iterare la formula e quando inizierà a dare lo stesso risultato si avrà trovato lo zero della funzione. Condizioni per utilizzare il metodo: Nell’intervallo considerato f’(x) non deve essere mai 0! Inoltre c’è una condizione sulla derivata seconda: nell’intervallo considerato deve essere sempre posivita o sempre negativa. Inoltre: se la concavità della funzione è rivolta verso l’alto, si parte dall’estermo dell’intervallo più alto (quindi da quello positivo), se è rivolta verso il basso si parte dall’estremo più basso (il negativo)!!