CORSO DI LAUREA IN OTTICA E OPTOMETRIA C O R S O D I I N F O R M AT I C A E S TAT I S T I C A D A N I E L E . M O N TA N I N O @ U N I S A L E N T O . I T Parte II - Statistica inferenziale 1 DEFINIZIONI PRIMITIVE • Su supponga di effettuare un certo esperimento o prova (ad esempio: lancio di una moneta, o di un dado) • Si definiscono campioni (o eventi elementari ωi) i possibili risultati dell’esperimento (per esempio “Testa” o “Croce” nel lancio di un dado. • Spazio di probabilità: è l’insieme di tutti i possibili eventi elementari che possono avvenire in esperimento • Esempi 1. 2. 3. 4. Lancio di una moneta Ω={Testa,Croce} Lancio di due monete Ω={TT,TC,CT,CC} Lancio di un dado Ω={1,2,3,4,5,6} Estrarre una carta da un mazzo di carte francesi Ω={1♤,1♧,1♡,1♢,… K♤,K♧,K♡,K♢} Parte II - Statistica inferenziale 2 SPAZIO DEGLI EVENTI • Un sottoinsieme E⊆Ω è detto spazio degli eventi. • Esempi 1. Esce testa nel lancio di una moneta E={Testa} 2. Esca entrambe testa o entrambe croce nel lancio di due monete E={TT,CC} 3. Esca un numero pari nel lancio di un dado E={2,4,6} 4. Esca una carta di fiori estraendo una carta da un mazzo di carte francesi E={1♧,2♧,…Q♧,K♧} etc… • In questi esempi è possibile “contare” il numero di campioni all’interno di un evento. Questi insieme si dicono “enumerabili”. Ci sono casi in cui ciò non è possibile. • Definiamo la cardinalità N(E) il numero di campioni in un evento enumerabile (per esempio N({TT,CC})=2) Parte II - Statistica inferenziale 3 ALGEBRA DEGLI EVENTI • L’algebra degli eventi segue la teoria degli insiemi • Si definisce l’evento nullo (o insieme vuoto) l’insieme non contenente nessun elemento ⦰={} • Dati due eventi A e B si definisce l’unione (o somma logica) A∪B l’insieme degli elementi che appartengono ad A oppure a B (o a entrambi) • Esempio nel lancio di un dado se A={1,2,4} e B={4,6}, A∪B={1,2,4,6} • Si definisce intersezione (o prodotto logico) A∩B l’insieme degli elementi che appartengono contemporaneamente sia ad A che a B • Per esempio se A={1,2,4} e B={4,6}, A∩B={4} • Se A={1,2} e B={3,4}, A∩B=⦰ • A={carte di fiori}, B={assi}, A∩B={asso di fiori} • Si definisce “complementare” di un evento A l’insieme Ā degli elementi di Ω che non appartengono ad A • Per esempio A={1,2,4}, Ā={3,5,6} Parte II - Statistica inferenziale 4 ALGEBRA DEGLI EVENTI (RAPPRESENTAZIONE GRAFICA) Ω 1 Ω A 5 1 2 4 5 B 6 A∪B 6 4 2 Ω 3 1 5 Ω 1 A 5 2 3 2 A∩B 6 4 3 Ā 4 6 3 Parte II - Statistica inferenziale 5 PROBABILITÀ A PRIORI NELL’APPROCCIO CLASSICO • Per insiemi di cardinalità finita è possibile definire la probabilità che accada un evento E accada come il rapporto tra la cardinalità di E (numero di casi favorevoli) diviso la cardinalità di Ω (numero di casi possibili) P[E] = N(E) N(Ω) • Per esempio, la probabilità che esca testa (E={T}, N(E)=1) nel lancio di una moneta (Ω={T,C}, N(Ω)=2) vale P=1/2 • Allo stesso modo, la probabilità che estraendo una carta da un mazzo di carte francesi (N(Ω)=52) esca una carta di fiori (N(E)=13) vale P=13/52=1/4 • Questa definizione è giustificata postulato empirico del caso: ripetendo un gran numero di volte lo stesso esperimento, la frequenza di volte in cui si verifica l’evento diviso il numero totale di prove tende alla probabilità. • La definizione precedente però presenta problemi quando la cardinalità dell’insieme Ω è infinita (per esempio quando si ha a che fare con misure di grandezze fisiche “continue” quali lunghezze, pesi etc.) Parte II - Statistica inferenziale 6 PROBABILITÀ A POSTERIORI (O EMPIRICA) • Non sempre è possibile calcolare “a priori” la probabilità. Per esempio è impossibile rispondere semplicemente con un calcolo alla domanda “che probabilità ho di sviluppare una certa patologia nel prossimo anno”. • In questo caso la probabilità si definisce in maniera empirica: per esempio nel caso della domanda precedente si prende un campione sufficientemente ampio di persone e si “conta” la frequenza di incidenza della patologia. • Naturalmente il campione deve essere scelto in maniera opportuna: se mi chiedo qual è l’incidenza di una patologia in una certa area geografica (p.e. vicino una fabbrica) è ovvio che il campione va scelto tra le persone in quell’area geografica. Al contrario, se sono interessato all’incidenza di quella stessa patologia “in generale” dovrò scegliere un campione il più possibile eterogeneo. Parte II - Statistica inferenziale 7 PROBABILITÀ A POSTERIORI (O EMPIRICA) • Nel calcolo della probabilità a priori facciamo implicitamente delle assunzioni: p.e. nel lancio di una moneta assumiamo che essa non sia truccata. Vedremo che, in un certo senso, una parte del problema è il confronto tra probabilità a priori e a posteriori, per “testare” le assunzioni di base (p.e., con che probabilità una moneta è buona o truccata) Parte II - Statistica inferenziale 8 PROBABILITÀ “SOGGETTIVA” • Esiste una definizione “soggettiva” di probabilità: ovvero il “grado di fiducia” che ciascuno attribuisce ad un certo evento. • Esempio: nelle sale scommesse la vincita di una squadra di calcio in una partita può essere data 2:1, cioè la vincita viene valutata 2/3 e il pareggio o perdita 1/3. Ovviamente questa valutazione è puramente soggettiva e basata solo su di una esperienza personale. Parte II - Statistica inferenziale 9 DEFINIZIONE ASSIOMATICA DI PROBABILITÀ • Come si vede, non esiste una definizione precisa di probabilità. Da un punto di vista matematico si ricorre quindi ad una definizione assiomatica: La probabilità è una funzione che associa ad un evento E ⊆Ω un numero P(E) tale che 1. P(E)≥0 2. P(Ω)=1 3. Se A e B sono due eventi disgiunti (cioè che A∩B=⦰) si ha P(A∪B)=P(A)+P(B) • E’ facile vedere che questi postulati rispettano la definizione classica di probabilità • Il primo postulato ci dice semplicemente che la probabilità è un numero positivo. • Il secondo ci dice per esempio è certo che lanciando un dado debba uscire un numero tra 1 e 6! • Il terzo ci dice per esempio che la probabilità che lanciando un dado la probabilità che esca 1 o 2 (eventi disgiunti) è 1/6+1/6 Parte II - Statistica inferenziale 10 PROPRIETÀ • A partire dai postulati è facile dimostrare le seguenti proprietà 1. 2. 3. 4. P(⦰)=0 P(A∪B)=P(A)+P(B)-P(A∩B) se B⊆A, P(B)≤P(A) P(Ā)=1-P(A) (poiché A∩Ā=⦰ e A∪Ā=Ω) • E’ possibile dimostrare i precedenti teoremi anche in maniera grafica. La prova è lasciata allo studente. Parte II - Statistica inferenziale 11 ESEMPI 1. Qual è la probabilità che lanciando un dado non esca… nulla? • Ovviamente è P(⦰)=0! 2. Qual è la probabilità che estraendo una carta da un mazzo di carte francesi esca un asso o una carta di cuori? • Siano A={1♤,1♧,1♡,1♢} e Q={1♡,… K♡}, A∩Q={1♡} si ha P(A)=4/52, P(Q)=13/52, P(A∩Q)=1/52, dal teorema 2: P=(4+13-1)/52=16/52=0,31. Infatti i casi possibili sono le 13 carte di cuori più i rimanenti 3 assi. Se avessimo semplicemente sommato le due probabilità avremmo contato due volte l’asso di cuori. 3. Qual è la probabilità che lanciando un dado esca 1 o 2? Oppure 3 ,4, 5 o 6? • Se A={1,2} si ha P(A)=2/6=1/3. Evidentemente Ā={3,4,5,,6} e P(Ā)=4/6=2/3=1-P(A), come richiesto dal teorema 3. Parte II - Statistica inferenziale 12 PROBABILITÀ CONDIZIONATA • A volte il verificarsi di un evento B è “condizionato” dal precedente verificarsi di un evento A. • Esempio: da un mazzo di carte francesi estraiamo una carta a caso ed essa è un asso (evento A). Vogliamo conoscere la probabilità che estraendo una seconda carta dal mazzo essa sia ancora un asso (evento B). La risposta intuitiva è P(B|A)=3/51=1/17 poiché nel mazzo sono rimaste 51 carte di solo 3 ora sono assi. Notiamo anche che la probabilità che esca un asso alla prima estrazione vale P(A)=4/52=1/13. Le combinazioni possibili di due assi sono 6 ({1♤,1♧}, {1♤, 1♢}, {1♤,1♡}, {1♧,1♢}, {1♧,1♡}, {1♡,1♢}), mentre le combinazioni possibili di 2 carte qualunque sono 52·51/2=1326. Ne consegue che la probabilità di estrarre due assi vale 6/1326=1/221. Vediamo quindi che la probabilità che la seconda carta sia un asso è data dalla probabilità di avere una coppia di assi diviso la probabilità che la prima carta sia un asso 1/17=(1/221)/(1/13) Parte II - Statistica inferenziale 13 PROBABILITÀ CONDIZIONATA • Dall’esempio precedente possiamo giustificare la seguente definizione: si definisce probabilità condizionata dell’evento B dall’evento A la quantità: P(A ∩ B) P(B | A) = P(A) • Due eventi si dicono indipendenti (da non confondere con eventi disgiunti!) se P(B|A) non dipende da A ovvero P(A∩B)=P(A) ·P(B) • Esempio: qual è la probabilità che lanciando due volte un dado esca due volte 6? Il numero di casi favorevoli è 1 ({6,6}) contro 36 possibili combinazioni, quindi P=1/36 che è proprio 1/6·1/6. Evidentemente si tratta di eventi indipendenti in quanto il fatto che sia uscito 6 a un primo lancio non influenza in nessun modo il risultato del secondo lancio. Parte II - Statistica inferenziale 14 VARIABILI ALEATORIE • Una variabile aleatoria (o casuale) è una funzione che associa ad ogni elemento ωi dello spazio campionario Ω uno e un solo numero (in generale reale) xi. • Esempio: nel lancio di una moneta è possibile assegnare x=0 a testa e x=1 a croce • Nel lancio di un dado si può assegnare il valore della faccia. • Un variabile aleatoria “discreta” può assumere un numero finito o infinito numerabile di valori (p.e., le facce di un dado, il numero di decadimenti radioattivi per secondo in un campione…) • Una variabile aleatoria continua può invece assumere valori in intervalli o in tutto l’asse reale (p.e., la piovosità in una data regione, la velocità di una molecola in un gas in m/s, l’indice Dow Jones di Wall Street…) Parte II - Statistica inferenziale 15 FUNZIONE DI PROBABILITÀ • Consideriamo per il momento variabili aleatorie discrete. Chiamiamo P(xi) la probabilità che si verifichi l’evento elementare Ei={ωi}. La P(xi) è una distribuzione di probabilità. Probabilità • Esempi banali sono la probabilità associata al lancio di una moneta o di un dado. 0,18 0,16 0,14 0,12 0,1 0,08 0,06 0,04 0,02 0 1 2 3 4 5 6 Numero di faccia Tale distribuzione si dice “uniforme” poiché la probabilità è uguale per tutti gli xi. Parte II - Statistica inferenziale 16 DISTRIBUZIONI DISCRETE • Un esempio meno banale è il seguente: la distribuzione di probabilità per la somma del valore delle due facce nel lancio di due dadi. La distribuzione può essere dedotta dalla seguente tabella Risultato xi Possibili combinazioni dei due dadi Casi favorevoli P(xi)= Casi favorevoli/36 2 1+1 1 0,028 3 1+2 2+1 2 0,056 4 1+3 2+2 3+1 3 0,083 5 1+4 2+3 3+2 4+1 4 0,111 6 1+5 2+4 3+3 2+4 1+5 5 0,139 7 1+6 2+5 3+4 4+3 5+2 6 0,167 8 2+6 3+5 4+4 5+3 6+2 5 0,139 9 3+6 4+5 5+4 6+3 4 0,111 10 4+6 5+5 6+4 3 0,083 11 5+6 6+5 2 0,056 12 6+6 1 0,028 6+1 Parte II - Statistica inferenziale 17 ESEMPIO DI DISTRIBUZIONE DISCRETA 0,180 0,160 0,140 0,120 0,100 0,080 0,060 0,040 0,020 0,000 2 3 4 5 6 7 8 9 10 11 12 Somma dado 1+dado2 Parte II - Statistica inferenziale 18 CUMULATIVA • Evidentemente deve essere N ∑ P(x ) = 1 k k=1 • Si definisce cumulativa (o funzione di ripartizione) la funzione i F(xi ) = ∑ P(xk ) k=1 ovvero la somma delle probabilità sino all’i-esimo valore. La cumulativa è la probabilità che X sia minore o uguale a xi F(xi ) = P(X ≤ xi ) Parte II - Statistica inferenziale 19 CUMULATIVA • Nell’esempio precedente la cumulativa assume la seguente forma 1,000 xi P(xi) F(xi) 2 0,028 0,028 3 0,056 0,083 0,700 4 0,083 0,167 0,600 5 0,111 0,278 0,500 6 0,139 0,417 0,400 7 0,167 0,583 8 0,139 0,722 9 0,111 0,833 10 0,083 0,917 11 0,056 0,972 12 0,028 1,000 0,900 0,800 0,300 0,200 0,100 0,000 2 3 4 5 6 7 8 9 10 11 12 Parte II - Statistica inferenziale 20 CUMULATIVA • Esempio di uso della cumulativa • qual è la probabilità che lanciando due dadi la somma delle due facce è minore o uguale a 7? La risposta è diretta e vale P(S≤7)=F(7)=0.583 • che sia compresa tra 4 e 7 (compresi)? In generale si ha P(x p ≤ x ≤ xq ) = P(x p ) +... + P(xq ) = P(x1 ) +... + P(x p−1 ) + P(x p ) +... + P(xq ) − ( P(x1 ) +... + P(x p−1 )) = F(xq ) − F(x p−1 ) nel nostro caso P(4≤S≤7)=F(7)-F(3)=0,5 • che sia maggiore di 7. Ragionando come nel caso precedente si ha P(S>7)=1-P(S≤7)=1-F(7)=0,417 Parte II - Statistica inferenziale 21 MEDIA E VARIANZA • Si definisce media di una distribuzione di probabilità (discreta) la N quantità µ = ∑ P(xk )⋅ xk k=1 • si definisce varianza di una distribuzione la quantità N σ 2 = ∑ P(xk )⋅ (xk − µ )2 k=1 • Si definisce scarto quadratico medio della distribuzione σ la radice quadrata della varianza. • Nel caso dell’esempio della somma delle facce dei due dadi si ha µ=7 e σ=2,415. Il fatto che la media corrisponda al valore centrale della distribuzione non è un caso ma vale per tutte le distribuzioni simmetriche. Parte II - Statistica inferenziale 22 DISPOSIZIONI • Facciamo un esempio: in quanti modi è possibile disporre 3 studenti su 5 postazioni? • Il 1° studente ha 5 possibilità • Una volta che il 1° studente ha fatto la sua scelta al secondo rimangono solo 4 possibilità • A sua volta, al 3° studente rimangono solo 3 possibilità Parte II - Statistica inferenziale 23 DISPOSIZIONI • In definitiva ci sono 5×4×3=60 possibili disposizioni di 3 studenti su 5 postazioni. Più in generale se abbiamo k studenti e N postazioni avremmo N·(N-1)·…(N-k+1) possibili disposizioni. Questo numero viene chiamato “disposizioni di N elementi in classe k”. • In particolare se avessimo esattamente N studenti per N postazioni, le possibili disposizioni sarebbero N·(N-1)·…·3·2·1=N! disposizioni. Parte II - Statistica inferenziale 24 COMBINAZIONI • Nell’esempio precedente supponiamo che non ci interessi con quale ordine con cui gli studenti hanno occupato la postazione, ma solo in quanti modi è possibile occupare 3 postazioni su 5. In pratica se scambiamo due studenti la situazione è equivalente 1 2 3 4 Parte II - Statistica inferenziale 5 25 COMBINAZIONI • Nell’esempio precedente in cui le postazioni 1, 4 e 5 sono occupate vi sono 3!=6 disposizioni possibili di studenti. Ne consegue che il numero totale di combinazioni è dato da 5×4×3/3!=10, ovvero esistono 10 possibili modi di riempire 3 sedie su 5. • Più in generale le combinazioni di N elementi in classe k sono date da ! N $ N(N −1)...(N − k +1) N! = # &= k! k!(N − k)! " k % • Il simbolo precedente (leggasi N su k, da non confondersi assolutamente con la frazione N/k) ha se seguenti proprietà ! N $ ! N $ && = 1; # & = ## " 0 % " N % ! N $ ! N # & = ## " 1 % " N −1 $ && = N; % Parte II - Statistica inferenziale ! N $ ! N # & = ## " k % " N −k $ && % 26 BINOMIO DI NEWTON • Interessante notare che le combinazioni entrano nel calcolo del binomio di Newton ! N $ k N−k (A + B) = ∑# &A B k=0 " k % N N ciò deriva dal fatto che per ogni termine con AkBN-k esistono N su k combinazioni possibili. Per esempio A2B2 può essere scritto in 6 modi diversi: AABB, ABAB,ABBA,BABA,BBAA,BAAB. E’ facile vedere che ! 4 $ # &=6 " 2 % Parte II - Statistica inferenziale 27 DISTRIBUZIONE BINOMIALE (O DI BERNOULLI) • Si supponga di voler rispondere a questa domanda: qual è la probabilità che lanciando 10 volte un dado esca per 3 volte la faccia contrassegnata col “sei”. Poiché sono eventi indipendenti, la probabilità che 3 volte esca il sei e per le restanti 7 volte non esca il sei è data da (1/6)3×(5/6)7. Poiché però non ci interessa l’ordine con cui il sei esce dobbiamo moltiplicare per le possibili combinazioni di volte in cui il sei esce 3 volte nella sequenza di 10 lanci. 7 ! 10 $ 10 × 9 × 8 5 3 7 P =# = 0,155 & (1 / 6) ⋅ (5 / 6) = 10 1× 2 × 3 6 " 3 % Parte II - Statistica inferenziale 28 DISTRIBUZIONE BINOMIALE (O DI BERNOULLI) • Più in generale, la probabilità che un evento elementare che ha probabilità p di accadere accada k volte su una serie di N prove è data da PN,k ! N $ k =# & p ⋅ (1− p) N−k " k % • Questa distribuzione è detta Binomiale o di Bernoulli (esistono anche distribuzioni “multinomiali” di cui non ci occuperemo). E’ lasciato per esercizio (usando la formula del binomio di Newton) provare che N ∑P N,k =1 k=0 Parte II - Statistica inferenziale 29 DISTRIBUZIONE BINOMIALE • Nel caso precedente la forma della distribuzione e della cumulativa è la seguente P10,k 0,3 ! 10 $ =# &(1 / 6)k ⋅ (1−1 / 6)10−k " k % Probabilità 0,25 0,2 0,15 0,1 0,05 1 0,9 Probabilità cumulativa 0,35 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0 0 0 1 2 3 4 5 6 7 8 9 10 0 Numero di volte in cui esce "sei" 1 2 3 4 5 6 7 8 9 10 Numero di volte in cui esce "sei" • Si può mostrare che la media e lo scarto quadratico medio di una distribuzione binomiale sono dati da µ = Np; σ = Np(1− p) Parte II - Statistica inferenziale 30 DISTRIBUZIONE DI POISSON • La distribuzione di Poisson è il limite di una distribuzione binomiale in cui la probabilità dell’evento elementare è molto piccola (p➝0) mentre il numero di prove è molto grande (N➝∞) ma in modo che la media µ=Np rimanga un numero “finito” noto. Si può dimostrare che in questo limite la probabilità che l’evento accada k volte è dato da k µ −µ P(k) = e k! • La media di una distribuzione di Poisson è proprio µ mentre si può mostrare che la deviazione standard vale √µ. Parte II - Statistica inferenziale 31 DISTRIBUZIONE DI POISSON • Esempio: una rara patologia oculare colpisce 1 persona su 20.000. In una città di 100.000 abitanti mediamente ci sono 5 persone affette da quella patologia. La distribuzione di probabilità che k persone abbiano quella patologia in quella città è la seguente 0,2 0,18 5k −5 P(k) = e k! 0,16 0,14 P(k) 0,12 0,1 0,08 0,06 0,04 0,02 0 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 k (numero di persone affette da una certa patologia) Parte II - Statistica inferenziale 32 DISTRIBUZIONI CONTINUE • Come detto a volte si ha a che fare con variabili aleatorie “continue”. In questo caso non ha senso definire una distribuzione di probabilità in quanto a rigore la probabilità che x assuma un valore ben preciso è nulla. Si definisce invece una funzione densità di probabilità fX(x)≥0 (che a volte viene chiamata impropriamente distribuzione di probabilità) per cui la probabilità che X vada a cadere in un intervallo compreso tra a e b è dato da b P(x ∈ [a, b]) = ∫f X (x)dx a • Evidentemente la fX deve sottostare alla condizione (di “normalizzazione”) +∞ ∫ R f X (x)dx ≡ ∫f X (x)dx = 1 −∞ Parte II - Statistica inferenziale 33 DISTRIBUZIONI CONTINUE • Esempio: la distribuzione delle dimensioni delle cellule in un certo tessuto segue approssimativamente la legge #% − x f X (x) = $ xe %& 0 se x ≥ 0 se x < 0 dove x è la dimensione della cellula in micron. 0,4 La densità di probabilità è quella rappresentata in figura. Si noti che la curva non rappresenta direttamente una probabilità, ovvero per esempio non significa che la probabilità che la cellula abbia dimensione 1micron sia 0,36! 0,35 0,3 0,25 0,2 0,15 0,1 0,05 0 0 1 2 3 4 5 Dimensione delle cellule in Parte micronII 6 7 - Statistica inferenziale 34 DISTRIBUZIONE CONTINUA • La distribuzione precedente va invece interpretata come segue. Per esempio vogliamo sapere la probabilità che una cellula abbia una dimensione compresa tra 1 e 2 micron dobbiamo calcolare l’integrale della distribuzione tra 1 e 2. In pratica occorre calcolare l’area al di sotto della curva 0,4 2 P(x ∈ [1, 2]) = 0,35 0,3 ∫ xe −x dx = −(1+ x)e −x 2 1 = −3e−2 + 2e−1 = 0, 33 0,25 0,2 0,15 0,1 0,05 0 0 1 2 3 4 5 6 7 Dimensione delle cellule in micron Parte II - Statistica inferenziale 35 1 CUMULATIVA • Si definisce la cumulativa (o funzione di ripartizione) come x FX (x) = ∫f X (ξ )d ξ −∞ • Nell’esempio precedente la funzione di ripartizione vale x FX (x) = ∫ ξ e−ξ d ξ = 1− (1+ x)e− x 0 (il limite inferiore parte da 0 perché la funzione è nulla per x<0). Anche in questo caso possiamo scrivere P(x∈[a,b])=FX(b)-FX(a) Parte II - Statistica inferenziale 36 MEDIA E VARIANZA • Si definisce la media di una densità di probabilità come +∞ µ= ∫ x⋅ f X (x)dx −∞ • allo stesso modo la varianza si definisce come +∞ σ 2 = ∫ (x − µ )2 ⋅ f X (x)dx −∞ • Nell’esempio precedente si può facilmente dimostrare che µ=2 e σ2=2. Parte II - Statistica inferenziale 37 QUANTILI • Il quantile (o percentile) di ordine α è quel valore qα per cui F(qα)=α. Per esempio, il quantile di ordine 0,1 della distribuzione precedente vale α=0,583. Questo significa che il 10% delle cellule hanno una dimensione inferiore a 0,583micron e il 90% superiore. Il quantile di ordine ½ viene chiamata mediana. 0,4 0,35 0,3 0,25 0,2 0,15 0,1 0,05 0 0 1 2 3 4 5 6 7 Dimensione delle cellule in micron Parte II - Statistica inferenziale 38 DISTRIBUZIONE NORMALE • La distribuzione normale (o gaussiana) è quella sicuramente più importante nella statistica inferenziale. Essa è definita come 2 1 ϕ µ,σ (x) = e σ 2π 1 " x−µ % − $ ' 2# σ & • è possibile mostrare che µ e σ sono proprio la media e la deviazione standard della distribuzione. La funzione è una curva a campana simmetrica centrata intorno al valore x=µ e la cui larghezza da flesso a flesso vale 2σ. In pratica, maggiore è σ più “larga” è la curva. Parte II - Statistica inferenziale 39 DISTRIBUZIONE NORMALE • Esempi di distribuzione normale Parte II - Statistica inferenziale 40 NORMALE STANDARDIZZATA • La distribuzione normale con µ=0 e σ=1 si definisce “standardizzata”: 1 ϕ (z) = e 2π z2 − 2 • E’ facile vedere che qualunque distribuzione normale può scriversi come " x−µ% ϕ µ,σ (x) = ϕ $ ' # σ & Parte II - Statistica inferenziale 41 IMPORTANZA DELLA DISTRIBUZIONE NORMALE • Esistono moltissimi motivi per cui la distribuzione precedente è estremamente importante • La distribuzione binomiale, per N molto grande tende ad una normale con media µ=Np e varianza σ2=Np(1-p). Lo stesso vale per una distribuzione di Poisson 0,200 0,180 0,160 Binomiale 0,140 Normale 0,120 0,100 0,080 0,060 0,040 0,020 0,000 0 2 4 6 8 10 12 14 16 18 20 • Le più importanti distribuzioni teoriche (chi-quadrato, t-student) tendono a delle gaussiane per un numero grande di gradi di libertà. Parte II - Statistica inferenziale 42 DISTRIBUZIONE T-STUDENT • La distribuzione t-student è caratterizzata dalla seguente espressione " t % fν (t) = N(ν )⋅ $1+ ' # ν& 2 ν +1 2 dove N(ν) è una opportuna costante di normalizzazione (in modo che ∫R fν(t)dt=1)e ν viene detto “numero di gradi di libertà”. La distribuzione per diversi valori di ν è mostrata in figura. Per ν>30 è praticamente indistinguibile da una normale standard. Parte II - Statistica inferenziale 43 DISTRIBUZIONE CHI2 • La distribuzione chi-quadrato è caratterizzata dalla seguente espressione fk (x) = N(k)⋅ x k/2−1 − x/2 e dove N(k) è una opportuna costante di normalizzazione e k viene detto “numero di gradi di libertà”. La distribuzione per diversi valori di k è mostrata in figura. Per k>30 è praticamente indistinguibile da una normale con media k e deviazione standard √2k. Parte II - Statistica inferenziale 44 INTERVALLO DI CONFIDENZA • I quantili di ordine (1-α)/2 e (1+α)/2 delimitano una normale standardizzata in una “zona centrale” con P(|z|<zα/2)=α e due “code” in cui si ha P(|z|>zα/2)=(1-α)/2. Data la simmetria della curve normale tali quantili sono determinati da un numero che denotiamo zα/2, come in figura. • Per una variabile normale generica si definisce intervallo di confidenza α quello che contiene la variabile X con probabilità α Poiché z=(x-µ)/σ si ha che tale intervallo di confidenza vale µ − zα /2σ ≤ x ≤ µ + zα /2σ valori tipici di za/2 sono (1-α)/2 α/2 -zα/2 α/2 α 1-α za/2 68% 0,32 1,000 90% 0,10 1,645 95% 0,05 1,960 zα/2 Parte II - Statistica inferenziale99% 0,01 2,576 (1-α)/2 z 45 TEOREMA DEL LIMITE CENTRALE • Siano {x1, x2,…xN} N variabili casuali con la stessa distribuzione avente media µ e deviazione standard σ. Il teorema del limite centrale afferma che posto 1 N X = ∑ xk N k=1 per N➝∞ X si distribuisce come una normale con media µ e deviazione standard σ/√N. Detto diversamente, la variabile X −µ z= σ/ N si distribuisce come una variabile normale standardizzata. Parte II - Statistica inferenziale 46 TEOREMA DEL LIMITE CENTRALE • In figura è mostrata il risultato di un esperimento in cui viene eseguita la media di 25 numeri casuali numeri casuali (distribuiti uniformemente tra 0 e 1) ripetuta per molte volte. Con i punti viene rappresentato il risultato dell’esperimento mentre in linea continua si ha una curva normale con media 0,5 e varianza 0,0578. 8 7 6 5 4 3 2 1 0 0,30 0,40 0,50 media Parte II - Statistica inferenziale 0,60 0,70 47 INTERVALLO DI CONFIDENZA PER LA MEDIA (VARIANZA NOTA) • Il teorema del limite centrale consente di stimare l’intervallo di confidenza per la media di un parametro quando la deviazione standard è nota. • Esempio: è noto che la deviazione standard della concentrazione di un certo inquinante vale σ=15ppm. Si misura la concentrazione di quell’inquinante di N=50 giorni ottenendo come misura media X=40ppm. Si vuole stabilire l’intervallo in cui al 95% si trova il valore “vero” µ della concentrazione di inquinante. Usando il teorema del limite centrale concludiamo che che tale intervallo è definito da X − zα /2 σ σ ≤ µ ≤ X + zα /2 N N Parte II - Statistica inferenziale 48 INTERVALLO DI CONFIDENZA PER LA MEDIA (VARIANZA NOTA) In genere i valori di zα sono tabulati. Utilizzando un foglio di calcolo è possibile però utilizzare la funzione INV.NORM.ST che calcola l’inversa della cumulativa della normale standard per il calcolo dei quantili. zβ P(Z ≤ zβ ) = ∫ ϕ (z)dz = β −∞ β zβ=INV.NORM.ST(β) Parte II - Statistica inferenziale 49 INTERVALLO DI CONFIDENZA PER LA MEDIA (VARIANZA NOTA) Per trovare l’intervallo di confidenza desiderato bisogna considerare che P(z>zβ)=1-β=(1-α)/2 da cui β=(1+α)/2 Nell’esempio precedente • zα/2=INV.NORM.ST((1+α)/2) valore di (1+α)/2 • Si ha quindi che l’intervallo di confidenza al 95%vale 40 −1, 96 valore di zα/2 15 15 ≤ µ ≤ 40 +1, 96 50 50 cioè c’è il 95% di probabilità che µ sia compreso tra 35,8 e 44,2. Parte II - Statistica inferenziale 50 INTERVALLO DI CONFIDENZA PER LA MEDIA (VARIANZA INCOGNITA) • Più comunemente può accadere che la deviazione standard del campione non sia nota ma debba essere ricavata essa stessa dai dati. Detta N S2 = ∑(x 2 − X) k k=1 N −1 la varianza campionaria si può mostrare che la quantità X −µ t= S/ N si distribuisce come una variabile t-student con N-1 gradi di libertà. Parte II - Statistica inferenziale 51 INTERVALLO DI CONFIDENZA PER LA MEDIA (VARIANZA INCOGNITA) • Esempio: si è misurata la miopia di N=5 pazienti scelti in un campione ottenendo i seguenti risultati (in diottrie): 2,3 – 2,5 – 1,8 – 1,2 – 2,9. Stimare l’intervallo di confidenza al 99% in cui si trova il valore medio del campione. La media vale X=2,14 e la deviazione standard campionaria S=0,66. L’intervallo di confidenza è definito da X − tα /2 S S ≤ µ ≤ X + tα /2 N N dove tα/2 ha lo stesso significato del caso della distribuzione normale ma in questo caso viene calcolato su una distribuzione t-student a 4 gradi di libertà. Parte II - Statistica inferenziale 52 INTERVALLO DI CONFIDENZA PER LA MEDIA (VARIANZA INCOGNITA) • Come nel caso della normale i valori di tα/2 sono tabulati. Tuttavia, avendo a disposizione un foglio di calcolo, i valori di tα/2 possono essere calcolati attraverso la funzione INV.T. Questa funzione, a differenza della INV.NORM.ST fornisce i valori t’β per cui P(t>t’β)=β/2 • dato il valore di α e il numero di gradi di libertà. • tα/2 =INV.T(1-α,N-1) • tα =INV.T(2*(1-α),N-1) t’β=INV.NORM(β/2) α=1-β β/2 valore di 1-α Numero gradi inferenziale di libertà (N-1) Parte di II - Statistica β/2 53 INTERVALLO DI CONFIDENZA PER LA MEDIA (VARIANZA INCOGNITA) • Nell’esempio precedente abbiamo quindi 0, 66 0, 66 2,14 − 4, 6 ≤ µ ≤ 2,14 + 4, 6 5 5 cioè 0,78<µ<3,50, ovvero esiste il 99% di probabilità che la miopia media nell’intero campione si trovi in questo intervallo. Notare che se avessimo usato la funzione INV.NORM.ST avremmo ottenuto erroneamente l’intervallo 1,38<µ<2,90, molto più ristretto rispetto al precedente. Parte II - Statistica inferenziale 54 TEST DI IPOTESI • Facciamo un esempio: si supponga di aver lanciato 10 volte una moneta e di aver ottenuto 8 volte Testa e 2 Croce. E’ possibile che la moneta sia truccata in modo che esca prevalentemente testa? Ovviamente non è possibile dare una risposta certa poiché può benissimo accadere (anche se è estremamente improbabile) che esca anche 100 volte testa lanciando una moneta buona! • E’ evidente che la risposta sarà di tipo probabilistico: con che probabilità la moneta è buona truccata essendo uscito 8 volte Testa e 2 Croce? Abbiamo quindi due ipotesi: • La moneta non è truccata e il fatto che sia uscito 8 volte Testa e 2 volte Croce è un fatto puramente casuale. • La moneta è truccata in modo che esca prevalentemente Testa. Torneremo tra un momento su questo esempio della moneta Parte II - Statistica inferenziale 55 TEST PARAMETRICI E NON PARAMETRICI • Un test quindi è una regola che consiste nel decidere tra due ipotesi (o congetture) • Ipotesi H0 (o ipotesi nulla) consistente nell’ipotesi preesistente prima dell’osservazione dei dati (es. la moneta è buona) • Ipotesi H1 (o ipotesi alternativa) consistente nell’ipotesi che si contrappone all’ipotesi nulla (es. la moneta è truccata) • I test si suddividono ulteriormente in • Test parametrici: si applicano si vuole verificare l’ipotesi sul valore di un parametro (p.e. la media) quando si suppone nota la distribuzione di probabilità del parametro (o dei parametri) da sottoporre a test. • Test non parametrici: si applicano quando non si fanno ipotesi a priori sulle caratteristiche della popolazione. Essi si chiamano non parametrici poiché non è necessaria la stima di parametri statistici (quale media, varianza, etc.) Parte II - Statistica inferenziale 56 REGIONE DI ACCETTAZIONE E DI RIFIUTO • Torniamo all’esempio della moneta: potremmo decidere che di accettare l’ipotesi nulla (la moneta è buona) se la la probabilità di ottenere un risultato inusuale (tipo 2 Croci e 8 Teste) o ancora più inusuale (0 o 1 Croci) è superiore a β=5%. • Se P(T≤2)≥5% accettiamo H0 (la moneta è buona) • Se P(T≤2)<5% rifiutiamo H0 e accettiamo H1 (la moneta è truccata) • Questo esempio è un caso di test parametrico poiché conosciamo la distribuzione di probabilità a priori degli eventi (statistica binomiale). Il parametro da testare è il numero di teste. • Il valore di β=5% scelto nell’esempio precedente è detto livello di significatività del test. Più grande è β maggiore è la regione di rifiuto. Parte II - Statistica inferenziale 57 REGIONE DI ACCETTAZIONE E DI RIFIUTO • Nel nostro caso la probabilità P(T≤2) si calcola con la statistica binomiale k 10−k 2 2 # 10 &# 1 & # 1 & P(T ≤ 2) = ∑ P(T = k) = ∑ % (% ( %1− ( = 5, 5% k '$ 2 ' $ 2 ' k=0 k=0 $ • Concludiamo quindi che poiché la probabilità è maggiore del 5% accettiamo l’ipotesi H0 • Notiamo che se per esempio avessimo scelto un livello di di significatività più alto, per esempio, β=10% avremmo rifiutato l’ipotesi nulla. 0,3 Probabilità 0,25 0,2 0,15 0,1 0,05 0 0 1 2 3 4 5 6 7 8 9 10 Numero di teste Parte II - Statistica inferenziale 58 ERRORI DI I E SECONDO TIPO • Un errore di I tipo si ha quando rifiutiamo l’ipotesi nulla mentre questa è falsa • Un errore di II tipo si ha quando accettiamo l’ipotesi nulla mentre questa è vero Accetto H0 Rifiuto H0 H0 è vera OK, P=1-β Errore di tipo I, P=β H0 è falsa Errore di II tipo, P=α OK, P=1-α • Nel primo caso la probabilità di commettere un errore di I tipo è β (per esempio nel caso precedente se avessimo scelto avessimo scelto un livello di di significatività più alto, per esempio, β=10% avremmo rifiutato l’ipotesi nulla, rischiando di concludere che la moneta è truccata pur non essendolo. • Se diminuiamo β però aumentiamo la probabilità α di commettere un errore di II tipo (non sempre è possibile calcolare questa probabilità, per esempio nel caso precedente dovremmo fare delle ipotesi su come è truccata la moneta). Quando è possibile calcolarlo l valore 1-α è detta potenza del test. • Evidentemente la scelta migliore è trovare un compromesso tra α e β. Parte II - Statistica inferenziale 59 TEST A UNA E DUE CODE • Nei test parametrici si vuole per esempio verificare se un parametro x sia uguale o diverso da un parametro di riferimento x0. Un test si dice “a una coda” (o semplice) se vogliamo verificare con significatività α che x è maggiore (oppure minore) di x0. Si dice invece “a due code” (o composta) se vogliamo semplicemente verificare se x≠x0. • Test a una coda: per esempio vogliamo verificare l’ipotesi • H0: x=x0 H1: x<x0 regione di accettazione La regione di rifiuto è quella rossa In pratica se x<xβ rifiutiamo H0 • Test a due code β 1-β xα P(x≤xβ)<β regioni di rifiuto (“inusuali”) • H0 x=x0 • H1 x≠x0 P(x≤xI,β/2∪x≥xII,β/2)<β Se x<xI,β/2 o se x>xII,β/2 rifiutiamo H0 • gli xα sono detti “valori critici” β/2 xI,β/2 Parte II - Statistica inferenziale 1-β β/2 xII,β/2 60 TEST SULLA MEDIA A UN CAMPIONE (VARIANZA NOTA) • Facciamo un esempio: si supponga che sia nota la media nazionale della miopia dei bambini tra i 7 e i 10 anni sia µ=1,5 con deviazione standard σ=0,8. Viene misurata la miopia media di N=25 bambini tra 7 e 10 anni con problemi di handicap ottenendo una miopia media m=1,8. Ci si chiede se effettivamente la media della miopia dei bambini con problemi di handicap sia più alta della media nazionale o la differenza rientri in una fluttuazione statistica. • Poiché ci chiediamo se la media è più alta si tratta di un test a una coda: H0: m=µ; H1: m>µ Ricordiamo che la media segue approssimativamente una distribuzione di tipo normale. Scegliamo ad esempio una significatività del 5%. Ne consegue che la regione di rifiuto è m > µ + z1/2−βσ / N = 1, 5 +1, 64 ⋅ 0,8 / 25 = 1, 76 • poiché m=1,8 è maggiore di questo valore critico rifiutiamo l’ipotesi nulla, ovvero accettiamo l’ipotesi che la media della miopia dei bambini aventi problemi di handicap è superiore a quella nazionale di tutti i bambini Parte II - Statistica inferenziale 61 TEST SULLA MEDIA A UN CAMPIONE (VARIANZA NOTA) • Il caso precedente è un esempio di test a una coda. Se invece ci fossimo chiesti invece se la media della miopia dei bambini con problemi di handicap è semplicemente diversa dalla media nazionale avremmo che la regione di rifiuto vale m > µ + z(1−β )/2σ / N = 1, 5 +1, 96 ⋅ 0,8 / 25 = 1,81 m < µ − z(1−β )/2σ / N = 1, 5 −1, 96 ⋅ 0,8 / 25 = 1,19 • In questo caso, poiché il valore 1,8 ricade nell’intervallo [1,19-1,81] (anche se di poco…) accettiamo l’ipotesi nulla, ovvero che la miopia dei portatori di handicap non è diversa dalla media. Un test a una coda è quindi sempre più stringente di un test a due code. Parte II - Statistica inferenziale 62 TEST SULLA MEDIA A UN CAMPIONE (VARIANZA INCOGNITA) • Si supponga di trovarsi nella stessa situazione dell’esempio precedente ma la deviazione standard della miopia a livello nazionale è incognita. In questo caso la deviazione standard deve essere dedotta dal campione di 25 bambini. Per esempio si supponga che la deviazione standard campionaria dei 25 bambini valga s=0,6. In questo caso però, la distribuzione da utilizzare è la tstudent a 24 gradi di libertà. Per il test a una coda la regione di rifiuto è data da m > µ + tβ s / N = 1, 5 +1, 711⋅ 0, 6 / 25 = 1, 71 • dove il valore di tα è calcolato come INV.T(2*0,05;24) (ricordiamo che INV.T calcola direttamente tβ/2). In questo caso, poiché m=1,8 siamo nella regione di rifiuto, per cui rifiutiamo l’ipotesi H0. Parte II - Statistica inferenziale 63 CONFRONTO TRA MEDIE A DUE CAMPIONI (VARIANZA INCOGNITA) • A volte capita di voler confrontare due medie da due popolazioni diverse. • Facciamo il seguente esempio: si vuole misurare al β=1% del livello di significatività l’efficacia di due diversi procedimenti miranti alla riduzione dell’astigmatismo. • Nel primo caso il procedimento è stato applicato a N1=20 pazienti ottenendo una riduzione media dell’astigmatismo di m1=0,8 diottrie con una deviazione standard campionaria di s1=0,3. • Nel secondo caso il procedimento è stato applicato a N2=15 pazienti ottenendo una riduzione media m2=0,7 con una deviazione standard s2=0,2. • L’ipotesi nulla è H0: m1=m2, (i due metodi sono ugualmente efficaci) mentre H1: m1≠m2. (N1 −1)s12 + (N 2 −1)s22 m1 − m2 • Definiamo la variabile t = con sc = sc 1 1 + N1 N 2 (N1 + N 2 − 2) si può dimostrare che t si comporta come una variabile t-student a N1+N2-2 gradi di libertà. Parte II - Statistica inferenziale 64 CONFRONTO TRA MEDIE A DUE CAMPIONI (VARIANZA INCOGNITA) • Nell’esempio precedente quindi si ha (N1 −1)s12 + (N 2 −1)s22 (20 −1)⋅ 0, 32 + (15 −1)⋅ 0, 2 2 sc = = = 0, 26 (N1 + N 2 − 2) 20 +15 − 2 e t= m1 − m2 0,8 − 0, 7 = = 1,12 1 1 0, 26 1 / 20 +1 /15 sc + N1 N 2 (equivalentemente si possono applicare le formule nella tabella di riepilogo). La regione di accettazione è data da -tβ/2<t<tβ/2 con tβ/2=INV.T(0,01;35-2)=2,73. Poiché t=1,13 si trova all’interno della regione di accettazione, per cui accettiamo l’ipotesi H0 che le due medie siano uguali (ovvero che i due procedimenti siano equivalenti). Parte II - Statistica inferenziale 65 TEST DI CORRELAZIONE • Come si è visto nella prima parte del corso, l’indice di correlazione può essere un indicatore per la verifica di una possibile relazione lineare tra due serie di dati. Anche in questo caso è possibile effettuare un test per verificare se vi sia correlazione tra i dati. Il test si basa sul fatto che se R è l’indice di correlazione tra due serie di dati, la variabile T= R 1− R 2 N −2 con N numero di dati, si comporta come una variabile T di student con N-2 gradi di libertà. • Le due ipotesi da verificare ad un determinato livello di confidenza β sono • • H0: non c’è nessuna correlazione tra i H1: vi è una effettiva correlazione tra i dati • Nel test a due code se tβ/2 è il valore critico relativo al livello di confidenza α, se |T|<tβ/2 accetto l’ipotesi nulla H0, altrimenti rifiuto H0 e accetto H1 • Nel test a una coda si utilizza tβ. In questo caso si vuole verificare esplicitamente se vi è correlazione o anticorrelazione. Parte II - Statistica inferenziale 66 TEST DI CORRELAZIONE • Esempio: consideriamo di nuovo il caso della miopia messa in relazione con le ore passate a giocare ai videogiochi. Ore passate a giocare 0 1 2 3 4 5 Miopia media 0,8 1,3 1,2 2,4 2,7 3,2 Come si è visto la variabile R valeva 0,97. Ci si chiede però se questo valore elevato sia frutto di un caso o la correlazione sia reale. Le due ipotesi sono allora • • H0: non c’è nessuna correlazione tra i dati e il valore elevato di R è solo frutto di un caso H1: vi è una effettiva correlazione tra i dati Verifichiamo l’ipotesi all’1% del livello di confidenza. Calcoliamo il valore di T (N=6) T= R 1− R 2 N − 2 = 7, 98 Dalla tabella dei valori critici della t di student vediamo che il valore critico di T per N-2=4 gradi di libertà per β=0,01 vale 4,604. Poiché il nostro valore di T supera (di gran lunga!) questo valore critico possiamo concludere che dobbiamo rigettare H0 e accettare H1, ovvero che un tale valore dell’indice di correlazione non è frutto di un caso (in quanto vi è una probabilità inferiore all’1% che R possa assumere per caso un valore così elevato. Parte II - Statistica inferenziale 67 TEST DEL CHI-QUADRATO • Un esempio di test non parametrico è il test del χ2. Esso consiste nel fatto che il χ2 calcolato nella I parte del corso si distribuisce approssimativamente(*) come una variabile χ2 a NGL=(N-1)(M-1) gradi di libertà con N e M numero di righe e di colonne. • Riprendiamo l’esempio del farmaco: a un gruppo di 50 pazienti si somministra un farmaco tradizionale e all’altro un nuovo principio attivo Farmaco Convenzionale Nuovo farmaco Nessun miglioramento 15 2 17 Moderato miglioramento Consitente miglioramento 15 17 32 20 31 51 50 50 100 (*) Purché i numeri in tabella non siano troppo piccoli o nulli. In caso contrario è meglio usare test alternativi come per esempio il test esatto diIIFisher. Parte - Statistica inferenziale 68 TEST DEL CHI-QUADRATO • Nella I parte del corso avevamo calcolato il valore di χ02=12,4 (si rimanda alla I parte per il calcolo). Le ipotesi sono quindi • H0: il primo e il secondo farmaco hanno la stessa efficacia (ovvero χ2=0). • H1: il secondo farmaco è più efficace del primo. • Come nell’esempio della moneta dobbiamo vedere con che probabilità possiamo ottenere un valore di χ2 ancora più grande di χ02 (ovvero avere situazioni ancora più “inusuali”). • Supponiamo di fissare un livello di significatività β=1%. La condizione di rifiuto avviene quindi P(χ2>χ02)<β. Condizione di rifiuto P(χ2>χ02)<β. χ02inferenziale Parte II - Statistica 69 TEST DEL CHI-QUADRATO: ESEMPIO • Per calcolare il χ2 calcoliamo prima i marginali • A questo punto calcoliamo la tabella teorica n*ij nella solita maniera moltiplicando i marginali di riga e di colonna e dividendo per il totale Parte II - Statistica inferenziale 70 TEST DEL CHI-QUADRATO: ESEMPIO • Ora calcoliamo i valori (nij-n*ij)2/n*ij… • …e ne facciamo la somma Parte II - Statistica inferenziale 71 TEST DEL CHI-QUADRATO: ESEMPIO • Il calcolo del valore critico di probabilità può essere effettuato tramite la funzione DISTRIB.CHI che calcola la probabilità a una coda della distribuzione χ2 Valore di NGL P(χ2>12,4)=0,20% Valore di χ02 χ02=12,4 • Nel nostro caso si ha che il numero di gradi di libertà vale NGL=(N-1)(M-1)=1x2=2. Il calcolo fornisce quindi P(χ2>12,4)=0,20%: poiché tale valore è minore dell’1% che ci eravamo prefissati rifiutiamo l’ipotesi H0 e accettiamo H1, ovvero il secondo farmaco è più efficace del primo. Parte II - Statistica inferenziale 72 Tabella di riepilogo (è consentito portarla all’esame) Tipo di test Ipotesi H0: m=µ H1: m>µ Test sulla media (quando µ e σ vengono dati) Test sulla media (quando solo µ viene dato) Confronto tra due medie m1 e m2 Rifiuto H0 se Note m>µ+σz1/2-β/√N H0: m=µ H1: m<µ m<µ-σz1/2-β/√N H0: m=µ H1: m≠µ m<µ-σz(1-β)/2/√N oppure m>µ+σz(1-β)/2/√N H0: m=µ H1: m>µ m>µ+stβ/√N H0: m=µ H1: m<µ m<µ-stβ/√N H0: m=µ H1: m≠µ m<µ-stβ/2/√N oppure m>µ+stβ/2/√N H0: m1=m2 H1: m1>m2 m1-m2>sctβ√1/N1+1/N2 H0: m1=m2 H1: m2>m1 m2-m1>sctβ√1/N1+1/N2 H0: m1=m2 H1: m1≠m2 m1-m2>sctβ/2√1/N1+1/N2 m2-m1>sctβ/2√1/N1+1/N2 • N=numero di dati • m=MEDIA(vettore dati) Calcolo dei valori critici z1-β=INV.NORM.ST(1-β) z(1-β)/2=INV.NORM.ST(1-β/2) • N=numero di dati • m=MEDIA(vettore dati) • s=DEV.ST(vettore dati) tβ=INV.T(2*β;N-1) tβ/2=INV.T(β;N-1) • N1,2=numero di dati 1,2 • m1,2=MEDIA(vettore dati 1,2) • s1,2=DEV.ST(vettore dati 1,2) tβ=INV.T(2*β;N1+N2-2) (N1 −1)s12 + (N 2 −1)s22 • sc = (N1 + N 2 − 2) tβ/2=INV.T(β;N1+N2-2) • N=righe, M=colonne • NGL=(N-1)*(M-1) Test del χ2 H0: nij=n*ij H0: nij≠n*ij P(χ2>χ02,NGL)<β * • n i, j = 2 • χ 0 = ni,• ⋅ n•, j n N M (ni, j − ni,* j )2 ∑∑ i=1 j=1 P(χ2>χ02,NGL)= DISTRIB.CHI(χ02;NGL) ni,* j Parte II - Statistica inferenziale 73 k=1 k=2 k=3 k=4 k=5 k=6 k=7 k=8 k=9 k=10 N=1 1 N=2 2 1 N=3 3 3 1 N=4 4 6 4 1 N=5 5 10 10 5 1 N=6 6 15 20 15 6 1 N=7 7 21 35 35 21 7 1 N=8 8 28 56 70 56 28 8 1 N=9 9 36 84 126 126 84 36 9 1 N=10 10 45 120 210 252 210 120 45 10 1 N=11 11 55 165 330 462 462 330 165 55 11 N=12 12 66 220 495 792 924 792 495 220 66 N=13 13 78 286 715 1287 1716 1716 1287 715 286 N=14 14 91 364 1001 2002 3003 3432 3003 2002 1001 N=15 15 105 455 1365 3003 5005 6435 6435 5005 3003 N=16 16 120 560 1820 4368 8008 11440 12870 11440 8008 N=17 17 136 680 2380 6188 12376 19448 24310 24310 19448 N=18 18 153 816 3060 8568 18564 31824 43758 48620 43758 N=19 19 171 969 3876 11628 27132 50388 75582 92378 92378 N=20 20 190 1140 4845 15504 38760 77520 125970 167960 184756 ! N $ # & " k % 74 Tavola della cumulativa dellla distribuzione norbale standard (si veda la figura) z α/2 (1-α)/2 z α/2 (1-α)/2 z α/2 (1-α)/2 z α/2 (1-α)/2 0,00 0,00000 0,50000 1,00 0,34134 0,15866 2,00 0,47725 0,02275 3,00 0,49865 0,00135 0,05 0,01994 0,48006 1,05 0,35314 0,14686 2,05 0,47982 0,02018 3,05 0,49886 0,00114 0,10 0,03983 0,46017 1,10 0,36433 0,13567 2,10 0,48214 0,01786 3,10 0,49903 0,00097 0,15 0,05962 0,44038 1,15 0,37493 0,12507 2,15 0,48422 0,01578 3,15 0,49918 0,00082 0,20 0,07926 0,42074 1,20 0,38493 0,11507 2,20 0,48610 0,01390 3,20 0,49931 0,00069 0,25 0,09871 0,40129 1,25 0,39435 0,10565 2,25 0,48778 0,01222 3,25 0,49942 0,00058 0,30 0,11791 0,38209 1,30 0,40320 0,09680 2,30 0,48928 0,01072 3,30 0,49952 0,00048 0,35 0,13683 0,36317 1,35 0,41149 0,08851 2,35 0,49061 0,00939 3,35 0,49960 0,00040 0,40 0,15542 0,34458 1,40 0,41924 0,08076 2,40 0,49180 0,00820 3,40 0,49966 0,00034 0,45 0,17364 0,32636 1,45 0,42647 0,07353 2,45 0,49286 0,00714 3,45 0,49972 0,00028 0,50 0,19146 0,30854 1,50 0,43319 0,06681 2,50 0,49379 0,00621 3,50 0,49977 0,00023 0,55 0,20884 0,29116 1,55 0,43943 0,06057 2,55 0,49461 0,00539 3,55 0,49981 0,00019 0,60 0,22575 0,27425 1,60 0,44520 0,05480 2,60 0,49534 0,00466 3,60 0,49984 0,00016 0,65 0,24215 0,25785 1,65 0,45053 0,04947 2,65 0,49598 0,00402 3,65 0,49987 0,00013 0,70 0,25804 0,24196 1,70 0,45543 0,04457 2,70 0,49653 0,00347 3,70 0,49989 0,00011 0,75 0,27337 0,22663 1,75 0,45994 0,04006 2,75 0,49702 0,00298 3,75 0,49991 0,00009 0,80 0,28814 0,21186 1,80 0,46407 0,03593 2,80 0,49744 0,00256 3,80 0,49993 0,00007 0,85 0,30234 0,19766 1,85 0,46784 0,03216 2,85 0,49781 0,00219 3,85 0,49994 0,00006 0,90 0,31594 0,18406 1,90 0,47128 0,02872 2,90 0,49813 0,00187 3,90 0,49995 0,00005 0,95 0,32894 0,17106 1,95 0,47441 0,02559 2,95 0,49841 0,00159 3,95 0,49996 0,00004 α/2 α z = ∫ ϕ (z)dz 2 0 75 Valori critici della t di Student P(t>t’β)=β β=0,1000 0,0500 0,0250 0,0100 0,0050 0,0010 0,0005 P(|t|>t’β/2)=β β=0,2000 0,1000 0,0500 0,0200 0,0100 0,0020 0,0010 g.l.=1 3,078 6,314 12,706 31,821 63,657 318,309 636,619 2 1,886 2,920 4,303 6,965 9,925 22,327 31,599 3 1,638 2,353 3,182 4,541 5,841 10,215 12,924 4 1,533 2,132 2,776 3,747 4,604 7,173 8,610 5 1,476 2,015 2,571 3,365 4,032 5,893 6,869 6 1,440 1,943 2,447 3,143 3,707 5,208 5,959 7 1,415 1,895 2,365 2,998 3,499 4,785 5,408 8 1,397 1,860 2,306 2,896 3,355 4,501 5,041 9 1,383 1,833 2,262 2,821 3,250 4,297 4,781 10 1,372 1,812 2,228 2,764 3,169 4,144 4,587 11 1,363 1,796 2,201 2,718 3,106 4,025 4,437 12 1,356 1,782 2,179 2,681 3,055 3,930 4,318 13 1,350 1,771 2,160 2,650 3,012 3,852 4,221 14 1,345 1,761 2,145 2,624 2,977 3,787 4,140 15 1,341 1,753 2,131 2,602 2,947 3,733 4,073 16 1,337 1,746 2,120 2,583 2,921 3,686 4,015 17 1,333 1,740 2,110 2,567 2,898 3,646 3,965 18 1,330 1,734 2,101 2,552 2,878 3,610 3,922 19 1,328 1,729 2,093 2,539 2,861 3,579 3,883 20 1,325 1,725 2,086 2,528 2,845 3,552 3,850 21 1,323 1,721 2,080 2,518 2,831 3,527 3,819 22 1,321 1,717 2,074 2,508 2,819 3,505 3,792 23 1,319 1,714 2,069 2,500 2,807 3,485 3,768 24 1,318 1,711 2,064 2,492 2,797 3,467 3,745 25 1,316 1,708 2,060 2,485 2,787 3,450 3,725 26 1,315 1,706 2,056 2,479 2,779 3,435 3,707 27 1,314 1,703 2,052 2,473 2,771 3,421 3,690 28 1,313 1,701 2,048 2,467 2,763 3,408 3,674 29 1,311 1,699 2,045 2,462 2,756 3,396 3,659 30 1,310 1,697 2,042 2,457 2,750 3,385 3,646 76 Valori critici di χ2 P(χ2>χ02)=β β=0,2 0,1 0,05 0,02 0,01 g.l.=1 1,6424 2,7055 3,8415 5,4119 6,6349 2 3,2189 4,6052 5,9915 7,8240 9,2103 3 4,6416 6,2514 7,8147 9,8374 11,3449 4 5,9886 7,7794 9,4877 11,6678 13,2767 5 7,2893 9,2364 11,0705 13,3882 15,0863 6 8,5581 10,6446 12,5916 15,0332 16,8119 7 9,8032 12,0170 14,0671 16,6224 18,4753 8 11,0301 13,3616 15,5073 18,1682 20,0902 9 12,2421 14,6837 16,9190 19,6790 21,6660 10 13,4420 15,9872 18,3070 21,1608 23,2093 11 14,6314 17,2750 19,6751 22,6179 24,7250 12 15,8120 18,5493 21,0261 24,0540 26,2170 13 16,9848 19,8119 22,3620 25,4715 27,6882 14 18,1508 21,0641 23,6848 26,8728 29,1412 15 19,3107 22,3071 24,9958 28,2595 30,5779 16 20,4651 23,5418 26,2962 29,6332 31,9999 17 21,6146 24,7690 27,5871 30,9950 33,4087 18 22,7595 25,9894 28,8693 32,3462 34,8053 19 23,9004 27,2036 30,1435 33,6874 36,1909 20 25,0375 28,4120 31,4104 35,0196 37,5662 21 26,1711 29,6151 32,6706 36,3434 38,9322 22 27,3015 30,8133 33,9244 37,6595 40,2894 23 28,4288 32,0069 35,1725 38,9683 41,6384 24 29,5533 33,1962 36,4150 40,2704 42,9798 25 30,6752 34,3816 37,6525 41,5661 44,3141 26 31,7946 35,5632 38,8851 42,8558 45,6417 27 32,9117 36,7412 40,1133 44,1400 46,9629 28 34,0266 37,9159 41,3371 45,4188 48,2782 29 35,1394 39,0875 42,5570 46,6927 49,5879 30 36,2502 40,2560 43,7730 47,9618 50,8922 77 FINE PARTE II • Copia di questa presentazione in formato PDF può essere trovato all’indirizzo http://www.le.infn.it/~montanin/ P.S.: se trovate errori o imprecisioni vi prego di comunicarmeli direttamente o per email a [email protected]. Grazie Parte II - Statistica inferenziale 78