Corso di Laurea in Sicurezza igienico-sanitaria degli alimenti Metodologie statistiche per l’analisi del rischio FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO Facoltà di Medicina Veterinaria, Università di Padova Docente: Dott. L. Corain FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 1 SOMMARIO ¾ Distribuzioni campionarie ¾ Teorema del limite centrale ¾ Stima e intervalli di confidenza ¾ Verifica di ipotesi ¾ Errore di primo e di secondo tipo ¾ Verifica di ipotesi ad un campione ¾ Verifica di ipotesi a due campioni ¾ Verifica di ipotesi a più campioni (ANOVA) FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 2 1 DISTRIBUZIONI CAMPIONARIE z z z z L’interesse dell’inferenza statistica è di trarre conclusioni sulla popolazione e su alcuni suoi parametri e non sul solo campione. A questo scopo si utilizzano delle statistiche, ovvero delle funzioni calcolate sulla base di un campione allo scopo o di stimare (stima) o prendere delle decisioni (verifica di ipotesi) sui valori dei corrispondenti parametri dell’intera popolazione. La media campionaria è l’esempio di una statistica utilizzata per stimare la media di una variabile di interesse (ad es. la prevalenza di un patogeno) riferita all’intera popolazione (un dato processo alimentare). La proporzione campionaria è una statistica utilizzata per stimare la proporzione di unità (ad es. confezioni di prodotto) in una popolazione (processo alimentare) che hanno una certa caratteristica (sono contaminate). FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 3 DISTRIBUZIONI CAMPIONARIE z z z z Supponendo ipoteticamente di procedere all’estrazione di tutti i possibili campioni, la distribuzione di tutti i risultati ottenuti si dice distribuzione campionaria. La distribuzione della media campionaria è perciò la distribuzione di tutte le possibili medie che osserveremmo se procedessimo all’estrazione di tutti i possibile campioni di una certa ampiezza. Nella pratica invece, da una popolazione viene estratto a caso un solo campione, di ampiezza prestabilita a partire dal quale si può calcolare il valore osservato della statistica campionaria. La media campionaria è non distorta per la media della popolazione, cioè la media di tutte le possibili medie campionarie (calcolate a partire campioni di uguale ampiezza n) fornisce la vera media della popolazione. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 4 2 DISTRIBUZIONI CAMPIONARIE Mentre le osservazioni nella popolazione assumono anche valori estremamente piccoli o estremamente grandi, la media campionaria è caratterizzata da una minore variabilità rispetto ai dati originali. Le medie campionarie saranno quindi caratterizzate, in generale, da valori meno dispersi rispetto a quelli che si osservano nella popolazione. Lo scarto quadratico medio della media campionaria, detto errore standard della media, quantifica la variazione della media campionaria da campione a campione: L’errore standard della media σX =σ / n L’errore standard della media campionaria è uguale allo scarto quadratico medio della popolazione diviso √n. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 5 DISTRIBUZIONI CAMPIONARIE Introdotta l’idea di distribuzione campionaria e definito l’errore standard della media, bisogna stabilire quale sia la distribuzione della media campionaria. Se un campione è estratto da una popolazione normale con media µ e scarto quadratico medio σ, la media campionaria ha distribuzione normale indipendentemente dall’ampiezza campionaria n, ed è caratterizzata da valore atteso µ X = µ e scarto quadratico medio pari all’errore standard σX . In figura sono riportate le distribuzioni delle medie campionarie di 500 campioni di ampiezza 1,2,4,8,16 e 32 estratti da una popolazione normale. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 6 3 TEOREMA DEL LIMITE CENTRALE Sinora abbiamo analizzato la distribuzione della media campionaria nel caso di una popolazione normale. Tuttavia, si presenteranno spesso casi in cui la distribuzione della popolazione può non essere normale. In questi casi è utile riferirsi ad un importante teorema della statistica, il teorema del limite centrale, che consente di dire qualcosa sulla distribuzione della media campionaria, anche nel caso in cui una popolazione non abbia distribuzione normale. Teorema del limite centrale Quando l’ampiezza del campione casuale diventa sufficientemente grande, la distribuzione della media campionaria può essere approssimata dalla distribuzione normale. E questo indipendentemente dalla forma della distribuzione dei singoli valori della popolazione. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 7 TEOREMA DEL LIMITE CENTRALE Si tratta, allora, di stabilire cosa si intende per “sufficientemente grande”, problema ampiamente affrontato dagli statistici. Come regola di carattere generale, molti sono concordi nell’affermare che quando il campione raggiunge un’ampiezza pari almeno a 30, la distribuzione della media campionaria può ritenersi approssimativamente normale. Tuttavia, il teorema del limite centrale può essere applicato anche con campioni di ampiezza inferiore se si sa che la distribuzione della popolazione ha alcune caratteristiche che la avvicinano di per se stessa alla normale (ad esempio, quando è simmetrica). Il teorema del limite centrale svolge un ruolo cruciale in ambito inferenziale, in quanto consente di fare inferenza sulla media della popolazione senza dover conoscere la forma specifica della distribuzione della popolazione. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 8 4 TEOREMA DEL LIMITE CENTRALE Ciascuna delle distribuzioni campionarie riportate è ottenuta estraendo 500 campioni diversi dalle rispettive popolazioni. Sono state considerate diverse ampiezze campionarie (n = 2, 5, 30). Nella seconda colonna è riportata la distribuzione della media campionaria nel caso di una popolazione la cui distribuzione (uniforme o rettangolare) è simmetrica e nella terza si considera una popolazione con distribuzione obliqua a destra (esponenziale). FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 9 TEOREMA DEL LIMITE CENTRALE Sulla base dei risultati ottenuti per le distribuzioni note (la normale, l’uniforme l’esponenziale) possiamo trarre alcune conclusioni in merito al teorema del limite centrale: Per la maggior parte delle popolazioni, indipendentemente dalla forma della loro distribuzione, la distribuzione della media campionaria è approssimativamente normale, purché si considerino campioni di almeno 30 osservazioni. Se la distribuzione della popolazione è abbastanza simmetrica, la distribuzione della media campionaria è approssimativamente una normale, purché si considerino campioni di almeno 5 osservazioni. Se la popolazione ha una distribuzione normale, la media campionaria è distribuita secondo la legge normale, indipendentemente dall’ampiezza del campione. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 10 5 STIMA E INTERVALLI DI CONFIDENZA z z z z L’inferenza statistica è il processo attraverso il quale i risultati campionari vengono utilizzati per trarre conclusioni sulle caratteristiche (parametri e formadella distribuzione) di una popolazione. Tale processo consente di stimare caratteristiche non note della popolazione come i parametri (ad es. la media per le var. numeriche o la proporzione per le var. categoriali) che caratterizzano la distribuzione della variabile di interesse. Ci sono due approcci fondamentali di stima: le stime puntuali e le stime per intervalli (intervalli di confidenza). Uno stimatore puntuale è una statistica (cioè una funzione dei dati campionari) che viene definita allo scopo di fornire una sintesi su un parametro di interesse. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 11 STIMA E INTERVALLI DI CONFIDENZA z La stima puntuale è lo specifico valore assunto da una statistica, calcolata in corrispondenza dei dati campionari e che viene utilizzata per stimare il vero valore non noto di un parametro di una popolazione. z Uno stimatore per intervallo è un intervallo costruito attorno allo stimatore puntuale, in modo tale che sia nota e fissata la probabilità che il parametro appartenga all’intervallo stesso. z Tale probabilità è detta livello di confidenza ed è in generale indicato con (1−α)% dove α è la probabilità che il parametro si trovi al di fuori dell’intervallo di confidenza. z Quindi la confidenza è il grado di fiducia che l’intervallo possa contenere effettivamente il parametro di interesse. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 12 6 STIMA E INTERVALLI DI CONFIDENZA Esempio: si consideri un processo industriale di riempimento di scatole di cereali e sia assuma che il peso X delle scatole sia X~N(µ;152). Dato un campione casuale di n=25 scatole con peso medio 362.3 grammi si vuole costruire un intervallo di confidenza al 95% per µ. Per la proprietà della distribuzione normale e della media campionaria risulta che ⎛ ⎞ X −µ P ⎜ − Zα / 2 ≤ ≤ Zα / 2 ⎟ = 1 − α σ/ n ⎝ ⎠ quindi un intervallo di confidenza all’(1−α)% per µ è dato da X − Zα / 2 ⋅ σ / n ≤ µ ≤ X + Zα / 2 ⋅ σ / n Nel caso specifico si ottiene 356.42 ≤ µ ≤ 368.18. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 13 STIMA E INTERVALLI DI CONFIDENZA Ipotizziamo che µ sia uguale a 368. Per comprendere a fondo il significato della stima per intervallo e le sue proprietà è utile fare riferimento all’ipotetico insieme di tutti i possibili campioni di ampiezza n che è possibile ottenere. Osserviamo che per alcuni campioni la stima per intervalli di µ è corretta, mentre per altri non lo è. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 14 7 STIMA E INTERVALLI DI CONFIDENZA Nella pratica estraiamo un solo campione e siccome non conosciamo la media della popolazione non possiamo stabilire se le conclusioni a cui perveniamo sono corrette o meno. Tuttavia possiamo affermare di avere una fiducia all’(1−α)% che la media appartenga all’intervallo stimato. Quindi, l’intervallo di confidenza all’(1−α)% della media con σ noto si ottiene utilizzando l’equazione: Intervallo di confidenza per la media con σ noto X − Zα / 2 ⋅ σ / n ≤ µ ≤ X + Zα / 2 ⋅ σ / n dove Zα/2 è il valore a cui corrisponde un’area cumulata pari a (1−α/2) della distribuzione normale standard. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 15 STIMA E INTERVALLI DI CONFIDENZA In alcuni casi risulta desiderabile un grado di certezza maggiore, ad es. del 99%, ed in altri casi possiamo accettare un grado minore di sicurezza, ad es. del 90%. Il valore Zα/2 di Z che viene scelto per costruire un intervallo di confidenza è chiamato valore critico. A ciascun livello di confidenza (1−α) corrisponde un diverso valore critico. Livelli di confidenza maggiori si ottengono perciò a prezzo di un ampliamento dell’intervallo di confidenza: esiste un tradeoff tra utilità pratica dell’intervallo e livello di confidenza. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 16 8 STIMA E INTERVALLI DI CONFIDENZA In genere lo scarto quadratico medio della popolazione σ, al pari della media µ, non è noto. Pertanto, per ottenere un intervallo di confidenza per la media della popolazione possiamo basarci sulle sole statistiche campionarie X e S. Se la variabile casuale X ha una distribuzione normale allora la statistica t= X −µ S n ha una distribuzione t di Student con (n−1) gradi di libertà. Se variabile casuale X non ha una distribuzione normale la statistica t ha comunque approssimativamente una distribuzione t di Student in virtù del Teorema del Limite Centrale. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 17 STIMA E INTERVALLI DI CONFIDENZA La distribuzione t di Student ha una forma molto simile a quella della normale standardizzata. Tuttavia il grafico risulta più appiattito e l’area sottesa sulle code è maggiore di quella della normale a causa del fatto che s non è noto e viene stimato da S. L’incertezza su s causa la maggior variabilità di t. All’aumentare dei gradi di libertà, la distribuzione t si avvicina progressivamente alla distribuzione normale fino a che le due distribuzioni risultano virtualmente identiche. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 18 9 STIMA E INTERVALLI DI CONFIDENZA Il significato dei gradi di libertà è legato al fatto che per calcolare S2 è necessario calcolare preventivamente X . Quindi, dato il valore di X , solo n−1 osservazioni campionarie sono libere di variare: ci sono quindi n−1 gradi di libertà. L’intervallo di confidenza all’(1−α)% della media quando σ non è noto è definito nell’equazione: Intervallo di confidenza per la media (σ non noto) X − tn −1;α / 2 ⋅ S / n ≤ µ ≤ X + tn −1;α / 2 ⋅ S / n dove tn−1;α/2 è il valore critico a cui corrisponde un’area cumulata pari a (1−α/2) della distribuzione t di Student con (n−1) gradi di libertà. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 19 STIMA E INTERVALLI DI CONFIDENZA Data una popolazione i cui elementi possiedono una certa caratteristica secondo una data proporzione, indicata dal parametro incognito π, è possibile costruire un intervallo di confidenza per π a partire dal corrispondente stimatore puntuale, dato dalla frequenza campionaria p=X/n, dove n è l’ampiezza campionaria e X è il numero di elementi del campione che hanno la caratteristica di interesse. L’equazione seguente definisce l’intervallo di confidenza all’(1−α)% per la proporzione nella popolazione. Intervallo di confidenza per la proporzione p − Zα / 2 ⋅ p (1 − p ) n ≤ π ≤ p + Zα / 2 ⋅ p (1 − p ) n dove Zα/2 è il valore critico della distribuzione normale standard e si assume che X e (n−X) siano entrambi >5. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 20 10 VERIFICA DI IPOTESI z z z La verifica di ipotesi è una procedura inferenziale che ha come scopo quello di considerare l’informazione empirica (ottenuta da una statistica campionaria) e di stabilire se questa è favorevole ad una asserzione di interesse sui parametri della popolazione. Ad esempio, potremmo asserire che il processo produttivo di riempimento delle scatole di cerali può essere considerato appropriato (sotto controllo) se il peso medio µ delle scatole è di 368 grammi. La verifica di ipotesi ha inizio proprio con una considerazione di una teoria o proposizione riguardante un particolare parametro della popolazione e l’ipotesi che il valore del parametro della popolazione sia uguale ad un dato valore prende il nome di ipotesi nulla. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 21 VERIFICA DI IPOTESI z z z L’ipotesi nulla in genere coincide con lo stato delle cose e viene indicata con il simbolo H0, quindi nell’esempio del processo produttivo H0: µ = 368 Sebbene le informazioni siamo tratte a partire dal campione, l’ipotesi è espressa con riferimento a un parametro della popolazione, perché si è interessati all’intero processo produttivo, vale a dire alla popolazione di tutte le scatole di cereali prodotte. Se i risultati campionari non fossero favorevoli all’ipotesi nulla si dovrebbe concludere che l’ipotesi nulla sia falsa e chiaramente ci deve essere un’altra ipotesi che risulti vera. L’ipotesi alternativa H1 è l’asserzione opposta all’ipotesi nulla, e nell’esempio in questione H1: µ ≠ 368 FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 22 11 VERIFICA DI IPOTESI z z z L’ipotesi alternativa rappresenta la conclusione a cui si giunge quando si rifiuta l’ipotesi nulla (decisione forte), cioè quando il campione osservato fornisce sufficiente evidenza del fatto che l’ipotesi nulla sia falsa. D’altro canto il mancato rifiuto dell’ipotesi nulla non prova che essa è vera. Quello che si può concludere è che non vi è sufficiente evidenza empirica contraria ad essa (decisione debole). Di seguito sono riassunti i punti principali che sintetizzano il concetto di ipotesi nulla e di ipotesi alternativa: l’ipotesi nulla H0 rappresenta lo stato attuale delle cose o l’attuale convinzione riguardo a una situazione; l’ipotesi alternativa H1 è specificata come ipotesi opposta all’ipotesi nulla e rappresenta una certa … FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 23 VERIFICA DI IPOTESI … conclusione inferenziale che si è interessati a dimostrare. se si rifiuta l’ipotesi nulla si accetta l’ipotesi alternativa. se si accetta l’ipotesi nulla ciò non significa che si è dimostrato che l’ipotesi nulla sia vera. l’ipotesi nulla H0 si riferisce sempre a un valore specifico del parametro della popolazione (ad esempio µ), e non a una statistica campionaria (ad esempio X ). l’ipotesi nulla contiene sempre un segno di eguale relativo al valore specificato del parametro della popolazione (ad esempio H0: µ = 368 grammi). l’ipotesi alternativa non contiene mai un segno di eguale relativo al valore specificato del parametro della popolazione (ad esempio H1: µ ≠ 368 grammi). FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 24 12 VERIFICA DI IPOTESI z z z z La logica sottostante alla verifica di ipotesi è quella di stabilire la plausibilità dell’ipotesi nulla alla luce delle informazioni campionarie. Se ipotesi nulla asserisce che il peso medio dei cereali contenuti in tutte le scatole prodotte è 368 grammi (il valore del parametro specificato dall’azienda) si procede all’estrazione di un campione di scatole e si pesa ciascuna scatola per calcolare la media campionaria (statistica che stima il vero valore del parametro µ). Anche se l’ipotesi nulla è vera, è probabile che la statistica differisca dal vero valore del parametro per effetto del caso (della variabilità campionaria). Ciononostante ci aspettiamo che in questo caso la statistica campionaria sia vicina al parametro della popolazione. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 25 VERIFICA DI IPOTESI z z z z La teoria della verifica di ipotesi fornisce definizioni chiare sulla base delle quali valutare le differenze osservate tra la statistica e il parametro. Il processo decisionale è sostenuto dal punto di vista quantitativo, valutando la probabilità di ottenere un dato risultato campionario, se l’ipotesi nulla fosse vera. Tale probabilità si ottiene determinando prima la distribuzione campionaria della statistica di interesse (ad es. la media campionaria) e poi calcolando la probabilità che la statistica test assuma il valore osservato in corrispondenza del campione estratto. La distribuzione campionaria della statistica test spesso è una distribuzione statistica nota, come la normale o la t, e quindi possiamo ricorrere a queste distribuzioni per decidere se rifiutare o meno a un’ipotesi nulla. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 26 13 VERIFICA DI IPOTESI z La distribuzione campionaria della statistica test è divisa in due regioni: una regione di rifiuto (chiamata anche regione critica) e una regione di accettazione. z Se la statistica test cade nella regione di accettazione, l’ipotesi nulla non può essere rifiutata e se la statistica test cade nella regione di rifiuto, l’ipotesi nulla deve essere rifiutata. La regione di rifiuto può essere vista come l’insieme di ... z FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 27 ERRORE DI PRIMO E DI SECONDO TIPO z z z z … tutti i valori della statistica test che non è probabile che si verifichino quando l’ipotesi nulla è vera, mentre è probabile che questi valori si verifichino quando l’ipotesi nulla è falsa. Per prendere una decisione sull’ipotesi nulla, dobbiamo in primo luogo definire le regioni di rifiuto e di accettazione e questo viene fatto determinando il cosiddetto valore critico della statistica test. La determinazione di questo valore dipende dall’ampiezza della regione di rifiuto, che è legata al rischio comportato dal prendere una decisione sul parametro alla luce delle sole informazioni campionarie. Quando si applica un procedimento di verifica di ipotesi, si possono commettere due tipi di errori, l’errore di prima specie e l’errore di seconda specie. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 28 14 ERRORE DI PRIMO E DI SECONDO TIPO L’errore di prima specie (detto anche livello di significatività) si verifica se si rifiuta l’ipotesi nulla quando questa è vera e quindi non dovrebbe essere rifiutata. La probabilità che si verifichi un errore di prima specie è indicata con α. L’errore di seconda specie si verifica se si accetta l’ipotesi nulla quando questa è falsa e quindi dovrebbe essere rifiutata. La probabilità che si verifichi un errore di seconda specie è indicata con β. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 29 ERRORE DI PRIMO E DI SECONDO TIPO z z z z In genere, si controlla l’errore di prima specie fissando il livello del rischio α che si è disposti a tollerare. Dal momento che il livello di significatività è specificato prima di condurre la verifica di ipotesi, il rischio di commettere un errore di prima specie α è sotto il controllo di chi compie l’analisi (in genere i valori assegnati ad α sono 0.01, 0.05 o 0.1). La scelta di α dipende fondamentalmente dai costi che derivano dal commettere un errore di prima specie. Una volta specificato il valore di α, si ottiene anche la regione di rifiuto perché è la probabilità che la statistica test cada nella regione di rifiuto quando l’ipotesi nulla è vera. Il valore critico che separa la regione di accettazione da quella di rifiuto viene determinato di conseguenza. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 30 15 ERRORE DI PRIMO E DI SECONDO TIPO Il coefficiente di confidenza, indicato con (1−α), rappresenta la probabilità che l’ipotesi nulla non sia rifiutata quando è vera (quindi non dovrebbe essere rifiutata). Il livello di confidenza di un test di ipotesi è dato da (1−α)×100%. A differenza dell’errore di prima specie, che controlliamo fissando α, la probabilità di commettere un errore di seconda specie dipende dalla differenza tra il valore ipotizzato e il vero valore del parametro della popolazione: se la differenza è grande, è probabile che β sia piccolo. La potenza del test, indicata con (1–β), rappresenta la probabilità di rifiutare l’ipotesi nulla quando è falsa (e quindi dovrebbe essere rifiutata). FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 31 VERIFICA DI IPOTESI AD UN CAMPIONE z z z Un modo per controllare e ridurre l’errore di seconda specie consiste nell’aumentare la dimensione del campione perché un’elevata dimensione del campione consente di individuare anche piccole differenze tra la statistica campionaria e il parametro della popolazione. Per un dato valore di α, l’aumento della dimensione campionaria determina una riduzione di β e quindi un aumento della potenza del test per verificare se l’ipotesi nulla H0 è falsa. Tuttavia per una data ampiezza campionaria dobbiamo tenere conto del trade-off tra i due possibili tipi di errori: possiamo fissare un valore piccolo per α, tuttavia al diminuire di α, β aumenta e pertanto una riduzione del rischio connesso all’errore di prima specie si accompagna a un aumento di quello connesso a un errore di seconda specie. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 32 16 VERIFICA DI IPOTESI AD UN CAMPIONE Tornando al problema di stabilire se il processo produttivo funziona in maniera adeguata, viene estrae un campione di 25 scatole, esse sono pesate e si confronta il peso medio delle scatole del campione (la statistica campionaria) con la media di 368 grammi (il valore ipotizzato del parametro). L’ipotesi nulla e l’ipotesi alternativa in questo esempio sono rispettivamente: H0: µ = 368 H1: µ ≠ 368 Se si assume che la popolazione abbia distribuzione normale e che scarto quadratico medio della popolazione σ sia noto, la verifica di ipotesi viene condotta utilizzando il cosiddetto test di ipotesi Z. Tale test può essere applicato anche se la distribuzione non è normale purché l’ampiezza sia sufficientemente elevata (Teorema del Limite Centrale). FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 33 VERIFICA DI IPOTESI AD UN CAMPIONE L’equazione illustra come si ottiene la statistica test Z. Il numeratore dell’equazione misura di quanto la media osservata X differisce dalla media µ ipotizzata, mentre al denominatore troviamo l’errore standard della media. Pertanto Z ci dice per quanti errori standard X differisce da µ. Statistica Z per la verifica d’ipotesi sulla media (σ noto) Z= X −µ σ/ n Per definire le regioni di accettazione e di rifiuto è necessario determinare i valori critici della statistica test, facendo riferimento alla distribuzione normale standardizzata una volta fissato l’errore di prima specie α. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 34 17 VERIFICA DI IPOTESI AD UN CAMPIONE Ad esempio, se si fissa α=0.05, l’area sottesa in corrispondenza della regione di rifiuto deve essere pari a 0.05. Poiché la regione di rifiuto coincide con le due code della distribuzione (si parla di un test a due code), l’area 0.05 viene divisa in due aree di 0.025. Una regione di rifiuto di 0.025 nelle due code della distribuzione normale dà luogo a un’area cumulata di 0.025 alla sinistra del valore critico più piccolo e a un’area pari a 0.975 alla sinistra del valore critico più grande. Cercando queste aree nella tavola della distribuzione normale [Tavola E.2b], troviamo che i valori critici che dividono la regione di rifiuto da quella di accettazione sono –1.96 e +1.96. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 35 VERIFICA DI IPOTESI AD UN CAMPIONE La Figura mostra che se la media µ ha valore 368, come ipotizza H0, allora la statistica test Z ha una distribuzione normale standardizzata. Valori di Z maggiori di +1.96 o minori di –1.96 indicano che X è così distante dal valore ipotizzato per µ (368) che non è probabile che questo valore si verifichi quando H0 è vera. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 36 18 VERIFICA DI IPOTESI AD UN CAMPIONE Pertanto la regola decisionale è la seguente: Rifiutare H0 se Zα/2<–1.96 oppure se Zα/2>+1.96 Non rifiutare H0 altrimenti Supponiamo che la media campionaria calcolata a partire dal campione di 25 scatole sia 372.5 grammi e che σ sia 15 grammi, allora X − µ 372.5 − 368 Z= σ/ n = 15 / 25 = +1.50 e quindi non è possibile rifiutare l’ipotesi nulla. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 37 VERIFICA DI IPOTESI AD UN CAMPIONE Le 6 fasi della verifica di ipotesi utilizzando l’approccio del valore critico: 1. Specificare l’ipotesi nulla e l’ipotesi alternativa. 2. Scegliere il livello di significatività α e l’ampiezza campionaria n. Il livello di significatività viene fissato in base all’importanza relativa che si accorda ai rischi derivanti dal commettere un errore di prima specie e dal commettere un errore di seconda specie. 3. Individuare la tecnica statistica a cui fare riferimento e la corrispondente distribuzione campionaria. 4. … FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 38 19 VERIFICA DI IPOTESI AD UN CAMPIONE 3. … 4. Calcolare i valori critici che separano la regione di rifiuto da quella di accettazione. 5. Raccogliere i dati e calcolare il valore campionario della statistica test. 6. Prendere la decisione statistica. Se la statistica test cade nella regione di accettazione, l’ipotesi nulla H0 non può essere rifiutata. Se la statistica test cade nella regione di rifiuto, l’ipotesi nulla H0 viene rifiutata. Esprimere la decisione statistica con riferimento al problema che si sta affrontando. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 39 APPROCCIO DEL P-VALUE ALLA VERIFICA DI IPOTESI Esiste un altro approccio alla verifica di ipotesi: l’approccio del p-value. Il p-value rappresenta la probabilità di osservare un valore della statistica test uguale o più estremo del valore che si calcola a partire dal campione, quando l’ipotesi H0 è vera. Un p-value basso porta a rifiutare l’ipotesi nulla H0. Il p-value è anche chiamato livello di significatività osservato, in quanto coincide con il più piccolo livello di significatività in corrispondenza del quale H0 è rifiutata. In base all’approccio del p-value, la regola decisionale per rifiutare H0 è la seguente: Se il p-value è ≥ α, l’ipotesi nulla non è rifiutata. Se il p-value è < α, l’ipotesi nulla è rifiutata. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 40 20 APPROCCIO DEL P-VALUE ALLA VERIFICA DI IPOTESI Torniamo ancora una volta all’esempio relativo alla produzione delle scatole di cereali. Nel verificare se il peso medio dei cereali contenuti nelle scatole è uguale a 368 grammi, abbiamo ottenuto un valore di Z uguale a 1.50 e non abbiamo rifiutato l’ipotesi, perché 1.50 è maggiore del valore critico più piccolo –1.96 e minore di quello più grande +1.96. Risolviamo, ora, questo problema di verifica di ipotesi facendo ricorso all’approccio del p-value. Per questo test a due code, dobbiamo, in base alla definizione del p-value, calcolare la probabilità di osservare un valore della statistica test uguale o più estremo di 1.50. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 41 APPROCCIO DEL P-VALUE ALLA VERIFICA DI IPOTESI Si tratta, più precisamente, di calcolare la probabilità che Z assuma un valore maggiore di 1.50 oppure minore di –1.50. In base alla Tavola E.2, la probabilità che Z assuma un valore minore di –1.50 è 0.0668, mentre la probabilità che Z assuma un valore minore di +1.50 è 0.9332, quindi la probabilità che Z assuma un valore maggiore di +1.50 è 1 – 0.9332 = 0.0668. Pertanto il p-value per questo test a due code è 0.0668 + 0.0668 = 0.1336. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 42 21 Legame tra intervalli di confid. e verifica di ipotesi Finora abbiamo preso in considerazione i due elementi principali dell’inferenza statistica – gli intervalli di confidenza e la verifica di ipotesi. Sebbene abbiano una stessa base concettuale, essi sono utilizzati per scopi diversi: gli intervalli di confidenza sono stati usati per stimare i parametri della popolazione, mentre la verifica di ipotesi viene impiegata per poter prendere delle decisioni che dipendono dai valori dei parametri. Tuttavia è importante sottolineare che anche gli intervalli di confidenza possono consentire di valutare se un parametro è minore, maggiore o diverso da un certo valore: anziché sottoporre a verifica l’ipotesi µ=368 possiamo risolvere il problema costruendo un intervallo di confidenza per la media µ. In questo caso accettiamo l’ipotesi nulla se il valore ipotizzato è compreso nell’intervallo costruito, … FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 43 Legame tra intervalli di confid. e verifica di ipotesi … perché tale valore non può essere considerato insolito alla luce dei dati osservati. D’altronde, l’ipotesi nulla va rifiutata se il valore ipotizzato non cade nell’intervallo costruito, perché tale valore risulta insolito alla luce dei dati. Con riferimento al problema considerato, l’intervallo di confidenza è costruito ponendo: n=25, X =372.5 grammi, σ = 15 grammi. Per un livello di confidenza del 95% (corrispondente al livello di significatività del test α=0.05), avremo: X ± Zα / 2 ⋅ σ / n ⇒ 372.5 ± (1.96) ⋅15 / 25 ⇒ 366.6 ≤ µ ≤ 378.4 Poiché l’intervallo comprende il valore ipotizzato di 368 grammi, non rifiutiamo l’ipotesi nulla e concludiamo che non c’è motivo per ritenere che il peso medio dei cereali contenuti nelle scatole sia diverso da 368 grammi. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 44 22 I test ad una coda Fin qui abbiamo considerato i cosiddetti test a due code, ad esempio abbiamo contrapposto all’ipotesi nulla μ=368 grammi l’ipotesi alternativa μ≠368. Tale ipotesi si riferisce a due eventualità: o il peso medio è minore di 368 oppure è maggiore di 368. Per questo motivo, la regione critica si divide nelle due code della distribuzione della media campionaria. In alcune situazioni, tuttavia, l’ipotesi alternativa presuppone che il parametro sia maggiore o minore di un valore specificato (ci si focalizza in una direzione particolare). Per esempio, si potrebbe essere interessati all’eventualità che il peso dei cereali contenuti ecceda i 368 grammi, perché in tal caso, essendo il prezzo delle scatole basato su un peso di 368 grammi, la società subirebbe delle perdite. In questo caso si intende stabilire se il peso medio è superiore a 368 grammi. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 45 I test ad una coda L’ipotesi nulla e l’ipotesi alternativa in questo caso sono specificate rispettivamente: H0: µ ≤ 368 H1: µ >368 La regione di rifiuto in questo caso è interamente racchiusa nella coda destra della distribuzione della media campionaria, perché rifiutiamo l’ipotesi nulla H0 solo se la media è significativamente superiore a 368 grammi. Quando la regione di rifiuto è contenuta per intero in una coda della distribuzione della statistica test, si parla di test a una coda. Fissato il livello di significatività α, possiamo individuare, anche in questo caso, il valore critico di Zα. Nel caso H0: µ≥368 contro H1: µ<368 possiamo individuare il valore critico di Zα come segue. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 46 23 I test ad una coda Come si può osservare dalla tabella e dalla figura, poiché la regione critica è contenuta nella coda di sinistra della distribuzione normale standardizzata e corrisponde a un’area di 0.05, il valore critico lascia alla sua sinistra una massa pari a 0.05; pertanto tale valore è −1.645 (media di −1.64 e −1.65). FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 47 I test ad una coda Nell’approccio del p-value al test a una coda, si calcola la probabilità di ottenere o un valore della statistica test più grande di quello osservato o un valore più piccolo a seconda della direzione dell’ipotesi alternativa. Se la regione di rifiuto risulta contenuta per intero nella coda di sinistra della distribuzione della statistica test Z, dobbiamo calcolare la probabilità che Z assuma un valore minore di Z osservato, ad esempio −3.125. Tale probabilità, in base alle tavole risulta 0.009. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 48 24 Il test di ipotesi t per la media (σ non noto) In molte applicazioni lo scarto quadratico medio della popolazione σ non è noto ed è quindi necessario stimarlo con lo campionarie scarto quadratico medio S. Se si assume che la popolazione abbia distribuzione normale allora la media campionaria si distribuisce secondo una t di Student con (n−1) gradi di libertà. Statistica t per la verifica d’ipotesi sulla media (σ non noto) t= X −µ S n Se variabile casuale X non ha una distribuzione normale la statistica t ha comunque approssimativamente una distribuzione t di Student in virtù del Teorema del Limite Centrale. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 49 Il test di ipotesi t per la media (σ non noto) Per illustrare l’uso del test t si consideri un campione di fatture per valutare se l’ammontare medio delle fatture è stato uguale a $120. 1. H0: µ = 120 H1: µ ≠ 120 2. α=0.05 e n=12 3. poiché σ non è noto la statistica test è t con n−1 gradi di libertà 4. il test è a due code e i valori critici si determinano dalla Tav. E3. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 50 25 Il test di ipotesi t per la media (σ non noto) 5. dati i valori delle 12 fatture campionate 108.98 152.22 111.45 110.59 127.46 107.26 93.32 91.97 111.56 75.71 128.58 135.11 si ottiene X = 112.85 e S= 20.80 e quindi t= 6. X − µ 112.85 − 120 = = −1.19 S / n 20.80 / 12 poiché −2.201 < t = −1.19 < +2.201 l’ipotesi nulla non va rifiutata 51 FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO Il test di ipotesi Z per la proporzione In alcuni casi si è interessati a verificare ipotesi su π, la proporzione di unità nella popolazione che possiedono una certa caratteristica. A tale scopo, per un campione casuale estratto dalla popolazione, si deve calcolare la proporzione campionaria p=X/n. Se il numero di successi X e di insuccessi (n−X) sono entrambi >5, la distribuzione della proporzione di successi può essere approssimata dalla distribuzione normale e, quindi, si può ricorrere alla statistica Z per la proporzione. Statistica test Z per la verifica d’ipotesi sulla proporzione Z= p −π π (1 − π ) n La statistica test Z ha approssimativamente distribuzione normale standard FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO una 52 26 Il test di ipotesi Z per la proporzione Esempio: dato un campione casuale di 899 persone che lavorano a casa, 369 delle quali sono donne, si è interessati a stabilire se la proporzione di donne è il 50%, cioè H0: π=0.5. Si ha quindi p=X/n=369/899=0.41. Fissato un livello di significatività α=0.05, le regioni di accettazione e rifiuto sono illustrate in figura (dalle tavole il valore critico è Z0.025=1.96). FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 53 Il test di ipotesi Z per la proporzione Z= 0.41 − 0.50 −0.09 p −π = = = −5.37 π (1 − π ) n 0.50(1 − 0.50) 899 0.0167 Poiché −5.37 < −1.96 l’ipotesi nulla va rifiutata. Possiamo quindi concludere che a livello di significatività α=0.05 la proporzione di donne che lavorano da casa non è pari a 0.50. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 54 27 Confronto tra medie di due pop. indipendenti z z z z Consideriamo due popolazioni indipendenti e supponiamo di estrarre un campione di ampiezza n1 dalla prima popolazione di ampiezza n2 dalla seconda popolazione. Siano µ1 e µ2 le medie che caratterizzano rispettivamente la prima e la seconda popolazione e si assumano i due scarti quadratici medi σ1 e σ2 come noti. Si vuole verificare l’ipotesi nulla che le medie delle due popolazioni (indipendenti) sono uguali tra loro: H0: µ1 = µ2 (µ1 − µ2 = 0) contro l’ipotesi alternativa H1: µ1 ≠ µ2 (µ1 − µ2 ≠ 0) A questo scopo viene definita la statistica test Z per la differenza tra le due medie. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 55 Confronto tra medie di due pop. indipendenti FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 56 28 Confronto tra medie di due pop. indipendenti z z z z Se si assume che i due campioni siano estratti casualmente ed indipendentemente da due popolazioni normali la statistica Z ha distribuzione normale. Se le due popolazioni non hanno distribuzione normale il test Z può essere utilizzato con ampiezza campionarie sufficientemente elevate (in virtù del teorema del limite centrale). In molti casi le varianze delle due popolazioni non sono note. Se si assume l’ipotesi di omogeneità della varianze (σ21=σ22), per verificare se c’è una differenza significativa tra le medie delle due popolazioni è possibile utilizzare il test t basato sulle varianze campionarie combinate. Il test t è appropriato se le popolazioni hanno distribuzione normale oppure, in caso contrario, se le ampiezze campionarie sono sufficientemente elevate. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 57 Confronto tra medie di due pop. indipendenti FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 58 29 Confronto tra medie di due pop. indipendenti Regione di rifiuto e di accettazione per la differenza tra due medie utilizzando la statistica test t basata sulle varianze combinate (test a due code). Quando l’assunzione dell’omogeneità delle varianze non è plausibile occorre fare riferimento al test t con varianze diverse (ricorrendo all’Excel o ad altri software statistici). FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 59 Confronto tra medie di due pop. indipendenti Esempio: confronto tra le vendite settimanali (numero di pezzi venduti) della BLK cola in due gruppi di supermercati, dove il primo adotta la collocazione a scaffale mentre il secondo utilizza uno spazio dedicato FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 60 30 Confronto tra medie di due pop. indipendenti FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 61 Confronto tra medie di due pop. indipendenti In base al fatto che l’ipotesi alternativa sia nella forma A: H1:µ1≠µ2 oppure B: H1:µ1<µ2 o C: H1:µ1>µ2 si parla di test ad una coda e test a due code. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 62 31 Intervallo di confidenza per la differenza tra le medie di due pop. indipendenti Anziché (o oltre a) sottoporre a verifica l’ipotesi nulla secondo la quale due medie sono uguali, possiamo utilizzare l’equazione (10.3) per ottenere un intervallo di confidenza per la differenza tra le medie µ1 e µ2 delle due popolazioni: Intervallo di confidenza per la differenza (µ1−µ2) ( X 1 − X 2 ) − tn1 − n2 −1;α / 2 ⋅ S p2 (1 n1 + 1 n2 ) ≤ µ1 − µ 2 ≤ ≤ ( X 1 − X 2 ) + tn1 − n2 −1;α / 2 ⋅ S p2 (1 n1 + 1 n2 ) dove tn1−n2−2;α/2 è il valore critico a cui corrisponde un’area cumulata pari a (1−α/2) della distribuzione t di Student con (n1−n2−2) gradi di libertà. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 63 Confronto tra le proporzioni di due popolazioni z z Spesso si è interessati a effettuare confronti e ad analizzare differenze tra due popolazioni con riferimento alla proporzione di casi con una certa caratteristica Per confrontare due proporzioni sulla base dei risultati di due campioni si può ricorrere al test Z per la differenza tra due proporzioni, la cui statistica test ha distribuzione approssimativamente normale quando le ampiezza campionarie sono sufficientemente elevate Statistica Z per la differenza tra due proporzioni Z= ( p1 − p2 ) − (π 1 − π 2 ) ⎛1 1⎞ p (1 − p ) ⎜ + ⎟ ⎝ n1 n2 ⎠ con p = X1 + X 2 X X , p1 = 1 , p2 = 2 n1 + n2 n1 n2 FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 64 32 Confronto tra le proporzioni di due popolazioni z z A seconda di come è formulata l’ipotesi alternativa avremo un test a due code (H1: π1 ≠ π2 (π1−π2 ≠ 0)) o un test a una coda (ipotesi direzionali: H1: π1 > π2 (π1−π2 > 0) oppure H1: π1 < π2 (π1−π2 < 0)). Esempio La catena di alberghi TC Resort è interessata a valutare se esiste differenza tra la proporzione di clienti che intendono visitare nuovamente due dei suoi alberghi. Vengono campionati 227 clienti nel primo albergo e 262 dal secondo di cui 163 si dicono disposti a ritornare nel primo campione, 154 nel secondo. Adottando un livello di significatività pari a 0.05 si può affermare che nei due alberghi esiste una differenza tra la proporzione di coloro che sono disposti a ritornare? FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 65 Confronto tra le proporzioni di due popolazioni Z= + 3,01 > +1,96 perciò si rifiuta H0 concludendo che le percentuali sono diverse. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 66 33 Intervallo di conf. per la differ. tra due proporzioni Anziché (o oltre a) sottoporre a verifica l’ipotesi nulla secondo la quale due proporzioni sono uguali, possiamo utilizzare la seguente equazione per ottenere un intervallo di confidenza per la differenza tra le due proporzioni. Intervallo di confidenza per la differenza tra due proporzioni ( p1 − p2 ) − Zα / 2 ≤ ( p1 − p2 ) + Zα / 2 p1 (1 − p1 ) p2 (1 − p2 ) + ≤ (π 1 − π 2 ) ≤ n1 n2 p1 (1 − p1 ) p2 (1 − p2 ) + n1 n2 FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 67 Test F per il rapporto tra due varianze z z Talvolta si pone il problema di valutare l’ipotesi di omogeneità delle varianze e a questo scopo è possibile considerare un test statistico per verificare H0: σ21 = σ22 contro l’ipotesi alternativa H1: σ21 ≠ σ22. Questo test è basato sul rapporto delle due varianze campionarie: F = S21 / S22 La statistica test F segue una distribuzione F con (n1−1) e (n2−1) gradi di libertà rispettivamente a numeratore e a denominatore. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 68 34 Test F per il rapporto tra due varianze Esempio: determinazione del valore critico superiore FU di una distribuzione F con 9 e 9 gradi di libertà corrispondente a un’area nella coda destra pari a 0.025. Esiste un modo molto semplice per determinare il valore critico inferiore FL: FL=1/FU*, dove FU* è il valore critico superiore delle distribuzione F con gradi di libertà invertiti, cioè (n2−1) a numeratore e (n1−1) a denominatore. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 69 Test F per il rapporto tra due varianze Regioni di rifiuto e di accettazione per un test F a due code sull’uguaglianza tra due varianze a un livello di significatività pari a 0.05, con 9 e 9 gradi di libertà. Nella verifica di ipotesi sulla omogeneità delle varianze si ipotizza che le due popolazioni siano normali. La statistica F non è robusta rispetto a violazioni di questa assunzione. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 70 35 Analisi della varianza (ANOVA) ad una via z z z Finora abbiamo descritto test di ipotesi finalizzati alla verifica di ipotesi sulla differenza tra parametri di due popolazioni Spesso si presenta la necessità di prendere in considerazione esperimenti od osservazioni relative a più di due gruppi individuati sulla base di un fattore di interesse. I gruppi sono quindi formati secondo i livelli assunti da un fattore, ad esempio la temperatura di cottura di un oggetto in ceramica che assume diversi livelli numerici come 300°, 350°,400°,450° oppure il fornitore che serve una azienda può assumere diversi livelli qualitativi come Fornitore 1, Fornitore 2, Fornitore 3, Fornitore 4. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 71 Analisi della varianza (ANOVA) ad una via z z z z L’analisi della varianza (o ANOVA, ANalysis Of VAriance) è una tecnica che consente di confrontare da un punto di vista inferenziale le medie di più di due gruppi (popolazioni). Quando i gruppi sono definiti sulla base di un singolo fattore si parla di analisi della varianza a un fattore o a una via. Questa procedura, basata su un test F, è una estensione a più gruppi del test t per verificare l’ipotesi sulla differenza tra le medie di due popolazioni indipendenti. Anche se si parla di analisi della varianza in realtà l’oggetto di interesse sono le differenze tra medie nei diversi gruppi e proprio tramite l’analisi della variabilità all’interno dei gruppi e tra gruppi che siamo in grado di trarre delle conclusioni sulla differenza delle medie. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 72 36 Analisi della varianza (ANOVA) ad una via z z z La variabilità all’interno dei gruppi è considerata un errore casuale, mentre la variabilità tra i gruppi è attribuibile alle differenza tra i gruppi, ed è anche chiamata effetto del trattamento. Ipotizziamo che c gruppi rappresentino popolazioni con distribuzione normale, caratterizzate tutte dalla stessa varianza e che le osservazioni campionarie siano estratte casualmente ed indipendentemente dai c gruppi. In questo contesto l’ipotesi nulla che si è interessati a verificare è che le medie di tutti gruppi siano uguali tra loro H0: µ1 = µ2 = … = µc contro l’ipotesi alternativa H1: non tutte le µj sono uguali tra loro (con j=1,…,c) FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 73 Analisi della varianza (ANOVA) ad una via Per verificare le due ipotesi considerate, la variabilità totale (misurata dalla somma dei quadrati totale – SST) viene scomposta in due componenti: una componente attribuibile alla differenza tra i gruppi (misurata dalla somma dei quadrati tra i gruppi – SSA) e una seconda componente che si riferisce alle differenze riscontrare all’interno del gruppi (misurata dalla somma dei quadrati all’interno dei gruppi – SSW) . FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 74 37 Analisi della varianza (ANOVA) ad una via Poiché sotto l’ipotesi nulla si assume che le medie dei gruppi siano tutti uguali, la variabilità totale SST si ottiene sommando le differenze al quadrato di ciascuna osservazione e la media complessiva, indicata con X . Variabilità totale nell’ANOVA a una via c nj ( SST = ∑∑ X ij − X j =1 i =1 2 nj c dove X = ) ∑∑ X j =1 i =1 n ij c = media complessiva, n = ∑ n j j =1 SST è caratterizzata da (n−1) gradi di libertà poiché ciascuna osservazione Xij viene confrontata con la media campionaria complessiva X . FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 75 Analisi della varianza (ANOVA) ad una via La variabilità tra gruppi SSA si ottiene sommando le differenze al quadrato tra le medie campionarie di ciascun gruppo, X j , e la media complessiva, X , dove ogni differenza è ponderata con l’ampiezza campionaria nj del gruppo a cui è riferita. Variabilità tra gruppi nell’ANOVA a una via c nj dove X j = ∑X i =1 nj ( SSA = ∑ n j X j − X j =1 ) 2 ij media campionaria nel j-esimo campione Poiché si tratta di confrontare c gruppi, SSA sarà caratterizzata da (c−1) gradi di libertà. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 76 38 Analisi della varianza (ANOVA) ad una via Infine, la variabilità nei gruppi SSW si ottiene sommando le differenze al quadrato tra ciascuna osservazione e la media campionaria del gruppo a cui appartiene. Variabilità all’interno dei gruppi nell’ANOVA a una via nj SSW = ∑∑ ( X ij − X j ) c 2 j =1 i =1 Poiché ciascuno dei c gruppi contribuisce con (nj−1) gradi di libertà, SSW avrà complessivamente (n−c)= =∑(nj−1) gradi di libertà. Dividendo ciascuna somma dei quadrati per i rispettivi gradi di libertà, si ottengono tre varianze, o medie dei quadrati – MSA (la media dei quadrati tra gruppi), MSW (la media dei quadrati all’interno dei gruppi) e MST (la media dei quadrati totale). FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 77 Analisi della varianza (ANOVA) ad una via Se l’ipotesi nulla è vera e non ci sono differenze significative tra le medie dei gruppi, le tre medie dei quadrati – MSA, MSW e MST, che sono esse stesse delle stime di varianze e rappresentano tutte stime della varianza globale della popolazione sottostante. Quindi per verificare l’ipotesi nulla contro l’alternativa si fa riferimento alla statistica test F per l’ANOVA a una via, ottenuta come rapporto tra MSA e MSW. Statistica test F per l’ANOVA a una via F= SSA /(n − c) MSA = SSW /(c − 1) MSW Se l’ipotesi nulla è vera, la realizzazione della statistica F dovrebbe essere approssimativamente 1, mentre se H0 è falsa ci aspettiamo valori significativ. superiori all’unità. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 78 39 Analisi della varianza (ANOVA) ad una via z z La statistica F ha distribuzione F con (c−1) gradi di libertà al numeratore e (n−c) gradi di libertà al denominatore. Quindi, fissato il livello di significatività α, l’ipotesi nulla dovrà essere rifiutata se il valore osservato della statistica test è maggiore del valore critico FU di una distribuzione F con (c−1) e (n−c) gradi di libertà. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 79 Analisi della varianza (ANOVA) ad una via z I risultati del test F per l’ANOVA vengono solitamente riportati nella cosiddetta tabella dell’ANOVA. z Nella tabella dell’ANOVA viene solitamente riportato anche il p-value, cioè la probabilità di osservare un valore di F maggiore o uguale a quello osservato, nel caso l’ipotesi nulla sia vera. Come usuale, l’ipotesi nulla di uguaglianza tra le medie dei gruppi deve essere rifiutata quando il p-value è inferiore al livello di significatività scelto. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 80 40 Analisi della varianza (ANOVA) ad una via z Esempio: una azienda produttrice di paracadute, vuole confrontare la resistenza dei paracadute prodotti con fibre sintetiche acquistate da quattro diversi fornitori. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 81 Analisi della varianza (ANOVA) ad una via z Fissiamo α=0.05 e identifichiamo nelle tavole il valore critico di interesse. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 82 41 Analisi della varianza (ANOVA) ad una via z Poiché il valore osservato della statistica test è F=3.46< 3.24=FU l’ipotesi nulla deve essere rifiutata e si conclude che la resistenza media dei paracadute varia in modo significativo a seconda del fornitore. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 83 Analisi della varianza (ANOVA) ad una via z Procedura di Tukey-Cramer Quando si rifiuta l’ipotesi nulla del F per l’ANOVA, viene stabilito che ci sono almeno due medie significativamente diverse tra loro. Per identificare quali sono i gruppi che effettivamente differiscono tra loro si deve utilizzare una ulteriore procedura che rientra nei cosiddetti metodi dei confronti multipli. Tra questi metodi, la procedura di Tukey-Cramer consente di effettuare simultaneamente confronti a due a due tra tutti i gruppi. A questo scopo si deve innanzi tutto calcolare c×(c−1)/2 differenze tra le medie campionarie di tutti i gruppi X j − X j(con j ≠ j′), quindi calcolare il range ' critico (ampiezza critica) della procedura di TukeyCramer. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 84 42 Analisi della varianza (ANOVA) ad una via z Procedura di Tukey-Cramer Se la differenza tra due medie campionarie è superiore al range critico, le corrispondenti medie dei gruppi (popolazioni) sono dichiarate significativamente diverse a livello di significatività α. Calcolo del range critico per la procedura di Tukey-Cramer Range critico = QU MSW 2 ⎛1 1 ⎞ ⎜⎜ + ⎟⎟ ⎝ nj nj' ⎠ dove QU è il valore critico superiore della distribuzione del range studentizzato con c gradi di libertà al numeratore e n−c gradi di libertà al denominatore. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 85 Analisi della varianza (ANOVA) ad una via z Esempio della procedura di Tukey-Cramer per il caso dei paracadute. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 86 43 Analisi della varianza (ANOVA) ad una via z Procedura di Tukey-Cramer FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 87 Analisi della varianza (ANOVA) ad una via Assunzioni alla base del test F per l’ANOVA a una via Prima di applicare un test di ipotesi è sempre necessario valutare se le assunzioni di base del test possono o mene essere ragionevolmente soddisfatte. Le ipotesi alla base del test F per l’ANOVA a una via sono essenzialmente tre: casualità e indipendenza; normalità; omogeneità delle varianze. L’ultima ipotesi stabilisce che le varianze nei gruppi sono tra loro uguali (σ21 = σ22 = … = σ2c). Nel caso di campioni con ampiezza simile le inferenze basate sulla distribuzione F non sono molto influenzate da eventuali differenze tra varianze, al contrario se le ampiezze sono diverse tra loro il problema potrebbe essere serio. FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 88 44 Analisi della varianza (ANOVA) ad una via z Test di Levene per l’omogeneità delle varianze Questa procedura inferenziale è stata sviluppata per verificare l’ipotesi nulla H0: σ21 = σ22 = … = σ2c contro l’ipotesi alternativa H1: non tutte le varianze sono uguali. Per verificare tale ipotesi si calcola la differenza in valore assoluto tra ogni osservazione e la mediana campionaria del gruppo di appartenenza e su questi dati si conduce l’ANOVA a una via. Per l’esempio dei paracadute si considera: FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 89 Analisi della varianza (ANOVA) ad una via z Test di Levene per l’esempio dei paracadute FONDAMENTI DI INFERENZA PER L’ANALISI DEL RISCHIO 90 45