CAPITOLO IV 4. - STATISTICA INFERENZIALE Il metodo scientifico si basa non soltanto sull'osservazione, ma su un processo chiamato «ragionamento ipotetico-deduttivo», che è un processo di generazione dell'ipotesi seguito da tentativi di negare l'ipotesi stessa - cioè un processo basato sulla «falsificazione dell'ipotesi». In sostanza, l'impossibilità di rifiutare l'ipotesi rappresenta la prova migliore della sua veridicità. Pertanto, la forza di una ipotesi dipende dal grado con cui essa può essere confutata. Questo concetto è stato espresso magistralmente dalla famosa frase di Sherlock Holmes (il detective creato da sir Arthur Conan Doyle): «È’ una mia vecchia massima che, una volta escluso l'impossibile, ciò che resta, per quanto improbabile, non può che essere la verità». 4.1. Controllo di ipotesi. Vanno sotto il nome di inferenza statistica quei metodi tramite i quali si cerca di dedurre delle informazioni su di una variabile casuale per mezzo delle informazioni ricavabili da essa. Si tratterà cioè, avendo a disposizione un campione di n elementi estratti da una v.c, di sapere se si può ragionevolmente pensare che tale v.c. segua una certa distribuzione di probabilità, caratterizzata da certi parametri. In alcuni casi l'ipotetica distribuzione sarà completamente specificata: ci si può domandare, per esempio, se il campione può essere stato estratto da una v.c. distribuita normalmente, con media e varianza assegnate. Più frequentemente, si conoscerà il tipo di distribuzione e si cercherà di determinare i parametri che ne definiscono una particolare di quel tipo, propria della v.c. da cui si è estratto il campione. Si cercherà cioè, sulla base di dati sperimentali, di costruire il modello matematico più adatto a rappresentare il fenomeno nel suo insieme e, quindi, a predire i risultati di future esigenze analoghe. Le inferenze statistiche riguardano dunque di solito le funzioni di distribuzioni di variabili casuali, sotto il duplice aspetto o del tipo di funzione, oppure dei momenti che la caratterizzano. Si chiama, in generale, ipotesi statistica una supposizione sulla funzione di distribuzione di una o più variabili casuali. In nessun caso, tuttavia, la distribuzione di un campione reale coinciderà esattamente con la distribuzione ipotetica e quindi si porrà il problema di valutare se le deviazioni dal modello matematico che si riscontrano nel campione siano dovute a fluttuazioni casuali, inevitabili in qualunque esperimento, o se invece esse non denuncino una effettiva differenza fra la distribuzione incognita della popolazione da cui si è estratto il campione e quella ipotetica. 43 Il controllo di un'ipotesi statistica (in inglese: test) è un criterio per decidere se accettare o respingere l’ipotesi statistica fatta. Allo statistico è lasciata la completa libertà nello stabilire la regola di decisione: tuttavia egli sarà ovviamente guidato, nel progettarla, da quelle proprietà che fanno al caso suo. I test di significatività si basano sul concetto di valutare se le deviazioni tra la distribuzione campionaria e la distribuzione ipotizzata per la v.c : da cui il campione è stato estratto si possono attribuire a fluttuazioni casuali, o se invece esse sono significative, tanto grandi cioè che l'ipotesi di partenza debba essere rigettata. La inferenza statistica è però un tipo di decisione basato sulla probabilità in quanto la significatività o meno dei risultati osservati non potrà mai essere stabilita con un criterio di validità assoluta. Formulata una ipotesi fondamentale H0 ed una alternativa H1, si stabilirà per prima cosa la regione critica del test, ossia un sottoinsieme dei possibili valori argomentali della v.c. in esame in corrispondenza del quale l’ipotesi fondamentale Ho verrà rigettata. Si ritiene cioè che, se vale Ho, quei valori compresi nella regione critica siano così poco probabili che il presentarsi in un campione di uno di essi basti per poter concludere che l'ipotesi Ho formulata non corrispondeva alla realtà. Si verificherà quindi se il valore argomentale ricavabile dal campione cade o no nella regione critica. Se no, Ho verrà accettata; se sì, Ho verrà rigettata e si accetterà l'ipotesi alternativa H1. Nella decisione presa saranno sempre possibili due tipi di errori: I tipo α - rigettare una ipotesi giusta. Dire cioè che i risultati sperimentali non sono significativi, ossia che essi cadono nella regione critica, quando invece l’ipotesi statistica H0 fatta era corretta. II tipo β - accettare una ipotesi sbagliata. Dire cioè che i risultati sono significativi, ossia che le deviazioni tra dati sperimentali ed ipotesi fatta sono dovuti soltanto al caso, e quindi accettare l'ipotesi Ho che invece era sbagliata. È quindi evidente che il problema di stabilire un test per un'ipotesi si riconduce a quello di fissare il tipo e l'ampiezza della regione critica del test stesso o, alternativamente, il rischio che si è disposti a correre di commettere un errore del primo tipo o del secondo. Si chiama livello di significatività di un test la massima probabilità che si è disposti ad accettare di commettere un errore di primo tipo. Questa probabilità, generalmente indicata con α, viene fissata prima di estrarre il campione per evitare che gli elementi in esso contenuti influenzino la decisione. In pratica, sono molto comuni per α i valori 5% e 1%. Ad esempio, se si sceglie un livello di significatività del test di α=5%, ciò significa che solo in circa 5 casi su 100 si rigetterà l’ipotesi H0 che dovrebbe invece essere accettata e che perciò si può essere fiduciosi al 95% di aver preso la decisione corretta. Perché un test di ipotesi sia buono, esso deve essere progettato in modo da ridurre al minimo gli errori di decisione. Ciò non è semplice perché, dato un certo campione ogni tentativo di ridurre gli errori del primo tipo conduce ad aumentare quelli del secondo tipo. Nei casi concreti, si tratta di vedere quale di essi è più nocivo, e di regolarsi in conseguenza, dato che il solo modo per ridurli entrambi è quello di aumentare la numerosità del campione. 45 Oltre al livello di significatività α definibile anche come la probabilità che un valore argomentale campionario della v.c. su cui si è fatta l'ipotesi statistica H0 cada nella regione critica quando H0 è vero, si definisce anche β ossia la probabilità di commettere un errore del secondo tipo: β sarà quindi la probabilità di estrarre a caso un campione in possesso di un valore argomentale compreso nella regione non critica quando l'ipotesi corretta è H1. fig.4.1 La fìg. 4.1 chiarisce il concetto: la curva di sinistra rappresenta la distribuzione ipotizzata con Ho la cui regione critica è quella delle due code di area α/2 ciascuna: ciò significa che Ho verrà accettata se il valore campionario sarà compreso fra -a e +a. La curva di destra rappresenta la distribuzione ipotizzata con H1 : se è vera H1 la probabilità di ottenere valori campionari compresi fra -a, +a è rappresentata dall'area tratteggiata β. Dato che là regola di decisione è sempre la stessa, in corrispondenza di tali valori si accetterà Ho, nonostante in realtà valga H1, ossia si commetterà un errore di secondo tipo, con probabilità β. Un test di significatività potrà essere stabilito, a seconda dei casi, in uno dei seguenti tre modi: a) si assegna la regione critica. Saranno cioè considerati significativi quei valori campionari esterni ad un fissato intervallo A-B. Eventualmente A, o B, potranno essere gli estremi del campo di definizione della funzione di distribuzione: in tal caso si dirà che il test è fatto su di una sola coda. Fissati A, B si determinerà a quale livello di significatività essi corrispondono, ossia si calcolerà α. b) si assegna α, specificando se il test va fatto su una o due code e si calcolano in conseguenza i limiti A, B, della regione critica. c) si assegnano α, β, in base ai quali si calcoleranno la numerosità del campione necessario e la regione critica. La maggior parte dei problemi, tuttavia, comporta più di una singola alternativa, in quanto lo sperimentatore ha spesso ragioni teoriche o pratiche per conoscere quale ipotesi fondamentale Ho provare, ma raramente sa quale ipotesi alternativa adottare se Ho si dimostra falsa. Per tali classi più generali di alternative, l'entità dell'errore di tipo secondo dipenderà dalla particolare ipotesi alternativa H1 presa in considerazione: H1 cioè non sarà più costante ma dipenderà da entità suscettibili di assumere valori diversi, che si possono genericamente indicare con θ. Per determinare l'efficacia del test scelto ed eventualmente confrontarlo con un altro, bisognerà valutare l'entità di β(θ), ossia dell'errore del secondo tipo per tutte le possibili ipotesi alternative H1 (θ). Come prima, β(θ) sarà la probabilità che il valore campionario cada nella regione non critica quando H1(θ) è l'ipotesi corretta. 46 Dato che si preferisce parlare soltanto della regione critica, si calcola di solito 1-β(θ), ossia la probabilità di un valore campionario di cadere nella regione critica quando H1 (θ) è l'ipotesi corretta. L'espressione P(θ) = 1-β (θ) prende il nome di potenza del test ed i diagrammi θ, P(θ) si chiamano curve di potenza. I diagrammi θ, β(θ) prendono invece il nome di curve delle caratteristiche operative del test (curve O.C.). Evidentemente usare l'uno o l'altro dei due tipi di curve è solo una questione di consuetudine, dato che la quantità di informazione contenuta in esse è uguale. Nel confronto fra due tipi di test sarà da preferirsi quello la cui curva di potenza sia più alta, quello cioè per cui si abbia, a parità di θ, un valore di P(θ) maggiore. Inoltre, dallo studio delle curve di potenza lo sperimentatore può determinare che probabilità ha di accettare ipotesi alternative possibili, e quindi di valutare se l'esperimento è sufficientemente vasto da dare la fiducia che si vorrebbe in qualunque decisione venga presa in base al test. Il metodo di inferenza in base al quale vengono verificate le ipotesi statistiche può apparire piuttosto artificioso in quanto molto spesso non si ha una precisa ipotesi H(θ0) da valutare ma solo una ipotesi approssimativa basata sull'esperienza. Se questa ipotesi approssimativa è trattata come ipotesi precisa da sottoporre a test, e se il test l'accetta, ciò non significa che questa diventi improvvisamente del tutto vera, ma piuttosto che la realtà non sarà troppo discosta da H(θ0) e che, agli effetti pratici, si potrà considerare H(θ0) come conforme a tale realtà. Un procedimento più generale, di cui si fa solo un cenno, è quello di estrarre non un campione di numerosità prefissata, ma un individuo alla volta, decidendo ad ogni passo se accettare l'ipotesi, rigettarla, o continuare ad aumentare il numero di individui del campione. Tale metodo, detto di campionamento sequenziale, può permettere molto spesso di raggiungere una decisione, con la stessa entità di errori di primo e secondo tipo, più velocemente, e quindi più economicamente, di quello con campioni di numerosità prefissata. 4.2. Tests relativi alla distribuzione binomiale Ogni qual volta si abbia a che fare con la v.c. relativa al numero, o alla percentuale, dì eventi favorevoli su n prove ed n sia piccolo, si dovrà fare riferimento alla distribuzione binomiale. Se il valore di n è fissato, l'unico parametro in discussione, su cui cioè si possono fare delle ipotesi da sottoporre a test, è la probabilità p, che permette di definire compiutamente la distribuzione. Esempio. Ad un esame viene distribuita una lista con 10 domande alle quali si deve rispondere si oppure no. Per valutare l'ipotesi che uno studente stia rispondendo a caso, ossia che la sua probabilità di dare una risposta giusta sia p=0,5 viene stabilita una regione critica corrispondente alla seguente regola di decisione: se 7 o più risposte sono corrette lo studente non sta rispondendo a caso. Determinare il livello di significatività del test. 46 L'ipotesi da sottoporre a test è Ho: p = 0,5. La probabilità di dare 7 o più risposte giuste se Ho è vera è: ⎛10 ⎞ ⎛10 ⎞ ⎛10 ⎞ ⎛10 ⎞ ⎜⎜ ⎟⎟(0.5) 7 (0.5)3 + ⎜⎜ ⎟⎟(0.5)8 (0.5) 2 + ⎜⎜ ⎟⎟(0.5)9 (0.5) + ⎜⎜ ⎟⎟(0.5)10 = ⎝7⎠ ⎝8⎠ ⎝9⎠ ⎝10 ⎠ = 0.1719 Si ha cioè α = 0.1719, ossia la probabilità del 17% ∼ di rigettare l'ipotesi Ho : p = 0,5 quando essa è vera, ossia di promuovere lo studente quando questo sta rispondendo a caso. 4.3. Tests relativi alla distribuzione normale. [12] Si è visto nei paragrafi precedenti quali variabili casuali possono essere considerate asintoticamente normali. Pertanto potrà usarsi la distribuzione normale ogni qual volta si abbia a disposizione un campione di numerosità n abbastanza grande da poter ritenere sufficiente tale approssimazione. Le applicazioni più frequenti sono le seguenti: 4.3.1. Distribuzione binomiale con n grande Valgono le stesse considerazioni fatte al paragrafo precedente. Esempio. Fissare una regola di decisione per controllare l'ipotesi che una moneta non sia truccata, avendo stabilito in precedenza di fare 64 lanci e di usare un livello di significatività del 5%. Se p è la probabilità di ottenere testa in un lancio della moneta si avrà: Ho: p = 0.5 ossia la moneta non è truccata H1: p=0.5 ossia la moneta è truccata -1.96 +1.96 fig. 4.1 II test verrà fatto su due code perché, secondo H1, è indifferente avere p >< 0.5. Dato che α = 0.05, ciascuna delle due aree tratteggiate della fig. 4.1 sarà 0.025 dell'area totale sotto la curva normale standardizzata. I valori di z1 e z2 che limitano la regione non critica si ottengono dalle tavole e valgono -1,96 e +1,96. Nella ipotesi Ho la media e lo s.q.m. della distribuzione saranno 47 M=np = 64(0.5)= 32 σ= npq = 64 * (0.5) * (0.5) = 4 I valori x corrispondenti a z = ±1,96 si otterranno come x − np σ = x − 32 = ± 1,96 4 x 1 = 24,16 x 2 = 39.84 La regione critica comprende quindi un numero di teste su 64 lanci compreso fra 0 e 24 oppure fra 40 e 64. Se si otterrà un numero di teste compreso in tale zona si rigetterà l'ipotesi Ho e si concluderà che la moneta è truccata. Esempio. Determinare il minimo numero di lanci necessari per stabilire se una moneta è truccata o no (Ho : p = 0,5), avendo fissato che a) la probabilità di rigettare Ho quando questa è corretta, deve essere al massimo 0,05 (α= 0,05); b) la probabilità di accettare Ho quando in realtà p differisce da 0,5 per 0,1 o di più (p ≥ 0,6 e p ≤ 0,4) deve non superare 0,05 ( β = 0,05). Determinare anche la regione critica corrispondente. La fig. 4.2 illustra il problema. In essa compaiono i dati, cioè α e β. È incognito il valore X e la numerosità N campione. Le due relazioni che legano X, N ad α, β sono le seguenti: 1) area sotto la curva normale corrispondente a p = 0,5 alla destra di X − Np X − 0 .5 N è uguale a 0,025 = Npq N * (0.5) * (0.5) 2) area sotto la curva normale corrispondente a p = 0,6 alla sinistra di X − 0.6 N è uguale a 0.05. N (0.6)(0.4) ( N − X ) − N (0.6) X − 0.6 N (La relazione 2 è un'approssimazione dell'area fra e . 0.49 * N 0.49 * N La differenza è trascurabile). = 0.6 Fig. 4.2 48 Prof. Ing. Michele Marra - Appunti delle Lezioni di Calcolo delle Probabilità e Statistica Con qualche passaggio si ha: 1) X= 0,5 N+0,980 N 2) X = 0,6 N-0,806 N Risolvendo si ottiene: N= 318,98 X=177 cioè la moneta deve essere lanciata al minimo 319 volte e la zona critica è quella esterna all'intervallo fra 142 e 177. Se in 319 lanci si otterrà un numero di teste comprese fra 142 e 177 si accetterà l'ipotesi Ho:p= 0,5; la si rigetterà in caso contrario. 4.3.2. Distribuzioni di medie campionarie di campioni numerosi Per il teorema centrale, le medie campionarie sono distribuite in modo asintoticamente normale con media M e s.q.m. σ / n dove M, σ si riferiscono all'universo da cui è stato estratto il campione. Le ipotesi da controllare in questo caso sono del seguente tipo. Un campione presenta, in media, il valore A di una certa caratteristica che interessa: è accettabile l'ipotesi che il campione sia stato estratto a caso da un universo in cui tale caratteristica dovrebbe avere valore B? Oppure si deve concludere che il valore medio dell'universo non è B ma un qualche altro valore? Esempio. Le funi prodotte da una ditta hanno carico di rottura medio di 300 lb e s.q.m. di 24 lb. La ditta sostiene che per mezzo di nuove tecniche il carico di rottura medio è aumentato. Su di un campione di 64 funi si è valutato un carico di rottura medio di 310 lb. Si può accettare l'affermazione della ditta ad un livello di significatività di 0.01? Si supponga di poter ritenere invariato lo s.q.m. Ho: M = 300 la produzione è sempre la stessa H1:M>300 ne è migliorata la produzio- Si userà sola un test sulla coda di destra, ossia l'area tratteggiata in figura sarà 1% dell'area totale. Il valore di z che la limita si trova sulle tavole e vale + 2.33. Nell'ipotesi Ho la distribuzione delle medie campionarie avrà media e s.q.m. rispettivamente uguali a M x = 300 lb σ x = 24 / 64 Politecnico di Bari –Riservato alla circolazione interna 49 Prof. Ing. Michele Marra - Appunti delle Lezioni di Calcolo delle Probabilità e Statistica z= X −Mx σx = X − 300 = +2.33 3 X = 3(2.33) + 300 = 307 lb La regola di decisione sarà la seguente: si rigetta Ho se la media di un campione supera le 307 lb, si accetta in caso contrario. Dato che nel campione esaminato si aveva x = 310 lb, Ho deve essere rigettato, e si deve accettare l'affermazione della ditta che la produzione è migliorata. Esempio. Secondo la regola di decisione adottata, quale è la probabilità di accettare Ho quando in realtà il nuovo procedimento ha portato il carico di rottura medio dell'intera produzione a 310 Ib? Si vuole cioè calcolare la probabilità p di commettere un errore del secondo tipo se H1 : M = 310 è l'ipotesi corrispondente al vero. Le due curve in figura rappresentano le distribuzioni delle medie dei campioni estratti da due universi le cui medie siano di 300 e 310 lb rispettivamente. Secondo la regola di decisione stabilita si accetterà Ho per valori campionari x ≤ 307. Ma se 310 lb è la vera media della produzione si avranno medie campionarie inferiori o uguali a 307 lb con una probabilità uguale all'area β tratteggiata: per determinare l'entità di β bisognerà 300 307 fig. 4.4 prima calcolare quale è l'equivalente di 307 lb in unità standardizzate, in una distribuzione normale, con media 310 lb e s.q.m. di 3 lb z= 307 − 310 = −1.00 3 L'area sotto la curva normale alla sinistra di z = - 1.00 è 0.1587. La probabilità β di non accettare l'affermazione della ditta che la produzione è migliorata quando in realtà essa è migliorata ed il suo carico medio di rottura è diventato 310 lb è quindi del 16% circa. 50 Politecnico di Bari –Riservato alla circolazione interna Prof. Ing. Michele Marra - Appunti delle Lezioni di Calcolo delle Probabilità e Statistica È evidente che al variare di H1 (θ), ossia per i vari nuovi valori medi, la curva di destra si sposta con continuità, facendo variare l'entità di β. Facendo assumere a θ i alori 290, 295, ecc. fino a 320 lb si potrà costruire per punti la curva O.C. o la curva di potenza. Si avrà M = 290 295 300 305 310 315 320 0.9900 0.748 0.1587 0.0038 0.000 β = 1.0000 1.0000 fig. 4.5 4.4. - Test del χ2 Questo test serve fondamentalmente per verificare se è accettabile l'ipotesi di assimilare una distribuzione sperimentale ad una distribuzione teorica nota. Supponiamo di aver costruito un dato istogramma, di aver calcolato i valori della media x e della varianza σ e di aver costruito con questi la relativa curva di Gauss. Supponiamo che l'istogramma sia molto chiaro, quindi congiungendo i punti medi delle basi superiori di ogni rettangolo otteniamo una curva di Gauss sperimentale. Ci chiediamo se questa curva sperimentale cosi' ottenuta è assimilabile a quella teorica di Gauss e con quale probabilità. Vengono quindi calcolati, classe per classe, i valori delle frequenze osservate e ciò si ottiene considerando il numero di valori che cade in ciascuna classe, che indichiamo con Oi, e le frequenze teoriche ottenute considerando la probabilità che ha un certo dato di cadere in una classe per il numero totale dei dati che rappresentano il nostro campione, che indichiamo con Ti. Il χ2 è infine esprimibile con: n (Oi − Ti ) χ= (8) Ti i =1 con Oi valori delle frequenze osservate con Ti valori delle frequenze teoriche corrispondenti. Fissiamo ora un " livello di confidenza l " o “un livello di significatività α“ [α è il livello di rischio ossia la probabilità che noi accettiamo di sbagliare, accettando l' ipotesi di conformità tra curva teorica e sperimentale (dipende dalle tabelle a disposizione)]; stabiliamo in tal modo una certa tolleranza con cui curva teorica e sperimentale possono essere assimilate. Calcoliamo ora un'altra grandezza, detta "grado di libertà del sistema", data da: g = n-p-1 con n = numero delle classi (se la distribuzione è continua) p = numero dei parametri della distribuzione. Nella distribuzione di Gauss p=2 perché essa dipende da x e σ. Fissando quindi α e g, calcolando la sommatoria, individuiamo un valore del χ2 che indichiamo con χ*2 detto χ2 teorico. Se risulta 2 ∑ 2 Politecnico di Bari –Riservato alla circolazione interna 52 Prof. Ing. Michele Marra - Appunti delle Lezioni di Calcolo delle Probabilità e Statistica χ2 < χ*2 (9) con χ2 dato dalla (8) e individuato da l (o da α) e g, possiamo dire che a quel livello di confidenza (o al quel livello di significatività) è accettabile l'ipotesi di conformità tra distribuzione osservata e teorica. Se la relazione (9) non è verificata, possiamo mantenere g fisso e variare l (o la α) fino a quando non si verifica la (9). Questo vuol dire che la nostra ipotesi è ancora valida ma con un livello di confidenza maggiore (o con un livello di significatività minore) cioè con rischio maggiore. Esempio 4.4.1: Siano stati misurati i seguenti valori.: 5.1; 4.9; 5.1; 4.9; 4.8; 5.0; 5.05; 4.9; 5.0; 5.0; 4.9;5.0;5.1; 4.9; 4.9; 4.7 Vogliamo conoscere il livello di confidenza o il livello di significatività che ci consente di fare l'ipotesi di distribuzione gaussiana. H0= conformità fra distribuzione sperimentale e distribuzione gaussiana H1 = non conformità fra distribuzione sperimentale e distribuzione gaussiana. Iniziamo ad ordinare i valori in forma crescente individuando Xmin e Xmax; 4.7; 4.8; 4.9; 4.9; 4.9; 4.9; 4.9; 4.9; 5.0; 5.0; 5.0; 5.0; 5.05; 5.1; 5.1; 5.1. Xmin = 4, 7 X max = 5,1 I dati a disposizione sono 16, quindi possiamo considerare un numero di classi pari a n= 16 =4. L'ampiezza delle classi è A= 5.1− 47 . = 0,1 4 Facciamo ora l'ipotesi che i dati sulla frontiera ricadano nella classe precedente. A questo punto dovremo aggiungere un'altra classe avente stessa ampiezza A che dovrà precedere Xmin; avremo quindi: Nr. Dati osservati /classe 4.6÷4.7 1 dato 4.7 4.7÷4.8 1 dato 4.8 4.8÷4.9 6 dati 4.9; 4.9; 4.9; 4.9; 4.9;4.9 4.9÷5.0 4 dati 5.0; 5 0; 5.0; 5.0 5.0÷5.1 4 dati 5.05;5.1;5.1;5.1 Possiamo ora costruire “l’istogramma” 53 Politecnico di Bari –Riservato alla circolazione interna Prof. Ing. Michele Marra - Appunti delle Lezioni di Calcolo delle Probabilità e Statistica Si noti che “le frequenze osservate” corrispondono al numero dei dati con cui abbiamo costruito l’istogramma. Dobbiamo calcolarci ora le “frequenze teoriche”, cioè le Ti. Consideriamo la curva di Gauss e l’asse della stessa curva; esso corrisponde al valore x (cioè alla media aritmetica) che nel nostro caso e: x ≅ 5. Successivamente riportiamo le varie classi (cosi’ come abbiamo fatto per costruire l’istogramma); le frequenze teoriche che dobbiamo calcolare, corrispondono alle aree sotto la curva per ognuna delle classi. Calcoliamo la media x e la varianza σ Σx i x= = n = 4.7+4.8+4.9+4.9+4.9+4.9+4.9+4.9+5.0+5.0+5.0+5.0+5.05+5.1+5.1+5.1= 16 = 79.25 = 4.953 16 σ2 = σ= ∑ ( xi − x ) n −1 2 = 0 ,1873 = 0.0125 15 σ 2 = 0 .0125 = 0,1118 Prima di proseguire facciamo alcune considerazioni; riferiamoci alla curva di Gauss. Con i valori x e σ possiamo costruire la relativa curva di Gauss da confrontare con la nostra distribuzione sperimentale. Si vede subito come non ci sia accostamento tra le due distribuzioni. Politecnico di Bari –Riservato alla circolazione interna 53 Prof. Ing. Michele Marra - Appunti delle Lezioni di Calcolo delle Probabilità e Statistica ni; ora con i dati a disposizione vediamo qual è la probabilità di sbagliare se approssimiamo la distribuzione sperimentale con una distribuzione di Gauss. Intanto i gradi di libertà del sistema sono dati da g con g=n-p-1=5-2-1 =2 dove n è il numero di classi; p è il numero di parametri della distribuzione, che nel caso della distribuzione di Gauss è pari a due ( x e σ). Calcoliamo il χ2 n O −T 2 ( i i) χ= Ti i =1 2 ∑ dove Oi sono le frequenze assolute osservate, classe per classe, e Ti sono le frequenze assolute teoriche, classe per classe, che corrispondono all 'area sottesa dalla curva. di Gauss, moltiplicata per il numero complessivo dei dati rilevati. Per calcolare le aree corrispondenti alle varie classi al di sotto della curva di Gauss dobbiamo calcolarci i simmetrici rispetto alla media dei valori degli estremi delle classi ossia tra i valori x ± x , ovvero nel nostro caso tra 4.6 ed il simmetrico di 4.6; tra 4.7 ed il suo simmetrico e così via. I simmetrici di 4.6, 4.7, 4.8, 4.9, 5.0, 5.1 valore 4.953 - 4,6 = 0 353 4.953 - 4,7 = 0,253 4.953 - 4,8 = 0,153 4.953 - 4,9 = 0,053 5,00 – 4,953 = 0,047 5,10 – 4,953 = 0,147 rispetto a x valgono: simmetrico 4.953 + 0.353 = 5.306 4,953 + 0,253 = 5,206 4.953 + 0,153 = 5,106 4.953 + 0,053 = 5,006 4,953 – 0,047 = 4,906 4,953 – 0,147 = 4,806 Se noi volessimo l'area sottesa tra i punti 4.6 e 4.7 dovremmo calcolare l’area sottesa tra 4,6 ed il suo simmetrico rispetto alla media ed il suo simmetrico rispetto alla media due. x e ad essa sottrarre l’area sottesa tra 4,7 x ; il risultato ottenuto deve essere diviso per Si procede quindi alla individuazione delle aree da calcolare in corrispondenza delle varie classi: 1) Area (4,6÷4,7) = ½ (Area x ±0.353) - ½ (Area x ±0.253) 2) Area (4,7÷4,8) = ½ (Area x ±0.253) - ½ (Area x ±0.153) 3) Area (4,8÷4,9) = ½ (Area x ±0.153) - ½ (Area x ±0.053) 4) Area (4,9÷5,0) = ½ (Area x ±0.053) + ½ (Area x ±0.047) 54 Politecnico di Bari –Riservato alla circolazione interna Prof. Ing. Michele Marra - Appunti delle Lezioni di Calcolo delle Probabilità e Statistica 5) Area (5,0÷5,1) = ½ (Area x ±0.047) - ½ (Area x ±0.147) Come si vede le aree sono state individuate esprimendole in funzione della variabile standardizzata z di Gauss, per poter usare la tabella 3. Essendo x= x ± zσ, essendo x- x = 0,353 e σ= 0.1118 questo implica che z= 0.353 σ = 0.353 = 3.16 0.1118 Lo stesso procedimento va iterato per le aree (4,7÷4,8), (4,8÷4,9), (5,00÷5,1). Un discorso a parte merita l’area (4,9÷5,00), nella quale ricade il valore medio x della distribuzione, e per la quale anziché operare con una differenza si opera con una somma. I valori di z corrispondenti a 4.6, 4.7, 4.8, 4.9, 5.0, 5.1 si calcolano come segue: 4,953 - 4.6 = 0.353 → zσ = 0.353 4.953 - 4.7 = 0.253 → zσ = 0.253 4,953 - 4.8 = 0.153 → zσ = 0.153 4.953 - 4.9 = 0.053 → zσ = 0.053 5,0 - 4.953 = 0.047 → zσ = 0.047 5,1 - 4.953 = 0.147 → zσ = 0.147 0 .353 = 3.1574 0 .1118 0 .253 z= = 2.2629 0 .1118 0,153 = 1.3685 z= 0,1118 0 .053 z= = 0.474 0 .1118 0 .047 z= = 0.42 0 .1118 0 .147 z= = 1.3148 0 .1118 z= Siamo di fronte ad una situazione particolare, perché la tabella 3 riportata nel seguito si riferisce ad una distribuzione standardizzata con media 0 e scarto quadratico σ; ora tutte le distribuzioni normali che hanno lo stesso scarto quadratico medio σ hanno la stessa forma anche se hanno media diversa cioè il valore dell’area sottesa dalla curva entro determinate classi di valori espresse mediante le corrispondenti z relative a ciascun estremo di ciascuna classe risultano identiche. Risulta quindi più semplice calcolarle. Calcoliamo ora le aree relative alle varie classi: Amp. Classi 4.6÷ 4.7 4.7÷ 4.8 4.8÷ 4.9 4.9÷ 5.0 5.0÷ 5.1 = = = = = Area 0.4992- 0.4881 = 0.4881- 0.4131 = 0.4131-0.1808 = 0.1808 + 0.1628= 0.4049- 0.1628 = Politecnico di Bari –Riservato alla circolazione interna 0.0111 0.075 0.2323 0.3436 0.2421 N Ti * 16 = 0.1776 * 16 = 1.2 * 16 = 3.7168 * 16 = 5.4976 * 16 = 3.8736 55 Prof. Ing. Michele Marra - Appunti delle Lezioni di Calcolo delle Probabilità e Statistica Le frequenze osservate valgono: 1 1 6 4 4 O1 O2 O3 O4 O5 Conoscendo Oi e Ti possiamo conoscere χ2 : χ 2 (O − T ) =Σ i i Ti 2 ( 1− 0 .1776 ) 2 = 0 .1776 + + ( 1− 1.2) 2 1.2 + ( 6 − 37168 ) . 37168 . 2 + ( 4 − 5.4976 ) 2 5.4976 + ( 4 − 3.8736 ) 2 = 3.8082 + 0.0333 + 1.4025 + 0.4079 + 3.8736 + 0.0041 = 5.656 Calcolati gradi di libertà del sistema g= 5 - 2 - 1 = 2 dalla tabella 4 che riporta i valori del χ2 in funzione dei gradi di libertà e dei livelli di significatività si trova per α il valore α=0.95. Il valore di α trovato è troppo alto, pertanto non possiamo considerare la nostra distribuzione assimilabile a quella di Gauss. Infatti, essendo ( Oi − Ti )2 χ = Ti i si ha che più la curva teorica si avvicina a quella sperimentale più χ2 tende a zero. 2 ∑ 56 Politecnico di Bari –Riservato alla circolazione interna Prof. Ing. Michele Marra - Appunti delle Lezioni di Calcolo delle Probabilità e Statistica Tabella 3 AREE sotto la CURVA NORMALE STANDARDIZZATA da 0 a z z 0 1 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0 2,1 2,2 2,3 2,4 2,5 2,6 2,7 2,8 2,9 3,0 3,1 3,2 3,3 3,4 3,5 3,6 3,7 38 3:9 0,0000 0,0398 0,0793 0,1179 0,1554 0.1915 0,2258 0,2580 0,2881 0,3159 0,3413 0,3643 0,3849 0,4032 0,4192 0,4332 0,4452 0,4554 0,4641 0,4713 0,4772 0,4821 0,4861 0,4893 0,4918 0,4938 0,4953 0,4965 0,4974 0,4981 0,4987 0,4990 0,4993 0,4995 0,4997 0,4998 0,4998 0,4999 0,4999 0,5000 0,0040 0,0438 0,0832 0,1217 0,1591 0,1950 0,2291 0,2612 0,2910 0,3186 0,3438 0,3665 0,3869 0,4049 0,4207 0,4345 0,4463 0,4564 0,4649 0,4719 0,4778 0,4826 0,4864 0,4896 0,4920 0,4940 0,4955 0,4966 0,4975 0,4982 0,4987 0,4991 0,4993 0,4995 0,4997 0,4998 0,4998 0,4999 0,4999 0,5000 2 0,0080 0,0478 0,0871 0,1255 0,1628 0,1985 0,2324 0,2642 0,2939 0,3212 0,3461 0,3686 0,3888 0,4066 0,4222 0,4357 0,4474 0,4573 0,4656 0,4726 0,4783 0,4830 0,4868 0,4898 0,4922 0,4941 0,4956 0,4967 0,4976 0,4982 0,4987 0,4991 0,4994 0,4995 0,4997 0,4998 0,4999 0,4999 0,4999 0,5000 3 4 5 6 7 8 9 0,0120 0,0517 0,0910 0,1293 0,1664 0,2019 0,2357 0,2673 0,2967 0,3238 0,3485 0,3708 0,3907 0,4082 0,4236 0,4370 0,4484 0,4582 0,4664 0,4732 0,4788 0,4834 0,4871 0,4901 0,4925 0,4943 0,4957 0,4968 0,4977 0,4983 0,4988 0,4991 0,4994 0,4996 0,4997 0,4998 0,4999 0,4999 0,4999 0,5000 0,0160 0,0557 0,0948 0,1331 0,1700 0,2054 0,2389 0,2704 0,2996 0,3264 0,3508 0,3729 0,3925 0,4099 0,4251 0,4382 0,4495 0,4591 0,4671 0,4738 0,4793 0,4838 0,4875 0,4904 0,4927 0,4945 0,4959 0,4969 0,4977 0,4984 0,4988 0,4992 0,4994 0,4996 0,4997 0,4998 0,4999 0,4999 0,4999 0,5000 0,0199 0,0596 0,0987 0,1368 0,1736 0,2088 0,2422 0,2734 0,3023 0,3289 0,3531 0,3749 0,3944 0,4115 0,4265 0,4394 0,4505 0,4599 0,4678 0,4744 0,4798 0,4842 0,4878 0,4906 0,4929 0,4946 0,4960 0,4970 0,4978 0,4984 0,4989 0,4992 0,4994 0,4996 0,4997 0,4998 0,4999 0,4999 0,4999 0,5000 0,0239 0,0636 0,1026 0,1406 0,1772 0,2123 0,2454 0,2764 0,3051 0,3315 0,3554 0,3770 0,3962 0,4131 0,4279 0,4406 0,4515 0,4608 0,4686 0,4750 0,4803 0,4846 0,4881 0,4909 0,4931 0,4948 0,4961 0,4971 0,4979 0,4985 0,4989 0,4992 0,4994 0,4996 0,4997 0,4998 0,4999 0,4999 0,4999 0,5000 0,0279 0,0675 0,1064 0,1443 0,1808 0,2157 0,2486 0,2794 0,3078 0,3340 0,3577 0,3790 0,3980 0,4147 0,4292 0,4418 0,4525 0,4616 0,4693 0,4756 0,4808 0,4850 0,4884 0,4911 0,4932 0,4949 0,4962 0,4972 0,4979 0,4985 0,4989 0,4992 0,4995 0,4996 0,4997 0,4998 0,4999 0,4999 0,4999 0,5000 0,0319 0,0714 0,1103 0,1480 0,1844 0,2190 0,2518 0,2823 0,3106 0,3365 0,3599 0,3810 0,3997 0,4162 0,4306 0,4429 0,4535 0,4625 0,4699 0,4761 0,4812 0,4854 0,4887 0,4913 0,4934 0,4951 0,4963 0,4973 0,4980 0,4986 0,4990 0,4993 0,4995 0,4996 0,4997 0,4998 0,4999 0,4999 0,4999 0,5000 0,0359 0,0754 0,1141 0,1517 0,1879 0,2224 0,2549 0,2852 0,3133 0,3389 0,3621 0,3830 0,4015 0,4177 0,4319 0,4441 0,4545 0,4633 0,4706 0,4767 0,4817 0,4857 0,4890 0,4916 0,4936 0,4952 0,4964 0,4974 0,4981 0,4986 0,4990 0,4993 0,4995 0.4997 0,4998 0,4998 0,4999 0,4999 0,4999 0,5000 Politecnico di Bari –Riservato alla circolazione interna 57 Prof. Ing. Michele Marra - Appunti delle Lezioni di Calcolo delle Probabilità e Statistica TABELLA 4 VALORI DEI PERCENTILI1 per la distribuzione della variabile casuale χ2 con g gradi di libertà e livello di significatività α υ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 50 60 70 80 90 100 χ .2995 χ.299 χ.2975 χ.295 χ.290 χ.275 χ.250 χ.225 χ.210 χ.205 χ.2025 7.88 10.6 12.8 14.9 16.7 18.5 20.3 22.0 23.6 25.2 26.8 28.3 29.8 31.3 32.8 34.3 35.7 37.2 .38.6 40.0 41.4 42.8 44.2 45.6 46.9 48.3 49.6 51.0 52.3 53.7 66.8 79.5 92.0 104.2 116.3 128.3 140.2 6.63 9.21 11.8 13.3 15.1 16.8 18.5 20.1 21.7 23.2 24.7 26.2 27.7 29.1 30.6 32.0 33.4 34.8 36.2 37.6 38.9 40.3 41.6 43.0 44.3 45.6 47.0 48.3 49.6 50.9 63.7 76.2 88.4 100.4 112.3 124.1 135.8 5.02 7.38 9.35 11.1 12.8 14.4 16.0 17.5 19.0 20.5 21.9 23.3 24.7 26.1 27.5 28.8 30.2 31.5 32.9 34.2 35.5 36.8 38.1 39.4 40.6 41.9 43.2 44.5 45.7 47.0 59.3 71.4 83.3 95.0 106.6 118.1 129.6 3.84 5.99 7.81 9.49 11.1 12.6 14.1 15.5 16.9 18.3 19.7 21.0 22.4 23.7 25.0 26.3 27.6 28.9 30.1 31.4 32.7 33.9 35.2 36.4 37.7 38.9 40.1 41.3 42.6 43.8 55.8 67.5 79.1 90.5 101.9 113.1 124.3 2.71 4.61 6.25 7.78 9.24 10.6 12.0 13.4 14.7 16.0 17.3 18.5 19.8 21.1 22.3 23.5 24.8 26.0 27.2 28.4 29.6 30.8 32.0 33.2 34.4 35.6 36.7 37.9 39.1 40.3 51.8 63.2 74.4 85.5 96.6 107.6 118.5 1.32 2.77 4.11 5.39 6.63 7.84 9.04 10.2 11.4 12.5 13.7 14.8 16.0 17.1 18.2 19.4 20.5 21.6 22.7 23.8 24.9 26.0 27.1 28.2 29.3 30.4 31.5 32.6 33.7 34.8 45.6 56.3 67.0 77.6 88.1 98.6 109.1 .455 1.39 2.37 3.36 4.35 5.35 6.35 7.34 8.34 9.34 10.3 11.3 12.3 13.3 14.3 15.3 16.3 17.3 18.3 19.3 20.3 21.3 22.3 23.3 24.3 25.3 26.3 27.3 28.3 29.3 39.3 49.3 59.3 69.3 79.3 89.3 99.3 .102 .575 1.21 1.92 2.67 3.45 4.25 5.07 5.90 6.74 7.58 8.44 9.30 10.2 11.0 11.9 12.8 13.7 14.6 15.5 16.3 17.2 18.1 19.0 19.9 20.8 21.7 22.7 23.6 24.5 33.7 42.9 52.3 61.7 71.1 80.6 90.1 .0158 .211 .584 1.06 1.61 2.20 2.83 3.49 4.17 4.87 5.58 6.30 7.04 7.79 8.55 9.31 10.1 10.9 11.7 12.4 13.2 14.0 14.8 15.7 16.5 17.3 18.1 18.9 19.8 20.6 29.1 37.7 46.5 55.3 64.3 73.3 82.4 .0039 .103 .352 .711 1.15 1.64 2.17 2.73 3.33 3.94 4.57 5.23 5.89 6.57 7.26 7.96 8.67 9.39 10.1 10.9 11.6 12.3 13.1 13.8 14.6 15.4 16.2 16.9 17.7 18.5 26.5 34.8 43.2 51.7 60.4 69.1 77.9 .0010 .0002 .0506 .020] .216 .115 .484 .297 .831 .554 1.24 .872 1.69 1.24 2.18 1.65 2.70 2.09 3.25 2.56 3.82 3.05 4.40 3.57 5.01 4.11 5.63 4.66 6.26 5.23 6.91 5.81 7.56 6.41 8.23 7.01 8.91 7.63 9.59 8.26 10.3 8.90 11.0 9.54 11.7 10.2 12.4 10.9 13.1 11.5 13.8 12.2 14.6 12.9 15.3 13.6 16.0 14.3 16.8 15.0 24.4 22.2 32.4 29.7 40.5 37.5 48.8 45.4 57.2 53.5 65.6 61.8 74.2 70.1 1 χ.201 Costruita la curva delle frequenze cumulate si intende per percentile o centile il livello di misura al di sotto del quale cade una determinata percentuale di una distribuzione. 58 Politecnico di Bari –Riservato alla circolazione interna χ.2005 .0000 .0100 .072 .207 .412 .676 .989 1.34 1.73 2.16 2.60 3.07 3.57 4.07 4.60 5.14 5.70 6.26 6.84 7.43 8.03 8.64 9.26 9.89 10.5 11.2 11.8 12.5 13.1 13.8 20.7 28.0 35.5 43.3 51.2 59.2 67.3 Prof. Ing. Michele Marra - Appunti delle Lezioni di Calcolo delle Probabilità e Statistica Esempio 4.4.2: Si desidera verificare l’ipotesi che gli arrivi al casello di una autostrada abbiano una distribuzione poissoniana con un valore della media degli arrivi per unità di tempo uguale a 0,4. Si assume un intervallo di tempo per il conteggio degli arrivi di 2 minuti e si rilevano i dati per due ore consecutive. In ognuno dei 60 intervalli si conta il numero totale di arrivi. Quindi si contano le frequenze relative agli intervalli che si sono presentati con lo stesso numero di arrivi. Riportiamo i dati nella tabella seguente: Numero di arrivi Numero di intervaln li di 2 minuti nei quali si è osservato il numero di arrivi n 0 21 1 23 2 10 3 4⎫ 4 1⎪⎪ ⎪ 5 0⎬6 6 0⎪ ⎪ 7 1⎪⎭ Probabilità cal- Numero di intervalli colate secondo di 2 minuti previsto Poisson secondo Poisson Totali 1,00 60 0,449 26,9 0,359 21,5 0,144 8,6 0,0384 ⎫ 0,00768 ⎪⎪ ⎪ 0,0012288 ⎬0,0 2,88 0,00016384 ⎪ ⎪ 0,000018725⎪⎭ 60,00 Se nella colonna delle frequenze (seconda) troviamo un numero piccolo di intervalli, per esempio minore di cinque, lo si raggruppa con gli altri in modo da aumentare la dimensione del campione in un gruppo; per esempio le frequenze fra i 3 ed i 7 arrivi sono raggruppate in modo da avere una frequenza totale di 6. Usando la distribuzione di Poisson ( 0, 4 t ) n e −0 , 4 t n! con t=2, si calcola la terza colonna per valori di n dati dalla prima colonna. Ciò fornisce la probabilità per gli arrivi indicati. Moltiplicando ogni probabilità per il numero totale di intervalli osservati 60, si ha il numero degli intervalli di 2 minuti previsti per il numero di arrivi indicato. Infine si calcola l’espressione ( Oi − Ti )2 2 χ = i Ti dove le differenze sono prese fra i numeri della seconda e quelli dell’ultima colonna, elevate al quadrato e divise per i numeri dell’ultima colonna. Si ha cioè 2 2 2 ,88 ) 2 χ2 = ( 21−2626,94,94 ) + ( 23−2121,54,54 ) + (10−88,64,64 ) + ( 6−22,88 = 5,003 ∑ Politecnico di Bari –Riservato alla circolazione interna 59 Prof. Ing. Michele Marra - Appunti delle Lezioni di Calcolo delle Probabilità e Statistica Entrando nella tabella del χ2 con g=n-p-1 = 2 gradi di libertà si trova che questo numero è minore di quello indicato al livello di significatività α=0,95. Si può quindi concludere che se si accetta la media 0,4 della distribuzione di Poisson, i dati osservati si scostano significativamente dai valori ottenuti dalla distribuzione adottata di Poisson. L’adattamento della curva è rifiutato a quel livello di significatività. Quando c’è un solo grado di libertà, si applica una correzione dovuta a Yates la quale consiste nell’aggiungere una mezza unità, alle frequenze osservate che sono minori del corrispondente valore previsto e nel sottrarla a quelle che sono maggiori del corrispondente valore previsto. C’è un rischio nell’applicazione del test del χ2 a campioni piccoli, poiché una variazione di poche unità dà luogo ad una variazione del χ2 relativamente grande e rende il valore instabile. Esempio 4.4.3: Vogliamo stabilire se un dado da gioco è truccato o no usando il test del χ2. Supponiamo di lanciare il dado 60 volte ottenendo la seguente frequenza: 1 2 3 4 5 6 7/60 12/60 11/60 10/60 8/60 12/60 La frequenza relativa teorica è invece 10/60, in quanto ogni faccia ha la stessa probabilità di uscita. Noti i valori delle frequenze relative osservate e di quella teorica si può calcolare il χ2: 7 − 10 ) 2 8 − 10 ) 2 ( 60 ( 12 − 10 ) 2 ( 11 − 10 ) 2 ( 60 ( 10 − 10 ) 2 ( 12 − 10 ) 2 60 60 60 60 60 60 60 60 60 60 2 χ = + 10 + 10 + 10 + 10 + 10 =2,2 10 60 60 60 60 60 60 Calcoliamo ora il χ teorico. Il livello di confidenza è l =0,90; Il livello di significatività è α = 0,1; i gradi di libertà del sistema sono: g=n-1 =6-0-1=5 Conoscendo g = 5 e l = 90%, (perché dire α = 10% significa avere una probabilità di errore del 10%, mentre per non sbagliare c'è una probabilità del 90%) possiamo conoscere mediante la tab. 4) il valore del χ2=9,24. Poiché χ2 ≤ χ *2 cioè 2.2 < 9.24 il dado non è truccato. 2 60 Politecnico di Bari –Riservato alla circolazione interna Prof. Ing. Michele Marra - Appunti delle Lezioni di Calcolo delle Probabilità e Statistica Esempio 4.4.4 : Supponiamo di avere effettuato 100 lanci di una monetina e di avere ottenuto 40 teste e 60 croci. Assumendo l’ipotesi che la monetina non sia truccata avremmo dovuto avere 50 teste e 50 croci. Lanciando la moneta ci sono due sole possibilità: testa o croce, pertanto i gradi di libertà in questo caso sono g= n-1 = 2 - 1 = 1 2 Calcoliamoci il χ ( 40 ,5 − 50 )2 ( 59 ,5 − 50 )2 χ2 = = 3,61 + 50 50 Si noti che si è aggiunto ½ a 40 e si è sottratto ½ a 60. Questa procedura, nota come correzione di Yates, generalmente aggiunge ½ alle frequenze osservate che assumono valore inferiore alle frequenze attese e sottrae ½ da quelle che assumono valore superiore. Il valore osservato di χ2 è 3,61. Fissato ora il livello di confidenza del 90% ossia un livello di significatività del 10% e con un valore di g=1 risulta χ *2 = 2,71. 4.5.- Test di Student Questo test viene usato per stabilire se un certo campione proviene da un determinato universo di pezzi; vediamo in cosa consiste. Supponiamo di avere un certo numero di pezzi; sia m un valore della media, mentre σ sia lo scarto quadratico medio. Consideriamo successivamente un certo campione di questi pezzi che presentano lo stesso valore dello scarto quadratico medio σ ma un valore della media x con x ≠ m. Vogliamo stabilire se il campione osservato proviene dall'universo di pezzi di media nota m. Secondo Student ciò si verifica se: x −m t= σ dove m = media dichiarata dell'intero universo; x = media osservata del nostro campione, σ = scarto quadratico medio dell'universo e del campione. Vediamo con quale probabilità questo campione esaminato proviene dall'universo di media m. Calcoliamo i gradi di libertà del sistema g, mediante la formula: g=n-1 con n = numero dei dati del campione. Calcolato g e fissato il livello di confidenza 1 (o il livello di significatività α) si ricorre alla tab. 5) e si legge in corrispondenza di g ed l (o α) il valore di t teorico indicato con t*. Politecnico di Bari –Riservato alla circolazione interna 61 Prof. Ing. Michele Marra - Appunti delle Lezioni di Calcolo delle Probabilità e Statistica TABELLA 5 Valori dei percentile (tp) per la DISTRIBUZIONE DELLA VARIABILE CASUALE t DI STUDENT con v gradi di libertà (area grigia = p) ν 0.995 0.99 0.975 0.95 0.90 0.80 0.75 0.70 0.60 0.55 1 2 3 4 63.66 9.92 5.84 4.60 31.82 6.96 4.54 3.75 12.71 4.30 3.18 2.78 6.31 2.92 2.35 2.13 3.08 1.89 1.64 1.53 1.376 1.061 .978 .941 1.000 .816 .765 .741 .727 .617 .584 .569 .325 .289 .277 .271 .158 .142 .137 .134 5 4.03 3.36 2.57 2.02 1.48 .920 .727 .559 .267 .132 6 7 8 9 3.71 3.50 3.36 3.25 3.14 3.00 2.90 2.82 2.45 2.36 2.31 2.26 1.94 1.90 1.86 1.83 1.44 1.42 1.40 1.38 .906 .896 .889 .883 .718 .711 .706 .703 .553 .549 .546 .543 .265 .263 .262 .261 .131 .130 .130 .129 10 3.17 2.76 2.23 1.81 1.37 .879 .700 .542 .260 .129 11 12 13 14 3.11 3.06 3.01 2.98 2.72 2.68 2.65 2.62 2.20 2.18 2.16 2.14 1.80 1.78 1.77 1.76 1.36 1.36 1.35 1.34 .876 .873 .870 .868 .697 .695 .694 .692 .540 .539 .538 .537 .260 .259 .259 .258 .129 .128 .128 .128 15 2.95 2.60 2.13 1.75 1.34 .866 .691 .536 .258 .128 16 17 18 19 2.92 2.90 2.88 2.86 2.58 2.57 2.55 2.54 2.12 2.11 2.10 2.09 1.75 1.74 1.73 1.73 1.34 1.33 1.33 1.33 .865 .863 .862 .861 .690 .689 .688 .688 .535 .534 .534 .533 .258 .257 .257 .257 .128 .128 .127 .127 20 2.84 2.53 2.09 1.72 1.32 .860 .687 .533 .257 .127 21 22 23 24 2.83 2.82 2.81 2.80 2.52 2.51 2.50 2.49 2.08 2.07 2.07 2.06 1.72 1.72 1.71 1.71 1.32 1.32 1.32 1.32 .859 .858 .858 .857 .686 .686 .685 .685 .532 .532 .532 .531 .257 .256 .256 .256 .127 .127 .127 .127 25 2.79 2.48 2.06 1.71 1.32 .856 .684 .531 .256 .127 26 27 28 29 2.78 2.77 2.76 2.76 2.48 2.47 2.47 2.46 2.06 2.05 2.05 2.04 1.71 1.70 1.70 1.70 1.32 1.31 1.31 1.31 .856 .855 .855 .854 .684 .684 .683 .683 .531 .531 .530 .530 .256 .256 .256 .256 .127 .127 .127 .127 30 2.75 2.46 2.04 1.70 1.31 .854 .683 .530 .256 .127 40 60 120 2.70 2.66 2.62 2.58 2.42 2.39 2.36 2.33 2.02 2.00 1.98 1.96 1.68 1.67 1.66 1.645 1.30 1.30 1.29 1.28 .851 .848 .845 .842 .681 .679 .677 .674 .529 .527 .526 .524 .255 .254 .254 .253 .126 .126 .126 .126 ∞ 62 Politecnico di Bari –Riservato alla circolazione interna Prof. Ing. Michele Marra - Appunti delle Lezioni di Calcolo delle Probabilità e Statistica Se il valore di t da noi calcolato risulta essere minore o uguale di quello teorico t*, ovvero t < t* allora con quel livello di confidenza l (o a quel livello di significatività α) si può ritenere che il campione di media x provenga dall'universo di media m. A1 test di Student si ricorre anche quando si hanno due campioni e si vuole stabilire se essi provengono dallo stesso universo. In questo caso la t di Student vale: t= x1 − x 2 σ12 1 + 1 n1 n 2 dove nl = numerosità del primo campione; n2 = numerosità del secondo campione; x1 = media del primo campione, x 2 = media del secondo campione; σ12 = scarto quadratico medio pesato dei due campioni, ovvero: σ12 = ( n1 − 1 )σ 12 + ( n2 − 1 )σ 22 n1 + n 2 − 2 In questo caso il numero dei gradi di libertà è dato da: g=n1 +n2-2 mentre per il resto si procede come nel caso precedente, cioè se risulta t<t* il test è accettato, altrimenti è rifiutato. 4.6. - Test di Fisher Il test di Fisher viene usato per stabilire se un dato campione proviene da un universo ben definito, solo che a differenza del test di Student, si suppone che campione e universo abbiano media uguale e diverso scarto quadratico medio. Si definisce F di Fisher il rapporto tra gli scarti quadratici medi ottenuto ponendo al numeratore il valore più grande tra i due, per cui F sarà sempre maggiore di uno. F= σ1 σ2 con σl > σ2. Anche in questo caso come nel caso della t di Student, si procede con il calcolo dei gradi di libertà g e con il fissare l (livello di confidenza) o α (livello di significatività) ricavandosi poi mediante una opportuna tabella, il valore della F* teorica; si va poi a verificare se F<F* in corrispondenza del prefissato valore di l o α per poter asserire che tale campione proviene dall'universo considerato. Politecnico di Bari –Riservato alla circolazione interna 63 Prof. Ing. Michele Marra - Appunti delle Lezioni di Calcolo delle Probabilità e Statistica Il test di Fisher è applicabile anche quando abbiamo due campioni diversi di numerosità n1 e n2 aventi stessa media e scarti quadratici medi diversi e si vuole stabilire se essi provengono dallo stesso universo. Sussiste ancora la relazione: F= σ1 >1 σ2 però in questo caso i gradi di libertà da calcolare sono due (uno per ogni campione) g1 = n1-1 g2 = n2-1 Fissato il livello di confidenza l, ovvero il livello di significatività α, occorre conoscere il valore F* teorico ricavabile da opportuna tabella a tre entrate, ovvero in funzione di g1, g2, l (o α), occorre, infine verificare che F < F*. Non esistendo la possibilità di avere tabelle a tre entrate si ricorrerà ad un insieme di tabelle a due entrate costruite ciascuna in corrispondenza di un ben determinato valore di l o di α. Bibliografia M. R. Spiegel, “ Theory and Problems of Statistics”, Shaum Publishing Co., New York, 1961. E. S. Ventsel, “ Teoria delle probabilità”, Ed. MIR, 1983 G. Togliatti, “Elementi di Statistica”, CLUP (Cooperativa Libraria Universitaria del Politecnico), Milano, 1973 4. STATISTICA INFERENZIALE 4.1 - Il controllo di ipotesi ...………………………………………………………..43 4.2 - Tests relativi alla distribuzione binomiale …………………………………..46 4.3 - Test relativi alla distribuzione normale ……………………………………..47 4.3.1. Distribuzione binomiale con n grande ...……..………………………..47 4.3.2. Distribuzioni di medie campionarie di campioni numerosi ...……….. 49 4.4. - Test del χ2 …………………………………………………………………….52 4.4.- Test di Student ..…………………………………………………………..…..61 4.6. - Test di Fisher …………………………………………………………………63 64 Politecnico di Bari –Riservato alla circolazione interna