Piccoli campioni I parametri della distribuzione di una popolazione sono in generale incogniti ⇒ devono essere stimati dal campione dei dati sperimentali ⇒ per piccoli campioni (N < 30) 30 z = (x – µ)/σ non ha più una distribuzione gaussiana ⇒ si introduce un errore non trascurabile che aumenta al diminuire di N. La t di Student Per piccoli campioni si definisce la variabile casuale (x − µ) t= s N detta “t di Student”. Student La distribuzione della t di Student La distribuzione della t di Student, rispetto alla distribuzione normale, presenta una maggiore dipersione intorno alla media e non è unica, unica ma dipende dal numero di gradi di libertà ν (= numero di osservazioni indipendenti del campione N diminuito del numero di parametri stimati dal campione; ν = N – 1). La distribuzione della t di Student Se N è grande la distribuzione t di Student è ben approssimata dalla distribuzione normale. La distribuzione della t di Student I limiti di confidenza per µ sono allora x ± tp s N e quindi µ = x ± tp s N Essendo 2p il livello di confidenza richiesto t di Student - Esempio Sono state eseguite 10 misure della resistenza alla rottura R di un certo tipo di fili di nailon. I risultati ottenuti sono i seguenti: 7.12 N, 7.00 N, 7.56 N, 7.37 N, 7. 24 N, 7.06 N, 7.40 N, 7.31 N, 7.5 N, 7.28 N. Calcolate i limiti di confidenza al 95% ed al 99% per la reale resistenza alla rottura. Quale sarebbe il risultato se si potessero applicare i metodi della teoria dei grandi campioni? t di Student - Esempio 〈R〉 = 7.26 N s = 0.18 N Numero di gradi di libertà ν = 10 – 1 = 9 t0.975 = 2.26; t0.995 = 3.25 I limiti di confidenza sono quindi: 95% 99% 2.26 ∗ 0.18 ⎞ ⎛ ⎜ 7.26 ± ⎟ N=(7.26 ± 0.13)N 10 ⎝ ⎠ 3.25 ∗ 0.18 ⎞ ⎛ ⎜ 7.26 ± ⎟ N=(7.26 ± 0.18)N 10 ⎠ ⎝ t di Student - Esempio Se applicassimo i metodi della teoria dei grandi campioni i limiti di confidenza sarebbero: 95% 1.96 ∗ 0.18 ⎞ ⎛ ⎜ 7.26 ± ⎟ N=(7.26 ± 0.11)N 10 ⎠ ⎝ 99% 2.58 ∗ 0.18 ⎞ ⎛ ⎜ 7.26 ± ⎟ N=(7.26 ± 0.15)N 10 ⎝ ⎠ Ossia sarebbero meno ampi rispetto a quelli ottenuti con i metodi della teoria dei piccoli campioni, come ci si poteva aspettare poiché con piccoli campioni si raggiunge una precisione minore. Test di ipotesi mediante la t di Student Mediante la t di Student è possibile: ¾ stabilire se la misura di una grandezza fisica, determinata tramite un piccolo campione, è compatibile, compatibile ad un certo livello di significatività, con un valore noto a priori; ¾ confrontare due misure differenti della stessa grandezza, ottenute da due piccoli campioni, e stabilire se la diversità è dovuta a fluttuazioni statistiche (campioni appartenenti a popolazioni aventi lo stesso valore atteso) o meno. Test di ipotesi con la t di Student - Esempio Una ditta produttrice di fertilizzanti coltiva due campioni di 10 pianticelle ciascuno adottando due diversi prodotti. Alla fine del trattamento in un campione si misura un’altezza media 〈h1〉 = 20.0 cm e uno scarto quadratico medio s1 = 2.0 cm, nell’altro un’altezza media 〈h2〉 = 22.7 cm e uno scarto quadratico medio s2 = 3.0 cm. Al livello di significatività dell’5% si può affermare che esiste una differenza significativa tra i due campioni? E al livello dell’1% Rispondere alle domande precedenti nell’ipotesi che i campioni siano rispettivamente di - N1 = 5 ed N2 = 7 elementi; - N1 = N2 = 10 elementi - N1 = N2 = 50 elementi. Test di ipotesi con la t di Student - Esempio Ipotesi H0: le differenze non sono significative perché sono dovute a fluttuazioni statistiche ⇔ i campioni appartengono a popolazioni aventi lo stesso valore atteso (µ1 = µ2). Il valore atteso per la differenza delle medie campionarie è quindi 0. Assumiamo che i campioni casuali siano estratti da popolazioni normali con uguale deviazione standard (σ1 = σ2 ). La varianza della differenza tra le medie campionarie può essere stimata mediante l’espressione: σ 2x1 − x 2 ( N1 − 1) ∗ s12 + (N 2 −1) ∗ s 22 ≅ N1 + N 2 − 2 che può essere vista come una media pesata delle stime delle varianze dei due campioni. Test di ipotesi con la t di Student - Esempio Per valutare la consistenza delle medie consideriamo la variabile ( x t= ) − x 2 − (µ1 − µ 2 ) 1 1 σ x1 − x 2 + N1 N 2 1 Che è distribuita come la t di Student con ν = N1 + N2 – 2 gradi di libertà. Test di ipotesi con la t di Student - Esempio Nella 1a ipotesi (N1 = 5; N2 = 7) si ha: σ x − x = 2.88 1 t = ±1.60 (*) 2 (*) i valori di t da considerare sono due in corrispondenza alle due possibili differenze (x 1 − x2 ) (x 2 − x1 ) Numero di gradi di libertà: ν = 5 + 7 – 2 = 10 cui corrisponde: t0.995, 10 = 3.17 t0.975, 10 = 2.23 Test di ipotesi con la t di Student - Esempio Poiché risulta: 1% -3.17 ≤ ±1.6 ≤ 3.17 5% -2.23 ≤ ±1.6 ≤ 2.23 possiamo concludere che ad entrambi i livelli di significatività la differenza tra i valori delle due medie campionarie è dovuta unicamente a fluttuazioni statistiche, quindi l’ipotesi H0 è accettabile a entrambi i livelli. Test di ipotesi con la t di Student - Esempio Nella 2a ipotesi (N1 = N2 = 10) si ha: σ x − x = 2.69 1 t = ±2.25 2 Numero di gradi di libertà: ν = 18 cui corrisponde: t0.995,18 = 2.88 Poiché risulta: t0.975,18 = 2.23 1% -2.88 ≤ ±2.25 ≤ 2.88 5% -2.25 ≤ -2.23; 2.23≤ 2.25 possiamo concludere che l’ipotesi H0 è accettabile al livello di significatività dell’ 1% ma non al livello del 5%. Test di ipotesi con la t di Student - Esempio Nella 3a ipotesi (N1 = N2 = 50) , poiché i campioni sono grandi, si usa la z. Si ha quindi: ( x z= 1 ) − x 2 − (µ1 − µ 2 ) σ 12 N1 + σ 22 = ±5.29 N2 Essendo µ1 = µ2 e σ1; σ2 stimate mediante gli scarti quadratici medi. Test di ipotesi con la t di Student - Esempio Poiché si ha z0.995 = 2.58 z0.975 = 2.24 risulta: 1% -5.29≤ -2.58; 2.58≤ 5.29 5% -5.29 ≤ -2.24; 2.24≤ 5.29 Si conclude che le differenze sono significative ad entrambi i livelli di significatività, quindi dobbiamo rifiutare H0 ad entrambi i livelli. Test di ipotesi con la t di Student - Esempio Conclusioni: N1 = 5 N2 = 7 N1 = 10 N2 = 10 N1 = 50 N2 = 50 t =±1.60 t = ±2.25 z = ±5.29 t 0.975,10 = 2.23 t 0.975,18 = 2.10 z 0.975 = 1.96 t 0.995,10 = 3.17 t 0.995,18 = 2.88 z 0.995 = 2.58 maggiore è l’ampiezza del campione, più significative sono le differenze. La distribuzione chi-quadro Lo scarto quadratico medio di un campione di misure dà una stima della deviazione standard σ della popolazione. Per poter stimare un’intervallo di confidenza per σ occorre conoscere come s2 si distribuisce intorno a σ2. Si definisce allora la variabile casuale chi-quadro N χ = 2 2 ( x − x ) ∑ i i =1 σ 2 = ( N − 1) s 2 σ2 La distribuzione chi-quadro La distribuzione χ2: ¾ è definita nell’intervallo (0;+∞); ¾ è asimmetrica; ¾ non è unica ma dipende dal numero di gradi di libertà ν; ¾ per ν ≥ 30 è ben approssimata da una distribuzione gaussiana La distribuzione chi-quadro La distribuzione chi-quadro Anche per la variabile χ2 = (n − 1) s 2 è possibile σ definire un intervallo di confidenza, individuando, i 2 χ due estremi, min e 2 2 χ max , entro cui cadrà con la probabilità desiderata: χ 2 min ≤ ( N − 1) s σ 2 2 ≤χ 2 max La distribuzione chi-quadro Esplicitando rispetto a σ è possibile stimare quindi, entro certi limiti di confidenza, lo scarto quadratico medio della popolazione σ in termini dello scarto quadratico medio campionario s: s N −1 χ max ≤σ ≤ s N −1 χ min Il test chi-quadro Non sempre la legge di distribuzione di probabilità di una serie di dati sperimentali è nota a priori ⇒ la legge di distribuzione deve essere determinata in base a delle ipotesi. Come si può stabilire in termini di probabilità se la distribuzione ipotizzata è accettabile o meno? Il test chi-quadro Consideriamo un campione di N osservazioni suddiviso in k intervalli. intervalli Definiamo la variabile casuale adimensionale chi-quadro : (oi − ei ) χ =∑ ei i =1 k 2 2 oi = frequenze osservate per l’i-esimo intervallo ei = frequenze attese per l’i-esimo intervallo [ei = NP(xi); P(xi) = probabilità ipotizzata che la variabile acquisti il valore xi incluso nella classe i] Il test chi-quadro Vale la relazione k k ∑ o =∑ e i =1 i i =1 i =N La variabile χ2 così definita misura la discrepanza esistente tra le frequenze osservate e quelle attese. χ2 = 0 ⇒ accordo perfetto tra dati sperimentali e valori attesi χ2 > 0 ⇒ disaccordo tra dati sperimentali e valori attesi tanto maggiore quanto maggiore è il valore di χ2 . Il test chi-quadro Se N → ∞ la distribuzione della variabile (o i − e i ) 2 ∑ ei i =1 k tende asintoticamente variabile alla distribuzione ( N − 1)s 2 σ2 con un numero di gradi di libertà ν dato da: della Il test chi-quadro ν=k–1 se le frequenze attese possono essere calcolate senza dover stimare parametri della popolazione dalle distribuzioni osservate; ν = k – 1 - λ se le frequenze attese possono essere calcolate solo stimando λ parametri della popolazione dalle distribuzioni campionarie. Il test chi-quadro La condizione di asintoticità si considera raggiunta se N ≥ 50 e il numero di eventi per classe è almeno uguale a 5. Il valore atteso di χ2 è uguale al numero di gradi di libertà ν. La funzione di distribuzione f(χ2) consente di calcolare, al variare di ν, la probabilità che, ripetendo le N misure, si ottenga, solo per effetto delle fluttuazioni casuali, un valore di χ2 maggiore o uguale di quello osservato χ02: P ( χ 2 ≥ χ 02 ) = ∞ ∫ χ2 f ( χ 2 ) dχ 2 Il test chi-quadro χ02 Area a destra di χ02 = probabilità P di ottenere, solo per effetto del caso, un valore maggiore o uguale di χ02. Area maggiore ⇒ maggiore probabilità che le frequenze teoriche differiscano da quelle sperimentali per effetto del caso Il test chi-quadro χ02 Fissato un livello di significatività α, il valore osservato indica un disaccordo significativo se P ( χ 2 ≥ χ 02 ) < α E l’ipotesi va rigettata al livello di significatività α. Il chi-quadro ridotto Poiché il valore atteso di χ2 deve essere ν spesso si normalizza a ν il χ2 e si considera il chi-quadro ridotto 2 χ 2 ~ χ = ν che è prossimo a 1 se esiste un buon accordo tra la distribuzione osservata e quella ipotizzata. Livelli di significatività E’ convenzione stabilire due livelli significativi per il valore della probabilità P ( χ ≥ χ ) : 5% oppure 1%. 2 Se P( χ 2 ≥ χ 02 ) < 5% 2 0 il disaccordo con la distribuzione attesa è significativo e si rigetta l’ipotesi al livello di significatività del 5%; 5% Se P( χ 2 ≥ χ 02 ) < 1% il disaccordo con la distribuzione attesa è altamente significativo e si rigetta l’ipotesi al livello di significatività dell’1%. 1% Applicazioni del chi-quadro Test della significatività per verificare se le frequenze osservate per un insieme di possibili eventi differiscono significativamente dalle frequenze attese sulla base di certe ipotesi. Test della significatività - Esempio Lanciando un dado 120 volte si sono osservate per ciascuna faccia le seguenti frequenze. Faccia 1 2 3 4 5 6 Frequenze osservate 25 17 15 23 24 16 Provate l’ipotesi che il dado è buono al livello di significatività del 5%. Se il dado non è truccato le frequenze attese ei per ciascuna faccia sono uguali e sono pari a 20. Applicazioni del chi-quadro - Esempio (o i − e i ) 2 (25 − 20 ) (17 − 20 ) = + + ∑ ei 20 20 i =1 2 k ( 15 − 20 ) + 2 ( 23 − 20 ) + 20 20 2 ( 16 − 20 ) + = 5.00 20 2 2 ( 24 − 20 ) + 2 20 + Poiché il numero di classi (le facce in questo caso) è k = 6 e non ci sono parametri della distribuzione attesa calcolati dai dati sperimentali il numero di gradi di libertà è ν = k – 1 = 5 Applicazioni del chi-quadro - Esempio Dalle tavole del χ2 si ricava: χ 02,95,5 = 11.1 Poiché 5.00 < 11.1 possiamo accettare l’ipotesi che il dado sia buono. Applicazioni del chi-quadro Test sulla verosimiglianza di un modello per verificare la verosimiglianza di un certo modello matematico nel rappresentare i dati relativi ad un certo fenomeno. In questo caso il χ2 è definito come N ( yi − y c i ) 2 i =1 σ i2 χ2 = ∑ yi = valori sperimentali; yc = valori calcolati; σi = deviazione standard i Test χ2 per ricercare la forma di una dipendenza funzionale Se la relazione funzionale non è nota a priori e si dispone di pochi punti sperimentali può accadere che si possano ipotizzare diverse relazioni funzionali. Quale deve ritenersi la più soddisfacente? La quantità N ( yi − y c i ) 2 i =1 σ i2 χ2 = ∑ yci = stima, tramite la relazione funzionale ipotizzata, della variabile yi, avente deviazione standard distribuzione f(χ2) σi , segue la Test χ2 per ricercare la forma di una dipendenza funzionale Possiamo quindi calcolare la probabilità di ottenere un valore di χ2 maggiore o uguale a quello osservato χ02 [P(χ2 ≥ χ02)] solo per effetto delle fluttuazioni casuali e stabilire, ad un certo livello di significatività α, se la relazione funzionale proposta può essere accettata. Test χ2 per ricercare la forma di una dipendenza funzionale Se le relazioni ipotizzabili sono più di una per ciascuna si calcolano i rispettivi χ2 considerando i gradi di libertà ν dati dal numero N di variabili indipendenti diminuito del numero c di parametri calcolati e si decide sulla base del livello di significatività prescelto. Se ambedue soddisfano il livello di significatività prescelto si sceglie quello il cui χ02 presenta la maggior probabilità di essere superato dal valore del χ2 teorico. Test χ2 per ricercare la forma di una dipendenza funzionale Anche in questo caso si può usare il chi-quadro ridotto: χ 2 ~ χ = 2 ν In tal caso, se entrambe le relazioni funzionali soddisfano il livello di significatività prescelto, si ~ 2 minore. sceglie quella con il χ Test χ2 per ricercare la forma di una dipendenza funzionale 5,0 4,0 3,0 2,0 1,0 0,0 0 1 2 3 4 5 6 Test χ2 per ricercare la forma di una dipendenza funzionale 5,0 4,0 3,0 2,0 1,0 0,0 0 1 2 3 4 5 6 Si ha inoltre: χ2 = 5.1 L’equazione della retta è y = 0.98x + 0.54x Poiché due parametri sono calcolati dai dati sperimentali si ha ν = 5 – 2 = 3. Test χ2 per ricercare la forma di una dipendenza funzionale Dalle tavole si ricava che per ν = 3 il χ2 trovato è compreso tra 4.11 [cui corrisponde P(χ2 〈 4.11) = 75%] e 6.25 [cui corrisponde P(χ2 〈 6.25) = 90%] . Interpolando linearmente tra questi due valori si ricava: P(χ2 〈 5.1) = 82% ⇒ P(χ2 ≥ 5.1) = 18% Test χ2 per ricercare la forma di una dipendenza funzionale L’equazione della curva è 5,0 4,0 y = -1.02 + 2.25x –0.286 x2 3,0 2,0 1,0 0,0 0 1 2 3 4 5 6 Si ha inoltre: χ2 = 0.49 Poiché tre parametri sono calcolati dai dati sperimentali si ha ν = 5 – 3 = 2. Test χ2 per ricercare la forma di una dipendenza funzionale Dalle tavole si ricava che per ν = 2 il χ2 trovato è compreso tra 0.211 [cui corrisponde P(χ2 〈 0.211) = 10%] e 0.575 [cui corrisponde P(χ2 〈 0.575) = 25%] . Interpolando linearmente tra questi due valori si ricava: P(χ2 〈 0.49) = 21.5% ⇒ P(χ2 ≥ 5.1) = 78.5% Quindi, poiché 78.5% 〉 18% l’equazione della parabola si accorda meglio ai dati sperimentali. Test χ2 per ricercare la forma di una dipendenza funzionale Alle stesse conclusioni si arriva più rapidamente utilizzando il chi-quadro ridotto: 5,0 5,0 4,0 4,0 3,0 3,0 2,0 2,0 1,0 1,0 0,0 0,0 0 1 2 3 4 2 ~ χ = 1.7 5 6 0 1 2 3 4 2 ~ χ = 0.25 5 6 Correlazione Due grandezze, x e y, sono correlate se a variazioni di una corrispondono variazioni dell’altra; se, invece, al variare di una grandezza l’altra non varia oppure varia in maniera casuale si dice che le grandezze sono incorrelate o indipendenti. indipendenti Non sempre è possibile stabilire una possibile correlazione tra le variabili x ed y poiché i dati sperimentali possono risultare molto dispersi. Mediante il coefficiente di correlazione è possibile quantificare in termini di probabilità il grado di correlazione tra due variabili. Correlazione lineare Un parametro che quantifica il diverso grado di correlazione tra due variabili è il coefficiente di correlazione lineare r definito dalla relazione N r= ∑ ( x − x)( y i =1 i N N i =1 i =1 i − y) 2 2 ( x − x ) ( y − y ) ∑ i ∑ i Correlazione lineare Si verifica che risulta: -1 ≤ r ≤ 1 r = 0 ⇔ non esiste alcuna correlazione tra le variabili r = ±1 ⇔ c’è una perfetta correlazione tra le variabili. Il segno ± è legato al fatto che il coefficiente angolare della retta può assumere valore positivo o negativo. Correlazione lineare Si può calcolare la probabilità che per N coppie di variabili(xi,yi) incorrelate il valore assoluto di r, per il solo effetto del caso, sia maggiore o uguale a quello osservato: P(⎜r⎜ ≥ ⎜r0⎜) Quanto più è piccola tale probabilità tanto più soddisfacente si può ritenere la correlazione. Generalmente si assume: P(⎜r⎜ ≥ ⎜r0⎜) ≤ 5% correlazione significativa P(⎜r⎜ ≥ ⎜r0⎜) ≤ 1% correlazione altamente significativa Metodo dei minimi quadrati Date due grandezze X ed Y, come stimare dai dati sperimentali i parametri di una relazione funzionale y = f(x,A,B,C,…) ipotizzata tra le due grandezze? Se i valori delle grandezze non avessero errore basterebbe un numero di coppie di valori (xi,yi) pari al numero dei parametri da determinare. Metodo dei minimi quadrati Nella pratica questo non è possibile perché, a causa degli errori, ad un certo valore xi corrisponderebbero diversi valori yi, y’i, y”i, … e viceversa. Metodo dei minimi quadrati Ipotesi: Ipotesi - tutte le misure sono tra loro statisticamente indipendenti - una variabile (in genere quella indipendente x) ha errori trascurabili -i valori delle misure di y normalmente attorno al valore vero sono distribuiti Metodo dei minimi quadrati La probabilità di avere l’insieme completo di misure y1, y2, …, yN calcolato in termini dei parametri A, B, C, …è data da: N ∏ i =1 1 1 e 2π σ yi − [ yi − f ( xi , A, B ,C ,...)]2 2σ y2i ove σ y sono le deviazioni standard di ciascuna i grandezza yi. Metodo dei minimi quadrati Questa probabilità è massima quando è minima la quantità: [ yi − f ( xi , A, B, C ,...)] χ =∑ 2 2σ yi i =1 N 2 2 Gli errori sui parametri A, B, C, … si determinano con la legge di propagazione degli errori. Retta dei minimi quadrati Se la relazione funzionale tra le grandezze x, y è di tipo lineare (y = Ax + B) i parametri A e B sono dati da: A= N N N i =1 i =1 i =1 N∑ x i y i − ∑ x i ∑ y i B= ∆ N N N N i =1 i =1 i =1 i =1 2 x ∑ i ∑ y i −∑ x i ∑ x i y i ∆ ⎛ ⎛ ⎞ 2⎞ ∆ = N ⎜ ∑ xi ⎟ − ⎜ ∑ xi ⎟ ⎝ i =1 ⎠ ⎝ i =1 ⎠ N N 2 Retta dei minimi quadrati – Stima a posteriori dell’incertezza su y L’errore σy sulle yi , se non è noto a priori, può essere stimato a partire dai dati stessi, una volta eseguita l’interpolazione lineare, utilizzando la dispersione dei punti attorno alla retta. Si può dimostrare che una stima corretta di tale errore è data dall’espressione: [ y i − Ax i + B]2 σy = ∑ N−2 i =1 N Retta dei minimi quadrati – Stima a posteriori dell’incertezza su y La corretta stima dell’errore si ottiene dividendo per (N – 2) poiché gli scarti sono calcolati rispetto ad un valore stimato che dipende da due parametri (i due coefficienti dell’equazione della retta) che a loro volta sono stimati dai dati sperimentali. I gradi di libertà, quindi, sono diminuiti di due. Nel caso in cui si disponesse solo di due punti sperimentali la retta passerebbe esattamente per essi e l’errore assumerebbe correttamente la forma indeterminata 0/0. Retta dei minimi quadrati passante per l’origine Se la relazione funzionale che collega le due grandezze x, y è del tipo y = Ax si ha: N A= ∑x y i =1 N i 2 x ∑ i i =1 i Retta dei minimi quadrati passante per l’origine Stima a posteriori dell’incertezza su y La stima corretta dell’errore su y è data dall’espressione: [ y i − Ax i ] σy = ∑ N −1 i =1 N 2