POPOLAZIONE E CAMPIONI POPOLAZIONE insieme di tutti quegli elementi che hanno almeno una caratteristica comune (persone, oggetti,misure, osservazioni). Consideriamo il caso di caratteristiche associate a grandezze misurabili. – p. 1/2 POPOLAZIONE E CAMPIONI POPOLAZIONE insieme di tutti quegli elementi che hanno almeno una caratteristica comune (persone, oggetti,misure, osservazioni). Consideriamo il caso di caratteristiche associate a grandezze misurabili. CAMPIONE sottoinsieme finito di elementi estratti a caso dalla popolazione. – p. 1/2 POPOLAZIONE E CAMPIONI POPOLAZIONE insieme di tutti quegli elementi che hanno almeno una caratteristica comune (persone, oggetti,misure, osservazioni). Consideriamo il caso di caratteristiche associate a grandezze misurabili. CAMPIONE sottoinsieme finito di elementi estratti a caso dalla popolazione. VARIABILE CASUALE X : funzione che associa in modo univoco ad ogni elemento del campione un numero reale. – p. 1/2 POPOLAZIONE E CAMPIONI – p. 2/2 VARIABILI CASUALI variabile casuale o aleatoria: grandezza che può assumere nel corso di una prova un valore sconosciuto a priori. Legata al verificarsi di un evento casuale. – p. 3/2 VARIABILI CASUALI variabile casuale o aleatoria: grandezza che può assumere nel corso di una prova un valore sconosciuto a priori. Legata al verificarsi di un evento casuale. Funzione X che associa ad ogni elemento dello spazio dei risultati (popolazione) S = {E1 , E2 , · · · · · ·} uno e un solo numero reale: X(Ei ) = xi – p. 3/2 VARIABILI CASUALI variabile casuale o aleatoria: grandezza che può assumere nel corso di una prova un valore sconosciuto a priori. Legata al verificarsi di un evento casuale. Funzione X che associa ad ogni elemento dello spazio dei risultati (popolazione) S = {E1 , E2 , · · · · · ·} uno e un solo numero reale: X(Ei ) = xi variabile casuale discreta: assume valori entro un insieme finito o numerabile (corrispondenza univoca con i numeri naturali) – p. 3/2 VARIABILI CASUALI variabile casuale o aleatoria: grandezza che può assumere nel corso di una prova un valore sconosciuto a priori. Legata al verificarsi di un evento casuale. Funzione X che associa ad ogni elemento dello spazio dei risultati (popolazione) S = {E1 , E2 , · · · · · ·} uno e un solo numero reale: X(Ei ) = xi variabile casuale discreta: assume valori entro un insieme finito o numerabile (corrispondenza univoca con i numeri naturali) variabile casuale continua: assume valori entro un insieme non numerabile (corrispondenza univoca con i numeri reali). – p. 3/2 VARIABILI CASUALI ↔ MISURE Un insieme finito di operazioni di misura può essere pensato come un campione, cioè un particolare sottoinsieme formato da elementi estratti a caso dall’insieme di tutte le infinite possibili operazioni di misura (popolazione) che potrebbero essere effettuate sulla stessa grandezza fisica, eseguite col medesimo strumento e sfruttando le medesime procedure. – p. 4/2 VARIABILI CASUALI ↔ MISURE Un insieme finito di operazioni di misura può essere pensato come un campione, cioè un particolare sottoinsieme formato da elementi estratti a caso dall’insieme di tutte le infinite possibili operazioni di misura (popolazione) che potrebbero essere effettuate sulla stessa grandezza fisica, eseguite col medesimo strumento e sfruttando le medesime procedure. Il risultato numerico di una misura affetta da errori casuali è una variabile casuale. – p. 4/2 VARIABILI CASUALI DISCRETE Hp: Ogni evento Ei abbia una probabilità pi di verificarsi – p. 5/2 VARIABILI CASUALI DISCRETE Hp: Ogni evento Ei abbia una probabilità pi di verificarsi Gli elementi di S = {E1 , E2 , · · · · · ·} sono incompatibili e P definiscano l’intero spazio dei risultati → i=1 pi = 1 (probabilità totale). – p. 5/2 VARIABILI CASUALI DISCRETE Hp: Ogni evento Ei abbia una probabilità pi di verificarsi Gli elementi di S = {E1 , E2 , · · · · · ·} sono incompatibili e P definiscano l’intero spazio dei risultati → i=1 pi = 1 (probabilità totale). Analogia con il caso di una serie di N misure ripetute. Infatti, i risultati possono essere raggruppati in M classi di frequenza relativa fi = ni /N tali che PM PM e i=1 fi = 1 i=1 ni = N . – p. 5/2 VARIABILI CASUALI DISCRETE Hp: Ogni evento Ei abbia una probabilità pi di verificarsi Gli elementi di S = {E1 , E2 , · · · · · ·} sono incompatibili e P definiscano l’intero spazio dei risultati → i=1 pi = 1 (probabilità totale). Analogia con il caso di una serie di N misure ripetute. Infatti, i risultati possono essere raggruppati in M classi di frequenza relativa fi = ni /N tali che PM PM e i=1 fi = 1 i=1 ni = N . Dal teorema di Bernoulli sappiamo che se N → ∞ allora f → p, per cui ritroviamo la relazione precedente. – p. 5/2 VARIABILI CASUALI DISCRETE Hp: Ogni evento Ei abbia una probabilità pi di verificarsi Gli elementi di S = {E1 , E2 , · · · · · ·} sono incompatibili e P definiscano l’intero spazio dei risultati → i=1 pi = 1 (probabilità totale). Analogia con il caso di una serie di N misure ripetute. Infatti, i risultati possono essere raggruppati in M classi di frequenza relativa fi = ni /N tali che PM PM e i=1 fi = 1 i=1 ni = N . Dal teorema di Bernoulli sappiamo che se N → ∞ allora f → p, per cui ritroviamo la relazione precedente. Un campione di misure ripetute in identiche condizioni della stessa grandezza corrisponde ad eventi incompatibili. Se N è molto grande, vale la condizione di normalizzazione delle frequenze relative. – p. 5/2 DISTRIBUZIONI DI PROBABILITÀ Distribuzione di probabilità P (X) di una variabile casuale X: relazione che stabilisce una corrispondenza univoca tra i valori di tale variabile e la loro probabilità. – p. 6/2 DISTRIBUZIONI DI PROBABILITÀ Distribuzione di probabilità P (X) di una variabile casuale X: relazione che stabilisce una corrispondenza univoca tra i valori di tale variabile e la loro probabilità. – p. 6/2 DISTRIBUZIONI DI PROBABILITÀ Prova o esperimento: lancio di un dado – p. 7/2 DISTRIBUZIONI DI PROBABILITÀ Prova o esperimento: lancio di un dado Variabile casuale: numero uscito X = {1, 2, 3, 4, 5, 6} – p. 7/2 DISTRIBUZIONI DI PROBABILITÀ Prova o esperimento: lancio di un dado Variabile casuale: numero uscito X = {1, 2, 3, 4, 5, 6} Distribuzione di probabilità: P (X) = {1/6, 1/6, 1/6, 1/6, 1/6, 1/6} – p. 7/2 DISTRIBUZIONI DI PROBABILITÀ Prova o esperimento: lancio di 2 dadi – p. 8/2 DISTRIBUZIONI DI PROBABILITÀ Prova o esperimento: lancio di 2 dadi Variabile casuale: somma dei punteggi X = 2, 3, 4, · · · 12 undici elementi → Xi = i + 1; i = 1, 2, 3, ...11 – p. 8/2 DISTRIBUZIONI DI PROBABILITÀ Prova o esperimento: lancio di 2 dadi Variabile casuale: somma dei punteggi X = 2, 3, 4, · · · 12 undici elementi → Xi = i + 1; i = 1, 2, 3, ...11 Il numero di possibili coppie è 62 . Dobbiamo considerare le combinazioni che corrispondono alla stessa somma dei punteggi, e.g. 4 = 1 + 3 = 2 + 2 = 3 + 1, 3 eventi incompatibili (probabilità totale). – p. 8/2 DISTRIBUZIONI DI PROBABILITÀ Prova o esperimento: lancio di 2 dadi Variabile casuale: somma dei punteggi X = 2, 3, 4, · · · 12 undici elementi → Xi = i + 1; i = 1, 2, 3, ...11 Il numero di possibili coppie è 62 . Dobbiamo considerare le combinazioni che corrispondono alla stessa somma dei punteggi, e.g. 4 = 1 + 3 = 2 + 2 = 3 + 1, 3 eventi incompatibili (probabilità totale). Si noti che nel lancio di due dadi, l’uscita di due numeri corrisponde a 2 eventi compatibili indipendenti (probabilità composta). – p. 8/2 DISTRIBUZIONI DI PROBABILITÀ Prova o esperimento: lancio di 2 dadi Variabile casuale: somma dei punteggi X = 2, 3, 4, · · · 12 undici elementi → Xi = i + 1; i = 1, 2, 3, ...11 Il numero di possibili coppie è 62 . Dobbiamo considerare le combinazioni che corrispondono alla stessa somma dei punteggi, e.g. 4 = 1 + 3 = 2 + 2 = 3 + 1, 3 eventi incompatibili (probabilità totale). Si noti che nel lancio di due dadi, l’uscita di due numeri corrisponde a 2 eventi compatibili indipendenti (probabilità composta). Quindi P (4) = P (1, 3) + P (2, 2) + P (3, 1) = 1/6 · 1/6 + 1/6 · 1/6 + 1/6 · 1/6 = 3/36 – p. 8/2 DISTRIBUZIONI DI PROBABILITÀ La distribuzione di probabilità risultante è: – p. 9/2 DISTRIBUZIONI DI PROBABILITÀ – p. 10/2 DISTRIBUZIONI DI PROBABILITÀ – p. 11/2 FUNZIONE DI DISTRIBUZIONE CUMULATIVA La funzione di distribuzione cumulativa associa ad ogni valore x della variabile casuale X la somma delle probabilità che la stessa assuma valori ≤ x. X F (x) = P (X, x) = p(xi ) xi ≤x – p. 12/2 FUNZIONE DI DISTRIBUZIONE CUMULATIVA La funzione di distribuzione cumulativa associa ad ogni valore x della variabile casuale X la somma delle probabilità che la stessa assuma valori ≤ x. X F (x) = P (X, x) = p(xi ) xi ≤x Nel caso del lancio di un dado si avra’ – p. 12/2 FUNZIONE DI DISTRIBUZIONE CUMULATIVA La funzione di distribuzione cumulativa associa ad ogni valore x della variabile casuale X la somma delle probabilità che la stessa assuma valori ≤ x. X F (x) = P (X, x) = p(xi ) xi ≤x Nel caso del lancio di un dado si avra’ Nel caso di variabili discrete è rappresentata da una funzione a gradini, non decrescente, che raggiunge il massimo a 1. – p. 12/2 VALORE DI ASPETTAZIONE Il valore di aspettazione o speranza matematica di una variabile casuale discreta X è E(x) = P i pi xi – p. 13/2 VALORE DI ASPETTAZIONE Il valore di aspettazione o speranza matematica di una variabile casuale discreta X è E(x) = P i pi xi Terminologia inglese: expected value – p. 13/2 VALORE DI ASPETTAZIONE Il valore di aspettazione o speranza matematica di una variabile casuale discreta X è E(x) = P i pi xi Terminologia inglese: expected value Il valore medio della variabile X su un campione finito di dimensione N , suddiviso in M gruppi è PM x̄ = i=1 fi xi Sappiamo che fi → pi per N → +∞ (Th. di Bernoulli). – p. 13/2 VALORE DI ASPETTAZIONE Il valore di aspettazione o speranza matematica di una variabile casuale discreta X è E(x) = P i pi xi Terminologia inglese: expected value Il valore medio della variabile X su un campione finito di dimensione N , suddiviso in M gruppi è PM x̄ = i=1 fi xi Sappiamo che fi → pi per N → +∞ (Th. di Bernoulli). x̄ → E(x) per N → ∞: importante, abbiamo collegato la media aritmetica osservata alla distribuzione teorica!!! – p. 13/2 VALORE DI ASPETTAZIONE Il valore di aspettazione o speranza matematica di una variabile casuale discreta X è E(x) = P i pi xi Terminologia inglese: expected value Il valore medio della variabile X su un campione finito di dimensione N , suddiviso in M gruppi è PM x̄ = i=1 fi xi Sappiamo che fi → pi per N → +∞ (Th. di Bernoulli). x̄ → E(x) per N → ∞: importante, abbiamo collegato la media aritmetica osservata alla distribuzione teorica!!! E(x) può non esistere, la serie non converge; E(x) può non appartenere al dominio di X. – p. 13/2 VALORE DI ASPETTAZIONE (caso discre Lancio del dado (uscita di una faccia) E(x) = 1/6 · 1 + 1/6 · 2...1/6 · 6 = 21 = 3.5 6 – p. 14/2 VALORE DI ASPETTAZIONE (caso discre Lancio del dado (uscita di una faccia) E(x) = 1/6 · 1 + 1/6 · 2...1/6 · 6 = 21 = 3.5 6 Lancio di 2 dadi (somma dei punteggi) E(x) = 1·2+2·3+3·4+4·5+5·6+6·7+5·8+4·9+3·10+2·11+1·12 =7 36 – p. 14/2 INFORMAZIONI Prossime lezioni Giorno Ora Dove 17/02 14:30 P50 19/02 14:30 LABORATORIO (Via Loredan) 24/02 14:30 P50 ? da definirsi 26/02 14:30 Aula informatica (6 gruppi) 03/03 14:30 P50 05/03 14:30 Aula informatica (6 gruppi) – p. 15/2 INFORMAZIONI Prossime lezioni Giorno Ora Dove 17/02 14:30 P50 19/02 14:30 LABORATORIO (Via Loredan) 24/02 14:30 P50 ? da definirsi 26/02 14:30 Aula informatica (6 gruppi) 03/03 14:30 P50 05/03 14:30 Aula informatica (6 gruppi) Decidere la spartizione tra i 2 due turni per l’aula inform. – p. 15/2 VALORE DI ASPETTAZIONE Il valore di aspettazione o speranza matematica di una variabile casuale discreta X è E(x) = P i pi xi – p. 16/2 VALORE DI ASPETTAZIONE Il valore di aspettazione o speranza matematica di una variabile casuale discreta X è E(x) = P i pi xi Terminologia inglese: expected value – p. 16/2 VALORE DI ASPETTAZIONE Il valore di aspettazione o speranza matematica di una variabile casuale discreta X è E(x) = P i pi xi Terminologia inglese: expected value Il valore medio della variabile X su un campione finito di dimensione N , suddiviso in M gruppi è PM x̄ = i=1 fi xi Sappiamo che fi → pi per N → +∞ (Th. di Bernoulli). – p. 16/2 VALORE DI ASPETTAZIONE Il valore di aspettazione o speranza matematica di una variabile casuale discreta X è E(x) = P i pi xi Terminologia inglese: expected value Il valore medio della variabile X su un campione finito di dimensione N , suddiviso in M gruppi è PM x̄ = i=1 fi xi Sappiamo che fi → pi per N → +∞ (Th. di Bernoulli). x̄ → E(x) per N → ∞: importante, abbiamo collegato la media aritmetica osservata alla distribuzione teorica!!! – p. 16/2 VALORE DI ASPETTAZIONE Il valore di aspettazione o speranza matematica di una variabile casuale discreta X è E(x) = P i pi xi Terminologia inglese: expected value Il valore medio della variabile X su un campione finito di dimensione N , suddiviso in M gruppi è PM x̄ = i=1 fi xi Sappiamo che fi → pi per N → +∞ (Th. di Bernoulli). x̄ → E(x) per N → ∞: importante, abbiamo collegato la media aritmetica osservata alla distribuzione teorica!!! E(x) può non esistere, la serie non converge; E(x) può non appartenere al dominio di X. – p. 16/2 VARIANZA DI UNA DISTRIBUZIONE DISCRETA Errore di una variabile casuale: x − E(x) – p. 17/2 VARIANZA DI UNA DISTRIBUZIONE DISCRETA Errore di una variabile casuale: x − E(x) Varianza: definita come il valore di aspettazione della variabile casuale [x − E(x)]2 P 2 2 2 = V ar(x) = σx = E [x − E(x)] p [x − E(x)] i i i – p. 17/2 VARIANZA DI UNA DISTRIBUZIONE DISCRETA Errore di una variabile casuale: x − E(x) Varianza: definita come il valore di aspettazione della variabile casuale [x − E(x)]2 P 2 2 2 = V ar(x) = σx = E [x − E(x)] p [x − E(x)] i i i Si dimostra che: σx2 = E(x2 ) − [E(x)]2 – p. 17/2 VARIANZA DI UNA DISTRIBUZIONE DISCRETA Errore di una variabile casuale: x − E(x) Varianza: definita come il valore di aspettazione della variabile casuale [x − E(x)]2 P 2 2 2 = V ar(x) = σx = E [x − E(x)] p [x − E(x)] i i i Si dimostra che: σx2 = E(x2 ) − [E(x)]2 Deviazione standard o errore quadratico medio σx : radice quadrata della varianza. – p. 17/2 COMBINAZIONI LINEARI: VALORE DI ASPETTAZION Sia f = ax + by + cz · · ·, con a, b, c coefficienti costanti – p. 18/2 COMBINAZIONI LINEARI: VALORE DI ASPETTAZION Sia f = ax + by + cz · · ·, con a, b, c coefficienti costanti Siano E(x), E(y), E(z), · · · i valori di aspettazione – p. 18/2 COMBINAZIONI LINEARI: VALORE DI ASPETTAZION Sia f = ax + by + cz · · ·, con a, b, c coefficienti costanti Siano E(x), E(y), E(z), · · · i valori di aspettazione Si dimostra che: – p. 18/2 COMBINAZIONI LINEARI: VALORE DI ASPETTAZION Sia f = ax + by + cz · · ·, con a, b, c coefficienti costanti Siano E(x), E(y), E(z), · · · i valori di aspettazione Si dimostra che: E(f ) = a E(x) + b E(y) + c E(z) · · · – p. 18/2 COMBINAZIONI LINEARI: VALORE DI ASPETTAZION Sia f = ax + by + cz · · ·, con a, b, c coefficienti costanti Siano E(x), E(y), E(z), · · · i valori di aspettazione Si dimostra che: E(f ) = a E(x) + b E(y) + c E(z) · · · La media aritmetica può essere vista come combinazione lineare delle N misure, con coefficienti tutti uguali a 1/N . – p. 18/2 COMBINAZIONI LINEARI: VALORE DI ASPETTAZION Sia f = ax + by + cz · · ·, con a, b, c coefficienti costanti Siano E(x), E(y), E(z), · · · i valori di aspettazione Si dimostra che: E(f ) = a E(x) + b E(y) + c E(z) · · · La media aritmetica può essere vista come combinazione lineare delle N misure, con coefficienti tutti uguali a 1/N . Applicando il teorema si ottiene E(x̄) = E(x) – p. 18/2 COMBINAZIONI LINEARI: VALORE DI ASPETTAZION Sia f = ax + by + cz · · ·, con a, b, c coefficienti costanti Siano E(x), E(y), E(z), · · · i valori di aspettazione Si dimostra che: E(f ) = a E(x) + b E(y) + c E(z) · · · La media aritmetica può essere vista come combinazione lineare delle N misure, con coefficienti tutti uguali a 1/N . Applicando il teorema si ottiene E(x̄) = E(x) Il valore di aspettazione della popolazione delle medie aritmetiche dei campioni di dimensione finita N coincide con il valore di aspettazione della popolazione stessa. – p. 18/2 COMBINAZIONI LINEARI: VARIANZA Hp: le variabili x,y, z siano statisticamente indipendenti, cioè corrispondenti ad eventi compatibili indipendenti. – p. 19/2 COMBINAZIONI LINEARI: VARIANZA Hp: le variabili x,y, z siano statisticamente indipendenti, cioè corrispondenti ad eventi compatibili indipendenti. Si dimostra che: σf 2 = a2 σx 2 + b2 σy 2 + c2 σz 2 + · · · – p. 19/2 COMBINAZIONI LINEARI: VARIANZA Hp: le variabili x,y, z siano statisticamente indipendenti, cioè corrispondenti ad eventi compatibili indipendenti. Si dimostra che: σf 2 = a2 σx 2 + b2 σy 2 + c2 σz 2 + · · · Una combinazione lineare, a coefficienti costanti, di due variabili casuali statisticamente indipendenti ha varianza uguale alla combinazione lineare delle rispettive varianze, con coefficienti pari ai quadrati dei coefficienti rispettivi. – p. 19/2 COMBINAZIONI LINEARI: VARIANZA Hp: le variabili x,y, z siano statisticamente indipendenti, cioè corrispondenti ad eventi compatibili indipendenti. Si dimostra che: σf 2 = a2 σx 2 + b2 σy 2 + c2 σz 2 + · · · Una combinazione lineare, a coefficienti costanti, di due variabili casuali statisticamente indipendenti ha varianza uguale alla combinazione lineare delle rispettive varianze, con coefficienti pari ai quadrati dei coefficienti rispettivi. Ritrovere questo risultato nell’ambito della propagazione degli errori nelle misure effettuate con metodi indiretti. – p. 19/2 COMBINAZIONI LINEARI: VARIANZA Hp: le variabili x,y, z siano statisticamente indipendenti, cioè corrispondenti ad eventi compatibili indipendenti. Si dimostra che: σf 2 = a2 σx 2 + b2 σy 2 + c2 σz 2 + · · · Una combinazione lineare, a coefficienti costanti, di due variabili casuali statisticamente indipendenti ha varianza uguale alla combinazione lineare delle rispettive varianze, con coefficienti pari ai quadrati dei coefficienti rispettivi. Ritrovere questo risultato nell’ambito della propagazione degli errori nelle misure effettuate con metodi indiretti. Due variabili casuali che differiscano per una quantità costante hanno la stessa varianza. t = x + cost. → σt2 = σx2 (→...gli errori sistematici non alterano la precisione dei dati...) – p. 19/2 L’ERRORE QUADRATICO MEDIO DELLA MEDIA 1 N PN Variabile casuale: media aritmetica x̄ = i=1 xi : combinazione lineare delle N misure con coefficienti uguali a 1/N – p. 20/2 L’ERRORE QUADRATICO MEDIO DELLA MEDIA 1 N PN Variabile casuale: media aritmetica x̄ = i=1 xi : combinazione lineare delle N misure con coefficienti uguali a 1/N Varianza σx̄ 2 N X 1 1 2 σxi = 2 · N σx 2 = 2 N i=1 N σx̄ 2 σx 2 = N – p. 20/2 L’ERRORE QUADRATICO MEDIO DELLA MEDIA 1 N PN Variabile casuale: media aritmetica x̄ = i=1 xi : combinazione lineare delle N misure con coefficienti uguali a 1/N Varianza σx̄ 2 N X 1 1 2 σxi = 2 · N σx 2 = 2 N i=1 N σx̄ 2 σx 2 = N IMPLICAZIONI: L’errore quadratico medio della media di un campione – p. 20/2 L’ERRORE QUADRATICO MEDIO DELLA MEDIA 1 N PN Variabile casuale: media aritmetica x̄ = i=1 xi : combinazione lineare delle N misure con coefficienti uguali a 1/N Varianza σx̄ 2 N X 1 1 2 σxi = 2 · N σx 2 = 2 N i=1 N σx̄ 2 σx 2 = N IMPLICAZIONI: L’errore quadratico medio della media di un campione è minore dell’analogo errore delle singole misure. – p. 20/2 L’ERRORE QUADRATICO MEDIO DELLA MEDIA 1 N PN Variabile casuale: media aritmetica x̄ = i=1 xi : combinazione lineare delle N misure con coefficienti uguali a 1/N Varianza σx̄ 2 N X 1 1 2 σxi = 2 · N σx 2 = 2 N i=1 N σx̄ 2 σx 2 = N IMPLICAZIONI: L’errore quadratico medio della media di un campione è minore dell’analogo errore delle singole misure. tende a zero al crescere del numero di misure effettuato. – p. 20/2 DISTRIBUZIONE UNIFORME DISCRETA La funzione di distribuzione di probabilità assume lo stesso valore per tutti i valori della variabile casuale: p(x) = p per ogni x = 1, · · · n – p. 21/2 DISTRIBUZIONE UNIFORME DISCRETA La funzione di distribuzione di probabilità assume lo stesso valore per tutti i valori della variabile casuale: p(x) = p per ogni x = 1, · · · n Dalla condizione di normalizzazione: → pi = 1/n – p. 21/2 DISTRIBUZIONE UNIFORME DISCRETA La funzione di distribuzione di probabilità assume lo stesso valore per tutti i valori della variabile casuale: p(x) = p per ogni x = 1, · · · n Dalla condizione di normalizzazione: → pi = 1/n Valore si aspettazione n 1 n(n + 1) n+1 1X i= = E(x) = 1·1/n+2·1/n · · · n·1/n = 1/n = n i=1 n 2 2 (Si è usata la relazione n X i=1 i= n(n + 1) dalla teoria delle progressioni aritmetiche ) 2 – p. 21/2 DISTRIBUZIONE UNIFORME DISCRETA La funzione di distribuzione di probabilità assume lo stesso valore per tutti i valori della variabile casuale: p(x) = p per ogni x = 1, · · · n Dalla condizione di normalizzazione: → pi = 1/n Valore si aspettazione n 1 n(n + 1) n+1 1X i= = E(x) = 1·1/n+2·1/n · · · n·1/n = 1/n = n i=1 n 2 2 (Si è usata la relazione n X i=1 i= n(n + 1) dalla teoria delle progressioni aritmetiche ) 2 Varianza: Pn 2 Pn 2 (n + 1)(2n + 1) (n + 1)2 i=1 i i=1 i 2 σ = − − = = n n 6 4 n + 1 2n + 1 n + 1 n + 1 4n + 2 − 3n − 3 n2 − 1 − = · = 2 3 2 2 6 12 P ) (Si è usata la relazione ni=1 i2 = n(n+1)(2n+1) 6 – p. 21/2 DISTRIBUZIONE UNIFORME DISCRETA La funzione di distribuzione di probabilità assume lo stesso valore per tutti i valori della variabile casuale: p(x) = p per ogni x = 1, · · · n Dalla condizione di normalizzazione: → pi = 1/n Valore si aspettazione n 1 n(n + 1) n+1 1X i= = E(x) = 1·1/n+2·1/n · · · n·1/n = 1/n = n i=1 n 2 2 (Si è usata la relazione n X i=1 i= n(n + 1) dalla teoria delle progressioni aritmetiche ) 2 Varianza: Pn 2 Pn 2 (n + 1)(2n + 1) (n + 1)2 i=1 i i=1 i 2 σ = − − = = n n 6 4 n + 1 2n + 1 n + 1 n + 1 4n + 2 − 3n − 3 n2 − 1 − = · = 2 3 2 2 6 12 P ) (Si è usata la relazione ni=1 i2 = n(n+1)(2n+1) 6 Il valore di aspettazione e la varianza del punteggio associato al 36−1 2 lancio di un dado sono : E(x) = 6+1 2 = 3.5 e σ = 12 ∼ 2.92 – p. 21/2 ESERCIZI Data una serie di n misure {mi }, come cambiano media aritmetica e scarto quadratico medio se ogni misura è moltiplicata per 2: yi = 2 · xi ? è incrementata di 2: yi = 2 + xi ? – p. 22/2 ESERCIZI Considera la seguente distribuzione di frequenza. Qual è la frequenza mancante nella posizione occupata dall’asterisco? Classi Freq. ass. Freq. cumulata in % fino a 584 1 4.00% 584 − |1774.4 * 64.00% 1774.4 − |2964.8 4 80.00% 2964.8 − |4155.2 3 92.00% 4155.2 − |5345.6 1 92.00% più di 5345.6 1 100.00% A)25 B)15 C)16 D)3 – p. 23/2 ESERCIZI Data la seguente distribuzione di probabilità: x 0 1 2 3 4 5 6 P (x) 0.17 0.19 0.23 0.16 0.14 0.14 0.07 Quale delle seguenti affermazioni è vera? A)P (X > 3) = 0.51 C)P (2 ≤ X ≤ 5) = 0.33 B)P (X ≤ 3) = 0.65 D)P (X < 6) = 1 – p. 24/2