Statistica Sociale e Criminale (12 CFU) A.A. 2015/2016 CdL Sociologia e Criminologia Simone Di Zio Dove siamo… MODULO 3. L’Inferenza statistica 3.1 Probabilità e variabili casuali 3.2 Le tecniche di campionamento 3.3 Inferenza da “Esperimento statistico” 3.4 Inferenza da “Popolazioni finite” Raggruppamenti che si possono formare associando due o più elementi di un insieme o di insiemi diversi. Disposizioni semplici: gli elementi di A sono presenti soltanto una volta in ogni raggruppamento. Disposizioni con ripetizione: in uno o più raggruppamenti gli elementi di A sono presenti più di una volta. Facce di un dado π¨ = {1,2,3,4,5,6} I numeri di due cifre che si possono formare lanciando due volte il dado e affiancando i due risultati sono: 11 21 31 41 51 61 12 22 32 42 52 62 13 23 33 43 53 63 14 24 34 44 54 64 15 25 35 45 55 65 16 26 36 46 56 66 Disposizioni con ripetizione Disposizioni con ripetizione di π = 6 elementi di classe π = 2. Si hanno 36 coppie, cioè ππ . Le disposizioni con ripetizione di π elementi di classe π sono dati da ππ . Se togliamo tutti i raggruppamenti con elementi ripetuti (11, 22, ...), che si trovano sulla diagonale principale, si ottengono le disposizioni semplici di classe π = π. Il numero delle disposizioni semplici di π elementi di classe π è dato da: 11 21 31 41 51 61 12 22 32 42 52 62 13 23 33 43 53 63 14 24 34 44 54 64 15 25 35 45 55 65 Disposizioni semplici 12 21 31 41 51 61 32 42 52 62 13 14 23 24 34 43 53 54 63 64 15 25 35 45 65 π·π,π = π(π − 1)(π − 2)(π − 3) … (π − (π − 1)) Nell’esempio π = 6 e (π − (π − 1)) = 5 per cui 16 26 36 46 56 66 π«π,π = π β π = ππ 16 26 36 46 56 Le permutazioni ππ si hanno quando dato un insieme A di π elementi i raggruppamenti sono costituiti da π elementi che differiscono fra loro solamente per l’ordine. ππ = π! Permutazioni di tre elementi (a), (b) e (c): π3 = 3! = 3 β 2 β 1 = 6. {π, π, π } {π, π, π} {π, π, π } {π, π, π} {π, π, π} {π, π, π} Combinazioni di π elementi di classe π (πΆπ,π ) i raggruppamenti di π elementi tali che ogni raggruppamento differisca dagli altri per la natura degli elementi. Combinazioni Per le combinazioni non interessa l’ordine, per cui il gruppo {2,1} equivale al gruppo {1,2}. 21 31 41 51 61 In numero queste coppie sono 15 Le combinazioni si ottengono da: πΆπ,π Nell’esempio: πΆ6,2 = 32 42 52 62 43 53 63 π·π,π π(π − 1)(π − 2) … (π − (π − 1)) = = ππ π! π·6,2 π6 = π(π−1)(π−2)…(π−(π−1)) π! = 30 2 = 15 54 64 65 Misurare una lunghezza Metro Misurare il peso Misurare la temperatura Misurare il verificarsi di un evento Bilancia Termometro Probabilità Misura del grado di incertezza che riguarda il verificarsi di un evento. I concetti base della teoria della probabilità sono: ο· la prova; ο· l’evento (indicato con πΈ); ο· la probabilità (indicata con π). “In una data prova π, l’evento πΈ si verifica con probabilità π(πΈ )”. nel lancio di un dado, la faccia 3 si presenta con probabilità 1⁄6”. PROVA EVENTO E=3 PROBABILITA’ π(πΈ ) = 1⁄6 Quindi la prova (detta anche esperimento aleatorio), non è altro che un esperimento con due o più possibili risultati e in cui c’è un grado di incertezza sull’esito. ππ – è il possibile esito di una prova πΈ – può essere scomposto in due o più eventi elementari. Evento elementare Evento non elementare Prova: “lancio di un dado” Eventi elementari sono le facce del dado {π1 = 1, π2 = 2, π3 = 3, π4 = 4, π5 = 5, π6 = 6}. Evento non elementare: “esce un numero dispari” si verifica ogni volta che si ha {1} o {3} o {5}. πΈ = {π1 = 1, π2 = 3, π3 = 5} Struttura matematica con operazioni e regole per operare con gli eventi. Le tre operazioni fondamentali dell’algebra di Boole: Μ . L’evento π΄Μ (detto anche evento 1. Negazione di un evento π΄, indicata con π¨ complementare) si verifica quando non si verifica π΄. Ad esempio se nel lancio di un dado l’evento π΄ è “faccia 1 o faccia 2”, allora l’evento complementare π΄Μ si verifica con le facce 3, 4, 5 o 6. 2. Intersezione di due eventi π΄ e π΅, che si indica con π¨ ∩ π©. Dati gli eventi π΄ e π΅, l’evento π΄ ∩ π΅ si verifica quando si verificano entrambi gli eventi. 3. Unione fra due eventi π΄ e π΅, che si indica con π¨ ∪ π©. Dati gli eventi π΄ e π΅, l’evento π΄ ∪ π΅ si verifica quando almeno uno dei due si verifica. Cioè deve verificarsi o l’evento π΄, o l’evento π΅, o entrambi. Dato un mazzo di carte napoletane, definiamo i seguenti eventi: A. Estrazione di una carta di denari; B. Estrazione di un asso; π΄Μ sono le trenta carte di coppe, bastoni e spade. π΅Μ contiene 36 carte, tutte quelle che non sono un asso. π΄ ∩ π΅ è rappresentata dall’asso di denari (1π). π΄ ∪ π΅ è rappresentato da tutte le carte contenute nei due ovali. Si verifica quando “esce una carta di denari” o “un asso”, quindi nell’evento unione vi sono 13 carte, cioè 13 eventi elementari. L’insieme di tutti i possibili eventi elementari (ππ ) di un esperimento. In genere si indica con Ω. Lancio di due monete. π = Testa πΆ = Croce Lo spazio campionario è dato da: Ω = {(ππ), (ππΆ ), (πΆπ), (πΆπΆ )}. ο· Evento impossibile: un evento che non potrà mai verificarsi, come la faccia 7 su un dado a sei facce. La probabilità di un evento impossibile è pari a 0; ο· Evento certo: evento che si verifica sempre, perché include tutti i risultati possibili dell’esperimento. La probabilità di un evento certo è pari a 1. La probabilità è una funzione che associa ad ogni evento πΈ un numero reale fra 0 e 1, numero che si indica con π(πΈ ). ο· Postulato 1: π(π΄) ≥ 0. La probabilità è sempre un numero maggiore o uguale a zero. È pari a zero solo nel caso particolare in cui π΄ sia un evento impossibile; ο· Postulato 2: π(Ω) = 1. La probabilità che si verifichi uno qualunque degli eventi dello spazio campionario è pari a uno (evento certo); ο· Postulato 3: Se π΄ ∩ π΅ = ∅ allora π(π΄ ∪ π΅) = π(π΄) + π(π΅). Nel caso in cui due eventi siano incompatibili, la probabilità dell’unione è data dalla somma delle probabilità dei due eventi (principio delle probabilità totali). Delle probabilità totali per eventi compatibili π΄∩π΅ In una prova, dati due eventi π΄ e π΅ si ha che: A π (π΄ ∪ π΅ ) = π (π΄ ) + π (π΅ ) − π (π΄ ∩ π΅ ) π΅ Se invece gli eventi sono incompatibili (π΄ ∩ π΅ = ∅) allora si ha π (π΄ ∪ π΅ ) = π (π΄ ) + π (π΅ ) A π΅ . Vale nel caso in cui gli eventi elementari sono tutti noti e sono in numero finito. (es. giochi di azzardo) Definizione: la probabilità è data dal rapporto fra il numero di casi favorevoli all’evento e il numero di casi possibili, a condizione che questi ultimi siano tutti egualmente possibili. ππΉ π (πΈ ) = ππ ππ = 2 ππΉ 1 π(πππ π‘π) = = ππ 2 ππ = 6 Se volessimo calcolare la probabilità di π΄ =“esce un numero pari” dobbiamo contare il numero di eventi elementari favorevoli ad π΄ Si tratta delle tre facce contrassegnate dai numeri 2, 4 e 6. Quindi ππΉ = 3. Ne deriva che ππΉ 3 1 π (π΄ ) = = = ππ 6 2 ππΉ Probabilità di un evento (π΄) sapendo che si è già verificato un altro evento (π΅) a cui π΄ è legato. Definiamo due eventi: A: esce la faccia 3; B: esce un numero dispari. Le probabilità di questi due eventi sono ππΉ 1 π(π΄) = ππ = 6 ππΉ 3 1 π(π΅) = ππ = 6 = 2 : sapendo che si è verificato π΅ (è uscita una faccia dispari) qual è la probabilità di π΄ alla luce di questa informazione? Questa probabilità si chiama probabilità condizionata, e si indica con il simbolo π(π΄|π΅) Se π΅ si è verificato, le facce possibili sono 1, 3 e 5. ο ππ = 3 A questo punto la probabilità di π΄ si è modificata, perché ora ππΉ = 1 per cui: ππΉ 1 π(π΄|π΅) = = ππ 3 Avere informazioni sul fatto che π΅ sia verificato significa che esso diventa il nuovo spazio campionario. I casi favorevoli ad π΄ sono solo quelli inclusi in π΅, ossia (π΄ ∩ π΅). Pertanto si definisce probabilità condizionata: π (π΄ ∩ π΅ ) π(π΄|π΅) = π (π΅ ) L’evento che si scrive dopo la linea verticale | è l’evento condizionante. Da questa formula: π (π΄ ∩ π΅ ) π(π΄|π΅) = π (π΅ ) si ricava la formula base del principio delle probabilità composte: π(π΄ ∩ π΅) = π(π΅) β π(π΄|π΅) Si dice che due eventi π¨ e π© sono stocasticamente indipendenti se il verificarsi di uno di essi non influenza la probabilità del verificarsi dell’altro. Se la probabilità di π΄ non dipende dal verificarsi di π΅, i due eventi sono indipendenti e possiamo scrivere: π(π΄|π΅) = π(π΄) Se due eventi sono stocasticamente indipendenti valgono entrambe le seguenti: π(π΄|π΅) = π(π΄) π(π΅|π΄) = π(π΅) Sapendo che: π (π΄ ∩ π΅ ) π(π΄|π΅) = π (π΅ ) Ne deriva che la probabilità dell’intersezione è pari a: π·(π¨ ∩ π©) = π·(π¨) β π·(π©) QUINDI: due eventi A e B si dicono stocasticamente indipendenti se e solo se: π(π΄ ∩ π΅) = π(π΄) β π(π΅) Mazzo di 40 carte napoletane. Si estrae una sola carta e si definiscono due eventi: ο· Evento A: “esce un asso”; ο· Evento B: “esce una carta di bastoni”. Dati: 4 1 ο· π(π΄) = 40 = 10 10 ο· π(π΅) = 40 probabilità di estrarre un asso probabilità di estrarre una carta di bastoni 1 ο· π(π΄ ∩ π΅) = 40 probabilità di estrarre l’asso di bastoni Vogliamo la probabilità condizionata π(π΄|π΅) cioè la probabilità di avere un asso sapendo che è uscita una carta di bastoni. Applichiamo la formula della probabilità condizionata: 1 π(π΄ ∩ π΅) 40 1 π(π΄|π΅) = = = 10 ( ) π π΅ 10 40 Questa equivale alla π(π΄) quindi i due eventi π΄ e π΅ sono stocasticamente indipendenti. Popolazione: 10% degli individui è affetta da diabete. Il test ematico: - falsi negativi, il 10% delle volte (test negativo - soggetto malato) - falsi positivi, il 20% delle volte (test positivo - soggetto sano) La domanda è: se un individuo risulta positivo al test qual è la probabilità che sia effettivamente diabetico? Gli eventi in gioco sono: ο· π΄1 : l’individuo è diabetico; ο· π΄0 : l’individuo è sano; ο· π΅1 : il test è risultato positivo; ο· π΅0 : il test è risultato negativo; La domanda può essere formalizzata con le probabilità condizionate: π(π΄1 |π΅1 ) In generale date un numero π di cause π΄π (per π = 1,2, … , π) e dato un evento π΅ che può essere generato da una di quelle cause, la probabilità π(π΄π |π΅) è detta probabilità a posteriori : dato un insieme esclusivo ed esaustivo di eventi π΄1 , π΄2 , … , π΄π ed un evento π΅ si ha: π(π΄π ) β π(π΅|π΄π ) π(π΄π |π΅) = π(π΄1 ) β π(π΅|π΄1 ) + π(π΄2 ) β π(π΅|π΄2 ) + β― + π(π΄π ) β π(π΅|π΄π ) Gli elementi importanti di questa formula sono: ο· Le probabilità π(π΄π ): probabilità a priori ο· Le probabilità π·(π©|π¨π ): probabilità condizionate, o verosimiglianze ο· Le probabilità π(π΄π |π΅), che sono le probabilità a posteriori. Si tratta delle probabilità degli eventi π΄π (le cause) sapendo che si è verificato l’evento π΅ (l’effetto). ο· ο· ο· ο· π΄1 : l’individuo è diabetico; π΄0 : l’individuo è sano; π΅1 : il test è risultato positivo; π΅0 : il test è risultato negativo; Verosimiglianza π(π΅1 |π΄1 ) - probabilità che il test sia positivo sapendo che l’individuo è malato Probabilità a posteriori π(π΄1 |π΅1 ) - probabilità che un individuo sia malato sapendo che il test è risultato positivo. Concetti molto diversi che non vanno confusi. Quando ci sono più cause (π΄1 , π΄2 , … , π΄π ) che possono determinare un evento π΅, il teorema di Bayes fornisce una formula per calcolare la probabilità a posteriori, cioè la probabilità che una determinata causa (π΄π ) fra le π possibili abbia agito sapendo che l’evento π΅ si è verificato. Nel nostro , il fatto che il test sia positivo (l’effetto osservato π΅1 ) può dipendere sia dalla causa che l’individuo è effettivamente malato (evento π΄1 ) e sia dal fatto che si è verificato un falso positivo (evento π΄0 ), cioè l’individuo è sano. π(π΄1 |π΅1 ) π΅1 Individuo Malato 0,10 π΄1 Falso Positivo 0,20 π΄0 Supponiamo di avere i seguenti dati: ο· ο· ο· ο· ο· π(π΄1 )=0.1 prob. di avere un individuo diabetico; π(π΄0 ) = 0.9 prob. di avere un individuo sano; π(π΅1 |π΄0 ) = 0.2 prob. di un falso positivo; π(π΅0 |π΄1 ) = 0.1 prob. di un falso negativo; π(π΅1 |π΄1 ) = 0.9 prob. di avere test positivo sapendo che il soggetto è diabetico. La nostra domanda è: π(π΄1 |π΅1 ) =? Prob. che un individuo positivo al test sia effettivamente diabetico? ο· ο· ο· ο· ο· π(π΄1 )=0.1 prob. di avere un individuo diabetico; π(π΄0 ) = 0.9 prob. di avere un individuo sano; π(π΅1 |π΄0 ) = 0.2 prob. di un falso positivo; π(π΅0 |π΄1 ) = 0.1 prob. di un falso negativo; π(π΅1 |π΄1 ) = 0.9 prob. di avere test positivo sapendo che il soggetto è diabetico. Applicando il teorema di Bayes abbiamo: π(π΄1 ) β π(π΅1 |π΄1 ) 0.1 β 0.9 π(π΄1 |π΅1 ) = = = 0.33 π(π΄1 ) β π(π΅1 |π΄1 ) + π(π΄0 ) β π(π΅1 |π΄0 ) 0.1 β 0.9 + 0.9 β 0.2 Definizione classica: la probabilità è data dal rapporto fra il numero di casi favorevoli all’evento e il numero di casi possibili, a condizione che questi ultimi siano tutti egualmente possibili. Definizione frequentista: la probabilità di un evento è il limite cui tende la frequenza relativa dell'evento al crescere del numero degli esperimenti. Per conoscere la probabilità di un evento dobbiamo ricorrere all’esperienza, nel senso che su un numero elevato di prove si riscontra una certa regolarità. Formalmente si ha: ππ΄ π(π΄) = lim π→∞ π Prob. di morte di una data popolazione; prob. di incidenti automobilistici; prob. di incidenti sul lavoro. ππ΄ è il numero di volte che, su n prove, l’evento π΄ si è verificato. L’approccio classico e quello frequentista rientrano nel campo della probabilità oggettiva, per distinguerla da un altro approccio, noto come impostazione soggettiva. La probabilità π(πΈ ) di un evento πΈ è la misura del grado di fiducia che un individuo coerente attribuisce al verificarsi dell’evento πΈ. Quindi le probabilità di uno stesso evento possono anche essere diverse se fornite da soggetti diversi. Ricapitolando: Abbiamo parlato di prove ed eventi Abbiamo indicato con il ππ l’evento elementare L’insieme di tutti i possibili eventi di una prova si chiama spazio campionario (Ω) πeπΆ “1d”, “2d” π΄, π΅, πΆ. E’ giunto il momento di indicare gli eventi con dei numeri reali. Da questa riflessione nasce l’importante concetto di variabile casuale Una variabile casuale π è una funzione definita sullo spazio campionario Ω che associa ad ogni suo elemento ππ un numero reale. Si tratta di associare un numero reale ad ogni evento elementare di una prova. I valori della variabile casuale saranno pertanto indicati con π1 , π2 , … ππ . Lancio di una moneta. Possiamo assegnare 1 all’evento π1 = π e 2 all’evento π2 = πΆ (Figura 1.3). Prova: Lancio di due dadi Evento: S = somma dei punteggi delle due facce X = numeri da 2 a 12 (in altre parole, i valori che S può assumere sono 11) Eventi di π 1-1 1-2 1-3 1-4 1-5 1-6 2-6 3-6 4-6 5-6 6-6 2-1 2-2 2-3 2-4 2-5 3-5 4-5 5-5 6-5 3-1 3-2 3-3 3-4 4-4 5-4 6-4 4-1 4-2 4-3 5-3 6-3 5-1 5-2 6-2 6-1 Valori di X π1 = 2 π2 = 3 π3 = 4 π4 = 5 π5 = 6 π6 = 7 π7 = 8 π8 = 9 π9 = 10 π10 = 11 π11 = 12 Quindi è il modo in cui definiamo la variabile casuale che determina gli eventi elementari e, di conseguenza, lo spazio campionario. Variabile Casuale DISCRETA CONTINUA Può assumere un insieme discreto (finito o numerabile) di numeri reali. Gli esempi delle carte, dei dadi e delle monete sono tutti esempi di variabili casuali discrete. Vi ricorda qualcosa? πΏ ππ ππ … ππ … ππ .. .. .. .. .. .. .. .. Può può assumere tutti gli infiniti valori compresi in un intervallo di numeri reali. Per indicare una variabile casuale si adopera una lettera maiuscola, es. π. Per indicare un suo valore, ovvero una sua determinazione, si usa la corrispondente lettera minuscola. Così π₯π è il generico (i-esimo) valore della variabile casuale π. Il passaggio ulteriore è associare le probabilità ai valori della variabile causale. Lancio di una moneta πΏ π π ππ 0,5 0,5 1,0 Vi ricorda qualcosa? Prova: Evento: πΏ 2 3 4 5 6 7 8 9 10 11 12 Totale Lancio di due dadi S = somma dei punteggi delle due facce π·( π ) 1⁄36 2⁄36 3⁄36 4⁄36 5⁄36 6⁄36 5⁄36 4⁄36 3⁄36 2⁄36 1⁄36 1 Questa è una Distribuzione di probabilità 1 π(π = 2) = π(1,1) = 36 1 1 2 π(π = 3) = π[(1,2) ∪ (2,1)] = + = 36 36 36 1-1 1-2 1-3 1-4 1-5 1-6 2-6 3-6 4-6 5-6 6-6 2-1 2-2 2-3 2-4 2-5 3-5 4-5 5-5 6-5 3-1 3-2 3-3 3-4 4-4 5-4 6-4 4-1 4-2 4-3 5-3 6-3 5-1 5-2 6-2 6-1 π1 = 2 π2 = 3 π3 = 4 π4 = 5 π5 = 6 π6 = 7 π7 = 8 π8 = 9 π9 = 10 π10 = 11 π11 = 12 Ricorda: secondo il principio delle probabilità totali la probabilità dell’evento unione di due eventi elementari è pari alla somma delle probabilità dei due eventi elementari: π(π΄ ∪ π΅) = π(π΄) + π(π΅). π π₯1 π₯2 … π₯π … π₯π Totale π(π₯π ) π(π₯1 ) π(π₯2 ) … π(π₯π ) … π(π₯π ) 1 Così come la distribuzione di frequenza associa una frequenza ad ogni valore di una variabile statistica, la distribuzione di probabilità associa una probabilità ad ogni valore di una variabile casuale. Per una distribuzione di probabilità è utile sapere la probabilità che la variabile casuale assuma un valore minore o uguale a un certo π₯π . A tal fine si calcolano le probabilità cumulate, che indichiamo con π(π ≤ π₯π ). Data una variabile casuale discreta π, la funzione che associa ai valori π₯ le probabilità cumulate π(π ≤ π₯ ) si chiama funzione di ripartizione: πΉ (π₯ ) = π (π ≤ π₯ ) = ∑ π (π = π ) π ≤π₯ Funzione di ripartizione nel caso del lancio di due dadi πΏ 2 3 4 5 6 7 8 9 10 11 12 π(π) 1⁄36 3⁄36 6⁄36 10⁄36 15⁄36 21⁄36 26⁄36 30⁄36 33⁄36 35⁄36 1 Grafico della Funzione di probabilità della v.c. X “somma dei punteggi di due dadi” Grafico della Funzione di Ripartizione della v.c. X “somma dei punteggi di due dadi” 1.20 0.18 0.16 1.00 0.14 0.80 0.10 F(X) P(X) 0.12 0.08 0.60 0.40 0.06 0.04 0.20 0.02 0.00 0.00 2 3 4 5 6 7 X 8 9 10 11 12 2 3 4 5 6 7 X 8 9 10 11 12 La variabile casuale continua può assumere tutti gli infiniti valori compresi in un intervallo di numeri reali. Non è possibile, e non avrebbe senso, associare una probabilità ad ognuno degli infiniti valori della v.c. Quindi, si associa una probabilità a degli intervalli di valori che la v.c. può assumere. A tal fine si introduce in concetto di funzione di densità, che è l’analogo della la funzione di probabilità per le variabili casuali discrete. Si chiama funzione di densità della variabile casuale continua π la funzione matematica π(π₯) per cui, dato un certo intervallo di valori di π, l’area sottostante alla funzione è uguale alla probabilità che π assuma un valore all’interno di quell’intervallo. Se gli estremi dell’intervallo dei valori di π li indichiamo con le lettere minuscole π e π, la funzione di densità soddisfa la seguente relazione: π π(π ≤ π ≤ π) = ∫ π (π₯ )ππ₯ π Definiamo una v.c. con valori nell’intervallo [0; 20] e probabilità definite dalla seguente funzione di densità: 0 πππ π₯ ∉ [0; 20] π (π₯ ) = { 0.05 πππ π₯ ∈ [0; 20] Verifichiamo che sia effettivamente una funzione di densità Di fatti si tratta di una funzione di densità perché l’area sottesa alla curva è pari a 1, ed è facile verificarlo. È un rettangolo con base 20 e altezza 0.05, quindi l’area è proprio 20 β 0.05 = 1. Grafico della Funzione di Densità costante Ora, se volessimo conoscere la probabilità che questa v.c. assume nell’intervallo [10; 15], basta calcolare la corrispondente area che risulta essere 5 β 0.05 = 0.25. 0.06 0.05 f(X) 0.04 0.03 0.25 0.02 0.01 0 0 10 15 X In termini formali abbiamo: 15 ∫ π (π₯ )ππ₯ = 0.25 10 20 Data una variabile casuale continua π, la funzione che associa ai valori π₯ le probabilità cumulate π(π ≤ π₯ ) si chiama funzione di ripartizione e si indica con: π₯ πΉ (π₯ ) = π(π ≤ π₯ ) = ∫ π(π‘)ππ‘ −∞ Segue la proprietà che l’area totale sottesa alla curva, cioè per valori che vanno da meno infinito a più infinito (−∞; +∞), è sempre pari a 1: +∞ ∫ −∞ π (π₯ )ππ₯ = 1 Come per le distribuzioni di frequenza, esistono indici di sintesi e variabilità per le distribuzioni di probabilità. Una descrizione sintetica di una distribuzione di probabilità può essere fatta sostanzialmente tramite il valore atteso e la varianza. Il valore atteso di una variabile casuale è il valore medio che essa può assumere in un numero elevato di prove. Si indica con π¬(πΏ) ed è definito in maniera diversa a seconda se si ha una v.c. discreta o continua. Per una variabile casuale discreta πΈ (π) = ∑π π₯π π(π₯π ) Per una variabile casuale continua πΈ (π) = ∫−∞ π₯π(π₯ )ππ₯ +∞ Valore atteso della variabile casuale π “somma dei punteggi di due dadi” πΏ 2 3 4 5 6 7 8 9 10 11 12 π·(π) 1⁄36 2⁄36 3⁄36 4⁄36 5⁄36 6⁄36 5⁄36 4⁄36 3⁄36 2⁄36 1⁄36 π₯π π(π₯π ) 2 β 1⁄36 3 β 2⁄36 4 β 3⁄36 5 β 4⁄36 6 β 5⁄36 7 β 6⁄36 8 β 5⁄36 9 β 4⁄36 10 β 3⁄36 11 β 2⁄36 12 β 1⁄36 0.028 0.056 0.083 0.111 0.139 0.167 0.139 0.111 0.083 0.056 0.028 7.000 πΈ (π) = ∑ π₯π π(π₯π ) π πΈ (π) = 7. La variabilità di una v.c. viene misurata tramite la varianza e si indica con il simbolo πππ(π). Per una variabile casuale discreta πππ(π) = ∑π[π₯π − πΈ (π)]2 π(π₯π ) Per una variabile casuale continua πππ(π) = ∫−∞ [π₯ − πΈ (π)]2 π(π₯ )ππ₯ +∞ ο Per le distribuzioni di frequenza si ha una somma di quadrati degli scarti fra il valore della variabile e la sua media aritmetica, tutto ponderato con le frequenze. ο Per le distribuzioni di probabilità abbiamo una somma di quadrati degli scarti fra il valore della variabile e il suo valore atteso, tutto ponderato con le probabilità. La radice quadrata della varianza si chiama scostamento quadratico medio o deviazione standard: π·π(π) = √πππ(π). Vi sono alcune variabili casuali che nella pratica sono molto utilizzate. Per esse sono note diverse caratteristiche e proprietà, fra cui il valore atteso e la varianza. Si distinguono in due grosse categorie: La variabile casuale Uniforme discreta può assumere valori interi in un dato intervallo, e ogni valore presenta la stessa probabilità. Se π è il numero dei possibili valori la funzione di probabilità è data da: 1 π (π ) = π 0.12 0.10 0.08 P(X) estrazione di una carta da un mazzo di dieci carte numerate da 1 a 10. π = 10. da cui π(π) = 1⁄10, 0.06 0.04 0.02 0.00 1 2 3 4 5 6 X 7 8 9 10 Lo schema in cui si inserisce la variabile casuale di Bernoulli è quello di una prova il cui esito è dicotomico, ovvero con sole due possibilità, del tipo sì/no, vero/falso eccetera. Si assegna valore 1 se l’evento si è verificato (sì, vero, superato ecc.) e 0 altrimenti (no, falso, non superato ecc.). La v.c. di Bernoulli assume valore 1 con probabilità π e valore 0 con probabilità 1 − π e ha la seguente funzione di probabilità π(π) = π π₯ (1 − π)1−π₯ Il valore atteso è: πΈ (π ) = π La varianza è: πππ(π) = π(1 − π) Si parte da π variabili casuali di Bernoulli, indipendenti e aventi stessa distribuzione (cioè stesso parametro π). Se ne fa la somma. Otteniamo una variabile casuale Binomiale. Lancio π volte una moneta, 1 evento Testa 0 evento Croce. Ogni singolo lancio rientra nello schema Bernoulliano, con probabilità π = 1⁄2. Indichiamo la sequenza delle π prove con π1 , π2 , π3 , … , ππ , π1 è il risultato della 1° prova (che può essere 0 o 1) π2 è il risultato della 2°prova (sempre con possibili valori, 0 o 1) … ππ è il risultato della n° prova (sempre con possibili valori, 0 o 1) Ora definiamo una nuova variabile casuale come somma delle precedenti: π = π1 + π2 + β― + ππ . Essa può assumere valori da 0 a n. Se lancio tre volte una moneta, il valore cha abbiamo indicato come successo (Testa) può presentarsi 0 volte (0T e 4C) 1 volta (1T e 3C) 2 volte (2T e 3C) 3 volte (3T e 1C) 4 volte (4T e 0C) La variabile casuale π esprime il numero di successi in π prove indipendenti. La funzione di probabilità che deriva da questo schema si chiama funzione di probabilità Binomiale, i cui parametri caratteristici sono π e π. La variabile casuale Binomiale - che si indica con π~π΅ππππππππ(π; π) – rappresenta il numero di successi che si hanno in π prove di tipo Bernoulliano indipendenti e con parametro costante π. La funzione di probabilità Binomiale è data da: π π₯ ( ) π π = ( ) π (1 − π)1−π₯ π₯ Per π₯ = 0,1,2 … , π e 0 ≤ π ≤ 1. Il valore atteso è dato da: πΈ (π) = ππ La varianza è data da: πππ(π) = ππ(1 − π) Situazione: numero di eventi che si possono verificare in un dato intervallo di tempo. (automobili che transitano a un casello autostradale in un giorno, numero di terremoti che si verificano in una regione in un anno, numero di incidenti stradali lungo un’autostrada in un mese.) Una variabile casuale di Poisson - che si indica con π~ππππ π ππ(π) - assume qualunque valore intero π₯ ≥ 0. La funzione di probabilità della Poisson è data da: ππ₯ −π π (π ) = π π₯! La v.c. assume valori del tipo π₯ = 0,1,2, … L’unico parametro che caratterizza questa distribuzione è lambda (π). Il valore atteso è dato da: πΈ (π ) = π La varianza è data da: πππ(π) = π La v.c. Uniforme è una variabile casuale che segue la stessa logica della v.c. uniforme discreta, ma in questo caso i parametri che definiscono la funzione di densità sono gli estremi dell’intervallo. Un variabile casuale Uniforme continua π, indicata con π~π(π, π) assume valori reali in un intervallo limitato [π; π]. La funzione di densità è la seguente: 1 π (π₯ ) = {π − π 0 Il valore atteso è dato da: La varianza è data da: πΈ (π ) = πππ π ≤ π₯ ≤ π πππ‘πππ£π π+π 2 πππ(π) = (π−π)2 12 La distribuzione Normale è la più nota e utilizzata nell’inferenza statistica Una variabile casuale Normale π, indicata con π~π(π, π 2 ), è una variabile casuale continua che assume valori su tutto l’asse reale, cioè da −∞ a +∞. La sua funzione di densità è la seguente: π (π₯ ) = 1 π√2π 1 π₯−π 2 − ( ) π 2 π I due parametri che la caratterizzano, π e π 2 , possono assumere valori −∞ < π < +∞ e π 2 > 0. Il valore atteso è dato da: πΈ (π ) = π La varianza è data da: πππ(π) = π 2 Il valore della media π determina, graficamente, la posizione orizzontale della curva. Il parametro π 2 determina la dispersione della distribuzione e graficamente rappresenta il grado di appiattimento della curva. 0.18 0.2 0.16 0.14 0.15 0.12 0.1 0.1 0.08 0.06 0.05 0.04 0.02 0 0 1 5 9 13 17 21 25 29 33 37 Curve con stessa varianza e diverse medie 41 45 49 1 5 9 13 17 21 25 29 33 37 Curve con stessa media e diverse varianze 41 45 49 Un caso particolare si ha quando la media è π = 0 e la varianza π 2 = 1. Questa variabile casuale si chiama variabile casuale Normale Standardizzata, e si indica con π~π(0,1). La sua funzione di densità risulta pertanto essere la seguente: π (π§ ) = 1 √2π π§2 π− 2 0.45 0.4 0.35 0.3 P 0.25 0.2 0.15 0.1 0.05 0 -3.5 -3.0 -2.5 -2.0 -1.5 -1.0 -0.5 0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 Z