ELEMENTI DI CALCOLO COMBINATORIO CALCOLO DELLE PROBABILITA' VARIABILI CASUALI TEORIA DEI GIOCHI SABO ELEMENTI DI CALCOLO COMBINATORIO Dato un insieme di n elementi a1, a2, a3, ..., an è possibile da questo ottenere dei sottoinsiemi, tutti tra loro diversi, in base alla scelta e all'ordinamento con cui vengono presi gli n elementi. Il calcolo combinatorio studia i diversi modi con cui è possibile costruire dei sottoinsiemi partendo da un insieme di n elementi, prendendo ogni volta un certo numero di essi. Una prima grossa distinzione che si può fare per questi gruppi è tra: gruppi semplici (sottoinsiemi senza ripetizione) formati da elementi che si presentano non più di una volta; gruppi con ripetizione (sottoinsiemi con ripetizione) formati da elementi che possono presentarsi più di una volta. Approfondendo poi lo studio si può notare che ogni gruppo può essere diversificato dagli altri o per come sono posizionati gli elementi al suo interno o per la scelta degli elementi stessi o per entrambe le cose. Si fa distinzione, in tal caso, tra: Disposizioni (semplici e composte); Permutazioni (semplici e composte); Combinazioni (semplici e composte). Prima, però, di passare alle varie definizioni è opportuno tener presente la seguente regola base: Siano A1, A2, A3, ..., An degli insiemi di elementi, il numero dei gruppi di elementi che si possono formare in modo che il primo elemento del gruppo appartenga ad A 1, il secondo ad A2, ..., l'n-mo ad An è dato dal prodotto del numero di elementi presenti in ciascuno degli insiemi. Esempio: si hanno 4 palline rosse, 5 azzurre, 2 bianche, 6 verdi; il numero di gruppi che si possono formare con tali elementi è dato dal prodotto delle palline rosse per le azzurre per le bianche per le verdi: 4 5 2 6 = 240 cioé, volendo utilizzare tutte le palline a disposizione, si possono formare 240 gruppi differenti. 1 DISPOSIZIONI SEMPLICI Dati n elementi distinti, si dicono disposizioni semplici, di classe k, degli n elementi (k < n) tutti i gruppi che si possono formare con gli n elementi prendendone k di essi, in modo che ogni gruppo differisca dagli altri per almeno uno degli elementi oppure per l'ordine con cui essi sono contenuti: Dn,k = n(n-1)(n-2)....[n-(k-1)] Esempio: si consideri un insieme formato da 4 colori: bianco, giallo, rosso, verde; si vuole sapere quanti gruppi di tre colori tra loro diversi è possibile formare (n = 4; k = 3): come primo colore è possibile sceglierne uno qualunque, per cui si hanno 4 possibilità di scelta; una volta fissato il primo colore, per la scelta del secondo ci sono tre possibilità; la terza scelta, infine è solo tra due possibilità, essendo rimasti solo due colori Scelta 1° colore 4 possibilità Scelta 2° colore 3 possibilità Scelta 3° colore 2 possibilità In definitiva è come se si scegliesse il primo colore da un insieme di 4 elementi, il secondo da un insieme di 3 elementi, il terzo da un insieme di due elementi. Per la regola base il numero D4,3 = 4 3 2 = 24 delle disposizioni è, quindi, dato da: DISPOSIZIONI CON RIPETIZIONE Dati n elementi distinti, si dicono disposizioni con ripetizione, di classe k, tutti i gruppi che si possono formare con gli n elementi (in ciascuno dei quali uno stesso elemento può presentarsi fino a k volte), in modo che ogni gruppo differisca dagli altri o per un elemento o per l'ordine o per la ripetizione (in questo caso si può avere anche k > n) D'n,k = nk Esempio: si consideri un insieme formato da 4 colori: bianco, giallo, rosso, verde; si vuole sapere quanti gruppi di tre colori è possibile formare (n = 4; k = 3): per risolvere il problema si consideri che ogni elemento scelto per formare un gruppo una volta preso sia poi rimesso nell'insieme, ciò porta al seguente schema: Scelta 1° colore 4 possibilità Scelta 2° colore 4 possibilità Scelta 3° colore 4 possibilità e, quindi, risulta: D'4,3 = 4 4 4 = 43 = 64 2 PERMUTAZIONI SEMPLICI Dati n elementi, si dicono permutazioni semplici degli n elementi tutti i gruppi che si possono formare prendendo ogni volta tutti gli elementi (in questo caso è n = k) Dn,n = n(n-1)(n-2)...[n-(n -1)] Pn = n(n-1)(n-2)...321 solitamente si scrive: Pn = n! [n! = n fattoriale]; per il calcolo di n! valgono le seguenti posizioni: n! = n(n-1)! ; 1! = 1 ; 0! = 1 Esempio: si consideri un insieme formato da 4 colori: bianco, giallo, rosso, verde si vuole sapere quanti gruppi distinti di 4 colori ognuno è possibile formare: dallo schema risulta Scelta 1° colore 4 possibilità Scelta 2° colore 3 possibilità Scelta 3° colore 2 possibilità Scelta 4° colore 1 possibilità e quindi: 4! = 4321 = 24 PERMUTAZIONI CON RIPETIZIONE Si hanno quando tra gli n elementi ce ne sono m ugali (m n); in questo caso, non potendo distinguere la posizione che gli m elementi occupano all'interno dei vari gruppi, si avrebbero delle permutazioni uguali tra loro contro l'asserto che vuole gruppi distinti. Per eliminare tale inconveniente, bisogna dividere il numero totale delle permutazioni per il numero delle permutazione degli m elementi uguali: P (m) n n! m! Più in generale, se tra gli n elementi ce ne sono identici tra loro, identici tra loro, identici tra loro e così via, risulta: n! P (, , , . . . ) ! ! ! . . . . . n 3 COMBINAZIONI SEMPLICI Dati n elementi distinti (n 2), si dicono combinazioni semplici, di classe k (k < n), tutti igruppi che si possono formare con gli n elementi prendendone k di essi, in modo che ogni gruppo differisca dagli altri per almeno un elemento (i gruppi devono essere formati da elementi tutti diversi tra loro) C n,k D n,k k! n (n 1) (n 2). . . n (k 1) k! molto più usata per le combinazioni è la formula: n! n C n,k k k! (n k)! (Legge dei tre fattoriali) n dove il termine k che si legge "n su k" è detto coefficiente binomiale; da tener presente che si pone per convenzione: n 1 n ; n n 1 ; n 0 1 Altre due particolarità o leggi di cui gode il coefficiente binomiale sono: la Legge delle classi complementari: la Legge di Stiefel: n n k n-k n n -1 n -1 k k n-k COMBINAZIONI CON RIPETIZIONE Dati n elementi distinti, si dicono combinazioni con ripetizione di classe k (in questo caso può essere anche k > n), tutti i gruppi che si possono formare con gli n elementi (in ciascuno dei quali uno stesso elemento può essere ripetuto fino a k volte), in modo che ogni gruppo differisca dagli altri per almeno un elemento o per le ripetizioni con cui un elemento si presenta: C' n,k n (n 1) (n 2). . . n (k 1) k! 4 SVILUPPO DELLA POTENZA DI UN BINOMIO Si sa che lo sviluppo di un binomio di grado n è un polinomio ordinato secondo le potenze decrescenti del primo termine e crescenti del secondo termine; orbene, il coefficiente binomiale permette di calcolare la parte numerica dei monomi costituenti il polinomio secondo la formula di Newton: a b n n n n n a n 1 a n1 b 2 a n2 b 2 .. . k a nk b k . . . n 1 a n1 b n b n 5 CALCOLO DELLE PROBABILITÀ Evento: fatto che può risultare vero o falso; può assumere le seguenti modalità: evento certo: fatto che deve verificarsi necessariamente; evento impossibile: fatto che non ha possibilità di verificarsi; evento incerto: fatto per il quale non è possibile dire a priori se si verifica o meno. Probabilità: misura il grado di possibilità del verificarsi di un evento. In pratica la probabilità si prefigge di tradurre in termini numerici il fatto che si realizzi, ed in quale misura, un evento incerto. Ciò porta ad associare ad un evento E un numero p(E) compreso tra il valore 0 (misura dell'evento impossibile) ed il valore 1 (misura dell'evento certo). TEORIA CLASSICA DELLA PROBABILITÀ Probabilità: rapporto tra il numero dei casi favorevoli, m, al verificarsi dell'evento ed il numero dei casi equipossibili, n (casi che hanno tutti la stessa possibilità di verificarsi). p(E) = m n m=0 p(E) = 0 evento impossibile m=n p(E) = 1 evento certo 0mn 0 p(E) 1 evento probabile Probabilità dell'evento contrario: m = numero di casi favorevoli n - m = numero di casi contrari n = numero di casi equipossibili _ n - m m p( E ) = q(E) = = 1 = 1 - p(E) n n Teorema fondamentale della Probabilità: p(E) + q(E) = 1 6 TEORIA FREQUENTISTICA DELLA PROBABILITÀ Frequenza Relativa: rapporto tra il numero di volte, r, che si verifica un evento ed il numero di prove indipendenti, n, eseguite tutte nelle stesse condizioni r f = n La frequenza può assimilarsi alla probabilità in base alla: Legge Empirica del Caso in un gran numero di prove, tutte uguali ed eseguite nelle stesse condizioni, ciascuno degli eventi possibili si manifesta con una frequenza relativa che è approssimativamente uguale alla sua probabilità e l'approssimazione è tanto maggiore quanto più grande è il numero delle prove effettuate. lim n Probabilità: = r n = p(E) valore limite a cui si avvicina sempre più la frequenza via via che il numero delle prove eseguite diventa sempre più grande. TEORIA SOGGETTIVA DELLA PROBABILITÀ Probabilità: misura del grado di fiducia che un individuo coerente attribuisce, secondo le sue informazioni ed opinioni, al verificarsi di un evento. coerenza: stima del grado di fiducia effettuata nell'intervallo (0,1). una definizione più operativa è: Probabilità: rapporto tra il prezzo, s, che un individuo reputa equo pagare per poter ricevere il compenso, S, nel caso che si verifichi un certo evento p(E) = s S 7 GIOCO DEL LOTTO Da un'urna contenente n numeri (n = 1, ..., n) se ne estraggono m; calcolare la probabilità che tra gli m numeri estratti se ne ottengano k prefissati. casi equipossibili: sono dati dalla combinazione di n elementi presi a gruppi di m C n,m = n m = n! m! n - m! casi favorevoli: si ottengono eliminando dall'urna i k numeri prefissati e considerando le combinazioni che si ottengono da (n-k) elementi presi a gruppi di (m-k) C (n-k),(m-k) = n-k m-k = (n - k)! (m - k)! n - k m k ! = n - k ! m k ! n k ! in pratica per i casi favorevoli si suppone che i k numeri prefissati siano elementi fissi che entrano comunque in combinazione con gli altri elementi. Probabilità: rapporto tra casi favorevoli e casi equiprobabili: n-k m-k p= n m = m! n - k ! n! m - k ! Esempio: calcolare la probabilità che esca un terno sulla ruota di Napoli n = 90; m = 5; k = 3 p= 5! 90 - 3! 90! 5 - 3! = 0,00008512 8 TEOREMI SULLA PROBABILITÀ Evento Unione: dati due eventi, A e B, l'evento unione C è vero se è vero almeno uno dei due eventi, è falso se sono falsi entrambi gli eventi C=AB C=AB Evento Intersezione: dati due eventi, A e B, l'evento intersezione C è vero se sono veri i due eventi; è falso se è falso almeno uno dei due eventi: C=AB n. b. tali concetti sono estendibili anche al caso in cui gli eventi sono più di due. Eventi Incompatibili: eventi tali che il verificarsi dell'uno esclude in modo assoluto il verificarsi dell'altro. Eventi Compatibili: eventi tali che il verificarsi dell'uno non esclude il verificarsi dell'altro; possono essere dipendenti o indipendenti. Eventi Indipendenti: eventi compatibili tali che il verificarsi dell'uno non influenza il verificarsi dell'altro. Eventi Dipendenti: eventi compatibili tali che il verificarsi dell'uno influenza il verificarsi dell'altro. 9 TEOREMA DELLA PROBABILITÀ TOTALE Caso di Eventi Incompatibili dati due eventi A e B, la probabilità dell'evento unione A B è pari alla somma delle probabilità dei singoli eventi: p(A B) = p(A) + p(B) il teorema è estendibile anche al caso di più eventi; in particolare, se gli eventi sono a due a due incompatibili ed uno di essi deve necessariamente verificarsi, l'evento unione è l'evento certo: p(E1E2...En) = p(Ei) = 1 (vedi in proposito il teorema fondamentale p + q = 1). Caso di Eventi Compatibili dati due eventi A e B, la probabilità dell'evento unione A B è pari alla somma delle probabilità dei singoli eventi diminuita della probabilità dell'evento intersezione A B: p(A B) = p(A) + p(B) - p(A B) n. b. questo caso contiene come caso particolare quello precedente; se, infatti, gli eventi sono tra loro incompatibili risulta A B = 0 e, quindi, p(A B) = 0 anche in questo caso il teorema è estendibile a più eventi; così, ad esempio, nel caso di tre eventi A, B, C si ha: p(ABC) = p(A) + p(B) + p(C) - p(AB) - p(BC) + - p(ABC) n. b. in pratica la probabilità dell'evento unione si riconosce dal fatto che nel problema è citata la congiunzione "o" (calcolare la probabilità che accada questo o che accada quello). 10 Esempio: un'urna contiene 100 palline numerate da 1 a 100; calcolare la probabilità che estraendo una pallina si scelga un numero: a) divisibile per 10 o 13; b) divisibile per 10 o 8. caso a) evento A: numeri divisibili per 10 = 10 AB = 0 evento B: numeri divisibili per 13 = 7 p(A) + p(B) = 10 100 + 7 100 = 17 100 caso b) evento A: numeri divisibili per 10 = 10 evento B: numeri divisibili per 8 = 12 p(A) + p(B) - p(A B) = 10 100 + AB 0 (almeno due numeri in comune) 12 100 - 2 100 = 1 5 11 TEOREMA DELLA PROBABILITÀ COMPOSTA Caso di Eventi Indipendenti dati due eventi A e B, la probabilità dell'evento intersezione, AB, è pari al prodotto delle probabilità dei singoli eventi: p(AB) = p(A) * p(B) il teorema resta valido anche se gli eventi sono più di due: p(E1E2...En) = P(E1) *p(E2) *...*p(En) = p(Ei) Caso di Eventi Dipendenti dati due eventi A e B tali che B sia condizionato da A (probabilità di B subordinata al verificarsi di A), la probabilità dell'evento intersezione, A B, è pari al prodotto della probabilità di A per la probabilità condizionata di B: p(AB) = p(A) * p(B/A) da questa regola deriva, poi, che: p(B / A) = p A B p(A) cioé la probabilità dell'evento condizionato può essere vista come il rapporto tra i casi favorevoli all'evento intersezione ed i casi favorevoli all'evento condizionante. Il teorema continua ad essere valido anche se gli eventi sono più di due: p(E1E2...En) = P(E1) *p(E2/E1) *p(E3/ E1E2)*...*p(En/ E1E2...En-1) = p(Ei) essendo l'ultimo fattore, p(En / E1E2...En-1), la probabilità che si attribuisce all'evento En quando risultano veri tutti gli n-1 eventi che lo precedono. n. b. in pratica la probabilità dell'evento intersezione si riconosce dal fatto che nel problema è citata la congiunzione "e" (calcolare la probabilità che si verifichi questo evento e quell'evento). Esempio: da un'urna contenente 17 palline bianche, 8 rosse, 5 verdi, si estraggono successivamente 2 palline. Calcolare la probabilità che entrambe le palline estratte siano bianche nell'ipotesi che: a) dopo la prima estrazione, la pallina estratta viene rimessa nell'urna; b) dopo la prima estrazione, la pallina estratta non viene rimessa nell'urna. 12 caso a) evento A: prima pallina bianca = 17 A B = due palline bianche (n = 17 + 8 +5 = 30) 17 17 289 p = p(A) p(B) = = = 0,3211 30 30 900 evento B: seconda pallina bianca = 17 caso b) evento A: prima pallina bianca = 17 A B = due palline bianche (nA = 17 + 8 +5 = 30) (nB = 16 + 8 +5 = 29) 17 16 272 p = p(A) p(B / A) = = = 0,3126 30 29 870 evento B: seconda pallina bianca = 16 13 TEOREMA DI BAYES calcola la probabilità di un evento E che può essere originato da diverse cause H i (i = 1,n) tra loro incompatibili e delle quali sono note le probabilità (Hi). In pratica risolve il problema: supposto che si sia verificato l'evento E, qual'è la probabilità che esso sia stato originato dalla causa H i. p(H i ) p(E / H i ) p(H i / E) = n p(H i ) p(E / H i ) i1 p(Hi /E): probabilità che la causa Hi abbia generato l'evento E; p(Hi): probabilità che agisca la causa Hi; p(E/Hi): probabilità che l'evento E si verifichi in dipendenza della causa H i; p(Hi) * p(E/Hi): probabilità che agisca la causa H i e che, subordinatamente a tale fatto, si verifichi l'evento E. n. b. si tenga presente che, essendo le cause tra loro incompatibili, deve risultare: n p(H i /E) = 1 i 1 Esempio: tre urne, esternamente identiche, hanno la seguente composizione: urna di tipo A, contenente 4 palline rosse e 6 palline gialle; urna di tipo B, contenente 7 palline rosse e 3 palline gialle; urna di tipo C, contenente 5 palline rosse e 5 palline gialle; Calcolare la probabilità che, estraendo una pallina rossa, essa provenga dall'urna di tipo A. p(A) = probabilità che sia rossa da A = 4/10 p(B) = probabilità che sia rossa da B = 7/10 p(C) = probabilità che sia rossa da C = 5/10 p(E/A) = probabilità che l’evento si generato da A = 1/3 p(E/B) = probabilità che l’evento si generato da B = 1/3 p(E/C) = probabilità che l’evento si generato da C = 1/3 1 p(A / E) = 4 3 10 1 4 1 7 1 5 3 10 3 10 3 10 = 4 16 = 0,25 14 VARIABILI CASUALI Considerando il lancio di due dadi, il risultato che si ottiene sommando le due facce è certamente una variabile; per di più i valori che essa assume dipendono dal caso ed ognuno di essi può presentarsi con una certa probabilità, inoltre il verificarsi di un valore esclude automaticamente il verificarsi di un altro valore (eventi incompatibili). 1° DADO 2° DADO Somma Numero Probabilità Facce Volte di Verifica 1 2 3 4 5 6 2 1 1/36 1 2 3 4 5 6 7 3 2 2/36 2 3 4 5 6 7 8 4 3 3/36 3 4 5 6 7 8 9 5 4 4/36 totale degli eventi nel lancio 4 5 6 7 8 9 10 6 5 5/36 di due dadi: 5 6 7 8 9 10 11 7 6 6/36 eventi equiprobabili 6 7 8 9 10 11 12 8 5 5/36 9 4 4/36 10 3 3/36 11 2 2/36 12 1 1/36 62 spazio degli eventi p numero di volte eventi equiprobabili Si può allora dire che la somma delle facce di due dadi è una variabile casuale. Variabile Casuale: variabile che può assumere un certo valore all’interno di un insieme di valori tra loro incompatibili ed aventi ognuno una certa probabilità di verificarsi V v 1, v 2 , v 3 ,..., v n p1, p 2 , p 3 ,..., pn , (pi = 1) ; p(V = vi) = pi ; 0 p(V = vi) 1 Generalizzando il problema, se esiste una funzione F(x) rappresentata da: F(X = xi) = pi (i=1,2,3,...,n) avente per dominio l’ insieme degli xi e per codominio l’ insieme delle probabilità p i, tale funzione rappresenta la distribuzione di probabilità della variabile casuale x. 15 Come tutte le funzioni, anch’essa è suscettibile di una rappresentazione grafica; costruendo, infatti, un piano cartesiano sulle cui ascisse sono posti i valori assunti dalla variabile casuale e sulle cui ordinate sono poste le relative probabilità si ha la curva di distribuzione di probabilità. grafico relativo ad una distribuzione discreta di probabilità perché V può assumere solo valori interi. grafico di una distribuzione continua di probabilità, perché V può assumere tutti i valori in R+ Naturalmente in base ai valori assunti dalla variabile casuale si può avere una curva definita a tratti (distribuzione di probabilità discreta) oppure una curva continua (distribuzione di probabilità continua). Le variabili casuali, dette anche variabili aleatorie o variabili stocastiche, rappresentano una parte fondamentale del calcolo delle probabilità e sono molti i problemi di natura probabilistica il cui studio conduce alla considerazione di variabili casuali. FUNZIONE DI RIPARTIZIONE Si consideri ora il seguente problema: calcolare la probabilità che, nel lancio di due dadi, la somma delle facce risulti minore di 5. X 2 3 4 5 6 7 8 9 10 11 12 1/36, 2/36, 3/36, 4/36, 5/36, 6/36, 5/36, 4/36, 3/36, 2/36, 1/36 p X 5 p X 2 p X 3 p X 4 1 2 3 6 1 36 36 36 36 6 il calcolo è stato effettuato utilizzando il teorema della probabilità totale (applicato ad eventi incompatibili). In pratica, si sono cumulate (sommate) le probabilità dei singoli valori, disposti in ordine crescente, che può assumere la variabile casuale; ciò porta al concetto di funzione di ripartizione o funzione cumulativa di probabilità: Funzione di Ripartizione: funzione F(x) che esprime la probabilità che una variabile casuale X assuma un valore non superiore ad x F(x) = p(X x) = ps (s=1,2,...,i) 16 risulta: x < x1 F(x) = 0 x xn F(x) = 1 0 F(x) 1 funzione continua [x , Graficamente la funzione ripartizione viene rappresentata nel piano cartesiano ponendo sulle ascisse i valori xi e sulle ordinate i valori di F(x) ottenuti sommando progressivamente le relative p i; se la funzione è continua risulta: F(x) = P(X a) = F(a) Stante la difficoltà di analizzare la distribuzione di probabilità di una variabile casuale è p ( X x ) = F(x) f(a) opportuno analizzarla attraverso parametri che evidenzino in modo sintetico le sue a caratteristiche; indicando con: centro: zona di massima probabilità di una variabile casuale (valore più probabile che essa può assumere); dispersione: grado con cui le probabilità si dispongono intorno al centro; è possibile definire la distribuzione di probabilità di una variabile casuale attraverso due parametri: valore medio: (valore atteso o speranza matematica) previsione teorica del risultato che si può avere effettuando un gran numero di prove; è dato dalla somma dei prodotti dei valori assunti dalla variabile casuale per le rispettive probabilità: E(x) = x1p1 + x2p2 + ... + xnpn = xipi = Per definire l’ altro parametro che evidenzia la dispersione di una variabile casuale è necessario introdurre il concetto di: scarto: (o scostamento) differenza di ogni valore assunto dalla variabile casuale dal valor medio si = (xi - ) (i = 1,2,...,n) che evidenzia la variabilità (valori non tutti uguali) di una variabile casuale. 17 È logico, poi, ipotizzare che il più attendibile indicatore del grado di variabilità, e quindi della dispersione, si possa ottenere calcolando il valor medio degli scarti; tuttavia, risultando essi simmetrici rispetto alla media, il loro valor medio è nullo. Per ovviare a ciò, si calcola il valor medio del quadrato degli scarti; si definisce così la: varianza: valor medio degli scarti al quadrato Var( X) x1 p1 x 2 p 2 .... x n p n x i p i 2 2 2 2 spesso in alternativa alla varianza si utilizza lo: scarto quadratico medio: (s.q.m.) radice quadrata della varianza Var( X) Esempio: determinare qual’è il valore che ha più probabilità di verificarsi nel lancio di due dadi e dire, inoltre, quale grado di variabilità ha la variabile casuale associata. E(X) m 2 1 2 3 4 5 6 5 4 3 3 4 5 6 7 8 9 10 36 36 36 36 36 36 36 36 36 2 1 11 12 = 7 36 36 s1 = 2 - 7 = -5 s2 = 3 - 7 = -4 s3 = 4 - 7 = -3 s4 = 5 - 7 = -2 s5 = 6 - 7 = -1 s7 = 8 - 7 = 1 s8 = 9 - 7 = 2 s9 = 10 - 7 = 3 s10 =11 - 7 =4 s11 =12 - 7= 5 s6 = 7 - 7 = 0 18 TEORIA DEI GIOCHI Giochi di Sorte: giochi il cui esito dipende fondamentalmente dal caso. Nei giochi di sorte si punta una somma S in base ad una probabilità p di vincere; è possibile, quindi, considerare una variabile casuale che assume valore S con probabilità p e valore 0 con probabilità q = 1 - p, il cui valore medio è: = Sp + 0q = Sp da ciò si ha: Speranza Matematica: prodotto della somma S per la probabilità p di vincere E = Sp rappresenta, in effetti, la previsione della vincita media che un giocatore ha effettuando un numero infinito di giocate. Generalizzando, in caso di n somme S i (i = 1,2,...,n) ognuna avente probabilità di essere vinta pi (i = 1,2,...,n), tra loro incompatibili, la speranza matematica totale è: n E T S1 p1 S 2 p 2 . . .S n p n i S pi 1 i n p 1 i 1 i 0 pi 1 ; GIOCHI A DUE GIOCATORI Giochi in cui la vincita di un giocatore è rappresentata dalla perdita dell'altro: A: punta la somma SA con una probabilità di vincere p e di perdere q B: punta la somma SB con una probabilità di vincere q e di perdere p A vince la somma SB e paga la somma SA = - SA B vinve la somma SA e paga la somma SB = - SB E(A) = SBp - SAq E(B) = SAq - SBp = -( SBp - SAq) = - E(A) da ciò discende che la speranza matematica di un giocatore è opposta a quella dell'altro. Si ricava, inoltre, che se la speranza matematica di un giocatore è nulla lo è anche quella dell'altro e ciò porta alla definizione di: Gioco Equo: gioco in cui la speranza matematica complessiva di ci ciascun giocatore è nulla E(A) = SBp - SAq = 0 ; E(B) = SAq - SBp = 0 da tale definizione risulta: SBp - SAq = 0 SBp = SAq SA / SB =p/q SA : SB = p : q SA : p = SB : q 19 Gioco Equo: gioco in cui la somma puntata è proporzionale alla probabilità di vincita. Dalla proporzione SA : SB = p : q applicando la proprietà del componendo si ha: p : (p+q) = SA : (SA +SB) ed essendo: p + q = 1 e SA + SB = ST si ha: p : 1 = SA : ST SA = p ST Gioco Equo: gioco in cui la somma puntata è la speranza matematica del monte premi. (quest'ultima definizione è alla base dei calcoli di alcuni tipi di assicurazione). Le considerazioni fatte restano valide anche se ci sono più somme in gioco o se il gioco si svolge tra più giocatori ricordando che le probabilità di vincita delle singole somme o dei singoli giocatori sono relative ad eventi tra loro incompatibili e, quindi, il gioco è sottoposto alla legge della probabilità totale. Quando uno dei giocatori agisce da professionista, cioé organizza e gestisce il gioco (Stato, Compagnie di assicurazioni), l'equità del gioco agisce a suo sfavore perché, essendo nulla la vincita media (E = 0), restano a suo carico le spese di organizzazione e di gestione. E' necessario, in tal caso, prevedere un caricamento per le somme in gioco (perdita dell'equità del gioco) affinché il professionista non risulti in perdita e possa per altro avere un giusto guadagno dall'attività svolta. E' questo ciò che succede per le varie lotterie gestite dallo Stato o per le compagnie di assicurazioni che fanno pagare somme superiori a quelle che sarebbero necessarie. Esempio di gioco non equo: nella rulette la somma che si vince se esce un numero è di 35 volte la posta. Detta k la posta in gioco, p = 1/37 la probabilità di vincere, q = 36/37 la probabilità di perdere, la speranza matematica del giocatore è: E 35k 1 37 k 36 37 k 37 da cui si vede che avendosi un valore negativo il gioco è svantaggioso per il giocatore. 20