ELEMENTI
DI
CALCOLO COMBINATORIO

CALCOLO DELLE PROBABILITA'

VARIABILI CASUALI

TEORIA DEI GIOCHI
SABO
ELEMENTI DI CALCOLO COMBINATORIO
Dato un insieme di n elementi
a1, a2, a3, ..., an
è possibile da questo ottenere dei sottoinsiemi, tutti tra loro diversi, in base alla scelta e
all'ordinamento con cui vengono presi gli n elementi.
Il calcolo combinatorio studia i diversi modi con cui è possibile costruire dei sottoinsiemi partendo
da un insieme di n elementi, prendendo ogni volta un certo numero di essi.
Una prima grossa distinzione che si può fare per questi gruppi è tra:
 gruppi semplici (sottoinsiemi senza ripetizione) formati da elementi che si presentano non più di
una volta;
 gruppi con ripetizione (sottoinsiemi con ripetizione) formati da elementi che possono presentarsi
più di una volta.
Approfondendo poi lo studio si può notare che ogni gruppo può essere diversificato dagli
altri o per come sono posizionati gli elementi al suo interno o per la scelta degli elementi stessi o
per entrambe le cose. Si fa distinzione, in tal caso, tra:
 Disposizioni (semplici e composte);
 Permutazioni (semplici e composte);
 Combinazioni (semplici e composte).
Prima, però, di passare alle varie definizioni è opportuno tener presente la seguente regola
base:
Siano A1, A2, A3, ..., An degli insiemi di elementi, il numero dei gruppi di elementi che si possono
formare in modo che il primo elemento del gruppo appartenga ad A 1, il secondo ad A2, ..., l'n-mo
ad An è dato dal prodotto del numero di elementi presenti in ciascuno degli insiemi.
Esempio: si hanno 4 palline rosse, 5 azzurre, 2 bianche, 6 verdi; il numero di gruppi che si
possono formare con tali elementi è dato dal prodotto delle palline rosse per le azzurre per le
bianche per le verdi:
4  5  2  6 = 240
cioé, volendo utilizzare tutte le palline a disposizione, si possono formare 240 gruppi differenti.
1
DISPOSIZIONI SEMPLICI
Dati n elementi distinti, si dicono disposizioni semplici, di classe k, degli n elementi (k < n)
tutti i gruppi che si possono formare con gli n elementi prendendone k di essi, in modo che ogni
gruppo differisca dagli altri per almeno uno degli elementi oppure per l'ordine con cui essi sono
contenuti:
Dn,k = n(n-1)(n-2)....[n-(k-1)]
Esempio: si consideri un insieme formato da 4 colori:
bianco, giallo, rosso, verde; si vuole
sapere quanti gruppi di tre colori tra loro diversi è possibile formare (n = 4; k = 3): come primo
colore è possibile sceglierne uno qualunque, per cui si hanno 4 possibilità di scelta; una volta
fissato il primo colore, per la scelta del secondo ci sono tre possibilità; la terza scelta, infine è solo
tra due possibilità, essendo rimasti solo due colori
Scelta
1° colore
4
possibilità
Scelta
2° colore
3
possibilità
Scelta
3° colore
2
possibilità
In definitiva è come se si scegliesse il primo colore da un insieme di 4 elementi, il secondo
da un insieme di 3 elementi, il terzo da un insieme di due elementi. Per la regola base il numero
D4,3 = 4  3  2 = 24
delle disposizioni è, quindi, dato da:
DISPOSIZIONI CON RIPETIZIONE
Dati n elementi distinti, si dicono disposizioni con ripetizione, di classe k, tutti i gruppi che si
possono formare con gli n elementi (in ciascuno dei quali uno stesso elemento può presentarsi
fino a k volte), in modo che ogni gruppo differisca dagli altri o per un elemento o per l'ordine o per
la ripetizione (in questo caso si può avere anche k > n)
D'n,k = nk
Esempio: si consideri un insieme formato da 4 colori: bianco, giallo, rosso, verde; si vuole
sapere quanti gruppi di tre colori è possibile formare (n = 4; k = 3): per risolvere il problema si
consideri che ogni elemento scelto per formare un gruppo una volta preso sia poi rimesso
nell'insieme, ciò porta al seguente schema:
Scelta
1° colore
4
possibilità
Scelta
2° colore
4
possibilità
Scelta
3° colore
4
possibilità
e, quindi, risulta:
D'4,3 = 4  4  4 = 43 = 64
2
PERMUTAZIONI SEMPLICI
Dati n elementi, si dicono permutazioni semplici degli n elementi tutti i gruppi che si
possono formare prendendo ogni volta tutti gli elementi (in questo caso è n = k)
Dn,n = n(n-1)(n-2)...[n-(n -1)]  Pn = n(n-1)(n-2)...321
solitamente si scrive:
Pn = n!
[n! = n fattoriale]; per il calcolo di n! valgono le seguenti posizioni:
n! = n(n-1)! ; 1! = 1 ; 0! = 1
Esempio: si consideri un insieme formato da 4 colori:
bianco, giallo, rosso, verde
si vuole sapere quanti gruppi distinti di 4 colori ognuno è possibile formare: dallo schema risulta
Scelta
1° colore
4
possibilità
Scelta
2° colore
3
possibilità
Scelta
3° colore
2
possibilità
Scelta
4° colore
1
possibilità
e quindi:
4! = 4321 = 24
PERMUTAZIONI CON RIPETIZIONE
Si hanno quando tra gli n elementi ce ne sono m ugali (m  n); in questo caso, non potendo
distinguere la posizione che gli m elementi occupano all'interno dei vari gruppi, si avrebbero delle
permutazioni uguali tra loro contro l'asserto che vuole gruppi distinti. Per eliminare tale
inconveniente, bisogna dividere il numero totale delle permutazioni per il numero delle
permutazione degli m elementi uguali:
P
(m)
n

n!
m!
Più in generale, se tra gli n elementi ce ne sono  identici tra loro,  identici tra loro, 
identici tra loro e così via, risulta:
n!
P (, ,  , . . . ) 
!   !   !  . . . . .
n
3
COMBINAZIONI SEMPLICI
Dati n elementi distinti (n  2), si dicono combinazioni semplici, di classe k (k < n), tutti
igruppi che si possono formare con gli n elementi prendendone k di essi, in modo che ogni gruppo
differisca dagli altri per almeno un elemento (i gruppi devono essere formati da elementi tutti
diversi tra loro)
C n,k 
D n,k
k!

n  (n  1)  (n  2). . . n  (k  1)
k!
molto più usata per le combinazioni è la formula:

n!
n
C n,k  k 
k!  (n  k)!

(Legge dei tre fattoriali)
n
dove il termine k che si legge "n su k" è detto coefficiente binomiale; da tener presente che si
pone per convenzione:

n
1 n ;

n
n 1 ;

n
0 1
Altre due particolarità o leggi di cui gode il coefficiente binomiale sono:
  
    
la Legge delle classi complementari:
la Legge di Stiefel:
n
n
k  n-k
n
n -1
n -1
k  k  n-k
COMBINAZIONI CON RIPETIZIONE
Dati n elementi distinti, si dicono combinazioni con ripetizione di classe k (in questo caso
può essere anche k > n), tutti i gruppi che si possono formare con gli n elementi (in ciascuno dei
quali uno stesso elemento può essere ripetuto fino a k volte), in modo che ogni gruppo differisca
dagli altri per almeno un elemento o per le ripetizioni con cui un elemento si presenta:
C' n,k 
n  (n  1)  (n  2). . . n  (k  1)
k!
4
SVILUPPO DELLA POTENZA DI UN BINOMIO
Si sa che lo sviluppo di un binomio di grado n è un polinomio ordinato secondo le potenze
decrescenti del primo termine e crescenti del secondo termine; orbene, il coefficiente binomiale
permette di calcolare la parte numerica dei monomi costituenti il polinomio secondo la formula di
Newton:
 a  b n



 
n
n
n
n
 a n  1 a n1  b  2 a n2  b 2 .. . k a nk  b k . . . n  1 a n1  b n  b n
5
CALCOLO DELLE PROBABILITÀ
Evento: fatto che può risultare vero o falso; può assumere le seguenti modalità:
 evento certo:
fatto che deve verificarsi necessariamente;
 evento impossibile:
fatto che non ha possibilità di verificarsi;
 evento incerto:
fatto per il quale non è possibile dire a priori se si verifica o meno.
Probabilità: misura il grado di possibilità del verificarsi di un evento.
In pratica la probabilità si prefigge di tradurre in termini numerici il fatto che si realizzi, ed in
quale misura, un evento incerto. Ciò porta ad associare ad un evento E un numero p(E) compreso
tra il valore 0 (misura dell'evento impossibile) ed il valore 1 (misura dell'evento certo).
TEORIA CLASSICA DELLA PROBABILITÀ
Probabilità: rapporto tra il numero dei casi favorevoli, m, al verificarsi dell'evento ed il numero dei
casi equipossibili, n (casi che hanno tutti la stessa possibilità di verificarsi).
p(E) =
m
n
m=0

p(E) = 0

evento impossibile
m=n

p(E) = 1

evento certo
0mn

0  p(E)  1

evento probabile
Probabilità dell'evento contrario:
m = numero di casi favorevoli

n - m = numero di casi contrari
n = numero di casi equipossibili
_
n - m
m
p( E ) = q(E) =
= 1 = 1 - p(E)
n
n
Teorema fondamentale della Probabilità:
p(E) + q(E) = 1
6
TEORIA FREQUENTISTICA DELLA PROBABILITÀ
Frequenza Relativa: rapporto tra il numero di volte, r, che si verifica un evento ed il numero di
prove indipendenti, n, eseguite tutte nelle stesse condizioni
r
f =
n
La frequenza può assimilarsi alla probabilità in base alla:
Legge Empirica del Caso
in un gran numero di prove, tutte uguali ed eseguite nelle stesse
condizioni, ciascuno degli eventi possibili si manifesta con una
frequenza relativa che è approssimativamente uguale alla sua
probabilità e l'approssimazione è tanto maggiore quanto più grande è
il numero delle prove effettuate.
lim
n 
Probabilità:
=
r
n
= p(E)
valore limite a cui si avvicina sempre più la frequenza via via che il numero delle
prove eseguite diventa sempre più grande.
TEORIA SOGGETTIVA DELLA PROBABILITÀ
Probabilità:
misura del grado di fiducia che un individuo coerente attribuisce, secondo le sue
informazioni ed opinioni, al verificarsi di un evento.
coerenza: stima del grado di fiducia effettuata nell'intervallo (0,1).
una definizione più operativa è:
Probabilità:
rapporto tra il prezzo, s, che un individuo reputa equo pagare per poter ricevere il
compenso, S, nel caso che si verifichi un certo evento
p(E) =
s
S
7
GIOCO DEL LOTTO
Da un'urna contenente n numeri (n = 1, ..., n) se ne estraggono m; calcolare la probabilità che tra
gli m numeri estratti se ne ottengano k prefissati.
casi equipossibili: sono dati dalla combinazione di n elementi presi a gruppi di m
C n,m =

n
m
=
n!
m!   n - m!
casi favorevoli: si ottengono eliminando dall'urna i k numeri prefissati e considerando le
combinazioni che si ottengono da (n-k) elementi presi a gruppi di (m-k)
C (n-k),(m-k) =
 
n-k
m-k
=
(n - k)!
(m - k)!   n - k    m  k  !
=
 n - k !
 m  k !  n  k !
in pratica per i casi favorevoli si suppone che i k numeri prefissati siano elementi fissi che entrano
comunque in combinazione con gli altri elementi.
Probabilità: rapporto tra casi favorevoli e casi equiprobabili:
 

n-k
m-k
p=
n
m
=
m!   n - k  !
n!   m - k !
Esempio: calcolare la probabilità che esca un terno sulla ruota di Napoli
n = 90; m = 5; k = 3
p=
5!   90 - 3!
90!   5 - 3!
= 0,00008512
8
TEOREMI SULLA PROBABILITÀ
Evento Unione: dati due eventi, A e B, l'evento unione C è vero se è vero almeno uno dei due
eventi, è falso se sono falsi entrambi gli eventi
C=AB
C=AB
Evento Intersezione: dati due eventi, A e B, l'evento intersezione C è vero se sono veri i due
eventi; è falso se è falso almeno uno dei
due eventi:
C=AB
n. b. tali concetti sono estendibili anche al caso in cui gli eventi sono più di due.
Eventi Incompatibili: eventi tali che il verificarsi dell'uno esclude in modo assoluto il verificarsi
dell'altro.
Eventi Compatibili:
eventi tali che il verificarsi dell'uno non esclude il verificarsi dell'altro;
possono essere dipendenti o indipendenti.
Eventi Indipendenti: eventi compatibili tali che il verificarsi dell'uno non
influenza il verificarsi dell'altro.
Eventi Dipendenti: eventi compatibili tali che il verificarsi dell'uno influenza
il verificarsi dell'altro.
9
TEOREMA DELLA PROBABILITÀ TOTALE
Caso di Eventi Incompatibili
dati due eventi A e B, la probabilità dell'evento unione A  B è pari alla somma delle probabilità dei
singoli eventi:
p(A  B) = p(A) + p(B)
il teorema è estendibile anche al caso di più
eventi; in particolare, se gli eventi sono a due
a due incompatibili ed uno di essi deve
necessariamente verificarsi, l'evento unione è l'evento certo:
p(E1E2...En) = p(Ei) = 1
(vedi in proposito il teorema fondamentale p + q = 1).
Caso di Eventi Compatibili
dati due eventi A e B, la probabilità dell'evento unione A  B è pari alla somma delle probabilità dei
singoli eventi diminuita della probabilità
dell'evento intersezione A  B:
p(A  B) = p(A) + p(B) - p(A  B)
n. b. questo caso contiene come caso
particolare quello precedente; se, infatti,
gli eventi sono tra loro incompatibili risulta A  B = 0 e, quindi, p(A  B) = 0
anche in questo caso il teorema è estendibile a più eventi; così, ad esempio, nel caso di tre eventi
A, B, C si ha:
p(ABC) = p(A) + p(B) + p(C) - p(AB) - p(BC) +
- p(ABC)
n. b. in pratica la probabilità dell'evento unione si
riconosce dal fatto che nel problema è citata la
congiunzione "o" (calcolare la probabilità che
accada questo o che accada quello).
10
Esempio:
un'urna contiene 100 palline numerate da 1 a 100; calcolare la probabilità che
estraendo una pallina si scelga un numero: a) divisibile per 10 o 13; b) divisibile per
10 o 8.
caso a)
evento A: numeri divisibili per 10 = 10

AB = 0
evento B: numeri divisibili per 13 = 7
p(A) + p(B) =
10
100
+
7
100
=
17
100
caso b)
evento A: numeri divisibili per 10 = 10

evento B: numeri divisibili per 8 = 12
p(A) + p(B) - p(A  B) =
10
100
+
AB  0
(almeno due numeri in comune)
12
100
-
2
100
=
1
5
11
TEOREMA DELLA PROBABILITÀ COMPOSTA
Caso di Eventi Indipendenti
dati due eventi A e B, la probabilità dell'evento intersezione, AB, è pari al prodotto delle
probabilità dei singoli eventi:
p(AB) = p(A) * p(B)
il teorema resta valido anche se gli eventi sono più di due:
p(E1E2...En) = P(E1) *p(E2) *...*p(En) = p(Ei)
Caso di Eventi Dipendenti
dati due eventi A e B tali che B sia condizionato da A (probabilità di B subordinata al verificarsi di
A), la probabilità dell'evento intersezione, A  B, è pari al prodotto della probabilità di A per la
probabilità condizionata di B:
p(AB) = p(A) * p(B/A)
da questa regola deriva, poi, che:
p(B / A) =
p A  B
p(A)
cioé la probabilità dell'evento condizionato può essere vista come il rapporto tra i casi favorevoli
all'evento intersezione ed i casi favorevoli all'evento condizionante.
Il teorema continua ad essere valido anche se gli eventi sono più di due:
p(E1E2...En) = P(E1) *p(E2/E1) *p(E3/ E1E2)*...*p(En/ E1E2...En-1) = p(Ei)
essendo l'ultimo fattore, p(En / E1E2...En-1), la probabilità che si attribuisce all'evento En quando
risultano veri tutti gli n-1 eventi che lo precedono.
n. b.
in pratica la probabilità dell'evento intersezione si riconosce dal fatto che nel problema è
citata la congiunzione "e" (calcolare la probabilità che si verifichi questo evento e
quell'evento).
Esempio:
da un'urna contenente 17 palline bianche, 8 rosse, 5 verdi, si estraggono
successivamente 2 palline. Calcolare la probabilità che entrambe le palline estratte
siano bianche nell'ipotesi che:
a) dopo la prima estrazione, la pallina estratta viene rimessa nell'urna;
b) dopo la prima estrazione, la pallina estratta non viene rimessa nell'urna.
12
caso a)
evento A: prima pallina bianca = 17

A  B = due palline bianche
(n = 17 + 8 +5 = 30)
17 17
289
p = p(A)  p(B) =

=
= 0,3211
30 30
900
evento B: seconda pallina bianca = 17
caso b)
evento A: prima pallina bianca = 17

A  B = due palline bianche
(nA = 17 + 8 +5 = 30)
(nB = 16 + 8 +5 = 29)
17 16
272
p = p(A)  p(B / A) =

=
= 0,3126
30 29
870
evento B: seconda pallina bianca = 16
13
TEOREMA DI BAYES
calcola la probabilità di un evento E che può essere originato da diverse cause H i (i = 1,n) tra loro
incompatibili e delle quali sono note le probabilità (Hi).
In pratica risolve il problema:
supposto che si sia verificato l'evento E, qual'è la
probabilità che esso sia stato originato dalla causa H i.
p(H i )  p(E / H i )
p(H i / E) =
n
 p(H i )  p(E / H i )
i1
p(Hi /E):
probabilità che la causa Hi abbia generato l'evento E;
p(Hi):
probabilità che agisca la causa Hi;
p(E/Hi):
probabilità che l'evento E si verifichi in dipendenza della causa H i;
p(Hi) * p(E/Hi):
probabilità che agisca la causa H i e che, subordinatamente a tale fatto, si verifichi
l'evento E.
n. b. si tenga presente che, essendo le cause tra loro incompatibili, deve risultare:
n
 p(H i /E) = 1
i 1
Esempio: tre urne, esternamente identiche, hanno la seguente composizione:
 urna di tipo A, contenente 4 palline rosse e 6 palline gialle;
 urna di tipo B, contenente 7 palline rosse e 3 palline gialle;
 urna di tipo C, contenente 5 palline rosse e 5 palline gialle;
Calcolare la probabilità che, estraendo una pallina rossa, essa provenga dall'urna di tipo A.
p(A)
= probabilità che sia rossa da A = 4/10
p(B)
= probabilità che sia rossa da B = 7/10
p(C)
= probabilità che sia rossa da C = 5/10
p(E/A) = probabilità che l’evento si generato da A = 1/3
p(E/B) = probabilità che l’evento si generato da B = 1/3
p(E/C) = probabilità che l’evento si generato da C = 1/3
1
p(A / E) =

4
3 10
1 4 1 7 1 5

 
 
3 10 3 10 3 10
=
4
16
= 0,25
14
VARIABILI CASUALI
Considerando il lancio di due dadi, il risultato che si ottiene sommando le due facce è
certamente una variabile; per di più i valori che essa assume dipendono dal caso ed ognuno di
essi può presentarsi con una certa probabilità, inoltre il verificarsi di un valore esclude
automaticamente il verificarsi di un altro valore (eventi incompatibili).
1° DADO
2° DADO
Somma
Numero
Probabilità
Facce
Volte
di Verifica
1
2
3
4
5
6
2
1
1/36
1
2
3
4
5
6
7
3
2
2/36
2
3
4
5
6
7
8
4
3
3/36
3
4
5
6
7
8
9
5
4
4/36
totale degli eventi nel lancio
4
5
6
7
8
9
10
6
5
5/36
di due dadi:
5
6
7
8
9
10 11
7
6
6/36
eventi equiprobabili 
6
7
8
9
10 11 12
8
5
5/36
9
4
4/36
10
3
3/36
11
2
2/36
12
1
1/36
62 
 spazio degli eventi
p
numero di volte
eventi equiprobabili
Si può allora dire che la somma delle facce di due dadi è una variabile casuale.
Variabile Casuale: variabile che può assumere un certo valore all’interno di un insieme di valori
tra loro incompatibili ed aventi ognuno una certa probabilità di verificarsi

V
v 1, v 2 , v 3 ,..., v n
p1, p 2 , p 3 ,..., pn ,
(pi = 1) ; p(V = vi) = pi
;
0  p(V = vi)  1
Generalizzando il problema, se esiste una funzione F(x) rappresentata da:
F(X = xi) = pi
(i=1,2,3,...,n)
avente per dominio l’ insieme degli xi e per codominio l’ insieme delle probabilità p i, tale funzione
rappresenta la distribuzione di probabilità della variabile casuale x.
15
Come tutte le funzioni, anch’essa è suscettibile di una rappresentazione grafica; costruendo,
infatti, un piano cartesiano sulle cui ascisse sono posti i valori assunti dalla variabile casuale e sulle
cui ordinate sono poste le relative probabilità si ha la curva di distribuzione di probabilità.
grafico relativo ad una
distribuzione discreta di
probabilità perché V può
assumere solo valori
interi.
grafico di una distribuzione
continua di probabilità, perché
V può assumere tutti i valori in
R+
Naturalmente in base ai valori assunti dalla variabile casuale si può avere una curva definita a tratti
(distribuzione di probabilità discreta) oppure una curva continua (distribuzione di probabilità
continua).
Le variabili casuali, dette anche variabili aleatorie o variabili stocastiche, rappresentano una
parte fondamentale del calcolo delle probabilità e sono molti i problemi di natura probabilistica il cui
studio conduce alla considerazione di variabili casuali.
FUNZIONE DI RIPARTIZIONE
Si consideri ora il seguente problema:
calcolare la probabilità che, nel lancio di due dadi, la somma delle facce risulti minore di 5.
X  2
3
4
5
6
7
8
9
10 11 12
 1/36, 2/36, 3/36, 4/36, 5/36, 6/36, 5/36, 4/36, 3/36, 2/36, 1/36
p X  5  p X  2  p X  3  p X  4 
1
2
3
6 1




36 36 36 36 6
il calcolo è stato effettuato utilizzando il teorema della probabilità totale (applicato ad eventi
incompatibili).
In pratica, si sono cumulate (sommate) le probabilità dei singoli valori, disposti in ordine
crescente, che può assumere la variabile casuale; ciò porta al concetto di funzione di ripartizione o
funzione cumulativa di probabilità:
Funzione di Ripartizione: funzione F(x) che esprime la probabilità che una variabile casuale X
assuma un valore non superiore ad x
F(x) = p(X  x) =  ps
(s=1,2,...,i)
16
risulta:
x < x1  F(x) = 0
x  xn  F(x) = 1

0  F(x)  1
funzione continua 
[x  , 
Graficamente la funzione ripartizione viene rappresentata nel piano cartesiano ponendo sulle
ascisse i valori xi e sulle ordinate i valori di F(x) ottenuti sommando progressivamente le relative p i;
se la funzione è continua risulta:
F(x) = P(X  a) = F(a)
Stante la difficoltà di analizzare la
distribuzione di probabilità di una
variabile
casuale
è
p ( X  x ) = F(x)
f(a)
opportuno
analizzarla attraverso parametri che
evidenzino in modo sintetico le sue
a
caratteristiche; indicando con:
centro: zona di massima probabilità di una variabile casuale (valore più probabile che essa può
assumere);
dispersione: grado con cui le probabilità si dispongono intorno al centro;
è possibile definire la distribuzione di probabilità di una variabile casuale attraverso due parametri:
valore medio: (valore atteso o speranza matematica) previsione teorica del risultato che si può
avere effettuando un gran numero di prove; è dato dalla somma dei prodotti dei
valori assunti dalla variabile casuale per le rispettive probabilità:
E(x) = x1p1 + x2p2 + ... + xnpn = xipi = 
Per definire l’ altro parametro che evidenzia la dispersione di una variabile casuale è necessario
introdurre il concetto di:
scarto: (o scostamento) differenza di ogni valore assunto dalla variabile casuale dal valor medio
si = (xi - )
(i = 1,2,...,n)
che evidenzia la variabilità (valori non tutti uguali) di una variabile casuale.
17
È logico, poi, ipotizzare che il più attendibile indicatore del grado di variabilità, e quindi della
dispersione, si possa ottenere calcolando il valor medio degli scarti; tuttavia, risultando essi
simmetrici rispetto alla media, il loro valor medio è nullo. Per ovviare a ciò, si calcola il valor medio
del quadrato degli scarti; si definisce così la:
varianza: valor medio degli scarti al quadrato
Var( X)   x1    p1   x 2    p 2 .... x n    p n   x i    p i
2
2
2
2
spesso in alternativa alla varianza si utilizza lo:
scarto quadratico medio: (s.q.m.) radice quadrata della varianza
  Var( X)
Esempio: determinare qual’è il valore che ha più probabilità di verificarsi nel lancio di due dadi e
dire, inoltre, quale grado di variabilità ha la variabile casuale associata.
E(X)  m  2 
1
2
3
4
5
6
5
4
3
 3
4
 5
 6
7
8
9
 10 

36
36
36
36
36
36
36
36
36
2
1
11 
 12 
= 7
36
36
s1 = 2 - 7 = -5
s2 = 3 - 7 = -4
s3 = 4 - 7 = -3
s4 = 5 - 7 = -2
s5 = 6 - 7 = -1
s7 = 8 - 7 = 1
s8 = 9 - 7 = 2
s9 = 10 - 7 = 3
s10 =11 - 7 =4
s11 =12 - 7= 5
s6 = 7 - 7 = 0
18
TEORIA DEI GIOCHI
Giochi di Sorte: giochi il cui esito dipende fondamentalmente dal caso.
Nei giochi di sorte si punta una somma S in base ad una probabilità p di vincere; è
possibile, quindi, considerare una variabile casuale che assume valore S con probabilità p e valore
0 con probabilità q = 1 - p, il cui valore medio è:
 = Sp + 0q = Sp
da ciò si ha:
Speranza Matematica: prodotto della somma S per la probabilità p di vincere
E = Sp
rappresenta, in effetti, la previsione della vincita media che un giocatore ha effettuando un numero
infinito di giocate.
Generalizzando, in caso di n somme S i (i = 1,2,...,n) ognuna avente probabilità di essere
vinta pi (i = 1,2,...,n), tra loro incompatibili, la speranza matematica totale è:
n
E T  S1  p1  S 2  p 2 . . .S n  p n  i
S  pi
1 i
n
p  1
i 1 i
0  pi  1
;
GIOCHI A DUE GIOCATORI
Giochi in cui la vincita di un giocatore è rappresentata dalla perdita dell'altro:
A: punta la somma SA con una probabilità di vincere p e di perdere q
B: punta la somma SB con una probabilità di vincere q e di perdere p
A vince la somma SB e paga la somma SA = - SA
B vinve la somma SA e paga la somma SB = - SB
E(A) = SBp - SAq
E(B) = SAq - SBp = -( SBp - SAq) = - E(A)
da ciò discende che la speranza matematica di un giocatore è opposta a quella dell'altro. Si ricava,
inoltre, che se la speranza matematica di un giocatore è nulla lo è anche quella dell'altro e ciò
porta alla definizione di:
Gioco Equo: gioco in cui la speranza matematica complessiva di ci ciascun giocatore è nulla
E(A) = SBp - SAq = 0
;
E(B) = SAq - SBp = 0
da tale definizione risulta:
SBp - SAq = 0  SBp = SAq
 SA / SB =p/q 
 SA : SB = p : q  SA : p = SB : q
19
Gioco Equo: gioco in cui la somma puntata è proporzionale alla probabilità di vincita.
Dalla proporzione SA : SB = p : q applicando la proprietà del componendo si ha:
p : (p+q) = SA : (SA +SB)
ed essendo: p + q = 1 e SA + SB = ST si ha:

p : 1 = SA : ST
SA = p  ST
Gioco Equo: gioco in cui la somma puntata è la speranza matematica del monte premi.
(quest'ultima definizione è alla base dei calcoli di alcuni tipi di assicurazione).
Le considerazioni fatte restano valide anche se ci sono più somme in gioco o se il gioco si
svolge tra più giocatori ricordando che le probabilità di vincita delle singole somme o dei singoli
giocatori sono relative ad eventi tra loro incompatibili e, quindi, il gioco è sottoposto alla legge della
probabilità totale.
Quando uno dei giocatori agisce da professionista, cioé organizza e gestisce il gioco (Stato,
Compagnie di assicurazioni), l'equità del gioco agisce a suo sfavore perché, essendo nulla la
vincita media (E = 0), restano a suo carico le spese di organizzazione e di gestione. E' necessario,
in tal caso, prevedere un caricamento per le somme in gioco (perdita dell'equità del gioco) affinché
il professionista non risulti in perdita e possa per altro avere un giusto guadagno dall'attività svolta.
E' questo ciò che succede per le varie lotterie gestite dallo Stato o per le compagnie di
assicurazioni che fanno pagare somme superiori a quelle che sarebbero necessarie.
Esempio di gioco non equo: nella rulette la somma che si vince se esce un numero è di 35 volte
la posta. Detta k la posta in gioco, p = 1/37 la probabilità di vincere, q = 36/37 la probabilità di
perdere, la speranza matematica del giocatore è:
E  35k 
1
37
k
36
37

k
37
da cui si vede che avendosi un valore negativo il gioco è svantaggioso per il giocatore.
20