INTRODUZIONE AL CALCOLO DELLE PROBABILITA` Fonti

INTRODUZIONE AL CALCOLO DELLE PROBABILITA’
Fonti: Cicchitelli, Dall’Aglio, Mood-Graybill.
Moduli 1, 2 e 3 del programma.
Nell’iniziare a trattare della teoria della probabilità, conviene chiarire quale
relazione intercorra tra probabilità e statistica. E’ noto che la statistica ha a che
fare con la rilevazione e la rappresentazione di insiemi di dati: la parola statistica
evoca immagini come il censimento demografico, l’andamento del costo della vita, i
sondaggi di opinione. Queste immagini sono tutte pertinenti; la statistica infatti è
la disciplina che studia quantitativamente i fenomeni collettivi, ossia quei
fenomeni che si possono concepire solo tramite una pluralità di osservazioni.
L’osservazione di una caratteristica sul caso individuale indica il modo con cui il
fenomeno collettivo si manifesta; l’insieme dei casi individuali costituisce la
popolazione o collettivo statistico: gli abitanti di un paese nel censimento
demografico, i prezzi dei singoli beni sul mercato nell’indagine sul costo della vita,
le persone di cui si vuole rilevare l’orientamento circa un dato argomento nei
sondaggi di opinione sono tutti esempi di unità statistiche appartenenti ad un
dato collettivo.
I metodi e le finalità stesse della statistica sono diversi secondo che la
popolazione venga osservata per intero oppure solo in parte. Se l’indagine è
totale, come nel censimento, i metodi statistici forniscono la sintesi quantitativa
dei fenomeni studiati, rendendone possibile una visione semplificata, assai
importante per la loro comprensione. Se invece l’indagine è parziale, ossia se è
condotta su un campione estratto casualmente dalla popolazione, la prospettiva
dell’analisi muta completamente. Infatti, non è tanto il campione in sé che
interessa quanto la popolazione che esso rappresenta. Allora la statistica
1
fornisce i metodi con cui le informazioni contenute nel campione possono venire
estese, riferite, all’intera popolazione. Il primo approccio prende il nome di
statistica descrittiva, mentre il secondo di inferenza statistica; ed è proprio
questa seconda parte della statistica che ha come base necessaria la teoria della
probabilità.
Per comprendere l’utilizzo del calcolo delle probabilità in questo contesto, può
essere utile illustrare un esempio. Se attraverso un sondaggio di opinione si
volesse conoscere la percentuale dei votanti propensi a dare il loro voto per il
partito X alla prossima tornata elettorale, verrebbe spontaneo prendere come
base di valutazione della percentuale incognita nella popolazione la percentuale
osservata su un campione di soggetti estratti dal collettivo in esame. Ma questo,
con quali cautele e con quale affidabilità? Qui sta il cuore del problema, il fulcro
di tutto il discorso. Se si conoscesse la percentuale dei votanti nella popolazione,
allora la teoria della probabilità consentirebbe di determinare la probabilità che
nel campione la percentuale assuma un particolare valore. Ma il problema reale è
un altro: si conosce la percentuale del campione e si vogliono trarre delle
conclusioni intorno alla percentuale non nota nella popolazione.
Schematicamente si può dire che con la teoria della probabilità si risolve il
problema diretto: dalla conoscenza della struttura della popolazione si deduce la
probabile struttura del campione; con l’inferenza statistica invece si risolve il
problema inverso, si descrive la struttura della popolazione a partire dal
campione osservato. E’ importante rilevare che l’inferenza statistica presuppone
che sia risolto il problema diretto.
In sintesi, con l’inferenza statistica si tende a dare una risposta al quesito: con
quale precisione si possono descrivere le caratteristiche di una popolazione sulla
base delle informazioni desunte dal campione? Questa domanda non può avere
risposta se non si è prima risolto il problema probabilistico riassumibile nella
2
domanda: qual è il comportamento potenziale di un campione estraibile da una
popolazione nota?
La teoria della probabilità costituisce la trama di un discorso di tipo deduttivo
(dal generale al particolare), mentre l’inferenza statistica si fonda sul
ragionamento induttivo (dal particolare al generale).
CONCETTI DI BASE
Il punto di partenza della teoria probabilistica consiste nella definizione di
esperimento:
Esperimento deterministico: il risultato non cambia se non vengono modificate le
condizioni in cui l’esperimento viene praticato; ogni sua ripetizione fornisce lo
stesso risultato (es. la temperatura di ebollizione dell’acqua, le operazioni
matematiche).
Esperimento casuale (o aleatorio): anche se le condizioni sperimentali vengono
mantenute invariate, il risultato può essere differente (es. lancio di un dado o di
una moneta, l’esito di un esame, l’effetto di un farmaco).
Un esperimento deve essere ripetibile con prove effettuate in condizioni uguali e
i suoi risultati devono essere definibili in anticipo e catalogabili in modo preciso.
Spazio campionario (Ω) o evento certo: l’insieme di tutti i risultati possibili
associati ad un esperimento casuale.
Evento elementare (ωi): ogni risultato dell’esperimento casuale, cioè ogni
elemento dello spazio campionario.
3
Evento (indicato con una lettera maiuscola A, B,…): un qualsiasi insieme di eventi
elementari, cioè un qualsiasi sottoinsieme dello spazio campionario Ω.
Esempio 1:
Si consideri l’esperimento casuale che consiste nel lanciare tre volte una moneta.
Lo spazio campionario contiene 8 eventi elementari (numero finito di eventi
elementari):
Ω = {TTT, TTC, TCT, CTT, CCT, CTC, TCC, CCC}
Eventi elementari: ω1 = TTT, ω2 = TTC, ω3 = TCT…
Esempi di eventi:
A = {CCT, CTC, TCC} = Esce una testa
B = {CCT, CTC, TCC, CCC} = Escono almeno due croci
Esempio 2:
Si consideri l’esperimento casuale che consiste nel lanciare ripetutamente una
moneta finché non esca la prima testa.
Lo spazio campionario contiene un’infinità numerabile di eventi elementari:
Ω = {T, CT, CCT, CCCT, CCCCT, … }
Eventi elementari: ω1 = T, ω2 = CT, ω3 = CCT…
Esempi di eventi:
4
A = {CCT} = Esce una testa al terzo tentativo
B = {CCT, CCCT, CCCCT, … } = Esce testa dopo due tentativi
Esempio 3:
Si consideri la durata (in ore) di una lampadina elettrica prodotta dall’industria
xyz.
Lo spazio campionario è formato da un’infinità non numerabile di eventi
elementari, che sono tutti i numeri reali da 0 a T (T indica la durata massima
della lampadina, che è dedotta dal processo produttivo):
Ω = {x: 0 ≤ x ≤ T}
Eventi elementari: ω1 = 65, ω2 = 7,345, ω3 = 100,4532…
Esempi di eventi:
A = { x: 0 ≤ x < 12 } = La lampadina dura meno di 12 ore
B = { x: 60 ≤ x ≤ T } = La lampadina dura almeno 60 ore
Spazio campionario discreto: se contiene un numero finito oppure un’infinità
numerabile di eventi elementari. Lo spazio campionario degli esempi 1 e 2 è
discreto.
Spazio campionario continuo: se contiene un’infinità non numerabile di eventi
elementari. Lo spazio campionario dell’esempio 3 è continuo.
5
OPERAZIONI CON GLI EVENTI
Le operazioni che si possono eseguire con gli eventi sono le medesime degli
insiemi.
Nella rappresentazione grafica mediante i diagrammi di Eulero-Venn lo spazio
campionario Ω è indicato con un rettangolo, mentre gli eventi sono indicati
mediante cerchi.
Evento complementare: Dato un evento A, si definisce evento complementare A
(in grigio) l’insieme di tutti gli eventi elementari di Ω che non appartengono ad A:
A = {x : x ∉ A}
Evento unione: Dati due eventi A e B, si definisce evento unione A ∪ B (in grigio)
l’insieme di tutti gli eventi elementari di Ω che appartengono ad A o a B oppure
ad entrambi:
A ∪ B = {x : x ∈ A o x ∈ B }
Evento intersezione: Dati due eventi A e B, si definisce evento intersezione
A ∩ B (in grigio) l’insieme di tutti gli eventi elementari di Ω che appartengono sia
ad A che a B:
6
A ∩ B = {x : x ∈ A e x ∈ B }
Evento differenza: Dati due eventi A e B, si definisce evento differenza A - B (in
grigio) l’insieme di tutti gli eventi elementari di A che non appartengono a B.
(Attenzione che A – B è diverso da B – A):
A − B = {x : x ∈ A e x ∉ B }
Eventi incompatibili o disgiunti: Due eventi A e B si definiscono incompatibili se
non hanno eventi elementari in comune, cioè se la loro intersezione è pari
all’evento impossibile (insieme vuoto): A ∩ B = φ .
Proprietà delle operazioni tra eventi
(Attenzione che non corrispondono sempre alle proprietà delle operazioni tra
numeri).
1. Proprietà di idempotenza: A ∪ A = A
A ∩A = A
7
2. Proprietà commutativa: A ∪ B = B ∪ A
A ∩B = B ∩A
3. Proprietà associativa: A ∪ (B ∪ C ) = (A ∪ B ) ∪ C
A ∩ (B ∩ C ) = (A ∩ B ) ∩ C
4. Proprietà distributiva: A ∪ (B ∩ C ) = (A ∪ B ) ∩ (A ∪ C
)
A ∩ (B ∪ C ) = (A ∩ B ) ∪ (A ∩ C )
5. Casi particolari di unione e intersezione:
A ∪φ = A A ∪ Ω = Ω A ∪A = Ω
A ∩φ = φ A ∩ Ω = A A ∩A = φ
6. Leggi di De Morgan: A ∪ B = A ∩ B
A ∩B = A ∪B
DEFINIZIONE DI PROBABILITA’
Per definire la funzione di probabilità è innanzitutto necessario definire il suo
dominio. Per questo è fondamentale la definizione di insieme delle parti.
Insieme delle parti di Ω (o famiglia dei sottoinsiemi di Ω), indicata con ℑ: è un
insieme contiene tutti gli insiemi che si possono formare con gli eventi elementari
dello spazio campionario. Deve soddisfare le seguenti proprietà:
Ω∈ℑ
se
se
A ∈ ℑ allora A ∈ ℑ
A, B ∈ ℑ allora A ∪ B ∈ ℑ
Come conseguenza si ha che:
8
Ω = φ∈ℑ
se A, B ∈ ℑ
se A, B ∈ ℑ
allora
allora
A ∩B ∈ℑ
A −B = A ∩B ∈ℑ
ℑ è quindi una classe di sottoinsiemi di Ω che contiene Ω ed è chiusa rispetto
alle operazioni di negazione, di differenza, di unione e di intersezione di un
numero finito o di un’infinità numerabile di eventi.
La famiglia ℑ è facilmente identificabile per gli spazi campionari discreti, infatti
se Ω contiene n eventi elementari, allora ℑ contiene 2n eventi.
Esempio 4:
Un’urna contiene tre palline numerate da 1 a 3. Si consideri l’estrazione a caso di
una pallina. Lo spazio campionario e l’insieme delle parti sono dati rispettivamente
da:
Ω = {1, 2, 3}
ℑ = {φ; 1; 2; 3; (1,2); (1,3); (2,3); (1,2,3)=Ω }
Nota: Per gli spazi campionari non numerabili, la determinazione di Ω è un
problema non banale. Infatti gli eventi elementari rappresentati dai singoli punti
(si pensi all’esempio 3) dell’intervallo [0, T] non possono essere inseriti come tali
nella famiglia ℑ; così facendo la funzione di probabilità presenterebbe un
comportamento non accettabile.
Gli elementi di ℑ sono quindi tutti gli intervalli del tipo:
[a, b]; (a, b); (a, b] e [a, b)
9
dove a e b sono due numeri reali distinti contenuti nell’intervallo [0, T], e gli
intervalli possono essere costruiti con le operazioni di unione e intersezione.
Funzione di probabilità ℘: si chiama funzione di probabilità una funzione
d’insieme) a valori reali definita su ℑ avente le seguenti proprietà (assiomi della
probabilità o assiomi di Kolmogorov):
P (Ω) = 1
P (A ) ≥ 0 ∀A ∈ ℑ
P (A 1 ∪ A 2 ∪ ...) = P (A 1 ) + P (A 2 ) + ... per ogni successione di eventi di ℑ a due a due
incompatibili (cioè, presi a caso due qualsiasi eventi distinti Ai e Aj la loro
intersezione è sempre uguale all’evento impossibile: A i ∩ A
j
=φ
∀i ≠ j ).
Il dominio della funzione di probabilità è pertanto pari a ℑ (è una funzione
d’insieme poiché il suo dominio è formato da insiemi) e il suo condominio è pari a ℜ
(insieme dei numeri reali) (o meglio al suo sottoinsieme [0, 1]).
Spazio di probabilità: è la terna formata dallo spazio campionario Ω, dall’insieme
delle parti ℑ e dalla funzione di probabilità ℘.
LE DIVERSE IMPOSTAZIONI DELLA PROBABILITA’
Con la definizione assiomatica di probabilità appena data, non è stato chiarito il
significato da attribuire alla parola probabilità.
I primi sviluppi della probabilità si hanno a partire dal XVII° secolo in
connessione con i giochi di sorte.
10
Definizione classica
La probabilità di un evento A è il rapporto tra il numero dei casi favorevoli al
verificarsi di A e il numero totale dei casi possibili, ammesso che questi siano
equiprobabili. L’equiprobabilità dei risultati possibili è molto importante, infatti
se questi non hanno tutti la medesima probabilità la definizione non può essere
applicata. Per cui:
P (A ) =
n (A )
dove n(A) indica il volte in cui si presenta il risultato A nell’insieme
n ( Ω)
Ω dei risultati possibili.
Da qui, lanciando un dado di ottiene che la probabilità di ottenere un numero
maggiore di 4 (risultato A) è:
Ω = {1, 2, 3, 4, 5, 6} e A = { 5, 6}
P (A ) =
n (A ) 2
= = 0,33 .
n ( Ω) 6
Definizione frequentista
Secondo questa interpretazione, la probabilità di un evento A è il limite della
frequenza relativa con cui A si verifica in una lunga serie di prove ripetute sotto
condizioni simili. Per cui:
n (A )
dove n(A) indica il numero di volte in cui si verifica il risultato A
n →∞ n
P (A ) = lim
in un insieme molto grande n di prove ripetute in modo indipendente.
Alla base di questa teoria si ha la legge empirica del caso, secondo la quale in una
serie di prove di un dato esperimento, ripetuto un grande numero di volte in
circostanze il più possibile simili, ciascuno degli eventi possibili si manifesta con
11
una frequenza che è pressappoco uguale alla sua probabilità. L’approssimazione
ovviamente cresce col crescere del numero delle prove.
Interpretazione soggettivista
La probabilità è la valutazione che il singolo soggetto può coerentemente
formulare, in base alle proprie conoscenze, del grado di avverabilità di un evento.
La probabilità viene pertanto identificata con un prezzo, è il prezzo che un
soggetto ritiene equo pagare per:
• ricevere 1 se A si verifica,
• ricevere 0 se A non si verifica;
se A si verifica il guadagno è pari a 1 – P(A).
Ha qui senso introdurre lo schema della scommessa:
S = somma puntata,
q = quota che si suppone fissa.
Uno scommettitore punta a sul verificarsi dell’evento A; se A si verifica vince
S(1 + q) .
Legando l’interpretazione soggettiva della probabilità con lo schema della
scommessa: S deve essere proporzionale a P(A) e S(1 + q) deve essere
proporzionale ad 1. Per cui:
S = P(A)
1 = S(1 + q)
⇒
P (A ) =
⇒
q =
→
1 = P(A) [1 + q]
1
1+q
1 − P (A )
P (A )
12
Esempio 5:
Ai mondiali di Spagna del 1982 le scommesse (clandestine) davano le seguenti
quote:
Squadre
Quote = q
Probabilità
Italia
2
1 / 3 = 0,333
Germania
3
1 / 4 = 0,25
Francia
3
1 / 4 = 0,25
Polonia
5
1 / 6 = 0,167
1
TEOREMI DELLA PROBABILITA’
Dagli assiomi introdotti nella definizione di probabilità (assiomi di Kolmogorov) si
possono dedurre alcuni teoremi utili nel calcolo delle probabilità di alcuni eventi.
• P (A ) = 1 − P (A ) per ogni evento A di Ω;
Dim: Dato che A ∪ A = Ω e
A ∩ A = φ si può scrivere
P (Ω) = P (A ∪ A ) ⇒ 1 = P (A ) + P (A ) ⇒ P (A ) = 1 − P (A ) .
• P (φ ) = 0 ;
Dim: E’ un corollario del teorema precedente dato che l’evento impossibile
è il complemento dello spazio campionario, Ω = φ .
• 0 ≤ P(A) ≤ 1 per ogni evento A di Ω;
Dim: La prima parte P(A) ≥ 0 è un assioma.
La dimostrazione di P(A) ≤ 1 viene fatta per assurdo, infatti dall’equazione
13
P (A ) + P (A ) = 1 se fosse P(A) > 1, dovrebbe essere P (A ) < 0 per avere
somma 1; questa probabilità negativa sarebbe però in contrasto con il
secondo assioma per il quale la probabilità di un qualsiasi evento è sempre
positiva o nulla.
• se A ⊂ B
⇒
P (A ) ≤ P (B ) ;
Dim: Se A ⊂ B dalla definizione di intersezione si deduce che A = A ∩ B ,
quindi, dato che B = (A ∩ B ) ∪ (A ∩ B ) = A ∪ (A ∩ B ) e che gli eventi A e
A ∩ B sono disgiunti, si ha che
P (B ) = P (A ∪ (A ∩ B )) = P (A ) + P (A ∩ B ) ≥ P (A ) .
• P (A ∪ B ) = P (A ) + P (B ) − P (A ∩ B ) ;
Dim: Dai diagrammi di Venn si può notare che:
A ∪ B = (A ∩ B ) ∪ (A ∩ B ) ∪ (A ∩ B ) e che gli eventi (A ∩ B ) , (A ∩ B ) e
(A ∩ B ) sono tra loro disgiunti, per cui
P (A ∪ B ) = P ((A ∩ B ) ∪ (A ∩ B ) ∪ (A ∩ B ))
P (A ∪ B ) = P (A ∩ B ) + P (A ∩ B ) + P (A ∩ B )
P (A ∪ B ) = P (A ) − P (A ∩ B ) + P (A ∩ B ) + P (B ) − P (A ∩ B )
P (A ∪ B ) = P (A ) + P (B ) − P (A ∩ B ) .
• P (A ∪ B ∪ C ) =
= P (A ) + P (B ) + P (C ) − P (A ∩ B ) − P (A ∩ C ) − P (B ∩ C ) + P (A ∩ B ∩ C );
Dim: Segue come estensione del teorema precedente.
(
)
• P (A − B ) = P A ∩ B = P (A ) − P (A ∩ B ) ;
14
(
)
(
)
(
)
(
)
 P A ∪ B = P A ∩ B = 1 − P (A ∪ B )

• Leggi di De Morgan: 
P A ∩ B = P A ∪ B = 1 − P (A ∩ B ) .

Viene dimostrata solo la prima, la seconda è simile.
Dato che due eventi sono uguali se ognuno di essi è contenuto nell’altro, si
dovrà dimostrare che (a): A ∪ B ⊂ A ∩ B e che (b): A ∩ B ⊂ A ∪ B , cioè
che se un qualsiasi evento elementare ω appartiene ad un evento,
appartiene anche all’altro.
(
(a): ω ∈ A ∪ B
ω ∈A
)
⇒ ω ∉A ∪B
e ω ∈B
(b): ω ∈ A ∩ B
⇒
⇒ ω ∈A
⇒ ω ∉A e
ω ∉B ⇒
ω ∈A ∩B .
e ω ∈B
⇒ ω ∉ A ∪ B perché, altrimenti,
ω apparterrebbe ad almeno uno dei due, ad A o a B, contraddicendo che
ω appartiene sia a A che a B ; ⇒ ω ∉ A ∪ B ⇒ ω ∈ A ∪ B .
Nel caso di uno spazio campionario discreto, per determinare la probabilità di un
evento A ∈ Ω basta assegnare la probabilità pi a ciascun evento elementare ωi di
A, e in seguito sommare le probabilità dei singoli ωi:
P (A ) =
∑ P (ωi ) = ∑ pi .
ωi ∈A
ωi ∈A
Probabilità condizionata
Se A e B sono due eventi dello spazio campionario Ω e P(A) > 0, allora la
probabilità condizionata di B dato (rispetto ad) A è pari a:
P (B A ) =
P (A ∩ B )
.
P (A )
15
Questa probabilità così definita soddisfa i tre assiomi della probabilità:
i) P (A A ) =
P (A ∩ A ) P (A )
=
=1 .
P (A )
P (A )
ii) P (B A ) =
P (B ∩ A ) ≥ 0
=
≥0 .
P (A )
>0
iii) P (B 1 ∪ B 2 ∪ ... A ) =
=
P (A ∩ (B1 ∪ B2 ∪ ...)) P ((A ∩ B1 ) ∪ (A ∩ B2 ) ∪ ...)
=
=
P (A )
P (A )
P (A ∩ B1 ) P (A ∩ B2 )
+
+ ... = P (B 1 A ) + P (B 2 A ) + ...
P (A )
P (A )
per una successione di eventi a due a due incompatibili.
Se lo spazio campionario è finito, la definizione di probabilità condizionata trova
una piena giustificazione intuitiva: poiché si assume che l’evento A si sia già
verificato, si tratta di determinare la probabilità dell’evento A∩B prendendo
come nuovo spazio campionario l’evento A. Agli eventi elementari di A si devono
allora attribuire delle nuove probabilità la cui somma sia 1.
Eventi indipendenti
Due eventi A e B si dicono indipendenti se e solo se sussiste la relazione:
P(A∩B) = P(A) P(B).
Se sussiste l’indipendenza tra A e B, allora sussiste anche l’indipendenza tra A e
B, tra A e B , tra A e B , per cui:
P (A ∩ B ) = P (A ) ⋅ P (B )
P (A ∩ B ) = P (A ) ⋅ P (B )
P (A ∩ B ) = P (A ) ⋅ P (B )
Il concetto di indipendenza può anche essere esteso al caso di 3 o più eventi.
16
Dato uno spazio di probabilità gli eventi A1, A2, …, An sono globalmente
indipendenti se e solo:
P (Ai ∩ Aj ) = P (Ai ) ⋅ P (Aj )
per i ≠ j;
P (Ai ∩ Aj ∩ Ak ) = P (Ai ) ⋅ P (Aj ) ⋅ P (Ak )
per i ≠ j, k ≠ j, i ≠ k;
…
n

 i =1


P  I Ai  =
n
∏ P (Ai ) .
i =1
Esempio 6:
Siano 3 eventi A, B, C tali che:
P(A∪B) = P(B∪C)
P(A∩B) = 0,1
P(C∩B) = 0
P(B) = 0,6
P (C ) = 0,7
Determinare:
• P (C )
→
• P(A∪B) →
P (C ) = 1 − P (C ) = 1 − 0,7 = 0,3 ;
P(A∪B) = P(B∪C) = P(B) + P(C) = 0,6 + 0,3 = 0,9 poiché gli eventi B
e C sono incompatibili (questo è dedotto dal fatto che la probabilità della loro
intersezione è nulla);
• P(A)
• P (A B )
→ P(A) = P(A∪B) – P(B) + P(A∩B) = 0,9 – 0,6 + 0,1 = 0,4 ;
→
P (A B ) =
P (A ∩ B ) 0,1
=
= 0,167 ;
P (B )
0,6
17
• P (B C )
→
P (B C ) =
P (B ∩ C )
0
=
= 0.
P (C )
0,3
Esempio 7:
Siano A e B due eventi tali che:
P(A) = 0,25
P(B) = 0,4
Calcolare la probabilità della loro unione nei tre seguenti casi:
• A e B sono incompatibili
P(A∪B) = P(A) + P(B) = 0,25 + 0,4 = 0,65;
• A e B sono indipendenti
in questo caso si ha che P(A∩B) = P(A)· P(B) = 0,25 ⋅ 0,4 = 0,1
per cui P(A∪B) = P(A) + P(B) – P(A)· P(B) = 0,25 + 0,4 – 0,1 = 0,55;
• P(A∩ B ) = 0,2
dal diagramma di Venn si vede che P(A∪B) = P(A∩ B ) + P(B) = 0,2 + 0,4 = 0,6 .
Esempio 8:
Fra le auto prodotte da una certa casa automobilistica 1 su 100 presenta difetti
di carrozzeria e 4 su 180 presentano difetti meccanici. Inoltre, fra le auto con
difetti di carrozzeria, la probabilità di trovarne una con difetti meccanici è pari a
0,002.
Indicando con C e M gli eventi:
18
C = “l’auto presenta difetti di carrozzeria”
M = “l’auto presenta difetti meccanici”
dal testo si deducono le probabilità
P(C) = 1 / 100 = 0,01
P(M) = 4 / 180 = 0,022
P(M|C) = 0,002 questa è una probabilità condizionata perché si fa riferimento
solo all’insieme delle auto che presentano difetti di carrozzeria e non all’insieme
totale.
• Calcolare la probabilità di trovare un’auto con difetti di carrozzeria o
meccanici.
Si ricerca la probabilità dell’unione fra M e C:
P(M∩C) = P(M|C) P(C) = 0,002 ⋅ 0,01 = 0,00002
da cui
P(M∪C) = P(M) + P(C) – P(M∩C) = 0,022 + 0,01 – 0,00002 = 0,032 .
• Calcolare la probabilità che l’auto non abbia difetti.
Questa è la probabilità dell’intersezione tra C e M che per le leggi di De Morgan
è pari al complemento dell’unione tra C e M:
P( C ∩ M ) = 1 – P(M∪C) = 1 – 0,032 = 0,968.
• Dire se i due difetti si presentano in modo indipendente.
Perché due eventi siano indipendenti la probabilità della loro intersezione deve
essere pari al prodotto delle loro probabilità:
P(C∩M) = P(C) P(M)
19
0,00002 ≠ 0,01 ⋅ 0,022
da cui si deduce che i due eventi non sono indipendenti.
Esempio 9.
Un’urna contiene 4 biglietti: B1, B2, B3 e B4, sui quali è stampato:
B1 = vinci un cappello
B2 = vinci un ombrello
B3 = vinci un mantello
B4 = vinci tutti e tre i premi.
Si estrae a caso un biglietto dall’urna e si definiscano i seguenti eventi:
A1 = si vince il cappello
A2 = si vince l’ombrello
A3 = si vince il mantello.
Dire se gli eventi A1, A2 e A3 sono indipendenti.
I tre eventi sono A1, A2 e A3 indipendenti se e solo se:
P (A1 ∩ A2 ) = P (A1 ) ⋅ P (A2 )
P (A2 ∩ A3 ) = P (A2 ) ⋅ P (A3 )
P (A1 ∩ A3 ) = P (A1 ) ⋅ P (A3 )
P (A1 ∩ A2 ∩ A3 ) = P (A1 ) ⋅ P (A2 ) ⋅ P (A3 )
1 1 1
+ =
4 4 2
1 1 1
P (A2 ) = P (B2 ) + P (B4 ) = + =
4 4 2
1 1 1
P (A3 ) = P (B3 ) + P (B4 ) = + =
4 4 2
P (A1 ) = P (B1 ) + P (B4 ) =
1
4
1
P (A2 ∩ A3 ) = P (B4 ) =
4
1
P (A1 ∩ A3 ) = P (B4 ) =
4
P (A1 ∩ A2 ) = P (B4 ) =
A1 ⊥ A2
A2 ⊥ A3
A1 ⊥ A3
ma
P (A1 ∩ A2 ∩ A3 ) = P (B4 ) ≠ P (A1 ) ⋅ P (A2 ) ⋅ P (A3 )
20
→
1 1
≠
4 8
quindi i tre eventi non sono indipendenti.
Estrazioni con reinserimento: Da un insieme di N unità ne viene estratta una,
viene osservata e poi reinserita nell’insieme prima di procedere all’estrazione
successiva; e così via fino a che si sono estratte n unità.
In questo modo l’insieme dal quale si estraggono le unità non si modifica e i
risultati delle estrazioni risultano pertanto essere fra loro indipendenti.
Estrazioni senza reinserimento: Da un insieme di N unità ne viene estratta una,
viene osservata e messa da parte prima di procedere all’estrazione successiva; e
così via fino a che si sono estratte n unità (n ≤ N).
In questo modo l’insieme dal quale si estraggono le unità si modifica ad ogni
estrazione e i risultati delle estrazioni risultano pertanto dipendere dai risultati
precedenti.
Esempio 10:
Un’urna contiene 5 palline bianche (B) e 6 palline nere (N).
Vengono estratte 2 palline.
Determinare la probabilità dell’evento E = “le palline sono dello stesso colore” e
dell’evento F = “almeno una pallina è nera”:
Ω = {B1B2, N1N2, B1N2, N1B2}
E = {B1B2, N1N2}
F = {N1N2, B1N2, N1B2}
• nel caso in cui le estrazioni sono state fatte con reinserimento:
in questo caso le estrazioni sono indipendenti, per cui:
21
P(E) = P(B1B2) + P(N1N2) = P(B1) P(B2) + P(N1) P(N2) =
5 5 6 6
61
⋅ + ⋅
=
11 11 11 11 121
P(F) = P(N1N2) + P(B1N2) P(N1B2) = P(N1) P(N2) + P(B1) P(N2) + P(N1) P(B2) =
=
6 6 5 6 6 5
96
⋅ + ⋅ + ⋅
=
.
11 11 11 11 11 11 121
• nel caso in cui le estrazioni sono state fatte senza reinserimento:
in questo caso le estrazioni NON sono indipendenti, per cui:
P(E) = P(B1B2) + P(N1N2) = P(B1) P(B2|B1) + P(N1) P(N2|N1) =
=
5 4
6 5
50
⋅
+ ⋅
=
.
11 10 11 10 110
P(F) = P(N1N2) + P(B1N2) P(N1B2) = P(N1) P(N2|N1)+P(B1) P(N2|B1)+P(N1) P(B2|N1) =
=
6 5
5 6
6 5
90
⋅
+ ⋅
+ ⋅
=
.
11 10 11 10 11 10 110
Teorema delle probabilità totali
Dati un evento A ed un insieme finito di eventi Ei (ad esempio k) a due a due
incompatibili, tali che la loro unione dia Ω, allora
P (A ) =
k
k
i =1
i =1
∑ P (A ∩ Ei ) = ∑ P (A Ei ) ⋅ P (Ei ) .
22
Teorema di Bayes
Dati un evento A ed un insieme finito di eventi Ei (ad esempio k) a due a due
incompatibili, tali che la loro unione dia Ω, allora
P (Ei A ) =
P (A Ei ) ⋅ P (Ei )
P (Ei ∩ A )
= k
.
P (A )
∑ P (A Ei ) ⋅ P (Ei )
i =1
Il teorema delle probabilità totali e la formala di Bayes sono utili per risolvere
quei problemi in cui un evento (A) può essere visto come il risultato (effetto) di
uno fra k possibili eventi (cause) E1, E2, …, Ek, fra loro incompatibili e tali che uno
di essi deve per forza verificarsi. Con il teorema delle probabilità totali si
determina la probabilità di osservare l’effetto A indipendentemente dalla causa
Ei che lo ha prodotto, mentre con la formula di Bayes si può determinare la
probabilità che sia data la causa Ei a determinare l’effetto A osservato.
La probabilità P(Ei) è la probabilità che si verifichi la causa Ei, indipendentemente
dal presentarsi o meno dell’evento A; viene detta probabilità a priori o iniziale. La
probabilità condizionata P(Ei/A) è la probabilità di Ei valutata sapendo che si è già
verificato l’evento A e viene chiamata probabilità a posteriori o finale. Il teorema
di Bayes mostra come il verificarsi dell’evento A modifica la probabilità di Ei,
facendola passare da P(Ei) a P(Ei/A); a determinare tale modifica sono le
probabilità probative o verosimiglianze, P(A/Ei).
Si possono anche considerare due cause Ei e Ej e valutare il rapporto di
verosimiglianza
P (A / E i )
.
P (A / E j )
23
Esempio 11:
In inverno in una certa regione un individuo su 5 si vaccina (evento V) contro
l’influenza (evento I).
La probabilità di contrarre l’influenza per un individuo vaccinato (I dato V) è pari
a 0,05, mentre per un individuo non vaccinato (I dato V ) è pari a 0,65.
• Scelto a caso un individuo a fine stagione, qual è la probabilità che abbia
contratto l’influenza?
P(V) = 1 / 5 = 0,2
P(V ) = 1 – P(V) = 1 – 0,2 = 0,8
P(I|V) = 0,05
P(I|V ) = 0,65.
Con il teorema delle probabilità totali si ottiene:
P(I) = P(I|V) P(V) + P(I|V ) P(V ) = 0,05 ⋅ 0,2 + 0,65 ⋅ 0,8 = 0,53 .
• Scelto a caso un individuo che ha contratto l’influenza, qual è la probabilità che
si fosse vaccinato?
Con la formula di Bayes si ottiene:
P (V I ) =
P (I V ) ⋅ P (V ) 0,05 ⋅ 0,20
=
= 0,0189.
P (I )
0,53
Esempio 12:
Una azienda produttrice di frigoriferi possiede 3 stabilimenti A, B e C che
producono rispettivamente il 15%, 25% e 60% della produzione totale. Si sa che
24
dai
3
stabilimenti
provengono
elettrodomestici
difettosi
in
percentuali,
rispettivamente, del 2%, 3% e 1%.
Siano gli eventi:
D = frigorifero difettoso
A = frigorifero prodotto dallo stabilimento A
B = frigorifero prodotto dallo stabilimento B
C = frigorifero prodotto dallo stabilimento C
e le probabilità:
P(A) = 0,15
P(D/A) = 0,02
P(B) = 0,25
P(D/B) = 0,03
P(C) = 0,60
P(D/C) = 0,01
• Quale è la probabilità che un frigorifero, scelto a caso dalla produzione totale,
risulti difettoso?
Applicando il teorema delle probabilità totali si ottiene:
P(D) = P(D/A) ⋅ P(A) + P(D/B) ⋅ P(B) + P(D/C) ⋅ P(C)
P(D) = 0,02 ⋅ 0,15 + 0,03 ⋅ 0,25 + 0,01 ⋅ 0,60 = 0,0165.
• Quali sono le probabilità che un frigorifero difettoso, scelto a caso dalla
produzione totale, provenga dagli stabilimenti A, B o C?
Applicando la formula di Bayes si ottiene:
25
P (A / D ) =
P (D / A ) ⋅ P (A ) 0,02 ⋅ 0,15
=
= 0,1818
P (D )
0,0165
P (B / D ) =
P (D / B ) ⋅ P (B ) 0, 03 ⋅ 0,25
=
= 0, 4545
P (D )
0,0165
P (C / D ) =
P (D / C ) ⋅ P (C ) 0,01 ⋅ 0,60
=
= 0,3636 .
P (D )
0,0165
CALCOLO COMBINATORIO
Il calcolo combinatorio serve per determinare – senza enumerazione diretta - il
numero dei possibili risultati di un dato esperimento o il numero di elementi di un
dato insieme.
Il calcolo combinatorio serve per facilitare il calcolo della probabilità associato
ad eventi complessi.
Definizione preliminare:
Il fattoriale di un numero n, indicato con n!, è dato da:
n! = n ⋅ (n - 1) ⋅ (n - 2) ⋅ ... ⋅ 1
Nota:
0! = 1
26
Disposizioni semplici (di classe m)
Dato un insieme di n oggetti distinti tra loro, si chiamano disposizioni semplici di
classe m, i gruppi di m oggetti (con m ≤ n) che si possono formare con gli n oggetti
dati, seguendo il criterio di considerare distinti due gruppi, non solo se
differiscono per qualche elemento, ma anche se differiscono per l’ordine con cui
gli elementi si presentano. Si parla di estrazioni senza reinserimento.
Il numero di disposizioni semplici è pari a:
Dn ,m = n ⋅ (n − 1) ⋅ ... ⋅ (n − m + 1).
E’ importante notare che vale la relazione:
Dn ,m = (n − m + 1) ⋅ Dn ,m −1 .
Se n = {a, b, c, d} e m = 2, le disposizioni semplici sono le seguenti:
{a,b; a,c; a,d; b,a; b,c; b,d; c,a; c,b; c,d; d,a; d,b; d,c};
D4,2 = 4 ⋅ 3 = 12 .
Disposizioni con ripetizione (di classe m)
Si consideri ora il caso in cui gli m elementi di ciascun raggruppamento non
debbano essere distinti tra loro. Quindi un elemento può apparire anche più di
una volta. Si parla di estrazioni con reinserimento.
Il numero di disposizioni con ripetizione è pari a:
Dn ,m (r ) = n m .
27
E’ importante notare che vale la relazione:
Dn ,m ( r ) = n ⋅ Dn ,m −1 ( r ) .
Se n = {a, b, c, d} e m = 2, le disposizioni con ripetizione sono le seguenti:
{a,a; a,b; a,c; a,d; b,a; b,b; b,c; b,d; c,a; c,b; c,c; c,d; d,a; d,b; d,c; d,d};
D4,2 ( r ) = 4 2 = 16 .
Permutazioni
Le permutazioni di n oggetti sono un caso particolare delle disposizioni semplici:
sono le disposizioni semplici di n oggetti di classe n.
Il numero di permutazioni è pari a:
Pn = Dn ,n = n ⋅ (n − 1) ⋅ (n − 2) ⋅ ... ⋅ 2 ⋅ 1 = n !.
Se n = {a, b, c} le permutazioni sono le seguenti:
{a,b,c; b,a,c; b,c,a; c,a,b; c,b,a; a,c,b};
P3 = 3! = 3 ⋅ 2 = 12 .
Nel caso in cui degli n oggetti k siano uguali, per trovare il numero delle
permutazioni si può ragionare nel seguente modo: se Pn (k ) indica il numero delle
permutazioni della situazione in esame, allora il numero Pn delle permutazioni di n
28
elementi, calcolato senza tener conto del fatto che k degli n oggetti sono tra loro
uguali, si ottiene dal prodotto:
Pn = k !⋅Pn (k ) .
Infatti da ciascuna delle permutazioni Pn (k ) se ne possono ottenere k! scambiando
i posti degli elementi coincidenti. Dalla relazione precedente si ottiene:
Pn (k ) =
Pn
.
k!
Estendendo questa situazione al caso in cui degli n oggetti n1 sono uguali tra loro,
n2 pure uguali tra loro, ma diversi dagli n1 precedenti, e così via, il numero delle
permutazioni si ottiene facendo:
Pn (n ,n ,...,n ) =
1
2
n!
k
n1 !⋅n2 !⋅... ⋅ nk !
con n1 + n2 + ... + nk ≤ n .
Combinazioni (di classe m)
Le combinazioni di n oggetti di classe m sono tutti i gruppi che si possono
formare con m degli n oggetti, considerando distinti due gruppi se differiscono
per almeno un oggetto.
Il numero di combinazioni si ricava considerando che da ogni combinazione si
possono ottenere m! disposizioni permutando in tutti i modi possibili le m
componenti.
Quindi, da
29
Dn ,m = m !⋅C n ,m
C n ,m =
si ottiene:
Dn ,m n ⋅ (n − 1) ⋅ ... ⋅ (n − m + 1)
=
.
m!
m!
Questa quantità prende anche il nome di coefficiente binomiale che viene
indicato con:
n 
n!
  =
e si legge “n su m”.
 m  m !⋅(n − m )!
Esempio 13:
Determinare in quanti modi un gruppo di 7 persone si può disporre.
a) su 7 sedie allineate;
b) attorno ad un tavolo circolare.
a) Si possono disporre in modo allineato in 7! modi diversi, ovvero:
Pn = 7! = 7 ⋅ 6 ⋅ 5 ⋅ 4 ⋅ 3 ⋅ 2 ⋅ 1 = 5040 .
b) Permutazione circolare
Si possono disporre in modo circolare in (7-1)! modi diversi, ovvero:
Pn −1 = 6! = 6 ⋅ 5 ⋅ 4 ⋅ 3 ⋅ 2 ⋅ 1 = 720 .
30
Nota: in generale, n oggetti possono essere disposti in modo circolare in (n-1)!
modi diversi.
Esempio 14:
In quanti modi diversi si possono disporre 5 individui in un divano a 2 posti?
Modo intuitivo:
Chiamiamo gli individui A, B, C, D, E.
Posso formare le seguenti coppie:
AB, BA, AC, CA, AD, DA, AE, EA, BC, CB, BD, DB, BE, EB, CD, DC, CE, EC, DE, ED
Il numero di permutazioni è pari a 20 (valore ottenuto contando!).
Modo formale:
Applico la formula sopra scritta ponendo n = 5 e m = 2:
P5,2 =
5!
5 ⋅ 4 ⋅3⋅2 ⋅1
= 5 ⋅ 4 = 20 .
=
3⋅2 ⋅1
(5 − 2)!
Il numero di permutazioni di n oggetti presi n alla volta è infatti dato da:
n Pn
= n ⋅ (n - 1) ⋅ (n - 2) ⋅ ... ⋅ 1 = n!
Esempio 15:
In quanti modi diversi si possono disporre 3 individui in un divano a 3 posti?
Modo intuitivo:
Chiamiamo gli individui A, B, C. Posso formare i gruppi seguenti:
31
ABC, BAC, BCA, ACB, CAB, CBA.
Il numero di permutazioni è pari a 6.
Modo formale:
Applico la formula sopra scritta ponendo n = 3:
P3,3 = 3! = 3 ⋅ 2 ⋅ 1 = 6
Il numero di permutazioni di n oggetti presi n alla volta tra i quali n1, n2,…, nk sono
uguali tra loro, è infatti dato da:
n!
n !⋅n !⋅... ⋅ n !
1 2
k
dove:
k
∑ ni = n .
i =1
Esempio 16:
a) Determinare il numero di distinte permutazioni che si possono formare con le
lettere della parola NAVATA.
n = 6, ci sono 3 A che si ripetono.
Allora:
P =
6!
= 120 .
3!
b) Quante di queste cominciano con la A?
32
Fisso la A in prima posizione e permuto le lettere rimanenti:
P =
5!
= 60 .
2!
d) Quante di queste cominciano con la A e terminano con la N?
Fisso la A in prima posizione, la N in ultima e permuto le lettere rimanenti:
P =
4!
= 12 .
2!
c) Quante hanno 3 A di seguito?
Il blocco di 3 A può stare in 4 diverse posizioni:
AAA- - - AAA - - - AAA - - - AAA
Per ognuno di questi 4 casi vi sono da considerare le permutazioni delle 3 lettere
rimanenti. Perciò:
P = 4 ⋅ 3! = 24 .
33
Esempio 17:
Quante sono le disposizioni con ripetizione che si ottengono lanciando 3 volte una
moneta?
2
D 3 = 23 = 8 .
Infatti posso formare gli 8 gruppi seguenti:
TTT, TTC, TCT, CTT, CCT, CTC, TCC, CCC.
Le combinazioni di n oggetti diversi presi a gruppi di m sono i gruppi di m oggetti
che si possono formare a partire dagli n di partenza in modo che ciascun gruppo
sia diverso dal precedente per almeno un elemento.
Nota:
L'ordine con cui gli oggetti compaiono nei gruppi NON CONTA.
Esempio 18:
Si vuole formare una commissione di 2 matematici e 3 fisici, scegliendo tra 5
matematici e 7 fisici.
Calcolare in quanti modi può essere formata la commissione se:
a) può essere incluso qualsiasi matematico e fisico;
5 7 
5!
7!
  ⋅   =
=
⋅
2
3
2
!
(
5
−
2
)!
3
!
(
7
−
3
)!
   
34
=
5 ⋅ 4 ⋅ 3! 7 ⋅ 6 ⋅ 5 ⋅ 4! 5 ⋅ 4 7 ⋅ 6 ⋅ 5
⋅
=
⋅
= 10 ⋅ 35 = 350 .
2!3!
3!4!
2 ⋅1 3 ⋅ 2 ⋅1
b) un certo fisico deve far parte della commissione;
5 6
5!
6!
  ⋅   =
= 10 ⋅ 15 = 150 .
⋅
 2   2  2! (5 − 2)! 2! (6 − 2)!
c) due certi matematici non possono far parte della commissione;
3  7 
3!
7!
  ⋅   =
= 3 ⋅ 35 = 105 .
⋅
 2   3  2! (3 − 2)! 3! (7 − 3)!
35