Calcolo delle Probabilità - Dipartimento di Matematica

annuncio pubblicitario
Caso e probabilità
1. Introduzione
La teoria della probabilità nasce dal desiderio di formulare previsioni
matematiche sul futuro andamento di un fenomeno avendo a
disposizione certi dati numerici di base.
Tutto ha origine dall’idea di assegnare ad un certo evento X un valore
compreso fra 0 e 1, che misura la “probabilità” che lo stesso X si
verifichi: questo numero, che indicheremo con p=p(X), è 0 se X è un
evento impossibile, 1 se X è un evento certo. In generale X si
verificherà in determinate circostanze (casi favorevoli), che saranno
solo una parte di tutti i casi possibili; p misura precisamente la
proporzione dei casi favorevoli rispetto ai casi possibili. Se si lancia
una moneta non truccata, è intuitivo associare la probabilità p=0,5
all’evento X che corrisponde al risultato “testa”; per simmetria,
all’evento complementare X' spetterà la probabilità q=0,5. Se la
moneta non è perfettamente bilanciata, in assenza di altre
informazioni, si può dire solamente che agli eventi X e X' spettano,
nell’ordine, probabilità p e q soggette alla condizione p+q=1. Infatti i
casi possibili sono formati dai casi favorevoli a “testa” e dai casi
favorevoli a “croce”, che, insieme, danno luogo ad un evento certo
(perché sicuramente uscirà testa o uscirà croce). In generale, sia dato
un numero n di eventi X1, X2,…, Xn, di probabilità p1, p2,…, pn.
Chiamiamo X l’evento in cui uno tra X1, X2,…, Xn, si verifica: qui
supponiamo che tali eventi si escludano a vicenda. Il calcolo dei casi
favorevoli a X mostra subito che la probabilità di X sarà data dalla
formula
p = p1 + p2 + … + pn ,
detta della probabilità totale.
L’evento X potrebbe
essere, ad esempio, l’estrazione di una pallina di
colore chiaro dall’urna raffigurata. Esso si
compone degli eventi X1, X2 e X3, corrispondenti
all’estrazione di una pallina rosa, una pallina
celeste, un pallina gialla; le rispettive probabilità
sono p1=3/11, p2=1/11, p3=2/11. Sommando, si ottiene p= 6/11: in
effetti, una pallina chiara si estrae in 6 casi su 11 possibili.
Supponiamo ora invece di voler effettuare tre estrazioni successive,
rimettendo ogni volta la pallina estratta nell’urna, e di voler calcolare
la probabilità che esca prima una pallina rosa, poi una celeste, infine
un pallina gialla. Le combinazioni vincenti sono quelle formate da una
delle tre palline rosa, dall’unica pallina celeste, e da una delle due
palline gialle. I casi favorevoli al nuovo evento X desiderato si
otterranno quindi moltiplicando tra loro i casi in cui la prima volta
esce il rosa, i casi in cui la seconda volta esce il celeste ed i casi in cui
la terza volta esce il giallo: la probabilità di X sarà il prodotto delle
probabilità p1, p2 e p3. In generale, se l’evento X prevede che certi
eventi X1, X2,…, Xn si verifichino tutti, in maniera indipendente, la
sua probabilità sarà
p = p1 · p2 · … · pn
detta probabilità composta.
2. La distribuzione binomiale
La probabilità totale e la probabilità composta vengono utilizzate, sia
pur implicitamente, nelle lettere che, alla metà del Seicento, Pascal e
Fermat si scambiarono a proposito di un problema di spartizione
della posta tra due giocatori. Successivamente Jakob Bernoulli
scoprì una formula generale che permette di calcolare, ad esempio, la
probabilità pk che, su n partite disputate tra due giocatori, di cui uno
vince con probabilità p, questi ne vinca esattamente k:
pk =
n
k
( ) p (1-p)
k
n-k
Vi compare il coefficiente binomiale “n su k”, presente nel triangolo
aritmetico: un evento cui si applica la formula si dice retto da una
distribuzione binomiale. Per “distribuzione” si intende il modo in cui
la probabilità totale 1 di tutti i possibili esiti del gioco si ripartisce tra
questi ultimi. Essa può essere efficacemente visualizzata con un
istogramma.
Nei quattro esempi raffigurati abbiamo fissato p=0,3, scegliendo per n
i valori 10, 20, 50 e 100. Sull’asse orizzontale sono riportati i possibili
valori di k, e verticalmente le corrispondenti probabilità pk. Non si può
fare a meno di notare che, al crescere di n, il diagramma tende ad
assumere una forma sempre più simmetrica.
In effetti, al limite, il suo profilo coincide con il grafico di una
particolare funzione, detta campana di
Gauss.
La sua espressione è del tipo
f ( x)  Ae
1  x b 
 

2 c 
2
La sovrapposizione rappresentata in
figura può essere facilmente realizzata
traslando l’istogramma e cambiando
l’unità di misura sull’asse orizzontale secondo valori numerici
prestabiliti. Attraverso questa trasformazione, è possibile allora
ricavare, dalla campana di Gauss, valori approssimati per le
probabilità pk.
Quando il numero n è grandissimo, il grafico della funzione
sostituisce, in modo naturale, l’istogramma. Allora il fenomeno che si
studia cessa di essere una successione discreta di eventi valutabili
singolarmente, per divenire un insieme continuo di cui si possono
esaminare porzioni di varia estensione, ciascuna rappresentata da un
intervallo sull’asse delle ascisse. Ciò è quanto avviene, ad esempio, se
si vuole rappresentare graficamente la distribuzione delle velocità
delle particelle che compongono un gas in condizioni di equilibrio.
(moto browniano). Non si potrà certo determinare direttamente la
probabilità che, pescando a caso una particella, questa abbia una
data velocità, ma si potrà stimare la proporzione delle particelle la cui
velocità è vicina ad un certo valore.
3. I grandi numeri
La Meccanica Statistica ci insegna che il moto browniano è retto da
una distribuzione gaussiana. Questa legge empirica permette di
prevedere, dato un certo volume di gas ad una certa temperatura, i
risultati dell’esperimento, puramente ipotetico, in cui si misurassero
le velocità di un gran numero di particelle “prelevate” dal gas. Ci si
aspetterebbe, in particolare, di incontrare, con maggior frequenza, le
velocità prossime al valore “centrale”.
D’altra parte, come abbiamo visto, la distribuzione gaussiana è una
sorta di corrispettivo continuo della distribuzione binomiale. Viene
allora naturale chiedersi se anche quest’ultima rispecchi i risultati
che ci si deve concretamente aspettare, ad esempio, da n lanci di una
moneta. L’esperienza (oltre che l’intuizione) fornisce una risposta
affermativa, anche se solo al limite: la proporzione m/n di risultati
“testa” tende infatti a coincidere con la probabilità p=0,5, e ciò è tanto
più vero quanto più grande è n (e quanto più, allora, la distribuzione
binomiale si avvicina alla distribuzione gaussiana). Questo è
l’enunciato della legge dei grandi numeri, così enunciata da
Bernoulli:
Se p è la probabilità costante di un evento in una prova, e se, su n
prove eseguite, m risultano favorevoli all’evento, la probabilità che
risulti |p-
Le n prove eseguite potrebbero essere anche, ad esempio, le ripetute
misurazioni di una stessa grandezza fisica con lo stesso strumento.
Se quest’ultimo è ragionevolmente affidabile, i valori misurati con
maggiore frequenza
saranno quelli
vicini al valore reale. Più
precisamente, la distribuzione dei valori misurati sarà, con buona
approssimazione, gaussiana: per ovvie ragioni di simmetria sarà
dunque perfettamente lecito stimare il valore reale formando la media
aritmetica dei valori misurati, dopo aver eventualmente scartato quelli
più “devianti”. La campana di Gauss nasce, in effetti, come
rappresentazione degli errori di misura.
4. La teoria del caos
Con la legge dei grandi numeri e la distribuzione gaussiana i
matematici sono riusciti a scoprire, in un insieme apparentemente
casuale e disordinato di eventi - un processo aleatorio - una
regolarità che permette di imbrigliarli in una teoria generale, e di
dominarli con facili strumenti numerici. Il termine gas venne coniato
nel Seicento sul modello della parola greca caos: i risultati ottenuti nei
secoli seguenti mostrarono, però, che i gas non potevano essere
propriamente considerati il regno della confusione. Se caos c’è, questo
è da considerarsi un caos benigno. Esistono invece altri fenomeni,
anche macroscopici, che si sottraggono, in misura più o meno
accentuata, alle leggi viste nella sezione precedente: l’andamento dei
titoli di Borsa, il profilo di coste e montagne, e persino la sequenza
delle piene del Nilo (l’imperscrutabile alternanza di periodi di “vacche
magre” e di “vacche grasse” di biblica memoria). Questi sono tutti
esempi di quello che potremmo chiamare caos selvaggio. Uno stadio
intermedio è rappresentato da quegli eventi in cui l’approssimazione
gaussiana comincia a delinearsi solo dopo un numero altissimo di
iterazioni: ciò avviene in tempi estremamente lunghi, che spesso
superano la durata stessa del processo: si può parlare allora di caos
lento. La distinzione fra i tre livelli di caos risale a Mandelbrot, che,
negli anni cinquanta, si era accorto come i fenomeni più ribelli non
potessero essere domati con un approccio matematico classico.
L’istogramma che raffigura la distribuzione di probabilità in n lanci di
monete, visto da lontano, si confonde con la campana di Gauss. Così
accade che il filo seghettato di un coltello ci appaia rettilineo: esiste
una direzione ben precisa che prevale, come andamento complessivo,
sulle piccole irregolarità del percorso. In maniera analoga, il flusso di
corrente in un filo di rame è caratterizzato da continue oscillazioni: se
nel circuito si inserisce un altoparlante, si ode un rumore confuso; se
si collega un amperometro, invece, la sua lancetta segna un’intensità
ben precisa e costante. Questi sono due casi di caos benigno che,
come dice Mandelbrot, “fanno piacere a Descartes, dando la
possibilità di decomporre la difficoltà: si studia dapprima la tendenza
(che qui è rettilinea) e poi vi si sovrappongono le fluttuazioni.”
Questo metodo fallisce,
invece, se si tenta di
applicarlo alla costa della
Bretagna: se se ne traccia
il contorno da quote
differenti, il risultato è
una serie di disegni molto
diversi, che non possono
essere approssimati con
una stessa forma “limite”.
Lo stesso dicasi per certi
diagrammi raffiguranti le
fluttuazioni dei prezzi.
Mandelbrot scoprì in queste forme, che sembrano arbitrariamente
irregolari, un importante tratto comune, che chiamò autoaffinità, e
che mise a fondamento di una nuova geometria, la geometria
frattale.
Matematica e Psicologia: La probabilità soggettiva
Scarica