1 La probabilità come misura dell’incertezza di [email protected] A ben pensarci, in nostro quotidiano è costellato da considerazioni di natura probabilistica, anche se non necessariamente formalizzate come tali. Sono esempi di ciò la valutazione, nell’uscire di casa la mattina, della possibilità che piova o meno nel corso della giornata (per decidere se prendere o no l’ombrello), la rinuncia a partecipare ad una gara o un concorso “perché non ho possibilità di farcela”, le previsioni del tipo “la squadra A ha ormai vinto al 90% il campionato di hockey”, per non parlare delle speranze di vincita in giochi e lotterie. In tali situazioni, si tende in sostanza a dare una misura dell’incertezza che, sia pur indicata con vari termini, esprime il significato intuitivo della probabilità. Tuttavia affidandosi completamente all’intuizione, se poi istigata dall’emotività, dalla superstizione o dall’irrazionalità, si può venir tratti in inganno. Celebri esempi (contro-­‐intuitivi) a tal riguardo (il paradosso di Monty Hall 1 , per citarne uno) si disseminano lunga la storia di una delle branche della matematica, il calcolo delle probabilità, tra le più giovani e prolifiche. Le origini del (moderno) calcolo delle probabilità si fanno tradizionalmente risalire alla corrispondenza tra due celebri matematici Pascal e Fermat su un problema di gioco d’azzardo2 (1654). La teoria conobbe però un grande sviluppo nel XX secolo, quando il matematico russo A. N. Kolmogorov nel 1933 ne formalizzò un approccio più rigoroso che ancora oggi costituisce il fondamento della teoria delle probabilità. Fare probabilità significa anzitutto muoversi nella matematica dell’incerto, dove il certo lascia il posto all’aleatorio. Un “salto nel buio” dove diventa essenziale procedere con cautela, soprattutto con l’utilizzo rigoroso dei termini appropriati (evitando confusione tra possibilità e probabilità)3, passo dopo passo, facendo chiarezza, evitando che il cammino cognitivo si popoli d’immagini fantastiche relative al caso, alla fortuna; Pierre-­‐Simon De Laplace diceva (non preconizzandone forse l’exploit futuro negli ambiti più disparati) “il calcolo della probabilità non è altro che buon senso ridotto al calcolo”. Proprio a Laplace (1775) si deve la (prima) definizione assiomatica (classica) di probabilità (uniforme) di un evento come esito favorevole di una prova aleatoria: “La probabilità è una frazione, di cui il numeratore rappresenta il numero di casi favorevoli e il denominatore rappresenta il numero di casi possibili.” 1 Una formulazione del problema, detto di Monty Hall, è stata redatta da Steve Selvin (Selvin Steve, On the Monty Hall problem (letter to the editor), American Statistician 29 (3): 134, Agosto 1975) in una lettera all’American Statistician e recita il quesito seguente: “Supponi di partecipare a un gioco a premi, in cui puoi scegliere tra tre porte: dietro una di esse c'è un'automobile, dietro le altre, capre. Scegli una porta, diciamo la numero 1, e il conduttore del gioco a premi, che sa cosa si nasconde dietro ciascuna porta, ne apre un'altra, diciamo la 3, rivelando una capra. Quindi ti domanda: "Vorresti scegliere la numero 2?" Ti conviene cambiare la tua scelta originale?”. 2 Detto anche il problema della parti, formulato da Blaise Pascal nella sua corrispondenza con Pierre de Fermat, nella versione più semplice recita: “Due giocatori, di pari abilità, si sfidano ad un gioco d’azzardo che si disputa in una serie di partite. Ciascuno scommette la stessa somma in denaro m e vince il gioco chi, per primo, raggiunge un totale di 3 partite vinte. Capita però che i giocatori debbano interrompere il gioco prima che uno dei due giocatori abbia ottenuto le 3 vittorie ed incassato la somma di 2m. In queste circostanze, come dovrebbe essere la ripartizione equa della somma in gioco?” 3 Per esempio, al lancio di un dado (regolare) ci sono sei possibilità (quelle offerte dalle cifre da 1 a 6 che ne caratterizzano le diverse facce) ma ognuna di esse ha probabilità 1 6 di verificarsi. 2 Con prova aleatoria s’intende un esperimento (più generalmente un’azione) il cui esito non è prevedibile in modo certo ma i cui risultati appartengono ad un insieme conosciuto di risultati possibili (detto spazio campionario). Al lancio di una moneta convenzionale (la prova aleatoria) l’esito non è certo, i risultati possibili saranno ovviamente testa o croce (lo spazio campionario). Alla definizione di Laplace (detta appunto classica) si affiancano poi quella di R. Von Mises (definizione frequentista 4 ) e quella di B. De Finetti (definita soggettivista 5 ) ed infine quella assiomatica6 di Kolmogorov. L’impostazione di quest’ultimo si mostrò la più adeguata mettendo sostanzialmente d’accordo le diverse scuole di pensiero. Esempio: Il lancio di un dado regolare. La prova aleatoria consiste nel lancio di un dado i cui diversi esiti, raggruppati nell’insieme 𝜴 (lo spazio campionario), sono costituiti dalle cifre raffigurate sulle diverse facce: 𝜴 = = 𝟏, 𝟐, 𝟑, 𝟒, 𝟓, 𝟔 Gli eventi che interessano questa prova aleatoria sono individuati dai 64 sottoinsiemi (𝑬 ⊆ 𝛀) dello spazio campionario. Illustriamone qualche esempio nella tabella seguente: 𝑬=evento Casi favorevoli Probabilità* 𝑬𝟏 = ”esce il numero 5” 𝑬𝟏 = {𝟓} 𝑬𝟐 = ”esce un numero pari” 𝑬𝟑 = ”esce un multiplo di 3” 𝑬𝟒 = ”esce un numero più piccolo di 9” 1 𝒑 𝐸! = 6 𝑬𝟐 = {𝟐, 𝟒, 𝟔} 𝒑 𝐸! = 50% 𝑬𝟑 = {𝟑, 𝟔} 𝒑 𝐸! = 0. 3 𝑬𝟒 = 𝛀 𝒑 𝐸! = 1 𝑬𝟓 = ∅ 𝒑 𝐸! = 0 𝑬𝟔 = {𝟓, 𝟐, 𝟒, 𝟔} 2 𝒑 𝐸! = 3 𝑬𝟓 = ”esce un numero più grande di 8” 𝑬𝟔 = ”esce il numero 5 oppure un numero pari” *𝒑 𝐸 = !"#$ !"#$%&#$'( !"#$ !"##$%$&$ !"#$(!) = !"#$(𝛀), con card(𝐸) s’intende la cardinalità dell’insieme 𝐸 . 4 La probabilità di un evento è il rapporto fra il numero di esperimenti in cui esso si è verificato e il numero totale di esperimenti eseguiti nelle stesse condizioni, considerando tale numero opportunamente grande. 5 La probabilità che qualcuno attribuisce alla verità, o al verificarsi, di un certo evento (in quanto fatto singolo univocamente descritto e precisato) altro non è che la misura del grado di fiducia nel suo verificarsi. 6 La probabilità è un numero compreso tra 0 (evento impossibile) e 1 (evento certo) che soddisfa i tre assiomi di Kolmogorov (cfr. nota 7). 3 Gli eventi 𝑬𝟒 e 𝑬𝟓 sono detti rispettivamente evento certo ed evento impossibile ed i valori della loro probabilità rappresentano i confini numerici entro i quali si situano le probabilità di un evento qualsiasi della prova aleatoria considerata. Si dice che due eventi 𝑬, 𝑭 sono incompatibili se non sono simultaneamente realizzabili (algebricamente 𝑬 ∩ 𝑭 = ∅), compatibili nel caso contrario. Nel nostro esempio, 𝑬𝟏 e 𝑬𝟐 sono palesemente incompatibili, mentre 𝑬𝟐 e 𝑬𝟑 sono compatibili poiché {6}, essendo un numero pari ed anche multiplo di 3, costituisce (simultaneamente) il caso favorevole (l’unico) per i due eventi. Si osserva che 𝑬𝟔 = 𝑬𝟏 ∪ 𝑬𝟐 e che 𝒑 𝑬𝟔 = 𝒑 𝐸! + 𝒑 𝐸! ricavando un esempio di come la probabilità dell’unione di due eventi incompatibili coincida con la somma delle probabilità dei due eventi stessi. Formalizzando, si potrebbe dire che l’applicazione seguente misura la probabilità (uniforme) degli eventi individuabili al lancio di un dado (regolare): 𝒑: 𝒫 Ω ⟶ 0; 1 card(𝐸) 𝐸 ⊆ Ω ↦ 𝒑 𝐸 = card(Ω) Dove 𝒫 Ω rappresenta l’insieme di tutti gli eventi considerabili, costituito cioè da tutti i sottoinsiemi 𝐸 di Ω e card(𝐸) è il numero di casi favorevoli alla sua realizzazione. Difatti l’applicazione 𝒑 soddisfa pienamente gli assiomi di Kolmogorov7 rappresentando così un esempio particolare8 di quella che, in matematica, si definisce una misura di probabilità. Fu da questa definizione (1933) che la teoria delle probabilità buttò le basi più serie e rigorose per quel che divenne un campo di studio capace di compenetrare le più disparate attività scientifiche: l’economia, la genetica, la fisica moderna (processi stocastici e movimento Browniano) e l’informatica, solo per citarne alcune. Ma abbandoniamo la pura astrazione del mondo algebrico e ritorniamo a quella che fu una tappa altrettanto significativa nello sviluppo del calcolo delle probabilità, la definizione (classica) di Laplace, che esprime la probabilità come una frazione (positiva): 𝐧° 𝐝𝐢 𝐜𝐚𝐬𝐢 𝐟𝐚𝐯𝐨𝐫𝐞𝐯𝐨𝐥𝐢 0≤𝒑= ≤ 1 𝐧° 𝐝𝐢 𝐜𝐚𝐬𝐢 𝐩𝐨𝐬𝐬𝐢𝐛𝐢𝐥𝐢 Questa definizione, in determinate condizioni, ci permette di risolvere (con il supporto di qualche nozione d’insiemistica) un gran numero di problemi (giochi di carte, estrazioni da urne, ecc.) e rappresenta, nella sua semplicità, una formula che, nella sostanza, possiede un gran potenziale 7 I tre assiomi possono essere così enunciati : (K1) « Ad ogni evento casuale 𝐸 corrisponde un certo numero 𝒑(𝐸), chiamato probabilità di 𝐸 , compreso tra 0 e 1 » ; (K2) « la probabilità dell’evento certo è 1 » ; (K3) « la probabilità dell’unione (finita o infinitamente numerabile) di eventi incompatibili due a due è pari alla somma delle probabilità di questi eventi.» 8 Nel lancio di un dado (regolare) lo spazio campionario è finito e si tratta di esiti equiprobabili. 4 d’impiego (nel caso finito). Le difficoltà soggiacenti sono quelle legate al mondo dei numeri razionali indissolubilmente interconnesso all’universo dei numeri decimali. L’utilizzo della formula di Laplace ci obbliga a saperci districare al meglio, tra le diverse scritture che permettono di esprimere (in maniera equivalente) un numero razionale: quella frazionaria, quella percentuale e quella decimale. Ciò significa acquisire un bagaglio matematico che ci permette di operare in maniera trasversale attraverso più rappresentazione di uno stesso valore: 𝟏 𝟐 𝒑 ∅ = 𝟎 ≤ ≤ 𝟎. 𝟑 ≤ 𝟓𝟎% ≤ ≤ 𝟏 = 𝒑(Ω) 𝟔 𝟑 Ogni attività intesa a consolidare il concetto di frazione in senso ampio e a favorire interscambiabilità di scrittura che permette l’espressione della probabilità non può che agevolare, a lungo termine, l’apprendimento in ambito probabilistico. Parlare di probabilità significa entrare nel campo della stima, dell’attendibilità, del possibile e dell’impossibile, del certo e dell’incerto, del più o meno probabile, dell’insicurezza, del rischio, ecc. Tutto ciò serve all’allievo per imparare a ragionare tenendo conto di più fattori, ad affrontare situazioni combinatorie, a pensare in tappe successive, a seguire un criterio; in sintesi, ad imparare sempre più a pensare e valutare. Ma quali sono le concezioni implicite di un bambino? Cosa intende esattamente quando dice “forse”? Quale ragionamento fa in casi di incertezza? E che approcci diversi possono avere dei bambini del 1° o del 2° ciclo, di scuola media o più grandi ancora, nell’affrontare situazioni di incertezza, di probabilità? E la matematica … quando entra in gioco, cosa ci può apportare? Spunti bibliografici e sitografici: Andreï Nikolaïevitch Kolmogorov, Grundbegriffe der Wahrscheinlichkeitsrechnung, Chelsea Plublishing Company, 1946 Bruno De Finetti, Teoria delle probabilità. Sintesi introduttiva con appendice critica, Giuffré, Biblioteca Irsa di cultura del rischio, 2005 Pierre Simon Laplace, Théorie Analytiques Des Probabilités, Ulan Press, 2012 Keith Devlin, La lettera di Pascal, Rizzoli, 2008 Il problema di Monty Hall: http://math.ucsd.edu/~crypto/Monty/monty.html Breve storia del calcolo delle probabilità: http://matematica-­‐old.unibocconi.it/betro/betrodue.htm