Calcolo delle probabilità per le scuole superiori Laboratorio Convegno "Il piacere di insegnare - il piacere di imparare la matematica" Alberto Gandolfi [email protected] Appunti completi disponibili su http://bb.math.unifi.it/~gandolfi/didindex.html Eventi casuali • Il calcolo delle probabilità e la statistica costituiscono quella parte della matematica e, più in generale, della scienza che si occupa di fenomeni casuali. Partiamo da due problemi. • Problema 1: lanciando 1000 volte una moneta, quale sarebbe la vostra reazione di fronte a 510 teste? E a 492, 459, 423, 397, 354, 299, 212, 154, 22? • Problema 2: cercando la porta vincente tra 3, ne scegliamo una e poi ci viene mostrata una porta non vincente tra le altre: conviene cambiare la nostra scelta? O preferiremmo che la porta fosse aperta prima di fare la scelta? Probabilità In questi problemi non si riesce a determinare con certezza l'esito tra varie possibili alternative. Due cause possibili: - mancanza di informazioni - l'indeterminatezza connaturata. Ma non ci interessa: per l'indeterminatezza chiameremo tali eventi "casuali". Per fare comunque previsioni introduciamo una nuova quantità: la probabilità. Caratteristiche della probabilità - Non importa la sua vera natura: basta che sia misurabile ed utile in casi interessanti. - Si determina attraverso processi logici. - E' un numero puro e si esprime in genere in frazioni di 100 (tipo 30%) o con un numero in [0,1]. Quest'ultimo metodo è conveniente per le moltiplicazioni: il 3% del 40% è l'1,2%, facilmente ottenibile da 0,03x0,40=0,12. Interpretazioni della probabilità • Esistono varie scuole su come definire la probabilità: • - Frequentista • - Soggettiva • - Bayesiana • - Convenzionalismo Obiettivi didattici nell'insegnamento della probabilità: • deduzione logica di una teoria da alcune ipotesi • fornitura di alcuni elementi per l'interpretazione del mondo reale, inclusi giochi, dati, sondaggi • esemplificazione dell’uso di alcuni strumenti matematici presentati nel corso Prima formalizzazione • Iniziamo da una formulazione elementare, che può rimanere l’unica se si intende esporre una parte limitata della teoria. • Con qualche esempio si vede la naturalezza dell’uso della terminologia insiemistica per descrivere le probabilità: - Tutte le realizzazioni possibili sono un insieme S - Un evento è un sottoinsieme di S - La probabilità è una funzione P sui sottoinsiemi di S Probabilità uniformi Alcune proprietà elementari da derivare (o far derivare) rigorosamente Calcolo combinatorio Probabilità finite • Per poter fare modelli di situazioni più generali si considerano casi in cui probabilità non sono tutte uguali. • Si prendono come punti di partenza le prime tre proprietà dimostrate nel caso uniforme: Costruzione delle probabilità finite • La teoria è molto elementare e tutti gli esempi di spazi di probabilità finiti si costruiscono come segue: Probabilità dell’unione di eventi • Talvolta è utile dedurre la probabilità da quella di eventi più semplici. Probabilità del complemento • Nello stesso spirito di prima: Indipendenza Due direzioni dell’indipendenza L’indipendenza naturalmente è utile quando si usa senza verificarla. Questo pone qualche problema di consistenza con definizione precedente. Per i corsi elementari accontentiamoci di dire che omettiamo la verifica. Indipendenza dei complementi • Un risultato elementare che verifica che la teoria si sta sviluppando coerentemente riguarda l’indipendenza dei complementi: Riepilogo primi calcoli delle probabilità Distribuzione di Bernoulli • Con i metodi appena riassunti si ricava la distribuzione di Bernoulli o Binomiale (n,p): k Prob k succ su 2k prove 10 0,176197 20 0,125371 30 0,102578 40 0,088928 50 0,079589 60 0,072685 70 0,067313 80 0,06298 90 0,059388 100 0,056348 110 0,053732 120 0,05145 130 0,049435 10 0,176197 100 0,056348 1000 0,017839 10000 0,005642 100000 0,001784 1000000 0,000564 10000000 0,000178 1E+08 5,64E-05 1E+09 1,78E-05 Foglio di calcolo • Usando le funzioni di un foglio elettronico di calcolo si possono calcolare alcune probabilità. Ad esempio il valore della distribuzione Binomiale(n, p). Qui di fianco i valori di p(k,2k,1/2). 1E+10 #NUM! 1E+11 #NUM! 1E+12 #NUM! Osservazioni sulle monete • Anche il numero di teste che ci aspettiamo (n/2 su n) ha probabilità che tende a 0. Quindi queste espressioni non servono per il problema 1. • E’ chiaro però che la probabilità di un numero di successi minore o uguale a k può non tendere a 0. Riprenderemo la questione quando avremo più strumenti. Interpretazioni della probabilità • Vediamo i progressi fatti: sui problemi (1) sappiamo scrivere le varie probabilità (2) nessun progresso Come interpretare le probabilità? - A priori ci si aspetta che specifici eventi di probabilità piccola non si realizzino - A posteriori: si sarà realizzato qualche evento di probabilità piccola, ma non era prevedibile quale. Probabilità condizionate • Talvolta interessa la probabilità di un evento sapendo che un altro si è realizzato. Anche in questo caso ci sono due direzioni: a volte si ricava P(A|B) dalla situazione concreta e lo si usa per ottenere uno degli altri termini. Probabilità totali o composte Dimostrazione del teorema Il problema del premio dietro alla porta • Finalmente abbiamo gli strumenti per rispondere al problema 2: Formula di Bayes Formula di Bayes e probabilità condizionate sono usate ampiamente nei calcoli di genetica. Variabili aleatorie • Una funzione X definita su un insieme S su cui sia definita una probabilità P è detta variabile aleatoria • La sua distribuzione è l’insieme dei valori x che assume e delle relative probabilità P(X=x). Valore atteso • Con qualche esempio si vede che il valore atteso o valor medio emerge sia come risultato medio dopo molte prove che come valutazione equa di un esperimento aleatorio. Significato del valore atteso Linearità del valore atteso • Il valore atteso è lineare. • Questa dimostrazione si può cominciare ad omettere. Indipendenza di variabili aleatorie La verifica che questa definizione generalizza l’indipendenza di eventi è un po’ laboriosa dovendo considerare sottofamiglie di eventi e si omette. Misure della deviazione dal valor medio • Per valutare quanto in media una variabile aleatoria si discosta dal suo valore atteso si introduce la deviazione standard SD: • per valutare la quale il primo passo è la varianza: Additività della varianza • Sorprendentemente, la varianza è additiva per variabili aleatorie indipendenti. • (volendo si può presentare agli studenti una dimostrazione) Deviazione standard per il numero di teste Per cui per n lanci di una moneta, essendo p=1/2, la deviazione standard è ½ Questo suggerisce già qualcosa sul problema delle monete, ma prima di completare l’analisi introduciamo le variabili continue. Variabili continue • Finora si sono viste variabili aleatorie con un numero finito di valori. Vari esempi suggeriscono che a volte è utile considerare variabili che assumono valori sul continuo. • Ad esempio se si spezza un bastoncino a caso o si considera l’orario di un arrivo. Densità delle variabili continue • Le variabili aleatorie continue sono ben descritte prendendo una densità di probabilità f, analoga alla densità di massa, che soddisfa: • La probabilità poi si calcola con gli integrali Esempi di variabili continue Valore atteso di variabili continue Funzione di distribuzione • Un altro modo per descrivere una variabile aleatoria è la funzione di distribuzione. Non è un metodo intuitivo, ma talvolta è molto utile: Simulazione di una variabile uniforme Simulazione di variabili continue Analisi di dati • Per analizzare dati casuali (che interpretiamo come realizzazioni di variabili aleatorie) si utilizzano le stesse quantità calcolate però sui dati, e quindi dette empiriche: indicate nei fogli di calcolo con funzioni tipo MEDIA, DEV ST, VAR • Il valor medio empirico è anche detto media empirica e può essere a sua volta pensato come funzione delle variabili aleatorie. Convergenza della media empirica Teorema centrale del limite • Con qualche calcolo questo risultato permette di stimare molto accuratamente la probabilità che la somma di variabili indipendenti disti più di una data costante dal valore atteso. Illustrazione grafica del TCL • Ci sono molti siti in cui si può vedere come la distribuzione della somma di variabili indipendenti converge ad una normale. • Per le variabili Bernoulli si veda per esempio http://cnx.org/content/m11198/latest/ Stima della deviazione dal valore atteso Stima della deviazione della media empirica dal valore atteso • Abbiamo visto che la media empirica approssima il valore atteso, ma il TCL permette di dare una stima più accurata: • Questa osservazione si usa nei problemi di misura fornendo una stima di quanto la media empirica delle misurazioni disti dalla misura “vera”. Variabili congiunte • Spesso si considerano più variabili aleatorie allo stesso momento. Queste possono essere non essere indipendenti, e quindi occorre una trattazione delle distribuzioni congiunte. • In un corso di scuola superiore conviene però limitarsi ad un caso semplice: una misura del grado di dipendenza di due variabili aleatorie. Correlazione • Date due variabili aleatorie X ed Y si introduce la covarianza: • E poi la misura adimensionale della dipendenza, detta correlazione: Proprietà della correlazione • La correlazione soddisfa: • Quando r=1 oppure r=-1 c’è dipendenza lineare tra X ed Y. Quando X ed Y sono indipendenti r=0. Per cui r misura la dipendenza di X ed Y Correlazione empirica • I fogli di calcolo forniscono di solito una funzione, a volte indicata con CORRELAZIONE che calcola questo valore sui dati. Test: un modello per pesi ed altezze