Andrea ELLERO DECISIONI E PROBABILITÀ SOGGETTIVA Appunti per il corso di METODI MATEMATICI PER L’ECONOMIA DELL’ARTE A.A. 2005-2006 2 Queste pagine raccolgono alcune lezioni del corso di METODI MATEMATICI PER L’ECONOMIA DELL’ARTE per la laurea specialistica in Economia e Gestione delle Arti e delle Attività Culturali dell’Università Ca’ Foscari di Venezia (a.a. 2004-2005). Ringrazio la Dott. Francesca Cerisano che ha fornito una prima versione dattiloscritta degli appunti delle lezioni. 3 Elementi di teoria delle decisioni La teoria delle decisioni è una disciplina che studia il processo logico-formale con cui un individuo si accinge ad assumere un comportamento, a suo avviso ottimale, in presenza di informazioni incomplete o, come si suole dire, in condizioni di incertezza. Un individuo si trova a dover prendere delle decisioni in condizione di incertezza quando deve scegliere una fra più azioni possibili, le cui conseguenze non sono determinabili a priori, nel senso che ogni alternativa contemplata condurrà certamente ad una delle conseguenze previste senza, però, poter stabilire esattamente a quale di esse. Solitamente, si suppone che l’incertezza che lascia indeterminata la conseguenza, dipenda dalla “non conoscenza” di alcuni eventi (o stati di natura) e che le conseguenze di ciascuna scelta possano essere valutate in termini di utilità o di perdita. 1. Criteri decisionali in condizioni di incertezza Supponiamo di dover allestire una mostra temporanea utilizzando sia spazi al coperto che spazi al chiuso. Possiamo scegliere di sfruttare gli spazi al coperto (decisione o alternativa d1), quelli esterni (decisione d2), oppure in eguale misura tali spazi (decisione d3). Gli spazi al coperto comportano costi maggiori ma, ovviamente, comportano un numero di visite più elevato in caso di cattivo tempo. Nel periodo di fruibilità della mostra ci si attende dunque un profitto che dipende dalle condizioni atmosferiche e dalla decisione all’utilizzo degli spazi espositivi effettuata inizialmente. Considerati tre possibili scenari (o stati di natura) futuri s1 (tempo prevalentemente piovoso), s2 (tempo variabile), s3 (tempo prevalentemente soleggiato) sono stati valutati i possibili profitti come raccolti nella seguente tabella, detta matrice delle utilità (o dei payoff): s1 s2 s3 d1 2.29 1 3.68 d2 2 4.75 4.32 d3 0 4 2 4 Indicheremo con M ij il risultato corrispondente alla decisione i nel caso si realizzi lo scenario j. Una rappresentazione diversa, che consente di cogliere quale sia la sequenza di decisioni/esiti all’interno del processo decisionale è data dal cosiddetto albero di decisione: Come stabilire quale sia la decisione più conveniente, in termini di profitto/utilità? Osserviamo anzitutto che l’alternativa d3 presenta utilità minori o uguali alle utilità di d2, in corrispondenza di ciascuno scenario sj, si dice in questo caso che d3 è dominata da d2 e, ai fini della nostra scelta, d3 è chiaramente una decisione inopportuna, da scartare. Resta da compiere la scelta, non ovvia ed immediata, tra d1 e d2. Vediamo una rassegna dei più noti criteri di scelta proposti dalla letteratura. 1.1 Criterio di Wald (del maximin) Il decisore suppone che si realizzi, in corrispondenza di ciascuna alternativa, lo scenario peggiore. Nel nostro esempio: s1 s2 s3 minimo d1 2.29 1 3.68 1 d2 2 4.75 4.32 2 5 Dopo aver rilevato i valori minimi per ogni riga, scegliamo tra questi quello massimo, max(min M ij ) minimizzando, in tal modo, la perdita: i j Nel nostro esempio la scelta cade sull’alternativa d2. 1.2 Criterio dell’ottimismo Il decisore suppone che si realizzi, in corrispondenza di ciascuna alternativa, lo scenario migliore. Nel nostro esempio: s1 s2 s3 massimo d1 2.29 1 3.68 3.68 d2 2 4.75 4.32 4.75 Dopo aver rilevato i valori massimi per ogni riga, scegliamo tra questi quello massimo, minimizzando, in tal modo, la perdita: min(max M ij ) i j Nel nostro esempio la scelta cade sull’alternativa d2. Dunque, l’alternativa d2 è ancora la migliore. 1.3 Criterio di Laplace o della media aritmetica Si sceglie l’alternativa che presenta media aritmetica delle utilità più elevata. Nell’esempio le medie aritmetiche sono 2.32 per d1 e 3.69 per d2. La scelta migliore è ancora d2 . 1.4 Criterio di Savage (minimax dei regret) Questo criterio prevede una scelta fondata sulla valutazione, per ogni fissato stato di natura, il mancato guadagno (regret, rammarico) che, in corrispondenza di ciascuna decisione, si ha rispetto alla decisione migliore per quello stato di natura (la decisione che si adotterebbe in condizioni di informazione perfetta). Costruiamo, a partire dalla matrice dei payoff la matrice dei Regret, definendo il regret corrispondente alla decisione i nel caso si realizzi lo stato j rij = (max M kj ) − M ij k 6 Tra tutte le decisioni opteremo per quella che presenta il più basso valore massimo del min(max rij ) regret (minimax): i j Nell’esempio: [regret] s1 s2 s3 d1 0 3.75 0.64 3.75 d2 0.29 0 0 0.29 max regret La scelta da adottare è ancora d2. 1.5 Criterio delle eccedenze (maximin delle eccedenze) Contrariamente al criterio precedente, si calcola, in corrispondenza di ciascuno scenario, la distanza (eccedenza) dalla scelta che presenta il profitto minore per un fissato stato di natura. Per questo motivo costruiamo, a partire dalla matrice delle utilità, la matrice delle eccedenze, definendo l’eccedenza corrispondente alla decisione i nel caso si realizzi lo stato j eij = M ij − (min M kj ) k La scelta cadrà sulla decisione che presenta il più alto valore minimo di eccedenza max(min eij ) (maxmin): i j Tornando all’esempio: [eccedenze] s1 s2 s3 d1 0.29 0 0 0 d2 0 3.75 0.64 0 min eccedenza Le decisioni sono valutate come equivalenti. Osservazione: non abbiamo considerato la variabilità delle utilità in corrispondenza di una singola decisione; possiamo tuttavia osservare che l’alternativa d3 è, da questo punto di vista, desiderabile poiché seppure non fornisca profitti molto elevati evita il rischio di profitti molto bassi; opportuni criteri, che qui non consideriamo, consentono di tener conto di questo importante aspetto. 7 1.6 Un altro esempio Data la matrice delle utilità: s1 s2 s3 d1 20 2 -6 d2 9 8 0 d3 4 4 5 determiniamo la decisione migliore con l’ausilio dei diversi criteri analizzati. s1 s2 s3 Wald d1 20 2 -6 -6 20 5.3 d2 9 8 0 0 9 5.7 4 4 5 4 5 4.3 d3 d1 d2 d3 ottim. Laplace Regret : s1 d3 s3 0 6 11 11 0 5 16 4 0 d1 d2 s2 max Regret 11 11 16 d1 e d2 Eccedenze: s1 s2 s3 min eccedenza d1 16 0 0 0 d2 5 6 6 5 d3 0 2 11 0 d2 8 2. Calcolo delle Probabilità Introduzione La logica elementare divide gli enunciati (che qui chiameremo eventi) in veri e falsi, ammettendo, per principio, che non vi siano altre possibilità di qualificarli (secondo il classico principio del Terzo Escluso aristotelico, una proposizione non può che essere vera o falsa – tertium non datur). Tuttavia se qualcuno dice: “domani pioverà”, quest’affermazione non è né vera, né falsa in questo momento; soltanto domani, dopo che avremo constatato le condizioni del tempo, potremo attribuirle una delle due qualifiche. In attesa di una verifica, dunque, due persone possono avere valutazioni contraddittorie circa la verità o falsità di un’affermazione, senza che si possa decidere quale delle due abbia ragione, possono cioè avere un grado di fiducia diverso riguardo al verificarsi dell’evento. Se ci è consentito scommettere sull’una o sull’altra possibilità (ed è quello che facciamo quando decidiamo o meno di portare con noi l’ombrello quando ancora non piove) l’entità della nostra scommessa è un indice del nostro grado di fiducia nell’enunciato e, perciò, può prendersi come “misura” del grado di verità che siamo disposti ad attribuirgli. 2.1 La definizione di probabilità soggettiva Diamo ora una definizione precisa di probabilità, rifacendoci alla concezione soggettiva di de Finetti (1937). DEFINIZIONE La probabilità di un evento E, secondo l’opinione di un dato individuo, è il prezzo P(E) che egli giudica “equo” pagare per riscuotere un importo unitario nel caso in cui E si verifichi. Supponiamo di voler assegnare in modo soggettivo una probabilità all’evento E = “Il prossimo vincitore delle elezioni USA sarà un repubblicano” . Tale probabilità è, per definizione, il prezzo (certo) che siamo disposti a pagare oggi per riscuotere 1€ nel caso in cui E si verifichi (in futuro!). Se siamo disposti a scommettere 0.25 €, 25 centesimi, allora la nostra valutazione di probabilità è P(E)=0.25=1/4. 9 Uno schema grafico può aiutare ad illustrare lo svolgimento temporale della scommessa: pago certamente P(E) riscuoto 1 se E si verifica in futuro futuro Oggi Il termine “prezzo equo” nella definizione di probabilità sta ad indicare che i verbi pagare e riscuotere devono poter essere scambiati senza che la valutazione di probabilità cambi: in altri termini, riguardo alla scommessa sul futuro Presidente degli Stati Uniti dobbiamo essere anche disposti ad accettare (facendo da “banco”) la scommessa che stabilisce di pagare 1€ in futuro nel caso si realizzi l’evento E, riscuotendo 0.25 € oggi. La probabilità da assegnarsi ad un evento che si realizzerà sicuramente (evento certo) dovrà di conseguenza essere uguale a 1 [P(E)=1], perché, in questo caso, riscuoteremo certamente 1 €, avendo la certezza della realizzazione di E. La probabilità di un evento che senza dubbio non si realizzerà (evento impossibile) dovrà invece essere uguale a 0 [P(E)=0], perché tale è la somma che siamo disposti a sborsare, avendo la consapevolezza di scommettere sul realizzarsi di un evento che non accadrà mai. La probabilità deve essere allora un numero compreso tra i due valori soglia 0 e 1: P(E) ∈ [0,1] . Osservazione importante. Se P(E)=0, ciò non implica l’impossibilità del realizzarsi dell’evento stesso. Vediamo un esempio. Consideriamo un bersaglio quadrato di lato unitario e supponiamo di sparare a caso (ad occhi chiusi) colpendo il punto di coordinate (¾,¾). Si è realizzato l’evento H = “viene colpito il punto (¾,¾)”. 1 ¾ ––––––● 0 ¾ 1 10 Supponiamo ora di ripetere l’esperimento: qual è la probabilità di riuscire a colpire di nuovo il medesimo punto? Essendo infiniti i punti del piano, infinite saranno le nostre possibilità e 0 è ciò che saremmo disposti a pagare nello scommettere sulla realizzazione di H: l’evento è “altamente improbabile”, ma non impossibile. 2.2 Probabilità, scommesse e quote. Ritorniamo all’evento E= “Il prossimo vincitore delle elezioni USA sarà un repubblicano”. Su tale evento è possibile effettuare delle scommesse (nel web è facile reperire aziende che, più in generale, gestiscono scommesse “a quota fissa”, in Italia si può vedere ad esempio il sito della SNAI, www.snai.it). Tipicamente una società di gestione di scommesse presenta per ogni evento sul quale si può scommettere la quota con la quale viene ricompensata una giocata unitaria nel caso si realizzi l’evento. Naturalmente quota e probabilità sono inversamente proporzionali ma vediamo le cose più precisamente. Definiamo quota equa relativa all’evento E la quantità q(E) = 1 P( E ) Dire che la quota equa è di 4 a 1, significa che all’evento viene assegnata la probabilità ¼. Non abbiamo, però, ancora precisato il motivo per il quale parliamo di quota equa q. Infatti, si utilizza tale aggettivo per distinguerla dalla quota reale Q. Quest’ultima risulta comprensiva delle remunerazioni αi, per i gestori delle scommesse. La quota reale, quella effettivamente pubblicata dal gestore (il banco) è: Q(Ei) = (1 – αi) q(Ei) Pertanto la valutazione di probabilità effettuata dal gestore è P(Ei) = 1−αi 1 1 = < q ( Ei ) Q( Ei ) Q( Ei ) La probabilità assegnata dal gestore ad Ei è minore di 1 (1) . Q( Ei ) (1) Per legge, il guadagno del banco viene limitato. Si parla, perciò, della cosiddetta percentuale di n allibramento: PA = ∑ i =1 100 Qi . Tale percentuale deve essere inferiore alla percentuale di allibramento massima PAmax, fissata per legge. Possiamo notare che se αi = 0 ∀ i, allora: PA = n ∑ i =1 100 = 100 q ( Ei ) ∑ P(Ei) =100. In altre parole, nel caso di tutte quote eque la percentuale di allibramento è 100. Nel caso in cui αi>0 per almeno un indice i, si ha PA >100 ovvero, nel caso delle quote reali PA è superiore a 100. 11 2.3 Il requisito della coerenza Consideriamo un insieme di eventi Ω = { E1, E2, E3…En } che siano incompatibili (o esclusivi: si può realizzare soltanto uno di essi) ed esaustivi (si realizza almeno uno di essi). Diremo in tal caso spazio campionario l’insieme Ω e chiameremo eventi elementari i suoi elementi. Ω area = P(E1) Assegnando una probabilità ad ogni evento, si ottiene una funzione: P : Ω → [ 0, 1] ; Ei → P(Ei) che ad ogni evento Ei associa la corrispondente valutazione di probabilità P(Ei). Poiché gli eventi sono esaustivi la probabilità che non si realizzi alcun evento di Ω (Evento impossibile = Ø) è P(Ø) = 0, mentre la probabilità che si realizzi almeno un evento di Ω ovvero che si realizzi Ω (evento certo) è P(Ω) = 1. Vediamo ora come valutare le probabilità degli eventi dell’insieme delle parti P (Ω) dello spazio campionario Ω (l’insieme delle parti è un insieme che ha per elementi tutti i sottoinsiemi di Ω, compresi l’insieme vuoto Ø e l’insieme Ω stesso). A partire dalle probabilità assegnate agli eventi elementari possiamo estendere la valutazione ad altri sottoinsiemi di Ω. Vogliamo però che tale estensione sia coerente nel senso che andiamo a definire. DEFINIZIONE Una valutazione di probabilità è detta coerente se nessuna combinazione di scommesse consente di realizzare un guadagno certo (assenza di arbitraggi). 12 Lavoreremo d’ora in poi solo con valutazioni di probabilità coerenti. Teorema La richiesta di coerenza è equivalente a chiedere che, dati due qualsiasi eventi Ei ed Ej elementari (quindi incompatibili) di Ω si abbia P(Ei v Ej) = P(Ei) + P(Ej) (1) (Il simbolo v sta per “oppure”) Per la dimostrazione si veda ad esempio Daboni (1967). Un esempio numerico può però convincere di come il mancato rispetto della proprietà (1) porti alla possibilità di effettuare arbitraggi, cioè all’incoerenza. Supponiamo di scommettere sul realizzarsi, separatamente, degli eventi E1 ed E2 valutati con probabilità P(E1)=P(E2)=0.2. Nel contempo supponiamo di accettare una scommessa (in qualità di banco) sull’evento E1 v E2 valutato con probabilità P(E1 v E2) = 0.5 (ovvero maggiore di P(E1) + P(E2)). In questo caso oggi pago 0.2+0.2 ma intasco 0.5 pertanto ho in tasca +0.1; in futuro, se uno dei due eventi si realizza ottengo 1 (per aver scommesso) e pago 1 (per aver accettato la scommessa), se nessun evento si realizza non ricevo nulla e non devo pagare. In conclusione: oggi intasco 0.1 e in futuro sono in ogni caso in pareggio, pertanto complessivamente ottengo un guadagno certo di 0.1 (arbitraggio). 2.4 Conseguenze della coerenza n • Poiché E1 v E2 v…En = Ω si ha: P(Ω) = ∑ P(Ei) = 1 i =1 • L’evento EC (complementare di E) che si realizza se e solo se non si realizza E, ha probabilità P(EC) = 1 – P(E) infatti per mantenere la coerenza deve essere P(E v EC) = P(E) + P(EC) ma P(E v EC) = 1, perché almeno uno dei due si realizzerà certamente, da cui la proprietà. 13 2.5 Alcuni esempi LANCIO DI UNA MONETA Vogliamo calcolare la probabilità di ottenere “Testa” e quella di ottenere “Croce” col lancio di una moneta. In questo caso lo spazio degli eventi è Ω = {T,C} (T= si realizza testa; C= si realizza croce). L’insieme delle parti è P(Ω) = {Ø, T, C, Ω }. La coerenza impone P(T) + P(C) = 1 Questa relazione non ci consente di calcolare separatamente P(T) e P(C). A questo scopo, occorre un’osservazione “esterna”. Se la moneta ci appare del tutto simmetrica, ovvero non è truccata, non vediamo a priori alcun motivo per attribuire a uno dei due esiti una probabilità maggiore o minore di quella dell’altro. Perciò ci sentiamo autorizzati ad assumere: P(T) = P(C) . Le due relazioni, insieme, risolvono ora il problema della determinazione delle due probilità fornendo: P(T) = P(C) = ½ . LANCIO DI DUE O PIU’ MONETE Lanciamo due monete (o la stessa moneta due volte) e studiamo la probabilità che si presenti testa sia al primo che al secondo lancio. Vogliamo, in altre parole, calcolare P(TT). Poiché le realizzazioni possibili del lancio di due monete sono TC, CC, CT, TT, mentre l’unico caso favorevole è TT, per motivi di simmetria dell’informazione analoghi a quelli del caso del lancio di una singola moneta valutiamo P(TT) = ¼ . La probabilità che si presenti una testa su due lanci effettuati è invece ½ Lanciando tre monete qual è la probabilità che si presenti almeno una croce? Se consideriamo distintamente le tre monete, allora si presentano 8 casi egualmente probabili: TTT, TTC, TCT, CTT, CTC, CCT, CCC. Soltanto nel primo caso non si hanno croci, quindi la valutazione di probabilità richiesta è ⅞. LANCIO DI UN DADO Assegniamo la probabilità a ciascuno dei sei possibili esiti del lancio di un dado: Ω = {f1, f2, f3, f4, f5, f6} Indicando con fi la faccia del dado sulla quale sono incisi i punti. Abbiamo 14 6 ∑ P(fi) = 1 i =1 Inoltre, se il dado non presenta alcuna deformità evidente, non c’è motivo di pensare che i diversi esiti abbiano probabilità differenti. Da ciò segue: P(fi) = 1 6 per ogni i . Negli esempi affrontati, abbiamo invocato una ragione di “simmetria”, che può esprimersi come condizione a priori sulla distribuzione di probabilità. In tal caso tutti gli eventi elementari considerati vengono ad avere la stessa valutazione di probabilità, sono ritenuti, cioè, equiprobabili. ALTRI ESEMPI Determiniamo la probabilità P per ciascuno dei seguenti eventi: a) nel lancio di un dado si presenta un numero pari. L’evento può verificarsi in tre modi (un 2, un 4, un 6) su 6 casi equiprobabili: P(pari) = ½ ; b) nel lancio di un dado si presenta 1 oppure 2. Essendo P(1 v 2) = P(1) + P(2) si ha P(1 v 2) = ⅓. c) lanciando una moneta e un dado si presentano Testa e un numero pari. Essendo i casi possibili 12 (T1, T2, T3, T4, T5, T6, C1, C2, C3, C4, C5, C6), mentre i casi favorevoli sono 3 (T2, T4, T6), la probabilità è data da P(T,pari) = ¼. 15 2.6 Misura della probabilità nel caso di eventi compatibili Siano dati lo spazio campionario Ω e due suoi sottoinsiemi A e B costituiti da più eventi elementari: Ω A = E1 ∪ E2 ∪ E3 ∪ (Il simbolo B = E3 ∪ E4 ∪ E5 sta per “unione” ed è equivalente a v) Qual è la probabilità P(A ∪ B)? In questo caso A e B (eventi compatibili, data la loro possibile contemporanea realizzazione) hanno in comune l’evento E3, per cui la probabilità non è più P(A ∪ B) = P(A) + P(B), altrimenti verrebbe conteggiato due volte E3, intersezione di A e B. Vale infatti il seguente teorema: P(A ∪ B) = P(A) + P(B) – P(A ∩ B) Teorema (2) ∩ sta per “intersezione”) Dimostrazione. L’insieme A ∪ B è l’unione dei 3 eventi incompatibili A ∩ BC, A ∩ B e AC ∩ B. (Il simbolo Si ha P(A ∪ B) = P(A ∩ BC)+P(A ∩ B)+P(AC ∩ B) = = [P(A ∩ BC)+P(A ∩ B)]+[P(AC ∩ B)+ P(A ∩ B)] - P(A ∩ B) = = P(A) + P(B) - P(A ∩ B) . 2.7 □ Probabilità condizionate o subordinate Immaginiamo che lo spazio campionario Ω si riduca ad un suo sottoinsieme proprio H ⊂ Ω. Graficamente: 16 Ω Il realizzarsi dell’evento H costringe a rivedere la probabilità da assegnare alla realizzazione dell’evento E: E dato H (si scrive E|H), ha una probabilità P(E|H) che in generale sarà diversa rispetto a P(E). Nell’approccio assiomatico la probabilità condizionata è definita ponendo P(E|H) = ovvero P( E ∩ H ) P( H ) P(E ∩ H) = P(E|H) P(H). Utilizzando l’approccio soggettivo alla probabilità tale formula può essere dimostrata. In termini di quote eque essa può essere riscritta come 1 1 1 = ⋅ q( E ∩ H ) q( E | H ) q( H ) ovvero q(E ∩ H) = q(E|H) q(H) . Dimostriamo quest’ultima versione della formula. Consideriamo un esperimento che si svolge negli intervalli di tempo [0, t1] e [t1,t2]. Supponiamo di giocare una unità monetaria al tempo 0 sulla realizzazione dell’evento H al tempo t1, ottenendo in caso di vittoria la quota q(H) e di puntare al tempo t1 tutta l’eventuale vincita sulla realizzazione dell’evento E al tempo t2. H 0 t1 E|H t2 In caso di vittoria, vale a dire se E|H si realizza al tempo t2, potremo intascare la quota q(E|H) moltiplicata per la quantità giocata q(H). Pensiamo ora di giocare un’unità monetaria al tempo 0 sulla realizzazione dell’evento H ∩ E al tempo t2, ottenendo in caso di vittoria la quota q(H ∩ E). Si tratta di una scommessa diversa ma equivalente alla precedente nel senso che comporta una vittoria 17 esattamente negli stessi casi. L’equità nella valutazione della probabilità soggettiva chiede allora che sia q(E ∩ H) = q(E|H) q(H), come volevamo dimostrare. 2.8 • □ Alcune osservazioni Evidentemente la formula • P(E|H) = P( E ∩ H ) P( H ) chiede che la probabilità che si realizzi l’evento H sia diversa da 0. Se l’evento H si realizza certamente, P(H)=1, allora P(E|H) = P(E). Più interessante è il caso 0<P(H)<1, in cui si ha P(E|H) > P(E ∩ H). • Osserviamo che E = (E ∩ H) ∪ (E ∩ HC). Poiché E ∩ H ed E ∩ HC sono disgiunti risulta P(E) = P(E ∩ H) + P(E ∩ HC). Ma essendo P(E ∩ H) = P(E|H) P(H) possiamo scrivere P(E) = P(E|H) P(H) + P(E| HC) P(HC). • Confrontiamo le due probabilità P(E|H) e P(E) in un caso particolare. Consideriamo gli eventi E = la cantante Alexia vince il Festival di Sanremo H = una donna vince il Festival di Sanremo In questo caso evidentemente sarà P(E|H) > P(E). Se, invece H = un uomo vince il Festival di Sanremo allora P(E)>P(E|H) = 0. In generale non esiste alcuna relazione particolare che lega le due probabilità considerate: o se P(E/H) > P(E) si dice che E è positivamente correlato ad H, o se P(E/H) < P(E) si dice che E è negativamente correlato ad H, o se P(E/H) = P(E) si dice che E è indipendente da H. • Nel caso di eventi indipendenti si può scrivere P(E) = P(E/H) = P( E ∩ H ) P( H ) 18 da cui: P(E ∩ H) = P(E) P(H) ovvero, la probabilità che i due eventi, E ed H, si verifichino contemporaneamente corrisponde al prodotto delle loro probabilità di realizzazione. 2.9 • Esempi Lanciando due monete di seguito, consideriamo la probabilità di ottenere testa al secondo lancio, dato che si è ottenuto testa anche al primo. Essendo i due lanci indipendenti, l’informazione a nostra disposizione non influenza la valutazione finale: P(T2|T1) = P(T2) = ½ . • Determiniamo la probabilità che, lanciando due volte un dado, si verifichi l’evento E= la somma dei punti ottenuti nei lanci è 3 Avendo in tutto 36 possibili esiti, dei quali solo due [(1,2); (2,1)] ci permettono di avere somma 3 si ha P(E)=2/36. Consideriamo ora l‘evento H= al primo lancio è uscito il numero 1. Se H si realizza allora lo spazio campionario si riduce e si ottiene: P(E|H) = • P( somma = 3 ∩ lancio1 = 1) 1 / 36 1 = = P(lancio1 = 1) 1/ 6 6 Determiniamo, lanciando sempre due dadi, le probabilità degli eventi A = almeno un dado presenta il numero 3 B = la somma è 4. Utilizziamo la formula (2): P(A) = P(lancio1=3 v lancio2=3) = =P(lancio1=3)+P(lancio2=3) – P(lancio1=3 ∩ lancio2=3) = 1 1 1 11 + = 6 6 36 36 Inoltre P(B) = P((1,3);(3,1);(2,2))= Da cui otteniamo 3 36 P(A ∪ B) = P(A ∩ B) = P((1,3);(3,1))= 11 3 2 1 + = . 36 36 36 3 2 36 19 2.10 Teorema di Bayes Se nelle formule precedenti scambiamo i ruoli degli eventi E ed H otteniamo P( H ∩ E ) P( E ) P(H|E) = che può essere scritta anche: P(H ∩ E) = P(H|E) P(E) Ovviamente P(H ∩ E) = P(E ∩ H), pertanto possiamo scrivere: P(E|H) P(H) = P(H|E) P(E) Risulta allora dimostrato il seguente teorema. Teorema di Bayes P(H|E) = P( E | H ) P( H ) P( E ) 2.11 Alcuni esempi di utilizzo del teorema di Bayes Esempio 1 Supponiamo di dover decidere quale delle due imprese (Artsystem e Buonarroti S.r.l.) di trasporto di opere d’arte contattare per l’allestimento della nostra mostra temporanea. Sappiamo che la probabilità di rottura o danneggiamento delle opere è del 5% per l’impresa A su un totale di 800 pezzi trasportati e del 10% su un totale di 1000 opere trasportate per l’impresa B, alla fine del loro viaggio. Qual è la probabilità che un’opera sia stata trasportata da A se l’opera ha effettivamente subito dei danni? Ovvero, quanto vale P(A|Danni)? E’ utile alla risoluzione del problema, ricorrere al cosiddetto albero di probabilità. Il diagramma ad albero è un mezzo usato, in generale, per enumerare tutti i possibili esiti di una serie di esperimenti, dove ciascun esperimento può avere un numero finito di esiti. Esso viene costruito da sinistra a destra e, ad ogni nodo, il numero dei rami verso destra corrisponde ai possibili esiti dell’esperimento successivo. Nel nostro caso: a) la probabilità che un’opera venga trasportata da A è 800 4 = 1800 9 b) la probabilità che un’opera venga trasportata da B è 1000 5 = 1800 9 20 A questo punto, per conoscere P(A|D), dobbiamo ricorrere alla formula di Bayes: P(A|D) = P( D | A) P( A) P( D) Conosciamo P(D|A) = 0.05 e P(A) =4/9 , ci resta da valutare P(D) sommando tutti i rami che portano all’esito D: P(D) = P(D ∩ A) + P(D ∩ B) = P(D/A) P(A) + P(D/B) P(B) Pertanto 0.05 ⋅ P(A|D) = 0.05 ⋅ 4 9 4 5 + 0.1 ⋅ 9 9 ≅ 2 7 Esempio 2 Al museo di Oslo, nonostante le efficienti misure di sicurezza, sono stati sottratti, nel mese di agosto 2004, alcuni dipinti del pittore norvegese Edward Munch. Vengono arrestati due uomini (Arsenio Lupin e BonBon) sospettati di aver commesso il reato. Soggettivamente, giudichiamo maggiormente probabile che il furto sia stato compiuto da A: P(A) = 0.6, P(B) = 0.4 . Disponiamo però di una macchina della verità che fornisce indicazione di innocenza con probabilità del 90% per chi è realmente innocente e con probabilità del 20% per un colpevole2. Desideriamo conoscere la probabilità che, qualora A superi il test e B non ce la faccia, A sia il ladro. Costruiamo l’albero di probabilità: 2 Il fatto che A superi il test dipende esclusivamente dal suo essere o meno il colpevole, non dai risultati ottenuti, al medesimo test, da B. Ciò consente, qualora avessimo stabilito, ad esempio, l’innocenza di A, di calcolare la probabilità che A e B superino entrambi il test come prodotto (0.2)(0.9), che A superi il test e B no [(0.2)(0.1)], e così via. 21 La probabilità che A sia il ladro, dato che A ha superato il test e B no, in base alla formula di Bayes è: P(A|A supera B, non supera) = P(A supera B, non supera | A) P(A) = P(A supera B, non supera) = (0.2 ⋅ 0.1) ⋅ 0.6 0.012 = = 0.04 (0.2 ⋅ 0.1) ⋅ 0.6 + (0.9 ⋅ 0.8) ⋅ 0.4 0.3 La nuova informazione costringe pertanto a spostare la valutazione della probabilità di colpevolezza di A al 4% contro il 60% della probabilità stabilita inizialmente. Analogamente, volendo valutare la probabilità che A sia il ladro nel caso in cui A non abbia superato il test, mentre B vi sia riuscito si ottiene P(A|A non supera, B supera) = (0.8 ⋅ 0.9) ⋅ 0.6 0.432 = ≅ 0.98 . (0.8 ⋅ 0.9) ⋅ 0.6 + (0.1 ⋅ 0.2) ⋅ 0.4 0.44 22 3. Criteri decisionali in condizioni di rischio Introduzione Torniamo a considerare una matrice dei payoff, contenente i risultati economici Mij, espressi in termini di utilità (o, più semplicemente, profitto) corrispondenti al realizzarsi dello stato di natura sj avendo in precedenza optato per la decisione di. Supponiamo ora di essere in grado di attribuire delle probabilità riguardo alla realizzazione dei diversi scenari (Pj = probabilità di realizzazione di sj): s1 ... sj d1 . ... . di . . . Mij P1 ... Pj ... sn ... Pn ... dm Si parla in tal caso di decisioni in condizioni di rischio: esaminiamo ora alcuni tra i più noti criteri di scelta in tali ipotesi. Considereremo come esempio la tabella seguente: 3.1 s1 s2 s3 d1 6 9 1 d2 13 7 6 d3 2 8 9 P 0.1 0.6 0.3 Criterio della massima verosimiglianza Si opta per l’alternativa che fornisce il payoff massimo in corrispondenza dello scenario con più elevata probabilità di realizzazione. 23 Nell’esempio, lo scenario con più alta probabilità di realizzazione è s2 (probabilità 0.6): optiamo per d1 che fornisce utilità 9. Più in generale: a) calcoliamo per quale scenario j* si ha Pj* = max Pj j b) si opta per la decisione di* tale che Mi*j*= max Mij* i 3.2 Criterio del valore atteso (o dell’utilità attesa) Si opta per l’alternativa che fornisce il massimo valore atteso delle utilità (massima utilità attesa). L’utilità attesa della decisione di è definita da: n E(di) = ∑ Mij Pj j =1 La scelta cade dunque sulla decisione di* tale che E(di*) = max E(di) . i Nell’esempio si ottiene: E(d1) = 6·0.1 + 9·0.6 + 1· 0.3 = 6.3 E(d2) = 13·0.1 + 7·0.6 + 6·0.3 = 7.3 E(d3) = 2·0.1 + 8·0.6 + 9·0.3 = 7.7 La scelta cade allora su d3, mentre d1 è la decisione peggiore (mentre con il criterio della massima verosimiglianza era la scelta migliore). Si può notare che nel caso in cui gli scenari fossero equiprobabili il criterio del valore atteso fornisce esattamente le stesse indicazioni del criterio della media aritmetica (criterio di Laplace) visto in precedenza. 3.3 Criterio della probabilità di rovina È data una soglia di utilità K al di sotto della quale il decisore è da ritenersi “in rovina”. La probabilità di rovina relativa alla decisione di è data dalla somma delle probabilità relative a tutte gli scenari sj per i quali si ha Mij ≤ K: P di rovina(di) = ∑ Pj Mij ≤α Il criterio della probabilità di rovina indica come scelta per cui optare quella cui corrisponde probabilità di rovina minore P di rovina(di*) = min P di rovina(di) i Nell’esempio, fissata la soglia K=7, si ottiene: 24 P di rovina (d1) = 0.1 + 0.3 = 0.4 P di rovina (d2) = 0.6 + 0.3 = 0.9 P di rovina (d3) = 0.1 La decisione da prendersi è ancora d3. 3.4 Criterio della probabilità di fare fortuna Fissata una soglia di utilità H al di sopra o in corrispondenza della quale “facciamo fortuna”. Definita la probabilità di fare fortuna relativa alla decisione di: P di fortuna(di) = ∑ Pj Mij ≥H viene scelta la decisione di* per la quale è massima la probabilità di far fortuna: P di fortuna(di*) = max P di fortuna(di) i Nell’esempio, fissata la soglia H=10, si ottiene: P di fortuna (d1) = 0 P di fortuna (d2) = 0.1 P di fortuna (d3) = 0 La scelta cade allora su d2, che, con gli altri criteri, non era mai apparsa opportuna. 3.5 Alcune osservazioni sul valore atteso. Consideriamo la tabella seguente s1 s2 d1 50 40 d2 90 10 P 0.5 0.5 I valori attesi delle due decisioni sono E(d1) = 45 E(d2) = 50 25 La differenza tra le due utilità attese non è grande; la variabilità delle utilità è invece molto più marcata, bassa con d1, con variazione 50 – 40=10, alta con d2, con variazione 90 – 10=80. Altro esempio: s1 s2 d1 50 40 d2 90 0 P 0.5 0.5 Ora si ha E(d1) = E(d2) = 45: nel caso fossimo “avversi al rischio”, sarebbe opportuno scegliere d1. Consideriamo ora: s1 s2 d1 1000 1000 d2 1001 0 P p 1-p Si ottiene: E(d1) = 1000, E(d2) = 1001⋅ p + 0⋅ (1 – p) . Utilizzando il criterio del valore atteso, la scelta cade su d2 quando 1001⋅ p > 1000, ovvero con p > 1000/1001 ≈ 0.999 Il criterio di massima verosimiglianza, al contrario, suggerisce di optare per d2, quando p>1–p. Dunque, è sufficiente p = 0.501(vs p ≅ 0.999 del primo criterio), perché si scelga d2! 26 3.6 Valore atteso dell’informazione perfetta (EPI=expected value of perfect information) Supponiamo che per un museo si prospettino tre possibili strategie che portano all’aumento dell’offerta espositiva: d1 = utilizzo dei magazzini, dopo opportuno adeguamento d2 = costruzione di una nuova ala d3 = affitto di alcune sale di un edificio adiacente In seguito, vengono valutati i possibili profitti, ipotizzando quattro possibili scenari: s1 = domanda molto elevata s2 = domanda elevata s3 = domanda media s4 = domanda bassa La matrice dei payoff, comprensiva delle probabilità di realizzazione degli scenari, è la seguente: s1 s2 s3 s4 150 110 60 -40 101.00 d1 d2 E -210 171.00 280 200 100 70 47.5 20 -5 0.4 0.3 0.2 0.1 d3 P 45.75 Sulla base di queste informazioni, con il criterio del valore atteso si sceglie d*= d2 . Supponiamo, ora, di poter ottenere nuove informazioni, in particolare un esperto sia in grado di dirci esattamente quale stato di natura si realizzerà e sia disposto a venderci tali informazioni: fino a quale prezzo siamo disposti a pagare? Cerchiamo di stabilire un prezzo limite, al di sopra del quale non siamo più disposti a comperare l’informazione. 27 Se avessimo l’informazione, a seconda dello scenario indicato come certo dall’esperto sceglieremmo ovviamente la decisione che presenta, in corrispondenza di tale scenario, la massima utilità. Nell’esempio avremmo: s1 , s2 , s3 → d2 ; s4 → d3 . Poiché non sappiamo quale scenario ci verrà indicato possiamo solo valutare il valore atteso dell’utilità che la nuova informazione può procurare: V = 280⋅0.4 + 200⋅0.3 + 100⋅0.2 - 5⋅0.1 =191.5 Essendo V > E(d*) = E(d2) la differenza tra V e E(d2) rappresenta il vantaggio mediamente ottenibile nel caso in cui disponessimo dell’informazione perfetta, quindi è questo il prezzo massimo che siamo disposti a pagarla: EPI = V – E(d*) Nell’esempio si ha: EPI = 191.5 – 171 = 20.5. 3.7 Valore atteso dell’informazione campionaria (EIC) Supponiamo di poter riuscire ad ottenere delle informazioni mediante un’indagine campionaria, anziché utilizzando le conoscenze di un esperto. L’indagine campionaria ovviamente comporta dei costi e si rende necessario decidere se investire o meno e fino a quale budget utilizzare. Consideriamo un esempio numerico relativo ad un sistema di prenotazione/vendita online dei biglietti di un museo. Assumiamo che si possa verificare uno fra gli scenari s1 = domanda alta, s2 = domanda bassa. e con matrice dei payoff: s1 s2 d1 10 -20 d2 2 0 P 0.6 0.4 E -2 1.2 Dove d1 è la decisione di investire, d2 è la decisione di non investire nella nuova attività. Con il criterio del valore atteso la scelta ottima è di non investire in questa nuova attività. Immaginiamo, però, di condurre un’indagine di mercato per ottenere indicazioni più aggiornate relativamente al realizzarsi degli scenari. Sulla base della nostra esperienza precedente, sappiamo che una tale strategia fornisce indicazioni sulla domanda reale con diversi livelli di attendibilità, riassunti dalla seguente matrice dei payoff: 28 Esito del test Mercato favorevole Mercato non favorevole Domanda reale ts1 s1(alta) 0.8 s2(bassa) 0.4 ts2 0.2 0.6 I valori della tabella rappresentano la probabilità subordinata: P(test=tsj|domanda reale=si) Chiediamoci, per esempio, quale sia la probabilità che la domanda reale sia alta, dato che l’indagine indica uno scenario favorevole, vogliamo cioè P( s1 | ts1 ). Applicando la formula di Bayes: P(s1 | ts1) = P(ts1 | s1) P(s1) P(ts1) da cui anche = P(ts1 | s1) P(s1) P(ts1| s1) P(s1) + P(ts1 | s2) P(s2) 0.8 ⋅ 0.6 = 0.75 (0.8 ⋅ 0.6) + (0.4 ⋅ 0.4) P(s2|ts1) = 1 – 0.75 = 0.25 essendo i due eventi incompatibili (la domanda è alta oppure bassa). Invece P(s2 | ts2) = = P(ts2 | s2) P(s2) P(ts2) = 0.4 ⋅ 0.6 2 = 0.6 = (0.4 ⋅ 0.6) + (0.6 ⋅ 0.2) 3 da cui: P(s1| ts2) = 1 – 2/3=1/3. 29 Osserviamo infine che P(ts1) = (0.8 ⋅ 0.6) + (0.4 ⋅ 0.4) = 0.64 e P(ts2) = 1 – 0.64 = 0.36 . Supponiamo, adesso, che l’indagine indichi un mercato effettivamente favorevole (si realizza ts1); ricostruiamo, allora, la matrice dei payoff con le diverse probabilità di realizzazione degli scenari, P(si | ts1), e i corrispondenti valori attesi: s1 s2 E d1 10 -20 2.5 d2 2 0 1.5 0.75 0.25 P(si | ts1) Analogamente nel caso di una indicazione di mercato non favorevole: s1 s2 E d1 10 -20 -10 d2 2 0 2/3 P(si | ts2) 1 3 2 3 Il valore atteso con l’informazione campionaria sarà, quindi: W = P(ts1)·2.5+ P(ts2) ·2/3 = 0.64·2.5 + 0.36 ·2/3 =1.84 Il valore atteso dell’informazione campionaria è allora EIC = W – E(d*) che nel nostro caso porge EIC = 1.84 – 1.20 = 0.64 . Si tratta del massimo prezzo che saremo ragionevolmente disposti a pagare per effettuare l’indagine ed ottenere, così, l’informazione. Naturalmente il valore atteso dell’informazione campionaria è inferiore rispetto al valore atteso dell’informazione perfetta. In particolare nell’esempio si ha EPI= V-E(d*) = (0.6·10)+(0.4·0) -1.2 = 6-1.2 = 4.8 . 30 Bibliografia Anderson, Sweeney, Williams, An introduction to management science, South Western College Publishing, 2000. Daboni L., Elementi di calcolo delle probabilità, Boringhieri, Torino, 1967.