INTRODUZIONE ALLA TEORIA DEI GIOCHI ANTONIO IANNIZZOTTO Sommario. In questi appunti intendiamo offrire una breve ma rigorosa introduzione alla teoria dei giochi, utilizzabile per i corsi di laurea magistrale o di dottorato di ricerca in matematica. Il corso è incentrato principalmente sugli aspetti teorici della disciplina: definizioni formali di gioco, utilità e soluzione; cenni di analisi multivoca; concetto di equilibrio di Nash; giochi statici non-cooperativi e cooperativi; giochi a somma nulla; teoremi di minimax; giochi dinamici; rappresentazione mediante grafi. Infine vengono presentate diverse applicazioni, con particolare attenzione ai modelli economici. Ringraziamo la Prof.ssa Ornella Naselli, del Dipartimento di Matematica e Informatica dell’Università degli Studi di Catania, per i molti e preziosi chiarimenti che ci ha offerto su questo argomento. Indice 1. Introduzione: giochi, soluzioni ed equilibri 1.1. Notazioni 2. Multifunzioni 2.1. Multifunzioni fra spazi topologici 2.2. Selezioni continue 2.3. Punti fissi 2.4. Il principio KKM 3. Giochi non cooperativi ed equilibri di Nash 3.1. Strategie miste e teorema di Nash 3.2. Esempi 3.3. Equilibri approssimati 4. Giochi a somma nulla e teoria del minimax 4.1. Alcuni teoremi di minimax 5. Giochi cooperativi 5.1. Valore di Shapley 5.2. Esempi 6. Cenni sui giochi dinamici 6.1. Esempi Riferimenti bibliografici Versione del 16 aprile 2015 1 2 6 7 8 12 14 17 19 20 23 26 28 31 35 41 44 46 51 54 2 A. IANNIZZOTTO 1. Introduzione: giochi, soluzioni ed equilibri Chi in cento battaglie riporta cento vittorie, non è il più abile in assoluto; al contrario, chi non dà nemmeno battaglia, e sottomette le truppe dell’avversario, è il più abile in assoluto. Sun Tzu I primi matematici ad affrontare teoricamente il problema dei giochi furono Zermelo [37] e Borel [3], con particolare enfasi sugli aspetti logici e probabilistici. Tuttavia, il maggior contributo verso la formalizzazione di una teoria matematica dei giochi è dovuto a Von Neumann [36]. La moderna teoria dei giochi rappresenta un tentativo di descrivere le interazioni sociali (specialmente in campo economico) tra soggetti che, in competizione tra loro, effettuano decisioni razionali cercando di ottenere il massimo vantaggio. Lo studio ha finalità predittive: determinare, se possibile, la soluzione o le situazioni di equilibrio di un’interazione prima che essa abbia luogo. Per elaborare un modello di queste interazioni si ricorre al concetto di gioco, che può avere diverse caratteristiche (statico, dinamico, non-cooperativo, cooperativo etc.): questo modello risulta efficace in quanto permette di trascurare tutti gli gli aspetti dell’interazione non attinenti alla strategia. La teoria è stata applicata con successo, oltre che nelle scienze sociali, anche in biologia (evoluzione di popolazioni di microorganismi), elettronica, scienze militari, psicologia e filosofia morale (teoria della scelta razionale). Per un’ampia trattazione della materia rimandiamo alle monografie di Aubin [1], Burger [6], Colombo [10], Gibbons [14], McKinsey [23], Morgenstern [27], Morgenstern & von Neumann [28], e alla raccolta di saggi di Kuhn & Tucker [22]. Per i collegamenti con l’analisi moderna, rimandiamo a Rossi [32]. Dal punto di vista teorico, la teoria dei giochi costituisce un interessante crocevia di branche mutuamente indipendenti della matematica quali la topologia, l’analisi multivoca, il calcolo delle probabilità e la teoria dei grafi. Introduciamo brevemente le definizioni-assiomi della teoria: Definizione 1.1. Un gioco è un’interazione tra due o più decisori razionali e intelligenti, detti giocatori. Un decisore è detto (i) razionale se dispone di una preferenza sull’insieme degli esiti (vedi Definizione 1.2); (ii) intelligente se persegue senza commettere errori la massima soddisfazione. Un gioco statico rappresenta una situazione in cui tutti i giocatori effettuano le loro scelte nello stesso momento, mentre in un gioco dinamico i giocatori scelgono secondo un certo ordine temporale, adattando la strategia alle mosse degli altri giocatori. In un gioco deterministico i giocatori scelgono in condizioni di certezza, ovvero sanno che un determinato insieme di strategie conduce invariabilmente a un certo esito, mentre in un gioco stocastico, dato un insieme di strategie, vi sono diversi esiti ciascuno con la sua probabilità. In un gioco non-cooperativo i giocatori non possono stringere accordi vincolanti tra loro, mentre in un gioco cooperativo possono. Un gioco statico deterministico non-cooperativo tra un TEORIA DEI GIOCHI 3 insieme finito di giocatori P1 , . . . Pn (n > 2) è rappresentato da un complesso (1.1) Γ = (X1 , . . . Xn , E, h), dove Xi è l’insieme delle strategie del giocatore Pi , E è l’insieme degli esiti e h : Πni=1 Xi → E è la funzione che associa a ogni n-upla di strategie l’esito corrispondente. Per compiere le proprie scelte, i giocatori hanno bisogno di un criterio: Definizione 1.2. Una preferenza è una relazione binaria su un insieme E con le seguenti proprietà: (i) e e per ogni e ∈ E (riflessiva); (ii) se e1 e2 e e2 e3 allora e1 e3 per ogni e1 , e2 , e3 ∈ E (transitiva); (iii) e1 e2 o e2 e1 per ogni e1 , e2 ∈ E (completa); (iv) se E è uno spazio topologico, allora l’insieme {e ∈ E : e ē} è chiuso per ogni ē ∈ E (continua). Se e1 e2 e non e2 e1 , si scrive e1 ≺ e2 . Se e1 e2 e e2 e1 , allora e1 , e2 sono detti equivalenti (e1 ∼ e2 ). Osservazione 1.3. Una preferenza non è un ordinamento: manca la proprietà antisimmetrica! L’ipotesi di razionalità implica che il giocatore Pi dispone di una preferenza i su E. In molti casi (come nelle scommesse), tale preferenza può essere quantificata. Definizione 1.4. Un’utilità è una funzione u : E → R con le seguenti proprietà: (i) per ogni e1 , e2 ∈ E, se e1 e2 , allora u(e1 ) 6 u(e2 ); (ii) per ogni e1 , e2 ∈ E, se e1 ≺ e2 , allora u(e1 ) < u(e2 ). L’esistenza di una funzione di utilità non è ovvia. Vale in merito il Teorema di Rappresentazione (Kreps [21]): Teorema 1.5. Siano E un insieme non vuoto e una preferenza su E: (i) se |E| 6 ℵ0 , allora esiste un’utilità u : E → R; (ii) se |E| 6 2ℵ0 , E è uno spazio topologico e è continua, allora esiste un’utilità u : E → R continua. Assumeremo sempre l’esistenza di un’utilità per ogni giocatore. Dunque il complesso (1.1) si riformula come (1.2) Γ = (X1 , . . . Xn , f1 , . . . fn ), dove fi = ui ◦ h : Πni=1 Xi → R è detta pay-off del giocatore Pi . Nel caso n = 2, usualmente denoteremo P , Q i giocatori e Γ = (X, Y, f, g) e rappresenteremo i possibili risultati del gioco in una (bi)matrice. Questa rappresentazione è detta in forma strategica. Esempio 1.6. Il gioco del pari o dispari prevede due giocatori P (che vince se la somma è pari), Q (che vince se la somma è dispari) con lo stesso insieme di strategie X = Y = {p, d} e due esiti E = {vince P , vince Q}. Ovviamente ogni giocatore preferisce vincere, ergo 4 A. IANNIZZOTTO attribuisce utilità 1 alla vittoria e −1 alla sconfitta. Il gioco è rappresentato dalla tabella simmetrica: P \Q p d p (1, −1) (−1, 1) d (−1, 1) (1, −1) Esempio 1.7. Il gioco della morra cinese (o carta, pietra e forbice) prevede due giocatori P , Q con lo stesso insieme di strategie X = Y = {c, p, f } e tre esiti E = {vince P , vince Q, pareggio}. Per ogni giocatore, la vittoria vale 1, il pareggio 0 e la sconfitta −1. Il gioco è rappresentato dalla tabella simmetrica: P \Q c p f c (0, 0) (−1, 1) (1, −1) p f (1, −1) (−1, 1) (0, 0) (1, −1) (−1, 1) (0, 0) In casi semplici, possiamo risolvere un gioco (ovvero, determinare come andranno effettivamente le cose) usando la tabella dei pay-off mediante il metodo delle eliminazioni iterate. In particolare, se P e Q hanno strategie fortemente dominanti x e y, la soluzione del gioco sarà (x, y). Definizione 1.8. Nel gioco (1.2), siano xi , yi ∈ Xi due strategie. Si dice che (i) xi domina fortemente yi se fi (z1 , . . . xi , . . . zn ) > fi (z1 , . . . yi , . . . zn ) per ogni (z1 , . . . zn ) ∈ Πj6=i Xj ; (ii) xi domina strettamente yi se fi (z1 , . . . xi , . . . zn ) > fi (z1 , . . . yi , . . . zn ) per ogni (z1 , . . . zn ) ∈ Πj6=i Xj ed esiste (z̄1 , . . . z̄n ) ∈ Πj6=i Xj t.c. fi (z̄1 , . . . xi , . . . z̄n ) > fi (z̄1 , . . . yi , . . . z̄n ); (iii) xi domina debolmente yi se fi (z1 , . . . xi , . . . zn ) > fi (z1 , . . . yi , . . . zn ) per ogni (z1 , . . . zn ) ∈ Πj6=i Xj . Inoltre, xi è detta fortemente (strettamente, debolmente) dominante se domina fortemente (strettamente, debolmente) ogni altra strategia di Xi . Nei giochi considerati negli Esempi 1.6, 1.7 nessun giocatore ha strategie dominanti. Seguono alcuni esempi di soluzione per eliminazioni iterate per giochi con due giocatori: Esempio 1.9. Consideriamo il seguente gioco: P \Q y1 y2 x1 (1, 2) (0, 1) x2 (0, 2) (2, 1) Sia P il primo a giocare: egli osserva che y1 è per Q una strategia fortemente dominante, quindi sceglie x1 (che gli permette la massima utilità). La soluzione del gioco è pertanto (x1 , y1 ). La stessa soluzione è raggiunta se Q gioca per primo. TEORIA DEI GIOCHI 5 Esempio 1.10. Consideriamo il seguente gioco: P \Q x1 x2 x3 y1 (3, 3) (0, 2) (1, 2) y2 (2, 2) (1, 1) (0, 1) Sia P il primo a giocare: egli osserva che y2 è fortemente dominata da y1 , dunque sceglie x1 ; la soluzione è (x1 , y1 ). Se Q gioca per primo si perviene alla stessa soluzione. Esempio 1.11. Consideriamo il seguente gioco: P \Q x1 x2 x3 y1 (3, 5) (3, 0) (0, 2) y2 (2, 5) (0, 2) (2, 0) Osserviamo che in questo gioco non esistono strategie fortemente dominanti. Sia P il primo a giocare: x1 domina strettamente x2 e x3 ; se P elimina x2 , osserva che nel nuovo gioco (ridotto) y1 domina strettamente y2 , dunque sceglie x1 e la soluzione è (x1 , y1 ); se invece elimina x3 , un ragionamento analogo porta alla soluzione (x1 , y2 ). Se Q gioca per primo si perviene alle stesse soluzioni. Per risolvere queste ambiguità si introduce un concetto di equilibrio dovuto a Nash [29]: Definizione 1.12. Nel gioco (1.2), la n-upla (x1 , . . . xn ) ∈ Πni=1 Xi è un equilibrio di Nash se per ogni i ∈ {1, . . . n} si ha fi (x1 , . . . xn ) > fi (x1 , . . . yi , . . . xn ) per ogni yi ∈ Xi . L’insieme degli equilibri di Nash di Γ si denota Ne(Γ). Nella tabella dei pay-off, un equilibrio di Nash corrisponde a una casella in cui la prima componente è massima tra quelle della stessa colonna e la seconda è massima tra quelle della stessa riga. I giochi degli Esempi 1.6, 1.7 non presentano equilibri di Nash. L’unico equilibrio di Nash nell’Esempio 1.9 è (x1 , y1 ), nell’Esempio 1.10 è (x1 , y1 ). Nell’Esempio 1.11 ve ne sono due: (x1 , y1 ) e (x1 , y2 ). Ne deduciamo che • un gioco può non avere alcun equilibrio di Nash; • un gioco può avere più di un equilibrio di Nash; • una strategia fortemente dominata non può essere componente di un equilibrio di Nash; • una strategia debolmente dominata può essere componente di un equilibrio di Nash. Dunque, la risoluzione di un gioco per eliminazione delle strategie fortemente dominate preserva gli equilibri di Nash (se ve ne sono), mentre la risoluzione per eliminazione delle strategie debolmente dominate può sopprimerne alcuni. Esempio 1.13. Nel gioco noto come battaglia dei sessi, una coppia deve decidere se andare allo stadio (s) o a teatro (t); l’uomo (P ) preferisce andare allo stadio in compagnia che 6 A. IANNIZZOTTO a teatro in compagnia, ma questo è pur sempre meglio che andare allo stadio da solo; la donna (Q) ha preferenze analoghe. Il gioco è rappresentato dalla seguente tabella: P \Q s t s (10, 5) (0, 0) t (0, 0) (5, 10) Dunque gli equilibri di Nash sono (s, s) e (t, t) (l’esperienza insegna, tuttavia, che la coppia andrà a teatro). Altri equilibri si possono determinare cambiando paradigma, cioè consentendo a ciascun giocatore di ripartire la sua scelta tra le varie strategie (come uno speculatore che investe parti del suo capitale su diversi titoli, variando gli investimenti secondo le sue aspettative): questa è la teoria delle strategie miste, su cui torneremo in seguito. Il problema dell’esistenza (e, in subordine, dell’unicità) dell’equilibrio di Nash richiede, per essere risolto, un armamentario matematico alquanto avanzato, che presenteremo nella sua forma più generale. 1.1. Notazioni. Introduciamo qui alcuni simboli e notazioni che saranno usati nel seguito: Sotto- e sopralivelli: se X è un insieme e f : X → R, denotiamo c f c = {x ∈ X : f (x) < c}, f = {x ∈ X : f (x) 6 c}, fc = {x ∈ X : f (x) > c}, f c = {x ∈ X : f (x) > c}. Spazi topologici: in uno spazio topologico (X, τ ), denotiamo σ la famiglia dei chiusi; per ogni A ⊆ X denotiamo int(A) l’interno, cl(A) la chiusura, ∂A la frontiera di A, rispettivamente, e τA la topologia indotta da τ su A; per ogni x ∈ X denotiamo U(x) la famiglia degli intorni di x Spazi metrici: in uno spazio metrico (X, d) denotiamo per ogni x ∈ X, S, T ⊆ X d(x, S) = inf{d(x, y) : y ∈ S}, d(S, T ) = inf{d(x, y) : x ∈ S, y ∈ T }, n o dH (S, T ) = max sup d(x, T ), sup d(y, S) , x∈S y∈T e per ogni r > 0 Br (S) = {x ∈ X : d(x, S) < r}. Spazi vettoriali: in uno spazio vettoriale X, per ogni S ⊆ X denotiamo n o nX span(S) = λi xi : n ∈ N, λ1 , . . . λn ∈ R, x1 , . . . xn ∈ S , i=1 aff(S) = n nX i=1 conv(S) = n nX i=1 λi xi : n ∈ N, λ1 , . . . λn ∈ R, n X o λi = 1, x1 , . . . xn ∈ S , i=1 λi xi : n ∈ N, λ1 , . . . λn ∈ [0, 1], n X i=1 o λi = 1, x1 , . . . xn ∈ S . TEORIA DEI GIOCHI 7 Spazi vettoriali-topologici: in uno spazio vettoriale-topologico (X, τ ), denotiamo X ∗ il duale topologico di X, per ogni S ⊆ X denotiamo cc(S) = cl conv(S) . 2. Multifunzioni Who needs set-valued analysis? J.P. Aubin & H. Frankowska L’analisi multivoca estende la tradizionale analisi matematica al caso in cui i valori delle funzioni non sono singoli elementi di un insieme bensı̀ suoi sottoinsiemi: questa scelta corrisponde all’esigenza di studiare con i mezzi dell’analisi matematica fenomeni caratterizzati da un alto grado di incertezza (come nella teoria dei controlli). Un altro contesto in cui le multifunzioni risultano utili è lo studio di problemi differenziali con discontinuità (ved. Chang [8] e Filippov [13]), con applicazioni in meccanica. In questa sezione introduciamo le definizioni di base dell’analisi multivoca e alcuni teoremi di selezione e di punto fisso. Per approfondimenti rimandiamo ai testi di Aubin & Frankowska [2] e di Krein & Thompson [20]. Definizione 2.1. Siano X, Y insiemi non vuoti. Una multifunzione F : X → 2Y è una funzione i cui valori sono sottoinsiemi di Y . Si denota dom(F ) = {x ∈ X : F (x) 6= ∅}, F (S) = ∪x∈S F (x) per ogni S ⊆ X, F − (T ) = {x ∈ X : F (x) ∩ T 6= ∅}, F + (T ) = {x ∈ X : F (x) ⊆ T } per ogni T ∈ 2Y , gr(F ) = {(x, y) ∈ X × Y : y ∈ F (x)}. La multifunzione inversa IF : Y → 2Y è definita per ogni y ∈ Y da IF (y) = {x ∈ X : y ∈ F (x)}. Osservazione 2.2. Il concetto di multifunzione è, a rigore, identico a quello di relazione binaria. A differenza da quanto avviene per le funzioni (univoche), ogni sottoinsieme di X ×Y è il grafico di una multifunzione. Spesso, tuttavia, si restringe lo studio alle multifunzioni a valori non vuoti (dom(F ) = X). Alcune proprietà insiemistiche delle multifunzioni: Lemma 2.3. Se F : X → 2Y è una multifunzione, allora: (i) (ii) (iii) (iv) (v) F − (T ) = X \ F + (Y \ T ) per ogni T ∈ 2Y ; F + (T ) = X \ F − (Y \ T ) per ogni T ∈ 2Y ; F − (∪i∈I Ti ) = ∪i∈I F − (Ti ) per ogni (Ti )i∈I ⊆ 2Y ; F + (∩i∈I Ti ) = ∩i∈I F − (Ti ) per ogni (Ti )i∈I ⊆ 2Y ; IF (y) = F − ({y}) per ogni y ∈ Y . 8 A. IANNIZZOTTO 2.1. Multifunzioni fra spazi topologici. Per le multifunzioni fra spazi topologici la nozione di continuità ha diverse possibili estensioni: Definizione 2.4. Siano (X, τX ), (Y, τY ) spazi topologici, x ∈ X, F : X → 2Y . (i) F è semi-continua inferiormente (s.c.i.) in x se per ogni A ∈ τX t.c. F (x) ∩ A 6= ∅ esiste U ∈ UX (x) t.c. F (z) ∩ A 6= ∅ per ogni z ∈ U ; (ii) F è semi-continua superiormente (s.c.s.) in x se per ogni A ∈ τX t.c. F (x) ⊆ A esiste U ∈ UX (x) t.c. F (z) ⊆ A per ogni z ∈ U ; (iii) F è semi-continua in x se per ogni A ∈ τX t.c. F (x) ⊆ A esiste U ∈ UX (x) t.c. F (z) ∩ A 6= ∅ per ogni z ∈ U ; (iv) F è continua in x se è s.c.i. e s.c.s. in x; (v) F è s.c.i. (s.c.s., semi-continua, continua) in X se è s.c.i. (s.c.s., semi-continua, continua) in ogni punto di X; (vi) F è aperta se F (A) ∈ τY per ogni A ∈ τX ; (vii) F è chiusa se F (C) ∈ σY per ogni C ∈ σX . Caratterizzazioni della semi-continuità inferiore: Lemma 2.5. Se (X, τX ), (Y, τY ) sono spazi topologici, F : X → 2Y , allora le seguenti sono equivalenti: (i) F è s.c.i.; (ii) F − (A) ∈ τX per ogni A ∈ τY ; (iii) F + (C) ∈ σX per ogni C ∈ σY ; (iv) IF è aperta. Caratterizzazioni della semi-continuità superiore: Lemma 2.6. Se (X, τX ), (Y, τY ) sono spazi topologici, F : X → 2Y , allora le seguenti sono equivalenti: (i) F è s.c.s.; (ii) F + (A) ∈ τX per ogni A ∈ τY ; (iii) F − (C) ∈ σX per ogni C ∈ σY ; (iv) IF è chiusa. Tutte le nozioni di continuità introdotte per le multifunzioni sono equivalenti all’usuale continuità nel caso univoco. Un caso speciale è quello delle multifunzioni i cui valori sono intervalli reali: Lemma 2.7. Se (X, τ ) è uno spazio topologico, a, b : X → R sono funzioni t.c. a(x) 6 b(x) per ogni x ∈ X e F : X → 2R è definita da F (x) = [a(x), b(x)] per ogni x ∈ X, allora le seguenti sono equivalenti: (i) F è s.c.i.; (ii) a è s.c.s. e b è s.c.i. Dimostrazione. Dimostriamo solo che (ii) implica (i). Siano x ∈ X t.c. a(x) < b(x) (per evitare casi banali) e A ⊂ R aperto t.c. F (x) ∩ A 6= ∅. Allora esiste y ∈ A t.c. TEORIA DEI GIOCHI 9 a(x) < y < b(x). Poiché a è s.c.s. e b è s.c.i. abbiamo ay , by ∈ τ e x ∈ ay ∩ by . Dunque esiste U ∈ U(x) t.c. U ⊆ ay ∩ by . Abbiamo infine y ∈ F (z) per ogni z ∈ U . Analogamente: Lemma 2.8. Se (X, τ ) è uno spazio topologico, a, b : X → R sono funzioni t.c. a(x) 6 b(x) per ogni x ∈ X e F : X → 2R è definita da F (x) = [a(x), b(x)] per ogni x ∈ X, allora le seguenti sono equivalenti: (i) F è s.c.s.; (ii) a è s.c.i. e b è s.c.s. Alcuni esempi illustrano le differenze tra le varie nozioni di contenutià: Esempio 2.9. La multifunzione F : R → 2R definita da {0} se x < 0 F (x) = [0, 1] se x = 0 {1} se x > 0. è s.c.s. ma non s.c.i. Esempio 2.10. La multifunzione F : R → 2R definita da [0, 1] se x < 0 F (x) = {1/2} se x = 0 [0, 1] se x > 0. è s.c.i. ma non s.c.s. Esempio 2.11. Sia g : R → R convessa. È definito per ogni x ∈ R il sub-differenziale ∂g(x) = {y ∈ R : y(v − x) 6 g(v) − g(x) per ogni v ∈ R}. La multifunzione ∂g : R → 2R è s.c.s. La semi-continuità è a nozione più debole: Lemma 2.12. Se (X, τX ), (Y, τY ) sono spazi topologici, F : X → 2Y è s.c.i. o s.c.s. e dom(F ) = X, allora F è semi-continua. La semi-continuità superiore è legata alla chiusura e alla compattezza degli insiemi. Lemma 2.13. Se (X, τX ) è uno spazio topologico, (Y, τY ) è uno spazio normale, F : X → 2Y è s.c.s. a valori chiusi, allora gr(F ) ⊆ X × Y è chiuso. Dimostrazione. Proviamo che A = (X × Y ) \ gr(F ) è aperto. Per ogni (x, y) ∈ A, esistono V, W ∈ τY t.c. y ∈ V , F (x) ⊆ W e V ∩ W = ∅. Poiché F è s.c.s. esiste U ∈ UX (x) t.c. F (U ) ⊆ W . Dunque U × V ∈ U(x, y) e U × V ⊆ A. L’implicazione non si inverte, fuorché in casi particolari: Lemma 2.14. Se (X, τX ) è uno spazio topologico, (Y, τY ) è uno spazio compatto e F : X → 2Y ha grafico chiuso, allora F è s.c.s. 10 A. IANNIZZOTTO Estensione del Teorema di Weierstraß: Teorema 2.15. Se (X, τX ) è uno spazio compatto, (Y, τY ) uno spazio topologico, F : X → 2X s.c.s. a valori compatti, allora F (X) è compatto. Dimostrazione. Sia (Ai )i∈I una famiglia di aperti in Y t.c. F (X) ⊆ ∪i∈I Ai . Per ogni x ∈ X esiste Jx ⊆ I finito t.c. F (x) ⊆ ∪i∈Jx Ai . Posto J = ∪x∈X Jx , la famiglia (F + (Ai ))i∈J è un ricoprimento aperto di X, dunque esiste H ⊆ J finito t.c. X = ∪i∈H F + (Ai ), da cui F (X) ⊆ ∪i∈H Ai . Perciò, F (X) è compatto. Soffermiamoci sul caso particolare delle multifunzioni fra spazi metrici: Definizione 2.16. Siano (X, dX ), (Y, dY ) spazi metrici, dYH denoti la distanza di Hausdorff su Y , F : X → 2Y : F è lipschitziana se esiste L > 0 t.c. dYH (F (x), F (z)) 6 LdX (x, z) per ogni x, z ∈ X. Se L = 1, F è detta non-espansiva. Se L < 1, F è detta contrazione multivoca. Lemma 2.17. Se (X, dX ), (Y, dY ) sono spazi metrici e F : X → 2Y è lipschitziana, allora F è s.c.i. Dimostrazione. Siano L > 0 una costante di Lipschitz per F , A ⊆ Y aperto, x ∈ F − (A). Esistono y ∈ F (x) ∩ A e r > 0 t.c. BrY (y) ⊆ A. Dunque, posto δ = r/L, per ogni z ∈ BδX (x) ho dYH (F (z), F (x)) 6 LdX (x, z) < r, da cui dY (y, F (z)) < r, che implica F (z) ∩ A 6= ∅. Pertanto, BδX (x) ⊆ F − (A) e F risulta s.c.i. (Lemma 2.5). Estensione del Teorema di Darboux: Teorema 2.18. Se (X, τX ) è uno spazio connesso, (Y, τY ) uno spazio topologico, F : X → 2X semi-continua a valori non vuoti e connessi, allora F (X) è connesso. Dimostrazione. Procediamo per assurdo: siano A, B ∈ τY t.c. F (X) ⊆ A∪B, F (X)∩A 6= ∅, F (X) ∩ B 6= ∅ e F (X) ∩ A ∩ B = ∅. Gli insiemi F − (A), F − (B) sono non vuoti e aperti in X: infatti, per ogni x ∈ F − (A) si ha in effetti F (x) ⊆ A, quindi esiste U ∈ UX (x) t.c. F (z) ⊆ A per ogni z ∈ U , da cui U ⊆ F − (A) (similmente si prova che F − (B) è aperto). Inoltre F − (A) ∪ F − (B) = X, F − (A) ∩ F − (B) = ∅, contro l’ipotesi che X è connesso. In vista delle applicazioni, definiamo il prodotto cartesiano di multifunzioni: Definizione 2.19. Siano X, Y , Z insiemi non vuoti, F : X → 2Y , G : X → 2Z : il prodotto cartesiano di F e G è la multifunzione F × G : X → 2Y ×Z definita per ogni x ∈ X da (F × G)(x) = F (x) × G(x). Lemma 2.20. Se (X, τX ), (Y, τY ), (Z, τZ ) sono spazi topologici e F : X → 2Y , G : X → 2Z , allora: (i) se F , G sono s.c.i., F × G è s.c.i.; (ii) se F , G sono s.c.s. a valori compatti, F × G è s.c.s.; TEORIA DEI GIOCHI 11 (iii) se F , G sono semi-continue a valori compatti, F × G è semi-continua. Dimostrazione. Dimostriamo solo (i): siano (Ai )i∈I , (Bi )i∈I sottofamiglie di τY , τZ rispettivamente. Si ha (F × G)− (∪i∈I Ai × Bi ) = ∪i∈I F − (Ai ) ∩ G− (Bi ) , e il secondo insieme è aperto. Dalla Definizione 2.19 segue che F × G è s.c.i. Una funzione (univoca) continua, definita su un connesso, ha grafico connesso. Questo principio si estende alle multifunzioni, e inaugura una serie di risultati che legano multifunzioni e connessione: Teorema 2.21. Se (X, τX ) è uno spazio connesso, (Y, τY ) uno spazio topologico, F : X → 2Y s.c.i. a valori non vuoti e connessi, allora gr(F ) è connesso. Dimostrazione. Segue dal Lemma 2.20 e dal Teorema 2.18, una volta osservato che gr(F ) = (idX × F )(X). Un’applicazione: Lemma 2.22. Se (X, τX ), (Y, τY ) sono spazi topologici, S ⊆ X × Y e una delle seguenti condizioni è verificata: (i) X è connesso, Sx 6= ∅ è connesso per ogni x ∈ X, S y è aperto per ogni y ∈ Y ; (ii) Y è connesso, S y 6= ∅ è connesso per ogni y ∈ Y , Sx è aperto per ogni x ∈ X, allora S è connesso. Dimostrazione. Sia verificata (i): definiamo F : X → 2Y ponendo F (x) = Sx per ogni x ∈ X. Allora F ha valori non vuoti e connessi. Inoltre, per ogni A ∈ τY l’insieme F − (A) = {x ∈ X : (x, y) ∈ S per qualche y ∈ A} = ∪y∈A S y , è aperto, quindi F è s.c.i. La tesi segue dalla Proposizione 2.21, poiché gr(F ) = S. Un lemma di stabilità che sarà utile in seguito: Lemma 2.23. Se (X, τ ) è uno spazio topologico, (Y, d) uno spazio metrico, F, G : X → 2Y s.c.i. a valori non vuoti, r ∈ R+ 0 e Br (G(x)) = {y ∈ Y : d(y, G(x)) < r} per ogni x ∈ X, allora la multifunzione H : X → 2Y definita da H(x) = F (x) ∩ Br (G(x)) per ogni x ∈ X è s.c.i. Dimostrazione. Sia A ⊆ Y aperto. L’insieme à = {(y, z) ∈ Y × Y : y ∈ A, d(y, z) < r} è aperto in Y × Y . Ho (2.1) H − (A) = (F × G)− (Ã). Infatti, per ogni x ∈ H − (A) esiste y ∈ F (x) ∩ A t.c. d(y, G(x)) < r, quindi esiste z ∈ G(x) t.c. d(y, z) < r. Allora (y, z) ∈ (F (x) × G(x)) ∩ à cosı̀ che x ∈ (F × G)− (Ã). E viceversa. 12 A. IANNIZZOTTO Per la Proposizione 2.20, la multifunzione F × G è s.c.i., dunque (F × G)− (Ã) è aperto in X (Proposizione 2.5). Da (2.1) segue la tesi. 2.2. Selezioni continue. Il legame tra analisi multivoca e univoca è dato dalla seguente nozione: Definizione 2.24. Siano X, Y insiemi non vuoti, F : X → 2Y , f : X → Y : f è una selezione di F se f (x) ∈ F (x) per ogni x ∈ X. Ovviamente ogni multifunzione a valori non vuoti ammette selezioni. Tuttavia, queste possono in generale essere irregolari: la multifunzione dell’Esempio 2.9 non ha alcuna selezione continua. Si deve a Michael [24–26] il principale risultato di esistenza di selezioni continue per una multifunzione. Questo richiede alcune premesse topologiche: Definizione 2.25. Sia (X, τ ) uno spazio di Hausdorff. Esso è detto paracompatto se ogni ricoprimento aperto A di X ammette un raffinamento localmente finito, ovvero un altro ricoprimento aperto B di X con le seguenti proprieà (i) per ogni A ∈ A esiste B ∈ B t.c. B ⊆ A; (ii) per ogni x ∈ X esistono U ∈ U(x), Bx ⊆ B finita t.c. U ∩B = ∅ per ogni B ∈ B \Bx . Ogni spazio paracompatto è normale (T4 ). Ogni spazio metrico è paracompatto. Si ha inoltre il seguente teorema (di partizione dell’unità): Teorema 2.26. Se (X, τ ) è uno spazio normale e {Ai }i∈I è un ricoprimento aperto localmente finito di X, allora esistono una famiglia {ϕi }i∈I di funzioni continue ϕi : X → [0, 1] e una famiglia {Ci }i∈I di chiusi t.c. (i) Ci ⊆ Ai per ogni i ∈ I; (ii) ϕ Pi (x) = 0 per ogni x ∈ X \ Ci , i ∈ I; (iii) i∈I ϕi (x) = 1 per ogni x ∈ X. In particolare, se (X, τ ) è uno spazio paracompatto e (Ai )i∈I è un ricoprimento aperto di X, allora esiste una partizione continua dell’unità (ϕi )i∈I subordinata ad (Ai )i∈I (su questa parte, si veda Checcucci, Tognoli & Vesentini [9, p. 157 e p. 223]). Un lemma preparatorio: Lemma 2.27. Se (X, τ ) è uno spazio topologico paracompatto, (Y, k · k) uno spazio normato, F : X → 2Y s.c.i. a valori non vuoti e convessi, allora per ogni ε > 0 esiste fε : X → Y continua t.c. d(fε (x), F (x)) < ε per ogni x ∈ X. Dimostrazione. Per ogni y ∈ Y sia Ay = F − (Bε (y)). La famiglia (Ay )y∈Y è un ricoprimento aperto di X, che ammette un raffinamento localmente finito (Ey )y∈Y (Definizione 2.25), cui è subordinata una partizione continua dell’unità (ϕy )y∈Y (Teorema 2.26). Per ogni x ∈ X poniamo X fε (x) = ϕy (x)y. y∈Y TEORIA DEI GIOCHI 13 È definita una funzione fε : X → Y . Proviamo che fε è continua: per ogni x ∈ X esistono U ∈ U(x), y1 , . . . yn ∈ Y t.c. U ∩ Ey = ∅ per ogni y ∈ Y \ {yi }ni=1 ; dunque, per ogni z ∈ U abbiamo n X fε (z) = ϕyi (z)yi , i=1 dunque fε è continua in x. Proviamo infine la formula metrica: procedendo come sopra, assumiamo che per ogni i ∈ {1, . . . n} sia ϕyi (x) > 0, da cui x ∈ Ayi ; pertanto esiste wi ∈ F (x) t.c. kwi − yi k < ε; sia n X w= ϕyi (x)wi , i=1 allora (per convessità di F (x)) abbiamo w ∈ F (x) e anche n X kfε (x) − wk 6 ϕyi (x)kwi − yi k < ε, i=1 da cui d(fε (x), F (x)) < ε. Il teorema di Michael: Teorema 2.28. Se (X, τ ) è uno spazio topologico paracompatto, (Y, k · k) uno spazio di Banach, F : X → 2Y s.c.i. a valori non vuoti, chiusi e convessi, allora F ammette una selezione continua. Dimostrazione. Costruiamo una successione (fn ) di funzioni fn : X → Y continue t.c. per ogni x ∈ X, n ∈ N 1 1 (2.2) d(fn (x), F (x)) < n , d(fn (x), fn+1 (x)) < n−1 . 2 2 Procediamo per induzione. Per n = 1, dalla Proposizione 2.27 segue l’esistenza di f1 : X → Y continua t.c. d(f1 (x), F (x)) < 1/2 per ogni x ∈ X, n ∈ N. Fissato n ∈ N0 , se esistono f1 , . . . fn verificanti (2.2), definiamo Fn : X → 2Y ponendo per ogni x ∈ X Fn (x) = F (x) ∩ B1/2n (fn (x)), cosı̀ che Fn è s.c.i. (Proposizione 2.23) e ha valori non vuoti (per (2.2)) e convessi. Per la Proposizione 2.27 esiste fn+1 : X → Y continua t.c. per ogni x ∈ X 1 d(fn+1 (x), Fn (x)) < n+1 . 2 In particolare, per ogni x ∈ X esiste yx ∈ Fn (x) t.c. kfn+1 (x) − yx k < 1/2n+1 , da cui 1 1 1 kfn+1 (x) − fn (x)k 6 kfn+1 (x) − yx k + kyx − fn (x)k < n + n+1 < n−1 . 2 2 2 Dunque fn+1 verifica (2.2). La successione (fn ) è di Cauchy uniformemente in X: per completezza di Y , si ha fn → f uniformemente in X per qualche f : X → Y continua, per la quale si ha da (2.2) d(f (x), F (x)) = 0 per ogni x ∈ X. 14 A. IANNIZZOTTO Poiché F ha valori chiusi, f è una selezione continua di F . Una conseguenza importante è il seguente teorema di estensione-selezione: Teorema 2.29. Se (X, τ ) è uno spazio topologico paracompatto, (Y, k · k) uno spazio di Banach, F : X → 2Y s.c.i. a valori non vuoti, chiusi e convessi, C ⊆ X chiuso, g : C → Y continua t.c. g(x) ∈ F (x) per ogni x ∈ C, allora F ammette una selezione continua f : X → Y t.c. f |C = g. Dimostrazione. Sia F̃ : X → 2Y definita ponendo per ogni x ∈ X ( {g(x)} se x ∈ C F̃ (x) = F (x) se x ∈ / C. Proviamo che F̃ è s.c.i. Per ogni A ⊆ Y aperto e ogni x ∈ F̃ − (A), possono darsi due casi: (a) se x ∈ C, allora g(x) ∈ A, quindi esiste U ∈ U(x) t.c. g(z) ∈ A per ogni z ∈ U ∩ C; inoltre F (x) ∩ A = 6 ∅, quindi esiste V ∈ U(x) t.c. F (z) ∩ A 6= ∅ per ogni x ∈ V ; posto W = U ∩ V , abbiamo W ∈ U(x) e F̃ (z) ∩ A 6= ∅ per ogni z ∈ W ; (b) se x ∈ / C, esiste U ∈ U(x) t.c. F̃ (z) ∩ A = F (z) ∩ A 6= ∅ per ogni z ∈ U . Inoltre, F̃ ha valori chiusi e convessi. Per il Teorema 2.28, F̃ ha una selezione continua f : X → Y , e ovviamente f (x) = g(x) per ogni x ∈ C. Di seguito presentiamo alcune applicazioni del Teorema 2.28. La prima è un teorema di estensione continua per funzioni definite su insiemi chiusi (che generalizza, in un certo senso, il Teorema di Tietze): Corollario 2.30. Se (X, τ ) è uno spazio topologico paracompatto, (Y, k · k) è uno spazio di Banach, C ⊂ X è non vuoto e chiuso, g : C → Y è continua, allora esiste f : X → Y continua t.c. f (x) = g(x) per ogni x ∈ C. Dimostrazione. Applichiamo il Teorema 2.29 alla multifunzione costante F (x) = Y per ogni x ∈ X. La seconda è un teorema di esistenza di un’inversa continua per operatori lineari continui (che trova applicazione nella teoria delle equazioni differenziali lineari): Corollario 2.31. Se (X, k·kX ), (Y, k·kY ) sono spazi di Banach e ϕ ∈ hom(Y, X) è continuo e suriettivo, allora esiste f : X → Y continua t.c. ϕ ◦ f = idX . Dimostrazione. Applichiamo il Teorema 2.29 alla multifunzione F = ϕ−1 , che ha valori non vuoti, chiusi e convessi per le ipotesi su ϕ ed è s.c.i. perché ϕ è aperta (ved. Proposizione 2.5), come segue dal teorema della mappa aperta (si veda Rudin [33, p. 47]). 2.3. Punti fissi. Nella teoria dei punti fissi per applicazioni univoche, si distinguono due famiglie di risultati: i teoremi ’metrici’ di punto fisso dovuti a Banach, Caccioppoli, e quelli ’algebrico-topologici’ dovuti a Brouwer, Schauder, Cauty (si veda Granas & Dugundji [16]). Anche il caso multivoco rispecchia questa distinzione. TEORIA DEI GIOCHI 15 Definizione 2.32. Siano X un insieme non vuoto, F : X → 2X , x ∈ X: x è un punto fisso di F se x ∈ F (x). L’insieme dei punti fissi di F è denotato fix(F ). Il teorema di Nadler estende il teorema di Banach & Caccioppoli rispetto all’esistenza di punti fissi, ma si perde l’unicità: Teorema 2.33. Se (X, d) è uno spazio metrico completo e F : X → 2X una contrazione multivoca a valori chiusi, allora fix(F ) 6= ∅. Dimostrazione. Siano L ∈ (0, 1) una costante di Lipschitz per F , β > 1 un numero reale e x0 ∈ X. Scartando casi banali, supponiamo x0 ∈ / F (x0 ), da cui d(x0 , F (x: 0)) > 0. Costruiamo una successione (xn ) in X t.c. (2.3) xn ∈ F (xn−1 ), d(xn−1 , xn ) < βLn−1 d(x0 , F (x0 )) per ogni n ∈ N0 . Procediamo per induzione. L’esistenza di x1 verificante (2.3) è ovvia. Sia n > 1 e siano x0 , . . . xn ∈ X verificanti (2.33): in particolare, d(xn , F (xn )) 6 dH (F (xn−1 ), F (xn )) 6 Ld(xn−1 , xn ) < βLn d(x0 , F (x0 )), da cui segue l’esistenza di xn+1 ∈ F (xn ) verificante (2.3). Proviamo ora che (xn ) è una successione di Cauchy in X: per ogni n, m ∈ N, n < m, ho m m X X d(xm , xn ) 6 d(xi , xi−1 ) 6 βd(x0 , F (x0 )) Li−1 ; i=n+1 i=n+1 dal Criterio di Cauchy per le serie (e dalla convergenza della serie geometrica di ragione L) segue che, per ogni ε > 0, esiste ν ∈ N t.c. se ν < n < m allora d(xm , xn ) < ε. Poiché X è completo, abbiamo xn → x. Da (2.3) ho per ogni n ∈ N d(xn , F (x)) 6 dH (F (xn−1 ), F (x)) 6 Ld(xn−1 , x), da cui, passando al limite, d(x, F (x)) = 0. Poiché F (x) è chiuso, abbiamo infine x ∈ fix(F ). Il primo, basilare risultato: Teorema 2.34. Se (X, k · k) è uno spazio di Banach, K ⊂ X è compatto e convesso e F : K → 2K è s.c.i. a valori non vuoti, chiusi e convessi, allora fix(F ) 6= ∅. Dimostrazione. Per il Teorema 2.28, F ammette una selezione continua f : K → K. Per il Teorema di Schauder [16, p. 119], esiste x ∈ K t.c. f (x) = x. Dunque x ∈ fix(F ). Per studiare le multifunzioni s.c.s. occorre richiamare un lemma di approssimazione dovuto a Cellina [7]: Lemma 2.35. Se K, H ⊂ Rn (n ∈ N0 ) sono compatti, r > 0 e F : K → 2H è s.c.s. a valori non vuoti, chiusi e convessi, allora esiste g : K → H continua t.c. gr(g) ⊆ Br (gr(F )). Il più noto teorema di punto fisso per le multifunzioni è il seguente, dovuto a Kakutani [19]: 16 A. IANNIZZOTTO Teorema 2.36. Se K ⊆ Rn (n ∈ N0 ) è compatto e convesso e F : K → 2K è s.c.s. a valori non vuoti, chiusi e convessi, allora fix(F ) 6= ∅. Dimostrazione. Per ogni k ∈ N0 , dal Lemma 2.35 segue l’esistenza di gk : K → K continua t.c. gr(gk ) ⊆ B1/k (gr(F )). Per il Teorema di Brouwer [16, p. 95] esiste xk ∈ fix(gk ). A meno di estratte, abbiamo xk → x per qualche x ∈ K, da cui (xk , xk ) → (x, x), quindi 1 d((x, x), gr(F )) = lim d((xk , xk ), gr(F )) 6 lim = 0. k k k Poiché gr(F ) è chiuso (Lemma 2.13), abbiamo infine x ∈ fix(F ). Il Teorema 2.36 è stato esteso agli spazi vettoriali-topoligici da Glicksberg [15]: Teorema 2.37. Se (X, τ ) è uno spazio vettoriale-topologico localmente convesso di Hausdorff, K ⊂ X compatto e convesso, F : K → 2K a valori chiusi e convessi t.c. gr(F ) è chiuso, allora fix(F ) 6= ∅. Il seguente risultato dovuto a Browder [5] garantisce l’esistenza di punti fissi per una multifunzione a fibre aperte: Teorema 2.38. Se (X, τ ) è uno spazio vettoriale-topologico localmente convesso di Haudorff, K ⊂ X è compatto e convesso, F : K → 2K a valori non vuoti e convessi t.c. F − (y) ∈ τ per ogni y ∈ K, allora fix(F ) 6= ∅. Dimostrazione. La famiglia (F − (y))y∈K è un ricoprimento aperto di K, che è compatto, quindi esistono n ∈ N, y1 , . . . yn ∈ K t.c. K ⊂ ∪ni=1 F − (yi ). Per il Teorema 2.26 esistono ϕ1 , . . . ϕn : K → [0, 1] continue t.c. n X ϕi (x) = 1 per ogni x ∈ K i=1 e per ogni i ∈ {1, . . . n} si ha ϕi (x) = 0 per ogni x ∈ K \ F − (yi ). Sia f (x) = n X ϕi (x)yi per ogni x ∈ K. i=1 Poiché K è convesso, f : K → K, inoltre f è continua. Osserviamo che f è una selezione di F : infatti, per ogni x ∈ K, posto Ix = {i ∈ {1, . . . n} : ϕi (x) 6= 0}, per ogni i ∈ Ix otteniamo x ∈ F − (yi ), ovvero yi ∈ F (x), da cui per convessità di F (x) X f (x) = ϕi (x)yi ∈ F (x). i∈Ix Sia C = conv(y1 , . . . yn ), Y = span(y1 , . . . yn ). Chiaramente dim(Y ) < ∞, dunque Y è isomorfo a uno spazio euclideo, inoltre f (C) ⊆ C. Possiamo dunque applicare il teorema di Brouwer [16, p. 95] a f |C , trovando x ∈ C ∩ fix(f ). Ne segue x ∈ fix(F ). In uno spazio di Banach di dimensione infinita, tutti questi teoremi di punto fisso hanno applicazioni limitate per l’estrema ’rarità’ dei compatti in tali spazi. Si ricorre dunque ai punti fissi approssimati (si veda Brânzei et Al. [4]). TEORIA DEI GIOCHI 17 Definizione 2.39. Siano (X, d) uno spazio metrico, F : X → 2X , ε > 0 un numero reale, x ∈ X: x è detto ε-punto fisso di F se d(x, F (x)) < ε. L’insieme degli ε-punti fissi di F è denotato fixε (F ). Vale in merito il seguente risultato: Teorema 2.40. Se (X, k · k) è uno spazio di Banach riflessivo, S ⊆ X limitato, convesso t.c. int(S) 6= ∅, F : S → 2S a valori non vuoti e convessi, t.c. gr(F ) è debolmente chiuso, allora per ogni ε > 0 si ha fixε (F ) 6= ∅. Dimostrazione. L’ultima ipotesi significa che gr(F ) è chiuso rispetto alla topologia prodotto della topologia σ(X ∗ , X) per se stessa, relativizzata a S × S (leggere due volte aiuta). Supponiamo S = B1 (0) (il caso generale si tratta con aggiustamenti minori). Fissato ε > 0, trovo δ ∈ R t.c. 0 < δ < min{1, ε} e poniamo K = (1 − δ)cl(S) = B 1−δ (0), e per ogni x∈K G(x) = (1 − δ)cl(F (x)). Dunque, K è un insieme chiuso, convesso, limitato in X, quindi debolmente compatto (si veda Fabian et Al. [11]) e G : K → 2K ha valori convessi e grafico debolmente chiuso. Per il Teorema 2.37 esiste x ∈ fix(G), ovvero esiste y ∈ F (x) t.c. x = (1 − δ)y, da cui d(x, F (x)) 6 kx − yk = δkxk < ε. In conclusione x ∈ fixε (F ). 2.4. Il principio KKM. Concludiamo questa sezione con un celebre risultato di Knaster, Kuratowski & Mazurkiewicz [18], in base al quale la famiglia dei valori di una multifunzione (soggetta a una peculiare ipotesi geometrica) ha la proprietà dell’intersezione finita (si veda anche [16, p. 37]). Definizione 2.41. Siano X uno spazio vettoriale, S ⊂ X non vuoto, F : S → 2S : F soddisfa KKM se, per ogni n ∈ N, x1 , . . . xn ∈ S, si ha conv(x1 , . . . xn ) ⊆ ∪ni=1 F (xi ). Chiaramente, se F soddisfa KKM, allora fix(F ) = S. Inoltre, l’unione di due valori F (x1 ) e F (x2 ) contiene il segmento congiungente x1 e x2 , e cosı̀ via. Teorema 2.42. Se X è uno spazio vettoriale, S ⊂ X è non vuoto, F : S → 2X soddisfa KKM e F (x) è finitamente chiuso1 per ogni x ∈ S, allora per ogni n ∈ N0 , x1 , . . . xn ∈ S si ha ∩ni=1 F (xi ) 6= ∅. Dimostrazione. Procediamo per assurdo: sia dunque (2.4) 1In ∩ni=1 F (xi ) = ∅. uno spazio vettoriale X, si dice che S ⊆ X è finitamente chiuso se, per ogni sottospazio Y di X di dimensione finita, l’insieme S ∩ Y è chiuso in Y (rispetto alla topologia euclidea. 18 A. IANNIZZOTTO Denotiamo X̃ = span(x1 , . . . xn ), C = conv(x1 , . . . xn ). Su X̃ definiamo una topologia vettoriale di Hausdorff, rendendo X̃ omeomorfo a uno spazio euclideo: in tale spazio, C è chiuso e limitato, quindi compatto. Per ogni i ∈ {1, . . . n} definiamo λi : X̃ → R ponendo λi (x) = d(x, F (xi ) ∩ X̃) per ogni x ∈ X̃. La funzione λi è continua. Per ogni x ∈ X̃ esiste i ∈ {1, . . . n} t.c. λi (x) > 0: altrimenti, infatti, si avrebbe x ∈ ∩ni=1 F (xi ) (rammentiamo che gli insiemi F (xi ) ∩ X̃ sono chiusi), contro (2.4). Dunque, per ogni x ∈ X̃ è definito un insieme non vuoto Ix = {i ∈ {1, . . . n} : λi (x) > 0}. Definiamo f : X̃ → X̃ ponendo f (x) = n X i=1 λ (x) Pn i xi per ogni x ∈ X̃. j=1 λj (x) La funzione f è continua e si ha f (x) ∈ C per ogni x ∈ X̃. Dunque, per il teorema di Brouwer [16, p. 95], esiste x0 ∈ fix(f |C ). Applicando la condizione KKM otteniamo x0 = f (x0 ) ∈ conv ({xi : i ∈ Ix0 }) ⊆ ∪i∈Ix0 F (xi ), cosı̀ che esiste i ∈ Ix0 t.c. x0 ∈ F (xi ), da cui λi (x0 ) = 0, contro la definizione di λi . Questo conclude la dimostrazione. Come conseguenza, si può provare che esiste un punto comune a tutti i valori di una multifunzione: Corollario 2.43. Se (X, τ ) è uno spazio vettoriale-topologico di Hausdorff, S ⊆ X è non vuoto, F : S → 2X soddisfa KKM e ha valori chiusi, ed esiste x0 ∈ S t.c. F (x0 ) è compatto, allora ∩x∈S F (x) 6= ∅. Dimostrazione. Si vede facilmente che F (x) è finitamente chiuso per ogni x ∈ S. Sia F̃ : S → 2F (x0 ) definita ponendo per ogni x ∈ S F̃ (x) = F (x) ∩ F (x0 ). Per il Teorema 2.42, dom(F̃ ) = S. Per ogni n ∈ N, x1 , . . . xn ∈ S si ha ∩ni=1 F̃ (xi ) = ∩ni=0 F (xi ) 6= ∅, dunque (F̃ (x))x∈S è una famiglia di sottoinsiemi chiusi del compatto F (x0 ) soddisfacente la proprietà dell’intersezione finita. Dunque esiste x ∈ ∩x∈S F̃ (x) (si veda [9, p. 135]), in particolare x ∈ ∩x∈S F (x). TEORIA DEI GIOCHI 19 3. Giochi non cooperativi ed equilibri di Nash Ciascuno deve impostare la propria strategia di vita sul presupposto dell’ostilità altrui. E. Limonov In questa sezione riprendiamo il concetto di equilibrio di Nash: usando gli strumenti matematici introdotti nelle sezioni precedenti, dimostreremo l’esistenza di (almeno) un equilibrio di Nash per un gioco statico non cooperativo deterministico con due giocatori, rappresentato in forma strategica da Γ = (X, Y, f, g) (alcune nozioni qui introdotte si possono estendere al caso di più giocatori). Per approfondimenti rimandiamo ai testi di Aubin [1], Colombo [10] e Gibbons [14]. Specializziamo la Definizione 1.12: Definizione 3.1. Un equilibrio (di Nash) per Γ è una coppia (x, y) ∈ X × Y t.c. (i) f (x, y) = sup f (·, y); X (ii) g(x, y) = sup g(x, ·). Y L’insieme degli equilibri per Γ si denota Ne(Γ). Una nozione collegata a quella di equilibrio è la seguente: Definizione 3.2. Nel gioco Γ = (X, Y, f, g), la coppia (x, y) ∈ X × Y è un ottimo (di Pareto) se non esiste un’altra coppia (x, y) ∈ X × Y verificante una delle seguenti condizioni: (i) f (x, y) > f (x, y), g(x, y) > g(x, y); (ii) f (x, y) > f (x, y), g(x, y) > g(x, y). L’insieme degli ottimi per Γ si denota Po(Γ). Queste due nozioni sono indipendenti, come dimostra il più celebre problema della teoria dei giochi, noto come dilemma del prigioniero: Esempio 3.3. Due individui vengono arrestati con l’accusa di omicidio e richiusi in celle separate. Il commissario fa a ogni prigioniero la seguente proposta: ’Se confessi (accusando il tuo complice) vi incriminerò entrambi e sarete condannati a 10 anni di prigione, ma tu sarai liberato per aver collaborato; se confessate entrambi avrete uno sconto di pena e sarete liberi in 5 anni; se nessuno di voi confessa, resterete in galera solo per il tempo del processo, cioè 1 anno.’ Ogni prigioniero sa che la stessa offerta è stata fatta anche all’altro, e deve decidere cercando di ridurre al minimo gli anni che deve passare in cella. Denotati P , Q i prigionieri, X = Y = {c, t} le strategie (confessare e tacere) ed eguagliati i pay-off agli opposti delle durate delle condanne, si ottiene la seguente tabella: P \Q c t c (−5, −5) (0, −10) t (−10, 0) (−1, −1) Si vede che Ne(Γ) = {(c, c)}, mentre Po(Γ) = {(t, t)}. Non potendo comunicare, i due prigionieri sceglieranno di confessare, raggiungendo cosı̀ un equilibrio inefficiente. Questo 20 A. IANNIZZOTTO esito è tipico dei giochi non cooperativi, nei quali la competizione esasperata preclude la possibilità di accordi. Un equilibrio è, di solito, la miglior soluzione raggiungibile nei giochi non cooperativi. Si pone pertanto il problema di individuare condizioni sufficienti per l’esistenza di (almeno) un equilibrio. Per ottenere questo risultato occorre estendere il concetto di strategia utilizzato nella Sezione , introducendo il concetto di tipo probabilistico di strategia mista. 3.1. Strategie miste e teorema di Nash. Richiamiamo un’elementare nozione dal calcolo delle probabilità (si veda Scozzafava [34]): Definizione 3.4. Sia X = {x1 , . . . xn } un insieme finito (n ∈ N0 , xi 6= xj per ogni i 6= j): una distribuzione di probabilità su X è una funzione p : X → [0, 1] t.c. n X p(xi ) = 1. i=1 Le strategie miste si possono rappresentare geometricamente: sia ϕ : X → Rn definita da ϕ(xi ) = ei per ogni i ∈ {1, . . . n} (in particolare, ϕ è iniettiva). Sia Π(X) l’insieme di tutte le distribuzioni di probabilità su X, e sia ϕ̃ : Π(X) → Rn definita da ϕ̃(p) = n X p(xi )ϕ(xi ) per ogni p ∈ Π(X). i=1 Chiaramente si ha ϕ̃(Π(X)) = conv(ϕ(X)), ovvero ϕ̃(Π(X)) è il simplesso (n − 1)dimensionale di vertici e1 , . . . en (in particolare, esso è un insieme compatto e convesso), e ϕ̃ è un isomorfismo tra Π(X) (con le operazioni formali) e ϕ̃(Π(X)). Identificando, per ogni i ∈ {1, . . . n}, xi con la distribuzione p ∈ Π(X) definita da p(xj ) = δi,j per ogni j ∈ {1, . . . n}, possiamo considerare ϕ̃ come un’estensione di ϕ (unica a meno di isomorfismi). Osservazione 3.5. La Definizione 3.4 si può estendere al caso in cui X è infinito: allora una distribuzione di probabilità su X è una misura p su X, t.c. p(X) = 1. Per chiarire: se X rappresenta l’insieme dei possibili esiti di un evento aleatorio (ad esempio una corsa di cavalli), la funzione p associa a ogni esito (rappresentato da un elemento o da un sottoinsieme di X) la somma che uno scommettitore punta su tale esito con la prospettiva di vincere 1 se il pronostico si rivela esatto. Introduciamo la seguente nozione: Definizione 3.6. Nel gioco Γ, una strategia mista per il giocatore P (Q) è una distribuzione di probablilità sull’insieme delle strategie X (Y ). Gli elementi di X (Y ) sono detti strategie pure. L’impiego di strategie miste corrisponde al seguente schema: P è visto come uno speculatore che dispone di un capitale pari a 1, da investire in un insieme X di attività; scegliere una strategia mista p equivale allora a investire la somma p(xi ) nell’attività xi , per ogni i ∈ {1, . . . n} (si può formulare lo stesso concetto utilizzando lo schema delle scommesse). Si è visto come l’insieme Π(X) si può identificare con un sottoinsieme convesso e compatto di uno TEORIA DEI GIOCHI 21 spazio euclideo: è quindi ragionevole ipotizzare, come faremo in seguito, che l’insieme delle strategie (miste) di ciascun giocatore goda di queste proprietà geometriche e topologiche. Esempio 3.7. Nel gioco considerato nell’Esempio 1.6, esteso alle strategie miste, si pone X = Y = [0, 1]: per ogni (x, y) ∈ [0, 1]2 (che rappresenta la valutazione da parte di P che l’evento p abbia probabilità x e d invece probabilità (1 − x), mentre Q attribuisce a p probabilità y e a d probabilità (1 − y)) i pay-off dei due giocatori sono rispettivamente f (x, y) = xy − x(1 − y) − (1 − x)y + (1 − x)(1 − y) = 4xy − 2x − 2y + 1, g(x, y) = −xy + x(1 − y) + (1 − x)y − (1 − x)(1 − y) = −4xy + 2x + 2y − 1 (si noti che f (x, y) = −g(x, y)). Per determinare gli equilibri di un gioco Γ si fa uso delle multifunzioni di miglior risposta per i singoli giocatori e globale, RP : Y → 2X , RQ : X → 2Y , R : X × Y → 2X×Y , definite per ogni (x, y) ∈ X × Y da n o RP (y) = x ∈ X : f (x, y) = sup f (·, y) , X n o RQ (x) = y ∈ Y : g(x, y) = sup g(x, ·) , Y R(x, y) = RP (y) × RQ (x). Le multifunzioni ora introdotte permettono di rappresentare gli equilibri di Γ: Lemma 3.8. Si ha Ne(Γ) = fix(R). Dimostrazione. Sia (x, y) ∈ Ne(Γ), allora per la Definizione 3.1 f (x, y) = sup f (·, y), g(x, y) = sup g(x, ·), X da cui (x, y) ∈ R(x, y). E viceversa. Y Il seguente teorema di esistenza di un equilibrio è il più celebre risultato della teoria dei giochi, ed è dovuto a Nash [29]: Teorema 3.9. Se X ⊂ Rn , Y ⊂ Rm (n, m ∈ N0 ) sono convessi e compatti, f, g : X ×Y → R sono continue e (i) f (·, y) è quasi-concava2 per ogni y ∈ Y ; (ii) g(x, ·) è quasi-concava per ogni x ∈ X, allora Ne(Γ) 6= ∅. Dimostrazione. Adottiamo su X e su Y le rispettive topologie euclidee, e su X × Y la topologia prodotto. Intendiamo applicare alla multifunzione R : X × Y → 2X×Y il Teorema 2.36. 2Se X è un insieme convesso in uno spazio vettoriale e f : X → R, allora f è detta quasi-concava (risp. c quasi-convessa se f c (risp. f ) è convesso per ogni c ∈ R. 22 A. IANNIZZOTTO La multifunzione RP : Y → 2X ha valori non vuoti, chiusi e convessi. Infatti, per ogni y ∈ Y , la f (·, y) : X → R è continua su un compatto, quindi Teorema di Weierstraß esiste x ∈ X t.c. f (x, y) = sup f (·, y) = c, X da cui x ∈ RP (y); inoltre l’insieme RP (y) = f (·, y)c è chiuso e convesso per (i) (in effetti, RP (y) è compatto perché X è compatto). Proviamo ora che gr(RP ) è chiuso in Y × X, procedendo per assurdo: sia (yn , xn ) ∈ gr(RP ) per ogni n ∈ N e (yn , xn ) → (y, x), ma (y, x) ∈ / gr(RP ). Allora f (x, y) < supX f (·, y). Sia ε ∈ R t.c. 0 < ε < sup f (·, y) − f (x, y). X Esiste x̃ ∈ X t.c. f (x̃, y) > f (x, y) + ε. per continuità di f per n ∈ N abbastanza grande abbiamo ε |f (xn , yn ) − f (x, y)| < , 3 ε |f (x̃, yn ) − f (x̃, y)| < . 3 Usando le precedenti diseguaglianze, per n ∈ N abbastanza grande otteniamo f (xn , yn ) < f (x, y) + ε 2ε < f (x̃, y) − < f (x̃, yn ), 3 3 contro l’ipotesi che xn ∈ RP (yn ). Pertanto gr(RP ) è chiuso, quindi RP è s.c.s. (Lemma 2.14). Similmente si prova che RQ : X → 2Y è s.c.s. a valori non vuoti, compatti e convessi. Ne segue che R : X × Y → 2X×Y è s.c.s. (Lemma 2.20) a valori non vuoti, compatti e convessi. Sono pertanto soddisfatte le ipotesi del Teorema 2.36, da cui segue che fix(R) 6= ∅. Per il Lemma 3.8 ho Ne(Γ) 6= ∅. Osservazione 3.10. Usando un’attrezzatura matematica più sofisticata, è possibile provare versioni generalizzate del Teorema 3.9 (per esempio, in cui X e Y sono sottoinsiemi compatti e convessi di uno spazio di Banach di dimensione infinita). Oltre al risultato di esistenza, il metodo sopra illustrato fornisce un algoritmo per individuare gli equilibri, che descriviamo limitandoci al caso semplice in cui X = Y = [0, 1]. I grafici delle multifunzioni RP e RQ si possono rappresentare come curve inscritte nel quadrato [0, 1] × [0, 1] (in generale, queste curve potranno contenere tratti verticali). Si ha allora, per il Lemma 3.8, (3.1) Ne(Γ) = gr(RP ) ∩ gr(RQ ). Nella Fig. 1, questi punti sono (0, 0) e (1, 1). TEORIA DEI GIOCHI 23 Figura 1. Il metodo dell’intersezione. 3.2. Esempi. In questa sezione presentiamo alcuni esempi e applicazioni: alcuni di questi sono veri ’giochi’ o esercizi matematici, altri sono modelli realmente usati nelle scienze sociali. Tutti possono essere risolti utilizzando il Teorema 3.9 per provare l’esistenza degli equilibri, e la formula (3.1) per determinarli esplicitamente. Esempio 3.11. Nel gioco della battaglia dei sessi, come abbiamo visto nell’Esempio 1.13, (s, s) e (t, t) sono equilibri di Nash. Passando dalle strategie pure a quelle miste, definiamo X = Y = [0, 1] e f, g : [0, 1]2 → R ponendo per ogni (x, y) ∈ [0, 1] f (x, y) = 10xy + 0x(1 − y) + 0(1 − x)y + 5(1 − x)(1 − y) = 15xy − 5x − 5y + 5 (si può pensare a x e a (1 − x) come al tempo passato allo stadio e a teatro, rispettivamente, da P ). Analogamente, per ogni (x, y) ∈ [0, 1] abbiamo g(x, y) = 15xy − 10x − 10y + 10. Il Teorema 3.9 garantisce l’esistenza di almeno un equilibrio. In effetti, ve ne sono tre. Semplici calcoli forniscono le multifunzioni di miglior risposta: {0} se y ∈ [0, 1/3) RP (y) = [0, 1] se y = 1/3 , {1} se y ∈ (1/3, 1] {0} se x ∈ [0, 2/3) RQ (x) = [0, 1] se x = 2/3 . {1} se x ∈ (2/3, 1] Gli equilibri si ottengono mediante (3.1): 2 1 Ne(Γ) = (0, 0), , , (1, 1) (due di essi corrispondono a strategie pure). 3 3 Osserviamo che gli equilibri in strategie miste dipendono dai valori dei pay-off, mentre quelli in strategie pure solo dalle preferenze (Definizione 1.2). 24 A. IANNIZZOTTO Esempio 3.12. Nel gioco noto come caccia al cinghiale, due cacciatori P , Q devono scegliere se andare a caccia di cinghiale o di lepri (X = Y = {c, l}), sapendo che per catturare un cinghiale bisogna essere in due, mentre per catturare molte lepri è meglio separarsi. Si ha la seguente tabella dei pay-off: P \Q c l c (10, 10) (0, 8) l (8, 0) (4, 4) Si ha Ne(Γ) = {(c, c), (l, l)} ma Po(Γ) = {(c, c)}. Passando alle strategie miste si trova un terzo equilibrio (2/3, 2/3). Esempio 3.13. Nel gioco dei fumatori, due fumatori P , Q si trovano in una piccola stanza: entrambi hanno voglia di fumare, ma sono infastiditi dall’aria viziata, pertanto ognuno dei due vorrebbe fumare da solo, ma preferisce comunque fumare insieme all’altro piuttosto che astenersi. Si ha la seguente tabella dei pay-off: P \Q f n f (1, 1) (2, 0) n (0, 2) (0, 0) Studiamo Γ direttamente in strategie miste: poniamoo X = Y = [0, 1] e ricaviamo f (x, y) = 2x − xy, g(x, y) = 2y − xy per ogni (x, y) ∈ [0, 1]2 . Ne segue che RP (y) = RQ (x) = {1} per ogni (x, y) ∈ [0, 1]2 , cosı̀ che Ne(Γ) = {(1, 1)}, ovvero P e Q scelgono entrambi di fumare. Si noti che Po(Γ) = ∅. Questo gioco è un caso particolare del cosiddetto paradosso liberale, secondo il quale in assenza di divieti ognuno tende a fare come gli pare senza curarsi del bene comune. Esempio 3.14. Nel gioco del pollo, reso celebre dal film ’Rebel without a cause’ di Nicholas Ray (1955), due personaggi P , Q si sfidano a correre in macchina verso un burrone: perde chi sterza per primo. Ogni giocatore dispone di due strategie, sterzare (s) e tirare dritto (d); i pay-off sono, rispettivamente, 10 per la vittoria, 5 per il pareggio, 1 per la sconfitta e 0 per la morte: P \Q s d s (5, 5) (1, 10) d (10, 1) (0, 0) Come si vede, Ne(Γ) = {(s, d), (d, s)} e Po(Γ) = ∅. Passando alle strategie miste si trova un altro equilibrio, (1/6, 1/6). Questo gioco è un utile schema delle competizioni in cui la deterrenza riveste un ruolo importante (per esempio, la corsa agli armamenti). Esempio 3.15. Nel gioco dei ragni, due ragni P e Q (di una specie che produce parecchie uova ma poche ragnatele) competono per il possesso di una ragnatela: ciascun ragno può lottare (l) o arrendersi (a); se entrambi lottano, i pay-off assegnati (che rappresentano le propensioni dei ragni a lottare) sono p, q > 0, in generale la situazione è descritta dalla TEORIA DEI GIOCHI 25 tabella P \Q l a l (p, q) (10, 0) a (0, 10) (5, 5) Gli equilibri dipendono dai valori dei parametri: • se p, q > 0 si ha Ne(Γ) = {(l, l)}; • se p > 0 = q si ha Ne(Γ) = {(l, l), (l, a)}; • se p = 0 < q si ha Ne(Γ) = {(l, l), (a, l)}; • se p = q = 0 si ha Ne(Γ) = {(l, l), (l, a), (a, l)}. Esempio 3.16. Nel gioco dei candidati, le proposte programmatiche in vista di un’elezione sono rappresentate dai numeri reali compresi tra 0 (estrema sinistra) e 1 (estrema destra) e si suppone che gli elettori siano uniformemente distribuiti lungo questo intervallo e scelgano il candidato col programma più vicino alle loro idee: due candidati P e Q devono formulare i loro programmi, col vincolo che quello di P si collochi ’più a sinistra’ di quello di Q, e ovviamente puntano entrambi a ottenere la maggioranza dei voti. Il gioco Γ, non rappresentabile in una tabella, presenta X = Y = [0, 1] e le multifunzioni di miglior risposta n 1o x+y > = [1 − y, 1], RP (y) = x ∈ [0, 1] : 2 2 n x+y 1o RQ (x) = y ∈ [0, 1] : 6 = [0, 1 − x]. 2 2 Si ottiene Ne(Γ) = (x, 1 − x) : x ∈ [0, 1] (in questo caso RP , RQ hanno infiniti valori non degeneri). Esempio 3.17. Riprendiamo il gioco considerato nell’Esempio 3.16, ambientandolo in un Paese di orientamento politico non neutrale: sia ϕ : [0, 1] → [0, 1] la densità con cui gli elettori si distribuiscono da ’sinistra’ a ’destra’, supponiamo ϕ continua e poniamo Z t Φ(t) = ϕ(τ )dτ per ogni t ∈ [0, 1], 0 chiaramente sotto il vincolo Φ(1) = 1. In questo caso, le funzioni di miglior risposta sono n x + y 1o RP (y) = x ∈ [0, 1] : Φ > , 2 2 n x + y 1o RQ (x) = y ∈ [0, 1] : Φ 6 . 2 2 In particolare, se ϕ(t) = 2t per ogni t ∈ [0, 1] (cioè se l’elettorato è prevalentemente conservatore), si ha ( √ ∅ se y ∈ [0, 2 − 1) √ RP (y) = √ 2 − y, 1 se y ∈ [ 2 − 1, 1], ( √ [0, 1] se x ∈ [0, 2 − 1) √ RQ (x) = √ . 0, 2 − x se x ∈ [ 2 − 1, 1]. 26 A. IANNIZZOTTO Dunque, √ √ Ne(Γ) = (x, 2 − x) : x ∈ [ 2 − 1, 1] . Si può concludere che al candidato di sinistra non conviene adottare posizioni estreme. Esempio 3.18. Il duopolio di Cournot è un classico modello economico: due produttori P e Q si contendono l’intero mercato di un bene: i dati fissi sono la soglia di esaurimento del mercato a > 0 e il costo unitario di produzione c > 0; le strategie rappresentano le quantità prodotte, cosı̀ che X = Y = [0, a]. Si introduce una funzione di domanda (identificata col prezzo) p : [0, a]2 → R definita da a − (x + y) se x + y < a p(x, y) = , 0 se x + y > a da cui i rispettivi pay-off ( x(p(x, y) − c) = −x2 − xy + (a − c)x f (x, y) = −c ( y(p(x, y) − c) = −y 2 − xy + (a − c)y g(x, y) = −c se x + y < a se x + y > a, se x + y < a se x + y > a. Le ipotesi del Teorema 3.9 sono verificate, quindi Ne(Γ) 6= ∅. In effetti, massimizzando i pay-off si ottiene il sistema misto −2x − y + a − c = 0 −2y − x + a − c = 0 06x6a−c 0 6 y 6 a − c, da cui l’unico equilibrio a−c a−c , y= . 3 3 3.3. Equilibri approssimati. Quando gli insiemi X, Y non sono compatti, è impossibile applicare il Teorema 3.9. Per questo Brânzei et Al. [4] hanno introdotto la nozione di equilibrio approssimato: x= Definizione 3.19. Siano Γ = (X, Y, f, g) un gioco, ε > 0: un ε-equilibrio di Nash per Γ è una coppia (x, y) ∈ X × Y t.c. (i) f (x, y) ≥ sup f (·, y) − ε; X (ii) g(x, y) ≥ sup g(x, ·) − ε. Y L’insieme degli ε-equilibri di Nash di Γ si denota Neε (Γ). Anche in questo caso gli equilibri si possono caratterizzare come punti fissi di una multifunzione: poniamo per ogni (x, y) ∈ X × Y n o RPε (y) = x ∈ X : f (x, y) ≥ sup f (·, y) − ε , X TEORIA DEI GIOCHI 27 n o ε (x) = y ∈ Y : g(x, y) ≥ sup g(x, ·) − ε , RQ Y ε R (x, y) = RPε (y) ε × RQ (x). Come nel Lemma 3.8, si ha (3.2) Neε (Γ) = fix(Rε ) L’esistenza di ε-equilibri si può dimostrare sotto ipotesi più blande riguardo X, Y (compensate da condizioni più restrittive su f , g) rispetto a quelle del Teorema 3.9: Teorema 3.20. Se (X, dX ), (Y, dY ) sono spazi metrici e (i) f, g : X × Y → R sono uniformemente continue rispetto alla metrica d (x, y), (z, w) = dX (x, z) + dY (y, w) per ogni (x, y), (z, w) ∈ X × Y ; (ii) fixδ (Rρ ) 6= ∅ per ogni ρ, δ > 0, allora per ogni ε > 0 si ha Neε (Γ) 6= ∅. Dimostrazione. Fissiamo ε > 0. Per (i) esiste η > 0 t.c. per ogni (x, y), (z, w) ∈ X × Y t.c. η d (x, y), (z, w) < 2 si ha ε (3.3) max {|f (x, y) − f (z, w)| , |g(x, y) − g(z, w)|} < . 2 ε/2 ε/2 Per (ii) esiste (x, y) ∈ fixη/2 (Rε/2 ), cioè (Definizione 2.39) esistono z ∈ RP (y) e w ∈ RQ (x) t.c. η d((x, y), (z, w)) ≤ < η. 2 Per (3.3) ne segue ε sup f (·, y) − ε ≤ f (z, y) − < f (x, y), 2 X ε sup g(x, ·) − ε ≤ g(x, w) − < g(x, y), 2 Y ε quindi (x, y) ∈ Ne (Γ). L’ipotesi (i) è difficile da verificare. Possiamo ricorrere alla teoria dei punti fissi approssimati: Corollario 3.21. Se X, Y sono sottoinsiemi limitati convessi di spazi di Banach riflessivi t.c. int(X), int(Y ) 6= ∅ e (i) f, g : X × Y → R sono uniformemente continue rispetto alla metrica d (x, y), (z, w) = kx − zkX + ky − wkY per ogni (x.y), (z, w) ∈ X × Y ; (ii) Rρ : X × Y → 2X×Y ha valori non vuoti e convessi per ogni ρ > 0; (iii) gr(Rρ ) è debolmente chiuso per ogni ρ > 0, allora per ogni ε > 0 si ha Neε (Γ) 6= ∅. 28 A. IANNIZZOTTO Dimostrazione. Da (ii) e (iii) segue, per il Teorema 2.40, che per ogni δ, ρ > 0 fixδ (Rρ ) 6= ∅. Rammentando anche (i), vediamo che sono verificate tutte le ipotesi del Teorema 3.20, dunque Neε (Γ) 6= ∅ per ogni ε > 0. Ovviamente, la tecnica degli equilibri approssimati è usata in contesti piuttosto astratti. Concludiamo questa sezione mostrando un’applicazione del Teorema 3.20: Esempio 3.22. Siano (X, k · k) uno spazio normato, v ∈ X \ {0} e f, g : X × X → R definite da v f (x, y) = −kx − yk, g(x, y) = −x − y − per ogni (x, y) ∈ X × X. 1 + kxk Studiamo il gioco Γ = (X, X, f, g). Si vede facilmente che la multifunzione di miglior risposta (congiunta) è data da n o v R(x, y) = y, x − per ogni (x, y) ∈ X × X, 1 + kxk pertanto fix(R) = ∅, ovvero Ne(Γ) = ∅. Cerchiamo dunque equilibri approssimati, applicando il Teorema 3.20. Le funzioni f, g : X × X → R sono lipschitziane (in particolare, uniformemente continue). Per f la cosa è ovvia. Per g, si dimostra come segue: fissati (x1 , y1 ), (x2 , y2 ) ∈ X × X, abbiamo v v g(x1 , y1 ) − g(x2 , y2 ) 6 − x2 + y 2 + x1 − y1 − 1 + kx1 k 1 + kx2 k kx1 k − kx2 k 6 kx1 − x2 k + ky1 − y2 k + kvk (1 + kx1 k)(1 + kx2 k) 6 (1 + kvk)d (x1 , y1 ), (x2 , y2 ) . Inoltre, fissato δ > 0, per ogni x ∈ X t.c. kxk > kvk/δ abbiamo d (x, x), R(x, x) = kvk < δ, 1 + kxk da cui (x, x) ∈ fixδ (R). In particolare, per ogni ρ, δ > 0 abbiamo fixδ (Rρ ) 6= ∅. Cosı̀ le ipotesi (i) e (ii) del Teorema 3.20 sono verificate. Dunque, per ogni ε > 0 si ha Neε (Γ) 6= ∅ (in effetti si dimostra che (x, x) ∈ Neε (Γ) per ogni x ∈ X con kxk abbastanza grande). 4. Giochi a somma nulla e teoria del minimax Mors tua, vita mea. Anonimo In questa sezione, dedicata ai giochi a somma nulla, il concetto di equilibrio di Nash viene messo in relazione con quello di minimax, che è più generale. Per la teoria del minimax, rimandiamo a Ricceri & Simons [31]. TEORIA DEI GIOCHI 29 Definizione 4.1. Un gioco Γ = (X, Y, f, g) è detto a somma nulla se f (x, y) + g(x, y) = 0 per ogni (x, y) ∈ X × Y . In questo caso il gioco si denota Γ = (X, Y, f ). I giochi a somma nulla corrispondono alle interazioni in cui due (o più) soggetti si contendono un capitale fissato: i guadagni di uno equivalgono alle perdite dell’altro. Prendiamo dapprima in esame il caso finito, ovvero X = {x1 , . . . xn }, Y = {y1 , . . . ym } (n, m ∈ N0 ). Se il giocatore P (che gioca per primo) sceglie la strategia xi (1 ≤ i ≤ n), allora Q minimizza la sua perdita scegliendo yj (1 ≤ j ≤ m) t.c. f (xi , yj ) = min f (xi , ·). Y Sapendo ciò, P sceglie una strategia xi t.c. min f (xi , ·) = max min f. Y X Y Similmente, se Q gioca per primo, la sua scelta ricade su yj t.c. max f (·, yj ) = min max f. X Y X Questo ragionamento conduce a un concetto di equilibrio diverso da (in effetti, come si vedrà, più generale di) quello formulato da Nash: una coppia (xi , yj ) ∈ X × Y verificante l’eguaglianza di minimax (4.1) max min f = min max f. X Y Y X Esempio 4.2. Consideriamo il seguente gioco: P \Q x1 x2 x3 y1 1 0 −1 y2 2 1 0 Osservando la tabella (i cui numeri rappresentano i pay-off di P e contemporaneamente gli opposti dei pay-off di Q), si ricava Ne(Γ) = {(x1 , y1 )}; all’unico equilibrio di Nash di Γ corrisponde il valore 1. D’altra parte si ha max min f = min max f = 1, X Y Y X in particolare vale (4.1). Se X, Y sono infiniti, l’esistenza di massimi e minimi non è garantita e le definizioni vanno riformulate: Definizione 4.3. Sia Γ = (X, Y, f ) un gioco a somma nulla: sono definiti i valori inferiore e superiore di Γ f∗ = sup inf f, f ∗ = inf sup f X Y Y X (entrambi in R ∪ {±∞}). Se vale l’eguaglianza di minimax (4.2) f∗ = f ∗ (= f˜), 30 A. IANNIZZOTTO Figura 2. (0, 0) è un punto di sella per la funzione f (x, y) = y 2 − x2 . il gioco Γ ha valore f˜. Un punto di sella è una coppia (x, y) ∈ X × Y t.c. sup f (·, y) = f (x, y) = inf f (x, ·). Y X L’insieme dei punti di sella di f si denota sp(f ). L’idea geometrica di ’sella’ è esemplificata dalla Fig. 2. Alcune precisazioni: Lemma 4.4. Se Γ è un gioco a somma nulla, allora si ha f∗ ≤ f ∗ . Dimostrazione. Per ogni (x, y) ∈ X × Y abbiamo inf f (x, ·) ≤ f (x, y) ≤ sup f (·, y), Y X da cui la tesi. Lemma 4.5. Se Γ è un gioco a somma nulla e (x, y) ∈ sp(f ), allora si ha (4.2) e f (x, y) = f˜. Dimostrazione. Si ha f ∗ ≤ sup f (·, y) = f (x, y) = inf f (x, ·) ≤ f∗ . Y X Dalla Proposizione 4.4 segue (4.2), da quanto sopra segue f (x, y) = f˜. L’implicazione non si inverte: Esempio 4.6. Siano X = [0, 1], Y =]0, 1] e f : X × Y → R definita da f (x, y) = xy per ogni (x, y) ∈ X × Y . L’eguaglianza (4.2) è verificata in quanto f∗ = sup inf xy = sup 0 = 0, 0≤x≤1 0<y≤1 ∗ f = inf 0≤x≤1 sup xy = inf y = 0. 0<y≤1 0≤x≤1 0<y≤1 TEORIA DEI GIOCHI 31 In particolare, f˜ = 0. Tuttavia il gioco in questione non ammette punti di sella. Ragionando per assurdo, suppongo che (x, y) ∈ sp(f ): allora x y = sup xy = y > 0, 0≤x≤1 mentre x y = inf xy = 0, 0<y≤1 assurdo. Ovviamente (tenendo conto del fatto che −f esprime i pay-off di Q) si ha: Teorema 4.7. Se Γ è un gioco a somma nulla, allora si ha Ne(Γ) = sp(f ). Dal Lemma 4.5 e dal Teorema 4.7 segue che, se Γ ammette un equilibrio di Nash, allora vale (4.2). Pertanto, si considera l’eguaglianza di minimax come una forma debole di equilibrio del gioco e acquistano interesse nell’ottica della teoria dei giochi i risultati che, sotto opprtune ipotesi, assicurano il verificarsi di (4.2): i teoremi di minimax. 4.1. Alcuni teoremi di minimax. Il primo è dovuto a Von Neumann [36]: Teorema 4.8. Se X ⊂ Rn , Y ⊂ Rm (n, m ∈ N0 ) sono compatti e convessi, f : X × Y → R è bilineare, allora sp(f ) 6= ∅. Dimostrazione. Sia F : X → 2Y definita da F (x) = y ∈ Y : f (x, y) = inf f (x, ·) per ogni x ∈ X. Y Per ogni x ∈ X l’insieme F (x) 6= ∅ è chiuso e convesso. Sia α : X → R definita da α(x) = inf f (x, ·) per ogni x ∈ X. Y Proviamo che α è uniformemente continua: per ogni ε > 0, per il Teorema di Cantor-Heine esiste δ > 0 t.c. ε (4.3) |f (x, y) − f (z, w)| < per ogni (x, y), (z, w) ∈ X × Y , d((x, y), (z, w)) < δ. 2 Siano x, z ∈ X t.c. kx − zkRn < δ: per ogni y ∈ Y ho α(x) ≤ f (x, y) ≤ sup |f (x, ·) − f (z, ·)| + f (z, y), Y da cui α(x) − α(z) ≤ sup |f (x, ·) − f (z, ·)| . Y Ragionando analogamente otteniamo α(z) − α(x) ≤ sup |f (x, ·) − f (z, ·)| . Y In conclusione, applicando (4.3), |α(x) − α(z)| ≤ sup |f (x, ·) − f (z, ·)| ≤ Y ε < ε. 2 32 A. IANNIZZOTTO Proviamo ora che gr(F ) ⊆ X × Y è chiuso: siano (xn , yn ) ∈ gr(F ) per ogni n ∈ N, (x, y) ∈ X × Y t.c. (xn , yn ) → (x, y); per ogni n ∈ N abbiamo f (xn , yn ) = α(xn ), da cui, passando al limite per n → ∞, f (x, y) = α(x) ovvero (x, y) ∈ gr(F ). Per la Proposizione 2.14, F è s.c.s. Sia ora G : Y → 2X definita da G(y) = x ∈ X : f (x, y) = sup f (·, y) per ogni y ∈ Y . X Come sopra dimostro che G è s.c.s. a valori non vuoti, chiusi e convessi. Per il Lemma 2.20, G × F : X × Y → 2X×Y è s.c.s. a valori compatti. Dunque il Teorema 2.36 assicura l’esistenza di (x, y) ∈ fix(G × F ): chiaramente si ha (x, y) ∈ sp(f ). Il seguente risultato di Fan [12] estende l’eguaglianza di minimax a classi più ampie di funzioni e di spazi: Teorema 4.9. Se (X, τX ), (Y, τY ) sono spazi vettoriali-topologici localmente convessi di Hausdorff, S ⊂ X, T ⊂ Y insiemi non vuoti, compatti e convessi, f : S × T → R t.c. (i) f (·, y) è s.c.s. e quasi-concava per ogni y ∈ T ; (ii) f (x, ·) è s.c.i. e quasi-convessa per ogni x ∈ S, allora si ha sup inf f = inf sup f. S T T S Dimostrazione. Procediamo per assurdo, supponendo che esista c ∈ R t.c. (4.4) f∗ < c < f ∗ . L’insieme K = S × T è compatto e convesso nello spazio vettoriale-topologico localmente convesso di Hausdorff X × Y . Sia F : K → 2K definita da F (x, y) = (z, w) ∈ K : min{f (x, w) − c, c − f (z, y)} ≤ 0 per ogni (x, y) ∈ K. Dimostriamo che (4.5) ∩(x,y)∈K F (x, y) 6= ∅. c Per ogni (x, y) ∈ K gli insiemi f (x, ·) , f (·, y)c (non vuoti per (4.4)) sono chiusi per le ipotesi (i), (ii), quindi c F (x, y) = f (·, y)c × f (x, ·) è un sottoinsieme chiuso del compatto K; dunque F ha valori compatti. Inoltre F verifica KKM (ved. Definizione 2.41): lo proviamo per assurdo, supponendo che esistano n ∈ N0 , (x1 , y1 ), . . . (xn , yn ) ∈ K, (z0 , w0 ) ∈ conv((x1 , y1 ), . . . (xn , yn )) t.c. (z0 , w0 ) ∈ / ∪ni=1 F (xi , yi ). Questo significa che, per ogni i ∈ {1, . . . n}, si ha f (z0 , yi ) < c < f (xi , w0 ), TEORIA DEI GIOCHI 33 ovvero yi ∈ f (z0 , ·)c e xi ∈ f (·, w0 )c , insiemi entrambi convessi (ancora (i), (ii)). Pertanto w0 ∈ f (z0 , ·)c e z0 ∈ f (·, w0 )c , ovvero c < f (z0 , w0 ) < c, una contraddizione. Applicando il Corollario 2.43 si ottiene (4.5). Sia dunque (z, w) ∈ ∩(x,y)∈K F (x, y): si ha per ogni (x, y) ∈ K min{f (x, w) − c, c − f (z, y)} ≤ 0. Possono presentarsi due casi: • se f (x, w) ≤ c per ogni x ∈ S, si ha f ∗ ≤ sup f (·, w) ≤ c, S contro (4.4); • se esiste x ∈ S t.c. f (x, w) > c, allora f (z, y) ≥ c per ogni y ∈ T , da cui f∗ ≥ inf f (z, ·) ≥ c, T contro (4.4). In ogni caso, (4.4) conduce a una contraddizione. Tenendo conto della Proposizione 4.4, posso concludere che f∗ = f ∗ . Osservazione 4.10. Dalla dimostrazione del Teorema 4.9 segue che esiste (x, y) ∈ S × T t.c. f (x, y) = f˜. Tuttavia, questo non implica che (x, y) sia un punto di sella per f . Per studiare il problema del minimax in assenza di una struttura vettoriale, tipicamente si tende a sostituire la convessità con la connessione. Uno dei risultati più raffinati in questo contesto è dovuto a König [19]: Teorema 4.11. Se (X, τX ) è uno spazio topologico, (Y, τY ) uno spazio compatto, f : X×Y → R t.c. c (i) ∩x∈H f (x, ·) è connesso per ogni c > f∗ , H ⊂ X non vuoto e finito; (ii) ∩y∈K f (·, y)c è connesso per ogni c < f ∗ , K ⊂ Y non vuoto; (iii) f (·, y) è s.c.s. per ogni y ∈ Y ; (iv) f (x, ·) è s.c.i. per ogni x ∈ X, allora si ha (4.2). Il limite del Teorema 4.11 consiste nel fatto che (a differenza dalla convessità) la proprietà di connessione non è stabile rispetto all’intersezione. I seguenti esempi chiariscono alcuni aspetti del problema. Esempio 4.12. Nello spazio euclideo R2 siano X = B 1 (0), Y = ∂B1 (0), e sia f : X ×Y → R definita da f (x, y) = hx, yi per ogni (x, y) ∈ X × Y . 34 A. IANNIZZOTTO c La funzione f verifica le ipotesi (iii), (iv) del Teorema 4.11. Inoltre, f (x, ·) è connesso per ogni c > f∗ , x ∈ X e f (·, y)c è connesso per ogni c < f ∗ , y ∈ Y , anche se le condizioni (i), (ii) non sono verificate. Nondimeno si ha f∗ = 0, f ∗ = 1. Esempio 4.13. Siano (Z, k · k) uno spazio di Hilbert t.c. dim(Z) = ∞ e X = x ∈ Z : kxk ≥ 1 , Y = y ∈ Z : kyk ≤ 1 . Su X adottiamo la topologia forte, su Y quella debole (cosı̀ che Y è compatto). Sia f : X × Y → R definita da f (x, y) = hx, yi per ogni (x, y) ∈ X × Y . La funzione f verifica le ipotesi (i), (iii), (iv) del Teorema 4.11. Inoltre essa verifica ’quasi’ l’ipotesi (ii), in quanto ∩y∈K f (·, y)c è connesso per ogni c ∈ R e ogni K ⊂ Y finito. Nondimeno si ha f∗ = 0, f ∗ = 1. Nel caso particolare in cui X è un intervallo compatto in R, le ipotesi di connessione possono essere alleggerite, riferendole a singoli sotto- e sopra-livelli di f (ved. Ricceri [32]). Lo strumento fondamentale per questo studio è il seguente risultato di coincidenza per le multifunzioni: Lemma 4.14. Se a, b ∈ R, a < b, (Z, τ ) è uno spazio connesso, F, G : Z → 2[a,b] sono s.c.i. a valori non vuoti e connessi, t.c. F (Z) = [a, b], allora esiste z ∈ Z t.c. F (z) ∩ G(z) 6= ∅. Dimostrazione. Procediamo per assurdo, supponendo (4.6) F (z) ∩ G(z) = ∅ per ogni z ∈ Z. 2 Sia H = F × G, allora H : Z → 2[a,b] è s.c.i. a valori non vuoti e connessi. Per il Teorema 2.18, H(Z) è connesso. Siano A = {(p, q) ∈ [a, b]2 : p < q}, B = {(p, q) ∈ [a, b]2 : p > q}, insiemi aperti in [a, b]2 t.c. H(Z) ⊆ A ∪ B (per (4.6)). Poiché F (Z) = [a, b], esiste z0 ∈ Z t.c. a ∈ F (z0 ): scelto q ∈ G(z0 ), sempre per (4.6) ho a < q ovvero (a, q) ∈ H(z0 ) ∩ A, cosı́ che H(Z) ∩ A 6= ∅. Similmente dimostriamo che H(Z) ∩ B 6= ∅, contro la connessione di H(Z). Ne segue un teorema di minimax assai generale: Teorema 4.15. Se a, b ∈ R, a < b, (Y, τ ) è uno spazio topologico, f : [a, b] × Y → R verifica le seguenti condizioni: (i) f (x, ·)c è non vuoto e connesso per ogni x ∈ [a, b], c > f∗ ; (ii) f (·, y)c è non vuoto e connesso per ogni y ∈ Y , c > f∗ ; (iii) f (x, ·) è s.c.i. per ogni x ∈ [a, b]; (iv) f (·, y) è s.c.s. per ogni y ∈ Y , allora si ha sup inf f = inf sup f. [a,b] Y Y [a,b] TEORIA DEI GIOCHI 35 Dimostrazione. Procediamo per assurdo, supponendo che esista c ∈ R t.c. f∗ < c < f ∗ . (4.7) Su [a, b] adottiamo la topologia euclidea. Siano S = (x, y) ∈ [a, b] × Y : f (x, y) < c , T = (x, y) ∈ [a, b] × Y : f (x, y) > c . Proviamo che S è connesso. Ovviamente [a, b] è connesso; inoltre, per ogni x ∈ [a, b], da c > f∗ ≥ inf f (x, ·) Y segue che Sx 6= ∅, e tale insieme è connesso (i); per ogni y ∈ Y , S y è aperto (iv). Dunque, l’asserto segue dal Lemma 2.22. Siano F, G : S → 2[a,b] definite da F (x, y) = {x}, G(x, y) = T y per ogni (x, y) ∈ S. Per ogni (x, y) ∈ S, chiaramente F (x, y) 6= ∅ è connesso; F è s.c.i.; inoltre, per ogni x ∈ [a, b], esiste y ∈ Y t.c. x ∈ F (x, y) (come visto sopra), quindi F (S) = [a, b]. D’altra parte, per ogni (x, y) ∈ S l’insieme G(x, y) 6= ∅ è connesso (ii); infine, per ogni z ∈ [a, b] e ogni (x, y) ∈ G− (z) abbiamo f (z, y) > c, quindi (iii) esiste W ∈ UY (y) t.c. f (z, w) > c per ogni w ∈ W , cosı̀ che (u, w) ∈ G− (z) per ogni (u, w) ∈ S t.c. w ∈ W ovvero G− (z) è aperto, in particolare G è s.c.i. Per la Proposizione 4.14 esiste (x, y) ∈ S t.c. F (x, y) ∩ G(x, y) 6= ∅. Si ha dunque x ∈ T y , ovvero (x, y) ∈ S ∩ T , assurdo. 5. Giochi cooperativi Hey you, don’t tell me there’s no hope at all. Together we stand, divided we fall. R. Waters In questa sezione introduciamo i giochi cooperativi, caratterizzati dalla possibilità che i giocatori si associno in coalizioni per perseguire una maggiore utilità: presupposto fondamentale perché ciò avvenga è che i giocatori possano comunicare tra loro stabilendo degli accordi. Per semplicità esamineremo il caso dei giochi cooperativi statici. Per approfondimenti rimandiamo a Colombo [10], Morgenstern [27]. Definizione 5.1. Siano P un insieme, v : 2P → R+ una funzione verificante le proprietà (i) v(∅) = 0; (ii) se S, T ∈ 2P , S ∩ T = ∅, allora v(S ∪ T ) ≥ v(S) + v(T ). La coppia Γ = (P, v) è detta gioco (cooperativo); gli elementi di P sono detti giocatori, i sottoinsiemi di P coalizioni, v(S) utilità corrispondente alla coalizione S ∈ 2P , v funzione caratteristica del gioco. 36 A. IANNIZZOTTO La proprietà (ii) della Definizione 5.1 è detta super-additività ed esprime il fatto che coalizzarsi ’conviene’ ai singoli giocatori (essa non è richiesta in tutte le versioni della teoria dei giochi cooperativi). In particolare, alla grande coalizione P corrisponde il valore massimo della funzione caratteristica: questo rappresenta l’utilità totale del gioco, e il problema principale consiste nel trovare una coalizione che distribuisca tale utilità in modo soddisfacente per tutti i giocatori che la formano. Nel seguito adotteremo la notazione P = {1, . . . n} (n ∈ N0 ). Definizione 5.2. Due giochi Γ = (P, v), Γ0 = (P, v 0 ) si dicono strategicamente equivalenti (Γ ∼ Γ0 ) se esistono r > 0, a1 , . . . an ∈ R t.c. X v 0 (S) = rv(S) + ai per ogni S ∈ 2P . i∈S Si dimostra facilmente che l’equivalenza strategica è effettivamente una relazione di equivalenza (riflessiva, simmetrica, transitiva) sull’insieme dei giochi con insieme dei giocatori P . Segnaliamo ora alcune importanti classi di giochi cooperativi. Definizione 5.3. Un gioco Γ = (P, v) è detto (i) essenziale se n X v(P ) > v(i); i=1 (ii) normale se v(P ) = 1 e v(i) = 0 per ogni i ∈ P ; (iii) semplice se v(S) ∈ {0, 1} per ogni S ∈ 2P ; (iv) a somma costante se v(S) + v(P \ S) = v(P ) per ogni S ∈ 2P . Chiaramente ogni gioco essenziale e semplice è normale. Inoltre, ogni gioco essenziale può essere normalizzato: Lemma 5.4. Se Γ = (P, v) è un gioco essenziale, allora esiste un unico gioco normale Γ0 = (P, v 0 ) tale che Γ ∼ Γ0 . Dimostrazione. Sia P v(S) − i∈S v(i) Pn v (S) = per ogni S ∈ 2P . v(P ) − j=1 v(j) 0 Il gioco Γ0 = (P, v 0 ) è normale. Inoltre, posto n h i−1 X r = v(P ) − v(j) , ai = −rv(i) per ogni i ∈ P , j=1 si ha v 0 (S) = rv(S) + X ai per ogni S ∈ 2P , i∈S 0 ovvero Γ ∼ Γ . L’unicità è provata facilmente. Una nozione che sarà richiamata in seguito è quella di giocatore fantoccio (dummy player): TEORIA DEI GIOCHI 37 Definizione 5.5. In un gioco Γ = (P, v), i ∈ P è detto giocatore fantoccio se v(S ∪ {i}) = v(S) + v(i) per ogni S ∈ 2P . Esempio 5.6. Nel gioco delle pertiche, tre esploratori devono attraversare un fiume di larghezza l > 0 e ognuno di essi possiede una pertica di lunghezza 2l/3. Si ha P = {1, 2, 3} e, posta 1 l’utilità di attraversare il fiume, possiamo enumerare tutti i valori della funzione caratteristica v : 2P → R: v(p1 ) = v(p2 ) = v(p3 ) = 0, v({p1 , p2 }) = v({p1 , p3 }) = v({p2 , p3 }) = v({p1 , p2 , p3 }) = 1. Il gioco Γ = (P, v) è semplice e a somma costante. Esempio 5.7. Nel gioco della produzione, tre imprenditori P = {p1 , p2 , p3 } dispongono di tre materie prime, per esempio ferro, gomma e legno, nelle quantità indicate dalla seguente tabella: f g l p1 2 3 3 p2 3 0 3 p3 1 3 0 Per produrre un’unità di prodotto finito (che si vende al prezzo 1) serve un’unità di ciascuna materia prima. La funzione caratteristica determina il ricavo ottenibile da ciascuna coalizione: v(p1 ) = 2, v(p2 ) = v(p3 ) = 0, v({p1 , p2 }) = v({p1 , p3 }) = v({p2 , p3 }) = 3, v({p1 , p2 , p3 }) = 6. Il gioco Γ = (P, v) non è a somma costante (v(p1 ) + v({p2 , p3 }) = 5) e neanche normale. Il gioco normalizzato Γ0 = (P, v 0 ) si ottiene ponendo 1 1 r = , a1 = − , a2 = a3 = 0. 4 2 Esempio 5.8. Nel gioco della maggioranza pesata, i partiti P = {p1 , . . . pn } (n ∈ N0 ) dispongono ciascuno di si seggi in parlamento (si ∈ N per ogni i ∈ {1, . . . n}) e il quorum per approvare una legge è q ∈ N. La situazione configura un gioco semplice Γ = (P, v) con P 0 se Pi∈S si < q v(S) = . 1 se i∈S si ≥ q Le nozioni introdotte di seguito servono a definire un concetto ragionevole di soluzione per i giochi cooperativi. Definizione 5.9. Un’imputazione per il gioco Γ = (P, v) è un vettore x ∈ Rn t.c. n X (i) xi = v(P ) (efficienza); i=1 (ii) xi ≥ v(i) per ogni i ∈ {1, . . . n} (razionalità individuale). L’insieme delle imputazioni di Γ si denota i(Γ). 38 A. IANNIZZOTTO Figura 3. Un 2-simplesso in R3 . L’insieme i(Γ) si può rappresentare graficamente mediante un simplesso (n − 1)-dimensionale in Rn (come nella Fig. 3). Introduciamo ora la nozione di nucleo, che esprime il sottoinsieme di i(Γ) contenente le imputazioni vantaggiose non solo per i singoli giocatori, ma anche per ciascuna coalizione: Definizione 5.10. Il nucleo del gioco Γ = (P, v) è l’insieme delle imputazioni x ∈ i(Γ) t.c. X xi ≥ v(S) per ogni S ∈ 2P . i∈S Il nucleo di Γ si denota c(Γ). L’insieme c(Γ) ⊂ Rn è chiuso e convesso. Il problema di determinare il nucleo di Γ rientra nella programmazione lineare (una branca dell’ottimizzazione): si definiscono un insieme n o X X = (x1 , . . . xn ) ∈ Rn : xi ≥ v(S) per ogni S ∈ 2P i∈S e una funzione f : X → R definita da f (x1 , . . . xn ) = n X xi ; i=1 per il Teorema di Weierstraß e per la definizione di X, esiste (x1 , . . . xn ) ∈ X t.c. f (x1 , . . . xn ) = inf f = f ≥ v(P ). X A questo punto occorre distinguere due casi: • se f = v(P ), allora (x1 , . . . xn ) ∈ c(Γ); • se f > v(P ), allora c(Γ) = ∅. TEORIA DEI GIOCHI 39 Nell’Esempio 5.6 si ha c(Γ) = ∅, nell’Esempio 5.7 si ha c(Γ) = (x1 , x2 , 6 − x1 − x2 ) ∈ R3 : 2 ≤ x1 ≤ 3, 0 ≤ x2 ≤ 3, x1 + x2 ≤ 3 . Esempio 5.11. Nel gioco dei musicisti, tre suonatori P = {p1 , p2 , p3 } si esibiscono da soli, in duo o in trio percependo i seguenti salari: v(p1 ) = 100, v(p2 ) = 150, v(p3 ) = 200, v({p1 , p2 }) = 400, v({p1 , p3 }) = 300, v({p2 , p3 }) = 400, v({p1 , p2 , p3 }) = 600. Attraverso un procedimento grafico, si ottiene c(Γ) = (x1 , 400 − x1 , 200) : 100 ≤ x1 ≤ 200 . Esempio 5.12. Nel gioco dei guanti, 10 persone hanno ciascuna un guanto sinistro e 11 persone hanno ciascuna un guanto destro; ovviamente un guanto solo è inservibile, come pure due guanti uguali, mentre un paio di guanti (diversi) vale 1. Il gioco Γ = (P, v) ha la seguente struttura: P = L ∪ R, dove L = {1, . . . 10} è l’insieme di persone con un guanto sinistro e R = {11, . . . 21} l’insieme di persone con un guanto destro, e per ogni S ∈ 2P si ha v(S) = min{|S ∩ L|, |S ∩ R|}. Chiaramente 21 n o X i(Γ) = x ∈ R21 : xi = 10, xi ≥ 0 per ogni i ∈ {1, . . . 21} . i=1 Detta x ∈ i(Γ) l’imputazione che ha le prime 10 componenti pari a 1 e le altre 11 pari a 0, si ha c(Γ) = {x}. Prima dimostriamo che x ∈ c(Γ). Per ogni S ∈ 2P ho X xi = |S ∩ L| ≥ v(S). i∈S Poi proviamo che x è l’unica imputazione di c(Γ), per assurdo: sia z ∈ c(Γ) \ {x}. Distinguo due casi: • se esiste 11 ≤ h ≤ 21 t.c. zh = a > 0, allora, posto S = P \ {ph }, si ha X X 10 = v(S) ≤ zi = zi = 10 − a < 10, i∈S i6=h assurdo; • se zi = 0 per ogni i ∈ {11, . . . 21}, da z = 6 x segue che esiste 1 ≤ j ≤ 10 t.c. zj = b < 1, da cui, per T = {j, 11}, si ha X 1 = v(T ) ≤ zi = zj + z11 = b < 1, i∈T assurdo. 40 A. IANNIZZOTTO Questo esempio suggerisce l’idea di un forte vantaggio per i possessori di guanti sinistri, ovvero del bene più raro. In alcuni casi, il nucleo si determina facilmente: Proposizione 5.13. Se Γ = (P, v) è un gioco essenziale a somma costante, allora c(Γ) = ∅. Dimostrazione. Per assurdo: sia x ∈ c(Γ). Allora, per ogni j ∈ {1, . . . n} si ha X v(P ) − v(j) = v(P \ {j}) ≤ xi = v(P ) − xj , i6=j cioè xj = v(j), da cui n X v(P ) = i=1 xi = n X v(i), i=1 assurdo. Nei giochi semplici (Definizione 5.3 (iii)) si definisce una classe particolare di giocatori: Definizione 5.14. Sia Γ = (P, v) un gioco semplice: i è detto giocatore di veto se v(P \ {i}) = 0. Chiaramente, in un gioco semplice ogni coalizione ’vincente’ deve contenere tutti gli eventuali giocatori di veto: se S ∈ 2P e i ∈ / S è un giocatore di veto, si ha S ⊆ P \ {i}, da cui v(S) ≤ v(P \ {i}) = 0. Questa nozione si collega a quella di nucleo: Proposizione 5.15. Se Γ = (P, v) è un gioco semplice, le seguenti sono equivalenti: (i) c(Γ) 6= ∅; (ii) Γ ha almeno un giocatore di veto. Dimostrazione. Proviamo che (i) implica (ii), per assurdo: sia v(P \ {i}) = 1 per ogni i ∈ {1, . . . n} e sia x ∈ c(Γ); allora per ogni j ∈ {1, . . . n} si ha X 0 ≤ xj = 1 − xi ≤ 1 − v(P \ {xj }) = 0, i6=j contro l’ipotesi che x sia un’imputazione. Proviamo che (ii) implica (i): sia S la coalizione formata da tutti i giocatori di veto (S 6= ∅). Definiamo x ∈ Rn ponendo 0 se i ∈ /S xi = . 1/|S| se i ∈ S Ottengo cosı̀ n X i=1 Inoltre, se T ∈ 2P , distinguiamo due casi: xi = 1. TEORIA DEI GIOCHI • se v(T ) = 0, allora banalmente X 41 xi ≥ v(T ); i∈T • se v(T ) = 1, per quanto sopra S ⊆ T , da cui X X xi ≥ xi = 1. i∈T i∈S Dunque, x ∈ c(Γ). 5.1. Valore di Shapley. Definiamo adesso il più comune (non l’unico) concetto di soluzione per un gioco cooperativo Γ = (P, v), introdotto da Shapley [35]. Per semplicità adotto la notazione P = {1, . . . n} (n ∈ N0 ). Introduco l’insieme delle permutazioni di P P ! = σ : P → P : σ biunivoca . Per ogni i ∈ P , σ ∈ P ! sia S(i, σ) = j ∈ P : σ(j) < σ(i) la coalizione formata dai giocatori che precedono i nell’ordine stabilito da σ, e sia M (i, σ) = v(S(i, σ) ∪ {i}) − v(S(i, σ)) il contributo marginale di i (ovvero l’incremento di utilità offerto dal giocatore i alla coalizione S(i, σ)). Per la (ii) della Definizione 5.1 si ha M (i, σ) ≥ v(i) per ogni i ∈ P , σ ∈ P !. (5.1) Facendo variare σ ∈ P !, la media dei contributi marginali di i ne misura il valore: Definizione 5.16. Il valore di Shapley del gioco Γ è il vettore φ = (φ1 , . . . φn ) definito da 1 X φi = M (i, σ) per ogni i ∈ P . n! σ∈P ! Il valore di Shapley di Γ si denota Sv(Γ). L’interpretazione della Definizione 5.16 è la seguente: per ogni i ∈ P , φi rappresenta la ricompensa corrisposta al giocatore i, tanto maggiore quanto più rilevante è il contributo dato da i alle varie coalizioni che si possono formare. Per esempio, se si vuole organizzare un torneo di calcio avendo a disposizione molti bravi attaccanti ma pochi bravi difensori, il ’valore’ di questi ultimi (cioè la loro quota del premio in caso di vittoria) sarà maggiore di quello degli attaccanti. Osservazione 5.17. La formula della Definizione 5.16 può risultare di difficile computazione (n! addendi). In tal caso si può usare la formula equivalente 1 X φi = |S|!(n − |S| − 1)! (v(S ∪ {i}) − v(S)) per ogni i ∈ P . n! i∈S / Infatti, per ogni σ ∈ P !, M (i, σ) non dipende da σ bensı̀ solo da S(i, σ). D’altra parte, il numero delle permutazioni che producono una fissata coalizione S è |S|!(n − |S| − 1)!. 42 A. IANNIZZOTTO In questa formula, gli addendi sono 2n−1 (sottoinsiemi di P \ {i}), il che rende la formula apprezzabile per valori grandi di n, in quanto 2n−1 = 0. lim n n! Esempio 5.18. Sia Γ = (P, v) il gioco con P = {1, 2, 3} e v(1) = v(2) = v(3) = 0, v({1, 2}) = v({1, 3}) = 4, v({2, 3}) = 6, v({1, 2, 3}) = 20. I contributi marginali possono essere raccolti nella seguente tabella: σ\i 123 132 213 231 312 321 1 0 0 4 14 4 14 2 3 4 16 16 4 0 16 0 6 16 0 6 0 Dunque si ha Sv(Γ) = (6, 7, 7). I seguenti risultati mostrano che il valore di Shapley rappresenta una soluzione del gioco: Teorema 5.19. Si ha Sv(Γ) ∈ i(Γ). Dimostrazione. Innanzitutto osserviamo che n n X X 1 X M (i, σ) φi = n! i=1 i=1 σ∈P ! n 1 XX M (i, σ) n! σ∈P ! i=1 1 X = [v(P ) − v(∅)] n! σ∈P ! = = v(P ). Inoltre, per ogni i ∈ P , da (5.1) segue φi ≥ 1 X v(i) = v(i). n! σ∈P ! Dunque, φ è un’imputazione. Inoltre si hanno altre proprietà, riassunte nel seguente Teorema di Shapley: Teorema 5.20. Siano Γ = (P, v), Γ0 = (P, v 0 ) giochi con Sv(Γ) = φ, Sv(Γ0 ) = φ0 (i) detto Γ + Γ0 = (P, v + v 0 ), allora Sv(Γ + Γ0 ) = φ + φ0 (additività); TEORIA DEI GIOCHI 43 P (ii) se esistono r > 0, a1 , . . . an ∈ R t.c. v 0 (S) = rv(S) + i∈S ai per ogni S ∈ 2P , allora φ0 = rφ + (a1 , . . . an ) (invarianza per equivalenza strategica); (iii) se esiste σ ∈ P ! t.c. v 0 (S) = v(σ(S)) per ogni S ∈ 2P , allora φ0i = φσ(i) (simmetria); (iv) se i ∈ P è un giocatore fantoccio, allora φi = v(i). Dimostrazione. Dimostriamo (i): per ogni i ∈ P si ha 1 X Svi (Γ + Γ0 ) = [(v + v 0 )(S(i, σ) ∪ {i}) − (v + v 0 )(S(i, σ))] n! σ∈P ! = φi + φ0i . Dimostriamo (ii): per ogni i ∈ P si ha 1 X 0 φ0i = [v (S(i, σ) ∪ {i}) − v 0 (S(i, σ))] n! σ∈P ! i X X 1 Xh rv(S(i, σ) ∪ {i}) + aj + ai − rv(S(i, σ)) − aj = n! σ∈P ! j∈S(i,σ) j∈S(i,σ) 1 X [rM (i, σ) + ai ] = n! σ∈P ! = rφi + ai . Dimostriamo (iii): per ogni i ∈ P si ha 1 X 0 φ0i = [v (S(i, ρ) ∪ {i}) − v 0 (S(i, ρ))] n! ρ∈P ! 1 X [v(σ(S(i, ρ)) ∪ {σ(i)}) − v(σ(S(i, ρ)))] = n! ρ∈P ! = φσ(i) . Dimostriamo (iv): si ha 1 X [v(S(i, σ) ∪ {i}) − v(S(i, σ))] n! σ∈P ! 1 X = v(i) n! σ∈P ! φi = = v(i). Questo conclude la dimostrazione. Osservazione 5.21. Le proprietà (i)-(iv) sono caratteristiche del valore di Shapley (altre definizioni di soluzione di un gioco possiedono alcune di queste proprietà, ma non tutte). Introduciamo una nuova classe di giochi: Definizione 5.22. Un gioco Γ = (P, v) è detto convesso se v(S ∩ T ) + v(S ∪ T ) ≥ v(S) + v(T ) per ogni S, T ∈ 2P . 44 A. IANNIZZOTTO L’interpretazione della Definizione 5.22 è la seguente: siano A, B, C ∈ 2P t.c. A ⊆ B, B ∩ C = ∅; posto S = A ∪ C, T = B, si ha v(B ∪ C) − v(B) ≥ v(A ∪ C) − v(A), ovvero il contributo marginale offerto da C a una coalizione è tanto maggiore, quanto più grande è la coalizione stessa. Nei giochi convessi il valore di Shapley assume un’importanza ancora più spiccata: Teorema 5.23. Se Γ = (P, v) è un gioco convesso, allora Sv(Γ) ∈ c(Γ). Dimostrazione. Fissata σ ∈ P !, sia ψi = M (i, σ). Dimostriamo che ψ ∈ c(Γ): per ogni T ∈ 2P , dalla convessità di Γ segue che per ogni i ∈ T ψi = v({j ∈ P : σ(j) ≤ σ(i)}) − v({j ∈ P : σ(j) < σ(i)}) ≥ v({j ∈ T : σ(j) ≤ σ(i)}) − v({j ∈ T : σ(j) < σ(i)}), da cui X i∈T ψi ≥ X v({j ∈ T : σ(j) ≤ σ(i)}) − i∈T X v({j ∈ T : σ(j) < σ(i)}) i∈T = v(T ). Rammentando che c(Γ) è convesso e che Sv(Γ) = 1 X ψ, n! σ∈P ! si ha infine φ ∈ c(Γ). Di conseguenza, i giochi convessi hanno nucleo non vuoto. Ma, anche se c(Γ) = ∅, il valore di Shapley fornisce una soluzione di Γ. 5.2. Esempi. Presentiamo qui alcuni esempi di giochi cooperativi, studiati mediante il valore di Shapley. Esempio 5.24. Quattro azionisti possiedono rispettivamente il 10%, 20%, 30%, 40% di un’azienda; in una riunione dell’assemblea degli azionisti, una proposta viene approvata se ottiene i voti dei titolari di più del 50% dell’azienda. Questa situazione si può rappresentare con un gioco semplice Γ = (P, v), dove P = {1, 2, 3, 4} e v(1) = v(2) = v(3) = v(4) = 0, v({1, 2}) = v({1, 3}) = v({1, 4}) = v({2, 3}) = 0, v({2, 4}) = v({3, 4}) = 1, v({1, 2, 3}) = v({1, 2, 4}) = v({1, 3, 4}) = v({2, 3, 4}) = 1, v({1, 2, 3, 4}) = 1. Poiché Γ è semplice e non ha alcun giocatore di veto, si ha c(Γ) = ∅ (Proposizione 5.15). Per calcolare Sv(Γ) usiamo l’Osservazione 5.17: 1 X φi = |S|!(3 − |S|)!. 4! i∈S / TEORIA DEI GIOCHI 45 Ricavo φ = (2/24, 6/24, 6/24, 10/24), con il sorprendente esito che la ricompensa di 2 è uguale a quella di 3, benché quest’ultimo possieda più titoli. Esempio 5.25. Il Consiglio di Sicurezza dell’ONU è formato da 5 membri permanenti (con diritto di veto) e da 10 membri transitori (senza diritto di veto); una proposta al Consiglio viene approvata se ottiene almeno 9 voti favorevoli, tra i quali tutti i voti dei membri permanenti. Nasce un gioco semplice Γ = (P, v) con P = {1, . . . 15}, V = {1, . . . 5} (giocatori di veto) e funzione caratteristica definita per ogni S ∈ 2P da 1 se |S| ≥ 9 e V ⊂ S v(S) = . 0 altrimenti Questo è uno dei casi in cui l’Osservazione 5.17 risulta utile (15! ∼ 1300 · 109 , 214 = 16384): 1 X (5.2) φi = |S|!(14 − |S|)! [v(S ∪ {i}) − v(S)] per ogni i ∈ P . 15! i∈S / Fissato i ∈ P \ V , per ogni S ∈ 2P , i ∈ / S esaminiamo tre casi speciali: • se |S| ≤ 7 si ha v(S ∪ {i}) − v(S) = 0; • se |S| ≥ 9 si ha v(S ∪ {i}) − v(S) = 0; • se V \ S 6= ∅ si ha v(S ∪ {i}) − v(S) = 0. Dunque in (5.2) vanno contate solo le coalizioni S ⊆ P \ {i} t.c. |S| = 8, V ⊂ S: il loro numero è 9!/(3!6!), sicché 9!8!6! 4 φi = = . 15!3!6! 2145 Se invece i ∈ V , osserviamo che • se |S| ≤ 7 si ha v(S ∪ {i}) − v(S) = 0; • se V \ (S ∪ {i}) 6= ∅ si ha v(S ∪ {i}) − v(S) = 0. Dunque in (5.2) vanno contate solo le coalizioni S ⊆ P \ {i} t.c. |S| ≥ 8, V \ {i} ⊂ S e si ricava 14 1 X k!(14 − k)!10! 421 φi = = . 15! k=8 (k − 4)!(14 − k)! 2145 Dal confronto tra i due risultati si può dedurre che un membro permanente del Consiglio è molto più importante di uno transitorio, indipendentemente dalla durata. Per concludere, presentiamo un esempio di gioco subadditivo (la differenza, rispetto alla Definizione 5.1, è che può aversi v(S ∪ T ) < v(S) + v(T ) per una coppia di coalizioni S, T ∈ 2P , S ∩ T = ∅). Per tali giochi, i concetti di imputazione e di nucleo come sono stati fin qui definiti non hanno senso, mentre è ancora possibile calcolare il valore di Shapley. Esempio 5.26. Nel gioco dell’aeroporto, si considera un aeroporto in cui atterrano aerei diversi, che richiedono piste di lunghezza diversa; il costo di manutenzione di ciascuna pista va ripartito tra gli aerei che ne fanno uso, tenendo conto che ognuno di essi usura una parte diversa della pista. I giocatori (gli aerei) siano P = {p1 , . . . pn }, raggruppati in k classi P1 = {p1 , . . . pm1 }, . . . Pk = {pmk−1 +1 , . . . pmk } (1 ≤ m1 ≤ . . . ≤ mk = n) 46 A. IANNIZZOTTO in modo che gli aerei della classe Pj abbiano bisogno di una pista di costo (lunghezza) cj (0 < c1 < . . . < ck ). Detta S ∈ 2P una coalizione (per esempio, una compagnia aerea), assegno ad essa un’utilità pari al costo della pista più lunga di cui necessita: v(S) = max {cj : S ∩ Pj 6= ∅} . Cosı̀ è definito un gioco Γ = (P, v) (la funzione caratteristica v non è super-additiva). Il valore di Shapley è alquanto difficile da calcolare in base alla Definizione 5.16. È più semplice procedere come segue: • il costo c1 del primo tratto di pista è diviso tra tutti gli aerei di P ; • il costo c2 − c1 del secondo tratto è diviso tra gli aerei del sottoinsieme ∪kj=2 Pj ; • ... • il costo ck − ck−1 dell’ultimo tratto è diviso tra gli aerei del sottoinsieme Pk . Si dimostra che la ripartizione di costi cosı̀ ottenuta corrisponde a φ. Per esempio, se P = {1, 2, 3} con P1 = {1, 2}, P2 = {3} e c1 = 1, c2 = 4, la tabella dei contributi marginali è la seguente: σ\i 1 2 3 123 1 0 3 132 1 0 3 213 0 1 3 231 0 1 3 312 0 0 4 321 0 0 4 Si ricava Sv(Γ) = (1/3, 1/3, 10/3). 6. Cenni sui giochi dinamici Non si può discendere due volte nel medesimo fiume. Eraclito In questa sezione esponiamo alcuni elementi di teoria dei giochi dinamici, che sono caratterizzati dalla sequenzialità delle scelte dei vari giocatori (ved. Gibbons [14], Morgenstern & von Neumann [28]). Questi giochi sono efficacemente rappresentati tramite grafi, pertanto è utile richiamare alcune nozioni elementari relative a questi oggetti geometrici. Definizione 6.1. Un grafo (semplice) è una coppia G = (V, E) dove V = {v1 , . . . vn } (n ∈ N0 ) è un insieme non vuoto e E ⊆ {e ∈ 2V : |e| = 2} è un insieme di coppie non ordinate di elementi di V . Gli elementi di V sono detti vertici di G, quelli di E sono detti lati. Se e = {v, w} è un lato, v e w ne sono gli estremi; se e, f ∈ E, e 6= f , e ∩ f 6= ∅, e e f sono consecutivi. Se v, w ∈ V e {v, w} ∈ E, v e w sono adiacenti. Alcune nozioni relative ai grafi: TEORIA DEI GIOCHI 47 Figura 4. Un albero. Definizione 6.2. Siano G = (V, E) un grafo, v ∈ V : il grado di v è deg(v) = {e ∈ E : v ∈ e}. Se deg(v) = 0, v è detto vertice isolato. Una catena di estremi v, w ∈ V è un insieme ordinato C = (e1 , . . . em ), dove m ∈ N0 , ei ∈ E, per ogni i ∈ {1, . . . m}, ei , ei+1 consecutivi per ogni i ∈ {1, . . . m − 1}, v estremo di e1 , w estremo di em ; se v = w e i vertici intermedi sono distinti a due a due, C è un ciclo; G è detto aciclico se non contiene cicli; G è connesso se per ogni v, w ∈ V esiste una catena C che congiunge v e w. Un sotto-grafo di G è una coppia G 0 = (V 0 , E 0 ) dove V 0 ⊆ V ed E 0 è l’insieme dei lati di G con gli estremi in V 0 . Più sofisticata è la nozione di grafo orientato, in cui si adotta un ordine tra gli estremi di un lato: Definizione 6.3. Un grafo orientato è una coppia G = (V, E) dove V = {v1 , . . . vn } (n ∈ N0 ) è un insieme non vuoto e E ⊆ V × V . Una catena di estremi v, w ∈ V è un insieme ordinato C = (e1 , . . . em ), dove m ∈ N0 , ei ∈ E, per ogni i ∈ {1, . . . m}, ei , ei+1 consecutivi per ogni i ∈ {1, . . . m − 1}, v primo estremo di e1 , w secondo estremo di em . Se G è un grafo orientato, su V è definita una relazione d’ordine mediante la legge v w se esiste una catena C di estremi v e w.. La classe più studiata di grafi (ved. Fig. 4): Definizione 6.4. Un albero è un grafo orientato, connesso, aciclico. Se G è un albero, un sotto-albero è un sotto-grafo G 0 = (V 0 , E 0 ) t.c. V 0 = {v0 } ∪ {v ∈ V : v0 v}, dove v0 ∈ V . Richiamando la Definizione 1.1 e la susseguente discussione, definiamo un gioco dinamico (deterministico, non-cooperativo) come l’interazione tra due o più decisori razionali e intelligenti (giocatori), che effettuano le loro scelte (mosse) in una sequenza temporale 48 A. IANNIZZOTTO prefissata; ogni giocatore, quando effettua ogni sua mossa, è informato di tutte le mosse precedenti sue e degli altri giocatori e delle loro conseguenze (informazione completa); ai giocatori è vietato stringere accordi vincolanti. Una strategia, per un giocatore, è una sequenza di mosse condizionate dalle mosse degli altri giocatori. Un gioco di questo genere si suole rappresentare in forma estesa (ved. Kuhn & Tucker [22]): denotiamo il gioco con Γ e definiamo l’insieme dei giocatori P = {P1 , . . . Pn } (n ∈ N0 ) e quello degli stati del gioco S = {s1 , . . . sm } (m ∈ N0 ). Sull’insieme degli stati è definito un ordine parziale (relazione transitiva e antisimmetrica). Uno stato s ∈ S è detto iniziale se non esiste t ∈ S t.c. t s (l’insieme degli stati iniziali è denotato Si ) e finale (o esito) se non esiste t ∈ S t.c. s t (l’insieme degli stati finali è denotato Se ), altrimenti è un turno. Ogni giocatore Pi (1 ≤ i ≤ n) dispone di una preferenza sull’insieme Se (ved. Definizione 1.2), e per il Teorema 1.5 anche di una funzione di utilità ui : Se → R. Una mossa è una coppia ordinata (s, t) ∈ S × S t.c. (i) s t; (ii) non esiste u ∈ S t.c. s u t. Una storia è una sequenza finita di stati (s1 , . . . sk ) (k ∈ N0 è detto lunghezza) t.c. s1 s2 . . . sk . Una storia è detta conclusa se sk ∈ Se . Elenchiamo di seguito gli assiomi che saranno adottati nella presente discussione: • lo stato iniziale s0 è unico; • per ogni stato finale s ∈ Se esiste un’unica storia che congiunge s0 con s (la lunghezza di questa storia è detta altezza di s); • esiste una regola di turno, ovvero una funzione τ : S \ Se → P che associa a ogni stato il giocatore a cui spetta muovere. Sotto queste ipotesi, un gioco si può rappresentare mediante un grafo G = (S, E), dove E è l’insieme delle mosse consentite. Proposizione 6.5. Se Γ è un gioco e G il grafo che lo rappresenta, allora G è un albero. Esempio 6.6. Nel gioco dei fiammiferi due giocatori P , Q tolgono a turno quanti fiammiferi vogliono da uno di due gruppi originariamente di 2 fiammiferi ciascuno, posti su un tavolo; vince il primo che lascia il tavolo vuoto. Sia P il primo a muovere. L’albero che rappresenta questo gioco ha 6 foglie, cioè vi sono 6 esiti, 3 dei quali favorevoli a P e 3 a Q. Il concetto di equilibrio di Nash si può applicare anche ai giochi dinamici, ma risulta insoddisfacente: Esempio 6.7. Il gioco dell’entrata è un modello molto generale che abbraccia il seguente caso: un produttore P deve decidere se introdursi (i) oppure no (o) in un mercato monopolizzato da un altro produttore Q; questi può reagire aggressivamente (a), abbassando i prezzi e infliggendo una perdita a sé oltre che al concorrente, oppure pacificamente (p), dividendo il mercato con P . Rappresentando questo gioco Γ in forma strategica, otteniamo la seguente TEORIA DEI GIOCHI 49 tabella dei pay-off: P \Q a p i (−2, 5) (6, 6) o (0, 8) (0, 12) Si ha Ne(Γ) = {(i, p), (o, p)}, conclusione insoddisfacente perché (o, a) corrisponde a un comportamento irrazionale di Q. L’intuizione suggerisce che si dovrebbe avere solo (i, p) come equilibrio. Il modo più semplice per ’risolvere’ un gioco dinamico è quello basato sul metodo di induzione a ritroso (o algoritmo di Zermelo-Kuhn): si tratta di un procedimento finalizzato a eliminare, in un numero finito di passi, tutte le mosse irrazionali di tutti i giocatori; quello che resta è l’unione delle storie razionali, che conduce alle soluzioni del gioco. Sia Γ un gioco: • scegliamo uno stato finale s di altezza massima; • determiniamo lo stato immediatamente precedente t ∈ S e l’insieme T degli stati immediatamente successivi a t (tra cui s); • detto Pi (1 ≤ i ≤ n) il giocatore che muove in t, determiniamo s0 ∈ T t.c. ui (s0 ) = max ui ; T • definiamo un nuovo gioco Γ0 eliminando tutti gli stati di T e attribuendo a t un’utilità per Pi uguale a ui (s0 ); • ripetiamo il procedimento partendo da t (che è uno stato finale di Γ0 ); • ... • raggiungiamo lo stato iniziale s0 . Attraverso questo procedimento si determina una storia soddisfacente la seguente definizione: Definizione 6.8. Un equilibrio perfetto nei sottogiochi per il gioco Γ è una storia completa C = (s0 , s1 , . . . sp ) (p ∈ N0 ) t.c. per ogni 0 ≤ j ≤ p − 1 la mossa migliore per il giocatore che gioca in sj è (sj , sj+1 ). L’insieme degli equilibri perfetti nei sottogiochi di Γ è indicato con spe(Γ). Il procedimento di induzione a ritroso fornisce una dimostrazione costruttiva del seguente Teorema di Selten: Teorema 6.9. Se Γ è un gioco dinamico a informazione completa con un insieme finito di stati, allora spe(Γ) 6= ∅. In generale tale soluzione non è unica, poiché in qualche stato possono darsi due o più mosse ottimali equivalenti per un giocatore. Nel gioco dell’Esempio 6.6, vi sono 2 equilibri perfetti nei sottogiochi, entrambi favorevoli a Q. Nel gioco dell’Esempio 6.7, si ha spe(Γ) = {(i, p)}. Se nell’Esempio 3.3 stabiliamo un turno e aggiungiamo l’ipotesi di informazione completa, otteniamo spe(Γ) = {(t, t)}. 50 A. IANNIZZOTTO Esempio 6.10. Sia Γ un gioco con 2 giocatori P , Q e due mosse, rappresentato dalla seguente tabella dei pay-off: P \Q y1 y2 x1 (2, 1) (0, 0) x2 (1, 2) (1, 2) Si ha Ne(Γ) = {(x1 , y1 ), (x2 , y2 )}. Supponendo che P giochi per primo, si può procedere per induzione a ritroso e ricavare spe(Γ) = {(x1 , y1 )}. L’altro equilibrio (x2 , y2 ) si può interpretare come effetto di una ’minaccia di ritorsione’ da parte di Q: esso comporta una scelta, da parte di P , non ottimale (ma solo perché la minaccia gli preclude l’esito migliore). Dal punto di vista della razionalità individuale, questa minaccia non è credibile, in quanto implica la disponibilità da parte di Q a danneggiare se stesso (nella realtà la faccenda è diversa, come provano i terroristi suicidi). Si noti che un equilibrio perfetto nei sottogiochi non sempre è un equilibrio di Nash per la versione ’statica’ del gioco: Esempio 6.11. Sia Γ un gioco con 2 giocatori P , Q e due mosse, rappresentato dalla seguente tabella dei pay-off: P \Q y1 y2 x1 (2, 1) (0, 0) x2 (3, 0) (1, 1) Si vede facilmente che Ne(Γ) = {(x2 , y2 )}. Se inseriamo una regola di turno per cui P gioca per primo, otteniamo spe(Γ) = {(x1 , y1 )}. Il modello dei giochi dinamici si può generalizzare indebolendo l’ipotesi di informazione completa. Può verificarsi che alcuni stati del gioco s1 , . . . sk (k ∈ N0 ), nei quali è di turno sempre lo stesso giocatore Pi (1 ≤ i ≤ n), siano per tale giocatore indistinguibili: si parla allora di informazione incompleta e l’insieme {s1 , . . . sk } è detto insieme informativo. Coerentemente, le mosse a disposizione di Pi in ognuno degli stati che formano lo stato informativo sono le stesse (esse però conducono a esiti diversi a causa di quelle informazioni che Pi ignora). L’impasse si risolve introducendo una distribuzione di probabilità sull’insieme informativo (ved. Definizione 3.4): se la probabilità di sj secondo Pi è xj , con 0 ≤ xj ≤ 1 per ogni j ∈ {1, . . . k} e k X xj = 1, j=1 e se uj (definita sull’insieme degli stati finali raggiungibili da sj ) è l’utilità per Pi subordinata allo stato sj , allora Pi fa la sua scelta in modo da massimizzare l’utilità mista u= k X j=1 xj uj . TEORIA DEI GIOCHI 51 Esempio 6.12. Considero un gioco con due giocatori P , Q: P gioca per primo scegliendo tra due mosse {a, b}; se sceglie a raggiunge uno stato finale con utilità (1, 3); se sceglie b, P deve fare un’altra mossa da scegliere in {c, d}, ma all’oscuro di Q; quindi gioca Q, che può scegliere in {e, f } con la seguente tabella dei pay-off: P \Q e f c (3, 2) (0, 0) d (2, 2) (−1, 1) Sia 0 ≤ x ≤ 1 la probabilità, secondo Q, che P abbia scelto c al secondo stadio (dunque 1 − x è la probabilità che abbia scelto d). Allora Q deve massimizzare l’utilità v data da v(e) = 2x + 2(1 − x) = 2, v(f ) = 0x + 1(1 − x) = 1 − x. Qualunque sia x, Q sceglie e. Dunque P , alla sua seconda mossa, può attribuire le utilità u(c) = 3, u(d) = 2 e sceglie c. Risalendo allo stato iniziale del gioco, P sceglie b e i pay-off finali sono (3, 2). Quando si introducono le probabilità, però, bisogna tenere conto delle valutazioni di tutti i giocatori: infatti, in base alla propria intelligenza e alla razionalità degli altri, ogni giocatore modifica le sue valutazioni in base alle mosse che ha osservato. Per studiare questo tipo di giochi si adopera l’approccio bayesiano, che è basato sulle probabilità condizionate e sul metodo di induzione a ritroso. Tale approccio non sarà qui trattato, ma il seguente Esempio 6.19 ne fornisce un assaggio. 6.1. Esempi. Presentiamo infine alcuni esempi di giochi dinamici, sia in regime di informazione completa che di informazione incompleta. Esempio 6.13. Nel gioco dell’ultimatum, su un tavolo ci sono 100 monete; il giocatore P fa una proposta di spartizione al giocatore Q (in cui ognuno riceva almeno una moneta, cioè da 1 a 99); se questi accetta (a), si procede secondo la proposta; se rifiuta (r), nessuno prende monete. Si ha spe(Γ) = {(99, 1)}, il che dimostra come il concetto di equilibrio sia spesso in contrasto con l’esperienza. Esempio 6.14. Nel gioco dei pirati, 5 pirati devono dividere un bottino di 1000 dobloni secondo il seguente procedimento: il pirata P1 fa la sua proposta e la mette ai voti, se ottiene la maggioranza il bottino viene diviso secondo la sua proposta, altrimenti P1 viene ucciso; P2 fa la sua proposta... Questo enigma si risolve per induzione a ritroso: • • • • • P5 , rimasto solo, prende i 1000 dobloni per sé; P4 non può garantirsi il voto di P5 e muore; P3 offre 1 doblone a P4 e ne conserva 999; P2 offre 2 dobloni a P4 e 1 a P5 e ne conserva 997; P1 offre 2 dobloni a P5 e 1 a P3 e ne conserva 997. Inaspettatamente, P1 può risolvere il problema in modo molto vantaggioso. 52 A. IANNIZZOTTO Esempio 6.15. Il modello di Stackelberg è quasi identico a quello dell’Esempio 3.18, la sola differenza essendo che P ha una posizione dominante, cioè ’gioca per primo’. Dunque P sceglie la sua strategia x sapendo che Q risponderà con la strategia condizionata y(x) = a−c−x . 2 Dunque P opera in modo tale da massimizzare il proprio pay-off f : [0, a] → R, definito da f (x) = f (x, y(x)) = (a − c)x − x2 . 2 L’equilibrio raggiunto è a−c a−c , y= . 2 4 Osserviamo che la posizione dominante di P distorce il mercato, consentendogli un maggior profitto a danno di Q, ma a vantaggio dei consumatori (il prezzo è più basso). x= Esempio 6.16. La corsa agli sportelli è un modello usato per interpretare le crisi di fiducia che talvolta colpiscono il mercato finanziario. Siano 0 < s < d < r numeri reali. Due investitori P , Q hanno depositato in banca ciascuno una somma d, che la banca ha investito in parte; al tempo I, la banca dispone di una somma 2s, mentre al tempo II, giunto a maturazione l’investimento, essa dispone di una somma 2r. Gli investitori possono scegliere se prelevare (p) o lasciare (l) al tempo I, con i seguenti pay-off: P \Q p l p (s, s) (d, 2s − d) l (2s − d, d) (rinvio) oppure al tempo II, con i seguenti pay-off: P \Q p l p (r, r) (2r − d, d) l (d, 2r − d) (r, r) Il gioco al tempo II ha un solo equilibrio di Nash (p, p), quindi al tempo I attribuisco (r, r) come pay-off della coppia di strategie (l, l) che pertanto diventa anch’essa equilibrio di Nash. Procedendo per induzione a ritroso, si ha lo stesso risultato: l’unico equilibrio perfetto nei sottogiochi è la storia in cui P e Q lasciano al tempo I e prelevano al tempo II. Esempio 6.17. Nel gioco del ’prendere o lasciare’ (detto anche gioco del millepiedi per la caratteristica forma del grafo associato), due giocatori P , Q scelgono a turno se prendere (p) o lasciare (l) un premio che inizialmente vale 1 e poi cresce di 1 a ogni turno fino a un valore k (k ∈ N0 pari); se dopo k turni il premio è ancora intatto, viene diviso in parti eguali. Comincia P . L’induzione a ritroso fornisce un unico equilibrio perfetto nei sottogiochi, corrispondente alla scelta da parte di P di prendere al primo turno. Tuttavia questo equilibrio è lungi dall’essere ottimale. Questo esempio mostra come il metodo dell’induzione a ritroso possa anche condurre a dei paradossi. TEORIA DEI GIOCHI 53 Esempio 6.18. Riprendiamo in esame il gioco dell’Esempio 3.3, supponendo che P giochi per primo e Q giochi ignaro della scelta di P . Sia 0 ≤ x ≤ 1 la probabilità che P abbia taciuto secondo Q, allora Q confronta le utilità v(t) = −1x − 10(1 − x) = 9x − 10, v(c) = 0x − 5(1 − x) = 5x − 5 e sceglie sempre c in quanto v(c) > v(t) per ogni x ∈ [0, 1]. P , al momento di scegliere, lo sa: quindi deduce le proprie utilità che sono u(t) = −10, u(c) = −5 e sceglie c. Si noti che la soluzione è identica a quella dell’Esempio 3.3: infatti, l’incertezza rende irrilevante l’ordine delle mosse. Esempio 6.19. Esaminiamo un semplice gioco di carte con due giocatori P , Q. All’inizio entrambi puntano 1; poi P pesca una carta da un mazzo ordinario e la guarda; P sceglie tra due opzioni, f (fold) e r (raise): se sceglie f , mostra la carta e prende il banco se la carta è rossa, mentre se è nera lo prende Q; se sceglie r, aggiunge 1 e lascia la carta coperta; ora gioca Q, che ha pure due scelte, m (meet) e p (pass): se sceglie p rinuncia e P prende il banco, se sceglie m punta 1 e scopre la carta, e anche in questo caso il banco va a P se la carta è rossa e a Q se è nera. Gli stati che seguono alla scelta f da parte di P formano un insieme informativo per Q, che deve scegliere in condizioni di incertezza. Secondo Q, la probabilità che la carta coperta sia rossa è x ∈ [0, 1] (quindi la probabilità che sia nera è 1 − x). Allora le utilità ponderate di Q sono date dalla funzione v : {m, p} → R definita da v(m) = −2x + 2(1 − x) = 2 − 4x, v(p) = −x − (1 − x) = −1. A questo punto è chiaro che Q sceglie m se 0 ≤ x < 3/4, è indifferente se x = 3/4 e sceglie p se 3/4 < x ≤ 1. In particolare, se x = 1/2, la scelta di Q è sempre m. In questo caso si può procedere per induzione a ritroso: le utilità di P al momento della sua mossa sono u(r) = 2, u(f ) = 1 se la carta è rossa, u(r) = −2, u(f ) = 1 se la carta è nera. Dunque, P sceglie r se la carta è rossa e f se è nera. Si potrebbe osservare che, a questo punto, Q, che gioca dopo P , può dedurre il colore della carta dalla mossa di P : se P sceglie r la carta è rossa e a Q conviene scegliere p; se P sceglie f la carta è nera e a Q conviene scegliere m. 54 A. IANNIZZOTTO Riferimenti bibliografici [1] J.P. Aubin, Mathematical methods of game and economic theory, North-Holland (1979). 2, 19 [2] J.P. Aubin, H. Frankowska, Set-valued analysis, Birkhäuser (2008). 7 [3] É. Borel, La théorie du jeu et le équations intégrales à noyau symétrique, C.R. Hebdomadaires des Séances de l’Academie des Sciences 173 (1921) 1304-1308. 2 [4] R. Brânzei, J. Morgan, V. Scalzo, S. Tijs, Approximate fixed point theorems in Banach spaces with applications in game theory, J. Math. Anal. Appl. 285 (2003) 619-628. 16, 26 [5] F. Browder, On a new generalization of the Schauder fixed point theorem, Math. Ann. 174 (1967) 285-290. 16 [6] E. Burger, Introduzione alla teoria dei giochi, Franco Angeli (1967). 2 [7] A. Cellina, Approximation of set valued functions and fixed point theorems, Ann. Mat. Pura Appl. 82 (1969) 17–24. 15 [8] K.C. Chang, Variational methods for nondifferentiable functionals and their applications to partial differential equations, J. Math. Anal. Appl. 80 (1981) 102-129. 7 [9] V. Checcucci, A. Tognoli, E. Vesentini, Lezioni di topologia generale, Feltrinelli (1982). 12, 18 [10] F. Colombo, Introduzione alla teoria dei giochi, Carocci (2008). 2, 19, 35 [11] M. Fabian, P. Hamala, P. Hájek, V. Montesinos, V. Zizler, Banach space theory, Springer (2011). 17 [12] K. Fan, Applications of a theorem concerning sets with convex sections, Math. Ann. 163 (1966) 189-203. 32 [13] A.F. Filippov, A differential equation with discontinuous right hand side, Math. Sbornik 54 (1960) 99–128. 7 [14] R. Gibbons, Teoria dei giochi, Il Mulino (1992). 2, 19, 46 [15] I.L. Glicksberg, A further generalization of the Kakutani fixed point theorem, with applications to Nash equilibrium points, Proc. Amer. Math. Soc. 3 (1952) 170-174. 16 [16] A. Granas, J. Dugundji, Fixed point theory, Springer (2003). 14, 15, 16, 17, 18 [17] S. Kakutani, A generalization of Brouwer’s fixed point theorem, Duke Math. J. 8 (1941) 457-459. 15, 33 [18] B. Knaster, C. Kuratowski, S. Mazurkiewicz, Ein Beweis des Fixpunktsatzes für n-dimensionale Simplexe, Fund. Math. 14 (1926). 17 [19] H. König, A general minimax theorem based on connectedness, Arch. Math. (Basel) 59 (1992) 55-64. 15, 33 [20] E. Krein, A.C. Thompson, Theory of correspondences, Wiley (1984). 7 [21] D.M. Kreps, Notes on the theory of choice, Westview Press (1988). 3 [22] H.W. Kuhn, A.W. Tucker (Eds.), Contributions to the theory of games, Princeton University Press (1953). 2, 48, 55 [23] J.C.C. McKinsey, Introduction to the theory of games, Rand (1952). 2 [24] E. Michael, Continuous selections I, Ann. of Math. 63 (1956) 361–382. 12 [25] E. Michael, Continuous selections II, Ann. of Math. 64 (1956) 562–580. 12 [26] E. Michael, Continuous selections III, Ann. of Math. 65 (1956) 375–390. 12 [27] O. Morgenstern, Teoria dei giochi, Bollati Boringhieri (1969). 2, 35 [28] O. Morgenstern, J. von Neumann, Theory of games and economic behavior, Princeton (1953). 2, 46 [29] J. Nash, Non-cooperative games, Ann. Math. 54 (1951) 286–295. 5, 21 [30] B. Ricceri, Some topological mini-max theorems via an alternative principle for multifunctions, Arch. Math. (Basel) 60 (1993) 367–377. 2, 34 [31] B. Ricceri, S. Simons (eds.), Minimax theory and applications, Kluwer (1998). 28 [32] J.D. Rossi, Tug-of-war games and PDEs, Proc. Roy. Soc. Edinburgh Sect. A 141 (2011) 319–369. 2, 34 [33] W. Rudin, Functional analysis, McGraw-Hill (1991). 14 TEORIA DEI GIOCHI [34] [35] [36] [37] 55 R. Scozzafava, Incertezza e probabilità, Zanichelli (2001). 20 L.S. Shapley, A value for n-person games, in [22]. 41 J. von Neumann, Zur Theorie der Gesellschaftsspiele, Math. Ann. 100 (1928) 295-320. 2, 31 E. Zermelo, Uber die Anwendung der Mengenlehre auf die Theorie des Schachspiels, Proceedings of the Fifth International Congress of Mathematicians (1913) 501-504. 2 Dipartimento di Matematica e Informatica Università degli Studi di Cagliari Viale L. Merello 92, 09123 Cagliari, Italy E-mail address: [email protected]