Università degli studi di Siena
Dipartimento di ingegneria dell’informazione e scienze matematiche
Dispense del corso di
Teoria dei Giochi e Giochi Evolutivi
Parte 2 - Teoria dei Giochi Evolutivi
Dario Madeo, Chiara Mocenni
Marzo 2016
Indice
1 Introduzione
2
2 Stabilità Evolutiva
3
2.1
Strategie Evolutivamente Stabili (ESS) . . . . . . . . . . . . . . . . . . . . .
4
2.2
Equilibri di Nash puri e strategie pure evolutivamente stabili in giochi simmetrici a due giocatori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
3 Dalla teoria dei giochi alla replicator dynamics
3.1
La replicator dynamics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
8
3.1.1
Invarianza nella trasformazione dei payoff . . . . . . . . . . . . . . . .
11
3.1.2
La soluzione indotta . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
3.2
Replicator dynamics e evoluzione biologica . . . . . . . . . . . . . . . . . . .
12
3.3
Classificazione dei giochi evolutivi 2x2 . . . . . . . . . . . . . . . . . . . . .
15
3.4
Stati stazionari della replicator equation ed equilibri di Nash . . . . . . . . .
17
3.4.1
Stati stazionari e ∆N E . . . . . . . . . . . . . . . . . . . . . . . . . .
18
3.4.2
Stati Lyapunov stabili e ∆N E . . . . . . . . . . . . . . . . . . . . . .
19
Sintesi dei concetti base ed esercizi . . . . . . . . . . . . . . . . . . . . . . .
21
3.5
4 Applicazione dei giochi evolutivi all’ecologia
1
23
Capitolo 1
Introduzione
La teoria dei giochi classica si occupa di interazioni che avvengono una sola volta tra giocatori
perfettamente razionali, che conoscono tutti i dettagli del gioco. Nella teoria dei giochi
evolutiva, invece, il gioco si ripete continuamente nel tempo ed avviene tra giocatori, scelti
casualmente, in una popolazione sufficientemente vasta. Tali giocatori sono programmati per
agire in un determinato modo, ovvero utilizzando una strategia del gioco, e hanno la capacità
di replicarsi con un certo tasso riproduttivo. I figli scelgono le stesse strategie dei genitori.
La dinamica dei replicator assume che gli individui possono adottare solamente strategie
pure, cioè quelle appartenenti all’insieme delle strategie del gioco. In generale, un processo
evolutivo combina due elementi di base: un meccanismo di mutazione, che introduce elementi
di differenziazione tra le strategie, e un meccanismo di selezione che favorisce alcune strategie
rispetto ad altre. Nella sua formulazione la dinamica di replicator viene formalizzata come
un sistema di equazioni differenziali ordinarie, mentre la robustezza contro le mutazioni è
indirettamente governata da i criteri di stabilità dinamica. Analogamente a quanto accade
nella teoria dei giochi calssica, anche nel caso evolutivo è possibile avere strategie miste.
Una strategia mista x può essere interpretata come uno stato della popolazione, dove ogni
componente xi rappresenta lo share di individui della popolazione che sono programmati ad
adottare la corrispondente strategia pura i. Continueremo ad interpretare il payoff come
il vantaggio di un individuo, misurato come tasso di riproduzione. La cosa interessante in
questi modelli è che le variazioni dello stato della popolazione modificano anche i payoff e
il vantaggio delle strategie pure. Come detto sopra queste dinamiche sono modellate come
un sistema di equazioni differenziali ordinarie non lineare e adattabile a descrivere molti
fenomeni reali.
Un concetto molto importante che ci introduce ai giochi evolutivi è quello delle strategie
evolutivamente stabili, che vengono discusse nel prossimo paragrafo.
2
Capitolo 2
Stabilità Evolutiva
In questo paragrafo viene illustrato il concetto di strategia evolutivamente stabile (ESS). Una
strategia si dice ESS se è robusta rispetto a pressioni evolutive da parte di altre strategie. Si
consideri una popolazione di individui indistinti e programmati a giocare una determinata
strategia pura o mista (strategia prevalente) nell’ambito di una serie ripetuta di giochi a due
giocatori scelti a caso nella popolazione. Supponiamo dunque di inserire nella popolazione
un piccolo numero di individui che giocano un’altra strategia pura o mista. La strategia
prevalente viene detta ESS se per ogni strategia mutante esiste una barriera di invasione
tale che il numero di individui che gioca la strategia mutante rimane al di sotto di questa
barriera in quanto la strategia prevalente fornisce sempre un payoff più alto.
Questo approccio dunque considera interazioni simmetriche tra coppie di individui appartenenti ad una popolazione infinita. Inoltre, il concetto di strategia evolutiva si basa sulla
connessione che esiste tra i payoffs di un gioco e la diffusione di una determinata strategia
in una popolazione. In particolare, i payoffs del gioco rappresentano il guadagno in termini di fitness biologica o di capacità riproduttiva derivante dall’interazione in questione.
Le strategia ESS generalizzano l’evoluzione biologica in senso darwiniano, cioè l’idea della
sopravvivenza di coloro che utilizzano strategie che forniscono una fitness più alta delle altre
possibili, e in cui la fitness stessa dipende dal comportamento (dalle strategie) degli altri
individui della popolazione.
Analogamente all’equilibrio di Nash, la stabilità evolutiva non spiega come la popolazione è
arrivata ad adottare tale strategia.
Il concetto di ESS può essere utilizzato anche per spiegare la robustezza del comportamento
umano in un’ampia gamma di situazioni, come l’ambito sociale ed economico. In tal senso, la stabilità evolutiva richiede che un piccolo gruppo di individui che tenta di utilizzare
una strategia alternativa ottiene un risultato peggiore di coloro che adottano la strategia
prevalente, i quali dunque non hanno motivo di cambiare il proprio comportamento. Una
3
strategia ESS in questo contesto viene chiamata convenzione.
2.1
Strategie Evolutivamente Stabili (ESS)
Supponiamo che gli individui della popolazione abbiano a disposizione m strategie pure,
s1 , . . . , sm , e che siano in grado di giocare anche strategie miste (x1 , . . . , xm ), dove xi rappresenta la probabilità di giocare la strategia pura si . L’insieme delle strategie del gioco
appartiene al simplesso
(
)
m
X
m
Sm = x = (x1 , . . . , xm ) ∈ R : xi ≥ 0,
xi = 1 .
i=1
• Gli angoli del simplesso sono le strategie pure rappresentate dai vettori unitari e1 , . . . , em ,
• L’interno del simplesso è costituito solo da strategie completamente miste, cioè in cui
xi > 0 per ogni i,
• I bordi del simplesso sono costituiti da strategie per cui esiste almeno una componente
xi = 0 delle strategie del gioco.
Consideriamo il gioco a due giocatori, in cui πij rappresenta il payoff ottenuto dal primo
giocatore quando gioca la strategia pura Si contro il secondo giocatore che usa la strategia
pura Sj . La matrice A = (aij ) è la matrice di payoff del gioco. Uno stratega Si ottiene un
payoff
X
(Ay)i =
aij yj
j
contro uno stratega y = (y1 , . . . , ym ). Il payoff ottenuto da uno stratega x = (x1 , . . . , xm )
ottiene un payoff
X
xT Ay =
aij xi yj .
ij
L’insieme delle best responses β(y) è l’insieme delle strategie per cui xT Ay è massimo.
Un equilibrio di Nash nel contento dei giochi simmetrici a due giocatori è una strategia che
rappresenta la miglior risposta a se stessa, cioè y è un equilibrio di Nash se
xT Ay ≤ yT Ay,
per ogni x 6= y. L’equilibrio di Nash è stretto se
xT Ay < yT Ay.
4
Gli equilibri di Nash stretti sono strategie pure.
Supponiamo adesso che nella popolazione vi siano una strategia prevalente x̂ ed una strategia divergente x che viene giocata con una probabilità . La strategia mista giocata nella
popolazione sarà dunque x + (1 − )x̂. La strategia x̂ si dice evolutivamente stabile se per
ogni strategia divergente x si ha che la disuguaglianza
xT A(x + (1 − )x̂) < x̂T A(x + (1 − )x̂)
è verificata per ogni > 0 inferiore ad un valore ¯(x) > 0, detto barriera di invasione.
Possiamo riscrivere questa disuguaglianza come
(1 − )(x̂T Ax̂ − xT Ax̂) + (x̂T Ax − xT Ax) > 0.
Facendo tendere a 0, abbiamo che la strategia x̂ è evolutivamente stabile se sono verificate
le due condizioni seguenti:
a Condizione di equilibrio
x̂T Ax̂ ≥ xT Ax̂, per ogni x ∈ S;
b Condizione di stabilità
se x 6= x̂ e x̂T Ax̂ = xT Ax̂, allora x̂T Ax > xT Ax.
La strategia x̂ è una best response a se stessa, ma questo fatto da solo non è sufficiente a
garantire la non invadibilità da parte di un’altra strategia, infatti nel caso dell’uguaglianza
esiste una best response alternativa x. Va allora verificato che x̂ fornisce un payoff maggiore
se giocata contro x di quanto ottenuto giocando x stessa.
Se una strategia è un equilibrio di Nash stretto allora è ESS. Se una strategia è ESS, allora
è un equilibrio di Nash.
Si dimostra il seguente teorema.
Teorema. Una strategia x̂ ∈ S è ESS sse
x̂T Ay > yT Ay
per ogni y 6= x̂ in qualche intorno di x̂ in S.
Da ciò segue che se vi è una strategia ESS nell’interno del simplesso S, allora questa è unica.
Infatti la disuguaglianza del teorema precedente deve valere per ogni altra strategia. Dunque, se vi sono ESS multiple, esse devono appartenere alla frontiera di S.
5
Esercizio 1. Trovare tutti gli equilibri di Nash di un gioco con due giocatori e due strategie.
Quali sono stretti?
Esercizio 2. Verificare che nel gioco Falchi e Colombe, descritto dalla matrice di payoff:
A=
G−C
2
0
G
G
2
(2.1)
l’unica strategia ESS è x∗ = G/C.
Esercizio 3. Verificare che nel gioco descritto dalla matrice di payoff


0 6 −4
A =  −3 0 5 
−1 3 0
(2.2)
la strategia mista x = (1/3, 1/3, 1/3) non è ESS. Sol. La strategia pura e1 è ESS.
Esercizio 4. Verificare la presenza di strategie pure e degli equilibri di Nash (misti e puri)
nel gioco descritto dalla matrice di payoff:


1 0 0
A =  0 1 0 .
(2.3)
0 0 1
Sol. Nel gioco vi sono 3 ESS (e1 , e2 , e3 ) e un NE misto.
Esercizio 5. Verificare la presenza di strategie pure e degli equilibri di Nash (misti e puri)
nel gioco descritto dalla matrice di payoff:


0
1 −1
1 .
A =  −1 0
(2.4)
1 −1 0
Sol. Nel gioco non vi sono ESS e vi è un NE misto (1/3, 1/3, 1/3).
Esercizio 6. Dimostrare, applicando la definizione, la condizione di ESS per una strategia
pura in un gioco generico a due giocatori e due strategie.
6
2.2
Equilibri di Nash puri e strategie pure evolutivamente stabili in giochi simmetrici a due giocatori
NE e ESS puri in giochi a 2 strategie
Nel gioco evolutivo a 2 strategie, descritto dalla matrice dei payoff
A=
a b
c d
,
valgono le seguenti proprietà.
• La strategia s1 è un equilibrio di Nash stretto se a > c;
• La strategia s1 è un equilibrio di Nash se a ≥ c;
• La strategia s2 è un equilibrio di Nash stretto se d > b;
• La strategia s2 è un equilibrio di Nash se d ≥ b.
La strategia pura s1 si dice evolutivamente stabile se a > c, oppure a = c e b > d.
Sotto queste condizioni la selezione si oppone all’invasione di s2 su s1 .
Nel caso più generale di n strategie pure, sia π(ei , ej ) il payoff della strategia ei rispetto a ej .
NE e ESS puri in giochi a m strategie
i Una strategia ek è un equilibrio di Nash stretto se π(ek , ek ) > π(ei , ek ), ∀i 6= k;
ii Una strategia ek è un equilibrio di Nash se π(ek , ek ) ≥ π(ei , ek ), ∀i 6= k.
iii Una strategia ek è evolutivamente stabile se π(ek , ek ) > π(ei , ek ), ∀i 6= k, oppure
π(ek , ek ) = π(ei , ek ) e π(ek , ei ) > π(ei , ei ) ∀i 6= k.
7
Capitolo 3
Dalla teoria dei giochi alla replicator
dynamics
3.1
La replicator dynamics
Si supponga di disporre di una popolazione di n giocatori (n sufficientemente grande), ognuno dei quali possiede la stessa matrice di payoff A ∈ Rm×m . Ad ogni istante di tempo, coppie
di giocatori si sfidano, adottando determinate strategie ed ottenendo un determinato payoff;
riprendendo i concetti visti finora, la sfida avviene dunque tra due giocatori, dove il primo
ha matrice di payoff pari ad A, mentre il secondo ha matrice B = AT .
Le strategie a disposizione di ogni giocatore sono uguali e sono esattamente n. Un giocatore
decide di usare una certa strategia secondo uno schema precostituito non necessariamente
valido da un punto di vista ”razionale”. All’istante iniziale di tempo, diciamo t = 0, sono
note le percentuali di soggetti presenti nella popolazione che adottano, secondo il loro schema
precostituito, una certa strategia. In particolare xi (0) indica la percentuale di popolazione
che adotterà nel prossimo scontro la strategia i-esima. In particolare si ha che:
xi (0) ∈ [0, 1] ∀i = 1...m ∧
m
X
xi (0) = 1.
i=1
Per chiarire meglio cosa succederà negli istanti successivi a t = 0, si supponga all’istante t di
chiedere a tutti i giocatori di scrivere la loro prossima strategia su un foglietto. Si prendono
poi tutti i nomi dei giocatori e si inseriscono in un’urna; in maniera casuale ne vengono
estratti due per volta, ed essi si sfideranno utilizzando la strategia che avevano segnato sul
8
loro foglietto. La probabilità di estrarre un giocatore che adotta la strategia i è pari a xi (t),
mentre quella di estrarre un giocatore con strategia j è xj (t). In tal caso, entrambi otterranno
un payoff pari a aij . Se ci si sofferma sulla prima estrazione, dopo aver scoperto che il primo
giocatore è di tipo i, si potrebbe voler sapere quale sarà il payoff medio che potrà ottenere
contro l’avversario che ancora non è stato estratto e di cui quindi ancora non si conosce la
strategia. In particolare si ha che:
pi (t) =
m
X
aij xj (t)
j=1
dove pi (t) è il payoff medio che si voleva calcolare. Sfruttando il precedente risultato, si può
inoltre calcolare il payoff medio della partita a priori, cioè senza conoscere l’esito di nessuna
delle due estrazioni. Esso in particolare è:
φ(t) =
m
X
pi (t)xi (t) =
i=1
m X
m
X
aij xi (t)xj (t)
i=1 j=1
La differenza tra queste equazioni e quelle introdotte in precedenza è che il meccanismo
appena descritto costituisce una diversa ma comunque valida interpretazione del concetto di
strategie miste. Si noti che in tale contesto, si utilizza solo il vettore delle strategie miste
x. Difatti il procedimento di sfide successive descritto finora avviene sempre tra soggetti
uguali (= stessa matrice di payoff), che si differenziano solo per la strategia usata ad un
certo istante; viene quindi a cadere la netta distinzione tra giocatore 1 e 2 (e quindi x ed y)
poichè in questo contesto ognuno è un pò l’avversario di se stesso!
La dinamica del sistema appena descritto prevede l’evoluzione temporale del vettore delle
strategie miste, secondo regole che prevedono l’apprendimento da parte della popolazione
di quali siano le strategie migliori da adottare. Le seguenti equazioni differenziali ordinarie
sono costruite appositamente per descrivere questo tipo di fenomeno:
ẋi (t) = xi (t)[pi (t) − φ(t)] ∀i = 1...m
(3.1)
Tali equazioni prendono il nome di replicator dynamics a tempo continuo. Per il
loro importante legame con la teoria dei giochi, tali equazioni sono utilizzate in molteplici
contesti ed inoltre, esistono svariate varianti, sviluppate per contesti diversi e più complessi.
Di notevole importanza sono le replicator dynamics a tempo discreto:
9
xi (k + 1) = xi (k)
pi (k)
∀i = 1...m
φ(k)
(3.2)
La costruzione di tale equazioni alle differenze è del tutto analoga al caso (3.1), dove però
si suppone che le sfide tra i vari giocatori avvengano in istanti ben precisi e non in continuazione. Le equazioni (3.1) sono molto importanti perchè, oltre a spiegare taluni fenomeni
specifici, esse possono essere anche usate come un’ottima discretizzazione delle equazioni
a tempo continuo (3.1) e sono quindi ideali per la simulazione (si tenga presente che con
un computer simulare l’evoluzione di un sistema di equazioni differenziali a tempo continua
significa discretizzarle ed ottenere quindi un equazione alle differenze). Si ha inoltre che le
proprietà dinamiche (equilibri, stabilità, ecc...) delle due famiglie di equazioni sono le stesse.
Come detto sopra, andremo a considerare una popolazione vasta di individui, ognuno dei
quali sarà programmato da una strategia pura i ∈ K, in un gioco simmetrico a due giocatori
con strategie miste nel simplesso ∆ e funzione di payoff π. Sia qi (t) ≥ 0 il numero di
individui, al tempo t, programmati dalla strategia pura i ∈ K, dove quest’ultima viene
interpretata
P come un comportamento geneticamente programmato. Rappresenteremo con
q(t) = i∈K qi (t) > 0 il totale della popolazione. Lo stato della popolazione viene definito
dal vettore x(t) = (x1 (t), ..., xk (t)) dove ogni componente xi (t) rappresenta lo share, ovvero
il numero di individui programmato per la strategia pura i al tempo t, rispetto al totale
della popolazione; infatti xi (t) = qi (t)/q(t). Avremo che xi (t) ∈ ∆ in altre parole lo stato
della popolazione coincide con le strategie miste del gioco. Il payoff atteso per ogni strategia
pura i, quando la popolazione appartiene ad uno stato x ∈ ∆, verrà indicato da π(ei , x). Il
payoff misura il processo riproduttivo di un individuo, nel nostro caso questo processo sarà
del tutto asessuato. Sia:
k
X
π(x, x) =
xi π(ei , x)
(3.3)
i=1
la media dei payoff della popolazione, ovvero il payoff di un individuo casuale, che corrisponde
al payoff che guadagnerebbe la strategia mista x giocando contro se stessa.
Supponiamo che il payoff misuri il vantaggio di un individuo, misurato con il numero di
prole per ogni unità di tempo, ed inoltre che ogni prole erediti la strategia del genitore. Se
la riproduzione si ripete continuamente nel tempo, allora il tasso di nascita ad ogni tempo t
di individui programmati per la strategia pura i corrisponde a: β + π(ei , x(t)), dove β ≥ 0 è
il vantaggio degli individui della popolazione, indipendentemente dal risultato del gioco. Sia
δ ≥ 0 il tasso di mortalità che è lo stesso per ogni individuo. Rappresenteremo con il punto
la derivata rispetto al tempo, e ometteremo la dipendenza esplicita dal tempo. La dinamica
della popolazione può essere descritta come segue corrisponde a:
q̇ = [β + π(ei , x) − δ]qi
10
(3.4)
ed il corrispondente dinamico per lo share della popolazione xi :
ẋi = [π(ei , x) − π(x, x)]xi
(3.5)
Il tasso di crescita ẋi /xi è rappresentato dalla differenza tra il payoff, ovvero il vantaggio
effettivo utilizzando la strategia pura ei , ed il payoff medio della popolazione. L’equazione (2.3) ci fornisce la replicator dynamics. Utilizzando la linearità del payoff π potremo
trascrivere l’equazione come segue:
ẋi = π(ei − x, x)xi
(3.6)
dove il tasso di crescita coincide con π(ei − x, x) = α. Otterremo cosı̀ una funzione di
replicazione ẋi = αxi dove α è un valore in funzione dello stato della popolazione x e della
strategia pura ei adottata. La funzione di replicator mette in evidenza il ruolo di selezione,
che dipenderà dal valore di α, ovvero se α > 0 otterremo un aumento dello share della
popolazione con strategia pura i, ed invece con α < 0 la diminuzione. Il rapporto tra lo
share di due popolazioni xi > 0 e xj > 0, cresce (decresce) nel tempo se la strategia i vince
un payoff maggiore (minore) rispetto la strategia j, e verrà rappresentato da:
d xi
ẋi
xi x˙j
xi
=
−
= [π(ei , x) − π(ej , x)]
(3.7)
dt xj
xj
xj xj
xj
3.1.1
Invarianza nella trasformazione dei payoff
La dinamica replicator è invariante rispetto alle trasformazioni affini positive del payoff. La
funzione π viene sostituita da π̄ = λπ + µ con λ numero reale positivo e µ un numero reale,
trasformando l’equazione in:
ẋi = π̄(ei − x, x)xi = λπ(ei − x, x)xi
(3.8)
L’effetto di questa trasformazione del payoff è quindi equivalente alla variazione temporale
del fattore λ > 0 nella dinamica dei replicator (2.4). In particolare, tutte le soluzioni sono le
stesse per entrambe le dinamiche, solamente la velocità con la quale lo stato della popolazione
si muove lungo queste orbite è differente secondo il fattore λ. Le trasformazioni locali dei
payoff non hanno effetti sulla dinamica dei replicator, infatti sommando la costante ν ∈ R
alla j-esima colonna della matrice A il payoff π(ei , x) per ogni strategia i è modificata in
π̄(ei , x) = π(ei , x) + νxj mentre π̄(x, x) = π(x, x) + νxj , che non apporta modifiche alla
dinamica di replicator.
3.1.2
La soluzione indotta
Il lato destro della dinamica di replicator, definisce un campo vettoriale ϕ : Rk → Rk dove
ϕi (x) = π(ei − x, x)xi
11
(3.9)
Poiché il campo vettoriale è polinomiale nello share della popolazione, il sistema di equazioni
differenziali (2.4) ha un’unica soluzione per ogni stato iniziale xo ∈ Rk , per il teorema di
esistenza e unicità della soluzione delle equazioni differenziali ordinarie. Inoltre, il simplesso
∆ ⊂ Rk è invariante rispetto queste dinamiche. La soluzione della (2.4) è contenuta in delta
per ogni condizione iniziale anch’essa appartenete a ∆. Intuitivamente questo è ovvio poiché
sulla (2.4)
gli share della popolazione rimane necessariamente uguale a
P la somma di tuttiP
uno, ( i∈K xi = 1) quindi
i∈K ẋi = 0 e lo share della popolazione non possono mai
essere negativi. Più precisamente, il sistema di equazioni differenziali (2.4) definisce una
mappatura di soluzioni continue ξ : R × ∆ → ∆ che per ogni stato iniziale x0 ∈ ∆ e per
ogni tempo t ∈ R assegna uno stato della popolazione ξ(t, xo ) ∈ ∆. Poiché il simplesso
∆ è invariante rispetto alle dinamiche, lo sarà anche il suo interno e la sua frontiera. In
altre parole se una strategia pura, è presente nella popolazione in qualche istante t, allora
essa sarà sempre presente ad ogni istante di tempo, viceversa non comparirà se non è stata
presente nel passato. Certamente questo non preclude che la traiettoria di una soluzione
interna converga verso la frontiera del simplesso per t → ∞.
3.2
Replicator dynamics e evoluzione biologica
La teoria dei giochi evolutivi si ispira ai meccanismi di selezione ed evoluzione delle specie
in un contesto biologico. Per introdurre tale teoria, supponiamo di avere una popolazione di
individui che presentano due diversi fenotipi, A e B. Siano, x(t) e y(t) l’abbondanza relativa
(frequenza) dei fenotipi A e B al tempo t. Dunque x(t) + y(t) = 1. Le equazioni che regolano
la dinamica della frequenza dei due fenotipi sono:
ẋ = x(a − φ)
ẏ = y(b − φ),
dove φ = ax + by. Sostituendo y = 1 − x abbiamo l’equazione che descrive l’evoluzione del
fenotipo A:
ẋ = x(1 − x)(a − b),
mentre l’evoluzione del fenotipo B è data da y(t) = 1 − x(t).
Se a 6= b, tale equazione presenta due equilibri, x = 0 e x = 1. Se a > b, allora x(t) → 1 e
y(t) → 0, mentre, se b > a avviene il contrario. Nel primo caso l’equilibrio x = 1 è stabile e
il fenotipo A è dominante, mentre nel secondo caso è stabile l’equilibrio x = 0 e il fenotipo
B risulta dominante.
L’analisi può essere estesa a n fenotipi, dove xi (t), i = 1, . . . , n è la frequenza del fenotipo i.
La struttura della popolazione è dunque x = (xP
la fitness di
1 , x2 , . . . , xn ). Se pi rappresenta
Pn
n
ogni fenotipo, avremo che la fitness media φ = i=1 xi pi , dove inoltre i=1 xi = 1.
12
La dinamica selettiva è data dall’equazione
ẋi = xi (pi − φ),
i = 1, . . . , n.
(3.10)
In accordo con quanto visto nel caso di due fenotipi, la frequenza del fenotipo i aumenta se
la sua fitness è maggiore della fitness media della popolazione.
P
P
Si vede facilmente che ni=1 ẋi = 0. L’insieme dei punti tali che ni=1 xi = 1 viene chiamato
simplesso. L’interno del simplesso è tale che xi > 0, ∀i, mentre il bordo è l’insieme dei punti
tali che xi = 0 per almeno un i. Nei vertici tutti i fenotipi hanno frequenza nulla, tranne
uno per cui xi = 1.
L’equazione (3.10) ha un unico punto di equilibrio che si trova su un vertice: partendo da una
qualunque posizione (condizione iniziale) si giunge verso il vertice in cui tutti gli individui
della poplazione appartengono al fenotipo con fitness maggiore.
Supponiamo adesso che la fitness relativa degli individui non sia costante ma dipenda dalla
frequenza stessa dei fenotipi. Supponiamo inoltre che coppie casuali di individui della popolazione interagiscano attraverso un gioco in cui ciascun individuo ha una strategia fissa.
Il payoff del fenotipo corrisponde alla somma dei payoff ottenuti dai singoli individui del
fenotipo e ne rappresenta la fitness. Il successo del gioco diventa un successo riproduttivo. Infatti, le strategie vincenti si riproducono più velocemente e quelle perdenti vengono
sopraffatte (selezione naturale).
Questa classe di modelli è stata largamente utilizzata per spiegare numerose decisioni strategiche del comportamento umano, in quanto il gioco prevede una interazione strategica tra
individui che cercano di massimizzare il proprio payoff.
Siano xA la frequenza del fenotipo A e xB la frequenza del fenotipo B, dunque la struttura
della popolazione è descritta dal vettore x = (xA , xB ). Se pA (x) e pB (x) rappresentano le
fitness dei due fenotipi l’equazione della dinamica è la seguente:
ẋA = xA (pA (x) − φ)
ẋB = xB (pB (x − φ),
dove φ = xA pA (x) + xB pB (x) e xA + xB = 1.
Se poniamo xa = x e xB = 1 − x otteniamo la seguente equazione:
ẋ = x(1 − x) [pA (x) − pB (x)]
13
(3.11)
Gli equilibri di questa equazione sono x = 0, x = 1 e tutti i valori x∗ per cui pA (x∗ ) = pB (x∗ ).
Si presentano tre casi.
1. pA (x) > pB (x). La popolazione tende ad una situazione in cui tutti gli individui sono
del fenotipo A, infatti la frequenza di A aumenta nel tempo. L’equilibrio x = 1 è
stabile.
2. pA (x) < pB (x). La popolazione tende ad una situazione in cui tutti gli individui sono
del fenotipo B, infatti la frequenza di B aumenta nel tempo. L’equilibrio x = 0 è
stabile.
3. pA (x) = pB (x). Si verificano due casi:
3a La tangente alla curva pA = pB nel punto di equilibrio ha coefficiente angolare
positivo. In questo caso il punto di equilibrio è instabile e la popolazione evolverà
verso uno degli altri due (x = 1, o x = 0).
3b La tangente alla curva pA = pB nel punto di equilibrio ha coefficiente angolare
negativo. In questo caso il punto di equilibrio è stabile e la popolazione evolverà
verso di esso. La stabilità degli altri due equilibri dovrà variare di conseguenza.
Nella teoria dei giochi evolutivi si assume che ogni individuo scelga di comportarsi come
uno dei fenotipi della popolazione in base ad un principio di massimizzazione del proprio
payoff (cioè usa la strategia del fenotipo che ritene vincente). In questo caso, tutti i giocatori
hanno la stessa matrice di payoff e la loro scelta consiste nello scegliere di seguire la strategia
evolutiva A o B. Il payoff corrisponde, come già detto, alla fitness.
Sia
a b
c d
la matrice dei payoff relativa alle strategie A e B, dove i payoff della strategia A sono
riportati nella prima riga e quelli della strategia B nella seconda. Dunque la matrice si legge
nel seguente modo: A guadagna a se gioca contro A e guadagna b se gioca contro B. B
guadagna c se gioca contro A e guadagna d se gioca contro B.
Adesso xA rappresenta la frequenza dei giocatori che scelgono A e xB la frequenza dei
giocatori che scelgono B. I payoff (o fitness) di A e B sono:
pA = axA + bxB
pB = cxA + dxB .
14
Dunque la probabilità che ha ogni giocatore di interagire con A è xA e con B è xB , in accordo
con l’ipotesi che due giocatori si incontrino e giochino casualmente.
Se supponiamo che le fitness siano lineari, sostituendo nell’equazione (3.2) si ottiene l’equazione:
ẋ = x(1 − x) [(a − b − c + d)x + b − d] .
3.3
(3.12)
Classificazione dei giochi evolutivi 2x2
Poiché la dinamica replicator è invariante rispetto a cambiamenti locali del payoff, possiamo
supporre, senza perdere di generalità, che la matrice dei payoff abbia la seguente forma:
a1 0
A=
(3.13)
0 a2
dove a1 a2 6= 0. La dinamica replicator in questo caso sarà rappresentata da:
x˙1 = [a1 x1 − a2 x2 ]x1 x2
(3.14)
con x˙2 = −x˙1 . Considerando la classificazione fatta per i giochi non cooperativi nel primo
capitolo, avremo le quattro categorie che verranno, anche in questo caso, classificate in base
ai valori di a1 e a2 . Ponendo l’equazione in un’unica incognita ed utilizzando l’uguaglianza
x1 = 1 − x2 otterremo:
x˙1 = x1 (1 − x1 )[(a1 + a2 )x1 − a2 ]
(3.15)
Rinominando [(a1 + a2 )x1 − a2 ] = F (x1 ). Otterremo stati stazionari (x˙1 = 0) per i seguenti
valori di x1 :
a2
(3.16)
x1 = 0;
x1 = 1;
x1 =
a1 + a2
Poniamo l’ultimo stato stazionario x1 = x∗ . Dovremo verificare che x∗ appartenga al simplesso, ciò viene fatto in accordo con la classificazione riportata nel capitolo 1.
La prima categoria è costituita da giochi in cui a1 < 0 e a2 > 0, in questo caso x∗ non
appartiene al simplesso ed inoltre lo share della popolazione x1 decresce. Dunque la seconda
strategia pura e2 è dominante rispetto alla prima. Potremo visualizzare graficamente questo
risultato nella figura 3.1. Un gioco di questo tipo è il Dilemma del prigioniero, dove a1 = −1
e a2 = 3, la dinamica di replicator in questo caso corrisponde a:
x˙1 = (2x1 − 3)(1 − x1 )x1
15
(3.17)
Figura 3.1: Rappresentazione grafica della prima categoria, nella quale la strategia e2 è
dominante e quindi lo share della popolazione che adotta la prima strategia tende a zero.
La seconda categoria è costituita da giochi in cui a1 a2 > 0. In questo caso otteniamo
un cambio di segno per x1 quando a1 x1 = a2 x2 , questo avviene precisamente nel valore
2
, in questo caso il valore
dell’equilibrio di Nash in strategie miste, ovvero x1 = x∗ = a1a+a
2
∗
di x appartiene al simplesso. Come possiamo osservare dal grafico riportato in figura 3.2,
lo stato stazionario repulsivo. In questo caso lo share della popolazione x1 decresce verso 0
per valori iniziali x01 < x∗ mentre cresce verso 1 per valori iniziali x01 > x∗ . Questo tipo di
dinamica prende il nome di bistabilità. I giochi di questo tipo sono detti di coordinamento,
e l’equazione replicator diventa:
x˙1 = (2x1 − 3)(1 − x1 )x1
(3.18)
La terza categoria è costituita da giochi in cui a1 < 0 e a2 < 0. Anche in questo caso x∗ ,
che corrisponde al valore dell’equilibrio di Nash in strategie miste, appartiene al simplesso,
ed è il valore per il quale la derivata ẋ1 cambia di segno, passando da valori positivi a valori
negativi. Come possiamo osservare dal grafico riportato in figura 3.3 lo stato stazionario
attrattivo. Per valori iniziali minori di x∗ lo share tende a x∗ stesso, per valori maggiori,
invece, decresce verso x∗ . Questo tipo di dinamica prende il nome di coesistenza. Un gioco
di questo tipo è il gioco Falchi e Colombe, dove a1 = −1 e a2 = −2 e l’equazione replicator
in questo caso è:
x˙1 = (2 − 3x1 )(1 − x1 )x1
(3.19)
La quarta categoria, come notato nella teoria dei giochi non cooperativi, è un caso simmetrico
rispetto alla prima categoria. Appartengono a questa categoria i giochi in cui a1 > 0 e
a2 < 0. In questo caso x∗ non appartiene al simplesso, e lo share della popolazione x1 tende
a 1, rendendo dominante la strategia pura e1 . Questo risultato è riportato graficamente nella
figura 3.4.
16
Figura 3.2: Rappresentazione grafica della seconda categoria, in cui lo stato stazionario x∗ è
repulsivo
Figura 3.3: Rappresentazione grafica della terza categoria, in cui lo stato stazionario x∗ è
attrattivo
3.4
Stati stazionari della replicator equation ed equilibri di Nash
Per i giochi finiti e simmetrici a due giocatori, sia ∆N E ⊂ ∆ il sottoinsieme non vuoto
di strategie che sono in equilibrio di Nash con se stesse. Questa definizione risulta essere
17
Figura 3.4: Rappresentazione grafica della quarta categoria, in cui la strategia e1 è dominante, quindi lo share della popolazione che adotta la prima strategia i, cresce verso
uno
utile per l’analisi dinamica, in quanto una strategia x apparterrà a ∆N E se e solo se tutte
le strategie pure a cui x assegna probabilità positiva ottengono il massimo payoff che può
essere ottenuto contro x. Formalmente:
∆N E = {x ∈ ∆ : π(ei , x) = max π(z, x) ∀i ∈ C(x)}
z∈∆
(3.20)
Andremo ad analizzare la relazione tra questo insieme e l’insieme degli stati stazionari della
equazione replicator.
3.4.1
Stati stazionari e ∆N E
Per definizione, uno stato di popolazione x è stazionario nella (2.4) se e solo se il prodotto
π(ei − x, x)xi è uguale a zero per ogni strategia pura i ∈ K, o equivalentemente, se e solo se
tutte le strategie pure i guadagnano precisamente lo stesso payoff contro la strategia mista
x. Sia ∆0 ⊂ ∆ l’insieme degli stati stazionari della (2.4):
∆0 = {x ∈ ∆ : π(ei , x) = π(x, x) ∀i ∈ C(x)}
(3.21)
La condizione di stazionarietà è banalmente soddisfatta da ogni vertice del simplesso x = ei ,
dal momento che in tale stato x, tutti gli individui utilizzano la stessa strategia pura i e
guadagnano lo stesso payoff. Da qui l’insieme finito {e1 , ..., ek } di vertici è un sottoinsieme
di ∆0 . Un confronto tra la (2.15) e la (2.16) rivela subito che anche l’insieme non vuoto e
18
chiuso ∆N E è un sottoinsieme di ∆0 : se tutte le strategie pure nel supporto della strategia x
guadagnano lo stesso payoff massimo contro x, allora tutti guadagnano il payoff medio della
popolazione.
k
X
X
π(x, x) =
π(ej , x)xj =
π(ej , x)xj
(3.22)
j=1
j∈C(x)
Potremo visualizzare graficamente ciò che è stato appena enunciato tramite la figura 3.5.
Otteniamo lo stesso risultato per gli stati interni della popolazione x: Se x ∈ int(∆) è
Figura 3.5: Relazione tra i punti stazionari delle equazioni di replicator e gli equilibri di
Nash del gioco
stazionario nella (2.4), allora π(ei , x) = π(x, x) per ogni strategia pura i nel gioco, quindi ogni
strategia pura è una best reply per le strategie miste x e conseguentemente x ∈ ∆N E . Sia ora
∆00 (non necessariamente non vuoto) l’insieme di stati stazionari interni ∆00 = ∆0 ∩ int(∆).
Abbiamo appena evidenziato che ∆00 ⊂ ∆N E . Dal momento che tutti gli equilibri di Nash
sono stazionari otteniamo ∆00 = ∆N E ∩ int(∆), inoltre l’insieme ∆00 è necessariamente
convesso, infatti ogni combinazione lineare di stati stazionari è sempre uno stato stazionario.
3.4.2
Stati Lyapunov stabili e ∆N E
Gli stati stazionari che non sono equilibri di Nash, non soddisfano il criterio di stabilità
di Lyapunov (stabilità debole). La ragione per la quale uno stato della popolazione x non
appartenente a ∆N E è instabile, è semplicemente che esistono alcune strategie pure i che
non vengono utilizzate (xi = 0), ma che otterrebbero un payoff maggiore contro x rispetto
alle strategie pure utilizzate nello stato x. Quindi, se un parte arbitrariamente piccola della
19
popolazione iniziasse a utilizzare tale strategia redditizia i, gli individui individui di questo
gruppo guadagnerebbero un payoff maggiore, il che porterebbe lo stato della popolazione a
lasciare x. Tale risultato è dovuto alla Bomze.
Proposizione 3.4.1 Se x ∈ ∆ è Lyapunov stabile nella (2.14), allora x ∈ ∆N E .
Dim. Supponiamo che x ∈ ∆0 e che x ∈
/ ∆N E . Allora tutte le strategie pure nel supporto
C(x) hanno lo stesso payoff non ottimale contro x. Quindi esistono i ∈
/ C(x) tali che
π(ei − x, x) > 0. Dalla continuità di π, esiste un δ > 0 ed un intorno U di x tale che
π(ei −y, y) ≥ δ per ogni y ∈ U ∩∆. Cosı̀ ξi (t, x0 ) aumenta inizialmente in modo esponenziale
da ogni x0 ∈ U ≥ int(∆), e anche xi = 0, quindi x non è Lyapunov stabile.
Potremo visualizzare graficamente le relazioni appena enunciate tra stati stazionari, equilibri
di Nash e stati stazionari Lyapunov stabili tramite la figura 3.6.
Figura 3.6: Relazione tra gli equilibri di Nash e la stabilità dei punti stazionari delle equazioni
di replicator
Come ultima osservazione facciamo notare che tutti gli individui nella popolazione conoscono
la distribuzione delle strategie pure della popolazione durante il trascorrere del tempo, e
cercano di massimizzare il payoff ottenuto contro questa distribuzione. Inoltre se uno stato
è il limite di una soluzione del sistema di equazioni differenziali ordinarie, allora tale stato
è necessariamente stazionario. In particolare, se accade che la traiettoria di una soluzione
della dinamica di replicator converge a qualche stato interno della popolazione, allora questo
20
stato limite appartiene a ∆00 e quindi anche a ∆N E . La seguente proposizione estende questo
risultato agli stati limite che si trovano nel bordo del simplesso (Nachbar 1990):
Proposizione 3.4.2 Se x0 ∈ int(∆) e ξ(t, x0 )t→∞ → x, allora x ∈ ∆N E
Dim. Supponiamo che x0 ∈ int(∆), ξ(t, x0 )t→∞ → x ma x ∈
/ ∆N E . Allora esistono alcune
strategie i ∈ K tali che π(ei − x, x) = per alcuni > 0. Dato che ξ(t, x0 ) → x e che
π è continua, esistono alcuni T ∈ R tali che π(ei − ξ(t, x0 ), ξ(t, x0 )) > /2 ∀t ∈ T . Dalla
(2.14) ẋi = xi /2 ∀t ∈ T , e quindi ξ(t, x0 ) > ξ(T, x0 ) exp((t − T )/2) ∀t ≥ T , implica che
ξi (t, x0 ) → ∞ (da ξ(T, x0 ) > 0), una contraddice l’ipotesi. Quindi x ∈ ∆N E .
Questo risultato potrebbe essere riformulato come segue: Uno stato x ∈ ∆ potrebbe essere
chiamato raggiungibile se esiste qualche stato interno a partire dal quale la soluzione converge
a x e inoltre, ogni stato raggiungibile x ∈ ∆ appartiene al sottoinsieme ∆N E .
3.5
Sintesi dei concetti base ed esercizi
1. Teorema. Se x∗ ∈ SN è un NE del gioco descritto dalla matrice di payoff A, allora x∗ è
uno stato stazionario della RE (cioè x˙∗ = 0). Inoltre, se x∗ è Lyapunov stabile, allora
è un NE del gioco.
2. Teorema. Se x∗ ∈ SN è un ESS del gioco con matrice di payoff A, allora è uno stato
stazionario asintoticamente stabile della RE.
Un esempio di stato stazionario asintoticamente stabile ma non ESS è rappresentato
dall’equilibrio interno al simplesso S3 presente nel gioco descritto dalla matrice 2.2.
Infatti nel gioco vi sono anche altre strategie ESS nel bordo.
Studiare la dinamica del gioco Falchi e Colombe generalizzato, descritto dalla matrice
di payoff (dove C > G):


A=
G−C
2
G
0
G
2
G(G+C)
2C
G(G−C)
2C
G(C−G)
2C
G(C−G)
2C
G(C−G)
2C


.
(3.23)
Sol. La strategia e3 non può essere invasa da e1 o e2 perché è ESS.
Studiare la dinamica del gioco descritto dalla matrice di payoff:


0 10 1
A =  10 0 1  .
1 1 1
21
(3.24)
Sol. La strategia e3 è stabile contro l’invasione di e1 o e2 separatamente, ma non da
una combinazione delle due.
Studiare la dinamica del gioco ”morra cinese” generalizzato:


0 −a2 b3
0 −a3  ,
A =  b1
−a1 b2
0
(3.25)
sapendo che l’equilibrio misto (1/3, 1/3, 1/3) è stabile asintoticamente sse a1 a2 a3 <
b1 b2 b3 ed è instabile se a1 a2 a3 > b1 b2 b3 .
3. Studiare la dinamica del gioco a due strategie descritto dalla matrice di payoff:
A=
a b
c d
.
(3.26)
Verificare che in questo caso gli stati stazionari della RE coincidono con gli equilibri di
Nash e sono asintoticamente stabili sse corrispondono a strategie miste ESS. Inoltre,
strategie pure dominanti sono NE, mentre strategie pure dominate non lo sono. Nel
caso della bistabilità, entrambe le strategie pure sono equilibri di Nash. Infine, nel caso
della coesistenza, nessuna strategia pura è un equilibrio di Nash.
22
Capitolo 4
Applicazione dei giochi evolutivi
all’ecologia
L’interdipendenza delle diverse specie può essere meravigliosamente complessa. Darwin analizzò durante il suo lavoro come le piante e gli animali, e la più remota scala della natura,
sono tenuti insieme da una rete di relazioni complesse. Questa auto-regolamentazione delle
frequenze di popolazione è stato un tema dominante dell’ecologia matematica. La storia
delle comunità ecologiche è raccontata in termini di invasioni ed estinzioni. Per gli ecologisti, stabilità significa che le specie che compongono l’ecosistema persistono. Sopravvivenza,
non equilibrio, è quello che conta. I modelli più comuni per la dinamica delle popolazioni
negli ecosistemi vengono descritti dalle equazioni Lotka-Volterra ed i modelli più comuni per
le dinamiche delle frequenze delle strategie, le equazioni replicator, sono matematicamente
equivalenti. In ambito ecologico analizzeremo il modello predatore preda descritto da equazioni di Lotka-Volterra. Gli ecologisti indagano sull’interazione tra le specie e su quali siano
i cambiamenti che quest’ultime subiscono nel tempo. L’approccio matematico fondamentale per l’ecologia è data dall’equazione di Lotka-Volterra. Negli anni successivi alla prima
guerra mondiale, la quantità di pesci predatori nell’Adriatico è risultato notevolmente più
elevato rispetto agli anni precedenti. Le ostilità tra l’Austria e l’Italia avevano apportato
grandi modifiche, ma perché questo favoriva più i predatori che le prede? Quando fu posta
questa domanda a Volterra egli denotò con x la densità dei pesci preda, mentre con y quella
dei predatori e trovò un’equazione differenziale che rappresentava l’incremento della densità
dei predatori. Volterra assunse che il tasso di crescita della popolazione preda, in assenza
di predatori, è dato da una certa costante, che diminuisce linearmente come la densità dei
predatori y. Questo porta a xẋ = a − by e a, b > 0. In assenza di prede, il pesce predatore
avrebbe dovuto estinguersi, il che significa un tasso negativo di crescita; ma questo tasso
riprende con la densità x delle prede, quindi yẏ = −c + dx con c, d > 0. Ottenendo quindi:
ẋ = x(a − by),
ẏ = y(−c + dx).
23
(4.1)
Elenchiamo adesso gli stati stazionari:
i)x(t) = y(t) = 0
ii)x(t) = 0 y(t) = y(0)e−ct (∀y(0) > 0)
iii)y(t) = 0 x(t) = x(0)eat (∀x(0) > 0)
Ciò significa che se la densità dei predatori o prede è zero ad un certo dato tempo t, allora
è sempre zero. In assenza di prede, i predatori si estinguono, quindi y(t) converge a 0, per
t → +∞. In assenza di predatori, ci troviamo dinanzi ad una crescita esponenziale della
popolazione prede x(t) → +∞. Quest’ultima caratteristica è assurda, e si ha la volontà di
modificarla nei modelli successivi. Queste tre soluzione i), ii), iii) costituiscono tre orbite,
rispettivamente i) l’origine, ii) l’asse x positivo e iii) l’asse y positivo. Insieme costituiscono
il confine di:
2
= {(x, y) ∈ R2 : x ≥ 0, y ≥ 0}
(4.2)
R+
Dal momento che le densità della popolazione devono essere non negative, andremo a con2
della (3.4). Questo insieme è invariante, nel senso che ogni
siderare solo la restrizione a R+
soluzione che inizia in esso vi rimane per tutto il tempo. Infatti, come abbiamo visto, il
2
bordo di R+
è invariante poiché nessuna orbita può attraversarne un’altra per l’unicità della
2
soluzione, l’interno di R+
, definito come:
2
int(R+
) = {(x, y) ∈ R2 : x > 0, y > 0}
(4.3)
2
è anch’esso invariante. Esiste un unico punto stazionario nell’int(R+
), tale punto è identificato da F = (x̄, ȳ), tale che x̄(a − bȳ) = 0 e ȳ(−c + dx̄) = 0, dato che ȳ > 0 e x̄ > 0, questo
implica:
a
c
ȳ =
(4.4)
x̄ =
d
b
I segni di ẏ e ẋ dipendo dalla relazione dei due valori e dei corrispettivi valori stazionari,
quindi se x è maggiore o minore di x̄, e se y è maggiore o meno di ȳ. La figura 4.1 permette
una visualizzazione grafica dell’andamento dello share delle due popolazioni al variare della
relazione che sussiste tra i valori iniziali e i relativi stati stazionari. É interessante chiedersi la
relazione che sussiste tra le equazioni replicator analizzate nel secondo capitolo e le equazioni
di Lotka-Volterra. Le equazioni della (3.4) sono riscrivibili con un sistema analogo alle equazioni replicator. L’equazione replicator in n variabili, x1 , ..., xn è equivalente a l’equazione
Lotka-Volterra in n − 1 variabili y1 , ..., yn−1 .
Teorema 4.0.1 Esiste una mappa differenziabile ed invertibile da Ŝn = {x ∈ Sn : xn > 0}
n−1
in R+
che mappa le orbite dell’equazione replicator
ẋi = xi ((Ax)i − x · Ax)
(4.5)
nelle orbite delle equazioni Lotka-Volterra di equazione:
ẏ = yi (ri +
n−1
X
a0ij yj )
j=1
24
∀i = 1, ..., n − 1
(4.6)
Figura 4.1: Rappresentazione grafica che permette di visualizzare l’andamento dello share
delle due popolazioni.
dove ri = ain − ann e a0ij = aij − anj
Nel nostro modello, il caso specifico delle (3.4) si nota che il numero delle variabili nell’equazione Lotka-Volterra corrisponde a due, il che ci riconduce ad un’equazione replicator a tre
variabili, dove il valore di ri corrisponderà a ai3 − a33 mentre a0ij corrisponderà a aij − a3j .
Considerando yn = 1 e analizzando la trasformazione y 7→ x definita da:
yi
xi = Pn
j=1
i = 1, ..., n
yj
25
(4.7)
n
che mappa {y ∈ R+
: yn = 1} in Ŝn , mentre l’inversa x 7→ y definita come:
yi =
yi
xi
=
yn
xn
i = 1, ..., n
(4.8)
Adesso consideriamo l’equazione di replicator (3.8) in n variabili, assumendo che l’ultima
riga della matrice A = (aij ), n × n, sia nulla. L’equazione diventa quindi:
ẏ =
d xi
x1
=
((Ax)i − (Ax)n )
dt xn
xn
(4.9)
Dato che (Ax)n = 0 otterremo il seguente risultato:
ẏi = yi (
n
X
n
X
aij xj ) = yi (
aij yj )xn
j=1
(4.10)
j=1
Tramite un cambiamento di velocità, potremo eliminare il temine xn . Da yn = 1 otterremo
quindi:
n−1
X
ẏi = yi (ain +
aij yj )
(4.11)
j=1
o con ri = ain l’equazione (3.9) di Lotka-Volterra, il passaggio opposto dalla (3.9) alla (3.8)
è analogo.
26
Bibliografia
• J. Hofbauer and K. Sigmund, Evolutionary games and population dynamics, Cambridge University Press, 1998.
• D. Madeo and C. Mocenni, Game Interactions and dynamics on networked populations,
IEEE Trans. on Autom. Control, vol. 60, n. 7, pp. 1801-1810, 2015.
• J. Maynard Smith, Evolution and the Theory of Games, Cambridge University Press,
Cambridge. 1982.
• J. Nash, Equilibrium points in n-person games, Proc. Nat. Acad. Sci. USA vol. 36,
no. 1, pp. 48-49, 1950. sity Press, 1994.
• M.A. Nowak, Evolutionary Dynamics: Exploring the Equations of Life, Belknap Press
of Harvard University Press, 2006.
• M.J. Osborne, An Introduction to Game Theory, Oxford University Press, 2003.
• J.W. Weibull, Evolutionary Game Theory, MIT Press, 1995.
• J. von Neumann and O. Morgenstern, Theory of games and economic behavior, Princeton University
• C. Brezzi, Teoria dei Giochi: Modelli e Applicazioni in un Contesto Evolutivo, Tesi di
Laura Triennale in Matematica, Università di Siena, 2014.
27