05S4 - Catene di Markov

annuncio pubblicitario
INDICE
Corso di Laurea Triennale in INGEGNERIA GESTIONALE
Anno Accademico 2012/13
MODELLI E METODI PER L’AUTOMAZIONE
I PROCESSI DI POISSON
Prof. Davide GIGLIO
★ I processi di Poisson
★ La distribuzione esponenziale
★ Sovrapposizione di processi di Poisson
CATENE DI MARKOV A TEMPO DISCRETO (DTMC)
★ Definizioni e proprietà
★ Classificazione degli stati in una DTMC
★ Analisi a regime di una DTMC omogenea
★ Il processo “birth-death” a tempo discreto (DTMC-BD)
CATENE DI MARKOV
CATENE DI MARKOV A TEMPO CONTINUO (CTMC)
★ Definizioni e proprietà
★ Analisi di transitorio e a regime di una CTMC omogenea
★ Il processo “birth-death” a tempo continuo (CTMC-BD)
CATENE DI MARKOV
MODELLI E METODI
PER L’AUTOMAZIONE
1
CATENE DI MARKOV
PROCESSI STOCASTICI
2
PROCESSI STOCASTICI
PROCESSI STOCASTICI A STATO DISCRETO E A STATO CONTINUO
DEFINIZIONE
Un processo stocastico {X(t)} è una collezione di variabili aleatorie
indicizzate dalla variabile tempo t 2 T
La tipologia dello spazio degli stati ammissibili (valori che possono essere
assunti dalle variabili aleatorie X(t), t 2 T ) classifica un processo stocastico
★ Un processo stocastico è a stato discreto (“discrete-state process”) se
{X(t)} è definito su un insieme finito o enumerabile di valori
★ In un processo stocastico, le variabili aleatorie X(t) soddisfano, per ogni
t 2 T una certa distribuzione di probabilità
• Un insieme finito di valori è, ad esempio, l’insieme {ON, OFF} (riferito per esempio
allo stato di funzionamento di una macchina) mentre un insieme enumerabile di
valori è l’insieme dei numeri naturali non negativi {0, 1, 2, . . .} (riferito per esempio
allo stato di occupazione di un buffer)
★ Una realizzazione del processo stocastico (“sample path”) è una
specifica sequenza di variabili aleatorie X(t0 ) = x0 , X(t1 ) = x1 , ... ,
X(t
XXXn ) = xn
• Si noti che è stata indicata con una lettera maiuscola la variabile aleatoria e con una
lettera minuscola il valore che la variabile aleatoria assume
• I sistemi ad eventi discreti sono caratterizzati da uno spazio degli stati discreto
★ Altrimenti il processo stocastico è a stato continuo (“continuous-state
process”)
★ Se il processo stocastico è utilizzato per descrivere lo stato di un
sistema in un certo intervallo di tempo, un sample path può essere
inteso come la sequenza di stati del sistema durante un particolare
esperimento, mentre una variabile aleatoria rappresenta lo stato del
sistema in uno specifico istante di tempo
CATENE DI MARKOV
MODELLI E METODI
PER L’AUTOMAZIONE
MODELLI E METODI
PER L’AUTOMAZIONE
3
CATENE DI MARKOV
MODELLI E METODI
PER L’AUTOMAZIONE
4
PROCESSI STOCASTICI
I PROCESSI DI POISSON
PROCESSI STOCASTICI A TEMPO DISCRETO E A TEMPO CONTINUO
★ Si consideri una sequenza di eventi tutti dello stesso tipo
Anche la tipologia dei valori che possono essere assunti dalla variabile
tempo t (ovvero l’insieme T ) classifica un processo stocastico
★ Sia {N (t)} il processo stocastico che conta il numero di eventi che sono
occorsi nell’intervallo (0, t] (“counting process”)
★ Un processo stocastico è a tempo discreto (“discrete-time process”) se
l’insieme T è finito o enumerabile
★ Lo spazio degli stati di un tale processo è l’insieme dei numeri naturali
non negativi {0, 1, 2, . . .}
• Nei processi stocastici a tempo discreto T è generalmente costituito dall’insieme
dei numeri naturali non negativi {0, 1, 2, . . .}
7
6
• Si usa spesso indicare un processo stocastico a tempo discreto con il nome
“sequenza stocastica” e con la notazione {Xk } , k = 0, 1, 2, . . .
5
4
3
★ Altrimenti il processo stocastico è a tempo continuo (“continuous-time
process”)
2
1
t
★ E’ evidente che N (0)  N (t1 )  . . .  N (tk ) per ogni
0  t1  . . .  tk
XXX
CATENE DI MARKOV
MODELLI E METODI
PER L’AUTOMAZIONE
5
CATENE DI MARKOV
I PROCESSI DI POISSON
MODELLI E METODI
PER L’AUTOMAZIONE
6
I PROCESSI DI POISSON
★ Si consideri l’asse dei tempi come partizionato in intervalli di tempo di
lunghezza arbitraria (tk 1 , tk ] , k = 1, 2, . . .
ASSUNZIONI FONDAMENTALI
1. In ogni istante può verificarsi al massimo un evento
• Non è possibile avere eventi contemporanei
t
0
N (0)
t1
tk
t2
N (t1 ) N (t2 )
N (tk
2. Presi due intervalli arbitrari (tk 1 , tk ] e (th 1 , th ] , con tk  th
variabili aleatorie N (tk 1 , tk ) e N (th 1 , th ) sono indipendenti
tk
1
1)
1 , tk )
3. La probabilità Pr{N (tk 1 , tk ) = n} che in un certo intervallo (tk 1 , tk ]
si verifichino n occorrenze dell’evento in questione dipende solamente
dalla lunghezza dell’intervallo, ovvero da tk tk 1 (oltre che ovviamente
da n )
★ Supponendo t0 = 0 e N (0) = 0 il numero di eventi che occorrono
nell’intervallo (tk 1 , tk ] è dato da
N (tk
1 , tk )
= N (tk )
N (tk
1)
• Essendo tale probabilità indipendente dai valori tk
un processo stazionario
★ Un processo di Poisson è un counting process in cui vengono fatte tre
specifiche assunzioni
CATENE DI MARKOV
, le
• Questa assunzione implica che gli eventi futuri (numero di occorrenze in un certo
intervallo futuro) non sono influenzati da quello che è avvenuto nel passato
(numero di eventi occorsi in un certo intervallo già passato)
N (tk )
}
N (tk
1
MODELLI E METODI
PER L’AUTOMAZIONE
7
CATENE DI MARKOV
1
e tk , il processo di Poisson è
MODELLI E METODI
PER L’AUTOMAZIONE
8
I PROCESSI DI POISSON
LA DISTRIBUZIONE ESPONENZIALE
RISULTATO
RISULTATO
I tempi di interevento in un processo di Poisson costituiscono una
sequenza di variabili aleatorie indipendenti e identicamente distribuite (i.i.d.)
in modo esponenziale, ovvero caratterizzate dalla seguente cdf (cumulative
distribution function)
In riferimento ad un processo di Poisson, la variabile aleatoria N (t) ha una
distribuzione data da
Pn (t) = Pr{N (t) = n} =
essendo
( t)n
n!
e
t
0 n = 0, 1, 2, . . .
t
G(t) = Pr{Vk  t} =
un parametro che caratterizza la distribuzione considerata
★ Il parametro
può essere quindi interpretato come la frequenza delle
occorrenze dell’evento
e
t
t
0
t<0
La pdf (probability density function) è
è il tempo medio tra due occorrenze dell’evento successive
g(t) =
CATENE DI MARKOV
1
0
essendo il parametro caratteristico del processo di Poisson considerato e
Vk la variabile aleatoria relativa al k -esimo tempo di interevento (ovvero
quello relativo all’intervallo (tk 1 , tk ] )
★ Si può provare che E[N (t)] = t e Var[N (t)] = t
★ 1/
⇢
MODELLI E METODI
PER L’AUTOMAZIONE
9
⇢
e
0
t
t
0
t<0
CATENE DI MARKOV
LA DISTRIBUZIONE ESPONENZIALE
MODELLI E METODI
PER L’AUTOMAZIONE
10
LA DISTRIBUZIONE ESPONENZIALE
RISULTATO
Si consideri il generico tempo di interevento Vk . Si ha
1
1
e
Pr{Vk  z + t | Vk > z} = 1
t
e
e
t
= Pr{Vk  t}
ovvero la variabile aleatoria “tempo residuo di interevento” ha la stessa
distribuzione della variabile aleatoria “tempo di interevento”
t
t
t
★ Il condizionamento Vk > z non ha pertanto contenuto informativo
(memoryless property)
★ Nella distribuzione esponenziale la media e la varianza sono 1/
e 1/
• Non importa quanto tempo sia passato dall’ultima occorrenza dell’evento per
determinare la probabilità di occorrenza della prossima occorrenza dell’evento
2
★ In maniera duale, una sequenza di realizzazioni di una v.a. distribuita in
modo esponenziale può essere vista come una sequenza di realizzazioni
di v.a. i.i.d. corrispondenti ai tempi di interevento di un processo di Poisson
CATENE DI MARKOV
MODELLI E METODI
PER L’AUTOMAZIONE
11
★ Si può dimostrare che la distribuzione esponenziale è l’unica
distribuzione per la quale valga tale proprietà
CATENE DI MARKOV
MODELLI E METODI
PER L’AUTOMAZIONE
12
SOVRAPPOSIZIONE DI PROCESSI DI POISSON
CATENE
DI MARKOV AATEMPO
DISCRETO
CATENE
DI MARKOV
TEMPO
DISCRETO
★ Si consideri il processo stocastico costituito dalla sovrapposizione di m
processi di Poisson mutuamente indipendenti (cioè una sequenza di
eventi di m tipi differenti) caratterizzati rispettivamente dai parametri
HHH
1, 2, . . . , m
Evoluzione di una DTMC
Una catena di Markov a tempo discreto (DTMC) è un sistema a
stato discreto e tempo discreto in cui l’evoluzione della variabile di
stato Xk è caratterizzata dalla proprietà Markoviana
★ Il processo stocastico così ottenuto è ancora un processo di Poisson,
con valore del parametro che lo caratterizza pari a
⇤=
m
X
⇥
⇥
Pr Xk+1 = xk+1 | Xk = xk, . . . , X0 = x0 = Pr Xk+1 = xk+1 | Xk = xk
i
I possibili valori dello stato sono elementi di un insieme discreto S
(finito o numerabile)
i=1
L’evoluzione di una DTMC è governata dall’insieme delle probabilità di
transizione
⇥
pi,j (k) = Pr Xk+1 = j | Xk = i ⇥ i, j
⇥ k = 0, 1, 2, . . .
S
2
Catene di Markov
CATENE DI MARKOV
MODELLI E METODI
PER L’AUTOMAZIONE
13
CATENE DI MARKOV
MODELLI E METODI
PER L’AUTOMAZIONE
CATENE
DI MARKOV AATEMPO
DISCRETO
CATENE
DI MARKOV
TEMPO
DISCRETO
CATENE
DI MARKOV AATEMPO
DISCRETO
CATENE
DI MARKOV
TEMPO
DISCRETO
Analisi del transitorio di una DTMC omogenea
Analisi del transitorio di una DTMC omogenea
Quando le proprietà di transizione pi,j (k) sono indipendenti da k,
⇥ i, j S la DTMC si dice omogenea (tempo invariante)
Le probabilità di stato sono definite come
j (k)
Se la DTMC è omogenea, anche pi,j (k, k + n) è indipendente da k, e si
può indicare semplicemente con pn
i,j
⇥
Inoltre, si indica con H(n) la matrice pn
i,j
Il vettore della probabilità di stato è
(k ) =
⇥
j (k
1) · H (1)
CATENE DI MARKOV
0 (k ),
1 (k ),
2 (k ),
...
˜
X
ˆ
˜
ˆ
˜
Pr Xk+1 = j | Xk = i · Pr Xk = i =
pi,j ·
i (k )
i⇥S
che in forma matriciale diventa
H (2) = H (1) · H (1) = P · P = P
2
Catene di Markov
X
1
·P =P
(k + 1) =
2
H (3) = H (2) · H (1) = P · P = P
n
+ 1) =
i⇥S
H(1) = pi,j si indica con P . Si ha quindi
H (n) = P
ˆ
⇥
e può avere dimensione infinita. Dal teorema della probabilità totale, si ottiene
Dall’equazione di Chapman-Kolmogorov, si ottiene, allora
H (n) = H (n
= Pr Xk = j
14
3
da cui si ottiene
(k ) =
n
5
MODELLI E METODI
PER L’AUTOMAZIONE
Catene di Markov
15
CATENE DI MARKOV
(k ) · P
(0) · P
k
6
MODELLI E METODI
PER L’AUTOMAZIONE
16
CATENE
DI MARKOV AATEMPO
DISCRETO
CATENE
DI MARKOV
TEMPO
DISCRETO
CATENE
DI MARKOV AATEMPO
DISCRETO
CATENE
DI MARKOV
TEMPO
DISCRETO
Classificazione degli stati
Classificazione degli stati
0.5
STATI
0
i
TRANSIENTI
=1
Gli stati 0 e 1 sono transienti. Lo stato 2 è ricorrente.
Mi <
1/12
RICORRENTI POSITIVI
1
11/12
1/12
3
11/12
1/12
4
11/12
5
11/12
...
11/12
Lo stato 0 è ricorrente. Tutti gli altri stati 2, 3, . . . sono transienti.
21
Catene di Markov
1/12
2
11/12
APERIODICI
CATENE DI MARKOV
0
1
di = 1
PERIODICI
0.5
2
1
RICORRENTI
RICORRENTI NULLI
1
0.5
0.5
MODELLI E METODI
PER L’AUTOMAZIONE
13
Catene di Markov
17
CATENE DI MARKOV
MODELLI E METODI
PER L’AUTOMAZIONE
CATENE
DI MARKOV AATEMPO
DISCRETO
CATENE
DI MARKOV
TEMPO
DISCRETO
CATENE
DI MARKOV AATEMPO
DISCRETO
CATENE
DI MARKOV
TEMPO
DISCRETO
Classificazione degli stati
Analisi a regime di una DTMC omogenea
0.5
0
Domanda: Qual’è la probabilità che, a regime, la DTMC sia nello stato i?
1
1
0.5
1
Nell’analisi a regime di una DTMC, ci si pone il problema dell’esistenza
⇥
dei limiti j = limk ⇥ j (k) (essendo j (k) = Pr Xk = j ) e del
loro significato.
2
Stati periodici con periodo di = 2, i = 0, 1, 2.
Più in dettaglio si vuole dare risposta ai seguenti quesiti:
0.5
0
1
1
0.5
condizioni i limiti limk
indipendenti da (0))?
a) sotto quali
0.5
0.5
di probabilità, cioè,
0.5
j (k)
esistono (e sono
j
j
= 1?
c) come si possono calcolare tali limiti?
Stati aperiodici (di = 1, i = 0, 1, 2).
CATENE DI MARKOV
⇥
b) se tali limiti esistono,
⇤essi costituiscono effettivamente una distribuzione
2
Catene di Markov
18
19
MODELLI E METODI
PER L’AUTOMAZIONE
Catene di Markov
19
CATENE DI MARKOV
22
MODELLI E METODI
PER L’AUTOMAZIONE
20
CATENE
DI MARKOV AATEMPO
DISCRETO
CATENE
DI MARKOV
TEMPO
DISCRETO
CATENE
DI MARKOV AATEMPO
DISCRETO
CATENE
DI MARKOV
TEMPO
DISCRETO
Analisi a regime di una DTMC omogenea
Analisi a regime di una DTMC omogenea
L’esistenza dei limiti è connessa con l’esistenza dei punti di equilibrio dell’equazione
(k + 1) = (k) · P
(k + 1) ⇤
Si vuole infatti che a regime sia
(k) ⌅
cioè
Teorema
In una DTMC irriducibile aperiodica (cioè in cui tutti gli stati sono
aperiodici), esistono i limiti
(k)
quando k ⌅ ⇧
j
con
j
=1
23
Catene di Markov
CATENE DI MARKOV
j (k)
⇥j
S
(0)
In una DTMC irriducibile aperiodica in cui tutti gli stati sono transienti o
ricorrenti nulli, risulta
j
j
j
⇥
Teorema
·P
⇥0e
k
e sono indipendenti dal vettore di probabilità di stato iniziale
Una volta constata l’esistenza di un regime,
si può ipotizzare di calcolare il
vettore di probabilità di stato stazionario
risolvendo il sistema lineare di equazioni algebriche
=
= lim
MODELLI E METODI
PER L’AUTOMAZIONE
= lim
k
⇥
j (k)
=0
⇥j
S
24
Catene di Markov
21
CATENE DI MARKOV
MODELLI E METODI
PER L’AUTOMAZIONE
CATENE
DI MARKOV AATEMPO
DISCRETO
CATENE
DI MARKOV
TEMPO
DISCRETO
CATENE
DI MARKOV AATEMPO
DISCRETO
CATENE
DI MARKOV
TEMPO
DISCRETO
Analisi a regime di una DTMC omogenea
Analisi a regime di una DTMC omogenea
22
Teorema
Una DTMC irriducibile aperiodica
in cui tutti gli stati sono ricorrenti positivi
si dice anche ergodica
In una DTMC irriducibile aperiodica in cui tutti gli stati sono ricorrenti
positivi, i limiti j , j ⇥ S, sono tutti positivi e rappresentano la
distribuzione stazionaria di probabilità degli stati a regime. Inoltre
risulta
j
= lim
k
⇥
j (k)
=
1
Mj
Sulla base deiper
precedenti
teoremi...
Condizioni sufficienti
l’ergodicità
di una DTMC
essendo Mj il tempo medio di ritorno allo stato j.
con spazio degli stati finito
★ Lo spazioOgni
degliDTMC
stati è irriducibile
finito
Il vettore di probabilità di stato stazionario
si determina risolvendo il sistema lineare di equazioni algebriche
=
⇥
j
Catene di Markov
CATENE DI MARKOV
e con stati(mutuamente
tutti aperiodici
★ Tutti gli stati sono comunicanti
raggiungibili)
è certamente una DTMC ergodica
★ Esistono probabilità pi,i non nulle
·P
j
=1
25
MODELLI E METODI
PER L’AUTOMAZIONE
Catene di Markov
23
CATENE DI MARKOV
26
MODELLI E METODI
PER L’AUTOMAZIONE
24
IL PROCESSO BIRTH-DEATH A TEMPO DISCRETO
IL PROCESSO BIRTH-DEATH A TEMPO DISCRETO
★ Supponendo 0 < p < 1 , la DTMC risulta irriducibile e aperiodica
★ E’ una catena di Markov a tempo discreto
• Lo stato del sistema è infinito ma enumerabile ( i = 0, 1, 2, . . . )
• La DTMC è irriducibile in quanto l’intero spazio di stato è un sottoinsieme chiuso in
cui tutti gli stati sono comunicanti
• Si ha ha una “morte” con probabilità p (lo stato diminuisce di 1 unità, se i > 0 , o
rimane nullo, se i = 0 )
• Si ha una “nascita” con probabilità 1
• La DTMC è aperiodica in quanto d0 = 1
p (lo stato aumenta di 1 unità)
★ Esistono le probabilità di stato a regime?
• Gli stati sono tutti ricorrenti positivi? Oppure sono ricorrenti nulli o transienti?
1−p
p
1−p
0
1
1−p
2
p
1−p
i
i−1
···
p
p
···
• Se p < 1/2 , la DTMC tenderà verso stati sempre più grandi (è infatti più probabile
avere una nascita che avere una morte) e quindi si può ipotizzare che gli stati siano
transienti
p
2
p 1 p
0
0
0
6p
0
1 p
0
0
6
6
p
0
1 p
0
P = 60
60
0
p
0
1 p
4
..
..
..
..
..
.
.
.
.
.
MATRICE DELLE
PROBABILITÀ DI
TRANSIZIONE
★ Intuitivamente:
i+1
CATENE DI MARKOV
• Se p > 1/2 , la DTMC tenderà ad andare verso lo stato 0 (è infatti più probabile
avere una morte che avere una nascita) e quindi si può ipotizzare che lo stato 0 sia
ricorrente positivo (ma essendo la DTMC irriducibile allora lo sono tutti)
3
···
· · ·7
7
· · ·7
7
· · ·7
5
..
.
MODELLI E METODI
PER L’AUTOMAZIONE
• Se p = 1/2 (stessa probabilità di avere una nascita e di avere una morte), la
DTMC potrebbe tendere a ritornare nei vari stati ma potrebbe metterci un tempo
lunghissimo; si può quindi ipotizzare che tutti gli stati siano ricorrenti nulli
25
CATENE DI MARKOV
IL PROCESSO BIRTH-DEATH A TEMPO DISCRETO
{
1
+ p⇡j+1
★ Se p > 1/2
•
j = 1, 2, . . .
1 ✓
X
1
i=0
p
p
◆i
⇡0 =
i=0
✓
1
1
p
p
◆i
✓
1
p
⇡j = 1 ✓
X 1
i=0
p
◆j
p
p
◆i
1
2p
1
p
⇡j =
2p
1
p
·
✓
1
p
p
◆j
j = 1, 2, . . .
rappresentano quindi la distribuzione stazionaria di probabilità degli stati a regime
j = 1, 2, . . .
★ Se p > 1/2
P1 ⇣ 1 p ⌘i
• La somma i=0
non è convergente (si può dimostrare che tutti gli stati
p
sono transienti)
★ Se p = 1/2
P1 ⇣ 1 p ⌘i
• Anche in questo caso la somma
non è convergente (si può
i=0
p
dimostrare che tutti gli stati sono ricorrenti nulli)
★ Queste probabilità rappresentano o non rappresentano delle probabilità di
stato a regime a seconda del valore di p
CATENE DI MARKOV
p
2p
• Le probabilità
si ottiene
1
X
è convergente e vale
• la DTMC è ergodica
j2S
⇡0 =
26
IL PROCESSO BIRTH-DEATH A TEMPO DISCRETO
★ Risolvendo il sistema che fornisce le probabilità di stato a regime
⇡0 = p⇡0 + p⇡1
⇡j = (1 p)⇡j
X
⇡j = 1
MODELLI E METODI
PER L’AUTOMAZIONE
MODELLI E METODI
PER L’AUTOMAZIONE
27
CATENE DI MARKOV
MODELLI E METODI
PER L’AUTOMAZIONE
28
CATENE
DI MARKOV
TEMPO
CONTINUO
CATENE
DI MARKOV A
A TEMPO
CONTINUO
CATENE
DI MARKOV A
A TEMPO
CONTINUO
CATENE
DI MARKOV
TEMPO
CONTINUO
Evoluzione di una CTMC
CATENE DI MARKOV A TEMPO CONTINUO
di unaA
DTMC
è governata
CATENEL’evoluzione
DI MARKOV
TEMPO
CONTINUO
CATENE DI dalle
MARKOV
TEMPO CONTINUO
funzioni A
di transizione
Evoluzione di una CTMC
⇥
una
pi,j (s, t) = Evoluzione
Pr X(t) = j | di
X(s)
= iCTMC
⇤ i, j ⇥ S ⇤ s t
Evoluzione
di
una
CTMC
Evoluzione di una CTMC
Una catena di Markov a tempo continuo (CTMC) è
un sistema a stato discreto e tempo continuo
in cui l’evoluzione della variabile di stato X(t)
è caratterizzata dalla proprietà Markoviana
⇥
Pr X(tk+1) = xk+1 | X(tk) = xk, . . . , X(t0) = x0 =
= Pr X(tk+1) = xk+1 | X(tk) = xk
per ogni scelta di t0, t1, . . . , tk+1 tale che t0
t1
...
tk+1 .
Si definisca la matrice
Si
matrice
⇥
Perdefinisca
il teorema la
della
probabilità totale,
si ha, ⇤per s
u
t
t) = ⇥pi,j equazione
(s, t)⇤ i, j è=la
2,
La parte sinistra
precedente
derivata
parziale di P ˜(s, t)
X della
ˆ P (s,
˜0, 1,
ˆ ...
p
(
s,
t
)
=
Pr
X
(
t
)
=
j
|
X
(
u
)
=
r,
X
(
s
)
=
i
·
Pr
i,j a t
P (s, t) = pi,j (s, t) i, j = 0, 1, 2,X
. .(.u) = r | X (s) = i
rispetto
⇥
r⇥S
ˆ
˜
E’ ovvio che deveX
essere
P (s, t + t) ˜P (s,ˆ t) ) =
⇥P (s, t)
=
Pr lim
X (t) = j | X (u) = r · Pr X (u
= r | X (s ) = i
E’ ovvio che dever⇥S
essere
t 0
t
⇥t
P (s, s) = 1 e
pi,j (s, t) = 1 ⇥ s t
da cui si ottiene
P (s, p
s) =
1 eX
t
j S pi,j (s, t) = 1 ⇥ s
(s, t) =
p (s, u) · p (u, t)
“no state memory”: Il valore che assumerà lo stato (xk+1) dipende
esclusivamente dal valore dello stato corrente (xk) e non da quelli passati
i,j
“no age memory”: Il tempo trascorso nello stato corrente è irrilevante
ai fini della determinazione del prossimo stato
Catene di Markov
27
Catene di Markov
CATENE DI MARKOV
MODELLI E METODI
PER L’AUTOMAZIONE
i,r
j S
r⇥S
r,j
Si definisce inoltre la matrice dei rate di transizione (o, generatore
L’equazione
di come
Chapman-Kolmogorov
a tempo
continuo
diventa
infinitesimale)
Equazione
di Chapman-Kolmogorov
a tempo
continuo
L’equazione di Chapman-Kolmogorov a tempo continuo diventa
29
(t,u)
t+
t) t) I
P (s,
= PP(s,
· P (u,
Q(t)
=t)lim
P (s, t) t= 0P (s, u) · Pt(u, t)
CATENE DI MARKOV
28
MODELLI E METODI
PER L’AUTOMAZIONE
29
29
31
Catene di Markov
Catene di Markov
Catene di Markov
CATENE DI MARKOV A TEMPO CONTINUO
CATENE
DI MARKOV
A
TEMPO
CONTINUO
CATENE
DI CTMC
MARKOVomogenee
A TEMPO
CONTINUO
CATENE
DI MARKOV A
A TEMPO
CONTINUO
CATENE
DI MARKOV
TEMPO
CONTINUO
Il significato della matrice Q(t) e delle equazioni differenziali di Chapman-Kolmogorov
CTMC
risulta chiaro nel caso
di CTMComogenee
omogenee, cioè tempo-invarianti
CTMC omogenee
Una
CTMCdella
omogenea
è una
CTMC
in cui
le funzioni
di transizione sono
Il significato
matrice Q(t)
e delle
equazioni
differenziali
di Chapman-Kolmogorov
indipendenti
daichiaro
valorinelassoluti
s e t, eomogenee,
dipendono
risulta
caso di CTMC
cioèesclusivamente
tempo-invarianti dalla
differenza = t s
Una CTMC omogenea è una CTMC in cui le funzioni di transizione sono
In
altre parole,
casoassoluti
di CTMC
le funzioni
di transizione
indipendenti
dainel
valori
s e omogenee,
t, e dipendono
esclusivamente
dalla
differenza = t s
⇥
pi,j (s, s + ) = pi,j ( ) = Pr X(s + ) = j | X(s) = i
⇥ i, j
S
pi,j (s, s + ) = pi,j ( ) = Pr X(s + ) = j | X(s) = i
P (s, t) = P (s, s + ) ⇥ P ( )
⇥ i, j
S
L’equazione differenziale forward di Chapman-Kolmogorov diventa
dP ( )
d
pi,j (0) =
Q(t) ⇥ Q
P (s, t) = P (s, s + ) ⇥ P ( )
Catene di Markov
CATENE DI MARKOV
⇥Q
1 se j = i
0 se j ⇥= i
La soluzione di tale equazione è
sono indipendenti da s
Q(t)
= P( ) · Q
che deve essere integrata dalle seguenti condizioni iniziali
In altre parole, nel caso di CTMC omogenee, le funzioni di transizione
sono indipendenti da s
⇥
Catene di Markov
30
P ( ) = eQ
essendo eQ = I + Q +
33
33
MODELLI E METODI
PER L’AUTOMAZIONE
Catene di Markov
31
CATENE DI MARKOV
Q2
2!
s
+ ...
34
MODELLI E METODI
PER L’AUTOMAZIONE
32
CATENE
DI MARKOV A
A TEMPO
CONTINUO
CATENE
DI MARKOV
TEMPO
CONTINUO
CATENE
DI MARKOV A
A TEMPO
CONTINUO
CATENE
DI MARKOV
TEMPO
CONTINUO
CTMC omogenee
CTMC omogenee
Sia v(i) il tempo di permanenza nello stato i, quando tale stato viene
raggiunto
Gli intervalli possono essere pensati come la sequenza
dei tempi di inter-evento di un processo di Poisson con parametro
⇤
Teorema
⇥
Pr v(i) ⇥ t =
⇤
1
0
(i)t
e
1
(i)
Questo processo di Poisson può essere considerato come la
sovrapposizione di processi di Poisson indipendenti,
ciascuno corrispondente alla sequenza di eventi
“transizione dallo stato i allo stato j” (j = i)
t⇤0
t<0
Si immagini di identificare, nell’evoluzione della CTMC,
gli intervalli di tempo nei quali il sistema si trova nello stato i
Sia i,j il parametro caratterizzante il generico processo di Poisson di tale
tipo (ovviamente, se lo stato j non può essere raggiunto dallo stato i risulta i,j = 0)
Gli estremi a destra di tali intervalli corrispondono al verificarsi di eventi del tipo
“la CTMC esce dallo stato i”
(i) =
Tali intervalli rappresentano realizzazioni successive della variabile v(i)
distribuita in modo esponenziale
⇧
i,j
j S
j⇥=i
CateneCATENE
di Markov
35
DI MARKOV A TEMPO CONTINUO
MODELLI E METODI
CATENE DI MARKOV
PER L’AUTOMAZIONE 33
CTMC omogenee
Ponendo
ottiene
⇥
(i) ha il significato di rate di uscita dallo stato i E v(i) =
La variabile aleatoria v(i) è distribuita in modo esponenziale
(i)
⌅
36
Catene di Markov
CATENE DI MARKOV
MODELLI E METODI
PER L’AUTOMAZIONE
34
= 0 e usando le condizioni iniziali pi,i(0) = 1, pi,r (0) = 0, r ⇥= i, si
˛
˛
pi,i( ) ˛
=
(⇤⇤)CONTINUO
CATENE
DI dMARKOV
AqTEMPO
i,i
˛
CATENE
DI MARKOV
A
TEMPO
CONTINUO
d
=0
che può essere riscritta come
CATENE
DI MARKOV A
A TEMPO
CONTINUO
CATENE
DI MARKOV
TEMPO
CONTINUO
˛
CTMC
omogenee
˜˛
d ˆ
qi,i =
d
pi,i( ) ˛˛
1
CTMC omogenee
=0
Probabilità di transizione
CATENE
DI MARKOV
A TEMPO
CONTINUO
A questo punto
è possibile fornire
una interpretazione
fisica
⇥
⇥
p̃i,j = Pr Xk+1 = j | Xk = i =
1 pi,i( ) rappresentadei
la probabilità
la CTMC
lasci
coe⇥cientichedella
matrice
Q lo stato i in un
intervallo di lunghezza . Ne CTMC
consegue che
omogenee
Si consideri la generica equazione scalare relativa all’equazione differenziale forward di
( ora
qi,i
puòi =
essere
come
la frequenza
Si consideri
il )
caso
j. In interpretato
maniera analoga
a quanto
già visto, si (rate)
ottiene
Chapman-Kolmogorov
˛
⇤
i,i
i,i
i,r
qi,j =
Inoltre, tenendo presente che
Catene di Markov
= 0, si ha
CATENE DI MARKOV
X
j⇥S
Catene di Markov
), risulta
i,j
j pi,j ( ) = 1, ⇥ > 0, e derivando rispetto a
qi,j = 0
ovvero
qi,i =
X
qi,j
p̃i,j = 1
Tale DTMC rappresenta solo le probabilità di transizione da uno stato all’altro e trascura
l’informazione relativa alla frequenza di transizioni, ai tempi medi di permanenza negli
stati, ecc. Si noti che la DTMC cosı̀ definita ha sempre una matrice delle probabilità di
transizione in cui la diagonale principale è composta da zeri
r,i
r =i
In modo analogo a quanto già espresso dalla (
qi,i
La DTMC definita dalle probabilità di transizione di una CTMC si chiama
“DTMC embedded nella CTMC”
38
dpi,i( ) dallo stato X
“passaggio
i allo
stato j”
= p ( )q +
p ( )q
d
qi,j
j =i
(⇤)
Catene di Markov
Quindi il parametro qi,j può essere interpretato come
Si consideri prima
il caso i =(rate)
j. L’equazione
diventa la transizione
la frequenza
con cui (si) verifica
=
Ovviamente risulta
con cui si verifica la transizione
dpi,j (⇥ ) ˛“uscita dallo stato i”
X˛
dpi,j ( )
qi,j =
˛pi,r ( )qr,j
= pi,j ( )qj,j +
d⇥
⇥ =0
d
r =j
i,j
(i)
in
37
MODELLI E METODI
PER L’AUTOMAZIONE
j⇤=i
40
Catene di Markov
35
CATENE DI MARKOV
41
MODELLI E METODI
PER L’AUTOMAZIONE
36
CATENE
DI MARKOV A
A TEMPO
CONTINUO
CATENE
DI MARKOV
TEMPO
CONTINUO
CATENE
DI MARKOV A
A TEMPO
CONTINUO
CATENE
DI MARKOV
TEMPO
CONTINUO
Analisi a transitorio e a regime di una CTMC omogenea
Analisi a transitorio e a regime di una CTMC omogenea
Dal teorema della probabilità totale, si ottiene
Le probabilità di stato di una CTMC sono definite come
j (t) = Pr X(t) = j
Il vettore della probabilità di stato è
(t) =
0 (t),
j ( t)
⇥
=
X
i⇤S
X
ˆ
˜
ˆ
˜
Pr X (t) = j | X (0) = i · Pr X (0) = i =
pi,j (t) ·
i⇤S
t⇥0
che in forma matriciale diventa
( t) =
1 (t),
i (0)
2 (t), . . .
⇥
(0) · P (t) =
(0)e
Qt
Differenziando rispetto a t si ottiene
d ( t)
=
dt
( t) Q
che scritta in forma scalare diventa
d
42
Catene di Markov
CATENE DI MARKOV
MODELLI E METODI
PER L’AUTOMAZIONE
j ( t)
= qj,j
dt
j ( t)
+
X
qi,j
i ( t)
j = 0, 1, 2, . . .
i⌅=j
43
Catene di Markov
37
CATENE DI MARKOV
MODELLI E METODI
PER L’AUTOMAZIONE
CATENE
DI MARKOV A
A TEMPO
CONTINUO
CATENE
DI MARKOV
TEMPO
CONTINUO
CATENE
DI MARKOV A
A TEMPO
CONTINUO
CATENE
DI MARKOV
TEMPO
CONTINUO
Analisi a transitorio e a regime di una CTMC omogenea
Analisi a transitorio e a regime di una CTMC omogenea
Teorema
Nell’analisi a regime di una CTMC, in modo analogo a quanto visto per
le DTMC, ci si interroga sull’esistenza e sulla determinazione dei limiti
j
= lim
t
⇥
In una CTMC irriducibile in cui tutti gli stati sono ricorrenti positivi
(e quindi in ogni CTMC irriducibile con spazio degli stati finito), esiste
un’unica distribuzione di probabilità a regime dello stato tale che i
limiti limt ⇥ j (t) sono positivi, ⇥ j S.
j (t)
⇥
j (t)
Il vettore si determina in maniera univoca risolvendo il sistema di
equazioni lineari
esistono?
⇥Q = 0
b) se tali limiti esistono, essi costituiscono effettivamente una distribuzione
di probabilità, cioè,
j
j
(0).
Tale distribuzione è indipendente da
In particolare:
a) sotto quali condizioni i limiti limt
38
j⇤S
= 1?
j
=1
La prima delle due equazioni rappresenta le condizioni di equilibrio stocastico
⇤
qj,j j +
qi,j i = 0
j S
c) come si possono calcolare tali limiti?
i⌅=j
Catene di Markov
CATENE DI MARKOV
44
MODELLI E METODI
PER L’AUTOMAZIONE
Catene di Markov
39
CATENE DI MARKOV
45
MODELLI E METODI
PER L’AUTOMAZIONE
40
IL PROCESSO BIRTH-DEATH A TEMPO CONTINUO
IL PROCESSO BIRTH-DEATH A TEMPO CONTINUO
★ E’ una catena di Markov a tempo continuo
★ Risolvendo il sistema che fornisce le probabilità di stato a regime
• Lo stato del sistema è infinito ma enumerabile ( j = 0, 1, 2, . . . )
• qi,j = 0 per j < i
•
j
{
1 e j >i+1
= qj,j+1 > 0 è la “birth rate” nello stato j
• µj = qj,j
1
> 0 è la “death rate” nello stato j
λ0
λ1
1
0
µ1
MATRICE DEI
RATE DI
TRANSIZIONE
λj−1
2
µ2
j+1
µj
2
0
6 µ1
6
Q=6 0
4
..
.
(
0
+ µ1 )
µ2
..
.
(
1
2
CATENE DI MARKOV
+ µ2 )
..
.
<1
j
0
0
2
..
.
3
···
· · ·7
7
· · ·7
5
..
.
1
⇡0 =
⇡j =
+1
X✓
41
j̄
MODELLI E METODI
PER L’AUTOMAZIONE
✓
0
1
...
j
µ1 µ2 . . . µj
1
◆
0
1
...
43
CATENE DI MARKOV
1
j
µ1 µ2 . . . µj
✓
⇡0 =
1+
0
1
◆
...
j
µ1 µ2 . . . µj
+1
X ✓ 0 1...
j=1
• In questo caso infatti si può dimostrare che tutti gli stati sono ricorrenti positivi e
pertanto esiste una distribuzione di probabilità a regime dello stato
CATENE DI MARKOV
j = 1, 2, . . .
⇡j = 1
j=1
★ Le probabilità appena vista hanno il significato di probabilità di stato a
regime se
j
+ µj+1 ⇡j+1 = 0
1+
IL PROCESSO BIRTH-DEATH A TEMPO CONTINUO
µj
1
j=0
···
MODELLI E METODI
PER L’AUTOMAZIONE
9 j̄ :
1 ⇡j
µj+1
0
1
+1
X
j
si ottiene
λj
j
j−1
···
+ µ1 ⇡1 = 0
+ µj )⇡j + j
0 ⇡0
(
1
◆
j
µ1 µ2 . . . µj
1
◆
MODELLI E METODI
PER L’AUTOMAZIONE
42
Scarica