CATENE DI MARKOV

annuncio pubblicitario
Corso di Laurea Triennale in INGEGNERIA GESTIONALE
Anno Accademico 2012/13
MODELLI E METODI PER L’AUTOMAZIONE
Prof. Davide GIGLIO
CATENE DI MARKOV
CATENE DI MARKOV
MODELLI E METODI
PER L’AUTOMAZIONE
1
INDICE
I PROCESSI DI POISSON
★ I processi di Poisson
★ La distribuzione esponenziale
★ Sovrapposizione di processi di Poisson
CATENE DI MARKOV A TEMPO DISCRETO (DTMC)
★ Definizioni e proprietà
★ Classificazione degli stati in una DTMC
★ Analisi a regime di una DTMC omogenea
★ Il processo “birth-death” a tempo discreto (DTMC-BD)
CATENE DI MARKOV A TEMPO CONTINUO (CTMC)
★ Definizioni e proprietà
★ Analisi di transitorio e a regime di una CTMC omogenea
★ Il processo “birth-death” a tempo continuo (CTMC-BD)
CATENE DI MARKOV
MODELLI E METODI
PER L’AUTOMAZIONE
2
PROCESSI STOCASTICI
✹ DEFINIZIONE ✹
Un processo stocastico {X(t)} è una collezione di variabili aleatorie
indicizzate dalla variabile tempo t 2 T
★ In un processo stocastico, le variabili aleatorie X(t) soddisfano, per ogni
t 2 T una certa distribuzione di probabilità
★ Una realizzazione del processo stocastico (“sample path”) è una
specifica sequenza di variabili aleatorie X(t0 ) = x0 , X(t1 ) = x1 , ... ,
X(t
XXXn ) = xn
• Si noti che è stata indicata con una lettera maiuscola la variabile aleatoria e con una
lettera minuscola il valore che la variabile aleatoria assume
★ Se il processo stocastico è utilizzato per descrivere lo stato di un
sistema in un certo intervallo di tempo, un sample path può essere
inteso come la sequenza di stati del sistema durante un particolare
esperimento, mentre una variabile aleatoria rappresenta lo stato del
sistema in uno specifico istante di tempo
CATENE DI MARKOV
MODELLI E METODI
PER L’AUTOMAZIONE
3
PROCESSI STOCASTICI
PROCESSI STOCASTICI A STATO DISCRETO E A STATO CONTINUO
La tipologia dello spazio degli stati ammissibili (valori che possono essere
assunti dalle variabili aleatorie X(t), t 2 T ) classifica un processo stocastico
★ Un processo stocastico è a stato discreto (“discrete-state process”) se
{X(t)} è definito su un insieme finito o enumerabile di valori
• Un insieme finito di valori è, ad esempio, l’insieme {ON, OFF} (riferito per esempio
allo stato di funzionamento di una macchina) mentre un insieme enumerabile di
valori è l’insieme dei numeri naturali non negativi {0, 1, 2, . . .} (riferito per esempio
allo stato di occupazione di un buffer)
• I sistemi ad eventi discreti sono caratterizzati da uno spazio degli stati discreto
★ Altrimenti il processo stocastico è a stato continuo (“continuous-state
process”)
CATENE DI MARKOV
MODELLI E METODI
PER L’AUTOMAZIONE
4
PROCESSI STOCASTICI
PROCESSI STOCASTICI A TEMPO DISCRETO E A TEMPO CONTINUO
Anche la tipologia dei valori che possono essere assunti dalla variabile
tempo t (ovvero l’insieme T ) classifica un processo stocastico
★ Un processo stocastico è a tempo discreto (“discrete-time process”) se
l’insieme T è finito o enumerabile
• Nei processi stocastici a tempo discreto T è generalmente costituito dall’insieme
dei numeri naturali non negativi {0, 1, 2, . . .}
• Si usa spesso indicare un processo stocastico a tempo discreto con il nome
“sequenza stocastica” e con la notazione {Xk } , k = 0, 1, 2, . . .
★ Altrimenti il processo stocastico è a tempo continuo (“continuous-time
process”)
CATENE DI MARKOV
MODELLI E METODI
PER L’AUTOMAZIONE
5
I PROCESSI DI POISSON
★ Si consideri una sequenza di eventi tutti dello stesso tipo
★ Sia {N (t)} il processo stocastico che conta il numero di eventi che sono
occorsi nell’intervallo (0, t] (“counting process”)
★ Lo spazio degli stati di un tale processo è l’insieme dei numeri naturali
non negativi {0, 1, 2, . . .}
7
6
5
4
3
2
1
t
★ E’ evidente che N (0)  N (t1 )  . . .  N (tk ) per ogni
0  t1  . . .  tk
XXX
CATENE DI MARKOV
MODELLI E METODI
PER L’AUTOMAZIONE
6
I PROCESSI DI POISSON
★ Si consideri l’asse dei tempi come partizionato in intervalli di tempo di
lunghezza arbitraria (tk 1 , tk ] , k = 1, 2, . . .
t
0
N (0)
t1
tk
t2
N (t1 ) N (t2 )
N (tk
tk
1
1)
N (tk )
}
N (tk
1 , tk )
★ Supponendo t0 = 0 e N (0) = 0 il numero di eventi che occorrono
nell’intervallo (tk 1 , tk ] è dato da
N (tk
1 , tk )
= N (tk )
N (tk
1)
★ Un processo di Poisson è un counting process in cui vengono fatte tre
specifiche assunzioni
CATENE DI MARKOV
MODELLI E METODI
PER L’AUTOMAZIONE
7
I PROCESSI DI POISSON
ASSUNZIONI FONDAMENTALI
1. In ogni istante può verificarsi al massimo un evento
• Non è possibile avere eventi contemporanei
2. Presi due intervalli arbitrari (tk 1 , tk ] e (th 1 , th ] , con tk  th
variabili aleatorie N (tk 1 , tk ) e N (th 1 , th ) sono indipendenti
1
, le
• Questa assunzione implica che gli eventi futuri (numero di occorrenze in un certo
intervallo futuro) non sono influenzati da quello che è avvenuto nel passato
(numero di eventi occorsi in un certo intervallo già passato)
3. La probabilità Pr{N (tk 1 , tk ) = n} che in un certo intervallo (tk 1 , tk ]
si verifichino n occorrenze dell’evento in questione dipende solamente
dalla lunghezza dell’intervallo, ovvero da tk tk 1 (oltre che ovviamente
da n )
• Essendo tale probabilità indipendente dai valori tk
un processo stazionario
CATENE DI MARKOV
1
e tk , il processo di Poisson è
MODELLI E METODI
PER L’AUTOMAZIONE
8
I PROCESSI DI POISSON
✹ RISULTATO ✹
In riferimento ad un processo di Poisson, la variabile aleatoria N (t) ha una
distribuzione data da
Pn (t) = Pr{N (t) = n} =
essendo
( t)n
n!
e
t
t
0 n = 0, 1, 2, . . .
un parametro che caratterizza la distribuzione considerata
★ Si può provare che E[N (t)] = t e Var[N (t)] = t
★ Il parametro
può essere quindi interpretato come la frequenza delle
occorrenze dell’evento
★ 1/
è il tempo medio tra due occorrenze dell’evento successive
CATENE DI MARKOV
MODELLI E METODI
PER L’AUTOMAZIONE
9
LA DISTRIBUZIONE ESPONENZIALE
✹ RISULTATO ✹
I tempi di interevento in un processo di Poisson costituiscono una
sequenza di variabili aleatorie indipendenti e identicamente distribuite (i.i.d.)
in modo esponenziale, ovvero caratterizzate dalla seguente cdf (cumulative
distribution function)
G(t) = Pr{Vk  t} =
⇢
1
0
e
t
t
0
t<0
essendo il parametro caratteristico del processo di Poisson considerato e
Vk la variabile aleatoria relativa al k -esimo tempo di interevento (ovvero
quello relativo all’intervallo (tk 1 , tk ] )
La pdf (probability density function) è
g(t) =
CATENE DI MARKOV
⇢
e
0
t
t
0
t<0
MODELLI E METODI
PER L’AUTOMAZIONE
10
LA DISTRIBUZIONE ESPONENZIALE
1
1
e
t
e
t
t
t
★ Nella distribuzione esponenziale la media e la varianza sono 1/
e 1/
2
★ In maniera duale, una sequenza di realizzazioni di una v.a. distribuita in
modo esponenziale può essere vista come una sequenza di realizzazioni
di v.a. i.i.d. corrispondenti ai tempi di interevento di un processo di Poisson
CATENE DI MARKOV
MODELLI E METODI
PER L’AUTOMAZIONE
11
LA DISTRIBUZIONE ESPONENZIALE
✹ RISULTATO ✹
Si consideri il generico tempo di interevento Vk . Si ha
Pr{Vk  z + t | Vk > z} = 1
e
t
= Pr{Vk  t}
ovvero la variabile aleatoria “tempo residuo di interevento” ha la stessa
distribuzione della variabile aleatoria “tempo di interevento”
★ Il condizionamento Vk > z non ha pertanto contenuto informativo
(memoryless property)
• Non importa quanto tempo sia passato dall’ultima occorrenza dell’evento per
determinare la probabilità di occorrenza della prossima occorrenza dell’evento
★ Si può dimostrare che la distribuzione esponenziale è l’unica
distribuzione per la quale valga tale proprietà
CATENE DI MARKOV
MODELLI E METODI
PER L’AUTOMAZIONE
12
SOVRAPPOSIZIONE DI PROCESSI DI POISSON
★ Si consideri il processo stocastico costituito dalla sovrapposizione di m
processi di Poisson mutuamente indipendenti (cioè una sequenza di
eventi di m tipi differenti) caratterizzati rispettivamente dai parametri
HHH
1, 2, . . . , m
★ Il processo stocastico così ottenuto è ancora un processo di Poisson,
con valore del parametro che lo caratterizza pari a
⇤=
m
X
i
i=1
CATENE DI MARKOV
MODELLI E METODI
PER L’AUTOMAZIONE
13
CATENE
DI MARKOV AATEMPO
DISCRETO
CATENE
DI MARKOV
TEMPO
DISCRETO
Evoluzione di una DTMC
Una catena di Markov a tempo discreto (DTMC) è un sistema a
stato discreto e tempo discreto in cui l’evoluzione della variabile di
stato Xk è caratterizzata dalla proprietà Markoviana
⇥
Pr Xk+1 = xk+1 | Xk = xk, . . . , X0 = x0 = Pr Xk+1 = xk+1 | Xk = xk
⇥
I possibili valori dello stato sono elementi di un insieme discreto S
(finito o numerabile)
L’evoluzione di una DTMC è governata dall’insieme delle probabilità di
transizione
pi,j (k) = Pr Xk+1
Catene di Markov
CATENE DI MARKOV
⇥
= j | Xk = i ⇥ i, j
S
⇥ k = 0, 1, 2, . . .
2
MODELLI E METODI
PER L’AUTOMAZIONE
14
CATENE
DI MARKOV AATEMPO
DISCRETO
CATENE
DI MARKOV
TEMPO
DISCRETO
Analisi del transitorio di una DTMC omogenea
Quando le proprietà di transizione pi,j (k) sono indipendenti da k,
⇥ i, j S la DTMC si dice omogenea (tempo invariante)
Se la DTMC è omogenea, anche pi,j (k, k + n) è indipendente da k, e si
può indicare semplicemente con pn
i,j
⇥
n
Inoltre, si indica con H(n) la matrice pi,j
Dall’equazione di Chapman-Kolmogorov, si ottiene, allora
H (n) = H (n
⇥
1) · H (1)
H(1) = pi,j si indica con P . Si ha quindi
H (2) = H (1) · H (1) = P · P = P
2
2
H (3) = H (2) · H (1) = P · P = P
H (n) = P
Catene di Markov
CATENE DI MARKOV
n
1
·P =P
3
n
5
MODELLI E METODI
PER L’AUTOMAZIONE
15
CATENE
DI MARKOV AATEMPO
DISCRETO
CATENE
DI MARKOV
TEMPO
DISCRETO
Analisi del transitorio di una DTMC omogenea
Le probabilità di stato sono definite come
j (k)
= Pr Xk = j
Il vettore della probabilità di stato è
(k ) =
ˆ
0 (k ),
1 (k ),
⇥
2 (k ),
...
˜
e può avere dimensione infinita. Dal teorema della probabilità totale, si ottiene
j (k
+ 1) =
X
i⇥S
ˆ
Pr Xk+1
che in forma matriciale diventa
X
˜
ˆ
˜
= j | Xk = i · Pr Xk = i =
pi,j ·
i⇥S
(k + 1) =
da cui si ottiene
(k ) =
Catene di Markov
CATENE DI MARKOV
i (k )
(k ) · P
(0) · P
k
6
MODELLI E METODI
PER L’AUTOMAZIONE
16
CATENE
DI MARKOV AATEMPO
DISCRETO
CATENE
DI MARKOV
TEMPO
DISCRETO
Classificazione degli stati
STATI
i
TRANSIENTI
=1
RICORRENTI
Mi <
RICORRENTI NULLI
RICORRENTI POSITIVI
di = 1
PERIODICI
Catene di Markov
CATENE DI MARKOV
APERIODICI
21
MODELLI E METODI
PER L’AUTOMAZIONE
17
CATENE
DI MARKOV AATEMPO
DISCRETO
CATENE
DI MARKOV
TEMPO
DISCRETO
Classificazione degli stati
0.5
0
0.5
0.5
0.5
1
1
2
Gli stati 0 e 1 sono transienti. Lo stato 2 è ricorrente.
1
0
1
11/12
11/12
1/12
1/12
1/12
1/12
2
3
4
5
11/12
11/12
11/12
...
11/12
Lo stato 0 è ricorrente. Tutti gli altri stati 2, 3, . . . sono transienti.
Catene di Markov
CATENE DI MARKOV
13
MODELLI E METODI
PER L’AUTOMAZIONE
18
CATENE
DI MARKOV AATEMPO
DISCRETO
CATENE
DI MARKOV
TEMPO
DISCRETO
Classificazione degli stati
0.5
0
1
1
0.5
1
2
Stati periodici con periodo di = 2, i = 0, 1, 2.
0.5
0
1
1
0.5
0.5
0.5
2
0.5
Stati aperiodici (di = 1, i = 0, 1, 2).
Catene di Markov
CATENE DI MARKOV
19
MODELLI E METODI
PER L’AUTOMAZIONE
19
CATENE
DI MARKOV AATEMPO
DISCRETO
CATENE
DI MARKOV
TEMPO
DISCRETO
Analisi a regime di una DTMC omogenea
Domanda: Qual’è la probabilità che, a regime, la DTMC sia nello stato i?
Nell’analisi a regime di una DTMC, ci si pone il problema dell’esistenza
⇥
dei limiti j = limk ⇥ j (k) (essendo j (k) = Pr Xk = j ) e del
loro significato.
Più in dettaglio si vuole dare risposta ai seguenti quesiti:
condizioni i limiti limk
indipendenti da (0))?
a) sotto quali
⇥
j (k)
esistono (e sono
b) se tali limiti esistono,
⇤essi costituiscono effettivamente una distribuzione
di probabilità, cioè,
j
j
= 1?
c) come si possono calcolare tali limiti?
Catene di Markov
CATENE DI MARKOV
22
MODELLI E METODI
PER L’AUTOMAZIONE
20
CATENE
DI MARKOV AATEMPO
DISCRETO
CATENE
DI MARKOV
TEMPO
DISCRETO
Analisi a regime di una DTMC omogenea
L’esistenza dei limiti è connessa con l’esistenza dei punti di equilibrio dell’equazione
(k + 1) = (k) · P
(k + 1) ⇤
Si vuole infatti che a regime sia
cioè
(k) ⌅
(k)
quando k ⌅ ⇧
Una volta constata l’esistenza di un regime,
si può ipotizzare di calcolare il
vettore di probabilità di stato stazionario
risolvendo il sistema lineare di equazioni algebriche
=
con
Catene di Markov
CATENE DI MARKOV
j
⇥0e
·P
j
j
=1
23
MODELLI E METODI
PER L’AUTOMAZIONE
21
CATENE
DI MARKOV AATEMPO
DISCRETO
CATENE
DI MARKOV
TEMPO
DISCRETO
Analisi a regime di una DTMC omogenea
Teorema
In una DTMC irriducibile aperiodica (cioè in cui tutti gli stati sono
aperiodici), esistono i limiti
j
= lim
k
⇥
j (k)
⇥j
S
e sono indipendenti dal vettore di probabilità di stato iniziale
(0)
Teorema
In una DTMC irriducibile aperiodica in cui tutti gli stati sono transienti o
ricorrenti nulli, risulta
j
Catene di Markov
CATENE DI MARKOV
= lim
k
⇥
j (k)
=0
⇥j
S
24
MODELLI E METODI
PER L’AUTOMAZIONE
22
CATENE
DI MARKOV AATEMPO
DISCRETO
CATENE
DI MARKOV
TEMPO
DISCRETO
Analisi a regime di una DTMC omogenea
Teorema
In una DTMC irriducibile aperiodica in cui tutti gli stati sono ricorrenti
positivi, i limiti j , j ⇥ S, sono tutti positivi e rappresentano la
distribuzione stazionaria di probabilità degli stati a regime. Inoltre
risulta
j
= lim
k
⇥
j (k)
=
1
Mj
essendo Mj il tempo medio di ritorno allo stato j.
Il vettore di probabilità di stato stazionario
si determina risolvendo il sistema lineare di equazioni algebriche
=
⇥
j
Catene di Markov
CATENE DI MARKOV
·P
j
=1
25
MODELLI E METODI
PER L’AUTOMAZIONE
23
CATENE
DI MARKOV AATEMPO
DISCRETO
CATENE
DI MARKOV
TEMPO
DISCRETO
Analisi a regime di una DTMC omogenea
Una DTMC irriducibile aperiodica
in cui tutti gli stati sono ricorrenti positivi
si dice anche ergodica
Sulla base deiper
precedenti
teoremi...
Condizioni sufficienti
l’ergodicità
di una DTMC
con spazio degli stati finito
★ Lo spazioOgni
degliDTMC
stati è irriducibile
finito
e con stati(mutuamente
tutti aperiodici
★ Tutti gli stati sono comunicanti
raggiungibili)
è certamente una DTMC ergodica
★ Esistono probabilità pi,i non nulle
Catene di Markov
CATENE DI MARKOV
26
MODELLI E METODI
PER L’AUTOMAZIONE
24
IL PROCESSO BIRTH-DEATH A TEMPO DISCRETO
★ E’ una catena di Markov a tempo discreto
• Lo stato del sistema è infinito ma enumerabile ( i = 0, 1, 2, . . . )
• Si ha ha una “morte” con probabilità p (lo stato diminuisce di 1 unità, se i > 0 , o
rimane nullo, se i = 0 )
• Si ha una “nascita” con probabilità 1
1−p
p
0
1−p
1
p
MATRICE DELLE
PROBABILITÀ DI
TRANSIZIONE
CATENE DI MARKOV
p (lo stato aumenta di 1 unità)
1−p
2
p
···
1−p
i
i−1
p
i+1
···
p
2
p 1 p
0
0
0
6p
0
1 p
0
0
6
6
p
0
1 p
0
P = 60
60
0
p
0
1 p
4
..
..
..
..
..
.
.
.
.
.
3
···
· · ·7
7
· · ·7
7
· · ·7
5
..
.
MODELLI E METODI
PER L’AUTOMAZIONE
25
IL PROCESSO BIRTH-DEATH A TEMPO DISCRETO
★ Supponendo 0 < p < 1 , la DTMC risulta irriducibile e aperiodica
• La DTMC è irriducibile in quanto l’intero spazio di stato è un sottoinsieme chiuso in
cui tutti gli stati sono comunicanti
• La DTMC è aperiodica in quanto d0 = 1
★ Esistono le probabilità di stato a regime?
• Gli stati sono tutti ricorrenti positivi? Oppure sono ricorrenti nulli o transienti?
★ Intuitivamente:
• Se p < 1/2 , la DTMC tenderà verso stati sempre più grandi (è infatti più probabile
avere una nascita che avere una morte) e quindi si può ipotizzare che gli stati siano
transienti
• Se p > 1/2 , la DTMC tenderà ad andare verso lo stato 0 (è infatti più probabile
avere una morte che avere una nascita) e quindi si può ipotizzare che lo stato 0 sia
ricorrente positivo (ma essendo la DTMC irriducibile allora lo sono tutti)
• Se p = 1/2 (stessa probabilità di avere una nascita e di avere una morte), la
DTMC potrebbe tendere a ritornare nei vari stati ma potrebbe metterci un tempo
lunghissimo; si può quindi ipotizzare che tutti gli stati siano ricorrenti nulli
CATENE DI MARKOV
MODELLI E METODI
PER L’AUTOMAZIONE
26
IL PROCESSO BIRTH-DEATH A TEMPO DISCRETO
★ Risolvendo il sistema che fornisce le probabilità di stato a regime
{
⇡0 = p⇡0 + p⇡1
⇡j = (1 p)⇡j
X
⇡j = 1
1
+ p⇡j+1
j = 1, 2, . . .
j2S
si ottiene
⇡0 =
1
X
i=0
✓
1
1
p
p
◆i
✓
1
p
⇡j = 1 ✓
X 1
i=0
p
◆j
p
p
◆i
j = 1, 2, . . .
★ Queste probabilità rappresentano o non rappresentano delle probabilità di
stato a regime a seconda del valore di p
CATENE DI MARKOV
MODELLI E METODI
PER L’AUTOMAZIONE
27
IL PROCESSO BIRTH-DEATH A TEMPO DISCRETO
★ Se p > 1/2
•
1 ✓
X
1
i=0
◆i
p
p
è convergente e vale
p
2p
1
1
✓
• la DTMC è ergodica
• Le probabilità
⇡0 =
2p
1
⇡j =
p
2p
p
·
1
p
p
◆j
j = 1, 2, . . .
rappresentano quindi la distribuzione stazionaria di probabilità degli stati a regime
★ Se p > 1/2
P1 ⇣ 1
• La somma i=0
sono transienti)
★ Se p = 1/2
p
p
⌘i
non è convergente (si può dimostrare che tutti gli stati
P1 ⇣ 1
p
⌘i
• Anche in questo caso la somma
non è convergente (si può
i=0
p
dimostrare che tutti gli stati sono ricorrenti nulli)
CATENE DI MARKOV
MODELLI E METODI
PER L’AUTOMAZIONE
28
CATENE
DI MARKOV A
A TEMPO
CONTINUO
CATENE
DI MARKOV
TEMPO
CONTINUO
Evoluzione di una CTMC
Una catena di Markov a tempo continuo (CTMC) è
un sistema a stato discreto e tempo continuo
in cui l’evoluzione della variabile di stato X(t)
è caratterizzata dalla proprietà Markoviana
⇥
Pr X(tk+1) = xk+1 | X(tk) = xk, . . . , X(t0) = x0 =
= Pr X(tk+1) = xk+1 | X(tk) = xk
per ogni scelta di t0, t1, . . . , tk+1 tale che t0
t1
...
tk+1 .
⇥
“no state memory”: Il valore che assumerà lo stato (xk+1) dipende
esclusivamente dal valore dello stato corrente (xk) e non da quelli passati
“no age memory”: Il tempo trascorso nello stato corrente è irrilevante
ai fini della determinazione del prossimo stato
Catene di Markov
CATENE DI MARKOV
27
MODELLI E METODI
PER L’AUTOMAZIONE
29
CATENE
DI
MARKOV
A
TEMPO
CONTINUO
CATENE DI MARKOV A TEMPO CONTINUO
Evoluzione di una CTMC
CATENE DI MARKOV A TEMPO CONTINUO
di unaA
DTMC
è governata
CATENEL’evoluzione
DI MARKOV
TEMPO
CONTINUO
CATENE DI dalle
MARKOV
TEMPO CONTINUO
funzioni A
di transizione
Evoluzione di una CTMC
⇥
Evoluzione
di
una
CTMC
pi,j (s, t) = Pr X(t) = j | X(s) = i ⇤ i, j ⇥ S ⇤ s t
Evoluzione di una CTMC
Si definisca la matrice
Si
matrice
⇥
Perdefinisca
il teorema la
della
probabilità totale,
si ha, ⇤per s
u
t
t) = ⇥pi,j equazione
(s, t)⇤ i, j è=la
2,
La parte sinistra
precedente
derivata
parziale di P ˜(s, t)
X della
ˆ P (s,
˜0, 1,
ˆ ...
pi,j (s,att) =
Pr X
t) =
u)(s,
= r,
Pr2,X
P((s,
t)j=| Xp(i,j
t) X (si,)j==i0,·1,
. .(.u) = r | X (s) = i
rispetto
r⇥S
ˆ
˜P (s,ˆ t)
˜
E’ ovvio che deveX
essere
P
(s,
t
+
t)
⇥P
(s,
t)
=
Pr lim
X (t) = j | X (u) = r · Pr X (u
) = r | X (s ) = i
=
E’ ovvio che dever⇥S
esseret 0
t
⇥t
P (s, s) = 1 e
pi,j (s, t) = 1 ⇥ s t
da cui si ottiene
X
P (s, p
s) =
1
e
t
j S pi,j (s, t) = 1 ⇥ s
(s, t) =
p (s, u) · p (u, t)
i,j
i,r
j S
r⇥S
r,j
Si definisce inoltre la matrice dei rate di transizione (o, generatore
L’equazione
di come
Chapman-Kolmogorov
a tempo
continuo
diventa
infinitesimale)
Equazione
di Chapman-Kolmogorov
a tempo
continuo
L’equazione di Chapman-Kolmogorov a tempo continuo diventa
Catene di Markov
CATENE DI MARKOV
P(s,
(t,u)
t+
t) t) I
P
(s,
t)
=
P
·
P
(u,
Q(t) = lim
P (s, t) t= 0P (s, u) · Pt(u, t)
28
MODELLI E METODI
PER L’AUTOMAZIONE
30
CATENE
DI MARKOV
A
TEMPO
CONTINUO
CATENE
DI CTMC
MARKOVomogenee
A TEMPO
CONTINUO
Il significato della matrice Q(t) e delle equazioni differenziali di Chapman-Kolmogorov
CTMC
risulta chiaro nel caso
di CTMComogenee
omogenee, cioè tempo-invarianti
Una
CTMCdella
omogenea
è una
CTMC
in cui
le funzioni
di transizione sono
Il significato
matrice Q(t)
e delle
equazioni
differenziali
di Chapman-Kolmogorov
indipendenti
daichiaro
valorinelassoluti
s e t, eomogenee,
dipendono
risulta
caso di CTMC
cioèesclusivamente
tempo-invarianti dalla
differenza = t s
Una CTMC omogenea è una CTMC in cui le funzioni di transizione sono
In
altre parole,
casoassoluti
di CTMC
le funzioni
di transizione
indipendenti
dainel
valori
s e omogenee,
t, e dipendono
esclusivamente
dalla
differenza = t s
⇥
pi,j (s, s + ) = pi,j ( ) = Pr X(s + ) = j | X(s) = i
⇥ i, j
S
pi,j (s, s + ) = pi,j ( ) = Pr X(s + ) = j | X(s) = i
P (s, t) = P (s, s + ) ⇥ P ( )
⇥ i, j
S
In altre parole, nel caso di CTMC omogenee, le funzioni di transizione
sono indipendenti da s
⇥
sono indipendenti da s
Q(t) ⇥ Q
P (s, t) = P (s, s + ) ⇥ P ( )
Catene di Markov
Catene di Markov
CATENE DI MARKOV
Q(t)
⇥Q
33
33
MODELLI E METODI
PER L’AUTOMAZIONE
31
CATENE
DI MARKOV A
A TEMPO
CONTINUO
CATENE
DI MARKOV
TEMPO
CONTINUO
CTMC omogenee
L’equazione differenziale forward di Chapman-Kolmogorov diventa
dP ( )
d
= P( ) · Q
che deve essere integrata dalle seguenti condizioni iniziali
pi,j (0) =
1 se j = i
0 se j ⇥= i
La soluzione di tale equazione è
P ( ) = eQ
essendo eQ = I + Q +
Catene di Markov
CATENE DI MARKOV
Q2
2!
s
+ ...
34
MODELLI E METODI
PER L’AUTOMAZIONE
32
CATENE
DI MARKOV A
A TEMPO
CONTINUO
CATENE
DI MARKOV
TEMPO
CONTINUO
CTMC omogenee
Sia v(i) il tempo di permanenza nello stato i, quando tale stato viene
raggiunto
Teorema
La variabile aleatoria v(i) è distribuita in modo esponenziale
⇥
Pr v(i) ⇥ t =
⇤
1
0
e
(i)t
t⇤0
t<0
Si immagini di identificare, nell’evoluzione della CTMC,
gli intervalli di tempo nei quali il sistema si trova nello stato i
Gli estremi a destra di tali intervalli corrispondono al verificarsi di eventi del tipo
“la CTMC esce dallo stato i”
Tali intervalli rappresentano realizzazioni successive della variabile v(i)
distribuita in modo esponenziale
Catene di Markov
CATENE DI MARKOV
35
MODELLI E METODI
PER L’AUTOMAZIONE
33
CATENE
DI MARKOV A
A TEMPO
CONTINUO
CATENE
DI MARKOV
TEMPO
CONTINUO
CTMC omogenee
Gli intervalli possono essere pensati come la sequenza
dei tempi di inter-evento di un processo di Poisson con parametro
⇤
⇥
(i) ha il significato di rate di uscita dallo stato i E v(i) =
1
(i)
(i)
⌅
Questo processo di Poisson può essere considerato come la
sovrapposizione di processi di Poisson indipendenti,
ciascuno corrispondente alla sequenza di eventi
“transizione dallo stato i allo stato j” (j = i)
Sia i,j il parametro caratterizzante il generico processo di Poisson di tale
tipo (ovviamente, se lo stato j non può essere raggiunto dallo stato i risulta i,j = 0)
(i) =
⇧
i,j
j S
j⇥=i
Catene di Markov
CATENE DI MARKOV
36
MODELLI E METODI
PER L’AUTOMAZIONE
34
˛
dpi,i( ) ˛˛
˛
d
(⇤⇤)CONTINUO
CATENE
DI MARKOV=A
AqTEMPO
i,i
CATENE
DI MARKOV
TEMPO
CONTINUO
=0
che può essere riscritta come
˛
CTMC
omogenee
˜˛
d ˆ
qi,i =
d
pi,i( ) ˛˛
1
=0
CATENE
DI MARKOV
A TEMPO
CONTINUO
A questo punto
è possibile fornire
una interpretazione
fisica
⇥
1 pi,i( ) rappresentadei
la probabilità
la CTMC
lasci
coe⇥cientichedella
matrice
Q lo stato i in un
intervallo di lunghezza . Ne CTMC
consegue che
omogenee
Si consideri la generica equazione scalare relativa all’equazione differenziale forward di
( ora
qi,i
puòi =
essere
come
la frequenza
Si consideri
il )
caso
j. In interpretato
maniera analoga
a quanto
già visto, si (rate)
ottiene
Chapman-Kolmogorov
˛
con cui si verifica la transizione
dpi,j (⇥ ) ˛“uscita dallo stato i”
X˛
dpi,j ( )
qi,j =
˛pi,r ( )qr,j
= pi,j ( )qj,j +
d⇥
⇥ =0
d
r =j
(⇤)
Catene di Markov
Quindi il parametro qi,j può essere interpretato come
Si consideri prima
il caso i =(rate)
j. L’equazione
diventa la transizione
la frequenza
con cui (si) verifica
38
dpi,i( ) dallo stato X
“passaggio
i allo
stato j”
= p ( )q +
p ( )q
i,i
d
i,i
i,r
r =i
In modo analogo a quanto già espresso dalla (
qi,j =
Inoltre, tenendo presente che
Catene di Markov
= 0, si ha
CATENE DI MARKOV
X
j
r,i
), risulta
i,j
pi,j ( ) = 1, ⇥ > 0, e derivando rispetto a
X
in
37
MODELLI E METODI
PER L’AUTOMAZIONE
35
CATENE
DI MARKOV A
A TEMPO
CONTINUO
CATENE
DI MARKOV
TEMPO
CONTINUO
CTMC omogenee
Probabilità di transizione
p̃i,j = Pr Xk+1
Ovviamente risulta
⇥
= j | Xk = i =
⇤
i,j
(i)
=
qi,j
qi,i
p̃i,j = 1
j =i
La DTMC definita dalle probabilità di transizione di una CTMC si chiama
“DTMC embedded nella CTMC”
Tale DTMC rappresenta solo le probabilità di transizione da uno stato all’altro e trascura
l’informazione relativa alla frequenza di transizioni, ai tempi medi di permanenza negli
stati, ecc. Si noti che la DTMC cosı̀ definita ha sempre una matrice delle probabilità di
transizione in cui la diagonale principale è composta da zeri
Catene di Markov
CATENE DI MARKOV
41
MODELLI E METODI
PER L’AUTOMAZIONE
36
CATENE
DI MARKOV A
A TEMPO
CONTINUO
CATENE
DI MARKOV
TEMPO
CONTINUO
Analisi a transitorio e a regime di una CTMC omogenea
Le probabilità di stato di una CTMC sono definite come
j (t)
= Pr X(t) = j
Il vettore della probabilità di stato è
(t) =
Catene di Markov
CATENE DI MARKOV
0 (t),
1 (t),
⇥
2 (t), . . .
⇥
42
MODELLI E METODI
PER L’AUTOMAZIONE
37
CATENE
DI MARKOV A
A TEMPO
CONTINUO
CATENE
DI MARKOV
TEMPO
CONTINUO
Analisi a transitorio e a regime di una CTMC omogenea
Dal teorema della probabilità totale, si ottiene
j ( t)
=
X
i⇤S
X
˜
ˆ
˜
Pr X (t) = j | X (0) = i · Pr X (0) = i =
pi,j (t) ·
ˆ
i⇤S
i (0)
t⇥0
che in forma matriciale diventa
( t) =
(0) · P (t) =
(0)e
Qt
Differenziando rispetto a t si ottiene
d ( t)
=
dt
( t) Q
che scritta in forma scalare diventa
d
j ( t)
dt
Catene di Markov
CATENE DI MARKOV
= qj,j
j ( t)
+
X
qi,j
i ( t)
j = 0, 1, 2, . . .
i⌅=j
43
MODELLI E METODI
PER L’AUTOMAZIONE
38
CATENE
DI MARKOV A
A TEMPO
CONTINUO
CATENE
DI MARKOV
TEMPO
CONTINUO
Analisi a transitorio e a regime di una CTMC omogenea
Nell’analisi a regime di una CTMC, in modo analogo a quanto visto per
le DTMC, ci si interroga sull’esistenza e sulla determinazione dei limiti
j
= lim
t
⇥
j (t)
In particolare:
a) sotto quali condizioni i limiti limt
⇥
j (t)
esistono?
b) se tali limiti esistono, essi costituiscono effettivamente una distribuzione
di probabilità, cioè,
j
j
= 1?
c) come si possono calcolare tali limiti?
Catene di Markov
CATENE DI MARKOV
44
MODELLI E METODI
PER L’AUTOMAZIONE
39
CATENE
DI MARKOV A
A TEMPO
CONTINUO
CATENE
DI MARKOV
TEMPO
CONTINUO
Analisi a transitorio e a regime di una CTMC omogenea
Teorema
In una CTMC irriducibile in cui tutti gli stati sono ricorrenti positivi
(e quindi in ogni CTMC irriducibile con spazio degli stati finito), esiste
un’unica distribuzione di probabilità a regime dello stato tale che i
limiti limt ⇥ j (t) sono positivi, ⇥ j S.
(0).
Tale distribuzione è indipendente da
Il vettore si determina in maniera univoca risolvendo il sistema di
equazioni lineari
⇥Q = 0
j⇤S
j
=1
La prima delle due equazioni rappresenta le condizioni di equilibrio stocastico
⇤
qj,j j +
qi,j i = 0
j S
i⌅=j
Catene di Markov
CATENE DI MARKOV
45
MODELLI E METODI
PER L’AUTOMAZIONE
40
IL PROCESSO BIRTH-DEATH A TEMPO CONTINUO
★ E’ una catena di Markov a tempo continuo
• Lo stato del sistema è infinito ma enumerabile ( j = 0, 1, 2, . . . )
• qi,j = 0 per j < i
•
j
1 e j >i+1
= qj,j+1 > 0 è la “birth rate” nello stato j
• µj = qj,j
1
> 0 è la “death rate” nello stato j
λ0
λ1
1
0
µ1
MATRICE DEI
RATE DI
TRANSIZIONE
CATENE DI MARKOV
λj−1
2
j
j−1
···
µ2
λj
j+1
µj
2
0
6 µ1
6
Q=6 0
4
..
.
(
µj+1
0
0
+ µ1 )
µ2
..
.
1
···
(
1
2
+ µ2 )
..
.
0
0
2
..
.
3
···
· · ·7
7
· · ·7
5
..
.
MODELLI E METODI
PER L’AUTOMAZIONE
41
IL PROCESSO BIRTH-DEATH A TEMPO CONTINUO
★ Risolvendo il sistema che fornisce le probabilità di stato a regime
{
+ µ1 ⇡1 = 0
+ µj )⇡j + j
0 ⇡0
(
+1
X
j
1 ⇡j
1
+ µj+1 ⇡j+1 = 0
j = 1, 2, . . .
⇡j = 1
j=0
si ottiene
1
⇡0 =
1+
+1
X✓
j=1
⇡j =
✓
0
1
...
j
µ1 µ2 . . . µj
1
◆
0
1
...
µ1 µ2 . . . µj
✓
⇡0 =
1+
0
1...
j
µ1 µ2 . . . µj
+1
X ✓ 0 1...
j=1
CATENE DI MARKOV
1
j
◆
1
◆
j
µ1 µ2 . . . µj
1
◆
MODELLI E METODI
PER L’AUTOMAZIONE
42
IL PROCESSO BIRTH-DEATH A TEMPO CONTINUO
★ Le probabilità appena vista hanno il significato di probabilità di stato a
regime se
9 j̄ :
j
µj
<1
j
j̄
• In questo caso infatti si può dimostrare che tutti gli stati sono ricorrenti positivi e
pertanto esiste una distribuzione di probabilità a regime dello stato
CATENE DI MARKOV
MODELLI E METODI
PER L’AUTOMAZIONE
43
Scarica