Prof. Ing. Michele Marra –Corso di Laurea Specialistica in Ingegneria Gestionale –
Appunti delle Lezioni di Calcolo delle Probabilità e Statistica – Processi Stocastici
CAPITOLO 7
I PROCESSI STOCASTICI
7.0 – Introduzione
Frequentemente ci troviamo di fronte a problemi la cui soluzione è essenzialmente
vincolata a modelli di processi casuali che si evolvono nel tempo, la cui evoluzione non
sia però completamente prevedibile. Nella Appendice A riportiamo le definizioni e le
proprietà elementari dei vettori e delle matrici, che sono necessarie per la comprensione
di questo capitolo.
7.1 - I Processi di Markov
Una metodologia fondamentale per affrontare tali tipi di problemi fu proposta e
sviluppata, all’inizio del 1900 dal matematico russo A. A. Markov. I “Processi di
Markov” o “Processi Markoviani” costituiscono una categoria , fra tutti i processi
casuali possibili, dotata di assunzioni semplificative tali da renderne facile l’utilizzo
senza nulla perdere dei contenuti dei problemi cui vengono applicati.
Il sistema in evoluzione è rappresentato da un certo numero di configurazioni possibili,
stati significativi per un particolare problema preso in esame, e dalle probabilità di
passare da una configurazione all’altra.
Si definiscono pertanto i seguenti termini che, nel loro insieme, strutturano appunto un
Processo Markoviano:
a) “forze” = elementi in gioco, ovvero il sistema;
b) “stati” = le possibili configurazioni in cui le forze costituenti il sistema si
possono combinare;
c) “realizzazioni” = un insieme di stati osservati nell’evolversi del sistema;
d) “transizioni” = il passaggio di un elemento del sistema da uno “stato” ad un
altro, ovvero il cambiamento di “stato”;
e) “epoche” = gli istanti temporanei in corrispondenza dei quali il sistema è
osservato;
f) “probabilità di transizione”: la probabilità che un elemento del sistema ha di
migrare da uno stato all’altro.
Graficamente un generico sistema che, nel tempo, si trasferisca in diversi stati, può
essere rappresentato nella sua “realizzazione” come in fig. 7.1.
Politecnico di Bari – Riservato alla circolazione interna
113
Prof. Ing. Michele Marra –Corso di Laurea Specialistica in Ingegneria Gestionale –
Appunti delle Lezioni di Calcolo delle Probabilità e Statistica – Processi Stocastici
Figura 7.1 – La “realizzazione” di un sistema
Se invece di raccogliere le osservazioni del passato si intenda procedere a “immaginare”
il comportamento futuro del sistema in esame, le risposte potranno essere in termini di
probabilità: ovvero probabilità che il sistema passi da uno “stato” ad un altro.
Sono appunto queste le “probabilità di transizione”.
Perciò dati n stati
Si, i=1, 2,… n
è possibile rappresentare l’insieme delle probabilità di transizione da uno stato all’altro
con la seguente matrice di transizione
[n x n]:
S0
S1
...
...
SN
S 0 S1
⎡ p00 p01
⎢p
⎢ 10 p20
⎢ ...
⎢
⎢ ...
⎢ pn0 pn1
⎣
... ... S n
... ... p0n ⎤
... ... p2n ⎥⎥
⎥
⎥
⎥
... ... pnn ⎥⎦
Le precedenti probabilità pij sono vincolate secondo le relazioni:
0<=pij<=1 e ∑ pij = 1 .
j
In questo modo, fissata la condizione di partenza, è possibile prevedere il
comportamento futuro del sistema attraverso il processo di Markov.
I valori futuri che il sistema potrà assumere nei diversi stati Si ai quali si trasferirà sono
interpretabili mediante una sequenza di variabili casuali (X0, X1, …, Xn) se con X0 si
indica il suo valore allo stato S0, ovvero al presente:
L’intera successione
(X0, X1, …, Xn) = {Xn; n≥0}
di variabili casuali rappresenta un Processo Stocastico Discreto.
Graficamente, le possibili transizioni di un sistema possono essere rappresentate
mediante un semplice grafo orientato, come in figura.
Politecnico di Bari – Riservato alla circolazione interna
114
Prof. Ing. Michele Marra –Corso di Laurea Specialistica in Ingegneria Gestionale –
Appunti delle Lezioni di Calcolo delle Probabilità e Statistica – Processi Stocastici
Figura 7.2 – Rappresentazione di possibili transizioni di un sistema
Quando tutte le variabili casuali della successione {Xn; n≥0} sono discrete, ogni valore
di ciascuna di esse viene definito “Stato della Catena” o successione.
Inoltre l’insieme risultante dall’unione di tutti i possibili stati di tutte le variabili Xn è
detto “Insieme degli Stati della catena”, {S}.
7.2 – Catene di Markov
Viene definita “Catena discreta di Markov” una successione di variabili casuali {Xn;
n≥0} che, per qualunque n≥1 e per qualunque ik∈S, possiede la seguente proprietà:
P{Xn=in|X1=i1; X2=i2, …, Xn-1=in-1} = P{Xn=in|Xn-1=in-1}
dove
S= insieme degli stati della catena
Xi= è il valore del sistema nei diversi stati Si
ik = indica lo stato Sk in cui si trova il sistema allo stato k-esimo con ik∈S se e
solo se P{Xn=ik}>0 per almeno un indice n≥0.
In sostanza la probabilità che la variabile Xn si trovi nello stato in, vincolata alla
condizione che X1 si trovi nello stato i1, X2 in i2, ecc. è uguale alla probabilità che Xn sia
in in vincolata alla sola condizione che Xn-1 si trovi in in-1; ovvero che la probabilità di
Xn=in dipende solo dalla situazione Xn-1.
Inoltre, se la transizione da uno stato all’altro è legata al tempo (tempo di transizione),
verrà definito “Processo Stocastico Markoviano Discreto nel Tempo” quel processo
stocastico per il quale ciascuna variabile Xi dipende solo da quella che la precede Xi1 e “tende” unicamente a quella che segue Xn+1.
Ciò significa, in altre parole, che la probabilità di un evento futuro dipende unicamente
dall’evento presente e non dall’evoluzione precedente del sistema di variabili casuali.
Ovvero:
La conoscenza dello stato ad un certo tempo è sufficiente per prevedere il futuro del
processo in esame da questo punto in avanti (…given the present, the future is
indidendent of the past”, ovvero “…the process is forgetfull”).
Ciò vuol dire che la probabilità di un evento futuro è legato esclusivamente alla
condizione attuale presa in esame e non a quella passata.
Questa è la proprietà fondamentale della catena di Markov.
In termini metodologici, quanto appena definito può essere schematizzato come segue:
Politecnico di Bari – Riservato alla circolazione interna
115
Prof. Ing. Michele Marra –Corso di Laurea Specialistica in Ingegneria Gestionale –
Appunti delle Lezioni di Calcolo delle Probabilità e Statistica – Processi Stocastici
1) Assegnata una famiglia di variabili casuali discrete
{Xn, n=0, 1, 2, …, n} = {Xn; n≥0}
il valore di Xn in corrispondenza di una realizzazione del processo è definito
“stato” del processo al passo n-esimo.
2) Le variabili casuali sono reciprocamente dipendenti, per cui il processo può
essere descritto in termini di probabilità vincolate.
3) L’indice n è riferito al tempo per cui, nel peggiore dei casi, X dipenderà da Xn-1,
Xn-2, …, X0, ovvero dal passato, ma non da Xn+1, Xn+2, …, ovvero dal futuro del
processo.
4) Nel caso in cui per tutti gli n
P{Xn=jn| Xn-1= jn-1, Xn-2=jn-2, …,X0=j0} = P{Xn=jn| Xn-1=jn-1}
si ha una catena discreta di Markov.
La probabilità vincolata P{Xn=j| Xn-1=i} è interpretata come la probabilità di
transizione da i a j al passo n.
5) Qualora, per tutti i valori m ed n si verifichi che
P{Xn=j| Xn-1=i} = P{Xm=j| Xm-1=i}
la catena di Markov è detta “stazionaria”: in tal caso le probabilità di
transizione non dipendono esplicitamente dal numero dei passi ed è sufficiente
specificare le probabilità di transizione
pij =P{X1 = j| X0=i}
poiché le probabilità di transizione sono le stesse.
La matrice [nxn] costituita dalle pij è detta matrice di transizione.
6) Le probabilità di transizione di ordine n, ovvero pij(n) sono definite da
pij(n) = P{Xn =j | X0=i}
In sostanza, pij(n) è la probabilità che il processo è nello stato j al tempo n, dato
che esso fosse nello stato i al tempo 0.
In particolare:
pij(1)=pij; pij(0)=1 se i=j;
pij(0)=0 altrimenti.
7) Si dimostra che
pij(n)=
( n −1)
∑ pik
pkj
k
e osservano che il termine destro della relazione rappresenta la definizione del
prodotto fra matrici, si ha che, in forma matriciale
P(n)= P(n-1) * P
in cui P(n) è la matrice i cui elementi sono le probabilità di transizione al passo
ennesimo. La relazione rappresenta l’equazione di Chapman-Kolgomorov che,
applicata iterativamente, porta a
P(n)= Pn
ovvero, la matrice delle probabilità al passo ennesimo è l’ennesima potenza della
matrice di transizione di partenza.
8) Per quanto sopra esposto si può concludere che una catena di Markov è
completamente specificata se sono note la sua matrice di transizione P e le
condizioni iniziali P(0).
Un processo è denominato stazionario quando le probabilità di transizione pij sono le
stesse per ogni passo. In questo caso la matrice di transizione P resta invariata in ogni
istante.
Politecnico di Bari – Riservato alla circolazione interna
116
Prof. Ing. Michele Marra –Corso di Laurea Specialistica in Ingegneria Gestionale –
Appunti delle Lezioni di Calcolo delle Probabilità e Statistica – Processi Stocastici
Caratteristiche che distinguono i processi markoviani possono essere anche
l’irriducibilità e la ricorrenza.
Un processo è irriducibile se ogni stato può essere raggiunto da tutti gli altri stati
attraverso una serie di transizioni possibili.
Invece si dice ricorrente se può ripetersi più volte uno stato. Altrimenti è detto
transitorio.
Un processo irriducibile e ricorrente è detto ergodico. Per un processo ergodico vale il
“principio ergodico” enunciato da Boltzman, secondo il quale “l’effetto di una
qualsivoglia operazione casuale, ripetuta un elevato numero di volte, tende a rendersi
sempre più indipendente dalla situazione iniziale”; ovvero il processo ergodico ci dice
che la catena dimentica lo stato di partenza all’aumentare del tempo.
Anche il modo in cui viene effettuata una transizione tra stati influenza il tipo di
processo.
Infatti il processo è detto DAN nel caso in cui le transizioni sono tutte certe. Un
reticolo deterministico DAN è rappresentato con un’unica tipologia degli stati e con un
algoritmo di calcolo deterministico o stocastico. Esso ammette un’unica soluzione per
ogni configurazione.
Invece si parla di processo PAN quando si hanno transizioni probabilistiche. Un reticolo
stocastico PAN ha una tipologia degli stati, rappresentati con nodi, diversificata e
l’algoritmo di calcolo è probabilistico. Esso ammette diverse soluzioni in funzione della
tipologia dei nodi.
7.3 – Applicazioni
Esercizio 1
Si immagini di dover sovrintendere al rifornimento di una catena di tre supermercati A,
B, C, mediante il servizio di un autocarro di dimensioni tali da poter costituire, esso
stesso, un magazzino “ambulante”. Se ne vuole valutare la necessità di movimentazione
al fine di rispondere a tutte le richieste di rifornimento.
•
¾
¾
¾
Rilevazioni effettuate al tempo t0:
Stato SA (autocarro in A):
60
Stato SB (autocarro in B):
30
Stato SC (autocarro in C):
10
N = 100 rilevazioni.
Rappresenteremo tali rilevazioni con un vettore
( 0)
= [60; 30; 10]
N
Probabilità di trasferimento nell’unità di tempo (probabilità di transizione):
A
[P] =
B
C
A ⎡0.6 0.3 0.1⎤
B ⎢⎢0.4 0.4 0.2⎥⎥
C ⎢⎣ − 0.6 0.4⎥⎦
Politecnico di Bari – Riservato alla circolazione interna
117
Prof. Ing. Michele Marra –Corso di Laurea Specialistica in Ingegneria Gestionale –
Appunti delle Lezioni di Calcolo delle Probabilità e Statistica – Processi Stocastici
Questa applicazione è stata risolta con un processo stocastico DAN di tipo stazionario
ed ergodico. Infatti si ipotizza che la matrice P non subisca variazioni e che per ogni
stato sono ammesse più transizioni possibili.
P è la matrice di transizione e rappresenta le richieste dei consumatori.
Il vettore N indica la ripartizione del rifornimento dell’autocarro presso i tre
supermercati A, B, C.
Perciò fissata una configurazione iniziale di ripartizione questo programma è in grado di
trovare il vettore N relativo alla situazione di equilibrio del sistema.
Infatti, iterando il prodotto
N (i) * P = N (i+1)
dove N (i) rappresenta la struttura dei trasferimenti all’istante i-esimo, si ottiene una
successione di possibili trasferimenti che converge alla rilevazione di equilibrio cercata.
Torniamo all’esempio:
Applicando al vettore N
la matrice [P] si ottiene:
N
N
(0)
(1)
(0)
= [60; 30; 10]
⎡0.6 0.3 0.1⎤
* [ P ] = [60; 30; 10]⎢⎢0.4 0.4 0.2⎥⎥
⎢⎣ - 0.6 0.4⎥⎦
= N
(1)
= [48; 36; 16]
(1)
rappresenta la nuova struttura dei trasferimenti.
Nell’ipotesi in cui la matrice [P] non subisca variazioni, è possibile valutare i successivi
N
( 2)
(3)
(1)
( 2)
e così via ottenendo, man mano, le strutture
vettori N = N * [P ] ; N = N * [ P]
successive dei trasferimenti.
Si supponga ora, mantenendo invariata la matrice [P], di partire da rilevazioni diverse,
ad esempio:
(0)
N1
= [30; 30; 40]
N (0)
2 = [50;
(0)
N 3 = [30;
20; 30]
60; 10]
(0)
N 4 = [20; 70; 10]
E si calcolino i valori dei vettori successivamente a quattro transizioni ovvero
(3)
Ni
(0)
= N i * [ P ]3
Si può notare come il sistema in esame raggiunga una sua situazione di equilibrio per
cui
N = [40; 40; 20]
Politecnico di Bari – Riservato alla circolazione interna
118
Prof. Ing. Michele Marra –Corso di Laurea Specialistica in Ingegneria Gestionale –
Appunti delle Lezioni di Calcolo delle Probabilità e Statistica – Processi Stocastici
Situazione dalla quale il sistema si può scostare unicamente nel caso in cui la matrice di
transizione subisca delle modifiche: ed è per questo che la matrice [P] rappresenta lo
“specchio” della struttura del sistema in esame. Quindi, i vettori finali rappresentano
l’espressione visibile del sistema a sua volta caratterizzato dalla struttura della matrice
di transizione.
Segue l’esplicitazione dei calcoli.
N
N
N
N
( 0)
( 0)
( 0)
(0)
⎡0.6 0.3 0.1⎤
(1)
x [P] = [60; 30; 10] ⎢⎢0.4 0.4 0.2⎥⎥ = [48; 36; 16] = N
⎢⎣ - 0.6 0.4⎥⎦
⎡0.6 0.3 0.1⎤
(1)
( 2)
x [P]2 = N x P = [48; 36; 16] ⎢⎢0.4 0.4 0.2⎥⎥ = [43.2; 38.4; 18.4] = N
⎢⎣ − 0.6 0.4⎥⎦
⎡0.6 0.3 0.1⎤
(3)
x [P] = N x [P] = [43.2; 38.4; 18.4] ⎢⎢0.4 0.4 0.2⎥⎥ = [40.68; 39.36; 19.36] = N
⎢⎣ − 0.6 0.4⎥⎦
⎡0.6 0.3 0.1⎤
(3)
( 4)
4
x [P] = N x [P] = [40.68; 39.36; 19.36] ⎢⎢0.4 0.4 0.2⎥⎥ = [40.152; 39.564; 19.684] = N
⎢⎣ - 0.6 0.4⎥⎦
3
( 2)
che può essere approssimato a
N
( 4)
= [40; 40; 20] .
( 0)
( 0)
( 0)
( 0)
Si calcolino ora i valori dei vettori N 1 , N 2 , N 3 , N 4 successivamente a quattro
transizioni, ottenendo:
( 0)
a) per N 1 = [30; 30; 40]
(1)
( 0)
N 1 = N1 x [P] = [30; 45; 25]
( 2)
N1
(1)
(0)
= N1 x [P] = N 1 * P 2 = [36; 42; 22]
(3)
( 2)
(0)
N 1 = N1 x [P] = N1 * P 3 = [38.40; 40.40; 20.80]
( 4)
N1
(3)
= N1
x [P] = N 1(0) * P 4 = [39.36; 40.32; 20.35]
approssimabile a [40; 40; 20]
(0)
b) per N 2 = [50; 20; 30]
1
N 2 = N (0)
2 x [P] = [ 38; 41; 21]
( 2)
(1)
(3)
( 2)
N 2 = N 2 x [P] 2 = [39.2; 40.4; 20.4]
N 2 = N 2 x [P] 3 = [39.56; 40.04; 20.4]
( 4)
(0)
4
N 2 = N (3)
2 x [P ] = N 2 x [P ] = [39.75; 39.93; 19.99]
approssimabile a [40; 40; 20]
c) Stesso discorso vale per
Politecnico di Bari – Riservato alla circolazione interna
119
Prof. Ing. Michele Marra –Corso di Laurea Specialistica in Ingegneria Gestionale –
Appunti delle Lezioni di Calcolo delle Probabilità e Statistica – Processi Stocastici
(0)
N 3 = [30; 60; 10]
(0)
N 4 = [20; 70; 10]
per cui si può concludere che qualunque sia il vettore iniziale il sistema convergerà
verso una soluzione ottima che è rappresentata dalla soluzione di equilibrio.
Esercizio 2.
Nell’isola di Atlantide vi sono quattro città, denominate C1, C2, C3 e C4, aventi
rispettivamente 200, 600, 100 e 2000 abitanti; tali città sono state fondate sul mare in
corrispondenza dei quattro punti cardinali e sono collegate tra loro solamente tramite
una strada costiera. Ogni anno, per motivi di lavoro o familiari, il 25% degli abitanti di
queste quattro città si trasferisce in una delle due città vicine, senza alcuna preferenza
tra esse. Calcolare la popolazione delle quattro città tra un anno, tra due anni, tra 10 anni
ed a regime.
Soluzione
Si definisce la probabilità pij che un abitante della città Ci si trasferisca nella città Cj. Si
ottiene la seguente matrice di transizione:
⎡3
⎢4
⎢1
⎢
P = ⎢8
⎢0
⎢
⎢1
⎢
⎣8
1
8
3
4
1
8
0
0
1
8
3
4
1
8
1⎤
8⎥
⎥
0⎥
⎥
1⎥
8⎥
3⎥
⎥
4⎦
(k )
Sia inoltre N , con k∈N={0, 1, 2, …}, il vettore che indica il numero di abitanti delle
( 0)
quattro città; in particolare risulta N = [200, 600, 1000, 2000]T.
Il numero di abitanti tra un anno delle città Ci, i=1, 2, 3, 4, si può calcolare con la
seguente formula
(1)
(0)
N = N P = [200, 600, 1000, 2000] P = [475, 600, 1075, 1650]
In maniera analoga si calcola il numero degli abitanti delle quattro città dopo due anni,
dopo tre anni,…, dopo 10 anni.
( 2)
(1)
(0)
N = N = N P 2 = [637.5, 643.75, 1087.5, 1431.25]
……………….
(10 )
(9)
( 0)
N = N P = ... = N P (10) = [927.13, 910.92, 972.18, 989.76]
Iterando il procedimento si giunge infine al vettore di equilibrio [950, 950, 950, 950].
Esercizio 3
Una scuola elementare ha 50 bambini e cinque aule allineate lungo lo stesso corridoio.
Si propone ai bambini il seguente gioco: tutti i bambini si vanno a sedere inizialmente
nella prima aula del corridoio; allo scoccare di ogni intervallo di cinque minuti
successivi i bambini che sono nella prima aula devono spostarsi nella seconda, quelli
Politecnico di Bari – Riservato alla circolazione interna
120
Prof. Ing. Michele Marra –Corso di Laurea Specialistica in Ingegneria Gestionale –
Appunti delle Lezioni di Calcolo delle Probabilità e Statistica – Processi Stocastici
che sono nella seconda, terza e quarta aula devono trasferirsi con probabilità p nell’aula
di destra e con probabilità 1-p in quella di sinistra, i bambini che sono nell’ultima aula
possono decidere indifferentemente di stare fermi oppure tornare nella quarta aula.
Calcolare dopo un paio di ore, ovvero nel lungo periodo, il numero di bambini nelle
varie aule.
Soluzione
Siano A1, A2, A3, A4 ed A5 le aule del corridoio e si definisca la probabilità pij che un
bambino nell’aula Ai si sposti nell’aula Aj. Si ottiene la seguente matrice di transizione:
1
0
⎡ 0
⎢1 − p
0
p
⎢
1− p
0
P= ⎢ 0
⎢
0
1− p
⎢ 0
⎢ 0
0
0
⎣
Sia inoltre N
(k )
0
0
p
0
1
2
0⎤
0 ⎥⎥
0⎥
⎥
p⎥
1 ⎥
2⎦
, con k∈N = {0, 1, 2, …}, il vettore che indica il numero dei bambini
(0)
nelle 5 aule; in particolare risulta N = [50, 0, 0, 0, 0]T. Fissando per p vari valori
iniziali si calcoli il numero dei bambini presenti nelle 5 aule dopo 10 intervalli ed a
regime.
Politecnico di Bari – Riservato alla circolazione interna
121
Prof. Ing. Michele Marra –Corso di Laurea Specialistica in Ingegneria Gestionale –
Appunti delle Lezioni di Calcolo delle Probabilità e Statistica – Processi Stocastici
Bibliografia
[1] Dynkin E.B., “Markov Processes”, Sprinter, New York (U.S.A.), 1965.
[2] Norris J. R., “Markov Chains”, Cambridge Series in Statistical and probabilistic
Mathematics, Cambridge University Press, U.S.A., 1997.
[3] Parzen E., “Stochastic Processes”, Classics in Applied Mathematics, vol, 24, SIAM,
Philadelphia (U.S.A.) 1999.
[4] Taylor H.M. e S. Karlin, “An Introduction to Stochastic Modeling”, Academic
Press, 1998.
[5] Pojaga L., “Ricerca Operativa per il Management e il Project management:
Metodologie e modelli” Edizioni Unicopli Spa, Via Soperga 13, 20127 Milano,
1994.
Politecnico di Bari – Riservato alla circolazione interna
122