Introduzione alla teoria dei Grafi Aleatori ed alla Percolazione

annuncio pubblicitario
Introduzione alla teoria dei Gra… Aleatori ed alla
Percolazione
Michele Gianfelice
Dipartimento di Matematica
Politecnico di Torino
a.a. 2005/2006
Indice
1 Introduzione
3
I
4
Gra… aleatori
2 Il Grafo aleatorio di Erd½os-Rényi
2.1 Il modello G (n; p) . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Il modello G (n; M ) . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3 Analisi delle con…gurazioni di un grafo aleatorio . . . . . . . . . .
2.3.1 Valori di soglia per l’occorrenza di un grafo di taglia …ssata
2.3.2 Forma delle con…gurazioni di un grafo aleatorio . . . . . .
2.3.3 La componente gigante . . . . . . . . . . . . . . . . . . . .
2.3.4 Connettività . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.5 Diametro di un grafo aleatorio . . . . . . . . . . . . . . . .
II
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6
6
7
7
11
14
14
18
21
Percolazione di Bernoulli
22
3 Il modello ed il fenomeno critico
23
4 Eventi crescenti
24
4.1 Disuguaglianza FKG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.2 Disuguaglianza BK . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.3 Formula di Russo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
5 Unicità del punto critico
25
5.1 Il caso bidimensionale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
III
Appendice
26
6 Elementi di teoria dei gra…
28
1
7 Alcune nozioni di Calcolo delle Probabilità
7.0.1 Disuguaglianza di Markov, sue generalizzazioni e applicazioni .
7.1 Convergenza di successioni di v.a. . . . . . . . . . . . . . . . . . . . .
7.1.1 Convergenza quasi certa . . . . . . . . . . . . . . . . . . . . .
7.1.2 Convergenza in probabilità . . . . . . . . . . . . . . . . . . . .
7.1.3 Convergenza in media di ordine p . . . . . . . . . . . . . . . .
7.1.4 Convergenza in distribuzione (legge) . . . . . . . . . . . . . .
7.2 Processo di diramazione a tempo discreto e garfo di Galton-Watson .
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
31
33
37
37
37
38
38
40
Capitolo 1
Introduzione
I gra… aleatori furono introdotti all’inizio degli anni ’50 da Paul Erd½os per studiare l’esistenza
di gra… con caratteristiche speci…che. L’idea è quella di associare ad una collezione su¢ cientemente grande di gra… uno spazio di probabilità ( n ; Fn ; Pn ) e quindi rappresentare una data
proprietà dei gra… come variabile aleatoria de…nita su questo spazio. Assumendo che, allorché
il parametro n cresce, la collezione dei gra… s’ingrandisce, la proprietà in studio, tramite tale
rappresentazione, de…nisce al variare di n una successione di variabili aleatorie il cui limite è
l’oggetto d’interesse di detta costruzione.
Più recenti, ovvero datati verso la …ne degli anni ’50, sono i processi di percolazione
che furono introdotti da Broadent e Hammersley al …ne di modellizzare il passaggio di un
‡uido in un mezzo poroso. Se si modellizza un mezzo poroso come un retiticolo di canali
di cui una frazione q sono ostruiti, si ha che la collezione dei canali non ostruiti (liberi) può
considerarsi come l’insieme degli archi di un grafo i cui vertici sono gli snodi dei canali. Nel
caso della percolazione di Bernoulli si considera che ogni canale, indipendentemente dagli altri,
sia ostruito con probabilità q. Quindi, lo spazio di probabilità che si prende in considerazione è
f0; 1gE ; B f0; 1gE ; Pp dove: E è la collezione dei canali, che è un insieme al più numerabile,
B f0; 1gE è la algebra generata dai sottoinsiemi cilindrici di base …nita di f0; 1gE e Pp =
N
q. Ad ogni elemento di f0; 1gE
e2E e ; con e misura di Bernoulli di parametro p = 1
corrisponde allora una con…gurazione di canali liberi e quindi un grafo aleatorio.
3
Parte I
Gra… aleatori
4
Per la terminologia e la simbologia adottate in questa sezione, laddove non espressamente
speci…cato, si rimanda all’appendice.
5
Capitolo 2
Il Grafo aleatorio di Erd½os-Rényi
Dato n 2 N+ ; consideriamo il sottoinieme di N; Vn := f1; ::; ng e sia En := P2 (Vn ) : Se
Kn = K (Vn ) è il grafo completo di insieme di vertici Vn ; indichiamo con Gn la collezione dei
sottogra… spanning di Kn , ovvero 8G 2 Gn ; 9E (G) En tale che G = (Vn ; E (G)) : Notiamo
che Gn è in corrispondenza biunivoca con P (En )
P (En ) 3 E 7 ! (Vn ; E) = G 2 Gn
Gn 3 G = (Vn ; E (G)) 7 ! E (G) 2 P (En )
(2.1)
(2.2)
e che jP (En )j = 2jEn j ; jEn j = n2 :
Associamo ora ad ogni elemento di En una variabile suscettibile di assumere solo due
valori:
En 3 e 7 ! ! (e) 2 f0; 1g ;
(2.3)
resta quindi de…nito := f0; 1gEn : Posto 8! 2 n ; E (!) := fe 2 En : ! (e) = 1g si ottiene
una corrispondenza biunivoca tra n e P (EN ) e quindi una corrispondenza biunivoca tra n
e Gn ; ovvero
3 ! 7 ! G (!) = (Vn ; E (!)) 2 Gn ;
Gn 3 G 7 ! ! (G) 2 n :
n
con ! (G) vettore in
2.1
n
(2.4)
(2.5)
di componenti ! (e) = 1E(G) (e) :
Il modello G (n; p)
Se Fn := P ( n ) ; de…niamo su ( n ; Fn ) una famiglia di variabili aleatorie indipendenti
identicamente distribuite (v.a.i.i.d.) f e ge2En
n
3!7 !
e
(!) =
6
2 f0; 1g:
(2.6)
Allora, poiché per de…nizione f e ge2En è una famiglia di v.a. distribuite secondo la legge
di Bernoulli, sia p 2 (0; 1), tale che p ( ) := p1f1g ( ) + (1 p) 1f0g ( ) : Quindi, il vettore
aleatorio = ( e ; e 2 En ) è anch’esso un elemento di n ed ha distribuzione di probabilità
Y
Pf! 2 n : (!) = !g = Pf! 2 n : e (!) = ! (e) ; e 2 En g =
! 2 n:
p (! (e)) ;
e2En
(2.7)
Ovvero, se Pp;e := p
e è la distribuzione di probabilità indotta da
e su ( n ; Fn ) ;
la distribuzione
N di probabilità su ( n ; Fn ) de…nita tramite il vettore aleatorio , risulta
P := p
= e2En Pp;e :
Consideriamo allora lo spazio di probabilità ( n ; Fn ; P) : Per la corrispondenza biunivoca
tra n e Gn resta allora de…nito lo spazio di probabilità Gn ; P (Gn ) ; P ; dove se è la mappa
1
(!) = G 2 Gn ; P := P
:
n 3 ! 7 !
Considerare il modello G (n; p) signi…ca considerare lo spazio di probabilità Gn ; P (Gn ) ; P :
2.2
Il modello G (n; M )
Sia Gn;M := fG 2 Gn : jE (G)j = M g: Considerando l’attesa condizionata di P rispetto a
Gn;M da G (n; p) si ottiene una distribuzione di probabilità uniforme su (Gn;M ; P (Gn;M )) :
~ ;
Considerare il modello G (n; M ) signi…ca considerare lo spazio di probabilità Gn;M ; P (Gn;M ) ; P
~ è la distribuzione di probabilità uniforme.
dove P
Osservazione 1 Nel seguito ci restringeremo al caso del modello G (n; p) e per sempli…care la
notazione, useremo P al posto di P e Pn (A) o Pp (A) per indicare la probabilità di un generico
evento A 2 P (Gn ) ; ovvero per sottolineare la dipendenza di P dai paramentri n o p: Inoltre,
talvolta sarà conveniente indicare con Gp il generico atomo di (Gn ; P (Gn ) ; P) e scrivere per
esempio P (Gp 2 A) invece di Pp (A) : Per una giusti…cazione di questo fatto si veda il Lemma
4. Analoga notazione verrà usata per i valori attesi di v.a. rispetto a P o per altre quantità
che di questi sono funzioni.
2.3
Analisi delle con…gurazioni di un grafo aleatorio
8H 2 Gn ; siano vH := jV (H)j ; eH := jE (H)j e 1H := 1fG2Gn : G Hg : Ricordando che
8H; H 0 2 Gn ; H H 0 indica che H e H 0 sono isomor…, siano inoltre Gn := Gn = e Gn (H)
la classe d’equivalenza di H 2 Gn :
De…nizione 2 8n 2; sia Q 2 P (Gn ) un insieme misurabile. Q è chiuso per isomor…smi se
8G 2 Q anche Gn (G) 2 Q. In quest’ultimo caso Q è detto proprietà di Gn :
Una proprietà Q è detta crescente se G
H; H 2 Q =) G 2 Q:
7
Una proprietà Q è detta convessa se H
F; H; F 2 Q =) G 2 Q:
G
Osservazione 3 Notiamo che se Q è una proprietà, anche Qc lo è. Pertanto diremo che Q
è decrescente se Qc è crescente, quindi che Q è monotona se è crescente o decrescente.
Esempi di proprietà crescenti sono la collezione in Gn dei gra… connessi o di quelli che
contengono un dato grafo.
Lemma 4 Sia Q una proprietà crescente e 0
p1
Pp1 (Q)
p2
1: Allora,
(2.8)
Pp2 (Q)
Dimostrazione: Notiamo che lo spazio di probabilità (Gn ; P (Gn ) ; Pp2 ) può essere realizzato nel modo seguente: dati gli spazi di probabilità (Gn ; P (Gn ) ; Pp0 ) ; (Gn ; P (Gn ) ; Pp1 ) ;
consideriamo le applicazioni misurabili
Gn
Gn
Gn 3 (G; G0 ) 7 !
Gn 3 (G; G0 ) 7 !
(G; G0 ) = G 2 Gn
0
0
1 (G; G ) = G 2 Gn
0
(2.9)
(2.10)
Allora, se
Gn
scegliendo p0 =
Gn 3 (G; G0 ) 7 !
p2 p1
;
1 p1
p0
0
(G; G0 ) \
(G; G0 ) 2 Gn ;
(2.11)
Pp0 (G) Pp1 (G) :
(2.12)
1
si ha
Pp2 (G) = (Pp0
Poiché p2
(G; G0 ) :=
Pp1 )
1
(G) = Pp0 (G) + Pp1 (G)
p1 ; 9G0 ; G2 2 Gn : Pp0 (G) = Pp1 (G0 ) ; Pp2 (G) = Pp1 (G2 ) ; quindi
Pp1 (G2 ) = Pp1 (G0 ) + Pp1 (G)
Pp1 (G0 ) Pp1 (G) ;
(2.13)
cioè G2 = G0 [ G: Conviene dunque riscrivere la precedente relazione nel modo seguente
P (Gp2 ) = P (Gp0 ) + P (Gp1 )
P (Gp0 ) P (Gp1 ) ;
(2.14)
ride…nendo G = G1 e per i = 0; 1; 2; Gi = Gpi ; per cui Ppi (G) = P (Gpi ). Dunque 8Gp1 ; 9Gp2 :
Gp1 Gp2 e siccome Q è crescente, se Gp1 2 Q allora Gp2 2 Q; da cui segue la tesi.
Esercizio 5 Dimostrare la (2.12).
De…nizione 6 Una successione fpn gn
2
è detta soglia per una proprietà monotona Q se:
P (Gp 2 Q) = Pn (Q)
!
n!1
8
0 se pn << pn
:
1 se pn >> pn
(2.15)
Osservazione 7 Segue dalla de…nizione precedente che se p^n
proprietà monotona Q; allora anche p^n è una soglia per Q:
pn e pn è una soglia per la
Data una proprietà monotona Q e a 2 (0; 1) ; sia p (a) 2 (0; 1) tale che
(2.16)
Pp(a) (Q) = a
Proposizione 8 Sia Q una proprietà crescente. pn è una soglia per Q () 8a 2 (0; 1) ;
pn (a) pn :
Dimostrazione:
=) Se pn (a) non è asintoticamente equivalente a pn ; esiste una sottosuccessione fn0 g fng
tale che
pn0 (a)
0
!
:
(2.17)
pn n!1 1
Allora,
p (a)
se limn!1 np0n = 0 poiché pn è una soglia limn0 !1 Ppn0 (a) (Q) = 0 contro l’ipotesi
che limn!1 Ppn (a) (Q) = a:
p (a)
Se invece limn!1 np0n = 0 ne segue che limn0 !1 Ppn0 (a) (Q) = 1 contro l’ipotesi
che limn!1 Ppn (a) (Q) = a:
(= Se pn non è una soglia, esiste una successione fpn g tale che o limn!1 ppnn = 0 e
limn!1 Ppn (Q) > 0; oppure limn!1 ppnn = 1 e limn!1 Ppn (Q) < 1: Nel primo caso,
esiste " 2 (0; 1) ed una sottosuccessione fn0 g
fng tale che Ppn0 (Q) > " il che, per
il lemma precedente, implica pn (") pn << pn : Nel secondo caso, esiste " 2 (0; 1) ed
una sottosuccessione fn0 g fng tale che Ppn0 (Q) < " il che implica pn << pn pn (") :
In entrabi i casi esiste " 2 (0; 1) tale che pn non è asintoticamente equivalente a pn (")
contro l’ipotesi che pn pn (") ; 8" 2 (0; 1) :
Teorema 9 Ogni proprietà monotona ammette una soglia.
Dimostrazione: Senza perdita di generalità si può assumere Q crescente. Sia allora
8" 2 (0; 1) ; p (") 2 (0; 1) : Pp(") (Q) = " e m (") 2 N+ : (1 ")m ": Sia G(m) 2 Gn unione
di m m (") copie indipendenti (separate) G(i) ; i = 1; ::; m di un generico grafo G: Allora,
Pp(") G(m) = p0 (") = 1
(1
p ("))m
mp (")
(2.18)
e per il Lemma (4)
P Gp0 (") 2 Q
P Gmp(") 2 Q :
9
(2.19)
Inoltre, siccome Q è crescente se 8i = 1; ::; m; G(i) 2 Q; allora anche
!
m
[
Pp(")
G(i) 2
=Q
Pp(") G(i) 2
= Q; 8i = 1; ::; m
Sm
i=1
G(i) 2 Q; perciò
(2.20)
i=1
che unitamente alla (2.19) implica
Pmp(") (Q)
m
[
Pp(")
G
(i)
i=1
Pertanto, 8" 2 0; 12 ; m
m
Pp(") (G 2 Q)
= 1
2Q
!
1
= (1
" = Pp(1
")m
")
";
(2.21)
(Q) :
m (")
p (")
p
1
2
p (1
")
(2.22)
mp (")
Poiché questa relazione non cambia se si sostituisce a p il generico temine di una successione
fpn gn 2 ; ma soprattutto m (") non dipende da n, si ha
pn (")
pn
1
2
pn (1
da cui, per la proposizione precente segue che fpn
1
2
gn
(2.23)
")
2
è una soglia per Q:
De…nizione 10 Sia pn una soglia per una proprietà monotona Q: pn è detta essere …ne se
8" 2 (0; 1)
0 se pn (1 ") pn
Ppn (Q) !
:
(2.24)
1 se pn (1 + ") pn
n!1
Infatti, se 8" 2 (0; 1) de…niamo
(") := p (1
dal
8m
teorema precedente segue
m (") ; p (1 ") mp (") e
1
che
")
p (")
log "
log(1 ")
m (")
p (1 ")
p (")
(2.25)
0
1
"
1
1
log :
"
"
log 1" ;
percui
(2.26)
Ma,
p (1 ")
=
p (")
p(1 ")
p( 12 )
p(")
p( 12 )
perciò, nel caso che pn sia una soglia …ne, si ha che 8" 2 0; 12 ;
n
(") = pn (1
")
10
(2.27)
;
pn (") = o (pn ) :
pn (")
!
pn ( 12 ) n!1
1e
(2.28)
2.3.1
Valori di soglia per l’occorrenza di un grafo di taglia …ssata
8H 2 Gn ; indichiamo con XH :=
P
H 0 2Gn (H)
jGn (H)j =
P
1H 0 =
H 0 Kn : H 0 H
1H 0 : Allora, poiché
n
vH !
;
vH jaut (H)j
(2.29)
con aut (H) l’insieme degli automor…smi di H; si ha
n
vH !
peH
vH jaut (H)j n
En (XH ) =
nvH penH :
(2.30)
Per la disuguaglianza di Markov Pn (XH > 0) En (XH ) ; ma
(
vH
0 se pn << n eH
vH
En (XH ) !
:
n!1
1 se pn >> n eH
Osservazione 11 Nel caso in cui pn >> n
Pn (XH > 0) ! 1: Infatti, considerando i gra…
vH
eH
(2.31)
; dalla (2.31) non si può inferire che
n!1
H
n
p
F
p n
p
vH = 4
eH = 5
se n
5
6
<< pn << n
4
5
; si ha En (XF )
p
vF = 5
eF = 6
! 1 e En (XH )
n!1
! 0; anche se H
n!1
F:
Quindi la stima del valore atteso di XH non è su¢ ciente per studiare la distribuzione
asintotica delle realizzazioni di un grafo random, pertanto è necessario studiarne la varianza.
Osservazione 12 8G 2 Gn sia
(G) := min fE (XH ) : H
Poiché En (XH )
(2.32)
G; eH > 0g :
nvH penH ;
n
(G)
min
H G; eH >0
nvH penH
=
min
H G; eH >0
npn
Lemma 13 8G 2 Gn ; le seguenti a¤ermazioni sono equivalenti:
11
eH
vH
vH
(2.33)
m(G)
1. npn
2. nvH penH
! 1;
n!1
3. En (XH )
4.
n
(G)
! 1; 8H
G; vH > 0 ;
! 1; H
G; vH > 0 ;
n!1
n!1
! 1:
n!1
dove m (G) indica la densità massima di G (cfr. (6.8)).
Dimostrazione:
eH
vH
npn
Data l’a¤ermazione 1.
eH
vH
nvH penH =
" 1; ma siccome En (XH )
Per la de…nizione di
segue che 8H
vH
npn
G tale che vH > 0;
allora 1. implica 2. e viceversa.
(G), 4. implica 3. e viceversa.
Lemma 14 Sia G 2 Gn : eG > 0: Allora
V arn (XG )
(1
pn )
In particolare, se pn < 1;
V arn (XG )
Dimostrazione: 8G 2 Gn ;
V ar (XG ) =
(En (XG ))2
:
n (G)
(2.34)
(En (XG ))2
:
n (G)
(2.35)
cov (1G0 ; 1G00 ) ;
(2.36)
X
G0 ;G00
ma 1G0 e 1G00 sono indipendenti se separati, ovvero se E (G0 ) \ E (G00 ) = ;; quindi
X
V ar (XG ) =
cov (1G0 ; 1G00 )
G0 ;G00
=
(2.37)
: E(G0 )\E(G00 )6=;
X
[E (1G0 1G00 )
E (1G0 ) E (1G00 )] :
G0 ;G00 : E(G0 )\E(G00 )6=;
Sia H 2 Gn tale che E (H) = E (G0 ) \ E (G00 ) : Per la (2.29),
jGn (H)j
nvH n2(vG
12
vH )
= n2vG
vH
;
(2.38)
quindi
X
V arn (XG )
n2vG
vH
n2vG
vH 2eG eH
pn
pn2eG
eH
pn2eG
(2.39)
H G : eH >0
X
(1
pn )
H G : eH >0
(1
= (1
Teorema 15 8G
(En (XG ))2
pn ) max
H G : eH >0 En (XH )
(En (XG ))2
pn )
:
n (G)
Gn : eG > 0
Pn (XG > 0)
ovvero la successione fn
1
m(G)
gn
1
!
n!1
(
0 se pn << n
1 se pn >> n
1
m(G)
1
m(G)
(2.40)
;
è una soglia per la proprietà Q = fH 2 Gn : H
Gg:
Dimostrazione: La prima a¤ermazione segue dalla disuguaglianza di Markov, dato che
in questo caso En (XG ) = o (1) : La seconda a¤ermazione, invece, segue dai due precedenti
1
lemmata. Infatti, poiché pn >> n m(G) ; per il primo lemma, n (G) ! 1: Quindi, poiché
n!1
dalla disuguaglianza di Chebichev segue che
V ar (XG )
;
(E (XG ))2
P (XG = 0)
(2.41)
dal lemma precedente si ha che
V arn (XG )
(En (XG ))2
Pertanto Pn (XG > 0) = 1
(1
pn )
= o (1) :
n (G)
(2.42)
o (1) :
Osservazione 16 Dalla
dimostrazione
precedente
XG
! 1; allora En (XG ) converge a 1 in probabilità.
n (G)
n!1
13
segue
anche
che
se
2.3.2
Forma delle con…gurazioni di un grafo aleatorio
k
k+1
Proposizione 17 8k 2 …ssato, se n k 1 << pn << n k ; le con…gurazioni tipiche di un
grafo aleatorio risultano essere una collezione di alberi ( foresta) di ordine al più k:
Dimostrazione: Se Tk 2 Gn è un albero di ordine k; vTk = k; e eTk = k
m (Tk ) = k k 1 : Pertanto, per il teorema precedente,
Pn (XTl > 0)
1: Quindi
1 se l k
0 se l = k + 1
!
n!1
(2.43)
da cui segue che non esistono alberi più grandi di Tk :
Esercizio 18 dimostrare
che
la
proposizione
1
k = k (n) << (log n) 2 : Infatti per ipotesi
n
Proposizione 19 Se npn
contengono cicli.
1
k(n) 1
<< npn << n
precedente
1
k(n)
vale
anche
se
(2.44)
:
! 0; allora le con…gurazioni tipiche di un grafo aleatorio non
n!1
Dimostrazione: Se Cl 2 Gn è un ciclo di lunghezza l; vCl = l = eCl : Allora,
jGn (Cl )j =
Quindi,
En
X
l 3
XCl
!
=
n l!
:
l 2l
X n (l 1)!
pln
l
2
l 3
e la tesi segue dalla disuguaglianza di Markov.
2.3.3
X
l 3
(2.45)
(npn )l
(npn )3
!0
n!1
(2.46)
La componente gigante
La dimostrazione del risultato che segue si basa sulle nozioni di disuguaglianza di Chernov e
di processo di diramazione esposte in appendice.
Teorema 20 Sia npn = c; con c costante positiva.
1. Se c < 1; la probabilità che il sottografo connesso di taglia massima di un grafo aleatorio
contenga al più (1 3c)2 log n vertici tende a 1 per n ! 1:
14
2. Se c > 1; sia c soluzione dell’equazione c + e c c = 1: Allora, il sottografo connesso
di taglia massima di un grafo aleatorio ( componente gigante) contiene, nel limite di
n che diverge, un numero di vertici proporzionale a n c , mentre la probablilità che il
sottografo connesso di un grafo aleatorio di taglia maggiore dopo la componente gigante
contenga al più (1 16c)2 log n vertici tende a 1 per n ! 1:
Dimostrazione: La dimostrazione di questo risultato si basa sulla seguente costruzione
che genera l’albero di massimo ordine contenuto in una componente del grafo aleatorio alla
stregua dell’albero di Galton &Watson.
Più precisamente, dato un grafo aleatorio G; se 8v 2 Vn indichiamo con Cv = Cv (G)
la componente connessa di G contenente v; la procedura che segue permette di costruire un
albero T tale che V (T ) V (Cv ) :
Algoritmo 21 Sia G una data con…gurazione del grafo aleatorio.
passo 0 Scelto un vertice v 2 Vn ; si consideri N (v) :
passo1 Sia Wr := lex N (v) = fw0 ; ::; wr g; 0
e si ponga i := 0:
passo 2 Se i
r
n il riordinamento lessicogra…co di N (v)
r; si consideri N (wi ) nWr :
Se N (wi ) nWr 6= ;; si ponga N (v) := N (wi ) [ Wr e si torni al passo 1.
Se N (wi ) nWr = ;; si ponga i := i + 1 e si torni al passo 2.
Se i = r + 1; si ponga V (Cv ) := Wr e stop.
passo 3 Se Vn nV (Cv ) 6= ;; si scelga v 0 2 Vn nV (Cv ) e si torni al passo 0 sostituendo v 0 a v;
altrimenti stop.
8i 0; Xi := jN (wi ) nWr j dipende dalla realizzazione del grafo aleatorio G; ed è dunque
una v.a.. La legge secondo cui sono distribuite le Xi è binomiale di parametri n jWr j ; nc :
Infatti, considerando la seguente procedura
Algoritmo 22 passo 0 Scelto un vertice v 2 Vn ; si generi N (v) secondo la legge binomiale
di parametri n e nc :
passo1 Sia Wr := lex N (v) = fw0 ; ::; wr g; 0
e si ponga i := 0:
r
n il riordinamento lessicogra…co di N (v)
passo 2 Se i r; si generino degli archi tra wi e gli elementi di Vn nWr in maniera indipendente secondo la legge di Bernoulli di parametro nc e si consideri N (wi ) :
Se N (wi ) nWr 6= ;; si ponga N (v) := N (wi ) [ Wr e si torni al passo 1.
Se N (wi ) nWr = ;; si ponga i := i + 1 e si torni al passo 2.
Se i = r + 1; si ponga V (Cv ) := Wr e stop.
15
passo 3 Se Vn nV (Cv ) 6= ;; si scelga v 0 2 Vn nV (Cv ) e si torni al passo 0 sostituendo v 0 a v;
altrimenti stop.
Se i = r + 1; stop.
8i
0; Zi := jN (wi ) nWr j ; come somma di n jWr j v.a. di Bernoulli di parametro
c
;
segue
la
legge binomiale di parametri n jWr j ; nc : Poiché generare una con…gurazione di
n
un grafo aleatorio equivale a generare una con…gurazione di archi tra gli elementi di Vn in
maniera indipendente secondo la legge di Bernoulli, 8v 2 Vn le due procedure danno luogo ad
D
alberi aleatori che hanno la stessa distribuzione, quindi, 8i 0; Xi = Zi :
c<1 Siano Xi+ ; i 0 una collezione di v.a.i.i.d. secondo la legge binomiale di parametri n e
c
. Poiché 8x > 0; P (Xi > x) P Xi+ > x ;
n
!
k
X
Pn (jV (Cv )j k + 1) P
Xi+ k
(2.47)
i=1
D Pn
ma, 8i
0; Xi+ =
j=1 Yij ; dove le Yij ; j = 1; ::; n; sono v.a.i.i.d. bernoulliane di
parametro nc : Perciò, per la disuguaglianza di Chernov e per il Lemma (37)
!
!
!
k
k X
n
nk
X
X
X
P
Xi+ k
P
Yij k
P
Yi k
(2.48)
i=1
i=1 j=1
exp
Quindi, 8" > 0; k
i=1
nkH
k c
j
nk n
e k(c
1+log
1
c
)
e
k
(1 c)2
2
2(1+") log n
(1 c)2
Pn (jV (Cv )j
k + 1)
Pn (9v 2 Vn : jV (Cv )j
k + 1)
e (1+") log n ;
X
Pn (jV (Cv )j
(2.49)
k + 1)
ne
(1+") log n
:
(2.50)
v2Vn
2
c>1 Siano k := (c16c1)2 log n e k+ := n 3 : Dimostriamo che non esistono componenti del grafo
aleatorio la cui taglia è compresa tra i valori k e k+ : A tal …ne è su¢ ciente dimostrare
che da qualsiasi vertice si inizializza la procedura di costruzione dell’insieme dei vertici di
una
componente
del
grafo
aleatorio,
dopo
k 2 (k ; k+ ) iterazioni, la probabilità che la procedura si arresti prima di aver aggiunto
almeno (c 21)k nuovi vertici, tende a zero per n ! 1: Più precisamente, sia
Bv (k) := fG 2 Gn : alla k-sima iterazione, la procedura termina prima
(c 1) k
di aver aggiunto a V (Cv (G)) almeno
nuovi vertici :
2
16
(2.51)
Notiamo che Bv (k)
fjV (Cv )j
k + (c 2 1) k = c+1
kg e 8i
0; x > 0 P (Xi x)
2
P Xi
x ; dove le Xi si distribuiscono secondo la legge binomiale di parametri n
c+1
k+ ; nc : Dunque, procedendo come nel caso precedente, posto " = c+11 ;
2
2n 3
Pn (Bv (k))
Pn jV (Cv )j
e
Allora
0
Pn @
[
[
v2Vn k2(k ;k+ )
c+1
k
2
c+1
(1 ")nkH ( 2(1
jc
") n )
1
Bv (k)A
n
X
e
e
k
X
P
c+1
k
2
Xi
i=1
(c 1)2
k
9c
(c 1)2
k
9c
!
(2.52)
:
5
n3 e
(c 1)2
k
9c
1
9
=n
! 0 : (2.53)
n!1
k2(k ;k+ )
Quindi, quindi la taglia di una componente del grafo aleatorio o è al più pari a k o è
maggiore di k+ ; poiché quanto sopra esposto dimostra che la probabilità che la procedura
di costruzione dell’insieme dei vertici di una componente del grafo aleatorio, dopo k 2
(k ; k+ ) iterazioni, si arresti prima di raggiungere la k+ -sima iterazione, tende a zero
per n ! 1:
Supponendo che, scelto v 2 Vn ; la procedura sia giunta alla k+ -iterazione, allora i
nuovi vertici da aggiungere per costruire V (Cv (G)) sono almeno c 2 1 k+ : Quindi, …ssati
v; u 2 Vn la probabilità che dopo la k+ -sima iterazione della procedura questi risultino
ancora in due insiemi di vertici distinti è più piccola della probabilità che non si generino
archi tra i restanti vertici ancora da aggiungere per completare V (Cv (G)) e V (Cu (G)) ;
2
(c 1k )
ovvero 1 nc 2 + : Perciò,
2
Pn (jV (Cv )j ; jV (Cu )j
k+ ; Cv \ Cu = ;)
1
e
Pn (9 al più 2 u; v : jV (Cv )j ; jV (Cu )j
k+ ; Cv 6= Cu )
c ( c 2 1 k+ )
n
c(c 1)2 1
n3
4
n2 e
(2.54)
;
c(c 1)2 1
n3
4
! 0 : (2.55)
n!1
cioè la probabilità che esista un unica componente del grafo aleatorio di taglia maggore
2
di n 3 tende a uno per n ! 1:
Per stimare la taglia della componente gigante, de…niamo
X
Y :=
1fG2Gn : jV (Cv (G))j k g :
(2.56)
v2Vn
Allora, la taglia della componente gigante è n Y: Poiché se jV (Cv )j
k 8i
0;
x > 0 P (Xi x) P Xi
x ; dove le Xi si distribuiscono secondo la legge binomiale
17
di parametri n
k ; nc ; Pn (jV (Cv )j
con
k )
probabilità di estinzione del
D
processo di diramazione di Galton & Watson con = Xi : Allo stesso modo, poiché le
Xi sono stocasticamente dominate dalle Xi+ si ha che Pn (jV (Cv )j k )
=
o (1)
dove ; sono rispettivamente la probabilità di estinzione del processo di diramazione di
D
Galton & Watson con = Xi e taglia minore o uguale a k e quella senza quest’ultima
c c
condizione. Poiché
! c = 1
= 1; (cfr.
c soluzione dell’equazione
c + e
n!1
Esercizio 47), si ha
X
Pn (jV (Cv )j
X
Pn (jV (Cu )j ; jV (Cv )j
En (Y ) =
k )
n (1
c)
(2.57)
:
v2Vn
Inoltre,
En (Y (Y
1)) =
u;v2Vn
u6=v
=
X
u;v2Vn
u6=v
+
X
u;v2Vn
k
Pn (u 2 Cv ; jV (Cv )j
k )+
Pn (jV (Cu )j ; jV (Cv )j
X
(2.58)
k )
k ; Cu \ Cv = ;)
k ) + (En (Y ))2 ;
Pn (jV (Cv )j
v2Vn
da cui segue
V arn (Y )
n (1 + log n) (1
c)
+ o (1) << (En (Y ))2
Quindi per la disuguaglianza di Chebichev
2.3.4
Y
En (Y )
n2 (1
2
c)
:
(2.59)
P
! 1:
Connettività
Teorema 23 Se npn = c + log n + o (1) ; c > 0; allora la probabilità che un grafo aleatorio
e c
risulti connesso converge per n ! 1 a e
:
P
Dimostrazione: Sia Iu := 1fH2Gn :N (u)=;g e X := u2Vn Iu percui X (G) rappresenta il
numero dei nodi isolati presenti nel grafo aleatorio G: Poiché,
En (Iu ) = (1
n 1
pn )
(n 1) log(1
=e
18
c+log n+o(1)
n
)
e c
;
n
(2.60)
En (X)
! e c : Consideriamo ora 81
r < n; l’r-simo momento fattoriale di X;
n!1
(X)r := X (X
1)
(X
En ((X)r ) =
r + 1) :
X
En (Iu1
Iur ) =
n!
En (Iu1
r!
nr (1
pn )nr
ui 2Vn ; i=1;::;r
u1 6=::6=ur
=
n!
(1
r!
pn )r(n
= nr 1
r)+(r2)
c + log n + o (1)
n
nr
nr e
(2.61)
Iur )
r(c+log n)
= e
c r
:
D
Quindi, (cfr. [B2] Teoremi I.20, I.21) X ! Y con Y v.a. distribuita decondo la legge di
c
Poisson di parametro e c , perciò Pn (X = 0) ! e e :
n!1
Inoltre, 82 k n2 ; sia
Ik := fG 2 Gn : 9H
G tale che N (H) = ;; jV (H)j = kg ;
(2.62)
cioè l’evento che una componente connessa isolata del grafo aleatorio abbia ordine k: Siccome
ogni componente connessa di un grafo aleatorio di ordine k contiene un albero di albero dello
stesso ordine e poiché 8k 2; jfTk gj = k k 2 ;
n k 2 k
k pn
k
Pn (Ik )
1
(1
pn )k(n
k)
:
(2.63)
! 0:
(2.64)
Per k = 2;
Pn (I2 ) =
Per 3
k
n
pn (1
2
pn )2(n
2)
log n
n
n!1
n
;
2
n
n
+ (n k) log
;
k
n k
n
n
log Pn (Ik ) k log + (n k) log
+ (k 2) log k+
k
n k
+ (k 1) log pn + k (n k) log (1 pn )
k
k log n log k 2 pn + k k 1
npn := fn (k) :
n
log
n
k
k log
Ma fn (k) è convessa e
fn (3)
3
n
log n ; fn
2
2
19
n;
(2.65)
(2.66)
perciò fn (k)
3
2
log n; 8k 2 f3; ::; n2 g; da cui segue che Pn (Ik )
0
1
[
3
Pn @
Ik A ne 2 log n ! 0 :
3 k
e
3
2
log n
e
(2.67)
n!1
n
2
Dunque per npn = O (log n) la probabilità che un grafo aleatorio sia costituito dalla sua
componente gigante e da una collezione di vertici isolati tende ad uno per n ! 1:
Esercizio 24 Dimostrare che se X è una v.a. distribuita secondo la legge di Poisson di
parametro > 0; allora 8r 1; E ((X)r ) = r :
Esercizio 25 Dimostrare la (2.65).
Teorema 26 Per ogni k
1 intero, se npn = c + log n + k log log n;
Pn ( (G) = m)
!
n!1
m;k
1
e
e c
k!
+
m;k+1 e
e c
k!
:
(2.68)
Schema della dimostrazione: Ricordiamo che 8u 2 Vn ; deg (u) si distribuisce secondo
la legge binomiale di parametri (n 1; pn ) e che questa si può approssimare con la legge
1
di Poisson di parametro npn : Inoltre, (cfr. [B2] Teoremi I.1 e III.2) se npn >> n 2 la
distribuzione dei gradi dei punti del grafo aleatorio si può approssimare con quella di un vettore
aleatorio di componenti i.i.d. poissoniane di parametro npn : Sia fYi gi=1;::;n una collezione di
n v.a.i.i.d. distribuite secondo tale legge. Allora,
Pn
ma
Pm
min Yi > m
i=1;::;n
m!
i=1 (m i)!(npn )i
Pn
= [Pn (Y1 > m)]n = (1 Pn (Y1 m))n
"
#!n
m
X
m!
(npn )m npn
e
1+
;
= 1
m!
(m i)! (npn )i
i=1
(2.69)
= o (1) : Quindi,
!n
e c
1
m
(c + log n + k log log n)
(1 + o (1))
min Yi > m = 1
i=1;::;n
m!
n (log n)k
!n
(log n)m k e c
= 1
(1 + o (1))
m!n
8
!
m<k
>
< 1
(log n)m k e c
e c
exp
= exp n log 1
(1 + o (1))
!
m=k :
k!
n!1 >
m!n
:
0
m>k
Poiché Pn (mini=1;::;n Yi = m) = Pn (mini=1;::;n Yi > m
tesi.
20
1)
(2.70)
Pn (mini=1;::;n Yi > m) si ha la
2.3.5
Diametro di un grafo aleatorio
Teorema 27 Sia 8" > 0; npn = (1 + ") log n: Allora,
log n
log log n
diam (Gp )
2
log n
:
log log n
(2.71)
Schema della dimostrazione: Dato u 2 Vn ; poniamo N1 (u) = N (u) e de…niamo
Nk (u) := N (Nk
1
(u)) ;
2
k
(2.72)
n:
W
Allora Cu = k 1 Nk (u) e Yk := jNk (u)j : Procedendo come nella dimostrazione della
disuguagluanza di Chernov, dal Lemma (37) si ha che
p
p
p
p
log n
"
"
[ log n log (1+")
log n+(1+") log n]
log n
log n
e
(2.73)
Pn Y1
e (1+ 2 ) log n = n (1+ 2 )
Pk 1
Poiché subordinatamente a Yk 1 ; Yk ha distribuzione binomiale di parametri n
i=1 Yi e
Yk 1
(1 (1 pn ))
(cfr. [B2] Lemma X.2.6), ragionando analogamente alla stima precedente
si ha
p
p
"
Pn Y2 Y1 log njY1
log n
n (1+ 2 ) ;
(2.74)
Pn Yk
Yk
1
p
..
.
log njYk
1
(log n)
k 1
2
"
n (1+ 2 ) :
Quindi, scelto un vertice del grafo u; il numero di passi
e¤ettuare per esplorare la sua
p k da
log n
componente connessa e realizzare che la sua taglia è n è log log n ; perciò
Pn jCu j
Pn 9u 2 V (G) : jCu j
p
n
p
n
"
log n
n (1+ 2 )
log log n
"
n 3:
"
n (1+ 3 ) ;
(2.75)
(2.76)
p
Ciò dimostra che
8u
2
V
n e che
n ; la taglia della sua componente connessa è maggiore di
p
log n
nel caso jCu j
n; la distanza tra v 2 Cu e u è al più log log n : Inoltre, se Cu ; Cv sono tali che
p
jCu j ; jCv j
n;
pn )jCu jjCv j (1 pn )n
n
(1 + ") log n
1
n (1+") :
n
Pn (EG (Cu ; Cv ) = ;) = (1
=
(2.77)
Allora,
Pn (9fu; vg 2 Vn
Vn : EG (Cu ; Cv ) = ;)
da cui segue che la distanza tra due punti di Gp è al più
21
2 logloglogn n :
n
"
(2.78)
Parte II
Percolazione di Bernoulli
22
Capitolo 3
Il modello ed il fenomeno critico
cfr. [G] Cap.1, Par. 1.1-1.5 .
23
Capitolo 4
Eventi crescenti
cfr. [G] Cap.2 Par. 2.1 .
4.1
Disuguaglianza FKG
cfr. [G] Cap.2 Par. 2.2 .
4.2
Disuguaglianza BK
cfr. [G] Cap.2 Par. 2.3 .
4.3
Formula di Russo
cfr. [G] Cap.2 Par. 2.4 .
24
Capitolo 5
Unicità del punto critico
cfr. [G] Cap.3 Par. 3.3 .
5.1
Il caso bidimensionale
cfr. [G] Cap.9 Par. 9.1-9.3 .
25
Parte III
Appendice
26
Laddove non espressamente speci…cato, per la notazione, si rimanda all’indice delle notazioni ed al cap. 1 di [J×A]. In particolare, per n ! 1 :
an
bn se an = O (bn ) ; bn = O (an ) ;
an << bn o bn >> an se an
0 e an = o (bn ) :
27
Capitolo 6
Elementi di teoria dei gra…
I gra… considerati in queste note sono così de…niti.
Dato un insieme V sia P2 (V ) := fA V : jAj = 2g e
V
P2 (V ) 3 (v; e) 7 ! 1e (v) 2 f0; 1g:
(6.1)
De…niamo quindi
V (e) := fv 2 V : 1e (v) = 1g e 2 P2 (V ) :
(6.2)
S
Dato E P2 (V ), evetualmente vuoto, sia V (E) := e2E V (e) : Una coppia (V 0 ; E) tale che
V (E)
V0
V; è detto grafo di insieme dei vertici V 0 e insieme degli archi (lati) E. In
particolare:
8V 0
V 0;
V il grafo associato alla coppia (V 0 ; ;) è detto grafo vuoto d’insieme dei vertici
il grafo il cui insieme dei vertici è l’insieme vuoto, ed il cui insieme degli archi è quindi
vuoto è detto grafo nullo ed è indicato dal simbolo ;;
8V 0
V il grafo (V 0 ; P2 (V 0 )) è detto grafo completo d’insieme di vertici V 0 :
Quindi, se G è un grafo: G = (V (G) ; E (G)) ; dove V (G) ed E (G) indicano l’insieme
dei vertici e degli archi di G e V (G)
V (E (G)) : In particolare, K (V ) := (V; P2 (V )) e
K (E) := K (V (E)) :
Se V (G) = V; V (e) si dice insieme dei vertici adiacenti rispetto ad e; Inoltre
EG (v) := fe 2 E (G) : 1e (v) = 1g v 2 V ;
è detto insieme degli archi (o dei lati) incidenti nel vertice v e
[
N (v) :=
V (e)
e2E(v)
28
(6.3)
(6.4)
è detto intorno chiuso del vertice v: De…niamo inoltre,SN (v) := N (v) nfvg l’intorno del
vertice v. Allo stesso modo 8V 0
V siano N (V 0 ) := v2V 0 N (v) l’intorno chiuso di V 0 e
N (V 0 ) = N (V 0 ) nV 0 l’intorno di V 0 :
Dato un grafo G = (V (G) ; E (G)) ; il grafo G0 = (V (G0 ) ; E (G0 )) tale che E (G0 ) E (G)
e V (E (G0 )) V (G0 ) V (G) è detto sottografo di G (G0 G) : In particolare:
se V 0 V (G) ; il sottografo G (V 0 ) = (V 0 ; E (V 0 )) tale che E (V 0 ) = E (G) \ P2 (V 0 ) è
detto grafo indotto (o spanned) da V 0 ;
se E
P2 (V (G)) ; il sottografo G (E) = (V; EG ) tale che EG = E \ E (G) è detto
spanning;
pertanto ogni grafo G può essere considerato come sottografo spanning di K (V (G)) :
Inoltre, 8V 0 ; V 00 V;
EG (V 0 ; V 00 ) := fe 2 E (G) : jV (e) \ (N (V 0 ) \ V 00 )j = jV (e) \ (N (V 00 ) \ V 0 )j = 1g
(6.5)
è l’insieme degli archi di G che connettono i vertici di V 0 con quelli di V 00 :
Due gra… G e G0 si diranno:
disgiunti (G \ G0 = ;) se V (G) \ V (G0 ) = ;;
e-disgiunti o separati (G \e G0 = ;) se E (G) \ E (G0 ) = ;:
Dati due gra… G e G0 il grafo G00 := G [ G0 = (V (G) [ V (G0 ) ; E (G) [ E (G0 )) è detto
unione di G e G0 : Inoltre un grafo G di dirà connesso se non può essere realizzato come unione
di due o più gra… disgiunti. In caso contrario, i sottogra… connessi di G massimali, ovvero
quelli che non sono sottogra… connessi di nessun altro sottografo connesso di G; sono detti
componenti (connesse o isolate) di G:
Dato un grafo G = (V (G) ; E (G)) ; siano vG := jV (G)j l’ordine di G e eG := jE (G)j :
8v 2 V; deg (v) := jE (v)j = jN (v)j è detto grado del vertice v:
(G) := min deg (v) ;
(G) := max deg (v)
v2V (G)
v2V (G)
(6.6)
sono detti rispettivamente grado minimo e grado massimo di G: Ovviamente,
0
De…niamo d (G) :=
eG
vG
(G)
(G)
la densità di G, allora
m (G) := max
1
vG
eH
:H
vH
29
vG
P
1:
v2V (G)
(6.7)
deg (v) = 2 veGG = 2d (G) : Inoltre,
G; vH > 0
(6.8)
è detta densità massima di G: Allora, un grafo G tale che m (G) = d (G) è detto essere
bilanciato ovvero se 8H
G; d (H)
d (G) : Nel caso in cui 8H
G; d (H) < d (G), G è
detto essere strettamente bilanciato.
Due gra… G e G0 si diranno isomor… (G G0 ) se esiste un’applicazione biunivoca
: V (G) ! V (G0 ) tale che se v; v 0 2 V (G) sono adiacenti allora anche
(v) ; (v 0 ) 2 (V (G)) = V (G0 ) sono adiacenti. In altre parole, se esiste un’applicazione
biunivoca da V (G) in sé, tale che, dato v 2 V (G) ; se v 0 2 N (v) allora (v 0 ) 2 N ( (v)) e
il grafo (V (G) ; E 0 ) ; con
E 0 = fe0 2 P2 (V (G)) : 9e 2 E (G) tale che V (e0 ) =
(V (e))g ;
(6.9)
è detto essere isomorfo a G:
Per la ulteriori nozioni di teoria dei gra…, nonché per estensioni e generalizzazioni di quanto
sopra esposto, si rimanda a [AS], [B1, B2] e [J×A].
30
Capitolo 7
Alcune nozioni di Calcolo delle
Probabilità
Quanto di seguito esposto ha scopo quasi esclusivamente notazionale. Verranno introdotte
inoltre alcune nozioni di Calcolo delle Probabilità che generalmente non sono trattate nei corsi
di base mentre, per quanto riguarda quelle di base, si rimanda ai testi standard sull’argomento,
per esempio [S], a meno che non sia diversamente speci…cato.
Sia un insieme e F una algebra di suoi sottoinsiemi. La coppia ( ; F) è detta spazio
misurabile. Nel caso in cui
Rn ; n
1 si assumerà F
B (Rn ) ; ovvero (sub) algebra
della algebra dei boreliani di Rn :
Data una coppia di spazi misurabili ( ; F) e ( ; X ) ; un’applicazione X :
! è detta
1
misurabile se 8B 2 X ; X (B) 2 F:
Una variabile aleatoria è un’applicazione misurabile tra ( ; F) e (R; B (R)) ; un vettore aleatorio è un’applicazione misurabile tra ( ; F) e (Rn ; B (Rn )) ; mentre una generica
applicazione misurabile tra spazi misurabile è detta elemento aleatorio.
Sia P ( ; F) l’insieme delle misure di probabilità sullo spazio misurabile ( ; F). Scelto
un elemento P 2P ( ; F) ; la terna ( ; F; P) è detta spazio di probabilità (probabilizzato).
Inoltre, sia
P
F := fA
: 9A ; A+ 2 F tale che A
A
A+ ; P (A+ nA ) = 0g
F:
(7.1)
P
F è una algebra, ed è detta completamento di F rispetto a P: Ne segue che P si può estenP
P
dere a F de…nendo 8A 2 F ; P (A) = P (A ) e quindi considerare lo spazio di probabilità
P
P
; F ; P completamento di ( ; F; P) : Se F = F ; ( ; F; P) è detto completo.
Sia = R1 l’insieme delle applicazioni a valori reali de…nite su un insieme numerabile.
Dato un insieme …nito di indici e un boreliano B 2 B Rj j ; indicando con ! la proiezione
di una realizzazione ! su
= R che è isomorfo a Rj j ; sia
C (B) = f! 2
31
: ! 2 Bg
(7.2)
e B (R1 ) la algebra generata dagli insiemi
l’insieme cilindrico (cilindro) di base B 2 B R
cilindrici.
Teorema 28 (di Carathéodory) Sia un insieme, A un’algebra dei suoi sottoinsiemi e (A)
la più piccola algebra contenente A: Data 0 una misura additiva su ( ; A) : Esiste un unica
misura su ( ; (A)) estensione di 0 ; ovvero tale che 8A 2 A; (A) = 0 (A) :
Teorema 29 (di Kolmogorov sull’estensione di misure su (R1 ; B (R1 )))
Sia fPn gn 1 ; Pn 2P (Rn ; B (Rn )) una collezione di misure di probabilità tali che
8n 1; B 2 B (Rn ) ;
Pn+1 (B R) = Pn (B) :
(7.3)
1; B 2 B (Rn ) ; Cn (B) = Cf1;::;ng (B) ;
Allora 9!P 2P (R1 ; B (R1 )) tale che se 8n
(7.4)
P (Cn (B)) = Pn (B) :
1; B 2 B (Rn ) ; assegnamo a P (Cn (B)) il valore Pn (B) : Allora
Dimostrazione: 8n
poiché
Cn (B) = f! 2 R1 : ! f1;::;ng 2 B; ! fn+1;::;n+kg 2 Rg
0
1
= Cf1;::;n+kg @B
R
|
:::
{z
k volte
R}A = Cn+k (B
(7.5)
R
:::
R) ;
per la (7.3), la de…nizione di P (Cn (B)) è indipendente dalla rappresentazione scelta di Cn (B)
infatti
Pn (B) = Pn+1 (B R) = ::: = Pn+k (B R ::: R) :
(7.6)
Sia C (R1 ) la collezione di tutti i cilindri Cn (B) al variare di n 1 e B 2 B (Rn ) : È facile
vedere che C (R1 ) è un algebra. Dato k
2 e A1 ; ::; Ak 2 C (R1 ) disgiunti, 9n
1 e
n
B1 ; ::; Bk 2 R boreliani disgiunti tale che Ai = Cn (Bi ) ; i = 1; ::; k. Allora,
!
!
!!
k
k
k
k
[
[
[
X
P
Ai = P
Cn (Bi ) = P Cn
Bi
=
Pn (Bi )
(7.7)
i=1
i=1
=
k
X
i=1
P (Cn (Bi )) =
i=1
k
X
i=1
P (Ai ) ;
i=1
ovvero P è …nitamente additiva sull’algebra C (R1 ) : Se P è anche additiva su C (R1 ) allora
la tesi segue dal teorema precedente. A tal …ne è su¢ ciente dimostrare che, per una generica
successione di elementi di C (R1 ) ; fCn (Bn )gn 1 tale che Cn (Bn ) # ;; P (Cn (Bn )) ! 0:
n!1
32
1; Bn 2 B (Rn ) ;
Supponiamo il contrario, ovvero limn!1 P (Cn (Bn )) = > 0: Poiché 8n
dato > 0 esiste An Bn tale che Pn (Bn nAn ) 2n+1 ; allora,
P (Cn (Bn ) nCn (An )) = Pn (Bn nAn )
Sia Cn :=
si ha
Tn
k=1
2n+1
(7.8)
:
Ck (Ak ) e sia Dn tale che Cn = Cn (Dn ) : Poiché fCn (Bn )gn
P (Cn (Bn ) nCn (Dn ))
n
X
k=1
P (Cn (Bn ) nCk (An ))
n
X
k=1
2k+1
n
X
k=1
1
è decrescente,
P (Ck (Bn ) nCk (An ))
(7.9)
= ;
2
ma per ipotesi limn!1 P (Cn (Bn )) = > 0 e quindi limn!1 P (Cn (Dn ))
> 0: Ma ciò
2
(n)
contraddice l’ipotesi che Cn (Dn ) # ;: Infatti, 8n 1 sia x 2 Cn (Dn ) ; allora
(n)
(n)
x1 ; ::; xn
2 Dn : Inoltre, poiché D1 è compatto, esiste una sottosuccessione fn1 g di fng
(n )
tale che x1 1 ! x01 2 D1 : Allo stesso modo è possibile scegliere fn2 g
(n )
(n )
x1 2 ; x2 2 ! (x01 ; x02 ) 2 D2 . Iterando questa costruzione si ha
8k
(nk )
1; x1
(nk )
; ::; xk
! x01 ; ::; x0k 2 Dk :
(7.10)
(mk )
Considerando la sottosuccessione diagonale fmk g segue che 8i
(x01 ; ::) 2 Cn (Dn ) 8n 1 contrariamente all’ipotesi che Cn (Dn ) # ;:
7.0.1
fn1 g tale che
1; xi
! x0i e
Disuguaglianza di Markov, sue generalizzazioni e applicazioni
Proposizione 30 (Disuguaglianza di Markov) Sia X una v.a. non negativa de…nita su
( ; F; P) : 8 > 0 vale
E (X)
Pf! 2 : X (!) > g
(7.11)
Dimostrazione: 8 > 0 si ha
E (X) = E X1[0; ] (X) + E X1(
E 1(
;+1)
;+1)
(X) = Pf! 2
33
(X)
E X1(
: X (!) > g :
;+1)
(X)
(7.12)
Corollario 31 Se f è una funzione non negativa, strettamente crescente e X una v.a. de…nita su ( ; F; P) : 8 > 0 si ha
Pf! 2
E (f (X))
:
f( )
: X (!) > g
(7.13)
Dimostrazione: Poiché f è strettamente crescente
Pf! 2
: X (!) > g = P X
1
[ ; +1) = P X
1
fx 2 R : f (x) > f ( )g;
(7.14)
e siccome f è non negativa, dalla disuguaglianza di Markov segue
R
P X 1 (dx) f (x)
E (f X)
1
P X fx 2 R : f (x) > f ( )g
=
:
f( )
f( )
Osservazione 32 (Disuguagluanza di Markov esponenziale) Il precedente risultato implica
che 8r; > 0;
Pf! 2 : X (!) > g e r E erX :
(7.15)
Quindi
Pf! 2
: X (!) > g
inf e
r>0
r
log E(erX )]
supr>0 [r
E erX = e
:
(7.16)
Corollario 33 (Disuguaglianza di Chebichev) Sia X una v.a. de…nita su ( ; F; P) : 8" > 0
vale
V ar (X)
:
(7.17)
Pf! 2 : jX (!) E (X)j > "g
"2
Dimostrazione: Si ponga Y := jX
siderando f = x2 :
E (X)j e si applichi il corollario precedente con-
Esercizio 34 Dimostrare la disuguaglianza di Chebichev generalizzata
Pf! 2
: jX (!)
E (X)j > "g
E (jX
E (X)jp )
"p
;
p > 0:
(7.18)
Proposizione 35 (Disuguaglianza di Chernov per schemi di Bernoulli) Sia f n gn>0 una successione di v.a.i.i.d.
con distribuzione di Bernoulli di parametro p de…nite su ( ; F; P) : Allora,
P
se Sn (!) := ni=1 i (!) ; vale la stima
P !2
dove H (x) := sup
2R [
:
x
Sn (!)
n
log E e
p >"
2e
]:
34
n[H(p ")^H(p+")]
2e
2n"2
(7.19)
Dimostrazione: Per la disuguaglianza di Markov esponenziale, 8a 2 (0; 1)
P !2
Sn (!)
>a
n
:
sup
e
>0
Sn
n
a log E e
(7.20)
;
ma poiché gli elementi della successione f n gn>0 sono v. a. indipendenti identicamente
distribuite,
n
Y
n
Sn
n
E e
=
E en i = E en 1
(7.21)
i=1
dove
E e
1
=1
(7.22)
p + e p:
Quindi
P !2
:
Sn (!)
>a
n
sup
e
>0
a n log E e n
n sups>0 (sa log E(es
e
1
1
sup
e
>0
n
n
1
a log E e n
(7.23)
)) :
Allo stesso modo si ottiene
P !2
:
Sn (!)
<a
n
e
n sups<0 (sa log E(es
1
)) :
(7.24)
Consideriamo ora la funzione
R 3 s 7 ! f (s; a) := sa
log (1
p (1
es )) = sa
log E es
1
2 R:
Allora,
@s f = a
@s2 f =
E 1 es 1
pes
=
a
E (es 1 )
(1 p (1 es ))
E 21 es 1
E2 1 es 1
pes
+
=
E (es 1 )
E2 (es 1 )
(1 p (1
Sia s (a; p) tale che @s f
s=
(7.25)
es ))
(1
pes
p (1
es ))
1
(7.26)
0:
es =
a (1
p (1
a(1 p)
perciò s
0 se e solo se p(1
a)
x 1; cioè a 2 [p; 1) : Inoltre @s2 f
p)
a (1
=) s (a; p) = log
a)
p (1
p)
a)
(7.27)
1: Quindi, posto x = ap si ha x (1
1) < 0; quindi
s = a (a
H (a) := sup f (s; a) = f (s; a) = a log
s>0
35
a
+ (1
p
a) log
1
1
p)
a
:
p
1
px ovvero
(7.28)
Posto a = p + x; x 2 (0; 1
p) ; sia h+ (x) := H (p + x) : Allora 9 2 (0; x) tale che
1
1
(7.29)
h+ (x) = h+ (0) + h0+ (0) x + h00+ ( ) x2 = h00+ ( ) x2 2x2
2
2
poiché h+ (0) = h0+ (0) = 0 e h00+ (x) 4 8x 2 [0; 1 p): Analogamente, se a 2 (0; p) si ottiene
(7.30)
sup f (s; a) = f (s; a) = H (a) :
s<0
Posto a = p
x; x 2 (0; p) ; e h (x) := H (p
x) ; 9 2 (0; x) tale che
1
1
h (x) = h (0) + h0 (0) x + h00 ( ) x2 = h00 ( ) x2
2
2
Dunque 8" > 0;
P !2
P !2
Sn (!)
>p+"
n
Sn (!)
:
<p "
n
:
2x2 :
(7.31)
e
nH(p+")
e
2"2 n
(7.32)
e
nH(p ")
e
2"2 n
(7.33)
perciò
Sn (!)
p >"
n
Sn (!)
=P
!2 :
>p+" \ ! 2
n
Sn (!)
P !2 :
>p+" +P ! 2
n
P !2
e
(7.34)
:
nH(p+")
+e
nH(p ")
2e
Sn (!)
<p
n
Sn (!)
:
<p
n
:
n[H(p ")^H(p+")]
2e
2n"2
"
"
:
Esercizio 36 Dimostrare che per una qualsiasi v. a. X la funzione
R 3 x 7 ! H (x) := sup[ x
2R
che assume valori …niti su
X
:= f 2 R : E e
Lemma 37 Siano p; q 2 (0; 1) e
H (qjp) := q log
jXj
q
+ (1
p
log E e
X
] 2 R+
< 1g e vale +1 su Rn
q) log
1
1
q
p
(7.35)
X
è convessa.
(7.36)
l’entropia relativa di una v.a. distribuita secondo la legge di Bernoulli di parametro p. Allora
8n 1
q p
q
j
(7.37)
nH
q log + p q
n n
p
36
Dimostrazione:
q p
q
q (n q)
j
=n
log +
log
n n
n
p
n
n
q
(n q) log
= q log
p
n
nH
Siccome log x
n
n
p
q
q
p
(7.38)
1 si ha
x
(n
q) log
n
n
p
q
n
p
(n
q) = q
p
(7.39)
da cui segue la tesi.
7.1
7.1.1
Convergenza di successioni di v.a.
Convergenza quasi certa
De…nizione 38 Una successione di v.a. f n gn2N de…nita su uno spazio di probabilità ( ; F; P)
è detta convergere quasi certamente rispetto a P (P-q.c.) ad una variabile aleatoria se
P f! 2
:
n
Equivalentemente, f n gn2N converge P-q.c. a
lim P ! 2
n!1
7.1.2
(7.40)
(!) 9 (!)g = 0 :
: sup j
k n
k
se e solo se 8" > 0;
(!)
(!)j > "
= 0:
(7.41)
Convergenza in probabilità
De…nizione 39 Una successione di v.a. f n gn2N de…nita su uno spazio di probabilità ( ; F; P)
P
è detta convergere in probabilità ad una variabile aleatoria ( n ! ) se
lim P f! 2
n!1
:j
Equivalentemente, f n gn2N converge a
P
n
(!)
(!)j > "g = 0 :
(7.42)
in probabilità, se converge nella metrica
( ; ) := inff" > 0 : P f! 2
37
: j (!)
(!)j > "g < "g :
(7.43)
Convergenza in media di ordine p
7.1.3
De…nizione 40 Una successione di v.a. f n gn2N de…nita su uno spazio di probabilità ( ; F; P)
p
è detta convergere in media di ordine p; con 0 < p < 1; ad una variabile aleatoria ( n ! )
se
lim E (j n
jp ) = 0 :
(7.44)
n!1
Considerando la relazione di equivalenza tra le v.a. su ( ; F):
P
q:c: , P f! 2
:
n
(!) 6= (!)g = 0
(7.45)
e costruendo gli spazi LpP ( ; R) ; p 1; quanto sopra si traduce a¤ermando che la successione
i cui elementi corrisondono alle classi di equivalenza P-q.c. delle n converge in LpP ( ; R) alla
Lp
classe di equivalenza P-q.c. di ( n ! ).
7.1.4
Convergenza in distribuzione (legge)
De…nizione 41 Sia f n gn2N una successione di variabili aleatorie ciascuna de…nita su uno
spazio di probabilità ( n ; Fn ; Pn ) e sia, 8n 2 N;
R 3 x 7 ! Fn (x) = P f! 2
n
:
n
(!)
xg 2 [0; 1]
(7.46)
la funzione di distribuzione di n : f n gn2N è detta convergere in distribuzione (legge) ad una
L
D
variabile aleatoria de…nita su ( ; F; P) ( n ! o n ! ) se, indicando con F (x)
la funzione di distribuzione di , la successione fFn (x)gn2N converge a F (x) ; per ogni x
appartenente all’insieme dei punti di continuità di F; CF :
Equivalentemente, f n gn2N converge a
verge a F nella metrica
LP
(F 0 ; F ) := inff" > 0 : F 0 (x
")
in distribuzione, se la successione fFn gn2N con"
F (x)
F 0 (x + ") + "; 8x 2 Rg :
(7.47)
La nozione di convergenza in distribuzione è anche equivalente alla convergenza debole
della successione delle misure di probabilità di Lebesgue-Stieltjes de…nite su (R; B (R)) indotte
w
D
dalle n a quella indotta da (in simboli Fn ! F ), ovvero n ! se e solo se 8f 2 Cb (R) ;
Z
Z
f (x) dFn (x) !
f (x) dF (x) :
(7.48)
R
R
w
Alternativamente, Fn ! F se e solo se converge nella metrica
Z
Z
0
0
jjF
F jjBL =
sup
f (x) dF (x)
f (x) dF (x) ;
f 2BL(R) : jjf jjBL 1
R
38
R
(7.49)
dove
BL (R) :=
f : R ! R : jjf jjBL := sup jf (x)j + sup
x2R
x6=y
jf (x)
jx
f (y)j
<1
yj
Cb (R) (7.50)
è lo spazio di Banach delle funzioni da R in R limitate e lipshitziane.
Per studiare la convergenza in distribuzione di una successione di v.a. è spesso utile
fare uso della corrispondenza biunivoca tra la funzione di distribuzione di una v.a. e la sua
trasformata di Fourier, cioè la funzione caratteristica della v.a. stessa.
Consideriamo la successione di v.a. di cui alla de…nizione precedente nonché la corrispondente successione di funzioni di distribuzione e poniamo
Z
it n
'n (t) := E e
=
eitx dFn (x) :
(7.51)
R
Se la successione di funzioni f'n gn2N converge puntualmente ad una funzione ' (t) che è
D
w
continua in t = 0; allora esiste F tale che Fn ! F; ovvero esiste una v.a. tale che n ! ;
la cui funzione di distribuzione è F e la cui funzione caratteristica è ' (t) : Inoltre se
E (j jn ) < 1 n
(E (j jn ))
limn!1
n
(7.52)
1;
1
n
= R < 1;
' (t) =
X (it)n
n 0
n!
(7.53)
E ( n)
jtj <
1
eR
(7.54)
in tal caso la distribuzione di probabilità di può essere completamente determinata dalla
conoscenza dei suoi momenti, in quanto antitrasformata di Fourier della ': Se poi gli elementi
della successione f n gn2N assumono soltanto valori positivi, cioè 8n 2 N; suppFn R+ ; quanto precedentemente espresso resta valido se si considera al posto della funzione caratteristica
la funzione generatrice dei momenti di n ;
Z 1
n
'n ( ) := E e
=
e x dFn (x) ;
(7.55)
0
cioè la trasformata di Laplace delle Fn :
In…ne, de…nendo su P (R; B (R)) la norma
jjP
P0 jjvar := sup jP (A)
A2B(R)
1
=
sup
2 f 2C1 (R) : jjf jj1
P0 (A)j =
1
Z
39
1
jjF
2
f (x) dF (x)
F 0 jjBV
Z
f (x) dF 0 (x) ;
(7.56)
dove F e F 0 sono le funzioni di distribuzione associate rispettivamente a P e P0 ; e C1 (R)
C (R) è l’insieme delle funzioni continue che s’annullano nel limite di jxj " 1; si può considerare la convergenza di successioni di misure di probabilità in questa topologia, detta
convergenza nella distanza variazionale, che è più forte di quella in distribuzione.
Osservazione 42 A di¤erenza delle altre nozioni di convergenza che necessitano del fatto che
gli elementi della successione f n gn2N ed il suo limite siano v.a. de…nite sullo stesso spazio
di probabilità ( ; F) ; quella di convergenza in legge, riguardando in de…nitiva esclusivamente
le funzioni di distribuzione, prescinde da questa ipotesi. Tuttavia, come nel caso del modello
G (n; p) ; in cui si considerano v.a. de…nite su spazi di probabilità che sono distinti al variare
di n; quando per esempio si vogliono confrontare le diverse nozioni di convergenza per la stessa
successione di v.a., è utile considerare una successione di v.a., equivalente in distribuzione a
quella data, i cui termini sono v.a. de…nite sullo stesso spazio di probabilità. Detta successione
equivalente può essere costruita nel modo seguente. Notiamo dapprima che, se F è una
funzione di distribuzione, si può de…nire la funzione quantile di F
(0; 1) 3 u 7 ! Q (u) := inffx 2 R : F (x)
Da ciò segue che Q = F
Z
1
ug 2 R :
(7.57)
e che considerando Q come v.a. su ((0; 1) ; B ((0; 1)) ; du) ;
Z
du =
du = F (x) ;
(7.58)
fu2(0;1) : Q(u) xg
fu2(0;1) : u F (x)g
ovvero Q ammette come funzione di distribuzione proprio F: A questo punto, se Fn ; F indicano
rispettivamente le funzioni di distribuzione del termine n-simo della successione n e del suo
limite ; la successione dei quantili assciati alle Fn è equivalente in distribuzione a f n gn2N e
D
converge in distribuzione a Q = :
7.2
Processo di diramazione a tempo discreto e garfo
di Galton-Watson
Sia ( ; F; P) uno spazio di probabilità e
Pf = kg = Pf! 2
3 ! 7 ! (!) 2 N una variabile aleatoria tale che
: (!) = kg = pk
k 2 N:
Consideriamo il campo aleatorio su (X ; B (X )) ; dove X := N
generata dagli insiemi cilindrici della forma
CA (B) := f 2 X :
A
2 Bg A
40
N2
(7.59)
e B (X ) è la
N2 ; jAj < 1 ; B 2 P N
jAj
;
-algebra
(7.60)
N
D
associato alla misura di probabilità P
=
con
=
;
n
n2N2 P n ;
2
8n 2 N : Ovvero, se n = (i; j) 2 N N, allora resta de…nita la proiezione della con…gurazione
D
sul sito del reticolo N N di coordinate i e j; i;j = :
De…niamo allora le variabili aleatorie
X 3
7 ! um ( ) 2 N ;
(7.61)
u0 = v0 := 1 ;
(7.63)
7 ! vm ( ) 2 N m 2 N ;
X 3
(7.62)
in maniera ricorsiva, ovvero:
um+1 :=
uX
m 1
i;m
;
i=0
vm+1 := vm + um+1
e, se Xi;j 2 R2 ; i; j 2 N rappresenta un punto di R2 ; per esempio quello di coordinate i e j;
de…niamo conseguentemente gli insiemi
um
Um := fXi;m gi=0
1
R2 ;
V0 = U0 ; Vm+1 := Vm
Bm :=
Em :=
u[
m 1
i=0
m
_
[
i;m
j=0
1
_
(7.64)
Um+1 =
m+1
_
Uk
R2 ;
k=0
fXi;m ; Xj;m+1 g ;
Bk :
k=0
Pertanto, jUm j = um e jVm j = vm : Possiamo quindi de…nire il grafo aleatorio
G ( ) = (V ( ) ; E ( )) costruito tramite il seguente
passo 0 Si ponga u0 = v0 = 1; U0 = V0 = f(0; 0)g; G0 := (U0 ; ;) ; n = 0 e si proceda al passo
successivo.
n 1
passo n Si generi la collezione di variabili aleatorie f i;n gui=0
e conseguentemente
un+1 ; Un+1 ; Vn+1 ; vn+1 ; Bn e En secondo le (7.63), (7.64).
Sia Gn ( ) = Gn+1 := (Vn+1 ; En ) :
Se jBn j > 0; si ponga n := n + 1 e si torni al passo n.
Se invece jBn j = 0; stop.
41
Sia T := minfn 0 : jBn j = 0g = minfn
allora fT ng = fun = 0g: Inoltre,
1 : un = 0g: Poiché fun = 0g
fT < 1g =
[
n 0
fun = 0g
fun+1 = 0g;
(7.65)
è l’evento che G ( ) sia un grafo di taglia …nita.
Osservazione 43 fun gn
P fun+1
è una catena di Markov. Infatti,
(j 1
X
= ijun = j; ::; u1 = j1 ; u0 = 1g = P
0
k=0
k;n
=i
)
= Pj;i :
(7.66)
dove Pj;i è la matrice di probabilità di transizione associata alla catena. Inoltre, poiché
E (un+1 jun ) = un E ( )
la successione di variabili aleatorie fYn gn
0
; Yn =
n
(E
…ltrazione naturale associata alla successione fun gn 1 :
un
n
( ))
0;
(7.67)
è una martingala rispetto alla
Esercizio 44 Esprimere il generico elemento della matrice di transizione di probabilità della
catena di Markov Pj;i in funzione della distribuzione di :
P
D’ora in poi assumeremo che k 0 pk = 1: Sia
X
' (z) := E (z ) =
pk z k z 2 C : jzj 1;
(7.68)
k 0
P
la funzione generatrice di e 8n 0; 'n (z) := k 0 P fun = kgz k : Chiaramente '0 (z) = s
e '1 (z) = ' (z) ; inoltre
X
XX
'n+1 (z) =
P fun+1 = kgz k =
P fun = kjun = jgP fun = jgz k
(7.69)
k 0 j 0
k 0
=
X
k 0
=
X
j 0
Iterando, per 0
k
zk
X
j 0
P fun = jgP
(j 1
X
l;n
=k
l=0
)
'j (z) P fun = jg = 'n (' (z)) :
n si ottiene
'n+1 (z) = 'n
In particolare, per k = n
k
'k+1 (z) :
(7.70)
1;
'n+1 (z) = ' ('n (z)) :
42
(7.71)
Esercizio 45 Dimostrare che se u0 6= 1 = k0 ; allora, '0 (z) = z k0 e '1 (z) = (' (z))k0 ; e che
ciò implica ancora la relazione 'n+1 (z) = 'n (' (z)) ; ma non 'n+1 (z) = ' ('n (z)) :
Sia ora
:= E ( ) < 1 e
2
= V ar ( ) < 1:
Osservazione 46 Siccome ' (1) = 1;
E (un+1 ) = '0n+1 (1) = '0n (' (1)) '0 (1) = '0n (1) '0 (1) :
(7.72)
Iterando,
n
n+1
'0n+1 (1) = ('0 (1)) '01 (1) = ('0 (1))
ma '0 (1) = '01 (1) = E (u1 ) = E
0;0
= : Pertanto, '0n+1 (1) =
(7.73)
;
n+1
:
Se p0 = 0; cioè da ogni nodo del grafo si generano sempre nuovi nodi, allora
P fjV ( )j < 1g = 0: Se invece 0 < p0 < 1; poniamo
qn := P fun = 0g = 'n (0) ;
(7.74)
qn+1 = 'n+1 (0) = ' ('n (0)) = ' (qn ) :
(7.75)
allora
Poiché p0 < 1, ' (s) ; s := <z; è una serie a termini non-negativi quindi è strettamente
crescente in [0; 1]: Pertanto,
(7.76)
q0 = '0 (0) = 0
q1 = '1 (0) = p0 > 0 ;
q2 = '2 (0) = ' ('1 (0)) = ' (q1 ) > q1
quindi, assumendo che qn > qn 1 ; per la (7.71), qn+1 = ' (qn ) > ' (qn 1 ) = qn : Allora la
successione fqn gn 0 è monotona crescente e limitata da 1: Dunque,
9 lim qn =
n!1
= P fT < 1g 2 (0; 1] :
dato che ' (s) è continua in [0; 1]; passando al limite si ottiene
dell’equazione
' (s) = s :
Inoltre
(7.77)
= ' ( ) ; cioè
è una radice
(7.78)
è la più piccola radice positiva di (7.78), infatti, 8s0 > 0 radice di (7.78),
q1 = ' (0) < ' (s0 ) = s0 :
(7.79)
Assumendo qn < s0 ; dalla (7.71) si ottiene qn+1 = ' (qn ) < ' (s0 ) = s0 : Quindi, per induzione
8n 0; qn < s0 dunque = limn!1 qn s0 ; cioè = minfs > 0 : ' (s) = sg:
43
Se si assume anche che p0 + p1 < 1; allora
(0; 1] 3 s 7 ! '00 (s) =
X
k (k
1) pk sk
2
> 0;
(7.80)
k 2
ovvero ' (s) è anche una funzione convessa in (0; 1] : Quindi,
poiché
0 < q1 < 1 = ' (1) ; la (7.78) può avere solo 2 soluzioni positive, di cui una è s = 1:
Notiamo che = '0 (1) è anche il coe¢ ciente angolare della tangente al gra…co di ' (s) ; per
s 2 (0; 1] ; nel punto s = 1: Allora,
se
se
> 1; 0 <
1;
< 1 cioè P fjV ( )j = 1g = P fT = 1g = 1
> 0;
= 1 cioè G ( ) è di taglia …nita con probabilità 1.
Per ulteriori approfondimenti sui processi di diramazione si rimanda per esempio a [KT].
Esercizio 47 Calcolare la probabilità di estinzione per il processo di diramazione nei casi
in cui ha distribuzione di Poisson di parametro c e binomiale di parametri n e p. Dimostrare che, se npn ! c; ; calcolata nel caso binomiale, convege al valore ottenuto in
n!1
quello poissoniano.
44
Bibliogra…a
[AS]
N. Alon & J. H. Spencer The Probabilistic Method II edition, John Wiley & sons, inc.
(2000).
[B1]
Béla Bollobás Graph Theory Springer-Verlag (1979).
[B2]
Béla Bollobás Random Graphs Academic Press (1985).
[G]
G. Grimmett Percolation II edition Springer-Verlag (1999).
[J×A] S. Janson, T. ×uczak & A. Rucinski Random Graphs John Wiley & sons, inc. (2000).
[KT] S.Karlin & H. M. Taylor A First Course in Stochastic Processes II edition Academic
Press (1975).
[P]
M. Penrose Random Geometric Graphs Oxford University Press (2003).
[S]
A. N. Shiryaev Probability II edition, Springer-Verlag (1989).
45
Scarica