Introduzione alla teoria dei Gra… Aleatori ed alla Percolazione Michele Gianfelice Dipartimento di Matematica Politecnico di Torino a.a. 2005/2006 Indice 1 Introduzione 3 I 4 Gra… aleatori 2 Il Grafo aleatorio di Erd½os-Rényi 2.1 Il modello G (n; p) . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Il modello G (n; M ) . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Analisi delle con…gurazioni di un grafo aleatorio . . . . . . . . . . 2.3.1 Valori di soglia per l’occorrenza di un grafo di taglia …ssata 2.3.2 Forma delle con…gurazioni di un grafo aleatorio . . . . . . 2.3.3 La componente gigante . . . . . . . . . . . . . . . . . . . . 2.3.4 Connettività . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.5 Diametro di un grafo aleatorio . . . . . . . . . . . . . . . . II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 6 7 7 11 14 14 18 21 Percolazione di Bernoulli 22 3 Il modello ed il fenomeno critico 23 4 Eventi crescenti 24 4.1 Disuguaglianza FKG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 4.2 Disuguaglianza BK . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 4.3 Formula di Russo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 5 Unicità del punto critico 25 5.1 Il caso bidimensionale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 III Appendice 26 6 Elementi di teoria dei gra… 28 1 7 Alcune nozioni di Calcolo delle Probabilità 7.0.1 Disuguaglianza di Markov, sue generalizzazioni e applicazioni . 7.1 Convergenza di successioni di v.a. . . . . . . . . . . . . . . . . . . . . 7.1.1 Convergenza quasi certa . . . . . . . . . . . . . . . . . . . . . 7.1.2 Convergenza in probabilità . . . . . . . . . . . . . . . . . . . . 7.1.3 Convergenza in media di ordine p . . . . . . . . . . . . . . . . 7.1.4 Convergenza in distribuzione (legge) . . . . . . . . . . . . . . 7.2 Processo di diramazione a tempo discreto e garfo di Galton-Watson . 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 33 37 37 37 38 38 40 Capitolo 1 Introduzione I gra… aleatori furono introdotti all’inizio degli anni ’50 da Paul Erd½os per studiare l’esistenza di gra… con caratteristiche speci…che. L’idea è quella di associare ad una collezione su¢ cientemente grande di gra… uno spazio di probabilità ( n ; Fn ; Pn ) e quindi rappresentare una data proprietà dei gra… come variabile aleatoria de…nita su questo spazio. Assumendo che, allorché il parametro n cresce, la collezione dei gra… s’ingrandisce, la proprietà in studio, tramite tale rappresentazione, de…nisce al variare di n una successione di variabili aleatorie il cui limite è l’oggetto d’interesse di detta costruzione. Più recenti, ovvero datati verso la …ne degli anni ’50, sono i processi di percolazione che furono introdotti da Broadent e Hammersley al …ne di modellizzare il passaggio di un ‡uido in un mezzo poroso. Se si modellizza un mezzo poroso come un retiticolo di canali di cui una frazione q sono ostruiti, si ha che la collezione dei canali non ostruiti (liberi) può considerarsi come l’insieme degli archi di un grafo i cui vertici sono gli snodi dei canali. Nel caso della percolazione di Bernoulli si considera che ogni canale, indipendentemente dagli altri, sia ostruito con probabilità q. Quindi, lo spazio di probabilità che si prende in considerazione è f0; 1gE ; B f0; 1gE ; Pp dove: E è la collezione dei canali, che è un insieme al più numerabile, B f0; 1gE è la algebra generata dai sottoinsiemi cilindrici di base …nita di f0; 1gE e Pp = N q. Ad ogni elemento di f0; 1gE e2E e ; con e misura di Bernoulli di parametro p = 1 corrisponde allora una con…gurazione di canali liberi e quindi un grafo aleatorio. 3 Parte I Gra… aleatori 4 Per la terminologia e la simbologia adottate in questa sezione, laddove non espressamente speci…cato, si rimanda all’appendice. 5 Capitolo 2 Il Grafo aleatorio di Erd½os-Rényi Dato n 2 N+ ; consideriamo il sottoinieme di N; Vn := f1; ::; ng e sia En := P2 (Vn ) : Se Kn = K (Vn ) è il grafo completo di insieme di vertici Vn ; indichiamo con Gn la collezione dei sottogra… spanning di Kn , ovvero 8G 2 Gn ; 9E (G) En tale che G = (Vn ; E (G)) : Notiamo che Gn è in corrispondenza biunivoca con P (En ) P (En ) 3 E 7 ! (Vn ; E) = G 2 Gn Gn 3 G = (Vn ; E (G)) 7 ! E (G) 2 P (En ) (2.1) (2.2) e che jP (En )j = 2jEn j ; jEn j = n2 : Associamo ora ad ogni elemento di En una variabile suscettibile di assumere solo due valori: En 3 e 7 ! ! (e) 2 f0; 1g ; (2.3) resta quindi de…nito := f0; 1gEn : Posto 8! 2 n ; E (!) := fe 2 En : ! (e) = 1g si ottiene una corrispondenza biunivoca tra n e P (EN ) e quindi una corrispondenza biunivoca tra n e Gn ; ovvero 3 ! 7 ! G (!) = (Vn ; E (!)) 2 Gn ; Gn 3 G 7 ! ! (G) 2 n : n con ! (G) vettore in 2.1 n (2.4) (2.5) di componenti ! (e) = 1E(G) (e) : Il modello G (n; p) Se Fn := P ( n ) ; de…niamo su ( n ; Fn ) una famiglia di variabili aleatorie indipendenti identicamente distribuite (v.a.i.i.d.) f e ge2En n 3!7 ! e (!) = 6 2 f0; 1g: (2.6) Allora, poiché per de…nizione f e ge2En è una famiglia di v.a. distribuite secondo la legge di Bernoulli, sia p 2 (0; 1), tale che p ( ) := p1f1g ( ) + (1 p) 1f0g ( ) : Quindi, il vettore aleatorio = ( e ; e 2 En ) è anch’esso un elemento di n ed ha distribuzione di probabilità Y Pf! 2 n : (!) = !g = Pf! 2 n : e (!) = ! (e) ; e 2 En g = ! 2 n: p (! (e)) ; e2En (2.7) Ovvero, se Pp;e := p e è la distribuzione di probabilità indotta da e su ( n ; Fn ) ; la distribuzione N di probabilità su ( n ; Fn ) de…nita tramite il vettore aleatorio , risulta P := p = e2En Pp;e : Consideriamo allora lo spazio di probabilità ( n ; Fn ; P) : Per la corrispondenza biunivoca tra n e Gn resta allora de…nito lo spazio di probabilità Gn ; P (Gn ) ; P ; dove se è la mappa 1 (!) = G 2 Gn ; P := P : n 3 ! 7 ! Considerare il modello G (n; p) signi…ca considerare lo spazio di probabilità Gn ; P (Gn ) ; P : 2.2 Il modello G (n; M ) Sia Gn;M := fG 2 Gn : jE (G)j = M g: Considerando l’attesa condizionata di P rispetto a Gn;M da G (n; p) si ottiene una distribuzione di probabilità uniforme su (Gn;M ; P (Gn;M )) : ~ ; Considerare il modello G (n; M ) signi…ca considerare lo spazio di probabilità Gn;M ; P (Gn;M ) ; P ~ è la distribuzione di probabilità uniforme. dove P Osservazione 1 Nel seguito ci restringeremo al caso del modello G (n; p) e per sempli…care la notazione, useremo P al posto di P e Pn (A) o Pp (A) per indicare la probabilità di un generico evento A 2 P (Gn ) ; ovvero per sottolineare la dipendenza di P dai paramentri n o p: Inoltre, talvolta sarà conveniente indicare con Gp il generico atomo di (Gn ; P (Gn ) ; P) e scrivere per esempio P (Gp 2 A) invece di Pp (A) : Per una giusti…cazione di questo fatto si veda il Lemma 4. Analoga notazione verrà usata per i valori attesi di v.a. rispetto a P o per altre quantità che di questi sono funzioni. 2.3 Analisi delle con…gurazioni di un grafo aleatorio 8H 2 Gn ; siano vH := jV (H)j ; eH := jE (H)j e 1H := 1fG2Gn : G Hg : Ricordando che 8H; H 0 2 Gn ; H H 0 indica che H e H 0 sono isomor…, siano inoltre Gn := Gn = e Gn (H) la classe d’equivalenza di H 2 Gn : De…nizione 2 8n 2; sia Q 2 P (Gn ) un insieme misurabile. Q è chiuso per isomor…smi se 8G 2 Q anche Gn (G) 2 Q. In quest’ultimo caso Q è detto proprietà di Gn : Una proprietà Q è detta crescente se G H; H 2 Q =) G 2 Q: 7 Una proprietà Q è detta convessa se H F; H; F 2 Q =) G 2 Q: G Osservazione 3 Notiamo che se Q è una proprietà, anche Qc lo è. Pertanto diremo che Q è decrescente se Qc è crescente, quindi che Q è monotona se è crescente o decrescente. Esempi di proprietà crescenti sono la collezione in Gn dei gra… connessi o di quelli che contengono un dato grafo. Lemma 4 Sia Q una proprietà crescente e 0 p1 Pp1 (Q) p2 1: Allora, (2.8) Pp2 (Q) Dimostrazione: Notiamo che lo spazio di probabilità (Gn ; P (Gn ) ; Pp2 ) può essere realizzato nel modo seguente: dati gli spazi di probabilità (Gn ; P (Gn ) ; Pp0 ) ; (Gn ; P (Gn ) ; Pp1 ) ; consideriamo le applicazioni misurabili Gn Gn Gn 3 (G; G0 ) 7 ! Gn 3 (G; G0 ) 7 ! (G; G0 ) = G 2 Gn 0 0 1 (G; G ) = G 2 Gn 0 (2.9) (2.10) Allora, se Gn scegliendo p0 = Gn 3 (G; G0 ) 7 ! p2 p1 ; 1 p1 p0 0 (G; G0 ) \ (G; G0 ) 2 Gn ; (2.11) Pp0 (G) Pp1 (G) : (2.12) 1 si ha Pp2 (G) = (Pp0 Poiché p2 (G; G0 ) := Pp1 ) 1 (G) = Pp0 (G) + Pp1 (G) p1 ; 9G0 ; G2 2 Gn : Pp0 (G) = Pp1 (G0 ) ; Pp2 (G) = Pp1 (G2 ) ; quindi Pp1 (G2 ) = Pp1 (G0 ) + Pp1 (G) Pp1 (G0 ) Pp1 (G) ; (2.13) cioè G2 = G0 [ G: Conviene dunque riscrivere la precedente relazione nel modo seguente P (Gp2 ) = P (Gp0 ) + P (Gp1 ) P (Gp0 ) P (Gp1 ) ; (2.14) ride…nendo G = G1 e per i = 0; 1; 2; Gi = Gpi ; per cui Ppi (G) = P (Gpi ). Dunque 8Gp1 ; 9Gp2 : Gp1 Gp2 e siccome Q è crescente, se Gp1 2 Q allora Gp2 2 Q; da cui segue la tesi. Esercizio 5 Dimostrare la (2.12). De…nizione 6 Una successione fpn gn 2 è detta soglia per una proprietà monotona Q se: P (Gp 2 Q) = Pn (Q) ! n!1 8 0 se pn << pn : 1 se pn >> pn (2.15) Osservazione 7 Segue dalla de…nizione precedente che se p^n proprietà monotona Q; allora anche p^n è una soglia per Q: pn e pn è una soglia per la Data una proprietà monotona Q e a 2 (0; 1) ; sia p (a) 2 (0; 1) tale che (2.16) Pp(a) (Q) = a Proposizione 8 Sia Q una proprietà crescente. pn è una soglia per Q () 8a 2 (0; 1) ; pn (a) pn : Dimostrazione: =) Se pn (a) non è asintoticamente equivalente a pn ; esiste una sottosuccessione fn0 g fng tale che pn0 (a) 0 ! : (2.17) pn n!1 1 Allora, p (a) se limn!1 np0n = 0 poiché pn è una soglia limn0 !1 Ppn0 (a) (Q) = 0 contro l’ipotesi che limn!1 Ppn (a) (Q) = a: p (a) Se invece limn!1 np0n = 0 ne segue che limn0 !1 Ppn0 (a) (Q) = 1 contro l’ipotesi che limn!1 Ppn (a) (Q) = a: (= Se pn non è una soglia, esiste una successione fpn g tale che o limn!1 ppnn = 0 e limn!1 Ppn (Q) > 0; oppure limn!1 ppnn = 1 e limn!1 Ppn (Q) < 1: Nel primo caso, esiste " 2 (0; 1) ed una sottosuccessione fn0 g fng tale che Ppn0 (Q) > " il che, per il lemma precedente, implica pn (") pn << pn : Nel secondo caso, esiste " 2 (0; 1) ed una sottosuccessione fn0 g fng tale che Ppn0 (Q) < " il che implica pn << pn pn (") : In entrabi i casi esiste " 2 (0; 1) tale che pn non è asintoticamente equivalente a pn (") contro l’ipotesi che pn pn (") ; 8" 2 (0; 1) : Teorema 9 Ogni proprietà monotona ammette una soglia. Dimostrazione: Senza perdita di generalità si può assumere Q crescente. Sia allora 8" 2 (0; 1) ; p (") 2 (0; 1) : Pp(") (Q) = " e m (") 2 N+ : (1 ")m ": Sia G(m) 2 Gn unione di m m (") copie indipendenti (separate) G(i) ; i = 1; ::; m di un generico grafo G: Allora, Pp(") G(m) = p0 (") = 1 (1 p ("))m mp (") (2.18) e per il Lemma (4) P Gp0 (") 2 Q P Gmp(") 2 Q : 9 (2.19) Inoltre, siccome Q è crescente se 8i = 1; ::; m; G(i) 2 Q; allora anche ! m [ Pp(") G(i) 2 =Q Pp(") G(i) 2 = Q; 8i = 1; ::; m Sm i=1 G(i) 2 Q; perciò (2.20) i=1 che unitamente alla (2.19) implica Pmp(") (Q) m [ Pp(") G (i) i=1 Pertanto, 8" 2 0; 12 ; m m Pp(") (G 2 Q) = 1 2Q ! 1 = (1 " = Pp(1 ")m ") "; (2.21) (Q) : m (") p (") p 1 2 p (1 ") (2.22) mp (") Poiché questa relazione non cambia se si sostituisce a p il generico temine di una successione fpn gn 2 ; ma soprattutto m (") non dipende da n, si ha pn (") pn 1 2 pn (1 da cui, per la proposizione precente segue che fpn 1 2 gn (2.23) ") 2 è una soglia per Q: De…nizione 10 Sia pn una soglia per una proprietà monotona Q: pn è detta essere …ne se 8" 2 (0; 1) 0 se pn (1 ") pn Ppn (Q) ! : (2.24) 1 se pn (1 + ") pn n!1 Infatti, se 8" 2 (0; 1) de…niamo (") := p (1 dal 8m teorema precedente segue m (") ; p (1 ") mp (") e 1 che ") p (") log " log(1 ") m (") p (1 ") p (") (2.25) 0 1 " 1 1 log : " " log 1" ; percui (2.26) Ma, p (1 ") = p (") p(1 ") p( 12 ) p(") p( 12 ) perciò, nel caso che pn sia una soglia …ne, si ha che 8" 2 0; 12 ; n (") = pn (1 ") 10 (2.27) ; pn (") = o (pn ) : pn (") ! pn ( 12 ) n!1 1e (2.28) 2.3.1 Valori di soglia per l’occorrenza di un grafo di taglia …ssata 8H 2 Gn ; indichiamo con XH := P H 0 2Gn (H) jGn (H)j = P 1H 0 = H 0 Kn : H 0 H 1H 0 : Allora, poiché n vH ! ; vH jaut (H)j (2.29) con aut (H) l’insieme degli automor…smi di H; si ha n vH ! peH vH jaut (H)j n En (XH ) = nvH penH : (2.30) Per la disuguaglianza di Markov Pn (XH > 0) En (XH ) ; ma ( vH 0 se pn << n eH vH En (XH ) ! : n!1 1 se pn >> n eH Osservazione 11 Nel caso in cui pn >> n Pn (XH > 0) ! 1: Infatti, considerando i gra… vH eH (2.31) ; dalla (2.31) non si può inferire che n!1 H n p F p n p vH = 4 eH = 5 se n 5 6 << pn << n 4 5 ; si ha En (XF ) p vF = 5 eF = 6 ! 1 e En (XH ) n!1 ! 0; anche se H n!1 F: Quindi la stima del valore atteso di XH non è su¢ ciente per studiare la distribuzione asintotica delle realizzazioni di un grafo random, pertanto è necessario studiarne la varianza. Osservazione 12 8G 2 Gn sia (G) := min fE (XH ) : H Poiché En (XH ) (2.32) G; eH > 0g : nvH penH ; n (G) min H G; eH >0 nvH penH = min H G; eH >0 npn Lemma 13 8G 2 Gn ; le seguenti a¤ermazioni sono equivalenti: 11 eH vH vH (2.33) m(G) 1. npn 2. nvH penH ! 1; n!1 3. En (XH ) 4. n (G) ! 1; 8H G; vH > 0 ; ! 1; H G; vH > 0 ; n!1 n!1 ! 1: n!1 dove m (G) indica la densità massima di G (cfr. (6.8)). Dimostrazione: eH vH npn Data l’a¤ermazione 1. eH vH nvH penH = " 1; ma siccome En (XH ) Per la de…nizione di segue che 8H vH npn G tale che vH > 0; allora 1. implica 2. e viceversa. (G), 4. implica 3. e viceversa. Lemma 14 Sia G 2 Gn : eG > 0: Allora V arn (XG ) (1 pn ) In particolare, se pn < 1; V arn (XG ) Dimostrazione: 8G 2 Gn ; V ar (XG ) = (En (XG ))2 : n (G) (2.34) (En (XG ))2 : n (G) (2.35) cov (1G0 ; 1G00 ) ; (2.36) X G0 ;G00 ma 1G0 e 1G00 sono indipendenti se separati, ovvero se E (G0 ) \ E (G00 ) = ;; quindi X V ar (XG ) = cov (1G0 ; 1G00 ) G0 ;G00 = (2.37) : E(G0 )\E(G00 )6=; X [E (1G0 1G00 ) E (1G0 ) E (1G00 )] : G0 ;G00 : E(G0 )\E(G00 )6=; Sia H 2 Gn tale che E (H) = E (G0 ) \ E (G00 ) : Per la (2.29), jGn (H)j nvH n2(vG 12 vH ) = n2vG vH ; (2.38) quindi X V arn (XG ) n2vG vH n2vG vH 2eG eH pn pn2eG eH pn2eG (2.39) H G : eH >0 X (1 pn ) H G : eH >0 (1 = (1 Teorema 15 8G (En (XG ))2 pn ) max H G : eH >0 En (XH ) (En (XG ))2 pn ) : n (G) Gn : eG > 0 Pn (XG > 0) ovvero la successione fn 1 m(G) gn 1 ! n!1 ( 0 se pn << n 1 se pn >> n 1 m(G) 1 m(G) (2.40) ; è una soglia per la proprietà Q = fH 2 Gn : H Gg: Dimostrazione: La prima a¤ermazione segue dalla disuguaglianza di Markov, dato che in questo caso En (XG ) = o (1) : La seconda a¤ermazione, invece, segue dai due precedenti 1 lemmata. Infatti, poiché pn >> n m(G) ; per il primo lemma, n (G) ! 1: Quindi, poiché n!1 dalla disuguaglianza di Chebichev segue che V ar (XG ) ; (E (XG ))2 P (XG = 0) (2.41) dal lemma precedente si ha che V arn (XG ) (En (XG ))2 Pertanto Pn (XG > 0) = 1 (1 pn ) = o (1) : n (G) (2.42) o (1) : Osservazione 16 Dalla dimostrazione precedente XG ! 1; allora En (XG ) converge a 1 in probabilità. n (G) n!1 13 segue anche che se 2.3.2 Forma delle con…gurazioni di un grafo aleatorio k k+1 Proposizione 17 8k 2 …ssato, se n k 1 << pn << n k ; le con…gurazioni tipiche di un grafo aleatorio risultano essere una collezione di alberi ( foresta) di ordine al più k: Dimostrazione: Se Tk 2 Gn è un albero di ordine k; vTk = k; e eTk = k m (Tk ) = k k 1 : Pertanto, per il teorema precedente, Pn (XTl > 0) 1: Quindi 1 se l k 0 se l = k + 1 ! n!1 (2.43) da cui segue che non esistono alberi più grandi di Tk : Esercizio 18 dimostrare che la proposizione 1 k = k (n) << (log n) 2 : Infatti per ipotesi n Proposizione 19 Se npn contengono cicli. 1 k(n) 1 << npn << n precedente 1 k(n) vale anche se (2.44) : ! 0; allora le con…gurazioni tipiche di un grafo aleatorio non n!1 Dimostrazione: Se Cl 2 Gn è un ciclo di lunghezza l; vCl = l = eCl : Allora, jGn (Cl )j = Quindi, En X l 3 XCl ! = n l! : l 2l X n (l 1)! pln l 2 l 3 e la tesi segue dalla disuguaglianza di Markov. 2.3.3 X l 3 (2.45) (npn )l (npn )3 !0 n!1 (2.46) La componente gigante La dimostrazione del risultato che segue si basa sulle nozioni di disuguaglianza di Chernov e di processo di diramazione esposte in appendice. Teorema 20 Sia npn = c; con c costante positiva. 1. Se c < 1; la probabilità che il sottografo connesso di taglia massima di un grafo aleatorio contenga al più (1 3c)2 log n vertici tende a 1 per n ! 1: 14 2. Se c > 1; sia c soluzione dell’equazione c + e c c = 1: Allora, il sottografo connesso di taglia massima di un grafo aleatorio ( componente gigante) contiene, nel limite di n che diverge, un numero di vertici proporzionale a n c , mentre la probablilità che il sottografo connesso di un grafo aleatorio di taglia maggiore dopo la componente gigante contenga al più (1 16c)2 log n vertici tende a 1 per n ! 1: Dimostrazione: La dimostrazione di questo risultato si basa sulla seguente costruzione che genera l’albero di massimo ordine contenuto in una componente del grafo aleatorio alla stregua dell’albero di Galton &Watson. Più precisamente, dato un grafo aleatorio G; se 8v 2 Vn indichiamo con Cv = Cv (G) la componente connessa di G contenente v; la procedura che segue permette di costruire un albero T tale che V (T ) V (Cv ) : Algoritmo 21 Sia G una data con…gurazione del grafo aleatorio. passo 0 Scelto un vertice v 2 Vn ; si consideri N (v) : passo1 Sia Wr := lex N (v) = fw0 ; ::; wr g; 0 e si ponga i := 0: passo 2 Se i r n il riordinamento lessicogra…co di N (v) r; si consideri N (wi ) nWr : Se N (wi ) nWr 6= ;; si ponga N (v) := N (wi ) [ Wr e si torni al passo 1. Se N (wi ) nWr = ;; si ponga i := i + 1 e si torni al passo 2. Se i = r + 1; si ponga V (Cv ) := Wr e stop. passo 3 Se Vn nV (Cv ) 6= ;; si scelga v 0 2 Vn nV (Cv ) e si torni al passo 0 sostituendo v 0 a v; altrimenti stop. 8i 0; Xi := jN (wi ) nWr j dipende dalla realizzazione del grafo aleatorio G; ed è dunque una v.a.. La legge secondo cui sono distribuite le Xi è binomiale di parametri n jWr j ; nc : Infatti, considerando la seguente procedura Algoritmo 22 passo 0 Scelto un vertice v 2 Vn ; si generi N (v) secondo la legge binomiale di parametri n e nc : passo1 Sia Wr := lex N (v) = fw0 ; ::; wr g; 0 e si ponga i := 0: r n il riordinamento lessicogra…co di N (v) passo 2 Se i r; si generino degli archi tra wi e gli elementi di Vn nWr in maniera indipendente secondo la legge di Bernoulli di parametro nc e si consideri N (wi ) : Se N (wi ) nWr 6= ;; si ponga N (v) := N (wi ) [ Wr e si torni al passo 1. Se N (wi ) nWr = ;; si ponga i := i + 1 e si torni al passo 2. Se i = r + 1; si ponga V (Cv ) := Wr e stop. 15 passo 3 Se Vn nV (Cv ) 6= ;; si scelga v 0 2 Vn nV (Cv ) e si torni al passo 0 sostituendo v 0 a v; altrimenti stop. Se i = r + 1; stop. 8i 0; Zi := jN (wi ) nWr j ; come somma di n jWr j v.a. di Bernoulli di parametro c ; segue la legge binomiale di parametri n jWr j ; nc : Poiché generare una con…gurazione di n un grafo aleatorio equivale a generare una con…gurazione di archi tra gli elementi di Vn in maniera indipendente secondo la legge di Bernoulli, 8v 2 Vn le due procedure danno luogo ad D alberi aleatori che hanno la stessa distribuzione, quindi, 8i 0; Xi = Zi : c<1 Siano Xi+ ; i 0 una collezione di v.a.i.i.d. secondo la legge binomiale di parametri n e c . Poiché 8x > 0; P (Xi > x) P Xi+ > x ; n ! k X Pn (jV (Cv )j k + 1) P Xi+ k (2.47) i=1 D Pn ma, 8i 0; Xi+ = j=1 Yij ; dove le Yij ; j = 1; ::; n; sono v.a.i.i.d. bernoulliane di parametro nc : Perciò, per la disuguaglianza di Chernov e per il Lemma (37) ! ! ! k k X n nk X X X P Xi+ k P Yij k P Yi k (2.48) i=1 i=1 j=1 exp Quindi, 8" > 0; k i=1 nkH k c j nk n e k(c 1+log 1 c ) e k (1 c)2 2 2(1+") log n (1 c)2 Pn (jV (Cv )j k + 1) Pn (9v 2 Vn : jV (Cv )j k + 1) e (1+") log n ; X Pn (jV (Cv )j (2.49) k + 1) ne (1+") log n : (2.50) v2Vn 2 c>1 Siano k := (c16c1)2 log n e k+ := n 3 : Dimostriamo che non esistono componenti del grafo aleatorio la cui taglia è compresa tra i valori k e k+ : A tal …ne è su¢ ciente dimostrare che da qualsiasi vertice si inizializza la procedura di costruzione dell’insieme dei vertici di una componente del grafo aleatorio, dopo k 2 (k ; k+ ) iterazioni, la probabilità che la procedura si arresti prima di aver aggiunto almeno (c 21)k nuovi vertici, tende a zero per n ! 1: Più precisamente, sia Bv (k) := fG 2 Gn : alla k-sima iterazione, la procedura termina prima (c 1) k di aver aggiunto a V (Cv (G)) almeno nuovi vertici : 2 16 (2.51) Notiamo che Bv (k) fjV (Cv )j k + (c 2 1) k = c+1 kg e 8i 0; x > 0 P (Xi x) 2 P Xi x ; dove le Xi si distribuiscono secondo la legge binomiale di parametri n c+1 k+ ; nc : Dunque, procedendo come nel caso precedente, posto " = c+11 ; 2 2n 3 Pn (Bv (k)) Pn jV (Cv )j e Allora 0 Pn @ [ [ v2Vn k2(k ;k+ ) c+1 k 2 c+1 (1 ")nkH ( 2(1 jc ") n ) 1 Bv (k)A n X e e k X P c+1 k 2 Xi i=1 (c 1)2 k 9c (c 1)2 k 9c ! (2.52) : 5 n3 e (c 1)2 k 9c 1 9 =n ! 0 : (2.53) n!1 k2(k ;k+ ) Quindi, quindi la taglia di una componente del grafo aleatorio o è al più pari a k o è maggiore di k+ ; poiché quanto sopra esposto dimostra che la probabilità che la procedura di costruzione dell’insieme dei vertici di una componente del grafo aleatorio, dopo k 2 (k ; k+ ) iterazioni, si arresti prima di raggiungere la k+ -sima iterazione, tende a zero per n ! 1: Supponendo che, scelto v 2 Vn ; la procedura sia giunta alla k+ -iterazione, allora i nuovi vertici da aggiungere per costruire V (Cv (G)) sono almeno c 2 1 k+ : Quindi, …ssati v; u 2 Vn la probabilità che dopo la k+ -sima iterazione della procedura questi risultino ancora in due insiemi di vertici distinti è più piccola della probabilità che non si generino archi tra i restanti vertici ancora da aggiungere per completare V (Cv (G)) e V (Cu (G)) ; 2 (c 1k ) ovvero 1 nc 2 + : Perciò, 2 Pn (jV (Cv )j ; jV (Cu )j k+ ; Cv \ Cu = ;) 1 e Pn (9 al più 2 u; v : jV (Cv )j ; jV (Cu )j k+ ; Cv 6= Cu ) c ( c 2 1 k+ ) n c(c 1)2 1 n3 4 n2 e (2.54) ; c(c 1)2 1 n3 4 ! 0 : (2.55) n!1 cioè la probabilità che esista un unica componente del grafo aleatorio di taglia maggore 2 di n 3 tende a uno per n ! 1: Per stimare la taglia della componente gigante, de…niamo X Y := 1fG2Gn : jV (Cv (G))j k g : (2.56) v2Vn Allora, la taglia della componente gigante è n Y: Poiché se jV (Cv )j k 8i 0; x > 0 P (Xi x) P Xi x ; dove le Xi si distribuiscono secondo la legge binomiale 17 di parametri n k ; nc ; Pn (jV (Cv )j con k ) probabilità di estinzione del D processo di diramazione di Galton & Watson con = Xi : Allo stesso modo, poiché le Xi sono stocasticamente dominate dalle Xi+ si ha che Pn (jV (Cv )j k ) = o (1) dove ; sono rispettivamente la probabilità di estinzione del processo di diramazione di D Galton & Watson con = Xi e taglia minore o uguale a k e quella senza quest’ultima c c condizione. Poiché ! c = 1 = 1; (cfr. c soluzione dell’equazione c + e n!1 Esercizio 47), si ha X Pn (jV (Cv )j X Pn (jV (Cu )j ; jV (Cv )j En (Y ) = k ) n (1 c) (2.57) : v2Vn Inoltre, En (Y (Y 1)) = u;v2Vn u6=v = X u;v2Vn u6=v + X u;v2Vn k Pn (u 2 Cv ; jV (Cv )j k )+ Pn (jV (Cu )j ; jV (Cv )j X (2.58) k ) k ; Cu \ Cv = ;) k ) + (En (Y ))2 ; Pn (jV (Cv )j v2Vn da cui segue V arn (Y ) n (1 + log n) (1 c) + o (1) << (En (Y ))2 Quindi per la disuguaglianza di Chebichev 2.3.4 Y En (Y ) n2 (1 2 c) : (2.59) P ! 1: Connettività Teorema 23 Se npn = c + log n + o (1) ; c > 0; allora la probabilità che un grafo aleatorio e c risulti connesso converge per n ! 1 a e : P Dimostrazione: Sia Iu := 1fH2Gn :N (u)=;g e X := u2Vn Iu percui X (G) rappresenta il numero dei nodi isolati presenti nel grafo aleatorio G: Poiché, En (Iu ) = (1 n 1 pn ) (n 1) log(1 =e 18 c+log n+o(1) n ) e c ; n (2.60) En (X) ! e c : Consideriamo ora 81 r < n; l’r-simo momento fattoriale di X; n!1 (X)r := X (X 1) (X En ((X)r ) = r + 1) : X En (Iu1 Iur ) = n! En (Iu1 r! nr (1 pn )nr ui 2Vn ; i=1;::;r u1 6=::6=ur = n! (1 r! pn )r(n = nr 1 r)+(r2) c + log n + o (1) n nr nr e (2.61) Iur ) r(c+log n) = e c r : D Quindi, (cfr. [B2] Teoremi I.20, I.21) X ! Y con Y v.a. distribuita decondo la legge di c Poisson di parametro e c , perciò Pn (X = 0) ! e e : n!1 Inoltre, 82 k n2 ; sia Ik := fG 2 Gn : 9H G tale che N (H) = ;; jV (H)j = kg ; (2.62) cioè l’evento che una componente connessa isolata del grafo aleatorio abbia ordine k: Siccome ogni componente connessa di un grafo aleatorio di ordine k contiene un albero di albero dello stesso ordine e poiché 8k 2; jfTk gj = k k 2 ; n k 2 k k pn k Pn (Ik ) 1 (1 pn )k(n k) : (2.63) ! 0: (2.64) Per k = 2; Pn (I2 ) = Per 3 k n pn (1 2 pn )2(n 2) log n n n!1 n ; 2 n n + (n k) log ; k n k n n log Pn (Ik ) k log + (n k) log + (k 2) log k+ k n k + (k 1) log pn + k (n k) log (1 pn ) k k log n log k 2 pn + k k 1 npn := fn (k) : n log n k k log Ma fn (k) è convessa e fn (3) 3 n log n ; fn 2 2 19 n; (2.65) (2.66) perciò fn (k) 3 2 log n; 8k 2 f3; ::; n2 g; da cui segue che Pn (Ik ) 0 1 [ 3 Pn @ Ik A ne 2 log n ! 0 : 3 k e 3 2 log n e (2.67) n!1 n 2 Dunque per npn = O (log n) la probabilità che un grafo aleatorio sia costituito dalla sua componente gigante e da una collezione di vertici isolati tende ad uno per n ! 1: Esercizio 24 Dimostrare che se X è una v.a. distribuita secondo la legge di Poisson di parametro > 0; allora 8r 1; E ((X)r ) = r : Esercizio 25 Dimostrare la (2.65). Teorema 26 Per ogni k 1 intero, se npn = c + log n + k log log n; Pn ( (G) = m) ! n!1 m;k 1 e e c k! + m;k+1 e e c k! : (2.68) Schema della dimostrazione: Ricordiamo che 8u 2 Vn ; deg (u) si distribuisce secondo la legge binomiale di parametri (n 1; pn ) e che questa si può approssimare con la legge 1 di Poisson di parametro npn : Inoltre, (cfr. [B2] Teoremi I.1 e III.2) se npn >> n 2 la distribuzione dei gradi dei punti del grafo aleatorio si può approssimare con quella di un vettore aleatorio di componenti i.i.d. poissoniane di parametro npn : Sia fYi gi=1;::;n una collezione di n v.a.i.i.d. distribuite secondo tale legge. Allora, Pn ma Pm min Yi > m i=1;::;n m! i=1 (m i)!(npn )i Pn = [Pn (Y1 > m)]n = (1 Pn (Y1 m))n " #!n m X m! (npn )m npn e 1+ ; = 1 m! (m i)! (npn )i i=1 (2.69) = o (1) : Quindi, !n e c 1 m (c + log n + k log log n) (1 + o (1)) min Yi > m = 1 i=1;::;n m! n (log n)k !n (log n)m k e c = 1 (1 + o (1)) m!n 8 ! m<k > < 1 (log n)m k e c e c exp = exp n log 1 (1 + o (1)) ! m=k : k! n!1 > m!n : 0 m>k Poiché Pn (mini=1;::;n Yi = m) = Pn (mini=1;::;n Yi > m tesi. 20 1) (2.70) Pn (mini=1;::;n Yi > m) si ha la 2.3.5 Diametro di un grafo aleatorio Teorema 27 Sia 8" > 0; npn = (1 + ") log n: Allora, log n log log n diam (Gp ) 2 log n : log log n (2.71) Schema della dimostrazione: Dato u 2 Vn ; poniamo N1 (u) = N (u) e de…niamo Nk (u) := N (Nk 1 (u)) ; 2 k (2.72) n: W Allora Cu = k 1 Nk (u) e Yk := jNk (u)j : Procedendo come nella dimostrazione della disuguagluanza di Chernov, dal Lemma (37) si ha che p p p p log n " " [ log n log (1+") log n+(1+") log n] log n log n e (2.73) Pn Y1 e (1+ 2 ) log n = n (1+ 2 ) Pk 1 Poiché subordinatamente a Yk 1 ; Yk ha distribuzione binomiale di parametri n i=1 Yi e Yk 1 (1 (1 pn )) (cfr. [B2] Lemma X.2.6), ragionando analogamente alla stima precedente si ha p p " Pn Y2 Y1 log njY1 log n n (1+ 2 ) ; (2.74) Pn Yk Yk 1 p .. . log njYk 1 (log n) k 1 2 " n (1+ 2 ) : Quindi, scelto un vertice del grafo u; il numero di passi e¤ettuare per esplorare la sua p k da log n componente connessa e realizzare che la sua taglia è n è log log n ; perciò Pn jCu j Pn 9u 2 V (G) : jCu j p n p n " log n n (1+ 2 ) log log n " n 3: " n (1+ 3 ) ; (2.75) (2.76) p Ciò dimostra che 8u 2 V n e che n ; la taglia della sua componente connessa è maggiore di p log n nel caso jCu j n; la distanza tra v 2 Cu e u è al più log log n : Inoltre, se Cu ; Cv sono tali che p jCu j ; jCv j n; pn )jCu jjCv j (1 pn )n n (1 + ") log n 1 n (1+") : n Pn (EG (Cu ; Cv ) = ;) = (1 = (2.77) Allora, Pn (9fu; vg 2 Vn Vn : EG (Cu ; Cv ) = ;) da cui segue che la distanza tra due punti di Gp è al più 21 2 logloglogn n : n " (2.78) Parte II Percolazione di Bernoulli 22 Capitolo 3 Il modello ed il fenomeno critico cfr. [G] Cap.1, Par. 1.1-1.5 . 23 Capitolo 4 Eventi crescenti cfr. [G] Cap.2 Par. 2.1 . 4.1 Disuguaglianza FKG cfr. [G] Cap.2 Par. 2.2 . 4.2 Disuguaglianza BK cfr. [G] Cap.2 Par. 2.3 . 4.3 Formula di Russo cfr. [G] Cap.2 Par. 2.4 . 24 Capitolo 5 Unicità del punto critico cfr. [G] Cap.3 Par. 3.3 . 5.1 Il caso bidimensionale cfr. [G] Cap.9 Par. 9.1-9.3 . 25 Parte III Appendice 26 Laddove non espressamente speci…cato, per la notazione, si rimanda all’indice delle notazioni ed al cap. 1 di [J×A]. In particolare, per n ! 1 : an bn se an = O (bn ) ; bn = O (an ) ; an << bn o bn >> an se an 0 e an = o (bn ) : 27 Capitolo 6 Elementi di teoria dei gra… I gra… considerati in queste note sono così de…niti. Dato un insieme V sia P2 (V ) := fA V : jAj = 2g e V P2 (V ) 3 (v; e) 7 ! 1e (v) 2 f0; 1g: (6.1) De…niamo quindi V (e) := fv 2 V : 1e (v) = 1g e 2 P2 (V ) : (6.2) S Dato E P2 (V ), evetualmente vuoto, sia V (E) := e2E V (e) : Una coppia (V 0 ; E) tale che V (E) V0 V; è detto grafo di insieme dei vertici V 0 e insieme degli archi (lati) E. In particolare: 8V 0 V 0; V il grafo associato alla coppia (V 0 ; ;) è detto grafo vuoto d’insieme dei vertici il grafo il cui insieme dei vertici è l’insieme vuoto, ed il cui insieme degli archi è quindi vuoto è detto grafo nullo ed è indicato dal simbolo ;; 8V 0 V il grafo (V 0 ; P2 (V 0 )) è detto grafo completo d’insieme di vertici V 0 : Quindi, se G è un grafo: G = (V (G) ; E (G)) ; dove V (G) ed E (G) indicano l’insieme dei vertici e degli archi di G e V (G) V (E (G)) : In particolare, K (V ) := (V; P2 (V )) e K (E) := K (V (E)) : Se V (G) = V; V (e) si dice insieme dei vertici adiacenti rispetto ad e; Inoltre EG (v) := fe 2 E (G) : 1e (v) = 1g v 2 V ; è detto insieme degli archi (o dei lati) incidenti nel vertice v e [ N (v) := V (e) e2E(v) 28 (6.3) (6.4) è detto intorno chiuso del vertice v: De…niamo inoltre,SN (v) := N (v) nfvg l’intorno del vertice v. Allo stesso modo 8V 0 V siano N (V 0 ) := v2V 0 N (v) l’intorno chiuso di V 0 e N (V 0 ) = N (V 0 ) nV 0 l’intorno di V 0 : Dato un grafo G = (V (G) ; E (G)) ; il grafo G0 = (V (G0 ) ; E (G0 )) tale che E (G0 ) E (G) e V (E (G0 )) V (G0 ) V (G) è detto sottografo di G (G0 G) : In particolare: se V 0 V (G) ; il sottografo G (V 0 ) = (V 0 ; E (V 0 )) tale che E (V 0 ) = E (G) \ P2 (V 0 ) è detto grafo indotto (o spanned) da V 0 ; se E P2 (V (G)) ; il sottografo G (E) = (V; EG ) tale che EG = E \ E (G) è detto spanning; pertanto ogni grafo G può essere considerato come sottografo spanning di K (V (G)) : Inoltre, 8V 0 ; V 00 V; EG (V 0 ; V 00 ) := fe 2 E (G) : jV (e) \ (N (V 0 ) \ V 00 )j = jV (e) \ (N (V 00 ) \ V 0 )j = 1g (6.5) è l’insieme degli archi di G che connettono i vertici di V 0 con quelli di V 00 : Due gra… G e G0 si diranno: disgiunti (G \ G0 = ;) se V (G) \ V (G0 ) = ;; e-disgiunti o separati (G \e G0 = ;) se E (G) \ E (G0 ) = ;: Dati due gra… G e G0 il grafo G00 := G [ G0 = (V (G) [ V (G0 ) ; E (G) [ E (G0 )) è detto unione di G e G0 : Inoltre un grafo G di dirà connesso se non può essere realizzato come unione di due o più gra… disgiunti. In caso contrario, i sottogra… connessi di G massimali, ovvero quelli che non sono sottogra… connessi di nessun altro sottografo connesso di G; sono detti componenti (connesse o isolate) di G: Dato un grafo G = (V (G) ; E (G)) ; siano vG := jV (G)j l’ordine di G e eG := jE (G)j : 8v 2 V; deg (v) := jE (v)j = jN (v)j è detto grado del vertice v: (G) := min deg (v) ; (G) := max deg (v) v2V (G) v2V (G) (6.6) sono detti rispettivamente grado minimo e grado massimo di G: Ovviamente, 0 De…niamo d (G) := eG vG (G) (G) la densità di G, allora m (G) := max 1 vG eH :H vH 29 vG P 1: v2V (G) (6.7) deg (v) = 2 veGG = 2d (G) : Inoltre, G; vH > 0 (6.8) è detta densità massima di G: Allora, un grafo G tale che m (G) = d (G) è detto essere bilanciato ovvero se 8H G; d (H) d (G) : Nel caso in cui 8H G; d (H) < d (G), G è detto essere strettamente bilanciato. Due gra… G e G0 si diranno isomor… (G G0 ) se esiste un’applicazione biunivoca : V (G) ! V (G0 ) tale che se v; v 0 2 V (G) sono adiacenti allora anche (v) ; (v 0 ) 2 (V (G)) = V (G0 ) sono adiacenti. In altre parole, se esiste un’applicazione biunivoca da V (G) in sé, tale che, dato v 2 V (G) ; se v 0 2 N (v) allora (v 0 ) 2 N ( (v)) e il grafo (V (G) ; E 0 ) ; con E 0 = fe0 2 P2 (V (G)) : 9e 2 E (G) tale che V (e0 ) = (V (e))g ; (6.9) è detto essere isomorfo a G: Per la ulteriori nozioni di teoria dei gra…, nonché per estensioni e generalizzazioni di quanto sopra esposto, si rimanda a [AS], [B1, B2] e [J×A]. 30 Capitolo 7 Alcune nozioni di Calcolo delle Probabilità Quanto di seguito esposto ha scopo quasi esclusivamente notazionale. Verranno introdotte inoltre alcune nozioni di Calcolo delle Probabilità che generalmente non sono trattate nei corsi di base mentre, per quanto riguarda quelle di base, si rimanda ai testi standard sull’argomento, per esempio [S], a meno che non sia diversamente speci…cato. Sia un insieme e F una algebra di suoi sottoinsiemi. La coppia ( ; F) è detta spazio misurabile. Nel caso in cui Rn ; n 1 si assumerà F B (Rn ) ; ovvero (sub) algebra della algebra dei boreliani di Rn : Data una coppia di spazi misurabili ( ; F) e ( ; X ) ; un’applicazione X : ! è detta 1 misurabile se 8B 2 X ; X (B) 2 F: Una variabile aleatoria è un’applicazione misurabile tra ( ; F) e (R; B (R)) ; un vettore aleatorio è un’applicazione misurabile tra ( ; F) e (Rn ; B (Rn )) ; mentre una generica applicazione misurabile tra spazi misurabile è detta elemento aleatorio. Sia P ( ; F) l’insieme delle misure di probabilità sullo spazio misurabile ( ; F). Scelto un elemento P 2P ( ; F) ; la terna ( ; F; P) è detta spazio di probabilità (probabilizzato). Inoltre, sia P F := fA : 9A ; A+ 2 F tale che A A A+ ; P (A+ nA ) = 0g F: (7.1) P F è una algebra, ed è detta completamento di F rispetto a P: Ne segue che P si può estenP P dere a F de…nendo 8A 2 F ; P (A) = P (A ) e quindi considerare lo spazio di probabilità P P ; F ; P completamento di ( ; F; P) : Se F = F ; ( ; F; P) è detto completo. Sia = R1 l’insieme delle applicazioni a valori reali de…nite su un insieme numerabile. Dato un insieme …nito di indici e un boreliano B 2 B Rj j ; indicando con ! la proiezione di una realizzazione ! su = R che è isomorfo a Rj j ; sia C (B) = f! 2 31 : ! 2 Bg (7.2) e B (R1 ) la algebra generata dagli insiemi l’insieme cilindrico (cilindro) di base B 2 B R cilindrici. Teorema 28 (di Carathéodory) Sia un insieme, A un’algebra dei suoi sottoinsiemi e (A) la più piccola algebra contenente A: Data 0 una misura additiva su ( ; A) : Esiste un unica misura su ( ; (A)) estensione di 0 ; ovvero tale che 8A 2 A; (A) = 0 (A) : Teorema 29 (di Kolmogorov sull’estensione di misure su (R1 ; B (R1 ))) Sia fPn gn 1 ; Pn 2P (Rn ; B (Rn )) una collezione di misure di probabilità tali che 8n 1; B 2 B (Rn ) ; Pn+1 (B R) = Pn (B) : (7.3) 1; B 2 B (Rn ) ; Cn (B) = Cf1;::;ng (B) ; Allora 9!P 2P (R1 ; B (R1 )) tale che se 8n (7.4) P (Cn (B)) = Pn (B) : 1; B 2 B (Rn ) ; assegnamo a P (Cn (B)) il valore Pn (B) : Allora Dimostrazione: 8n poiché Cn (B) = f! 2 R1 : ! f1;::;ng 2 B; ! fn+1;::;n+kg 2 Rg 0 1 = Cf1;::;n+kg @B R | ::: {z k volte R}A = Cn+k (B (7.5) R ::: R) ; per la (7.3), la de…nizione di P (Cn (B)) è indipendente dalla rappresentazione scelta di Cn (B) infatti Pn (B) = Pn+1 (B R) = ::: = Pn+k (B R ::: R) : (7.6) Sia C (R1 ) la collezione di tutti i cilindri Cn (B) al variare di n 1 e B 2 B (Rn ) : È facile vedere che C (R1 ) è un algebra. Dato k 2 e A1 ; ::; Ak 2 C (R1 ) disgiunti, 9n 1 e n B1 ; ::; Bk 2 R boreliani disgiunti tale che Ai = Cn (Bi ) ; i = 1; ::; k. Allora, ! ! !! k k k k [ [ [ X P Ai = P Cn (Bi ) = P Cn Bi = Pn (Bi ) (7.7) i=1 i=1 = k X i=1 P (Cn (Bi )) = i=1 k X i=1 P (Ai ) ; i=1 ovvero P è …nitamente additiva sull’algebra C (R1 ) : Se P è anche additiva su C (R1 ) allora la tesi segue dal teorema precedente. A tal …ne è su¢ ciente dimostrare che, per una generica successione di elementi di C (R1 ) ; fCn (Bn )gn 1 tale che Cn (Bn ) # ;; P (Cn (Bn )) ! 0: n!1 32 1; Bn 2 B (Rn ) ; Supponiamo il contrario, ovvero limn!1 P (Cn (Bn )) = > 0: Poiché 8n dato > 0 esiste An Bn tale che Pn (Bn nAn ) 2n+1 ; allora, P (Cn (Bn ) nCn (An )) = Pn (Bn nAn ) Sia Cn := si ha Tn k=1 2n+1 (7.8) : Ck (Ak ) e sia Dn tale che Cn = Cn (Dn ) : Poiché fCn (Bn )gn P (Cn (Bn ) nCn (Dn )) n X k=1 P (Cn (Bn ) nCk (An )) n X k=1 2k+1 n X k=1 1 è decrescente, P (Ck (Bn ) nCk (An )) (7.9) = ; 2 ma per ipotesi limn!1 P (Cn (Bn )) = > 0 e quindi limn!1 P (Cn (Dn )) > 0: Ma ciò 2 (n) contraddice l’ipotesi che Cn (Dn ) # ;: Infatti, 8n 1 sia x 2 Cn (Dn ) ; allora (n) (n) x1 ; ::; xn 2 Dn : Inoltre, poiché D1 è compatto, esiste una sottosuccessione fn1 g di fng (n ) tale che x1 1 ! x01 2 D1 : Allo stesso modo è possibile scegliere fn2 g (n ) (n ) x1 2 ; x2 2 ! (x01 ; x02 ) 2 D2 . Iterando questa costruzione si ha 8k (nk ) 1; x1 (nk ) ; ::; xk ! x01 ; ::; x0k 2 Dk : (7.10) (mk ) Considerando la sottosuccessione diagonale fmk g segue che 8i (x01 ; ::) 2 Cn (Dn ) 8n 1 contrariamente all’ipotesi che Cn (Dn ) # ;: 7.0.1 fn1 g tale che 1; xi ! x0i e Disuguaglianza di Markov, sue generalizzazioni e applicazioni Proposizione 30 (Disuguaglianza di Markov) Sia X una v.a. non negativa de…nita su ( ; F; P) : 8 > 0 vale E (X) Pf! 2 : X (!) > g (7.11) Dimostrazione: 8 > 0 si ha E (X) = E X1[0; ] (X) + E X1( E 1( ;+1) ;+1) (X) = Pf! 2 33 (X) E X1( : X (!) > g : ;+1) (X) (7.12) Corollario 31 Se f è una funzione non negativa, strettamente crescente e X una v.a. de…nita su ( ; F; P) : 8 > 0 si ha Pf! 2 E (f (X)) : f( ) : X (!) > g (7.13) Dimostrazione: Poiché f è strettamente crescente Pf! 2 : X (!) > g = P X 1 [ ; +1) = P X 1 fx 2 R : f (x) > f ( )g; (7.14) e siccome f è non negativa, dalla disuguaglianza di Markov segue R P X 1 (dx) f (x) E (f X) 1 P X fx 2 R : f (x) > f ( )g = : f( ) f( ) Osservazione 32 (Disuguagluanza di Markov esponenziale) Il precedente risultato implica che 8r; > 0; Pf! 2 : X (!) > g e r E erX : (7.15) Quindi Pf! 2 : X (!) > g inf e r>0 r log E(erX )] supr>0 [r E erX = e : (7.16) Corollario 33 (Disuguaglianza di Chebichev) Sia X una v.a. de…nita su ( ; F; P) : 8" > 0 vale V ar (X) : (7.17) Pf! 2 : jX (!) E (X)j > "g "2 Dimostrazione: Si ponga Y := jX siderando f = x2 : E (X)j e si applichi il corollario precedente con- Esercizio 34 Dimostrare la disuguaglianza di Chebichev generalizzata Pf! 2 : jX (!) E (X)j > "g E (jX E (X)jp ) "p ; p > 0: (7.18) Proposizione 35 (Disuguaglianza di Chernov per schemi di Bernoulli) Sia f n gn>0 una successione di v.a.i.i.d. con distribuzione di Bernoulli di parametro p de…nite su ( ; F; P) : Allora, P se Sn (!) := ni=1 i (!) ; vale la stima P !2 dove H (x) := sup 2R [ : x Sn (!) n log E e p >" 2e ]: 34 n[H(p ")^H(p+")] 2e 2n"2 (7.19) Dimostrazione: Per la disuguaglianza di Markov esponenziale, 8a 2 (0; 1) P !2 Sn (!) >a n : sup e >0 Sn n a log E e (7.20) ; ma poiché gli elementi della successione f n gn>0 sono v. a. indipendenti identicamente distribuite, n Y n Sn n E e = E en i = E en 1 (7.21) i=1 dove E e 1 =1 (7.22) p + e p: Quindi P !2 : Sn (!) >a n sup e >0 a n log E e n n sups>0 (sa log E(es e 1 1 sup e >0 n n 1 a log E e n (7.23) )) : Allo stesso modo si ottiene P !2 : Sn (!) <a n e n sups<0 (sa log E(es 1 )) : (7.24) Consideriamo ora la funzione R 3 s 7 ! f (s; a) := sa log (1 p (1 es )) = sa log E es 1 2 R: Allora, @s f = a @s2 f = E 1 es 1 pes = a E (es 1 ) (1 p (1 es )) E 21 es 1 E2 1 es 1 pes + = E (es 1 ) E2 (es 1 ) (1 p (1 Sia s (a; p) tale che @s f s= (7.25) es )) (1 pes p (1 es )) 1 (7.26) 0: es = a (1 p (1 a(1 p) perciò s 0 se e solo se p(1 a) x 1; cioè a 2 [p; 1) : Inoltre @s2 f p) a (1 =) s (a; p) = log a) p (1 p) a) (7.27) 1: Quindi, posto x = ap si ha x (1 1) < 0; quindi s = a (a H (a) := sup f (s; a) = f (s; a) = a log s>0 35 a + (1 p a) log 1 1 p) a : p 1 px ovvero (7.28) Posto a = p + x; x 2 (0; 1 p) ; sia h+ (x) := H (p + x) : Allora 9 2 (0; x) tale che 1 1 (7.29) h+ (x) = h+ (0) + h0+ (0) x + h00+ ( ) x2 = h00+ ( ) x2 2x2 2 2 poiché h+ (0) = h0+ (0) = 0 e h00+ (x) 4 8x 2 [0; 1 p): Analogamente, se a 2 (0; p) si ottiene (7.30) sup f (s; a) = f (s; a) = H (a) : s<0 Posto a = p x; x 2 (0; p) ; e h (x) := H (p x) ; 9 2 (0; x) tale che 1 1 h (x) = h (0) + h0 (0) x + h00 ( ) x2 = h00 ( ) x2 2 2 Dunque 8" > 0; P !2 P !2 Sn (!) >p+" n Sn (!) : <p " n : 2x2 : (7.31) e nH(p+") e 2"2 n (7.32) e nH(p ") e 2"2 n (7.33) perciò Sn (!) p >" n Sn (!) =P !2 : >p+" \ ! 2 n Sn (!) P !2 : >p+" +P ! 2 n P !2 e (7.34) : nH(p+") +e nH(p ") 2e Sn (!) <p n Sn (!) : <p n : n[H(p ")^H(p+")] 2e 2n"2 " " : Esercizio 36 Dimostrare che per una qualsiasi v. a. X la funzione R 3 x 7 ! H (x) := sup[ x 2R che assume valori …niti su X := f 2 R : E e Lemma 37 Siano p; q 2 (0; 1) e H (qjp) := q log jXj q + (1 p log E e X ] 2 R+ < 1g e vale +1 su Rn q) log 1 1 q p (7.35) X è convessa. (7.36) l’entropia relativa di una v.a. distribuita secondo la legge di Bernoulli di parametro p. Allora 8n 1 q p q j (7.37) nH q log + p q n n p 36 Dimostrazione: q p q q (n q) j =n log + log n n n p n n q (n q) log = q log p n nH Siccome log x n n p q q p (7.38) 1 si ha x (n q) log n n p q n p (n q) = q p (7.39) da cui segue la tesi. 7.1 7.1.1 Convergenza di successioni di v.a. Convergenza quasi certa De…nizione 38 Una successione di v.a. f n gn2N de…nita su uno spazio di probabilità ( ; F; P) è detta convergere quasi certamente rispetto a P (P-q.c.) ad una variabile aleatoria se P f! 2 : n Equivalentemente, f n gn2N converge P-q.c. a lim P ! 2 n!1 7.1.2 (7.40) (!) 9 (!)g = 0 : : sup j k n k se e solo se 8" > 0; (!) (!)j > " = 0: (7.41) Convergenza in probabilità De…nizione 39 Una successione di v.a. f n gn2N de…nita su uno spazio di probabilità ( ; F; P) P è detta convergere in probabilità ad una variabile aleatoria ( n ! ) se lim P f! 2 n!1 :j Equivalentemente, f n gn2N converge a P n (!) (!)j > "g = 0 : (7.42) in probabilità, se converge nella metrica ( ; ) := inff" > 0 : P f! 2 37 : j (!) (!)j > "g < "g : (7.43) Convergenza in media di ordine p 7.1.3 De…nizione 40 Una successione di v.a. f n gn2N de…nita su uno spazio di probabilità ( ; F; P) p è detta convergere in media di ordine p; con 0 < p < 1; ad una variabile aleatoria ( n ! ) se lim E (j n jp ) = 0 : (7.44) n!1 Considerando la relazione di equivalenza tra le v.a. su ( ; F): P q:c: , P f! 2 : n (!) 6= (!)g = 0 (7.45) e costruendo gli spazi LpP ( ; R) ; p 1; quanto sopra si traduce a¤ermando che la successione i cui elementi corrisondono alle classi di equivalenza P-q.c. delle n converge in LpP ( ; R) alla Lp classe di equivalenza P-q.c. di ( n ! ). 7.1.4 Convergenza in distribuzione (legge) De…nizione 41 Sia f n gn2N una successione di variabili aleatorie ciascuna de…nita su uno spazio di probabilità ( n ; Fn ; Pn ) e sia, 8n 2 N; R 3 x 7 ! Fn (x) = P f! 2 n : n (!) xg 2 [0; 1] (7.46) la funzione di distribuzione di n : f n gn2N è detta convergere in distribuzione (legge) ad una L D variabile aleatoria de…nita su ( ; F; P) ( n ! o n ! ) se, indicando con F (x) la funzione di distribuzione di , la successione fFn (x)gn2N converge a F (x) ; per ogni x appartenente all’insieme dei punti di continuità di F; CF : Equivalentemente, f n gn2N converge a verge a F nella metrica LP (F 0 ; F ) := inff" > 0 : F 0 (x ") in distribuzione, se la successione fFn gn2N con" F (x) F 0 (x + ") + "; 8x 2 Rg : (7.47) La nozione di convergenza in distribuzione è anche equivalente alla convergenza debole della successione delle misure di probabilità di Lebesgue-Stieltjes de…nite su (R; B (R)) indotte w D dalle n a quella indotta da (in simboli Fn ! F ), ovvero n ! se e solo se 8f 2 Cb (R) ; Z Z f (x) dFn (x) ! f (x) dF (x) : (7.48) R R w Alternativamente, Fn ! F se e solo se converge nella metrica Z Z 0 0 jjF F jjBL = sup f (x) dF (x) f (x) dF (x) ; f 2BL(R) : jjf jjBL 1 R 38 R (7.49) dove BL (R) := f : R ! R : jjf jjBL := sup jf (x)j + sup x2R x6=y jf (x) jx f (y)j <1 yj Cb (R) (7.50) è lo spazio di Banach delle funzioni da R in R limitate e lipshitziane. Per studiare la convergenza in distribuzione di una successione di v.a. è spesso utile fare uso della corrispondenza biunivoca tra la funzione di distribuzione di una v.a. e la sua trasformata di Fourier, cioè la funzione caratteristica della v.a. stessa. Consideriamo la successione di v.a. di cui alla de…nizione precedente nonché la corrispondente successione di funzioni di distribuzione e poniamo Z it n 'n (t) := E e = eitx dFn (x) : (7.51) R Se la successione di funzioni f'n gn2N converge puntualmente ad una funzione ' (t) che è D w continua in t = 0; allora esiste F tale che Fn ! F; ovvero esiste una v.a. tale che n ! ; la cui funzione di distribuzione è F e la cui funzione caratteristica è ' (t) : Inoltre se E (j jn ) < 1 n (E (j jn )) limn!1 n (7.52) 1; 1 n = R < 1; ' (t) = X (it)n n 0 n! (7.53) E ( n) jtj < 1 eR (7.54) in tal caso la distribuzione di probabilità di può essere completamente determinata dalla conoscenza dei suoi momenti, in quanto antitrasformata di Fourier della ': Se poi gli elementi della successione f n gn2N assumono soltanto valori positivi, cioè 8n 2 N; suppFn R+ ; quanto precedentemente espresso resta valido se si considera al posto della funzione caratteristica la funzione generatrice dei momenti di n ; Z 1 n 'n ( ) := E e = e x dFn (x) ; (7.55) 0 cioè la trasformata di Laplace delle Fn : In…ne, de…nendo su P (R; B (R)) la norma jjP P0 jjvar := sup jP (A) A2B(R) 1 = sup 2 f 2C1 (R) : jjf jj1 P0 (A)j = 1 Z 39 1 jjF 2 f (x) dF (x) F 0 jjBV Z f (x) dF 0 (x) ; (7.56) dove F e F 0 sono le funzioni di distribuzione associate rispettivamente a P e P0 ; e C1 (R) C (R) è l’insieme delle funzioni continue che s’annullano nel limite di jxj " 1; si può considerare la convergenza di successioni di misure di probabilità in questa topologia, detta convergenza nella distanza variazionale, che è più forte di quella in distribuzione. Osservazione 42 A di¤erenza delle altre nozioni di convergenza che necessitano del fatto che gli elementi della successione f n gn2N ed il suo limite siano v.a. de…nite sullo stesso spazio di probabilità ( ; F) ; quella di convergenza in legge, riguardando in de…nitiva esclusivamente le funzioni di distribuzione, prescinde da questa ipotesi. Tuttavia, come nel caso del modello G (n; p) ; in cui si considerano v.a. de…nite su spazi di probabilità che sono distinti al variare di n; quando per esempio si vogliono confrontare le diverse nozioni di convergenza per la stessa successione di v.a., è utile considerare una successione di v.a., equivalente in distribuzione a quella data, i cui termini sono v.a. de…nite sullo stesso spazio di probabilità. Detta successione equivalente può essere costruita nel modo seguente. Notiamo dapprima che, se F è una funzione di distribuzione, si può de…nire la funzione quantile di F (0; 1) 3 u 7 ! Q (u) := inffx 2 R : F (x) Da ciò segue che Q = F Z 1 ug 2 R : (7.57) e che considerando Q come v.a. su ((0; 1) ; B ((0; 1)) ; du) ; Z du = du = F (x) ; (7.58) fu2(0;1) : Q(u) xg fu2(0;1) : u F (x)g ovvero Q ammette come funzione di distribuzione proprio F: A questo punto, se Fn ; F indicano rispettivamente le funzioni di distribuzione del termine n-simo della successione n e del suo limite ; la successione dei quantili assciati alle Fn è equivalente in distribuzione a f n gn2N e D converge in distribuzione a Q = : 7.2 Processo di diramazione a tempo discreto e garfo di Galton-Watson Sia ( ; F; P) uno spazio di probabilità e Pf = kg = Pf! 2 3 ! 7 ! (!) 2 N una variabile aleatoria tale che : (!) = kg = pk k 2 N: Consideriamo il campo aleatorio su (X ; B (X )) ; dove X := N generata dagli insiemi cilindrici della forma CA (B) := f 2 X : A 2 Bg A 40 N2 (7.59) e B (X ) è la N2 ; jAj < 1 ; B 2 P N jAj ; -algebra (7.60) N D associato alla misura di probabilità P = con = ; n n2N2 P n ; 2 8n 2 N : Ovvero, se n = (i; j) 2 N N, allora resta de…nita la proiezione della con…gurazione D sul sito del reticolo N N di coordinate i e j; i;j = : De…niamo allora le variabili aleatorie X 3 7 ! um ( ) 2 N ; (7.61) u0 = v0 := 1 ; (7.63) 7 ! vm ( ) 2 N m 2 N ; X 3 (7.62) in maniera ricorsiva, ovvero: um+1 := uX m 1 i;m ; i=0 vm+1 := vm + um+1 e, se Xi;j 2 R2 ; i; j 2 N rappresenta un punto di R2 ; per esempio quello di coordinate i e j; de…niamo conseguentemente gli insiemi um Um := fXi;m gi=0 1 R2 ; V0 = U0 ; Vm+1 := Vm Bm := Em := u[ m 1 i=0 m _ [ i;m j=0 1 _ (7.64) Um+1 = m+1 _ Uk R2 ; k=0 fXi;m ; Xj;m+1 g ; Bk : k=0 Pertanto, jUm j = um e jVm j = vm : Possiamo quindi de…nire il grafo aleatorio G ( ) = (V ( ) ; E ( )) costruito tramite il seguente passo 0 Si ponga u0 = v0 = 1; U0 = V0 = f(0; 0)g; G0 := (U0 ; ;) ; n = 0 e si proceda al passo successivo. n 1 passo n Si generi la collezione di variabili aleatorie f i;n gui=0 e conseguentemente un+1 ; Un+1 ; Vn+1 ; vn+1 ; Bn e En secondo le (7.63), (7.64). Sia Gn ( ) = Gn+1 := (Vn+1 ; En ) : Se jBn j > 0; si ponga n := n + 1 e si torni al passo n. Se invece jBn j = 0; stop. 41 Sia T := minfn 0 : jBn j = 0g = minfn allora fT ng = fun = 0g: Inoltre, 1 : un = 0g: Poiché fun = 0g fT < 1g = [ n 0 fun = 0g fun+1 = 0g; (7.65) è l’evento che G ( ) sia un grafo di taglia …nita. Osservazione 43 fun gn P fun+1 è una catena di Markov. Infatti, (j 1 X = ijun = j; ::; u1 = j1 ; u0 = 1g = P 0 k=0 k;n =i ) = Pj;i : (7.66) dove Pj;i è la matrice di probabilità di transizione associata alla catena. Inoltre, poiché E (un+1 jun ) = un E ( ) la successione di variabili aleatorie fYn gn 0 ; Yn = n (E …ltrazione naturale associata alla successione fun gn 1 : un n ( )) 0; (7.67) è una martingala rispetto alla Esercizio 44 Esprimere il generico elemento della matrice di transizione di probabilità della catena di Markov Pj;i in funzione della distribuzione di : P D’ora in poi assumeremo che k 0 pk = 1: Sia X ' (z) := E (z ) = pk z k z 2 C : jzj 1; (7.68) k 0 P la funzione generatrice di e 8n 0; 'n (z) := k 0 P fun = kgz k : Chiaramente '0 (z) = s e '1 (z) = ' (z) ; inoltre X XX 'n+1 (z) = P fun+1 = kgz k = P fun = kjun = jgP fun = jgz k (7.69) k 0 j 0 k 0 = X k 0 = X j 0 Iterando, per 0 k zk X j 0 P fun = jgP (j 1 X l;n =k l=0 ) 'j (z) P fun = jg = 'n (' (z)) : n si ottiene 'n+1 (z) = 'n In particolare, per k = n k 'k+1 (z) : (7.70) 1; 'n+1 (z) = ' ('n (z)) : 42 (7.71) Esercizio 45 Dimostrare che se u0 6= 1 = k0 ; allora, '0 (z) = z k0 e '1 (z) = (' (z))k0 ; e che ciò implica ancora la relazione 'n+1 (z) = 'n (' (z)) ; ma non 'n+1 (z) = ' ('n (z)) : Sia ora := E ( ) < 1 e 2 = V ar ( ) < 1: Osservazione 46 Siccome ' (1) = 1; E (un+1 ) = '0n+1 (1) = '0n (' (1)) '0 (1) = '0n (1) '0 (1) : (7.72) Iterando, n n+1 '0n+1 (1) = ('0 (1)) '01 (1) = ('0 (1)) ma '0 (1) = '01 (1) = E (u1 ) = E 0;0 = : Pertanto, '0n+1 (1) = (7.73) ; n+1 : Se p0 = 0; cioè da ogni nodo del grafo si generano sempre nuovi nodi, allora P fjV ( )j < 1g = 0: Se invece 0 < p0 < 1; poniamo qn := P fun = 0g = 'n (0) ; (7.74) qn+1 = 'n+1 (0) = ' ('n (0)) = ' (qn ) : (7.75) allora Poiché p0 < 1, ' (s) ; s := <z; è una serie a termini non-negativi quindi è strettamente crescente in [0; 1]: Pertanto, (7.76) q0 = '0 (0) = 0 q1 = '1 (0) = p0 > 0 ; q2 = '2 (0) = ' ('1 (0)) = ' (q1 ) > q1 quindi, assumendo che qn > qn 1 ; per la (7.71), qn+1 = ' (qn ) > ' (qn 1 ) = qn : Allora la successione fqn gn 0 è monotona crescente e limitata da 1: Dunque, 9 lim qn = n!1 = P fT < 1g 2 (0; 1] : dato che ' (s) è continua in [0; 1]; passando al limite si ottiene dell’equazione ' (s) = s : Inoltre (7.77) = ' ( ) ; cioè è una radice (7.78) è la più piccola radice positiva di (7.78), infatti, 8s0 > 0 radice di (7.78), q1 = ' (0) < ' (s0 ) = s0 : (7.79) Assumendo qn < s0 ; dalla (7.71) si ottiene qn+1 = ' (qn ) < ' (s0 ) = s0 : Quindi, per induzione 8n 0; qn < s0 dunque = limn!1 qn s0 ; cioè = minfs > 0 : ' (s) = sg: 43 Se si assume anche che p0 + p1 < 1; allora (0; 1] 3 s 7 ! '00 (s) = X k (k 1) pk sk 2 > 0; (7.80) k 2 ovvero ' (s) è anche una funzione convessa in (0; 1] : Quindi, poiché 0 < q1 < 1 = ' (1) ; la (7.78) può avere solo 2 soluzioni positive, di cui una è s = 1: Notiamo che = '0 (1) è anche il coe¢ ciente angolare della tangente al gra…co di ' (s) ; per s 2 (0; 1] ; nel punto s = 1: Allora, se se > 1; 0 < 1; < 1 cioè P fjV ( )j = 1g = P fT = 1g = 1 > 0; = 1 cioè G ( ) è di taglia …nita con probabilità 1. Per ulteriori approfondimenti sui processi di diramazione si rimanda per esempio a [KT]. Esercizio 47 Calcolare la probabilità di estinzione per il processo di diramazione nei casi in cui ha distribuzione di Poisson di parametro c e binomiale di parametri n e p. Dimostrare che, se npn ! c; ; calcolata nel caso binomiale, convege al valore ottenuto in n!1 quello poissoniano. 44 Bibliogra…a [AS] N. Alon & J. H. Spencer The Probabilistic Method II edition, John Wiley & sons, inc. (2000). [B1] Béla Bollobás Graph Theory Springer-Verlag (1979). [B2] Béla Bollobás Random Graphs Academic Press (1985). [G] G. Grimmett Percolation II edition Springer-Verlag (1999). [J×A] S. Janson, T. ×uczak & A. Rucinski Random Graphs John Wiley & sons, inc. (2000). [KT] S.Karlin & H. M. Taylor A First Course in Stochastic Processes II edition Academic Press (1975). [P] M. Penrose Random Geometric Graphs Oxford University Press (2003). [S] A. N. Shiryaev Probability II edition, Springer-Verlag (1989). 45