Testa o croce: quando conviene scegliere a caso Fabio Fagnani [email protected] http://calvino.polito.it/∼fagnani/ Dipartimento di Matematica Politecnico di Torino – p. Quale ricerca? – p. Quale ricerca? • • • Teoria dei controlli e dei codici. Forti legami con le ingegnerie dell’automazione e delle telecomunicazioni e con la fisica. Ricerca intrinsecamente interdisciplinare. – p. Quale ricerca? • • • • Teoria dei controlli e dei codici. Forti legami con le ingegnerie dell’automazione e delle telecomunicazioni e con la fisica. Ricerca intrinsecamente interdisciplinare. Che matematica entra in gioco? • Analisi • Algebra • Teoria dei grafi, combinatorica • Probabilità – p. Una lezione sulla probabilità – p. Una lezione sulla probabilità • La genesi: una breve introduzione storica. – p. Una lezione sulla probabilità • La genesi: una breve introduzione storica. • Alcuni problemi classici. – p. Una lezione sulla probabilità • La genesi: una breve introduzione storica. • Alcuni problemi classici. • Alcune questioni più avanzate. – p. La genesi della probabilità Non è una genesi delle più nobili: nasce nelle bische clandestine della Francia seicentesca. Ha una data di nascita ufficiale: il 1654. Un importante precursore: Cardano, Liber de Ludo Aleae, 1520, pubblicato nel 1663. – p. Che cosa accadde nel 1654? – p. Che cosa accadde nel 1654? Un gioco allora alla moda: la ‘casa’ scommette alla pari con un giocatore che quest’ultimo, lanciando per 4 volte un dado, ottenga almeno una volta 6. Questo gioco è favorevole alla casa che ‘in media’ vince il 52% delle volte. – p. Che cosa accadde nel 1654? Un gioco allora alla moda: la ‘casa’ scommette alla pari con un giocatore che quest’ultimo, lanciando per 4 volte un dado, ottenga almeno una volta 6. Questo gioco è favorevole alla casa che ‘in media’ vince il 52% delle volte. Una variante di Antoine Gombauld Chevalier de Méré: la ‘casa’ scommette alla pari con un giocatore che quest’ultimo, lanciando per 24 volte una coppia di dadi, ottenga almeno una volta il doppio 6. – p. Che cosa accadde nel 1654? Anche questo gioco, secondo il de Méré, dovrebbe essere leggermente favorevole alla casa: – p. Che cosa accadde nel 1654? Anche questo gioco, secondo il de Méré, dovrebbe essere leggermente favorevole alla casa: • 6 risultati possibili lanciando un dado: la probabilità che esca il 6 è 1/6; – p. Che cosa accadde nel 1654? Anche questo gioco, secondo il de Méré, dovrebbe essere leggermente favorevole alla casa: • • 6 risultati possibili lanciando un dado: la probabilità che esca il 6 è 1/6; 36 risultati possibili lanciando due dadi: la probabilità che esca il doppio 6 è 1/36 (6 volte più bassa); – p. Che cosa accadde nel 1654? Anche questo gioco, secondo il de Méré, dovrebbe essere leggermente favorevole alla casa: • • • 6 risultati possibili lanciando un dado: la probabilità che esca il 6 è 1/6; 36 risultati possibili lanciando due dadi: la probabilità che esca il doppio 6 è 1/36 (6 volte più bassa); lanciando la coppia di dadi 6 volte di più (24 = 6 × 4) si dovrebbe controbilanciare l’effetto di considerare un evento meno probabile di un fattore 6. – p. Che cosa accadde nel 1654? Anche questo gioco, secondo il de Méré, dovrebbe essere leggermente favorevole alla casa: • • • • 6 risultati possibili lanciando un dado: la probabilità che esca il 6 è 1/6; 36 risultati possibili lanciando due dadi: la probabilità che esca il doppio 6 è 1/36 (6 volte più bassa); lanciando la coppia di dadi 6 volte di più (24 = 6 × 4) si dovrebbe controbilanciare l’effetto di considerare un evento meno probabile di un fattore 6. .... si dovrebbe avere quindi la stessa probabilità. – p. Che cosa accadde nel 1654? E invece no! Quest’ultimo gioco non è favorevole alla casa, ma al giocatore. – p. Che cosa accadde nel 1654? E invece no! Quest’ultimo gioco non è favorevole alla casa, ma al giocatore. Ne era consapevole il de Méré, non è chiaro se per averlo provato a sue spese o per qualche intuizione teorica. Decise di parlarne con un brillante francese dell’epoca, Blaise Pascal che risolse il problema postogli dal de Méré provando anche che con 25 lanci il gioco sarebbe allora stato favorevole alla casa. – p. Lo sviluppo successivo Con Pascal e poi Fermat, Huygens, Leibnitz, Bernoulli si sviluppa la probabilità. Per la fine del 1600 è già una teoria autonoma. – p. Lo sviluppo successivo Con Pascal e poi Fermat, Huygens, Leibnitz, Bernoulli si sviluppa la probabilità. Per la fine del 1600 è già una teoria autonoma. Laplace 1812: E davvero notevole che una scienza nata dall’osservazione dei giochi d’azzardo sia divenuta l’oggetto più importante della umana conoscenza! – p. Lo sviluppo successivo Tuttavia, nonostante Laplace, Poisson, De Moivre, Gauss nonostante le spettacolari applicazioni alla fisica di Maxwell, Boltzmann, Einstein la probabilità come disciplina matematica quasi scompare dalla scena per oltre 100 anni. – p. Lo sviluppo successivo Solo dal 1930 comincia ad acquisire un’autonomia e un rispetto nei circoli matematici. Ha molta fortuna in Francia dove è nata, in Russia, negli Stati Uniti, poca in Italia... – p. Lo sviluppo successivo Solo dal 1930 comincia ad acquisire un’autonomia e un rispetto nei circoli matematici. Ha molta fortuna in Francia dove è nata, in Russia, negli Stati Uniti, poca in Italia... Fino a qualche anno fa, in Italia, ci si poteva laureare in Matematica senza aver sostenuto un solo esame di probabilità. – p. Lo sviluppo successivo Questo spiega in parte il motivo della scarsa penetrazione delle idee probabilistiche nella cultura comune. Con gravi conseguenze, perchè la probabilità ha nel contempo aumentato la sua influenza ed importanza. • Genetica • Teoria dell’Informazione • Modelli finanziari – p. 1 Quando serve la probabilità? – p. 1 Quando serve la probabilità? La probabilità interviene ogni volta che effettuiamo, assistiamo ad un esperimento l’esito del quale non è completamente determinato a priori e può avere un certo numero di diversi risultati. – p. 1 Quando serve la probabilità? La probabilità interviene ogni volta che effettuiamo, assistiamo ad un esperimento l’esito del quale non è completamente determinato a priori e può avere un certo numero di diversi risultati. • Lancio di una moneta: 2 possibili risultati T o C. – p. 1 Quando serve la probabilità? La probabilità interviene ogni volta che effettuiamo, assistiamo ad un esperimento l’esito del quale non è completamente determinato a priori e può avere un certo numero di diversi risultati. • • Lancio di una moneta: 2 possibili risultati T o C. Lancio di un dado: 6 possibili risultati. – p. 1 Quando serve la probabilità? La probabilità interviene ogni volta che effettuiamo, assistiamo ad un esperimento l’esito del quale non è completamente determinato a priori e può avere un certo numero di diversi risultati. • • • Lancio di una moneta: 2 possibili risultati T o C. Lancio di un dado: 6 possibili risultati. Estrazione di una pallina da un’urna contenente palline rosse, bianche, nere e gialle: 4 possibili risultati. – p. 1 Quando serve la probabilità? La probabilità interviene ogni volta che effettuiamo, assistiamo ad un esperimento l’esito del quale non è completamente determinato a priori e può avere un certo numero di diversi risultati. • • • • Lancio di una moneta: 2 possibili risultati T o C. Lancio di un dado: 6 possibili risultati. Estrazione di una pallina da un’urna contenente palline rosse, bianche, nere e gialle: 4 possibili risultati. Numero di connessioni ad un server in un giorno. – p. 1 Quando serve la probabilità? Il modello probabilistico serve a descrivere la nostra mancanza di informazione, la nostra ignoranza su un fenomeno e prescinde dalla causa di tale ignoranza. – p. 1 Il modello probabilistico – p. 1 Il modello probabilistico Si fissa un insieme che contenga come elementi i possibili esiti dell’esperimento sotto considerazione. Questo insieme verrà generalmente indicato con il simbolo Ω e chiamato spazio degli eventi elementari. – p. 1 Il modello probabilistico Si fissa un insieme che contenga come elementi i possibili esiti dell’esperimento sotto considerazione. Questo insieme verrà generalmente indicato con il simbolo Ω e chiamato spazio degli eventi elementari. L’insieme Ω negli esempi precedenti: • Lancio di una moneta: Ω = {T, C}. • Lancio di un dado: Ω = {1, 2, 3, 4, 5, 6}. • Estrazione dall’urna: Ω = {R, B, N, G}. Numero di connessioni: Ω = N = {0, 1, 2, 3, . . . }. • – p. 1 Il modello probabilistico Si fissa un insieme che contenga come elementi i possibili esiti dell’esperimento sotto considerazione. Questo insieme verrà generalmente indicato con il simbolo Ω e chiamato spazio degli eventi elementari. Ad ogni evento elementare ω ∈ Ω si associa un numero p(ω): la probabilità che si verifichi ω. X p(ω) = 1 p(ω) ≥ 0 ω∈Ω – p. 1 Il modello probabilistico Come si sceglie la probabilità p(ω)? – p. 1 Il modello probabilistico Come si sceglie la probabilità p(ω)? – Ipotesi frequentista. In base ad informazioni statistiche sull’esperimento Es.: se l’evento ω accade 37 volte su 100, si pone p(ω) = 37/100. – p. 1 Il modello probabilistico Come si sceglie la probabilità p(ω)? – Ipotesi frequentista. In base ad informazioni statistiche sull’esperimento Es.: se l’evento ω accade 37 volte su 100, si pone p(ω) = 37/100. – Ipotesi classica. Ragionamenti di simmetria: tutti gli eventi elementari hanno la stessa probabilità. Se Ω ha N elementi (|Ω| = N ), si pone p(ω) = 1/N qualunque sia ω ∈ Ω. – p. 1 Il modello probabilistico Come si sceglie la probabilità p(ω)? – p. 1 Il modello probabilistico Come si sceglie la probabilità p(ω)? Moneta Ω = {T, C} p(T ) = p(C) = 1/2 – p. 1 Il modello probabilistico Come si sceglie la probabilità p(ω)? Dado Ω = {1, 2, 3, 4, 5, 6} p(ω) = 1/6, ω = 1, 2, . . . , 6 – p. 1 Il modello probabilistico Come si sceglie la probabilità p(ω)? Urna Ω = {R, B, N, G} p(ω) =? – p. 1 Il modello probabilistico Come si sceglie la probabilità p(ω)? Urna Ω = {R, B, N, G} p(ω) =? Composizione dell’urna: 3 palline rosse, 4 bianche, 1 nera, 2 gialle. Totale 10 palline. – p. 1 Il modello probabilistico Come si sceglie la probabilità p(ω)? Urna Ω = {R, B, N, G} p(ω) =? Composizione dell’urna: 3 palline rosse, 4 bianche, 1 nera, 2 gialle. Totale 10 palline. 3 4 1 2 p(R) = , p(B) = , p(N ) = , p(G) = . 10 10 10 10 – p. 1 Il modello probabilistico Come si sceglie la probabilità p(ω)? Connessioni Ω = N p(ω) =? ipotesi frequentista, ... – p. 1 Il calcolo delle probabilità (Ω, p(ω)) spazio delle probabilità. – p. 1 Il calcolo delle probabilità (Ω, p(ω)) spazio delle probabilità. La probabilità di eventi complessi: X A⊆Ω p(A) = p(ω) ω∈A – p. 1 Il calcolo delle probabilità (Ω, p(ω)) spazio delle probabilità. La probabilità di eventi complessi: X A⊆Ω p(A) = p(ω) ω∈A Caso di ipotesi classica: p(A) = X ω∈A |A| casi favorevoli p(ω) = . = |Ω| casi possibili – p. 1 Il calcolo delle probabilità (Ω, p(ω)) spazio delle probabilità. La probabilità di eventi complessi: X A⊆Ω p(A) = p(ω) ω∈A Regola del complementare: p(Ac ) = 1 − p(A) – p. 1 Esperimenti ripetuti In molti casi un esperimento consiste nel ripetere un certo numero di volte un esperimento base: lanci ripetuti di una moneta o di un dado... – p. 1 Esperimenti ripetuti In molti casi un esperimento consiste nel ripetere un certo numero di volte un esperimento base: lanci ripetuti di una moneta o di un dado... Quale struttura probabilistica? – p. 1 Esperimenti ripetuti Esperimento base con risultati nell’insieme Ωo . – p. 1 Esperimenti ripetuti Esperimento base con risultati nell’insieme Ωo . Supponiamo di ripetere l’esperimento k volte e di annotare in ordine i risultati ottenuti. Avremo alla fine una sequenza ordinata di k elementi di Ωo : (ω1 , ω2 , . . . , ωk ) dove ωi indica l’esito dell’i-esimo esperimento. – p. 1 Esperimenti ripetuti Esperimento base con risultati nell’insieme Ωo . Supponiamo di ripetere l’esperimento k volte e di annotare in ordine i risultati ottenuti. Avremo alla fine una sequenza ordinata di k elementi di Ωo : (ω1 , ω2 , . . . , ωk ) dove ωi indica l’esito dell’i-esimo esperimento. NOTAZIONE: Ω = Ωko = {(ω1 , ω2 , . . . , ωk ) | ω1 , . . . ωk ∈ Ωo } |Ωo | = No , |Ωko | = Nok . – p. 1 Esperimenti ripetuti Che probabilità su Ωko ? – p. 1 Esperimenti ripetuti Che probabilità su Ωko ? Se gli eventi in Ω0 sono equiprobabili e i vari esperimenti sono tra loro indipendenti è logico optare per l’ipotesi classica: 1 p(ω1 , . . . ωk ) = k No (No = |Ωo |) – p. 1 Ritorno al 1654 Qual’è la probabilità che lanciando per 4 volte un dado si ottenga almeno una volta 6? – p. 2 Ritorno al 1654 Qual’è la probabilità che lanciando per 4 volte un dado si ottenga almeno una volta 6? Ω0 = {1, 2, . . . , 6} , Ω = Ω40 . A = {(ω1 , ω2 , ω3 , ω4 ) | almeno un ωi = 6} – p. 2 Ritorno al 1654 Qual’è la probabilità che lanciando per 4 volte un dado si ottenga almeno una volta 6? Ω0 = {1, 2, . . . , 6} , Ω = Ω40 . A = {(ω1 , ω2 , ω3 , ω4 ) | almeno un ωi = 6} Ac = {(ω1 , ω2 , ω3 , ω4 ) | ωi 6= 6} – p. 2 Ritorno al 1654 Qual’è la probabilità che lanciando per 4 volte un dado si ottenga almeno una volta 6? Ω0 = {1, 2, . . . , 6} , Ω = Ω40 . A = {(ω1 , ω2 , ω3 , ω4 ) | almeno un ωi = 6} Ac = {(ω1 , ω2 , ω3 , ω4 ) | ωi 6= 6} 4 casi favorevoli 5 = 4 p(Ac ) = casi possibili 6 – p. 2 Ritorno al 1654 Qual’è la probabilità che lanciando per 4 volte un dado si ottenga almeno una volta 6? Ω0 = {1, 2, . . . , 6} , Ω = Ω40 . A = {(ω1 , ω2 , ω3 , ω4 ) | almeno un ωi = 6} Ac = {(ω1 , ω2 , ω3 , ω4 ) | ωi 6= 6} 4 casi favorevoli 5 = 4 p(Ac ) = casi possibili 6 4 5 p(A) = 1 − p(Ac ) = 1 − 4 ≃ 0.52 6 – p. 2 Ritorno al 1654 Qual’è la probabilità che lanciando per 24 volte una coppia di dadi si ottenga almeno una volta (6, 6)? – p. 2 Ritorno al 1654 Qual’è la probabilità che lanciando per 24 volte una coppia di dadi si ottenga almeno una volta (6, 6)? Ω0 = {1, 2, . . . , 6}2 , Ω = Ω24 0 . A = {(ω1 , . . . , ω24 ) | almeno un ωi = (6, 6)} – p. 2 Ritorno al 1654 Qual’è la probabilità che lanciando per 24 volte una coppia di dadi si ottenga almeno una volta (6, 6)? Ω0 = {1, 2, . . . , 6}2 , Ω = Ω24 0 . A = {(ω1 , . . . , ω24 ) | almeno un ωi = (6, 6)} Ac = {(ω1 , . . . , ω24 ) | ωi 6= (6, 6)} – p. 2 Ritorno al 1654 Qual’è la probabilità che lanciando per 24 volte una coppia di dadi si ottenga almeno una volta (6, 6)? Ω0 = {1, 2, . . . , 6}2 , Ω = Ω24 0 . A = {(ω1 , . . . , ω24 ) | almeno un ωi = (6, 6)} Ac = {(ω1 , . . . , ω24 ) | ωi 6= (6, 6)} 24 35 casi favorevoli = 24 p(Ac ) = casi possibili 36 – p. 2 Ritorno al 1654 Qual’è la probabilità che lanciando per 24 volte una coppia di dadi si ottenga almeno una volta (6, 6)? Ω0 = {1, 2, . . . , 6}2 , Ω = Ω24 0 . A = {(ω1 , . . . , ω24 ) | almeno un ωi = (6, 6)} Ac = {(ω1 , . . . , ω24 ) | ωi 6= (6, 6)} 24 35 casi favorevoli = 24 p(Ac ) = casi possibili 36 24 35 p(A) = 1 − p(Ac ) = 1 − 24 ≃ 0.49 36 – p. 2 Ritorno al 1654 Esercizio: Qual’è la probabilità che lanciando per 25 volte una coppia di dadi si ottenga almeno una volta (6, 6)? – p. 2 L’errore del De Méré. – p. 2 L’errore del De Méré. Era così sbagliato il ragionamento del De Méré? – p. 2 L’errore del De Méré. Era così sbagliato il ragionamento del De Méré? In entrambi i casi si sta aspettando l’accadimento di un certo evento ω che ha probabilità p(ω) = p e si ripete l’esperimento k volte. – p. 2 L’errore del De Méré. Era così sbagliato il ragionamento del De Méré? In entrambi i casi si sta aspettando l’accadimento di un certo evento ω che ha probabilità p(ω) = p e si ripete l’esperimento k volte. primo caso: ω = 6, p = 1/6, k = 4. p(non accade mai ω) = 54 64 = 1− 1 4 6 – p. 2 L’errore del De Méré. Era così sbagliato il ragionamento del De Méré? In entrambi i casi si sta aspettando l’accadimento di un certo evento ω che ha probabilità p(ω) = p e si ripete l’esperimento k volte. primo caso: ω = 6, p = 1/6, k = 4. p(non accade mai ω) = 54 64 = 1− 1 4 6 secondo caso: ω = (6, 6), p = 1/36, k = 24. 3524 1 24 p(non accade mai ω) = 3624 = 1 − 36 – p. 2 L’errore del De Méré. Era così sbagliato il ragionamento del De Méré? In entrambi i casi si sta aspettando l’accadimento di un certo evento ω che ha probabilità p(ω) = p e si ripete l’esperimento k volte. primo caso: ω = 6, p = 1/6, k = 4. p(non accade mai ω) = 54 64 = 1− 1 4 = 6 (1 − p)k secondo caso: ω = (6, 6), p = 1/36, k = 24. 3524 1 24 p(non accade mai ω) = 3624 = 1 − 36 = (1 − p)k – p. 2 L’errore del De Méré. Era così sbagliato il ragionamento del De Méré? In entrambi i casi si sta aspettando l’accadimento di un certo evento ω che ha probabilità p(ω) = p e si ripete l’esperimento k volte. p(non accade mai ω) = (1 − p)k – p. 2 L’errore del De Méré. Era così sbagliato il ragionamento del De Méré? In entrambi i casi si sta aspettando l’accadimento di un certo evento ω che ha probabilità p(ω) = p e si ripete l’esperimento k volte. p(non accade mai ω) = (1 − p)k Per la regola del complementare, p(accade almeno una volta ω) = 1 − (1 − p)k – p. 2 L’errore del De Méré. Consideriamo f (x) = (1 − x)k 1 0.8 0.6 0.4 0.2 0 0 0.2 0.4 0.6 0.8 1 – p. 2 L’errore del De Méré. Consideriamo f (x) = (1 − x)k La retta tangente in (0, f (0)) è: y = 1 − kx. 1 0.8 0.6 0.4 0.2 0 0 0.2 0.4 0.6 0.8 1 – p. 2 L’errore del De Méré. Consideriamo f (x) = (1 − x)k La retta tangente in (0, f (0)) è: y = 1 − kx. 1 0.8 0.6 0.4 0.2 0 0 (1 − x)k ≃ 1 − kx 0.2 0.4 0.6 0.8 1 per x piccoli – p. 2 L’errore del De Méré. Consideriamo f (x) = (1 − x)k La retta tangente in (0, f (0)) è: y = 1 − kx. 1 0.8 0.6 0.4 0.2 0 0 (1 − x)k ≃ 1 − kx (1 − p)k ≃ 1 − kp 0.2 0.4 0.6 0.8 1 per x piccoli per p piccoli – p. 2 L’errore del De Méré. p(accade almeno una volta ω) = 1 − (1 − p)k – p. 2 L’errore del De Méré. p(accade almeno una volta ω) = 1 − (1 − p)k ≃ 1 − (1 − pk) – p. 2 L’errore del De Méré. p(accade almeno una volta ω) = 1 − (1 − p)k ≃ 1 − (1 − pk) ≃ pk – p. 2 L’errore del De Méré. p(accade almeno una volta ω) = 1 − (1 − p)k ≃ 1 − (1 − pk) ≃ pk Negli esempi: p = 1/6 , k = 4 p = 1/36 , k = 24 4/6 = 24/36 – p. 2 L’errore del De Méré. p(accade almeno una volta ω) = 1 − (1 − p)k ≃ 1 − (1 − pk) ≃ pk Negli esempi: p = 1/6 , k = 4 p = 1/36 , k = 24 4/6 = 24/36 Sono eguali nell’approssimazione! – p. 2 L’errore del De Méré. p(accade almeno una volta ω) = 1 − (1 − p)k ≃ 1 − (1 − pk) ≃ pk Negli esempi: p = 1/6 , k = 4 p = 1/36 , k = 24 4/6 = 24/36 Sono eguali nell’approssimazione! ...De Méré non aveva sbagliato poi di tanto. – p. 2 Allarghiamo lo sguardo. Un esperimento ripetuto k volte. L’evento ω ha probabilità p (piccola) di accadere. p(accade almeno una volta ω) = 1 − (1 − p)k ≃ pk – p. 2 Allarghiamo lo sguardo. Un esperimento ripetuto k volte. L’evento ω ha probabilità p (piccola) di accadere. p(accade almeno una volta ω) = 1 − (1 − p)k ≃ pk Se k è sufficientemente grande (dell’ordine di 1/p), questa probabilità sarà significativa. – p. 2 Un punto fondamentale. La probabilità che un certo evento raro accada può essere resa molto alta (vicina ad 1) se siamo in grado di ripetere l’esperimento un numero alto di volte. – p. 2 Un punto fondamentale. La probabilità che un certo evento raro accada può essere resa molto alta (vicina ad 1) se siamo in grado di ripetere l’esperimento un numero alto di volte. IMPORTANTE: • Esperimenti ripetuti indipendenti. • Numero di ripetizioni ∼ 1/p. • Probabilità alta non significa certezza. – p. 2 Testa o croce. Lancio di una moneta per 12 volte consecutive. Ω = {T, C}12 , |Ω| = 212 . – p. 2 Testa o croce. Lancio di una moneta per 12 volte consecutive. Ω = {T, C}12 , |Ω| = 212 . Possibili risultati: T CCCT CT CT CT T TTTTTTTTTTTT – p. 2 Testa o croce. Lancio di una moneta per 12 volte consecutive. Ω = {T, C}12 , |Ω| = 212 . Possibili risultati: T CCCT CT CT CT T TTTTTTTTTTTT Che probabilità hanno? – p. 2 Testa o croce. Lancio di una moneta per 12 volte consecutive. Ω = {T, C}12 , |Ω| = 212 . Possibili risultati: T CCCT CT CT CT T TTTTTTTTTTTT Che probabilità hanno? Tutti la stessa! 1 p = 12 ≃ 0.000244 2 – p. 2 Testa o croce. Lancio di una moneta per 12 volte consecutive. Ω = {T, C}12 , |Ω| = 212 . Possibili risultati: T CCCT CT CT CT T TTTTTTTTTTTT Che probabilità hanno? Tutti la stessa! 1 p = 12 ≃ 0.000244 2 La probabilità di 12 teste consecutive è bassa, ma la stessa di qualunque altra sequenza di teste e croci! – p. 2 Testa o croce. 1 p(T T T T T T T T T T T T ) = 12 = 0, 000244 2 – p. 2 Testa o croce. 1 p(T T T T T T T T T T T T ) = 12 = 0, 000244 2 Ripetendo l’esperimento 212 = 4096 volte (circa 50000 lanci), con probabilità alta comparirà TTTTTTTTTTTT – p. 2 Testa o croce. 1 p(T T T T T T T T T T T T ) = 12 = 0, 000244 2 Ripetendo l’esperimento 212 = 4096 volte (circa 50000 lanci), con probabilità alta comparirà TTTTTTTTTTTT Gli eventi improbabili accadono: ....Ad una roulette di Montecarlo è uscito 36 volte consecutive pari! – p. 2 Un grave errore. La probabilità che esca il 53 nella ruota di Venezia è 1 5 = p= 90 18 Quindi in 18 estrazioni c’è buona probabilità che esca. – p. 3 Un grave errore. La probabilità che esca il 53 nella ruota di Venezia è 1 5 = p= 90 18 Quindi in 18 estrazioni c’è buona probabilità che esca. Supponiamo che il 53 non esca per 17 estrazioni. Possiamo dedurne che a questo punto la sua probabilità di uscita è più alta? – p. 3 Un grave errore. La probabilità che esca il 53 nella ruota di Venezia è 1 5 = p= 90 18 Quindi in 18 estrazioni c’è buona probabilità che esca. Supponiamo che il 53 non esca per 17 estrazioni. Possiamo dedurne che a questo punto la sua probabilità di uscita è più alta? Assolutamente no! Le estrazioni non hanno memoria. Ogni volta si ricomincia da capo! – p. 3 Un grave errore. Il 53 non è uscito nella ruota di Venezia per 182 estrazioni. – p. 3 Un grave errore. Il 53 non è uscito nella ruota di Venezia per 182 estrazioni. La probabilità che in 182 estrazioni questo accada è 182 5 1 = p= 1− 18 164764 – p. 3 Un grave errore. Il 53 non è uscito nella ruota di Venezia per 182 estrazioni. La probabilità che in 182 estrazioni questo accada è 182 5 1 = p= 1− 18 164764 Un’approssimazione: la probabilità che in 182 estrazioni ci sia un numero che non esce mai è circa 90 · p ≃ 1/400. – p. 3 Un grave errore. Il 53 non è uscito nella ruota di Venezia per 182 estrazioni. La probabilità che in 182 estrazioni questo accada è 182 5 1 = p= 1− 18 164764 Un’approssimazione: la probabilità che in 182 estrazioni ci sia un numero che non esce mai è circa 90 · p ≃ 1/400. Quindi, ripetendo l’esperimento per circa 400 volte, è probabile che capiti. – p. 3 Un grave errore. In altre parole, in 400 × 182 = 72800 estrazioni, è altamente probabile che ci sia l’assenza di un numero per 182 estrazioni consecutive. – p. 3 Un grave errore. In altre parole, in 400 × 182 = 72800 estrazioni, è altamente probabile che ci sia l’assenza di un numero per 182 estrazioni consecutive. Se si considerano le estrazioni fatte in Italia in oltre 130 anni di lotto, si vede che ci si va abbastanza vicini.... – p. 3 Ed invece... Dal sito www.giocodellotto.com: ...come tutti i grandi giochi, il Lotto ha molte anime: se è vero, infatti, che è semplicissimo fare una giocata, è altrettanto vero che le possibilità di gioco sono moltissime: approfondendo la conoscenza del Gioco del Lotto si entra in un mondo complesso, affascinante, dalle mille sfumature. ... Come negli Scacchi o nei giochi di strategia, insomma, le regole necessarie per iniziare sono poche e alla portata di tutti, ma le possibili evoluzioni, le tecniche, le filosofie, le meccaniche avanzate sono innumerevoli. – p. 3 Il potere del caso. – p. 3 Il potere del caso. Il caso permette di ottenere qualunque cosa. – p. 3 Il potere del caso. Il caso permette di ottenere qualunque cosa. Basta avere tempo da aspettare. – p. 3 Il potere del caso. Il caso permette di ottenere qualunque cosa. Basta avere tempo da aspettare. • 36 volte pari alla roulette di Montecarlo – p. 3 Il potere del caso. Il caso permette di ottenere qualunque cosa. Basta avere tempo da aspettare. • • 36 volte pari alla roulette di Montecarlo la mancanza del 53 per 182 estrazioni nella ruota di Venezia – p. 3 Il potere del caso. Il caso permette di ottenere qualunque cosa. Basta avere tempo da aspettare. • • • 36 volte pari alla roulette di Montecarlo la mancanza del 53 per 182 estrazioni nella ruota di Venezia la nascita della vita sulla terra – p. 3 Il potere del caso. Il caso permette di ottenere qualunque cosa. Basta avere tempo da aspettare. • • • • 36 volte pari alla roulette di Montecarlo la mancanza del 53 per 182 estrazioni nella ruota di Venezia la nascita della vita sulla terra la nascita dell’uomo sulla terra – p. 3 Il potere del caso. Il caso permette di ottenere qualunque cosa. Basta avere tempo da aspettare. • • • • 36 volte pari alla roulette di Montecarlo la mancanza del 53 per 182 estrazioni nella ruota di Venezia la nascita della vita sulla terra la nascita dell’uomo sulla terra L’accadimento di eventi improbabili non implica un disegno. Importante è la scala temporale che stiamo osservando. – p. 3 La Divina Commedia. – p. 3 La Divina Commedia. > 42.000 caratteri; 28 possibili segni. – p. 3 La Divina Commedia. > 42.000 caratteri; 28 possibili segni. Una scimmia che batte a caso su un computer per 42.000 volte uno dei 28 segni alla volta produrrà la Divina Commedia con probabilità p= 1 2842000 – p. 3 La Divina Commedia. > 42.000 caratteri; 28 possibili segni. Una scimmia che batte a caso su un computer per 42.000 volte uno dei 28 segni alla volta produrrà la Divina Commedia con probabilità p= 1 2842000 Ripetendo l’esperimento 2842000 volte, con probabilità molto alta almeno una volta la scimmia avrà scritto la Divina Commedia. – p. 3 La Divina Commedia. > 42.000 caratteri; 28 possibili segni. Una scimmia che batte a caso su un computer per 42.000 volte uno dei 28 segni alla volta produrrà la Divina Commedia con probabilità p= 1 2842000 Ripetendo l’esperimento 2842000 volte, con probabilità molto alta almeno una volta la scimmia avrà scritto la Divina Commedia. 2842000 è un numero con oltre 180000 cifre!! – p. 3 Scegliere a caso? – p. 3 Scegliere a caso? Per alcuni scopi (come vincere alla roulette a al lotto) qualunque strategia da gli stessi risultati. Si possono dunque scegliere a caso le giocate. – p. 3 Scegliere a caso? Per alcuni scopi (come vincere alla roulette a al lotto) qualunque strategia da gli stessi risultati. Si possono dunque scegliere a caso le giocate. In questo caso scegliere a caso è indifferente. – p. 3 Scegliere a caso? Per alcuni scopi (come vincere alla roulette a al lotto) qualunque strategia da gli stessi risultati. Si possono dunque scegliere a caso le giocate. In questo caso scegliere a caso è indifferente. Esistono situazioni in cui scegliere a caso è conveniente? – p. 3 Scegliere a caso? dal Corriere della Sera del 30 dicembre 2004: CRONACHE Trento, genitori contro: il giudice fa fare «testa o croce» TRENTO - Con la mamma o con il papà per le vacanze di Natale? Decide la monetina.«L’ho fatto nell’interesse del bambino - ha spiegato il giudice -. Legali e genitori non si mettevano d’accordo e non c’era tempo per riunire la camera di Consiglio. Così ho detto ai genitori di affidarsi al caso. Ho agito nell’interesse del bambino». La fortuna ha arriso alla madre, che ha potuto così trascorrere il Natale con suo figlio. – p. 3 Scegliere a caso? Sembra strano possa esistere un valido principio di progettualità fondato sul caso. (incontro) – p. 3 Scegliere a caso? Sembra strano possa esistere un valido principio di progettualità fondato sul caso. Scrivere i libri battendo a caso su una tastiera ad esempio non è un metodo molto efficace. (incontro) – p. 3 Scegliere a caso? Sembra strano possa esistere un valido principio di progettualità fondato sul caso. Scrivere i libri battendo a caso su una tastiera ad esempio non è un metodo molto efficace. Non va tuttavia dimenticato l’immenso potere generatore del caso ..... (incontro) – p. 3 Trasmettere bit Attraverso una linea telefonica disturbata si vuole trasmettere un pacchetto di 4 numeri binari (0 o 1). Il ricevitore può equivocare ogni bit inviato con probabilità 0.1. – p. 3 Trasmettere bit Attraverso una linea telefonica disturbata si vuole trasmettere un pacchetto di 4 numeri binari (0 o 1). Il ricevitore può equivocare ogni bit inviato con probabilità 0.1. Con che probabilità vengono ricevuti tutti giusti? – p. 3 Trasmettere bit Attraverso una linea telefonica disturbata si vuole trasmettere un pacchetto di 4 numeri binari (0 o 1). Il ricevitore può equivocare ogni bit inviato con probabilità 0.1. Con che probabilità vengono ricevuti tutti giusti? Ω = {c, e}4 c TX corretta , e TX errata p(c) = 0.9 , p(e) = 0.1 – p. 3 Trasmettere bit Attraverso una linea telefonica disturbata si vuole trasmettere un pacchetto di 4 numeri binari (0 o 1). Il ricevitore può equivocare ogni bit inviato con probabilità 0.1. Con che probabilità vengono ricevuti tutti giusti? Ω = {c, e}4 c TX corretta , e TX errata p(c) = 0.9 , p(e) = 0.1 p(nessun errore) = p(cccc) = 0.94 = 0.656 . – p. 3 Trasmettere bit Attraverso una linea telefonica disturbata si vuole trasmettere un pacchetto di 4 numeri binari (0 o 1). Il ricevitore può equivocare ogni bit inviato con probabilità 0.1. Con che probabilità vengono ricevuti tutti giusti? Ω = {c, e}4 c TX corretta , e TX errata p(c) = 0.9 , p(e) = 0.1 p(nessun errore) = p(cccc) = 0.94 = 0.656 . Come fare per trasmettere i bit più fedelmente? – p. 3 Trasmettere bit Idea molto semplice: spedire lo stesso bit più volte. – p. 4 Trasmettere bit Idea molto semplice: spedire lo stesso bit più volte. 0 7→ 000, 1 7→ 111 Il ricevitore decide con la regola di maggioranza: {000, 100, 010, 001} 7→ 0 , {111, 011, 101, 110} 7→ 1 – p. 4 Trasmettere bit Idea molto semplice: spedire lo stesso bit più volte. 0 7→ 000, 1 7→ 111 Il ricevitore decide con la regola di maggioranza: {000, 100, 010, 001} 7→ 0 , {111, 011, 101, 110} 7→ 1 Supponiamo di spedire 000: p(e) = p(111) + p(011) + p(101) + p(110) = 0.13 + 3 · 0.12 · 0.9 = 0.028 < 0.1 – p. 4 Trasmettere bit Idea molto semplice: spedire lo stesso bit più volte. 0 7→ 000, 1 7→ 111 Il ricevitore decide con la regola di maggioranza: {000, 100, 010, 001} 7→ 0 , {111, 011, 101, 110} 7→ 1 Supponiamo di spedire 000: p(e) = p(111) + p(011) + p(101) + p(110) = 0.13 + 3 · 0.12 · 0.9 = 0.028 < 0.1 p(nessun errore) = 0.9724 = 0.893 > 0.656 . – p. 4 Trasmettere bit E se volessimo migliorare ancora? – p. 4 Trasmettere bit E se volessimo migliorare ancora? E’ chiaro che aumentando il numero di ripetizioni, si riesce ad abbassare la probabilità di errore quanto vogliamo. – p. 4 Trasmettere bit E se volessimo migliorare ancora? E’ chiaro che aumentando il numero di ripetizioni, si riesce ad abbassare la probabilità di errore quanto vogliamo. Questa ha però delle conseguenze. Si introduce sempre più ritardo nella trasmissione ed in molte applicazioni questo non è accettabile. – p. 4 Trasmettere bit E se volessimo migliorare ancora? E’ chiaro che aumentando il numero di ripetizioni, si riesce ad abbassare la probabilità di errore quanto vogliamo. Questa ha però delle conseguenze. Si introduce sempre più ritardo nella trasmissione ed in molte applicazioni questo non è accettabile. Fino al 1948 non si pensava ci fosse via d’uscita. Se si voleva rendere piccola la probabilità di commettere errori, si doveva far crescere indefinitamente il ritardo nella trasmissione introducendo sempre più ridondanza. – p. 4 Un lavoro fondamentale Le cose non stanno così! Si può abbassare la probabilità di errore quanto vogliamo, senza ridondanza infinita! – p. 4 Un lavoro fondamentale Le cose non stanno così! Si può abbassare la probabilità di errore quanto vogliamo, senza ridondanza infinita! C. Shannon, A Mathematical theory of communications, 1948, Bell Labs. – p. 4 La rivoluzione di Shannon Il punto fondamentale è introdurre la ridondanza in maniera più intelligente che semplicemente ripetendo un bit più volte. – p. 4 La rivoluzione di Shannon L’idea generale della codifica: – p. 4 La rivoluzione di Shannon L’idea generale della codifica: k u ∈ {0, 1} messaggio da trasmettere – p. 4 La rivoluzione di Shannon L’idea generale della codifica: k u ∈ {0, 1} messaggio da trasmettere ↓ x = E(u) ∈ {0, 1}n messaggio codificato – p. 4 La rivoluzione di Shannon L’idea generale della codifica: k u ∈ {0, 1} messaggio da trasmettere ↓ x = E(u) ∈ {0, 1}n messaggio codificato I messaggi da trasmettere costituiti da k bit vengono allungati a messaggi di n bit. R = k/n è detto il ’rate’ del codificatore. – p. 4 La rivoluzione di Shannon L’idea generale della codifica: k u ∈ {0, 1} messaggio da trasmettere ↓ x = E(u) ∈ {0, 1}n messaggio codificato I messaggi da trasmettere costituiti da k bit vengono allungati a messaggi di n bit. R = k/n è detto il ’rate’ del codificatore. (prima k = 4, n = 12, R = 1/3) – p. 4 La rivoluzione di Shannon L’idea generale della codifica: k u ∈ {0, 1} messaggio da trasmettere ↓ x = E(u) ∈ {0, 1}n messaggio codificato Come si scelgono i messaggi codificati E(u)? – p. 4 La rivoluzione di Shannon L’idea generale della codifica: k u ∈ {0, 1} messaggio da trasmettere ↓ x = E(u) ∈ {0, 1}n messaggio codificato Come si scelgono i messaggi codificati E(u)? Ci sono 2k messaggi codificati E(u) da scegliere tra i 2n disponibili in {0, 1}n . – p. 4 La rivoluzione di Shannon L’idea generale della codifica: k u ∈ {0, 1} messaggio da trasmettere ↓ x = E(u) ∈ {0, 1}n messaggio codificato Come si scelgono i messaggi codificati E(u)? Ci sono 2k messaggi codificati E(u) da scegliere tra i 2n disponibili in {0, 1}n . Idea: sceglierli in modo che siano tra loro il più possibile diversi, in modo che equivocare sia difficile. – p. 4 La rivoluzione di Shannon L’idea generale della codifica: k u ∈ {0, 1} messaggio da trasmettere ↓ x = E(u) ∈ {0, 1}n messaggio codificato Come decodifica il ricevitore? – p. 4 La rivoluzione di Shannon L’idea generale della codifica: k u ∈ {0, 1} messaggio da trasmettere ↓ x = E(u) ∈ {0, 1}n messaggio codificato Come decodifica il ricevitore? Se riceve x che è eguale ad E(u) decide che il messaggio inviato è u. – p. 4 La rivoluzione di Shannon L’idea generale della codifica: k u ∈ {0, 1} messaggio da trasmettere ↓ x = E(u) ∈ {0, 1}n messaggio codificato Come decodifica il ricevitore? Se riceve x che è eguale ad E(u) decide che il messaggio inviato è u. Se riceve x che non è eguale a nessun E(u) sa che qualche errore è incorso e decide per quella u per cui E(u) è il più possibile vicino a x. – p. 4 La rivoluzione di Shannon Teorema (Shannon, 1948): Dato un canale, esiste un numero C detto capacità del canale, tale che comunque scegliamo R < C esistono codificatori di rate R per i quali la probabilità di commettere un errore è arbitrariamente piccola. – p. 4 La rivoluzione di Shannon Teorema (Shannon, 1948): Dato un canale, esiste un numero C detto capacità del canale, tale che comunque scegliamo R < C esistono codificatori di rate R per i quali la probabilità di commettere un errore è arbitrariamente piccola. C è calcolabile! – p. 4 La rivoluzione di Shannon Teorema (Shannon, 1948): Dato un canale, esiste un numero C detto capacità del canale, tale che comunque scegliamo R < C esistono codificatori di rate R per i quali la probabilità di commettere un errore è arbitrariamente piccola. C è calcolabile! Nel nostro caso: C = 1 + 0.1 log2 0.1 + 0.9 log2 0.9 = 0.53 – p. 4 La rivoluzione di Shannon Teorema (Shannon, 1948): Dato un canale, esiste un numero C detto capacità del canale, tale che comunque scegliamo R < C esistono codificatori di rate R per i quali la probabilità di commettere un errore è arbitrariamente piccola. C è calcolabile! Nel nostro caso: C = 1 + 0.1 log2 0.1 + 0.9 log2 0.9 = 0.53 R = 1/2 è accettabile. Si può trasmettere a questo rate con probabilità bassa quanto vogliamo. – p. 4 La rivoluzione di Shannon Teorema (Shannon, 1948): Dato un canale, esiste un numero C detto capacità del canale, tale che comunque scegliamo R < C esistono codificatori di rate R per i quali la probabilità di commettere un errore è arbitrariamente piccola. Attenzione: k → +∞, n → +∞, ma R = k/n fisso! – p. 4 La rivoluzione di Shannon Problema: costruire, nel nostro caso, un codificatore con k = 4, n = 8, per il quale la probabilità di un errore nella ricezione sia inferiore a 0.2. – p. 4 La rivoluzione di Shannon Problema: come costruire la codifica ottimale. – p. 4 La rivoluzione di Shannon Problema: come costruire la codifica ottimale. La dimostrazione di Shannon non è costruttiva! Ma contiene delle bellissime idee: – p. 4 La rivoluzione di Shannon Problema: come costruire la codifica ottimale. La dimostrazione di Shannon non è costruttiva! Ma contiene delle bellissime idee: • Fissato R < C considera tutte i possibili codificatori di rate R. – p. 4 La rivoluzione di Shannon Problema: come costruire la codifica ottimale. La dimostrazione di Shannon non è costruttiva! Ma contiene delle bellissime idee: • • Fissato R < C considera tutte i possibili codificatori di rate R. Calcola la probabilità media di errore e mostra che essa va verso 0 all’aumentare di n. – p. 4 La rivoluzione di Shannon Problema: come costruire la codifica ottimale. La dimostrazione di Shannon non è costruttiva! Ma contiene delle bellissime idee: • • • Fissato R < C considera tutte i possibili codificatori di rate R. Calcola la probabilità media di errore e mostra che essa va verso 0 all’aumentare di n. Ne segue che deve esistere almeno un codificatore ’buono’ – p. 4 La rivoluzione di Shannon Problema: come costruire la codifica ottimale. La dimostrazione di Shannon non è costruttiva! Ma contiene delle bellissime idee: • • • • Fissato R < C considera tutte i possibili codificatori di rate R. Calcola la probabilità media di errore e mostra che essa va verso 0 all’aumentare di n. Ne segue che deve esistere almeno un codificatore ’buono’ Si può dimostrare che sono quasi tutti buoni. Più si aumenta la lunghezza n, più probabile sarà che un codificatore scelto a caso sia ’buono’! – p. 4 La teoria dei codici Sfortunatamente i codificatori scelti a caso, sono estremamente complicati e gli algoritmi di decodifica risultano troppo complessi. – p. 5 La teoria dei codici Sfortunatamente i codificatori scelti a caso, sono estremamente complicati e gli algoritmi di decodifica risultano troppo complessi. Dal 1948 si è cercato di costruire codificatori che permettessero di raggiungere il limite di Shannon, ma che non fossero troppo complicati. – p. 5 La teoria dei codici Sfortunatamente i codificatori scelti a caso, sono estremamente complicati e gli algoritmi di decodifica risultano troppo complessi. Dal 1948 si è cercato di costruire codificatori che permettessero di raggiungere il limite di Shannon, ma che non fossero troppo complicati. Con non troppo successo. Per oltre 40 anni, siamo rimasti ben lontani dal limite di Shannon.... – p. 5 La teoria dei codici La svolta avviene all’inizio degli anni ’90 con l’invenzione dei turbo-codici: codici costituiti di una parte da scegliere a caso e di una parte ben strutturata che garantiva una bassa complessità. Con questi si è sfiorato il limite di Shannon. – p. 5 La teoria dei codici La svolta avviene all’inizio degli anni ’90 con l’invenzione dei turbo-codici: codici costituiti di una parte da scegliere a caso e di una parte ben strutturata che garantiva una bassa complessità. Con questi si è sfiorato il limite di Shannon. La teoria dei codici ha avuto utilizzi pratici enormi e ha permesso l’avvento dell’era digitale. Codifiche si sono usate e si usano ad esempio: • • • nella trasmissione digitale su reti telefoniche, nelle comunicazioni celluari, nelle trasmissioni satellitari. – p. 5 Scegliere a caso Le idee di Shannon si sono rivelate estremamente feconde. E’ uno dei primi casi in cui una scelta casuale viene inserita direttamente nella ricerca di un oggetto specifico. – p. 5 Scegliere a caso Le idee di Shannon si sono rivelate estremamente feconde. E’ uno dei primi casi in cui una scelta casuale viene inserita direttamente nella ricerca di un oggetto specifico. L’avvento dei turbo-codici ha confermato che il caso può essere un elemento vincente all’interno di un progetto. – p. 5 L’appuntamento 10 persone, munite di cellulare, si vogliono incontrare. Ciascuno può inviare, ogni minuto, un solo messaggio per descrivere la sua posizione ad un altro. Quale è la strategia per incontrarsi tutti il più velocemente possibile? – p. 5 L’appuntamento: una strategia (xi (t), yi (t)) posizione della persona i al tempo t. – p. 5 L’appuntamento: una strategia (xi (t), yi (t)) posizione della persona i al tempo t. Se i riceve la posizione da j al tempo t allora: (t) + x (t) x i j xi (t + 1) = 2 yi (t + 1) = yi (t) + yj (t) 2 – p. 5 L’appuntamento: una strategia (xi (t), yi (t)) posizione della persona i al tempo t. Se i riceve la posizione da j al tempo t allora: (t) + x (t) x i j xi (t + 1) = 2 yi (t + 1) = yi (t) + yj (t) 2 (xi (t + 1), yi (t + 1)) (xi (t), yi (t)) c! ! ! ! ! ! ! c ! ! c ! !! (xj (t), yj (t)) – p. 5 L’appuntamento: una strategia (xi (t), yi (t)) posizione della persona i al tempo t. Se i riceve la posizione da j al tempo t allora: (t) + x (t) x i j xi (t + 1) = 2 yi (t + 1) = yi (t) + yj (t) 2 Una possibilità di comunicazione: 1 ← 2 ← 3 ← 4 ← 5 ← 6 ← 7 ← 8 ← 9 ← 10 ← 1 – p. 5 Ecco come si comporta: 1m 2m 10m 6m 3m 4m 9m 7m 8m 5m – p. 5 Ecco come si comporta: 10m 1m 2m 9m3m 6m 5m 4m 8m 7m – p. 5 Ecco come si comporta: 10m 1m 9m 2m m 5 3m 4m 8m 6m 7m – p. 5 Ecco come si comporta: 9m 1m m m 4 3 10m m 8 2m 5m 7m 6m – p. 5 Ecco come si comporta: 9m 10m 8m 1m 2m m 4 m 3 7m 5m m 6 – p. 5 Ecco come si comporta: 10m 9m 1m 2m 3m 78m 4m 6m 5m (simula) – p. 5 Quantificare il comportamento Una misura di distanza dall’equilibrio Xq (xi (t) − xj (t))2 + (yi (t) − yj (t))2 . ∆(t) = i6=j – p. 5 Quantificare il comportamento Una misura di distanza dall’equilibrio Xq (xi (t) − xj (t))2 + (yi (t) − yj (t))2 . ∆(t) = i6=j Fattore di contrazione con la tecnica precedente: q ρ = 12 + 12 cos 2π 10 ≃ 0.95. ∆(t + 1) ≤ ρ∆(t) . – p. 5 Quantificare il comportamento Una misura di distanza dall’equilibrio Xq (xi (t) − xj (t))2 + (yi (t) − yj (t))2 . ∆(t) = i6=j Fattore di contrazione con la tecnica precedente: q ρ = 12 + 12 cos 2π 10 ≃ 0.95. ∆(t + 1) ≤ ρ∆(t) . Si può fare di meglio? (Mantenendo il vincolo di un solo messaggio.) – p. 5 Seconda strategia Stessa struttura dinamica: Se i riceve la posizione da j al tempo t allora: (t) + x (t) x i j xi (t + 1) = 2 yi (t + 1) = yi (t) + yj (t) 2 – p. 5 Seconda strategia Stessa struttura dinamica: Se i riceve la posizione da j al tempo t allora: (t) + x (t) x i j xi (t + 1) = 2 yi (t + 1) = yi (t) + yj (t) 2 ma lo schema di comunicazione cambia, in modo casuale, ad ogni passo: – p. 5 Seconda strategia 1 ← 2 ← 3 ← 4 ← 5 ← 6 ← 7 ← 8 ← 9 ← 10 ← 1 – p. 5 Seconda strategia 1 ← 2 ← 3 ← 4 ← 5 ← 6 ← 7 ← 8 ← 9 ← 10 ← 1 1 ← 6 ← 7 ← 10 ← 2 ← 5 ← 3 ← 8 ← 9 ← 4 ← 1 – p. 5 Seconda strategia 1 ← 2 ← 3 ← 4 ← 5 ← 6 ← 7 ← 8 ← 9 ← 10 ← 1 1 ← 6 ← 7 ← 10 ← 2 ← 5 ← 3 ← 8 ← 9 ← 4 ← 1 1 ← 8 ← 9 ← 3 ← 7 ← 2 ← 6 ← 10 ← 4 ← 5 ← 1 – p. 5 Seconda strategia 1 ← 2 ← 3 ← 4 ← 5 ← 6 ← 7 ← 8 ← 9 ← 10 ← 1 1 ← 6 ← 7 ← 10 ← 2 ← 5 ← 3 ← 8 ← 9 ← 4 ← 1 1 ← 8 ← 9 ← 3 ← 7 ← 2 ← 6 ← 10 ← 4 ← 5 ← 1 1 ← 5 ← 10 ← 8 ← 2 ← 6 ← 7 ← 3 ← 9 ← 4 ← 1 – p. 5 Seconda strategia 1 ← 2 ← 3 ← 4 ← 5 ← 6 ← 7 ← 8 ← 9 ← 10 ← 1 1 ← 6 ← 7 ← 10 ← 2 ← 5 ← 3 ← 8 ← 9 ← 4 ← 1 1 ← 8 ← 9 ← 3 ← 7 ← 2 ← 6 ← 10 ← 4 ← 5 ← 1 1 ← 5 ← 10 ← 8 ← 2 ← 6 ← 7 ← 3 ← 9 ← 4 ← 1 1 ← 3 ← 7 ← 10 ← 8 ← 4 ← 6 ← 9 ← 5 ← 2 ← 1 – p. 5 Seconda strategia 1 ← 2 ← 3 ← 4 ← 5 ← 6 ← 7 ← 8 ← 9 ← 10 ← 1 1 ← 6 ← 7 ← 10 ← 2 ← 5 ← 3 ← 8 ← 9 ← 4 ← 1 1 ← 8 ← 9 ← 3 ← 7 ← 2 ← 6 ← 10 ← 4 ← 5 ← 1 1 ← 5 ← 10 ← 8 ← 2 ← 6 ← 7 ← 3 ← 9 ← 4 ← 1 1 ← 3 ← 7 ← 10 ← 8 ← 4 ← 6 ← 9 ← 5 ← 2 ← 1 1 ← 2 ← 5 ← 3 ← 7 ← 10 ← 9 ← 4 ← 6 ← 8 ← 1 – p. 5 Ecco come si comporta 1m 2m 10m 6m 3m 4m 9m 7m 8m 5m – p. 5 Ecco come si comporta 1m 4m 10m m 7 6m 9m 2m 5m 3m 8m – p. 5 Ecco come si comporta 10m 6m m 5m m 1 m4 m 7 2 3m 9m 8m – p. 5 Ecco come si comporta 5m m 26m m 10m 14m m m 7 9m m 8 3 – p. 5 Ecco come si comporta 5m m m m 9 2 1 4 m m 67 10m8m 3m – p. 5 Ecco come si comporta 2m m m 9 1 m m m m 4m 5m 10 8 m 763 (simula) – p. 5 Comparazione 1m 2m 10m 6m 3m 4m 9m 7m 8m 5m – p. 6 Comparazione 1m m 10 m 1 4m 2m 10m m 7 6m 9m3m 6m 9m 5m 4m 2m 5m 3m 8m 8m 7m – p. 6 Comparazione 10m 10m 1m 9m 6mm 2 m 5 3m 4m m 5m m 1 m4 m 7 2 3m m m m 6 89 8m 7m – p. 6 Comparazione 9m 1m 10m 5m m m 6 m 2 m 10m 14m 8 2m m m 7 9m m m 85 3 m m 4 3 7m 6m – p. 6 Comparazione 9m 10m 8m m 15m m m m 9 2 1 4 m m 67 m 10m8m m 3 m 7 2 m m 4 5 m 3 6m – p. 6 Comparazione 10m 9m 2m m m 9 1m 7 8 m m m m 4 5 8 1 10 7m 6m 3m 2m 3m 4m 6m 5m (simula) – p. 6 Confronto quantitativo ρ= q 1 2 + 12 cos 2π 10 ≃ 0.95, ρ= 1 2 ∆(t + 1) ≤ ρ∆(t) . – p. 6 Confronto quantitativo ρ= q 1 2 + 12 cos 2π 10 ≃ 0.95, ρ= 1 2 ∆(t + 1) ≤ ρ∆(t) . 10 → N : q ρ = 12 + 12 cos 2π N ∼1− 2π 2 N2 , ρ= 1 2 – p. 6 Il controllo coordinato Il problema che abbiamo appena considerato è un esempio di controllo coordinato. – p. 6 Il controllo coordinato Il problema che abbiamo appena considerato è un esempio di controllo coordinato. • Molti agenti (robot) – p. 6 Il controllo coordinato Il problema che abbiamo appena considerato è un esempio di controllo coordinato. • • Molti agenti (robot) Obbiettivo comune: incontro, muoversi con la stessa velocità, ... – p. 6 Il controllo coordinato Il problema che abbiamo appena considerato è un esempio di controllo coordinato. • • • Molti agenti (robot) Obbiettivo comune: incontro, muoversi con la stessa velocità, ... Comunicazioni ridotte – p. 6 Il controllo coordinato Il problema che abbiamo appena considerato è un esempio di controllo coordinato. • • • • Molti agenti (robot) Obbiettivo comune: incontro, muoversi con la stessa velocità, ... Comunicazioni ridotte Mancanza di un leader nel gruppo. – p. 6 Il controllo coordinato Il problema che abbiamo appena considerato è un esempio di controllo coordinato. • • • • Molti agenti (robot) Obbiettivo comune: incontro, muoversi con la stessa velocità, ... Comunicazioni ridotte Mancanza di un leader nel gruppo. Si cerca di riprodurre fenomeni presenti nel comportamento degli animali in gruppo. – p. 6 I comportamenti coordinati – p. 6 I comportamenti coordinati – p. 6 I comportamenti coordinati – p. 6 I comportamenti coordinati – p. 6 I comportamenti coordinati – p. 6 I comportamenti coordinati – p. 6