Testa o croce: quando conviene scegliere a caso

Testa o croce:
quando conviene scegliere a caso
Fabio Fagnani
[email protected]
http://calvino.polito.it/∼fagnani/
Dipartimento di Matematica
Politecnico di Torino
– p.
Quale ricerca?
– p.
Quale ricerca?
•
•
•
Teoria dei controlli e dei codici.
Forti legami con le ingegnerie dell’automazione e
delle telecomunicazioni e con la fisica.
Ricerca intrinsecamente interdisciplinare.
– p.
Quale ricerca?
•
•
•
•
Teoria dei controlli e dei codici.
Forti legami con le ingegnerie dell’automazione e
delle telecomunicazioni e con la fisica.
Ricerca intrinsecamente interdisciplinare.
Che matematica entra in gioco?
• Analisi
• Algebra
• Teoria dei grafi, combinatorica
• Probabilità
– p.
Una lezione sulla probabilità
– p.
Una lezione sulla probabilità
•
La genesi: una breve introduzione storica.
– p.
Una lezione sulla probabilità
•
La genesi: una breve introduzione storica.
•
Alcuni problemi classici.
– p.
Una lezione sulla probabilità
•
La genesi: una breve introduzione storica.
•
Alcuni problemi classici.
•
Alcune questioni più avanzate.
– p.
La genesi della probabilità
Non è una genesi delle più nobili: nasce nelle bische
clandestine della Francia seicentesca.
Ha una data di nascita ufficiale: il 1654.
Un importante precursore:
Cardano, Liber de Ludo Aleae, 1520, pubblicato nel
1663.
– p.
Che cosa accadde nel 1654?
– p.
Che cosa accadde nel 1654?
Un gioco allora alla moda:
la ‘casa’ scommette alla pari con un giocatore che
quest’ultimo, lanciando per 4 volte un dado, ottenga
almeno una volta 6.
Questo gioco è favorevole alla casa che ‘in media’ vince il 52%
delle volte.
– p.
Che cosa accadde nel 1654?
Un gioco allora alla moda:
la ‘casa’ scommette alla pari con un giocatore che
quest’ultimo, lanciando per 4 volte un dado, ottenga
almeno una volta 6.
Questo gioco è favorevole alla casa che ‘in media’ vince il 52%
delle volte.
Una variante di Antoine Gombauld Chevalier de
Méré:
la ‘casa’ scommette alla pari con un giocatore che
quest’ultimo, lanciando per 24 volte una coppia di
dadi, ottenga almeno una volta il doppio 6.
– p.
Che cosa accadde nel 1654?
Anche questo gioco, secondo il de Méré, dovrebbe
essere leggermente favorevole alla casa:
– p.
Che cosa accadde nel 1654?
Anche questo gioco, secondo il de Méré, dovrebbe
essere leggermente favorevole alla casa:
•
6 risultati possibili lanciando un dado: la
probabilità che esca il 6 è 1/6;
– p.
Che cosa accadde nel 1654?
Anche questo gioco, secondo il de Méré, dovrebbe
essere leggermente favorevole alla casa:
•
•
6 risultati possibili lanciando un dado: la
probabilità che esca il 6 è 1/6;
36 risultati possibili lanciando due dadi: la
probabilità che esca il doppio 6 è 1/36 (6 volte
più bassa);
– p.
Che cosa accadde nel 1654?
Anche questo gioco, secondo il de Méré, dovrebbe
essere leggermente favorevole alla casa:
•
•
•
6 risultati possibili lanciando un dado: la
probabilità che esca il 6 è 1/6;
36 risultati possibili lanciando due dadi: la
probabilità che esca il doppio 6 è 1/36 (6 volte
più bassa);
lanciando la coppia di dadi 6 volte di più
(24 = 6 × 4) si dovrebbe controbilanciare
l’effetto di considerare un evento meno probabile
di un fattore 6.
– p.
Che cosa accadde nel 1654?
Anche questo gioco, secondo il de Méré, dovrebbe
essere leggermente favorevole alla casa:
•
•
•
•
6 risultati possibili lanciando un dado: la
probabilità che esca il 6 è 1/6;
36 risultati possibili lanciando due dadi: la
probabilità che esca il doppio 6 è 1/36 (6 volte
più bassa);
lanciando la coppia di dadi 6 volte di più
(24 = 6 × 4) si dovrebbe controbilanciare
l’effetto di considerare un evento meno probabile
di un fattore 6.
.... si dovrebbe avere quindi la stessa probabilità.
– p.
Che cosa accadde nel 1654?
E invece no! Quest’ultimo gioco non è favorevole alla
casa, ma al giocatore.
– p.
Che cosa accadde nel 1654?
E invece no! Quest’ultimo gioco non è favorevole alla
casa, ma al giocatore.
Ne era consapevole il de Méré, non è chiaro se per
averlo provato a sue spese o per qualche intuizione
teorica.
Decise di parlarne con un brillante francese
dell’epoca, Blaise Pascal che risolse il problema
postogli dal de Méré provando anche che con 25 lanci
il gioco sarebbe allora stato favorevole alla casa.
– p.
Lo sviluppo successivo
Con Pascal e poi Fermat, Huygens, Leibnitz,
Bernoulli si sviluppa la probabilità. Per la fine del
1600 è già una teoria autonoma.
– p.
Lo sviluppo successivo
Con Pascal e poi Fermat, Huygens, Leibnitz,
Bernoulli si sviluppa la probabilità. Per la fine del
1600 è già una teoria autonoma.
Laplace 1812:
E davvero notevole che una scienza nata
dall’osservazione dei giochi d’azzardo sia divenuta
l’oggetto più importante della umana conoscenza!
– p.
Lo sviluppo successivo
Tuttavia,
nonostante Laplace, Poisson, De Moivre, Gauss
nonostante le spettacolari applicazioni alla fisica di
Maxwell, Boltzmann, Einstein
la probabilità come disciplina matematica quasi
scompare dalla scena per oltre 100 anni.
– p.
Lo sviluppo successivo
Solo dal 1930 comincia ad acquisire un’autonomia e
un rispetto nei circoli matematici.
Ha molta fortuna in Francia dove è nata, in Russia,
negli Stati Uniti, poca in Italia...
– p.
Lo sviluppo successivo
Solo dal 1930 comincia ad acquisire un’autonomia e
un rispetto nei circoli matematici.
Ha molta fortuna in Francia dove è nata, in Russia,
negli Stati Uniti, poca in Italia...
Fino a qualche anno fa, in Italia, ci si poteva laureare
in Matematica senza aver sostenuto un solo esame di
probabilità.
– p.
Lo sviluppo successivo
Questo spiega in parte il motivo della scarsa
penetrazione delle idee probabilistiche nella cultura
comune.
Con gravi conseguenze, perchè la probabilità ha nel
contempo aumentato la sua influenza ed importanza.
• Genetica
• Teoria dell’Informazione
• Modelli finanziari
– p. 1
Quando serve la probabilità?
– p. 1
Quando serve la probabilità?
La probabilità interviene ogni volta che effettuiamo,
assistiamo ad un esperimento l’esito del quale non è
completamente determinato a priori e può avere un
certo numero di diversi risultati.
– p. 1
Quando serve la probabilità?
La probabilità interviene ogni volta che effettuiamo,
assistiamo ad un esperimento l’esito del quale non è
completamente determinato a priori e può avere un
certo numero di diversi risultati.
•
Lancio di una moneta: 2 possibili risultati T o C.
– p. 1
Quando serve la probabilità?
La probabilità interviene ogni volta che effettuiamo,
assistiamo ad un esperimento l’esito del quale non è
completamente determinato a priori e può avere un
certo numero di diversi risultati.
•
•
Lancio di una moneta: 2 possibili risultati T o C.
Lancio di un dado: 6 possibili risultati.
– p. 1
Quando serve la probabilità?
La probabilità interviene ogni volta che effettuiamo,
assistiamo ad un esperimento l’esito del quale non è
completamente determinato a priori e può avere un
certo numero di diversi risultati.
•
•
•
Lancio di una moneta: 2 possibili risultati T o C.
Lancio di un dado: 6 possibili risultati.
Estrazione di una pallina da un’urna contenente
palline rosse, bianche, nere e gialle: 4 possibili
risultati.
– p. 1
Quando serve la probabilità?
La probabilità interviene ogni volta che effettuiamo,
assistiamo ad un esperimento l’esito del quale non è
completamente determinato a priori e può avere un
certo numero di diversi risultati.
•
•
•
•
Lancio di una moneta: 2 possibili risultati T o C.
Lancio di un dado: 6 possibili risultati.
Estrazione di una pallina da un’urna contenente
palline rosse, bianche, nere e gialle: 4 possibili
risultati.
Numero di connessioni ad un server in un giorno.
– p. 1
Quando serve la probabilità?
Il modello probabilistico serve a descrivere la nostra
mancanza di informazione, la nostra ignoranza su un
fenomeno e prescinde dalla causa di tale ignoranza.
– p. 1
Il modello probabilistico
– p. 1
Il modello probabilistico
Si fissa un insieme che contenga come elementi i
possibili esiti dell’esperimento sotto considerazione.
Questo insieme verrà generalmente indicato con il
simbolo Ω e chiamato spazio degli eventi elementari.
– p. 1
Il modello probabilistico
Si fissa un insieme che contenga come elementi i
possibili esiti dell’esperimento sotto considerazione.
Questo insieme verrà generalmente indicato con il
simbolo Ω e chiamato spazio degli eventi elementari.
L’insieme Ω negli esempi precedenti:
•
Lancio di una moneta: Ω = {T, C}.
•
Lancio di un dado: Ω = {1, 2, 3, 4, 5, 6}.
•
Estrazione dall’urna: Ω = {R, B, N, G}.
Numero di connessioni:
Ω = N = {0, 1, 2, 3, . . . }.
•
– p. 1
Il modello probabilistico
Si fissa un insieme che contenga come elementi i
possibili esiti dell’esperimento sotto considerazione.
Questo insieme verrà generalmente indicato con il
simbolo Ω e chiamato spazio degli eventi elementari.
Ad ogni evento elementare ω ∈ Ω si associa un
numero p(ω): la probabilità che si verifichi ω.
X
p(ω) = 1
p(ω) ≥ 0
ω∈Ω
– p. 1
Il modello probabilistico
Come si sceglie la probabilità p(ω)?
– p. 1
Il modello probabilistico
Come si sceglie la probabilità p(ω)?
– Ipotesi frequentista. In base ad informazioni
statistiche sull’esperimento
Es.: se l’evento ω accade 37 volte su 100, si pone
p(ω) = 37/100.
– p. 1
Il modello probabilistico
Come si sceglie la probabilità p(ω)?
– Ipotesi frequentista. In base ad informazioni
statistiche sull’esperimento
Es.: se l’evento ω accade 37 volte su 100, si pone
p(ω) = 37/100.
– Ipotesi classica. Ragionamenti di simmetria: tutti
gli eventi elementari hanno la stessa probabilità.
Se Ω ha N elementi (|Ω| = N ), si pone p(ω) = 1/N qualunque
sia ω ∈ Ω.
– p. 1
Il modello probabilistico
Come si sceglie la probabilità p(ω)?
– p. 1
Il modello probabilistico
Come si sceglie la probabilità p(ω)?
Moneta
Ω = {T, C}
p(T ) = p(C) = 1/2
– p. 1
Il modello probabilistico
Come si sceglie la probabilità p(ω)?
Dado
Ω = {1, 2, 3, 4, 5, 6}
p(ω) = 1/6, ω = 1, 2, . . . , 6
– p. 1
Il modello probabilistico
Come si sceglie la probabilità p(ω)?
Urna Ω = {R, B, N, G}
p(ω) =?
– p. 1
Il modello probabilistico
Come si sceglie la probabilità p(ω)?
Urna Ω = {R, B, N, G}
p(ω) =?
Composizione dell’urna: 3 palline rosse, 4 bianche, 1
nera, 2 gialle. Totale 10 palline.
– p. 1
Il modello probabilistico
Come si sceglie la probabilità p(ω)?
Urna Ω = {R, B, N, G}
p(ω) =?
Composizione dell’urna: 3 palline rosse, 4 bianche, 1
nera, 2 gialle. Totale 10 palline.
3
4
1
2
p(R) = , p(B) = , p(N ) = , p(G) =
.
10
10
10
10
– p. 1
Il modello probabilistico
Come si sceglie la probabilità p(ω)?
Connessioni Ω = N
p(ω) =?
ipotesi frequentista, ...
– p. 1
Il calcolo delle probabilità
(Ω, p(ω)) spazio delle probabilità.
– p. 1
Il calcolo delle probabilità
(Ω, p(ω)) spazio delle probabilità.
La probabilità di eventi complessi:
X
A⊆Ω
p(A) =
p(ω)
ω∈A
– p. 1
Il calcolo delle probabilità
(Ω, p(ω)) spazio delle probabilità.
La probabilità di eventi complessi:
X
A⊆Ω
p(A) =
p(ω)
ω∈A
Caso di ipotesi classica:
p(A) =
X
ω∈A
|A| casi favorevoli
p(ω) =
.
=
|Ω|
casi possibili
– p. 1
Il calcolo delle probabilità
(Ω, p(ω)) spazio delle probabilità.
La probabilità di eventi complessi:
X
A⊆Ω
p(A) =
p(ω)
ω∈A
Regola del complementare:
p(Ac ) = 1 − p(A)
– p. 1
Esperimenti ripetuti
In molti casi un esperimento consiste nel ripetere un
certo numero di volte un esperimento base: lanci
ripetuti di una moneta o di un dado...
– p. 1
Esperimenti ripetuti
In molti casi un esperimento consiste nel ripetere un
certo numero di volte un esperimento base: lanci
ripetuti di una moneta o di un dado...
Quale struttura probabilistica?
– p. 1
Esperimenti ripetuti
Esperimento base con risultati nell’insieme Ωo .
– p. 1
Esperimenti ripetuti
Esperimento base con risultati nell’insieme Ωo .
Supponiamo di ripetere l’esperimento k volte e di
annotare in ordine i risultati ottenuti. Avremo alla fine
una sequenza ordinata di k elementi di Ωo :
(ω1 , ω2 , . . . , ωk )
dove ωi indica l’esito dell’i-esimo esperimento.
– p. 1
Esperimenti ripetuti
Esperimento base con risultati nell’insieme Ωo .
Supponiamo di ripetere l’esperimento k volte e di
annotare in ordine i risultati ottenuti. Avremo alla fine
una sequenza ordinata di k elementi di Ωo :
(ω1 , ω2 , . . . , ωk )
dove ωi indica l’esito dell’i-esimo esperimento.
NOTAZIONE:
Ω = Ωko = {(ω1 , ω2 , . . . , ωk ) | ω1 , . . . ωk ∈ Ωo }
|Ωo | = No ,
|Ωko | = Nok .
– p. 1
Esperimenti ripetuti
Che probabilità su Ωko ?
– p. 1
Esperimenti ripetuti
Che probabilità su Ωko ?
Se gli eventi in Ω0 sono equiprobabili e i vari
esperimenti sono tra loro indipendenti è logico optare
per l’ipotesi classica:
1
p(ω1 , . . . ωk ) = k
No
(No = |Ωo |)
– p. 1
Ritorno al 1654
Qual’è la probabilità che lanciando per 4 volte un
dado si ottenga almeno una volta 6?
– p. 2
Ritorno al 1654
Qual’è la probabilità che lanciando per 4 volte un
dado si ottenga almeno una volta 6?
Ω0 = {1, 2, . . . , 6} , Ω = Ω40 .
A = {(ω1 , ω2 , ω3 , ω4 ) | almeno un ωi = 6}
– p. 2
Ritorno al 1654
Qual’è la probabilità che lanciando per 4 volte un
dado si ottenga almeno una volta 6?
Ω0 = {1, 2, . . . , 6} , Ω = Ω40 .
A = {(ω1 , ω2 , ω3 , ω4 ) | almeno un ωi = 6}
Ac = {(ω1 , ω2 , ω3 , ω4 ) | ωi 6= 6}
– p. 2
Ritorno al 1654
Qual’è la probabilità che lanciando per 4 volte un
dado si ottenga almeno una volta 6?
Ω0 = {1, 2, . . . , 6} , Ω = Ω40 .
A = {(ω1 , ω2 , ω3 , ω4 ) | almeno un ωi = 6}
Ac = {(ω1 , ω2 , ω3 , ω4 ) | ωi 6= 6}
4
casi
favorevoli
5
= 4
p(Ac ) =
casi possibili
6
– p. 2
Ritorno al 1654
Qual’è la probabilità che lanciando per 4 volte un
dado si ottenga almeno una volta 6?
Ω0 = {1, 2, . . . , 6} , Ω = Ω40 .
A = {(ω1 , ω2 , ω3 , ω4 ) | almeno un ωi = 6}
Ac = {(ω1 , ω2 , ω3 , ω4 ) | ωi 6= 6}
4
casi
favorevoli
5
= 4
p(Ac ) =
casi possibili
6
4
5
p(A) = 1 − p(Ac ) = 1 − 4 ≃ 0.52
6
– p. 2
Ritorno al 1654
Qual’è la probabilità che lanciando per 24 volte una
coppia di dadi si ottenga almeno una volta (6, 6)?
– p. 2
Ritorno al 1654
Qual’è la probabilità che lanciando per 24 volte una
coppia di dadi si ottenga almeno una volta (6, 6)?
Ω0 = {1, 2, . . . , 6}2 , Ω = Ω24
0 .
A = {(ω1 , . . . , ω24 ) | almeno un ωi = (6, 6)}
– p. 2
Ritorno al 1654
Qual’è la probabilità che lanciando per 24 volte una
coppia di dadi si ottenga almeno una volta (6, 6)?
Ω0 = {1, 2, . . . , 6}2 , Ω = Ω24
0 .
A = {(ω1 , . . . , ω24 ) | almeno un ωi = (6, 6)}
Ac = {(ω1 , . . . , ω24 ) | ωi 6= (6, 6)}
– p. 2
Ritorno al 1654
Qual’è la probabilità che lanciando per 24 volte una
coppia di dadi si ottenga almeno una volta (6, 6)?
Ω0 = {1, 2, . . . , 6}2 , Ω = Ω24
0 .
A = {(ω1 , . . . , ω24 ) | almeno un ωi = (6, 6)}
Ac = {(ω1 , . . . , ω24 ) | ωi 6= (6, 6)}
24
35
casi
favorevoli
= 24
p(Ac ) =
casi possibili
36
– p. 2
Ritorno al 1654
Qual’è la probabilità che lanciando per 24 volte una
coppia di dadi si ottenga almeno una volta (6, 6)?
Ω0 = {1, 2, . . . , 6}2 , Ω = Ω24
0 .
A = {(ω1 , . . . , ω24 ) | almeno un ωi = (6, 6)}
Ac = {(ω1 , . . . , ω24 ) | ωi 6= (6, 6)}
24
35
casi
favorevoli
= 24
p(Ac ) =
casi possibili
36
24
35
p(A) = 1 − p(Ac ) = 1 − 24 ≃ 0.49
36
– p. 2
Ritorno al 1654
Esercizio: Qual’è la probabilità che lanciando per 25
volte una coppia di dadi si ottenga almeno una volta
(6, 6)?
– p. 2
L’errore del De Méré.
– p. 2
L’errore del De Méré.
Era così sbagliato il ragionamento del De Méré?
– p. 2
L’errore del De Méré.
Era così sbagliato il ragionamento del De Méré?
In entrambi i casi si sta aspettando l’accadimento di
un certo evento ω che ha probabilità p(ω) = p e si
ripete l’esperimento k volte.
– p. 2
L’errore del De Méré.
Era così sbagliato il ragionamento del De Méré?
In entrambi i casi si sta aspettando l’accadimento di
un certo evento ω che ha probabilità p(ω) = p e si
ripete l’esperimento k volte.
primo caso: ω = 6, p = 1/6, k = 4.
p(non accade mai ω) =
54
64
= 1−
1 4
6
– p. 2
L’errore del De Méré.
Era così sbagliato il ragionamento del De Méré?
In entrambi i casi si sta aspettando l’accadimento di
un certo evento ω che ha probabilità p(ω) = p e si
ripete l’esperimento k volte.
primo caso: ω = 6, p = 1/6, k = 4.
p(non accade mai ω) =
54
64
= 1−
1 4
6
secondo caso: ω = (6, 6), p = 1/36, k = 24.
3524
1 24
p(non accade mai ω) = 3624 = 1 − 36
– p. 2
L’errore del De Méré.
Era così sbagliato il ragionamento del De Méré?
In entrambi i casi si sta aspettando l’accadimento di
un certo evento ω che ha probabilità p(ω) = p e si
ripete l’esperimento k volte.
primo caso: ω = 6, p = 1/6, k = 4.
p(non accade mai ω) =
54
64
= 1−
1 4
=
6
(1 − p)k
secondo caso: ω = (6, 6), p = 1/36, k = 24.
3524
1 24
p(non accade mai ω) = 3624 = 1 − 36 = (1 − p)k
– p. 2
L’errore del De Méré.
Era così sbagliato il ragionamento del De Méré?
In entrambi i casi si sta aspettando l’accadimento di
un certo evento ω che ha probabilità p(ω) = p e si
ripete l’esperimento k volte.
p(non accade mai ω) = (1 − p)k
– p. 2
L’errore del De Méré.
Era così sbagliato il ragionamento del De Méré?
In entrambi i casi si sta aspettando l’accadimento di
un certo evento ω che ha probabilità p(ω) = p e si
ripete l’esperimento k volte.
p(non accade mai ω) = (1 − p)k
Per la regola del complementare,
p(accade almeno una volta ω) = 1 − (1 − p)k
– p. 2
L’errore del De Méré.
Consideriamo f (x) = (1 − x)k
1
0.8
0.6
0.4
0.2
0
0
0.2
0.4
0.6
0.8
1
– p. 2
L’errore del De Méré.
Consideriamo f (x) = (1 − x)k
La retta tangente in (0, f (0)) è: y = 1 − kx.
1
0.8
0.6
0.4
0.2
0
0
0.2
0.4
0.6
0.8
1
– p. 2
L’errore del De Méré.
Consideriamo f (x) = (1 − x)k
La retta tangente in (0, f (0)) è: y = 1 − kx.
1
0.8
0.6
0.4
0.2
0
0
(1 − x)k ≃ 1 − kx
0.2
0.4
0.6
0.8
1
per x piccoli
– p. 2
L’errore del De Méré.
Consideriamo f (x) = (1 − x)k
La retta tangente in (0, f (0)) è: y = 1 − kx.
1
0.8
0.6
0.4
0.2
0
0
(1 − x)k ≃ 1 − kx
(1 − p)k ≃ 1 − kp
0.2
0.4
0.6
0.8
1
per x piccoli
per p piccoli
– p. 2
L’errore del De Méré.
p(accade almeno una volta ω) = 1 − (1 − p)k
– p. 2
L’errore del De Méré.
p(accade almeno una volta ω) = 1 − (1 − p)k
≃ 1 − (1 − pk)
– p. 2
L’errore del De Méré.
p(accade almeno una volta ω) = 1 − (1 − p)k
≃ 1 − (1 − pk)
≃ pk
– p. 2
L’errore del De Méré.
p(accade almeno una volta ω) = 1 − (1 − p)k
≃ 1 − (1 − pk)
≃ pk
Negli esempi:
p = 1/6 , k = 4
p = 1/36 , k = 24
4/6 = 24/36
– p. 2
L’errore del De Méré.
p(accade almeno una volta ω) = 1 − (1 − p)k
≃ 1 − (1 − pk)
≃ pk
Negli esempi:
p = 1/6 , k = 4
p = 1/36 , k = 24
4/6 = 24/36
Sono eguali nell’approssimazione!
– p. 2
L’errore del De Méré.
p(accade almeno una volta ω) = 1 − (1 − p)k
≃ 1 − (1 − pk)
≃ pk
Negli esempi:
p = 1/6 , k = 4
p = 1/36 , k = 24
4/6 = 24/36
Sono eguali nell’approssimazione!
...De Méré non aveva sbagliato poi di tanto.
– p. 2
Allarghiamo lo sguardo.
Un esperimento ripetuto k volte. L’evento ω ha
probabilità p (piccola) di accadere.
p(accade almeno una volta ω) = 1 − (1 − p)k ≃ pk
– p. 2
Allarghiamo lo sguardo.
Un esperimento ripetuto k volte. L’evento ω ha
probabilità p (piccola) di accadere.
p(accade almeno una volta ω) = 1 − (1 − p)k ≃ pk
Se k è sufficientemente grande (dell’ordine di 1/p),
questa probabilità sarà significativa.
– p. 2
Un punto fondamentale.
La probabilità che un certo evento raro accada può
essere resa molto alta (vicina ad 1) se siamo in grado
di ripetere l’esperimento un numero alto di volte.
– p. 2
Un punto fondamentale.
La probabilità che un certo evento raro accada può
essere resa molto alta (vicina ad 1) se siamo in grado
di ripetere l’esperimento un numero alto di volte.
IMPORTANTE:
• Esperimenti ripetuti indipendenti.
• Numero di ripetizioni ∼ 1/p.
• Probabilità alta non significa certezza.
– p. 2
Testa o croce.
Lancio di una moneta per 12 volte consecutive.
Ω = {T, C}12 , |Ω| = 212 .
– p. 2
Testa o croce.
Lancio di una moneta per 12 volte consecutive.
Ω = {T, C}12 , |Ω| = 212 .
Possibili risultati:
T CCCT CT CT CT T
TTTTTTTTTTTT
– p. 2
Testa o croce.
Lancio di una moneta per 12 volte consecutive.
Ω = {T, C}12 , |Ω| = 212 .
Possibili risultati:
T CCCT CT CT CT T
TTTTTTTTTTTT
Che probabilità hanno?
– p. 2
Testa o croce.
Lancio di una moneta per 12 volte consecutive.
Ω = {T, C}12 , |Ω| = 212 .
Possibili risultati:
T CCCT CT CT CT T
TTTTTTTTTTTT
Che probabilità hanno? Tutti la stessa!
1
p = 12 ≃ 0.000244
2
– p. 2
Testa o croce.
Lancio di una moneta per 12 volte consecutive.
Ω = {T, C}12 , |Ω| = 212 .
Possibili risultati:
T CCCT CT CT CT T
TTTTTTTTTTTT
Che probabilità hanno? Tutti la stessa!
1
p = 12 ≃ 0.000244
2
La probabilità di 12 teste consecutive è bassa, ma la
stessa di qualunque altra sequenza di teste e croci!
– p. 2
Testa o croce.
1
p(T T T T T T T T T T T T ) = 12 = 0, 000244
2
– p. 2
Testa o croce.
1
p(T T T T T T T T T T T T ) = 12 = 0, 000244
2
Ripetendo l’esperimento 212 = 4096 volte (circa
50000 lanci), con probabilità alta comparirà
TTTTTTTTTTTT
– p. 2
Testa o croce.
1
p(T T T T T T T T T T T T ) = 12 = 0, 000244
2
Ripetendo l’esperimento 212 = 4096 volte (circa
50000 lanci), con probabilità alta comparirà
TTTTTTTTTTTT
Gli eventi improbabili accadono:
....Ad una roulette di Montecarlo è uscito 36 volte
consecutive pari!
– p. 2
Un grave errore.
La probabilità che esca il 53 nella ruota di Venezia è
1
5
=
p=
90 18
Quindi in 18 estrazioni c’è buona probabilità che esca.
– p. 3
Un grave errore.
La probabilità che esca il 53 nella ruota di Venezia è
1
5
=
p=
90 18
Quindi in 18 estrazioni c’è buona probabilità che esca.
Supponiamo che il 53 non esca per 17 estrazioni.
Possiamo dedurne che a questo punto la sua
probabilità di uscita è più alta?
– p. 3
Un grave errore.
La probabilità che esca il 53 nella ruota di Venezia è
1
5
=
p=
90 18
Quindi in 18 estrazioni c’è buona probabilità che esca.
Supponiamo che il 53 non esca per 17 estrazioni.
Possiamo dedurne che a questo punto la sua
probabilità di uscita è più alta?
Assolutamente no! Le estrazioni non hanno memoria.
Ogni volta si ricomincia da capo!
– p. 3
Un grave errore.
Il 53 non è uscito nella ruota di Venezia per 182
estrazioni.
– p. 3
Un grave errore.
Il 53 non è uscito nella ruota di Venezia per 182
estrazioni.
La probabilità che in 182 estrazioni questo accada è
182
5
1
=
p= 1−
18
164764
– p. 3
Un grave errore.
Il 53 non è uscito nella ruota di Venezia per 182
estrazioni.
La probabilità che in 182 estrazioni questo accada è
182
5
1
=
p= 1−
18
164764
Un’approssimazione: la probabilità che in 182
estrazioni ci sia un numero che non esce mai è circa
90 · p ≃ 1/400.
– p. 3
Un grave errore.
Il 53 non è uscito nella ruota di Venezia per 182
estrazioni.
La probabilità che in 182 estrazioni questo accada è
182
5
1
=
p= 1−
18
164764
Un’approssimazione: la probabilità che in 182
estrazioni ci sia un numero che non esce mai è circa
90 · p ≃ 1/400.
Quindi, ripetendo l’esperimento per circa 400 volte, è
probabile che capiti.
– p. 3
Un grave errore.
In altre parole, in 400 × 182 = 72800 estrazioni, è
altamente probabile che ci sia l’assenza di un numero
per 182 estrazioni consecutive.
– p. 3
Un grave errore.
In altre parole, in 400 × 182 = 72800 estrazioni, è
altamente probabile che ci sia l’assenza di un numero
per 182 estrazioni consecutive.
Se si considerano le estrazioni fatte in Italia in oltre
130 anni di lotto, si vede che ci si va abbastanza
vicini....
– p. 3
Ed invece...
Dal sito www.giocodellotto.com:
...come tutti i grandi giochi, il Lotto ha molte anime: se è vero,
infatti, che è semplicissimo fare una giocata, è altrettanto vero
che le possibilità di gioco sono moltissime: approfondendo la
conoscenza del Gioco del Lotto si entra in un mondo complesso,
affascinante, dalle mille sfumature.
... Come negli Scacchi o nei giochi di strategia, insomma, le
regole necessarie per iniziare sono poche e alla portata di tutti,
ma le possibili evoluzioni, le tecniche, le filosofie, le meccaniche
avanzate sono innumerevoli.
– p. 3
Il potere del caso.
– p. 3
Il potere del caso.
Il caso permette di ottenere qualunque cosa.
– p. 3
Il potere del caso.
Il caso permette di ottenere qualunque cosa.
Basta avere tempo da aspettare.
– p. 3
Il potere del caso.
Il caso permette di ottenere qualunque cosa.
Basta avere tempo da aspettare.
•
36 volte pari alla roulette di Montecarlo
– p. 3
Il potere del caso.
Il caso permette di ottenere qualunque cosa.
Basta avere tempo da aspettare.
•
•
36 volte pari alla roulette di Montecarlo
la mancanza del 53 per 182 estrazioni nella ruota
di Venezia
– p. 3
Il potere del caso.
Il caso permette di ottenere qualunque cosa.
Basta avere tempo da aspettare.
•
•
•
36 volte pari alla roulette di Montecarlo
la mancanza del 53 per 182 estrazioni nella ruota
di Venezia
la nascita della vita sulla terra
– p. 3
Il potere del caso.
Il caso permette di ottenere qualunque cosa.
Basta avere tempo da aspettare.
•
•
•
•
36 volte pari alla roulette di Montecarlo
la mancanza del 53 per 182 estrazioni nella ruota
di Venezia
la nascita della vita sulla terra
la nascita dell’uomo sulla terra
– p. 3
Il potere del caso.
Il caso permette di ottenere qualunque cosa.
Basta avere tempo da aspettare.
•
•
•
•
36 volte pari alla roulette di Montecarlo
la mancanza del 53 per 182 estrazioni nella ruota
di Venezia
la nascita della vita sulla terra
la nascita dell’uomo sulla terra
L’accadimento di eventi improbabili non implica un
disegno. Importante è la scala temporale che stiamo
osservando.
– p. 3
La Divina Commedia.
– p. 3
La Divina Commedia.
> 42.000 caratteri; 28 possibili segni.
– p. 3
La Divina Commedia.
> 42.000 caratteri; 28 possibili segni.
Una scimmia che batte a caso su un computer per
42.000 volte uno dei 28 segni alla volta produrrà la
Divina Commedia con probabilità
p=
1
2842000
– p. 3
La Divina Commedia.
> 42.000 caratteri; 28 possibili segni.
Una scimmia che batte a caso su un computer per
42.000 volte uno dei 28 segni alla volta produrrà la
Divina Commedia con probabilità
p=
1
2842000
Ripetendo l’esperimento 2842000 volte, con probabilità
molto alta almeno una volta la scimmia avrà scritto la
Divina Commedia.
– p. 3
La Divina Commedia.
> 42.000 caratteri; 28 possibili segni.
Una scimmia che batte a caso su un computer per
42.000 volte uno dei 28 segni alla volta produrrà la
Divina Commedia con probabilità
p=
1
2842000
Ripetendo l’esperimento 2842000 volte, con probabilità
molto alta almeno una volta la scimmia avrà scritto la
Divina Commedia.
2842000 è un numero con oltre 180000 cifre!!
– p. 3
Scegliere a caso?
– p. 3
Scegliere a caso?
Per alcuni scopi (come vincere alla roulette a al lotto)
qualunque strategia da gli stessi risultati. Si possono
dunque scegliere a caso le giocate.
– p. 3
Scegliere a caso?
Per alcuni scopi (come vincere alla roulette a al lotto)
qualunque strategia da gli stessi risultati. Si possono
dunque scegliere a caso le giocate.
In questo caso scegliere a caso è indifferente.
– p. 3
Scegliere a caso?
Per alcuni scopi (come vincere alla roulette a al lotto)
qualunque strategia da gli stessi risultati. Si possono
dunque scegliere a caso le giocate.
In questo caso scegliere a caso è indifferente.
Esistono situazioni in cui scegliere a caso è
conveniente?
– p. 3
Scegliere a caso?
dal Corriere della Sera del 30 dicembre 2004:
CRONACHE
Trento, genitori contro: il giudice fa fare «testa o
croce»
TRENTO - Con la mamma o con il papà per le vacanze di
Natale? Decide la monetina.«L’ho fatto nell’interesse del
bambino - ha spiegato il giudice -. Legali e genitori non si
mettevano d’accordo e non c’era tempo per riunire la camera di
Consiglio. Così ho detto ai genitori di affidarsi al caso. Ho agito
nell’interesse del bambino». La fortuna ha arriso alla madre, che
ha potuto così trascorrere il Natale con suo figlio.
– p. 3
Scegliere a caso?
Sembra strano possa esistere un valido principio di
progettualità fondato sul caso.
(incontro)
– p. 3
Scegliere a caso?
Sembra strano possa esistere un valido principio di
progettualità fondato sul caso.
Scrivere i libri battendo a caso su una tastiera ad
esempio non è un metodo molto efficace.
(incontro)
– p. 3
Scegliere a caso?
Sembra strano possa esistere un valido principio di
progettualità fondato sul caso.
Scrivere i libri battendo a caso su una tastiera ad
esempio non è un metodo molto efficace.
Non va tuttavia dimenticato l’immenso potere
generatore del caso .....
(incontro)
– p. 3
Trasmettere bit
Attraverso una linea telefonica disturbata si vuole
trasmettere un pacchetto di 4 numeri binari (0 o 1).
Il ricevitore può equivocare ogni bit inviato con
probabilità 0.1.
– p. 3
Trasmettere bit
Attraverso una linea telefonica disturbata si vuole
trasmettere un pacchetto di 4 numeri binari (0 o 1).
Il ricevitore può equivocare ogni bit inviato con
probabilità 0.1.
Con che probabilità vengono ricevuti tutti giusti?
– p. 3
Trasmettere bit
Attraverso una linea telefonica disturbata si vuole
trasmettere un pacchetto di 4 numeri binari (0 o 1).
Il ricevitore può equivocare ogni bit inviato con
probabilità 0.1.
Con che probabilità vengono ricevuti tutti giusti?
Ω = {c, e}4
c TX corretta , e TX errata
p(c) = 0.9 , p(e) = 0.1
– p. 3
Trasmettere bit
Attraverso una linea telefonica disturbata si vuole
trasmettere un pacchetto di 4 numeri binari (0 o 1).
Il ricevitore può equivocare ogni bit inviato con
probabilità 0.1.
Con che probabilità vengono ricevuti tutti giusti?
Ω = {c, e}4
c TX corretta , e TX errata
p(c) = 0.9 , p(e) = 0.1
p(nessun errore) = p(cccc) = 0.94 = 0.656 .
– p. 3
Trasmettere bit
Attraverso una linea telefonica disturbata si vuole
trasmettere un pacchetto di 4 numeri binari (0 o 1).
Il ricevitore può equivocare ogni bit inviato con
probabilità 0.1.
Con che probabilità vengono ricevuti tutti giusti?
Ω = {c, e}4
c TX corretta , e TX errata
p(c) = 0.9 , p(e) = 0.1
p(nessun errore) = p(cccc) = 0.94 = 0.656 .
Come fare per trasmettere i bit più fedelmente?
– p. 3
Trasmettere bit
Idea molto semplice: spedire lo stesso bit più volte.
– p. 4
Trasmettere bit
Idea molto semplice: spedire lo stesso bit più volte.
0 7→ 000, 1 7→ 111
Il ricevitore decide con la regola di maggioranza:
{000, 100, 010, 001} 7→ 0 , {111, 011, 101, 110} 7→ 1
– p. 4
Trasmettere bit
Idea molto semplice: spedire lo stesso bit più volte.
0 7→ 000, 1 7→ 111
Il ricevitore decide con la regola di maggioranza:
{000, 100, 010, 001} 7→ 0 , {111, 011, 101, 110} 7→ 1
Supponiamo di spedire 000:
p(e) = p(111) + p(011) + p(101) + p(110)
= 0.13 + 3 · 0.12 · 0.9
= 0.028 < 0.1
– p. 4
Trasmettere bit
Idea molto semplice: spedire lo stesso bit più volte.
0 7→ 000, 1 7→ 111
Il ricevitore decide con la regola di maggioranza:
{000, 100, 010, 001} 7→ 0 , {111, 011, 101, 110} 7→ 1
Supponiamo di spedire 000:
p(e) = p(111) + p(011) + p(101) + p(110)
= 0.13 + 3 · 0.12 · 0.9
= 0.028 < 0.1
p(nessun errore) = 0.9724 = 0.893 > 0.656 .
– p. 4
Trasmettere bit
E se volessimo migliorare ancora?
– p. 4
Trasmettere bit
E se volessimo migliorare ancora?
E’ chiaro che aumentando il numero di ripetizioni, si
riesce ad abbassare la probabilità di errore quanto
vogliamo.
– p. 4
Trasmettere bit
E se volessimo migliorare ancora?
E’ chiaro che aumentando il numero di ripetizioni, si
riesce ad abbassare la probabilità di errore quanto
vogliamo.
Questa ha però delle conseguenze. Si introduce
sempre più ritardo nella trasmissione ed in molte
applicazioni questo non è accettabile.
– p. 4
Trasmettere bit
E se volessimo migliorare ancora?
E’ chiaro che aumentando il numero di ripetizioni, si
riesce ad abbassare la probabilità di errore quanto
vogliamo.
Questa ha però delle conseguenze. Si introduce
sempre più ritardo nella trasmissione ed in molte
applicazioni questo non è accettabile.
Fino al 1948 non si pensava ci fosse via d’uscita. Se si
voleva rendere piccola la probabilità di commettere
errori, si doveva far crescere indefinitamente il ritardo
nella trasmissione introducendo sempre più
ridondanza.
– p. 4
Un lavoro fondamentale
Le cose non stanno così! Si può abbassare la
probabilità di errore quanto vogliamo, senza
ridondanza infinita!
– p. 4
Un lavoro fondamentale
Le cose non stanno così! Si può abbassare la
probabilità di errore quanto vogliamo, senza
ridondanza infinita!
C. Shannon, A Mathematical theory of
communications, 1948, Bell Labs.
– p. 4
La rivoluzione di Shannon
Il punto fondamentale è introdurre la ridondanza in
maniera più intelligente che semplicemente ripetendo
un bit più volte.
– p. 4
La rivoluzione di Shannon
L’idea generale della codifica:
– p. 4
La rivoluzione di Shannon
L’idea generale della codifica:
k
u ∈ {0, 1} messaggio da trasmettere
– p. 4
La rivoluzione di Shannon
L’idea generale della codifica:
k
u ∈ {0, 1} messaggio da trasmettere
↓
x = E(u) ∈ {0, 1}n messaggio codificato
– p. 4
La rivoluzione di Shannon
L’idea generale della codifica:
k
u ∈ {0, 1} messaggio da trasmettere
↓
x = E(u) ∈ {0, 1}n messaggio codificato
I messaggi da trasmettere costituiti da k bit vengono
allungati a messaggi di n bit.
R = k/n è detto il ’rate’ del codificatore.
– p. 4
La rivoluzione di Shannon
L’idea generale della codifica:
k
u ∈ {0, 1} messaggio da trasmettere
↓
x = E(u) ∈ {0, 1}n messaggio codificato
I messaggi da trasmettere costituiti da k bit vengono
allungati a messaggi di n bit.
R = k/n è detto il ’rate’ del codificatore.
(prima k = 4, n = 12, R = 1/3)
– p. 4
La rivoluzione di Shannon
L’idea generale della codifica:
k
u ∈ {0, 1} messaggio da trasmettere
↓
x = E(u) ∈ {0, 1}n messaggio codificato
Come si scelgono i messaggi codificati E(u)?
– p. 4
La rivoluzione di Shannon
L’idea generale della codifica:
k
u ∈ {0, 1} messaggio da trasmettere
↓
x = E(u) ∈ {0, 1}n messaggio codificato
Come si scelgono i messaggi codificati E(u)?
Ci sono 2k messaggi codificati E(u) da scegliere tra i
2n disponibili in {0, 1}n .
– p. 4
La rivoluzione di Shannon
L’idea generale della codifica:
k
u ∈ {0, 1} messaggio da trasmettere
↓
x = E(u) ∈ {0, 1}n messaggio codificato
Come si scelgono i messaggi codificati E(u)?
Ci sono 2k messaggi codificati E(u) da scegliere tra i
2n disponibili in {0, 1}n .
Idea: sceglierli in modo che siano tra loro il più
possibile diversi, in modo che equivocare sia difficile.
– p. 4
La rivoluzione di Shannon
L’idea generale della codifica:
k
u ∈ {0, 1} messaggio da trasmettere
↓
x = E(u) ∈ {0, 1}n messaggio codificato
Come decodifica il ricevitore?
– p. 4
La rivoluzione di Shannon
L’idea generale della codifica:
k
u ∈ {0, 1} messaggio da trasmettere
↓
x = E(u) ∈ {0, 1}n messaggio codificato
Come decodifica il ricevitore?
Se riceve x che è eguale ad E(u) decide che il
messaggio inviato è u.
– p. 4
La rivoluzione di Shannon
L’idea generale della codifica:
k
u ∈ {0, 1} messaggio da trasmettere
↓
x = E(u) ∈ {0, 1}n messaggio codificato
Come decodifica il ricevitore?
Se riceve x che è eguale ad E(u) decide che il
messaggio inviato è u.
Se riceve x che non è eguale a nessun E(u) sa che
qualche errore è incorso e decide per quella u per cui
E(u) è il più possibile vicino a x.
– p. 4
La rivoluzione di Shannon
Teorema (Shannon, 1948): Dato un canale, esiste un
numero C detto capacità del canale, tale che
comunque scegliamo R < C esistono codificatori di
rate R per i quali la probabilità di commettere un
errore è arbitrariamente piccola.
– p. 4
La rivoluzione di Shannon
Teorema (Shannon, 1948): Dato un canale, esiste un
numero C detto capacità del canale, tale che
comunque scegliamo R < C esistono codificatori di
rate R per i quali la probabilità di commettere un
errore è arbitrariamente piccola.
C è calcolabile!
– p. 4
La rivoluzione di Shannon
Teorema (Shannon, 1948): Dato un canale, esiste un
numero C detto capacità del canale, tale che
comunque scegliamo R < C esistono codificatori di
rate R per i quali la probabilità di commettere un
errore è arbitrariamente piccola.
C è calcolabile!
Nel nostro caso:
C = 1 + 0.1 log2 0.1 + 0.9 log2 0.9 = 0.53
– p. 4
La rivoluzione di Shannon
Teorema (Shannon, 1948): Dato un canale, esiste un
numero C detto capacità del canale, tale che
comunque scegliamo R < C esistono codificatori di
rate R per i quali la probabilità di commettere un
errore è arbitrariamente piccola.
C è calcolabile!
Nel nostro caso:
C = 1 + 0.1 log2 0.1 + 0.9 log2 0.9 = 0.53
R = 1/2 è accettabile. Si può trasmettere a questo
rate con probabilità bassa quanto vogliamo.
– p. 4
La rivoluzione di Shannon
Teorema (Shannon, 1948): Dato un canale, esiste un
numero C detto capacità del canale, tale che
comunque scegliamo R < C esistono codificatori di
rate R per i quali la probabilità di commettere un
errore è arbitrariamente piccola.
Attenzione:
k → +∞, n → +∞, ma R = k/n fisso!
– p. 4
La rivoluzione di Shannon
Problema: costruire, nel nostro caso, un codificatore
con k = 4, n = 8, per il quale la probabilità di un
errore nella ricezione sia inferiore a 0.2.
– p. 4
La rivoluzione di Shannon
Problema: come costruire la codifica ottimale.
– p. 4
La rivoluzione di Shannon
Problema: come costruire la codifica ottimale.
La dimostrazione di Shannon non è costruttiva! Ma
contiene delle bellissime idee:
– p. 4
La rivoluzione di Shannon
Problema: come costruire la codifica ottimale.
La dimostrazione di Shannon non è costruttiva! Ma
contiene delle bellissime idee:
•
Fissato R < C considera tutte i possibili
codificatori di rate R.
– p. 4
La rivoluzione di Shannon
Problema: come costruire la codifica ottimale.
La dimostrazione di Shannon non è costruttiva! Ma
contiene delle bellissime idee:
•
•
Fissato R < C considera tutte i possibili
codificatori di rate R.
Calcola la probabilità media di errore e mostra
che essa va verso 0 all’aumentare di n.
– p. 4
La rivoluzione di Shannon
Problema: come costruire la codifica ottimale.
La dimostrazione di Shannon non è costruttiva! Ma
contiene delle bellissime idee:
•
•
•
Fissato R < C considera tutte i possibili
codificatori di rate R.
Calcola la probabilità media di errore e mostra
che essa va verso 0 all’aumentare di n.
Ne segue che deve esistere almeno un
codificatore ’buono’
– p. 4
La rivoluzione di Shannon
Problema: come costruire la codifica ottimale.
La dimostrazione di Shannon non è costruttiva! Ma
contiene delle bellissime idee:
•
•
•
•
Fissato R < C considera tutte i possibili
codificatori di rate R.
Calcola la probabilità media di errore e mostra
che essa va verso 0 all’aumentare di n.
Ne segue che deve esistere almeno un
codificatore ’buono’
Si può dimostrare che sono quasi tutti buoni. Più
si aumenta la lunghezza n, più probabile sarà che
un codificatore scelto a caso sia ’buono’!
– p. 4
La teoria dei codici
Sfortunatamente i codificatori scelti a caso, sono
estremamente complicati e gli algoritmi di decodifica
risultano troppo complessi.
– p. 5
La teoria dei codici
Sfortunatamente i codificatori scelti a caso, sono
estremamente complicati e gli algoritmi di decodifica
risultano troppo complessi.
Dal 1948 si è cercato di costruire codificatori che
permettessero di raggiungere il limite di Shannon, ma
che non fossero troppo complicati.
– p. 5
La teoria dei codici
Sfortunatamente i codificatori scelti a caso, sono
estremamente complicati e gli algoritmi di decodifica
risultano troppo complessi.
Dal 1948 si è cercato di costruire codificatori che
permettessero di raggiungere il limite di Shannon, ma
che non fossero troppo complicati.
Con non troppo successo. Per oltre 40 anni, siamo
rimasti ben lontani dal limite di Shannon....
– p. 5
La teoria dei codici
La svolta avviene all’inizio degli anni ’90 con
l’invenzione dei turbo-codici: codici costituiti di una
parte da scegliere a caso e di una parte ben strutturata
che garantiva una bassa complessità. Con questi si è
sfiorato il limite di Shannon.
– p. 5
La teoria dei codici
La svolta avviene all’inizio degli anni ’90 con
l’invenzione dei turbo-codici: codici costituiti di una
parte da scegliere a caso e di una parte ben strutturata
che garantiva una bassa complessità. Con questi si è
sfiorato il limite di Shannon.
La teoria dei codici ha avuto utilizzi pratici enormi e
ha permesso l’avvento dell’era digitale.
Codifiche si sono usate e si usano ad esempio:
•
•
•
nella trasmissione digitale su reti telefoniche,
nelle comunicazioni celluari,
nelle trasmissioni satellitari.
– p. 5
Scegliere a caso
Le idee di Shannon si sono rivelate estremamente
feconde. E’ uno dei primi casi in cui una scelta
casuale viene inserita direttamente nella ricerca di un
oggetto specifico.
– p. 5
Scegliere a caso
Le idee di Shannon si sono rivelate estremamente
feconde. E’ uno dei primi casi in cui una scelta
casuale viene inserita direttamente nella ricerca di un
oggetto specifico.
L’avvento dei turbo-codici ha confermato che il caso
può essere un elemento vincente all’interno di un
progetto.
– p. 5
L’appuntamento
10 persone, munite di cellulare, si vogliono
incontrare.
Ciascuno può inviare, ogni minuto, un solo messaggio
per descrivere la sua posizione ad un altro.
Quale è la strategia per incontrarsi tutti il più
velocemente possibile?
– p. 5
L’appuntamento: una strategia
(xi (t), yi (t)) posizione della persona i al tempo t.
– p. 5
L’appuntamento: una strategia
(xi (t), yi (t)) posizione della persona i al tempo t.
Se i riceve la posizione da j al tempo t allora:

(t)
+
x
(t)
x
i
j

 xi (t + 1) =
2

 yi (t + 1) = yi (t) + yj (t)
2
– p. 5
L’appuntamento: una strategia
(xi (t), yi (t)) posizione della persona i al tempo t.
Se i riceve la posizione da j al tempo t allora:

(t)
+
x
(t)
x
i
j

 xi (t + 1) =
2

 yi (t + 1) = yi (t) + yj (t)
2
(xi (t + 1), yi (t + 1))
(xi (t), yi (t))
c!
!
!
!
!
!
!
c
!
!
c
!
!!
(xj (t), yj (t))
– p. 5
L’appuntamento: una strategia
(xi (t), yi (t)) posizione della persona i al tempo t.
Se i riceve la posizione da j al tempo t allora:

(t)
+
x
(t)
x
i
j

 xi (t + 1) =
2

 yi (t + 1) = yi (t) + yj (t)
2
Una possibilità di comunicazione:
1 ← 2 ← 3 ← 4 ← 5 ← 6 ← 7 ← 8 ← 9 ← 10 ← 1
– p. 5
Ecco come si comporta:
1m
2m
10m
6m
3m
4m
9m
7m
8m
5m
– p. 5
Ecco come si comporta:
10m
1m
2m
9m3m 6m
5m
4m
8m
7m
– p. 5
Ecco come si comporta:
10m
1m
9m
2m
m
5
3m
4m
8m
6m
7m
– p. 5
Ecco come si comporta:
9m
1m
m
m
4
3
10m
m
8
2m
5m
7m 6m
– p. 5
Ecco come si comporta:
9m
10m
8m
1m
2m m
4
m
3
7m
5m m
6
– p. 5
Ecco come si comporta:
10m
9m
1m
2m
3m
78m
4m 6m
5m
(simula)
– p. 5
Quantificare il comportamento
Una misura di distanza dall’equilibrio
Xq
(xi (t) − xj (t))2 + (yi (t) − yj (t))2 .
∆(t) =
i6=j
– p. 5
Quantificare il comportamento
Una misura di distanza dall’equilibrio
Xq
(xi (t) − xj (t))2 + (yi (t) − yj (t))2 .
∆(t) =
i6=j
Fattore
di
contrazione
con
la
tecnica
precedente:
q
ρ = 12 + 12 cos 2π
10 ≃ 0.95.
∆(t + 1) ≤ ρ∆(t) .
– p. 5
Quantificare il comportamento
Una misura di distanza dall’equilibrio
Xq
(xi (t) − xj (t))2 + (yi (t) − yj (t))2 .
∆(t) =
i6=j
Fattore
di
contrazione
con
la
tecnica
precedente:
q
ρ = 12 + 12 cos 2π
10 ≃ 0.95.
∆(t + 1) ≤ ρ∆(t) .
Si può fare di meglio?
(Mantenendo il vincolo di un solo messaggio.)
– p. 5
Seconda strategia
Stessa struttura dinamica:
Se i riceve la posizione da j al tempo t allora:

(t)
+
x
(t)
x
i
j

 xi (t + 1) =
2

 yi (t + 1) = yi (t) + yj (t)
2
– p. 5
Seconda strategia
Stessa struttura dinamica:
Se i riceve la posizione da j al tempo t allora:

(t)
+
x
(t)
x
i
j

 xi (t + 1) =
2

 yi (t + 1) = yi (t) + yj (t)
2
ma lo schema di comunicazione cambia, in modo
casuale, ad ogni passo:
– p. 5
Seconda strategia
1 ← 2 ← 3 ← 4 ← 5 ← 6 ← 7 ← 8 ← 9 ← 10 ← 1
– p. 5
Seconda strategia
1 ← 2 ← 3 ← 4 ← 5 ← 6 ← 7 ← 8 ← 9 ← 10 ← 1
1 ← 6 ← 7 ← 10 ← 2 ← 5 ← 3 ← 8 ← 9 ← 4 ← 1
– p. 5
Seconda strategia
1 ← 2 ← 3 ← 4 ← 5 ← 6 ← 7 ← 8 ← 9 ← 10 ← 1
1 ← 6 ← 7 ← 10 ← 2 ← 5 ← 3 ← 8 ← 9 ← 4 ← 1
1 ← 8 ← 9 ← 3 ← 7 ← 2 ← 6 ← 10 ← 4 ← 5 ← 1
– p. 5
Seconda strategia
1 ← 2 ← 3 ← 4 ← 5 ← 6 ← 7 ← 8 ← 9 ← 10 ← 1
1 ← 6 ← 7 ← 10 ← 2 ← 5 ← 3 ← 8 ← 9 ← 4 ← 1
1 ← 8 ← 9 ← 3 ← 7 ← 2 ← 6 ← 10 ← 4 ← 5 ← 1
1 ← 5 ← 10 ← 8 ← 2 ← 6 ← 7 ← 3 ← 9 ← 4 ← 1
– p. 5
Seconda strategia
1 ← 2 ← 3 ← 4 ← 5 ← 6 ← 7 ← 8 ← 9 ← 10 ← 1
1 ← 6 ← 7 ← 10 ← 2 ← 5 ← 3 ← 8 ← 9 ← 4 ← 1
1 ← 8 ← 9 ← 3 ← 7 ← 2 ← 6 ← 10 ← 4 ← 5 ← 1
1 ← 5 ← 10 ← 8 ← 2 ← 6 ← 7 ← 3 ← 9 ← 4 ← 1
1 ← 3 ← 7 ← 10 ← 8 ← 4 ← 6 ← 9 ← 5 ← 2 ← 1
– p. 5
Seconda strategia
1 ← 2 ← 3 ← 4 ← 5 ← 6 ← 7 ← 8 ← 9 ← 10 ← 1
1 ← 6 ← 7 ← 10 ← 2 ← 5 ← 3 ← 8 ← 9 ← 4 ← 1
1 ← 8 ← 9 ← 3 ← 7 ← 2 ← 6 ← 10 ← 4 ← 5 ← 1
1 ← 5 ← 10 ← 8 ← 2 ← 6 ← 7 ← 3 ← 9 ← 4 ← 1
1 ← 3 ← 7 ← 10 ← 8 ← 4 ← 6 ← 9 ← 5 ← 2 ← 1
1 ← 2 ← 5 ← 3 ← 7 ← 10 ← 9 ← 4 ← 6 ← 8 ← 1
– p. 5
Ecco come si comporta
1m
2m
10m
6m
3m
4m
9m
7m
8m
5m
– p. 5
Ecco come si comporta
1m
4m
10m
m
7
6m
9m
2m
5m
3m
8m
– p. 5
Ecco come si comporta
10m
6m
m
5m
m
1
m4
m
7
2
3m
9m
8m
– p. 5
Ecco come si comporta
5m
m
26m
m
10m 14m
m
m
7
9m
m
8 3
– p. 5
Ecco come si comporta
5m
m
m
m
9
2
1
4
m
m
67
10m8m
3m
– p. 5
Ecco come si comporta
2m
m
m
9
1
m
m
m
m
4m
5m
10
8
m
763
(simula)
– p. 5
Comparazione
1m
2m
10m
6m
3m
4m
9m
7m
8m
5m
– p. 6
Comparazione
1m
m
10
m
1
4m
2m
10m
m
7
6m
9m3m 6m
9m
5m
4m
2m
5m
3m
8m
8m
7m
– p. 6
Comparazione
10m
10m
1m
9m
6mm
2
m
5
3m
4m
m
5m
m
1
m4
m
7
2
3m
m
m
m
6
89
8m
7m
– p. 6
Comparazione
9m
1m
10m
5m
m
m
6
m
2
m
10m 14m
8
2m
m
m
7
9m
m
m
85 3
m
m
4
3
7m 6m
– p. 6
Comparazione
9m
10m
8m
m
15m
m
m
m
9
2
1
4
m
m
67
m
10m8m
m
3
m
7
2 m
m
4
5
m
3
6m
– p. 6
Comparazione
10m
9m
2m
m
m
9
1m
7
8
m
m
m
m
4
5
8
1 10
7m
6m
3m
2m
3m
4m 6m
5m
(simula)
– p. 6
Confronto quantitativo
ρ=
q
1
2
+ 12 cos 2π
10 ≃ 0.95,
ρ=
1
2
∆(t + 1) ≤ ρ∆(t) .
– p. 6
Confronto quantitativo
ρ=
q
1
2
+ 12 cos 2π
10 ≃ 0.95,
ρ=
1
2
∆(t + 1) ≤ ρ∆(t) .
10 → N :
q
ρ = 12 + 12 cos 2π
N ∼1−
2π 2
N2 ,
ρ=
1
2
– p. 6
Il controllo coordinato
Il problema che abbiamo appena considerato è un
esempio di controllo coordinato.
– p. 6
Il controllo coordinato
Il problema che abbiamo appena considerato è un
esempio di controllo coordinato.
•
Molti agenti (robot)
– p. 6
Il controllo coordinato
Il problema che abbiamo appena considerato è un
esempio di controllo coordinato.
•
•
Molti agenti (robot)
Obbiettivo comune: incontro, muoversi con la
stessa velocità, ...
– p. 6
Il controllo coordinato
Il problema che abbiamo appena considerato è un
esempio di controllo coordinato.
•
•
•
Molti agenti (robot)
Obbiettivo comune: incontro, muoversi con la
stessa velocità, ...
Comunicazioni ridotte
– p. 6
Il controllo coordinato
Il problema che abbiamo appena considerato è un
esempio di controllo coordinato.
•
•
•
•
Molti agenti (robot)
Obbiettivo comune: incontro, muoversi con la
stessa velocità, ...
Comunicazioni ridotte
Mancanza di un leader nel gruppo.
– p. 6
Il controllo coordinato
Il problema che abbiamo appena considerato è un
esempio di controllo coordinato.
•
•
•
•
Molti agenti (robot)
Obbiettivo comune: incontro, muoversi con la
stessa velocità, ...
Comunicazioni ridotte
Mancanza di un leader nel gruppo.
Si cerca di riprodurre fenomeni presenti nel
comportamento degli animali in gruppo.
– p. 6
I comportamenti coordinati
– p. 6
I comportamenti coordinati
– p. 6
I comportamenti coordinati
– p. 6
I comportamenti coordinati
– p. 6
I comportamenti coordinati
– p. 6
I comportamenti coordinati
– p. 6