Teoria dei numeri e Crittografia: lezione dell` 11 aprile 2011

annuncio pubblicitario
Teoria dei numeri e Crittografia: lezione dell’ 11 aprile 2011
Nota storica: il più grande numero primo conosciuto attualmente è il numero 243.112.609-1 (è uno dei
cosiddetti numeri di Mersenne della forma 2n-1, che studieremo in seguito). Esso ha 12.978.189
cifre (in base 10) ed è stato trovato nell’Agosto 2008 nell’ambito del progetto GIMPS (Great
Internet Mersenne Primes Search: vedere il sito www.mersenne.org).
Un test di primalità è un algoritmo che permette di testare se un numero naturale a>1 dato in input
è primo o no: l’output di un tale algoritmo è dunque “a è primo” oppure “a non è primo”..
Il più “ingenuo” dei test di primalità consiste ovviamente nell’effettuare le divisioni di a per i
numeri naturali j=2,3,…,a-1 : se per uno di tali j la divisione ha resto 0 l’output è “a non è primo”;
in caso contrario l’output è “a è primo”. Se x=L(a) è la lunghezza binaria dell’input, ogni divisione
ha complessità di ordine non superiore ad O(x2), ma il numero di divisioni, come funzione
dell’input a, è f(a) = (a-2) (nel caso peggiore): poiché 2x-1-2  a-2 < 2x-2, se consideriamo il
numero di divisioni come funzione g(x) della lunghezza binaria x, in termini di ordine si ha
O(2x) = O(2x-1-2)  O(g(x)) O(2x-2)=O(2x)
dunque il numero di divisioni ha ordine esponenziale e tale algoritmo non è perciò “efficiente”.
Osservazione. Il ragionamento applicato sopra si può applicare in tutte le situazioni simili: se una
funzione f(a) dell’input a è di ordine lineare, la stessa funzione, considerata come funzione della
lunghezza binaria x di a, è di ordine esponenziale O(2x); con lo stesso ragionamento si può
dimostrare che più in generale se f(a) è di ordine polinomiale di grado m, allora la stessa funzione,
considerata come funzione della lunghezza binaria x di a, è di ordine esponenziale O((2m)x).
Il test di primalità sopra esposto può essere reso più efficiente limitandosi per esempio ad input a
dispari (un numero pari a non è primo tranne nel caso banale a=2) ed effettuando quindi le divisioni
solo per i valori dispari j con 1<j<a, ma anche in questo caso il numero delle divisioni è di ordine
lineare rispetto ad a, quindi di ordine esponenziale rispetto ad x.
Una efficienza ancora superiore si può ottenere con la seguente osservazione: se a non è primo
esiste un suo divisore non banale  a (se infatti a=bc con b,c divisori non banali di a, e se per
assurdo fosse b, c > a , seguirebbe a>( a )2 , contraddizione). Dunque nell’algoritmo precedente
si potrebbero effettuare solo le divisioni per i valori j con 1<j a quindi stavolta il numero di
divisioni sarebbe di ordine O( a )<O(a) come funzione di a, ma purtroppo ancora di ordine
esponenziale O((21/2)x) come funzione di x .
Problema
1) Esiste un test di primalità di complessità non superiore alla polinomiale ?
Il problema è rimasto aperto per molto tempo: dagli esempi precedenti era chiaro come la strategia
migliore fosse quella di trovare una proprietà “intrinseca” dei numeri primi che si potesse testare
con un algoritmo di complessità polinomiale, e non quella di trovare un eventuale divisore non
banale dell’input.
Il problema 1) è stato infine risolto nel 2003 da Agrawal, Kayal, Saxena nel loro articolo “Primes in
P”, con la costruzione di un test di primalità di complessità polinomiale, ormai noto come “test
AKS” (test di cui ci occuperemo in seguito).
I test di primalità (così come sono stati da noi finora) definiti sono test di primalità deterministici
nel senso che, dato in input un numero naturale a>1, essi forniscono come output “a è numero
primo” se e solo se l’input a è un numero primo.
Esistono però i cosiddetti test di primalità probabilistici nei quali vi è la scelta casuale di alcuni
elementi utilizzati durante l’esecuzione dell’algoritmo e nei quali, se l’input a è primo, l’output è
sempre (correttamente) “a è un numero primo”, ma se a non è primo l’output può essere talvolta
(non correttamente) “a è un numero primo”, e la probabilità di tale errore è maggiorata da una
costante C<1 indipendente sia dall’input che dagli elementi casuali. In questo caso eseguendo k
volte il test sullo stesso input a, se l’output fosse tutte le volte “a è primo” si potrebbe dichiarare che
l’input a è effettivamente un numero primo con una probabilità di errore maggiorata da Ck (quantità
che si può rendere piccola a piacere).
Sono ben noti da tempo test di primalità probabilistici di complessità polinomiale (come il test di
Rabin-Miller, anche questo oggetto in futuro del nostro studio, nel quale la costante C è 1/4).
E’ anche utile notare che esistono test di primalità deterministici di complessità polinomiale, ma che
sono validi solo per numeri naturali particolari (per esempio i numeri di Fermat della forma 2n+1,
oppure i numeri di Mersenne della forma 2n-1): anche di questi test parleremo in seguito.
Un algoritmo di fattorizzazione è invece un algoritmo che, dato in input un numero naturale a>1,
calcola tutti i fattori primi della sua fattorizzazione.
In generale un algoritmo di fattorizzazione si limita, dato l’input a>1, a cercare un divisore non
banale b di a (se b non esiste si conclude che a è primo e che ha la sola fattorizzazione banale
a=a): una volta trovato b si pone c = a/b in modo che si abbia a = bc, e si applica di nuovo
l’algoritmo ai fattori b, c : così procedendo dopo un numero finito di passi l’algoritmo trova i fattori
primi della fattorizzazione di a.
Illustreremo in seguito vari algoritmi di fattorizzazione più o meno efficienti (algoritmo di Fermat,
algoritmo di Pollard etc….).
Problema
2) Esiste un algoritmo di fattorizzazione di complessità non superiore alla polinomiale ?
Al contrario del problema 1), il problema 2) attualmente non è stato risolto (e molti matematici sono
convinti che non abbia soluzione).
Scarica