Algoritmi e complessità 1 Anno accademico 2010-2011 Sommario • La complessità Complessità in tempo e spazio Complessità asintotica • Algoritmi e complessità Strutture dati: array, liste, alberi, tabelle hash Ricerca e ordinamento • La macchina di Turing e le classi di complessità • Ai limiti del calcolo: i problemi intrinsecamente difficili 2 Anno accademico 2010-2011 La complessità 3 Anno accademico 2010-2011 La complessità • L’analisi di complessità definisce le risorse teoricamente consumate da un algoritmo Complessità temporale: tempo necessario all’esecuzione del- l’algoritmo Complessità spaziale: memoria necessaria all’esecuzione dell’algoritmo • Poiché ad ogni algoritmo corrispondono più implementazioni (più programmi), lo studio della complessità non definisce esattamente il tempo e la memoria usata: si concentra sulle proprietà che sono indipendenti dall’implementazione, fornendo un’idea di quanto sia efficiente un algoritmo 4 Anno accademico 2010-2011 Che cosa si misura? 1 • Complessità temporale Si contano le istruzioni eseguite dall’algoritmo Poiché le istruzioni potrebbero essere di natura diversa, si individuano quelle che incidono principalmente sul tempo di esecuzione Le operazioni in virgola mobile: le più lente da eseguire per una CPU; sono predominanti se il loro numero è paragonabile al numero delle altre istruzioni Le istruzioni di controllo (gli if) e le istruzioni più frequenti (sono predominanti se sono in numero molto superiore rispetto alle altre istruzioni) Le istruzioni di accesso alla memoria secondaria e alle periferiche: sono decine di migliaia di volte più lente delle istruzioni svolte nella memoria principale; se un’applicazione ne richiede molte, queste potrebbero essere predominanti (ad es., nei database, l’analisi di complessità è concentrata sugli accessi al disco) Anno accademico 2010-2011 5 Che cosa si misura? 2 • Complessità spaziale Si misurano le “posizioni” di memoria occupate dai dati necessari allo svolgimento dell’algoritmo La complessità spaziale sarà misurata relativamente alla memoria principale se i dati dell’algoritmo possono essere allocati in memoria principale, in base all’occupazione di memoria secondaria quando le strutture dati dell’algoritmo sono troppo grandi per poter risiedere nella memoria centrale 6 Anno accademico 2010-2011 Complessità asintotica • Lo studio della complessità si concentra su i casi in cui il problema è grande: non importa se un programma di contabilità impiega 1 o 100 millisecondi a calcolare il bilancio cambia molto se il programma della segreteria impiega 1 o 10 secondi a trovare i dati di uno studente nell’archivio • Complessità asintotica Definisce le risorse usate da un algoritmo al crescere della dimensione del problema affrontato Ad esempio: come cambia il tempo di accesso ai dati quando cresce il numero degli studenti nell’archivio della segreteria 7 Anno accademico 2010-2011 Complessità temporale asintotica 1 • Formalmente, si usa il concetto matematico di ordine di grandezza sia n la dimensione del problema, cioè la dimensione dell’input dell’algoritmo sia T(n) il tempo impiegato per l’esecuzione dell’algoritmo quando l’ingresso ha dimensione n sia f(n) una qualsiasi funzione di n, ad esempio 3, n, n2, n5, 2n Si dice che la complessità asintotica dell’algoritmo è dell’ordine di f(n) e si scrive O (f(n)) se esiste una costante tale che T(n) f(n) • Osservazione importante: in base alla definizione data, algoritmi che differiscono solo per una costante moltiplicativa hanno lo stesso ordine di complessità • Esempio: due algoritmi che richiedono 4n e 7n operazioni sono entrambi O (n) Anno accademico 2010-2011 8 Complessità temporale asintotica 2 • Informalmente… L’ordine O (f(n)) fornisce una misura della complessità temporale di ogni programma che implementa l’algoritmo • Esempio: Calcolare la somma degli elementi di un array n: numero di elementi dell’array complessità: O (n) 9 Anno accademico 2010-2011 Complessità media e relativa al caso peggiore • Un algoritmo può richiedere un numero di operazioni diverse per ingressi di dimensione uguale: Complessità media: complessità valutata su tutti i possibili ingressi Complessità nel caso peggiore: complessità dell’algoritmo per l’ingresso che richiede più operazioni • Di solito, quando si parla di complessità, ci si riferisce alla complessità nel caso peggiore 10 Anno accademico 2010-2011 Algoritmi e complessità 11 Anno accademico 2010-2011 Complessità asintotica: array e liste • Array n: numero degli elementi dell’array Ricerca/inserimento/cancellazione di un elemento Complessità O (n) • Liste semplici n: numero delle posizioni nella lista Ricerca/cancellazione di un elemento Complessità O (n) Inserimento di un elemento all’inizio della lista (in testa) Complessità O (1) 12 Anno accademico 2010-2011 Complessità asintotica: alberi binari di ricerca 1 • Albero binario, cioè tale che da ogni nodo si dipartono al più due archi, che soddisfa le seguenti proprietà: ogni nodo v contiene un elemento elem(v) cui è associata una chiave chiave(v) presa da un dominio totalmente ordinato le chiavi nel sottoalbero sinistro di v sono tutte chiave(v) le chiavi nel sottoalbero destro di v sono tutte chiave(v) Albero binario di ricerca Albero binario non di ricerca 13 Anno accademico 2010-2011 Complessità asintotica: alberi binari di ricerca 2 • Alberi binari di ricerca n: numero dei nodi dell’albero Inserire, eliminare o ricercare un elemento in un albero binario bilanciato Complessità media pari all’altezza dell’albero: O (h) O (log2n) Complessità nel caso peggiore pari a O(n) (alberi molto sbilanciati e profondi) 6 3 1 Anno accademico 2010-2011 4 8 7 9 14 Alberi binari di ricerca: Ricerca • Si traccia un cammino nell’albero partendo dalla radice e, su ogni nodo, si usa la proprietà di ricerca per decidere se proseguire nel sottoalbero sinistro o destro 15 Anno accademico 2010-2011 Alberi binari di ricerca: Inserimento • A partire dalla radice, confronta la chiave k con chiave(v) In caso di coincidenza, l’elemento da inserire è già presente nell’albero (che non deve contenere duplicati) Altrimenti, si prosegue ricorsivamente nel sottoalbero sinistro o destro in base al risultato del confronto fino a trovare un nodo foglia o un nodo dotato di un solo figlio relativamente al quale l’elemento con chiave k possa opportunamente occupare il posto del figlio mancante 16 Anno accademico 2010-2011 Alberi binari di ricerca: Cancellazione 1 • Sia u il nodo contenente l’elemento da cancellare: Se u è una foglia, viene direttamente rimosso Se u è un nodo dotato di un solo figlio w, il sottoalbero con radice w va ad occupare il posto di u 17 Anno accademico 2010-2011 Alberi binari di ricerca: Cancellazione 2 Se u ha due figli, deve essere sostituito dal suo predecessore v (che ha un solo figlio e) che deve essere fisicamente rimosso 18 Anno accademico 2010-2011 Alberi binari di ricerca: Cancellazione 3 19 Anno accademico 2010-2011 Complessità asintotica: tabelle hash • Problema Memorizzare in maniera opportuna un insieme di dati tipicamente sotto forma di record in modo da poter reperire un qualsiasi elemento dell’insieme con un numero “piccolo” di tentativi Cosa significa “piccolo” ? Indipendente (o quasi) dalla dimensione della tabella su cui si effettua la ricerca, quindi con una complessità in tempo pari ad O (1) 20 Anno accademico 2010-2011 Funzioni hash 1 • • h: K → {0, 1, 2, …, m1} K: insieme dei valori distinti che possono essere assunti dalle chiavi dei record • m: dimensione del vettore in cui si intende memorizzare la tabella • Ipotesi: K sottoinsieme dei numeri naturali Possibile funzione di accesso: h(k) k MOD m, kK Valore della funzione sempre compreso fra 0 e m1 21 Anno accademico 2010-2011 Funzioni hash 2 • Se K non è un sottoinsieme dei numeri naturali Esempio: insieme di stringhe alfanumeriche Problema: la funzione hash si applica a numeri • Per utilizzarla in corrispondenza di una chiave non numerica occorre associare alla chiave un valore numerico Necessità di definire funzioni hash generali Associazione di un valore numerico ad una chiave di qualunque tipo Applicazione della funzione hash a tale valore Esempio: si utilizza la somma dei codici ASCII dei caratteri che costituiscono la stringa • Comunque… metodo non adatto a reperire sottoinsiemi di dati con chiave che soddisfi una data relazione 22 Anno accademico 2010-2011 Collisioni 1 • Associazione, da parte di una trasformazione, della stessa posizione a chiavi distinte • Sinonimi k1 k2, ma h(k1) h(k2) • Esempio: [10,12,20,23,27,30,31,39,42,44,45,49,53,57,60] h(chiave) (chiave MOD 15) Posizione 0 ← 30, 45, 60 Posizione 8 ← 23, 53 Posizione 12 ← 12, 27, 42, 57 • Ciascuna posizione dell’array può contenere al più un elemento; occorre… Ridurre al massimo le collisioni Gestirle quando si verificano 23 Anno accademico 2010-2011 Collisioni 2 • Funzioni di hashing perfetto (che evitano i duplicati) sono difficili da trovare, anche per tabelle grandi • Esempio: paradosso del compleanno Dato un gruppo di 23 persone, ci sono più del 50% di probabilità che due di esse siano nate nello stesso giorno dell’anno In altre parole, se scegliamo una funzione aleatoria (a valori casuali) che trasforma 23 chiavi in un indirizzo di una tabella di 365 elementi, la probabilità che due chiavi NON collidano è solo 0.4927 (meno della metà) • Individuare una funzione di accesso che porti ad un numero ridotto di collisioni è un problema complesso 24 Anno accademico 2010-2011 Collisioni 3 • Tuttavia… numero di collisioni ridotto drasticamente se accettiamo uno spreco del 25% di memoria 0 57 • Esempio: array di 19 elementi (indicizzati da 0 a 18) 12 20, 39 Posizione Posizione Posizione Posizione Posizione Posizione Posizione Posizione Posizione Posizione Posizione 0 ← 57 8 ← 27 1 ← 20, 39 10 ← 10 3 ← 60 11 ← 30, 49 4 ← 23, 42 12 ← 12, 31 6 ← 44 15 ← 53 7 ← 45 60 4 23, 42 5 h(chiave) (chiave MOD 19) • Collisioni non eliminate del tutto Anno accademico 2010-2011 3 6 44 7 45 8 27 9 10 10 11 30, 49 12 12, 31 13 14 15 53 16 17 18 25 Collisioni 4 • Diminuire il fattore di carico n/m, con n numero degli oggetti da inserire ed m dimensione della tabella, garantisce un minor numero di collisioni Lo spazio utilizzato è proporzionale ad m, non al numero n di elementi: può esserci grande spreco di memoria! • Inoltre… per ridurre la probabilità di collisioni, una buona funzione hash dovrebbe essere in grado di distribuire in modo uniforme le chiavi nello spazio degli indici della tabella • Ipotesi: la funzione hash gode della proprietà di uniformità semplice 26 Anno accademico 2010-2011 Collisioni 5 • Sia P(k) la probabilità che la chiave k sia presente nell’insieme delle chiavi da allocare e sia: la probabilità che la cella i sia occupata • Una funzione hash h gode della proprietà di uniformità semplice se: 27 Anno accademico 2010-2011 Collisioni 6 • Esempio: Se U è l’insieme dei numeri reali in [0,1] e ogni chiave in U ha la stessa probabilità di essere scelta, allora si può dimostrare che la funzione hash: soddisfa la proprietà di uniformità semplice 28 Anno accademico 2010-2011 Gestione delle collisioni • Uso di liste concatenate destinate alla memorizzazione degli elementi che, in inserimento, hanno portato ad una collisione; gli elementi sono contenuti in liste esterne alla tabella: t[i] punta alla lista degli elementi tali che h(k)i • Indirizzamento aperto: tutti gli elementi sono contenuti nella tabella; se una cella è occupata, se ne cerca un’altra libera 29 Anno accademico 2010-2011 Liste concatenate 1 • Ricerca di un elemento di chiave k Si calcola h(k): se si verifica una collisione allora si accede alla lista associata alla posizione h(k) e la si scandisce 30 Anno accademico 2010-2011 Liste concatenate 2 • Il costo dell’operazione di ricerca realizzata in modo lineare relativamente alle liste di elementi in collisione si mantiene pressoché indipendente da n (numero degli elementi contenuti nella tabella) • Inserimento/cancellazione costano O (1) 31 Anno accademico 2010-2011 Indirizzamento aperto 1 • Supponiamo di voler inserire un elemento con chiave k e che la sua posizione “naturale” h(k) sia già occupata • L’indirizzamento aperto consiste nell’occupare un’altra cella, anche se potrebbe spettare di diritto ad una chiave diversa • Si cerca la cella vuota (se c’è) scandendo le celle secondo una sequenza di indici, per esempio utilizzando una tecnica di scansione lineare t(k,i) (h(k)i) mod m, per 0im Per i1 la ricerca parte dalla cella indicizzata e procede a scandire le successive (ad una ad una) fino alla prima cella libera 32 Anno accademico 2010-2011 Indirizzamento aperto 2 • La scansione lineare provoca effetti di agglomerazione, cioè lunghi gruppi di celle consecutive occupate, che rallentano la scansione 33 Anno accademico 2010-2011 Indirizzamento aperto 3 • L’hashing doppio riduce il problema delle agglomerazioni e produce funzioni hash che sono “quasi” semplicemente uniformi: t(k,i) h1(k)i h2(k) mod m per 0im, con h1 e h2 funzioni hash distinte • L’idea sottesa all’hashing doppio è quella di partire da un valore hash ed esaminare le posizioni successive saltando di una quantità pari a multipli di un valore determinato da una altra funzione hash • In questo modo la prima posizione esaminata è h1(k) mentre le successive sono distanziate di h2(k) 34 Anno accademico 2010-2011 Hashing doppio 1 • Esempio: m=13 h1(k)=k mod 13 h2(k)=1 + (k mod 11) Si consideri l’inserimento della chiave 14 nella seguente tabella: h1(14) = 14 mod 13 = 1 h2(14) = 1+(14 mod 11) = 1+3 = 4 t(14,i) = (h1(k)+ih2(k)) mod m = (1+i4) mod m 35 Anno accademico 2010-2011 Hashing doppio 2 i=0 1° posizione esaminata t(14,0) = 1 i=1 2° posizione esaminata t(14,1) = 1+4 = 5 i=2 3° posizione esaminata t(14,2) = 1+42 = 9 36 Anno accademico 2010-2011 Hashing doppio 3 • Si deve porre attenzione a far sì che h2(k) sia primo rispetto alla dimensione della tabella m • ..infatti, se m e h2(k) hanno un massimo comune divisore d, allora si esaminerebbero solo m/d elementi della tabella (invece di m) • Esempio: m10 e h2(k)2, partendo da 0 si ha la sequenza 0 2 4 6 8 0 2 4 6 8… • Per garantire che h2(k) sia primo rispetto a m si può: prendere m=2p e scegliere h2(k) in modo che produca sempre un numero dispari prendere m primo e scegliere h2(k) in modo che produca sempre un intero positivo minore di m 37 Anno accademico 2010-2011 Complessità asintotica fattoriale • Sia dato un programma che prende in ingresso i partecipanti ad una competizione e genera (ad esempio per stamparle) tutte le possibili classifiche finali n: numero di partecipanti Complessità: O (n!) • Si osservi che n! è un numero molto grande anche per n relativamente piccoli 20! 2.432.902.008.176.640.0002.41018 38 Anno accademico 2010-2011 Complessità asintotica polinomiale • Sia dato un programma che ha come ingresso due array a, b e cerca tutte le coppie (i,j) tali che a[i]b[j] n: dimensione di a m: dimensione di b Complessità: O (nm) void search(int a[], int b[], int alength, int blength) { … for(i0;ialength;i){ for(j0;jblength;j){ if(a[i]b[j]) printf(“Trovata corrispondenza: a[%d]b[%d]%d”,i,j,a[i]); } } } 39 Anno accademico 2010-2011 Algoritmi facili e difficili • In base alla loro complessità temporale asintotica, gli algoritmi sono tipicamente divisi in classi Algoritmi a complessità costante O (1) o lineare O (n) Molto veloci, “scalabili” Algoritmi a complessità polinomiale O (na) per un qualche valore Usabili se l’esponente a a è piccolo Algoritmi a complessità esponenziale O(an) per un qualche valore a (1) Usabili solo per n molto piccoli 40 Anno accademico 2010-2011 Algoritmi a complessità esponenziale • Fondamentale: perché gli algoritmi a complessità esponenziale sono considerati quasi inusabili? Perché richiedono talmente tante operazioni che probabilmente anche i calcolatori futuri non saranno in grado di eseguire in tempi ragionevoli le loro possibili implementazioni (programmi) per dati in ingresso ad alta dimensionalità 41 Anno accademico 2010-2011 Esempio • Si consideri il programma che genera tutte le classifiche finali di una competizione con n partecipanti, complessità O (n!) (è esponenziale, perché n!nsqrt(n)) Con 20 concorrenti le classifiche sono 20! 2.41018 Un computer che generi 1 miliardo di classifiche al secondo, circa 31016 l’anno, impiegherebbe circa 79 anni per generare tutte le classifiche richieste Tendenzialmente, i computer diverranno sempre più veloci e fra dieci anni forse saranno abbastanza veloci da realizzare in un mese quello per cui adesso occorrono 79 anni ma… …comunque, fra dieci anni per risolvere il problema con 21 partecipanti occorreranno ancora 21 mesi e per 25 partecipanti circa 531300 anni!! 42 Anno accademico 2010-2011 La ricerca dicotomica 1 • Per “cercare” un elemento in un vettore ordinato esiste un metodo detto ricerca binaria o dicotomica Si confronta il valore val da ricercare con l’elemento centrale del vettore A[length/2] Se val è minore dell’elemento mediano, si ripete la ricerca sulla metà sinistra del vettore, altrimenti si ricerca nella metà destra 43 Anno accademico 2010-2011 La ricerca dicotomica 2 • Esempio: ricerca del numero 23 Si confronta 23 con 13 0 2 4 5 8 9 13 16 20 23 27 30 34 35 Ci si concentra sulla metà destra (da ind. 8 a ind. 14): si confronta 23 con 27 0 2 4 5 8 9 13 16 20 23 27 30 34 35 Ci si concentra sulla metà sinistra (da ind. 8 a ind. 10): si confronta 23 con 20 0 2 4 5 8 9 13 16 20 23 27 30 34 35 Ci si concentra sulla metà destra (da ind. 9 a ind. 9): trovato!! 0 2 4 5 8 9 13 16 20 23 27 30 34 35 44 Anno accademico 2010-2011 La ricerca dicotomica 3 int search(int val, int A[], int from, int to) { int center(fromto)/2; if (from to) return 1; if (fromto) { if (A[from]val) {return from;} return 1;} // si esegue solo se A[from]!val //si esegue solo se (fromto) if (valA[center]){ return search(val,A,from,center1); } if (valA[center]){ return search(val,A,center1,to); } return center; } 45 Anno accademico 2010-2011 Complessità della ricerca dicotomica • La ricerca dicotomica divide il vettore in due ad ogni passo: dopo p passi la dimensione del vettore è n/2p nel caso peggiore, la ricerca si ferma quando n/2p è 1, cioè quando plog2n • Quindi la ricerca dicotomica è O (log2n) 46 Anno accademico 2010-2011 Mergesort 1 • Il Mergesort è un algoritmo basato sul paradigma del divide et impera • Una strategia divide et impera consiste nel suddividere un problema in sottoproblemi, nel risolvere i sottoproblemi, e nel ricomporre le soluzioni parziali per ottenere la soluzione del problema originale • Il Mergesort è composto da due fasi: una fase di divisione del vettore da ordinare in sottovettori una fase di ricomposizione dei risultati (merge) 47 Anno accademico 2010-2011 Mergesort 2 • Idea: Dato un vettore da ordinare, lo si divide in due sottovettori di ugual dimensione, si ordinano i sottovettori e poi si “fondono” insieme 6 6 1 2 1 2 8 3 4 Divisione 8 7 5 3 4 Anno accademico 2010-2011 2 5 Ordinamento Ordinamento 1 7 6 8 1 2 Fusione 3 4 5 6 3 4 7 8 5 7 48 Mergesort: la divisione ricorsiva • Come si ordinano i due sottovettori ? Applicando ricorsivamente la divisione fino a quando il vettore contiene un solo elemento: in tal caso l’ordinamento è banale 6 6 6 6 1 1 2 1 Anno accademico 2010-2011 2 8 3 4 Divisione 8 2 1 2 8 3 8 3 7 5 3 4 7 4 5 7 4 7 5 5 49 Mergesort: la fusione ricorsiva 1 • I sottovettori ordinati verranno poi ricorsivamente fusi 1 2 3 4 5 6 7 8 Fusione 1 1 2 6 2 6 6 1 3 8 2 8 3 8 3 4 5 7 4 5 4 7 7 5 50 Anno accademico 2010-2011 Mergesort: la fusione ricorsiva 2 • La fusione viene realizzata utilizzando due indici che scorrono i due sottovettori da fondere: 1. Ad ogni passo si confrontano i due elementi indicati dagli indici i e j, A[i], A[j] 2. Si copia l’elemento minore in un vettore d’appoggio e si incrementa l’indice corrispondente 3. Si torna al passo 1. fino a quando i due vettori non sono stati completamente visitati 1 2 6 8 1 i 3 4 5 2 3 4 5 6 7 8 7 k j Anno accademico 2010-2011 51 Complessità del Mergesort • Il Mergesort ha complessità O (nlog2n) sia nel caso medio che nel caso pessimo • Mergesort è un algoritmo ottimo! La sua complessità asintotica è la migliore possibile • Comunque… …esistono algoritmi che per alcuni ingressi fanno meglio di nlog2n (ad es., Bubblesort su vettori ordinati) …esistono altri algoritmi con complessità nlog2n anche nel caso pessimo Heapsort 52 Anno accademico 2010-2011 Quicksort 1 • Quicksort, come Mergesort, è un algoritmo divide et impera • Idea Si divide il vettore A in due sottovettori, che contengono rispettivamente tutti gli elementi minori e maggiori di (per esempio) A[0], cioè il primo elemento del vettore detto perno Si ripete ricorsivamente la divisione… 53 Anno accademico 2010-2011 Quicksort 2 4 2 1 6 3 8 7 5 Si ripartisce il vettore rispetto ad A[1] 4 3 3 2 2 1 4 6 1 8 7 6 8 5 7 Si divide rispetto a 3 1 1 2 Anno accademico 2010-2011 2 3 Si divide rispetto a 6 5 5 5 6 7 8 7 8 54 Quicksort: l’operazione perno 1 • Come si divide il vettore? Si usano due indici i, j che scorrono il vettore da sinistra e da destra, rispettivamente L’indice i scorre fino a quando A[i]A[1] L’indice j scorre fino a quando A[j]A[1] Si effettua lo scambio fra A[i] e A[j] e quindi si procede come sopra Anno accademico 2010-2011 Si scorrono i, j confrontando con 4 4 2 8 6 3 1 7 5 j i Si scambiano gli elementi 4 2 8 6 3 i 1 7 5 j Si scorrono i, j confrontando con 4 4 2 1 i 6 3 8 j 7 5 55 Quicksort: l’operazione perno 2 Alla fine si scambia il perno con l’elemento in posizione j Si scambiano gli elementi 4 2 1 6 i 3 8 7 5 j Si scambia A[j] con il perno 4 2 1 3 6 8 7 5 6 8 7 5 j 3 2 1 4 56 Anno accademico 2010-2011 Implementazione void perno(int A[], int from, int to) { int ifrom1, jto; while(ij){ while(A[i]A[from]) i; while(A[j]A[from]) j; if(ij) scambia(A,i,j); } scambia(A,from,j); } 57 Anno accademico 2010-2011 Complessità del Quicksort • Il Quicksort ha complessità media O (nlog2 n) • Il caso pessimo si verifica quando il perno finisce in fondo o in testa al vettore In tal caso, Quicksort ha complessità pari ad O (n2) 58 Anno accademico 2010-2011 Mergesort vs Quicksort • Mergesort ha il vantaggio di avere sempre complessità pari a O (nlog n) • Quicksort ha il vantaggio di non richiedere un vettore di appoggio: ordina il vettore “in loco” (minore complessità spaziale) • In media, Quicksort si comporta “bene” e, per questo motivo, in pratica spesso è preferito a Mergesort 59 Anno accademico 2010-2011 Heap 1 • Ospita gli elementi dell’insieme A di cardinalità n, su cui è definita una relazione d’ordine totale “” • Lo heap (mucchio) è un albero binario Proprietà 1 L’albero è quasi perfettamente bilanciato: è completo fino al livello k1, cioè contiene il numero massimo di nodi, 2k1, mentre al livello k contiene un numero di nodi (foglie) compreso tra 1 e 2k; i nodi a livello massimo sono tutti addossati a sinistra Proprietà 2 Ogni nodo contiene un elemento dell’elemento contenuto nel padre 60 Anno accademico 2010-2011 Heap 2 • Noto il valore di n, la forma dell’albero è fissata dalla Proprietà 1 • L’allocazione degli elementi nei nodi può variare, nel rispetto della Proprietà 2 • L’elemento massimo dell’insieme è allocato nella radice • I sottoalberi di ciascun nodo sono ancora heap • Lo heap può essere allocato in un array 63 38 23 12 28 10 5 18 17 22 1 2 3 4 5 6 7 8 9 10 63 38 23 12 28 17 22 10 5 18 61 Anno accademico 2010-2011 Heap 3 • Con l’allocazione lineare… A[1] è l’elemento contenuto nella radice dello heap Per ogni A[i], gli elementi corrispondenti ai figli sinistro e destro, se esistono, sono memorizzati in A[2i] e A[2i1] Se 2i n e/o 2i1 n il figlio sinistro e/o destro di A[i] non esiste nell’albero A[2i]A[i] e A[2i1]A[i], quando tali elementi sono definiti 62 Anno accademico 2010-2011 Heapsort 1 • Lo heap trova la sua applicazione più elegante nel metodo di ordinamento noto come Heapsort Si estrae l’elemento massimo dallo heap (quello nella radice, o in prima posizione nella rappresentazione lineare) Si ricostruisce lo heap …fino a quando non ci sono più elementi nello heap (ovvero gli elementi del vettore sono ordinati) 63 Anno accademico 2010-2011 Heapsort 2 • Come si ricostruisce lo heap, dopo l’estrazione della radice? 18 63 38 12 28 10 5 38 23 23 12 28 17 22 10 18 17 22 5 1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10 63 38 23 12 28 17 22 10 5 18 18 38 23 12 28 17 22 10 5 63 Anno accademico 2010-2011 Continua… 64 Heapsort 3 Si considera il massimo fra i due figli della radice e, se max{A[2],A[3]}A[1], si effettua lo scambio 38 18 Si scambia A[1] con A[2] 38 12 28 10 18 23 23 12 28 17 22 10 5 17 22 5 1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10 18 38 23 12 28 17 22 10 5 63 38 18 23 12 28 17 22 10 5 63 Anno accademico 2010-2011 Continua… 65 Heapsort 4 Si considera il massimo fra i due figli di A[2] e, se max{A[4],A[5]}A[2], si effettua lo scambio 38 38 Si scambia A[2] con A[5] 18 12 28 10 28 23 23 12 18 17 22 5 10 5 17 22 1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10 38 18 23 12 28 17 22 10 5 63 38 28 23 12 18 17 22 10 5 63 Anno accademico 2010-2011 Continua… 66 Heapsort 5 Si estrae A[1] che è l’elemento più grande… e si ricomincia il procedimento di ricostruzione 5 38 28 12 18 10 28 23 23 12 18 17 22 17 22 10 5 1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10 38 28 23 12 18 17 22 10 5 63 5 28 23 12 18 17 22 10 38 63 67 Anno accademico 2010-2011 Heapsort 6 • Poiché ogni estrazione e ricostituzione dello heap richiede tempo O (log2n'), se n′ è il numero di elementi attualmente contenuti nello heap… Heapsort ha complessità O (nlog2n) • L’algoritmo di ordinamento può essere realizzato facilmente sulla “rappresentazione sequenziale” dello heap 68 Anno accademico 2010-2011 Heapsort 7 void heapsort(int a[], int left, int right) { int k, temp, sizerightleft1, *paleft1; /* /* * */ si costruisce lo heap */ for (ksize2; k1; k) heap(p, k, size); si scambia l’elemento più grande con quello finale e si ricostruisce lo heap while (size1) { temp p[1]; p[1] p[size]; p[size] temp; heap(p, 1, size); } exit(0); } 69 Anno accademico 2010-2011 Heapsort 8 /* Costruzione topdown di uno heap */ #define LESS(A,B)((A)(B)) void heap(int a[], int k, int size) { int j, temp; while(2ksize) { j 2k; if (jsize && LESS(a[j],a[j1])) j; if (!LESS(a[k],a[j])) break; temp a[k]; a[k] a[j]; a[j] temp; k j; } } 70 Anno accademico 2010-2011 Ancora sulla complessità 71 Anno accademico 2010-2011 Problemi e algoritmi • Anche per i problemi si parla di complessità • Tipicamente non si riesce a definire univocamente la complessità di un problema, perché... ...lo stesso problema può essere risolto con algoritmi diversi che hanno diversa complessità …anche se si riesce a stabilire qual è il miglior algoritmo per la risoluzione di un dato problema, tale stima ha comunque un valore non assoluto, ma limitato nel tempo, in quanto non è dato prevedere se in futuro potrà esistere un metodo risolutivo migliore • Per questi motivi, si parla solo di limite inferiore e superiore alla complessità di un problema 72 Anno accademico 2010-2011 Complessità di un problema • In alcuni casi è possibile dimostrare che nessun algoritmo che risolve un dato problema può/potrà impiegare meno risorse di un certo limite inferiore • Esempi banali Nessun algoritmo che genera tutte le classifiche possibili per n concorrenti può farlo in meno di n! operazioni (il limite inferiore alla complessità è O (n!)) Nessun algoritmo può effettuare la somma fra vettori ndimensionali in meno di n operazioni (il limite inferiore alla complessità è O (n)) • Esempio non banale Nessun algoritmo può ordinare un vettore di di nlog2n operazioni, nel caso peggiore Anno accademico 2010-2011 n elementi in meno 73 Algoritmi ottimi • Un algoritmo si dice ottimo, quando ha complessità pari al limite inferiore • Esempi Mergesort e Heapsort sono ottimi Si consideri il problema di sommare gli elementi di un vettore: un algoritmo che scorre tutti gli elementi e li somma uno ad uno richiede O (n) operazioni: tale algoritmo è ottimo perché la sua complessità corrisponde con quella minima Si consideri il problema di inserire un elemento in un albero binario di ricerca, bilanciato, che contiene n elementi: Abbiamo visto una soluzione algoritmica che impone O (log2n) operazioni log2n è un limite superiore per tale problema Si può dimostrare che tale complessità corrisponde con il limite inferiore e che l’algoritmo proposto è ottimo Anno accademico 2010-2011 74 Algoritmi e computer • Dubbi: La complessità è indipendente dal computer su cui “gira” il programma? Ad esempio, se si inventasse un calcolatore in grado di generare contemporaneamente tutte le classifiche di n concorrenti, allora quel problema non avrebbe più complessità n! Oppure… potrebbe esistere in futuro un computer in grado di ordinare un vettore di qualsiasi lunghezza per mezzo di una sola istruzione • Nessuno conosce la risposta ma, fino ad ora, nessuno è riuscito a progettare un computer con queste capacità: tutti i calcolatori conosciuti sono equivalenti, in termini di capacità di calcolo, ad un computer semplicissimo la macchina di Turing 75 Anno accademico 2010-2011 La macchina di Turing 1 • Alan Turing (19121954) è considerato uno dei padri dell’informatica • Nel 1936 propose l’idea di una macchina immaginaria che fosse capace di eseguire ogni tipo di calcolo su numeri e simboli (nell’articolo On computable numbers with an application to the Entscheidungsproblem) Il problema della decisione era stato proposto da David Hilbert nel suo programma di fondazione formalista della matematica • La macchina di Turing è una macchina formale, cioè un sistema formale che può descriversi come un meccanismo ideale, ma in linea di principio realizzabile concretamente 76 Anno accademico 2010-2011 La macchina di Turing 2 • È una macchina a stati, può cioè trovarsi in stati ben determinati, opera su stringhe in base a regole precise e costituisce un modello di calcolo • È retta da regole molto semplici, ovvero la sua modalità operativa può essere descritta mediante meccanismi elementari • Si “presume” abbia il massimo potere computazionale e si dimostra che è equivalente, ovvero in grado di effettuare le stesse elaborazioni, ai modelli di calcolo di più ampia portata (formali e implementati) 77 Anno accademico 2010-2011 La macchina di Turing 3 • Per le sue caratteristiche, la macchina di Turing è un efficace strumento teorico che viene largamente usato nella teoria della calcolabilità e nello studio della complessità degli algoritmi • Inoltre, per definire in modo formalmente preciso la nozione di algoritmo, oggi si sceglie preferenzialmente di ricondurlo al concetto di elaborazione effettuabile da una macchina di Turing • Esistono varie versioni (computazionalmente equivalenti) della macchina di Turing, quella più simile ai nostri calcolatori è quella cosiddetta a registri (o counter machine, MinskyLambek, 1961) 78 Anno accademico 2010-2011 La macchina di Turing a registri • È costituita da un insieme di registri di lavoro R1, R2, R3,… e di registri di ingresso I1, I2, I3,… Ogni registro contiene un intero non negativo • I programmi sono costituiti da tre semplici tipi di istruzioni: Ri Il registro i viene incrementato di 1 decremento: Ri Il registro i viene decrementato di 1; se il registro ha già valore 0, l’istruzione non ha effetto salto condizionato: IF Ri GOTO L1 Se il registro i contiene un valore maggiore di 0, si salta all’istruzione L1 incremento: Anno accademico 2010-2011 IF I1 GOTO ciclo ciclo: I3 IF I3 GOTO fine I2 I1 IF I1 GOTO ciclo fine: Programma che somma i contenuti di I1 e I2 in I2 79 La tesi di ChurchTuring • La tesi di ChurchTuring afferma che: Ogni problema intuitivamente calcolabile (risolubile) da un qualsiasi elaboratore è calcolabile da una macchina di Turing, purché dotata di memoria (e tempo di elaborazione) sufficiente • Nessuno è mai riuscito a confutare la tesi di ChurchTuring • La maggior parte dei ricercatori ritiene che sia vera 80 Anno accademico 2010-2011 Il problema della terminazione • Supponiamo che esista un programma halt in grado di risolvere il problema della terminazione halt(P,I) restituisce: true se P con ingresso I termina false se P con ingresso I non termina • Consideriamo il programma Q • Cosa succede se si applica Q a Q ? Q(Q) termina o no ? void Q(Program P){ while (halt(P,P)) {} } • Se Q(Q) termina allora halt(Q,Q) dovrebbe essere vero… ma allora Q(Q) non dovrebbe terminare • Se Q(Q) non termina allora halt(Q,Q) dovrebbe essere falso … ma allora Q(Q) dovrebbe terminare • Quindi il programma halt non esiste!! 81 Anno accademico 2010-2011 Problemi impossibili • Esistono problemi molto difficili… problemi non calcolabili con una macchina di Turing e se la tesi di ChurchTuring è vera con nessun calcolatore!! • Esempi Problema della terminazione Dato un programma e un suo ingresso, dire se il programma terminerà (o entrerà in un ciclo indefinito) Problema di Post Dato un programma e due stati (uno stato è definito da un certo valore delle variabili), dire se a partire dal primo stato si potrà raggiungere il secondo 82 Anno accademico 2010-2011 La macchina di Turing non deterministica 1 • Nella macchina non deterministica, i programmi includono anche altre istruzioni scelta casuale: FORK prende in ingresso un insieme di istruzioni e ne esegue una a caso istruzione di accettazione: ACCEPT quando viene eseguita, il programma termina correttamente • Un problema è risolubile se esiste un programma e una scelta casuale per cui il programma termina con ACCEPT e fornisce la risposta desiderata 83 Anno accademico 2010-2011 La macchina di Turing non deterministica 2 • Esempio: Programma che assegna a caso valori in {0, 1} a R1 e R2 e termina solo se R1R21 R4 FORK{ cont: ok: no: Anno accademico 2010-2011 R1, R1 } FORK{ R2, R2 } IF R1 GOTO cont IF R4 GOTO no IF R2 GOTO ok IF R4 GOTO no ACCEPT 84 La macchina di Turing non deterministica 3 • La macchina non deterministica “non calcola più di quella deterministica” Si può dimostrare che tutto ciò che è calcolabile sulla macchina di Turing non deterministica è calcolabile anche sulla macchina deterministica • La macchina non deterministica è però più efficiente di quella deterministica • Il non determinismo può essere pensato infatti come una forma di parallelismo: FORK è un’istruzione che genera più programmi paralleli • Il parallelismo permette di risolvere i problemi velocemente: ad esempio, si può cercare un elemento in un vettore guardando contemporaneamente a tutti i suoi elementi 85 Anno accademico 2010-2011 Problemi P ed NP • I problemi decisionali richiedono solo una risposta binaria (sì/no), correlata in genere all’esistenza di una soluzione (es., problema della terminazione) • Nella teoria della complessità, i problemi decisionali si dividono in due classi P problemi risolubili in tempo polinomiale sulla macchina di Turing deterministica NP problemi risolubili in tempo polinomiale sulla macchina di Turing non deterministica Includono sia i problemi “facili”, sia anche la quasi totalità dei problemi che si incontrano nelle situazioni pratiche • Ovviamente vale PNP, ma non è noto se PNP 86 Anno accademico 2010-2011 Problemi NP-completi 1 • Problema decisionale della soddisfattibilità: Data una forma normale congiuntiva F(x1,x2,…,xn) stabilire se esiste un assegnamento di valori delle variabili booleane x1,x2,…,xn che soddisfi F Qualunque problema della classe NP si riduce, in tempo polinomiale, al problema della soddisfattibilità PS PS è il “più difficile” fra i problemi di NP 87 Anno accademico 2010-2011 Problemi NP-completi 2 • Un problema P è detto NPcompleto se PNP e PS si riduce a P • I problemi NPcompleti sono tutti equivalenti fra loro: Sarebbe sufficiente trovare un algoritmo polinomiale per uno solo di essi ed avremmo trovato un algoritmo polinomiale per risolvere tutti i problemi Inoltre, tutti i problemi in NP sarebbero risolubili in tempo polinomiale sulla macchina di Turing deterministica, cioè avremmo dimostrato che NPP! 88 Anno accademico 2010-2011 Problemi NP-completi: esempi • Problema decisionale del commesso viaggiatore Dato un insieme di n città con le relative distanze, trovare, se esiste, un cammino di lunghezza k che, partendo da una città, le visiti tutte tornando in quella di partenza • Un problema NParduo (non decisionale) Programmazione lineare intera Data una matrice A e due vettori b, c, calcolare un vettore di interi x che soddisfi Axb e minimizzi f(x)cx Problemi di programmazione lineare definire l’orario dei treni e degli autobus definire l’orario delle lezioni … 89 Anno accademico 2010-2011 PNP e tesi di ChurchTuring • Attualmente si pensa che NPP …ma nessuno è ancora riuscito a dimostrarlo • Si pensa anche che la tesi di ChurchTuring sia vera: ovviamente questo non si può dimostrare ma è, eventualmente, solo confutabile • Talvolta, problemi con complessità proibitiva sono utili: Ad esempio, gli algoritmi crittografici sono basati sul fatto che “decrittare” una chiave è molto complesso e richiederebbe un tempo troppo lungo Se la tesi di ChurchTuring non fosse vera o se PNP, tali metodi non sarebbero più efficaci 90 Anno accademico 2010-2011 Ai limiti del calcolo: I problemi intrinsecamente difficili 91 Anno accademico 2010-2011 Il problema del commesso viaggiatore • Il problema del commesso viaggiatore è uno dei più celebri tra i problemi di «soddisfacimento di vincoli» non calcolabili • Una sua versione piuttosto diffusa è la seguente: È possibile stimare il percorso più breve per un commesso viaggiatore che deve fare visita ai suoi clienti in tutte le città indicate sulla mappa? • A prima vista, sembra facile, ma all’aumentare del numero delle città, il problema diventa esponenzialmente più difficile, mettendo nei guai anche i più potenti computer Anno accademico 2010-2011 92 I problemi difficili 1 • Ma dove sta scritto che tutti i problemi si devono risolvere facilmente e che la loro soluzione deve essere calcolabile in modo efficiente? • Eppure lascia perplessi il fatto che alcuni calcoli siano tanto più complessi di altri… • L’esempio classico è quello della moltiplicazione e della scomposizione in fattori Se vengono dati due numeri primi grandi moltiplicarli è semplice… …ma cercare, una volta dato il prodotto, di ritrovare i due fattori sconosciuti è un problema molto difficile …fino al punto che una delle tecniche crittografiche più diffuse (RSA) si basa sulla difficoltà di risoluzione di questo «problema inverso» 93 Anno accademico 2010-2011 I problemi difficili 2 • E dunque, dove sono i problemi difficili? In matematica, in informatica, in fisica Il tema comune che lega strettamente queste tre discipline è infatti la presenza di problemi con transizioni improvvise da un tipo di comportamento ad un altro 94 Anno accademico 2010-2011 In matematica… 1 • Il filo matematico comincia negli anni ‘60 con lo studio dei grafi aleatori, iniziato da Paul Erdós e Alfred Rényi • Un grafo è una struttura matematica astratta: un insieme di vertici e archi, disegnato in genere come uno schema di punti (i vertici) e linee che li uniscono (gli archi) • Per disegnare un grafo aleatorio si inizia distribuendo n vertici sul foglio, scegliendo casualmente, per ogni coppia e con probabilità p, se tracciare o no un arco che connetta i due vertici Costruzione di un grafo aleatorio 95 Anno accademico 2010-2011 In matematica… 2 • Quando p è vicino a 0, gli spigoli sono pochi e il grafo è composto di molti piccoli pezzi, o componenti connesse, separate le une dalle altre • Al crescere di p, il grafo comincia a essere dominato da una singola componente connessa «gigante», che comprende la maggior parte dei vertici • L’esistenza di questa componente gigante non è certo una sorpresa, ma il modo in cui essa si sviluppa non è ovvio: La componente non evolve gradualmente al crescere di p, bensì emerge all’improvviso quando viene superata una certa soglia La soglia è definita in termini di un parametro che chiameremo : il rapporto fra numero dei lati e numero dei vertici La componente gigante nasce quando è circa 1/2 96 Anno accademico 2010-2011 In informatica… 1 • In campo informatico un simile fenomeno di soglia attirò molta attenzione nei primi anni ‘90 • In questo caso la soglia determina la probabilità che certi problemi computazionali abbiano soluzione • Uno di questi problemi, che deriva dalla teoria dei grafi, è il problema della kcolorazione, che richiede di dipingere ogni vertice di un grafo con uno di k colori, con la regola che due vertici adiacenti non possano avere lo stesso colore • Trovare una colorazione corretta diventa sempre più difficile al crescere di , perché più sono i lati più sono anche i vincoli imposti su ogni vertice Anno accademico 2010-2011 Problema di 3-colorazione 97 In informatica… 2 • Di nuovo, la soglia è netta: al di sotto di un certo valore del rapporto quasi tutti i grafi sono kcolorabili, mentre al di sopra di questa soglia non lo è quasi nessuno • Inoltre, la soglia non solo influisce sull’esistenza di soluzioni, ma anche sulla difficoltà di trovarne: lo sforzo computazionale necessario per decidere se un grafo è kcolorabile ha un picco significativo vicino al valore critico di • Il problema della colorazione dei grafi è strettamente correlato al problema della colorazione delle carte geografiche politiche, nelle quali regioni adiacenti devono avere colori distinti Se i nodi del grafo rappresentano regioni, collegate da un arco se adiacenti… il gioco è fatto ed il grafo è un RAG, per «Region Adjacency Graph» 98 Anno accademico 2010-2011 In fisica… • Anche i fisici sanno qualcosa dei problemi di soglia: li chiamano transizioni di fase • Ma i cambiamenti di stato osservati nei grafi aleatori sono veramente analoghi ad eventi fisici come il congelamento dell’acqua e la comparsa della magnetizzazione nel ferro? O la somiglianza è una semplice coincidenza? • Per qualche tempo l’argomento è stato controverso, ma ora è chiaro che i fenomeni di soglia nei grafi e in altre strutture matematiche sono autentiche transizioni di fase e, quindi, gli strumenti e le tecniche della fisica statistica sono adattissimi a studiarli Il problema della kcolorazione è in corrispondenza esatta con un modello di sistema magnetico nella fisica dello stato solido 99 Anno accademico 2010-2011 Il problema della 3-colorazione 1 • La 3colorazione è un problema complesso, ma non impossibile • La domanda «Questo grafo è 3-colorabile?» ha sempre risposta, almeno in linea di principio: visto che a ogni vertice può essere assegnato un colore qualunque e che ci sono n vertici, ci devono essere esattamente 3n modi di colorare il grafo 100 Anno accademico 2010-2011 Il problema della 3-colorazione 2 • Per decidere se uno specifico grafo è 3-colorabile, basta prendere in esame, una per una, tutte le possibilità Se si trova un’assegnazione di colori che soddisfa il vincolo, cioè in cui nessun arco congiunge vertici dello stesso colore, allora la risposta alla domanda è sì Se si esauriscono tutte le possibilità senza trovare una colorazione appropriata, si può essere certi che non esiste • Questo algoritmo è semplice e sicuro, ma anche inutile, perché enumerare 3n colorazioni è al di là di ciò che si può fare in pratica per qualsiasi n maggiore di 15 o 20 101 Anno accademico 2010-2011 Il problema della 3-colorazione 3 • Procedure più sofisticate possono garantire una ricerca esatta ed esaustiva pur riducendo il numero di operazioni a meno di 1,5n è un miglioramento significativo, ma si tratta sempre di una funzione esponenziale che innalza il limite a n50 Per grafi grandi, con migliaia di vertici, tutti i metodi brute force non offrono speranze • D’altro canto, se si potesse in qualche modo “sbirciare” la soluzione di un problema di 3-colorazione su molti vertici, se ne potrebbe controllare la correttezza facendo assai meno fatica: tutto quello che si dovrebbe fare sarebbe verificare che i vertici alle estremità di ciascun lato abbiano colori diversi Anno accademico 2010-2011 102 Il problema della 3-colorazione 4 • Il numero di lati in un grafo non può essere maggiore di n2, che è una funzione polinomiale anziché esponenziale, e quindi cresce molto più lentamente • I problemi con risposte che sono difficili da trovare ma facili da verificare sono (nondeterministic polynomial) NP e, a meno di un miracolo, non si avranno mai algoritmi in tempo polinomiale per risolverli • Avendo appurato le credenziali della 3-colorazione come problema ufficialmente difficile, possiamo rivelare che la maggior parte dei problemi di 3-colorazione su grafi aleatori è in realtà piuttosto semplice 103 Anno accademico 2010-2011 Il problema della 3-colorazione 5 • Dato un grafo tipico, si hanno buone probabilità di trovare rapidamente una 3-colorazione o di dimostrare che non esiste • Questa curiosa situazione non è veramente paradossale: la classificazione della 3-colorazione come problema NP si basa sull’analisi del «caso peggiore» • Esistono infatti molti algoritmi che hanno, nella maggior parte dei casi, un tempo di elaborazione rapido, a patto di accettare un occasionale fallimento 104 Anno accademico 2010-2011 Il problema della 3-colorazione 6 • Una strategia diffusa per algoritmi che colorano grafi è il backtracking (letteralmente: «tornare sui propri passi») ed assomiglia al modo in cui la maggior parte delle persone affronterebbe il problema se dovesse cercare di colorare il grafo a mano: si inizia assegnando un colore arbitrario a un vertice arbitrario poi si passa ai vertici vicini, assegnando loro colori che non causino un conflitto proseguendo così si può arrivare a un vertice per cui non c’è un colore lecito; a questo punto si torna sui propri passi annullando alcune scelte precedenti, e si riprova 105 Anno accademico 2010-2011 Il problema della 3-colorazione 7 • Per mostrare che un grafo non può essere 3-colorato occorre un altro tipo di algoritmo • L’approccio fondamentale consiste nel cercare un sottoinsieme di vertici che, anche se fosse isolato dal resto del grafo, non potrebbe essere 3-colorato Per esempio, una cricca costituita da quattro vertici ognuno dei quali sia collegato con tutti gli altri ha questa proprietà Se si trova anche solo una di queste strutture, la questione è risolta per l’intero grafo 106 Anno accademico 2010-2011 Il problema della 3-colorazione 8 • Algoritmi come questi sono molto diversi dai metodi di ricerca esaustiva • La semplice enumerazione di tutte le 3n colorazioni può essere inammissibilmente lenta, ma almeno è prevedibile • Ciò non è vero per il backtracking e per altri algoritmi inesatti o incompleti; le loro prestazioni variano notevolmente a seconda della natura del grafo 107 Anno accademico 2010-2011 Il problema della 3-colorazione 9 • In particolare, questi algoritmi sono sensibili al valore di il rapporto tra il numero di lati e il numero di vertici che è di nuovo il parametro che controlla la transizione tra fasi colorabili e non colorabili • Molto al di sotto del valore critico di , dove gli spigoli sono radi, c’è un numero tale di modi di colorare il grafo che qualsiasi strategia ragionevole ha buone probabilità di trovarne uno • All’estremo opposto, molto al di sopra della soglia, i grafi sono densamente interconnessi, ed è facile trovare un sottografo che renda impossibile la 3-colorazione • La regione problematica è situata tra questi estremi, vicino alla soglia; in questa zona intermedia possono esserci pochissime colorazioni o nessuna: distinguere tra queste due situazioni può rendere necessario controllare quasi ogni possibile assegnazione di colori 108 Anno accademico 2010-2011 Dove sono le soluzioni? 1 • Il valore critico di è circa 2.35 • In altre parole, se un grafo aleatorio con n vertici ha meno di 2.35n archi, può essere quasi sicuramente 3-colorato; se ne ha di più, una 3-colorazione è improbabile • Inoltre si sa che la transizione tra questi due regimi è netta: è una vera discontinuità, un salto improvviso anziché un passaggio graduale • Per esprimere più formalmente questa idea si dice che l’ampiezza della regione di transizione tende a zero quando n tende all’infinito 109 Anno accademico 2010-2011 Dove sono le soluzioni? 2 • La nettezza della transizione di fase può essere considerata una notizia incoraggiante Se gli algoritmi per decidere la colorabilità si impantanano solo nella regione di transizione, e se essa è tanto ristretta da essere quasi trascurabile, allora la probabilità di incontrare un grafo difficile da classificare è proporzionalmente piccola • Tuttavia, la nettezza della transizione è garantita solo per grafi infinitamente grandi; se n è finito, gli angoli della curva di transizione sono arrotondati • Inoltre, sebbene la fase non colorabile non inizi fino ad 2.35, gli esperimenti hanno mostrato che gli algoritmi cominciano a rallentare un po’ prima, a valori di attorno a 2.2 110 Anno accademico 2010-2011 Dove sono le soluzioni? 3 • Per capire la causa, giova visualizzare tutte le possibili 3colorazioni di un grafo distese su una curva: l’altezza della curva in ogni punto rappresenta il numero di conflitti nella colorazione corrispondente • Così le colorazioni perfette (quelle senza conflitti) si trovano tutte al livello del mare, mentre le colorazioni peggiori creano picchi o altipiani ad alta quota • Naturalmente la topografia di questo paesaggio dipende dal particolare grafo che stiamo esaminando 111 Anno accademico 2010-2011 Dove sono le soluzioni? 4 • Si consideri come evolve la superficie via via che cresce gradualmente Per piccoli valori di ci sono ampi bacini e vallate, che rappresentano i molti modi di colorare perfettamente il grafo Per grandi valori di il paesaggio è alpino, e anche il punto più basso è molto al di sopra del livello del mare, denotando una completa assenza di colorazioni perfette Il valore di transizione ≈ 2.35 segna il momento in cui scompaiono le ultime aree estese che si trovano al livello del mare 112 Anno accademico 2010-2011 Dove sono le soluzioni? 5 • Che cosa avviene nello «spazio delle soluzioni» per 2.2? Si è scoperto che questo è il momento in cui un’ampia distesa di terreno a livello zero si frammenta in piccoli bacini isolati Al di sotto di 2.2, quasi tutte le colorazioni perfette formano un’unica gigantesca regione connessa (fatta di tante soluzioni vicine) Al di sopra di 2.2, ogni bacino rappresenta un insieme isolato di soluzioni Le colorazioni che si trovano in bacini separati sono sostanzialmente diverse e per trasformarne una in un’altra si dovrebbe scalare una catena montuosa formata da colorazioni che presentano un alto numero di conflitti È improbabile che gli algoritmi che funzionano conducendo una ricerca locale riescano a valicare queste catene montuose, e quindi rimangono confinati a lungo nel primo bacino in cui capitano 113 Anno accademico 2010-2011 Dove sono le soluzioni? 6 • Al crescere di α sopra 2.2, il numero di colorazioni perfette all’interno di ogni bacino decresce fino a zero e quindi gli algoritmi possono non riuscire a trovare una soluzione anche se esistono ancora molte colorazioni valide in altre parti della superficie delle soluzioni 114 Anno accademico 2010-2011 Dove sono le soluzioni? 7 Grafi identici con 100 nodi e 218 archi (poco al di sotto della soglia di trattabilità). La disposizione circolare dei vertici, a destra nella figura, rende più facile verificare che nessuno spigolo connette vertici dello stesso colore Anno accademico 2010-2011 115 Quanti problemi difficili! Che fare? • Alcuni problemi richiedono un tempo di calcolo semplicemente troppo lungo, nei casi peggiori addirittura esponenziale • Ma forse risposte rapide e semplici a problemi computazionalmente complessi non sono qualcosa che abbiamo il diritto di aspettarci in questo mondo… • …e forse non è un «baco», è una caratteristica voluta: impedisce che l’universo si esaurisca troppo rapidamente 116 Anno accademico 2010-2011