Programma di Metodi Numerici per le Decisioni A.A. 06-07 Elementi di Algebra Lineare. Richiami e notazioni. Operazioni su matrici. Trasformazioni lineari. Prodotto di matrici e sue proprietà. Un problema di connessioni aeree. Determinante e traccia di una matrici e loro proprietà. Spazi e sottospazi vettoriali. Sottospazi generati. Spazio rango di una matrice. Spazio nullo di una matrice. Basi di uno spazio vettoriale. Caratterizzazione di una base. Proprietà delle matrici A^TA e AA^T. Norme, prodotti scalari e ortogonalità. Coseno formato da due vettori. Correlazione lineare. Procedura di Gram-Schmidt. Fattorizzazione QR. Autovalori ed autovettori di una matrice e loro proprietà. Similarità. Teorema di Schur (solo enunciato). molteplicità di un autovalore. Modello delle migrazioni di una popolazione. Metodi per il calcolo di autovalori ed autovettori. Il metodo delle potenze. Il mepoto delle potenze inverso. Il metodo QR per il calcolo degli autovalori di una matrice. Il metodo Qr con shift. Decomposizione a valori singolari. Definizione e proprietà della SVD di una matrice. Approssimazione low rank di una matrice. SVD troncata. Teorema di Eckart-Young. SVD e filtraggio dei dati, SVD e motori di ricerca. Equazioni non lineari e ottimizzazione. Introduzione. Metodo di Newton: caso mono-dimensionale. Studio della convergenza del metodo. Teorema di convergenza globale (solo enunciato). Studio dell’ordine di convergenza nel caso di radici semplici. Cenni sulle radici multiple. Metodo di Newton: caso: multidimensionale. Teorema di Newton-Kantorovich (solo enunciato) Metodi di ottimizzazione. Introduzione. Ottimizzazione unidimensionale. Metodo di Newton unidimensionale. Ottimizzazione non vincolata: caso multidimensionale. Metodi basati sulle direzioni di discesa. Derivata direzionale. Metodo di Newton multidimensionale. Metodo steepest descent. Approssimazione ai minimi quadrati lineari. Introduzione. Esempi di applicazione dei minimi quadrati lineari. Retta ai minimi quadrati. Regressione Lineare. Curve fitting. Approssimazione polinomiale ai minimi quadrati nel discreto. Risoluzione del problema ai minimi quadrati mediante il sistema delle equazione normali. Applicazione della fattorizzazione QR al problema ai minimi quadrati. Applicazione della SVD al problema ai minimi quadrati lineari. Il modello vettoriale per l’Information Retrieval: Introduzione. IR e LSI. Problemi di polisemia e sinonimia. Rappresentazione vettoriale dell’informazione (Vector Space Model VSM). Matrice terminidocumenti. Il processo di query-matching. La fattorizzazione QR. Base dello spazio colonne dalla matrice termini-documenti. La geometria del VSM. Approssimazione low-rank. Applicazione della SVD al VSM. (Facoltativo: Confronto termini-termini). Metodo basati sugli autovalori per il Web Retrieval: Introduzione. HITS. L’idea su cui è basato HITS. Implementazione di HITS. Convergenza di HITS . Vantaggi e Svantaggi. Esempio di applicazione. PageRank. L’idea su cui è basato PageRank. La matrice di Google per riga. La matrice stocastica. La matrice di Google. Calcolo del PageRank. Implementazione e convergenza. Esempio di applicazione. Vantaggi e svantaggi. (Facoltativo: SALSA) Data Mining: Introduzione ed obiettivi. Passi fondamentali di un processo di data mining. Classificazione delle diverse tecniche di Data Mining. Problematiche connesse alle tecniche di datamining: formulazione del problema, pre-pocessing dei dati, ecc. Introduzione all’analisi dei dati multivariati. Rappresentazione dei dati e loro caratteristiche. Dati strutturati. Preparazione dei dati. Trasformazione dei dati (scaling decimale, normalizzazione del min-max e della deviazione standard, differenze e rapporto) . Analisi degli outliers: tecniche problem-free. Trattamento dei dati mancanti. Cenni sulle rappresentazioni grafiche dei dati (scatter-plot, box-plot). Esempio di analisi dei dati con il dataste IRIS. Analisi delle componenti principali. Introduzione e generalità. PCA e calcolo degli autovalori ed autovettori. Matrice di covarianza e di correlazione dei dati.. Bi-plots. Euristiche per il calcolo del numero ottimale delle componenti principali. PCA per la selezione di un sottoinsieme di variabili. Testi di riferimento: - Metodi numerici e statistici per le scienze applicate .V. Cominciali, Milano, Ambrosiana, 1992. - Problemi e modelli matematici nelle scienze applicate.V. Cominciali, Milano, Ambrosiana, 1993 - Data mining : concepts, models, methods, and algorithms. Mehmed Kantardzic. - Hoboken, NJ : Wiley-Interscience, 2003 (Cap1-2, Cap. 3 par 3.4) - Analisi dei dati e data mining / A. Azzalini, B. Scarpa. - Milano : Springer, 2004. - Applied Multivariate Data Analysis, B.S. Everitt, G. Dunn, Arnold Ed., 2001 (Cap. 3) - Matrix Analysis and Applied Linear Algebra. C. Meyer. Siam. 2003 Articoli di riferimento: - Matrices, Vector Spaces and Information Retrieval, M.W. Berry, Z. Drmac, E.R. Jessup, SIAM Review, vol. 41, No. 2 pp. 335-362, 1995 -A survey of eigenvector methods for web information retrieval. A. N. Langville, C.D. Meyer SIAM Review Volume 47, No. 1 pp. 135-161, 2005 - Introduction to Knowledge discovery in databases, O. Maimon, L. Rokach, in The data-mining and knowledge discovery handbook, Editors: O. Maimon, , L. Rokach., Springer, 2005