APPUNTI DI ALGEBRA LINEARE DI MARIAGIOVANNA CZARNECKI INFORMATICA - CORSO DI ALGEBRA LINEARE UNIVERSITÀ CA’ FOSCARI VENEZIA ANNO ACCADEMICO 2014-2015, I SEMESTRE Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre Indice: SEMIGRUPPI ................................................................................................................................................... 3 MONOIDI ......................................................................................................................................................... 3 INSIEMI DI FUNZIONI ................................................................................................................................... 4 RELAZIONI ...................................................................................................................................................... 4 SEMIGRUPPO DELLE FUNZIONI ................................................................................................................ 5 MONOIDE DELLE FUNZIONI SU A ............................................................................................................. 5 INSIEME DELLE PARTI ................................................................................................................................. 6 SOTTOSEMIGRUPPI ...................................................................................................................................... 6 SOTTOMONOIDI ............................................................................................................................................ 7 SOTTOMONOIDE GENERATO ..................................................................................................................... 9 PROPRIETÀ PER DIMOSTRARE L’ESISTENZA DEL SOTTOMONOIDE GENERATO ........................ 9 COSTRUZIONI A PARTIRE DA UN MONOIDE ........................................................................................ 10 OMOMORFISMO DI MONOIDI................................................................................................................... 10 ENDOMORFISMO ......................................................................................................................................... 11 ISOMORFISMO ............................................................................................................................................. 11 AUTMORFISMO............................................................................................................................................ 11 INSIEME DI TUTTI GLI ENDOMORFISMI DI M ...................................................................................... 12 INVERSO ........................................................................................................................................................ 12 GRUPPI ........................................................................................................................................................... 13 SOTTOGRUPPO DI UN GRUPPO ................................................................................................................ 13 OMOMORFISMO DEL GRUPPO ................................................................................................................. 14 PRODOTTO DIRETTO DI GRUPPO ............................................................................................................ 14 INSIEME DELLE CLASSI RESTO ............................................................................................................... 14 MONOIDE DELLE CLASSI RESTO ............................................................................................................ 15 PROPRIETA’ FONDAMENTALI ................................................................................................................. 15 ANELLO ......................................................................................................................................................... 15 ANELLO CON IDENTITA’ ........................................................................................................................... 16 ANELLO COMMUTATIVO .......................................................................................................................... 16 DOMINI DI INTEGRITA’ ............................................................................................................................. 17 CAMPI ............................................................................................................................................................ 17 1 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre ANELLO DEI POLINOMI ............................................................................................................................. 17 ANELLO DELLE MATRICI.......................................................................................................................... 18 SOMMA E MOLTIPLICAZIONE DI MATRICI .......................................................................................... 18 SOMMA ...................................................................................................................................................... 19 MOLTIPLICAZIONE ................................................................................................................................. 19 ANELLO DELLE MATRICI QUADRATE DI DIMENSIONE n SULL’ANELLO R ................................. 20 SPAZI VETTORIALI ..................................................................................................................................... 21 PROPRIETA’ DEL PRODOTTO SCALARE ................................................................................................ 21 SOTTOSPAZIO VETTORIALE .................................................................................................................... 23 SOTTOSPAZIO GENERATO ........................................................................................................................ 23 COMBINAZIONE LINEARE ........................................................................................................................ 24 SPAZIO VETTORIALE DELLE MATRICI .................................................................................................. 24 INSIEME DI GENERATORI DELLO SPAZIO VETTORIALE DELLE MATRICI ................................... 25 FUNZIONE LINEARE ................................................................................................................................... 26 NUCLEO (KERNEL) ..................................................................................................................................... 27 DIPENDENZA E INDIPENDENZA LINEARE ............................................................................................ 28 BASI ................................................................................................................................................................ 30 TEOREMA DI SOSTITUZIONE DELLE BASI (36.16 Facchini) ................................................................ 31 ESTENSIONE PER LINEARITA’ ................................................................................................................. 33 MATRICE ASSOCIATA AD UNA APPLICAZIONE LINEARE ................................................................ 36 SOMMA DI SPAZI VETTORIALI ................................................................................................................ 39 FUNZIONI LINEARI IN MATRICI .............................................................................................................. 41 ISOMORFISMO ............................................................................................................................................. 41 RANGO DI UNA MATRICE ......................................................................................................................... 42 SISTEMI DI EQUAZIONI LINEARI ............................................................................................................ 44 TEOREMA DI CRAMER (41.1 Facchini) ..................................................................................................... 46 DETERMINANTE .......................................................................................................................................... 47 ESPANSIONE PER COFATTORI ................................................................................................................. 47 ESPANSIONE PER COFATTORI RISPETTO ALLA COLONNA j ........................................................... 48 MINORE COMPLEMENTARE (di ordine i, j) .............................................................................................. 49 TRASPOSIZIONE .......................................................................................................................................... 50 PROPRIETA’ DEL DETERMINANTE ......................................................................................................... 51 ELIMINAZIONE DI GAUSS ......................................................................................................................... 51 2 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre REGOLA DI CRAMER .................................................................................................................................. 53 TEOREMA DI ROUCHE’- CAPELLI ........................................................................................................... 53 ALTRE APPLICAZIONE DELL’ELIMINAZIONE DI GAUSS .................................................................. 54 AUTOVALORI E AUTOVETTORI DI MATRICI ....................................................................................... 54 APPUNTI DI ALGEBRA LINEARE SEMIGRUPPI Un semigruppo è un insieme S con un’operazione (S,∙). L’operazione è binaria su S poiché prende coppie di elementi S x S e va a finire in S. ∙ : S x S S S x S = {(x, y): x, y ∈ S} Gode di proprietà associativa: (x∙y)∙z = x∙(y∙z) per ogni x, y ,z ∈ S Esempi: (N,∙) ∙ qui è una moltiplicazione. (N,+) MONOIDI Un monoide è un semigruppo (M,∙) con un elemento 1M ∈ M neutro per l’operazione tale che per ogni x ∈ M, 1M ∙x = x = x∙1M. (M,∙, 1M) 1M è l’elemento neutro sia a destra che a sinistra. 3 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre Esempi: (N,∙,1) con ∙ moltiplicazione. (N,+,0) (R,+,0) INSIEMI DI FUNZIONI Consideriamo f: AB con A, B insiemi. BA = {f | f: AB} sarà, allora, l’insieme delle funzioni da A a B. Esempi: RR = {f | f: RR} √2 ∈ R ma √2 ∉ RR La funzione f definita da f(x) = x2, per ogni x ∈ R, appartiene all’insieme di funzioni RR . x ↦ x2 ∈ RR (modo compatto per definire una funzione). Anche la funzione sin(x) appartiene a RR : x ↦ sin(x) ∈ RR . x ↦ 1/x ∉ RR, poiché non si può prendere 0 come input. La scrittura corretta, dunque, sarebbe: x ↦ 1/x ∈ R0R. Consideriamo, ora, gli insiemi B={0,1} e A={a, b} e l’insieme delle funzioni BA={f | f: AB}. Un elemento di BA è una funzione che prende in input una lettera (a oppure b) e restituisce 1 o 0. L’insieme considerato ha 4 elementi: 1. a ↦ 1 , b ↦ 0 2. a ↦ 0 , b ↦ 1 3. a ↦ 0 , b ↦ 0 4. a ↦ 1 , b ↦ 1 RELAZIONI Una relazione R è un sottoinsieme del prodotto cartesiano di A x B: R ⊆ A x B. Si tratta di un insieme di coppie ordinate, quindi A x B ≠ B x A. Esempi di relazioni con A={a, b} e B={0, 1}: R1={(a, 0)} R2={(a, 0), (b, 0)} R3={(a, 0), (a, 1)} 4 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre Una funzione (ovvero un elemento di BA) è una relazione f ⊆ A x B tale che: ∀ x ∈ A. ∃ y ∈ B | (x, y) ∈ f (TOTALITA’) ∀ x ∈ A e ∀ y, z ∈ B. ((x, y) ∈ f e (x, z) ∈ f) y=z (DETERMINAZIONE) SEMIGRUPPO DELLE FUNZIONI Il generico semigruppo delle funzioni si indica nel seguente modo: (BA, ◦), con BA insieme delle funzioni e con operazione di composizione ◦. Esempio: RR con f, g elementi di RR f ◦ g ∈ RR è la funzione tale che ∀ x ∈ R (f ◦ g)(x) = f(g(x)) Prendiamo, ora, due funzioni f: R R (x ↦ x2) e g: R R (x ↦ 2x) ed effettuiamo le composizioni (f ◦ g)(x) e (g ◦ f)(x). Otteniamo: (f ◦ g)(x) = f(g(x)) = f(2x) = 4x2 (g ◦ f)(x) = g(f(x)) = g(x2) = 2x2 Verifichiamo ora che (BA, ◦) sia un semigruppo. A tale scopo è necessario provare che per esso vale l’associatività, ovvero che (f ◦ g) ◦ h = f ◦ (g ◦ h) per ogni f, g, h ∈ BA. ((f ◦ g) ◦ h)(x) = (f ◦ g)(h(x)) = f(g(h(x))) (f ◦ (g ◦ h))(x) = f((g ◦ h)(x)) = f(g(h(x))) quindi (BA, ◦) è un semigruppo. In alcuni casi il semigruppo delle funzioni è un monoide. MONOIDE DELLE FUNZIONI SU A Il monoide delle funzioni su A è dato da (AA, ◦, idA) con la funzione identità idA: A A come elemento neutro. Dimostriamo che vale l’elemento neutro id: (f ◦ id)(x) = f(x) (id ◦ f)(x) = id(f(x)) = f(x) Le due espressioni sono equivalenti quindi id è l’elemento neutro per il monoide delle funzioni. Riportiamo, di seguito, alcune considerazioni relative alla finitezza dell’insieme delle funzioni BA: 5 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre Se A e B sono finiti allora anche BA è finito Se A è infinito e B è finito allora BA è infinito Se A è finito e B è infinito allora BA è infinito INSIEME DELLE PARTI Se A è un insieme, indichiamo con P(A) l’insieme i cui elementi sono tutti e soli i sottoinsiemi di A: P(A)={x: x ⊆ A}. Gli elementi sono 2n con n numero di elementi appartenenti ad A. Esempio: Se consideriamo l’insieme A={0, 1}, il numero degli elementi è 22=4. L’insieme delle parti di A così ottenuto è P(A)={ Ø, {0}, {1}, A}. Non è corretto scrivere 0 ∈ P(A) poiché in P(A) c’è l’insieme contenente 0. La scrittura esatta è, dunque, {0} ∈ P(A). SOTTOSEMIGRUPPI Dati gli insiemi T ed S, (T, ∙) è sottosemigruppo del semigruppo (S, ∙) se T ⊆ S ed è tale che T sia chiuso rispetto all’operazione ∙ cioè che per ogni a, b ∈ T, a ∙ b ∈ T. Esempi: (Z0, ∙), con ∙ moltiplicazione, è sottosemigruppo di (Z, ∙) Dato l’insieme A, (P(A), ∪, Ø) è un semigruppo poiché l’unione gode di associatività ed è anche un monoide con Ø come elemento neutro. Dato B ⊆ A, allora (P(B), ∪) è sottosemigruppo di (P(A), ∪). P(B) ⊆ P(A) poiché B ⊆ A. Dati X e Y ∈ P(B) cioè X e Y ⊆ B, X ∪ Y ⊆ B quindi X ∪ Y ∈ P(B). (interi pari, ∙) è sottosemigruppo di (Z, ∙), poiché moltiplicando numeri pari fra loro si ottengono altri numeri pari, il che indica la chiusura dell’insieme rispetto all’operazione di moltiplicazione. 6 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre SOTTOMONOIDI Dato (T, ∙) sottosemigruppo di un monoide (M, ∙, 1M), diciamo che (T, ∙) è sottomonoide qualora 1M ∈ T. Sia (M, ∙, 1M) monoide. Il più piccolo sottomonoide è ({1M}, ∙, 1M}). Ora, dato (P(B), ∪, Ø) sottosemigruppo del monoide (P(A), ∪, Ø), (P(B), ∩, B) è sottomonoide di (P(A), ∩, A)? Non sempre: lo è solo se A = B poiché l’elemento neutro deve essere lo stesso per entrambi gli insiemi. Dato un monoide (M, ∙, 1M), possiamo definire an (∀ n ∈ N ed a ∈ M). a0=1 elemento neutro an+1 = a∙an an = a∙a∙a∙a…∙a (n volte) Allora: an = 1 se n=0 an = a∙an-1 se n>0 Esempio: a, b ∈ R (ab)n = anbn Domanda: se (M, ∙, 1M) è un monoide, è vero che per ogni a, b ∈ M ed ogni n ∈ N vale (ab)n = anbn ? Non sempre: solo se M è commutativo. E’ necessario, dunque, applicare la COMMUTATIVITÀ: (ab)2 = (ab)(ab) a2b2 = (aa)(bb) Se M è commutativo: a(bc) = (ab)c (ab)2 = (ab)(ab) = associativa a(b(ab)) = a((ba)b) a2b2 = (aa)(bb) = associativa a(a(bb)) = associativa a((ab)b) Quindi è verificato che a((ba)b) = a((ab)b) con ab = ba (per proprietà commutativa) Esempio: prendiamo il semigruppo (S, ∙,) e i sottosemigruppi (T1, ∙) e (T2, ∙) . Definiamo ora T1T2 = {t1t2 : t1 ∈ T1, t2 ∈ T2}. Non è necessariamente vero che T1T2 ⊆ T1 e T1 T2 ⊆ T2, mentre è vero che (T1T2, ∙) ⊆ S (T1T2, ∙) è sottosemigruppo di S? Non sempre. Se (S, ∙) è commutativo, allora (T1T2, ∙) è sottosemigruppo di (S, ∙). 7 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre Due elementi arbitrari di T1T2 sono (t1t2) e (t11t12) (t1t2)(t11t12) = (t1t11)( t2t12) ∈ T1T2. Esempio: consideriamo, ora, il monoide delle parole su {0, 1}: ({0, 1}*, ∙, ɛ) {0, 1}* è l’insieme di tutte le sequenze finite di simboli 0 e 1 Esempio: 010100 ∈ {0, 1}* ∙ è l’operazione di concatenazione, ovvero la giustapposizione di stringhe Esempio: (010)∙(100) = 010100 ɛ è la stringa vuota “ ” Si tratta di un monoide commutativo? No, poiché la concatenazione non gode di commutatività: abbiamo, infatti, che (100)∙(010) = 100010 e (010)(100) = 010100 100010 ≠ 010100. T1 = ({0}*, ∙, ɛ) e T2 = ({1}*, ∙, ɛ) sono sottomonoidi per ({0, 1}*, ∙, ɛ) T1T2 = {0*1*} = {0n1n : n, m ∈ N}. Consideriamo ancora il monoide delle parole ({0, 1}*, ∙, ɛ) e prendiamo L = {0n1m : n, m ≥ 0}. (L, ∙, ɛ) non è sottomonoide di ({0, 1}*, ∙, ɛ) poiché non è chiuso per l’operazione di concatenazione: abbiamo, infatti (0011)(000111) = 0011000111 che non è di forma 0n1m e, quindi, non appartiene a L. Sia, ora (M, ∙, 1M) monoide. Se (T, ∙, 1M) e (S, ∙, 1M) sono sottomonoidi di M, allora (S, ∙, 1M) ∩ (T, ∙, 1M) è sottomonoide di (M, ∙, 1M). (S, ∙, 1M) ∪ (T, ∙, 1M) è sottomonoide di (M, ∙, 1M)? Non sempre: infatti, se esaminiamo il monoide M = ({0, 1}*, ∙, ɛ) e T = ({0n : n≥0}, ∙, ɛ) ed S = ({1m: m≥0}, ∙, ɛ), otteniamo: S ∩ T = ({ɛ}, ∙, ɛ) S ∪ T = {1m: m≥0} ∪ {0n : n≥0} non è sottomonoide di M = ({0, 1}*, ∙, ɛ) poiché non è chiuso rispetto alla concatenazione (es: 10 ∉ S ∪ T). E’ possibile, tuttavia, ottenere un sottomonoide a partire da S ∪ T: bisogna a tal fine assicurarne la chiusura. Introdurremo, a questo punto, la nozione di sottomonoide generato da S ∪ T, il quale è più grande di S ∪ T poiché contiene anche la concatenazione di elementi di S e T. Esso è, inoltre, il più piccolo sottomonoide di M contente S ∪ T [S ∪ T] = M (in questo caso abbiamo un sottomonoide improprio). 8 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre SOTTOMONOIDE GENERATO Sia (M, ∙, 1M) un monoide e sia X ⊆ M. Allora [X], ovvero il sottomonoide di M generato da X, è il più piccolo sottomonoide di M contenente X. Esempi: [M] = M [Ø] = {1n} con 1n elemento neutro del monoide M PROPRIETÀ PER DIMOSTRARE L’ESISTENZA DEL SOTTOMONOIDE GENERATO Chiusura per intersezione dei sottomonoidi: siano M monoide, S e T sottomonoidi, allora S ∩ T è sottomonoide di M. Dunque, se M è un monoide e {Si}i ∈ I (con Si famiglia di sottomonoidi) sono sottomonoidi allora ∩( i ∈ I) Si è sottomonoide. [X] è l’intersezione di tutti i sottomonoidi di M che contengono X. Intersezione di una famiglia: [X] = ∩{S:S sottomonoide di M e S ⊇ X} Esempi: 1. (N,+,0) X={3,2} Y={0,1} [X] = {0,3,2,5…} (infinito) [Y] = N 2. (P(N), ∩ N) X = { Ø, N} [X] = X (finito) 3. (P(N), ∪, N) X = { Ø, N} [X] = X (finito) LEMMA (caratterizzazione di [X]): [X]={1M} ∪ {x1∙x2…xn : n≥1, xi ∈ X per ogni i=1…n con n ∈ N }. Se X={a} allora [a]={an| n ∈ N} 9 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre Dimostrazione: sia N={1M} ∪ {x1∙x2…xn : n≥1, xi ∈ X per ogni i=1…n con n ∈ N. basta dimostrare che N è un sottomonoide di M, che N contiene X e che N è contenuto in ogni sottomonoide di M contenente X. N è un sottomonoide di M poiché è un sottoinsieme chiuso, N ⊇ X; se, poi, P è un sottomonoide di M contenente X, allora 1M ∈ P e x1∙x2…xn ∈ P per ogni xi ∈ X e quindi N ⊆ P, provando, così, che [X]=N. La seconda parte della dimostrazione segue alla prima. COSTRUZIONI A PARTIRE DA UN MONOIDE PRODOTTO DIRETTO Siano (S, *, 1S) e (T, ∙, 1T) monoidi. Definisco il loro prodotto diretto S x T: (S x T, +, 1SxT) con S x T prodotto cartesiano di insiemi. L’operazione “+” è data come segue: (s1, t1) + (s2, t2) = (s1 * s2, t1 ∙ t2) con (s1 * s2) ∈ S e (t1 ∙ t2) ∈ T. L’elemento neutro è (1S, 1T) = 1SxT E’ chiuso per l’operazione “+” poiché (s, t) + (1S, 1T) = (s * 1S, t ∙ 1T). OMOMORFISMO DI MONOIDI Un omomorfismo è una funzione che preserva un struttura. Data due monoidi (M, +M, 1M) e (N, +N, 1N), un omomorfismo è una funzione f: M N tale che: 1. f(x +M y) = f(x) +N f(y) per ogni x, y ∈ M. (x +M y) è un valore che viene trasportato in N. 2. f(1M) = 1N Esempio: f: (R+, ∙, 1) (R, +, 0) loge: (R+, ∙, 1) (R, +, 0) ln(xy) = lnx + lny ln1 = 0 LEMMA: Sia f: M N omomorfismo di monoidi. 1. f(M) = {f(x): x ∈ M} è un sottomonoide di N con f(M) immagine di M rispetto ad f. 10 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre 2. f-1(N) = {x ∈ M | f(x) ∈ N} è un sottomonoide di M. Dimostrazione: 1. Consideriamo (M, +M, 1M) e (N, +N, 1N). Dimostriamo che 1N ∈ f(M). devo dimostrare che z +N y ∈ f(M). Se z, y ∈ f(M) per definizione esistono 2 elementi z', y' ∈ M tali che z = f(z') , y = f(y') z +N y = f(z') +N f(y') = f(z' +N y'). ENDOMORFISMO Omomorfismo di un monoide in se stesso : M e N coincidono, stessa operazione ed elemento neutro. ISOMORFISMO E’ un omomorfismo biiettivo. Una funzione f è biiettiva se è sia suriettiva (f: A B, per ogni y ∈ B esiste x ∈ A: f(x) = y) che iniettiva (f: A B, per ogni x, y ∈ A (f(x) = f(y) x = y) oppure per ogni x, y ∈ A (x ≠ y f(x) ≠ f(y)). Esempio: ln: R+ R AUTMORFISMO Si tratta di un isomorfismo di un monoide in se stesso: il monoide di arrivo e di partenza è lo stesso. 11 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre INSIEME DI TUTTI GLI ENDOMORFISMI DI M Sia M un monoide. End(M) ⊆ MM (anche detto Hom(M)) LEMMA: (End(M), ◦, idM) è un monoide (è sottomonoide di MM). Devo mostrare che gli endomorfismi sono chiusi per composizione cioè che, dati f, g ∈ End(M) f ◦ g ∈ End(M). Dimostrare che f ◦ g preserva la somma: (f ◦ g)(x +M y) = f(g(x +M y)) = f(g(x) +M g(y)) = f(g(x)) +M f(g(y)) = (f ◦ g)(x) +M (f ◦ g)(y). A questo punto è necessario dimostrare che idM è un endomorfismo. (f ◦ g)(1M) = f(g(1M)) = f(1M) = 1M. idM(x +M y) = idM(x) +M idM(y) (IDENTITA’ PRESERVA LA SOMMA). Abbiamo, così, dimostrato che (End(M), ◦, idM) è monoide degli endomorfismi di M. INVERSO Nel caso di un monoide (M, ∙, 1), diciamo che a ∈ M è invertibile a destra se esiste c ∈ M tale che a∙c = 1. Diciamo che a è invertibile a sinistra se esiste b ∈ M tale che b∙a = 1 (si considerano destra e sinistra poiché non è detto che l’operazione sia commutativa; possono esserci molti inversi destri o sinistri). Un elemento a ∈ M è invertibile se è invertibile sia a destra che a sinistra cioè se ha inverso destro e sinistro. LEMMA: Sia (M, ∙, 1) monoide e a ∈ M invertibile. Allora inversi destro e sinistro coincidono tutti gli inversi destri e sinistri coincidono quindi solo un elemento può invertire a. Dimostrazione: Se b è inverso sinistro allora b = b ∙ 1 = b(ac) (poiché c è l’inverso destro) b(ac) = (ba)c (poiché è commutativo) (ba)c = 1c = c Quindi inversi destro e sinistro coincidono. Se ha è inverso, dunque, ha un UNICO INVERSO. 12 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre Nel caso di monoide in notazione moltiplicativa, l’inverso di a è a-1. Nel caso, invece, di monoide in notazione additiva, l’inverso di a è –a. GRUPPI Consideriamo (M, +, 0): esso è un gruppo se è un monoide in cui ogni elemento di M è invertibile. Siccome ogni elemento ha un inverso posso pensare che un gruppo sia un monoide dotato di una funzione unaria che mappa a -a tale che a – a = 0. a + (-a) = 0; (-a) + a = 0 0 è l’elemento neutro del monoide considerato. Esempi: (Q – {0}, ∙, 1) è un gruppo poiché x ∙ (1/x) = 1. (N, +, 0) non è un gruppo poiché manca l’opposto. (Z, +, 0) è un gruppo poiché x + (-x) = 0 (P(N), ∪, Ø) non è un gruppo poiché dovrebbe esistere un insieme Y tale che X ∪ Y (X, Y ∈ P(N)) = Ø. 5. (P(N), ∩, N) non è un gruppo poiché dovrebbe esistere un insieme Y tale che X ∩ Y (X, Y ∈ P(N)) = N. 6. (End(M), ◦, idM) è un monoide ma non un gruppo. Per essere invertibile per goni funzione f deve esistere una funzione g tale che t ◦ g = g ◦ f = idM. Una funzione è invertibile se è biiettiva. 1. 2. 3. 4. Sia (G, ∙, 0) un gruppo e x ∈ G. l’operazione che mappa x -x è un’ INVOLUZIONE cioè l’inverso dell’inverso: (x-1)-1 = x. SOTTOGRUPPO DI UN GRUPPO Un sottogruppo di un gruppo è un sottomonoide in cui vale lo stesso elemento inverso. Sia G gruppo. H è sottogruppo di G (notazione: H ⊴ G) se H è un sottomonoide di G tale che a-1 ∈ H. Esempio: 13 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre L’insieme di tutti i multipli interi di N nZ = {nq: q ∈ Z} per ogni n ∈ N è un sottogruppo di Z poiché: 1. Contiene lo 0. 2. E’ sottomonoide. 3. E’ chiuso per la somma. 4. E’ chiuso per l’operazione di inverso: l’inverso di nq è n(-q). OMOMORFISMO DEL GRUPPO Si tratta di un omomorfismo di monoidi f: G H (G, H gruppi) in cui f(x-1) = f(x)-1. Definizione: f: G H è omomorfismo di gruppi se: 1. f è omomorfismo delle strutture di monoide di G ed H 2. per ogni x ∈ G, f(x-1) = (f(x))-1 (operazione di inversione del gruppo). Ciò segue dal fatto che f è omomorfismo di monoidi. PRODOTTO DIRETTO DI GRUPPO Definizione: Siano G ed H gruppo. G x H gruppo avente come insieme inverso G x H = {(g, h): g ∈ G, h ∈ H} e avente operazione (g, h) * (g', h') = (g ∙G g', h ∙H h') ed elemento neutro (1G, 1H). INSIEME DELLE CLASSI RESTO Z/≡n = {[a] ≡n : a ∈ Z} è insieme della classi resto ovvero l’insieme i cui elementi sono classi di equivalenza di mod n. La congruenza mod n è una relazione binaria sugli interi. a ≡n b si dice “a congruo b modulo n”. a e b differiscono per un multiplo di n n divide (a-b). [a] ≡n = {b ∈ Z : a ≡n b} Esempio: 14 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre Prendiamo in considerazione n = 3 Z/≡3 = {[a] ≡3 a ∈ Z}. [a] ≡3 = {b ∈ Z: {[a] ≡3 b}. Ad esempio la classe di equivalenza [2] ≡3 è costituita dai numeri b tali che 3 divide (2 – b). Se b = 1 (2 – 1)/3 non soddisfa la definizione di congruenza quindi 1 ∉ [2] ≡3. Se b = 2 (2 – 2)/3 = 0 quindi 2 ∈ [2] ≡3. [2] ≡3 = {2, 5, 8, 11, 14, 17,…, -1, -4, -7,…} [0] ≡3 = {0, 3, 6, -3, -6,…} [1] ≡3 = {1, 4, 7, 10,…} [4] ≡3 = [1] ≡3 = [-5] ≡3 (tutti i numeri che differiscono per un multiplo di 3). Z/≡3 = {[a] ≡3 : a ∈ Z} = {[0] ≡3, [1] corrisponde al modulo considerato. ≡3, [2] ≡3} possiamo notare che il numero degli elementi MONOIDE DELLE CLASSI RESTO (Z/≡n, +, [0] ≡n) monoide. [a] ≡3 + [b] = [a + b] [a] ≡3 + [0] = [a + 0] = [a] [2] + [1] = [0] [1] + [1] = [2] [11] + [7] = [18] = [0] poiché 18 è un multiplo di 3. PROPRIETA’ FONDAMENTALI Se [a] = [a'] e [b] = [b'], allora [a] + [b] = [a'] + [b']. Ciò assicura che l’operazione “+” sia ben definita. La somma è un’operazione compatibile con ≡n ed è una congruenza per ≡n. (Z/≡n, +, [0] ≡n) è un gruppo? Lo è se e solo se n è primo. ANELLO (R, +, ∙, 0) 15 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre Proprietà: 1. (R, +, 0) è un gruppo commutativo abeliano 2. (R, ∙) è un semigruppo 3. Vale la distributività: a(b + c) = ab + ac a sinistra (b + c)a = ba + ca a destra per ogni a, b, c ∈ R. Esempio: (Z, +, ∙, 0) è un anello. ANELLO CON IDENTITA’ (R, +, ∙, 0, 1) è un anello con identità se (R, ∙, 1) è monoide e 0 ≠ 1. ANELLO COMMUTATIVO Un anello commutativo è un anello (R, +, ∙, 0) tale che (R, ∙) è commutativo. (Z, +, ∙, [0], [1]) è un anello commutativo con identità. LEMMA: sia R un anello. Allora 0 ∙ a = a ∙ 0 = 0 per ogni a ∈ R (lo 0 commuta con il “∙”). Dimostrazione: 0a = (0 + 0)a = 0a + 0a quindi 0 = 0a – 0a = 0a + 0a – 0a = 0a (-0a opposto additivo). Opposto e moltiplicazione: (-a)b Per ogni a, b ∈R (-a)b = a(-b) = -(ab) Dimostrazione: (-a)b + (ab) = 0 = (ab) + (-a)b (-a)b + (ab) = (-a + a)b = 0b = 0 (ab) + (-a)b = (a – a)b = 0b = 0 16 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre DOMINI DI INTEGRITA’ Un dominio di integrità è un anello commutativo con identità tale che non vi siano divisori dello 0. Un divisore dello 0 è u elemento a ∈ R tale che a ≠ 0 ed esiste b ∈ R\{0} tale che ab = 0. In un dominio di integrità, se ab = 0 allora a = 0 o b = 0. CAMPI Un campo è un anello commutativo con identità in cui ogni elemento non nullo è invertibile e se ac = ab e a ≠ 0 allora b = c. Se consideriamo (R, +, ∙, 0, 1), (R\{0}, ∙, 1) deve essere un gruppo. LEMMA: Ogni campo è dominio di integrità Dimostrazione: sia R un campo. Se R non è dominio di integrità, allora esistono a, b ∈ R tali che ab = 0, a ≠ 0, b ≠ 0; ma a è invertibile in R e quindi b = 1b = a-1ab = a-10 = 0 il che è assurdo. Esempi di campi: Z/≡n = {[a] ≡n : a ∈ Z} (Z/≡n, +, ∙, [0], [1]) è un campo se n è primo. [a] + [b] = [a + b] [a] ∙ [b] = [a ∙ b] Z/≡5 n = 5: primo, quindi abbiamo un campo {[0], [1], [2], [3], [4]} Ogni elemento non nullo ha inverso moltiplicativo. Chi è, ad esempio, l’inverso moltiplicativo di [3]? numero b ∈ Z tale che [3] ∙ [b] = [1] = [3b] quindi b = 2. ANELLO DEI POLINOMI Sia R un anello. Uso gli elementi di R come coefficienti. 17 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre R[x] = {∑𝑛𝑖=1 𝑎i 𝑥i 𝑛 : ai ∈ R, n ≥ 0} insieme di base per la struttura ad anello. x: indeterminata Esempio: Anello R[x] 3x2 + 3x + 1 ∈ R[x] 1 è l’elemento neutro per R[x] Se R è un campo, anche R[x] lo è? 1 No, poiché (x2 + x) ∙ (…) = 1 non esiste: infatti 𝑥 2 +𝑥 ∉ R[x], dal momento che non ha la forma aixin. ANELLO DELLE MATRICI 0 0 ( 0 0 Righe 0 0 0 0 0 0 0 0 0 0 ) colonne 0 0 Casi particolari: 1. Vettore riga (0 0 0 0) 0 0 2. Vettore colonna ( ) 0 0 Le matrici sono identificate da una dimensione. Matrici (n x m) ad elementi in R (anello). 𝑎11 . ( . 𝑎n1 . . . . . . . . 𝑎1m . . ) 𝑎nm aij ∈ R per ogni i = 1,…, n e j = 1,…, m I coefficienti delle matrici possono essere tutto ciò che forma un anello ( ad esempio i polinomi). SOMMA E MOLTIPLICAZIONE DI MATRICI 18 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre SOMMA La somma gode di proprietà commutativa. Le matrici che vengono sommate devono avere la stessa dimensione. Esempio: 1 7 A = (3 2) 5 0 4 0 B = (0 0 ) 1 0 5 0 A + B = (3 2) 6 0 Abbreviazioni: A = (aij) B = (bij) Con i = 1,…, n e j = 1,…, m A + B = (aij + bij) MOLTIPLICAZIONE La moltiplicazione non gode di proprietà commutativa. Le colonne della prima matrice devono avere lo stesso numero delle righe della seconda. . An x p = (. . . ABn x k = (. . . . . . . . . . Bp x k = (. . . .) . . . .) . . .) . A1 x p ∙ Bp x 1 = (𝑎1 . 𝑏1 . 𝑎𝑝 ) ∙ ( . ) = ∑𝑝 𝑎i 𝑏i 𝑖=1 . 𝑏𝑝 19 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre Ad esempio (2 4 0 6 5 1) ∙ ( ) = 0 + 24 +5 + 0 = 29 1 0 𝑏𝑖𝑗 𝑎𝑖𝑗 AB = ( 𝑐𝑖𝑗 )∙ =( ( AB = cij = ∑ 𝑝 ℎ=1 ) ) 𝑎ih 𝑏hj prodotto i-esima riga di A per j-esima colonna di B. ANELLO DELLE MATRICI QUADRATE DI DIMENSIONE n SULL’ANELLO R (Mn(R), +, ∙, 0, 1) 0 0 0=( 0 0 0 0 0 0 0 0 0 0 0 0 ) Matrice nulla 0 0 1 0 1=( 0 0 0 1 0 0 0 0 1 0 0 0 ) Matrice identica 0 1 20 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre SPAZI VETTORIALI Per gli spazi vettoriali vengono messe in relazione due strutture: 1. CAMPO (K, +K, ∙K, 0K, 1K) 2. GRUPPO ABELIANO (V, +V, 0V) Uno spazio vettoriale, quindi, è una coppia formata da un campo e da un gruppo abeliano. Gli elementi del gruppo abeliano sono i VETTORI. Gli elementi del campo sono i COEFFICIENTI. C’è un’operazione detta prodotto scalare che è una funzione binaria che prende un elemento di K e di V e ne restituisce uno di V. KxVV (α, v) ↦ αv con α ∈ K, v ∈ V PROPRIETA’ DEL PRODOTTO SCALARE 1. Associatività: (αβ)v = α(βv) per ogni α, β ∈ K, v ∈ V. 2. Distributività: a. α(v + w) = αv + αw b. (α + β)v = αv + βv Per ogni α, β ∈ K, v, w ∈ V 3. Identità: 1v = v per ogni v ∈ V (1 identità di K). I coefficienti vengono anche chiamati SCALARI. Esempi: 1. Sia K un campo, allora l’insieme Kn = {(α1,…, αn): αi ∈ K, i = 1,…, n} (con n ≥ 1) è spazio vettoriale su K. Il gruppo abeliano è (Kn, +, (0,…, 0)) e il campo è K. Prodotto scalare: λ ∙ (α1,…, αn) = (λα1,…, λαn) con λ ∈ K, (α1,…, αn) ∈ K 1 ∙ (α1,…, αn) = (α1,…, αn) (α1,…, αn) + (β1,…, βn) = (α1β1,…, αnβn) 2. K0 = {0} 0+0=0 21 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre a∙0=0 3. Gruppo dei polinomi a coefficienti in un campo K: (K[x], +, 0) gruppo abeliano Spazio vettoriale su K stesso Prodotto scalare: α∈K p(x), q(x) ∈ K[x] polinomi nell’indeterminata x (α, p(x)) ↦ q(x) 𝑛 Quindi p(x) = ∑𝑖=0 𝛽i 𝑥 𝑖 𝑛 α(p(x)) = ∑𝑖=0(𝛼𝛽i )𝑥 𝑖 = q(x) 1p(x) = p(x) 4. K è spazio vettoriale su K (esempio banale). Ogni campo è spazio vettoriale su se stesso. Il campo gode di associatività, distributività e identità. LEMMA (34.6 Facchini): Sia V uno spazio vettoriale su K. a) α ∙ 0V = 0V per ogni α ∈ K Come negli anelli, anche negli spazi vettoriali α0V = 0V non è un assioma e quindi va dimostrato. b) 0V ∙ v = 0V per ogni vettore v ∈ V. c) (-α)v = α(-v) = -(αv) per ogni α ∈ K e ogni v ∈ V -α opposto in K, -v opposto nella struttura del gruppo abeliano V d) αv = 0V se e solo se α = 0K oppure v = 0V. Dimostrazione: a) se α ∈ K abbiamo α0V = α(0V + 0V) = α0V + α0V. Sommiamo ad ambo i membri l’opposto dell’elemento α0V di V ed otteniamo che 0V = α0V. b) se v ∈ V abbiamo 0Kv = (0K + 0K)v. Sommiamo ad ambo i membri l’opposto dell’elemento 0Kv di V ed otteniamo che 0V = 0Kv. c) dobbiamo dimostrare che (-α)v è l’opposto di αv nel gruppo abeliano additivo V. bisogna dunque mostrare che (-α)v + αv = 0V. (-α)v + αv = (-α + α)v = 0Kv = 0V. Analogamente notiamo che α(-v) = -(αv). d) (⟸) (supponiamo vero ciò che sta a destra e dimostriamo ciò che sta a sinistra). 22 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre Supponiamo α = 0K oppure v = 0V. 1. Se α = 0K allora per (b) otteniamo αv = 0V 2. Se v = 0V allora per (a) otteniamo αv = 0V (⟹) Supponiamo αv = 0V Ci sono due possibilità: 1. α = 0K allora è vero che α = 0K o v = 0V 2. α ≠ 0K allora esiste α-1 (poiché ogni k non nullo ha un inverso) v = 1Kv sicuramente vero quindi v = 0V infatti v = 1Kv = α-1(αv) = α-10V = 0V per proprietà (a). SOTTOSPAZIO VETTORIALE Sia V uno spazio vettoriale su K. U ⊆ V è sottospazio vettoriale di V (su campo K) se U è sottogruppo di V e U è chiuso per il prodotto scalare per ogni α ∈ K e ogni μ ∈ U, αμ ∈ U. Esempi: 1. K[x] ≤ n insieme dei polinomi a coefficienti di K ed indeterminata x di grado al più n. 𝑛 K[x] ≤ n = {∑𝑖=0 ai 𝑥 𝑖 : ai ∈ K per ogni i = 1,…, n} K[x] ≤ n è sottospazio vettoriale di K(x) sul campo K. 2. R[x]≤2 contiene x2, 1 + x2, 0, 2x, √2x Non contiene x3. 3. (R2, +, 0) è uno spazio vettoriale su R costituito da coppie di reali con somma componente per componente ovvero somma tale che (x1, y1) + (x2, y2) = (x1 + x2, y1 + y2). Ha prodotto scalare α(x, y) = (αx, αy) (Z2, +, 0) è sottogruppo di (R2, +, 0) ma non è sottospazio vettoriale. SOTTOSPAZIO GENERATO PROPOSIZIONE (34.12 Facchini): Sia V un sottospazio vettoriale su K e sia X ⊆ V. <X> è il più piccolo sottospazio vettoriale di V su K contenente X. Sia V uno spazio vettoriale su K. 23 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre Sia X = {v1,…, vm} ⊆ V <X> = {∑𝑚 𝑖=1 αi 𝑣𝑖 : αi ∈ K, i = 1,…, m} <X> è insieme delle combinazioni lineari (sommatorie di vettori). Contiene il vettore nullo. <Ø> = {0V} per convenzione il sottospazio vettoriale generato dall’insieme vuoto è così definito (sottospazio nullo). Se V è uno spazio vettoriale su K e X ⊆ V tale che <X> = V diciamo che X è un insieme di generatori di V. V è generato dai vettori dell’insieme X. Esempio: (R3, +, 0) sul campo R X = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} <X> genera tutto R3 <X> = R3 = {αe1 + βe2 + γe3: α, β, γ ∈ R} (combinazioni lineari). Un qualsiasi vettore v ∈ R3 è N = (α, β, γ) con α, β, γ ∈ R quindi v = αe1 + βe2 + γe3 X' = {e1, e2, e3, (4, 7, 9)} <X'> = R3? Sì, perché <X'> = { αe1 + βe2 + γe3 + δ(4, 7, 9): α, β, γ, δ ∈ R} ⊇ <X> Lo spazio generato da X' è uguale a quello generato da X < X'> = <X> <X'> = { αe1 + βe2 + γe3 + 0(4, 7, 9): α, β, γ, δ ∈ R} = <X'> = { αe1 + βe2 + γe3 + δ(4, 7, 9): α, β, γ, δ ∈ R} U { αe1 + βe2 + γe3 + δ(4, 7, 9): α, β, γ, δ ∈ R, δ ≠ 0}. Se V è spazio vettoriale su K e X ⊆ V tale che <X> = V, allora Y ⊆ V tale che Y ⊇ X si ha <Y> = V. COMBINAZIONE LINEARE DEFINIZIONE (34.13 Facchini): consideriamo m ≥ 1 vettori v1, v2,…, vm appartenenti ad uno spazio vettoriale V su K. Chiamiamo combinazione lineare (a coefficienti in K) dei vettori v1, v2,…, vm ogni espressione del tipo α1v1 + α2v2 +…+ αmvm con α1, α2,…, αm ∈ K. SPAZIO VETTORIALE DELLE MATRICI Prendiamo in considerazione un campo K. (Mm x n (K), +, 0) m x n elementi presi nel campo K. 24 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre Prodotto scalare: 𝑎11 𝑎1𝑛 α( 𝛼𝑎11 𝛼𝑎1𝑛 )= ( 𝑎𝑚1 𝑎𝑚𝑛 ) 𝛼𝑎𝑚1 𝛼𝑎𝑚𝑛 INSIEME DI GENERATORI DELLO SPAZIO VETTORIALE DELLE MATRICI Combinazione lineare di matrici: somma di matrici moltiplicate per scalari Sia Eij = (i ∈ {1,…, m}, j ∈ {1,…, n}) Nella matrice in questione 1 è l’elemento in posizione (i, j) 0 0 1 (0 M2 x 2(R) 1 0 E11 = ( ) 0 0 E21 = ( 0 1 0 ) 0 E12 = ( 0 0 1 ) 0 E22 = ( 0 0 0 ) 1 0) X = {Eij: 1 ≤ i ≤ m, 1 ≤ j ≤ n} è tale che <X> = Mm x n (K) M2 x 2(R) spazio generato dall’insieme <{E11, E12, E21, E22}> M2 x 2(R) = <{E11, E12, E21, E22}> Perché: 𝛼 𝛽 𝛼 𝛽 1 0 0 1 0 sia ( ) ∈ M2 x 2(R) allora ( )= 𝛼 ( )+β( )+ 𝛾 ( 𝛾 𝛿 𝛾 𝛿 0 0 0 0 1 0 0 0 )+δ( ) 0 0 1 Esempi: 1. (K[x] ≤ n, +, 0) spazio vettoriale su K Sia X = {0, x, x', x2,…, xn} insieme di generatori di K[x] ≤ n 𝑛 <X> = K[x] ≤ n perché un polinomio p ∈ K[x] ≤ n è per definizione p = ∑𝑖=0 𝑎i x i 25 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre 2. (K[x], +, 0) spazio vettoriale su K Esiste un insieme finito di generatori? No, poiché se fissiamo X ⊆ K[x] finito, allora tra i polinomi che stanno in X c’è un grado massimo. Esempio di spazio vettoriale: KX con X insieme qualsiasi non vuoto. KX = {f: f funzione da X in K} KX è un gruppo abeliano (KX, +, 0) con: + (di K): operazione data da (f + g)(x) = f(x) + g(x) (per ogni f, g ∈ KX e ogni x ∈X) 0(x) = 0 (con lo 0 di K): funzione costante a valore 0 X (K , +, 0) spazio vettoriale su K con prodotto scalare. (αf)(x) = α ∙ f(x) (per ogni α ∈ K e ogni f ∈ KX e ogni x ∈ X). FUNZIONE LINEARE Applicazione lineare / omomorfismo di spazi vettoriali DEFINIZIONE (35.1 Facchini): Siano U, V spazi vettoriali sul campo K. Proprietà: 1. f: U V è funzione lineare se f(x + y) = f(x) + f(y) per ogni x, y ∈ U. 2. f (αx) = αf(x) per ogni x ∈ U e ogni α ∈ K. Se f: U V è una funzione lineare biiettiva, la chiamiamo isomorfismo lineare. f(0V) = 0V f(-u) = -f(u) per ogni u ∈ U (il primo “-“ è l’opposto additivo di u in U, mentre il secondo di f(u) in V). Esempio: (R3, +, 0), (R2, +, 0) f(x, y, z) = (2x, 3y + z) Verifichiamo se f è funzione lineare. u = (x1, x2, x3) v = (y1, y2, y3) f(u + v) = f(x1 + y1, x2 + y2, x3 + y3) = (2x1 + 2y1, 3x2 + 3y2 + x3 + y3) f(u) + f(v) = (2x1, 3x2 + x3) + (2y1, 3y2 + y3) = (2x1 + 2y1, 3x2 + 3y2 + x3 + y3) quindi la prima proprietà è soddisfatta. 26 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre αf(u) = α(2x1, 3x2 + x3) = (2αx1, 3αx2 + αx3) f(αu) = f(αx1, αx2, αx3) = (2αx1, 3αx2 + αx3) quindi anche la seconda proprietà è soddisfatta. La funzione, dunque, è lineare. LEMMA (35.7 Facchini): f: U V funzione lineare tra spazi vettoriali su K. a) Se X è sottospazio di U allora f(X) (immagine dell’insieme X) è sottospazio di V. b) Se Y è sottospazio di V allora f-1(Y) è sottospazio di U. Dimostrazione: a) Sappiamo che f(X) è un sottogruppo di V e f-1(Y) un sottogruppo di U. Siano f(u), f(u') due elementi qualsiasi di f(X) (cioè u, u' ∈ X). Allora dobbiamo calcolare f(u) + f(u') = f(u + u'). il risultato è un’immagine di un vettore di X quindi sta in f(X). Se α ∈ K allora αf(u) = f(αu) ∈ f(X). b) Per provare che f-1(Y) è un sottospazio di U basta osservare che se α ∈ K e v ∈ f-1(Y), allora f(v) ∈ Y, da cui f(αv) = αf(v) ∈ Y e quindi αv ∈ f-1(Y). NUCLEO (KERNEL) DEFINIZIONE (35.8 Facchini): Sia f: U V una funzione lineare. kerf = {u ∈ U: f(u) = 0V}. Si tratta dell’insieme dei vettori la cui immagine è il vettore nullo 0 nello spazio di arrivo, kerf ⊆ U è sottospazio di U. Siano u, u' ∈ kerf. f(u + u') = f(u) + f(u') = 0V + 0V = 0V quindi è un elemento di kerf. f(αu) deve stare in V. f(αu) = αf(u) = α0V = 0V. Quindi kerf è sottospazio vettoriale. Kn è spazio vettoriale su K. (_, _, _) gli elementi di Kn sono ennuple. fA : Kn Km. vogliamo mostrare che da una matrice A ∈ Mmxn(K) posso definire fA creata usando la matrice A. fA(v) = Av (con moltiplicazione fra matrici). 27 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre 𝛼1 . v ∈ Kn quindi v = ( . ) 𝛼𝑛 𝑎11 . . 𝑎1𝑛 𝛽1 𝛼1 . . . . . ( . )= . . 𝛼𝑛 𝑎 𝑎 𝛽 𝑚𝑛 ) ( 𝑚1 ( 𝑚) fA(v + v) = fA(v) + fA(v) fA(αv) = α fA(v) = A(λv) = λ(Av) fA(u + v) = A(u + v) = Au + Av Moltiplicazione matriciale. DIPENDENZA E INDIPENDENZA LINEARE DEFINIZIONE (36.1 Facchini): Insieme di vettori linearmente indipendenti: Sia V uno spazio vettoriale su K e siano v1,…,vm vettori ∈ V. Si dicono linearmente indipendenti se e solo se per ogni combinazione lineare che coinvolge v1,…,vm (α1v1 + α2v2 +…+ αmvm = 0V) dando il vettore nullo, abbiamo che α1 = α2 =…= αm = 0K. Si dicono linearmente dipendenti se non sono linearmente indipendenti. v1,…,vm si dicono linearmente dipendenti se e solo se esiste una sequenza α1 … αm di scalari non tutti nulli tali che ∑𝑚 𝑖=1 αi 𝑣𝑖 = 0V. Esempio: se prendiamo in considerazione i vettori v, v, u essi saranno sicuramente linearmente dipendenti poiché stiamo prendendo dei doppioni. α1 = 1, α2 = -1, α3 = 0 α1v + α2v + α3u = 0V Affinché siano linearmente indipendenti non bisogna prendere doppioni. Anche se c’è il vettore nullo abbiamo dipendenza: v1, v2, 0V, v3 α1 = α2 = α4 = 0, α3 = 1 α1v1 + α2v2 + α30V + α4v3 = 0V Esempio di vettori linearmente indipendenti: e1, e2, e3 ∈ R3 28 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre ei = (0,…, 1,…, 0) 1 è la componente i – esima. e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) e1, e2, e3 sono linearmente indipendenti. Dimostrazione: sia ∑3𝑖=1 αi 𝑒𝑖 = 0 vettore nullo. Allora: 1. α11 + α20 + α30 = 0 α1 = 0 2. α10 + α21 + α30 = 0 α2 = 0 3. α10 + α20 + α31 = 0 α3 = 0 PROPOSIZIONE (36.4 Facchini): i vettori v1…vm ∈ V sono linearmente dipendenti se e solo se uno è combinazione lineare degli altri (esiste j ∈ 1,…, m ed esistono α1,…, αj-1,…, αj+1,…, αm tali che vj = ∑𝑚 𝑘=1 αk 𝑣𝑘 con k ≠ j. Dimostrazione: (⟹) Supponiamo che v1…vm siano linearmente dipendenti cioè che esistano coefficienti non tutti nulli α1…αm ed esista j tale che αj ≠ 0 tale che ∑𝑚 𝑘=1 αk 𝑣𝑘 = 0 (siamo in un gruppo abeliano quindi vale la commutatività). 𝑚 Quindi αjvj = ∑𝑘=1(−αk )𝑣k con k ≠ j. 𝑚 (αj-1)( αjvj) = (αj-1)(∑𝑘=1(−αk )𝑣k) 𝑚 vj = ∑𝑘=1(−αk αj-1)vk Allora vj è combinazione lineare di α1,…, αj-1,…, αj+1,…, αm (⟸) Supponiamo vj = ∑𝑚 𝑘=1 αk 𝑣𝑘 con k ≠ j siccome siamo in un gruppo abeliano possiamo usare l’opposto additivo. 0 = v j = ∑𝑚 𝑘=1 αk 𝑣𝑘 con k ≠ j combinazione di vettori che danno il vettore nullo v1…vm sono linearmente dipendenti. PROPOSIZIONE (36.8 Facchini): {v0,…, vm} insieme di vettori (quindi non ci sono doppioni), se: 1. <{v0,…, vm}> = V insieme che genera V 2. v0 è combinazione lineare di v1,…, vm allora <{v1,…, vm}> = V l’insieme senza v0 genera lo stesso spazio. Dimostrazione: assumiamo che le ipotesi siano vere. Dobbiamo mostrare che qualsiasi vettore in V è combinazione lineare di v1,…, vm. Sia u ∈ V. 29 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre u = ∑𝑚 𝑘=0 αk 𝑣𝑘 poichè {v0,…, vm} generano V. 𝑚 𝑚 u = (∑𝑚 𝑘=1 αk 𝑣𝑘 ) + α0(∑𝑘=1 βk 𝑣𝑘 ) = ∑𝑘=1(αk + 𝛼0 𝛽𝑘 )vk BASI DEFINIZIONE (36.9 Facchini): Sia V uno spazio vettoriale su K. Sia B ⊆ V un insieme finito di vettori. B è base di V se V è generato da B (V = <B>) e B è linearmente indipendente. Sia X ⊆ V: più grande è X più cose può generare ma diminuisce la possibilità che sia linearmente indipendente. PROPRIETA’ DI UNA BASE: Una base è un insieme massimale di vettori linearmente indipendenti. Per ogni B' ⊃ B, B' non è linearmente indipendente. LEMMA (36.14 Facchini): Se X è un insieme che genera V allora X contiene una base di V. PROPOSIZIONE (36.15 Facchini): Sia B ⊆ V (finito) allora le seguenti affermazioni sono equivalenti: a) B è base di V b) B è un insieme linearmente indipendente massimale di vettori c) B è un insieme minimale di generatori Dimostrazione: 1. (a) ⟹ (b) Supponiamo vera (a). Sia B una base di V. Per definizione B è linearmente indipendente. Bisogna dimostrare, ora, che è massimale B' ⊃ B deve essere non linearmente indipendente. Sia B' ⊃ B e sia v ∈ B' – B. Allora, poiché <B> = V, abbiamo che v = ∑𝑚 𝑖=1 𝛼𝑖 𝑢𝑖 con B = {u1,…, um}. Quindi B' è linearmente dipendente. 2. (b) ⟹ (a) Supponiamo che B sia un insieme linearmente indipendente massimale. Bisogna dimostrare che B genera tutto V. B è linearmente indipendente per ipotesi. Dimostriamo che B genera V <B> = V 30 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre Sia v ∈ V un vettore qualsiasi dello spazio V e sia B = {u1,…, um}. Dobbiamo considerare due casi: a. v ∈ B. Se v ∈ B, esiste i ∈ {1,…, m} tale che ui = v. Scelgo α1 = 1, αj = 0 per ogni j ∈ {1,…, m}-{1}. ∑𝑚 𝑖=1 𝛼𝑖 𝑢𝑖 = v combinazione lineare dei vettori di B che ci dà v. b. v ∉ B. Allora B' = {v} U B è l’insieme che estende propriamente B quindi non è linearmente indipendente a causa di v cioè v è combinazione lineare dei vettori di B ovvero v ∈ <B> v è un vettore qualsiasi dello spazio V quindi <B> = V (lo spazio generato da B è tutto V). 3. (a) ⟹ (c) Supponiamo che B sia base per V (quindi per definizione B è insieme minimale di generatori). Dobbiamo dimostrare che è minimale. Sia B' ⊂ B. Vogliamo mostrare che <B'> ≠ V (l’insieme generato da B' non è V), quindi <B'> ⊂ V (esiste v che non è combinazione lineare di B'). Sia v ∈ B - B'. Siccome B genera V, v è combinazione lineare dei vettori di B. Dobbiamo dimostrare che v ∉ <B'>. Se per assurdo v ∈ B' (quindi v sarebbe combinazione lineare dei vettori di B') allora anche v ∈ <B – {v}> cioè B non sarebbe linearmente indipendente e non potrebbe essere una base, il che sarebbe in contraddizione con l’ipotesi. ASSURDO. 4. (c) ⟹ (a) Sia B insieme minimale di generatori di V. Dimostriamo che è una base. Per ipotesi <B> = V. Ci manca da dimostrare che B è linearmente indipendente. Per il lemma 36.14, B contiene una base. B è un insieme minimale di generatori quindi non possiamo togliere nulla allora B è proprio quella base. TEOREMA DI SOSTITUZIONE DELLE BASI (36.16 Facchini) Sia V uno spazio vettoriale su K. Sia B = {v1,…, vn} una base di V. Siano w1,…, wm vettori linearmente indipendenti in V. Allora m ≤ n (non si possono prendere più vettori di v1,…, vn per avere una base) e l’insieme B' = {w1,…, wm, vm+1,…, vn} è una base di V. Esempio: 31 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre siano w1 = (0, 3, 2) e w2 = (7, 1, 0) w1 e w2 sono linearmente indipendenti tra loro. Possiamo applicare il teorema di sostituzione delle basi. Togliamo i vettori linearmente indipendenti sostituendoli con altri vettori linearmente indipendenti e ottenendo, così, una nuova base. Possiamo sostituire w1 e w2 al posto di due vettori in {e1, e2, e3} e ottenere una nuova base. Se m = n allora abbiamo una base: se in R3 prendo 3 vettori linearmente indipendenti automaticamente ho una base. COROLLARIO (36.17 Facchini): Tutte le basi di uno spazio hanno la stessa cardinalità. DIMENSIONE DI V: dim(V) = cardinalità di una base qualsiasi di V (se c’è) altrimenti dim(V) = ∞ (se non c’è nessuna base di V allora ha dimensione infinita). Esempio (36.1 Facchini): Q[x] ≤ 2 spazio vettoriale i cui elementi sono polinomi a coefficiente razionale con grado al più 2. A = {2, 1+x, 1-x2, -2x-x2, x2} (q1, q2, q3, q4, q5). Dimostriamo che <A> = Q[x] ≤ 2. Sia p ∈ Q[x] ≤ 2 : bisogna mostrare che p è combinazione lineare di A cioè che esistono α1, α2, α3, α4, α5 tali che p = ∑5𝑖=1 αi 𝑞𝑖 p = a + bx + cx2 dimostrare che a + bx + cx2 = ∑5𝑖=1 αi 𝑞𝑖 = 2α1 + α2 + α3 + (α2 - 2α4)x + (- α3 - α4 + α5)x2. a = 2α1 + α2 + α3 b = α2 - 2α4 c = - α3 - α4 + α5 Per ogni a, b, c ∈ Q devono esistere α1, α2, α3, α4, α5 ∈ Q tali che il sistema sia soddisfatto. α2 = -b + 2α4 α1 = ½(a - α2 - α3) α4 = -c - α3 + α5 la cardinalità della base è 3 poiché Q[x] ≤ 2 ha base {1, x, x2}, quindi da A possiamo ottenere una base eliminando due vettori. Tutti i vettori corrispondenti ai coefficienti superflui possono essere eliminati. COROLLARIO (36.19 Facchini): sia V uno spazio vettoriale di dimensione finita. Siano w1…wm vettori di V linearmente indipendenti. Esiste una base di V contenente w1…wm. Dimostrazione: 32 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre sia dim(V) = n e sia {v1…vn} una base di V. per il teorema di sostituzione si può ottenere un’altra base B di V sostituendo m vettori vi con gli m vettori w1…wm. quindi B è una base di V che contiene w1…wm. PROPOSIZIONE (36.20 Facchini): se V è spazio vettoriale di dimensione finita e U ⊆ V allora dim(U) ≤ dim(V). Dimostrazione: per assurdo supponiamo che esista uno spazio vettoriale V di dimensione finita n con un sottospazio vettoriale U di dimensione infinita. Allora nessun sottoinsieme finito di U è una base di U: per la proposizione 36.15 ogni sottoinsieme B di U costituito da vettori linearmente indipendenti non è massimale, ovvero, per ogni sottoinsieme B di U costituito da vettori linearmente indipendenti esiste un sottoinsieme B' di U a sua volta costituito da vettori linearmente indipendenti e contenete B propriamente. Costruiamo la successione u1,u1…un+1 di vettori linearmente indipendenti di U. Avendo U dimensione infinita, sarà U ≠ {0} e quindi esiste u1 ∈ U e u1 ∉ 0. In questo caso la successione è banalmente costituita da vettori linearmente indipendenti. Supponiamo, adesso, di avere i vettori linearmente indipendenti u1,u1…ui di U. Dal momento che U non ha insiemi di vettori linearmente indipendenti massimali, l’insieme B = {u1,u1…ui} è propriamente contenuto in B', insieme di vettori linearmente indipendenti di U, e, quindi, esiste ui+1 ∈ B' ⊆ U tale che u1,u1…ui, ui+1 siano linearmente indipendenti. Dopo n passi troveremo n + 1 vettori u1,u1…un+1 di U linearmente indipendenti. Ma l’esistenza di n + 1 vettori linearmente indipendenti contraddice il teorema di sostituzione. Ciò dimostra che ogni sottospazio U di uno spazio vettoriale V di dimensione finita ha dimensione finita. Inoltre dim(U) ≤ dim(V) per il teorema 36.16. ESTENSIONE PER LINEARITA’ TEOREMA (38.1 Facchini): siano V e W degli spazi vettoriali su un campo K. Sia B = { v1, …, vn} una base di V e sia w1…wn una ennupla di vettori di W. Esiste un’unica applicazione lineare f: V W: f(vi) = wi (per i = 1, …, n). Dimostrazione: 1. Esistenza: definiamo f come segue: dobbiamo definire f(v) per v ∈ V arbitrario. Sia v ∈ V: siccome B è base, v = ∑𝑛𝑖=1 αi 𝑣𝑖 f(v) = ∑𝑛𝑖=1 αi 𝑤𝑖 . 2. Linearità: dobbiamo dimostrare f(βv) = βf(v). f(βv) = f(∑𝑛𝑖=1 βαi 𝑣 ) (applicando proprietà distributiva) = ∑𝑛𝑖=1 βαi 𝑤𝑖 . 33 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre βf(v) = β(∑𝑛𝑖=1 αi 𝑤𝑖 ) = ∑𝑛𝑖=1 βαi 𝑤𝑖 . 3. Somma: siano v = ∑𝑛𝑖=1 αi 𝑣𝑖 e u = ∑𝑛𝑖=1 βi 𝑣𝑖 a) f(v + u) = f(u) + f(v) 𝑛 𝑛 b) f(u + v) = f( ∑𝑖=1(βi + αi )𝑣𝑖 ) = ( ∑𝑖=1(βi + αi )𝑤𝑖 ) 𝑛 𝑛 𝑛 c) f(u) + f(v) = ∑𝑖=1(βi 𝑤𝑖 ) + ∑𝑖=1(αi 𝑤𝑖 ) = ( ∑𝑖=1(βi + αi )𝑤𝑖 ) 4. Dimostriamo l’uguaglianza f(vi) = wi: f(vi) = f(∑𝑛𝑖=1 αi 𝑣𝑖 ) = ∑𝑛𝑖=1 αi 𝑤𝑖 = wk poiché la sommatoria contiene un solo elemento e quindi è il medesimo. 5. Unicità (vale a dire f è l’unica funzione lineare U W): sia g: V W lineare tale che g(vi) = wi (i = 1,…, n). Sia v un vettore di V f(v) = ∑𝑛𝑖=1 αi 𝑤𝑖 , v = ∑𝑛𝑖=1 αi 𝑣𝑖 𝑛 𝑛 g(v) = ∑𝑖=1 g(αi 𝑣𝑖 ) = ∑𝑖=1 αi 𝑔(𝑣𝑖 ) = ∑𝑛𝑖=1 αi 𝑤𝑖 . LEMMA (38.3 Facchini): Siano V e W spazi vettoriali su K. Sia B = { v1, …, vn} una base di V e sia f: V W lineare. Allora f è isomorfismo se e solo se f(B) = { f(v1),…, f(vn)} è una base di W. Dimostrazione: (⟹) Supponiamo che f sia isomorfismo. Dimostriamo che è una base. 𝑛 a) Siano α1,…, αn tali che ∑𝑖=1 αi 𝑓(𝑣𝑖 ) = 0W. 𝑛 Per linearità f(∑𝑖=1 αi 𝑣𝑖 ) = 0w. Isomorfismo biiettiva iniettiva ∑𝑛𝑖=1 αi 𝑣𝑖 = 0V α1 = α2 = … = 0K b) Base (i vettori generano tutto lo spazio): sia w ∈ W esiste v ∈ V tale che f(v) = w (suriettività derivata dall’isomorfismo). 𝑛 Ma v = ∑𝑛𝑖=1 αi 𝑣𝑖 allora f(v) = ∑𝑖=1 αi 𝑓(𝑣𝑖 ) = w (⟸) Supponiamo f(B) base di W. a) Suriettività: 𝑛 𝑛 per ogni w ∈ W esiste una combinazione lineare ∑𝑖=1 αi 𝑓(𝑣𝑖 ) = w quindi f(∑𝑖=1 αi 𝑣𝑖 ) = w è suriettiva. b) Iniettività: supponiamo f(v) = f(u) (u, v ∈ V). f(v) + (-f(u)) = f(u) + (-f(u)) f(v) + f(-u) = 0W f(v – u) = 0W Sappiamo che f(0V) = 0W, quindi dimostriamo che v = u (v – u = 0V). 34 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre Background: ker f = {v ∈ V: f(v) = 0W} f è iniettiva se e solo se ker f = {0V}. Se ker f ≠ {0V} non sarebbe iniettiva (due vettori). Contropositiva: ker f = {0V} iniettiva. Da ciò deriva f(v – u) = 0W v – u = 0V v = u (abbiamo usato l’implicazione che ker f = {0V}. Dobbiamo, tuttavia, dimostrarlo. Sia v ∈ V, f(v) = 0W v = 0V. Dimostrazione: 𝑛 esiste una combinazione lineare ∑𝑖=1 αi 𝑓(𝑣𝑖 ) = 0W α1 = α2 = … = αn = 0K 𝑛 𝑛 ∑𝑖=1 αi 𝑓(𝑣𝑖 ) = 0W = f(∑𝑖=1 αi 𝑣𝑖 ) Quindi v = 0V + 0V + 0V + … 0V. L’iniettività è dimostrata perciò abbiamo un isomorfismo. TEOREMA (38.4 Facchini): sia W uno soazio vettoriale su K e sia dim(W) = n, allora W ≅ Kn. Dimostrazione: sia dim(W) = n dim(Kn) = n perché Kn ha base { e1, e2,…, en} (formata da vettori canonici). W ha base { w1, w2,…, wn}. Allora: e1 w1 e2 w2 en wn Esiste un’unica funzione lineare f: Kn W tale che f(ei) = wi per ogni i = 1,..., n. La funzione f è isomorfismo (per il lemma 38.3). PROPOSIZIONE (38.5 Facchini): sia f: V W una funzione lineare, V e W sono spazi vettoriali su un campo K (sappiamo che f(V) è sottospazio di W e ker f è sottospazio di V). Sia V di dimensione finita allora f(V) ha dimensione finita e dim(V) = dim(ker f) + dim(f(V)). f(V) = {f(v): v ∈ V}. Se f è iniettiva allora ker f = {0V} e quindi dim(ker f) = 0 (<Ø> = {0V} e la dimensione del sottospazio nullo è 0). Quindi, dim(V) = dim(f(V)) e quindi V ≅ f(V), ossia V è isomorfo a f(V), poiché tutti gli spazi sullo stesso campo, se hanno la stessa dimensione, sono isomorfi. 35 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre Perciò, f è ismorfismo. COROLLARIO (38.7 Facchini): sia f: V V un endomorfismo lineare. Sia V di dimensione finita. Allora f è suriettiva se e solo se f è iniettiva (ipotesi di iniettività implica suriettività). Dimostrazione: (⟸) Iniettivià implica suriettività: segue dalla formula dim(V) = dim(ker f) + dim(f(V)). f(V) ⊆ V f(V) = V (tutti i vettori di V sono immagine di un qualche vettore di V). Sapendo che dim(ker f) = 0, dim(f(V)) = dim(V). f(V) ha una base {a1,…, an} e V ha una base {b1,…, bn}. Per il teorema di sostituzione si possono sostituire i vettori delle due basi ottenendo la stessa base f(V) = V, quindi è lo stesso spazio. (⟹) Supponiamo f suriettiva. f(V) = V quindi dim(V) = dim(f(V)). Perciò dim(ker f) = 0 ker f = {0V} f è iniettiva. Dimostrato ciò, giungiamo alla conclusione che gli spazi vettoriali sono fortemente caratterizzati dalle loro basi. MATRICE ASSOCIATA AD UNA APPLICAZIONE LINEARE Sia f: V W un’applicazione lineare, dim(W) = m e dim(V) = n. fA: Km Kn , solo che al posto di Km e Kn abbiamo due spazi arbitrati V e W su campo K. fA(v) = Av dim(W) = m W ha base { w1,…, wm}. dim(V) = n V ha base { v1,…, vn}. f(vj) è vettore di W per ogni j = 1,…, n e quindi f(vj) è combinazione lineare di w1,…, wn. per ogni j ∈ {1,…, n} esistono m coefficienti a1j, a2j,…, amj tali che f(vj) = ∑ 𝑎11 . 𝑎1𝑗 . 𝑎21 . 𝑎2𝑗 . Af = ( . . . . 𝑎𝑚1 . 𝑎𝑚𝑗 . Nella colonna j-esima i della base di W. 𝑚 𝑖=1 αij 𝑤𝑖 . 𝑎1𝑛 𝑎2𝑛 . ) matrice che dipende dalla funzione e la descrive completamente. 𝑎𝑚𝑛 coefficienti (elementi di K) esprimono f(vj) come combinazione lineare 36 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre Af è la matrice associata ad f rispetto alle basi considerate, ovvero { w1,…, wn} e { v1,…, vn}. Af ∈ Mnxn (K). Come si calcola f(v) per un qualsiasi v ∈ V? Sappiamo che v = ∑ ∑ 𝑛 𝑗=1 αj 𝑓(𝑣𝑗 ) = ∑ 𝑛 𝑗=1 𝑛 𝑗=1 αj 𝑣𝑗 quindi f(v) = ∑ αj (∑ 𝑚 𝑖=1 𝑛 𝑗=1 𝑛 αj 𝑓(𝑣𝑗 ) (per la linearità di f). aij 𝑤𝑗 ) = ∑ 𝑗=1 ∑ 𝑚 𝑖=1 𝑚 αj 𝑎𝑖𝑗 𝑤𝑖 = ∑ (∑ 𝑖=1 𝑛 𝑖=1 αj 𝑎𝑖𝑗 )𝑤𝑖 (per commutatività e distributività). 𝛼1 𝛽1 . . Se Cv = ( . ) allora AfCv = ( ) . 𝛼𝑛 𝛽𝑚 𝛽𝑚 coefficienti dati dalla moltiplicazione AfCv con cui si esprime f(v) come combinazione lineare di w1,…, wn. Come calcolo f(v)? f(v) = ∑𝑚 𝑖=1 βi 𝑤𝑖 Parto da f e da due basi { v1,…, vn} e { w1,…, wm}. Per calcolare f(v): 𝛼1 𝑛 . 1. Trovare il vettore colonna ( . ) tale che v = ∑ αj 𝑣𝑗 . 𝑗=1 𝛼𝑛 2. Trovare f(vj) per j = 1,…, n. 3. Riempire la matrice Af. 𝛼1 𝛽1 . . 4. Calcolare il vettore colonna ( ) dato dalla moltiplicazione Af ( . ). . 𝛼𝑛 𝛽𝑚 𝑚 5. Calcolare f(v) = ∑𝑖=1 βi 𝑤𝑖 . Esempio (39.7 pagina 345 Facchini): f: R3 R3 e1 = (1, 0, 0) f(e1) = e1 f(e2) = e1 + e2 f(e3) = e1 - 2e2 Capire la legge della funzione f. 37 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre Vogliamo scrivere la matrice Af rispetto alle basi canoniche. f(1, 0, 0) = (1, 0, 0) = 1 ∙ e1 + 0 ∙ e2 + 0 ∙ e3 f(0, 1, 0) = (1, 1, 0) = 1 ∙ e1 + 1 ∙ e2 + 0 ∙ e3 f(0, 0, 1) = 1 ∙ e1 + (-2) ∙ e2 + 0 ∙ e3 1 1 Af = (0 1 0 0 1 −2) 0 Trovare f(v) per v qualsiasi. Consideriamo, ad esempio, v = (-2, 7, 9) 𝛼1 −2 (𝛼2 ) = ( 7 ) 𝛼3 9 𝛽1 1 1 1 −2 14 (𝛽2 ) = (0 1 −2) ( 7 ) = (−11) 𝛽3 0 0 0 9 0 f(x, y, z) = ∑3𝑖=1 βi 𝑤𝑖 = ∑3𝑖=1 βi 𝑒𝑖 𝛽1 𝑥 x+y+z (𝛽2 ) = Af (𝑦) = ( 𝑦 − 2𝑧 ) = (x + y +z) ∙ e1 + (y – 2z) ∙ e2 = (x + y + z, y – 2z, 0). 𝑧 𝛽3 0 Abbiamo, così, ottenuto la legge generale di f. LEMMA: sia W uno spazio vettoriale su K e sia {w1,…, wm} una sua base. Allora per ogni u ∈ W esiste 𝛽1 . un’unica m-upla ( ) tale che u = ∑𝑚 𝑖=1 βi 𝑤𝑖 . . 𝛽𝑚 Dimostrazione: 𝛽1 . sia u ∈ W. Sicuramente esiste una m-upla ( ) tale che ∑𝑚 𝑖=1 βi 𝑤𝑖 = u poiché {w1,…, wm} è una . 𝛽𝑚 base. 38 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre 𝛼1 . 𝑚 𝑚 Supponiamo che ( . ) sia tale che ∑𝑚 𝑖=1 αi 𝑤𝑖 = u. Allora ∑𝑖=1 αi 𝑤𝑖 = ∑𝑖=1 βi 𝑤𝑖 . 𝛼𝑚 𝑚 Siccome W è gruppo abeliano, si può fare (∑𝑚 𝑖=1 αi 𝑤𝑖 ) – (∑𝑖=1 βi 𝑤𝑖 ) = 0W. 𝑚 Si può raccogliere a fattor comune (per proprietà associativa) ∑𝑖=1(αi − βi )𝑤𝑖 = 0W. Poiché {w1,…, wm} è una base, per indipendenza lineare di {w1,…, wm}, abbiamo che αi − βi = 0K per ogni i = 1,…, m, cioè αi = βi per ogni i = 1,…, m. DEFINIZIONE: dato W spazio vettoriale su K con base {w1,…, wm} possiamo definire due funzioni: 1. χ: W Km 𝛼1 𝛼1 . . v ↦ ( . ) , dove ( . ) è l’unica m-upla tale che v = ∑𝑚 𝑖=1 αi 𝑤𝑖 . 𝛼𝑚 𝛼𝑚 m 2. σ: K W 𝛼1 . ( . ) ↦ ∑𝑚 𝑖=1 αi 𝑤𝑖 . 𝛼𝑚 Sono funzioni lineari, biiettiva e una è l’inversa dell’altra. TEOREMA: le funzioni χ e σ sono biiettive, lineari e l’una inversa dell’altra. Allora W ≅ Km (isomorfo). SOMMA DI SPAZI VETTORIALI Sia V uno spazio vettoriale su K. Siano U, W ⊆ V sottospazi. Allora U ∩ W è sottospazio di V. U ⊕ W = {u + w: u ∈ U, w ∈ W} è sottospazio di V. Con ⊕ si indica la somma diretta interna (interna poiché abbiamo spazi vettoriali che sono già sottospazi vettoriali di uno spazio vettoriale più grande). TEOREMA (37.1 Facchini): FORMULA DI GRASSMAN Sia V uno spazio vettoriale su K. Siano U, W sottospazi di dimensione finita di V. 39 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre Allora U ∩ W e U ⊕ W hanno dimensione finita e vale che dim(U) + dim(W) = dim(U ⊕ W) + dim(U ∩ W). LEMMA (37.2 Facchini): (spiega quando V può essere visto come somma di due sottospazi) Sia V uno spazio vettoriale su K e siano U, W sottospazi di V. Allora le seguenti affermazioni sono equivalenti: a) U + W = V e U ∩ W = {0V} b) Ogni vettore v ∈ V si scrive come somma di vettori di U e W in maniera unica: ∀ v ∈ V ∃! u ∈ U, ∃! w ∈ W: v = u + w Dimostrazione: 1. (a) ⟹ (b) Sia v ∈ V. Siccome V = U + W, esistono u ∈ U, w ∈ W tali che u + w = v (ora bisogna dimostrare che sono unici). Supponiamo che esistano u' ∈ U e w' ∈ W tale che u' + w' = v. Allora u + w = u' + w' (ora bisogna sfruttare il fatto di essere in un gruppo abeliano). Quindi u - u' = w – w' i vettori coincidono quindi sono sia vettori di U che di W. Siccome U ∩ W = {0V}, u - u' = 0 e w – w' = 0 cioè u = u' e w = w' (unicità). 2. (b) ⟹ (a) Supponiamo che ∀ v ∈ V ∃! u ∈ U, ∃! w ∈ W: v = u + w ① Ciò implica che V ⊆ U + W (V sottoinsieme di U + W). Ma U + W ⊆ V quindi U + W = V. Sia x ∈ U ∩ W. Applichiamo la proprietà ① al vettore nullo. 0 = u + w per opportuni u ∈ U e w ∈ W. Posso scegliere u = 0 e w = 0 oppure 0 = x – x per ciascun x ∈ V. Quindi ciò vale anche per x ∈ U: 0 + 0 = 0 = x – x . Allora, per unicità, x = 0, cioè U ∩ W = {0V}. Esercizio (39.6 Facchini): si dimostri che B = {(1, 0, 0), (1, 1, 0), (1, 1, -1)} è base di R3. v1 = (1, 0, 0), v2 = (1, 1, 0), v3 = (1, 1, -1) 1. Dimostrare che i vettori di B sono linearmente indipendenti. 2. Dimostrare che i vettori di B generano tutto lo spazio. 0 Siano α, β, γ tali che αv1 + βv2 + γv3 = 0 (0 di R3 quindi (0) ) 0 (α, 0, 0) + (β, β, 0) + (γ, γ, -γ) = 0 40 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre α+β+γ α+β+γ α=0 ( β+γ ) β+γ β=0 𝛾=0 −𝛾 −𝛾 Mostriamo che <{v1, v2, v3}> = R3 Sia u ∈ R3. Devo trovare 3 coefficienti reali α, β, γ tali che u = αv1 + βv2 + γv3. α+β+γ 𝑥 𝑦 Per ogni x, y, z ∈ R esistono α, β, γ tali che ( ) = ( β + γ ) 𝑧 −𝛾 Dimostrare che esiste sempre una soluzione nelle incognite α, β, γ. α= x−y−z+z =x−y x= α+β+γ x=α+β−z α=x−β+z β= y+z y= β+γ γ = y−β β= y+z 𝛾 = −𝑧 𝑧 = −𝛾 𝛾 = −𝑧 𝛾 = −𝑧 FUNZIONI LINEARI IN MATRICI ISOMORFISMO V, W spazi vettoriali con dim(V) = n, dim(W) = m. Le matrici Mmxn (K) (dim = mxn) sono uno spazio vettoriale su K. HomK (V, W) è uno spazio vettoriale su K i cui elementi sono le funzioni lineare da V W. La struttura di HomK (V, W) è: (f+g)(v) = f(v) + g(v) (αf)(v) = αf(v) per ogni v ∈ V. 0 . Base di Mmxn (K) Eij = ( . 0 . . . . 1 . . . . . . . 0 . ) . 0 Mmxn (K) oltre ad essere spazio vettoriale è anche anello (con moltiplicazione). Una matrice A ∈ Mn (K) è invertibile se esiste una matrice B ∈ Mn (K) tale che A ∙ B = I (matrice identica). 1 0 0 0 0 1 0 0 I=( ) 0 0 1 0 0 0 0 1 C’è una fortissima connessione fra HomK (Kn, Kn) ≅ Mn (K) come spazio vettoriale e come anello. 41 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre PROPOSIZIONE (39.8 Facchini): Sia μ: HomK (V, W) Mmxn (K). f ↦ Af Siano V, W spazi vettoriali di dimensione finita : dim(W) = m, dim (V) = n. Allora μ è isomorfismo lineare di spazi vettoriali. Prendiamo HomK (Kn, Kn) fra tutti gli spazi di dimensione n. v ∈ Kn. Se A, B ∈ Mn (K) e possiamo effettuare la moltiplicazione A ∙ B, allora A e B hanno le funzioni associate fA ed fB. A ∙ B ha come funzione associata fA ◦ fB. fA ◦ fB = fAB. La matrice identica viene mandata nella funzione identità. AB = I Da matrice invertibile a funzione invertibile: esiste la funzione inversa. fA ◦ fB = fAB = fI = idKn Una matrice è invertibile se e solo se la funzione ad essa associata è invertibile. Invertibile iniettiva suriettiva biiettiva invertibile sia a destra che a sinistra. Quindi, se una matrice è invertibile, lo è sia a sinistra che a destra. f Af f è la funzione f ↦ Af COROLLARIO (39.7 Facchini): sia A ∈ Mn (K) allora AB = I se e solo se BA = I (se una matrice ha inverso destro allora ha anche inverso sinistro). B si dice matrice inversa di A. dal momento che un inverso, se esiste, è uncico, possiamo indicare B con A-1. A ∙ A-1 = I = A-1∙ A RANGO DI UNA MATRICE A ∈ Mn (K) Il rango è il numero massimo di colonne (o righe) linearmente indipendenti. Una matrice è una giustapposizione di colonne: A = A1| A2| … |An Ai ∈ Km 42 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre Km è spazio vettoriale quindi ha la nozione di indipendenza lineare. Il rango di una matrice può essere maggiore di n? Il rango deve essere ≤ m poiché m è i massimo numero di vettori linearmente indipendenti in Km (Km ha base di dim = n). rg (A) ≤ m e rg (A) ≤ n quindi rg (A) ≤ min(m,n) 2 4 8 16 2 4 8 16 A = 2 4 8 16 con m = 5 e n = 4 2 4 8 16 (2 4 8 16) rg (A) = 1 poiché ogni vettore è combinazione lineare dell’altro. Matrici e funzioni sono strettamente connesse fra loro. F: V W dim (V) = n, dim (W) = m Il rango di f è dim (f(V)) ovvero è la dimensione dell’immagine di f. rg (f) = dim (f(V)) PROPOSIZIONE (39.11 Facchini): rg (f) = rg (Af) rg (f) = rg (Af) ≤ m Cosa succede quando rg (f) = m? dim (f(V)) = m = dim (f(W)) quindi f(V) = W cioè f è suriettiva poiché la funzione coincide con la dimensione dello spazio di arrivo. Se m ≠ n f non è isomorfismo. PROPOSIZIONE (39.12 Facchini): sia A ∈ Mn (K). Allora A è invertibile se e solo se rg (A) = n. Dimostrazione: sia A ∈ Mn (K) invertibile. (⟹) A definisce una funzione lineare fA(X) = AX. rg (fA) = rg (A) perché applichiamo la proposizione 39.11 sapendo che la matrice associata a f A rispetto alle basi canoniche di Kn è A. [AfA = A] matrice associata alla matrice associata alla funzione associata ad A. B ↦ fB 43 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre Af f (⟸) Siccome A è invertibile, esiste A-1 inversa. Allora fA è suriettiva perché per ogni Y ∈ Kn (ogni vettore colonna è immagine secondo fA), Y = IY = (A ∙ A-1)Y = A ∙ (A-1Y) = fA(A-1Y) f è endomorfismo dello spazio Kn in se stesso ed fA è biiettiva. Siccome fA è un endomorfismo di Kn ed è suriettiva allora è biiettiva. Questo implica che fA sia invertibile. rg (A) = rg (fA) ma la dim(fA(Kn)) = dim(Kn) = n, quindi rg (A) = rg (fA) = n. Supponiamo rg (A) = n (bisogna dimostrare ora che A è invertibile). rg (fA) = n = dim(fA(Kn)) cioè fA(Kn) = Kn poiché fA(Kn) è sottospazio di Kn con dimensione n. fA, dunque, è suriettiva e quindi biiettiva. Quindi fA è invertibile e perciò lo è anche A. SISTEMI DI EQUAZIONI LINEARI Quello sopra rappresentato è un sistema lineare ad n incognite x 1,…, xn e richiede che le condizioni siano verificate simultaneamente. f(x1,…, xn) f: Rn R La matrice incompleta del sistema è la seguente: 𝑎11 𝑎1𝑛 . ( ) (contiene solo i coefficienti) . 𝑎𝑚1 𝑎𝑚𝑛 𝑏1 . B = ( ) vettore dei termini noti. . 𝑏𝑚 A ∈ Mnxn (K), B ∈ Kn (A|B) ∈ Mnx(n+1) (K) 44 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre (A|B) è la giustapposizione di A e B e rappresenta la matrice completa del sistema. Ha n + 1 colonne. 𝑐1 . Una soluzione del sistema è il vettore colonna C = . ∈ Kn tale che sostituendo ci per xi . (𝑐𝑛 ) (con i = 1,…, n), tutte le equazioni risultano vere. ∑ ∑ AX = ( ∑ 𝑛 𝑗=1 𝑛 𝑗=1 𝑛 α1j 𝑥𝑗 α2j 𝑥𝑗 . . 𝑗=1 αmj 𝑥𝑗 ) 𝑥1 . X= . vettore delle incognite. . (𝑥𝑛 ) AX è data dalla moltiplicazione riga di A per colonna di X. AX = B con AX ∈ Km e B ∈ Km Una soluzione, dunque, è un C ∈ Kn tale che AC = B. AX ∈ (K[x1,.., xn])m Sia AX = B un sistema di equazioni lineari ((m coefficienti in K) x (n incognite)). Associamo una funzione lineare fA: Kn Km. fA (C) = AC Una soluzione del sistema è un vettore C tale che fA (C) = B, cioè un elemento di fA-1 (B). Dato un sistema AX = B possiamo avere le seguenti situazioni: 1. IMPOSSIBILE: non ha soluzioni, cioè fA-1 (B) = Ø. 2. POSSIBILE: ha soluzioni a) Il sistema ha esattamente una soluzione. b) Il sistema ha più soluzioni. Le soluzioni sono elementi di fA-1 (B) ⊆ Kn. Per esempio, (Z≡5)n è un campo finito. fA: Kn Km 45 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre ker fA = {v ∈ Kn : fA(v) = 0} = {v ∈ Kn : Av = 0}. Se v ∈ ker fA e C è soluzione del sistema, allora fA(v) = 0, fA(C) = B. v + C poiché fA(v + C) = fA(v) + fA(C) = 0 + B = 0. Se il ker non è il vettore nullo, allora si può creare più di una soluzione. Condizione necessaria affinché il sistema abbia un'unica soluzione è che ker fA = {0} ⊆ Kn cioè fA è iniettiva. dim Kn = n è il numero delle incognite. fA: Kn Km, m è il numero delle equazioni. Se n>m, fA non può essere iniettiva. TEOREMA DI CRAMER (41.1 Facchini) 𝑥1 𝑏1 . . Sia AX = B con X = . , B= . , A = (aij) ∈ Mn (K). . . (𝑥𝑛 ) (𝑏𝑛 ) Allora il sistema ha un’unica soluzione se e solo se la matrice incompleta A ha rango n se e solo se A è invertibile [se e solo se fA è isomorfismo Kn Kn, cioè un automorfismo di Kn]. In tal caso la soluzione è A-1B. Dimostrazione: (⟹) Supponiamo ci sia una soluzione. Allora ker fA = {0} quindi fA: Kn Kn è iniettiva e quindi biiettiva. dim (fA(Kn)) = n (per suriettività) = dim(Kn) (perché {e1,…,en} è base) = rg (fA) (per definizione). Ma rg (fA) = rg (A) quindi rg (A) = n. Sempre sotto l’ipotesi che ci sia una soluzione mostriamo che essa è A-1B. Sia C una soluzione, cioè AC = B. A, però, è invertibile, quindi A(A-1B) = (AA-1)B = IB = B. Questo ci dice che A-1B è soluzione quindi A-1B = C. (⟸) Supponiamo rg (A) = n. Dimostriamo che c’è un’unica soluzione. Allora è invertibile. Esiste A-1 e A(A-1B) cioè A-1B è la soluzione. Sia C una soluzione qualsiasi. Dimostriamo che C = A-1B. Siccome C è soluzione, AC = B. Moltiplichiamo per A-1 A-1(AC) = A-1B. A-1(AC) = (A-1A)C = IC = C, cioè A-1B è l’unica soluzione. 46 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre DETERMINANTE Il determinante è un elemento del campo da cui sono presi i coefficienti. A ∈ Mn (K) Determinante: det (A) ∈ K. A è invertibile se e solo se det (A) ≠ 0. 𝑎11 Data la matrice A = ( 𝑎1𝑛 ) 𝑎𝑛1 𝑎𝑛𝑛 Definiamo Aij sottomatrice [i, j ∈{1,…, n}] come la matrice che si ottiene da A cancellando la riga i e la colonna j. Esempio: 1 1 3 1 3 A = (0 1 4) A22 = ( ) 3 7 3 2 7 ESPANSIONE PER COFATTORI det (A) ∈ K definito in maniera ricorsiva (espansione per cofattori): METODO PER COLONNE: (esiste anche quello per righe) definizione ricorsiva con n>1 dove n è la dimensione di A: det (A) = ∑ 𝑛 (−1)𝑖+𝑗 𝛼ij det(𝐴𝑖𝑗 ) j varia sulle colonne mentre i è fissato. 𝑗=1 i è un numero a piacere di riga della matrice. Caso base della definizione di determinante se la dimensione di A è 1x1: a11 Esempio: 1 1 0 A = (0 1 1 ) 0 0 2 Scegliamo i = 2: 47 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre det (A) = ∑ 1 A21 = ( 0 3 (−1)2+𝑗 𝛼2j det(𝐴2𝑗 ) 𝑗=1 0 ) 2 1 0 A22 = ( 0 ) 2 1 3 A22 = ( 3 ) 7 Scegliamo ora i = 1: det (A21) = det (A21) = ∑ 2 (−1)1+𝑗 𝛼1j det(𝐴21 )1𝑗 = (-1)2 ∙ 1 ∙ 2 + (-1)3 ∙ 0 ∙ 0 = 2 𝑗=1 det (A22) = 2 det (A23) = 0 det (A) = (-1)2 ∙ 0 ∙ 2 + (-1)2+2 ∙ 1 ∙ 2 + (-1)5 ∙ 1 ∙ 0 = 2 Conviene scegliere l’indice di riga con più 0 possibili per avere meno addendi. REGOLA DI SARRUS: (Si applica alle matrici 3x3) 𝑎11 det (𝑎21 𝑎31 𝑎12 𝑎22 𝑎32 𝑎31 𝑎32 ) = 𝑎33 = 𝑎11 𝑎22 𝑎32 − 𝑎11 𝑎23 𝑎32 − 𝑎12 𝑎21 𝑎33 + 𝑎12 𝑎23 𝑎31 + 𝑎13 𝑎21 𝑎32 − 𝑎13 𝑎22 𝑎31 Caso particolare: 𝑎11 det (𝑎 21 𝑎12 𝑎22 ) = 𝑎11 𝑎22 − 𝑎21 𝑎12 ESPANSIONE PER COFATTORI RISPETTO ALLA COLONNA j det (A) = ∑ 𝑛 (−1)𝑖+𝑗 𝛼ij det(𝐴𝑖𝑗 ) 𝑖=1 Sia A ∈ Mn (K) 𝑎11 𝑎1𝑛 A=( 𝑎𝑛1 ) = 𝑎𝑖𝑗 𝑎𝑛𝑛 48 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre det (A) ≠ 0 a) se e solo se A è invertibile b) se e solo se rg (A) = n c) se e solo se AX = B ha un’unica soluzione. In particolare det (A) ≠ 0 se e solo se rg (A) = n se e solo se tutte le colonne di A sono linearmente indipendenti. 1 2 det (2 4 3 6 0 1) = 0 poiché le colonne 1 e 2 sono linearmente dipendenti. 8 det (A) = 0 a) se e solo se rg (A) < n b) se e solo se esiste una combinazione lineare delle colonne che dà il vettore nullo 0 usando non tutti coefficienti nulli. Ogni colonna di A è un elemento dello spazio vettoriale Kn. 0 . n Il vettore nullo dello spazio K è . con n zeri. . (0) MINORE COMPLEMENTARE (di ordine i, j) Data A ∈ Mn (K), Mij = det Aij Il complemento di ordine i,j, dunque, è: Cij = (-1)i+j Mij. Con questo è possibile calcolare l’inversa di A. Definiamo A* come la matrice trasposta della matrice dei complementi algebrici di A. Chiamiamo C la matrice dei complementi algebrici di A: 49 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre 𝑐11 𝑐1𝑛 C=( ) 𝑐𝑛1 𝑐𝑛𝑛 A* = CT (C trasposta). TRASPOSIZIONE La trasposizione si può applicare a qualsiasi matrice. Data la matrice B Mmxn (K), la sua trasposta è BT Mn (K), tale che l’elemento di posizione i, j in BT è l’elemento di posizione j, i in B. Esempio: 1 0 B = (2 4 7 5 1 0 B =( 0 1 T 0 1 9 3) 2 4 2 4 9 3 7 5 ) 2 4 Se vogliamo calcolare A-1, allora: 1. calcoliamo det (A) 1 2. se det (A) ≠ 0 allora la matrice è invertibile e A-1 = det (𝐴) ∙ A*. Esempio: 1 −1 5 A = (0 2 0) 0 0 −1 Calcolare A-1. Calcoliamo, innanzitutto, det (A) = ∑ 𝑛 (−1)𝑖+𝑗 𝛼ij det(𝐴𝑖𝑗 ) = ∑ 𝑗=1 50 𝑛 𝑗=1 𝛼ij 𝐶𝑖𝑗 = (-1) ∙ C33. Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre Complemento algebrico di C33: C33 = (-1)6 ∙ det (A33) = 2 det (A) = -2 Matrice C dei complementi algebrici: −2 0 0 C = ( −1 −1 0) −10 0 2 Ora è necessario trasporre: −2 −1 −10 A* = CT = ( 0 −1 0 ) 0 0 2 1 1 -1 A = det (𝐴) ∙ A* = (0 0 1 2 1 5 0) 0 −1 2 PROPRIETA’ DEL DETERMINANTE 1. Scambiando due colonne il determinante cambia segno. 2. Se due colonne sono linearmente dipendenti allora det = 0. 3. Se A = (A1…An), con A1 prima colonna, con B = αAi (i ∈ {1,…, n}), allora il determinante det (A1…B…An) = αdet (A). 4. Se C = (X1…Xi…Xn) con Xi = Y + Z, A = (X1…Y…Xn), B = (X1…Z…Xn), allora det (C) = det (A) + det (B). 5. Se una matrice A è triangolare superiore allora det (A) = ∏𝑛𝑖=1 𝑎ii (una matrice è triangolare superiore se sotto la diagonale principale presenta soli elementi nulli). ELIMINAZIONE DI GAUSS Sia A = B un sistema di equazioni lineari: 51 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre αRi = αai1x1 +…+ αainxn = αbi βRk = βak1x1 +…+ βaknxn = βbk αRi + βRk = (αai1 + βak1)x1 +…+ (αain + βakn)xn = αbi + βbk R1…Rk devono essere le righe della matrice completa del sistema. 1 0 2 A = (0 1 1 ) 1 3 4 7 B = (1 ) 𝑧 1 A|B = (0 1 0 2 1 1 3 4 1 1 M1 = (0 1 1 3 𝟕 (𝑅1 ) 𝟏 (𝑅2 )) 𝟐 (𝑅3 ) 3 𝟖 ( 𝑅1 + 𝑅2 ) 1 𝟏 (𝑅2 )) (𝑅3 ) 4 𝟐 La matrice M1 rappresenta un sistema equivalente a AX = B. A|B M1 operazione elementare su righe (R1 : = 𝑅1 + 𝑅2 ) Con il metodo di Gauss si cerca di arrivare ad una matrice triangolare superiore. MOSSE DI GAUSS: 1. Rj = αRj + βRi 2. Scambiare Rj con Ri In generale si può sperare di arrivare ad una matrice a scalini: il primo elemento diverso da zero è detto pivot e nella relativa colonna deve essere seguito da zeri. Esempio di matrice a scalini: 52 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre 3 0 4 7 0 −1 0 0 ( ) 0 0 0 5 0 0 0 0 Ha determinante 0 poiché è una matrice triangolare superiore quindi non è invertibile. ALGORITMO DI GAUSS: 1. Si guarda la prima riga: se il primo elemento è nullo si cerca la prima riga che non abbia un elemento nullo. 2. Per ogni riga Ai con primo elemento non nullo, eccetto la prima (i > 1), si moltiplica la prima riga per un coefficiente scelto in modo che la somma tra prima riga e A i abbia il primo elemento nullo. Sostituire Ai con la somma ricavata. 3. Nella seconda fase riapplichiamo lo stesso algoritmo, però dal basso verso l’alto. REGOLA DI CRAMER TEOREMA (43.5 Facchini): sia AX = B un sistema di equazioni lineari a coefficienti in K con A ∈ Mn (K). Allora il sistema ha un’unica soluzione se e solo se det (A) ≠ 0 e in tal caso la soluzione è da trovare così: xi = det (𝐴′𝑖 ) det (𝐴) , dove Ai' è la matrice n x n ottenuta da A sostituendo la i-esima colonna con la colonna dei termini noti del sistema. TEOREMA DI ROUCHE’- CAPELLI TEOREMA (41.2 Facchini): sia AX = B un sistema di m equazioni ad n incognite a coefficienti in K con A ∈ Mmxn (K). Allora AX = B ha almeno una soluzione se e solo se la matrice incompleta A e la matrice completa A|B hanno lo stesso rango. In tal caso, se C0 è soluzione del sistema, W è il sottospazio di Kn i cui elementi sono soluzioni del sistema omogeneo AX = 0 (un sistema è omogeneo quando la colonna dei termini noti è il vettore nullo). AX = 0 [0 ∈ Km] associato al sistema originale e sia r il rango di A. 53 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre Perché W dovrebbe essere sottospazio di Kn? Deve contenere il vettore nullo (0 ∈ W) perché A0 = 0 Chiuso per la moltiplicazione scalare: se S ∈ W allora αS ∈ W AS = 0 A(αS) = 0 A fA fA(X) = AX (matrice A vista come funzione lineare) Cioè fA(αX) = αfA(X) A(αS) = α(AS) α0 = 0 A(αX) = αAX αB Chiuso per la somma: prendiamo i vettori s1, s2 ∈ W s1 + s2 ∈ W A(s1 + s2) = 0 A(s1 + s2) = As1 + As2 = 0 + 0 = 0 Allora le soluzioni di AX = B sono tutte e sole quelle di forma C0 + H con H ∈ W e W ha dimensione n – r. Con Cramer non si può dire se un sistema è compatibile o meno. Il teorema di Rouchè – Capelli è più preciso in questo aspetto. Se AX = 0 ha una sola soluzione, quella soluzione è il vettore colonna nullo. ALTRE APPLICAZIONE DELL’ELIMINAZIONE DI GAUSS Possiamo applicare Gauss per il calcolo del rango di una matrice. Dopo aver effettuato l’eliminazione di Gauss, l’ultima riga con un 1 nell’ultima colonna è quella che conta per trovare il rango. Il rango è il numero di queste righe. Possiamo utilizzare Gauss anche per ricercare le basi. AUTOVALORI E AUTOVETTORI DI MATRICI DEFINIZIONE (44.1 Facchini): sia K un campo e V un sottospazio vettoriale (V è un K-spazio vettoriale) e sia f: V V. Un sottospazio W di V si dice f-invariante se f(W) ⊆ W. Esempio: f: R2 R2 (x, y) (2x, 2y) 54 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre f(0) = f(0, 0) = (0, 0) f(u + v) dove u = (x, y), v = (x', y') f(x + x', y + y') = (2(x + x'), 2(y + y')) = f(u) + f(v) = (2x, 2y) + (2x', 2y') = (2x + 2x', 2y + 2y') f(αv) = (2αx, 2αy) = αf(v) = α(2x, 2y) = (2αx, 2αy) v = (x, y) Quindi è una funzione lineare. W = {(x, y) ∈ R2: x + y = 0} f(W) = {f(v): v ∈ W} = {(2x, 2y): (x, y) ∈ W} ⊆ W quindi f-invariante. Sia W un sottospazio di V (spazi sul campo R). Sia f: V V definita da f(v) = 2v. W è sicuramente f-invariante? Sì, perché 2v è prodotto per uno scalare e, se W ⊆ V, anche 2v deve starci. DEFINIZIONE(44.3 Facchini): sia V un K-sottospazio vettoriale e sia f: V V un endomorfismo. Siano v ≠ 0, v ∈ V e λ ∈ K. Se f(v) = λv, allora diciamo che λ è un autovalore di f e v è un autovettore di f. Nel caso f: R2 R2, tutti i vettori di R2 sono autovettori relativi ad f ed hanno l’autovalore. Lo spazio generato dagli autovettori di f è sempre f-invariante. Passiamo alle matrici: f(v) = Av per un’opportuna matrice A che è quella associata ad f. Sia V un K-spazio vettoriale. Sia A una matrice quadrata (poiché associata ad un endomorfismo) ad elementi di K. Siano v ∈ V – {0} e λ ∈ K. Se Av = λv allora diciamo che v è autovettore relativo ad A e λ un autovalore relativo ad A (associato all’autovettore v). Fissiamo un autovettore. Quanti autovalori possono essere ad esso associati? Av = λv Sia α un autovalore di v relativo ad A. Av = αv, quindi λv = αv λv – αv = 0 (0 ∈ V) v(λ – α) = 0 (proprietà distributiva di V) λ – α = 0 (0 ∈ K) λ = α poiché siamo in un gruppo abeliano. Fissato un autovettore c’è solo un autovalore ad esso associato. Fissato un autovalore possono esserci molti autovettori ad esso associati. Come si trovano autovalori e autovettori di una matrice data? 55 Mariagiovanna Czarnecki Informatica - Corso di Algebra Lineare Università Ca’ Foscari Venezia Anno accademico 2014-2015, I semestre Consideriamo Av = λv come un’equazione a 2 incognite (λ e v). In quanto appartenenti ad un gruppo abeliano, possiamo portare tutto a sinistra e raccogliere v. Av – λ = 0 (A – λI)v = 0 (matrice identica moltiplicata per λ). Supponiamo di conoscere λ e cerchiamo di risolvere rispetto a v. Affinchè ci sia almeno un autovettore dobbiamo avere che det (A – λI) = 0. L’unica incognita è λ. Bisogna risolvere rispetto a λ. det (A – λI) è un polinomio nell’incognita λ (polinomio caratteristico). Quindi devo risolvere pA(λ) = 0 (trovare le radici del polinomio appartengono al campo K). PROPOSIZIONE (44.8 Facchini): sia pA(λ) il polinomio caratteristico della matrice Anxn, allora: a) Il polinomio ha grado n Supponiamo di aver trovato le radici λ1,…, λn di pA(λ). Per ogni autovalore λi risolviamo il sistema (A – λI)v = 0. Troviamo il valore di v. Per ogni autovalore abbiamo uno spazio vettoriale di autovalori. 56