PROGRAMMA del corso di GEOMETRIA 1 - Algebra Lineare Laurea Triennale in Matematica Anno Accademico 2007/08 docente : Bruno Zimmermann (Il presente programma è stato redatto sulla base degli appunti del corso presi dalla signorina Laura Franzoi, che qui ringrazio. I vari argomenti sono stati un po’ riordinati secondo un criterio logico, piuttosto di quello “ cronologico ” della lezione in cui sono stati svolti. Dario Portelli) 1.- Premesse di Algebra. Definizione di gruppo. Unicità dell’elemento neutro e dell’inverso (con dimostrazione). Gruppi abeliani. Esempi: determinazione di tutti i gruppi finiti con al più quattro elementi; (Q, ·) e (R, ·) non sono gruppi, mentre lo sono sia (Q − {0}, ·) che (R − {0}, ·) Definizione di campo. Esempi: (Q, +, ·) e (R, +, ·); campi finiti Z2 e Z3 . Costruzione del campo C dei numeri complessi, pensati come coppie ordinate di numeri reali. Giustificazione euristica geometrica della definizione di prodotto (la somma è ovvia). Verifica delle varie proprietà formali di un campo. Modulo di un numero complessso, e sue proprietà. Coniugio complesso. Teorema Fondamentale dell’Algebra (solo enunciato): ogni polinomio a coefficienti complessi, non costante, ammette almeno una radice in C . Teorema di Ruffini (solo enunciato): siano f ∈ K[X] e α ∈ K. Allora f (α) = 0 se e solo se f = (X − α) g(X) . Corollario: ogni polinomio a coefficienti complessi, di grado n ≥ 1 , si fattorizza in un prodotto di n fattori lineari, cioè: di grado 1. 2.- Spazi vettoriali. Sottospazi. Definizioni di spazio vettoriale su un campo K. 1 Prime conseguenze formali della definizione: λ · 0 = 0 e 0 · v = 0 per ogni λ ∈ K ed ogni v ∈ V ; λ · v = 0 se e solo se λ = 0 oppure v = 0; infine (−1)v = −v . Esempi: K n e l’insieme dei polinomi K[X] . Definizioni di sottospazio vettoriale. Sottospazi banali. Proposizione: un sottoinsieme W di uno spazio vettoriale V è un sottospazio di V se e solo se W 6= ∅ ed inoltre, presi comunque λ, µ ∈ K e u, v ∈ W, si ha che λu + µv ∈ W. Proposizione: l’intersezione di una famiglia arbitraria di sottospazi di V è ancora un sottospazio di V. L’unione di due sottospazi W e W 0 di V non è un sottospazio di V, in generale. Lo è se e solo se W ⊆ W 0 oppure W 0 ⊆ W. Combinazioni lineari. Famiglia finita di vettori linearmente indipendenti. Famiglia arbitraria di vettori linearmente indipendenti. Chiusura lineare di una famiglia di vettori. Proposizione: v1 , . . . , vr ∈ V sono linearmente indipendenti se e solo se ogni vettore appartenente alla chiusura lineare di v1 , . . . , vr si può scrivere in modo unico come combinazione lineare di v1 , . . . , vr . Sistema di generatori. Base di uno spazio vettoriale. Lemma: sia { v1 , . . . , vn } una base di uno spazio vettoriale V, e sia w = λ1 v1 + . . . + λn vn un vettore di V. Se λk 6= 0 per un fissato k tale che 1 ≤ k ≤ n , allora { v1 , . . . , vk−1 , w, vk+1 , . . . , vn } è ancora una base di V. Teorema (del prolungamento ad una base): sia { v1 , . . . , vn } una base di V, e siano w1 , . . . , wr vettori di V linearmente indipendenti. Allora r ≤ n , e (dopo aver eventualmente riordinato gli indici 1, . . . , n) { w1 , . . . , wr , vn−r+1 , . . . , vn } è ancora una base di V. Corollario: se si può generare V con un numero finito di vettori, allora due basi di V hanno lo stesso nimero di elementi. Definizione di dimensione di uno spazio vettoriale. Esempi: base canonica (o “ standard ”) di K n ; il K-spazio vettoriale K[X] non ha una base finita. Proposizione: se v1 , . . . , vn generano V, allora { v1 , . . . , vn } contiene una base di V. Proposizione: sia W un sottospazio di uno spazio vettoriale V, di dimensione finita. Allora dim(W ) ≤ dim(V ) . Se le due dimensioni sono uguali, allora W = V. Insiemi ordinati parzialmente. Elementi massimali, elemento massimo, limitazioni superiori di un sottoinsieme per un insieme parzialmente ordinato. Lemma di Zorn (solo enunciato). Teorema: ogni spazio vettoriale possiede una base. Somma di sottospazi e somma diretta. Varie caratterizzazioni della somma diretta di due o più sottospazi. Teorema (formula di dimensione per sottospazi): sia V uno spazio vettoriale di dimensione finita. Se U e W sono due sottospazi, allora dim(U + W ) = dim(U ) + dim(W ) − dim(U ∩ W ) 2 3.- Matrici. Definizione di matrice e relativa nomenclatura. L’insieme di tutte la matrici di tipo fissato m × n , ad entrate in un campo K, è un K-spazio vettoriale, di dimensione mn. Spazio delle righe e spazio delle colonne di una matrice. Ranghi per righe e per colonne. Teorema: data una matrice A , il rango per righe di A è uguale al rango per colonne (tale numero si chiama semplicemente rango di A) Trasformazioni elementari di matrici (=operazioni elementari sulle loro righe, o sulle loro colonne). Osservazione che il rango di una matrice rimane invariato per trasformazioni elementari. Teorema (eliminazione di Gauss, o algoritmo di Gauss): ogni matrice si può trasformare in una matrice a gradini mediante operazioni elementari sulle righe. Prodotto righe per colonne di matrici. Tale prodotto non è commutativo. Matrici identità. Varie proprietà formali del prodotto righe per colonne; ad esempio, la sua distributività (sia a destra che a sinistra) rispetto alla somma di matrici. Matrici trasposte. Varie proprietà formali del passaggio alla trasposta. Matrici simmetriche ed antisimmetriche. Rango per righe e rango per colonne di una matrice. Teorema: i ranghi per righe e per colonne di una matrice arbitraria sono uguali. Matrici invertibili. Unicità dell’inversa di una matrice invertibile. Il gruppo GL(n, K) . Algoritmo per la determinazione effettiva dell’inversa di una matrice (se esiste). A è invertibile se e solo se tA è invertibile. 4.- Applicazioni lineari. Definizione di applicazione lineare. Esempio: l’applicazione LA : K n → K m determinata da una matrice A , di tipo m × n. Proposizione: se F : V → W è un’applicazione lineare, allora per ogni sottospazio V 0 di V si ha che F (V 0 ) è un sottospazio di W. Inoltre, per ogni sottospazio W 0 di W si ha che F −1 (W 0 ) è un sottospazio di V. Nucleo Ker(F ) ed immagine Im(F ) di un’applicazione lineare F. Proposizione: l’applicazione lineare F : V → W è iniettiva se e solo se Ker(F ) = {0} . Teorema (di determinazione di un’applicazione lineare sulla base): siano V, W spazi vettoriali sul campo K, e siano inoltre (vi )i∈I una base di V e (wi )i∈I una famiglia di vettori di W (si noti che l’insieme degli indici è lo stesso). Allora esiste una ed una sola applicazione lineare F : V → W tale che F (vi ) = wi per ogni i ∈ I . Lo spazio vettoriale Hom(V, W ) . La composizione di due applicazioni lineari è ancora un’applicazione lineare. 3 Lemma: se F : V → W lineare è un isomorfismo, allora anche l’applicazione inversa F −1 : W → V è lineare, dunque è un isomorfismo. La composizione di due isomorfismi è ancora un isomorfismo. Teorema (formula di dimensione per applicazioni lineari): sia F : V → W lineare, ove V è uno spazio vettoriale di dimensione finita. Allora dim(V ) = dim(Ker(F ))+ dim(Im(F )) . Rango di un’applicazione lineare. Corollario: se dim(V ) = dim(W ) ed è finita, allora per un’applicazione lineare F sono equivalenti l’essere iniettiva, suriettiva, un isomorfismo. Proposizione: ogni spazio vettoriale sul campo K, di dimensione n , è isomorfo a K n. Matrice associata ad un’applicazione lineare. Teorema: dati due spazi vettoriali V e W sul campo K, di dimensione n ed m rispettivamente, e fissate una base A di V ed una base B di W, si ha un isomorfismo di spazi vettoriali MBA : Hom(V, W ) → M (m × n, K) dato da F 7→ MBA (F ) Proposizione: siano dati tre spazi vettoriali V, W ed U sul campo K, e due applicazioni lineari F : V → W e G : W → U. Se A , B e C sono basi rispettivamente di V, W ed U, allora si ha MCA (G ◦ F ) = MCB (G) MBA (F ) Un’applicazione lineare F è un isomorfismo se e solo se la matrice associata ad F (rispetto ad un’arbitraria scelta delle basi) è invertibile. Cambiamento di base: siano A e B basi dello spazio vettoriale V sul campo K. Se x ∈ K n è il vettore delle coordinate di v ∈ V rispetto alla base A , allora MBA (idV ) x è il vettore delle coordinate di v rispetto alla base B . Proposizione: se F : V → W è lineare, e se A , A 0 sono basi di V, e B , B 0 sono basi di W, allora MBA0 (F ) = MBB0 (idW ) MBA (F ) MBA (idV ) 0 Se F : V → V è un endomorfismo, e se A e B sono basi di V, allora B = MBB (F ) = MBA (idV ) MAA (F ) MAB (idV ) = SA S −1 Matrici simili. La similitudine tra matrici (quadrate) è una relazione di equivalenza. Teorema: sia F : V → W un’applicazione lineare tra spazi vettoriali di dimensione finita, di rango r. Allora esistono una base A di V ed una base B di W tali che ! I 0 r MBA (F ) = 0 0 4 Corollario: sia A una matrice di tipo n × m ad entrate nel campo K, di rango r. Allora esistono S ∈ GL(m, K) e T ∈ GL(n, K) tali che ! Ir 0 SAT = 0 0 Lemma: se A è una matrice di tipo n × m , prese comunque S ∈ GL(m, K) e T ∈ GL(n, K) si ha che il rango per righe (risp.: per colonne) di SAT è uguale al rango per righe (risp.: per colonne) di A . 5.- Sistemi lineari. Definizione di sistema lineare; incognite, termini noti, matrice dei coefficienti. Sistemi lineari omogenei. L’insieme delle soluzioni di un sistema lineare omogeneo è uno spazio vettoriale. Sistema lineare omogeneo A x = 0 associato ad un sistema lineare generale A x = b . Teorema: la differenza di due soluzioni qualsiasi (se esistono) di un sistema lineare generale è sempre una soluzione del sistema lineare omogeneo associato. Se W è lo spazio delle soluzioni del sistema lineare omogeneo A x = 0 , associato al sistema lineare generale A x = b , allora l’insieme delle soluzioni del sistema lineare generale è v0 + W, ove v0 è una qualsiasi soluzione del sistema lineare generale. Definizione di sottospazio affine di uno spazio vettoriale. Teorema: il sistema A x = b ha soluzioni se e solo se il rango della matrice A è uguale al rango di (A, b) . Teorema (Regola di Cramer): se A è una matrice inveribile n × n , allora il sistema lineare A x = b ha una ed una sola soluzione data da x = A−1 b . 6.- Determinanti. Permutazioni; trasposizioni; cicli. Proposizione: ogni permutazione è prodotto di cicli disgiunti. Ogni ciclo è prodotto di trasposizioni. Segno di una permutazione. Teorema: il segno del prodotto di due permutazioni è il prodotto dei segni. Gruppo alterno An . Funzione determinante. Proposizione: ogni funzione determinante è antisimmetrica. Se il campo su cui si lavora ha caratteristica diversa da 2, allora ogni funzione multilineare antisimmetrica è anche alternante. Proposizione: se D : V × . . . × V → K è una funzione determinante, presi comunque v1 , . . . , vn ∈ V e σ ∈ Sn si ha D(vσ(1) , . . . , vσ(n) ) = ε(σ) D(v1 , . . . , vn ) Proposizione: se v1 , . . . , vn sono linearmente dipendenti, allora D(v1 , . . . , vn ) = 0 . 5 Teorema: se V è uno spazio vettoriale di dimensione finita, allora vi è una ed una sola funzione determinante su V, a meno di moltiplicazione con uno scalare. Proposizione: sia D : V × . . . × V → K una funzione determinante non banale. Allora v1 , . . . , vn ∈ V è una base di V se e solo se D(v1 , . . . , vn ) 6= 0 . Corollario: esiste esattamente una funzione determinante D : K n × . . . × K n → K tale che D(e1 , . . . , en ) = 1 , ove e1 , . . . , en è la base canonica di K n . Determinante di una matrice quadrata. Formula di Leibnitz. Corollario: una matrice A è invertibile se e solo se det(A) 6= 0 . Proposizione: det(A) = det( tA) . Lemma: determinante di una matrice triangolare. Lemma: determinante di una matrice “ triangolare a blocchi ”. e dei cofattori. Cofattori e matrice A eA = A A e = (det(A)) En . Teorema: A Corollario: formula per A−1 con la matrice dei cofattori. Teorema: la formula di Laplace. Determinante di un endomorfismo. Proposizione: det(A) = det(LA ) . Proposizione: se F, G : V → V sono endomorfismi dello spazio vettoriale V, allora det(G ◦ F ) = det(G) · det(F ) . Teorema: se A, B sono matrici n × n allora det(AB) = det(A) det(B) . Corollario: det : GL(n, K) → ( K ∗ = K − {0}, · ) è un omomorfismo di gruppi. In particolare, se A è invertibile, allora det(A−1 ) = det(A)−1 . Corollario: matrici simili hanno lo stesso determinante. Corollario: Siano V uno spazio vettoriale (di dimensione finita), F : V → V un endomorfismo e B una base di V. Allora F è un automorfismo ⇐⇒ MB (F ) è invertibile ⇐⇒ det(MB (F )) 6= 0 . Teorema: se v1 , . . . , vn sono n vettori di Rn , allora il volume del parallelepipedo generato da v1 , . . . , vn è | det(v1 , . . . , vn ) | , ove det è la funzione determinante standard su Rn . 7.- Autovalori e autovettori. Definizione di autovettore ed autovalore per un endomorfismo e per una matrice quadrata. Definizione di endomorfismo (e matrice) diagonalizzabile. Lemma: se v1 , . . . , vm sono autovettori di un endomorfismo F : V → V, relativi ad autovalori λ1 , . . . , λm a due a due distinti, allora v1 , . . . , vm sono linearmente indipendenti. Autospazi. Ogni autospazio è un sottospazio vettoriale. Proposizione: λ è un autovalore di F se e solo se det(F − λ idV ) = 0 . Polinomio caratteristico di una matrice (quadrata) e di un endomorfismo. 6 Proposizione: matrici simili hanno lo stesso polinomio caratteristico. Proposizione: se una matrice A , di tipo n × n , ha n autovalori distinti, allora A è diagonalizzabile. Molteplicità algebrica e geometrica di un autovalore di un endomorfismo. Proposizione: se λ ∈ K è un autovalore per l’endomorfismo F : V → V, allora ma (λ) ≥ mg (λ) ≥ 1 . Teorema: se V è uno spazio vettoriale di dimensione n finita, e F : V → V è un endomorfismo, allora sono eqivalenti i) F è diagonalizzabile; ii) il polinomio caratteristico di F è un prodotto di fattori lineari e ma (λ) = mg (λ) per ogni autovalore λ di F. iii) V = Aut(λ1 ) ⊕ Aut(λ2 ) ⊕ . . . ⊕ Aut(λm ) , dove λ1 , λ2 , . . . , λm sono i diversi autovalori di F. Endomorfismi e matrici triangolarizzabili. Teorema: un endomorfismo F : V → V è triangolarizzabile se e solo se il polinomio caratteristico di F si scompone completamente in un prodotto di fattori lineari. Corollario: ogni matrice quadrata ad entrate nel campo dei numeri complessi è triangolarizzabile. Matrici di Jordan. Teorema (forma canonica di Jordan; solo enunciato): ogni matrice quadrata ad entrate in C è simile ad una matrice del tipo A1 A2 .. . Ak ove ciascun blocco Ai è di Jordan. Ideale di K[X] di tutti i polinomi che annullano un fissato endomorfismo F. Polinomio minimo di F. Teorema di Cayley-Hamilton: se p è il polinomio caratteristico dell’endomorfismo F, allora p(F ) = 0 . Corollario: il polinomio minimo di F divide il polinomio caratteristico di F. Proposizione: ogni radice del polinomio caratteristico di un endomorfismo F (cioè: ogni autovalore di F ) è anche radice del polinomio minimo di F. Corollario: ogni polinomio in K[X] di grado n ≥ 1 è, a meno del segno, il polinomio caratteristico fi un endomorfismo K n → K n . 7 8.- Dualità. Definizione di spazio duale dello spazio vettoriale V. Base duale di una base di uno spazio vettoriale di dimensione finita. Cosa succede per spazi di dimensione infinita. Spazio biduale e applicazione lineare canonica τ : V → V ∗∗ . Iniettività di τ . Sottospazio W 0 ⊆ V ∗ , ortogonale di un sottospazio W ⊆ V. Teorema: se V è uno spazio vettoriale di dimensione finita, e se W ⊆ V è un sottospazio, allora dim(W ) + dim(W 0 ) = dim(V ) . Corollario: W ⊆ (W 0 )0 , e vale l’uguaglianza se V ha dimensione finita. Proposizione: sia dim(V ) = n finita, e siano ϕ1 , . . . , ϕk ∈ V ∗ tali che h ϕ1 , . . . , ϕk i è un sottospazio di V ∗ di dimensione r . Allora W := { v ∈ V | ϕ1 (v) = . . . ϕk (v) = 0 } è un sottospazio di V di dimensione n − r . Proposizione: sia V uno spazio vettoriale come nella proposizione precedente, e sia W ⊆ V un sottospazio di dimensione n − m. Allora esistono m forme lineari ϕ1 , . . . , ϕm ∈ V ∗ tali che W := { v ∈ V | ϕ1 (v) = . . . ϕm (v) = 0 } . Non è possibile una tale rappresentazione di W con meno di m forme. 9.- Spazi quoziente e teoremi di omomorfismo. Definizione di spazio vettoriale quoziente V /W. Proiezione canonica π : V → V /W. Proposizione: dim(V /W ) = dim(V ) − dim(W ) . Teorema (Primo Teorema di Isomorfismo): se F : V → U è un epimorfismo (un omomorfismo), allora esiste una ed una sola applicazione lineare F̄ : V /Ker(F ) → U tale che F = F̄ ◦ π e F̄ è un isomorfismo (risp.:un monomorfismo). Teorema (Secondo Teorema di Isomorfismo): se U e W sono arbitrari sottospazi di V, allora W U +W ' U ∩W U Teorema (Terzo Teorema di Isomorfismo): se U ⊆ W ⊆ V sono sottospazi, allora V V /U ' W W/U 8