Appendice - Elementi di algebra lineare Appendice — 1 Elementi di algebra lineare Indice 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 2 5 6 7 8 8 Spazi vettoriali 2.1 Spazi vettoriali . . . . . . . . . . . . . . . . 2.2 Sottospazi vettoriali . . . . . . . . . . . . . . 2.3 Norma e distanza . . . . . . . . . . . . . . . 2.4 Spazi vettoriali su R dotati di prodotto scalare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 9 12 13 14 3 Applicazioni lineari e matrici 3.1 Applicazioni lineari e matrici . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Prodotto di due matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 15 21 4 Sistemi lineari 4.1 Matrici e sistemi lineari . . . . . . . . . . . 4.2 Determinante e sistemi lineari n × n . . . . 4.2.1 Sistemi lineari 2 × 2 . . . . . . . . 4.2.2 Sistemi lineari 3 × 3 . . . . . . . . 4.2.3 Il caso generale . . . . . . . . . . . 4.3 Rango di una matrice; sistemi lineari m × n 2 5 Vettori geometrici 1.1 Vettori geometrici nello spazio 1.2 Prodotto scalare . . . . . . . . 1.3 Rette e piani nello spazio . . . 1.4 Prodotto vettoriale . . . . . . 1.5 Prodotto misto . . . . . . . . . 1.6 Vettori geometrici nel piano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 23 23 24 25 26 30 Autovalori e autovettori 5.1 Premessa . . . . . . . . . . . . . . . . . . . 5.2 Cambiamenti di base; matrici diagonalizzabili 5.3 Autovalori e autovettori . . . . . . . . . . . . 5.4 Diagonalizzabilità . . . . . . . . . . . . . . . 5.5 Teorema spettrale: il caso reale . . . . . . . . 5.6 Teorema spettrale: il caso complesso . . . . . 5.7 Forme quadratiche in Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 33 34 35 36 37 38 39 Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Appendice - Elementi di algebra lineare 1 2 Vettori geometrici Nell’appendice utilizzeremo la rappresentazione cartesiana (ortonormale) degli insiemi R, R2 ed R3 . Richiamiamo qui la sua costruzione limitandoci al caso di R3 = R × R × R = {(x, y, z) : x, y, z ∈ R}. Si fissano nello spazio un punto O, detto origine, e tre rette a due a due ortogonali che si intersecano in O, dette assi cartesiani e indicate ciascuna con la copia di R cui si riferiscono (x per la prima componente, y per la seconda, z per la terza). Su ciascuna di tali rette si sceglie una orientazione, ovvero si seleziona una semiretta uscente da O e una semiretta entrante in O; tale scelta si indica con una freccia che punta verso la semiretta uscente. Le orientazioni sono scelte in modo da formare una terna destrorsa, ovvero tale che gli assi x, y e z siano orientati nell’ordine come pollice, indice e medio della mano destra (si veda Figura 1). Su ciascuno dei tre assi si fissa la stessa unità di misura: in tal modo a ciascuna componente di un elemento (x0 , y0 , z0 ) ∈ R3 è associato un unico punto del corrispondente asse, determinato dalla distanza con segno dall’origine: per esempio ad x0 è associato il punto che ha distanza |x0 | da O e giace sulla semiretta uscente se x0 > 0, sulla semiretta entrante se x0 < 0. Figura 1. Terna destrorsa. z z0 3 Fatto ciò, un qualunque elemento (x0 , y0 , z0 ) ∈ R si rappresenta in modo unico come un punto P dello spazio: indicati con π xy , π xz e πyz i piani contenenti rispettivamente gli assi x e y, x e z e z e x, si prende il piano parallelo a πyz e che ha distanza con segno x0 da esso, il piano parallelo a π xz che ha distanza con segno y0 da esso, e il piano parallelo a π xy che ha distanza con segno z0 da esso; questi tre piani si intersecano in un unico punto dello spazio, P, che si identifica con il punto (x0 , y0 , z0 ) di R3 (si veda Figura 2). La rappresentazione cartesiana di R2 si ottiene con gli stessi argomenti, avendo cura di scegliere l’orientazione dei due assi x ed y congruente con quella di pollice e indice della mano destra. 1.1 P = (x0, y0, z0) y0 y x0 x Figura 2. Rappresentazione cartesiana di R3 . Vettori geometrici nello spazio Un vettore geometrico nello spazio, v (vettore nel resto del paragrafo), è una coppia (kvk, r), dove kvk è un numero reale non negativo e r è una semiretta uscente da un punto prefissato dello spazio (per esempio l’origine di un riferimento cartesiano): kvk ne determina la lunghezza, o modulo o norma, la retta che contiene la semiretta r individua la direzione e la semiretta r il verso del vettore. Due vettori che hanno la stessa direzione si dicono paralleli; se sono paralleli e le semirette coincidono, si dice che hanno lo stesso verso, mentre se le semirette non coincidono si dice che hanno verso opposto. Conveniamo che tutti i vettori con kvk = 0 coincidano con un unico vettore, il vettore nullo, che denotiamo con 0. Un vettore che ha kvk = 1 si dice versore. L’insieme di tutti i vettori dello spazio si indica con V3 . Fissato un punto P0 dello spazio (il punto di applicazione), un vettore v può essere −−−→ rappresentato in modo unico come un segmento orientato, P0 P: si trasla la semiretta r in modo che sia uscente da P0 , e si prende su di essa il segmento P0 P di lunghezza kvk. Il −−−→ segmento orientato P0 P si dice rappresentazione di v rispetto a P0 ; la freccia in Figura 3 indica quindi l’ordinamento dei punti P0 e P. Il concetto di vettore ha un’enormità di applicazioni (si vedano fra l’altro i capitoli 12 e 15), poiché consente di caratterizzare oggetti non solo per mezzo di una quantità (velocità, accelerazione) ma anche di una direzione e di un verso. Ad esempio, si può pensare alla Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. z P0 v P y x r Figura 3. Rappresentazione di v rispetto a P0 . Appendice - Elementi di algebra lineare 3 −−−→ rappresentazione P0 P di un vettore v come al descrittore di una forza applicata nel punto P0 : in questo caso kvk ne specifica l’intensità, la retta su cui giace il segmento P0 P ne indica la direzione e l’ordinamento di P0 e P (da P0 a P) ne fissa il verso. Per definire l’operazione di addizione tra due vettori conviene utilizzare la loro rappre−−−→ sentazione rispetto a un punto. Sia quindi OP1 la rappresentazione del vettore v1 rispetto −−−−→ a O e P1 P2 la rapresentazione del vettore v2 rispetto a P1 ; la somma v = v1 + v2 è quel −−−→ vettore v = v1 + v2 la cui rappresentazione rispetto a O è OP2 . Questa nozione codifica la ben nota “regola del parallelogramma” illustrata in Figura 4, e di conseguenza non dipende dalla scelta del punto di applicazione O. Addizione P2 v O v1+v2 P1 2v O v1 v2 −v O O Figura 4. Somma di due vettori. Figura 5. Prodotto di un vettore per uno scalare. Si verifica con argomenti geometrici elementari che: (i) vale la proprietà commutativa, ovvero v1 + v2 = v2 + v1 ; (ii) vale la proprietà associativa, ovvero (v1 + v2 ) + v3 = v1 + (v2 + v3 ); (iii) il vettore 0 è l’elemento neutro, ovvero 0 + v = v + 0 = v; (iv) per ogni vettore v esiste l’opposto, (−v), tale che v + (−v) = 0; si tratta del vettore che ha lunghezza e direzione uguali a v, ma verso opposto. La moltiplicazione di un vettore per un numero reale generalizza la nozione di vettore opposto: dato un vettore v e un numero reale λ, il prodotto λv è quel vettore che ha lunghezza |λ| kvk, direzione uguale a v e stesso verso se λ > 0, verso opposto se λ < 0 (si veda Figura 5). In particolare, se λ = −1 si ritrova l’opposto di v. Il prodotto per un numero reale soddisfa le seguenti proprietà, anch’esse geometricamente elementari: (v) λ1 (λ2 v) = (λ1 λ2 )v; (vi) (λ1 + λ2 )v = λ1 v + λ2 v; (vii) 1 v = v. L’ultima proprietà essenziale collega le due operazioni: (viii) λ(v1 + v2 ) = λv1 + λv2 . Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Moltiplicazione un numero reale per Appendice - Elementi di algebra lineare 4 Pensando alla rappresentazione di vettori come segmenti orientati, è del tutto naturale passare alla rappresentazione cartesiana. Ovviamente conviene scegliere l’origine O = (0, 0, 0) come punto di applicazione: in questo modo, ogni punto P ∈ R3 individua un −−→ unico vettore v di rappresentazione OP. Le coordiante cartesiane (x, y, z) del punto P si dicono componenti scalari del vettore v (si veda Figura 6): −−→ identifichiamo il vettore v di rappresentazione OP con il punto P = (x, y, z) ∈ R3 e scriviamo v = (x, y, z). ⇒ ⇒ P v y x Abbiamo cosı̀ identificato R3 con l’insieme dei vettori geometrici nello spazio. Da questo punto in poi non distingueremo più tra R3 e V3 . Con l’identificazione precedente, le operazioni di addizione e moltiplicazione assumono una forma analitica molto semplice (si vedano le figure 7 e 8): vi = (xi , yi , zi ) v = (x, y, z) z Figura 6. Rappresentazione cartesiana di v. v1 + v2 = (x1 + x2 , y1 + y2 , z1 + z2 ), λv = (λx, λy, λz). y y1 + y2 y2 y1 λx x2 x1 x x1 + x2 λy Figura 7. Somma di v1 = (x1 , y1 , 0) e v2 = (x2 , y2 , 0). Figura 8. Prodotto λv, con v= (x, y, 0) e λ < 0. Altrettanto semplice è esprimere il modulo di un vettore: poiché il riferimento cartesiano è ortonormale, per il Teorema di Pitagora q v = (x, y, z) ⇒ kvk = x2 + y2 + z2 . Il prossimo passo è il punto di partenza per le generalizzazioni che affronteremo in seguito. Individuiamo tre versori particolari, la cui rappresentazione rispetto a O è e1 = (1, 0, 0), e2 = (0, 1, 0) ed e3 = (0, 0, 1), e osserviamo che per la proprietà dell’addizione e della moltiplicazione per uno scalare v = (x, y, z) ⇐⇒ v = xe1 + ye2 + ze3 . La scrittura a destra è “intrinseca”, ovvero non contiene coordinate cartesiane ma solo vettori. In conclusione, ogni vettore geometrico nello spazio si lascia rappresentare in modo unico da una combinazione lineare dei tre versori e1 , e2 e e3 , che si chiamano base canonica di R3 e di V3 . Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Rappresentazione analitica di vettori Appendice - Elementi di algebra lineare 1.2 5 Prodotto scalare Siano v e w due vettori non nulli e sia vc w l’angolo formato dalle rispettive semirette rv ed rw (in questo ordine). Il prodotto scalare hv, wi è definito da hv, wi = kvk kwk cos(c vw). Se invece v = 0 o w = 0 si definisce hv, wi = 0. Il prodotto scalare v e w si indica anche con il simbolo v · w. Segue immediatamente dalla definizione che v e w sono paralleli ⇔ hv, wi = kvk kwk, v e w sono ortogonali ⇔ hv, wi = 0 (conveniamo che 0 è sia parallelo che ortogonale a ogni vettore). In particolare, ( 1 se i = j hei , e j i = δi j := 0 se i , j. (1) (2) Se kwk = 1, geometricamente il prodotto scalare rappresenta la lunghezza (con segno) della proiezione ortogonale del vettore v sulla retta (orientata) su cui giace il vettore w; in tal caso il vettore hv, wiw si dice proiezione ortogonale di v sulla retta su cui giace il vettore w (si veda Figura 9). Il prodotto scalare verifica le seguenti proprietà: (i) proprietà commutativa: hv, wi = hw, vi; (ii) proprietà distributiva: hv1 + v2 , wi = hv1 , wi + hv2 , wi; (iii) omogeneità: λhv, wi = hλv, wi = hv, λwi; (iv) hv, vi ≥ 0; inoltre hv, vi = 0 se e solo se v = 0. La proprietà (i) segue dal fatto che il coseno è una funzione pari e la terza e la quarta sono immediate. Se kwk = 1, la seconda proprietà segue osservando che la proiezione ortogonale della somma di vettori è uguale alla somma delle proiezioni ortogonali; se kwk , 1, si utilizza la terza proprietà (con λ = kwk) per ricondursi al caso kwk = 1. Anche il prodotto scalare si traduce in una semplice operazione algebrica utilizzando la rappresentazione analitica di vettori, che segue immediatamente dalle proprietà del prodotto scalare e dalla (2): ) v = v1 e1 + v2 e2 + v3 e3 ⇒ hv, wi = v1 w1 + v2 w2 + v3 w3 . w = w1 e1 + w2 e2 + w3 e3 Utilizzando questa rappresentazione si verifica facilmente (elevando al quadrato e svolgendo i calcoli) che kvk kwk = hv, wi ⇔ (v1 w2 − v2 w1 )2 + (v1 w3 − v3 w1 )2 + (v2 w3 − v3 w2 )2 = 0. (3) Dalle (1) e (3) segue una proprietà geometricamente piuttosto ovvia: v e w sono paralleli ⇔ ∃ α ∈ R : v = αw oppure w = αv. (4) Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. v c vw w c kv k cos vw Figura 9. kwk = 1 Appendice - Elementi di algebra lineare 1.3 6 Rette e piani nello spazio Sia x0 = (x0 , y0 , z0 ) un punto di R3 e sia v = (v1 , v2 , v3 ) un vettore non nullo. La retta r passante per x0 parallela a v è l’insieme dei punti che si ottengono aggiungendo a x0 un multiplo di v (si veda Figura 10): Rette nello spazio z v 3 r = {x ∈ R : x = x0 + tv, t ∈ R}. Si noti come in questo caso l’identificazione di V3 ed R3 semplifichi i concetti e la scrittura. Scrivendo tale relazione in componenti, si ottiene l’equazione parametrica della retta: x = x0 + tv1 y = y0 + tv2 t ∈ R. z = z + tv 0 3 Si noti che, se vi , 0 per i = 1, 2, 3, si può scrivere t= x − x0 y − y0 z − z0 = = v1 v2 v3 da cui segue l’equazione cartesiana della retta: x − x0 y − y0 z − z0 = = . v1 v2 v3 Naturalmente, questa espressione si modifica se una o due delle componenti di v sono nulle. Per esempio, se v3 = 0 ma v1 , 0 e v2 , 0, allora l’equazione cartesiana diviene z = z0 , x − x0 y − y0 = . v1 v2 In particolare, ponendo z0 = 0 si ottiene l’equazione della retta nel piano. Se invece di un punto e un vettore sono assegnati due punti diversi, x0 e x1 = (x1 , y1 , z1 ), per ottenere le equazioni della retta passante per questi due punti ci si riconduce al caso precedente prendendo v = x1 − x0 = (x1 − x0 , y1 − y0 , z1 − z0 ). Sia x0 un punto di R3 e siano v = (v1 , v2 , v3 ) e w = (w1 , w2 , w3 ) due vettori non nulli e non paralleli. Il piano π passante per x0 parallelo a v e w è l’insieme dei punti che si ottengono aggiungendo a x0 un multiplo di v e un multiplo di w: r = {x ∈ R3 : x = x0 + tv + sw, t, s ∈ R}. Scrivendo tale relazione in componenti, si ottiene l’equazione parametrica del piano: x = x0 + tv1 + sw1 y = y0 + tv2 + sw2 t, s ∈ R. z = z + tv + sw 0 3 3 Poiché i vettori v e w sono non nulli e non paralleli, almeno uno dei tre addendi nella (3) è diverso da zero; supponiamo che sia il primo. Moltiplicando la prima equazione per w2 , la seconda per w1 e sottraendole, risulta t= (x − x0 )w2 − (y − y0 )w1 . v1 w2 − v2 w1 Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. x0 y x Figura 10. Retta passante per x0 parallela a v. Appendice - Elementi di algebra lineare 7 Analogamente, moltiplicando la prima equazione per v2 , la seconda per v1 e sottraendole, risulta (x − x0 )v2 − (y − y0 )v1 s= . v2 w1 − v1 w2 Sostituendo queste due espressioni nella terza equazione, si ottiene l’equazione cartesiana del piano: (v2 w3 − v3 w2 )(x − x0 ) + (v3 w1 − v1 w3 )(y − y0 ) + (v1 w2 − v2 w1 )(z − z0 ) = 0. Si noti che questa espressione può essere riscritta in modo compatto come hn, x − x0 i = 0, dove n = (v2 w3 − v3 w2 , v3 w1 − v1 w3 , v1 w2 − v2 w1 ). In altre parole, i punti del piano per x0 parallelo ai vettori (non nulli e non paralleli) v e w sono tutti e soli quelli per i quali il vettore x − x0 è ortogonale al vettore n. Ciò mostra che un piano è equivalentemente individuato da un punto x0 e un vettore n ortogonale al piano. In particolare, ovviamente, hn, vi = hn, wi = 0. 1.4 Prodotto vettoriale Nel paragrafo precedente si è individuato, a partire da due vettori non nulli e non paralleli, un terzo vettore, normale a entrambi. Tale procedura si generalizza ad una operazione tra vettori, detta prodotto vettoriale. Siano dunque v e w due vettori di componenti v = (v1 , v2 , v3 ), w = (w1 , w2 , w3 ). Il prodotto vettoriale tra v e w è il vettore v ∧ w definito da v ∧ w := (v2 w3 − v3 w2 , v3 w1 − v1 w3 , v1 w2 − v2 w1 ). (5) Nel paragrafo 4.2.2 vedremo come esprimere la (5) in termini del determinante di un’opportuna matrice, cosa che ne faciliterà la memorizzazione. Si noti che, per la (3), se v = 0 oppure w = 0 oppure v e w sono paralleli e non nulli, allora v ∧ w = 0, e che (per quanto visto nel paragrafo precedente) v ∧ w è un vettore ortogonale a v e w, quindi a ogni piano parallelo a v e w: hv, v ∧ wi = hw, v ∧ wi = 0. Il prodotto vettoriale verifica le seguenti proprietà: (i) proprietà antisimmetrica: w ∧ v = −v ∧ w; (ii) proprietà distributiva: v ∧ (w1 + w2 ) = v ∧ w1 + v ∧ w2 ; (iii) omogeneità: λ(v ∧ w) = (λv) ∧ w = v ∧ (λw) per ogni λ ∈ R. Q Inoltre è possibile verificare che w kv ∧ wk = kvk kwk | sin(c vw)|. (6) Perciò kv ∧ wk coincide con l’area del parallelogramma individuato da v e w, ovvero quello che giace sul piano parallelo a v e w e ha come lati segmenti (orientati) che rappresentano v e w. Infatti, con le notazioni di Figura 11, tale area corrisponde a due volte quella del triangolo di vertici OPQ, che ha base di lunghezza kvk e altezza di lunghezza kwk | sin(c vw)|. Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. P v O Figura 11. Appendice - Elementi di algebra lineare 1.5 8 Prodotto misto Le operazioni di prodotto scalare e prodotto vettoriale possono essere combinate: si definisce prodotto misto di tre vettori u, v e w lo scalare hu, v ∧ wi. Segue dalle proprietà del prodotto scalare e vettoriale che u hu, v ∧ wi = 0 ⇔ v e w sono paralleli, oppure u = 0, oppure u è complanare a v e w. Geometricamente, posto ϕ = u [ v ∧ w (l’angolo tra u e v ∧ w), lo scalare |hu, v ∧ wi| = kuk kv ∧ wk | cos ϕ| fornisce il volume del parallelepipedo individuato da u, v e w, ovvero quello che ha come spigoli i segmenti orientati che rappresentano i tre vettori (si veda Figura 12). Infatti kv ∧ wk rappresenta l’area del parallelogramma di lati v e w e kuk | cos ϕ| l’altezza del parallelepipedo. 1.6 Vettori geometrici nel piano Nei paragrafi precedenti abbiamo considerato l’insieme V3 dei vettori geometrici dello spazio. In modo del tutto analogo si introduce l’insieme V2 dei vettori geometrici del piano. In particolare: (i) V2 può essere identificato con R2 tramite il passaggio a coordinate cartesiane: dato −−→ un vettore di rappresentazione v = OP, se (x, y) sono le coordinate cartesiane di P si scrive v = (x, y) = xe1 + ye2 , dove e1 = (1, 0) e e2 = (0, 1) sono i vettori che costituiscono la base canonica di V2 ; (ii) norma e prodotto scalare: dati v = (v1 , v2 ) e w = (w1 , w2 ), si definisce q kvk = v21 + v22 e hv, wi = kvk kwk cos(c vw) = v1 w1 + v2 w2 , (iii) v e w sono paralleli se e solo se v1 w2 − v2 w1 = 0 e ortogonali se e solo se v1 w1 + v2 w2 = 0. Le proprietà descritte in R3 continuano a valere in questo caso: possono essere dedotte direttamente oppure possono essere ottenute dalle considerazioni precedenti osservando che V2 può essere identificato con l’insieme dei vettori (v1 , v2 , 0), un sottoinsieme di V3 . Dati un punto x0 = (x0 , y0 ) e un vettore non nullo v = (v1 , v2 ), la retta passante per x0 parallela a v è l’insieme r = {x0 + tv : t ∈ R}. Osservando che h(v2 , −v1 ), (v1 , v2 )i = 0, il vettore (v2 , −v1 ) è ortogonale alla retta e, in analogia con l’equazione di un piano nello spazio, l’equazione della retta r diventa hn, x − x0 i = 0, dove n := (v2 , −v1 ). Viceversa, la retta di equazione cartesiana ax + by = c è ortogonale al vettore (a, b). Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. w v Figura 12. Appendice - Elementi di algebra lineare 9 Anche se non è possibile introdurre il prodotto vettoriale in V2 , si può applicare la (6) a (v1 , v2 , 0) e (w1 , w2 , 0): osservando che (v1 , v2 , 0) ∧ (w1 , w2 , 0) = (0, 0, v1 w2 − v2 w1 ) segue che kvk kwk | sin(c vw)| = |v1 w2 − v2 w1 | se v = (v1 , v2 ), w = (w1 , w2 ). (7) Perciò, nel piano, l’area del parallelogramma individuato dai vettori v e w vale |v1 w2 − v2 w1 |. L’uguaglianza (7) può anche essere dimostrata direttamente: poiché, come abbiamo osservato, n = (v2 , −v1 ) è ortogonale a v e poiché knk = kvk, si ha v2 w1 − v1 w2 = hn, wi = c e il risultato segue osservando che | cos(nw)| c = | sin(c kvk kwk cos(nw) vw)|. 2 Spazi vettoriali 2.1 Spazi vettoriali La nozione di spazio vettoriale generalizza quella elementare dei vettori geometrici. Nel seguito, K indica il campo dei numeri reali (K = R) o il campo dei numeri complessi (K = C). Nelle applicazioni del testo, a parte l’analisi di sistemi di equazioni differenziali ordinarie a coefficienti costanti (si veda il paragrafo 16.3.2), si utilizza solo K = R; il lettore che non sia interessato alla nozione di autovalore può perciò leggere K = R ovunque nell’Appendice. Definizione 1. Un insieme V si dice spazio vettoriale su K se: (a) esiste un’applicazione da V × V in V, detta addizione e indicata con +, tale che (i) v1 + v2 = v2 + v1 per ogni v1 , v2 ∈ V, (ii) (v1 + v2 ) + v3 = v1 + (v2 + v3 ) per ogni v1 , v2 , v3 ∈ V, (iii) esiste 0 ∈ V, detto elemento neutro dell’addizione, tale che 0 + v = v + 0 = v per ogni v ∈ V, (iv) per ogni v ∈ V esiste (−v) ∈ V, detto opposto di v tale che v + (−v) = 0; (b) esiste un’applicazione da K × V in V, detta moltiplicazione per uno scalare, tale che (v) λ1 (λ2 v) = (λ1 λ2 )v per ogni λ1 , λ2 ∈ K ed ogni v ∈ V, (vi) (λ1 + λ2 )v = λ1 v + λ2 v per ogni λ1 , λ2 ∈ K ed ogni v ∈ V, (vii) 1 v = v per ogni v ∈ V, (viii) λ(v1 + v2 ) = λv1 + λv2 per ogni λ ∈ K ed ogni v1 , v2 ∈ V. Gli elementi di uno spazio vettoriale si dicono vettori. Esempio 1. Lo spazio dei vettori geometrici dello spazio, V3 , e quello dei vettori geometrici del piano, V2 , sono spazi vettoriali su R. Esempio 2. Lo spazio Kn è uno spazio vettoriale su K con le seguenti operazioni: addizione: moltiplicazione per scalari: (x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn ) λ(x1 , . . . , xn ) = (λx1 , . . . , λxn ). Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Appendice - Elementi di algebra lineare 10 Esempio 3. L’insieme dei polinomi di grado minore o uguale a n (n ∈ N) a coefficienti reali, n X k Pn [x, R] = ak x : ak ∈ R ∀ k = 0, . . . , n k=0 è uno spazio vettoriale su R con le usuali operazioni di addizione e moltiplicazione (per esempio, 2(x2 − 1) − (x3 − x2 + x − 3) = −x3 + 3x2 − x + 1). Allo stesso modo, è uno spazio vettoriale su C l’insieme dei polinomi di grado minore o uguale ad n a coefficienti complessi, Pn [z, C]. Esempio 4. L’insieme di tutti i polinomi a coefficienti reali (complessi) è uno spazio vettoriale su R (rispettivamente su C) con le usuali operazioni di addizione e moltiplicazione per uno scalare. L’iniseme delle funzioni definite e derivabili infinite volte in R, C ∞ (R), è uno spazio vettoriale su R con le usuali operazioni di addizione e moltiplicazione. Siano v1 , . . . , vn ∈ V e λ1 , . . . , λn ∈ K. Il vettore v = λ1 v1 + · · · + λn vn si dice combinazione lineare di v1 , . . . , vn . Esempio 5. Il vettore (1, 3, −1) ∈ V3 è combinazione lineare dei vettori della base canonica, (1, 3, −1) = e1 + 3e2 − e3 . Lo stesso vettore è anche combinazione lineare dei vettori (1, 0, −2), (1, 6, 0): (1, 3, −1) = 1 1 (1, 0, −2) + (1, 6, 0). 2 2 È naturale chiedersi se, dato uno spazio vettoriale V, a partire da un certo insieme di vettori si possa “costruire” tutto lo spazio attraverso combinazioni lineari, nonché se esistono insiemi “minimali” che soddisfano questa proprietà. Iniziamo fissando la nomencaltura: Definizione 2. Siano V uno spazio vettoriale su K, n ∈ N e B = {v1 , . . . , vn } ⊂ V un sottoinsieme di V. (i) B si dice sistema di generatori di V se ogni v ∈ V è combinazione lineare di v1 , . . . , v n ; (ii) i vettori v1 , . . . , vn si dicono linearmente indipendenti se λ1 v1 + · · · + λn vn = 0 ⇔ λ1 = · · · = λn = 0, linearmente dipendenti altrimenti; (iii) B si dice base (finita) di V se è un sistema di generatori i cui elementi sono linearmente indipendenti. Vale la seguente caratterizzazione delle basi di uno spazio vettoriale: Teorema 1. Sia V uno spazio vettoriale su K. I vettori v1 , . . . vn sono una base di V se e solo se per ogni v ∈ V esiste un’unica n-upla (λ1 , . . . , λn ) ∈ Kn tale che v = λ1 v1 + · · · + λn vn . I coefficienti λi si dicono componenti di v rispetto alla base v1 , . . . , vn . Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Appendice - Elementi di algebra lineare 11 Esempio 6. I vettori e1 , e2 e e3 sono una base di R3 . La verifica è ovvia. Più in generale, e1 = (1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1) costituiscono una base di Kn , detta base canonica di Kn . I polinomi 1, x, x2 , . . . , xn sono una base di Pn [x, R]. È ovvio che siano un sistema di generatori. Per provare che sono linearmente indipendenti si può ragionare cosı̀: se λ0 + λ1 x + · · · + λn xn = 0, allora scegliendo x = 0 si ottiene λ0 =0, da cui x(λ1 + λ2 x + · · · + λn xn−1 ) = 0 per ogni x ∈ R, ovvero λ1 + λ2 x + · · · + λn xn−1 = 0 per ogni x ∈ R, da cui scegliendo di nuovo x = 0 si ottiene λ1 = 0. Ripetendo il ragionamento si conclude che tutti i coefficienti sono nulli. Analogamente, I polinomi 1, z, z2 , . . . , zn sono una base di Pn [z, C]. Esempio 7. I vettori (1, 1, 0), (0, 1, 0), (0, 1, 1), (1, 0, 1) ∈ V sono un sistema di generatori di V3 ma non sono linearmente indipendenti. Infatti, dato v = (v1 , v2 , v3 ) ∈ V3 , si ha (per esempio) v = v1 (1, 1, 0) + v3 (0, 1, 1) + (v2 − v1 − v3 )(0, 1, 0). D’altra parte (per esempio) 0 = (1, 1, 0) − 2(0, 1, 0) + (0, 1, 1) − (1, 0, 1). Esempio 8. I vettori di (1, 1, 0), (0, 1, 0) ∈ V3 sono linearmente indipendenti ma non formano un sistema di generatori. Infatti λ1 (1, 1, 0) + λ2 (0, 1, 0) = (λ1 , λ1 + λ2 , 0) = (0, 0, 0) ⇔ λ1 = λ2 = 0, ma non esiste alcuna loro combinazione lineare che generi (0, 0, 1). Non è un caso che, nell’esempio precedente due vettori non siano sufficienti a generare V3 . Vale infatti il seguente risultato: Teorema 2 (Dimensione di uno spazio vettoriale). Se uno spazio vettoriale V ha una base costituita da n elementi, ogni altra base è costituita dallo stesso numero di elementi. Il numero n si chiama dimensione di V e si indica con dim V. Esempio 9. dim V3 = 3, dim V2 = 2, dim Rn = n, dim Pn [z, C] = dim Pn [z, C] = n + 1. Se per ogni n = 1, 2, . . . esistono n vettori linearmente indipendenti in V, allora si dice che V è uno spazio vettoriale di dimensione infinita e si scrive dim V = +∞. Gli spazi vettoriali trattati nell’Esempio 4 sono tutti di dimensione infinita; per esempio, nello spazio vettoriale dei polinomi reali a coefficienti reali per ogni n ≥ 1 i polinomi 1, x, x2 , . . . , xn sono linearmente indipendenti. Gli spazi di dimensione infinita rivestono un ruolo essenziale in molti campi della Matematica, ma non li tratteremo in queste pagine. Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Appendice - Elementi di algebra lineare 2.2 12 Sottospazi vettoriali Sia V uno spazio vettoriale su K. Un sottoinsieme W di V si dice sottospazio vettoriale di V (su K) se è esso stesso uno spazio vettoriale. Esempio 10. Le rette passanti per l’origine sono sottospazi vettoriali di R3 di dimensione 1; i piani sono sottospazi vettoriali di R3 di dimensione 2. I polinomi pari di grado minore o uguale a due sono un sottospazio vettoriale di P3 [x, R] di dimensione 2 (una base è costituita dai polinomi 1 e x2 ). Dato un insieme di vettori {v1 , . . . , vk } di V, l’insieme delle loro combinazioni lineari forma un sottospazio vettoriale di V, che si indica con spam{v1 , . . . , vk } = {v ∈ V : v = λ1 v1 + · · · + λk vk , λi ∈ K}. Esempio 11. I polinomi 1, 1 + x, 1 + x + x3 generano un sottospazio vettoriale di P3 [x, R], di dimensione al più uguale a tre. Si verifica facilmente che i tre vettori sono linearmente indipendenti, quindi la dimensione è esattamente uguale a tre. L’intersezione di due sottospazi vettoriali è ancora un sottospazio vettoriale, mentre l’unione insiemistica in generale non lo è: W1 , W2 sottospazi di V ⇒ W1 ∩ W2 sottospazio di V W1 , W2 sottospazi di V ; W1 ∪ W2 sottospazio di V Esempio 12. In R2 , l’intersezione dei due assi cartesiani, ovvero l’insieme {(0, 0)} è uno spazio vettoriale (banale), mentre la loro unione non lo è poiché non è chiusa rispetto all’addizione: il vettore (1, 0) + (0, 1) = (1, 1) non appartiene all’insieme. A partire dalla definizione di spazio vettoriale, è intuitivo che per ottenere un sottospazio vettoriale che ne contenga due dati si devono sommare i loro elementi: dati W1 , W2 sottospazi di V, si definisce quindi la somma W1 + W2 come l’insieme W1 + W2 = {w1 + w2 : w1 ∈ W1 , w2 ∈ W2 }. Se inoltre W1 ∩ W2 = {0}, allora W1 + W2 si dice somma diretta di W1 e W2 e si indica con W1 ⊕ W2 . Tornando all’esempio precedente, la somma dei due assi cartesiani nel piano è chiaramente tutto il piano; in particolare è una somma diretta e forma uno spazio vettoriale di dimensione 2 (la somma delle dimensioni). In generale vale il seguente risultato: Teorema 3. Sia V uno spazio vettoriale e siano W1 , W2 sottospazi di V. Allora l’insieme W1 + W2 è un sottospazio vettoriale. Se inoltre V ha dimensione finita, vale la formula di Grassmann: dim(W1 + W2 ) = dim W1 + dim W2 − dim(W1 ∩ W2 ). Il seguente risultato afferma che è possibile costruire una base di un dato spazio vettoriale di dimensione finita a partire dalla base di un suo sottospazio, “completandola”. Teorema 4. Siano V uno spazio vettoriale di dimensione finita, W un sottospazio vettoriale di V e B0 = {w1 , . . . , wk } una base di W. Allora esiste un completamento B della base B0 , ovvero una base B di V tale che B0 ⊆ B. Esempio 13. Il vettore w̃ = (1, −1) ∈ V2 genera un sottospazio di dimensione 1 su R: W = {v ∈ V2 : v = (λ, −λ) : λ ∈ R}. Per ottenere una base di V2 , basta prendere un vettore ṽ ∈ V2 \ W: infatti, se ṽ < W allora è linearmente indipendente da w̃. Per esempio, ṽ = (1, 0). Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Appendice - Elementi di algebra lineare 2.3 13 Norma e distanza Dato uno spazio vettoriale V su K, una norma su V è, in generale, una applicazione N : X → [0, +∞) che verifica le seguenti proprietà: - N(λv) = |λ|N(v) per ogni λ ∈ K e ogni v ∈ V (omogeneità positiva); - N(v + w) ≤ N(v) + N(w) per ogni v, w ∈ V (subadditività o disuguaglianza triangolare); - N(v) = 0 se e solo se v = 0. Esempio 14. Il valore assoluto è una norma su R (visto come spazio vettoriale su sé stesso). Esempio 15. Le funzioni x 7→ kxk1 = |x1 | + · · · + |xn |, q x 7→ kxk2 = x12 + · · · + xn2 , x = (x1 , . . . , xn ) (8) x 7→ kxk∞ = max{|x1 |, . . . , |xn |}, sono norme su Rn (visto come spazio vettoriale su R). La norma k k2 si dice norma euclidea e si indica anche con k k. In Figura 13 sono indicati, nel caso di R2 , i punti del piano la cui norma è uguale a uno. kxk1 = 1 kxk2 = 1 kxk∞ = 1 Figura 13. Il concetto di distanza, discusso nel testo nei casi particolari della distanza euclidea in R (si veda il paragrafo 4.1) e in Rn (si veda il paragrafo 10.1) può essere generalizzato a un generico insieme: dato un insieme X, si dice distanza una applicazione d : X × X → [0, +∞) tale che: - d(x, y) = d(y, x) per ogni x, y ∈ X (simmetria); - d(x, y) ≤ d(x, z) + d(z, y) per ogni x, y, z ∈ X (disuguaglianza triangolare); - d(x, y) = 0 se e solo se x = y. Su ogni spazio vettoriale V dotato di una norma N resta definita una distanza, la distanza indotta da N: d(v, w) = N(v − w). Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Appendice - Elementi di algebra lineare 14 Per esempio, la distanza indotta su R2 dalla norma k k1 è d(x, y) = |x1 − y1 | + |x2 − y2 |, x = (x1 , x2 ), y = (y1 , y2 ). Si può pensare a d come alla distanza che deve percorrere un pedone per andare da x a y in un percorso cittadino pianeggiante a maglie rettangolari. Il concetto di distanza su un insieme X dota l’insieme stesso di una struttura metrica (in particolare consente di definire in X il concetto di intorno e quindi quelli di insieme aperto, insieme chiuso, frontiera, ecc.): la Topologia, un settore molto vasto e ricco di applicazioni della Matematica, si occupa di studiare le proprietà di tali insiemi (e, più in generale, di spazi topologici). 2.4 Spazi vettoriali su R dotati di prodotto scalare Lo spazio vettoriale V3 , come abbiamo visto, è dotato di altre due operazioni oltre a quella di addizione e moltiplicazione per uno scalare: il prodotto scalare e il prodotto vettoriale. Introduciamo ora una generalizzazione della nozione di prodotto scalare che riveste grande importanza: ci limitiamo per il momento al caso di spazi vettoriali su R, rimandando al paragrafo 5.6 per un cenno al caso complesso. Definizione 3. Uno spazio vettoriale V su R si dice dotato di prodotto scalare se esiste una applicazione h·, ·i : V × V → R, detta prodotto scalare, che verifica le proprietà (i) − (iv) di pagina 5. Due vettori v, w ∈ V si dicono ortogonali se hv, wi = 0. Si verifica facilmente che, se V è uno spazio vettoriale su R dotato di prodotto scalare, la funzione p k k : V → R, kvk = hv, vi è una norma, detta norma indotta dal prodotto scalare h , i. Per quanto visto nel paragrafo precedente, è quindi definita anche una distanza, la distanza indotta dal prodotto scalare: p d : V × V → R, d(v, w) = kv − wk = hv − w, v − wi. L’esempio principale di spazio vettoriale su R dotato di prodotto scalare è certamente Rn con il prodotto scalare euclideo: Esempio 16. Abbiamo già osservato nell’Esempio 2 che Rn è uno spazio vettoriale su R. In analogia con V3 (che come detto si identifica con R3 ), definiamo il prodotto scalare euclideo ( x = (x1 , . . . , xn ) hx, yi = x1 y1 + · · · + xn yn , dove y = (y1 , . . . , yn ). (la verifica che si tratti effettivamente di un prodotto scalare è lasciata per esercizio). In perfetta analogia con il caso n = 3, restano quindi definiti la norma euclidea, q kxk = x12 + · · · + xn2 , e la distanza euclidea q d(x, y) = kx − yk = (x1 − y1 )2 + · · · + (xn − yn )2 . Si noti che in Rn valgono la disuguaglianza triangolare e la disuguaglianza di CauchySchwartz: kx + yk ≤ kxk + kyk, |hx, yi| ≤ kxk kyk. Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Appendice - Elementi di algebra lineare 15 Su spazi vettoriali su R dotati di prodotto scalare ha senso la nozione di base ortonormale: Definizione 4. Sia V uno spazio vettoriale su R dotato di prodotto scalare. Una base v1 , . . . , vn di V si dice ortonormale se hvi , v j i = δi j . L’esempio più ovvio di base ortonormale è la base canonica e1 , . . . , en di Rn . Dato uno spazio vettoriale su R dotato di prodotto scalare V, partire da una generica base v1 , . . . , vn ne può sempre costruire una ortonormale, {ṽ1 , . . . , ṽn }, con l’ulteriore proprietà che spam{v1 , . . . , vk } = spam{ṽ1 , . . . , ṽk } per ogni k = 1, . . . , n. La procedura, detta ortonormalizzazione di Gram-Schmidt, è costruttiva e funziona cosı̀: al primo passo si normalizza v1 : ṽ1 = v1 /kv1 k. Si determina poi w2 in modo tale che w2 = v2 + λṽ1 e hw2 , ṽ1 i = 0, ovvero w2 = v2 − hv2 , ṽ1 i ṽ1 e si normalizza: ṽ2 = w2 /kw2 k. Iterando il procedimento (si veda anche l’esempio seguente) si ottiene la base cercata. Esempio 17. Si vuole determinare l’ortonormalizzazione di Gram-Schmidt della base di R3 formata dai vettori (1, 1, 0), (1, 0, 0), (0, 1, 1). Si ha anzitutto ṽ1 = √12 (1, 1, 0). Procedendo come descritto sopra, si ottiene 1 w2 = (1, 0, 0) − h(1, 0, 0), (1, 1, 0)i(1, 1, 0) = (1/2, −1/2, 0), 2 da cui ṽ2 = √1 (1, −1, 0). 2 Infine, si cerca w3 in modo tale che verifichi w3 = v3 + λ1 ṽ1 + λ2 ṽ2 , hw3 , ṽ1 i = hw3 , ṽ2 i = 0. Con semplici calcoli si ottiene 1 λ1 = −hv3 , ṽ1 i = − √ , 2 1 λ2 = −hv3 , ṽ2 i = √ , 2 per cui w3 = ṽ3 = (0, 0, 1). 3 3.1 Applicazioni lineari e matrici Applicazioni lineari e matrici In algebra lineare, rivestono un ruolo essenziale le applicazioni che conservano le strutture dell’addizione e della moltiplicazione per uno scalare che caratterizzano gli spazi vettoriali: Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Ortonormalizzazione di Gram-Schmidt Appendice - Elementi di algebra lineare 16 Definizione 5. Siano V, W due spazi vettoriali su K. Una applicazione L : V → W si dice applicazione lineare se: L(λ1 v1 + λ2 v2 ) = λ1 L(v1 ) + λ2 L(v2 ) per ogni v1 , v2 ∈ V, λ1 , λ2 ∈ K. Gli insiemi Ker L ⊆ V e im L ⊆ W definiti da Ker L = {v ∈ V : L(v) = 0}, im L = {L(v) : v ∈ V} si dicono rispettivamente nucleo (“kernel” in lingua inglese) e immagine di L. L’applicazione si dice iniettiva se Ker L = {0}, suriettiva se im L = W, biettiva o isomorfismo se è sia iniettiva che suriettiva e in tal caso V e W si dicono isomorfi e si scrive V W. L’insieme delle applicazioni lineari da V a W si indica con Lin (V, W, K). Esempio 18. L’applicazione L : V3 → R3 definita da L : V3 3 v = v1 e1 + v2 e2 + v3 e3 7→ x = (v1 , v2 , v3 ) ∈ R3 è un isomorfismo (lo studente controlli). Esempio 19. L’applicazione πi : Rn → R definita da πi : Rn 3 x = (x1 , . . . xn ) 7→ xi ∈ R è una applicazione lineare suriettiva ma non iniettiva (Ker πi = {(x1 , . . . , xn ) ∈ Rn : xi = 0}, lo studente controlli), detta proiezione i-esima. Si verifica facilmente che nucleo e immagine sono sottospazi vettoriali di V, rispettivamente W. Se dim V < +∞, le loro dimensioni sono finite e legate da un’importante formula: Teorema 5 (Teorema delle dimensioni). Sia L ∈ Lin (V, W, K). Allora Ker L è un sottospazio vettoriale di V, im L è un sottospazio vettoriale di W e se dim V < +∞ risulta: dim(im L) + dim(Ker L) = dim V. (9) L’insieme Lin (V, W, K) delle applicazioni lineari da V in W può essere dotato di una struttura di spazio vettoriale definendo le operazioni di: (i) addizione: (L1 + L2 )(v) := L1 (v) + L2 (v) per ogni v ∈ V; (ii) moltiplicazione per uno scalare: (λL)(v) = λL(v) per ogni v ∈ V, λ ∈ K. Le applicazioni lineari sono completamente determinate dai valori assunti su una base di V: Teorema 6. Siano V e W due spazi vettoriali su K. Sia dim V < +∞, sia BV = {v1 , . . . , vn } una base di V e siano L1 : V → W e L2 : V → W due applicazioni lineari. Allora L1 = L2 , ovvero L1 (v) = L2 (v) per ogni v ∈ V, se e solo se L1 (vi ) = L2 (vi ) per ogni i = 1, . . . , n. Se anche W ha dimensione finita, con base BW = {w1 , . . . , wm }, è possibile esprimere i valori di L1 (v1 ), . . . , L1 (vn ) rispetto alla base di W: L(v1 ) = a11 w1 + · · · + am1 wm , .. . L(vn ) = a1n w1 + · · · + amn wm . (10) Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Appendice - Elementi di algebra lineare 17 Quindi, dati due spazi vettoriali V e W di dimensione finita con basi BV e BW , per il Teorema 6 un’applicazione lineare L ∈ Lin (V, W, K) è determinata dai mn numeri ai j ∈ K (i = 1, . . . , m, j = 1, . . . , n) definiti dalla (10). Infatti, dati v = x1 v1 + · · · + xn vn ∈ V e w = y1 w1 + · · · + ym wm ∈ W, si verifica facilmente che, data l’applicazione lineare L ∈ Lin (V, W, K) determinata dalla (10), si ha che w = L(v) ⇔ yi = ai1 x1 + · · · + ain xn = n X ai j x j (i = 1, . . . , m). (11) j=1 I numeri ai j ∈ K si dicono elementi di una matrice. Una matrice è tabella bidimensionale determinata dal numero di righe, dal numero di colonne e dai valori assunti in ciascuna casella della tabella: Definizione 6. Siano m, n ∈ N \ {0}. Si dice matrice m × n a valori in K un insieme di mn elementi ai j ∈ K ordinati secondo due indici, i = 1, . . . , m e j = 1 . . . , n, A = {ai j : ai j ∈ K, i = 1, . . . , m, j = 1, . . . , n} e si indica con a11 a 21 A = . .. am1 a12 a22 .. . ... ... .. . a1n a2n .. . am2 ... amn . (12) Si indica con Mm,n (K) l’insieme di tutte le matrici m × n a valori in K. Per indicare in forma coincisa una matrice e gli elementi che la compongono si scrive anche A = {ai j } ∈ Mm,n (K), oppure semplicemente A = {ai j } se il formato m × n e il campo K sono superflui o chiari dal contesto. Nei casi particolari in cui n = 1 o m = 1 la matrice si dice vettore colonna , rispettivamente vettore riga . Se m = n, A si dice matrice quadrata e n si dice ordine della matrice. Una matrice quadrata A di ordine n si dice diagonale se è del tipo A = λ1 0 0 .. . λ2 .. . 0 ... ... .. . .. . 0 . 0 λn 0 .. . L’operazione di scambio di righe e colonne prende il nome di trasposizione: Definizione 7. Sia A = {ai j } ∈ Mm,n (K). Si dice trasposta di A, e si indica con AT , la matrice AT = {a ji } ∈ Mn,m (K). Una matrice quadrata A si dice simmetrica se AT = A. Si noti che la trasposta di un vettore riga è un vettore colonna e viceversa. I vettori colonna sono particolarmente utile per esprimere la (11) in modo compatto: scrivendo Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Appendice - Elementi di algebra lineare 18 (x1 , . . . , xn ) ∈ Kn e (y1 , . . . , ym ) ∈ Km come vettori colonna, x = (x1 , . . . , xn )T e y = (y1 , . . . , ym )T , si introduce la notazione n P y1 = a1 j x j j=1 y1 a11 . . . a1n x1 . . .. .. .. ⇔ .. y = Ax ⇔ .. = .. (13) . . . . n P ym am1 . . . amn xn am j x j . ym = j=1 Nel prossimo paragrafo generalizzeremo tale notazione tramite la nozione di prodotto; si veda l’Osservazione a pagina 21. Esempio 20. 1 0 2 −3 4 2 ! 1 4 = 3 1+0+6 −3 + 16 + 6 ! = ! 7 19 . Esempio 21. Se A è una matrice quadrata di ordine n a coefficienti reali, si ha hz, Axi = hAT z, xi ∀x, z ∈ Rn . Infatti, osservando che P n j=1 a j1 z j (13) .. y = AT z ⇐⇒ y = n . P a jn z j j=1 si ottiene (13) hz, Axi = n P a z i1 i i=1 .. = . P n a z in i (14) i=1 n n n n X X X X zi ai j x j = xj ai j zi = hAT z, xi, i=1 j=1 j=1 i=1 Notazione . - Nel resto dell’Appendice, ove non diversamente specificato, un vettore di Kn si sottoindende rappresentato da un vettore colonna. - Sarà utile disporre di una notazione che metta in evidenza le colonne di una matrice: si scrive cioè a1 j a 2j A = (v1 |v2 | . . . |vn ) , dove vi = . , j = 1, . . . , n, .. am j Il vettore v j ∈ Km si dice j-esimo vettore colonna di A. Analoghe notazioni e nomenclatura valgono per le righe di A. Cosı̀ come si è fatto per le applicazioni lineari, anche l’insieme delle matrici può essere dotato di una struttura di spazio vettoriale definendo le operazioni di addizione e moltiplicazione per uno scalare “termine a termine”: (i) se A = {ai j } ∈ Mm,n (K) e B = {bi j } ∈ Mm,n (K), 1 ≤ i ≤ m, 1 ≤ j ≤ n, allora A + B = {ai j + bi j } ∈ Mm,n (K); Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Appendice - Elementi di algebra lineare 19 (ii) se λ ∈ K e A = {ai j }, allora λA = {λai j }. Si noti che la somma è definita solo tra matrici che hanno lo stesso formato, ovvero lo stesso numero di righe e lo stesso numero di colonne. Fissati il numero di righe e colonne e lo spazio ambiente, non è difficile verificare che l’insieme delle matrici costituisce uno spazio vettoriale con le suddette operazioni: Teorema 7. Sia m, n ∈ N \ {0}. L’insieme Mm,n (K) è uno spazio vettoriale su K di dimensione mn, isomorfo ad Kmn . Infatti dim Mm,n (K) = dim Kmn = matrici: 1 0 . . . 0 0 0 . . . 0 , e = e11 = . . . . 12 . . .. .. .. 0 0 ... 0 mn e la base canonica di Mm,n (K) consiste di mn 0 1 0 ... 0 0 0 ... .. .. .. . . . . . . 0 0 0 ... .. . em1 = 0 .. . 0 .. . 0 1 0 0 0 0 .. . 0 , .. . ... .. . ... ... , 0 0 0 .. . em2 = 0 0 .. .. . . 0 0 0 1 ..., .. 0 .. . 0 0 ... .. . ... ... 0 0 .. . ... ... .. . 0 ... 0 1 0 0 .. .. , . . 0 0 .. . . , . . . , 0 0 0 .. . e1n = emn = 0 .. . ... .. . 0 ... 0 ... 0 0 .. .. . . . 0 0 0 1 Ricordiamo che, dati due spazi vettoriali V e W su K con dim V = n < +∞, dim W = m < +∞ e fissate due basi BV = {v1 , . . . , vn } (di V) e BW = {w1 , . . . , wm } (di W), la (10) permette di associare ad ogni applicazione lineare L ∈ Lin (V, W, K) una matrice AL ∈ Mm,n (K): M : Lin (V, W, K) → Mm,n (K), M(L) = AL se AL verifica la (10). Chiaramente M è invertibile: data una matrice A ∈ Mm,n (K), A = {ai j }, l’applicazione L : Mm,n (K) → Lin (V, W, K), L(A) = LA se LA verifica la (11), è l’inversa di M. L’addizione e la moltiplicazione per uno scalare sono modellate sul parallelismo tra matrici e applicazioni lineari, nel senso che, per ogni A, B ∈ Mm,n (K) e λ ∈ K, la mappa L : A 7→ LA verifica LA + LB = LA+B e λLA = LλA . Segue da queste osservazioni che Mm,n (K) e Lin (V, W, K) sono isomorfi: Teorema 8. Siano V e W spazi vettoriali su K di dimensione rispettivamente n ed m. Allora M : Lin (V, W, K) → Mm,n (K) e L : Mm,n (K) → Lin (V, W, K) sono isomorfismi tra spazi vettoriali e sono uno l’inverso dell’altro. Se V = Kn , W = Km e le rispettive basi sono quelle canoniche, per la (10) l’applicazione A 7→ LA assume una struttura particolarmente semplice ed è determinata dalle Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Appendice - Elementi di algebra lineare 20 seguenti relazioni: a11 LA (e1 ) = ... am1 a1 j , . . . , LA (e j ) = ... am j a1n , . . . , LA (en ) = ... amn . (15) Considerando gli elementi di Kn come vettori colonna, possiamo scrivere LA (x) = Ax; in altre parole l’applicazione lineare LA da Kn in Km è rappresentata rispetto alle basi canoniche dalla mappa x 7→ Ax, x ∈ Kn . Nei prossimi tre esempi sceglieremo sempre le basi canoniche per rappresentare le applicazioni lineari. Esempio 22. La proiezione ortogonale in R3 sul piano z = 0 è rappresentata dalla matrice diagonale 1 0 0 0 1 0 0 0 0 Più in generale, dato un versore n ∈ R3 , la proiezione ortogonale sul piano di equazione hn, xi = 0 è la mappa x 7→ x − hn, xin da R3 in R3 . Utilizziamo la (15) per trovare la matrice A che rappresenta tale mappa: la proiezione di ei (i = 1, 2, 3) è ei − ni n, quindi A è la matrice simmetrica che ha come vettori colonna i vettori ei − ni n: 1 − n21 −n1 n2 −n1 n3 2 −n1 n2 1 − n2 −n2 n3 −n1 n3 −n2 n3 1 − n23 Analogamente, dato un versore n ∈ R2 , in R2 la proiezione ortogonale sulla retta di equazione hn, xi = 0 è l’applicazione lineare rapresentata dalla matrice ! 1 − n21 −n1 n2 −n1 n2 1 − n22 Esempio 23. Fissato v ∈ R3 , l’applicazione x 7→ v∧x è lineare. Determiniamo la matrice corrispondente: v1 x v2 z − v3 y 0 −v3 v2 x 0 −v1 y . v ∧ x = v2 ∧ y = v3 x − v1 z = v3 z −v2 v1 0 v1 y − v2 x z v3 Esempio 24. Una rotazione nel piano attorno all’origine è una applicazione che ad un punto x = (x, y)T ∈ R2 associa il punto x0 = (x0 , y0 )T ∈ R2 ottenuto ruotando il segmento che congiunge 0 e x di un prefissato angolo α (si veda la Figura 14). Rappresentando x in coordinate polari, si ha cioè ! ! ρ cos θ ρ cos(θ + α) = x 7→ x0 = , ρ sin θ ρ sin(θ + α) ovvero, utilizzando le formule di addizione, ( 0 x = ρ cos α cos θ − ρ sin α sin θ = x cos α − y sin α, y0 = ρ sin α cos θ + ρ cos α cos θ = x sin α + y cos α. Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Figura 14. Appendice - Elementi di algebra lineare 21 Tale relazione si può riscrivere in forma compatta come ! ! x0 x cos α = A , dove Aα = α y0 y sin α − sin α cos α ! . Perciò una rotazione attorno all’origine nel piano è una applicazione lineare da R2 in sé rappresentata (rispetto alle basi canoniche di R2 ) dalla matrice Aα . Un altro modo per trovare Aα è osservare che è geometricamente ovvio che la rotazione è un’applicazione lineare dal piano in se stesso (lo studenti controlli!) ed utilizzare la (10) per calcolare i vettori colonna di Aα : ! ! ! ! cos α 0 − sin α 1 e1 = 7→ , e2 = 7→ . sin α 1 cos α 0 3.2 Prodotto di due matrici Siano V, W e Z spazi vettoriali su K con dim V = n e dim W = ` e dim Z = m. Siano LA ∈ Lin (Z, W, K) e LB ∈ Lin (V, Z, K) due applicazioni lineari rappresentate, fissate le rispettive basi, dalle matrici A ∈ Mm,` (K) e B ∈ M`,n (K) tramite l’identificazione (11). Allora l’applicazione composta da V in W, v 7→ LA (LB (v)), è lineare ed è quindi naturale chiedersi quale sia la matrice corrispondente, C ∈ Mm,n (K). Dopo qualche calcolo, basato sull’utilizzo ripetuto dalla (11) (lo studente verifichi), si ottiene la seguente formula per C = {ci j }: X̀ ci j = aik bk j . k=1 La matrice C si dice matrice prodotto di A e B e si denota con AB: Definizione 8. Sia A = {ai j } ∈ Mm,` (K) e B = {bi j } ∈ M`,n (K). La matrice X̀ C = AB = aik bk j ∈ Mm,n (K) k=1 si dice matrice prodotto (righe per colonne) di A per B. Si noti che la condizione necessaria affinché il prodotto sia ben definito è che il numero di righe della matrice B sia uguale al numero di colonne della matrice A. Osservazione . Si noti inoltre che se A è una matrice m × n e B = x è una matrice n × 1, ovvero un vettore colonna in Kn , applicando la Definizione 8 si ritrova la notazione (13) introdotta in precedenza per indicare Ax. Esempio 25. 1 0 2 −3 4 2 ! 5 1 0 −1 1 0 −2 4 1 = 0 3 2 5 −11 −1 −2 7 19 4 8 ! . Si verifica (in modo elementare ma con un po’ di calcoli, lo studente controlli) che valgono le seguenti proprietà, in cui si sottintende che il formato delle matrici sia tale che il prodotto abbia senso: (i) (proprietà associativa) (AB)C = A(BC); Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Appendice - Elementi di algebra lineare 22 (ii) (proprietà distributive) (A + B)C = AC + BC e C(A + B) = CA + CB; (iii) (identità) se A è una matrice quadrata di ordine n, allora 1 0 0 1 In A = AIn = A, dove In = . . . . . . 0 ... ... .. . .. . 0 ; 0 1 0 .. . le matrici In si dicono matrici identità (di ordine n) e si indicano anche con I qualora sia superfluo specificare l’ordine; la matrice identità di ordine n rappresenta l’applicazione lineare x 7→ x in Kn ; (iv) (trasposizione del prodotto) (AB)T = BT AT . Si noti la mancanza, nell’elenco precedente, della proprietà commutativa. In effetti tale proprietà vale solo in casi particolari. Per esempio, ! ! ! ! 0 −1 1 0 0 1 0 −1 A= , B= ⇒ AB = , BA = . 1 0 0 −1 1 0 −1 0 In questo caso è anche geometricamente ovvio che AB , BA: A rappresenta una rotazione nel piano di angolo π/2 (si veda l’Esempio 24), B rappresenta la mappa (x, y) 7→ (x, −y) (la riflessione rispetto alla retta orizzontale y = 0) e chiaramente la composizione delle due operazioni dipende dal loro ordine. È comunque chiaro dalla definizione che affinché i prodotti AB e BA siano entrambi ben definiti è necessario che se A ∈ Mm,n (K) allora B ∈ Mn,m (K). L’ultima operazione che introduciamo in questo paragrafo è quella di inversione rispetto al prodotto: data una matrice A si tratta di determinare, se esiste, una (unica) matrice A−1 tale che A−1 A = AA−1 = I. Ovviamente ciò pone anzitutto un vincolo sulla struttura di A, che deve essere quadrata: Definizione 9. Una matrice quadrata A si dice invertibile se esiste B, detta matrice inversa di A, e indicata con A−1 , tale che AB = BA = In . Se A non è invertibile si dice singolare. Si noti che A è invertibile se e solo se l’applicazione lineare associata, LA (x) = Ax da Kn in Kn , è invertibile; in tal caso vale che (LA )−1 = LA−1 . Anche con il vincolo di struttura, la matrice inversa non sempre esiste: per esempio, la matrice 0 ∈ M1,1 (R) R è singolare. Nel Teorema 11 caratterizzeremo le matrici invertibili. È invece semplice verificare che se esiste, la matrice inversa è unica: infatti, se B e B0 sono inverse di A, allora B = BI = B(AB0 ) = (BA)B0 = IB0 = B0 . Esempio 26. Si vuole determinare per quali valori di x ∈ R la matrice A = x 2 2 4 ! è invertibile, e in tal caso determinarne l’inversa. ! a b Denotiamo con B = una generica matrice. Se B è l’inversa di A, allora deve c d verificare xa + 2c = 1 ! ! xa + 2c xb + 2d 1 0 xb + 2d = 0 AB = = ⇔ 2a + 4c = 0 2a + 4c 2b + 4d 0 1 2b + 4d = 1 Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Appendice - Elementi di algebra lineare 23 Moltiplicando per due la prima equazione e sottraendo la terza, si ottiene 2a(x − 1) = 2, che ha soluzione se e solo se x , 1 e in tal caso a = 1/(x−1); analogamente, dalle seconda e quarta equazione si deduce che b = −1/(2(x−1)); sostituendo questi valori nella seconda e terza equazione si ottiene d = −bx/2 = x/(4(x − 1)), c = −a/2 = −1/(2(x − 1)). Un calcolo esplicito mostra che con queste scelte si ha anche BA = I2 . Pertanto A è invertibile se e solo se x , 1 e in tal caso ! 1 4 −2 . A−1 = 4(x − 1) −2 x Esempio 27. Procedendo come nell’esempio precedente (lo studente controlli i dettagli del calcolo), risulta che una generica matrice quadrata di ordine 2, ! a11 a12 A= , a21 a22 è invertibile se e solo se a11 a22 − a21 a12 , 0, e in tal caso risulta ! 1 a22 −a12 −1 A = . a11 a22 − a21 a12 −a21 a22 4 4.1 Sistemi lineari Matrici e sistemi lineari Sia A la matrice costituita dai coefficienti ai j dei termini di grado 1 di un generico sistema lineare costituito da m equazioni in n incognite: a11 x1 + a12 x2 + · · · + a1n xn = b1 a 21 x1 + a22 x2 + · · · + a2n xn = b2 (16) .. .. . . a x + a x + ··· + a x = b . m1 1 m2 2 mn n m Assegnati i coefficienti ai j ∈ K e b j ∈ K (i = 1, . . . , m, j = 1, . . . , n), risolvere un sistema lineare significa determinare, se esistono, tutte le soluzioni, ovvero le n-uple (x1 , . . . , xn ) che verificano la (16). Definendo la matrice A come in (12) e i vettori colonna x1 b1 . . (17) b = .. , x = .. , xn bm il sistema (16) può essere riscritto in forma compatta come Ax = b. Per la struttura lineare di Mm,n (K) valgono banalmente le relazioni se A1 x = b1 e A2 x = b2 , allora (A1 + A2 )x = b1 + b2 , se Ax = b, allora (λA)x = λb. 4.2 Determinante e sistemi lineari n × n Il determinante è un oggetto centrale nello studio di matrici e nella risoluzione di sistemi lineari. Per introdurlo, procederemo ricorsivamente a partire dai casi più semplici. Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Appendice - Elementi di algebra lineare 4.2.1 24 Sistemi lineari 2 × 2 Consideriamo il seguente sistema di due equazioni in due incognite: ( a11 x1 + a12 x2 = b1 a21 x1 + a22 x2 = b2 . Per risolverlo moltiplichiamo la prima equazione per a22 , la seconda per −a12 e sottraiamo: si ottiene (a11 a22 − a21 a12 )x1 = a22 b1 − a12 b2 ; procedendo in modo analogo si ottiene: (a12 a21 − a22 a11 )x2 = a21 b1 − a11 b2 . Quindi, se la quantità det2 A := a11 a22 − a12 a21 (18) è deiversa da zero, allora il sistema ammette un’unica soluzione, data da x1 = a22 b1 − a12 b2 a11 b2 − a21 b1 , x2 = . det2 A det2 A La funzione det2 : M2,2 (K) → K definita dalla (18) si chiama determinante (di una matrice di ordine 2). Nel seguito ometteremo di specificare l’indice ove esso risulti chiaro dal contesto. Facciamo alcune osservazioni, che in seguito generalizzeremo al caso di matrici quadrate di ordine arbitrario. 1. Per interpretare geometricamente la nozione di determinante, supponiamo K = R e notiamo che le soluzioni del sistema sono l’intersezione, nel piano cartesiano (x1 , x2 ), delle due rette di equazione a11 x1 + a12 x2 = b1 e a21 x1 + a22 x2 = b2 . Le due rette sono ortogonali rispettivamente ai vettori n1 = (a11 , a12 ) e n2 = (a21 , a22 ) (si veda il paragrafo 1.6) e il determinante di A coincide con il prodotto vettoriale di n1 e n2 : n1 ∧ n2 = a11 a22 − a12 a21 = det A. Perciò il modulo del determinante di una matrice quadrata A di ordine 2 rappresenta l’area del parallelogramma individuato dai vettori riga di A e la condizione det A = 0 equivale a richiedere che i due vettori non siano paralleli. 2. Se det A , 0, la soluzione si può anche riscrivere come x1 = det A1 , det A x2 = det A2 , det A (19) dove Ai è la matrice che si ottiene sostituendo all’i-esimo vettore colonna di A il vettore b = (b1 , b2 )T : ! ! b1 a12 a11 b1 , . b2 a22 a21 b2 3. Ritornando all’Esempio 27, la condizione necessaria e sufficiente affinché A sia invertibile è che det A , 0: ! ! 1 a11 a12 a22 −a12 −1 A= , det A , 0 ⇒ A = . (20) a21 a22 det A −a21 a22 Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Appendice - Elementi di algebra lineare 4.2.2 25 Sistemi lineari 3 × 3 Per risolvere un generico sistema di tre equazioni in tre incognite, a x + a12 x2 + a13 x3 = b1 11 1 a21 x1 + a22 x2 + a23 x3 = b2 a x +a x +a x =b 31 1 32 2 33 3 3 si può procedere in modo analogo, anche se i conti sono più laboriosi. Svolgendoli, risulta che condizione necessaria e sufficiente affinché esista un’unica soluzione è che la quantità det3 A := a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 − a12 a21 a33 − a11 a23 a32 (21) sia diversa da zero, e in tal caso la soluzione è data da xi = det3 Ai , det3 A (22) dove Ai è la matrice che si ottiene sostituendo all’i-esimo vettore colonna di A il vettore b = (b1 , b2 , b3 )T . Si osservi che la definizione (21) può essere riscritta come segue: det3 A = a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 ) + a13 (a21 a32 − a22 a31 ) = a11 det2 M11 − a12 det2 M12 + a13 det2 M13 , (23) dove Mi j è la matrice quadrata di ordine 2 che si ottiene eliminando da M l’i-esima riga e la j-esima colonna: in formule ! ! ! a22 a23 a21 a23 a21 a22 M11 = , M12 = , M13 = . a32 a33 a31 a33 a31 a32 La (23) si può a sua volta riscrivere in modo compatto come il prodotto misto dei vettori riga di A: det3 A = hr1 , r2 ∧ r3 i, ri = (ai1 , ai2 , ai3 ). Perciò, per quanto osservato nel paragrafo 1.5, il modulo del determinante di una matrice quadrata A di ordine 3 rappresenta il volume del parallelepipedo individuato dai tre vettori riga di A e la condizione det3 A , 0 (che garantisce l’esistenza di un’unica soluzione del sistema) è equivalente a richiedere che i tre vettori non siano complanari, ovvero che siano linearmente indipendenti. In tal caso i tre piani ai1 x1 + ai2 x2 + ai3 x3 = bi (i = 1, 2, 3) si intersecano in un unico punto, l’unica soluzione del sistema. Osservazione . Utilizzando la (23) possiamo dare, come annunciato nel paragrafo 1.4, un’espressione formale equivalente del prodotto vettoriale v ∧ w: e1 e2 e3 v ∧ w = det v1 v2 v3 w1 w2 w3 convenendo di sviluppare il determinante rispetto alla prima riga. L’uguaglianza (23) è alla base della definizione ricorsiva di determinante che stiamo per dare. Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Determinante prodotto vettoriale e Appendice - Elementi di algebra lineare 4.2.3 26 Il caso generale Alla nozione di determinante premettiamo quella di matrice complementare: Definizione 10. Sia A = {ai j } ∈ Mn,n (K). Si dice matrice complementare di ai j , e si indica con Mi j , la matrice quadrata di ordine n − 1 ottenuta cancellando l’i-esima riga e la j-esima colonna di A, ovvero a11 .. . a(i−1)1 Mi j = a(i+1)1 .. . an1 ... a1( j−1) .. . a1( j+1) .. . ... a1n .. . ... ... a(i−1)( j−1) a(i+1)( j−1) .. . a(i−1)( j+1 a(i+1)( j+1) .. . ... ... a(i−1)n a(i+1)n .. . a( j−1)n a( j+1)n ann . (24) Siamo ora in grado di fornire la definizione (ricorsiva) di determinante: Definizione 11. (i) Se A ∈ M1,1 (K), si dice determinante di A il numero det A = det1 A = a11 ; (ii) se A ∈ Mn,n (K) con n ≥ 2, si dice determinante di A il numero det A = detn A = n X (−1)1+ j a1 j detn−1 M1 j . (25) j=1 Il lettore verifichi che la definizione appena data è coerente con la (18) e con la (23). Si chiama complemento algebrico di ai j , e si indica con Ai j , il valore Ai j = (−1)i+ j det Mi j . (26) In tal modo la (25) si può anche riscrivere come det A = n X a1 j A1 j . j=1 Nella formula (25) che definisce il determinante si è scelto di considerare i complementi algebrici degli elementi della prima riga, ovvero di sviluppare il determinante rispetto alla prima riga; il prossimo risultato mostra che la definizione di determinante è indipendente da tale scelta e che si possono anche considerare i complementi algebrici di una colonna: Teorema 9 (di Laplace). Sia A ∈ Mn,n (K). Allora per ogni k = 1, . . . , n si ha det A = n X ak j Ak j = n X j=1 aik Aik . i=1 Esempio 28. Si vuole calcolare il determinante della matrice 1 −2 0 2 0 0 A = 13 −π 1 3 2 0 1 2 9 1 . Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Appendice - Elementi di algebra lineare 27 Conviene dare prima un’occhiata alla struttura della matrice. Si vede subito che la terza colonna è l’unica (tra righe e colonne) dove compaiono 3 coefficienti nulli; perciò conviene utilizzarla per sviluppare il determinante: 1 −2 1 4 X 3+3 ai3 Ai3 = a33 (−1) det M33 = det M33 , M33 = 2 0 2 . det A = i=1 3 2 1 Per completare il calcolo sviluppiamo M33 rispetto alla seconda riga: ! ! 1 3 −2 1 + 0(−1)2+2 det + 2(−1)3+2 det det A = 2(−1)2+1 det 3 1 2 1 1 3 −2 2 ! = −2(−2 − 2) − 2(2 + 6) = 8 − 16 = −8. Valgono inoltre le seguenti proprietà, che si possono dimostrare per induzione e di cui in effetti il Teorema di Laplace è conseguenza: (i) (alternanza per colonne) il valore del determinante cambia segno se si scambiano tra loro due colonne (anche non consecutive): det . . . | vi | . . . | v j | . . . = − det . . . | v j | . . . | vi | . . . ; (ii) (multilinearità per colonne) il determinante è una funzione lineare di ciascun vettore colonna: det (. . . | λv + µw | . . . ) = λ det (. . . | v | . . . ) + µ det (. . . | w | . . . ) ; in particolare detn (λA) = λn detn A per ogni λ ∈ K, A ∈ Mn,n (K); (iii) (Teorema di Binet) se A e B sono due matrici quadrate dello stesso ordine, allora det(AB) = (det A)(det B); (iv) (invarianza per trasposizione) det AT = det A; (v) (alternanza e multilinearità per righe) il determinante cambia segno se si scambiano tra loro due righe ed è una funzione lineare di ciascuna riga. La proprietà (v) è una conseguanza immediata di (i) e (ii), utilizzando la (iv). Esempio 29. Si vuole calcolare il determinante della matrice 0 1 1 1 0 2 2 1 . A = 9 3 2 7 1 1 1 5 Osservando che la seconda e terza colonna coincidono a meno del terzo elemento, scriviamo utilizzando la (ii): 0 0 1 1 0 1 1 1 0 0 2 1 0 2 2 1 . + det det A = det 9 1 2 7 9 2 2 7 1 0 1 5 1 1 1 5 | {z } | {z } =:A0 =:A00 Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Appendice - Elementi di algebra lineare La matrice A0 ha due colonne uguali. dole, si ha quindi det = − det 28 Utilizzando la proprietà di alternanza e scambian0 0 9 1 1 2 2 1 1 2 2 1 1 1 7 5 = − det A0 , perciò det A0 = 0 (questa proprietà di cancellazione è in effetti un caso particolare del Teorema 10, che vedremo subito dopo). Per quanto riguarda A00 , sviluppando rispetto alla seconda colonna (e successivamente rispetto alla prima) si ottiene ! 0 1 1 1 1 00 det A = − det 0 2 1 = − det = 1. 2 1 1 1 5 Riprendiamo ora le osservazioni che abbiamo fatto nei casi particolari n = 2, 3. Anzitutto, per interpretare geometricamente il determinante ci siamo basati sul fatto che det A = 0 se e solo se due vettori riga sono linearmente dipendenti. Questa proprietà continua a valere (anche per i vettori colonna) in generale: Teorema 10. Sia A una matrice quadrata di ordine n. Allora le seguenti tre affermazioni sono equivalenti: (i) det A = 0; (ii) i vettori riga sono linearmente dipendenti; (iii) i vettori colonna sono linearmente dipendenti. In particolare, questo risultato generalizza quanto osservato nell’esempio precedente: se due righe o due colonne di una matrice sono una multipla dell’altra, in particolare se sono uguali, allora il determinante è nullo. Si noti che il teorema afferma equivalentemente che det A , 0 se e solo se i vettori riga (colonna) sono linearmente indipendenti. Esempio 30. Per mostrare che i vettori v1 = (0, 1, 1, 1), v2 = (0, 2, 2, 1), v3 = (9, 3, 2, 7), v4 = (1, 1, 1, 5) costituiscono una base di R4 , è sufficiente costruire la matrice che ha i quattro vettori come righe e verificare che il determinante è diverso da zero (si veda l’esempio precedente). L’invertibilità di A e la risolubilità del sistema Ax = b sono questioni strettamente connesse: se A è invertibile, allora moltiplicando Ax = b a sinistra per A si ottiene x = A−1 b, ovvero per ogni b il sistema ammette un’unica soluzione. Nel caso n = 2 e n = 3 si è anche osservato che entrambe le questioni sono collegate con il determinante di A. In effetti, per l’invertibilità di A vale la stessa condizione del caso n = 2: Teorema 11 (invertibilità di matrici quadrate). Sia A una matrice quadrata di ordine n. Allora A è invertibile se e solo se det A , 0 e in tal caso ) ( A ji , A−1 = det A dove A ji è il complemento algebrico di a ji (si veda la (26)). Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Appendice - Elementi di algebra lineare 29 Si noti l’inversione di indice: l’elemento a0i j della matrice A−1 è il complemento algebrico dell’elemento a ji . Il lettore controlli che il teorema generalizza la (20). Applicando la proprietà (iii) risulta che se det A , 0 allora det(A−1 ) = (det A)−1 . Esempio 31. Si vuole calcolare la matrice inversa della matrice 2 −1 0 0 0 1 . 1 3 0 Calcoliamone anzitutto il determinante sviluppando rispetto alla seconda riga: ! 2 −1 det A = − det = −7. 1 3 Calcoliamo ora i complementi algebrici: ! 0 1 A11 = det = −3, A12 = − det 3 0 ! −1 0 = 0, A22 = det A21 = − det 3 0 ! −1 0 A31 = det = −1, A32 = − det 0 1 In conclusione A−1 0 1 1 0 2 1 2 0 ! = 1, A13 = det 0 0 1 3 ! = 0, ! ! 2 −1 0 = −7, = 0, A23 = − det 1 3 0 ! ! 0 2 −1 = −2, A33 = = 0. 1 0 0 3 0 1 1 = −1 0 2 . 7 0 7 0 Invitiamo il lettore a verificare che det A−1 = −1/7 e che AA−1 = I3 . Se la matrice è invertibile, per ogni b ∈ Kn il sistema Ax = b ammette un’unica soluzione, x = A−1 b, ovvero 1 X A ji b j , det A j=1 n xi = i = 1, . . . , n. Al secondo membro si riconosce il determinante della matrice che si ottiene sostituendo all’i-esima colonna di A il vettore b (si veda il Teorema di Laplace). Perciò vale il seguente corollario: Teorema 12 (regola di Cramer). Sia A ∈ Mn,n (K). Se det A , 0 allora per ogni b ∈ Kn esiste un unico x ∈ Kn tale che Ax = b; inoltre xi = det Ai , det A i = 1, . . . , n, dove Ai è la matrice che si ottiene sostituendo l’i-esima colonna di A con il vettore b. Si ritrovano cosı̀ le formule (19) e (22) ottenute nei casi particolari n = 2 e n = 3. Il metodo risolutivo che abbiamo illustrato è utile a livello teorico e semplice da implementare. Avvertiamo però che esistono altri metodi risolutivi, meno costosi a livello Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Appendice - Elementi di algebra lineare 30 computazionale nel senso che riducono il numero di operazioni da compiere. Nel caso si abbia a che fare con sistemi di ordine elevato, che necessitano di essere risolti da calcolatori elettronici, il numero di operazioni da compiere (e quindi il numero di arrotondamenti) è uno degli aspetti più importanti; non è comunque il solo: per esempio, è importante costruire algoritmi che evitino il più possibile divisioni per quantità “piccole”, oppure che siano particolarmente efficienti per certi tipi di matrice. Di tutte queste questioni, in cui non possiamo entrare in questo contesto, si occupa non solo l’algebra lineare ma anche l’analisi numerica. 4.3 Rango di una matrice; sistemi lineari m × n In termini di applicazioni lineari, il Teorema 12 può essere riformulato dicendo che se A è una matrice quadrata di ordine n con det A , 0, allora l’applicazione lineare associata ad A rispetto alle basi canoniche di Rn , LA : Rn → Rn , LA (x) = Ax, è un isomorfismo, ovvero im LA = Rn e Ker LA = 0. In questo paragrafo affrontiamo contemporaneamente due questioni ulteriori: • cosa accade se det A = 0 ? • cosa accade se la matrice non è quadrata ? Se per esempio A è quadrata e ha ordine due, interpretando ciascuna delle due equazioni che compongono il sistema Ax = b come l’equazione di una retta si possono descrivere le varie situazioni possibili: le due rette non sono parallele (ovvero det A , 0, nel qual caso il sistema ha un’unica soluzione, un sottospazio vettoriale di dimensione 0); le due rette sono parallele e distinte, nel qual caso il sistema non ha soluzione; le due rette coincidono, nel qual caso ogni punto di tale retta è soluzione (lo spazio delle soluzioni è allora un sottospazio vettoriale di R2 di dimensione 1). Se n = 3 si può dare una analoga, anche se meno immediata, classificazione basata su argomenti geometrici. In generale, comunque, la risposta è legata al concetto di rango o caratteristica: Definizione 12. Sia A ∈ Mm,n (K). (i) Una matrice quadrata M di ordine `, ` ≤ min{m, n}, si dice sottomatrice di A di ordine ` se si può ottenere da A cancellando m − ` righe e n − ` colonne. (ii) Si dice rango o caratteristica di A, e si indica con Rango (A), il più grande intero ` per il quale esiste una sottomatrice M di A di ordine ` con determinante di verso da zero. Le matrici complementari Mi j di un elemento ai j di una matrice quadrata A (si veda la (24)) sono sottomatrici di A di ordine n − 1. Esempio 32. La matrice 1 1 0 0 1 0 1 0 0 ha rango due. Infatti det A = 0, mentre la matrice ottenuta cancellando (per esempio) la seconda riga e la terza colonna ha determinante diverso da zero. Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Appendice - Elementi di algebra lineare 31 È chiaro che determinare il rango di una matrice può essere piuttosto laborioso se la matrice ha un numero elevato di righe e colonne; il seguente risultato semplifica le cose: Teorema 13 (di Kronecker). Sia A ∈ Mm,n (K). Rango (A) = r se e solo se: (i) esiste una sottomatrice M di ordine r tale che det M , 0; (ii) ogni sottomatrice di ordine r + 1 che abbia M come sottomatrice ha determinante nullo. In altre parole non è necessario calcolare tutti i determinanti di ordine r + 1, ma solo quelli delle sottomatrici che si ottengono da M “orlandola” con una riga e una colonna scelte tra quelle cancellate. Esempio 33. La matrice 1 0 0 0 0 0 0 0 3 0 0 0 0 1 0 −1 0 0 3 0 0 0 0 0 1 ha rango 3. Infatti la sottomatrice M che si ottiene cancellando la seconda e terza riga e la seconda e quarta colonna ha determinante diverso da zero, mentre orlando M con la seconda o la terza riga (e una qualunque colonna) il determinante si annulla in quanto tali righe hanno tutti i coefficienti nulli. Il seguente risultato estende il Teorema 10 al caso di matrici non necessariamente quadrate: Teorema 14. Sia A ∈ Mm,n (K). Il rango di A coincide con il massimo numero di vettori riga tra loro linearmente indipendenti e con il massimo numero di vettori colonna tra loro lineramente indipendenti. Si noti che ogni vettore Ax, x ∈ Kn , è combinazione lineare dei vettori colonna vi = (a1i , . . . , ami )T di A: a1n a11 a11 x1 + · · · + a1n xn .. = x1 ... + · · · + xn ... = x1 v1 + . . . xn vn . Ax = . amn am1 am1 x1 + · · · + amn xn Perciò segue dal Teorema precedente che se LA : Rn → Rn è l’applicazione lineare associata ad A rispetto alle basi canoniche, allora Rango (A) = dim(im LA ). (27) Questa relazione consente di fornire una prima risposta alle domande da cui siamo partiti. Infatti, Il sistema Ax = b ammette una soluzione se e solo se b ∈ im (LA ), ovvero se e solo se b è generato dai vettori colonna di A. Perciò: Teorema 15 (di Rouché-Capelli). Sia A ∈ Mm,n (K) e b ∈ Km . Il sistema Ax = b ammette almeno una soluzione se e solo se il rango di A è uguale al rango della matrice che si ottiene aggiungendo ad A il vettore colonna b, ovvero se e solo se Rango (A) = Rango (A | b). (28) Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Appendice - Elementi di algebra lineare 32 Si noti che se il sistema è omogeneo la condizione (28) è automaticamente verificata: ciò corrisponde al fatto che il sistema omogeneo ammette sempre la soluzione nulla. Sia A ∈ Mm,n (K). Il Teorema di Rouché-Capelli fornisce una condizione necessaria e sufficiente per l’esistenza di almeno una soluzione del sistema Ax = b, ma non fornisce informazioni su “quante” esse siano. Per chiarire questo punto, consideriamo prima il sistema omogeneo Ax = 0 e indichiamo con K l’insieme delle soluzioni: K = {x ∈ Kn : Ax = 0}. (29) Si noti che K coincide con Ker LA , dove LA è l’applicazione lineare associata ad A rispetto alle basi canoniche di Kn . Perciò K è un sottospazio vettoriale di Kn ; inoltre segue subito dal Teorema delle dimensioni e dalla (27) che (9) (27) dim K = dim(Ker LA ) = n − dim(im LA ) = n − Rango (A). Se il sistema non è omogeneo e x0 è una soluzione, allora ogni altra soluzione è del tipo x0 + x con x ∈ Ker LA . Perciò, in generale vale il seguente risultato: Teorema 16 (soluzioni di sistemi m × n). Sia A ∈ Mm,n (K), b ∈ Km e supponiamo che il sistema Ax = b ammetta almeno una soluzione x0 . Allora le soluzioni del sistema sono tutte e sole del tipo x0 + x, x ∈ K, con K dato dalla (29). Le soluzioni di Ax = b formano un sottospazio vettoriale di Kn di dimensione n − Rango (A) = dim K. Lo schema operativo per risolvere un sistema Ax = b prende spunto dalla discussione teorica appena svolta: (i) si verifica mediante il Teorema di Rouché-Capelli che il sistema sia risolubile; se lo è, allora: (ii) si determina il rango r di A e si identifica una sottomatrice quadrata M di ordine r con determinante diverso da zero, ottenuta mantenendo le righe i1 , . . . , ir e le colonne j1 , . . . , jr e cancellando le rimanenti; (iii) si portano a secondo membro le colonne cancellate, definendo cosı̀ un nuovo vettore colonna b0 , e si determina l’unica soluzione del sistema Mx0 = b0 , dove x0 = (x j1 , . . . , x jr ). Le rimanenti componenti di x restano indeterminate e possono assumere valori arbitrari: sono n − r costanti libere che, variando, generano lo spazio delle soluzioni di dimensione n − r. Esempio 34. Si vuole risolvere il sistema 3 2 Ax = b := , dove A = 1 0 1 1 1 1 2 1 0 −1 0 −1 −2 −3 . Il terzo e il quarto vettore riga di A sono combinazione lineare dei primi due: il terzo si ottiene moltiplicando il secondo per 2 e sottraendo il primo, il quarto si ottiene moltiplicando per 3 il secondo e sottraendovi il doppio del primo. Perciò, per il Teorema 14 il Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Algoritmo risolutivo di sistemi m × n Appendice - Elementi di algebra lineare 33 rango di A è al più 2: in effetti Rango (A) = 2 poiché la sottomatrice costituita dalle prime due righe e colonne ha determinante diverso da zero. Con le stesse operazioni si ottiene che anche il terzo e quarto vettore riga della matrice (A | b) sono combinazione lineare dei primi due: perciò Rango (A) = Rango (A | b) = 2 e il sistema ammette almeno una soluzione. Per determinare le soluzioni, conviene considerare la sottomatrice che si ottiene cancellando la seconda e quarta riga e la prima colonna di A, poiché con questa scelta si ottiene una matrice diagonale; risulta quindi ! ! ! 1 1 2 0 x2 3 − x1 = ⇔ x2 = (3 − x1 ), x3 = (x1 − 1). 0 −2 x3 1 − x1 2 2 Perciò le soluzioni del sistema sono tutte e sole 1 (2x1 , 3 − x1 , x1 − 1), 2 5 x1 ∈ R. Autovalori e autovettori 5.1 Premessa Sia L una applicazione lineare da Kn in sé. Come si è visto nel paragrafo 3.1, la matrice che rappresenta L dipende dalla scelta della base di Kn (in verità si dovrebbe parlare, come abbiamo fatto sinora, di due basi, una per la copia di Kn che rappresenta il dominio e una per la copia di Kn che rappresenta l’immagine, ma nel seguito della discussione assumeremo sempre che esse coincidano). La questione centrale di questa sezione è: data una applicazione lineare L : Kn → Kn , esiste una base “privilegiata” B0 = {v01 , . . . , v0n } di Kn rispetto alla quale la rappresentazione A0 di L è una matrice diagonale? La richiesta che A0 sia diagonale, ovvero del tipo 0 A = {δi j λ j } = λ1 0 0 .. . λ2 .. . 0 ... ... .. . .. . 0 , 0 λn 0 .. . geometricamente equivale a richiedere che i vettori della base B0 non cambino direzione rispetto ad L: infatti, poiché ovviamente v0i = 0v01 + · · · + 0v0i−1 + 1v0i + 0v0i+1 + · · · + 0v0n = n X δi j v0j , j=1 risulta 0 A δi1 .. . δin δi1 λ1 . = .. δin λn = λi δi1 .. . δin , ovvero L(v0i ) = λi v0i . Iniziamo lo studio di questa questione descrivendo come cambia la rappresentazione di L al variare della base. Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Appendice - Elementi di algebra lineare 5.2 34 Cambiamenti di base; matrici diagonalizzabili Sia B0 = {v01 , . . . , v0n } una qualunque base di Kn di elementi v0j = (c1 j , . . . , cn j )T , j = 1, . . . , n (30) e sia C la matrice che ha come vettori colonna gli elementi della base: C = v01 | . . . | v0n . (31) Un qualunque vettore x = (x1 , . . . , xn )T ∈ Kn si scrive in modo unico come combinazione lineare di elementi di B0 : x = x10 v01 + . . . xn0 v0n . Utilizzando la (30), risulta quindi n T n X X x = x0j c1 j , . . . , x0j cn j = Cx0 . j=1 j=1 Poiché i vettori v01 , . . . , v0n sono linearmente indipendenti, le n colonne della matrice C sono linearmente indipendenti: perciò, per il Teorema 10 det C , 0, ovvero (per il Teorema 11) C è invertibile. Si ha quindi x0 = C −1 x. Riassumendo, x = x1 e1 + . . . xn en = x10 v01 + . . . xn0 v0n ⇔ x = Cx0 e x0 = C −1 x, (32) con C definita dalle (30) e (31). Viceversa, come sappiamo, i vettori colonna di ogni matrice quadrata C di ordine n con determinante diverso da 0 costituiscono una base di Kn e vale la (32). Definiamo quindi matrice di passaggio una qualunque matrice quadrata di ordine n con determinante diverso da zero. La caratterizzazione dei cambiamenti di base appena ottenuta consente di determinare la rappresentazione A0 di una applicazione lineare L rispetto a una generica base B0 a partire dalla sua rappresentazione A rispetto alla base canonica: se rispetto alla base canonica si ha y = L(x) = Ax, allora le componenti y0 di y nella base B0 sono date da y0 = C −1 y = C −1 Ax = C −1 ACx0 ; quindi L = LA rispetto alla base canonica ⇔ L = LA0 rispetto alla base B0 , con A0 = C −1 AC. Perciò la domanda con cui abbiamo iniziato questa sezione equivale a caratterizzare le matrici diagonalizzabili: Definizione 13. Una matrice A ∈ Mn,n (K) si dice diagonalizzabile su K se esiste una matrice di passaggio C tale che la matrice A0 = C −1 AC sia diagonale. In tal caso la matrice A0 si dice diagonalizzazione di A. Nel resto della sezione, quindi, ci occuperemo di caratterizzare le matrici diagonalizzabili. Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Appendice - Elementi di algebra lineare 5.3 35 Autovalori e autovettori Sia A una matrice diagonalizzabile e sia A0 = {δi j λ j } la sua diagonalizzazione. Detta L = LA l’applicazione lineare associata ad A rispetto alla base canonica, come abbiamo osservato nel paragrafo 5.1 risulta L(v0i ) = Av0i = λi v0i . I vettori e i coefficienti che verificano questa proprietà si chiamano autovettori e autovalori di A: Definizione 14. Sia A una matrice quadrata di ordine n. Un vettore v0 , 0 si dice autovettore di A se esiste λ ∈ K, detto autovalore di A, tale che Av0 = λv0 . Si noti che ad ogni autovettore è associato un unico autovalore (se infatti Av0 = λ1 v0 = λ2 v allora 0 = (λ1 − λ2 )v0 da cui λ1 = λ2 ). Invece ad un autovalore λ sono associati più autovettori: 0 Proposizione 17. Sia λ ∈ K un autovalore di A e sia v0 un autovettore associato a λ (ovvero Av0 = λv0 ). Allora (i) µv0 è un autovettore di A per ogni µ ∈ K \ {0}; (ii) se w0 è un autovettore associato a λ, allora v0 + w0 è un autovettore associato a λ. Perciò l’insieme Aλ = {v0 ∈ Kn : Av0 = λv0 } ∪ {0} è un sottospazio vettoriale di Kn detto autospazio associato a λ. La verifica delle due proprietà è immediata e l’ultima affermazione segue banalmente da esse. Il ragionamento svolto nel paragrafo 5.1 può anche essere invertito e conduce al seguente risultato: Teorema 18. Una matrice quadrata A è diagonalizzabile su K se e solo se esiste una base {v01 , . . . , v0n } di Kn formata da autovettori di A: Av0i = λi v0i per ogni i = 1, . . . , n. In tal caso, posto C = (v01 | . . . | v0n ), la matrice A0 = C −1 AC ha sulla diagonale gli autovalori associati agli elementi della base, ovvero A0 = {δi j λ j }. Determinare gli autovalori di A equivale, per definizione, a determinare quei valori λ ∈ K tali che il sistema lineare omogeneo (A − λI)x = 0 abbia soluzioni non banali, ovvero (ricordando il Teorema 16) che det(A − λI) = 0. (33) L’equazione 33 corrisponde a un polinomio di grado n in λ, detto polinomio caratteristico. Come è naturale aspettarsi, il polinomio caratteristico è invariante rispetto a cambiamenti di coordinate: se C è una matrice di passaggio, allora dal Teorema di Binet segue che det(C −1 AC − λI) = det(C −1 AC − λC −1 IC) = det(C −1 (A − λI)C) = det(A − λI). (34) In particolare, gli autovalori dipendono solo dalla applicazione lineare e non dalla sua rappresentazione rispetto a una certa base. Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Appendice - Elementi di algebra lineare 36 Esempio 35. La matrice 0 1 1 0 ! è diagonalizzabile su R. Per provarlo, osserviamo che le soluzioni del polinomio caratteristico ! −λ 1 = λ2 − 1 = 0 det 1 −λ sono λ = 1 e λ = −1. Per determinare un autovettore v1 = (x, y) associato a λ = 1, risolviamo il relativo sistema: ! ! −1 1 x = 0 ⇔ y = x, x ∈ R, 1 −1 y perciò un autovettore associato a λ = 1 è ad esempio v1 = (1, 1). Procedendo allo stesso modo, risulta che un autovettore associato a λ2 = −1 è v2 = (1, −1). Poiché i due vettori sono linearmente indipendenti (ovvero la matrice di passaggio C = (v1 | v2 ) ha determinante non nullo) la matrice è diagonalizzabile su R e ! 1 0 A0 = C −1 AC = . 0 −1 Esempio 36. La matrice 0 1 −1 0 ! non è diagonalizzabile su R ma è diagonalizzabile su C. Per provarlo, osserviamo che le soluzioni del polinomio caratteristico ! −λ 1 = λ2 + 1 = 0 det −1 −λ sono λ = i e λ = −i. Perciò la matrice non ha autovalori in R, quindi non è diagonalizzabile su R. Su C, procedendo come nell’esempio precedente si determinano due autovettori: v1 = (1, i) associato a λ = i e v2 = (1, −i) associato a λ = −i. Poiché ! 1 1 det C = det = −2i , 0, i −i i due vettori formano una base di C2 e perciò A è diagonalizzabile su C. 5.4 Diagonalizzabilità Nei due esempi precedenti, gli autovettori associati a due autovalori distinti sono risultati essere linearmente indipendenti. Questa proprietà è vera in generale: Lemma 19. Siano λ1 , . . . , λk autovalori di A e sia vi un autovettore associato a λi . Se λ1 , . . . , λk sono tra loro distinti, allora v1 , . . . , vk sono tra loro linearmente indipendenti. Possiamo perciò fornire una prima risposta alla domanda centrale della sezione: Teorema 20. Sia A ∈ Mn,n (K). Se A ha n autovalori reali e distinti, allora è diagonalizzabile su R. Se A ha n autovalori distinti (ma non necessariamente reali) in C, allora è diagonalizzabile su C. Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Appendice - Elementi di algebra lineare 37 Nel resto del paragrafo ci occupiamo del caso più generale in cui gli autovalori non siano necessariamente distinti tra loro. Sia λ ∈ K un autovalore di A: • si dice molteplicità algebrica di λ la sua molteplicità come soluzione del polinomio caratteristico; • si dice molteplicità geometrica di λ la dimensione dell’autospazio associato a λ. Le due quantità possono non coincidere: Esempio 37. Il polinomio caratteristico della matrice ! 1 1 A= 0 1 è (1 − λ)2 = 0. Perciò A ha un unico autovalore, λ = 1, con molteplicità algebrica 2. Determiniamo gli autovettori (x, y) associati a λ = 1 risolvendo il relativo sistema: ! x (A − I) =0⇔y=0 y . Perciò l’autospazio associato a λ = 1 è A1 = {(x, 0) : x ∈ K} = spam{e1 } e ha dimensione 1. Quindi la molteplicità geometrica di λ = 1 è uguale a 1. Si noti che, poiché v = e1 è l’unico autovettore di A, A non è diagonalizzabile né in R né in C. La situazione incontrata dall’esempio precedente è generale: Teorema 21. Sia A ∈ Mn,n (K) e sia λ ∈ K un autovalore di A. La molteplicità geometrica dim Aλ di λ non supera la molteplicità algebrica mλ di λ, ovvero dim Aλ ≤ αλ . Se la somma delle dimensioni degli autospazi è pari ad n, allora esistono n autovettori linearmente indipendenti. Si ottiene cosı̀ una caratterizzazione (più teorica che operativa) delle matrici diagonalizzabili: Teorema 22. Supponiamo che A ∈ Mn,n (K) abbia ` autovalori distinti λ1 , . . . , λ` . Allora A è diagonalizzabile ⇔ X̀ dim(Aλk ) = n. k=1 5.5 Teorema spettrale: il caso reale Il teorema precedente è chiaramente non semplice da verificare soprattutto se l’ordine della matrice è alto. Il Teorema spettrale reale, di grande importanza, fornisce una condizione sufficiente per la diagonalizzabilità di una matrice A a coefficienti reali. Tale condizione è molto semplice: basta che A sia simmetrica, ovvero che AT = A. Teorema 23 (Teorema spettrale (caso reale)). Sia A ∈ Mn,n (R) simmetrica. Allora: (i) tutti gli autovalori di A sono reali; (ii) A è diagonalizzabile su R e la matrice di passaggio C è una matrice ortogonale, ovvero C T = C −1 . Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Appendice - Elementi di algebra lineare 38 Esempio 38. Nel caso di matrici simmetriche!di ordine 2 possiamo facilmente verificare a b il teorema con calcoli diretti. Se A = , allora b d det(A − λI) = λ2 − (a + d)λ + b2 = 0 ⇔ λ = p 1 a + d ± (a − d)2 + 4b2 . 2 Perciò A possiede due autovalori reali, che sono distinti a meno che a = d e b = 0, ma in tal caso A = aI è già diagonale. Perciò è in ogni caso diagonalizzabile. 5.6 Teorema spettrale: il caso complesso Il teorema spettrale reale ha una estensione al caso complesso, per accennare alla quale è opportuno anzitutto generalizzare la nozione di prodotto scalare al campo complesso; tale nozione è detta anche prodotto hermitiano: dati x, y ∈ Cn , si definisce hx, yi = n X xi yi . i=1 Si noti che il prodotto hermitiano coincide con il prodotto scalare se x, y ∈ Rn , e che hx, xi è un numero reale non negativo, che si annulla√ se e solo se x = 0 (ciò consente di dare una struttura metrica a Cn con la norma kxk = hx, xi). Il prodotto hermitiano è distributivo e omogeneo ma, contrariamente al prodotto scalare su R, non è commutativo: si ha infatti hx, yi = hy, xi. Abbiamo visto nell’Esempio 21 che se x, z ∈ Rn e A ∈ Mn,n (R), allora hz, Axi = hA z, xi. Per ottenere una formula analoga nel caso del prodotto hermitiano servono alcune nozioni. Si dice trasposta coniugata di una matrice A ∈ Mm,n (C), e si indica con AH , la matrice T AH = {a ji }. Per esempio, A= i 1−i 0 −3i ! H ⇒ A = −i 0 1+i 3i ! . Una matrice quadrata A ∈ Mn,n (C) si dice hermitiana se AH = A. Tali nozioni estendono quelle reali di matrice trasposta, nel senso che se A ∈ Mm,n (R) allora AH = AT , e di matrice simmetrica, nel senso che se A ∈ Mn,n (R), allora è hermitiana se e solo se è simmetrica. Si ha, come annunciato, hz, Axi = hAH z, xi ∀x, z ∈ Cn , ∀A ∈ Mn,n (C). Siamo ora in grado di enunciare il seguente risultato: Teorema 24 (Teorema spettrale (caso complesso)). Sia A ∈ Mn,n (C) hermitiana. Allora: (i) tutti gli autovalori di A sono reali; (ii) A è diagonalizzabile su C e la matrice di passaggio C è una matrice unitaria, ovvero C H = C −1 . Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Appendice - Elementi di algebra lineare 39 Forme quadratiche in Rn 5.7 Ad ogni matrice simmetrica di ordine n è associata una forma quadratica in Rn , ovvero una applicazione lineare Q : Rn × Rn → R definita da Q(v) = hAv, vi = vT Av. (35) Una forma quadratica si dice: • definita positiva se Q(v) > 0 per ogni v ∈ Rn \ {0}; • definita negativa se Q(v) < 0 per ogni v ∈ Rn \ {0}; • semi-definita positiva se Q(v) ≥ 0 per ogni v ∈ Rn ; • semi-definita negativa se Q(v) ≤ 0 per ogni v ∈ Rn . Per il Teorema spettrale reale A è diagonalizzabile, ovvero esiste una matrice di passaggio ortogonale, C, tale che λ1 0 . . . 0 .. .. 0 λ . . 2 0 T , A = C AC = . .. . . . . . . 0 0 ... 0 λn dove λ1 , . . . , λn ∈ R sono gli autovalori di A. Effettuando il cambiamento di base e ricordando che x0 = C −1 x = C T x, possiamo rappresentare Q rispetto alla base di autovettori: Q(v) = vT CC −1 ACC −1 v = (C T v)T C T ACv0 = (v0 )T A0 v0 . (36) Da questa relazione segue immediatamente la seguente caratterizzazione: Teorema 25. Sia A una matrice simmetrica. La forma quadratica (35) è (semi-)definita positiva se e solo se il più piccolo autovalore di A è positivo (non-negativo) ed è (semi)definita negativa se e solo se il più grande autovalore di A è negativo (non positivo). Nel caso di matrici quadrate di ordine due è semplice riformulare il risultato esplicitamente in termini dei coefficienti di A. Sia ! a b A= b d Segue dall’Esempio 38 che p p 1 1 λ1 = a + d + (a − d)2 + 4b2 ≥ a + d − (a − d)2 + 4b2 = λ2 . 2 2 Si ha (≥) (≥) (≥) a+d > 0 a+d > 0 ⇔ λ2 > 0 ⇔ ad − b2 = det A (≥) (a + d)2 (≥) > 0 > (a − d)2 + 4b2 Perciò (≥) det A > 0 A è (semi-)definita positiva ⇔ (≥) a (≥) > 0 oppure d > 0. Procedendo allo stesso modo risulta (≥) det A > 0 A è (semi-)definita negativa ⇔ (≤) a (≤) < 0 oppure d < 0. Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Appendice - Elementi di algebra lineare 40 Indice analitico Addizione di vettori, 9 Applicazione lineare, 16 Applicazione lineare biettiva, 16 Applicazione lineare iniettiva, 16 Applicazione lineare suriettiva, 16 Autospazio, 35 Autovalore, 35 Autovettore, 35 Matrice identità, 22 Matrice inversa, 22 Matrice invertibile, 22 Matrice ortogonale, 37 Matrice quadrata, 17 Matrice simmetrica, 17 Matrice singolare, 22 Matrice trasposta, 17 Matrice trasposta coniugata, 38 Base canonica di Kn , 11 Matrice unitaria, 38 Base canonica di R3 , 4 Molteplicità algebrica di un autovalore, 37 Base canonica di Mm,n (K), 19 Molteplicità geometrica di un autovalore, Base di uno spazio vettoriale, 10 37 Base ortonormale, 15 Moltiplicazione di un vettore per uno scalare, 3 Caratteristica di una matrice, 30 Moltiplicazione di una matrice per uno scalare, Combinazione lineare di vettori, 10 18 Complemento algebrico, 26 Moltiplicazione per uno scalare, 9 Componenti di un vettore rispetto a una base, Moltiplicazione per uno scalare di applicazioni 10 lineari, 16 Determinante, 26 Dimensione di uno spazio vettoriale, 11 Direzione di un vettore, 2 Distanza, 13 Distanza con segno, 2 Distanza euclidea, 14 Distanza indotta da un prodotto scalare, 14 Distanza indotta da una norma, 13 Disuguaglianza di Cauchy-Schwartz, 14 Disuguaglianza triangolare, 14 Norma, 13 Norma euclidea, 13, 14 Norma indotta da un prodotto scalare, 14 Nucleo, 16 Immagine, 16 Isomorfismo, 16 Rango di una matrice, 30 Rappresentazione cartesiana, 2 Regola di Cramer, 29 Retta, 6 Rotazione nel piano, 20 Ordine di una matrice, 17 Piano, 6 Polinomio caratteristico, 35 Prodotto hermitiano, 38 Prodotto misto, 8 Forma quadratica (semi-)definita positiva (neg-Prodotto righe per colonne, 21 ativa), 39 Prodotto scalare, 5, 14, 38 Forma quadratica in Rn , 39 Prodotto vettoriale, 7, 25 Formula di Grassmann, 12 Proiezione, 16 Lunghezza di un vettore, 2 Matrice, 17 Matrice complementare, 26 Matrice di passaggio, 34 Matrice diagonale, 17 Matrice diagonalizzabile, 34 Matrice hermitiana, 38 Sistema di generatori di uno spazio vettoriale, 10 Sistema lineare, 23 Sistema lineare, soluzioni, 23 Somma di applicazioni lineari, 16 Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l. Appendice - Elementi di algebra lineare 41 Somma di matrici, 18 Somma di spazi vettoriali, 12 Somma di vettori, 3 Somma diretta di spazi vettoriali, 12 Sottomatrice, 30 Sottospazio vettoriale, 12 Spazi vettoriali isomorfi, 16 Spazio vettoriale, 9 Spazio vettoriale dotato di prodotto scalare, 14 Teorema di Binet, 27 Teorema di Kronecker, 31 Teorema di Laplace, 26 Teorema di Rouché-Capelli, 31 Teorema spettrale (caso complesso), 38 Teorema spettrale (caso reale), 37 Verso di un vettore, 2 Versore, 2 Vettore colonna, 17 Vettore colonna di una matrice, 18 Vettore geometrico, 2 Vettore riga, 17 Vettore riga di una matrice, 18 Vettori linearmente indipendenti, 10 Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli c Copyright 2007 The McGraw-Hill Companies S.r.l.