Corso di Laurea Scienze dei Nuovi Media e della Comunicazione Appunti di Algebra Lineare CAPITOLO 1 Introduzione In questo capitolo vogliamo iniziare il corso accennando ad alcuni argomenti che verranno affrontati dettagliatamente nei capitoli seguenti. A questo scopo introdurremo le notazioni e alcuni concetti che saranno usati per tutto il corso. Il nostro approccio sarà elementare e faremo appello all’intuizione del lettore, che, nel caso ritenga utile una maggior precisione, può far riferimento al libro di testo consigliato: M. Abate, Algebra lineare, McGraw-Hill, 2000. 1.1. Numeri interi, razionali e reali Con il termine algebra si intende il calcolo, e metodi di calcolo, di numeri naturali, interi, razionali, reali e complessi. Il primo concetto basilare è quello di insieme, che intuitivamente è una collezione di elementi descritti da una qualche proprietà. Per esempio l’insieme dei miei vestiti blu è formato dai vestiti che possiedo nel mio armadio e che sono di colore blu. Osserviamo che il numero di elementi di un insieme può essere finito (come i miei vestiti blu) o infinito (come gli insiemi di numeri su cui lavoriamo). L’insieme dei numeri naturali, che si indica con N, è formato dai numeri che si possono contare: 0, 1, 2, 3, 4, 5, . . . Un numero naturale n può essere considerato come la proprietà che hanno in comune tutti gli insiemi con lo stesso numero n di elementi. In particolare c’è un unico insieme con zero elementi, l’insieme vuoto, che si indica con ∅. I numeri interi, il cui insieme è denotato con Z, sono i numeri naturali e i loro opposti: 0, 1, −1, 2, −2, 3, −3, 4, −4, . . . I numeri naturali e interi si possono sommare e moltiplicare. Si può fare la differenza di due numeri interi, ma non in generale di due numeri naturali: per esempio 1 − 2 è l’intero −1 che non è un numero naturale. Lo stesso problema si presenta con i numeri interi per la divisione: il numero 1 1:2= 2 non è intero. Si introducono allora i numeri razionali, il cui insieme di denota con Q, che è formato dai quozienti di due numeri interi (con denominatore diverso da zero). 3 1.1. NUMERI INTERI, RAZIONALI E REALI 4 Prima di scrivere la definizione rigorosa di numero razionale, ricordiamo che in insiemistica si usano di solito i simboli di appartenenza ∈ e di sottoinsieme ⊂. Per esempio il fatto che l’insieme dei numeri naturali è sottoinsieme dei numeri interi (cioè ogni numero naturale è anche un intero), che a sua volta è sottoinsieme dei numeri razionali, si scrive: N ⊂ Z ⊂ Q. Il fatto che 1/2 non è un numero intero, ma è razionale, si scrive: 1 1 ∈ / Z, ∈ Q. 2 2 Definizione 1.1.1. L’insieme dei numeri razionali è ½ ¯ ¾ p ¯¯ Q= p, q ∈ Z, q > 0 , q ¯ dove possiamo supporre p e q primi tra loro, cioè senza divisori comuni. Si può supporre q > 0, perché se fosse q < 0, allora si potrebbe moltiplicare numeratore e denominatore per −1, ottenendo cosı̀ una frazione con denominatore positivo. Per esempio: 2 (−1) · 2 −2 2 = = =− . −5 (−1) · (−5) 5 5 Con i numeri razionali si può fare la divisione (per un numero diverso da zero): p m p n pn : = · = q n q m qm dove il denominatore qm è diverso da zero, perché sia q che m sono diversi da zero. È conveniente rappresentare i numeri naturali, interi e razionali (e come vedremo anche quelli reali) su una retta: −7q −6q −5q −4q −3q −2q q−1q q 0q q 1q q 2q − 32 − 12 1 2 3q 4q 5q 6q 7q 3 2 Figura 1. Rappresentazione grafica dei numeri naturali, interi e razionali Ma anche i numeri razionali non sono sufficienti per misurare gli oggetti che troviamo in natura. Consideriamo per esempio la diagonale di un quadrato, come in figura 2. d ¡ ¡ ¡ ¡ ¡ Figura 2. La diagonale d di un quadrato Se il lato è lungo 1 cm, allora per il teorema di Pitagora la diagonale è: √ d = 2 = 0,4142 . . . cm, cioè d è un numero tale che d2 = 2. 1.1. NUMERI INTERI, RAZIONALI E REALI Proposizione 1.1.2. Il numero d = 5 √ 2 non è razionale. √ Dimostrazione. Supponiamo per assurdo che 2 = p/q, con p e q numeri interi primi tra loro. Elevando entrambi i membri al quadrato si ottiene: p2 , cioè p2 = 2q 2 . 2 q Ne segue che p deve essere un numero pari, quindi p = 2m, per un certo intero m. Sostituendo p con 2m nella formula precedente, si trova che: 2= p2 = 4m2 = 2q 2 , perciò 2m2 = q 2 . Ma allora anche q deve essere un numero pari, divisibile per 2, contraddicendo l’ipotesi che p e q non avessero fattori in comune. Abbiamo trovato cosı̀ una contraddizione, quindi l’ipotesi √ che 2 fosse un numero razionale non può essere vera. ¤ Si considerano allora anche i numeri reali, il cui insieme si indica con R, che si possono scrivere come numeri interi seguiti, dopo la virgola, da infinite cifre decimali. I numeri reali si possono rappresentare sulla stessa retta di figura 1 e possiamo immaginare che ogni punto della retta corrisponde ad un numero reale. Possiamo pensare anche i punti di un piano come elementi di un insieme su cui poter fare operazioni, come per esempio la somma. Infatti possiamo associare ad ogni punto del piano, determinato da una coppia di numeri reali, un vettore, di cui i numeri reali sono le coordinate. I vettori si possono sommare e moltiplicare per uno scalare e formano cosı̀ uno spazio vettoriale, che definiremo dettagliatamente nel prossimo capitolo 2. Più avanti vedremo anche che ad ogni coppia di numeri reali (ovvero, ad ogni punto del piano) possono essere associati i cosiddetti numeri complessi, il cui insieme si denota con C. Il numero complesso associato alla coppia (a, b) si denota con a + bi dove i è l’unità immaginaria, che è un numero complesso tale che √ i2 = −1, ovvero i = −1. (1.1.1) Noi però ci occuperemo principalmente dei numeri reali e non di quelli complessi. Fra gli insiemi di numeri che abbiamo introdotto valgono le seguenti relazione di inclusione: N ⊂ Z ⊂ Q ⊂ R ⊂ C. All’interno del corso però i numeri complessi avranno un ruolo abbastanza marginale e quasi sempre avremo a che fare solo con i numeri reali. Abbiamo detto che con il termine “algebra” si intende il calcolo di operazioni quali la somma e il prodotto di numeri. 1.2. ALCUNE NOTAZIONI 6 Con il termine “algebra lineare”, che è il contenuto di questo corso, si intende lo studio e la risoluzione dei sistemi di equazioni lineari, come per esempio: 2x + 3y = 1 (1.1.2) −x + 5y = −2 cioè di un numero finito di equazioni in cui compaiono variabili lineari, ovvero le incognite compaiono nelle espressioni solo con grado uno (il grado è l’esponente dell’incognita, che, essendo sempre e solo 1, di solito si tralascia). Lo strumento per risolvere tali sistemi saranno i vettori e le matrici. Per esempio il sistema lineare di due equazioni (1.1.2) verrà scritto nel modo seguente: à ! à ! à ! 2 3 x 1 · = , −1 5 y −2 dove il secondo membro è il vettore dei termini à 2 −1 noti e al primo membro ! 3 5 è la matrice quadrata di ordine 2 × 2 dei coefficienti delle incognite. Per risolvere tale sistema lineare si useranno allora le proprietà dei vettori e delle matrici che vedremo nel seguito. 1.2. Alcune notazioni Gli intervalli di numeri reali li indicheremo nel modo seguente: [1, 2] = { x ∈ R | 1 ≤ x ≤ 2 }, [1, 2) = { x ∈ R | 1 ≤ x < 2 }, (1, +∞) = { x ∈ R | 1 < x }. Ricordiamo che possiamo descrivere un insieme elencando tutti gli elementi o indicando una proprietà. Per esempio indichiamo l’insieme dei numeri naturali dispari cosı̀: { n ∈ N | n dispari }, oppure nel modo seguente: { n ∈ N | n = 2m + 1, con m ∈ N }. Una costruzione che useremo spesso è la seguente: Definizione 1.2.1. Consideriamo due insiemi S e T . Il prodotto cartesiano di S e T è: S × T = { (s, t) | s ∈ S, t ∈ T }. 1.2. ALCUNE NOTAZIONI 7 Esempio 1.2.2. Il prodotto cartesiano che considereremo molto spesso è R × R = R2 , detto piano reale, che è l’insieme formato dalle coppie (a, b) di numeri reali. Vedremo più avanti che è conveniente scrivere queste coppie in verticale, cioè à ! a b invece che in orizzontale. Come si può fare la somma di due numeri reali, cosı̀ si possono ¡ ¢ sommare le coppie di numeri reali, facendo la somma componente per componente: se aa12 ¡ ¢ e bb12 sono due coppie qualsiasi di numeri reali, allora si definisce à ! à ! à ! a1 b1 a1 + b1 + = . a2 b2 a2 + b2 ¡ 1 ¢ ¡2¢ Esempio 1.2.3. Consideriamo i punti −1 e 0 di R2 . Allora la loro somma è: à ! à ! à ! 1 2 3 + = . −1 0 −1 Come già sapete, si è soliti rappresentare gli elementi di R2 usando gli assi cartesiani. Nel prossimo capitolo 2 torneremo subito su questo esempio. Più in generale si può considerare il prodotto cartesiano di R per se stesso un numero finito n di volte: n {z· · · × R} = R |R × R × n fattori che è un insieme i cui elementi sono le n-uple di numeri reali. Per n = 3, si ottiene R3 che è chiamato spazio reale. Per ogni n, si potrà associare ad una n-pla di numeri reali un vettore, ottenendo cosı̀ uno spazio vettoriale di dimensione n. In questi spazi vettoriali si potranno fare le stesse operazioni di somma e moltiplicazioni per scalari come nel piano. CAPITOLO 2 Spazi vettoriali Ad ogni punto P = (x, y) del piano reale R2 possiamo associare un vettore, cioè un segmento orientato che parte dall’origine O = (0, 0) del piano e arriva al punto fissato P , come ~ . in figura 1. Denotiamo questo vettore con OP rP = (x, y) ¡ µ ¡ ¡ ¡ ¡ ¡ r¡ O = (0, 0) Figura 1. Vettore con punto iniziale O e punto finale P . Ricordiamo che un vettore è determinato dalla sua lunghezza (o modulo), dalla sua direzione e dal suo verso. Come è ben noto, si possono sommare due vettori con la cosiddetta regola del parallelogramma: infatti si possono pensare i due vettori v, w come lati di un parallelogramma e la loro somma v + w corrisponde alla diagonale del parallelogramma, come mostrato in figura 2. r ¡ µ6 ¡ ¡ ¡ ¡ v + w¡ w ¡ ¡ ¡ ¡ »r : »»» » » ¡ »»»v »»» r¡ Figura 2. Somma di due vettori con la regola del parallelogramma. Dato un vettore, si può considerare il suo opposto, che è il vettore che ha lo stesso modulo, la stessa direzione di quello dato, ma verso opposto. Inoltre si può moltiplicare un vettore per un numero reale k > 0, che è il vettore con la stessa direzione e lo stesso verso del vettore dato, ma con la lunghezza moltiplicata per k. 8 2.1. DEFINIZIONE DI SPAZIO VETTORIALE 9 In questo capitolo introduciamo la nozione di spazio vettoriale, che è un modo molto naturale per rendere rigorose queste proprietà dei vettori e per generalizzarle ad altri contesti, come per esempio alle matrici. ~ con il punto del Dal nostro punto di vista sarà conveniente identificare un vettore OP piano P , cioè con la coppia di numeri reali (x, y) che sono le coordinate di P nel piano; quindi considereremo le proprietà dei vettori in base alle sue coordinate, e non direttamente in base alla lunghezza, direzione e verso del vettore. 2.1. Definizione di spazio vettoriale Definizione 2.1.1. Uno spazio vettoriale è un insieme X provvisto di due operazioni: • la somma, che associa ad ogni coppia di elementi di X un terzo elemento di X x, y ∈ X 7→ x + y ∈ X, chiamato somma di x e y; • la moltiplicazione per scalari, che ad ogni elemento di X e ad ogni numero reale associa un altro elemento di X x ∈ X, λ ∈ R 7→ λ · x ∈ X, detto moltiplicazione di x per lo scalare λ; che devono soddisfare alcune proprietà che vedremo in dettaglio fra poco. Talvolta si dice spazio lineare, al posto di spazio vettoriale. Esempio 2.1.2. Nel prodotto cartesiano R × R = R2 , detto piano reale, formato dalle coppie (a, b) di numeri reali, possiamo definire le due operazioni di somma e moltiplicazione per uno scalare λ ∈ R nel seguente modo: à ! à ! à ! a1 b1 a 1 + b1 (2.1.1) + := , a2 b2 a 2 + b2 à ! à ! a1 λa1 λ· (2.1.2) := , a2 λa2 cioè componente per componente. ~ , cioè il vettore con Associamo ad ogni elemento P = (a, b) di R2 il vettore applicato OP punto iniziale l’origine O del piano e con punto finale P , come appena visto a pag. 8. Si verifica subito che la somma definita dalla formula (2.1.1) corrisponde proprio alla somma di due vettori con la regola del parallelogramma e che la moltiplicazione per lo scalare λ ∈ R definita dalla formula (2.1.2) corrisponde alla moltiplicazione della lunghezza del vettore per λ, se λ è positivo, oppure alla moltiplicazione della lunghezza del vettore opposto per −λ, se λ è negativo. Questa corrispondenza giustifica il termine di spazio vettoriale per X e la seguente: Definizione 2.1.3. Gli elementi di uno spazio vettoriale X sono detti vettori. 2.2. PROPRIETÀ DELLA SOMMA 10 2.2. Proprietà della somma Definizione 2.2.1. La somma di due elementi di uno spazio vettoriale X deve verificare le seguenti quattro proprietà: (1) la commutatività, cioè per ogni x, y ∈ X deve valere x + y = y + x; (2) l’associatività, cioè per ogni x, y, z ∈ X deve valere (x + y) + z = x + (y + z); (3) esistenza dell’elemento neutro; (4) esistenza dell’opposto. Queste proprietà sono molto naturali perché sono valide per tutti gli insiemi di numeri che già conoscete: interi, razionali e reali. Vedremo in futuro, però, esempi di operazioni su insiemi che non sono commutative, come per esempio la moltiplicazione di due matrici. La proprietà commutativa ci dice semplicemente che cambiando l’ordine degli addendi, la somma non cambia. La proprietà associativa invece ci dice che possiamo scrivere la somma di tre vettori senza parentesi, cioè possiamo scrivere: x+y+z senza alcuna ambiguità, invece di scrivere (x + y) + z, oppure x + (y + z). Usando la proprietà associativa si può dimostrare che possiamo scrivere anche la somma di n vettori senza indicare alcuna parentesi: x1 + x2 + x3 + · · · + xn . Per esempio, la somma di n = 4 vettori può essere fatta in molti modi: x1 + x2 + x3 + x4 = (x1 + x2 ) + (x3 + x4 ) = ((x1 + x2 ) + x3 ) + x4 = = (x1 + (x2 + x3 )) + x4 = x1 + ((x2 + x3 ) + x4 ) = = x1 + (x2 + (x3 + x4 )), ma il risultato è sempre lo stesso, quindi è inutile distinguere con le parentesi in quale ordine eseguire l’addizione. Ricordiamo che per la proprietà commutativa possiamo anche scambiare di posto i vettori. Quando si considerano un certo numero di vettori qualsiasi, diciamo cinque vettori, si è soliti scrivere: x1 x2 x3 x4 x5 dove la lettera x indica che i vettori sono indeterminati e i numeri 1, 2, 3, 4 e 5 sono detti indici. Per esempio 4 è l’indice dell’elemento x4 . Per indicare la somma dei cinque vettori si può scrivere x1 + x2 + x3 + x4 + x 5 2.2. PROPRIETÀ DELLA SOMMA 11 oppure, in maniera più compatta, si può scrivere 5 X xi , i=1 P dove la lettera greca (sigma maiuscola) indica proprio la somma (spesso viene detta anche sommatoria) e i viene detto indice della sommatoria. Un altro modo per indicare la medesima somma è: X xj . 1≤j≤5 Si noti che non ha importanza quale lettera viene usata per denotare l’indice della sommatoria, anche se spesso viene usata la lettera i. Se invece volessimo indicare, fra dodici vettori x1 , . . . , x12 dati, l’addizione dei vettori con indice pari, potremmo scrivere cosı̀: X xi . 1≤i≤12 i pari Torniamo alle proprietà della somma in uno spazio vettoriale e vediamo cosa vogliono dire la terza e la quarta proprietà della definizione 2.2.1. L’esistenza dell’elemento neutro significa che esiste un elemento, che indicheremo con 0X , tale che: 0X + x = x, per ogni x ∈ X. (2.2.1) Si dice allora che 0X è l’elemento neutro di X. L’esistenza dell’opposto significa che per ogni elemento x si X esiste un elemento y di X tale che x + y = 0X . (2.2.2) Si dice che y è l’opposto di x e si denota di solito con −x. Naturalmente, se consideriamo l’insieme dei vettori nel piano, l’elemento neutro è il vettore di lunghezza nulla, mentre l’opposto di un vettore dato, come abbiamo già accennato all’inizio del capitolo, è il vettore con stessa lunghezza, stessa direzione e verso opposto del vettore fissato. Esempio 2.2.2. Nel piano reale R2 , considerato con le operazioni definite con le formule (2.1.1) e (2.1.2), l’elemento neutro è (0, 0) ∈ R2 , mentre l’opposto di (a1 , a2 ) è (−a1 , −a2 ), perché (a1 + a2 ) + (−a1 , −a2 ) = (a1 − a1 , a2 − a2 ) = (0, 0) = 0X . Esercizio 2.2.3. Dimostrare che l’elemento neutro della somma di uno spazio vettoriale è unico. Soluzione. Supponiamo che y e z siano due elementi dello spazio vettoriale X che soddisfino la definizione di elemento neutro (2.2.1). Allora si ha che y = y + z, considerando y 2.3. ALTRE PROPRIETÀ DELLE OPERAZIONI 12 come elemento neutro, e che z = z + y, considerando invece z come elemento neutro. Ne segue allora che y =y+z =z+y =z come volevasi dimostrare. ¤ Esercizio 2.2.4. Sia x un elemento qualsiasi di uno spazio vettoriale X. Dimostrare che l’opposto di x è unico. Soluzione. Supponiamo che y e z siano due opposti di x. Per definizione di 0X si ha che y = y + 0X . Per ipotesi z è opposto di x, quindi possiamo scrivere 0X = x + z. Allora si ha che: y = y + 0X = y + (x + z) = (y + x) + z = 0X + z = z dove la terza uguaglianza (da sinistra) segue dalla proprietà associativa, la quarta uguaglianza dall’ipotesi che y è opposto di x e infine la quinta e ultima segue dalla definizione di 0X . ¤ Osservazione 2.2.5. Si noti che vale 0X + 0X = 0X , per definizione dell’elemento neutro 0X applicata ad 0X stesso, quindi −0X = 0X , per definizione di opposto (2.2.2). 2.3. Altre proprietà delle operazioni Definizione 2.3.1. La moltiplicazione di un vettore per uno scalare in uno spazio vettoriale X deve verificare le seguenti due proprietà: (1) l’associatività, cioè: β · (α · x) = (β · α) · x, per ogni α, β ∈ R, x ∈ X; (2) esistenza dell’elemento neutro, che denotiamo con 1: 1 · x = x, per ogni x ∈ X. Inoltre devono essere verificate altre due proprietà della moltiplicazione per scalari rispetto alla somma, le quali sono dette proprietà distributive: • α · (x + y) = α · x + α · y, per ogni α ∈ R e x, y ∈ X; • (α + β) · x = α · x + β · x, per ogni α, β ∈ R e x ∈ X. La prima è detta proprietà distributiva della moltiplicazione per scalari rispetto alla somma, mentre la seconda è la proprietà distributiva della somma rispetto alla moltiplicazione per scalari. Anche se la formulazione delle proprietà può apparire non immediatamente chiara, in verità traduce in formule proprietà che intuitivamente sono evidenti. Per esempio, se α = 2, la proprietà distributiva della moltiplicazione per scalati rispetto alla somma ci dice semplicemente che 2(x + y) = 2x + 2y, come è ragionevole immaginare. 2.3. ALTRE PROPRIETÀ DELLE OPERAZIONI 13 Esempio 2.3.2. Consideriamo il piano reale R2 come negli esempi 2.1.2 e 2.2.2. Allora è facile verificare che le operazioni somma e moltiplicazione per scalari definite dalle formule (2.1.1) e (2.1.2) soddisfano tutte le proprietà che abbiamo elencato per gli spazi vettoriali. Si può affermare quindi che R2 è uno spazio vettoriale con tali operazioni. Nei prossimi tre esercizi mostriamo alcune proprietà riguardanti le operazioni di somma e prodotto per scalari che seguono facilmente dalle definizioni e dalle altre proprietà già viste, come sarà chiaro dalle dimostrazioni. Esercizio 2.3.3. Dimostrare che, per ogni x, y, z elementi di uno spazio vettoriale X, se x+y =x+z (2.3.1) allora y = z. Soluzione. Ricordiamo che per ogni x ∈ X esiste l’opposto di x, che indichiamo con −x. Sommando membro a membro −x, la formula (2.3.1) è equivalente alla seguente: − x + x + y = −x + x + z. (2.3.2) Il primo membro diventa: −x + (x + y) = (−x + x) + y = 0X + y = y, perché la prima uguaglianza segue dalla proprietà associativa dell’addizione, la seconda uguaglianza segue dalla definizione di opposto, mentre l’ultima uguaglianza segue dalla definizione di elemento neutro 0X . Similmente il secondo membro di (2.3.2) diventa: −x + (x + z) = (−x + x) + z = 0X + z = z. Concludiamo quindi che y = z, come richiesto. ¤ Esercizio 2.3.4. Dimostrare che 0 · x = 0X , per ogni x ∈ X. Soluzione. Ricordiamo che possiamo scrivere il numero reale 0 come 0 = 0 + 0, quindi 0 · x = (0 + 0) · x = 0 · x + 0 · x (2.3.3) dove la seconda uguaglianza segue dalla proprietà distributiva dell’addizione rispetto alla moltiplicazione per scalari. Possiamo riscrivere il primo membro cosı̀: 0 · x = 0X + 0 · x, per definizione di elemento neutro, cosı̀ la formula (2.3.3) diventa: 0X + 0 · x = 0 · x + 0 · x e si conclude applicando l’esercizio 2.3.3. Esercizio 2.3.5. Dimostrare che (−1) · x = −x, per ogni x ∈ X. ¤ 2.4. COMBINAZIONI LINEARE DI VETTORI 14 Soluzione. Ricordando che x = 1 · x e la proprietà distributiva, si ha che: x + (−1) · x = 1 · x + (−1) · x = (1 − 1) · x = 0 · x = 0X dove l’ultima uguaglianza segue dall’esercizio 2.3.4. Si conclude allora per l’unicità dell’opposto di x. ¤ 2.4. Combinazioni lineare di vettori Definizione 2.4.1. Nello spazio vettoriale X consideriamo due vettori x1 e x2 . Dati due scalari α1 , α2 ∈ R, si dice che: α1 x1 + α2 x2 , che si può scrivere anche cosı̀: 2 X αi xi , n=1 è combinazione lineare dei due vettori dati. Gli scalari α1 e α2 sono detti coefficienti di x1 e x2 , rispettivamente. Per esempio se α1 = 2 e α2 = 3, allora 2x1 + 3x2 è una combinazione lineare di x1 e x2 . ¡ 2 ¢ ¡0¢ Esempio 2.4.2. Siano −1 e 1 elementi del piano reale R2 . Calcoliamo la combinazione lineare di questi due vettori con coefficienti rispettivamente −1 e −2: à ! à ! à ! à ! 2 0 −1 · 2 − 2 · 0 −2 −1 −2 = = . −1 1 −1 · (−1) − 2 · 1 −1 Le combinazioni lineari si possono fare anche per tre o più vettori: Definizione 2.4.3. Se x1 , . . . , xn sono n vettori dati e α1 , . . . , αn sono n scalari (tanti quanti i vettori), allora α1 x1 + α2 x2 + . . . + αn xn è la combinazione lineare di x1 , . . . , xn con coefficienti α1 , . . . , αn , rispettivamente, che possiamo scrivere anche: n X αi xi . i=1 Se consideriamo un solo vettore x e un qualsiasi scalare α, allora il multiplo αx di x è anch’esso detto combinazione lineare di x. ¡ 1 ¢ Esempio 2.4.4. Consideriamo −1 ∈ R2 . Allora: à ! à ! 1 α α = −1 −α ¡ 1 ¢ è un multiplo di −1 per ogni α ∈ R. 2.5. VETTORI LINEARMENTE DIPENDENTI E INDIPENDENTI 15 Esempio 2.4.5. Consideriamo i seguenti tre elementi di R2 : à ! à ! à ! −3 −2 1 , , . 0 1 1 La combinazione lineare di questi tre elementi con coefficienti rispettivamente 0, 1 e −1 è à ! à ! à ! à ! à ! −3 −2 1 −2 − 1 −3 + − = = . 0 0 1 1 1−1 0 2.5. Vettori linearmente dipendenti e indipendenti Consideriamo un vettore non nullo x ∈ X. Nella definizione 2.4.3 abbiamo visto che i multipli αx di x sono combinazioni lineari di x. Definizione 2.5.1. Fissato un vettore non nullo x ∈ X, un vettore y ∈ X che non si può scrivere nella forma y = αx, per nessun α ∈ R, è detto linearmente indipendente da x. ¡ ¢ Per esempio il vettore y = −3 ∈ R2 non è linearmente indipendente dal vettore x = 3 ¡ 1 ¢ −1 , perché y = −3x (cfr. esempio 2.4.4). ¡ ¢ Il vettore z = 20 , invece, è linearmente indipendente da x perché non si può scrivere come z = αx per nessun α ∈ R. Infatti, supponiamo per assurdo che esista α ∈ R tale che z = αx. Allora dovrebbe essere: à ! à ! 2 α = , 0 −α cioè α = 2, per l’uguaglianza della prima coordinata, e −α = 0, per l’uguaglianza della seconda, e troviamo cosı̀ una contraddizione (cfr. ancora esempio 2.4.4). Osservazione 2.5.2. Rappresentando i vettori nel piano reale come usuale, i multipli di un vettore dato x stanno sulla retta con la stessa direzione del vettore x. Quindi un vettore y linearmente indipendente da x è un vettore che non sta su tale retta. Definizione 2.5.3. Siano x e y due vettori di uno spazio vettoriale X. Si dice che x e y sono linearmente dipendenti se non sono linearmente indipendenti, cioè se x è un multiplo di y, o viceversa y è multiplo di x. Se y è il vettore nullo 0X , allora per ogni x ∈ X i due vettori x e y sono linearmente dipendenti, perché possiamo scrivere y = 0X = 0x. In altri termini il vettore nullo è multiplo di qualsiasi altro vettore. Osservazione 2.5.4. Se x e y sono vettori non nulli, allora x è multiplo di y se e solo se y è multiplo di x. Infatti, se x è multiplo di y, allora esiste α ∈ R tale che x = αy, con α 6= 0, perché x 6= 0. Allora anche y è multiplo di x, perché dividendo per α troviamo che y = α1 x. 2.5. VETTORI LINEARMENTE DIPENDENTI E INDIPENDENTI 16 Definizione 2.5.5. Siano x e y due vettori dello spazio vettoriale X. Si dice che un vettore z è linearmente indipendente da x e y se non esistono α, β ∈ R tali che z = αx + βy. (2.5.1) In caso contrario, cioè se esistono siffatti α e β, si dice che z è linearmente dipendente da x e y. Osserviamo che l’equazione (2.5.1) si può riscrivere nel modo seguente: αx + βy − z = 0X , cioè abbiamo trovato una combinazione lineare di x, y e z, con coefficienti non tutti nulli, la cui somma è il vettore nullo. Viceversa, se esiste una combinazione lineare di x, y e z δx + ξy + γz = 0, tale che γ 6= 1 allora, dividendo per γ, si trova che δ ξ x+ y+z =0 γ γ che possiamo riscrivere come: δ ξ dove α = − , β = − γ γ cioè z è combinazione lineare di x e y e quindi è linearmente dipendenti da essi. ¡ 2 ¢ ¡ ¢ ¡ Esempio 2.5.6. Siano x = −1 e y = −1 due elementi di R2 . Il vettore z = 1 linearmente dipendente da x e y perché z = x + y. z = αx + βy, 1 0 ¢ è Più in generale, la nozione di dipendenza lineare si può dare anche per più di due vettori: Definizione 2.5.7. Consideriamo n vettori x1 , . . . , xn di uno spazio vettoriale X. Si dice che x1 , . . . , xn sono linearmente indipendenti se non esiste una combinazione lineare di x1 , . . . , xn , a coefficienti non tutti nulli, tale che la loro somma sia il vettore nullo 0X . In altri termini, x1 , . . . , xn sono linearmente indipendenti se λ1 x1 + · · · + λn xn = 0X =⇒ λ1 = · · · = λn = 0. Con la prossima proposizione verifichiamo che la definizione 2.5.7 è concorde con le precedenti definizioni 2.5.1 e 2.5.5. Proposizione 2.5.8. Siano x1 , . . . , xn vettori di uno spazio vettoriale X. Allora x1 , . . . , xn sono linearmente indipendenti se e solo se non esiste alcun xk , con 1 ≤ k ≤ n, che sia combinazione lineare dei rimanenti. Dimostrazione. Supponiamo che esista xk che sia combinazione lineare dei rimanenti. Per semplicità, poniamo che sia k = n. Allora esistono α1 , . . . , αn−1 ∈ R tali che xn = α1 x1 + α2 x2 + · · · + αn−1 xn−1 . 2.6. SOTTOSPAZI VETTORIALI E INSIEMI DI GENERATORI 17 Riscrivendo la formula precedente nel modo seguente: α1 x1 + α2 x2 + · · · + αn−1 xn−1 − xn = 0, cioè abbiamo trovato una combinazione lineare con coefficienti non tutti nulli che dà 0X , quindi x1 , . . . , xn sono linearmente dipendenti secondo la definizione (2.5.7). Viceversa, se x1 , . . . , xn sono linearmente dipendenti, esiste almeno una combinazione lineare α1 x1 + α2 x2 + · · · + αn−1 xn−1 + αn xn = 0, con almeno un coefficiente non nullo, che supponiamo per semplicità essere αn . Allora possiamo dividere tutto per αn e portare xn dall’altro membro: α2 αn−1 α1 xn = − x1 − x2 + · · · − xn−1 , αn αn αn cioè abbiamo scritto xn come combinazione lineare dei rimanenti. ¤ ¡ 1 ¢ ¡0¢ Esercizio 2.5.9. Dimostrare che i vettori −1 e 1 di R2 sono linearmente indipendenti usando la definizione 2.5.7. Soluzione. Consideriamo una combinazione lineare dei due vettori fissati che dia 0X : à ! à ! à ! 1 0 0 λ1 + λ2 = −1 1 0 Allora deve essere à 1λ1 + 0λ2 −1λ1 + 1λ2 ! à = λ1 −λ1 + λ2 ! à ! 0 = 0 quindi l’uguaglianza della prima coordinata implica che λ1 = 0 e quella della seconda che 0 = −λ1 + λ2 = λ2 . Abbiamo cosı̀ dimostrato che l’unica combinazione lineare dei due vettori fissati che dà 0X è quella con tutti i coefficienti nulli, quindi i vettori dati sono linearmente indipendenti per la definizione 2.5.7. ¤ 2.6. Sottospazi vettoriali e insiemi di generatori Definizione 2.6.1. Sia X uno spazio vettoriale. Un sottoinsieme Y di X si dice un sottospazio vettoriale di X se valgono le seguenti due condizioni: (1) per ogni y, z ∈ Y , si ha y + z ∈ Y ; (2) per ogni y ∈ Y e λ ∈ R, si ha λy ∈ Y . In particolare dalla seconda condizione segue che 0X ∈ Y . In altri termini, un sottospazio vettoriale Y di X è un sottoinsieme di X in cui si possono fare le operazioni di somma e moltiplicazione per scalari definite in X senza uscire da Y . 2.6. SOTTOSPAZI VETTORIALI E INSIEMI DI GENERATORI ¡ 1 ¢ ¡ Esempio 2.6.2. Consideriamo il vettore −1 ∈ R2 e tutti i suoi multipli α per α ∈ R, come nell’esempio 2.4.4. Allora l’insieme (à ! ) α :α∈R −α 18 1 −1 ¢ = ¡ α −α ¢ , (2.6.1) è un sottospazio vettoriale di R2 . Infatti, sommando due elementi dell’insieme (2.6.1) troviamo: à ! à ! à ! α β α+β + = −α −β −α − β che è ancora un elemento dell’insieme. In modo simile si verifica anche la proprietà (2) della definizione 2.6.1. ¡ 1 ¢ Definizione 2.6.3. Si dice che l’insieme (2.6.1) è generato dal vettore −1 . Sia X uno spazio vettoriale e consideriamo dei vettori x1 , . . . , xn di X, per un certo n ≥ 1. Proposizione 2.6.4. L’insieme di vettori che sono combinazioni lineari di x1 , . . . , xn , cioè {x = λ1 x1 + λ2 x2 + . . . + λn xn : λ1 , λ2 , . . . , λn ∈ R}, (2.6.2) è un sottospazio lineare di X. Definizione 2.6.5. Si dice che (2.6.2) è il sottospazio vettoriale di X generato da x1 , . . . , xn . Osserviamo che 0X appartiene al sottospazio generato da x1 , . . . , xn perché 0X = 0 · x1 + 0 · x2 + · · · + 0 · xn . Definizione 2.6.6. Diciamo che {y1 , . . . , yk } è un sistema di generatori di uno spazio vettoriale X se ogni vettore in X è combinazione lineare di y1 , . . . , yk , cioè se per ogni x ∈ X esistono scalari α1 , . . . , αk ∈ R tali che x= k X αi yi . i=1 Esempio 2.6.7. Consideriamo lo spazio reale a tre 0 1 0 , 1 , 0 0 dimensioni R3 . I tre vettori 0 0 , 1 formano un sistema di generatori, infatti ogni vettore (α1 , α2 , α3 ) di R3 si può scrivere come combinazione lineare di questi tre vettori: 0 0 α1 0 0 1 α1 α2 = α1 0 + α2 1 + α3 0 = 0 + α2 + 0 . α3 0 0 1 0 0 α3 2.7. BASE DI UNO SPAZIO VETTORIALE 19 2.7. Base di uno spazio vettoriale Il prossimo teorema afferma che il numero di vettori linearmente indipendenti non può essere maggiore del numero di elementi di un sistema di generatori. Ci servirà per dimostrare che ogni base di uno spazio vettoriale, cioè ogni sistema di generatori linearmente indipendenti, ha lo stesso numero di elementi. Teorema 2.7.1. Sia X uno spazio vettoriale. Supponiamo di avere n vettori linearmente indipendenti x1 , . . . , xn e un sistema di k generatori {y1 , . . . , yk }. Allora n ≤ k. Dimostrazione. Procediamo per induzione su k. L’induzione è un metodo per dimostrare che una certa proprietà è vera per tutti i numeri naturali n ∈ N. Supponiamo che siano verificate le seguenti due condizioni: • la proprietà è vera per k = 1; • se la proprietà è vera per un certo k, allora la proprietà è vera anche per k + 1; allora il principio di induzione afferma che la proprietà è vera per tutti i numeri naturali n ∈ N. La prima condizione è chiamata di solito base dell’induzione. Dimostriamo per prima cosa la tesi per k = 1, cioè supponiamo che il sistema di generatori sia formato da un solo elemento y1 , e dobbiamo dimostrare che n ≤ 1. Se {y1 } è un sistema di generatori significa che ogni elemento di X è multiplo di y1 . In particolare esistono α1 , . . . , αn ∈ R tali che x1 = α 1 y 1 , x2 = α2 y1 , ..., x n = α n y1 . Se fosse n ≥ 2, allora x1 = α1 y1 e x2 = α2 y1 dovrebbero essere linearmente indipendenti, ma non lo sono. Quindi deve essere necessariamente n ≤ 1, come volevamo. Per concludere la dimostrazione per induzione, supponiamo ora che in uno spazio vettoriale generato da k elementi (con k ≥ 1) non esistono più di k vettori linearmente indipendenti; dobbiamo allora dimostrare che in uno spazio vettoriale generato da k + 1 elementi non esistono più di k + 1 vettori linearmente indipendenti. Sia X uno spazio vettoriale generato da y1 , . . . , yk , yk+1 e siano x1 , . . . , xn linearmente indipendenti. Allora dobbiamo dimostrare che n ≤ k + 1, o equivalentemente che n − 1 ≤ k. Possiamo scrivere xi , per i = 1, . . . , n, come combinazione lineare di y1 , . . . , yk+1 : x1 = α1,1 y1 + α1,2 y2 + · · · + α1,k yk + α1,k+1 yk+1 x2 = α2,1 y1 + α2,2 y2 + · · · + α2,k yk + α2,k+1 yk+1 .. . xn = αn,1 y1 + αn,2 y2 + · · · + αn,k yk + αn,k+1 yk+1 Se αi,k+1 = 0 per ogni i = 1, . . . , n, allora x1 , . . . , xn sono generati solo da y1 , . . . , yk e quindi per ipotesi induttiva si ha che n ≤ k < k + 1 e la tesi è dimostrata. 2.7. BASE DI UNO SPAZIO VETTORIALE 20 Altrimenti, esiste αi,k+1 6= 0 per un certo i e per semplicità supponiamo i = n. Portando i termini con yk+1 al primo membro, si ha che: x1 − α1,k+1 yk+1 , x2 − α2,k+1 yk+1 , ... xn − αn,k+1 yk+1 , sono combinazioni lineari di k elementi, quindi per ipotesi induttiva sono al più n ≤ k vettori. Dividendo l’espressione di xn per αn, k + 1, si può scrivere yk+1 in funzione di xn e sostituirlo nelle altre equazioni. Da ciò segue che i vettori linearmente indipendenti possono essere al più n ≤ k + 1. ¤ Definizione 2.7.2. Una base di uno spazio vettoriale è un sistema di generatori linearmente indipendenti. Sia X uno spazio vettoriale e {x1 , . . . , xn } una sua base. Siccome x1 , . . . , xn è un sistema di generatori di X, ogni elemento x di X si può scrivere come combinazione lineare di x1 , . . . , xn . Il fatto che x1 , . . . , xn siano anche linearmente indipendenti, implicano che la scrittura di x come combinazione lineare di x1 , . . . , xn è unica, come mostra la seguente: Proposizione 2.7.3. Sia {x1 , . . . , xn } una base di uno spazio vettoriale X. Sia x un vettore qualsiasi di X. Allora esistono e sono univocamente determinati λ1 , . . . , λn ∈ R tali che x = λ 1 x1 + λ 2 x2 + · · · + λ n xn . (2.7.1) Dimostrazione. Come abbiamo già osservato prima dell’enunciato, x1 , . . . , xn sono un sistema di generatori quindi, per ogni x ∈ X, esiste sicuramente la combinazione lineare P (2.7.1). Supponiamo che esistano anche λ01 , . . . , λ0n tali che x = ni=1 λ0 ixi . Ne segue allora che: λ1 x1 + λ2 x2 + · · · + λn xn = λ01 x1 + λ02 x2 + · · · + λ0n xn e quindi, portando tutto al primo membro, che: (λ1 − λ01 )x1 + (λ2 − λ02 )x2 + · · · + (λn − λ0n )xn = 0X . Ma x1 , . . . , xn sono linearmente indipendenti e l’equazione precedente è una combinazione lineare che dà 0X , perciò tale combinazione lineare deve avere tutti i coefficienti nulli, cioè deve essere: λ1 = λ01 , λ2 = λ02 , . . . λn = λ0n , come volevasi dimostrare. ¤ Il prossimo teorema ci mostra una proprietà fondamentale che hanno tutte le basi di uno stesso spazio vettoriale. Teorema 2.7.4. Due basi di uno spazio vettoriale hanno lo stesso numero di elementi. Dimostrazione. Siano {x1 , . . . , xn } e {y1 , . . . , ym } due basi dello stesso spazio vettoriale X. In particolare x1 , . . . , xn sono linearmente indipendenti e {y1 , . . . , ym } è un sistema di generatori, quindi il teorema 2.7.1 implica che n ≤ m. D’altra parte, è vero che anche y1 , . . . , ym sono linearmente indipendenti e {x1 , . . . , xn } è un sistema di generatori, perciò 2.7. BASE DI UNO SPAZIO VETTORIALE 21 ancora lo stesso teorema 2.7.1 implica pure che m ≤ n. Ne segue allora che n = m, cioè due basi qualsiasi hanno lo stesso numero di elementi, come volevasi dimostrare. ¤ Possiamo quindi dare la seguente: Definizione 2.7.5. La dimensione di uno spazio vettoriale è il numero di elementi di una base, che per il teorema precedente non dipende dalla base scelta. Se n è la dimensione dello spazio vettoriale X, allora scriviamo: dim X = n. Esempio 2.7.6. Consideriamo i seguenti n vettori di 0 1 1 0 . , . , . . . , . . . . 0 0 Rn : 0 0 . . . . 1 Come per R2 o R3 , è facile verificare che questi n vettori sono linearmente indipendenti e che generano tutto Rn . Concludiamo questa sezione e questo capitolo mostrando come costruire delle basi di spazio vettoriale. Supponiamo di avere un sistema di generatori {x1 , . . . , x5 } di X. Se questi elementi fossero linearmente indipendenti, sarebbero una base. Ma se non sono linearmente indipendenti, allora bisogna trovare una base. Per esempio, supponiamo che x5 sia una combinazione lineare degli altri, cioè di x1 , x2 , x3 e x4 : x5 = α 1 x1 + α 2 x2 + α 3 x3 + α 4 x4 (2.7.2) con α1 , α2 , α3 , α4 ∈ R. Allora x1 , x2 , x3 e x4 generano X, perché sappiamo che ogni vettore x ∈ X è combinazione lineare di x1 , . . . , x5 , quindi esistono λ1 , . . . , λ5 ∈ R tali che x = λ1 x1 + · · · + λ4 x4 + λ5 x5 = = λ1 x1 + · · · + λ4 x4 + λ5 (α1 x1 + α2 x2 + α3 x3 + α4 x4 ) dove l’ultima uguaglianza segue da (2.7.2), perciò x è combinazione lineare di x1 , . . . , x4 . Generalizzando il ragionamento precedente ad un sistema di n generatori {x1 , . . . , xn } di uno spazio vettoriale X si dimostra la seguente: Proposizione 2.7.7. Sia {x1 , . . . , xn } un sistema di generatori di uno spazio vettoriale X. Allora esiste un sottoinsieme {xi1 , . . . , xik } del sistema di generatori che è una base di X. Dimostrazione. Se x1 , . . . , xn sono linearmente indipendenti, allora abbiamo già una base di X con k = n e i1 = 1, i2 = 2, . . . ik = n. Se invece x1 , . . . , xn sono linearmente 2.7. BASE DI UNO SPAZIO VETTORIALE 22 dipendenti, allora esiste una combinazione lineare: λ1 x1 + λ2 x2 + · · · + λn xn = 0X dove i coefficienti λ1 , . . . , λn non sono tutti nulli. Allora esiste i tale che λi 6= 0 e possiamo scrivere xi in funzione dei rimanenti: λ1 λi−1 λi+1 λn xi = − x1 − · · · − xi−1 − xi+1 − · · · − xn . λi λi λi λi Ne segue che {x1 , . . . , xi−1 , xi+1 , . . . , xn } è ancora un sistema di generatori di X. Se ora x1 , . . . , xi−1 , xi+1 , . . . , xn sono linearmente indipendenti, abbiamo trovato una base di X e abbiamo finito. Se invece sono linearmente dipendenti, allora esiste una combinazione lineare con coefficienti non tutti nulli che è 0X , da cui possiamo ricavare uno dei vettori xj in funzione dei rimanenti. Ripetendo lo stesso ragionamento a questi vettori rimasti, dopo un numero finito di volte troveremo un sistema di generatori di X formato da vettori linearmente indipendenti, che quindi è una base di X. Per costruzione, i vettori della base saranno appartenenti al sistema di generatori dato in partenza. ¤ Vediamo ora un altro metodo per trovare una base di uno spazio vettoriale X. Sia x1 un vettore non nullo di X. Se x1 genera X, allora x1 è una base. Altrimenti, se x1 non genera X, esiste un altro elemento x2 linearmente indipendente da x1 , cioè che non è multiplo di x1 . Se x1 e x2 generano X, allora sono una base, perché sono linearmente indipendenti. Altrimenti esiste un vettore x3 che non è combinazione lineare di x1 e x2 . Si procede allo stesso modo finché non si trova un sistema di generatori che sono linearmente indipendenti per costruzione, che quindi formano una base. Si può formalizzare questa idea con la seguente proposizione: Proposizione 2.7.8. Siano x1 , . . . , xm vettori linearmente indipendenti di uno spazio vettoriale X (può essere m = 1, nel qual caso x1 è un vettore non nullo qualsiasi). Se la dimensione di X è n > m, allora esistono dei vettori xm+1 , . . . , xn tali che {x1 , . . . , xn } è una base di X. Dimostrazione. Consideriamo il sottospazio vettoriale generato da x1 , . . . , xm . Scegliamo un vettore qualsiasi xm+1 non appartenente a questo sottospazio. Allora x1 , . . . , xm+1 sono linearmente indipendenti. Infatti, se non lo fossero, esisterebbero λ1 , . . . , λm+1 non tutti nulli tali che: λ1 x1 + · · · + λm xm + λm+1 xm+1 = 0X ; ora ci sono due possibilità: o λm+1 = 0, ma allora x1 , . . . , xm sarebbero linearmente dipendenti, in contraddizione con l’ipotesi; oppure λm+1 6= 0, ma allora potremmo scrivere xm+1 come combinazione lineare di x1 , . . . , xm , contraddicendo l’ipotesi di aver scelto xm non appartenente al sottospazio generato da x1 , . . . , xn . A questo punto possiamo ripetere il ragionamento ai vettori linearmente indipendenti x1 , . . . , xm+1 e scegliere un vettore qualsiasi xm+2 non appartenente al sottospazio vettoriale da essi generato. Con la stessa dimostrazione appena fatta, si vede che x1 , . . . , xm+2 sono linearmente indipendenti. 2.7. BASE DI UNO SPAZIO VETTORIALE Continuando cosı̀, si costruisce una base x1 , . . . , xn come volevasi dimostrare. 23 ¤ Esempio 2.7.9. Consideriamo il sistema di generatori {x1 , x2 , x3 }, dello spazio vettoriale X = R2 , dove: à ! à ! à ! 2 0 1 x1 = , x2 = , x3 = . −1 1 1 Vediamo come trovare una base di X seguendo la proposizione 2.7.7. I tre vettori x1 , x2 e x3 sono linearmente dipendenti, infatti à ! à ! à ! à ! à ! 2 0 1 2+0·3−2·1 0 x1 + 3x2 − 2x3 = +3 −2 = = . −1 1 1 −1 + 3 · 1 − 2 · 1 0 Allora si ha che: x1 = 2x3 − 3x2 e quindi {x2 , x3 } è ancora un sistema di generatori di X. Siccome X = R2 ha dimensione 2, allora {x2 , x3 } è una base di X. Esempio 2.7.10. Consideriamo il vettore à ! 1 x1 = 1 dello spazio vettoriale X = R2 . Vediamo come costruire una base di X seguendo la proposizione 2.7.8. Il vettore x1 genera il sottospazio vettoriale di X formato dai vettori à ! α α dove α è un numero reale qualsiasi. Scegliamo un vettore x2 non appartenente a tale sottospazio, per esempio à ! 1 . 0 Allora x1 e x2 sono sicuramente linearmente indipendenti e quindi {x1 , x2 } è una base di X perché dim X = 2. Si noti che nell’esempio precedente avremmo potuto scegliere un altro vettore x2 , come à ! 0 1 o anche à ! 1 −1 o in altri infiniti modi, perché ci sono infiniti vettori non appartenenti al sottospazio vettoriale generato da x1 . CAPITOLO 3 Applicazioni lineari e matrici 3.1. Definizione di applicazione lineare Consideriamo due spazi vettoriali X e Y . Definizione 3.1.1. Una applicazione T : X → Y , x 7→ T (x), si dice lineare se valgono le seguenti due proprietà: • T (x + z) = T (x) + T (z), per ogni x, z ∈ X; • T (λx) = λT (x), per ogni λ ∈ R, x ∈ X. La prima proprietà richiede che T conservi la somma, mentre la seconda che T conservi la moltiplicazione per scalari. Dalle due proprietà della definizione 3.1.1 segue che se x = λ1 x1 + · · · + λn xn , allora l’immagine di x secondo T è T (x) = λ1 T (x1 ) + λ2 T (x2 ) + · · · + λn T (xn ). In particolare deve essere necessariamente T (0X ) = 0Y . Esempio 3.1.2. Siano X = Y = R2 e consideriamo le applicazioni T : R2 → R2 . Allora l’applicazione: à ! à ! x 2x − 3y T = y −x + y è lineare, infatti soddisfa le due proprietà della definizione 3.1.1, come si può verificare direttamente. Ma vediamo anche un esempio di applicazione non lineare. Esempio 3.1.3. Consideriamo ancora le applicazioni T : R2 → R2 . L’applicazione: à ! à ! x x2 + y T = y y non è lineare, perché compare un esponente 2 in una delle incognite. Da ciò segue per esempio che: à ! à ! à ! à ! à ! 3 9 5 1 2 T = 6= =T +T 0 0 0 0 0 L’idea fondamentale che dimostreremo fra poco è che un’applicazione lineare è univocamente determinata dalle immagini in Y dei vettori di una base di X. 24 3.2. MATRICE ASSOCIATA AD UN’APPLICAZIONE LINEARE 25 3.2. Matrice associata ad un’applicazione lineare Fissiamo una base e1 , . . . , en di X e una base f1 , . . . , fm di Y . Allora T (e1 ), . . . , T (en ) sono elementi di Y , che quindi si possono scrivere come combinazione lineare dei vettori f1 , . . . , fm : T (e1 ) = α1,1 f1 + α2,1 f2 + · · · + αm,1 fm , T (e2 ) = α1,2 f1 + α2,2 f2 + · · · + αm,2 fm , .. . (3.2.1) T (en ) = α1,n f1 + α2,n f2 + · · · + αm,n fm . L’immagine di un elemento qualsiasi x di X è univocamente determinata da y1 = T (e1 ), y2 = T (e2 ), . . . , yn = T (en ), infatti x si scrive in modo unico come x = λ 1 x1 + λ 2 x2 + · · · + λ n xn , quindi per le proprietà di linearità di T ne segue che T (x) = λ1 T (x1 ) + λ2 T (x2 ) + · · · + λn T (xn ). Allora associamo all’applicazione lineare T la seguente matrice di ordine m × n (una tabella di m righe e n colonne di scalari): α1,1 α1,2 · · · α1,n α2,1 α2,2 · · · α2,n . (3.2.2) .. .. .. . . . . . αm,1 αm,2 · · · αm,n Osserviamo che i coefficienti di T (e1 ), . . . , T (en ) dati dalle formule (3.2.1) formano una tabella di n righe e m colonne che è la trasposta della matrice (3.2.2), cioè una matrice è ottenuta dall’altra scambiando le righe con le colonne. Sia T : Rn → Rm una applicazione lineare. Consideriamo la base canonica 0 1 0 1 0 0 e1 = .. n e2 = .. , . . . , en = .. , . . . 0 0 1 di Rn e quella di Rm : 1 0 0 1 e1 = .. m e2 = .. , . . 0 0 ..., 0 0 em = .. . . 1 3.2. MATRICE ASSOCIATA AD UN’APPLICAZIONE LINEARE Allora: 1 α1,1 0 α2,1 T .. = .. , . . 0 αm,1 0 α1,2 1 α2,2 T .. = .. , . . 0 αm,2 ..., 26 0 α1,n 0 α2,n T .. = .. . . 1 αm,n dove la matrice associata all’applicazione T è: α1,1 α1,2 · · · α1,n α2,1 α2,2 · · · α2,n A= .. .. .. .. . . . . αm,1 αm,2 · · · αm,n Siccome la moltiplicazione di matrici viene fatta righe per colonne, possiamo scrivere: Aλ = µ dove λ e µ sono rispettivamente le coordinate di un vettore rispetto alla base canonica di Rn e le coordinate dell’immagine di quello stesso vettore rispetto alla base canonica di Rm . Infatti, posto λ1 λ2 λ= .. . λ4 allora Aλ = α1,1 λ1 + α1,2 λ2 + · · · + α1,n λn α2,1 λ1 + α2,2 λ2 + · · · + α2,n λn .. . . αm,1 λ1 + αm,2 λ2 + · · · + αm,n λn Vediamo qualche esempio concreto. Esempio 3.2.1. Consideriamo l’applicazione lineare T da R2 in R2 associata, rispetto alla base canonica, alla matrice: à ! −3 4 . 4 3 Allora: ! !à ! à à ! à −3λ1 + 4λ2 −3 4 λ1 λ1 = = T 4λ1 + 3λ2 4 3 λ2 λ2 à ! 1 In particolare l’immagine del vettore è 2 à !à ! à ! à ! à ! −3 4 1 −3 + 8 5 1 = = =5 4 3 2 4+6 10 2 3.3. NUCLEO E IMMAGINE DI UN’APPLICAZIONE LINEARE 27 à ! −2 e quella del vettore è 1 à !à ! à ! à ! à ! −3 4 −2 6+4 10 −2 = = = −5 4 3 1 −8 + 3 −5 1 Esempio 3.2.2. Sia T : R3 → R2 l’applicazione lineare che è associata alla matrice à ! 1 2 −1 0 −1 1 rispetto alle basi canoniche di R2 e R3 . Allora: à ! λ1 à ! λ1 1 2 −1 λ1 + 2λ2 − λ3 T λ2 = λ2 = 0 −1 1 −λ2 + λ3 λ3 λ3 In particolare l’immagine del vettore 0 1 1 è à ! à ! 0 0+2·1−1 1 T 1 = = −1 + 1 0 1 3.3. Nucleo e immagine di un’applicazione lineare In questa sezione vediamo due esempi notevoli di sottospazi lineari di uno spazio vettoriale. Definizione 3.3.1. Siano X, Y spazi vettoriali e T : X → Y un’applicazione lineare. Il nucleo di T è: ker(T ) = {x ∈ X : T (x) = 0Y }, dove ker è un’abbreviazione di kernel (che in inglese significa nucleo). Per esempio, se T è lineare, allora T (0X ) = 0Y , quindi si ha che 0X ∈ ker(T ) per definizione di nucleo. Proposizione 3.3.2. Siano X, Y spazi vettoriali e T : X → Y un’applicazione lineare. Allora il nucleo di T è un sottospazio lineare di X. Dimostrazione. Per la definizione 2.6.1 di sottospazio lineare è sufficiente verificare due condizioni: (1) che la somma di due elementi del nucleo è ancora un elemento del nucleo e (2) che la moltiplicazione per uno scalare λ di un elemento del nucleo è ancora un elemento del nucleo. 3.3. NUCLEO E IMMAGINE DI UN’APPLICAZIONE LINEARE 28 Siano x, y ∈ ker(T ). Per definizione di nucleo, si ha che T (x) = T (y) = 0Y . Allora T (x + y) = T (x) + T (y) = 0Y + 0Y = 0Y dove la prima uguaglianza segue dalla linearità di T , quindi anche x + y ∈ ker(T ). Sia ora λ uno scalare qualsiasi. Per linearità di T si ha che T (λx) = λT (x). Quindi se x ∈ ker(T ), allora T (λx) = λ0Y = 0Y . La dimostrazione è cosı̀ conclusa. ¤ Esempio 3.3.3. Sia T : R2 → R2 l’applicazione lineare che, rispetto alle basi canoniche, è associata alla matrice à ! 3 2 . 1 −1 Calcoliamo il nucleo di T . ¡ ¢ Per definizione di nucleo, un vettore λλ12 ∈ R2 appartiene al nucleo se e solo se à !à ! à ! à ! 3 2 λ1 3λ1 + 2λ2 0 = = 1 −1 λ2 λ1 − λ2 0 cioè se e solo se λ1 e λ2 sono tali che 3λ + 2λ = 0 1 2 λ1 − λ2 = 0 Dalla seconda equazione segue che λ1 = λ2 . Sostituendo allora λ2 = λ1 nella prima equazione, si trova che 3λ1 + 2λ1 = 0, cioè 5λ1 = 0, che è possibile solo se λ1 = 0. Da ciò segue anche se λ2 = λ1 = 0. Si conclude cosı̀ che l’unico vettore appartenente al nucleo di T è il vettore ¡ ¢ nullo 0X = 00 . Definizione 3.3.4. Siano X, Y spazi vettoriali e T : X → Y un’applicazione lineare. L’immagine di T è il sottoinsieme di T formato da tutti i vettori di Y che sono immagine di un elemento di X: Im(T ) = {y : y = T (x), per qualche x ∈ X}. Si noti che 0Y appartiene sempre all’immagine di Y perché T (0X ) = 0Y . Proposizione 3.3.5. Siano X, Y spazi vettoriali e T : X → Y un’applicazione lineare. Allora l’immagine Im(T ) di T è un sottospazio lineare di Y . Dimostrazione. Come per la proposizione 3.3.2, occorre dimostrare che la somma di due elementi di Im(T ) è ancora appartenente a Im(T ) e che moltiplicando un elemento di Im(T ) per uno scalare qualsiasi λ si trova sempre un elemento di Im(T ). Siano y e y 0 due elementi di Im(T ). Per definizione di Im(T ), esistono x, x0 ∈ X tali che T (x) = y e T (x0 ) = y 0 . Allora, per la linearità di T , si ha che T (x + x0 ) = T (x) + T (x0 ) = y + y 0 , quindi y + y 0 ∈ Im(T ) per definizione di Im(T ). La linearità di T implica anche che T (λx) = λT (x) = λy, perciò pure λy ∈ Im(T ), come volevasi dimostrare. ¤ 3.3. NUCLEO E IMMAGINE DI UN’APPLICAZIONE LINEARE 29 Osservazione 3.3.6. Sia T : X → Y un’applicazione lineare tra due spazi vettoriali X e Y . Sia {x1 , . . . , xn } una base di X. Allora {T (x1 ), . . . , T (xn )} è un insieme di generatori dell’immagine Im(T ) di T . Infatti, se y ∈ Im(T ), allora esiste x ∈ X tale che T (x) = y, per definizione di Im(T ). D’altra parte possiamo scrivere x = λ1 x1 + · · · + λn xn , perché {x1 , . . . , xn } è una base di X, quindi dalla linearità di T segue che: y = T (x) = λ1 T (x1 ) + λ2 T (x2 ) + · · · + λn T (xn ) cioè y è combinazione lineare di T (x1 ), . . . , T (xn ). Quindi, per ottenere una base dell’immagine Im(T ) di T è sufficiente considerare il sistema di generatori {T (x1 ), . . . , T (xn )} e seguire il procedimento della proposizione 2.7.7 per trovare un sottoinsieme del sistema di generatori che sia una base di Im(T ). Il prossimo teorema stabilisce una relazione fondamentale tra le dimensioni degli spazi vettoriali introdotti in questa sezione. Teorema 3.3.7 (Relazione di Grassmann). Sia T : X → Y un’applicazione lineare tra due spazi vettoriali X e Y . Allora vale la seguente relazione: dim(ker(T )) + dim(Im(T )) = dim(X). (3.3.1) Dimostrazione. Supponiamo che sia dim(X) = n e dim(ker(T )) = m. Naturalmente m ≤ n, perché ker(T ) è un sottospazio vettoriale di X. Sia x1 , . . . , xm una base di ker(T ), che possiamo costruirci con il metodo illustrato nella proposizione 2.7.7. Nel caso che sia ker(T ) = {0X }, allora m = 0 e non scegliamo nessun elemento di X. Completiamo x1 , . . . , xm ad una base di X, cioè scegliamo n − m vettori xm+1 , . . . , xn tali che {x1 , . . . , xn } sia una base di T , seguendo ancora la proposizione 2.7.7. Come spiegato nell’osservazione 3.3.6 che precede questo teorema, {T (x1 ), . . . , T (xn )} sono un insieme di generatori dell’immagine Im(T ) di T . Per la scelta degli xi , però, si ha che: T (x1 ) = T (x2 ) = · · · = T (xm ) = 0 perché x1 , . . . , xm ∈ ker(T ). Quindi l’immagine Im(T ) è generata da {T (xm+1 ), . . . , T (xn )}. Per concludere la dimostrazione del teorema è sufficiente provare che T (xm+1 ), . . . , T (xn ) sono linearmente indipendenti, cosicché dim(Im(T )) = n − m = dim(X) − dim(ker(T )) e la formula (3.3.1) è dimostrata. Consideriamo una combinazione lineare λm+1 T (xm+1 ) + · · · + λn T (xn ) = 0Y . Allora, per linearità di T , si ha che: T (λm+1 xm+1 + · · · + λn xn ) = 0Y (3.3.2) 3.3. NUCLEO E IMMAGINE DI UN’APPLICAZIONE LINEARE 30 e quindi, per definizione di ker(T ): λm+1 xm+1 + · · · + λn xn ∈ ker(T ). Siccome x1 , . . . , xm è per costruzione una base di ker(T ), allora esistono λ1 , . . . , λm tali che λ1 x1 + · · · + λm xm = λm+1 xm+1 + · · · + λn xn , o equivalentemente λ1 x1 + · · · + λm xm − λm+1 xm+1 − · · · − λn xn = 0X . Dal fatto che {x1 , . . . , xn } è una base di X segue allora che λ1 = λ2 = · · · = λm = λm+1 = · · · = λn = 0 e quindi abbiamo dimostrato che non esiste una combinazione lineare (3.3.2) con λm+1 , . . . , λn non tutti nulli, cioè T (xm+1 ), . . . , T (xn ) sono linearmente indipendenti. ¤ Ricordiamo che una funzione T si dice iniettiva se e solo se T (x) = T (y) implica che x = y. A questo proposito, è fondamentale tenere a mente la seguente: Proposizione 3.3.8. Una applicazione lineare T : X → Y tra due spazi vettoriali X e Y è iniettiva se e solo se ker(T ) = {0X }, cioè se e solo se 0X è l’unico vettore di X la cui immagine è 0Y . Dimostrazione. Abbiamo già osservato che 0X ∈ ker(T ). Supponiamo che T sia iniettiva. Allora T (x) = 0Y implica che x = 0X , per definizione di iniettività. Quindi 0X è l’unico elemento di ker(T ). Viceversa, supponiamo che sia ker(T ) = {0X }. Siano x, y due elementi di X. Se T (x) = T (y), allora T (x − y) = 0Y . L’ipotesi che sia ker(T ) = {0X } implica che x − y = 0X , cioè x = y, che vuol dire proprio che T è iniettiva. ¤ Ricordiamo che una funzione T : X → Y si dice suriettiva se l’immagine di T è tutto il codominio Y , o equivalentemente se per ogni elemento y di Y esiste un elemento x di X tale che T (x) = y. Una funzione T : X → Y si dice biettiva se è insieme iniettiva e suriettiva. In altri termini, T è biettiva se ad ogni elemento di X corrisponde uno ed un solo elemento di Y e viceversa. Definizione 3.3.9. Sia T : X → Y un’applicazione lineare tra due spazi vettoriali X e Y . Si dice che T è un isomorfismo se T è biettiva. Per definizione, una funzione biettiva è in particolare iniettiva. Se consideriamo una applicazione lineare T : X → X di uno spazio vettoriale X in se stesso (o equivalentemente un’applicazione lineare fra due spazi vettoriali della stessa dimensione), allora vale anche il viceversa, come mostra la seguente: 3.4. OPERAZIONI SULLE MATRICI 31 Proposizione 3.3.10. Un’applicazione lineare T : X → Y tra due spazi vettoriali X e Y della stessa dimensione è un isomorfismo se e solo se T è iniettiva. Dimostrazione. Per la proposizione 3.3.8, il teorema 3.3.7 e la formula (3.3.1), si ha che T è iniettiva se e solo se il nucleo ker(T ) ha dimensione 0, quindi se e solo se dim(X) = dim(Im(T )), ovvero se e solo se T è suriettiva. ¤ Vediamo con un esempio come si verifica se T è iniettiva, o non lo è. Esempio 3.3.11. Consideriamo l’applicazione lineare T : R2 → R2 associata alla matrice à ! 2 1 A= . −1 0 ¡ ¢ Supponiamo che λλ12 sia un elemento del nucleo ker(T ) di T . Allora deve essere à ! à ! 2λ1 + λ2 0 T = −λ1 0 ¡ λ1 ¢ cioè λ2 è una soluzione di 2λ + λ = 0, 1 2 −λ1 = 0. La seconda equazione ci dice che deve essere λ1 = 0. Sostituendo λ1 = 0 nella prima equazione, segue ovviamente che λ2 = 0. Si conclude allora che (0, 0) = 0X , cioè il vettore nullo, è l’unico elemento di ker(T ), quindi T è iniettiva. Dalla proposizione 3.3.10 segue perciò che è un isomorfismo di R2 in se stesso. In particolare T è pure suriettiva. L’esempio precedente è stato facile da risolvere perché i coefficienti della matrice erano molto semplici. In generale, occorrerà risolvere un sistema di equazioni lineari. Nel prossimo capitolo vedremo un metodo per risolverli che si può applicare sempre. 3.4. Operazioni sulle matrici Sia T : X → Y una trasformazione lineare. Siano {e1 , . . . , en } e {y1 , . . . , ym } rispettivamente una base di X e di Y . Ricordiamo che a T si associa una matrice m × n. Vedremo fra un attimo che l’insieme delle applicazioni lineari da X a Y (fissati) è uno spazio vettoriale. Per dimostrarlo, vedremo prima che lo spazio delle matrici m × n, cioè con m righe ed n colonne, è uno spazio vettoriale. Siano A e B matrici m × n, rispettivamente: β11 β12 · · · β1n α11 α12 · · · α1n β21 β22 · · · β2n α21 α22 · · · α2n B= A= .. .. .. .. .. .. .. , .. . . . . . . . . αm1 αm2 · · · αmn βm1 βm2 · · · βmn 3.4. OPERAZIONI SULLE MATRICI Allora si definisce la somma A + B, che è ancora una α11 + β11 α12 + β12 α21 + β21 α22 + β22 A+B = .. .. . . αm1 + βm1 αm2 + βm2 matrice m × n: ··· ··· .. . α1n + β1n α2n + β2n .. . ··· αmn + βmn 32 Esempio 3.4.1. Sommiamo le due matrici seguenti: à ! à ! 1 −1 2 0 3 −8 A= , B= . −3 0 −1 15 14 13 La matrice A + B è à 1 + 0 −1 + 3 2 − 8 −3 + 15 0 + 14 −1 + 13 ! à = ! 1 2 −6 . 12 14 12 Osservazione 3.4.2. L’elemento neutro della somma di matrici di ordine m × n è la matrice nulla, cioè la matrice di ordine m × n con tutte le entrate nulle: 0 0 ··· 0 0 0 · · · 0 0 = . . . .. . . . . . . . 0 0 ··· 0 Possiamo anche definire, oltre alla somma di due matrici, la moltiplicazione di una matrice A per uno scalare λ ∈ R: λα11 λα12 · · · λα1n λα21 λα22 · · · λα2n λA = .. .. ... .. . . . λαm1 λαm2 · · · λαmn Esempio 3.4.3. La moltiplicazione per λ = −1 della matrice à ! 2 3 −1 A= 2 −5 −10 è la matrice à ! −2 −3 1 −1 · A = −A −2 5 10 mentre la moltiplicazione per λ = 2 di A è la matrice à ! 4 6 −2 2A = . 4 −10 −20 Proposizione 3.4.4. Le matrici di ordine m × n sono uno spazio vettoriale reale di dimensione mn con le operazioni di somma e moltiplicazione per scalari appena definite. 3.5. PRODOTTO DI MATRICI 33 Dimostrazione. Il fatto che l’insieme delle matrici di ordine m × n sia uno spazio vettoriale può essere verificato facilmente usando le definizioni di spazio vettoriale e delle operazioni sulle matrici. Ad una matrice A di ordine m × n, formata da mn entrate: α11 α12 · · · α1n α21 α22 · · · α2n A= .. .. .. .. . . . . αm1 αm2 · · · αmn possiamo associare la seguente (mn)-upla di numeri reali: (α11 , α12 , . . . , α1n , α21 , . . . , α2n , . . . , αm1 , . . . , αmn ) ∈ Rmn . Le operazioni di somma di matrici e moltiplicazione per scalari di una matrice corrisponde esattamente alla somma delle (mn)-uple di numeri reali e alla moltiplicazione per scalari di una (mn)-upla di numeri reali. Abbiamo cosı̀ costruito un isomorfismo di spazi vettoriali tra le matrici di ordine m × n e Rmn . ¤ Ricordiamo che una base di Rmn è formata dai vettori x1 , . . . , xmn , dove xi è il vettore con tutte le coordinate nulle, tranne la i-esima che è uguale a 1. Quindi una base dello spazio vettoriale delle matrici di ordine m × n è formata dalle mn matrici Eij , con 1 ≤ i ≤ m e 1 ≤ j ≤ n, che sono definite dall’avere tutte le entrate nulle, tranne 1 alla riga i-esima e colonna j-esima. 3.5. Prodotto di matrici Sia T : X → Y l’applicazione lineare associata alla matrice A, rispetto a due basi fissate. Consideriamo ora un’applicazione lineare S : Y → Z, dove Z è uno spazio vettoriale di dimensione p, con base {g1 , . . . , gp }. Sia B la matrice n × p associata all’applicazione lineare S: β11 β12 · · · β1m β21 β22 · · · β2m B= .. . . .. .. . . . . βp1 βp2 · · · βpm Esplicitamente: S(f1 ) = β11 g1 + β21 g2 + · · · + βp1 gp , S(f2 ) = β12 g1 + β22 g2 + · · · + βp2 gp , .. . S(fn ) = β1n g1 + β2n g2 + · · · + βpn gp , 3.5. PRODOTTO DI MATRICI 34 La composizione delle due applicazioni lineari di T e S, che si indica solitamente con S ◦T , è l’applicazione lineare da X a Z cosı̀ definita: (S ◦ T )(x) = S(T (x)). Osserviamo che la scrittura S ◦ T significa che prima si applica T e poi si applica S, e non il contrario, come a prima vista potrebbe suggerire la notazione. Osservazione 3.5.1. Attenzione: vedremo che l’ordine con cui scriviamo i fattori del prodotto di due matrici è fondamentale, perché il prodotto di matrici è una operazione non commutativa, cioè in generale non si può dire che B · A sia uguale ad A · B. Proposizione 3.5.2. La matrice associata all’applicazione lineare S◦T : X → Z è il prodotto B · A delle matrici B ed A. Il prodotto di due matrici B ed A, che si indica con B · A (in futuro scriveremo talvolta solo BA, in analogia con il prodotto di scalari) si fa righe per colonne: β11 β12 · · · β1m α11 α12 · · · α1n β21 β22 · · · β2m α21 α22 · · · α2n B·A= . .. . . .. · .. .. .. . . . . . . . . . . . βp1 βp2 · · · βpm αm1 αm2 · · · è una matrice la cui prima colonna è β11 α11 + β12 α21 + · · · + β1m αm1 β21 α11 + β22 α21 + · · · + β2m αm1 β31 α11 + β32 α21 + · · · + β3m αm1 .. . βp1 α11 + βp2 α21 + · · · + βpm αm1 mentre la seconda colonna è β11 α12 + β12 α22 + · · · + β1m αm2 β21 α12 + β22 α22 + · · · + β2m αm2 β31 α12 + β32 α22 + · · · + β3m αm2 .. . βp1 α12 + βp2 α22 + · · · + βpm αm2 la terza colonna invece è β11 α13 + β12 α23 + · · · + β1m αm3 β21 α13 + β22 α23 + · · · + β2m αm3 β31 α13 + β32 α23 + · · · + β3m αm3 .. . βp1 α13 + βp2 α23 + · · · + βpm αm3 αmn 3.5. PRODOTTO DI MATRICI 35 e cosı̀ via fino all’ultima colonna che è β11 α1n + β12 α2n + · · · + β1m αmn β21 α1n + β22 α2n + · · · + β2m αmn β31 α1n + β32 α2n + · · · + β3m αmn .. . βp1 α1n + βp2 α2n + · · · + βpm αmn Esempio 3.5.3. Siano B ed A rispettivamente le matrici à ! à ! 2 −1 3 0 1 B= , A= 3 1 1 −1 4 Allora il prodotto B · A è à ! à ! 2 · 3 − 1 · 1 2 · 0 − 1 · (−1) 2 · 1 − 1 · 4 5 1 −2 B·A= = , 3 · 3 + 1 · 1 3 · 0 + 1 · (−1) 3 · 1 + 1 · 4 10 −1 7 mentre il prodotto A · B non è possibile farlo, perché il numero di colonne di A è diverso dal numero di righe di B. Esempio 3.5.4. Siano A ed B rispettivamente le matrici à ! 2 5 −1 2 0 A= , B = −2 1 0 −4 −4 2 4 Allora il prodotto A · B è à ! à ! −1 · 2 + 2 · (−2) + 0 · 2 −1 · 5 + 2 · 1 + 0 · 4 −6 −3 A·B = = , 0 · 2 − 4 · (−2) − 4 · 2 0·5−4·1−4·4 0 −20 mentre il prodotto B · A è: 2 · (−1) + 5 · 0 2 · 2 + 5 · (−4) 2 · 0 + 5 · (−4) −2 −16 −20 B · A = −2 · (−1) + 1 · 0 −2 · 2 + 1 · (−4) −2 · 0 + 1 · (−4) = 2 −8 −4 . 2 · (−1) + 4 · 0 2 · 2 + 4 · (−4) 2 · 0 + 4 · (−4) −2 −12 −16 Consideriamo le matrici quadrate di ordine n × n. Siano A e B due matrici di tale ordine. Allora possiamo sempre fare il prodotto A · B e B · A, anche se in generale otteniamo due matrici diverse. Esempio 3.5.5. Siano A e B le seguenti matrici quadrate di ordine 2 × 2: à ! à ! 1 0 0 1 A= , B= . 0 0 0 0 Allora il prodotto A · B è à !à ! à ! 1 0 0 1 0 1 = 0 0 0 0 0 0 3.5. PRODOTTO DI MATRICI che è diverso dal prodotto B · A 36 à ! à !à ! 0 0 0 1 1 0 = 0 0 0 0 0 0 Ciò dimostra che il prodotto di matrici non è commutativo, cioè in generale AB 6= BA. Definizione 3.5.6. Si noti che esiste una matrice (di ordine n × n), che denotiamo con I, tale che A·I =I ·A=A per ogni matrice A. Tale matrice ha tutte le entrate zero, tranne sulla diagonale principale (quella da sinistra in alto a destra in basso) in cui le entrate sono 1: 1 0 0 ··· 0 0 1 0 · · · 0 . 0 0 1 · · · 0 (3.5.1) I= .. .. .. . . .. . . . . . 0 0 0 ··· 1 Si dice che I è la matrice identità delle matrici di ordine n × n. Osservazione 3.5.7. Sia T : X → X l’applicazione lineare associata alla matrice identità (3.5.1) rispetto ad una base {x1 , . . . , xn }. Allora T è l’applicazione identità, cioè tale che T (x) = x, per ogni x ∈ X. Infatti T (xi ) = xi , per ogni i = 1, . . . , n, per definizione di matrice associata, da cui segue che T (x) = x per ogni x ∈ X per linearità di T . Definizione 3.5.8. Sia A una matrice quadrata di ordine n × n. Se esiste una matrice B tale che A · B = B · A = I, dove I è la matrice identità (3.5.1), allora si dice che la matrice A è invertibile. La matrice B si dice inversa di A e si scrive B = A−1 . Vedremo come calcolare l’inversa di una matrice nella sezione 4.5. Proposizione 3.5.9. Consideriamo le matrici quadrate di ordine n × n. Sia A una di queste matrici. Allora l’inversa di A è univocamente determinata. Dimostrazione. Supponiamo che B e B 0 siano due matrici inverse di A, cioè A · B 0 = B 0 · A = A · B = B · A = I. Allora: B 0 = B 0 · I = B 0 · (A · B) = (B 0 · A) · B = I · B = B, come volevasi dimostrare. ¤ Proposizione 3.5.10. Consideriamo le matrici quadrate di ordine n × n. Supponiamo che A e B siano invertibili. Allora anche A · B e B · A sono matrici invertibili. In particolare l’inversa di A · B è B −1 A−1 e l’inversa di B · A è A−1 B −1 . 3.5. PRODOTTO DI MATRICI 37 Dimostrazione. Per la proprietà associativa della moltiplicazione si ha che: (B −1 A−1 )(A · B) = B −1 (A−1 A)B = B −1 B = I, dove la terza uguaglianza segue dal fatto che A−1 A = I perché A−1 è l’inversa di A e l’ultima uguaglianza dal fatto che B −1 B = I, perché B −1 è l’inversa di B. Allo stesso modo si ha che (A−1 B −1 )(B · A) = A−1 (B −1 B)A = A−1 A = I, completando cosı̀ la dimostrazione. ¤ Osservazione 3.5.11. Si noti che, passando all’inversa, i fattori del prodotto si scambiano di posto. Questa proprietà è di fondamentale importanza perché il prodotto di matrici è un’operazione che non è commutativa. Una cosa simile accade quando si passa alla matrice trasposta. Infatti si verifica che (AB)t = B t At . CAPITOLO 4 Sistemi lineari e matrici 4.1. Sistemi lineari Un sistema lineare di m equazioni in n incognite si scrive nel modo seguente: α11 x1 + · · · + α1n xn = b1 α x + · · · + α x = b 21 1 2n n 2 . .. α x + · · · + α x = b m1 1 mn n m Indichiamo con A la matrice dei coefficienti delle variabili: α11 α12 · · · α1n α21 α22 · · · α2n A= .. .. .. .. . . . . αm1 αm2 · · · αmn Supponiamo di avere una soluzione x per ogni b. Abbiamo quindi una funzione: b1 x1 .. .. m R 3 . 7→ . ∈ Rn . bm xn Questa applicazione è lineare, infatti se Ax = b e Ax0 = b0 , allora Ax+Ax0 = b+b0 = A(x+x0 ). Se esiste una matrice B, di ordine n × m, tale che x = Bb e tale che (AB)b = A(Bb) = b, allora la matrice AB ha le proprietà della matrice identità: 1 0 0 0 0 0 1 0 0 0 I= 0 0 1 0 0 .. .. .. . . .. . . . . . 0 0 0 ··· 1 Se esiste una unica soluzione per ogni b, allora deve essere necessariamente n = m, cioè AB è una matrice quadrata. Se m > n non esistono soluzioni, mentre se m < n non ho una unica soluzione, ma il numero (infinito) delle soluzioni è determinato dal numero di colonne n − m. In definitiva: per l’esistenza di una soluzione deve essere m ≤ n, mentre per l’unicità della soluzione deve essere m = n. 38 4.2. ELIMINAZIONE DI GAUSS 39 Se la matrice A è invertibile, allora l’equazione Ax = b, moltiplicando ambo i membri per A , ha come soluzione x = A−1 b. −1 4.2. Eliminazione di Gauss In questa sezione mostriamo con tutti i dettagli un metodo per risolvere i sistemi di equazioni lineari: α1,1 x1 + α1,2 x2 + · · · + α1,n xn = b1 , α x + α x + · · · + α x = b , 2,1 1 2,2 2 2,n n 2 . .. α x + α x + · · · + α x = b . m,1 1 m,2 2 m,n n m Per quanto già visto sulla moltiplicazione di matrici, possiamo scrivere il sistema lineare come b1 x1 α1,1 α1,2 . . . α1,n α2,1 α2,2 . . . α2,n x2 b2 . .. .. ... . . = . . . .. .. . αm,1 αm,2 . . . αm,n xn bn ovvero, in forma compatta, Ax = b. Per esempio, il sistema lineare x1 + 3x2 + x3 − x4 = 1, 3x + 9x + 4x + x = 1, 1 2 3 4 2x1 + x2 + 5x3 + 2x4 = 0, x − x − x = 2, 2 3 4 lo scriviamo nel modo seguente: 1 3 2 0 (4.2.1) 3 1 −1 x1 1 9 4 1 x2 1 = 1 5 2 x3 0 1 −1 −1 x4 2 Osservazione 4.2.1. Si presti attenzione al fatto che nella matrice dei coefficienti è necessario mettere 0 nel caso la variabile corrispondente non compaia nell’equazione, come per esempio facciamo per la variabile x1 nella quarta equazione del sistema lineare precedente. L’eliminazione di Gauss è un procedimento che permette di passare da un sistema di equazioni lineare ad un altro sistema equivalente, cioè con le stesse soluzioni, che è più facile da risolvere. Si arriverà infatti ad un sistema di equazioni lineari la cui matrice di coefficienti è triangolare superiore che si potrà risolvere per sostituzione. 4.2. ELIMINAZIONE DI GAUSS 40 Consideriamo la matrice dei coefficienti del sistema lineare (4.2.1): 1 3 2 0 3 1 −1 1 9 4 1 1 1 5 2 0 1 −1 −1 2 Mediante operazioni sulle righe della matrice, vogliamo arrivare ad una matrice triangolare superiore, cioè una matrice in cui nella prima colonna solo il primo elemento è diverso da zero, nella seconda colonna solo i primi due elementi sono diversi da zero e infine nella terza colonna l’ultimo elemento è nullo. Prendiamo il primo elemento in alto a sinistra (che è un 1) della matrice come pivot: faremo diventare nulli tutti gli elementi della matrice che stanno sotto il pivot (nella stessa colonna, la prima). Per fare ciò, al posto della seconda riga, sostituiamo la somma della seconda riga con la prima riga moltiplicata per −3: 1 0 2 0 3 1 −1 1 0 1 4 −2 1 5 2 0 1 −1 −1 2 Poi sostituiamo la terza riga con la somma della terza riga e la prima riga moltiplicata per −2: 1 3 1 −1 1 0 0 1 4 −2 0 −5 3 4 −2 2 0 1 −1 −1 Ora la prima colonna è a posto e ci occupiamo della seconda colonna. Per prima cosa scambiamo la seconda e la quarta riga, cosı̀ da portare in basso lo zero che c’è nella seconda colonna. 1 3 1 −1 1 2 0 1 −1 −1 0 −5 3 4 −2 0 0 1 4 −2 Scegliamo ora come pivot il numero 1 della seconda riga e seconda colonna: vogliamo far diventare zero le entrate sotto il pivot (nella stessa colonna, la seconda). Quindi sostituiamo la terza riga con la somma della terza riga e della seconda riga moltiplicata per 5: 1 0 0 0 1 3 1 −1 1 −1 −1 2 8 0 −2 −1 0 1 4 −2 4.2. ELIMINAZIONE DI GAUSS 41 Abbiamo messo a posto cosı̀ anche la seconda colonna. Dobbiamo provvedere allora alla terza colonna. Per prima cosa scambiamo di posto la terza e la quarta riga per avere il coefficiente più semplice (1 al posto di −2) come pivot. 1 0 0 0 3 1 −1 1 1 −1 −1 2 0 1 4 −2 0 −2 −1 8 Infine vogliamo far diventare zero il coefficiente −2 della quarta riga, terza colonna, sotto il pivot. A questo scopo sostituiamo alla quarta riga la somma della quarta riga con la terza riga moltiplicata per 2: 1 3 1 −1 1 0 1 −1 −1 2 0 0 1 4 −2 0 0 0 7 4 Abbiamo ottenuto cosı̀ la forma triangolare superiore che stavamo cercando. Allora il sistema lineare dato (4.2.1) è equivalente al seguente: x1 + 3x2 + x3 − x4 = 1 x −x −x =2 2 3 4 x3 + 4x4 = −2 7x4 = 4 che possiamo risolvere per sostituzione. Dall’ultima equazione 7x4 = 4 segue che 4 x4 = . 7 Sostituiamo il valore trovato per x4 nella terza equazione x3 + 4x4 = −2, che diventa x3 + 16/7 = −2, da cui si ottiene: 30 x3 = − . 7 Ora possiamo sostituire i valori di x3 e x4 trovati nella seconda equazione x2 − x3 − x4 = 2, che diventa 30 4 x2 + − =2 7 7 da cui si ottiene che: 12 x2 = − . 7 Infine si sostituiscono i valori di x2 , x3 e x4 trovati nella prima equazione x1 +3x2 +x3 −x4 = 1, che diventa 12 30 4 x1 − 3 − − =1 7 7 7 da cui si ricava che x1 = 11. 4.2. ELIMINAZIONE DI GAUSS 42 Possiamo concludere allora che il sistema lineare dato (4.2.1) ha una e una sola soluzione, che è: µ ¶ 12 30 4 11, − , − , . 7 7 7 Osservazione 4.2.2. A questo punto, il sistema lineare è risolto, ma è buona norma verificare il risultato ottenuto: perché la soluzione sia corretta è necessario che, sostituendo x1 = 11, x2 = −12/7, x3 = −30/7, x4 = 4/7 nel sistema lineare dato (4.2.1), si trovino che le equazioni sono soddisfatte. Nel caso che non lo siano, significa che è stato commesso qualche errore di calcolo e bisogna ricontrollare tutti i passaggi. Quando ci sono tanti calcoli da fare, come nell’esempio che abbiamo appena visto, è di fondamentale importanza fare la verifica al termine dei calcoli, perché nel caso ci sia stato qualche errore di calcolo, esso verrebbe quasi sicuramente scoperto con questa verifica. Proviamo a risolvere anche il seguente sistema lineare: 5x1 + 3x2 − 2x3 = 1 x2 − 2x3 = −2 x2 + 2x3 = 1 che corrisponde alla matrice 5 3 −2 1 0 1 −2 −2 0 1 2 1 Seguendo il procedimento dell’eliminazione di Gauss si trova 5 3 −2 1 0 1 −2 −2 0 0 4 3 che corrisponde al sistema lineare 5x1 + 3x2 − 2x3 = 1 x2 − 2x3 = −2 4x3 = 3 che risolviamo per sostituzione: 3 1 1 4 x3 = , x2 = 2x3 − 2 = − , x1 = (−3x2 + 2x3 + 1) = . 4 2 5 5 La forma triangolare mi garantisce la possibilità di trovare tutte le x. Finora abbiamo visto esempi di sistemi lineari di n equazioni in n incognite. 4.2. ELIMINAZIONE DI GAUSS 43 Esempio 4.2.3. Risolviamo un’equazione lineare: x1 + 3x2 − 2x3 = 0 (4.2.2) che è associata alla matrice: 1 3 −2 0 Siccome ci sono tre variabili, x1 , x2 e x3 , e una sola equazione, quindi ci sono 3 − 1 = 2 variabili che rimangono arbitrarie. Possiamo scegliere x2 = a e x3 = b come parametri. Allora le soluzioni dell’equazione (4.2.2) sono: −2b −3a −3a − 2b −3x2 − 2x3 x1 a x2 = a + 0 . = x2 = b 0 x3 b x3 Allora l’insieme delle soluzioni è −3 2 a 1 + b 0 0 1 con a, b numeri reali. In particolare, per a = 1 e b = 0, si trova il vettore: −3 1 0 Se invece poniamo a = 0 e b = 1, allora troviamo un’altra soluzione di T , cioè: 2 0 . 1 In altri termini, l’insieme delle soluzioni dell’equazione 4.2.2 è generato da due vettori −3 2 1 , 0 0 1 Dimostriamo ora che questi due ultimi vettori sono linearmente indipendenti. Consideriamo una combinazione lineare dei due vettori che dia zero: 0 2 −3 λ1 1 + λ2 0 = 0 . 0 1 0 Effettuando la somma al primo membro si trova: 0 −3λ1 + 2λ2 λ1 = 0 0 λ2 4.2. ELIMINAZIONE DI GAUSS 44 da cui segue, guardando la seconda e la terza componente, che λ1 = λ2 = 0. Quindi i due vettori sono linearmente indipendenti. Esempio 4.2.4. Consideriamo i seguenti due vettori linearmente indipendenti di R3 . 1 1 (4.2.3) 1 , 0 0 2 Vogliamo trovare l’equazione cartesiana del sottospazio generato dai due vettori. In generale, un piano di R3 è determinato da un’equazione della forma αx1 + βx2 + γx3 = 0. Se per ipotesi tale piano contiene i vettori (4.2.3), allora dobbiamo risolvere il sistema lineare α + β = 0, α + 2γ = 0 che corrisponde alla matrice 1 1 0 0 1 0 2 0 il procedimento di eliminazione di Gauss ci dà 1 1 0 0 0 −1 2 0 che corrisponde al sistema lineare α + β = 0 −β + 2γ = 0 che ha soluzioni: γ arbitrario, β = 2γ e α = −β = −2γ. Cosı̀ ottengo i vettori che soddisfano il sistema: −2γ −2 2γ = γ 2 γ 1 descritti dalla seguente equazione −2x1 + 2x2 + x3 = 0. Esercizio 4.2.5. Risolvere il sistema lineare: x1 − 3x2 + 2x3 = −1, 3x1 − 2x2 + 3x3 = 2, 4x1 + 2x2 + 2x3 = 5. 4.2. ELIMINAZIONE DI GAUSS 45 Soluzione. Al sistema lineare dato associamo la matrice 1 −3 2 −1 3 −2 3 2 4 2 2 5 Applichiamo il metodo di eliminazione di Gauss 1 −3 2 −1 0 7 −3 5 0 14 −6 9 1 −3 2 −1 0 7 −3 5 0 0 0 −1 che corrisponde al sistema lineare: x1 − 3x2 + 2x3 = −1 7x2 − 3x3 = 5 0 = −1 che non ha soluzioni, a causa della terza riga, che è un’equazione che è sempre falsa. Infatti se si pone, procedendo per sostituzione, 3 1 x1 = (3a + 5) − 2a − 1 x3 = a, x2 = (3a + 5), 7 7 in forma vettoriale −5 1 x1 − 57 a + 17 a 1 3 5 x2 = 7 a + 7 = 3 + 5 . 7 7 a 7 0 x3 ¤ Nel prossimo esercizio si esamina un sistema lineare di equazioni con due parametri h, k. Esercizio 4.2.6. Risolvere il sistema lineare x1 + 2x2 + hx3 = 1 2x1 + hx2 + 8x3 = −1 4x1 + 7x2 + x3 = b Soluzione. Al sistema lineare associamo la matrice 1 2 h 1 2 h 8 −1 4 7 1 b che risolviamo con il metodo dell’eliminazione di Gauss 1 2 h 1 0 h − 4 8 − 2h −3 0 −1 1 − 4h b − 4 1 2 h 1 0 −1 1 − 4h b − 4 0 h − 4 8 − 2h −3 4.2. ELIMINAZIONE DI GAUSS 46 1 2 h 1 0 −1 1 − 4h b−4 0 0 8 − 2h + (h − 4)(1 − 4h) −3 + (h − 4)(b − 4) Il terzo elemento della terza riga è 8 − 2h + (h − 4)(1 − 4h) = 8 − 2h + h − 4 − 4h2 + 16h = −4h2 + 15h + 4 Troviamo le soluzioni dell’equazione di secondo grado √ √ −15 ± 225 + 64 15 ± 289 15 ± 17 4 h12 = = = = − 1 −8 8 8 4 Per non avere un sistema nullo deve essere h 6= 1/4 e h 6= 4. Per h = 4 non abbiamo soluzione per nessun b. Per h = 1/4 c’è soluzione solo per b = 56/17 quando abbiamo una famiglia di soluzioni dipendenti da un parametro. ¤ Esercizio 4.2.7. Risolvere il seguente sistema lineare: 2x2 − 4x3 + x4 = 1 x − 3x − x + x = 0 1 2 3 4 x1 − x2 + 4x3 − 2x4 = −1 2x − 2x − x + 2x = 0 1 2 3 4 Soluzione. Associamo al sistema lineare la matrice: 0 2 −4 1 1 1 −3 −1 1 0 1 −1 4 −2 −1 2 −2 −1 2 0 Per risolverlo, iniziamo con lo scambiare le prime due righe: 0 1 −3 −1 1 0 2 −4 1 1 1 −1 4 −2 −1 2 −2 −1 2 0 Possiamo poi far diventare zero i termini sotto il pivot nella prima colonna: 1 −3 −1 1 0 0 2 −4 1 1 0 2 5 −3 −1 0 4 2 3 0 4.3. OPERAZIONI ELEMENTARI SULLE RIGHE DI UNA MATRICE 47 Passiamo ora alla seconda colonna: 1 −3 −1 1 0 0 2 −4 1 1 0 0 9 −4 −2 0 0 10 1 −2 Al posto della quarta riga mettiamo la differenza della quarta riga e della terza: 1 −3 −1 1 0 0 2 −4 1 1 0 0 9 −4 −2 0 0 1 5 0 Scambiamo la terza e la quarta riga: 1 −3 −1 1 0 0 2 −4 1 1 0 0 1 5 0 0 0 9 −4 −2 e infine pensiamo alla terza colonna: 1 −3 −1 1 0 1 0 2 −4 1 0 0 1 5 0 0 0 0 −49 −2 Abbiamo trovato cosı̀ che il sistema dato è equivalente al seguente: x1 − 3x2 − x3 + x4 = 0 2x − 4x + x = 1 2 3 4 x3 − 5x4 = 0 − 49x4 = −2 che si può risolvere per sostituzione. ¤ 4.3. Operazioni elementari sulle righe di una matrice In questa sezione mostreremo come interpretare le operazioni sulle righe che usiamo nel metodo di eliminazione di Gauss. Consideriamo una matrice A di ordine n × m. 4.3. OPERAZIONI ELEMENTARI SULLE RIGHE DI UNA MATRICE 48 Scambio di due righe. Lo scambio tra due righe, precisamente lo scambio della riga j con la riga k: .. .. . . αj1 αj2 · · · αjn αk1 αk2 · · · αkn A = ... 7 A0 = ... → αk1 αk2 · · · αkn αj1 αj2 · · · αjn .. .. . . consiste nel moltiplicare la matrice A per la matrice En;jk , di ordine n × n, che si ottiene a partire dalla matrice identità In scambiando la riga j-esima con la riga k-esima, cioè: En;jk = j k j k 1 .. . 1 0 1 1 ... 1 1 0 1 .. . 1 dove gli elementi non indicati sono tutti nulli. Allora la matrice A0 ottenuta dalla matrice A scambiando la j-esima riga con la k-esima è la stessa matrice che si ottiene moltiplicando A a sinistra per la matrice En;jk appena definita, cioè A0 = En;jk · A. Osserviamo che la matrice En;jk è invertibile e la sua inversa è se stessa, cioè En;jk · En;jk = In . Moltiplicazione di una riga per uno scalare. Significa moltiplicare a sinistra per una la matrice En;λ,j ottenuta dalla matrice identità moltiplicando la j-esima riga per λ. Si può interpretare allo stesso modo anche la somma della j-esima riga con la k-esima riga moltiplicata per uno scalare λ. Per vedere come, facciamo un esempio: Esempio 4.3.1. Consideriamo la matrice: 2 −1 3 −2 A = 0 1 1 5 4 −3 0 2 4.4. INVERSA DI UNA MATRICE 49 Sommiamo alla seconda riga la terza riga moltiplicata per −2. Si ottiene 2 −1 3 −2 A0 = −8 7 1 1 4 −3 0 2 Troviamo la matrice E che moltiplicata alla matrice A mi dà la matrice A0 . Si parte dalla matrice identità modificandola con lo stesso procedimento, cioè sommando alla seconda riga la terza riga moltiplicata per −2: 1 0 0 1 0 0 0 1 0 7→ 0 1 −2 0 0 1 0 0 1 Questo esempio ci dimostra la seguente: Proposizione 4.3.2. Effettuare una operazione sulle righe di una matrice A di ordine n × m equivale a moltiplicare la matrice A a sinistra per una opportuna matrice E di ordine n × n ottenuta effettuando sulla matrice identità In la medesima operazione da effettuare su A. 4.4. Inversa di una matrice Nella definizione 3.5.8 abbiamo già introdotto la nozione di inversa di una matrice. Nella prossima sezione daremo un metodo per calcolare l’inversa di una data matrice quadrata. Proposizione 4.4.1. Sia E una matrice invertibile fissata. Allora una matrice A è invertibile se e solo se la matrice E · A è invertibile. Dimostrazione. Sia E −1 l’inversa di E. Se A è invertibile, allora l’inversa di E · A è A−1 · E −1 . Viceversa se E · A è invertibile, esiste una matrice B tale che (E · A) · B = B · (E · A) = In . Allora E −1 = A · B. L’inversa di A è E −1 · B −1 . ¤ Possiamo dire che effettuare operazioni elementari sulle righe di A non cambia la natura di A. Si noti anche che le matrici considerate −1 En;jk = En;jk sono invertibili, come si può verificare direttamente. Per esempio, se λ 6= 0, allora la matrice con λ al posto (i, i) è invertibile e la sua inversa è la matrice con λ−1 al posto (i, i). Esempio 4.4.2. Consideriamo la matrice E3;3,3 1 E3;3,3 = 0 0 con λ = −2, cioè 0 0 1 0 . 0 −2 4.5. CALCOLO DELL’INVERSA DI UNA MATRICE 50 Tale matrice ha come inversa E3;3,3 con λ = −1/2, cioè 1 0 0 0 1 0 E3;3,3 = 1 0 0 − 2 come si può verificare direttamente moltiplicando queste due matrici. Proposizione 4.4.3. La matrice En;λ;j,k è invertibile con inversa En;−λ;j,k . Esempio 4.4.4. La matrice E3;−4;2,3 , cioè E3;−4;2,3 ha come inversa 1 0 0 = 0 1 −4 0 0 1 E3;4;2,3 1 0 0 = 0 1 4 . 0 0 1 4.5. Calcolo dell’inversa di una matrice In questa sezione vediamo come calcolare l’inversa, se esiste, di una matrice quadrata A di ordine n × n. Se una colonna di A è il vettore nullo, allora A non è invertibile. Quindi esiste una riga in cui il primo elemento è diverso da zero. Se questa riga è la j-esima, con j 6= 1, allora scambiamo la prima riga con la j-esima, cosı̀ da ottenere una matrice con il primo elemento della prima riga diverso da zero. In altre parole, procediamo nello stesso modo che abbiamo seguito per l’eliminazione di Gauss, cioè per trasformare la matrice data in una a gradini. Contemporaneamente, facciamo le stesse operazioni che facciamo su A anche sulla matrice identità In , che per comodità ci scriviamo a fianco. Per esempio, supponiamo che la matrice A sia: 1 0 0 0 1 2 I3 = 0 1 0 A = −1 3 0 0 0 1 1 −2 1 Osserviamo che la terza riga ha come primo elemento 1, quindi scambiamo la prima riga con la terza, in entrambe le matrici A ed I: 0 0 1 1 −2 1 3 0 0 1 0 −1 1 0 0 0 1 2 4.5. CALCOLO DELL’INVERSA DI UNA MATRICE 51 Ora, ricordando il procedimento di eliminazione di Gauss, vogliamo far diventare la prima colonna un vettore nullo, tranne il primo elemento che rimane uno. Quindi sommiamo alla seconda riga la prima riga (moltiplicata per 1): 1 −2 1 0 0 1 1 1 0 0 1 1 0 1 2 1 0 0 La prima colonna è a posto. In generale, sommmiamo ad ogni altra riga la prima riga moltiplicata per un opportuno scalare in modo da ottenere tutti zero nella prima colonna (eccetto la prima riga, dove c’è 1). Otteniamo cioè: 1 ∗ ∗ ∗ 0 ∗ ∗ ∗ A1 = . . . . .. .. . . .. 0 ∗ ∗ ∗ dove gli asterischi significano che ci può essere qualsiasi elemento. Ora dimentichiamoci della prima colonna e della prima riga. Guardiamo la seconda colonna. C’è già un 1 nella seconda riga, quindi non spostiamo nessuna riga. Vogliamo che nella seconda colonna, sotto l’1 della seconda riga ci sia zero. Quindi sommiamo alla terza riga la seconda riga moltiplicata per (−1): 1 −2 1 0 0 1 1 1 1 1 0 0 0 0 1 1 −1 −1 Adesso la matrice a sinistra è a gradini. Per calcolare l’inversa della matrice data, però, c’è ancora un po’ da fare: dobbiamo ottenere a sinistra la matrice identità; la matrice che troveremo a destra sarà l’inversa della matrice di partenza. La prima colonna è a posto. Ma la seconda colonna no. Sommiamo quindi alla prima riga la seconda riga moltiplicata per 2: 1 0 3 0 2 3 1 1 0 1 1 0 0 0 1 1 −1 −1 Anche la seconda colonna ora va bene. Per mettere a posto la terza, e ultima, colonna, sommiamo alla prima riga la terza riga moltiplicata per (−3) e poi sommiamo alla seconda riga la terza riga moltiplicata per (−1): −3 5 6 1 0 0 2 2 −1 0 1 1 1 −1 −1 0 0 1 4.6. STUDIO DEL RANGO 52 Abbiamo cosı̀ ottenuto la matrice identità a sinistra. A destra abbiamo trovato una matrice che si dimostra essere l’inversa della matrice data, come possiamo verificare direttamente moltiplicando le due matrici. Osservazione 4.5.1. Sia T : Rn → Rn l’applicazione lineare associata alla matrice A. Allora la matrice A è invertibile se e solo se l’applicazione T è invertibile, ossia se e solo se T è biettiva. 4.6. Studio del rango Definizione 4.6.1. Il rango di una matrice è il massimo numero di colonne linearmente indipendenti. Si può dimostrare che il rango è anche uguale al massimo numero di righe linearmente indipendenti, ovvero che il rango di una matrice coincide con il rango della sua trasposta. Un modo per calcolare il rango di una matrice è quello di trasformare la matrice a gradini mediante operazioni elementari, che non cambiano il rango della matrice, come si può dimostrare rigorosamente. Vediamo un esempio: vogliamo calcolare il rango della matrice 2 −4 3 1 0 1 −2 1 −4 2 0 1 −1 3 1 4 −7 4 −4 5 Innanzitutto osserviamo che, anche se le colonne sono 5, il rango può essere al più 4, perché il rango per colonne deve coincidere con il rango per righe, che sono 4. Sommando alla quarta riga la prima moltiplicata per −2 si ha 2 −4 3 1 0 1 −2 1 −4 2 0 1 −1 3 1 0 1 −2 −6 5 Ora sommiamo alla prima riga la seconda riga moltiplicata per −2: 0 0 1 9 −4 1 −2 1 −4 2 0 1 −1 3 1 0 1 −2 −6 5 Ora sommiamo alla quarta riga la terza riga moltiplicata per −1 0 0 1 9 −4 1 −2 1 −4 2 0 1 −1 3 1 0 0 −1 −9 4 4.7. IL TEOREMA DI ROUCHÉ-CAPELLI 53 Ora sommiamo alla quarta riga la prima riga 0 0 1 9 −4 1 −2 1 −4 2 0 1 −1 3 1 0 0 0 0 0 Visto che la quarta riga è il vettore nullo, il rango della matrice data può essere al più 3, perché abbiamo trovato solo 3 righe non nulle. Affermiamo ora che il rango della matrice data è esattamente 3, perché le prime colonne sono linearmente indipendenti. Dimostriamolo: dimostriamo cioè che i tre vettori colonna 0 0 1 (4.6.1) 1 −2 0 0 1 −1 sono linearmente indipendenti (possiamo dimenticarci la quarta componente perché è nulla per tutti e tre i vettori). Per definizione di indipendenza lineare, supponiamo che esistano tre scalari λ1 , λ2 , λ3 tali che 0 0 1 0 λ1 1 + λ2 −2 + λ3 0 = 0 0 1 −1 0 e dimostriamo che da ciò segue che λ1 = λ2 = λ3 = 0. L’equazione precedente è equivalente al sistema lineare di tre equazioni nelle incognite λ1 , λ 2 , λ 3 : 0λ1 + 0λ2 + 1λ3 = 0 λ1 − 2λ2 + 0λ3 = 0 0λ1 + 1λ2 − 1λ3 = 0 La prima equazione dice che λ3 = 0, quindi la terza equazione implica che λ2 − λ3 = λ2 = 0. Ma allora dalla seconda equazione si ha che λ1 − 2λ2 = λ1 = 0. Abbiamo cosı̀ dimostrato che i tre vettori (4.6.1) sono linearmente indipendenti, da cui segue che il rango della matrice data è esattamente 3. 4.7. Il teorema di Rouché-Capelli Il concetto di rango di una matrice torna utile per esempio per vedere se un sistema lineare ammette, o no, delle soluzioni. Ciò infatti è il contenuto del seguente: Teorema 4.7.1 (Rouché-Capelli). Sia A la matrice dei coefficienti di un sistema lineare di equazioni e (A|b) la matrice orlata, cioè b è il vettore dei termini noti delle equazioni. Allora 4.7. IL TEOREMA DI ROUCHÉ-CAPELLI 54 il sistema lineare dato ammette almeno una soluzione se e solo se il rango della matrice dei coefficienti A coincide con il rango della matrice orlata (A|b). Vediamo come applicare il teorema di Rouché-Capelli. Esempio 4.7.2. Risolviamo il seguente sistema lineare: x1 − 8x2 = 3 2x1 + x2 = 1 (4.7.1) 4x1 + 7x2 = 4 Sono tre equazioni in due incognite. La matrice dei coefficienti delle incognite è: 1 −8 A= 2 1 4 7 che ha rango 2, infatti sommando alla prima colonna la seconda colonna moltiplicata per −2 si trova 17 −8 0 1 −10 7 che ha evidentemente rango 2, perché le prime due righe sono chiaramente linearmente indipendenti. Allora il teorema di Rouché-Capelli ci dice che il sistema lineare ha soluzione se e solo se il rango della matrice orlata è 2. La matrice orlata del sistema lineare (4.7.1) è 1 −8 3 (A|b) = 2 1 1 4 7 4 Sommiamo alla prima colonna la terza colonna moltiplicata per −1 −2 −8 3 1 1 1 0 7 4 Consideriamo ora le tre righe come vettori di R3 . Non è difficile mostrare che queste tre righe sono linearmente indipendenti, quindi la matrice orlata del sistema lineare (4.7.1) ha rango 3. Perciò il sistema lineare (4.7.1) non ha soluzioni, per il teorema di Rouché-Capelli. Osserviamo che si poteva procedere anche con il metodo di eliminazione di Gauss: 1 −8 1 −8 1 −8 3 3 3 1 1 0 17 −5 0 17 −5 2 4 7 4 0 39 −8 0 0 − 59 17 L’ultima riga della matrice a sinistra corrisponde all’equazione 59 0x1 + 0x2 = − 17 4.7. IL TEOREMA DI ROUCHÉ-CAPELLI 55 che chiaramente non ha soluzioni. Se vogliamo calcolare il rango di matrici grandi, allora ci sono delle proprietà che è bene ricordare. Proposizione 4.7.3. Sia A una sottomatrice (anche non quadrata) di una matrice B. Allora rango(A) ≤ rango(B) o equivalentemente rango(B) ≥ rango(A). La ragione più profonda della proposizione precedente sta nel seguente fatto: Proposizione 4.7.4. Il rango di una matrice B è uguale al massimo ordine di una sottomatrice quadrata A invertibile di B. Esempio 4.7.5. Vediamo ora come si può calcolare il esempio della matrice di ordine 6 × 5 −1 3 5 0 1 −1 5 −2 3 −3 2 −5 B= 0 6 7 3 6 5 13 −4 8 −1 0 3 rango di una matrice grande, per 1 7 0 1 4 7 estraendo una opportuna sottomatrice quadrata A di B. Per esempio consideriamo la sottomatrice di ordine 3 × 3 ottenuta da B eliminando la prima, la terza e la quarta riga e la seconda e la quarta colonna: 5 1 7 5 −4 4 8 0 7 che si può vedere che ha rango 3. Quindi la matrice B originaria ha rango maggiore od uguale a 3. Scegliendo opportune sottomatrici di B si può verificare che il rango di B è 5. Esempio 4.7.6. Consideriamo una matrice di ordine 3 × 4 −1 3 5 0 A = 5 −2 1 −1 3 −3 2 −5 Siccome A ha tre righe, il rango di A è al più 3. Per calcolare esattamente il rango, scegliamo delle sottomatrici di A. Per esempio la sottomatrice ottenuta da A eliminando la prima e la terza colonna e la seconda riga è à ! 3 0 −3 −5 4.8. DETERMINANTE DI MATRICI 56 che ha rango 2. Considerando poi la sottomatrice di ordine 3 × 3 ottenuta da A eliminando la prima colonna: 3 5 0 −2 1 −1 −3 2 −5 si verifica che il rango di questa sottomatrice è 3, quindi anche il rango di A è 3. 4.8. Determinante di matrici Consideriamo le matrici quadrate, cioè le matrici di ordine n × n, per un certo n ≥ 1. Ad ogni matrice quadrata si può associare un numero reale che in qualche modo ne determina alcune proprietà fondamentali. Definizione 4.8.1. Il determinante è una funzione che associa ad ogni matrice A di ordine n × n un numero reale, che indichiamo con det(A), che soddisfa le seguenti proprietà: • det(I) = 1; • se A ha due righe uguali, allora det(A) = 0; • det(A) è una funzione lineare sulle righe di A. L’ultima proprietà significa che se moltiplichiamo una riga di A per uno scalare λ, allora anche il determinante viene moltiplicato per λ. Allo stesso modo se sommiamo ad una riga di A un vettore, allora il determinante della matrice ottenuta è la somma di det(A) e del determinante della matrice con il vettore al posto della riga di A. Dalle proprietà della definizione 4.8.1, si possono dimostrare altre proprietà della funzione determinante: Proposizione 4.8.2. Consideriamo le matrici quadrate di ordine n × n e la funzione determinante su di esse. Allora: • se A ha una riga nulla, allora det(A) = 0; • scambiando due righe qualunque di A, allora det(A) cambia di segno; • se le righe di A sono linearmente dipendenti, allora det(A) = 0. Si può dimostrare che esiste davvero, ed è unica, la funzione determinante che soddisfa la definizione 4.8.1 e le proprietà indicate. Nel caso di matrici 2 × 2, il determinante è facile da calcolare: ° ° ° °a ° 11 a12 ° det(A) = ° ° = a11 a22 − a21 a12 , °a21 a22 ° dove ! à a11 a12 . A= a21 a22 4.8. DETERMINANTE DI MATRICI 57 Esempio 4.8.3. Consideriamo la matrice A quadrata di ordine 2 × 2: à ! 2 1 −1 0 allora il determinante di A è: ° ° ° 2 1° ° ° det(A) = ° ° = 2 · 0 − (−1) · 1 = 1. °−1 0° Osservazione 4.8.4. Il determinante è definito solo per le matrici quadrate, cioè di ordine n × n, per un certo intero n ≥ 1. Se invece una matrice A non è quadrata, cioè è di ordine n × m con n 6= m, allora il determinante non è definito. Il determinante di una matrice di ordine 3 × 3 a11 a12 a13 A = a21 a22 a23 a31 a32 a33 si può calcolare con la formula di Sarrus: det(A) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 − a11 a23 a32 − a12 a21 a33 . Esempio 4.8.5. Consideriamo la matrice 1 −1 0 A = 2 1 1 1 −2 2 Allora il determinante di A è: det(A) = 2 + (−1) + 0 − 0 − (−2) − (−4) = 7. In generale, se consideriamo una matrice quadrata di ordine n × n a11 a12 · · · a1n a21 a22 · · · a2n A= .. .. .. .. . . . . an1 an2 · · · ann (4.8.1) allora si può calcolare il determinante, per induzione sull’ordine n delle matrici, sviluppandolo lungo una riga o una colonna con il metodo di Laplace, come mostra la seguente: Proposizione 4.8.6. Sia A una matrice quadrata di ordine n×n come nella formula (4.8.1). Scegliendo di sviluppare la i-esima riga, il determinante di A è: n X (−1)i+j det(Aij ), det(A) = j=1 dove Aij è la matrice quadrata di ordine (n − 1) × (n − 1) ottenuta da A eliminando la i-esima riga e la j-esima colonna. 4.8. DETERMINANTE DI MATRICI 58 Nella proposizione 4.8.2 abbiamo visto che se le righe della matrice A sono linearmente dipendenti, allora il determinante di A è nullo. Vale anche il viceversa, come afferma la seguente: Proposizione 4.8.7. Il determinante det(A) di una matrice A è zero se e solo se le righe di A sono linearmente indipendenti. Si può dimostrare anche che una matrice A è invertibile se e solo se il determinante di A è diverso da zero. In tal caso, l’inversa di A è A11 −A21 · · · (−1)n−1 An1 −A12 A22 · · · (−1)n An2 1 −1 A = .. .. .. ... det(A) . . . n−1 n (−1) A1n (−1) A2n · · · Ann dove Aij è il determinante della matrice di ordine (n − 1) × (n − 1) ottenuta da A eliminando la i-esima riga e la j-esima colonna. Un’altra proprietà importante del determinante è data dal seguente: Teorema 4.8.8 (Binet). Siano A e B sono due matrici quadrate di ordine n × n. Allora det(A · B) = det(A) · det(B). (4.8.2) Esercizio 4.8.9. Consideriamo due matrici quadrate A e B di ordine 2 × 2 o 3 × 3. Verificate che vale la formula (4.8.2). Cenno di soluzione. Vediamo esplicitamente il caso delle matrici di ordine 2 × 2. Lasciamo al lettore il caso di quelle di ordine 3 × 3. Siano A e B matrici di ordine 2 × 2: à ! à ! a11 a12 b11 b12 A= , B= . a21 a22 b21 b22 Allora il prodotto AB è la seguente matrice di ordine 2 × 2: à ! a11 b11 + a12 b21 a11 b12 + a12 b22 AB = , a21 b11 + a22 b21 a21 b12 + a22 b22 che ha determinante det(AB) = (a11 b11 + a12 b21 )(a21 b12 + a22 b22 ) − (a21 b11 + a22 b21 )(a11 b12 + a12 b22 ) = = a12 b21 a21 b12 + a11 b11 a22 b22 − a21 b11 a12 b22 − a22 b21 a11 b12 = = (a11 a22 − a21 a12 )(b11 b22 − b21 b12 ) = det(A) · det(B), che è proprio ciò che volevamo dimostrare. ¤ CAPITOLO 5 Prodotto scalare e ortogonalità 5.1. Prodotto scalare nel piano Definizione 5.1.1. Il prodotto scalare di due vettori x e y si può definire come il modulo della proiezione ortogonale di y su x: x · y = |x||y| cos θ dove θ è l’angolo formato dai vettori x e y. Si noti che il prodotto scalare di x e y è un numero reale, cioè appunto uno scalare, il che spiega la terminologia. Come si calcola il prodotto scalare? Consideriamo due vettori x e y nel piano R2 , diciamo x = (x1 , x2 ) e y = (y1 , y2 ), dove x1 , x2 e y1 , y2 sono le coordinate rispetto alla base canonica e1 = (1, 0) e e2 = (0, 1) di R2 . Siano θ1 e θ2 gli angoli formati rispettivamente dai vettori x e y con la semiretta positiva delle ascisse. Allora l’angolo formato dai vettori x e y è θ = θ2 − θ1 . Ricordiamo le formule di addizione e sottrazione dei coseni: cos(α + β) = cos α cos β − sin α sin β che ci serviranno fra poco e osserviamo che per definizione si ha che: x1 x2 y1 y2 cos θ1 = , sin θ1 = , cos θ2 = , sin θ2 = . |x| |x| |y| |y| Dalle due equazioni precedenti segue che: cos θ = cos(θ2 − θ1 ) = cos θ1 cos θ2 + sin θ1 sin θ2 = x1 y1 x2 y2 x1 y 1 + x2 y 2 + = |x||y| |x||y| |x||y| Ma allora il prodotto scalare di x e y è x · y = |x||y| cos θ = x1 y1 + x2 y2 . Scrivendo i vettori x e y come colonne: à ! x1 , x= x2 à ! y1 y= y2 59 (5.1.1) 5.3. ORTOGONALITÀ E ORTOGONALIZZAZIONE il prodotto scalare si può scrivere anche cosı̀: ³ x · y = x1 y1 + x2 y2 = x1 60 à ! ´ y 1 = xt y. x2 y2 Osservazione 5.1.2. Il prodotto scalare è commutativo: scambiando di posto i due vettori, il prodotto scalare non cambia: x · y = y · x, come è evidente dalla formula (5.1.1) e dalla definizione intuitiva data all’inizio. 5.2. Prodotto scalare in uno spazio vettoriale Il prodotto scalare di due vettori si può definire in Rn analogamente al caso R2 . Definizione 5.2.1. Dati due vettori di Rn x1 x2 x= . , .. y= xn definiamo il prodotto scalare di x e y come t ³ x · y = x y = x1 x2 y1 y2 .. . yn ´ . . . xn y1 y2 .. . = x1 y1 + x2 y2 + · · · + xn yn . yn Per esempio in R4 si ha: x · y = x1 y1 + x2 y2 + x3 y3 + x4 y4 . Esempio 5.2.2. Consideriamo i seguenti due vettori in R3 : 2 1 1 , 0 −1 1 Allora il loro prodotto scalare è 2 · 1 + 1 · 0 − 1 · 1 = 1. 5.3. Ortogonalità e ortogonalizzazione Definizione 5.3.1. Due vettori x e y di uno spazio vettoriale X si dicono ortogonali, o perpendicolari, se x · y = 0. 5.3. ORTOGONALITÀ E ORTOGONALIZZAZIONE 61 Consideriamo una base {x1 , . . . , xn } di uno spazio vettoriale X. Vogliamo mostrare come ottenere una base ortogonale {x01 , . . . , x0n } di X, cioè una base di vettori ortogonali a due a due, cioè tali che x0i · x0j = 0 per i 6= j. A questo scopo seguiamo il procedimento di ortogonalizzazione di Gram-Schmidt. Partiamo da x01 = x1 . Definiamo x02 nel modo seguente: x02 = x2 − Poi definiamo x03 : x03 = x3 − x2 · x01 0 x. x01 · x01 1 x3 · x02 0 x3 · x01 0 − x x. 2 x02 · x02 x01 · x01 1 e andiamo avanti cosı̀, cioè: x0i = xi − xi · x0i−1 0 xi · x01 0 − · · · − x x. x0i−1 · x0i−1 i−1 x01 · x01 1 Proposizione 5.3.2. L’insieme {x01 , . . . , x0n } cosı̀ costruito è una base ortogonale di X. Dimostrazione. Si verifica direttamente con i calcoli che x0i · x0j = 0. ¤ Si noti che, per costruzione, il sottospazio vettoriale generato da x01 , . . . x0i , per ogni i, coincide con il sottospazio generato da x1 , . . . , xi . Esempio 5.3.3. Consideriamo i seguenti tre vettori in R4 : 1 1 1 −1 0 0 x1 = , x 2 = , x 3 = 1 1 0 −1 0 0 Vogliamo trovare una base ortogonale del sottospazio di R4 generato da x1 , x2 , x3 con il procedimento di ortogonalizzazione di Gram-Schmidt. Innanzitutto poniamo 1 −1 x01 = x1 = . 1 −1 Dopo si definisce: 1 1 1 0 x2 · x 0 1 −1 1 1 x02 = x2 − 0 10 x10 = − = x1 · x1 1 2 1 2 1 0 −1 1 5.3. ORTOGONALITÀ E ORTOGONALIZZAZIONE Infine si definisce: 1 1 1 1 0 0 x3 · x x3 · x 0 1 1 1 −1 1 0 x03 = x3 − 0 20 x02 − 0 10 x01 = − − = x2 · x2 x1 · x1 0 4 1 4 1 2 −1 0 1 −1 0 Abbiamo trovato cosı̀ la seguente base ortogonale: 1 1 −1 1 1 0 0 x2 = , x1 = , 2 1 1 −1 1 1 1 0 0 x3 = . 2 −1 0 62 CAPITOLO 6 Autovalori, autovettori e diagonalizzabilità di matrici 6.1. Autovalori e autovettori Definizione 6.1.1. Sia A una matrice quadrata di ordine n × n. Si dice che uno scalare λ ∈ R è un autovalore della matrice A se esiste un vettore x ∈ Rn non nullo tale che: Ax = λx. Se ciò accade, si dice che x è un autovettore di A relativo all’autovalore λ. Esempio 6.1.2. Consideriamo la matrice à A= Si verifica immediatamente che à ! à 1 2 A = −1 −1 ¡ 1 ¢ quindi 1 è un autovalore di A e −1 1 0 !à 2 1 −1 0 ! 1 −1 ! à = 2−1 −1 + 0 ! à = ! 1 −1 è un autovettore di A relativo all’autovalore 1. Osservazione 6.1.3. Lo scalare 0 ∈ R è un autovalore della matrice A, per definizione di autovalore, se esiste un vettore x ∈ Rn non nullo tale che Ax = 0. Quindi 0 è un autovalore di A se e solo se il nucleo ker(A) è diverso da {0}, cioè se esiste un vettore non nullo in ker(A), proprio per definizione di nucleo di un’applicazione lineare. Definizione 6.1.4. Sia λ un autovalore della matrice A. L’insieme degli autovettori di A relativi a λ è detto autospazio di A relativo a λ ed è un sottospazio vettoriale di Rn . L’osservazione 6.1.3 ci dice che se 0 è un autovalore della matrice A, allora l’autospazio relativo a 0 è proprio il nucleo ker(A). In generale, calcolare l’autospazio relativo ad un autovalore di una matrice non è molto diverso dal calcolare il nucleo di una funzione, come mostra la seguente proposizione. Proposizione 6.1.5. Sia λ un autovalore di una matrice A. Allora l’autospazio relativo all’autovalore λ è: ker(A − λI), cioè è il nucleo dell’applicazione lineare associata alla matrice A − λI. Dimostrazione. Un vettore x non nullo appartiene al nucleo di A − λI se e solo se 0 = (A − λI)x = Ax − λx, 63 6.2. DIAGONALIZZABILITÀ DI MATRICI cioè se e solo se Ax = λx, che è proprio la definizione di autovettore relativo a λ. 64 ¤ Esempio 6.1.6. Abbiamo già visto che la matrice A dell’esempio 6.1.2 ha 1 come autovalore. Allora l’autospazio relativo a 1 è il nucleo dell’applicazione lineare associata alla matrice ! à ! à 2−1 1 1 1 = −1 0 − 1 −1 −1 quindi è formato dai vettori (x, y) tali che à ! à !à ! à ! 0 1 1 x x+y = = 0 −1 −1 y −x − y cioè dai vettori (x, −x), per ogni x ∈ R. In particolare, per x = 1, ritroviamo il vettore (1, −1) che sapevamo già essere un autovettore relativo a 1. 6.2. Diagonalizzabilità di matrici Per trovare quali siano gli autovalori di una matrice A, è opportuno introdurre anche il polinomio caratteristico di A. Definizione 6.2.1. Sia A una matrice quadrata di ordine n×n. Il polinomio caratteristico di A è un polinomio p(t) di grado n nella variabile t definito dalla seguente equazione: p(t) = det(A − tI). L’utilità del polinomio caratteristico è resa evidente dalla seguente proposizione, che qui non dimostriamo. Proposizione 6.2.2. Sia A una matrice quadrata di ordine n × n e p(t) il suo polinomio caratteristico. Allora λ ∈ R è un autovalore di A se e solo se λ è una radice del polinomio p(t), cioè se e solo se p(λ) = 0. Nel caso che sia n = 2, il polinomio caratteristico di una matrice A di ordine 2 × 2 è: ° ° °a − t a ° ° 11 ° 12 p(t) = ° ° = t2 − (a11 + a22 )t + det(A). °a21 a22 − t° Esempio 6.2.3. Consideriamo la matrice A dell’esempio 6.1.2. Allora il polinomio caratteristico di A è: p(t) = t2 − 2t + 1. Notiamo che p(t) = (t − 1)2 , quindi t = 1 è l’unica radice del polinomio p(t) e perciò 1 è l’unico autovalore della matrice A per la proposizione 6.2.2. Osservazione 6.2.4. Un polinomio p(t) a coefficienti reali si può sempre fattorizzare in polinomi irriducibili di grado al più due, cioè si può sempre scrivere come prodotto di polinomi che hanno grado uno o due, detti fattori del polinomio p(t). Un fattore di primo grado, diciamo t − a, corrisponde evidentemente alla radice t = a del polinomio dato. Invece un polinomio 6.2. DIAGONALIZZABILITÀ DI MATRICI 65 di secondo grado irriducibile, cioè tale che non è possibile scriverlo come prodotto di due polinomi di primo grado, non ha radici reali. Più precisamente, se si considerano i numeri √ complessi a + b −1, allora un polinomio irriducibile di grado 2 a coefficienti reali ha due √ radici complesse coniugate, cioè se λ = a + b −1 è radice di un polinomio p(t) a coefficienti √ reali, allora anche il coniugato λ̄ = a − b −1 è radice di p(t). Per esempio, il polinomio p(t) = t2 + 1 non ha radici reali, infatti p(t) 6= 0 per ogni t ∈ R, √ ma ha radici complesse ± −1. Definizione 6.2.5. Una matrice si dice diagonale se ha tutti le entrate nulle, tranne quelle sulla diagonale principale (dall’alto a sinistra in basso a destra): λ1 0 0 · · · 0 0 λ2 0 · · · 0 0 0 λ3 · · · 0 .. .. . . . .. . .. . . . 0 0 0 · · · λn Una matrice A si dice diagonalizzabile se esiste un matrice invertibile M tale che M AM −1 è diagonale. In generale, non tutte le matrici sono diagonalizzabili. Proposizione 6.2.6. Una matrice A simmetrica, cioè tale che At = A−1 , è sempre diagonalizzabile. Un criterio di diagonalizzabilità è il seguente: Teorema 6.2.7. Una matrice A è diagonalizzabile se e solo se esiste una base di autovettori.