Complementi di Algebra Lineare: combinazione lineare di vettori, indipendenza lineare, altra definizione di rango o caratteristica 0.1. Definizione. Siano ~v1 , . . . , ~vn ∈ Rm . Diciamo che ~v ∈ Rm è combinazione lineare di ~v1 , . . . , ~vn se esistono a1 , . . . , an ∈ R tali che ~v = a1~v1 + · · · + an~vn . 0.2. Esempio. Dati i vettori 1 v1 := 0 1 1 v2 := 1 1 −1 v3 := 1 0 0 v := 3 , 1 il vettore v è combinazione lineare di v1 , v2 , v3 con coefficienti −1, 2, 1, infatti: 0 1 1 −1 3 = −1 0 + 2 1 + 1 1 1 1 0 1 0.3. Osservazione. Siano ~v1 , . . . , ~vn , ~v ∈ Rm . Il vettore ~v è combinazione di ~v1 , . . . , ~vn se e solo se, detta A la matrice m × n che ha per colonne i vettori ~v1 , . . . , ~vn il sistema AX = ~v ha soluzione. Proof. Il vettore ~v è combinazionale lineare di ~v1 , . . . , ~vn con coefficienti a1 , . . . , an se e solo se ~v = a1~v1 + · · · + an~vn = A~a, cioè se e solo se ~a è soluzione del sistema AX = ~v . ¤ 0.4. Esempio. I coefficienti −1, 2, 1 della combinazione lineare dell’esempio ?? corrispondono all’unica soluzione del sistema 1 1 −1 0 x1 + x2 − x3 = 0 con matrice completa 0 1 1 3 . x2 + x3 = 3 1 1 0 1 x1 + x2 = 1. 0.5. Definizione. I vettori ~v1 , . . . , ~vn ∈ Rm sono detti linearmente dipendenti (su R) se esistono α1 , . . . , αn ∈ R non tutti nulli tali che n X αi~vi = ~0 . i=1 Se non esistono siffatti αi ∈ R, cioè Pn vi i=1 αi~ = 0,con αi ∈ R, se e solo se αi = 0 per ogni i = 1 . . . n, allora ~v1 , . . . , ~vn sono detti linearmente indipendenti. 0.6. Esempio. I vettori µ v1 := 1 0 ¶ µ v2 := 1 1 ¶ sono linearmente indipendenti, infatti: µ ¶ µ ¶ µ ¶ µ ¶ 1 1 a+b 0 a +b = = se e solo se b = 0, a = 0 0 1 b 0 1 2 0.7. Osservazione. I vettori ~v1 , . . . , ~vn ∈ Rm sono linearmente indipendenti se e solo se, detta A la matrice m × n che ha per colonne i vettori ~v1 , . . . , ~vn il sistema AX = ~0 ha solo la soluzione banale ~0. Proof. Dall’uguaglianza a1~v1 + · · · + an~vn = A~a (con ~a il vettore di componenti a1 , . . . , an , segue che esistono a1 , . . . , an ∈ R non tutti nulli tali che n X ai~vi = ~0 . i=1 se e solo se esiste una soluzione ~a 6= ~0 del sistema AX = ~0. 0.8. Esempio. Il sistema omogeneo: ( x1 + x2 = 0 con matrice dei coefficienti x2 = 0 ¤ µ 1 1 0 1 ¶ (con colonne i vettori v1 , v2 linearmente indipendenti dell’esempio ??) ha solo la soluzione banale ~0. Lemma 0.1. I vettori ~v1 , . . . , ~vn ∈ Rm sono linearmente dipendenti se e solo se (almeno) uno di loro è combinazione lineare degli altri. Proof. (Per chi è interessato) Siano ~v1 , . . . , ~vn linearmente dipendenti cioè esistano α1 , . . . , αn ∈ R non tutti nulli tali che n X αi~vi = ~0 . i=1 Supponiamo sia αi 6= 0, allora ~vi = X¡ ¢ −αi−1 αj ~vj j6=i quindi vi è combinazione lineare degli altri. Viceversa se vi è combinazione lineare degli altri cioè X βj ~vj ~vi = j6=i allora X βj ~vj − ~vi = ~0 j6=i quindi ~0 è combinazione di ~v1 , . . . , ~vn con coefficiente di ~vi diverso da 0, tali vettori sono linearmente dipendenti. ¤ 0.9. Osservazione. Siano ~v1 , . . . , ~vn vettori di Rm . Se ~vh = ~0 per un qualche P h = 1, . . . , n allora i vettori ~v1 , . . . , ~vn sono linearmente dipendenti. Infatti, posso scrivere ~vh = j6=h 0 ~vj e l’implicazione segue dal lemma precedente. Se ~v1 , . . . , ~vh per un qualche 1 ≤ h ≤ n sono linearmente dipendenti allora anche ~v1 , . . . , ~vn sono Ph linearmente dipendenti. Infatti, siano α1 , . . . , αh ∈ R non tutti nulli tali che P vi = ~0. Poniamo i=1 αi~ βi = αi per 1 ≤ i ≤ h e βi = 0 per h < i ≤ k. Allora i βi non sono tutti nulli e ni=1 βi~vi = 0. In particolare, negando l’implicazione precedente otteniamo che se ~v1 , . . . , ~vk sono linearmente indipendenti allora anche ~v1 , . . . , ~vh sono linearmente indipendenti per ogni 1 ≤ h ≤ n. 0.10. Definizione. Si definisce rango o caratteristica di una matrice A con il numero massimo di righe o colonne linearmente indipendenti che si indica con rank(A) o car(A). Osservazione 0.2. (1) Segue dalla definizione che il rango è sempre minore uguale sia del numero delle righe che del numero delle colonne. (2) Le trasformazioni elementari sulle righe e sulle colonne non cambiano il rango delle matrici. (3) Le matrici a gradini hanno rango uguale al numero di righe diverse da zero. Infatti ogni riga di una matrice a gradini non può essere combinazione lineare delle successive perchè ha una componente all’inizio diversa da zero che è zero nelle righe successive. 3 0.11. Esempio. Data la matrice a gradini 1 1 −1 1 0 1 −1 2 0 0 0 1 la seconda riga non può essere combinazione della terza perche’ ha la seconda componente diversa da zero, quindi per qualunque a ∈ R: ¡ ¢ ¡ ¢ ¡ ¢ 0 1 −1 2 6= a 0 0 0 1 = 0 0 0 a , mentre la prima riga non può essere combinazione della seconda e della terza perchè ha la prima componente diversa da zero quindi per qualunque a, b ∈ R: ¡ ¢ ¡ ¢ ¡ ¢ ¡ ¢ 1 1 −1 1 6= a 0 1 −1 2 + b 0 0 0 1 = 0 a −a 2a + b . Teorema 0.3 (di Rouchè Capelli). Sia dato il sistema di m equazioni in n incognite AX = ~b. Allora: (1) il sistema è risolubile se e solo se rank(A) = rank(A|b); (2) se il sistema A~x = ~b è risolubile, allora l’insieme delle soluzioni del sistema dipende da n − rank(A) = n − rank(A|b) parametri che variano in R. Proof. (Idea della dimostrazione, per chi è interessato) ~ ∈ Rn è soluzione di A~x = ~b se e solo se α1 A1 +· · ·+αn An = ~b dove A1 , . . . , An (1) Ricordiamo che α sono le colonne di A. Il sistema A~x = ~b è perciò risolubile se e solo se ~b è combinazione lineare delle colonne di A, cioè se e solo aggiungendo ~b all’insieme delle colonne di A non cambia il numero di vettori linearmente indipendenti, cioè se e solo se rank(A) = rank(A|~b). (2) Se AX = ~b è risolubile, applicando alla matrice comepleta A|~b le trasformazioni elementari per riga secondo il metodo di Gauss si ottiene una matrice a gradini di con rank(A) = rank(A|~b) gradini, corrispondenti al numero delle righe diverse da zero. Il sistema allora si risolve ponendo a parametro le variabili che non corrispondono ai gradini e sono quindi n − rank(A). ¤