Complementi di Algebra Lineare: combinazione lineare di vettori

Complementi di Algebra Lineare:
combinazione lineare di vettori, indipendenza lineare, altra definizione di rango o caratteristica
0.1. Definizione. Siano ~v1 , . . . , ~vn ∈ Rm . Diciamo che ~v ∈ Rm è combinazione lineare di ~v1 , . . . , ~vn
se esistono a1 , . . . , an ∈ R tali che
~v = a1~v1 + · · · + an~vn .
0.2. Esempio. Dati i vettori
 
1
v1 :=  0 
1

1
v2 :=  1 
1


−1
v3 :=  1 
0


0
v :=  3  ,
1

il vettore v è combinazione lineare di v1 , v2 , v3 con coefficienti −1, 2, 1, infatti:
 
 


 
0
1
1
−1
 3  = −1  0  + 2  1  + 1  1 
1
1
0
1
0.3. Osservazione. Siano ~v1 , . . . , ~vn , ~v ∈ Rm . Il vettore ~v è combinazione di ~v1 , . . . , ~vn se e solo se,
detta A la matrice m × n che ha per colonne i vettori ~v1 , . . . , ~vn il sistema AX = ~v ha soluzione.
Proof. Il vettore ~v è combinazionale lineare di ~v1 , . . . , ~vn con coefficienti a1 , . . . , an se e solo se ~v =
a1~v1 + · · · + an~vn = A~a, cioè se e solo se ~a è soluzione del sistema AX = ~v .
¤
0.4. Esempio. I coefficienti −1, 2, 1 della combinazione lineare dell’esempio ?? corrispondono all’unica
soluzione del sistema




1 1 −1 0
x1 + x2 − x3 = 0
con matrice completa  0 1 1 3  .
x2 + x3 = 3


1 1 0 1
x1 + x2 = 1.
0.5. Definizione. I vettori ~v1 , . . . , ~vn ∈ Rm sono detti linearmente dipendenti (su R) se esistono
α1 , . . . , αn ∈ R non tutti nulli tali che
n
X
αi~vi = ~0 .
i=1
Se non esistono siffatti αi ∈ R, cioè
Pn
vi
i=1 αi~
= 0,con αi ∈ R, se e solo se αi = 0 per ogni i = 1 . . . n,
allora ~v1 , . . . , ~vn sono detti linearmente indipendenti.
0.6. Esempio. I vettori
µ
v1 :=
1
0
¶
µ
v2 :=
1
1
¶
sono linearmente indipendenti, infatti:
µ ¶
µ ¶ µ
¶ µ ¶
1
1
a+b
0
a
+b
=
=
se e solo se b = 0, a = 0
0
1
b
0
1
2
0.7. Osservazione. I vettori ~v1 , . . . , ~vn ∈ Rm sono linearmente indipendenti se e solo se, detta A la
matrice m × n che ha per colonne i vettori ~v1 , . . . , ~vn il sistema AX = ~0 ha solo la soluzione banale ~0.
Proof. Dall’uguaglianza a1~v1 + · · · + an~vn = A~a (con ~a il vettore di componenti a1 , . . . , an , segue che
esistono a1 , . . . , an ∈ R non tutti nulli tali che
n
X
ai~vi = ~0 .
i=1
se e solo se esiste una soluzione ~a 6= ~0 del sistema AX = ~0.
0.8. Esempio. Il sistema omogeneo:
(
x1 + x2 = 0
con matrice dei coefficienti
x2 = 0
¤
µ
1 1
0 1
¶
(con colonne i vettori v1 , v2 linearmente indipendenti dell’esempio ??) ha solo la soluzione banale ~0.
Lemma 0.1. I vettori ~v1 , . . . , ~vn ∈ Rm sono linearmente dipendenti se e solo se (almeno) uno di loro
è combinazione lineare degli altri.
Proof. (Per chi è interessato) Siano ~v1 , . . . , ~vn linearmente dipendenti cioè esistano α1 , . . . , αn ∈ R non
tutti nulli tali che
n
X
αi~vi = ~0 .
i=1
Supponiamo sia αi 6= 0, allora
~vi =
X¡
¢
−αi−1 αj ~vj
j6=i
quindi vi è combinazione lineare degli altri. Viceversa se vi è combinazione lineare degli altri cioè
X
βj ~vj
~vi =
j6=i
allora
X
βj ~vj − ~vi = ~0
j6=i
quindi ~0 è combinazione di ~v1 , . . . , ~vn con coefficiente di ~vi diverso da 0, tali vettori sono linearmente
dipendenti.
¤
0.9. Osservazione. Siano ~v1 , . . . , ~vn vettori di Rm . Se ~vh = ~0 per un qualche
P h = 1, . . . , n allora i
vettori ~v1 , . . . , ~vn sono linearmente dipendenti. Infatti, posso scrivere ~vh = j6=h 0 ~vj e l’implicazione
segue dal lemma precedente.
Se ~v1 , . . . , ~vh per un qualche 1 ≤ h ≤ n sono linearmente dipendenti allora anche ~v1 , . . . , ~vn sono
Ph
linearmente dipendenti. Infatti, siano α1 , . . . , αh ∈ R non tutti nulli tali che P
vi = ~0. Poniamo
i=1 αi~
βi = αi per 1 ≤ i ≤ h e βi = 0 per h < i ≤ k. Allora i βi non sono tutti nulli e ni=1 βi~vi = 0.
In particolare, negando l’implicazione precedente otteniamo che se ~v1 , . . . , ~vk sono linearmente indipendenti allora anche ~v1 , . . . , ~vh sono linearmente indipendenti per ogni 1 ≤ h ≤ n.
0.10. Definizione. Si definisce rango o caratteristica di una matrice A con il numero massimo di
righe o colonne linearmente indipendenti che si indica con rank(A) o car(A).
Osservazione 0.2.
(1) Segue dalla definizione che il rango è sempre minore uguale sia del numero
delle righe che del numero delle colonne.
(2) Le trasformazioni elementari sulle righe e sulle colonne non cambiano il rango delle matrici.
(3) Le matrici a gradini hanno rango uguale al numero di righe diverse da zero. Infatti ogni riga
di una matrice a gradini non può essere combinazione lineare delle successive perchè ha una
componente all’inizio diversa da zero che è zero nelle righe successive.
3
0.11. Esempio. Data la matrice a gradini


1 1 −1 1
 0 1 −1 2 
0 0 0 1
la seconda riga non può essere combinazione della terza perche’ ha la seconda componente diversa da
zero, quindi per qualunque a ∈ R:
¡
¢
¡
¢ ¡
¢
0 1 −1 2 6= a 0 0 0 1 = 0 0 0 a ,
mentre la prima riga non può essere combinazione della seconda e della terza perchè ha la prima
componente diversa da zero quindi per qualunque a, b ∈ R:
¡
¢
¡
¢
¡
¢ ¡
¢
1 1 −1 1 6= a 0 1 −1 2 + b 0 0 0 1 = 0 a −a 2a + b .
Teorema 0.3 (di Rouchè Capelli). Sia dato il sistema di m equazioni in n incognite AX = ~b. Allora:
(1) il sistema è risolubile se e solo se rank(A) = rank(A|b);
(2) se il sistema A~x = ~b è risolubile, allora l’insieme delle soluzioni del sistema dipende da n −
rank(A) = n − rank(A|b) parametri che variano in R.
Proof. (Idea della dimostrazione, per chi è interessato)
~ ∈ Rn è soluzione di A~x = ~b se e solo se α1 A1 +· · ·+αn An = ~b dove A1 , . . . , An
(1) Ricordiamo che α
sono le colonne di A. Il sistema A~x = ~b è perciò risolubile se e solo se ~b è combinazione lineare
delle colonne di A, cioè se e solo aggiungendo ~b all’insieme delle colonne di A non cambia il
numero di vettori linearmente indipendenti, cioè se e solo se rank(A) = rank(A|~b).
(2) Se AX = ~b è risolubile, applicando alla matrice comepleta A|~b le trasformazioni elementari per
riga secondo il metodo di Gauss si ottiene una matrice a gradini di con rank(A) = rank(A|~b)
gradini, corrispondenti al numero delle righe diverse da zero. Il sistema allora si risolve ponendo
a parametro le variabili che non corrispondono ai gradini e sono quindi n − rank(A).
¤