Corso di Laurea
Scienze dei Nuovi Media e della Comunicazione
Appunti di
Algebra Lineare
CAPITOLO 1
Introduzione
In questo capitolo vogliamo iniziare il corso accennando ad alcuni argomenti che verranno
affrontati dettagliatamente nei capitoli seguenti.
A questo scopo introdurremo le notazioni e alcuni concetti che saranno usati per tutto il
corso. Il nostro approccio sarà elementare e faremo appello all’intuizione del lettore, che, nel
caso ritenga utile una maggior precisione, può far riferimento al libro di testo consigliato:
M. Abate, Algebra lineare, McGraw-Hill, 2000.
1.1. Numeri interi, razionali e reali
Con il termine algebra si intende il calcolo, e metodi di calcolo, di numeri naturali, interi,
razionali, reali e complessi.
Il primo concetto basilare è quello di insieme, che intuitivamente è una collezione di
elementi descritti da una qualche proprietà. Per esempio l’insieme dei miei vestiti blu è formato
dai vestiti che possiedo nel mio armadio e che sono di colore blu.
Osserviamo che il numero di elementi di un insieme può essere finito (come i miei vestiti
blu) o infinito (come gli insiemi di numeri su cui lavoriamo).
L’insieme dei numeri naturali, che si indica con N, è formato dai numeri che si possono
contare:
0, 1, 2, 3, 4, 5, . . .
Un numero naturale n può essere considerato come la proprietà che hanno in comune tutti
gli insiemi con lo stesso numero n di elementi. In particolare c’è un unico insieme con zero
elementi, l’insieme vuoto, che si indica con ∅.
I numeri interi, il cui insieme è denotato con Z, sono i numeri naturali e i loro opposti:
0, 1, −1, 2, −2, 3, −3, 4, −4, . . .
I numeri naturali e interi si possono sommare e moltiplicare. Si può fare la differenza di
due numeri interi, ma non in generale di due numeri naturali: per esempio 1 − 2 è l’intero −1
che non è un numero naturale.
Lo stesso problema si presenta con i numeri interi per la divisione: il numero
1
1:2=
2
non è intero. Si introducono allora i numeri razionali, il cui insieme di denota con Q, che è
formato dai quozienti di due numeri interi (con denominatore diverso da zero).
3
1.1. NUMERI INTERI, RAZIONALI E REALI
4
Prima di scrivere la definizione rigorosa di numero razionale, ricordiamo che in insiemistica
si usano di solito i simboli di appartenenza ∈ e di sottoinsieme ⊂. Per esempio il fatto che
l’insieme dei numeri naturali è sottoinsieme dei numeri interi (cioè ogni numero naturale è
anche un intero), che a sua volta è sottoinsieme dei numeri razionali, si scrive:
N ⊂ Z ⊂ Q.
Il fatto che 1/2 non è un numero intero, ma è razionale, si scrive:
1
1
∈
/ Z,
∈ Q.
2
2
Definizione 1.1.1. L’insieme dei numeri razionali è
½ ¯
¾
p ¯¯
Q=
p, q ∈ Z, q > 0 ,
q ¯
dove possiamo supporre p e q primi tra loro, cioè senza divisori comuni. Si può supporre
q > 0, perché se fosse q < 0, allora si potrebbe moltiplicare numeratore e denominatore per
−1, ottenendo cosı̀ una frazione con denominatore positivo.
Per esempio:
2
(−1) · 2
−2
2
=
=
=− .
−5
(−1) · (−5)
5
5
Con i numeri razionali si può fare la divisione (per un numero diverso da zero):
p m
p n
pn
:
= ·
=
q n
q m
qm
dove il denominatore qm è diverso da zero, perché sia q che m sono diversi da zero.
È conveniente rappresentare i numeri naturali, interi e razionali (e come vedremo anche
quelli reali) su una retta:
−7q
−6q
−5q
−4q
−3q
−2q
q−1q q 0q q 1q q 2q
− 32
− 12
1
2
3q
4q
5q
6q
7q
3
2
Figura 1. Rappresentazione grafica dei numeri naturali, interi e razionali
Ma anche i numeri razionali non sono sufficienti per misurare gli oggetti che troviamo in
natura. Consideriamo per esempio la diagonale di un quadrato, come in figura 2.
d
¡
¡
¡
¡
¡
Figura 2. La diagonale d di un quadrato
Se il lato è lungo 1 cm, allora per il teorema di Pitagora la diagonale è:
√
d = 2 = 0,4142 . . . cm,
cioè d è un numero tale che d2 = 2.
1.1. NUMERI INTERI, RAZIONALI E REALI
Proposizione 1.1.2. Il numero d =
5
√
2 non è razionale.
√
Dimostrazione. Supponiamo per assurdo che 2 = p/q, con p e q numeri interi primi
tra loro. Elevando entrambi i membri al quadrato si ottiene:
p2
,
cioè
p2 = 2q 2 .
2
q
Ne segue che p deve essere un numero pari, quindi p = 2m, per un certo intero m. Sostituendo
p con 2m nella formula precedente, si trova che:
2=
p2 = 4m2 = 2q 2 ,
perciò
2m2 = q 2 .
Ma allora anche q deve essere un numero pari, divisibile per 2, contraddicendo l’ipotesi che p
e q non avessero fattori in comune. Abbiamo trovato cosı̀ una contraddizione, quindi l’ipotesi
√
che 2 fosse un numero razionale non può essere vera.
¤
Si considerano allora anche i numeri reali, il cui insieme si indica con R, che si possono
scrivere come numeri interi seguiti, dopo la virgola, da infinite cifre decimali. I numeri reali
si possono rappresentare sulla stessa retta di figura 1 e possiamo immaginare che ogni punto
della retta corrisponde ad un numero reale.
Possiamo pensare anche i punti di un piano come elementi di un insieme su cui poter
fare operazioni, come per esempio la somma. Infatti possiamo associare ad ogni punto del
piano, determinato da una coppia di numeri reali, un vettore, di cui i numeri reali sono le
coordinate. I vettori si possono sommare e moltiplicare per uno scalare e formano cosı̀ uno
spazio vettoriale, che definiremo dettagliatamente nel prossimo capitolo 2.
Più avanti vedremo anche che ad ogni coppia di numeri reali (ovvero, ad ogni punto del
piano) possono essere associati i cosiddetti numeri complessi, il cui insieme si denota con C.
Il numero complesso associato alla coppia (a, b) si denota con
a + bi
dove i è l’unità immaginaria, che è un numero complesso tale che
√
i2 = −1,
ovvero
i = −1.
(1.1.1)
Noi però ci occuperemo principalmente dei numeri reali e non di quelli complessi. Fra gli
insiemi di numeri che abbiamo introdotto valgono le seguenti relazione di inclusione:
N ⊂ Z ⊂ Q ⊂ R ⊂ C.
All’interno del corso però i numeri complessi avranno un ruolo abbastanza marginale e quasi
sempre avremo a che fare solo con i numeri reali.
Abbiamo detto che con il termine “algebra” si intende il calcolo di operazioni quali la
somma e il prodotto di numeri.
1.2. ALCUNE NOTAZIONI
6
Con il termine “algebra lineare”, che è il contenuto di questo corso, si intende lo studio e
la risoluzione dei sistemi di equazioni lineari, come per esempio:

2x + 3y = 1
(1.1.2)
−x + 5y = −2
cioè di un numero finito di equazioni in cui compaiono variabili lineari, ovvero le incognite
compaiono nelle espressioni solo con grado uno (il grado è l’esponente dell’incognita, che,
essendo sempre e solo 1, di solito si tralascia).
Lo strumento per risolvere tali sistemi saranno i vettori e le matrici. Per esempio il sistema
lineare di due equazioni (1.1.2) verrà scritto nel modo seguente:
Ã
! Ã ! Ã !
2 3
x
1
·
=
,
−1 5
y
−2
dove il secondo membro è il vettore dei termini
Ã
2
−1
noti e al primo membro
!
3
5
è la matrice quadrata di ordine 2 × 2 dei coefficienti delle incognite. Per risolvere tale sistema
lineare si useranno allora le proprietà dei vettori e delle matrici che vedremo nel seguito.
1.2. Alcune notazioni
Gli intervalli di numeri reali li indicheremo nel modo seguente:
[1, 2] = { x ∈ R | 1 ≤ x ≤ 2 },
[1, 2) = { x ∈ R | 1 ≤ x < 2 },
(1, +∞) = { x ∈ R | 1 < x }.
Ricordiamo che possiamo descrivere un insieme elencando tutti gli elementi o indicando
una proprietà. Per esempio indichiamo l’insieme dei numeri naturali dispari cosı̀:
{ n ∈ N | n dispari },
oppure nel modo seguente:
{ n ∈ N | n = 2m + 1, con m ∈ N }.
Una costruzione che useremo spesso è la seguente:
Definizione 1.2.1. Consideriamo due insiemi S e T . Il prodotto cartesiano di S e T è:
S × T = { (s, t) | s ∈ S, t ∈ T }.
1.2. ALCUNE NOTAZIONI
7
Esempio 1.2.2. Il prodotto cartesiano che considereremo molto spesso è R × R = R2 , detto
piano reale, che è l’insieme formato dalle coppie (a, b) di numeri reali. Vedremo più avanti
che è conveniente scrivere queste coppie in verticale, cioè
à !
a
b
invece che in orizzontale. Come si può fare la somma di due numeri reali, cosı̀ si possono
¡ ¢
sommare le coppie di numeri reali, facendo la somma componente per componente: se aa12
¡ ¢
e bb12 sono due coppie qualsiasi di numeri reali, allora si definisce
à ! à ! Ã
!
a1
b1
a1 + b1
+
=
.
a2
b2
a2 + b2
¡ 1 ¢ ¡2¢
Esempio 1.2.3. Consideriamo i punti −1
e 0 di R2 . Allora la loro somma è:
à ! à ! à !
1
2
3
+
=
.
−1
0
−1
Come già sapete, si è soliti rappresentare gli elementi di R2 usando gli assi cartesiani. Nel
prossimo capitolo 2 torneremo subito su questo esempio.
Più in generale si può considerare il prodotto cartesiano di R per se stesso un numero
finito n di volte:
n
{z· · · × R} = R
|R × R ×
n fattori
che è un insieme i cui elementi sono le n-uple di numeri reali. Per n = 3, si ottiene R3 che è
chiamato spazio reale. Per ogni n, si potrà associare ad una n-pla di numeri reali un vettore,
ottenendo cosı̀ uno spazio vettoriale di dimensione n. In questi spazi vettoriali si potranno
fare le stesse operazioni di somma e moltiplicazioni per scalari come nel piano.
CAPITOLO 2
Spazi vettoriali
Ad ogni punto P = (x, y) del piano reale R2 possiamo associare un vettore, cioè un segmento orientato che parte dall’origine O = (0, 0) del piano e arriva al punto fissato P , come
~ .
in figura 1. Denotiamo questo vettore con OP
rP = (x, y)
¡
µ
¡
¡
¡
¡
¡
r¡
O = (0, 0)
Figura 1. Vettore con punto iniziale O e punto finale P .
Ricordiamo che un vettore è determinato dalla sua lunghezza (o modulo), dalla sua direzione e dal suo verso. Come è ben noto, si possono sommare due vettori con la cosiddetta
regola del parallelogramma: infatti si possono pensare i due vettori v, w come lati di un parallelogramma e la loro somma v + w corrisponde alla diagonale del parallelogramma, come
mostrato in figura 2.
r
¡
µ6
¡
¡
¡
¡
v + w¡
w
¡
¡
¡
¡
»r
:
»»»
»
»
¡ »»»v
»»»
r¡
Figura 2. Somma di due vettori con la regola del parallelogramma.
Dato un vettore, si può considerare il suo opposto, che è il vettore che ha lo stesso modulo,
la stessa direzione di quello dato, ma verso opposto. Inoltre si può moltiplicare un vettore per
un numero reale k > 0, che è il vettore con la stessa direzione e lo stesso verso del vettore
dato, ma con la lunghezza moltiplicata per k.
8
2.1. DEFINIZIONE DI SPAZIO VETTORIALE
9
In questo capitolo introduciamo la nozione di spazio vettoriale, che è un modo molto
naturale per rendere rigorose queste proprietà dei vettori e per generalizzarle ad altri contesti,
come per esempio alle matrici.
~ con il punto del
Dal nostro punto di vista sarà conveniente identificare un vettore OP
piano P , cioè con la coppia di numeri reali (x, y) che sono le coordinate di P nel piano; quindi
considereremo le proprietà dei vettori in base alle sue coordinate, e non direttamente in base
alla lunghezza, direzione e verso del vettore.
2.1. Definizione di spazio vettoriale
Definizione 2.1.1. Uno spazio vettoriale è un insieme X provvisto di due operazioni:
• la somma, che associa ad ogni coppia di elementi di X un terzo elemento di X
x, y ∈ X 7→ x + y ∈ X,
chiamato somma di x e y;
• la moltiplicazione per scalari, che ad ogni elemento di X e ad ogni numero reale
associa un altro elemento di X
x ∈ X, λ ∈ R 7→ λ · x ∈ X,
detto moltiplicazione di x per lo scalare λ;
che devono soddisfare alcune proprietà che vedremo in dettaglio fra poco. Talvolta si dice
spazio lineare, al posto di spazio vettoriale.
Esempio 2.1.2. Nel prodotto cartesiano R × R = R2 , detto piano reale, formato dalle coppie
(a, b) di numeri reali, possiamo definire le due operazioni di somma e moltiplicazione per uno
scalare λ ∈ R nel seguente modo:
à ! à !
Ã
!
a1
b1
a 1 + b1
(2.1.1)
+
:=
,
a2
b2
a 2 + b2
à !
à !
a1
λa1
λ·
(2.1.2)
:=
,
a2
λa2
cioè componente per componente.
~ , cioè il vettore con
Associamo ad ogni elemento P = (a, b) di R2 il vettore applicato OP
punto iniziale l’origine O del piano e con punto finale P , come appena visto a pag. 8. Si
verifica subito che la somma definita dalla formula (2.1.1) corrisponde proprio alla somma di
due vettori con la regola del parallelogramma e che la moltiplicazione per lo scalare λ ∈ R
definita dalla formula (2.1.2) corrisponde alla moltiplicazione della lunghezza del vettore per
λ, se λ è positivo, oppure alla moltiplicazione della lunghezza del vettore opposto per −λ, se
λ è negativo.
Questa corrispondenza giustifica il termine di spazio vettoriale per X e la seguente:
Definizione 2.1.3. Gli elementi di uno spazio vettoriale X sono detti vettori.
2.2. PROPRIETÀ DELLA SOMMA
10
2.2. Proprietà della somma
Definizione 2.2.1. La somma di due elementi di uno spazio vettoriale X deve verificare le
seguenti quattro proprietà:
(1) la commutatività, cioè per ogni x, y ∈ X deve valere
x + y = y + x;
(2) l’associatività, cioè per ogni x, y, z ∈ X deve valere
(x + y) + z = x + (y + z);
(3) esistenza dell’elemento neutro;
(4) esistenza dell’opposto.
Queste proprietà sono molto naturali perché sono valide per tutti gli insiemi di numeri
che già conoscete: interi, razionali e reali. Vedremo in futuro, però, esempi di operazioni su
insiemi che non sono commutative, come per esempio la moltiplicazione di due matrici.
La proprietà commutativa ci dice semplicemente che cambiando l’ordine degli addendi, la
somma non cambia.
La proprietà associativa invece ci dice che possiamo scrivere la somma di tre vettori senza
parentesi, cioè possiamo scrivere:
x+y+z
senza alcuna ambiguità, invece di scrivere (x + y) + z, oppure x + (y + z). Usando la proprietà
associativa si può dimostrare che possiamo scrivere anche la somma di n vettori senza indicare
alcuna parentesi:
x1 + x2 + x3 + · · · + xn .
Per esempio, la somma di n = 4 vettori può essere fatta in molti modi:
x1 + x2 + x3 + x4 = (x1 + x2 ) + (x3 + x4 ) = ((x1 + x2 ) + x3 ) + x4 =
= (x1 + (x2 + x3 )) + x4 = x1 + ((x2 + x3 ) + x4 ) =
= x1 + (x2 + (x3 + x4 )),
ma il risultato è sempre lo stesso, quindi è inutile distinguere con le parentesi in quale ordine
eseguire l’addizione. Ricordiamo che per la proprietà commutativa possiamo anche scambiare
di posto i vettori.
Quando si considerano un certo numero di vettori qualsiasi, diciamo cinque vettori, si è
soliti scrivere:
x1 x2 x3 x4 x5
dove la lettera x indica che i vettori sono indeterminati e i numeri 1, 2, 3, 4 e 5 sono detti
indici. Per esempio 4 è l’indice dell’elemento x4 .
Per indicare la somma dei cinque vettori si può scrivere
x1 + x2 + x3 + x4 + x 5
2.2. PROPRIETÀ DELLA SOMMA
11
oppure, in maniera più compatta, si può scrivere
5
X
xi ,
i=1
P
dove la lettera greca
(sigma maiuscola) indica proprio la somma (spesso viene detta anche
sommatoria) e i viene detto indice della sommatoria. Un altro modo per indicare la medesima
somma è:
X
xj .
1≤j≤5
Si noti che non ha importanza quale lettera viene usata per denotare l’indice della sommatoria,
anche se spesso viene usata la lettera i.
Se invece volessimo indicare, fra dodici vettori x1 , . . . , x12 dati, l’addizione dei vettori con
indice pari, potremmo scrivere cosı̀:
X
xi .
1≤i≤12
i pari
Torniamo alle proprietà della somma in uno spazio vettoriale e vediamo cosa vogliono dire
la terza e la quarta proprietà della definizione 2.2.1.
L’esistenza dell’elemento neutro significa che esiste un elemento, che indicheremo con 0X ,
tale che:
0X + x = x,
per ogni x ∈ X.
(2.2.1)
Si dice allora che 0X è l’elemento neutro di X. L’esistenza dell’opposto significa che per ogni
elemento x si X esiste un elemento y di X tale che
x + y = 0X .
(2.2.2)
Si dice che y è l’opposto di x e si denota di solito con −x.
Naturalmente, se consideriamo l’insieme dei vettori nel piano, l’elemento neutro è il vettore
di lunghezza nulla, mentre l’opposto di un vettore dato, come abbiamo già accennato all’inizio
del capitolo, è il vettore con stessa lunghezza, stessa direzione e verso opposto del vettore
fissato.
Esempio 2.2.2. Nel piano reale R2 , considerato con le operazioni definite con le formule
(2.1.1) e (2.1.2), l’elemento neutro è (0, 0) ∈ R2 , mentre l’opposto di (a1 , a2 ) è
(−a1 , −a2 ),
perché (a1 + a2 ) + (−a1 , −a2 ) = (a1 − a1 , a2 − a2 ) = (0, 0) = 0X .
Esercizio 2.2.3. Dimostrare che l’elemento neutro della somma di uno spazio vettoriale è
unico.
Soluzione. Supponiamo che y e z siano due elementi dello spazio vettoriale X che soddisfino la definizione di elemento neutro (2.2.1). Allora si ha che y = y + z, considerando y
2.3. ALTRE PROPRIETÀ DELLE OPERAZIONI
12
come elemento neutro, e che z = z + y, considerando invece z come elemento neutro. Ne segue
allora che
y =y+z =z+y =z
come volevasi dimostrare.
¤
Esercizio 2.2.4. Sia x un elemento qualsiasi di uno spazio vettoriale X. Dimostrare che
l’opposto di x è unico.
Soluzione. Supponiamo che y e z siano due opposti di x. Per definizione di 0X si ha che
y = y + 0X . Per ipotesi z è opposto di x, quindi possiamo scrivere 0X = x + z. Allora si ha
che:
y = y + 0X = y + (x + z) = (y + x) + z = 0X + z = z
dove la terza uguaglianza (da sinistra) segue dalla proprietà associativa, la quarta uguaglianza
dall’ipotesi che y è opposto di x e infine la quinta e ultima segue dalla definizione di 0X . ¤
Osservazione 2.2.5. Si noti che vale 0X + 0X = 0X , per definizione dell’elemento neutro 0X
applicata ad 0X stesso, quindi
−0X = 0X ,
per definizione di opposto (2.2.2).
2.3. Altre proprietà delle operazioni
Definizione 2.3.1. La moltiplicazione di un vettore per uno scalare in uno spazio vettoriale
X deve verificare le seguenti due proprietà:
(1) l’associatività, cioè:
β · (α · x) = (β · α) · x,
per ogni α, β ∈ R, x ∈ X;
(2) esistenza dell’elemento neutro, che denotiamo con 1:
1 · x = x,
per ogni x ∈ X.
Inoltre devono essere verificate altre due proprietà della moltiplicazione per scalari rispetto
alla somma, le quali sono dette proprietà distributive:
• α · (x + y) = α · x + α · y, per ogni α ∈ R e x, y ∈ X;
• (α + β) · x = α · x + β · x, per ogni α, β ∈ R e x ∈ X.
La prima è detta proprietà distributiva della moltiplicazione per scalari rispetto alla somma,
mentre la seconda è la proprietà distributiva della somma rispetto alla moltiplicazione per
scalari.
Anche se la formulazione delle proprietà può apparire non immediatamente chiara, in
verità traduce in formule proprietà che intuitivamente sono evidenti. Per esempio, se α =
2, la proprietà distributiva della moltiplicazione per scalati rispetto alla somma ci dice
semplicemente che 2(x + y) = 2x + 2y, come è ragionevole immaginare.
2.3. ALTRE PROPRIETÀ DELLE OPERAZIONI
13
Esempio 2.3.2. Consideriamo il piano reale R2 come negli esempi 2.1.2 e 2.2.2. Allora è facile
verificare che le operazioni somma e moltiplicazione per scalari definite dalle formule (2.1.1)
e (2.1.2) soddisfano tutte le proprietà che abbiamo elencato per gli spazi vettoriali. Si può
affermare quindi che R2 è uno spazio vettoriale con tali operazioni.
Nei prossimi tre esercizi mostriamo alcune proprietà riguardanti le operazioni di somma e
prodotto per scalari che seguono facilmente dalle definizioni e dalle altre proprietà già viste,
come sarà chiaro dalle dimostrazioni.
Esercizio 2.3.3. Dimostrare che, per ogni x, y, z elementi di uno spazio vettoriale X, se
x+y =x+z
(2.3.1)
allora y = z.
Soluzione. Ricordiamo che per ogni x ∈ X esiste l’opposto di x, che indichiamo con
−x. Sommando membro a membro −x, la formula (2.3.1) è equivalente alla seguente:
− x + x + y = −x + x + z.
(2.3.2)
Il primo membro diventa:
−x + (x + y) = (−x + x) + y = 0X + y = y,
perché la prima uguaglianza segue dalla proprietà associativa dell’addizione, la seconda uguaglianza segue dalla definizione di opposto, mentre l’ultima uguaglianza segue dalla definizione
di elemento neutro 0X .
Similmente il secondo membro di (2.3.2) diventa:
−x + (x + z) = (−x + x) + z = 0X + z = z.
Concludiamo quindi che y = z, come richiesto.
¤
Esercizio 2.3.4. Dimostrare che 0 · x = 0X , per ogni x ∈ X.
Soluzione. Ricordiamo che possiamo scrivere il numero reale 0 come 0 = 0 + 0, quindi
0 · x = (0 + 0) · x = 0 · x + 0 · x
(2.3.3)
dove la seconda uguaglianza segue dalla proprietà distributiva dell’addizione rispetto alla
moltiplicazione per scalari. Possiamo riscrivere il primo membro cosı̀:
0 · x = 0X + 0 · x,
per definizione di elemento neutro, cosı̀ la formula (2.3.3) diventa:
0X + 0 · x = 0 · x + 0 · x
e si conclude applicando l’esercizio 2.3.3.
Esercizio 2.3.5. Dimostrare che (−1) · x = −x, per ogni x ∈ X.
¤
2.4. COMBINAZIONI LINEARE DI VETTORI
14
Soluzione. Ricordando che x = 1 · x e la proprietà distributiva, si ha che:
x + (−1) · x = 1 · x + (−1) · x = (1 − 1) · x = 0 · x = 0X
dove l’ultima uguaglianza segue dall’esercizio 2.3.4. Si conclude allora per l’unicità dell’opposto di x.
¤
2.4. Combinazioni lineare di vettori
Definizione 2.4.1. Nello spazio vettoriale X consideriamo due vettori x1 e x2 . Dati due
scalari α1 , α2 ∈ R, si dice che:
α1 x1 + α2 x2 ,
che si può scrivere anche cosı̀:
2
X
αi xi ,
n=1
è combinazione lineare dei due vettori dati. Gli scalari α1 e α2 sono detti coefficienti di
x1 e x2 , rispettivamente.
Per esempio se α1 = 2 e α2 = 3, allora
2x1 + 3x2
è una combinazione lineare di x1 e x2 .
¡ 2 ¢ ¡0¢
Esempio 2.4.2. Siano −1
e 1 elementi del piano reale R2 . Calcoliamo la combinazione
lineare di questi due vettori con coefficienti rispettivamente −1 e −2:
à !
à ! Ã
! Ã !
2
0
−1 · 2 − 2 · 0
−2
−1
−2
=
=
.
−1
1
−1 · (−1) − 2 · 1
−1
Le combinazioni lineari si possono fare anche per tre o più vettori:
Definizione 2.4.3. Se x1 , . . . , xn sono n vettori dati e α1 , . . . , αn sono n scalari (tanti quanti
i vettori), allora
α1 x1 + α2 x2 + . . . + αn xn
è la combinazione lineare di x1 , . . . , xn con coefficienti α1 , . . . , αn , rispettivamente, che
possiamo scrivere anche:
n
X
αi xi .
i=1
Se consideriamo un solo vettore x e un qualsiasi scalare α, allora il multiplo αx di x è anch’esso
detto combinazione lineare di x.
¡ 1 ¢
Esempio 2.4.4. Consideriamo −1
∈ R2 . Allora:
à ! à !
1
α
α
=
−1
−α
¡ 1 ¢
è un multiplo di −1 per ogni α ∈ R.
2.5. VETTORI LINEARMENTE DIPENDENTI E INDIPENDENTI
15
Esempio 2.4.5. Consideriamo i seguenti tre elementi di R2 :
à !
à !
à !
−3
−2
1
,
,
.
0
1
1
La combinazione lineare di questi tre elementi con coefficienti rispettivamente 0, 1 e −1 è
à ! à ! à ! Ã
! Ã !
−3
−2
1
−2 − 1
−3
+
−
=
=
.
0
0
1
1
1−1
0
2.5. Vettori linearmente dipendenti e indipendenti
Consideriamo un vettore non nullo x ∈ X. Nella definizione 2.4.3 abbiamo visto che i
multipli αx di x sono combinazioni lineari di x.
Definizione 2.5.1. Fissato un vettore non nullo x ∈ X, un vettore y ∈ X che non si può
scrivere nella forma y = αx, per nessun α ∈ R, è detto linearmente indipendente da x.
¡
¢
Per esempio il vettore y = −3
∈ R2 non è linearmente indipendente dal vettore x =
3
¡ 1 ¢
−1 , perché y = −3x (cfr. esempio 2.4.4).
¡ ¢
Il vettore z = 20 , invece, è linearmente indipendente da x perché non si può scrivere
come z = αx per nessun α ∈ R. Infatti, supponiamo per assurdo che esista α ∈ R tale che
z = αx. Allora dovrebbe essere:
à ! à !
2
α
=
,
0
−α
cioè α = 2, per l’uguaglianza della prima coordinata, e −α = 0, per l’uguaglianza della
seconda, e troviamo cosı̀ una contraddizione (cfr. ancora esempio 2.4.4).
Osservazione 2.5.2. Rappresentando i vettori nel piano reale come usuale, i multipli di un
vettore dato x stanno sulla retta con la stessa direzione del vettore x. Quindi un vettore y
linearmente indipendente da x è un vettore che non sta su tale retta.
Definizione 2.5.3. Siano x e y due vettori di uno spazio vettoriale X. Si dice che x e y sono
linearmente dipendenti se non sono linearmente indipendenti, cioè se x è un multiplo di
y, o viceversa y è multiplo di x.
Se y è il vettore nullo 0X , allora per ogni x ∈ X i due vettori x e y sono linearmente
dipendenti, perché possiamo scrivere y = 0X = 0x. In altri termini il vettore nullo è multiplo
di qualsiasi altro vettore.
Osservazione 2.5.4. Se x e y sono vettori non nulli, allora x è multiplo di y se e solo se y
è multiplo di x. Infatti, se x è multiplo di y, allora esiste α ∈ R tale che x = αy, con α 6= 0,
perché x 6= 0. Allora anche y è multiplo di x, perché dividendo per α troviamo che y = α1 x.
2.5. VETTORI LINEARMENTE DIPENDENTI E INDIPENDENTI
16
Definizione 2.5.5. Siano x e y due vettori dello spazio vettoriale X. Si dice che un vettore
z è linearmente indipendente da x e y se non esistono α, β ∈ R tali che
z = αx + βy.
(2.5.1)
In caso contrario, cioè se esistono siffatti α e β, si dice che z è linearmente dipendente da x
e y.
Osserviamo che l’equazione (2.5.1) si può riscrivere nel modo seguente:
αx + βy − z = 0X ,
cioè abbiamo trovato una combinazione lineare di x, y e z, con coefficienti non tutti nulli, la
cui somma è il vettore nullo. Viceversa, se esiste una combinazione lineare di x, y e z
δx + ξy + γz = 0,
tale che γ 6= 1
allora, dividendo per γ, si trova che
δ
ξ
x+ y+z =0
γ
γ
che possiamo riscrivere come:
δ
ξ
dove α = − , β = −
γ
γ
cioè z è combinazione lineare di x e y e quindi è linearmente dipendenti da essi.
¡ 2 ¢
¡
¢
¡
Esempio 2.5.6. Siano x = −1
e y = −1
due elementi di R2 . Il vettore z =
1
linearmente dipendente da x e y perché z = x + y.
z = αx + βy,
1
0
¢
è
Più in generale, la nozione di dipendenza lineare si può dare anche per più di due vettori:
Definizione 2.5.7. Consideriamo n vettori x1 , . . . , xn di uno spazio vettoriale X. Si dice
che x1 , . . . , xn sono linearmente indipendenti se non esiste una combinazione lineare di
x1 , . . . , xn , a coefficienti non tutti nulli, tale che la loro somma sia il vettore nullo 0X . In altri
termini, x1 , . . . , xn sono linearmente indipendenti se
λ1 x1 + · · · + λn xn = 0X =⇒ λ1 = · · · = λn = 0.
Con la prossima proposizione verifichiamo che la definizione 2.5.7 è concorde con le
precedenti definizioni 2.5.1 e 2.5.5.
Proposizione 2.5.8. Siano x1 , . . . , xn vettori di uno spazio vettoriale X. Allora x1 , . . . , xn
sono linearmente indipendenti se e solo se non esiste alcun xk , con 1 ≤ k ≤ n, che sia
combinazione lineare dei rimanenti.
Dimostrazione. Supponiamo che esista xk che sia combinazione lineare dei rimanenti.
Per semplicità, poniamo che sia k = n. Allora esistono α1 , . . . , αn−1 ∈ R tali che
xn = α1 x1 + α2 x2 + · · · + αn−1 xn−1 .
2.6. SOTTOSPAZI VETTORIALI E INSIEMI DI GENERATORI
17
Riscrivendo la formula precedente nel modo seguente:
α1 x1 + α2 x2 + · · · + αn−1 xn−1 − xn = 0,
cioè abbiamo trovato una combinazione lineare con coefficienti non tutti nulli che dà 0X ,
quindi x1 , . . . , xn sono linearmente dipendenti secondo la definizione (2.5.7).
Viceversa, se x1 , . . . , xn sono linearmente dipendenti, esiste almeno una combinazione
lineare
α1 x1 + α2 x2 + · · · + αn−1 xn−1 + αn xn = 0,
con almeno un coefficiente non nullo, che supponiamo per semplicità essere αn . Allora possiamo dividere tutto per αn e portare xn dall’altro membro:
α2
αn−1
α1
xn = − x1 −
x2 + · · · −
xn−1 ,
αn
αn
αn
cioè abbiamo scritto xn come combinazione lineare dei rimanenti.
¤
¡ 1 ¢ ¡0¢
Esercizio 2.5.9. Dimostrare che i vettori −1
e 1 di R2 sono linearmente indipendenti
usando la definizione 2.5.7.
Soluzione. Consideriamo una combinazione lineare dei due vettori fissati che dia 0X :
à !
à ! à !
1
0
0
λ1
+ λ2
=
−1
1
0
Allora deve essere
Ã
1λ1 + 0λ2
−1λ1 + 1λ2
!
Ã
=
λ1
−λ1 + λ2
!
à !
0
=
0
quindi l’uguaglianza della prima coordinata implica che λ1 = 0 e quella della seconda che
0 = −λ1 + λ2 = λ2 . Abbiamo cosı̀ dimostrato che l’unica combinazione lineare dei due vettori
fissati che dà 0X è quella con tutti i coefficienti nulli, quindi i vettori dati sono linearmente
indipendenti per la definizione 2.5.7.
¤
2.6. Sottospazi vettoriali e insiemi di generatori
Definizione 2.6.1. Sia X uno spazio vettoriale. Un sottoinsieme Y di X si dice un sottospazio vettoriale di X se valgono le seguenti due condizioni:
(1) per ogni y, z ∈ Y , si ha y + z ∈ Y ;
(2) per ogni y ∈ Y e λ ∈ R, si ha λy ∈ Y .
In particolare dalla seconda condizione segue che 0X ∈ Y .
In altri termini, un sottospazio vettoriale Y di X è un sottoinsieme di X in cui si possono
fare le operazioni di somma e moltiplicazione per scalari definite in X senza uscire da Y .
2.6. SOTTOSPAZI VETTORIALI E INSIEMI DI GENERATORI
¡ 1 ¢
¡
Esempio 2.6.2. Consideriamo il vettore −1
∈ R2 e tutti i suoi multipli α
per α ∈ R, come nell’esempio 2.4.4. Allora l’insieme
(Ã !
)
α
:α∈R
−α
18
1
−1
¢
=
¡
α
−α
¢
,
(2.6.1)
è un sottospazio vettoriale di R2 .
Infatti, sommando due elementi dell’insieme (2.6.1) troviamo:
à ! à ! Ã
!
α
β
α+β
+
=
−α
−β
−α − β
che è ancora un elemento dell’insieme. In modo simile si verifica anche la proprietà (2) della
definizione 2.6.1.
¡ 1 ¢
Definizione 2.6.3. Si dice che l’insieme (2.6.1) è generato dal vettore −1
.
Sia X uno spazio vettoriale e consideriamo dei vettori x1 , . . . , xn di X, per un certo n ≥ 1.
Proposizione 2.6.4. L’insieme di vettori che sono combinazioni lineari di x1 , . . . , xn , cioè
{x = λ1 x1 + λ2 x2 + . . . + λn xn : λ1 , λ2 , . . . , λn ∈ R},
(2.6.2)
è un sottospazio lineare di X.
Definizione 2.6.5. Si dice che (2.6.2) è il sottospazio vettoriale di X generato da x1 , . . . , xn .
Osserviamo che 0X appartiene al sottospazio generato da x1 , . . . , xn perché
0X = 0 · x1 + 0 · x2 + · · · + 0 · xn .
Definizione 2.6.6. Diciamo che {y1 , . . . , yk } è un sistema di generatori di uno spazio
vettoriale X se ogni vettore in X è combinazione lineare di y1 , . . . , yk , cioè se per ogni x ∈ X
esistono scalari α1 , . . . , αk ∈ R tali che
x=
k
X
αi yi .
i=1
Esempio 2.6.7. Consideriamo lo spazio reale a tre
 
 
0
1
 
 
0 , 1 ,
0
0
dimensioni R3 . I tre vettori
 
0
 
0 ,
1
formano un sistema di generatori, infatti ogni vettore (α1 , α2 , α3 ) di R3 si può scrivere come
combinazione lineare di questi tre vettori:
       
 
 
 
0
0
α1
0
0
1
α1
       
 
 
 
α2  = α1 0 + α2 1 + α3 0 =  0  + α2  +  0  .
α3
0
0
1
0
0
α3
2.7. BASE DI UNO SPAZIO VETTORIALE
19
2.7. Base di uno spazio vettoriale
Il prossimo teorema afferma che il numero di vettori linearmente indipendenti non può
essere maggiore del numero di elementi di un sistema di generatori. Ci servirà per dimostrare
che ogni base di uno spazio vettoriale, cioè ogni sistema di generatori linearmente indipendenti,
ha lo stesso numero di elementi.
Teorema 2.7.1. Sia X uno spazio vettoriale. Supponiamo di avere n vettori linearmente
indipendenti x1 , . . . , xn e un sistema di k generatori {y1 , . . . , yk }. Allora n ≤ k.
Dimostrazione. Procediamo per induzione su k.
L’induzione è un metodo per dimostrare che una certa proprietà è vera per tutti i numeri
naturali n ∈ N. Supponiamo che siano verificate le seguenti due condizioni:
• la proprietà è vera per k = 1;
• se la proprietà è vera per un certo k, allora la proprietà è vera anche per k + 1;
allora il principio di induzione afferma che la proprietà è vera per tutti i numeri naturali
n ∈ N. La prima condizione è chiamata di solito base dell’induzione.
Dimostriamo per prima cosa la tesi per k = 1, cioè supponiamo che il sistema di generatori
sia formato da un solo elemento y1 , e dobbiamo dimostrare che n ≤ 1.
Se {y1 } è un sistema di generatori significa che ogni elemento di X è multiplo di y1 . In
particolare esistono α1 , . . . , αn ∈ R tali che
x1 = α 1 y 1 ,
x2 = α2 y1 ,
...,
x n = α n y1 .
Se fosse n ≥ 2, allora x1 = α1 y1 e x2 = α2 y1 dovrebbero essere linearmente indipendenti, ma
non lo sono. Quindi deve essere necessariamente n ≤ 1, come volevamo.
Per concludere la dimostrazione per induzione, supponiamo ora che in uno spazio vettoriale
generato da k elementi (con k ≥ 1) non esistono più di k vettori linearmente indipendenti;
dobbiamo allora dimostrare che in uno spazio vettoriale generato da k + 1 elementi non
esistono più di k + 1 vettori linearmente indipendenti.
Sia X uno spazio vettoriale generato da y1 , . . . , yk , yk+1 e siano x1 , . . . , xn linearmente
indipendenti. Allora dobbiamo dimostrare che n ≤ k + 1, o equivalentemente che n − 1 ≤ k.
Possiamo scrivere xi , per i = 1, . . . , n, come combinazione lineare di y1 , . . . , yk+1 :
x1 = α1,1 y1 + α1,2 y2 + · · · + α1,k yk + α1,k+1 yk+1
x2 = α2,1 y1 + α2,2 y2 + · · · + α2,k yk + α2,k+1 yk+1
..
.
xn = αn,1 y1 + αn,2 y2 + · · · + αn,k yk + αn,k+1 yk+1
Se αi,k+1 = 0 per ogni i = 1, . . . , n, allora x1 , . . . , xn sono generati solo da y1 , . . . , yk e quindi
per ipotesi induttiva si ha che n ≤ k < k + 1 e la tesi è dimostrata.
2.7. BASE DI UNO SPAZIO VETTORIALE
20
Altrimenti, esiste αi,k+1 6= 0 per un certo i e per semplicità supponiamo i = n. Portando
i termini con yk+1 al primo membro, si ha che:
x1 − α1,k+1 yk+1 ,
x2 − α2,k+1 yk+1 ,
...
xn − αn,k+1 yk+1 ,
sono combinazioni lineari di k elementi, quindi per ipotesi induttiva sono al più n ≤ k vettori.
Dividendo l’espressione di xn per αn, k + 1, si può scrivere yk+1 in funzione di xn e sostituirlo
nelle altre equazioni. Da ciò segue che i vettori linearmente indipendenti possono essere al
più n ≤ k + 1.
¤
Definizione 2.7.2. Una base di uno spazio vettoriale è un sistema di generatori linearmente
indipendenti.
Sia X uno spazio vettoriale e {x1 , . . . , xn } una sua base. Siccome x1 , . . . , xn è un sistema di
generatori di X, ogni elemento x di X si può scrivere come combinazione lineare di x1 , . . . , xn .
Il fatto che x1 , . . . , xn siano anche linearmente indipendenti, implicano che la scrittura di x
come combinazione lineare di x1 , . . . , xn è unica, come mostra la seguente:
Proposizione 2.7.3. Sia {x1 , . . . , xn } una base di uno spazio vettoriale X. Sia x un vettore
qualsiasi di X. Allora esistono e sono univocamente determinati λ1 , . . . , λn ∈ R tali che
x = λ 1 x1 + λ 2 x2 + · · · + λ n xn .
(2.7.1)
Dimostrazione. Come abbiamo già osservato prima dell’enunciato, x1 , . . . , xn sono un
sistema di generatori quindi, per ogni x ∈ X, esiste sicuramente la combinazione lineare
P
(2.7.1). Supponiamo che esistano anche λ01 , . . . , λ0n tali che x = ni=1 λ0 ixi . Ne segue allora
che:
λ1 x1 + λ2 x2 + · · · + λn xn = λ01 x1 + λ02 x2 + · · · + λ0n xn
e quindi, portando tutto al primo membro, che:
(λ1 − λ01 )x1 + (λ2 − λ02 )x2 + · · · + (λn − λ0n )xn = 0X .
Ma x1 , . . . , xn sono linearmente indipendenti e l’equazione precedente è una combinazione
lineare che dà 0X , perciò tale combinazione lineare deve avere tutti i coefficienti nulli, cioè
deve essere:
λ1 = λ01 , λ2 = λ02 , . . . λn = λ0n ,
come volevasi dimostrare.
¤
Il prossimo teorema ci mostra una proprietà fondamentale che hanno tutte le basi di uno
stesso spazio vettoriale.
Teorema 2.7.4. Due basi di uno spazio vettoriale hanno lo stesso numero di elementi.
Dimostrazione. Siano {x1 , . . . , xn } e {y1 , . . . , ym } due basi dello stesso spazio vettoriale X. In particolare x1 , . . . , xn sono linearmente indipendenti e {y1 , . . . , ym } è un sistema
di generatori, quindi il teorema 2.7.1 implica che n ≤ m. D’altra parte, è vero che anche
y1 , . . . , ym sono linearmente indipendenti e {x1 , . . . , xn } è un sistema di generatori, perciò
2.7. BASE DI UNO SPAZIO VETTORIALE
21
ancora lo stesso teorema 2.7.1 implica pure che m ≤ n. Ne segue allora che n = m, cioè due
basi qualsiasi hanno lo stesso numero di elementi, come volevasi dimostrare.
¤
Possiamo quindi dare la seguente:
Definizione 2.7.5. La dimensione di uno spazio vettoriale è il numero di elementi di una
base, che per il teorema precedente non dipende dalla base scelta. Se n è la dimensione dello
spazio vettoriale X, allora scriviamo:
dim X = n.
Esempio 2.7.6. Consideriamo i seguenti n vettori di
 
 
0
1
 
 
1
0
. , . , . . . ,
.
.
.
.
0
0
Rn :
 
0
 
0
. .
.
.
1
Come per R2 o R3 , è facile verificare che questi n vettori sono linearmente indipendenti e che
generano tutto Rn .
Concludiamo questa sezione e questo capitolo mostrando come costruire delle basi di
spazio vettoriale.
Supponiamo di avere un sistema di generatori {x1 , . . . , x5 } di X. Se questi elementi fossero
linearmente indipendenti, sarebbero una base. Ma se non sono linearmente indipendenti, allora
bisogna trovare una base.
Per esempio, supponiamo che x5 sia una combinazione lineare degli altri, cioè di x1 , x2 , x3
e x4 :
x5 = α 1 x1 + α 2 x2 + α 3 x3 + α 4 x4
(2.7.2)
con α1 , α2 , α3 , α4 ∈ R. Allora x1 , x2 , x3 e x4 generano X, perché sappiamo che ogni vettore
x ∈ X è combinazione lineare di x1 , . . . , x5 , quindi esistono λ1 , . . . , λ5 ∈ R tali che
x = λ1 x1 + · · · + λ4 x4 + λ5 x5 =
= λ1 x1 + · · · + λ4 x4 + λ5 (α1 x1 + α2 x2 + α3 x3 + α4 x4 )
dove l’ultima uguaglianza segue da (2.7.2), perciò x è combinazione lineare di x1 , . . . , x4 .
Generalizzando il ragionamento precedente ad un sistema di n generatori {x1 , . . . , xn } di
uno spazio vettoriale X si dimostra la seguente:
Proposizione 2.7.7. Sia {x1 , . . . , xn } un sistema di generatori di uno spazio vettoriale X.
Allora esiste un sottoinsieme {xi1 , . . . , xik } del sistema di generatori che è una base di X.
Dimostrazione. Se x1 , . . . , xn sono linearmente indipendenti, allora abbiamo già una
base di X con k = n e i1 = 1, i2 = 2, . . . ik = n. Se invece x1 , . . . , xn sono linearmente
2.7. BASE DI UNO SPAZIO VETTORIALE
22
dipendenti, allora esiste una combinazione lineare:
λ1 x1 + λ2 x2 + · · · + λn xn = 0X
dove i coefficienti λ1 , . . . , λn non sono tutti nulli. Allora esiste i tale che λi 6= 0 e possiamo
scrivere xi in funzione dei rimanenti:
λ1
λi−1
λi+1
λn
xi = − x1 − · · · −
xi−1 −
xi+1 − · · · − xn .
λi
λi
λi
λi
Ne segue che {x1 , . . . , xi−1 , xi+1 , . . . , xn } è ancora un sistema di generatori di X. Se ora
x1 , . . . , xi−1 , xi+1 , . . . , xn sono linearmente indipendenti, abbiamo trovato una base di X e
abbiamo finito. Se invece sono linearmente dipendenti, allora esiste una combinazione lineare con coefficienti non tutti nulli che è 0X , da cui possiamo ricavare uno dei vettori xj in
funzione dei rimanenti. Ripetendo lo stesso ragionamento a questi vettori rimasti, dopo un
numero finito di volte troveremo un sistema di generatori di X formato da vettori linearmente indipendenti, che quindi è una base di X. Per costruzione, i vettori della base saranno
appartenenti al sistema di generatori dato in partenza.
¤
Vediamo ora un altro metodo per trovare una base di uno spazio vettoriale X. Sia x1 un
vettore non nullo di X. Se x1 genera X, allora x1 è una base. Altrimenti, se x1 non genera X,
esiste un altro elemento x2 linearmente indipendente da x1 , cioè che non è multiplo di x1 . Se
x1 e x2 generano X, allora sono una base, perché sono linearmente indipendenti. Altrimenti
esiste un vettore x3 che non è combinazione lineare di x1 e x2 . Si procede allo stesso modo
finché non si trova un sistema di generatori che sono linearmente indipendenti per costruzione,
che quindi formano una base.
Si può formalizzare questa idea con la seguente proposizione:
Proposizione 2.7.8. Siano x1 , . . . , xm vettori linearmente indipendenti di uno spazio vettoriale X (può essere m = 1, nel qual caso x1 è un vettore non nullo qualsiasi). Se la dimensione
di X è n > m, allora esistono dei vettori xm+1 , . . . , xn tali che {x1 , . . . , xn } è una base di X.
Dimostrazione. Consideriamo il sottospazio vettoriale generato da x1 , . . . , xm . Scegliamo un vettore qualsiasi xm+1 non appartenente a questo sottospazio. Allora x1 , . . . , xm+1 sono
linearmente indipendenti. Infatti, se non lo fossero, esisterebbero λ1 , . . . , λm+1 non tutti nulli
tali che:
λ1 x1 + · · · + λm xm + λm+1 xm+1 = 0X ;
ora ci sono due possibilità: o λm+1 = 0, ma allora x1 , . . . , xm sarebbero linearmente dipendenti, in contraddizione con l’ipotesi; oppure λm+1 6= 0, ma allora potremmo scrivere
xm+1 come combinazione lineare di x1 , . . . , xm , contraddicendo l’ipotesi di aver scelto xm non
appartenente al sottospazio generato da x1 , . . . , xn .
A questo punto possiamo ripetere il ragionamento ai vettori linearmente indipendenti
x1 , . . . , xm+1 e scegliere un vettore qualsiasi xm+2 non appartenente al sottospazio vettoriale
da essi generato. Con la stessa dimostrazione appena fatta, si vede che x1 , . . . , xm+2 sono
linearmente indipendenti.
2.7. BASE DI UNO SPAZIO VETTORIALE
Continuando cosı̀, si costruisce una base x1 , . . . , xn come volevasi dimostrare.
23
¤
Esempio 2.7.9. Consideriamo il sistema di generatori {x1 , x2 , x3 }, dello spazio vettoriale
X = R2 , dove:
à !
à !
à !
2
0
1
x1 =
,
x2 =
,
x3 =
.
−1
1
1
Vediamo come trovare una base di X seguendo la proposizione 2.7.7.
I tre vettori x1 , x2 e x3 sono linearmente dipendenti, infatti
à !
à !
à ! Ã
! Ã !
2
0
1
2+0·3−2·1
0
x1 + 3x2 − 2x3 =
+3
−2
=
=
.
−1
1
1
−1 + 3 · 1 − 2 · 1
0
Allora si ha che:
x1 = 2x3 − 3x2
e quindi {x2 , x3 } è ancora un sistema di generatori di X. Siccome X = R2 ha dimensione 2,
allora {x2 , x3 } è una base di X.
Esempio 2.7.10. Consideriamo il vettore
à !
1
x1 =
1
dello spazio vettoriale X = R2 . Vediamo come costruire una base di X seguendo la proposizione 2.7.8.
Il vettore x1 genera il sottospazio vettoriale di X formato dai vettori
à !
α
α
dove α è un numero reale qualsiasi. Scegliamo un vettore x2 non appartenente a tale sottospazio, per esempio
à !
1
.
0
Allora x1 e x2 sono sicuramente linearmente indipendenti e quindi {x1 , x2 } è una base di X
perché dim X = 2.
Si noti che nell’esempio precedente avremmo potuto scegliere un altro vettore x2 , come
à !
0
1
o anche
Ã
!
1
−1
o in altri infiniti modi, perché ci sono infiniti vettori non appartenenti al sottospazio vettoriale
generato da x1 .
CAPITOLO 3
Applicazioni lineari e matrici
3.1. Definizione di applicazione lineare
Consideriamo due spazi vettoriali X e Y .
Definizione 3.1.1. Una applicazione T : X → Y , x 7→ T (x), si dice lineare se valgono le
seguenti due proprietà:
• T (x + z) = T (x) + T (z), per ogni x, z ∈ X;
• T (λx) = λT (x), per ogni λ ∈ R, x ∈ X.
La prima proprietà richiede che T conservi la somma, mentre la seconda che T conservi
la moltiplicazione per scalari.
Dalle due proprietà della definizione 3.1.1 segue che se x = λ1 x1 + · · · + λn xn , allora
l’immagine di x secondo T è
T (x) = λ1 T (x1 ) + λ2 T (x2 ) + · · · + λn T (xn ).
In particolare deve essere necessariamente T (0X ) = 0Y .
Esempio 3.1.2. Siano X = Y = R2 e consideriamo le applicazioni T : R2 → R2 . Allora
l’applicazione:
à ! Ã
!
x
2x − 3y
T
=
y
−x + y
è lineare, infatti soddisfa le due proprietà della definizione 3.1.1, come si può verificare
direttamente.
Ma vediamo anche un esempio di applicazione non lineare.
Esempio 3.1.3. Consideriamo ancora le applicazioni T : R2 → R2 . L’applicazione:
à ! Ã
!
x
x2 + y
T
=
y
y
non è lineare, perché compare un esponente 2 in una delle incognite. Da ciò segue per esempio
che:
à ! à ! à !
à !
à !
3
9
5
1
2
T
=
6=
=T
+T
0
0
0
0
0
L’idea fondamentale che dimostreremo fra poco è che un’applicazione lineare è univocamente determinata dalle immagini in Y dei vettori di una base di X.
24
3.2. MATRICE ASSOCIATA AD UN’APPLICAZIONE LINEARE
25
3.2. Matrice associata ad un’applicazione lineare
Fissiamo una base e1 , . . . , en di X e una base f1 , . . . , fm di Y . Allora T (e1 ), . . . , T (en ) sono
elementi di Y , che quindi si possono scrivere come combinazione lineare dei vettori f1 , . . . , fm :
T (e1 ) = α1,1 f1 + α2,1 f2 + · · · + αm,1 fm ,
T (e2 ) = α1,2 f1 + α2,2 f2 + · · · + αm,2 fm ,
..
.
(3.2.1)
T (en ) = α1,n f1 + α2,n f2 + · · · + αm,n fm .
L’immagine di un elemento qualsiasi x di X è univocamente determinata da y1 = T (e1 ), y2 =
T (e2 ), . . . , yn = T (en ), infatti x si scrive in modo unico come
x = λ 1 x1 + λ 2 x2 + · · · + λ n xn ,
quindi per le proprietà di linearità di T ne segue che
T (x) = λ1 T (x1 ) + λ2 T (x2 ) + · · · + λn T (xn ).
Allora associamo all’applicazione lineare T la seguente matrice di ordine m × n (una
tabella di m righe e n colonne di scalari):


α1,1 α1,2 · · · α1,n


 α2,1 α2,2 · · · α2,n 
 .
(3.2.2)
..
.. 
..
 .

.
.
.
. 

αm,1 αm,2 · · · αm,n
Osserviamo che i coefficienti di T (e1 ), . . . , T (en ) dati dalle formule (3.2.1) formano una
tabella di n righe e m colonne che è la trasposta della matrice (3.2.2), cioè una matrice è
ottenuta dall’altra scambiando le righe con le colonne.
Sia T : Rn → Rm una applicazione lineare. Consideriamo la base canonica
 
 
 
0
1 
0

 
 
 


1
0
0
 
 

e1 = 
 ..  n e2 =  ..  , . . . , en =  ..  ,
.

 . 

.



0
0
1
di Rn e quella di Rm :
 
 
1 
0


 
 

0
1

 
e1 = 
 ..  m e2 =  ..  ,
 . 
.



0
0
...,
 
0
 
0

em = 
 ..  .
.
1
3.2. MATRICE ASSOCIATA AD UN’APPLICAZIONE LINEARE
Allora:
  

1
α1,1
  

0  α2,1 
 

T
 ..  =  ..  ,
.
.
  

0
αm,1
  

0
α1,2
  

1  α2,2 
 

T
 ..  =  ..  ,
.
.
  

0
αm,2
...,
26
  

0
α1,n
  

0  α2,n 
 

T
 ..  =  .. 
.
.
  

1
αm,n
dove la matrice associata all’applicazione T è:


α1,1 α1,2 · · · α1,n


 α2,1 α2,2 · · · α2,n 
A=
..
.. 
..

 ..
.
.
. 
.

αm,1 αm,2 · · · αm,n
Siccome la moltiplicazione di matrici viene fatta righe per colonne, possiamo scrivere:
Aλ = µ
dove λ e µ sono rispettivamente le coordinate di un vettore rispetto alla base canonica di
Rn e le coordinate dell’immagine di quello stesso vettore rispetto alla base canonica di Rm .
Infatti, posto
 
λ1
 
λ2 

λ=
 .. 
.
λ4
allora



Aλ = 


α1,1 λ1 + α1,2 λ2 + · · · + α1,n λn
α2,1 λ1 + α2,2 λ2 + · · · + α2,n λn
..
.



.


αm,1 λ1 + αm,2 λ2 + · · · + αm,n λn
Vediamo qualche esempio concreto.
Esempio 3.2.1. Consideriamo l’applicazione lineare T da R2 in R2 associata, rispetto alla
base canonica, alla matrice:
Ã
!
−3 4
.
4 3
Allora:
!
!Ã ! Ã
à ! Ã
−3λ1 + 4λ2
−3 4
λ1
λ1
=
=
T
4λ1 + 3λ2
4 3
λ2
λ2
à !
1
In particolare l’immagine del vettore
è
2
Ã
!Ã ! Ã
! Ã !
à !
−3 4
1
−3 + 8
5
1
=
=
=5
4 3
2
4+6
10
2
3.3. NUCLEO E IMMAGINE DI UN’APPLICAZIONE LINEARE
27
à !
−2
e quella del vettore
è
1
Ã
!Ã ! Ã
! Ã !
à !
−3 4
−2
6+4
10
−2
=
=
= −5
4 3
1
−8 + 3
−5
1
Esempio 3.2.2. Sia T : R3 → R2 l’applicazione lineare che è associata alla matrice
Ã
!
1 2 −1
0 −1 1
rispetto alle basi canoniche di R2 e R3 .
Allora:
 
 
Ã
! λ1
Ã
!
λ1
1 2 −1  
λ1 + 2λ2 − λ3
 
T λ2  =
λ2  =
0 −1 1
−λ2 + λ3
λ3
λ3
In particolare l’immagine del vettore
 
0
 
1
1
è
 
Ã
! Ã !
0
0+2·1−1
1
 
T 1 =
=
−1 + 1
0
1
3.3. Nucleo e immagine di un’applicazione lineare
In questa sezione vediamo due esempi notevoli di sottospazi lineari di uno spazio vettoriale.
Definizione 3.3.1. Siano X, Y spazi vettoriali e T : X → Y un’applicazione lineare. Il
nucleo di T è:
ker(T ) = {x ∈ X : T (x) = 0Y },
dove ker è un’abbreviazione di kernel (che in inglese significa nucleo).
Per esempio, se T è lineare, allora T (0X ) = 0Y , quindi si ha che 0X ∈ ker(T ) per definizione
di nucleo.
Proposizione 3.3.2. Siano X, Y spazi vettoriali e T : X → Y un’applicazione lineare.
Allora il nucleo di T è un sottospazio lineare di X.
Dimostrazione. Per la definizione 2.6.1 di sottospazio lineare è sufficiente verificare due
condizioni: (1) che la somma di due elementi del nucleo è ancora un elemento del nucleo e (2)
che la moltiplicazione per uno scalare λ di un elemento del nucleo è ancora un elemento del
nucleo.
3.3. NUCLEO E IMMAGINE DI UN’APPLICAZIONE LINEARE
28
Siano x, y ∈ ker(T ). Per definizione di nucleo, si ha che T (x) = T (y) = 0Y . Allora
T (x + y) = T (x) + T (y) = 0Y + 0Y = 0Y
dove la prima uguaglianza segue dalla linearità di T , quindi anche x + y ∈ ker(T ).
Sia ora λ uno scalare qualsiasi. Per linearità di T si ha che T (λx) = λT (x). Quindi se
x ∈ ker(T ), allora T (λx) = λ0Y = 0Y . La dimostrazione è cosı̀ conclusa.
¤
Esempio 3.3.3. Sia T : R2 → R2 l’applicazione lineare che, rispetto alle basi canoniche, è
associata alla matrice
Ã
!
3 2
.
1 −1
Calcoliamo il nucleo di T .
¡ ¢
Per definizione di nucleo, un vettore λλ12 ∈ R2 appartiene al nucleo se e solo se
Ã
!Ã ! Ã
! Ã !
3 2
λ1
3λ1 + 2λ2
0
=
=
1 −1
λ2
λ1 − λ2
0
cioè se e solo se λ1 e λ2 sono tali che

3λ + 2λ = 0
1
2
λ1 − λ2 = 0
Dalla seconda equazione segue che λ1 = λ2 . Sostituendo allora λ2 = λ1 nella prima equazione,
si trova che 3λ1 + 2λ1 = 0, cioè 5λ1 = 0, che è possibile solo se λ1 = 0. Da ciò segue anche
se λ2 = λ1 = 0. Si conclude cosı̀ che l’unico vettore appartenente al nucleo di T è il vettore
¡ ¢
nullo 0X = 00 .
Definizione 3.3.4. Siano X, Y spazi vettoriali e T : X → Y un’applicazione lineare.
L’immagine di T è il sottoinsieme di T formato da tutti i vettori di Y che sono immagine
di un elemento di X:
Im(T ) = {y : y = T (x), per qualche x ∈ X}.
Si noti che 0Y appartiene sempre all’immagine di Y perché T (0X ) = 0Y .
Proposizione 3.3.5. Siano X, Y spazi vettoriali e T : X → Y un’applicazione lineare.
Allora l’immagine Im(T ) di T è un sottospazio lineare di Y .
Dimostrazione. Come per la proposizione 3.3.2, occorre dimostrare che la somma di
due elementi di Im(T ) è ancora appartenente a Im(T ) e che moltiplicando un elemento di
Im(T ) per uno scalare qualsiasi λ si trova sempre un elemento di Im(T ).
Siano y e y 0 due elementi di Im(T ). Per definizione di Im(T ), esistono x, x0 ∈ X tali che
T (x) = y e T (x0 ) = y 0 . Allora, per la linearità di T , si ha che T (x + x0 ) = T (x) + T (x0 ) =
y + y 0 , quindi y + y 0 ∈ Im(T ) per definizione di Im(T ). La linearità di T implica anche che
T (λx) = λT (x) = λy, perciò pure λy ∈ Im(T ), come volevasi dimostrare.
¤
3.3. NUCLEO E IMMAGINE DI UN’APPLICAZIONE LINEARE
29
Osservazione 3.3.6. Sia T : X → Y un’applicazione lineare tra due spazi vettoriali X
e Y . Sia {x1 , . . . , xn } una base di X. Allora {T (x1 ), . . . , T (xn )} è un insieme di generatori
dell’immagine Im(T ) di T .
Infatti, se y ∈ Im(T ), allora esiste x ∈ X tale che T (x) = y, per definizione di Im(T ).
D’altra parte possiamo scrivere x = λ1 x1 + · · · + λn xn , perché {x1 , . . . , xn } è una base di X,
quindi dalla linearità di T segue che:
y = T (x) = λ1 T (x1 ) + λ2 T (x2 ) + · · · + λn T (xn )
cioè y è combinazione lineare di T (x1 ), . . . , T (xn ).
Quindi, per ottenere una base dell’immagine Im(T ) di T è sufficiente considerare il sistema
di generatori {T (x1 ), . . . , T (xn )} e seguire il procedimento della proposizione 2.7.7 per trovare
un sottoinsieme del sistema di generatori che sia una base di Im(T ).
Il prossimo teorema stabilisce una relazione fondamentale tra le dimensioni degli spazi
vettoriali introdotti in questa sezione.
Teorema 3.3.7 (Relazione di Grassmann). Sia T : X → Y un’applicazione lineare tra due
spazi vettoriali X e Y . Allora vale la seguente relazione:
dim(ker(T )) + dim(Im(T )) = dim(X).
(3.3.1)
Dimostrazione. Supponiamo che sia dim(X) = n e dim(ker(T )) = m. Naturalmente
m ≤ n, perché ker(T ) è un sottospazio vettoriale di X. Sia x1 , . . . , xm una base di ker(T ),
che possiamo costruirci con il metodo illustrato nella proposizione 2.7.7. Nel caso che sia
ker(T ) = {0X }, allora m = 0 e non scegliamo nessun elemento di X.
Completiamo x1 , . . . , xm ad una base di X, cioè scegliamo n − m vettori xm+1 , . . . , xn tali
che {x1 , . . . , xn } sia una base di T , seguendo ancora la proposizione 2.7.7.
Come spiegato nell’osservazione 3.3.6 che precede questo teorema, {T (x1 ), . . . , T (xn )}
sono un insieme di generatori dell’immagine Im(T ) di T . Per la scelta degli xi , però, si ha
che:
T (x1 ) = T (x2 ) = · · · = T (xm ) = 0
perché x1 , . . . , xm ∈ ker(T ). Quindi l’immagine Im(T ) è generata da {T (xm+1 ), . . . , T (xn )}.
Per concludere la dimostrazione del teorema è sufficiente provare che T (xm+1 ), . . . , T (xn )
sono linearmente indipendenti, cosicché dim(Im(T )) = n − m = dim(X) − dim(ker(T )) e la
formula (3.3.1) è dimostrata.
Consideriamo una combinazione lineare
λm+1 T (xm+1 ) + · · · + λn T (xn ) = 0Y .
Allora, per linearità di T , si ha che:
T (λm+1 xm+1 + · · · + λn xn ) = 0Y
(3.3.2)
3.3. NUCLEO E IMMAGINE DI UN’APPLICAZIONE LINEARE
30
e quindi, per definizione di ker(T ):
λm+1 xm+1 + · · · + λn xn ∈ ker(T ).
Siccome x1 , . . . , xm è per costruzione una base di ker(T ), allora esistono λ1 , . . . , λm tali che
λ1 x1 + · · · + λm xm = λm+1 xm+1 + · · · + λn xn ,
o equivalentemente
λ1 x1 + · · · + λm xm − λm+1 xm+1 − · · · − λn xn = 0X .
Dal fatto che {x1 , . . . , xn } è una base di X segue allora che
λ1 = λ2 = · · · = λm = λm+1 = · · · = λn = 0
e quindi abbiamo dimostrato che non esiste una combinazione lineare (3.3.2) con λm+1 , . . . , λn
non tutti nulli, cioè T (xm+1 ), . . . , T (xn ) sono linearmente indipendenti.
¤
Ricordiamo che una funzione T si dice iniettiva se e solo se T (x) = T (y) implica che
x = y. A questo proposito, è fondamentale tenere a mente la seguente:
Proposizione 3.3.8. Una applicazione lineare T : X → Y tra due spazi vettoriali X e Y
è iniettiva se e solo se ker(T ) = {0X }, cioè se e solo se 0X è l’unico vettore di X la cui
immagine è 0Y .
Dimostrazione. Abbiamo già osservato che 0X ∈ ker(T ). Supponiamo che T sia iniettiva. Allora T (x) = 0Y implica che x = 0X , per definizione di iniettività. Quindi 0X è l’unico
elemento di ker(T ).
Viceversa, supponiamo che sia ker(T ) = {0X }. Siano x, y due elementi di X. Se T (x) =
T (y), allora T (x − y) = 0Y . L’ipotesi che sia ker(T ) = {0X } implica che x − y = 0X , cioè
x = y, che vuol dire proprio che T è iniettiva.
¤
Ricordiamo che una funzione T : X → Y si dice suriettiva se l’immagine di T è tutto il
codominio Y , o equivalentemente se per ogni elemento y di Y esiste un elemento x di X tale
che T (x) = y.
Una funzione T : X → Y si dice biettiva se è insieme iniettiva e suriettiva. In altri
termini, T è biettiva se ad ogni elemento di X corrisponde uno ed un solo elemento di Y e
viceversa.
Definizione 3.3.9. Sia T : X → Y un’applicazione lineare tra due spazi vettoriali X e Y .
Si dice che T è un isomorfismo se T è biettiva.
Per definizione, una funzione biettiva è in particolare iniettiva. Se consideriamo una applicazione lineare T : X → X di uno spazio vettoriale X in se stesso (o equivalentemente
un’applicazione lineare fra due spazi vettoriali della stessa dimensione), allora vale anche il
viceversa, come mostra la seguente:
3.4. OPERAZIONI SULLE MATRICI
31
Proposizione 3.3.10. Un’applicazione lineare T : X → Y tra due spazi vettoriali X e Y
della stessa dimensione è un isomorfismo se e solo se T è iniettiva.
Dimostrazione. Per la proposizione 3.3.8, il teorema 3.3.7 e la formula (3.3.1), si ha
che T è iniettiva se e solo se il nucleo ker(T ) ha dimensione 0, quindi se e solo se dim(X) =
dim(Im(T )), ovvero se e solo se T è suriettiva.
¤
Vediamo con un esempio come si verifica se T è iniettiva, o non lo è.
Esempio 3.3.11. Consideriamo l’applicazione lineare T : R2 → R2 associata alla matrice
Ã
!
2 1
A=
.
−1 0
¡ ¢
Supponiamo che λλ12 sia un elemento del nucleo ker(T ) di T . Allora deve essere
Ã
! Ã !
2λ1 + λ2
0
T
=
−λ1
0
¡ λ1 ¢
cioè λ2 è una soluzione di

2λ + λ = 0,
1
2
−λ1 = 0.
La seconda equazione ci dice che deve essere λ1 = 0. Sostituendo λ1 = 0 nella prima equazione,
segue ovviamente che λ2 = 0. Si conclude allora che (0, 0) = 0X , cioè il vettore nullo, è l’unico
elemento di ker(T ), quindi T è iniettiva. Dalla proposizione 3.3.10 segue perciò che è un
isomorfismo di R2 in se stesso. In particolare T è pure suriettiva.
L’esempio precedente è stato facile da risolvere perché i coefficienti della matrice erano
molto semplici. In generale, occorrerà risolvere un sistema di equazioni lineari. Nel prossimo
capitolo vedremo un metodo per risolverli che si può applicare sempre.
3.4. Operazioni sulle matrici
Sia T : X → Y una trasformazione lineare. Siano {e1 , . . . , en } e {y1 , . . . , ym } rispettivamente una base di X e di Y .
Ricordiamo che a T si associa una matrice m × n. Vedremo fra un attimo che l’insieme
delle applicazioni lineari da X a Y (fissati) è uno spazio vettoriale.
Per dimostrarlo, vedremo prima che lo spazio delle matrici m × n, cioè con m righe ed n
colonne, è uno spazio vettoriale.
Siano A e B matrici m × n, rispettivamente:




β11 β12 · · · β1n
α11 α12 · · · α1n




 β21 β22 · · · β2n 
 α21 α22 · · · α2n 
B=
A=
..
.. 
..
.. 
..
..

 ..
,
 ..
.
.
.
. 
.
. 
 .
 .
αm1 αm2 · · ·
αmn
βm1 βm2 · · ·
βmn
3.4. OPERAZIONI SULLE MATRICI
Allora si definisce la somma A + B, che è ancora una

α11 + β11 α12 + β12

 α21 + β21 α22 + β22
A+B =
..
..

.
.

αm1 + βm1 αm2 + βm2
matrice m × n:
···
···
..
.
α1n + β1n
α2n + β2n
..
.
···
αmn + βmn
32






Esempio 3.4.1. Sommiamo le due matrici seguenti:
Ã
!
Ã
!
1 −1 2
0 3 −8
A=
,
B=
.
−3 0 −1
15 14 13
La matrice A + B è
Ã
1 + 0 −1 + 3 2 − 8
−3 + 15 0 + 14 −1 + 13
!
Ã
=
!
1 2 −6
.
12 14 12
Osservazione 3.4.2. L’elemento neutro della somma di matrici di ordine m × n è la matrice
nulla, cioè la matrice di ordine m × n con tutte le entrate nulle:


0 0 ··· 0


0 0 · · · 0

0 = . . .
.. 

.
.
.
.
.
. .
0 0 ···
0
Possiamo anche definire, oltre alla somma di due matrici, la moltiplicazione di una matrice
A per uno scalare λ ∈ R:


λα11 λα12 · · · λα1n


 λα21 λα22 · · · λα2n 
λA = 
..
.. 
...
 ..

.
.
. 

λαm1 λαm2 · · · λαmn
Esempio 3.4.3. La moltiplicazione per λ = −1 della matrice
Ã
!
2 3 −1
A=
2 −5 −10
è la matrice
Ã
!
−2 −3 1
−1 · A = −A
−2 5 10
mentre la moltiplicazione per λ = 2 di A è la matrice
Ã
!
4 6
−2
2A =
.
4 −10 −20
Proposizione 3.4.4. Le matrici di ordine m × n sono uno spazio vettoriale reale di dimensione mn con le operazioni di somma e moltiplicazione per scalari appena definite.
3.5. PRODOTTO DI MATRICI
33
Dimostrazione. Il fatto che l’insieme delle matrici di ordine m × n sia uno spazio
vettoriale può essere verificato facilmente usando le definizioni di spazio vettoriale e delle
operazioni sulle matrici.
Ad una matrice A di ordine m × n, formata da mn entrate:


α11 α12 · · · α1n


 α21 α22 · · · α2n 
A=
..
.. 
..
 ..

.
.
.
. 

αm1 αm2 · · · αmn
possiamo associare la seguente (mn)-upla di numeri reali:
(α11 , α12 , . . . , α1n , α21 , . . . , α2n , . . . , αm1 , . . . , αmn ) ∈ Rmn .
Le operazioni di somma di matrici e moltiplicazione per scalari di una matrice corrisponde
esattamente alla somma delle (mn)-uple di numeri reali e alla moltiplicazione per scalari di
una (mn)-upla di numeri reali. Abbiamo cosı̀ costruito un isomorfismo di spazi vettoriali tra
le matrici di ordine m × n e Rmn .
¤
Ricordiamo che una base di Rmn è formata dai vettori x1 , . . . , xmn , dove xi è il vettore
con tutte le coordinate nulle, tranne la i-esima che è uguale a 1.
Quindi una base dello spazio vettoriale delle matrici di ordine m × n è formata dalle mn
matrici Eij , con 1 ≤ i ≤ m e 1 ≤ j ≤ n, che sono definite dall’avere tutte le entrate nulle,
tranne 1 alla riga i-esima e colonna j-esima.
3.5. Prodotto di matrici
Sia T : X → Y l’applicazione lineare associata alla matrice A, rispetto a due basi fissate.
Consideriamo ora un’applicazione lineare S : Y → Z, dove Z è uno spazio vettoriale di
dimensione p, con base {g1 , . . . , gp }.
Sia B la matrice n × p associata all’applicazione lineare S:


β11 β12 · · · β1m


β21 β22 · · · β2m 
B=
.. . .
.. 
 ..

.
.
. 
 .
βp1 βp2 · · ·
βpm
Esplicitamente:
S(f1 ) = β11 g1 + β21 g2 + · · · + βp1 gp ,
S(f2 ) = β12 g1 + β22 g2 + · · · + βp2 gp ,
..
.
S(fn ) = β1n g1 + β2n g2 + · · · + βpn gp ,
3.5. PRODOTTO DI MATRICI
34
La composizione delle due applicazioni lineari di T e S, che si indica solitamente con S ◦T ,
è l’applicazione lineare da X a Z cosı̀ definita:
(S ◦ T )(x) = S(T (x)).
Osserviamo che la scrittura S ◦ T significa che prima si applica T e poi si applica S, e non
il contrario, come a prima vista potrebbe suggerire la notazione.
Osservazione 3.5.1. Attenzione: vedremo che l’ordine con cui scriviamo i fattori del prodotto di due matrici è fondamentale, perché il prodotto di matrici è una operazione non
commutativa, cioè in generale non si può dire che B · A sia uguale ad A · B.
Proposizione 3.5.2. La matrice associata all’applicazione lineare S◦T : X → Z è il prodotto
B · A delle matrici B ed A.
Il prodotto di due matrici B ed A, che si indica con B · A (in futuro scriveremo talvolta
solo BA, in analogia con il prodotto di scalari) si fa righe per colonne:

 

β11 β12 · · · β1m
α11 α12 · · · α1n

 

β21 β22 · · · β2m   α21 α22 · · · α2n 



B·A= .
.. . .
..  ·  ..
..
.. 
.

.
.
.
.
.
.   .
.
. 
 .
βp1 βp2 · · ·
βpm
αm1 αm2 · · ·
è una matrice la cui prima colonna è
β11 α11 + β12 α21 + · · · + β1m αm1
β21 α11 + β22 α21 + · · · + β2m αm1
β31 α11 + β32 α21 + · · · + β3m αm1
..
.
βp1 α11 + βp2 α21 + · · · + βpm αm1
mentre la seconda colonna è
β11 α12 + β12 α22 + · · · + β1m αm2
β21 α12 + β22 α22 + · · · + β2m αm2
β31 α12 + β32 α22 + · · · + β3m αm2
..
.
βp1 α12 + βp2 α22 + · · · + βpm αm2
la terza colonna invece è
β11 α13 + β12 α23 + · · · + β1m αm3
β21 α13 + β22 α23 + · · · + β2m αm3
β31 α13 + β32 α23 + · · · + β3m αm3
..
.
βp1 α13 + βp2 α23 + · · · + βpm αm3
αmn
3.5. PRODOTTO DI MATRICI
35
e cosı̀ via fino all’ultima colonna che è
β11 α1n + β12 α2n + · · · + β1m αmn
β21 α1n + β22 α2n + · · · + β2m αmn
β31 α1n + β32 α2n + · · · + β3m αmn
..
.
βp1 α1n + βp2 α2n + · · · + βpm αmn
Esempio 3.5.3. Siano B ed A rispettivamente le matrici
Ã
!
Ã
!
2 −1
3 0 1
B=
,
A=
3 1
1 −1 4
Allora il prodotto B · A è
Ã
! Ã
!
2 · 3 − 1 · 1 2 · 0 − 1 · (−1) 2 · 1 − 1 · 4
5 1 −2
B·A=
=
,
3 · 3 + 1 · 1 3 · 0 + 1 · (−1) 3 · 1 + 1 · 4
10 −1 7
mentre il prodotto A · B non è possibile farlo, perché il numero di colonne di A è diverso dal
numero di righe di B.
Esempio 3.5.4. Siano A ed B rispettivamente le matrici


Ã
!
2 5
−1 2
0


A=
,
B = −2 1
0 −4 −4
2 4
Allora il prodotto A · B è
Ã
! Ã
!
−1 · 2 + 2 · (−2) + 0 · 2 −1 · 5 + 2 · 1 + 0 · 4
−6 −3
A·B =
=
,
0 · 2 − 4 · (−2) − 4 · 2
0·5−4·1−4·4
0 −20
mentre il prodotto B · A è:

 

2 · (−1) + 5 · 0
2 · 2 + 5 · (−4)
2 · 0 + 5 · (−4)
−2 −16 −20

 

B · A = −2 · (−1) + 1 · 0 −2 · 2 + 1 · (−4) −2 · 0 + 1 · (−4) =  2 −8 −4  .
2 · (−1) + 4 · 0
2 · 2 + 4 · (−4)
2 · 0 + 4 · (−4)
−2 −12 −16
Consideriamo le matrici quadrate di ordine n × n. Siano A e B due matrici di tale ordine.
Allora possiamo sempre fare il prodotto A · B e B · A, anche se in generale otteniamo due
matrici diverse.
Esempio 3.5.5. Siano A e B le seguenti matrici quadrate di ordine 2 × 2:
Ã
!
Ã
!
1 0
0 1
A=
,
B=
.
0 0
0 0
Allora il prodotto A · B è
Ã
!Ã
! Ã
!
1 0
0 1
0 1
=
0 0
0 0
0 0
3.5. PRODOTTO DI MATRICI
che è diverso dal prodotto B · A
36
Ã
! Ã
!Ã
!
0 0
0 1
1 0
=
0 0
0 0
0 0
Ciò dimostra che il prodotto di matrici non è commutativo, cioè in generale AB 6= BA.
Definizione 3.5.6. Si noti che esiste una matrice (di ordine n × n), che denotiamo con I,
tale che
A·I =I ·A=A
per ogni matrice A. Tale matrice ha tutte le entrate zero, tranne sulla diagonale principale
(quella da sinistra in alto a destra in basso) in cui le entrate sono 1:


1 0 0 ··· 0


0 1 0 · · · 0


.
0
0
1
·
·
·
0
(3.5.1)
I=


 .. .. .. . . .. 
. .
. . .
0 0 0 ···
1
Si dice che I è la matrice identità delle matrici di ordine n × n.
Osservazione 3.5.7. Sia T : X → X l’applicazione lineare associata alla matrice identità
(3.5.1) rispetto ad una base {x1 , . . . , xn }. Allora T è l’applicazione identità, cioè tale che
T (x) = x,
per ogni x ∈ X.
Infatti T (xi ) = xi , per ogni i = 1, . . . , n, per definizione di matrice associata, da cui segue
che T (x) = x per ogni x ∈ X per linearità di T .
Definizione 3.5.8. Sia A una matrice quadrata di ordine n × n. Se esiste una matrice B
tale che A · B = B · A = I, dove I è la matrice identità (3.5.1), allora si dice che la matrice
A è invertibile. La matrice B si dice inversa di A e si scrive B = A−1 .
Vedremo come calcolare l’inversa di una matrice nella sezione 4.5.
Proposizione 3.5.9. Consideriamo le matrici quadrate di ordine n × n. Sia A una di queste
matrici. Allora l’inversa di A è univocamente determinata.
Dimostrazione. Supponiamo che B e B 0 siano due matrici inverse di A, cioè A · B 0 =
B 0 · A = A · B = B · A = I. Allora:
B 0 = B 0 · I = B 0 · (A · B) = (B 0 · A) · B = I · B = B,
come volevasi dimostrare.
¤
Proposizione 3.5.10. Consideriamo le matrici quadrate di ordine n × n. Supponiamo che
A e B siano invertibili. Allora anche A · B e B · A sono matrici invertibili. In particolare
l’inversa di A · B è B −1 A−1 e l’inversa di B · A è A−1 B −1 .
3.5. PRODOTTO DI MATRICI
37
Dimostrazione. Per la proprietà associativa della moltiplicazione si ha che:
(B −1 A−1 )(A · B) = B −1 (A−1 A)B = B −1 B = I,
dove la terza uguaglianza segue dal fatto che A−1 A = I perché A−1 è l’inversa di A e l’ultima
uguaglianza dal fatto che B −1 B = I, perché B −1 è l’inversa di B. Allo stesso modo si ha che
(A−1 B −1 )(B · A) = A−1 (B −1 B)A = A−1 A = I,
completando cosı̀ la dimostrazione.
¤
Osservazione 3.5.11. Si noti che, passando all’inversa, i fattori del prodotto si scambiano
di posto. Questa proprietà è di fondamentale importanza perché il prodotto di matrici è
un’operazione che non è commutativa.
Una cosa simile accade quando si passa alla matrice trasposta. Infatti si verifica che
(AB)t = B t At .
CAPITOLO 4
Sistemi lineari e matrici
4.1. Sistemi lineari
Un sistema lineare di m equazioni in n incognite si scrive nel modo seguente:


α11 x1 + · · · + α1n xn = b1




α x + · · · + α x = b
21 1
2n n
2
.
..





α x + · · · + α x = b
m1 1
mn n
m
Indichiamo con A la matrice dei coefficienti delle variabili:


α11 α12 · · · α1n


 α21 α22 · · · α2n 
A=
..
.. 
..
 ..

.
.
. 
 .
αm1 αm2 · · ·
αmn
Supponiamo di avere una soluzione x per ogni b. Abbiamo quindi una funzione:
 
 
b1
x1
 .. 
 .. 
m
R 3  .  7→  .  ∈ Rn .
bm
xn
Questa applicazione è lineare, infatti se Ax = b e Ax0 = b0 , allora Ax+Ax0 = b+b0 = A(x+x0 ).
Se esiste una matrice B, di ordine n × m, tale che x = Bb e tale che (AB)b = A(Bb) = b,
allora la matrice AB ha le proprietà della matrice identità:


1 0 0 0 0


0 1 0 0 0 



I=
0 0 1 0 0 
 .. .. .. . . .. 
. .
. . .
0 0 0 ···
1
Se esiste una unica soluzione per ogni b, allora deve essere necessariamente n = m, cioè
AB è una matrice quadrata.
Se m > n non esistono soluzioni, mentre se m < n non ho una unica soluzione, ma il
numero (infinito) delle soluzioni è determinato dal numero di colonne n − m.
In definitiva: per l’esistenza di una soluzione deve essere m ≤ n, mentre per l’unicità della
soluzione deve essere m = n.
38
4.2. ELIMINAZIONE DI GAUSS
39
Se la matrice A è invertibile, allora l’equazione Ax = b, moltiplicando ambo i membri per
A , ha come soluzione x = A−1 b.
−1
4.2. Eliminazione di Gauss
In questa sezione mostriamo con tutti i dettagli un metodo per risolvere i sistemi di
equazioni lineari:


α1,1 x1 + α1,2 x2 + · · · + α1,n xn = b1 ,




α x + α x + · · · + α x = b ,
2,1 1
2,2 2
2,n n
2
.
..





α x + α x + · · · + α x = b .
m,1 1
m,2 2
m,n n
m
Per quanto già visto sulla moltiplicazione di matrici, possiamo scrivere il sistema lineare come

   
b1
x1
α1,1 α1,2 . . . α1,n

   
 α2,1 α2,2 . . . α2,n   x2   b2 
 .
   
..
.. 
...
 .
 .  =  . 
.
.   ..   .. 
 .
αm,1 αm,2 . . . αm,n
xn
bn
ovvero, in forma compatta,
Ax = b.
Per esempio, il sistema lineare


x1 + 3x2 + x3 − x4 = 1,




3x + 9x + 4x + x = 1,
1
2
3
4

2x1 + x2 + 5x3 + 2x4 = 0,




x − x − x = 2,
2
3
4
lo scriviamo nel modo seguente:

1
3


2
0
(4.2.1)
   
3 1 −1
x1
1




9 4
1  x2  1

  =  
1 5
2  x3  0
1 −1 −1
x4
2
Osservazione 4.2.1. Si presti attenzione al fatto che nella matrice dei coefficienti è necessario mettere 0 nel caso la variabile corrispondente non compaia nell’equazione, come per
esempio facciamo per la variabile x1 nella quarta equazione del sistema lineare precedente.
L’eliminazione di Gauss è un procedimento che permette di passare da un sistema di
equazioni lineare ad un altro sistema equivalente, cioè con le stesse soluzioni, che è più facile
da risolvere. Si arriverà infatti ad un sistema di equazioni lineari la cui matrice di coefficienti
è triangolare superiore che si potrà risolvere per sostituzione.
4.2. ELIMINAZIONE DI GAUSS
40
Consideriamo la matrice dei coefficienti del sistema lineare (4.2.1):
1
3
2
0
3
1 −1 1
9
4
1 1
1
5
2 0
1 −1 −1 2
Mediante operazioni sulle righe della matrice, vogliamo arrivare ad una matrice triangolare
superiore, cioè una matrice in cui nella prima colonna solo il primo elemento è diverso da
zero, nella seconda colonna solo i primi due elementi sono diversi da zero e infine nella terza
colonna l’ultimo elemento è nullo.
Prendiamo il primo elemento in alto a sinistra (che è un 1) della matrice come pivot:
faremo diventare nulli tutti gli elementi della matrice che stanno sotto il pivot (nella stessa
colonna, la prima).
Per fare ciò, al posto della seconda riga, sostituiamo la somma della seconda riga con la
prima riga moltiplicata per −3:
1
0
2
0
3
1 −1
1
0
1
4 −2
1
5
2
0
1 −1 −1
2
Poi sostituiamo la terza riga con la somma della terza riga e la prima riga moltiplicata
per −2:
1
3
1 −1
1
0
0
1
4 −2
0 −5
3
4 −2
2
0
1 −1 −1
Ora la prima colonna è a posto e ci occupiamo della seconda colonna.
Per prima cosa scambiamo la seconda e la quarta riga, cosı̀ da portare in basso lo zero
che c’è nella seconda colonna.
1
3
1 −1
1
2
0
1 −1 −1
0 −5
3
4 −2
0
0
1
4 −2
Scegliamo ora come pivot il numero 1 della seconda riga e seconda colonna: vogliamo far
diventare zero le entrate sotto il pivot (nella stessa colonna, la seconda). Quindi sostituiamo
la terza riga con la somma della terza riga e della seconda riga moltiplicata per 5:
1
0
0
0
1
3
1 −1
1 −1 −1
2
8
0 −2 −1
0
1
4 −2
4.2. ELIMINAZIONE DI GAUSS
41
Abbiamo messo a posto cosı̀ anche la seconda colonna. Dobbiamo provvedere allora alla
terza colonna. Per prima cosa scambiamo di posto la terza e la quarta riga per avere il
coefficiente più semplice (1 al posto di −2) come pivot.
1
0
0
0
3
1 −1
1
1 −1 −1
2
0
1
4 −2
0 −2 −1
8
Infine vogliamo far diventare zero il coefficiente −2 della quarta riga, terza colonna, sotto
il pivot. A questo scopo sostituiamo alla quarta riga la somma della quarta riga con la terza
riga moltiplicata per 2:
1 3
1 −1
1
0 1 −1 −1
2
0 0
1
4 −2
0 0
0
7
4
Abbiamo ottenuto cosı̀ la forma triangolare superiore che stavamo cercando. Allora il
sistema lineare dato (4.2.1) è equivalente al seguente:


x1 + 3x2 + x3 − x4 = 1





x −x −x =2
2






3
4
x3 + 4x4 = −2
7x4 = 4
che possiamo risolvere per sostituzione. Dall’ultima equazione 7x4 = 4 segue che
4
x4 = .
7
Sostituiamo il valore trovato per x4 nella terza equazione x3 + 4x4 = −2, che diventa x3 +
16/7 = −2, da cui si ottiene:
30
x3 = − .
7
Ora possiamo sostituire i valori di x3 e x4 trovati nella seconda equazione x2 − x3 − x4 = 2,
che diventa
30 4
x2 +
− =2
7
7
da cui si ottiene che:
12
x2 = − .
7
Infine si sostituiscono i valori di x2 , x3 e x4 trovati nella prima equazione x1 +3x2 +x3 −x4 = 1,
che diventa
12 30 4
x1 − 3 −
− =1
7
7
7
da cui si ricava che
x1 = 11.
4.2. ELIMINAZIONE DI GAUSS
42
Possiamo concludere allora che il sistema lineare dato (4.2.1) ha una e una sola soluzione, che
è:
µ
¶
12 30 4
11, − , − ,
.
7
7 7
Osservazione 4.2.2. A questo punto, il sistema lineare è risolto, ma è buona norma verificare
il risultato ottenuto: perché la soluzione sia corretta è necessario che, sostituendo x1 = 11,
x2 = −12/7, x3 = −30/7, x4 = 4/7 nel sistema lineare dato (4.2.1), si trovino che le equazioni
sono soddisfatte.
Nel caso che non lo siano, significa che è stato commesso qualche errore di calcolo e bisogna
ricontrollare tutti i passaggi.
Quando ci sono tanti calcoli da fare, come nell’esempio che abbiamo appena visto, è di
fondamentale importanza fare la verifica al termine dei calcoli, perché nel caso ci sia stato
qualche errore di calcolo, esso verrebbe quasi sicuramente scoperto con questa verifica.
Proviamo a risolvere anche il seguente sistema lineare:



5x1 + 3x2 − 2x3 = 1



x2 − 2x3 = −2
x2 + 2x3 = 1
che corrisponde alla matrice
5 3 −2
1
0 1 −2 −2
0 1
2
1
Seguendo il procedimento dell’eliminazione di Gauss si trova
5 3 −2
1
0 1 −2 −2
0 0
4
3
che corrisponde al sistema lineare



5x1 + 3x2 − 2x3 = 1



x2 − 2x3 = −2
4x3 = 3
che risolviamo per sostituzione:
3
1
1
4
x3 = ,
x2 = 2x3 − 2 = − ,
x1 = (−3x2 + 2x3 + 1) = .
4
2
5
5
La forma triangolare mi garantisce la possibilità di trovare tutte le x.
Finora abbiamo visto esempi di sistemi lineari di n equazioni in n incognite.
4.2. ELIMINAZIONE DI GAUSS
43
Esempio 4.2.3. Risolviamo un’equazione lineare:
x1 + 3x2 − 2x3 = 0
(4.2.2)
che è associata alla matrice:
1 3 −2 0
Siccome ci sono tre variabili, x1 , x2 e x3 , e una sola equazione, quindi ci sono 3 − 1 = 2
variabili che rimangono arbitrarie. Possiamo scegliere x2 = a e x3 = b come parametri. Allora
le soluzioni dell’equazione (4.2.2) sono:

 
 
 
  
−2b
−3a
−3a − 2b
−3x2 − 2x3
x1

 
 
 
  
a
x2
 =  a  +  0 .
=
 x2  = 
b
0
x3
b
x3
Allora l’insieme delle soluzioni è
 
 
−3
2
 
 
a  1  + b 0
0
1
con a, b numeri reali. In particolare, per a = 1 e b = 0, si trova il vettore:
 
−3
 
1
0
Se invece poniamo a = 0 e b = 1, allora troviamo un’altra soluzione di T , cioè:
 
2
 
0 .
1
In altri termini, l’insieme delle soluzioni dell’equazione 4.2.2 è generato da due vettori
 
 
−3
2
 
 
 1 ,
0
0
1
Dimostriamo ora che questi due ultimi vettori sono linearmente indipendenti. Consideriamo
una combinazione lineare dei due vettori che dia zero:
   
 
0
2
−3
   
 
λ1  1  + λ2 0 = 0 .
0
1
0
Effettuando la somma al primo membro si trova:
  

0
−3λ1 + 2λ2
  

λ1
 = 0

0
λ2
4.2. ELIMINAZIONE DI GAUSS
44
da cui segue, guardando la seconda e la terza componente, che λ1 = λ2 = 0. Quindi i due
vettori sono linearmente indipendenti.
Esempio 4.2.4. Consideriamo i seguenti due vettori linearmente indipendenti di R3 .
 
 
1
1
 
 
(4.2.3)
1 ,
0
0
2
Vogliamo trovare l’equazione cartesiana del sottospazio generato dai due vettori.
In generale, un piano di R3 è determinato da un’equazione della forma
αx1 + βx2 + γx3 = 0.
Se per ipotesi tale piano contiene i vettori (4.2.3), allora dobbiamo risolvere il sistema lineare
α + β = 0,
α + 2γ = 0
che corrisponde alla matrice
1 1 0 0
1 0 2 0
il procedimento di eliminazione di Gauss ci dà
1
1 0 0
0 −1 2 0
che corrisponde al sistema lineare

α + β = 0
−β + 2γ = 0
che ha soluzioni: γ arbitrario, β = 2γ e α = −β = −2γ.
Cosı̀ ottengo i vettori che soddisfano il sistema:
 


−2γ
−2


 
 2γ  = γ  2 
γ
1
descritti dalla seguente equazione
−2x1 + 2x2 + x3 = 0.
Esercizio 4.2.5. Risolvere il sistema lineare:



x1 − 3x2 + 2x3 = −1,
3x1 − 2x2 + 3x3 = 2,



4x1 + 2x2 + 2x3 = 5.
4.2. ELIMINAZIONE DI GAUSS
45
Soluzione. Al sistema lineare dato associamo la matrice
1 −3 2 −1
3 −2 3
2
4
2 2
5
Applichiamo il metodo di eliminazione di Gauss
1 −3
2 −1
0
7 −3
5
0 14 −6
9
1 −3
2 −1
0
7 −3
5
0
0
0 −1
che corrisponde al sistema lineare:



x1 − 3x2 + 2x3 = −1



7x2 − 3x3 = 5
0 = −1
che non ha soluzioni, a causa della terza riga, che è un’equazione che è sempre falsa. Infatti
se si pone, procedendo per sostituzione,
3
1
x1 = (3a + 5) − 2a − 1
x3 = a,
x2 = (3a + 5),
7
7
in forma vettoriale

 
 
  
−5
1
x1
− 57 a + 17
a  1 
   3
5 
x2  =  7 a + 7  =  3  + 5 .
7
7
a
7
0
x3
¤
Nel prossimo esercizio si esamina un sistema lineare di equazioni con due parametri h, k.
Esercizio 4.2.6. Risolvere il sistema lineare



x1 + 2x2 + hx3 = 1



2x1 + hx2 + 8x3 = −1
4x1 + 7x2 + x3 = b
Soluzione. Al sistema lineare associamo la matrice
1 2 h
1
2 h 8 −1
4 7 1
b
che risolviamo con il metodo dell’eliminazione di Gauss
1
2
h
1
0 h − 4 8 − 2h −3
0 −1 1 − 4h b − 4
1
2
h
1
0 −1 1 − 4h b − 4
0 h − 4 8 − 2h −3
4.2. ELIMINAZIONE DI GAUSS
46
1 2
h
1
0 −1
1 − 4h
b−4
0 0 8 − 2h + (h − 4)(1 − 4h) −3 + (h − 4)(b − 4)
Il terzo elemento della terza riga è
8 − 2h + (h − 4)(1 − 4h) = 8 − 2h + h − 4 − 4h2 + 16h = −4h2 + 15h + 4
Troviamo le soluzioni dell’equazione di secondo grado

√
√
−15 ± 225 + 64
15 ± 289
15 ± 17 4
h12 =
=
=
=
− 1
−8
8
8
4
Per non avere un sistema nullo deve essere h 6= 1/4 e h 6= 4. Per h = 4 non abbiamo soluzione
per nessun b. Per h = 1/4 c’è soluzione solo per b = 56/17 quando abbiamo una famiglia di
soluzioni dipendenti da un parametro.
¤
Esercizio 4.2.7. Risolvere il seguente sistema lineare:


2x2 − 4x3 + x4 = 1




x − 3x − x + x = 0
1
2
3
4

x1 − x2 + 4x3 − 2x4 = −1




2x − 2x − x + 2x = 0
1
2
3
4
Soluzione. Associamo al sistema lineare la matrice:
0 2 −4 1
1
1 −3 −1 1
0
1 −1 4 −2 −1
2 −2 −1 2
0
Per risolverlo, iniziamo con lo scambiare le prime due righe:
0
1 −3 −1 1
0 2 −4 1
1
1 −1 4 −2 −1
2 −2 −1 2
0
Possiamo poi far diventare zero i termini sotto il pivot nella prima colonna:
1 −3 −1 1
0
0 2 −4 1
1
0 2
5 −3 −1
0 4
2
3
0
4.3. OPERAZIONI ELEMENTARI SULLE RIGHE DI UNA MATRICE
47
Passiamo ora alla seconda colonna:
1 −3 −1 1
0
0 2 −4 1
1
0 0
9 −4 −2
0 0 10 1 −2
Al posto della quarta riga mettiamo la differenza della quarta riga e della terza:
1 −3 −1 1
0
0 2 −4 1
1
0 0
9 −4 −2
0 0
1
5
0
Scambiamo la terza e la quarta riga:
1 −3 −1 1
0
0 2 −4 1
1
0 0
1
5
0
0 0
9 −4 −2
e infine pensiamo alla terza colonna:
1 −3 −1 1
0
1
0 2 −4 1
0 0
1
5
0
0 0
0 −49 −2
Abbiamo trovato cosı̀ che il sistema dato è equivalente al seguente:


x1 − 3x2 − x3 + x4 = 0





2x − 4x + x = 1
2






3
4
x3 − 5x4 = 0
− 49x4 = −2
che si può risolvere per sostituzione.
¤
4.3. Operazioni elementari sulle righe di una matrice
In questa sezione mostreremo come interpretare le operazioni sulle righe che usiamo nel
metodo di eliminazione di Gauss.
Consideriamo una matrice A di ordine n × m.
4.3. OPERAZIONI ELEMENTARI SULLE RIGHE DI UNA MATRICE
48
Scambio di due righe. Lo scambio tra due righe, precisamente lo scambio della riga j
con la riga k:




..
..
.
.




 αj1 αj2 · · · αjn 
αk1 αk2 · · · αkn 








A =  ...
7 A0 =  ...
→





αk1 αk2 · · · αkn 
 αj1 αj2 · · · αjn 




..
..
.
.
consiste nel moltiplicare la matrice A per la matrice En;jk , di ordine n × n, che si ottiene a
partire dalla matrice identità In scambiando la riga j-esima con la riga k-esima, cioè:

En;jk =






j








k






j
k

1
..






















.
1
0
1
1
...
1
1
0
1
..
.
1
dove gli elementi non indicati sono tutti nulli.
Allora la matrice A0 ottenuta dalla matrice A scambiando la j-esima riga con la k-esima è
la stessa matrice che si ottiene moltiplicando A a sinistra per la matrice En;jk appena definita,
cioè A0 = En;jk · A. Osserviamo che la matrice En;jk è invertibile e la sua inversa è se stessa,
cioè En;jk · En;jk = In .
Moltiplicazione di una riga per uno scalare. Significa moltiplicare a sinistra per una
la matrice En;λ,j ottenuta dalla matrice identità moltiplicando la j-esima riga per λ.
Si può interpretare allo stesso modo anche la somma della j-esima riga con la k-esima
riga moltiplicata per uno scalare λ. Per vedere come, facciamo un esempio:
Esempio 4.3.1. Consideriamo la matrice:


2 −1 3 −2


A = 0 1 1 5 
4 −3 0 2
4.4. INVERSA DI UNA MATRICE
49
Sommiamo alla seconda riga la terza riga moltiplicata per −2. Si ottiene


2 −1 3 −2


A0 = −8 7 1 1 
4 −3 0 2
Troviamo la matrice E che moltiplicata alla matrice A mi dà la matrice A0 . Si parte dalla
matrice identità modificandola con lo stesso procedimento, cioè sommando alla seconda riga
la terza riga moltiplicata per −2:




1 0 0
1 0 0




0 1 0 7→ 0 1 −2
0 0 1
0 0 1
Questo esempio ci dimostra la seguente:
Proposizione 4.3.2. Effettuare una operazione sulle righe di una matrice A di ordine n × m
equivale a moltiplicare la matrice A a sinistra per una opportuna matrice E di ordine n × n
ottenuta effettuando sulla matrice identità In la medesima operazione da effettuare su A.
4.4. Inversa di una matrice
Nella definizione 3.5.8 abbiamo già introdotto la nozione di inversa di una matrice. Nella
prossima sezione daremo un metodo per calcolare l’inversa di una data matrice quadrata.
Proposizione 4.4.1. Sia E una matrice invertibile fissata. Allora una matrice A è invertibile
se e solo se la matrice E · A è invertibile.
Dimostrazione. Sia E −1 l’inversa di E. Se A è invertibile, allora l’inversa di E · A è
A−1 · E −1 .
Viceversa se E · A è invertibile, esiste una matrice B tale che (E · A) · B = B · (E · A) = In .
Allora E −1 = A · B. L’inversa di A è E −1 · B −1 .
¤
Possiamo dire che effettuare operazioni elementari sulle righe di A non cambia la natura
di A. Si noti anche che le matrici considerate
−1
En;jk
= En;jk
sono invertibili, come si può verificare direttamente.
Per esempio, se λ 6= 0, allora la matrice con λ al posto (i, i) è invertibile e la sua inversa
è la matrice con λ−1 al posto (i, i).
Esempio 4.4.2. Consideriamo la matrice E3;3,3

1

E3;3,3 = 0
0
con λ = −2, cioè

0 0

1 0 .
0 −2
4.5. CALCOLO DELL’INVERSA DI UNA MATRICE
50
Tale matrice ha come inversa E3;3,3 con λ = −1/2, cioè


1 0
0


0 1
0 
E3;3,3 = 

1 
0 0 −
2
come si può verificare direttamente moltiplicando queste due matrici.
Proposizione 4.4.3. La matrice En;λ;j,k è invertibile con inversa En;−λ;j,k .
Esempio 4.4.4. La matrice E3;−4;2,3 , cioè
E3;−4;2,3
ha come inversa


1 0
0


=  0 1 −4 
0 0
1

E3;4;2,3

1 0 0


=  0 1 4 .
0 0 1
4.5. Calcolo dell’inversa di una matrice
In questa sezione vediamo come calcolare l’inversa, se esiste, di una matrice quadrata A
di ordine n × n.
Se una colonna di A è il vettore nullo, allora A non è invertibile. Quindi esiste una riga
in cui il primo elemento è diverso da zero. Se questa riga è la j-esima, con j 6= 1, allora
scambiamo la prima riga con la j-esima, cosı̀ da ottenere una matrice con il primo elemento
della prima riga diverso da zero.
In altre parole, procediamo nello stesso modo che abbiamo seguito per l’eliminazione di
Gauss, cioè per trasformare la matrice data in una a gradini.
Contemporaneamente, facciamo le stesse operazioni che facciamo su A anche sulla matrice
identità In , che per comodità ci scriviamo a fianco.
Per esempio, supponiamo che la matrice A sia:




1 0 0
0
1 2




I3 = 0 1 0
A =  −1
3 0 
0 0 1
1 −2 1
Osserviamo che la terza riga ha come primo elemento 1, quindi scambiamo la prima riga
con la terza, in entrambe le matrici A ed I:




0 0 1
1 −2 1




3 0 
0 1 0 
 −1
1 0 0
0
1 2
4.5. CALCOLO DELL’INVERSA DI UNA MATRICE
51
Ora, ricordando il procedimento di eliminazione di Gauss, vogliamo far diventare la prima
colonna un vettore nullo, tranne il primo elemento che rimane uno. Quindi sommiamo alla
seconda riga la prima riga (moltiplicata per 1):




1 −2 1
0 0 1




1 1 
 0
0 1 1 
0
1 2
1 0 0
La prima colonna è a posto.
In generale, sommmiamo ad ogni altra riga la prima riga moltiplicata per un opportuno
scalare in modo da ottenere tutti zero nella prima colonna (eccetto la prima riga, dove c’è 1).
Otteniamo cioè:


1 ∗ ∗ ∗


0 ∗ ∗ ∗ 

A1 =  . . . . 

 .. .. . . .. 
0 ∗
∗
∗
dove gli asterischi significano che ci può essere qualsiasi elemento.
Ora dimentichiamoci della prima colonna e della prima riga. Guardiamo la seconda
colonna.
C’è già un 1 nella seconda riga, quindi non spostiamo nessuna riga. Vogliamo che nella
seconda colonna, sotto l’1 della seconda riga ci sia zero. Quindi sommiamo alla terza riga la
seconda riga moltiplicata per (−1):




1 −2 1
0
0
1




1 1 
1
1 
 0
 0
0
0 1
1 −1 −1
Adesso la matrice a sinistra è a gradini. Per calcolare l’inversa della matrice data, però,
c’è ancora un po’ da fare: dobbiamo ottenere a sinistra la matrice identità; la matrice che
troveremo a destra sarà l’inversa della matrice di partenza.
La prima colonna è a posto. Ma la seconda colonna no. Sommiamo quindi alla prima riga
la seconda riga moltiplicata per 2:




1 0 3
0
2
3




1
1 
 0 1 1 
 0
0 0 1
1 −1 −1
Anche la seconda colonna ora va bene. Per mettere a posto la terza, e ultima, colonna,
sommiamo alla prima riga la terza riga moltiplicata per (−3) e poi sommiamo alla seconda
riga la terza riga moltiplicata per (−1):




−3
5
6
1 0 0




2
2 
 −1
 0 1 1 
1 −1 −1
0 0 1
4.6. STUDIO DEL RANGO
52
Abbiamo cosı̀ ottenuto la matrice identità a sinistra. A destra abbiamo trovato una matrice
che si dimostra essere l’inversa della matrice data, come possiamo verificare direttamente
moltiplicando le due matrici.
Osservazione 4.5.1. Sia T : Rn → Rn l’applicazione lineare associata alla matrice A. Allora
la matrice A è invertibile se e solo se l’applicazione T è invertibile, ossia se e solo se T è biettiva.
4.6. Studio del rango
Definizione 4.6.1. Il rango di una matrice è il massimo numero di colonne linearmente
indipendenti.
Si può dimostrare che il rango è anche uguale al massimo numero di righe linearmente
indipendenti, ovvero che il rango di una matrice coincide con il rango della sua trasposta.
Un modo per calcolare il rango di una matrice è quello di trasformare la matrice a gradini mediante operazioni elementari, che non cambiano il rango della matrice, come si può
dimostrare rigorosamente.
Vediamo un esempio: vogliamo calcolare il rango della matrice


2 −4
3
1 0
 1 −2
1 −4 2 




 0
1 −1
3 1 
4 −7
4 −4 5
Innanzitutto osserviamo che, anche se le colonne sono 5, il rango può essere al più 4,
perché il rango per colonne deve coincidere con il rango per righe, che sono 4.
Sommando alla quarta riga la prima moltiplicata per −2 si ha


2 −4
3
1 0
 1 −2
1 −4 2 




 0
1 −1
3 1 
0
1 −2 −6 5
Ora sommiamo alla prima riga la seconda riga moltiplicata per −2:


0
0
1
9 −4
 1 −2
1 −4
2 




 0
1 −1
3
1 
0
1 −2 −6
5
Ora sommiamo alla quarta riga la terza riga moltiplicata per −1


0
0
1
9 −4
 1 −2
1 −4
2 




 0
1 −1
3
1 
0
0 −1 −9
4
4.7. IL TEOREMA DI ROUCHÉ-CAPELLI
53
Ora sommiamo alla quarta riga la prima riga


0
0
1
9 −4
 1 −2
1 −4
2 




 0
1 −1
3
1 
0
0
0
0
0
Visto che la quarta riga è il vettore nullo, il rango della matrice data può essere al più 3,
perché abbiamo trovato solo 3 righe non nulle.
Affermiamo ora che il rango della matrice data è esattamente 3, perché le prime colonne
sono linearmente indipendenti. Dimostriamolo: dimostriamo cioè che i tre vettori colonna
 




0
0
1
 




(4.6.1)
 1 
 −2 
 0 
0
1
−1
sono linearmente indipendenti (possiamo dimenticarci la quarta componente perché è nulla
per tutti e tre i vettori).
Per definizione di indipendenza lineare, supponiamo che esistano tre scalari λ1 , λ2 , λ3 tali
che
 



  
0
0
1
0
 



  
λ1  1  + λ2  −2  + λ3  0  =  0 
0
1
−1
0
e dimostriamo che da ciò segue che
λ1 = λ2 = λ3 = 0.
L’equazione precedente è equivalente al sistema lineare di tre equazioni nelle incognite
λ1 , λ 2 , λ 3 :



0λ1 + 0λ2 + 1λ3 = 0



λ1 − 2λ2 + 0λ3 = 0
0λ1 + 1λ2 − 1λ3 = 0
La prima equazione dice che λ3 = 0, quindi la terza equazione implica che λ2 − λ3 = λ2 = 0.
Ma allora dalla seconda equazione si ha che λ1 − 2λ2 = λ1 = 0. Abbiamo cosı̀ dimostrato
che i tre vettori (4.6.1) sono linearmente indipendenti, da cui segue che il rango della matrice
data è esattamente 3.
4.7. Il teorema di Rouché-Capelli
Il concetto di rango di una matrice torna utile per esempio per vedere se un sistema lineare
ammette, o no, delle soluzioni. Ciò infatti è il contenuto del seguente:
Teorema 4.7.1 (Rouché-Capelli). Sia A la matrice dei coefficienti di un sistema lineare di
equazioni e (A|b) la matrice orlata, cioè b è il vettore dei termini noti delle equazioni. Allora
4.7. IL TEOREMA DI ROUCHÉ-CAPELLI
54
il sistema lineare dato ammette almeno una soluzione se e solo se il rango della matrice dei
coefficienti A coincide con il rango della matrice orlata (A|b).
Vediamo come applicare il teorema di Rouché-Capelli.
Esempio 4.7.2. Risolviamo il seguente sistema lineare:



x1 − 8x2 = 3



2x1 + x2 = 1
(4.7.1)
4x1 + 7x2 = 4
Sono tre equazioni in due incognite. La matrice dei coefficienti delle incognite è:


1 −8


A= 2
1 
4
7
che ha rango 2, infatti sommando alla prima colonna la seconda colonna moltiplicata per −2
si trova


17 −8


0
1 

−10
7
che ha evidentemente rango 2, perché le prime due righe sono chiaramente linearmente indipendenti. Allora il teorema di Rouché-Capelli ci dice che il sistema lineare ha soluzione se e
solo se il rango della matrice orlata è 2. La matrice orlata del sistema lineare (4.7.1) è


1 −8 3


(A|b) =  2
1 1 
4
7 4
Sommiamo alla prima colonna la terza colonna moltiplicata per −1


−2 −8 3


1 1 
 1
0
7 4
Consideriamo ora le tre righe come vettori di R3 . Non è difficile mostrare che queste tre righe
sono linearmente indipendenti, quindi la matrice orlata del sistema lineare (4.7.1) ha rango
3. Perciò il sistema lineare (4.7.1) non ha soluzioni, per il teorema di Rouché-Capelli.
Osserviamo che si poteva procedere anche con il metodo di eliminazione di Gauss:






1 −8
1 −8
1 −8 3
3
3






1 1 
 0 17 −5 
 0 17 −5 
 2
4
7 4
0 39 −8
0
0 − 59
17
L’ultima riga della matrice a sinistra corrisponde all’equazione
59
0x1 + 0x2 = −
17
4.7. IL TEOREMA DI ROUCHÉ-CAPELLI
55
che chiaramente non ha soluzioni.
Se vogliamo calcolare il rango di matrici grandi, allora ci sono delle proprietà che è bene
ricordare.
Proposizione 4.7.3. Sia A una sottomatrice (anche non quadrata) di una matrice B. Allora
rango(A) ≤ rango(B)
o equivalentemente rango(B) ≥ rango(A).
La ragione più profonda della proposizione precedente sta nel seguente fatto:
Proposizione 4.7.4. Il rango di una matrice B è uguale al massimo ordine di una sottomatrice quadrata A invertibile di B.
Esempio 4.7.5. Vediamo ora come si può calcolare il
esempio della matrice di ordine 6 × 5

−1
3
5
0

1 −1
 5 −2

 3 −3
2 −5
B=
 0
6
7
3


6
 5 13 −4
8 −1
0
3
rango di una matrice grande, per
1
7
0
1
4
7










estraendo una opportuna sottomatrice quadrata A di B. Per esempio consideriamo la sottomatrice di ordine 3 × 3 ottenuta da B eliminando la prima, la terza e la quarta riga e la
seconda e la quarta colonna:


5
1 7


 5 −4 4 
8
0 7
che si può vedere che ha rango 3. Quindi la matrice B originaria ha rango maggiore od uguale
a 3. Scegliendo opportune sottomatrici di B si può verificare che il rango di B è 5.
Esempio 4.7.6. Consideriamo una matrice di ordine 3 × 4


−1
3 5
0


A =  5 −2 1 −1 
3 −3 2 −5
Siccome A ha tre righe, il rango di A è al più 3. Per calcolare esattamente il rango, scegliamo
delle sottomatrici di A. Per esempio la sottomatrice ottenuta da A eliminando la prima e la
terza colonna e la seconda riga è
Ã
!
3
0
−3 −5
4.8. DETERMINANTE DI MATRICI
56
che ha rango 2. Considerando poi la sottomatrice di ordine 3 × 3 ottenuta da A eliminando
la prima colonna:


3 5
0


 −2 1 −1 
−3 2 −5
si verifica che il rango di questa sottomatrice è 3, quindi anche il rango di A è 3.
4.8. Determinante di matrici
Consideriamo le matrici quadrate, cioè le matrici di ordine n × n, per un certo n ≥ 1. Ad
ogni matrice quadrata si può associare un numero reale che in qualche modo ne determina
alcune proprietà fondamentali.
Definizione 4.8.1. Il determinante è una funzione che associa ad ogni matrice A di ordine
n × n un numero reale, che indichiamo con det(A), che soddisfa le seguenti proprietà:
• det(I) = 1;
• se A ha due righe uguali, allora det(A) = 0;
• det(A) è una funzione lineare sulle righe di A.
L’ultima proprietà significa che se moltiplichiamo una riga di A per uno scalare λ, allora
anche il determinante viene moltiplicato per λ. Allo stesso modo se sommiamo ad una riga
di A un vettore, allora il determinante della matrice ottenuta è la somma di det(A) e del
determinante della matrice con il vettore al posto della riga di A.
Dalle proprietà della definizione 4.8.1, si possono dimostrare altre proprietà della funzione
determinante:
Proposizione 4.8.2. Consideriamo le matrici quadrate di ordine n × n e la funzione determinante su di esse. Allora:
• se A ha una riga nulla, allora det(A) = 0;
• scambiando due righe qualunque di A, allora det(A) cambia di segno;
• se le righe di A sono linearmente dipendenti, allora det(A) = 0.
Si può dimostrare che esiste davvero, ed è unica, la funzione determinante che soddisfa la
definizione 4.8.1 e le proprietà indicate.
Nel caso di matrici 2 × 2, il determinante è facile da calcolare:
°
°
°
°a
° 11 a12 °
det(A) = °
° = a11 a22 − a21 a12 ,
°a21 a22 °
dove
!
Ã
a11 a12
.
A=
a21 a22
4.8. DETERMINANTE DI MATRICI
57
Esempio 4.8.3. Consideriamo la matrice A quadrata di ordine 2 × 2:
Ã
!
2 1
−1 0
allora il determinante di A è:
°
°
° 2 1°
°
°
det(A) = °
° = 2 · 0 − (−1) · 1 = 1.
°−1 0°
Osservazione 4.8.4. Il determinante è definito solo per le matrici quadrate, cioè di ordine
n × n, per un certo intero n ≥ 1. Se invece una matrice A non è quadrata, cioè è di ordine
n × m con n 6= m, allora il determinante non è definito.
Il determinante di una matrice di ordine 3 × 3


a11 a12 a13


A = a21 a22 a23 
a31 a32 a33
si può calcolare con la formula di Sarrus:
det(A) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 − a11 a23 a32 − a12 a21 a33 .
Esempio 4.8.5. Consideriamo la matrice


1 −1 0


A = 2 1 1 
1 −2 2
Allora il determinante di A è:
det(A) = 2 + (−1) + 0 − 0 − (−2) − (−4) = 7.
In generale, se consideriamo una matrice quadrata di ordine n × n


a11 a12 · · · a1n


 a21 a22 · · · a2n 
A=
..
.. 
..
 ..

.
.
.
. 

an1 an2 · · · ann
(4.8.1)
allora si può calcolare il determinante, per induzione sull’ordine n delle matrici, sviluppandolo
lungo una riga o una colonna con il metodo di Laplace, come mostra la seguente:
Proposizione 4.8.6. Sia A una matrice quadrata di ordine n×n come nella formula (4.8.1).
Scegliendo di sviluppare la i-esima riga, il determinante di A è:
n
X
(−1)i+j det(Aij ),
det(A) =
j=1
dove Aij è la matrice quadrata di ordine (n − 1) × (n − 1) ottenuta da A eliminando la i-esima
riga e la j-esima colonna.
4.8. DETERMINANTE DI MATRICI
58
Nella proposizione 4.8.2 abbiamo visto che se le righe della matrice A sono linearmente
dipendenti, allora il determinante di A è nullo. Vale anche il viceversa, come afferma la
seguente:
Proposizione 4.8.7. Il determinante det(A) di una matrice A è zero se e solo se le righe di
A sono linearmente indipendenti.
Si può dimostrare anche che una matrice A è invertibile se e solo se il determinante di A
è diverso da zero. In tal caso, l’inversa di A è


A11
−A21
· · · (−1)n−1 An1


−A12
A22
· · · (−1)n An2 
1 
−1


A =
..
..
..
...

det(A) 
.
.
.


n−1
n
(−1) A1n (−1) A2n · · ·
Ann
dove Aij è il determinante della matrice di ordine (n − 1) × (n − 1) ottenuta da A eliminando
la i-esima riga e la j-esima colonna.
Un’altra proprietà importante del determinante è data dal seguente:
Teorema 4.8.8 (Binet). Siano A e B sono due matrici quadrate di ordine n × n. Allora
det(A · B) = det(A) · det(B).
(4.8.2)
Esercizio 4.8.9. Consideriamo due matrici quadrate A e B di ordine 2 × 2 o 3 × 3. Verificate
che vale la formula (4.8.2).
Cenno di soluzione. Vediamo esplicitamente il caso delle matrici di ordine 2 × 2.
Lasciamo al lettore il caso di quelle di ordine 3 × 3. Siano A e B matrici di ordine 2 × 2:
Ã
!
Ã
!
a11 a12
b11 b12
A=
,
B=
.
a21 a22
b21 b22
Allora il prodotto AB è la seguente matrice di ordine 2 × 2:
Ã
!
a11 b11 + a12 b21 a11 b12 + a12 b22
AB =
,
a21 b11 + a22 b21 a21 b12 + a22 b22
che ha determinante
det(AB) = (a11 b11 + a12 b21 )(a21 b12 + a22 b22 ) − (a21 b11 + a22 b21 )(a11 b12 + a12 b22 ) =
= a12 b21 a21 b12 + a11 b11 a22 b22 − a21 b11 a12 b22 − a22 b21 a11 b12 =
= (a11 a22 − a21 a12 )(b11 b22 − b21 b12 ) = det(A) · det(B),
che è proprio ciò che volevamo dimostrare.
¤
CAPITOLO 5
Prodotto scalare e ortogonalità
5.1. Prodotto scalare nel piano
Definizione 5.1.1. Il prodotto scalare di due vettori x e y si può definire come il modulo
della proiezione ortogonale di y su x:
x · y = |x||y| cos θ
dove θ è l’angolo formato dai vettori x e y.
Si noti che il prodotto scalare di x e y è un numero reale, cioè appunto uno scalare, il che
spiega la terminologia.
Come si calcola il prodotto scalare?
Consideriamo due vettori x e y nel piano R2 , diciamo x = (x1 , x2 ) e y = (y1 , y2 ), dove x1 ,
x2 e y1 , y2 sono le coordinate rispetto alla base canonica e1 = (1, 0) e e2 = (0, 1) di R2 .
Siano θ1 e θ2 gli angoli formati rispettivamente dai vettori x e y con la semiretta positiva
delle ascisse. Allora l’angolo formato dai vettori x e y è
θ = θ2 − θ1 .
Ricordiamo le formule di addizione e sottrazione dei coseni:
cos(α + β) = cos α cos β − sin α sin β
che ci serviranno fra poco e osserviamo che per definizione si ha che:
x1
x2
y1
y2
cos θ1 =
, sin θ1 =
, cos θ2 =
, sin θ2 =
.
|x|
|x|
|y|
|y|
Dalle due equazioni precedenti segue che:
cos θ = cos(θ2 − θ1 ) = cos θ1 cos θ2 + sin θ1 sin θ2 =
x1 y1
x2 y2
x1 y 1 + x2 y 2
+
=
|x||y| |x||y|
|x||y|
Ma allora il prodotto scalare di x e y è
x · y = |x||y| cos θ = x1 y1 + x2 y2 .
Scrivendo i vettori x e y come colonne:
à !
x1
,
x=
x2
à !
y1
y=
y2
59
(5.1.1)
5.3. ORTOGONALITÀ E ORTOGONALIZZAZIONE
il prodotto scalare si può scrivere anche cosı̀:
³
x · y = x1 y1 + x2 y2 = x1
60
à !
´ y
1
= xt y.
x2
y2
Osservazione 5.1.2. Il prodotto scalare è commutativo: scambiando di posto i due vettori,
il prodotto scalare non cambia:
x · y = y · x,
come è evidente dalla formula (5.1.1) e dalla definizione intuitiva data all’inizio.
5.2. Prodotto scalare in uno spazio vettoriale
Il prodotto scalare di due vettori si può definire in Rn analogamente al caso R2 .
Definizione 5.2.1. Dati due vettori di Rn


x1


 x2 

x= . 
,
 .. 



y=


xn
definiamo il prodotto scalare di x e y come
t
³
x · y = x y = x1 x2
y1
y2
..
.






yn

´

. . . xn 


y1
y2
..
.



 = x1 y1 + x2 y2 + · · · + xn yn .


yn
Per esempio in R4 si ha:
x · y = x1 y1 + x2 y2 + x3 y3 + x4 y4 .
Esempio 5.2.2. Consideriamo i seguenti due vettori in R3 :
 
 
2
1
 
 
 1 ,
0
−1
1
Allora il loro prodotto scalare è
2 · 1 + 1 · 0 − 1 · 1 = 1.
5.3. Ortogonalità e ortogonalizzazione
Definizione 5.3.1. Due vettori x e y di uno spazio vettoriale X si dicono ortogonali, o
perpendicolari, se
x · y = 0.
5.3. ORTOGONALITÀ E ORTOGONALIZZAZIONE
61
Consideriamo una base {x1 , . . . , xn } di uno spazio vettoriale X.
Vogliamo mostrare come ottenere una base ortogonale {x01 , . . . , x0n } di X, cioè una base
di vettori ortogonali a due a due, cioè tali che x0i · x0j = 0 per i 6= j.
A questo scopo seguiamo il procedimento di ortogonalizzazione di Gram-Schmidt.
Partiamo da x01 = x1 .
Definiamo x02 nel modo seguente:
x02 = x2 −
Poi definiamo x03 :
x03 = x3 −
x2 · x01 0
x.
x01 · x01 1
x3 · x02 0
x3 · x01 0
−
x
x.
2
x02 · x02
x01 · x01 1
e andiamo avanti cosı̀, cioè:
x0i = xi −
xi · x0i−1 0
xi · x01 0
−
·
·
·
−
x
x.
x0i−1 · x0i−1 i−1
x01 · x01 1
Proposizione 5.3.2. L’insieme {x01 , . . . , x0n } cosı̀ costruito è una base ortogonale di X.
Dimostrazione. Si verifica direttamente con i calcoli che x0i · x0j = 0.
¤
Si noti che, per costruzione, il sottospazio vettoriale generato da x01 , . . . x0i , per ogni i,
coincide con il sottospazio generato da x1 , . . . , xi .
Esempio 5.3.3. Consideriamo i seguenti tre vettori in R4 :
 
 
 
1
1
1
−1
0
0
 
 
 
x1 =   , x 2 =   , x 3 =  
1
1
0
−1
0
0
Vogliamo trovare una base ortogonale del sottospazio di R4 generato da x1 , x2 , x3 con il
procedimento di ortogonalizzazione di Gram-Schmidt.
Innanzitutto poniamo
 
1
−1
 
x01 = x1 =   .
1
−1
Dopo si definisce:
 
 
 
1
1
1






0
x2 · x
0 1 −1 1 1
x02 = x2 − 0 10 x10 =   −   =  
x1 · x1
1 2  1  2 1
0
−1
1
5.3. ORTOGONALITÀ E ORTOGONALIZZAZIONE
Infine si definisce:
 
 
 
 
1
1
1
1








0
0
x3 · x
x3 · x
0 1 1 1 −1 1  0 
x03 = x3 − 0 20 x02 − 0 10 x01 =   −   −   =  
x2 · x2
x1 · x1
0 4 1 4  1  2 −1
0
1
−1
0
Abbiamo trovato cosı̀ la seguente base ortogonale:
 
 
1
1
−1

1 1

 
0
0
x2 =   ,
x1 =   ,
2 1
1
−1
1

1

1
0
0
x3 =   .
2 −1
0

62
CAPITOLO 6
Autovalori, autovettori e diagonalizzabilità di matrici
6.1. Autovalori e autovettori
Definizione 6.1.1. Sia A una matrice quadrata di ordine n × n. Si dice che uno scalare
λ ∈ R è un autovalore della matrice A se esiste un vettore x ∈ Rn non nullo tale che:
Ax = λx.
Se ciò accade, si dice che x è un autovettore di A relativo all’autovalore λ.
Esempio 6.1.2. Consideriamo la matrice
Ã
A=
Si verifica immediatamente che
à ! Ã
1
2
A
=
−1
−1
¡ 1 ¢
quindi 1 è un autovalore di A e −1
1
0
!Ã
2 1
−1 0
!
1
−1
!
Ã
=
2−1
−1 + 0
!
Ã
=
!
1
−1
è un autovettore di A relativo all’autovalore 1.
Osservazione 6.1.3. Lo scalare 0 ∈ R è un autovalore della matrice A, per definizione di
autovalore, se esiste un vettore x ∈ Rn non nullo tale che Ax = 0.
Quindi 0 è un autovalore di A se e solo se il nucleo ker(A) è diverso da {0}, cioè se esiste
un vettore non nullo in ker(A), proprio per definizione di nucleo di un’applicazione lineare.
Definizione 6.1.4. Sia λ un autovalore della matrice A. L’insieme degli autovettori di A
relativi a λ è detto autospazio di A relativo a λ ed è un sottospazio vettoriale di Rn .
L’osservazione 6.1.3 ci dice che se 0 è un autovalore della matrice A, allora l’autospazio
relativo a 0 è proprio il nucleo ker(A). In generale, calcolare l’autospazio relativo ad un
autovalore di una matrice non è molto diverso dal calcolare il nucleo di una funzione, come
mostra la seguente proposizione.
Proposizione 6.1.5. Sia λ un autovalore di una matrice A. Allora l’autospazio relativo
all’autovalore λ è:
ker(A − λI),
cioè è il nucleo dell’applicazione lineare associata alla matrice A − λI.
Dimostrazione. Un vettore x non nullo appartiene al nucleo di A − λI se e solo se
0 = (A − λI)x = Ax − λx,
63
6.2. DIAGONALIZZABILITÀ DI MATRICI
cioè se e solo se Ax = λx, che è proprio la definizione di autovettore relativo a λ.
64
¤
Esempio 6.1.6. Abbiamo già visto che la matrice A dell’esempio 6.1.2 ha 1 come autovalore.
Allora l’autospazio relativo a 1 è il nucleo dell’applicazione lineare associata alla matrice
! Ã
!
Ã
2−1
1
1
1
=
−1 0 − 1
−1 −1
quindi è formato dai vettori (x, y) tali che
à ! Ã
!Ã ! Ã
!
0
1
1
x
x+y
=
=
0
−1 −1
y
−x − y
cioè dai vettori (x, −x), per ogni x ∈ R. In particolare, per x = 1, ritroviamo il vettore (1, −1)
che sapevamo già essere un autovettore relativo a 1.
6.2. Diagonalizzabilità di matrici
Per trovare quali siano gli autovalori di una matrice A, è opportuno introdurre anche il
polinomio caratteristico di A.
Definizione 6.2.1. Sia A una matrice quadrata di ordine n×n. Il polinomio caratteristico
di A è un polinomio p(t) di grado n nella variabile t definito dalla seguente equazione:
p(t) = det(A − tI).
L’utilità del polinomio caratteristico è resa evidente dalla seguente proposizione, che qui
non dimostriamo.
Proposizione 6.2.2. Sia A una matrice quadrata di ordine n × n e p(t) il suo polinomio
caratteristico. Allora λ ∈ R è un autovalore di A se e solo se λ è una radice del polinomio
p(t), cioè se e solo se p(λ) = 0.
Nel caso che sia n = 2, il polinomio caratteristico di una matrice A di ordine 2 × 2 è:
°
°
°a − t a
°
° 11
°
12
p(t) = °
° = t2 − (a11 + a22 )t + det(A).
°a21
a22 − t°
Esempio 6.2.3. Consideriamo la matrice A dell’esempio 6.1.2. Allora il polinomio caratteristico di A è:
p(t) = t2 − 2t + 1.
Notiamo che p(t) = (t − 1)2 , quindi t = 1 è l’unica radice del polinomio p(t) e perciò 1 è
l’unico autovalore della matrice A per la proposizione 6.2.2.
Osservazione 6.2.4. Un polinomio p(t) a coefficienti reali si può sempre fattorizzare in
polinomi irriducibili di grado al più due, cioè si può sempre scrivere come prodotto di polinomi
che hanno grado uno o due, detti fattori del polinomio p(t). Un fattore di primo grado, diciamo
t − a, corrisponde evidentemente alla radice t = a del polinomio dato. Invece un polinomio
6.2. DIAGONALIZZABILITÀ DI MATRICI
65
di secondo grado irriducibile, cioè tale che non è possibile scriverlo come prodotto di due
polinomi di primo grado, non ha radici reali. Più precisamente, se si considerano i numeri
√
complessi a + b −1, allora un polinomio irriducibile di grado 2 a coefficienti reali ha due
√
radici complesse coniugate, cioè se λ = a + b −1 è radice di un polinomio p(t) a coefficienti
√
reali, allora anche il coniugato λ̄ = a − b −1 è radice di p(t).
Per esempio, il polinomio p(t) = t2 + 1 non ha radici reali, infatti p(t) 6= 0 per ogni t ∈ R,
√
ma ha radici complesse ± −1.
Definizione 6.2.5. Una matrice si dice diagonale se ha tutti le entrate nulle, tranne quelle
sulla diagonale principale (dall’alto a sinistra in basso a destra):


λ1 0 0 · · · 0


 0 λ2 0 · · · 0 


 0 0 λ3 · · · 0 


..
.. . .
.
 ..
. .. 
.
.
.
0 0 0 · · · λn
Una matrice A si dice diagonalizzabile se esiste un matrice invertibile M tale che M AM −1
è diagonale.
In generale, non tutte le matrici sono diagonalizzabili.
Proposizione 6.2.6. Una matrice A simmetrica, cioè tale che At = A−1 , è sempre diagonalizzabile.
Un criterio di diagonalizzabilità è il seguente:
Teorema 6.2.7. Una matrice A è diagonalizzabile se e solo se esiste una base di autovettori.