Appunti e esercizi di algebra lineare e geometria analitica

Appunti e esercizi di algebra lineare e
geometria analitica
Cristina Bardelle , Diego Giovannini
24 gennaio 2006
Indice
1 Sistemi lineari
1.1 Matrici quadrate m = n . . . . . . . . . . . . . . . . . . . . .
1.1.1 Regola di Cramer . . . . . . . . . . . . . . . . . . . . .
1
2
2
2 Spazi vettoriali
2.1 Definizioni ed esempi . . . . . . . . . . . . . . . . . . . . . . .
2.2 Sottospazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . .
2.3 Indipendenza e dipendenza lineare, generatori e basi . . . . . .
12
12
15
17
3 Applicazioni lineari
3.1 Definizioni ed esempi . . . . . . . . . . . . . . .
3.2 Sottospazi associati ad una applicazione lineare
3.3 Matrice associata ad una applicazione lineare . .
3.4 Cambiamenti di riferimento . . . . . . . . . . .
23
23
29
29
40
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4 Diagonalizzazione di operatori lineari
47
5 Geometria analitica del piano
67
6 Geometria analitica dello spazio
71
I
Capitolo 1
Sistemi lineari
Sistema di m equazioni lineari in n incognite x1 , . . . , xn


a11 x1 + a12 x2 + · · · + a1n xn = b1


 a21 x1 + a22 x2 + · · · + a2n xn = b2
..

.


 a x + a x + ··· + a x = b
m1 1
m2 2
mn n
m
Sia K un insieme ad es K = C, R, Q, . . .
al sistema é

a11 a12
 a21 a22

A =  ..
..
 .
.
am1 am2
(1.1)
La matrice associata A ∈ Mm,n (K)

· · · a1n
· · · a2n 

.. 
..
.
. 
· · · amn
x = (x1 , . . . , xn )t ∈ K n , b = (b1 , . . . , bm )t ∈
come Ax = b ovvero



a11 a12 · · · a1n

 a21 a22 · · · a2n  


 ..
..
..  
...
 .
.
. 

am1 am2 · · · amn
K m . Il sistema si puó riscrivere
x1
x2
..
.
..
.
xn



 
 
=
 

b1
b2
..
.





bm
Il sistema si dice omogeneo se b1 = b2 = . . . = bm = 0. Una soluzione del
sistema 1.1 é un elemento (X1 , . . . , Xn )t ∈ K n che é soluzione simultanea
1
delle m equazioni 1.1. Il sistema si dice compatibile (incompatibile o impossibile) se possiede almeno una soluzione (se non possiede soluzioni). Ogni
sistema omogeneo é sempre compatibile in quanto ammette almeno una soluzione (0, . . . , 0)t , che viene detta soluzione banale. Un sistema compatibile
si dice determinato se ammette un’unica soluzione e si dice indeterminato se
ammette infinite soluzioni.
1.1
Matrici quadrate m = n





a11 a12 · · · a1n
a21 a22 · · · a2n
..
..
..
..
.
.
.
.
an1 an2 · · · ann
Esercizio 1.1.
1.1.1





x1
x2
..
.


 
 
=
 
xn
b1
b2
..
.





bn

 2x + 3y − z = 1
x + 4y + 2z = 2

3x − y − z = 3
Regola di Cramer
Teorema 1.1 (di Cramer). Il sistema Ax = b ha una ed una sola soluzione
⇔ det(A) 6= 0.
Le soluzioni sono date da
xi =
det(Ai )
det(A)
i = 1, . . . , n
dove la matrice Ai si ottiene sostituendo la colonna i-esima della matrice A
con il vettore colonna b. Soluzione esercizio 1.1 Il sistema si puó riscrivere
nella seguente forma:

   
2 3 −1
x
1
 1 4




2
y
2 
=
3 −1 −1
z
3
2
Applichiamo il metodo di Cramer:
2 3 −1 2 = 30 6= 0
det(A) = 1 4
3 −1 −1 2 1 −1 det(A2 ) = 1 2 2 = −6
3 3 −1 x=
det(A1 )
6
=
det(A)
5
Esercizio 1.2.
y=
1 3 −1 2 = 36
det(A1 ) = 2 4
3 −1 −1 2 3 1 det(A3 ) = 1 4 2 = 24
3 −1 3 det(A2 )
1
=−
det(A)
5
z=
det(A3 )
4
= .
det(A)
5

+ z = −1
 2ix
ix
+ iz = i

x + y + z =2
Il sistema si puó riscrivere

2i
 i
1
nella seguente forma:
  

0 1
x
−1
0 i  y  =  i 
1 1
z
2
Applichiamo il metodo di Cramer:
2i 0 1 −1
det(A) = i 0 i = 2 + i 6= 0
det(A1 ) = i
1 1 1 2
2i −1 1 2i 0
i i = 2 + i
det(A2 ) = i
det(A3 ) = i 0
1 2 1 1 1
2i
2 4
det(A1 )
=
= + i
det(A)
2+i
5 5
det(A2 )
2+i
y =
=
=1
det(A)
2+i
det(A3 )
2−i
3 4
z =
=
= + i.
det(A)
2+i
5 5
x =
3
0 1 0 i = 2i
1 1 −1 i = 2 − i
2 Il metodo di Cramer puó essere utilizzato solo nel caso in cui in un sistema
il numero di equazioni é uguale al numero di incognite (n = m), ovvero la
matrice associata al sistema é quadrata. Negli altri casi possiamo utilizzare
il metodo di Rouché-Capelli; tale metodo peró dá informazioni solo sulla
compatibilitá o meno del sistema e sul numero di soluzioni, ma non ci dice
come determinarle (affronteremo successivamente questo problema). Dato il
sistema Ax = b indichiamo con A|b la matrice orlata, ottenuta dalla matrice
A aggiungendo il vettore dei termini noti b:


a11 a12 · · · a1n b1
 a21 a22 · · · a2n b2 


A|b =  ..
..
.. .. 
..
 .
.
.
. . 
an1 an2 · · · ann bn
Teorema 1.2 (Rouché-Capelli). Il sistema Ax = b ha soluzioni se e solo se
il rango di A é uguale al rango di A|b.
Il sistema Ax = b ha ∞n−r soluzioni dove n é il numero di incognite del
sistema e r é il rango di A.
Esercizio 1.3. Discutere il seguente sistema lineare

x3 + 2x4 = 3

2x1 + 4x2 − 2x3
= 4

2x1 + 4x2 − x3 + 2x4 = 7
Utilizziamo il Teorema di Rouché-Capelli per risolvere l’esercizio.




0 0 1 2
0 0 1 2 3
A =  2 4 −2 0 
A|b =  2 4 −2 0 4 
2 4 −1 2
2 4 −1 2 7
Calcoliamo il rango di A. Le sottomatrici quadrate di ordine 3 (ovvero matrici
3 × 3) sono:








0 0 1
0 0 2
0 1 2
0 1 2
 2 4 −2 
 2 4 0 
 2 −2 0 
 4 −2 0 
2 4 −1
2 4 2
2 −1 2
4 −1 2
4
Risulta che i minori1 di ordine 3 sono tutti uguali a 0, mentre esiste un minore
di ordine 2 diverso da 0; ad esempio la sottomatrice
1 2
−2 0
ha determinante 6= 0. Dunque r(A) = 2. Calcoliamo ora il rango di A|b.
Ovviamente r(A) ≤ r(A|b) ≤ 3 e poiché i minori di ordine 3 sono tutti uguali
a 0 il rango é 2. Dato che r(A) = r(A|b) = 2 il sistema é compatibile.
Esercizio 1.4. Discutere il seguente sistema lineare

x1
− 2x3 + 3x4 + x5 = 2

−2x1 + x2
+ x5 = 6

x2 − 4x3 + 6x4 + 5x5 = 7


1 0 −2 3 1
A =  −2 1 0 0 3 
0 1 −4 6 5

1 0 −2 3 1 2
A|b =  −2 1 0 0 3 6 
0 1 −4 6 5 7

Si ha che r(A) = 2 e r(A|b) = 3. Poiché r(A) 6= r(A|b) il sistema é
incompatibile.
Esercizio 1.5. Discutere, al
lineare

 x
kx

x
variare del parametro k, il seguente sistema
−
y +
z=1
− ky +
z=1
− k2y + k2z = 1


1 −1 1
A =  k −k 1 
1 −k 2 k 2
det(A) = −k 3 + k 2 + k − 1 = (k − 1)(1 − k 2 )
Se k 6= +
− 1 allora det(A) 6= 0 ( ⇒ r(A) = 3 ⇒ r(A|b) = 3 ⇒ sistema
compatibile). Per Cramer si puó inoltre stabilire che se k 6= +
− 1 esiste ed é
unica la soluzione.
1
Il minore di una matrice A ∈ Mm,n (K) é il determinante di una sua sottomatrice
quadrata. L’ordine del minore é l’ordine della sottomatrice quadrata corrispondente.
5
• CASO k = 1


1 −1 1
A =  1 −1 1 
1 −1 1
Si ha che r(A) = 1, quindi il sistema ha ∞2 soluzioni.
• CASO k = −1


1 −1 1
A =  −1 1 1 
1 −1 1
Si ha che r(A) = 2, quindi il sistema ha ∞1 soluzioni.
Esercizio 1.6. Discutere, al variare dei parametri k e h, il seguente sistema
lineare

 x + 2y − z = 0
x + y + 2z = 1

2x + hy + z = k


1 2 −1
A= 1 1 2 
2 h 1
det(A) = −3h + 9
Se h 6= 3 allora det(A) 6= 0 ( ⇒ r(A) = 3 ⇒ r(A|b) = 3 ⇒ sistema
compatibile). Per Cramer si puó inoltre stabilire che se h 6= 3 esiste ed é
unica la soluzione (∀k). CASO h = 3


1 2 −1
A= 1 1 2 
2 3 1
Si ha che r(A) = 2.

1 2 −1 0
A|b =  1 1 2 1 
2 3 1 k

Se k = 1 si ha che r(A|b) = 2, se k 6= 1 allora r(A|b) = 3. Riassumendo:
• se h = 3 e k = 1 il sistema é compatibile con ∞1 soluzioni,
6
• se h = 3 e k 6= 1 il sistema é incompatibile.
Esercizio 1.7.


kx
+ kz = 1
−5x + y + z = 2

−k 2 x
+ z=3
Discutere il sistema in R e

k 0
A =  −5 1
−k 2 0
in C.

k
1 
1

k 0 k 1
A|b =  −5 1 1 2 
−k 2 0 1 3

det(A) = k + k 3 = k(k 2 + 1)
In R, det(A) = 0 per k = 0. Se k = 0 il sistema é incompatibile (si nota
subito dalla prima eqz.); se k 6= 0 per Cramer si puó stabilire che esiste ed
é unica la soluzione. In C, det(A) = 0 per k = 0 e k 6=+
− i. Se k 6= 0 e
+
k 6=− i per Cramer si puó stabilire che esiste ed é unica la soluzione; se k = 0
il sistema é incompatibile (si nota subito dalla prima eqz.); se k =+
− i si ha
r(A) = 2 e r(A|b) = 3, dunque il sistema é incompatibile.
Definizione 1.1. Date
a1 x 1 + · · · + an x n = b 1
α1 x1 + · · · + αn xn = β1
(1.2)
(1.3)
diciamo che 1.2 e 1.3 sono equivalenti se ogni soluzione di 1.2 é anche soluzione di 1.3 e viceversa. Analogamente si definiscono i sistemi
equivalenti.
Esempio 1.1. Le equazioni
x−y =1
2x − 2y = 2
sono equivalenti. Infatti hanno le stesse soluzioni (nota che la seconda eqz.
é il doppio della prima).
OPERAZIONI ELEMENTARI SUI SISTEMI
La nozione di sistemi equivalenti risulterá utile nella risoluzione di sistemi
lineari; l’idea di base é quella di trasformare un dato sistema in uno equivalente di piú semplice risoluzione. Le operazioni che permettono di fare questa
trasformazione (e che corrispondono a determinate operazioni sulla matrice
associata al sistema) sono:
7
• cambio l’ordine delle equazioni (; scambio di righe nella matrice
associata)
• cambio l’ordine delle incognite (; scambio di colonne nella matrice
associata)
• moltiplico una equazione per uno scalare non nullo (; moltiplico una
riga della matrice associata per uno scalare non nullo)
• somma di due equazioni che va sostituita ad una di esse
(; somma di due righe della matrice associata)
METODO DI RIDUZIONE DI GAUSS Sia dato il sistema


a11 x1 + a12 x2 + · · · + a1n xn = b1


 a21 x1 + a22 x2 + · · · + a2n xn = b2
..

.


 a x + a x + ··· + a x = b
m1 1
m2 2
mn n
m
(1.4)
Posso supporre a11 6= 0, altrimenti scambio la prima riga con un’altra in cui
ai1 6= 0. Al posto della seconda riga (eqz.) metto l’equazione ottenuta da
i1
21
R1 . In generale sostituisco la riga Ri con la riga Ri − aa11
R1 ed ottengo
R2 − aa11
un sistema della forma


a11 x1 +a12 x2 + · · · + a1n xn = b1


 0
+a22 x2 + · · · + a2n xn = b2
..

.


 0
+am2 x2 + · · · + amn xn = bm
Riapplico lo stesso ragionamento al sottosistema


 a22 x2 + · · · + a2n xn = b2
..
.

 a x + ··· + a x = b
m2 2
mn n
m
Proseguendo in questo modo si ottiene un sistema equivalente a quello iniziale
1.4 che si presenta nella forma


+a1n xn = b1
 a11 x1 + a12 x2 + . . .


a22 x2 + . . .
+a2n xn = b2
(1.5)
..

.



amm xm + . . . +amn xn = bm
8
cosiddetta forma a gradini, in cui a11 · a22 · . . . · amm 6= 0. Parto dall’ultima
equazione ed asplicito xm :
xm = a−1
mm [bm − (amm+1 xm+1 + · · · + amn xn )].
Dalla penultima si ha:
xm−1 = a−1
m−1m−1 [bm−1 −
n
X
am−1i xi ]
i=m
e cosı́ via fino ad ottenere x1 .
Esercizio 1.8. Riprendiamo l’esercizio 1.3 e risolviamo il sistema col metodo
di Gauss.
La matrice orlata associata é

0 0 1 2
 2 4 −2 0
2 4 −1 2

3
4 
7
Scambiamo R1 con R2 :

2 4 −2 0 4
 0 0 1 2 3 
2 4 −1 2 7

Al posto di R3 mettiamo R3 − R1 :


2 4 −2 0 4
 0 0 1 2 3 
0 0 1 2 3
Al posto di R3 mettiamo R3 − R2 :


2 4 −2 0 4
 0 0 1 2 3 
0 0 0 0 0
Possiamo eliminare la terza riga e scambiare la seconda colonna con la terza:
2 −2 4 0 4
0 1 0 2 3
9
E’ a gradini con x2 e x4 libere (∞2 soluzioni). Le soluzioni sono:

x2 = t



x4 = s
x

3 = 3 − 2s


x1 = 5 − 2s − 2t
Esercizio 1.9. Riprendiamo l’esercizio 1.4 e risolviamo il sistema col metodo
di Gauss.
La matrice orlata associata é


1 0 −2 3 1 2
 −2 1 0 0 3 6 
0 1 −4 6 5 7
Dopo vari passaggi si ottiene:


1 0 −2 3 1 2
 0 1 −4 6 5 10 
0 0 0 0 0 3
R3 ci dice che il sistema é incompatibile.
Esercizio 1.10. Riprendiamo l’esercizio 1.5 e risolviamo il sistema col
metodo di Gauss.
La matrice orlata associata é

1 −1 1
 k −k 1
1 −k 2 k 2

1
1 
1
Riduco a gradini:

1
−1
1
 0 1 − k2 k2 − 1
0
0
1−k
Se (1 − k 2 )(1 − k) 6= 0 cioé se k =
6 +
− 1

 x
y

z

1
0 
1−k
abbiamo un unica soluzione:
= 1
= 1
= 1
10
Se k = 1 la matrice diventa (1 − 1

 y =
z =

x =
Se k = −1 la matrice diventa
e si hanno ∞1 soluzioni:
1 | 1) e si hanno ∞2 soluzioni:
t
s
1+t−s
1 −1 1 1
0 0 2 2

 y = t
z = 1

x = t
Esercizio 1.11. Riprendiamo l’esercizio 1.6 e risolviamo il sistema col
metodo di Gauss.
La matrice orlata associata é


1 2 −1 0
 1 1 2 1 
2 h 1 k
Riduco a gradini:

1 2
−1
 0 −1
3
0 0 3h − 9

0

1
k+h−4
Se 9 − 3h 6= 0 cioé se h 6= 3 esiste un’unica soluzione (∀k ∈ R). Se h = 3 la
matrice diventa


1 2 −1 0
 0 −1 3 1 
0 0
0
k−1
Si ottiene che
• se h = 3 e k 6= 1 il sistema é incompatibile
• se h = 3 e k = 1 il sistema ha ∞1 soluzioni.
11
Capitolo 2
Spazi vettoriali
Introduciamo in questo capitolo la nozione di spazio vettoriale, un concetto
di grande importanza in algebra lineare che giocherà un ruolo fondamentale
in tutti i capitoli successivi. Partiamo con i richiami delle definizioni e degli
esempi basilari di spazi vettoriali, per poi arrivare al concetto di sottospazio
vettoriale, ai concetti di indipendenza lineare, di sistema di generatori e di
base e dimensione di uno spazio vettoriale.
2.1
Definizioni ed esempi
Cominciamo questa sezione richiamando immediatamente la definizione di
spazio vettoriale.
Definizione 2.1. Un insieme V è detto spazio vettoriale sul campo1 degli
scalari K, se sono definite due operazioni:
somma di vettori + : V × V → V : (v1 , v2 ) 7→ v1 + v2 ;
prodotto per uno scalare · : K × V → V : (λ, v) 7→ λv
che soddisfano le seguenti proprietà :
1. ∀v1 , v2 , v3 ∈ V : (v1 + v2 ) + v3 = v1 + (v2 + v3 );
2. ∃0V ∈ V : 0V + v = v + 0V = v, ∀v ∈ V ;
3. ∀v ∈ V, ∃w ∈ V : v + w = w + v = 0V ;
1
in generale possiamo pensare a R o C
12
4. ∀v1 , v2 ∈ V : v1 + v2 = v2 + v1 ;
5. ∀v ∈ V : 1 · v = v;
6. ∀α, β ∈ K, ∀v ∈ V : (α + β)v = αv + βv;
7. ∀α ∈ K, ∀v1 , v2 ∈ V : α(v1 + v2 ) = αv1 + αv2 ;
8. ∀α, β ∈ K, ∀v ∈ V : (αβ)v = α(βv).
Possiamo passare subito ad esibire alcuni esempi notevoli di spazi vettoriali.
Esempio 2.1. Per ogni n ≥ 1 l’insieme Rn ha la struttura di spazio vettoriale
su se stesso, con le seguenti operazioni:
somma (x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn );
prodotto α · (x1 , x2 , . . . , xn ) = (αx1 , αx2 , . . . , αxn ).
E’ immediato verificare che l’elemento neutro di Rn rispetto alla somma risulta essere 0Rn = (0, 0, . . . , 0), cosı̀ come l’inverso di (x1 , x2 , . . . , xn ) risulta
essere la n-upla (−x1 , −x2 , . . . , −xn ). Lasciamo le altre verifiche come esercizio allo studente, il quale le potrà trovare su un qualsiasi testo di algebra
lineare.
Esempio 2.2. Utilizzando le stesse definizioni dell’esempio precedente è immediato dimostrare che lo spazio Cn ha la struttura di spazio vettoriale su se
stesso. Inoltre, è possibile dare a Cn una struttura di spazio vettoriale su R,
semplicemente sostituendo il prodotto di un elemento di Cn con un elemento
di R anzichè con un elemento di C. Torneremo dopo ad analizzare questo
esempio in dettaglio.
Esempio 2.3. Indichiamo con Mm,n (R) l’insieme delle matrici a coefficienti
reali con m righe ed n colonne; vogliamo dare a tale insieme la struttura di
spazio vettoriale su R. Iniziamo a definire le due operazioni:
somma se A, B ∈ Mm,n (R), con A = (aij ), B = (bij ), allora definiamo:
C = A + B ponendo C = (cij ) = (aij + bij );
prodotto se α ∈ R e A ∈ Mm,n (R), definiamo αA = (αaij ) .
13
Anche in questo caso lasciamo le verifiche allo studente, ricordando che tutte
si deducono piuttosto facilmente dalle proprietà delle matrici. Ricordiamo solo che l’elemento neutro di tale spazio risulta essere la matrice con coefficienti
tutti nulli.
Esempio 2.4. Indichiamo con Rn [x] l’insieme dei polinomi nell’indeterminata x di grado minore od uguale ad n e con coefficienti reali; un generico
elemento di tale insieme risulta essere dunque
p(x) = a0 + a1 x + a2 x2 + . . . + an xn .
Definiamo la somma di polinomi ed il prodotto di un polinomio per un numero
reale nel modo usuale:
se p(x) = a0 + a1 x + a2 x2 + . . . + an xn e q(x) = b0 + b1 x + b2 x2 + . . . + bn xn
allora
p(x) + q(x) = a0 + b0 + (a1 + b1 )x + (a2 + b2 )x2 + . . . + (an + bn )xn ,
e se λ ∈ R:
λp(x) = λa0 + λa1 x + λa2 x2 + . . . + λan xn
In tal caso l’elemento neutro è il polinomio nullo (con tutti i coefficienti uguali
a 0), mentre l’opposto del polinomio p(x) = a0 +a1 x+a2 x2 +. . .+an xn risulta
essere il polinomio −p(x) = −a0 − a1 x − a2 x2 − . . . − an xn . Anche in questo
caso lasciamo le altre verifiche come esercizio allo studente.
Esempio 2.5. E’ possibile dare all’insieme V = {f : [a, b] → R} delle
funzioni definite su un intervallo [a, b] a valori in R la struttura di spazio
vettoriale mediante le seguenti definizioni:
somma (f + g)(x) = f (x) + g(x);
prodotto (λf )(x) = λf (x).
Facciamo qualche verifica:
associatività : verifichiamo che ∀f, g, h ∈ V si ha che (f + g) + h =
f + (g + h). Vogliamo dimostrare che la funzione di primo membro coincide
con quella di secondo membro; per fare questo è sufficiente vedere che il loro
valore in ogni punto x ∈ [a, b] è lo stesso. Per definizione:
[(f +g)+h](x) = (f +g)(x)+h(x) = (f (x)+g(x))+h(x) = f (x)+g(x)+h(x),
e quest’ultima ugualglianza segue dal fatto che f (x), g(x), h(x) sono numeri
reali.
14
In modo analogo si vede che [f + (g + h)](x) = f (x) + g(x) + h(x), e questo
conclude la dimostrazione.
commutatività : (f + g)(x) = f (x) + g(x) ed essendo questi numeri reali
si ha che:
f (x) + g(x) = g(x) + f (x) = (g + f )(x), cioè f + g = g + f .
elemento neutro : è la funzione costante uguale a zero: 0V = 0, ∀x ∈ [a, b].
Verifichiamo, ad esempio, anche una delle due proprietà distributive, lasciando le altre verifiche come esercizio:
∀α ∈ R, ∀f, g ∈ V voglio far vedere che α(f + g) = αf + αg. Anche in questo
caso dimostriamo che queste due funzioni coincidono:
[α(f + g)](x) = α((f + g)(x)) = α(f (x) + g(x)) = αf (x) + αg(x) = (αf )(x) +
(αg)(x)
Dopo questa breve rassegna di esempi di spazi vettoriali, possiamo passare a
studiare nella prossima sezione alcuni particolari sottoinsiemi, che prendono
il nome di sottospazi vettoriali.
2.2
Sottospazi vettoriali
Definizione 2.2. Sia V uno spazio vettoriale su K; un sottoinsieme W ⊂ V
è detto sottospazio di V se sono soddisfatte le due seguenti proprietà :
1. ∀w1 , w2 ∈ W : w1 + w2 ∈ W ;
2. ∀λ ∈ K, ∀w ∈ W : λw ∈ W
Tali proprietà prendono il nome rispettivamente di chiusura rispetto alla
somma ed al prodotto.
Passiamo dunque ad esaminare alcuni esempi di sottospazi degli spazi
vettoriali che abbiamo visto nella precedente sezione.
Esempio 2.6. Nello spazio V = R2 consideriamo il sottoinsieme:
W = {(x, y) ∈ R2 |x − y = 0}
e verifichiamo che si tratta di un sottospazio di V . Osserviamo innanzitutto
che gli elementi di W sono caratterizzati dal fatto che la differenza tra la
prima e la seconda componente è pari a zero. Si ha che:
15
1. ∀(x1 , y1 ), (x2 , y2 ) ∈ W : (x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ) e dunque
la differenza tra la prima e la seconda componente del vettore somma
è : x1 + x2 − y1 − y2 = x1 − y1 + x2 − y2 = 0 + 0 = 0 dove abbiamo
sfruttato il fatto che (x1 , y1 ), (x2 , y2 ) ∈ W cioè x1 − y1 = 0, x2 − y2 = 0.
2. ∀λ ∈ R, ∀(x, y) ∈ W : λ(x, y) = (λx, λy) per definizione, e si ha che :
λx − λy = λ(x − y) = λ0 = 0, poichè (x, y) ∈ W .
Questo conclude la dimostrazione.
Esercizio 2.1. Dimostare che i seguenti insiemi risultano essere sottospazi
vettoriali degli spazi in cui sono contenuti:
1. U = {(x, y, z) ∈ R3 |2x − y − z = 0}
2. V = {(x, y, z) ∈ R3 |x + y = x − z = 0}
3. W = {(x1 , x2 , x3 , x4 ) ∈ R4 |2x2 + 4x4 = 3x1 + x3 = 0}
Esempio 2.7. Consideriamo lo spazio vettoriale Mn (R) delle matrici
quadrate di ordine n. Il sottoinsieme:
W = {A ∈ Mn (R)|A = At }
è detto insieme delle matrici simmetriche di ordine n. Verifichiamo che è
sottospazio vettoriale:
1. se A, B ∈ W , allora A = At , B = B t ; dunque si ha che (A + B)t =
At + B t = A + B, cioè A + B ∈ W ;
2. siano λ ∈ R, A ∈ W : allora (λA)t = λt At = λA poichè A ∈ W ed il
trasposto di un numero reale coincide con se stesso.
Abbiamo dunque un esempio importante di sottospazio dello spazio delle
matrici.
Esercizio 2.2. Seguendo lo schema dell’esempio precedente, lo studente provi
a dimostrare che il sottoinsieme:
U = {A ∈ Mn (R)|A = −At }
è un sottospazio vettoriale di Mn (R); tale spazio è detto insieme delle matrici
antisimmetriche di ordine n.
16
2.3
Indipendenza e dipendenza lineare, generatori e basi
Uno dei concetti di maggior importanza in algebra lineare è quello di
indipendenza lineare tra vettori, secondo la seguente
Definizione 2.3. Sia V uno spazio vettoriale sul campo K; i vettori
v1 , . . . , vn sono detti linearmente indipendenti se per ogni n-upla di scalari
(α1 , α2 , . . . , αn ) si ha che :
α1 v1 + α2 v2 + . . . + αn vn = 0V ⇒ α1 = α2 = . . . = αn = 0
cioè l’unica combinazione lineare di questi vettori che fornisce il vettore nullo
è quella con coefficienti tutti nulli.
Definizione 2.4. Un insieme di vettori v1 , v2 , . . . , vk di uno spazio vettoriale
V è detto essere un sistema di generatori per lo spazio se ogni vettore v ∈ V
si può scrivere come combinazione lineare dei vettori vi , ovvero se:
∀v ∈ V, ∃α1 , . . . , αk ∈ K : v = α1 v1 + . . . + αk vk
Definizione 2.5. Una base per uno spazio vettoriale V è un insieme di
vettori B = {v1 , v2 , . . . , vn } tali che:
1. v1 , v2 , . . . , vn sono linearmente indipendenti;
2. v1 , v2 , . . . , vn sono un sistema di generatori.
In particolare, il numero di elementi di una base di un dato spazio vettoriale
viene detto dimensione dello spazio vettoriale.
Esempio 2.8. Una base per lo spazio R2 è costituita da B = {e1 , e2 }, dove
e1 = (1, 0), e2 = (0, 1).
Più in generale, una base per lo spazio Rn è : B = {e1 , e2 , . . . , en } dove ei è
il generico vettore a n componenti che risultano essere tutte nulle tranne la
i-esima che è pari ad 1.
Si conclude che in generale : dim(Rn ) = n.
Esempio 2.9. Determinare una base per i seguenti sottospazi:
U = {(x, y, z) ∈ R3 |5x − y = x − y + z = 0}
17
V = {(x1 , x2 , x3 , x4 ) ∈ R4 |x1 + 2x2 + 3x3 + 4x4 = x2 − x3 = 0}
soluzione Le equazioni che caratterizzano U costituiscono un sistema lineare
omogeneo; risolviamolo mediante il metodo di riduzione:
5 −1 0
5 −1 0
→
1 −1 1
0 4 −5
da cui, prendendo come variabile libera la z si ottiene:
z = t, y = 5/4t, x = 1/4t
cioè il generico vettore di U è nella forma :
u = (1/4t, 5/4t, t) = t(1/4, 5/4, 1).
Dunque il sottospazio U ha dimensione pari ad 1, ed una sua base è :
BU = {(1/4, 5/4, 1)}.
Per comodità sarebbe meglio prendere un vettore proporzionale a quello trovato, per evitare di avere coefficienti frazionari, come, ad esempio, il vettore
(1, 5, 4), ottenuto moltiplicando per 4 il primo vettore.
Per determinare la base di V risolviamo il sistema omogeneo delle equazioni,
la cui matrice è già nella forma a gradini:
1 2 3 4
0 1 −1 0
prendiamo come variabili libere x3 , x4 . Si ottiene :

x3 = t



x4 = s
x2 = t



x1 = −5t − 4s
Dunque il generico vettore di V è nella forma:
v = (−5t − 4s, t, t, s) = t(−5, 1, 1, 0) + s(−4, 0, 0, 1)
e possiamo concludere che :
BV = {(−5, 1, 1, 0), (−4, 0, 0, 1)}
e dim(V ) = 2.
18
Esercizio 2.3. Determinare una base per i seguenti sottospazi:
1. U = {(x, y) ∈ R2 | − 2x + 5y = 0}
2. V = {(x, y, z) ∈ R3 |x + 3y + 2z = 2x + 2y − 7z = 0}
3. W = {(x1 , . . . , x5 ) ∈ R5 |2x1 + x3 + 5x5 = x1 − x2 − x3 = 3x3 + 2x5 = 0}
Esempio 2.10. Trovare la base dello spazio vettoriale
V = {A ∈ M3 (R)|A = −At }.
Una matrice A e la sua

a11

a21
A=
a31
trasposta sono del tipo



a12 a13
a11 a21 a31
a22 a23 
At =  a12 a22 a32 
a32 a33
a13 a23 a33
Ponendo A = −At cioé

 

a11 a12 a13
−a11 −a21 −a31
 a21 a22 a23  =  −a12 −a22 −a32 
a31 a32 a33
−a13 −a23 −a33
si ottiene
ovvero

a11



a12
a13



a23

= a22 = a33 = 0
= −a21
= −a31
= −a32

0
a12 a13
0
a23 
A =  −a12
−a13 −a32 0
Troviamo ora una base:






0 1 0
0 0 1
0 0 0
A = a12  −1 0 0  + a13  0 0 0  + a23  0 0 1 
0 0 0
−1 0 0
0 −1 0
Notiamo che dim V = 3.
É lasciata allo studente la verifica del fatto che, dato V = {A ∈ Mn (R)|A =
.
−At } la dimensione di V é uguale a n(n−1)
2
19
Esercizio 2.4. In R3 sono dati i sottospazi
U = {(x, y, z) ∈ R3 |x = y = z}
V = {(x, y, z) ∈ R3 |x + y − 2z = 0}
W = {(x, y, z) ∈ R3 |2x + 3z = 0}
a) Determinare U ∩ V , U ∩ W , V ∩ W , dim U , dim V , dim W , dim(U + V ),
dim(U + W ), dim(V + W );
b) Completare la base di U a R3 .
a)
U ∩ V = {(x, y, z) ∈ R3 |x = y = z, x + y − 2z = 0}
U ∩ W = {(x, y, z) ∈ R3 |x = y = z, 2x + 3z = 0}
V ∩ W = {(x, y, z) ∈ R3 |x + y − 2z = 0, 2x + 3z = 0}
Determiniamo le dimensioni e le basi dei vari sottospazi
U = {(x, y, z) ∈ R3 |x = t, y = t, z = t} =< (1, 1, 1) >
V = {(x, y, z) ∈ R3 |x = −t + 2s, y = t, z = s} =< (−1, 1, 0), (2, 0, 1) >
W = {(x, y, z) ∈ R3 |x = −3/2t, y = s, z = t} =< (−3, 0, 2), (0, 1, 0) >
U ∩ V = {(x, y, z) ∈ R3 |x = t, y = t, z = t} =< (1, 1, 1) >
U ∩ W = {(0, 0, 0)}
V ∩ W = {(x, y, z) ∈ R3 |x = −3/2t, y = 7/2t, z = t} =< (−3, 7, 2) > .
Si ha
dim U = 1
dim V = 2
dim W = 2
dim(U ∩ V ) = 1
dim(U ∩ W ) = 0
dim(V ∩ W ) = 1
ed in particolare U ∩ V = U
Per determinare le dimensioni degli spazi somma utilizziamo la formula di
Grassmann
dim(U + V ) = dim U + dim V − dim(U ∩ V ) = 2
dim(U + W ) = dim U + dim W − dim(U ∩ W ) = 3
dim(V + W ) = dim V + dim W − dim(V ∩ W ) = 3.
b) Per completare la base di U =< (1, 1, 1) > a R3 prendiamo un vettore
perpendicolare a (1, 1, 1), ad esempio (−1, 1, 0) (infatti (1, 1, 1) · (−1, 1, 0) =
0). Il terzo vettore della base é dato da (1, 1, 1) × (−1, 1, 0) = (−1, −1, 2).
Quindi U =< (1, 1, 1), (−1, 1, 0), (−1, −1, 2) >= R3 .
20
Esercizio 2.5. In R4 sono dati i sottospazi:
U =< u1 , u2 , u3 >,
dove
V =< v1 , v2 >
u1 = (0, 0, −1, 1) u2 = (1, 0, 1, 0)
u3 = (k, 0, 1, 1)
v1 = (0, 1, 0, 1)
v2 = (0, 1, −1, 0)
con k parametro reale.
a) Determinare al variare di k dim U , dim V , dim(U + V ), dim(U ∩ V );
b) Stabilire per quali k vale la decomposizione R4 = U ⊕ V ;
c) Dato w = (61, π, 2, −1), stabilire se w ∈ U + V .
a) Per stabilire la dimensione di U ci chiediamo se i suoi generatori sono
vettori linearmente indipendenti cioé se
(0, 0, −1, 1)x + (1, 0, 1, 0)y + (k, 0, 1, 1)z = (0, 0, 0, 0)
(2.1)
ha come unica soluzione (x, y, z) = (0, 0, 0). Riscriviamo la 2.1 come

y + kz = 0

−x + y + z = 0

x
+ z=0
La matrice associata al sistema é


0 1 k
 −1 1 1 
1 0 1
Il suo determinante si annulla per k = 2, quindi se k 6= 2 il sistema ammette
un’unica soluzione (nulla essendo il sistema omogeneo), mentre se k = 2 la
matrice ha rango 2. Si ricava che dim U = 3 per k 6= 2 e dim U = 2 per
k = 2. Calcoliamo la dimensione di V . Ponendo
(0, 1, 0, 1)x + (0, 1, −1, 0)y = (0, 0, 0, 0)
(2.2)
si ottiene l’unica soluzione (x, y) = (0, 0), da cui dim V = 2. Per calcolare
la dimensione di U + V =< u1 , u2 , u3 , v1 , v2 > calcoliamo il rango della
21
matrice






0
1
k
0
0

0 −1 0
0 1 0 

0 1 1 

1 0 1 
1 −1 0
Possiamo utilizzare il metodo di Gauss e si trova che il rango é 4 ∀k, quindi
dim(U + V ) = 4 ∀k. Per calcolare dim(U ∩ V ) utilizziamo la formula di
Grassmann vettoriale
dim(U ∩ V ) = dim U + dim V − dim(U + V )
= 3+2−4=1
per k 6= 2
= 2+2−4=0
per k = 2
b) Poiché per k = 2 si ha dim(U ∩ V ) = 0 i sottospazi vettoriali (di R4 ) U e
V sono in somma diretta. Inoltre dim(U + V ) = 4 per ogni k. Ne deduciamo
che R4 = U ⊕ V . c) Dato che dim(U + V ) = 4 per ogni k si ha R4 = U + V ,
ed essendo w un vettore di R4 vale che w ∈ U + V .
22
Capitolo 3
Applicazioni lineari
Questo capitolo è dedicato allo studio delle applicazioni lineari; iniziamo con
le definizioni base ed i primi esempi di applicazioni lineari nella prima sezione,
per poi passare allo studio dei sottospazi associati ad ogni morfismo tra spazi
vettoriali.
3.1
Definizioni ed esempi
In questa sezione indicheremo in generale con V, W due spazi vettoriali sullo stesso campo K (che sarà quasi sempre il campo dei numeri reali, salvo
alcuni casi in cui considereremo spazi vettoriali su C) di dimensioni n, m
rispettivamente.
Definizione 3.1. Una applicazione ϕ : V → W è detta lineare se sono
verificate le seguenti condizioni:
1. ∀v1 , v2 ∈ V :
2. ∀v ∈ V, ∀λ ∈ K :
ϕ(v1 + v2 ) = ϕ(v1 ) + ϕ(v2 );
ϕ(λv) = λϕ(v).
In base alla definizione possiamo subito esibire alcuni esempi di applicazioni
lineari tra spazi vettoriali. Cominciamo con due esempi piuttosto standard
(lo studente, ad una prima lettura, può pensare che gli spazi vettoriali con
cui si lavora siano Rn e Rm ).
Esempio 3.1. Consideriamo l’applicazione nulla tra due spazi vettoriali
definita da
0:V → W
v 7→ 0W
23
che manda ogni vettore di V nel vettore nullo di W . Tale applicazione risulta
essere chiaramente lineare in quanto:
1. 0(v1 ) + 0(v2 ) = 0W + 0W = 0W = 0(v1 + v2 );
2. λ0(v) = λ0W = 0W = 0(λv).
Esempio 3.2. Un esempio importante di applicazione lineare è l’applicazione
identica di uno spazio in se stesso:
id : V → V
v 7→ v
lasciamo allo studente la verifica della linearità di tale mappa.
Possiamo considerare anche applicazioni lineari tra spazi vettoriali non usuali,
come dimostrato nel seguente:
Esempio 3.3. Abbiamo visto in precedenza che l’insieme Rn [x] dei polinomi
di grado minore od uguale ad n nell’indeterminata x a coefficienti reali ha la
struttura di spazio vettoriale. Consideriamo l’operazione di derivazione:
D : Rn [x] → Rn−1 [x]
p(x) 7→ D(p(x)) = p0 (x).
In generale, l’operazione di derivazione risulta essere lineare sullo spazio di
tutte le funzioni derivabili, poichè 1 :
1. D(f (x) + g(x)) = D(f (x)) + D(g(x));
2. D(kf (x)) = kD(f (x))
per ogni coppia di funzioni derivabili f, g e per ogni scalare k ∈ R. Dunque,
a maggior ragione, tale operazione risulterà essere lineare sul sottoinsieme
dei polinomi.
Nei primi tre esempi visti, la definizione della applicazione lineare non ha
fatto uso di coordinate; vediamo ora un primo esempio in cui l’applicazione
in questione è definita mediante la scrittura esplicita delle coordinate del
codominio in funzione di quelle del dominio.
1
rimandiamo ad un testo di analisi la dimostrazione di questi fatti
24
Esempio 3.4. Consideriamo l’applicazione:
ϕ : R2 → R2
(x, y) 7→ (x + y, 2x − 3y)
Se indichiamo con (x0 , y 0 ) le coordinate nel codominio, tale mappa è individuata dalla sostituzione lineare omogenea:
0
x = x+y
y 0 = 2x − 3y
Verifichiamo che tale mappa è lineare:
1. ∀(x1 , y1 ), (x2 , y2 ) ∈ R2 si ha:
ϕ((x1 , y1 ) + (x2 , y2 )) =
=
=
=
ϕ((x1 + x2 , y1 + y2 ))
(x1 + x2 + y1 + y2 , 2x1 + 2x2 − 3y1 − 3y2 )
(x1 + y1 , 2x1 − 3y1 ) + (x2 + y2 , 2x2 − 3y2 )
ϕ((x1 , y1 )) + ϕ((x2 , y2 ))
2. ∀(x, y) ∈ R2 , ∀λ ∈ R:
ϕ(λ(x, y)) =
=
=
=
=
ϕ((λx, λy))
(λx + λy, 2λx − 3λy)
(λ(x + y), λ(2x − 3y))
λ(x + y, 2x − 3y)
λϕ(x, y)
In generale non è necessario verificare che mappe come la ϕ siano lineari; è
sufficiente osservare che l’espressione in coordinate è data mediante equazioni
lineari omogenee.
Dopo aver visto i primi esempi di applicazioni lineari, continuiamo la nostra
trattazione ricordando un importante fatto: le applicazioni lineari trasformano combinazioni lineari in combinazioni lineari. Infatti, sia {v1 , . . . , vn }
una base di V ; ogni vettore
P v ∈ V si scrive come combinazione lineare dei vi :
v = α1 v1 + · · · + αn vn = ni=1 αi vi . L’immagine del vettore v mediante una
applicazione lineare ϕ : V → W risulterà essere del tipo:
P
ϕ(v) = P
ϕ( ni=1 αi vi )
n
=
i=1 αi ϕ(vi )
= α1 ϕ(v1 ) + · · · + αn ϕ(vn ).
25
In particolare, da questa osservazione, è possibile dedurre che l’azione della
mappa ϕ è completamente determinata dalla definizione di ϕ su una base del
dominio. Consideriamo dunque il seguente:
Esempio 3.5. Indichiamo con {e1 , e2 , e3 } ed {e01 , e02 } la basi canoniche di R3
ed R2 rispettivamente; consideriamo dunque l’applicazione:
ϕ : R3
e1
e2
e3
→
7
→
7→
7→
R2
2e01 − e02
3e01
e01 + 5e02
Tale mappa risulta sicuramente essere lineare; vogliamo determinare la sua
espressione in coordinate. Indicate con (x, y, z) le coordinate nel dominio, si
ha:
ϕ(x, y, z) = ϕ(xe1 + ye2 + ze3 )
= ϕ(xe1 ) + ϕ(ye2 ) + ϕ(ze3 )
= xϕ(e1 ) + yϕ(e2 ) + zϕ(e3 )
= x(2e01 − e02 ) + y(3e01 ) + z(e01 + 5e02 )
= (2x + 3y + z)e01 + (−x + 5z)e02
= (2x + 3y + z, −x + 5z)
cioè la sostituzione lineare omogenea sulle coordinate è data da:
0
x = 2x + 3y + z
y0 =
−x + 5z
dove (x0 , y 0 ) rappresentano le coordinate nel codominio.
Nei prossimi due esempi consideriamo il caso di applicazioni lineari definite su
spazi vettoriali che non abbiamo ancora preso in esempio in questo capitolo;
nel primo caso consideriamo lo spazio vettoriale C come spazio vettoriale sul
campo R, mentre nel secondo prendiamo in considerazione lo spazio delle
matrici.
Esempio 3.6. Consideriamo lo spazio vettoriale C su R. Ricordiamo che
tale spazio ha dimensione pari a 2 ed una sua base è {1, i} 2 . Consideriamo
l’operazione di coniugio su C, definita da:
ϕ:C → C
z 7→ z
2
ogni elemento z ∈ C si può sempre scrivere come combinazione lineare z = a + ib con
a, b ∈ R, cioè come combinazione lineare dei vettori 1 e i
26
E’ immediato verificare che tale applicazione è lineare; infatti
1. ϕ(z1 + z2 ) = z1 + z2 = z1 + z2 = ϕ(z1 ) + ϕ(z2 )
2. ϕ(λz) = λz = λz = λz
poichè λ ∈ R.
Esempio 3.7. Prendiamo in esame il caso in cui il dominio dell’applicazione
è costituito dall’insieme delle matrici quadrate a coefficienti reali. Sia A =
(aij ) ∈ Mn (R) una matrice quadrata di ordine n; ricordiamo che la traccia3
di A è definita da:
n
X
tr(A) =
aii
i=1
La funzione traccia associa dunque un numero reale ad ogni matrice quadrata;
in pratica, è definita una funzione:
tr : Mn (R) → R
che risulta essere lineare (vedi nota).
Terminiamo questa sezione riportando alcuni esempi di mappe tra spazi
vettoriali che non risultano essere lineari.
Esempio 3.8. Consideriamo l’applicazione definita in coordinate da:
ϕ : R2 → R 2
(x, y) 7→ (x − y, 2x + y + 1)
ovvero definita dalla sostituzione sulle coordinate:
0
x = x−y
y 0 = 2x + y + 1
3
per comodità , riportiamo al lettore le proprietà fondamentali della funzione traccia,
le cui dimostrazioni si possono trovare su un qualsiasi testo di algebra lineare:
1. tr(A + B) = tr(A) + tr(B)
2. tr(kA) = ktr(A)
27
Tale mappa risulta essere non lineare in quanto, ad esempio, non è
soddisfatta la linearità rispetto alla somma; infatti:
ϕ((x1 , y1 ) + (x2 , y2 )) = ϕ((x1 + x2 , y1 + y2 ))
= (x1 + x2 − y1 − y2 , 2x1 + 2x2 + y1 + y2 + 1)
mentre si ha che:
ϕ((x1 , y1 )) + ϕ((x2 , y2 )) = (x1 − y1 , 2x1 + y1 + 1) + (x2 − y2 , 2x2 + y2 + 1)
= (x1 + x2 − y1 − y2 , 2x1 + 2x2 + y1 + y2 + 2)
Esempio 3.9. Sappiamo che il determinante di una matrice quadrata a coefficienti reali è un numero reale; in altri termini risulta definita una funzione tra lo spazio vettoriale delle matrici quadrate e lo spazio vettoriale
unidimensionale R:
det : Mn (R) → R
A 7→ det(A)
che non risulta essere lineare, perchè in generale vale la seguente formula:
det(kA) = k n det(A)
∀k ∈ R.
Lasciamo come esercizio per lo studente la dimostrazione del fatto che, in
generale, non vale neanche:
det(A + B) = det(A) + det(B)
(lo studente fornisca un esempio di due matrici che non soddisfano tale
proprietà ).
Esempio 3.10. Riprendiamo in esame lo spazio vettoriale C, considerandolo
questa volta come spazio vettoriale su se stesso 4 ; in tal caso il coniugio
ϕ:C → C
z 7→ z
non è lineare! Ad esempio, si ha che:
ϕ(iz) = iz = iz = −iz
4
ricordiamo che in questo caso una base è costituita, ad esempio, dal solo numero 1
28
3.2
Sottospazi associati ad una applicazione
lineare
Iniziamo questa sezione ricordando allo studente che si indica con Hom(V, W )
l’insieme delle applicazioni lineari (o morfismi) da V in W , mentre con
End(V ) indicheremo l’insieme di tutte le applicazioni lineari di uno spazio
V in se stesso. Ricordiamo inoltre che una applicazione lineare ϕ : V → W
è detta isomorfismo se risulta essere biunivoca (e, quindi, invertibile). Un
isomorfismo di uno spazio V in se stesso é detto automorfismo.
Ad ogni applicazione lineare ϕ : V → W tra spazi vettoriali, risultano
associati due sottospazi, detti nucleo ed immagine, definiti da:
1. Ker(ϕ) = {v ∈ V |ϕ(v) = 0};
2. Im(ϕ) = {w ∈ W |∃v ∈ V, ϕ(v) = w}.
Lo studio di questi sottospazi può aiutare a comprendere meglio la funzione
ϕ; vale, ad esempio, la seguente:
Proposizione 3.1. Una applicazione lineare ϕ : V → W risulta essere
iniettiva se e solo se:
Ker(ϕ) = {0V }
Di notevole importanza risulta essere anche il teorema delle dimensioni:
Teorema 3.1. Sia ϕ : V → W una applicazione lineare; allora vale la
seguente formula:
dim(Ker(ϕ)) + dim(Im(ϕ)) = dim(V )
(3.1)
Prima di passare a vedere altri esempi di applicazioni lineari è però necessario
introdurre un nuovo concetto, ossia quello di matrice di una applicazione
lineare
3.3
Matrice associata ad una applicazione lineare
Sia {v1 , v2 , . . . , vn } una base dello spazio vettoriale V , e sia {w1 , w2 , . . . , wm }
una base di W ; consideriamo una applicazione lineare tra questi due spazi:
ϕ : V → W.
29
Tale applicazione lineare trasforma ogni vettore vi della base di V in un
vettore di W , che si potrà dunque scrivere come combinazione lineare dei
vettori wj ; in altri termini, è possibile scrivere:


ϕ(v1 ) = a11 w1 + a21 w2 + · · · + am1 wm


 ϕ(v2 ) = a12 w1 + a22 w2 + · · · + am2 wm
..

.


 ϕ(v ) = a w + a w + · · · + a w
n
1n 1
2n 2
mn m
P
ovvero, in termini più compatti: ϕ(vi ) = m
j=1 aji wj . Risulta dunque determinata una matrice A ∈ Mm,n (R), ottenuta mettendo nella i-esima colonna
i coefficienti del vettore ϕ(vi ) nella base {wj }:


a11 a12 · · · a1n
 a21 a22 · · · a2n 


A =  ..
..
.. 
.
.
 .
.
.
. 
am1 am2 · · · amn
In particolare, dalla costruzione fatta, si deduce che le colonne della matrice A
risultano essere un sistema di generatori per lo spazio Im(ϕ); dunque, per determinare una base di Im(ϕ) è sufficiente considerare le colonne linearmente
indipendenti della matrice A.
Siamo in grado ora di vedere alcuni esempi significativi di studi di applicazioni
lineari.
Esercizio 3.1. Consideriamo l’applicazione lineare definita sulla base:
ϕ : R3
e1
e2
e3
→
7
→
7
→
7
→
R3
e1 + e3
e2
e1 + e2 + e3
Determinare la matrice di ϕ, scrivere le equazioni in componenti e studiare
la mappa ϕ (nel senso di determinare il nucleo e l’immagine, e stabilire se è
iniettiva e/o suriettiva).
Soluzione. Notiamo innanzitutto che abbiamo considerato la base canonica
{e1 , e2 , e3 } sia nel dominio che nel codominio. Poichè la mappa ϕ è definita
su una base, risulta immediato scrivere la matrice associata all’applicazione
30
lineare: è sufficiente mettere in colonna i coefficienti delle immagini dei vettori della base del dominio! Dunque, la prima colonna di A risulta essere
il vettore (1, 0, 1)t . Ragionando in modo analogo per le altre due colonne,
risulta che:


1 0 1
A= 0 1 1 
1 0 1
Scriviamo ora le equazioni di ϕ in componenti:
ϕ((x, y, z)) =
=
=
=
=
ϕ(xe1 + ye2 + ze3 )
xϕ(e1 ) + yϕ(e2 ) + zϕ(e3 )
xe1 + xe3 + ye2 + ze1 + ze2 + ze3
(x + z)e1 + (y + z)e2 + (x + z)e3
(x + z, y + z, x + z)
cioè la sostituzione lineare omogenea di coordinate è :
 0
 x = x+z
y0 = y + z
 0
z = x+z
nota bene:la trasformazione di coordinate si può leggere direttamente dalla
matrice associata A, ed in particolare sulle righe. Più precisamente vale la
seguente:
 
 0 
x
x
 y0  = A  y 
z
z0
che risulta dunque essere in qualche modo equivalente alla scrittura:
w = ϕ(v)
posto w = (x0 , y 0 , z 0 ) e v = (x, y, z). Passiamo ora a determinare il nucleo di
tale applicazione; per definizione si ha:
v = (x, y, z) ∈ Ker(V ) ⇔ ϕ(v) = 0W
⇔ Av = 0W
dunque ogni elemento del
omogeneo:

1
 0
1
nucleo deve essere soluzione del sistema lineare
 
 
0 1
x
0
1 1  y  =  0 
0 1
z
0
31
Osserviamo subito che la terza riga di tale sistema è equivalente alla prima
e la eliminiamo; il sistema è già nella forma a gradini, da cui si vede che,
scegliendo la z come variabile libera, la soluzione è nella forma:
x = y = −z
cioè il nucleo di ϕ risulta essere lo spazio generato dal vettore (1, 1, −1), e
quindi è un sottospazio di dimensione 1 in R3 . Dunque possiamo concludere
immediatamente che l’applicazione in questione non è iniettiva. Inoltre il
teorema delle dimensioni ci permette di concludere che dim(Im(ϕ)) = 2, e
dunque la mappa non è nemmeno suriettiva; in particolare, una base per lo
spazio immagine si ottiene prendendo due colonne linearmente indipendenti
della matrice A (ad esempio le prime due). Concludiamo dunque che:
Im(ϕ) = < (1 0 1) , (0 1 0)
>
Concludiamo questo esercizio con il fornire un metodo generale che si utilizza
per determinare le equazioni di un sottospazio vettoriale, una volta nota una
base per il sottospazio stesso. E’ proprio il caso del sottospazio immagine, di
cui ora conosciamo una base, e di cui vogliamo determinare l’equazione in
coordinate; procediamo secondo il seguente ragionamento: (x, y, z) ∈ Im(ϕ)
se e solo se (x, y, z) è combinazione lineare dei vettori della base di Im(ϕ).
Questo è equivalente ad imporre che la matrice:


1 0 x
M =  0 1 y 
1 0 z
abbia rango 2, poichè la terza colonna deve essere linearmente dipendente
dalle altre; alternativamente questo equivale a dire che tale matrice abbia
determinante nullo:
det(M ) = 0
Sviluppando questo determinante rispetto alla seconda colonna con il metodo
di Laplace, si ottiene:
z−x=0
cioè si ottiene l’equazione che descrive lo spazio immagine:
Im(ϕ) = {(x, y, z) ∈ R3 |x = z}
32
Esercizio 3.2. Prendiamo ora in considerazione lo spazio vettoriale delle
matrici quadrate di ordine 2 a coefficienti reali: V = M2 (R), e definiamo la
mappa:
ϕ:V → V
X 7→ 21 (X + X t )
Lasciamo allo studente la verifica del fatto che tale applicazione risulta essere
lineare, mentre ci preoccupiamo nel seguito di scrivere la matrice associata a
ϕ. Scrivere la sua espressione in coordinate e determinare infine nucleo ed
immagine. Sia X ∈ V ; possiamo scrivere
x1 x2
X =
x3 x4
(come elemento nel dominio); si ha che
x
x
x
x
1
3
1
2
+
ϕ(X) = 12
x
x3 x4
2 x4
x2 +x3
x1
2
=
x2 +x3
x
4
2
Indicate con (y1 , y2 , y3 , y4 ) le
sostituzione lineare omogenea è

y1



y2
y3



y4
coordinate nel codominio, si ha che la
espressa dalle relazioni:
=
x1
= (x2 + x3 )/2
= (x2 + x3 )/2
=
x4
La matrice associata a ϕ è pertanto:

1
 0
A = 
 0
0

0
0 0
1/2 1/2 0 

1/2 1/2 0 
0
0 1
E’ immediato verificare che la matrice A ha rango pari a 3, e dunque la
mappa ϕ risulta essere non iniettiva e neppure suriettiva. Determiniamo
infine nucleo ed immagine dell’applicazione:
X ∈ Ker(ϕ) ⇔
1
X + X t = 0 ⇔ X = −X t
2
33
cioè il nucleo corrisponde all’insieme delle matrici antisimmetriche (ricordiamo che tale spazio ha dimensione 1). Per determinare una base di Im(ϕ)
prendiamo le colonne linearmente indipendenti della matrice A (ad esempio,
le prime due e l’ultima). La prima colonna corrisponde alla matrice:
1 0
0 0
Ragionando in modo analogo si conclude che:
1 0
0 1
0 0
Im(ϕ) =<
,
,
>
0 0
1 0
0 1
ossia tale spazio coincide con lo spazio delle matrici simmetriche (ha
dimensione 3).
Esercizio 3.3. Data l’applicazione lineare:
ϕ : R2 → R 2
(x, y) 7→ (2x − 3y, x, −x + 2y)
scrivere la matrice associata a ϕ, determinare nucleo ed immagine e stabilire
se i vettori w1 = (−6, 3, 5), w2 = (3, 1, −6) ∈ Im(ϕ).
soluzione E’ immediato scrivere la matrice associata, leggendo nella
trasformazione delle coordinate le righe della matrice stessa. Risulta:


2 −3
0 
A =  1
−1
2
Per quanto riguarda il nucleo di questa applicazione è sufficiente risolvere il
sistema omogeneo associato, ovvero ridurre la matrice A.




2 −3
2 −3
 1
0  →  0
2 
−1
2
0
1
che fornisce l’unica soluzione x = y = 0, cioè :
Ker(ϕ) = {(0, 0)}
34
Dunque la dimensione del nucleo è pari a zero (questo implica che ϕ è iniettiva)e, dal teorema delle dimensioni, si ricava che dim(Im(ϕ)) = 2. In tal
caso significa che le due colonne della matrice associata risultano essere una
base per lo spazio immagine.
Passando all’ultimo quesito dell’esercizio, ragioniamo come segue:
w1 ∈ Im(ϕ) ⇔ ∃(x, y) ∈ R2 : ϕ((x, y)) = w1 .
Dal punto di vista matriciale, questo equivale a scrivere: ∃(x, y) ∈ R2 tale
che




2 −3
−6
x
 1
0 
=  3 
y
−1
2
5
che corrisponde quindi alla risoluzione di un sistema lineare non omogeneo.
Utilizzando il metodo di Gauss si ha:




2 −3 −6
2 −3 −6
 1
3  →  0
8 
0
2
−1
2
5
0
1
4
da cui si conclude che il sistema è risolubile, e dunque w1 ∈ Im(ϕ).
Analogamente per w2 si ha:




3
3
2 −3
2 −3
 1
0
2 −5 
1  →  0
−1
2 −6
0
0 −23
da cui si vede che il rango della matrice orlata è maggiore di quello della
matrice del sistema, e pertanto w2 6∈ Im(ϕ).
Esercizio 3.4. Data la mappa lineare
ϕ : R3
e1
e2
e3
→
7
→
7→
7→
R3
2e1 − e2 + 7e3
e1 + 3e3
2e1 + 3e2 + 3e3
dire per quali vaolri di k ∈ R il vettore w = (−1, k, 2) ∈ Im(ϕ).
soluzione E’ sufficiente imporre che sia risolubile il sistema lineare la cui
matrice orlata è :


2 1 2 −1
 −1 0 3
k 
2
7 3 3
35
Utilizzando ancora una volta la

2
 0
0
riduzione di Gauss si arriva ad ottenere:

−1
1 2
1 8 2k − 1 
0 0 2k + 10
da cui si conclude che il sistema è risolubile se e solo se k = −5.
Esercizio 3.5. Nello spazio vettoriale R2 [x] dei polinomi a coefficienti reali
di grado non superiore a 2, consideriamo la mappa:
ϕ:V → V
p(x) 7→ p(1)x2 + p(0)x
Verificare che ϕ è un endomorfismo di V e studiarlo.
soluzione
Ricordato che la base canonica di V è BV = {1, x, x2 }, in termini di tale base
un generico elemento di V si scrive come p(x) = a + bx + cx2 , dove abbiamo
indicato con (a, b, c) le coordinate nel dominio. In termini di tali coordinate
si ha che:
p(1) = a + b + c;
p(0) = a
e dunque:
ϕ(p(x)) = ax + (a + b + c)x2 .
Se indichiamo con (x0 , y 0 , z 0 ) le coordinate nel codominio, la sostituzione è
data da:
 0
 a = 0
b0 = a
 0
c = a+b+c
che risulta dunque essere lineare (in quanto è una sostituzione lineare
omogenea). Ricaviamo inoltre la matrice associata:


0 0 0
A =  1 0 0 
1 1 1
E’ immediato vedere che r(A) = 2; dunque dim(Im(ϕ)) = 2, e dal teorema
delle dimensioni si conclude che dim(Ker(ϕ)) = 1. In particolare si ha che:
Im(ϕ) = < C1 , C2 >
= < (0, 1, 1), (0, 0, 1) >
= < x + x 2 , x2 >
36
Per determinare il nucleo di questa applicazione è come al solito sufficiente
risolvere il sistema lineare omogeneo associato alla matrice A:

 
 
0 0 0
a
0
 1 0 0  b  =  0 
1 1 1
c
0
Risolvendo tale sistema si ottiene: a = 0, b = −c, da cui si deduce che
Ker(ϕ) =< (0, 1, −1) >=< x − x2 >
Esercizio 3.6. Verificare che l’endomorfismo di R3 :
ϕ : R3 → R3
(x, y, z) 7→ (−3x + 3z, y, 2x + y − z)
è invertibile5 ,e determinare l’espressione
inversa.
soluzione
La matrice associata è :

−3 0
A =  0 1
2 1
in coordinate dell’applicazione

3
0 
−1
Per verificare che ϕ è invertibile è sufficiente dimostrare che il nucleo dell’applicazione è banale. In tal caso infatti siamo sicuri che ϕ è iniettiva; inoltre
il teorema delle dimensioni ci consente di affermare che la dimensione dello spazio immagine coincide con quella del codominio, e dunque ϕ è anche
suriettiva. Se consideriamo il sistema omogeneo associato alla matrice A, è
facile vedere che tale sistema ha una sola soluzione in quanto, sviluppando il
determinante con la regola di Laplace rispetto alla seconda riga, si ottiene:
det(A) = −3. L’unica soluzione possibile deve pertanto essere quella banale:
Ker(ϕ) = {(0, 0, 0)}.
In tal modo abbiamo verificato l’esistenza della mappa inversa
ϕ−1 : R3 → R3 : (x0 , y 0 , z 0 ) 7→ (x, y, z),
5
si dice che ϕ è un automorfismo di R3
37
dove abbiamo indicato con (x0 , y 0 , z 0 ) le coordinate di un generico elemento
del codominio di ϕ.
Vale dunque la seguente relazione (in notazione funzionale)
w = ϕ(v) ⇔ ϕ−1 (w) = v
che si riscrive in termini matriciali come:
(x0 , y 0 , z 0 )t = A(x, y, z)t ⇔ A−1 (x0 , y 0 , z 0 )t = (x, y, z)t
cioè la matrice A−1 ci fornisce l’espressione
inversa. Si ha che:

1/3 −1
−1

0
1
A
=
2/3 −1
in coordinate della funzione

1
0 
1
L’espressione in coordinate di ϕ−1 risulta essere:

 x = 31 x0 − y 0 + z 0
y = y0

z = 23 x0 − y 0 + z 0
Esercizio 3.7. Dati i sottospazi vettoriali:
U = {(x, y, z) ∈ R3 |x+y = y +z = 0},
V = {(x, y, z) ∈ R3 |−x+2z = 0}
determinare, se possibile, una applicazione lineare
ϕ : R3 → R3
tale che:
1. Ker(ϕ) = U ;
2. Im(ϕ) = V
soluzione
Utilizziamo sia nel dominio che nel codominio la base canonica {e1 , e2 , e3 }
di R3 , ed indichiamo con (x, y, z) e (x0 , y 0 , z 0 ) le coordinate in dominio e
codominio rispettivamente.
38
Sappiamo che lo spazio immagine è generato dalle colonne linearmente indipendenti della matrice associata; in tal caso conosciamo lo spazio immagine, dunque possiamo ricavarne una base ed ottenere qualche colonna della
matrice associata.
Guardando le equazioni di V , è facile dedurre che una base per tale spazio
risulta essere:
BV = {(0, 1, 0), (2, 0, 1)}
dunque tale sottospazio ha dimensione 2 ed abbiamo ottenuto due delle tre
colonne della matrice associata, che sarà della forma:


0 2 a
A =  1 0 b 
0 1 c
dove il vettore colonna (a, b, c)t risulterà essere combinazione lineare della
base di V . Per determinare le incognite a, b, c proviamo ad imporre la condizione che il nucleo dell’applicazione che cerchiamo coincida con il sottospazio
U.
Prima di tutto osserviamo che U =< (1, −1, 1) > (questo si deduce piuttosto
facilmente dalle equazioni di U ), e dunque imponiamo che tale vettore sia un
elemento del nucleo, cioè :
 



0
0 2 a
1
 1 0 b   −1  =  0 
0
0 1 c
1
da cui si ricava il sistema:

 −2 + a = 0
1+b = 0

−1 + c = 0
Dunque la matrice associata all’applicazione lineare è nella forma:


0 2 2
 1 0 −1 
0 1 1
cioè l’endomorfismo di R3 con le caratteristiche richieste è :
ϕ : R3 → R3
(x, y, z) 7→ (2y + 2z, x − z, y + z)
39
3.4
Cambiamenti di riferimento
Sia V uno spazio vettoriale di dimensione n. Considerate due basi di V :
B = {v1 , v2 , . . . , vn }
B 0 = {w1 , w2 , . . . , wn }
risulta che ogni
dei vettori vi :


w1


 w2
..

.


 w
n
vettore wj ∈ B 0 si può scrivere come combinazione lineare
P
= a11 v1 + a21 v2 + · · · + an1 vn = Pni=1 ai1 vi
n
= a12 v1 + a22 v2 + · · · + an2 vn =
i=1 ai2 vi
= a1n v1 + a2n v2 + · · · + ann vn =
Pn
i=1
(3.2)
ain vi
Sia ora u ∈ V un generico vettore; esso si potrà scrivere sia come
combinazione lineare dei vi che come combinazione lineare dei wj :
u = x1 v1 + x2 v2 + · · · + xn vn = x01 w1 + x02 w2 + · · · + x0n wn
Sostituendo ai wj le espressioni fornite dalla (3.2) si ottiene:
u = x01 w1 + x02 w2 + · · · + x0n wn
= x01 (a11 v1 + a21 v2 + · · · + an1 vn ) + · · · + x0n (a1n v1 + a2n v2 + · · · + ann vn )
= (x01 a11 + x02 a12 + · · · + x0n a1n )v1 + · · · + (x01 an1 + x02 an2 + · · · + x0n ann )vn
da cui si ottengono le cosiddette espressioni del cambio di coordinate:


x1 = x01 a11 + x02 a12 + · · · + x0n a1n


 x2 = x0 a21 + x0 a22 + · · · + x0 a2n
1
2
n
(3.3)
..

.


 x = x0 a + x0 a + · · · + x0 a
n
1 n1
2 n2
n nn
La (3.3) si può esprimere in forma matriciale:
X = AX 0
40
(3.4)
dove:



X=

x1
x2
..
.






 X0 = 


xn
x01
x02
..
.
x0n





mentre A è la matrice quadrata di ordine n ottenuta mettendo in colonna i
coefficienti dei vettori wj rispetto alla base B:


a11 a12 . . . a1n
 a21 a22 . . . a2n 


A =  ..
.. . .
.. 
 .
. . 
.
an1 an2 . . . ann
La (3.4) fornisce dunque il legame esistente tra le coordinate (xi ) del vettore
u espresso in termini della base B, e le coordinate (x0i ) dello stesso vettore u
rispetto alla base B 0 .
Osservazioni
1. la matrice A risulta essere invertibile, in quanto le sue colonne sono
linearmente indipendenti (essendo i vettori di una base);
2. A è la matrice che esprime i vettori della base B 0 in funzione della base
B; in generale indicheremo dunque tale matrice con AB,B0 .
Vediamo un esempio per chiarire il tutto:
Esempio 3.11. In R2 , la matrice di passaggio dalla base canonica B =
{e1 , e2 } alla base B 0 = {v1 (2, 1), v2 (−1, 3)} si ottiene semplicemente mettendo
in colonna i vettori della base B 0 espressi in termini di B. Dunque:
2 −1
AB,B0 =
1 3
Ricordiamo che tale matrice fornisce le componenti (x, y) di un vettore di R2
rispetto a B, una volta note le sue componenti rispetto a B 0 ; ad esempio, se
u = (1, −1) rispetto a B 0 , allora le sue componenti (x, y) rispetto a B sono
fornite da:
x
2 −1
1
=
y
1 3
−1
41
cioè x = 3, y = −2. Dunque:
u = v1 − v2 = 3e1 − 2e2
Esercizio 3.8. In R3 , con base canonica B = {e1 , e2 , e3 }, si considerino altre
due basi:
B 0 = {v1 (1, 2, 3), v2 (−1, 0, 4), v3 (5, −2, 3)}
B 00 = {w1 (3, 0, 3), w2 (−1, 2, 2), w3 (1, 2, 5)}
Determinare le coordinate dei vettori u = 3v1 + 2v2 − 2v3 e w = −w1 +
4w2 − 7w3 rispetto alla base canonica, utilizzando la matrice del cambio di
coordinate.
Un importante risultato che riguarda il cambiamento di coordinate è fornito
dalla seguente proposizone, che risulterà utile anche nello svolgimento di
alcuni esercizi:
Proposizione 3.2. Sia V uno spazio vettoriale, e siano B, B 0 , B 00 tre basi
distinte di V . Indicate con MB,B0 , MB0 ,B00 le matrici che descrivono il cambio
di coordinate da B a B 0 e da B 0 a B 00 , rispettivamente, allora valgono i seguenti
fatti:
1. MB,B00 = MB,B0 MB0 ,B00 ;
−1
2. MB0 ,B = MB,B
0.
Vediamo l’immediata applicazione di tale risultato nel seguente:
Esercizio 3.9. Sia V = R3 ; indichiamo con B = {e1 , e2 , e3 } la sua base
canonica. Consideriamo le basi :
B 0 = {v1 (1, 1, 0), v2 (2, 1, 1), v3 (0, −2, 1)}
B 00 = {w1 (−1, 0, 1), w2 (1, −2, −3), w3 (1, 1, 1)}
Determinare il cambio di coordinate da B 0 a B 00 .
soluzione E’ immediato scrivere le matrici di passaggio da B a B 0 e B 00 ;


1 2 0
MB,B0 =  1 1 −2 
0 1 1
42

MB,B00

−1 1 1
=  0 −2 1 
1 −3 1
La proposizione precedente ci consente di affermare che:
MB00 ,B0 = MB00 ,B MB,B0
e che
−1
MB00 ,B = MB,B
00 .
Dunque, calcolando l’inversa di MB,B00 si

1/2
−1

1/2
MB,B
=
00
1
ha:

−2 3/2
−1 1/2 
−1 1
In conclusione:

MB00 ,B0
1/2
 1/2
=
1

−3/2
=  −1/2
0



−2 3/2
1 2 0
 1 1 −2 
−1 1/2 
−1 1
0 1 1

1/2 11/2
1/2 5/2 
2
3
Ad esempio, se conosciamo le coordinate di un vettore rispetto a B 00 , possiamo
facilmente conoscere le sue componenti rispetto a B 0 . Sia
u = 2w1 + 3w2 + w3 = (2, 3, 1)B00 ;
allora le sue componenti rispetto a B 0 sono:
 

  
x
−3/2 1/2 11/2
2
 y 
=  −1/2 1/2 5/2   3 
z B0
0  2 3
1
4
 3 
=
9
Lo studente dovrebbe essere ora in grado di risolvere da solo i seguenti
esercizi:
43
Esercizio 3.10. Per le seguenti coppie di basi di R2 determinare la matrice
MB,B0 :
1. B = {(1, −1), (1, 1)}, B 0 = {(1, 0), (1, 1)};
√
√ √
√
2. B = {(2, 1), (2, 2)}, B 0 = {( 5, − 5), ( 5, 5)}.
Esercizio 3.11. Determinare la matrice del cambio di coordinate per le
seguenti coppie di basi di R3 :
1. B = {(1, 0, 1), (1, 1, 0), (0, 1, 1)}, B 0 = {(1, 1, 1), (0, 1, 1), (0, 0, 1)};
2. B = {(1, −1, 1), (−1, 1, 1), (1, 1, 1)},
B 0 = {(13, 5, −6), (8, −10, −4), (−17, 0, −7)}
Una importante applicazione del cambiamento di coordinate si ha nello studio delle applicazioni lineari. Siano V, W spazi vettoriali, con basi
BV = {e1 , . . . , en }, BV0 = {e01 , . . . , e0m }, e sia
ϕ:V → W
(x1 , . . . , xn ) 7→ (y1 , . . . , ym )
una applicazione lineare tra questi spazi. Indicata con A la matrice associata
a tale applicazione lineare, sappiamo che vale la scrittura:
Y = AX
dove Y = (y1 , . . . , ym )t ∈ W, X = (x1 , . . . , xn )t ∈ V .
Vogliamo vedere cosa succede se cambiamo le basi nei due spazi. Indicate
0
con BV0 , BW
due nuove basi, rispettivamente in V ed in W , abbiamo visto
che:
0
0 Y
X = MBV ,BV0 X 0 ,
Y = MBW ,BW
sono le relazioni che legano le coordinate di uno stesso vettore rispetto a basi
differenti nello stesso spazio vettoriale. Possiamo dunque scrivere che:
0
0
0 Y = AMB ,B 0 X
MBW ,BW
V V
0
e poichè MBW ,BW
è invertibile:
0
Y 0 = MB−1
0 AMBV ,B 0 X
V
W ,B
W
44
(3.5)
ovvero:
Y 0 = BX 0
con B = MB−1
0 AMBV ,B 0 .
V
W ,BW
In altre parole, la (3.5) non è altro che la notazione matriciale della
applicazione ϕ rispetto alle due nuove basi.
Si osservi che le matrici A e B rappresentano la stessa applicazione lineare
(è sempre la ϕ), definita solo su basi differenti. Le due matrici sono dette
equivalenti.
Vediamo un esempio:
Esempio 3.12. Consideriamo la mappa
ϕ : R3
e1
e2
e3
→
7
→
7→
7→
R2
2e01 + e02
e01 − e02
5e01
dove E = {e1 , e2 , e3 }, E 0 = {e01 , e02 } sono le
vamente. Sappiamo che la corrispondente
queste basi!) è :
2 1
A=
1 −1
basi canoniche di R3 , R2 rispettimatrice associata a ϕ (rispetto a
5
0
e la corrispondente sostituzione di coordinate è :
y1 = 2x1 + x2 + 5x3
y2 = x1 − x2
dove (x1 , x2 , x3 ) sono le coordinate nel dominio e (y1 , y2 ) nel codominio.
Cerchiamo di capire cosa succede quando cambiamo base in entrambi gli spazi.
Consideriamo, ad esempio, le nuove basi:
B = {v1 (1, 0, 2), v2 (1, 2, 0), v3 (1, 1, 2)}
B 0 = {w1 (3, 1), w2 (1, 0)}
e proviamo a determinare qual è la matrice associata a ϕ rispetto a tali basi.
Iniziamo a determinare le matrici dei cambi di coordinate:


1 1 1
ME,B =  0 2 1 
2 0 2
45
mentre
ME 0 ,B0 =
3 0
1 1
La (3.5) ci dice che:
0
Y 0 = ME−1
0 ,B 0 AME,B X
dove Y 0 = (y10 , y20 )t ∈ R2 sono le coordinate di un vettore rispetto a B 0 ,
X 0 = (x01 , x02 , x03 )t ∈ R3 sono quelle rispetto a B. Dunque:
B = ME−1
0 ,B 0 AME,B


1 1 1
1/3 0
2 1 5 
0 2 1 
=
−1/3 1
1 −1 0
2 0 2
4
4/3
13/3
=
−3 −7/3 −13/3
è la matrice che rappresenta ϕ rispetto alle basi B, B 0 .
omogenea di coordinate è pertanto data da:
0
y1 = 4x01 + 4/3x02 + 13/3x03
y20 = −3x01 − 7/3x02 − 13/3x03
La sostituzione
Esercizio 3.12. Sia ϕ : R2 → R3 l’applicazione lineare definita da:
ϕ(x1 , x2 ) = (x1 + x2 , x1 − 2x2 , x1 )
Determinare MB0 ,B , dove:
B = {(1, 1), (0, −1)}, B 0 = {(1, 1, 1), (1, −2, 0), (0, 0, 1)}
cioè la matrice associata a ϕ rispetto alle nuove basi.
46
Capitolo 4
Diagonalizzazione di operatori
lineari
In questo capitolo indicheremo con V uno spazio vettoriale n-dimensionale
generico su un campo K, e con ϕ un endomorfismo di tale spazio, cioè una
applicazione lineare di V in se stesso. Iniziamo richiamando le principali
definizioni.
Definizione 4.1. Sia v ∈ V, v 6= 0; v è detto autovettore per ϕ se
ϕ(v) = λv
(4.1)
con λ ∈ K. In tal caso lo scalare λ è detto autovalore di ϕ.
Osservazioni:
1. L’insieme Vλ = {v ∈ V : ϕ(v) = λv} di tutti gli autovettori associati
all’autovalore λ è detto autospazio associato a λ. Questo insieme risulta
essere un sottospazio vettoriale di V .
2. Se esiste una base BV = {v1 , . . . , vn } di V costituita da autovettori per
ϕ, cioè tale che ϕ(vi ) = λi vi , allora la matrice A associata a ϕ rispetto
a questa base è in forma diagonale:


λ1 0 · · · 0
 0 λ2 · · · 0 


A =  ..
.. . .
.. 
 .
.
.
. 
0 0 · · · λn
47
Definizione 4.2. Diciamo che ϕ (ovvero la matrice associata A) è
diagonalizzabile se esiste una base di autovettori.
Un semplice criterio che si utilizza negli esercizi per il calcolo degli autovettori
è fornito dal seguente risultato:
Proposizione 4.1. Uno scalare λ ∈ K è autovalore di ϕ se e solo se:
det(A − λI) = 0
(4.2)
dove A − λI è la matrice ottenuta togliendo l’incognita λ dagli elementi della
diagonale della matrice A.
Si noti che il primo membro della (4.2) risulta essere un polinomio di grado
n nella incognita λ, detto polinomio caratteristico:
P (λ) = (−1)n λn + a1 λn−1 + . . . + an−1 λ + an
dove an = det A. Le radici di P (λ) = 0 sono dunque gli autovalori
dell’endomorfismo ϕ.
Teorema 4.1 (di Cayley-Hamilton). Ogni matrice quadrata annulla il suo
polinomio caratteristico, cioé
(−1)n An + a1 An−1 + . . . + an−1 A + an I = 0.
Possiamo ora iniziare ad esaminare i primi esempi.
Esempio 4.1. L’endomorfismo ϕ : R2 → R2 : (x, y) 7→ (x − 2y, x + 4y) ha
matrice associata:
1 −2
A =
1 4
La (4.2) ci dice che gli autovalori si ottengono da:
1 − λ −2
det
= 0
1
4−λ
Sviluppando il determinante si ottiene l’equazione
λ2 − 5λ + 6 = 0
che fornisce le due soluzioni reali: λ1 = 2, λ2 = 3.
Ci proponiamo ora di determinare gli autospazi associati a ciascun autovalore:
48
V2 : è l’insieme dei vettori che soddisfano l’equazione Av = 2v, ossia sono
le soluzioni del sistema lineare omogeneo
(A − 2I)v = 0R2 .
Andiamo dunque a risolvere tale sistema:
−1 −2
x
0
=
1
2
y
0
Osserviamo subito che la seconda riga della matrice dei coefficienti è
proporzionale alla prima e, dunque, la eliminiamo. Questa è una ovvia
conseguenza del fatto che l’autovalore λ1 = 2 annulla il determinante
della matrice A − λI, la quale dunque non ha rango massimo.
In conclusione, la matrice ha rango pari ad 1, e ci sono ∞2−1 soluzioni, ovvero l’autospazio V2 ha dimensione 1. Per trovare una sua base
dobbiamo risolvere il sistema; l’unica equazione da considerare è dunque: −x − 2y = 0. Prendendo y come variabile libera si ottiene che la
generica soluzione è nella forma:
x = −2t
y =
t
e quindi si conclude che BV2 = {v1 (−2, 1)}.
V3 : è l’insieme dei vettori che soddisfano l’equazione Av = 3v, ossia sono
le soluzioni del sistema lineare omogeneo
(A − 3I)v = 0R2 .
Andiamo dunque a risolvere tale sistema:
−2 −2
x
0
=
1
1
y
0
Osserviamo subito che la seconda riga della matrice dei coefficienti è
proporzionale alla prima; in tal caso eliminiamo la prima riga.
Come prima, la matrice ha rango pari ad 1, e ci sono ∞2−1 soluzioni,
ovvero l’autospazio V3 ha dimensione 1. Per trovare una sua base dobbiamo risolvere il sistema; l’unica equazione da considerare è dunque:
49
x + y = 0. Prendendo y come variabile libera si ottiene che la generica
soluzione è nella forma:
x = −t
y =
t
e quindi si conclude che BV3 = {v2 (−1, 1)}.
Abbiamo cosı̀ determinato una coppia di autovettori linearmente indipendenti, cioè una base di autovettori per R2 : BR2 = {v1 , v2 }. Questo significa che
l’applicazione lineare ϕ è diagonalizzabile, poichè la matrice associata a ϕ in
tale base è nella forma diagonale:
2 0
0 3
Concludiamo questo esercizio riprendendo quanto detto nella sezione dedicata
ai cambiamenti di riferimento per le applicazioni lineari, e vediamo come
funziona il tutto nel caso particolare degli endomorfismi.
Iniziamo con il ricordare che A è la matrice associata a ϕ espressa rispetto
alla base canonica E(è la stessa base sia nel dominio che nel codominio);
possiamo sottolineare questo fatto indicando tale matrice con AE,E .
Se ora vogliamo trovare la matrice B associata a ϕ rispetto ad una nuova
base B dobbiamo ricordarci che vale la relazione:
B = MB,E AE,E ME,B
dove ME,B è la matrice le cui colonne sono fornite dai coefficienti degli elementi della nuova base B rispetto alla base canonica, ed inoltre MB,E =
−1
ME,B
.
Proviamo dunque a vedere qual è la matrice associata a ϕ rispetto alla base
di autovettori B = {v1 (−2, 1), v2 (−1, 1)}. In tal caso si ha:
−2 −1
ME,B =
1
1
−1 −1
−1
ME,B =
1
2
50
e dunque la matrice associata a ϕ rispetto alla nuova base è :
B = MB,E AE,E ME,B
−1 −1
1 −2
−2 −1
=
1 4
1
1
1 2
2 0
=
0 3
come, del resto, avremmo dovuto aspettarci!
Osservazione:
l’ultima parte dell’esercizio precedente può essere
generalizzata secondo il seguente ragionamento:
sia A la matrice associata ad un endomorfismo di uno spazio V ; dopo aver
calcolato gli autovalori di tale matrice (già a questo livello potrebbero esserci
dei problemi), si determina una base di autovettori per ogni autospazio. Se
l’unione di tutte queste basi risulta essere una base per V, allora la matrice A
è diagonalizzabile, e la sua forma diagonale D si ottiene nel seguente modo:
D = M −1 AM
dove M è la matrice ottenuta mettendo in colonna tutti gli autovettori della
nuova base trovata.
M prende il nome di matrice diagonalizzante per A.
Non è sempre possibile diagonalizzare una matrice, come evidenziato nel
seguente:
Esempio 4.2. La matrice di ordine 3:


2 1 −1
A= 0 0 5 
0 0 0
ha come polinomio caratteristico:


2 − λ 1 −1
−λ 5  = λ2 (2 − λ)
p(λ) = det  0
0
0 −λ
e dunque i suoi autovalori sono λ1 = 0, λ2 = 2. Si osservi che l’autovalore
λ1 compare due volte come radice del polinomio caratteristico; diremo allora
che l’autovalore λ1 ha molteplicità algebrica 2.
51
In generale, chiameremo molteplicità algebrica di un autovalore la sua molteplicità come radice di p(λ), ed indicheremo questa quantità con ma (λ).
Nel nostro esempio si ha che ma (0) = 2 e ma (2) = 1.
Passiamo al calcolo degli autospazi associati:

   
2 1 −1
x
0
V0 :  0 0 5   y  =  0  la matrice ha rango 2, dunque
0 0 0
z
0
dim(V0 ) = n − r(A) = 1
Tolta l’ultima equazione, dalla seconda si ottiene z = 0, e sostituendo
tale risultato nella prima si ha 2x + y = 0; presa x libera, si ottiene:

 x = t
y = −2t

z = 0
Dunque V0 =< v1 (1, −2, 0) >.

   
0 1 −1
x
0





0 −2 5
y
0  la matrice ha rango 2, dunque
V2 :
=
0 0 −2
z
0
dim(V2 ) = n − r(A − 2I) = 1
Togliendo una equazione, ad esempio la seconda, si ottiene che la
matrice dei coefficienti ridotta è :
0 1 −1
0 0 −2
L’ultima equazione fornisce z = 0, e sostituendo tale risultato nella
prima si ha che y = 0. In conclusione rimane libera la variabile x, e
pertanto la soluzione di tale sistema è :

 x = t
y = 0

z = 0
e si ottiene che V2 =< v2 (1, 0, 0) >.
52
In conclusione ho trovato solo una coppia di autovettori indipendenti, e dunque non sono in grado di costruire una base diagonalizzante per la matrice
A.
L’esempio precedente ci permette di intravedere uno dei motivi che sono causa della non diagonalizzabilità di una matrice; infatti abbiamo osservato che
l’autovalore nullo compare due volte come radice del polinomio caratteristico
(abbiamo espresso questo concetto dicendo che ma (0) = 2), ma l’autospazio
associato a tale autovalore ha dimensione pari ad 1 ed una base di tale autospazio sarà pertanto costituita da un solo autovettore. E’ conveniente, a
questo punto , introdurre anche il concetto di molteplicità geometrica.
Definizione 4.3. Sia λ un autovalore di un endomorfismo ϕ; si chiama molteplicità geometrica di λ, e si indica con mg (λ), la dimensione dell’autospazio
associato a tale autovalore. In altri termini:
mg (λ) = dim(Vλ ).
Ricordiamo innanzitutto che se λ è un autovalore di ϕ ∈ End(V ), allora vale
sempre la relazione
1 ≤ mg (λ) ≤ ma (λ)
(4.3)
Queste considerazioni dovrebbero farci capire il motivo della non diagonalizzabilità della matrice dell’esempio precedente; la (4.3) ci assicura che l’autospazio V2 ha dimensione 1, pertanto troveremo una base costituita da un
solo autovettore anche per questo autospazio.
Quando considero l’unione delle basi di tutti gli autospazi trovati riesco a
determinare un sistema di vettori che non risulterà essere una base per lo
spazio di partenza R3 in quanto costituito da soli 2 vettori.
Definizione 4.4. Sia λ un autovalore di ϕ; diciamo che λ è regolare se
ma (λ) = mg (λ)
Il ragionamento che abbiamo fatto ci permette di concludere che una condizione necessaria per la diagonalizzabilità di un operatore lineare è che tutti
gli autovalori siano regolari, secondo la precedente definizione.
Ci chiediamo ora se tale condizione risulta essere anche sufficiente. Per
rispondere a tale domanda basta considerare il seguente esempio!
53
Esempio 4.3. Consideriamo l’endomorfismo di R3 :
ϕ : R3
e1
e2
e3
→
R3
7
→
3e1 − e2
7→ e1 + 3e2
7→ −2e3
la cui matrice associata è :


3 1 0
A =  −1 3 0 
0 0 −2
Il calcolo degli autovalori ci fornisce:


3−λ
1
0
 = (λ2 − 6λ + 10)(−2 − λ)
0
p(λ) = det  −1 3 − λ
0
0
−2 − λ
Le radici di tale polinomio risultano essere non tutte reali poichè il fattore
λ2 − 6λ + 10 ha discriminante negativo. L’unica soluzione reale (cioè l’unico
autovalore reale) è pertanto λ1 = −2, con ma (−2) = 1; dunque questo autovalore è sicuramente regolare, ma non riusciamo a costruire una base di
autovettori (reali!) per R3 .
In conclusione, l’endomorfismo ϕ non è diagonalizzabile in campo reale;
diverso sarebbe il discorso in campo complesso, come vedremo dopo.
Abbiamo dunque fornito un esempio in cui gli autovalori trovati sono tutti
regolari ma l’endomorfismo risulta essere non diagonalizzabile. In questo
caso, la causa risiede nel fatto che il polinomio caratteristico non si fattorizza
in modo completo su R, ma possiede alcune radici in C.
Abbiamo ora tutti gli elementi per formulare una condizione necessaria e
suffciente per la diagonalizzabilità di un operatore lineare:
Teorema 4.2. Un endomorfismo ϕ è diagonalizzabile sul campo K se e solo
se:
1. tutti gli autovalori sono in K;
2. ogni autovalore è regolare
54
o, equivalentemente, se vale la condizione:
X
mg (λi ) = n
i
cioè se la somma diretta di tutti gli autospazi ha come risultato lo spazio V .
Dal punto di vista pratico, questo teorema è di semplice applicazione: dopo
aver calcolato il polinomio caratteristico della matrice A, calcolo le sue radici e verifico che siano tutte in K; in caso di risposta affermativa, passo al
calcolo degli autospazi per controllare che tutti gli autovalori siano regolari,
confrontando la loro molteplicità algebrica con quella geometrica. In caso di
ulteriore risposta affermativa, posso concludere che la matrice è diagonalizzabile e la base diagonalizzante si ottiene prendendo l’unione delle basi di
tutti gli autospazi trovati.
Esercizio 4.1. Studiare la digonalizzabilità della matrice:


1 1 1
A= 1 1 1 
1 1 1
soluzione
Il polinomio caratteristico di A è :


1−λ
1
1
1−λ
1  = λ2 (3 − λ)
p(λ) = det  1
1
1
1−λ
pertanto ci sono 2 autovalori reali: λ1 = 0, ma (0) = 2 e λ2 = 3, ma (3) = 1.
Quest’ultimo autovalore risulta essere sicuramente regolare; la matrice A è
diagonalizzabile se mg (0) = ma (0) = 2.
Andiamo dunque a determinare l’autospazio V0 risolvendo il sistema lineare
omogeneo:

   
1 1 1
x
0
 1 1 1  y  =  0 
1 1 1
z
0
E’ immediato verificare che la matrice dei coefficienti ha rango pari ad 1,
pertanto:
mg (0) = dim(V0 ) = n − r(A − 0I) = 3 − 1 = 2 = ma (0)
55
e dunque anche λ1 = 0 è un autovalore regolare.
Il teorema (4.2) ci assicura pertanto la diagonalizzabilità della matrice A.
Per trovare una base diagonalizzante è necessario determinare i due
autospazi;
1. l’unica equazione che descrive V0 è : x + y + z = 0. Prendendo come
variabili libere y, z si ottiene che:

 x = −t − s
y = t

z = s
da cui si vede che BV0 = {v1 (−1, 1, 0), v2 (−1, 0, 1)}.
2. Per determinare V3 risolviamo il sistema:

   
0
−2 1
1
x
 1 −2 1   y  =  0 
0
1
1 −2
z
Riducendo per righe la matrice dei coefficienti si ottiene:
1 −2 1
A −→
0 −1 1
Prendendo z = t libera, si ottiene:

 x = t
y = t

z = t
cioè BV0 = {v3 (1, 1, 1)}.
Esercizio 4.2. Sia F : R3 → R3 l’operatore lineare
F (x, y, z) = (y − z, −x + 2y − z, x − y + 2z).
Dimostrare che F é diagonalizzabile, trovando una base b di R3 formata da
autovettori di F . Determinare la matrice che rappresenta F in tale base.
56
La matrice A che rappresenta F nella base canonica é


0
1 −1
 −1 2 −1 
1 −1 2
Per calcolare gli autovalori poniamo det(A − λI) = 0:
−λ
1
−1 −1 2 − λ −1 = 0
1
−1 2 − λ Le soluzioni sono λ = 1, 2 con ma (1) = 2, ma (2) = 1.
Calcoliamo ora gli autovettori associati all’autovalore 1 ponendo

   
−1 1 −1
x
0
 −1 1 −1   y  =  0  .
1 −1 1
z
0
Il sistema ha ∞2 soluzioni date da x − y + z = 0. Lo spazio delle soluzioni é
l’autospazio associato all’autovalore 1:
V1 = {(x, y, z) ∈ R3 |x = s − t, y = s, z = t; t, s parametri}
= < (−1, 0, 1), (1, 1, 0) > .
La dimensione V1 é 2 cioé mg (1) = 2.
Poiché ma (1) = mg (1), ma (2) = mg (2) e ma (1) + ma (2) = 3 la matrice A é
diagonalizzabile. Gli autovettori associati all’autovalore 2 sono dati da

   
−2 1 −1
x
0
 −1 0 −1   y  =  0  .
0
1 −1 0
z
che si riduce a
x + z=0
y + z=0
Il sistema ha ∞1 soluzioni. Lo spazio delle soluzioni é l’autospazio associato
all’autovalore 2:
V2 = {(x, y, z) ∈ R3 |x = −t, y = −t, z = t; t parametro}
= < (−1, −1, 1) > .
57
La dimensione di V2 é 1 cioé mg (2) = 1.
Poiché ma (1) = mg (1), ma (2) = mg (2) e ma (1) + ma (2) = 3 la matrice A é
diagonalizzabile.
Si ha che R3 = V1 ⊕ V2 =< (−1, 0, 1), (1, 1, 0), (−1, −1, 1) > e la matrice del
cambiamento di base é data da


−1 1 −1
M =  0 1 −1 
1 0 1
e la sua inversa é

M −1

−1 1 0
0 1 
= 1
1 −1 1
Ponendo D = M −1 AM si ottiene


1 0 0
D =  0 1 0 .
0 0 2
D é la matrice diagonale che rappresenta l’operatore F nella base costituita
dagli autovettori.
Esercizio 4.3. Date le matrici A, B, M ∈ Mn (K) con M invertibile
dimostrare che se B = M −1 AM allora ∀k ∈ N vale B k = M −1 Ak M .
La dimostrazione é lasciata allo studente.
Osservazione 4.1. In particolare si osserva che se λ é autovalore di una
matirice A ∈ Mn (K) allora λk é autovalore della matrice Ak .
Esercizio 4.4. Con riferimento al testo dell’esercizio 4.2 determinare
l’operatore F 5 : R3 → R3 rispetto alla base canonica.
Consideriamo la matrice diagonale D associata ad F rispetto alla base di
autovettori calcolata nell’es 4.2. Allora una matrice diagonale associata a F 5
é D5 (nella stessa base di autovettori):


1 0 0
D5 =  0 1 0  .
0 0 32
58
Per calcolare la matrice associata ad F nella base canonica basta porre
M D5 M −1 :



 

−1 1 −1
1 0 0
−1 1 0
−30 31 −31
 0 1 −1   0 1 0   1
0 1  =  −31 32 −31  .
1 0 1
0 0 32
1 −1 1
31 −31 32
Quindi F 5 : R3 → R3 rispetto alla base canonica é definito da
F (x, y, z) = (−30x + 31y − 31z, −31x + 32y − 31z, 31x − 31y + 32z).
Esercizio 4.5. Sia F : K 3 → K 3 (K = R o K = C) l’endomorfismo definito
da
F (x, y, z) = (x − z, 2y, x + y + z).
1. Stabilire se F é diagonalizzabile ed in caso affermativo calcolare una
base di autovettori.
2. Detta A la matrice associata ad F calcolare A−1 utilizzando il teorema
di Caley-Hamilton.
1. La matrice che rappresenta F nella

1 0
 0 2
1 1
base canonica é

−1
0 .
1
Per calcolare gli autovalori poniamo det(A − λI) = 0:
(2 − λ)(λ2 − 2λ + 2) = 0
(4.4)
In R l’unico autovalore possibile é 2 con ma (2) = 1 in quanto in R l’eqz 4.4
ammette come unica soluzione il valore 2. Poiché le altre due soluzioni non
stanno in R si conclude che A non é diagonalizzabile in R.
In C ci sono tre autovalori distinti 2, 1+
− i (tutti con molteplicitá algebrica 1),
dunque A é diagonalizzabile in C.
Calcoliamo gli autovettori associati all’autovalore 2 ponendo

   
−1 0 −1
x
0
 0 0 0  y  =  0 
1 1 −1
z
0
59
che si riduce a
x + z=0
y − 2z = 0
Il sistema ha ∞1 soluzioni. Lo spazio delle soluzioni é l’autospazio associato
all’autovalore 2:
V2 = {(x, y, z) ∈ C3 |x = −t, y = 2t, z = t; t parametro}
= < (−1, 2, 1)) > .
La dimensione V1 é 1 cioé mg (1) = 2.
L’autospazio associato all’autovalore 1 + i é dato da

   
−i
0
−1
x
0
 0 1 − i 0  y  =  0 .
1
1
−i
z
0
che si riduce a
ix + z = 0
y=0
Il sistema ha ∞1 soluzioni. Lo spazio delle soluzioni é dunque:
V1+i = {(x, y, z) ∈ C3 |x = t, y = 0, z = −it; t parametro}
= < (1, 0, −i) > .
La dimensione di V1+i é 1 cioé mg (1 + i) = 1.
Gli autovettori associati all’autovalore 1 − i sono dati da

   
i
0
−1
x
0
 0 1 + i 0  y  =  0 .
1
1
i
z
0
che si riduce a
ix − z = 0
y=0
Il sistema ha ∞1 soluzioni. Lo spazio delle soluzioni é l’autospazio associato
all’autovalore 1 − i:
V1−i = {(x, y, z) ∈ C3 |x = t, y = 0, z = it; t parametro}
= < (1, 0, i) > .
60
La dimensione di V1−i é 1 cioé mg (1 + i) = 1.
Si ha che R3 = V2 ⊕V1+i ⊕V1−i =< (−1, 2, 1), (1, 0, −i), (1, 0, i) > e la matrice
del cambiamento di base é data da


−1 1 1
0 0 
M = 2
1 −i i
Si ha che D = M −1 AM dove


2
0
0
0 .
D = 0 1+i
0
0
1−i
D é la matrice diagonale che rappresenta l’operatore F nella base costituita
dagli autovettori.
2. Riprendendo l’eqz 4.4 si ha che il polinomio caratteristico é
P (λ) = −λ3 + 4λ2 − 6λ + 4
Per il teorema di Cayley-Hamilton P (A) = 0, cioé
A3 − 4A2 + 6A − 4I = 0
Moltiplicando per A−1 si ottiene
A2 − 4A + 6I − 4A−1 = 0
da cui si ricava
1
A−1 = (A2 − 4A + 6I).
4
Svolgendo i conti si ha

A−1

2 −1 2
1
2 0 .
=  0
4
−2 −1 2
Esercizio 4.6. Sia A la matrice


7 4 −4
 4 1 8 
−4 8 1
Calcolare gli autovalori di A ed una base ortonormale di autovettori.
61
Poniamo det(A − λI) = 0:
7−λ
4
−4
4
1−λ
8
−4
8
1−λ
=0
da cui si ottiene
(9 − λ)(λ2 − 81) = 0.
Gli autovalori sono λ = 9 (ma (9) = 2) e λ = −9 (ma (−9) = 1).
Calcoliamo gli autovettori associati all’autovalore 9:

   
−2 4 −4
x
0
 4 −8 8   y  =  0  .
−4 8 −8
z
0
che si riduce a x − 2y + 2z = 0. Il sistema ha ∞2 soluzioni. Lo spazio delle
soluzioni é l’autospazio associato all’autovalore 9:
V9 = {(x, y, z) ∈ R3 |x = 2s − 2t, y = s, z = t; t, s parametro}
= < (−2, 0, 1), (−2, 1, 0) > .
La dimensione di V9 é 2 cioé mg (9) = 2.
Calcoliamo gli autovettori associati all’autovalore -9:

   
16 4 −4
x
0
 4 10 8   y  =  0  .
−4 8 10
z
0
che si riduce a
4x +y −z = 0
y +z = 0
Il sistema ha ∞1 soluzioni. Lo spazio delle soluzioni é l’autospazio associato
all’autovalore -9:
V−9 = {(x, y, z) ∈ R3 |x = t/2, y = −t, z = t; t, s parametro}
= < (1, −2, 2) > .
La dimensione di V−9 é 1 cioé mg (−9) = 1.
62
Una base di autovettori é data da
{v1 = (−2, 0, 1), v2 = (−2, 1, 0), v3 = (1, −2, 2)}.
Utilizziamo il metodo di ortogonalizzazione di Gram-Schmidt per ottenere
a partire da {v1 = (−2, 0, 1), v2 = (−2, 1, 0), v3 = (1, −2, 2)} una base di
vettori {u1 , u2 , u3 } ortonormali.
v1 = (−2,
√ 0, 1)
kv1 k = 5 (norma di v1 )
u1 = kvv11 k = (− √25 , 0, √15 ) (u1 ha lunghezza 1)
v2 − < u1 , v2 > u1 = ( 25 , 1, 54 )
k( √25 , 1, √45 )k = √35
u2 =
( √2 ,1, √4 )
5
5
k( √2 ,1, √4 )k
5
5
√
=
5 2
( , 1, 45 )
3 5
= ( 3√2 5 ,
√
5 √
, 4 )
3 3 5
v3 é giá perpendicolare a u1 e u2 in quanto non appartiene all’autospazio V9 ,
quindi basta dividerlo per la sua norma.
kv3 k = 3 (norma di v3 )
u3 = kvv33 k = ( 31 , − 23 , 23 ).
La matrice ortogonale del cambiamento di base é


− √25 3√2 5 31
√


5
M = 0
− 32 
3
√1
5
4
√
3 5
Essendo M una matrice ortogonale M −1 =
matrice diagonale

9 0
M T AM =  0 9
0 0
2
3
M T . La matrice A é simile alla

0
0 .
−9
Esercizio 4.7. Si consideri lo spazio vettoriale reale dei polinomi R2 [X]. Sia
α : R2 [X] → R2 [X] l’operatore definito da
2
3
dP
dP
α(P [X]) = X
−X
X +1
.
dX
2
dX 2
1. Verificare che α é un endomorfismo e scriverne una matrice rispetto
alla base {1, X, X 2 } di R2 [X].
2. Trovare autovalori e autovettori di α.
63
Essendo la derivata un operatore lineare anche α é lineare, dunque un endomorfismo. É lasciata allo studente la verifica della linearitá mediante i
conti.
Poiché
α(1) = 0,
α(X) = X,
α(X 2 ) = −X 2 − 2X,
la matrice A associata ad α é


0 0 0
 0 1 −2  .
0 0 −1
Essendo la matrice triangolare si vede subito che ci sono tre autovalori distinti
0,1,-1. La matrice é quindi diagonalizzabile.
É lasciato allo studente trovare gli autovettori.
Esercizio 4.8. Sia f : M2 (R) → M2 (R) l’applicazione definita da
f (A) = A − 2At .
1. Verificare che f é un endomorfismo.
2. Trovare autovalori ed autospazi di f e dire se f é diagonalizzabile.
Il punto 1. é lasciato allo studente.
2. Calcoliamo gli autovalori ponendo f (A) = λA ovvero A − 2At = λA, da
cui
(1 − λ)A = 2At .
(4.5)
Da questa eqz deduciamo che A deve essere proporzionale ad At (ovviamente
A 6= 0). Si presentano allora due casi:
A = At (A simmetrica)
Dall’eqz 4.5 si ottiene l’autovalore λ = −1. L’autospazio associato sará lo
spazio delle matrici simmetriche
V−1 = A ∈ M2 (R)|A = At
a b
=
|a, b, c ∈ R
b c
1 0
0 1
0 0
= <
,
,
>
0 0
1 0
0 1
64
Notiamo che dim V−1 = 3 (mg (−1) = 3).
A = −At (A antisimmetrica)
Dall’eqz 4.5 si ottiene l’autovalore λ = 3. L’autospazio associato sará lo
spazio delle matrici antisimmetriche
V3 = A ∈ M2 (R)|A = −At
0 a
=
|a ∈ R
−a 0
0 1
= <
>
−1 0
Notiamo che dim V3 = 1 (mg (3) = 1).
Poiché M2 (R) = V−1 ⊕ V3 f é diagonalizzabile (ne deduciamo ma (−1) = 3 e
ma (3) = 1).
Si puó arrivare allo stesso risultato procedendo nel modo standard. In questo
caso consideriamo la base canonica di M2 (R)
1 0
0 1
0 0
0 0
E1 =
, E2 =
, E3 =
, E4 =
0 0
0 0
1 0
0 1
e data una matrice
A=
a b
c d
= aE1 + bE2 + cE3 + dE4
vale
t
f (A) = A − 2A =
Considerando le

1
 0
E1 = 
 0
0
a b
c d
−2
a c
b d
=
−a b − 2c
c − 2b −d
matrici di M2 (R) come vettori di R4 cioé

 
 

0
0
0

 1 
 0 
 0
 , E2 =   , E3 =   , E4 = 

 0 
 1 
 0
0
1
0


 
a
−a
 b 


 , f (A) =  b − 2c 
A=
 c − 2b 
 c 
d
−d
65


,

.
possiamo scrivere la matrice B associata ad f :

−1 0
0
0
 0
1 −2 0
B=
 0 −2 1
0
0
0
0 −1


.

Per calcolare gli autovalori procediamo come al solito ponendo det(B −λI) =
0. Lo studente puó proseguire e verificare che si trova lo stesso risultato
ottenuto sopra.
Esercizio 4.9. Stabilire per quali valori del parametro reale h la matrice


0 0
0
h
 0 0
1
0 

A=
 0 1 h+1 0 
−1 0
0
0
é diagonalizzabile.
66
Capitolo 5
Geometria analitica del piano
Fissato un sistema di riferimento R(O, i, j) indichiamo con (x, y) le coordinate
di un punto P tali che
P − O = xi + yj.
(5.1)
Distanza tra due punti P1 (x1 , y1 ) e P2 (x2 , y2 )
p
d(P2 , P1 ) = kP2 − P1 k = (x2 − x1 )2 + (y2 − y1 )2 .
(5.2)
Una retta nel piano si puó rappresentare mediante un’equazione del tipo
ax + by + c = 0
eqz. cartesiana implicita
(5.3)
dove n(a, b) é un vettore perpendicolare alla retta data; oppure mediante
un’equazione del tipo
y = αx + β
eqz. cartesiana esplicita
(5.4)
dove α é il coefficiente angolare della retta. Una retta si puó rappresentare
anche mediante un’equazione parametrica del tipo
x = x0 + ux t
(5.5)
y = y 0 + uy t
dove t é il parametro, P0 (x0 , y0 ) é un punto della retta e u = (ux , uy ) é un
vettore parallelo alla retta. ux , uy sono detti parametri direttori della retta.
Il coefficiente angolare della retta é dato da
uy
a
α=− =
b
ux
67
(5.6)
Equazione di una retta passante per due punti P1 (x1 , y1 ) e P2 (x2 , y2 ):
y − y1
x − x1
=
x2 − x1
y2 − y1
eqz cartesiana
(5.7)
oppure
x = x0 + (x2 − x1 )t
y = y0 + (y2 − y1 )t
eqz parametrica
(5.8)
Due rette r e r0 sono parallele se hanno lo stesso coefficiente angolare
α = α0 ;
a
b
=
;
a0
b0
uy
ux
=
.
u0x
u0y
(5.9)
Due rette r e r0 sono perpendicolari se:
ur · ur 0 = 0
i vettori ur e ur0 sono perpendicolari
nr · nr 0 = 0
i vettori nr e nr0 sono perpendicolari
oppure
oppure
1
.
α0
La totalitá delle rette passanti per un punto P0 (x0 , y0 ) si dice fascio proprio
di centro P0 e si rappresenta mediante
α=−
a(x − x0 ) + b(y − y0 ) = 0
al variare di a, b.
(5.10)
La totalitá delle rette parallele ad una retta assegnata r : ax + by + c = 0 si
dice fascio improprio di direzione individuata da r e si rappresenta mediante
ax + by + k = 0
al variare di k.
(5.11)
Il fascio di rette individuato da due rette distinte di equazione r : ax+by+c =
0 e r : a0 x + b0 y + c0 = 0 si rappresenta nella forma
λ(ax + by + c) + µ(a0 x + b0 y + c0 ) = 0
(5.12)
al variare dei parametri omgenei λ, µ.
Distanza di un punto P0 (x0 , y0 ) da una retta r : ax + by + c = 0:
d(P0 , r) =
|ax0 + by0 + c|
√
.
a2 + b 2
68
(5.13)
Angolo di due rette r e r0
cos ur ur0 =+
−
ur · ur 0
.
kur kkur0 k
(5.14)
r e r0 sono perpendicolari se lo sono i vettori ur e ur0 :
ur · ur0 = 0.
Esercizio 5.1. Data la retta r : x + 2y − 4 = 0 e la retta
x = 1 + 2t
s:
y =3+t
Determinare l’eqz della retta appartenente al fascio individuato da r e s e
soddisfacente ad una delle seguenti condizioni:
(a) passante per il punto P (3, 1);
(b) parallela alla retta 3x − y + 7 = 0.
(a) Eliminando il parametro t dall’eqz parametrica di s otteniamo la sua eqz
cartesiania
x − 2y + 5 = 0.
Il fascio individuato da r e s é dato da
λ(x + 2y − 4) + µ(x − 2y + 5) = 0
Imponendo il passaggio per P si ha λ + 6µ = 0; una possibile soluzione é
λ = −6 e µ = 1. Sostituendo tali valori all’eqz del fascio si ottiene la retta
5x + 14y − 29 = 0.
(b) Riscriviamo l’eqz del fascio nel modo seguente:
(λ + µ)x + 2(λ − µ)y − 4λ + 5µ = 0.
Imponendo la condizione di parallelismo
2(λ − µ)
λ+µ
=
3
−1
si ottiene 7λ − 5µ = 0; una soluzione é ad es λ = 5 e µ = 7. Sostituendo tali
valori all’eqz del fascio si ottiene la retta
12x − 4y + +15 = 0.
69
Esercizio 5.2. Trovare il luogo dei punti equidistanti dai punti A(−1, 2) e
B(0, 4).
Determinare i punti
√ C appartenenti al luogo dei punti equidistanti da A e B
tali che d(C, A) = 5.
Il punto medio del segmento AB é dato da
xA + xB yA + yB
M=
,
(5.15)
2
2
Nel nostro caso M − 12 , 3 . Calcoliamo il vettore AB = OB − OA = (0, 4) −
(−1, 2) = (1, 2) e troviamo un vettore (x, y) perpendicolare ad esso:
(1, 2) · (x, y) = (0, 0)
da cui x + 2y = 0; una soluzione é ad es (x, y) = (2, −1).
Il luogo dei punti equidistanti da A e B é una retta r passante per M e
parallelo al vettore (2, −1), quindi di eqz parametrica:
x = − 12 + 2t
y =3−t
= 0.
Eliminando t si ottiene l’eqz cartesiana x + 2y − 11
2
Si poteva arrivare allo stesso risultato sfruttando il fatto che tutti i punti di
r hanno la stessa distanza da A e B, cioé
d(P, A) = d(P, B)
dove P é un punto generico di r.
Un generico punto C di r é C = −2t + 11
,
t
(si ricava dall’eqz parametrica
2
di r). Da d(C, B) = 25 (uso d(C, B) per semplicitá di conti) si ottiene
s
11
−2t +
2
2
+ (t − 4)2 =
5
2
. Le soluzioni sono
t = 4 e t = 2, a cui corrispondono rispettivamente i punti
5
3
, 2 e −2, 4 .
2
70
Capitolo 6
Geometria analitica dello spazio
Fissato un sistema di riferimento R(O, i, j, k) indichiamo con (x, y, z) le
coordinate di un punto P tali che
P − O = xi + yj + zk.
Distanza tra due punti P1 (x1 , y1 , z1 ) e P2 (x2 , y2 , z2 )
p
d(P2 , P1 ) = kP2 − P1 k = (x2 − x1 )2 + (y2 − y1 )2 + (z2 − z1 )2 .
(6.1)
(6.2)
Un piano si puó rappresentare mediante un’equazione del tipo
ax + by + cz + d = 0
eqz. cartesiana
(6.3)
dove n = (a, b, c) é un vettore perpendicolare al piano, oppure mediante
un’equazione parametrica

 x = x0 + ux t + vx s
y = y0 + uy t + vy s
(6.4)

z = z0 + uz t + vz s
dove u = (ux , uy , uz ) e v = (vx , vy , vz ) sono vettori paralleli al piano e
P0 (x0 , y0 , z0 ) é un punto del piano.
L’equazione cartesiana di un piano passante per un punto P0 (x0 , y0 , z0 ) e
parallelo ai vettori u = (ux , uy , uz ) e v = (vx , vy , vz ) é data da
(P − P0 ) ∧ u · v = 0
71
(6.5)
ovvero
x − x0 y − y0 z − z0
ux
uy
uz
vx
vy
vz
=0
(6.6)
Due piani α : ax + by + cz + d = 0 e α0 : a0 x + b0 y + c0 z + d0 = 0 sono paralleli
se n = (a, b, c) e n0 = (a0 , b0 , c0 ) sono vettori paralleli ovvero se
a
b
c
= 0 = 0.
0
a
b
c
(6.7)
e sono perpendicolari se n = (a, b, c) e n0 = (a0 , b0 , c0 ) sono vettori
perpendicolari ovvero se
n · n0 = 0.
(6.8)
L’intersezione di due piani α e α0 é data da una retta r che si puó quindi
esprimere mediante
ax + by + cz + d = 0
r:
(6.9)
a0 x + b0 y + c0 z + d0 = 0
L’equazione (parametrica) di una retta passante per un punto P0 (x0 , y0 , z0 )
e parallelo al vettore u = (ux , uy , uz ) é data da

 x = x0 + ux t
y = y 0 + uy t
(6.10)

z = z0 + uz t
con t parametro, oppure, in forma equivalente, mediante
y − y0
z − z0
x − x0
=
=
.
ux
uy
uz
(6.11)
Se r é una retta intersezione di due piani π e π 0 allora il vettore ur (ux , uy , uz )
(parallelo a r) é dato dal prodotto vettoriale di nπ e nπ0 :
i j k ur = n1 × n2 = a b c = ux i + uy j + uz k
a0 b 0 c 0 La totalitá dei piani passanti per una retta r si dice fascio proprio di asse la
retta r e si rappresenta mediante
λ(ax + by + cz + d) + µ(a0 x + b0 y + c0 z + d0 ) = 0
72
(6.12)
al variare dei parametri omgenei λ, µ e dove ax + by + cz + d = 0 e a0 x +
b0 y + c0 z + d0 = 0 sono due piani qualsiasi passanti per r.
La totalitá dei piani paralleli ad un piano assegnato π : ax + by + cz + d = 0
si dice fascio improprio di piani e si rappresenta mediante
ax + by + cz + k = 0
al variare di k.
Due rette r e r0 (forma parametrica) sono complanari se
0
x0 − x0 y00 − y0 z00 − z0 ux
uy
uz = 0
u0x
u0z u0y
(6.13)
(6.14)
altrimenti sono dette sghembe.
La distanza di un punto P0 (x0 , y0 , z0 ) da un piano π : ax + by + cz + d = 0 é
data da
|ax0 + by0 + cz0 + d|
√
d(P0 , π) =
.
(6.15)
a2 + b 2 + c 2
La distanza di un punto P0 (x0 , y0 , z0 ) da una retta r é data da
d(P0 , r) =
k(P0 − P1 ) ∧ uk
kuk
(6.16)
con P1 ∈ r.
Se r e r0 sono due rette sghembe, la loro distanza (detta minima distanza) é
la distanza di un punto qualsiasi di r dal piano π passante per s e parallelo
ad r; la retta di minima distanza di r, s é la retta perpendicolare ed incidente
r, s; essa determina su r, s due punti R, S la cui distanza coincide con la
minima distanza delle due rette.
Angolo di due rette r e r0
cos ur ur0 =+
−
ur · ur 0
.
kur kkur0 k
r e r0 sono perpendicolari se lo sono i vettori ur e ur0 :
ur · ur0 = 0.
r e r0 sono parallele se lo sono i vettori ur e ur0 .
73
(6.17)
Angolo di due piani π e π 0
cos nn0 =+
−
n · n0
.
knkkn0 k
(6.18)
Sia θ l’angolo individuato da una retta r e la sua proiezione ortogonale su un
piano π. Allora
π
nπ · ur
sin θ = cos
−θ =
.
(6.19)
2
kur kknπ k
La retta r é perpendicolare al piano π se il vettore ur é parallelo al vettore
nπ .
Esercizio 6.1. Dati v = (1, 0, 1), w = (−1, 0, 1), u = (0, 1, 1) sia
U il piano passante per l’origine e generato da u e v,
V il piano passante per l’origine e generato da v e w.
Determinare:
la retta r = U ∩ V ;
la retta r0 passante per l’origine e perpendicolare a V ;
per quali k il vettore z = (1, 0, k) ∈ V ?
per quali k il vettore z = (k 2 , 0, −k) é perpendicolare a U ?
L’eqz parametrica del piano U é
U = t(1, 0, 1) + s(0, 1, 1)
mentre da
x y z
0 1 1
1 0 1
=0
si ottiene l’eqz cartesiana di U : x + y − z = 0.
L’eqz parametrica del piano V é
U = t0 (1, 0, 1) + s0 (−1, 0, 1)
mentre da
x y z 1 0 1 =0
−1 0 1 si ottiene l’eqz cartesiana di V : y = 0.
74
L’eqz. cartesiana della retta r = U ∩ V é
x=z
r:
y=0
mentre l’eqz parametrica é

 x=t
y=0
r:

z=t
La retta r0 deve essere parallela a nU = (0, 1, 0) ed é

 x=0
0
y=λ
r :

z=0
Il vettore z = (1, 0, k) ∈ V se (1, 0, k) = t0 (1, 0, 1) + s0 (−1, 0, 1) cioé se
1 = t0 − s0
k = t0 + s0
Il sistema si puó ridurre in forma a gradini ∀k (é compatibile ∀k), dunque
z ∈ V ∀k.
Il vettore z(k 2 , 0, −k) é perpendicolare a U se
0
−k
k2
= =
1
1
−1
quindi per k = 0.
Esercizio 6.2. Sia r la retta di equazione
x − (k + 1)y − z = k − 1
r:
2x + (1 − 2k)y + z = 2k + 1
Per quali k la retta r é:
(a) parallela alla retta s di equazione

 x = 3t + 1
y = 2t
s:

z = 2 − 2t
75
(b) parallela al piano π : 2x − y + 3z = 1;
(c) passante per il punto A(1, 1, 1).
(a) Mettiamo r in forma parametrica (risolviamo il sistema che la
rappresenta)
1 −k − 1 −1 k − 1
2 1 − 2k 1 2k + 1
Utilizziamo il metodo di Gauss
1 −k − 1 −1 k − 1
0
1
1 1
da cui si ottiene

 x = 2k − kt
y =1−t
r:

z=t
r é parallela a s se ur (−k, −1, 1) é parallelo a us (3, 2, −2) cioé se
−1
1
−k
=
=
3
2
−2
da cui si ottiene k = 32 .
Oppure si puó risolvere trovando ur come prodotto vettoriale di n1 = (1, −k−
1, −1) e n2 = (2, 1 − 2k, 1) che sono rispettivamente i vettori perpendicolari
ai piani la cui intersezione é r:
i
j
k
ur = n1 × n2 = 1 −k − 1 −1 = −3ki + 3j + 3k
2 1 − 2k 1 e poi procedere come sopra.
(b) Affinché r sia parallela al piano π deve essere ur (−k, −1, 1) perpendicolare
a nπ (2, −1, 3):
ur · nπ = 0
da cui k = 2.
(c) Per vedere se A ∈ r andiamo a sostituire le sue coordinate (1, 1, 1) nell’eqz
di r
1 − (k + 1) − 1 = k − 1
2 + (1 − 2k) + 1 = 2k + 1
76
Svolgendo i conti si arriva a
k = −k
4k = 3
Il sistema é incompatibile, quindi A ∈
/ r qualunque sia il valore di k.
Esercizio 6.3. Dati la retta

 x = 2t − 3
y=t
r:

z =2−t
ed il piano π : x + z − 5 = 0 determinare:
(a) il piano passante per r e perpendicolare a π;
(b) i piani passanti per r e che formano con π un angolo di π3 .
(a) Il piano passante per r e perpendicolare a π é un piano generato dai
vettori ur = (2, 1, −1) e da nπ = (1, 0, 1) e passante per un punto qualsiasi
di r ad esempio per (−3, 0, 2) (ottenuto per t = 0). Esso ha eqz parametrica

 x = −3 + 2t + s
y=t

z =2−t+s
Dall’eqz parametrica ricaviamo quella cartesiana: x − 3y − z + 5 = 0.
Si puó arrivare allo stesso risultato trovando l’eqz cartesiana di r:
x − 2y + 3 = 0
y+z−2=0
e scrivendo l’eqz del fascio proprio di piani di asse la retta r
λ(x − 2y + 3) + µ(y + z − 2) = 0.
Riscriviamo tale eqz nel seguente modo
λx + (µ − 2λ)y + µz + 3λ − 2µ = 0.
Il vettore perpendicolare a tale piano é (λ, µ − 2λ, µ) e deve essere
perpendicolare a nπ (1, 0, 1):
(λ, µ − 2λ, µ) · (1, 0, 1) = 0
77
da cui si ottiene
λ+µ=0
Una soluzione é ad esempio (λ, µ) = (1, −1). Andando a sostituire tali valori
nell’eqz del fascio si ottiene x − 3y − z + 5 = 0.
(b) I piani passanti per r sono rappresentati dall’eqz del fascio. Imponiamo
ora la seconda condizione
cos
(λ, µ − 2λ, µ) · (1, 0, 1)
λ+µ
π
√
=
=p
3
k(λ, µ − 2λ, µ)kk(1, 0, 1)k
λ2 + (µ − 2λ)2 + µ2 2
Svolgendo i conti si ottiene l’eqz
λ(3λ − 8µ) = 0
che ha due soluzioni: una é λ = 0 e µ arbitrario ad es µ = 1, l’altra é ad es
λ = 8 e µ = 3. Andando a sostituire tali valori nell’eqz del fascio si ottengono
rispettivamente i piani y + z − 2 = 0 e 8x − 13y + 3z + 18 = 0.
78