Note di Geometria e Algebra

annuncio pubblicitario
Note di Geometria e Algebra
Per i corsi di Informatica, Ingegneria dell’Informazione e delle Comunicazioni
e Ingegneria dell’Informazione e Organizzazione d’impresa
Gianluca Occhetta
Ultimo aggiornamento: 21 gennaio 2017
Indice
1
Geometria di rette e piani nello spazio . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1
Vettori Geometrici
1.1.1
1.1.2
1.1.3
1.1.4
Somma di vettori . . . . . . . . . . . . . . . . . .
Prodotto per uno scalare . . . . . . . . . . . .
Prodotto scalare - proiezioni ortogonali
Sistemi di coordinate . . . . . . . . . . . . . . .
1.2
Equazioni di rette e piani nello spazio
1.2.1
1.2.2
1.2.3
Equazioni di una retta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
Equazioni di un piano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
Fascio di piani . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3
Posizioni reciproche di rette e piani nello spazio
1.3.1
1.3.2
1.3.3
Posizione reciproca di due rette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
Posizione reciproca di due piani . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
Posizione reciproca di una retta e un piano . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4
Distanze
1.4.1
1.4.2
1.4.3
1.4.4
Distanza di due punti . . . . . . . . . . .
Distanza di un punto da un piano .
Distanza di un punto da una retta
Distanza di due rette . . . . . . . . . . .
1.5
Esercizi riassuntivi
2
Sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.1
Sistemi lineari
2.1.1
2.1.2
Matrici associate ad un sistema lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Operazioni elementari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2
Matrici a scalini e algoritmo di Gauss
2.2.1
Matrici a scalini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
7
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 7
. 8
. 9
10
11
13
17
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
17
17
17
18
20
23
26
2.2.2
2.2.3
2.2.4
Matrici a scalini ridotte per righe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Teorema di Rouché - Capelli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
Equazioni parametriche di rette e piani . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3
Esercizi riassuntivi
3
Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.1
Matrici
35
3.2
Operazioni tra matrici
36
3.2.1
3.2.2
3.2.3
3.2.4
Somma di matrici . . . . . . . . . . . . . .
Prodotto per uno scalare . . . . . . . .
Prodotto di matrici . . . . . . . . . . . . .
Matrici delle operazioni elementari
3.3
Matrici quadrate - Matrici inverse
3.3.1
Calcolo della matrice inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.4
Ancora sui sistemi lineari
42
3.5
Esercizi riassuntivi
45
4
Spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.1
Lo spazio Rn
4.1.1
4.1.2
Sottospazi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
Dipendenza e indipendenza lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.2
Spazi vettoriali
4.2.1
4.2.2
4.2.3
4.2.4
Gruppi e campi . . . . . . . . . . . . . . . .
Definizione ed esempi . . . . . . . . . . .
Sottospazi . . . . . . . . . . . . . . . . . . . . .
Dipendenza e indipendenza lineare
4.3
Esercizi riassuntivi
5
Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.1
Determinante
5.1.1
5.1.2
5.1.3
Definizione e proprietà . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
Determinante e operazioni elementari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
Determinante, rango e invertibilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
5.2
Applicazioni
5.2.1
5.2.2
5.2.3
Prodotto vettoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
Applicazioni alla geometria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
Determinanti e sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.3
Esercizi riassuntivi
6
Basi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
6.1
Definizione - Esistenza delle basi
6.1.1
Estrazione di una base da un sistema di generatori, caso V = Rn . . . . . . . . . 74
31
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
36
36
36
38
39
47
52
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
52
53
54
55
56
61
64
70
73
6.2
Completamento a una base
74
Rn .
6.2.1
Completare a una base un insieme indipendente di
. . . . . . . . . . . . . . . 75
6.3
Coordinate
76
6.4
Spazi delle righe e delle colonne di una matrice
78
6.5
Esercizi riassuntivi
78
7
Funzioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
7.1
Funzioni lineari
7.1.1
7.1.2
7.1.3
Definizione ed esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
Nucleo e immagine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
Funzioni lineari definite da matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
7.2
Alcune proprietà delle funzioni lineari
86
7.3
Matrici rappresentative
87
7.3.1
Cambiamenti di base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
7.4
Esercizi riassuntivi
8
Diagonalizzabilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
8.1
Diagonalizzabilità
8.2
Autovalori e autovettori
8.2.1
8.2.2
8.2.3
Definizione e prime proprietà . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
Polinomio caratteristico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
Molteplicità algebrica e geometrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
8.3
Criteri di diagonalizzabilità
8.3.1
8.3.2
Matrici diagonalizzanti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
Applicazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
8.4
Esercizi riassuntivi
9
Endomorfismi simmetrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
9.1
Spazi vettoriali euclidei
9.1.1
9.1.2
9.1.3
Prodotto scalare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
Ortogonalità e proiezioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
Basi ortonormali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
9.2
Endomorfismi simmetrici
9.2.1
9.2.2
Il Teorema Spettrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
Matrici ortogonali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
9.3
Esercizi riassuntivi
83
92
99
100
103
105
111
115
118
Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
Testi consigliati
121
1. Geometria di rette e piani nello spazio
1.1
Vettori Geometrici
−
→
Definizione 1.1.1 Un segmento orientato AB nello spazio è individuato da un punto iniziale
A, e da un punto finale B, e si rappresenta con una freccia che parte dal punto A e termina
−
→ −→
nel punto B. Due segmenti orientati AB e CD si dicono equivalenti (o equipollenti) se hanno
la stessa direzione, cioè giacciono su rette parallele, la stessa lunghezza, detta modulo e lo
−
→ −→
stesso verso, cioè la stessa orientazione. In altre parole due segmenti orientati AB e CD sono
equipollenti se una traslazione che porta A in C porta B in D.
Definizione 1.1.2 Un vettore geometrico è una classe di equivalenza di segmenti orientati.
Indicheremo i vettori geometrici con lettere in grassetto, e scriveremo, con abuso di notazione,
−
→
−
→
v = AB per indicare che il segmento orientato AB è un rappresentante della classe del vettore
−
→
geometrico v. La classe di equivalenza dei segmenti orientati di tipo AA verrà indicata con
0 e chiamata vettore nullo. Tale vettore ha modulo nullo, mentre direzione e verso sono
indeterminati. Un vettore geometrico di modulo 1 è detto versore.
Notazione 1.1. Denoteremo con V 3 l’insieme dei vettori geometrici dello spazio.
1.1.1
Somma di vettori
Definizione 1.1.3 Dati due vettori geometrici v e w si può definire la loro somma nel modo
−
→
−
→
seguente: sia AB un rappresentante di v di punto iniziale A, e sia BC il rappresentante di w di
−
→
punto iniziale B. Allora v + w è il vettore geometrico individuato dal segmento orientato AC.
Chiaramente v + 0 = v.
B
w
v
C
v+w
A
Capitolo 1. Geometria di rette e piani nello spazio
8
Osservazione 1.1.1 La somma di vettori geometrici gode delle proprietà commutativa e
associativa, come mostrano i seguenti diagrammi.
B
w
w
v
v+w
A
u
C
w+v
w+u
v
v
v+w
w
(v+w)+u = v+(u+w)
D
Definizione 1.1.4 Dato un vettore geometrico v, il suo opposto, che indichiamo con −v è un
vettore geometrico che ha la stessa direzione, lo stesso modulo e verso opposto. Chiaramente
la somma di un vettore con il suo opposto dà il vettore nullo.
Riassumiamo le proprietà della somma dei vettori geometrici appena descritte.
1.
2.
3.
4.
1.1.2
Comunque scelti due vettori geometrici v, w si ha v + w = w + v;
Comunque scelti tre vettori geometrici v, w, u si ha (v + w) + u = w + (v + u);
Esiste un vettore, il vettore nullo, tale che, per ogni vettore geometrico v si ha v + 0 = v;
Ogni vettore v ha un vettore opposto −v tale che v + (−v) = 0.
Prodotto per uno scalare
Un vettore geometrico può essere moltiplicato per un numero reale (detto scalare), nel modo
seguente:
Definizione 1.1.5 Dati un vettore geometrico v ed un numero reale λ , il vettore geometrico
λ v è definito come il vettore che ha la stessa direzione di v, modulo uguale a |λ ||v| e verso
concorde o opposto a quella di v a seconda che λ sia positivo o negativo. Chiaramente, se
λ = 0 o v = 0, allora λ v è il vettore nullo.
Definizione 1.1.6 Se v 6= 0 il vettore
v
|v|
è un versore, detto normalizzazione di v.
Il prodotto per uno scalare gode delle seguenti proprietà:
1.
2.
3.
4.
Comunque scelti due scalari λ , µ ed un vettore geometrico v si ha λ (µv) = (λ µ)v;
Comunque scelto un vettore geometrico v si ha 1v = v;
Comunque scelti due scalari λ , µ ed un vettore geometrico v si ha (λ + µ)v = λ v + µv;
Comunque scelti uno scalare λ e due vettori geometrici v, w si ha λ (v + w) = λ v + λ w.
Le prime tre proprietà sono di verifica immediata. Per l’ultima è necessario osservare che il
triangolo che si costruisce per sommare i vettori v e w è simile a quello che si costruisce per
sommare i vettori λ v e λ w.
1.1 Vettori Geometrici
1.1.3
9
Prodotto scalare - proiezioni ortogonali
Definizione 1.1.7 Dati due vettori geometrici v e w il loro prodotto scalare, indicato con
v · w è il numero reale
v · w = |v||w| cos ϑ ,
ove ϑ è l’angolo formato da due rappresentanti di v e w applicati in un medesimo punto.
In particolare due vettori non nulli sono perpendicolari se e solo se il loro prodotto scalare
risulta nullo.
Il prodotto scalare di vettori geometrici gode delle seguenti proprietà:
1.
2.
3.
4.
Comunque scelti due vettori geometrici v e w si ha v · w = w · v;
Comunque scelti due vettori geometrici v e w e uno scalare λ si ha (λ v) · w = λ (v · w);
Comunque scelti tre vettori geometrici v, w, u si ha v · (u + w) = v · u + v · w;
Comunque scelto un vettore v si ha v · v = |v|2 ≥ 0.
Tutte le proprietà sono conseguenze immediate della definizione tranne la 3. di cui vedremo
una dimostrazione utilizzando le coordinate (Cf. Osservazione 1.1.5).
Il prodotto scalare può essere utilizzato per descrivere la proiezione ortogonale di un vettore su
un altro. Il caso più semplice è quello in cui proiettiamo su un versore:
Proposizione 1.1.2 Se e è un versore, allora il vettore geometrico proiezione ortogonale di w
su e è il vettore geometrico (e · w)e.
Dimostrazione. Chiaramente la proiezione ortogonale di w su e ha la direzione di e; se ϑ è un
angolo acuto ha anche lo stesso verso, e la sua lunghezza è data da |w| cos ϑ .
w
w
e
v
e
v
Se invece ϑ è un angolo ottuso la proiezione ortogonale ha verso opposto, e la sua lunghezza è
data da |w| cos(π − ϑ ) = −|w| cos ϑ .
In entrambi i casi si ha dunque (e · w)e.
Per quanto riguarda il caso più generale si ha che:
Corollario 1.1.3 Se v è un vettore geometrico non nullo il vettore geometrico proiezione
ortogonale di w su v è il vettore geometrico
(v · w)
v.
|v|2
Dimostrazione. Basta applicare la Proposizione 1.1.2 al versore v/|v|.
Capitolo 1. Geometria di rette e piani nello spazio
10
1.1.4
Sistemi di coordinate
Fissato un sistema di riferimento cartesiano ortogonale nello spazio, è possibile associare ad un
vettore geometrico v una terna di numeri, dette coordinate del vettore, che si ottengono facendo
−
→
la differenza delle coordinate degli estremi di un qualsiasi vettore applicato AB individuato da v.
Le coordinate di v sono quindi
v = (xB − xA , yB − yA , zB − zA ).
Indicando con i, j, k i versori degli assi cartesiani le componenti di v sono i coefficienti della
decomposizione di v sugli assi, cioè, v = (v1 , v2 , v3 ) se e solo se v = v1 i + v2 j + v3 k.
E’ semplice verificare che l’operazione di somma di vettori geometrici corrisponde alla
somma coordinata per coordinata delle terne associate, cioè che, se v ha coordinate (v1 , v2 , v3 )
e w ha coordinate (w1 , w2 , w3 ), allora v + w ha coordinate (v1 + w1 , v2 + w2 , v3 + w3 ) e che il
prodotto per uno scalare corrisponde a moltiplicare per lo scalare ogni componente del vettore,
cioè che se v ha coordinate (v1 , v2 , v3 ) allora λ v ha coordinate (λ v1 , λ v2 , λ v3 ).
Inoltre il modulo di un vettore può essere calcolato, utilizzando le componenti, applicando due
volte il Teorema di Pitagora, come
|v| =
q
v21 + v22 + v23
(1.1)
La normalizzazione di v è il versore di componenti
v
(v1 , v2 , v3 )
=q
.
|v|
v21 + v22 + v23
Cerchiamo ora l’espressione del prodotto scalare di due vettori nelle loro componenti:
Proposizione 1.1.4 Il prodotto scalare di v e w è dato da
3
v · w = v1 w1 + v2 w2 + v3 w3 = ∑ vi wi
i=1
Dimostrazione. Sia u = v − w; possiamo calcolare il quadrato del suo modulo come visto nella
formula 1.1 scalare, come
|u|2 = u21 + u22 + u23
= (v1 − w1 )2 + (v2 − w2 )2 + (v3 − w3 )2
= v21 + v22 + v23 + w21 + w22 + w23 − 2(v1 w1 + v2 w2 + v3 w3 )
= |v|2 + |w|2 − 2(v1 w1 + v2 w2 + v3 w3 ).
C
vïw
w
B
e
H
A
v
1.2 Equazioni di rette e piani nello spazio
11
D’altra parte |u|2 può essere calcolato, utilizzando il teorema di Pitagora, come
−→
−→
|u|2 = |HB|2 + |HC|2 = (|v| − |w| cos ϑ )2 + (|w| sin ϑ )2
= |v|2 + |w|2 − 2v · w.
Dal confronto delle due espressioni si ha la tesi.
Osservazione 1.1.5 Utilizzando le coordinate è immediato verificare (esercizio!) che, comun-
que scelti tre vettori geometrici v, w, u si ha v · (u + w) = v · u + v · w.
1.2
1.2.1
Equazioni di rette e piani nello spazio
Equazioni di una retta
Sia r una retta nello spazio, e siano P e Q due suoi punti; sia v il vettore geometrico individuato
−→
−
→
dal segmento orientato PQ; un punto R sta sulla retta se e solo se il segmento orientato PR ha la
stessa direzione di v, cioè è il prodotto di v per un numero reale. I punti R della retta sono cioè
tutti e soli i punti tali che
−
→
PR = tv
per qualche t
In coordinate, se P = (xP , yP , zP ) e Q = (xQ , yQ , zQ ), e R = (x, y, z) abbiamo che il vettore v ha
componenti v1 = xQ − xP , v2 = yQ − yP , v3 = zQ − zP e la condizione sopra descritta si esprime
come:


x = xP + tv1
y = yP + tv2


z = zP + tv3
Queste equazioni sono dette equazioni parametriche della retta r. Eliminando il parametro t si
ottengono due equazioni lineari in x, y e z, dette equazioni cartesiane di r.
Esercizio 1.1 Si trovino equazioni parametriche e cartesiane della retta r passante per i punti
P = (−1, 2, 1) e Q = (1, 0, 2).
−→
Svolgimento Il vettore geometrico che dà la direzione della retta è v = PQ che ha componenti
(xQ − xP , yQ − yP , zQ − zP ) = (2, −2, 1); delle equazioni parametriche per la retta sono quindi


x = −1 + 2t
y = 2 − 2t


z = 1+t
Eliminando t troviamo le equazioni cartesiane della retta: ricavando t = z − 1 dall’ultima
equazione e sostituendolo nelle precedenti otteniamo
(
x − 2z = −3
y + 2z = 4
1.2.2
Equazioni di un piano
Un piano π nello spazio tridimensionale può essere descritto, dati un punto P che gli appartiene
e un vettore geometrico N ad esso ortogonale, come il luogo dei punti Q(x, y, z) tali che il vettore
−→
geometrico PQ sia ortogonale ad N, cioè tali che
−→
PQ · N = 0.
12
Capitolo 1. Geometria di rette e piani nello spazio
−→
In coordinate, se P = (xP , yP , zP ) e N = (a, b, c) abbiamo che il vettore PQ ha componenti
(x − xP , y − yP , z − zP ) e la condizione sopra descritta si esprime come:
a(x − xP ) + b(y − yP ) + c(z − zP ) = 0,
che, posto d = axP + byP + czP può essere riscritta come
ax + by + cz = d.
Una tale equazione è detta equazione cartesiana del piano.
Abbiamo visto che una retta nello spazio può essere descritta, con le equazioni cartesiane,
come l’insieme delle soluzioni di un sistema lineare di due equazioni; tale descrizione corrisponde
quindi a vedere la retta come intersezione di due piani.
Un piano può anche essere descritto con equazioni parametriche. Siano P, R ed S tre suoi
→
−
→ −
punti non allineati, e siano v e w i vettori geometrici individuati dai segmenti orientati PR e PS;
−→
un punto Q sta sul piano se e solo se il vettore PQ può essere scritto come somma di un vettore
diretto come v e un vettore diretto come w, cioè se esistono due numeri reali t ed s tali che
−→
PQ = tv + sw
In coordinate, se P = (xP , yP , zP ), R = (xR , yR , zR ), e S = (xS , yS , zS ) abbiamo che il vettore v ha
componenti v1 = xR −xP , v2 = yR −yP v3 = zR −zP , il vettore w ha componenti w1 = xS −xP , w2 =
yS − yP w3 = zS − zP , e la condizione sopra descritta si esprime come:


x = xP + tv1 + sw1
y = yP + tv2 + sw2


z = zP + tv3 + sw3
Tali equazioni sono dette equazioni parametriche del piano. Eliminando i parametri si ottiene
un’equazione cartesiana del piano.
Esercizio 1.2 Siano A = (0, 0, 1), B = (−2, −1, 0), C = (1, 0, 0). Si trovi un’equazione
cartesiana del piano π che contiene i tre punti dati.
−
→
−
→
Svolgimento Troviamo i vettori v = AB = (−2, −1, −1) e w = AC = (1, 0, −1) che danno la
giacitura del piano. Le equazioni parametriche del piano cercato sono dunque,


x = −2t + s
y = −t


z = 1−t −s
,
Eliminando i parametri (esercizio!) si ottiene un’equazione cartesiana del piano:
π:
1.2.3
x + 3y + z = 1.
Fascio di piani
Abbiamo visto che le equazioni cartesiane di una retta la descrivono come intersezione di due
piani. Tali equazioni non sono chiaramente uniche, perché si possono scegliere le equazioni di
due piani qualsiasi che contengono la retta. L’insieme dei piani che contiene una retta data r è
1.3 Posizioni reciproche di rette e piani nello spazio
13
detto fascio di piani di sostegno r. Tale insieme si descrive combinando le equazioni di due piani
che contengono la retta data con dei parametri reali. Se la retta r è data con equazioni cartesiane
(
ax + by + cz = d
,
a0 x + b0 y + c0 z = d 0
allora il fascio di piani è descritto dall’equazione
λ (ax + by + cz − d) + µ(a0 x + b0 y + c0 z − d 0 ) = 0.
Per ogni coppia di valori diversi da (0, 0) assegnati a λ e µ si ottiene un piano che contiene la
retta r. Chiaramente se si considerano due coppie diverse, ma proporzionali tra di loro, il piano
ottenuto è lo stesso. Mostriamo con un esercizio l’utilità del fascio di piani.
Esercizio 1.3 Sia r la retta di equazioni cartesiane x + 2z = 3, x − y + z = 1, e sia P il punto
(0, 2, 1). Si trovi il piano π che contiene r e P.
Svolgimento Troviamo il fascio di piani di sostegno r come sopra descritto:
λ (x + 2z − 3) + µ(x − y + z − 1) = 0.
Imponiamo il passaggio per il punto P, sostituendo le sue coordinate nell’equazione del fascio:
−λ − 2µ = 0
⇔
λ = −2µ.
Diamo a µ un valore diverso da zero, ad esempio µ = 1, e sostituiamo λ = −2, µ = 1
nell’equazione del fascio, trovando
−2x − 4z + 6 + x − y + z − 1 = 0,
−x − y − 3z − 5 = 0,
che è un’equazione del piano cercato.
1.3
1.3.1
Posizioni reciproche di rette e piani nello spazio
Posizione reciproca di due rette
Siano r ed s due rette distinte, individuate rispettivamente da un punto P e da un vettore v e da
un punto Q e da un vettore w.
Definizione 1.3.1 Le rette si dicono parallele se i vettori v e w sono proporzionali.
Se ciò non accade le rette si dicono incidenti se hanno un punto in comune, sghembe altrimenti.
Le rette si dicono complanari se giacciono in uno stesso piano. Questo accade se e solo se
esse sono parallele o incidenti. Le rette si dicono perpendicolari o ortogonali se v e w sono
ortogonali, cioè se e solo se v · w = 0. La definizione di perpendicolarità non richiede che le
rette siano incidenti.
Esercizio 1.4 Trovare la retta r, passante per P = (0, −2, 1), perpendicolare e incidente alla
retta s di equazioni parametriche


x = −1 + t
y = 1 + 2t


z = 3−t
Capitolo 1. Geometria di rette e piani nello spazio
14
Svolgimento Possiamo risolvere questo esercizio in due modi diversi.
Primo metodo: Per essere incidente alla retta s, la retta r dovrà passare per un punto di
essa, cioè per Q(t) = (−1 + t, 1 + 2t, 3 − t) per qualche valore di t. Il valore cercato di t si trova
−→
imponendo che il vettore QP e il vettore v che dà la direzione di s siano ortogonali. Nel nostro
caso

 



0 − (−1 + t)
1−t
1
−→ 
−2 − (1 + 2t)  =  −3 − 2t 
QP =
v= 2 
1 − (3 − t)
−2 + t
−1
e quindi il loro prodotto scalare è
−→
QP · v = 1 − t − 6 − 4t + 2 − t = −6t − 3,
−→
che si annulla per t = −1/2. Sostituendo tale valore in QP troviamo la direzione della retta r
cercata:


3/2
w =  −2 
−5/2
La retta r ha quindi equazioni parametriche

3

x = 2 t
y = −2 − 2t


z = 1 − 52 t
Secondo metodo: Troviamo il piano π perpendicolare ad s e passante per P; la sua direzione
nomale è data dal vettore v che dà la direzione di s. Si tratta quindi di un piano della forma
x + 2y − z = d;
imponendo il passaggio per P troviamo che d = −5.
Troviamo ora il punto Q, intesezione di π e s. Sostituendo nell’equazione di π le equazioni
parametriche di s:
−1 + t + 2(1 + 2t) − (3 − t) = −5
troviamo t = −1/2; il punto Q ha quindi coordinate (−3/2, 0, 7/2). La retta r è la retta
passante per P e Q, ed ha quindi equazioni parametriche

3

x = 2 t
y = −2 − 2t


z = 1 − 52 t
Esercizio 1.5 Siano r la retta passante per A = (0, 0, 1) e B = (−2, −1, 0) ed s la retta
passante per C = (1, 2, 2) e D = (−3, 0, 0). Si mostri che tali rette sono complanari e si trovi
un’equazione cartesiana del piano π che le contiene.
−
→
Svolgimento La retta r ha direzione data da AB = (−2, −1, −1), mentre la retta r0 ha direzione
−→
data da CD = (−4, −2, −2); tali vettori sono proporzionali, quindi le rette considerate sono
parallele, e quindi complanari.
1.3 Posizioni reciproche di rette e piani nello spazio
15
Il piano che le contiene è individuato da due punti su una retta e un punto sull’altra. Possiamo prendere tali punti come A, B e C e trovare il piano passante per questi tre punti come
nell’Esercizio 1.2.
Alternativamente possiamo trovare equazioni cartesiane per la retta r, che ha equazioni parametriche


x = −2t
y = −t


z = 1−t
Eliminando t otteniamo
(
x = 2y
z = 1+y
Ora consideriamo il fascio di piani di sostegno r:
λ (x − 2y) + µ(y − z + 1) = 0,
ed imponiamo il passaggio per C.
−3λ + µ = 0,
da cui µ = 3λ e, posto λ = 1 troviamo
π:
1.3.2
x + y − 3z + 3 = 0
Posizione reciproca di due piani
Siano π e π 0 due piani distinti di equazioni
π:
0
π :
ax + by + cz = d
a0 x + b0 y + c0 z = d 0
Definizione 1.3.2 I piani sono paralleli se le direzioni normali ad essi sono proporzionali,
cioè se e solo se i vettori N = (a, b, c) e N0 = (a0 , b0 , c0 ) sono proporzionali.
Se ciò non accade i piani si dicono incidenti, e la loro intersezione è una retta.
Due piani in R3 si dicono perpendicolari o ortogonali se le loro direzioni normali sono
ortogonali, cioè se e solo se N · N0 = 0.
Esercizio 1.6 Siano π e π 0 i piani di equazioni x − y + z = 0 e 3x − y − z = 0, rispettivamente.
1. Si trovi la posizione reciproca di π e π 0 ;
2. Si trovi un’equazione cartesiana del piano π 00 passante per il punto P = (1, 1, 1) e
ortogonale sia a π che a π 0 .
Svolgimento I vettori che danno le direzioni normali a π e a π 0 sono rispettivamente N =
(1, −1, 1) e N0 = (3, −1, −1), che non sono proporzionali, quindi i piani sono incidenti. Il
prodotto scalare di N e di N0 è N · N0 = 3 − 1 − 1 = 1 6= 0, quindi i piani non sono perpendicolari.
Sia (a, b, c) la direzione normale del piano π 00 . Imponendo la condizione di ortogonalità con
π e π 0 otteniamo
(
a−b+c = 0
3a − b − c = 0
Capitolo 1. Geometria di rette e piani nello spazio
16
Sommando e sottraendo le due equazioni troviamo
(
4a − 2b = 0
−2a + 2c = 0
da cui b = 2a e c = a. Un’equazione cartesiana del piano cercato è quindi della forma
ax + 2ay + az = d.
Imponendo il passaggio per il punto P otteniamo 4a = d, quindi
ax + 2ay + az = 4a.
Qualsiasi valore non nullo di a (ad esempio a = 1) fornisce ora un’equazione cartesiana del
piano cercato.
1.3.3
Posizione reciproca di una retta e un piano
Sia π il piano di equazione
ax + by + cz = d,
e sia r una retta, non contenuta nel piano, individuata da un punto P e da un vettore v.
Definizione 1.3.3 La retta e il piano si dicono paralleli se il vettore v è ortogonale al vettore
normale al piano, cioè se e solo se v · N = 0, ove N = (a, b, c). Si dicono incidenti se hanno
un punto in comune; ciò accade se e solo se v · N 6= 0; se inoltre v è proporzionale a N allora
la retta e il piano si dicono ortogonali.
Osservazione 1.3.1 La condizione v · N = 0 è verificata anche quanto r è contenuta in π. Per
distinguere tale caso da quello in cui la retta è parallela ad r è sufficiente verificare se un qualsiasi
punto di r appartiene o no a π.
Esercizio 1.7 Siano P = (1, 0, −1), π il piano di equazione x + y + z = 1 e r la retta di
equazioni
(
x + 2y = 0
y−z = 0
1. Si trovi la posizione reciproca di r e π;
2. Si trovi un’equazione cartesiana del piano π 0 passante per P e ortogonale ad r.
Svolgimento E’ innanzitutto necessario trovare equazioni parametriche per la retta; questo può
essere fatto ponendo y = t, e quindi ricavando


x = −2t
y=t


z=t
Pertanto un vettore v che dà la direzione di r è v = (−2, 1, 1). Un vettore normale al piano π è
N = (1, 1, 1); pertanto
v · N = −2 + 1 + 1 = 0.
Ci sono quindi due possibilità: o la retta è contenuta nel piano o è parallela ad esso. Per
determinare in quale caso ci troviamo prendiamo un punto su r e vediamo se tale punto appartiene
a π. Prendendo ad esempio A = (0, 0, 0) è immediato verificare che A 6∈ π, e quindi r e π sono
paralleli.
1.4 Distanze
17
Il piano π 0 , ortogonale ad r avrà un’equazione cartesiana del tipo
−2x + y + z = d,
e d può essere trovato imponendo il passaggio per P, ottenendo −2 − 1 = d, cioè d = −3.
1.4
1.4.1
Distanze
Distanza di due punti
La distanza di due punti P = (xP , yP , zP ) e Q = (xQ , yQ , zQ ) è il modulo del segmento orientato
−→
PQ, cioè
−→
d(P, Q) = |PQ| =
1.4.2
q
(xQ − xP )2 + (yQ − yP )2 + (zQ − zP )2 .
(1.2)
Distanza di un punto da un piano
Vediamo come ricavare la formula che dà la distanza di un punto da un piano
Proposizione 1.4.1 Sia P il punto di coordinate (xP , yP , zP ), e sia π il piano di equazione
ax + by + cz = d. Allora
d(P, π) =
|axP + byP + czP − d|
√
a2 + b2 + c2
Dimostrazione. Sia Q = (xQ , yQ , zQ ) un punto del piano π. La distanza di P da π è il modulo
−→
della proiezione ortogonale di QP sulla direzione normale al piano. Indicato con n il versore
normale al piano, cioè
1
n= √
(a, b, c)
2
a + b2 + c2
si ha che
|axP + byP + czP − (axQ + byQ + czQ )| |axP + byP + czP − d|
−→
√
√
d(P, π) = |QP · n| =
=
,
a2 + b2 + c2
a2 + b2 + c2
ove l’ultima uguaglianza è dovuta al fatto che il punto Q appartiene al piano π.
1.4.3
Distanza di un punto da una retta
Per trovare la distanza del punto P dalla retta r è necessario trovare il punto H su r tale che
−→
PH sia ortogonale a un vettore v che dà la direzione della retta r. A questo punto è sufficiente
calcolare la distanza dei punti P ed H.
Per trovare il punto H è possibile procedere in due modi. Si può, analogamente a quanto fatto
nell’Esercizio 1.4 considerare un generico punto Q(t) sulla retta r scritta in forma parametrica
−→
con parametro t, e imporre che PQ · v = 0. Si trova cosı̀ un valore t0 di t che individua il punto
H = Q(t0 ).
Alternativamente si può cercare l’equazione del piano π perpendicolare a r e passante per P;
l’intersezione di tale piano con la retta r è il punto H.
18
Capitolo 1. Geometria di rette e piani nello spazio
Esercizio 1.8 Si trovi la distanza del punto P = (1, 2, 2) dalla retta r passante per il punto
R = (3, −1, 3) di direzione v = (2, −1 − 1).
Svolgimento Il generico piano perpendicolare ad r ha equazione
2x − y − z = d;
imponendo il passaggio per P si trova d = −2, quindi il piano π ha equazione
2x − y − z = −2.
La retta r ha equazioni parametriche


x = 3 + 2t
y = −1 − t


z = 3−t
Troviamo il punto H, intersezione di r e π, sostituendo nell’equazione di π le espressioni di x,
y e z date dalle equazioni parametriche di r, e otteniamo: 6 + 4t + 1 + t − 3 + t = −2, trovando
t = −1. Il punto H è quindi il punto (1, 0, 4) e la distanza cercata è data da
q
√
d(P, r) = d(P, H) = (1 − 1)2 + (0 − 2)2 + (4 − 2)2 = 2 2.
1.4.4
Distanza di due rette
Per distanza di due rette r ed r0 si intende la minima distanza possibile tra un punto sulla prima
retta ed un punto sulla seconda.
Chiaramente se r ed s sono incidenti, la loro distanza è zero.
Se r ed r0 sono parallele, la loro distanza è data dalla distanza di un punto qualsiasi preso su una
di esse dall’altra.
Più complesso è il caso delle rette sghembe. Vediamo due metodi per calcolare la distanza in
questo caso.
Il primo metodo richiede di trovare un segmento i cui estremi stanno sulle due rette, che sia
ortogonale ad entrambe, e calcolare quindi la lunghezza di tale segmento.
Poniamo entrambe le rette in forma parametrica (con parametri diversi!!), e, detti P(t) il punto
generico della retta r e Q(s) il punto generico della retta r0 , rispettivamente, andiamo a imporre
le condizioni di ortogonalità:
(−→
PQ · v = 0
−→
PQ · w = 0
ove v e w sono vettori che danno la direzione di r e di r0 . Risolvendo il sistema troviamo
i valori t0 e s0 di t ed s che individuano i punti P(t0 ) e Q(s0 ) sulle due rette che realizzano
la minima distanza. La distanza delle due rette è la distanza di tali punti, cioè il modulo di
−−−−−−−→
P(t0 )Q(s0 ).
Un metodo alternativo prevede l’utilizzo del fascio di piani: si costruisce innanzitutto il
fascio di piani che ha come sostegno una delle due rette, diciamo la retta r; in tale fascio si cerca
l’unico piano π parallelo alla retta r0 , imponendo l’ortogonalità di un vettore N ortogonale al
piano π e del vettore w che dà la direzione di r0 :
N · w = 0.
A questo punto è sufficiente calcolare la distanza di un punto qualsiasi di r0 da π, con la formula
vista nella Proposizione 1.4.1.
1.4 Distanze
19
Esercizio 1.9 Calcoliamo la distanza delle rette


x = 1 − t
r : y = −1 + 3t


z = −t


x = 2 + s
0
r : y=s


z = 1−s
Svolgimento Possiamo risolvere questo esercizio in due modi diversi:
Primo metodo: I vettori v e w che danno le direzioni delle due rette hanno componenti
−→
v = (−1, 3, −1) e w = (1, 1, −1), e il vettore PQ ha componenti (1 + s + t, s + 1 − 3t, 1 − s + t);
il sistema visto sopra diventa
(
−1 − s − t + 3s + 3 − 9t − 1 + s − t = 3s − 11t + 1 = 0
1 + s + t + s + 1 − 3t − 1 + s − t
= 3s − 4t + 1 = 0
che ha come soluzione t = 0, s = − 31 . La distanza delle due rette è dunque
−−−−−−
√
−−−→
1
2 2 4 2 6
0
d(r, r ) = P(0)Q − = , ,
.
=
3 3 3 3 3
Secondo metodo: costruiamo innanzitutto il fascio di piani che ha come sostegno la retta r, le
cui equazioni cartesiane sono:
(
x = 1+z
r:
y = −1 − 3z
Il fascio di piani è dunque
λ (x − z − 1) + µ(y + 3z + 1) = 0.
λ x + µy + (3µ − λ )z − λ + µ = 0.
Cerchiamo, in questo fascio, un piano che sia parallelo alla retta r0 . Dobbiamo perciò imporre
che il vettore N = (λ , µ, 3µ − λ ), ortogonale al piano, sia ortogonale al vettore w = (1, 1, −1):
N · w = λ + µ − 3µ + λ = 2λ − 2µ = 0,
da cui troviamo che il piano cercato è (prendendo λ = µ = 1):
x + y + 2z = 0.
Ora è sufficiente calcolare la distanza di un punto qualsiasi di r0 da π; ad esempio, scegliendo
P = (2, 0, 1) troviamo
√
√
|2 + 0 + 2 − 0|
4
4 6 2 6
=
.
d(P, π) = √
=√ =
6
3
1+1+4
6
Capitolo 1. Geometria di rette e piani nello spazio
20
1.5
Esercizi riassuntivi
Esercizio 1.10 Sia r la retta di equazioni x − y = 0, y − z = 1, e sia s la retta passante per i
punti (2, 0, 1) e (3, 0, 0). Siano inoltre π il piano perpendicolare a r passante per (−1, 0, 0) e
P il punto di intersezione di r e π.
1) Si trovi la posizione reciproca di r ed s.
2) Si trovi la distanza di P da s.
Svolgimento Scriviamo le rette date in forma parametrica:


x = 1 + λ
r : y = 1+λ


z= λ


x = 2 + t
s: y= 0


z = 1−t
Sostituendo le equazioni parametriche si s nelle equazioni cartesiane di r troviamo il sistema
(
2+t = 0
t −1 = 1
che non ha soluzione, quindi le rette non sono incidenti. Inoltre i vettori v e w che danno la
direzione delle rette
v = (1, 1, 1)
w = (1, 0, −1)
non sono proporzionali, e quindi le rette non sono parallele; quindi le rette sono sghembe.
Il piano π ha come direzione normale quella del vettore (1, 1, 1) e passa per (−1, 0, 0) e ha
quindi equazione
π : x + y + z = −1.
Il punto di intersezione tra r e π si ottiene sostituendo le equazioni parametriche di r nell’equazione di π:
(1 + λ ) + (1 + λ ) + λ = −1,
da cui λ = −1 che individua il punto
P = (0, 0, −1).
−→
Sia Q(t) il generico punto di s. Allora PQ = (2 + t, 0, 2 − t). Imponendo l’ortogonalità con w
−→
0 = PQ · w = 2 + t − 2 + t,
−−−→
da cui si ricava t = 0. La distanza di P da s è uguale al modulo di PQ(0), cioè a
p
√
22 + 02 + 22 = 2 2.
Il punto 2) può essere svolto in modo alternativo, considerando il piano π 0 ortogonale ad s
e passante per P; essendo ortogonale ad s il piano π 0 si scrive come x − z = d e, imponendo il
passaggio per il punto si ottiene
x − z = 1.
L’intersezione di π 0 con la retta s è il punto Q = (2, 0, 1) e la distanza di P e Q è
p
√
22 + 02 + 22 = 2 2.
√
Risposte: 1) Le rette sono sghembe
2) d(P, s) = 2 2
1.5 Esercizi riassuntivi
21
Esercizio 1.11 Siano P il punto di coordinate (0, 1, 1), π il piano di equazione y − z = 0 e r
la retta di equazioni
(
x−y+z = 1
.
2x − z
=0
1) Sia Q il punto di intersezione di r e π. Si trovi la distanza di P da Q.
2) Si trovino equazioni cartesiane per la retta r0 , parallela ad r e passante per P.
3) Si trovi un’equazione cartesiana del piano π 0 che contiene r e P.
Svolgimento Le coordinate del punto Q di intersezione di r e π sono le soluzioni del sistema


x − y + z
2x − z


y−z
=1
=0
=0
si ricava facilmente che cioè Q = (1, 2, 2). La distanza di P da Q si calcola ora con la formula
(1.2), ottenendo
q
√
d(P, Q) = (1 − 0)2 + (2 − 1)2 + (2 − 1)2 = 3.
Per trovare la retta s dobbiamo scrivere la retta r in forma parametrica, per trovare un vettore che
ne dà la direzione. Ponendo x = t troviamo equazioni parametriche per r


x = t
r : y = −1 + 3t


z = 2t
e vediamo che la direzione di r è data da v = (1, 3, 2). Possiamo quindi trovare equazioni
parametriche per r0 :


x = s
0
r : y = 1 + 3s


z = 1 + 2s
ed, eliminando il parametro s, equazioni cartesiane:
(
y = 1 + 3x
r0 :
z = 1 + 2x
Infine, per trovare il piano π 0 , consideriamo il fascio di piani di sostegno la retta r:
λ (x − y + z − 1) + µ(2x − z) = 0,
e imponiamo il passaggio per P:
−λ − µ = 0,
da cui λ = −µ; scegliendo µ = 1 troviamo un’equazione cartesiana del piano π 0 :
π0 :
x + y − 2z + 1 = 0.
Risposte:
1)
√
3
2)
3x − y + 1 = 2x − z + 1 = 0
3)
x + y − 2z + 1 = 0.
Capitolo 1. Geometria di rette e piani nello spazio
22
Esercizio 1.12 Sia ` la retta di equazioni cartesiane x − z + 1 = 0, y + 2z − 1 = 0, e sia P il
punto di coordinate (0, 2, 1).
1. Si trovi un’equazione cartesiana del piano π, ortogonale ad ` e passante per P.
2. Si trovino equazioni parametriche della retta r, passante per P, contenuta in π e
incidente ad `.
3. Si trovi un’equazione cartesiana del piano π 0 che contiene ` e P.
Svolgimento Dalle equazioni cartesiane di ` ricaviamo equazioni parametriche:


x = −1 + t
y = 1 − 2t


z= t
Un vettore che dà la direzione di ` è quindi, ad esempio, (1, −2, 1). I piani ortogonali ad ` hanno
quindi equazioni cartesiane del tipo
x − 2y + z = d.
Imponendo il passaggio per P troviamo
0 − 4 + 1 = d,
e quindi π ha equazione
x − 2y + z = −3.
La retta r passa per P e per il punto Q di intersezione di ` e π. Troviamo tale punto, sostituendo
le equazioni parametriche di ` nell’equazione cartesiana di π.
−1 + t − 2(1 − 2t) + t = −3,
trovando t = 0. Il punto Q ha quindi coordinate (−1, 1, 0), e possiamo quindi scrivere equazioni

parametriche per r:

x = −s
y = 2−s


z = 1−s
Consideriamo il fascio di piani di sostegno `, dato da
λ (x − z + 1) + µ(y + 2z − 1) = 0,
ed imponiamo il passaggio per il punto P, ottenendo 3µ = 0. Il piano cercato è quindi
x − z + 1 = 0.
Risposte:
1)
x − 2y + z = −3
2)


x = −s
y = 2−s


z = 1−s
3)
x − z + 1 = 0.
2. Sistemi lineari
2.1
Sistemi lineari
L’insieme
Rn = {(a1 , a2 , . . . , an ) | ai ∈ R, i = 1, . . . , n}
è detto spazio delle ennuple di numeri reali. Al suo interno possiamo introdurre l’operazione di
somma di due ennuple:
(a1 , a2 , . . . , an ) + (b1 , b2 , . . . , bn ) = (a1 + b1 , a2 + b2 , . . . , an + bn )
e di prodotto per un numero reale (prodotto per uno scalare):
λ (a1 , a2 , . . . , an ) = (λ a1 , λ a2 , . . . , λ an ).
Un’equazione lineare in n incognite x1 , x2 , . . . , xn è un’equazione del tipo
a1 x1 + a2 x2 + . . . an xn = b,
ove gli ai e b sono numeri reali.
Definizione 2.1.1 Un sistema di equazioni lineari di m equazioni in n incognite è un insieme
di equazioni lineari, del tipo


a11 x1 + a12 x2 + · · · + a1n xn



a x + a x + · · · + a x
21 1
22 2
2n n

...



a x + a x + · · · + a x
m1 1
m2 2
mn n
= b1
= b2
= ...
= bm
Una soluzione del sistema è una ennupla di numeri reali (t1 , . . . ,tn ) che sia soluzione di tutte
le equazioni del sistema.
Il sistema è detto compatibile se esistono delle soluzioni, incompatibile altrimenti.
Un sistema è detto omogeneo se tutti i termini noti sono nulli.
Capitolo 2. Sistemi lineari
24
N.B.
Un sistema omogeneo è sempre compatibile, perché ammette sicuramente come
soluzione la ennupla nulla (0, 0, . . . , 0).
Problema 2.1 Come è possibile stabilire se un sistema è compatibile e, in caso affermativo,
trovare le sue soluzioni?
2.1.1
Matrici associate ad un sistema lineare
Ad un sistema lineare del tipo


a11 x1 + a12 x2 + · · · + a1n xn



a x + a x + · · · + a x
21 1
22 2
2n n

...



a x + a x + · · · + a x
m1 1
m2 2
mn n
= b1
= b2
= ...
= bm
possiamo associare tre tabelle di numeri: una tabella con m righe ed n colonne che contiene i
coefficienti delle variabili nelle equazioni del sistema, detta matrice dei coefficienti o matrice
incompleta, una tabella con m righe e una colonna, detta matrice dei termini noti o colonna dei
termini noti che contiene i termini noti e una tabella con m righe ed n + 1 colonne che contiene sia
i coefficienti delle variabili nelle equazioni del sistema che i termini noti, detta matrice completa:

a11 a12
 a21 a22
A=
 ... ...
am1 am2
...
...
...
...

a1n
a2n 

... 
amn


b1
 b2 

b=
 ... 
bn

a11 a12
 a21 a22
(A | b) = 
 ... ...
am1 am2
...
...
...
...

a1n b1
a2n b2 

... ... 
amn bm
Notiamo che la conoscenza della matrice completa permette di risalire al sistema lineare ad essa
associato.
2.1.2
Operazioni elementari
Dato un sistema lineare è immediato verificare che effettuando una delle seguenti operazioni
elementari:
1. scambiare due equazioni,
2. moltiplicare un’equazione per un numero diverso da zero,
3. aggiungere ad un’equazione un’altra equazione moltiplicata per un numero,
si ottiene un sistema equivalente, cioè un sistema le cui soluzioni sono tutte e sole le soluzioni
del sistema precedente.
Le operazioni appena viste possono essere effettuate direttamente sulla matrice completa del
sistema considerato; denotando con Ri la riga i-esima della matrice, riscriviamo le operazioni
elementari sopra viste nel modo seguente:
1. scambiare due righe Ri ed R j ,
2. moltiplicare una riga Ri per un numero λ diverso da zero,
3. aggiungere alla riga Ri la riga R j moltiplicata per un numero µ,
Tali operazioni verranno indicate con Si j , Di (λ ) e Ei j (µ), rispettivamente.
Definizione 2.1.2 Se una matrice B si ottiene da una matrice A mediante un numero finito di
operazioni elementari, allora si dice che B è una modificazione per righe di A.
2.1 Sistemi lineari
25
Esempio 2.1 Vediamo come può essere possibile studiare un sistema lineare utilizzando le
operazioni elementari:

x



−3y −z +w = 0
2y −4z +w = 1
x
−2y
+z −4w = −1



2x −4y −3z −w = 0
La matrice completa associata a tale sistema è:

0
1 −3 −1 1
 0 2 −4 1
1

 1 −2 1 −4 −1
2 −4 −3 −1 0




Utilizziamo ora alcune operazioni elementari per portare la matrice in una forma più semplice:

1 −3 −1 1
0
−→
 0 2 −4 1
1 

 E31 (−1)
 1 −2 1 −4 −1  E41 (−2)
2 −4 −3 −1 0



1 −3 −1 1
0
−→ 
 0 2 −4 1
1 

 S32 
0 1


2 −5 −1
0 2 −1 −3 0



1 −3 −1 1
0
−→
0 1

2 −5 −1 

 E43 (−5/8) 



E42 (−2) 0 0 −8 11 3
2
0 0 −5 7
−→
E32 (−2)


0
1 −3 −1 1
0 1
2 −5 −1 

0 2 −4 1
1 
0 2 −1 −3 0

1 −3 −1 1
0
0 1
2 −5 −1 

0 0 −8 11
3 
0 0
0 1/8 1/8
Abbiamo mostrato che il sistema di partenza è equivalente al sistema

x −3y −z +w = 0



y +2z −5w = −1
−8z +11w = −3



1/8w = 1/8
Possiamo ora ricavare w = 1 dall’ultima equazione, sostituirlo nella precedente e ricavare z = 1,
e cosı̀ via, trovando che l’unica soluzione del sistema è data dalla quaterna (6, 2, 1, 1).
Esempio 2.2 Vediamo ora un altro esempio:

 x1 −2x2 +2x3 −x4 = 1
2x1 −4x2 +3x3 +x4 = 3

3x1 −6x2 +5x3
= 4
La matrice completa associata a tale sistema è:


1 −2 2 −1 1
 2 −4 3 1 3 
3 −6 5 0 4
Utilizziamo ora alcune operazioni elementari per portare la matrice in una forma più semplice:
 −→ 



1 −2 2 −1 1
1 −2 2 −1 1
1 −2 2 −1 1
−→
 2 −4 3 1 3  E21 (−2)  0 0 −1 3 1  E32 (−1)  0 0 −1 3 1 
E31 (−3)
3 −6 5 0 4
0 0 −1 3 1
0 0
0
0 0

Abbiamo mostrato che il sistema di partenza è equivalente al sistema
x1 −2x2 +2x3 −x4 = 1
−x3 +3x4 = 1
Capitolo 2. Sistemi lineari
26
E’ ora possibile esprimere le due variabili x1 e x3 in funzione delle altre due: dalla seconda
equazione si ricava x3 = 3x4 − 1 e x1 = 2x2 − 5x4 + 3. In questo caso il sistema è compatibile e
ha infinite soluzioni che dipendono da due variabili. Le quaterne soluzioni del sistema sono

 
 
 
 

 


2x2 − 5x4 + 3
3
2x2
−5x4
3
2
−5

  0   x2   0   0 
 


x2

 =
 +
 +
 =
 +x2  1  +x4  0 













3x4 − 1
−1
0
3x4
−1
0
3 
x4
0
0
x4
0
0
1
Esempio 2.3 Vediamo un ultimo esempio.

= 1
 2x −y
y +2z = 0

x
+z = 2
La matrice completa associata a tale sistema è:


2 −1 0 1
 0 1 2 0 
1 0 1 2
Utilizziamo ora alcune operazioni elementari per portare la matrice in una forma più semplice:






2 −1 0 1
2 −1 0 1
2 −1 0 1
−→
−→
 0 1 2 0  E31 (−1/2)  0 1 2 0  E32 (−1/2)  0 1 2 0 
1 0 1 2
0 1/2 1 3/2
0 0 0 3/2
Abbiamo mostrato che il sistema di partenza è equivalente al sistema

= 1
 2x −y
y +2z = 0

0 = 3/2
che è chiaramente incompatibile.
2.2
Matrici a scalini e algoritmo di Gauss
Vediamo ora di formalizzare quanto visto negli esempi precedenti, per descrivere la forma della
matrice completa di un sistema lineare che vogliamo ottenere tramite modificazioni per righe e
capire quali sono le operazioni elementari da effettuare per ottenerla.
2.2.1
Matrici a scalini
Definizione 2.2.1 Una matrice A è detta a scalini se, comunque prese due righe consecutive
Ri ed Ri+1 di A si verifica una delle possibilità seguenti:
• Ri e Ri+1 sono entrambe non nulle e il numero di zeri che precedono il primo elemento
non nullo di Ri è minore del numero di zeri che precedono il primo elemento non nullo
di Ri+1 .
• Ri non è nulla e Ri+1 è nulla.
• Ri è nulla e Ri+1 è pure nulla.
Sia pi il primo elemento non nullo (se presente) della riga Ri di una matrice a scalini; i pi
sono detti pivot o elementi conduttori.
2.2 Matrici a scalini e algoritmo di Gauss
27
Esempio 2.4 — Matrici a scalini. Le seguenti matrici sono esempi di matrici a scalini



4 −1 2 −5 1
 0 −2 0 1 3 


 0 0 0 −1 4 
0 0 0 0 0

1 −2 2 −1 1
 0 0 3 1 3 
0 0 0 −1 4


2 3
7
 0 −3 −4 
0 0
1
Ogni matrice può essere portata in forma a scalini mediante una modificazione per righe,
utilizzando una procedura, chiamata l’algoritmo di Gauss-Jordan, che andremo ora a descrivere.
• Cerchiamo la prima colonna che contiene un termine non nullo p1 .
• Se necessario, utilizziamo degli scambi S1 j per avere p1 sulla prima riga.
• Utilizziamo operazioni elementari di tipo E1 j (µ) per ottenere una modificazione nella
quale tutti i termini nella colonna di p1 sono nulli.
• Ripetiamo il procedimento sulla matrice ottenuta rimuovendo la prima riga.
N.B.
Per portare una matrice in forma a scalini sono necessarie solo le operazioni del
tipo Si j e Ei j (µ).
N.B.
La forma a scalini di una matrice non è unica, ma, come dimostreremo più avanti,
il numero dei pivot di due diverse forme a scalini di una stessa matrice è lo stesso.
Definizione 2.2.2 Si dice rango di una matrice A, e si denota con rg(A) il numero di pivot di
una sua forma a scalini.
2.2.2
Matrici a scalini ridotte per righe
Definizione 2.2.3 Una matrice a scalini è detta ridotta per righe se ogni pivot vale 1 ed è
l’unico elemento non nullo nella sua colonna.
Osservazione 2.2.1 E’ possibile dimostrare che la forma a scalini ridotta per righe di una
matrice è unica.
Notazione 2.1. Data una matrice A indicheremo con rref(A) (row reduced echelon form) la sua
forma a scalini ridotta per righe.
Esempio 2.5 — Matrici a scalini ridotte per righe. Le seguenti matrici sono esempi di
matrici a scalini ridotte per righe


1 −2 0 0 −8
 0 0 1 0 7 
0 0 0 1 −4

1
 0

 0
0
0
1
0
0
2
0
0
0
1
2
0
0

0
0 

1 
0


1 0 0
 0 1 0 
0 0 1
Ogni matrice a scalini può essere portata in forma a scalini ridotta per righe mediante una
modificazione per righe, detta riduzione all’indietro, che andremo ora a descrivere.
Capitolo 2. Sistemi lineari
28
• Cerchiamo l’ultima riga che contiene un pivot pk , ed effettuiamo un’operazione
elementare Dk (1/pk ).
• Utilizziamo operazioni elementari di tipo Ek j (µ) per ottenere una modificazione nella
quale tutti i termini nella colonna di pk sono nulli.
• Ripetiamo il procedimento sulla matrice ottenuta rimuovendo la riga k.
N.B.
2.2.3
E’ evidente che il passaggio da una forma a scalini ad una forma a scalini ridotta
non altera il numero di pivot.
Teorema di Rouché - Capelli
Vediamo ora qual è il criterio per stabilire se un sistema lineare è compatibile:
Teorema 2.2.2 — Rouché - Capelli. Dato un sistema lineare in n incognite di matrice
completa (A | b) tale sistema è compatibile se e solo se il rango di A è uguale al rango di
(A | b). In tal caso il sistema ha un’unica soluzione se rg(A) = n, oppure infinite soluzioni
dipendenti da n − rg(A) variabili libere se rg(A) < n.
Dimostrazione. Chiaramente rg(A | b) 6= rg(A) se e solo se l’ultimo pivot di una forma a scalini
di (A | b) sta nell’ultima colonna. In tal caso il sistema considerato è equivalente ad un sistema
che contiene l’equazione 0 = 1, e quindi non compatibile.
Se invece l’ultimo pivot non sta nell’ultima colonna dopo aver effettuato la riduzione all’indietro le variabili corrispondenti alle colonne dei pivot possono essere espresse in funzione
delle altre variabili (che sono n meno il numero dei pivot, cioè n − rg(A)) e dei termini noti.
In particolare, se rg(A) = n la forma a scalini ridotta per righe fornisce direttamente l’unica
soluzione del sistema.
Esempio 2.6 Consideriamo la matrice ottenuta nell’Esempio 2.3


2 −1 0 1
 0 1 2 0 
0 0 0 3/2
In questo caso rg(A) = 2 6= rg(A | b) = 3, quindi il sistema non è compatibile.
Esempio 2.7 Consideriamo la matrice ottenuta nell’Esempio 2.1


1 −3 −1 1
0
 0 1
2 −5 −1 


 0 0 −8 11
3 
0 0
0 1/8 1/8
In questo caso rg(A) = rg(A | b) = 4, e n = 4, quindi il sistema è compatibile, ed ha un’unica
soluzione. Troviamo la soluzione portando la matrice in forma a scalini ridotta per righe.


1 −3 −1 1
0
−→ 
0 1
2 −5 −1 

 D4 (8) 
 0 0 −8 11

3 
0 0
0 1/8 1/8


−→
1 −3 −1 1
0
E
(−11)
34
0 1
2 −5 −1 
 E24 (5)
0 0 −8 11 3 
E14 (−1)
0 0
0
1
1

1 −3 −1 0 −1
0 1
2 0 4 


 0 0 −8 0 −8 
0 0
0 1 1

2.2 Matrici a scalini e algoritmo di Gauss

1 −3 −1 0 −1
−→
−→
0 1
 E23 (−2)
2
0
4

D3 (−1/8) 
0 0
1 0 1  E13 (1)
0 0
0 1 1

29


1 −3 0 0 0
 0 1 0 0 2  −→ 



 0 0 1 0 1  E12 (3) 
0 0 0 1 1

1
0
0
0
0
1
0
0
0
0
1
0
0
0
0
1

6
2

1
1
La soluzione è dunque (6, 2, 1, 1).
Esempio 2.8 Consideriamo la matrice ottenuta nell’Esempio 2.2

1 −2 2 −1 1
 0 0 −1 3 1 
0 0
0
0 0

In questo caso rg(A) = rg(A | b) = 2, e n = 4, quindi il sistema è compatibile con infinite
soluzioni che dipendono da due variabili libere (quelle nelle colonne senza pivot).
Portiamola in forma a scalini ridotta per righe per esprimere le variabili dipendenti (quelle nelle
colonne dei pivot) in funzioni delle variabili libere





1 −2 2 −1 1
3
1 −2 2 −1 1
1 −2 0 5
−→
−→
 0 0 −1 3 1  D2 (−1)  0 0 1 −3 −1  E12 (−2)  0 0 1 −3 −1 
0
0
0 0
0
0 0
0 0 0 0
0 0 0 0

E’ ora possibile esprimere le due variabili x1 e x3 in funzione delle altre due in questo modo:
x1 = 2x2 − 5x4 + 3 e x3 = 3x4 − 1 e le quaterne soluzioni del sistema sono dunque
(2x2 − 5x4 + 3, x2 , 3x4 − 1, x4 )
2.2.4
Equazioni parametriche di rette e piani
Alla luce di quanto appena visto possiamo vedere il passaggio da equazioni cartesiane per rette e
piani a equazioni parametriche come risoluzione di un sistema lineare con infinite soluzioni che
dipendono da una variabile libera (rette) o da due (piani). Le variabili libere corrisponderanno
alle colonne senza pivot della matrice del sistema:
Esempio 2.9 Sia r la retta di equazioni cartesiane:
(
x+y−z
2x − y − 3z
=1
=2
Scriviamo la matrice del sistema e utilizziamola per risolverlo
1 1 −1 1
2 −1 −3 2
−→
E21 (−2)
1 1 −1 1
0 −3 −1 0
−→
E12 (−1)
−→
D2 (−1/3)
1 0 −4/3 1
0 1 1/3 0
1 1 −1 1
0 1 1/3 0
La variabile libera è z, e sarà essa a corrispondere al parametro. Possiamo quindi scrivere
equazioni parametriche di r nel modo seguente:

4

x = 1 + 3 t
y = − 13 t


z= t
Capitolo 2. Sistemi lineari
30
Esempio 2.10 Sia r la retta di equazioni cartesiane:
(
x+y−z
2x + 2y + z
=1
=2
Scriviamo la matrice del sistema e utilizziamola per risolverlo
−→ −→ 1 1 −1 1
1 1 −1 1
1 1 0 1
E21 (−2)
E12 (1)
2 2 1 2
0 0 1 0
0 0 1 0
La variabile libera è y, e sarà essa a corrispondere al parametro. Possiamo quindi scrivere
equazioni parametriche di r nel modo seguente:


x = 1 − t
y= t


z= 0
Esempio 2.11 Sia r la retta di equazioni cartesiane:
(
y−z
y+z
=1
=3
Scriviamo la matrice del sistema e utilizziamola per risolverlo
−→ −→ 0 1 −1 1
0 1 −1 1
0 1 −1 1
E21 (−1)
D2 (1/2)
0 1 1 3
0 0 2 2
0 0 1 1
−→
E12 (1)
0 1 0 2
0 0 1 1
La variabile libera è x, e sarà essa a corrispondere al parametro. Possiamo quindi scrivere
equazioni parametriche di r nel modo seguente:


x = t
y= 2


z= 1
Esempio 2.12 Sia π il piano di equazione cartesiana:
y − 3z = 2
La matrice del sistema corrispondente è
0 1 −3 2
da cui vediamo che le variabili libere sono x e z, che corrisponderanno dunque ai parametri.
Possiamo quindi scrivere equazioni parametriche di π nel modo seguente:


x = t
y = 3s + 2


z= s
2.3 Esercizi riassuntivi
2.3
31
Esercizi riassuntivi
Esercizio 2.1 Si consideri il seguente sistema lineare, in dipendenza dal parametro reale k:

2x −y −(k + 1)z



2x
−(k + 7)z
−x +y
−3z



x +y −(k + 10)z
= −7
= −9
= 2
= −7
1) Si stabilisca per quali valori di k il sistema ammette un’unica soluzione e per quali
valori ha infinite soluzioni.
2) Si trovino esplicitamente le soluzioni del sistema per k = 1.
Svolgimento Consideriamo la matrice completa associata al sistema e cerchiamone una forma
a scalini. Scambiamo la prima e la terza riga, per usare nel primo passaggio della riduzione una
riga che non contiene il parametro:




−1 1
−3
2 −1 −(k + 1) −7
2
−→ 
 2
0
−(k + 7) −9 
0
−(k + 7) −9 
 S13  2


 2 −1 −(k + 1) −7 
 −1 1
2 
−3
1
1 −(k + 10) −7
1
1 −(k + 10) −7
−→

−1
E21 (2) 
0
E31 (2) 
 0
E41 (1)
0

1
−3
2
2 −k − 13 −5 

1 −k − 7 −3 
2 −k − 13 −5
La seconda riga è uguale all’ultima, quindi possiamo eliminare l’ultima




−1 1
−3
2
−1 1
−3
2
−→
 0 2 −k − 13 −5  E32 (−1/2)  0 2
−k − 13
−5 
0 1 −k − 7 −3
0 0 −k/2 − 1/2 −1/2
Se k 6= −1 il rango della matrice dei coefficienti e della matrice completa sono uguali e uguali
a tre, quindi il sistema ha un’unica soluzione. Se k = −1 invece, i due ranghi sono diversi e il
sistema non è compatibile. In particolare non ci sono valori di k per cui il sistema ha infinite
soluzioni.
Troviamo ora l’unica soluzione del sistema per k = 1 mediante riduzione all’indietro.
−→


−1 1 −3
2
D1 (−1)
1
 0 2 −14 −5  D2 (−1/2)  0
0 0 −1 −1/2
D3 (−1)
0



−→
1 −1 0 −7/2
−→
E23 (7) 
0 1 0
1  E12 (1) 
E13 (−3)
0 0 1 1/2


−2
−1 3
1 −7 −5/2 
0
1
1/2

1 0 0 −5/2
0 1 0
1 
0 0 1 1/2
L’unica soluzione, per k = 1 è dunque x = −5/2, y = 1, z = 1/2.
Risposte:
1)
2)
Soluzione unica per k 6= −1. Infinite soluzioni: per nessun valore di k.
x = −5/2, y = 1, z = 1/2
Capitolo 2. Sistemi lineari
32
Esercizio 2.2 Si stabilisca, al variare del parametro reale k, se il sistema

=
1
 x +y
kx +y
+z
= 1−k

y +(1 − k)z =
1
è compatibile. Per i valori di k per cui ciò accade, se ne trovino le soluzioni.
Svolgimento Consideriamo la matrice completa associata al sistema e cerchiamone una forma
a scalini.




1
1
0
1 1
0
1
1
−→
 k 1
1 − k  E21 (−k)  0 1 − k
1 − 2k 
1
1
0 1 1−k
1
0
1
1−k
1
Scambiamo ora la seconda e la terza riga, perché l’elemento 1 − k di posto (2, 2) non è sempre
diverso da zero. In alternativa potremmo dividere lo svolgimento in due casi; il caso k = 1 e il
caso k 6= 1.




1
1 1
0
1
1
1
0
−→
−→
1
1−k
1  E32 (k − 1)  0 1 1 − k
1 
S23  0
2
1 − 2k
0 1−k
1
0 0 2k − k −k
Ora è necessario distinguere cosa accade in dipendenza dai valori di k; considereremo separatamente il caso in cui 2k − k2 6= 0 e i casi in cui tale quantità si annulla, cioè k = 0 e
k = 2.
2k − k2 6= 0
In questo caso 2k − k2 è un pivot, quindi rg(A) = rg(A | b) = 3 e il sistema è compatibile; poichè
il sistema ha tre incognite, allora esiste una sola soluzione.
Risolviamo il sistema portando la matrice nella forma a scalini ridotta per righe.




1
1 1
0
1
1 1
0
−→
 0 1 1−k
1  D3 (1/(2k − k2 ))  0 1 1 − k 1 
1
0 0
1
0 0 2k − k2 −k
k−2




1 0 0 1−k
1 1 0
1
k−2
−→
−→
 E12 (−1)  0 1 0 2k−3 
E23 (k − 1)  0 1 0 2k−3
k−2
k−2
1
1
0 0 1 k−2
0 0 1 k−2
L’unica soluzione del sistema è quindi x =
1−k
k−2 ,
y=
2k−3
k−2 ,
z=
1
k−2 .
k=0
La matrice del sistema è la seguente


1 1 0 1
 0 1 1 1 
0 0 0 0
In questo caso rg(A) = rg(A | b) = 2 e il sistema è compatibile; poichè il sistema ha tre incognite,
allora esistono infinite soluzioni che dipendono dalla variabile libera z.
Portiamo la matrice in forma a scalini ridotta per righe




1 1 0 1
1 0 −1 0
−→
 0 1 1 1  E12 (−1)  0 1 1 1 
0 0 0 0
0 0 0 0
2.3 Esercizi riassuntivi
33
e troviamo le soluzioni, che sono date da x = z e y = −z + 1. Prendendo z come variabile libera
scriviamo le soluzioni come (z, −z + 1, z).
k=2
La matrice del sistema è la seguente


1 1 0
1
 0 1 −1 1 
0 0 0 −2
In questo caso rg(A) = 2 e rg(A | b) = 3, quindi il sistema non è compatibile.
Risposte:
Il sistema è compatibile per k 6= 2.
Per k = 0 ha infinite soluzioni, che dipendono da una variabile libera: (z, −z + 1, z).
1−k 2k−3
1
Per k 6= 0, 2 il sistema ha un’unica soluzione: ( k−2
, k−2 , k−2
).
3. Matrici
3.1
Matrici
Definizione 3.1.1 Dati due interi positivi m ed n, una matrice di ordine m × n (o (m, n)) a
coefficienti reali è una tabella rettangolare di numeri reali con m righe ed n colonne


a11 a12 . . . a1n
 a21 a22 . . . a2n 

A=
 ... ... ... ... 
am1 am2 . . . amn
Scriveremo A = [ai j ] per denotare la matrice in cui l’elemento sulla i-esima riga e j-esima
colonna è indicato con ai j . L’insieme delle matrici di ordine m × n a coefficienti reali verrà
indicato con Mm,n (R); se m = n allora indicheremo Mm,n (R) semplicemente con Mn (R) e
diremo che la matrice è quadrata di ordine n
Definizione 3.1.2 Una matrice m × 1 è detta vettore colonna, mentre una matrice 1 × n è
detta vettore riga.


a11
 a21 

A=
 ... 
am1
B=
b11 b12 . . .
b1n
Definizione 3.1.3 La matrice identica di ordine m è la matrice quadrata di ordine m, I = [δi j ]
con δi j = 1 se i = j e δi j = 0 se i 6= j.



Im = 

1 0 ...
0 1 ...
..
..
.
.
0 0 ...
0
0
..
.
1





Capitolo 3. Matrici
36
Definizione 3.1.4 Data una matrice A ∈ Mm,n (R), la sua matrice trasposta AT = [a ji ] è la
matrice con n righe e m colonne le cui righe sono le colonne di A, nello stesso ordine. Una
matrice quadrata tale che A = AT è detta simmetrica.
3.2
3.2.1
Operazioni tra matrici
Somma di matrici
Fissati m ed n interi positivi, nell’insieme Mm,n (R), si può introdurre un’operazione di somma.
Definizione 3.2.1 Siano A = [ai j ] e B = [bi j ] due matrici in Mm,n (R). La loro somma
C = A + B è una matrice di ordine m × n ottenuta sommando le due matrici termine a termine,
cioè C = [ci j ] con ci j = ai j + bi j .
Definizione 3.2.2 Data una matrice A = [ai j ], la matrice opposta è la matrice −A = [−ai j ].
Definizione 3.2.3 La matrice nulla di ordine m × n è la matrice m × n i cui termini sono tutti
nulli. Verrà indicata con Om×n o più semplicemente con O, qualora il suo ordine sia chiaro
dal contesto.
E’ immediato verificare che la somma di matrici gode delle seguenti proprietà:
Nell’insieme delle matrici di un ordine fissato m × n
1.
2.
3.
4.
3.2.2
Comunque scelte due matrici A, B si ha A + B = B + A;
Comunque scelte tre matrici A, B,C si ha (A + B) +C = A + (B +C);
Esiste una matrice O tale che, per ogni matrice A si ha A + O = A;
Ogni matrice A ha una matrice opposta −A tale che A + (−A) = O.
Prodotto per uno scalare
Definizione 3.2.4 Dato un numero reale λ e una matrice A = [ai j ], il prodotto di λ per A è
la matrice che si ottiene moltiplicando ciascun elemento di A per λ , cioè λ A = [λ ai j ].
E’ immediato verificare che Il prodotto per uno scalare gode delle seguenti proprietà:
1.
2.
3.
4.
Comunque scelti due scalari λ , µ ed una matrice A si ha λ (µA) = (λ µ)A;
Comunque scelta una matrice A si ha 1A = A;
Comunque scelti due scalari λ , µ ed una matrice A si ha (λ + µ)A = λ A + µA;
Comunque scelti uno scalare λ e due matrici A, B dello stesso ordine si ha
λ (A + B) = λ A + λ B.
Definizione 3.2.5 Date due matrici A e B dello stesso ordine, una loro combinazione lineare
è una matrice C = λ A + µB, con λ , µ ∈ R.
3.2.3
Prodotto di matrici
Definizione 3.2.6 Una matrice A si dice conformabile a sinistra ad una matrice B se il
numero di colonne di A è uguale al numero di righe di B, conformabile a destra se il numero
di righe di A è uguale al numero di colonne di B.
3.2 Operazioni tra matrici
N.B.
37
Una matrice A può essere conformabile a sinistra ad una matrice B senza essere
conformabile a destra!
Definizione 3.2.7 Data una matrice A = [ai j ] ∈ Mm,n (R) ed una matrice B = [b jk ] ∈ Mn,q (R),
si può definire il loro prodotto righe per colonne A B come la matrice C = [cik ] ∈ Mm,q (R) i
cui elementi sono definiti come
n
cik =
∑ ai j b jk ,
j=1
cioè l’elemento di posto (i, k) del prodotto si ottiene considerando la riga i della matrice A, la
colonna k della matrice B, moltiplicandole termine a termine e sommando i prodotti.
Esempio 3.1 Siano A ∈ M2,3 (R) e B ∈ M3,4 (R) le matrici
A=
2 1 0
1 −1 3


0 −2 7 0
B =  2 1 −4 1 
1 3
0 3
Il prodotto A B è la matrice C ∈ M2,4 (R)
C=
2 −3 10 1
1 6 11 8
Vediamo ad esempio come l’elemento (2, 3) di C sia ottenuto moltiplicando termine a termine la
seconda riga di A e la terza colonna di B, e sommando i risultati ottenuti:
"
#


2 −3 10 1
2 1 0
0 −2 7 0
=
 2 1 −4 1 
1 −1 3
1 6
11 8
1 3
0 3
1 · 7 + (−1)(−4) + 3 · 0 = 11.
In questo esempio B non è conformabile ad A, e quindi non è possibile eseguire il prodotto B A.
Il prodotto di matrici gode delle seguenti proprietà:
1. Comunque scelte tre matrici A ∈ Mm,n (R), B ∈ Mn,p (R),C ∈ Mp,q (R), allora
(A B)C = A (BC).
2. Comunque scelte tre matrici A, B ∈ Mm,n (R),C ∈ Mn,p (R) si ha (A + B)C = AC + BC;
3. Comunque scelte tre matrici A, B ∈ Mm,n (R),C ∈ Mq,m (R) si ha C (A + B) = C A +C B;
4. Comunque scelte due matrici A ∈ Mm,n (R), B ∈ Mn,p (R) e uno scalare λ ∈ R si ha
λ (A B) = (λ A) B = A (λ B).
5. Se A è una matrice conformabile a sinistra (rispettivamente a destra) alla matrice identica
Im allora A Im = A (rispettivamente Im A = A).
Visto che una matrice A può essere conformabile sinistra a una matrice B, ma non conformabile a destra non ha senso, in generale, chiedersi se il prodotto di matrici è commutativo. Anche
quando entrambi i prodotti sono definiti, inoltre, non sempre si ha AB = BA.
Capitolo 3. Matrici
38
Esempio 3.2 Sia A una matrice di ordine m × n, con m 6= n, e B una matrice di ordine n × m;
in questo caso sono definiti sia il prodotto AB che il prodotto BA, ma, mentre AB è una matrice
quadrata di ordine m, BA è una matrice quadrata di ordine n, quindi chiaramente AB 6= BA. Anche quando entrambi i prodotti sono definiti e le matrici AB e BA hanno lo stesso ordine,
può accadere che AB 6= BA, come mostra il seguente esempio:
Esempio 3.3 Si considerino le seguenti matrici:
A=
1 1
0 0
0 2
0 0
B=
0 1
0 1
I loro prodotti sono
AB =
BA =
0 0
0 0
,
quindi, anche restringendosi alle matrici quadrate di un dato ordine, ove il prodotto è sempre
definito, vediamo che il prodotto di matrici non è commutativo.
N.B. Il fatto che il prodotto non sia commutativo implica che, in generale, (AB)2 6= A2 B2
Esempio 3.4 Considerando le matrici dell’esempio precedente abbiamo che
2
(AB) =
3.2.4
0 0
0 0
2 2
A B =
0 2
0 0
Matrici delle operazioni elementari
Le operazioni elementari sulle matrici viste nella sezione 2.1.2 possono essere realizzate
mediante moltiplicazione (a sinistra) per opportune matrici quadrate. Sia A una matrice di ordine
m × n, e sia Im la matrice identità di ordine m. Siano
1. Si j la matrice ottenuta da Im scambiando la riga Ri e la riga R j ,
2. Di (λ ) la matrice ottenuta da Im moltiplicando la riga Ri per λ 6= 0,
3. Ei j (µ) la matrice ottenuta da Im aggiungendo alla riga Ri la riga R j moltiplicata per µ.
Allora le operazioni elementari sulla matrice A possono essere realizzate moltiplicandola a
sinistra per la matrice corrispondente.
Esempio 3.5 Vediamo un esempio di quanto detto per ciascuna delle operazioni elementari




0
2
1 0 −→
1
3 −1 0
 1
3 −1 0  S12  0
2
1 0 
−1 −0 2 1
−1 −0 2 1

 

0 1 0
0 2 1 0
1 3 −1 0
 1 0 0   1 3 −1 0  =  0 2 1 0 
0 0 1
−1 0 2 1
−1 0 2 1

3.3 Matrici quadrate - Matrici inverse



1 3 −1 0
1 3
−→
 0 2 1 0  E31 (1)  0 2
−1 0 2 1
0 3


 
1 0 0
1 3 −1 0
1
 0 1 0  0 2 1 0  =  0
1 0 1
−1 0 2 1
0

1 3 −1 0
 0 2 1 0
0 3 1 1


1 0 0
1
 0 1/2 0   0
0 0 1
0

39

−1 0
1 0 
1 1

3 −1 0
2 1 0 
3 1 1

1 3 −1 0
 D2 (1/2)  0 1 1/2 0 
0 3 1 1
 

3 −1 0
1 3 −1 0
2 1 0  =  0 1 1/2 0 
3 1 1
0 3 1 1
−→

Proposizione 3.2.1 Sia A una matrice di ordine m × n, e sia rref(A) la sua forma a scalini
ridotta per righe. Allora esiste una matrice quadrata P di ordine m tale che P A = rref(A).
Dimostrazione. La forma a scalini ridotta per righe di A si ottiene con un numero finito k
di operazioni elementari, cioè moltiplicando A a sinistra per k matrici corrispondenti a tali
operazioni, che indicheremo genericamente con E1 , E2 , . . . , Ek :
rref(A) = Ek (Ek−1 (. . . (E1 A))) = (Ek Ek−1 . . . E1 )A = P A.
3.3
Matrici quadrate - Matrici inverse
Definizione 3.3.1 Data una matrice quadrata A ∈ Mn (R), A = [ai j ], l’insieme degli elementi
che hanno i due indici uguali {a11 , a22 , . . . , ann } è detto diagonale principale di A. Una matrice
quadrata si dice diagonale se tutti gli elementi che non stanno sulla diagonale principale sono
nulli, si dice triangolare superiore se ai j = 0 per ogni i > j, cioè se tutti gli elementi al di
sotto della diagonale principale sono nulli.
Nell’insieme delle matrici quadrate di ordine fissato è sempre possibile effettuare il prodotto
di due matrici. Abbiamo già visto, nell’Esempio 3.3 che tale operazione non è commutativa.
Definizione 3.3.2 Una matrice quadrata A di ordine n si dice invertibile se esiste una matrice
B, quadrata di ordine n, tale che
AB = BA = I,
ove con I abbiamo indicato la matrice identica di ordine n. In tal caso B si dice inversa di A.
Dalla simmetria della definizione è evidente che, se B è l’inversa di A, allora A è l’inversa di B.
Osservazione 3.3.1 L’inversa di una matrice quadrata, se esiste, è unica.
Dimostrazione. Siano B e B0 due matrici inverse di A. Allora
B = I B = (B0 A) B = B0 (A B) = B0 I = B0 ,
provando l’unicità.
Capitolo 3. Matrici
40
Notazione 3.1. Se A è una matrice invertibile, l’inversa di A si indica con A−1 .
Esempio 3.6 La matrice identica è invertibile, ed è l’inversa di se stessa.
Esempio 3.7 Le matrici delle operazioni elementari sono invertibili. Infatti, pensando alle
operazioni elementari corrispondenti, è immediato verificare che
Si−1
j = Si j ,
Di (λ )−1 = Di
1
λ
Ei j (µ)−1 = Ei j (−µ).
,
Osservazione 3.3.2 Se A e B sono matrici invertibili dello stesso ordine, allora anche A B è una
matrice invertibile, e la sua inversa è B−1 A−1 . Infatti
(A B)(B−1 A−1 ) = A (B B−1 ) A−1 = A I A−1 = A A−1 = I,
e in modo analogo si mostra che (B−1 A−1 )(A B) = I.
Non tutte le matrici quadrate sono invertibili, come mostra l’esempio seguente.
Esempio 3.8 Sia A la matrice
A=
1 1
0 0
,
e sia B = [bi j ] una generica matrice quadrata di ordine 2. Allora
AB =
1 1
0 0
b11 b12
b21 b22
=
b11 + b21 b12 + b22
0
0
,
quindi non esiste una matrice B tale che A B = I.
Osservazione 3.3.3 Generalizzando quanto visto nell’esempio possiamo osservare che, se in
una matrice quadrata A la riga i-esima contiene solo zeri, allora, per ogni matrice quadrata B
dello stesso ordine, la riga i-esima del prodotto A B contiene solo zeri. Quindi una matrice con
una riga di zeri non è invertibile.
Osservazione 3.3.4 Analogamente, se in una matrice quadrata A la colonna i-esima contiene
solo zeri, allora, per ogni matrice quadrata B dello stesso ordine, la colonna i-esima del prodotto
B A contiene solo zeri. Quindi una matrice con una colonna di zeri non è invertibile.
Vogliamo ora cercare delle condizioni che ci assicurino che una data matrice è invertibile;
cominciamo dal caso di una matrice ridotta per righe, che è più semplice da affrontare:
Proposizione 3.3.5 Sia R una matrice quadrata di ordine n ridotta per righe; sono equivalenti
1. R ha rango n;
2. R è la matrice identica di ordine n;
3. R è invertibile.
Dimostrazione. 1) ⇒ 2) Se R ha rango n, allora contiene n pivot, uguali ad uno. Essendo una
matrice a scalini, tali pivot devono stare sulla diagonale principale, ed essendo la matrice ridotta
per righe, ogni altro elemento di essa è nullo.
2) ⇒ 3) Abbiamo già visto che la matrice identica è invertibile.
3) ⇒ 1) Se R è invertibile non ha righe di zeri, e quindi contiene n pivot.
Possiamo ora considerare il caso generale:
3.3 Matrici quadrate - Matrici inverse
41
Teorema 3.3.6 Una matrice quadrata A di ordine n è invertibile se e solo se ha rango n.
Dimostrazione. Osserviamo innanzitutto che, per definizione il rango di A è uguale a quello di
rref(A). Per la Proposizione 3.2.1 sappiamo che esiste una matrice P tale che
P A = rref(A).
La matrice P è prodotto di matrici di operazioni elementari, che sono invertibili, ed è quindi
invertibile (per l’Osservazione 3.3.2).
Se A è invertibile, allora anche rref(A) è invertibile, perché prodotto di matrici invertibili, ed
ha quindi rango n per il Lemma 3.3.5.
Viceversa, se A ha rango n, allora anche rref(A) ha rango n, ed è quindi uguale a I per il
Lemma 3.3.5. Abbiamo quindi
P A = I.
Moltiplicando a sinistra per P−1 troviamo che A = P−1 è invertibile, e la sua inversa è P.
3.3.1
Calcolo della matrice inversa
Quanto visto nella Proposizione 3.2.1 e nel Teorema 3.3.6 ci permette anche di descrivere
un algoritmo per trovare l’inversa di una matrice invertibile. Osserviamo innanzitutto che, dalla
definizione di prodotto righe per colonne segue che, se A, B e C sono matrici quadrate di ordine
n, e D = (A | B) è la matrice n × 2n ottenuta accostando A e B, allora C D = (C A | C D).
Se A è una matrice invertibile, allora, come visto nella Proposizione 3.2.1 la sua inversa è la
matrice P che si ottiene come prodotto delle matrici corrispondenti alle operazioni elementari
che sono necessarie per portare A in forma a scalini ridotta per righe.
Pertanto la procedura per stabilire se una matrice quadrata A di ordine n è invertibile, e, in
caso affermativo, trovare l’inversa, è la seguente:
1.
2.
3.
4.
Consideriamo la matrice B = (A | In ).
Troviamo la forma a scalini ridotta per righe rref(B).
La matrice A è invertibile se e solo se rref(B) = ( In | P ) .
In tal caso, la matrice P che compare nel secondo blocco di rref(B) è l’inversa di A.
Per giustificare gli ultimi due punti basta osservare che
rref(B) = PB = P ( A | In ) = ( rref(A) | P ).
Esempio 3.9 Applichiamo quanto visto alla matrice
1 2
2 3
1 2 1 0
2 3 0 1
−→
1 2 1 0
0 1 2 −1
A=
( A | I2 ) =
−→
D2 (−1)
1 2
1 0
0 −1 −2 1
1 0 −3 2
0 1 2 −1
E21 (−2)
−→
E12 (−2)
La matrice A è quindi invertibile, e la sua inversa è la matrice
−3 2
−1
A =
2 −1
Capitolo 3. Matrici
42
Esempio 3.10 Consideriamo ora la matrice


1 2 0
A =  0 1 −1 
−1 1 2



1 2 0 1 0 0
−→
( A | I3 ) =  0 1 −1 0 1 0  E31 (1) 
−1 1 2 0 0 1



1
1 2 0 1 0 0
−→
−→



E32 (−3) 0 1 −1 0 1 0 D3 (1/5) 0
0 0 5 1 −3 1
0



1 2 0 1
0
0
1
−→
−→
1
2
1



/5
/5 E12 (−1) 0
E23 (1) 0 1 0 /5
0 0 1 1/5 − 3/5 1/5
0

1 2 0 1 0 0
0 1 −1 0 1 0 
0 3 2 1 0 1
2 0
1 −1
0 1
0 0
1 0
0 1
1
0
0
1
1/
3
5 − /5
3/
5
1/
5
1/
5
− 4/5
2/
5
− 3/5

0
0 
1/
5

− 2/5
1/
5 
1/
5
La matrice A è quindi invertibile, e la sua inversa è la matrice



 3
3 −4 −2
/5 − 4/5 − 2/5
1
1/
2
1 .
A−1 =  1/5 2/5
5 =  1
5
1
1/
3
1 −3 1
/5
5 − /5
Esempio 3.11 Consideriamo ora la matrice

2 1
0
5 
A= 1 3
0 −1 −2


2 1
0 1 0 0
5 0 1 0
( A | I3 ) =  1 3
0 −1 −2 0 0 1

2
−→
E32 (2/5)  0
0



2 1
0
1
0 0
 E21 (−1/2)  0 5/2 5 − 1/2 1 0 
0 −1 −2
0
0 1

1 0
1
0 0
5/
1/
5
−
1
0 
2
2
1
2
0 0 − /5 /5 1
−→
La matrice A non è invertibile, perché il pivot della terza riga non sta nelle prime tre colonne.
3.4
Ancora sui sistemi lineari
Possiamo utilizzare il prodotto di matrici per scrivere un sistema lineare in forma compatta:
sia A la matrice dei coefficienti del sistema, sia b il vettore colonna dei termini noti e siano
x1 , . . . , xn le incognite; definendo il vettore colonna delle incognite x come:


x1
 x2 

x=
 ... 
xn
il sistema può essere scritto nella forma Ax = b. Tale forma è conveniente, ad esempio, per
studiare alcune proprietà delle soluzioni dei sistemi compatibili. Consideriamo innanzitutto il
caso di un sistema omogeneo, di un sistema cioè in cui tutti i termini del vettore colonna dei
3.4 Ancora sui sistemi lineari
43
termini noti sono nulli.
Sia dunque Ax = 0 un sistema omogeneo (con 0 stiamo indicando un vettore colonna di zeri),
siano v e w due soluzioni del sistema, e λ e µ due numeri reali. Allora, poiché
A(λ v + µw) = λ Av + µAw = 0 + 0 = 0
anche λ v + µw è una soluzione del sistema. In particolare, la somma di due soluzioni del sistema
è ancora una soluzione, e il prodotto di una soluzione per uno scalare è ancora una soluzione.
Questa è una proprietà caratteristica dei sistemi omogenei.
Definizione 3.4.1 Data una matrice A, chiameremo nucleo di A, e lo denoteremo con N(A)
l’insieme delle soluzioni del sistema omogeneo Ax = 0, e nullità della matrice il numero di
colonne di rref(A) che non contengono pivot, cioè il numero di variabili libere dalle quali
dipendono le soluzioni del sistema. Indicheremo la nullità di A con null(A).
Ci proponiamo ora di descrivere l’insieme delle soluzioni di un qualsiasi sistema compatibile.
Definizione 3.4.2 Consideriamo un sistema lineare Ax = b; il sistema omogeneo associato è
il sistema lineare Ax = 0.
Supponiamo che x0 sia una soluzione del sistema Ax = b, e che v sia una soluzione del
sistema omogeneo associato. Allora, posto w = x0 + v, si ha
Aw = Ax0 + Av = b + 0 = b,
e quindi anche w è una soluzione del sistema.
Viceversa, se w è una soluzione del sistema allora
A(w − x0 ) = Aw − Ax0 = b − b = 0,
e quindi v = w − x0 è una soluzione del sistema omogeneo associato.
Riassumiamo quanto detto finora nel seguente
Teorema 3.4.1 Sia Ax = b un sistema lineare compatibile.
• Se b = 0 allora l’insieme delle soluzioni del sistema è chiuso rispetto alla somma e al
prodotto per uno scalare.
• Se b 6= 0 e x0 è una soluzione del sistema, tutte e sole le soluzioni del sistema sono del
tipo x0 + v, con v soluzione del sistema omogeneo associato.
Esempio 3.12 Consideriamo il seguente sistema

w
=
1
 x +y
2x +5y −3z +8w = −10

−y +z −2w =
4
La matrice completa associata a tale sistema è:


1 1
0
1
1
 2 5 −3 8 −10 
0 −1 1 −2
4
Capitolo 3. Matrici
44
Riduciamola in forma a scala






1 1
0
1
1
1 1
0
1
1
1 1 0 1 1
−→
−→
 2 5 −3 8 −10  E21 (−2)  0 3 −3 6 −12  E32 (1/3)  0 3 −3 6 −12 
0 −1 1 −2 4
0 −1 1 −2 4
0 0 0 0 0
Osserviamo che il sistema è compatibile, in quanto rg(A) = rg(A | b) = 2, ed ha infinite soluzioni
che dipendono da #{variabili} − rg(A) = 4 − 2 = 2 variabili libere. Le variabili libere in questo
caso sono z e w, che corrispondono alle colonne in cui non appaiono pivot.
Procediamo nella riduzione all’indietro per portare la matrice nella forma a ridotta per righe.




−→
1 1
0
1
1
−→
1 0
1
D2 (1/3)  0 1 −1 2 −4  E12 (−1)  0 1 −1
0 0
0
Le soluzioni del sistema sono dunque
0
0
0 0
0
−1 5
2 −4 
0
0
x = −z + w + 5
y = z − 2w − 4
Le soluzioni possono essere descritte nel modo seguente

 
 
 
 
−z + w + 5
5
−z
w
 z − 2w − 4   −4   z   −2w  

=
 
 
 

  0 + z + 0  = 
z
w
0
0
1




5
−1
 1 

−4 
+z
+w




0
1
0
0

1
−2 
,
0 
1
nel quale sono evidenziate una soluzione particolare, (5, −4, 0, 0), che si ottiene dando alle
variabili libere il valore 0, e due soluzioni del sistema omogeneo associato, (−1, 1, 1, 0) e
(1, −2, 0, 1).
Anche quanto visto sulle matrici inverse può essere applicato ai sistemi lineari:
Teorema 3.4.2 Se la matrice quadrata A è invertibile, il sistema lineare A x = b ha un’unica
soluzione x = A−1 b.
Dimostrazione. Moltiplicando a sinistra per la matrice inversa otteniamo che, se x è una
soluzione, allora
A−1 (Ax) = A−1 b,
e quindi x = A−1 b. E’ immediato verificare che tale x è effettivamente una soluzione, che è
quindi unica.
3.5 Esercizi riassuntivi
3.5
45
Esercizi riassuntivi
Esercizio 3.1 Si consideri la matrice Ak , dipendente dal parametro reale k, cosı̀ definita:


1
2
−3
Ak =  −1 −2k 3 
1/4 1/2 k
1) Si trovino i valori di k per i quali Ak è invertibile.
2) Si calcoli, se esiste, la matrice inversa di A0 .
3) Sia b = (k, 0, k), e x = (x1 , x2 , x3 ). Si trovino i valori di k per i quali l’insieme delle
soluzioni del sistema lineare Ak x = b è chiuso rispetto alla somma e al prodotto per
uno scalare.
Svolgimento

−→
1
2
−3
E
(1)
21
Ak =  −1 −2k 3 
E31 (−1/4)
1/4 1/2 k



1
2
−3
0 2(1 − k)
0 
0
0
k + 3/4
Dunque Ak ha rango 3, ed è quindi invertibile, per k 6= 1, −3/4.
Posto k = 0, si ha


 −→

−→
1 2 −3
1
2 −3 1 0 0
1
0 0
E21 (1) 
D2 (1/2)
0
3 0 1 0 
0 2 0
1
1 0 
(A0 | I3 ) =  −1
E31 (−1/4)
D3 (4/3)
1/4 1/2 0 0 0 1
0 0 3/4 −1/4 0 1

1 2
 0 1
0 0

1 0
 0 1
0 0



1 0 −3
−3
1
0
0
0
−1
0
−→
−→
0
1/2 1/2 0  E12 (−2)  0 1 0
1/2 1/2 0  E13 (3)
1 −1/3 0 4/3
0 0 1 −1/3 0 4/3

0 −1
−1
4
0 1/2 1/2 0 
1 −1/3 0 4/3
Dunque l’inversa A−1
0 è


−1
−1
4
 1/2 1/2 0 
A−1
0 =
−1/3 0 4/3
Le soluzioni di un sistema lineare sono un insieme chiuso rispetto alla somma e al prodotto
per uno scalare se e solo se il sistema è omogeneo, quindi se e solo se k = 0.
Risposte:
1)
2)
Ak è invertibile, per k 6= 1, −3/4
l’inversa è


−1
−1
4
 1/2 1/2 0 
A−1
0 =
−1/3 0 4/3
3)
Per k = 0.
Capitolo 3. Matrici
46
Esercizio 3.2 Si consideri in dipendenza dal parametro reale k, la matrice


1
0
1
3 
Ak =  −1 k + 1
−1
0
k−4
1) Si determinino i valori di k per i quali la matrice è invertibile.
2) Si calcoli l’inversa per k = 1.
Svolgimento Consideriamo la matrice ottenuta accostando ad A la matrice identica di ordine 3,
e troviamone una forma a scalini

 −→ 

1
0
1
1 0 0
1 0 0
1
0
1
E
(1)
21
 −1 k + 1
 0 k+1
3
4
0 1 0 
1 1 0 
E31 (1)
−1
0
k−4 0 0 1
0
0
k−3 1 0 1
Il rango della matrice è tre, e quindi la matrice è invertibile se e solo se k 6= −1, 3. Poniamo ora
k = 1 e procediamo con il calcolo dell’inversa.



 −→
−→
1 0 1 1 0 0
1 0 1
1
0
0
E23 (−2)
 0 2 4 1 1 0  D2 (1/2)  0 1 2 1/2 1/2
0 
D3 (−1/2)
E13 (−1)
0 0 −2 1 0 1
0 0 1 −1/2 0 −1/2

1 0 0 3/2
0
1/2
 0 1 0 3/2 1/2
1 
0 0 1 −1/2 0 −1/2

Dunque l’inversa per k = 1 è

3/2
0
1/2
 3/2 1/2
1 
−1/2 0 −1/2

Risposte: 1) La matrice è invertibile se e solo se k 6= −1, 3.
2) La matrice inversa per k = 1 è:

3/2
0
1/2
 3/2 1/2
1 
−1/2 0 −1/2

4. Spazi vettoriali
4.1
Lo spazio Rn
In questa sezione indicheremo con lettere in grassetto gli elementi di Rn , cioè le ennuple di
numeri reali. Abbiamo già visto che le ennuple si possono sommare: se a = (a1 , a2 , . . . , an ) e
b = (b1 , b2 , . . . , bn ), allora
a + b = (a1 + b1 , a2 + b2 , . . . , an + bn );
inoltre le ennuple si possono moltiplicare per un numero reale (prodotto per uno scalare): se
a = (a1 , a2 , . . . , an ) e λ ∈ R allora
λ a = (λ a1 , λ a2 , . . . , λ an ).
Queste operazioni godono delle seguenti proprietà:
1.
2.
3.
4.
5.
6.
7.
8.
4.1.1
Comunque scelte due ennuple a, b si ha a + b = b + a;
Comunque scelte tre ennuple a, b, c si ha (a + b) + c = a + (b + c);
Esiste una ennupla, l’ennupla nulla, tale che, per ogni ennupla a si ha a + 0 = a;
Ogni ennupla a ha una ennupla opposta −a tale che a + (−a) = 0.
Comunque scelti due scalari λ , µ ed una ennupla a si ha λ (µa) = (λ µ)a;
Comunque scelta una ennupla a si ha 1a = a;
Comunque scelti due scalari λ , µ ed una ennupla a si ha (λ + µ)a = λ a + µa;
Comunque scelti uno scalare λ e due ennuple a, b si ha λ (a + b) = λ a + λ b.
Sottospazi
Definizione 4.1.1 Un sottoinsieme non vuoto U ⊆ Rn si dice sottospazio se è chiuso rispetto
alle operazioni di V , cioè se, ∀u1 , u2 ∈ U e ∀λ ∈ R si ha
u1 + u2 ∈ U
λ u1 ∈ U.
Equivalentemente si può richiedere che ∀u1 , u2 ∈ U e ∀λ , µ ∈ R
λ u1 + µu2 ∈ U.
Capitolo 4. Spazi vettoriali
48
N.B.
Se U ⊆ Rn è un sottospazio, allora la ennupla nulla appartiene ad U. Infatti, dato
un qualsiasi u ∈ U, la ennupla u − u = 0 deve appartenere ad U.
N.B.
Se U ⊆ Rn è un sottospazio che contiene almeno una ennupla non nulla, allora
contiene infiniti elementi. Infatti, se u 6= 0 le ennuple λ u ∈ U per ogni λ ∈ R.
Esempi 4.1
1. Il sottoinsieme che ha come unico elemento la ennupla nulla è un sottospazio.
2. Le ennuple (x1 , x2 , . . . , xn ) tali che x1 = 0 sono un sottospazio. Infatti, presi due ennuple
di questo tipo, (0, x2 , . . . , xn ) e (0, y2 , . . . , yn ), una loro generica combinazione lineare
λ (0, x2 , . . . , xn ) + µ(0, y2 , . . . , yn ) = (0, λ x2 , . . . , λ xn ) + (0, µy2 , . . . , µyn )
= (0, λ x2 + µy2 , . . . , λ xn + µyn ),
è ancora una ennupla il cui primo termine è nullo.
3. Le ennuple tali che x1 ∈ Z non sono un sottospazio. Infatti, se moltiplichiamo l’ennupla
(1, 1, . . . , 1) per 1/2 otteniamo una ennupla il cui primo termine non è intero.
4. Le soluzioni di un sistema omogeneo in n incognite Ax = 0 sono un sottospazio, come
mostrato all’inizio della sezione 3.4.
5. Le soluzioni di un sistema non omogeneo in n incognite Ax = b con b 6= 0 non sono un
sottospazio. Per mostrarlo è sufficiente osservare che la ennupla nulla non è una soluzione
del sistema.
Definizione 4.1.2 Date k ennuple v1 , . . . , vk ∈ Rn e k scalari λ1 , . . . , λk ∈ R, la ennupla
k
v = λ1 v1 + λ2 v2 + · · · + λk vk = ∑ λi vi
i=1
è detta combinazione lineare di v1 , . . . , vk .
Le combinazioni lineari di ennuple possono essere scritte utilizzando il prodotto di matrici,
identificando le ennuple con matrici colonna n × 1. Questa scrittura si rivelerà particolarmente conveniente negli esercizi. Il procedimento è il seguente: date v1 , . . . , vk ennuple di Rn ,
e λ1 , . . . , λk ∈ R, costruiamo la matrice A di ordine n × k che ha sulle colonne le ennuple
v1 , . . . , vk . Sia poi λ la matrice colonna k × 1 i cui elementi sono i λi . Allora possiamo scrivere
la combinazione lineare di v1 , . . . , vk con coefficienti λ1 , . . . , λk in questo modo:
k
∑ λi vi = A λ.
(4.1)
i=1
Proposizione 4.1.1 Siano v1 , . . . , vk ∈ Rn . L’insieme di tutte le combinazioni lineari di
v1 , . . . , vk , al variare di λ1 , . . . , λk ∈ R è un sottospazio di Rn , indicato solitamente con
hv1 , . . . , vk i o con Span(v1 , . . . , vk ), e detto sottospazio generato da v1 , . . . , vk .
Dimostrazione. Siano u e w due combinazioni lineari di v1 , . . . , vk , cioè, se A è la matrice di
ordine n × k che ha sulle colonne le ennuple v1 , . . . , vk si ha, per due matrici λ, µ di ordine k × 1,
u = Aλ
w = Aµ;
Dobbiamo verificare che una loro combinazione lineare appartiene ancora ad U
αu + β w = α(Aλ) + β (Aµ) = A(αλ) + A(β µ) = A(αλ + β µ)
dove le uguaglianze sono state ottenute facendo uso delle proprietà del prodotto di matrici e del
prodotto di una ennupla per un numero reale.
4.1 Lo spazio Rn
49
Un esempio importante di quanto appena visto, che ritroveremo più avanti, è il seguente:
Definizione 4.1.3 Data una matrice A ∈ Mm,n (R), lo spazio delle righe R(A) è il sottospazio
di Rn generato dalle m ennuple riga r1 , . . . rm della matrice A, mentre lo spazio delle colonne
C(A) è il sottospazio di Rm generato dalle n emmuple colonna c1 , . . . cn .
R(A) = hr1 , . . . rm i,
C(A) = hc1 , . . . cm i.
Esempio 4.1 Ad esempio, considerata la matrice

1 2
 0 1
A=
 3 0
1 −1

3
1 

3 
0
abbiamo che lo spazio delle righe R(A) è il sottospazio di R3 generato da (1, 2, 3), (0, 1, 1),
(3, 0, 3) e (1, −1, 0):
R(A) = h(1, 2, 3), (0, 1, 1), (3, 0, 3), (1, −1, 0)i ⊂ R3
mentre lo spazio delle colonne C(A) è il sottospazio di R4 generato da (1, 0, 3, 1), (2, 1, 0, −1) e
(3, 1, 3, 0):
C(A) = h(1, 0, 3, 1), (2, 1, 0, −1), (3, 1, 3, 0)i ⊂ R4
Definizione 4.1.4 Se Span(v1 , . . . , vk ) = Rn , allora l’insieme {v1 , . . . , vk } è detto sistema di
generatori per Rn .
Siano v1 , . . . , vk ennuple di Rn ; ricordando la (4.1) osserviamo che, se A è la matrice n × k
che ha sulle colonne le ennuple v1 , . . . , vk e λ è la matrice colonna k × 1 i cui elementi sono i λi ,
allora la ennupla b appartiene a Span(v1 , . . . , vk ) quando il sistema
Aλ = b
è compatibile. In particolare {v1 , . . . , vk } è un sistema di generatori se il sistema Aλ = b è
compatibile per ogni b ∈ Rn . Ciò accade se e solo se la matrice A ha rango n; infatti, se cosı̀ non
fosse, sarebbe sempre possibile trovare una ennupla b per la quale rg(A) 6= rg(A | b). Quindi:
Proposizione 4.1.2 Un insieme di ennuple {v1 , . . . , vk } di Rn è un sistema di generatori se e
solo se il rango della matrice A che ha sulle colonne le ennuple v1 , . . . , vk è uguale a n.
In particolare un sistema di generatori di Rn ha almeno n elementi.
Esempio 4.2 In R3 consideriamo le terne v1 = (1, 0, −1), v2 = (2, 1, 0), v3 = (−1, 1, 3) e
v4 = (0, −1, −2). Vogliamo stabilire se l’insieme {v1 , . . . , v4 } è un sistema di generatori per R3 .
Costruiamo dunque la matrice A che ha sulle colonne le componenti di v1 , . . . , v4 e calcoliamone
il rango:




1 2 −1 0
1 2 1 0
−→
 0 1 1 −1  E31 (1)  0 1 1 −1 
−1 0 3 −2
0 2 2 −2


1 2 1 0
−→
E32 (−2)  0 1 1 −1 
0 0 0 0
Il rango della matrice è 2, che è minore di n = 3, e quindi l’insieme considerato non è un sistema
di generatori per R3 .
Capitolo 4. Spazi vettoriali
50
Abbiamo visto che le soluzioni di un sistema omogeneo in n incognite formano un sottospazio
vettoriale di Rn . Vogliamo ora mostrare che ogni sottospazio del tipo Span(v1 , . . . , vk ) è lo spazio
delle soluzioni di un sistema omogeneo.
Una ennupla x appartiene a Span(v1 , . . . , vk ) se e solo se si può scrivere come combinazione
lineare di v1 , . . . , vk , cioè se il sistema Aλ = x è compatibile. Per il Teorema di Rouché-Capelli
sappiamo che questo accade se e solo se il rango di A è uguale al rango di (A | x).
Consideriamo quindi la matrice ottenuta accostando ad A la colonna delle incognite, troviamone una forma a scalini e imponiamo che rg(A) = rg(A | x). Questo ci darà le equazioni del
sistema il cui spazio di soluzioni è Span(v1 , . . . , vk ).
Esempio 4.3 In R4 consideriamo il sottospazio U generato dalle ennuple v1 = (1, 0, 2, 1) e
v2 = (2, 1, 0, −1), e cerchiamo di descriverlo come spazio di soluzioni di un sistema lineare.
Consideriamo quindi la matrice (A | x) e troviamone una forma a scalini:




1 2
x
1 2 x
−→
 0 1 y  E31 (−2)  0 1
y 




 2 0 z  E41 (−1)  0 −4 z − 2x 
1 −1 w
0 −3 w − x

1
E32 (4) 
 0
E42 (3)  0
0
−→

2
x

1
y

0 z − 2x + 4y 
0 w − x + 3y
Le condizioni per cui rg(A) = rg(A | x) sono:
(
2x − 4y − z
x − 3y − w
che è il sistema lineare cercato.
4.1.2
=0
=0
Dipendenza e indipendenza lineare
Definizione 4.1.5 Un insieme di ennuple {v1 , . . . , vk } si dice linearmente dipendente se
esistono scalari λ1 , . . . , λk non tutti nulli tali che
k
∑ λi vi = 0.
i=1
In caso contrario, cioè se
k
∑ λ i vi = 0
=⇒
λi = 0
∀i = 1, . . . , k
i=1
l’insieme si dice linearmente indipendente. In altre parole l’insieme {v1 , . . . , vk } si dice
linearmente indipendente se l’unico modo di scrivere la ennupla nulla come combinazione
lineare di v1 , . . . , vk consiste nel prendere tutti i coefficienti della combinazione lineare uguali
a zero.
Osservazione 4.1.3 Se un insieme di ennuple contiene la ennupla nulla, allora l’insieme è
linearmente dipendente.
Dimostrazione. Sia {v1 = 0, v2 , . . . , vk } l’insieme considerato. Scegliendo λ1 = 1 e λi = 0 per
ogni i = 2, . . . , k, vediamo che possiamo scrivere la ennupla nulla come combinazione lineare
dei vettori dell’insieme con coefficienti non tutti nulli.
4.1 Lo spazio Rn
51
Osservazione 4.1.4 Se l’insieme di ennuple {v1 , . . . , vk } con k ≥ 2 è linearmente dipendente1 ,
allora (almeno) una delle ennuple dell’insieme può essere scritta come combinazione lineare
delle altre, cioè ∃ i ∈ {1, . . . , k} tale che vi ∈ Span(v1 , . . . , vi−1 , vi+1 , . . . , vk ).
Dimostrazione. Poiché {v1 , . . . , vk } è un insieme dipendente esiste una combinazione lineare di
v1 , . . . , vk , con coefficienti non tutti nulli, uguale al vettore nullo:
0 = λ1 v1 + λ2 v2 + · · · + λk vk .
Sia i un indice tale che λi 6= 0; portiamo λi vi a primo membro e dividiamo per −λi , ottenendo:
vi = −
λ1
λi − 1
λi+1
λk
v1 + · · · −
vi−1 −
vi+1 − · · · − vk .
λi
λi
λi
λi
Corollario 4.1.5 Se l’insieme di ennuple {v1 , . . . , vk } è linearmente dipendente allora ∃ i ∈
{1, . . . , k} tale che Span(v1 , . . . , vi−1 , vi+1 , . . . , vk ) = Span(v1 , . . . , vk ).
Siano v1 , . . . , vk ennuple di Rn ; ricordando la (4.1) osserviamo che, se A è la matrice n × k
che ha sulle colonne le ennuple v1 , . . . , vk e λ è la matrice colonna k × 1 i cui elementi sono i λi ,
allora l’insieme {v1 , . . . , vk } è linearmente indipendente quando
Aλ = 0
=⇒
λ=0
cioè quando il sistema A λ = 0 ha solo la soluzione nulla. Per il Teorema di Rouché-Capelli
questo accade se il rango della matrice A è uguale al numero k delle colonne, cioè se in una
forma a scala della matrice A ogni colonna contiene un pivot.
Proposizione 4.1.6 Un insieme di ennuple {v1 , . . . , vk } di Rn è linearmente indipendente se
e solo se il rango della matrice A che ha sulle colonne le ennuple v1 , . . . , vk è uguale a k.
In particolare un insieme linearmente indipendente in Rn ha al massimo n elementi.
Se il sistema Aλ = 0 ha soluzioni non banali, allora l’insieme {v1 , . . . , vk } è linearmente
dipendente. In particolare i vettori che corrispondono alle colonne senza pivot di una forma
a scalini di A possono essere scritti come combinazioni lineari degli altri. La forma ridotta
per righe di A fornisce i coefficienti della combinazione lineare, come mostrato nel prossimo
esempio.
Esempio 4.4 In R4 consideriamo le quaterne
v1 = (1, 0, −1, 0), v2 = (2, 1, 0, 1), v3 = (−1, 1, 3, 1).
Vogliamo stabilire se l’insieme {v1 , v2 , v3 } è linearmente indipendente e, in caso negativo, trovare
le relazioni tra i vettori considerati. Costruiamo dunque la matrice A che ha sulle colonne le
componenti di v1 , v2 , v3 e calcoliamone il rango:

1
 0

 −1
0
1 Un


2 −1
−→ 
1 1 
 E31 (1) 


0 3
1 1
1
0
0
0

2 −1
−→
1 1 
 E32 (−2)
2 2  E42 (−1)
1 1

1
 0

 0
0

2 −1
1 1 

0 0 
0 0
insieme costituito da una sola ennupla è dipendente se e solo se la ennupla è la ennupla nulla.
Capitolo 4. Spazi vettoriali
52
Il rango della matrice è 2, ed è quindi minore del numero dei vettori. Pertanto l’insieme
{v1 , v2 , v3 } è linearmente dipendente. Continuiamo la riduzione per trovare la forma ridotta per
righe.




1 2 −1
1 0 −3
 0 1 1  −→  0 1 1 




 0 0 0  E12 (−2)  0 0 0 
0 0 0
0 0 0
La terza colonna non contiene pivot, e quindi v3 può essere espresso come combinazione lineare
di v1 e v2 . I coefficienti di questa combinazione lineare sono gli elementi della colonna stessa:
v3 = −3v1 + v2 .
Di particolare rilevanza sono gli insiemi di ennuple che sono sia linearmente indipendenti
che sistemi di generatori, di cui ci occuperemo più diffusamente nel capitolo 6.
Definizione 4.1.6 Un insieme (ordinato) di ennuple B = {b1 , . . . , bk } è detto base di Rn se
è un sistema di generatori linearmente indipendente.
Combinando quanto visto nelle Proposizioni 4.1.2 e 4.1.6 possiamo concludere che
Proposizione 4.1.7 Un insieme di ennuple {v1 , . . . , vk } di Rn è una base se e solo k = n e il
rango della matrice A che ha sulle colonne le ennuple v1 , . . . , vn è uguale a n.
Una delle proprietà fondamentali delle basi è la seguente:
Proposizione 4.1.8 Sia {v1 , . . . , vn } una base di Rn . Allora ogni v ∈ Rn si scrive in modo
unico come combinazione lineare di v1 , . . . , vn .
Dimostrazione. Dobbiamo verificare che, se A è la matrice n × n che ha sulle colonne le ennuple
v1 , . . . , vn e λ è la matrice colonna n × 1 i cui elementi sono i coefficienti della combinazione
lineare allora ∀ b ∈ Rn il sistema lineare
Aλ = b
è compatibile ed ha un’unica soluzione. Poiché il rango di A è uguale ad n questo segue dal
Teorema di Rouché-Capelli.
4.2
Spazi vettoriali
Vogliamo ora generalizzare quanto visto nel caso di Rn , introducendo il concetto astratto di
spazio vettoriale. In questo modo potremo trattare in maniera uniforme i vettori geometrici, le
ennuple, le matrici di tipo m × n e molti altri oggetti matematici.
4.2.1
Gruppi e campi
Definizione 4.2.1 Un gruppo è un insieme G nel quale è definita un’operazione ∗, cioè una
funzione ∗ : G × G → G che associa ad una coppia di elementi a, b ∈ G un elemento a ∗ b ∈ G
che soddisfa le seguenti proprietà:
i) è associativa, cioè (a ∗ b) ∗ c = a ∗ (b ∗ c) ∀a, b, c ∈ G;
ii) esiste un elemento neutro e ∈ G tale che a ∗ e = e ∗ a = a ∀a ∈ G;
iii) ogni elemento a ∈ G ha un elemento simmetrico, cioè un elemento b ∈ G tale che
a ∗ b = b ∗ a = e.
4.2 Spazi vettoriali
53
Un gruppo (G, ∗) è detto commutativo o abeliano se a ∗ b = b ∗ a
∀a, b ∈ G.
Esempi 4.2 Vediamo ora alcuni esempi di gruppi:
1. (Z, +), (Q, +), (R, +) e (C, +) sono gruppi abeliani rispetto alla somma; l’elemento
neutro è lo 0; il simmetrico di un elemento a, detto opposto, è −a.
2. I vettori geometrici nello spazio sono un gruppo abeliano rispetto alla somma. L’elemento
−
→
neutro è il vettore nullo, cioè la classe di equivalenza dei vettori applicati AA, e il simmetrico di un vettore v è il vettore opposto, cioè il vettore che ha stessa direzione e modulo,
ma verso opposto.
3. Le matrici di un ordine fissato m × n sono un gruppo abeliano rispetto alla somma;
l’elemento neutro è la matrice nulla di ordine m × n, e il simmetrico di una matrice A è la
matrice opposta −A.
4. Le matrici quadrate invertibili di un ordine fissato n sono un gruppo non abeliano rispetto
al prodotto righe per colonne, l’elemento neutro è la matrice identica di ordine n e il
simmetrico di una matrice A è la matrice inversa A−1 .
5. (Q \ {0}, ·), (R \ {0}, ·) e (C \ {0}, ·) sono gruppi abeliani rispetto al prodotto; l’elemento
neutro è 1 e il simmetrico dell’elemento a, detto inverso, è 1/a; è necessario togliere lo 0,
perché tale elemento non ha un simmetrico.
Gli esempi appena visti mostrano che gli insiemi Q, R, C hanno una struttura particolarmente
ricca, in quanto dotati di due operazioni diverse; tali insiemi sono esempi di campi.
Definizione 4.2.2 Un campo K è un insieme dotato di due operazioni, + e ·, tale che
i) (K, +) è un gruppo abeliano;
ii) Indicato con 0 l’elemento neutro dell’operazione +, (K \ {0}, ·) è un gruppo abeliano;
iii) Vale la proprietà distributiva, cioè
a · (b + c) = a · b + a · c
4.2.2
∀a, b, c ∈ K.
Definizione ed esempi
Definizione 4.2.3 Uno spazio vettoriale reale è un insieme V , i cui elementi sono detti
vettori, su cui sono definiti la somma tra elementi di V e il prodotto tra un elemento di V e un
numero reale, in modo che valgano le seguenti proprietà:
1.
2.
3.
4.
5.
6.
7.
8.
Comunque scelti due vettori v, w si ha v + w = w + v;
Comunque scelti tre vettori u, v, w si ha (u + v) + w = u + (v + w);
Esiste un vettore, denotato con 0, tale che, per ogni vettore v si ha v + 0 = v;
Ogni vettore v ha un vettore opposto −v tale che v + (−v) = 0.
Comunque scelti due scalari λ , µ ed un vettore v si ha λ (µv) = (λ µ)v;
Comunque scelto un vettore v si ha 1v = v;
Comunque scelti due scalari λ , µ ed un vettore v si ha (λ + µ)v = λ v + µv;
Comunque scelti uno scalare λ e due vettori v, w si ha λ (v + w) = λ v + λ w.
Notazione 4.1. Come nella definizione indicheremo abitualmente gli elementi di uno spazio
vettoriale, detti vettori, con lettere in grassetto, e l’elemento neutro rispetto alla somma, detto
vettore nullo, con 0.
Osservazione 4.2.1 Più in generale, è possibile definire uno spazio vettoriale su un campo K,
richiedendo che la seconda operazione sia tra elementi di V ed elementi di K, e per essa valgano
le proprietà sopra enunciate.
Capitolo 4. Spazi vettoriali
54
Esempi 4.3 Abbiamo già incontrato alcuni esempi di spazi vettoriali reali:
1. L’insieme V 3 dei vettori geometrici, con le operazioni di somma e prodotto per uno scalare
definite in 1.1.3 e 1.1.5.
2. Le matrici di ordine m × n fissato a coefficienti in R, con le operazioni di somma e prodotto
per uno scalare definite in 3.2.1 e 3.2.4.
Esempi 4.4 Altri esempi di spazi vettoriali reali:
1. R[x], l’insieme dei polinomi a coefficienti reali in una variabile, con la somma e il prodotto
per un numero reale definite nel modo usuale.
2. Rd [x], l’insieme dei polinomi a coefficienti reali in una variabile di grado al più d, con la
somma e il prodotto per un numero reale definite nel modo usuale.
4.2.3
Sottospazi
I sottospazi di uno spazio vettoriale reale vengono definiti in modo analogo al caso di Rn :
Definizione 4.2.4 Sia V uno spazio vettoriale reale; un sottoinsieme non vuoto U ⊆ V si
dice sottospazio se è chiuso rispetto alle operazioni di V , cioè se, ∀u1 , u2 ∈ U e ∀λ ∈ R si ha
u1 + u2 ∈ U
λ u1 ∈ U.
Equivalentemente si può richiedere che ∀u1 , u2 ∈ U e ∀λ , µ ∈ R
λ u1 + µu2 ∈ U.
Anche in questo caso, se U ⊆ V è un sottospazio, allora 0 ∈ U, e un sottospazio che contiene
almeno un vettore non nullo contiene infiniti vettori.
N.B.
Per definizione un sottospazio U di uno spazio vettoriale V è esso stesso uno spazio
vettoriale, con le operazioni di V .
Esempi 4.5 Sia V = M2 (R).
1. Le matrici tali che la somma degli elementi della diagonale principale è nulla sono un
sottospazio. Verificarlo per esercizio.
2. Le matrici invertibili non sono un sottospazio, perché non contengono la matrice nulla.
3. Le matrici non invertibili non sono un sottospazio; infatti, prendendo
1 0
0 0
A=
B=
0 0
0 1
si ha che A e B non sono invertibili, ma A + B è invertibile.
Esempi 4.6 Sia V = R[x].
1. I polinomi p(x) tali che p(1) = 0 sono un sottospazio. Verificarlo per esercizio.
2. I polinomi di grado d > 0 non sono un sottospazio. Infatti, se p(x) = xd e q(x) = −xd + 1
la loro somma non è un polinomio di grado d.
Le definizioni di combinazione lineare e di sottospazio generato da un insieme di vettori
sono del tutto analoghe a quanto visto per Rn :
Definizione 4.2.5 Sia V uno spazio vettoriale reale. Dati k vettori v1 , . . . , vk ∈ V e k scalari
λ1 , . . . , λk ∈ R, il vettore
k
v = λ1 v1 + λ2 v2 + · · · + λk vk = ∑ λi vi
i=1
è detto combinazione lineare di v1 , . . . , vk . L’insieme di tutte le combinazioni lineari di
v1 , . . . , vk è un sottospazio di V , che si indica con hv1 , . . . , vk i o con Span(v1 , . . . , vk ) e si
chiama sottospazio generato da v1 , . . . , vk .
4.2 Spazi vettoriali
55
A differenza del caso di Rn , non è detto che sia sempre possibile trovare un numero finito di
vettori che costituiscano un sistema di generatori per V :
Definizione 4.2.6 Sia V uno spazio vettoriale reale; se esistono v1 , . . . , vk con la proprietà
che V = hv1 , . . . , vk i, cioè ogni vettore di V si può scrivere come combinazione lineare di
v1 , . . . , vk , allora V è detto finitamente generato e l’insieme {v1 , . . . , vk } è detto sistema di
generatori per V .
Esempi 4.7 Vediamo un esempio di spazio vettoriale che è finitamente generato ed un esempio
di spazio vettoriale che non lo è.
1. Rn è finitamente generato: un sistema di generatori è dato dalle ennuple e1 = (1, 0, . . . , 0),
e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1).
2. R[x] non è finitamente generato: siano p1 (x), p2 (x), . . . , pm (x) un numero finito di polinomi, e sia M il massimo dei loro gradi. Sia q(x) un polinomio di grado M + 1; allora
q(x) 6∈ hp1 (x), . . . pm (x)i.
4.2.4
Dipendenza e indipendenza lineare
Del tutto analoga è anche la definizione di dipendenza e indipendenza lineare:
Definizione 4.2.7 Sia V uno spazio vettoriale reale. Un insieme di vettori {v1 , . . . , vk } ⊂ V
si dice linearmente dipendente se esistono scalari λ1 , . . . , λk non tutti nulli tali che
k
∑ λi vi = 0.
i=1
In caso contrario, cioè se
k
∑ λ i vi = 0
=⇒
λi = 0
∀i = 1, . . . , k
i=1
l’insieme si dice linearmente indipendente. In altre parole l’insieme {v1 , . . . , vk } si dice
linearmente indipendente se l’unico modo di scrivere il vettore nullo come combinazione
lineare di v1 , . . . , vk è prendere tutti i coefficienti della combinazione lineare uguali a zero.
Continuano a valere le proprietà già viste per Rn :
Osservazione 4.2.2 Se un insieme di vettori contiene il vettore nullo, allora l’insieme è
linearmente dipendente.
Osservazione 4.2.3 Se l’insieme di vettori {v1 , . . . , vk } è linermente dipendente e k ≥ 2, allora
(almeno) uno dei vettori dell’insieme può essere scritto come combinazione lineare degli altri,
cioè ∃ i ∈ {1, . . . , k} tale che vi ∈ hv1 , . . . , vi−1 , vi+1 , . . . , vk i.
Corollario 4.2.4 Se l’insieme di vettori {v1 , . . . , vk } è linermente dipendente allora ∃ i ∈
{1, . . . , k} tale che hv1 , . . . , vi−1 , vi+1 , . . . , vk i = hv1 , . . . , vk i.
Analoga è anche la definizione di base:
Definizione 4.2.8 Sia V uno spazio vettoriale reale finitamente generato. Un insieme (ordi-
nato) di vettori B = {b1 , . . . , bn } è detto base di V se è un sistema di generatori linearmente
indipendente.
Vale una proprietà analoga a quella vista per il caso Rn :
Proposizione 4.2.5 Sia V uno spazio vettoriale reale e {v1 , . . . , vn } una base di V . Allora
ogni v ∈ V si scrive in modo unico come combinazione lineare di v1 , . . . , vn .
Capitolo 4. Spazi vettoriali
56
4.3
Esercizi riassuntivi
Esercizio 4.1
1) Determinare per quali valori del parametro reale k il seguente insieme di vettori di R3
è un sistema di generatori:
v1 = (1, 0, 1),
v2 = (2, −1, 1),
v3 = (3, −1, k),
v4 = (k − 2, −1, −1)
2) Esiste qualche valore di k per il quale i vettori dati costituiscono un insieme linearmente
indipendente?
3) Per k = 2 si scriva il sottospazio generato dai vettori v1 , v2 , v3 , v4 come insieme delle
soluzioni di un sistema omogeneo.
Consideriamo la matrice A che ha sulle colonne i vettori v1 , v2 , v3 e v4 e
riduciamola in forma
 a scala:



1 2
3 k−2
1 2
3
k−2
−→
−1 
A =  0 −1 −1 −1  E31 (−1)  0 −1 −1
1 1
k
−1
0 −1 k − 3 1 − k


1 2
3
k−2
−→
−1 
E32 (−1)  0 −1 −1
0 0 k−2 2−k
Svolgimento
Se k 6= 2 la matrice ha rango 3 e i vettori sono un sistema di generatori, se invece k = 2 la matrice
ha rango 2 e i vettori non sono un sistema di generatori.
I vettori non possono essere un insieme linearmente indipendente, perché ogni insieme
linearmente indipendente di R3 contiene al più 3 vettori, per la Proposizione 4.1.6.
Sia x = (x1 , x2 , x3 ); consideriamo la matrice (A | x), per k = 2 e riduciamola a scalini




1 2
3
0
1 2
3
0 x1
x1
−→
x2 
A =  0 −1 −1 −1 x2  E31 (−1)  0 −1 −1 −1
1 1
2 −1 x3
0 −1 −1 −1 x3 − x1


1 2
3
0
x1
−→

x2
E32 (−1)  0 −1 −1 −1
0 0
0
0 x3 − x1 − x2
La condizione da imporre è che rg(A) = rg(A | x), e quindi, per otteniamo
x3 − x1 − x2 = 0
Risposte: 1)
Per k 6= 2
3) x3 − x1 − x2 = 0
2) No
∗∗∗
Esercizio 4.2
1) Determinare per quali valori del parametro reale k il seguente insieme di vettori di R5
è linearmente dipendente:
v1 = (0, 1, −1, 0, 1),
v2 = (−1, 2, −3, 0, 0),
v3 = (1, 0, 1, 0, k).
2) Esistono valori di k per i quali i vettori dati sono un sistema di generatori di R5 ?
3) Si scriva il sottospazio generato dai vettori v1 , v2 , v3 come insieme delle soluzioni di
un sistema omogeneo, in dipendenza del parametro k.
4.3 Esercizi riassuntivi
57
Svolgimento Consideriamo la matrice A che ha sulle colonne i vettori v1 , v2 , v3 e riduciamola
in forma a scala:




A=


0
1
−1
0
1

−1 1
2 0 
 S−→
 12
−3 1 
S
0 0  45
0 k

−→
E32 (−1)
E42 (−2)






1
0
0
0
0







2
−1
0
0
0
1
0
−1
1
0
0
1
0
k−2
0


2 0
1
 0
−1 1 
 E −→

 31 (1) 
−3 1 
 0
 E (−1) 
 0
0 k  41
0 0
0




 −→ 


 S34 




1
0
0
0
0
2
−1
0
0
0
0
1
k−2
0
0

2 0
−1 1 


−1 1 

−2 k 
0 0







Se k 6= 2 la matrice ha rango 3 e i vettori sono linearmente indipendenti, se invece k = 2 la
matrice ha rango 2 e i vettori sono linearmente dipendenti.
I vettori non possono essere un sistema di generatori, perché ogni sistema di generatori di R5
contiene almeno 5 vettori, per la Proposizione 4.1.2.
Sia x = (x1 , x2 , . . . , x5 ); consideriamo la matrice (A | x) e riduciamola a scalini




A=


0 −1 1
1
2 0
−1 −3 1
0
0 0
1
0 k

−→
E32 (−1)
E42 (−2)






1
0
0
0
0
x1
x2
x3
x4
x5
2
−1
0
0
0


 −→
S
 12

 S45







0
1
0
k−2
0
x2
x1
x2 + x3 − x1
x5 − x2 − 2x1
x4
1
0
−1
1
0
2 0
−1 1
−3 1
0 k
0 0

x2
x1
x3
x5
x4


 −→ 
 E (1) 
 31



 E41 (−1) 





 −→ 


 S34 




1
0
0
0
0
2
−1
0
0
0
1
0
0
0
0
0
1
k−2
0
0
2 0
−1 1
−1 1
−2 k
0 0
x2
x1
x2 + x3
x5 − x2
x4
x2
x1
x5 − x2 − 2x1
x2 + x3 − x1
x4














La condizione da imporre è che rg(A) = rg(A | x), e quindi, per k 6= 2 otteniamo
(
x1 − x2 − x3 = 0
x4
=0
mentre, per k = 2 otteniamo


2x1 + x2 − x5
x1 − x2 − x3


x4
Risposte: 1)
Per k = 2
2) No
=0
=0
=0


2x1 + x2 − x5
3) x1 − x2 − x3


x4
=0
=0
=0
Capitolo 4. Spazi vettoriali
58
Esercizio 4.3 Si considerino i polinomi
p1 (x) = x2 + 1,
p2 (x) = 2x2 − x + 3,
p3 (x) = −x2 + 2x − 3,
p4 (x) = 3x − 4.
1) Scrivere, se possibile, p3 (x) come combinazione lineari di p1 (x) e p2 (x).
2) Ripetere l’esercizio con p4 (x) al posto di p3 (x).
Svolgimento Dobbiamo stabilire se esistono numeri reali λ1 e λ2 tali che
λ1 p1 (x) + λ2 p2 (x) = p3 (x),
uguaglianza che, inserendo i polinomi dati, diventa
λ1 (x2 + 1) + λ2 (2x2 − x + 3) = −x2 + 2x − 3
(λ1 + 2λ2 )x2 − λ2 x + λ1 + 3λ2 = −x2 + 2x − 3.
Uguagliando i coefficienti dei monomi che hanno lo stesso grado troviamo


λ1 + 2λ2 = −1
−λ2
=2


λ1 + 3λ2 = −3
mediante il consueto procedimento:






1 2 −1
1 2 −1
1 2 −1
−→
−→
 0 −1 2  E31 (−1)  0 −1 2  E32 (1)  0 −1 2 
1 3 −3
0 1 −2
0 0
0




1 2 −1
1 0 3
−→
D2 (−1)  0 1 −2  E12 (−2)  0 1 −2 
0 0 0
0 0 0
−→
Abbiamo trovato la soluzione λ1 = 3, λ2 = −2, quindi possiamo scrivere
p3 (x) = 3p1 (x) − 2p2 (x).
Ripetendo l’esercizio con p4 (x), con analogo procedimento troviamo il sistema


λ1 + 2λ2 = 0
−λ2
=3


λ1 + 3λ2 = −4
Procedendo con la riduzione troviamo






1 2
0
1 2
0
1 2
0
−→
−→
 0 −1 3  E31 (−1)  0 −1 3  E32 (1)  0 −1 3 
1 3 −4
0 1 −4
0 0 −1
Questo sistema non è compatibile, quindi p4 (x) non è combinazione lineare di p1 (x) e p2 (x).
Risposte: 1)
p3 (x) = 3p1 (x) − 2p2 (x).
2)
Non è possibile.
4.3 Esercizi riassuntivi
59
Esercizio 4.4 Si considerino le matrici
1 1
0 0
0 1
−1 2
3 0
1 0
e si mostri che sono un insieme linearmente indipendente.
Svolgimento Dobbiamo mostrare che dall’uguaglianza
λ1
1 1
0 0
+ λ2
0 1
−1 2
+ λ3
3 0
1 0
=
0 0
0 0
segue che λ1 = λ2 = λ3 = 0. Svolgendo i calcoli troviamo
λ1 λ1
0
λ2
3λ3 0
0 0
+
+
=
0 0
−λ2 2λ2
λ3 0
0 0
λ1 + 3λ3 λ1 + λ2
−λ2 + λ3
2λ2
Troviamo quindi il sistema lineare omogeneo


λ1 + 3λ3



λ + λ
1
2

−λ2 + λ3



2λ
2
=
0 0
0 0
=0
=0
=0
=0
che ha solo la soluzione nulla (dall’ultima equazione abbiamo λ2 = 0 che, sostituito nella seconda
e nella terza ci dà λ1 = 0 e λ3 = 0.
Risposta 1 In questo caso, evidentemente, la risposta è lo svolgimento.
5. Determinante
5.1
5.1.1
Determinante
Definizione e proprietà
Definizione 5.1.1 Data una matrice quadrata A ∈ Mn (R), e due indici j, k ∈ {1, . . . , n} indi-
cheremo con A jk la matrice quadrata di ordine n − 1 ottenuta da A cancellando la riga j e la
colonna k.
Esempio 5.1


1 2 0
A =  0 1 −1 
−1 1 2
A12 =
0 −1
−1 2
A33 =
1 2
0 1
Definizione 5.1.2 il determinante è una funzione che, a una matrice quadrata A = [ai j ],
A ∈ Mn (R) associa un numero reale.
Se n = 1 definiamo det A = a11 .
Se n ≥ 2, definiamo
n
det A = ∑ (−1)i+1 ai1 det Ai1 .
i=1
Lo scalare a0i j = (−1)i+ j det Ai j viene chiamato cofattore o complemento algebrico dell’elemento ai j .
Osservazione 5.1.1 E’ immediato verificare che il determinante di una matrice 2 × 2 è dato da
det A = a11 a22 − a21 a12 .
Esempio 5.2 Vediamo un esempio di calcolo di un determinante di una matrice 3 × 3:


1 2 0
1 −1
2 0
2 0


0 1 −1 = 1 · det
det
− 0 · det
− 1 · det
=
1 2
1 2
1 −1
−1 1 2
= (2 + 1) − (−2) = 5
Capitolo 5. Determinante
62
Osservazione 5.1.2 Se la matrice A è triangolare superiore (Cf. Definizione 3.3.1) allora
det A = a11 det A11 , in quanto ai1 = 0 per i ≥ 2. Osservando che la matrice A11 è pure triangolare
superiore e iterando il ragionamento otteniamo che
det A = a11 a22 . . . ann ,
cioè che il determinante di una matrice triangolare superiore è uguale al prodotto degli elementi
sulla diagonale principale. In particolare il determinante della matrice identica è 1.
Abbiamo definito il determinante in modo induttivo, utilizzando la prima colonna della
matrice e i suoi complementi algebrici; il seguente risultato mostra che il determinante può
essere calcolato utilizzando qualsiasi riga o qualsiasi colonna (si dice sviluppando il determinante
secondo la riga i o la colonna j).
Teorema 5.1.3 — Teorema di Laplace. Sia A una matrice quadrata di ordine n; per ogni
coppia di indici (i, j)
n
n
det A = ∑ (−1)i+ j ai j det Ai j =
i=1
∑ (−1)i+ j ai j det Ai j .
j=1
Esempio 5.3 Calcoliamo il determinante della matrice


1 2 0
 2 1 0 
−3 1 2
secondo la Definizione 5.1.2, e poi sviluppando secondo la terza colonna (scelta perché contiene
due zeri).


1 2 0
1 0
2 0
2 0
1C


2 1 0 = 1 · det
det
− 2 · det
− 3 · det
=
1 2
1 2
1 0
−3 1 2
= 2 − 2 · 4 − 3 · 0 = −6.


1 2 0
2
1
1
2
1
2
3C
det  2 1 0  = 0 · det
− 0 · det
+ 2 · det
=
−3 1
−3 1
2 1
−3 1 2
= 0 − 0 + 2 · (1 − 4) = −6.
Osservazione 5.1.4 Dal Teorema di Laplace segue immediatamente che, se una matrice ha una
riga o una colonna di zeri, allora il suo determinante è nullo.
Osservazione 5.1.5 Dal Teorema di Laplace segue anche che il determinante di una matrice A
e della sua matrice trasposta AT sono uguali:
det A = det AT .
Un altro importante risultato riguarda il determinante del prodotto di due matrici:
5.1 Determinante
63
Teorema 5.1.6 — Teorema di Binet. Siano A e B due matrici quadrate di ordine n; allora
det AB = det A det B.
Corollario 5.1.7 Se A è una matrice invertibile, con inversa A−1 , allora det A−1 = 1/ det A.
Dimostrazione. Segue dal fatto che AA−1 = I, dal Teorema di Binet e dal fatto che det I = 1.
5.1.2
Determinante e operazioni elementari
Utilizzando il Teorema di Laplace è possibile calcolare il determinante delle matrici delle
operazioni elementari. Si ha che
det(Si j ) = −1
det(Di (λ )) = λ
det(Ei j (µ)) = 1
Da ciò segue, usando il Teorema di Binet e ricordando che le operazioni elementari
corrispondono a moltiplicazioni per le matrici sopra elencate che:
Proposizione 5.1.8 [Proprietà fondamentali del determinante]
1. Se la matrice B è ottenuta dalla matrice A scambiando due righe allora det B = − det A.
2. Se la matrice B è ottenuta dalla matrice A moltiplicando una riga di A per lo scalare λ
allora det B = λ det A.
3. Se la matrice B è ottenuta dalla matrice A sommando a una riga di A un multiplo di
un’altra riga di A allora det B = det A.
Questa Proposizione ci offre un modo alternativo di calcolare il determinante: data una
matrice A riduciamola in forma a scalini utilizzando solo le operazioni del tipo Si j e Ei j (µ); se
A0 è la forma a scalini si avrà
det A = (−1)s det A0 ,
ove s è il numero di operazioni di tipo Si j utilizzate nella riduzione. Essendo A0 una matrice
triangolare superiore, il calcolo del suo determinante è immediato.
Esempio 5.4 Calcoliamo il determinante della matrice


1
1
0 2
 1
1
0 4 

A=
 −4 −1 −1 0 
1
0
1 2
Riduciamo quindi la matrice in forma a scala utilizzando solo operazioni del tipo Si j e Ei j (µ):
−→



1 1
0 2
1 1
0 2
E21 (−1) 
 −→  0 −1 1 0
0
0
0
2


E31 (4) 
 0 3 −1 8  S24  0 3 −1 8
E41 (−1)
0 −1 1 0
0 0
0 2



1 1 0 2
 −→  0 −1 1 0 
 E32 (3) 


 0 0 2 8 
0 0 0 2
Il determinante della matrice a scalini è il prodotto degli elementi della diagonale principale,
cioè −4. Nella riduzione abbiamo operato uno scambio, quindi il determinante della matrice A è
det A = 4.
Capitolo 5. Determinante
64
5.1.3
Determinante, rango e invertibilità
Abbiamo visto che le operazioni elementari lasciano inalterato il determinante o lo moltiplicano
per uno scalare diverso da zero. Pertanto il determinante di una matrice A è diverso da zero se e
solo se è diverso da zero il determinante di una forma a scalini della matrice A.
Inoltre, se A ∈ Mn (R) è una matrice a scalini, allora det A 6= 0 se e solo se rg(A) = n. Infatti
una matrice quadrata a scalini è sempre triangolare superiore, e gli elementi della diagonale sono
tutti diversi da zero se e solo se il numero dei pivot è n.
Possiamo quindi concludere, ricordando il Teorema 3.4.2 che
Proposizione 5.1.9 Sia A una matrice quadrata di ordine n; allora sono condizioni equivalenti:
1. Il determinante di A è diverso da zero;
2. Il rango di A è uguale a n;
3. A è una matrice invertibile.
Possiamo usare la Proposizione 5.1.9 per stabilire se un insieme {v1 , . . . , vn } di n ennuple
appartenenti a Rn è una base. Sappiamo (Cf. Proposizione 4.1.7) che ciò accade se e solo se il
rango della matrice quadrata A che ha sulle colonne le componenti di v1 , . . . , vn è uguale a n.
La Proposizione ci dice che rg(A) = n se e solo se det A 6= 0, quindi le ennuple {v1 , . . . , vn }
sono una base se e solo se il determinante di A è diverso da zero.
Esempio 5.5 Determinare per quali valori del parametro reale k i vettori
v1 = (1, 2, −2),
v2 = (1, 1, −3),
v3 = (3, 7, k − 6)
formano una base di R3 .
Costruiamo la matrice che ha sulle colonne le componenti dei vettori dati e calcoliamone il
determinante:


1
1
3
1
7
2
7
2
1
1R
1
7  = det
det  2
− det
+ 3 det
=
−3 k − 6
−2 k − 6
−2 −3
−2 −3 k − 6
k − 6 + 21 − 2k + 12 − 14 − 12 + 6 = −k + 1.
I vettori dati sono quindi una base se e solo se k 6= 1.
5.2
5.2.1
Applicazioni
Prodotto vettoriale
In questa sezione torniamo ad occuparci di vettori geometrici nello spazio, introducendo una
ulteriore operazione tra di essi, che vedremo essere possibile descrivere in coordinate in forma
semplice con l’utilizzo del determinante.
Definizione 5.2.1 Dati due vettori geometrici v e u in V 3 , il loro prodotto vettoriale è
il vettore nullo se i vettori sono paralleli o se uno dei due è nullo, altrimenti è il vettore
geometrico w = v × u tale che |w| = |v||u| sin ϑ ove ϑ è l’angolo (minore di π) formato da
due rappresentanti di v e u applicati in un medesimo punto, la cui direzione è la direzione
ortogonale a v e u, e il cui verso è dato dalla cosiddetta “regola della mano destra”, cioè,
puntando il pollice della mano destra nella direzione del primo vettore e l’indice nella
direzione del secondo, il medio dà il verso del prodotto.
Osservazione 5.2.1 Il modulo del prodotto vettoriale v × u è l’area del parallelogramma
individuato da v e u.
5.2 Applicazioni
65
Dimostrazione. Dalla figura possiamo osservare che, prendendo come base del parallelogramma
il lato individuato da v (di lunghezza pari al modulo di v), l’altezza è data da |w| sin ϑ .
D
C
w
B
e
H
v
A
Il prodotto vettoriale gode delle seguenti proprietà:
1.
2.
3.
4.
v × u = −u × v per ogni v, u ∈ V 3 ;
(λ v) × u = v × (λ u) = λ (v × u) per ogni v, u ∈ V 3 e ogni λ ∈ R;
(v + u) × w = v × w + u × w per ogni v, u, w ∈ V 3 ;
w × (v + u) = w × v + w × u per ogni v, u, w ∈ V 3 .
Usando la definizione è possibile calcolare direttamente il prodotto vettoriale tra i versori
degli assi:
i×i = 0
j×j = 0
k×k = 0
i×j = k
i × k = −j
j×k = i
Utilizzando queste formule si può dimostrare che il prodotto di due vettori v = (v1 , v2 , v3 ) e
u = (u1 , u2 , u3 ) è dato da
v × u = (v2 u3 − v3 u2 , v3 u1 − v1 u3 , v1 u2 − v2 u1 ).
(5.1)
Un modo semplice per calcolare il prodotto vettoriale senza dover ricordare la formula (5.1) è il
seguente: si consideri la matrice 3 × 3


i
j k
 v1 v2 v3 
u1 u2 u3
e si sviluppi il suo determinante lungo la prima riga:


i
j k
det  v1 v2 v3  = (v2 u3 − v3 u2 )i − (v1 u3 − v3 u1 )j + (v1 u2 − v2 u1 )k.
u1 u2 u3
I coefficienti di i, j, k sono le componenti del prodotto vettoriale.
Definizione 5.2.2 Dati tre vettori geometrici nello spazio, w, v, u, il loro prodotto misto è lo
scalare w · (v × u).
Utilizzando la definizione di prodotto scalare e la (5.1) è immediato trovare che il prodotto
misto può essere calcolato usando il determinante:


w1 w2 w3
w · (v × u) = det  v1 v2 v3 
u1 u2 u3
Capitolo 5. Determinante
66
In particolare il prodotto misto di tre vettori è nullo se e solo se l’insieme dei tre vettori è
linearmente dipendente.
Osservazione 5.2.2 Il modulo del prodotto misto w · (v × u) è il volume del parallelepipedo
individuato da w, v e u.
Dimostrazione. Dalla figura possiamo osservare che, prendendo come base del parelepipedo
il parallelogramma individuato da v e u (di area pari al modulo di v × u), l’altezza è data da
|w| cos ϕ, ove ϕ è l’angolo tra w e v × u.
w
φ
u
v
5.2.2
Applicazioni alla geometria
Vediamo come sia possibile utilizzare il determinante per trovare l’equazione cartesiana di un
piano. Abbiamo visto in 1.2.2 che, se P, R ed S sono tre punti del piano non allineati, e v, w sono
→
−
→ −
i vettori geometrici individuati dai vettori applicati PR e PS allora un punto Q = (x, y, z) sta sul
piano se e solo se esistono due numeri reali t ed s tali che
−→
PQ = tv + sw,
−→
cioè se e solo se i vettori PQ, v e w sono linearmente dipendenti. Tale condizione può essere
espressa dall’annullarsi del determinante della matrice


x − xP v1 w1
 y − yP v2 w2  .
z − zP v3 w3
Esempio 5.6 Determiniamo un’equazione cartesiana del piano π passante per i punti P =
−
→
(1, 3, 1), R = (2, 0, 0) e S = (0, 1, 1). Troviamo innanzitutto i vettori v = PR = (1, −3, −1)
−
→
e w = PS = (−1, −2, 0). Costruiamo la matrice appena descritta e imponiamo che il suo
determinante sia nullo:


x − 1 1 −1
y − 3 −3
x−1 1
3C
det  y − 3 −3 −2  = −1 det
+ 2 det
=
z − 1 −1
z − 1 −1
z − 1 −1 0
y − 3 − 3z + 3 − 2x + 2 − 2z + 2 = −2x + y − 5z + 4.
L’equazione del piano π cercato è quindi
2x − y + 5z = 4.
5.2 Applicazioni
67
Il determinante può anche essere utilizzato per stabilire se due rette nello spazio sono
complanari. Infatti date due rette r ed s con direzioni date dai vettori v e w e presi due punti
−→
qualsiasi P ∈ r e Q ∈ s le rette sono complanari se e solo se i vettori v, w e PQ sono linearmente
dipendenti.
Esempio 5.7 Stabilire se la retta r di equazioni y − z = 0, x − z = −1 e la retta s passante per
A = (2, 1, 0) e B = (1, 2, 0) sono complanari oppure sghembe.
Ponendo z = t otteniamo, per la retta r equazioni parametriche


x = −1 + t
y=t


z=t
e quindi la direzione di r è data dal vettore v = (1, 1, 1); la direzione di s è data dal vettore
−
→
−→
w = AB = (−1, 1, 0). Scegliamo poi P = (−1, 0, 0) e Q = A, ottenendo PQ = (3, 1, 0).
−→
Costruiamo ora la matrice che ha sulle colonne le componenti dei vettori v, w e PQ, e calcoliamone il determinante


1 −1 3
−1 3
3R


det 1 1 1 = det
= −4 6= 0;
1 1
1 0 0
concludiamo quindi che le due rette sono sghembe.
Il determinante può infine essere usato per trovare la direzione ortogonale a due rette non
parallele. Infatti date due rette r ed s con direzioni date dai vettori v e w non proporzionali il
prodotto vettoriale v × w è un vettore ortogonale a v e a w.
Esempio 5.8 Determiniamo equazioni parametriche per la retta perpendicolare alle rette r e s
le rette di equazioni cartesiane
(
(
x−z = 0
x+y+z = 0
r:
e r0 :
x + y − 2z = 0
2x − 2y = 0
e passante per il punto P = (−1, 2, 3).
Per prima cosa scriviamo equazioni parametriche per r ed s




x
=
t

x = −s/2
r: y= t
s : y = −s/2




z= t
z= s
e quindi la direzione di r è data dal vettore v = (1, 1, 1), mentre la direzione di r0 è data dal
vettore w = (−1/2, −1/2, 1). Troviamo ora il vettore v × w utilizzando il determinante:


i
j
k
3
3
1
1  = i − j,
v × w = det  1
2
2
−1/2 −1/2 1
quindi v × w = (3/2, 3/2, 0) e le equazioni parametriche della retta cercata sono


x = −1 + 3t/2
y = 2 + 3t/2


z= 3
Capitolo 5. Determinante
68
5.2.3
Determinanti e sistemi lineari
Vediamo ora un’applicazione della teoria del determinante ad un caso particolare di sistemi
lineari, i sistemi quadrati.
Definizione 5.2.3 Un sistema lineare di n equazioni in n incognite, è detto sistema lineare
quadrato di ordine n.
Teorema 5.2.3 — Teorema di Cramer. Dato un sistema lineare quadrato di ordine n, con
incognite x1 , . . . , xn , matrice dei coefficienti A e colonna dei termini noti b, tale che det A 6= 0,
allora il sistema ammette un’unica soluzione. Indicando con A j (b) la matrice che si ottiene
sostituendo alla colonna j della matrice A la colonna dei termini noti, tale soluzione è data da
x1 =
det A j (b)
det A1 (b)
det An (b)
,..., xj =
, . . . , xn =
.
det A
det A
det A
Dimostrazione. Sia I j (x) la matrice ottenuta dalla matrice identica sostituendo alla colonna j
la colonna delle incognite; si ha A I j (x) = A j (b) se e solo se Ax = b. Applicando il Teorema di
Binet,
det A j (b) = det(A I j (x)) = det A det I j (x) = x j det A,
da cui la tesi.
Esempio 5.9 Si consideri il sistema lineare

 x −y +2z = 2
−x
+z = 1

2x −y
= −1
e lo si risolva utilizzando il Teorema di Cramer. Le matrici da considerare sono


1 −1 2
A =  −1 0 1 
2 −1 0






2 −1 2
1
2 2
1 −1 2
0 1  A2 (b) =  −1 1 1  A3 (b) =  −1 0
1 
A1 (b) =  1
−1 −1 0
2 −1 0
2 −1 −1
Calcolando i determinanti troviamo
−1 2
1 −1
2R
det A = 1 det
− 1 det
= 2−1 = 1
−1 0
2 −1
−1 2
2 −1
2R
det A1 (b) = −1 det
− 1 det
= −2 + 3 = 1
−1 0
−1 −1
2 2
1 2
3R
det A2 (b) = 2 det
+ 1 det
= 0+3 = 3
1 1
−1 1
−1 2
1 −1
2R
det A3 (b) = 1 det
− 1 det
= 3−1 = 2
−1 −1
2 −1
La soluzione è quindi x = 1, y = 3, z = 2.
5.2 Applicazioni
69
Corollario 5.2.4 Sia A una matrice quadrata invertibile. Allora, indicato con ai j l’elemento
di posto (i, j) della matrice inversa A−1 si ha
ai j =
a0ji
,
det A
ove i termini a0ji sono i cofattori, definiti in 5.1.2.
Dimostrazione. Siano e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1). Consideriamo il sistema lineare Ax = e j ; l’unica soluzione di tale sistema è A−1 e j , che è la j-esima colonna
della matrice A−1 ; per il Teorema di Cramer la soluzione di tale sistema è data da
ai j = xi =
a0ji
det Ai (e j )
=
det A
det A
Osservazione 5.2.5 Utilizzando la formula appena vista possiamo vedere che, se A è una
matrice invertibile di ordine 2
A=
a b
c d
allora la sua inversa è la matrice
A
−1
1
=
det A
d −b
−c a
Capitolo 5. Determinante
70
5.3
Esercizi riassuntivi
Esercizio 5.1 Si calcoli il determinante della seguente matrice con il metodo di Gauss:


1 −1 2 0
 1 −1 1 −1 

A=
 3 1 1 1 
1 0 2 −2
Svolgimento Per svolgere l’esercizio dobbiamo ridurre a scalini la matrice data, utilizzando
solo operazioni
effettuate.

1 −1
 1 −1

 3 1
1 0
del tipo Si j e Ei j (µ), e tenendo il conto del numero di operazioni di tipo Si j

−→
2 0
E
(−1)
21
1 −1 
 E31 (−3)
1 1 
E41 (−1)
2 −2

1 −1 2
−→
 0 4 −5
E42 (−1/4) 
 0 0 −1
0 0 5/4



1 −1 2
0
 0 0 −1 −1  −→ 



 0 4 −5 1  S23 
0 1
0 −2


0
1 −1
−→


1 
0 4
E (5/4) 
 0 0
−1  43
−9/4
0 0

1 −1 2
0
0 4 −5 1 

0 0 −1 −1 
0 1
0 −2

2
0
−5
1 

−1 −1 
0 −7/2
Il determinante della matrice a scalini è il prodotto degli elementi della diagonale principale,
cioè 14. Nella riduzione abbiamo operato uno scambio, quindi il determinante della matrice A è
det A = −14.
Risposta 2 Il determinante di A è uguale a −14.
∗∗∗
Esercizio 5.2 Date le rette r di equazione cartesiana x + 2y = 1, z − y = −1 ed s passante
per i punti A = (−1, 1, −1) e B = (1, k + 1, 0) stabilire per quale valore di k tali rette sono
complanari.
Per il valore ottenuto, trovare un’equazione cartesiana del piano π che le contiene.
Svolgimento Posto y = t, troviamo per la retta r le seguenti equazioni parametriche


x = 1 − 2t
y=t


z = −1 + t
e quindi la direzione di r è data dal vettore v = (−2, 1, 1).
−
→
Il vettore che dà la direzione della retta s è invece w = AB = (2, k, 1). Scegliamo ora due
punti qualsiasi uno su r ed uno su s, ad esempio C = (1, 0, −1) ∈ r e D = (−1, 1, −1) ∈ s e
−→
consideriamo il vettore CD = (−2, 1, 0).
Come abbiamo visto in precedenza, la condizione di complanari delle due rette è equivalente
−→
alla condizione di dipendenza lineare dei vettori v, w e CD, cioè all’annullarsi del determinante
della matrice che ha sulle colonne le componenti di tali vettori. Andiamo quindi a calcolare


−2 2 −2
2
−2
−2
−2
3R
det  1 k 1  = det
− det
=
k 1
1
1
1 1 0
5.3 Esercizi riassuntivi
71
2 + 2k
Concludiamo quindi che le rette sono complanari per k = −1.
Per trovare il piano richiesto possiamo ora costruire il fascio di piani contenente la retta r
ed imporre il passaggio per un punto della retta s, come visto nel capitolo uno. Proponiamo di
seguito un metodo alternativo, che utilizza il determinante.
Osserviamo che le rette r ed s (per k = −1) non sono parallele, in quanto v e w non sono
proporzionali, quindi, fissato un punto P del piano (ad esempio P = A = (−1, 1, −1)) un punto
Q = (x, y, z) sta sul piano se e solo se esistono due numeri reali t ed s tali che
−→
PQ = tv + sw,
−→
cioè se e solo se i vettori PQ, v e w sono linearmente dipendenti. Tale condizione può essere
espressa dall’annullarsi del determinante della matrice

 

x − xP v1 w1
x + 1 −2 2
 y − yP v2 w2  =  y − 1 1 −1  .
z − zP v3 w3
z+1 1
1
Svolgendo il calcolo del determinante troviamo


x + 1 −2 2
1 −1
−2 2
−2 2
1C
det  y − 1 1 −1  = (x + 1) det
− (y − 1) det
+ (z + 1) det
=
1 1
1 1
1 −1
z+1 1
1
2(x + 1) − (y − 1)(−4) = 4y − 4z − 8 = 2x + 4y − 2
Un’equazione cartesiana del piano cercato è quindi
x + 2y = 1
Risposte: 1) Le rette sono complanari per k = −1.
2) Il piano π che le contiene ha equazione x + 2y = 1.
∗∗∗
Esercizio 5.3 Calcolare l’inversa della matrice


1 2 1
 −1 1 2 
2 0 3
utilizzando il metodo descritto nel Corollario 5.2.4.
Svolgimento Dobbiamo innanzitutto calcolare il determinante della matrice:


1 2 1
2 1
1 2
3R


det −1 1 2 = 2 det
+ 3 det
= 6 + 9 = 15.
1 2
−1 1
2 0 3
Calcoliamo ora i cofattori:
1 2
a011 = det
0 3
2
a021 = − det
0
2 1
a031 = det
1 2
−1 2
−1
a013 = det
2 3
2
1
1 1
1
a022 = det
a023 = − det
3
2 3
2
1 1
1
a032 = − det
a033 = det
−1 2
−1
a012 = − det
1
0
2
0
2
1
Capitolo 5. Determinante
72
Svolgendo
a011 = 3
a012 = 7
a013 = −2
a021 = −6 a022 = 1
a031 = 3
a023 = 4
a032 = −3 a033 = 3
Dobbiamo ora considerare la trasposta della matrice dei cofattori:
T 

3
7 −2
3 −6 3
 −6 1
4  = 7
1 −3 
3 −3 3
−2 4
3

e dividerla per il determinante di A, ottenendo
 1

A−1 = 

5
7
15
2
− 15
− 52
1
15
4
15
1
5


− 15 

1
5
Risposte: La matrice inversa di A è


A−1 = 

1
5
7
15
2
− 15
− 52
1
15
4
15
1
5


− 15 

1
5
6. Basi
6.1
Definizione - Esistenza delle basi
Definizione 6.1.1 Sia V uno spazio vettoriale reale finitamente generato. Un insieme (ordi-
nato) di vettori B = {b1 , . . . , bn } è detto base di V se è un sistema di generatori linearmente
indipendente.
Esempi 6.1 Vediamo alcuni esempi di basi:
1. In Rn le ennuple e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1) formano una
base, detta base canonica.
2. In M2 (R) le matrici
1 0
0 0
0 1
0 0
0 0
1 0
0 0
0 1
sono una base.
3. I polinomi 1, x, x2 , . . . , xd−1 , xd sono una base dello spazio vettoriale Rd [x].
Teorema 6.1.1 Sia V uno spazio vettoriale reale finitamente generato, V 6= {0}. Allora
1. V ha una base.
2. Un sistema di vettori B = {b1 , . . . , bn } è una base se e solo se ogni v ∈ V si scrive in
modo unico come combinazione lineare di elementi di B.
Dimostrazione. Sia {v1 , . . . , vm } un sistema di generatori per V . Se tale insieme è linearmente indipendente, allora costituisce una base di V . Altrimenti, per il Corollario 4.2.4 esiste
un indice i ∈ {1, . . . , m} tale che hv1 , . . . , vi−1 , vi+1 , . . . , vm i = hv1 , . . . , vm i = V . Se l’insieme {v1 , . . . , vi−1 , vi+1 , . . . , vm } è linearmente indipendente, abbiamo trovato la base cercata,
altrimenti ripetiamo il procedimento.
Se B = {b1 , . . . , bn } è una base, allora ogni vettore si può scrivere come combinazione
lineare di elementi di B in quanto B è un sistema di generatori, mentre l’unicità segue dall’indipendenza lineare per la Proposizione 4.2.5.
Capitolo 6. Basi
74
Viceversa, se ogni vettore si scrive in modo unico come combinazione lineare di elementi
di B è chiaro che B è un sistema di generatori. L’indipendenza lineare segue dall’unicità di
scrittura del vettore nullo.
Osservazione 6.1.2 Dato uno spazio vettoriale reale V , finitamente generato, si può mostrare
che ogni suo sottospazio è finitamente generato. Dato quindi {0} =
6 U ⊂ V sottospazio allora
anche U, che è esso stesso uno spazio vettoriale, ha una base.
6.1.1
Estrazione di una base da un sistema di generatori, caso V = Rn
La dimostrazione del Teorema 6.1.1 mostra che, dato un sistema di generatori per uno spazio
vettoriale V , un sottoinsieme di tali generatori costituisce una base. Vediamo come è possibile
trovare tale sottoinsieme quando V = Rn o un suo sottospazio.
Sia {v1 , . . . , vm } un sistema di generatori per Rn ; per quanto visto nella Proposizione 4.1.2,
ciò significa che la matrice A che ha sulle colonne le ennuple v1 , . . . , vm ha rango n; un sottoinsieme di n vettori indipendenti corrisponde ai vettori nelle colonne che, in una forma a scala
della matrice, contengono i pivot.
Esercizio 6.1 Stabilire se i vettori v1 = (1, 1, 0), v2 = (2, 0, −1), v3 = (1, −1, −1), v4 =
(1, 1, 1) sono un sistema di generatori di R3 e, in caso affermativo, estrarne una base.
Svolgimento Consideriamo la matrice A che ha sulle colonne v1 , v2 , v3 e v4 e riduciamola in
forma a scala:






1 2
1 1
1 2
1 1
1 2
1 1
−→
−→
A =  1 0 −1 1  E21 (−1)  0 −2 −2 0  E32 (−1/2)  0 −2 −2 0 
0 −1 −1 1
0 −1 −1 1
0 0
0 1
La matrice ha rango 3, quindi l’insieme considerato è un sistema di generatori. I pivot della forma
a scala trovata si trovano nella prima, seconda e quarta colonna, quindi l’insieme {v1 , v2 , v4 }
costituisce una base di R3 .
Esercizio 6.2 Si trovi una base del sottospazio U di R4 generato dai vettori
v1 = (0, 1, −1, 1),
v2 = (−1, 2, −3, 0),
v3 = (1, 0, 1, 2)
Svolgimento Dobbiamo estrarre dall’insieme v1 , v2 , v3 un sottoinsieme linearmente indipen-
dente che contenga il numero maggiore possibile di vettori. Consideriamo la matrice A che ha
sulle colonne v1 , v2 e v3 e riduciamola in forma a scala:








0 −1 1
1
2 0
1 2 0
1 2 0
−→
−→
−→  0
 1




2 0 
−1 1 



 E31 (1)  0 −1 1  E32 (−1)  0 −1 1 
 −1 −3 1  S12  −1 −3 1  E41 (−1)  0 −1 1  E42 (−2)  0 0 0 
1
0 2
1
0 2
0 −2 2
0 0 0
La matrice ha rango due, e i pivot si trovano nelle prime due colonne, quindi possiamo concludere
che una base di U è costituita da v1 e v2 .
6.2
Completamento a una base
Una base può sempre essere costruita partendo da un sistema di vettori indipendenti, come
asserisce il prossimo risultato, che presentiamo senza dimostrazione.
6.2 Completamento a una base
75
Teorema 6.2.1 — Completamento a una base. Sia V uno spazio vettoriale reale finita-
mente generato, V 6= {0}, e sia B = {b1 , . . . , bn } una base di V . Dato un insieme di vettori
indipendenti {v1 , . . . , v p } con p ≤ n, allora esiste una base di V formata da {v1 , . . . , v p } e da
altri n − p vettori di B. In particolare se V ha una base formata da n vettori, allora n vettori
linearmente indipendenti formano una base di V .
Corollario 6.2.2 Se V ha una base formata da n vettori, ogni insieme di m vettori, con m > n
è linearmente dipendente.
Dimostrazione. Si prendano n vettori dell’insieme. Se tali vettori sono dipendenti, allora anche
l’insieme di partenza è dipendente. Se invece tali vettori sono indipendenti, allora formano una
base, e i restanti m − n vettori si possono scrivere come combinazione lineare di essi, e quindi
l’insieme di partenza è dipendente.
Corollario 6.2.3 Sia V uno spazio vettoriale reale finitamente generato, e siano A =
{a1 , . . . , an } e B = {b1 , . . . , bm } due basi di V . Allora n = m.
Dimostrazione. Non si può avere n > m, perché in questo caso, per il Corollario 6.2.2 i vettori
di A sarebbero dipendenti. Analogamente non si può avere m > n, perché, per il medesimo
corollario, i vettori di B sarebbero dipendenti.
Definizione 6.2.1 Sia V uno spazio vettoriale reale finitamente generato, V 6= {0}; si dice
dimensione di V il numero di vettori che formano una qualsiasi base di V . Se V = {0} si
pone dimV = 0. Analogamente, se U 6= {0} è un sottospazio di V si dice dimensione di U il
numero di vettori che formano una qualsiasi base di U. Se U = {0} si pone dimU = 0.
N.B.
6.2.1
Se il sottospazio U è dato come insieme di soluzioni di un sistema omogeneo, allora
la sua dimensione è il numero di variabili libere. Vedremo perché nel capitolo 7.
Completare a una base un insieme indipendente di Rn .
Sia {v1 , . . . , v p } un sistema linearmente indipendente in Rn ; si fissi una base B di Rn , ad
esempio la base canonica. Per stabilire quali vettori della base canonica vanno aggiunti ai p
vettori considerati per ottenere una base si deve considerare la matrice (A | B), le cui prime p
colonne contengono le ennuple v1 , . . . , v p , e le cui ultime n contengono le ennuple della base B.
Una volta ridotta la matrice (A | B) a scalini, essa avrà p pivot nelle prime p colonne; la posizione
dei restanti n − p pivot individuerà le colonne corrispondenti agli elementi di B che vanno
aggiunti a v1 , . . . , v p per ottenere una base.
Esercizio 6.3 Stabilire se i vettori v1 = (1, 1, −1, 1), v2 = (1, 0, 1, −1), v3 = (0, −1, 1, −1)
sono indipendenti e, in caso affermativo, completarli a una base di R4 .
Svolgimento Consideriamo la matrice (A | B) che ha sulle colonne v1 , v2 , v3 ed e1 , . . . , e4 e
riduciamola in forma a scala:

1
 1
(A | B) = 
 −1
1
1
0
1
−1
0
−1
1
−1
1
0
0
0
0
1
0
0
0
0
1
0

−→
0
E
(−1)
21
0 
 E31 (1)
0 
E41 (−1)
1

1
 0

 0
0
1
−1
2
−2
0
−1
1
−1
1
−1
1
−1

0 0 0
1 0 0 

0 1 0 
0 0 1
Capitolo 6. Basi
76

1
 0

E42 (−2)  0
0
−→
E32 (2)
1
−1
0
0
0
−1
−1
1


0 0 0
−→ 
1 0 0 
 E43 (1) 


2 1 0
−2 0 1
1
−1
−1
1
1
0
0
0
1
−1
0
0
0
−1
−1
0
1
−1
−1
0

0 0 0
1 0 0 

2 1 0 
0 1 1
La matrice A ha rango tre, quindi i vettori v1 , v2 , v3 sono indipendenti; il quarto pivot di (A | B)
sta sulla terza colonna di B, quindi v1 , v2 , v3 ed e3 sono la base cercata.
6.3
Coordinate
Sia V uno spazio vettoriale reale finitamente generato, V 6= {0}, e B = {b1 , . . . , bn } una sua
base (ordinata) fissata. Abbiamo visto che ogni vettore v ∈ V si può scrivere in modo unico come
combinazione lineare degli elementi della base:
n
v = ∑ vi bi ;
i=1
I numeri reali v1 , . . . , vn sono detti coordinate di v rispetto alla base B. Possiamo definire una
funzione TB : V → Rn che ad ogni vettore fa corrispondere le sue coordinate rispetto a B.
Proposizione 6.3.1 La funzione TB è biunivoca e lineare, cioè, ∀v, w ∈ V e ∀λ , µ ∈ R si ha:
TB (λ v + µw) = λ TB (v) + µTB (w)
Dimostrazione. La funzione che associa ad una ennupla (v1 , . . . , vn ) il vettore v = ∑ni=1 vi bi è
chiaramente l’inversa di TB , che è quindi biunivoca.
La linearità segue dal fatto che, se v = ∑ni=1 vi bi e w = ∑ni=1 wi bi , allora
n
n
n
λ v + µw = λ ∑ vi bi + µ ∑ wi bi = ∑ (λ vi + µwi )bi ,
e quindi
i=1
i=1
i=1
TB (λ v + µw) = (λ v1 + µw1 , . . . , λ vn + µwn ) =
= λ (v1 , . . . , vn ) + µ(w1 , . . . , wn ) =
= λ TB (v) + µTB (w).
La funzione TB preserva le proprietà fondamentali degli insiemi di vettori:
Proposizione 6.3.2 Sia {v1 , . . . , v p } un insieme di vettori di V ; allora tale insieme è linear-
mente indipendente (rispettivamente un sistema di generatori, rispettivamente una base) se e
solo se l’insieme di vettori {TB (v1 ), . . . , TB (v p )} è linearmente indipendente (rispettivamente
un sistema di generatori, rispettivamente una base).
Dimostrazione. Seguirà da risultati più generali sulle funzioni lineari (7.2.1 e 7.2.2).
L’importanza delle coordinate è dovuta al fatto che utilizzandole possiamo riportare a Rn
problemi relativi a qualsiasi spazio vettoriale. Vediamo qui di seguito un esempio.
Esercizio 6.4 Siano dati i polinomi p1 (x) = x + 1, p2 (x) = x2 + 2x + 1, p3 (x) = −x2 + x.
1. Verificare che l’insieme {p1 (x), p2 (x), p3 (x)} è una base di R2 [x].
2. Esprimere q(x) = x2 − x + 2 come combinazione lineare di p1 (x), p2 (x), p3 (x).
6.3 Coordinate
77
Svolgimento Scegliamo innanzitutto una base per R2 [x], ad esempio la base B = {1, x, x2 }.
Rispetto a tale base le coordinate dei polinomi p1 (x), p2 (x), p3 (x) sono rispettivamente (1, 1, 0),
(1, 2, 1), (0, 1, −1). Costruiamo la matrice A che ha sulle colonne tali terne e troviamone il rango.





1 1 0
1 1 0
1 1 0
−→
−→
A =  1 2 1  E21 (−1)  0 1 1  E32 (−1)  0 1 1 
0 1 −1
0 1 −1
0 0 −2

La matrice ha rango 3, quindi {(1, 1, 0), (1, 2, 1), (0, 1, −1)} è una base di R3 e pertanto, grazie
alla Proposizione 6.3.2 {p1 (x), p2 (x), p3 (x)} è una base di R2 [x].
Il polinomio q(x) ha coordinate (2, −1, 1) rispetto alla base B. Per risolvere la seconda parte
dell’esercizio dobbiamo risolvere il sistema lineare


 

1 1 0
λ1
2
 1 2 1   λ2  =  −1 
0 1 −1
λ3
1
Scriviamo la matrice completa e troviamone una forma a scalini ridotta per righe




2
1 1 0
2
1 1 0
−→
 1 2 1 −1  E21 (−1)  0 1 1 −3 
0 1 −1 1
0 1 −1 1



1 1 0
1 1 0 2
2
−→
E32 (−1)  0 1 1 −3  D3 (−1/2)  0 1 1 −3 
0 0 −2 4
0 0 1 −2




1 0 0 3
1 1 0 2
−→
−→
E23 (−1)  0 1 0 −1  E12 (−1)  0 1 0 −1 
0 0 1 −2
0 0 1 −2
−→

Possiamo pertanto scrivere q(x) = 3p1 (x) − p2 (x) − 2p3 (x) .
Rn
Nella sezione 5.1.3 abbiamo visto che, per determinare se n vettori di
formano una base, è
possibile utilizzare il determinante. Utilizzando le coordinate si può procedere in modo analogo
in qualsiasi spazio vettoriale finitamente generato.
Sia V uno spazio vettoriale di dimensione n, e sia B = {b1 , . . . , bn } una sua base. Dato
un insieme {v1 , . . . , vn } di n vettori appartenenti a V , per stabilire se tale insieme di vettori è
indipendente (e quindi una base) è sufficiente considerare la matrice quadrata n × n le cui colonne
sono le componenti di v1 , . . . , vn sulla base B; se il determinante di tale matrice è diverso da
zero, allora il rango della matrice è uguale ad n, e quindi i vettori considerati sono una base. Se
invece il determinante si annulla, i vettori considerati sono linearmente dipendenti, e quindi non
sono una base.
Ad esempio, nell’Esercizio 6.4 possiamo verificare che {p1 (x), p2 (x), p3 (x)} è una base di
R2 [x] calcolando il determinante della matrice A:


1 1 0
2 1
1 0
1C


det 1 2 1
= det
− det
= −3 + 1 = −2 6= 0
1 −1
1 −1
0 1 −1
Il determinante è diverso da zero, e quindi {p1 (x), p2 (x), p3 (x)} è una base di R2 [x].
Capitolo 6. Basi
78
6.4
Spazi delle righe e delle colonne di una matrice
Abbiamo visto che, data una matrice A ∈ Mm,n (R), lo spazio delle righe R(A) è il sottospazio di
Rn generato dalle m ennuple riga r1 , . . . rm
R(A) = hr1 , . . . rm i.
Se la matrice è in forma a scala, allora il calcolo della dimensione dello spazio R(A) è
particolarmente semplice:
Proposizione 6.4.1 Sia A ∈ Mm,n (R) una matrice in forma a scala. Allora la dimensione
dello spazio delle righe è uguale al numero dei pivot.
Dimostrazione. Siano r1 , r2 , . . . , r p le righe non nulle della matrice. Per ogni i = 1, . . . , p − 1
il vettore ri non è contenuto in hri+1 , . . . , r p i, in quanto la sua prima componente non nulla (il
pivot) non può essere ottenuto come combinazione degli zeri che i vettori ri+1 , . . . , r p hanno
nella posizione corrispondente. Quindi i vettori r1 , r2 , . . . , r p sono indipendenti e la dimensione
di R(A) è p.
Proposizione 6.4.2 Sia A ∈ Mm,n (R) una matrice, e sia A0 una sua forma a scala. Allora lo
spazio delle righe di A è uguale allo spazio delle righe di A0 . In particolare, la dimensione di
R(A) è uguale al numero di pivot di A0 .
Dimostrazione. Le righe di A0 , ottenute per mezzo di operazioni elementari, sono combinazioni
lineari delle righe di A, quindi R(A0 ) ⊂ hr1 , . . . rm i = R(A). Analogamente, visto che le operazioni
elementari sono tutte reversibili, le righe di A sono combinazioni lineari delle righe di A0 , cioè
R(A) ⊂ R(A0 ). Combinando le due inclusioni otteniamo R(A) = R(A0 ).
L’ultima affermazione segue dalla Proposizione 6.4.1.
Possiamo ora mostrare che il rango di una matrice è ben definito, cioè non dipende dalla
forma a scalini utilizzata per calcolarlo.
Corollario 6.4.3 Sia A ∈ Mm,n (R) una matrice; il numero di pivot di ogni forma a scala di A
è lo stesso.
Dimostrazione. Il numero di pivot di una qualsiasi forma a scala di A è uguale alla dimensione
di R(A), e quindi non dipende dalla forma a scala scelta.
6.5
Esercizi riassuntivi
Esercizio 6.5 Sia U ⊂ R5 il sottospazio delle soluzioni del sistema omogeneo
(
2x1 − x2 + x3 − x4
−x1 − 2x3 − 2x4 + 2x5
=0
=0
1) Si trovi una base di U.
2) Si stabilisca se, unendo alla base trovata i vettori e1 = (1, 0, 0, 0, 0) e e2 = (0, 1, 0, 0, 0)
si ottiene una base di R5 .
6.5 Esercizi riassuntivi
79
Svolgimento Per trovare una base di U dobbiamo esplicitare le soluzioni del sistema; scrivia-
mone quindi la matrice e portiamola in forma a scalini ridotta per righe.
−→ 2 −1 1 −1 0
2 −1
1
−1
E21 (1/2)
−1 0 −2 −2 2
0 −1/2 −3/2 −5/2
−→
−→ D1 (1/2) 1 −1/2 1/2 −1/2 0
1 0 2 2
E12 (1/2)
0
1
3
5
−4
0 1 3 5
D2 (−2)
0
2
−2
−4
Il sistema ha quindi infinite soluzioni che dipendono da tre variabili libere:
(
x1 = −2x3 − 2x4 + 2x5
x2 = −3x3 − 5x4 + 4x5
Possiamo riscrivere le soluzioni come



−2x3 − 2x4 + 2x5

 −3x3 − 5x4 + 4x5 






x3

 = x3 



x4
x5
−2
−3
1
0
0






 + x4 




−2
−5
0
1
0






 + x5 




2
4
0
0
1






Una base di U è quindi costituita da b1 = (−2, −3, 1, 0, 0), b2 = (−2, −5, 0, 1, 0), b3 = (2, 4, 0, 0, 1).
Per stabilire se {b1 , b2 , b3 , e1 , e2 } è una base di R5 , consideriamo la matrice che ha sulle
colonne le componenti di tali vettori e ne calcoliamo il determinante:




−2 −2 2 1 0


−2 −2 2 1
 −3 −5 4 0 1 
1
0
0

 5C
 1
0 0 0 
4C

=
0 0 0 0 
det 
det  0 1 0  = 1
 1
 = − det  0

1
0
0
 0
1 0 0 0 
0 0 1
0
0 1 0
0
0 1 0 0
Poiché il determinante è diverso da zero, i vettori considerati formano una base di R5 .
Risposte:
1) Base di U: {(−2, −3, 1, 0, 0), (−2, −5, 0, 1, 0), (2, 4, 0, 0, 1)}.
2)
Sı̀.
Esercizio 6.6 Sia R3 [x] lo spazio vettoriale dei polinomi a coefficienti reali nella variabile x,
di grado minore o uguale a 3.
1) Si mostri che U = {p(x) ∈ R3 [x] | p(1) = p(−1) = 0} è un sottospazio vettoriale di
R3 [x] e se ne trovi una base.
2) Si completi la base trovata al punto precedente ad una base di R3 [x].
Svolgimento Per mostrare che U è un sottospazio dobbiamo mostrare che λ p(x) + µq(x) ∈ U
per ogni scelta di p(x), q(x) ∈ U e per ogni λ , µ ∈ R. Ciò è immediato, essendo
(λ p(x) + µq(x))(1) = λ p(1) + µq(−1) = 0
(λ p(x) + µq(x))(2) = λ p(1) + µq(−1) = 0
Sia ax3 + bx2 + cx + d
il generico polinomio in R3 [x]; i coefficienti (a, b, c, d) sono le componenti
del polinomio sulla base B = {x3 , x2 , x, 1} imponendo l’appartenenza ad U otteniamo
(
a+b+c+d
=0
−a + b − c + d = 0
Capitolo 6. Basi
80
Consideriamo la matrice associata a tale sistema e riduciamola a scalini:
−→ −→ −→ 1 1 1 1
1 1 1 1
1 1 1 1
1 0 1 0
1
E21 (1)
D2 ( /2 )
E12 (−1)
−1 1 −1 1
0 2 0 2
0 1 0 1
0 1 0 1
Il sistema dato è quindi equivalente al sistema
(
a = −c
b = −d
Le soluzioni di tale sistema si possono scrivere come





−1
−c



 −d 
 = c 0 +d 


 1 
 c 
0
d

0
−1 

0 
1
Una base per lo spazio delle soluzioni è quindi data da (−1, 0, 1, 0) e (0, −1, 0, 1), che corrispondono ai polinomi −x3 + x e −x2 + 1, che costituiscono quindi una base di U.
Per completare la base appena trovata ad una base di R3 [x] utilizziamo ancora le coordinate:
consideriamo la matrice che ha sulle prime due colonne le componenti di −x3 + x e −x2 + 1
sulla base B e sulle restanti colonne le componenti degli elementi della base B sulla base stessa.

−1 0 1 0
 0 −1 0 1

 1
0 0 0
0
1 0 0
0
0
1
0


0
−→ 
0 
 E31 (1) 


0
1

−1 0 1 0
0 −1 0 1
0
0 1 0
0
1 0 0
−1 0 1 0
−→  0
−1 0 1
E32 (1) 
 0
0 0 1
0
0 1 0
0
0
0
1
0
0
1
0


0
−1 0 1 0
−→


0 
0 −1 0 1
S 
1 0 0
0  34  0
1
0
0 1 0


0
−1 0 1 0
−→  0
−1 0 1
0 
 S34 


1
0
0 1 0
0
0 0 1
0
0
0
1
0
0
0
0
1

0
0 

1 
0

0
0 

0 
1
Vediamo quindi che, per ottenere una base di R3 [x] dobbiamo aggiungere alla base di U il primo
e il secondo elemento della base B. La base cercata sarà quindi {−x3 + x, −x2 + 1, x3 , x2 }. Risposte:
1) Base di U: {−x3 + x, −x2 + 1}.
2)
Base di R3 [x]: {−x3 + x, −x2 + 1, x3 , x2 }.
Esercizio 6.7 Sia M2,2 (R) lo spazio vettoriale delle matrici quadrate 2 × 2, a coefficienti
reali, e
S=
1 1
0 1
1) Si mostri che U = {A ∈ M2,2 (R) | AS = SA} è un sottospazio vettoriale di M2,2 (R) e
se ne trovi una base.
2) Si completi la base trovata al punto precedente ad una base di M2,2 (R).
Svolgimento Per mostrare che U è un sottospazio dobbiamo mostrare che λ A + µB ∈ U per
ogni scelta di A, B ∈ U e per ogni λ , µ ∈ R. Ciò è immediato, essendo
(λ A + µB)S = λ AS + µBS = λ SA + µSB = S(λ A + µB).
6.5 Esercizi riassuntivi
81
Consideriamo la base B costituita dalle matrici
1 0
0 1
0 0
, E2 =
, E3 =
,
E1 =
0 0
0 0
1 0
E4 =
0 0
0 1
La generica matrice di M2,2 (R)
x y
z w
può essere scritta come xE1 + yE2 + zE3 + wE4 . Le condizioni di appartenenza ad U si scrivono
imponendo che
x y
1 1
1 1
x y
=
,
z w
0 1
0 1
z w
cioè che
x x+y
z z+w
x+z y+w
z
w
=
Da cui otteniamo z = 0 e x = w. Il generico elemento di U sarà quindi
x y
1 0
0 1
=x
+y
0 0
0 x
0 1
Una base di U è quindi costituita da
1 0
A = A1 =
,
0 1
0 1
0 0
A2 =
Per completare la base appena trovata ad una base di M2,2 (R) utilizziamo le coordinate: consideriamo la matrice che ha sulle prime due colonne le componenti di A1 e A2 sulla base B e
sulle restanti colonne le componenti degli elementi della base B sulla base stessa e riduciamola
a scalini:




1 0 1 0 0 0
1 0 1 0 0 0
 0 1 0 1 0 0  −→  0 1 0 1 0 0 




 0 0 0 0 1 0  E41 (−1)  0 0 0 0 1 0 
1 0 0 0 0 1
0 0 −1 0 0 1


1 0 1 0 0 0
−→  0 1
0 1 0 0 

S34 
 0 0 −1 0 0 1 
0 0 0 0 1 0
Vediamo quindi che, per ottenere una base di M2,2 (R) dobbiamo aggiungere alla base di U il
primo e il terzo elemento della base B. La base cercata sarà quindi {A1 , A2 , E1 , E3 }.
Risposte:
1) Base di U:
2)
Base di M2 (R):
1 0
0 1
,
1 0
0 1
0 1
0 0
0 1
0 0
1 0
0 0
,
,
,
0 0
1 0
7. Funzioni lineari
7.1
7.1.1
Funzioni lineari
Definizione ed esempi
Definizione 7.1.1 Siano V e V 0 due spazi vettoriali reali. Una funzione f : V → V 0 si dice
lineare se
1. f (v + w) = f (v) + f (w) per ogni v, w ∈ V .
2. f (λ v) = λ f (v) per ogni v ∈ V e λ ∈ R.
Lo spazio V è detto dominio della funzione f , lo spazio V 0 codominio. Se f è biunivoca, è
detta isomorfismo di spazi vettoriali.
Osservazione 7.1.1 Equivalentemente f è lineare se per ogni v, w ∈ V e per ogni λ , µ ∈ R si
ha
f (λ v + µw) = λ f (v) + µ f (w).
Esempi 7.1 Vediamo ora esempi di funzioni lineari e non lineari:
1. Siano V e V 0 spazi vettoriali qualsiasi.
(a) La funzione f : V → V 0 che ad ogni vettore associa il vettore nullo è lineare.
Infatti, per ogni v, w ∈ V e per ogni λ , µ ∈ R si ha
λ f (v) + µ f (w) = λ 0 + µ0 = 0 = f (λ v + µw).
(b) La funzione g : V → V 0 che ad ogni vettore associa un vettore fissato v0 6= 0 non è
lineare.
Infatti, presi v e w qualsiasi si ha
f (v) + f (w) = v0 + v0 = 2v0 6= v0 = f (v + w).
2. Sia V = V 0 = R2 . La funzione g : R2 → R2 definita ponendo f (x, y) = (x2 , y2 ) non è
lineare. Infatti, posto v1 = (1, 1) e λ = 2 si ha
f (λ v1 ) = f (2, 2) = (4, 4) 6= (2, 2) = 2 f (1, 1) = λ f (v1 ).
Capitolo 7. Funzioni lineari
84
3. Sia V = Rn e V 0 = Rm , e A ∈ Mm,n (R); la funzione TA : Rn → Rm che, posto x =
(x1 , . . . , xn ), è definita come TA (x) = A x è una funzione lineare.
Infatti, per ogni x, y ∈ Rn e per ogni λ , µ ∈ R si ha
TA (λ x + µy) = A(λ x + µy) = λ Ax + µAy = λ TA (x) + µTA (y).
4. Sia V = R[x] e V 0 = R3 ; la funzione f : R[x] → R3 che a un polinomio p(x) associa la
terna (p(−1), p(0), p(1)) è lineare.
Infatti, dati due polinomi p, q ∈ R[x] e due scalari λ , µ ∈ R, per ogni x0 ∈ R
(λ p + µq)(x0 ) = λ p(x0 ) + µq(x0 ).
5. Sia V uno spazio vettoriale reale finitamente generato e B = {b1 , . . . , bn } una sua base.
Allora la funzione TB , introdotta in 6.3 che associa ad un vettore v le sue componenti sulla
base B è un isomorfismo.
Osservazione 7.1.2 Dati tre spazi vettoriali V,V 0 e V 00 , e due funzioni lineari f : V → V 0 ,
g : V 0 → V 00 la loro composizione è ancora una funzione lineare. Inoltre, se f : V → V 0 è
biunivoca, allora anche l’inversa f −1 : V 0 → V è lineare.
7.1.2
Nucleo e immagine
Sia f : V → V 0 una funzione lineare
Definizione 7.1.2 Il nucleo di f , denotato con Ker( f ) è l’insieme dei vettori di V che
vengono mandati da f nel vettore nullo:
Ker( f ) := {v ∈ V | f (v) = 0}.
Osservazione 7.1.3 Il nucleo di f è un sottospazio di V ; infatti, se v e w appartengono al
nucleo di f , allora
f (λ v + µw) = λ f (v) + µ f (w) = 0 + 0 = 0,
e quindi anche λ v + µw appartiene al nucleo.
Definizione 7.1.3 L’immagine di f , denotata con Im( f ) è l’insieme dei vettori di V 0 che
sono immagini di vettori di V via f .
Im( f ) := {v0 ∈ V 0 | ∃v ∈ V con f (v) = v0 }.
Osservazione 7.1.4 L’immagine di f è un sottospazio di V 0 ; infatti, se v0 e w0 appartengono
all’immagine di f , ciò significa che esistono v, w ∈ V tali che f (v) = v0 e f (w) = w0 . Pertanto
λ v0 + µw0 = λ f (v) + µ f (w) = f (λ v + µw),
e quindi anche λ v0 + µw0 appartiene all’immagine.
Osservazione 7.1.5 Sia {v1 , . . . , vn } un sistema di generatori di V ; allora { f (v1 ), . . . , f (vn )} è
un sistema di generatori per Im( f ). Infatti, dato w0 ∈ Im( f ), esiste w ∈ V tale che f (w) = w0 ;
poiché {v1 , . . . , vn } è un sistema di generatori possiamo scrivere w = ∑ni=1 λi vi . Applicando f
otteniamo
!
w0 = f (w) = f
n
∑ λi vi
i=1
n
= ∑ λi f (vi ).
i=1
7.1 Funzioni lineari
7.1.3
85
Funzioni lineari definite da matrici
Analizziamo ora più in dettaglio le funzioni lineari descritte nell’Esempio 7.1 al numero 3.
Siano dunque V = Rn e V 0 = Rm ; data una matrice A ∈ Mm,n (R) abbiamo visto che la funzione
TA : Rn → Rm , definita utilizzando il prodotto righe per colonne come
TA (x) = A x
è una funzione lineare. Data un’altra matrice B ∈ Mp,m (R) è immediato verificare che la
composizione TB ◦ TA : Rn → R p delle funzioni lineari TB : Rm → R p e TA : Rn → Rm è la
funzione lineare associata alla matrice BA; infatti
(TB ◦ TA )(x) = TB (TA (x)) = TB (A x) = B (A x) = (B A)x = TB A (x).
(7.1)
Da ciò segue in particolare che, se A è invertibile (e quindi m = n!) anche TA è invertibile, e la
sua inversa è TA−1 ; infatti
TA ◦ TA−1 = TA A−1 = TIm = IdRm = TIm = TA−1 A = TA−1 ◦ TA .
Il nucleo della funzione lineare TA è lo spazio delle soluzioni del sistema lineare A x = 0, cioè il
nucleo della matrice A, definito in 3.4.1, mentre l’immagine di TA ha come sistema di generatori
le immagini dei vettori della base canonica, che sono le colonne di A, per cui si ha che l’immagine
di TA è lo spazio delle colonne della matrice A. Riassumendo
ker TA = N(A)
Im TA = C(A).
Esempio 7.1 Consideriamo la funzione lineare TA : R3 → R3 definita dalla matrice


1 1 3
A= 0 2 2 
−1 1 −1
e troviamone nucleo e immagine. Cominciamo col ridurre la matrice in forma a scalini






1 1 3
1 1 3
1 1 3
−→
−→
 0 2 2  E31 (1)  0 2 2  E32 (−1)  0 2 2 
−1 1 −1
0 2 2
0 0 0
La matrice ha rango 2, e i pivot stanno nelle prime due colonne, quindi dim Im(TA ) = 2 e una base
per Im(TA ) è data da {(1, 0, −1), (1, 2, 1)} (cioè le prime due colonne nella matrice originaria).
Per trovare il nucleo dobbiamo risolvere il sistema omogeneo Ax = 0; continuiamo pertanto con
la riduzione all’indietro:






1 1 3
1 1 3
1 0 2
−→
−→
 0 2 2  D2 (1/2)  0 1 1  E12 (−1)  0 1 1 
0 0 0
0 0 0
0 0 0
Le soluzioni del sistema sono quindi x = −2z, y = −z, che possiamo riscrivere come (−2z, −z, z) =
z(−2, −1, 1). Abbiamo quindi trovato che dim Ker(TA ) = 1 e una base per Ker(TA ) è data da
{(−2, −1, 1)}.
Capitolo 7. Funzioni lineari
86
7.2
Alcune proprietà delle funzioni lineari
Andremo ora a descrivere come il fatto che le funzioni lineari abbiano alcune importanti proprietà (conservare l’indipendenza lineare, mandare sistemi di generatori in sistemi di generatori,
o basi in basi) sia legato alla dimensione dei sottospazi nucleo e immagine.
Proposizione 7.2.1 Sia f : V → V 0 una funzione lineare. Allora sono equivalenti
1. Ker( f ) = {0};
2. f è iniettiva;
3. f manda sistemi indipendenti in sistemi indipendenti.
Dimostrazione. Mostriamo che 1. ⇒ 2. Siano v1 e v2 tali che f (v1 ) = f (v2 ); per la linearità di
f si ha f (v1 − v2 ) = 0V 0 , e quindi v1 − v2 ∈ Ker( f ), pertanto v1 = v2 .
Mostriamo ora che 2. ⇒ 3. Assumiamo che {v1 , . . . , v p } sia un insieme indipendente; se
λ1 f (v1 ) + · · · + λ p f (v p ) = 0V 0 ,
per la linearità di f otteniamo
f (λ1 v1 + · · · + λ p v p ) = 0V 0 ,
da cui per l’iniettività di f si ha
λ1 v1 + · · · + λ p v p = 0V ,
e quindi λ1 = · · · = λ p = 0 per l’indipendenza di {v1 , . . . , v p }.
Per finire mostriamo che 3. ⇒ 1. Sia v 6= 0V ; l’insieme {v} è linearmente indipendente, quindi
anche l’insieme { f (v)} è indipendente, e quindi f (v) 6= 0V 0 .
Proposizione 7.2.2 Sia f : V → V 0 una funzione lineare. Allora sono equivalenti
1. f è suriettiva;
2. Im( f ) = V 0 ;
3. f manda sistemi di generatori di V in sistemi di generatori di V 0
Dimostrazione. L’implicazione 1. ⇒ 2. è immediata, dalla definizione di Im( f ). Per quanto
riguarda 2. ⇒ 3., sappiamo già, dall’osservazione 7.1.5 che, se {v1 , . . . , vn } un sistema di
generatori di V ; allora { f (v1 ), . . . , f (vn )} è un sistema di generatori per Im( f ); poichè stiamo
supponendo che Im( f ) = V 0 otteniamo la 3.
Per finire mostriamo che 3. ⇒ 1. Sia v0 ∈ V 0 , e sia {v1 , . . . , vn } un sistema di generatori di V ;
allora { f (v1 ), . . . , f (vn )} è un sistema di generatori di V 0 , e quindi esistono scalari λ1 , . . . , λn tali
che
v0 = λ1 f (v1 ) + · · · + λn f (vn ) = f (λ1 v1 + · · · + λn vn ),
e quindi v0 ha una controimmagine.
Le dimensioni dei sottospazi nucleo e immagine sono legati dal seguente fondamentale risultato:
Teorema 7.2.3 — Nullità più rango. Sia V uno spazio vettoriale reale finitamente generato,
e sia f : V → V 0 una funzione lineare. Allora
dimV = dim Ker( f ) + dim Im( f ).
7.3 Matrici rappresentative
87
Dimostrazione. Siano n ed k rispettivamente le dimensioni di V e di Ker( f ) e sia A = {a1 , . . . , ak }
una base di Ker( f ).
Completiamo tale base ad una base B dello spazio vettoriale V : B = {a1 , . . . , ak , bk+1 , . . . , bn }.
Vogliamo ora mostrare che { f (bk+1 ), . . . , f (bn )} è una base di Im( f ). Per l’Osservazione 7.1.5
sappiamo che { f (a1 ), . . . , f (ak ), f (bk+1 ), . . . , f (bn )} è un sistema di generatori per Im( f ), e
quindi anche { f (bk+1 ), . . . , f (bn )} lo è, in quanto i vettori f (a1 ), . . . , f (ak ) sono tutti nulli.
Mostriamo ora l’indipendenza lineare: se
n
0=
!
n
λi f (bi ) = f
∑
∑
i=k+1
λi bi ,
i=k+1
allora ∑ni=k+1 λi bi ∈ Ker( f ), e quindi esistono λ1 , . . . , λk tali che
n
∑
k
λ i bi = ∑ λ i ai .
i=1
i=k+1
Tale uguaglianza può essere evidentemente riscritta come
k
n
∑ λi ai − ∑
i=1
λi bi = 0,
i=k+1
da cui, per il fatto che B è una base, segue che λi = 0 per ogni i = 1, . . . , n.
Corollario 7.2.4 Sia f : V → V 0 una funzione lineare.
1. Se f è un isomorfismo, allora dimV = dimV 0 ;
2. Se dimV = dimV 0 allora sono equivalenti:
(a) f è un isomorfismo;
(b) f è iniettiva;
(c) f è suriettiva.
Dimostrazione. Proviamo la 1. Per il Teorema della nullità più rango si ha
dimV = dim Ker( f ) + dim Im( f );
Poiché f è iniettiva si ha dim Ker( f ) = 0 e, poiché f è suriettiva, si ha V 0 = Im( f ), da cui la tesi.
La 2. segue immediatamente dal Teorema della nullità più rango e dalle Proposizioni 7.2.1 e
7.2.2.
7.3
Matrici rappresentative
Nella sezione 6.3 abbiamo visto come, usando le basi, sia possibile riportare problemi in un
qualsiasi spazio vettoriale reale di dimensione n a problemi in Rn . Ora vedremo come, sempre
mediante l’utilizzo delle basi, qualsiasi funzione lineare tra uno spazio vettoriale V di dimensione
n e uno spazio vettoriale V 0 di dimensione m possa essere vista come un’applicazione tra Rn ed
Rm , definita da una matrice di ordine (m, n).
Proposizione 7.3.1 Sia V uno spazio vettoriale reale di dimensione n, e sia B = {b1 , . . . , bn }
una sua base. Sia V 0 uno spazio vettoriale reale e siano c1 , . . . , cn elementi di V 0 . Allora esiste
un’unica funzione lineare f : V → V 0 tale che f (bi ) = ci per ogni i = 1, . . . , n.
Capitolo 7. Funzioni lineari
88
Dimostrazione. Dato v ∈ V , scriviamolo come v = ∑ni=1 vi bi e poniamo f (v) = ∑ni=1 vi ci . E’
immediato verificare che f è lineare e che f (bi ) = ci . Sia ora g : V → V 0 un’altra funzione lineare
tale che g(bi ) = ci . Allora
!
n
g(v) = g
∑ vi bi
i=1
n
n
= ∑ vi g(bi ) = ∑ vi ci = f (v),
i=1
i=1
e ciò prova l’unicità di f .
Osservazione 7.3.2 Se B non è una base, ma solo un sistema indipendente, allora f esiste, ma
non è unica, mentre se B è solo un sistema di generatori, f può non esistere.
Sia f : V → V 0 una funzione lineare, e siano A = {a1 , . . . , an }, B = {b1 , . . . , bm } basi di V
e di V 0 . Per quanto visto nella Proposizione 7.3.1 la funzione f è determinata dalle immagini
dei vettori della base A , cioè da { f (a1 ), . . . , f (an )}. Tali vettori possono essere scritti come
combinazioni lineari dei vettori della base B:
f (a1 ) = α11 b1 + α21 b2 + · · · + αm1 bm
f (a2 ) = α12 b1 + α22 b2 + · · · + αm2 bm
..
..
..
.
.
.
f (an ) = α1n b1 + α2n b2 + · · · + αmn bm
B ( f ) = [α ] la matrice (m, n) dei coefficienti cosı̀ ottenuti. Tale
Definizione 7.3.1 Sia MA
ij
matrice è detta matrice rappresentativa di f rispetto alle basi A e B. Se V = V 0 e A = B
indicheremo la matrice rappresentativa semplicemente con MA .
B
N.B. Le componenti del vettore f (a j ) stanno nella j-esima colonna di MA ( f ).
Esempio 7.2 Sia f : R3 [x] → R3 la funzione lineare definita ponendo
f (p(x)) = (p(−1), p(0), p(2));
vogliamo scrivere la sua matrice rappresentativa rispetto alle basi A = {1, x, x2 , x3 } e C =
{e1 , e2 , e3 }. Dobbiamo quindi trovare le immagini degli elementi della base A e scriverli come
combinazioni lineari degli elementi della base C ; poiché C è la base canonica, quest’ultimo
passaggio è immediato.
f (1) = (1, 1, 1)
f (x) = (−1, 0, 2)
f (x2 ) = (1, 0, 4)
f (x3 ) = (−1, 0, 8)
La matrice rappresentativa è quindi


1 −1 1 −1
C
MA
(f) =  1 0 0 0 
1 2 4 8
L’importanza delle matrici rappresentative è quella di permetterci di ridurre lo studio di una
qualsiasi funzione lineare tra due spazi vettoriali V e V 0 , di dimensioni n ed m a quello di una
funzione lineare tra Rn ed Rm definita dal prodotto per una matrice.
7.3 Matrici rappresentative
89
Proposizione 7.3.3 Sia f : V → V 0 una funzione lineare, siano A = {a1 , . . . , an }, B =
B ( f ) la matrice rappresentativa di f rispetto a tali
{b1 , . . . , bm } basi di V e di V 0 , sia A := MA
basi e sia TA : Rn → Rn la funzione lineare definita dalla moltiplicazione per A.
Allora, indicando con TA : V → Rn e TB : V 0 → Rm gli isomorfismi che ad ogni vettore fanno
corrispondere le sue componenti sulla base, il seguente diagramma è commutativo:
f
V
/ V0
TB
TA
Rn
/ Rm
TA
In altre parole TA = TB ◦ f ◦ TA −1 .
Dimostrazione. Dato un vettore v ∈ V possiamo scriverlo sulla base A come v = ∑ni=1 xi ai , per
cui la sua immagine è data da
!
!
n
f (v) = f
n
∑ xi ai
i=1
n
m
m
= ∑ xi f (ai ) = ∑ xi ∑ α ji b j =
i=1
i=1
j=1
n
∑ ∑ α ji xi
j=1
b j,
i=1
cioè, se f (v) = w e w = ∑mj=1 y j b j otteniamo che
n
y j = ∑ α ji xi ,
i=1
cioè che








y1
y2
...
...
...
ym


 
 
 
=
 
 
 
α11
α21
..
.
..
.
αm1
α12
α22
...
...
αm2
...
α1n
α2n
..
.
..
.
αmn
 

x1
  x2 

 
  ... 


xn


In altre parole (y1 , . . . ym ) = TA (x1 , . . . xn ).
Osservazione 7.3.4 Dalla Proposizione precedente segue che
Ker(TA ) = TA (Ker( f ))
Im(TA ) = TB (Im( f )).
In particolare, per trovare il nucleo o l’immagine di una funzione lineare tra due spazi vettoriali
V e V 0 , di dimensioni n ed m possiamo trovare il nucleo o l’immagine della funzione lineare tra
Rn ed Rm definita dalla matrice rappresentativa.
Esempio 7.3 Sia f : R3 [x] → R3 la funzione lineare dell’Esempio 7.2. Vogliamo usare la
matrice rappresentativa di f per trovare l’immagine di q(x) = x3 − 2x2 − 3x + 2. Per quanto visto
sopra dobbiamo moltiplicare la matrice rappresentativa per una matrice colonna che contiene le
componenti di q(x) sulla base A :

 



1 -1 1 -1
2
2
 1 0 0 0   -3 
 2 

=


1 2 4 8
-2
-4
1
Quindi f (q(x)) = (2, 2, −4). Usando la definizione di f è immediato verificare la correttezza di
quanto trovato.
Capitolo 7. Funzioni lineari
90
Esempio 7.4 Sia f : R3 [x] → R3 la funzione lineare dell’esempio 7.2; vogliamo ora scrivere
la sua matrice rappresentativa rispetto alle basi A = {1, x, x2 , x3 } e B = {v1 = (1, 1, 0), v2 =
(1, 0, −1), v3 = (0, 1, 2)}. Abbiamo già trovato le immagini dei vettori della base A ; dobbiamo
scrivere tali vettori come combinazioni lineari di v1 , v2 , v3 , cioè risolvere i quattro sistemi lineari
corrispondenti alle equazioni x1 v1 + x2 v2 + x3 v3 = f (ai ).
E’ possibile procedere ad una risoluzione contemporanea dei sistemi, considerando la matrice
(v1 , v2 , v3 | f (a1 ), f (a2 ), f (a3 ), f (a4 )) e riducendola in forma a scalini ridotta per righe.




1 1 0 1 −1 1 −1
1 1 0 1 −1 1 −1
−→
 1 0 1 1 0 0 0  E21 (−1)  0 −1 1 0 1 −1 1 
0 −1 2 1 2 4 8
0 −1 2 1 2
4
8




1 1 0 1 −1 1 −1
1 1 0 1 −1 1 −1
−→
−→
E32 (−1)  0 −1 1 0 1 −1 1  D2 (−1)  0 1 −1 0 −1 1 −1 
0 0 1 1 1
5
7
0 0 1 1 1 5 7




1 1 0 1 −1 1 −1
1 0 0 0 −1 −5 −7
−→
−→
6
6 
E23 (1)  0 1 0 1 0 6 6  E12 (−1)  0 1 0 1 0
0 0 1 1 1 5 7
0 0 1 1 1
5
7
La matrice cercata è quindi


0 −1 −5 −7
B
6
6 
MA
= 1 0
1 1
5
7
7.3.1
Cambiamenti di base
Un caso particolare di quanto visto sulle matrici rappresentative delle funzioni lineari ci
permette di costruire la matrice di cambio delle coordinate tra due basi diverse dello stesso spazio
vettoriale.
Definizione 7.3.2 Sia V uno spazio vettoriale di dimensione n e siano A = {a1 , . . . , an },
B = {b1 , . . . , bn } basi di V . Si dice matrice di transizione dalla base A alla base B la
B (Id ), dove con Id si indica la funzione identità da V a V .
matrice MA
V
V
B (Id ) sarà indicata con M B .
Notazione 7.1. La matrice MA
V
A
B è quindi la matrice quadrata di ordine n che ha sulle
Osservazione 7.3.5 La matrice MA
colonne le componenti dei vettori della base A rispetto alla base B.
B permette di trovare la coordinate dei vettori di V sulla base B,
La matrice di transizione MA
se sono note le componenti sulla base A : se (x1 , . . . , xn ) = TA (v) e (y1 , . . . , yn ) = TB (v) sono le
coordinate di v nelle due basi, allora

 


y1
x1
 y2  
  x2 

 


B
 ...  = 
 . . . 
MA

 


 ...  
 . . . 
yn
xn
Osservazione 7.3.6 Dall’osservazione precedente è immediato comprendere che, per trovare
la coordinate dei vettori di V sulla base A , se sono note le componenti sulla base B è necessario
B . Pertanto la matrice M A di transizione dalla base B
moltiplicare per l’inversa della matrice MA
B
alla base A è l’inversa della matrice di transizione dalla base B alla base A :
A
B −1
MB
= (MA
) .
7.3 Matrici rappresentative
91
Esempio 7.5 Siano B la base di R3 formata dai vettori (1, 1, 1), (0, 2, 2), (0, 0, 3) e C =
{(1, 0, 0), (0, 1, 0), (0, 0, 1)} la base canonica. Vogliamo trovare la matrice di transizione MCB .
C , che ha sulle colonne le coordinate dei vettori della base
Scriviamo innanzitutto la matrice MB
B nella base canonica.


1 0 0
C
MB
=  1 2 0 .
1 2 3
La matrice MCB che stiamo cercando è l’inversa della matrice appena scritta.

 −→


1 0 0 1 0 0
1 0 0 1 0 0
 1 2 0 0 1 0  E21 (−1) =  0 2 0 −1 1 0 
E31 (−1)
1 2 3 0 0 1
0 2 3 −1 0 1

 −→ 

1 0 0 1
0 0
1
0
0
1 0 0
−→
D2 (1/2) 
0 
0 1 0 −1/2 1/2
E32 (−1)  0 2 0 −1 1 0 
D3 (1/3)
0 0 3 0 −1 1
0 0 1
0
−1/3 1/3
La matrice MCB è quindi


1
0
0
 −1/2 1/2
0 
0
−1/3 1/3
Utilizziamo tale matrice per trovare le componenti del vettore (2, 4, −2) sulla base B:

 


2
2
1
0
0
 −1/2 1/2
0  4  =  1 
−2
−2
0
−1/3 1/3
Verifichiamo la correttezza della soluzione: 2(1, 1, 1) + (0, 2, 2) − 2(0, 0, 3) = (2, 4, −2).
Abbiamo visto negli esempi 7.2 e 7.4 come la stessa funzione lineare, rispetto a basi diverse,
abbia matrici rappresentative diverse. Consideriamo ora un caso particolare, cioè quello di
funzioni lineari da uno spazio V in se stesso, dette endomorfismi, in cui si prenda la stessa base in
partenza e in arrivo, per vedere come la matrice rappresentativa cambi al variare della base scelta,
e come sia possibile utilizzare le matrici di transizione per trovare la matrice rappresentativa
rispetto ad una base, quando sia nota la matrice rappresentativa rispetto ad un’altra base.
Proposizione 7.3.7 Sia V uno spazio vettoriale di dimensione n, e siano A = {a1 , . . . , an },
B = {b1 , . . . , bn } basi di V . Allora
B
A
MB ( f ) = MA
MA ( f )MB
.
B.
Dimostrazione. Per alleggerire la notazione poniamo A = MA ( f ), B = MB ( f ), P = MA
Se il vettore v ∈ V ha coordinate x = (x1 , . . . , xn ) rispetto alla base A e coordinate y =
(y1 , . . . , yn ) rispetto alla base B, il vettore f (v) ha coordinate Ax rispetto ad A e coordinate B y
rispetto a B. Poiché la matrice P realizza il cambio di coordinate tra la base A e la base B
abbiamo
Px = y
P Ax = B y,
da cui segue che, per ogni x
P A x = B Px
e quindi
PA = BP
come volevasi dimostrare.
⇒
P A P−1 = B,
Capitolo 7. Funzioni lineari
92
Esempio 7.6 Sia f : R3 → R3 l’applicazione lineare la cui matrice rappresentativa rispetto
alla base canonica è


5 −3 −3
MC =  0 −1 0 
6 −3 −4
Vogliamo trovare la matrice rappresentativa di f rispetto alla base B = {(1, 0, 1), (1, 2, 0), (0, 1, −1)}.
C , che ha sulle colonne le coordinate dei vettori della base
Scriviamo innanzitutto la matrice MB
B nella base canonica.


1 1 0
C
MB
=  0 2 1 .
1 0 −1
Calcoliamo ora l’inversa di tale matrice, che è MCB :



1 1 0 1 0 0
1 1
−→
 0 2 1 0 1 0  E31 (−1)  0 2
1 0 −1 0 0 1
0 −1
 −→ 

1
0 0
1 1
0
−→
D2 (1/2) 

1
0
1 0 
E32 (1/2) 0 2
D3 (−2)
0 0 −1/2 −1 1/2 1



1 1 0 1
0
0
−→
−→
1  E12 (−1) 
E23 (−1/2)  0 1 0 −1 1
0 0 1 2 −1 −2

1 0 0
0
1
0 1 0 
−1 −1 0 1

1 1 0 1 0
0
0 1 1/2 0 1/2 0 
0 0 1 2 −1 −2

1 0 0 2 −1 −1
0 1 0 −1 1
1 
0 0 1 2 −1 −2
Abbiamo dunque trovato che

2 −1 −1
1 .
MCB =  −1 1
2 −1 −2

C:
Per trovare MB basta ora fare il prodotto MCB MC MB




2 −1 −1
5 −3 −3
1 1 0
 −1 1
1   0 −1 0   0 2 1  =
2 −1 −2
6 −3 −4
1 0 −1


 

2 −1 −1
2 −1 0
2 0
0
1   0 −2 −1  =  0 −1 0 
=  −1 1
2 −1 −2
2 0
1
0 0 −1
Possiamo perciò concludere che la matrice MB

2
MB =  0
0
7.4
Esercizi riassuntivi
cercata è

0
0
−1 0 
0 −1
7.4 Esercizi riassuntivi
93
Esercizio 7.1 Sia TA : R4 → R5 la funzione lineare definita dalla matrice



A=



1 −1 0 0
1
1 0 2
0
1 0 1
0
1 3 1
−1 −1 0 −2





a) Trovare una base di Ker(TA ) e una base di Im(TA ).
b) Dire se TA è iniettiva e/o suriettiva.
c) Per quali valori di k ∈ R il vettore vk = (k, 2, 1 − k, 4, −2) appartiene a Im(TA )?
Svolgimento Per trovare il nucleo di TA dobbiamo risolvere il sistema lineare A x = 0, mentre
per trovare una base di Im(TA ) dobbiamo trovare una
Cominciamo dunque col ridurre la matrice a scalini.



1 −1 0 0
1 −1 0 0
 1
 −→  0 2 0 2
1
0
2

 E21 (−1) 
 0


1
0
1
 E51 (1)  0 1 0 1

 0

 0 1 3 1
1 3 1
−1 −1 0 −2
0 −2 0 −2


−→ 
S34 


base dello spazio delle colonne C(A).

−→

 E32 (−1/2) 


 E42 (−1/2) 



E52 (1) 

1 −1 0 0
0 2 0 2 

0 0 0 0 

0 0 3 0 
0 0 0 0

1 −1 0 0
0 2 0 2 

0 0 3 0 

0 0 0 0 
0 0 0 0
Il rango di A è 3, e i pivot sono nelle prime tre colonne; pertanto una base dell’immagine è
costituita dai vettori corrispondenti alle prime tre colonne di A, cioè l’insieme
{(1, 1, 0, 0, −1), (−1, 1, 1, 1, −1), (0, 0, 0, 3, 0)}
è una base per Im(TA ); l’immagine ha quindi dimensione 3, e fA non è suriettiva.
Per trovare il nucleo di TA continuiamo con la riduzione all’indietro.




1 −1 0 0
1 0 0 1
−→
 0 1 0 1 


 −→  0 1 0 1 
D2 (1/2) 
 0 0 1 0  E12 (1)  0 0 1 0 



D3 (1/3) 
 0 0 0 0 
 0 0 0 0 
0 0 0 0
0 0 0 0
Le soluzioni di A x = 0 sono quindi

x1
 x2

 x3
x4




−x4

  −x4 

=

  0  = x4 
x4

−1
−1 

0 
1
Una base del nucleo è quindi data da {(−1, −1, 0, 1)}. In particolare la funzione non è iniettiva.
Chiedere se il vettore vk = (k, 2, 1 − k, 4, −2) appartiene a Im(TA ) equivale a chiedere se il
sistema lineare A x = vk è compatibile; costruiamo quindi la matrice completa e riduciamola a
scalini.
Capitolo 7. Funzioni lineari
94

1 −1 0 0
 1
1 0 2

 0
1 0 1

 0
1 3 1
−1 −1 0 −2

1 −1
−→
E32 (−1/2) 
 0 2
E42 (−1/2) 
 0 0
E52 (1)  0 0
0 0
k
2
1−k
4
−2
0
0
0
3
0
0
2
0
0
0


1 −1 0 0
 −→  0 2 0 2
 E21 (−1) 


 E51 (1)  0 1 0 1

 0 1 3 1
0 −2 0 −2


1 −1 0 0
k
 0 2 0 2
2−k 
 −→ 

−k/2 
 S34  0 0 3 0
 0 0 0 0

3 + k/2
0
0 0 0 0
k
2−k
1−k
4
k−2






k
2−k
3 + k/2
−k/2
0






Vediamo quindi che, se k 6= 0 si ha 3 = rg(A) 6= rg(A | vk ) = 4 e il sistema non è compatibile
mentre, se k = 0 si ha 3 = rg(A) = rg(A | v0 ) = 3. Concludiamo quindi che vk ∈ Im(TA ) se e
solo se k = 0.
Base di Ker(TA ): {(−1, −1, 0, 1)}.
Base di Im(TA ): {(1, 1, 0, 0, −1), (−1, 1, 1, 1, −1), (0, 0, 0, 3, 0)}.
2) Non iniettiva, non suriettiva.
3) Per k = 0.
Risposte: 1)
Esercizio 7.2 Sia TA : R3 → R3 la funzione lineare definita dalla matrice

1 1 3
A= 0 2 2 
−1 1 −1

SI trovino nucleo e immagine di TA ◦ TA .
Svolgimento Abbiamo visto, nella sezione 7.1.3, che la composizione di TA e TA è la funzione
lineare TA2 , associata alla matrice A2 . Calcoliamo dunque tale matrice:


 

1 1 3
1 1 3
−2 6 2
 0 2 2   0 2 2  =  −2 6 2 
−1 1 −1
−1 1 −1
0 0 0
La riduzione in forma ridotta per righe di tale matrice è immediata:


1 −3 −1
 0 0
0 
0 0
0
La matrice ha rango 1, e il pivot sta nella prima colonna, quindi dim Im(TA2 ) = 1 e una base
per Im(TA2 ) è data da {(−2, −2, 0)} (cioè la prima colonna nella matrice originaria). Il nucleo
è dato dalle soluzioni del sistema omogeneo A2 x = 0, e quindi dai vettori della forma (3y +
z, y, z) = y(3, 1, 0) + z(1, 0, 1). Pertanto dim Ker(TA2 ) = 2 e una base per Ker(TA2 ) è data da
{(3, 1, 0), (1, 0, 1)}.
Esercizio 7.3 Verificare che le relazioni
f (1, 1, 1) = (−1, 2),
f (0, 1, 1) = (0, 4),
f (1, 1, 0) = (2, 1)
7.4 Esercizi riassuntivi
95
definiscono un’unica applicazione lineare f : R3 → R2 e scrivere la matrice rappresentativa
di f rispetto alla basi canoniche.
Svolgimento In virtù della Proposizione 7.3.1, se i vettori v1 = (1, 1, 1), v2 = (0, 1, 1), v3 =
(1, 1, 0) costituiscono una base di R3 , allora le relazioni date definiscono un’unica funzione
lineare f : R3 → R2 . Per verificarlo consideriamo la matrice che ha sulle colonne le componenti
dei vettori v1 , v2 e v3 e calcoliamone il determinante.


1 0 1
1
1
1
1
1R
det  1 1 1  = det
+ det
= −1 6= 0
1 0
1 1
1 1 0
Chiamiamo A la base canonica di R3 , B la base costituita dai vettori v1 , v2 e v3 , e C la base
canonica di R2 . Per come è definita f è immediato vedere che la matrice rappresentativa di f
rispetto a B e C è data da
−1 0 2
C
MB ( f ) =
2 4 1
Per trovare la matrice rappresentativa di f rispetto a A e C dobbiamo moltiplicare a destra la
B . Tale matrice è l’inversa della matrice M A , che
matrice trovata per la matrice di transizione MA
B
ha sulle colonne le componenti dei vettori di B sulla base canonica A :


1 0 1
A
MB
= 1 1 1 
1 1 0
Troviamo l’inversa di tale matrice, di cui abbiamo già calcolato il determinante, con il metodo
dei cofattori:
1 1
1 1
1 1
0
0
0
a11 = det
a12 = − det
a13 = det
1 0
1 0
1 1
0 1
1 1
1 0
0
0
0
a21 = − det
a22 = det
a23 = − det
1 0
1 0
1 1
0 1
1 1
1 0
0
0
0
a31 = det
a32 = − det
a33 = det
1 1
1 1
1 1
Svolgendo
a011 = −1 a012 = 1
a021 = 1
a013 = 0
a022 = −1 a023 = −1
a031 = −1 a032 = 0
a033 = 1
Dobbiamo ora considerare la trasposta della matrice dei cofattori:
T 

−1 1
0
−1 1 −1
 1 −1 −1  =  1 −1 0 
−1 0
1
0 −1 1

e dividerla per il determinante, ottenendo


1 −1 1
B
0 
MA
=  −1 1
0
1 −1
Capitolo 7. Funzioni lineari
96
C ( f ) è quindi
La matrice MA
C
MA
(f) =
-1
2
0
4
2
1

1
 -1
0
-1
1
1

1
-1
0 =
-2
-1
3
3
-3
1
Risposte: Le relazioni proposte definiscono un’unica funzione lineare perché l’insieme
{(1, 1, 1), (0, 1, 1), (1, 1, 0)} è una base di R3 . La matrice rappresentativa richiesta è
-1 3 -3
-2 3 1
Esercizio 7.4 Sia T : R3 → R4 la funzione lineare definita ponendo
T (x, y, z) = (x + y + 3 z, x + 2 y + 4 z, −x − y − 5 z, y − z).
1. Si trovi il nucleo di T .
2. Si trovino i valori di k per i quali il vettore (0, 0, k, 1) appartiene all’immagine di T .
3. Sia B la base di R3 formata dai vettori (1, 0, 1), (0, 1, 1), (1, 1, 0), e sia C la base
C (T ).
canonica di R4 . Si trovi la matrice rappresentativa MB
Svolgimento Scriviamo la matrice rappresentativa di T rispetto alle basi canoniche e riducia-
mola per righe


1
1
3
−→
1
2
4

 E21 (−1)
−1 −1 −5 E31 (1)
0
1 −1

1
0

0
0


1 3
1
−→
0
1 1
 E (−1) 
0
0 −2 42
1 −1
0


1
1 3
−→
0
1 1
 E (−1) 
0
0 −2 43
0 −2
0

1 3
1 1

0 −2
0 0
Il rango della matrice è 3, e quindi il nucleo è costituito dal solo vettore nullo.
Il vettore (0, 0, k, 1) appartiene all’immagine se e solo se il sistema lineare di matrice

1
1
3
 1
2
4

 −1 −1 −5
0
1 −1
ammette una soluzione

1
1
3
 1
2
4

 −1 −1 −5
0
1 −1

0
−→
0 
E
 21 (−1)
k  E31 (1)
1

0
0 

k 
1

1
 0

 0
0


1 3 0
−→

1 1 0 
 E42 (−1) 


0 −2 k
1 −1 1


1 3
0
1 1
0 

0 −2
k 
0 0 1−k
1
−→
 0
E43 (−1) 
 0
0
Per il Teorema di Rouchè-Capelli ciò accade se e so se k = 1.
1
0
0
0

1 3 0
1 1 0 

0 −2 k 
0 −2 1
7.4 Esercizi riassuntivi
97
C (T ) ha sulle colonne le componenti delle immagini dei vettori
La matrice rappresentativa MB
della base B sulla base canonica di R4 , ed è quindi:


4
4
2
 5
6
3 


 −6 −6 −2 
−1 0
1
Risposte:
1) Ker(T ): {(0, 0, 0)}.
2) Per k = 1.
C (T ) è
3) La matrice rappresentativa MB

4
4
2
 5
6
3 


 −6 −6 −2 
−1 0
1

Esercizio 7.5 Sia V = R2 [x]; sia B la base di V formata dai polinomi
p1 (x) = x + 1, p2 (x) = x2 + 2x + 1, p3 (x) = −x2 + x.
B , ove A = {1, x, x2 } e la si utilizzi per trovare le
Si determini la matrice di transizione MA
componenti del polinomio q(x) = 3x2 − x + 2 sulla base B.
A:
Svolgimento Poiché A è la base canonica, è immediato trovare la matrice MB

A
MB

1 1 0
= 1 2 1 
0 1 −1
B calcoliamo l’inversa di M A :
Per trovare la matrice MA
B


1 1 0 1 0 0
1 1
−→
 1 2 1 0 1 0  E21 (−1)  0 1
0 1 −1 0 0 1
0 1



1 1 0
1
0 0
1
−→
−→



E32 (−1) 0 1 1 −1 1 0 D2 (−1/2) 0
0 0 −2 1 −1 1
0



1 1 0
1
0
0
1
−→
−→
E23 (−1)  0 1 0 −1/2 1/2 1/2  E12 (−1)  0
0 0 1 −1/2 1/2 −1/2
0


0
1 0 0
1 −1 1 0 
−1 0 0 1

1 0
1
0
0
1 1 −1
1
0 
0 1 −1/2 1/2 −1/2

0 0 3/2 −1/2 −1/2
1 0 −1/2 1/2
1/2  .
0 1 −1/2 1/2 −1/2
B è quindi
La matrice MA




3/2 −1/2 −1/2
3 −1 −1
 −1/2 1/2
1/2  = 1/2  −1 1
1 
−1/2 1/2 −1/2
−1 1 −1
98
Capitolo 7. Funzioni lineari
Per trovare le componenti di q(x) sulla base B è ora sufficiente moltiplicare la matrice trovata
per il vettore delle coordinate di q(x) sulla base A :




 

3 −1 −1
2
4
2
1   −1  = 1/2  0  =  0 
1/2  −1 1
−1 1 −1
3
−6
−3
8. Diagonalizzabilità
8.1
Diagonalizzabilità
Abbiamo visto nel capitolo precedente come ad una funzione lineare da uno spazio vettoriale in
se stesso sia possibile, una volta fissata una base di V , associare una matrice rappresentativa, e
come tale matrice vari al variare della base. Questo motiva la seguente
Definizione 8.1.1 Due matrici quadrate A, B ∈ Mn (R) sono simili se esiste una matrice
invertibile C ∈ Mn (R) tale che A = C−1 BC.
Per quanto visto nella Proposizione 7.3.7 sappiamo che matrici rappresentative dello stesso
endomorfismo rispetto a basi diverse sono simili. Si può mostrare che anche il viceversa è vero.
Abbiamo cioè che:
Proposizione 8.1.1 Sia f : V → V un endomorfismo, e sia A = MA ( f ) la sua matrice
rappresentativa rispetto ad una base A di V .
1. Se B è una base di V e B = MB ( f ) allora A e B sono simili.
2. Se B è una matrice simile ad A allora esiste una base B tale che MB ( f ) = B.
Il problema che ci poniamo ora è il seguente: è possibile, data una funzione lineare f : V → V ,
trovare una base tale che la matrice rappresentativa di f rispetto a tale base sia semplice, ad
esempio sia una matrice diagonale?
Definizione 8.1.2 Una funzione lineare f : V → V si dice diagonalizzabile se esiste una base
B di V tale che la matrice rappresentativa MB ( f ) sia una matrice diagonale. Equivalentemente f è diagonalizzabile se la sua matrice rappresentativa rispetto ad una base qualsiasi è
una matrice diagonale.
Osserviamo che, se esiste una base B = {b1 , . . . , bn } rispetto alla quale la matrice rappresentativa di f è diagonale, chiamando λ1 , . . . , λn gli elementi della diagonale, abbiamo che
f (bi ) = λi bi per ogni i = 1, . . . , n, cioè ogni vettore della base viene mandato da f in un suo
multiplo. Questo motiva l’introduzione dei concetti di autovalore e di autovettore.
Capitolo 8. Diagonalizzabilità
100
8.2
8.2.1
Autovalori e autovettori
Definizione e prime proprietà
Definizione 8.2.1 Sia f : V → V una funzione lineare. Un vettore v 6= 0 si dice autovettore
di f se esiste uno scalare λ tale che f (v) = λ v. Uno scalare λ si dice autovalore se esiste
v 6= 0 tale che f (v) = λ v.
Definizione 8.2.2 Sia f : V → V una funzione lineare e sia λ un autovalore di f . Si dice
autospazio relativo all’autovalore λ il sottospazio (di dimensione positiva)
E(λ ) = {v ∈ V | f (v) = λ v}.
Per verificare che E(λ ) è un sottospazio è sufficiente considerare la funzione lineare fλ : V → V
definita ponendo fλ (v) = f (v) − λ v e osservare che E(λ ) = Ker( fλ ).
Osservazione 8.2.1 L’autospazio E(λ ) è costituito dagli autovettori relativi all’autovalore λ e
dal vettore nullo.
Osservazione 8.2.2 Se 0 è un autovalore di f , l’autospazio E(0) coincide con il nucleo di f ; in
particolare 0 è un autovalore di f se e solo se f non è iniettiva.
Possiamo riformulare ora quanto detto nell’introduzione nel modo seguente:
N.B.
Una funzione lineare f : V → V è diagonalizzabile se e solo se esiste una base
dello spazio vettoriale V formata da autovettori di f .
Il seguente risultato, che ci assicura che autovettori appartenenti ad autospazi diversi sono
linearmente indipendenti sarà di grande utilità per stabilire se una funzione è diagonalizzabile.
Proposizione 8.2.3 Siano f : V → V una funzione lineare, e λ1 , . . . , λk (λi 6= λ j se i 6=
j) autovalori di f . Siano v1 , . . . , vk tali che f (vi ) = λi vi . Allora l’insieme {v1 , . . . , vk } è
linearmente indipendente.
Dimostrazione. La dimostrazione è per induzione su k. Se k = 1, allora v1 6= 0 per la definizione
di autovettore e quindi {v1 } è indipendente. Supponiamo ora che la tesi sia vera per k − 1 vettori,
e proviamola per k. Da
µ1 v1 + · · · + µk vk = 0,
(8.1)
applicando f otteniamo
f (µ1 v1 + · · · + µk vk ) = µ1 f (v1 ) + · · · + µk f (vk ) = µ1 λ1 v1 + · · · + µk λk vk = 0.
(8.2)
D’altra parte, moltiplicando la (8.1) per λ1 otteniamo
µ1 λ1 v1 + · · · + µk λ1 vk = 0.
(8.3)
Facendo la differenza tra la (8.2) e la (8.3) otteniamo
µ2 (λ2 − λ1 )v2 + · · · + µk (λk − λ1 )vk = 0.
Per l’ipotesi induttiva {v2 , . . . , vk } è un insieme indipendente, e quindi µi (λi − λ1 ) = 0 per
i = 2, . . . , k. Poiché λi 6= λ1 se i 6= 1 si deve avere necessariamente µi = 0 per i = 2, . . . , k. La
(8.1) si riduce quindi a µ1 v1 = 0, che implica µ1 = 0.
8.2 Autovalori e autovettori
8.2.2
101
Polinomio caratteristico
Vediamo ora come trovare gli autovalori di una funzione lineare f : V → V . Scegliamo una base
A = {a1 , . . . , an } di V , e sia A = MA ( f ) la matrice rappresentativa di f rispetto a tale base. Uno
scalare λ è un autovalore di f se e solo se esiste v ∈ V tale che f (v) = λ v, cioè se esiste una
ennupla x = TA (v) tale che Ax = λ x. Poichè λ x = λ I x, ove I è la matrice identità di ordine n,
possiamo riscrivere la condizione come
(A − λ I)x = 0,
cioè λ è un autovalore se e solo se il sistema lineare omogeneo (A − λ I ) x = 0 ha una soluzione
non banale. Sappiamo che ciò accade se e solo se det(A − λ I ) = 0.
Definizione 8.2.3 Sia f : V → V una funzione lineare, e sia A la sua matrice rappresentativa
rispetto ad una base A = {a1 , . . . , an } di V . Il polinomio caratteristico di f è il polinomio
χ f (λ ) = det(A − λ I),
di grado pari alla dimensione dello spazio vettoriale V .
Osservazione 8.2.4 Il polinomio caratteristico è ben definito: non dipende cioè dalla scelta
della base utilizzata per calcolarlo.
Dimostrazione. Sia B = {b1 , . . . , bn } un’altra base di V , e sia B la matrice rappresentativa di f
A si ha
rispetto a tale base; abbiamo visto nella proposizione 7.3.7 che, posto C = MB
B = C−1 AC;
da ciò segue che
B − λ I = C−1 (A − λ I)C,
e quindi, per il Teorema di Binet
det(B − λ I) =
1
det(A − λ I) detC = det(A − λ I).
detC
Gli autovalori di f sono dunque le radici del polinomio caratteristico χ f (λ ), cioè le soluzioni
dell’equazione χ f (λ ) = 0.
Osservazione 8.2.5 Una volta trovato un autovalore λ0 , l’autospazio corrispondente E(λ0 ),
essendo il nucleo della funzione lineare fλ0 = f − λ0 I, è lo spazio delle soluzioni del sistema
omogeneo di matrice A − λ0 I.
Esempio 8.1 Vediamo ora alcuni esempi:
1. Sia f : R2 → R2 definita ponendo f (x, y) = (y, x); la matrice rappresentativa rispetto alla
base canonica di R2 è
0 1
1 0
Il polinomio caratteristico è dunque
−λ
1
det
= λ 2 − 1 = (λ − 1)(λ + 1),
1 −λ
e quindi f ha due autovalori: λ1 = −1, λ2 = 1.
Capitolo 8. Diagonalizzabilità
102
2. Sia f : R2 → R2 definita ponendo f (x, y) = (−y, x); la matrice rappresentativa rispetto alla
base canonica di R2 è
0 −1
1 0
Il polinomio caratteristico è dunque
det
−λ
1
−1
−λ
= λ 2 + 1,
e quindi f non ha autovalori reali.
3. Sia f : R2 → R2 definita ponendo f (x, y) = (x + y, y); la matrice rappresentativa rispetto
alla base canonica di R2 è
1 1
0 1
Il polinomio caratteristico è dunque
det
1−λ
0
1
1−λ
= (1 − λ )2 ,
e quindi f ha come unico autovalore λ = 1.
8.2.3
Molteplicità algebrica e geometrica
Definizione 8.2.4 Sia f : V → V una funzione lineare, e sia λ0 un autovalore di f . La
molteplicità algebrica di λ0 , denotata con a(λ0 ), è la molteplicità di λ0 come radice del
polinomio caratteristico χ f (λ ), mentre la molteplicità geometrica di λ0 , denotata con g(λ0 ),
è la dimensione dell’autospazio E(λ0 ).
Proposizione 8.2.6 Sia f : V → V una funzione lineare, e sia λ0 un autovalore di f ; allora
1 ≤ g(λ0 ) ≤ a(λ0 ).
Dimostrazione. Sia g = g(λ0 ), e A = {v1 , . . . , vg } una base di Vλ0 ; completiamo A ad una base
B di V : B = {v1 , . . . , vg , vg+1 , . . . , vn }. La matrice rappresentativa di f rispetto a tale base è del
tipo:





λ0 Ig
C
0
B



Usando tale matrice per calcolare il polinomio caratteristico troviamo
χ f (λ ) = (λ0 − λ )g det(B − λ I),
da cui si può vedere che a(λ0 ) ≥ g = g(λ0 ).
Corollario 8.2.7 Sia f : V → V una funzione lineare, e sia λ0 un autovalore di f tale che
a(λ0 ) = 1. Allora a(λ0 ) = g(λ0 ).
8.3 Criteri di diagonalizzabilità
103
Esempio 8.2 La molteplicità algebrica di un autovalore può essere strettamente maggiore
della sua molteplicità geometrica. Consideriamo l’Esempio 8.1 3). In questo caso c’è un unico
autovalore, 1, con molteplicità algebrica a(1) = 2. La molteplicità geometrica di tale autovalore
è la dimensione dell’autospazio E(1), cioè la dimensione del nucleo della funzione lineare la cui
matrice rappresentativa è
0 1
0 0
Il rango di questa matrice è 1, e quindi la dimensione del nucleo è 2 − 1 = 1. Pertanto, in questo
caso 2 = a(1) 6= g(1) = 1.
8.3
Criteri di diagonalizzabilità
Vediamo ora un criterio per la diagonalizzabilità di funzioni lineari:
Teorema 8.3.1 Una funzione lineare f : V → V è diagonalizzabile se e solo se il polinomio
caratteristico χ f (λ ) è totalmente riducibile (cioè si può fattorizzare come prodotto di polinomi
di primo grado) e per ogni autovalore λi si ha a(λi ) = g(λi ).
Dimostrazione. Supponiamo che f sia diagonalizzabile; ciò significa che esiste una base B =
{v1 , . . . , vn } costituita da autovettori di f . La matrice rappresentativa MB ( f ) è una matrice
diagonale, che ha sulla diagonale gli autovalori di f . Il polinomio caratteristico è quindi
totalmente riducibile, e si scrive come
r
χ f (λ ) = ∏(λ − λi )a(λi ) .
i=1
La matrice di fλi = f − λi I ha chiaramente un numero di righe di zeri pari al numero di volte in
cui compare l’autovalore λi , cioè pari alla sua molteplicità algebrica; pertanto
g(λi ) = dim Ker( fλi ) = a(λi ).
Viceversa, se χ f è totalmente riducibile, allora ∑ri=1 a(λi ) = dimV ; inoltre, essendo a(λi ) = g(λi )
si ha ∑ri=1 g(λi ) = dimV . Poniamo gi = g(λi ) e consideriamo A1 = {a11 , . . . , a1g1 }, . . . , Ar =
{ar1 , . . . , argr } basi dei sottospazi E(λ1 ), . . . , E(λr ). Per concludere basta mostrare che l’unione
delle basi A1 , . . . , Ar è una base di V ; poiché si tratta di dimV vettori, è sufficiente mostrare la
loro indipendenza lineare. Da
µ11 a11 + · · · + µ1g1 a1g1 + µ21 a21 + · · · + µ2g2 a2g2 + · · · + µr1 ar1 + · · · + µrgr argr = 0,
raggruppando i vettori che appartengono allo stesso autospazio
(µ11 a11 + · · · + µ1g1 a1g1 ) + (µ21 a21 + · · · + µ2g2 a2g2 ) + · · · + (µr1 ar1 + · · · + µrgr argr ) = 0,
e ponendo wi = µi1 ai1 + · · · + µigi aigi , otteniamo
w1 + w2 + · · · + wr = 0.
Poiché i vettori wi appartengono ad autospazi diversi, e autovettori di autospazi diversi sono
indipendenti per la Proposizione 8.2.3, si deve necessariamente avere wi = 0 per ogni i = 1, . . . , r.
Da ciò segue che, essendo {ai1 , . . . , aigi } una base di E(λi ) si ha µi1 = · · · = µigi = 0, provando
l’indipendenza lineare dei vettori di A .
Capitolo 8. Diagonalizzabilità
104
Corollario 8.3.2 Sia f : V → V una funzione lineare tale che il polinomio caratteristico
χ f (λ ) sia totalmente riducibile e, per ogni autovalore λi si abbia a(λi ) = 1. Allora f è
diagonalizzabile.
Esempio 8.3 Il polinomio caratteristico della funzione lineare dell’Esempio 8.1 2) non è
totalmente riducibile, e quindi la funzione non è diagonalizzabile.
Esempio 8.4 Consideriamo la funzione lineare f dell’Esempio 8.1 1). Il suo polinomio
caratteristico è totalmente riducibile, e la molteplicità algebrica di ogni autovalore è 1, quindi la
funzione è diagonalizzabile. Troviamo una base di autovettori, risolvendo i due sistemi omogenei
corrispondenti ai due autovalori λ1 = −1, λ2 = 1. La matrice rappresentativa di f , rispetto alla
base canonica di R2 è
0 1
A=
1 0
Per trovare una base dell’autospazio E(−1) dobbiamo trovare le soluzioni del sistema omogeneo
la cui matrice è A + I
−→ −→
1 1
1 1
A+I =
E21 (1)
D1 (−1)
1 1
0 0
Le soluzioni del sistema sono quindi i vettori (−y, y) = y(−1, 1) e una base di E(−1) è data da
v1 = (−1, 1).
Per trovare una base dell’autospazio E(1) dobbiamo trovare le soluzioni del sistema omogeneo la cui matrice è A − I
−→ −→ −1 1
−1 1
1 −1
A−I =
E21 (1)
D1 (−1)
1 −1
0 0
0 0
Le soluzioni del sistema sono quindi i vettori (y, y) = y(1, 1) e una base di E(1) è data da
v2 = (1, 1).
Una base di R2 costituita da autovettori di f è quindi data da B = {(−1, 1), (1, 1)}.
8.3.1
Matrici diagonalizzanti
Sia f : V → V una funzione lineare diagonalizzabile, e sia A la sua matrice rappresentativa
rispetto alla base A ; abbiamo visto come sia possibile trovare le componenti degli autovettori
di f sulla base A come soluzioni di sistemi lineari omogenei determinati dagli autovalori di f .
A non è altro che la
Sia B una base formata da autovettori di f ; la matrice di cambio di base MB
matrice che ha sulle colonne le componenti sulla base A degli autovettori stessi.
Esempio 8.5 Consideriamo la funzione lineare f : R2 → R2 dell’Esempio 8.4, la cui matrice
rappresentativa rispetto alla base canonica di R2 è
0 1
A=
1 0
Abbiamo trovato una base di autovettori, la base B = {(−1, 1), (1, 1)}; sia C la matrice che ha
sulle colonne le componenti degli elementi di B:
−1 1
C=
1 1
La matrice inversa di C è (esercizio):
C
−1
1
=
2
−1 1
1 1
8.4 Esercizi riassuntivi
105
e il prodotto C−1 AC (esercizio) è:
1 −1 1
0 1
−1 1
−1 0
−1
C AC =
=
1 1
1 0
1 1
0 1
2
8.3.2
Applicazioni
Vediamo ora un esempio di come la conoscenza della forma diagonale di una matrice porti alla
semplificazione di alcuni problemi. Dato un endomorfismo f : V → V la sua potenza f k è definita
come la composizione successiva f ◦ f ◦ · · · ◦ f per k volte. Se A è una base di V e A = MA ( f ) è
la matrice rappresentativa di f rispetto alla base A, allora la matrice rappresentativa di f k rispetto
alla stessa base sarà Ak . Se la matrice A fosse diagonale, allora sarebbe molto semplice calcolare
Ak . Infatti, se



A=

λ1 0 . . .
0 λ2 . . .
..
.. . .
.
.
.
0 0 ...
0
0
..
.






allora


Ak = 

λn
λ1k 0 . . .
0 λ2k . . .
..
.. . .
.
.
.
0 0 ...
0
0
..
.
λnk





Anche se la matrice non è diagonale, ma è simile ad una matrice diagonale, il calcolo risulta
semplificato: Sia B una base di V costituita da autovettori di f . Allora B = C−1 AC, dove C è la
matrice che ha sulle colonne le componenti degli elementi di B. Segue quindi che A = CBC−1 e
perciò
Ak = (CBC−1 )(CBC−1 ) . . . (CBC−1 ) = CBkC−1 .
8.4
Esercizi riassuntivi
Esercizio 8.1 Sia f : R3 → R3 la funzione lineare definita ponendo
f (x, y, z) = (x + z, y + z, x + y),
si provi che f è diagonalizzabile e si trovi una base di R3 formata da autovettori di f .
Sia A la matrice rappresentativa di f rispetto alla base canonica di R3 . Si calcoli A5 .
Svolgimento La matrice rappresentativa di f rispetto alla base canonica di R3 è


1 0 1
A= 0 1 1 
1 1 0
Il polinomio caratteristico di f è quindi


1−λ
0
1
1−λ
1R


0
1−λ
1
χ f (λ ) = det
= (1 − λ ) det
1
1
1
−λ
1
−λ
+ det
0 1−λ
1
1
=
= (1 − λ )(−λ + λ 2 − 1) − (1 − λ ) = (1 − λ )(λ 2 − λ − 2) = (1 − λ )(λ − 2)(λ + 1).
Il polinomio caratteristico di f è quindi totalmente riducibile; inoltre la molteplicità algebrica è
uguale a uno per tutti gli autovalori. Segue quindi che f è diagonalizzabile.
Capitolo 8. Diagonalizzabilità
106
Per trovare una base di autovettori dobbiamo trovare basi per tutti gli autospazi. La base cercata
sarà l’unione delle basi degli autospazi.
E(1)
Dobbiamo trovare le soluzioni del sistema omogeneo la cui matrice è A − I








1 1 −1
1 1 −1
1 1 0
0 0 1
−→
−→
−→
 0 0 1  S13  0 0 1  E32 (−1)  0 0 1  E12 (1)  0 0 1 
0 0 1
0 0 0
0 0 0
1 1 −1
Le soluzioni dipendono dalla variabile libera y e sono x = −y, z = 0, cioè y(−1, 1, 0). Il vettore
(−1, 1, 0) è una base di E(1).
E(2)
Dobbiamo trovare le soluzioni del sistema omogeneo la cui matrice è A − 2I



 −→ 



−1 0
1
−1 0 1
−1 0
1
1 0 −1
−→
−→
 0 −1 1  E31(1)  0 −1 1  E32 (1)  0 −1 1  D2 (−1)  0 1 −1 
D1 (−1)
0
1 −1
0
0 0
0 0 0
1
1 −2
Le soluzioni dipendono dalla variabile libera x e sono x = z, y = z, cioè z(1, 1, 1). Il vettore
(1, 1, 1) è una base di E(2).
E(−1)
Dobbiamo trovare le soluzioni del sistema omogeneo la cui matrice è A + I

 −→ 





1 0 1/2
2 0 1
2 0 1
2 0 1
−→
−→
D
(1/2)
 0 1 1/2 
 0 2 1  E31(−1/2)  0 2 1  E32 (−1/21)  0 2 1  2
D1 (1/2)
0 0 0
0 0 0
0 1 1/2
1 1 1
Le soluzioni dipendono dalla variabile libera z e sono x = −z/2, y = −z/2, cioè z(−1/2, −1/2, 1).
Il vettore (−1/2, −1/2, 1) è una base di E(−1).
Una base di autovettori di f è quindi data da B = {(−1, 1, 0), (1, 1, 1), (−1/2, −1/2, 1)}.
Sia C la base canonica di R3 . Ricordiamo che
C
A := MC ( f ) = MB
MB ( f )MCB .
C è la matrice che ha sulle colonne le componenti degli elementi di B:
La matrice C := MB


−1 1 −1/2
C =  1 1 −1/2 
0 1
1
e la sua inversa di C è (esercizio):


−3/2 3/2 0
1
1 1 
C−1 =  1
3
−1
−1 2
La matrice MB ( f ) è la matrice che ha sulla diagonale gli autovalori di f , ordinati coerentemente
con gli elementi della base:
8.4 Esercizi riassuntivi
107


1 0 0
MB ( f ) =  0 2 0 
0 0 −1
Pertanto




−1 1 −1/2
1 0 0
−3/2 3/2 0
1
1 1 ,
A =  1 1 −1/2   0 2 0   1
3
0 1
1
0 0 −1
−1
−1 2
e quindi



 

−1 1 −1/2
1 0
0
−3/2 3/2 0
11 10 11
1
1 1  =  10 11 11 
A5 =  1 1 −1/2   0 32 0   1
3
0 1
1
0 0 −1
−1
−1 2
11 11 10
Esercizio 8.2 Per quali valori del parametro reale k la funzione lineare fk : R4 → R4 la cui
matrice rappresentativa rispetto alla base canonica è

2 0
0
1
 1 1 k−1 4

 1 0
k
4
0 0
0
1




è diagonalizzabile?
Svolgimento Calcoliamo innanzitutto il polinomio caratteristico di f :

2−λ
 1
χ f (t) = 
 1
0
0
1−λ
0
0


0
1
2−λ

k−1
4  4R
 1
=
(1
−
λ
)
det
k−λ
4 
1
0
1−λ
1R
= (1 − t)(2 − t) det
1−λ
0
k−1
k−λ

0
k−1  =
k−λ
0
1−λ
0
= (1 − λ )2 (2 − λ )(k − λ ).
Dobbiamo considerare separatamente i casi k = 1, k = 2 e k 6= 1, 2.
k=1
La funzione f1 ha due autovalori: λ1 = 1, con molteplicità algebrica 3 e λ2 = 2, con
molteplicità algebrica 1. Andiamo a calcolare la dimensione dell’autospazio E(1), che è il
nucleo della funzione lineare la cui matrice rappresentativa rispetto alla base canonica è:

1
 1

 1
0
0
0
0
0
0
0
0
0


1
−→

4 
 E32 (−1) 


4
0
1
1
0
0
0
0
0
0
0
0
0
0


1
−→

4 
 E21 (−1) 


0
0
1
0
0
0
0
0
0
0
0
0
0
0

1
3 

0 
0
La matrice ha rango 2, quindi la dimensione del nucleo è 4 − 2 = 2. Pertanto 3 = a(1) 6= g(1) = 2
e la funzione lineare f1 non è diagonalizzabile.
k=2
Capitolo 8. Diagonalizzabilità
108
La funzione f2 ha due autovalori: λ1 = 1, con molteplicità algebrica 2 e λ2 = 2, con
molteplicità algebrica 2. Andiamo a calcolare la dimensione dell’autospazio E(1), che è il
nucleo della funzione lineare la cui matrice rappresentativa rispetto alla base canonica è:






1 0 0 1
1 0 0 1
1 0 0 1
 1 0 1 4  −→  1 0 1 4  −→  0 0 1 3 






 1 0 1 4  E32 (−1)  0 0 0 0  E21 (−1)  0 0 0 0 
0 0 0 0
0 0 0 0
0 0 0 0
La matrice ha rango 2, quindi la dimensione del nucleo è 4 − 2 = 2. Pertanto 2 = a(1) = g(1) = 2.
Calcoliamo ora la dimensione dell’autospazio E(2), che è il nucleo della funzione lineare la cui
matrice rappresentativa rispetto alla base canonica è:






0 0 0 1
1 0 0 4
1 0 0 4
−→
 1 −1 1 4  −→  1 −1 1 4  E21 (−1)  0 −1 1 0 






 1 0 0 4  S13  0 0 0 1  E43 (1)  0 0 0 1 
0 0 0 −1
0 0 0 −1
0 0 0 0
La matrice ha rango 3, quindi la dimensione del nucleo è 4 − 3 = 1. Pertanto 2 = a(1) 6= g(1) = 1
e la funzione lineare f2 non è diagonalizzabile.
k 6= 1, 2
La funzione fk ha tre autovalori: λ1 = 1, con molteplicità algebrica 2, λ2 = 2, con molteplicità
algebrica 1 e λ3 = k, con molteplicità algebrica 1. L’unico autospazio da verificare è quello
relativo all’autovalore 1; E(1), che è il nucleo della funzione lineare la cui matrice rappresentativa
rispetto alla base canonica è:




1 0
0
1
1 0
0
1
−→
 1 0 k − 1 4  E32 (−1)  0 0 k − 1 3 




 1 0 k − 1 4  E21 (−1)  0 0
0
0 
0 0
0
0
0 0
0
0
La matrice ha rango 2, quindi la dimensione del nucleo è 4 − 2 = 1. Pertanto 2 = a(1) =
g(1) = 2; pertanto, per ogni autovalore di f si ha a(λ ) = g(λ ) e la funzione lineare fk è quindi
diagonalizzabile per k 6= 1, 2.
Esercizio 8.3 Sia V = R2 [x] lo spazio vettoriale dei polinomi in x a coefficienti reali e grado
al più due. Sia f : V → V l’applicazione lineare tale che
f (x2 ) = x2 + x
f (x) = x2 + 2x − 1
f (1) = −x + 1
Si provi che f è diagonalizzabile e si trovi una base di R2 [x] costituita da autovettori di f .
Svolgimento Scegliamo come base per lo spazio vettoriale V la base B = {x2 , x, 1}, e scrivia-
mo la matrice rappresentativa di f rispetto a tale base, ponendo sulle colonne le componenti
delle immagini dei vettori di B:


1 1
0
MB ( f ) =  1 2 −1 
0 −1 1
8.4 Esercizi riassuntivi
109
Calcoliamo ora il polinomio caratteristico di f :


1−t
1
0
2 − t −1
1 −1
1R
2 − t −1  = (1 − t) det
χ f (t) =  1
− det
=
−1 1 − t
0 1−t
0
−1 1 − t
= (1 − t)(2 − 3t + t 2 − 1) − (1 − t) = (1 − t)(t 2 − 3t) = t(1 − t)(t − 3)
Il polinomio caratteristico è totalmente riducibile, e tutti gli autovalori hanno molteplicità
algebrica 1, quindi f è diagonalizzabile.
Per trovare una base di autovettori dobbiamo trovare basi per tutti gli autospazi. La base cercata
sarà l’unione delle basi degli autospazi. Nel seguito, per evitare confusione con i polinomi,
indicheremo le incognite, corrispondenti alle componenti dei vettori, con y, z e w
E(0)
Dobbiamo trovare le soluzioni del sistema omogeneo la cui matrice è MB ( f );








1 1
0
1 1
0
1 1 0
1 0 1
−→
−→
−→
 1 2 −1  E21 (−1)  0 1 −1  E32 (1)  0 1 −1  E12 (−1)  0 1 −1 
0 −1 1
0 −1 1
0 0 0
0 0 0
Le soluzioni del sistema sono quindi (−w, w, w) = w(−1, 1, 1). Gli autovettori di f corrispondenti
sono quindi i multipli scalari del polinomio −x2 + x + 1, che costituisce una base di E(0).
E(1)
Dobbiamo trovare le soluzioni del sistema omogeneo la cui matrice è MB ( f ) − I;








1 0 −1
1 1 −1
0 1
0
1 1 −1
−→
−→
−→
 1 1 −1  S12  0 1
0  E32 (1)  0 1 0  E12 (−1)  0 1 0 
0 0 0
0 0 0
0 −1 0
0 −1 0
Le soluzioni del sistema sono quindi (w, 0, w) = w(1, 0, 1). Gli autovettori di f corrispondenti
sono quindi i multipli scalari del polinomio x2 + 1, che costituisce una base di E(1).
E(3)
Dobbiamo trovare le soluzioni del sistema omogeneo la cui matrice è MB ( f ) − 3I;






−2 1
0
−2
1
0
−2
1
0
−→
−→
 1 −1 −1  E21 (1/2)  0 −1/2 −1  E32 (−2)  0 −1/2 −1 
0 −1 −2
0
−1 −2
0
0
0
−→




1 −1/2 0
1 0 1
−→
D1 (−1/2) 
0
1
2  E12 (1/2)  0 1 2 
D2 (−2)
0
0
0
0 0 0
Le soluzioni del sistema sono quindi (−w, −2w, w) = w(−1, −2, 1). Gli autovettori di f corrispondenti sono quindi i multipli scalari del polinomio −x2 − 2x + 1, che costituisce una base di
E(3).
Una base di R2 [x] costituita da autovettori di f è dunque {−x2 + x + 1, x2 + 1, −x2 − 2x + 1}.
9. Endomorfismi simmetrici
9.1
9.1.1
Spazi vettoriali euclidei
Prodotto scalare
Definizione 9.1.1 Sia V uno spazio vettoriale reale. Un prodotto scalare su V è una funzione
che a una coppia di vettori v, w associa un numero reale, indicato con v · w, tale che valgano
le seguenti proprietà:
1. v · w = w · v per ogni v, w ∈ V ;
2. (λ v) · w = λ (v · w) per ogni v, w ∈ V e per ogni λ ∈ R;
3. v · (u + w) = v · u + v · w per ogni v, w, u ∈ V ;
4. v · v = |v|2 ≥ 0 per ogni v ∈ V e v · v = 0 se e solo se v = 0.
Uno spazio vettoriale dotato di un prodotto scalare è detto spazio vettoriale euclideo.
Esempi 9.1 Vediamo ora alcuni esempi di spazi euclidei:
1. V = Rn , con il cosiddetto prodotto scalare canonico, definito nel modo seguente: se
v = (v1 , . . . , vn ) e w = (w1 , . . . , wn ) sono ennuple di Rn , allora
n
v · w = ∑ vi w i .
i=1
2. V = R2 [x], con il prodotto scalare definito nel modo seguente: se p(x), q(x) ∈ R2 [x] allora
p(x) · q(x) = p(0)q(0) + p(1)q(1) + p(−1)q(−1).
3. V = M2 (R), con il prodotto scalare definito nel modo seguente: se A, B ∈ M2 (R) allora
A · B = Tr(BT A),
ove Tr indica la traccia della matrice, cioè la somma degli elementi sulla diagonale
principale.
Capitolo 9. Endomorfismi simmetrici
112
Proposizione 9.1.1 — Disuguaglianza di Cauchy-Schwartz. Sia V uno spazio vettoriale
euclideo, e siano u, v ∈ V . Allora
(u · v)2 ≤ (u · u)(v · v),
e vale l’uguaglianza se e solo se u e v sono linearmente dipendenti.
Dimostrazione. Possiamo supporre che u, v 6= 0, altrimenti l’enunciato è banalmente verificato.
Per la Proprietà 4) abbiamo che, per ogni λ , µ ∈ R si ha 0 ≤ (λ u + µv) · (λ u + µv). Usando le
proprietà 1)-3) del prodotto scalare troviamo che
0 ≤ (λ u + µv) · (λ u + µv) = λ 2 (u · u) + 2λ µ(u · v) + µ 2 (v · v).
Scegliamo ora λ̄ = v · v e µ̄ = −u · v, e otteniamo
0 ≤ (v · v)2 (u · u) − 2(v · v)(u · v)2 + (u · v)2 (v · v)
0 ≤ (v · v)[(u · u)(v · v) − (u · v)2 ].
Poiché stiamo supponendo che v 6= 0, allora, per la proprietà 4) abbiamo v · v > 0, e quindi
otteniamo la disuguaglianza cercata. L’uguaglianza vale se e solo se (λ̄ u + µ̄v) · (λ̄ u + µ̄v) = 0, e
quindi, per la proprietà 4) se e solo se λ̄ u+ µ̄v = 0, cioè se u e v sono linearmente dipendenti. Utilizzando il prodotto scalare è possibile definire la norma di un vettore, come
√
kvk = v · v.
Proposizione 9.1.2 Sia V uno spazio vettoriale euclideo. La norma è una funzione da V a R
che gode delle seguenti proprietà:
1. Per ogni v ∈ V si ha kvk ≥ 0 e kvk = 0 se e solo se v = 0;
2. kλ vk = |λ |kvk per ogni λ ∈ R e ogni v ∈ V ;
3. ku + vk ≤ kuk + kvk per ogni u, v ∈ V .
Dimostrazione. Le prime due proprietà sono conseguenze immediate della definizione, mentre
la terza segue dalla disuguaglianza di Cauchy-Schwartz. Infatti
ku + vk2 = u · u + 2u · v + v · v
p
≤ u · u + 2 (u · u)(v · v) + v · v
≤ (kuk + kvk)2 .
Osservazione 9.1.3 Nel caso di Rn col prodotto scalare canonico, in analogia con quanto visto
nel primo capitolo, si può dimostrare che, dati v e u in Rn , detto ϑ l’angolo tra i due vettori si ha
cos ϑ =
v·u
.
kvkkuk
Definizione 9.1.2 Dato un vettore v 6= 0, la sua normalizzazione è il vettore v/kvk; è
immediato verificare che la normalizzazione di un vettore è un vettore di norma 1.
Utilizzando la norma è possibile definire la distanza di due vettori come la norma della loro
differenza:
d(u, v) = ku − vk.
9.1 Spazi vettoriali euclidei
113
Proposizione 9.1.4 Sia V uno spazio vettoriale euclideo. La distanza soddisfa:
1. Per ogni u, v ∈ V si ha d(u, v) ≥ 0 e d(u, v) = 0 se e solo se u = v;
2. Per ogni u, v ∈ V si ha d(u, v) = d(v, u);
3. Per ogni u, v, w ∈ V si ha d(u, v) ≤ d(u, w) + d(v, w).
Dimostrazione. Le prime due proprietà sono conseguenze immediate della definizione; dimostriamo l’ultima, utilizzando la proprietà 3) della norma.
d(u, v) = ku − vk = ku − w + w − vk ≤ ku − wk + kw − vk = d(u, w) + d(w, v).
9.1.2
Ortogonalità e proiezioni
Definizione 9.1.3 Sia V uno spazio vettoriale euclideo. Due vettori u e v si dicono ortogonali
se il loro prodotto scalare è nullo. Dato un sottoinsieme S ⊂ V , l’insieme dei vettori ortogonali
a tutti gli elementi di S è un sottospazio di V , che indicheremo con S⊥ :
S⊥ = {v ∈ V | v · u = 0 ∀ u ∈ S}.
È immediato verificare, usando le definizioni, che S⊥ = hSi⊥ .
Proposizione 9.1.5 Sia V uno spazio vettoriale euclideo, e siano v1 , . . . , v p vettori non nulli
e ortogonali a coppie (cioè vi · v j = 0 per ogni i 6= j). Allora {v1 , . . . , v p } è un sistema
indipendente.
Dimostrazione. Uguagliamo al vettore nullo una combinazione lineare dei vi :
λ1 v1 + · · · + λ p v p = 0.
Moltiplicando scalarmente tale uguaglianza per vi troviamo λi (vi · vi ) = 0, da cui segue λi = 0 e
quindi la tesi.
Corollario 9.1.6 Sia V uno spazio vettoriale euclideo di dimensione n, e siano v1 , . . . , vn
vettori non nulli e ortogonali a coppie. Allora {v1 , . . . , vn } è una base di V .
In uno spazio vettoriale euclideo, fissato un vettore u 6= 0 è possibile scrivere ogni altro vettore
come somma di un vettore ortogonale a u e un vettore parallelo a u. Dato v ∈ V vogliamo
scrivere
v = λ u + (v − λ u)
scegliendo λ in modo tale che
u · (v − λ u) = 0.
È immediato verificare che è necessario scegliere
λ=
v·u
.
kuk2
Definizione 9.1.4 In uno spazio vettoriale euclideo V , fissato un vettore u 6= 0, la proiezione
ortogonale lungo u è la funzione pru : V → V definita ponendo
pru (v) =
v·u
u.
kuk2
Capitolo 9. Endomorfismi simmetrici
114
9.1.3
Basi ortonormali
Notazione 9.1. Definiamo il δ di Kronecker nel modo seguente:
(
0 i 6= j
δi j =
1 i= j
Definizione 9.1.5 Sia V uno spazio vettoriale euclideo; un insieme di vettori {v1 , . . . , v p } è
detto ortonormale se vi · v j = δi j . In particolare, se {v1 , . . . , v p } è una base, sarà detta base
ortonormale.
Osservazione 9.1.7 Sia V uno spazio vettoriale euclideo, e sia A = {a1 , . . . , an } una base
ortonormale di V ; allora la coordinata i-esima di un vettore v sulla base A è data da v · ai .
Dimostrazione. Scriviamo v = ∑nj=1 v j a j ; effettuando il prodotto scalare con ai troviamo
n
n
v · ai = ∑ v j (a j · ai ) = ∑ v j δi j = vi .
i=1
i=1
Proposizione 9.1.8 — Metodo di Gram-Schmidt. Sia V uno spazio vettoriale euclideo,
e {v1 , . . . , v p } un sistema di vettori linearmente indipendente. Allora esiste un insieme
ortonormale di vettori {a1 , . . . , a p } tale che ha1 , . . . , a p i = hv1 , . . . , v p i.
Dimostrazione. Cominciamo a costruire un insieme di vettori {a01 , . . . , a0p } che siano ortogonali
a coppie e tali che ha01 , . . . , a0p i = hv1 , . . . , v p i. L’insieme cercato sarà ottenuto normalizzando
tali vettori. Poniamo dunque
a01 = v1 ,
a02 = v2 − pra01 (v2 ) = v2 −
...
s−1
v2 · a01 0
a
ka01 k2 1
vs · a0i 0
0 2 ai
i=1 kai k
s−1
a0s = vs − ∑ pra0i (vs ) = vs − ∑
i=1
a01 , . . . , a0p
Poiché i vettori
cosı̀ costruiti sono ortogonali a coppie, il sistema {a01 , . . . , a0p } è linearmente indipendente. Inoltre per costruzione vi ∈ ha01 , . . . , a0i i, quindi hv1 , . . . , v p i ⊆ ha01 , . . . , a0p i.
Poiché dimhv1 , . . . , v p i = p l’inclusione è in realtà un’uguaglianza.
Esempio 9.1 Sia V = R3 , con il prodotto scalare canonico, e sia B la base di R3 costituita
dai vettori (1, 1, 1), (0, 1, 1), (0, 0, 1). Vogliamo trovare una base ortonormale di R3 applicando a
B il metodo di Gram-Schmidt.
Cominciamo coll’ottenere una base ortonormale A 0 = {a01 , a02 , a03 }, come visto nella dimostrazione della Proposizione 9.1.8:
a01 = v1 = (1, 1, 1)
v2 · a0
a02 = v2 − 0 21 a01 =
ka1 k
1
2
= (0, 1, 1) − (1, 1, 1) = (−2, 1, 1)
3
3
0
0
v3 · a
v3 · a
a03 = v3 − 0 21 a01 − 0 22 a02 =
ka1 k
ka2 k
1
1
1
= (0, 0, 1) − (1, 1, 1) − (−2, 1, 1) = (0, −1, 1)
3
6
2
9.2 Endomorfismi simmetrici
115
La base ortonormale cercata si trova ora normalizzando i vettori di A 0 :
a1 =
1
a01
= √ (1, 1, 1)
0
ka1 k
3
a2 =
1
a02
= √ (−2, 1, 1)
0
ka2 k
6
a3 =
a03
1
= √ (0, −1, 1)
0
ka3 k
2
Proposizione 9.1.9 Sia V uno spazio vettoriale euclideo, e sia S un sottoinsieme di V . Allora
dimhS i + dim S⊥ = dimV.
Dimostrazione. Sia {u1 , . . . , u p } una base ortonormale di hS i, e sia f : V → R p definita ponendo
f (v) = (v · u1 , . . . , v · u p ). La funzione f è lineare, e il suo nucleo è S⊥ ; infatti un vettore nel
nucleo è un vettore ortogonale a u1 , . . . , u p , e quindi a tutte le loro combinazioni lineari.
Inoltre f è suriettiva, poiché { f (u1 ), . . . , f (u p )} è la base canonica di R p . La tesi segue quindi
dal Teorema della nullità più rango.
9.2
Endomorfismi simmetrici
Definizione 9.2.1 Sia V uno spazio vettoriale euclideo. Una funzione lineare f : V → V è
detta simmetrica o autoaggiunta se f (u) · v = u · f (v) per ogni u, v ∈ V .
Osservazione 9.2.1 Sia V uno spazio vettoriale euclideo, sia f : V → V una funzione lineare, e
sia A la sua matrice rappresentativa rispetto a una base ortonormale di V ; allora f è simmetrica
se e solo se A è una matrice simmetrica.
Dimostrazione. Il termine ai j della matrice rappresentativa di f è dato dalla componente i-esima
dell’immagine del j-esimo vettore della base. In virtù dell’Osservazione 9.1.7 abbiamo dunque
ai j = f (a j ) · ai
e
a ji = f (ai ) · a j ;
(9.1)
se f è simmetrica si ha quindi che ai j = a ji e quindi A è simmetrica. Se A è simmetrica la
simmetria di f segue dalla 9.1 e dalla linearità di f . Infatti, se u = ∑ni=1 ui ai e v = ∑nj=1 v j a j si ha
n
f (u) · v =
i=1
n n
=
n
n
n
∑ ui f (ai ) · ∑ v j a j = ∑ ∑ ui v j f (ai ) · a j
j=1
i=1 i=1
n
n
∑ ∑ ui v j ai · f (a j ) = ∑ ui ai · ∑ v j f (a j ) = u · f (v).
i=1 i=1
i=1
j=1
Corollario 9.2.2 Consideriamo lo spazio vettoriale euclideo Rn con il prodotto scalare
canonico. Sia f : Rn → Rn una funzione lineare; allora f è simmetrica se e solo se la sua
matrice rappresentativa rispetto alla base canonica di Rn è simmetrica.
Osservazione 9.2.3 Sia V uno spazio vettoriale euclideo, sia f : V → V una funzione lineare
simmetrica, e siano λ1 6= λ2 autovalori di f . Siano v1 ∈ E(λ1 ) e v2 ∈ E(λ2 ). Allora v1 · v2 = 0.
Dimostrazione. Da f (v1 ) · v2 = v1 · f (v2 ) otteniamo
λ1 v1 · v2 = λ2 v1 · v2 ,
e quindi
(λ1 − λ2 )v1 · v2 = 0,
da cui la tesi.
Capitolo 9. Endomorfismi simmetrici
116
9.2.1
Il Teorema Spettrale
Lemma 9.1 Sia V uno spazio vettoriale euclideo, sia f : V → V una funzione lineare simmetrica;
allora il polinomio caratteristico χ f (λ ) è totalmente riducibile.
Dimostrazione. Per il teorema fondamentale dell’algebra χ f (λ ) è totalmente riducibile su C;
basta quindi mostrare che ogni radice complessa di χ f (λ ) è reale. Siano A una matrice rappresentativa di f rispetto ad una base ortonomale A , λ ∈ C un autovalore di f , e sia v un autovettore
in E(λ ). Da Av = λ v, trasponendo e prendendo il coniugato, otteniamo vT A = λ̄ vT , e quindi,
moltiplicando a destra per il vettore colonna v
n
vT Av = λ vT v = λ ∑ |vi |2 .
i=1
Moltiplicando per vT a sinistra l’uguaglianza Av = λ v otteniamo invece
n
vT Av = λ vT v = λ ∑ |vi |2 .
i=1
Uguagliando le due espressioni troviamo che λ = λ̄ , cioè λ è un numero reale.
Teorema 9.2.4 — Teorema spettrale. Sia V uno spazio vettoriale euclideo; una funzione
lineare f : V → V è simmetrica se e solo se esiste una base ortonormale di V costituita da
autovettori di f .
Dimostrazione. Supponiamo che f : V → V sia simmetrica e mostriamo l’esistenza di una base
ortonormale di V costituita da autovettori di f . La dimostrazione è per induzione su dimV .
Se dimV = 1, dato un qualsiasi vettore v1 6= 0, la sua normalizzazione è un autovettore e
costituisce una base ortonormale di V .
Supponiamo ora la tesi vera per dimV = n − 1 e proviamola per dimV = n. Per il Lemma 9.1
esiste λ autovalore reale di f ; sia a1 un autovettore relativo a λ di norma unitaria. Sia U il
sottospazio ortogonale ad a1 ; tale sottospazio ha dimensione n − 1 per la Proposizione 9.1.9.
Osserviamo che, per ogni u ∈ U si ha f (u) ⊂ U; infatti
f (u) · a1 = u · f (a1 ) = λ u · a1 = 0.
Possiamo quindi considerare la funzione lineare f : U → U data dalla restrizione di f ; per
l’ipotesi induttiva esiste una base ortonormale {a2 , . . . , an } di U costituita da autovettori di f . La
base cercata è quindi A = {a1 , a2 , . . . , an }.
Viceversa, se A = {a1 , a2 , . . . , an } è una base ortonormale di autovettori di f , la matrice
rappresentativa di f rispetto ad A è diagonale, quindi simmetrica.
Corollario 9.2.5 Sia V uno spazio vettoriale euclideo; una funzione lineare f : V → V
simmetrica è diagonalizzabile.
9.2.2
Matrici ortogonali
Consideriamo ora come spazio vettoriale euclideo Rn con il prodotto scalare canonico; sia
C la
A = {a1 , . . . , an } una base ortonormale di Rn , sia C la base canonica di Rn , e sia C = MA
matrice di cambiamento di base. Visto che le colonne della matrice C contengono le componenti
dei vettori di A sulla base canonica, l’ortonormalità della base A è equivalente alle condizioni
CT C = Id = CCT ,
cioè l’inversa della matrice di transizione è la sua trasposta.
9.2 Endomorfismi simmetrici
117
Definizione 9.2.2 Una matrice quadrata è detta ortogonale se è invertibile e ha come inversa
la sua trasposta.
Osservazione 9.2.6 Una matrice ortogonale ha determinante uguale a ∓1.
Dimostrazione. Se A è una matrice ortogonale, allora, per il Teorema di Binet, si ha
det(AAT ) = det A det AT = det I = 1;
dal fatto che det A = det AT segue la tesi.
Il Teorema spettrale può essere riformulato come segue
Teorema 9.2.7 — Teorema spettrale per Rn . Una matrice reale A è simmetrica se e solo
se è ortogonalmente simile ad una matrice diagonale, cioè esiste una matrice ortogonale C
tale che C−1 AC è una matrice diagonale.
Le matrici ortogonali sono associate a particolari funzioni lineari:
Definizione 9.2.3 Una funzione lineare biunivoca f : Rn → Rn è detta isometria se ∀u, v ∈ Rn
si ha che f (u) · f (v) = u · v.
Proposizione 9.2.8 Sia f : Rn → Rn un’isometria, e sia A = {a1 , . . . , an } una base ortonor-
male di Rn . Allora la matrice A = MA ( f ) è una matrice ortogonale.
Dimostrazione. Sia A = [αi j ]; per definizione di matrice rappresentativa abbiamo
n
f (ai ) =
n
f (a j ) =
∑ αki ak
∑ αh j ah ,
h=1
k=1
e quindi
n
δi j = ai · a j = f (ai ) · f (a j ) =
n
n
∑ ∑ αki αh j ah · ak = ∑ αki αk j .
k=1 h=1
k=1
D’altra parte, utilizzando la definizione del prodotto righe per colonne, vediamo che l’elemento di
posto (i, j) nel prodotto di A con AT è esattamente ∑nk=1 αki αk j , e l’asserto è quindi provato. Osservazione 9.2.9 Il nome isometria viene dal fatto che tali funzioni conservano le distanze,
cioè, se f è un’isometria si ha d( f (u), f (v)) = d(u, v).
Dimostrazione. Ricordando la definizione di distanza, abbiamo che
d( f (u), f (v)) = k f (u) − f (v)k = k f (u − v)k =
p
p
f (u − v) · f (u − v) = (u − v) · (u − v) = ku − vk = d(u, v).
=
e vediamo cosı̀ che f conserva la distanza.
Esempio 9.2 In R2 , un versore, cioè un vettore di norma unitaria, può sempre essere scritto
come (cos ϑ , sin ϑ ) per un opportuno angolo ϑ . I versori ortogonali a tale versore sono due, cioè
(− sin ϑ , cos ϑ ) e (sin ϑ , − cos ϑ ). Le matrici ortogonali di ordine due sono quindi del tipo
cos ϑ − sin ϑ
cos ϑ
sin ϑ
o
.
sin ϑ cos ϑ
sin ϑ − cos ϑ
Quelle del primo tipo hanno determinante 1, quelle del secondo tipo hanno determinante −1.
Capitolo 9. Endomorfismi simmetrici
118
9.3
Esercizi riassuntivi
Esercizio 9.1 Sia f : R3 → R3 la funzione lineare la cui matrice rappresentativa rispetto alla
base canonica è

1

A= 0
2
0
1
0

2
0 .
1
Si trovi una base ortonormale di autovettori di f .
Svolgimento Il polinomio caratteristico di f è

1−λ

0
χ f (λ ) = det
2
0
1−λ
0

2
1−λ
2R

0
= (λ − 1) det
2
1−λ
2
1−λ
=
= (λ − 1)((1 − λ )2 − 4) = (λ − 1)(λ 2 − 2λ − 3) = (λ − 1)(λ − 3)(λ + 1).
Troviamo gli autospazi relativi ai tre autovalori trovati:
E(1)
Dobbiamo trovare le soluzioni del sistema omogeneo la cui matrice è A − I

 −→ 
 −→ 

0 0 2
2 0 0
1 0 0
 0 0 0  S13  0 0 2  D1 (1/2)  0 0 1 
S23
D2 (1/2)
2 0 0
0 0 0
0 0 0
Le soluzioni dipendono dalla variabile libera y e sono x = 0, z = 0, cioè y(0, 1, 0). Il vettore
v1 = (0, 1, 0) è una base di E(1).
E(3)
Dobbiamo trovare le soluzioni del sistema omogeneo la cui matrice è A − 3I






−→
−2 0 2
1 0 −1
−2 0
2
−→
D
(−1/2)
 0 1 0 
 0 −2 0  E13 (1)  0 −2 0  1
D1 (−1/2)
0
0 0
0 0 0
2
0 −2
Le soluzioni dipendono dalla variabile libera z e sono x = z, y = 0, cioè z(1, 0, 1). Il vettore
v2 = (1, 0, 1) è una base di E(3).
E(−1)
Dobbiamo trovare le soluzioni del sistema omogeneo la cui matrice è A + I
 −→ 




2 0 2
2 0 2
1 0 1
−→
 0 2 0  E13 (−1)  0 2 0  D1 (1/2)  0 1 0 
D1 (1/2)
2 0 2
0 0 0
0 0 0
Le soluzioni dipendono dalla variabile libera z e sono x = −z, y = 0, cioè z(−1, 0, 1). Il vettore
v3 = (−1, 0, 1) è una base di E(−1).
I vettori v1 , v2 e v3 costituiscono una base di autovettori di R3 ; poiché sono autovettori
relativi ad autovalori diversi, sono già ortogonali a coppie (Cf. 9.2.3). Per ottenere la base
ortonormale cercata è quindi sufficiente normalizzarli:
√
√
v1
v2
2
v3
2
a1 =
= (1, 0, 0)
a2 =
=
(1, 0, 1)
a3 =
=
(−1, 0, 1).
kv1 k
kv2 k
2
kv3 k
2
I vettori a1 , a2 , a3 formano la base ortonormale cercata.
9.3 Esercizi riassuntivi
119
Esercizio 9.2 Sia f : R3 → R3 la funzione lineare la cui matrice rappresentativa rispetto alla
base canonica è

8
A =  -2
2
-2
5
4

2
4 .
5
Si trovi una base ortogonale di autovettori di f .
Svolgimento Il polinomio caratteristico di f è


8−λ
−2
2
1R
4 =
χ f (λ ) = det  −2 5 − λ
2
4
5−λ
5−λ
4
−2
4
−2 5 − λ
= (8 − λ ) det
+ 2 det
+ 2 det
=
4
5−λ
2 5−λ
2
4
= (8 − λ )(λ 2 − 10λ + 9) + 2(2λ − 18) + 2(2λ − 18) = (8 − λ )(λ − 9)(λ − 1) + 8(λ − 9) =
= (λ − 9)(−λ 2 + 9λ − 8 + 8) = −λ (λ − 9)2
Troviamo gli autospazi relativi ai due autovalori trovati:
E(0)
Dobbiamo trovare le soluzioni del sistema omogeneo la cui matrice è A






−→
8 −2
2
8 −2 2
8 −2
2
−→
E
(1/4)
 −2 5 4  23
 0 9/2 9/2  E32 (−1)  0 9/2 9/2 
E31 (−1/4)
0 0
0
2
4 5
0 9/2 9/2




−→
1 0 1/2
1 −1/4 1/4
−→
D1 (1/8) 
0
1
1  E12 (1/4)  0 1 1 
D2 (2/9)
0
0
0
0 0 0
Le soluzioni dipendono dalla variabile libera z e sono x = −z/2, y = −z, cioè z(−1/2, −1, 1). Il
vettore v1 = (−1/2, −1, 1) è una base di E(0).
E(9)
Dobbiamo trovare le soluzioni del sistema omogeneo la cui matrice è A − 9I
 −→ 




−1 −2 2
−1 −2 2
1 2 −2
−→
 −2 −4 4  E21 (−2)  0
0 0  D1 (−1)  0 0 0 
E31 (2)
2
4 −4
0
0 0
0 0 0
Le soluzioni dipendono dalle due variabili libere y, z e sono x = −2y + 2z, cioè y(−2, 1, 0) +
z(2, 0, 1). I vettori v2 = (−2, 1, 0) e v3 = (2, 0, 1) formano una base di E(9).
Il vettore v1 è ortogonale a v2 e v3 , perché appartiene ad un autospazio diverso. I vettori v2 e
v3 non lo sono. E’ dunque necessario trovare una base ortogonale di E(9) col procedimento di
Gram-Schmidt.
v03 = v3 −
v3 · v2
−4
1
v2 = (2, 0, 1) −
(−2, 1, 0) = (2, 4, 5)
2
kv2 k
5
5
I vettori v1 , v2 e v03 formano la base ortogonale cercata. Se l’esercizio richiedesse una base
ortonormale, sarebbe sufficiente normalizzare tali vettori.
Bibliografia
Testi consigliati
• M. Abate, Algebra Lineare, McGraw Hill.
• M.P. Manara - A. Perotti - R. Scapellato, Geometria e Algebra Lineare (Teoria ed esercizi),
Esculapio.
• F. Flamini - S.Verra, Matrici e Vettori, Carocci.
• T. Shifrin - M.R. Adams, Linear Algebra: A geometric approach, W. H. Freeman and
Company.
Scarica