Appunti del Corso di
GEOMETRIA PER INGEGNERIA
INDUSTRIALE
Daniele Bartoli
A.A. 2016/2017
2
Indice
1 Nozioni Preliminari
1.1 Insiemi e funzioni . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Operazioni e Strutture Algebriche . . . . . . . . . . . . . .
1.3 Principio di Induzione . . . . . . . . . . . . . . . . . . . . .
7
7
10
11
2 Matrici
2.1 Matrici reali e operazioni
2.2 Matrici invertibili . . . . .
2.3 Determinante e Rango . .
2.4 Esercizi . . . . . . . . . .
.
.
.
.
13
13
19
21
24
3 Sistemi Lineari
3.1 Sistemi Lineari a Coefficient Reali . . . . . . . . . . . . . .
3.2 Sistemi Lineari Parametrici . . . . . . . . . . . . . . . . . .
3.3 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
25
25
29
30
4 Diagonalizzazione e autovalori
4.1 Matrici diagonalizzabili e simili: autovettori ed autovalori .
4.2 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
33
33
36
5 Spazi Vettoriali
5.1 Spazi vettoriali astratti . . . . . . . . . . . . . . . . . . . . .
5.2 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
39
39
47
6 Applicazioni Lineari
6.1 Applicazioni Lineari . . . . .
6.2 Isomorfismi . . . . . . . . . .
6.3 Applicazioni Lineari e Matrici
6.4 Esercizi . . . . . . . . . . . .
49
49
52
53
57
.
.
.
.
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
INDICE
7 Spazi Vettoriali Euclidei
7.1 Prodotti Scalari e Spazi Vettoriali Euclidei . . . . . . . . . .
7.2 Basi Ortogonali e Ortonormali . . . . . . . . . . . . . . . .
7.3 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
59
59
61
65
8 Spazi Affini ed Euclidei
8.1 Spazi Affini . . . . . .
8.2 Spazi euclidei . . . . .
8.3 Lo spazio euclideo E 2 .
8.4 Lo spazio euclideo E 3 .
8.5 Prodotto Vettoriale . .
8.6 Esercizi . . . . . . . .
67
67
70
71
72
79
81
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
9 Numeri Complessi
10 Esercizi Svolti
10.1 Rango di una matrice . . . . . .
10.2 Sistemi lineari . . . . . . . . . . .
10.3 Diagonalizzazione ed Autovettori
10.4 Spazi Vettoriali . . . . . . . . . .
10.5 Applicazioni Lineari . . . . . . .
10.6 Spazio Affini e Euclidei . . . . .
83
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
87
87
88
96
98
100
106
11 Appendice
109
11.1 Dimostrazione del teorema della base incompleta . . . . . . 109
11.2 Dimostrazione del teorema di Grassmann . . . . . . . . . . 111
Introduzione
Queste brevi note costituiscono le dispense del corso di Geometria per Ingegneria Industriale A.A. 2016/2017. Le dispense sono da intendersi come
un sunto del programma svolto durante il corso e quindi devono essere
integrate mediante lo studio sui libri consigliati.
Gli esercizi segnalati con l’asterisco sono svolti nel capitolo finale.
12 dicembre 2016
Daniele Bartoli
5
6
INDICE
Capitolo 1
Nozioni Preliminari
1.1
Insiemi e funzioni
Il concetto di insieme è un concetto primitivo e pertanto non viene ulteriormente definito. Può essere utile descrivere il concetto di insieme mediante
sinonimi di uso comune, quali ad esempio collezione di oggetti. Analogamente l’insieme dei numeri naturali N = {1, 2, 3, 4, 5, . . . , }, il simbolo di
appartenenza ∈, il quantificatore universale ∀. Un oggetto che appartiene
ad un insieme viene detto elemento di tale insieme. L’insieme vuoto ∅ è
l’unico insieme che non ha nessun elemento.
Altri insiemi che verranno usati durante il corso (e non definiti più
specificatamente) sono
Z = {. . . , −5, −4, −3, −2, −1, 0, 1, 2, 3, 4, 5, . . .},
o
nm Q=
m, n ∈ Z, n 6= 0 ,
n
l’insieme dei numeri reali R.
Definizione 1.1. Sia A un insieme. Un insieme B è detto sottoinsieme
di A se
∀ b ∈ B =⇒ b ∈ A
e si indica con B ⊆ A.
Definizione 1.2. Siano A, B due insiemi.
1. L’insieme unione è definito da
A ∪ B = {x | x ∈ A o x ∈ B}.
7
8
1. NOZIONI PRELIMINARI
2. L’insieme intersezione è definito da
A ∩ B = {x | x ∈ A e x ∈ B}.
3. L’insieme differenza è definito da
A \ B = {x | x ∈ A e x ∈
/ B}.
4. L’insieme differenza simmetrica è definito da
A∆B = (A \ B) ∪ (B \ A).
Definizione 1.3. Siano A, B due insiemi non vuoti. L’insieme
A × B = {(a, b) | a ∈ A, b ∈ B}
è detto prodotto cartesiano di A e B.
Siano A1 , A2 , . . . , An n insiemi non vuoti. L’insieme
A1 × A2 × · · · × An = {(a1 , a2 , . . . , an ) | ai ∈ Ai ∀i = 1, . . . , n}
è detto prodotto cartesiano di A1 , A2 , . . . , An .
Il simbolo An indica il prodotto cartesiano A × A × · · · × A.
Si noti come in generale A × B sia diverso da B × A.
Definizione 1.4. Dati due insiemi A e B, una relazione ρ di A su B è
un sottoinsieme del prodotto cartesiano A × B. Una relazione di A su A si
dice semplicemente relazione su A. Se a ∈ A è in relazione con b ∈ B, lo
si indica con a ρ b invece che con (a, b) ∈ ρ.
Definizione 1.5. Una relazione ρ su A è detta
1. riflessiva se ∀a ∈ A a ρ a;
2. simmetrica se ∀a, b ∈ A a ρ b =⇒ b ρ a;
3. transitiva se ∀a, b, c ∈ A aρb, b ρ c =⇒ a ρ c.
Una relazione riflessiva, simmetrica e transitiva si dice relazione d’equivalenza. Data una relazione di equivalenza ρ e un elemento di A definiamo
classe di equivalenza di a l’insieme
[a]ρ = {a ∈ A|a ρ a}.
1.1. INSIEMI E FUNZIONI
9
Definizione 1.6. Siano A e B due insiemi. Una funzione f da A a B è
una relazione di A su B tale che
∀a ∈ A =⇒ ∃! b ∈ B : a f b.
Se a f b scriveremo più semplicemente f (a) = b.
L’insieme A si dice dominio della funzione. L’insieme B si dice codominio. L’insieme
Im(f ) = {f (a) | a ∈ A}
prende il nome di immagine della funzione f . Dato un elemento b ∈ B la
controimmagine di b è l’insieme (eventualmente vuoto)
f −1 (b) = {a ∈ A | f (a) = b}.
La definizione di Im(f ) può essere espressa anche come
Im(f ) = {y ∈ B | ∃a ∈ A : f (a) = b} ⊂ B.
Definizione 1.7. Una funzione f : A → B è detta:
1. iniettiva se ∀x1 6= x2 ∈ A =⇒ f (x1 ) 6= f (x2 );
2. suriettiva se ∀y ∈ B =⇒ ∃ x ∈ A : f (x) = y.
Osservazione 1.8. Una funzione è iniettiva se e solo se f −1 (b) contiene
al piú un elemento per ogni b ∈ B. Una funzione è suriettiva se e solo se
Im(f ) = B.
Definizione 1.9. Siano f : A → B e g : C → D due funzioni tali che
Im(f ) ⊂ C. Allora la funzione composta g ◦ f : A → D è definita da
(g ◦ f )(a) = g(f (a)) per ogni a ∈ A.
Definizione 1.10. Sia A un insieme. La funzione identità di A è definita
da
idA : A → A
.
a 7→ a
Osservazione 1.11. La funzione identità è biiettiva.
Definizione 1.12. Sia f : A → B. La funzione f si dice invertibile a
destra se esiste g : B → A tale che
f ◦ g = idB .
10
1. NOZIONI PRELIMINARI
La funzione f si dice invertibile a sinistra se esiste g : B → A tale che
g ◦ f = idA .
La funzione f si dice invertibile se esiste g : B → A tale che
f ◦ g = idB
g ◦ f = idA .
Teorema 1.13. Sia f : A → B.
1. f è invertibile a destra se e solo se f è suriettiva.
2. f è invertibile a sinistra se e solo se f è iniettiva.
3. f è invertibile se e solo se f è biiettiva.
1.2
Operazioni e Strutture Algebriche
Definizione 1.14. Una operazione binaria ⊕ su un insieme A è una
funzione
⊕ : A × A → A.
• L’operazione ⊕ si dice associativa se
∀a, b, c ∈ A =⇒ (a ⊕ b) ⊕ c = a ⊕ (b ⊕ c).
• L’ elemento neutro di ⊕ (se esiste) è quell’elemento u ∈ A tale che
∀a ∈ A =⇒ a ⊕ u = u ⊕ a = a.
• Dato a ∈ A l’ inverso di a (se esiste) è quell’elemento a ∈ A tale che
a ⊕ a = a ⊕ a = u.
• L’operazione ⊕ si dice commutativa se
∀a, b ∈ A =⇒ a ⊕ b = b ⊕ a.
Definizione 1.15. Un gruppo G = (A, ⊕) è una coppia formata da un
insieme non vuoto A e un’operazione binaria interna ⊕ che sia associativa,
per la quale esista l’elemento neutro e tale che ogni elemento di A abbia
inverso rispetto a ⊕. Se inoltre ⊕ è commutativa allora G prende il nome
di gruppo commutativo.
1.3. PRINCIPIO DI INDUZIONE
11
Definizione 1.16. Un campo K = (A, ⊕, ◦, 0, 1) è una quintupla tale che
1. 0, 1 ∈ A;
2. (A, ⊕) è un gruppo commutativo con 0 elemento neutro;
3. (A \ {0}, ◦) è un gruppo commutativo con elemento neutro 1;
4. valgono le proprietà distributive
∀a, b, c ∈ A =⇒ a ◦ (b ⊕ c) = a ◦ b ⊕ a ◦ c,
∀a, b, c ∈ A =⇒ (a ⊕ b) ◦ c = a ◦ c ⊕ b ◦ c.
1.3
Principio di Induzione
Sia Pn una proprietà indicizzata sui numeri naturali N. Supponiamo che
1. P1 sia vera.
2. Se è vera Pn allora è vera anche Pn+1 .
Allora Pn è vera per ogni n ∈ N.
12
1. NOZIONI PRELIMINARI
Capitolo 2
Matrici
2.1
Matrici reali e operazioni
Definizione 2.1. Una matrice reale M ∈ Mn×m (R) è una tabella con n
righe ed m colonne di numeri reali del tipo


a1,1 a1,2 · · · a1,m
 a2,1 a2,2 · · · a2,m 


 ..
..
..  ,
 .
.
. 
an,1 an,2 · · ·
an,m
dove ai,j indica l’elemento posto nella riga i e colonna j e si chiama componente di posto (i, j). Una matrice si dice quadrata se n = m. Una matrice
quadrata M ∈ Mn×n (R) si dice triangolare superiore se ai,j = 0 ∀i > j; si
dice triangolare inferiore se ai,j = 0 ∀i < j.
Definizione 2.2. Siano A, B ∈ Mn×m (R) due matrici. La somma A + B
è definita da
C = A + B ∈ Mn×m (R),
ci,j = ai,j + bi,j .
Proposizione 2.3. La somma in Mn×m (R) è una operazione binaria
interna tra matrici che gode delle seguenti proprietà
1. A + B = B + A
∀A, B ∈ Mn×m (R).
∀A, B, C ∈ Mn×m (R).
2. A + (B + C) = (A + B) + C
3. ∃0n×m ∈ Mn×m (R) tale che A + 0n×m = 0n×m + A = A
Mn×m (R).
13
∀A ∈
14
2. MATRICI
4. ∀A ∈ Mn×m (R) ∃(−A) ∈ Mn×m (R) tale che A+(−A) = (−A)+A =
0n×m .
Pertanto (Mn×m (R), +) è un gruppo commutativo.
Dimostrazione.
1. La componente di posto (i, j) in A + B è ai,j + bi,j ,
mentre quella di posto (i, j) in B + A è bi,j + ai,j . Questi due valori coincidono perché la somma tra numeri reali è una operazione
commutativa.
2. La componente di posto (i, j) in A+(B +C) è ai,j +(bi,j +ci,j ), mentre
quella di posto (i, j) in (A + B) + C è (ai,j + bi,j ) + ci,j . Questi due
valori coincidono perché la somma tra numeri reali è una operazione
associativa.
3. La matrice nulla 0n×m è l’elemento neutro rispetto alla somma, dato
che la componente di posto (i, j) in A+0n×m è ai,j +0 = 0+ai,j = ai,j
ed è uguale alla componente di posto (i, j) in 0n×m + A e in A.
4. La matrice −A che ha per componente di posto (i, j) il valore −ai,j
è chiaramente la matrice inversa di A rispetto alla somma.
Definizione 2.4. Sia A ∈ Mn×m (R) una matrice e sia λ ∈ R uno scalare.
Il prodotto per uno scalare λA di λ e A è definito da
C = λA ∈ Mn×m (R),
ci,j = λai,j .
Proposizione 2.5. Il prodotto per uno scalare gode delle seguenti proprietà.
1. λ(A + B) = λA + λB
∀A, B ∈ Mn×m (R) ∀λ ∈ R.
2. (λ + µ)A = λA + µA
∀A ∈ Mn×m (R) ∀λ, µ ∈ R.
3. λ(µA) = (λµ)A
4. 1A = A
∀A ∈ Mn×m (R) ∀λ, µ ∈ R.
∀A ∈ Mn×m (R).
5. Se λA = 0n×m allora λ = 0 oppure A = 0n×m .
Dimostrazione.
1. La componente di posto (i, j) della matrice λ(A + B)
è λ(ai,j + bi,j ). La componente di posto (i, j) della matrice λA + λB
è λai,j + λbi,j . I due valori sono uguali perché la vale la proprietà
distributiva tra numeri reali.
2.1. MATRICI REALI E OPERAZIONI
15
2. La componente di posto (i, j) della matrice (λ + µ)A è (λ + µ)ai,j . La
componente di posto (i, j) della matrice λA + µA è λai,j + µai,j . I due
valori sono uguali perché la vale la proprietà distributiva tra numeri
reali.
3. La componente di posto (i, j) della matrice λ(µA) è λ(µai,j ). La
componente di posto (i, j) della matrice (λµ)A è (λµ)ai,j . I due valori
sono uguali perché la vale la proprietà associativa della moltiplicazione
tra numeri reali.
4. La componente di posto (i, j) della matrice 1A è 1ai,j = ai,j .
5. Se λA = 0n×m allora per ogni componente (i, j) si ha che λai,j = 0 e
dunque se λ 6= 0 si ha che ai,j = 0 per ogni (i, j) poiché vale la legge
di annullamento del prodotto in R.
Definizione 2.6. Sia A ∈ Mn×m (R) una matrice. La matrice trasposta di
A è definita da
AT ∈ Mm×n (R),
aTi,j = aj,i .
Proposizione 2.7. La trasposizione di una matrice gode delle seguenti
proprietà.
1. (AT )T = A
2. (λA)T = λAT
∀A ∈ Mn×m (R).
∀A ∈ Mn×m (R), ∀λ ∈ R.
3. (A + B)T = AT + B T
∀A, B ∈ Mn×m (R).
Dimostrazione.
1. La componente di posto (i, j) della matrice (AT )T è
chiaramente ai,j .
2. La componente di posto (i, j) della matrice (λA)T è λaj,i che è uguale
alla componente di posto (i, j) della matrice λAT .
3. La componente di posto (i, j) della matrice (A + B)T è aj,i + bj,i che
è uguale alla componente di posto (i, j) della matrice AT + B T .
Definizione 2.8. Sia A ∈ Mn×n (R). La matrice A si dice simmetrica se
AT = A.
16
2. MATRICI
Definizione 2.9. Siano A ∈ Mn×m (R) e B ∈ Mm×r (R) due matrici. La
matrice prodotto di A per B è definita da
C = AB ∈ Mn×r (R),
ci,j =
m
X
ai,k bk,j .
k=1
Si noti come in generale se è possibile moltiplicare due matrici AB non
è detto che sia possibile calcolare BA; anche quando questo sia possibile,
nel caso in cui A e B siano matrici quadrate della stessa dimensione, non è
detto che AB = BA.
Proposizione 2.10. Il prodotto tra matrici gode delle seguenti proprietà.
1. In A = A, AIm = A
∀A ∈ Mn×m (R)
2. A(BC) = (AB)C
Mr×p (R)
∀A ∈ Mn×m (R), ∀B ∈ Mm×r (R), ∀C ∈
3. A(B + C) = AB + AC
∀A ∈ Mn×m (R), ∀B, C ∈ Mm×r (R)
4. A(B − C) = AB − AC
∀A ∈ Mn×m (R), ∀B, C ∈ Mm×r (R)
5. (B + C)A = BA + CA
∀A ∈ Mn×m (R), ∀B, C ∈ Mr×n (R)
6. (B − C)A = BA − CA
∀A ∈ Mn×m (R), ∀B, C ∈ Mr×n (R)
7. λ(AB) = (λA)B = A(λB)
∀λ ∈ R
8. (AB)T = B T AT
∀A ∈ Mn×m (R), ∀B ∈ Mm×r (R),
∀A ∈ Mn×m (R), ∀B ∈ Mm×r (R)
Dimostrazione.
1. La componente (i, j) della matrice In A è data da
Pn
Pn
k=1 δi,k ak,j , dove δi,k = 1 se i = k e 0 altrimenti. Quindi
k=1 δi,k ak,j =
ai,j .
2. La componente (i, j) della matrice A(BC) è data da
!
n
m
n X
m
X
X
X
ai,k
bk,` c`,j =
ai,k bk,` c`,j ,
k=1
`=1
k=1 `=1
mentre quella della matrice (AB)C è
!
m
n
m X
n
X
X
X
ai,k bk,` c`,j =
ai,k bk,` c`,j .
`=1
k=1
`=1 k=1
2.1. MATRICI REALI E OPERAZIONI
17
3. La componente (i, j) della matrice A(B + C) è data da
n
X
ai,k (bk,j + ck,j ) =
k=1
n
X
(ai,k bk,j + ai,k ck,j )
k=1
=
n
X
ai,k bk,j +
k=1
n
X
ai,k ck,j ,
k=1
mentre quella della matrice AB + AC è
n
X
ai,k bk,j +
k=1
n
X
ai,k ck,j .
k=1
4. La componente (i, j) della matrice A(B − C) è data da
n
X
ai,k (bk,j − ck,j ) =
k=1
n
X
(ai,k bk,j − ai,k ck,j )
k=1
=
n
X
ai,k bk,j −
n
X
ai,k ck,j ,
k=1
k=1
mentre quella della matrice AB − AC è
n
X
ai,k bk,j −
k=1
n
X
ai,k ck,j .
k=1
5. La componente (i, j) della matrice (B + C)A è data da
r
X
(bi,k + ci,k )ak,j
k=1
r
X
=
(bi,k ak,j + ci,k ak,j )
k=1
=
r
X
bi,k ak,j +
k=1
r
X
ci,k ak,j ,
k=1
mentre quella della matrice BA + CA è
r
X
k=1
bi,k ak,j +
r
X
ci,k ak,j .
k=1
6. La componente (i, j) della matrice (B − C)A è data da
r
r
X
X
(bi,k − ci,k )ak,j =
(bi,k ak,j − ci,k ak,j )
k=1
k=1
18
2. MATRICI
=
r
X
bi,k ak,j −
k=1
r
X
ci,k ak,j ,
k=1
mentre quella della matrice BA − CA è
r
X
bi,k ak,j −
k=1
r
X
ci,k ak,j .
k=1
7. La componente (i, j) della matrice λ(AB) è data da
λ
n
X
ai,k bk,j =
n
n
X
X
ai,k (λbk,j ),
(λai,k )bk,j =
k=1
k=1
k=1
è uguale a quella delle matrici (λA)B e A(λB).
8. La componente (i, j) della matrice (AB)T è data da
n
X
aj,k bk,i ,
k=1
mentre quella della matrice B T AT è
n
X
k=1
bTi,k aTk,j
=
n
X
bk,i aj,k .
k=1
Definizione 2.11. Una matrice si dice a scala per righe se:
• Le righe nulle della matrice si trovano in basso.
• Ogni riga non nulla ha come prima componente non nulla da sinistra
un 1 che prende il nome di 1-dominante.
• Ogni 1-dominante si trova a sinistra di tutti gli uno dominanti delle
righe successive.
Si dice ridotta se ogni 1-dominante è l’unica componente non nulla di
ciascuna colonna della matrice.
Definizione 2.12. Il seguente algoritmo viene utilizzato per ridurre una
matrice in una matrice a scala.
1. Se la matrice è nulla è già in forma ridotta.
2.2. MATRICI INVERTIBILI
19
2. Se la matrice non è nulla si cerca la prima colonna da sinistra che
ha almeno un elemento λ non nullo. Si scambia la prima riga con la
prima riga contenente questo termine.
3. Si divide tutta la prima riga per λ e si crea l’1-dominante.
4. Si trasformano tutti gli elementi sottostanti all’1-dominante in zeri,
sottraendo ad ogni riga multipli opportuni della prima riga.
5. Si considera la matrice ottenuta eliminando la prima riga e si ripetono
tutti i passi precedenti.
2.2
Matrici invertibili
Definizione 2.13. Una matrice quadrata M ∈ Mn×n (R) si dice invertibile
se esiste una matrice M 0 ∈ Mn×n (R) tale che
M M 0 = M 0 M = In .
La matrice M 0 si chiama inversa di M e si indica con M −1 .
Teorema 2.14 (Unicità della matrice inversa). Sia M ∈ Mn×n (R) una
matrice. Se esiste M 1 ∈ Mn×n (R) tale che
M M 1 = M1 M = I n ,
allora M1 = M −1 .
Dimostrazione. Si ha che
M1 = M1 In = M1 (M M −1 ) = (M1 M )M −1 = In M −1 = M −1 .
Per calcolare la matrice inversa (qualora esista) si può procedere nel
seguente modo. Sia M ∈ Mn×n (R) una matrice. Se esiste una sequenza di
operazioni elementari su M che trasformano M in In allora M è invertibile
e la sua inversa M −1 si ottiene compiendo le stesse operazioni elementari
sulla matrice In .
Teorema 2.15 (Proprietà della matrice inversa).
ha I−1
n = In .
1. In è invertibile e si
2. Se A è invertibile, allora A−1 è invertibile e si ha (A−1 )−1 = A.
20
2. MATRICI
3. Se A, B sono invertibili allora AB è invertibile e si ha (AB)−1 =
B −1 A−1 .
4. Se A1 , A2 , . . . , Ak sono invertibili allora A1 A2 · · · Ak è invertibile e si
ha
−1 −1
(A1 A2 · · · Ak )−1 = A−1
k · · · A2 A1 .
5. Se A è invertibile allora Ak è invertibile e si ha (Ak )−1 = (A−1 )k .
6. Se A è invertibile allora AT è invertibile e si ha (AT )−1 = (A−1 )T .
7. Se A è invertibile e λ ∈ R\{0} allora λA è invertibile e si ha (λA)−1 =
λ−1 A−1 .
Dimostrazione.
1. È di facile controllo che In In = In .
2. Se A è invertibile allora A−1 A = AA−1 = In e dunque A è l’inversa
di A−1 .
3. Si ha che
(B −1 A−1 )(AB) = B −1 (A−1 A)B = B −1 In B = B −1 B = In
e
(AB)(B −1 A−1 ) = A(BB −1 )A−1 = AIn A−1 = AA−1 = In .
4. Dimostrazione per induzione su k. Se k = 2 è dimostrato al punto
precedente. Supponiamo sia valido al passo k e dimostriamolo al
passo k + 1.
−1
−1 −1
(A−1
k+1 Ak · · · A2 A1 )(A1 A2 · · · Ak Ak+1 )
−1
−1
−1
= A−1
k+1 Ak · · · A2 (A1 A1 )A2 · · · Ak Ak+1
−1
−1
= A−1
k+1 Ak · · · A2 In A2 · · · Ak Ak+1
−1
−1
= A−1
k+1 Ak · · · A2 A2 · · · Ak Ak+1 = In ,
−1
−1
perché le matrici sono in tutto k e allora per il passo induttivo A−1
k+1 Ak · · · A2
è l’inversa di A2 · · · Ak Ak+1 .
5. Basta prendere A1 = A2 = · · · = Ak = A nel punto precedente.
6. Si ha che (A−1 )T AT = (AA−1 )T = ITn = In .
2.3. DETERMINANTE E RANGO
21
7. Si ha che
(A−1 )T AT = (AA−1 )T = ITn = In = ITn = (A−1 A)T = AT (A−1 )T .
8. Si ha che
(λ−1 A−1 )(λA) = (λ−1 λ)(A−1 A) = In
= (λλ−1 )(AA−1 ) = (λA)(λ−1 A−1 ).
Definizione 2.16. Una matrice A ∈ Mn×n (R) si dice ortogonale se
AT A = In .
2.3
Determinante e Rango
Definizione 2.17. Sia A ∈ Mn×n (R) una matrice. Se n = 1 allora
det(A) = a1,1 . Se n > 1, n ∈ N, allora il determinante di A è dato
da
n
X
det(A) =
(−1)i+j ai,j det(Ai,j ),
j=1
dove Ai,j è la matrice che si ottiene cancellando la i-esima riga e la j-esima
colonna di A. Il termine (−1)i+j det(Ai,j ) prende il nome di cofattore del
termine ai,j .
Per n = 3 la formula per il calcolo del determinante viene spesso indicata
come “regola di Sarrus”.
Teorema 2.18 (Proprietà dei determinanti). Sia A ∈ Mn×n (R) una matrice.
1. Se A ha due righe uguali allora det A = 0.
2. det(λA) = λn det A.
3. Se A è triangolare allora det A è il prodotto degli elementi sulla diagonale principale di A.
4. det AT = det A.
22
2. MATRICI
Dimostrazione.
1. Dimostrazione per induzione sulla dimensione della
matrice A. Se A ha dimensione 2 allora si verifica facilmente che il
determinante è 0. Supponiamo sia vero per tutte le matrici di ordine
n e dimostriamolo per n + 1. Supponiamo che le righe i-esima e jesima siano uguali. Sviluppiamo il determinante rispetto ad una riga
diversa da queste due. Allora tutti i cofattori della nuova matrice
sono nulli in quanto sono determinanti di matrici di dimensione n in
cui due righe sono uguali. Pertanto il determinante è nullo.
2. Basta applicare più volte il punto 2 del Teorema 2.19.
3. Basta sviluppare il determinante ogni volta rispetto ad una riga che
ha un solo elemento diverso da 0.
4. Il determinante non cambia sviluppando rispetto le colonne.
Teorema 2.19 (Operazioni elementari e determinanti). Sia A una matrice
di Mn×n (R) .
1. Se B è ottenuta da A scambiando tra loro due righe allora det B =
− det A.
2. Se B è ottenuta da A moltiplicando una riga per uno scalare λ ∈ R
allora det B = λ det A.
3. Se B è ottenuta da A sommando ad una riga di A un multiplo di
un’altra riga allora det B = det A.
Dimostrazione.
1. Dimostrazione per induzione sulla dimensione della
matrice A. Se A ha dimensione 2 allora si verifica facilmente che il
determinante cambia di segno. Supponiamo sia vero per tutte le matrici di ordine n e dimostriamolo per n + 1. Supponiamo di scambiare
tra loro le righe i-esima e j-esima. Sviluppiamo il determinante di
entrambe le matrici rispetto ad una riga diversa da queste due. Allora tutti i cofattori della nuova matrice cambiano di segno rispetto
a quelli della matrice iniziale in quanto sono determinanti di matrici
di dimensione n in cui sono state scambiate due righe. Pertanto il
determinante cambia di segno.
2.3. DETERMINANTE E RANGO
23
2. Supponiamo che la riga moltiplicata per λ sia la i-esima. Allora
sviluppando rispetto a questa riga si ha che
det(A) =
n
X
(−1)i+j ai,j det(Ai,j ),
j=1
n
X
det(λA) =
(−1)i+j λai,j det(Ai,j )
j=1
=λ
n
X
(−1)i+j ai,j det(Ai,j ) = λ det(A).
j=1
3. Supponiamo che alla riga i-esima sia sommata la riga k-esima moltiplicata per λ. Sia A∗ la matrice cosı̀ ottenuta. Allora sviluppando
rispetto a questa riga si ha che
∗
det(A ) =
n
X
(−1)i+j (ai,j + λak,j ) det(Ai,j )
j=1
=
n
X
i+j
(−1)
j=1
ai,j det(Ai,j ) + λ
n
X
(−1)i+j ak,j det(Ai,j ).
j=1
Pn
i+j a
Sia ha che
k,j det(Ai,j ) = 0 in quanto è lo sviluppo
j=1 (−1)
di Laplace di una matrice che ha due righe uguali (la i-esima e la
k-esima).
Definizione 2.20. Il rango di una matrice A ∈ Mn×m (R) è il numero di
1-dominanti della matrice in forma a scala ridotta per righe.
Definizione 2.21. Il rango per minori di una matrice A ∈ Mn×m (R) è
l’ordine della più grande sottomatrice quadrata che è possibile estrarre da
A con determinante diverso da 0.
Teorema 2.22. Sia A ∈ Mn×m (R). Il rango di A coincide con il suo
rango per minori.
Dimostrazione. Sia r il rango di A. Selezioniamo le colonne degli uno dominanti e le righe che dopo tutte le operazioni elementari sulle righe corrispondono alle righe dove sono presenti gli 1-dominanti. Questa sottomatrice
quadrata di ordine r di A è invertibile perché viene trasformata nella matrice identità tramite operazioni elementari e quindi ha determinante diverso
24
2. MATRICI
da 0. Se esistesse una matrice quadrata di ordine r + 1 con determinante
diverso da 0 durante l’algoritmo di eliminazione avremmo almeno r + 1
1-dominanti, provenienti da colonne della sottomatrice oppure no, e quindi
il rango sarebbe almeno r + 1, impossibile.
Definizione 2.23. Le operazioni elementari su una matrice A ∈ Mn×m (R)
sono :
1. scambiare due righe tra loro;
2. moltiplicare una riga per uno scalare λ ∈ R non nullo;
3. aggiungere ad una riga un multiplo di un’altra.
Teorema 2.24. Le operazioni elementari su una matrice A ∈ Mn×m (R)
non ne modificano il rango.
Dimostrazione. Tutte le operazioni elementari non modificano il fatto che il
determinante di una sottomatrice quadrata di ordine r abbia determinante
diverso da 0. Quindi il rango per minori non viene modificato.
2.4
Esercizi
Esercizio* 2.25. Si calcoli il rango della seguente matrice. Si calcoli il
rango per minori.


3 4 −2 6
A =  1 3 4 −2  .
−1 2 −1 1
Esercizio 2.26. Ridurre in matrici a scala per righe le seguenti matrici.




1 1 1 −3 2
1 2 0
4
 3 4 3 −7 7 

  2 5 3
0 
 1 0 0 −4 −1 
1 4 −8 −18
0 1 3 1
7


1
0
2
1
1
2 −1
 3
2
6
4
4
7 −2 


 1 −6 2 −2 −3 1 −3 
−3 8 −6 1
2 −4 10
Esercizio 2.27. Ridurre in matrici a scala per righe ridotte le matrici
dell’esercizio precedente.
Capitolo 3
Sistemi Lineari
3.1
Sistemi Lineari a Coefficient Reali
Definizione 3.1. Un sistema lineare in n equazioni e m incognite su R è

a1,1 x1 + a1,2 x2 + · · · + a1,m xm = b1



a2,1 x1 + a2,2 x2 + · · · + a2,m xm = b2
,
...



an,1 x1 + an,2 x2 + · · · + an,m xm = bn
dove ai,j , bj ∈ R. Un sistema si dice omogeneo se b1 = b2 = · · · = bn = 0.
Una soluzione è una m-upla (α1 , . . . , αm ) ∈ Rm tale che

a1,1 α1 + a1,2 α2 + · · · + a1,m αm = b1



a2,1 α1 + a2,2 α2 + · · · + a2,m αm = b2
.
...



an,1 α1 + an,2 α2 + · · · + an,m αm = bn
Due sistemi si dicono equivalenti se hanno lo stesso insieme di soluzioni.
Definizione 3.2. Le operazioni elementari sui sistemi lineari sono:
1. scambiare due equazioni tra loro;
2. moltiplicare una equazione membro a membro per uno scalare λ ∈ R
non nullo;
3. aggiungere ad un’equazione un multiplo di un’altra.
Teorema 3.3. Le operazioni elementari su un sistema lineare non modificano l’insieme delle sue soluzioni.
25
26
3. SISTEMI LINEARI
Dimostrazione. Scambiare due equazioni tra loro chiaramente non modifica
l’insieme delle soluzioni. Richiedere
ai,1 α1 + ai,2 α2 + · · · + ai,m αm = bi
è chiaramente equivalente a richiedere
λ(ai,1 α1 + ai,2 α2 + · · · + ai,m αm ) = λbi .
Infine, richiedere
ai,1 α1 + ai,2 α2 + · · · + ai,m αm = bi
e
aj,1 α1 + aj,2 α2 + · · · + aj,m αm = bj
è la stessa cosa che richiedere
ai,1 α1 + ai,2 α2 + · · · + ai,m αm = bi
e
(aj,1 + λai,1 )α1 + (aj,2 + λai,2 )α2 + · · · + (aj,m + λai,m )αm = (bj + λbi ).
Definizione 3.4. [Metodo di Gauss] Supponiamo che un sistema abbia
almeno una soluzione. Allora
1. Riduciamo la matrice completa in matrice a scala ridotta per righe.
2. Le incognite non dominanti (corrispondenti a colonne senza 1-dominanti)
diventano parametri.
3. Ricaviamo le incognite dominanti dalle equazioni, scrivendole in termini di parametri corrispondenti alle incognite non dominanti.
Definizione 3.5. Dato un sistema

a1,1 x1 + a1,2 x2 + · · · + a1,m xm = b1



a2,1 x1 + a2,2 x2 + · · · + a2,m xm = b2
,
...



an,1 x1 + an,2 x2 + · · · + an,m xm = bn
detta A ∈ Mn×m (R) la matrice che ha per componente (i, j) il valore ai,j
e B = (b1 , . . . , bn )T ∈ Mn×1 (R) il vettore dei termini noti, la sua forma
matriciale è data da
AX = B,
dove X = (x1 , . . . , xm )T è detto vettore delle incognite.
3.1. SISTEMI LINEARI A COEFFICIENT REALI
27
Teorema 3.6. Sono equivalenti:
1. A ∈ Mn×n (R) è invertibile;
2. Il sistema omogeneo AX = 0 ammette un’unica soluzione (che è la
soluzione nulla);
3. Attraverso operazioni elementari è possibile trasformare A in In ;
4. Il sistema AX = B ammette una unica soluzione per ogni possibile
scelta B;
5. Esiste una matrice C ∈ Mn×n (R) tale che AC = In .
Dimostrazione.
• 1 =⇒ 2. Se A è invertibile allora X = A−1 0 = 0.
• 2 =⇒ 3. Se il sistema AX = 0 ammette un’unica soluzione allora
tutte le incognite sono dominanti e quindi applicando il metodo di
Gauss ottengo che la matrice A viene trasformata nella matrice In .
• 3 =⇒ 4. Applicando il metodo di Gauss al sistema AX = B ottengo
che tutte le incognite sono dominanti, cioè la soluzione è unica per
ogni scelta del vettore dei coefficienti B.
• 4 =⇒ 5. La matrice C è costruita nel seguente modo: la colonna
j-esima di C è la soluzione Cj del sistema AX = Ej , dove Ej ha tutti
zeri tranne 1 al posto j-esimo. Si verifica facilmente che
A (C1 | C2 | · · · | Cn ) = (AC1 | AC2 | · · · | ACn )
= (E1 | E2 | · · · | En ) = In .
• 5 =⇒ 1. La matrice C soddisfa il punto 2, infatti se CX = 0 allora
X = In X = (AC)X = A(CX) = A0 = 0.
Dunque C verifica i punti 3, 4, 5. In particolare esiste una matrice C 0
tale che CC 0 = In . Ma allora
C 0 = In C 0 = (AC)C 0 = A(CC 0 ) = AIn = A
e dunque CA = In e la matrice A è invertibile e la sua inversa è
proprio C.
28
3. SISTEMI LINEARI
Teorema 3.7. Una matrice A ∈ Mn×n (R) è invertibile se e solo det A 6= 0
e in questo caso
1
A−1 =
(Ai,j )T ,
det A
ovvero la matrice inversa si ottiene dividendo per det A la trasposta della
matrice dei cofattori di A.
Dimostrazione. Consideriamo la matrice A (Ai,j )T . La sua componente al
posto (i, i) è data da
n
X
ai,k Ai,k .
k=1
Questo è proprio lo sviluppo del determinante di A rispetto alla riga i-esima.
La sua componente al posto (i, j), i 6= j, è data da
n
X
ai,k Aj,k .
k=1
Questa quantità è nulla in quanto corrisponde allo sviluppo rispetto alla
j-esima riga del determinante di una matrice ottenuta da A sostituendo
la j-esima riga con la i-esima. Questa matrice ha determinante nullo in
P
quanto ha due righe uguali e dunque nk=1 ai,k Aj,k = 0.
Pertanto abbiamo mostrato che la matrice A (Ai,j )T è una matrice diagonale e le sue componenti non nulle sono tutte uguali a det A e quindi
T
1
det A A (Ai,j ) = In .
Teorema 3.8 (Teorema di Cramer). Un sistema lineare in n incognite e n
equazioni AX = B tale che il determinante della matrice A dei coefficienti
è diverso da zero (sistema di Cramer) ammette una ed un’unica soluzione
data da
det Aj
xj =
,
det A
dove Aj è la matrice ottenuta sostituendo alla colonna dell’incognita xj la
colonna dei termini noti.
Dimostrazione. Poiché A è invertibile per il Teorema 3.7 allora X = A−1 B
e quindi la soluzione è unica. Inoltre
X = A−1 B =
1
(Ai,j )T B.
det A
P
Si ha che xj = (Ai,j )T B = nk=1 Ak,j bk equivale al determinante sviluppato
rispetto alla colonna i-esima della matrice ottenuta sostituendo alla j-esima
colonna di A la colonna dei termini noti B.
3.2. SISTEMI LINEARI PARAMETRICI
29
Teorema 3.9 (Teorema di Rouché-Capelli). Un sistema è compatibile se e
solo se il rango della matrice dei coefficienti è uguale al rango della matrice
completa.
Dimostrazione. Attraverso il metodo di Gauss si vede che un sistema è
compatibile se e solo se l’ultima riga della matrice completa non è diventata
(0, . . . , 0, 1). Ma questo equivale a dire che gli 1-dominanti della matrice
dei coefficienti sono gli stessi della matrice completa. Quindi un sistema è
compatibile se e solo se i ranghi delle due matrici sono uguali.
Definizione 3.10. Un orlato M 0 di una sottomatrice di M ∈ Mn×m (R) è
una sottomatrice che si ottiene aggiungendo una riga e una colonna di M
alla sottomatrice M 0 .
Proposizione 3.11 (Metodo degli orlati). Il rango di una matrice M ∈
Mn×m (R) è k se e solo se esiste un minore M 0 di ordine k non nullo e
tutti gli orlati (k + 1) × (k + 1) di M 0 sono nulli.
3.2
Sistemi Lineari Parametrici
Un sistema lineare è detto parametrico se oltre alle incognite compaiono
anche alcuni parametri che possono assumere determinati valori. In generale un sistema parametrico è compatibile oppure no a seconda del valore
del parametro. Pertanto va effettuata un’analisi caso per caso, al variare
del parametro nell’insieme dei valori ammissibili. Il metodo di risoluzione
di un sistema lineare parametrico può essere riassunto mediante il seguente
schema.
• Numero incognite m.
• Numero equazioni n.
• Parametri λ1 , λ2 , . . . , λr .
Metodo risolutivo
• n ≤ m. In questo caso si prende una qualsiasi sottomatrice A n × n
della matrice dei coefficienti tale che il determinante sia diverso da 0
oppure dipenda in generale dai vari parametri. Sia tale determinante
p(λ1 , . . . , λr ).
30
3. SISTEMI LINEARI
1. I valori dei parametri tali che p(λ1 , . . . , λr ) 6= 0 sono tali che il
rango della matrice dei coefficienti è n ed è massimo e quindi
anche il rango della matrice completa è n. Pertanto il sistema è compatibile. Per trovare le soluzioni di questo sistema si
costruisce il sistema equivalente le cui incognite e le equazioni
sono quelle selezionate dalla matrice A. Le altre incognite vengono portate dall’altra parte dell’uguale e diventeranno nuovi
parametri. Il nuovo sistema è per costruzione un sistema di Cramer avendo per matrice dei coefficienti A che ha determinante
diverso da 0.
2. I valori dei parametri tali che p(λ1 , . . . , λr ) = 0 vengono studiati
a parte. Per questi valori il sistema può essere compatibile o
incompatibile. Si procede prendendo altre possibili sottomatrici
quadrate della matrice dei coefficienti.
• n ≥ m + 1. In questo caso si prende una qualsiasi sottomatrice B
n × n della matrice completa tale che il determinante o sia diverso da
0 oppure dipenda in generale dai vari parametri. Sia tale determinante
p(λ1 , . . . , λr ).
1. I valori dei parametri tali che p(λ1 , . . . , λr ) 6= 0 sono tali che il
rango della matrice completa è n ed è maggiore del rango della
matrice dei coefficienti. Pertanto il sistema è incompatibile.
2. I valori dei parametri tali che p(λ1 , . . . , λr ) = 0 vengono studiati
a parte. Per questi valori il sistema può essere compatibile o
incompatibile. Si procede prendendo altre possibili sottomatrici
quadrate della matrice dei coefficienti.
3.3
Esercizi
Esercizio 3.12. Risolvere mediante
seguenti sistemi lineari.

 x1 − 4x2 + x3 = 2
2x1 − 6x2 + 5x3 = 8

x1 − x2 + 5x3 = 8

 x−y−z =3
3x − 2y − 4z = 3

4x + y − 9z = 7
il metodo di eliminazione di Gauss i

 x + 2y + 3z = 6
2x − y + z = 2

3x + 8y + 10z = 20

 x + 2y − 4z = 1
2x + 3y − 10z = 2

5x − 3y − 4z = 5
3.3. ESERCIZI
31
Esercizio 3.13. Risolvere i seguenti sistemi lineari discutendo la compatibilità del sistema utilizzando il Teorema di Rouché-Capelli.

3x − 7y − z = −2





 x + y + 3z = 2
 2x − 8y + z = −8
3x + 3y + 4z = 6
x + y − 9z = −2



x + y − z = −2
x − 4y + 6z = −1



2x − 3y − 4z = 2


 2x − 3y − 2z = −4
 3x1 − 3x2 + 2x3 + x4 − 6x5 = −1
x + 4y − 11z = −1
2x1 − 2x2 − 4x3 + 6x4 + 7x5 = 5


−5x + 9y − 11z = −3
5x1 − 5x2 − 3x3 + 8x4 + 4x5 = 6

3x1 − 3x2 + x3 + 2x4 − 6x5 = −2




 5x1 − 5x2 + 2x3 + 3x4 + 3x5 = 10
x1 − x2 + 5x3 − 4x4 − 4x5 = 2


x − x2 + 3x3 − 2x4 − 5x5 = −1


 1
3x1 − 3x2 − 5x3 + 8x4 + 2x5 = 0
Esercizio 3.14. Stabilire se il seguente sistema lineare ammette soluzione
ed eventualmente determinarle.

 3x + 4y − 2z + 6t = 3
x + 3y + 4z − 2t = 0 .

−x + 2y − z + t = 1
Esercizio 3.15. Stabilire per quali valori del parametro reale k il sistema
lineare

 x + 3y = 0
3x − y = k − 1

kx − 2ky = 1
ammette soluzioni ed eventualmente determinarle.
Esercizio 3.16. Stabilire per quali valori del parametro reale k il sistema
lineare

 x+y =3
y − kx = k

kx + 2y = 0
ammette soluzioni ed eventualmente determinarle.
Esercizio 3.17. Stabilire per quali valori del parametro reale k il sistema
lineare

 x−y+z =1
x + ky = 0

kx + y + z = k − 1
ammette soluzioni ed eventualmente determinarle.
32
3. SISTEMI LINEARI
Esercizio 3.18. Stabilire per quali valori del parametro reale k il sistema
lineare

 2x − y + z = 1
kx + (k + 1)z = 1

y + 2z = 0
ammette soluzioni ed eventualmente determinarle.
Esercizio 3.19. Stabilire
matrici

1
A= 0
0
per quali valori del parametro reale k le due

2 3
k 4 
0 5


1 4 0
B= 0 5 0 
2 3 1
sono simili.
Esercizio 3.20. Discutere ed eventualmente risolvere il sistema lineare

 x + 2y = 1
−x + y = k .

3x − 2y = 0
al variare del parametro reale k.
Esercizio 3.21. Discutere ed eventualmente risolvere il sistema lineare

 x − 3y = k
2x + 3y = −k .

kx − 2y = 1
al variare del parametro reale k.
Esercizio 3.22. Discutere ed eventualmente risolvere il sistema lineare

 (2λ + 1)x + (λ + 1)y + 3λz = λ
(2λ − 1)x + (λ − 2)y + (2λ − 1)z = λ + 1 .

3λx + 2λy + (4λ − 1)z = 1
al variare del parametro reale λ.
Esercizio 3.23. Discutere ed eventualmente risolvere il sistema lineare

 x − 2y = k
x + ky = 1 .

2kx + 3y = 0
al variare del parametro reale k.
Capitolo 4
Diagonalizzazione e
autovalori
4.1
Matrici diagonalizzabili e simili: autovettori
ed autovalori
Definizione 4.1. Una matrice A ∈ Mn×n (R) si dice diagonalizzabile se
esiste una matrice P ∈ Mn×n (R) invertibile tale che
P −1 AP = D,
con D ∈ Mn×n (R) matrice diagonale.
Proposizione 4.2. Sia A ∈ Mn×n (R) una matrice diagonalizzabile. Allora Ak = P Dk P −1 per ogni k ≥ 1.
Dimostrazione. Per induzione su k. Se k = 1 non c’è nulla da dimostrare.
Supponiamo sia vero per k e mostriamo che è vero per k + 1. Si ha che
Ak+1 = AAk = A(P Dk P −1 ) = (P DP −1 )(P Dk P −1 )
= P D(P −1 P )Dk P −1 = P DIn Dk P −1 = P Dk+1 P −1 .
Definizione 4.3. Una matrice A ∈ Mn×n (R). Uno scalare λ ∈ R si dice
autovalore di A se esiste un vettore non nullo X ∈ Rn tale che
AX = λX.
33
34
4. DIAGONALIZZAZIONE E AUTOVALORI
Il vettore X è detto autovettore relativo all’autovalore λ. L’insieme
Aλ = {X ∈ Rn | AX = λX}
è detto autospazio relativo all’autovalore λ.
Proposizione 4.4. Lo scalare λ ∈ R è un autovalore di A ∈ Mn×n (R) se
e solo se λ è una radice del polinomio caratteristico
det(A − λIn ) = 0.
Dimostrazione. Si ha che
AX = λX ⇐⇒ AX = λIn X ⇐⇒ AX − λIn X = 0
⇐⇒ (A − λIn )X = 0.
Questa definisce un sistema lineare omogeneo che ha soluzione non nulla
solo se non è di Cramer, ovvero determinante della matrice dei coefficienti
A − λIn è nullo.
Proposizione 4.5. Sia λ ∈ R un autovalore di A ∈ Mn×n (R).
Aλ = {X ∈ Rn | (A − λIn )X = 0}.
Esercizio 4.6. Si determini il polinomio caratteristico delle seguenti matrici. Determinare gli autovalori.


1 1
1
5 −2
 0 2 −1 
4 −1
0 −3 0
Teorema 4.7. Sia A ∈ Mn×n (R). Allora
1. A è diagonalizzabile se e solo se esistono n autovettori X1 , . . . , Xn di
A tali che P = [X1 , . . . , Xn ] è invertibile.
2. P −1 AP = diag(λ1 , λ2 , . . . , λn ), con λi autovalore relativo a Xi .
Dimostrazione. Per definizione A è diagonalizzabile se e solo se P −1 AP =
D è una matrice diagonale per qualche P invertibile. Questo è equivalente
a AP = P D. Se Xi è la i-esima colonna di P allora la precedente relazione
corrisponde a AXi = di Xi per ogni i = 1, . . . , n, dove di è l’elemento al
posto (i, i) in D. Ciò è equivalente a dire che le colonne Xi sono autovettori
corrispondenti agli autovalori di .
4.1. MATRICI DIAGONALIZZABILI E SIMILI: AUTOVETTORI ED AUTOVALORI
35
Definizione 4.8. Sia A ∈ Mn×n (R) e λ ∈ R un suo autovalore. La
molteplicità algebrica di λ è la sua molteplicità come radice del polinomio caratteristico. La molteplicità geometrica di λ è (n − rλ ), dove rλ =
rango(A − λIn ).
Teorema 4.9. Sia A ∈ Mn×n (R).
1. Se A ha n autovalori distinti allora è diagonalizzabile.
2. A è diagonalizzabile se e solo se per ogni autovalore di A la sua
molteplicità algebrica è uguale alla molteplicità geometrica.
Osservazione 4.10. Per diagonalizzare una matrice A ∈ Mn×n (R) si può
procedere nel seguente modo.
1. Calcolare il polinomio caratteristico della matrice A.
2. Trovare gli autovalori di A.
3. Calcolare per ogni autovalore le corrispondenti molteplicità algebriche
e geometriche.
4. Se la matrice risulta diagonalizzabile secondo il Teorema 4.9 allora
per ogni autovalore si calcolano le soluzioni base dei sistemi lineari
omogenei (A − λIn )X = 0.
5. La matrice P ha per colonne gli autovettori posti ordinatamente. La
matrice D ha per diagonale gli autovalori posti ordinatamente ripetuti
tante volte quanto è la loro molteplicità algebrica.
Definizione 4.11. Due matrici A, B ∈ Mn×n (R) sono simili se esiste una
matrice P ∈ Mn×n (R) invertibile tale che B = P −1 AP . Se A è simile a B
si scrive A ∼ B.
Osservazione 4.12. Una matrice A ∈ Mn×n (R) è diagonalizzabile se e
solo se è simile ad una matrice diagonale.
Osservazione 4.13. La relazione di similitudine tra matrici n × n è una
relazione di equivalenza. Infatti A ∼ A, se A ∼ B allora B ∼ A dato
−1
che A = (P −1 )−1 BP −1 , se A ∼ B e B ∼ C allora A = P −1 P CP P =
(P P )−1 C(P P ) e cioé A ∼ C.
Teorema 4.14. Siano A, B ∈ Mn×n (R) due matrici simili. Allora
• det A = det B.
36
4. DIAGONALIZZAZIONE E AUTOVALORI
• I due polinomi caratteristici sono uguali.
• A e B hanno gli stessi autovalori con le stesse molteplicità algebriche
e geometriche.
Dimostrazione. Se A e B sono simili allora esiste una matrice P ∈ Mn×n
invertibile tale che P −1 BP = A. Allora
det A = det(P −1 BP ) = (det P )−1 det B det P = det B.
Inoltre
det(A − λIn ) = det(P −1 BP − λIn ) = det(P −1 (B − λIn )P )
= (det P )−1 det(B − λIn ) det P = det(B − λIn ).
Quindi A e B hanno gli stessi autovalori con le stesse molteplicità algebriche. Le molteplicità geometriche rimangono le stesse (Non dimostrato).
4.2
Esercizi
Esercizio 4.15. Diagonalizzare, se possibile, le seguenti matrici.


1 1
1
1 1
5 −2
 0 2 −1 
0 1
4 −1
0 −3 0
Esercizio 4.16. Determinare autovalori e autovettori della seguente matrice. La matrice è diagonalizzabile?


4
1
1
 2
5 −2 
−1 −2 2
Esercizio 4.17. Determinare per quale valore di h la seguente matrice ha
1 come autovalore. In questo caso la matrice è diagonalizzabile?


1 h
0
 1 0
0 
0 1 −2/h
Esercizio 4.18. Determinare autovalori e autovettori della seguente matrice. La matrice è diagonalizzabile?


2 2 2 2
 2 2 2 2 


 1 1 1 1 
1 1 1 1
4.2. ESERCIZI
37
Esercizio 4.19. Determinare autovalori e autovettori della seguente matrice. La matrice è diagonalizzabile?


5 −2 2
 4 1 4 
4 −1 9
Esercizio 4.20. Determinare autovalori e autovettori della seguente matrice. La matrice è diagonalizzabile?
1 −3
−2 2
Esercizio 4.21. Determinare autovalori e autovettori della seguente matrice. La matrice è diagonalizzabile?


3 1 1
 2 4 2 
3 3 5
Esercizio* 4.22. Data la seguente

1
 0
A=
 0
1
matrice
0
1
1
0
0
1
1
0

1
0 
,
0 
1
determinarne gli autovalori ed i corrispettivi autovettori. La matrice è
diagonalizzabile? In caso affermativo esibire le matrici P e D tali che
A = P −1 DP.
Esercizio* 4.23. Data la seguente

1

1
1
A= 
2  −1
1
matrice

1 −1 1
1
1 −1 
,
1
1
1 
−1 1
1
determinarne gli autovalori ed i corrispettivi autovettori. La matrice è
diagonalizzabile? In caso affermativo esibire le matrici P e D tali che
A = P −1 DP.
38
4. DIAGONALIZZAZIONE E AUTOVALORI
Capitolo 5
Spazi Vettoriali
5.1
Spazi vettoriali astratti
Definizione 5.1. Uno spazio vettoriale è una quintupla (V, K, 0, ⊕, ),
dove V è un insieme, (K, 0K , 1K , +, ·) è un campo, 0 è un elemento di V,
⊕ : V × V → V e : K × V → V tali che siano soddisfatte le seguenti
proprietà:
1. (u ⊕ v) ⊕ w = u ⊕ (v ⊕ w), ∀ u, v, w ∈ V;
2. u ⊕ 0 = 0 ⊕ u = u, ∀ u ∈ V;
3. ∀ u ∈ V =⇒ ∃v ∈ V : u ⊕ v = v ⊕ u = 0;
4. u ⊕ v = v ⊕ u, ∀ u, v ∈ K;
5. (α · β) u = α (β u), ∀ α, β ∈ K, ∀ u ∈ K;
6. (α + β) u = (α u) ⊕ (β u), ∀ α, β ∈ K, ∀ u ∈ K;
7. α (u ⊕ v) = (α u) ⊕ (α v), ∀ α ∈ K, ∀ u, v ∈ K;
8. 1K · u = u, ∀ u ∈ V. Un elemento di uno spazio vettoriale prende il
nome di vettore.
Con abuso di notazione uno spazio vettoriale verrà indicato semplicemente con V senza specificare le due operazioni, lo 0-vettore ed il campo,
qualora questi possano essere facilmente intuibili.
Teorema 5.2. Sia V uno spazio vettoriale su un campo K. Allora
1. ∀v ∈ V =⇒ 0v = 0.
39
40
5. SPAZI VETTORIALI
2. ∀λ ∈ K =⇒ λ0 = 0.
3. Se λv = 0 allora λ = 0 oppure v = 0.
4. ∀v ∈ V =⇒ (−1)v = −v.
5. ∀v ∈ V, ∀λ ∈ K =⇒ (−λ)v = −(λv) = λ(−v).
Dimostrazione.
1. Si ha che 0v = (0 + 0)v = 0v + 0v e quindi, valendo
la legge di cancellazione, 0 = 0v.
2. Si ha che λ0 + λ0 = λ(0 + 0) = λ0 e per la legge di cancellazione
λ0 = 0.
3. Sia λv = 0. Se λ = 0 allora per quanto detto prima λv = 0.
Supponiamo λ 6= 0. Allora v = 1v = λ−1 λv = λ−1 0 = 0.
4. Si ha che 0 = 0v = (1 − 1)v = 1v + (−1)v = v + (−1)v e dunque
(−1)v è l’opposto di v.
5. Si ha (−λ)v = λ(−1v) = λ(−v) e (−λ)v = −1(λv) = −(λv).
Definizione 5.3. Un sottoinsieme U ⊆ V non vuoto si dice sottospazio
vettoriale di V se rispetto alle stesse operazioni di somma e di prodotto per
uno scalare di V è esso stesso uno spazio vettoriale.
Teorema 5.4 (Criterio per sottospazi I). Un sottoinsieme U ⊆ V non
vuoto è sottospazio vettoriale di V se e solo se valgono le seguenti proprietà:
1. 0 ∈ U;
2. ∀u ∈ U, ∀λ ∈ K =⇒ λu ∈ U;
3. ∀u, w ∈ U =⇒ u + w ∈ U.
Dimostrazione. Tutte le proprietà delle operazioni di somma e prodotto per
uno scalare che valgono in V valgono anche U salvo l’esistenza dell’elemento neutro rispetto alla somma in U e alla chiusura delle due operazioni.
Ovvero, non è detto che sia possibile restringere le due operazioni a U . Le
tre richieste sono esattamente queste.
Teorema 5.5 (Criterio per sottospazi II). Un sottoinsieme U ⊆ V non
vuoto è sottospazio vettoriale di V se e solo se
∀λ, µ ∈ K ∀u, w ∈ U =⇒ λu + µw ∈ U.
5.1. SPAZI VETTORIALI ASTRATTI
41
Dimostrazione. Questa richiesta è equivalente alle tre richieste del Teorema
5.4. Infatti le tre proprietà sono verificate considerando λ = µ = 0, µ = 0,
λ = µ = 1 rispettivamente. Viceversa se U è un sottospazio allora questa
proprietà è soddisfatta.
Definizione 5.6. Sia V uno spazio vettoriale e siano v1 , . . . , vn ∈ V n
vettori di V. Una combinazione lineare dei vettori v1 , . . . , vn è un vettore
v = λ1 v1 + λ2 v2 + · · · + λn vn ,
dove λ1 , . . . , λn ∈ K.
Teorema 5.7. Sia V uno spazio vettoriale e siano v1 , . . . , vn ∈ V n vettori
di V. L’insieme
hv1 , . . . , vn i = {λ1 v1 + λ2 v2 + · · · + λn vn | λ1 , . . . , λn ∈ K}
è un sottospazio vettoriale di V e si chiama sottospazio generato dai vettori
v1 , . . . , v n .
Dimostrazione. Utilizziamo il Teorema 5.5 per mostrare che si tratta di un
sottospazio di V. Siano λ, µ ∈ K e λ1 v1 + λ2 v2 + · · · + λn vn , λ1 v1 + λ2 v2 +
· · · + λn vn due vettori di hv1 , . . . , vn i allora
λ(λ1 v1 + λ2 v2 + · · · + λn vn ) + µ(λ1 v1 + λ2 v2 + · · · + λn vn )
= (λλ1 + µλ1 )v1 + (λλ2 + µλ2 )v2 + · · · + (λλn + µλn )vn ∈ hv1 , . . . , vn i.
Teorema 5.8. Siano U, W sottospazi vettoriali di V, spazio vettoriale sul
campo K. Allora
U ∩ W = {v ∈ V | v ∈ U, v ∈ W}
e
U + W = {u + w | u ∈ U, w ∈ W}
sono sottospazi di V. Inoltre U+W è il più piccolo sottospazio che contiene
U ∪ W e prende il nome di sottospazio somma.
42
5. SPAZI VETTORIALI
Dimostrazione. Sia v1 , v2 ∈ U ∩ W e λ, µ ∈ K. Allora λv1 + µv2 ∈ U e
λv1 +µv2 ∈ W perché U e W sono sottospazi vettoriali. Quindi λv1 +µv2 ∈
U ∩ W e dunque U ∩ W è un sottospazio vettoriale per il Teorema 5.5.
Siano u1 + w1 e u2 + w2 due vettori di U + W e λ, µ ∈ K. Allora
λ(u1 + w1 ) + µ(u2 + w2 ) = (λu1 + µu2 ) + (λv1 + µv2 ) ∈ U + W
perché (λu1 + µu2 ) ∈ U e (λv1 + µv2 ) ∈ W in quanto sottospazi. Dunque
U + W è un sottospazio vettoriale per il Teorema 5.5. Sia S un sottospazio
di V che contiene U ∩ W. Allora contiene anche la somma di due generici
vettori di U e W, ovvero contiene
U + W = {u + w | u ∈ U, w ∈ W}.
Definizione 5.9. Dati due sottospazi U e W di V, se U ∩ W = {0V }
allora la somma di U e V si dice diretta e si scrive
U ⊕ W.
Definizione 5.10. Un insieme di vettori v1 , . . . , vn ∈ V si dicono linearmente dipendenti se ∃λ1 , . . . , λn ∈ K non tutti nulli tali che
λ1 v1 + · · · + λn vn = 0.
I vettori v1 , . . . , vn ∈ V si dicono linearmente indipendenti se
∀λ1 , . . . , λn ∈ K =⇒ (λ1 v1 + · · · + λn vn = 0 =⇒ λ1 = · · · = λn = 0).
Proposizione 5.11.
1. Se i vettori v1 , . . . , vn ∈ V sono linearmente
indipendenti allora ogni sottoinsieme vi1 , . . . , vis , s ≤ n è costituito
da vettori linearmente indipendenti.
2. Siano v1 , . . . , vn ∈ V. Se uno di questi vettori è il vettore nullo allora
v1 , . . . , vn sono linearmente dipendenti.
Dimostrazione.
1. Supponiamo che ci siano s vettori tra v1 , . . . , vn linearmente dipendenti. Salvo riordinarli possiamo supporre che siano
i primo s. Allora esistono λ1 , . . . , λs ∈ K non tutti nulli tali che
λ1 v1 + · · · + λs vs = 0.
5.1. SPAZI VETTORIALI ASTRATTI
43
Ma allora
λ1 v1 + · · · + λs vs + 0vs+1 + · · · + 0vn = 0
e quindi i vettori v1 , . . . , vn sono linearmente dipendenti, impossibile.
2. Possiamo supporre che v1 = 0. Allora
10 + 0v2 + · · · + 0vn = 0
e quindi v1 , . . . , vn sono linearmente dipendenti.
Definizione 5.12. Un insieme di vettori v1 , . . . , vn ∈ V si dicono generatori di V se
∀v ∈ V =⇒ ∃λ1 , . . . , λn ∈ K : λ1 v1 + · · · + λn vn = v.
Definizione 5.13. Un insieme di vettori v1 , . . . , vn ∈ V linearmente indipendenti e generatori di V prendono il nome di base di V.
Esempio 5.14. I vettori (1, 1, 0), (1, 0, 1), (0, 1, 1) sono una base di R3 .
Teorema 5.15. Sia V uno spazio vettoriale sul campo K. I vettori e1 , . . . , en
sono una base di V se e solo se ogni vettore v ∈ V si scrive in maniera
unica come combinazione lineare di e1 , . . . , en .
Dimostrazione. Supponiamo che e1 , . . . , en sia una base e per assurdo un
vettore v si possa scrivere come
v = λ1 e1 + · · · + λn en = µ1 e1 + · · · + µn en .
Allora
0 = λ1 e1 + · · · + λn en − (µ1 e1 + · · · + µn en ) = (λ1 − µ1 )e1 + · · · + (λn − µn )en .
Poiché e1 , . . . , en sono linearmente indipendenti allora (λ1 − µ1 ) = · · · =
(λn −µn ) = 0 e quindi λi = µi per ogni i = 1, . . . , n e quindi le due scritture
di v coincidono.
Viceversa supponiamo che ogni ogni vettore v ∈ V si scrive in maniera
unica come combinazione lineare di e1 , . . . , en . In particolare 0 si scrive in
maniera unica come
0 = λ1 e1 + · · · + λn en = µ1 e1 + · · · + µn en .
44
5. SPAZI VETTORIALI
Ma siccome un modo per scrivere il vettore nullo è sicuramente 0e1 +· · ·+0en
questo è l’unico. Allora λ1 = . . . = λn = 0 e e1 , . . . , en sono linearmente
indipendenti. Inoltre sono generatori perché ogni vettore di V si scrive in
almeno un modo come combinazione lineare di e1 , . . . , en e quindi sono una
base di V.
Definizione 5.16. Sia V uno spazio vettoriale sul campo K e B = {e1 , . . . , en }
una sua base. Se v ∈ V si scrive come
v = λ1 e1 + · · · + λn en ,
allora λ1 , . . . , λn sono le componenti di v rispetto alla base B e si indica
con
(v)B = (λ1 , . . . , λn )B .
Teorema 5.17 (Teorema della base incompleta). Sia V uno spazio vettoriale sul campo K e sia e1 , e2 , . . . , en una sua base. Sia v1 , v2 , . . . , vr
un insieme di vettori di V linearmente indipendenti. Allora r ≤ n ed
è possibile scegliere n − r vettori ei1 , . . . , ein−r tra e1 , e2 , . . . , en tali che
v1 , v2 , . . . , vr , ei1 , . . . , ein−r è una base di V.
Dimostrazione. In Appendice.
Corollario 5.18. Siano e1 , e2 , . . . , en e f1 , f2 , . . . , fm due basi di uno stesso
spazio vettoriale V sul campo K. Allora n = m.
Dimostrazione. Siccome e1 , e2 , . . . , en sono in particolare linearmente indipendenti, allora per il Teorema 5.17 si ha che n ≤ m. D’altra parte, anche
f1 , f2 , . . . , fm sono linearmente indipendenti e quindi utilizzando di nuovo
il Teorema 5.17 si ha che m ≤ n e quindi n = m.
Definizione 5.19. Sia V uno spazio vettoriale sul campo K. La dimensione dim V di V, è il numero degli elementi di una sua qualsiasi base.
Osservazione 5.20. Sia V uno spazio vettoriale di dimensione n sul campo K e siano v1 , . . . , vn ∈ V linearmente indipendenti. Allora v1 , . . . , vn
costituiscono una base di V per il Teorema 5.17.
Osservazione 5.21. Sia V uno spazio vettoriale sul campo K di dimensione n. Allora l’unico sottospazio vettoriale di V di dimensione n è V
stesso.
5.1. SPAZI VETTORIALI ASTRATTI
45
Proposizione 5.22. Le matrici Eij , i = 1, . . . , n, j = 1, . . . , m, con Eij
matrice con tutti zeri tranne ai,j = 1, formano una base di Mn×m (K).
Dimostrazione. Sia A = (aij )ij una matrice di Mn×m (K). Allora
A=
n X
m
X
aij Eij
i=1 j=1
e quindi Eij , i = 1, . . . , n, j = 1, . . . , m, sono generatori di Mn×m (K).
Supponiamo ora che
n X
m
X
λij Eij = 0.
i=1 j=1
Ovvero la matrice (λij )ij è la matrice nulla, dunque per ogni i = 1, . . . , n,
j = 1, . . . , m
λij = 0
e le matrici Eij , i = 1, . . . , n, j = 1, . . . , m, sono linearmente indipendenti
e quindi una base di Mn×m (K).
Proposizione 5.23. Sia V uno spazio vettoriale sul campo K e siano U =
hu1 , . . . , un i, W = hw1 , . . . , wm i due suoi sottospazi. Allora
U + W = hu1 , . . . , un , w1 , . . . , wm i.
Dimostrazione. Per definizione, un elemento di U + W è dato da u + w,
con u ∈ U e w ∈ W. Allora u = λ1 u1 + · · · + λn un , w = µ1 w1 + · · · + µn wm
per qualche λ1 , . . . , λn , µ1 , . . . , µm ∈ K. Allora
u + w = λ1 u1 + · · · + λn un + µ1 w1 + · · · + µn wm ∈ hu1 , . . . , un , w1 , . . . , wm i.
Viceversa se v ∈ hu1 , . . . , un , w1 , . . . , wm i allora v = λ1 u1 + · · · + λn un +
µ1 w1 + · · · + µn wm per qualche λ1 , . . . , λn , µ1 , . . . , µm ∈ K. Ma allora
v = λ1 u1 + · · · + λn un + µ1 w1 + · · · + µn wm
= (λ1 u1 + · · · + λn un ) + (µ1 w1 + · · · + µn wm ) ∈ U + W,
dato che (λ1 u1 + · · · + λn un ) ∈ U e (µ1 w1 + · · · + µn wm ) ∈ W.
46
5. SPAZI VETTORIALI
Definizione 5.24. Sia V uno spazio vettoriale sul campo K e siano v1 , . . . , vm
vettori di V. Il rango rank(v1 , . . . , vm ) dei vettori v1 , . . . , vm è la dimensione del sottospazio hv1 , . . . , vm i.
Proposizione 5.25. Sia V uno spazio vettoriale sul campo K e sia e1 , . . . , en
una base di V. Sia dato un insieme di vettori v1 , . . . , vm di V. Allora
rank(v1 , . . . , vm ) = rango(A), dove A è la matrice che ha per righe (o per
colonne) le componenti dei vettori vi rispetto alla base B = {e1 , . . . , en }.
Dimostrazione. Si ha che rank(v1 , . . . , vm ) corrisponde al numero massimo
di vettori linearmente indipendenti tra i vettori v1 , . . . , vm . Dire che i vettori
v1 , . . . , vs , s ≤ n, sono linearmente indipendenti equivale a dire che per ogni
λ1 , . . . , λs ∈ K tali che
λ 1 v1 + · · · + λ s vs = 0
si ha che λ1 = · · · = λs = 0. Siano
(vi )B = (a1i , . . . , ani )
allora
(λ1 v1 + · · · + λs vs )B
= (λ1 a11 + λ2 a12 + · · · + λs a1s , . . . , λ1 an1 + λ2 an2 + · · · + λs ans ).
Dunque
λ 1 v1 + · · · + λ s vs = 0
se e solo se il sistema lineare omogeneo

λ1 a11 + λ2 a12 + · · · + λs a1s = 0



 λ1 a21 + λ2 a22 + · · · + λs a2s = 0
..

.



λ1 an1 + λ2 an2 + · · · + λs ans = 0
ha come unica soluzione λ1 = λ2 = · · · = λs = 0. Questo avviene se e solo
se il rango della matrice dei coefficienti è s.
Riassumendo, il numero massimo di vettori linearmente indipendenti
tra v1 , . . . , vr corrisponde al rango della matrice (ai,j )ij che ha per elementi
le componenti dei vettori vi rispetto alla base B = {e1 , . . . , en }.
Proposizione 5.26. Sia V uno spazio vettoriale sul campo K e sia v1 , . . . , vm
un insieme di generatori di V. Allora posso selezionare r = rank(v1 , . . . , vm )
vettori tra v1 , . . . , vm che costituiscono una base di V.
5.2. ESERCIZI
47
Dimostrazione. Supponiamo senza perdita di generalità che siano v1 , . . . , vr
vettori linearmente indipendenti. Allora per essere una base di V è necessario controllare che siano ancora generatori di V. Sia dunque v ∈ V,
con
v = λ1 v1 + λ2 v2 + · · · + λm vm
per qualche λ1 , λ2 , . . . , λm ∈ K. Allora poiché per ogni j = r + 1, . . . , m si
ha che
vj = a1j v1 + a2j v2 + · · · + arj vr
dato che r è il massimo numero di vettori linearmente indipendenti tra
v1 , . . . , vm . In conclusione
v = λ1 v1 + λ2 v2 + · · · λr vr +
m
X
(a1j v1 + a2j v2 + · · · + arj vr )
j=r+1
e pertanto v ∈ hv1 , . . . , vr i.
Teorema 5.27 (Teorema di Grassmann). Sia V uno spazio vettoriale sul
campo K e siano U, W due suoi sottospazi. Allora
dim(U + W) + dim(U ∩ W) = dim U + dim W.
Dimostrazione. In Appendice.
5.2
Esercizi
Esercizio 5.28. Sia Rn = {(a1 , . . . , an )
(0, 0, . . . , 0) e definiamo
:
ai ∈ R}. Definiamo 0 =
(a1 , . . . , an ) + (b1 , . . . , bn ) = (a1 + b1 , . . . , an + bn )
e
λ(a1 , . . . , an ) = (λa1 , . . . , λan ).
Provare che con queste due operazioni Rn è uno spazio vettoriale.
Esercizio 5.29. Sia Mn×m (R) l’insieme delle matrici n×m su R. Provare
che con le usuali operazioni di somma e moltiplicazione per uno scalare
Mn×m (R) è uno spazio vettoriale.
Esercizio 5.30. Provare che l’insieme delle soluzioni di un sistema lineare omogeneo sono uno spazio vettoriale rispetto alle usuali operazioni di
somma e prodotto per uno scalare.
48
5. SPAZI VETTORIALI
Esercizio* 5.31. Sia V uno spazio vettoriale e v ∈ V. Si provi che
Kv := {λv : λ ∈ K}
è un sottospazio vettoriale di V.
Esercizio* 5.32. Si provi che l’insieme
U := {A ∈ Mn×n (R) : AT = A}
è un sottospazio vettoriale di Mn×n (R).
Esercizio* 5.33. Dimostrare che i vettori ei , i = 1, . . . , n, con
ei = (0, . . . , 0, 1, 0, . . . , 0),
formano una base di Rn .
Esercizio* 5.34. Nello spazio vettoriale R4 sia V generato da (1, 0, 2, 0)
e (0, 1, 0, 1) e
W = {(x, y, z, t) | x + y = 0}.
Determinare la dimensione e una base di V ∩ W e V + W.
Capitolo 6
Applicazioni Lineari
6.1
Applicazioni Lineari
Definizione 6.1. Siano U e V due spazi vettoriali sopra lo stesso campo
K. Una funzione L : U → V è detta applicazione lineare se
L(λu1 + µu2 ) = λL(u1 ) + µL(u2 )
∀λ, µ ∈ K,
∀u1 , u2 ∈ U.
Definizione 6.2. Sia L : U → V un’applicazione lineare. Il nucleo e
l’ immagine di L sono rispettivamente
Ker(L) := {u ∈ U | L(u) = 0V },
Im(L) := {L(u) | u ∈ U}.
Proposizione 6.3. Sia L : U → V un’applicazione lineare. Allora Ker(L)
è un sottospazio di U e Im(L) è un sottospazio di V.
Dimostrazione. Siano u1 , u2 ∈ Ker(L) e λ, µ ∈ K. Allora
L(λu1 + µu2 ) = λL(u1 ) + µL(u2 ) = λ0V + µ0V = 0V .
Quindi λu1 + µu2 ∈ Ker(L) e dunque Ker(L) è un sottospazio di U per il
Teorema 5.5.
Siano v1 , v2 ∈ Im(L) e λ, µ ∈ K. Allora esistono u1 , u2 ∈ U tali che
L(u1 ) = v1 e L(u2 ) = v2 . Si ha che
λv1 + µv2 = λL(u1 ) + µL(u2 ) = L(λu1 + µu2 ).
Siccome λu1 + µu2 ∈ U allora λv1 + µv2 ∈ Im(L) e dunque Im(L) è un
sottospazio di V per il Teorema 5.5.
49
50
6. APPLICAZIONI LINEARI
Teorema 6.4 (Teorema della dimensione). Sia L : U → V un’applicazione
lineare. Allora
dim Ker(L) + dim Im(L) = dim U.
Dimostrazione. Sia e1 , . . . , er una base del Ker(L), f1 , . . . , fs una base di
Im(L). Allora esistono g1 , . . . , gs ∈ U tali che L(g1 ) = f1 , . . . , L(gs ) = fs .
Consideriamo e1 , . . . , er , g1 , . . . , gs .
• e1 , . . . , er , g1 , . . . , gs sono linearmente indipendenti. Sia infatti
λe1 + · · · + λr er + µ1 g1 + · · · + µs gs = 0U .
Allora
0V = L(0U ) = L(λe1 + · · · + λr er + µ1 g1 + · · · + µs gs )
= λL(e1 ) + · · · + λr L(er ) + µ1 L(g1 ) + · · · + µs L(gs ) = µ1 f1 + · · · + µs fs .
Poiché f1 , . . . , fs sono linearmente indipendenti, si ha che µ1 = . . . =
µs = 0. Ne segue che
λe1 + · · · + λr er = 0U .
Poiché e1 , . . . , er sono linearmente indipendenti si ha che λ1 = . . . =
λr = 0.
• e1 , . . . , er , g1 , . . . , gs sono generatori di U. Sia u ∈ U. Allora L(u) ∈
Im(L) e dunque
L(u) = µ1 f1 + · · · + µs fs = µ1 L(g1 ) + · · · + µs L(gs )
= L(µ1 g1 + · · · + µs gs ),
per qualche µ1 , . . . , µs ∈ K. Inoltre
L(u − µ1 g1 − · · · − µs gs ) = L(u) − L(µ1 g1 + · · · + µs gs ) = 0V
da cui si deduce che u − µ1 g1 − · · · − µs gs ∈ Ker(L) da cui segue che
esistono λ1 , . . . , λr ∈ K tali che
u − µ1 g1 − · · · − µs gs = λ1 e1 + · · · + λr er
ovvero
u = µ1 g1 + · · · + µs gs + λ1 e1 + · · · + λr er .
6.1. APPLICAZIONI LINEARI
51
Teorema 6.5. Siano U, V due spazi vettoriali sullo stesso campo K. Sia
e1 , . . . , en una base di U e siano f1 , . . . , fn vettori di V. Allora esiste
un’unica applicazione lineare L : U → V tale che L(e1 ) = f1 , . . . , L(en ) =
fn .
Dimostrazione. Consideriamo la seguente applicazione lineare L : U → V
definita da
L(u) = a1 f1 + · · · + an fn
se u = a1 e1 + · · · + an en . Si vede chiaramente che L(e1 ) = f1 , . . . , L(en ) =
fn . Inoltre tale applicazione è lineare. Infatti siano u1 , u2 ∈ U tali che
u1 = a1 e1 + · · · + an en e u2 = b1 e1 + · · · + bn en , e λ, µ ∈ K. Allora
L(λu1 + µu2 ) = L(λ(a1 e1 + · · · + an en ) + µ(b1 e1 + · · · + bn en ))
= L((λa1 + µb1 )e1 + · · · + (λan + µbn )en )
= (λa1 + µb1 )f1 + · · · + (λan + µbn )fn
= λ(a1 f1 + · · · + an fn ) + µ(b1 f1 + · · · + bn fn ) = λL(u1 ) + µL(u2 ).
Inoltre tale funzione è unica. Sia infatti T : U → V lineare tale che
T (e1 ) = f1 , . . . , T (en ) = fn . Allora se u = a1 e1 + · · · + an en si ha che
T (u) = T (a1 e1 + · · · + an en ) = a1 T (e1 ) + · · · + an T (en )
= a1 f1 + · · · + an fn = L(u).
Proposizione 6.6. Siano L : U → V, T : V → W due applicazioni
lineari. Allora T ◦ L : U → W è lineare.
Dimostrazione. Sia u1 , u2 ∈ U e λ, µ ∈ K. Allora
(T ◦ L)(λu1 + µu2 ) = T (L(λu1 + µu2 )) = T (λL(u1 ) + µL(u2 ))
= λT (L(u1 )) + µT (L(u2 )) = λ(T ◦ L)(u1 ) + µ(T ◦ L)(u2 )
e quindi T ◦ L è lineare.
Proposizione 6.7. Sia L : U → V un’applicazione lineare e sia e1 , . . . , en
una base di U. Allora Im(L) = hL(e1 ), . . . , L(en )i.
52
6. APPLICAZIONI LINEARI
Dimostrazione. Sia v = L(u) ∈ Im(L). Allora u = λ1 e1 + · · · + λn en per
qualche λ1 , . . . , λn ∈ K e
v = L(u) = L(λ1 e1 + · · · + λn en )
= λ1 L(e1 ) + · · · + λn L(en ) ∈ hL(e1 ), . . . , L(en )i.
Viceversa, chiaramente se v ∈ hL(e1 ), . . . , L(en )i allora v = λ1 L(e1 ) + · · · +
λn L(en ) per qualche λ1 , . . . , λn ∈ K e
v = λ1 L(e1 ) + · · · + λn L(en ) = L(λ1 e1 + · · · + λn en ) ∈ Im(L).
6.2
Isomorfismi
Definizione 6.8. Sia L : U → V un’applicazione lineare. L si dice
monomorfismo ( epimorfismo) se è iniettiva (suriettiva).
Se esiste una applicazione lineare T : V → U tale che T ◦ L = idU e
L ◦ T = idV allora L si dice isomorfismo.
Un’applicazione lineare L : V → V si dice endomorfismo.
Proposizione 6.9. Sia L : U → V un’applicazione lineare biiettiva. Allora
L è un isomorfismo.
Dimostrazione. Poiché L è biiettiva allora esiste la funzione inversa T :
V → U tale che T ◦ L = idU e L ◦ T = idV . Rimane da provare che T è
lineare. Siano u1 , u2 ∈ U, L(u1 ) = v1 , L(v2 ) = u2 e λ, µ ∈ K. Allora
λT (v1 ) + µT (v2 ) = λu1 + µu2 = T (L(λu1 + µu2 ))
= T (λL(u1 ) + µL(u2 )) = T (λv1 + µv2 ).
Proposizione 6.10. Sia L : U → V un’applicazione lineare. Allora L è
monomorfismo se e solo se Ker(L) = {0U } e L è epimorfismo se e solo se
dim(Im(L)) = dim(V).
Dimostrazione. L è monomorfismo se e solo ∀u1 , u2 ∈ U si ha che L(u1 ) =
L(u2 ) implica u1 = u2 .
L(u1 ) = L(u2 ) ⇐⇒ L(u1 ) − L(u2 ) = 0U
6.3. APPLICAZIONI LINEARI E MATRICI
53
⇐⇒ L(u1 − u2 ) = 0U ⇐⇒ u1 − u2 ∈ Ker(L).
E dunque L è monomorfismo se e solo se Ker(L) = {0U }.
L è epimorfismo se e solo se Im(L) = V e dunque se e solo se dim(Im(L)) =
dim(V).
Osservazione 6.11. La composizione di due monomorfismi, epimorfismi,
isomorfismi, endomorfismi è un monomorfismo, epimorfismo, isomorfismo,
endomorfismo rispettivamente.
Definizione 6.12. Siano U, V due spazi vettoriali sullo stesso campo K.
Si dicono isomorfi se esiste un isomorfismo L : U → V.
Teorema 6.13. Siano U, V due spazi vettoriali sullo stesso campo K. I
due spazi sono isomorfi se e solo se hanno la stessa dimensione.
Dimostrazione. Supponiamo che U e V siano isomorfi e sia L : U → V
isomorfismo. Allora per il Teorema 6.4
dim(Ker(L)) + dim(Im(L)) = dim(U) ⇐⇒ 0 + dim(U) = dim(U),
in quanto Ker(L) = {0U } e dim(Im(L)) = dim(V) per la Proposizione
6.10.
Supponiamo ora che U e V abbiano la stessa dimensione n. Costruiamo
un isomorfismo tra U e V. Siano e1 , . . . , en e f1 , . . . , fn basi rispettivamente
di U e V. Sia L : U → V tale che L(e1 ) = f1 , . . . , L(en ) = fn . Questa
applicazione lineare esiste ed è unica per il Teorema 6.5. Dobbiamo provare
che è un isomorfismo. Sia ha che Ker(L) è costituito da tutti gli u =
a1 e1 + · · · + an en ∈ U tali che a1 f1 + · · · + an fn = 0V . Siccome f1 , . . . , fn
sono linearmente indipendenti si ha che a1 = . . . = an = 0 e dunque u = 0U .
Quindi L è iniettiva. Per il Teorema 6.4
dim(Ker(L)) + dim(Im(L)) = dim(U) =⇒ 0 + dim(Im(L)) = n
e perciò Im(L) = V e L è isomorfismo.
6.3
Applicazioni Lineari e Matrici
Definizione 6.14. Sia L : U → V un’applicazione lineare e siano B =
{v1 , . . . , vn } e C = {w1 , . . . , wm } basi di U e V rispettivamente. La matrice
54
6. APPLICAZIONI LINEARI
MBC (L) dell’applicazione lineare L rispetto alle basi B e C è data da





···
···
a1n
a2n
..
.
am1 am2 · · ·
amn
a11
a21
..
.
a12
a22
..
.



 ∈ Mm×n (K),

dove L(vi ) = a1i w1 + · · · + ami wm . Ovvero la matrice ha per colonne le
componenti dei vettori L(vi ) rispetto alla base C.
Proposizione 6.15. Siano L : U → V, T : V → W due applicazioni
lineari. Siano B = {e1 , . . . , en }, C = {f1 , . . . , fm }, D = {g1 , . . . , gr } basi
rispettivamente di U , V , W . Allora
MBD (T ◦ L) = MCD (T ) MBC (L).
Dimostrazione. Si ha che per ogni i = 1, . . . , n
(T ◦ L)(ei ) = T (L(ei )) = T (a1i f1 + a2i f2 + · · · + ami fm )
= a1i (b11 g1 +· · ·+br1 gr )+a2i (b12 g1 +· · ·+br2 gr )+· · ·+ami (b1m g1 +· · ·+brm gr )
= (a1i b11 + a2i b12 + · · · + ami b1m )g1 + (a1i b21 + a2i b22 + · · · + ami b2m )g2 + · · ·
+(a1i br1 + a2i br2 + · · · + ami brm )gr .
Ovvero la i-esima colonna della matrice MBD (T ◦ L) è data da
(a1i b11 + a2i b12 + · · · + ami b1m )
(a1i b21 + a2i b22 + · · · + ami b2m ) .
(a1i br1 + a2i br2 + · · · + ami brm )
Il j-esimo elemento della colonna
(a1i bj1 + a2i bj2 + · · · + ami bjm )
è ottenuto moltiplicando la j-esima riga di MCD (T ) con la i-esima riga di
MBC (L).
Definizione 6.16. Sia V uno spazio vettoriale sopra un campo K e siano
B = {e1 , . . . , en } e C = {f1 , . . . , fn } due basi di V. La matrice cambiamento
di base da B a C è la matrice MBC (idV ) dell’applicazione idV rispetto alle
basi B e C.
6.3. APPLICAZIONI LINEARI E MATRICI
55
Osservazione 6.17. Sia V uno spazio vettoriale sopra un campo K e siano
B = {e1 , . . . , en } e C = {f1 , . . . , fn } due basi di V. Allora la matrice cambiamento di base si ottiene mettendo in colonna le componenti dei vettori
e1 , . . . , en rispetto alla base f1 , . . . , fn .
Proposizione 6.18. Sia V uno spazio vettoriale sopra un campo K e siano
B = {e1 , . . . , en } e C = {f1 , . . . , fn } due basi di V. Allora la matrice
cambiamento di base MBC (idV ) è invertibile e si ha
−1
MBC (idV )
= MCB (idV ).
Dimostrazione. Dalla Proposizione 6.15 si ha che
In = MBB (idV ) = MBB (idV ) = MBB (idV ◦ idV ) = MCB (idV )MBC (idV ).
Proposizione 6.19. Sia L : U → V un’applicazione lineare e siano B, B 0
e C, C 0 basi rispettivamente di U e V. Allora
0
0
MBC (L) = MCC0 (idV )MBC0 (L)MBB (idU ).
Dimostrazione. Dalla Proposizione 6.15 si ha che
0
0
MBC (L) = MBC (idV ◦ L ◦ idU ) = MCC0 (idV )MBC0 (L)MBB (idU ).
Teorema 6.20. Siano U e V spazi vettoriali sopra un campo K. Sia
Hom(U, V) = {L : U → V lineari }.
Date L, T ∈ Hom(U, V), sia L + T : U → V definita da (L + T )(u) =
L(u) + T (u) per ogni u ∈ U. Dato λ ∈ K sia λL : U → V definita da
(λL)(u) = λL(u) per ogni u ∈ U. Allora rispetto a queste due operazioni
Hom(U, V) è uno spazio vettoriale sopra il campo K.
Dimostrazione. Per prima cosa bisogna far vedere che le due operazioni
sono ben definite, ovvero che L + T e λL sono ancora applicazioni lineari.
Questo è di facile verifica in quanto
(L + T )(λ1 u1 + λ2 u2 ) = L(λ1 u1 + λ2 u2 ) + T (λ1 u1 + λ2 u2 )
= λ1 L(u1 ) + λ2 L(u2 ) + λ1 T (u1 ) + λ2 T (u2 )
56
6. APPLICAZIONI LINEARI
= λ1 L(u1 ) + λ1 T (u1 ) + λ2 L(u2 ) + λ2 T (u2 ) = λ1 (T + L)(u1 ) + λ2 (T + L)(u2 )
e
(λL)(λ1 u1 + λ2 u2 ) = λL(λ1 u1 + λ2 u2 )
= λ(λ1 L(u1 ) + λ2 L(u2 )) = λλ1 L(u1 ) + λλ2 L(u2 )
= λ1 λL(u1 ) + λ2 λL(u2 ) = λ1 (λL)(u1 ) + λ2 (λL)(u2 ).
Inoltre la somma di due applicazioni lineari è chiaramente commutativa e
associativa, l’applicazione lineare nulla è l’elemento neutro, e l’applicazione
lineare opposta di L rispetto alla somma è definita da (−L)(u) = −L(u) per
ogni u ∈ U. Infine la moltiplicazione di uno scalare e di una applicazione
lineare soddisfa chiaramente
(λ1 λ2 )L = λ1 (λ2 L),
(λ1 + λ2 )L = (λ1 L) + (λ2 L),
λ1 (L + T ) = (λ1 L) + (λ1 T ),
1K L = L,
per ogni λ1 , λ2 ∈ K e L, T ∈ Hom(U, V). Dunque Hom(U, V) è uno
spazio vettoriale rispetto a queste due operazioni.
Teorema 6.21. Siano U e V spazi vettoriali sopra un campo K di dimensione rispettivamente n e m. Allora Hom(U, V) è isomorfo allo spazio
vettoriale Mm×n (K) e quindi ha dimensione nm.
Dimostrazione. Siano B e C basi di U e V rispettivamente. Consideriamo
la seguente applicazione
ϕ : Hom(U, V) → Mm×n (K)
definita da ϕ(L) = MBC (L). Mostriamo che ϕ è un isomorfismo di spazi
vettoriali. Si ha che ϕ è lineare:
ϕ(λL + µT ) = MBC (λL + µT ) = λMBC (L)µMBC (T ) = λϕ(L) + µϕ(T ).
Il Ker(ϕ) è costituito da tutte le applicazioni lineari L da U in V che hanno
come matrice associata la matrice nulla. Ma questo vuol dire che L(u) = 0V
per ogni u ∈ U e dunque L è l’applicazione lineare nulla. Infine la ϕ è
chiaramente suriettiva perché data una qualsiasi matrice M ∈ Mm×n (K)
questa può essere vista come la matrice MBC (L) dove L è definita da
(L((λ1 , λ2 , . . . , λn )B ))C = M (λ1 , λ2 , . . . , λn )T .
Poiché la dimensione di Mm×n (K) è nm, il teorema è dimostrato.
6.4. ESERCIZI
57
Definizione 6.22. Un endomorfismo L : V → V si dice diagonalizzabile
se esiste una base B di V tale che la sua matrice relativa a B è diagonale.
Osservazione 6.23. Un endomorfismo L : V → V è diagonalizzabile se e
solo se la matrice rispetto ad una qualsiasi base di V è diagonalizzabile.
6.4
Esercizi
Esercizio* 6.24. Sia L : R3 → R2 data da L(x, y, z) = (x + 2y + z, y + z).
1. Verificare che L è lineare.
2. Determinare una base di Ker(L) e stabilire se L è iniettiva. Determinare una base di Im(L).
3. Calcolare w = L(2, 1, 3) e determinare L−1 (w).
Esercizio* 6.25. Siano
v1 = (0, 0, 2, −1), v2 = (−1, 1, 2, 1), v3 = (0, 1, 0, 2), v4 = (0, 0, 0, 1) ∈ R4 .
1. Verificare che v1 , v2 , v3 , v4 è base di R4 .
2. Dimostrare che esiste un’unica L : R4 → R4 tale che
L(v1 ) = L(v2 ) = v1 − v3 , L(v3 ) = v1 , L(v4 ) = 0.
Calcolare la matrice di L rispetto alla base canonica.
3. Trovare basi di Ker(L) e di Im(L).
Esercizio* 6.26. Sia L : R4 → R4 definita da
L(x, y, z, t) = (−x + z, −y + t, x − z, y − t).
Determinare la dimensione ed una base di Ker(L) e di Im(L).
Esercizio* 6.27. Determinare se esiste un’applicazione lineare L : R3 →
R2 , tale che
L(1, 1, 1) = (3, 0), L(0, 2, −1) = (0, 3),
L(2, 0, 0) = (0, 0), L(1, 0, 1) = (3, 1).
58
6. APPLICAZIONI LINEARI
Esercizio* 6.28. Considerata l’applicazione lineare L : R3 → R3 , definita
da
L(x, y, z) = (2x + y, y − z, x + z),
si provi che essa è un isomorfismo e se ne determini l’inversa.
Esercizio* 6.29. Determinare se esiste un’applicazione lineare L : R3 →
R3 tale che
L(1, 0, 0) = (4, 5, −2), L(0, 1, 0) = (−2, −2, 1),
L(1, 0, −1) = (5, 6, −3), L(1, 3, 0) = (−2, −1, 1).
In caso affermativo studiare L.
0
Esercizio* 6.30. Determinare la matrice MBB (L) dell’applicazione lineare
L : R3 → R3 definita da
L(x, y, z) = (2x − y − z, x − y + z, x − z),
con B = {(1, −1, 0), (1, 0, −1), (0, 1, 0)} e B 0 = {(1, 0, 0), (1, 0, 1), (1, −2, 0)}.
Esercizio* 6.31. Verificare che l’applicazione lineare L : R3 → R3 definita
da
L(x, y, z) = (x + 2y, −2x + y + z, 2y + 3z)
è invertibile e determinarne l?inversa.
Esercizio 6.32. Sia L : R3 → R3 l’applicazione lineare definita da
L(e1 ) = 2e2 + 3e3 , L(e2 ) = 2e1 − 5e2 − 8e3 , L(e3 ) = −e1 + 4e2 + 6e3 ,
essendo {e1 , e2 , e3 } la base canonica di R3 . Determinare la matrice di L2 =
L L sulla base canonica. Determinare inoltre il nucleo delle applicazioni
L − idR3 ed L2 + idR3 .
Esercizio* 6.33. Si considerino le applicazioni lineari f : R2 → R3
definita da f (x, y) = (x, 2y, x + y) e g : R3 → R3 rappresentata, rispetto
alla base canonica, dalla seguente matrice


1 0 1
B =  2 1 4 .
3 1 5
Determinare una base di Im(g ◦ f ).
Capitolo 7
Spazi Vettoriali Euclidei
7.1
Prodotti Scalari e Spazi Vettoriali Euclidei
Definizione 7.1. Sia V uno spazio vettoriale su R. Un prodotto scalare
h·, ·i su V è un’applicazione
h·, ·i : V × V → R
che soddisfa
1. hu, vi = hv, ui per ogni u, v ∈ V;
2.
hλu1 + µu2 , vi = λhu1 , vi + µhu2 , vi
e
hu, λv1 + µv2 i = λhu, v1 i + µhu, v2 i
per ogni λ, µ ∈ R e per ogni u1 , u2 , v1 , v2 ∈ V.
3. hv, vi ≥ 0 per ogni v ∈ V e hv, vi = 0 se e solo se v = 0V .
Lo spazio V insieme al prodotto scalare h·, ·i prende il nome di spazio
vettoriale euclideo.
Definizione 7.2. Sia Rn lo spazio vettoriale n-dimensionale su R. Definiamo prodotto scalare standard il prodotto scalare definito da
h(x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn )i = x1 y1 + x2 y2 + · · · + xn yn .
59
60
7. SPAZI VETTORIALI EUCLIDEI
Osservazione 7.3. Si osserva facilmente che il prodotto scalare standard
su Rn è un prodotto scalare. Infatti è simmetrico
h(x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn )i = x1 y1 + x2 y2 + · · · + xn yn
= h(y1 , y2 , . . . , yn ), (x1 , x2 , . . . , xn )i.
È lineare:
h(x1 , x2 , . . . , xn ) + (x01 , x02 , . . . , x0n ), (y1 , y2 , . . . , yn )i
= (x1 + x01 )y1 + (x2 + x02 )y2 + · · · + (xn + x0n )yn
= x1 y1 + x2 y2 + · · · + xn yn + x01 y1 + x02 y2 + · · · + x0n yn
= h(x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn )i + h(x01 , x02 , . . . , x0n ), (y1 , y2 , . . . , yn )i
e
hλ(x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn )i = λx1 y1 + λx2 y2 + · · · + λxn yn
= λ(x1 y1 + x2 y2 + · · · + xn yn ) = λh(x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn )i.
Infine
h(x1 , x2 , . . . , xn ), (x1 , x2 , . . . , xn )i = x21 + x22 + · · · + x2n ≥ 0
e l’uguaglianza si ha solo se x1 = x2 = · · · = xn = 0.
Definizione 7.4. Sia V uno spazio vettoriale euclideo e sia h·, ·i il suo
prodotto scalare. Due vettori u, v ∈ V si dicono ortogonali se hu, vi = 0.
Siano U e W due sottospazi di V. U e W si dicono ortogonali se
∀ u ∈ U ∀ w ∈ W =⇒ hu, wi = 0.
Osservazione 7.5. Se v =
6 0V è ortogonale a tutti i vettori di U, sottospazio di V, allora v ∈
/ U e quindi dim(hU, vi) = dim(U) + 1.
Definizione 7.6. Sia V uno spazio vettoriale euclideo e sia h·, ·i il suo
prodotto scalare. Si definisce norma di un vettore v ∈ V lo scalare
p
||v||V = hv, vi ≥ 0.
Teorema 7.7 (Teorema di Carnot). Sia V uno spazio vettoriale euclideo.
Allora per ogni u, v ∈ V si ha
||u + v||2V = ||u||2V + ||v||2V + 2hu, vi.
7.2. BASI ORTOGONALI E ORTONORMALI
61
Dimostrazione. Si ha che
||u + v||2V = hu + v, u + vi = hu, ui + hu, vi + hv, ui + hv, vi
= ||u||2V + 2hu, vi + ||v||2V .
Teorema 7.8 (Teorema di Pitagora). Sia V uno spazio vettoriale euclideo.
Allora per ogni u, v ∈ V tali che hu, vi = 0 si ha
||u + v||2V = ||u||2V + ||v||2V .
Dimostrazione. Si ha che
||u + v||2V = ||u||2V + 2hu, vi + ||v||2V = ||u||2V + ||v||2V .
Teorema 7.9 (Formula di Polarizzazione). Sia V uno spazio vettoriale
euclideo. Allora per ogni u, v ∈ V si ha
hu, vi =
1
||u + v||2V − ||u||2V − ||v||2V
2
Dimostrazione. Si ha che
||u + v||2V − ||u||2V − ||v||2V = ||u||2V + ||v||2V + 2hu, vi − ||u||2V − ||v||2V
= 2hu, vi.
7.2
Basi Ortogonali e Ortonormali
Definizione 7.10. Sia B = {v1 , . . . , vn } una base di uno spazio vettoriale
euclideo V. La base B si dice ortogonale se
hvi , vj i = 0,
∀ i 6= j = 1, . . . , n.
Una base B ortogonale si dice ortonormale se
hvi , vi i = 1,
∀ i = 1, . . . , n.
62
7. SPAZI VETTORIALI EUCLIDEI
Teorema 7.11 (Disuguaglianza di Cauchy-Schwarz). Sia V uno spazio
vettoriale euclideo. Allora
|hu, vi| ≤ ||u||V ||v||V
per ogni u, v ∈ V. Inoltre l’uguaglianza vale se solo v = λu per qualche
λ ∈ K.
Dimostrazione. Si consideri u 6= 0V e
hu, vi 2
hu, vi2
hu, vi
0 ≤ v −
u = ||v||2V +
ui
− 2hv,
hu, ui V
hu, ui
||u||2V
||v||2V +
hu, vi2
hu, vi2
hu, vi2
2
−
−
2
=
||v||
V
||u||2V
||u||2V
||u||2V
e dunque
hu, vi2 ≤ ||u||2V ||v||2V .
Se v = λu allora hu, λui2 = λ2 ||u||2V = ||u||2V ||v||2V . Viceversa se hu, vi2 =
||u||2V ||v||2V allora
hu, vi 2
u = 0
v −
hu, ui V
ovvero v =
hu,vi
hu,ui u.
Definizione 7.12. Sia V uno spazio vettoriale euclideo e u, v ∈ V. L’angolo θ trai due vettori u e v è dato da
cos θ =
hu, vi
.
||u||V ||v||V
Teorema 7.13 (Disuguaglianza triangolare). Sia V uno spazio vettoriale
euclideo. Allora
1. ||u||V ≥ 0 per ogni u ∈ V e ||u||V = 0 se e solo se u = 0V ;
2. ||λu||V = |λ| ||u||V per ogni u ∈ V e λinR;
3. ||u + v||V ≤ ||u||V + ||v||V per ogni u, v ∈ V.
p
Dimostrazione. Poiché Si ha che ||u||V = hu, ui si ha immediatamente
che ||u||V ≥ 0 per ogni u ∈ V e ||u||V = 0 se e solo se u = 0V . Inoltre
p
p
p
||λu||V = hλu, λui = λ2 hu, ui|λ| hu, ui = |λ| ||u||V .
7.2. BASI ORTOGONALI E ORTONORMALI
63
Infine
||u + v||2V = ||u||2V + ||v||2V + 2hu, vi
≤ ||u||2V + ||v||2V + 2||u||V ||v||V = (||u||V + ||v||V )2
per il Teorema 7.11.
Teorema 7.14 (Proiezione ortogonale su un sottospazio). Sia V uno spazio
vettoriale euclideo e U un suo sottospazio con base ortogonale u1 , . . . , ur .
Dato un vettore v ∈ V il vettore
vU =
hv, u1 i
hv, u2 i
hv, ur i
u1 +
u2 + · · · +
ur
hu1 , u1 i
hu2 , u2 i
hur , ur i
si chiama proiezione ortogonale di v su U e verifica le seguenti proprietà
1. vU ∈ U;
2. v − vU è ortogonale a tutti i vettori u ∈ U;
3. ||v − vU ||V < ||v − u||V per ogni u ∈ U.
Dimostrazione. Si ha che per come è definito vU ∈ U. Si noti che vU è
bene definito in quanto u1 , . . . , ur sono linearmente indipendenti e dunque
nessuno di loro è il vettore nullo e perciò hui , ui i =
6 0, i = 1, . . . , r.
Sia u ∈ U allora
hv − vU , ui = hv − vU , λ1 u1 + · · · + λr ur i
= hv, λ1 u1 + · · · + λr ur i − hvU , λ1 u1 + · · · + λr ur i
= λ1 hv, u1 i + · · · + λr hv, ur i
−h
hv, u1 i
hv, u2 i
hv, ur i
u1 +
u2 + · · · +
ur , λ1 u1 + · · · + λr ur i
hu1 , u1 i
hu2 , u2 i
hur , ur i
= λ1 hv, u1 i + · · · + λr hv, ur i − λ1 hv, u1 i − · · · − λr hv, ur i = 0.
Inoltre se u 6= vU allora
||v − u||2V = ||v − vU + vU − u||2V = ||v − vU ||2V + ||vU − u||2V
poiché v − vU e vU − u ∈ U sono ortogonali e dunque vale il Teorema 7.8.
Poiché u 6= vU allora ||vU − u||2V > 0 e quindi ||v − vU ||2V < ||v − u||2V .
64
7. SPAZI VETTORIALI EUCLIDEI
Teorema 7.15. Sia V uno spazio vettoriale euclideo e U un suo sottospazio. Allora l’insieme
U⊥ = {v ∈ V | hv, ui = 0 ∀ u ∈ U}
è un sottospazio di V detto sottospazio ortogonale al sottospazio U. Se
dim(V) = n e dim(U) = r allora dim(U⊥ ) = n − r.
Dimostrazione. Siano v1 , v2 ∈ U⊥ , λ, µ ∈ R allora hλv1 +µv2 , ui = λhv1 , ui+
µhv2 , ui = 0 e pertanto λv1 + µv2 ∈ U⊥ . Sia v ∈ U⊥ ∩ U. In particolare
hu, ui = 0 e quindi u = 0V e U⊥ ∩ U = {0V }. Inoltre ogni vettore v ∈ V
si può scrivere come v = vU + vU⊥ : basta osservare che v − vU è tale che
hv − vU , ui = 0 per ogni u ∈ U per il Teorema 7.14 e allora U + U⊥ = V .
Quindi dal Teorema 5.27 si ha
n = dim(V) = dim(U + U⊥ ) + dim(U ∩ U⊥ )
= dim(U) + dim(U⊥ ) = r + dim(U⊥ ).
Teorema 7.16. Sia V uno spazio vettoriale euclideo e U un suo sottospazio. Allora
U ⊕ U⊥ = V.
Dimostrazione. Si ha che la somma di U e U⊥ è diretta poiché l’unico
vettore u ∈ U ∩ U⊥ è il vettore nullo. Inoltre per il Teorema 7.15 e il
Teorema 5.27 si ha che
dim(U) + dim(U⊥ ) = r + n − r = n
e pertanto U + U⊥ = V.
Teorema 7.17. Sia V uno spazio vettoriale euclideo e U un suo sottospazio. Allora U⊥⊥ = U.
Dimostrazione. Sia u ∈ U allora per ogni v ∈ U⊥ si ha hu, vi = 0 e
dunque u ∈ U⊥⊥ e U ⊆ U⊥⊥ . Se r = dim(U) allora dim(U⊥ ) = n − r e
dim(U⊥⊥ ) = n − (n − r) = r. Quindi U è un sottospazio di dimensione r
di un sottospazio di dimensione r e i due sottospazi devono coincidere.
Teorema 7.18 (Ortogonalizzazione di Gram-Schmidt). Sia V uno spazio
vettoriale euclideo di dimensione n. Allora esiste una base ortogonale.
7.3. ESERCIZI
65
Dimostrazione. Sia v1 , . . . , vn una base di V.
vettori
e1 = v1
2 ,e1 i
e2 = v2 − hv
he1 ,e1 i e1
e3 = v3 −
hv3 ,e1 i
he1 ,e1 i e1
hv4 ,e1 i
he1 ,e1 i e1
−
hv3 ,e2 i
he2 ,e2 i e2
hv4 ,e2 i
he2 ,e2 i e2
e 4 = v4 −
−
..
.
P
hvn ,ei i
en = vn − n−1
i=1 hei ,ei i ei
−
Consideriamo i seguenti
hv4 ,e3 i
he3 ,e3 i e3
.
Chiaramente e1 è linearmente indipendente e ortogonale. Supponiamo
che e1 , . . . , er siano ortogonali tra loro e linearmente indipendenti. Allora
er+1 = vr+1 −vU , dove vU è la proiezione ortogonale su U = he1 , e2 , . . . er i di
vr+1 . Per il Teorema 7.14 er+1 è ortogonale a tutti i vettori di U ed è anche
linearmente indipendente con e1 , . . . , er . Per induzione si ha l’asserto.
Corollario 7.19. Sia V uno spazio vettoriale euclideo di dimensione n.
Allora esiste una base ortonormale.
Dimostrazione. Sia v1 , . . . , vn una base ortonormale di V, che esiste per il
Teorema 7.18. Allora i vettori
v2
vn
v1
,
,...,
||v1 ||V ||v2 ||V
||vn ||V
sono una base ortonormale di V.
Teorema 7.20. Sia V uno spazio vettoriale euclideo sopra un campo K
e siano B = {e1 , . . . , en } e C = {f1 , . . . , fn } due basi ortonormali di V.
Allora la matrice cambiamento di base da B a C è ortogonale.
7.3
Esercizi
Esercizio 7.21. Si determini mediante il metodo di Gram-Schmidt una
base ortonormale del sottospazio
{(x, y, z, t) ∈ R4 | x + y + z + t = 0}.
66
7. SPAZI VETTORIALI EUCLIDEI
Capitolo 8
Spazi Affini ed Euclidei
8.1
Spazi Affini
Definizione 8.1. Sia A un insieme non vuoto e V uno spazio vettoriale
sopra un campo K. Sia data inoltre un’applicazione
a:A×A→V
tale che
1. per ogni P ∈ A l’applicazione aP : A → V definita da aP (Q) =
a(P, Q) è una biiezione;
2. per ogni P, Q, R ∈ A si ha
a(P, Q) + a(Q, R) = a(P, R).
La coppia (A, a) prende il nome di spazio affine di dimensione dim(V).
Gli elementi di A prendono il nome di punti. Inoltre a(P, Q) viene indicato
con P Q. Infine, dato v ∈ V, l’unico punto Q ∈ A tale che P Q = v viene
indicato con P + v.
Definizione 8.2. Lo spazio affine n-dimensionale reale A(R, n) è lo spazio
affine costruito sullo spazio vettoriale reale Rn , dove
a : A(R, n) × A(R, n) → Rn
è definita da
a((p1 , . . . , pn ), (q1 , . . . , qn )) = (q1 − p1 , . . . , qn − pn ).
67
68
8. SPAZI AFFINI ED EUCLIDEI
Proposizione 8.3. Sia A uno spazio affine su V. Allora P P = 0V e
P Q + QP = 0V .
Dimostrazione. Si ha che
PP + PP = PP
e dunque P P = 0V . Inoltre
P Q + QP = P P = 0V .
Definizione 8.4. Sia A uno spazio affine su V. Sia U un sottospazio di
V e P ∈ A. L’insieme
AP,U = {P + v | v ∈ U}.
prende il nome di sottospazio affine di giacitura U e passante per P . La
dimensione del sottospazio affine è dim(U). In particolare sottospazi affini
di dimensione 1, 2, 3, n − 1, prendono il nome di rette, piani, solidi,
iperpiani rispettivamente.
Due sottospazi affini AP,U e AQ,W si dicono paralleli se U ⊆ W oppure
W ⊆ U.
Definizione 8.5. Sia A uno spazio affine su V. Sia
AP,U = {P + v | v ∈ U}
un suo sottospazio affine. Sia inoltre u1 , . . . , ur una base di U. Allora
Q = P + t1 u1 + t2 u2 + · · · + tr ur
prende il nome di equazione parametrica del sottospazio AP,U .
Osservazione 8.6. Per definizione, una volta fissato P ∈ AP,U , per ogni
punto Q di AP,U esistono unici t1 , . . . , tr tali che Q = P + t1 u1 + t2 u2 +
· · · + tr ur .
Proposizione 8.7. Sia A uno spazio affine su V, P, Q ∈ A due punti, U
un sottospazio di V. Allora
AP,U = AQ,U ⇐⇒ Q ∈ AP,U .
8.1. SPAZI AFFINI
69
Dimostrazione. Sia Q ∈ AP,U e sia Q = P + u, u ∈ U. Allora
R ∈ AP,U ⇐⇒ R = P + u, u ∈ U
⇐⇒ R = Q − u + u = Q + u0 , u0 ∈ U ⇐⇒ R ∈ AQ,U .
Viceversa sia AP,U = AQ,U . Allora Q = Q + 0V ∈ AQ,U = AP,U .
Proposizione 8.8. Sia A uno spazio affine su V. Per due punti P 6= Q
di A passa una e una sola retta.
Dimostrazione. Sia
` = {P + λP Q | λ ∈ R}.
Allora dim(`) = 1, P, Q ∈ `. Se `0 = {R + λv | λ ∈ R} è una retta che
contiene P, Q allora P = R + λ1 v, Q = R + λ2 v per qualche λ1 6= λ2 ∈ R, e
dunque P = Q + (λ1 − λ2 )v, ovvero P Q = (λ1 − λ2 )v e lo spazio vettoriale
generato da v è uguale a quello generato da P Q. Poiché R = P − λ1 v si ha
che ` = `0 .
Definizione 8.9. Sia A uno spazio affine su V. I punti P0 , P1 , . . . , Pr di
A si dicono in posizione generale se
dim(hP0 P1 , P0 P2 , . . . , P0 Pr i) = r.
Osservazione 8.10. Si ha che per ogni i = 1, . . . , r
dim(hP0 P1 , P0 P2 , . . . , P0 Pr i) = dim(hPi P0 , Pi P2 , . . . , Pi Pr i).
Pertanto nella definizione precedente l’ordine dei punti non conta.
Definizione 8.11. Sia A uno spazio affine su V di dimensione n. Un
riferimento affine di A è una n+1-upla P = (P0 , P1 , . . . , Pn ) di punti di A in
posizione generale. Il punto P0 viene detto origine. In maniera equivalente
si può definire un riferimento affine mediante un punto P0 detto origine e
v1 , . . . , vn vettori di V che costituiscono una base.
Definizione 8.12. Sia A uno spazio affine su V e sia P = (P0 , P1 , . . . , Pn )
un riferimento di A. Le coordinate di un punto P ∈ A rispetto a P sono
le componenti di P0 P rispetto alla base di V P0 P1 , . . . , P0 Pn .
70
8. SPAZI AFFINI ED EUCLIDEI
Definizione 8.13. Sia A uno spazio affine su V e siano P = (P0 , P1 , . . . , Pn )
Q = (Q0 , Q1 , . . . , Qn ) due suoi riferimenti. Un cambiamento di riferimento affine da P a Q è una funzione L : Rn → Rn tale che L(x1 , . . . , xn ) =
(y1 , . . . , yn ) se x1 , . . . , xn sono le coordinate di un punto P rispetto a P e
y1 , . . . , yn sono le coordinate dello stesso punto rispetto a Q.
Teorema 8.14. Sia A uno spazio affine su V e siano P = (P0 , P1 , . . . , Pn )
Q = (Q0 , Q1 , . . . , Qn ) due suoi riferimenti. Il cambiamento di riferimento
affine da P a Q è dato da
L(x1 , . . . , xn ) = M (x1 , . . . , xn )T + B,
dove M è la matrice cambiamento di base da
P0 P1 , . . . , P0 Pn
a
Q0 Q1 , . . . , Q0 Qn ,
B è il vettore colonna che contiene le coordinate di P0 rispetto a Q.
Definizione 8.15. Sia A uno spazio affine su V. Una affinità di A è una
applicazione ϕ : A → A tale che l’applicazione
ϕ
e:V→V
definita da ϕ(P
e Q) = ϕ(P )ϕ(Q) è isomorfismo lineare.
Teorema 8.16. Sia A uno spazio affine su V e sia P = (P0 , P1 , . . . , Pn )
un suo riferimento affine. Sia inoltre un’affinità ϕ di A. Allora esiste una
matrice Mϕ ∈ Mn×n (R), det(Mϕ ) 6= 0, e Bϕ ∈ Mn×1 (R) tale che
ϕ(x1 , . . . , xn ) = Mϕ (x1 , . . . , xn )T + Bϕ ,
dove x1 , . . . , xn sono le coordinate di un punto P rispetto a P.
8.2
Spazi euclidei
Definizione 8.17. Uno spazio affine euclideo è uno spazio affine A su
V, con V spazio vettoriale euclideo. La dimensione di A è definita come
dim(V).
8.3. LO SPAZIO EUCLIDEO E 2
71
Definizione 8.18. Sia A uno spazio affine euclideo su V di dimensione
n. Un riferimento cartesiano di A è una n + 1-upla P = (P0 , P1 , . . . , Pn ) di
punti di A in posizione generale tale che i vettori P0 P1 , . . . , P0 , Pn formino
una base ortonormale di V.
Definizione 8.19. Sia A uno spazio affine euclideo su V. Una isometria
di A è un’affinità di A tale che per ogni P, Q ∈ A si ha
||P Q||V = ||ϕ(P )ϕ(Q)||V .
Teorema 8.20. Sia A uno spazio affine euclideo su V e sia P = (P0 , P1 , . . . , Pn )
un suo riferimento cartesiano. Sia inoltre un’isometria ϕ di A. Allora
esiste una matrice Mϕ ∈ Mn×n (R) ortogonale e Bϕ ∈ Mn×1 (R) tale che
ϕ(x1 , . . . , xn ) = Mϕ (x1 , . . . , xn )T + Bϕ ,
dove x1 , . . . , xn sono le coordinate di un punto P rispetto a P.
Definizione 8.21. Sia A uno spazio affine euclideo su V e sia ` una sua
retta avente vettore direttore v = (v1 , v2 , . . . , vn ). I coseni direttori della
retta r sono dati da
v2
vn
v1
,
,...,
.
||v||V ||v||V
||v||V
8.3
Lo spazio euclideo E 2
In questa sezione consideriamo E2 come spazio euclideo di dimensione due.
Dove non altrimenti specificato, il prodotto scalare considerato è quello
standard e il riferimento cartesiano è dato dai punti (0, 0), (1, 0) e (0, 1).
Definizione 8.22. Sia E2 il piano euclideo e ` una sua retta. Una equazione cartesiana della retta ` è data da
ax + by + c = 0,
dove a, b, c ∈ R e a, b sono non tutti nulli e le coordinate dei punti P =
(α, β) di ` soddisfano aα + bβ + c = 0.
Una equazione parametrica della retta ` ⊂ E2 è data da
(x, y) = (x0 , y0 ) + t(a, b),
dove (a, b) ∈ R2 è detto vettore direttore della retta `, P0 = (x0 , y0 ) ∈ `.
72
8. SPAZI AFFINI ED EUCLIDEI
Definizione 8.23. Sia E2 il piano euclideo. Due rette sono parallele se i
due vettori direttori sono proporzionali. Due rette sono perpendicolari se i
due vettori direttori sono ortogonali.
L’insieme di tutte le rette che passano per un punto fisso P prende il
nome di fascio proprio di rette passanti per P .
L’insieme di tutte le rette parallele ad una data retta ` prende il nome
di fascio improprio di rette parallele a `.
Osservazione 8.24. Sia P ∈ E2 e siano ax + by + c = 0 e a0 x + b0 y + c0 = 0
le equazioni cartesiane di due rette passanti per P . Tutte e sole le rette che
passano per P hanno equazione cartesiana
λ(ax + by + c) + µ(a0 x + b0 y + c0 ) = 0
al variare di λ, µ in R, non entrambi nulli.
Osservazione 8.25. Sia ax+by +c = 0 l’equazioni cartesiana di una retta.
Tutte e sole le rette parallele a ` hanno equazione cartesiana
ax + by + c0 = 0
al variare di c0 in R.
Definizione 8.26. Siano P = (x0 , y0 ) e Q = (x1 , y1 ) due punti di E2 la
loro distanza è data da
p
(x0 − x1 )2 + (y0 − y1 )2 .
Il punto medio di P e Q ha coordinate
x0 + x1 y0 + y1
,
.
2
2
8.4
Lo spazio euclideo E 3
Nello spazio euclideo E 3 con riferimento R = (O, P1 , P2 , P3 )
In questa sezione consideriamo lo spazio euclideo E 3 come spazio euclideo di dimensione tre costruito a partire dallo spazio vettoriale euclideo
R3 . Dove non altrimenti specificato, il prodotto scalare considerato è quello standard e il riferimento cartesiano è dato da R = {O, P1 , P2 , P3 }, dove
O = (0, 0, 0), P1 = (1, 0, 0), P2 = (0, 1, 0) e P3 = (0, 0, 1).
8.4. LO SPAZIO EUCLIDEO E 3
73
Definizione 8.27. Sia π ⊂ E 3 un piano. Una equazione cartesiana del
piano π è data da
ax + by + cz + d = 0,
dove a, b, c, d ∈ R e a, b, c sono non tutti nulli e le coordinate dei punti
P = (α, β, γ) di π soddisfano aα + bβ + cγ + d = 0.
Una equazione parametrica del piano π ⊂ E 3 è data da
(x, y, z) = (x0 , y0 , z0 ) + t(a, b, c) + t0 (a0 , b0 , c0 ),
dove (a, b, c), (a0 , b0 , c0 ) ∈ R3 generano lo spazio di giacitura di π e P0 =
(x0 , y0 , z0 ) ∈ π.
Sia ` una retta di E 3 . Una equazione cartesiana della retta ` è data da
ax + by + cz + d = 0
,
a0 x + b0 y + c0 z + d0 = 0
a, b, c
= 2 e le coordinate dei punti P = (α, β, γ) di `
dove rango
a0 , b0 , c0
soddisfano il sistema precedente.
Una equazione parametrica della retta ` ⊂ R3 è data da
(x, y, z) = (x0 , y0 , z0 ) + t(a, b, c),
dove (a, b, c) ∈ R3 è detto vettore direttore della retta `, P0 = (x0 , y0 , z0 ) ∈
`.
Data una retta ` ⊂ E 3 in equazione cartesiana
ax + by + cz + d = 0
,
a0 x + b0 y + c0 z + d0 = 0
si ricava facilmente che un vettore direttore è dato da
(bc0 − b0 c, a0 c − ac0 , ab0 − a0 b).
Definizione 8.28. Sia E 3 lo spazio euclideo di dimensione tre su R3 . Due
rette sono parallele se i due vettori direttori sono proporzionali. Due rette
sono complanari se esiste un piano che le contiene entrambe. Due rette
sono sghembe se non esiste un piano che le contiene entrambe. Due rette
sono incidenti se hanno un punto in comune. Due rette sono perpendicolari
se sono incidenti e hanno vettori direttori ortogonali.
74
8. SPAZI AFFINI ED EUCLIDEI
Definizione 8.29. Sia data una retta ` ⊂ E 3 . Il fascio di piani per ` è
l’insieme di tutti i piani passanti per `.
Osservazione 8.30. Sia data una retta ` ⊂ E 3 di equazione cartesiana
ax + by + cz + d = 0
.
a0 x + b0 y + c0 z + d0 = 0
Tutti e soli i piani per ` hanno equazione cartesiana
λ(ax + by + cz + d) + µ(a0 x + b0 y + c0 z + d0 ) = 0.
Proposizione 8.31. Siano ` e `0 due rette di E 3 di equazioni cartesiane
ax + by + cz + d = 0
a0 x + b0 y + c0 z + d0 = 0
e
a00 x + b00 y + c00 z + d00 = 0
a000 x + b000 y + c000 z + d000 = 0
rispettivamente. Allora le rette sono

a
b
 a0 b0
det 
 a00 b00
a000 b000
complanari se

c
d
c0 d0 
=0
c00 d00 
c000 d000
e sghembe se


a
b
c
d
 a0 b0 c0 d0 
 6 0.
det 
 a00 b00 c00 d00  =
a000 b000 c000 d000
Dimostrazione. Le due rette sono complanari se e solo se esiste un piano comune tra i due fasci di piani per ` e `0 . I due fasci di piani sono
rispettivamente
λ(ax + by + cz + d) + µ(a0 x + b0 y + c0 z + d0 ) = 0
e
λ1 (a00 x + b00 y + c00 z + d00 ) + µ1 (a000 x + b000 y + c000 z + d000 ) = 0.
Esiste un piano comune se e solo se esistono λ, λ1 , µ, µ1 ∈ R non tutti nulli
tali che
λ(ax + by + cz + d) + µ(a0 x + b0 y + c0 z + d0 )
8.4. LO SPAZIO EUCLIDEO E 3
75
= λ1 (a00 x + b00 y + c00 z + d00 ) + µ1 (a000 x + b000 y + c000 z + d000 ).
Ovvero

λa + µa0 − λ1 a00 − µ1 a000 = 0



λb + µb0 − λ1 b00 − µ1 b000 = 0
.
λc + µc0 − λ1 c00 − µ1 c000 = 0



λd + µd0 − λ1 d00 − µ1 d000 = 0
Questo rappresenta un sistema lineare omogeneo in λ, λ1 , µ, µ1 che ha una
soluzione non nulla se e solo se


a
b
c
d
 a0 b0 c0 d0 

det 
 a00 b00 c00 d00  = 0.
a000 b000 c000 d000
Definizione 8.32. Due piani di E 3 sono paralleli ( perpendicolari) se le
giaciture dei due piani sono parallele (ortogonali).
Proposizione 8.33. Sia ax + by + cz + d = 0 un piano di E 3 . Allora il
vettore (a, b, c) ∈ R3 è ortogonale ad ogni P Q con P, Q ∈ π.
Dimostrazione. Siano P = (x0 , y0 , z0 ) Q = (x1 , y1 , z1 ) due punti di π.
Allora il vettore P Q è dato da (x1 − x0 , y1 − y0 , z1 − z0 ). Si ha che
h(x1 −x0 , y1 −y0 , z1 −z0 ), (a, b, c)i = (ax0 +by0 +cz0 )−(ax1 +by1 +cz1 )−d+d = 0
e pertanto (a, b, c) è ortogonale a P Q.
Definizione 8.34. Un piano e una retta di E 3 si dicono incidenti se
si incontrano in un punto, paralleli se le loro giaciture sono parallele e
perpendicolari se le giaciture dei due piani sono ortogonali.
Proposizione 8.35. Una retta
ax + by + cz + d = 0
a0 x + b0 y + c0 z + d0 = 0
e un piano a00 x + b00 y + c00 z + d00 = 0 sono
1. incidenti se


a b c
det  a0 b0 c0  =
6 0.
a00 b00 c00
76
8. SPAZI AFFINI ED EUCLIDEI
2. parallele


a b c
det  a0 b0 c0  = 0.
a00 b00 c00
3. perpendicolari se
(a00 , b00 , c00 ) = λ(bc0 − b0 c, a0 c − ac0 , ab0 − a0 b)
per qualche λ ∈ R.
Dimostrazione. Il piano e la retta sono incidenti se e solo il sistema

 ax + by + cz + d = 0
a0 x + b0 y + c0 z + d0 = 0
 00
a x + b00 y + c00 z + d00 = 0
ammette un’unica soluzione. Ma questo avviene se e solo se


a b c
det  a0 b0 c0  6= 0.
a00 b00 c00
Retta e piano sono paralleli se e solo se il vettore direttore della retta è
perpendicolare ad (a00 , b00 , c00 ) che è perpendicolare alla giacitura del piano.
Poiché il vettore direttore della retta è (bc0 − b0 c, a0 c − ac0 , ab0 − a0 b) questa
condizione equivale a
h(bc0 − b0 c, a0 c − ac0 , ab0 − a0 b), (a00 , b00 , c00 )i = 0
ovvero


a b c
det  a0 b0 c0  = 0.
a00 b00 c00
Infine retta e piano sono perpendicolari se e solo se il vettore direttore
della retta è parallelo ad (a00 , b00 , c00 ) che è perpendicolare alla giacitura del
piano, ovvero
(a00 , b00 , c00 ) = λ(bc0 − b0 c, a0 c − ac0 , ab0 − a0 b)
per qualche λ ∈ R.
Definizione 8.36. Sia P = (x0 , y0 , z0 ) ∈ E 3 un punto. L’insieme di tutti
e soli i piani passanti per P prende il nome di stella di piani per P .
8.4. LO SPAZIO EUCLIDEO E 3
77
Osservazione 8.37. La stella di piani per P = (x0 , y0 , z0 ) ∈ E 3 è data da
tutti e soli i piani aventi equazione cartesiana
a(x − x0 ) + b(y − y0 ) + c(z − z0 ) = 0,
con a, b, c ∈ R non tutti nulli.
Definizione 8.38. Sia π ⊂ E 3 un piano e P ∈ π un punto. Il fascio
di rette di centro P nel piano π è l’insieme di tutte le rette del piano π
passanti per P .
Osservazione 8.39. Sia π ⊂ E 3 un piano di equazione parametrica ax +
by + cz + d = 0, P un suo punto e `, `0 due rette di π passanti per P di
equazioni cartesiane
ax + by + cz + d = 0
a0 x + b0 y + c0 z + d0 = 0
e
ax + by + cz + d = 0
.
a00 x + b00 y + c00 z + d00 = 0
Allora il fascio di rette passanti per P nel piano π è dato da tutte e sole le
rette di equazioni cartesiane
ax + by + cz + d = 0
,
λ(a0 x + b0 y + c0 z + d0 ) + µ(a00 x + b00 y + c00 z + d00 ) = 0
con λ, µ ∈ R non entrambi nulli.
Osservazione 8.40. Sia ax + by + cz + d = 0 l’equazione cartesiana di un
piano. Tutti e soli i piani paralleli a pi hanno equazione cartesiana
ax + by + cz + d0 = 0
al variare di d0 in R.
Definizione 8.41. Siano P = (x0 , y0 , z0 ) e Q = (x1 , y1 , z1 ) due punti di
E 3 la loro distanza è data da
p
(x0 − x1 )2 + (y0 − y1 )2 + (z0 − z1 )2 .
Il punto medio di P e Q ha coordinate
x 0 + x 1 y0 + y1 z0 + z 1
,
,
.
2
2
2
78
8. SPAZI AFFINI ED EUCLIDEI
Definizione 8.42. Sia ` ⊂ E 3 una retta e P ∈ E 3 un punto. La distanza
d(P, `) di P da ` è il minimo delle distanze d(P, Q) dove Q ∈ `. Sia π ⊂ E 3
un piano. La distanza d(P, π) di P da π è il minimo delle distanze d(P, Q)
dove Q ∈ π.
Osservazione 8.43. Per calcolare la distanza di una retta ` ⊂ E 3 da un
punto P ∈ E 3 possiamo applicare il Teorema 7.14. Questo ci dice che preso
un qualsiasi vettore v la proiezione ortogonale v` di v sulla giacitura di ` è
tale che ||v − v` ||R3 < ||v − u||R3 per ogni u nella giacitura di `. Pertanto
un modo per trovare la distanza d(P, `) è il seguente.
1. Prendere un qualsiasi punto Q di `.
2. Calcolare v = (α, β, γ) = P Q e v` = (α0 , β 0 , γ 0 ) = ahv,(a,b,c)i
2 +b2 +c2 (a, b, c)
dove (a, b, c) è il vettore direttore di `.
p
3. Calcolare ||v − v` ||R3 = (α − α0 )2 + (β − β 0 )2 + (γ − γ 0 )2 . Questo
valore è la distanza d(P, `).
Osservazione 8.44. Per calcolare la distanza di un piano π ⊂ E 3 da un
punto P ∈ E 3 possiamo calcolare direttamente la distanza d(P, Q) dove
Q è l’intersezione tra la retta ` passante per P è perpendicolare a π e π
stesso. Supponiamo che π abbia equazione cartesiana ax + by + cz + d = 0
e P = (x0 , y0 , z0 ). Allora ` ha equazione parametrica

 x = x0 + at
y = y0 + bt

z = z0 + ct
e il punto Q = (α, β, γ) corrisponde al valore t ∈ R tale che
a(x0 + at) + b(y0 + bt) + c(z0 + ct) + d = 0.
Infine
d(P, Q) = d(P, π) =
p
(x0 − α)2 + (y0 − β)2 + (z0 − γ)2 .
Definizione 8.45. Siano `, `0 ⊂ E 3 due rette sghembe. La distanza tra ` e
`0 è il
min
P ∈`,Q∈`0
d(P, Q).
Siano P0 ∈ ` e Q0 ∈ `0 i punti di minima distanza. Allora la retta
passante per P0 e Q0 prende il nome di retta di minima distanza.
8.5. PRODOTTO VETTORIALE
79
Proposizione 8.46. Siano `, `0 ⊂ E 3 due rette sghembe di equazioni parametriche


 x = x1 + a0 u
 x = x0 + at
0
y = y1 + b0 u .
y = y0 + bt
` :
` :


z = z1 + c0 u
z = z0 + ct
I punti P e Q di minima distanza sono tali che P Q è ortogonale a (a, b, c)
e (a0 , b0 , c0 ).
Dimostrazione. Siano P e Q i punti di minima distanza. Allora
d(P, Q) = min
d(P, Q0 )
0
0
Q ∈`
e dunque per il Teorema 7.14 si ha che P Q è ortogonale a (a0 , b0 , c0 ). D’altra
parte
d(P, Q) = min
d(P 0 , Q)
0
P ∈`
e come prima per il Teorema 7.14 si ha che P Q è ortogonale a (a, b, c).
8.5
Prodotto Vettoriale
Definizione 8.47. Sia R3 lo spazio vettoriale tridimensionale su R3 . Dati
due vettori di u = (u1 , u2 , u3 ) e v = (v1 , v2 , v3 ) di R3 , il prodotto vettoriale
di u e v è definito da
u × v = (u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 ) ∈ R3 .
Osservazione 8.48. Una regola più semplice per calcolare il prodotto vettoriale tra due vettori è dato da


i
j k
det  u1 u2 u3  = (u2 v3 − u3 v2 )i + (u3 v1 − u1 v3 )j + (u1 v2 − u2 v1 )k.
v1 v2 v3
Proposizione 8.49. Siano u, v e w tre vettori di R3 e sia λ ∈ R. Allora
1. u × v = −v × u;
2. u × u = 0R3 ;
3. λu × v = λ(u × v) = u × λv;
4. u × (v + w) = u × v + u × w;
80
8. SPAZI AFFINI ED EUCLIDEI
5. hu × v, ui = 0 e hu × v, vi = 0;
6. se α è l’angolo compreso tra u e v allora
||u × v||R3 = ||u||R3 ||v||R3 sin α.
Dimostrazione.
1. Si ha che
v × u = (v2 u3 − v3 u2 , v3 u1 − v1 u3 , v1 u2 − v2 u1 )
= −(u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 ) = −(u × v).
2. In particolare
u × u = (u2 u3 − u3 u2 , u3 u1 − u1 u3 , u1 u2 − u2 u1 ) = (0, 0, 0).
3. Abbiamo che
λu × v = (λu2 v3 − λu3 v2 , λu3 v1 − λu1 v3 , λu1 v2 − λu2 v1 )
= u × λv = λ(u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 ) = λ(u × v).
4. Si ha che
u × (v + w)
= (u2 (v3 +w3 )−u3 (v2 +w2 ), u3 (v1 +w1 )−u1 (v3 +w3 ), u1 (v2 +w2 )−u2 (v1 +w1 ))
= (u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 )
+(u2 w3 − u3 w2 , u3 w1 − u1 w3 , u1 w2 − u2 w1 )
= u × v + u × w.
5. Abbiamo che
hu × v, ui = (u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 ), (u1 , u2 , u3 )
= (u2 v3 − u3 v2 )u1 + (u3 v1 − u1 v3 )u2 + (u1 v2 − u2 v1 )u3 = 0
= (u2 v3 − u3 v2 )v1 + (u3 v1 − u1 v3 )v2 + (u1 v2 − u2 v1 )v3
= (u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 ), (v1 , v2 , v3 ) = hu × v, vi.
8.6. ESERCIZI
81
6. Abbiamo che
||u × v||2R3 = (u2 v3 − u3 v2 )2 + (u3 v1 − u1 v3 )2 + (u1 v2 − u2 v1 )2
= u22 v32 +u23 v22 +u23 v12 +u21 v32 +u21 v22 +u22 v12 −2(u1 v1 u2 v2 +u1 v1 u3 v3 +u2 v2 u3 v3 ).
D’altra parte
||u||2R3 ||v||2R3 sin2 α = ||u||2R3 ||v||2R3 (1 − cos2 α)
= ||u||2R3 ||v||2R3
||u||2R3 ||v||2R3 − hu, vi2
= ||u||2R3 ||v||2R3 − hu, vi2
||u||2R3 ||v||2R3
= (u21 + u22 + u23 )(v12 + v22 + v32 ) − (u1 v1 + u2 v2 + u3 v3 )2
u22 v32 +u23 v22 +u23 v12 +u21 v32 +u21 v22 +u22 v12 −2(u1 v1 u2 v2 +u1 v1 u3 v3 +u2 v2 u3 v3 ).
Osservazione 8.50. Dale proprietà del prodotto vettoriale si ha che il prodotto vettoriale u × v è sempre ortogonale al piano individuato dai due
vettori u e v in R3 .
8.6
Esercizi
Esercizio 8.51. Dimostrare che A(R, n) come definito nella Definizione
8.2 è effettivamente uno spazio affine.
Esercizio 8.52. Si determini il cambiamento di riferimento in A(R, 2) dal
riferimento standard
R = ((0, 0), (1, 0), (0, 1))
al riferimento
R0 = ((1, −2), (2, −1), (1, −4)).
Esercizio 8.53. Nello spazio euclideo E 3 con riferimento R = (O, P1 , P2 , P3 )
siano dati la retta ` di equazione parametrica

 x=2+t
y = 3t

z =t+1
e il punto P (1, 2, 3), determinare la distanza d(P, `).
82
8. SPAZI AFFINI ED EUCLIDEI
Esercizio 8.54. Nello spazio euclideo E 3 con riferimento R = (O, P1 , P2 , P3 )
siano dati il punto P = (2, −1, −4) e il piano π : x + 5y − 4z + 1 = 0
determinare la distanza d(P, π).
Esercizio 8.55. Nello spazio euclideo E 3 con riferimento R = (O, P1 , P2 , P3 )
determinare se esiste un vettore parallelo ai piani π : x − y + 3z = 0 e
√
π 0 : 2x + 3z + 1 = 0 avente norma uguale a 19.
Esercizio 8.56. Nello spazio euclideo E 3 con riferimento R = (O, P1 , P2 , P3 )
si considerino le rette
y=1
x − 2y + z = 5
.
s :
r :
x − z = −3
x − 7y + z = 0
1. Determinare la posizione reciproca tra r e s.
2. Determinare l’angolo formato dai vettori direttori di r e s.
3. Determinare le distanze tra P = (0, 1, 0) e r e Q = (−1, 1, 1) e s.
4. Determinare, se possibile, una retta ` sghemba simultaneamente con
r e s.
Esercizio 8.57. Nello spazio euclideo E 3 con riferimento R = (O, P1 , P2 , P3 )
determinare la retta s passante per il punto (1 − 1, 0), parallela al piano
π : x − 2z − 3 = 0 e incidente la retta r di equazioni cartesiane
x = 2z + 3
.
r :
y = −z + 4
Esercizio* 8.58. Determinare l?equazione del piano per il punto P =
(1, −1, 2), parallelo alla retta
x=z+1
r :
.
y = −z + 3
e ortogonale al piano α : x + 2y + 1 = 0.
Esercizio 8.59. Siano date le rette
rk :
x − 2z + 1 = 0
,
y − kz + 3 = 0
k ∈ R.
Determinare, se esistono, quelle la cui proiezione ortogonale sul piano π :
x + 2y − z + 2 = 0 è parallela, risp. ortogonale, τ : x − 3y = 0.
8.6. ESERCIZI
Esercizio 8.60. Cosiderate le rette

 x = −t + 2
y = 5t − 3
r :

z =t−2
83

 x = −3t0 − 6
y = t0 − 1
,
s :

z = t0 + 1
determinare le coordinate A e B del segmento di minima distanza tra r ed
s.
84
8. SPAZI AFFINI ED EUCLIDEI
Capitolo 9
Numeri Complessi
Definizione 9.1. Il campo dei numeri complessi è definito da
C = (R2 , +, ·, (0, 0), (1, 0)),
dove
+
e
·
:
:
R2 × R2
→
R2
(a, b), (c, d) 7→ (a + c, b + d)
R2 × R2
→
R2
.
(a, b) · (c, d) 7→ (ac − bd, ad + bc)
Teorema 9.2. C è un campo.
Dimostrazione. È facile verificare che (C, +) è un gruppo commutativo con
elemento neutro (0, 0).
Inoltre il prodotto · gode della proprietà associativa poiché
((a, b) · (c, d)) · (e, f ) = (ac − bd, ad + bc) · (e, f )
= ((ac − bd)e − (ad + bc)f, (ad + bc)e + (ac − bd)f ).
= ((ec − df )a − (cf + ed)b, (ec − df )b + (cf + ed)a)
(a, b) · (ec − df, cf + ed) = (a, b)((c, d) · (e, f )).
La proprietà commutativa è chiaramente soddisfatta:
(a, b) · (c, d) = (ac − bd, ad + bc) = (c, d) · (a, b).
L’elemento (1, 0) è l’elelemenot neutro rispetto al prodotto in quanto
(a, b) · (1, 0) = (1, 0) · (a, b) = (a, b).
85
86
9. NUMERI COMPLESSI
Infine l’inverso di un elemento (a, b) 6= (0, 0) è dato da
a
−b
.
,
a2 + b2 a2 + b2
Infine
(a, b) · ((c, d) + (e, f ))
= (a, b) · (c + e, d + f ) = (a(c + e) − b(d + f ), a(d + f ) + b(c + e))
= (ac − bd, ad + bc) + (ae − bf, af + be) = (a, b) · (c, d) + (a, b) · (e, f )
e quindi anche la proprietà distributiva è soddisfatta e la tesi è verificata.
Definizione 9.3. Omomorfismo di campi Siano K = (K, +, ·, 0K , 1K ) e
K0 = (K0 , ⊕, , 0K0 , 1K0 ) due campi. Un omomorfismo di campi è un applicazione ϕ : K → K0 tale che per ogni a, b ∈ K
ϕ(a + b) = ϕ(a) ⊕ ϕ(b),
ϕ(a · b) = ϕ(a) ϕ(b)
e ϕ(1K ) = 1K0 .
Teorema 9.4. Esiste un’omomorfismo (iniettivo) di campi da R a C.
Dimostrazione. L’omomorfismo φ è dato da a 7→ (a, 0). Si vede facilmente
che
φ(a + b) = (a + b, 0) = (a, 0) + (b, 0) = φ(a) + φ(b),
φ(ab) = (ab, 0) = (a, 0) · (b, 0) = φ(a) · ϕ(b)
e φ(1) = (1, 0). Inoltre φ è chiaramente iniettiva.
Se poniamo i = (0, 1) e identifichiamo (x, 0 con il numero reale x allora
ogni numero complesso (a, b) può essere scritto come a + ib.
Definizione 9.5 (Notazione trigonometrica). Sia a + ib un numero complesso allora
a + ib = r(cos θ + i sin θ),
√
a
b
dove r = a2 + b2 e θ è tale che cos θ = a2 +b
2 e sin θ = a2 +b2 . Il numero
reale non negativo r prende il nome di modulo, il numero reale θ prende il
nome di argomento.
Definizione 9.6. Dato un numero complesso a + ib il suo coniugato è dato
da a + ib = a − ib.
87
Definizione 9.7 (Notazione esponenziale). Sia a+ib un numero complesso
allora viene espresso in notazione esponenziale come
a + ib = reiθ
dove r =
√
a2 + b2 e θ è tale che cos θ =
a
a2 +b2
e sin θ =
b
.
a2 +b2
0
Teorema 9.8. Siano z = reiθ e z 0 = r0 eiθ due numeri complessi. Si ha
che
0
zz 0 = rr0 ei(θ+θ ) .
Se r0 6= 0 allora
r
z
0
= 0 ei(θ−θ ) .
0
z
r
Teorema 9.9. Sia z = reiθ un numero complesso. Allora
z n = rn einθ .
Inoltre se
zk =
√
n
rei(θ+2kπ)/n
allora
zkn = z.
Tutti e soli i numeri complessi z 0 tali che (z 0 )= z sono
{zk | k = 0, . . . , n − 1}.
Definizione 9.10. I numeri complessi zk tali che zkn = z prendono il nome
di radici n-esime del numero complesso z.
88
9. NUMERI COMPLESSI
Capitolo 10
Esercizi Svolti
10.1
Rango di una matrice
Esercizio (Esercizio 2.25). Si calcoli
Si calcoli il rango per minori.

3 4

1 3
A=
−1 2
il rango della seguente matrice.

−2 6
4 −2  .
−1 1
La matrice A è una 3 × 4 quindi il suo rango
l’algoritmo di eliminazione.



1 4/3 −2/3 2
1 4/3
 0 5/3 14/3 −4  =⇒  0
1
0 10/3 −3
3
0 10/3
è al più 3. Utilizziamo

−2/3
2
14/5 −12/5 
−3
3




1 4/3 −2/3
2
1 4/3 −2/3
2
14/5 −12/5  =⇒  0 1
14/5 −12/5  .
=⇒  0 1
0 0 −34/3
11
0 0
1
−33/34
Quindi il rango è 3.
D’altra parte il determinante di


3 4 −2
B= 1 3 4 
−1 2 −1
è diverso da 0 e pertanto si ottiene immediatamente che il rango per minori
è 3.
89
90
10.2
10. ESERCIZI SVOLTI
Sistemi lineari
Esercizio 10.1. Stabilire se il seguente sistema lineare ammette
soluzione ed eventualmente determinarle.

 3x + 4y − 2z + 6t = 3
x + 3y + 4z − 2t = 0 .

−x + 2y − z + t = 1
Per prima cosa
completa, per poi

3
A= 1
−1
è necessario scrivere la matrice dei coefficienti e quella
andarne a calcolare i rispettivi ranghi.



4 −2 6
3 4 −2 6 3
3 4 −2 
A|b =  1 3 4 −2 0 
2 −1 1
−1 2 −1 1 1
L’esercizio 2.25 mostra che il rango della matrice A è 3. Il rango della
matrice A|b è anch’esso 3, in quanto non è possibile estrarre una matrice
4×4 da essa ed inoltre contiene la stessa sottomatrice quadrata di A che ne
ha determinato il rango. Possiamo applicare il Teorema 3.9 e dedurre che il
sistema è compatibile. Per determinare le soluzioni, non essendo il sistema
direttamente di Cramer, non possiamo applicare la formula. Tuttavia, essendo il sistema compatibile esiste una sottomatrice di A con determinante
diverso da 0 che ne determina il rango. Questa matrice seleziona delle righe
e delle colonne. Nel nostro caso, essendo la matrice A1 dell’esercizio 2.25
formata dalle tre righe della matrice e dalle prime tre colonne, il sistema
di partenza è equivalente al seguente

 3x + 4y − 2z = 3 − 6t
x + 3y + 4z = +2t

−x + 2y − z = 1 − t
dove l’incognita t è diventata un parametro. Ora possiamo interpretare il
sistema come un sistema in 3 sole incognite e tre equazioni. Inoltre il nuovo
sistema è di Cramer in quanto la matrice dei coefficienti è A1 . Per trovare
dunque le soluzioni di questo sistema è possibile applicare il Teorema 3.8.
Si ha




3 3 − 6t −2
3 − 6t 4 −2
3 4 
2t
4 
det  2t
det  1
1 − t 2 −1
−1 1 − t −1
x(t) =
y(t) =
det(A1 )
det(A1 )
10.2. SISTEMI LINEARI
91


3 4 3 − 6t
2t 
det  1 3
−1 2 1 − t
z(t) =
.
det(A1 )
Una volta calcolato il valore (che dipende da t) delle incognite x, y, z è
possibile scrivere l’insieme delle soluzioni del sistema lineare di partenza.
Esse sono
S = {(x(t), y(t), z(t), t) | t ∈ R},
dove x(t), y(t), z(t) sono quelle calcolate in precedenza.
Esercizio 10.2. Stabilire per quali valori del parametro reale k il
sistema lineare

 x + 3y = 0
3x − y = k − 1

kx − 2ky = 1
ammette soluzioni ed eventualmente determinarle.
La matrice dei coefficienti e quella completa sono




1
3
0
1
3
A =  3 −1 k − 1  .
A =  3 −1 
k −2k
1
k −2k
Poiché la matrice A è quadrata, partiamo con il calcolare il suo determinante. Si ha
det(A) = (k − 2)(k + 1).
Abbiamo quindi due casi:
det(A) 6= 0: corrisponde a k 6= 2 e k 6= −1. In questo caso il rango della
matrice A è 3. Poiché il rango della matrice A è al massimo 2, il sistema
non è compatibile, per il Teorema di Rouché-Capelli, avendo le matrici
rango differente.
det(A) = 0: corrisponde a k = 2 oppure k = −1.
1. Caso k = 2: le matrici

1

3
A2 =
2
diventano



3
1 3 0
−1 
A2 =  3 −1 1  .
−4
2 −4 1
Si vede facilmente che il rango delle
pari a 2, poiché
due matrici
1 3
hanno in comune la sottomatrice
che ha determinante
3 −1
92
10. ESERCIZI SVOLTI
diverso da 0. Il sistema è dunque compatibile ed è equivalente al
sistema
x + 3y = 0
3x − y = 1
La soluzione di questo sistema è la seguente
x=
3
10
y=−
1
.
10
Quindi le soluzioni del sistema di partenza sono in questo caso
1
3
,−
.
S2 =
10 10
2. Caso k = −1: le matrici diventano




1
3
1
3
0
A−1 =  3 −1 
A−1 =  3 −1 −2  .
−1 2
−1 2
1
Si vede facilmente che il rango delle
pari a 2, poiché
due matrici
1 3
che ha determinante
hanno in comune la sottomatrice
3 −1
diverso da 0. Il sistema è dunque compatibile ed è equivalente al
sistema
x + 3y = 0
3x − y = −2
La soluzione di questo sistema è la seguente
x=−
3
5
1
y= .
5
Quindi le soluzioni del sistema di partenza sono in questo caso
3 1
S2 =
− ,
.
5 5
Esercizio 10.3. Stabilire per quali valori del parametro reale k il
sistema lineare

 x+y =3
y − kx = k

kx + 2y = 0
10.2. SISTEMI LINEARI
93
ammette soluzioni ed eventualmente determinarle.
La matrice dei coefficienti e quella completa sono




1 1
1 1 3
A =  −k 1 
A =  −k 1 k  .
k 2
k 2 0
Poiché la matrice A è quadrata, partiamo con il calcolare il suo determinante. Si ha
det(A) = k 2 − 6k − 3k − 2k = k 2 − 11k.
Abbiamo quindi due casi:
det(A) 6= 0: corrisponde a k 6= 0, 11. In questo caso il rango della matrice
A è 3. Poiché il rango della matrice A è al massimo 2, il sistema non è
compatibile per il Teorema di Rouch‘’e-Capelli. det(A) = 0: corrisponde a
k = 0 oppure k = 11.
Nel primo caso (k = 0) le due matrici diventano:




1 1 3
1 1
A =  0 1 0 .
A= 0 1 
0 2 0
0 2
Sappiamo già che il rango della matrice A non è 3. Inoltre la sottomatrice
1 1
0 1
ha determinante 1 6= 0 e quindi il rango di A è uguale a quello di A essendo
entrambi 2. Dunque il sistema è compatibile. Per determinare le soluzioni
basta osservare che il sistema è equivalente a
x+y =3
y=0
Questo sistema è un sistema di Cramer. Anche senza utilizzare la formula
risolutiva per tali sistemi è facile determinare che l’unica soluzione è (3, 0).
Quindi le soluzioni del sistema di partenza sono in questo caso
S0 = {(3, 0)}.
Nel secondo caso (k = 11) le due matrici diventano:




1
1 3
1
1
A =  −11 1 
A =  −11 1 11  .
11 2
11 2 0
94
10. ESERCIZI SVOLTI
Sappiamo già che il rango della matrice A non è 3. Inoltre la sottomatrice
1
1
−11 1
ha determinante 12 6= 0 e quindi il rango di A è uguale a quello di A essendo
entrambi 2. Dunque il sistema è compatibile. Per determinare le soluzioni
basta applicare il Teorema di Cramer al sistema
x+y =3
−11x + y = 11
La soluzione è la seguente
3 1
det
11 1
x=
12
det
x=
1
3
−11 11
12
Quindi le soluzioni del sistema di partenza sono in questo caso
2 11
S11 =
− ,
.
3 3
Esercizio 10.4. Stabilire per quali valori del parametro reale k il
sistema lineare

 x−y+z =1
x + ky = 0

kx + y + z = k − 1
ammette soluzioni ed eventualmente determinarle.
La matrice dei coefficienti e quella completa sono




1 −1 1
1 −1 1
1
0 .
A= 1 k 0 
A= 1 k 0
k 1 1
k 1 1 k−1
Poiché la matrice A è quadrata, partiamo con il calcolare il suo determinante. Si ha
det(A) = −k 2 + k + 2.
Abbiamo quindi due casi:
det(A) 6= 0: corrisponde a k 6= −1, 2. In questo caso il rango della matrice A è 3. Poiché il rango della matrice A è al massimo 3, il sistema è
compatibile per il Teorema di Rouch‘’e-Capelli, avendo entrambe le matrici
10.2. SISTEMI LINEARI
95
rango pari a 3. Inoltre possiamo applicare il Teorema di Cramer. L’unica
soluzione è pertanto


1
−1 1
k 0 
det  0
k−1 1 1
−k 2 + 2k
k
x=
=
=
2
2
−k + k + 2
−k + k + 2
k+1


1
1
1

1
0
0 
det
k k−1 1
−1
y=
=
2
−k + k + 2
k+1


1 −1
1
0 
det  1 k
k 1 k−1
0
z=
=
2
2
−k + k + 2
−k + k + 2
e quindi
k
−1
Sk =
,
,0
.
k+1 k+1
det(A) = 0: corrisponde a k = −1 oppure k = 2.
Nel primo caso (k = −1) le due matrici diventano:




1 −1 1
1 −1 1 1
A =  1 −1 0 
A =  1 −1 0 0  .
−1 1 1
−1 1 1 −2
Sappiamo già che il rango della matrice A non è 3. Inoltre la sottomatrice
di A
−1 1
−1 0
ha determinante 1 6= 0 e quindi il rango di A è due. Inoltre la sottomatrice
di A


−1 1 1
 −1 0 0 
1 1 −2
ha determinante −3 6= 0 e quindi A ha rango 3. Il sistema non è dunque
compatibile per il Teorema di Rouché-Capelli.
Nel secondo caso (k = 2) le due matrici diventano:




1 −1 1
1 −1 1 1
A= 1 2 0 
A =  1 2 0 0 .
2 1 1
2 1 1 1
96
10. ESERCIZI SVOLTI
Sappiamo già che il rango della matrice A non è 3. Inoltre la sottomatrice
di A
1 −1
1 2
ha determinante 3 6= 0 e quindi il rango di A è due. È facile verificare che
tutte le sottomatrici 3 × 3 di A hanno determinante 0, pertanto anche il
rango di A è 2. Il sistema è dunque compatibile ed è equivalente al sistema
x−y =1−z
x + 2y = 0
La soluzione di questo sistema è la seguente
x=
2(1 − z)
3
y=
z−1
.
3
Quindi le soluzioni del sistema di partenza sono in questo caso
S2 =
2(1 − z) z − 1
,
,z
3
3
t.c. z ∈ R .
Esercizio 10.5. Stabilire per quali valori del parametro reale k il
sistema lineare

 2x − y + z = 1
kx + (k + 1)z = 1

y + 2z = 0
ammette soluzioni ed eventualmente determinarle.
La matrice dei coefficienti e quella completa sono


2 −1
1
A= k 0 k+1 
0 1
2


2 −1
1
1
A =  k 0 k + 1 1 .
0 1
2
0
Poiché la matrice A è quadrata, partiamo con il calcolare il suo determinante. Si ha
det(A) = k − 2.
Abbiamo quindi due casi:
det(A) 6= 0: corrisponde a k 6= 2. In questo caso il rango della matrice A è
3. Poiché il rango della matrice A è al massimo 3, il sistema è compatibile
per il Teorema di Rouch‘’e-Capelli, avendo entrambe le matrici rango pari
10.2. SISTEMI LINEARI
97
a 3. Inoltre possiamo applicare il Teorema di Cramer. L’unica soluzione
è pertanto


1 −1
1
det  1 0 k + 1 
0 1
2
−k + 2
x=
=
= −1
k−2
k−2


2 1
1
det  k 1 k + 1 
0 0
2
−2k + 2
=
y=
k−2
k−2


2 −1 1
det  k 0 1 
0 1 0
k−2
=
=1
z=
−k − 2
k−2
e quindi
−2k + 2
Sk =
−1,
,1
.
k−2
det(A) = 0: corrisponde a k = 2. In questo caso le due



2 −1 1
2 −1 1



2 0 3
2 0 3
A=
A=
0 1 2
0 1 2
matrici diventano:

1
1 .
0
Sappiamo già che il rango della matrice A non è 3. Inoltre la sottomatrice
di A
2 −1
2 0
ha determinante 2 6= 0 e quindi il rango di A è due. È facile verificare che
tutte le sottomatrici 3 × 3 di A hanno determinante 0, pertanto anche il
rango di A è 2. Il sistema è dunque compatibile ed è equivalente al sistema
2x − y = 1 − z
2x = 1 − 3z
La soluzione di questo sistema è la seguente
x=
1 − 3z
2
y = −2z.
Quindi le soluzioni del sistema di partenza sono in questo caso
1 − 3z
S2 =
, −2z, z z ∈ R .
2
98
10. ESERCIZI SVOLTI
10.3
Diagonalizzazione ed Autovettori
Esercizio (Esercizio 4.22). Data la seguente matrice


1 0 0 1
 0 1 1 0 

A=
 0 1 1 0 ,
1 0 0 1
determinarne gli autovalori ed i corrispettivi autovettori. La matrice è diagonalizzabile? In caso affermativo esibire le matrici P
e D tali che
A = P −1 DP.
Il polinomio caratteristico della matrice A è dato da


1−λ
0
0
1
 0
1−λ
1
0 
 = λ2 (2 − λ)2 .
det(A − λI4 ) = det 
 0
1
1−λ
0 
1
0
0
1−λ
Pertanto gli autovalori sono 0, 2 entrambi con molteplicità algebrica 2.
Nel caso λ = 0 il rango di A − 0I = A è esattamente 2. Pertanto
la molteplicità geometrica è 4 − 2 = 2. Gli autovettori (x, y, z, t) ∈ R4
soddisfano

x+t=0



y+z =0
y+z =0



x+t=0
e quindi sono dati da
A0 := {(−α, −β, α, β) | α, β ∈ R}.
Nel caso λ = 2 il rango di A − 2I = A è esattamente 2. Pertanto
la molteplicità geometrica è 4 − 2 = 2. Gli autovettori (x, y, z, t) ∈ R4
soddisfano

−x + t = 0



−y + z = 0
 y−z =0


x−t=0
e quindi sono dati da
A2 := {(α, β, α, β) | α, β ∈ R}.
10.3. DIAGONALIZZAZIONE ED AUTOVETTORI
99
La matrice è diagonalizzabile poichè pr ogni autovalore la molteplicità
algebrica è uguale alla molteplicità geometrica. Le matrici P e D sono date
ad esempio da




−1 0 1 0
0 0 0 0
 0 −1 0 1 
 0 0 0 0 
,


P =
D
=
 0
 0 0 2 0 .
1 0 1 
1
0 1 0
0 0 0 2
Esercizio (Esercizio 4.23). Data la seguente matrice


1
1 −1 1
1 1
1
1 −1 
,
A= 
1
1 
2  −1 1
1 −1 1
1
determinarne gli autovalori ed i corrispettivi autovettori. La matrice è diagonalizzabile? In caso affermativo esibire le matrici P
e D tali che
A = P −1 DP.
Il polinomio caratteristico della matrice A è

1 − 2λ
1
−1
1

1
1
1
−
2λ
1
−1
det 
 −1
1
1 − 2λ
1
16
1
−1
1
1 − 2λ
dato da det(A − λI4 ) =


 = (λ − 1)3 (λ + 1).

Pertanto gli autovalori sono 1 con molteplicità algebrica 3 e −1 con molteplicità algebrica 1.
Nel caso λ = 1 il rango di A − 1I è esattamente 3. Pertanto la molteplicità geometrica è 4 − 3 = 1. Gli autovettori (x, y, z, t) ∈ R4 soddisfano
x − y + z − t = 0 e quindi sono dati da
A1 := {(α − β + γ, α, β, γ) | α, β, γ ∈ R}.
Nel caso λ = −1 il rango di A + 1I è esattamente 3. Pertanto la molteplicità geometrica è 4 − 3 = 1. Gli autovettori (x, y, z, t) ∈ R4 soddisfano
ad esempio

 3x + y − z + t = 0
2y + z − t = 0

y+z =0
100
10. ESERCIZI SVOLTI
e quindi sono dati da
A−1 := {(α, −α, α, −α) | α ∈ R}.
La matrice è diagonalizzabile poichè pr ogni autovalore la molteplicità
algebrica è uguale alla molteplicità geometrica. Le matrici P e D sono date
ad esempio da




1 −1 1 1
1 0 0 0
 1 0 0 −1 
 0 1 0 0 


P =
D=
 0 1 0 1 ,
 0 0 1 0 .
0 0 1 −1
0 0 0 −1
10.4
Spazi Vettoriali
Esercizio (Esercizio 5.31). Sia V uno spazio vettoriale e v ∈ V. Si
provi che
Kv := {λv : λ ∈ K}
è un sottospazio vettoriale di V.
Siano u1 , u2 ∈ Kv, λ, µ ∈ K. Allora u1 = λ1 v e u2 = λ2 v per qualche
λ1 , λ2 ∈ K. Si ha che
λu1 + µu2 = λλ1 v + µλ2 v = (λλ1 + µλ2 )v ∈ Kv
poiché λλ1 + µλ2 ∈ K. Dunque Kv è sottospazio vettoriale di V per il
Teorema 5.5.
Esercizio (Esercizio 5.32). Si provi che l’insieme
U := {A ∈ Mn×n (R) : AT = A}
è un sottospazio vettoriale di Mn×n (R).
Siano A1 , A2 ∈ U , λ, µ ∈ R. Allora AT1 = A1 e AT2 = A2 . Si ha che
(λA1 + µA2 )T = (λA1 )T + (µA2 )T = λAT1 + µAT2 = λA1 + µA2 .
Dunque U è sottospazio vettoriale di Mn×n (R) per il Teorema 5.5.
Esercizio (Esercizio 5.33). Dimostrare che i vettori ei , i = 1, . . . , n,
con
ei = (0, . . . , 0, 1, 0, . . . , 0),
formano una base di Rn .
10.4. SPAZI VETTORIALI
101
Sia v = (a1 , . . . , an ) ∈ Rn . Allora
v = a1 e1 + a2 e2 + · · · + an en
e quindi e1 , . . . , en sono generatori di Rn .
Supponiamo ora che
λ1 e1 + · · · + λn en = 0 = (0, 0, . . . , 0).
Ovvero
(λ1 , . . . , λn ) = (0, 0, . . . , 0)
e dunque
λ1 = λ2 = · · · = λn = 0
e i vettori e1 , . . . , en sono linearmente indipendenti e quindi una base di
Rn .
Esercizio (Esercizio 5.33). Nello spazio vettoriale R4 sia V generato
da (1, 0, 2, 0) e (0, 1, 0, 1) e
W = {(x, y, z, t) | x + y = 0}.
Determinare la dimensione e una base di V ∩ W e V + W.
Un generico vettore di V è dato da v = (α, β, 2α, β), αβ ∈ R. Questo
vettore appartiene a W se e solo se α + β = 0, ovvero α = −β. Ovvero
v = (−β, β, −2β, β). Pertanto
V ∩ W = {(−β, β, −2β, β) | βinR.
Si vede facilmente che una base di V ∩ W è data da (−1, 1, −2, 1) e quindi
la dimensione è 1.
Una base di W è data da (1, −1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1). Per trovare
la dimensione e una base di V + W basta calcolare il rango di


1 −1 0 0
 0 0 1 0 


 0 0 0 1 .


 1 0 2 0 
0 1 0 1
Poiché il determinante di

0
 0

 1
0
0
0
0
1
1
0
2
0

0
1 

0 
1
102
10. ESERCIZI SVOLTI
è diverso da 0 allora una base di V + W è data (0, 0, 1, 0), (0, 0, 0, 1),
(1, 0, 2, 0) e (0, 1, 0, 1).
Un altro modo di ragionare è il seguente. Poichĺa dimensione di V è 2
e quella di W è 3, dal teorema di Grassmann la dimensione di V + W è 4
e pertanto V + W = R4 .
10.5
Applicazioni Lineari
Esercizio (Esercizio 6.24). Sia L : R3 → R2 data da L(x, y, z) = (x +
2y + z, y + z).
1. Verificare che L è lineare.
2. Determinare una base di Ker(L) e stabilire se L è iniettiva.
Determinare una base di Im(L).
3. Calcolare w = L(2, 1, 3) e determinare L−1 (w).
1. Siano (x1 , y1 , z1 ), (x2 , y2 , z2 ) elementi di R3 e λ, µ ∈ R. Allora
L (λ(x1 , y1 , z1 ) + µ(x2 , y2 , z2 ))
= L (λx1 + µx2 , λy1 + µy2 , λz1 + µz2 )
= (λx1 + µx2 + 2(λy1 + µy2 ) + λz1 + µz2 , λy1 + µy2 + λz1 + µz2 )
= (λx1 + 2λy1 + λz1 + µx2 + 2µy2 + µz2 , λy1 + λz1 + µy2 + µz2 )
= λ(x1 + 2y1 + z1 , y1 + z1 ) + µ(x2 + 2y2 + z2 , y2 + z2 )
= λL (x1 , y1 , z1 ) + µL (x2 , y2 , z2 )
e pertanto L è lineare.
2. Il Ker(L) è dato da
{(x, y, z) ∈ R3 | x + 2y + z = y + z = 0} = {(α, −α, α) ∈ R3 | α ∈ R}
= {α(1, −1, 1) | α ∈ R} = h(1, −1, 1)i.
Si vede chiaramente che (1, −1, 1) è una base di Ker(L). Poiché
Ker(L) non contiene solo (0, 0, 0) allora L non è iniettiva per la
Proposizione 6.10.
10.5. APPLICAZIONI LINEARI
103
Poiché per il Teorema 6.4
dim(Ker(L)) + dim(Im(L)) = dim(R3 ) = 3,
allora dim(Im(L)) = 2 e Im(L) = R2 e come base possiamo scegliere
(1, 0) e (0, 1).
3. Si ha che L(2, 1, 3) = (7, 4). Inoltre
L−1 (7, 4) = {(x, y, z) ∈ R3 | x + 2y + z = 7, y + z = 4}
= {(α − 1, 4 − α, α) | α ∈ R}.
Esercizio (Esercizio 6.25). Siano
v1 = (0, 0, 2, −1), v2 = (−1, 1, 2, 1), v3 = (0, 1, 0, 2), v4 = (0, 0, 0, 1) ∈ R4 .
1. Verificare che v1 , v2 , v3 , v4 è base di R4 .
2. Dimostrare che esiste un’unica L : R4 → R4 tale che
L(v1 ) = L(v2 ) = v1 − v3 , L(v3 ) = v1 , L(v4 ) = 0.
Calcolare la matrice di L rispetto alla base canonica.
3. Trovare basi di Ker(L) e di Im(L).
1. Poiché la dimensione di R4 è 4, per l’Osservazione 5.20, basta controllare che i 4 vettori sono linearmente indipendenti, ovvero che il
rango della matrice

0
 −1
A=
 0
0
0
1
1
0

2 −1
2 1 

0 2 
0 1
sia 4, in base alla Proposizione 5.25. Si ha che


0 0 2
0 2


det(A) = 1 det −1 1 2
= 1(−1) det
= 2 6= 0.
−1 2
0 1 0
104
10. ESERCIZI SVOLTI
2. Poiché v1 , v2 , v3 , v4 costituisco una base di R4 tale applicazione lineare esiste ed è unica per il Teorema 6.5. Per costruire la matrice
dell’applicazione L rispetto alla base canonica dobbiamo calcolare
L(1, 0, 0, 0),
L(0, 1, 0, 0),
L(0, 0, 1, 0),
L(0, 0, 0, 1),
sapendo che
L(0, 0, 2, −1) = (0, −1, 2, −3),
L(0, 1, 0, 2) = (0, 0, 2, −1),
L(−1, 1, 2, 1) = (0, −1, 2, −3),
L(0, 0, 0, 1) = (0, 0, 0, 0).
Per ipotesi L(0, 0, 0, 1) = (0, 0, 0, 0). Inoltre
L(0, 1, 0, 0) = L(0, 1, 0, 2) − 2L(0, 0, 0, 1)
= (0, 0, 2, −1) − 2(0, 0, 0, 0) = (0, 0, 2, −1);
L(0, 0, 1, 0) =
1
2 L(0, 0, 2, −1)
+ 21 L(0, 0, 0, 1)
= 12 (0, −1, 2, −3) + 21 (0, 0, 0, 0) = 0, − 12 , 1, − 23 ;
L(1, 0, 0, 0) = −L(−1, 1, 2, 1) + L(0, 1, 0, 0)
+2L(0, 0, 1, 0) + L(0, 0, 0, 1)
= (0, 1, −2, 3) + (0, 0, 2, −1)
+ (0, −1, 2, −3) + (0, 0, 0, 0) = (0, 0, 2, −1) .
Pertanto si ha

0
0
0
1

0
0
−
2
MCC (L) = 
 2
2
1
−1 −1 − 32

0
0 
.
0 
0
3. Si ha che Im(L) = hL(v1 ), L(v2 ), L(v3 ), L(v4 )i per la Proposizione
6.7. Inoltre per la Proposizione 5.26 basta selezionare il massimo numero di vettori indipendenti tra L(v1 ), L(v2 ), L(v3 ), L(v4 ) per ottenere
una base di Im(L). Si vede che tale numero è 2 e una base di Im(L)
è data da (0, −1, 2, −3), (0, 0, 2, −1). Per determinare il Ker(L) si
può osservare che Ker(L) =
1
3
4
(x, y, z, t) ∈ R | − z = 0, 2x + 2y + z = 0, −x − y − z = 0
2
2
10.5. APPLICAZIONI LINEARI
105
= {(α, −α, 0, β) | α, β ∈ R} = h(1, −1, 0, 0), (0, 0, 0, 1)i.
Dal Teorema 6.4 già sappiamo che la dimensione del Ker(L) è 2, pertanto una base del Ker(L) è data proprio da (1, −1, 0, 0), (0, 0, 0, 1).
Esercizio (Esercizio 6.26). Sia L : R4 → R4 definita da
L(x, y, z, t) = (−x + z, −y + t, x − z, y − t).
Determinare la dimensione ed una base di Ker(L) e di Im(L).
Si ha che
Ker(L) = {(x, y, z, t) ∈ R4 | − x + z = 0, y + t = 0, x − z = 0, y − t = 0}
= {(α, β, α, β) | α, β ∈ R} = h(1, 0, 1, 0), (0, 1, 0, 1)i.
Si vede facilmente che (1, 0, 1, 0), (0, 1, 0, 1) sono linearmente indipendenti
e pertanto costituiscono una base di Ker(L). Dal Teorema 6.4 si ha che la
dimensione di Im(L) è anch’essa 2. Una sua base dovrà essere selezionata,
in base alle Proposizioni 6.7 e 5.26 tra i vettori
L(1, 0, 0, 0) = (−1, 0, 1, 0),
L(0, 1, 0, 0) = (0, −1, 0, 1),
L(0, 0, 1, 0) = (1, 0, −1, 0),
L(0, 0, 0, 1) = (0, 1, 0, −1).
Si vede facilmente che (−1, 0, 1, 0) e (0, −1, 0, 1) sono ad esempio linearmente indipendenti e poiché sono 2 costituiscono una base di Im(L).
Esercizio (Esercizio 6.27). Determinare se esiste un’applicazione
lineare L : R3 → R2 , tale che
L(1, 1, 1) = (3, 0),
L(2, 0, 0) = (0, 0),
L(0, 2, −1) = (0, 3),
L(1, 0, 1) = (3, 1).
I vettori (1, 1, 1), (0, 2, −1), (2, 0, 0) costituiscono una base per R3 , pertanto esiste un’unica applicazione lineare L : R3 → R2 , tale che
L(1, 1, 1) = (3, 0),
L(0, 2, −1) = (0, 3),
L(2, 0, 0) = (0, 0).
Si ha che
(x, y, z) =
y + 2z
y−z
3x − y − 2z
(1, 1, 1) +
(0, 2, −1) +
(2, 0, 0)
3
3
6
106
10. ESERCIZI SVOLTI
e dunque segue, per linearità
L(x, y, z) =
y + 2z
y−z
3x − y − 2z
L(1, 1, 1) +
L(0, 2, −1) +
L(2, 0, 0)
3
3
6
= (y + 2z, y − z)
Poiché L(1, 0, 1) = (2, −1), l’applicazione cercata non esiste.
Esercizio (Esercizio 6.28). Considerata lapplicazione lineare L : R3 →
R3 , definita da
L(x, y, z) = (2x + y, y − z, x + z),
si provi che essa è un isomorfismo e se ne determini l’inversa.
Il nucleo di L coincide con lo spazio delle soluzioni del sistema lineare
omogeneo

 2x + y = 0
y−z =0

x+z =0
e quindi Ker(L) = {(0, 0, 0)} e L è iniettiva; per il Teorema 6.4 dim(Im(L))
è 3 e pertanto è suriettiva e quindi un isomorfismo. Dato un vettore
(a, b, c) ∈ R3 esiste quindi un unico vettore (x, y, z) ∈ R3 tale che

 2x + y = a
y−z =b .
L(x, y, z) = (a, b, c)
⇐⇒

x+z =c
L’unica soluzione è data da (a − b − c, −a + 2b + 2c, −a + b + 2c) quindi
L−1 (x, y, z) = (x − y − z, −x + 2y + 2z, −x + y + 2z).
Esercizio (Esercizio 6.29). Determinare se esiste un’applicazione
lineare L : R3 → R3 , tale che
L(1, 0, 0) = (4, 5, −2), L(0, 1, 0) = (−2, −2, 1),
L(1, 0, −1) = (5, 6, −3), L(1, 3, 0) = (−2, −1, 1).
In caso affermativo studiare L.
I vettori (1, 0, 0), (0, 1, 0), (1, 0, −1) costituiscono una base di R3 , pertanto esiste un’unica applicazione lineare L : R3 → R3 tale che
L(1, 0, 0) = (4, 5, −2), L(0, 1, 0) = (−2, −2, 1), L(1, 0, −1) = (5, 6, −3).
10.5. APPLICAZIONI LINEARI
107
Dato (x, y, z) ∈ R3 si ha
(x, y, z) = (x + z)(1, 0, 0) + y(0, 1, 0) − z(1, 0, −1),
quindi
L(x, y, z) = (x + z)(4, 5, −2) + y(−2, −2, 1) − z(5, 6, −3)
= (4x − 2y − z, 5x − 2y − z, −2x + y + z).
Poiché L(1, 3, 0) = (−2, −1, 1) il problema ha risposta positiva. Infine si
noti che Im(L) = h(4, 5, −2), (−2, −2, 1), (5, 6, −3)i che sono linearmente
indipendenti e quindi dim(Im(L)) = 3 e L è un isomorfismo.
0
Esercizio (Esercizio 6.30). Determinare la matrice MBB (L) dell’applicazione lineare L : R3 → R3 definita da
L(x, y, z) = (2x − y − z, x − y + z, x − z),
con B = {(1, −1, 0), (1, 0, −1), (0, 1, 0)} e B 0 = {(1, 0, 0), (1, 0, 1), (1, −2, 0)}.
L(1, −1, 0) = (3, 2, 1) = 3(1, 0, 0) + 1(1, 0, 1) − 1(1, −2, 0),
L(1, 0, −1) = (3, 0, 2) = 1(1, 0, 0) + 2(1, 0, 1) + 0(1, −2, 0),
3
1
L(0, 1, 0) = (−1, −1, 0) = − (1, 0, 0) + 0(1, 0, 1) + (1, −2, 0).
2
2
Pertanto


3 1 − 32
0
MBB (L) =  1 2 0  ..
−1 0 21
0
Si vede facilmente che det(MBB (L)) 6= 0 e quindi L è un isomorfismo.
Esercizio (Esercizio 6.31). Verificare che l’applicazione lineare L :
R3 → R3 definita da
L(x, y, z) = (x + 2y, −2x + y + z, 2y + 3z)
è invertibile e determinarne l’inversa.
Per ogni (a, b, c) ∈ R3
L(x, y, z) = (a, b, c)
⇐⇒

 x + 2y = a
2x − y − z = b .

2y + 3z = c
108
10. ESERCIZI SVOLTI
Il precedente sistema è di Cramer ed ammette come unica soluzione la
terna
a − 6b + 2c 6a + 3b − c −4a − 2b + 5c
.
,
,
13
13
13
Dunque
−1
L
(x, y, z) =
x − 6y + 2z 6x + 3y − z −4x − 2y + 5z
,
,
13
13
13
.
Esercizio (Esercizio 6.33). Si considerino le applicazioni lineari f :
R2 → R3 definita da f (x, y) = (x, 2y, x + y) e g : R3 → R3 rappresentata, rispetto alla base canonica, dalla seguente matrice


1 0 1
B =  2 1 4 .
3 1 5
Determinare una base di Im(g ◦ f ).
L’applicazione lineare g è data da


1 0 1
g(x, y, z) =  2 1 4  (x, y, z)T = (x + z, 2x + y + 4z, 3x + y + 5z).
3 1 5
Allora
g(f (x, y)) = g(x, 2y, x + y) = (2x + y, 6x + 6y, 8x + 7y).
Si ha
Im(g ◦ f ) = {(2x + y, 6x + 6y, 8x + 7y) | x, y ∈ R} = h(2, 6, 8), (1, 6, 7)i.
Si vede facilmente che (2, 6, 8), (1, 6, 7) è una base di Im(g ◦ f ) che quindi
ha dimensione 2.
10.6
Spazio Affini e Euclidei
Esercizio (Esercizio 8.58). Determinare l’equazione del piano per il
punto P = (1, −1, 2), parallelo alla retta
x=z+1
r :
.
y = −z + 3
e ortogonale al piano α : x + 2y + 1 = 0.
10.6. SPAZIO AFFINI E EUCLIDEI
109
Il generico piano per P ha equazione
a(x − 1) + b(y + 1) + c(z − 2) = 0.
La retta r ha vettore direttore (1, −1, 1). Le condizioni di parallelismo con
la retta r e di ortogonalità col piano α conducono al sistema lineare
a−b+c=0
.
a + 2b = 0
il cui spazio di soluzioni à dato {(−2, 1, 3)β | β ∈ R}. Allora un’equazione del piano cercato è
−2(x − 1) + (y + 1) + 3(z − 2) = 0.
110
10. ESERCIZI SVOLTI
Capitolo 11
Appendice
11.1
Dimostrazione del teorema della base incompleta
Supponiamo r ≤ n. Dimostriamo per induzione che è possibile costruire
una base di V partendo da s ≤ r vettori linearmente indipendenti di V.
1. s = 1. Siccome v1 ∈ V e e1 , e2 , . . . , en è una base di V allora esistono
λ1 , . . . , λn ∈ K tali che
v1 = λ1 e1 + · · · + λn en .
(11.1)
Siccome v1 non è il vettore nullo allora almeno uno dei λi è diverso
da 0. Supponiamo sia λ1 . Allora
e1 = −
λ2
λn
1
v1 − e2 − · · · −
en .
λ1
λ1
λ1
Ora dimostriamo che v1 , e2 , . . . , en è ancora una base di V. Essi sono
generatori, infatti ogni vettore v ∈ V si può scrivere come
v = µ1 e1 + µ2 e2 + · · · + µn en
1
λ2
λn
= µ1 − v1 − e2 − · · · −
en + µ2 e2 + · · · + µn en
λ1
λ1
λ1
e quindi è scritto come combinazione lineare di v1 , e2 , . . . , en . Inoltre
sono linearmente indipendenti. Supponiamo
µ1 v1 + µ2 e2 + · · · µn en = 0.
111
112
11. APPENDICE
Se µ1 6= 0 allora
v1 = −
µ2
µn
e2 − · · · −
en .
µ1
µ1
Confrontando questa scrittura con (11.1) si vede che ciò non è possibile in quanto il coefficiente di e1 in (11.1) è diverso da 0. Allora
µ1 = 0, ma questo implica µ2 = . . . = µn = 0 in quanto e2 , . . . , en
linearmente indipendenti.
2. Supponiamo ora che sia possibile costruire una base partendo da s vettori linearmente indipendenti di V e dimostriamolo per s + 1 vettori.
Siano v1 , . . . , vs+1 vettori linearmente indipendenti. Allora salvo riordinare i vettori e1 , . . . , en possiamo supporre che v1 , . . . , vs , es+1 , . . . , en
sia una base di V. Siccome vs+1 ∈ V e v1 , . . . , vs , es+1 , . . . , en è una
base di V allora esistono λ1 , . . . , λn ∈ K tali che
vs+1 = λ1 v1 + · · · + λs vs + λs+1 es+1 + · · · + λn en .
(11.2)
Siccome vs+1 non è il vettore nullo e v1 , . . . , vs+1 sono linearmente
indipendenti allora almeno uno dei λi , i ≥ s + 1, è diverso da 0.
Supponiamo sia λs+1 . Allora
es+1 = −
λ1
λs
1
λn
v1 − · · · −
vs +
es+1 − · · · −
en .
λs+1
λs+1
λs+1
λs+1
Ora dimostriamo che v1 , . . . , vs , vs+1 , es+2 . . . , en è ancora una base di
V. Essi sono generatori, infatti ogni vettore v ∈ V si può scrivere
come
v = µ1 v1 + · · · + µs vs + µs+1 es+1 + · · · + µn en = µ1 v1 + · · · + µs vs
+µs+1
λ1
λs
1
λn
−
v1 − · · · −
vs +
es+1 − · · · −
en
λs+1
λs+1
λs+1
λs+1
+ · · · + µn en
e quindi è scritto come combinazione lineare di
v1 , . . . , vs , vs+1 , es+2 . . . , en .
Inoltre sono linearmente indipendenti. Supponiamo
µ1 v1 + · · · + µs vs + µs+1 vs+1 + µs+2 es+2 + · · · + µn en = 0.
11.2. DIMOSTRAZIONE DEL TEOREMA DI GRASSMANN
113
Se µs+1 6= 0 allora
v1 = −
µ1
µs
µs+1
µn
v1 − · · · −
vs −
es+2 − · · · −
en .
µs+1
µs+1
µs+1
µs+1
Confrontando questa scrittura con (11.2) si vede che ciò non è possibile in quanto il coefficiente di es+1 in (11.2) è diverso da 0. Allora µs+1 = 0, ma questo implica µ1 = . . . = µn = 0 in quanto
v1 , . . . , vs , es+2 , . . . , en linearmente indipendenti.
Quindi abbiamo dimostrato per induzione che se r ≤ n allora è possibile
costruire una base di V partendo da r vettori linearmente indipendenti di
V.
Supponiamo esistano v1 , . . . , vr ∈ V, r > n, linearmente indipendenti.
Considerando i vettori v1 , . . . , vn , per quanto detto precedentemente, questi
dovrebbero formare una base di V insieme a n−n = 0 vettori tra e1 , . . . , en :
ovvero v1 , . . . , vn sono una base di V. Ma allora vn+1 può essere scritto
come combinazione lineare di v1 , . . . , vn e dunque v1 , . . . , vn , vn+1 , . . . , vr
non sono linearmente indipendenti.
11.2
Dimostrazione del teorema di Grassmann
Sia e1 , . . . , es una base di U ∩ W. Per il Teorema 5.17, è possibile costruire
una una base di U e una base di W costituite da e1 , . . . , es , f1 , . . . , fr e
e1 , . . . , es , g1 , . . . , gm rispettivamente.
Proviamo che e1 , . . . , es , f1 , . . . , fr , g1 , . . . , gm è una base di U + W. Sia
u + w ∈ U + W allora
u + w = λ1 e1 + · · · + λs es + µ1 f1 + · · · + µr fr
+λ1 e1 + · · · + λs es + ν1 g1 + · · · + νm gm
e dunque e1 , . . . , es , f1 , . . . , fr , g1 , . . . , gm sono generatori di U + W.
Supponiamo
λ1 e1 + · · · + λs es + µ1 f1 + · · · + µr fr + ν1 g1 + · · · + νm gm = 0.
Dunque
λ1 e1 + · · · + λs es + µ1 f1 + · · · + µr fr = −ν1 g1 − · · · − νm gm
Siccome λ1 e1 +· · ·+λs es +µ1 f1 +· · ·+µr fr ∈ U e −ν1 g1 −· · ·−νm gm ∈ (W\
U) ∪ {0}, l’unica possibilità è che siano entrambi 0. Poiché g1 , . . . , gm sono
114
11. APPENDICE
linearmente indipendenti allora ν1 = . . . = νm = 0 e poiché e1 , . . . , es , f1 , . . . , fr
sono linearmente indipendenti allora λ1 = . . . = λs = µ1 = . . . = µr = 0
e dunque e1 , . . . , es , f1 , . . . , fr , g1 , . . . , gm sono linearmente indipendenti e
quindi una base di U + W. Infine,
dim U + dim W = (s + r) + (s + m) = (s + r + m) + s
= dim(U + W) + dim(U ∩ W).
Indice analitico
Hom(U, V), 55, 56
Affinità, 69
Angolo tra due vettori, 62
Applicazione lineare, 49
composizione, 51
endomorfismo, 52
epimorfismo, 52
immagine, 49
isomorfismo, 52
monomorfismo, 52
Applicazioni lineari
nucleo, 49
Autovalore
molteplicità algebrica, 35
molteplicità geometrica, 35
Base
ortogonale, 61
ortonormale, 61
Campo, 11
Campo dei numeri complessi, 83
Combinazione lineare, 41
Coordinate di un punto, 69
Coseni Direttori, 70
Determinanti
operazioni elementari, 22
proprietà, 21
Distanza
punto piano nello spazio, 77
punto retta nello spazio, 77
retta retta nello spazio, 78
Disuguaglianza
di Cauchy-Schwarz, 62
triangolare, 62
Endomorfismo
diagonalizzabile, 57
Equazione Cartesiana
piano nello spazio, 72
retta nel piano, 71
retta nello spazio, 72
Equazioni Parametriche, 68
Formula
di Polarizzazione, 61
Funzione, 9
composta, 9
identità, 9
iniettiva, 9
invertibile, 9
invertibile a destra, 9
invertibile a sinistra, 9
suriettiva, 9
Gauss
algoritmo, 18
Gruppo, 10
commutativo, 10
Insieme
differenza, 7
115
116
differenza simmetrica, 7
intersezione, 7
unione, 7
Isometria, 70
Matrice
a scala per righe, 18
a scala per righe ridotta, 18
autospazio, 33
autovalore, 33
autovettore, 33
calcolo dell’inversa, 28
cambiamento di base, 54, 55
cambiamento di base ortonormale, 65
cofattore, 21
condizioni di invertibilità, 27
definizione, 13
determinante secondo Laplace, 21
di un’applicazione lineare, 53
diagonalizzabile, 33
invertibile, 19
operazioni elementari, 24
orlata, 29
ortogonale, 21
polinomio caratteristico, 34
prodotto, 16
prodotto per uno scalare, 14
rango, 23
rango per minori, 23
simmetrica, 15
somma, 13
trasposta, 15
Matrici
simili, 35
Norma di un vettore, 60
Numero Complesso
coniugato, 84
INDICE ANALITICO
notazione esponenziale, 85
notazione trigonometrica, 84
radice n-esima, 85
Operazione
associativa, 10
binaria interna, 10
commutativa, 10
elemento inverso, 10
elemento neutro, 10
Ortogonalizzazione di Gram-Schmidt,
64
Piani
fascio nello spazio, 73
paralleli nello spazio, 74
perpendicolari nello spazio, 74
stella nello spazio, 76
Prodotto cartesiano, 8
Prodotto Scalare
standard, 59
Prodotto scalare, 59
Prodotto Vettoriale, 79
Proiezione Ortogonale, 63
Rango
di vettori, 46
Relazione, 8
riflessiva, 8
simmetrica, 8
transitiva, 8
Relazione di equivalenza, 8
Retta di minima distanza, 78
Rette
complanari nello spazio, 73
fasci nel piano, 71
fascio nello spazio, 76
parallele nel piano, 71
parallele nello spazio, 73
INDICE ANALITICO
perpendicolari nel piano, 71
perpendicolari nello spazio, 73
sghembe nello spazio, 73
Riferimento Affine, 69
cambiamento di, 69
Riferimento Cartesiano, 70
Sistema Lineare, 25
forma matriciale, 26
Metodo di Gauss, 26
operazioni elementari, 25
parametrico, 29
Sottoinsieme, 7
Sottospazi
ortogonali, 60, 64
Sottospazio, 40
criterio, 40
generato, 41
intersezione, 41
somma, 41
somma diretta, 42
Spazi vettoriale
isomorfo, 53
Spazio Affine, 67
sottospazio, 68
Spazio affine
euclideo, 70
Spazio Vettoriale, 39
base, 43
dimensione, 44
euclideo, 59
Teorema
Cramer, 28
della base incompleta, 44
della dimensione, 50
di Carnot, 60
di Pitagora, 61
Grassmann, 47
117
metodo degli orlati, 29
Rouché-Capelli, 29
Vettore
componenti, 44
Vettori
generatori, 43
linearmente dipendenti, 42
linearmente indipendenti, 42
ortogonali, 60