Appunti per gli studenti del corso di Geometria 1 A.A. 2009/10 A

Appunti per gli studenti del corso di Geometria 1
A.A. 2009/10
A. Lotta
1. Nozioni di base
L’algebra lineare è la disciplina matematica il cui oggetto principale di studio è la teoria
degli spazi vettoriali e delle applicazioni lineari.
Sia K un campo. Denoteremo com’è consuetudine con 0 e 1 gli elementi neutri di K
rispettivamente per la somma ed il prodotto.
Definizione 1.1. Sia V un insieme non vuoto. Diremo che su V è assegnata una struttura
di spazio vettoriale su K se sono assegnate due applicazioni:
V × V → V,
K×V →V
denotate con
(u, v) ∈ V × V 7→ u + v ∈ V
(λ, u) ∈ K × V 7→ λu ∈ V
e dette operazioni di “somma” e “prodotto esterno”, verificanti le seguenti proprietà:
A) (V, +) è un gruppo abeliano.
B) Le due operazioni sono legate dalle seguenti relazioni, valide per ogni λ, µ ∈ K e
per ogni v, w ∈ V :
1) (λ + µ)v = λv + µv
2) λ(v + w) = λv + λw
C) Il prodotto esterno soddisfa, per ogni λ, µ ∈ K e v ∈ V :
3) (λµ)v = λ(µv).
4) 1v = v.
Diremo più semplicemente che V è uno spazio vettoriale su K o che V è un K-spazio
vettoriale. Gli elementi di V si diranno vettori di V . Se λ ∈ K e v ∈ V , il vettore λv viene
detto prodotto di v per lo scalare λ. L’elemento neutro rispetto all’operazione di somma
verrà denotato con 0V o con 0 e sarà chiamato il vettore nullo di V .
Ricordiamo inoltre che l’assioma A) garantisce la validità delle proprietà commutativa
e associativa dell’operazione di somma; inoltre per ogni vettore v ∈ V esiste un unico
vettore −v ∈ V tale che
v + (−v) = 0V ;
tale vettore sarà chiamato il vettore opposto di v. L’esistenza dell’opposto ha come conseguenza la cosiddetta legge di cancellazione nel gruppo (V, +), che possiamo formulare
come segue: per ogni u, v, w ∈ V risulta
u + w = v + w ⇒ u = v.
Esempio 1.2. Ogni campo K è dotato di una struttura canonica di spazio vettoriale su se
stesso; le operazioni sono esattamente quelle di somma e prodotto; gli assiomi di campo
garantiscono infatti la validità delle proprietà A) e B) e C).
1
2
Esempio 1.3. Come altro esempio, consideriamo il sottoinsieme di R2
V := {(x, y) ∈ R2 |7x + 5y = 0}.
Il lettore sa ben intepretare l’insieme V dal punto di vista della geometria euclidea: identificando R2 con un piano cartesiano, V è la retta passante per l’origine O(0, 0) del riferimento
e per il punto Q(5, −7).
Osserviamo ora che se P (x, y) ∈ V , allora moltiplicando entrambe le coordinate di P
per uno stesso numero λ si ottiene un nuovo punto P 0 (λx, λy) che appartiene ancora a V ;
infatti
7(λx) + 5(λy) = λ(7x + 5y) = 0.
Denotiamo, per ogni P ∈ V e λ ∈ R, con λP il punto P 0 . Dati poi P (x, y) e Q(x0 , y 0 ) in
V , anche il punto di coordinate (x + x0 , y + y) appartiene a V :
7(x + x0 ) + 5(y + y 0 ) = (7x + 5y) + (7x0 + 5y 0 ) = 0.
Denoteremo tale punto con P + Q.
Restano definite le operazioni
(P, P 0 ) 7→ P + P 0 (λ, P ) 7→ λP.
È un semplice esercizio verificare che tali operazioni muniscono V di una struttura di
spazio vettoriale su R, il cui vettore nullo è il punto O(0, 0).
Esempio 1.4. Generalizzando quanto fatto nell’esempio precedente, possiamo introdurre
una struttura di R-spazio vettoriale su prodotto cartesiano R2 := R × R ponendo
(x1 , y1 ) + (x2 , y2 ) := (x1 + x2 , y1 + y2 ),
λ(x, y) := (λx, λy).
Anche in questo caso il vettore nullo è (0, 0), e per ogni (x, y) ∈ R2 il vettore opposto è
(−x, −y). Si lascia al lettore la verifica di tutte le proprietà A), B) e C) della definizione
di spazio vettoriale.
Prima di procedere oltre, mettiamo in evidenza alcune proprietà basilari degli spazi
vettoriali che si deducono dagli assiomi.
Proposizione 1.5. Sia V uno spazio vettoriale sul campo K. Allora per ogni v ∈ V e per
ogni λ ∈ K, risulta:
a) λ0V = 0V
b) 0v = 0V
c) −v = (−1)v.
d) λv = 0V ⇒ λ = 0 ∨ v = 0V .
Dimostrazione: a) Abbiamo λ0V = λ(0V + 0V ) = λ0V + λ0V da cui, per la legge di
cancellazione: 0V = λ0V .
b) Possiamo scrivere 0v = (0 + 0)v = 0v + 0v da cui ancora per la legge di cancellazione
0V = 0v.
c) Per l’unicità dell’opposto di v nel gruppo (V, +), si tratta di provare che
v + (−1)v = 0V .
Infatti,
v + (−1)v = 1v + (−1)v = (1 − 1)v = 0v = 0V
dove l’ultimo passaggio è giustificato dalla proprietà b) già provata.
3
d) Si supponga λv = 0V . Se λ = 0, la tesi è provata. Supponiamo quindi che λ 6= 0;
allora esiste l’inverso λ−1 di λ in K. Dalla relazione λv = 0V moltiplicando ambo i membri
per λ−1 otteniamo
λ−1 (λv) = λ−1 0V
da cui per la a):
(λ−1 λ)v = 0V
che possiamo riscrivere
1v = 0V
ovvero v = 0V .
2
Definizione 1.6. Siano V e V 0 due spazi vettoriali sullo stesso campo K. Un’ applicazione
f : V → V 0 si dice K-lineare o semplicemente lineare se ha le proprietà seguenti:
∀u, v ∈ V
∀u ∈ V ∀λ ∈ K
(1)
(2)
f (u + v) = f (u) + f (v).
f (λu) = λf (u).
Proposizione 1.7. Sia f : V → V 0 un’applicazione lineare tra K-spazi vettoriali. Allora
f (0V ) = 0V 0 .
Dimostrazione: Infatti,
f (0V ) = f (0V + 0V ) = f (0V ) + f (0V ).
Utilizzando la legge di cancellazione nel gruppo (V 0 , +) segue che 0V 0 = f (0V ).
2
Osservazione 1.8. Dati due K-spazi vettoriali V e V 0 , l’applicazione costante
v ∈ V 7→ 0V 0 ∈ V 0
è lineare. Essa si chiama applicazione nulla da V in V 0 e verrà denotata con il simbolo 0.
Esempio 1.9. Dato un qualunque spazio vettoriale, l’applicazione identica Id : V → V è
certamente lineare.
Come ulteriore esempio, determiniamo tutte le applicazioni lineari di un campo su se
stesso. Fissato un elemento a ∈ K di un campo K, l’applicazione
fa : K → K
definita da
fa (x) := ax ∀x ∈ K
è lineare.
Teorema 1.10. Sia f : K → K un’applicazione lineare. Allora esiste uno ed un solo a ∈ K
tale che
f = fa .
Inoltre
f isomorfismo ⇐⇒ f monomorfismo ⇐⇒ f epimorfismo ⇐⇒ a 6= 0.
4
Questo risultato, seppure elementare, è il prototipo di un risultato notevole di carattere
generale che verrà trattato in seguito, studiando applicazioni lineari f : V → V dove
V è uno spazio vettoriale “di dimensione finita”. Il caso in questione rientra in quello
1-dimensionale. Il ruolo svolto qui dallo scalare a sarà svolto da un certo oggetto, una
“matrice” associata ad f , e la condizione a 6= 0 sarà sostituita dal non annullarsi del
cosiddetto “determinante” di tale matrice.
Dimostrazione: Osserviamo intanto che, se esiste a ∈ K per cui f = fa , allora a è
necessariamente unico, in quanto deve concidere con f (1), avendosi:
f (1) = fa (1) = a · 1 = a.
Posto quindi a := f (1), verifichiamo che f = fa . Infatti, sfruttando la proprietà (2) delle
applicazioni lineari, ottieniamo per ogni x ∈ K:
f (x) = f (x1) = xf (1) = xa = ax.
La dimostrazione dell’ultima parte è un esercizio di teoria degli insiemi basato sull’esistenza
dell’inverso di a in K se a 6= 0 e si lascia al lettore.
2
La seguente proprietà è fondamentale nella teoria degli spazi vettoriali.
Teorema 1.11. Siano V , V 0 e V 00 spazi vettoriali sullo stesso campo K e siano f : V → V 0 ,
g : V 0 → V 00 applicazioni lineari. Allora anche g ◦ f : V → V 00 è lineare.
Dimostrazione: Siano u, v ∈ V ; allora
(g ◦ f )(u + v) = g(f (u + v)) = g(f (u) + f (v)) = g(f (u)) + g(f (v)) = (g ◦ f )(u) + (g ◦ f )(v).
In modo del tutto analogo si prova che (g ◦ f )(λu) = λ(g ◦ f )(u) per ogni λ ∈ K.
2
Definizione 1.12. Un’applicazione lineare bigettiva f : V → V 0 tra due K-spazi vettoriali
prende il nome di isomorfismo.
Due K-spazi vettoriali V e V 0 si diranno isomorfi se esiste almeno un isomorfismo
f : V → V 0 . In tal caso, scriveremo
V ∼
=V0
o anche, volendo mettere in evidenza un particolare isomorfismo:
∼
=
f : V → V 0.
Osservazione 1.13. Due spazi isomorfi sono da considerarsi due diverse manifestazioni
del medesimo oggetto matematico; dal punto di vista dell’algebra lineare, essi avranno le
stesse proprietà e si potranno opportunamente identificare.
Esempio 1.14. Verifichiamo che lo spazio V esaminato nell’Esempio 1.3 è isomorfo a R.
A tal scopo osserviamo che l’equazione
7x + 5y = 0
che caratterizza l’appartenenza di un punto (x, y) a V può essere riscritta, risolvendo
rispetto a y:
7
y = − x.
5
5
Pertanto ha senso definire un’ applicazione f : R → V ponendo
7
f (x) := (x, − x) ∀x ∈ R.
5
È facile verificare che f è un isomorismo. Si può altresı̀ risolvere l’equazione di V rispetto
ax
5
x=− y
7
il che suggerisce di definire un altro isomorfismo g : R → V ponendo
5
g(y) := (− y, y).
7
La proprietà che segue garantisce che, se V ∼
= V 0 , allora é anche V 0 ∼
= V.
Proposizione 1.15. Siano V , V 0 spazi vettoriali sullo stesso campo K. Se f : V → V 0
è un isomorfismo, anche l’applicazione inversa f −1 : V 0 → V è lineare ed è pertanto un
isomorfismo.
Dimostrazione: Siano u0 , v 0 ∈ V 0 ; allora, per la linearità di f :
f (f −1 (u0 ) + f −1 (v 0 )) = f (f −1 (u0 )) + f (f −1 (v 0 )) = u0 + v 0
da cui applicando f −1 :
f −1 (u0 ) + f −1 (v 0 ) = f −1 (u0 + v 0 ).
Sia λ ∈ K; allora
f (λf −1 (u0 )) = λf (f −1 (u0 )) = λu0
da cui applicando ancora f −1 ricaviamo
λf −1 (u0 ) = f −1 (λu0 ).
2
Come conseguenza del Teorema 1.11 e della Proposizione precedente, abbiamo la seguente:
Proposizione 1.16. Siano V , V 0 e V 00 spazi vettoriali sullo stesso campo K. Allora
a) V ∼
=V.
b) V ∼
=V0 ⇒V0 ∼
= V.
c) V ∼
=V0 ∧V0 ∼
= V 00 ⇒ V ∼
= V 00 .
Assegnato dunque un campo K, la “relazione di isomorfismo” è una relazione di equivalenza sull’insieme di tutti i K-spazi vettoriali. Ciò permette di “classificare” gli spazi
vettoriali su K disponendoli nelle classi di equivalenza corrispondenti. Dato uno spazio,
la classe cui appartiene contiene tutti e soli gli spazi ad esso isomorfi, che potranno essere
opportunamente identificati con esso.
Osservazione 1.17. (Spazio vettoriale banale) Una classe di equivalenza particolare è
quella costituita dai cosiddetti “spazi banali”. Si consideri un insieme V = {xo } avente un
solo elemento. Possiamo munire V di un’unica struttura di K-spazio vettoriale ponendo
xo + xo := xo ,
λxo := xo
dove λ ∈ K. Naturalmente 0V = xo . V sarà chiamato spazio vettoriale banale o nullo su K.
Due spazi banali V = {xo } e V 0 = {x0o } sono sempre isomorfi; infatti l’unica applicazione
6
lineare V → V 0 è quella nulla, che è un isomorfismo. Tutti gli spazi banali potranno essere
identificati e saranno denotati semplicemente con il simbolo {0}.
2. Sottospazi
Sia V uno spazio vettoriale sul campo K.
Definizione 2.1. Un sottoinsieme non vuoto S di V si dice sottospazio vettoriale di V se
sono soddisfatte le seguenti condizioni:
a) ∀u, v ∈ S u + v ∈ S.
b) ∀u ∈ S ∀λ ∈ K λu ∈ S.
Le proprietà a) e b) si esprimono dicendo che il sottoinsieme S è chiuso o stabile rispetto
alle operazioni di somma e prodotto esterno. La terminologia “sottospazio” è chiarita dalla
seguente proposizione.
Proposizione 2.2. Sia S ⊂ V un sottospazio vettoriale. Allora 0V ∈ S ed S eredita in
modo canonico una struttura di spazio vettoriale su K, tale che 0S = 0V .
Dimostrazione: Le condizioni a) e b) permettono di restringere le operazioni di
somma e prodotto esterno su S, ottenendo nuove operazioni
S × S → S, K × S → S.
È evidente che l’operazione di somma cosı̀ ottenuta continua a essere associativa e commutativa. Inoltre l’operazione di prodotto esterno verifica le proprietà C) della definizione di
spazio vettoriale, ed anche le B) sono immediatamente soddisfatte. Resta da chiarire che
(S, +) è un gruppo. Sia u ∈ S; allora, utilizzando la stabilità di S per il prodotto esterno,
abbiamo anche che il vettore opposto −u appartiene ad S, in quanto −u = (−1)u ∈ S
(Prop. 1.5). In particolare, fissato un elemento u ∈ S (è possibile perchè S non è vuoto),
si ottiene che 0V ∈ S; infatti:
0V = u + (−u) ∈ S.
A questo punto è immediato constatare che (S, +) è un gruppo con elemento neutro 0V .
2
Osservazione 2.3. La “canonicità” della struttura di spazio vettoriale di un sottospazio
S ⊂ V discussa nella dimostrazione precedente si chiarisce come segue: tale struttura è
l’unica rispetto alla quale l’applicazione di inclusione iS : S → V è lineare.
Infatti, supponiamo che S ammetta un’altra struttura di spazio vettoriale con questa
proprietà, le cui operazioni siano denotate con (u, v) 7→ u ⊕ v e (λ, u) 7→ λ v. Allora, per
la linearità di iS si ottiene
u ⊕ v = iS (u ⊕ v) = iS (u) + iS (v) = u + v
e
λ v = iS (λ v) = λiS (v) = λv.
Esempio 2.4. a) Dato uno spazio vettoriale V , il sottoinsieme {0V } è un sottospazio, detto
sottospazio nullo o banale. Esso è uno spazio vettoriale banale nel senso dell’Osservazione
1.17.
7
b) Il sottoinsieme V ⊂ R2 discusso nell’Esempio 1.3 è sottospazio vettoriale di R2 ; la
struttura di spazio vettoriale che si era introdotta in precedenza su V è proprio quella
canonicamente indotta da R2 .
Esempio 2.5. (Spazi di polinomi) Denotiamo con K[x] l’insieme di tutti i polinomi a
ceofficienti nel campo K nell’indeterminata x. Un elemento p di K[x] si scrive dunque in
modo unico come
(3)
p = a0 + a1 x + a2 x2 + · · · + ak xk ,
k ≥ 0.
Ricordiamo che ad ogni polinomio (3) si attribuisce un grado, che è il più grande intero d
tale che ad 6= 0. Il grado di p verrà denotato con gr(p).
Il lettore conosce l’operazione di somma tra polinomi; dato p ∈ K[x] del tipo (3) e
λ ∈ K, si definisce il prodotto λp in modo ovvio, ponendo
λp := λa0 + λa1 x + λa2 x2 + · · · + λak xk .
Le operazioni di somma e di prodotto esterno cosı̀ definito muniscono K[x] di una struttura
di spazio vettoriale su K. Si lascia al lettore la verifica degli assiomi A), B) e C). Si noti
che il vettore nullo di K[x] è il polinomio costante 0, detto anche polinomio nullo.
Sia n ≥ 0; denotiamo con Kn [x] il sottoinsieme di K[x] costituito dai polinomi di grado
≤ n. Il polinomio nullo appartiene a Kn [x]. Se p, q ∈ K[x] e λ ∈ K, λ 6= 0, allora
gr(p + q) ≤ max{gr(p), gr(q)}
gr(λp) = gr(p).
Da ciò segue subito che Kn [x] soddisfa le proprietà a) e b) della Definizione 2.1 ed è quindi
un sottospazio di K[x].
3. Applicazioni lineari e sottospazi
Teorema 3.1. Sia f : V → V 0 un’applicazione lineare tra K-spazi vettoriali. Allora
a) U ⊂ V sottospazio ⇒ f (U ) sottospazio
b) W ⊂ V 0 sottospazio ⇒ f −1 (W ) sottospazio.
Dimostrazione: a) Sia U ⊂ V un sottospazio; chiaramente f (U ) 6= ∅ perchè U 6= ∅.
Fissiamo due elementi arbitrari z, w ∈ f (U ); allora esistono u1 , u2 ∈ U tali che
z = f (u1 ), w = f (u2 ).
Segue che z + w = f (u1 ) + f (u2 ) = f (u1 + u2 ), il che mostra che z + w ∈ f (U ) in quanto,
essendo U sottospazio, è u1 + u2 ∈ U . Analogamente si verifica che qualunque sia λ ∈ K,
risulta λz ∈ f (U ).
b) Sia W ⊂ V 0 un sottospazio. Osserviamo che f −1 (W ) 6= ∅: infatti sappiamo che
0V 0 ∈ W ; ricordando che f (0V ) = 0V 0 (Prop. 1.7), segue che 0V ∈ f −1 (W ). Siano
ora u, v ∈ f −1 (W ); vogliamo provare che u + v ∈ f −1 (W ), ovvero che f (u + v) ∈ W .
Infatti, applicando la definizione di controimmagine, abbiamo che f (u) ∈ W e f (v) ∈ W ;
utilizzando il fatto che W è sottospazio, abbiamo
f (u + v) = f (u) + f (v) ∈ W
e resta provato quanto si voleva. Analogamente si verifica che qualunque sia λ ∈ K, risulta
λu ∈ f −1 (W ).
2
8
Proposizione 3.2. Sia f : V → V 0 un’applicazione lineare tra K-spazi vettoriali e sia
W ⊂ V un sottospazio di V . Allora la restrizione f|W : W → V 0 è lineare.
Dimostrazione: Infatti, f|W coincide con la composizione f|W = f ◦ iW e iW è lineare
(cf. Osservazione 2.3).
2
4. Nucleo ed immagine di un’applicazione lineare
Definizione 4.1. Sia f : V → V 0 un’applicazione lineare tra K-spazi vettoriali.
Il sottospazio f (V ) di V 0 prende il nome di Immagine di f e si denota col simbolo
Im(f ).
Il sottospazio f −1 ({0V 0 }) di V 0 prende il nome di nucleo di f e si denota col simbolo
Ker(f ).
Dunque, per definizione
Ker(f ) = {v ∈ V | f (v) = 0V 0 }.
L’importanza del nucleo è chiarita dal seguente risultato:
Teorema 4.2. Sia f : V → V 0 un’applicazione lineare tra K-spazi vettoriali. Allora
f è ingettiva
⇐⇒ Ker(f ) = {0V }.
Dimostrazione: Supponiamo f ingettiva. Sia u ∈ Ker(f ); allora f (u) = 0V 0 , ovvero
stante la Prop. 1.7, f (u) = f (0V ), da cui u = 0V .
Supponiamo ora Ker(f ) = {0V }; siano u, v ∈ V tali che
f (u) = f (v).
Utlizzando le proprietà del gruppo (V
0 , +),
segue:
f (u) − f (v) = 0V 0
ovvero per la linearità di f :
f (u − v) = 0V 0
pertanto u − v ∈ Ker(f ) e quindi per l’ipotesi u − v = 0V , ovvero u = v.
2
Definizione 4.3. Un’applicazione lineare ingettiva verrà detta monomorfismo. Un’applicazione lineare surgettiva verrà invece detta epimorfismo.
Osserviamo che f : V → V 0 è un epimorfismo se e solo se Im(f ) = V 0 .
5. Prodotti diretti
Siano V1 e V2 spazi vettoriali sullo stesso campo K. Definiamo sul prodotto cartesiano
V1 × V2 due operazioni
(V1 × V2 ) × (V1 × V2 ) → V1 × V2 ,
K × (V1 × V2 ) → V1 × V2
nel modo seguente
(4)
(v1 , v2 ) + (w1 , w2 ) := (v1 + v2 , w1 + w2 ), λ(v1 , v2 ) := (λv1 , λv2 ).
È facile verificare che tali operazioni godono delle proprietà A), B) e C) della Definizione
1.1. In particolare, l’elemento neutro per la somma è la coppia (0V1 , 0V2 ); per ogni v =
(v1 , v2 ) ∈ V1 × V2 , la coppia (−v1 , −v2 ) è l’opposto di v.
9
Definizione 5.1. Lo spazio vettoriale V1 ×V2 dotato delle operazioni (4) si chiama prodotto
diretto di V1 e V2 .
Dato un prodotto diretto V1 × V2 di K-spazi vettoriali, si definiscono in modo naturale
due applicazioni dette proiezioni
pi : V1 × V2 → V1 , p2 : V1 × V2 → V2
tali che
p1 (v1 , v2 ) := v1 ,
p2 (v1 , v2 ) := v2 .
Dalla definizione della struttura di spazio vettoriale di V1 × V2 segue immediatamente
che p1 e p2 sono entrambe K-lineari.
Si ricordi che ogni campo K è canonicamente spazio vettoriale su se stesso. Ha senso
allora la seguente:
Definizione 5.2. Dato un campo K, il prodotto diretto K × K verrà denotato con il
simbolo K2 .
La nozione di prodotto diretto si estende in modo ovvio al caso di più spazi vettoriali
V1 , . . . , Vn con n ≥ 2. Sul prodotto cartesiano V1 × V2 · · · × Vn , costituito per definizione
da tutte le n-ple ordinate (v1 , . . . , vn ) con vi ∈ Vi per ogni i = 1, . . . , n, si introduce una
struttura di spazio vettoriale le cui operazioni sono definite in modo analogo al caso n = 2:
(v1 , v2 , . . . , vn ) + (w1 , w2 , . . . , wn ) := (v1 + w1 , . . . , vn + wn ), λ(v1 , . . . vn ) := (λv1 , . . . , λvn ).
Il vettore nullo è (0V1 , . . . , 0Vn ) e per ogni v = (v1 , . . . , vn ) ∈ V1 × · · · × Vn , il vettore −v
coincide con (−v1 , . . . , −vn ).
Si definiscono inoltre n applicazioni, dette proiezioni pi : V1 × · · · × Vn → Vi , ponendo
pi (v1 , . . . , vn ) := vi .
Per come sono definite le operazioni di somma e prodotto esterno in V1 × · · · × Vn , risulta
che ciascuna proiezione è K-lineare.
Notiamo anche che
∀v ∈ V1 × · · · × Vn
v = (p1 (v), . . . , pn (v)).
Inoltre
(5)
∀u, v ∈ V1 × · · · × Vn
u = v ⇐⇒ ∀i = 1, . . . , n
pi (u) = pi (v).
Definizione 5.3. Dato un campo K, per ogni n ≥ 2 il prodotto diretto K
· · × K} verrà
| × ·{z
denotato con il simbolo Kn .
n volte
10
Osserviamo esplicitamente che per quel che concerne Kn , le proiezioni sono le n applicazioni pi : Kn → K tali che
pi (x1 , . . . , xn ) = xi .
Naturalmente abbiamo
∀x ∈ Kn
x = (p1 (x), . . . , pn (x)).
Proposizione 5.4. Siano V , V1 , · · · , Vn , n ≥ 2, spazi vettoriali sul campo K e sia
f : V → V1 × · · · × V n
un’applicazione. Allora
f è lineare ⇐⇒ ∀i = 1, . . . , n
pi ◦ f : V → Vi è lineare .
Dimostrazione: L’implicazione ⇒ é ovvia, perchè le proiezioni sono tutte lineari e
la composizione di applicazioni lineari è lineare (Teorema 1.11). Proviamo ⇐ supponendo
che per ogni i, pi ◦ f sia lineare. Siano u, v ∈ V ; vogliamo provare che
f (u + v) = f (u) + f (v).
Ciò equivale a
∀i ∈ {1, . . . , n}
pi (f (u + v)) = pi (f (u) + f (v));
sfruttando la linearità delle proiezioni, questa identità può essere riscritta
∀i ∈ {1, . . . , n}
pi (f (u + v)) = pi (f (u)) + pi (f (v))
cioè
∀i ∈ {1, . . . , n}
(pi ◦ f )(u + v) = (pi ◦ f )(u) + (pi ◦ f )(v)
ma questa identità è vera per ipotesi. In modo del tutto analogo si prova che f (λu) = λf (u)
per ogni λ ∈ K e u ∈ V .
2
Definizione 5.5. Siano V , V1 , . . . , Vn , n ≥ 2, spazi vettoriali sul campo K. Data
un’applicazione f : V → V1 × · · · × Vn le n applicazioni pi ◦ f si chiamano componenti di f e si denoteranno con fi .
Dunque
∀u ∈ V
f (u) = (f1 (u), . . . , fn (u)).
Notiamo che
f = 0 ⇐⇒
∀i = 1, . . . , n
fi = 0.
6. La base canonica di Kn
Lo spazio Kn contiene un insieme di vettori particolarmente importante; esso costituisce
il prototipo della nozione di “base” di uno spazio vettoriale qualsiasi che verrà studiata in
seguito.
Definizione 6.1. Sia n ≥ 2. Si chiama base canonica di Kn l’insieme costituito dai vettori
{e1 , . . . , en } cosı̀ definiti:
(6)
e1 := (1, 0, . . . , 0), e2 := (0, 1, 0, . . . , 0), . . . , en := (0, 0, . . . , 0, 1).
11
Dunque per ogni j ∈ {1, . . . , n}, il vettore ej ha tutte le coordinate nulle tranne la j-ma
che coincide con 1.
Ad esempio, la base canonica di K2 è costituita dai vettori
e1 := (1, 0), e2 := (0, 1).
Stabiliamo ora una proprietà fondamentale della base canonica:
Teorema 6.2. Per ogni vettore x = (x1 , . . . , xn ) ∈ Kn si ha
(7)
x = x1 e1 + · · · + xn en =
n
X
xi ei .
i=1
Quindi
n
∀v ∈ K
n
∃|(λ1 , . . . , λn ) ∈ K :
v=
n
X
λi ei .
i=1
Dimostrazione: Denotato con w il vettore a secondo membro dell’uguaglianza (7),
per provare che x = w, basta mostrare che per ogni i, pi (x) = pi (w). Infatti, fissato i,
abbiamo pi (x) = xi . D’altra parte, utilizzando la linearità della proiezione pi :
pi (x1 e1 +· · ·+xn en ) = x1 pi (e1 )+· · ·+xi pi (ei )+· · ·+xn pi (en ) = 0+· · ·+xi ·1+0 · · ·+0 = xi .
2
Come prima applicazione della proprietà (7) della base canonica, determiniamo le applicazioni lineari Kn → K, estendendo il risultato ottenuto nel Teorema 1.10.
Teorema 6.3. Fissato un intero n ≥ 2, siano α1 , . . . , αn ∈ K. Allora l’applicazione
f : Kn → K definita da
(8)
∀x = (x1 , . . . , xn ) ∈ Kn
f (x1 , . . . , xn ) = α1 x1 + · · · + αn xn
è K-lineare. Viceversa, ogni applicazione lineare f : Kn → K è della forma (8), cioè
esistono opportuni scalari α1 , . . . , αn per cui sussiste (8).
Dimostrazione: La dimostrazione della prima parte è un semplice esercizio. Sia
assegnata un’applicazione lineare f : Kn → K. Utilizzando la relazione fondamentale
x = x1 e1 + · · · + xn en
otteniamo, utilizzando la linearità di f :
f (x) = f (x1 e1 ) + · · · + f (xn en ) = x1 f (e1 ) + · · · + xn f (en )
da cui si ottiene che f è della forma richiesta, ponendo αj := f (ej ).
2
Osservazione 6.4. Con riferimento alla (8), notiamo che
f = 0 ⇐⇒ ∀i = 1, . . . , n
αi = 0.
Osservazione 6.5. Nel seguito estenderemo il significato del simbolo Kn anche per n = 0
e n = 1, convenendo che K0 = {0} è lo spazio banale su K, mentre K1 = K.
Anche per n = 1, è possibile introdurre una base canonica, costituita dal solo vettore
e1 := 1.
12
7. Classificazione degli spazi Kn
Teorema 7.1. Sia f : Kn → K un’applicazione lineare, con n ≥ 2. Se f 6= 0, allora
Ker(f ) ∼
= Kn−1 .
Dimostrazione: Sappiamo dal Teorema 6.3 che f è della forma
f (x1 , . . . , xn ) = α1 x1 + · · · + αn xn .
Segue che Ker(f ) è il sottospazio costituito da tutti e soli i vettori (x1 , . . . , xn ) tali che
α1 x1 + · · · + αn xn = 0.
(9)
Se f 6= 0, esiste j tale che αj 6= 0. Proviamo che l’applicazione
g : Ker(f ) → Kn−1
definita da1
∀x = (x1 , . . . , xn ) ∈ Ker(f ) g(x) := (x1 , . . . , xj−1 , xj+1 , . . . , xn ) ∈ Kn−1
è un isomorfismo di spazi vettoriali. Mostriamo intanto che g è lineare. Siano g1 , . . . , gn−1
le funzioni componenti di g; allora ciascuna gi : Ker(f ) → K è la restrizione a Ker(f ) di
un’ opportuna proiezione Kn → K. Precisamente
g1 = p1 |Ker(f ) , . . . , gj = pj+1 |Ker(f ) , . . . , gn−1 = pn |Ker(f ) .
Pertanto le gi sono tutte lineari, il che garantisce che tale è g (Prop. 5.4). Resta da
provare che g è bigettiva. La dimostrazione è basata sull’osservazione che, poichè αj 6= 0,
l’equazione (9) che descrive Ker(f ) può essere riscritta nella forma equivalente:
X αi
xi .
(10)
xj = −
αj
i6=j
Ciò premesso, proviamo che g è ingettiva, mostrando che Ker(g) = {0}. Sia x =
(x1 , . . . , xn ) ∈ Ker(g); allora per la definizione di g abbiamo che xi = 0 per ogni i 6= j;
d’altra parte x ∈ Ker(f ), per cui la coordinata xj di x è legata alle altre dalla (10),
onde xj = 0. Infine, mostriamo che g è surgettiva; a tale scopo osserviamo che, assegnati n − 1 scalari y1 , . . . , yn−1 , mediante la (10) resta univocamente determinato un
vettore di Ker(f ) le cui componenti diverse dalla j-ma sono gli yi ; piú precisamente, sia
y = (y1 , . . . , yn−1 ) ∈ Kn−1 ; allora il vettore
X αi
X αi
yi −
yi−1 , yj , . . . , yn )
x = (y1 , . . . , yj−1 , −
αj
αj
i<j
i>j
appartiene a Ker(f ) e si ha g(x) = (y1 , . . . , yj−1 , yj , . . . , yn−1 ) = y.
2
Osservazione 7.2. Coerentemente con le convenzioni fatte nell’Oss. 6.5, il risultato
precedente è valido anche per n = 1, in quanto il Teorema 1.10 garantisce Ker(f ) = {0}
se f 6= 0.
1Nel caso in cui j = 1 l’indice j − 1 perde di significato. La definizione di g va intesa come
g(x) = (x2 , . . . , xn ).
13
Teorema 7.3. Siano n, m interi con n > m ≥ 1. Allora non esistono applicazioni lineari
ingettive f : Kn → Km .
Dimostrazione: Ragionando per induzione su n ≥ 2, proviamo che ogni applicazione
lineare f : Kn → Km con m < n non è ingettiva. Se n = 2 abbiamo m = 1 e l’asserto
segue dal Teorema precedente, che garantisce che Ker(f ) 6= {0}. Sia n > 2. Ancora per
il Teorema precedente possiamo supporre f 6= 0 e m > 1. Siano f1 , . . . , fm le funzioni
componenti di f , di modo che
f (x) = (f1 (x), . . . , fm (x)) ∀x ∈ Kn .
Poichè f è lineare, ciascuna fi : Kn → K è lineare. Siccome f 6= 0, certamente fj 6= 0 per
almeno un j. Allora applicando il Teorema precedente, Ker(fj ) ∼
= Kn−1 . Ora, f induce
un’applicazione
g : Ker(fj ) → Km−1
definita da
g(x) = (f1 (x), . . . , fj−1 (x), fj+1 (x), . . . , fm (x)).
Si noti che g è lineare in quanto ciascuna sua componente è la restrizione a Ker(fj ) di
una componente di f . Dall’ipotesi induttiva segue che g non è ingettiva; infatti, se g fosse
ingettiva, componendola con un fissato insomorfismo ψ : Kn−1 → Ker(fj ) si otterebbe un
monomorfismo
g ◦ ψ : Kn−1 → Km−1 .
Fissato infine un vettore non nullo z ∈ Ker(g), si ha anche f (z) = 0 e quindi f non è
ingettiva.
2
Corollario 7.4. (Teorema di classificazione) Siano n, m ∈ N. Allora
Kn ∼
= Km se e solo se n = m.
8. Somma di sottospazi
Siano assegnati un K-spazio vettoriale V e due suoi sottospazi U1 e U2 .
Definizione 8.1. Si chiama somma di U1 ed U2 il sottoinsieme di V :
U1 + U2 := {u1 + u2 | u1 ∈ U1 , u2 ∈ U2 }.
Proposizione 8.2. La somma U1 + U2 è un sottospazio di V .
Dimostrazione: Naturalmente U1 + U2 6= ∅ perchè entrambi gli spazi Ui , i = 1, 2
non sono vuoti. Siano z, w ∈ U1 + U2 . Allora z = u1 + u2 per opportuni vettori ui ∈ Ui e
w = v1 + v2 per certi vi ∈ Ui . Segue, in forza delle proprietà associativa e commutativa
della somma:
z + w = (u1 + u2 ) + (v1 + v2 ) = (u1 + v1 ) + (u2 + v2 )
il che mostra che z + w ∈ U1 + U2 in quanto, essendo gli Ui sottspazi, ui + vi ∈ Ui . In
modo analogo si verifica che per ogni λ ∈ K risulta λz ∈ U1 + U2 .
2
Definizione 8.3. Dati i sottospazi U1 e U2 , la somma U1 + U2 verrà detta diretta se
(11)
U1 ∩ U2 = {0V }.
In tal caso, in luogo di U1 + U2 si scriverà U1 ⊕ U2 .
14
Diamo di seguito due diverse caratterizzazioni della condizione (11).
Proposizione 8.4. Dati i sottospazi U1 e U2 di V , le seguenti proprietà sono equivalenti:
a) U1 ∩ U2 = {0V }.
b) Ogni vettore v ∈ U1 + U2 si scrive in modo unico nella forma z = u1 + u2 con
ui ∈ Ui , i = 1, 2. In altri termini, per ogni u1 , v1 ∈ U1 e u2 , v2 ∈ U2 si ha:
u1 + u2 = v1 + v2 ⇒ u1 = v1 ∧ u2 = v2 .
Dimostrazione: a) ⇒ b). Supponiamo u1 + u2 = v1 + v2 . Allora u1 − v1 = v2 − u2 ed
il vettore con cui coincidono ambo i membri appartiene sia ad U1 che ad U2 in virtù delle
proprietà dei sottospazi. Pertanto, per la a), si ha u1 − v1 = 0V = v2 − u2 e di qui la b).
b) ⇒ a). Sia z ∈ U1 ∩ U2 ; poichè
z = z + 0V = 0V + z
2
applicando la b) si ottiene che z = 0V .
Proposizione 8.5. Dati i sottospazi U1 e U2 di V , le seguenti proprietà sono equivalenti:
a) U1 ∩ U2 = {0}.
b) Per ogni u1 ∈ U1 e u2 ∈ U2 si ha:
u1 + u2 = 0 ⇒ u1 = u2 = 0.
Dimostrazione:
La prova di a) ⇒ b) si ottiene subito applicando b) della Proposizione precedente, in
quanto se u1 + u2 = 0, allora u1 + u2 = 0 + 0, e quindi necessariamente u1 = u2 = 0.
Riguardo b) ⇒ a), sia z ∈ U1 ∩ U2 ; tenendo conto dell’uguaglianza
z + (−z) = 0
dove z ∈ U1 e −z ∈ U2 , applicando b) si ottiene che z = 0.
2
Studiamo ora la situazione in cui siano assegnati due sottospazi U1 e U2 di V tali che
(12)
V = U1 ⊕ U2 .
In tal caso diremo che V è somma diretta di U1 ed U2 . In forza della Proposizione 8.4, tale
condizione è equivalente alla seguente: ogni vettore v ∈ V si scrive in modo unico nella
forma
(13)
v = u1 + u2
u1 ∈ U1 , u2 ∈ U2 .
Definizione 8.6. Se sussiste (12) si dice che i sottospazi U1 e U2 sono supplementari
ovvero che U2 (risp. U1 ) è un supplementare di U1 (risp. di U2 ).
Siano U1 e U2 sottospazi supplementari. L’unicità della scrittura (13) permette di
definire due applicazioni
p1 : V → U1 ,
p2 : V → U2
tali che
p1 (v) := u1 ,
p2 (v) = u2 .
15
Dunque
∀v ∈ V
v = p1 (v) + p2 (v).
È immediato riconoscere che le pi sono entrambe lineari. Esse si chiameranno proiezioni
da V su U1 e su U2 determinate dalla decomposizione (12) di V come somma diretta di
U1 ed U2 .
Notiamo inoltre che le entrambe le proiezioni sono surgettive: infatti, dato un vettore
ui ∈ Ui , possiamo scrivere
ui = ui + 0 = 0 + ui
da cui per definizione segue: pi (ui ) = ui .
Osservazione 8.7. È opportuno sottolineare il fatto che, dato un sottospazio W di V , non
esiste a priori alcuna nozione intrinseca di proiezione V → W . Le proiezioni sui sottospazi
Ui definite a partire dalla condizione (12) dipendono strettamente da quest’ultima. Fissato
un sottospazio U1 possono esistere due diversi sottospazi supplementari2 U2 e U20 di U1 . In
corrispondenza di tali supplementari, avranno luogo due diverse proiezioni p1 : V → U1 e
p01 : V → U1 .
Osservazione 8.8. Sia f : V → W un’applicazione lineare tra K-spazi vettoriali. Allora,
se U1 e U2 sono due sottospazi di V , risulta che:
f (U1 + U2 ) = f (U1 ) + f (U2 ).
Infatti:
f (U1 + U2 ) = {f (u1 + u2 )|ui ∈ Ui } = {f (u1 ) + f (u2 )|ui ∈ Ui } = f (U1 ) + f (U2 ).
Chiudiamo questo paragrafo studiando il legame tra le nozioni di prodotto diretto di
spazi e somma di sottospazi. Siano ancora U1 e U2 sottospazi del K-spazio vettoriale V .
Poichè gli Ui sono entrambi spazi vettoriali su K, ha senso considerarne il prodotto diretto
U1 × U2 . Tale prodotto è correlato in maniera naturale alla somma U1 + U2 mediante la
seguente applicazione
ψ : U1 × U2 → U1 + U2
definita da
(14)
∀(u1 , u2 ) ∈ U1 × U2
ψ(u1 , u2 ) := u1 + u2 .
Tale applicazione è surgettiva per la definizione stessa di U1 + U2 . Verifichiamo che ψ è
anche lineare: siano z = (u1 , u2 ) e w = (v1 , v2 ) due vettori di U1 × U2 ; allora
ψ(z + w) = ψ(u1 + v1 , u2 + v2 ) = (u1 + v1 ) + (u2 + v2 ) = (u1 + u2 ) + (v1 + v2 ) = ψ(z) + ψ(w).
Per ogni λ ∈ K abbiamo anche
ψ(λz) = ψ(λu1 , λu2 ) = λu1 + λu2 = λ(u1 + u2 ) = λψ(z).
Determiniamo ora il nucleo di ψ. Per ogni z = (u1 , u2 ) ∈ U1 × U2 risulta
ψ(z) = 0 ⇐⇒ u1 + u2 = 0 ⇐⇒ u2 = −u1 ⇐⇒ u2 = −u1 e u1 ∈ U1 ∩ U2
2In seguito si vedrà come come costruire un supplementare a partire da una base di V nel caso in cui
V ha dimensione finita. Scegliendo basi diverse, si perviene a supplementari diversi.
16
e quindi otteniamo
(15)
Ker(ψ) = {(u, −u)| u ∈ U1 ∩ U2 }.
Come conseguenza immediata3 possiamo enunciare il seguente risultato:
Teorema 8.9. Dati due sottospazi U1 e U2 dello spazio vettoriale V , le seguenti condizioni
sono equivalenti:
a) La somma U1 + U2 è diretta.
b) L’applicazione ψ : U1 × U2 → U1 + U2 definita dalla (14) è un isomorfismo.
9. Matrici
Sia K un campo e siano m, n interi positivi.
Definizione 9.1. Una matrice A di tipo m×n ad elementi in K è una tabella rettangolare
costituita da m · n elementi di K disposti in m righe ed n colonne, e rappresentata nel
modo seguente:

 1
a1 a12 · · · a1n
 a2 a2 · · · a2 
n
2
 1
(16)
A =  ..
..
..
.. 
 .
.
.
. 
am
···
am
1
2
am
n
Si scrive anche in modo compatto A = (aij ) 1≤i≤m o più semplicemente A = (aij ). Alter1≤j≤n
nativamente, l’elemento generico di A avente occupante la riga i-ma e la colonna j-ma si
denota anche con aij , e si scrive A = (aij ). Nella scrittura A = (aij ) converremo sempre
che l’indice in alto (in basso) indichi la riga (risp. la colonna) occupata dall’elemento aij ,
mentre nella scrittura A = (aij ) il primo indice (risp. il secondo indice) indichi la riga
(risp. la colonna) occupata dell’elemento aij . L’elemento di posto (i, j) di una matrice A
verrà spesso denotato anche con il simbolo
Aij .
Fissato i ∈ {1, . . . , m}, l’i-ma riga di A è dunque la matrice di tipo 1 × n
A(i) := ai1 ai2 · · · ain
mentre, fissato j ∈ {1, . . . , m}, la j-ma colonna di A è la matrice di tipo m × 1:
 1
aj
 a2 
 j
A(j) :=  .  .
 .. 
am
j
Possiamo rappresentare A per colonne nel modo seguente:
A = A(1) A(2) · · · A(n)
3Il risultato del Teorema 8.9 è anche conseguenza immediata della Proposizione 8.5; utilizzeremo co-
munque nel seguito il calcolo esplicito di Ker(ψ), cf. Teorema 16.12.
17
oppure per righe:

A(1)
 A(2) 


A =  . .
 .. 

A(m)
L’insieme di tutte le matrici di tipo m × n ad elementi in K verrà denotato col simbolo
Mm,n (K). Nel caso in cui m = n si utilizzerà la notazione Mn (K) e le matrici A ∈ Mn (K)
si diranno quadrate di ordine n. Spesso una matrice (a1 . . . an ) di tipo 1 × n è chiamata
vettore riga ed è identificata con il vettore (a1 , . . . , an ) dello spazio Kn . Più precisamente,
l’applicazione
(a1 . . . an ) ∈ M1,n (K) 7→ (a1 , . . . , an ) ∈ Kn
n
è una bigezione, attraverso la quale i due insiemi
 M
1,n (K) e K si possono identificare in
a1
 a2 
 
modo canonico. Analogamente, ogni matrice  ..  è detta vettore colonna ed è identifi . 
am
cabile anch’essa con (a1 , . . . , am ) ∈ Km . Nel seguito tali identificazioni saranno utilizzate
senza ulteriori commenti.
Definizione 9.2. Sia assegnata una matrice A = (aij ) ∈ Mm,n (K). Si chiama trasposta
di A la matrice tA di tipo n × m definita da
t
A := (aji )
ovvero, per definizione, l’elemento di posto (i, j) di tA è l’elemento di posto (j, i) di A. In
altri termini, tA si ottiene da A scambiandone le righe con le colonne.
Altre notazioni spesso usate per denotare la trasposta di una matrice A sono
Esempio 9.3. Se A =
1
2
√
At , A−1 .


1
2
√
5 3
, allora tA =  5 0.
0 0
3 0
Teorema 9.4. L’insieme Mm,n (K) ammette una struttura canonica di spazio vettoriale
su K, determinata dalle operazioni di somma e prodotto esterno cosı̀ definite: per ogni
A = (aij ), B = (bij ) e λ ∈ K si pone
A + B := (aij + bij ), λA = (λaij ).
Lasciamo al lettore la cura di verificare la validità degli assiomi A), B) e C) della
definizione di spazio vettoriale. Ci limitiamo a mettere in evidenza due fatti salienti: il
vettore nullo dello spazio vettoriale Mm,n (K) in questione è la matrice nulla ovvero la
matrice, denotata semplicemente con 0, i cui elementi sono tutti uguali allo zero di K. Per
ogni A = (aij ) ∈ Mm,n (K), il vettore opposto di A è la matrice
−A = (−aij ).
D’ora in avanti considereremo sempre l’insieme Mm,n (K) munito della struttura di spazio
vettoriale appena descritta.
18
Esempio 9.5. L’appicazione Φ : Mm,n (K) → Mn,m (K) definita da
t
Φ(A) := A
∀A ∈ Mm,n (K)
è un isomorfismo.
La linearità di Φ è equivalente infatti alle due relazioni seguenti, di immediata verifica:
(17)
t
(A + B) = tA +t B,
t
(λA) = λ tA.
La bigettività di Φ è subito provata notando che
tt
( A) = A.
Definizione 9.6. Una matrice quadrata A ∈ Mn (K) si dice simmetrica se coincide con la
propria trasposta; si dice invece antisimmetrica se tA = −A. In altri termini:
A è simmetrica ⇐⇒ aij = aji
∀i, j ∈ {1, . . . , n}
A è antisimmetrica ⇐⇒ aij = −aji
∀i, j ∈ {1, . . . , n}.
Proposizione 9.7. L’insieme Sn (K) delle matrici simmetriche e l’insieme An (K) delle
matrici antisimmetriche di ordine n sono entrambi sottospazi vettoriali di Mn (K).
Dimostrazione: Entrambi gli insiemi in questione sono non vuoti, perchè la matrice nulla è sia simmetrica che antisimmetrica. La verifica delle condizioni a) e b) della
definizione 2.1 è una semplice applicazione delle proprietà (17).
2
Definizione 9.8. Una matrice quadrata A = (aij ) ∈ Mn (K) si dice diagonale se
aij = 0
In tal caso denoteremo A come segue:
 1
a1

a22

A=

∀i 6= j.

..
.
ann


.

Notiamo che, rappresentando tale matrice per colonne, abbiamo
A = a11 e1 · · · ann en .
Una matrice diagonale si dice scalare se
a11 = a22 = · · · = ann
ovvero gli elementi diagonali, cioè quelli aventi indice riga e colonna coincidenti, sono tutti
uguali tra loro. Notiamo che ogni matrice diagonale D è del tipo
D = λIn
dove λ è l’elemento di K con cui coincidono tutti gli elementi diagonali di D.
Si chiama matrice identica o matrice unità di Mn (K) la matrice diagonale i cui
elementi diagonali sono tutti uguali ad 1. Tale matrice si denoterà col simbolo In . Ad
esempio:


1 0 0
I3 = 0 1 0 .
0 0 1
19
Si è soliti denotare l’elemento di posto (i, j) della matrice identica In con il simbolo
δji
detto simbolo di Kronecker. Dunque per definizione
1 se i = j
i
δj :=
.
0 se i 6= j
Definizione 9.9. Si chiama traccia di una matrice quadrata A = (aij ) ∈ Mn (K) lo scalare
tr(A) := a11 + a22 + · · · + ann
somma degli elementi diagonali di A.
Proposizione 9.10. L’applicazione tr : Mn (K) → K che associa ad ogni matrice A ∈
Mn (K) la propria traccia, è un’applicazione lineare.
La dimostrazione è un semplice esercizio. Come conseguenza, notiamo che l’insieme
sl(n, K) := {A ∈ Mn (K)| tr(A) = 0}
costituito dalle matrici di ordine n a traccia nulla è un sottospazio vettoriale di Mn (K).
Infatti, sl(n, K) coincide con il nucleo di tr : Mn (K) → K.
Definiamo ora un’operazione fondamentale tra matrici, detta prodotto righe per colonne.
 
b1
 b2 
 
Definizione 9.11. Siano A = (a1 . . . an ) un vettore riga e B =  ..  un vettore colonna
.
bn
dello stesso ordine n ≥ 1. Si definisce il loro prodotto AB come lo scalare
AB := a1 b1 + a2 b2 + · · · + an bn ∈ K.
Definizione 9.12. Siano A ∈ Mm,n (K) e B ∈ Mn,p (K) due matrici tali che il numero
di colonne di A concida con il numero di righe di B. Si definisce prodotto righe per
colonne o semplicemente prodotto di A per B la matrice di tipo m × p il cui elemento di
posto (i, j) è dato dal prodotto della riga i-ma di A per la colonna j-ma di B. In simboli:
AB := (A(i) B(j) ).
(18)
Osserviamo che, posto A = (aik ) e B = (bkj ), esplicitando la (18) si ottiene
!
n
X
aik bkj .
(19)
AB =
k=1
Esempio 9.13. Posto A =
 
4
2 3 −1
e B = −2, risulta che AB è di tipo 2 × 1 e si
0 1 5
0
calcola come segue:
AB =
2 · 4 + 3 · (−2) + (−1 · 0)
2
=
.
0 · 4 + 1 · (−2) + 5 · 0
−2
Notiamo anche che in tal caso il prodotto BA non ha senso.
20
Proposizione 9.14. Siano A ∈ Mm,n (K) e B ∈ Mn,p . Allora
1) Per ogni i ∈ {1, . . . , m} si ha
(i)
(20)
(AB)
=
n
X
aik B (k) .
k=1
2) Per ogni j ∈ {1, . . . , p} si ha
(21)
(AB)(j) =
n
X
bkj A(k) .
k=1
3) Rappresentando AB per colonne, risulta
AB = AB(1) AB(2) · · · AB(p)
.
Dimostrazione: 1) In base alla definizione di prodotto, ed in particolare alla (19),
abbiamo
!
n
n
n
n
n
X
X
X
X
X
k
i
k
i
k
i
(i)
i
k
k
k
ak bp =
ak b2 · · ·
ak b1
aik B (k) .
ak b1 b2 · · · bp =
(AB) =
k=1
k=1
k=1
k=1
k=1
Analogamente:

(AB)(j)
n
X

1 k
ak bj 



 1
 k=1

n
ak
X


2 k
n
n

X
a
b
a2  X


k j
(∗)
k k


=  k=1
bkj A(k)
bj  ..  =
=


.

 k=1
..
k=1


am
 n .

k
X


am bk 
k
j
k=1
e ciò prova 2). Infine, l’uguaglianza (*) può anche reintepretarsi come
 1
bj
 .. 
(AB)(j) = A  .  = AB(j)
bnj
e di qui la 3).
2
L’uguaglianza (20) si esprime dicendo che ogni riga del prodotto AB è una combinazione
lineare delle righe di B con coefficienti ai1 , . . . , ain nella corrispondente riga di A di uguale
indice.
Cosı̀ la (21) si esprime dicendo che ogni colonna del prodotto AB è una combinazione
lineare delle colonne di A con coefficienti b1j , . . . , bm
j nella corrispondente colonna di B.
Nel prossimo paragrafo si studierà la nozione generale di combinazione lineare di vettori
di uno spazio vettoriale qualsiasi.
Corollario 9.15. Sia A ∈ Mm,n (K).
21
1) Identificando ciascun vettore della base canonica di Kn con un vettore colonna,
risulta:
∀j ∈ {1, . . . , n}
Aej = A(j) .
2) Identificando ciascun vettore della base canonica di Km con un vettore colonna,
risulta:
∀i ∈ {1, . . . , m}
t
ei A = A(i) .
Dimostrazione: Riguardo la 1), si tratta di applicare la proprietà (21), ottenendo
che Aej è la combinazione lineare delle colonne di A con coefficienti:
0A(1) + · · · + 0A(j−1) + 1A(j) + 0A(j+1) + · · · 0A(n)
ovvero coincide con A(j) . La dimostrazione di 2) si ottiene in modo analogo applicando la
(20).
2
Nella proposizione che segue vengono esaminate ulteriori proprietà basilari del prodotto
righe per colonne.
Proposizione 9.16.
1) Siano A ∈ Mm,n (K), B, C ∈ Mn,p (K). Allora
A(B + C) = AB + AC.
2) Siano A, B ∈ Mm,n (K), C ∈ Mn,p (K). Allora
(A + B)C = AC + BC.
3) Siano A ∈ Mm,n (K), B ∈ Mn,p (K) e α ∈ K. Allora
α(AB) = (αA)B = A(αB).
Dimostrazione: Le dimostrazioni sono tutte esercizi senza difficoltà; a titolo di
esempio, proviamo la prima uguaglianza nella 3); denotiamo con cij l’elemento generico di
α(AB) e con dij l’elemento generico di (αA)B. Per ogni i ∈ {1, . . . , m} e j ∈ {1, . . . , p}
risulta:
n
n
X
X
cij = α(
aik bkj ) =
(αaik )bkj = dij .
k=1
k=1
2
Definizione 9.17. Sia A ∈ Mm,n (K) una matrice fissata; ad essa si associa un’applicazione
LA : Kn → Km
definita come segue:
(22)
∀x ∈ Kn
LA (x) := Ax.
22
Qui i vettori di Kn e di Km sono pensati come vettori
ed il prodotto Ax è il
 colonna

x1
 x2 
 
prodotto righe per colonne. Dunque se A = (aij ) e x =  ..  è un vettore di Kn , allora:
 . 
xn


a11 x1 + a12 x2 + · · · + a1n xn


..
LA (x) = Ax = 
.
.
m
m
m
a1 x1 + a2 x2 + · · · + an xn
Notiamo anche che, applicando la (21) si ottiene:
LA (x) = x1 A(1) + x2 A(2) + · · · + xn A(n) .
(23)
Proposizione 9.18. Per ogni matrice A ∈ Mm,n (K), l’applicazione LA : Kn → Km ad
essa associata è lineare.
Dimostrazione: Abbiamo infatti, applicando le 1) e 3) della Proposizione precedente,
per ogni x, y ∈ Kn :
LA (x + y) = A(x + y) = Ax + Ay = LA (x) + LA (y)
e per ogni λ ∈ K si ha
LA (λx) = A(λx) = λ(Ax) = λLA (x).
2
Mostriamo ora che l’applicazione LA determina completamente A.
Teorema 9.19. Siano A, B ∈ Mm,n (K). Le seguenti proprietà sono equivalenti:
a) A = B
b) LA = LB
c) ∀x ∈ Kn Ax = Bx.
Dimostrazione: L’implicazione a) ⇒ b) è ovvia, e la b) ⇒ c) è immediata per
definizione di uguaglianza tra applicazioni. Proviamo che c) ⇒ a). Particolarizzando la c)
per x = ei , i = 1, . . . , n otteniamo
Aei = Bei
che, in forza del Corollario 9.15 si può riscrivere
A(i) = B(i)
2
e ciò comporta che A = B.
Teorema 9.20. Siano A ∈ Mm,n (K) e B ∈ Mp,q (K). Allora
(24)
LAB = LA ◦ LB .
23
Dimostrazione: Notiamo che le applicazioni ad ambo i membri della (24) sono applicazioni Kp → Km . Sia x ∈ Kp ; allora, utilizzando la (23) otteniamo:
LAB (x) = (AB)x = x1 (AB)(1) + x2 (AB)(2) + · · · + xp (AB)(p) =
x1 (AB(1) ) + x2 (AB(2) ) + · · · + xp (AB(p) ) =
A(x1 B(1) ) + A(x2 B(2) ) + · · · + A(xp B(p) ) =
A(x1 B(1) + x2 B(2) + · · · + xp B(p) ) =
A(Bx) = ALB (x) = LA (LB (x)) =
(LA ◦ LB )(x).
2
Corollario 9.21. (Proprietà associativa del prodotto tra matrici)
Siano A ∈ Mm,n (K), B ∈ Mn,p (K) e C ∈ Mn,p (K). Allora
A(BC) = (AB)C.
Dimostrazione: In forza del Teorema 9.19, basta provare che
LA(BC) = L(AB)C .
Ciò segue subito dal Teorema precedente; infatti
LA(BC) = LA ◦ LBC = LA ◦ (LB ◦ LC ) = (LA ◦ LB ) ◦ LC = LAB ◦ LC = L(AB)C
dove si è tenuto conto della proprietà associativa della composizione di applicazioni.
2
10. Sottospazio generato da un numero finito di vettori
Sia V uno spazio vettoriale sul campo K e sia v1 , . . . , vr , r ≥ 1, una successione finita
di vettori.
Definizione 10.1. Si chiama sottospazio generato da v1 , . . . , vr l’insieme
L(v1 , . . . , vr ) := {λ1 v1 + · · · + λr vr | λ1 , . . . , λr ∈ K}.
Ciascun elemento di tale insieme è detto combinazione lineare dei vettori v1 , . . . , vr .
Notiamo che L(v1 , . . . , vr ) è effettivamente un sottospazio di V . Chiaramente L(v1 , . . . , vr )
non è vuoto; notiamo anche che 0 ∈ L(v1 , . . . , vr ) in quanto
Date due combinazioni lineari
r
X
0 = 0v1 + · · · + 0vr .
r
X
µi vi , la loro somma è ancora una combinazione
λi vi e
i=1
i=1
lineare:
(25)
r
X
i=1
λi vi +
r
X
i=1
µi vi =
r
X
(λi + µi )vi .
i=1
(si noti l’utilizzo della proprietà associativa della somma e dell’assioma B) di spazio vettoriale). Cosı̀, per ogni λ ∈ K abbiamo
r
r
X
X
(26)
λ
λi vi =
(λλi )vi .
i=1
i=1
24
Proposizione 10.2. Data una successione finita di vettori v1 , . . . , vr , r ≥ 1, il sottospazio
generato da essi è il più piccolo sottospazio (per inclusione) contenente gli stessi vettori.
In altri termini, se W è un sottospazio qualsiasi, allora
{v1 , . . . , vr } ⊂ W ⇒ L(v1 , . . . , vr ) ⊂ W.
Dimostrazione: Ciascun vettore vi si può scrivere come combinazione linare
vi = 0v1 + · · · + 0vi−1 + 1vi + 0vi+1 + · · · + 0vr
e quindi appartiene a L(v1 , . . . , vr ). Se W è un sottospazio che contiene tutti i vettori
vi , allora esso contiene qualunque loro combinazione lineare, essendo chiuso rispetto alla
somma ed al prodotto esterno.
2
Data la successione v1 , . . . , vr e posto A = {v1 , . . . , vr }, il sottospazio L(v1 , . . . , vr ) verrà
anche denotato con L(A) e chiamato il sottospazio generato dall’insieme A.
Osserviamo che, dati due insiemi finiti A, B di V risulta:
A ⊂ B ⇒ L(A) ⊂ L(B).
Infatti, se A ⊂ B, allora A ⊂ L(B) e quindi L(A) ⊂ L(B) essendo L(A) il più piccolo
sottospazio contenente A.
Proposizione 10.3. Sia f : V → V 0 un’applicazione lineare tra K-spazi vettoriali e siano
v1 , . . . , vr vettori di V . Allora
f (L(v1 , . . . , vr )) = L(f (v1 ), . . . , f (vr )).
Dimostrazione: Basta notare che, in forza della definizione di applicazione lineare,
r
X
per ogni combinazione lineare v =
λi vi , l’immagine f (v) è una combinazione lineare
i=1
dei vettori f (v1 ), . . . , f (vk ), precisamente: f (v) =
binazione lineare
r
X
r
X
λi f (vi ). Viceversa, data una com-
i=1
r
X
λi f (vi ), essa coincide con f (
i=1
λi vi ).
2
i=1
In corrispondenza di una successione finita A = {v1 , . . . , vr } possiamo definire un’applicazione
ϕA : Kr → V
nel modo seguente
(27)
ϕA (λ1 , . . . , λr ) :=
r
X
λi vi .
i=1
È di semplice verifica il fatto che ϕA è lineare, in forza delle (25) e (26). Notiamo anche
che
(28)
Im(ϕA ) = L(v1 , . . . , vr ).
25
Osservazione 10.4. Mettiamo in evidenza che r non è necessariamente la cardinalità
dell’insieme A; non è escluso a priori che alcuni dei vettori v1 , . . . , vr possano coincidere.
In ogni caso, l’insieme di partenza di ϕA è sempre da considerarsi Kr . Ad esempio, se
v1 = · · · = vr = v, allora ϕA : Kr → V è definita da
ϕA (λ1 , . . . , λr ) = (λ1 + · · · + λr )v
ed in tal caso Im(ϕA ) = L(v).
11. Sistemi di generatori; vettori indipendenti; basi
Sia V uno spazio vettoriale sul campo K e sia v1 , . . . , vr , r ≥ 1 una successione finita di
vettori.
Definizione 11.1. Si dice che v1 , . . . , vr generano V se
V = L(v1 , . . . , vr ).
Si dice anche che l’insieme {v1 , . . . , vr } è un sistema di generatori di V .
Ad esempio, per ogni n ≥ 1, la base canonica di Kn è un sistema di generatori di Kn .
Ciò è conseguenza del Teorema 6.2.
Definizione 11.2. Uno spazio vettoriale V si dice finitamente generato o di dimensione finita se ammette almeno un sistema di generatori v1 , . . . , vr per qualche r ≥ 1.
Osserviamo che, se S = {v1 , . . . , vr } è un sistema di generatori, tale è ogni sottoinsieme
finito S 0 contenente S. Infatti, V = L(S) ⊂ L(S 0 ).
Osservazione 11.3. Non tutti gli spazi vettoriali sono finitamente generati. Ad esempio,
consideriamo lo spazio dei polinomi K[x] (cf. Esempio 2.5). Ammettiamo che esista
un sistema di generatori finito S; detto n il grado massimo dei polinomi dell’insieme S,
abbiamo
S ⊂ Kn [x]
da cui seguirebbe
K[x] = L(S) ⊂ Kn [x]
il che è assurdo. Dunque K[x] non è finitamente generato.
Osserviamo invece che, per ogni n ≥ 1, il sottospazio Kn [x] è finitamente generato,
avendosi
Kn [x] = L(1, x, . . . , xn ).
Definizione 11.4. Si dice che i vettori v1 , . . . , vr sono linearmente indipendenti se
∀(λ1 , . . . , λr ) ∈ Kr
λ1 v1 + · · · + λr vr = 0 ⇒ λ1 = · · · = λr = 0.
In altri termini, v1 , . . . , vr sono linearmente indipendenti se l’unica loro combinazione
lineare nulla è quella banale, i cui coefficienti λi sono tutti uguali a zero.
Se v1 , . . . , vr sono linearmente indipendenti, l’insieme A = {v1 , . . . , vr } si dirà libero.
Proposizione 11.5. a) Sia v ∈ V . Allora: {v} è libero ⇐⇒ v 6= 0.
b) Se v1 , . . . , vr sono linearmente indipendenti, allora per ogni i è vi 6= 0.
26
Dimostrazione: a) Si assuma che {v} sia libero. Non può essere v = 0 perchè si
avrebbe 1v = 0, e quindi 1 = 0. Si assuma ora v 6= 0 e proviamo che {v} è libero. Sia
λ ∈ K tale che λv = 0. Allora, applicando la d) della Prop. 1.5, si ha necessariamente
λ = 0.
b) Si assuma che v1 , . . . , vr siano linearmente indipendenti. Se fosse vi = 0 per qualche
i, si avrebbe
0v1 + · · · + 0vi−1 + 1vi + 0vi+1 + · · · + 0vr = 0
ottenendo cosı̀ una combinazione lineare nulla non banale dei vettori in questione, contro
l’ipotesi.
2
Osservazione 11.6. Se i vettori v1 , . . . , vr sono linearmente indipendenti, allora necessariamente essi sono tutti distinti. Infatti, se fosse vi = vj per i < j, si otterrebbe
0v1 + · · · + · · · + 0vi−1 + 1vi + · · · + (−1)vj + 0vj+1 + · · · + 0vr = 0.
Notiamo esplicitamente che, assegnato un insieme {u1 , . . . , ur }, r ≥ 1, esso non sarà
considerato libero se esistono i e j con ui = uj , anche se, scartando i vettori uguali,
effettivamente i vettori restanti sono indipendenti. Ad esempio, posto u1 = (1, 2), u2 =
(1, 3), u3 = (1, 2), allora l’insieme {u1 , u2 , u3 } ⊂ R2 non è da considerarsi libero, sebbene
{u1 , u2 , u3 } = {u1 , u2 } ed u1 e u2 sono indipendenti. In altri termini, la proprietà di
indipendenza o dipendenza lineare va riferita sempre alla successione u1 , . . . , ur .
Segnaliamo di seguito due ulteriori proprietà concernenti la nozione di indipendenza
lineare.
Proposizione 11.7. Siano assegnati i vettori v1 , . . . , vs dello spazio V . Le seguenti proprietà sono equivalenti:
a) v1 , . . . , vs sono linearmente dipendenti.
b) Almeno uno dei vettori v1 , . . . , vs è combinazione lineare degli altri.
Dimostrazione: a) ⇒ b). Si assuma che v1 , . . . , vs siano linearmente dipendenti;
allora esiste una combinazione lineare nulla
s
X
λi vi = 0
i=1
con i coefficienti non tutti nulli; sia λj 6= 0; allora possiamo ricavare vj dalla relazione
precedente ottenendo
vj = −
j−1
X
λk
k=1
λj
vk −
s
X
λk
vk
λj
k=j+1
e ciò prova b).
b) ⇒ a). Per ipotesi esiste j ∈ {1, . . . , s} tale che
vj =
j−1
X
k=1
αk vk +
s
X
k=j+1
αk vk
27
per opportuni scalari αk . Si ottiene pertanto
j−1
X
αk vk − vj +
k=1
s
X
αk vk = 0
k=j+1
il che mostra l’esistenza di una combinazione lineare nulla non banale dei vettori v1 , . . . , vs .
2
Proposizione 11.8. Siano v1 , . . . , vs vettori indipendenti. Allora, se v 6∈ L(v1 , . . . , vs ),
anche i vettori v1 , . . . , vs , v sono indipendenti.
Dimostrazione: Siano λ1 , . . . , λs , λ ∈ K tali che
s
X
λk vk + λv = 0.
k=1
Non può essere λ 6= 0 perchè altrimenti si ricaverebbe
v=−
s
X
λk
k=1
λ
vk
contro il fatto che v 6∈ L(v1 , . . . , vs ). Dunque λ = 0 e quindi
s
X
λk vk = 0
k=1
da cui λ1 = · · · = λs = 0 perchè i vettori v1 , . . . , vs sono linearmente indipendenti.
2
Introduciamo ora una nozione cruciale per lo studio degli spazi vettoriali finitamente
generati.
Definizione 11.9. Sia V uno spazio vettoriale sul campo K. Un insieme finito di vettori
{v1 , . . . , vr } di dice base di V se:
1) v1 , . . . , vr generano V .
2) v1 , . . . , vr sono indipendenti.
La base canonica {e1 , . . . , en } di Kn è effettivamente una base nel senso della Definizione
precedente; osserviamo che l’indipendenza dei vettori e1 , . . . , en è ancora conseguenza immediata dell’identità fondamentale (7).
Proposizione 11.10. Sia f : V → V 0 un’applicazione lineare tra K-spazi vettoriali e
siano v1 , . . . , vk vettori di V .
a) Si supponga f surgettiva. Allora
v1 , . . . , vk generano V ⇒ f (v1 ), . . . , f (vk ) generano V 0 .
b) Si supponga f ingettiva. Allora
v1 , . . . , vk sono indipendenti ⇒ f (v1 ), . . . , f (vk ) sono indipendenti .
28
Dimostrazione: a) Supponendo che V = L(v1 , . . . , vk ), applicando f e tenendo conto
della Proposizione 10.3, segue V 0 = f (V ) = f (L(v1 , . . . , vk )) = L(f (v1 ), . . . , f (vk )).
b) Si supponga che v1 , . . . , vk siano indipendenti e si consideri una combinazione lineare
P
nulla ki=1 λi f (vi ) = 0. Allora per la linearità di f :
k
X
f(
λi vi ) = 0
i=1
Pk
e ciò significa che i=1 λi vi ∈ Ker(f ). Poichè f è ingettiva, segue
λ1 = · · · = λk = 0 per l’indipendenza dei vettori v1 , . . . , vk .
Pk
i=1 λi vi
= 0 da cui
2
Osservazione 11.11. In base alla a) della Proposizione precedente, abbiamo che se
f :V →V0
è un epimorfismo e V è finitamente generato, allora tale è V 0 .
Corollario 11.12. Sia f : V → V 0 un isomorfismo tra K-spazi vettoriali.
Se B = {v1 , . . . , vn } è una base di V , allora B0 = {f (v1 ), . . . , f (vn )} è una base di V 0 .
Forniamo infine un’utile caratterizzazione delle nozioni definite sopra mediante l’applicazione
lineare ϕA : Kr → V introdotta nel paragrafo precedente (cf. (27)).
Proposizione 11.13. Si consideri una successione finita A = {v1 , . . . , vr }, r ≥ 1 di
vettori dello spazio V . Allora
(1) v1 , . . . , vr generano V ⇐⇒ ϕA è surgettiva.
(2) v1 , . . . , vr sono indipendenti ⇐⇒ ϕA è ingettiva.
Dimostrazione: La prima equivalenza segue direttamente dal fatto che Im(ϕA ) =
L(v1 , . . . , vr ). Riguardo la seconda, abbiamo che ϕA è ingettiva se e solo se Ker(ϕA ) = {0}
il che si può esplicitare come segue:
∀(λ1 , . . . , λr ) ∈ Kr
ϕA (λ1 , . . . , λr ) = 0 ⇒ λ1 = · · · = λr = 0
ovvero
r
∀(λ1 , . . . , λr ) ∈ K
r
X
λi vi = 0 ⇒ λ1 = · · · = λr = 0
i=1
il che per definizione equivale a richiedere che v1 , . . . , vr siano indipendenti.
2
Corollario 11.14. Data la successione finita di vettori B = {v1 , . . . vn }, allora
B è base di V ⇐⇒ ϕB è un isomorfismo.
12. Estrazione di basi
Sia V uno spazio vettoriale finitamente generato sul campo K. In questo paragrafo
mostreremo che V è dotato di basi, descrivendo un algoritmo mediante il quale è possibile
estrarre da un sistema di generatori assegnato v1 , . . . , vr una base {vi1 , . . . , vin } con i1 <
· · · < in . A tale scopo, introduciamo la seguente terminologia:
29
Definizione 12.1. Sia v1 , . . . , vr un sistema di generatori di V . Sia i ∈ {1, . . . , r}. Il
vettore vi si dirà eliminabile se esso è combinazione lineare dei vettori che lo precedono,
ovvero se
vi ∈ L(v1 , . . . , vi−1 ).
Per i = 1, il sottospazio L(v1 , . . . , vi−1 ) va inteso {0}, e v1 è eliminabile se e solo se è il
vettore nullo.
Teorema 12.2. Sia V uno spazio vettoriale non banale finitamente generato. Dato un
sistema di generatori v1 , . . . , vr , siano
vi1 , . . . , vin ,
i1 < · · · < in
i vettori non eliminabili da esso. Allora B = {vi1 , . . . , vin } è una base di V .
Tale base si dice estratta dal sistema di generatori v1 , . . . , vr mediante l’algoritmo di
eliminazione o algoritmo degli scarti successivi.
Dimostrazione: Procediamo per induzione su r. Nel caso r = 1 abbiamo V = L(v1 )
e v1 6= 0 essendo V non banale. Dunque v1 è non eliminabile e d’altra parte {v1 } è un
insieme libero ed è quindi una base di V . Sia ora r > 1 e supponiamo vero l’asserto per
r − 1. Notiamo che
V = L(v1 , . . . , vr−1 ) + L(vr ).
Distinguiamo quindi due casi:
(1) vr ∈ L(v1 , . . . , vr−1 ), cioè vr è eliminabile;
(2) vr 6∈ L(v1 , . . . , vr−1 ), cioè vr non è eliminabile.
Nel primo caso, V = L(v1 , . . . , vr−1 ) ed i vettori non eliminabili vi1 , . . . , vin coincidono
con quelli non eliminabili dal sistema di generatori v1 , . . . , vr−1 . Pertanto essi costituiscono
una base di V per l’ipotesi induttiva. Esaminiamo ora il secondo caso. L’ultimo vettore non
eliminabile vin coincide con vr . I vettori non eliminabili sono quindi {vi1 , . . . , vin−1 , vr },
dei quali i primi n − 1 sono esattamente i vettori non eliminabili dal sistema di generatori v1 , . . . , vr−1 di L(v1 , . . . , vr−1 ). Per l’ipotesi induttiva {vi1 , . . . , vin−1 } è base di
L(v1 , . . . , vr−1 ). Proviamo quindi che B = {vi1 , . . . , vin−1 , vr } è base di V . Abbiamo
infatti
V = L(v1 , . . . , vr−1 ) + L(vr ) = L(vi1 , . . . , vin−1 ) + L(vr )
per cui B è un sistema di generatori. Inoltre dal fatto che vn 6∈ L(v1 , . . . , vn−1 ) si ha a
maggior ragione che vn 6∈ L(vi1 , . . . , vin−1 ) e pertanto B è un insieme libero in forza della
Proposizione 11.8.
2
13. Dimensione di uno spazio vettoriale
Teorema 13.1. Sia V uno spazio vettoriale finitamente generato sul campo K.
(1) Esiste un solo intero n ∈ N tale che V ∼
= Kn .
(2) Se n > 0, V contiene basi; inoltre ogni base è costituita da n vettori.
Dimostrazione: Riguardo l’unicità di n, se esistesse un altro intero s per cui V ∼
= Ks ,
s
n
∼
avremmo di conseguenza K = K , il che comporta s = n per il Corollario 7.4. Per quel
che concerne l’esistenza, se V è banale, allora V ∼
= K0 . Se V non è banale, il Teorema 12.2
garantisce che esiste almeno una base B = {v1 , . . . , vn } ed in corrispondenza di tale base
vi è l’isomorfismo ϕB : Kn → V (Corollario 11.14). Riguardo l’ultima affermazione, sia
30
n > 0; se B0 = {w1 , . . . , wm } è una qualunque base, abbiamo l’isomorfismo ϕB0 : Km → V .
Allora m = n per l’unicità di n.
2
Definizione 13.2. Assegnato uno spazio vettoriale finitamente generato V , l’unico intero
n determinato dal Teorema precedente si chiama la dimensione di V e si denota con
dimK (V )
o semplicemente con dim(V ).
Dunque si può decidere qual è la dimensione di uno spazio finitamente generato individuando un isomorfismo con un opportuno spazio Kn , oppure individuandone una base
(per esempio mediante l’algoritmo di eliminazione) e contandone il numero di elementi.
Osservazione 13.3. Se V è uno spazio di dimensione finita, allora ogni spazio V 0 ad esso
è isomorfo è di dimensione finita ed ha la stessa dimensione.
Ciò segue direttamente dalla definizione di dimensione, in virtù della proprietà transitiva
della relazione di isomorfismo tra spazi vettoriali (Prop. 1.16).
Naturalmente, alla stessa conclusione si perviene facendo uso della nozione di base: se
V è non banale e B = {v1 , . . . , vn } è una base di V , scelto un isomorfismo f : V → V 0 ,
sappiamo che B0 = {f (v1 ), . . . , f (vn )} è base di V 0 (Corollario 11.12) quindi dim(V ) =
dim(V 0 ) perchè B e B0 sono costituite dallo stesso numero di vettori.
La dimensione si caratterizza ulteriormente mediante le nozioni di indipendenza lineare
e di sistema di generatori, come segue:
Teorema 13.4. Sia V uno spazio vettoriale finitamente generato di dimensione n ≥ 1.
(1) La dimensione n è il massimo numero di vettori indipendenti; ciò significa che
esistono n vettori indipendenti e se v1 , . . . , vs sono vettori indipendenti, allora
s ≤ n.
(2) La dimensione n è il numero minimo di vettori che occorrono per generare V ; cioè
esistono n vettori che generano V e se v1 , . . . , vs sono vettori che generano V ,
allora s ≥ n.
Dimostrazione: Proviamo (1). Se B è una base, allora essa è costituta da n vettori,
che sono indipendenti. Sia A = {v1 , . . . , vs } un insieme libero. Allora l’applicazione lineare
ϕA : Ks → V studiata nel paragrafo 11 è ingettiva. Componendola con un isomorfismo
ψ : V → Kn , si ottiene un’applicazione lineare ingettiva
ψ ◦ ϕA : Ks → Kn .
In base al Teorema 7.3 dev’essere s ≤ n. Per quanto riguarda (2), i vettori di B sono
n e generano V . Consideriamo un arbitrario sistema di generatori v1 , . . . , vs . Il Teorema
12.2 garantisce che da tale sistema si può estrarre una base vi1 , . . . , vik , k ≤ s. Poichè
qualunque base è costituita da n vettori dev’essere k = n, e pertanto s ≥ n.
2
Corollario 13.5. Sia V uno spazio vettoriale finitamente generato di dimensione n ≥ 1.
Si consideri una sequenza di n vettori v1 , . . . , vn .
(1) Se v1 , . . . , vn sono indipendenti, allora {v1 , . . . , vn } è base di V .
31
(2) Se v1 , . . . , vn generano V , allora {v1 , . . . , vn } è base di V .
Dimostrazione: (1) Per assurdo, si assuma che v1 , . . . , vn siano indipendenti e che
V 6= L(v1 , . . . , vn ). Allora esisterebbe un vettore vn+1 6∈ L(v1 , . . . , vn ). Per la Proposizione 11.8, seguirebbe che v1 , . . . , vn , vn+1 sono linearmente indipendenti, contro la (1)
del Teorema precedente.
(2) Supponiamo per assurdo che v1 , . . . , vn generino V e siano linearmente dipendenti.
Allora uno di tali vettori vj sarebbe combinazione lineare degli altri; avremmo quindi
V = L(v1 , . . . , vn ) ⊂ L(v1 , . . . , vj−1 , vj+1 , . . . , vn )
2
contro la (2) del Teorema precedente.
Teorema 13.6. (Completamento di una parte libera) Sia V uno spazio vettoriale sul
campo K di dimensione n > 0 e sia B = {u1 , . . . , un } una base di V . Siano assegnati dei
vettori indipendenti v1 , . . . , vk . Allora esistono n − k vettori uj1 , . . . , ujn−k della base B
tali che B0 = {v1 , . . . , vk , uj1 , . . . , ujn−k } è una base di V .
Dimostrazione: Consideriamo la sequenza costituita da tutti i vettori
v1 , . . . , vk , u1 , . . . , un .
Tale sequenza è ancora un sistema di generatori, da cui si può estrarre una base B0
mediante l’algoritmo di eliminazione. Poichè v1 , . . . , vk sono indipendenti, ciascuno di essi
non è eliminabile. Dunque la base B0 è del tipo richiesto.
2
A titolo di esempio, concludiamo il paragrafo calcolando la dimensione di due particolari
spazi, già introdotti in precedenza.
Esempio 13.7. Fissati due interi n, m ≥ 1, lo spazio delle matrici Mm,n (K) ha dimensione
mn.
Infatti, per ogni i ∈ {1, . . . , m} e j ∈ {1, . . . , n} consideriamo la matrice Eij avente
tutti gli elementi nulli tranne quello di posto (i, j), concidente con 1. Otteniamo cosı̀
mn matrici. Esse costituiscono un sistema di generatori di Mm,n (K) in quanto per ogni
A = (aij ) ∈ Mm,n (K) risulta
(29)
A=
m X
n
X
aij Eij .
i=1 j=1
Questa identità implica anche le matrici Eij sono linearmente indipendenti: infatti data
una combinazione lineare nulla
m X
n
X
λij Eij = 0
i=1 j=1
si costruisca la matrice A :=
(λij );
per la (29), si ottiene
A=
m X
n
X
i=1 j=1
e quindi tutti gli scalari
λij
sono nulli.
λij Eij = 0
32
Esempio 13.8. Fissato n > 0, lo spazio Kn [x] ha dimensione n + 1. Infatti, vi è un
isomorfismo naturale F : Kn+1 → Kn [x] definito da:
F (a0 , . . . , an ) := a0 + a1 x + · · · + an xn .
Alternativamente, risulta che gli n + 1 vettori
{1, x, x2 , . . . , xn }
costituiscono una base di Kn [x]. La verifica di queste affermazioni è un utile esercizio.
14. Sottospazi di spazi di dimensione finita
Teorema 14.1. Sia V uno spazio vettoriale sul campo K di dimensione n > 0 e sia W
un sottospazio di V . Allora
1) W è finitamente generato.
2) Si ha dimK (W ) ≤ n ed inoltre
dimK (W ) = 0
dimK (W ) = n
⇐⇒
⇐⇒
W = {0V }
W = V.
Dimostrazione: 1) Ovviamente possiamo supporre W 6= {0}. Ragioniamo per assurdo, assumendo che W non sia finitamente generato. Proviamo che ciò ha come conseguenza la seguente proprietà:
∀k ∈ N∗
∃v1 , . . . , vk ∈ W linearmente indipendenti.
(∗)
Naturalmente questo è in contraddizione con il fatto che V ha dimensione finita (Teorema
13.4). Proviamo la proprietà (*) per induzione su k. Poichè in W esiste almeno un vettore
v1 6= 0, la (*) è vera per k = 1. Supposta la (*) vera per k ≥ 1, esistono v1 , . . . , vk
vettori in W linearmente indipendenti. Ora, avendo assunto che W non sia finitamente
generato, dev’essere W 6= L(v1 , . . . , vk ). Scelto un vettore vk+1 ∈ W , vk+1 6∈ L(v1 , . . . , vk ),
abbiamo che v1 , . . . , vk , vk+1 sono indipendenti in forza della Proposizione 11.8. Pertanto
la proprietà (*) è vera per k + 1.
2) L’unica affermazione non immediata è la seconda implicazione ⇒. Supponiamo
che W abbia dimensione n. Fissata una base B0 = {w1 , . . . , wn } di W , tali vettori,
essendo indipendenti, formano anche una base di V in virtù del Corollario 13.5 e pertanto
V = L(B0 ) = W.
2
Proposizione 14.2. Sia V uno spazio vettoriale sul campo K di dimensione n > 0 e sia
B = {u1 , . . . , un } una base di V . Allora per ogni k ∈ {1, . . . , n} si ha
V = L(u1 , . . . , uk ) ⊕ L(uk+1 , . . . , un ).
Dimostrazione: Poichè V = L(u1 , . . . , un ), si ottiene immediatamente che V =
L(u1 , . . . , uk )+L(uk+1 , . . . , un ). Ai fini di provare che L(u1 , . . . , uk ) ∩ L(uk+1 , . . . , un ) = {0},
Pk
conviene
8.5. Siano w1 =
i=1 λi ui e
Pn utilizzare il criterio stabilito nella Proposizione
Pn
w2 = i=k+1 λi ui tali che w1 + w2 = 0. Allora i=1 λi ui = 0 e quindi λi = 0 per ogni i
per l’indipendenza dei vettori u1 , . . . , un . Dunque w1 = w2 = 0.
2
33
Teorema 14.3. Sia V uno spazio vettoriale di dimensione finita n > 0. Ogni sottospazio
W di V ammette un supplementare. Anzi, se W è un sottospazio tale che dim(W ) < n,
assegnata una base B = {u1 , . . . , un } di V , esistono opportuni vettori uj1 , . . . , ujs di B
tali che
V = W ⊕ L(uj1 , . . . , ujs ).
Dimostrazione: Se W = V , allora il sottospazio banale {0V } è supplementare di W .
Inoltre se W è banale, allora V è un suo supplementare. Supponiamo quindi dim(W ) 6=
0, n. Fissiamo una base B = {u1 , . . . , un } di V . Applicando il Teorema di completamento
13.6 a partire da una base B0 = {w1 , . . . , wk } di W , si ottengono vettori uj1 , . . . , ujs tali
che {w1 , . . . , wk , uj1 , . . . , ujs } è una base di V . Allora si ha V = W ⊕ L(uj1 , . . . , ujs ) in
forza della Proposizione 14.2.
2
15. Spazio vettoriale quoziente
Nel paragrafo precedente abbiamo dimostrato che ogni sottospazio W ⊂ V di uno spazio
finitamente generato è anch’esso finitamente generato e da ciò abbiamo dedotto l’esistenza
di un supplementare di W . In questo paragrafo svilupperemo un approccio alternativo agli
stessi risultati, basati sul concetto di spazio vettoriale quoziente. In maniera indipendente
da quanto visto in precedenza, proveremo l’esistenza di un supplementare di W . Da ciò si
può nuovamente dedurre che W è finitamente generato. Infatti, se U è un supplementare
di W :
V = W ⊕ U,
detta p : V → W la proiezione lineare su W determinata da tale decomposizione, allora
dalla surgettività di p segue che W dev’essere finitamente generato (Osservazione 11.11).
Sia dunque V uno spazio vettoriale sul campo K e sia W un sottospazio. Denotiamo
con ∼ la seguente relazione binaria su V :
v1 ∼ v2 ⇐⇒ v1 − v2 ∈ W.
(30)
È un semplice esercizio basato sul fatto che W è chiuso rispetto alle operazioni di V ,
mostrare che ∼ è una relazione di equivalenza su V . Denoteremo per ogni v ∈ V con [v] la
classe di ∼-equivalenza di v. Denoteremo inoltre l’insieme quoziente V /∼ = {[v]| v ∈ V }
con il simbolo:
V /W.
Vediamo ora che tale insieme può munirsi in maniera naturale di una struttura di spazio
vettoriale su K. A tale scopo, siano [u] e [v] elementi di V /W e λ ∈ K; poniamo dunque:
(31)
[u] + [v] := [u + v],
λ[v] := [λv].
Le definizioni in questione sono ben poste, ovvero determinano due applicazioni
V /W × V /W → V /W,
K × V /W → V /W.
Infatti, siano [u], [v] elementi di V /W e supponiamo che [u] si rappresenti anche come la
classe [u0 ] ed analogamente [v] = [v 0 ] per un altro vettore v 0 . Vogliamo stabilire che
[u + v] = [u0 + v 0 ].
Si ha u ∼ u0 e v ∼ v 0 , per cui:
u − u0 ∈ W, v − v 0 ∈ W
34
e quindi
(u + v) − (u0 + v 0 ) = u − u0 + v − v 0 ∈ W
il che significa che è anche (u + v) ∼ (u0 + v 0 ). In modo simile si verifica che il prodotto
esterno è ben definito.
Teorema 15.1. Le due operazioni (31) muniscono l’insieme V /W di una struttura di
spazio vettoriale su K.
Lasciamo al lettore la verifica di tutti i dettagli; ci limitiamo ad osservare che il vettore
nullo di V /W è la classe [0] e che, per ogni [v] ∈ V /W , il vettore opposto è dato dalla
classe [−v]. Il fatto che l’operazione di somma è associativa e commutativa e la validità
degli assiomi B) e C) di spazio vettoriale, sono tutte conseguenze delle analoghe proprietà
dello spazio V . A titolo di esempio, verifichiamo la proprietà (a) dell’assioma C): siano
λ, µ ∈ K e [v] ∈ V /W ; allora applicando la (31):
(λµ)[v] = [(λµ)v] = [λ(µv)] = λ[µv] = λ(µ[v]).
Denotiamo ora con π : V → V /W la proiezione (o surgezione) canonica, definita da:
∀v ∈ V
π(v) := [v].
È immediata conseguenza delle (31) che π è lineare e quindi, essendo surgettiva, è un
epimorfismo. Un’ulteriore proprietà importante di π è la seguente:
Proposizione 15.2. Risulta Ker(π) = W .
Dimostrazione: Infatti, per definizione di nucleo, essendo [0] il vettore nullo di V /W :
v ∈ Ker(π) ⇐⇒ π(v) = [0] ⇐⇒ [v] = [0] ⇐⇒ v ∼ 0 ⇐⇒ v − 0 ∈ W ⇐⇒ v ∈ W.
2
Quanto discusso fin qui non necessita di alcuna ipotesi su V . Ora, supponiamo che V
sia finitamente generato, di dimensione n > 0 ed esponiamo una dimostrazione alternativa
del Teorema 14.3. Consideriamo naturalmente il caso non banale W 6= V . Notiamo che
V /W non può essere banale, perchè altrimenti risulterebbe π = 0 e quindi V = Ker(π) =
W . Assegnata dunque una base B = {u1 , . . . , un } di V , vogliamo provare che esistono
opportuni vettori uj1 , . . . , ujs di B tali che
(32)
V = W ⊕ L(uj1 , . . . , ujs ).
Essendo π un epimorfismo, V /W è finitamente generato e π(u1 ), . . . , π(un ) ne è un sistema
di generatori. Applicando il Teorema 12.2, si estragga da tale sistema di generatori una
base B0 = {π(uj1 ), . . . , π(ujs )}. Proviamo dunque che vale (32). Sia v ∈ W ∩ L(uj1 , . . . , ujs );
allora per la proposizione precedente π(v) = 0. D’altra parte possiamo scrivere v come
una combinazione lineare del tipo:
s
X
v=
λi uji
i=1
da cui, applicando π, e sfruttandone la linearità:
s
X
0=
λi π(uji )
i=1
35
e quindi per ogni i dev’essere λi = 0 perchè i vettori π(uj1 ), . . . , π(ujs ) sono indipendenti.
Quindi v = 0 e resta cosı̀ stabilito che W ∩ L(uj1 , . . . , ujs ) = {0}. Infine, sia v ∈ V ; allora
π(v) si scrive in modo unico come
π(v) =
s
X
λi π(uji )
i=1
per opportuni scalari λi , da cui
π(v −
s
X
λi uji ) = 0
i=1
ovvero z := v −
Ps
i=1 λi uji
∈ Ker(π) = W , e possiamo scrivere
v=z+
s
X
λi uji
i=1
e con ciò è provato che V = W + L(uj1 , . . . , ujs ).
Questo conclude la dimostrazione; si noti che, come preannunciato all’inizio del paragrafo, non si è utilizzato il fatto che W è finitamente generato.
16. Formule notevoli per il calcolo della dimensione
Teorema 16.1. Siano V1 e V2 due K-spazi vettoriali di dimensione finita. Allora
dim(V1 × V2 ) = dim(V1 ) + dim(V2 ).
La dimostrazione è conseguenza immediata dei due risultati seguenti.
Lemma 16.2. Siano V1 , V2 , W1 , W2 spazi vettoriali su K. Allora
V1 ∼
= W 1 ∧ V2 ∼
= W2 ⇒ V1 × V2 ∼
= W1 × W2 .
Dimostrazione: Siano assegnati due isomorfismi fi : Vi → Wi , i = 1, 2. A partire da
essi possiamo definire un’applicazione f : V1 × V2 → W1 × W2 come segue
∀(v1 , v2 ) ∈ V1 × V2
f (v1 , v2 ) := (f1 (v1 ), f2 (v2 )).
Tale applicazione è lineare; ciò può verificarsi direttamente oppure osservando che le sue
componenti V1 × V2 → Wi , i = 1, 2, sono le applicazioni composte
p1
f1
V1 × V2 → V 1 → W 1 ,
p2
f2
V1 × V 2 → V 2 → W 2 .
È un semplice esercizio verificare inoltre che si tratta di una bigezione4.
2
Lemma 16.3. Siano n, m ∈ N. Allora
Kn × Km ∼
= Kn+m .
4La bigettività di f è un fatto che prescinde dalla linearità delle funzioni coinvolte; nel caso in questione
l’ingettività può anche provarsi rapidamente utilizzando il fatto che entrambi i nuclei delle fi sono banali.
36
Dimostrazione:
l’applicazione
L’asserto è banale se n = 0 oppure m = 0; ad esempio se n = 0,
K0
Km
realizza un isomorfismo
×
→
sufficiente considerare l’applicazione
(0, x) 7→ x
Nel caso in cui n, m siano entrambi positivi, è
Km .
((x1 , . . . , xn ), (y1 , . . . , ym )) ∈ Kn × Km 7→ (x1 , . . . , xn , y1 , . . . , ym ) ∈ Kn+m .
Si lascia al lettore la verifica che si tratta di un isomorfismo; si noti che anche in questo caso
le funzioni componenti dell’applicazione in questione sono lineari in quanto composizione
di applicazioni lineari, del tipo
α
q
β
q0
Kn × Km → Kn → K
o del tipo
Kn × Km → Km → K
dove α, β e q, q 0 sono tutte proiezioni.
2
Corollario 16.4. Sia V uno spazio vettoriale su K di dimensione finita e siano U, W
sottospazi supplementari di V , ovvero
V = U ⊕ W.
Allora
dim(V ) = dim(U ) + dim(W ).
Dimostrazione: Sappiamo infatti che la somma diretta U ⊕ W è uno spazio isomorfo
al prodotto diretto U × W (Teorema 8.9).
2
Teorema 16.5. (Teorema del rango) Siano V e V 0 spazi vettoriali sullo stesso campo K.
Si assuma che V sia finitamente generato. Sia f : V → V 0 un’applicazione lineare. Allora
anche Im(f ) è finitamente generato ed inoltre
(33)
dim(V ) = dim(Ker(f )) + dim(Im(f )).
Dimostrazione: Osserviamo in prima istanza che l’applicazione ridotta di f ,
f# : V → Im(f )
è lineare e surgettiva; poichè V è finitamente generato, tale dev’essere Im(f ) (cf. Osservazione 11.11).
Proviamo ora la (33). Fissiamo un sottospazio W di V supplementare di Ker(f ) (il
Teorema 14.3 ne garantisce l’esistenza). Allora da
V = Ker(f ) ⊕ W
segue
Im(f ) = f (V ) = f (Ker(f )) + f (W ) = {0V 0 } + f (W ) = f (W ).
Denotiamo con g la ridotta della restrizione di f a W , g = (f |W )# : W → g(W ). Poichè
g(W ) = f (W ) = Im(f ), g è di fatto un’applicazione g : W → Im(f ). Naturalmente g è
lineare e surgettiva. Mostriamo che è un isomorfismo. Infatti, sia z ∈ Ker(g); allora z ∈ W
e g(z) = f (z) = 0V 0 , da cui z ∈ W ∩ Ker(f ). Poichè W ∩ Ker(f ) = {0V } concludiamo
37
che z = 0. Resta provato che Ker(g) = {0V }, ovvero che g è ingettiva. Pertanto g è un
isomorfismo e quindi
dim(W ) = dim(Im(f )).
D’altra parte, applicando il risultato del Corollario 16.4, si ottiene
dim(V ) = dim(W ) + dim(Ker(f )) = dim(Im(f )) + dim(Ker(f )).
2
Definizione 16.6. Sia f : V → V 0 un’applicazione lineare tra K-spazi vettoriali, con V
finitamente generato. La dimensione di Im(f ) prende il nome di rango di f e si denoterà
con rg(f ).
Osservazione 16.7. Conviene mettere in evidenza esplicitamente che, se B = {v1 , . . . , vn }
è una base di V , allora5
(34)
Im(f ) = L(f (v1 ), . . . , f (vn )).
Notiamo anche che il Teorema del rango implica che la dimensione di Im(f ) non può
mai superare la dimensione dello spazio di partenza V . Anzi vale quanto segue:
Corollario 16.8. Sia f : V → V 0 un’applicazione lineare tra K-spazi vettoriali, con V
finitamente generato di dimensione n. Allora
f è ingettiva
⇐⇒ rg(f ) = n.
Dimostrazione: Infatti, f è ingettiva se e solo se dim(Ker(f )) = 0.
2
Corollario 16.9. Sia f : V → V 0 un’applicazione lineare tra K-spazi vettoriali, con V e
V 0 entrambi finitamente generati, di dimensioni rispettivamente n ed m. Allora
1) f ingettiva ⇒ n ≤ m.
2) f surgettiva ⇒ n ≥ m.
Dimostrazione: 1) è conseguenza del Corollario precedente, avendosi, se f è ingettiva,
n = dim(Im(f )) ≤ m. Riguardo 2), se f è surgettiva, allora n = dim(Ker(f )) + m ≥ m.
2
Osservazione 16.10. La proprietà 1) dell’enunciato precedente generalizza il risultato
del Teorema 7.3.
Teorema 16.11. Sia f : V → V 0 un’applicazione lineare tra K-spazi vettoriali di dimensione finita. Si assuma che
dim(V ) = dim(V 0 ).
Allora le seguenti proprietà sono equivalenti:
a) f è ingettiva
b) f è surgettiva
c) f è un isomorfismo.
5Naturalmente, non è detto che i vettori f (v ), . . . , f (v ) costituiscano una base di Im(f ).
1
n
38
Dimostrazione: È sufficiente dimostrare che a) e b) sono equivalenti. Infatti, tenendo
conto del Corollario 16.8:
f ingettiva ⇐⇒ dim(V ) = dim(Im(f )) ⇐⇒ dim(V 0 ) = dim(Im(f )) ⇐⇒ f surgettiva.
2
Teorema 16.12. (Formula di Grassmann) Sia V uno spazio vettoriale di dimensione
finita. Siano U1 e U2 due sottospazi di V . Allora:
(35)
dim(U1 + U2 ) = dim(U1 ) + dim(U2 ) − dim(U1 ∩ U2 ).
Dimostrazione: Consideriamo l’applicazione
ψ : U1 × U2 → U1 + U2
studiata nel §8 e definita da ψ(u1 , u2 ) = u1 + u2 . Poichè ψ è surgettiva, applicando la (33)
e tenendo conto del Teorema 16.1, otteniamo:
dim(U1 + U2 ) = dim(U1 × U2 ) − dim(Ker(ψ)) = dim(U1 ) + dim(U2 ) − dim(Ker(ψ)).
D’altra parte sappiamo che Ker(ψ) = {(u, −u)| u ∈ U1 ∩ U2 } (cf. (15)), il che implica che
Ker(ψ) ∼
= U1 ∩ U2 ;
infatti, un isomorfismo tra questi spazi è dato dall’applicazione
u ∈ U1 ∩ U2 7→ (u, −u) ∈ Ker(ψ).
Dunque dim(Ker(ψ)) = dim(U1 ∩ U2 ) e ciò conclude la dimostrazione.
2
Corollario 16.13. Siano U1 e U2 due sottospazi di uno spazio vettoriale V di dimensione
n > 0. Allora, se
dim(U1 ) + dim(U2 ) > n,
risulta
U1 ∩ U2 6= {0}.
Dimostrazione: Infatti, se fosse U1 ∩ U2 = {0}, dalla (35) si ricaverebbe
dim(U1 + U2 ) = dim(U1 ) + dim(U2 ) > n
2
il che è assurdo.
17. Componenti di un vettore rispetto ad una base; teorema di esistenza
ed unicità per applicazioni lineari
Consideriamo uno spazio vettoriale V finitamente generato sul campo K, di dimensione
n ≥ 1. Fissiamo una base B = {v1 , . . . , vn } di V . Allora ogni vettore v ∈ V si scrive in
modo unico come combinazione lineare dei vettori v1 , . . . , vn ; in simboli
n
X
∀v ∈ V ∃|(x1 , . . . , xn ) ∈ Kn : v =
xi vi .
i=1
Ciò è conseguenza immediata del fatto P
che l’applicazione lineare ϕB : Kn → V , studiata
nel §11 e definita da ϕB (x1 , . . . , xn ) = ni=1 xi vi , è una bigezione (cf. Corollario 11.14).
Peraltro la stessa proprietà può verificarsi direttamente utilizzando la definizione stessa di
39
base; è chiaro che gli scalari x1 , . . . , xn esistono per definizione di sistema di generatori.
Se poi
n
n
X
X
v=
xi vi =
yi vi
i=1
allora
n
X
i=1
(xi − yi )vi = 0
i=1
da cui per l’indipendenza dei vettori v1 , . . . , vn , segue xi = yi per ogni i.
Ha senso allora dare la seguente
Definizione 17.1. Si chiameranno componenti
di un vettore v ∈ V rispetto alla base
P
B gli scalari x1 , . . . , xn tali che v = ni=1 xi vi .
Naturalmente la nozione introdotta dipende strettamente dalla scelta della base. Studieremo in seguito come cambiano le componenti di un vettore al variare della base. Giova
osservare anche che l’ordine assegnato ai vettori di B è essenziale nella definizione delle
componenti.
Come applicazione della nozione di componenti, dimostriamo il seguente risultato importante che permette di costruire applicazioni lineari V → W , dove W è un arbitrario
K-spazio vettoriale.
Teorema 17.2. (Esistenza ed unicità delle applicazioni lineari) Siano V e W spazi
vettoriali sul campo K e si assuma V di dimensione finita n > 0. Si fissi una base
B = {v1 , . . . , vn } di V .
a) Date due applicazioni lineari f, g : V → W si ha
f = g ⇐⇒ ∀i ∈ {1, . . . , n}
f (vi ) = g(vi ).
b) Siano w1 , . . . , wn vettori di W arbitrari. Allora esiste una ed una sola applicazione
lineare f : V → W tale che
∀i ∈ {1, . . . , n}
(36)
f (vi ) = wi .
Dimostrazione: a) Siano f, g : V → W lineari e siP
assuma che f (vi ) = g(vi ) per ogni
i ∈ {1, . . . , n}. Sia v ∈ V ; allora possiamo scrivere v = ni=1 xi vi da cui per la linearità di
entrambe le applicazioni:
n
n
n
n
X
X
X
X
f (v) = f (
xi vi ) =
xi f (vi ) =
xi g(vi ) = g(
xi vi ) = g(v)
i=1
i=1
i=1
i=1
e stante l’arbitrarietà di v abbiamo che f = g.
b) Assegnati i vettori w1 , . . . , wn , definiamo un’applicazione f : V → W nel modo
seguente:
n
X
f (v) :=
xi wi , dove (x1 , . . . , xn ) sono le componenti di v rispetto a B.
i=1
Si osservi che la definizione è ben posta per l’unicità delle
diP
ciascun vettore
Pn componenti
n
0
v di V . L’applicazione f è lineare; infatti, se v =
i=1 yi vi allora
i=1 xi vi e v =
40
P
0
v + w = ni=1 (xi + yi )vP
i , ovvero v + v ha componenti (x1 + y1 , . . . , xn + yn ) e quindi per
n
definizione f (v + w) = i=1 (xi + yi )wi , da cui
f (v + w) =
n
X
(xi + yi )wi =
i=1
n
X
xi wi +
i=1
n
X
yi wi = f (v) + f (v 0 ).
i=1
In modo analogo si verifica che f (λv) = λf (v) per ogni λ ∈ K e v ∈ V . Infine, proviamo
che f soddisfa (36). Infatti, notiamo che per ogni i ∈ {1, . . . , n}, risulta
(37)
vi = 0v1 + · · · + 0vi−1 + 1vi + 0vi+1 + · · · + vn
ovvero per ogni i le componenti di vi sono tutte nulle tranne la i-ma che è pari ad 1.
Dunque direttamente dalla definizione di f , è f (vi ) = wi . L’unicità di f è conseguenza
della proposizione a).
2
Mediante il Teorema precedente possiamo classificare tutte le applicazioni lineari Kn → Km
come segue:
Proposizione 17.3. Siano n, m ≥ 1 interi e sia L : Kn → Km un’applicazione lineare.
Esiste una ed una sola matrice A ∈ Mm,n (K) tale che
L = LA .
Dimostrazione: Consideriamo i vettori wi = L(ei ) dove {e1 , . . . , en } è la base canonica di Kn . Denotiamo con A la matrice in Mm,n (K) la cui colonna i-ma è wi , cioè
A = (w1 · · · wn ). Allora
LA (ei ) = Aei = A(i) = wi = L(ei )
e quindi per la a) del Teorema precedente L = LA . Quanto all’unicità di A, se B è tale
che LB = L, allora LB = LA da cui per il Teorema 9.19, A = B.
2
18. Rango di una matrice
Definizione 18.1. Sia A ∈ Mm,n (K) una matrice a coefficienti in un campo K. Denoteremo con R(A) (risp. C(A)) il sottospazio di Kn (risp. di Km ) generato dalle righe (risp.
dalle colonne) di A. In simboli:
R(A) := L(A(1) , . . . , A(m) ), C(A) := L(A(1) , . . . , A(n) ).
La dimensione di R(A) si chiama rango per righe di A; la dimensione di C(A) si
chiama rango per colonne di A. Denoteremo con r(A) il rango per righe e con c(A) il
rango per colonne.
Proposizione 18.2. Siano A e B due matrici moltplicabili. Allora
r(AB) ≤ r(B), c(AB) ≤ c(A).
Dimostrazione: Sappiamo infatti che ogni riga di AB è combinazione delle righe di B
(cf. (20)), dunque R(AB) ⊂ R(B), da cui r(AB) ≤ r(B). Analogamente, ogni colonna di
AB è combinazione delle colonne di A; quindi C(AB) ⊂ C(B) e pertanto c(AB) ≤ c(A).
2
Il prossimo risultato è notevole.
Teorema 18.3. Il rango per righe ed il rango per colonne di una matrice coincidono.
41
Dimostrazione: Notiamo in primo luogo che per provare l’asserto è sufficiente dimostrare che per ogni matrice a coefficienti in K, si ha c(A) ≤ r(A). Infatti, supposto di
aver dimostrato ciò, allora fissata una matrice A, applicando tale proprietà sia ad A che
alla sua trasposta, deve aversi
c(A) ≤ r(A) e c(tA) ≤ r(tA).
D’altra parte, è chiaro per definizione stessa di trasposta che r(tA) = c(A) e c(tA) = r(A),
sicchè concludiamo che
c(A) ≤ r(A) e r(A) ≤ c(A)
e quindi r(A) = c(A).
Sia quindi A ∈ Mm,n (K) una matrice qualsiasi non nulla; dunque r := r(A) > 0; esiste
allora una base di R(A) del tipo
B = {A(i1 ) , . . . , A(ir ) }
i1 < · · · < ir .
Utilizzando tali righe, costruiamo una matrice à di tipo r × n:
 (i ) 
A 1
 .. 
à :=  .  .
A(ir )
Ogni riga di A è combinazione lineare delle righe di B:
(38)
A
(i)
=
r
X
αki A(ik )
i = 1, . . . , m.
k=1
Costruiamo con i coefficienti αki un’altra matrice H := (αki ) di tipo m × r. Ora, le relazioni
(38) possono interpretarsi in termini di prodotto righe per colonne e sono equivalenti a
A = H Ã.
In particolare, utilizzando la Proposizione precedente si ottiene che
c(A) ≤ c(H) ≤ r
2
e ciò prova che c(A) ≤ r(A).
Ha senso dunque parlare di rango di una matrice A senza specificare se si fa riferimento
alle righe od alle colonne; esso verrà denotato con il simbolo
rg(A).
Osserviamo che, date due matrici A e B moltiplicabili, risulta
rg(AB) ≤ rg(A), rg(AB) ≤ rg(B).
Il risultato che segue mette in relazione la nozione di rango ora introdotta con quella
precedentemete studiata nel contesto delle applicazioni lineari.
Proposizione 18.4. Sia A ∈ Mm,n (K). Allora
rg(A) = rg(LA ).
42
Dimostrazione: Infatti,
rg(A) = dimC(A) = dimL(A(1) , . . . , A(n) ) =
dimL(Ae1 , . . . , Aen ) = dimL(LA (e1 ), . . . , LA (en )) = dimIm(L) = rg(LA ).
2
Teorema 18.5. Sia A ∈ Mn (K). Allora
rg(A) = n ⇐⇒ LA è un isomorfismo.
Dimostrazione: Infatti, poichè gli spazi di partenza e di arrivo di LA coincidono
entrambi con Kn , utilizzando il Teorema 16.11, abbiamo
LA è un isomorfismo ⇐⇒ LA è surgettiva ⇐⇒ rg(LA ) = n ⇐⇒ rg(A) = n.
2
19. Matrici invertibili
Definizione 19.1. Sia A ∈ Mn (K) una matrice quadrata di ordine n ≥ 1. Si dirà che A
è invertibile se esiste una matrice B ∈ Mn (K) tale che
(39)
AB = In = BA.
È facile verificare che, se A è invertibile, allora esiste una ed una sola6 matrice B ∈
Mn (K) che soddisfa (39). Tale matrice si denoterà con A−1 e verrà chiamata matrice
inversa di A.
Naturalmente, In è invertibile e coincide con la propria inversa.
L’insieme di tutte le matrici invertibili di ordine n verrà denotato con il simbolo
GL(n, K).
Tale insieme è canonicamente dotato di una struttura di gruppo, la cui operazione è il
prodotto righe per colonne, ed il cui elemento neutro è In .
Teorema 19.2. Sia A ∈ Mn (K). Allora
A ∈ GL(n, K) ⇐⇒ rg(A) = n.
Dimostrazione: Supponiamo che A sia invertibile e sia B la sua inversa. Dalle (39)
segue
LAB = LIn = LBA
che possiamo riscrivere
LA ◦ LB = IdKn = LB ◦ LA .
Queste relazioni affermano che LA è bigettiva con inversa LB , ovvero LA è un isomorfismo.
Dunque rg(A) = n per il Teorema 18.5. Supponiamo ora che rg(A) = n. Allora, ancora
per il Teorema 18.5, LA è un isomorfismo. Sia L : Kn → Kn l’applicazione inversa di LA ,
di modo che
LA ◦ L = IdKn = L ◦ LA .
6Si osservi che una matrice invertibile A altri non è che un elemento invertibile dell’anello unitario
(Mn (K), +, ·). L’unicità della matrice inversa è dunque conseguenza di un risultato di carattere generale.
43
Sappiamo che anche L è lineare (Prop. 1.15). Allora, in forza della Proposizione 17.3,
esiste B ∈ Mn (K) tale che
L = LB .
Dunque
LA ◦ LB = IdKn = LB ◦ LA
da cui
LAB = LIn = LBA
il che comporta per il Teorema 9.19 che AB = In = BA e pertanto A è invertibile.
2
Proposizione 19.3. Sia A ∈ Mm,n (K) e siano C ∈ GL(m, K) e D ∈ GL(n, K). Allora
rg(CA) = rg(A) = rg(AD).
Dimostrazione: Possiamo scrivere:
A = Im A = C −1 CA
da cui, applicando due volte il fatto che il rango di un prodotto di matrici non supera il
rango di entrambi i fattori:
rg(A) = rg(C −1 (CA)) ≤ rg(CA) ≤ rg(A).
In modo simile si prova che rg(A) = rg(AD).
2
20. Calcolo del rango mediante riduzione per righe
Di seguito descriveremo un efficace metodo per il calcolo del rango, noto come metodo
di riduzione per righe di Gauss-Jordan.
Definizione 20.1. Una matrice A ∈ Mm,n (K) si dice ridotta per righe se ogni riga
non nulla A(i) contiene un elemento aij non nullo tale che asj = 0 per ogni s > i. Un tale
elemento prende il nome di pivot di A.
Esempio 20.2. La matrice


1 0 1 1
A = 2 1 0 2
3 0 0 3
è ridotta per righe: sono pivots gli elementi a13 , a22 ed entrambi gli elementi a31 e a34 .
Teorema 20.3. Il rango di una matrice ridotta per righe coincide con il numero r delle
sue righe non nulle.
Siano inoltre A(i1 ) , . . . , A(ir ) le righe non nulle di una matrice ridotta A, i1 < · · · < ir .
Scelto su ciascuna riga A(ik ) un pivot occupante la colonna jk , risulta che le colonne
corrispondenti A(j1 ) , . . . , A(jr ) sono indipendenti e costituiscono una base di C(A).
Dimostrazione: Se A = 0 l’asserto è banale. Supponiamo quindi A 6= 0. È sufficiente
mostrare che le righe non nulle di A sono linearmente indipendenti. Si scelgano sulle righe
i pivots, occupanti le colonne7 j1 , . . . , jr . Consideriamo una combinazione lineare nulla
(40)
λ1 A(i1 ) + · · · + λk A(ik ) = 0.
7Ovviamente, non è detto che gli indici j , . . . , j siano in ordine crescente
1
r
44
Il vettore a primo membro appartiene a Kn ; la sua componente j1 -ma è data da
λ1 aij11
in quanto, per definizione di pivot, asj1 = 0 per ogni s > i1 . Dunque dalla (40) segue che
λ1 aij11 = 0 e quindi λ1 = 0 perchè aij11 6= 0. Sostituendo quindi in (40) ricaviamo
λ2 A(i2 ) + · · · + λk A(ik ) = 0.
Considerando ora la componente j2 -ma si ricava che λ2 aij22 = 0 e quindi λ2 = 0. Procedendo
in questo modo si ottiene che tutti i coefficienti λi sono nulli.
Proviamo l’ultima affermazione. Poichè r è anche il rango per colonne di A, si tratta ancora di provare che le colonne A(j1 ) , . . . A(jr ) sono linearmente indipendenti. Consideriamo
quindi una combinazione nulla
λ1 A(j1 ) + · · · + λr A(jr ) = 0.
(41)
Valutando la componente di indice ir si ottiene
λr aijrr = 0
perchè per definizione dei pivots sulle righe diversa da A(ir ) abbiamo aijrk = 0 per ogni k < r,
essendo ir > ik . Dunque λr = 0. Sostituendo in (41) e ripetendo il ragionamento valutando
successivamente le componenti di indice ir−1 , . . . , i1 si ottiene che tutti i coefficienti λk sono
nulli.
2
Introduciamo ora una operazione elementare con la quale si può modificare una matrice,
cambiandone le righe, ma in modo da non alterarne il rango. Tale operazione consiste nel
sostituire una riga A(j) con una combinazione lineare del tipo:
αA(j) + βA(i) ,
α 6= 0,
i 6= j.
Scriveremo simbolicamente
(42)
A(j) → αA(j) + βA(i)
per indicare una tale sostituzione; inoltre se S è la matrice ottenuta da A effettuando una
o più di tali operazioni su righe diverse, scriveremo:
A → S.
Osserviamo che la sostituzione (42) non altera lo spazio generato dalle righe, cioè
A → S ⇒ R(A) = R(S).
Dunque in particolare, se A → S, allora
rg(A) = rg(S).
Notiamo anche che ciascuna operazione (42) corrisponde ad effettuare il prodotto
ZA
45
dove Z ∈ Mm (K) è la matrice


e1
 ···



 ej−1 



Z=
αej + βei  .
 ej+1 


 ···

em
Tale matrice è quella che si ottiene
 effettuando la corrispondente operazione elementare
e1
 .. 
sulla matrice identica Im =  . . In particolare, rg(Z) = rg(Im ) = m e pertanto
em
Z ∈ GL(m, K).
Da ciò segue subito, essendo il prodotto di matrici invertibili anch’esso invertibile, che
se A → S, allora esiste una matrice invertibile Z ∈ GL(m, K) tale che S = ZA.
Teorema 20.4. Ogni matrice A si può trasformare, mediante una sequenza finita di
operazioni elementari, in una matrice ridotta per righe. Più precisamente, esiste una
sequenza finita di matrici S1 , . . . , Sk in Mm,n (K) tale che
A → S1 → S 2 → · · · → S k
e Sk è ridotta per righe.
Dimostrazione: Descriviamo un algoritmo per ottenere la sequenza Si . Sia A(i1 ) la
prima riga non nulla di A (se non esiste, A = 0 e quindi A è già ridotta); si scelga un
elemento aij11 non nullo di A(i) . Operando su ciascuna riga successiva con la sostituzione
A(s) → aij11 A(s) − asj1 A(i1 )
si ottiene una nuova matrice S1 = (bij ) tale che bsj1 = 0 per ogni s > i1 . Dunque A → S1 .
Ora, se tutte le righe di S1 successive alla i1 -ma sono nulle, S1 è ridotta per righe con pivot
bij11 = aij11 sulla riga i1 -ma e colonna j1 -ma. In caso contario, si opera su S1 prendendo in
condiderazione la prima riga non nulla di indice maggiore di i1 , scegliendo un elemento
non nullo di tale riga e ripetendo quanto fatto in precedenza. Si procede finchè vi sono
righe non nulle con cui operare.
2
Esempio 20.5. Applicando l’algoritmo descritto nella dimostrazione precedente alla matrice A ∈ M4,5 (R) indicata di seguito si ottiene:
46

 

2 1 2
1 0
2 1
2

0 2 1 
1 −1 
 →  0 3 −2 →


1 1 2
0 3
1 1
2 
2 4 5
0 9
0 3
3
A
S1

 

1 0
2 1
2
1 0
2 1
2
 0 3 −2 
1 −1 
1 −1 

 →  0 3 −2 
 0 0


3 0
3
0 0
3 0
3 
0 0
6 0
6
0 0
0 0
0
S3
S2
Abbiamo cerchiato gli elementi che ad ogni passo vengono scelti per “divenire” pivots.
Dunque rg(A) = rg(S3 ) = 3.
1
 1

 0
1
0
3
3
9
Notiamo che, utilizzando il risultato precedente, si ottiene, determinando la matrice
ridotta Sk , non solo il rango di A, ma anche una base dello spazio R(A) generato dalle
righe; una tale base è costituita dalle righe non nulle di Sk .
Il procedimento di riduzione altera invece lo spazio C(A) generato dalle colonne. Dimostreremo però che lo stesso procedimento permette facilmente di determinare una base
di C(A), estraendo da {A(1) , . . . , A(n) } una base {A(j1 ) , . . . , A(jr ) }: semplicemente, gli indici colonna j1 , . . . , jr da scegliersi sono quelli delle colonne occupate dai pivots di Sk . Allo
scopo di provare quest’affermazione, proviamo un risultato di carattere generale.
Teorema 20.6. Siano A, S ∈ Mm,n (K) e si assuma che esista Z ∈ GL(m, K) tale che
S = ZA.
Allora, se S(j1 ) , . . . , S(jp ) sono colonne di S indipendenti, tali sono le colonne corrispondenti A(j1 ) , . . . , A(jp ) di A.
Dimostrazione:
p
X
Si assuma che
p
X
λk A(jk ) = 0. Allora
k=1
k=1
λk LA (ejk ) = 0, che possiamo ancora riscrivere
k=1
p
X
LA (
λk ejk ) = 0.
k=1
Ora, dall’ipotesi segue, poichè Z è invertibile
A = Z −1 S
da cui:
LA = LZ −1 ◦ LS .
Dunque
(LZ −1
p
X
p
X
◦ LS )(
λk ejk ) = 0
k=1
λk Aejk = 0, ovvero
47
cioè
p
X
LZ −1 (LS (
λk ejk )) = 0
k=1
e poichè LZ −1 è un isomorfismo (Teorema 18.5):
p
X
LS (
λk ejk ) = 0
k=1
che possiamo riscrivere
p
X
λk S(jk ) = 0.
k=1
Otteniamo infine λk = 0 per ogni k essendo le colonne S(j1 ) , . . . , S(jp ) indipendenti.
2
Corollario 20.7. Sia A ∈ Mm,n (K) e sia assegnata una sequenza di matrici S1 , . . . , Sk
tali che
A → S1 → S 2 → · · · → Sk
e S := Sk è ridotta per righe.
Si scelga su ciascuna riga non nulla di S un pivot; dette j1 , . . . , jr le colonne occupate
da tali pivots, si ha che le colonne corrispondenti A(j1 ) , . . . , A(jr ) di A sono linearmente
indipendenti, ovvero formano una base di C(A).
Dimostrazione: Sappiamo che da A → S1 segue che S1 = Z1 A per un’opportuna
Z1 ∈ GL(m, K). Analogamente, Si = Zi Si−1 per i > 1. Dunque
S = (Zk · · · Z1 )A.
L’asserto segue applicando il Teorema precedente, perchè le colonne S(j1 ) , . . . , S(jr ) sono
indipendenti.
2
Esempio 20.8. Facendo riferimento all’Esempio 20.5 otteniamo che una base di C(A) è
costituita dalle colonne A(1) , A(3) , A(4) . Un’altra base è {A(1) , A(2) , A(3) }.
21. Matrice associata ad un insieme di vettori
Sia assegnato uno spazio vettoriale V di dimensione n > 0 e si fissi una sua base
B = {v1 , . . . , vn }. Ha senso definire l’applicazione
ψB : V → Kn
che associa ad ogni vettore v ∈ V la n-pla delle sue componenti (x1 , . . . , xn ) rispetto a B,
cioè ψB è l’applicazione V → Kn caratterizzata da
(43)
ψB (v) = (x1 , . . . , xn ) ⇐⇒ v =
X
xi vi .
Notiamo che tale applicazione altri non è che l’applicazione inversa ϕ−1
B dell’isomorfismo
ϕB : Kn → V studiato nel §11 . In particolare, anche ψB è un isomorfismo.
Notiamo anche che
(44)
ψB (vi ) = ei
Ciò segue direttamente dalla (37).
∀i ∈ {1, . . . , n}.
48
Nel seguito, se ψB (v) = (x1 , . . . , xn ) è la n-pla delle componenti di
 unvettore v ∈ V ,
x1
 .. 
essa verrà identificata, laddove è conveniente, con il vettore colonna  .  e si chiamerà
xn
il vettore delle componenti di v rispetto alla base assegnata.
Definizione 21.1. Sia u1 , . . . , uk una successione finita di vettori arbitrari di V , k ≥ 1.
Si chiamerà matrice associata a tali vettori rispetto alla base B, la matrice con n
righe e k colonne, la cui colonna j-ma è il vettore delle componenti di uj rispetto a B,
ovvero è la matrice
(45)
(ψB (u1 ) ψB (u2 )
···
ψB (uk )).
Lemma 21.2. Sia f : V → V 0 un isomorfismo tra K-spazi vettoriali entrambi di dimensione finita. Allora per ogni sottospazio W di V si ha
dim(W ) = dim(f (W )).
Dimostrazione: Basta osservare che la ridotta della restrizione (f|W )# : W → f (W )
è un isomorfismo tra W e f (W ).
2
L’utilità della nozione di matrice associata ad un insieme di vettori è stabilita dal
risultato seguente.
Teorema 21.3. Sia u1 , . . . , uk una successione finita di vettori di V , k ≥ 1. Sia B una
base di V e sia A la matrice associata a tali vettori rispetto alla base B. Allora
rg(A) = dim(L(u1 , . . . , uk )).
Dimostrazione: Poichè ψB è un isomorfismo, in forza del Lemma precedente abbiamo
dim(L(u1 , . . . , uk )) = dimL(ψB (u1 ), . . . , ψB (uk )) = dimL(A(1) , . . . , A(k) ) = dimC(A) = rg(A).
2
22. Relazione tra matrici ed applicazioni lineari
Siano V e W due spazi vettoriali non banali sullo stesso campo K, entrambi finitamente
generati, aventi dimensioni n ed m rispettivamente.
Definizione 22.1. Siano fissate due basi B = {v1 , . . . , vn } e C = {w1 , . . . , wm } di V e
di W rispettivamente. Sia f : V → W un’applicazione lineare. Si chiamerà matrice
associata ad f rispetto alle basi B e C, la matrice associata alla successione di vettori
f (v1 ), . . . , f (vn ) di W rispetto alla base C. Tale matrice si denoterà con uno dei simboli
C
MB
(f ), MB,C (f ), M (f )(B, C).
Dunque, per definizione (cf. (45)):
(46)
MB,C (f ) = (ψC (f (v1 )) ψC (f (v2 ))
Km
···
ψC (f (vn ))).
essendo al solito ψC : W →
l’isomorfismo che associa ad ogni vettore di W il vettore
delle sue componenti rispetto alla base C. Chiaramente, MB,C (f ) è una matrice di tipo
m × n.
49
Osservazione 22.2. Esplicitamente, la matrice MB,C (f ) si costruisce come segue: per
ogni j = 1, . . . , n, il vettore f (vj ) si esprime come combinazione lineare, in modo unico,
dei vettori wi :
m
X
f (vj ) =
αji wi .
i=1
Abbiamo dunque:
MB,C (f ) = (αji )
dove al solito i è l’indice riga, mentre j è l’indice colonna.
Esempio 22.3. Consideriamo i sottospazi V1 e V2 di M2 (R):
V1 = {A ∈ M2 (R)| tr(A) = 0}, V2 = {A ∈ M2 (R)| A = tA}.
Il lettore verifichi che entrambi hanno dimensione
1 0
0 1
0
B=
,
,
0 −1
0 0
1
3; una base B di V1 è data da
0
=: {E1 , E2 , E3 }
0
mentre una base di V2 è
1 0
0 1
0 0
C=
,
,
=: {E10 , E20 , E30 }.
0 0
1 0
0 1
Consideriamo ora l’applicazione f : V1 → V2 definita da
f (A) := A + tA
∀A ∈ V1 .
Si stabilisce subito che f è lineare in forza delle proprietà dell’operazione
di trasposizione.
a b
Determiniamo la matrice MB,C (f ). Notiamo che, se B =
è una generica matrice
b c
di V2 , allora
1 0
0 1
0 0
B=a
+b
+c
= aE10 + bE20 + cE30
0 0
1 0
0 1
per cui B hacomponenti
(a, b, c) rispetto a C, ovvero ψC (B) = (a, b, c). Ora, per ogni
x1 x2
matrice A =
di V1 si ha
x3 −x1
2x1
x2 + x3
f (A) =
x2 + x3 −2x1
e quindi
f (E1 ) =
0 1
2 0
0 1
, f (E2 ) =
, f (E3 ) =
0 −2
1 0
1 0
per cui per definizione:


2 0 0
MB,C (f ) =  0 1 1 .
−2 0 0
50
Teorema 22.4. Siano fissate due basi B = {v1 , . . . , vn } e C = {w1 , . . . , wm } di V e di W
rispettivamente. Sia f : V → W un’applicazione lineare. Allora
rg(MB,C (f )) = rg(f ).
Dimostrazione: Si tratta di applicare il Teorema 21.3:
rg(f ) = dim(Im(f )) = dimL(f (v1 ), . . . , f (vn )) = rg(MB,C (f )).
2
Corollario 22.5. Sia f : V → W un’applicazione lineare tra due spazi finitamente generati
aventi la stessa dimensione n ≥ 1. Siano B e C basi di V e di W rispettivamente. Allora
f è un isomorfismo ⇐⇒ MB,C (f ) ∈ GL(n, K).
Dimostrazione: Infatti, tenendo conto dei Teoremi 16.11 e 19.2:
f isomorfismo ⇐⇒ rg(f ) = n ⇐⇒ rg(MB,C (f )) = n ⇐⇒ MB,C (f ) ∈ GL(n, K).
2
Mettiamo ora in evidenza un’utile caratterizzazione della matrice associata ad un’applicazione lineare.
Teorema 22.6. Siano fissate due basi B = {v1 , . . . , vn } e C = {w1 , . . . , wm } di V e di W
rispettivamente. Sia f : V → W un’applicazione lineare. La matrice MB,C (f ) è l’unica
matrice M di tipo m×n tale che il seguente diagramma di applicazioni risulti commutativo:
f
V −→ W
ψB ↓
↓ ψC
L
M
Km
Kn −→
cioè tale che
(47)
LM ◦ ψB = ψC ◦ f.
Dimostrazione: Posto M = MB,C (f ), verifichiamo la (47). Poichè ambo i membri di
tale uguaglianza sono applicazioni lineari V → Km , è sufficiente provare che esse assumono
gli stessi valori sui vettori della base B (Teorema 17.2). Ricordando che ψB (vi ) = ei , dove
{ei } è la base canonica di Kn (cf. (44)), abbiamo infatti:
(LM ◦ ψB )(vi ) = LM (ei ) = M ei = M(i) = ψC (f (vi )) = (ψC ◦ f )(vi )
e la (47) è provata. Notiamo che da tale uguaglianza segue, essendo ψC un isomorfismo:
−1
LM = ψC ◦ f ◦ ψB
.
Da ciò segue l’unicità di M ; infatti se M 0 è un’altra matrice per cui LM 0 ◦ ψB = ψC ◦ f ,
−1
allora LM 0 = ψC ◦ f ◦ ψB
= LM da cui M 0 = M .
2
Osservazione 22.7. Nel seguito, nel caso di un endomorfismo f : V → V , la matrice
B (f ), costruita in corrispondenza di una base B di V , verrà semplicemente
associata MB
con MB (f ) e chiamata matrice associata ad f rispetto a B.
51
Esempio 22.8. Si ha, qualunque sia la base B di V :
MB (IdV ) = In ,
n = dim(V ).
Infatti, posto B = {v1 , . . . , vn }, ricordando la (44) si ottiene subito:
MB (IdV ) = ψB (IdV (v1 )) · · · ψB (IdV (vn )) = ψB (v1 ) · · · ψB (vn )) = e1 · · ·
en = In .
Teorema 22.9. Siano V , W ed U spazi vettoriali sullo stesso campo K, tutti di dimensione
finita. Siano B, C e D basi di V , W ed U rispettivamente. Siano f : V → W e g : W → U
applicazioni lineari. Allora:
C
D
(f ).
(g ◦ f ) = MCD (g)MB
MB
(48)
Dimostrazione: Sfruttiamo la caratterizzazione della matrice associata a g ◦f fornita
C (f ), dobbiamo provare che
dal Teorema precedente. Posto A = MCD (g)MB
LA ◦ ψB = ψD ◦ (g ◦ f ).
Infatti, abbiamo le relazioni
LM C (f ) ◦ ψB = ψC ◦ f,
B
LM D (g) ◦ ψC = ψD ◦ g
C
da cui
ψD ◦ (g ◦ f ) = (ψD ◦ g) ◦ f = (LM D (g) ◦ ψC ) ◦ f = LM D (g) ◦ (ψC ◦ f ) = LM D (g) ◦ LM C (f ) ◦ ψB .
C
C
C
B
Infine, tenendo conto che
LM D (g) ◦ LM C (f ) = LM D (g)M C (f ) = LA ,
C
B
C
B
perveniamo a
ψD ◦ (g ◦ f ) = LA ◦ ψB
2
come volevasi.
Corollario 22.10. Sia f : V → W un isomorfismo tra due spazi finitamente generati
aventi dimensione n ≥ 1. Siano B e C basi di V e di W rispettivamente. Allora
MC,B (f −1 ) = MB,C (f )−1 .
(49)
Dimostrazione: Dalle relazioni
f ◦ f −1 = IdW , f −1 ◦ f = IdV
segue, in forza del Teorema precedente, ricordando che MB (IdV ) = In = MC (IdW ):
MB,C (f )MC,B (f −1 ) = MC,C (IdW ) = In , MC,B (f −1 )MB,C (f ) = MB,B (IdV ) = In
da cui l’asserto.
2
52
23. Spazi di applicazioni lineari
Siano V , W spazi vettoriali sullo stesso campo K.
Definizione 23.1. L’insieme di tutte le applicazioni lineari V → W verrà denotato con
il simbolo
L(V, W ).
Osserviamo che L(V, W ) è sempre non vuoto: esso contiene l’applicazione lineare nulla.
Proposizione 23.2. L’insieme L(V, W ) si può munire di una struttura naturale di Kspazio vettoriale, determinata dalle due operazioni cosı̀ definite:
(f, g) ∈ L(V, W ) × L(V, W ) 7→ f + g ∈ L(V, W )
dove f + g : V → W è l’applicazione tale che
∀v ∈ V
(f + g)(v) := f (v) + g(v)
e
(λ, g) ∈ K × L(V, W ) 7→ λf ∈ L(V, W )
dove λf denota l’applicazione tale che
(λf )(v) := λf (v)
∀v ∈ V.
Lasciamo i dettagli della dimostrazione al lettore; si tratta di verificare innanzitutto
che, date f, g ∈ L(V, W ) e λ ∈ K, anche le applicazioni f + g e λf sono elementi di
L(V, W ); inoltre occorre stabilire la verifica della validità degli assiomi A), B) e C) di
spazio vettoriale. Facciamo notare che l’elemento neutro di L(V, W ) rispetto all’operazione
di somma introdotta nell’enunciato è proprio l’applicazione nulla 0 : V → W . Inoltre, per
ogni f ∈ L(V, W ), l’opposto −f di f rispetto alla somma è l’applicazione cosı̀ definita
v ∈ V 7→ −f (v) ∈ W
che risulta lineare.
Studiamo ora il caso in cui entrambi gli spazi V e W hanno dimensione finita.
Teorema 23.3. Siano V , W spazi vettoriali entrambi non banali sullo stesso campo K,
entrambi finitamente generati ed aventi dimensioni n ed m rispettivamente. Si fissino una
base B di V ed una base C di W . L’applicazione
M : L(V, W ) → Mm,n (K)
che fa corrispondere ad ogni f ∈ L(V, W ) la matrice associata M (f ) = MB,C (f ) ad f , è
un isomorfismo di spazi vettoriali.
Dimostrazione: Poniamo B = {v1 , . . . , vn } e C = {w1 , . . . , wm }. Per prima cosa
stabiliamo che M è lineare. Siano f, g ∈ L(V, W ). Allora
M (f + g) = MB,C (f + g) = ( ψC ((f + g)(v1 )) · · · ψC ((f + g)(vn )) ) =
( ψC (f (v1 ) + g(v1 )) · · · ψC (f (vn ) + g(vn )) ) =
( ψC (f (v1 )) + ψC (g(v1 )) · · · ψC (f (vn ) ) + ψC (g(vn )) ) = M (f ) + M (g)
53
dove abbiamo tenuto conto della definizione di f +g e sfruttato la linearità di ψC . Analogamente:
M (λf ) = ( ψC ((λf )(v1 )) · · · ψC ((λf )(vn )) ) = ( ψC (λf (v1 ))
( λψC (f (v1 )) · · · λψC (f (vn )) ) = λM (f ).
···
ψC (λf (vn )) ) =
Proviamo ora che M è ingettiva; sia f ∈ Ker(M ); ciò significa che MB,C (f ) = 0, e quindi
in particolare f (vi ) = 0 per ogni i. Ciò è sufficiente per concludere che f = 0 in virtù
della a) del Teorema 17.2. Resta da stabilire la surgettività di M ; sia A ∈ Mm,n (K) e
consideriamo i vettori di W :
wi0 := ψC−1 (A(i) ),
i = 1, . . . , n.
Applicando la b) del Teorema 17.2, abbiamo che esiste una ed una sola applicazione lineare
f : V → W tale che
f (vi ) = wi0 , i = 1, . . . , n.
Risulta che M (f ) = A in quanto
M (f ) = ( ψC (f (v1 )) · · · ψC (f (vn )) ) = ( ψC (w10 ) · · · ψC (wn0 ) ) = ( A(1) · · · A(n) ) = A.
2
Ricordando che la dimensione di Mm,n (K) è mn (cf. Esempio 13.7), si ottiene:
Corollario 23.4. Se V e W sono spazi vettoriali non bnali di dimensione n ed m, allora
anche L(V, W ) è finitamente generato e
dim(L(V, W )) = mn.
Nel caso in cui V = W , in luogo di L(V, V ) si utilizzerà la notazione End(V ). Gli
elementi di End(V ) si chiameranno endomorfismi dello spazio V .
Esempio 23.5. Sottolineiamo il fatto che l’isomorfismo M : L(V, W ) → Mm,n (K) studiato
sopra dipende dalla scelta delle basi B e C. In particolare, si noti che ogni matrice
A ∈ Mm,n (K) determina, una volta fissate le due basi, una ben precisa applicazione
lineare V → W ; cambiando le basi però tale applicazione muta. A titolo di esempio,
consideriamo il 
caso in cui V= W = R3 [x] e B = C, fissando l’attenzione sulla matrice
0 0 0 0
0 0 0 0

diagonale: A = 
0 0 0 0 . Espliciteremo l’applicazione lineare che è associata ad A
0 0 0 1
rispetto a tre basi diverse di R3 [x]. Cominciamo col considerare la base B = {1, x, x2 , x3 }.
L’applicazione lineare f : R3 [x] → R3 [x] tale che
MB (f ) = A
è determinata dalle condizioni seguenti:
f (1) = 0, f (x) = 0, f (x2 ) = 0, f (x3 ) = x3
da cui per la linearità di f , se p = a + bx + cx2 + dx3 , allora:
f (p) = df (x3 ) = dx3 .
54
Consideriamo ora la base B0 = {x3 , x2 , x, 1}. Allora l’endomorfismo g di R3 [x] tale che
MB0 (g) = A è dato dalle condizioni:
g(x3 ) = 0, g(x2 ) = 0, g(x) = 0, g(1) = 1
e quindi
∀p ∈ R3 [x].
g(p) = ag(1) = a
B00
{x2 (x
Consideriamo infine la sequenza
=
− 1), x(x − 1), x − 1, 1}. Tali vettori costituiscono un sistema di generatori di R3 [x]; infatti, dividendo un generico p ∈ K3 [x] per il
polinomio x − 1, si può scrivere in un sol modo:
p = q(x − 1) + r
con q di grado ≤ 2 e r ∈ R. Posto q = αx2 + βx + γ, abbiamo dunque
p = αx2 (x − 1) + βx(x − 1) + γ(x − 1) + r
il che mostra che p è combinazione lineare dei vettori di B00 . Dunque, in base al Corollario
13.5, B00 è una base di R3 [x]. L’applicazione lineare h : R3 [x] → R3 [x] determinata da A
rispetto a questa base è tale che
h(x2 (x − 1)) = 0, h(x(x − 1)) = 0, h(x − 1) = 0, h(1) = 1
e quindi
h(p) = r
∀p ∈ R3 [x].
In altri termini, A determina in tal caso l’applicazione che associa ad ogni polinomio il
resto della divisione di esso per x − 1. Si osservi che l’applicazione g determinata sopra
associa invece ad ogni p ∈ R3 [x] il resto della divisione di p per x.
Definizione 23.6. Dato un K-spazio vettoriale V , lo spazio L(V, K) si chiama duale di
V e si denota con V ∗ . Gli elementi di V ∗ vengono detti funzionali su V .
24. Cambiamenti di base
Sia V uno spazio vettoriale di dimensione n > 0 sul campo K e siano assegnate due basi
B = {v1 , . . . , vn } e B0 = {v10 , . . . , vn0 } di V .
Definizione 24.1. Si chiama matrice di passaggio da B a B0 e si denota col simbolo
MB,B0
la matrice associata ai vettori v10 , . . . , vn0 rispetto a B.
Proposizione 24.2.
1) Risulta MB,B0 = MB0 ,B (IdV ); in particolare MB,B0 ∈ GL(n, K).
2) Esiste uno ed un solo isomorfismo g : V → V tale che
g(vi ) = vi0
(50)
i = 1, . . . , n.
Inoltre,
(51)
MB,B0 = MB (g).
55
Dimostrazione: 1) Abbiamo infatti
MB,B0 = (ψB (v10 ) · · ·
ψB (vn0 )) = (ψB (IdV (v10 )) · · ·
ψB (IdV (vn0 ))) = MB0 ,B (IdV ).
Poichè IdV è un isomorfismo, segue dal Corollario 22.5 che MB,B0 è invertibile8.
2) Il Teorema 17.2 garantisce che esiste una ed una sola applicazione lineare g : V → V
che soddisfa la condizione (50). Chiaramente, g è un isomorfismo avendo rango n. Abbiamo infine
ψB (g(vn ))) = (ψB (v10 ) · · ·
MB (g) = (ψB (g(v1 )) · · ·
ψB (vn0 )) = MB,B0 .
2
Corollario 24.3. Risulta
MB0 ,B = (MB,B0 )−1 .
Dimostrazione: Segue dal Corollario 22.10 applicato a IdV .
2
Teorema 24.4. (del cambiamento di base)
Siano V , W spazi vettoriali entrambi non banali sullo stesso campo K, entrambi finitamente generati ed aventi dimensioni n ed m rispettivamente. Sia f : V → W lineare. Si
fissino due basi B, B0 di V e due basi C, C0 di W . Allora risulta
MB0 ,C0 (f ) = C −1 MB,C (f ) B
(52)
dove B è la matrice di passaggio da B a B0 , mentre C è la matrice di passaggio da C a
C0 .
Dimostrazione:
cazioni seguenti:
L’applicazione f può riguardarsi come composizione delle appliId
f
Id
V
W
V −→
V −→ W −→
W
B0
B
C
C0
dove abbiamo indicato la scelta di una base per ciascuno spazio coinvolto. Applicando il
Teorema 22.9, si ottiene quindi
MB0 ,C0 (f ) = MB0 ,C0 (IdW ◦ (f ◦ IdV )) = MC,C0 (IdW )MB0 ,C (f ◦ IdV ) =
MC,C0 (IdW )MB,C (f )MB0 ,B (IdV ) = MC0 ,C MB,C (f )MB,B0 = C −1 MB,C (f )B.
2
Corollario 24.5. Sia V uno spazio vettoriale su K di dimensione n > 0 e sia f : V → V
un endomorfismo. Siano B e B0 due basi di V . Allora, posto M := MB,B0 si ha
(53)
MB0 (f ) = M −1 MB (f )M.
Dimostrazione: Si tratta di applicare la (52) con W = V e C = B, C0 = B0 , e quindi
con B = C = M .
2
La relazione (53) che sussiste tra le matrici associate ad uno stesso endomorfismo in
basi diverse suggerisce la seguente:
8Alternativamente, il fatto che M
B,B0 è invertibile segue direttamente dal Teorema 21.3.
56
Definizione 24.6. Siano A, B ∈ Mn (K) matrici quadrate dello stesso ordine. Si dice che
B è simile ad A se esiste M ∈ GL(n, K) tale che
(54)
B = M −1 AM.
La relazione di similitudine sull’insieme Mn (K) è una relazione di equivalenza. Infatti,
date A, B, C ∈ Mn (K), risulta che A è simile ad A, avendosi
A = In−1 AIn .
Inoltre, se B è simile a A, dalla (54) segue
−1
A = M BM −1 = (M −1 )
BM −1
per cui A è simile ad B. Infine, lasciamo al lettore la semplice verifica del fatto che se A
è simile a B e B è simile a C, allora A è simile a C.
In particolare, date due matrici A, B ∈ Mn (K), si può usare la locuzione “A e B sono
simili” senza ambiguità.
Teorema 24.7. Siano A, B ∈ Mn (K) due matrici quadrate dello stesso ordine n ≥ 1. Sia
V uno spazio vettoriale su K di dimensione n. Le proprietà seguenti sono equivalenti:
(a) A e B sono simili.
(b) Esistono un endomorfismo f : V → V e due basi B e B0 di V tali che
A = MB (f ), B = MB0 (f ).
Dimostrazione: L’implicazione (b) ⇒ (a) è già stata provata nel Corollario 24.5.
Proviamo che (a) ⇒ (b), assumendo che A e B siano simili e quindi valga la relazione
(54) per un’opportuna matrice invertibile M . Fissiamo una base B di V . Sappiamo che
l’applicazione
f ∈ End(V ) 7→ MB (f ) ∈ Mn (K)
è bigettiva (Teorema 23.3); pertanto in corrispondenza della matrice A esiste uno ed un
solo endomorfismo f : V → V tale che
A = MB (f ).
In corrispondenza di M esiste un unico endomorfismo g : V → V tale che
M = MB (g).
Essendo per ipotesi M invertibile, per il Corollario 22.5 abbiamo che g è un isomorfismo.
Posto, per ogni i = 1, . . . , n:
vi0 := g(vi )
abbiamo dunque che B0 = {v10 . . . , vn0 } è base di V . Inoltre la matrice di passaggio MB,B0
da B a B0 è esattamente M in forza della Proposizione 24.2 (cf. la (51)). Concludiamo
che
B = M −1 AM = M −1 MB (f )M = MB0 (f )
dove nell’ultimo passaggio si è applica la (53).
2
57
25. Cambiamento di coordinate ed equazioni di un’applicazione lineare
Sia V uno spazio vettoriale di dimensione n > 0 sul campo K e siano assegnate due basi
B = {v1 , . . . , vn } e B0 = {v10 , . . . , vn0 } di V .
 
 0
x1
x1
 .. 
 .. 
0
Proposizione 25.1. Sia v ∈ V e siano x =  .  e x =  .  i vettori delle componenti
xn
x0n
di v rispetto a B e a B0 . Denotata con M la matrice di passaggio da B a B0 , sussiste la
relazione
x = M x0 .
(55)
Dimostrazione: Sappiamo dalla Proposizione 24.2 che M = MB0 ,B (IdV ); particolarizzando il risultato del Teorema 22.6 con f = IdV otteniamo che
LM ◦ ψB0 = ψB
da cui, per ogni v ∈ V segue:
x = ψB (v) = (LM ◦ ψB0 )(v) = M x0 .
2
Proposizione 25.2. Siano V , W spazi vettoriali entrambi non banali sullo stesso campo
K, entrambi finitamente generati ed aventi dimensioni n ed m rispettavamente. Sia
f : V → W un’applicazione lineare. Si fissino una base B di V ed una base C di
W . Sia v ∈ V e siano x = (x1 , . . . , xn ) e x0 = (x01 , . . . , x0m ) rispettivamente le componenti
di v rispetto a B e di f (v) rispetto a C. Denotata con A la matrice associata ad f rispetto
a B e C, sussiste la relazione
(56)
x0 = Ax.
La relazione (56) prende il nome di equazione (vettoriale) di f nelle basi B e B0 .
Dimostrazione: Si tratta ancora di una conseguenza del Teorema 22.6: dalla relazione
LA ◦ ψB = ψC ◦ f
abbiamo infatti:
x0 = ψC (f (v)) = (LA ◦ ψB )(v) = Ax.
2
26. Sistemi lineari
Definizione 26.1. Sia K un campo. Siano n, m interi positivi. Si chiama sistema lineare
di m equazioni nelle n incognite x1 , . . . , xn sul campo K (o a coefficienti in K) ogni
sistema di equazioni del tipo
(57)
 1
a x + · · · + a1n xn = b1


 12 1
a1 x1 + · · · + a2n xn = b2
·········


 m
a1 x1 + · · · + am
n xn = bm
58
dove gli scalari aij e bi sono tutti elementi fissati di K. Una soluzione del sistema (57) è
ogni n-pla (y1 , . . . , yn ) di scalari tale che
 1
a y + · · · + a1n yn = b1


 12 1
a1 y1 + · · · + a2n yn = b2
.
···


 m
a1 y1 + · · · + am
n y n = bm
Un sistema che ammetta almeno una soluzione è detto compatibile, alrimenti è detto
incompatibile.
Il sistema (57) può scriversi in maniera compatta facendo uso del prodotto tra matrici.
Si considerino infatti la matrice di tipo m × n
A := (aij )
ed il vettore colonna


b1
 
b :=  ...  .
bm
Allora, posto


x1
 
x :=  ... 
xn
le uguaglianze (57) sono equivalenti a:
(58)
Ax = b.
La matrice A si dirà matrice dei coefficienti del sistema (57), mentre b si dirà colonna
dei termini noti. Nel caso in cui b = 0, il sistema è detto omogeneo.
Proposizione 26.2. Sia E ⊂ Kn l’insieme di tutte le soluzioni del sistema (57). Allora
E è un sottospazio vettoriale di Kn se e solo se il sistema è omogeneo.
Dimostrazione: Supponiamo che E sia un sottospazio. Allora 0 ∈ E, e quindi
A0 = b
da cui b = 0. Viceversa, se b = 0 abbiamo
x ∈ E ⇐⇒ Ax = 0 ⇐⇒ LA (x) = 0 ⇐⇒ x ∈ Ker(LA )
ovvero
(59)
E = Ker(LA )
ed in particolare E è un sottospazio di Kn .
2
Teorema 26.3. Un sistema omogeneo in n incognite è sempre compatibile e l’insieme
delle soluzioni è un sottospazio vettoriale di Kn di dimensione n − r dove r è il rango della
matrice A dei coefficienti.
Si espimerà ciò dicendo che il sistema ammette ∞n−r soluzioni, convenendo, nel caso
n = r, che ciò significa che il sistema ha l’unica soluzione (0, . . . , 0), detta soluzione
banale.
59
Dimostrazione: Abbiamo già visto che l’insieme delle soluzione coincide con il nucleo
di LA : Kn → Km ; applicando il teorema del rango abbiamo dunque dim(E) = n − r. Se
n = r, allora dim(E) = 0 o equivalentemente E = {0}.
2
Ai fini di stabilire un criterio per l’esistenza di soluzioni di un sistema lineare, introduciamo un’altra matrice, detta matrice completa del sistema, data da
(A|b) := (A(1) · · · A(n) b).
Teorema 26.4. (Rouchè-Capelli) Un sistema lineare
Ax = b
di m equazioni in n incognite è compatibile se e solo se
(60)
rg(A) = rg(A|b).
In tal caso, sia E l’insieme delle soluzioni e sia x0 ∈ E una soluzione arbitraria. Si ponga
r := rg(A). Denotato con E0 l’insieme delle soluzioni del sistema omogeneo
Ax = 0
detto associato a (58), risulta
E = x0 + E0 := {x0 + u|u ∈ E0 }
(61)
ed inoltre E0 è un sottospazio di dimensione n − r. Si esprimerà ciò dicendo che il sistema
ammette ∞n−r soluzioni.
Dimostrazione: Il sistema è compatibile se e solo se esiste x = (x1 , . . . , xn ) tale che
Ax = b, il che per la (23) è equivalente a
b = x1 A(1) + · · · + xn A(n) ;
dunque il sistema è compatibile se e solo se
b ∈ L(A(1) , . . . , A(n) ).
Ora, osserviamo che
b ∈ L(A(1) , . . . , A(n) ) ⇐⇒ L(A(1) , . . . , A(n) , b) ⊂ L(A(1) , . . . , A(n) ) ⇐⇒
(∗)
L(A(1) , . . . , A(n) , b) = L(A(1) , . . . , A(n) ) ⇐⇒
dim(L(A(1) , . . . , A(n) , b)) = dim(L(A(1) , . . . , A(n) )) ⇐⇒
rg(A|b) = rg(A)
dove l’equivalenza (*) si giustifica notando che a priori sussiste l’inclusione
L(A(1) , . . . , A(n) ) ⊂ L(A(1) , . . . , A(n) , b).
Infine, assumiamo il sistema compatibile e sia x0 ∈ E. Allora per ogni u ∈ E0 abbiamo
A(x0 + u) = Ax0 + Au = b + 0 = b
e ciò mostra che x0 + E0 ⊂ E. Riguardo l’altra inclusione, sia x ∈ E; allora
Ax = b.
60
Posto u := x − x0 , si ha
Au = Ax − Ax0 = b − b = 0
per cui u ∈ E0 e quindi x ∈ x0 + E0 . L’affermazione concernente la dimensione di E0 è
vera in forza del Teorema precedente.
2
Corollario 26.5. Si consideri un sistema compatibile (58). Allora esso ammette una ed
una sola soluzione se e solo se n = rg(A).
Dimostrazione: Sia ancora E l’insieme delle soluzioni. Fissiamo x0 ∈ E. Allora il
sistema ha una sola soluzione se e solo se E = {x0 } ovvero
x0 + E0 = {x0 }
il che accade se e solo se E0 = {0}, circostanza che si verifica, per il Teorema 26.3, se e
solo se rg(A) = n.
2
27. Relazione tra sistemi lineari e sottospazi
Sia V uno spazio vettoriale di dimensione n > 0 sul campo K.
Teorema 27.1. Si fissi una base B = {v1 , . . . , vn } di V .
Assegnato un sistema omogeneo
 Pn
1

j=1 αj xj = 0

..
(62)
.

 Pn
m
j=1 αj xj = 0
ovvero in forma compatta
Ax = 0
nelle n incognite x1 , . . . , xn , l’insieme W di tutti e soli i vettori di V il cui vettore delle
componenti x rispetto a B è soluzione del sistema è un sottospazio vettoriale di V , di
dimensione n − rg(A). Si dirà che W è il sottospazio di equazioni (62) e si scriverà:
 Pn
1

j=1 αj xj = 0

..
W :
.

P

n
m
α
j=1 j xj = 0
oppure
W : Ax = 0.
Viceversa, ogni sottospazio W è di questo tipo, ovvero esiste un sistema (62) tale che W
ha equazioni (62) rispetto a B.
Dimostrazione: Sappiamo che l’insieme delle soluzioni E ⊂ Kn del sistema (62) è
un sottospazio di Kn di dimensione n − rg(A). Ora, per definizione di W , abbiamo
v ∈ W ⇐⇒ ψB (v) ∈ E
ovvero
−1
W = ψB
(E).
n
Pertanto, essendo ψB : V → K un isomorfismo, W è sottospazio di V , isomorfo ad E; in
particolare ha dimensione n − rg(A).
61
Proviamo l’ultima affermazione. Sia W un sottospazio di V . Se W = {0}, allora W
è descritto dalle equazioni x1 = · · · = xn = 0. Se W = V , possiamo scegliere A =
0. Supponiamo quindi 0 < k = dim(W ) < n e sia C = {w1 , . . . , wk } una base di W .
Completiamo C ad una base B0 = {w1 , . . . , wk , uk+1 , . . . , un } di V scegliendo opportuni
vettori uk+1 , . . . , un . Denotando con x01 , . . . , x0n le componenti di un vettore v di V rispetto
a B0 , abbiamo
k
n
X
X
v=
x0i wi +
x0i ui
i=1
i=k+1
dove il primo addendo appartiene a W ; stante l’unicità di tale scrittura, abbiamo
v ∈ W ⇐⇒ x0k+1 = · · · = x0n = 0
e quindi, rispetto alla base B0 , W è il sottospazio descritto dal sistema di n − k equazioni:
W : A0 x0 = 0


ek+1
 .. 
0
dove A =  . . Sia infine M la matrice di passaggio da B a B0 . Allora, tenendo
en
conto della relazione x = M x0 tra le componenti di uno stesso vettore nelle due basi (cf.
(55)), otteniamo che
v ∈ W ⇐⇒ A0 x0 = 0 ⇐⇒ A0 (M −1 x) = 0
per cui rispetto a B, abbiamo
W : Ax = 0
dove A :=
2
A0 M −1 .
28. Determinanti
Nel seguito denoteremo con Sn il gruppo delle permutazioni di {1, . . . , n} dove n ≥ 1
è un numero intero. Per ogni σ ∈ Sn , il segno di σ verrà denotato con (σ). È noto che
l’applicazione : Sn → {−1, 1} è un omomorfismo di gruppi, ovvero
(63)
(σσ 0 ) = (σ)(σ 0 )
∀σ, σ 0 ∈ Sn .
In particolare,
(σ −1 ) = (σ)−1 .
Si ricordi inoltre che lo scambio relativo a due fissati indici distinti i, j ∈ {1, . . . , n} è la
permutazione σ tale che σ(i) = j, σ(j) = i, mentre per ogni t diverso da i e j è σ(t) = t.
Ogni scambio è una permutazione dispari nel senso che (σ) = −1. La permutazione
identica è pari, ovvero (Id) = 1.
Definizione 28.1. Si chiama determinante di una matrice quadrata A ∈ Mn (K), lo
scalare
X
σ(1) σ(2)
(64)
det(A) :=
(σ) a1 a2 · · · aσ(n)
.
n
σ∈Sn
62
Il determinante di una matrice A si denoterà anche col simbolo
|A|.
Si osservi che ciascun addendo della somma (64) è, a meno del segno, il prodotto di n
elementi della matrice ottenuti scegliendo un elemento per ciascuna colonna, in posizioni
riga tutte differenti.
Esempio 28.2. Data una matrice quadrata di ordine 1, abbiamo
|a| = a.
Per una matrice di ordine 2 si ha invece
a b
det
c d
(65)
= ad − bc.
Infatti, la somma (64) consiste di due addendi, uno corrispondente alla permutazione
identica e l’altro corrispondente allo scambio degli indici 1 e 2.
Proposizione 28.3. Per ogni matrice A ∈ Mn (K) si ha
det(A) = det(tA).
Dimostrazione: L’argomento su cui si basa questa dimostrazione ed altre che seguiranno
è la seguente osservazione:
Lemma 28.4. Sia I un insieme finito e sia (xi )i∈I una famiglia di elementi del campo K
indicizzata su I. Allora, se f : I → I è una bigezione, si ha:
X
X
xi =
xf (i) .
i∈I
Dimostrazione:
stessi.
i∈I
Infatti, essendo f bigettiva, gli addendi delle due somme sono gli
2
Torniamo alla dimostrazione della Prop. 28.3. Risulta
det(tA) =
X
∗
(σ) a1σ(1) a2σ(2) · · · anσ(n) =
σ∈Sn
X
σ(1) σ(2)
(σ −1 ) a1 a2 · · · aσ(n)
n
σ∈Sn
X
−1
∗∗
σ −1 (1) σ −1 (2)
a2
· · · anσ (n) =
(σ) a1
σ∈Sn
=
X
σ(1) σ(2)
a2 · · · anσ(n)
(σ) a1
= det(A).
σ∈Sn
L’uguaglianza * si giustifica osservando che il prodotto a1σ(1) a2σ(2) · · · anσ(n) si può riordinare,
in forza della proprietà commutativa, disponendo i fattori per indice crescente di colonna:
se aiσ(i) è il fattore appartente alla colonna j, allora σ(i) = j, ovvero i = σ −1 (j), e quindi
σ −1 (j)
aiσ(i) = aj
. L’uguaglianza ** si ottiene applicando il Lemma precedente facendo uso
della bigezione f : Sn → Sn tale che f (σ) = σ −1 per ogni σ ∈ Sn .
2
Teorema 28.5. L’applicazione det : Mn (K) → K gode delle seguenti proprietà.
63
1) (Multinearità rispetto alle colonne)
Sia A ∈ Mn (K); sia j ∈ {1, . . . , n} e si supponga che A(j) = λU + µV con
U, V ∈ Kn e λ, µ ∈ K. Allora
det(A) = λ det(A(1) · · · A(j−1) U A(j+1) · · · A(n) ) + µ det(A(1) · · · A(j−1) V A(j+1) · · · A(n) ).
2) (Alternanza)
Siano A ∈ Mn (K) e α ∈ Sn ; allora
det(A(α(1)) · · · A(α(n)) ) = (α) det(A).
 
 
u1
v1
 .. 
 .. 
Dimostrazione: 1) Posto U =  .  e V =  . , abbiamo:
un
vn
X
σ(1) σ(2)
det(A) =
(σ) a1 a2 · · · anσ(n) =
σ∈Sn
X
σ(1) σ(2)
σ(j−1)
a2 · · · aj−1 (λuσ(j)
(σ) a1
σ(j+1)
+ µvσ(j) )aj+1
=
· · · aσ(n)
n
σ∈Sn
λ
X
σ(1) σ(2)
σ(j−1)
σ(j+1)
a2 · · · aj−1 uσ(j) aj+1 · · · aσ(n)
n
+
σ(1) σ(2)
σ(j−1)
σ(j+1)
a2 · · · aj−1 vσ(j) aj+1 · · · anσ(n)
=
(σ) a1
σ∈Sn
µ
X
(σ) a1
σ∈Sn
λ det(A(1) · · · A(j−1) U A(j+1) · · · A(n) ) + µ det(A(1) · · · A(j−1) V A(j+1) · · · A(n) ).
2) Utilizzando ancora la definizione di determinante, risulta:
X
σ(1) σ(2)
σ(n)
det(A(α(1)) · · · A(α(n)) ) =
(σ) aα(1) aα(2) · · · aα(n) =
σ∈Sn
X
−1 (n)) ∗
σ(α−1 (1)) σ(α−1 (2))
(σ) a1
a2
· · · aσ(α
=
n
σ∈Sn
X
σ(1) σ(2)
a2 · · · anσ(n)
(σα) a1
σ∈Sn
= (α)
X
σ(1) σ(2)
a2 · · · aσ(n)
n
(σ) a1
=
σ∈Sn
(α) det(A).
L’uguaglianza * si ottiene utilizzando il Lemma 28.4, mediante la bigezione (traslazione
destra)
σ ∈ Sn 7→ σα ∈ Sn .
2
Corollario 28.6.
(1) Un determinante cambia di segno se si scambiano tra lore due colonne.
(2) Se una matrice ha due colonne uguali, il suo determinante è nullo.
(3) Un determinante non cambia se si somma ad una colonna un multiplo di un’altra.
Dimostrazione: (1) Si tratta di un caso particolare della proprietà 2) del Teorema
precedente, ladddove si consideri lo scambio σ di due indici.
64
(2) Ci limitiamo a dimostrare questa proprietà nel caso in cui il campo K soddifi la
proprietà:
1 + 1 6= 0.
Ciò si esprime dicendo che il campo K ha caratteristica diversa da 2. Naturalmente tale
ipotesi è soddisfata da R, C e qualunque sottocampo di tali campi. Sia dunque A ∈ Mn (K)
tale che A(j) = A(j 0 ) per opportuni indici j 6= j 0 . Denotiamo con A0 la matrice che si ottiene
da A scambiando tra loro le colonne j-ma e j 0 -ma. Allora A0 = A, per cui det(A0 ) = det(A);
d’altra parte la proprietà 1) implica che det(A0 ) = − det(A), per cui det(A) = − det(A),
ovvero (1 + 1) det(A) = 0, e quindi det(A) = 0 per l’ipotesi fatta sul campo.
(3) Sia A ∈ Mn (K) e sia A0 la matrice che si ottiene da A effettuando la sostituzione
A(j) → A(j) + βA(j 0 )
j0.
dove j 6=
Supponiamo ad esempio j < j 0 . Applicando al calcolo di det(A0 ) la proprietà
di multinearità rispetto alle colonne, abbiamo
det(A0 ) = det(A(1) · · · A(j) + βA(j 0 ) · · · A(j 0 ) · · · A(n) ) =
det(A(1) · · · A(j) · · · A(j 0 ) · · · A(n) ) + β det(A(1) · · · A(j 0 ) · · · A(j 0 ) · · · A(n) )
= det(A) + β 0 = det(A).
2
dove si è anche tenuto conto della proprietà (2).
Osservazione 28.7. Poichè il determinante di una matrice e quello della trasposta coincidono, sussistono proprietà analoghe delle 1) e 2) del Teorema 28.5 e delle (1)-(3) del
Corollario 28.6, riferite alle righe anzichè alle colonne. Per brevità tali proprietà non
saranno rienuciate esplicitamente.
Un’ulteriore conseguenza immediata della (1) del Teorema 28.5 è:
Corollario 28.8. Per ogni matrice A ∈ Mn (K) risulta
det(λA) = λn det(A).
Teorema 28.9. (Teorema di Binet) Siano A, B ∈ Mn (K). Allora
det(AB) = det(A) det(B).
Dimostrazione: Per calcolare det(AB), applichiamo più volte la proprietà di multinearità, ricordando che ciascuna colonna di AB è una combinazione lineare delle colonne
di A; abbiamo
det(AB) = det(
n
X
n
X
bk11 A(k1 ) AB(2) · · · AB(n) )
k1 =1
n
X
bk11 det(A(k1 )
k1 =1
k2 =1
bk11 det(A(k1 ) AB(2) · · · AB(n) ) =
k1 =1
bk22 A(k2 ) · · · AB(n) ) =
n
X
k1 =1
= ··· =
X
bk11 bk22 · · · bknn det(A(k1 ) A(k2 ) · · · A(kn ) ).
k1 ,...,kn
=
n
X
bk11
n
X
k2 =1
bk22 det(A(k1 ) A(k2 ) · · · AB(n) ) =
65
A questo punto notiamo che gli unici addendi della somma che possono essere non nulli
sono quelli corrispondenti a valori tutti distinti degli indici k1 , . . . , kn ; infatti negli addendi
per cui due indici coincidono figurano determinanti con due colonne uguali, che sono nulli
per il Corollario 28.6. La scelta di n indici tutti diversi k1 , . . . , kn è equivalente alla scelta
di una permutazione σ ∈ Sn ; dunque possiamo riscrivere
det(AB) =
X
σ(1) σ(2)
b2 · · · bnσ(n) det(A(σ(1)) A(σ(2)) · · · A(σ(n)) )
b1
=
σ∈Sn
X
σ(1) σ(2)
b2 · · · bnσ(n) (σ) det(A)
b1
= det(B) det(A).
σ∈Sn
dove si è applicata la proprietà di alternanza 2) del Teorema 28.5.
2
Il calcolo di un determinante basato sulla definizione è alquanto disagevole. Il risultato
seguente fornisce un metodo efficente che si basa sul calcolo di determinanti di opportune
“sottomatrici” della matrice data, di ordine inferiore. In definitiva il calcolo viene ricondotto in modo ricorsivo a quello di determinanti di matrici di ordine 2, basato sulla (65).
A tale scopo diamo la seguente definizione.
Definizione 28.10. Sia A = (aij ) ∈ Mn (K). Si chiama complemento algebrico dell’elemento aij di A lo scalare
Aij := (−1)i+j det Cji (A)
dove Cji (A) denota la matrice quadrata di ordine n − 1 che si ottiene da A eliminandone
la riga i-ma e la colonna j-ma.
Teorema 28.11. (Sviluppo di Laplace rispetto ad una colonna)
Sia A = (aij ) ∈ Mn (K).
(1) Si fissi un indice colonna j. Allora
(66)
|A| =
n
X
aij Aij .
i=1
(2) Siano j 6= j 0 due indici colonna distinti. Allora
(67)
n
X
aij Aij 0 = 0.
i=1
La (66) prende il nome di sviluppo di Laplace del determinante di A secondo la colonna
j-ma. La dimostrazione di tala formula si articolerà in più passi.
Lemma 28.12. Sia A ∈ Mn (K) tale che A(n) = en . Allora
|A| = Ann .
66
Dimostrazione: Ancora utilizzando la definizione, tenendo conto del fatto che l’unico
elemento non nullo della n-ma colonna di A è quello ann = 1 sulla riga n-ma si ottiene:
X
X
σ(1) σ(2)
σ(1) σ(2)
σ(n−1)
|A| =
(σ) a1 a2 · · · aσ(n)
=
(σ) a1 a2 · · · an−1 1 =
n
σ∈Sn
X
σ∈Sn
σ(n)=n
σ(1) σ(2)
σ(n−1)
a2 · · · an−1
(σ) a1
σ∈Sn−1
det(Cnn (A))
=
= Ann .
2
Lemma 28.13. Sia A ∈ Mn (K) e si fissi un indice colonna j. Allora per ogni k ∈ {1, . . . , n}
si ha
| (A(1) · · · A(j−1) ek A(j+1) · · · A(n) ) | = Akj .
(68)
Dimostrazione: Effettuando n−j scambi di colonne, il determinante a primo membro
della (68) equivale a
(−1)n−j |A(1) · · · A(j−1) A(j+1) · · · A(n) ek |.
D’altra parte
(−1)n−j |A(1) · · · A(j−1) A(j+1) · · · A(n) ek | =
1
a1 · · · a1
a1n
j−1 aj+1 · · ·
1
··· ··· ···
··· ··· ···
ak−1 · · · ak−1 ak−1 · · · ak−1
1
n
j−1
j+1
akn
(−1)n−j ak1 · · · akj−1 akj+1 · · ·
k+1
k+1
k+1
a1
· · · ak+1
j−1 aj+1 · · · an
··· ··· ···
··· ··· ···
n
a1
· · · anj−1 anj+1 · · ·
ann
1
a1 · · · a1
j−1 aj+1 · · ·
1
··· ··· ···
··· ···
ak−1 · · · ak−1 ak−1 · · ·
1
j−1
j+1
k+1
k+1
(−1)n−j (−1)n−k ak+1
·
·
·
a
a
j−1
j+1 · · ·
1
··· ··· ···
··· ···
n
a1
· · · anj−1 anj+1 · · ·
k
a1 · · · akj−1 akj+1 · · ·
0 · · · 0 =
1 ∗
0 · · · 0 a1n
0 · · · · · · 0 ak−1
n
=
ak+1
0 ∗∗
n
··· ···
ann
0 akn
1 (−1)k+j det(Cjk (A)) =
Akj .
Nel passaggio * si sono effettuati n − k scambi di righe per rendere la riga k-ma l’ultima;
l’uguaglianza ** è una diretta applicazione del Lemma precedente.
2
Possiamo ora procedere con P
la dimostrazione del Teorema 28.11. Proviamo la (66).
Utilizzando il fatto che A(j) =
akj ek e la proprietà di multinearità del deteminante si
ottiene:
67
|A| =
X
|A(1) · · · A(j−1)
akj ek A(j+1) · · · A(n) | =
X
akj |A(1) · · · A(j−1) ek A(j+1) · · · A(n) | =
X
akj Akj
dove nell’ultimo passaggio si è applicato il Lemma precedente. Quanto alla (67), denotiamo
con B = (bij ) la matrice che si ottiene da A sostituendo al posto della colonna di indice j 0
la colonna A(j) . Dunque B ha due colonne uguali e pertanto |B| = 0. Inoltre, Cjk0 (B) =
Cjk0 (A) per ogni k ∈ {1, . . . , n}. In particolare, per definizione di complemento algebrico, si
ha Bjk0 = Akj0 . Applicando al determinante di B lo sviluppo di Laplace secondo la colonna
j 0 -ma otteniamo quindi
X
0 = |B| =
bkj0 Bjk0 = akj Akj0 .2
Natuarlmente sussiste un risultato analogo, che fornisce lo sviluppo di Laplace di un
determinante secondo una riga:
Teorema 28.14.
(1) Si fissi un indice riga i. Allora
|A| =
(69)
n
X
aik Aik .
k=1
(2) Siano i 6=
i0
due indici riga distinti. Allora
n
X
(70)
0
aik Aik = 0.
k=1
Il risultato seguente mette in evidenza l’utilità della nozione di determinante, relativamente al problema di stabilire se una matrice è invertibile, e calcolarne l’inversa.
Un’ulteriore applicazione del determinante al calcolo del rango di matrici sarà esaminata
nel paragrafo seguente.
Teorema 28.15. Sia A ∈ Mn (K). Allora
A ∈ GL(n, K) ⇐⇒ det(A) 6= 0.
Inoltre, se A è invertibile, risulta
(71)
A−1 =
1
t
Cof (A)
det(A)
dove Cof (A) è la martice di ordine n definita da
Cof (A) := (Aij ),
ovvero Cof (A) è la matrice che si ottiene da A sostituendo ciascun elemento col proprio
complemento algebrico.
68
Dimostrazione: Supponiamo che A sia invertibile; allora
AA−1 = In
da cui, passando ai determinanti
det(AA−1 ) = det(In )
ovvero, per il Teorema di Binet:
det(A) det(A−1 ) = 1
(72)
il che implica in particolare che det(A) 6= 0.
Viceversa, supponiamo che det(A) 6= 0. Dimostreremo che A è invertibile in due modi
diversi.
Primo modo: Supponiamo per assurdo che A non sia invertibile. Per il Teorema 19.2,
rg(A) < n. Allora le colonne di A sono linearmente dipendenti; una di esse, diciamo A(j) ,
P
è combinazione lineare delle altre. Posto A(j) = k6=j λk A(k) , abbiamo per la proprietà di
multinearità
X
|A| =
λk |A(1) · · · A(j−1) A(k) A(j+1) · · · A(n) | = 0
k6=j
in quanto ciascuno degli addendi è il determinante di una matrice con due colonne uguali.
Si perviene cosı̀ ad una contraddizione.
Secondo modo: Mostriamo che la matrice definita dalla (71) è tale che
AA−1 = In = A−1 A
o equivalentemente
A tCof (A) = det(A)In = tCof (A)A.
Riguardo la prima uguaglianza, notiamo che l’elemento di posto (i, j) del prodotto A tCof (A)
è dato da
n
X
aik Ajk .
k=1
In base al Teorema di Laplace 28.14 relativo alle righe, questo scalare è nullo se i 6=
j, altrimenti coincide con det(A). Analogamente si ragiona per il prodotto tCof (A) A,
sfruttando lo sviluppo di Laplace rispetto alle colonne.
2
Corollario 28.16. Sia A ∈ GL(n, K). Allora
det(A−1 ) =
Dimostrazione:
ricavare la (72).
1
.
det(A)
È stato già stabilito nel corso della dimostrazione precedente, nel
2
Come applicazione del Teorema 28.15, studiamo una particolare classe di sistemi lineari.
Definizione 28.17. Si chiama sistema di Cramer nelle incognite x1 , . . . , xn ogni sistema
lineare di n equazioni, del tipo
(73)
Ax = b,
A ∈ GL(n, K), b ∈ Kn
69
Teorema 28.18. Ogni sistema di Cramer ha una ed una sola soluzione (x01 , . . . , x0n ),
determinabile come segue:
| A(1) · · · A(i−1) b A(i+1) · · · A(n) |
0
(74)
xi :=
|A|
Dimostrazione: Poichè A è invertibile, l’equazione matriciale (73) si risolve moltiplicando ambo i membri per A−1 ottenendo l’unica soluzione x0 ∈ Kn :
x0 = A−1 b.
Le componenti del vettore x0 cosı̀ ottenuto sono date esplicitamente dalle formule (74);
infatti, utilizzando la (71) otteniamo
n
x0i =
1
1 X k
| A(1) · · ·
Ai b k =
|A|
|A|
A(i−1) b A(i+1) · · ·
A(n) |
k=1
dove l’ultimo passaggio è giustificato dallo sviluppo
di Laplace del determinante della
matrice A(1) · · · A(i−1) b A(i+1) · · · A(n) rispetto alla i-ma colonna.
2
29. Calcolo del rango mediante determinanti
Definizione 29.1. Sia A ∈ Mm,n (K) e sia I = {i1 , . . . , ir } ⊂ {1, . . . , m} con i1 < i2 <
· · · < ir . Si chiama sottomatrice di A relativa alle righe di indici i1 , . . . , ir la matrice di
tipo r × n, denotata con AI , e cosı̀ definita:
 (i ) 
A 1


AI :=  ...  .
A(ir )
Se J = {j1 , . . . , jq } ⊂ {1, . . . , n} con j1 < j2 < · · · < jq , si chiama sottomatrice di A
relativa alle colonne di indici j1 , . . . , jq , la matrice di tipo m × q:
AJ := A(j1 ) · · · A(jq ) .
Definizione 29.2. Sia A ∈ Mm,n (K). Siano I = {i1 , . . . , ir } ⊂ {1, . . . , m} e J =
{j1 , . . . , jp } con
i1 < i2 < · · · < ir , j1 < j2 · · · < jp .
Si chiama sottomatrice di A relativa alla coppia di multiindici (I, J) la matrice di tipo
r × q:
AIJ := (AI )J .
Proposizione 29.3. Sia A ∈ Mm,n (K) e sia AIJ una sottomatrice di A. Allora
rg(AIJ ) ≤ rg(A).
Dimostrazione: Infatti, C(AIJ ) ⊂ C(AI ) e quindi rg(AIJ ) ≤ rg(AI ). D’altra parte,
R(AI ) ⊂ R(A), da cui rg(AI ) ≤ rg(A) e di qui l’asserto.
2
70
Osservazione 29.4. Conviene estendere la notazione riguardante le sottomatrici, includendo anche il caso in cui gli indici riga i1 , . . . , ir o gli indici colonna j1 , . . . , jq non siano
in ordine crescente; precisamente, se I = {i1 , . . . , ir } è un sottoinsieme di cardinalità
r di {1, . . . , m}, allora esiste un’unica permutazione i01 , . . . , i0r degli indici di I tale che
i01 < · · · < i0r ; si pone allora per definizione
AI := AI
dove I 0 := {i01 , . . . , i0r }. Cosı̀, ad esempio, se

1 0
0 0
A=
0 1
0 0
2
0
1
0
0
4
1
0
0

5
0

0
0
allora

A{3,1,4} = A{1,3,4}

1 0 2 4 5
= 0 1 1 0 0 .
0 0 0 0 0
Una convenzione analoga verrà adottata per le sottomatrici di tipo AJ e quindi per le
sottomatrici di tipo generale AIJ .
Definizione 29.5. Sia A ∈ Mm,n (K). Si chiama minore di A ogni scalare del tipo |AIJ |
dove AIJ è una sottomatrice quadrata di A. Si chiama ordine di un minore l’ordine della
sottomatrice corrispondente.
Proposizione 29.6. Sia A ∈ Mm,n (K) e sia I = {i1 . . . , ir } ⊂ {1, . . . , m} un sottoinsieme
di cardinalità r ≥ 1. Allora:
Le righe A(i1 ) , . . . , A(ir ) sono indipendenti ⇐⇒ Esiste un minore |AIJ | non nullo.
Dimostrazione: Supponiamo che le righe A(i1 ) , . . . A(ir ) siano indipendenti. Allora
la sottomatrice AI ha rango (per righe) r; pertanto esistono r colonne indipendenti di
AI ; detti j1 < · · · < jr gli indici di tali colonne, abbiamo che AIJ = (AI )J ha rango (per
6 0.
colonne) r ovvero tale matrice è invertibile, e quindi |AIJ | =
Viceversa, supponiamo che esista un minore non nullo corrispondente ad una opportuna
sottomatrice AIJ . In particolare rg(AIJ ) = r. Ma, poichè AIJ è sottomatrice di AI , abbiamo
rg(AI ) ≥ rg(AIJ ) = r
2
per cui le righe A(i1 ) , . . . A(ir ) sono indipendenti.
Osservazione 29.7. Giova osservare che, ai fini della validità dell’equivalenza nell’enunciato precedente, non è lecito sostituire “Esiste” con “Per ogni”. Ad esempio, si consideri la
matrice
1 0 0 0
A=
.
0 1 0 0
{1,2}
Le due righe di A sono indipendenti, ma il minore |A{3,4} | è nullo.
Sussiste un risultato analogo al precedente, la cui dimostrazione è simile.
71
Proposizione 29.8. Sia A ∈ Mm,n (K) e sia J = {j1 . . . , jq } ⊂ {1, . . . , n} un sottoinsieme
di cardinalità q ≥ 1. Allora
Le colonne A(j1 ) , . . . , A(jq ) sono indipendenti ⇐⇒ Esiste un minore |AIJ | non nullo.
Dimostriamo ora un risultato che interpreta la nozione di rango mediante la nozione di
minore.
Teorema 29.9. Sia A ∈ Mm,n (K). Il rango di A coincide con l’ordine massimo di un
minore non nullo.
Dimostrazione: Si ponga r := rg(A); se r = 0 allora non vi sono minori non nulli
ed il teorema è vero. Si supponga quindi r ≥ 1. Si tratta di provare le due affermazioni
seguenti:
1) Esiste un minore non nullo di A di ordine r;
2) tutti i minori di ordine maggiore di r sono nulli.
Proviamo 1). Si fissi una base {A(i1 ) , . . . A(ir ) } di R(A). Allora per la Proposizione 29.6,
esiste un minore di ordine r non nullo M = |AIJ | dove I = {i1 , . . . , ir }.
0
Riguardo l’affermazione 2), sia M 0 = |AIJ 0 | un minore di ordine s > r, I 0 = {i01 , . . . , i0s };
0
0
supponiamo per assurdo M 0 6= 0. Allora, per la Prop. 29.6, le righe A(i1 ) , . . . , A(is )
risulterebbero indipendenti, contro il fatto che s > r = dimR(A).
2
Ai fini del calcolo del rango mediante la caratterizzazione fornita dal Teorema precedente, è particolarmente utile il “Principio dei minori orlati” che dimostreremo di seguito.
Definizione 29.10. Sia M = |AIJ | un minore di ordine k ≥ 1 della matrice A ∈ Mm,n (K).
0
Si dice orlato di M ogni minore di ordine k + 1 del tipo |AIJ 0 | dove I ⊂ I 0 e J ⊂ J 0 .
Teorema 29.11. (Principio degli orlati di Kronecker)
Sia A ∈ Mm,n (K) e sia M un minore non nullo di A di ordine r. Allora, se tutti gli
orlati di M sono nulli, rg(A) = r.
Dimostrazione: Sia M = |AIJ | con I = {i1 , . . . , ir } e J = {j1 , . . . , jr . Supponimo
che tutti gli orlati di M siano nulli, e per assurdo ammettiamo che rg(A) > r. Allora deve esistere una riga A(i) di A tale che A(j) 6∈ L(A(i1 ) , . . . , A(ir ) ). In particolare,
A(i1 ) , . . . , A(ir ) , A(i) sono indipendenti (Prop. 11.8). Posto I 0 = {i1 , . . . , ir , i}, la sot0
0
tomatrice AI ha pertanto rango r + 1. Poichè M è anche un minore non nullo di AI ,
0
0
0
abbiamo che le colonne AI(j1 ) , . . . , AI(jr ) di AI sono indipendenti (Prop. 29.8). Dal fatto che
0
0
0
0
0
0
rg(AI ) = r +1, segue che esiste una colonna AI(j) di AI tale che AI(j) 6∈ L(AI(j1 ) , . . . , AI(jr ) ).
0
0
Posto J 0 = {j1 , . . . , jr , j}, consideriamo allora la sottomatrice (AI )J 0 = AIJ 0 ; essa ha rango
r + 1 perchè le sue colonne sono indipendenti e pertanto determina un minore non nullo
di ordine r + 1, che per costruzione è un orlato di M . Ciò è contro l’ipotesi.
2
30. Endomorfismi diagonalizzabili
Siano V uno spazio vettoriale sul campo K di dimensione n ≥ 1 ed f : V → V un
endomorfismo.
72
Definizione 30.1. Si dirà che f è diagonalizzabile se esiste una base B di V tale che
la matrice associata MB (f ) ad f rispetto a B è diagonale.
Nel seguito stabiliremo dei
se un endomorfismo è diagonalizzabile.
 criteri per stabilire

λ1


..
Si supponga che MB (f ) = 
 sia diagonale; allora, posto B = {v1 , . . . , vn }
.
λn
abbiamo, per definizione di matrice associata, che:
(75)
f (vi ) = λi vi
i = 1, . . . , n.
Notiamo che le equazioni di f rispetto alla base B (cf. (56)) risultano particolarmente
semplici:
 0
 x1 = λ1 x1
······
.
 0
xn = λn xn
Le (75) suggeriscono di introdurre la seguente terminologia.
Definizione 30.2. Sia f : V → V un endomorfismo. Un vettore v ∈ V si dice autovettore di f se v 6= 0 ed inoltre esiste λ ∈ K tale che
(76)
f (v) = λv.
Si noti che lo scalare λ è univocamente determinato dalla condizione precedente: infatti
se µ ∈ K è tale che
f (v) = µv
allora
µv = λv
da cui µ = λ perchè v 6= 0.
Definizione 30.3. Se v è un autovettore di f , l’unico scalare λ per cui è soddisfatta (76),
si chiamerà l’autovalore relativo a v.
Definizione 30.4. Sia f : V → V un endomorfismo e sia λ ∈ K. Si dirà che λ è un
autovalore di f se esiste un autovettore v di cui λ è l’autovalore associato. In altri
termini, λ è autovalore se e solo se esiste v ∈ V , v 6= 0, tale che
f (v) = λv.
L’insieme di tutti gli autovalori di f è detto spettro di f e si denota con Sp(f ).
Proposizione 30.5. Sia f : V → V un endomorfismo. Allora f è diagonalizzabile se e
solo se esiste una base B di V costituita da autovettori di f .
Dimostrazione: Abbiamo già visto che la condizione è necessaria. È anche sufficiente
perchè se B = {v1 , . . . , vn } è una base di V costituita da autovettori di f , allora, detto
λi l’autovalore relativo a vi , sono soddisfatte le (75); tali relazioni implicano che, per ogni
i, il vettore delle componenti di f (vi ) rispetto a B è λi ei , sicchè la matrice MB (f ) =
(λ1 e1 · · · λn en ) è diagonale, e quindi f è diagonalizzabile.
2
73
Definizione 30.6. Sia λ ∈ K un autovalore dell’endomorfismo f : V → V . Il sottospazio
di V
V (λ) := {v ∈ V | f (v) = λv} = Ker(f − λIdV )
prende il nome di autospazio di f relativo a λ.
Osserviamo esplicitamente che, per definizione di autovalore, se λ ∈ Sp(f ), allora
V (λ) 6= {0}.
Allo scopo di fornire una prima caratterizzazione degli endomorfismi diagonalizzabili,
introduciamo una generalizzazione del concetto di somma di sottospazi introdotta in precedenza.
Definizione 30.7. Siano W1 , . . . , Wk sottospazi di V , k ≥ 2; la loro somma è il sottospazio di V definito da
W1 + · · · + Wk := {w1 + · · · + wk | wi ∈ Wi
∀i = 1, . . . , k}.
Si lascia al lettore la semplice verifica che si tratta effettivamente di un sottospazio
vettoriale di V .
Definizione 30.8. Si dice che la somma W1 +· · ·+Wk dei sottospazi W1 , . . . , Wk è diretta
se per ogni (u1 , . . . , uk ) ∈ W1 × · · · × Wk risulta
(77)
u1 + · · · + uk = 0 ⇒ ui = 0
∀i = 1, . . . , k.
In tal caso, si userà la notazione
W1 ⊕ · · · ⊕ Wk
in luogo di W1 + · · · + Wk .
Teorema 30.9. Si assuma che la somma W1 +· · ·+Wk sia diretta e che ciascun sottospazio
sia non banale. Si fissi, per ogni i = 1, . . . , k una base Bi di Wi . Allora B := B1 ∪· · ·∪Bk
è una base di W1 ⊕ · · · ⊕ Wk . In particolare
(78)
dim(W1 ⊕ · · · ⊕ Wk ) =
k
X
dim(Wi ).
i=1
Dimostrazione: Sia di := dim(Wi ) e sia Bi = {w1i , . . . , wdi i }, di modo che B =
{w11 , . . . , wd11 , . . . , w1k , . . . , wdkk }. È immediato riconoscere che i vettori di B costituiscono
un sistema di generatori di W1 ⊕ · · · ⊕ Wk , in quanto, dato un vettore u = u1 + · · · + uk
di tale spazio, con ui ∈ Wi , ciascun ui si scrive in modo unico nella forma
ui =
di
X
αji wji
j=1
Pk
Pi
per opportuni scalari αji , e quindi u = i=1 dj=1
αji wji è combinazione lineare dei vettori
di B. Riguardo la lineare indipendenza dei vettori di B, consideriamo una combinazione
lineare nulla:
dk
d1
X
X
1 1
αj wj + · · · +
αjk wjk = 0.
j=1
j=1
74
Ciascuno dei k addendi è un vettore appartenente ad uno dei sottospazi Wi ; applicando
la condizione (77) nella definizione di somma diretta, segue che per ogni i = 1, . . . , k
dev’essere
di
X
αji wji = 0
j=1
da cui, poichè Bi è un inseme libero:
α1i = · · · = αki = 0.
2
Teorema 30.10. Sia f : V → V un endomorfismo e si supponga che lo spettro di f sia
non vuoto. Siano λ1 , . . . , λs , s ≥ 1 autovalori distinti di f . Allora la somma
V (λ1 ) + · · · + V (λs )
è diretta.
Dimostrazione: Ragioniamo per induzione su s. Se s = 1, non c’è nulla da dimostrare. Sia quindi s > 1 e supponiamo il risultato vero nel caso di s − 1 autovalori.
Siano v1 , . . . , vs vettori tali che vi ∈ V (λi ) e
(79)
v1 + · · · + vs = 0.
Applicando f ad ambo i membri si ottiene
s
X
(80)
λi vi = 0.
i=1
D’altra parte moltiplicando ambo i membri di (79) per λs si ottiene
s
X
(81)
λs vi = 0.
i=1
Dalle (80) e (81), sottraendo membro a membro, si trae
s−1
X
(λs − λi )vi = 0.
i=1
Per l’ipotesi induttiva, la somma V (λ1 ) + · · · + V (λs−1 ) è diretta, per cui per ogni i =
1, . . . , s − 1 deve aversi
(λs − λi )vi = 0
il che implica vi = 0 perchè i λi sono tutti distinti. Sostituendo nella (79), si ottiene anche
che vs = 0 e con ciò resta provato che la somma V (λ1 ) + · · · + V (λs ) è diretta.
2
Corollario 30.11. Sia f : V → V un endomorfismo. Lo spettro di f è finito ed è costituito
da al più n elementi, dove n = dim(V ).
75
Dimostrazione: Supponiamo che Sp(f ) contenga più di n elementi; scelti n + 1
elementi λ1 , . . . , λn+1 distinti in Sp(f ) avremmo, in base al Teorema precedente ed alla
(78):
n+1
X
dim(V (λ1 ) + · · · + V (λn+1 )) =
dim(V (λi )) ≥ n + 1
i=1
perchè ciascun autospazio non è banale, pervenendo cosı̀ ad un assurdo.
2
Teorema 30.12. Sia f : V → V un endomorfismo e si supponga Sp(f ) = {λ1 , . . . , λk },
k ≥ 1, con λi 6= λj per i 6= j. Allora sono equivalenti:
a) f è diagonalizzabile.
b) V = V (λ1 ) ⊕ · · · ⊕ V (λk ).
Pk
c)
i=1 dim(V (λi )) = dim(V ).
Dimostrazione: Proviamo innanzitutto che a) e b) sono equivalenti. Supponiamo
vera a); poniamo W = V (λ1 ) ⊕ · · · ⊕ V (λk ). Per ipotesi esiste una base B = {v1 , . . . , vn }
costituita da autovettori di f . Dunque per ogni i abbiamo vi ∈ W perchè vi deve appartenere ad uno degli autospazi V (λj ); pertanto V = L(v1 , . . . , vn ) ⊂ W e b) è provata.
Viceversa, se vale b), in virtù del Teorema 30.9 esiste una base B = {v1 , . . . , vn } di V
del tipo B1 ∪ · · · ∪ Bk con Bi base di V (λi ). In particolare, ciascun vi è autovettore di f
e quindi f è diagonalizzabile.
Infine, b) e c) sono equivalenti in quanto, per il Teorema 30.10
dim(V (λ1 ) + · · · + V (λk )) =
k
X
dimV (λi ).
i=1
2
31. Determinante di un endomorfismo e polinomio caratteristico
Proposizione 31.1. Siano A, B ∈ Mn (K), n ≥ 1, due matrici simili. Allora
det(A) = det(B).
Dimostrazione: Infatti, per ipotesi
A = M −1 BM
per un’opportuna matrice invertibile M , da cui, applicando il Teorema di Binet ed il
Corollario 28.16:
det(A) = det(M )−1 det(B) det(M ) = det(B).
2
Il fatto che matrici simili hanno lo stesso determinante, in forza del Corollario 24.5,
giustifica la definizione seguente.
Definizione 31.2. Siano V uno spazio vettoriale sul campo K di dimensione n ≥ 1 ed
f : V → V un endomorfismo. Si chiama determinante di f lo scalare
det(f ) := |MB (f )|
dove B è una base di V scelta in modo arbitrario.
76
Il seguente risultato è conseguenza immediata del Corollario 22.5 e del Teorema 28.15:
Teorema 31.3. Siano V uno spazio vettoriale sul campo K di dimensione n ≥ 1 ed
f : V → V un endomorfismo. Allora
f è isomorfismo ⇐⇒ det(f ) 6= 0.
Mediante la nozione di determinante, introdurremo uno strumento fondamentale per la
determinazione dello spettro di un endomorfismo.
Definizione 31.4. Siano V uno spazio vettoriale sul campo K di dimensione n ≥ 1 ed
f : V → V un endomorfismo. Si chiama polinomio caratteristico di f il polinomio
pf ∈ K[λ] definito da:
pf (λ) := det(f − λIdV ).
(82)
Proposizione 31.5. Il polinomio caratteristico di un endomorfismo f : V → V è un
polinomio di grado n = dim(V ), avente coefficiente direttivo (−1)n .
Dimostrazione: Ai fini di esplicitare l’espressione pf (λ), fissiamo una base qualsiasi
B di V . Sia A = (aij ) la matrice associata ad f rispetto a tale base. Allora la matrice
associata all’endomorfismo f − λIdV è data da
MB (f − λIdV ) = MB (f ) − λMB (IdV ) = A − λIn
in virtù del fatto che l’applicazione
g ∈ End(V ) 7→ MB (g) ∈ Mn (K)
è lineare (Teorema 23.3). In conclusione, per definizione di determinante di un endomorfismo, abbiamo:
pf (λ) = |A − λIn |,
(83)
A = MB (f ).
Ora, esplicitando la definizione di determinante, posto B := A − λIn = (bij ):
X
σ(1) σ(2)
pf (λ) = det(A) :=
(σ) b1 b2 · · · bnσ(n) .
σ∈Sn
Questa espressione è un polinomio in λ perchè in ciascuno degli addendi compare un
prodotto di fattori che sono o costanti o del tipo aii − λ, i ∈ {1, . . . , n}. In particolare, vi
è un solo addendo in cui λ figura n volte, ed è quello corrispondente alla permutazione
identica, cioè è il prodotto
b11 · · · bnn = (a11 − λ) · · · (ann − λ);
dunque
pf (λ) = (a11 − λ) · · · (ann − λ) + termini di grado < n in λ = (−1)n λn + q(λ)
con q polinomio di grado < n in λ.
2
Osservazione 31.6. La (83) può essere utilizzata per calcolare esplicitamente il polinomio
caratteristico. Si osservi che A è la matrice associata ad f rispetto ad una base che può
essere scelta in modo arbitrario.
77
Teorema 31.7. Sia assegnato un endomorfismo f : V → V e sia λ ∈ K. Allora
λ ∈ Sp(f ) ⇐⇒ pf (λ) = 0.
In altri termini, lo spettro di f è costituito da tutte sole le radici del polinomio caratteristico
di f .
Dimostrazione: Infatti, in base alla definizione di autovalore:
λ ∈ Sp(f ) ⇐⇒ ∃v ∈ V − {0} t.c. f (v) = λv
⇐⇒ ∃v ∈ V − {0} t.c. (f − λIdV )(v) = 0
⇐⇒ ∃v ∈ V − {0} t.c. v ∈ Ker(λ − IdV )
⇐⇒ λ − IdV non è isomorfismo
⇐⇒ det(f − λIdV ) = 0.
2
Osservazione 31.8. In base al teorema di Ruffini, pf ha al più n radici; si riottiene quindi
il risultato del Corollario 30.11.
Definizione 31.9. Sia f ∈ End(V ) e sia λ ∈ Sp(f ). Si chiamerà molteplicità algebrica
di λ e si denoterà con m(λ), la molteplicità di λ come radice del polinomio caratteristico
di f .
Osservazione 31.10. Ricordiamo, che dato un polinomio p ∈ K[λ] ed una sua radice
λo , dire che λo ha molteplicità m ∈ N, m ≥ 1, significa che (λ − λo )m divide p, mentre
(λ − λo )s non divide p per s > m. Equivalentemente, p si fattorizza come
p = (λ − λo )m q
con q ∈ K[λ] tale che q(λo ) 6= 0.
Teorema 31.11. Sia assegnato un endomorfismo f : V → V e sia λo ∈ Sp(f ). Allora
dim(V (λo )) ≤ m(λo ).
Dimostrazione: Sappiamo che l’autospazio V (λo ) non è banale. Posto s := dim(V (λo )),
fissiamo una base Bo = {v1 , . . . , vs } di V (λo ) e sia B = {v1 , . . . , vn } una base di V ottenuta da Bo per completamento. Calcoliamo pf utilizzando la (83) in corrispondenza di
tale base, dove A = MB (f ). Notiamo che per ogni i = 1, . . . , s risulta
f (vi ) = λo vi
per cui le prime k colonne di A sono i vettori λo e1 , . . . , λo ek , ovvero


λo


..

.
B 




λ
o


A=








0
C 
dove B ∈ Ms,n−s (K) e C ∈ Mn−s (K). Allora la matrice A − λIn è data da
78

λo − λ

..

.


λo − λ

A − λIn = 




0

B
C − λIn−s










Il determinante di questa matrice si può calcolare utilizzando s volte lo sviluppo di
Laplace rispetto alla prima colonna, ottenendo:
|A − λIn | = (λo − λ)s |C − λIn−s |
e quindi vediamo che pf si fattorizza come
pf (λ) = (λo − λ)s q(λ)
2
il che mostra che m(λo ) ≥ s.
Definizione 31.12. Per ogni λ ∈ Sp(f ), l’intero dim(V (λ)) prende il nome di molteplicità
geometrica dell’autovalore λ.
Prima di enunciare il criterio principale di diagonalizzabilità, richiamiamo un’altra
nozione della teoria dei polinomi. Un polinomio p ∈ K[λ] non nullo è detto completamente riducibile se, a meno di una costante non nulla, è prodotto di fattori lineari del tipo
λ − β con β costante; equivalentemente, se p può fattorizzarsi come segue:
(84)
p = α(λ − λ1 )m1 · · · (λ − λk )mk
dove α ∈ K∗ , per ogni i 6= j è λi 6= λj e gli mj sono interi positivi. Naturalmente, in tal
caso le radici di p sono esattamente i k scalari λi , ciascuna di molteplicità mi .
Teorema 31.13. (Criterio di diagonalizzabilità) Sia f : V → V un endomorfismo del
K-spazio vettoriale V di dimensione n > 0. Le seguenti proprietà sono equivalenti:
a) f è diagonalizzabile.
b) 1) Il polinomio pf è completamente riducibile;
2) per ogni λ ∈ Sp(f ) si ha dimV (λ) = m(λ).
Dimostrazione: Proviamo che a) ⇒ b). Per ipotesi, esiste una base B di V rispetto
alla quale la matrice associata a f è diagonale, cioè del tipo


α1


α2




.
.


.
αn
per opportuni αi , i = 1, . . . , n non necessariamente distinti. Utilizzando tale matrice per
calcolare il polinomio caratteristico mediante la (83), si perviene dunque a
pf = (α1 − λ)(α2 − λ) · · · (αn − λ)
79
il che prova che pf è completamente riducibile. Inoltre, per il Teorema 31.7, lo spettro
di f coincide con l’insieme {α1 , . . . , αn }. Denotando con k la cardinalità di tale insieme,
siano λ1 , . . . , λk i suoi elementi distinti, con λi 6= λj . Allora possiamo riscrivere
(85)
pf = (−1)n (λ − λ1 )m1 · · · (λ − λk )mk .
Inoltre, poichè il grado di pf è n, deve aversi:
n=
k
X
mi .
i=1
Per concludere, si deve provare 2), ovvero mostrare che per ogni i = 1, . . . , k si ha
dim(V (λi )) = mi . Infatti, sappiamo dal Teorema 30.12 che
n=
k
X
dim(V (λi ));
i=1
sottraendo membro a membro nelle ultime due uguaglianze, perveniamo a
0=
k
X
(mi − dim(V (λi )))
i=1
e quindi l’asserto perchè, per il Teorema 31.11, ciascuna differenza mi − dim(V (λi )) è un
intero non negativo. Viceversa, si assuma b). Allora pf ammette una fattorizzazione del
tipo (85); in particolare, Sp(f ) = {λ1 , . . . , λk } con ciascun autovalore λi di molteplicità
m(λi ) = mi . Allora per la 2):
k
X
i=1
dim(V (λi )) =
k
X
mi = n
i=1
e quindi applicando il Teorema 30.12 si conclude che f è diagonalizzabile.
2
Osservazione 31.14. Conviene osservare che, dato λ ∈ Sp(f ), la condizione
dim(V (λ)) = m(λ)
è automaticamente soddisfatta nel caso in cui m(λ) = 1. Ciò segue direttamente dalla
diseguaglianza dim(V (λ)) ≤ m(λ) perchè V (λ) 6= {0}. Diremo in tal caso che l’autovalore
λ è semplice.
Corollario 31.15. Un endomorfismo f : V → V che ammetta n autovalori distinti,
n = dim(V ), è sempre diagonalizzabile.
Dimostrazione: Infatti, in tal caso, posto Sp(f ) = {λ1 , . . . , λn }, il Teorema di Ruffini
garantisce che:
pf = (−1)n (λ − λ1 ) · · · (λ − λn )
e quindi pf è completamente riducibile. Infine la proprietà 2) dell’enunciato è vera in forza
dell’Osservazione precedente.
2
80
32. Diagonalizzazione simultanea
Siano f, g : V → V due endomorfismi del K-spazio vettoriale V . Assumiamo V di
dimensione finita n > 0.
Definizione 32.1. Diremo che f e g sono simultaneamente diagonalizzabili se esiste una
base B di V rispetto alla quale entrambe le matrici MB (f ) e MB (g) sono diagonali.
Teorema 32.2. Siano f, g : V → V due endomorfismi del K-spazio vettoriale V , entrambi
diagonalizzabili. Allora
f e g sono simultaneamente diagonalizzabili ⇐⇒ f ◦ g = g ◦ f.
Dimostrazione: Proviamo l’implicazione ⇒. Fissata una base B di V rispetto alla
quale entrambe le matrici MB (f ) =: D e MB (g) =: D0 sono diagonali, abbiamo, per il
Teorema 22.9:
MB (f ◦ g) = DD0 = D0 D = MB (g ◦ f )
è ciò garantisce che f ◦ g = g ◦ f in forza dell’ingettività dell’applicazione
h ∈ End(V ) 7→ MB (h) ∈ Mn (K).
Proviamo ora l’implicazione ⇐. Siano Sp(f ) = {λ1 , . . . , λp } e Sp(g) = {µ1 , . . . , µs } gli
spettri di f e g. Poniamo
A := Vf (λ1 ) ∪ · · · ∪ Vf (λp ), B := Vg (µ1 ) ∪ · · · ∪ Vg (µs ).
Dimostreremo che esiste una base B costituita da vettori che sono autovettori sia per f
che per g. A questo scopo, poichè da ogni sistema di generatori si può estrarre una base,
basta provare l’esistenza di un sistema di generatori S tale che S ⊂ A ∩ B.
Mostriamo innanzitutto che, in forza dell’ipotesi f ◦ g = g ◦ f si ha:
(86)
f (Vg (µi )) ⊂ Vg (µi ) ∀i ∈ {1, . . . , s}.
Infatti, sia v ∈ Vg (µi ), di modo che g(v) = µi v. Allora
g(f (v)) = (g ◦ f )(v) = (f ◦ g)(v) = f (g(v)) = f (µi v) = µi f (v)
e ciò significa che anche f (v) appartiene a Vg (µi ).
Premesso ciò, poichè g è diagonalizzabile, abbiamo:
(87)
V = Vg (µ1 ) ⊕ · · · ⊕ Vg (µs ).
Per ogni v ∈ V consideriamo quindi la decomposizione:
(88)
v = v1 + · · · + vs
vi ∈ Vg (µi )
univocamente determinata dalla (87). Mostriamo ora che, se v ∈ A, ciascun addendo
vi appartiene anch’esso ad A e quindi a A ∩ B. Infatti, si assuma f (v) = λk v con k ∈
{1, . . . , p}; applicando f ad ambo i membri della (88), si ha:
(89)
λk v = f (v1 ) + · · · + f (vs )
con f (vi ) ∈ Vg (µi ) per ogni i = 1 . . . , s, in forza della (86). D’altra parte, molplicando
ambo i membri della stessa uguaglianza (88) per λk si ha:
(90)
λk v = λk v1 + · · · + λk vs
81
e quindi dal confronto delle due decomposizioni (89) e (90) dello stesso vettore λk v, segue
che:
f (v1 ) = λk v1 , . . . , f (vs ) = λk vs
e quindi vi ∈ Vf (λk ) ⊂ A per ogni i = 1, . . . , s. Per concludere fissiamo quindi una base
B di V costituita da autovettori di f (esiste perchè f è diagonalizzabile), di modo che
B ⊂ A e poniamo
S = {vi | v ∈ B, i ∈ {1, . . . , s} }.
È chiaro che, in forza della (88), anche S è sistema di generatori di V e per quanto visto
sopra, S ⊂ A ∩ B. La dimostrazione è completa.
2
33. Dualità
Sia V uno spazio vettoriale di dimensione n > 0 sul campo K. Ricordiamo che il duale
di V è lo spazio
V ∗ = L(V, K).
In base al Corollario 23.4 abbiamo, poichè dim(K) = 1:
Teorema 33.1. Risulta:
dim(V ) = dim(V ∗ ).
Sia B = {v1 , . . . , vn } una base di V . Per ogni i = 1, . . . , n denoteremo con vi∗ l’unica
applicazione lineare V → K tale che
vi∗ (vj ) = δji
(91)
∀j ∈ {1, . . . , n}.
L’esistenza ed unicità di tali applicazioni vi∗ è garantita dal Teorema 17.2.
Teorema 33.2. L’insieme B∗ = {v1∗ , . . . , vn∗ } è una base di V ∗ , detta duale di B. Inoltre,
per ogni ϕ ∈ V ∗ si ha
ϕ = ϕ(v1 )v1∗ + · · · + ϕ(vn )vn∗ .
(92)
Dimostrazione: Poichè dim(V ∗ ) = n, è sufficiente provare che B∗ è un sistema
di generatori e, a tale scopo, basta provare la (92). Trattandosi di un’uguaglianza tra
applicazioni lineari V → K è sufficiente controllare che tali applicazioni assumano lo stesso
valore su ciascun vettore vj della base B. Infatti, applicando le relazioni (91) si ottiene:
(ϕ(v1 )v1∗ + · · · + ϕ(vn )vn∗ )(vj ) = ϕ(v1 )v1∗ (vj ) + · · · + ϕ(vj )vj∗ (vj ) + · · · + ϕ(vn )vn∗ (vj ) =
ϕ(vj )vj∗ (vj ) = ϕ(vj ) · 1 = ϕ(vj ).
2
Proposizione 33.3. Siano B = {v1 , . . . , vn } una base di V e B∗ = {v1∗ , . . . , vn∗ } la base
duale. Sia v ∈ V un vettore di componenti (x1 , . . . , xn );allora
vi∗ (v) = xi
In particolare, i funzionali
determinato da B.
vi∗
∀i ∈ {1, . . . , n}.
sono le funzioni componenti dell’isomorfismo ψB : V → Kn
82
Dimostrazione: Ciò segue direttamente dalla linearità delle vi∗ avendosi:
n
n
n
X
X
X
vi∗ (v) = vi∗ (
xk vk ) =
xk vi∗ (vk ) =
xk δik = xi .
k=1
k=1
k=1
L’ultima affermazione è ovvia perchè, per definizione, ψB (v) = (x1 , . . . , xn ) = (v1∗ (v), . . . , vn∗ (v)).
2
Definizione 33.4. Sia f : V → W un’applicazione lineare tra due K-spazi vettoriali. Si
chiama trasposta di f l’applicazione
f∗ : W∗ → V ∗
definita nel modo seguente:
(93)
∀ϕ ∈ W ∗
f ∗ (ϕ) := ϕ ◦ f.
Notiamo che, fissato un elemento ϕ di W ∗ , f ∗ (ϕ) è effettivamente un elemento di V ∗ in
quanto, essendo sia ϕ che f lineari, la loro composizione è un’applicazione lineare V → K;
ciò assicura che f ∗ è ben definita. Inoltre la definizione precedente ha senso anche se V e
W non hanno dimensione finita.
Proposizione 33.5. La trasposta di un’applicazione lineare è anch’essa lineare.
Dimostrazione: Infatti, siano ϕ, ϕ0 ∈ W ∗ ; abbiamo:
(∗)
f ∗ (ϕ + ϕ0 ) = (ϕ + ϕ0 ) ◦ f = ϕ ◦ f + ϕ0 ◦ f = f ∗ (ϕ) + f ∗ (ϕ0 ).
L’uguaglianza (*) si giustifica facilmente come segue; per ogni v ∈ V risulta:
((ϕ + ϕ0 ) ◦ f )(v) = (ϕ + ϕ0 )(f (v)) = ϕ(f (v)) + ϕ0 (f (v)) = (ϕ ◦ f )(v) + (ϕ0 ◦ f )(v).
La dimostazione del fatto che f ∗ (λϕ) = λf ∗ (ϕ) per ogni λ ∈ K e ϕ ∈ W ∗ è simile e si
lascia al lettore.
2
Consideriamo ora il caso di spazi di dimensione finita. Il risultato seguente giustifica la
denominazione “trasposta” attribuita a f ∗ .
Teorema 33.6. Sia f : V → W un’applicazione lineare tra due K-spazi vettoriali entrambi
non banali, di dimensione finita. Siano B una base di V e C una base di W . Allora
(94)
∗
C
MCB∗ (f ∗ ) = tMB
(f ).
Dimostrazione: Assumiamo che B = {v1 , . . . , vn } e C = {w1 , . . . , wm } con n =
∗
C (f ) = (as ). Allora per
dim(V ) e m = dim(W ). Poniamo anche MCB∗ (f ∗ ) = (bij ) e MB
t
definizione di matrice associata ad f , risulta per ogni i ∈ {1, . . . , n} (cf. Osservazione
22.2):
(95)
f (vi ) =
m
X
k=1
aki wk .
83
Applicando ancora la definizione della matrice associata a f ∗ abbiamo, fissati i ∈ {1, . . . , n}
e j ∈ {1, . . . , m}:
bij =
(∗)
componente i − ma di f ∗ (wj∗ ) rispetto a B∗ =
f ∗ (wj∗ )(vi ) =
(wj∗ ◦ f )(vi ) =
wj∗ (f (vi )) =
m
X
∗
wj (
aki wk ) =
k=1
m
X
k=1
m
X
aki wj∗ (wk ) =
aki δkj =
k=1
aji .
Si osservi che l’uguaglianza (*) è conseguenza della (92), applicata con ϕ = f ∗ (wj∗ ).
2
Corollario 33.7. Data un’applicazione lineare f : V → W tra spazi di dimensione finita,
si ha
rg(f ) = rg(f ∗ ).
Dimostrazione: Ciò segue dal fatto che il rango di una matrice coincide con quello
della sua trasposta, in forza del Teorema 22.4.
2
Definizione 33.8. Sia W ⊂ V un sottospazio di V . Si chiama annullatore di W il
sottospazio W 0 di V ∗ definito da
W 0 := {ϕ ∈ V ∗ | ∀v ∈ W ϕ(w) = 0}.
(96)
Si lascia al lettore la semplice verifica del fatto che W 0 è effettivamente un sottospazio
di V ∗ .
Teorema 33.9. Sia V unos apzio vettoriale di dimensione n. Per ogni sottospazio W di
V si ha:
dim(W 0 ) = n − dim(W ).
Dimostrazione: Notiamo che nel caso in cui W = {0}, allora W 0 = V ∗ e l’asserto è
vero. Supponiamo quindi W 6= {0}, e sia Bo = {w1 , . . . , wk } una base di W , k = dim(W );
sia B = {w1 , . . . , wn } una base di B ottenuta completando Bo . Consideriamo la base
duale B∗ = {w1∗ , . . . , wn∗ } di B. Allora abbiamo per ogni ϕ ∈ V ∗ :
ϕ=
n
X
i=1
ϕ(wi )wi∗
=
k
X
i=1
ϕ(wi )wi∗
+
n
X
i=k+1
ϕ(wi )wi∗
84
e questo è l’unico modo per rappresentare ϕ come combinazione lineare dei vettori di B∗ .
Ora notiamo che, poichè W è generato da w1 , . . . , wk :
ϕ ∈ W 0 ⇐⇒ ∀v ∈ W ϕ(v) = 0 ⇐⇒ ∀i = 1, . . . , k
ϕ(wi ) = 0
e quindi
ϕ∈W
0
⇐⇒ ϕ =
n
X
ϕ(wi )wi∗
i=k+1
ovvero concludiamo che
∗
W 0 = L(wk+1
, . . . , wn∗ )
2
da cui l’asserto.
Teorema 33.10. Sia f : V → W un’applicazione lineare tra due K-spazi vettoriali di
dimensione finita. Allora
(97)
Im(f ∗ ) = Ker(f )0
(98)
Ker(f ∗ ) = Im(f )0 .
Dimostrazione: Per provare (97) notiamo innanzitutto che i due spazi coinvolti
hanno la stessa dimensione; infatti, applicando il Teorema del rango e tenendo conto del
Corollario 33.7 e del Teorema 33.9, abbiamo:
dim(Im(f ∗ )) = dim(Im(f )) = dim(V ) − dim(Ker(f )) = dim(Ker(f )0 ).
Dunque basta provare che sussiste l’inclusione ⊂; infatti, sia α = f ∗ (ϕ) un vettore di
Im(f ∗ ), dove ϕ ∈ W ∗ . Allora per ogni v ∈ Ker(f ) risulta:
α(v) = f ∗ (ϕ)(v) = (ϕ ◦ f )(v) = ϕ(f (v)) = ϕ(0) = 0
il che mostra che α ∈ Ker(f )0 . È cosı̀ provato che Im(f ∗ ) ⊂ Ker(f )0 e quindi la (97).
Similmente, anche per quel che riguarda la (98), i due spazi che vi figurano hanno la stessa
dimensione:
dim(Ker(f ∗ )) = dim(W ∗ ) − dim(Im(f ∗ )) = dim(W ) − dim(Im(f )) = dim(Im(f )0 ).
Proviamo quindi l’inclusione ⊃. Sia ϕ ∈ Im(f )0 ; per definizione f ∗ (ϕ) = ϕ ◦ f ; tale
applicazione è nulla in quanto per ogni v ∈ V si ha
(ϕ ◦ f )(v) = ϕ(f (v)) = 0
dove l’ultima uguaglianza è giustificata dal fatto che f (v) ∈ Im(f ) e ϕ ∈ Im(f )0 . Resta
provato che ϕ ∈ Ker(f ∗ ).
2
Definizione 33.11. Sia V uno spazio vettoriale su K. Lo spazio V ∗∗ duale di V ∗ si dirà
biduale di V .
Nel caso in cui V ha dimensione finita, è possibile definire un isomorfismo canonico tra
V ed il biduale V ∗∗ , che descriviamo di seguito. Consideriamo l’applicazione
Φ : V → V ∗∗
tale
(99)
∀v ∈ V
Φ(v)(ϕ) = ϕ(v) ∀ϕ ∈ V ∗
85
La definizione di Φ è ben posta, nel senso che, per ogni v ∈ V , Φ(v) è effettivamente un
elemento di V ∗∗ , cioè è un funzionale su V ∗ . Infatti, se ϕ, ϕ0 ∈ V ∗ e λ ∈ K, allora
Φ(v)(ϕ + ϕ0 ) = (ϕ + ϕ0 )(v) = ϕ(v) + ϕ0 (v) = Φ(v)(ϕ) + Φ(v)(ϕ0 )
e
Φ(v)(λϕ) = (λϕ)(v) = λϕ(v) = λΦ(v)(ϕ).
Teorema 33.12. Ogni spazio vettoriale V di dimensione finita è canonicamente isomorfo
al suo biduale. Precisamente, l’applicazione Φ definita da (99) è un isomorfismo di spazi
vettoriali.
Dimostrazione: Riguardo la linearità di Φ, per ogni v, v 0 ∈ V abbiamo qualunque
sia ϕ ∈ V ∗ :
Φ(v + v 0 )(ϕ) = ϕ(v + v 0 ) = ϕ(v) + ϕ(v 0 ) = Φ(v)(ϕ) + Φ(v 0 )(ϕ) = (Φ(v) + Φ(v 0 ))(ϕ)
e questo prova che Φ(v + v 0 ) = Φ(v) + Φ(v 0 ). In modo analogo il lettore provi che Φ(λv) =
λΦ(v) per λ ∈ K e v ∈ V . Proviamo che Φ è bigettiva; poichè V ∗∗ e V hanno la stessa
dimensione, basta provare che Ker(Φ) = {0}. Sia v ∈ V tale che Φ(v) = 0. Ciò significa
che per ogni ϕ ∈ V ∗ è Φ(v)(ϕ) = 0; dunque
(100)
ϕ(v) = 0
∀ϕ ∈ V ∗ .
Fissiamo un isomorfismo f : V → Kn , dove n = dim(V ); le funzioni componenti f1 , . . . , fn
di f sono funzionali su V ; particolarizzando la (100), deve aversi
fi (v) = 0
per ogni i = 1 . . . , n, da cui f (v) = 0 e quindi v = 0.
2
Osservazione 33.13. Notiamo che è anche vero che V ∼
= V ∗ , perchè i due spazi hanno
la stessa dimensione; a differenza però di quanto appena discusso per il biduale, non
è possibile assegnare un isomorfismo V → V ∗ in modo “intrinseco”, ovvero in modo
indipendente dalla scelta di una base di V e di una base di V ∗ .
Corollario 33.14. Sia C una base di V ∗ . Allora esiste un’unica base B di V la cui duale
è C.
Dimostrazione: Sia C = {ϕ1 , . . . , ϕn } e sia C∗ = {ϕ∗1 , . . . , ϕ∗n } la base duale di C,
che è una base di V ∗∗ . Poniamo vi := Φ−1 (ϕ∗i ); allora, essendo Φ−1 un isomorfismo,
B := {v1 , . . . , vn } è una base di V . Vogliamo provare che la base duale di B è proprio C.
A tale scopo, basta mostrare che
ϕi (vj ) = δji .
Infatti, utilizzando la definizione di Φ, abbiamo:
ϕi (vj ) = Φ(vj )(ϕi ) = ϕ∗j (ϕi ) = δij .
Riguardo l’unicità, se {w1 , . . . , wn } è un’altra base con la stessa proprietà, allora valgono
le relazioni
ϕi (wj ) = δji
che possono essere riscritte
Φ(wj )(ϕi ) = δji
86
cioè
Φ(wj )(ϕi ) = ϕ∗j (ϕi )
e quindi Φ(wj ) coincide con ϕ∗j , o il che è lo stesso wj = Φ−1 (ϕ∗j ) = vj .
2
Corollario 33.15. Sia V uno spazio vettoriale di dimensione n > 0 sul campo K. Siano
ϕ1 , . . . , ϕk elementi di V ∗ . Allora
!
k
\
(101)
dimL(ϕ1 , . . . , ϕn ) = n − dim
Ker(ϕi ) .
i=1
Dimostrazione: Poniamo W :=
Tk
i=1 Ker(ϕi ).
Mostreremo che
Φ(W ) = L(ϕ1 , . . . , ϕk )0
da cui segue
dim(W ) = n − dim(L(ϕ1 , . . . , ϕk ))
e quindi la (101). Abbiamo infatti per ogni v ∈ V :
v ∈ W ⇐⇒ ∀i
ϕi (v) = 0 ⇐⇒ ∀i Φ(v)(ϕi ) = 0 ⇐⇒ Φ(v) ∈ L(ϕ1 , . . . , ϕk )0
e ciò significa che:
W = Φ−1 (L(ϕ1 , . . . , ϕk )0 )
da cui l’asserto.
2