Appunti per gli studenti del corso di Geometria 1 A.A. 2009/10 A. Lotta 1. Nozioni di base L’algebra lineare è la disciplina matematica il cui oggetto principale di studio è la teoria degli spazi vettoriali e delle applicazioni lineari. Sia K un campo. Denoteremo com’è consuetudine con 0 e 1 gli elementi neutri di K rispettivamente per la somma ed il prodotto. Definizione 1.1. Sia V un insieme non vuoto. Diremo che su V è assegnata una struttura di spazio vettoriale su K se sono assegnate due applicazioni: V × V → V, K×V →V denotate con (u, v) ∈ V × V 7→ u + v ∈ V (λ, u) ∈ K × V 7→ λu ∈ V e dette operazioni di “somma” e “prodotto esterno”, verificanti le seguenti proprietà: A) (V, +) è un gruppo abeliano. B) Le due operazioni sono legate dalle seguenti relazioni, valide per ogni λ, µ ∈ K e per ogni v, w ∈ V : 1) (λ + µ)v = λv + µv 2) λ(v + w) = λv + λw C) Il prodotto esterno soddisfa, per ogni λ, µ ∈ K e v ∈ V : 3) (λµ)v = λ(µv). 4) 1v = v. Diremo più semplicemente che V è uno spazio vettoriale su K o che V è un K-spazio vettoriale. Gli elementi di V si diranno vettori di V . Se λ ∈ K e v ∈ V , il vettore λv viene detto prodotto di v per lo scalare λ. L’elemento neutro rispetto all’operazione di somma verrà denotato con 0V o con 0 e sarà chiamato il vettore nullo di V . Ricordiamo inoltre che l’assioma A) garantisce la validità delle proprietà commutativa e associativa dell’operazione di somma; inoltre per ogni vettore v ∈ V esiste un unico vettore −v ∈ V tale che v + (−v) = 0V ; tale vettore sarà chiamato il vettore opposto di v. L’esistenza dell’opposto ha come conseguenza la cosiddetta legge di cancellazione nel gruppo (V, +), che possiamo formulare come segue: per ogni u, v, w ∈ V risulta u + w = v + w ⇒ u = v. Esempio 1.2. Ogni campo K è dotato di una struttura canonica di spazio vettoriale su se stesso; le operazioni sono esattamente quelle di somma e prodotto; gli assiomi di campo garantiscono infatti la validità delle proprietà A) e B) e C). 1 2 Esempio 1.3. Come altro esempio, consideriamo il sottoinsieme di R2 V := {(x, y) ∈ R2 |7x + 5y = 0}. Il lettore sa ben intepretare l’insieme V dal punto di vista della geometria euclidea: identificando R2 con un piano cartesiano, V è la retta passante per l’origine O(0, 0) del riferimento e per il punto Q(5, −7). Osserviamo ora che se P (x, y) ∈ V , allora moltiplicando entrambe le coordinate di P per uno stesso numero λ si ottiene un nuovo punto P 0 (λx, λy) che appartiene ancora a V ; infatti 7(λx) + 5(λy) = λ(7x + 5y) = 0. Denotiamo, per ogni P ∈ V e λ ∈ R, con λP il punto P 0 . Dati poi P (x, y) e Q(x0 , y 0 ) in V , anche il punto di coordinate (x + x0 , y + y) appartiene a V : 7(x + x0 ) + 5(y + y 0 ) = (7x + 5y) + (7x0 + 5y 0 ) = 0. Denoteremo tale punto con P + Q. Restano definite le operazioni (P, P 0 ) 7→ P + P 0 (λ, P ) 7→ λP. È un semplice esercizio verificare che tali operazioni muniscono V di una struttura di spazio vettoriale su R, il cui vettore nullo è il punto O(0, 0). Esempio 1.4. Generalizzando quanto fatto nell’esempio precedente, possiamo introdurre una struttura di R-spazio vettoriale su prodotto cartesiano R2 := R × R ponendo (x1 , y1 ) + (x2 , y2 ) := (x1 + x2 , y1 + y2 ), λ(x, y) := (λx, λy). Anche in questo caso il vettore nullo è (0, 0), e per ogni (x, y) ∈ R2 il vettore opposto è (−x, −y). Si lascia al lettore la verifica di tutte le proprietà A), B) e C) della definizione di spazio vettoriale. Prima di procedere oltre, mettiamo in evidenza alcune proprietà basilari degli spazi vettoriali che si deducono dagli assiomi. Proposizione 1.5. Sia V uno spazio vettoriale sul campo K. Allora per ogni v ∈ V e per ogni λ ∈ K, risulta: a) λ0V = 0V b) 0v = 0V c) −v = (−1)v. d) λv = 0V ⇒ λ = 0 ∨ v = 0V . Dimostrazione: a) Abbiamo λ0V = λ(0V + 0V ) = λ0V + λ0V da cui, per la legge di cancellazione: 0V = λ0V . b) Possiamo scrivere 0v = (0 + 0)v = 0v + 0v da cui ancora per la legge di cancellazione 0V = 0v. c) Per l’unicità dell’opposto di v nel gruppo (V, +), si tratta di provare che v + (−1)v = 0V . Infatti, v + (−1)v = 1v + (−1)v = (1 − 1)v = 0v = 0V dove l’ultimo passaggio è giustificato dalla proprietà b) già provata. 3 d) Si supponga λv = 0V . Se λ = 0, la tesi è provata. Supponiamo quindi che λ 6= 0; allora esiste l’inverso λ−1 di λ in K. Dalla relazione λv = 0V moltiplicando ambo i membri per λ−1 otteniamo λ−1 (λv) = λ−1 0V da cui per la a): (λ−1 λ)v = 0V che possiamo riscrivere 1v = 0V ovvero v = 0V . 2 Definizione 1.6. Siano V e V 0 due spazi vettoriali sullo stesso campo K. Un’ applicazione f : V → V 0 si dice K-lineare o semplicemente lineare se ha le proprietà seguenti: ∀u, v ∈ V ∀u ∈ V ∀λ ∈ K (1) (2) f (u + v) = f (u) + f (v). f (λu) = λf (u). Proposizione 1.7. Sia f : V → V 0 un’applicazione lineare tra K-spazi vettoriali. Allora f (0V ) = 0V 0 . Dimostrazione: Infatti, f (0V ) = f (0V + 0V ) = f (0V ) + f (0V ). Utilizzando la legge di cancellazione nel gruppo (V 0 , +) segue che 0V 0 = f (0V ). 2 Osservazione 1.8. Dati due K-spazi vettoriali V e V 0 , l’applicazione costante v ∈ V 7→ 0V 0 ∈ V 0 è lineare. Essa si chiama applicazione nulla da V in V 0 e verrà denotata con il simbolo 0. Esempio 1.9. Dato un qualunque spazio vettoriale, l’applicazione identica Id : V → V è certamente lineare. Come ulteriore esempio, determiniamo tutte le applicazioni lineari di un campo su se stesso. Fissato un elemento a ∈ K di un campo K, l’applicazione fa : K → K definita da fa (x) := ax ∀x ∈ K è lineare. Teorema 1.10. Sia f : K → K un’applicazione lineare. Allora esiste uno ed un solo a ∈ K tale che f = fa . Inoltre f isomorfismo ⇐⇒ f monomorfismo ⇐⇒ f epimorfismo ⇐⇒ a 6= 0. 4 Questo risultato, seppure elementare, è il prototipo di un risultato notevole di carattere generale che verrà trattato in seguito, studiando applicazioni lineari f : V → V dove V è uno spazio vettoriale “di dimensione finita”. Il caso in questione rientra in quello 1-dimensionale. Il ruolo svolto qui dallo scalare a sarà svolto da un certo oggetto, una “matrice” associata ad f , e la condizione a 6= 0 sarà sostituita dal non annullarsi del cosiddetto “determinante” di tale matrice. Dimostrazione: Osserviamo intanto che, se esiste a ∈ K per cui f = fa , allora a è necessariamente unico, in quanto deve concidere con f (1), avendosi: f (1) = fa (1) = a · 1 = a. Posto quindi a := f (1), verifichiamo che f = fa . Infatti, sfruttando la proprietà (2) delle applicazioni lineari, ottieniamo per ogni x ∈ K: f (x) = f (x1) = xf (1) = xa = ax. La dimostrazione dell’ultima parte è un esercizio di teoria degli insiemi basato sull’esistenza dell’inverso di a in K se a 6= 0 e si lascia al lettore. 2 La seguente proprietà è fondamentale nella teoria degli spazi vettoriali. Teorema 1.11. Siano V , V 0 e V 00 spazi vettoriali sullo stesso campo K e siano f : V → V 0 , g : V 0 → V 00 applicazioni lineari. Allora anche g ◦ f : V → V 00 è lineare. Dimostrazione: Siano u, v ∈ V ; allora (g ◦ f )(u + v) = g(f (u + v)) = g(f (u) + f (v)) = g(f (u)) + g(f (v)) = (g ◦ f )(u) + (g ◦ f )(v). In modo del tutto analogo si prova che (g ◦ f )(λu) = λ(g ◦ f )(u) per ogni λ ∈ K. 2 Definizione 1.12. Un’applicazione lineare bigettiva f : V → V 0 tra due K-spazi vettoriali prende il nome di isomorfismo. Due K-spazi vettoriali V e V 0 si diranno isomorfi se esiste almeno un isomorfismo f : V → V 0 . In tal caso, scriveremo V ∼ =V0 o anche, volendo mettere in evidenza un particolare isomorfismo: ∼ = f : V → V 0. Osservazione 1.13. Due spazi isomorfi sono da considerarsi due diverse manifestazioni del medesimo oggetto matematico; dal punto di vista dell’algebra lineare, essi avranno le stesse proprietà e si potranno opportunamente identificare. Esempio 1.14. Verifichiamo che lo spazio V esaminato nell’Esempio 1.3 è isomorfo a R. A tal scopo osserviamo che l’equazione 7x + 5y = 0 che caratterizza l’appartenenza di un punto (x, y) a V può essere riscritta, risolvendo rispetto a y: 7 y = − x. 5 5 Pertanto ha senso definire un’ applicazione f : R → V ponendo 7 f (x) := (x, − x) ∀x ∈ R. 5 È facile verificare che f è un isomorismo. Si può altresı̀ risolvere l’equazione di V rispetto ax 5 x=− y 7 il che suggerisce di definire un altro isomorfismo g : R → V ponendo 5 g(y) := (− y, y). 7 La proprietà che segue garantisce che, se V ∼ = V 0 , allora é anche V 0 ∼ = V. Proposizione 1.15. Siano V , V 0 spazi vettoriali sullo stesso campo K. Se f : V → V 0 è un isomorfismo, anche l’applicazione inversa f −1 : V 0 → V è lineare ed è pertanto un isomorfismo. Dimostrazione: Siano u0 , v 0 ∈ V 0 ; allora, per la linearità di f : f (f −1 (u0 ) + f −1 (v 0 )) = f (f −1 (u0 )) + f (f −1 (v 0 )) = u0 + v 0 da cui applicando f −1 : f −1 (u0 ) + f −1 (v 0 ) = f −1 (u0 + v 0 ). Sia λ ∈ K; allora f (λf −1 (u0 )) = λf (f −1 (u0 )) = λu0 da cui applicando ancora f −1 ricaviamo λf −1 (u0 ) = f −1 (λu0 ). 2 Come conseguenza del Teorema 1.11 e della Proposizione precedente, abbiamo la seguente: Proposizione 1.16. Siano V , V 0 e V 00 spazi vettoriali sullo stesso campo K. Allora a) V ∼ =V. b) V ∼ =V0 ⇒V0 ∼ = V. c) V ∼ =V0 ∧V0 ∼ = V 00 ⇒ V ∼ = V 00 . Assegnato dunque un campo K, la “relazione di isomorfismo” è una relazione di equivalenza sull’insieme di tutti i K-spazi vettoriali. Ciò permette di “classificare” gli spazi vettoriali su K disponendoli nelle classi di equivalenza corrispondenti. Dato uno spazio, la classe cui appartiene contiene tutti e soli gli spazi ad esso isomorfi, che potranno essere opportunamente identificati con esso. Osservazione 1.17. (Spazio vettoriale banale) Una classe di equivalenza particolare è quella costituita dai cosiddetti “spazi banali”. Si consideri un insieme V = {xo } avente un solo elemento. Possiamo munire V di un’unica struttura di K-spazio vettoriale ponendo xo + xo := xo , λxo := xo dove λ ∈ K. Naturalmente 0V = xo . V sarà chiamato spazio vettoriale banale o nullo su K. Due spazi banali V = {xo } e V 0 = {x0o } sono sempre isomorfi; infatti l’unica applicazione 6 lineare V → V 0 è quella nulla, che è un isomorfismo. Tutti gli spazi banali potranno essere identificati e saranno denotati semplicemente con il simbolo {0}. 2. Sottospazi Sia V uno spazio vettoriale sul campo K. Definizione 2.1. Un sottoinsieme non vuoto S di V si dice sottospazio vettoriale di V se sono soddisfatte le seguenti condizioni: a) ∀u, v ∈ S u + v ∈ S. b) ∀u ∈ S ∀λ ∈ K λu ∈ S. Le proprietà a) e b) si esprimono dicendo che il sottoinsieme S è chiuso o stabile rispetto alle operazioni di somma e prodotto esterno. La terminologia “sottospazio” è chiarita dalla seguente proposizione. Proposizione 2.2. Sia S ⊂ V un sottospazio vettoriale. Allora 0V ∈ S ed S eredita in modo canonico una struttura di spazio vettoriale su K, tale che 0S = 0V . Dimostrazione: Le condizioni a) e b) permettono di restringere le operazioni di somma e prodotto esterno su S, ottenendo nuove operazioni S × S → S, K × S → S. È evidente che l’operazione di somma cosı̀ ottenuta continua a essere associativa e commutativa. Inoltre l’operazione di prodotto esterno verifica le proprietà C) della definizione di spazio vettoriale, ed anche le B) sono immediatamente soddisfatte. Resta da chiarire che (S, +) è un gruppo. Sia u ∈ S; allora, utilizzando la stabilità di S per il prodotto esterno, abbiamo anche che il vettore opposto −u appartiene ad S, in quanto −u = (−1)u ∈ S (Prop. 1.5). In particolare, fissato un elemento u ∈ S (è possibile perchè S non è vuoto), si ottiene che 0V ∈ S; infatti: 0V = u + (−u) ∈ S. A questo punto è immediato constatare che (S, +) è un gruppo con elemento neutro 0V . 2 Osservazione 2.3. La “canonicità” della struttura di spazio vettoriale di un sottospazio S ⊂ V discussa nella dimostrazione precedente si chiarisce come segue: tale struttura è l’unica rispetto alla quale l’applicazione di inclusione iS : S → V è lineare. Infatti, supponiamo che S ammetta un’altra struttura di spazio vettoriale con questa proprietà, le cui operazioni siano denotate con (u, v) 7→ u ⊕ v e (λ, u) 7→ λ v. Allora, per la linearità di iS si ottiene u ⊕ v = iS (u ⊕ v) = iS (u) + iS (v) = u + v e λ v = iS (λ v) = λiS (v) = λv. Esempio 2.4. a) Dato uno spazio vettoriale V , il sottoinsieme {0V } è un sottospazio, detto sottospazio nullo o banale. Esso è uno spazio vettoriale banale nel senso dell’Osservazione 1.17. 7 b) Il sottoinsieme V ⊂ R2 discusso nell’Esempio 1.3 è sottospazio vettoriale di R2 ; la struttura di spazio vettoriale che si era introdotta in precedenza su V è proprio quella canonicamente indotta da R2 . Esempio 2.5. (Spazi di polinomi) Denotiamo con K[x] l’insieme di tutti i polinomi a ceofficienti nel campo K nell’indeterminata x. Un elemento p di K[x] si scrive dunque in modo unico come (3) p = a0 + a1 x + a2 x2 + · · · + ak xk , k ≥ 0. Ricordiamo che ad ogni polinomio (3) si attribuisce un grado, che è il più grande intero d tale che ad 6= 0. Il grado di p verrà denotato con gr(p). Il lettore conosce l’operazione di somma tra polinomi; dato p ∈ K[x] del tipo (3) e λ ∈ K, si definisce il prodotto λp in modo ovvio, ponendo λp := λa0 + λa1 x + λa2 x2 + · · · + λak xk . Le operazioni di somma e di prodotto esterno cosı̀ definito muniscono K[x] di una struttura di spazio vettoriale su K. Si lascia al lettore la verifica degli assiomi A), B) e C). Si noti che il vettore nullo di K[x] è il polinomio costante 0, detto anche polinomio nullo. Sia n ≥ 0; denotiamo con Kn [x] il sottoinsieme di K[x] costituito dai polinomi di grado ≤ n. Il polinomio nullo appartiene a Kn [x]. Se p, q ∈ K[x] e λ ∈ K, λ 6= 0, allora gr(p + q) ≤ max{gr(p), gr(q)} gr(λp) = gr(p). Da ciò segue subito che Kn [x] soddisfa le proprietà a) e b) della Definizione 2.1 ed è quindi un sottospazio di K[x]. 3. Applicazioni lineari e sottospazi Teorema 3.1. Sia f : V → V 0 un’applicazione lineare tra K-spazi vettoriali. Allora a) U ⊂ V sottospazio ⇒ f (U ) sottospazio b) W ⊂ V 0 sottospazio ⇒ f −1 (W ) sottospazio. Dimostrazione: a) Sia U ⊂ V un sottospazio; chiaramente f (U ) 6= ∅ perchè U 6= ∅. Fissiamo due elementi arbitrari z, w ∈ f (U ); allora esistono u1 , u2 ∈ U tali che z = f (u1 ), w = f (u2 ). Segue che z + w = f (u1 ) + f (u2 ) = f (u1 + u2 ), il che mostra che z + w ∈ f (U ) in quanto, essendo U sottospazio, è u1 + u2 ∈ U . Analogamente si verifica che qualunque sia λ ∈ K, risulta λz ∈ f (U ). b) Sia W ⊂ V 0 un sottospazio. Osserviamo che f −1 (W ) 6= ∅: infatti sappiamo che 0V 0 ∈ W ; ricordando che f (0V ) = 0V 0 (Prop. 1.7), segue che 0V ∈ f −1 (W ). Siano ora u, v ∈ f −1 (W ); vogliamo provare che u + v ∈ f −1 (W ), ovvero che f (u + v) ∈ W . Infatti, applicando la definizione di controimmagine, abbiamo che f (u) ∈ W e f (v) ∈ W ; utilizzando il fatto che W è sottospazio, abbiamo f (u + v) = f (u) + f (v) ∈ W e resta provato quanto si voleva. Analogamente si verifica che qualunque sia λ ∈ K, risulta λu ∈ f −1 (W ). 2 8 Proposizione 3.2. Sia f : V → V 0 un’applicazione lineare tra K-spazi vettoriali e sia W ⊂ V un sottospazio di V . Allora la restrizione f|W : W → V 0 è lineare. Dimostrazione: Infatti, f|W coincide con la composizione f|W = f ◦ iW e iW è lineare (cf. Osservazione 2.3). 2 4. Nucleo ed immagine di un’applicazione lineare Definizione 4.1. Sia f : V → V 0 un’applicazione lineare tra K-spazi vettoriali. Il sottospazio f (V ) di V 0 prende il nome di Immagine di f e si denota col simbolo Im(f ). Il sottospazio f −1 ({0V 0 }) di V 0 prende il nome di nucleo di f e si denota col simbolo Ker(f ). Dunque, per definizione Ker(f ) = {v ∈ V | f (v) = 0V 0 }. L’importanza del nucleo è chiarita dal seguente risultato: Teorema 4.2. Sia f : V → V 0 un’applicazione lineare tra K-spazi vettoriali. Allora f è ingettiva ⇐⇒ Ker(f ) = {0V }. Dimostrazione: Supponiamo f ingettiva. Sia u ∈ Ker(f ); allora f (u) = 0V 0 , ovvero stante la Prop. 1.7, f (u) = f (0V ), da cui u = 0V . Supponiamo ora Ker(f ) = {0V }; siano u, v ∈ V tali che f (u) = f (v). Utlizzando le proprietà del gruppo (V 0 , +), segue: f (u) − f (v) = 0V 0 ovvero per la linearità di f : f (u − v) = 0V 0 pertanto u − v ∈ Ker(f ) e quindi per l’ipotesi u − v = 0V , ovvero u = v. 2 Definizione 4.3. Un’applicazione lineare ingettiva verrà detta monomorfismo. Un’applicazione lineare surgettiva verrà invece detta epimorfismo. Osserviamo che f : V → V 0 è un epimorfismo se e solo se Im(f ) = V 0 . 5. Prodotti diretti Siano V1 e V2 spazi vettoriali sullo stesso campo K. Definiamo sul prodotto cartesiano V1 × V2 due operazioni (V1 × V2 ) × (V1 × V2 ) → V1 × V2 , K × (V1 × V2 ) → V1 × V2 nel modo seguente (4) (v1 , v2 ) + (w1 , w2 ) := (v1 + v2 , w1 + w2 ), λ(v1 , v2 ) := (λv1 , λv2 ). È facile verificare che tali operazioni godono delle proprietà A), B) e C) della Definizione 1.1. In particolare, l’elemento neutro per la somma è la coppia (0V1 , 0V2 ); per ogni v = (v1 , v2 ) ∈ V1 × V2 , la coppia (−v1 , −v2 ) è l’opposto di v. 9 Definizione 5.1. Lo spazio vettoriale V1 ×V2 dotato delle operazioni (4) si chiama prodotto diretto di V1 e V2 . Dato un prodotto diretto V1 × V2 di K-spazi vettoriali, si definiscono in modo naturale due applicazioni dette proiezioni pi : V1 × V2 → V1 , p2 : V1 × V2 → V2 tali che p1 (v1 , v2 ) := v1 , p2 (v1 , v2 ) := v2 . Dalla definizione della struttura di spazio vettoriale di V1 × V2 segue immediatamente che p1 e p2 sono entrambe K-lineari. Si ricordi che ogni campo K è canonicamente spazio vettoriale su se stesso. Ha senso allora la seguente: Definizione 5.2. Dato un campo K, il prodotto diretto K × K verrà denotato con il simbolo K2 . La nozione di prodotto diretto si estende in modo ovvio al caso di più spazi vettoriali V1 , . . . , Vn con n ≥ 2. Sul prodotto cartesiano V1 × V2 · · · × Vn , costituito per definizione da tutte le n-ple ordinate (v1 , . . . , vn ) con vi ∈ Vi per ogni i = 1, . . . , n, si introduce una struttura di spazio vettoriale le cui operazioni sono definite in modo analogo al caso n = 2: (v1 , v2 , . . . , vn ) + (w1 , w2 , . . . , wn ) := (v1 + w1 , . . . , vn + wn ), λ(v1 , . . . vn ) := (λv1 , . . . , λvn ). Il vettore nullo è (0V1 , . . . , 0Vn ) e per ogni v = (v1 , . . . , vn ) ∈ V1 × · · · × Vn , il vettore −v coincide con (−v1 , . . . , −vn ). Si definiscono inoltre n applicazioni, dette proiezioni pi : V1 × · · · × Vn → Vi , ponendo pi (v1 , . . . , vn ) := vi . Per come sono definite le operazioni di somma e prodotto esterno in V1 × · · · × Vn , risulta che ciascuna proiezione è K-lineare. Notiamo anche che ∀v ∈ V1 × · · · × Vn v = (p1 (v), . . . , pn (v)). Inoltre (5) ∀u, v ∈ V1 × · · · × Vn u = v ⇐⇒ ∀i = 1, . . . , n pi (u) = pi (v). Definizione 5.3. Dato un campo K, per ogni n ≥ 2 il prodotto diretto K · · × K} verrà | × ·{z denotato con il simbolo Kn . n volte 10 Osserviamo esplicitamente che per quel che concerne Kn , le proiezioni sono le n applicazioni pi : Kn → K tali che pi (x1 , . . . , xn ) = xi . Naturalmente abbiamo ∀x ∈ Kn x = (p1 (x), . . . , pn (x)). Proposizione 5.4. Siano V , V1 , · · · , Vn , n ≥ 2, spazi vettoriali sul campo K e sia f : V → V1 × · · · × V n un’applicazione. Allora f è lineare ⇐⇒ ∀i = 1, . . . , n pi ◦ f : V → Vi è lineare . Dimostrazione: L’implicazione ⇒ é ovvia, perchè le proiezioni sono tutte lineari e la composizione di applicazioni lineari è lineare (Teorema 1.11). Proviamo ⇐ supponendo che per ogni i, pi ◦ f sia lineare. Siano u, v ∈ V ; vogliamo provare che f (u + v) = f (u) + f (v). Ciò equivale a ∀i ∈ {1, . . . , n} pi (f (u + v)) = pi (f (u) + f (v)); sfruttando la linearità delle proiezioni, questa identità può essere riscritta ∀i ∈ {1, . . . , n} pi (f (u + v)) = pi (f (u)) + pi (f (v)) cioè ∀i ∈ {1, . . . , n} (pi ◦ f )(u + v) = (pi ◦ f )(u) + (pi ◦ f )(v) ma questa identità è vera per ipotesi. In modo del tutto analogo si prova che f (λu) = λf (u) per ogni λ ∈ K e u ∈ V . 2 Definizione 5.5. Siano V , V1 , . . . , Vn , n ≥ 2, spazi vettoriali sul campo K. Data un’applicazione f : V → V1 × · · · × Vn le n applicazioni pi ◦ f si chiamano componenti di f e si denoteranno con fi . Dunque ∀u ∈ V f (u) = (f1 (u), . . . , fn (u)). Notiamo che f = 0 ⇐⇒ ∀i = 1, . . . , n fi = 0. 6. La base canonica di Kn Lo spazio Kn contiene un insieme di vettori particolarmente importante; esso costituisce il prototipo della nozione di “base” di uno spazio vettoriale qualsiasi che verrà studiata in seguito. Definizione 6.1. Sia n ≥ 2. Si chiama base canonica di Kn l’insieme costituito dai vettori {e1 , . . . , en } cosı̀ definiti: (6) e1 := (1, 0, . . . , 0), e2 := (0, 1, 0, . . . , 0), . . . , en := (0, 0, . . . , 0, 1). 11 Dunque per ogni j ∈ {1, . . . , n}, il vettore ej ha tutte le coordinate nulle tranne la j-ma che coincide con 1. Ad esempio, la base canonica di K2 è costituita dai vettori e1 := (1, 0), e2 := (0, 1). Stabiliamo ora una proprietà fondamentale della base canonica: Teorema 6.2. Per ogni vettore x = (x1 , . . . , xn ) ∈ Kn si ha (7) x = x1 e1 + · · · + xn en = n X xi ei . i=1 Quindi n ∀v ∈ K n ∃|(λ1 , . . . , λn ) ∈ K : v= n X λi ei . i=1 Dimostrazione: Denotato con w il vettore a secondo membro dell’uguaglianza (7), per provare che x = w, basta mostrare che per ogni i, pi (x) = pi (w). Infatti, fissato i, abbiamo pi (x) = xi . D’altra parte, utilizzando la linearità della proiezione pi : pi (x1 e1 +· · ·+xn en ) = x1 pi (e1 )+· · ·+xi pi (ei )+· · ·+xn pi (en ) = 0+· · ·+xi ·1+0 · · ·+0 = xi . 2 Come prima applicazione della proprietà (7) della base canonica, determiniamo le applicazioni lineari Kn → K, estendendo il risultato ottenuto nel Teorema 1.10. Teorema 6.3. Fissato un intero n ≥ 2, siano α1 , . . . , αn ∈ K. Allora l’applicazione f : Kn → K definita da (8) ∀x = (x1 , . . . , xn ) ∈ Kn f (x1 , . . . , xn ) = α1 x1 + · · · + αn xn è K-lineare. Viceversa, ogni applicazione lineare f : Kn → K è della forma (8), cioè esistono opportuni scalari α1 , . . . , αn per cui sussiste (8). Dimostrazione: La dimostrazione della prima parte è un semplice esercizio. Sia assegnata un’applicazione lineare f : Kn → K. Utilizzando la relazione fondamentale x = x1 e1 + · · · + xn en otteniamo, utilizzando la linearità di f : f (x) = f (x1 e1 ) + · · · + f (xn en ) = x1 f (e1 ) + · · · + xn f (en ) da cui si ottiene che f è della forma richiesta, ponendo αj := f (ej ). 2 Osservazione 6.4. Con riferimento alla (8), notiamo che f = 0 ⇐⇒ ∀i = 1, . . . , n αi = 0. Osservazione 6.5. Nel seguito estenderemo il significato del simbolo Kn anche per n = 0 e n = 1, convenendo che K0 = {0} è lo spazio banale su K, mentre K1 = K. Anche per n = 1, è possibile introdurre una base canonica, costituita dal solo vettore e1 := 1. 12 7. Classificazione degli spazi Kn Teorema 7.1. Sia f : Kn → K un’applicazione lineare, con n ≥ 2. Se f 6= 0, allora Ker(f ) ∼ = Kn−1 . Dimostrazione: Sappiamo dal Teorema 6.3 che f è della forma f (x1 , . . . , xn ) = α1 x1 + · · · + αn xn . Segue che Ker(f ) è il sottospazio costituito da tutti e soli i vettori (x1 , . . . , xn ) tali che α1 x1 + · · · + αn xn = 0. (9) Se f 6= 0, esiste j tale che αj 6= 0. Proviamo che l’applicazione g : Ker(f ) → Kn−1 definita da1 ∀x = (x1 , . . . , xn ) ∈ Ker(f ) g(x) := (x1 , . . . , xj−1 , xj+1 , . . . , xn ) ∈ Kn−1 è un isomorfismo di spazi vettoriali. Mostriamo intanto che g è lineare. Siano g1 , . . . , gn−1 le funzioni componenti di g; allora ciascuna gi : Ker(f ) → K è la restrizione a Ker(f ) di un’ opportuna proiezione Kn → K. Precisamente g1 = p1 |Ker(f ) , . . . , gj = pj+1 |Ker(f ) , . . . , gn−1 = pn |Ker(f ) . Pertanto le gi sono tutte lineari, il che garantisce che tale è g (Prop. 5.4). Resta da provare che g è bigettiva. La dimostrazione è basata sull’osservazione che, poichè αj 6= 0, l’equazione (9) che descrive Ker(f ) può essere riscritta nella forma equivalente: X αi xi . (10) xj = − αj i6=j Ciò premesso, proviamo che g è ingettiva, mostrando che Ker(g) = {0}. Sia x = (x1 , . . . , xn ) ∈ Ker(g); allora per la definizione di g abbiamo che xi = 0 per ogni i 6= j; d’altra parte x ∈ Ker(f ), per cui la coordinata xj di x è legata alle altre dalla (10), onde xj = 0. Infine, mostriamo che g è surgettiva; a tale scopo osserviamo che, assegnati n − 1 scalari y1 , . . . , yn−1 , mediante la (10) resta univocamente determinato un vettore di Ker(f ) le cui componenti diverse dalla j-ma sono gli yi ; piú precisamente, sia y = (y1 , . . . , yn−1 ) ∈ Kn−1 ; allora il vettore X αi X αi yi − yi−1 , yj , . . . , yn ) x = (y1 , . . . , yj−1 , − αj αj i<j i>j appartiene a Ker(f ) e si ha g(x) = (y1 , . . . , yj−1 , yj , . . . , yn−1 ) = y. 2 Osservazione 7.2. Coerentemente con le convenzioni fatte nell’Oss. 6.5, il risultato precedente è valido anche per n = 1, in quanto il Teorema 1.10 garantisce Ker(f ) = {0} se f 6= 0. 1Nel caso in cui j = 1 l’indice j − 1 perde di significato. La definizione di g va intesa come g(x) = (x2 , . . . , xn ). 13 Teorema 7.3. Siano n, m interi con n > m ≥ 1. Allora non esistono applicazioni lineari ingettive f : Kn → Km . Dimostrazione: Ragionando per induzione su n ≥ 2, proviamo che ogni applicazione lineare f : Kn → Km con m < n non è ingettiva. Se n = 2 abbiamo m = 1 e l’asserto segue dal Teorema precedente, che garantisce che Ker(f ) 6= {0}. Sia n > 2. Ancora per il Teorema precedente possiamo supporre f 6= 0 e m > 1. Siano f1 , . . . , fm le funzioni componenti di f , di modo che f (x) = (f1 (x), . . . , fm (x)) ∀x ∈ Kn . Poichè f è lineare, ciascuna fi : Kn → K è lineare. Siccome f 6= 0, certamente fj 6= 0 per almeno un j. Allora applicando il Teorema precedente, Ker(fj ) ∼ = Kn−1 . Ora, f induce un’applicazione g : Ker(fj ) → Km−1 definita da g(x) = (f1 (x), . . . , fj−1 (x), fj+1 (x), . . . , fm (x)). Si noti che g è lineare in quanto ciascuna sua componente è la restrizione a Ker(fj ) di una componente di f . Dall’ipotesi induttiva segue che g non è ingettiva; infatti, se g fosse ingettiva, componendola con un fissato insomorfismo ψ : Kn−1 → Ker(fj ) si otterebbe un monomorfismo g ◦ ψ : Kn−1 → Km−1 . Fissato infine un vettore non nullo z ∈ Ker(g), si ha anche f (z) = 0 e quindi f non è ingettiva. 2 Corollario 7.4. (Teorema di classificazione) Siano n, m ∈ N. Allora Kn ∼ = Km se e solo se n = m. 8. Somma di sottospazi Siano assegnati un K-spazio vettoriale V e due suoi sottospazi U1 e U2 . Definizione 8.1. Si chiama somma di U1 ed U2 il sottoinsieme di V : U1 + U2 := {u1 + u2 | u1 ∈ U1 , u2 ∈ U2 }. Proposizione 8.2. La somma U1 + U2 è un sottospazio di V . Dimostrazione: Naturalmente U1 + U2 6= ∅ perchè entrambi gli spazi Ui , i = 1, 2 non sono vuoti. Siano z, w ∈ U1 + U2 . Allora z = u1 + u2 per opportuni vettori ui ∈ Ui e w = v1 + v2 per certi vi ∈ Ui . Segue, in forza delle proprietà associativa e commutativa della somma: z + w = (u1 + u2 ) + (v1 + v2 ) = (u1 + v1 ) + (u2 + v2 ) il che mostra che z + w ∈ U1 + U2 in quanto, essendo gli Ui sottspazi, ui + vi ∈ Ui . In modo analogo si verifica che per ogni λ ∈ K risulta λz ∈ U1 + U2 . 2 Definizione 8.3. Dati i sottospazi U1 e U2 , la somma U1 + U2 verrà detta diretta se (11) U1 ∩ U2 = {0V }. In tal caso, in luogo di U1 + U2 si scriverà U1 ⊕ U2 . 14 Diamo di seguito due diverse caratterizzazioni della condizione (11). Proposizione 8.4. Dati i sottospazi U1 e U2 di V , le seguenti proprietà sono equivalenti: a) U1 ∩ U2 = {0V }. b) Ogni vettore v ∈ U1 + U2 si scrive in modo unico nella forma z = u1 + u2 con ui ∈ Ui , i = 1, 2. In altri termini, per ogni u1 , v1 ∈ U1 e u2 , v2 ∈ U2 si ha: u1 + u2 = v1 + v2 ⇒ u1 = v1 ∧ u2 = v2 . Dimostrazione: a) ⇒ b). Supponiamo u1 + u2 = v1 + v2 . Allora u1 − v1 = v2 − u2 ed il vettore con cui coincidono ambo i membri appartiene sia ad U1 che ad U2 in virtù delle proprietà dei sottospazi. Pertanto, per la a), si ha u1 − v1 = 0V = v2 − u2 e di qui la b). b) ⇒ a). Sia z ∈ U1 ∩ U2 ; poichè z = z + 0V = 0V + z 2 applicando la b) si ottiene che z = 0V . Proposizione 8.5. Dati i sottospazi U1 e U2 di V , le seguenti proprietà sono equivalenti: a) U1 ∩ U2 = {0}. b) Per ogni u1 ∈ U1 e u2 ∈ U2 si ha: u1 + u2 = 0 ⇒ u1 = u2 = 0. Dimostrazione: La prova di a) ⇒ b) si ottiene subito applicando b) della Proposizione precedente, in quanto se u1 + u2 = 0, allora u1 + u2 = 0 + 0, e quindi necessariamente u1 = u2 = 0. Riguardo b) ⇒ a), sia z ∈ U1 ∩ U2 ; tenendo conto dell’uguaglianza z + (−z) = 0 dove z ∈ U1 e −z ∈ U2 , applicando b) si ottiene che z = 0. 2 Studiamo ora la situazione in cui siano assegnati due sottospazi U1 e U2 di V tali che (12) V = U1 ⊕ U2 . In tal caso diremo che V è somma diretta di U1 ed U2 . In forza della Proposizione 8.4, tale condizione è equivalente alla seguente: ogni vettore v ∈ V si scrive in modo unico nella forma (13) v = u1 + u2 u1 ∈ U1 , u2 ∈ U2 . Definizione 8.6. Se sussiste (12) si dice che i sottospazi U1 e U2 sono supplementari ovvero che U2 (risp. U1 ) è un supplementare di U1 (risp. di U2 ). Siano U1 e U2 sottospazi supplementari. L’unicità della scrittura (13) permette di definire due applicazioni p1 : V → U1 , p2 : V → U2 tali che p1 (v) := u1 , p2 (v) = u2 . 15 Dunque ∀v ∈ V v = p1 (v) + p2 (v). È immediato riconoscere che le pi sono entrambe lineari. Esse si chiameranno proiezioni da V su U1 e su U2 determinate dalla decomposizione (12) di V come somma diretta di U1 ed U2 . Notiamo inoltre che le entrambe le proiezioni sono surgettive: infatti, dato un vettore ui ∈ Ui , possiamo scrivere ui = ui + 0 = 0 + ui da cui per definizione segue: pi (ui ) = ui . Osservazione 8.7. È opportuno sottolineare il fatto che, dato un sottospazio W di V , non esiste a priori alcuna nozione intrinseca di proiezione V → W . Le proiezioni sui sottospazi Ui definite a partire dalla condizione (12) dipendono strettamente da quest’ultima. Fissato un sottospazio U1 possono esistere due diversi sottospazi supplementari2 U2 e U20 di U1 . In corrispondenza di tali supplementari, avranno luogo due diverse proiezioni p1 : V → U1 e p01 : V → U1 . Osservazione 8.8. Sia f : V → W un’applicazione lineare tra K-spazi vettoriali. Allora, se U1 e U2 sono due sottospazi di V , risulta che: f (U1 + U2 ) = f (U1 ) + f (U2 ). Infatti: f (U1 + U2 ) = {f (u1 + u2 )|ui ∈ Ui } = {f (u1 ) + f (u2 )|ui ∈ Ui } = f (U1 ) + f (U2 ). Chiudiamo questo paragrafo studiando il legame tra le nozioni di prodotto diretto di spazi e somma di sottospazi. Siano ancora U1 e U2 sottospazi del K-spazio vettoriale V . Poichè gli Ui sono entrambi spazi vettoriali su K, ha senso considerarne il prodotto diretto U1 × U2 . Tale prodotto è correlato in maniera naturale alla somma U1 + U2 mediante la seguente applicazione ψ : U1 × U2 → U1 + U2 definita da (14) ∀(u1 , u2 ) ∈ U1 × U2 ψ(u1 , u2 ) := u1 + u2 . Tale applicazione è surgettiva per la definizione stessa di U1 + U2 . Verifichiamo che ψ è anche lineare: siano z = (u1 , u2 ) e w = (v1 , v2 ) due vettori di U1 × U2 ; allora ψ(z + w) = ψ(u1 + v1 , u2 + v2 ) = (u1 + v1 ) + (u2 + v2 ) = (u1 + u2 ) + (v1 + v2 ) = ψ(z) + ψ(w). Per ogni λ ∈ K abbiamo anche ψ(λz) = ψ(λu1 , λu2 ) = λu1 + λu2 = λ(u1 + u2 ) = λψ(z). Determiniamo ora il nucleo di ψ. Per ogni z = (u1 , u2 ) ∈ U1 × U2 risulta ψ(z) = 0 ⇐⇒ u1 + u2 = 0 ⇐⇒ u2 = −u1 ⇐⇒ u2 = −u1 e u1 ∈ U1 ∩ U2 2In seguito si vedrà come come costruire un supplementare a partire da una base di V nel caso in cui V ha dimensione finita. Scegliendo basi diverse, si perviene a supplementari diversi. 16 e quindi otteniamo (15) Ker(ψ) = {(u, −u)| u ∈ U1 ∩ U2 }. Come conseguenza immediata3 possiamo enunciare il seguente risultato: Teorema 8.9. Dati due sottospazi U1 e U2 dello spazio vettoriale V , le seguenti condizioni sono equivalenti: a) La somma U1 + U2 è diretta. b) L’applicazione ψ : U1 × U2 → U1 + U2 definita dalla (14) è un isomorfismo. 9. Matrici Sia K un campo e siano m, n interi positivi. Definizione 9.1. Una matrice A di tipo m×n ad elementi in K è una tabella rettangolare costituita da m · n elementi di K disposti in m righe ed n colonne, e rappresentata nel modo seguente: 1 a1 a12 · · · a1n a2 a2 · · · a2 n 2 1 (16) A = .. .. .. .. . . . . am ··· am 1 2 am n Si scrive anche in modo compatto A = (aij ) 1≤i≤m o più semplicemente A = (aij ). Alter1≤j≤n nativamente, l’elemento generico di A avente occupante la riga i-ma e la colonna j-ma si denota anche con aij , e si scrive A = (aij ). Nella scrittura A = (aij ) converremo sempre che l’indice in alto (in basso) indichi la riga (risp. la colonna) occupata dall’elemento aij , mentre nella scrittura A = (aij ) il primo indice (risp. il secondo indice) indichi la riga (risp. la colonna) occupata dell’elemento aij . L’elemento di posto (i, j) di una matrice A verrà spesso denotato anche con il simbolo Aij . Fissato i ∈ {1, . . . , m}, l’i-ma riga di A è dunque la matrice di tipo 1 × n A(i) := ai1 ai2 · · · ain mentre, fissato j ∈ {1, . . . , m}, la j-ma colonna di A è la matrice di tipo m × 1: 1 aj a2 j A(j) := . . .. am j Possiamo rappresentare A per colonne nel modo seguente: A = A(1) A(2) · · · A(n) 3Il risultato del Teorema 8.9 è anche conseguenza immediata della Proposizione 8.5; utilizzeremo co- munque nel seguito il calcolo esplicito di Ker(ψ), cf. Teorema 16.12. 17 oppure per righe: A(1) A(2) A = . . .. A(m) L’insieme di tutte le matrici di tipo m × n ad elementi in K verrà denotato col simbolo Mm,n (K). Nel caso in cui m = n si utilizzerà la notazione Mn (K) e le matrici A ∈ Mn (K) si diranno quadrate di ordine n. Spesso una matrice (a1 . . . an ) di tipo 1 × n è chiamata vettore riga ed è identificata con il vettore (a1 , . . . , an ) dello spazio Kn . Più precisamente, l’applicazione (a1 . . . an ) ∈ M1,n (K) 7→ (a1 , . . . , an ) ∈ Kn n è una bigezione, attraverso la quale i due insiemi M 1,n (K) e K si possono identificare in a1 a2 modo canonico. Analogamente, ogni matrice .. è detta vettore colonna ed è identifi . am cabile anch’essa con (a1 , . . . , am ) ∈ Km . Nel seguito tali identificazioni saranno utilizzate senza ulteriori commenti. Definizione 9.2. Sia assegnata una matrice A = (aij ) ∈ Mm,n (K). Si chiama trasposta di A la matrice tA di tipo n × m definita da t A := (aji ) ovvero, per definizione, l’elemento di posto (i, j) di tA è l’elemento di posto (j, i) di A. In altri termini, tA si ottiene da A scambiandone le righe con le colonne. Altre notazioni spesso usate per denotare la trasposta di una matrice A sono Esempio 9.3. Se A = 1 2 √ At , A−1 . 1 2 √ 5 3 , allora tA = 5 0. 0 0 3 0 Teorema 9.4. L’insieme Mm,n (K) ammette una struttura canonica di spazio vettoriale su K, determinata dalle operazioni di somma e prodotto esterno cosı̀ definite: per ogni A = (aij ), B = (bij ) e λ ∈ K si pone A + B := (aij + bij ), λA = (λaij ). Lasciamo al lettore la cura di verificare la validità degli assiomi A), B) e C) della definizione di spazio vettoriale. Ci limitiamo a mettere in evidenza due fatti salienti: il vettore nullo dello spazio vettoriale Mm,n (K) in questione è la matrice nulla ovvero la matrice, denotata semplicemente con 0, i cui elementi sono tutti uguali allo zero di K. Per ogni A = (aij ) ∈ Mm,n (K), il vettore opposto di A è la matrice −A = (−aij ). D’ora in avanti considereremo sempre l’insieme Mm,n (K) munito della struttura di spazio vettoriale appena descritta. 18 Esempio 9.5. L’appicazione Φ : Mm,n (K) → Mn,m (K) definita da t Φ(A) := A ∀A ∈ Mm,n (K) è un isomorfismo. La linearità di Φ è equivalente infatti alle due relazioni seguenti, di immediata verifica: (17) t (A + B) = tA +t B, t (λA) = λ tA. La bigettività di Φ è subito provata notando che tt ( A) = A. Definizione 9.6. Una matrice quadrata A ∈ Mn (K) si dice simmetrica se coincide con la propria trasposta; si dice invece antisimmetrica se tA = −A. In altri termini: A è simmetrica ⇐⇒ aij = aji ∀i, j ∈ {1, . . . , n} A è antisimmetrica ⇐⇒ aij = −aji ∀i, j ∈ {1, . . . , n}. Proposizione 9.7. L’insieme Sn (K) delle matrici simmetriche e l’insieme An (K) delle matrici antisimmetriche di ordine n sono entrambi sottospazi vettoriali di Mn (K). Dimostrazione: Entrambi gli insiemi in questione sono non vuoti, perchè la matrice nulla è sia simmetrica che antisimmetrica. La verifica delle condizioni a) e b) della definizione 2.1 è una semplice applicazione delle proprietà (17). 2 Definizione 9.8. Una matrice quadrata A = (aij ) ∈ Mn (K) si dice diagonale se aij = 0 In tal caso denoteremo A come segue: 1 a1 a22 A= ∀i 6= j. .. . ann . Notiamo che, rappresentando tale matrice per colonne, abbiamo A = a11 e1 · · · ann en . Una matrice diagonale si dice scalare se a11 = a22 = · · · = ann ovvero gli elementi diagonali, cioè quelli aventi indice riga e colonna coincidenti, sono tutti uguali tra loro. Notiamo che ogni matrice diagonale D è del tipo D = λIn dove λ è l’elemento di K con cui coincidono tutti gli elementi diagonali di D. Si chiama matrice identica o matrice unità di Mn (K) la matrice diagonale i cui elementi diagonali sono tutti uguali ad 1. Tale matrice si denoterà col simbolo In . Ad esempio: 1 0 0 I3 = 0 1 0 . 0 0 1 19 Si è soliti denotare l’elemento di posto (i, j) della matrice identica In con il simbolo δji detto simbolo di Kronecker. Dunque per definizione 1 se i = j i δj := . 0 se i 6= j Definizione 9.9. Si chiama traccia di una matrice quadrata A = (aij ) ∈ Mn (K) lo scalare tr(A) := a11 + a22 + · · · + ann somma degli elementi diagonali di A. Proposizione 9.10. L’applicazione tr : Mn (K) → K che associa ad ogni matrice A ∈ Mn (K) la propria traccia, è un’applicazione lineare. La dimostrazione è un semplice esercizio. Come conseguenza, notiamo che l’insieme sl(n, K) := {A ∈ Mn (K)| tr(A) = 0} costituito dalle matrici di ordine n a traccia nulla è un sottospazio vettoriale di Mn (K). Infatti, sl(n, K) coincide con il nucleo di tr : Mn (K) → K. Definiamo ora un’operazione fondamentale tra matrici, detta prodotto righe per colonne. b1 b2 Definizione 9.11. Siano A = (a1 . . . an ) un vettore riga e B = .. un vettore colonna . bn dello stesso ordine n ≥ 1. Si definisce il loro prodotto AB come lo scalare AB := a1 b1 + a2 b2 + · · · + an bn ∈ K. Definizione 9.12. Siano A ∈ Mm,n (K) e B ∈ Mn,p (K) due matrici tali che il numero di colonne di A concida con il numero di righe di B. Si definisce prodotto righe per colonne o semplicemente prodotto di A per B la matrice di tipo m × p il cui elemento di posto (i, j) è dato dal prodotto della riga i-ma di A per la colonna j-ma di B. In simboli: AB := (A(i) B(j) ). (18) Osserviamo che, posto A = (aik ) e B = (bkj ), esplicitando la (18) si ottiene ! n X aik bkj . (19) AB = k=1 Esempio 9.13. Posto A = 4 2 3 −1 e B = −2, risulta che AB è di tipo 2 × 1 e si 0 1 5 0 calcola come segue: AB = 2 · 4 + 3 · (−2) + (−1 · 0) 2 = . 0 · 4 + 1 · (−2) + 5 · 0 −2 Notiamo anche che in tal caso il prodotto BA non ha senso. 20 Proposizione 9.14. Siano A ∈ Mm,n (K) e B ∈ Mn,p . Allora 1) Per ogni i ∈ {1, . . . , m} si ha (i) (20) (AB) = n X aik B (k) . k=1 2) Per ogni j ∈ {1, . . . , p} si ha (21) (AB)(j) = n X bkj A(k) . k=1 3) Rappresentando AB per colonne, risulta AB = AB(1) AB(2) · · · AB(p) . Dimostrazione: 1) In base alla definizione di prodotto, ed in particolare alla (19), abbiamo ! n n n n n X X X X X k i k i k i (i) i k k k ak bp = ak b2 · · · ak b1 aik B (k) . ak b1 b2 · · · bp = (AB) = k=1 k=1 k=1 k=1 k=1 Analogamente: (AB)(j) n X 1 k ak bj 1 k=1 n ak X 2 k n n X a b a2 X k j (∗) k k = k=1 bkj A(k) bj .. = = . k=1 .. k=1 am n . k X am bk k j k=1 e ciò prova 2). Infine, l’uguaglianza (*) può anche reintepretarsi come 1 bj .. (AB)(j) = A . = AB(j) bnj e di qui la 3). 2 L’uguaglianza (20) si esprime dicendo che ogni riga del prodotto AB è una combinazione lineare delle righe di B con coefficienti ai1 , . . . , ain nella corrispondente riga di A di uguale indice. Cosı̀ la (21) si esprime dicendo che ogni colonna del prodotto AB è una combinazione lineare delle colonne di A con coefficienti b1j , . . . , bm j nella corrispondente colonna di B. Nel prossimo paragrafo si studierà la nozione generale di combinazione lineare di vettori di uno spazio vettoriale qualsiasi. Corollario 9.15. Sia A ∈ Mm,n (K). 21 1) Identificando ciascun vettore della base canonica di Kn con un vettore colonna, risulta: ∀j ∈ {1, . . . , n} Aej = A(j) . 2) Identificando ciascun vettore della base canonica di Km con un vettore colonna, risulta: ∀i ∈ {1, . . . , m} t ei A = A(i) . Dimostrazione: Riguardo la 1), si tratta di applicare la proprietà (21), ottenendo che Aej è la combinazione lineare delle colonne di A con coefficienti: 0A(1) + · · · + 0A(j−1) + 1A(j) + 0A(j+1) + · · · 0A(n) ovvero coincide con A(j) . La dimostrazione di 2) si ottiene in modo analogo applicando la (20). 2 Nella proposizione che segue vengono esaminate ulteriori proprietà basilari del prodotto righe per colonne. Proposizione 9.16. 1) Siano A ∈ Mm,n (K), B, C ∈ Mn,p (K). Allora A(B + C) = AB + AC. 2) Siano A, B ∈ Mm,n (K), C ∈ Mn,p (K). Allora (A + B)C = AC + BC. 3) Siano A ∈ Mm,n (K), B ∈ Mn,p (K) e α ∈ K. Allora α(AB) = (αA)B = A(αB). Dimostrazione: Le dimostrazioni sono tutte esercizi senza difficoltà; a titolo di esempio, proviamo la prima uguaglianza nella 3); denotiamo con cij l’elemento generico di α(AB) e con dij l’elemento generico di (αA)B. Per ogni i ∈ {1, . . . , m} e j ∈ {1, . . . , p} risulta: n n X X cij = α( aik bkj ) = (αaik )bkj = dij . k=1 k=1 2 Definizione 9.17. Sia A ∈ Mm,n (K) una matrice fissata; ad essa si associa un’applicazione LA : Kn → Km definita come segue: (22) ∀x ∈ Kn LA (x) := Ax. 22 Qui i vettori di Kn e di Km sono pensati come vettori ed il prodotto Ax è il colonna x1 x2 prodotto righe per colonne. Dunque se A = (aij ) e x = .. è un vettore di Kn , allora: . xn a11 x1 + a12 x2 + · · · + a1n xn .. LA (x) = Ax = . . m m m a1 x1 + a2 x2 + · · · + an xn Notiamo anche che, applicando la (21) si ottiene: LA (x) = x1 A(1) + x2 A(2) + · · · + xn A(n) . (23) Proposizione 9.18. Per ogni matrice A ∈ Mm,n (K), l’applicazione LA : Kn → Km ad essa associata è lineare. Dimostrazione: Abbiamo infatti, applicando le 1) e 3) della Proposizione precedente, per ogni x, y ∈ Kn : LA (x + y) = A(x + y) = Ax + Ay = LA (x) + LA (y) e per ogni λ ∈ K si ha LA (λx) = A(λx) = λ(Ax) = λLA (x). 2 Mostriamo ora che l’applicazione LA determina completamente A. Teorema 9.19. Siano A, B ∈ Mm,n (K). Le seguenti proprietà sono equivalenti: a) A = B b) LA = LB c) ∀x ∈ Kn Ax = Bx. Dimostrazione: L’implicazione a) ⇒ b) è ovvia, e la b) ⇒ c) è immediata per definizione di uguaglianza tra applicazioni. Proviamo che c) ⇒ a). Particolarizzando la c) per x = ei , i = 1, . . . , n otteniamo Aei = Bei che, in forza del Corollario 9.15 si può riscrivere A(i) = B(i) 2 e ciò comporta che A = B. Teorema 9.20. Siano A ∈ Mm,n (K) e B ∈ Mp,q (K). Allora (24) LAB = LA ◦ LB . 23 Dimostrazione: Notiamo che le applicazioni ad ambo i membri della (24) sono applicazioni Kp → Km . Sia x ∈ Kp ; allora, utilizzando la (23) otteniamo: LAB (x) = (AB)x = x1 (AB)(1) + x2 (AB)(2) + · · · + xp (AB)(p) = x1 (AB(1) ) + x2 (AB(2) ) + · · · + xp (AB(p) ) = A(x1 B(1) ) + A(x2 B(2) ) + · · · + A(xp B(p) ) = A(x1 B(1) + x2 B(2) + · · · + xp B(p) ) = A(Bx) = ALB (x) = LA (LB (x)) = (LA ◦ LB )(x). 2 Corollario 9.21. (Proprietà associativa del prodotto tra matrici) Siano A ∈ Mm,n (K), B ∈ Mn,p (K) e C ∈ Mn,p (K). Allora A(BC) = (AB)C. Dimostrazione: In forza del Teorema 9.19, basta provare che LA(BC) = L(AB)C . Ciò segue subito dal Teorema precedente; infatti LA(BC) = LA ◦ LBC = LA ◦ (LB ◦ LC ) = (LA ◦ LB ) ◦ LC = LAB ◦ LC = L(AB)C dove si è tenuto conto della proprietà associativa della composizione di applicazioni. 2 10. Sottospazio generato da un numero finito di vettori Sia V uno spazio vettoriale sul campo K e sia v1 , . . . , vr , r ≥ 1, una successione finita di vettori. Definizione 10.1. Si chiama sottospazio generato da v1 , . . . , vr l’insieme L(v1 , . . . , vr ) := {λ1 v1 + · · · + λr vr | λ1 , . . . , λr ∈ K}. Ciascun elemento di tale insieme è detto combinazione lineare dei vettori v1 , . . . , vr . Notiamo che L(v1 , . . . , vr ) è effettivamente un sottospazio di V . Chiaramente L(v1 , . . . , vr ) non è vuoto; notiamo anche che 0 ∈ L(v1 , . . . , vr ) in quanto Date due combinazioni lineari r X 0 = 0v1 + · · · + 0vr . r X µi vi , la loro somma è ancora una combinazione λi vi e i=1 i=1 lineare: (25) r X i=1 λi vi + r X i=1 µi vi = r X (λi + µi )vi . i=1 (si noti l’utilizzo della proprietà associativa della somma e dell’assioma B) di spazio vettoriale). Cosı̀, per ogni λ ∈ K abbiamo r r X X (26) λ λi vi = (λλi )vi . i=1 i=1 24 Proposizione 10.2. Data una successione finita di vettori v1 , . . . , vr , r ≥ 1, il sottospazio generato da essi è il più piccolo sottospazio (per inclusione) contenente gli stessi vettori. In altri termini, se W è un sottospazio qualsiasi, allora {v1 , . . . , vr } ⊂ W ⇒ L(v1 , . . . , vr ) ⊂ W. Dimostrazione: Ciascun vettore vi si può scrivere come combinazione linare vi = 0v1 + · · · + 0vi−1 + 1vi + 0vi+1 + · · · + 0vr e quindi appartiene a L(v1 , . . . , vr ). Se W è un sottospazio che contiene tutti i vettori vi , allora esso contiene qualunque loro combinazione lineare, essendo chiuso rispetto alla somma ed al prodotto esterno. 2 Data la successione v1 , . . . , vr e posto A = {v1 , . . . , vr }, il sottospazio L(v1 , . . . , vr ) verrà anche denotato con L(A) e chiamato il sottospazio generato dall’insieme A. Osserviamo che, dati due insiemi finiti A, B di V risulta: A ⊂ B ⇒ L(A) ⊂ L(B). Infatti, se A ⊂ B, allora A ⊂ L(B) e quindi L(A) ⊂ L(B) essendo L(A) il più piccolo sottospazio contenente A. Proposizione 10.3. Sia f : V → V 0 un’applicazione lineare tra K-spazi vettoriali e siano v1 , . . . , vr vettori di V . Allora f (L(v1 , . . . , vr )) = L(f (v1 ), . . . , f (vr )). Dimostrazione: Basta notare che, in forza della definizione di applicazione lineare, r X per ogni combinazione lineare v = λi vi , l’immagine f (v) è una combinazione lineare i=1 dei vettori f (v1 ), . . . , f (vk ), precisamente: f (v) = binazione lineare r X r X λi f (vi ). Viceversa, data una com- i=1 r X λi f (vi ), essa coincide con f ( i=1 λi vi ). 2 i=1 In corrispondenza di una successione finita A = {v1 , . . . , vr } possiamo definire un’applicazione ϕA : Kr → V nel modo seguente (27) ϕA (λ1 , . . . , λr ) := r X λi vi . i=1 È di semplice verifica il fatto che ϕA è lineare, in forza delle (25) e (26). Notiamo anche che (28) Im(ϕA ) = L(v1 , . . . , vr ). 25 Osservazione 10.4. Mettiamo in evidenza che r non è necessariamente la cardinalità dell’insieme A; non è escluso a priori che alcuni dei vettori v1 , . . . , vr possano coincidere. In ogni caso, l’insieme di partenza di ϕA è sempre da considerarsi Kr . Ad esempio, se v1 = · · · = vr = v, allora ϕA : Kr → V è definita da ϕA (λ1 , . . . , λr ) = (λ1 + · · · + λr )v ed in tal caso Im(ϕA ) = L(v). 11. Sistemi di generatori; vettori indipendenti; basi Sia V uno spazio vettoriale sul campo K e sia v1 , . . . , vr , r ≥ 1 una successione finita di vettori. Definizione 11.1. Si dice che v1 , . . . , vr generano V se V = L(v1 , . . . , vr ). Si dice anche che l’insieme {v1 , . . . , vr } è un sistema di generatori di V . Ad esempio, per ogni n ≥ 1, la base canonica di Kn è un sistema di generatori di Kn . Ciò è conseguenza del Teorema 6.2. Definizione 11.2. Uno spazio vettoriale V si dice finitamente generato o di dimensione finita se ammette almeno un sistema di generatori v1 , . . . , vr per qualche r ≥ 1. Osserviamo che, se S = {v1 , . . . , vr } è un sistema di generatori, tale è ogni sottoinsieme finito S 0 contenente S. Infatti, V = L(S) ⊂ L(S 0 ). Osservazione 11.3. Non tutti gli spazi vettoriali sono finitamente generati. Ad esempio, consideriamo lo spazio dei polinomi K[x] (cf. Esempio 2.5). Ammettiamo che esista un sistema di generatori finito S; detto n il grado massimo dei polinomi dell’insieme S, abbiamo S ⊂ Kn [x] da cui seguirebbe K[x] = L(S) ⊂ Kn [x] il che è assurdo. Dunque K[x] non è finitamente generato. Osserviamo invece che, per ogni n ≥ 1, il sottospazio Kn [x] è finitamente generato, avendosi Kn [x] = L(1, x, . . . , xn ). Definizione 11.4. Si dice che i vettori v1 , . . . , vr sono linearmente indipendenti se ∀(λ1 , . . . , λr ) ∈ Kr λ1 v1 + · · · + λr vr = 0 ⇒ λ1 = · · · = λr = 0. In altri termini, v1 , . . . , vr sono linearmente indipendenti se l’unica loro combinazione lineare nulla è quella banale, i cui coefficienti λi sono tutti uguali a zero. Se v1 , . . . , vr sono linearmente indipendenti, l’insieme A = {v1 , . . . , vr } si dirà libero. Proposizione 11.5. a) Sia v ∈ V . Allora: {v} è libero ⇐⇒ v 6= 0. b) Se v1 , . . . , vr sono linearmente indipendenti, allora per ogni i è vi 6= 0. 26 Dimostrazione: a) Si assuma che {v} sia libero. Non può essere v = 0 perchè si avrebbe 1v = 0, e quindi 1 = 0. Si assuma ora v 6= 0 e proviamo che {v} è libero. Sia λ ∈ K tale che λv = 0. Allora, applicando la d) della Prop. 1.5, si ha necessariamente λ = 0. b) Si assuma che v1 , . . . , vr siano linearmente indipendenti. Se fosse vi = 0 per qualche i, si avrebbe 0v1 + · · · + 0vi−1 + 1vi + 0vi+1 + · · · + 0vr = 0 ottenendo cosı̀ una combinazione lineare nulla non banale dei vettori in questione, contro l’ipotesi. 2 Osservazione 11.6. Se i vettori v1 , . . . , vr sono linearmente indipendenti, allora necessariamente essi sono tutti distinti. Infatti, se fosse vi = vj per i < j, si otterrebbe 0v1 + · · · + · · · + 0vi−1 + 1vi + · · · + (−1)vj + 0vj+1 + · · · + 0vr = 0. Notiamo esplicitamente che, assegnato un insieme {u1 , . . . , ur }, r ≥ 1, esso non sarà considerato libero se esistono i e j con ui = uj , anche se, scartando i vettori uguali, effettivamente i vettori restanti sono indipendenti. Ad esempio, posto u1 = (1, 2), u2 = (1, 3), u3 = (1, 2), allora l’insieme {u1 , u2 , u3 } ⊂ R2 non è da considerarsi libero, sebbene {u1 , u2 , u3 } = {u1 , u2 } ed u1 e u2 sono indipendenti. In altri termini, la proprietà di indipendenza o dipendenza lineare va riferita sempre alla successione u1 , . . . , ur . Segnaliamo di seguito due ulteriori proprietà concernenti la nozione di indipendenza lineare. Proposizione 11.7. Siano assegnati i vettori v1 , . . . , vs dello spazio V . Le seguenti proprietà sono equivalenti: a) v1 , . . . , vs sono linearmente dipendenti. b) Almeno uno dei vettori v1 , . . . , vs è combinazione lineare degli altri. Dimostrazione: a) ⇒ b). Si assuma che v1 , . . . , vs siano linearmente dipendenti; allora esiste una combinazione lineare nulla s X λi vi = 0 i=1 con i coefficienti non tutti nulli; sia λj 6= 0; allora possiamo ricavare vj dalla relazione precedente ottenendo vj = − j−1 X λk k=1 λj vk − s X λk vk λj k=j+1 e ciò prova b). b) ⇒ a). Per ipotesi esiste j ∈ {1, . . . , s} tale che vj = j−1 X k=1 αk vk + s X k=j+1 αk vk 27 per opportuni scalari αk . Si ottiene pertanto j−1 X αk vk − vj + k=1 s X αk vk = 0 k=j+1 il che mostra l’esistenza di una combinazione lineare nulla non banale dei vettori v1 , . . . , vs . 2 Proposizione 11.8. Siano v1 , . . . , vs vettori indipendenti. Allora, se v 6∈ L(v1 , . . . , vs ), anche i vettori v1 , . . . , vs , v sono indipendenti. Dimostrazione: Siano λ1 , . . . , λs , λ ∈ K tali che s X λk vk + λv = 0. k=1 Non può essere λ 6= 0 perchè altrimenti si ricaverebbe v=− s X λk k=1 λ vk contro il fatto che v 6∈ L(v1 , . . . , vs ). Dunque λ = 0 e quindi s X λk vk = 0 k=1 da cui λ1 = · · · = λs = 0 perchè i vettori v1 , . . . , vs sono linearmente indipendenti. 2 Introduciamo ora una nozione cruciale per lo studio degli spazi vettoriali finitamente generati. Definizione 11.9. Sia V uno spazio vettoriale sul campo K. Un insieme finito di vettori {v1 , . . . , vr } di dice base di V se: 1) v1 , . . . , vr generano V . 2) v1 , . . . , vr sono indipendenti. La base canonica {e1 , . . . , en } di Kn è effettivamente una base nel senso della Definizione precedente; osserviamo che l’indipendenza dei vettori e1 , . . . , en è ancora conseguenza immediata dell’identità fondamentale (7). Proposizione 11.10. Sia f : V → V 0 un’applicazione lineare tra K-spazi vettoriali e siano v1 , . . . , vk vettori di V . a) Si supponga f surgettiva. Allora v1 , . . . , vk generano V ⇒ f (v1 ), . . . , f (vk ) generano V 0 . b) Si supponga f ingettiva. Allora v1 , . . . , vk sono indipendenti ⇒ f (v1 ), . . . , f (vk ) sono indipendenti . 28 Dimostrazione: a) Supponendo che V = L(v1 , . . . , vk ), applicando f e tenendo conto della Proposizione 10.3, segue V 0 = f (V ) = f (L(v1 , . . . , vk )) = L(f (v1 ), . . . , f (vk )). b) Si supponga che v1 , . . . , vk siano indipendenti e si consideri una combinazione lineare P nulla ki=1 λi f (vi ) = 0. Allora per la linearità di f : k X f( λi vi ) = 0 i=1 Pk e ciò significa che i=1 λi vi ∈ Ker(f ). Poichè f è ingettiva, segue λ1 = · · · = λk = 0 per l’indipendenza dei vettori v1 , . . . , vk . Pk i=1 λi vi = 0 da cui 2 Osservazione 11.11. In base alla a) della Proposizione precedente, abbiamo che se f :V →V0 è un epimorfismo e V è finitamente generato, allora tale è V 0 . Corollario 11.12. Sia f : V → V 0 un isomorfismo tra K-spazi vettoriali. Se B = {v1 , . . . , vn } è una base di V , allora B0 = {f (v1 ), . . . , f (vn )} è una base di V 0 . Forniamo infine un’utile caratterizzazione delle nozioni definite sopra mediante l’applicazione lineare ϕA : Kr → V introdotta nel paragrafo precedente (cf. (27)). Proposizione 11.13. Si consideri una successione finita A = {v1 , . . . , vr }, r ≥ 1 di vettori dello spazio V . Allora (1) v1 , . . . , vr generano V ⇐⇒ ϕA è surgettiva. (2) v1 , . . . , vr sono indipendenti ⇐⇒ ϕA è ingettiva. Dimostrazione: La prima equivalenza segue direttamente dal fatto che Im(ϕA ) = L(v1 , . . . , vr ). Riguardo la seconda, abbiamo che ϕA è ingettiva se e solo se Ker(ϕA ) = {0} il che si può esplicitare come segue: ∀(λ1 , . . . , λr ) ∈ Kr ϕA (λ1 , . . . , λr ) = 0 ⇒ λ1 = · · · = λr = 0 ovvero r ∀(λ1 , . . . , λr ) ∈ K r X λi vi = 0 ⇒ λ1 = · · · = λr = 0 i=1 il che per definizione equivale a richiedere che v1 , . . . , vr siano indipendenti. 2 Corollario 11.14. Data la successione finita di vettori B = {v1 , . . . vn }, allora B è base di V ⇐⇒ ϕB è un isomorfismo. 12. Estrazione di basi Sia V uno spazio vettoriale finitamente generato sul campo K. In questo paragrafo mostreremo che V è dotato di basi, descrivendo un algoritmo mediante il quale è possibile estrarre da un sistema di generatori assegnato v1 , . . . , vr una base {vi1 , . . . , vin } con i1 < · · · < in . A tale scopo, introduciamo la seguente terminologia: 29 Definizione 12.1. Sia v1 , . . . , vr un sistema di generatori di V . Sia i ∈ {1, . . . , r}. Il vettore vi si dirà eliminabile se esso è combinazione lineare dei vettori che lo precedono, ovvero se vi ∈ L(v1 , . . . , vi−1 ). Per i = 1, il sottospazio L(v1 , . . . , vi−1 ) va inteso {0}, e v1 è eliminabile se e solo se è il vettore nullo. Teorema 12.2. Sia V uno spazio vettoriale non banale finitamente generato. Dato un sistema di generatori v1 , . . . , vr , siano vi1 , . . . , vin , i1 < · · · < in i vettori non eliminabili da esso. Allora B = {vi1 , . . . , vin } è una base di V . Tale base si dice estratta dal sistema di generatori v1 , . . . , vr mediante l’algoritmo di eliminazione o algoritmo degli scarti successivi. Dimostrazione: Procediamo per induzione su r. Nel caso r = 1 abbiamo V = L(v1 ) e v1 6= 0 essendo V non banale. Dunque v1 è non eliminabile e d’altra parte {v1 } è un insieme libero ed è quindi una base di V . Sia ora r > 1 e supponiamo vero l’asserto per r − 1. Notiamo che V = L(v1 , . . . , vr−1 ) + L(vr ). Distinguiamo quindi due casi: (1) vr ∈ L(v1 , . . . , vr−1 ), cioè vr è eliminabile; (2) vr 6∈ L(v1 , . . . , vr−1 ), cioè vr non è eliminabile. Nel primo caso, V = L(v1 , . . . , vr−1 ) ed i vettori non eliminabili vi1 , . . . , vin coincidono con quelli non eliminabili dal sistema di generatori v1 , . . . , vr−1 . Pertanto essi costituiscono una base di V per l’ipotesi induttiva. Esaminiamo ora il secondo caso. L’ultimo vettore non eliminabile vin coincide con vr . I vettori non eliminabili sono quindi {vi1 , . . . , vin−1 , vr }, dei quali i primi n − 1 sono esattamente i vettori non eliminabili dal sistema di generatori v1 , . . . , vr−1 di L(v1 , . . . , vr−1 ). Per l’ipotesi induttiva {vi1 , . . . , vin−1 } è base di L(v1 , . . . , vr−1 ). Proviamo quindi che B = {vi1 , . . . , vin−1 , vr } è base di V . Abbiamo infatti V = L(v1 , . . . , vr−1 ) + L(vr ) = L(vi1 , . . . , vin−1 ) + L(vr ) per cui B è un sistema di generatori. Inoltre dal fatto che vn 6∈ L(v1 , . . . , vn−1 ) si ha a maggior ragione che vn 6∈ L(vi1 , . . . , vin−1 ) e pertanto B è un insieme libero in forza della Proposizione 11.8. 2 13. Dimensione di uno spazio vettoriale Teorema 13.1. Sia V uno spazio vettoriale finitamente generato sul campo K. (1) Esiste un solo intero n ∈ N tale che V ∼ = Kn . (2) Se n > 0, V contiene basi; inoltre ogni base è costituita da n vettori. Dimostrazione: Riguardo l’unicità di n, se esistesse un altro intero s per cui V ∼ = Ks , s n ∼ avremmo di conseguenza K = K , il che comporta s = n per il Corollario 7.4. Per quel che concerne l’esistenza, se V è banale, allora V ∼ = K0 . Se V non è banale, il Teorema 12.2 garantisce che esiste almeno una base B = {v1 , . . . , vn } ed in corrispondenza di tale base vi è l’isomorfismo ϕB : Kn → V (Corollario 11.14). Riguardo l’ultima affermazione, sia 30 n > 0; se B0 = {w1 , . . . , wm } è una qualunque base, abbiamo l’isomorfismo ϕB0 : Km → V . Allora m = n per l’unicità di n. 2 Definizione 13.2. Assegnato uno spazio vettoriale finitamente generato V , l’unico intero n determinato dal Teorema precedente si chiama la dimensione di V e si denota con dimK (V ) o semplicemente con dim(V ). Dunque si può decidere qual è la dimensione di uno spazio finitamente generato individuando un isomorfismo con un opportuno spazio Kn , oppure individuandone una base (per esempio mediante l’algoritmo di eliminazione) e contandone il numero di elementi. Osservazione 13.3. Se V è uno spazio di dimensione finita, allora ogni spazio V 0 ad esso è isomorfo è di dimensione finita ed ha la stessa dimensione. Ciò segue direttamente dalla definizione di dimensione, in virtù della proprietà transitiva della relazione di isomorfismo tra spazi vettoriali (Prop. 1.16). Naturalmente, alla stessa conclusione si perviene facendo uso della nozione di base: se V è non banale e B = {v1 , . . . , vn } è una base di V , scelto un isomorfismo f : V → V 0 , sappiamo che B0 = {f (v1 ), . . . , f (vn )} è base di V 0 (Corollario 11.12) quindi dim(V ) = dim(V 0 ) perchè B e B0 sono costituite dallo stesso numero di vettori. La dimensione si caratterizza ulteriormente mediante le nozioni di indipendenza lineare e di sistema di generatori, come segue: Teorema 13.4. Sia V uno spazio vettoriale finitamente generato di dimensione n ≥ 1. (1) La dimensione n è il massimo numero di vettori indipendenti; ciò significa che esistono n vettori indipendenti e se v1 , . . . , vs sono vettori indipendenti, allora s ≤ n. (2) La dimensione n è il numero minimo di vettori che occorrono per generare V ; cioè esistono n vettori che generano V e se v1 , . . . , vs sono vettori che generano V , allora s ≥ n. Dimostrazione: Proviamo (1). Se B è una base, allora essa è costituta da n vettori, che sono indipendenti. Sia A = {v1 , . . . , vs } un insieme libero. Allora l’applicazione lineare ϕA : Ks → V studiata nel paragrafo 11 è ingettiva. Componendola con un isomorfismo ψ : V → Kn , si ottiene un’applicazione lineare ingettiva ψ ◦ ϕA : Ks → Kn . In base al Teorema 7.3 dev’essere s ≤ n. Per quanto riguarda (2), i vettori di B sono n e generano V . Consideriamo un arbitrario sistema di generatori v1 , . . . , vs . Il Teorema 12.2 garantisce che da tale sistema si può estrarre una base vi1 , . . . , vik , k ≤ s. Poichè qualunque base è costituita da n vettori dev’essere k = n, e pertanto s ≥ n. 2 Corollario 13.5. Sia V uno spazio vettoriale finitamente generato di dimensione n ≥ 1. Si consideri una sequenza di n vettori v1 , . . . , vn . (1) Se v1 , . . . , vn sono indipendenti, allora {v1 , . . . , vn } è base di V . 31 (2) Se v1 , . . . , vn generano V , allora {v1 , . . . , vn } è base di V . Dimostrazione: (1) Per assurdo, si assuma che v1 , . . . , vn siano indipendenti e che V 6= L(v1 , . . . , vn ). Allora esisterebbe un vettore vn+1 6∈ L(v1 , . . . , vn ). Per la Proposizione 11.8, seguirebbe che v1 , . . . , vn , vn+1 sono linearmente indipendenti, contro la (1) del Teorema precedente. (2) Supponiamo per assurdo che v1 , . . . , vn generino V e siano linearmente dipendenti. Allora uno di tali vettori vj sarebbe combinazione lineare degli altri; avremmo quindi V = L(v1 , . . . , vn ) ⊂ L(v1 , . . . , vj−1 , vj+1 , . . . , vn ) 2 contro la (2) del Teorema precedente. Teorema 13.6. (Completamento di una parte libera) Sia V uno spazio vettoriale sul campo K di dimensione n > 0 e sia B = {u1 , . . . , un } una base di V . Siano assegnati dei vettori indipendenti v1 , . . . , vk . Allora esistono n − k vettori uj1 , . . . , ujn−k della base B tali che B0 = {v1 , . . . , vk , uj1 , . . . , ujn−k } è una base di V . Dimostrazione: Consideriamo la sequenza costituita da tutti i vettori v1 , . . . , vk , u1 , . . . , un . Tale sequenza è ancora un sistema di generatori, da cui si può estrarre una base B0 mediante l’algoritmo di eliminazione. Poichè v1 , . . . , vk sono indipendenti, ciascuno di essi non è eliminabile. Dunque la base B0 è del tipo richiesto. 2 A titolo di esempio, concludiamo il paragrafo calcolando la dimensione di due particolari spazi, già introdotti in precedenza. Esempio 13.7. Fissati due interi n, m ≥ 1, lo spazio delle matrici Mm,n (K) ha dimensione mn. Infatti, per ogni i ∈ {1, . . . , m} e j ∈ {1, . . . , n} consideriamo la matrice Eij avente tutti gli elementi nulli tranne quello di posto (i, j), concidente con 1. Otteniamo cosı̀ mn matrici. Esse costituiscono un sistema di generatori di Mm,n (K) in quanto per ogni A = (aij ) ∈ Mm,n (K) risulta (29) A= m X n X aij Eij . i=1 j=1 Questa identità implica anche le matrici Eij sono linearmente indipendenti: infatti data una combinazione lineare nulla m X n X λij Eij = 0 i=1 j=1 si costruisca la matrice A := (λij ); per la (29), si ottiene A= m X n X i=1 j=1 e quindi tutti gli scalari λij sono nulli. λij Eij = 0 32 Esempio 13.8. Fissato n > 0, lo spazio Kn [x] ha dimensione n + 1. Infatti, vi è un isomorfismo naturale F : Kn+1 → Kn [x] definito da: F (a0 , . . . , an ) := a0 + a1 x + · · · + an xn . Alternativamente, risulta che gli n + 1 vettori {1, x, x2 , . . . , xn } costituiscono una base di Kn [x]. La verifica di queste affermazioni è un utile esercizio. 14. Sottospazi di spazi di dimensione finita Teorema 14.1. Sia V uno spazio vettoriale sul campo K di dimensione n > 0 e sia W un sottospazio di V . Allora 1) W è finitamente generato. 2) Si ha dimK (W ) ≤ n ed inoltre dimK (W ) = 0 dimK (W ) = n ⇐⇒ ⇐⇒ W = {0V } W = V. Dimostrazione: 1) Ovviamente possiamo supporre W 6= {0}. Ragioniamo per assurdo, assumendo che W non sia finitamente generato. Proviamo che ciò ha come conseguenza la seguente proprietà: ∀k ∈ N∗ ∃v1 , . . . , vk ∈ W linearmente indipendenti. (∗) Naturalmente questo è in contraddizione con il fatto che V ha dimensione finita (Teorema 13.4). Proviamo la proprietà (*) per induzione su k. Poichè in W esiste almeno un vettore v1 6= 0, la (*) è vera per k = 1. Supposta la (*) vera per k ≥ 1, esistono v1 , . . . , vk vettori in W linearmente indipendenti. Ora, avendo assunto che W non sia finitamente generato, dev’essere W 6= L(v1 , . . . , vk ). Scelto un vettore vk+1 ∈ W , vk+1 6∈ L(v1 , . . . , vk ), abbiamo che v1 , . . . , vk , vk+1 sono indipendenti in forza della Proposizione 11.8. Pertanto la proprietà (*) è vera per k + 1. 2) L’unica affermazione non immediata è la seconda implicazione ⇒. Supponiamo che W abbia dimensione n. Fissata una base B0 = {w1 , . . . , wn } di W , tali vettori, essendo indipendenti, formano anche una base di V in virtù del Corollario 13.5 e pertanto V = L(B0 ) = W. 2 Proposizione 14.2. Sia V uno spazio vettoriale sul campo K di dimensione n > 0 e sia B = {u1 , . . . , un } una base di V . Allora per ogni k ∈ {1, . . . , n} si ha V = L(u1 , . . . , uk ) ⊕ L(uk+1 , . . . , un ). Dimostrazione: Poichè V = L(u1 , . . . , un ), si ottiene immediatamente che V = L(u1 , . . . , uk )+L(uk+1 , . . . , un ). Ai fini di provare che L(u1 , . . . , uk ) ∩ L(uk+1 , . . . , un ) = {0}, Pk conviene 8.5. Siano w1 = i=1 λi ui e Pn utilizzare il criterio stabilito nella Proposizione Pn w2 = i=k+1 λi ui tali che w1 + w2 = 0. Allora i=1 λi ui = 0 e quindi λi = 0 per ogni i per l’indipendenza dei vettori u1 , . . . , un . Dunque w1 = w2 = 0. 2 33 Teorema 14.3. Sia V uno spazio vettoriale di dimensione finita n > 0. Ogni sottospazio W di V ammette un supplementare. Anzi, se W è un sottospazio tale che dim(W ) < n, assegnata una base B = {u1 , . . . , un } di V , esistono opportuni vettori uj1 , . . . , ujs di B tali che V = W ⊕ L(uj1 , . . . , ujs ). Dimostrazione: Se W = V , allora il sottospazio banale {0V } è supplementare di W . Inoltre se W è banale, allora V è un suo supplementare. Supponiamo quindi dim(W ) 6= 0, n. Fissiamo una base B = {u1 , . . . , un } di V . Applicando il Teorema di completamento 13.6 a partire da una base B0 = {w1 , . . . , wk } di W , si ottengono vettori uj1 , . . . , ujs tali che {w1 , . . . , wk , uj1 , . . . , ujs } è una base di V . Allora si ha V = W ⊕ L(uj1 , . . . , ujs ) in forza della Proposizione 14.2. 2 15. Spazio vettoriale quoziente Nel paragrafo precedente abbiamo dimostrato che ogni sottospazio W ⊂ V di uno spazio finitamente generato è anch’esso finitamente generato e da ciò abbiamo dedotto l’esistenza di un supplementare di W . In questo paragrafo svilupperemo un approccio alternativo agli stessi risultati, basati sul concetto di spazio vettoriale quoziente. In maniera indipendente da quanto visto in precedenza, proveremo l’esistenza di un supplementare di W . Da ciò si può nuovamente dedurre che W è finitamente generato. Infatti, se U è un supplementare di W : V = W ⊕ U, detta p : V → W la proiezione lineare su W determinata da tale decomposizione, allora dalla surgettività di p segue che W dev’essere finitamente generato (Osservazione 11.11). Sia dunque V uno spazio vettoriale sul campo K e sia W un sottospazio. Denotiamo con ∼ la seguente relazione binaria su V : v1 ∼ v2 ⇐⇒ v1 − v2 ∈ W. (30) È un semplice esercizio basato sul fatto che W è chiuso rispetto alle operazioni di V , mostrare che ∼ è una relazione di equivalenza su V . Denoteremo per ogni v ∈ V con [v] la classe di ∼-equivalenza di v. Denoteremo inoltre l’insieme quoziente V /∼ = {[v]| v ∈ V } con il simbolo: V /W. Vediamo ora che tale insieme può munirsi in maniera naturale di una struttura di spazio vettoriale su K. A tale scopo, siano [u] e [v] elementi di V /W e λ ∈ K; poniamo dunque: (31) [u] + [v] := [u + v], λ[v] := [λv]. Le definizioni in questione sono ben poste, ovvero determinano due applicazioni V /W × V /W → V /W, K × V /W → V /W. Infatti, siano [u], [v] elementi di V /W e supponiamo che [u] si rappresenti anche come la classe [u0 ] ed analogamente [v] = [v 0 ] per un altro vettore v 0 . Vogliamo stabilire che [u + v] = [u0 + v 0 ]. Si ha u ∼ u0 e v ∼ v 0 , per cui: u − u0 ∈ W, v − v 0 ∈ W 34 e quindi (u + v) − (u0 + v 0 ) = u − u0 + v − v 0 ∈ W il che significa che è anche (u + v) ∼ (u0 + v 0 ). In modo simile si verifica che il prodotto esterno è ben definito. Teorema 15.1. Le due operazioni (31) muniscono l’insieme V /W di una struttura di spazio vettoriale su K. Lasciamo al lettore la verifica di tutti i dettagli; ci limitiamo ad osservare che il vettore nullo di V /W è la classe [0] e che, per ogni [v] ∈ V /W , il vettore opposto è dato dalla classe [−v]. Il fatto che l’operazione di somma è associativa e commutativa e la validità degli assiomi B) e C) di spazio vettoriale, sono tutte conseguenze delle analoghe proprietà dello spazio V . A titolo di esempio, verifichiamo la proprietà (a) dell’assioma C): siano λ, µ ∈ K e [v] ∈ V /W ; allora applicando la (31): (λµ)[v] = [(λµ)v] = [λ(µv)] = λ[µv] = λ(µ[v]). Denotiamo ora con π : V → V /W la proiezione (o surgezione) canonica, definita da: ∀v ∈ V π(v) := [v]. È immediata conseguenza delle (31) che π è lineare e quindi, essendo surgettiva, è un epimorfismo. Un’ulteriore proprietà importante di π è la seguente: Proposizione 15.2. Risulta Ker(π) = W . Dimostrazione: Infatti, per definizione di nucleo, essendo [0] il vettore nullo di V /W : v ∈ Ker(π) ⇐⇒ π(v) = [0] ⇐⇒ [v] = [0] ⇐⇒ v ∼ 0 ⇐⇒ v − 0 ∈ W ⇐⇒ v ∈ W. 2 Quanto discusso fin qui non necessita di alcuna ipotesi su V . Ora, supponiamo che V sia finitamente generato, di dimensione n > 0 ed esponiamo una dimostrazione alternativa del Teorema 14.3. Consideriamo naturalmente il caso non banale W 6= V . Notiamo che V /W non può essere banale, perchè altrimenti risulterebbe π = 0 e quindi V = Ker(π) = W . Assegnata dunque una base B = {u1 , . . . , un } di V , vogliamo provare che esistono opportuni vettori uj1 , . . . , ujs di B tali che (32) V = W ⊕ L(uj1 , . . . , ujs ). Essendo π un epimorfismo, V /W è finitamente generato e π(u1 ), . . . , π(un ) ne è un sistema di generatori. Applicando il Teorema 12.2, si estragga da tale sistema di generatori una base B0 = {π(uj1 ), . . . , π(ujs )}. Proviamo dunque che vale (32). Sia v ∈ W ∩ L(uj1 , . . . , ujs ); allora per la proposizione precedente π(v) = 0. D’altra parte possiamo scrivere v come una combinazione lineare del tipo: s X v= λi uji i=1 da cui, applicando π, e sfruttandone la linearità: s X 0= λi π(uji ) i=1 35 e quindi per ogni i dev’essere λi = 0 perchè i vettori π(uj1 ), . . . , π(ujs ) sono indipendenti. Quindi v = 0 e resta cosı̀ stabilito che W ∩ L(uj1 , . . . , ujs ) = {0}. Infine, sia v ∈ V ; allora π(v) si scrive in modo unico come π(v) = s X λi π(uji ) i=1 per opportuni scalari λi , da cui π(v − s X λi uji ) = 0 i=1 ovvero z := v − Ps i=1 λi uji ∈ Ker(π) = W , e possiamo scrivere v=z+ s X λi uji i=1 e con ciò è provato che V = W + L(uj1 , . . . , ujs ). Questo conclude la dimostrazione; si noti che, come preannunciato all’inizio del paragrafo, non si è utilizzato il fatto che W è finitamente generato. 16. Formule notevoli per il calcolo della dimensione Teorema 16.1. Siano V1 e V2 due K-spazi vettoriali di dimensione finita. Allora dim(V1 × V2 ) = dim(V1 ) + dim(V2 ). La dimostrazione è conseguenza immediata dei due risultati seguenti. Lemma 16.2. Siano V1 , V2 , W1 , W2 spazi vettoriali su K. Allora V1 ∼ = W 1 ∧ V2 ∼ = W2 ⇒ V1 × V2 ∼ = W1 × W2 . Dimostrazione: Siano assegnati due isomorfismi fi : Vi → Wi , i = 1, 2. A partire da essi possiamo definire un’applicazione f : V1 × V2 → W1 × W2 come segue ∀(v1 , v2 ) ∈ V1 × V2 f (v1 , v2 ) := (f1 (v1 ), f2 (v2 )). Tale applicazione è lineare; ciò può verificarsi direttamente oppure osservando che le sue componenti V1 × V2 → Wi , i = 1, 2, sono le applicazioni composte p1 f1 V1 × V2 → V 1 → W 1 , p2 f2 V1 × V 2 → V 2 → W 2 . È un semplice esercizio verificare inoltre che si tratta di una bigezione4. 2 Lemma 16.3. Siano n, m ∈ N. Allora Kn × Km ∼ = Kn+m . 4La bigettività di f è un fatto che prescinde dalla linearità delle funzioni coinvolte; nel caso in questione l’ingettività può anche provarsi rapidamente utilizzando il fatto che entrambi i nuclei delle fi sono banali. 36 Dimostrazione: l’applicazione L’asserto è banale se n = 0 oppure m = 0; ad esempio se n = 0, K0 Km realizza un isomorfismo × → sufficiente considerare l’applicazione (0, x) 7→ x Nel caso in cui n, m siano entrambi positivi, è Km . ((x1 , . . . , xn ), (y1 , . . . , ym )) ∈ Kn × Km 7→ (x1 , . . . , xn , y1 , . . . , ym ) ∈ Kn+m . Si lascia al lettore la verifica che si tratta di un isomorfismo; si noti che anche in questo caso le funzioni componenti dell’applicazione in questione sono lineari in quanto composizione di applicazioni lineari, del tipo α q β q0 Kn × Km → Kn → K o del tipo Kn × Km → Km → K dove α, β e q, q 0 sono tutte proiezioni. 2 Corollario 16.4. Sia V uno spazio vettoriale su K di dimensione finita e siano U, W sottospazi supplementari di V , ovvero V = U ⊕ W. Allora dim(V ) = dim(U ) + dim(W ). Dimostrazione: Sappiamo infatti che la somma diretta U ⊕ W è uno spazio isomorfo al prodotto diretto U × W (Teorema 8.9). 2 Teorema 16.5. (Teorema del rango) Siano V e V 0 spazi vettoriali sullo stesso campo K. Si assuma che V sia finitamente generato. Sia f : V → V 0 un’applicazione lineare. Allora anche Im(f ) è finitamente generato ed inoltre (33) dim(V ) = dim(Ker(f )) + dim(Im(f )). Dimostrazione: Osserviamo in prima istanza che l’applicazione ridotta di f , f# : V → Im(f ) è lineare e surgettiva; poichè V è finitamente generato, tale dev’essere Im(f ) (cf. Osservazione 11.11). Proviamo ora la (33). Fissiamo un sottospazio W di V supplementare di Ker(f ) (il Teorema 14.3 ne garantisce l’esistenza). Allora da V = Ker(f ) ⊕ W segue Im(f ) = f (V ) = f (Ker(f )) + f (W ) = {0V 0 } + f (W ) = f (W ). Denotiamo con g la ridotta della restrizione di f a W , g = (f |W )# : W → g(W ). Poichè g(W ) = f (W ) = Im(f ), g è di fatto un’applicazione g : W → Im(f ). Naturalmente g è lineare e surgettiva. Mostriamo che è un isomorfismo. Infatti, sia z ∈ Ker(g); allora z ∈ W e g(z) = f (z) = 0V 0 , da cui z ∈ W ∩ Ker(f ). Poichè W ∩ Ker(f ) = {0V } concludiamo 37 che z = 0. Resta provato che Ker(g) = {0V }, ovvero che g è ingettiva. Pertanto g è un isomorfismo e quindi dim(W ) = dim(Im(f )). D’altra parte, applicando il risultato del Corollario 16.4, si ottiene dim(V ) = dim(W ) + dim(Ker(f )) = dim(Im(f )) + dim(Ker(f )). 2 Definizione 16.6. Sia f : V → V 0 un’applicazione lineare tra K-spazi vettoriali, con V finitamente generato. La dimensione di Im(f ) prende il nome di rango di f e si denoterà con rg(f ). Osservazione 16.7. Conviene mettere in evidenza esplicitamente che, se B = {v1 , . . . , vn } è una base di V , allora5 (34) Im(f ) = L(f (v1 ), . . . , f (vn )). Notiamo anche che il Teorema del rango implica che la dimensione di Im(f ) non può mai superare la dimensione dello spazio di partenza V . Anzi vale quanto segue: Corollario 16.8. Sia f : V → V 0 un’applicazione lineare tra K-spazi vettoriali, con V finitamente generato di dimensione n. Allora f è ingettiva ⇐⇒ rg(f ) = n. Dimostrazione: Infatti, f è ingettiva se e solo se dim(Ker(f )) = 0. 2 Corollario 16.9. Sia f : V → V 0 un’applicazione lineare tra K-spazi vettoriali, con V e V 0 entrambi finitamente generati, di dimensioni rispettivamente n ed m. Allora 1) f ingettiva ⇒ n ≤ m. 2) f surgettiva ⇒ n ≥ m. Dimostrazione: 1) è conseguenza del Corollario precedente, avendosi, se f è ingettiva, n = dim(Im(f )) ≤ m. Riguardo 2), se f è surgettiva, allora n = dim(Ker(f )) + m ≥ m. 2 Osservazione 16.10. La proprietà 1) dell’enunciato precedente generalizza il risultato del Teorema 7.3. Teorema 16.11. Sia f : V → V 0 un’applicazione lineare tra K-spazi vettoriali di dimensione finita. Si assuma che dim(V ) = dim(V 0 ). Allora le seguenti proprietà sono equivalenti: a) f è ingettiva b) f è surgettiva c) f è un isomorfismo. 5Naturalmente, non è detto che i vettori f (v ), . . . , f (v ) costituiscano una base di Im(f ). 1 n 38 Dimostrazione: È sufficiente dimostrare che a) e b) sono equivalenti. Infatti, tenendo conto del Corollario 16.8: f ingettiva ⇐⇒ dim(V ) = dim(Im(f )) ⇐⇒ dim(V 0 ) = dim(Im(f )) ⇐⇒ f surgettiva. 2 Teorema 16.12. (Formula di Grassmann) Sia V uno spazio vettoriale di dimensione finita. Siano U1 e U2 due sottospazi di V . Allora: (35) dim(U1 + U2 ) = dim(U1 ) + dim(U2 ) − dim(U1 ∩ U2 ). Dimostrazione: Consideriamo l’applicazione ψ : U1 × U2 → U1 + U2 studiata nel §8 e definita da ψ(u1 , u2 ) = u1 + u2 . Poichè ψ è surgettiva, applicando la (33) e tenendo conto del Teorema 16.1, otteniamo: dim(U1 + U2 ) = dim(U1 × U2 ) − dim(Ker(ψ)) = dim(U1 ) + dim(U2 ) − dim(Ker(ψ)). D’altra parte sappiamo che Ker(ψ) = {(u, −u)| u ∈ U1 ∩ U2 } (cf. (15)), il che implica che Ker(ψ) ∼ = U1 ∩ U2 ; infatti, un isomorfismo tra questi spazi è dato dall’applicazione u ∈ U1 ∩ U2 7→ (u, −u) ∈ Ker(ψ). Dunque dim(Ker(ψ)) = dim(U1 ∩ U2 ) e ciò conclude la dimostrazione. 2 Corollario 16.13. Siano U1 e U2 due sottospazi di uno spazio vettoriale V di dimensione n > 0. Allora, se dim(U1 ) + dim(U2 ) > n, risulta U1 ∩ U2 6= {0}. Dimostrazione: Infatti, se fosse U1 ∩ U2 = {0}, dalla (35) si ricaverebbe dim(U1 + U2 ) = dim(U1 ) + dim(U2 ) > n 2 il che è assurdo. 17. Componenti di un vettore rispetto ad una base; teorema di esistenza ed unicità per applicazioni lineari Consideriamo uno spazio vettoriale V finitamente generato sul campo K, di dimensione n ≥ 1. Fissiamo una base B = {v1 , . . . , vn } di V . Allora ogni vettore v ∈ V si scrive in modo unico come combinazione lineare dei vettori v1 , . . . , vn ; in simboli n X ∀v ∈ V ∃|(x1 , . . . , xn ) ∈ Kn : v = xi vi . i=1 Ciò è conseguenza immediata del fatto P che l’applicazione lineare ϕB : Kn → V , studiata nel §11 e definita da ϕB (x1 , . . . , xn ) = ni=1 xi vi , è una bigezione (cf. Corollario 11.14). Peraltro la stessa proprietà può verificarsi direttamente utilizzando la definizione stessa di 39 base; è chiaro che gli scalari x1 , . . . , xn esistono per definizione di sistema di generatori. Se poi n n X X v= xi vi = yi vi i=1 allora n X i=1 (xi − yi )vi = 0 i=1 da cui per l’indipendenza dei vettori v1 , . . . , vn , segue xi = yi per ogni i. Ha senso allora dare la seguente Definizione 17.1. Si chiameranno componenti di un vettore v ∈ V rispetto alla base P B gli scalari x1 , . . . , xn tali che v = ni=1 xi vi . Naturalmente la nozione introdotta dipende strettamente dalla scelta della base. Studieremo in seguito come cambiano le componenti di un vettore al variare della base. Giova osservare anche che l’ordine assegnato ai vettori di B è essenziale nella definizione delle componenti. Come applicazione della nozione di componenti, dimostriamo il seguente risultato importante che permette di costruire applicazioni lineari V → W , dove W è un arbitrario K-spazio vettoriale. Teorema 17.2. (Esistenza ed unicità delle applicazioni lineari) Siano V e W spazi vettoriali sul campo K e si assuma V di dimensione finita n > 0. Si fissi una base B = {v1 , . . . , vn } di V . a) Date due applicazioni lineari f, g : V → W si ha f = g ⇐⇒ ∀i ∈ {1, . . . , n} f (vi ) = g(vi ). b) Siano w1 , . . . , wn vettori di W arbitrari. Allora esiste una ed una sola applicazione lineare f : V → W tale che ∀i ∈ {1, . . . , n} (36) f (vi ) = wi . Dimostrazione: a) Siano f, g : V → W lineari e siP assuma che f (vi ) = g(vi ) per ogni i ∈ {1, . . . , n}. Sia v ∈ V ; allora possiamo scrivere v = ni=1 xi vi da cui per la linearità di entrambe le applicazioni: n n n n X X X X f (v) = f ( xi vi ) = xi f (vi ) = xi g(vi ) = g( xi vi ) = g(v) i=1 i=1 i=1 i=1 e stante l’arbitrarietà di v abbiamo che f = g. b) Assegnati i vettori w1 , . . . , wn , definiamo un’applicazione f : V → W nel modo seguente: n X f (v) := xi wi , dove (x1 , . . . , xn ) sono le componenti di v rispetto a B. i=1 Si osservi che la definizione è ben posta per l’unicità delle diP ciascun vettore Pn componenti n 0 v di V . L’applicazione f è lineare; infatti, se v = i=1 yi vi allora i=1 xi vi e v = 40 P 0 v + w = ni=1 (xi + yi )vP i , ovvero v + v ha componenti (x1 + y1 , . . . , xn + yn ) e quindi per n definizione f (v + w) = i=1 (xi + yi )wi , da cui f (v + w) = n X (xi + yi )wi = i=1 n X xi wi + i=1 n X yi wi = f (v) + f (v 0 ). i=1 In modo analogo si verifica che f (λv) = λf (v) per ogni λ ∈ K e v ∈ V . Infine, proviamo che f soddisfa (36). Infatti, notiamo che per ogni i ∈ {1, . . . , n}, risulta (37) vi = 0v1 + · · · + 0vi−1 + 1vi + 0vi+1 + · · · + vn ovvero per ogni i le componenti di vi sono tutte nulle tranne la i-ma che è pari ad 1. Dunque direttamente dalla definizione di f , è f (vi ) = wi . L’unicità di f è conseguenza della proposizione a). 2 Mediante il Teorema precedente possiamo classificare tutte le applicazioni lineari Kn → Km come segue: Proposizione 17.3. Siano n, m ≥ 1 interi e sia L : Kn → Km un’applicazione lineare. Esiste una ed una sola matrice A ∈ Mm,n (K) tale che L = LA . Dimostrazione: Consideriamo i vettori wi = L(ei ) dove {e1 , . . . , en } è la base canonica di Kn . Denotiamo con A la matrice in Mm,n (K) la cui colonna i-ma è wi , cioè A = (w1 · · · wn ). Allora LA (ei ) = Aei = A(i) = wi = L(ei ) e quindi per la a) del Teorema precedente L = LA . Quanto all’unicità di A, se B è tale che LB = L, allora LB = LA da cui per il Teorema 9.19, A = B. 2 18. Rango di una matrice Definizione 18.1. Sia A ∈ Mm,n (K) una matrice a coefficienti in un campo K. Denoteremo con R(A) (risp. C(A)) il sottospazio di Kn (risp. di Km ) generato dalle righe (risp. dalle colonne) di A. In simboli: R(A) := L(A(1) , . . . , A(m) ), C(A) := L(A(1) , . . . , A(n) ). La dimensione di R(A) si chiama rango per righe di A; la dimensione di C(A) si chiama rango per colonne di A. Denoteremo con r(A) il rango per righe e con c(A) il rango per colonne. Proposizione 18.2. Siano A e B due matrici moltplicabili. Allora r(AB) ≤ r(B), c(AB) ≤ c(A). Dimostrazione: Sappiamo infatti che ogni riga di AB è combinazione delle righe di B (cf. (20)), dunque R(AB) ⊂ R(B), da cui r(AB) ≤ r(B). Analogamente, ogni colonna di AB è combinazione delle colonne di A; quindi C(AB) ⊂ C(B) e pertanto c(AB) ≤ c(A). 2 Il prossimo risultato è notevole. Teorema 18.3. Il rango per righe ed il rango per colonne di una matrice coincidono. 41 Dimostrazione: Notiamo in primo luogo che per provare l’asserto è sufficiente dimostrare che per ogni matrice a coefficienti in K, si ha c(A) ≤ r(A). Infatti, supposto di aver dimostrato ciò, allora fissata una matrice A, applicando tale proprietà sia ad A che alla sua trasposta, deve aversi c(A) ≤ r(A) e c(tA) ≤ r(tA). D’altra parte, è chiaro per definizione stessa di trasposta che r(tA) = c(A) e c(tA) = r(A), sicchè concludiamo che c(A) ≤ r(A) e r(A) ≤ c(A) e quindi r(A) = c(A). Sia quindi A ∈ Mm,n (K) una matrice qualsiasi non nulla; dunque r := r(A) > 0; esiste allora una base di R(A) del tipo B = {A(i1 ) , . . . , A(ir ) } i1 < · · · < ir . Utilizzando tali righe, costruiamo una matrice à di tipo r × n: (i ) A 1 .. à := . . A(ir ) Ogni riga di A è combinazione lineare delle righe di B: (38) A (i) = r X αki A(ik ) i = 1, . . . , m. k=1 Costruiamo con i coefficienti αki un’altra matrice H := (αki ) di tipo m × r. Ora, le relazioni (38) possono interpretarsi in termini di prodotto righe per colonne e sono equivalenti a A = H Ã. In particolare, utilizzando la Proposizione precedente si ottiene che c(A) ≤ c(H) ≤ r 2 e ciò prova che c(A) ≤ r(A). Ha senso dunque parlare di rango di una matrice A senza specificare se si fa riferimento alle righe od alle colonne; esso verrà denotato con il simbolo rg(A). Osserviamo che, date due matrici A e B moltiplicabili, risulta rg(AB) ≤ rg(A), rg(AB) ≤ rg(B). Il risultato che segue mette in relazione la nozione di rango ora introdotta con quella precedentemete studiata nel contesto delle applicazioni lineari. Proposizione 18.4. Sia A ∈ Mm,n (K). Allora rg(A) = rg(LA ). 42 Dimostrazione: Infatti, rg(A) = dimC(A) = dimL(A(1) , . . . , A(n) ) = dimL(Ae1 , . . . , Aen ) = dimL(LA (e1 ), . . . , LA (en )) = dimIm(L) = rg(LA ). 2 Teorema 18.5. Sia A ∈ Mn (K). Allora rg(A) = n ⇐⇒ LA è un isomorfismo. Dimostrazione: Infatti, poichè gli spazi di partenza e di arrivo di LA coincidono entrambi con Kn , utilizzando il Teorema 16.11, abbiamo LA è un isomorfismo ⇐⇒ LA è surgettiva ⇐⇒ rg(LA ) = n ⇐⇒ rg(A) = n. 2 19. Matrici invertibili Definizione 19.1. Sia A ∈ Mn (K) una matrice quadrata di ordine n ≥ 1. Si dirà che A è invertibile se esiste una matrice B ∈ Mn (K) tale che (39) AB = In = BA. È facile verificare che, se A è invertibile, allora esiste una ed una sola6 matrice B ∈ Mn (K) che soddisfa (39). Tale matrice si denoterà con A−1 e verrà chiamata matrice inversa di A. Naturalmente, In è invertibile e coincide con la propria inversa. L’insieme di tutte le matrici invertibili di ordine n verrà denotato con il simbolo GL(n, K). Tale insieme è canonicamente dotato di una struttura di gruppo, la cui operazione è il prodotto righe per colonne, ed il cui elemento neutro è In . Teorema 19.2. Sia A ∈ Mn (K). Allora A ∈ GL(n, K) ⇐⇒ rg(A) = n. Dimostrazione: Supponiamo che A sia invertibile e sia B la sua inversa. Dalle (39) segue LAB = LIn = LBA che possiamo riscrivere LA ◦ LB = IdKn = LB ◦ LA . Queste relazioni affermano che LA è bigettiva con inversa LB , ovvero LA è un isomorfismo. Dunque rg(A) = n per il Teorema 18.5. Supponiamo ora che rg(A) = n. Allora, ancora per il Teorema 18.5, LA è un isomorfismo. Sia L : Kn → Kn l’applicazione inversa di LA , di modo che LA ◦ L = IdKn = L ◦ LA . 6Si osservi che una matrice invertibile A altri non è che un elemento invertibile dell’anello unitario (Mn (K), +, ·). L’unicità della matrice inversa è dunque conseguenza di un risultato di carattere generale. 43 Sappiamo che anche L è lineare (Prop. 1.15). Allora, in forza della Proposizione 17.3, esiste B ∈ Mn (K) tale che L = LB . Dunque LA ◦ LB = IdKn = LB ◦ LA da cui LAB = LIn = LBA il che comporta per il Teorema 9.19 che AB = In = BA e pertanto A è invertibile. 2 Proposizione 19.3. Sia A ∈ Mm,n (K) e siano C ∈ GL(m, K) e D ∈ GL(n, K). Allora rg(CA) = rg(A) = rg(AD). Dimostrazione: Possiamo scrivere: A = Im A = C −1 CA da cui, applicando due volte il fatto che il rango di un prodotto di matrici non supera il rango di entrambi i fattori: rg(A) = rg(C −1 (CA)) ≤ rg(CA) ≤ rg(A). In modo simile si prova che rg(A) = rg(AD). 2 20. Calcolo del rango mediante riduzione per righe Di seguito descriveremo un efficace metodo per il calcolo del rango, noto come metodo di riduzione per righe di Gauss-Jordan. Definizione 20.1. Una matrice A ∈ Mm,n (K) si dice ridotta per righe se ogni riga non nulla A(i) contiene un elemento aij non nullo tale che asj = 0 per ogni s > i. Un tale elemento prende il nome di pivot di A. Esempio 20.2. La matrice 1 0 1 1 A = 2 1 0 2 3 0 0 3 è ridotta per righe: sono pivots gli elementi a13 , a22 ed entrambi gli elementi a31 e a34 . Teorema 20.3. Il rango di una matrice ridotta per righe coincide con il numero r delle sue righe non nulle. Siano inoltre A(i1 ) , . . . , A(ir ) le righe non nulle di una matrice ridotta A, i1 < · · · < ir . Scelto su ciascuna riga A(ik ) un pivot occupante la colonna jk , risulta che le colonne corrispondenti A(j1 ) , . . . , A(jr ) sono indipendenti e costituiscono una base di C(A). Dimostrazione: Se A = 0 l’asserto è banale. Supponiamo quindi A 6= 0. È sufficiente mostrare che le righe non nulle di A sono linearmente indipendenti. Si scelgano sulle righe i pivots, occupanti le colonne7 j1 , . . . , jr . Consideriamo una combinazione lineare nulla (40) λ1 A(i1 ) + · · · + λk A(ik ) = 0. 7Ovviamente, non è detto che gli indici j , . . . , j siano in ordine crescente 1 r 44 Il vettore a primo membro appartiene a Kn ; la sua componente j1 -ma è data da λ1 aij11 in quanto, per definizione di pivot, asj1 = 0 per ogni s > i1 . Dunque dalla (40) segue che λ1 aij11 = 0 e quindi λ1 = 0 perchè aij11 6= 0. Sostituendo quindi in (40) ricaviamo λ2 A(i2 ) + · · · + λk A(ik ) = 0. Considerando ora la componente j2 -ma si ricava che λ2 aij22 = 0 e quindi λ2 = 0. Procedendo in questo modo si ottiene che tutti i coefficienti λi sono nulli. Proviamo l’ultima affermazione. Poichè r è anche il rango per colonne di A, si tratta ancora di provare che le colonne A(j1 ) , . . . A(jr ) sono linearmente indipendenti. Consideriamo quindi una combinazione nulla λ1 A(j1 ) + · · · + λr A(jr ) = 0. (41) Valutando la componente di indice ir si ottiene λr aijrr = 0 perchè per definizione dei pivots sulle righe diversa da A(ir ) abbiamo aijrk = 0 per ogni k < r, essendo ir > ik . Dunque λr = 0. Sostituendo in (41) e ripetendo il ragionamento valutando successivamente le componenti di indice ir−1 , . . . , i1 si ottiene che tutti i coefficienti λk sono nulli. 2 Introduciamo ora una operazione elementare con la quale si può modificare una matrice, cambiandone le righe, ma in modo da non alterarne il rango. Tale operazione consiste nel sostituire una riga A(j) con una combinazione lineare del tipo: αA(j) + βA(i) , α 6= 0, i 6= j. Scriveremo simbolicamente (42) A(j) → αA(j) + βA(i) per indicare una tale sostituzione; inoltre se S è la matrice ottenuta da A effettuando una o più di tali operazioni su righe diverse, scriveremo: A → S. Osserviamo che la sostituzione (42) non altera lo spazio generato dalle righe, cioè A → S ⇒ R(A) = R(S). Dunque in particolare, se A → S, allora rg(A) = rg(S). Notiamo anche che ciascuna operazione (42) corrisponde ad effettuare il prodotto ZA 45 dove Z ∈ Mm (K) è la matrice e1 ··· ej−1 Z= αej + βei . ej+1 ··· em Tale matrice è quella che si ottiene effettuando la corrispondente operazione elementare e1 .. sulla matrice identica Im = . . In particolare, rg(Z) = rg(Im ) = m e pertanto em Z ∈ GL(m, K). Da ciò segue subito, essendo il prodotto di matrici invertibili anch’esso invertibile, che se A → S, allora esiste una matrice invertibile Z ∈ GL(m, K) tale che S = ZA. Teorema 20.4. Ogni matrice A si può trasformare, mediante una sequenza finita di operazioni elementari, in una matrice ridotta per righe. Più precisamente, esiste una sequenza finita di matrici S1 , . . . , Sk in Mm,n (K) tale che A → S1 → S 2 → · · · → S k e Sk è ridotta per righe. Dimostrazione: Descriviamo un algoritmo per ottenere la sequenza Si . Sia A(i1 ) la prima riga non nulla di A (se non esiste, A = 0 e quindi A è già ridotta); si scelga un elemento aij11 non nullo di A(i) . Operando su ciascuna riga successiva con la sostituzione A(s) → aij11 A(s) − asj1 A(i1 ) si ottiene una nuova matrice S1 = (bij ) tale che bsj1 = 0 per ogni s > i1 . Dunque A → S1 . Ora, se tutte le righe di S1 successive alla i1 -ma sono nulle, S1 è ridotta per righe con pivot bij11 = aij11 sulla riga i1 -ma e colonna j1 -ma. In caso contario, si opera su S1 prendendo in condiderazione la prima riga non nulla di indice maggiore di i1 , scegliendo un elemento non nullo di tale riga e ripetendo quanto fatto in precedenza. Si procede finchè vi sono righe non nulle con cui operare. 2 Esempio 20.5. Applicando l’algoritmo descritto nella dimostrazione precedente alla matrice A ∈ M4,5 (R) indicata di seguito si ottiene: 46 2 1 2 1 0 2 1 2 0 2 1 1 −1 → 0 3 −2 → 1 1 2 0 3 1 1 2 2 4 5 0 9 0 3 3 A S1 1 0 2 1 2 1 0 2 1 2 0 3 −2 1 −1 1 −1 → 0 3 −2 0 0 3 0 3 0 0 3 0 3 0 0 6 0 6 0 0 0 0 0 S3 S2 Abbiamo cerchiato gli elementi che ad ogni passo vengono scelti per “divenire” pivots. Dunque rg(A) = rg(S3 ) = 3. 1 1 0 1 0 3 3 9 Notiamo che, utilizzando il risultato precedente, si ottiene, determinando la matrice ridotta Sk , non solo il rango di A, ma anche una base dello spazio R(A) generato dalle righe; una tale base è costituita dalle righe non nulle di Sk . Il procedimento di riduzione altera invece lo spazio C(A) generato dalle colonne. Dimostreremo però che lo stesso procedimento permette facilmente di determinare una base di C(A), estraendo da {A(1) , . . . , A(n) } una base {A(j1 ) , . . . , A(jr ) }: semplicemente, gli indici colonna j1 , . . . , jr da scegliersi sono quelli delle colonne occupate dai pivots di Sk . Allo scopo di provare quest’affermazione, proviamo un risultato di carattere generale. Teorema 20.6. Siano A, S ∈ Mm,n (K) e si assuma che esista Z ∈ GL(m, K) tale che S = ZA. Allora, se S(j1 ) , . . . , S(jp ) sono colonne di S indipendenti, tali sono le colonne corrispondenti A(j1 ) , . . . , A(jp ) di A. Dimostrazione: p X Si assuma che p X λk A(jk ) = 0. Allora k=1 k=1 λk LA (ejk ) = 0, che possiamo ancora riscrivere k=1 p X LA ( λk ejk ) = 0. k=1 Ora, dall’ipotesi segue, poichè Z è invertibile A = Z −1 S da cui: LA = LZ −1 ◦ LS . Dunque (LZ −1 p X p X ◦ LS )( λk ejk ) = 0 k=1 λk Aejk = 0, ovvero 47 cioè p X LZ −1 (LS ( λk ejk )) = 0 k=1 e poichè LZ −1 è un isomorfismo (Teorema 18.5): p X LS ( λk ejk ) = 0 k=1 che possiamo riscrivere p X λk S(jk ) = 0. k=1 Otteniamo infine λk = 0 per ogni k essendo le colonne S(j1 ) , . . . , S(jp ) indipendenti. 2 Corollario 20.7. Sia A ∈ Mm,n (K) e sia assegnata una sequenza di matrici S1 , . . . , Sk tali che A → S1 → S 2 → · · · → Sk e S := Sk è ridotta per righe. Si scelga su ciascuna riga non nulla di S un pivot; dette j1 , . . . , jr le colonne occupate da tali pivots, si ha che le colonne corrispondenti A(j1 ) , . . . , A(jr ) di A sono linearmente indipendenti, ovvero formano una base di C(A). Dimostrazione: Sappiamo che da A → S1 segue che S1 = Z1 A per un’opportuna Z1 ∈ GL(m, K). Analogamente, Si = Zi Si−1 per i > 1. Dunque S = (Zk · · · Z1 )A. L’asserto segue applicando il Teorema precedente, perchè le colonne S(j1 ) , . . . , S(jr ) sono indipendenti. 2 Esempio 20.8. Facendo riferimento all’Esempio 20.5 otteniamo che una base di C(A) è costituita dalle colonne A(1) , A(3) , A(4) . Un’altra base è {A(1) , A(2) , A(3) }. 21. Matrice associata ad un insieme di vettori Sia assegnato uno spazio vettoriale V di dimensione n > 0 e si fissi una sua base B = {v1 , . . . , vn }. Ha senso definire l’applicazione ψB : V → Kn che associa ad ogni vettore v ∈ V la n-pla delle sue componenti (x1 , . . . , xn ) rispetto a B, cioè ψB è l’applicazione V → Kn caratterizzata da (43) ψB (v) = (x1 , . . . , xn ) ⇐⇒ v = X xi vi . Notiamo che tale applicazione altri non è che l’applicazione inversa ϕ−1 B dell’isomorfismo ϕB : Kn → V studiato nel §11 . In particolare, anche ψB è un isomorfismo. Notiamo anche che (44) ψB (vi ) = ei Ciò segue direttamente dalla (37). ∀i ∈ {1, . . . , n}. 48 Nel seguito, se ψB (v) = (x1 , . . . , xn ) è la n-pla delle componenti di unvettore v ∈ V , x1 .. essa verrà identificata, laddove è conveniente, con il vettore colonna . e si chiamerà xn il vettore delle componenti di v rispetto alla base assegnata. Definizione 21.1. Sia u1 , . . . , uk una successione finita di vettori arbitrari di V , k ≥ 1. Si chiamerà matrice associata a tali vettori rispetto alla base B, la matrice con n righe e k colonne, la cui colonna j-ma è il vettore delle componenti di uj rispetto a B, ovvero è la matrice (45) (ψB (u1 ) ψB (u2 ) ··· ψB (uk )). Lemma 21.2. Sia f : V → V 0 un isomorfismo tra K-spazi vettoriali entrambi di dimensione finita. Allora per ogni sottospazio W di V si ha dim(W ) = dim(f (W )). Dimostrazione: Basta osservare che la ridotta della restrizione (f|W )# : W → f (W ) è un isomorfismo tra W e f (W ). 2 L’utilità della nozione di matrice associata ad un insieme di vettori è stabilita dal risultato seguente. Teorema 21.3. Sia u1 , . . . , uk una successione finita di vettori di V , k ≥ 1. Sia B una base di V e sia A la matrice associata a tali vettori rispetto alla base B. Allora rg(A) = dim(L(u1 , . . . , uk )). Dimostrazione: Poichè ψB è un isomorfismo, in forza del Lemma precedente abbiamo dim(L(u1 , . . . , uk )) = dimL(ψB (u1 ), . . . , ψB (uk )) = dimL(A(1) , . . . , A(k) ) = dimC(A) = rg(A). 2 22. Relazione tra matrici ed applicazioni lineari Siano V e W due spazi vettoriali non banali sullo stesso campo K, entrambi finitamente generati, aventi dimensioni n ed m rispettivamente. Definizione 22.1. Siano fissate due basi B = {v1 , . . . , vn } e C = {w1 , . . . , wm } di V e di W rispettivamente. Sia f : V → W un’applicazione lineare. Si chiamerà matrice associata ad f rispetto alle basi B e C, la matrice associata alla successione di vettori f (v1 ), . . . , f (vn ) di W rispetto alla base C. Tale matrice si denoterà con uno dei simboli C MB (f ), MB,C (f ), M (f )(B, C). Dunque, per definizione (cf. (45)): (46) MB,C (f ) = (ψC (f (v1 )) ψC (f (v2 )) Km ··· ψC (f (vn ))). essendo al solito ψC : W → l’isomorfismo che associa ad ogni vettore di W il vettore delle sue componenti rispetto alla base C. Chiaramente, MB,C (f ) è una matrice di tipo m × n. 49 Osservazione 22.2. Esplicitamente, la matrice MB,C (f ) si costruisce come segue: per ogni j = 1, . . . , n, il vettore f (vj ) si esprime come combinazione lineare, in modo unico, dei vettori wi : m X f (vj ) = αji wi . i=1 Abbiamo dunque: MB,C (f ) = (αji ) dove al solito i è l’indice riga, mentre j è l’indice colonna. Esempio 22.3. Consideriamo i sottospazi V1 e V2 di M2 (R): V1 = {A ∈ M2 (R)| tr(A) = 0}, V2 = {A ∈ M2 (R)| A = tA}. Il lettore verifichi che entrambi hanno dimensione 1 0 0 1 0 B= , , 0 −1 0 0 1 3; una base B di V1 è data da 0 =: {E1 , E2 , E3 } 0 mentre una base di V2 è 1 0 0 1 0 0 C= , , =: {E10 , E20 , E30 }. 0 0 1 0 0 1 Consideriamo ora l’applicazione f : V1 → V2 definita da f (A) := A + tA ∀A ∈ V1 . Si stabilisce subito che f è lineare in forza delle proprietà dell’operazione di trasposizione. a b Determiniamo la matrice MB,C (f ). Notiamo che, se B = è una generica matrice b c di V2 , allora 1 0 0 1 0 0 B=a +b +c = aE10 + bE20 + cE30 0 0 1 0 0 1 per cui B hacomponenti (a, b, c) rispetto a C, ovvero ψC (B) = (a, b, c). Ora, per ogni x1 x2 matrice A = di V1 si ha x3 −x1 2x1 x2 + x3 f (A) = x2 + x3 −2x1 e quindi f (E1 ) = 0 1 2 0 0 1 , f (E2 ) = , f (E3 ) = 0 −2 1 0 1 0 per cui per definizione: 2 0 0 MB,C (f ) = 0 1 1 . −2 0 0 50 Teorema 22.4. Siano fissate due basi B = {v1 , . . . , vn } e C = {w1 , . . . , wm } di V e di W rispettivamente. Sia f : V → W un’applicazione lineare. Allora rg(MB,C (f )) = rg(f ). Dimostrazione: Si tratta di applicare il Teorema 21.3: rg(f ) = dim(Im(f )) = dimL(f (v1 ), . . . , f (vn )) = rg(MB,C (f )). 2 Corollario 22.5. Sia f : V → W un’applicazione lineare tra due spazi finitamente generati aventi la stessa dimensione n ≥ 1. Siano B e C basi di V e di W rispettivamente. Allora f è un isomorfismo ⇐⇒ MB,C (f ) ∈ GL(n, K). Dimostrazione: Infatti, tenendo conto dei Teoremi 16.11 e 19.2: f isomorfismo ⇐⇒ rg(f ) = n ⇐⇒ rg(MB,C (f )) = n ⇐⇒ MB,C (f ) ∈ GL(n, K). 2 Mettiamo ora in evidenza un’utile caratterizzazione della matrice associata ad un’applicazione lineare. Teorema 22.6. Siano fissate due basi B = {v1 , . . . , vn } e C = {w1 , . . . , wm } di V e di W rispettivamente. Sia f : V → W un’applicazione lineare. La matrice MB,C (f ) è l’unica matrice M di tipo m×n tale che il seguente diagramma di applicazioni risulti commutativo: f V −→ W ψB ↓ ↓ ψC L M Km Kn −→ cioè tale che (47) LM ◦ ψB = ψC ◦ f. Dimostrazione: Posto M = MB,C (f ), verifichiamo la (47). Poichè ambo i membri di tale uguaglianza sono applicazioni lineari V → Km , è sufficiente provare che esse assumono gli stessi valori sui vettori della base B (Teorema 17.2). Ricordando che ψB (vi ) = ei , dove {ei } è la base canonica di Kn (cf. (44)), abbiamo infatti: (LM ◦ ψB )(vi ) = LM (ei ) = M ei = M(i) = ψC (f (vi )) = (ψC ◦ f )(vi ) e la (47) è provata. Notiamo che da tale uguaglianza segue, essendo ψC un isomorfismo: −1 LM = ψC ◦ f ◦ ψB . Da ciò segue l’unicità di M ; infatti se M 0 è un’altra matrice per cui LM 0 ◦ ψB = ψC ◦ f , −1 allora LM 0 = ψC ◦ f ◦ ψB = LM da cui M 0 = M . 2 Osservazione 22.7. Nel seguito, nel caso di un endomorfismo f : V → V , la matrice B (f ), costruita in corrispondenza di una base B di V , verrà semplicemente associata MB con MB (f ) e chiamata matrice associata ad f rispetto a B. 51 Esempio 22.8. Si ha, qualunque sia la base B di V : MB (IdV ) = In , n = dim(V ). Infatti, posto B = {v1 , . . . , vn }, ricordando la (44) si ottiene subito: MB (IdV ) = ψB (IdV (v1 )) · · · ψB (IdV (vn )) = ψB (v1 ) · · · ψB (vn )) = e1 · · · en = In . Teorema 22.9. Siano V , W ed U spazi vettoriali sullo stesso campo K, tutti di dimensione finita. Siano B, C e D basi di V , W ed U rispettivamente. Siano f : V → W e g : W → U applicazioni lineari. Allora: C D (f ). (g ◦ f ) = MCD (g)MB MB (48) Dimostrazione: Sfruttiamo la caratterizzazione della matrice associata a g ◦f fornita C (f ), dobbiamo provare che dal Teorema precedente. Posto A = MCD (g)MB LA ◦ ψB = ψD ◦ (g ◦ f ). Infatti, abbiamo le relazioni LM C (f ) ◦ ψB = ψC ◦ f, B LM D (g) ◦ ψC = ψD ◦ g C da cui ψD ◦ (g ◦ f ) = (ψD ◦ g) ◦ f = (LM D (g) ◦ ψC ) ◦ f = LM D (g) ◦ (ψC ◦ f ) = LM D (g) ◦ LM C (f ) ◦ ψB . C C C B Infine, tenendo conto che LM D (g) ◦ LM C (f ) = LM D (g)M C (f ) = LA , C B C B perveniamo a ψD ◦ (g ◦ f ) = LA ◦ ψB 2 come volevasi. Corollario 22.10. Sia f : V → W un isomorfismo tra due spazi finitamente generati aventi dimensione n ≥ 1. Siano B e C basi di V e di W rispettivamente. Allora MC,B (f −1 ) = MB,C (f )−1 . (49) Dimostrazione: Dalle relazioni f ◦ f −1 = IdW , f −1 ◦ f = IdV segue, in forza del Teorema precedente, ricordando che MB (IdV ) = In = MC (IdW ): MB,C (f )MC,B (f −1 ) = MC,C (IdW ) = In , MC,B (f −1 )MB,C (f ) = MB,B (IdV ) = In da cui l’asserto. 2 52 23. Spazi di applicazioni lineari Siano V , W spazi vettoriali sullo stesso campo K. Definizione 23.1. L’insieme di tutte le applicazioni lineari V → W verrà denotato con il simbolo L(V, W ). Osserviamo che L(V, W ) è sempre non vuoto: esso contiene l’applicazione lineare nulla. Proposizione 23.2. L’insieme L(V, W ) si può munire di una struttura naturale di Kspazio vettoriale, determinata dalle due operazioni cosı̀ definite: (f, g) ∈ L(V, W ) × L(V, W ) 7→ f + g ∈ L(V, W ) dove f + g : V → W è l’applicazione tale che ∀v ∈ V (f + g)(v) := f (v) + g(v) e (λ, g) ∈ K × L(V, W ) 7→ λf ∈ L(V, W ) dove λf denota l’applicazione tale che (λf )(v) := λf (v) ∀v ∈ V. Lasciamo i dettagli della dimostrazione al lettore; si tratta di verificare innanzitutto che, date f, g ∈ L(V, W ) e λ ∈ K, anche le applicazioni f + g e λf sono elementi di L(V, W ); inoltre occorre stabilire la verifica della validità degli assiomi A), B) e C) di spazio vettoriale. Facciamo notare che l’elemento neutro di L(V, W ) rispetto all’operazione di somma introdotta nell’enunciato è proprio l’applicazione nulla 0 : V → W . Inoltre, per ogni f ∈ L(V, W ), l’opposto −f di f rispetto alla somma è l’applicazione cosı̀ definita v ∈ V 7→ −f (v) ∈ W che risulta lineare. Studiamo ora il caso in cui entrambi gli spazi V e W hanno dimensione finita. Teorema 23.3. Siano V , W spazi vettoriali entrambi non banali sullo stesso campo K, entrambi finitamente generati ed aventi dimensioni n ed m rispettivamente. Si fissino una base B di V ed una base C di W . L’applicazione M : L(V, W ) → Mm,n (K) che fa corrispondere ad ogni f ∈ L(V, W ) la matrice associata M (f ) = MB,C (f ) ad f , è un isomorfismo di spazi vettoriali. Dimostrazione: Poniamo B = {v1 , . . . , vn } e C = {w1 , . . . , wm }. Per prima cosa stabiliamo che M è lineare. Siano f, g ∈ L(V, W ). Allora M (f + g) = MB,C (f + g) = ( ψC ((f + g)(v1 )) · · · ψC ((f + g)(vn )) ) = ( ψC (f (v1 ) + g(v1 )) · · · ψC (f (vn ) + g(vn )) ) = ( ψC (f (v1 )) + ψC (g(v1 )) · · · ψC (f (vn ) ) + ψC (g(vn )) ) = M (f ) + M (g) 53 dove abbiamo tenuto conto della definizione di f +g e sfruttato la linearità di ψC . Analogamente: M (λf ) = ( ψC ((λf )(v1 )) · · · ψC ((λf )(vn )) ) = ( ψC (λf (v1 )) ( λψC (f (v1 )) · · · λψC (f (vn )) ) = λM (f ). ··· ψC (λf (vn )) ) = Proviamo ora che M è ingettiva; sia f ∈ Ker(M ); ciò significa che MB,C (f ) = 0, e quindi in particolare f (vi ) = 0 per ogni i. Ciò è sufficiente per concludere che f = 0 in virtù della a) del Teorema 17.2. Resta da stabilire la surgettività di M ; sia A ∈ Mm,n (K) e consideriamo i vettori di W : wi0 := ψC−1 (A(i) ), i = 1, . . . , n. Applicando la b) del Teorema 17.2, abbiamo che esiste una ed una sola applicazione lineare f : V → W tale che f (vi ) = wi0 , i = 1, . . . , n. Risulta che M (f ) = A in quanto M (f ) = ( ψC (f (v1 )) · · · ψC (f (vn )) ) = ( ψC (w10 ) · · · ψC (wn0 ) ) = ( A(1) · · · A(n) ) = A. 2 Ricordando che la dimensione di Mm,n (K) è mn (cf. Esempio 13.7), si ottiene: Corollario 23.4. Se V e W sono spazi vettoriali non bnali di dimensione n ed m, allora anche L(V, W ) è finitamente generato e dim(L(V, W )) = mn. Nel caso in cui V = W , in luogo di L(V, V ) si utilizzerà la notazione End(V ). Gli elementi di End(V ) si chiameranno endomorfismi dello spazio V . Esempio 23.5. Sottolineiamo il fatto che l’isomorfismo M : L(V, W ) → Mm,n (K) studiato sopra dipende dalla scelta delle basi B e C. In particolare, si noti che ogni matrice A ∈ Mm,n (K) determina, una volta fissate le due basi, una ben precisa applicazione lineare V → W ; cambiando le basi però tale applicazione muta. A titolo di esempio, consideriamo il caso in cui V= W = R3 [x] e B = C, fissando l’attenzione sulla matrice 0 0 0 0 0 0 0 0 diagonale: A = 0 0 0 0 . Espliciteremo l’applicazione lineare che è associata ad A 0 0 0 1 rispetto a tre basi diverse di R3 [x]. Cominciamo col considerare la base B = {1, x, x2 , x3 }. L’applicazione lineare f : R3 [x] → R3 [x] tale che MB (f ) = A è determinata dalle condizioni seguenti: f (1) = 0, f (x) = 0, f (x2 ) = 0, f (x3 ) = x3 da cui per la linearità di f , se p = a + bx + cx2 + dx3 , allora: f (p) = df (x3 ) = dx3 . 54 Consideriamo ora la base B0 = {x3 , x2 , x, 1}. Allora l’endomorfismo g di R3 [x] tale che MB0 (g) = A è dato dalle condizioni: g(x3 ) = 0, g(x2 ) = 0, g(x) = 0, g(1) = 1 e quindi ∀p ∈ R3 [x]. g(p) = ag(1) = a B00 {x2 (x Consideriamo infine la sequenza = − 1), x(x − 1), x − 1, 1}. Tali vettori costituiscono un sistema di generatori di R3 [x]; infatti, dividendo un generico p ∈ K3 [x] per il polinomio x − 1, si può scrivere in un sol modo: p = q(x − 1) + r con q di grado ≤ 2 e r ∈ R. Posto q = αx2 + βx + γ, abbiamo dunque p = αx2 (x − 1) + βx(x − 1) + γ(x − 1) + r il che mostra che p è combinazione lineare dei vettori di B00 . Dunque, in base al Corollario 13.5, B00 è una base di R3 [x]. L’applicazione lineare h : R3 [x] → R3 [x] determinata da A rispetto a questa base è tale che h(x2 (x − 1)) = 0, h(x(x − 1)) = 0, h(x − 1) = 0, h(1) = 1 e quindi h(p) = r ∀p ∈ R3 [x]. In altri termini, A determina in tal caso l’applicazione che associa ad ogni polinomio il resto della divisione di esso per x − 1. Si osservi che l’applicazione g determinata sopra associa invece ad ogni p ∈ R3 [x] il resto della divisione di p per x. Definizione 23.6. Dato un K-spazio vettoriale V , lo spazio L(V, K) si chiama duale di V e si denota con V ∗ . Gli elementi di V ∗ vengono detti funzionali su V . 24. Cambiamenti di base Sia V uno spazio vettoriale di dimensione n > 0 sul campo K e siano assegnate due basi B = {v1 , . . . , vn } e B0 = {v10 , . . . , vn0 } di V . Definizione 24.1. Si chiama matrice di passaggio da B a B0 e si denota col simbolo MB,B0 la matrice associata ai vettori v10 , . . . , vn0 rispetto a B. Proposizione 24.2. 1) Risulta MB,B0 = MB0 ,B (IdV ); in particolare MB,B0 ∈ GL(n, K). 2) Esiste uno ed un solo isomorfismo g : V → V tale che g(vi ) = vi0 (50) i = 1, . . . , n. Inoltre, (51) MB,B0 = MB (g). 55 Dimostrazione: 1) Abbiamo infatti MB,B0 = (ψB (v10 ) · · · ψB (vn0 )) = (ψB (IdV (v10 )) · · · ψB (IdV (vn0 ))) = MB0 ,B (IdV ). Poichè IdV è un isomorfismo, segue dal Corollario 22.5 che MB,B0 è invertibile8. 2) Il Teorema 17.2 garantisce che esiste una ed una sola applicazione lineare g : V → V che soddisfa la condizione (50). Chiaramente, g è un isomorfismo avendo rango n. Abbiamo infine ψB (g(vn ))) = (ψB (v10 ) · · · MB (g) = (ψB (g(v1 )) · · · ψB (vn0 )) = MB,B0 . 2 Corollario 24.3. Risulta MB0 ,B = (MB,B0 )−1 . Dimostrazione: Segue dal Corollario 22.10 applicato a IdV . 2 Teorema 24.4. (del cambiamento di base) Siano V , W spazi vettoriali entrambi non banali sullo stesso campo K, entrambi finitamente generati ed aventi dimensioni n ed m rispettivamente. Sia f : V → W lineare. Si fissino due basi B, B0 di V e due basi C, C0 di W . Allora risulta MB0 ,C0 (f ) = C −1 MB,C (f ) B (52) dove B è la matrice di passaggio da B a B0 , mentre C è la matrice di passaggio da C a C0 . Dimostrazione: cazioni seguenti: L’applicazione f può riguardarsi come composizione delle appliId f Id V W V −→ V −→ W −→ W B0 B C C0 dove abbiamo indicato la scelta di una base per ciascuno spazio coinvolto. Applicando il Teorema 22.9, si ottiene quindi MB0 ,C0 (f ) = MB0 ,C0 (IdW ◦ (f ◦ IdV )) = MC,C0 (IdW )MB0 ,C (f ◦ IdV ) = MC,C0 (IdW )MB,C (f )MB0 ,B (IdV ) = MC0 ,C MB,C (f )MB,B0 = C −1 MB,C (f )B. 2 Corollario 24.5. Sia V uno spazio vettoriale su K di dimensione n > 0 e sia f : V → V un endomorfismo. Siano B e B0 due basi di V . Allora, posto M := MB,B0 si ha (53) MB0 (f ) = M −1 MB (f )M. Dimostrazione: Si tratta di applicare la (52) con W = V e C = B, C0 = B0 , e quindi con B = C = M . 2 La relazione (53) che sussiste tra le matrici associate ad uno stesso endomorfismo in basi diverse suggerisce la seguente: 8Alternativamente, il fatto che M B,B0 è invertibile segue direttamente dal Teorema 21.3. 56 Definizione 24.6. Siano A, B ∈ Mn (K) matrici quadrate dello stesso ordine. Si dice che B è simile ad A se esiste M ∈ GL(n, K) tale che (54) B = M −1 AM. La relazione di similitudine sull’insieme Mn (K) è una relazione di equivalenza. Infatti, date A, B, C ∈ Mn (K), risulta che A è simile ad A, avendosi A = In−1 AIn . Inoltre, se B è simile a A, dalla (54) segue −1 A = M BM −1 = (M −1 ) BM −1 per cui A è simile ad B. Infine, lasciamo al lettore la semplice verifica del fatto che se A è simile a B e B è simile a C, allora A è simile a C. In particolare, date due matrici A, B ∈ Mn (K), si può usare la locuzione “A e B sono simili” senza ambiguità. Teorema 24.7. Siano A, B ∈ Mn (K) due matrici quadrate dello stesso ordine n ≥ 1. Sia V uno spazio vettoriale su K di dimensione n. Le proprietà seguenti sono equivalenti: (a) A e B sono simili. (b) Esistono un endomorfismo f : V → V e due basi B e B0 di V tali che A = MB (f ), B = MB0 (f ). Dimostrazione: L’implicazione (b) ⇒ (a) è già stata provata nel Corollario 24.5. Proviamo che (a) ⇒ (b), assumendo che A e B siano simili e quindi valga la relazione (54) per un’opportuna matrice invertibile M . Fissiamo una base B di V . Sappiamo che l’applicazione f ∈ End(V ) 7→ MB (f ) ∈ Mn (K) è bigettiva (Teorema 23.3); pertanto in corrispondenza della matrice A esiste uno ed un solo endomorfismo f : V → V tale che A = MB (f ). In corrispondenza di M esiste un unico endomorfismo g : V → V tale che M = MB (g). Essendo per ipotesi M invertibile, per il Corollario 22.5 abbiamo che g è un isomorfismo. Posto, per ogni i = 1, . . . , n: vi0 := g(vi ) abbiamo dunque che B0 = {v10 . . . , vn0 } è base di V . Inoltre la matrice di passaggio MB,B0 da B a B0 è esattamente M in forza della Proposizione 24.2 (cf. la (51)). Concludiamo che B = M −1 AM = M −1 MB (f )M = MB0 (f ) dove nell’ultimo passaggio si è applica la (53). 2 57 25. Cambiamento di coordinate ed equazioni di un’applicazione lineare Sia V uno spazio vettoriale di dimensione n > 0 sul campo K e siano assegnate due basi B = {v1 , . . . , vn } e B0 = {v10 , . . . , vn0 } di V . 0 x1 x1 .. .. 0 Proposizione 25.1. Sia v ∈ V e siano x = . e x = . i vettori delle componenti xn x0n di v rispetto a B e a B0 . Denotata con M la matrice di passaggio da B a B0 , sussiste la relazione x = M x0 . (55) Dimostrazione: Sappiamo dalla Proposizione 24.2 che M = MB0 ,B (IdV ); particolarizzando il risultato del Teorema 22.6 con f = IdV otteniamo che LM ◦ ψB0 = ψB da cui, per ogni v ∈ V segue: x = ψB (v) = (LM ◦ ψB0 )(v) = M x0 . 2 Proposizione 25.2. Siano V , W spazi vettoriali entrambi non banali sullo stesso campo K, entrambi finitamente generati ed aventi dimensioni n ed m rispettavamente. Sia f : V → W un’applicazione lineare. Si fissino una base B di V ed una base C di W . Sia v ∈ V e siano x = (x1 , . . . , xn ) e x0 = (x01 , . . . , x0m ) rispettivamente le componenti di v rispetto a B e di f (v) rispetto a C. Denotata con A la matrice associata ad f rispetto a B e C, sussiste la relazione (56) x0 = Ax. La relazione (56) prende il nome di equazione (vettoriale) di f nelle basi B e B0 . Dimostrazione: Si tratta ancora di una conseguenza del Teorema 22.6: dalla relazione LA ◦ ψB = ψC ◦ f abbiamo infatti: x0 = ψC (f (v)) = (LA ◦ ψB )(v) = Ax. 2 26. Sistemi lineari Definizione 26.1. Sia K un campo. Siano n, m interi positivi. Si chiama sistema lineare di m equazioni nelle n incognite x1 , . . . , xn sul campo K (o a coefficienti in K) ogni sistema di equazioni del tipo (57) 1 a x + · · · + a1n xn = b1 12 1 a1 x1 + · · · + a2n xn = b2 ········· m a1 x1 + · · · + am n xn = bm 58 dove gli scalari aij e bi sono tutti elementi fissati di K. Una soluzione del sistema (57) è ogni n-pla (y1 , . . . , yn ) di scalari tale che 1 a y + · · · + a1n yn = b1 12 1 a1 y1 + · · · + a2n yn = b2 . ··· m a1 y1 + · · · + am n y n = bm Un sistema che ammetta almeno una soluzione è detto compatibile, alrimenti è detto incompatibile. Il sistema (57) può scriversi in maniera compatta facendo uso del prodotto tra matrici. Si considerino infatti la matrice di tipo m × n A := (aij ) ed il vettore colonna b1 b := ... . bm Allora, posto x1 x := ... xn le uguaglianze (57) sono equivalenti a: (58) Ax = b. La matrice A si dirà matrice dei coefficienti del sistema (57), mentre b si dirà colonna dei termini noti. Nel caso in cui b = 0, il sistema è detto omogeneo. Proposizione 26.2. Sia E ⊂ Kn l’insieme di tutte le soluzioni del sistema (57). Allora E è un sottospazio vettoriale di Kn se e solo se il sistema è omogeneo. Dimostrazione: Supponiamo che E sia un sottospazio. Allora 0 ∈ E, e quindi A0 = b da cui b = 0. Viceversa, se b = 0 abbiamo x ∈ E ⇐⇒ Ax = 0 ⇐⇒ LA (x) = 0 ⇐⇒ x ∈ Ker(LA ) ovvero (59) E = Ker(LA ) ed in particolare E è un sottospazio di Kn . 2 Teorema 26.3. Un sistema omogeneo in n incognite è sempre compatibile e l’insieme delle soluzioni è un sottospazio vettoriale di Kn di dimensione n − r dove r è il rango della matrice A dei coefficienti. Si espimerà ciò dicendo che il sistema ammette ∞n−r soluzioni, convenendo, nel caso n = r, che ciò significa che il sistema ha l’unica soluzione (0, . . . , 0), detta soluzione banale. 59 Dimostrazione: Abbiamo già visto che l’insieme delle soluzione coincide con il nucleo di LA : Kn → Km ; applicando il teorema del rango abbiamo dunque dim(E) = n − r. Se n = r, allora dim(E) = 0 o equivalentemente E = {0}. 2 Ai fini di stabilire un criterio per l’esistenza di soluzioni di un sistema lineare, introduciamo un’altra matrice, detta matrice completa del sistema, data da (A|b) := (A(1) · · · A(n) b). Teorema 26.4. (Rouchè-Capelli) Un sistema lineare Ax = b di m equazioni in n incognite è compatibile se e solo se (60) rg(A) = rg(A|b). In tal caso, sia E l’insieme delle soluzioni e sia x0 ∈ E una soluzione arbitraria. Si ponga r := rg(A). Denotato con E0 l’insieme delle soluzioni del sistema omogeneo Ax = 0 detto associato a (58), risulta E = x0 + E0 := {x0 + u|u ∈ E0 } (61) ed inoltre E0 è un sottospazio di dimensione n − r. Si esprimerà ciò dicendo che il sistema ammette ∞n−r soluzioni. Dimostrazione: Il sistema è compatibile se e solo se esiste x = (x1 , . . . , xn ) tale che Ax = b, il che per la (23) è equivalente a b = x1 A(1) + · · · + xn A(n) ; dunque il sistema è compatibile se e solo se b ∈ L(A(1) , . . . , A(n) ). Ora, osserviamo che b ∈ L(A(1) , . . . , A(n) ) ⇐⇒ L(A(1) , . . . , A(n) , b) ⊂ L(A(1) , . . . , A(n) ) ⇐⇒ (∗) L(A(1) , . . . , A(n) , b) = L(A(1) , . . . , A(n) ) ⇐⇒ dim(L(A(1) , . . . , A(n) , b)) = dim(L(A(1) , . . . , A(n) )) ⇐⇒ rg(A|b) = rg(A) dove l’equivalenza (*) si giustifica notando che a priori sussiste l’inclusione L(A(1) , . . . , A(n) ) ⊂ L(A(1) , . . . , A(n) , b). Infine, assumiamo il sistema compatibile e sia x0 ∈ E. Allora per ogni u ∈ E0 abbiamo A(x0 + u) = Ax0 + Au = b + 0 = b e ciò mostra che x0 + E0 ⊂ E. Riguardo l’altra inclusione, sia x ∈ E; allora Ax = b. 60 Posto u := x − x0 , si ha Au = Ax − Ax0 = b − b = 0 per cui u ∈ E0 e quindi x ∈ x0 + E0 . L’affermazione concernente la dimensione di E0 è vera in forza del Teorema precedente. 2 Corollario 26.5. Si consideri un sistema compatibile (58). Allora esso ammette una ed una sola soluzione se e solo se n = rg(A). Dimostrazione: Sia ancora E l’insieme delle soluzioni. Fissiamo x0 ∈ E. Allora il sistema ha una sola soluzione se e solo se E = {x0 } ovvero x0 + E0 = {x0 } il che accade se e solo se E0 = {0}, circostanza che si verifica, per il Teorema 26.3, se e solo se rg(A) = n. 2 27. Relazione tra sistemi lineari e sottospazi Sia V uno spazio vettoriale di dimensione n > 0 sul campo K. Teorema 27.1. Si fissi una base B = {v1 , . . . , vn } di V . Assegnato un sistema omogeneo Pn 1 j=1 αj xj = 0 .. (62) . Pn m j=1 αj xj = 0 ovvero in forma compatta Ax = 0 nelle n incognite x1 , . . . , xn , l’insieme W di tutti e soli i vettori di V il cui vettore delle componenti x rispetto a B è soluzione del sistema è un sottospazio vettoriale di V , di dimensione n − rg(A). Si dirà che W è il sottospazio di equazioni (62) e si scriverà: Pn 1 j=1 αj xj = 0 .. W : . P n m α j=1 j xj = 0 oppure W : Ax = 0. Viceversa, ogni sottospazio W è di questo tipo, ovvero esiste un sistema (62) tale che W ha equazioni (62) rispetto a B. Dimostrazione: Sappiamo che l’insieme delle soluzioni E ⊂ Kn del sistema (62) è un sottospazio di Kn di dimensione n − rg(A). Ora, per definizione di W , abbiamo v ∈ W ⇐⇒ ψB (v) ∈ E ovvero −1 W = ψB (E). n Pertanto, essendo ψB : V → K un isomorfismo, W è sottospazio di V , isomorfo ad E; in particolare ha dimensione n − rg(A). 61 Proviamo l’ultima affermazione. Sia W un sottospazio di V . Se W = {0}, allora W è descritto dalle equazioni x1 = · · · = xn = 0. Se W = V , possiamo scegliere A = 0. Supponiamo quindi 0 < k = dim(W ) < n e sia C = {w1 , . . . , wk } una base di W . Completiamo C ad una base B0 = {w1 , . . . , wk , uk+1 , . . . , un } di V scegliendo opportuni vettori uk+1 , . . . , un . Denotando con x01 , . . . , x0n le componenti di un vettore v di V rispetto a B0 , abbiamo k n X X v= x0i wi + x0i ui i=1 i=k+1 dove il primo addendo appartiene a W ; stante l’unicità di tale scrittura, abbiamo v ∈ W ⇐⇒ x0k+1 = · · · = x0n = 0 e quindi, rispetto alla base B0 , W è il sottospazio descritto dal sistema di n − k equazioni: W : A0 x0 = 0 ek+1 .. 0 dove A = . . Sia infine M la matrice di passaggio da B a B0 . Allora, tenendo en conto della relazione x = M x0 tra le componenti di uno stesso vettore nelle due basi (cf. (55)), otteniamo che v ∈ W ⇐⇒ A0 x0 = 0 ⇐⇒ A0 (M −1 x) = 0 per cui rispetto a B, abbiamo W : Ax = 0 dove A := 2 A0 M −1 . 28. Determinanti Nel seguito denoteremo con Sn il gruppo delle permutazioni di {1, . . . , n} dove n ≥ 1 è un numero intero. Per ogni σ ∈ Sn , il segno di σ verrà denotato con (σ). È noto che l’applicazione : Sn → {−1, 1} è un omomorfismo di gruppi, ovvero (63) (σσ 0 ) = (σ)(σ 0 ) ∀σ, σ 0 ∈ Sn . In particolare, (σ −1 ) = (σ)−1 . Si ricordi inoltre che lo scambio relativo a due fissati indici distinti i, j ∈ {1, . . . , n} è la permutazione σ tale che σ(i) = j, σ(j) = i, mentre per ogni t diverso da i e j è σ(t) = t. Ogni scambio è una permutazione dispari nel senso che (σ) = −1. La permutazione identica è pari, ovvero (Id) = 1. Definizione 28.1. Si chiama determinante di una matrice quadrata A ∈ Mn (K), lo scalare X σ(1) σ(2) (64) det(A) := (σ) a1 a2 · · · aσ(n) . n σ∈Sn 62 Il determinante di una matrice A si denoterà anche col simbolo |A|. Si osservi che ciascun addendo della somma (64) è, a meno del segno, il prodotto di n elementi della matrice ottenuti scegliendo un elemento per ciascuna colonna, in posizioni riga tutte differenti. Esempio 28.2. Data una matrice quadrata di ordine 1, abbiamo |a| = a. Per una matrice di ordine 2 si ha invece a b det c d (65) = ad − bc. Infatti, la somma (64) consiste di due addendi, uno corrispondente alla permutazione identica e l’altro corrispondente allo scambio degli indici 1 e 2. Proposizione 28.3. Per ogni matrice A ∈ Mn (K) si ha det(A) = det(tA). Dimostrazione: L’argomento su cui si basa questa dimostrazione ed altre che seguiranno è la seguente osservazione: Lemma 28.4. Sia I un insieme finito e sia (xi )i∈I una famiglia di elementi del campo K indicizzata su I. Allora, se f : I → I è una bigezione, si ha: X X xi = xf (i) . i∈I Dimostrazione: stessi. i∈I Infatti, essendo f bigettiva, gli addendi delle due somme sono gli 2 Torniamo alla dimostrazione della Prop. 28.3. Risulta det(tA) = X ∗ (σ) a1σ(1) a2σ(2) · · · anσ(n) = σ∈Sn X σ(1) σ(2) (σ −1 ) a1 a2 · · · aσ(n) n σ∈Sn X −1 ∗∗ σ −1 (1) σ −1 (2) a2 · · · anσ (n) = (σ) a1 σ∈Sn = X σ(1) σ(2) a2 · · · anσ(n) (σ) a1 = det(A). σ∈Sn L’uguaglianza * si giustifica osservando che il prodotto a1σ(1) a2σ(2) · · · anσ(n) si può riordinare, in forza della proprietà commutativa, disponendo i fattori per indice crescente di colonna: se aiσ(i) è il fattore appartente alla colonna j, allora σ(i) = j, ovvero i = σ −1 (j), e quindi σ −1 (j) aiσ(i) = aj . L’uguaglianza ** si ottiene applicando il Lemma precedente facendo uso della bigezione f : Sn → Sn tale che f (σ) = σ −1 per ogni σ ∈ Sn . 2 Teorema 28.5. L’applicazione det : Mn (K) → K gode delle seguenti proprietà. 63 1) (Multinearità rispetto alle colonne) Sia A ∈ Mn (K); sia j ∈ {1, . . . , n} e si supponga che A(j) = λU + µV con U, V ∈ Kn e λ, µ ∈ K. Allora det(A) = λ det(A(1) · · · A(j−1) U A(j+1) · · · A(n) ) + µ det(A(1) · · · A(j−1) V A(j+1) · · · A(n) ). 2) (Alternanza) Siano A ∈ Mn (K) e α ∈ Sn ; allora det(A(α(1)) · · · A(α(n)) ) = (α) det(A). u1 v1 .. .. Dimostrazione: 1) Posto U = . e V = . , abbiamo: un vn X σ(1) σ(2) det(A) = (σ) a1 a2 · · · anσ(n) = σ∈Sn X σ(1) σ(2) σ(j−1) a2 · · · aj−1 (λuσ(j) (σ) a1 σ(j+1) + µvσ(j) )aj+1 = · · · aσ(n) n σ∈Sn λ X σ(1) σ(2) σ(j−1) σ(j+1) a2 · · · aj−1 uσ(j) aj+1 · · · aσ(n) n + σ(1) σ(2) σ(j−1) σ(j+1) a2 · · · aj−1 vσ(j) aj+1 · · · anσ(n) = (σ) a1 σ∈Sn µ X (σ) a1 σ∈Sn λ det(A(1) · · · A(j−1) U A(j+1) · · · A(n) ) + µ det(A(1) · · · A(j−1) V A(j+1) · · · A(n) ). 2) Utilizzando ancora la definizione di determinante, risulta: X σ(1) σ(2) σ(n) det(A(α(1)) · · · A(α(n)) ) = (σ) aα(1) aα(2) · · · aα(n) = σ∈Sn X −1 (n)) ∗ σ(α−1 (1)) σ(α−1 (2)) (σ) a1 a2 · · · aσ(α = n σ∈Sn X σ(1) σ(2) a2 · · · anσ(n) (σα) a1 σ∈Sn = (α) X σ(1) σ(2) a2 · · · aσ(n) n (σ) a1 = σ∈Sn (α) det(A). L’uguaglianza * si ottiene utilizzando il Lemma 28.4, mediante la bigezione (traslazione destra) σ ∈ Sn 7→ σα ∈ Sn . 2 Corollario 28.6. (1) Un determinante cambia di segno se si scambiano tra lore due colonne. (2) Se una matrice ha due colonne uguali, il suo determinante è nullo. (3) Un determinante non cambia se si somma ad una colonna un multiplo di un’altra. Dimostrazione: (1) Si tratta di un caso particolare della proprietà 2) del Teorema precedente, ladddove si consideri lo scambio σ di due indici. 64 (2) Ci limitiamo a dimostrare questa proprietà nel caso in cui il campo K soddifi la proprietà: 1 + 1 6= 0. Ciò si esprime dicendo che il campo K ha caratteristica diversa da 2. Naturalmente tale ipotesi è soddisfata da R, C e qualunque sottocampo di tali campi. Sia dunque A ∈ Mn (K) tale che A(j) = A(j 0 ) per opportuni indici j 6= j 0 . Denotiamo con A0 la matrice che si ottiene da A scambiando tra loro le colonne j-ma e j 0 -ma. Allora A0 = A, per cui det(A0 ) = det(A); d’altra parte la proprietà 1) implica che det(A0 ) = − det(A), per cui det(A) = − det(A), ovvero (1 + 1) det(A) = 0, e quindi det(A) = 0 per l’ipotesi fatta sul campo. (3) Sia A ∈ Mn (K) e sia A0 la matrice che si ottiene da A effettuando la sostituzione A(j) → A(j) + βA(j 0 ) j0. dove j 6= Supponiamo ad esempio j < j 0 . Applicando al calcolo di det(A0 ) la proprietà di multinearità rispetto alle colonne, abbiamo det(A0 ) = det(A(1) · · · A(j) + βA(j 0 ) · · · A(j 0 ) · · · A(n) ) = det(A(1) · · · A(j) · · · A(j 0 ) · · · A(n) ) + β det(A(1) · · · A(j 0 ) · · · A(j 0 ) · · · A(n) ) = det(A) + β 0 = det(A). 2 dove si è anche tenuto conto della proprietà (2). Osservazione 28.7. Poichè il determinante di una matrice e quello della trasposta coincidono, sussistono proprietà analoghe delle 1) e 2) del Teorema 28.5 e delle (1)-(3) del Corollario 28.6, riferite alle righe anzichè alle colonne. Per brevità tali proprietà non saranno rienuciate esplicitamente. Un’ulteriore conseguenza immediata della (1) del Teorema 28.5 è: Corollario 28.8. Per ogni matrice A ∈ Mn (K) risulta det(λA) = λn det(A). Teorema 28.9. (Teorema di Binet) Siano A, B ∈ Mn (K). Allora det(AB) = det(A) det(B). Dimostrazione: Per calcolare det(AB), applichiamo più volte la proprietà di multinearità, ricordando che ciascuna colonna di AB è una combinazione lineare delle colonne di A; abbiamo det(AB) = det( n X n X bk11 A(k1 ) AB(2) · · · AB(n) ) k1 =1 n X bk11 det(A(k1 ) k1 =1 k2 =1 bk11 det(A(k1 ) AB(2) · · · AB(n) ) = k1 =1 bk22 A(k2 ) · · · AB(n) ) = n X k1 =1 = ··· = X bk11 bk22 · · · bknn det(A(k1 ) A(k2 ) · · · A(kn ) ). k1 ,...,kn = n X bk11 n X k2 =1 bk22 det(A(k1 ) A(k2 ) · · · AB(n) ) = 65 A questo punto notiamo che gli unici addendi della somma che possono essere non nulli sono quelli corrispondenti a valori tutti distinti degli indici k1 , . . . , kn ; infatti negli addendi per cui due indici coincidono figurano determinanti con due colonne uguali, che sono nulli per il Corollario 28.6. La scelta di n indici tutti diversi k1 , . . . , kn è equivalente alla scelta di una permutazione σ ∈ Sn ; dunque possiamo riscrivere det(AB) = X σ(1) σ(2) b2 · · · bnσ(n) det(A(σ(1)) A(σ(2)) · · · A(σ(n)) ) b1 = σ∈Sn X σ(1) σ(2) b2 · · · bnσ(n) (σ) det(A) b1 = det(B) det(A). σ∈Sn dove si è applicata la proprietà di alternanza 2) del Teorema 28.5. 2 Il calcolo di un determinante basato sulla definizione è alquanto disagevole. Il risultato seguente fornisce un metodo efficente che si basa sul calcolo di determinanti di opportune “sottomatrici” della matrice data, di ordine inferiore. In definitiva il calcolo viene ricondotto in modo ricorsivo a quello di determinanti di matrici di ordine 2, basato sulla (65). A tale scopo diamo la seguente definizione. Definizione 28.10. Sia A = (aij ) ∈ Mn (K). Si chiama complemento algebrico dell’elemento aij di A lo scalare Aij := (−1)i+j det Cji (A) dove Cji (A) denota la matrice quadrata di ordine n − 1 che si ottiene da A eliminandone la riga i-ma e la colonna j-ma. Teorema 28.11. (Sviluppo di Laplace rispetto ad una colonna) Sia A = (aij ) ∈ Mn (K). (1) Si fissi un indice colonna j. Allora (66) |A| = n X aij Aij . i=1 (2) Siano j 6= j 0 due indici colonna distinti. Allora (67) n X aij Aij 0 = 0. i=1 La (66) prende il nome di sviluppo di Laplace del determinante di A secondo la colonna j-ma. La dimostrazione di tala formula si articolerà in più passi. Lemma 28.12. Sia A ∈ Mn (K) tale che A(n) = en . Allora |A| = Ann . 66 Dimostrazione: Ancora utilizzando la definizione, tenendo conto del fatto che l’unico elemento non nullo della n-ma colonna di A è quello ann = 1 sulla riga n-ma si ottiene: X X σ(1) σ(2) σ(1) σ(2) σ(n−1) |A| = (σ) a1 a2 · · · aσ(n) = (σ) a1 a2 · · · an−1 1 = n σ∈Sn X σ∈Sn σ(n)=n σ(1) σ(2) σ(n−1) a2 · · · an−1 (σ) a1 σ∈Sn−1 det(Cnn (A)) = = Ann . 2 Lemma 28.13. Sia A ∈ Mn (K) e si fissi un indice colonna j. Allora per ogni k ∈ {1, . . . , n} si ha | (A(1) · · · A(j−1) ek A(j+1) · · · A(n) ) | = Akj . (68) Dimostrazione: Effettuando n−j scambi di colonne, il determinante a primo membro della (68) equivale a (−1)n−j |A(1) · · · A(j−1) A(j+1) · · · A(n) ek |. D’altra parte (−1)n−j |A(1) · · · A(j−1) A(j+1) · · · A(n) ek | = 1 a1 · · · a1 a1n j−1 aj+1 · · · 1 ··· ··· ··· ··· ··· ··· ak−1 · · · ak−1 ak−1 · · · ak−1 1 n j−1 j+1 akn (−1)n−j ak1 · · · akj−1 akj+1 · · · k+1 k+1 k+1 a1 · · · ak+1 j−1 aj+1 · · · an ··· ··· ··· ··· ··· ··· n a1 · · · anj−1 anj+1 · · · ann 1 a1 · · · a1 j−1 aj+1 · · · 1 ··· ··· ··· ··· ··· ak−1 · · · ak−1 ak−1 · · · 1 j−1 j+1 k+1 k+1 (−1)n−j (−1)n−k ak+1 · · · a a j−1 j+1 · · · 1 ··· ··· ··· ··· ··· n a1 · · · anj−1 anj+1 · · · k a1 · · · akj−1 akj+1 · · · 0 · · · 0 = 1 ∗ 0 · · · 0 a1n 0 · · · · · · 0 ak−1 n = ak+1 0 ∗∗ n ··· ··· ann 0 akn 1 (−1)k+j det(Cjk (A)) = Akj . Nel passaggio * si sono effettuati n − k scambi di righe per rendere la riga k-ma l’ultima; l’uguaglianza ** è una diretta applicazione del Lemma precedente. 2 Possiamo ora procedere con P la dimostrazione del Teorema 28.11. Proviamo la (66). Utilizzando il fatto che A(j) = akj ek e la proprietà di multinearità del deteminante si ottiene: 67 |A| = X |A(1) · · · A(j−1) akj ek A(j+1) · · · A(n) | = X akj |A(1) · · · A(j−1) ek A(j+1) · · · A(n) | = X akj Akj dove nell’ultimo passaggio si è applicato il Lemma precedente. Quanto alla (67), denotiamo con B = (bij ) la matrice che si ottiene da A sostituendo al posto della colonna di indice j 0 la colonna A(j) . Dunque B ha due colonne uguali e pertanto |B| = 0. Inoltre, Cjk0 (B) = Cjk0 (A) per ogni k ∈ {1, . . . , n}. In particolare, per definizione di complemento algebrico, si ha Bjk0 = Akj0 . Applicando al determinante di B lo sviluppo di Laplace secondo la colonna j 0 -ma otteniamo quindi X 0 = |B| = bkj0 Bjk0 = akj Akj0 .2 Natuarlmente sussiste un risultato analogo, che fornisce lo sviluppo di Laplace di un determinante secondo una riga: Teorema 28.14. (1) Si fissi un indice riga i. Allora |A| = (69) n X aik Aik . k=1 (2) Siano i 6= i0 due indici riga distinti. Allora n X (70) 0 aik Aik = 0. k=1 Il risultato seguente mette in evidenza l’utilità della nozione di determinante, relativamente al problema di stabilire se una matrice è invertibile, e calcolarne l’inversa. Un’ulteriore applicazione del determinante al calcolo del rango di matrici sarà esaminata nel paragrafo seguente. Teorema 28.15. Sia A ∈ Mn (K). Allora A ∈ GL(n, K) ⇐⇒ det(A) 6= 0. Inoltre, se A è invertibile, risulta (71) A−1 = 1 t Cof (A) det(A) dove Cof (A) è la martice di ordine n definita da Cof (A) := (Aij ), ovvero Cof (A) è la matrice che si ottiene da A sostituendo ciascun elemento col proprio complemento algebrico. 68 Dimostrazione: Supponiamo che A sia invertibile; allora AA−1 = In da cui, passando ai determinanti det(AA−1 ) = det(In ) ovvero, per il Teorema di Binet: det(A) det(A−1 ) = 1 (72) il che implica in particolare che det(A) 6= 0. Viceversa, supponiamo che det(A) 6= 0. Dimostreremo che A è invertibile in due modi diversi. Primo modo: Supponiamo per assurdo che A non sia invertibile. Per il Teorema 19.2, rg(A) < n. Allora le colonne di A sono linearmente dipendenti; una di esse, diciamo A(j) , P è combinazione lineare delle altre. Posto A(j) = k6=j λk A(k) , abbiamo per la proprietà di multinearità X |A| = λk |A(1) · · · A(j−1) A(k) A(j+1) · · · A(n) | = 0 k6=j in quanto ciascuno degli addendi è il determinante di una matrice con due colonne uguali. Si perviene cosı̀ ad una contraddizione. Secondo modo: Mostriamo che la matrice definita dalla (71) è tale che AA−1 = In = A−1 A o equivalentemente A tCof (A) = det(A)In = tCof (A)A. Riguardo la prima uguaglianza, notiamo che l’elemento di posto (i, j) del prodotto A tCof (A) è dato da n X aik Ajk . k=1 In base al Teorema di Laplace 28.14 relativo alle righe, questo scalare è nullo se i 6= j, altrimenti coincide con det(A). Analogamente si ragiona per il prodotto tCof (A) A, sfruttando lo sviluppo di Laplace rispetto alle colonne. 2 Corollario 28.16. Sia A ∈ GL(n, K). Allora det(A−1 ) = Dimostrazione: ricavare la (72). 1 . det(A) È stato già stabilito nel corso della dimostrazione precedente, nel 2 Come applicazione del Teorema 28.15, studiamo una particolare classe di sistemi lineari. Definizione 28.17. Si chiama sistema di Cramer nelle incognite x1 , . . . , xn ogni sistema lineare di n equazioni, del tipo (73) Ax = b, A ∈ GL(n, K), b ∈ Kn 69 Teorema 28.18. Ogni sistema di Cramer ha una ed una sola soluzione (x01 , . . . , x0n ), determinabile come segue: | A(1) · · · A(i−1) b A(i+1) · · · A(n) | 0 (74) xi := |A| Dimostrazione: Poichè A è invertibile, l’equazione matriciale (73) si risolve moltiplicando ambo i membri per A−1 ottenendo l’unica soluzione x0 ∈ Kn : x0 = A−1 b. Le componenti del vettore x0 cosı̀ ottenuto sono date esplicitamente dalle formule (74); infatti, utilizzando la (71) otteniamo n x0i = 1 1 X k | A(1) · · · Ai b k = |A| |A| A(i−1) b A(i+1) · · · A(n) | k=1 dove l’ultimo passaggio è giustificato dallo sviluppo di Laplace del determinante della matrice A(1) · · · A(i−1) b A(i+1) · · · A(n) rispetto alla i-ma colonna. 2 29. Calcolo del rango mediante determinanti Definizione 29.1. Sia A ∈ Mm,n (K) e sia I = {i1 , . . . , ir } ⊂ {1, . . . , m} con i1 < i2 < · · · < ir . Si chiama sottomatrice di A relativa alle righe di indici i1 , . . . , ir la matrice di tipo r × n, denotata con AI , e cosı̀ definita: (i ) A 1 AI := ... . A(ir ) Se J = {j1 , . . . , jq } ⊂ {1, . . . , n} con j1 < j2 < · · · < jq , si chiama sottomatrice di A relativa alle colonne di indici j1 , . . . , jq , la matrice di tipo m × q: AJ := A(j1 ) · · · A(jq ) . Definizione 29.2. Sia A ∈ Mm,n (K). Siano I = {i1 , . . . , ir } ⊂ {1, . . . , m} e J = {j1 , . . . , jp } con i1 < i2 < · · · < ir , j1 < j2 · · · < jp . Si chiama sottomatrice di A relativa alla coppia di multiindici (I, J) la matrice di tipo r × q: AIJ := (AI )J . Proposizione 29.3. Sia A ∈ Mm,n (K) e sia AIJ una sottomatrice di A. Allora rg(AIJ ) ≤ rg(A). Dimostrazione: Infatti, C(AIJ ) ⊂ C(AI ) e quindi rg(AIJ ) ≤ rg(AI ). D’altra parte, R(AI ) ⊂ R(A), da cui rg(AI ) ≤ rg(A) e di qui l’asserto. 2 70 Osservazione 29.4. Conviene estendere la notazione riguardante le sottomatrici, includendo anche il caso in cui gli indici riga i1 , . . . , ir o gli indici colonna j1 , . . . , jq non siano in ordine crescente; precisamente, se I = {i1 , . . . , ir } è un sottoinsieme di cardinalità r di {1, . . . , m}, allora esiste un’unica permutazione i01 , . . . , i0r degli indici di I tale che i01 < · · · < i0r ; si pone allora per definizione AI := AI dove I 0 := {i01 , . . . , i0r }. Cosı̀, ad esempio, se 1 0 0 0 A= 0 1 0 0 2 0 1 0 0 4 1 0 0 5 0 0 0 allora A{3,1,4} = A{1,3,4} 1 0 2 4 5 = 0 1 1 0 0 . 0 0 0 0 0 Una convenzione analoga verrà adottata per le sottomatrici di tipo AJ e quindi per le sottomatrici di tipo generale AIJ . Definizione 29.5. Sia A ∈ Mm,n (K). Si chiama minore di A ogni scalare del tipo |AIJ | dove AIJ è una sottomatrice quadrata di A. Si chiama ordine di un minore l’ordine della sottomatrice corrispondente. Proposizione 29.6. Sia A ∈ Mm,n (K) e sia I = {i1 . . . , ir } ⊂ {1, . . . , m} un sottoinsieme di cardinalità r ≥ 1. Allora: Le righe A(i1 ) , . . . , A(ir ) sono indipendenti ⇐⇒ Esiste un minore |AIJ | non nullo. Dimostrazione: Supponiamo che le righe A(i1 ) , . . . A(ir ) siano indipendenti. Allora la sottomatrice AI ha rango (per righe) r; pertanto esistono r colonne indipendenti di AI ; detti j1 < · · · < jr gli indici di tali colonne, abbiamo che AIJ = (AI )J ha rango (per 6 0. colonne) r ovvero tale matrice è invertibile, e quindi |AIJ | = Viceversa, supponiamo che esista un minore non nullo corrispondente ad una opportuna sottomatrice AIJ . In particolare rg(AIJ ) = r. Ma, poichè AIJ è sottomatrice di AI , abbiamo rg(AI ) ≥ rg(AIJ ) = r 2 per cui le righe A(i1 ) , . . . A(ir ) sono indipendenti. Osservazione 29.7. Giova osservare che, ai fini della validità dell’equivalenza nell’enunciato precedente, non è lecito sostituire “Esiste” con “Per ogni”. Ad esempio, si consideri la matrice 1 0 0 0 A= . 0 1 0 0 {1,2} Le due righe di A sono indipendenti, ma il minore |A{3,4} | è nullo. Sussiste un risultato analogo al precedente, la cui dimostrazione è simile. 71 Proposizione 29.8. Sia A ∈ Mm,n (K) e sia J = {j1 . . . , jq } ⊂ {1, . . . , n} un sottoinsieme di cardinalità q ≥ 1. Allora Le colonne A(j1 ) , . . . , A(jq ) sono indipendenti ⇐⇒ Esiste un minore |AIJ | non nullo. Dimostriamo ora un risultato che interpreta la nozione di rango mediante la nozione di minore. Teorema 29.9. Sia A ∈ Mm,n (K). Il rango di A coincide con l’ordine massimo di un minore non nullo. Dimostrazione: Si ponga r := rg(A); se r = 0 allora non vi sono minori non nulli ed il teorema è vero. Si supponga quindi r ≥ 1. Si tratta di provare le due affermazioni seguenti: 1) Esiste un minore non nullo di A di ordine r; 2) tutti i minori di ordine maggiore di r sono nulli. Proviamo 1). Si fissi una base {A(i1 ) , . . . A(ir ) } di R(A). Allora per la Proposizione 29.6, esiste un minore di ordine r non nullo M = |AIJ | dove I = {i1 , . . . , ir }. 0 Riguardo l’affermazione 2), sia M 0 = |AIJ 0 | un minore di ordine s > r, I 0 = {i01 , . . . , i0s }; 0 0 supponiamo per assurdo M 0 6= 0. Allora, per la Prop. 29.6, le righe A(i1 ) , . . . , A(is ) risulterebbero indipendenti, contro il fatto che s > r = dimR(A). 2 Ai fini del calcolo del rango mediante la caratterizzazione fornita dal Teorema precedente, è particolarmente utile il “Principio dei minori orlati” che dimostreremo di seguito. Definizione 29.10. Sia M = |AIJ | un minore di ordine k ≥ 1 della matrice A ∈ Mm,n (K). 0 Si dice orlato di M ogni minore di ordine k + 1 del tipo |AIJ 0 | dove I ⊂ I 0 e J ⊂ J 0 . Teorema 29.11. (Principio degli orlati di Kronecker) Sia A ∈ Mm,n (K) e sia M un minore non nullo di A di ordine r. Allora, se tutti gli orlati di M sono nulli, rg(A) = r. Dimostrazione: Sia M = |AIJ | con I = {i1 , . . . , ir } e J = {j1 , . . . , jr . Supponimo che tutti gli orlati di M siano nulli, e per assurdo ammettiamo che rg(A) > r. Allora deve esistere una riga A(i) di A tale che A(j) 6∈ L(A(i1 ) , . . . , A(ir ) ). In particolare, A(i1 ) , . . . , A(ir ) , A(i) sono indipendenti (Prop. 11.8). Posto I 0 = {i1 , . . . , ir , i}, la sot0 0 tomatrice AI ha pertanto rango r + 1. Poichè M è anche un minore non nullo di AI , 0 0 0 abbiamo che le colonne AI(j1 ) , . . . , AI(jr ) di AI sono indipendenti (Prop. 29.8). Dal fatto che 0 0 0 0 0 0 rg(AI ) = r +1, segue che esiste una colonna AI(j) di AI tale che AI(j) 6∈ L(AI(j1 ) , . . . , AI(jr ) ). 0 0 Posto J 0 = {j1 , . . . , jr , j}, consideriamo allora la sottomatrice (AI )J 0 = AIJ 0 ; essa ha rango r + 1 perchè le sue colonne sono indipendenti e pertanto determina un minore non nullo di ordine r + 1, che per costruzione è un orlato di M . Ciò è contro l’ipotesi. 2 30. Endomorfismi diagonalizzabili Siano V uno spazio vettoriale sul campo K di dimensione n ≥ 1 ed f : V → V un endomorfismo. 72 Definizione 30.1. Si dirà che f è diagonalizzabile se esiste una base B di V tale che la matrice associata MB (f ) ad f rispetto a B è diagonale. Nel seguito stabiliremo dei se un endomorfismo è diagonalizzabile. criteri per stabilire λ1 .. Si supponga che MB (f ) = sia diagonale; allora, posto B = {v1 , . . . , vn } . λn abbiamo, per definizione di matrice associata, che: (75) f (vi ) = λi vi i = 1, . . . , n. Notiamo che le equazioni di f rispetto alla base B (cf. (56)) risultano particolarmente semplici: 0 x1 = λ1 x1 ······ . 0 xn = λn xn Le (75) suggeriscono di introdurre la seguente terminologia. Definizione 30.2. Sia f : V → V un endomorfismo. Un vettore v ∈ V si dice autovettore di f se v 6= 0 ed inoltre esiste λ ∈ K tale che (76) f (v) = λv. Si noti che lo scalare λ è univocamente determinato dalla condizione precedente: infatti se µ ∈ K è tale che f (v) = µv allora µv = λv da cui µ = λ perchè v 6= 0. Definizione 30.3. Se v è un autovettore di f , l’unico scalare λ per cui è soddisfatta (76), si chiamerà l’autovalore relativo a v. Definizione 30.4. Sia f : V → V un endomorfismo e sia λ ∈ K. Si dirà che λ è un autovalore di f se esiste un autovettore v di cui λ è l’autovalore associato. In altri termini, λ è autovalore se e solo se esiste v ∈ V , v 6= 0, tale che f (v) = λv. L’insieme di tutti gli autovalori di f è detto spettro di f e si denota con Sp(f ). Proposizione 30.5. Sia f : V → V un endomorfismo. Allora f è diagonalizzabile se e solo se esiste una base B di V costituita da autovettori di f . Dimostrazione: Abbiamo già visto che la condizione è necessaria. È anche sufficiente perchè se B = {v1 , . . . , vn } è una base di V costituita da autovettori di f , allora, detto λi l’autovalore relativo a vi , sono soddisfatte le (75); tali relazioni implicano che, per ogni i, il vettore delle componenti di f (vi ) rispetto a B è λi ei , sicchè la matrice MB (f ) = (λ1 e1 · · · λn en ) è diagonale, e quindi f è diagonalizzabile. 2 73 Definizione 30.6. Sia λ ∈ K un autovalore dell’endomorfismo f : V → V . Il sottospazio di V V (λ) := {v ∈ V | f (v) = λv} = Ker(f − λIdV ) prende il nome di autospazio di f relativo a λ. Osserviamo esplicitamente che, per definizione di autovalore, se λ ∈ Sp(f ), allora V (λ) 6= {0}. Allo scopo di fornire una prima caratterizzazione degli endomorfismi diagonalizzabili, introduciamo una generalizzazione del concetto di somma di sottospazi introdotta in precedenza. Definizione 30.7. Siano W1 , . . . , Wk sottospazi di V , k ≥ 2; la loro somma è il sottospazio di V definito da W1 + · · · + Wk := {w1 + · · · + wk | wi ∈ Wi ∀i = 1, . . . , k}. Si lascia al lettore la semplice verifica che si tratta effettivamente di un sottospazio vettoriale di V . Definizione 30.8. Si dice che la somma W1 +· · ·+Wk dei sottospazi W1 , . . . , Wk è diretta se per ogni (u1 , . . . , uk ) ∈ W1 × · · · × Wk risulta (77) u1 + · · · + uk = 0 ⇒ ui = 0 ∀i = 1, . . . , k. In tal caso, si userà la notazione W1 ⊕ · · · ⊕ Wk in luogo di W1 + · · · + Wk . Teorema 30.9. Si assuma che la somma W1 +· · ·+Wk sia diretta e che ciascun sottospazio sia non banale. Si fissi, per ogni i = 1, . . . , k una base Bi di Wi . Allora B := B1 ∪· · ·∪Bk è una base di W1 ⊕ · · · ⊕ Wk . In particolare (78) dim(W1 ⊕ · · · ⊕ Wk ) = k X dim(Wi ). i=1 Dimostrazione: Sia di := dim(Wi ) e sia Bi = {w1i , . . . , wdi i }, di modo che B = {w11 , . . . , wd11 , . . . , w1k , . . . , wdkk }. È immediato riconoscere che i vettori di B costituiscono un sistema di generatori di W1 ⊕ · · · ⊕ Wk , in quanto, dato un vettore u = u1 + · · · + uk di tale spazio, con ui ∈ Wi , ciascun ui si scrive in modo unico nella forma ui = di X αji wji j=1 Pk Pi per opportuni scalari αji , e quindi u = i=1 dj=1 αji wji è combinazione lineare dei vettori di B. Riguardo la lineare indipendenza dei vettori di B, consideriamo una combinazione lineare nulla: dk d1 X X 1 1 αj wj + · · · + αjk wjk = 0. j=1 j=1 74 Ciascuno dei k addendi è un vettore appartenente ad uno dei sottospazi Wi ; applicando la condizione (77) nella definizione di somma diretta, segue che per ogni i = 1, . . . , k dev’essere di X αji wji = 0 j=1 da cui, poichè Bi è un inseme libero: α1i = · · · = αki = 0. 2 Teorema 30.10. Sia f : V → V un endomorfismo e si supponga che lo spettro di f sia non vuoto. Siano λ1 , . . . , λs , s ≥ 1 autovalori distinti di f . Allora la somma V (λ1 ) + · · · + V (λs ) è diretta. Dimostrazione: Ragioniamo per induzione su s. Se s = 1, non c’è nulla da dimostrare. Sia quindi s > 1 e supponiamo il risultato vero nel caso di s − 1 autovalori. Siano v1 , . . . , vs vettori tali che vi ∈ V (λi ) e (79) v1 + · · · + vs = 0. Applicando f ad ambo i membri si ottiene s X (80) λi vi = 0. i=1 D’altra parte moltiplicando ambo i membri di (79) per λs si ottiene s X (81) λs vi = 0. i=1 Dalle (80) e (81), sottraendo membro a membro, si trae s−1 X (λs − λi )vi = 0. i=1 Per l’ipotesi induttiva, la somma V (λ1 ) + · · · + V (λs−1 ) è diretta, per cui per ogni i = 1, . . . , s − 1 deve aversi (λs − λi )vi = 0 il che implica vi = 0 perchè i λi sono tutti distinti. Sostituendo nella (79), si ottiene anche che vs = 0 e con ciò resta provato che la somma V (λ1 ) + · · · + V (λs ) è diretta. 2 Corollario 30.11. Sia f : V → V un endomorfismo. Lo spettro di f è finito ed è costituito da al più n elementi, dove n = dim(V ). 75 Dimostrazione: Supponiamo che Sp(f ) contenga più di n elementi; scelti n + 1 elementi λ1 , . . . , λn+1 distinti in Sp(f ) avremmo, in base al Teorema precedente ed alla (78): n+1 X dim(V (λ1 ) + · · · + V (λn+1 )) = dim(V (λi )) ≥ n + 1 i=1 perchè ciascun autospazio non è banale, pervenendo cosı̀ ad un assurdo. 2 Teorema 30.12. Sia f : V → V un endomorfismo e si supponga Sp(f ) = {λ1 , . . . , λk }, k ≥ 1, con λi 6= λj per i 6= j. Allora sono equivalenti: a) f è diagonalizzabile. b) V = V (λ1 ) ⊕ · · · ⊕ V (λk ). Pk c) i=1 dim(V (λi )) = dim(V ). Dimostrazione: Proviamo innanzitutto che a) e b) sono equivalenti. Supponiamo vera a); poniamo W = V (λ1 ) ⊕ · · · ⊕ V (λk ). Per ipotesi esiste una base B = {v1 , . . . , vn } costituita da autovettori di f . Dunque per ogni i abbiamo vi ∈ W perchè vi deve appartenere ad uno degli autospazi V (λj ); pertanto V = L(v1 , . . . , vn ) ⊂ W e b) è provata. Viceversa, se vale b), in virtù del Teorema 30.9 esiste una base B = {v1 , . . . , vn } di V del tipo B1 ∪ · · · ∪ Bk con Bi base di V (λi ). In particolare, ciascun vi è autovettore di f e quindi f è diagonalizzabile. Infine, b) e c) sono equivalenti in quanto, per il Teorema 30.10 dim(V (λ1 ) + · · · + V (λk )) = k X dimV (λi ). i=1 2 31. Determinante di un endomorfismo e polinomio caratteristico Proposizione 31.1. Siano A, B ∈ Mn (K), n ≥ 1, due matrici simili. Allora det(A) = det(B). Dimostrazione: Infatti, per ipotesi A = M −1 BM per un’opportuna matrice invertibile M , da cui, applicando il Teorema di Binet ed il Corollario 28.16: det(A) = det(M )−1 det(B) det(M ) = det(B). 2 Il fatto che matrici simili hanno lo stesso determinante, in forza del Corollario 24.5, giustifica la definizione seguente. Definizione 31.2. Siano V uno spazio vettoriale sul campo K di dimensione n ≥ 1 ed f : V → V un endomorfismo. Si chiama determinante di f lo scalare det(f ) := |MB (f )| dove B è una base di V scelta in modo arbitrario. 76 Il seguente risultato è conseguenza immediata del Corollario 22.5 e del Teorema 28.15: Teorema 31.3. Siano V uno spazio vettoriale sul campo K di dimensione n ≥ 1 ed f : V → V un endomorfismo. Allora f è isomorfismo ⇐⇒ det(f ) 6= 0. Mediante la nozione di determinante, introdurremo uno strumento fondamentale per la determinazione dello spettro di un endomorfismo. Definizione 31.4. Siano V uno spazio vettoriale sul campo K di dimensione n ≥ 1 ed f : V → V un endomorfismo. Si chiama polinomio caratteristico di f il polinomio pf ∈ K[λ] definito da: pf (λ) := det(f − λIdV ). (82) Proposizione 31.5. Il polinomio caratteristico di un endomorfismo f : V → V è un polinomio di grado n = dim(V ), avente coefficiente direttivo (−1)n . Dimostrazione: Ai fini di esplicitare l’espressione pf (λ), fissiamo una base qualsiasi B di V . Sia A = (aij ) la matrice associata ad f rispetto a tale base. Allora la matrice associata all’endomorfismo f − λIdV è data da MB (f − λIdV ) = MB (f ) − λMB (IdV ) = A − λIn in virtù del fatto che l’applicazione g ∈ End(V ) 7→ MB (g) ∈ Mn (K) è lineare (Teorema 23.3). In conclusione, per definizione di determinante di un endomorfismo, abbiamo: pf (λ) = |A − λIn |, (83) A = MB (f ). Ora, esplicitando la definizione di determinante, posto B := A − λIn = (bij ): X σ(1) σ(2) pf (λ) = det(A) := (σ) b1 b2 · · · bnσ(n) . σ∈Sn Questa espressione è un polinomio in λ perchè in ciascuno degli addendi compare un prodotto di fattori che sono o costanti o del tipo aii − λ, i ∈ {1, . . . , n}. In particolare, vi è un solo addendo in cui λ figura n volte, ed è quello corrispondente alla permutazione identica, cioè è il prodotto b11 · · · bnn = (a11 − λ) · · · (ann − λ); dunque pf (λ) = (a11 − λ) · · · (ann − λ) + termini di grado < n in λ = (−1)n λn + q(λ) con q polinomio di grado < n in λ. 2 Osservazione 31.6. La (83) può essere utilizzata per calcolare esplicitamente il polinomio caratteristico. Si osservi che A è la matrice associata ad f rispetto ad una base che può essere scelta in modo arbitrario. 77 Teorema 31.7. Sia assegnato un endomorfismo f : V → V e sia λ ∈ K. Allora λ ∈ Sp(f ) ⇐⇒ pf (λ) = 0. In altri termini, lo spettro di f è costituito da tutte sole le radici del polinomio caratteristico di f . Dimostrazione: Infatti, in base alla definizione di autovalore: λ ∈ Sp(f ) ⇐⇒ ∃v ∈ V − {0} t.c. f (v) = λv ⇐⇒ ∃v ∈ V − {0} t.c. (f − λIdV )(v) = 0 ⇐⇒ ∃v ∈ V − {0} t.c. v ∈ Ker(λ − IdV ) ⇐⇒ λ − IdV non è isomorfismo ⇐⇒ det(f − λIdV ) = 0. 2 Osservazione 31.8. In base al teorema di Ruffini, pf ha al più n radici; si riottiene quindi il risultato del Corollario 30.11. Definizione 31.9. Sia f ∈ End(V ) e sia λ ∈ Sp(f ). Si chiamerà molteplicità algebrica di λ e si denoterà con m(λ), la molteplicità di λ come radice del polinomio caratteristico di f . Osservazione 31.10. Ricordiamo, che dato un polinomio p ∈ K[λ] ed una sua radice λo , dire che λo ha molteplicità m ∈ N, m ≥ 1, significa che (λ − λo )m divide p, mentre (λ − λo )s non divide p per s > m. Equivalentemente, p si fattorizza come p = (λ − λo )m q con q ∈ K[λ] tale che q(λo ) 6= 0. Teorema 31.11. Sia assegnato un endomorfismo f : V → V e sia λo ∈ Sp(f ). Allora dim(V (λo )) ≤ m(λo ). Dimostrazione: Sappiamo che l’autospazio V (λo ) non è banale. Posto s := dim(V (λo )), fissiamo una base Bo = {v1 , . . . , vs } di V (λo ) e sia B = {v1 , . . . , vn } una base di V ottenuta da Bo per completamento. Calcoliamo pf utilizzando la (83) in corrispondenza di tale base, dove A = MB (f ). Notiamo che per ogni i = 1, . . . , s risulta f (vi ) = λo vi per cui le prime k colonne di A sono i vettori λo e1 , . . . , λo ek , ovvero λo .. . B λ o A= 0 C dove B ∈ Ms,n−s (K) e C ∈ Mn−s (K). Allora la matrice A − λIn è data da 78 λo − λ .. . λo − λ A − λIn = 0 B C − λIn−s Il determinante di questa matrice si può calcolare utilizzando s volte lo sviluppo di Laplace rispetto alla prima colonna, ottenendo: |A − λIn | = (λo − λ)s |C − λIn−s | e quindi vediamo che pf si fattorizza come pf (λ) = (λo − λ)s q(λ) 2 il che mostra che m(λo ) ≥ s. Definizione 31.12. Per ogni λ ∈ Sp(f ), l’intero dim(V (λ)) prende il nome di molteplicità geometrica dell’autovalore λ. Prima di enunciare il criterio principale di diagonalizzabilità, richiamiamo un’altra nozione della teoria dei polinomi. Un polinomio p ∈ K[λ] non nullo è detto completamente riducibile se, a meno di una costante non nulla, è prodotto di fattori lineari del tipo λ − β con β costante; equivalentemente, se p può fattorizzarsi come segue: (84) p = α(λ − λ1 )m1 · · · (λ − λk )mk dove α ∈ K∗ , per ogni i 6= j è λi 6= λj e gli mj sono interi positivi. Naturalmente, in tal caso le radici di p sono esattamente i k scalari λi , ciascuna di molteplicità mi . Teorema 31.13. (Criterio di diagonalizzabilità) Sia f : V → V un endomorfismo del K-spazio vettoriale V di dimensione n > 0. Le seguenti proprietà sono equivalenti: a) f è diagonalizzabile. b) 1) Il polinomio pf è completamente riducibile; 2) per ogni λ ∈ Sp(f ) si ha dimV (λ) = m(λ). Dimostrazione: Proviamo che a) ⇒ b). Per ipotesi, esiste una base B di V rispetto alla quale la matrice associata a f è diagonale, cioè del tipo α1 α2 . . . αn per opportuni αi , i = 1, . . . , n non necessariamente distinti. Utilizzando tale matrice per calcolare il polinomio caratteristico mediante la (83), si perviene dunque a pf = (α1 − λ)(α2 − λ) · · · (αn − λ) 79 il che prova che pf è completamente riducibile. Inoltre, per il Teorema 31.7, lo spettro di f coincide con l’insieme {α1 , . . . , αn }. Denotando con k la cardinalità di tale insieme, siano λ1 , . . . , λk i suoi elementi distinti, con λi 6= λj . Allora possiamo riscrivere (85) pf = (−1)n (λ − λ1 )m1 · · · (λ − λk )mk . Inoltre, poichè il grado di pf è n, deve aversi: n= k X mi . i=1 Per concludere, si deve provare 2), ovvero mostrare che per ogni i = 1, . . . , k si ha dim(V (λi )) = mi . Infatti, sappiamo dal Teorema 30.12 che n= k X dim(V (λi )); i=1 sottraendo membro a membro nelle ultime due uguaglianze, perveniamo a 0= k X (mi − dim(V (λi ))) i=1 e quindi l’asserto perchè, per il Teorema 31.11, ciascuna differenza mi − dim(V (λi )) è un intero non negativo. Viceversa, si assuma b). Allora pf ammette una fattorizzazione del tipo (85); in particolare, Sp(f ) = {λ1 , . . . , λk } con ciascun autovalore λi di molteplicità m(λi ) = mi . Allora per la 2): k X i=1 dim(V (λi )) = k X mi = n i=1 e quindi applicando il Teorema 30.12 si conclude che f è diagonalizzabile. 2 Osservazione 31.14. Conviene osservare che, dato λ ∈ Sp(f ), la condizione dim(V (λ)) = m(λ) è automaticamente soddisfatta nel caso in cui m(λ) = 1. Ciò segue direttamente dalla diseguaglianza dim(V (λ)) ≤ m(λ) perchè V (λ) 6= {0}. Diremo in tal caso che l’autovalore λ è semplice. Corollario 31.15. Un endomorfismo f : V → V che ammetta n autovalori distinti, n = dim(V ), è sempre diagonalizzabile. Dimostrazione: Infatti, in tal caso, posto Sp(f ) = {λ1 , . . . , λn }, il Teorema di Ruffini garantisce che: pf = (−1)n (λ − λ1 ) · · · (λ − λn ) e quindi pf è completamente riducibile. Infine la proprietà 2) dell’enunciato è vera in forza dell’Osservazione precedente. 2 80 32. Diagonalizzazione simultanea Siano f, g : V → V due endomorfismi del K-spazio vettoriale V . Assumiamo V di dimensione finita n > 0. Definizione 32.1. Diremo che f e g sono simultaneamente diagonalizzabili se esiste una base B di V rispetto alla quale entrambe le matrici MB (f ) e MB (g) sono diagonali. Teorema 32.2. Siano f, g : V → V due endomorfismi del K-spazio vettoriale V , entrambi diagonalizzabili. Allora f e g sono simultaneamente diagonalizzabili ⇐⇒ f ◦ g = g ◦ f. Dimostrazione: Proviamo l’implicazione ⇒. Fissata una base B di V rispetto alla quale entrambe le matrici MB (f ) =: D e MB (g) =: D0 sono diagonali, abbiamo, per il Teorema 22.9: MB (f ◦ g) = DD0 = D0 D = MB (g ◦ f ) è ciò garantisce che f ◦ g = g ◦ f in forza dell’ingettività dell’applicazione h ∈ End(V ) 7→ MB (h) ∈ Mn (K). Proviamo ora l’implicazione ⇐. Siano Sp(f ) = {λ1 , . . . , λp } e Sp(g) = {µ1 , . . . , µs } gli spettri di f e g. Poniamo A := Vf (λ1 ) ∪ · · · ∪ Vf (λp ), B := Vg (µ1 ) ∪ · · · ∪ Vg (µs ). Dimostreremo che esiste una base B costituita da vettori che sono autovettori sia per f che per g. A questo scopo, poichè da ogni sistema di generatori si può estrarre una base, basta provare l’esistenza di un sistema di generatori S tale che S ⊂ A ∩ B. Mostriamo innanzitutto che, in forza dell’ipotesi f ◦ g = g ◦ f si ha: (86) f (Vg (µi )) ⊂ Vg (µi ) ∀i ∈ {1, . . . , s}. Infatti, sia v ∈ Vg (µi ), di modo che g(v) = µi v. Allora g(f (v)) = (g ◦ f )(v) = (f ◦ g)(v) = f (g(v)) = f (µi v) = µi f (v) e ciò significa che anche f (v) appartiene a Vg (µi ). Premesso ciò, poichè g è diagonalizzabile, abbiamo: (87) V = Vg (µ1 ) ⊕ · · · ⊕ Vg (µs ). Per ogni v ∈ V consideriamo quindi la decomposizione: (88) v = v1 + · · · + vs vi ∈ Vg (µi ) univocamente determinata dalla (87). Mostriamo ora che, se v ∈ A, ciascun addendo vi appartiene anch’esso ad A e quindi a A ∩ B. Infatti, si assuma f (v) = λk v con k ∈ {1, . . . , p}; applicando f ad ambo i membri della (88), si ha: (89) λk v = f (v1 ) + · · · + f (vs ) con f (vi ) ∈ Vg (µi ) per ogni i = 1 . . . , s, in forza della (86). D’altra parte, molplicando ambo i membri della stessa uguaglianza (88) per λk si ha: (90) λk v = λk v1 + · · · + λk vs 81 e quindi dal confronto delle due decomposizioni (89) e (90) dello stesso vettore λk v, segue che: f (v1 ) = λk v1 , . . . , f (vs ) = λk vs e quindi vi ∈ Vf (λk ) ⊂ A per ogni i = 1, . . . , s. Per concludere fissiamo quindi una base B di V costituita da autovettori di f (esiste perchè f è diagonalizzabile), di modo che B ⊂ A e poniamo S = {vi | v ∈ B, i ∈ {1, . . . , s} }. È chiaro che, in forza della (88), anche S è sistema di generatori di V e per quanto visto sopra, S ⊂ A ∩ B. La dimostrazione è completa. 2 33. Dualità Sia V uno spazio vettoriale di dimensione n > 0 sul campo K. Ricordiamo che il duale di V è lo spazio V ∗ = L(V, K). In base al Corollario 23.4 abbiamo, poichè dim(K) = 1: Teorema 33.1. Risulta: dim(V ) = dim(V ∗ ). Sia B = {v1 , . . . , vn } una base di V . Per ogni i = 1, . . . , n denoteremo con vi∗ l’unica applicazione lineare V → K tale che vi∗ (vj ) = δji (91) ∀j ∈ {1, . . . , n}. L’esistenza ed unicità di tali applicazioni vi∗ è garantita dal Teorema 17.2. Teorema 33.2. L’insieme B∗ = {v1∗ , . . . , vn∗ } è una base di V ∗ , detta duale di B. Inoltre, per ogni ϕ ∈ V ∗ si ha ϕ = ϕ(v1 )v1∗ + · · · + ϕ(vn )vn∗ . (92) Dimostrazione: Poichè dim(V ∗ ) = n, è sufficiente provare che B∗ è un sistema di generatori e, a tale scopo, basta provare la (92). Trattandosi di un’uguaglianza tra applicazioni lineari V → K è sufficiente controllare che tali applicazioni assumano lo stesso valore su ciascun vettore vj della base B. Infatti, applicando le relazioni (91) si ottiene: (ϕ(v1 )v1∗ + · · · + ϕ(vn )vn∗ )(vj ) = ϕ(v1 )v1∗ (vj ) + · · · + ϕ(vj )vj∗ (vj ) + · · · + ϕ(vn )vn∗ (vj ) = ϕ(vj )vj∗ (vj ) = ϕ(vj ) · 1 = ϕ(vj ). 2 Proposizione 33.3. Siano B = {v1 , . . . , vn } una base di V e B∗ = {v1∗ , . . . , vn∗ } la base duale. Sia v ∈ V un vettore di componenti (x1 , . . . , xn );allora vi∗ (v) = xi In particolare, i funzionali determinato da B. vi∗ ∀i ∈ {1, . . . , n}. sono le funzioni componenti dell’isomorfismo ψB : V → Kn 82 Dimostrazione: Ciò segue direttamente dalla linearità delle vi∗ avendosi: n n n X X X vi∗ (v) = vi∗ ( xk vk ) = xk vi∗ (vk ) = xk δik = xi . k=1 k=1 k=1 L’ultima affermazione è ovvia perchè, per definizione, ψB (v) = (x1 , . . . , xn ) = (v1∗ (v), . . . , vn∗ (v)). 2 Definizione 33.4. Sia f : V → W un’applicazione lineare tra due K-spazi vettoriali. Si chiama trasposta di f l’applicazione f∗ : W∗ → V ∗ definita nel modo seguente: (93) ∀ϕ ∈ W ∗ f ∗ (ϕ) := ϕ ◦ f. Notiamo che, fissato un elemento ϕ di W ∗ , f ∗ (ϕ) è effettivamente un elemento di V ∗ in quanto, essendo sia ϕ che f lineari, la loro composizione è un’applicazione lineare V → K; ciò assicura che f ∗ è ben definita. Inoltre la definizione precedente ha senso anche se V e W non hanno dimensione finita. Proposizione 33.5. La trasposta di un’applicazione lineare è anch’essa lineare. Dimostrazione: Infatti, siano ϕ, ϕ0 ∈ W ∗ ; abbiamo: (∗) f ∗ (ϕ + ϕ0 ) = (ϕ + ϕ0 ) ◦ f = ϕ ◦ f + ϕ0 ◦ f = f ∗ (ϕ) + f ∗ (ϕ0 ). L’uguaglianza (*) si giustifica facilmente come segue; per ogni v ∈ V risulta: ((ϕ + ϕ0 ) ◦ f )(v) = (ϕ + ϕ0 )(f (v)) = ϕ(f (v)) + ϕ0 (f (v)) = (ϕ ◦ f )(v) + (ϕ0 ◦ f )(v). La dimostazione del fatto che f ∗ (λϕ) = λf ∗ (ϕ) per ogni λ ∈ K e ϕ ∈ W ∗ è simile e si lascia al lettore. 2 Consideriamo ora il caso di spazi di dimensione finita. Il risultato seguente giustifica la denominazione “trasposta” attribuita a f ∗ . Teorema 33.6. Sia f : V → W un’applicazione lineare tra due K-spazi vettoriali entrambi non banali, di dimensione finita. Siano B una base di V e C una base di W . Allora (94) ∗ C MCB∗ (f ∗ ) = tMB (f ). Dimostrazione: Assumiamo che B = {v1 , . . . , vn } e C = {w1 , . . . , wm } con n = ∗ C (f ) = (as ). Allora per dim(V ) e m = dim(W ). Poniamo anche MCB∗ (f ∗ ) = (bij ) e MB t definizione di matrice associata ad f , risulta per ogni i ∈ {1, . . . , n} (cf. Osservazione 22.2): (95) f (vi ) = m X k=1 aki wk . 83 Applicando ancora la definizione della matrice associata a f ∗ abbiamo, fissati i ∈ {1, . . . , n} e j ∈ {1, . . . , m}: bij = (∗) componente i − ma di f ∗ (wj∗ ) rispetto a B∗ = f ∗ (wj∗ )(vi ) = (wj∗ ◦ f )(vi ) = wj∗ (f (vi )) = m X ∗ wj ( aki wk ) = k=1 m X k=1 m X aki wj∗ (wk ) = aki δkj = k=1 aji . Si osservi che l’uguaglianza (*) è conseguenza della (92), applicata con ϕ = f ∗ (wj∗ ). 2 Corollario 33.7. Data un’applicazione lineare f : V → W tra spazi di dimensione finita, si ha rg(f ) = rg(f ∗ ). Dimostrazione: Ciò segue dal fatto che il rango di una matrice coincide con quello della sua trasposta, in forza del Teorema 22.4. 2 Definizione 33.8. Sia W ⊂ V un sottospazio di V . Si chiama annullatore di W il sottospazio W 0 di V ∗ definito da W 0 := {ϕ ∈ V ∗ | ∀v ∈ W ϕ(w) = 0}. (96) Si lascia al lettore la semplice verifica del fatto che W 0 è effettivamente un sottospazio di V ∗ . Teorema 33.9. Sia V unos apzio vettoriale di dimensione n. Per ogni sottospazio W di V si ha: dim(W 0 ) = n − dim(W ). Dimostrazione: Notiamo che nel caso in cui W = {0}, allora W 0 = V ∗ e l’asserto è vero. Supponiamo quindi W 6= {0}, e sia Bo = {w1 , . . . , wk } una base di W , k = dim(W ); sia B = {w1 , . . . , wn } una base di B ottenuta completando Bo . Consideriamo la base duale B∗ = {w1∗ , . . . , wn∗ } di B. Allora abbiamo per ogni ϕ ∈ V ∗ : ϕ= n X i=1 ϕ(wi )wi∗ = k X i=1 ϕ(wi )wi∗ + n X i=k+1 ϕ(wi )wi∗ 84 e questo è l’unico modo per rappresentare ϕ come combinazione lineare dei vettori di B∗ . Ora notiamo che, poichè W è generato da w1 , . . . , wk : ϕ ∈ W 0 ⇐⇒ ∀v ∈ W ϕ(v) = 0 ⇐⇒ ∀i = 1, . . . , k ϕ(wi ) = 0 e quindi ϕ∈W 0 ⇐⇒ ϕ = n X ϕ(wi )wi∗ i=k+1 ovvero concludiamo che ∗ W 0 = L(wk+1 , . . . , wn∗ ) 2 da cui l’asserto. Teorema 33.10. Sia f : V → W un’applicazione lineare tra due K-spazi vettoriali di dimensione finita. Allora (97) Im(f ∗ ) = Ker(f )0 (98) Ker(f ∗ ) = Im(f )0 . Dimostrazione: Per provare (97) notiamo innanzitutto che i due spazi coinvolti hanno la stessa dimensione; infatti, applicando il Teorema del rango e tenendo conto del Corollario 33.7 e del Teorema 33.9, abbiamo: dim(Im(f ∗ )) = dim(Im(f )) = dim(V ) − dim(Ker(f )) = dim(Ker(f )0 ). Dunque basta provare che sussiste l’inclusione ⊂; infatti, sia α = f ∗ (ϕ) un vettore di Im(f ∗ ), dove ϕ ∈ W ∗ . Allora per ogni v ∈ Ker(f ) risulta: α(v) = f ∗ (ϕ)(v) = (ϕ ◦ f )(v) = ϕ(f (v)) = ϕ(0) = 0 il che mostra che α ∈ Ker(f )0 . È cosı̀ provato che Im(f ∗ ) ⊂ Ker(f )0 e quindi la (97). Similmente, anche per quel che riguarda la (98), i due spazi che vi figurano hanno la stessa dimensione: dim(Ker(f ∗ )) = dim(W ∗ ) − dim(Im(f ∗ )) = dim(W ) − dim(Im(f )) = dim(Im(f )0 ). Proviamo quindi l’inclusione ⊃. Sia ϕ ∈ Im(f )0 ; per definizione f ∗ (ϕ) = ϕ ◦ f ; tale applicazione è nulla in quanto per ogni v ∈ V si ha (ϕ ◦ f )(v) = ϕ(f (v)) = 0 dove l’ultima uguaglianza è giustificata dal fatto che f (v) ∈ Im(f ) e ϕ ∈ Im(f )0 . Resta provato che ϕ ∈ Ker(f ∗ ). 2 Definizione 33.11. Sia V uno spazio vettoriale su K. Lo spazio V ∗∗ duale di V ∗ si dirà biduale di V . Nel caso in cui V ha dimensione finita, è possibile definire un isomorfismo canonico tra V ed il biduale V ∗∗ , che descriviamo di seguito. Consideriamo l’applicazione Φ : V → V ∗∗ tale (99) ∀v ∈ V Φ(v)(ϕ) = ϕ(v) ∀ϕ ∈ V ∗ 85 La definizione di Φ è ben posta, nel senso che, per ogni v ∈ V , Φ(v) è effettivamente un elemento di V ∗∗ , cioè è un funzionale su V ∗ . Infatti, se ϕ, ϕ0 ∈ V ∗ e λ ∈ K, allora Φ(v)(ϕ + ϕ0 ) = (ϕ + ϕ0 )(v) = ϕ(v) + ϕ0 (v) = Φ(v)(ϕ) + Φ(v)(ϕ0 ) e Φ(v)(λϕ) = (λϕ)(v) = λϕ(v) = λΦ(v)(ϕ). Teorema 33.12. Ogni spazio vettoriale V di dimensione finita è canonicamente isomorfo al suo biduale. Precisamente, l’applicazione Φ definita da (99) è un isomorfismo di spazi vettoriali. Dimostrazione: Riguardo la linearità di Φ, per ogni v, v 0 ∈ V abbiamo qualunque sia ϕ ∈ V ∗ : Φ(v + v 0 )(ϕ) = ϕ(v + v 0 ) = ϕ(v) + ϕ(v 0 ) = Φ(v)(ϕ) + Φ(v 0 )(ϕ) = (Φ(v) + Φ(v 0 ))(ϕ) e questo prova che Φ(v + v 0 ) = Φ(v) + Φ(v 0 ). In modo analogo il lettore provi che Φ(λv) = λΦ(v) per λ ∈ K e v ∈ V . Proviamo che Φ è bigettiva; poichè V ∗∗ e V hanno la stessa dimensione, basta provare che Ker(Φ) = {0}. Sia v ∈ V tale che Φ(v) = 0. Ciò significa che per ogni ϕ ∈ V ∗ è Φ(v)(ϕ) = 0; dunque (100) ϕ(v) = 0 ∀ϕ ∈ V ∗ . Fissiamo un isomorfismo f : V → Kn , dove n = dim(V ); le funzioni componenti f1 , . . . , fn di f sono funzionali su V ; particolarizzando la (100), deve aversi fi (v) = 0 per ogni i = 1 . . . , n, da cui f (v) = 0 e quindi v = 0. 2 Osservazione 33.13. Notiamo che è anche vero che V ∼ = V ∗ , perchè i due spazi hanno la stessa dimensione; a differenza però di quanto appena discusso per il biduale, non è possibile assegnare un isomorfismo V → V ∗ in modo “intrinseco”, ovvero in modo indipendente dalla scelta di una base di V e di una base di V ∗ . Corollario 33.14. Sia C una base di V ∗ . Allora esiste un’unica base B di V la cui duale è C. Dimostrazione: Sia C = {ϕ1 , . . . , ϕn } e sia C∗ = {ϕ∗1 , . . . , ϕ∗n } la base duale di C, che è una base di V ∗∗ . Poniamo vi := Φ−1 (ϕ∗i ); allora, essendo Φ−1 un isomorfismo, B := {v1 , . . . , vn } è una base di V . Vogliamo provare che la base duale di B è proprio C. A tale scopo, basta mostrare che ϕi (vj ) = δji . Infatti, utilizzando la definizione di Φ, abbiamo: ϕi (vj ) = Φ(vj )(ϕi ) = ϕ∗j (ϕi ) = δij . Riguardo l’unicità, se {w1 , . . . , wn } è un’altra base con la stessa proprietà, allora valgono le relazioni ϕi (wj ) = δji che possono essere riscritte Φ(wj )(ϕi ) = δji 86 cioè Φ(wj )(ϕi ) = ϕ∗j (ϕi ) e quindi Φ(wj ) coincide con ϕ∗j , o il che è lo stesso wj = Φ−1 (ϕ∗j ) = vj . 2 Corollario 33.15. Sia V uno spazio vettoriale di dimensione n > 0 sul campo K. Siano ϕ1 , . . . , ϕk elementi di V ∗ . Allora ! k \ (101) dimL(ϕ1 , . . . , ϕn ) = n − dim Ker(ϕi ) . i=1 Dimostrazione: Poniamo W := Tk i=1 Ker(ϕi ). Mostreremo che Φ(W ) = L(ϕ1 , . . . , ϕk )0 da cui segue dim(W ) = n − dim(L(ϕ1 , . . . , ϕk )) e quindi la (101). Abbiamo infatti per ogni v ∈ V : v ∈ W ⇐⇒ ∀i ϕi (v) = 0 ⇐⇒ ∀i Φ(v)(ϕi ) = 0 ⇐⇒ Φ(v) ∈ L(ϕ1 , . . . , ϕk )0 e ciò significa che: W = Φ−1 (L(ϕ1 , . . . , ϕk )0 ) da cui l’asserto. 2