Facoltá di Scienze Matematiche, Fisiche e Naturali Appunti di Geometria 1 Guido Cioni 2 Versione del 25 maggio 2012 Indice 1 Nozioni Insiemistiche 1.1 Numeri complessi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Polinomi in K . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Relazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 8 9 10 2 Spazi vettoriali 2.1 Esempi di spazi vettoriali . . . . . . . 2.1.1 Spazi di polinomi . . . . . . . . 2.1.2 Spazi di funzioni . . . . . . . . 2.2 Matrici . . . . . . . . . . . . . . . . . . 2.3 Sottospazi vettoriali . . . . . . . . . . 2.3.1 Esempi di sottospazi vettoriali 2.4 Operazioni con sottospazi . . . . . . . 13 14 14 14 15 16 18 19 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Applicazioni Lineari 21 3.0.1 Esempi di applicazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 4 Sistemi Lineari 27 4.1 Sistema lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 4.2 Matrici a scalini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 4.3 Algoritmo di Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 5 Basi e dimensione 35 5.1 Applicazioni lineari e basi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 5.2 Proprietá delle basi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 6 Basi e applicazioni lineari 41 7 Rango 7.1 Rango . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 Come trovare una base dello spazio delle soluzioni di Ax = 0 7.3 Matrici invertibili e gruppo lineare . . . . . . . . . . . . . . . 7.4 Calcolo dell’inversa . . . . . . . . . . . . . . . . . . . . . . . . 7.5 Rappresentazione matriciale di una applicazione lineare . . . 7.6 Matrice del cambiamento di base . . . . . . . . . . . . . . . . 7.7 Ulteriore caratterizzazione del rango . . . . . . . . . . . . . . 45 45 47 47 50 50 52 53 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 INDICE 8 Determinante 8.1 Esistenza ed unicitá del determinante . . 8.1.1 Dimostrazione del teorema (8.1.1) 8.2 Proprietá aggiuntive del determinante . . 8.2.1 Calcolo dell’inversa . . . . . . . . . 8.3 Risoluzione di sistemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 55 56 57 58 59 9 Endomorfismi 61 9.1 Calcolo di autovalori e autospazi . . . . . . . . . . . . . . . . . . . . . . . . . . 63 9.2 Conseguenze del teorema di diagonalizzazione . . . . . . . . . . . . . . . . . . . 66 10 Forme Bilineari 10.1 Cambiamenti di base . . . . . . . . . 10.2 Prodotti scalari . . . . . . . . . . . . 10.3 Diagonalizzazione di prodotti scalari 10.4 Forme quadratiche reali . . . . . . . 10.5 Calcolo della segnatura . . . . . . . . 10.6 Spazi euclidei . . . . . . . . . . . . . 10.6.1 Ricerca di basi ortonormali . 10.7 Matrici ortogonali . . . . . . . . . . 10.7.1 Teorema spettrale . . . . . . 10.8 Applicazioni ortogonali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 72 73 78 80 82 83 85 86 87 88 Capitolo 1 Nozioni Insiemistiche Gli insiemi sono gli oggetti base con cui lavoreremo. Sono scontate le notazioni a ∈ A , a ∈ / A. Sono quindi immediate le seguenti proprietá 1. A ⊂ B : ∀a ∈ A , a ∈ B ; 2. A = B ⇔ A ⊂ B, B ⊂ A. Osservazione 1. 1. N denota l’insieme dei numeri naturali 2. N ⊂ Z denota l’insieme dei numeri interi 3. Z ⊂ Q denota l’insieme dei numeri razionali 4. Q ⊂ R denota l’insieme dei numeri reali. Osservazione 2. Un insieme si puó definire esplicitando una proprietá rispettata da tutti gli elementi contenuti nello stesso. {x ∈ A : proprietá} (1.1) Definizione 1.1 (Insiemi composti). Ci sono un insieme di operazioni che , a partire da insiemi, producono nuovi insiemi. A ∪ B = {x : x ∈ A ∨ x ∈ B} (1.2) A ∩ B = {x : x ∈ A ∧ x ∈ B} (1.3) A − B = {x ∈ A : x ∈ / B} (1.4) Un importante definizione utile é data dalla seguente Definizione 1.2 (Prodotto cartesiano). A × B = {(a, b) : a ∈ A, b ∈ B} (1.5) Ovvero definiamo come prodotto cartesiano l’insieme formato dalle coppie ordinate di A e B. Si ponga attenzione alla differenza tra un normale insieme che contiene gli elementi 1,2 e il prodotto cartesiano tra i due. Infatti (1, 2) 6= (2, 1) = {1, 2} = {2, 1} . 5 6 CAPITOLO 1. NOZIONI INSIEMISTICHE Definizione 1.3 (Sottoinsieme proprio). L’insieme A ⊂ B é sottoinsieme proprio se A 6= B , ossia ∃b ∈ B : b ∈ / A . Dunque esiste almeno un elemento che sta in B , che peró non sta in A. A questo punto definiamo gli altri fondamentali oggetti necessari per la nostra trattazione. Definizione 1.4 (Applicazione). Una applicazione é una terna di oggetti : dominio , codominio ed una legge tali che A → B , e la freccia sta per la legge. Questo significa che ∀a ∈ A → f (a) ∈ B. L’applicazione associa quindi uno ed un solo elemento nel codominio : non ci deve essere ambiguitá nella definizione di f (a) ! Definizione 1.5 (Immagine). Denoteremo con Immf = f (A) = {b ∈ B : a ∈ A : b = f (a)} (1.6) Seguono quindi una serie di definizioni che riguardano le applicazioni. Definizione 1.6 (Surgettivitá). f : A → B si dice surgettiva se Immf = B ovvero Immf ⊂ B e B ⊂ Immf . Si noti che la prima inclusione é ovvia visto che il codominio di f é proprio B. La proprietá si puó quindi esplicitare come ∀b ∈ B, ∃a ∈ A tale che f (a) = b (1.7) Definizione 1.7 (Iniettivitá). f si dice iniettiva se ∀(x, y) ∈ A con x 6= y ⇒ f (x) 6= f (y). Si noti che, se f (x) = f (y) ⇒ x = y Osservazione 3. Prendiamo la funzione f : R → R definita da x → x2 . Tale funzione non é iniettiva perché f (1) = f (−1). Inoltre non é surgettiva perché −1 ∈ / Immf ⇒ Immf 6= R Definizione 1.8 (bigettiva). La funzione f : A → B si dice bigettiva se é sia iniettiva che surgettiva. Definizione 1.9 (Restrizione di f ). Supponiamo di prendere f : A → B e Z ⊂ A. L’insieme f (Z) é definita da f (Z) = {b ∈ B : ∃x ∈ Z tale che b = f (x)} (1.8) La restrizione di f a Z é l’applicazione definita da f |Z : Z → B (1.9) Questa é definita da ∀x ∈ Z, f |Z (x) = f (x) Osservazione 4. Si noti che Imm(f |Z ) = {b ∈ B : ∃x ∈ Z : b = f (x)} = f (Z) (1.10) Definizione 1.10 (Controimmagine). Data f : A → B , prendiamo W ⊂ B. Definiamo la controimmagine f −1 (W ) = {x ∈ A : f (x) ∈ W } (1.11) Osservazione 5. Prendiamo l’applicazione giá considerata definita da f (x) = x2 . Allora √ √ f −1 ([3, 4]) = x ∈ R : x2 ∈ [3, 4] = [ 3, 2] ∪ [−2, − 3] (1.12) 7 Definizione 1.11 (Composizione di applicazioni). Supponiamo di avere f : A → B , g : B → C. Si denota con (g ◦ f ) una applicazione (g ◦ f ) : A → C definita da ∀a ∈ A, (g ◦ f )(a) ≡ g(f (a)) Definizione 1.12 (Uguaglianza tra funzioni). Prendiamo f, g : A → B . Diciamo che f = g se ∀a ∈ A allora f (a) = g(a). Osservazione 6. Si noti che g ◦ f 6= f ◦ g in generale. Definizione 1.13 (Identitá). Dato un insieme A si definisce l’applicazione identitá come idA : A → A , x→x (1.13) Definizione 1.14 (Applicazione invertibile). Una applicazione f : A → B si dice invertibile se ∃g : B → A tale che g ◦ f = idA e f ◦ g = idB . Osservazione 7. Condizione necessaria e sufficiente affinché una applicazione sia invertibile é che questa sia bigettiva. Ovvero f é invertibile ⇔ f é bigettiva. Osservazione 8. Siano f : A → B , g : B → C . Si ha che Imm(g ◦ f ) = Imm g Immf (1.14) Definizione 1.15 (Operazioni su insiemi). Un’operazione su A é un’applicazione A × A → A Osservazione 9. R é un insieme ordinato perché ∀a, b ∈ R si puó dire che a < b , a = b o a > b. Lo stesso insieme é dotato inoltre di una somma e di un prodotto. In particolare considerando le applicazioni somma , + , e prodotto , · , si possono definire nuovi oggetti , i campi. Definizione 1.16 (Campo). Si dice campo una terna (K, +, ·) , dove K é un insieme non vuoto e + : K × K → K , · : K × K → K e valgono le seguenti 1 : Associativitá della somma : ∀a, b, c ∈ K allora (a + b) + c = a + (b + c). 2 : Esistenza dell’elemento neutro per la somma : ∃ un elemento di K detto zero e denotato con 0 , tale che ∀a ∈ K , a + 0 = 0 + a = a. 3 : Esistenza dell’inverso per la somma : ∀a ∈ K, ∃a0 ∈ K tale che a + a0 = a0 + a = 0. Tale elemento é detto opposto di a e si denota con −a. 4 : Commutativitá : ∀a, b ∈ K allora a + b = b + a. 5 : Associativitá : ∀a, b, c ∈ K allora (a · b) · c = a · (b · c). 8 CAPITOLO 1. NOZIONI INSIEMISTICHE 6 : Esistenza dell’elemento neutro : ∃ un elemento di K detto unitá e denotato 1 , tale che ∀a ∈ K , a · 1 = 1 · a = a. 7 : Distributivitá : ∀a, b, c ∈ K allora a·(b+c) = ab+ac o , analogamente (a+b)·c = ac+bc. 8 : Commutativitá del prodotto : ∀a, b ∈ K allora ab = ba. 9 : Esistenza dell’inverso per il prodotto : ∀a ∈ K , con a 6= 0 , ∃a0 ∈ K tale che aa0 = a0 a = 1. Tale elemento é detto inverso di a e si indica con a−1 . Osservazione 10. Q é un campo; R é un campo ; Z non é un campo. Definizione 1.17 (Anello/Anello commutativo). Definiamo un oggetto che verifica le proprietá (1)-(7) precedenti ANELLO. Se viene verificata anche al (8) allora viene detto ANELLO COMMUTATIVO. Osservazione 11. (Z, +, ·) é un anello commutativo. 1.1 Numeri complessi Sia i tale che i2 = −1 . Definiamo lo spazio dei numeri complessi C = {a + ib : a, b ∈ R}. Quindi se z ∈ C allora z = a + ib con a = <(z) e b = =(z). Definizione 1.18 (Relazione di uguaglianza tra complessi). a + ib = c + id ⇔ a = c ∧ b = d Osservazione 12. Definiamo un’applicazione ϕ : C → R2 definita da z = a + ib → (a, b) che associa ad ogni numero complesso la coppia di numeri a, b. Si noti che ϕ é iniettiva e surgettiva perché ∀(a, b) ∈ R2 , ∃z ∈ C tale che ϕ(z) = (a, b). Definizione 1.19 (Operazioni su numeri complessi). Definiamo una somma su C , +:C×C→C definita da (z, w) → z + w ≡ (a + c) + i(b + d) con z = a + ib e w = c + id. Definiamo inoltre un prodotto ·:C×C→C definito da (z, w) → (ac − bd) + i(ad + bc) Definizione 1.20 (Coniugio). L’applicazione coniugio ¯: C → C é definita da z = a + ib → z̄ = a − ib . Si osservi che z ∈ R ⇔ z = z̄ e che z z̄ = |z|2 . 1.2. POLINOMI IN K 1.2 9 Polinomi in K Definiamo lo spazio dei polinomi nel campo K . K[x] = { polinomi in x a coefficienti in K} Ovvero K[x] 3 p(x) = a0 + a1 x + . . . + an xn = n X ai xi (1.15) (1.16) i=0 Definizione 1.21 (Grado di p). Sia p(x) ∈ K[x] , p(x) 6= 0. Definiremo il grado di p come deg(p(x)) = max {k ∈ N : ak 6= 0} (1.17) Con questa definizione risulta immediato osservare che deg(0) = −1(oppure − ∞) ; deg(p(x)) ≤ n (1.18) Definizione 1.22 (Somma su polinomi). Definiamo una somma + : K[x] × K[x] → K[x] che associa ad una coppia di polinomi (p, q) la loro somma p + q. Questa si puó definire come ( P n X p(x) = ni=0 ai xi (p + q)(x) = (ai + bi )xi (1.19) Pn i q(x) = i=0 bi x i=0 Definizione 1.23 (Prodotto su polinomi). Analogamente si definisce un prodotto · : K[x] × K[x] → K[x] che associa ad ogni coppia di polinomi (p, q) il suo prodotto pq. Per trovare la definizione formale possiamo pensare al prodotto usuale tra polinomi , ricordando peró che stiamo definendo il prodotto in questo modo ( non é detto che sia l’unico!). ( P n+k i X X p = ni=0 ai xi i ⇒ (pq)(x) = ci x dove ci = aj bi−j (1.20) P q = ki=0 bi xi i=0 j=0 Osservazione 13. Supponiamo di voler trovare l’inverso del polinomio x . Bisogna quindi trovare q(x) tale che xq(x) = 1 , ma deg(xq(x)) ≥ 1 . Si nota quindi che gli unici polinomi invertibili sono quelli di grado 0, altrimenti la relazione scritta prima non é verificata. Dunque (K[x], +, ·) é un anello commutativo. Definizione 1.24 (Radice di un polinomio). Si dice che a é radice di p(x) ⇔ p(a) = 0 Teorema 1.2.1 (di divisione ). ∀a, b ∈ K[x], b 6= 0 , ∃no unici q(quoziente),r(resto)∈ K[x] tali che ( a = bq + r deg r < deg b Osservazione 14. Se r = 0 allora b|a , ovvero b divide a. Teorema 1.2.2 (di Ruffini). p(x) ∈ K[x] , α ∈ K. Se p(α) = 0 allora (x − α)|p , ovvero (x − α) divide p. (1.21) 10 CAPITOLO 1. NOZIONI INSIEMISTICHE Dimostrazione. Per il teorema di divisione esistono q, r ∈ K[x] tali che ( p(x) = (x − α)q(x) + r(x) deg r(x) < 1 = deg(x − α) ⇒ r(x) é costante (1.22) Resta quindi da dimostrare che r = 0. Utilizzo il fatto che α é radice , quindi p(α) = (α − α) · q(x) + r = 0 + r ⇒ r = 0 Proposizione 1.2.3. Se p(α) = 0 , ∃m ∈ N tale che p(x) = (x − α)m q(x) con q(α) 6= 0. Definizione 1.25 (Molteplicitá algebrica). L’intero m é detto molteplicitá algebrica (µa ) della radice α. Osservazione 15. Se p(x) = (x − α)2 q(x) allora µa (α) ≥ 2 Osservazione 16. I polinomi possono essere scomposti in polinomi di grado minore , ad esempio (x2 − 2) = √ √ (x + 2)(x − 2). Ovviamente la nozione di scomposizione dipende dal campo su cui si fanno i calcoli : la scomposizione precedente ha senso solo su R e non su Q. Dunque x2 − 2 é irriducibile in Q. x2 + 1 é irriducibile in R. Osservazione 17. 1. I polinomi di grado 1 sono irriducibili. 2. ax2 + bx + c ∈ R[x] é irriducibile in R ⇔ b2 − 4ac < 0. Teorema 1.2.4 (fondamentale dell’algebra). Ogni polinomio in C[x] non costante ha almeno una radice. 1.3 Relazioni Definizione 1.26 (Relazioni). Una relazione su A é un sottoinsieme , R , di A × A. Se (a, b) ∈ R scrivo aRb , ovvero a é in relazione con b. Osservazione 18. Prendiamo come A = {rette del piano } e r, s ∈ A . Una relazione possibile puó essere il parallelismo visto che rRs ⇔ r k s. Definizione 1.27 (Relazione di equivalenza). Una relazione R si dice relazione di equivalenza se Proprietá riflessiva : ∀a ∈ A , aRa. Proprietá simmetrica : aRb ⇒ bRa. Proprietá transitiva : aRb, bRc ⇒ aRc Osservazione 19. Il parallelismo é una relazione di equivalenza. 1.3. RELAZIONI 11 Definizione 1.28 (Classe e rappresentante). Sia R relazione di equivalenza. ∀a ∈ A , [a] = {b ∈ A : bRa} é detta classe di a. Ogni b ∈ [a] si dice rappresentante di [a]. Definizione 1.29 (Insieme quoziente). Viene definito come insieme quoziente l’insieme A/R = {[a] : a ∈ A} (1.23) dove R é una relazione. Definizione 1.30 (Proiezione sull’insieme quoziente). Possiamo definire un’applicazione proiezione al quoziente π : A → A/R che agisce come a → [a] ed é surgettiva perché a ∈ [a] ma in generale non é iniettiva. Proposizione 1.3.1. 1. [a] = [b] ⇔ aRb 2. Se [a] 6= [b] ⇒ [a] ∩ [b] = ∅ Dimostrazione. (1) (⇒)a ∈ [a] = [b] , quindi a ∈ [b] e quindi aRb. (⇐) Devo provare che entrambi gli insiemi sono contenuti nell’altro. Provo che [a] ⊂ [b] , cioé che ∀x ∈ [a] , x ∈ [b]. Ma se x ∈ [a] allora xRa e per ipotesi aRb , dunque per la transitivitá xRb , x ∈ [b] . L’altra inclusione é analoga. (2) Per assurdo supponiamo che esista x ∈ [a] ∩ [b], cioé xRa , xRb , ovvero aRb che significa , per il punto (1) , [a] = [b] , che contraddice la tesi. Definizione 1.31 (Unione). ∀a ∈ A , a ∈ [a] , A = ∪a∈A [a]. Inoltre , per la proposizione precedente , le classi di equivalenza o coincidono o sono completamente disgiunte. 12 CAPITOLO 1. NOZIONI INSIEMISTICHE Capitolo 2 Spazi vettoriali Definizione 2.1 (Prodotto cartesiano di campi). Se K campo definiamo con la notazione Kn = {(x1 , . . . , xn ) : xi ∈ K} il prodotto cartesiano di n campi K. Cerchiamo di definire anche una somma su Kn . Definizione 2.2 (Somma su campi). + : Kn × Kn → Kn , (x1 , . . . , xn ) + (y1 , . . . , yn ) ≡ (x1 + y1 , . . . , xn + yn ) (2.1) Definiamo anche un Definizione 2.3 (Prodotto per scalari su campi). · : K × Kn → Kn , ∀α ∈ K, ∀(x1 , . . . , xn ) ∈ Kn , α(x1 , . . . , xn ) ≡ (αx1 , . . . , αxn ) (2.2) Le proprietá viste prima ci permettono di definire una nuova struttura Definizione 2.4 (Campo vettoriale). Si dice campo vettoriale un insieme V con (V, +, ·, K) ,V 6= ∅, su un campo K se valgono le proprietá seguenti. Sia x ≡ (x1 , . . . , xn ) : 1. Associativitá della somma 2. Esistenza elemento neutro per la somma 3. Esistenza inverso per la somma 4. Commutativitá per la somma 5. ∀α, β ∈ K , ∀x ∈ Kn allora (αβ)x = α(βx) 6. ∀α, β ∈ K, ∀x ∈ Kn , (α + β)x = αx + βx 7. ∀α ∈ K , ∀x, y ∈ Kn allora α(x + y) = αx + αy 8. ∀x ∈ Kn allora 1 · x = x. Osservazione 20. (C, +, ·, C) é uno spazio vettoriale. (C, +, ·, R) é uno spazio vettoriale diverso dal precedente. 13 14 CAPITOLO 2. SPAZI VETTORIALI 2.1 Esempi di spazi vettoriali 2.1.1 Spazi di polinomi Prendiamo K campo e K[x] = {polinomi a coefficienti in K}. Abbiamo giá visto che su questo insieme é definita la somma ed il prodotto per scalari. Questo é uno spazio vettoriale. 2.1.2 Spazi di funzioni Supponiamo V spazio vettoriale e A insieme. Definiamo F = {f : A → V } (2.3) tutte le funzioni da A a V . Definiamo la somma +:F ×F →F (f, g) → f + g : A → V (2.4) Dobbiamo anche definire l’operazione di valutazione sulla somma (f + g)(a) ≡ f (a) + g(a), ∀a ∈ A (2.5) che é lecita visto che f (a) e g(a) sono elementi di V . Devo definire il prodotto per scalare ·:K×F →F ∀α ∈ K, ∀f ∈ F , αf : A → V (2.6) e l’operazione di valutazione sul prodotto per scalari ∀a ∈ A(αf )(a) ≡ α · f (a) (2.7) Si puó verificare ora che (F , +, ·, K) é uno spazio vettoriale. Valgono le proprietá seguenti ∀f, g, h ∈ F mi chiedo se (f + g) + h = f + (g + h) , cioé ∀a ∈ A , [(f + g) + h](a) = [f + (g + h)](a)é un’uguaglianza in V . [(f + g) + h](a) = (f + g)(a) + h(a) = (f (a) + g(a)) + h(a) = f (a) + (g(a) + h(a)) = f (a) + (g + h)(a) = [f + (g + h)](a) (2.8) dove abbiamo usato la definizione di somma tra funzioni e l’associativitá su V . ∀f ∈ F , f + 0 = f , dove 0 é l’applicazione nulla 0 : A → V definita da ∀a ∈ A, 0(a) ≡ 0V . Inoltre vale che ∀a ∈ A, (f + 0)(a) = f (a) infatti (f + 0)(a) = f (a) + 0(a) = f (a) + 0V = f (a) 2.2. MATRICI 2.2 15 Matrici La matrice é una tabella di numeri organizzata in righe e colonne. Denotiamo con M (p, q, K) = {matrici p × q a coefficienti in K} Definizione 2.5. Sia A ∈ M (p, q, K). Allora Ai =riga i−esima ; Ai =colonna i−esima. [A]ij =elemento di posto ij. Devo definire una somma ed un prodotto per scalare Definizione 2.6 (Somma tra matrici). + : M (p, q) × M (p, q) → M (p, q) ; (A, B) → A + B (2.9) definita da ∀i = 1, . . . , p; ∀j = 1, . . . , q, [A + B]ij ≡ [A]ij + [B]ij (2.10) Definizione 2.7 (Prodotto per scalari). · : K × M (p, q) → M (p, q) ; (α, A) → αA (2.11) definito da α[A]ij ≡ [αA]ij Introduciamo il concetto di Definizione 2.8 (Uguaglianza tra matrici). Diciamo che A = B se ∀i, j [A]ij = [B]ij e verifichiamo se lo spazio delle matrici é uno spazio vettoriale. 0 ∈ M (p, q) é definita da , ∀i, j : [0]ij = 0. ∀A ∈ M (p, q) bisogna verificare che A + 0 = A . Ma [A + 0]ij = [A]ij + [0]ij = [A]ij + 0K = [A]ij Osservazione 21. Sia 2 vO = { vettori del piano applicati in O} (2.12) 2 × Su questo insieme si puó definire una somma (regola del parallelogramma) data da + : vO 2 → v 2 che somma OP ~ + OQ ~ = OR. ~ Analogamente si puó definire un prodotto · : R × v 2 → vO O O 2 ~ ) → αOP ~ . Lo spazio v 2 , dotato di questo prodotto e di questa somma vO che produce (α, OP O é uno spazio vettoriale. Definizione 2.9 (Vettori colonna). Si consideri l’insieme delle matrici p × q , M (p, q, K). Lo spazio dei vettori colonna é definito da x1 .. M (p, 1, K) = . : xi ∈ K (2.13) xp 16 CAPITOLO 2. SPAZI VETTORIALI Osservazione 22. L’applicazione Kp → M (p, 1) é biunivoca , quindi si possono usare entrambe le notazioni x1 (2.14) (x1 , . . . , xp ) → ... xp Osservazione 23. ~ su v 2 si definisce come τ ~ : R2 → R2 e porta il punto Q in R con la La traslazione di OP O OP ~ = OP ~ + OQ. ~ condizione che OR Proposizione 2.2.1. Per gli spazi vettoriali valgono le seguenti proprietá. 1. Il vettore ~0 é unico. 2. ∀x ∈ V , 0 · x = 0. 3. ∀x ∈ V , ∃! opposto. 4. ∀α ∈ K, α · ~0 = ~0 5. Se αx = 0 allora α = 0 oppure x = 0. 6. ∀x ∈ V , (−1)x = (−x) Dimostrazione. (1) Supponiamo per assurdo che esistano 01 , 02 elementi neutri per la somma +. Visto che 02 é neutro per la somma si avrá che 01 = 01 + 02 . Ma , per ipotesi, anche 01 é elemento neutro per la somma. Quindi 01 + 02 = 02 = 01 , dunque 01 = 02 e si trova l’assurdo qundi l’elemento neutro é unico. (6) Osserviamo che (−1)x + x = x(1 − 1) = 0 · x = 0 Definizione 2.10 (Tipi di matrici). Presentiamo le diverse classi di matrici Matrici diagonali Sono il sottospazio D(n) ⊂ M (n, n, K) , tali che [A]ij = 0, ∀i 6= j. Matrici triangolari Sono il sottospazio T (n) ⊂ M (n, n, K) tali che [A]ij = 0, ∀i > j (triangolari superiori). Matrici simmetriche Sono il sottospazio S(n) ⊂ M (n, n, K) tali che [A]ij = [A]ji , ∀i, j Matrici antisimmetriche Sono il sottospazio A(n) ⊂ M (n, n, K) tali che [A]ij = −[A]ji , ∀i, j. 2.3 Sottospazi vettoriali Definizione 2.11 (Sottospazio vettoriale). Sia V un K-spazio vettoriale. W ⊂ V si dice sottospazio vettoriale di V se1 1. 0V ∈ W , ovvero W é non vuoto . 1 Con la notazione 0V si intende lo zero relativo allo spazio vettoriale V , diverso dall’elemento neutro per la somma! 2.3. SOTTOSPAZI VETTORIALI 17 2. ∀x, y ∈ W , x + y ∈ W ovvero si definisce +|W ×W : W × W → W . 3. ∀α ∈ K , ∀x ∈ W, αx ∈ W ovvero si definisce ·|K×W : K × W → W . Quindi se W é ssv di V , W con l’operazione si somma e prodotto ristretti é uno spazio vettoriale indicato dalla terna (+|W ×W , ·|K×W , W ) Osservazione 24. Gli spazi definiti prima sono tutti sottospazi vettoriali. Controlliamo la chiusura per somma nel caso delle matrici simmetriche. Prendiamo quindi A, B ∈ S(n) , per cui vale [A]ij = [A]ji e [B]ij = [B]ji , ∀i, j. Bisogna verificare [A + B]ij = [A]ij + [B]ij = [A]ji + [B]ji = [A + B]ji (2.15) Osservazione 25. 1. {0} e V sono sottospazi vettoriali di V . 2. Nel caso V = R2 : (a) Le rette per l’origine sono sottospazi vettoriali di R2 . (b) L’unione dei semipiani {x ≥ 0, y ≥ 0} ∪ {x ≤ 0, y ≤ 0} non é un sottospazio vettoriale. (c) L’unione di due rette per l’origine non é uno sottospazio vettoriale. 3. K[x] , Km [x] = {p ∈ K[x] : deg p ≤ m, m ∈ N} é un sottospazio vettoriale. Infatti ∀p, q ∈ Km [x] ⇒ p + q ∈ Km [x]. Definizione 2.12 (Combinazione lineare). Siano v1 . . . vn ∈ V e a1 , . . . , an ∈ K con V ssv. n X ai vi = a1 v1 + . . . + an vn ∈ V (2.16) i=1 si dice combinazione lineare dei vi a coefficienti ai . Denotiamo con Span(v1 . . . vn ) l’insieme di tutte le combinazioni lineari dei vettori v1 . . . vn . Span(v1 , . . . , vn ) = {a1 v1 + . . . + an vn : ai ∈ K} Proposizione 2.3.1. Span(v1 , . . . , vn ) é un ssv di V che contiene v1 , . . . , vn ed in particolare é il piú piccolo ssv di V che contiene v1 , . . . , vn . Dimostrazione. Iniziamo col mostrare che é un sottospazio vettoriale. 1. 0 ∈ Span(v1 , . . . , vn ) , infatti basta scegliere a1 = a2 = . . . = an = 0. 2. ∀x, y ∈ Span(v1 , . . . , vn ) devo mostrare che x + y ∈ Span(v1 , . . . , vn ) . Poiché x ∈ Span(v1 , . . . , vn ) , esistono a1 , . . . , an ∈ K tali che x = a1 v1 + . . . + an vn . Inoltre y ∈ Span(v1 , . . . , vn ) quindi esistono b1 , . . . , bn ∈ K tali che y = b1 v1 + . . . + bn vn . Quindi (x + y) = (a1 + b1 )v1 + . . . + (an + bn )vn ≡ α1 v1 + . . . + αn vn ∈ V 18 CAPITOLO 2. SPAZI VETTORIALI 3. La stessa cosa vale per il prodotto per scalari. Il sottospazio contiene v1 , . . . , vn infatti vi ∈ Span(v1 , . . . , vn ) in quanto basta prendere aj = 0, ∀j 6= i. Per dimostrare l’ultima parte della proposizione bisogna dimostrare che , se Z é un ssv di V che contiene v1 , . . . , vn allora Z ⊃ Span(v1 , . . . , vn ). Devo mostrare quindi che ∀x ∈ Span(v1 , . . . , vn ) allora x ∈ Z. Ma se x ∈ Span(v1 , . . . , vn ) esistono a1 , . . . , an tali che x = a1 v1 + . . . + aP n vn . D’altra parte a1 v1 ∈ Z visto che Z é un ssv : questo vale ∀i quindi ai vi ∈ Z , ovvero i ai vi ∈ Z , ⇒ x ∈ Z . Definizione 2.13 (Generatori). Denotiamo con Span(v1 , . . . , vn ) il sottospazio generato da v1 , . . . , vn . I vettori v1 , . . . , vn sono i generatori del sottospazio. Osservazione 26. Il sottospazio generato da Spanv1 = {av1 , a ∈ R} é una retta. Dunque Span(v1 , v2 ) ⊆ R2 Definizione 2.14 (Span per insiemi). Sia A ⊂ V , allora SpanA = {comb. lineari finite dei vettori diA} (2.17) Teorema 2.3.2. Span{v1 , . . . , vk } coincide con Span{v2 , . . . , vk } ⇔ v1 é combinazione lineare dei (v2 , . . . , vk ). Dimostrazione. (⇒) Supponiamo che Span{v1 , . . . , vk } = Span{v2 , . . . , vk }. Ma allora v1 ∈ Span{v2 , . . . , vk } perché i due spazi sono uguali, quindi v1 si scrive come combinazione lineare dei v2 , . . . , vk . (⇐) Prendo un elemento che sta in Span{v che sta in Span{v2 , . . . , vk }. P1k, . . . , vk } e voglio dimostrare Pk Prendo v ∈ Span{v1 , . . . , vk } ⇒ v = α v = α v + α v . Ma v1 per ipotesi é 1 1 i=1 i i i=2 i i combinazione lineare dei v2 , . . . , vk , quindi k k X X v = α1 β j vj + αi vi j=2 i=2 che é una combinazione lineare dei v2 , . . . , vk , quindi sta anche in Span{v2 , . . . , vk }. 2.3.1 Esempi di sottospazi vettoriali Osservazione 27. Sia E = (x, x2 ), x ∈ R ⊂ R2 , ovvero E rappresenta i punti della parabola nel piano. Si noti che 0 sta in questo spazio. La somma di due vettori che stanno sulla parabola esce dalla stessa : non é chiuso rispetto alla somma. Per dimostrarlo prendo un elemento (x, x2 ) ∈ E, (x1 , x21 ) ∈ E. Deve verificarsi (x, x2 ) + (x1 , x21 ) ∈ E ovvero (x + x1 , x2 + x21 ) ∈ E ⇒ x2 + x21 = (x + x1 )2 = x2 + x21 + 2xx1 , quindi é un sottospazio vettoriale se e solo se xx1 = 0 . Ma si puó sicuramente trovare un contro esempio per cui xx1 6= 0 (ad esempio x = 2, x1 = 3 ). Dnque E non un sottospazio vettoriale. 2.4. OPERAZIONI CON SOTTOSPAZI 19 Osservazione 28. v1 = Si noti che 1 2 0 3 , v2 = 1 0 2 1 2 1 0 5 , v3 = 1 3 0 7 (2.18) ∈ / Span{v1 , v2 , v3 } (2.19) visto che non puó essere scritto come combinazione lineare degli altri 3. E = {p(t) ∈ R[t] : p(1) = 2} non é un ssv perché il polinomio nullo non é contenuto. Diventa sottospazio se si modifica la condizione di appartenenza all’insieme come p(1) = 0. In questo caso – 0∈E – p1 ∈ E, p2 ∈ E allora deve essere p1 + p2 ∈ E . Ma (p1 + p2 )(1) = p1 (1) + p2 (1) = 0 ∈ E. E = {p(t) ∈ Rr [t] : p(2) = 0} é sicuramente un ssv. Il teorema di Ruffini ci dice che possiamo scomporre p(t) = (t − 2)q(t) con deg q < r. Prendiamo un’applicazione h : Rr [t] ⊃ E → Rr−1 [t] definita da p(t) = (t − 2)q(t) → q(t). Tale applicazione é ben definita perché Ruffini garantisce che q sia unica. É iniettiva perché se prendiamo p1 → (t − 2)q1 , p2 → (t − 2)q2 ⇒ p1 = p2 ⇔ q1 = q2 . É anche surgettiva. Prendiamo e Si noti che −1 3 A = Span 1 , −1 0 0 (2.20) 1 −1 3 B = Span 1 , −1 , 0 0 0 0 (2.21) 1 3 −1 0 = 1 1 + 1 −1 2 2 0 0 0 (2.22) quindi , i due span coincidono. 2.4 Operazioni con sottospazi Proposizione 2.4.1. Siano A, B ssv di V 1. A ∩ B é un ssv di V . 2. A ∪ B non é in generale un ssv di V . Dimostrazione. (1) Prendiamo x, y ∈ A ∩ B ,dobbiamo mostrare che x + y ∈ A ∩ B. Ma x + y ∈ A visto che x ∈ A , y ∈ A e A é ssv di V . Lo stesso vale per x + y ∈ B. (2) Basta prendere l’unione di due rette distinte per l’origine. 20 CAPITOLO 2. SPAZI VETTORIALI Definizione 2.15 (Somma di sottospazi). Siano A, B ssv di V . Si definisce il sottospazio somma A + B = {v ∈ V : ∃a ∈ A, ∃b ∈ B : v = a + b} (2.23) Si noti che 1. A ⊂ A + B, infatti ∀a ∈ A, a = a + 0, 0 ∈ B 2. B ⊂ A + B Proposizione 2.4.2. A + B é ssv di V , contiene A e B ed é il piú piccolo ssv di V che contiene A e B. Definizione 2.16 (Somma diretta). Se A ∩ B = {0}, il sottospazio A + B viene denotato con A ⊕ B e viene definito come somma diretta. Osservazione 29. Prendiamo un piano A e una retta B che si incontrano solo nello zero. Si noti che A ⊕ B = R3 perché é il piú piccolo ssv che contiene entrambi. Proposizione 2.4.3 (Unicitá della presentazione). Ogni vettore v ∈ A ⊕ B si scrive in modo unico come v = a + b con a ∈ A, b ∈ B. Dimostrazione. Devo dimostrare che , se ci fossero due modi di scrivere v , allora questi coinciderebbero. Supponiamo quindi che v = a1 + b1 = a2 + b2 con a1 , a2 ∈ A e b1 , b2 ∈ B. Devo provare che a1 = a2 , b1 = b2 . Si ha che a1 −a2 = b2 −b1 : ma a1 −a2 ∈ A visto che é somma di vettori di un ssv; lo stesso vale per b2 − b1 ∈ B. Dunque a1 − a2 = b2 − b1 ∈ A ∩ B = {0} per l’ipotesi di somma diretta. Dunque a1 = a2 e b1 = b2 . Corollario 2.4.4. Se V = A ⊕ B allora ∀v ∈ V , ∃!a ∈ A, ∃!b ∈ B tale che v = a + b. Definizione 2.17 (Proiezione). Posso definire una proiezione su A , prA : V → A che manda v → a e una proiezione in B , prB : V → B che manda v → b. Osservazione 30. Si noti che le proiezioni sono ben definite solo perché A e B sono in somma diretta altrimenti ci sarebbe ambiguitá nella definizione. Definizione 2.18 (Supplementare). Sia U un ssv di V . Un sottospazio W di V si dice supplementare di U se V = U ⊕ W . Osservazione 31. Se V = R2 e prendo U come retta per l’origine possiamo prendere come supplementare un’altra retta che passa per l’origine. Questi due sottospazi hanno intersezione solo nello 0 quindi sono supplementari. La somma fa tutto R2 . Si noti che in questo caso il supplementare non é unico! Osservazione 32. M (n) = S(n) ⊕ A(n) Capitolo 3 Applicazioni Lineari Definizione 3.1 (Applicazioni lineari). Siano V, W K−spazi vettoriali. Un’applicazione f : V → W é detta lineare se 1. ∀x, y ∈ V , f (x + y) = f (x) + f (y). 2. ∀α ∈ K, ∀x ∈ V , f (αx) = αf (x). ovvero f (λx + µy) = λf (x) + µf (y). Osservazione 33. Se f é lineare allora f (0) = 0, infatti f (0) = f (0 + 0) = f (0) + f (0) ⇒ f (0) = 0 3.0.1 Esempi di applicazioni 1. 0 : V → W é l’applicazione nulla ed é lineare. 2. id : V → V é l’identitá ed é lineare. 3. t : M (p, q) → M (q, p) che manda A → trasposta ed é lineare. Infatti t A , dove [ t A]ij = [A]ji , é l’applicazione t [A + B]ij = [A + B]ji = [A]ji + [B]ji = t A + t B t [αA] = α t A Osservazione 34. ∀A ∈ M (n, n, K) , A + t A é simmetrica e A − t A é antisimmetrica. Inoltre ogni matrice A si puó scrivere come somma di una matrice simmetrica ed antisimmetrica , infatti 1 1 (A + t A) + (A − t A) = 2A ⇒ A = (A + t A) + (A − t A) (3.1) 2 2 Questo prova anche che M (n) = S(n) ⊕ A(n) visto che un elemento di M (n) si scrive in modo unico come somma di due elementi dei sottospazi in somma diretta. Verifichiamo che le due scomposizioni di A sono simmetriche ed antisimmetriche. 1 1 t 1 [ (A + t A)] = (A + t A) = ( t A + A) 2 2 2 (3.2) 1 t 1 1 1 (A − t A) = ( t A − A) = − (A − t A) [ (A − t A)] = 2 2 2 2 (3.3) t Mentre t 21 22 CAPITOLO 3. APPLICAZIONI LINEARI 4. Tr : M (n) → K é l’applicazione traccia che manda A → TrA = n X [A]ii i=1 é lineare, infatti Tr(A + B) = n X i=1 5. d dx [A + B]ii = n X ([A]ii + [B]ii ) = i=1 n X [A]ii + i=1 : K[x] → K[x] é l’applicazione derivata che manda p(x) → n X [B]ii = TrA + TrB i=1 d dx p(x) é lineare. 6. a ∈ K , f : K[x] → K che manda p(x) → p(a) é l’applicazione di valutazione ed é lineare. 7. f : C → C che manda z → z̄ é l’applicazione di coniugio che non é lineare. f (z + w) = z + w = z̄ + w̄ = f (z) + f (w) f (αz) = αz = ᾱz̄ = ᾱf (z) Dato che questa non vale ∀α ∈ C l’applicazione non é lineare. Osservazione 35. Ogni matrice A ∈ M (p, q, K) definisce in modo naturale una applicazione lineare A : Kq → Kp nel modo seguente. Prima ci servono alcune definizioni di base. Definizione 3.2. Prodotto tra vettori colonna b1 (a1 , . . . , aq ) ... ≡ a1 b1 + . . . + aq bq (3.4) bq Definizione 3.3. Se A ∈ M (p, q, K) e x ∈ Kq = M (q, 1) poniamo . . . A1 . . . A1 x .. .. x = .. ∈ Kp Ax = ... . . . . . . Ap . . . Ap x (3.5) Osservazione 36. Ax = x1 A1 + . . . + xq Aq , ovvero il prodotto Ax puó essere visto come combinazione lineare delle colonne di A. Infatti A1 x a11 x1 + . . . + a1q xq .. 1 q Ax = ... = (3.6) = x1 A + . . . + xq A . Ap x ap1 x1 + . . . + apq xq per la definizione della somma tra matrici e del prodotto tra vettori colonna. Proposizione 3.0.5. Se A ∈ M (p, q, K) l’applicazione A : Kq → Kp che manda x → Ax é lineare. 23 Dimostrazione. Infatti ∀x, y ∈ Kq , A(x + y) = Ax + Ay . Inoltre ∀α ∈ K, ∀x ∈ Kq , A(αx) = α(Ax). Osservazione 37. Data una matrice A si definisce immediatamente un’applicazione lineare. Dunque l’immagine di A sará l’immagine dell’applicazione lineare associata ad A. Osservazione 38. L’uguaglianza Ax = x1 A1 + . . . + xq Aq confronta un vettore dell’immagine , Ax , ed una combinazione lineare (span) delle colonne di A. Vogliamo quindi provare che ImmA = Span(A1 , . . . , Aq ) Dimostrazione. (⊂) Infatti Ax = x1 A1 + . . . + xq Aq quindi un vettore dell’immagine Ax si puó scrivere come combinazione lineare delle colonne di A, ovvero sta nello span. (⊃) Se un vettore sta nello span allora é del tipo α1 A1 + . . . αq Aq . Ma questo vettore é immagine del vettore α ≡ (α1 , . . . , αq ) , ovvero Aα. Dunque é vero che ImmA = Span(A1 , . . . , Aq ) ≡ C (A) (3.7) Osservazione 39. Posto e1 ≡ 1 0 .. . .. . 0 ∈ Kq eq ≡ ... 0 .. . .. . 0 1 ∈ Kq (3.8) si ha che A(e1 ) = A 1 0 .. . .. . 0 0 .. . .. . 0 1 = A1 (3.9) ... A(eq ) = A = Aq (3.10) Quindi A= ! Ae1 . . . Aeq = ! A1 . . . Aq (3.11) Teorema 3.0.6. Tutte le applicazioni lineari Kq → Kp sono indotte da una matrice, ossia ∀g : Kq → Kp lineare esiste una ed una sola matrice A ∈ M (p, q, K) tale che g(x) = Ax, ∀x ∈ Kq . 24 CAPITOLO 3. APPLICAZIONI LINEARI Dimostrazione. L’unico modo possibile per soddisfare l’uguaglianza g(x) = Ax é che le colonne delle matrici siano uguali, ovvero che le due immagini coincidano. Ma le colonne di A sono immagini dei vettori e1 , . . . , eq , quindi ! A = g(e1 ) . . . g(eq ) (3.12) Verifichiamo che con tale scelta g(x) = Ax, ∀x. Infatti ∀x ∈ Kq , Ax = x1 g(e1 ) + . . . + xq g(eq ) = g(x1 e1 ) + . . . + g(xq eq ) = = g(x1 e1 + . . . + xq eq ) = g(x1 , . . . , xq ) = g(x) (3.13) per la linearitá di g. Osservazione 40. Sia g : R2 → R3 definita da (x, y) → (2x, x − y, x + 4y). Questa applicazione é indotta dalla matrice ! 2 0 A = g(e1 )g(e2 ) = 1 −1 (3.14) 1 4 Osservazione 41. hom (V, W ) = {f : V → W : f lineare } é un sottospazio vettoriale di {f : V → W }. 0 é lineare dunque 0 ∈ hom (V, W ) Prese f, g ∈ hom (V, W ) deve essere (f + g) ∈ hom (V, W ). Si deve quindi verificare (f + g)(x + y) = f (x + y) + g(x + y) = f (x) + f (y) + g(x) + g(y) = (f + g)(x) + (f + g)(y) (3.15) Definizione 3.4 (Nucleo di f ). Sia f : V → W lineare. Si definisce ker f = {x ∈ V : f (x) = 0} come nucleo di f . Osservazione 42. Si noti che il nucleo non puó essere mai vuoto perché , per la linearitá di f , f (0) = 0. ker f ⊂ V Proposizione 3.0.7. Se f : V → W é lineare allora 1. ker f é un ssv di V . 2. Immf é un ssv di W . 3. f é iniettiva se e solo se ker f = {0} Dimostrazione. . (3.16) 25 1. Mostriamo le tre proprietá 0 ∈ ker(f ) poiché f (0) = 0 ∀x, y ∈ ker(f ) ⇒ (x + y) ∈ ker(f ) infatti f (x + y) = f (x) + f (y) = 0 + 0 = 0. ∀x ∈ ker(f ), ∀α ∈ K ⇒ αx ∈ ker(f ) infatti f (αx) = αf (x) = α0 = 0. 2. Mostriamo le tre proprietá 0 ∈ Imm(f ) poiché f (0) = 0. ∀z, w ∈ Imm(f )∃x, y ∈ V tale che z = f (x), w = f (y) ⇒ z + w = f (x) + f (y) ⇒ f (x + y) = z + w ⇒ z + w ∈ Imm(f ). ∀z ∈ Imm(f ) Imm(f ). ∃x ∈ V tale che z = f (x) ⇒ ∀α ∈ K, αz = αf (x) = f (αx) ⇒ αz ∈ 3. (⇒) Prendiamo una x ∈ ker f allora f (x) = 0 = f (0) dunque per l’iniettivitá x = 0. (⇐) Se f (x) = f (y) allora devo dimostrare x = y . Ma f (x) = f (y) ⇒ f (x) − f (y) = 0 ⇒ f (x − y) = 0 ⇒ (x − y) ∈ ker f . Ma poiché ker f = {0} ⇒ x − y = 0 ⇒ x = y 26 CAPITOLO 3. APPLICAZIONI LINEARI Capitolo 4 Sistemi Lineari 4.1 Sistema lineare Definizione 4.1 (Sistema Lineare). Un sistema lineare in p equazioni ed n incognite é dato da a11 x1 + . . . + a1n xn = b1 a21 x1 + . . . + a2n xn = b2 . .. .. .. .. .. (4.1) . . . . . . . . . .. .. .. .. .. ap1 x1 + . . . + apn xn = bp É utile compattare questo sistema in una notazione diversa , utilizzando le a11 . . . a1n x1 .. ∈ M (p, n, K) ; X = .. ∈ Kn ; B = .. A = ... . . . ap1 . . . apn xn matrici. b1 .. ∈ Kp . bp (4.2) Con questa notazione si nota subito che il sistema si puó scrivere semplicemente con la formula AX = B (4.3) con la nozione di prodotto tra matrici e vettori colonna giá data. Dunque ogni volta che dovremo analizzare un sistema ci ridurremo semplicemente alle matrici associate a questo sistema. Definizione 4.2 (Matrice completa del sistema). La matrice A0 = (A|B), ottenuta aggiungendo alla matrice A la colonna dei termini noti del sistema , é detta matrice completa del sistema. Osservazione 43. La n-upla Y = (y1 , . . . , yn ) ∈ Kn é soluzione del sistema AX = B ⇔ AY = B. Ma sappiamo che la matrice A induce un’applicazione lineare A : Kn → Kp che porta x → Ax. Dunque il sistema é risolubile se e solo se , dato un fissato B questo appartiene all’immagine dell’applicazione A. Le soluzioni del sistema sono invece la controimmagine del vettore B in Kn . 27 28 CAPITOLO 4. SISTEMI LINEARI Definizione 4.3. L’insieme delle soluzioni di un qualsiasi sistema si puó scrivere come SB = {x ∈ Kn : Ax = B} (4.4) Il sistema con B = 0 é detto sistema omogeneo ed il suo insieme di soluzioni é dato da S0 = {x ∈ Kn : Ax = 0} (4.5) Osservazione 44. Si noti che S0 é un ssv di Kn , infatti 1. {0} ∈ S0 visto che lo 0 é soluzione del sistema omogeneo 2. Dati x, y ∈ S0 ⇒ Ax = 0, Ay = 0 ⇒ A(x + y) = Ax + Ay = 0 ⇒ x + y ∈ S0 3. λ ∈ K, x ∈ S0 ⇒ Ax = 0 ⇒ A(λx) = λAx = 0 Osservazione 45. Se B 6= 0 , SB non é un sottospazio vettoriale ( basti controllare che non contiene lo 0). Definizione 4.4 (Sistemi equivalenti). Due sistemi lineari si dicono equivalenti se hanno lo stesso insieme di soluzioni 4.2 Matrici a scalini Definizione 4.5 (Matrice a scalini). Una 0 0 0 0 S= 0 0 .. .. . . matrice siffatta | ∗ ∗ ∗ ∗ ∗ 0 0 | ∗ ∗ ∗ 0 0 0 ∗ ∗ ∗ .. .. .. .. .. .. . . . . . . (4.6) é detta a scalini. Piú precisamente S ∈ M (p, k) si dice a scalini se ∀i = 1, . . . , p − 1 tutti gli elementi [S]ij = 0, ∀j = 1, . . . , k ⇒ [S]i+1,h = 0, h = 1, . . . , k + 1. Osservazione 46. La matrice 2 1 2 −1 | 3 S = 0 0 1 5 | −2 0 0 0 0 | 0 (4.7) é a scalini ed ha 2 pivots 1 . Possiamo risolvere il sistema riducendosi alle equazioni che lo definiscono ( ( x3 = −5x4 − 2 x3 = −5x4 − 2 (4.8) ⇒ 7 2x1 + x2 + 2x3 − x4 = 3 x1 = − 12 x2 + 11 2 x4 + 2 Il sistema delle soluzioni é quindi dato da 1 7 − 2 x2 + 11 2 x4 + 2 x 2 : x2 , x4 ∈ R = SB = −5x4 − 2 x4 1 Primo elemento non nullo di una riga a partire da sinistra. 11/2 7/2 −1/2 0 1 0 : x2 , x4 ∈ R + x4 + x2 −5 0 −2 0 1 0 (4.9) 4.2. MATRICI A SCALINI 29 Ovvero l’insieme delle soluzioni del sistema si presenta come la somma di una soluzione particolare e dello span dei vettori di S0 , dato da 11/2 −1/2 0 1 : x , x ∈ R = Span(y1 , y2 ) (4.10) + x4 x2 −5 2 4 0 1 0 con y1 , y2 ∈ S0 . Proposizione 4.2.1. Sia S0 = {x : Ax = 0} , SB = {x : Ax = B}. Sia inoltre y0 una soluzione del sistema Ax = B. Si ha che SB = y0 + S0 , dove con la somma si intende che l’insieme y0 + S0 é dato da {y0 + x : x ∈ S0 } , ovvero si somma ad y0 tutti i vettori di S0 , ottenendo un nuovo spazio. Tale insieme ottenuto é il traslato di S0 e viene detto sottospazio affine. Dimostrazione. Proviamo solo l’implicazione SB ⊃ y0 + S0 . Un qualsiasi vettore∈ y0 + S0 si scrive come y0 + x , con x ∈ S0 . Devo far vedere che y0 + x é soluzione del sistema non omogeneo : A(y0 + x) = Ay0 + Ax = B + 0 = B Proposizione 4.2.2 (Operazioni elementari). Questa serie di operazioni non cambiano le soluzioni di un sistema. 1. Scambio di due equazioni 2. Moltiplicazione di una equazione per α 6= 0 , α ∈ K 3. Somma di un multiplo di un’equazione ad un’altra Dimostrazione. Proviamo solo la (3) delle precedenti. Prendiamo il sistema ( a11 x1 + . . . + a1n xn = b1 a21 x1 + . . . + a2n xn = b2 (4.11) e supponiamo che abbia come soluzione (y1 , . . . , yn ). Preso h ∈ K, sommo h volte la prima equazione alla seconda ottenendo il sistema ( a11 x1 + . . . + a1n xn = b1 (4.12) a21 x1 + . . . + a2n xn + h(a11 x1 + . . . + a1n xn ) = b2 + hb1 Se si sostituisce (y1 , . . . , yn ) nel sistema si trova che questo vettore é soluzione anche del sistema modificato. Questo é facile da verificare nella prima equazione, mentre nella seconda si ha a21 y1 + . . . + a2n yn +h (a11 y1 + . . . + a1n yn ) = b2 + hb1 | {z } | {z } b2 b1 che é verificato sempre ∀h. Le operazioni elementari possono essere scritte anche per matrici (data l’equivalenza giá vista tra sistemi e matrici ) , basta sostituire al posto di equazione il termine riga. Presentiamo ora , con un esempio, uno degli algoritmi piú conosciuti per ridurre una qualsiasi matrice a scalini. 30 CAPITOLO 4. SISTEMI LINEARI Osservazione 47. Prendiamo il sistema x − y + 2z − t = 1 2x − 2y + 5z + t = 3 4x − 4y + 9z − t = 5 Scriviamo la 1 −1 2 −2 4 −4 (4.13) matrice dei coefficienti 2 −1 | 1 1 −1 2 −1 | 1 1 −1 2 −1 | 1 5 1 | 3 → 0 0 1 3 | 1 → 0 0 1 3 | 1 9 −1 | 5 0 0 1 3 | 4 0 0 0 0 | 3 (4.14) dove sono state fatte rispettivamente le seguenti operazioni elementari (Ri sta per la riga i-esima) : 1. R2 7−→ R2 − 2R1 2. R3 7−→ R3 − 4R1 3. R3 7−→ R3 − R2 Si osservi che si deve utilizzare sempre la riga con il pivot che viene considerato di volta in volta! 4.3 Algoritmo di Gauss Proposizione 4.3.1 (Algoritmo di Gauss). Si consideri la matrice completa del sistema (A|B) = D. Le operazioni da fare sono 1. Prendo la prima colonna da sinistra non nulla in D. Dunque ∃j1 tale che [D]j1 ,j2 6= 0 2. A meno di scambiare le righe posso supporre i = 1 3. ∀i = 2, . . . , p sommando a Di un opportuno multiplo di D1 , posso far si che l’elemento di posto (i, j1 ) sia 0. 4. Itero sulla sottomatrice ottenuta dimenticando la prima riga e la j1 -colonna. Teorema 4.3.2 (di Gauss). 1. Ogni matrice puó essere trasformata in una matrice a scalini attraverso un numero finito di operazioni elementari per riga. 2. Ogni sistema lineare é equivalente ad un sistema a scalini. Proposizione 4.3.3. Un sistema Ax = B é risolubile ⇔ il numero di pivots di S é uguale al numero dei pivots di (S|C) dove quest’ultima é una ridotta a scalini della matrice completa del sistema. Osservazione 48. Prendiamo il sistema ( ax + . . . (a + 1)x + . . . ⇒A= a ... | ... a + 1 ... | ... (4.15) 4.3. ALGORITMO DI GAUSS 31 Per lo studio del numero di pivots si dovrebbero innazitutto distinguere i casi in cui a = 0 ( 1 pivot) oppure a 6= 0. Tale distinzione risulta fastidiosa quando si ha a che fare con matrici molto piú grandi. Si puó invece notare che a + 1 − a non dipende da a , quindi conviene sostituire alla seconda riga la differenza tra le due righe in modo da eliminare la dipendenza da a su almeno 1 pivot. Osservazione 49. Abbiamo giá visto che le rette per l’origine sono sottospazi vettoriali. In particolare una retta r si puó scrivere come a (4.16) r = Span(v) = t b : t ∈ R c Si voglia ora verificare se un punto (x, y, z) ∈ R3 si trova sulla retta. Si dovrá trovare se ∃t ∈ R tale che x = ta (4.17) y = tb z = tc Questo sistema rappresenta un nuovo modo di scrivere una retta in R3 , detta forma paramterica. In questo caso la retta stessa é l’immagine dell’applicazione ϕ : R → R3 che trasforma t → (ta, tb, tc) , ovvero a ta b t = tb (4.18) c tc La matrice associata al sistema (4.17) si scrive come a | x b | y c | z (4.19) Dunque (x, y, z) ∈ r ⇔ il sistema é risolubile. Posso quindi ridurre a scalini ,supponendo a, b, c 6= 0 ( altrimenti la soluzione avrebbe poco senso!) , ottenendo ? | ∗ 0 | p(x, y, z) (4.20) 0 | q(x, y, z) dove p, q sono generici polinomi di x, y, z. Perché il sistema sia risolubile non ci devono quindi essere pivots , ovvero p(x, y, z) = q(x, y, z) = 0 , cioé ( p(x, y, z) = 0 (4.21) q(x, y, z) = 0 ovvero la retta é l’intersezione di due piani , cioé il nucleo di una applicazione lineare. Osservazione 50. Prendiamo un piano per l’origine in R3 . Sia 0 1 0 t 1 H = Span 1 , 1 = t 1 + s 1 : t, s ∈ R = t + s : t, s ∈ R = Immϕ 3 2 3 2 3t + 2s (4.22) 32 CAPITOLO 4. SISTEMI LINEARI dove ϕ : R2 → R3 é l’applicazione definita da t 1 0 t t t+s → = 1 1 · s s 3t + 2s 3 2 (4.23) Dunque (x, y, z) ∈ H ⇔ ∃t, s tali che t x t + s = y 3t + 2s z Utilizziamo la riduzione 1 0 | 1 1 | 3 2 | a scalini x 1 0 | x 1 0 | x y → 0 1 | y − x → 0 1 | y−x z 0 2 | z − 3x 0 0 | z − x − 2y (4.24) (4.25) che risolubile⇔ z − x − 2y = 0 che é l’equazione cartesiana di un piano. Osservazione 51 (equazioni cartesiane). Sia Z il sottospazio generato da α1 − α2 + α3 α2 α1 2α1 − α2 α1 , α2 , α3 ∈ R Per trovare le equazioni cartesiane che defniscono Z ciata 1 −1 0 1 A= 1 0 2 −1 innanzitutto costruiamo la matrice asso 1 0 0 0 che definisce un’applicazione A Voglio una condizione per cui 1 −1 1 | x 0 1 0 | y 1 0 0 | z 2 1 0 | t 1 0 0 0 R3 − → R4 α1 α1 (4.26) α2 → A α2 α3 α3 α1 v ∈ Imm(A) ⇒ v = A α2 Risolviamo quindi il sistema α3 −1 1 | x 1 −1 1 | x 0 1 1 0 | y 0 | y 0 0 −1 | z − x − y (4.27) 1 −1 | z − x 1 −2 | t − 2x 0 0 0 | t − 2z + y Dunque l’equazione cartesiana che definisce lo spazio é t + y − 2z = 0 4.3. ALGORITMO DI GAUSS 33 Osservazione 52 (Linearitá delle composizioni). V, W, Z , K-spazi vettoriali. Siano f : V → W e g : W → Z , applicazioni lineari. Ha senso considerare (g ◦ f ) : V → Z : vogliamo mostare che anche questa é lineare. ∀x, y ∈ V : (g ◦ f )(x + y) = g(f (x + y)) = g(f (x) + f (y)) = g(f (x)) + g(f (y)) = (g ◦ f )(x) + (g ◦ f )(y) Osservazione 53 (Matrice associata alla composizione). f g Supponiamo adesso di avere due applicazioni Kn − → Kp → − Kq . So quindi che ∃A ∈ M (p, n, K) tale che f (x) = Ax, ∀x ∈ Kn ∃B ∈ M (q, p, K) tale che g(y) = By, ∀y ∈ Kp Dato che g ◦ f é lineare , esisterá una matrice C ∈ M (q, n, K) tale che (g ◦ f )(x) = Cx , ∀x ∈ Kn . La matrice C sará legata in qualche modo alle matrici A e B. Per trovare la formula esplicita basta fare il calcolo con le sommatorie. [Ax]i1 = Ai x = n X [A]ij [x]j1 j=1 [By]h1 = Bh y = p X [B]hk [y]k1 k=1 Si ha quindi (g ◦ f )(x) = g(f (x)) = g(Ax) = B(Ax) = Cx dunque [(g ◦ f )(x)]h1 = [B(Ax)]h1 = p X [B]hk [Ax]k1 k=1 = p X k=1 [B]hk n X [A]kj [x]j1 = j=1 p n X X j=1 (4.28) ! [B]hk [A]kj [x]j1 k=1 Stiamo cercando una relazione tra la matrice C e il vettore x : [(g ◦ f )(x)]h1 = Ch x. Dunque per l’equazione (4.28) si ha che [C]hj = p X [B]hk [A]kj = Bh Aj (4.29) k=1 che é la formula per il prodotto di matrici e rappresenta la caratterizzazione della matrice associata alla composizione delle due funzioni : C ≡ BA. Definizione 4.6 (Matrice prodotto). Sia A ∈ M (p, n) , B ∈ M (q, p). BA é la matrice prodotto (q × n) definita da [BA]ji ≡ Bj Ai (4.30) Si noti che La moltiplicazione tra due matrici ha senso solo se il numero di righe di A é uguale al numero di colonne di B, altrimenti non é definita. 34 CAPITOLO 4. SISTEMI LINEARI Non vale la proprietá commutativa , AB 6= BA. Osservazione 54. M (n, K, +,prodotto righe×colonne) é un anello NON commutativo. ∀A, B, C ∈ M (n) valgono le proprietá ABC = A(BC) A(B + C) = AB + AC (A + B)C = AC + BC L’elemento neutro per il prodotto tra matrici é la matrice identitá. 1 ... 0 idM = ... . . . ... 0 ... 1 (4.31) Osservazione 55. A differenza di quanto succede nei campi come R moltiplicando due elementi non nulli in M (n, K, +,prodotto righe×colonne) si puó ottenere la matrice nulla. 0 0 3 4 0 1 (4.32) = 0 0 0 0 0 0 Esistono anche matrici che moltiplicate per se stesse danno la matrice nulla. 0 0 0 1 0 1 = 0 0 0 0 0 0 (4.33) Definizione 4.7 (Matrice nilpotente). Una matrice A si dice nilpotente se ∃m ∈ N tale che Am = 0. Il piú piccolo intero m per cui questo succede é detto indice di nilpotenza. Definizione 4.8 (Isomorfismo). f : V → W lineare si dice isomorfismo se f é bigettiva. Definizione 4.9 (Spazi isomorfi). Due spazi V , W si dicono isomorfi se esiste un isomorfismo tra di essi. Osservazione 56. Ogni punto appartente al piano R2 si puó scrivere come combinazione lineare dei vettori (0, 1) , (1, 0) , infatti ogni vettore si scrive tramite 2 coordinate v = (x, y) = x(1, 0) + y(0, 1). I vettori (0, 1) , (1, 0) generano tutto lo spazio , come é facile verificare. Capitolo 5 Basi e dimensione 5.1 Applicazioni lineari e basi Definizione 5.1 (Spazio finitamente generato). Uno spazio vettoriale V si dice finitamente generato se esistono v1 , . . . , vn ∈ V tali che ∀v ∈ V , ∃α1 , . . . , αn ∈ K : v = α1 v1 + . . . + αn vn , ossia Span(v1 , . . . , vn ) = V . In tal caso v1 , . . . , vn sono detti generatori di V . Osservazione 57. e1 = (1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1) generano Kn . Osservazione 58. K[x] non é finitamente generato. Infatti se lo fosse dovrebbero esistere un numero finito di polinomi con i quali si genera ogni polinomio. Questo insieme di polinomi generatori avranno un grado massimo , che denotiamo con m. Una combinazione lineare di questi polinomi potrá avere al piú grado m , dunque si vede subito che non é possibile rappresentare polinomi di grado superiore ad m, ovvero K[x] non é finitamente generato. Definizione 5.2 (Vettori linearmente indipendenti). v1 , . . . , vn ∈ V sono detti linearmente indipendenti se a1 v1 + . . . + an vn = 0 ⇒ a1 = a2 = . . . = an = 0. Altrimenti sono detti dipendenti. Osservazione 59. e1 , . . . , en ∈ Kn sono linearmente indipendenti. Osservazione 60. v ∈ V é linearmente indipendente ⇔ v 6= 0. Infatti av = 0 ⇔ a = 0 ∨ v = 0 . Se v = 0 , a 6= 0 allora v é dipendente, altrimenti v 6= 0, a = 0 e v é indipendente. Osservazione 61. Se uno tra i vettori v1 , . . . , vn é nullo allora v1 , . . . , vn sono linearmente dipendenti. Infatti se v1 = 0 allora v1 + 0 · v2 + . . . + 0 · vn = 0. Proposizione 5.1.1. Sia n ≥ 2 . I vettori v1 , . . . , vn sono linearmente dipendenti ⇔ almeno uno di essi si puó scrivere come combinazione degli altri. Dimostrazione. (⇒) : Per ipotesi ∃a1 , . . . , an non tutti nulli tali che a1 v1 + . . . + an vn = 0. Se −1 −1 −1 a1 6= 0 posso moltiplicare per a−1 1 ottenendo a1 v1 a1 + . . . + an vn a1 = 0 ⇒ v1 = −a1 a2 v2 − −1 . . . − a1 an vn . Segue la tesi. (⇐) : Se v1 = a2 v2 + . . . + an vn allora v1 − a2 v2 − . . . − an vn = 0 e non tutti i coefficienti sono nulli , ovvero i vettori sono linearmente dipendenti. 35 36 CAPITOLO 5. BASI E DIMENSIONE Osservazione 62. Se v1 , . . . , vk sono linearmente indipendenti e m ≤ k allora v1 , . . . , vm sono linearmente indipendenti. Osservazione 63. Se vm ∈ Span(v1 , . . . , vm−1 ) , allora Span(v1 , . . . , vm−1 , vm ) = Span(v1 , . . . , vm−1 ) (5.1) Definizione 5.3 (Base). Un insieme ordinato {v1 , . . . , vn } di vettori di V é detto base di V se v1 , . . . , vn sono linearmente indipendenti e generano V . Osservazione 64. {e1 , . . . , en } sono una base di Kn , detta base canonica. Proposizione 5.1.2. Se B = {v1 , . . . , vn } é una base di V , allora ogni v ∈ V puó essere scritto in modo unico come combinazione lineare dei v1 , . . . , vn . I coefficienti di questa combinazione lineare sono dette coordinate di v rispetto alla base B e vengono denotati con [v]B . Dimostrazione. Supponiamo per assurdo che un vettore si scriva in due modi diversi ( v = a1 v1 + . . . + an vn ⇒ (a1 − b1 )v1 + . . . + (an − bn )vn = 0 v = b1 v1 + . . . + bn vn (5.2) Dato che v1 , . . . , vn sono linearmente indipendenti ⇒ a1 − b1 = . . . = an − bn = 0 ⇒ a1 = b1 = . . . = an = bn . Fissare una base determina quindi una corrispondenza BIUNIVOCA [·]B : V → Kn , che manda v → [v]B . L’applicazione [·]B é lineare e dunque un isomorfismo. Osservazione 65. Sia S = {(1, 0), (1, 1)} una base di R2 . Per trovare le coordinate di un vettore in questa base bisogna trovare due numeri a, b tali che ( a+b=x (x, y) = a(1, 0) + b(1, 1) ⇒ (5.3) b=y Ovvero bisogna risolvere un sistema lineare che ha come soluzioni le coordinate del vettore. x−y [(x, y)]S = (5.4) y Corollario 5.1.3. Se V é un K-spazio vettoriale che ammette una base formata da n vettori allora V é isomorfo a Kn . Teorema 5.1.4. Siano {v1 , . . . , vn } base di V , w1 , . . . , wk vettori di V . Se k > n allora w1 , . . . , wk sono linearmente dipendenti. Dimostrazione. Si ha w1 = a11 v1 + . . . + a1n vn .... .. wk = ak1 v1 + . . . + akn vn (5.5) 5.2. PROPRIETÁ DELLE BASI 37 Prendiamo una combinazione α1 w1 + . . . + αk wk = 0 sostituendo si ha α1 (a11 v1 + . . . + a1n vn ) + . . . + αk (ak1 v1 + . . . + akn vn ) = 0 ossia (a11 α1 + . . . + ak1 αk )v1 + . . . + (a1n α1 + . . . + akn αk )vn = 0 che é una combinazione lineare nulla dei vi , allora a11 α1 + . . . + ak1 αk = 0 . .. ... a α + . . . + a α = 0 1n 1 kn k (5.6) che é un sistema lineare omogeneo di n equazioni in k incognite. Poiché k > n il sistema ha soluzioni non nulle. Corollario 5.1.5. Se {v1 , . . . , vn } e {w1 , . . . , wk } sono basi di V , allora n = k. Definizione 5.4 (Dimensione). Se V possiede una base finita {v1 , . . . , vn } diciamo che V ha dimensione n. Se V = {0} poniamo dim V = 0. 5.2 Proprietá delle basi Proposizione 5.2.1 (Algoritmo per l’estrazione di una base). Supponiamo V 6= {0} . Da ogni insieme finito di generatori di V si puó estrarre una base di V . Dimostrazione. Siano v1 , . . . , vk generatori di V . Posso supporre vi 6= 0, ∀i. Allora v1 é linearmente indipendente. Passo a controllare la lista {v1 , v2 }. Si presentano vari casi 1. Se v1 , v2 sono linearmente indipendenti posso tenerli. 2. Altrimenti v2 ∈ Span(v1 ) quindi posso toglierlo dalla lista, ovvero Span(v1 , v2 , . . . , vk ) = Span(v1 , v3 . . . , vk ). Questi vettori continuano ad essere un insieme di generatori. Ripeto il ragionamento partendo dall’inizio. Continuo cosı́ fino a quando ho esaminato tutti i vettori della lista. Corollario 5.2.2. Sia dim V = n. Se v1 , . . . , vk sono generatori di V allora k ≥ n Osservazione 66. Se v1 , . . . , vk sono linearmente indipendenti e v ∈ / Span(v1 , . . . , vk ) allora v1 , . . . , vk , v sono linearmente indipendenti. Dimostrazione. Sia a1 v1 +. . .+ak vk +av = 0 . Deve essere a = 0 altrimenti v ∈ Span(v1 , . . . , vk ). Quindi a1 v1 + . . . + ak vk = 0 ⇒ a1 = . . . = ak = 0 , ovvero i vettori sono linearmente indipendenti. Lemma 5.2.3. Sia dim V = n. Se v1 , . . . , vn sono linearmente indipendenti allora sono una base per V . 38 CAPITOLO 5. BASI E DIMENSIONE Dimostrazione. Basta provare che questi generano V . Se , per assurdo, non generassero V , esisterebbe v ∈ / Span(v1 , . . . , vn ) ma con v ∈ V . Dunque v1 , . . . , vn , v sarebbero n + 1 vettori linearmente indipendenti, ma dato che dim V = n questi vettori non possono essere linearmente indipendenti, dunque é assurdo dire che v non sta in Span(v1 , . . . , vn ). Teorema 5.2.4 (Completamento a base). Sia dim V = n . Se v1 , . . . , vk sono linearmente indipendenti , allora k ≤ n ed esistono vk+1 , . . . , vn tali che {v1 , . . . , vk , vk+1 , . . . , vn } é una base di V . Dimostrazione. Se k = n , per il lemma {v1 , . . . , vk } é una base. Se k < n i v1 , . . . , vk non possono essere generatori . Ci sará quindi un vettore che esce dallo span , ovvero ∃vk+1 ∈ / Span(v1 , . . . , vk ). Dunque la lista v1 , . . . , vk , vk+1 é una lista di vettori linearmente indipendenti. Dunque 1. Se k + 1 = n per il lemma v1 , . . . , vk+1 sono una base. 2. Se k + 1 < n continuo come sopra. Dopo n − k passi trovo n vettori linearmente indipendenti in uno spazio di dimensione n e dunque , una base. Osservazione 67. Sia {v1 , . . . , vn } una lista di vettori. Se i vi sono a due a due linearmente indipendenti ; {v1 , . . . , vn } linearmente indipendenti. Basta prendere , ad esempio 1 1 0 1 1 0 (5.7) 0 0 0 Osservazione 68. Sia U = Span(v1 , . . . , vk ) , W = Span(vk+1 , . . . , vn ) ⇒ U ∩ W = {0}. Infatti se x ∈ U ∩ W allora ∃α1 , . . . , αk ∈ K : x = α1 v1 + . . . + αk vk (x ∈ U ) ∃βk+1 , . . . , βn ∈ K : x = βk+1 vk+1 + . . . + βn vn (x ∈ W ) Facendo la differenza si ottiene α1 v1 + . . . + αk vk − βk+1 vk+1 − . . . − βn vn = 0 Dato che questi vettori sono linearmente indipendenti , α1 = . . . = αk = βk+1 = . . . = βn = 0 ⇒ x = 0 . Visto che U ∩ W = {0} ⇒ ∃U ⊕ W ssv di V e inoltre U ⊕ W = V . Corollario 5.2.5. Ogni ssv di uno spazio vettoriale V di dimensione finita ammette un supplementare. Osservazione 69. Sia dim V = n. Se v1 , . . . , vk sono linearmente indipendenti allora ∃vk+1 , . . . , vn ∈ V tali che {v1 , . . . , vk , vk+1 , . . . , vn } sono una base di V . Dimostrazione. Supponiamo di conoscere {w1 , . . . , wn } base di V . Dunque {v1 , . . . , vk , w1 , . . . , wn } generano V . Utilizziamo l’algoritmo di estrazione di una base. 1. v1 é indipendente per ipotesi; 5.2. PROPRIETÁ DELLE BASI 39 2. v1 , v2 sono indipendenti visto che é un sottoinsieme di un insieme indipendente ; 3. Continuo il ragionamento fino a vk 4. In seguito si esaminano i vettori w1 , . . . , wn e si scelgono (n − k) vettori linearmente indipendenti wj k+1 , . . . , wj n per il completamento a base. Proposizione 5.2.6. V sp. vettoriale finitamente generato. Allora ogni sottospazio W di V é finitamente generato e dim W ≤ dim V . Inoltre W = V ⇔ dim W = dim V . Dimostrazione. Devo far vedere inizialmente che W é finitamente generato. Se dei vettori di W sono linearmente indipendenti quei vettori sono linearmente indipendenti anche in V . Sia dim V = n. Se W = {0} allora la tesi é vera visto che W é finitamente generato e dim{0} = 0 ≤ dim V = n ⇒ 0 ≤ n che é sempre vero ∀n. Supponiamo quindi W 6= {0} . Allora ∃w1 ∈ W, w1 6= 0. Se W = Span{w1 } allora dim W = 1. Resta da dimostrare che dim V ≥ dim W = 1 ma questo é ovvio perché w1 é linearmente indipendente in V ⇒ dim V ≥ 1. Se invece W 6= Span(w1 ) , ∃w2 ∈ W −Spanw1 . Allora w1 , w2 sono linearmente indipendenti (in W e in V ). Ho quindi trovato 2 vettori linearmente indipendenti : se W = Span{w1 , w2 } allora dim W = 2 e dim V ≥ 2 , altrimenti continuo. Dopo al piú n passi il procedimento termina altrimenti troverei (n + 1) vettori linearmente indipendenti in V , che é assurdo. Rimane da dimostrare che W = V ⇔ dim W = dim V . Supponiamo che dim W = dim V = n. Quindi posso prendere {w1 , . . . , wn } base di W . w1 , . . . wn sono indipendenti in W e quindi anche in V . Dato che sono n vettori indipendenti in V , sono anche una base di V . Dunque V = Span{w1 , . . . , wn } = W Proposizione 5.2.7 (Formula di Grassmann). U, W sottospazi vettoriali di dimensione finita di V . Allora dim(U + W ) = dim U + dim W − dim(U ∩ W ) (5.8) Dimostrazione. Sia dim U = h , dim W = k , dim(U ∩ W ) = s. Sia {z1 , . . . , zs } una base di U ∩ W . Utilizzo l’algoritmo di completamento a base : ∃u1 , . . . , uh−s ∈ U, ∃w1 , . . . , wk−s ∈ W tali che {z1 , . . . , zs , u1 , . . . , uh−s } é base di U {z1 , . . . , zs , w1 , . . . , wk−s } é base diW Per provare il teorema basta provare che {z1 , . . . , zs , u1 , . . . , uh−s , w1 , . . . , wk−s } é una base di U + W . Infatti avrei che dim(U + W ) = h + k − s e visto che questi vettori sono una base per U + W allora seguirebbe la tesi. Passiamo quindi a dimostrare che Sono generatori : Ogni vettore del sottospazio U + W si scrive, per definizione di somma , come u + w dove u ∈ U, w ∈ W . Allora u = Span(u1 , . . . , uh−s , z1 , . . . , zs ), w = Span(w1 , . . . , wk−s , z1 , . . . , zs ) ⇒ u + w = Span(u1 , . . . , uh−s , w1 , . . . , wk−s , z1 , . . . , zs ). 40 CAPITOLO 5. BASI E DIMENSIONE Sono linearmente indipendenti : Sia a1 z1 + . . . + as zs + b1 u1 + . . . + bh−s uh−s + c1 w1 + . . . + ck−s wk−s = 0 {z } | | {z } | {z } z u w dunque z + u + w = 0 ⇒ z + u = −w. Si noti che z ∈ U ∩ W , u ∈ U , w ∈ W . Visto che deve valere l’uguaglianza deve valere −w ∈ U ∩ W . Posso quindi scrivere w = α1 z1 + . . . + αs zs , per cui ho a1 z1 + . . . + as zs + b1 u1 + . . . + bh−s uh−s + α1 z1 + . . . + αs zs = 0 Questa é una combinazione lineare dei vettori della lista {z1 , . . . , zs , u1 , . . . , uh−s } che sappiamo essere una base di U dunque vettori linearmente indipendenti : b1 = . . . = bh−s = 0 Dunque la combinazione lineare iniziale si puó scrivere come a1 z1 + . . . + as zs + c1 w1 + . . . + ck−s wk−s = 0 che é una combinazione lineare nulla della lista {z1 , . . . , zs , w1 , . . . , wk−s } che é una base , quindi a1 = . . . = as = c1 = . . . = ck−s = 0. Capitolo 6 Basi e applicazioni lineari Proposizione 6.0.8. Sia f : V → W lineare. 1. Se v1 , . . . , vm sono linearmente indipendenti e f é iniettiva allora f (v1 ), . . . , f (vm ) sono linearmente indipendenti. 2. Se v1 , . . . , vm generano V , allora f (v1 ), . . . , f (vm ) generano Immf . Dimostrazione. 1. Sia a1 f (v1 ) + . . . + am f (vm ) = 0 ⇒ a1 v1 + . . . + am vm ∈ ker f = {0} ⇒ a1 = . . . = am = 0 per la lineare indipendenza. 2. Devo mostrare che ogni vettore dell’immagine puó essere scritto come combinazione lineare dei f (v1 ), . . . , f (vm ). Sia y = f (x) ∈ Immf, x ∈ V . Dunque x = a1 v1 + . . . + an vn con a1 , . . . , an ∈ K. Dunque ! m m X X y = f (x) = f ai vi = ai f (vi ) (6.1) i=1 i=1 Corollario 6.0.9. Se f : V → W é isomorfismo , f trasforma ogni base di V in una base di W. Teorema 6.0.10 (Formula delle dimensioni). V spazio vettoriale finitamente generato. f : V → W lineare. Allora dim V = dim ker f + dim Immf (6.2) Dimostrazione. Sia dim V = n , dim ker f = k. Sia {v1 , . . . , vk } una base di ker f . La completo a base di V, {v1 , . . . , vk , . . . , vn }. Per le proprietá delle applicazioni lineari si ha che f (v1 ), . . . , f (vn ) generano Immf , ossia f (vk+1 ), . . . , f (vn ) generano Immf . Dimostraimo che f (vk+1 ), . . . , f (vn ) sono anche linearmente indipendenti. P Sia ak+1 f (vk+1 ) + . . . + an f (vn ) = 0 ⇒ f (ak+1 vk+1 + . . . + an vn ) = 0 ⇒ ni=k+1 ai vi ∈ ker f ⇒ ∃a1 , . . . , ak ∈ K tali che n X ai vi = a1 v1 + . . . + ak vk ⇒ a1 v1 + . . . + ak vk − ak+1 vk+1 − . . . − an vn = 0 i=k+1 che é una combinazione lineare nulla dei vettori v1 , . . . , vk , . . . , vn ⇒ ai = 0, ∀i = 1, . . . , n . Dunque {f (vk+1 ), . . . , f (vn )} é una base di Immf cioé dim Immf = n − k = dim V − dim ker f . 41 42 CAPITOLO 6. BASI E APPLICAZIONI LINEARI Osservazione 70. Abbiamo provato che f |Span{vk+1 ,...,vn } é iniettiva. Corollario 6.0.11. f : V → W lineare . Se dim V = dim W allora f é iniettiva ⇔ f é surgettiva. Dunque se f : V → V , f iniettiva ⇔ f surgettiva. Dimostrazione. f é iniettiva⇔ ker f = {0} ⇔ dim V = dim Immf ⇔ dim W = dim Immf ⇔ Immf = W ⇔ f é surgettiva. Corollario 6.0.12. V e W sono isomorfi ⇔ dim V = dim W . Dimostrazione. (⇐) Se dim V = dim W = n allora1 V ' Kn ' W . (⇒) Se ∃f : V → W isomorfismo basta usare la formula delle dimensioni. Osservazione 71. Sia f : V → W isomorfismo. L’applicazione inversa f −1 : W → V tale che f (x) = y é lineare. Infatti ∀y1 , y2 ∈ W siano x1 = f −1 (y1 ) , x2 = f −1 (y2 ) , cioé f (x1 ) = y1 , f (x2 ) = y2 . Dunque f −1 (y1 + y2 ) = f −1 (f (x1 ) + f (x2 )) = f −1 (f (x1 + x2 )) = x1 + x2 = f −1 (y1 ) + f −1 (y2 ) come volevasi dimostrare. Sia λ ∈ K, y ∈ W . Dobbiamo dimostrare che f −1 (λy) = λf −1 (y). Sia x = f −1 (y) , cioé f (x) = y . Allora f −1 (λy) = f −1 (λf (x)) = f −1 (f (λx)) = λx = λf −1 (y) Definizione 6.1 (Gruppo lineare). Si definisce GL(V ) = {f ∈ hom(V, W ) : f isomorfismo} (6.3) Osservazione 72. Considero la composizione ◦ su GL(V ) , ovvero l’operazione definita da ◦ : GL(V )×GL(V ) → GL(V ) che agisce su (f, g) → g ◦ f . Si noti che 1. idV é un isomorfismo ⇒ idV ∈ GL(V ) 2. ∀f, g, h ∈ GL(V ) ⇒ h ◦ (g ◦ f ) = (h ◦ g) ◦ f 3. ∀f ∈ GL(V ) , ∃f −1 ∈ GL(V ) tale che f ◦ f −1 = f −1 ◦ f = idV Osservazione 73. ∀f ∈ GL(V ) , f ◦ idV = idV ◦ f = f . La proprietá (3) dell’osservazione precedente diventa quindi la proprietá di esistenza dell’elemento inverso per GL(V ). Definizione 6.2 (Gruppo). Sia G 6= ∅ un insieme con l’operazione ∗ : G × G → G. (G, ∗) si dice gruppo se 1. ∀g1 , g2 , g3 ∈ G si ha g1 ∗ (g2 ∗ g3 ) = (g1 ∗ g2 ) ∗ g3 . 2. ∃e ∈ G tale che ∀g ∈ G, g ∗ e = e ∗ g = g. 1 Il simbolo ' sta per isomorfismo. 43 3. ∀g ∈ G, ∃g −1 ∈ G tale che g ∗ g −1 = g −1 ∗ g = e 4. ∀g, h ∈ G, g ∗ h = h ∗ g La proprietá (4) é aggiuntiva : se questa viene rispettata si parla di gruppo Abeliano. Dunque (GL(V ), ◦) é un gruppo, detto gruppo lineare. Definizione 6.3 (Isomorfia). Siano V, W K-spazi vettoriali finitamente generati. Dico che V RW ⇔ V e W sono isomorfi. Si noti che R é una relazione di equivalenza! Si puó quindi definire una classe di equivalenza [V ] = {W, K-spazi vettoriali isomorfi a V } Proposizione 6.0.13. V RW ⇔ dim V = dim W . Ovvero la dimensione é un invariante per R. Dimostrazione. (⇒) : Se ϕ : V → W isomorfismo allora dim V = dim ker ϕ + dim Immϕ. | {z } | {z } 0 (⇐) : Viceversa se dim V = dim W = n allora V ' Kn ' W ⇒ V RW . dim W Teorema 6.0.14. V, W , K-spazi vettoriali , dim V = n. Sia {v1 , . . . , vn } base di V e w1 , . . . , wn vettori di W . Allora esiste una ed una sola f : V → W lineare tale che f (v1 ) = w1 , . . . , f (vn ) = wn . Dimostrazione. Si deve dimostrare l’esistenza e l’unicitá della f . Esistenza : Sia v ∈ V . Allora esistono unici a1 , . . . , an ∈ K tali che v = a1 v1 + . . . + an vn . Poniamo quindi f (v) = a1 w1 +. . .+an wn . Devo controllare che questa definizione sia ben posta e che la funzione sia lineare. Si ha f (vi ) = wi , ∀i = 1, . . . , n quindi l’applicazione é ben definita. Inoltre f é lineare ,infatti se v = a1 v1 + . . . + an vn , z = b1 v1 + . . . + bn vn allora v + z = (a1 + b1 )v1 + . . . + (an + bn )vn ⇒ f (v + z) = (a1 + b1 )w1 + . . . + (an + bn )wn ovvero f (v + z) = a1 w1 + . . . + an wn + b1 w1 + . . . + bn wn = f (v) + f (z) | {z } | {z } f (v) f (z) Analogamente si prova che f (λv) = λf (v), ∀λ ∈ K, ∀v ∈ V . Unicitá : Se f é lineare e f (vi ) = wi allora ! n n n X X X f (v) = f ai vi = ai f (vi ) = ai wi = a1 w1 + . . . + an wn i=1 i=1 (6.4) i=1 Ovvero questo é l’unico modo di scrivere l’applicazione di cui si é dimostrata l’esistenza. In altre parole, provando a definire questa applicazione in un altro modo si nota che le due definizioni devono coincidere per le proprietá dell’applicazione stessa, dunque l’applicazione é unica. Proposizione 6.0.15. f : V → W ; g : W → Z lineari. Allora 44 CAPITOLO 6. BASI E APPLICAZIONI LINEARI 1. dim Imm(g ◦ f ) ≤ min{dim Immf, dim Immg} 2. Se f é isomorfismo allora dim Imm(g ◦ f ) = dim Immg. 3. Se g é isomorfismo allora dim Imm(g ◦ f ) = dim Immf . Dimostrazione. Dividiamo le tre dimostrazioni 1. Scriviamo l’uguaglianza Imm(g ◦ f ) = Imm (g|Immf ) per l’osservazione 8. Si tratta quindi di calcolare la dimensione dell’immagine associata ad una sola applicazione , che é lineare. Applichiamo quindi la formula delle dimensioni dim(Imm(g ◦ f )) = dim Imm(g|Immf ) = dim(Immf ) − dim ker(g|Immf ) ≤ dim(Immf ) | {z } ≥0 Inoltre Imm(g ◦ f ) ⊂ Immg ⇒ dim Imm(g ◦ f ) ≤ dim Immg. 2. Se f é isomorfismo allora f (V ) = W quindi Imm(g ◦ f ) = Immg. 3. Se g é isomorfismo allora ker g = {0} quindi dim Imm(g ◦ f ) = dim Immf . Capitolo 7 Rango 7.1 Rango Definizione 7.1 (Rango). Sia f : V → W lineare. Poniamo rk(f ) = dim Immf , rango di f . In particolare se A ∈ M (p, n, K), e dunque A : Kn → Kp , x → Ax , rk(A) = dim ImmA = dim C(A). Vogliamo poter calcolare il rango di una applicazione f e trovare una base dell’immagine di f . Cominciamo dal caso , relativamente piú semplice, delle matrici. Sia A ∈ M (p, n, K) e poniamo R(A) = Span(A1 , . . . , Ap ). Proposizione 7.1.1. Sia S una ridotta a scalini di A. Allora 1. R(A) = R(S). 2. dim C(A) = dim C(S). Dimostrazione. 1. Dato che S ha come righe le combinazioni lineari delle righe di A allora gli spazi generati dalle due matrici sono uguali. 2. I sistemi Ax = 0 e Sx = 0 sono equivalenti , quindi ker A = ker S. Per la formula delle dimensioni allora dim ImmA = dim ImmS ⇒ rk(A) = rk(S). Proposizione 7.1.2. Sia S una matrice a scalini con r pivots nelle colonne S j1 , . . . , S jr . Allora 1. {S1 , . . . , Sr } é una base di R(S). 2. {S j1 , . . . , S jr } é una base di C(S) e dunque rkS = r. Dimostrazione. 1. S1 , . . . , Sr ovviamente generano R(S). Inoltre S1 , . . . , Sr sono linearmente indipendenti : prendendo una combinazione lineare a1 S 1 + . . . + ar S r = 0 dalla prima somma si ottiene un vettore. Consideriamo l’ultima componente non nulla di tale vettore ( che otteniamo dalla sola colonna S r ) : ar pr . Affinché sia uguale a 0 , poiché pr 6= 0 per ipotesi si ottiene ar = 0. Si itera il procedimento, considerando che ora l’ultima componente non nulla é data dalla colonna S r−1 . 45 46 CAPITOLO 7. RANGO 2. La dimostrazione che S j1 , . . . , S jr sono linearmente indipendenti é analoga al caso precedente : bisogna solo ragionare per colonne invece che per righe. Per vedere che S j1 , . . . , S jr generano C(S) = Span{S 1 , . . . , S r } basta far vedere che ∀i 6= j1 , . . . , jr ( ovvero per le colonne non selezionate ) S i ∈ Span(S j1 , . . . , S jr ) , ovvero un elemento fuori dalla lista dei generatori prescelti si puó scrivere come combinazione lineare degli elementi stessi. Voglio quindi mostrare che esistono α1 , . . . , αr ∈ K tali che S i = α1 S j1 + . . . + αr S jr , cioé che il sistema α1 S j1 . . . S jr ... = S i (7.1) αr ha soluzione. Dato che il sistema é giá ridotto a scalini si nota subito che i pivots sono r quindi basta cercare i casi per i quali , aggiungendo la colonna dei termini noti ,S i , non cambiano il numero di pivots. Perché questo succeda occorre che dalla posizione (r + 1)-esima di S i gli elementi siano nulli. Ma questo é sicuramente verificato perché S i é stata ricavata dalla matrice completa del sistema , quindi sotto la posizione r ha tutti elementi nulli. Corollario 7.1.3. Il numero di pivots di una ridotta a scalini S di A non dipende dalle operazioni elementari per riga eseguite. Dimostrazione. numero di pivots= rk(S) = rk(A). Corollario 7.1.4. Per ogni matrice A , dim R(A) = dim C(A) ovvero il rango per righe é equivalente al rango per colonne. Dimostrazione. Sia S una ridotta a scala di A con r pivots . Allora dim R(A) = dim R(S) = r = dim C(S) = dim C(A) Corollario 7.1.5. Per ogni matrice A , rk( t A) = rk(A) Dimostrazione. rk( t A) = dim C( t A) = dim R(A) = dim C(A) = rk(A) Teorema 7.1.6 (di Rouché-Capelli). Il sistema lineare Ax = B é risolubile ⇔ rk(A) = rk(A|B). Dimostrazione. Per l’algoritmo di Gauss Ax = B é equivalente a Sx = T con (S|T ) scalini ed é risolubile ⇔ rk(S) = rk(S|T ). Ma rk(A) = rk(S) e rk(A|B) = rk(S|T ). 7.2. COME TROVARE UNA BASE DELLO SPAZIO DELLE SOLUZIONI DI AX = 0 47 7.2 Come trovare una base dello spazio delle soluzioni di Ax = 0 Sia A ∈ M (p, n, K). Sappiamo che S0 = {x ∈ Kn : Ax = 0} = ker A. Sia r = rkA , questo sará il numero di pivots di una qualsiasi ridotta a scalini di A. Dalla formula delle dimensioni ottengo che dim S0 = dim ker A = n − dim ImmA = n − r Per calcolare una base di S0 basta trovare n − r vettori che generano lo spazio S0 . Sia S una ridotta a scala di A : S ha r pivots. Supponiamo che questi stiano nelle colonne S 1 , . . . , S r . Allora il sistema Ax = 0 é equivalente a Sx = 0 : in seguito si ricavano le variabili corrispondenti alle colonne contenenti i pivots in funzione delle altre : s11 x1 + . . . + s1r xr = −s1,r+1 xr+1 − . . . − s1n xn s22 x2 + . . . + s2r xr = −s2,r+1 xr+1 − . . . − s2n xn .. .. .. .. . . . . srr xr = . . . (7.2) con sij 6= 0 per i = j. Se fisso i valori dei parametri xr+1 , . . . , xn la colonna dei termini noti diventa un vettore numerico. Dunque quando ricavo x1 , . . . , xr trovo una soluzione numerica ed unica. La soluzione sará del tipo Y r+1 = (. . . , 1, 0, . . . , 0) Y r+2 = (. . . , 0, 1, 0, . . . , 0) .. .. .. . . . (7.3) Y n = (. . . , 0, 0, . . . , 1) Questi vettori sono ovviamente linearmente indipendenti e sono n − r dunque formano una base di S0 . 7.3 Matrici invertibili e gruppo lineare Abbiamo giá detto che M (n, K) é un anello ma non un campo. Definizione 7.2 (Matrice invertibile). A ∈ M (n, K) si dice invertibile se ∃B ∈ M (n, K) tale che AB = BA = I dove I é l’elemento neutro nell’anello per il prodotto. Se B esiste é unica e viene detta inversa di A, B = A−1 . Osservazione 74. 0 1 0 0 (7.4) 0 1 x y 1 0 6= , ∀x, y, z, t 0 0 z t 0 1 (7.5) non é invertibile perché 48 CAPITOLO 7. RANGO Definizione 7.3 (Gruppo lineare). Denotiamo con GL(n, K) = {A ∈ M (n, K) : A é invertibile} Osservazione 75. Se A, B ∈ GL(n, K) ⇒ AB ∈ GL(n, K). Infatti A, B ∈ GL(n, K) ⇒ ∃A−1 , B −1 ⇒ (AB)(B −1 A−1 ) = A(BB −1 )A−1 = AIA−1 = I e dunque (AB)−1 = B −1 A−1 Osservazione 76. A ∈ GL(n) ⇒ A−1 é invertibile e (A−1 )−1 = A. Infatti (A−1 )A = AA−1 = I. Osservazione 77. (GL(n, K), ·) é un gruppo , detto gruppo lineare, infatti vale la proprietá associativa per il prodotto I é l’elemento neutro e∈ GL(n, K) . I−1 = I. Ogni elemento dell’insieme possiede un inverso per quanto detto prima. Osservazione 78. A ∈ GL(n) , A−1 A = I posso interpretarla in termini di applicazioni lineari : A A−1 Kn − → Kn −−→ Kn Questo é equivalente a dire che A é bigettiva , ossia é un isomorfismo. Le matrici invertibili sono dunque isomorfismi in Kn . Proposizione 7.3.1. Sono fatti equivalenti 1. A invertibile⇒ A ∈ GL(n, K) 2. A isomorfismo 3. dim ImmA = n = rkA. Osservazione 79. v1 , . . . , vk ∈ Rn . La dimensione di Span(v1 , . . . , vk ) si puó calcolare utilizzando gli ultimi metodi studiati. Costruisco quindi la matrice A = v1 . . . vk (7.6) Poiché Span(v1 , . . . , vk ) = C(A) si tratta di calcolare rkA. Osservazione 80. Se S é una ridotta a scalini di A allora dim C(A) = dim C(S) ma C(A) 6= C(S) in generale. Per trovare una base non conviene quindi ridurre a scalini. Definizione 7.4 (Matrice elementare). Si chiama matrice elementare ogni matrice che si ottiene dalla matrice identitá con un’operazione elementare per righe. I tipi di matrici elementari sono principalmente 3 : 1. Eij ottenuta scambiando Ii , Ij 2. Ei (α) ottenuta moltiplicando Ii per α 6= 0. 7.3. MATRICI INVERTIBILI E GRUPPO LINEARE 49 3. Eij (α) sommando a Ii α volte Ij . Osservazione 81. Se B é la matrice ottenuta da A con una operazione elementare per riga , allora B coincide con la matrice ottenuta moltiplicando A a sinistra per la matric elementare corrispondente a quella operazione elementare. Osservazione 82. (Eij )−1 = Eij ; (Ei (α))−1 = Ei (α−1 ) ; (Eij (α))−1 = Eij (−α) Osservazione 83. f : V → W isomorfismo , B = {v1 , . . . , vn } base di V . Dunque f (v1 ), . . . , f (vn ) sono linearmente indipendenti e sono generatori dell’immagine ⇒ {f (v1 ), . . . , f (vn )} é una base di W . Dunque un isomorfismo trasforma basi in basi. Osservazione 84. L’algoritmo di Gauss puó essere rivisto con questi ultimi risultati. In effetti questo puó essere interpretato come una moltiplicazione a sinistra per un numero n di matrici elementari. A E1 A E2 E1 A . . . En . . . E1 A = S | {z } M M é invertibile perché é il prodotto di matrici invertibili. Dunque se M é invertibile allora é un isomorfismo da Kp a Kp . Dato che M A = S allora rkS = dim ImmS = dim Imm(M A) = dim ImmA = rkA Inoltre ImmS = M (ImmA) . Ma noi conosciamo una base di ImmS che sono le colonne contenenti i pivots della matrice S ⇒ {S j1 , . . . , S jr } é una base di ImmS. Dato che M é un isomorfismo trasforma basi in basi , una base di ImmA é data da M −1 ImmS ⇒ {M −1 (S j1 ), . . . , M −1 (S jr )} é una base di ImmA. Ma osservando la moltiplicazione M −1 S si nota che M −1 (S j1 ) = Aj1 dunque una base di ImmA é data da {M −1 (S j1 ) = Aj1 , . . . , M −1 (S jr ) = Ajr } Proposizione 7.3.2. Se {S j1 , . . . , S jr } sono le colonne che contengono i pivots di una ridotta a scala di A ,allora {Aj1 , . . . , Ajr } sono una base di ImmA. Osservazione 85. Sia v1 , . . . , vm un insieme indipendente di Kn . Per completarlo a base costruisco A = v1 . . . vm e1 . . . en . Riducendo a scalini troveró n pivots :i primi m nelle prime m colonne. Prendo le colonne che contengono i pivots. Osservazione 86. Dati dei vettori v1 , . . . , vk ∈ Kn trovare una base dello spazio che essi generano. Sia A = v1 . . . vk allora Span(v1 , . . . , vk ) = C(A). Riduciamo a scalini A , trovando la matrice S. Se S j1 , . . . , S jr sono le colonne contenenti i pivots , allora {vj1 , . . . , vjr } sono una base di Span(v1 , . . . , vk ). 50 7.4 CAPITOLO 7. RANGO Calcolo dell’inversa Sia A ∈ M (n, K). So che A é invertibile⇔ rk(A) = n. Cerchiamo prima un’inversa destra, ovvero una matrice x ∈ M (n) tale che Ax = I , ossia A x1 . . . xn = I ⇒ Ax1 Ax2 . . . Axn = I1 . . . In (7.7) Per imporre l’uguaglianza tra questi matrici bisogna imporre 1 1 Ax = I .. .. . . Axn = In (7.8) che sono sistemi lineari n × n. Si noti , peró , che la matrice dei coefficienti é A , per ogni sistema ; le uniche cose che cambiano sono la colonna delle incognite e la colonna dei termini noti. Dunque le operazioni elementari necessarie per trasformare la matrice A in una matrice a scalini sono le stesse per ogni sistema visto che la matrice A é sempre la stessa. Posso quindi ridurre a scalini direttamente la matrice completa del sistema AI . Dopo aver ridotto a scala A si potrá controllare se i pivots sono n , cioé se A é invertibile : ma si puó fare anche di piú! In effetti si puó continuare la riduzione a scala applicando l’algoritmo di Gauss al contrario in modo da ottenere una matrice diagonale. In seguito si puó moltiplicare ogni pivots della matrice A diagonalizzata per il suo inverso (operazione dato che ci troviamo lecita in un anello ) ottenendo l’identitá da A. Si otterrá quindi IB . Le colonne di B cosı́ ottenute rappresentano quindi le soluzioni x1 , . . . , xn visto che Ix1 = x1 , . . . , Ixn = xn ⇒ B = (x1 , . . . , xn ) =inversa destra. Resta da vedere se questa inversa coincide anche con l’inversa sinistra. Poiché sono passato da (A|I) a (I|B) con operazioni elementari per riga , allora IB = M AI = M AM Se deve valere l’uguaglianza tra due matrici allora M A = I ; M = B e quindi BA = I. Vogliamo ora generalizzare questo metodo a spazi qualsiasi, ad esempio lo spazio dei polinomi. 7.5 Rappresentazione matriciale di una applicazione lineare Sia f : V → W lineare . Siano inoltre S = {v1 , . . . , vn } base di V e R = {w1 , . . . , wm } base di W . La matrice di M (m, n, K) ! (7.9) A ≡ m(f )S,R = [f (v1 )]R . . . [f (vn )]R si chiama matrice associata ad f rispetto alla base S ed R. Vediamo perché questa definizione risulta utile. Sia v ∈ V ⇒ v = x1 v1 + . . . + xn vn ⇒ f (v) = x1 f (v1 ) + . . . + xn f (vn ) = x1 (a11 w1 + . . . + am1 wm ) + . . . + xn (a1n w1 + . . . + amn wm ) = (a11 x1 + . . . + a1n xn )w1 + . . . + (am1 x1 + . . . + amn xn )wm ovvero x1 a11 x1 + . . . + a1n xn .. . . [f (v)]R = (7.10) = A . = A[v]S . am1 x1 + . . . + amn xn xn 7.5. RAPPRESENTAZIONE MATRICIALE DI UNA APPLICAZIONE LINEARE 51 Ovvero [f (v)]R = A[v]S Dunque A é univocamente fissata da questa relazione. Teorema 7.5.1. dim V = n, dim W = m. Sia S = {v1 , . . . , vn } base di V e R base di W . Allora l’applicazione mS,R : hom(V, W ) → M (m, n, K) definita da f → m(f )S,R é un isomorfismo. Dimostrazione. Si verifica facilmente che é lineare, infatti bisogna far vedere che ∀f, g ∈ hom(V, W ) allora m(f + g)S,R = m(f )S,R + m(g)S,R mS,R é iniettiva : infatti se f ∈ ker(mS,R ) , ossia mS,R (f ) = 0 , allora f (v1 ) = . . . = f (vn ) = 0 ⇒ f (v) = 0 allora mS,R é iniettiva perché l’unica applicazione che sta nel nucleo é l’applicazione nulla. mS,R é surgettiva : ∀A ∈ M (m, n), ∃!f : V → W lineare tale che [f (v1 )]R = A1 , . . . , [f (vn )]R = An . Allora m(f )S,R = A. Corollario 7.5.2. dim hom(V, W ) = n · m Dimostrazione. Siccome é un isomorfismo allora dim ker(mS,R ) = 0 ⇒ dim hom(V, W ) = dim(M (m, n)) = m · n. Proposizione 7.5.3 (Matrice della composizione). f g US − → VT → − WR Se m(f )S,T = A e m(g)T ,R = B allora m(g ◦ f )S,R = BA. Dimostrazione. ∀u ∈ U si ha [(g ◦ f )(u)]R = [g(f (u))]R = B[f (u)]T = BA[u]S Proposizione 7.5.4. f : V → W lineare , A = m(f )S,T . Allora rkf = rkA. Dimostrazione. Sia S = {v1 , . . . , vn }. Allora Immf = Span(f (v1 ), . . . , f (vn )). Inoltre [f (v1 )]T = A1 , . . . , [f (vn )]T = An . Se ϕ = [·]T : W → Km é l’isomorfismo indotto dalla base T , allora ϕ(Immf ) = C(A) = ImmA per cui dim Immf = dim ImmA, ovvero rkf = rkA. Corollario 7.5.5. Se {Aj1 , . . . , Ajr } sono una base di ImmA , allora {f (vj1 ), . . . , f (vjr )} sono una base di Immf . Corollario 7.5.6. f : V → W lineare , dim V = dim W = n. Allora f é un isomorfismo⇔ A = m(f )S,T é invertibile⇔ rk(A) = n. Dimostrazione. Si noti che f é isomorfismo⇔ rk(f ) = n ⇔ rk(A) = n ⇔ A é invertibile. 52 CAPITOLO 7. RANGO 7.6 Matrice del cambiamento di base id Prendiamo VS −→ VT . Allora ∀v ∈ V ⇒ [Iv]T = [v]T = N [v]S quindi N é la matrice che lega N le coordinate di V rispetto a basi diverse. N é la matrice del cambiamento di base. Osservazione 87. Se N é la matrice del cambiamento di base da S a T , la matrice del cambiamento di base a T a S é N −1 . Infatti id id N M VS −→ VT −→ VS Osservazione 88. f f Prendiamo VS − → WT e VS 0 −→ WT 0 . 0 A A M N = I ⇒ M = N −1 , Ci chiediamo che legame sussiste tra A ed A0 . Consideriamo il diagramma commutativo f VS −−−−→ WT A x N id M yid (7.11) f VS 0 −−−− → WT 0 0 A allora A0 = M AN . Definizione 7.5 (SD-equivalenza). Siano A, B ∈ M (p, n). Diciamo che A e B sono SDequivalenti ( e scriviamo A ≡ B) ⇔ ∃M ∈ GL(p), ∃N ∈ GL(n) tali che B = M AN . Osservazione 89. 1. ≡ é una relazione di equivalenza. 2. Se A ≡ B ⇒ rk(A) = rk(B). 3. Interpretando M ed N come matrici di cambiamento di base , A ≡ B ⇔ A, B rappresentano la stessa applicazione rispetto a basi diverse. Proposizione 7.6.1. f : V → W lineare , dim V = n , dim W = p. Allora esiste una base S di V ed esiste una base T di W tali che Ir 0 mS,T (f ) = (7.12) 0 0 dove r = dim Immf . Dimostrazione. dim ker f = n−r. Sia {vr+1 , . . . , vn } una base di ker f . Sia S = {v1 , . . . , vr , vr+1 , . . . , vn } una base di V che contiene i vettori {vr+1 , . . . , vn }. Data la forma della matrice associata ad f il primo vettore della base sará 1 0 f (v1 ) = . .. 0 7.7. ULTERIORE CARATTERIZZAZIONE DEL RANGO 53 Quindi {f (v1 ), . . . , f (vr )} sono generatori di Immf . Inoltre sono una base perché la lineare indipendenza é garantita dal fatto che dim Immf = r. Posso completare questo insieme a T = {f (v1 ), . . . , f (vr ), wr+1 , . . . , wp } base di W . Allora S, T verificano la tesi. Corollario 7.6.2. Se rkA = r allora A≡ Ir 0 0 0 (7.13) Teorema 7.6.3. A ≡ B ⇔ rkA = rkB ovvero il rango é un invariante completo per SDequivalenza. Dimostrazione. (⇒) : giá visto (⇐) : Se rk(A) = rk(B) = r allora A≡ 7.7 Ir 0 0 0 ≡B Ulteriore caratterizzazione del rango Se A ∈ M (p, n) denotiamo con (Ai1 , . . . , Aim |Aj1 , . . . , Ajq ) la sottomatrice ottenuta da A scegliendo gli elementi sulle righe Ai1 , . . . , Aim e nelle colonne Aj1 , . . . , Ajq . Definizione 7.6 (Minori). Le sottomatrici quadrate sono dette minori. Proposizione 7.7.1. Sia A ∈ M (p, n) e sia B un minore di A di ordine q , invertibile. Allora le righe ( e le colonne ) che concorrono a formare B, ovvero le righe della matrice originaria da cui si estratto il minore , sono linearmente indipendenti. Dimostrazione. Sia B = (Ai1 , . . . , Aiq |Aj1 , . . . , Ajq ) . Bisogna mostrare che Ai1 , . . . , Aiq sono linearmente indipendenti. α1 Ai1 + . . . + αq Aiq = 0 , anche α1 B1 + . . . + αq Bq = 0. Ma le righe di B sono linearmente indipendenti perché rk(B) = q. Dunque α1 = . . . = αq = 0. Teorema 7.7.2. Il rango di una matrice é uguale al massimo degli ordini dei suoi minori invertibili. Dimostrazione. Sia A ∈ M (p, n). Sia ρ il massimo degli ordini dei minori invertibili di A. Sia r = rk(A). Vogliamo provare che ρ = r. Sia B un minore di A di ordine ρ invertibile. Allora, per la proposizione (7.7.1) , esistono in A ρ righe indipendenti , quindi rk(A) ≥ ρ ossia r ≥ ρ. Siano Ai1 , . . . , Air , r righe indipendenti di A. Allora la sottomatrice r × n data da B = (Ai1 , . . . , Air |A1 , . . . , An ) ha rango (per righe) r. Ma allora anche il rango per colonne é r , ovvero esistono in B , r colonne B j1 , . . . , B jr linearmente indipendenti. Allora la sottomatrice (B1 , . . . , Br |B j1 , . . . , B jr ) ha rango r visto che B j1 , . . . , B jr sono linearmente indipendenti. Questa matrice é un minore di A ed ha rango r, dunque ρ ≥ r. Quindi deve valere contemporaneamente ρ ≥ r e ρ ≤ r ovvero ρ = r , come volevasi dimostrare. 54 CAPITOLO 7. RANGO Capitolo 8 Determinante 8.1 Esistenza ed unicitá del determinante Teorema 8.1.1. ∀n ≥ 1, ∃! funzione D : M (n, K) → K tale che 1. D é lineare in ogni riga , cioé ∀i = 1, . . . , n D(A1 , . . . , λB + µC, . . . , An ) = λD(A1 , . . . , B, . . . , An ) + µD(A1 , . . . , C, . . . , An ) 2. Se A ha due righe uguali , D(A) = 0. 3. D(In ) = 1. Vediamo che nel caso n = 2 una funzione siffatta si puó definire semplicemente come D : M (2, 2) → K a11 a12 → a11 a22 − a12 a21 a21 a22 Vediamo che sono verificate le tre proprietá 1. D é lineare nella prima riga ( e seconda riga ) , ovvero λB + µC b1 b2 c1 c2 D = λD + µD a21 a22 a21 a22 a21 a22 (8.1) con B = (b1 , b2 ) C = (c1 , c2 ). Verifichiamo quindi la proprietá λb1 + µc1 λb2 + µc2 D = a21 a22 = a22 (λb1 + µc1 ) − a21 (λb2 + µc2 ) = λ(b1 a22 − a21 b2 ) + µ(c1 a22 − c2 a21 ) b1 b2 c1 c2 = λD + µD a21 a22 a21 a22 a a 1 3. D 0 2. D b b 0 1 = ab − ba = 0 =1 55 (8.2) 56 CAPITOLO 8. DETERMINANTE 8.1.1 Dimostrazione del teorema (8.1.1) Unicitá Vogliamo verificare che se c’é una funzione che rispetta le proprietá enunciate nel teorema (8.1.1) allora essa soddisfa anche altre proprietá deducibili da queste tre , che ora elenchiamo. 1. Se A ha una riga nulla allora D(A) = 0. Dim: Se Ai = 0 allora A = (A1 , . . . , 0 · B, . . . , An ) dove B é una qualsiasi riga possibile. Utilizzando ora la (1) del (8.1.1) segue la tesi 2. D(. . . , Ai , . . . , Aj , . . .) = −D(. . . , Aj , . . . , Ai , . . .) Dim: 0 = D(. . . , Ai +Aj , . . . , Ai + Aj , . . .) = D(. . . , Ai , . . . , Ai , . . .) + D(. . . , Ai , . . . , Aj , . . .) + D(. . . , Aj , . . . , Ai , . . .) + D(. . . , Aj , . . . , Aj , . . .) = D(. . . , Ai , . . . , Aj , . . .) + D(. . . , Aj , . . . , Ai , . . .) = 0 dove le uguaglianze derivano tutte dalle proprietá del teorema (8.1.1). 3. Se B é ottenuta da A sommando ad una riga una combinazione Plineare delle altre righe allora D(B) = D(A). Dim: Supponiamo che B1 = A1 + ni=2 αi Ai . Allora D(B) = D(A1 + n X αi Ai , A2 , . . . , An ) = D(A) + 2 n X αi D(Ai , A2 , . . . , An ) i=2 ∀i in questa matrice ci sono due righe uguali dunque D(B) = D(A). 4. Se le righe di A sono linearmente dipendenti allora D(A) Pn = 0. Dim: Esiste almeno una riga, ad esempio A1 , che si puó scrivere come i=2 αi Ai . Allora n n X X D(A) = D( αi Ai , A2 , . . . , An ) = αi D(Ai , A2 , . . . , An ) = 0 2 i=2 5. Se A é diagonale con [A]ii = ai , ∀i = 1, . . . , n allora D(A) = a1 · . . . · an . Dim: D(A) = D(a1 (1, . . . , 0) + a2 (0, 1, 0, . . . , 0) + . . .) = a1 · . . . · an · D(In ) = a1 · . . . · an . Supponiamo che D sia una funzione con le proprietá del teorema (8.1.1) . Vediamo che allora D é univocamente individuata e quindi che al massimo esiste una tale funzione. Sia S una matrice a scalini ottenuta da A attraverso operazioni del primo e del terzo tipo. Abbiamo visto che le prime cambiano il segno di D mentre le seconde lo lasciano inalterato. Quindi D(A) = (−1)m D(S) dove m é il numero di scambi di riga eseguiti. Dimostriamo che quest’ultima formula soddisfa le proprietá del teorema (8.1.1). Ci sono due casi 1. S ha una riga nulla, quindi D(S) = 0 e anche D(A) = 0. 2. S ha n pivots p1 , . . . , pn . Con sole operazioni del terzo tipo per riga ( che non alterano D ) riportiamo S alla forma diagonale su cui D vale p1 · . . . · pn . Allora D(A) = (−1)m p1 · . . . pn . Quindi la funzione assume solo dei valori fissati ed é quindi univocamente determinata : abbiamo provato l’unicitá di D. Corollario 8.1.2. Se D é una funzione che verifica le proprietá del teorema (8.1.1) allora D(A) = 0 ⇔ le righe di A sono linearmente dipendenti. 8.2. PROPRIETÁ AGGIUNTIVE DEL DETERMINANTE 57 Dimostrazione. (⇐) : é stato giá provato (⇒) : Se le righe Q di A fossero indipendenti ogni ridotta a scalini di S avrebbe n pivots quindi D(S) = i pi 6= 0 e dunque D(A) 6= 0. Esistenza Si consideri la funzione Dn : M (n, K) → K definita da n = 1 : D1 (a) = a. a b = ad − bc . n = 2 : D2 c d n≥2: Dn (A) = n X (−1)i+1 [A]i1 Dn−1 (Ai1 ) (8.3) i=1 dove Ai1 é la sottomatrice di A ottenuta da A cancellando la riga Ai e la colonna A1 . É una funzione definita ricorsivamente. L’espressione Dn (A) é detto sviluppo di Laplace secondo la prima colonna. Si dovrebbe ora verificare che la funzione cosı́ definita soddisfa gli assioni del teorema (8.1.1). 8.2 Proprietá aggiuntive del determinante Osservazione 90. Anche lo sviluppo di Laplace secondo una colonna Aj verifica le proprietá del teorema (8.1.1). Dato che la funzione é unica allora il determinante é uguale, ovvero lo sviluppo di Laplace su qualsiasi colonna é lo stesso in virtú dell’unicitá . Osservazione 91. In generale det(A + B) 6= det(A) + det(B) quindi det : M (n, K) → K non é lineare. Inoltre dalla definizione segue det(λA) = λn det(A). Teorema 8.2.1 (di Binet). ∀A, B ∈ M (n, K) ⇒ det(AB) = det(A) · det(B) Dimostrazione. Dividiamo la dimostrazione in due casi: Se det B = 0 ⇒ rk(A · B) ≤ rk(B) < n e dunque A · B non é invertibile, ovvero det(AB) = 0. Se det B 6= 0 consideriamo la funzione f : M (n, K) → K definita da f (A) = det(AB) det(B) e verifichiamo che questa soddisfa le proprietá del teorema (8.1.1) : questo ci garantirá che é l’unica e che quindi é la funzione cercata , ovvero det(A). 1. f é lineare nelle righe, infatti se una riga di A é combinazione lineare di due righe lo stesso vale anche per A · B e quindi basta sfruttare che det é lineare nelle righe di A · B. 2. Se A ha due righe uguali , anche A · B ce le ha e quindi det(AB) = 0. 3. f (I) = det(B) det(B) = 1. 58 CAPITOLO 8. DETERMINANTE Corollario 8.2.2. Se A é invertibile allora det(A · A−1 ) = det I = det(A) · det(A−1 ) ⇒ det A−1 = 1 det(A) Osservazione 92. Consideriamo lo sviluppo di Laplace secondo la prima riga di A. n X (−1)i+1 [A]1i det(A1i ) = i=1 = n X i=1 n X (−1)i+1 [ t A]i1 det( t (A1i )) (8.4) i+1 t (−1) t t [ A]i1 det( Ai1 ) = det( A) = det(A) i=1 Se si considera poi la rige i-esima, invece della prima, si conclude che si puó fare lo sviluppo di Laplace sulla riga che si preferisce. Proposizione 8.2.3 (Regola di Cramer). Ax = B sistema lineare quadrato con det(A) 6= 0. Allora la sua unica soluzione é (y1 , . . . , yn ) dove yi = det B(i) det A con B(i) = (A1 , . . . , B |{z} , . . . , An ) postoiesimo Dimostrazione. (y1 , . . . , yn ) é soluzione di Ax = B ⇔ y1 A1 + . . . + yn An = B. Allora n n X X det B(i) = det A1 , . . . , yj Aj , . . . , An = yj det(A1 , . . . , Aj , . . . , An ) = yi det(A) j=1 j=1 (8.5) poiché det(A) 6= 0 ⇒ yi = 8.2.1 det B(i) det A Calcolo dell’inversa Se A é invertibile allora la matrice B definita da [B]ij = (−1)i+j det Aji det A é l’inversa di A. Dimostrazione. Verifichiamo che AB = I. n n X X det Aki [AB]hk = [A]hi [B]ik = [A]hi (−1)i+k det A i=1 (8.6) i=1 Se h = k allora n [AB]hh = 1 X det A [A]hi (−1)i+h det(Ahi ) = =1 det A det A i=1 Infatti la formula precedente é lo sviluppo di Laplace secondo la riga h-esima , quindi é uguale a det A. Se h 6= k il numeratore é lo sviluppo secondo la riga k-esima di una matrice ottenuta da A sostituendo ad Ak la riga Ah e che quindi ha due righe uguali , quindi det A0 = 0 ⇒ [AB]hk = 0 per h 6= k. Inoltre BA = A−1 ABA = A−1 A = I. 8.3. RISOLUZIONE DI SISTEMI 8.3 59 Risoluzione di sistemi Consideriamo il sistema lineare Ax = B, A ∈ M (p, n). Questo sistema é risolubile ⇔ rk(A) = rk(A|B). Posso controllare la risolubilitá utilizzando il determinante. Supponiamo che rk(A) = r = rk(A|B). Se rk(A) = r esiste nella matrice A un minore M , r × r , invertibile. Allora le equazioni che entrano in M , ovvero le righe della matrice completa che formano M sono linearmente indipendenti. Lo spazio generato dalle righe di (A|B) ha dimensione r : prendendo quindi una riga esterna ad M questa sará combinazione lineare delle righe che concorrono a formare M . Il sistema Ax = B é allora equivalente al sistema ottenuto eliminando le righe di (A|B) che non concorrono a formare M . Si ottiene quindi una matrice rettangolare che ha minore M : posso portare gli altri minori che non formano M nel termine noto. In questo modo la matrice dei coefficienti del sistema diviene M ed abbiamo ottenuto un sistema quadrato dove si puó applicare Cramer. Definizione 8.1 (Minori orlati). Si ottengono aggiungendo ad un minore di una matrice una riga ed una colonna qualsiasi della matrice. Proposizione 8.3.1 (Criterio dei minori orlati). Sia B un minore di ordine r di A con det B 6= 0. Se tutti i minori orlati di B hanno determinante nullo allora rk(A) = r. 60 CAPITOLO 8. DETERMINANTE Capitolo 9 Endomorfismi Definizione 9.1 (Endomorfismi). Si definisce endomorfismo End(V ) = hom(V, V ). Sia S base di V , A = mS (f ). Se T é un’altra base e M = mT ,S (id) allora M −1 = mS,T (id). Dunque mT (f ) = M −1 AM Definizione 9.2 (f diagonalizzabile). f é detta diagonalizzabile ⇔ ∃ base B tale che mB (f ) é diagonale. Definizione 9.3 (Autovettore ed autovalore). 1. v ∈ V si dice autovettore per f se v 6= 0 e ∃λ ∈ K tale che f (v) = λv. 2. λ ∈ K si dice autovalore per f se ∃v 6= 0 tale che f (v) = λv. Se B = {v1 , . . . , vn } é una base di λ1 0 mB (f ) = . .. 0 autovettori , 0 λ2 .. . ... ... .. . 0 0 .. . ⇔ f (vi ) = λi vi , ∀i (9.1) . . . . . . λn Osservazione 93. Se v é autovettore per f , f (Span(v)) ⊂ Span(v) Se λ 6= 0 , f (Span(v)) = Span(v). Se λ = 0 , f (Span(v)) = {0}. Osservazione 94. L’autovalore relativo ad un autovettore é univocamente determinato. Infatti se fosse , per assurdo , che f (v) = λv = µv allora sarebbe (λ − µ)v = 0 e per la definizione di autovettore seguirebbe λ = µ che é assurdo. Osservazione 95. v é autovettore relativo a 0 ⇔ v ∈ ker f , quindi 0 é autovalore ⇔ f non é iniettiva. Definizione 9.4 (Autospazio). Poniamo V (λ) = {v ∈ V : f (v) = λv}. Allora 1. V (λ) = ker(f − λ id) ⇒ V (λ) é sottospazio perché f − λ id é lineare. 61 62 CAPITOLO 9. ENDOMORFISMI 2. λ é autovalore ⇔ dim V (λ) ≥ 1. In tal caso V (λ) = {0} ∪ { autovettori relativi a λ}. e V (λ) é detto autospazio relativo a λ. Osservazione 96. Le nozioni precedenti si applicano anche a A : Kn → Kn , x → Ax dove A ∈ M (n, K). Ricordiamo che mT (A) = A. Quindi A é diagonalizzabile ⇔ ∃ base B tale che mB (A) = D ossia ⇔ M −1 AM = D con M = mB,T (id). Definizione 9.5 (Matrici simili). A, B ∈ M (n, K) si dicono simili se ∃M ∈ GL(n, K) tale che B = M −1 AM ( e si scrive A ∼ B).Dunque una matrice é diagonalizzabile se é simile ad una matrice diagonale. Osservazione 97. 1. La similitudine é una relazione di equivalenza. 2. A ∼ B ⇒ A ≡ B e quindi rk(A) = rk(B) e M é isomorfismo. 3. A ∼ B ⇒ det(A) = det(B). Infatti det B = det(M −1 ) det A det M = det A. Dunque rango e determinante sono invarianti di similitudine ma NON un sistema completo di invarianti. Proposizione 9.0.2. Sia A ∼ B e sia λ autovalore per A. Allora 1. λ é autovalore per B 2. dim V (λ, A) = dim V (λ, B) Dimostrazione. Per ipotesi ∃M ∈ GL(n, K) tale che B = M −1 AM ed ∃x 6= 0 tale che Ax = λx . Devo provare che BY = λY . Sia Y = M −1 x. Allora Y 6= 0 (infatti M é isomorfismo , quindi M −1 é isomorfismo e quindi manda x 6= 0 in M −1 x 6= 0) e BY = M −1 AM M −1 x = M −1 Ax = λM −1 x = λY Inoltre ∀x ∈ V (λ, A), M −1 x ∈ V (λ, B) ovvero M −1 (V (λ, A)) ⊂ V (λ, B) e quindi V (λ, A) ⊂ M (V (λ, B)). Analogamente si vede che M (V (λ, B)) ⊂ V (λ, A). Ma quindi deve valere che M (V (λ, B)) = V (λ, A) , ovvero M trasforma gli autospazi del primo endomorfismo in autospazi del secondo endomorfismo. Visto che M é un isomorfismo segue subito che dim V (λ, B) = dim V (λ, A). Osservazione 98. Dunque gli autovalori e le dimensioni degli autospazi sono altri invarianti per similitudine. Proposizione 9.0.3. Sia f ∼ g. Allora1 1. Se λ é autovalore per f , λ é autovalore per g. 2. dim Vλ (f ) = dim Vλ (g) Dimostrazione. Sia B base di V , A = mB (f ), B = mB (g). Allora A ∼ B. Dunque λ autovalore per f ⇒ λ autovalore per A ⇒ λ autovalore per B ⇒ λ autovalore per g. Inoltre dim Vλ (f ) = dim Vλ (A) = dim Vλ (B) = dim Vλ (g) per la proposizione (9.0.2). 1 Da ora in avanti si utilizzerá anche la notazione equivalente V (λ, f ) = Vλ (f ). 9.1. CALCOLO DI AUTOVALORI E AUTOSPAZI 9.1 63 Calcolo di autovalori e autospazi Osservazione 99. λ é autovalore per A ⇔ ∃x 6= 0 tale che Ax = λx ⇔ ∃x 6= 0 tale che (A − λI)x = 0 ⇔ x ∈ ker(A − λI ⇔ det(A − λI) = 0 Definizione 9.6 (Polinomio Caratteristico). Il polinomio pA (t) = det(A − tI) é detto polinomio caratteristico di A. Dunque λ é autovalore per A ⇔ pA (λ) = 0 Proposizione 9.1.1. Se A ∼ B allora pA (t) = pB (t) Dimostrazione. Se A ∼ B ⇒ B = M −1 AM , quindi pB (t) = det(B − tI) = det(M −1 AM − tI) = det(M −1 (A − tI)M ) = det(A − tI) = pA (t) per Binet. Osservazione 100. Sia f ∈ End(V ). Allora pf (t) = det(A − tI) , dove A é una qualsiasi matrice associata ad f . Proposizione 9.1.2. Il polinomio caratteristico é un invariante di similitudine in End(V ). Dimostrazione. Se f ∼ g e B é una base di V allora mB (f ) ∼ mB (g) e quindi pf (t) = pg (t) per la proposizione precedente. Osservazione 101. Se due matrici hanno lo stesso polinomio caratteristico pA (t) = pB (t) allora 1. hanno gli stessi autovalori 2. det(A) = det(B) perché il determinante é il termine noto del polinomio caratteristico. Inoltre le colonne di A e B generano spazi di dimensione uguale, ovvero rk(A) = rk(B). Infatti rk(A) = dim Imm(A) = n − dim ker(A) = n − dim V0 (A). Quindi gli invarianti di similitudine sono polinomio caratteristico dimensione degli autospazi Definizione 9.7 (Molteplicitá algebrica e geometrica). Sia λ autovalore per f 1. Si chiama molteplicitá algebrica di λ la sua molteplicitá µa (λ) come radice del polinomio caratteristico pf (t). 2. Si chiama molteplicitá geometrica di λ la dimensione dell’autospazio , ovvero µg (λ) = dim Vλ (f ) = n − rk(A − λI). Osservazione 102. Il determinante delle matrici triangolari a blocchi si puó calcolare semplicemente come A B = det A · det C det (9.2) 0 C con A e C quadrate. Proposizione 9.1.3. dim Vλ (f ) = µg (λ) ≤ µa (λ) 64 CAPITOLO 9. ENDOMORFISMI Dimostrazione. Sia d = dim Vλ (f ) , sia A = mB (f ). Sia {v1 , . . . , vd } una base di Vλ (f ) che completiamo ad una base B di V . La matrice associata ad f nella base B sará quindi del tipo λI M (9.3) 0 N Allora pA (t) = det (λ − t)I M 0 N −t = (λ − t)d · det(N − tI) (9.4) Da cui pf (t) = det(A − tI) = (λ − t)d pN (t) ⇒ µa (λ) ≥ d (9.5) Definizione 9.8. A ∈ M (n, K) si dice diagonalizzabile se A é simile ad una matrice diagonale. Osservazione 103. f ∈ End(V ) , B base di V . Allora f é diagonalizzabile ⇔ mB (f ) é diagonalizzabile. Proposizione 9.1.4. f ∈ End(V ) , v1 , . . . , vk autovettori relativi agli autovalori λ1 , . . . , λk . Se i λi sono a due a due distinti allora v1 , . . . , vk sono linearmente indipendenti. Dimostrazione. Si prova per induzione su k. Se k = 1 abbiamo un solo autovettore relativo ad un solo autovalore che é ovviamente linearmente indipendente visto che é diverso da 0. Sia k ≥ 2. Prendo c1 v1 + . . . + ck vk = 0 (9.6) se due vettori sono uguali lo sono anche le loro immagini tramite f . Applico quindi f ottenenendo c1 λ1 v1 + . . . + ck λk vk = 0 . Moltiplicando la 9.6 per λ1 si ottiene c1 λ1 v1 + . . . + ck λ1 vk = 0 (9.7) Sottraendo queste ultime due equazioni si ottiene c2 (λ2 − λ1 )v1 + . . . + ck (λk − λ1 )vk = 0 Per induzione c2 (λ2 − λ1 ) = . . . = ck (λk − λ1 ) = 0. Ma i λi sono distinti, quindi λi − λ1 6= 0. Quindi segue che c2 = c3 = . . . = ck = 0 ⇒ c1 = 0. Teorema 9.1.5 (di diagonalizzazione). f é diagonalizzabile se e solo se 1. µa (λ1 ) + . . . + µa (λk ) = n = dim V 2. ∀λi autovalore µg (λi ) = µa (λi ). 9.1. CALCOLO DI AUTOVALORI E AUTOSPAZI 65 Dimostrazione. (⇒) : Suppongo f diagonalizzabile e B una base di autovettori. Allora λ1 Id1 0 ... ... 0 .. 0 λ2 Id2 0 . . . . .. .. . . mB (f ) = 0 (9.8) .. . . .. .. . .. . . . . . . . . . . λk Idk Quindi pf (t) = (λ1 − t)d1 . . . (λk − t)dk , ovvero µa (λ1 ) = d1 , . . . , µa (λk ) = dk .Poiché d1 + . . . + dk = n la prima parte é provata. Inoltre dato che in B ci sono almeno di autovettori relativi a λi , si ha dim Vλi ≥ di = µa (λi ). Poiché in generale dim Vλi ≤ µa (λi ) allora anche la seconda parte é provata. S (⇐): Sia di = dim Vλi e sia Bi = {vi,1 , . . . , vi,di } una base di Vλi . Sia inoltre B = ki=1 Bi . In totale B contiene d1 + . . . + dk = n vettori. Per dimostare che questi formano una base basta verificare la lineare indipendenza. c11 v11 + . . . + c1d1 v1d1 + . . . + ck1 vk1 + . . . + ckdk vkdk = 0 {z } | {z } | z1 (9.9) zk L’equazione precedente diviene z1 + z2 . . . + zk = 0 Dato che z1 é combinazione lineare dei vettori v1 , . . . , v1d1 , che stavano in un sottospazio, allora z1 ∈ Vλ1 e quindi zi ∈ Vλi , ∀i = 1, . . . , k. Riguardo a z1 posso notare che é o 0 o un autovettore. In particolare se z1 6= 0 sará autovettore e lo stesso vale per gli altri. Ma allora questa relazione sarebbe una combinazione lineare di vettori nulla. Ma questo é assurdo poiché troverei una relazione di dipendenza lineare mentre in realtá si tratta di vettori linearmente indipendenti. Quindi l’unico modo per non incorrere in un assurdo é che zi = 0, ∀i = 1, . . . , n ⇒ z1 = 0 ⇒ c11 v11 + . . . + c1d1 v1d1 = 0 |{z} |{z} 6=0 6=0 ovvero c11 = cidi = . . . = 0, ∀i. Proposizione 9.1.6. f ∈ End(V ) , S base di V , A = mS (f ). Allora 1. f é diagonalizzabile ⇔ A é diagonalizzabile. 2. λ é autovalore per f ⇔ λ é autovalore per A. 3. v é autovettore per f ⇔ x = [v]S é autovettore per A. 4. Se ϕ : V → Kn isomorfismo indotto da S allora ϕ(V (λ, f )) = V (λ, A). Dimostrazione. 1. f é diagonalizzabile ⇔ ∃ base B di autovettori ⇔ mB (f ) = D ⇔ M −1 AM = D con M matrice del cambiamento di base da B a S ⇔ A é diagonalizzabile. 2. ∃v 6= 0 tale che f (v) = λv ⇔ ∃v 6= 0 tale che Av = λv. 3. Per la definizione di endomorfismo. 66 CAPITOLO 9. ENDOMORFISMI 4. [f (v)]S = λ[v]S ⇔ x = [v]S 6= 0 é tale che Ax = λx. Dunque per decidere se f Osservazione 104. f ∈ End(V ) , B base di V , A = mB (f ). Sia ϕ : V → Kn l’applicazione tale che v → [v]B . Se {v1 , . . . , vn } é una base di Kn di autovettori per A allora {ϕ−1 (v1 ), . . . , ϕ−1 (vn )} sono una base di autovettori per f . 9.2 Conseguenze del teorema di diagonalizzazione Osservazione 105. Se K = C il polinomio caratteristico ha coefficienti complessi. Per il teorema fondamentale dell’algebra la seconda condizione del teorema (9.1.5) é sempre verificata. Non é detto che lo sia anche la seconda. Nel caso K = R invece puó mancare giá la prima condizione : ad esempio 0 1 se si prende il polinomio caratteristico associato é pA (t) = t2 + 1 che non ammette −1 0 soluzioni in R. Infatti la matrice A rappresenta una rotazione di 90°che non ha sicuramente autovettori. La diagonalizzabilitá é verificata solo in C dove si trovano gli autovalori λ = ±i i 0 . distinti. Nella base degli autovettori la matrice si scriverá quindi come 0 −i Osservazione 106. Se λ é un autovalore semplice , ovvero con µa (λ) = 1 , allora µg (λ) ≤ µa (λ) = 1. D’altra parte µg (λ) ≥ 1 altrimenti λ non sarebbe autovalore relativo ad un autovettore visto che l’autospazio relativo avrebbe dimensione 0. Se ne deduce quindi che µg (λ) = µa (λ) = 1. Osservazione 107. S Se Bi é una base di V (λi ) = ker(A − λi I) la lista ki Bi é formata da vettori indipendenti. Osservazione 108. Se λ é autovalore per A , allora ∀s ∈ N , λs é autovalore per As . Dimostrazione. Se λ é autovalore per A , ∃x ∈ Kn , x 6= 0tale che Ax = λx. Ma As x = As−1 Ax = As−1 λx = λ(As−1 x) = λ(As−2 Ax) = . . . = λs x Ovvero x é autovettore per As relativo all’autovalore λs . Corollario 9.2.1. Se A é nilpotente , allora A ha solo l’autovalore nullo. Infatti ∃m ∈ N tale che Am = 0 ⇒ λm = 0 ⇒ λ = 0 Osservazione 109. Se A é simile a B , allora ∀s ∈ N , As ∼ B s . Dimostrazione. Infatti se A ∼ B allora ∃M ∈ GL(n) tale che B = M −1 AM . Ma −1 Bs = B . . M −1 AM} = M −1 AM · M −1 AM . . . M −1 AM = M −1 As M | · B{z. . . B} = |M AM .{z s ovvero B s ∼ As . s 9.2. CONSEGUENZE DEL TEOREMA DI DIAGONALIZZAZIONE 67 Corollario 9.2.2. Se A é diagonalizzabile , cioé A ∼ D diagonale , allora ∀s ∈ N, As ∼ Ds . Infatti Ds é sempre una matrice diagonale⇒ As é simile ad una matrice diagonale⇒ As é diagonalizzabile. Non vale il viceversa perché ad esempio la rotazione di 90 °non é diagonalizzabile , mentre se si compone 2 o 4 volte, ottenendo 180°o 360°si ottiene una matrice diagonalizzabile. Osservazione 110 (Invarianti di similitudine). Gli invarianti di similitudine esaminati fin’ora risultano essere 1. rango 2. determinante 3. polinomio caratteristico 4. autovalori 5. dimensione autospazi Notiamo peró che (3) ⇒ (4), (3) ⇒ (2), (5) ⇒ (1) , quindi basta controllare la (3) e la (5). Si vede peró che il sistema di invarianti cosı́ costruito non é completo , infatti basta prendere un controesempio che presentiamo di seguito. 0 1 0 0 0 1 0 0 0 0 0 0 0 0 1 0 A= (9.10) 0 0 0 1 , B = 0 0 0 0 0 0 0 0 0 0 0 0 Si noti che pA (t) = pB (t) = t4 . Inoltre dim V (0, A) = dim V (0, B) = 2 visto che rk(B) = rk(A) = 2 , quindi le matrici sono entrambe non diagonalizzabili. Abbiamo quindi trovato due matrici non diagonalizzabili che soddisfano le proprietá precedenti : per dimostrare che non sono simili utilizzamo una dimosrrazione per assurdo. Se A fosse simile a B allora A2 sarebbe simile a B 2 . Ma A2 = 0 e la matrice B 2 ha almeno un elemento [B]13 6= 0. Dato che l’unica matrice simile alla matrice nulla é se stessa segue l’assurdo, ovvero A non é simile a B. Definizione 9.9. Sia f ∈ End(V ). W ssv. di V si dice f -invariante se f (W ) ⊂ W , ossia f : W → W é un endomorfismo. W Definizione 9.10. Siano W1 , . . L . , Wm sottospazi vettoriali di V . Si dice che V é somma diretta dei Wi , e si scrive V = i Wi , se ∀v ∈ V , v si puó scrivere in modo unico come v = w1 + . . . + wm , con wi ∈ Wi , ∀i. In particolare, allora, V = W1 + . . . + Wm Proposizione 9.2.3. V = base di V . Lm i=1 Wi ⇔ prese B1 , . . . , Bm basi di W1 , . . . , Wm allora Sm i=1 Bi é Dimostrazione. . S L (⇒) : m B é certamente un insieme di generatori di V : infatti l’ipotesi é che V = i Wi i i=1 quindi v = w1 + . . . + wm , ∀v ∈ V dove w1 = SpanB1 , . . . , wm = SpanBm . Inoltre questi vettori sono linearmente indipendenti , infatti presa una combinazione lineare nulla comb.lineare dei vettori di B1 + . . . + comb.lineare dei vettori di Bm = 0 | {z } | {z } w1 wm (9.11) 68 CAPITOLO 9. ENDOMORFISMI abbiamo scritto 0 come somma di elementi che stanno in W1 , W2 , . . . , Wm . Dato che 0 = 0 + 0 + . . . + 0 , per l’unicitá della presentazione ( dovuta all’ipotesi della somma diretta) si ottiene necessariamente w1 = 0, . . . , wm = 0. Ma wi , ∀i é una combinazione lineare di vettori S indipendenti dunque segue che tutti i coefficienti sono nulli e quindi m B i=1 i é una base di V . (⇐) : Supponiamo per assurdo che 0 v = w1 + . . . + wm = w10 + . . . + wm con wi 6= wi0 , ∀i ovvero che la presentazione NON sia unica. Dunque 0 (w1 − w10 ) + . . . + (wm − wm )=0 Ma (w1 − w10 ) ∈ W1 quindi puó essere scritto come combinazione lineare dei vettori di B1 . Lo stesso S vale per gli altri vettori : ottengo quindi una combinazione lineare dei vettori che stanno in m i=1 Bi . Dato che questa somma deve essere nulla i coefficienti della combinazione lineare sono tutti nulli , infatti per l’ipotesi questi vettori formano una base. Ne segue che 0 = 0 , ovvero w = w 0 , da cui l’assurdo. w1 − w10 = 0 = . . . = wm − wm i i Proposizione 9.2.4. Sia V = A ⊕ B , f ∈ End(V ) tale che f (A) ⊂ A , f (B) ⊂ B. Allora f é diagonalizzabile ⇔ f A , f B lo sono. Dimostrazione. (⇐) : É ovvia perché f A , f B sono diagonalizzabili dunque posso trovare una base di autovettori per f in questi sottospazi. Una base di autovettori per V si ottiene unendo queste due basi. (⇒): Per ipotesi esiste una lista di autovettori per f , {v1 , . . . , vn } , base di V tali che f (vi ) = λi vi , ∀i = 1, . . . , n. Bisogna cercare una base di autovettori in A ed in B , avendo una base di V . Questa si puó ottenere proiettando i vettori di V nei due sottospazi in somma direta. Consideriamo quindi le applicazioni di proiezione prA : V → A prB : V → B Per l’unicitá della presentazione , dovuta al fatto che A e B stanno in somma diretta , allora ∀v ∈ V, ∃!a ∈ A, ∃!b ∈ B tali che v = a+b , ovvero prA (v) = a, prB (v) = b. Quindi ∀vi = ai +bi posso considerare la lista dei vettori {a1 , . . . , an } ottenuta proiettando i vettori della base di autovettori per f in V su A e la lista {b1 , . . . , bn } ottenuta proiettando i vi su B. Si ha che f (vi ) = λi vi = λi ai + λi bi d’altra parte f (vi ) = f (ai + bi ) = f (ai ) + f (bi ) ovvero f (ai ) + f (bi ) = λi ai + λi bi (9.12) Ma f (ai ) ∈ A perché A per ipotesi é f -invariante ; la stessa cosa vale anche per f (bi ) ∈ B. Dato che nelle somme dirette un vettore si scrive in modo unico, si ottiene ( f (ai ) = λi ai (9.13) f (bi ) = λi bi 9.2. CONSEGUENZE DEL TEOREMA DI DIAGONALIZZAZIONE 69 Ci sono due possibilitá : o ai ( e analogamente bi ) é nullo per qualche i , o é autovettore. Dunque la lista {a1 , . . . , an } contiene certamente una base di A , a patto che questi vettori generino A. Ma {a1 , . . . , an } erano le proiezioni su A dei vettori {v1 , . . . , vn } ⇒ a1 = prA (v1 ), . . . , an = prA (vn ). Sappiamo quindi che a1 , . . . , an generano Imm(prA ) : per dire che generano anche Imm(A) basterá che l’applicazione sia surgettiva : ma questo é garantito dalla proprietá della proiezione. Dunque si puó estrarre dagli insiemi {a1 , . . . , an } , {b1 , . . . , bn } una base di autovettori per f A , f B , ovvero queste restrizioni sono diagonalizzabili. Proposizione 9.2.5. Se f é diagonalizzabile e W é f -invariante , allora f W é diagonalizzabile. Dimostrazione. Se trovo un ssv. Z di V tale che V = W ⊕ Z e che f (Z) ⊂ Z allora posso applicare la proposizione (9.2.4) e dimostrare quest’ultima. Per ipotesi f é diagonalizzabile , dunque ∃{v1 , . . . , vn } base di autovettori in V per f .Sia {w1 , . . . , wk } una base qualunque di W . Posso completarla a base di V scegliendo i vettori aggiuntivi dalla base di V ottenendo la lista {w1 , . . . , wk , v1 , . . . , vn }. I primi k vettori sono sicuramente linearmente indipendenti , fra gli altri n l’algoritmo di estrazione di una base selezionerá i vettori indipendenti ottenendo la lista {w1 , . . . , wk , vj1 , . . . , vjn−k }. Basta quindi prendere come Z lo spazio generato dai vettori {vj1 , . . . , vjn−k } : questi vanno in se stessi tramite f per l’ipotesi iniziale di diagonalizzabilitá , quindi Z é f -invariante ed é il complementare di V , ovvero é il candidato adatto per utilizzare la proposizione (9.2.4). Corollario 9.2.6. f ∈ End(V ) é diagonalizzabile ⇔ V = Vλ1 (f ) ⊕ . . . ⊕ Vλn (f ) ⇔ V é somma diretta di sottospazi invarianti , su ciascuno dei quali f = λi I. 70 CAPITOLO 9. ENDOMORFISMI Capitolo 10 Forme Bilineari Definizione 10.1. V K-spazio vettoriale. φ : V × V → K é detta applicazione ( o forma ) bilineare se 1. ∀x, y, z ∈ V : φ(x + y, z) = φ(x, z) + φ(y, z) 2. ∀x, y, z ∈ V : φ(x, y + z) = φ(x, y) + φ(x, z) 3. ∀x, y, z ∈ V, ∀α ∈ K : φ(αx, y) = αφ(x, y) = φ(x, αy). In generale φ : V × V . . . × V → K é detta multilineare se é lineare in ogni variabile. Osservazione 111. Presentiamo alcuni esempi di forme bilineari 1. φ ≡ 0 é una forma bilineare , come é semplice verificare. 2. Il prodotto scalare standard su Rn , φ : Rn × Rn → R . É definito da1 φ(x, y) = t xy = n X x i yi i=1 3. A ∈ M (n, K) , in generale si puó dare la seguente definizione di prodotto scalare φ : Kn × Kn → K (x, y) → t xAy (10.1) 4. Il determinante é multilineare nelle righe. 5. M (n, K) : φ(A, B) = Tr(t AB), φ(A, B) = Tr(AB) sono bilineari. 6. Fissato a1 , . . . , an ∈ K si considera φ : Kn [x] × Kn [x] → K n X φ(p(x), q(x)) = p(ai )q(ai ) (10.2) i=1 1 Nel seguito, per non creare fraintendimenti, si indicherá con x un vettore e con xi la sua componente. La lettera maiuscola sará riservata, come fatto fino ad ora, alle sole matrici. 71 72 CAPITOLO 10. FORME BILINEARI 7. É di grande importanza il prodotto scalare nella metrica di Minkowski per la relativitá ristretta. Si definisce su R4 il prodotto scalare φ((x1 , . . . , x4 ), (y1 , . . . , y4 )) = x1 y1 + x2 y2 + x3 y3 − x4 y4 Osservazione 112. Bil(V ) = {φ : V × V → φ é bilineare } é un K-spazio vettoriale. Definizione 10.2 (Matrice associata alla forma bilineare). φ ∈ Bil(V ), B = {v1 , . . . , vn } base di V . Si chiama matrice associata a φ rispetto a B la matrice mB (φ) ∈ M (n, K) definita da [mB (φ)]ij = φ(vi , vj ) Proposizione 10.0.7. Se mB (φ) = A allora ∀v, w ∈ V φ(v, w) = t [v]B A[w]B (10.3) Dimostrazione. Calcoliamo direttamente n n n X n X X X φ(v, w) = φ xi vi , yj v j = xi yj φ(vi , vj ) i=1 = n X n X i=1 j=1 j=1 i=1 j=1 xi yj [A]ij = n X n X (10.4) [ t x]i [y]j [A]ij =t xAy = t [v]B A[w]B i=1 j=1 Proposizione 10.0.8. B base di V . L’applicazione mB : Bil(V ) → M (n, K) φ → mB (φ) (10.5) é un isomorfismo di spazi vettoriali. In particolare dim(Bil(V )) = n2 . 10.1 Cambiamenti di base Sia φ ∈ Bil(V ) , B, B 0 due basi di V . Poniamo A = mB (φ), A0 = mB0 (φ). Vogliamo determinare la relazione tra A ed A0 . Sia M la matrice del cambiamento di base da B 0 a B , per cui [v]B = M [v]B0 , ∀v ∈ V Allora φ(u, v) = t [u]B A[v]B = t (M [u]B0 )A(M [v]B0 ) = t [u]Bt0 M AM [v]B0 (10.6) Ma vale anche φ(u, v) = t [u]B0 A0 [v]B0 (10.7) 10.2. PRODOTTI SCALARI 73 Dunque per ogni scelta di vettori u, v ∈ V si ottiene t [u]B0 A0 [v]B0 = t [u]Bt0 M AM [v]B0 ⇒ t M AM = A0 (10.8) Questo non segue semplificando i fattori comuni perché nell’anello delle matrici un prodotto puó essere nullo anche se tutti i fattori sono non nulli. Piuttosto questo segue dal fatto che la relazione deve valere per ogni u, v ∈ V , quindi posso scegliere, in particolare, u = e1 , v = e1 . In questo caso applicando la formula (10.8) si ottiene [A0 ]11 = [ t M AM ]11 . Prendendo quindi u = ei , v = ej allora si ottiene che [A0 ]ij = [ t M AM ]ij ⇒ t M AM = A0 . Definizione 10.3 (Congruenza). A, B ∈ M (n, K) si dicono congruenti se esiste M ∈ GL(n, K) tali che B = t M AM . Osservazione 113. La congruenza é una relazione di equivalenza. Il rango é quindi un invariante di congruenza. Definizione 10.4 (rango di un prodotto scalare). rk(φ) = rkmB (φ) e questa definizione non dipende dalla scelta della base visto che le matrici associate a φ sono congruenti, dunque questa definizione é ben posta. 10.2 Prodotti scalari Definizione 10.5 (Prodotto scalare). Sia φ : V × V → K bilineare. φ si dice applicazione bilineare simmetrica ( o prodotto scalare ) se φ(v, w) = φ(w, v), ∀v, w ∈ V Osservazione 114. Sia B base di V , φ ∈ Bil(V ). Allora φ é prodotto scalare ⇔ mB (φ) é simmetrica. Dimostrazione. (⇒) : Se φ é un prodotto scalare [mB (φ)]ij = φ(vi , vj ) , ma [mB (φ)]ji = φ(vj , vi ). Ma per l’ipotesi di prodotto scalare φ(vi , vj ) = φ(vj , vi ) quindi la matrice é simmetrica. (⇐) : Se mB (φ) é simmetrica allora [mB (φ)]ij = [mB (φ)]ji ⇒ φ(vi , vj ) = φ(vj , vi ) che é la proprietá caratteristica di un prodotto scalare. Osservazione 115. Se B = t M AM allora A simmetrica ⇒ B simmetrica. Infatti M AM = B = t B t ( t M AM ) = t M t AM = t Definizione 10.6 (forma quadratica). Se φ : V ×V → K é bilineare , l’applicazione q : V → K definita da q(v) = φ(v, v), ∀v ∈ V si dice forma quadratica indotta da φ. Definizione 10.7 (Caratteristica). Un campo K ha caratteristica 0 se ∀n ∈ N, n ≥ 1. n · 1 = |1 + 1 + {z. . . + 1} 6= 0 n volte Altrimenti char(K) é il minimo intero positivo n tale che n · 1 = 0. Osservazione 116. R, C, Q hanno caratteristica 0. charZ2 = 2. Da ora in poi supporremo char(K) 6= 2. 74 CAPITOLO 10. FORME BILINEARI Proposizione 10.2.1. q forma quadatica su V . Allora esiste uno ed un solo prodotto scalare che induce q. Dimostrazione. Per definizione ∃φ ∈ Bil(V ) tale che q(v) = φ(v, v), ∀v. Definisco φ0 (u, v) = φ(u, v) + φ(v, u) 2 Questa forma bilineare é simmetrica e induce q , infatti φ0 (v, v) = φ(v,v)+φ(v,v) = φ(v, v). 2 Dobbiamo provare l’unicitá. Se trovo un prodotto scalare che induce q e riesco a scriverlo in termini della stessa q allora questo sará unico. Supponiamo quindi che φ sia un prodotto scalare che induce q. Calcoliamo q(u + v) − q(u) − q(v) = φ(u + v, u + v) − φ(u, u) − φ(v, v) = = φ(u, u) + φ(v, v) + φ(u, v) + φ(v, u) − φ(u, u) − φ(v, v) = 2φ(u, v) q(u + v) − q(u) − q(v) ⇒ φ(u, v) = 2 (10.9) L’ultima relazione della (10.9) é detta formula di polarizzazione. Ho scritto quindi φ , che definisce il prodotto scalare, in funzione di q , quindi segue l’unicitá di φ. Definizione 10.8 (prodotto scalare non degenere). Sia φ prodotto scalare. φ si dice non degenere se φ(v, w) = 0, ∀w ∈ V ⇒ v = 0 Teorema 10.2.2. φ prodotto scalare. Sono fatti equivalenti 1. rk(φ) = n con n = dim(V ). 2. φ é non degenere Dimostrazione. Sia B una base di V . A = mB (φ). (1 ⇒ 2) : Per ipotesi det A 6= 0. Sia v ∈ V tale che φ(v, w) = 0, ∀w. Se denoto x = [v]B e y = [w]B allora φ(v, w) = t xAy = 0, ∀y. Dunque t xA é una riga che moltiplicata per una colonna fa 0 , ovvero puó essere solo la riga nulla : t xA = 0 ⇒ t ( t xA) = t Ax = Ax = 0. Poiché A é invertibile deduco che x = 0 , ovvero v = 0 e φ é non degenere. (2 ⇒ 1) : Supponiamo per assurdo che det A = 0. Allora ∃x 6= 0 tale che Ax = 0 , ossia t xA = 0. Ma allora t xAy = 0, ∀y che é assurdo perché troverei un vettore diverso da 0 che rende nullo questo prodotto. Definizione 10.9 (vettori ortogonali). φ prodotto scalare. I vettori u, v ∈ V si dicono ortogonali rispetto a φ se φ(u, v) = 0. Definizione 10.10 (sottoinsieme ortogonale). S sottoinsieme di V . Denotiamo con S ⊥ = {v ∈ V : φ(v, s) = 0, ∀s ∈ S} il sottoinsieme ortogonale di V . Proposizione 10.2.3. Presentiamo alcune proprietá del sottoinsieme ortogonale. 1. S ⊥ é un ssv. di V , detto ortogonale di S. 10.2. PRODOTTI SCALARI 75 2. S ⊂ T ⇒ T ⊥ ⊂ S ⊥ . Infatti se prendo t ∈ T ⊥ allora t é ortogonale a tutti i vettori di T . Ma dato che S ⊂ T sará ortogonale anche a tutti i vettori di S, dunque T ⊥ ⊂ S ⊥ . 3. S ⊥ = (SpanS)⊥ 4. S ⊂ S ⊥ ⊥ Definizione 10.11 (radicale). In particolare V ⊥ = {v ∈ V : φ(v, w) = 0, ∀w ∈ V }. V ⊥ é detto il radicale di V rispetto a φ. Abbiamo provato che φ é non degenere ⇔ V ⊥ = {0}. Proposizione 10.2.4. dim V ⊥ = n − rk(φ) Dimostrazione. v ∈ V ⊥ ⇔ φ(v, w) = 0, ∀w ∈ V . Se B é una base di V , A = mB (φ) , x = [v]B , y = [w]B allora v ∈ V ⊥ ⇔ φ(v, w) = 0 ⇔ t xAy = 0, ∀y ∈ Kn ⇔ t xA = 0 ⇒ Ax = 0. Quindi le coordinate dei vettori che stanno nel radicale soddisfano il sistema lineare Ax = 0. Dunque v ∈ V ⊥ ⇔ x = [v]B ∈ { Soluzioni Ax = 0} = S0 . Poiché il passaggio in coordinate é un isomorfismo si ha dim V ⊥ = dim S0 = n − rk(A) = n − rk(φ) Osservazione 117. Osserviamo che le le proposizioni φ non degenere e 0 1 non sono collegate tra di loro. Infatti prendiamo ad esempio é 1 0 1 φSpan(e1 ) = 0 che é degenere. Per l’implicazione inversa basta prendere 0 é non degenere mentre φ é degenere perché det mB (φ) = 0 φW non degenere non degenere. Ma 0 . Ma φSpan(e1 ) 0 Proposizione 10.2.5. φ prodotto scalare su V , dim V = n. W sottospazio vettoriale di V . Allora 1. dim W ⊥ ≥ n − dim W 2. Se φ é non degenere, allora dim W ⊥ = n − dim W ma in generale V 6= W ⊕ W ⊥ . 3. Se φW é non degenere , allora V = W ⊕ W ⊥ e quindi in particolare dim W ⊥ = n − dim W . Dimostrazione. . 1. Sia {w1 , . . . , wp } una base di W , cioé dim W = p. Completiamo a base B = {w1 , . . . , wp , vp+1 , . . . , vn } di V . Sia ora mB (φ) = A. Si ha che W ⊥ = {v ∈ V : φ(w, v) = 0, ∀w ∈ W } = {v ∈ V : φ(w1 , v) = φ(w2 , v) = . . . = φ(wp , v) = 0} 76 CAPITOLO 10. FORME BILINEARI per la bilinearitá. Quindi φ(w1 , v) = (1, 0, . . . , 0) Ax {z } | t [w ] 1 B ... .. . φ(wp , v) = (0, . . . , 0, 1, 0, . . . , 0) Ax {z } | (10.10) t [w ] p B come giá fatto nella dimostrazione del teorema (10.2.2) e della proposizione (10.2.4). Quindi gli elementi di W ⊥ sono dati dalle soluzioni del sistema lineare Ip 0 A x = 0 ⇒ Bx = 0 (10.11) | {z } B Devo dimostrare quindi che dim(spazio soluzioni Bx = 0) = dim W ⊥ = n − rk(B). Ma rk(B) ≤ min{rk(Ip ), rk(A)} ⇒ rk(B) ≤ p , allora dim W ⊥ ≥ n − p. 2. Se φ é non degenere allora A ha rango massimo, det(A) 6= 0 , quindi rk(B) = rk(Ip ) = p dato che A ha rango massimo , quindi dim W ⊥ = n − p. F G con F = mB (φ ) ; infatti i primi p vettori di 3. Se φW é non degenere A = W H L B sono base di W . Dunque det F 6= 0 , quindi F G = F G B = Ip 0 H L Ma dato che F ha rango p allora rk(B) = p e dunque dim W ⊥ = n−p. In piú W ∩W ⊥ = ⊥ {0} perché se v ∈ W ∩ W allora v sta nello spazio nullo di φ W che é {0}. Infatti v dovrebbe appartenere sia a W che a W ⊥ quindi, in particolare, φ(v, v) = 0 , ma questo assurdo visto che la restrizione del prodotto scalare non degenere quindi deve essere necessariamente v = 0. Osservazione 118. ⊥ 1. Se φ é non degenere , allora W = W ⊥ . 2. W ⊥ ∩ U ⊥ = (W + U )⊥ 3. (W ∩ U )⊥ ⊃ W ⊥ + U ⊥ 4. Se φ é non degenere allora (W ∩ U )⊥ = W ⊥ + U ⊥ . Definizione 10.12. Se V = W1 ⊕ W2 e ∀x ∈ W1 , ∀y ∈ W2 : φ(x, y) = 0 si scrive anche ⊥ V = W1 ⊥ W2 , oppure V = W1 ⊕ W2 10.2. PRODOTTI SCALARI 77 Definizione 10.13 (proiezione ortogonale). Se V = W ⊕ W ⊥ , la proiezione prW : V → W é detta proiezione ortogonale : ∀v ∈ V , v − prW (v) ∈ W ⊥ . Quindi v = prW (v) + prW ⊥ (v) Definizione 10.14 (vettori isotropi). v ∈ V si dice isotropo se φ(v, v) = 0. Osservazione 119. Prendiamo la matrice 1 0 0 −1 φ(x, y) = t xAy ; Quindi x 2 2 vettori isotropi = : x − y = 0 = bisettrici dei quadranti y In generale l’insieme dei vettori isotropi non é un sottospazio di V , come si vede da questo esempio. Osservazione 120. Se ogni v ∈ V é isotropo allora φ = 0. Infatti φ(u, v) = −φ(u, u) − φ(v, v) + φ(u + v, u + v) =0 2 per la formula di polarizzazione Osservazione 121. Se v non é isotropo φSpan(v) é non degenere , dunque V = Span(v) ⊕ (Span(v))⊥ . Infatti la matrice associata al prodotto scalare nella base B = {v, . . .} ha un elemento non nullo nel 6= 0 ovvero é non degenere. In questo caso é quindi definita la sua posto 11 , quindi φ Span(v) proiezione ortogonale su Span(v). Proposizione 10.2.6. Sia v ∈ V non isotropo. ∀w ∈ V . Sia c= φ(v, w) φ(v, v) detto coefficiente di Fourier di w rispetto a v. Allora w − cv ∈ (Span(v))⊥ , quindi é la proiezione ortogonale. Dimostrazione. Basta osservare che φ(v, w − cv) = φ(v, w) − cφ(v, v) = φ(v, w) − φ(v, w) = 0 Quindi w − cv é ortogonale a v. Dunque ∀w ∈ V, w = cv + (w − cv) , cv ∈ Span(v), (w − cv) ∈ (Span(v))⊥ e quindi prSpan(v) (w) = φ(v, w) v φ(v, v) 78 CAPITOLO 10. FORME BILINEARI 10.3 Diagonalizzazione di prodotti scalari Definizione 10.15 (base ortogonale). Sia φ un prodotto scalare su V , dim V = n. Una base B = {v1 , . . . , vn } di V si dice ortogonale se φ(vi , vj ) = 0, ∀i 6= j. Osservazione 122. B ortogonale ⇔ mB (φ) é diagonale. Teorema 10.3.1. Per ogni prodotto scalare φ , esiste una base di V , ortogonale rispetto a φ. Dimostrazione. Presentiamo due dimostrazioni alternative. Dimostrazione 1 Proviamo il teorema per induzione su n = dim V . Per n = 1 é sicuramente vero perché una matrice 1 × 1 é sempre diagonale. Supponiamola vera quindi per n − 1 e proviamo la tesi per n. Sia dim V = n > 1. Distinguiamo due casi ∀v ∈ V, φ(v, v) = 0. Dunque il prodotto scalare é quello nullo. Quindi ogni base é ortogonale. ∃v1 6= 0 tale che φ(v1 , v1 ) 6= 0. In questo caso abbiamo provato che V = Span(v1 ) ⊕ (Span(v1 ))⊥ ⇒ dim(Span(v1 ))⊥ = n − 1 Per ipotesi induttiva dunque φSpan(v1 )⊥ ammette come base ortogonale {v2 , . . . , vn } ⊂ (Span(v1 ))⊥ . Si puó quindi completare a base di V aggiungendo v1 : {v1 , . . . , vn }. Questi vettori sono indipendenti e sono anche ortogonali : infatti v1 ∈ Span(v1 ) e v2 , . . . , vn ∈ (Span(v1 ))⊥ dunque sono sicuramente ortogonali. Dimostrazione 2 Sia {v1 , . . . , vn } una base qualsiasi di V . Sia A = (aij ) la matrice associata al prodotto scalare in tale base. Si procede secondo il seguente algoritmo per ortogonalizzare la base : si presentano due scelte Trasformazioni di base Si applica se φ(v1 , v1 ) = a11 6= 0 , ovvero se v1 é non isotropo. In questo caso consideriamo i vettori v10 = v1 v20 = v2 − φ(v2 , v1 ) v1 φ(v1 , v1 ) .. . vn0 = vn − (10.12) φ(vn , v1 ) v1 φ(v1 , v1 ) Questa é sicuramente una base di V . Si noti infatti che si tratta di una lista composta da n vettori in uno spazio dove si conosce giá la base {v1 , . . . , vn }. Dunque la nuova lista di vettori é composta da vettori indipendenti solo se i vettori delle coordinate rispetto ai vettori di B sono indipendenti. La matrice costruita con 10.3. DIAGONALIZZAZIONE DI PRODOTTI SCALARI queste coordinate é del tipo 1 0 0 .. . 0 φ(v2 ,v1 ) φ(v1 ,v1 ) 1 ... .. . ... ... ... ∗ ∗ 1 ∗ .. . . . . ... ... 79 φ(vn ,v1 ) φ(v1 ,v1 ) ∗ ... .. . (10.13) 1 quindi il rango é massimo ed i vettori sono linearmente indipendenti. Questa base é anche ortogonale , infatti ha la proprietá che φ(v10 , vj0 ) = 0 , ∀j = 2, . . . , n Quindi la matrice associata a φ diventa a11 0 0 B (10.14) e posso iterare il procedimento sulla matrice B. Trasformazioni ausiliarie Si applicano nel caso che a11 = 0. Ci sono due casi Prime trasformazioni ausiliarie : Se aii = 0 ed ∃i tale che aii 6= 0 si permutano i vettori della base {v1 , . . . , vn } per portare vi al primo posto e poi si usa la trasformazione di base. Seconde trasformazioni ausialiarie : Si applica quando aii = 0, ∀i ma A 6= 0. Allora ∃i, ∃j tali che aij 6= 0 ( e quindi aji 6= 0) . Si puó prendere quindi la combinazione φ(vi +vj , vi +vj ) = φ(vi , vi )+φ(vj , vj )+φ(vi , vj )+φ(vj , vi ) = 0+2aij +0 = 2aij 6= 0 Basta allora prendere una base di cui vi + vj é il primo vettore. Corollario 10.3.2. Ogni matrice simmetrica é congruente ad una matrice diagonale. Osservazione 123. Sia B = {v1 , . . . , vn } una base ortogonale di V . Quindi v = α1 v1 + . . . + αn vn . Se v1 non é isotropo allora φ(v, v1 ) = α1 φ(v1 , v1 ) per l’ipotesi di ortogonalitá della base B. Quindi α1 = φ(v, v1 ) = coeff. di Fourier di v rispetto a v1 φ(v1 , v1 ) Teorema 10.3.3 (di Sylvester complesso). Sia K = C. Sia inoltre V un C-spazio vettoriale e h, i un prodotto scalare. Allora esiste una base di V in cui la matrice associata a h, i é Ir 0 D= (10.15) 0 0 dove r é il rango di h, i. 80 CAPITOLO 10. FORME BILINEARI Dimostrazione. Sappiamo che ∃ una base {v1 , . . . , vn } associata é del tipo a11 0 . . . . . . . . . .. . 0 0 . .. . . . . . arr . . . 0 . . .. .. . ... ... ... ... ortogonale per hi. Quindi la matrice ... 0 .. . .. . .. . .. . . . .. . . (10.16) 0 Per far comparire degli 1 sulla diagonale basta normalizzare i vettori di base , ovvero prendere la base vr v1 √ , . . . , √ , vr+1 , . . . , vn a11 arr che ha le proprietá richieste. Corollario 10.3.4. Due matrici simmetriche complesse sono congruenti ⇔ hanno lo stesso rango. 10.4 Forme quadratiche reali Teorema 10.4.1 (di Sylvester reale). Sia V , R-spazio vettoriale , hi prodotto scalare su V . Sia r il rango di hi. Allora esiste un numero intero non negativo p ≤ r , dipendente solo da hi, e una base di V in cui la matrice associata a hi é Ip 0 0 0 −Ir−p 0 (10.17) 0 0 0 Dimostrazione. In una base ortogonale a {v1 , . . . , vn } la matrice é uguale alla (10.16). Riordinando la base si puó supporre che aii > 0 , 1 ≤ i ≤ p. aii < 0 , p + 1 ≤ i ≤ r. Allora , rispetto alla base vp vp+1 v1 vr √ , v , . . . , v , . . . , , , . . . , √ √ √ r+1 n = {z1 , . . . , zp , zp+1 , . . . , zr , . . . , zn } a11 app −ap+1,p+1 −arr la matrice é del tipo voluto. Resta da dimostrare che p non dipende dalla base scelta ma solo dal prodotto scalare. Per fare ció esprimo p in modo indipendente dalla base, come quantitá intrinseca. Sia pφ = { massima dimensione di un sottospazio vettoriale W di V su cui φW é definito positivo, ossia2 ∀w ∈ W, w 6= 0, φ(w, w) > 0}. Basta allora provare che p = pφ . v 1. poiché su Span √va111 , . . . , √appp , φ é definito positivo allora pφ ≥ p. 2 Conviene considerare questa proprietá solo nei prodotti scalari definiti su campi con ordinamento. 10.4. FORME QUADRATICHE REALI 81 2. Sia W un sottospazio vettoriale di V tale che φW é definito positivo e dim W = pφ . Sia ora Z = Span(zp+1 , . . . , zr , . . . zn ) Dico che W ∩ Z = {0} , infatti se per assurdo esistesse v 6= 0, v ∈ W ∩ Z allora v ∈ W ⇒ φ(v, v) > 0 visto che il prodotto scalare é definito positivo. Ma se v ∈ Z allora v = cp+1 zp+1 + . . . + cn zn ⇒ φ(v, v) = c2p+1 φ(zp+1 , zp+1 ) + . . . + c2n φ(zn , zn ) ≤ 0 visto che φ(zi , zj ) ≤ 0, ∀i, j. Ma questo é assurdo , quindi deve valere necessariamente W ∩ Z = {0} dunque W ⊕ Z ⊂ V e quindi n ≥ pφ + n − p da cui p ≥ pφ . Facciamo un riassunto delle nozioni scoperte fino ad ora. Riassunto Sia V, K-spazio vettoriale ; φ prodotto scalare su V . 1. ∃B base di V tale che mB (φ) é diagonale , infatti basta prendere vettori ortogonali in φ. 2. Se K = C , rk(φ) = r , ∃ Ir 0 B tale che mB (φ) = 0 0 Ip 0 0 3. Se K = R , ∃p ∈ N , dipendente solo da φ , ∃B base tale che mB (φ) = 0 Ir−p 0 0 0 0 Versione matriciale A ∈ M (n, K) simmetrica associata al prodotto scalare (x, y) → t xAy 1. A é congruente ad una matrice diagonale visto che si puó prendere una base ortogonale e diagonalizzare il prodotto scalare. Ir 0 2. Se K = C, A é congruente alla matrice . Quindi nella classe di congruenza di 0 0 A c’é sempre questo rappresentante. Dunque A e B sono congruenti ⇔ rk(A) = rk(B) Ir 0 visto che devono essere entrambe congruenti alla matrice . 0 0 3. Se K = R , A é congruente ad una matrice del tipo Ip 0 0 0 Ir−p 0 0 0 0 Questo rappresentante della classe di congruenza é unico perché p dipende solo dal prodotto scalare 82 CAPITOLO 10. FORME BILINEARI 10.5 Calcolo della segnatura Definizione 10.16 (Segnatura). Denoteremo con i+ (φ) = p = massima dimensione dei sottospazi W di V sui quali φW é definita positiva=indice di positivitá di φ. i− (φ) = r − p =indice di negativitá i0 (φ) = n − r = dim V ⊥ =indice di nullitá La terna σ(φ) = (i+ , i− , i0 ) é detta segnatura di φ. Osservazione 124. i+ + i− + i0 = n = dim V i+ + i− = rk(φ) = r Osservazione 125. A e B sono congruenti ⇔ A e B hanno la stessa segnatura con A e B matrici simmetriche reali. Dunque la segnatura é un invariante completa per congruenza se K = R. Osservazione 126. Se K = R c’é un altro invariante. Supponiamo che B = t M AM , M ∈ GL(n). Dunque det(B) = det(A) · det(M )2 per Binet. Quindi sgn(det B) = sgn(det A) , ovvero il segno del determinante é un invariante di congruenza per K = R. Osservazione 127. φ definito positivo ⇒ φ non degenere. Infatti se v ∈ V ⊥ ⇒ φ(v, w) = 0, ∀w ∈ V, v 6= 0. Quindi in particolare φ(v, v) = 0 che contrasta con l’ipotesi di prodotto scalare definito positivo. Osservazione 128. Se φ é definito positivo allora ∀W sottospazio vettoriale di V φW é definito positivo. Infatti dovrei mostrare che ∀w ∈ W, w 6= 0 ⇒ φ(w, w) > 0. Ma w ∈ V per la definizione di inclusione tra insiemi e quindi se φ é definito positivo su V allora φ(w, w) > 0 ⇒ φW é definito positivo. Osservazione 129. Vediamo un esercizio per illustrare la procedura per calcolare la segnatura di un prodotto a b scalare. Prendiamo la matrice A = mB (φ) = : questa rappresenta un prodotto scalare b c su R2 . Dato che a = φ(e1 , e1 ) allora per avere un prodotto scalare definito positivo deve essere φ(e1 , e1 ) > 0 . Analogamente quindi c = φ(e2 , e2 ) > 0. Questa é una condizione necessaria ma non sufficiente , quindi vediamo se esistono altre proprietá interessanti. Si osservi che se il prodotto scalare fosse definito positivo allora la matrice mB (φ) sarebbe congruente ad una 1 0 del tipo dato che la segnatura é (2,0,0). Dato che si deve conservare il segno del 0 1 determinante deve essere necessariamente ac − b2 > 0 ⇒ b2 < ac. Abbiamo quindi trovato le condizioni φ(e1 , e1 ) > 0 ⇐ φ definito positivo (10.18) b2 < ac φ(e2 , e2 ) > 0 10.6. SPAZI EUCLIDEI 83 Vediamo se vale anche il viceversa, ovvero se queste condizioni si possono considerare suf 2 ficienti. Poiché ac − b 6= 0 ⇒ i0 = 0. Inoltre a = m φ Span(e1 ) ⇒ φSpan(e1 ) é definito positivo⇒ i+ (φ) ≥ 1. Le possibilitá per scegliere i+ (dopo questa scelta i− é univocamente determinato ) sono quindi i+ (φ) = 1, 2. Se fosse i+ (φ) = 1 , A sarebbe congruente ad una 1 0 matrice del tipo che ha determinante negativo. Se invece i+ (φ) = 2, A sarebbe 0 −1 1 0 congruente ad una matrice che ha determinante positivo. Ma dato che det(A) > 0 0 1 deve valere necessariamente i+ (φ) = 2 e quindi σ(φ) = (2, 0, 0). Definizione 10.17. A ∈ M (n, R) si dice definita positiva se il prodotto scalare su Rn , (x, y) → t xAy é definito positivo. Proposizione 10.5.1. Sono fatti equivalenti 1. A é definita positiva 2. ∃N ∈ GL(n, R) tale che A = t N N 3. ∀i = 1, . . . , n, Di > 0 dove Di é il determinante di Mi ed Mi sono i minori principali di A costruiti scegliendo le prime i righe e i colonne. Dimostrazione. . (1) ⇒ (2) infatti se A é definita positiva allora i+ (φ) = n, i− (φ) = i0 (φ) = 0. Dunque A é congruente all’identitá che é la tesi contenuta nella (2). (1) ⇒ (3) : devo dimostrare che det(Mi ) > 0 ∀i. Si ha det(M1 ) = φSpan(e1 ) > 0 . Inoltre det(Mn ) = det(A) > 0 visto che A é definita positiva. Ma allora anche det(Mi ) > 0 , infatti le matrici Mi rappresentano le restrizioni a qualsiasi sottospazio del prodotto scalare φ e queste continuano ad essere non degeneri (vedi osservazione 127 ) , quindi Di > 0, ∀i. 10.6 Spazi euclidei Definizione 10.18. Si chiama spazio euclideo ogni sottospazio vettoriale reale dotato di un prodotto scalare definito positivo. Definizione 10.19 (norma). Sia (V, φ) euclideo. La funzione ||.|| : V → R v → ||v|| = p φ(v, v) é detta norma. Proposizione 10.6.1. Valgono le proprietá 1. ||v|| ≥ 0, ∀v ∈ V e ||v|| = 0 ⇔ v = 0 2. λ ∈ R, ∀v ∈ V, ||λv|| = |λ| · ||v|| 3. ∀v, w ∈ V |φ(v, w) ≤ ||v|| · ||w|| : diseguaglianza di Schwarz 4. ∀v, w ∈ V ||v + w|| ≤ ||v|| + ||w|| : diseguaglianza triangolare (10.19) 84 CAPITOLO 10. FORME BILINEARI Dimostrazione. La prima e la seconda sono ovvie (3) : Se v = 0 o w = 0 vale. Se invece v 6= 0 o w 6= 0 allora φ(tv + w, tv + w) ≥ 0 ⇒ t2 φ(v, v) + 2tφ(v, w) + φ(w, w) ≥ 0∀t Quindi il discriminante di questa equazione deve essere non positivo ∆ = φ(v, w)2 − φ(v, v)φ(w, w) ≤ 0 ⇒ φ(v, w)2 ≤ ||v||2 · ||w||2 4 che é la tesi al quadrato. (4) : segue dalla (3) Definizione 10.20 (distanza). Sia d:V ×V →R (x, y) → ||x − y|| (10.20) La funzione d é detta distanza ed ha le proprietá 1. d(x, y) ≥ 0, ∀x, y e d(x, y) = 0 ⇔ x = y 2. d(x, y) = d(y, x) 3. d(x, z) ≤ d(x, y) + d(y, z), ∀x, y, z ∈ V Osservazione 130. 1. In uno spazio euclideo non esistono vettori isotropi e non nulli. 2. prodotto scalare definito positivo implica prodotto scalare non degenere 3. Se φ é definito positivo , ∀ sottospazio W , φW é definito positivo. Ma allora W ⊕ W ⊥ ed esistono le proiezioni ortogonali prW : V → W prW ⊥ : V → W ⊥ Se {w1 , . . . , wk } é base ortogonale di W ,{wk+1 , . . . , wn } é base ortogonale di W ⊥ , allora {w1 , . . . , wk , . . . , wn } é base ortogonale di V . Dunque ∀v ∈ V si ha v= φ(v, w1 ) φ(v, wn ) w1 + . . . + wn φ(w1 , w1 ) φ(wn , wn ) e dunque prW (v) = φ(v, w1 ) φ(v, wk ) w1 + . . . + wk φ(w1 , w1 ) φ(wk , wk ) Definizione 10.21 (ortonormale). Una base {v1 , . . . , vn } si dice ortonormale ( rispetto a φ ) se é ortogonale e φ(vi , vi ) = 1, ∀i = 1, . . . , n. Osservazione 131. Ogni spazio euclideo ammette almeno una base ortonormale (basta normalizzare i vettori di una base ortogonale, che esiste sempre per le proprietá degli spazi euclidei). Osservazione 132. Se B é ortonormale , allora mB (φ) = I , dunque ∀v, w ∈ V si ha φ(v, w) = t [v]B I[w]B = xy 10.6. SPAZI EUCLIDEI 10.6.1 85 Ricerca di basi ortonormali Sia {v1 , . . . , vn } una base di V . Presentiamo un algoritmo per trovare una base {v10 , . . . , vn0 } ortonormale. Poniamo v10 = v1 Prendiamo v20 = v2 − φ(v2 , v10 ) 0 v φ(v10 , v10 ) 1 Questo vettore é ortogonale a v10 e inoltre Span(v1 , v2 ) = Span(v10 , v20 ) quindi sono vettori linearmente indipendenti : infatti v10 , v20 ∈ Span(v1 , v2 ). Cerco ora un v3 tale che – Span(v10 , v20 , v30 ) = Span(v1 , v2 , v3 ) – {v10 , v20 , v30 } é base ortogonale di Span(v1 , v2 , v3 ) Basta sottrarre a v3 la sua proiezione ortogonale su Span(v10 , v20 ) = V20 . Poiché v10 , v20 sono ortogonali conosciamo l’espressione analitica della proiezione ortogonale su V20 . Infatti prV20 : V → V20 x→ φ(x, v10 ) 0 φ(x, v20 ) 0 v + v 1 φ(v10 , v10 ) φ(v20 , v20 ) 2 (10.21) Dunque basta porre v30 = v3 − φ(v3 , v20 ) 0 φ(v3 , v10 ) 0 v − v φ(v10 , v10 ) 1 φ(v20 , v20 ) 2 Si osserva che v30 ∈ Span(v10 , v20 , v30 ) = Span(v1 , v2 , v3 ). Inoltre la matrice che contiene le coordinate di {v10 , v20 , v30 } rispetto alla base {v1 , v2 , v3 } é triangolare superiore dunque i vettori sono indipendenti , ovvero {v10 , v20 , v30 } é una base ortogonale di Span(v1 , v2 , v3 ). Itero il procedimento ponendo , ∀j vj0 = vj − j−1 X φ(vj , v 0 ) i i=1 φ(vi0 , vi0 ) vi0 (10.22) Alla fine ottengo una base ortogonale {v10 , . . . , vn0 } Basta normalizzare ponendo wi = vi0 ||vi0 || Il risultato é quindi il seguente Teorema 10.6.2 (di ortonormalizzazione di Gram-Schmidt). Sia (V, φ) spazio euclideo. {v1 , . . . , vn } base di V . Allora ∃ una base ortonormale {w1 , . . . , wn } di V tale che Span(w1 , . . . , wj ) = Span(v1 , . . . , vj ), ∀j = 1, . . . , n. 86 CAPITOLO 10. FORME BILINEARI 10.7 Matrici ortogonali tM M Definizione 10.22. M ∈ M (n, R) si dice ortogonale se = M t M = I. Denotiamo con O(n) = {M ∈ M (n, R) : M é ortogonale} Osservazione 133. 1. M ∈ O(n) ⇒ M ∈ GL(n) e M −1 = det2 M 6= 0 t M , infatti det(I) = 1 = det( t M ) det(M ) = 2. M ∈ O(n) ⇒ le righe e le colonne di M formano una base ortonormale su Rn . 3. O(n) dotato del prodotto é un gruppo , detto gruppo ortogonale. 4. Se A ∈ O(n) , det(A) = ±1. SO(n) = {A ∈ O(n) : det A = 1} é un gruppo , detto gruppo ortogonale speciale. Osservazione 134. [ cos α sin α cos α − sin α :α∈R :α∈R O(2) = sin α − cos α sin α cos α (10.23) Proposizione 10.7.1. (V, φ) spazio euclideo. Siano B = {v1 , . . . , vn } base ortonormale e B 0 = {w1 , . . . , wn } base di V . Se M é la matrice del cambiamento di base da B 0 a B allora B 0 é ortonormale ⇔ M é ortogonale. id Dimostrazione. M é la matrice associata a VB0 − → VB per la quale [wi ]B = M i . Allora , dato che I é la matrice associata nella base B si ha φ(wi , wj ) = t [wi ]B I[wj ]B = t (M i )M j = ( t M )i M j = [ t M M ]ij Quindi se B 0 é ortonormale ( 1 φ(wi , wj ) = 0 che é la definizione della matrice identitá quindi ortogonalitá. ,i = j , i 6= j tM M = I che coincide con la definizione di Definizione 10.23 (endormorfismi simmetrici). (V, φ) spazio euclideo. f ∈ End(V ) si dice simmetrico ( o autoaggiunto) se φ(f (x), y) = φ(x, f (y))∀x, y ∈ V . Proposizione 10.7.2. Sia B base ortonormale di V e sia A = mB (f ). Allora f é simmetrica ⇔ A é simmetrica. Dimostrazione. Si ha φ(f (x), y) = t [f (x)]B I[y]B = t (A[x]B )[y]B = t [x]Bt A[y]B D’altra parte φ(x, f (y)) = t [x]B I[f (y)]B = t [x]B A[y]B Bisogna verificare quindi che t [x]B A[y]B = t [x]Bt A[y]B , ∀x, y. Dato che l’uguaglianza deve valere ∀x, y si puó concludere che deve valere t A = A , che conclude la dimostrazione. 10.7. MATRICI ORTOGONALI 10.7.1 87 Teorema spettrale Risulta quindi naturale chiedersi quando esiste una base di V ortonormale per φ e di autovettori di f (base spettrale). Infatti in questo caso la matrice associata sarebbe diagonale e l’endomorfismo f sarebbe simmetrico.Presentiamo prima un lemma che ci permetterá di capire l’appartenenza degli autovalori al campo reale o complesso , oltre a dimostrare il teorema spettrale. Lemma 10.7.3. A ∈ M (n, R) simmetrica. Allora tutti gli autovalori di A sono reali. A Dimostrazione. Sia A : Cn → Cn con x − → Ax. Sia λ ∈ C autovalore di A : allora esiste x ∈ Cn , x 6= 0 tale che Ax = λx ⇒ Ax = λx ⇒ Ax = λx Calcoliamo ( t x̄Ax = t x̄(Ax) = t x̄λx ⇒ (λ − λ̄) t x̄x = 0 (10.24) ( t x̄A)x = t (Ax̄)x = λ̄ t x̄x Ma t x̄x = x̄1 x1 +. . .+ x̄n xn = |x1 |2 +. . .+|xn |2 ∈ R Dunque |x1 |2 +. . .+|xn |2 = 0 ⇔ x = 0 che no é possibile per l’ipotesi. Quindi l’unica possibilitá é che sia λ− λ̄ = 0 ⇒ λ = λ̄ ⇒ λ ∈ R. Teorema 10.7.4 (spettrale). Sia (V, φ) spazio euclideo di dimensione finita , dim V = n. Sia f ∈ End(V ) simmetrico. Allora ∃ base di V ortonormale e di autovettori per f Dimostrazione. Per induzione su dim V = n. Per n = 1 é ovvio , infatti basta prendere qualsiasi base ortonormale che é una base di autovettori per f . Supponiamo ora n ≥ 2 : dobbiamo provare che (n − 1) ⇒ (n). Sia S una base ortonormale di V ⇒ A = mS (f ) é simmetrica. Per il lemma esiste λ autovalore reale di A ( e quindi di f ). Sia v1 6= 0 con v1 ∈ V (λ, f ) , cioé f (v1 ) = λv1 ; supponiamo ||v1 || = 1. Sia V1 = Span(v1 ) che é ovviamente un sottospazio f −invariante. φV1 é definito positivo e quindi non degenere , quindi é possibile fare lo spezzamento M V = V1 V1⊥ Sappiamo che f V1 é un endomorfismo visto che V1 é f -invariante , quindi f V1 : V1 → V1 . Se riuscissimo a provare che anche f V ⊥ é un endomorfismo , ovvero che V1⊥ é f -invariante e 1 quindi f ⊥ : V ⊥ → V ⊥ , potremmo costruire in modo naturale una base di autovettori per f V1 1 1 unendo le due basi di V1 e V1⊥ e ortonormalizzando. Voglio quindi provare che f (V1⊥ ) ⊂ V1⊥ , ovvero che ∀x ∈ V1⊥ , f (x) ∈ V1⊥ . Per verificare questo dobbiamo mostrare che φ(f (x), v1 ) = 0. Calcoliamo quindi φ(f (x), v1 ) = φ(x, f (v1 )) = φ(x, λv1 ) = λφ(x, v1 ) = 0 Dove abbiamo usato rispettivamente di simmetria su f e il fatto che x ∈ V1⊥ la condizione nell’ultima uguaglianza. Dunque f V ⊥ : V1⊥ → V1⊥ é un endomorfismo , quindi posso applicare 1 l’ipotesi induttiva a V1⊥ , φV ⊥ , f V ⊥ : infatti dim V1⊥ = n − 1 , φV ⊥ é definito positivo perché 1 1 1 lo era su V e f V ⊥ é un endomorfismo per quanto visto prima. Dunque esiste sicuramente 1 una base {v2 , . . . , vn } di V ⊥ ortonormale per φ e di autovettori per f ⊥ , e quindi anche 1 V1 per f . La base di V é data quindi da {v1 , . . . , vn } : si deve verificare se questa é una base ortonormale. I vettori sono linearmente indipendenti visto che appartengono a sottospazi in somma diretta , inoltre sono ortogonali perché provengono da sottospazi ortogonali. Inoltre sono autovettori per f visto che , per ipotesi , f (v1 ) = λv1 mentre {v2 , . . . , vn } sono una base di V1⊥ . 88 CAPITOLO 10. FORME BILINEARI Osservazione 135. Se f simmetrica e H é un sottospazio di V f -invariante allora H ⊥ é f -invariante. Dimostrazione. Provo che f (H ⊥ ) ⊂ H ⊥ , ovvero ∀x ∈ H ⊥ , f (x) ⊂ H ⊥ . Devo quindi mostrare che f (x) é ortogonale a tutti i vettori di H , ovvero che ∀x ∈ H ⊥ , ∀y ∈ H ⇒ φ(f (x), y) = 0. Ma φ(f (x), y) = φ(x, f (y)) = 0 visto che x ∈ H ⊥ , f (y) ∈ H Osservazione 136. Sia A ∈ M (n, R) simmetrica , A : Rn → Rn . Per il teorema spettrale esiste una base S ortonormale di autovettori per A. Definiamo mC (A) = A, mS (A) = D diagonale. Sia M la matrice del cambiamento di base da C ad S , dunque M −1 AM = D . Ma M ∈ O(n) quindi M −1 = t M e dunque M −1 AM = t M AM = D diagonale. Teorema 10.7.5. ∀A ∈ M (n, R) simmetrica esiste M ∈ O(n) tale che M −1 AM = t M AM = D diagonale= mS (b) Corollario 10.7.6. Si ha che i+ (A) =numero autovalori positivi di A i− (A) =numero autovalori negativi di A i0 (A) =numero autovalori nulli di A Proposizione 10.7.7. A ∈ M (n, R) simmetrica. Siano λ, µ due autovalori di A distinti. Allora V (λ), V (µ) sono sottospazi ortogonali. Dimostrazione. Quindi ∀x ∈ V (λ), ∀y ∈ V (µ) deve essere φ(x, y) = 0. Calcoliamo (moltiplicando per λ) λφ(x, y) = φ(λx, y) = φ(Ax, y) = φ(x, Ay) = φ(x, µy) = µφ(x, y) ⇒ (λ − µ)φ(x, y) = 0 Ma , dato che λ e µ sono distinti λ 6= µ ⇒ φ(x, y) = 0 10.8 Applicazioni ortogonali Sia ora (V, φ) spazio euclideo. Definizione 10.24 (applicazione ortogonale). f ∈ End(V ) si dice applicazione ortogonale ( o isometria ) se φ(f (x), f (y)) = φ(x, y), ∀x, y ∈ V Osservazione 137. f ortogonale ⇒ f isomorfismo. Infatti basta provare che f é iniettiva. Se per assurdo esistesse x ∈ ker(f ) con x 6= 0 allora 0 = φ(f (x), f (x)) = φ(x, x) per la definizione di applicazione ortogonale, il che assurdo quindi deve essere necessariamente ker(f ) = {0} che é la definizione di applicazione iniettiva, ovvero di isomorfismo. Osservazione 138. Sia B base ortonormale e sia A = mB (f ). Allora f é una applicazione ortogonale ⇔ A ∈ O(n) 10.8. APPLICAZIONI ORTOGONALI 89 Dimostrazione. Vale che φ(f (x), f (y)) = t [f (x)]B I[f (y)]B = t [x]Bt AA[y]B D’altra parte φ(x, y) = t [x]B [y]B Quindi f é ortogonale ⇔ t [x]B [y]B = t [x]Bt AA[y]B ⇔ t AA = I , ovvero ⇔ A ∈ O(n). Osservazione 139. Se A ∈ O(n), A : Rn → Rn é una isometria. Osservazione 140. O(V ) = {f ∈ End(V ) : f ortogonale} Allora f ∈ O(V ) ⇒ φ(f (x), f (x)) = φ(x, x) ⇒ ||f (x)||2 = ||x||2 quindi ∀x ∈ V, ||f (x)|| = ||x||, ovvero le applicazioni ortogonali conservano la norma. Proposizione 10.8.1. Sono fatti equivalenti 1. f ortogonale 2. ||f (x)|| = ||x||, ∀x ∈ V 3. Se B é una base ortonormale allora f (B) é una base ortonormale. Dimostrazione. . (1) ⇒ (2) : visto sopra. (1) ⇒ (3) : Prendo B = {v1 , . . . , vn } base ortonormale. {f (v1 ), . . . , f (vn )} é una base perché f é un isomorfismo. Questi vettori sono anche ortogonali perché φ(f (vi ), f (vj )) = φ(vi , vj ) = 0 per ipotesi. Inoltre questi vettori si possono normalizzare quindi sono la base cercata. (2) ⇒ (1) : Sappiamo che la proprietá é vera per x = y. Per provarla anche nel caso x 6= y si puó usare la formula di polarizzazione prendendo φ(x, y) = φ(x + y, x + y) − φ(x, x) − φ(y, y) 2 Per ipotesi questa é uguale a φ(f (x + y), f (x + y)) − φ(f (x), f (x)) − φ(f (y), f (y)) 2 φ(f (x) + f (y), f (x) + f (y)) − φ(f (x), f (x)) − φ(f (y), f (y)) = 2 φ(f (x), f (x)) + φ(f (y), f (y)) + 2φ(f (x), f (y)) − φ(f (x), f (x)) − φ(f (y), f (y)) = 2 = φ(f (x), f (y)) (10.25) φ(x, y) = (3) ⇒ (1) : Sia B = {v1 , . . . , vn } base ortonormale. Voglio provare che ∀x, y : φ(x, y) = φ(f (x), f (y)). Scriviamo X X x= αi vi y = βi vi i i 90 CAPITOLO 10. FORME BILINEARI Dunque X X X φ(x, y) = φ αi vi , β j vj = αi βi i j i infatti φ(vi , vj ) = 0 ⇔ i 6= j e φ(vi , vj ) = 1 per i = j. D’altra parte ! X X X X φ(f (x), f (y)) = φ f βj vj = φ αi vi , f αi f (vi ), βj f (vj ) i = X j αi βj φ(f (vi ), f (vj )) = i,j i X j (10.26) αi βi i infatti anche f (B) é una base ortonormale per ipotesi. Osservazione 141. Sia f ∈ O(V ) e H un sottospazio vettoriale di V , f -invariante. Allora H ⊥ é f -invariante. Dimostrazione. Provo che f (H ⊥ ) ⊂ H ⊥ , ovvero ∀x ∈ H ⊥ , f (x) ∈ H ⊥ , cioé ∀x ∈ H ⊥ , ∀y ∈ H devo mostrare che φ(f (x), y) = 0. Ma y ∈ Imm(f ) perché f é un isomorfismo. Quindi ∃z ∈ V tale che y = f (z). Dato che f (H) ⊂ H ed f é isomorfismo allora deve essere necessariamente f (H) = H. Quindi f (z) ∈ H ⇒ z ∈ H. Dunque φ(f (x), y) = φ(f (x), f (z)) con z ∈ H. Dunque per l’ipotesi di ortogonalitá su f si ha che φ(f (x), f (z)) = φ(x, z) = 0 visto che x ∈ H ⊥ , z ∈ H.