Appunti di geometria Giovanni Paolini A.A. 2010/2011 1 Similitudine tra endomorfismi Definizione. Dati f, g ∈ End(V ), diciamo che f ∼ g se esiste h ∈ End(V ) invertibile tale che g = h ◦ f ◦ h−1 . 1.1 Autovalori, autovettori e polinomio caratteristico Definizione. Dato f ∈ End(V ), si definisce spettro di f l’insieme Spettro(f ) = {λ ∈ K| ker(f − λ · id) 6= {0}}. Se λ appartiene allo spettro di f si dice autovalore di f . Lo spazio Vλ = ker(f − λ · id) si dice autospazio relativo a λ. Un qualsiasi v ∈ V non nullo con v ∈ Vλ si dice autovettore di f relativo all’autovalore λ. Lemma. Se f ∼ g allora Spettro(f ) = Spettro(g). Inoltre, se g = h ◦ f ◦ h−1 , allora Vλ (g) = h(Vλ (f )) (e quindi in particolare dim Vλ (f ) = dim Vλ (g)). Dimostrazione. Se λ ∈ Spettro(f ) allora esiste v 6= 0 tale che f (v) = λv. Ora, g ◦ h = h ◦ f , dunque g(h(v)) = h(f (v)) = h(λv) = λh(v), ovvero h(v) 6= 0 è un autovettore per g relativo a λ. Abbiamo dimostrato che Spettro(f ) ⊆ Spettro(g) e che h(Vλ (f )) ⊆ Vλ (g). Per la simmetria della relazione di equivalenza (ovvero ripetendo il ragionamento con h−1 ) valgono anche le inclusioni opposte, e quindi le uguaglianze. Osservazione. Gli autospazi di f sono f -invarianti: f (Vλ ) ⊆ Vλ . Osservazione. Se λ, µ sono autovalori distinti di f , Vλ ∩ Vµ = {0}. Definizione. Data A ∈ Mn si definisce polinomio caratteristico di A il polinomio pA (t) = det(A − tI). Dato f ∈ End(V ) e fissata una base B di V , il polinomio caratteristico di f è pf (t) = pA (t) dove A = MB (f ). Lemma. Il polinomio caratteristico di f è ben definito (non dipende da B). Dimostrazione. Date due basi B, D di V , sia P la matrice di cambio di base. Siano A = MB (f ) e B = MD (f ). Allora B = P AP −1 , quindi si ha che pB (t) = det(P AP −1 − tI) = det(P (A − tI)P −1 ) = det(A − tI) = pA (t). Lemma. Se f ∼ g, allora pf (t) = pg (t). Dimostrazione. f e g sono simili se rispetto ad opportune basi hanno la stessa matrice associata A. Quindi pf (t) = pA (t) = pg (t). Lemma. λ ∈ Spettro(f ) se e solo se pf (λ) = 0. Definizione. Sia λ ∈ Spettro(f ). Si dice molteplicità algebrica di λ la sua molteplicità mλ come radice di pf (t). Si dice molteplicità geometrica di λ il valore dim Vλ . Lemma. Dato λ ∈ Spettro(f ), si ha che mλ ≥ dim Vλ . Dimostrazione. Sia k = dim Vλ . Sia B una base di V che estende una base di Vλ . Allora λIk B A = MB (f ) = , 0 C e dunque pf (t) = pA (t) = p(λI) (t) · pC (t) = (λ − t)k · pC (t), da cui mλ ≥ k. 1 1.2 Diagonalizzabilità e triangolabilità Definizione. Una base B di V si dice diagonalizzante per f se tutti gli elementi di B sono autovettori di f . Un endomorfismo f si dice diagonalizzabile se esiste una base B diagonalizzante (per cui MB (f ) è diagonale). Lemma. Se f ∼ g e f è diagonalizzabile, allora anche g è diagonalizzabile. Dimostrazione. Per ipotesi esiste una base B di V diagonalizzante per f , e inoltre g = h ◦ f ◦ h−1 con h isomorfismo. Allora h(B) è una base di V (perché h è un isomorfismo) diagonalizzante per g (perché Vλ (g) = h(Vλ (f )), dunque h manda autovettori di f in autovettori di g). Lemma. Siano λ1 , . . . , λr alcuni autovalori di f , e siano vi ∈ Vλi . Se v1 + v2 + · · · + vr = 0 allora v1 = v2 = · · · = vr = 0 (ovvero vettori appartenenti ad autospazi diversi sono linearmente indipendenti). Dimostrazione. Procediamo per induzione su r. Per r = 1 l’enunciato è ovvio. Se v1 + · · · + vr = 0, applicando la f ad entrambi i membri si ottiene λ1 v1 + · · · + λr vr = 0; sottraendo da questa l’uguaglianza λr (v1 + · · · + vr ) = 0 si ottiene (λ1 − λr )v1 + · · · + (λr−1 − λr )vr−1 = 0. L’i-esimo vettore di questa somma appartiene a Vλi , quindi per ipotesi induttiva è nullo: (λi − λr )vi = 0 (per 1 ≤ i ≤ r − 1) e dunque v1 = v2 = · · · = vr−1 = 0, da cui anche vr = 0. Teorema (Diagonalizzabilità). f ∈ End(V ) è diagonalizzabile se e solo se sono verificate le seguenti condizioni: • pf (t) si fattorizza completamente su K; • per ogni λ ∈ Spettro(f ), dim Vλ = mλ . Dimostrazione. Se f è diagonalizzabile allora esiste una base B in cui A = MB (f ) è diagonale. Quindi pf (t) = pA (t) è della forma Q pA (t) = (λi − t), ovvero si fattorizza completamente. Sia λ un autovalore. Si ha che dim Vλ = dim ker(A − λI); quest’ultima matrice ha mλ colonne nulle (quelle corrispondenti ai valori λ sulla diagonale), quindi dim Vλ ≥ mλ , da cui dim Vλ = mλ . Supponiamo S ora che siano verificate le due condizioni. Siano λ1 , . . . , λk gli autovalori di f e siano B1 , . . . , Bk basi degli autospazi. Sia B P = Bi . Per precedente i vettori di B sono linearmente indipendenti. D’altra parte, detta n = dim V , si ha che P il lemma P |B| = |Bi | = dim Vλi = mλi = n, quindi B è una base di V . Essa è composta unicamente da autovettori di f , quindi f è diagonalizzabile. Corollario. Se f, g sono diagonalizzabili, allora f ∼ g se e solo se pf (t) = pg (t). Corollario. Se tutti gli autovalori di f hanno molteplicità algebrica uguale a 1, allora f è diagonalizzabile. Definizione. Un endomorfismo f si dice triangolabile se esiste una base B = {v1 , . . . , vn } di V tale che MB (f ) è triangolare superiore, o, equivalentemente, se i sottospazi Span{v1 , . . . , vi } (con 1 ≤ i ≤ n) sono f -invarianti. Teorema (Triangolabilità). Un endomorfismo f è triangolabile se e solo se pf (t) si fattorizza completamente su K. Dimostrazione. Se fQè triangolabile, sia B la base che triangola f e sia A = MB (f ). Detti λi gli elementi della diagonale, si ha che pf (t) = pA (t) = (λi − t) è completamente fattorizzabile. Dimostriamo il viceversa per induzione su n. Per n = 1 il risultato è ovvio. Consideriamo ora un n generico. Essendo pf (t) completamente fattorizzabile, in particolare esiste un autovalore λ di f ; sia v un corrispondente autovettore. Sia D = {v, w1 , w2 , . . . , wn−1 } una qualsiasi base di V che contiene v. Detto W = Span{w1 , . . . , wn−1 } abbiamo che V = Span{v} ⊕ W ; sia π : V → W la proiezione su W . Sia g : W → W l’applicazione lineare definita da g = π ◦ f |W . Per ipotesi induttiva, esiste una base B 0 di W che triangola g; ma allora è facile verificare che la base B = {v} ∪ B 0 di V triangola f . Corollario. Se K è algebricamente chiuso, allora ogni endomorfismo di V è triangolabile. Corollario. Se f ∼ g e f è triangolabile, allora g è triangolabile. 2 1.3 Polinomio minimo Definizione. Dato f ∈ End(V ), sia I(f ) = {q(x) ∈ K | q(f ) = 0}. I(f ) è un ideale; si dice polinomio minimo di f il polinomio monico qf (t) che genera I(f ). Lemma. Se f ∼ g, allora I(f ) = I(g). Dimostrazione. Abbiamo che g = h ◦ f ◦ h−1 . Sia q(t) ∈ I(f ). Allora q(g) = q(h ◦ f ◦ h−1 ) = h ◦ q(f ) ◦ h−1 = 0, quindi q(t) ∈ I(g). Per simmetria, I(f ) = I(g). Teorema (Hamilton-Cayley). Ogni endomorfismo f annulla il suo polinomio caratteristico pf (t). Dimostrazione. Sia F la chiusura algebrica di K. Su F, il polinomio caratteristico pf (t) si fattorizza completamente: pf (t) = Q (λi − t); quindi f è triangolabile. Sia B = {v1 , . . . , vn } una base che triangola f . Dimostriamo per induzione su k che (λ1 · id − f ) ◦ (λ2 · id − f ) ◦ · · · ◦ (λk · id − f )(vk ) = 0. Se k = 1, (λ1 · id − f )(v1 ) = λ1 v1 − f (v1 ) = 0. Per un generico k, (λ1 · id − f ) ◦ (λ2 · id − f ) ◦ · · · ◦ (λk · id − f )(vk ) = (λ1 · id − f ) ◦ · · · ◦ (λk−1 · id − f )(λk vk − f (vk )) = P Pk−1 (λ1 · id − f ) ◦ · · · ◦ (λk−1 · id − f )( k−1 i=1 ai vi ) = i=1 ai (λ1 · id − f ) ◦ · · · ◦ (λk−1 · id − f )(vi ) = 0 (quest’ultima uguaglianza è vera per ipotesi induttiva e perché le varie funzioni λi · id − f commutano). Quindi pf (f ) si annulla in ogni elemento della base B, e dunque è l’endomorfismo nullo. Lemma. Se λ ∈ Spettro(f ) e q(t) ∈ I(f ), allora q(λ) = 0. Questo vale in particolare per il polinomio minimo. Dimostrazione. Sia v un autovettore di f relativo a λ. Dato che qf (f ) è l’endomorfismo nullo, si ha in particolare che (qf (f ))(v) = 0. Essendo f (v) = λv, abbiamo che (qf (f ))(v) = qf (λ) · v; ma v 6= 0, quindi deve essere qf (λ) = 0. Teorema (Decomposizione primaria). Siano f ∈ End(V ) e q(t) ∈ I(f ). Supponiamo che q(t) = q1 (t) · q2 (t) con (q1 (t), q2 (t)) = 1. Allora V = ker q1 (f ) ⊕ ker q2 (f ) e inoltre i due sottospazi ker q1 (f ) e ker q2 (f ) sono f -invarianti. Dimostrazione. Per il teorema di Bézout esistono due polinomi a1 (t), a2 (t) tali che a1 (t) · q1 (t) + a2 (t) · q2 (t) = 1. Valutando questi polinomi in f e calcolando l’applicazione trovata in un generico v ∈ V , troviamo che v = (a1 (f ) ◦ q1 (f ))(v) + (a2 (f ) ◦ q2 (f ))(v). Notiamo che (q2 (f ) ◦ a1 (f ) ◦ q1 (f ))(v) = (a1 (f ) ◦ q2 (f ) ◦ q1 (f ))(v) = (a1 (f ) ◦ q(f ))(v) = 0, quindi (a1 (f ) ◦ q1 (f ))(v) ∈ ker q2 (f ); similmente anche (a2 (f ) ◦ q2 (f ))(v) ∈ ker q1 (f ). Quindi abbiamo scritto ogni v ∈ V come somma di vettori in ker q1 (f ) e in ker q2 (f ). Per dimostrare che la somma è diretta è sufficiente notare che se v ∈ ker q1 (f )∩ker q2 (f ) allora entrambi gli addendi dell’uguaglianza precedente si annullano, quindi v = 0 + 0 = 0. Infine, se v ∈ ker q1 (f ), allora (q1 (f ))(v) = 0, dunque (f ◦ q1 (f ))(v) = 0 da cui (q1 (f ) ◦ f )(v) = 0 ovvero (q1 (f ))(f (v)) = 0, cioè anche f (v) ∈ ker q1 (f ). Quindi ker q1 (f ) è f -invariante. Similmente anche ker q2 (f ) lo è. 3 2 Prodotti scalari 2.1 Definizioni sui prodotti scalari Definizione. Un prodotto scalare su V è un’applicazione φ : V × V → K bilineare e simmetrica. Definizione. Un’isometria tra due spazi muniti di prodotto scalare è un’applicazione f : (V, φ) → (W, ψ) tale che • f è un isomorfismo di spazi vettoriali; • f preserva i prodotti scalari: φ(v1 , v2 ) = ψ(f (v1 ), f (v2 )). Definizione. Due spazi (V, φ), (W, ψ) si dicono isometrici se esiste un’isometria f : (V, φ) → (W, ψ). È facile verificare che si tratta di una relazione di equivalenza. Osservazione. Fissata una base B = {v1 , . . . , vn } di V , definiamo M = MB (φ) = (φ(vi , vj )). Come è facile verificare, se [v]B = X e [w]B = Y , si ha che φ(v, w) = X t M Y . Lo spazio Scal(V ) dei prodotti scalari su V è quindi isomorfo allo spazio S(n, K) delle matrici n × n simmetriche; lo spazio Bil(V ) delle applicazioni bilineari su V è invece isomorfo a M(n, K). B Osservazione. Consideriamo due basi B, D di V ; sia P = MD (id) la matrice di cambiamento di base da B a D e siano X, Y le coordinate di v, w in base B (quindi P X e P Y sono le coordinate in base D). Allora φ(v, w) = (P X)t MD (φ)(P Y ) = X t · P t MD (φ)P · Y. Ne segue che MB (φ) = P t MD (φ)P . Notiamo che se A è simmetrica (ovvero rappresenta un prodotto scalare), allora anche P t AP è simmetrica, infatti (P t AP )t = P t At P = P t AP . Definizione. Due matrici A, B ∈ M(n, K) si dicono congruenti se esiste P ∈ GL(n, K) tale che B = P t AP . È facile verificare che si tratta di una relazione di equivalenza. Lemma. Siano φ, ψ ∈ Scal(V ). I seguenti fatti sono equivalenti. • φ e ψ sono isometrici. • Per ogni base B di V , MB (φ) e MB (ψ) sono congruenti. • Esistono B, D basi di V tali che MB (φ) = MD (ψ). Definizione. Si dice radicale di φ il sottospazio vettoriale Rad (φ) = {v ∈ V | φ(v, w) = 0 ∀ w ∈ V }. φ si dice non degenere se Rad (φ) = {0}. Definizione. Due vettori v, w ∈ V si dicono ortogonali rispetto a φ se φ(v, w) = 0. Osservazione. Se f : (V, φ) → (W, ψ) è un’isometria, allora f (Rad (φ)) = Rad (ψ). Definizione. Un vettore v ∈ V si dice isotropo se φ(v, v) = 0. φ si dice anisotropo se l’unico vettore isotropo è il vettore nullo. Osservazione. Se φ è anisotropo, allora è non degenere. Non vale tuttavia l’implicazione opposta. Osservazione. Se φ è non degenere e W è un sottospazio di V , φ|W può essere degenere (si prenda per esempio, se esiste, w isotropo e W = Span{w}). Lemma. Sia B una base di V e sia M = MB (φ). Allora dim Rad (φ) = dim V − rkM . 4 Lemma. Supponiamo che V = U1 ⊕ Rad (φ) = U2 ⊕ Rad (φ). Allora U1 e U2 sono canonicamente isometrici (l’isomorfismo è la proiezione di U1 su U2 ). Inoltre per ogni complementare U di Rad (φ), φ|U è non degenere. Definizione. Sia W un sottospazio vettoriale di V . L’ortogonale di W è W ⊥ = {v ∈ V | φ(v, w) = 0 ∀ w ∈ W }. Lemma. dim W ⊥ = dim V − dim W + dim(W ∩ Rad (φ)). Corollario. • Se φ è non degenere, dim W ⊥ = dim V − dim W . Dato che in generale W ⊆ (W ⊥ )⊥ , in questo caso si ha proprio che (W ⊥ )⊥ = W . • Se φ è qualsiasi e φ|W è non degenere, allora si ha comunque che dim W ⊥ = dim V − dim W . Inoltre W ∩ W ⊥ = Rad (φ|W ) = {0}, quindi V = W ⊥ W ⊥ . In effetti V = W ⊥ W ⊥ se e solo se φ|W è non degenere. 2.2 Basi ortogonali D’ora in poi assumeremo che K sia un campo a caratteristica diversa da 2. In particolare, molti risultati riguarderanno più nello specifico i casi di R e C. Definizione. Una base B = {v1 , . . . vn } è ortogonale rispetto a φ se φ(vi , vj ) = 0 per ogni i 6= j. Equivalentemente, MB (φ) è diagonale. Osservazione. φ è identicamente nullo se e solo se tutti i vettori di V sono isotropi. Dimostrazione. L’implicazione ⇒ è ovvia. Per l’altra notiamo che φ(v, w) = 21 (φ(v + w, v + w) − φ(v, v) − φ(w, w)) (formula di polarizzazione); se tutti i vettori di V sono isotropi, allora φ(v, w) = 0 per ogni v, w ∈ V . Teorema. Esiste una base di V ortogonale per φ. Teorema (Classificazione dei prodotti scalari a meno di isometrie su C). Su C, s = dim Rad (φ) è un invariante completo. Inoltre esiste una base ortogonale B di V tale che In−s 0 , MB (φ) = 0 0 Definizione. Su R, φ si dice definito positivo se per ogni v 6= 0, φ(v, v) > 0. Definizione. Su R, l’indice di positività i+ (φ) è la massima dimensione di un sottospazio su cui la restrizione di φ è definita positiva. Si definisce in modo analogo l’indice di negatività i− (φ). Si indica anche con i0 (φ) la dimensione di Rad (φ) (indice di nullità). La terna (i+ , i− , i0 ) è chiamata segnatura di φ. Teorema. La segnatura è un invariante completo. Inoltre, detta (p, q, s) la segnatura di φ, esiste B ortogonale tale che Ip 0 0 MB (φ) = 0 −Iq 0 , 0 0 0 Lemma (Criterio di Jacobi). Sia A ∈ S(n, R) la matrice che rappresenta un prodotto scalare. Sia Mi la sottomatrice costituita dalle prime i righe e dalle prime i colonne e sia di = det Mi . Supponiamo che di 6= 0 per 1 ≤ i ≤ n. Allora esiste una base B di Rn tale che d2 d3 dm MB (A) = diag d1 , , , . . . , . d1 d2 dm−1 In altre parole, l’indice di negatività di φ è uguale al numero di cambi di segno nella successione dei determinanti di (se d1 < 0, questo conta come cambio di segno). 5 2.3 Gruppo ortogonale Definizione. Sia φ non degenere. Si definisce il gruppo ortogonale in questo modo: O(φ) = {f ∈ GL(V ) | f è un’isometria di φ}. Osservazione. In coordinate rispetto ad una base B, detto M = MB (φ), il gruppo ortogonale diventa O(M ) = {A ∈ GL(n, K) | A−1 = M −1 At M }. Se B è ortonormale per φ (ovvero M = I), otteniamo O(n, K) = {A ∈ GL(n, K) | A−1 = At }. Osservazione. Come risulta chiaro dalla scrittura in termini di matrici, se f ∈ O(φ), allora det f = ±1. Definizione. Il gruppo speciale ortogonale è SO(φ) = {f ∈ O(φ) | det f = 1}. Definizione. Sua v ∈ V non isotropo. Allora V = Span{v} ⊥ Zv con Zv = Span{v}⊥ ; dunque ogni w ∈ V si può scrivere in modo unico come w = λv + z, con λ ∈ K e z ∈ Zv . Definiamo riflessione parallela a v l’applicazione lineare ρv : V → V tale che ρv (w) = −λv + z. È facile verificare che ρv ∈ O(φ). Teorema. O(φ) è generato dalle riflessioni. 2.4 Duali Definizione. Il duale di uno spazio vettoriale V è V ∗ = Hom(V, K). Osservazione. Fissando una base B = {v1 , . . . , vn } di V e la base canonica C = {1} di K, abbiamo un isomorfismo tra V ∗ e M(1, n, K). Su M(1, n, K) abbiamo la base canonica, che quindi corrisponde (tornando indietro) alla base B ∗ = {v1∗ , . . . vn∗ } di V ∗ definita da vj∗ (vi ) = δij . Abbiamo quindi un isomorfismo fB tra V e V ∗ , che manda B in B ∗ Osservazione. Sia B = {v1 , . . . , vn } una base di V . Sia ϕ ∈ V ∗ . Allora ϕ(v1 ) [ϕ]B∗ = ... . ϕ(vn ) Lemma. L’isomorfismo F = fB∗ ◦ fB : V → V ∗∗ non dipende dalla base B (è canonico). Dimostrazione. Mostriamo che F = F 0 , dove F 0 è l’applicazione lineare V → V ∗∗ che manda v in ϕv : V ∗ → K definito da ϕv (ψ) = ψ(v). Basta verificarlo per i vettori della base B: fB∗ (fB (vi )) = ϕvi ⇐⇒ fB∗ (vi∗ ) = ϕvi ⇐⇒ vi∗∗ = ϕvi . Quest’ultima uguaglianza (tra funzionali V ∗ → K) può essere verificata sugli elementi della base B ∗ : vi∗∗ (vj∗ ) = ϕvi (vj ) ⇐⇒ δij = vj (vi ), che è effettivamente verificata. 6 Definizione. Data f : V → W lineare, definiamo f t : W ∗ → V ∗ in modo che f t (ϕ) = ϕ ◦ f . Osservazione. Se f : V → W e g : W → Z, allora (g ◦ f )t = f t ◦ g t . Definizione. L’annullatore di un sottospazio W di V è Ann (W ) = {φ ∈ V ∗ : φ|W = 0}. Osservazione. Data {v1 , . . . , vk } base di W completata a {v1 , . . . , vn } base di VP , abbiamo la base duale ∗ ∗ {v1∗ , . . . , vn∗ } di V ∗ . Chiaramente v , . . . , v ∈ Ann (W ) e, d’altra parte, se φ = ai vi∗ ∈ Ann (W ), allora n k+1 P ∗ ∗ ∗ (dato j ≤ k) 0 = φ(vj ) = ai vi (vj ) = aj . Ne segue che {vk+1 , . . . , vn } è una base di Ann (W ). Quindi dim Ann (W ) = dim V − dim W . Lemma. ker f t = Ann Im f, Im f t = Ann ker f . In particolare, dim Im f = dim Im f t . Dimostrazione. ker f t = {ϕ ∈ W ∗ : ϕ ◦ f = 0} = Ann (Im f ). Inoltre si vede facilmente che se ϕ ∈ Im f t , allora ϕ ∈ Ann ker f . D’altra parte dim W = dim W ∗ = dim ker f t + dim Im f t e dunque dim Im f t = dim W − dim Ann (Im f ) = dim W − (dim W − dim Im f ) = dim Im f . Avendo un’inclusione e l’uguaglianza delle dimensioni, possiamo concludere che Im f t = Ann ker f . Lemma. In coordinate rispetto a due basi B di V e D di W , la trasposizione degli omomorfismi corrisponde alla trasposizione delle matrici. Dedichiamoci ora allo studio dei duali nel caso di uno spazio vettoriale V munito di un prodotto scalare φ. Definiamo Fφ : V → V ∗ l’applicazione lineare che manda v in ϕv definita da ϕv (w) = φ(v, w). Osservazione. ker Fφ = {v ∈ V : φ(v, w) = 0 ∀w ∈ V } = Rad (φ). Ne segue che Fφ è un isomorfismo se e solo se φ è non degenere (infatti dim V = dim V ∗ e in questo caso Fφ è iniettiva, dunque suriettiva). Definizione. ϕ ∈ Im Fφ si dice φ-rappresentabile per mezzo di un vettore v ∈ V . Per quanto osservato, se φ è non degenere ogni funzionale è rappresentabile in modo unico da v ∈ V . Lemma. Im Fφ = Ann Rad φ. Dimostrazione. Sia ϕ ∈ Im Fφ , ovvero ϕ(w) = φ(v, w) per qualche v ∈ V e per ogni w ∈ V . Se w ∈ Rad φ, allora ϕ(w) = φ(v, w) = 0; quindi ker ϕ ⊆ Rad φ. In altre parole, ogni ϕ ∈ Im Fφ deve annullarsi su ogni vettore di Rad φ, ovvero Im Fφ ⊆ Ann Rad φ. D’altra parte dim Im Fφ = n − dim ker Fφ = n − dim Rad φ = dim Ann Rad φ. Quindi Im Fφ = Ann Rad φ. Osservazione. Sia φ non degenere. Dato U sottospazio di V , si ha che Fφ (U ⊥ ) = Ann U (è facile verificare l’inclusione ⊆ e inoltre le dimensioni sono uguali). Quindi passando da V a V ∗ tramite l’isomorfismo Fφ , l’ortogonale diventa l’annullatore (e le proprietà sono quindi analoghe). Sia ora φ un prodotto scalare non degenere su V . Definiamo1 Fφs : End(V ) → Bil(V ) in modo che mandi f in ψfs , definita da ψfs (v, w) = φ(f (v), w). In modo simile si definiscono Fφd che manda f in ψfd , dove ψfd (v, w) = φ(v, f (w)). Osservazione. ker Fφs = {f ∈ End(V ) : φ(f (v), w) = 0 ∀v, w} = {f ∈ End(V ) : Im f ⊆ Rad φ = {0}} = {0}. Quindi Fφs è un isomorfismo (infatti gli spazi End(V ) e Bil(V ) hanno entrambi dimensione n2 ). Lo stesso chiaramente vale per Fφd . Definizione. Definiamo l’endomorfismo φ-aggiunto di f l’endomorfismo f ∗ = (Fφd )−1 ◦ Fφs (f ). Vale quindi φ(f (v), w) = φ(v, f ∗ (w)). 1 Attenzione, qui Benedetti usa la stessa notazione di prima! Non confondere Fφ con Fφs e Fφd , sono cose molto diverse! 7 Osservazione. φ(v, f ∗∗ (w)) = φ(f ∗ (v), w) = φ(w, f ∗ (v)) = φ(f (w), v) = φ(v, f (w)). Dunque Fφd (f ∗∗ ) = Fφd (f ); essendo Fφd un isomorfismo, ne segue che f ∗∗ = f . Definizione. f è autoaggiunto se f = f ∗ . In altre parole, Fφs (f ) = Fφd (f ), ovvero φ(f (v), w) = φ(v, f (w)) per ogni v, w ∈ V . Osservazione. In coordinate dispetto ad una base B di V , facciamo corrispondere v, w → X, Y ∈ Kn φ → M ∈ GL(n, K) ∩ S(n, K) ∗ → A, A∗ ∈ M(n, K) f, f ψfs , ψfd → N s , N d ∈ M(n, K). Ora, ψfs (v, w) = φ(f (v), w) = (AX)t M Y = X t (At M )Y , quindi N s = At M . Similmente, N d = M A. Inoltre φ(f ∗ (v), w) = φ(v, f (w)), ovvero (A∗ X)t M Y = X t M (AY ), da cui infine A∗ = M −1 At M . La condizione f = f ∗ si traduce come A = M −1 At M . Osservazione. Se B è una base ortonormale per φ, allora M = I. Quindi A∗ = At , quindi le matrici corrispondenti ad applicazioni autoaggiunte sono le matrici simmetriche. Osservazione. Se f è autoaggiunta, allora ψfs = ψfd ; inoltre questa forma bilineare è anche simmetrica (e quindi è un prodotto scalare). Quindi Fφd e Fφs mandano le applicazioni autoaggiunte nei prodotti scalari. Lemma. Dato f ∈ End(V ) e φ non degenere su V , f ∗ = Fφ−1 ◦ f t ◦ Fφ . Dimostrazione. Sia fˆ = Fφ−1 ◦ f t ◦ Fφ , ovvero Fφ ◦ fˆ = f t ◦ Fφ . Calcolando entrambi i membri in un generico v otteniamo Fφ (fˆ(v)) = f t (Fφ (v)). Ora, Fφ (v) = ϕv definito da ϕv (w) = φ(v, w); inoltre f t (ϕ) = ϕ ◦ f . Quindi il membro di destra diventa f t (ϕv ) = ϕv ◦ f ; quest’ultimo, calcolato in w (infatti l’uguaglianza precedente è tra funzionali di V ∗ ) diventa φ(v, f (w)). Il membro di sinistra calcolato in w invece è ϕfˆ(v) (w) = φ(fˆ(v), w). Abbiamo dunque che φ(v, f (w)) = φ(fˆ(v), w), e questa è esattamente la condizione rispettata dall’aggiunta. Quindi f ∗ = fˆ. Definizione. Sia Tpq (V ) lo spazio dei tensori di tipo (p, q) su V , ovvero lo spazio delle applicazioni multilineari V p × (V ∗ )q → K. Osservazione. T10 = V ∗ . T01 = V ∗∗ ∼ =V. T20 = Bil(V ). T11 ∼ = End(V ). Quest’ultimo isomorfismo è canonico. 2.5 Teorema spettrale Definizione. Sia V uno spazio vettoriale su C. Un prodotto hermitiano è un’applicazione φ : V × V → C tale che • φ è lineare nel primo argomento e antilineare nel secondo: φ(v, w1 +w2 ) = φ(v, w1 ) +φ(v, w2 ) e φ(v, λw) = λ̄φ(v, w); • φ(v, w) = φ(w, v). Osservazione. φ(v, v) = φ(v, v), quindi φ(v, v) ∈ R. Osservazione. Per i prodotti hermitiani si definiscono (similmente ai prodotti scalari reali) l’ortogonale di un sottospazio e la segnatura (che è un invariante completo). Inoltre esistono basi ortogonali. 8 Osservazione. In coordinate rispetto ad una base B, un prodotto hermitiano φ corrisponde ad una matrice M = (φ(vi , vj )) hermitiana, ovvero tale che M t = M̄ . Se X = [v]B e Y = [v]B , allora φ(v, w) = X t M Ȳ . Quanto φ è definito positivo, esistono basi ortonormali, che in questo contesto vengono chiamate unitarie. L’analogo del gruppo ortogonale reale è il gruppo unitario U (n) = {P ∈ GL(n, C : P −1 = P¯t }. Osserviamo che O(n, R) ⊆ U (n). Teorema (Teorema spettrale reale). Sia V uno spazio vettoriale su R e φ un prodotto scalare definito positivo. Valgono i seguenti fatti. 1. Per ogni f ∈ End(V ) autoaggiunto, esiste una base ortonormale per φ fatta di autovettori per f . 2. Per ogni ψ prodotto scalare, esiste una base simultaneamente ortonormale per φ e ortogonale per ψ. 3. Per ogni A ∈ S(n, R), esiste P ∈ O(n, R) tale che P −1 AP è diagonale. Dimostrazione. • (1) coimplica (3). In coordinate, essendo φ definito positivo esiste una base in cui φ è rappresentato dall’identità I e dunque f è rappresentato da una matrice simmetrica A. Se esiste una base B ortonormale per φ tale che MB (f ) = D diagonale, ciò significa che esiste una matrice di cambio di base P ∈ GL(n, R) tale che P t IP = I e P t AP = D. La prima condizione, P t P = I, è equivalente a P ∈ O(n, R). La seconda può essere quindi riscritta come P −1 AP = D diagonale. • (2) coimplica (3). In coordinate rispetto ad una base ortonormale per φ, la (2) diventa: per ogni matrice A simmetrica (che rappresenta ψ), esiste una matrice di cambio di base P ∈ GL(n.R) tale che P t IP = I e P t AP = D diagonale. Come prima, questo è equivalente alla (3). • Dimostrazione della (1). Complessificando V otteniamo VC e fC (quest’ultimo con lo stesso polinomio caratteristico di f ). Fissiamo una base B di V ortonormale per φ (questa sarà una base reale di VC ). Sia A = MB (f ) = MB (fC ). Complessificando anche φ, definiamo un prodotto hermitiano (definito positivo) su VC che in coordinate diventa (X, Y ) → X t Ȳ . Sia α un autovalore per A. Sia Z ∈ Cn un corrispondente autovalore, ovvero tale che AZ = αZ. Allora si ha che ᾱZ t Z̄ = Z t (αZ) = Z t AZ = Z t AZ̄ = Z t At Z̄ = (AZ)t Z̄ = (αZ)t Z̄ = αZ t Z̄. Essendo Z t Z̄ un reale positivo (perché il prodotto hermitiano φC è definito positivo), dividendo otteniamo che ᾱ = α, ovvero che α ∈ R. Dunque f ha tutti gli autovalori reali. Dimostriamo la (1) per induzione su n = dim V . Per n = 1 non c’è nulla da dimostrare. Assumiamo la tesi vera per n − 1 e dimostriamola per dim V = n. Sia λ un autovalore per f e sia v un relativo autovettore. Essendo φ definito positivo, in particolare v è non isotropo. Allora, detto Zv = Span{v}⊥ , abbiamo che V = Span{v} ⊥ Z. Osserviamo ora che – φ|Zv è definito positivo. – Se w ∈ Zv , allora φ(v, w) = 0, quindi (v autovettore) φ(f (v), w) = 0, da cui (f autoaggiunto) φ(v, f (w)) = 0, che implica f (w) ∈ Zv . Dunque Zv è f -invariante. – f è autoaggiunto rispetto a φ, quindi in particolare f |Zv è autoaggiunto rispetto a φ|Zv . Per ipotesi induttiva, esiste B 0 base di Zv ortonormale per φZv fatta di autovettori per f |Zv . Allora la base ( ) v B= p ∪ B0 φ(v, v) è ortonormale per φ e fatta di autovettori per f . Corollario. Data una matrice A reale simmetrica, i+ (A) è uguale al numero di autovalori positivi di A (contati con molteplicità), i− (A) è uguale al numero di autovalori negativi di A e i0 (A) = dim Rad φ è uguale alla molteplicità dell’autovalore 0 (che giustamente è uguale a dim ker A). Osservazione. Data una matrice A reale simmetrica, per trovare una base ortonormale di autovettori per A è sufficiente prendere una base ortonormalizzata di ogni autospazio di A e unire queste basi. Infatti, essendo A simmetrica, due suoi autospazi diversi sono sempre ortogonali. Osservazione. Vale anche il viceversa del TSR. Il TSR può quindi essere enunciato in questo modo: una matrice A è simmetrica se e solo se è diagonalizzabile per mezzo di una matrice ortogonale. 9 Lemma. Date due matrici A, B ∈ M(n, R), A e B sono simultaneamente diagonalizzabili per mezzo di una matrice ortogonale se e solo se sono entrambe simmetriche e commutano. Definizione. Sia V uno spazio vettoriale su C e sia φ un prodotto hermitiano definito positivo. In coordinate rispetto ad una base unitaria, l’aggiunto di un endomorfismo f (rappresentato da una matrice A) è dato da f ∗ rappresentato dalla matrice A∗ = Āt . Definizione. f ∈ End(V ) si dice normale (rispetto a φ) se f ◦ f ∗ = f ∗ ◦ f . Esempio. Queste sono alcune classi di operatori normali (con la corrispondente versione matriciale in coordinate rispetto ad una base unitaria): • Autoaggiunti: f = f ∗ (A = Āt ). • Anti-autoaggiunti: f = −f ∗ (A = −Āt ). • Unitari: f −1 = f ∗ (A−1 = Āt , ovvero A ∈ U (n)). Lemma. Se f è unitariamente diagonalizzabile (ovvero esiste una base unitaria per φ fatta di autovettori per f ) allora è normale. Dimostrazione. In coordinate rispetto ad una tale base, f è rappresentato da una matrice D diagonale e f ∗ è rappresentato da D∗ = D̄. Chiaramente D e D∗ commutano, quindi anche f e f ∗ commutano. Quindi f è normale. Lemma. Sia f normale. λ ∈ Spettro(f ) se e solo se λ̄ ∈ Spettro(f ∗ ) ed inoltre i rispettivi autospazi coincidono: Vλ (f ) = Vλ̄ (f ∗ ). Dimostrazione. Intanto f ∗∗ = f , quindi basta dimostrare un’implicazione (e una delle due inclusioni). Supponiamo che f (v) = λv. Dato che f e f ∗ commutano, Vλ (f ) è f ∗ -invariante. Quindi f ∗ (v) − λ̄v ∈ Vλ (f ). Ora, φ(f ∗ (v), w) = φ(v, f (w)); ne segue che, per ogni w ∈ Vλ (f ), φ(f ∗ (v) − λ̄v, w) = φ(f ∗ (v), w) − λ̄φ(v, w) = φ(v, f (w)) − λ̄φ(v, w) = φ(v, λw) − λ̄φ(v, w) = 0. In particolare, per w = f ∗ (v) − λ̄v, otteniamo che f ∗ (v) − λ̄v è isotropo; essendo φ definito positivo, questo implica che f ∗ (v) = λ̄v. Teorema (Teorema spettrale hermitiano). Sia V uno spazio vettoriale su C e sia φ un prodotto hermitiano definito positivo. Un endomorfismo f è unitariamente diagonalizzabile se e solo se f è normale. Dimostrazione. Un’implicazione è già stata dimostrata in un lemma precedente. Dimostriamo per induzione su n = dim V che se f è normale allora è unitariamente diagonalizzabile. Come al solito, il passo base n = 1 è banale. Supponiamo la tesi vera per n − 1 e dimostriamola per n. Sia v 6= 0 tale che f (v) = λv. Essendo φ definito positivo, abbiamo che V = Span{v} ⊥ Zv , con Zv = Span{v}⊥ . Zv è sia f -invariante che f ∗ -invariante, infatti v ∈ Vλ (f ) implica v ∈ Vλ̄ (f ∗ ).2 Si conclude applicando l’ipotesi induttiva a Zv , con φ|Zv (definito positivo) e g = f |Zv , osservando che g ∗ = f ∗ |Zv . Corollario. Sia f normale. Allora • f è autoaggiunto se e solo se Spettro(f ) è reale; • f è anti-autoaggiunto se e solo se Spettro(f ) è immaginario puro; • f è unitario se e solo se Spettro(f ) è unitario (ovvero gli autovalori hanno norma 1). Osservazione. Attraverso la complessificazione (un po’ come per la forma di Jordan reale), il TSH ha interessanti conseguenze anche nel caso di spazi vettoriali reali. 2 Si procede in modo analogo alla dimostrazione del TSR. 10 2.6 Teoria di Witt Sia V uno spazio vettoriale su un campo a caratteristica diversa da 2, e sia φ un prodotto scalare non degenere. Definizione. Due sottospazi W1 e W2 di V si dicono congruenti se esiste f ∈ O(φ) tale che f (W1 ) = W2 . Osservazione. Se W1 e W2 sono congruenti, allora f |W1 è un’isometria tra (W1 , φ|W1 ) e (W2 , φ|W2 ), che quindi sono isometrici. Teorema (Estensione, nel caso di restrizioni non degeneri). Se ρ : W1 → W2 è un’isometria e φ|W1 , φ|W2 sono non degeneri, allora esiste f ∈ O(φ) tale che f |W1 = ρ. Dimostrazione. Induzione su m = dim Wj . Se m = 0 ogni f ∈ O(φ) va bene. Fissiamo una base ortogonale {u1 , . . . , um } di W1 . Siano Z1 = Span{u1 , . . . , um−1 } e Z2 = ρ(Z1 ). Per ipotesi induttiva esiste f ∈ O(φ) tale che f |Z1 = ρ. Se anche f (um ) = ρ(um ) abbiamo finito. Altrimenti almeno uno tra f (um ) − ρ(um ) e f (um ) + ρ(um ) è non isotropo, e componendo f con opportune riflessioni si dimostra la tesi. c tale che W ⊆ W c e φ| c è non degenere. Definizione. Un ampliamento non degenere di W è un sottospazio W W Un ampliamento non degenere è detto un completamento non degenere se dim Ŵ è la minima tra quelle di tutti gli ampliamenti. c = V è un ampliamento non degenere di W . Osservazione. W Definizione. (P, ψ) è detto piano iperbolico se • dim P = 2; • ψ è non degenere; • esiste v ∈ P non nullo ed isotropo. Una base B = {v, t} di (P, ψ) è detta iperbolica se 0 MB (ψ) = 1 1 . 0 Osservazione. Se esiste una base iperbolica, allora P è un piano iperbolico. Lemma. Se (P, ψ) è un piano iperbolico, allora per ogni v 6= 0 isotropo esiste t ∈ P tale che {v, t} è una base iperbolica. Teorema (Completamenti non degeneri). 1. Sia W = U ⊥ Rad φ|W . Fissiamo una base {z1 , . . . , zk } di c di W della forma W c = U ⊥ P1 ⊥ · · · ⊥ Pk Rad φ|W . Allora esiste un completamento non degenere W con Pj piani iperbolici e zj parte di una base iperbolica {zj , tj } di Pj . 2. I completamenti iperbolici di W sono tra loro congruenti. c = dim W + dim Rad φ|W . 3. dim W c è effettivamente un ampliamento non degenere (è sufficiente scrivere la Dimostrazione. 1. Innanzitutto notiamo che un tale W matrice associata a φ in una base fatta da una base ortogonale di U e da basi iperboliche di Pj ). Dimostriamo per induzione c = W = U. su k = dim Rad φ|W che tale ampliamento esiste. Per k = 0 poniamo W Supponiamo la tesi vera per k − 1. Consideriamo una base B = {u1 , . . . , us , | {z } base di U z1 , . . . , zk | {z } , w1 , . . . , wr }. base di Rad φ|W Essendo φ non degenere, ogni funzionale di B ∗ si rappresenta per mezzo di un vettore di z1∗ per mezzo PV . Rappresentiamo P di d1 ∈ V . Quindi φ(d1 , zj ) = δ1j , φ(d1 , uj ) = φ(d1 , wj ) = 0. Se per assurdo d1 = ai ui + bj zj , allora si avrebbe 11 1 = φ(d1 , z1 ) = 0; quindi d1 è linearmente indipendente rispetto a {u1 , . . . , us , z1 , . . . , zk }. Sia P1 = Span{z1 , d1 }; questo è un piano iperbolico, infatti z1 è isotropo. Sia W1 = U ⊥ P1 ⊥ Span{z2 , . . . , zk }. Se U 0 = U ⊥ P1 , si ha che φ|U 0 è non c = U ⊥ P1 ⊥ · · · ⊥ Pk . degenere. Applicando l’ipotesi induttiva, troviamo un ampliamento non degenere W Sia ora V1 un completamento non degenere di W . La costruzione precedente si applica a W = U ⊥ Rad φ|W visto come c ⊆ V1 . Essendo V1 di dimensione minima possibile, deve essere V1 = W c . Abbiamo quindi sottospazio di V1 , quindi W ⊆ W anche dimostrato che ogni completamento non degenere è di questa forma. c1 = U ⊥ P1 ⊥ · · · ⊥ Pk e W c2 = U ⊥ P 0 ⊥ · · · ⊥ P 0 completamenti non degeneri, esiste un’isometria β : W1 → W2 2. Dati W 1 k che è l’identità su U e che manda basi iperboliche in basi iperboliche. Per il teorema di estensione nel caso di restrizioni non degeneri, β può essere estesa ad un’isometria di V e quindi i due completamenti sono congruenti. 3. Segue direttamente dalla costruzione. Teorema (Estensione). Se ρ : W1 → W2 è un’isometria, esiste f ∈ O(φ) tale che f |W1 = ρ. Definizione. Definiamo l’indice di Witt w(φ) come la massima dimensione di W tale che φ|W è identicamente nullo. Osservazione. w(φ) è invariante a meno di isometrie. In particolare w(φ) = 0 se e solo se φ è anisotropo. Osservazione. Sia W tale che dim W = w(φ). Allora il completamento non degenere di W è fatto solo da c = P1 ⊥ · · · ⊥ Pm con m = w(φ). In particolare 2m ≤ n, e quindi w(φ) ≤ n/2. piani iperbolici: W ⊥ Essendo φ|W c non degenere, abbiamo che V = A ⊥ P1 · · · ⊥ Pm , con A = (P1 ⊥ · · · ⊥ Pm ) . Lemma. φ|A è anisotropo. Dimostrazione. Supponiamo per assurdo che v ∈ A sia isotropo, con v 6= 0. Sia W = Span{v, z1 , . . . , zm }. Allora W ha dimensione w(φ) + 1, ma φ|W è identicamente nullo, assurdo. Definizione. Una decomposizione di Witt per (V, φ) è della forma V = A ⊥ P1 ⊥ · · · ⊥ Pm con Pj piani iperbolici e A anisotropo. Per quanto visto, m = w(φ). c un completamento non degenere di W e sia U 0 = W c ⊥ . Allora si ha Lemma. Sia W = U ⊥ Rad φ|W . Sia W che • W ⊥ = U 0 ⊥ Rad φ|W = U 0 ⊥ Rad φ|W ⊥ , • Rad φ|W = Rad φ|W ⊥ , • V = U ⊥ Rad φ|W ⊥ U 0 . Corollario (Teorema di cancellazione). Se W = W1 ⊥ W2 = U1 ⊥ U2 , allora se W2 e U2 sono isometrici anche W1 e U1 lo sono. Teorema (Teorema di struttura delle decomposizioni di Witt). 1. (Esistenza) Se m = w(φ), allora esiste una decomposizione di Witt della forma V = A ⊥ P1 ⊥ · · · ⊥ Pm . 2. (Unicità a meno di congruenza) Date due decomposizioni di Witt A ⊥ P1 ⊥ · · · ⊥ Ph e A0 ⊥ P10 ⊥ · · · ⊥ Ph0 , si ha che h = h0 = m ed esiste un’isometria f tale che f (A) = A0 e f (Pi ) = Pi0 . Corollario. (V1 , φ1 ) e (V2 , φ2 ) sono isometrici se e solo se le rispettive parti anisotrope sono isometriche. Osservazione. Su C, (W, ψ) con ψ non degenere è anisotropo se e solo se dim W = 1. Quindi la decomposizione di Witt di V ha una componente anisotropa (di dimensione 1) se n è dispari, mentre ha solo piani iperbolici se n è pari. In particolare, a dimensione fissata tutti gli spazi sono isometrici. Osservazione. Su R, (W, ψ) è anisotropo se e solo se è definito positivo o definito negativo. Quindi la decomposizione di Witt di V ha min{i+ (φ), i− (φ)} piani iperbolici e una componente anisotropa di dimensione |i+ (φ) − i− (φ)|. Due spazi reali della stessa dimensione sono isometrici se e solo se hanno uguale w(φ) e lo stesso segno della componente anisotropa. 12 3 Geometria affine Definizione. Uno spazio affine è un insieme di punti A dotato di una funzione φ : A × A → V con V spazio −−→ vettoriale (che manda P, Q nel vettore indicato con P Q), che rispetta le seguenti proprietà: −−−→ 1. per ogni P0 ∈ A, P0 P0 = 0; −−→ 2. per ogni P0 ∈ A, la funzione A → V che manda P → P0 P è bigettiva; −−−→ −−−→ −−−→ 3. per ogni P0 , P1 , P2 ∈ A, P0 P1 + P1 P2 + P2 P0 = 0. Esempio. Uno spazio affine è dato da A(V ), che coincide con V come insieme di punti e ha φ(P, Q) = Q − P . −−−→ −−−→ Lemma. P0 P1 = −P1 P0 . −−→ Definizione. Dati P0 ∈ A e v ∈ V , definiamo P0 + v come l’unico punto P ∈ A tale che P0 P = v. Lemma. (P0 + v) + w = P0 + (v + w). Definizione. Un sottoinsieme non vuoto E di A si dice sottospazio affine di A se esistono P0 ∈ E e W0 sottospazio vettoriale di V tali che E = P0 + W0 = {P0 + w | w ∈ W0 }. Lemma. Se E è un sottospazio affine di A, • Per ogni P1 ∈ E, esiste W1 sottospazio vettoriale di V tale che E = P1 + W1 . • W0 = T (E) non dipende dalla scelta di P0 ∈ E ed è detto giacitura o spazio tangente ad E. Definizione. Dati due spazi affini A su V e B su W (sullo stesso campo di scalari K), un’applicazione f : A → B −−→ −−→ è affine se esiste P0 ∈ A tale che, detto Q0 = f (P0 ), l’applicazione dfP0 : V → W definita da dfP0 (P0 P ) = Q0 Q −−→ con Q = f (P ) è lineare. In altre parole, f (P ) = f (P0 ) + dfP0 (P0 P ) con dfP0 lineare. −−→ Lemma. Se f è affine, per ogni P1 ∈ A, f (P ) = f (P1 ) + dfP1 (P0 P ) con dfP1 lineare. Inoltre df non dipende dalla scelta del punto base di A. −−→ −−−→ −−→ −−−→ −−→ Dimostrazione. f (P ) = f (P0 )+df (P0 P ) = f (P1 )+f (P0 )−f (P1 )+df (P0 P1 + P1 P ) = f (P1 )+f (P0 )−f (P1 )+df (P0 P1 )+df (P1 P ) = −−→ −−→ f (P1 ) + f (P0 ) − f (P1 ) + (f (P1 ) − f (P0 )) + df (P1 P ) = f (P1 ) + df (P1 P ). Definizione. f : A → B è un isomorfismo affine se f è affine e bigettiva, e f −1 è affine. Lemma. f affine e bigettiva è un isomorfismo se e solo se df è invertibile e per ogni P0 ∈ A, detto Q0 = f (P0 ), −−→ si ha che f −1 (Q) = P0 + df −1 (Q0 Q). In altre parole, la parte lineare dell’inversa deve essere l’inversa della parte lineare. Definizione. Sia Aff(A) = {f : A → A | f isomorfismo affine}. Definizione. Se E ⊆ A è un sottospazio affine, ne definiamo la dimensione come dim E = dim T (E). Definizione. Dati E1 , E2 sottospazi affini di A, diciamo che E1 k E2 se T (E1 ) ⊆ T (E2 ). Il parallelismo cosı̀ definito non è una relazione simmetrica. Osservazione. Sia f : A → B affine e sia E ⊆ A un sottospazio affine. Allora f (E) è un sottospazio affine di B e dim f (E) ≤ dim E. Infatti, dato un qualsiasi P0 ∈ E, per quanto visto abbiamo che f (E) = f (P0 ) + df (T (E)). Osservazione. Se f ∈ Aff(A), f manda sottospazi affini in sottospazi affini preservando la dimensione (valgono infatti entrambe le disuguaglianze dell’osservazione precedente). Inoltre f si comporta come un’applicazione lineare sugli spazi tangenti, quindi se E1 k E2 , ne segue che f (E1 ) k f (E2 ). 13 Definizione. Una combinazione affine di P0 , . . . , Pk ∈ A a coefficienti a0 , . . . , ak ∈ K con a0 P0 + · · · + ak Pk = P0 + k X P ai = 1 è −−−→ aj · P0 Pj . j=0 Lemma. Una combinazione affine non dipende dalla scelta del punto base P0 . Dimostrazione. P0 + P j P −−−→ −−→ P −−→ −−→ −−→ −−→ P −−→ −−→ aj · P0 Pj = Q + QP0 + j aj · (P0 Q + QPj ) = Q + QP0 + P0 Q + j aj · QPj = Q + j aj · QPj . Lemma. E ⊆ A non vuoto è un sottospazio affine se e solo se è chiuso per le combinazioni affini dei suoi punti. Definizione. Sia Span{P0 , . . . , Pk } l’insieme di tutte le combinazioni affini dei punti Pi . Si tratta di un sottospazio affine, infatti si verifica facilmente che −−−→ −−−→ Span{P0 , . . . , Pk } = P0 + Span{P0 P1 , . . . , P0 Pk }. Definizione. P0 , . . . , Pk sono k + 1 punti affinemente indipendenti se dim Span{P0 , . . . , Pk } = k, o, equivalen−−−→ −−−→ temente, se i vettori P0 P1 , . . . , P0 Pk sono linearmente indipendenti. Definizione. L’insieme ordinato {P0 , . . . , Pk } è detto un sistema di riferimento affine per A se • A = Span{P0 , . . . , Pk }; • P0 , . . . , Pk sono affinemente indipendenti. Osservazione. Se A ha dimensione n, passando in coordinate rispetto ad un sistema di riferimento affine si trova che A è isomorfo a Kn , su cui abbiamo il sistema di riferimento affine canonico {0, E 1 , . . . , E n }. 14