Concise notes from the first

annuncio pubblicitario
Appunti di geometria
Giovanni Paolini
A.A. 2010/2011
1
Similitudine tra endomorfismi
Definizione. Dati f, g ∈ End(V ), diciamo che f ∼ g se esiste h ∈ End(V ) invertibile tale che g = h ◦ f ◦ h−1 .
1.1
Autovalori, autovettori e polinomio caratteristico
Definizione. Dato f ∈ End(V ), si definisce spettro di f l’insieme Spettro(f ) = {λ ∈ K| ker(f − λ · id) 6= {0}}.
Se λ appartiene allo spettro di f si dice autovalore di f .
Lo spazio Vλ = ker(f − λ · id) si dice autospazio relativo a λ.
Un qualsiasi v ∈ V non nullo con v ∈ Vλ si dice autovettore di f relativo all’autovalore λ.
Lemma. Se f ∼ g allora Spettro(f ) = Spettro(g). Inoltre, se g = h ◦ f ◦ h−1 , allora Vλ (g) = h(Vλ (f )) (e quindi
in particolare dim Vλ (f ) = dim Vλ (g)).
Dimostrazione. Se λ ∈ Spettro(f ) allora esiste v 6= 0 tale che f (v) = λv. Ora, g ◦ h = h ◦ f , dunque g(h(v)) = h(f (v)) =
h(λv) = λh(v), ovvero h(v) 6= 0 è un autovettore per g relativo a λ. Abbiamo dimostrato che Spettro(f ) ⊆ Spettro(g) e che
h(Vλ (f )) ⊆ Vλ (g). Per la simmetria della relazione di equivalenza (ovvero ripetendo il ragionamento con h−1 ) valgono anche le
inclusioni opposte, e quindi le uguaglianze.
Osservazione. Gli autospazi di f sono f -invarianti: f (Vλ ) ⊆ Vλ .
Osservazione. Se λ, µ sono autovalori distinti di f , Vλ ∩ Vµ = {0}.
Definizione. Data A ∈ Mn si definisce polinomio caratteristico di A il polinomio pA (t) = det(A − tI).
Dato f ∈ End(V ) e fissata una base B di V , il polinomio caratteristico di f è pf (t) = pA (t) dove A = MB (f ).
Lemma. Il polinomio caratteristico di f è ben definito (non dipende da B).
Dimostrazione. Date due basi B, D di V , sia P la matrice di cambio di base. Siano A = MB (f ) e B = MD (f ). Allora B = P AP −1 ,
quindi si ha che pB (t) = det(P AP −1 − tI) = det(P (A − tI)P −1 ) = det(A − tI) = pA (t).
Lemma. Se f ∼ g, allora pf (t) = pg (t).
Dimostrazione. f e g sono simili se rispetto ad opportune basi hanno la stessa matrice associata A. Quindi pf (t) = pA (t) =
pg (t).
Lemma. λ ∈ Spettro(f ) se e solo se pf (λ) = 0.
Definizione. Sia λ ∈ Spettro(f ). Si dice molteplicità algebrica di λ la sua molteplicità mλ come radice di
pf (t).
Si dice molteplicità geometrica di λ il valore dim Vλ .
Lemma. Dato λ ∈ Spettro(f ), si ha che mλ ≥ dim Vλ .
Dimostrazione. Sia k = dim Vλ . Sia B una base di V che estende una base di Vλ . Allora
λIk B
A = MB (f ) =
,
0
C
e dunque pf (t) = pA (t) = p(λI) (t) · pC (t) = (λ − t)k · pC (t), da cui mλ ≥ k.
1
1.2
Diagonalizzabilità e triangolabilità
Definizione. Una base B di V si dice diagonalizzante per f se tutti gli elementi di B sono autovettori di f .
Un endomorfismo f si dice diagonalizzabile se esiste una base B diagonalizzante (per cui MB (f ) è diagonale).
Lemma. Se f ∼ g e f è diagonalizzabile, allora anche g è diagonalizzabile.
Dimostrazione. Per ipotesi esiste una base B di V diagonalizzante per f , e inoltre g = h ◦ f ◦ h−1 con h isomorfismo. Allora h(B)
è una base di V (perché h è un isomorfismo) diagonalizzante per g (perché Vλ (g) = h(Vλ (f )), dunque h manda autovettori di f in
autovettori di g).
Lemma. Siano λ1 , . . . , λr alcuni autovalori di f , e siano vi ∈ Vλi . Se v1 + v2 + · · · + vr = 0 allora v1 = v2 =
· · · = vr = 0 (ovvero vettori appartenenti ad autospazi diversi sono linearmente indipendenti).
Dimostrazione. Procediamo per induzione su r. Per r = 1 l’enunciato è ovvio.
Se v1 + · · · + vr = 0, applicando la f ad entrambi i membri si ottiene λ1 v1 + · · · + λr vr = 0; sottraendo da questa l’uguaglianza
λr (v1 + · · · + vr ) = 0 si ottiene (λ1 − λr )v1 + · · · + (λr−1 − λr )vr−1 = 0. L’i-esimo vettore di questa somma appartiene a Vλi , quindi
per ipotesi induttiva è nullo: (λi − λr )vi = 0 (per 1 ≤ i ≤ r − 1) e dunque v1 = v2 = · · · = vr−1 = 0, da cui anche vr = 0.
Teorema (Diagonalizzabilità). f ∈ End(V ) è diagonalizzabile se e solo se sono verificate le seguenti condizioni:
• pf (t) si fattorizza completamente su K;
• per ogni λ ∈ Spettro(f ), dim Vλ = mλ .
Dimostrazione.
Se f è diagonalizzabile allora esiste una base B in cui A = MB (f ) è diagonale. Quindi pf (t) = pA (t) è della forma
Q
pA (t) = (λi − t), ovvero si fattorizza completamente. Sia λ un autovalore. Si ha che dim Vλ = dim ker(A − λI); quest’ultima
matrice ha mλ colonne nulle (quelle corrispondenti ai valori λ sulla diagonale), quindi dim Vλ ≥ mλ , da cui dim Vλ = mλ .
Supponiamo
S ora che siano verificate le due condizioni. Siano λ1 , . . . , λk gli autovalori di f e siano B1 , . . . , Bk basi degli autospazi.
Sia B P
= Bi . Per
precedente i vettori di B sono linearmente indipendenti. D’altra parte, detta n = dim V , si ha che
P il lemma P
|B| =
|Bi | =
dim Vλi =
mλi = n, quindi B è una base di V . Essa è composta unicamente da autovettori di f , quindi f è
diagonalizzabile.
Corollario. Se f, g sono diagonalizzabili, allora f ∼ g se e solo se pf (t) = pg (t).
Corollario. Se tutti gli autovalori di f hanno molteplicità algebrica uguale a 1, allora f è diagonalizzabile.
Definizione. Un endomorfismo f si dice triangolabile se esiste una base B = {v1 , . . . , vn } di V tale che MB (f )
è triangolare superiore, o, equivalentemente, se i sottospazi Span{v1 , . . . , vi } (con 1 ≤ i ≤ n) sono f -invarianti.
Teorema (Triangolabilità). Un endomorfismo f è triangolabile se e solo se pf (t) si fattorizza completamente
su K.
Dimostrazione. Se fQè triangolabile, sia B la base che triangola f e sia A = MB (f ). Detti λi gli elementi della diagonale, si ha
che pf (t) = pA (t) = (λi − t) è completamente fattorizzabile.
Dimostriamo il viceversa per induzione su n. Per n = 1 il risultato è ovvio. Consideriamo ora un n generico. Essendo pf (t) completamente fattorizzabile, in particolare esiste un autovalore λ di f ; sia v un corrispondente autovettore. Sia D = {v, w1 , w2 , . . . , wn−1 }
una qualsiasi base di V che contiene v. Detto W = Span{w1 , . . . , wn−1 } abbiamo che V = Span{v} ⊕ W ; sia π : V → W la proiezione su W . Sia g : W → W l’applicazione lineare definita da g = π ◦ f |W . Per ipotesi induttiva, esiste una base B 0 di W che
triangola g; ma allora è facile verificare che la base B = {v} ∪ B 0 di V triangola f .
Corollario. Se K è algebricamente chiuso, allora ogni endomorfismo di V è triangolabile.
Corollario. Se f ∼ g e f è triangolabile, allora g è triangolabile.
2
1.3
Polinomio minimo
Definizione. Dato f ∈ End(V ), sia I(f ) = {q(x) ∈ K | q(f ) = 0}. I(f ) è un ideale; si dice polinomio minimo
di f il polinomio monico qf (t) che genera I(f ).
Lemma. Se f ∼ g, allora I(f ) = I(g).
Dimostrazione. Abbiamo che g = h ◦ f ◦ h−1 . Sia q(t) ∈ I(f ). Allora q(g) = q(h ◦ f ◦ h−1 ) = h ◦ q(f ) ◦ h−1 = 0, quindi q(t) ∈ I(g).
Per simmetria, I(f ) = I(g).
Teorema (Hamilton-Cayley). Ogni endomorfismo f annulla il suo polinomio caratteristico pf (t).
Dimostrazione.
Sia F la chiusura algebrica di K. Su F, il polinomio caratteristico pf (t) si fattorizza completamente: pf (t) =
Q
(λi − t); quindi f è triangolabile. Sia B = {v1 , . . . , vn } una base che triangola f .
Dimostriamo per induzione su k che (λ1 · id − f ) ◦ (λ2 · id − f ) ◦ · · · ◦ (λk · id − f )(vk ) = 0.
Se k = 1, (λ1 · id − f )(v1 ) = λ1 v1 − f (v1 ) = 0.
Per un generico k, (λ1 · id − f ) ◦ (λ2 · id − f ) ◦ · · · ◦ (λk · id − f )(vk ) = (λ1 · id − f ) ◦ · · · ◦ (λk−1 · id − f )(λk vk − f (vk )) =
P
Pk−1
(λ1 · id − f ) ◦ · · · ◦ (λk−1 · id − f )( k−1
i=1 ai vi ) =
i=1 ai (λ1 · id − f ) ◦ · · · ◦ (λk−1 · id − f )(vi ) = 0 (quest’ultima uguaglianza è vera
per ipotesi induttiva e perché le varie funzioni λi · id − f commutano).
Quindi pf (f ) si annulla in ogni elemento della base B, e dunque è l’endomorfismo nullo.
Lemma. Se λ ∈ Spettro(f ) e q(t) ∈ I(f ), allora q(λ) = 0. Questo vale in particolare per il polinomio minimo.
Dimostrazione. Sia v un autovettore di f relativo a λ. Dato che qf (f ) è l’endomorfismo nullo, si ha in particolare che (qf (f ))(v) = 0.
Essendo f (v) = λv, abbiamo che (qf (f ))(v) = qf (λ) · v; ma v 6= 0, quindi deve essere qf (λ) = 0.
Teorema (Decomposizione primaria). Siano f ∈ End(V ) e q(t) ∈ I(f ). Supponiamo che q(t) = q1 (t) · q2 (t)
con (q1 (t), q2 (t)) = 1. Allora V = ker q1 (f ) ⊕ ker q2 (f ) e inoltre i due sottospazi ker q1 (f ) e ker q2 (f ) sono
f -invarianti.
Dimostrazione. Per il teorema di Bézout esistono due polinomi a1 (t), a2 (t) tali che a1 (t) · q1 (t) + a2 (t) · q2 (t) = 1. Valutando questi
polinomi in f e calcolando l’applicazione trovata in un generico v ∈ V , troviamo che
v = (a1 (f ) ◦ q1 (f ))(v) + (a2 (f ) ◦ q2 (f ))(v).
Notiamo che (q2 (f ) ◦ a1 (f ) ◦ q1 (f ))(v) = (a1 (f ) ◦ q2 (f ) ◦ q1 (f ))(v) = (a1 (f ) ◦ q(f ))(v) = 0, quindi (a1 (f ) ◦ q1 (f ))(v) ∈ ker q2 (f );
similmente anche (a2 (f ) ◦ q2 (f ))(v) ∈ ker q1 (f ). Quindi abbiamo scritto ogni v ∈ V come somma di vettori in ker q1 (f ) e in
ker q2 (f ).
Per dimostrare che la somma è diretta è sufficiente notare che se v ∈ ker q1 (f )∩ker q2 (f ) allora entrambi gli addendi dell’uguaglianza
precedente si annullano, quindi v = 0 + 0 = 0.
Infine, se v ∈ ker q1 (f ), allora (q1 (f ))(v) = 0, dunque (f ◦ q1 (f ))(v) = 0 da cui (q1 (f ) ◦ f )(v) = 0 ovvero (q1 (f ))(f (v)) = 0, cioè
anche f (v) ∈ ker q1 (f ). Quindi ker q1 (f ) è f -invariante. Similmente anche ker q2 (f ) lo è.
3
2
Prodotti scalari
2.1
Definizioni sui prodotti scalari
Definizione. Un prodotto scalare su V è un’applicazione φ : V × V → K bilineare e simmetrica.
Definizione. Un’isometria tra due spazi muniti di prodotto scalare è un’applicazione f : (V, φ) → (W, ψ) tale
che
• f è un isomorfismo di spazi vettoriali;
• f preserva i prodotti scalari: φ(v1 , v2 ) = ψ(f (v1 ), f (v2 )).
Definizione. Due spazi (V, φ), (W, ψ) si dicono isometrici se esiste un’isometria f : (V, φ) → (W, ψ).
È facile verificare che si tratta di una relazione di equivalenza.
Osservazione. Fissata una base B = {v1 , . . . , vn } di V , definiamo M = MB (φ) = (φ(vi , vj )). Come è facile
verificare, se [v]B = X e [w]B = Y , si ha che φ(v, w) = X t M Y . Lo spazio Scal(V ) dei prodotti scalari su V è
quindi isomorfo allo spazio S(n, K) delle matrici n × n simmetriche; lo spazio Bil(V ) delle applicazioni bilineari
su V è invece isomorfo a M(n, K).
B
Osservazione. Consideriamo due basi B, D di V ; sia P = MD
(id) la matrice di cambiamento di base da B
a D e siano X, Y le coordinate di v, w in base B (quindi P X e P Y sono le coordinate in base D). Allora
φ(v, w) = (P X)t MD (φ)(P Y ) = X t · P t MD (φ)P · Y.
Ne segue che MB (φ) = P t MD (φ)P .
Notiamo che se A è simmetrica (ovvero rappresenta un prodotto scalare), allora anche P t AP è simmetrica,
infatti (P t AP )t = P t At P = P t AP .
Definizione. Due matrici A, B ∈ M(n, K) si dicono congruenti se esiste P ∈ GL(n, K) tale che B = P t AP .
È facile verificare che si tratta di una relazione di equivalenza.
Lemma. Siano φ, ψ ∈ Scal(V ). I seguenti fatti sono equivalenti.
• φ e ψ sono isometrici.
• Per ogni base B di V , MB (φ) e MB (ψ) sono congruenti.
• Esistono B, D basi di V tali che MB (φ) = MD (ψ).
Definizione. Si dice radicale di φ il sottospazio vettoriale Rad (φ) = {v ∈ V | φ(v, w) = 0 ∀ w ∈ V }.
φ si dice non degenere se Rad (φ) = {0}.
Definizione. Due vettori v, w ∈ V si dicono ortogonali rispetto a φ se φ(v, w) = 0.
Osservazione. Se f : (V, φ) → (W, ψ) è un’isometria, allora f (Rad (φ)) = Rad (ψ).
Definizione. Un vettore v ∈ V si dice isotropo se φ(v, v) = 0. φ si dice anisotropo se l’unico vettore isotropo
è il vettore nullo.
Osservazione. Se φ è anisotropo, allora è non degenere. Non vale tuttavia l’implicazione opposta.
Osservazione. Se φ è non degenere e W è un sottospazio di V , φ|W può essere degenere (si prenda per esempio,
se esiste, w isotropo e W = Span{w}).
Lemma. Sia B una base di V e sia M = MB (φ). Allora dim Rad (φ) = dim V − rkM .
4
Lemma. Supponiamo che V = U1 ⊕ Rad (φ) = U2 ⊕ Rad (φ). Allora U1 e U2 sono canonicamente isometrici
(l’isomorfismo è la proiezione di U1 su U2 ). Inoltre per ogni complementare U di Rad (φ), φ|U è non degenere.
Definizione. Sia W un sottospazio vettoriale di V . L’ortogonale di W è W ⊥ = {v ∈ V | φ(v, w) = 0 ∀ w ∈ W }.
Lemma. dim W ⊥ = dim V − dim W + dim(W ∩ Rad (φ)).
Corollario.
• Se φ è non degenere, dim W ⊥ = dim V − dim W . Dato che in generale W ⊆ (W ⊥ )⊥ , in
questo caso si ha proprio che (W ⊥ )⊥ = W .
• Se φ è qualsiasi e φ|W è non degenere, allora si ha comunque che dim W ⊥ = dim V − dim W . Inoltre
W ∩ W ⊥ = Rad (φ|W ) = {0}, quindi V = W ⊥ W ⊥ .
In effetti V = W ⊥ W ⊥ se e solo se φ|W è non degenere.
2.2
Basi ortogonali
D’ora in poi assumeremo che K sia un campo a caratteristica diversa da 2. In particolare, molti risultati
riguarderanno più nello specifico i casi di R e C.
Definizione. Una base B = {v1 , . . . vn } è ortogonale rispetto a φ se φ(vi , vj ) = 0 per ogni i 6= j.
Equivalentemente, MB (φ) è diagonale.
Osservazione. φ è identicamente nullo se e solo se tutti i vettori di V sono isotropi.
Dimostrazione. L’implicazione ⇒ è ovvia. Per l’altra notiamo che φ(v, w) = 21 (φ(v + w, v + w) − φ(v, v) − φ(w, w)) (formula di
polarizzazione); se tutti i vettori di V sono isotropi, allora φ(v, w) = 0 per ogni v, w ∈ V .
Teorema. Esiste una base di V ortogonale per φ.
Teorema (Classificazione dei prodotti scalari a meno di isometrie su C). Su C, s = dim Rad (φ) è un invariante
completo. Inoltre esiste una base ortogonale B di V tale che
In−s 0
,
MB (φ) =
0
0
Definizione. Su R, φ si dice definito positivo se per ogni v 6= 0, φ(v, v) > 0.
Definizione. Su R, l’indice di positività i+ (φ) è la massima dimensione di un sottospazio su cui la restrizione
di φ è definita positiva. Si definisce in modo analogo l’indice di negatività i− (φ). Si indica anche con i0 (φ) la
dimensione di Rad (φ) (indice di nullità).
La terna (i+ , i− , i0 ) è chiamata segnatura di φ.
Teorema. La segnatura è un invariante completo. Inoltre, detta (p, q, s) la segnatura di φ, esiste B ortogonale
tale che


Ip
0
0
MB (φ) =  0 −Iq 0  ,
0
0
0
Lemma (Criterio di Jacobi). Sia A ∈ S(n, R) la matrice che rappresenta un prodotto scalare. Sia Mi la
sottomatrice costituita dalle prime i righe e dalle prime i colonne e sia di = det Mi . Supponiamo che di 6= 0
per 1 ≤ i ≤ n. Allora esiste una base B di Rn tale che
d2 d3
dm
MB (A) = diag d1 , , , . . . ,
.
d1 d2
dm−1
In altre parole, l’indice di negatività di φ è uguale al numero di cambi di segno nella successione dei determinanti
di (se d1 < 0, questo conta come cambio di segno).
5
2.3
Gruppo ortogonale
Definizione. Sia φ non degenere. Si definisce il gruppo ortogonale in questo modo:
O(φ) = {f ∈ GL(V ) | f è un’isometria di φ}.
Osservazione. In coordinate rispetto ad una base B, detto M = MB (φ), il gruppo ortogonale diventa
O(M ) = {A ∈ GL(n, K) | A−1 = M −1 At M }.
Se B è ortonormale per φ (ovvero M = I), otteniamo
O(n, K) = {A ∈ GL(n, K) | A−1 = At }.
Osservazione. Come risulta chiaro dalla scrittura in termini di matrici, se f ∈ O(φ), allora det f = ±1.
Definizione. Il gruppo speciale ortogonale è
SO(φ) = {f ∈ O(φ) | det f = 1}.
Definizione. Sua v ∈ V non isotropo. Allora V = Span{v} ⊥ Zv con Zv = Span{v}⊥ ; dunque ogni w ∈ V
si può scrivere in modo unico come w = λv + z, con λ ∈ K e z ∈ Zv . Definiamo riflessione parallela a v
l’applicazione lineare ρv : V → V tale che ρv (w) = −λv + z.
È facile verificare che ρv ∈ O(φ).
Teorema. O(φ) è generato dalle riflessioni.
2.4
Duali
Definizione. Il duale di uno spazio vettoriale V è V ∗ = Hom(V, K).
Osservazione. Fissando una base B = {v1 , . . . , vn } di V e la base canonica C = {1} di K, abbiamo un
isomorfismo tra V ∗ e M(1, n, K). Su M(1, n, K) abbiamo la base canonica, che quindi corrisponde (tornando
indietro) alla base B ∗ = {v1∗ , . . . vn∗ } di V ∗ definita da
vj∗ (vi ) = δij .
Abbiamo quindi un isomorfismo fB tra V e V ∗ , che manda B in B ∗
Osservazione. Sia B = {v1 , . . . , vn } una base di V . Sia ϕ ∈ V ∗ . Allora


ϕ(v1 )


[ϕ]B∗ =  ...  .
ϕ(vn )
Lemma. L’isomorfismo F = fB∗ ◦ fB : V → V ∗∗ non dipende dalla base B (è canonico).
Dimostrazione. Mostriamo che F = F 0 , dove F 0 è l’applicazione lineare V → V ∗∗ che manda v in ϕv : V ∗ → K definito da
ϕv (ψ) = ψ(v). Basta verificarlo per i vettori della base B:
fB∗ (fB (vi )) = ϕvi ⇐⇒ fB∗ (vi∗ ) = ϕvi ⇐⇒ vi∗∗ = ϕvi .
Quest’ultima uguaglianza (tra funzionali V ∗ → K) può essere verificata sugli elementi della base B ∗ :
vi∗∗ (vj∗ ) = ϕvi (vj ) ⇐⇒ δij = vj (vi ),
che è effettivamente verificata.
6
Definizione. Data f : V → W lineare, definiamo f t : W ∗ → V ∗ in modo che f t (ϕ) = ϕ ◦ f .
Osservazione. Se f : V → W e g : W → Z, allora (g ◦ f )t = f t ◦ g t .
Definizione. L’annullatore di un sottospazio W di V è Ann (W ) = {φ ∈ V ∗ : φ|W = 0}.
Osservazione. Data {v1 , . . . , vk } base di W completata a {v1 , . . . , vn } base di VP
, abbiamo la base duale
∗
∗
{v1∗ , . . . , vn∗ } di V ∗ . Chiaramente
v
,
.
.
.
,
v
∈
Ann
(W
)
e,
d’altra
parte,
se
φ
=
ai vi∗ ∈ Ann (W ), allora
n
k+1
P
∗
∗
∗
(dato j ≤ k) 0 = φ(vj ) = ai vi (vj ) = aj . Ne segue che {vk+1 , . . . , vn } è una base di Ann (W ).
Quindi dim Ann (W ) = dim V − dim W .
Lemma. ker f t = Ann Im f, Im f t = Ann ker f . In particolare, dim Im f = dim Im f t .
Dimostrazione. ker f t = {ϕ ∈ W ∗ : ϕ ◦ f = 0} = Ann (Im f ). Inoltre si vede facilmente che se ϕ ∈ Im f t , allora ϕ ∈ Ann ker f .
D’altra parte dim W = dim W ∗ = dim ker f t + dim Im f t e dunque dim Im f t = dim W − dim Ann (Im f ) = dim W − (dim W −
dim Im f ) = dim Im f . Avendo un’inclusione e l’uguaglianza delle dimensioni, possiamo concludere che Im f t = Ann ker f .
Lemma. In coordinate rispetto a due basi B di V e D di W , la trasposizione degli omomorfismi corrisponde
alla trasposizione delle matrici.
Dedichiamoci ora allo studio dei duali nel caso di uno spazio vettoriale V munito di un prodotto scalare φ.
Definiamo Fφ : V → V ∗ l’applicazione lineare che manda v in ϕv definita da ϕv (w) = φ(v, w).
Osservazione. ker Fφ = {v ∈ V : φ(v, w) = 0 ∀w ∈ V } = Rad (φ).
Ne segue che Fφ è un isomorfismo se e solo se φ è non degenere (infatti dim V = dim V ∗ e in questo caso Fφ è
iniettiva, dunque suriettiva).
Definizione. ϕ ∈ Im Fφ si dice φ-rappresentabile per mezzo di un vettore v ∈ V .
Per quanto osservato, se φ è non degenere ogni funzionale è rappresentabile in modo unico da v ∈ V .
Lemma. Im Fφ = Ann Rad φ.
Dimostrazione. Sia ϕ ∈ Im Fφ , ovvero ϕ(w) = φ(v, w) per qualche v ∈ V e per ogni w ∈ V . Se w ∈ Rad φ, allora ϕ(w) = φ(v, w) =
0; quindi ker ϕ ⊆ Rad φ. In altre parole, ogni ϕ ∈ Im Fφ deve annullarsi su ogni vettore di Rad φ, ovvero Im Fφ ⊆ Ann Rad φ.
D’altra parte dim Im Fφ = n − dim ker Fφ = n − dim Rad φ = dim Ann Rad φ. Quindi Im Fφ = Ann Rad φ.
Osservazione. Sia φ non degenere. Dato U sottospazio di V , si ha che Fφ (U ⊥ ) = Ann U (è facile verificare
l’inclusione ⊆ e inoltre le dimensioni sono uguali). Quindi passando da V a V ∗ tramite l’isomorfismo Fφ ,
l’ortogonale diventa l’annullatore (e le proprietà sono quindi analoghe).
Sia ora φ un prodotto scalare non degenere su V . Definiamo1 Fφs : End(V ) → Bil(V ) in modo che mandi f
in ψfs , definita da ψfs (v, w) = φ(f (v), w).
In modo simile si definiscono Fφd che manda f in ψfd , dove ψfd (v, w) = φ(v, f (w)).
Osservazione. ker Fφs = {f ∈ End(V ) : φ(f (v), w) = 0 ∀v, w} = {f ∈ End(V ) : Im f ⊆ Rad φ = {0}} = {0}.
Quindi Fφs è un isomorfismo (infatti gli spazi End(V ) e Bil(V ) hanno entrambi dimensione n2 ). Lo stesso
chiaramente vale per Fφd .
Definizione. Definiamo l’endomorfismo φ-aggiunto di f l’endomorfismo f ∗ = (Fφd )−1 ◦ Fφs (f ).
Vale quindi φ(f (v), w) = φ(v, f ∗ (w)).
1 Attenzione,
qui Benedetti usa la stessa notazione di prima! Non confondere Fφ con Fφs e Fφd , sono cose molto diverse!
7
Osservazione. φ(v, f ∗∗ (w)) = φ(f ∗ (v), w) = φ(w, f ∗ (v)) = φ(f (w), v) = φ(v, f (w)).
Dunque Fφd (f ∗∗ ) = Fφd (f ); essendo Fφd un isomorfismo, ne segue che f ∗∗ = f .
Definizione. f è autoaggiunto se f = f ∗ .
In altre parole, Fφs (f ) = Fφd (f ), ovvero φ(f (v), w) = φ(v, f (w)) per ogni v, w ∈ V .
Osservazione. In coordinate dispetto ad una base B di V , facciamo corrispondere
v, w
→ X, Y ∈ Kn
φ
→ M ∈ GL(n, K) ∩ S(n, K)
∗
→ A, A∗ ∈ M(n, K)
f, f
ψfs , ψfd
→ N s , N d ∈ M(n, K).
Ora, ψfs (v, w) = φ(f (v), w) = (AX)t M Y = X t (At M )Y , quindi N s = At M . Similmente, N d = M A.
Inoltre φ(f ∗ (v), w) = φ(v, f (w)), ovvero (A∗ X)t M Y = X t M (AY ), da cui infine A∗ = M −1 At M .
La condizione f = f ∗ si traduce come A = M −1 At M .
Osservazione. Se B è una base ortonormale per φ, allora M = I. Quindi A∗ = At , quindi le matrici
corrispondenti ad applicazioni autoaggiunte sono le matrici simmetriche.
Osservazione. Se f è autoaggiunta, allora ψfs = ψfd ; inoltre questa forma bilineare è anche simmetrica (e
quindi è un prodotto scalare). Quindi Fφd e Fφs mandano le applicazioni autoaggiunte nei prodotti scalari.
Lemma. Dato f ∈ End(V ) e φ non degenere su V , f ∗ = Fφ−1 ◦ f t ◦ Fφ .
Dimostrazione. Sia fˆ = Fφ−1 ◦ f t ◦ Fφ , ovvero Fφ ◦ fˆ = f t ◦ Fφ . Calcolando entrambi i membri in un generico v otteniamo
Fφ (fˆ(v)) = f t (Fφ (v)).
Ora, Fφ (v) = ϕv definito da ϕv (w) = φ(v, w); inoltre f t (ϕ) = ϕ ◦ f . Quindi il membro di destra diventa f t (ϕv ) = ϕv ◦ f ;
quest’ultimo, calcolato in w (infatti l’uguaglianza precedente è tra funzionali di V ∗ ) diventa φ(v, f (w)).
Il membro di sinistra calcolato in w invece è ϕfˆ(v) (w) = φ(fˆ(v), w). Abbiamo dunque che
φ(v, f (w)) = φ(fˆ(v), w),
e questa è esattamente la condizione rispettata dall’aggiunta. Quindi f ∗ = fˆ.
Definizione. Sia Tpq (V ) lo spazio dei tensori di tipo (p, q) su V , ovvero lo spazio delle applicazioni multilineari
V p × (V ∗ )q → K.
Osservazione. T10 = V ∗ . T01 = V ∗∗ ∼
=V.
T20 = Bil(V ). T11 ∼
= End(V ). Quest’ultimo isomorfismo è canonico.
2.5
Teorema spettrale
Definizione. Sia V uno spazio vettoriale su C. Un prodotto hermitiano è un’applicazione φ : V × V → C tale
che
• φ è lineare nel primo argomento e antilineare nel secondo: φ(v, w1 +w2 ) = φ(v, w1 ) +φ(v, w2 ) e φ(v, λw) =
λ̄φ(v, w);
• φ(v, w) = φ(w, v).
Osservazione. φ(v, v) = φ(v, v), quindi φ(v, v) ∈ R.
Osservazione. Per i prodotti hermitiani si definiscono (similmente ai prodotti scalari reali) l’ortogonale di un
sottospazio e la segnatura (che è un invariante completo). Inoltre esistono basi ortogonali.
8
Osservazione. In coordinate rispetto ad una base B, un prodotto hermitiano φ corrisponde ad una matrice
M = (φ(vi , vj )) hermitiana, ovvero tale che M t = M̄ . Se X = [v]B e Y = [v]B , allora φ(v, w) = X t M Ȳ .
Quanto φ è definito positivo, esistono basi ortonormali, che in questo contesto vengono chiamate unitarie.
L’analogo del gruppo ortogonale reale è il gruppo unitario U (n) = {P ∈ GL(n, C : P −1 = P¯t }. Osserviamo che
O(n, R) ⊆ U (n).
Teorema (Teorema spettrale reale). Sia V uno spazio vettoriale su R e φ un prodotto scalare definito positivo.
Valgono i seguenti fatti.
1. Per ogni f ∈ End(V ) autoaggiunto, esiste una base ortonormale per φ fatta di autovettori per f .
2. Per ogni ψ prodotto scalare, esiste una base simultaneamente ortonormale per φ e ortogonale per ψ.
3. Per ogni A ∈ S(n, R), esiste P ∈ O(n, R) tale che P −1 AP è diagonale.
Dimostrazione.
• (1) coimplica (3). In coordinate, essendo φ definito positivo esiste una base in cui φ è rappresentato
dall’identità I e dunque f è rappresentato da una matrice simmetrica A. Se esiste una base B ortonormale per φ tale che
MB (f ) = D diagonale, ciò significa che esiste una matrice di cambio di base P ∈ GL(n, R) tale che P t IP = I e P t AP = D.
La prima condizione, P t P = I, è equivalente a P ∈ O(n, R). La seconda può essere quindi riscritta come P −1 AP = D
diagonale.
• (2) coimplica (3). In coordinate rispetto ad una base ortonormale per φ, la (2) diventa: per ogni matrice A simmetrica (che
rappresenta ψ), esiste una matrice di cambio di base P ∈ GL(n.R) tale che P t IP = I e P t AP = D diagonale. Come prima,
questo è equivalente alla (3).
• Dimostrazione della (1). Complessificando V otteniamo VC e fC (quest’ultimo con lo stesso polinomio caratteristico di
f ). Fissiamo una base B di V ortonormale per φ (questa sarà una base reale di VC ). Sia A = MB (f ) = MB (fC ).
Complessificando anche φ, definiamo un prodotto hermitiano (definito positivo) su VC che in coordinate diventa
(X, Y ) → X t Ȳ .
Sia α un autovalore per A. Sia Z ∈ Cn un corrispondente autovalore, ovvero tale che AZ = αZ. Allora si ha che
ᾱZ t Z̄ = Z t (αZ) = Z t AZ = Z t AZ̄ = Z t At Z̄ = (AZ)t Z̄ = (αZ)t Z̄ = αZ t Z̄.
Essendo Z t Z̄ un reale positivo (perché il prodotto hermitiano φC è definito positivo), dividendo otteniamo che ᾱ = α, ovvero
che α ∈ R. Dunque f ha tutti gli autovalori reali.
Dimostriamo la (1) per induzione su n = dim V . Per n = 1 non c’è nulla da dimostrare. Assumiamo la tesi vera per n − 1
e dimostriamola per dim V = n. Sia λ un autovalore per f e sia v un relativo autovettore. Essendo φ definito positivo, in
particolare v è non isotropo. Allora, detto Zv = Span{v}⊥ , abbiamo che V = Span{v} ⊥ Z. Osserviamo ora che
– φ|Zv è definito positivo.
– Se w ∈ Zv , allora φ(v, w) = 0, quindi (v autovettore) φ(f (v), w) = 0, da cui (f autoaggiunto) φ(v, f (w)) = 0, che
implica f (w) ∈ Zv . Dunque Zv è f -invariante.
– f è autoaggiunto rispetto a φ, quindi in particolare f |Zv è autoaggiunto rispetto a φ|Zv .
Per ipotesi induttiva, esiste B 0 base di Zv ortonormale per φZv fatta di autovettori per f |Zv . Allora la base
(
)
v
B= p
∪ B0
φ(v, v)
è ortonormale per φ e fatta di autovettori per f .
Corollario. Data una matrice A reale simmetrica, i+ (A) è uguale al numero di autovalori positivi di A (contati
con molteplicità), i− (A) è uguale al numero di autovalori negativi di A e i0 (A) = dim Rad φ è uguale alla
molteplicità dell’autovalore 0 (che giustamente è uguale a dim ker A).
Osservazione. Data una matrice A reale simmetrica, per trovare una base ortonormale di autovettori per A
è sufficiente prendere una base ortonormalizzata di ogni autospazio di A e unire queste basi. Infatti, essendo A
simmetrica, due suoi autospazi diversi sono sempre ortogonali.
Osservazione. Vale anche il viceversa del TSR. Il TSR può quindi essere enunciato in questo modo: una
matrice A è simmetrica se e solo se è diagonalizzabile per mezzo di una matrice ortogonale.
9
Lemma. Date due matrici A, B ∈ M(n, R), A e B sono simultaneamente diagonalizzabili per mezzo di una
matrice ortogonale se e solo se sono entrambe simmetriche e commutano.
Definizione. Sia V uno spazio vettoriale su C e sia φ un prodotto hermitiano definito positivo. In coordinate
rispetto ad una base unitaria, l’aggiunto di un endomorfismo f (rappresentato da una matrice A) è dato da f ∗
rappresentato dalla matrice A∗ = Āt .
Definizione. f ∈ End(V ) si dice normale (rispetto a φ) se f ◦ f ∗ = f ∗ ◦ f .
Esempio. Queste sono alcune classi di operatori normali (con la corrispondente versione matriciale in coordinate
rispetto ad una base unitaria):
• Autoaggiunti: f = f ∗ (A = Āt ).
• Anti-autoaggiunti: f = −f ∗ (A = −Āt ).
• Unitari: f −1 = f ∗ (A−1 = Āt , ovvero A ∈ U (n)).
Lemma. Se f è unitariamente diagonalizzabile (ovvero esiste una base unitaria per φ fatta di autovettori per
f ) allora è normale.
Dimostrazione. In coordinate rispetto ad una tale base, f è rappresentato da una matrice D diagonale e f ∗ è rappresentato da
D∗ = D̄. Chiaramente D e D∗ commutano, quindi anche f e f ∗ commutano. Quindi f è normale.
Lemma. Sia f normale. λ ∈ Spettro(f ) se e solo se λ̄ ∈ Spettro(f ∗ ) ed inoltre i rispettivi autospazi coincidono:
Vλ (f ) = Vλ̄ (f ∗ ).
Dimostrazione. Intanto f ∗∗ = f , quindi basta dimostrare un’implicazione (e una delle due inclusioni). Supponiamo che f (v) = λv.
Dato che f e f ∗ commutano, Vλ (f ) è f ∗ -invariante. Quindi f ∗ (v) − λ̄v ∈ Vλ (f ). Ora, φ(f ∗ (v), w) = φ(v, f (w)); ne segue che, per
ogni w ∈ Vλ (f ),
φ(f ∗ (v) − λ̄v, w) = φ(f ∗ (v), w) − λ̄φ(v, w) = φ(v, f (w)) − λ̄φ(v, w) = φ(v, λw) − λ̄φ(v, w) = 0.
In particolare, per w = f ∗ (v) − λ̄v, otteniamo che f ∗ (v) − λ̄v è isotropo; essendo φ definito positivo, questo implica che f ∗ (v) =
λ̄v.
Teorema (Teorema spettrale hermitiano). Sia V uno spazio vettoriale su C e sia φ un prodotto hermitiano
definito positivo. Un endomorfismo f è unitariamente diagonalizzabile se e solo se f è normale.
Dimostrazione. Un’implicazione è già stata dimostrata in un lemma precedente. Dimostriamo per induzione su n = dim V che se
f è normale allora è unitariamente diagonalizzabile. Come al solito, il passo base n = 1 è banale. Supponiamo la tesi vera per n − 1
e dimostriamola per n.
Sia v 6= 0 tale che f (v) = λv. Essendo φ definito positivo, abbiamo che V = Span{v} ⊥ Zv , con Zv = Span{v}⊥ . Zv è sia
f -invariante che f ∗ -invariante, infatti v ∈ Vλ (f ) implica v ∈ Vλ̄ (f ∗ ).2 Si conclude applicando l’ipotesi induttiva a Zv , con φ|Zv
(definito positivo) e g = f |Zv , osservando che g ∗ = f ∗ |Zv .
Corollario. Sia f normale. Allora
• f è autoaggiunto se e solo se Spettro(f ) è reale;
• f è anti-autoaggiunto se e solo se Spettro(f ) è immaginario puro;
• f è unitario se e solo se Spettro(f ) è unitario (ovvero gli autovalori hanno norma 1).
Osservazione. Attraverso la complessificazione (un po’ come per la forma di Jordan reale), il TSH ha interessanti conseguenze anche nel caso di spazi vettoriali reali.
2 Si
procede in modo analogo alla dimostrazione del TSR.
10
2.6
Teoria di Witt
Sia V uno spazio vettoriale su un campo a caratteristica diversa da 2, e sia φ un prodotto scalare non degenere.
Definizione. Due sottospazi W1 e W2 di V si dicono congruenti se esiste f ∈ O(φ) tale che f (W1 ) = W2 .
Osservazione. Se W1 e W2 sono congruenti, allora f |W1 è un’isometria tra (W1 , φ|W1 ) e (W2 , φ|W2 ), che quindi
sono isometrici.
Teorema (Estensione, nel caso di restrizioni non degeneri). Se ρ : W1 → W2 è un’isometria e φ|W1 , φ|W2 sono
non degeneri, allora esiste f ∈ O(φ) tale che f |W1 = ρ.
Dimostrazione. Induzione su m = dim Wj . Se m = 0 ogni f ∈ O(φ) va bene.
Fissiamo una base ortogonale {u1 , . . . , um } di W1 . Siano Z1 = Span{u1 , . . . , um−1 } e Z2 = ρ(Z1 ). Per ipotesi induttiva esiste
f ∈ O(φ) tale che f |Z1 = ρ. Se anche f (um ) = ρ(um ) abbiamo finito. Altrimenti almeno uno tra f (um ) − ρ(um ) e f (um ) + ρ(um )
è non isotropo, e componendo f con opportune riflessioni si dimostra la tesi.
c tale che W ⊆ W
c e φ| c è non degenere.
Definizione. Un ampliamento non degenere di W è un sottospazio W
W
Un ampliamento non degenere è detto un completamento non degenere se dim Ŵ è la minima tra quelle di tutti
gli ampliamenti.
c = V è un ampliamento non degenere di W .
Osservazione. W
Definizione. (P, ψ) è detto piano iperbolico se
• dim P = 2;
• ψ è non degenere;
• esiste v ∈ P non nullo ed isotropo.
Una base B = {v, t} di (P, ψ) è detta iperbolica se
0
MB (ψ) =
1
1
.
0
Osservazione. Se esiste una base iperbolica, allora P è un piano iperbolico.
Lemma. Se (P, ψ) è un piano iperbolico, allora per ogni v 6= 0 isotropo esiste t ∈ P tale che {v, t} è una base
iperbolica.
Teorema (Completamenti non degeneri).
1. Sia W = U ⊥ Rad φ|W . Fissiamo una base {z1 , . . . , zk } di
c di W della forma W
c = U ⊥ P1 ⊥ · · · ⊥ Pk
Rad φ|W . Allora esiste un completamento non degenere W
con Pj piani iperbolici e zj parte di una base iperbolica {zj , tj } di Pj .
2. I completamenti iperbolici di W sono tra loro congruenti.
c = dim W + dim Rad φ|W .
3. dim W
c è effettivamente un ampliamento non degenere (è sufficiente scrivere la
Dimostrazione.
1. Innanzitutto notiamo che un tale W
matrice associata a φ in una base fatta da una base ortogonale di U e da basi iperboliche di Pj ). Dimostriamo per induzione
c = W = U.
su k = dim Rad φ|W che tale ampliamento esiste. Per k = 0 poniamo W
Supponiamo la tesi vera per k − 1. Consideriamo una base
B = {u1 , . . . , us ,
| {z }
base di U
z1 , . . . , zk
| {z }
, w1 , . . . , wr }.
base di Rad φ|W
Essendo φ non degenere, ogni funzionale di B ∗ si rappresenta per mezzo di un vettore di
z1∗ per mezzo
PV . Rappresentiamo
P
di d1 ∈ V . Quindi φ(d1 , zj ) = δ1j , φ(d1 , uj ) = φ(d1 , wj ) = 0. Se per assurdo d1 =
ai ui +
bj zj , allora si avrebbe
11
1 = φ(d1 , z1 ) = 0; quindi d1 è linearmente indipendente rispetto a {u1 , . . . , us , z1 , . . . , zk }. Sia P1 = Span{z1 , d1 }; questo
è un piano iperbolico, infatti z1 è isotropo. Sia W1 = U ⊥ P1 ⊥ Span{z2 , . . . , zk }. Se U 0 = U ⊥ P1 , si ha che φ|U 0 è non
c = U ⊥ P1 ⊥ · · · ⊥ Pk .
degenere. Applicando l’ipotesi induttiva, troviamo un ampliamento non degenere W
Sia ora V1 un completamento non degenere di W . La costruzione precedente si applica a W = U ⊥ Rad φ|W visto come
c ⊆ V1 . Essendo V1 di dimensione minima possibile, deve essere V1 = W
c . Abbiamo quindi
sottospazio di V1 , quindi W ⊆ W
anche dimostrato che ogni completamento non degenere è di questa forma.
c1 = U ⊥ P1 ⊥ · · · ⊥ Pk e W
c2 = U ⊥ P 0 ⊥ · · · ⊥ P 0 completamenti non degeneri, esiste un’isometria β : W1 → W2
2. Dati W
1
k
che è l’identità su U e che manda basi iperboliche in basi iperboliche. Per il teorema di estensione nel caso di restrizioni non
degeneri, β può essere estesa ad un’isometria di V e quindi i due completamenti sono congruenti.
3. Segue direttamente dalla costruzione.
Teorema (Estensione). Se ρ : W1 → W2 è un’isometria, esiste f ∈ O(φ) tale che f |W1 = ρ.
Definizione. Definiamo l’indice di Witt w(φ) come la massima dimensione di W tale che φ|W è identicamente
nullo.
Osservazione. w(φ) è invariante a meno di isometrie. In particolare w(φ) = 0 se e solo se φ è anisotropo.
Osservazione. Sia W tale che dim W = w(φ). Allora il completamento non degenere di W è fatto solo da
c = P1 ⊥ · · · ⊥ Pm con m = w(φ). In particolare 2m ≤ n, e quindi w(φ) ≤ n/2.
piani iperbolici: W
⊥
Essendo φ|W
c non degenere, abbiamo che V = A ⊥ P1 · · · ⊥ Pm , con A = (P1 ⊥ · · · ⊥ Pm ) .
Lemma. φ|A è anisotropo.
Dimostrazione. Supponiamo per assurdo che v ∈ A sia isotropo, con v 6= 0. Sia W = Span{v, z1 , . . . , zm }. Allora W ha dimensione
w(φ) + 1, ma φ|W è identicamente nullo, assurdo.
Definizione. Una decomposizione di Witt per (V, φ) è della forma V = A ⊥ P1 ⊥ · · · ⊥ Pm con Pj piani
iperbolici e A anisotropo. Per quanto visto, m = w(φ).
c un completamento non degenere di W e sia U 0 = W
c ⊥ . Allora si ha
Lemma. Sia W = U ⊥ Rad φ|W . Sia W
che
• W ⊥ = U 0 ⊥ Rad φ|W = U 0 ⊥ Rad φ|W ⊥ ,
• Rad φ|W = Rad φ|W ⊥ ,
• V = U ⊥ Rad φ|W ⊥ U 0 .
Corollario (Teorema di cancellazione). Se W = W1 ⊥ W2 = U1 ⊥ U2 , allora se W2 e U2 sono isometrici anche
W1 e U1 lo sono.
Teorema (Teorema di struttura delle decomposizioni di Witt).
1. (Esistenza) Se m = w(φ), allora esiste
una decomposizione di Witt della forma V = A ⊥ P1 ⊥ · · · ⊥ Pm .
2. (Unicità a meno di congruenza) Date due decomposizioni di Witt A ⊥ P1 ⊥ · · · ⊥ Ph e A0 ⊥ P10 ⊥ · · · ⊥ Ph0 ,
si ha che h = h0 = m ed esiste un’isometria f tale che f (A) = A0 e f (Pi ) = Pi0 .
Corollario. (V1 , φ1 ) e (V2 , φ2 ) sono isometrici se e solo se le rispettive parti anisotrope sono isometriche.
Osservazione. Su C, (W, ψ) con ψ non degenere è anisotropo se e solo se dim W = 1.
Quindi la decomposizione di Witt di V ha una componente anisotropa (di dimensione 1) se n è dispari, mentre
ha solo piani iperbolici se n è pari. In particolare, a dimensione fissata tutti gli spazi sono isometrici.
Osservazione. Su R, (W, ψ) è anisotropo se e solo se è definito positivo o definito negativo.
Quindi la decomposizione di Witt di V ha min{i+ (φ), i− (φ)} piani iperbolici e una componente anisotropa di
dimensione |i+ (φ) − i− (φ)|. Due spazi reali della stessa dimensione sono isometrici se e solo se hanno uguale
w(φ) e lo stesso segno della componente anisotropa.
12
3
Geometria affine
Definizione. Uno spazio affine è un insieme di punti A dotato di una funzione φ : A × A → V con V spazio
−−→
vettoriale (che manda P, Q nel vettore indicato con P Q), che rispetta le seguenti proprietà:
−−−→
1. per ogni P0 ∈ A, P0 P0 = 0;
−−→
2. per ogni P0 ∈ A, la funzione A → V che manda P → P0 P è bigettiva;
−−−→ −−−→ −−−→
3. per ogni P0 , P1 , P2 ∈ A, P0 P1 + P1 P2 + P2 P0 = 0.
Esempio. Uno spazio affine è dato da A(V ), che coincide con V come insieme di punti e ha φ(P, Q) = Q − P .
−−−→
−−−→
Lemma. P0 P1 = −P1 P0 .
−−→
Definizione. Dati P0 ∈ A e v ∈ V , definiamo P0 + v come l’unico punto P ∈ A tale che P0 P = v.
Lemma. (P0 + v) + w = P0 + (v + w).
Definizione. Un sottoinsieme non vuoto E di A si dice sottospazio affine di A se esistono P0 ∈ E e W0
sottospazio vettoriale di V tali che E = P0 + W0 = {P0 + w | w ∈ W0 }.
Lemma. Se E è un sottospazio affine di A,
• Per ogni P1 ∈ E, esiste W1 sottospazio vettoriale di V tale che E = P1 + W1 .
• W0 = T (E) non dipende dalla scelta di P0 ∈ E ed è detto giacitura o spazio tangente ad E.
Definizione. Dati due spazi affini A su V e B su W (sullo stesso campo di scalari K), un’applicazione f : A → B
−−→
−−→
è affine se esiste P0 ∈ A tale che, detto Q0 = f (P0 ), l’applicazione dfP0 : V → W definita da dfP0 (P0 P ) = Q0 Q
−−→
con Q = f (P ) è lineare. In altre parole, f (P ) = f (P0 ) + dfP0 (P0 P ) con dfP0 lineare.
−−→
Lemma. Se f è affine, per ogni P1 ∈ A, f (P ) = f (P1 ) + dfP1 (P0 P ) con dfP1 lineare. Inoltre df non dipende
dalla scelta del punto base di A.
−−→
−−−→ −−→
−−−→
−−→
Dimostrazione. f (P ) = f (P0 )+df (P0 P ) = f (P1 )+f (P0 )−f (P1 )+df (P0 P1 + P1 P ) = f (P1 )+f (P0 )−f (P1 )+df (P0 P1 )+df (P1 P ) =
−−→
−−→
f (P1 ) + f (P0 ) − f (P1 ) + (f (P1 ) − f (P0 )) + df (P1 P ) = f (P1 ) + df (P1 P ).
Definizione. f : A → B è un isomorfismo affine se f è affine e bigettiva, e f −1 è affine.
Lemma. f affine e bigettiva è un isomorfismo se e solo se df è invertibile e per ogni P0 ∈ A, detto Q0 = f (P0 ),
−−→
si ha che f −1 (Q) = P0 + df −1 (Q0 Q). In altre parole, la parte lineare dell’inversa deve essere l’inversa della parte
lineare.
Definizione. Sia Aff(A) = {f : A → A | f isomorfismo affine}.
Definizione. Se E ⊆ A è un sottospazio affine, ne definiamo la dimensione come dim E = dim T (E).
Definizione. Dati E1 , E2 sottospazi affini di A, diciamo che E1 k E2 se T (E1 ) ⊆ T (E2 ). Il parallelismo cosı̀
definito non è una relazione simmetrica.
Osservazione. Sia f : A → B affine e sia E ⊆ A un sottospazio affine. Allora f (E) è un sottospazio affine di B
e dim f (E) ≤ dim E. Infatti, dato un qualsiasi P0 ∈ E, per quanto visto abbiamo che f (E) = f (P0 ) + df (T (E)).
Osservazione. Se f ∈ Aff(A), f manda sottospazi affini in sottospazi affini preservando la dimensione (valgono
infatti entrambe le disuguaglianze dell’osservazione precedente). Inoltre f si comporta come un’applicazione
lineare sugli spazi tangenti, quindi se E1 k E2 , ne segue che f (E1 ) k f (E2 ).
13
Definizione. Una combinazione affine di P0 , . . . , Pk ∈ A a coefficienti a0 , . . . , ak ∈ K con
a0 P0 + · · · + ak Pk = P0 +
k
X
P
ai = 1 è
−−−→
aj · P0 Pj .
j=0
Lemma. Una combinazione affine non dipende dalla scelta del punto base P0 .
Dimostrazione. P0 +
P
j
P
−−−→
−−→ P
−−→ −−→
−−→ −−→ P
−−→
−−→
aj · P0 Pj = Q + QP0 + j aj · (P0 Q + QPj ) = Q + QP0 + P0 Q + j aj · QPj = Q + j aj · QPj .
Lemma. E ⊆ A non vuoto è un sottospazio affine se e solo se è chiuso per le combinazioni affini dei suoi punti.
Definizione. Sia Span{P0 , . . . , Pk } l’insieme di tutte le combinazioni affini dei punti Pi . Si tratta di un
sottospazio affine, infatti si verifica facilmente che
−−−→
−−−→
Span{P0 , . . . , Pk } = P0 + Span{P0 P1 , . . . , P0 Pk }.
Definizione. P0 , . . . , Pk sono k + 1 punti affinemente indipendenti se dim Span{P0 , . . . , Pk } = k, o, equivalen−−−→
−−−→
temente, se i vettori P0 P1 , . . . , P0 Pk sono linearmente indipendenti.
Definizione. L’insieme ordinato {P0 , . . . , Pk } è detto un sistema di riferimento affine per A se
• A = Span{P0 , . . . , Pk };
• P0 , . . . , Pk sono affinemente indipendenti.
Osservazione. Se A ha dimensione n, passando in coordinate rispetto ad un sistema di riferimento affine si
trova che A è isomorfo a Kn , su cui abbiamo il sistema di riferimento affine canonico {0, E 1 , . . . , E n }.
14
Scarica