appunti di Geometria 2 (prof. Vecchio)

CAPITOLO I
ENDOMORFISMI DI SPAZI VETTORIALI
1. Matrici ed applicazioni lineari.
1. Richiamiamo alcune ben note proprietà delle matrici ad elementi in un
campo K .
L’insieme Km,n delle matrici


a11 a12 . . . a1n
 a21 a22 . . . a2n 
aij ∈ K
(aij ) = 
..
.. 
..
 ...
.
.
. 
am1
am2
. . . amn
a m righe ed a n colonne,con la somma ed il prodotto per elementi k ∈ K
definite da
(aij ) + (bij ) = (aij + bij )
k(aij ) = (kaij )
è uno spazio vettoriale su K . Una base è costituita dalle matrici a m righe
ed a n colonne aventi un elemento uguale a 1 e tutti gli altri elementi nulli e
quindi si ha
(1)
dim Km,n = mn.
Le matrici ad una sola riga si dicono anche matrici riga e quelle ad una
sola colonna matrici colonna.
Se m = n l’insieme Km,n lo denoteremo Kn ; i suoi elementi sono le matrici
quadrate di ordine n.
Le matrici (aij ) ∈ Kn tali che aij = 0 per ogni i 6= j si diconodiagonali.
La matrice diagonale di Kn avente tutti gli elementi della diagonale uguali
a 1, detta matrice identica, la denoteremo I o In quando sarà opportuno
indicarne esplicitamente l’ordine.
Se
A = (aij ) ∈ Km,n
B = (bjh ) ∈ Kn,q
il prodotto AB di A, B è la matrice
AB = (chl ) ∈ Km,q
Si ha:
(2)
dove chl =
(AB)C = A(BC)
n
X
r=1
ahr brl .
2
1 MATRICI ED APPLICAZIONI LINEARI
(3)
AI = IA = A
per ogni A ∈ Kn .
Una matrice A ∈ Kn è invertibile se esiste una matrice B ∈ Kn tale che
AB = BA = I ; una tale matrice B , che quando esiste è unica, è l’inversa di
A e la denoteremo A−1 .
Se A e B sono invertibili tale è AB e si ha
(AB)−1 = B −1 A−1
(4)
Se A = (aij ) ∈ Kn il suo determinante lo denoteremo
detA = |aij | .
La matrice A ∈ Kn è non singolare se detA 6= 0.
Si ha:
(5)
(6)
(7)
A ∈ Kn
det(AB)
è invertibile
detA−1
=
⇐⇒
=
detA detB;
A è non singolare;
(detA)−1 .
Se A ∈ Km,n , la matrice At ∈ Kn,m che ha come righe le colonne di A è la
matrice trasposta di A. Si ha:
(8)
(9)
(10)
(11)
(12)
(A + B)t
(AB)t
(At )t
detAt
(A−1 )t
=
=
=
=
=
At + B t ;
B t At ;
A;
detA;
(At )−1 .
Le matrici A tali che At = A sono le matrici simmetriche.
2. Siano V, V′ spazi vettoriali
1
sul campo K e
T : V −→ V′
un’applicazione lineare.
′
Se B = (v1 , ..., vn ) è una base di V e B′ = (v1′ , ..., vm
) è una base di V′
si ha
′
,
T (vi ) = a1i v1′ + a2i v2′ + · · · + ami vm
1
aji ∈ K,
1 ≤ i ≤ n.
Gli spazi vettoriali da noi considerati saranno da ritenere sempre di dimensione finita.
3
1 MATRICI ED APPLICAZIONI LINEARI
Definizione 1.1 La matrice

a11

a
21
MBB′ (T ) = 
 ...
am1
a12
a22
..
.
am2

. . . a1n
. . . a2n 
.. 
..
.
. 
. . . amn
si dice matrice di T rispetto alle basi B e B′ .
Se V = V′ e B = B′ diremo che MBB (T ) è la matrice di T rispetto alla
base B .
Osservazione 1.2 Se X = (x1 , ..., xn )t è la matrice colonna delle componenti
di x ∈ V rispetto a B , allora la matrice colonna delle componenti di T (x)
rispetto a B′ è X ′ = (MBB′ (T ))X .
Infatti, sia
′
T (x) = x′1 v1′ + x′2 v2′ + · · · + x′m vm
,
xi ∈ K.
Poiché
x = x1 v1 + x2 v2 + · · · + xn vn ,
si ha
T (x) = x1 T (v1 ) + x2 T (v2 ) + · · · + xn T (vn )
′
′
= x1 (a11 v1′ + · · · + am1 vm
) + · · · + xn (a1n v1′ + · · · + amn vm
)
′
= (a11 x1 + · · · + a1n xn )v1′ + · · · + (am1 x1 + · · · + amn xn )vm
e quindi
x′i = ai1 x1 + ai2 x2 + · · · + ain xn ,
1 ≤ i ≤ m.
Sia Hom(V, V′) l’insieme delle applicazioni lineari di V in V′ .
Con la somma S +T di S, T ∈ Hom(V, V′) ed il prodotto kT , con k ∈ K ,
definiti ponendo per ogni v ∈ V
(S + T )(v) = S(v) + T (v)
(kT )(v) = kT (v),
Hom(V, V′) diviene uno spazio vettoriale su K . Il suo elemento nullo lo
denoteremo 0.
Teorema 1.3 Siano V, V′ spazi vettoriali su K e siano B = (v1 , ..., vn ) una
′
base di V e B′ = (v1′ , ..., vm
) una base di V′ . L’applicazione
f : Hom(V, V′) −→ Km,n
definita ponendo per ogni T ∈ Hom(V, V′)
f (T ) = MBB′ (T )
è un isomorfismo.
4
1 MATRICI ED APPLICAZIONI LINEARI
DIMOSTRAZIONE. L’applicazione f è lineare.
Infatti, sia S, T ∈ Hom(V, V′) e h, k ∈ K . Se
f (S) = (bij )
f (T ) = (aij )
f (hS + kT ) = (cij ),
per ogni 1 ≤ i ≤ n si ha
′
S(vi ) = b1i v1′ + b2i v2′ + · · · + bmi vm
,
′
′
′
T (vi ) = a1i v1 + a2i v2 + · · · + ami vm ,
′
(hS + kT )(vi ) = c1i v1′ + c2i v2′ + · · · + cmi vm
.
Ma
(hS + kT )(vi ) = hS(vi ) + kT (vi )
′
′
= h(b1i v1′ + · · · + bmi vm
) + k(a1i v1′ + · · · + ami vm
)
′
′
= (hb1i + ka1i )v1 + · · · + (hbmi + kami )vm ,
quindi
cji = hbji + kaji
e perciò
per 1 ≤ i ≤ n, 1 ≤ j ≤ m
f (hS + kT ) = hf (S) + kf (T ).
L’applicazione f è iniettiva.
Infatti, se f (T ) = MBB′ (T ) è la matrice nulla si ha
T (vi ) = 0,
1 ≤ i ≤ n,
e quindi T (x) = 0 per ogni x ∈ V , ossia T = 0.
L’applicazione f è suriettiva.
Infatti, sia A = (aij ) ∈ Km,n ; se T : V −→ V′ è l’applicazione lineare
definita da
(13)
′
,
T (vi ) = a1i v1′ + a2i v2′ + · · · + ami vm
1 ≤ i ≤ n,
risulta A = MBB′ (T ) = f (T ).
L’applicazione lineare T e la matrice MBB′ (T ) le diremo associate l’una
all’altra rispetto alle basi B e B′ .
Se B e B′ sono basi dello stesso spazio vettoriale V e I è l’applicazione
identica di V, la matrice MBB′ (I) è la matrice di passaggio dalla base B′ alla
base B .
Corollario 1.4 Se V, V′ sono spazi vettoriali su K di dimensione n, m
risulta
dim Hom(V, V′) = mn.
1 MATRICI ED APPLICAZIONI LINEARI
5
DIMOSTRAZIONE. Segue subito dal teorema 1.3 e dalla (1).
Corollario 1.5 Se T ∈ Hom(V, V) e B è una base di V si ha MBB (T ) = I
se e solo se T = I .
Corollario 1.6 Se V, V′ sono spazi vettoriali di uguale dimensione n e B =
(v1 , ..., vn ), B′ = (v1′ , ..., vn′ ) sono loro rispettive basi, esiste uno ed un solo
isomorfismo T : V −→ V′ tale che
T (vi ) = vi′ ,
1 ≤ i ≤ n.
DIMOSTRAZIONE. L’isomorfismo T è quello che rispetto alle basi B , B′ è
associato alla matrice identica I ∈ Kn .
Osservazione 1.7 Sia T ∈ Hom(V, V′) e sia


a11 . . . a1n
.
.. 
..
A =  ..
.
.
am1 . . . amn
′
la matrice di T rispetto alle basi B = (v1 , . . . , vn ) di V e B′ = (v1′ , . . . , vm
)
′
di V . Se r è la caratteristica di A si ha:
1) dim Im T = r ,
2) dim Ker T = dim V − r .
3) Se m = n, allora T è isomorfismo se e solo se A è invertibile.
1) Le colonne di A sono le componenti dei vettori T (v1 ), . . . , T (vn ) rispetto alla base B′ . Se, come è possibile supporre previo un eventuale
scambio di indici, sono linearmente indipendenti le prime r colonne di
A, i vettori T (v1 ), . . . , T (vr ) sono linearmente indipendenti. Essi generano Im T perché, per ogni r + 1 ≤ j ≤ n, la j−ma colonna di A è
combinazione lineare delle prime r .
2) Segue dal fatto che dim V = dim Im (T ) + dim Ker T .
3) Segue immediatamente dalle 1) e 2).
Teorema 1.8 Siano V, V′ , V′′ spazi vettoriali su K e T ∈ Hom(V, V′),
S ∈ Hom(V′, V′′ ). Se B , B′ , B′′ sono basi rispettive di V, V′ , V′′ , risulta
′
MBB′′ (ST ) = MBB′′ (S)MBB′ (T ).
6
1 MATRICI ED APPLICAZIONI LINEARI
DIMOSTRAZIONE. Sia


a11 . . . a1n
.
.. 
..
MBB′ (T ) =  ..
.
.
am1 . . . amn


b11
..
B′

MB′′ (S) =
.
br1

c11 . . . c1n
.. 
.
.
MBB′′ (ST ) =  .. . . .
.
cr1 . . . crn
Allora, se
B = (v1 , ..., vn ),
′
B′ = (v1′ , ..., vm
),

. . . b1m
.. 
..
.
.
. . . brm
B′′ = (v′′1 , ..., v′′r ),
si ha
′
T (vj ) = a1j v1′ + · · · + amj vm
, 1 ≤ j ≤ n,
′
′′
′′
S(vi ) = b1i v 1 + · · · + bri v r , 1 ≤ i ≤ m,
(ST )(vj ) = c1j v′′1 + · · · + crj v′′r , 1 ≤ j ≤ n.
Ma
(ST )(vj ) =
=
=
=
′
S(a1j v1′ + · · · + amj vm
)
′
′
a1j S(v1 ) + · · · + amj S(vm
)
a1j (b11 v′′1 + · · · + br1 v′′r ) + · · · + amj (b1m v′′1 + · · · + brm v′′r )
(b11 a1j + · · · + b1m amj )v′′1 + · · · + (br1 a1j + · · · + brm amj )v′′r ,
quindi
ossia
chj = bh1 a1j + · · · + bhm amj ,
1 ≤ h ≤ r, 1 ≤ j ≤ n,
′
MBB′′ (ST ) = MBB′′ (S)MBB′ (T ).
Corollario 1.9 Siano V,V′ spazi vettoriali di uguale dimensione su K e B ,
B′ loro rispettive basi e sia T : V → V′ un isomorfismo. Allora
′
MBB (T −1 ) = (MBB′ (T ))−1 .
DIMOSTRAZIONE. Per il teorema 1.8 ed il corollario 1.5, si ha
′
MBB (T −1 T ) = MBB (T −1 )MBB′ (T ) = I,
′
′
MBB′ (T T −1 ) = MBB′ (T )MBB (T −1 ) = I,
e quindi
′
MBB (T −1 ) = (MBB′ (T ))−1 .
7
2 AUTOVALORI ED AUTOVETTORI
Corollario 1.10 Sia T ∈ Hom(V, V). Se B e B′ sono basi di V e N =
′
MBB (I) è la matrice di passaggio dalla base B alla base B′ si ha
′
MBB′ (T ) = N −1 MBB (T )N.
DIMOSTRAZIONE. Per il teorema 1.8 ed il corollario 1.9 si ha
′
′
′
MBB′ (T ) = MBB′ (IT ) = MBB′ (I)MBB (T )
′
′
= MBB′ (I)MBB (T I) = MBB′ (I)MBB (T )MBB (I)
= N −1 MBB (T )N.
Corollario 1.11 Se A, B ∈ Kn sono tali che AB = I si ha anche BA = I .
DIMOSTRAZIONE. Siano S , T le applicazioni lineari di K n che rispetto alla
base canonica E sono associate rispettivamente a B ed A. Allora, rispetto a
E , sono associate T S con AB e ST con BA (teorema 1.8). Da AB = I segue
che T S = I (corollario 1.5) e quindi l’iniettività di S . Infatti, se u ∈ KerS
si ha u = (T S)(u) = T (S(u)) = T (0) = 0. Poiché
n = dimK n = dim(ImS) + dim(KerS) = dim(ImS),
S è anche suriettiva e perciò è isomorfismo. Si ha
ST = (ST )(SS −1) = S(T S)S −1 = SS −1 = I
e quindi (corollario 1.5) BA = I .
2. Autovalori. Autovettori. Polinomio caratteristico.
1. Sia V uno spazio vettoriale sul campo K .
Gli endomorfismi di V sono gli elementi di Hom(V, V); gli automorfismi
di V sono gli elementi di Hom(V, V) che sono isomorfismi.
Definizione 2.1 Sia T un endomorfismo di V; un elemento λ ∈ K si dice
autovalore di T se esiste un vettore non nullo v ∈ V tale che T (v) = λv.
Se λ è un autovalore di T i vettori non nulli v ∈ V tali che T (v) = λv, si
dicono autovettori di T relativi o associati a λ ed il sottospazio
V(λ) = {v ∈ V | T (v) = λv}
si dice autospazio relativo a λ.
2 AUTOVALORI ED AUTOVETTORI
8
Osserviamo che λ è un autovalore di T se e solo se l’endomorfismo λI −T ,
dove I è l’endomorfismo identico, non è invertibile, cioè se e solo se Ker(λI −
T ) 6= {0}.
Se M è una matrice di Kn , si chiamano autovalori ed autovettori di
M gli autovalori e gli autovettori dell’endomorfismo T di K n che rispetto
ad una base comunque fissata è associato a M . Quindi, un autovettore di
M associato all’autovalore λ è una matrice colonna non nulla X tale che
MX = λX .
Lemma 2.2 Se M è la matrice dell’endomorfismo T di V rispetto ad una
base B ed I è la matrice identica, il polinomio
∆(x) = ∆T (x) = det(xI − M)
nell’indeterminata x non dipende da B .
DIMOSTRAZIONE. Se B′ è un’altra base di V e M ′ è la matrice di T
rispetto a B′ , esiste (corollario 1.10) una matrice invertibile N tale che M ′ =
N −1 MN e quindi si ha
det(xI − M ′ ) =
=
=
=
det(N −1 xIN − N −1 MN)
det(N −1 (xI − M)N)
det N −1 det(xI − M)det N
det(xI − M).
Definizione 2.3 Il polinomio ∆T (x) si dice polinomio caratteristico di T .
Se M ∈ Kn , si dice polinomio caratteristico di M quello dell’endomorfismo di K n che rispetto ad una base comunque fissata è associato a M ; esso
è det(xI − M).
Lemma 2.4 Sia T un endomorfismo dello spazio vettoriale V. Un elemento
λ ∈ K è autovalore di T se e solo se è radice del polinomio caratteristico
∆(x) di T .
DIMOSTRAZIONE. Un elemento λ ∈ K è autovalore di T se e solo se
λI − T è non invertibile. Se M è la matrice di T rispetto ad una base B di
V, la matrice di λI − T rispetto a B è λI − M . Ed allora (corollario 1.9 e
(6)) λI − T è non invertibile se e solo se det(λI − M) = ∆(λ) = 0.
Corollario 2.5 Un endomorfismo dello spazio vettoriale V ha al più n =
dimV autovalori distinti.
9
2 AUTOVALORI ED AUTOVETTORI
Corollario 2.6 Se V è uno spazio vettoriale di dimensione positiva su un
campo algebricamente chiuso K , ogni endomorfismo di V possiede autovettori.
Definizione 2.7 Se λ è un autovalore di T , la molteplicità mT (λ) di λ come
radice del polinomio caratteristico ∆T (x) di T si dice molteplicità algebrica di
λ. La dimensione gT (λ) dell’autospazio V(λ) si dice molteplicità geometrica
di λ.
Teorema 2.8 Per ogni endomorfismo T dello spazio vettoriale V e per ogni
autovalore λ di T risulta gT (λ) ≤ mT (λ).
DIMOSTRAZIONE. Sia r = gT (λ) e sia (v1 , ..., vr ) una base di V(λ). Scelti
in V n − r elementi vr+1 , ..., vn in modo che B = (v1 , ..., vr , vr+1 , ..., vn ) sia
una base di V, si ha
λvi
se 1 ≤ i ≤ r,
T (vi ) =
a1i v1 + a2i v2 + · · · + ani vn
se r + 1 ≤ i ≤ n.
Quindi la matrice di T rispetto alla

λ 0 ...
0 λ ...
. .
 . . ...
. .
M =
0 0 ...
. . .
..
 .. ..
0 0 ...
base B è
0
0
..
.
a1 r+1
a2 r+1
..
.
λ
..
.
ar r+1
..
.
0
an r+1
Ne segue che
x− λ
0
0
x−λ
.
..
.
.
.
∆(x) = det(xI − M) = 0
0
.
..
..
.
0
0

. . . a1n
. . . a2n 
.. 
..

.
. 
.
. . . arn 
.. 
..
.
. 
. . . ann
...
0
−a1 r+1
...
0
−a2 r+1
..
..
..
.
.
.
. . . x − λ −ar r+1
..
..
..
.
.
.
...
0
−an r+1
è divisibile per (x − λ)r e perciò r = gT (λ) ≤ mT (λ).
...
−a1n ...
−a2n ..
..
.
.
...
−arn ..
..
.
.
. . . x − ann Teorema 2.9 Sia T un endomorfismo dello spazio vettoriale V. Autovettori
di T relativi ad autovalori distinti sono linearmente indipendenti.
10
3 DIAGONALIZZAZIONE DI MATRICI
DIMOSTRAZIONE. Siano v1 , ..., vm autovettori relativi rispettivamente agli
autovalori distinti λ1 , ..., λm . Se m = 1 la cosa è banalmente vera. Sia m ≥ 2
e procediamo per induzione su m, assumendo che l’asserto sia vero per m − 1
autovettori. Sia
(1)
a1 v1 + a2 v2 + · · · + am vm = 0,
ai ∈ K;
allora
(2) T (a1 v1 + a2 v2 + · · · + am vm ) = a1 λ1 v1 + a2 λ2 v2 + · · · + am λm vm = 0.
D’altra parte, moltiplicando ambo i membri della (1) per λ1 e sottraendo
dalla (2) si ha
a2 (λ2 − λ1 )v2 + · · · + am (λm − λ1 )vm = 0.
Poiché λi − λ1 6= 0 per 2 ≤ i ≤ m e, per ipotesi, v2 , ..., vm sono linearmente
indipendenti, deve essere a2 = · · · = am = 0. Dalla (1) segue allora che
a1 v1 = 0 e perciò anche a1 = 0.
3. Diagonalizzazione di endomorfismi e di matrici
1. Sia T un endomorfismo dello spazio vettoriale V.
Definizione 3.1 Se esiste una base B rispetto alla quale le matrice di T è
diagonale si dice che T è diagonalizzabile e che B diagonalizza T .
Se M è una matrice di Kn , diagonalizzare M significa diagonalizzare l’endomorfismo T di K n che rispetto ad una base comunque fissata è associato
a M . In virtù del corollario 1.10, ciò vuol dire trovare una matrice invertibile
N tale che N −1 MN è diagonale.
Teorema 3.2 Un endomorfismo T dello spazio vettoriale V è diagonalizzabile se e solo se V possiede una base di autovettori di T .
DIMOSTRAZIONE. Se (v1 , ..., vn ) è una base di autovettori di T si ha
T (vi ) = λi vi ,
λi ∈ K,
1 ≤ i ≤ n,
e la matrice di T rispetto a tale base è diagonale.
Viceversa, se la matrice M di T rispetto alla base B = (v1 , ..., vn ) è
diagonale ed è


λ1 0 . . . 0
 0 λ2 . . . 0 
M =
.. . .
. 
 ...
. .. 
.
0 0 . . . λn
11
3 DIAGONALIZZAZIONE DI MATRICI
si ha
T (vi ) = λi vi ,
1 ≤ i ≤ n,
e perciò B è una base di autovettori.
Corollario 3.3 Se il polinomio caratteristico di un endomorfismo T di uno
spazio vettoriale V su K ha n = dimV radici distinte in K , T è diagonalizzabile.
DIMOSTRAZIONE. Per teorema 3.2, V possiede una base di autovettori di
T.
Teorema 3.4 Un endomorfismo T dello spazio vettoriale V è diagonalizzabile se e solo se si ha
(1)
V = V(λ1 ) ⊕ · · · ⊕ V(λr )
dove λ1 , ..., λr sono gli autovalori distinti di T .
DIMOSTRAZIONE. Se è vera la (1), con λi autovalori distinti di T e Bi è
una base di V(λi), allora B = ∪Bi è una base di V che diagonalizza T .
Viceversa, sia T diagonalizzabile e sia B una base (di autovettori) che
lo diagonalizza. Se λ1 , ..., λr sono gli autovalori distinti di T , B ha una
ripartizione in sottoinsiemi B1 ,...,Br , dove Bi è il sottoinsieme degli elementi
di B associati a λi . Se Vi è il sottospazio generato da Bi , risulta V =
V1 ⊕ · · · ⊕ Vr . Si ha Vi = V(λi ) e quindi la (1). Infatti, è ovvio che
Vi ⊆ V(λi ). D’altra parte
V = V1 ⊕ · · · ⊕ Vr ⊆ V(λ1 ) ⊕ . . . ⊕ V(λr ) ⊆ V
P
P
e quindi
dim Vi =
dim V(λi) da cui segue dim Vi = dim V(λi ). Si ha
allora Vi = V(λi) e il teorema è dimostrato.
Teorema 3.5 Un endomorfismo T dello spazio vettoriale V su K è diagonalizzabile se e solo se sono soddisfatte le condizioni:
1) Il polinomio caratteristico di T si decompone in fattori lineari in K[x];
2) Per ogni autovalore λ di T si ha gT (λ) = mT (λ).
DIMOSTRAZIONE. Se valgono le 1) e 2) si ha
r
Y
∆T (x) =
(x − λi )mi
i=1
12
3 DIAGONALIZZAZIONE DI MATRICI
Pr
con λ1 , ..., λr distinti e mi = dimV(λi ). Poiché dimV =
i=1 mi si ha
V = ⊕V(λi ), con λ1 ,...,λr autovalori distinti e quindi T è diagonalizzabile
(teorema 3.4).
Viceversa, sia T diagonalizzabile e siano λ1 , . . . , λr gli autovalori distinti di
T . Per il lemma 2.4 si ha
∆T (x) = h(x)
r
Y
i=1
(x − λi )mi ,
h(λi ) 6= 0
e per il teorema 2.8 si ha dimV(λi ) ≤ mi . Per il teorema 3.4 si ha V =
⊕ri=1 V(λi), quindi
dimV =
r
X
i=1
e perciò
dimV(λi ) ≤
r
X
r
X
i=1
mi ≤ dimV
mi = dimV.
i=1
Allora h(x) = 1 e quindi vale la 1). Inoltre dimV(λi ) = mi per ogni i, cioè
vale la 2).
CAPITOLO II
PRODOTTI SCALARI
1. Forme bilineari. Prodotti scalari.
1. Sia V uno spazio vettoriale sul campo K .
Definizione 1.1 Si chiama forma bilineare su V un’applicazione
f : V × V −→ K
lineare in ogni variabile, cioè tale che per ogni x, y, z ∈ V e a, b ∈ K soddisfa
le
1) f (ax + bz, y) = af (x, y) + bf (z, y);
2) f (x, ay + bz) = af (x, y) + bf (x, z).
Lemma 1.2 Siano A ∈ Kn e B una base di V. L’applicazione
f :V×V →K
definita mediante la
f (x, y) = X t AY,
(1)
dove X e Y sono le matrici colonna delle componenti di x e y rispetto a B ,
è bilineare.
DIMOSTRAZIONE. Se a, b ∈ K e x, y, z ∈ V si ha
f (ax + bz, y) = (aX + bZ)t AY = aX t AY + bZ t AY = af (x, y) + bf (z, y),
f (x, ay + bz) = X t A(aY + bZ) = aX t AY + bX t AZ = af (x, y) + bf (x, z).
Ogni forma bilineare f su V si può esprimere nella forma (1). Infatti, se
B = (v1 , ..., vn ) è una base di V e
x=
n
X
xi vi ,
y=
i=1
n
X
yi vi
i=1
sono elementi di V, si ha
(2)
f (x, y) = f
n
X
i=1
xi vi ,
n
X
i=1
yi vi
!
=
n
X
i,j=1
xi yj f (vi , vj ).
1 FORME BILINEARI E PRODOTTI SCALARI
14
Se X e Y sono le matrici colonna delle componenti di x e y rispetto a B e


f (v1 , v1 ) f (v1 , v2 ) . . . f (v1 , vn )
 f (v2 , v1 ) f (v2 , v2 ) . . . f (v2 , vn ) 

MB (f ) = 
..
..
..
..


.
.
.
.
f (vn , v1 ) f (vn , v2 ) . . . f (vn , vn )
la (2) si può scrivere
f (x, y) = X t MB (f )Y.
(3)
Definizione 1.3 La matrice MB (f ) si dice matrice di f rispetto a B .
Sia Bl(V) l’insieme delle forme bilineari su V. Con la somma f + g di f, g ∈
Bl(V) ed il prodotto kf , con k ∈ K , definiti ponendo per ogni (x, y) ∈ V×V
(f + g)(x, y) = f (x, y) + g(x, y),
(kf )(x, y) = kf (x, y),
Bl(V) è uno spazio vettoriale su K ; il suo elemento nullo, denotato 0, è
l’applicazione che ad ogni (x, y) ∈ V × V associa l’elemento nullo.
Teorema 1.4 Siano n la dimensione e B una base di V. L’applicazione
ϕ : Bl(V) −→ Kn
definita ponendo
ϕ(f ) = MB (f )
è un isomorfismo.
DIMOSTRAZIONE. L’applicazione ϕ è lineare. Infatti, siano f, g ∈ Bl(V),
c, d ∈ K e siano
ϕ(f ) = MB (f ) = (aij ),
ϕ(g) = MB (g) = (bij ),
ϕ(cf + dg) = MB (cf + dg) = (cij ).
Se B = (v1 , ..., vn ), si ha
cij = (cf + dg)(vi, vj ) = cf (vi , vj ) + df (vi , vj ) = caij + dbij ,
quindi
MB (cf + dg) = cMB (f ) + dMB (g).
L’applicazione ϕ è iniettiva. Infatti, se ϕ(f ) è la matrice nulla, cioè
f (vi , vj ) = 0 per ogni i, j , risulta f = 0.
1 FORME BILINEARI E PRODOTTI SCALARI
15
L’applicazione ϕ è suriettiva. Infatti, se A = (aij ) ∈ Kn , sia f : V × V →
K l’applicazione bilineare definita mediante la (1). Se Xi è la matrice colonna
delle componenti di vi rispetto a B si ha
f (vi , vj ) = Xit AXj = aij
e quindi ϕ(f ) = A.
Cambiando la base di V la matrice di f ∈ Bl(V) cambia nel modo espresso
dal seguente teorema.
Teorema 1.5 Sia f una forma bilineare sullo spazio vettoriale V e siano A
′
e A′ le matrici di f rispetto alle basi B e B′ . Se N = MBB (I) è la matrice
di passaggio dalla base B alla base B′ , si ha
A′ = N t AN.
DIMOSTRAZIONE. Se x, y ∈ V , siano X, Y le matrici colonna delle loro
componenti rispetto a B e X ′ , Y ′ le matrici colonna delle loro componenti
rispetto a B′ . Si ha
f (x, y) = X t AY = X ′t A′ Y.′
Poiché (capitolo I, osservazione 1.2) X = NX ′ e Y = NY ′ risulta
X ′t A′ Y ′ = X t AY = (NX ′ )t A(NY ′ ) = X ′t (N t AN)Y ′
e quindi, per il teorema 1.4, si ha A′ = N t AN.
2. Sia sempre V uno spazio vettoriale su K .
Definizione 1.6 Una forma bilineare f su V si dice simmetrica se e solo se
soddisfa la condizione
f (x, y) = f (y, x) per ogni x, y ∈ V.
Una forma bilineare simmetrica su V si dice anche prodotto scalare o
prodotto interno su V o in V.
Teorema 1.7 Una forma bilineare f sullo spazio vettoriale V è simmetrica
se e solo se la sua matrice rispetto ad una qualsiasi base di V è simmetrica.
DIMOSTRAZIONE. Sia B = (v1 , ..., vn ) una base di Ve sia A = (aij ) la
matrice di f rispetto a B . Se
x=
n
X
i=1
xi vi ,
y=
n
X
i=1
yivi
16
1 FORME BILINEARI E PRODOTTI SCALARI
sono vettori di V si ha
f (x, y) =
n
X
aij xi yj ,
f (y, x) =
i,j=1
n
X
aji yj xi .
i,j=1
Se A è simmetrica risulta aij = aji per ogni i, j e quindi f (x, y) = f (y, x),
cioè f è simmetrica.
Viceversa, se f è simmetrica si ha aij = f (vi , vj ) = f (vj , vi ) = aji per
ogni i, j e quindi A è simmetrica.
Nel seguito, una forma bilineare simmetrica la chiameremo prodotto scalare; generalmente un prodotto scalare lo denoteremo con il simbolo ◦ e denoteremo x ◦ y il valore assunto da ◦ nella coppia di vettori x, y di V e diremo
x ◦ y prodotto scalare di x, y.
Esempio 1.8 Se V = K n , l’applicazione K n × K n → K definita ponendo
per ogni coppia di elementi x = (x1 , ..., xn ), y = (y1, ..., yn ) di K n
x◦y =
n
X
xi yi
i=1
è un prodotto scalare che si dice prodotto scalare canonico su K n .
Osservazione 1.9 Se il campo K ha caratteristica 6= 2 e f, g sono due
prodotti scalari su V tali che f (v, v) = g(v, v) per ogni v ∈ V, allora f = g .
Infatti, se x,y ∈ V si ha
f (x + y, x + y) = f (x, x) + 2f (x, y) + f (y, y),
g(x + y, x + y) = g(x, x) + 2g(x, y) + g(y, y)
e quindi
2(f (x, y) − g(x, y)) = 0.
Poiché la caratteristica di K è 6= 2, da ciò segue che
f (x, y) = g(x, y) per ogni x, y ∈ V,
cioè f = g .
Osservazione 1.10 Se il campo K ha caratteristica 6= 2 ed il prodotto
scalare è non nullo esiste un vettore 0 6= v ∈ V tale che v ◦ v 6= 0. Infatti, se
v◦v = 0 per ogni v ∈ V dall’osservazione 1.9 segue che il prodotto scalare è
nullo.
17
2 ORTOGONALITÀ
2. Ortogonalità.
1. Sia V uno spazio vettoriale su K su cui sia definito un prodotto scalare
◦.
Definizione 2.1 Due vettori x, y ∈ V si dicono ortogonali o perpendicolari
(rispetto al prodotto scalare assegnato su V) se e solo se x ◦ y = 0.
Due sottoinsiemi M, N di V si dicono ortogonali o perpendicolari se e
solo se ogni vettore di uno di essi è ortogonale a tutti i vettori dell’altro. Per
denotare che due vettori x e y sono ortogonali scriveremo x ⊥ y.
Osservazione 2.2 Se M, N sono due sottoinsiemi di V tra loro ortogonali,
allora sono ortogonali tra loro i sottospazi [M ], [N ] da essi generati.
Infatti, se x ∈ [M ], y ∈ [N ] si ha
x=
r
X
i=1
xi ui ,
y=
s
X
yj vj ,
ui , ∈ M,
j=1
e quindi
x◦y =
X
i,j
vj ∈ N,
xi , yj ∈ K
xi yj ui ◦ vj = 0.
Definizione 2.3 Per ogni sottoinsieme M di V il sottospazio
M⊥ = {x ∈ V : x ⊥ v per ogni v ∈ M}
si dice complemento ortogonale di M .
Definizione 2.4 Un prodotto scalare su V si dice non singolare o non degenere se V⊥ = (0), singolare o degenere in caso contrario.
Teorema 2.5 Un prodotto scalare su uno spazio vettoriale V è non singolare
se e solo se la sua matrice rispetto ad una qualunque base di V è non singolare.
DIMOSTRAZIONE. Sia B = (v1 , . . . , vn ) una base di V e sia A = (aij ) la
matrice del prodotto scalare rispetto a B . Il sottospazio V⊥ è costituito dai
vettori v ∈ V tali che vi ◦ v = 0 per i = 1, 2, . . . , n. Se X = (x1 , ..., xn )t e Xi
= (0, ..., 1, ..., 0)t sono le matrici colonna delle componenti di v, vi rispetto a
B , risulta
vi ◦ v = Xit AX = ai1 x1 + ai2 x2 + · · · + ain xn
18
2 ORTOGONALITÀ
e perciò v ∈ V⊥ se e solo se

 a11 x1 + a12 x2
...

an1 x1 + an2 x2
+ ··· +
a1n xn
= 0
+ · · · + ann xn
= 0
Quindi V⊥ = (0) se e solo se det A 6= 0.
Corollario 2.6 Se su uno spazio vettoriale V è definito un prodotto scalare
non singolare ◦, per ogni sottospazio U di V si ha
1) dimU⊥ = dimV − dimU;
2) U⊥⊥ = U.
DIMOSTRAZIONE. 1) Sia B = (v1 , . . . , vn ) una base di V in modo che
(v1 , . . . , vr ) sia una base di U. Il complemento ortogonale U⊥ di U è costituito dai vettori v ∈ V tali che vi ◦v = 0 per 1 ≤ i ≤ r e quindi, se A = (aij )
è la matrice del prodotto scalare rispetto a B , dai vettori v le cui componenti
rispetto a B sono soluzione del sistema

 a11 x1 + a12 x2 + · · · + a1n xn = 0
...

ar1 x1 + ar2 x2 + · · · + arn xn = 0
La matrice M dei coefficienti di tale sistema è costituita dalle prime r righe
della matrice A, che sono linearmente indipendenti perché A è non singolare
(teorema 2.5); quindi la caratteristica di M è r e perciò
dimU⊥ = n − r = dimV − dimU.
2) Se u ∈ U risulta u ◦ v = 0 per ogni v ∈ U⊥ e perciò u ∈ U⊥⊥ , cioè
U ⊂ U⊥⊥ . Per la 1) si ha
dimU⊥⊥ = dimV − dimU⊥ = dimV − (dimV − dimU) = dimU
e perciò U⊥⊥ = U.
Definizione 2.7 Se U è un sottospazio di V, un prodotto scalare f su V si
dice non degenere o non singolare su U se tale è quello indotto da f su U
(cioè la restrizione di f a U × U).
Teorema 2.8 Sia V uno spazio vettoriale su cui sia definito un prodotto
scalare ◦. Il prodotto scalare è non singolare sul sottospazio U di V se e solo
se risulta
V = U ⊕ U⊥ .
19
2 ORTOGONALITÀ
DIMOSTRAZIONE. Se V = U⊕U⊥ si ha U∩U⊥ = (0) e quindi il prodotto
scalare è non singolare su U.
Viceversa, sia il prodotto scalare non singolare su U. Se B = (u1 , ..., um )
è una base di U ed aij = ui ◦ uj , per il teorema 2.5 si ha det(aij ) 6= 0 e quindi
per ogni v ∈ V il sistema lineare

 a11 x1 + a21 x2 + · · · + am1 xm = v ◦ u1
...

a1m x1 + a2m x2 + · · · + amm xm = v ◦ um
ha una soluzione (b1 , . . . , bm ) ∈ K m . Posto
u = b1 u1 + b2 u2 + · · · + bm um ,
w = v − u,
risulta
w ◦ ui =
=
=
=
v ◦ ui − u ◦ ui
(a1i b1 + a2i b2 + · · · + ami bm ) − (b1 u1 + b2 u2 + · · · + bm um ) ◦ ui
(a1i b1 + a2i bi + · · · + ami bm ) − (b1 a1i + b2 a2i + · · · + bm ami )
0
(1 ≤ i ≤ m)
e quindi w ∈ U⊥ . Poiché v = u + w si ha V = U + U⊥ . Essendo il prodotto
scalare non singolare su U si ha U ∩ U⊥ = (0) e quindi V = U ⊕ U⊥ .
Corollario 2.9 Sia ◦ un prodotto scalare definito su uno spazio vettoriale V, non singolare sul sottospazio U di V. Allora ◦ è non singolare sul
complemento ortogonale U⊥ di U se e solo se è non singolare su V.
DIMOSTRAZIONE. Se ◦ è non singolare su V si ha (corollario 2.6) U =
U⊥⊥ , quindi V = U⊥⊥ ⊕ U⊥ e perciò (teorema 2.8) ◦ è non singolare su
U⊥ .
D’altra parte, sia ◦ non singolare su U⊥ . Se A e B sono le matrici dei
prodotti scalari indotti rispetto alle basi B1 di U e B2 di U⊥ , la matrice di
◦ rispetto alla base B1 ∪ B2 di V è
A 0
M=
.
0 B
Si ha (teorema 2.5) det A 6= 0, det B 6= 0, quindi det M = det A det B 6= 0 e
perciò (teorema 2.5) ◦ è non singolare su V.
2. Sia V uno spazio vettoriale su cui sia definito un prodotto scalare ◦.
20
2 ORTOGONALITÀ
Definizione 2.10 Una base (v1 , ..., vn ) di V si dice ortogonale (rispetto al
prodotto scalare assegnato) se
vi ◦ vj = 0 per ogni i 6= j
e si dice ortonormale se è ortogonale ed inoltre
vi ◦ vi = 1 per 1 ≤ i ≤ n.
Esempio 2.11 La base canonica dello spazio vettoriale K n è ortonormale
rispetto al prodotto scalare canonico.
Osservazione 2.12 Se B = (v1 , ..., vn ) è una base ortonormale di V e
x=
n
X
xi vi ,
y=
i=1
sono vettori di V risulta
x◦y=
n
X
i=1
xi vi
n
X
yi vi
i=1
!
◦
n
X
i=1
yi vi
!
=
n
X
xi yi ;
i=1
cioè rispetto ad una base ortonormale la matrice del prodotto scalare è quella
identica.
Teorema 2.13 Sia V uno spazio vettoriale di dimensione positiva n su K
su cui sia definito un prodotto scalare ◦. Se K ha caratteristica 6= 2 esistono
in V basi ortogonali.
DIMOSTRAZIONE. Se n = 1 oppure il prodotto scalare è nullo il teorema è
banalmente vero perché ogni base di V è ortogonale. Supponiamo, allora, che
sia n ≥ 2, che il prodotto scalare sia non nullo e procediamo per induzione
su n, supponendo che il teorema sia vero per spazi di dimensione n − 1.
Essendo il prodotto scalare non nullo esiste un vettore v1 ∈ V tale che v1 ◦
v1 6= 0 (osservazione 1.10). Il prodotto scalare è non singolare sul sottospazio
V1 = [v1 ] generato da v1 , in quanto v1 ◦ v1 6= 0 e quindi, per il teorema 2.8,
si ha
V = V1 ⊕ V1⊥ .
Poiché dimV1⊥ = n − 1, V1⊥ ha una base (v2 , ..., vn ) ortogonale rispetto al
prodotto scalare indotto e (v1 , v2 , ..., vn ) è una base ortogonale di V.
Corollario 2.14 Se il campo K ha caratteristica 6= 2 e la matrice A ∈ Kn
è simmetrica, esiste una matrice non singolare N ∈ Kn tale che N t AN è
diagonale.
21
2 ORTOGONALITÀ
DIMOSTRAZIONE. Sia B una base di K n e sia ◦ il prodotto scalare su K n la
cui matrice rispetto a B sia A. Per il teorema 2.13 esiste una base ortogonale
di K n e rispetto ad essa la matrice A′ del prodotto scalare è diagonale. Dal
teorema 1.5 segue il corollario.
Il teorema 2.13 assicura l’esistenza di basi ortogonali. Il seguente teorema
2.15 fornisce un procedimento, detto di Gram-Schmidt, per costruire una base
ortogonale a partire da una base qualsiasi di V.
Teorema 2.15 Sia V uno spazio vettoriale su cui sia definito un prodotto
scalare ◦ tale che v ◦ v 6= 0 per ogni 0 6= v ∈ V . Se (u1 , ..., un ) è una base
di V, allora una base ortogonale di V è (v1 , ..., vn ) con
v1 = u1 ,
ui ◦ v1
ui ◦ vi−1
vi−1 − · · · −
v1 ,
vi = ui −
vi−1 ◦ vi−1
v1 ◦ v1
2 ≤ i ≤ n.
DIMOSTRAZIONE. Sia Vi = [u1 , ..., ui ], 1 ≤ i ≤ n, il sottospazio di V
generato da u1 , ..., ui , con il prodotto scalare indotto da quello di V e dimostriamo che (v1 , ..., vi ) è una base ortogonale di Vi . Ciò è manifestamente
vero per i = 1. Supponiamo allora che sia i ≥ 2 e procediamo per induzione, ammettendo che (v1 , ..., vi−1 ) sia una base ortogonale di Vi−1 . Per ogni
1 ≤ j ≤ i − 1 si ha
ui ◦ vi−1
ui ◦ v1
vi ◦ vj =
ui −
vi−1 − · · · −
v1 ◦ vj
vi−1 ◦ vi−1
v1 ◦ v1
ui ◦ vj
vj ◦ vj = 0.
= ui ◦ vj −
vj ◦ vj
Inoltre i vettori v1 , ..., vi sono linearmente indipendenti perché, se
i
X
h=1
ah vh = 0,
ah ∈ K,
per ogni 1 ≤ j ≤ i si ha
i
X
h=1
ah vh ◦ vj = aj vj ◦ vj = 0
e quindi aj = 0 per 1 ≤ j ≤ i. Dunque (v1 , ..., vi ) è una base ortogonale di
Vi . Per i = n si ha il teorema.
Assegnato un prodotto scalare su uno spazio vettoriale V mediante la sua
matrice rispetto ad una base B , un metodo, detto di Jacobi, per determinare
una matrice diagonale del prodotto scalare è quello descritto nel seguente
teorema.
22
2 ORTOGONALITÀ
Teorema 2.16 Sia V uno spazio vettoriale con un prodotto scalare ◦ la cui
matrice rispetto alla base B = (v1 , ..., vn ) sia A = (aij ). Posto
a11 . . . a1r .
.. ..
(1 ≤ r ≤ n),
dr = ..
.
. a
. . . arr
r1
se
dr 6= 0 per 1 ≤ r ≤ n − 1,
esiste in V una base B′ ortogonale rispetto alla quale la matrice del prodotto
scalare è


c1 0 . . . 0
 0 c2 . . . 0 
 .
. 
.. . .
 ..
. .. 
.
0 0 . . . cn
con
dr
c1 = d 1 , cr =
(2 ≤ r ≤ n).
dr−1
DIMOSTRAZIONE. Se 1 ≤ i ≤ n − 1, essendo di 6= 0, il sistema lineare

 a11 t1 + · · · + ai1 ti + ai+1 1 = 0
...

a1i t1 + · · · + aii ti + ai+1 i = 0
nelle indeterminate t1 , ..., ti ha una soluzione (b1 i+1 , ..., bi i+1 ) in K i . I vettori
v1′ = v1 ,
vi′ = b1i v1 + b2i v2 + · · · + bi−1 i vi−1 + vi ,
2 ≤ i ≤ n,
costituiscono la base B′ richiesta. Infatti, avendo la matrice


1 b12 . . . b1i
 0 1 . . . b2i 
.
.. . .
.. 
.
Ni = 
.
.
. 

.

0 0 ... b
i−1 i
0 0 ...
1
determinante 1, i vettori v1′ , ..., vi′ sono linearmente indipendenti e quindi
Vi = [v1 , ..., vi ] = [v1′ , ..., vi′ ].
′
Il vettore vi+1
è ortogonale a v1 , ..., vi in quanto, per ogni 1 ≤ h ≤ i, si ha
′
vi+1
◦ vh =
i
X
j=1
bj i+1 (vj ◦ vh ) + vi+1 ◦ vh =
i
X
j=1
ajh bj i+1 + ai+1 h = 0.
23
2 ORTOGONALITÀ
′
Allora vi+1
è anche ortogonale a v1′ , ..., vi′ e quindi (v1′ , ..., vr′ ) è una base
ortogonale di Vr per ogni 1 ≤ r ≤ n. Il prodotto scalare indotto su Vr ,
rispetto alla base Br = (v1 , ..., vr ) ha come matrice


a11 . . . a1r
.. 
.
..
Ar =  ..
.
.
ar1 . . . arr
mentre rispetto alla base Br′ = (v1′ , ..., vr′ ) ha una matrice diagonale


c1 . . . 0
.
.
A′r =  .. . . . .. 
0 . . . cr
e, per il teorema 1.5, si ha A′r = Nrt Ar Nr . Poiché det Nrt = det Nr = 1 si ha
c1 c2 ...cr = det A′r = dr .
Da ciò segue che
c1 = d 1 ,
cr =
dr
dr
=
(2 ≤ r ≤ n).
c1 ...cr−1
dr−1
3. Se il campo K ha caratteristica 6= 2 ed un prodotto scalare ◦ non nullo
su V è assegnato mediante la sua matrice A = (aij ) rispetto ad una data base
B , una matrice diagonale del prodotto scalare può essere determinata con un
procedimento elementare, detto del completamento dei quadrati.
Per illustrare tale procedimento ci occorre il
Lemma 2.17 Sia B = (v1 , ..., vn ) una base dello spazio vettoriale V. Se
x1 , ..., xn sono le componenti di v ∈ V rispetto a B e
xi =
n
X
cij x′j ,
j=1
cij ∈ K,
1 ≤ i ≤ n,
det(cij ) 6= 0,
allora x′1 , ..., x′n sono le componenti di v rispetto alla base
vj′
=
n
X
i=1
cij vi ,
1 ≤ j ≤ n.
24
2 ORTOGONALITÀ
DIMOSTRAZIONE. Si ha
v=
n
X
xi vi =
n
n
X
X
i=1
i=1
cij x′j
j=1
!
vi =
n
X
j=1
x′j
n
X
cij vi =
n
X
x′j vj′ .
j=1
i=1
Se x1 , ..., xn sono le componenti di v ∈ V rispetto alla base B = (v1 , ..., vn ),
allora
(1)
v◦v =
n
X
aij xi xj =
i,j=1
n
X
aii x2i + 2
i=1
X
aij xi xj .
i<j
Supponiamo che nella (1) vi sia uno dei coefficienti aii non nullo e, salvo
uno scambio di indici, possiamo supporre a11 6= 0. I termini della (1) che
contengono x1 sono
X
a11 x21 + 2
a1j x1 xj =
=
=

1<j
1 X
2 X
a11 x21 +
a1j x1 xj + 2
a1j xj
a11 1<j
a11 1<j
!2
!2
X a1j
1 X
xj −
a1j xj
a11 x1 +
a
a
11
11
1<j
1<j
e quindi
v ◦ v = a11
X a1j
x1 +
1<j
a11
xj
!2
!2 
− 1
a11
X
1<j
a1j xj
!2
+ h(x2 , ..., xn ),
con h(x2 , ..., xn ) polinomio omogeneo di grado 2 non contenente x1 . Posto
X a1j
xj ,
x′i = xi (2 ≤ i ≤ n),
x′1 = x1 +
a
1<j 11
ossia
x1 = x′1 −
poiché
X a1j
1<j
a11
x′j ,
1 − a12
a11
0
1
.
..
..
.
0
0
xi = x′i (2 ≤ i ≤ n),
... −
...
..
.
...
a1n
a11
0
..
.
1
= 1,
25
2 ORTOGONALITÀ
per il lemma 2.17, x′1 , x2 , ..., xn sono le componenti di v rispetto alla base
v1′ = v1 ,
vi′ = −
a1i
v1 + vi
a11
(2 ≤ i ≤ n).
Rispetto a tale base risulta
2
v ◦ v = a11 x′ 1 + h(x2 , ..., xn ),
la matrice del prodotto scalare è del tipo


a11 0 . . . 0
 0 b22 . . . b2n 
 .
..
.. 
..
 ..
.
.
. 
0 bn2 . . . bnn
e B = (bij ) è la matrice del prodotto scalare indotto sul sottospazio [v2′ , ..., vn′ ]
generato da v2′ , ..., vn′ rispetto alla base (v2′ , ..., vn′ ).
Se nella (1) tutti i coefficienti aii delle x2i sono nulli, essendo il prodotto
scalare non nullo, uno dei coefficienti aij è non nullo e, salvo uno scambio di
indici, possiamo supporre che sia a12 6= 0. Posto
x1 = y1 + y2 ,
x2 = y1 − y2 ,
xi = yi (3 ≤ i ≤ n)
poiché
1
1
0
.
.
.
0
1 −1 0 . . . 0 0
0 1 . . . 0 = −2
.
.. .. . .
..
. 0 . .
0
0 0 ... 1
e la caratteristica di K è 6= 2, per il lemma 2.17, y1 , . . . , yn sono le componenti
di v rispetto alla base
u1 = v1 + v2 ,
u2 = v1 − v2 ,
ui = vi (3 ≤ i ≤ n).
L’espressione di v ◦ v rispetto alla base (u1 , . . . , un ) è ottenuta dalla (1)
mediante la (2) ed in essa compare 2a12 y12 − 2a12 y22 , trasformato di 2a12 x1 x2
ed il termine 2a12 y12 non si cancella con altri termini. Adesso si prosegue
come nel caso precedente. Ripetendo il procedimento per il prodotto scalare
indotto sul sottospazio [v2′ , . . . , vn′ ] e proseguendo successivamente in modo
analogo otteniamo una matrice diagonale del prodotto scalare.
4. Se il campo K ha caratteristica 6= 2 il numero di indici i per i quali in
una base ortogonale B = (v1 , ..., vn ) di V si ha vi ◦ vi = 0 non dipende dalla
base B , come risulta dal seguente teorema.
3 PRODOTTI SCALARI SU SPAZI VETTORIALI REALI
26
Teorema 2.18 Se il campo K ha caratteristica 6= 2 e B = (v1 , ..., vn ) è una
base ortogonale dello spazio vettoriale V con un prodotto scalare ◦, il numero
di indici i per i quali vi ◦ vi = 0 è uguale alla dimensione di V⊥ .
DIMOSTRAZIONE. Se vi ◦ vi = 0 per ogni 1 ≤ i ≤ n, allora V = V⊥ ed il
teorema è vero. Supponiamo che vi sia un indice i tale che vi ◦ vi 6= 0. Gli
elementi di B possono essere ordinati in modo che sia
6= 0
se 1 ≤ i ≤ s,
vi ◦ vi
=0
se s + 1 ≤ i ≤ n.
Allora
vj ◦ vi = 0
per 1 ≤ j ≤ n, s + 1 ≤ i ≤ n
P
e quindi vs+1 , ..., vn ∈ V . Se v = ni=1 ai vi ∈ V⊥ , risulta
!
n
X
v ◦ vi =
ai vi ◦ vi = ai vi ◦ vi = 0
per 1 ≤ i ≤ n
⊥
i=1
ed allora, essendo vi ◦ vi 6= 0 per 1 ≤ i ≤ s, deve essere a1 = · · · = as = 0.
Quindi V⊥ è generato da vs+1 , ..., vn . Poiché vs+1 , ..., vn sono linearmente
indipendenti, in quanto elementi di una base, costituiscono una base di V⊥ ,
da cui il teorema.
3. Prodotti scalari su spazi vettoriali reali.
1. Gli spazi vettoriali reali sono gli spazi vettoriali sul campo reale R.
Definizione 3.1 Un prodotto scalare ◦ su uno spazio vettoriale reale V si
dice positivo se e solo se x ◦ x > 0 per ogni 0 6= x ∈ V e si dice negativo se e
solo se x ◦ x < 0 per ogni 0 6= x ∈ V .
Esempio 3.2 Il prodotto scalare canonico di Rn P
è positivo.
Infatti, se x = (x1 , ..., xn ) ∈ Rn , si ha x ◦ x = ni=1 x2i .
Osservazione 3.3 Un prodotto scalare positivo o negativo su V è non degenere.
Infatti, se un prodotto scalare ◦ su V è degenere, esiste un elemento
0 6= v ∈ V⊥ e quindi tale che v ◦ v = 0.
Osservazione 3.4 Se B = (v1 , ..., vn ) è una base ortogonale di V e x1 , ..., xn
sono le componenti di v ∈ V rispetto a B si ha
v◦v=
n
X
i=1
x2i (vi ◦ vi )
27
3 PRODOTTI SCALARI SU SPAZI VETTORIALI REALI
e quindi il prodotto scalare è positivo se e solo se vi ◦vi > 0 per ogni 1 ≤ i ≤ n
ed è negativo se e solo se vi ◦ vi < 0 per ogni 1 ≤ i ≤ n.
Il numero di indici i per i quali in una base ortogonale B = (v1 , ..., vn ) di V
risulta vi ◦ vi > 0 non dipende dalla base, come risulta dal seguente teorema.
Teorema 3.5 (di Sylvester) Sia V uno spazio vettoriale reale su cui sia
definito un prodotto scalare ◦. Esiste un intero r ≥ 0 con la proprietà: per
ogni base ortogonale B = (v1 , ..., vn ) di V vi sono esattamente r indici i tali
che vi ◦ vi > 0.
DIMOSTRAZIONE. Siano B = (v1 , ..., vn ) e B′ = (v1′ , ..., vn′ ) basi ortogonali
di V e sia
ai = vi ◦ vi ,
a′i = vi′ ◦ vi′ ,
1 ≤ i ≤ n.
Siano r il numero di indici i per i quali ai > 0 e s il numero di indici i per i
quali a′i > 0. Se r = 0 anche s = 0. Infatti, se vi fosse un elemento a′h > 0,
poiché
n
X
′
vh =
cj vj ,
cj ∈ K,
j=1
si avrebbe l’assurdo
0 < a′h = vh′ ◦ vh′ =
n
X
cj vj
j=1
!
◦
n
X
cj vj
j=1
!
=
n
X
j=1
c2j aj ≤ 0.
Se r = n il prodotto scalare è positivo (osservazione 3.4), quindi a′j > 0
per ogni j e perciò s = n = r . Sia 1 ≤ r < n; allora 1 ≤ s < n. Le basi B ,
B′ si possono pensare ordinate in modo che sia
> 0 se 1 ≤ i ≤ r,
> 0 se 1 ≤ i ≤ s,
′
ai
ai
≤ 0 se r + 1 ≤ i ≤ n,
≤ 0 se s + 1 ≤ i ≤ n.
′
, ..., vn′ sono linearmente indipendenti. Infatti, sia
I vettori v1 , ..., vr , vs+1
r
X
(1)
bi vi +
i=1
n
X
b′j vj′ = 0,
j=s+1
bi , b′j ∈ R.
Allora
r
X
i=1
bi vi
!
◦
r
X
i=1
bi vi
!
=
n
X
j=s+1
b′j vj′
!
◦
n
X
j=s+1
b′j vj′
!
3 PRODOTTI SCALARI SU SPAZI VETTORIALI REALI
e quindi
r
X
ai b2i =
i=1
n
X
28
2
a′j b′j .
j=s+1
Il primo membro di questa uguaglianza è ≥ 0 mentre il secondo membro è
≤ 0, quindi entrambi i membri debbono essere nulli. Poiché a1 , ..., ar sono
positivi, deve essere b1 = · · · = br = 0; la (1) diviene allora
n
X
b′j vj′ = 0
j=s+1
′
e poiché vs+1
, ..., vn′ sono linearmente indipendenti deve essere b′s+1 = · · · =
b′n = 0. Ne segue, allora, che r + (n − s) ≤ n e quindi r ≤ s. Analogamente
s ≤ r e perciò r = s.
Osservazione 3.6 Dal teorema 3.5 e dal teorema 2.18 segue che non dipende
dalla base ortogonale B = (v1 , ..., vn ) il numero di indici j per cui vj ◦vj < 0.
2. Si ha il
Teorema 3.7 Un prodotto scalare ◦ su uno spazio vettoriale reale V è positivo se e solo se la sua matrice A = (aij ) rispetto ad una qualunque base
B = (v1 , ..., vn ) di V è tale che
a11 . . . a1r .
.. ..
dr = ..
.
. > 0 per ogni 1 ≤ r ≤ n.
a
. . . arr r1
DIMOSTRAZIONE. Se dr > 0 per 1 ≤ r ≤ n, per il teorema 2.16, esiste in
V una base B′ ortogonale tale che, se x1 , ..., xn sono le componenti di v ∈ V
rispetto a B′ , si ha
v◦v=
n
X
i=1
ci x2i ,
c1 = d 1 ,
cr =
dr
(2 ≤ r ≤ n)
dr−1
e quindi il prodotto scalare è positivo (osservazione 3.4).
Viceversa, sia il prodotto scalare positivo. Sia Vr = [v1 , ..., vr ]; allora


a11 . . . a1r
.
.. 
..
Ar =  ..
.
.
ar1 . . . arr
3 PRODOTTI SCALARI SU SPAZI VETTORIALI REALI
29
è la matrice del prodotto scalare indotto su Vr rispetto alla base Br =
(v1 , ..., vr ). Esiste in Vr una base ortogonale Br′ (teorema 2.13) e rispetto ad
essa la matrice del prodotto scalare è del tipo


b1 . . . 0
.
.
A′r =  .. . . . .. 
0 . . . br
con bi > 0 per 1 ≤ i ≤ r (osservazione 3.6). Se Nr è la matrice di passaggio
dalla base Br alla base Br′ si ha (teorema 1.5)
A′r = Nrt Ar Nr
e quindi
b1 b2 ...br = (det Nr )2 dr ,
da cui segue che dr > 0 per 1 ≤ r ≤ n. 3. Sia V uno spazio vettoriale reale
con un prodotto scalare positivo ◦.
Definizione 3.8 Se x ∈ V , il numero reale
√
kxk = x ◦ x
si dice norma o lunghezza di x. Un vettore u ∈ V di lunghezza 1 si dice
unitario.
Se x ∈ V e x 6= 0, il vettore
u=
è unitario.
x
kxk
Teorema 3.9 In uno spazio vettoriale reale V, di dimensione positiva, su
cui è definito un prodotto scalare ◦, esistono basi ortonormali se e solo se il
prodotto scalare è positivo.
DIMOSTRAZIONE. Se il prodotto scalare è positivo, è non degenere (osservazione 3.3) e, per il teorema 2.13, V possiede una base ortogonale B =
(v1 , ..., vn ). Poiché il prodotto scalare è positivo si ha vi ◦vi > 0 per 1 ≤ i ≤ n
ed allora, posto
vi
,
1 ≤ i ≤ n,
ui =
kvi k
(u1 , ..., un ) è una base ortonormale di V.
D’altra parte, se il prodotto scalare non è positivo e (v1 , . . . , vn ) è una base
ortogonale di V vi è almeno un elemento vi tale che vi ◦ vi ≤ 0 (osservazione
3.4) e quindi in V non esistono basi ortonormali.
3 PRODOTTI SCALARI SU SPAZI VETTORIALI REALI
30
Teorema 3.10 Sia V uno spazio vettoriale reale su cui sia definito un prodotto scalare positivo ◦. Per ogni coppia di vettori x, y ∈ V si ha:
1) |x ◦ y| ≤ kxk kyk (Disuguaglianza di Schwarz);
2) kx + yk ≤ kxk + kyk;
3) |kxk − kyk| ≤ kx − yk.
DIMOSTRAZIONE. 1) Se x = 0 la 1) è banalmente vera. Sia x 6= 0; allora
0 ≤ (kx − y) ◦ (kx − y) = kxk2 k 2 − 2(x ◦ y)k + kyk2
e quindi deve essere
da cui la 1).
2) Segue da
(x ◦ y)2 ≤ kxk2 kyk2 ,
kx + yk2 = (x + y) ◦ (x + y) = kxk2 + 2x ◦ y + kyk2
≤ kxk2 + 2kxk kyk + kyk2 = (kxk + kyk)2 .
3) Da
segue che
Anlogamente
e perciò si ha la 3).
kxk = kx − y + yk ≤ kx − yk + kyk
kxk − kyk ≤ kx − yk.
kyk − kxk ≤ kx − yk
Osservazione 3.11 Se i vettori x, y sono entrambi non nulli, nella disuguaglianza di Schwartz vale l’uguaglianza se e solo se essi sono linearmente
dipendenti. Infatti, se sono linearmente dipendenti esiste un elemento k0 ∈ K
tale che y = k0 x ed allora k0 è radice reale dell’equazione in k
(2)
quindi
kxk2 k 2 − 2(x ◦ y)k + kyk2 = 0,
(x ◦ y)2 ≥ kxk2 kyk2 ,
da cui l’uguaglianza.
Viceversa, se vale l’uguaglianza, l’equazione (2) ha una radice reale k0 ,
quindi
(k0 x − y) ◦ (k0 x − y) = 0
e perciò y = k0 x.
31
4 FORME QUADRATICHE
Dalla disuguaglianza di Schwartz segue che, se x 6= 0 e y 6= 0, si ha
−1 ≤
x◦y
≤ 1.
kxk kyk
Poiché la funzione coseno è un’applicazione strettamente decrescente dell’intervallo chiuso [0, π] sull’intervallo chiuso [−1, 1], esiste un ben determinato
numero reale θ tale che
x◦y
cos θ =
, 0 ≤ θ ≤ π.
kxk kyk
Il numero reale θ è l’angolo dei vettori x, y. I vettori x, y sono ortogonali se
e solo se il loro angolo è π2 .
4. Forme quadratiche.
1. Sia V uno spazio vettoriale su un campo K di caratteristica 6= 2.
Definizione 4.1 Si chiama forma quadratica su V un’applicazione
q : V −→ K
tale che esiste un prodotto scalare ◦ su V in modo che
q(v) = v ◦ v per ogni v ∈ V
e si dice che q è determinata o definita dal prodotto scalare ◦.
Dall’osservazione 1.9 segue che una forma quadratica q su V è determinata
da un unico prodotto scalare su V.
Sia q una forma quadratica su V e sia B = (v1 , ..., vn ) una base di V.
La matrice A = (aij ) rispetto a B del prodotto scalare che definisce q si dice
anche matrice di q rispetto a B . Se
v=
n
X
xi vi ,
X = (x1 , ..., xn )t ,
i=1
risulta
(1)
q(v) = X t AX =
X
aij xi xj .
i,j
D’altra parte, assegnata una matrice simmetrica A = (aij ) ∈ Kn di ordine
n = dimV , A definisce una forma bilineare su V avente A come matrice
32
4 FORME QUADRATICHE
rispetto a B (teorema 1.4), che è simmetrica (teorema 1.7) e quindi definisce
una forma quadratica q su V per la quale si ha la (1).
Se x1 , ..., xn sono le componenti di v ∈ V rispetto alla base B , scriveremo
anche
q(v) = q(x1 , ..., xn ).
Una base che diagonalizza q è una base (u1 , ..., un ) di V rispetto alla quale
la matrice di q è diagonale, cioè rispetto alla quale q si esprime mediante la
(2)
q(x1 , ..., xn ) =
n
X
i=1
ai x2i ,
ai = ui ◦ ui .
Dal teorema 2.13 segue che esistono in V basi che diagonalizzano q .
Una matrice diagonale di q si ottiene col completamento dei quadrati (§2,
n.3) o col metodo di Jacobi (teorema 2.16).
Definizione 4.2 Il numero di indici i per i quali nella (2) è ai = 0, che per
il teorema 2.18 non dipende dalla base B che diagonalizza q , si dice indice di
nullità di q .
Definizione 4.3 La forma quadratica q si dice non degenere se e solo se è
non degenere il prodotto scalare che la definisce.
Dal teorema 2.5 segue il
Corollario 4.4 Una forma quadratica è non degenere se e solo se ha indice
di nullità 0.
2. Una forma quadratica reale è una forma quadratica su uno spazio vettoriale
reale.
Definizione 4.5 Una forma quadratica reale q si dice:
definita positiva se e solo se q(v) > 0 per ogni 0 6= v ∈ V , cioè se e solo
se è positivo il prodotto scalare che la definisce,
definita negativa se e solo se q(v) < 0 per ogni 0 6= v ∈ V ,
semidefinita positiva se e solo se q(v) ≥ 0 per ogni v ∈ V ,
semidefinita negativa se e solo se q(v) ≤ 0 per ogni v ∈ V .
Se A = (aij ) è la matrice di q rispetto ad una base B di V, una condizione
necessaria e sufficiente perché q sia definita positiva è data dal teorema 3.7.
33
5 ENDOMORFISMI SIMMETRICI
Definizione 4.6 Se B = (u1 , ..., un ) è una base che diagonalizza q e rispetto
ad essa q si esprime mediante la (2), il numero dei coefficienti ai che sono
positivi, che non dipende da B (teorema 3.5), si dice indice di positività di
q . Il numero dei coefficienti ai che sono negativi, che non dipende da B in
conseguenza del teorema 2.18, si dice indice di negatività di q .
Corollario 4.7 Una forma quadratica reale su V è definita positiva (negativa) se e solo se il suo indice di positività (negatività) è uguale alla dimensione
di V.
5. Endomorfismi simmetrici.
1. Sia V uno spazio vettoriale su K . Lo spazio vettoriale duale di V è
V∗ = Hom(V, K).
Se (v1 , ..., vn ) è una base di V, gli elementi v1∗ , ..., vn∗ di V∗ tali che
0, se i =
6 j;
∗
vi (vj ) =
1, se i = j;
costituiscono una base di V∗ , la duale di (v1 , ..., vn ).
Teorema 5.1 Sia V uno spazio vettoriale su K su cui sia definito un prodotto
scalare ◦ non singolare e per ogni v ∈ V sia λv l’elemento di V∗ tale che
λv (x) = v ◦ x
per ogni x ∈ V.
L’applicazione
definita da
Ψ : V −→ V∗
Ψ(v) = λv
è un isomorfismo.
DIMOSTRAZIONE. L’applicazione Ψ è lineare in quanto, se u, v ∈ V e
a, b ∈ K , per ogni x ∈ V si ha
λau+bv (x) = (au + bv) ◦ x = au ◦ x + bv ◦ x = aλu (x) + bλv (x)
= (aλu + bλv )(x)
e perciò
Ψ(au + bv) = aΨ(u) + bΨ(v).
34
5 ENDOMORFISMI SIMMETRICI
Inoltre Ψ è iniettiva. Infatti, se Ψ(v) = 0 si ha λv (x) = v ◦ x = 0 per ogni
x ∈ V ed essendo il prodotto scalare non singolare deve essere v = 0. Ed
allora, avendo V e V∗ la stessa dimensione, Ψ è isomorfismo.
Teorema 5.2 Sia V uno spazio vettoriale su K su cui sia definito un prodotto scalare ◦ non singolare. Per ogni endomorfismo S di V esiste un ben
determinato endomorfismo T di V tale che
(1)
x ◦ S(y) = T (x) ◦ y
per ogni x, y ∈ V.
DIMOSTRAZIONE. Per ogni x ∈ V , sia
fx : V → K
l’applicazione definita da
fx (y) = x ◦ S(y).
Si verifica subito che fx ∈ V∗ e quindi, per il teorema 5.1, esiste un ben
determinato elemento v ∈ V tale che se λv : V −→ K è l’applicazione lineare
definita da λv (y) = v ◦ y, risulta fx = λv . L’applicazione T : V −→ V
definita da x → v soddisfa la (1); infatti,
x ◦ S(y) = fx (y) = λT (x) (y) = T (x) ◦ y.
E T è un endomorfismo di V perché se x, y, z ∈ V e a, b ∈ K si ha
T (ax + bz) ◦ y = (ax + bz) ◦ S(y) = ax ◦ S(y) + bz ◦ S(y)
= aT (x) ◦ y + bT (z) ◦ y
= (aT (x) + bT (z)) ◦ y
e quindi
(T (ax + bz) − aT (x) − bT (z)) ◦ y = 0.
Poiché ciò vale per ogni y ∈ V ed il prodotto scalare è non singolare, deve
essere
T (ax + bz) = aT (x) + bT (z).
L’endomorfismo T è l’unico che soddisfa la (1). Infatti, se T ′ è un altro
endomorfismo che la soddisfa, per ogni y ∈ V si ha
(T ′ (x) − T (x)) ◦ y = 0
e poiché il prodotto scalare è non singolare, deve essere T ′ (x) = T (x) per
ogni x ∈ V , cioè T ′ = T.
35
5 ENDOMORFISMI SIMMETRICI
Definizione 5.3 L’endomorfismo T del teorema 5.2, si dice trasposto di S e
lo denoteremo S t .
Definizione 5.4 L’endomorfismo S di V si dice simmetrico se e solo se S =
S t , cioè
x ◦ S(y) = S(x) ◦ y per ogni x, y ∈ V.
Corollario 5.5 Sia S un endomorfismo di uno spazio vettoriale V su cui sia
definito un prodotto scalare ◦ non singolare e sia B una base ortonormale di
V. Allora, la matrice rispetto a B del trasposto S t di S è la trasposta della
matrice di S rispetto a B . In particolare S è simmetrico se e solo se la sua
matrice rispetto a B è simmetrica.
DIMOSTRAZIONE. Siano A, B le matrici rispetto a B di S, S t rispettivamente. Se X, Y sono le matrici colonna delle componenti di x, y rispetto a
B si ha (osservazione 2.12 e capitolo I osservazione 1.2)
x ◦ S(y) = X t (AY ) = X t AY
S t (x) ◦ y = (BX)t Y = X t B t Y.
Deve essere
X t AY = X t B t Y
per ogni X, Y
cioè
X t (A − B t )Y = 0 per ogni X, Y .
In particolare, se B = (v1 , . . . , vn ) e Xi = (0, . . . , 1, . . . , 0)t è la matrice
colonna delle componenti di vi rispetto a B , deve essere
Xit (A − B t )Xj = 0,
per ogni 1 ≤ i, j ≤ n,
da cui segue che A − B t = 0 e perciò At = B .
Teorema 5.6 Sia V uno spazio vettoriale reale di dimensione n > 0 su
cui sia definito un prodotto scalare positivo ◦ e sia T un endomorfismo
simmetrico di V. Allora:
1) Il polinomio caratteristico di T si decompone in fattori lineari in R[x];
2) T possiede autovettori.
DIMOSTRAZIONE. 1) Sia B una base ortonormale di V (che esiste, per il
teorema 3.9) e sia M la matrice di T rispetto a B . Il polinomio caratteristico
di T è ∆(x) = det(xI −M). Se S è l’endomorfismo dello spazio vettoriale Cn
36
5 ENDOMORFISMI SIMMETRICI
sul campo complesso C la cui matrice rispetto alla base canonica è M , ∆(x)
è anche il polinomio caratteristico di S e quindi le sue radici in C sono gli
autovalori di S . Si deve dimostrare che ogni radice di ∆(x) in C appartiene
a R.
Se B = (bij ) è una matrice ad elementi in C, sia B = (bij ) la matrice
i cui elementi sono i coniugati degli elementi di B . Essendo M simmetrica
(corollario 5.5) e reale, si ha
t
Mt = M = M = M .
(2)
Sia
h : Cn × Cn −→ C
l’applicazione definita nel modo seguente: se z, y ∈ Cn e Z = (z1 , ..., zn )t ,
Y = (y1 , ..., yn )t sono le matrici colonna delle componenti di z, y rispetto alla
base canonica, allora
n
X
h(z, y) =
zj y j = Z t Y .
j=1
Sono immediate le
(3)
h(az, y) = ah(z, y) per ogni a ∈ C;
(4)
h(z, ay) = ah(z, y) per ogni a ∈ C;
(5)
h(z, z) ∈ R;
(6)
h(z, z) > 0 se z 6= 0.
Se z è un autovettore dell’endomorfismo S associato all’autovalore λ, si ha
S(z) = λz e quindi
λh(z, z) = h(λz, z) = h(S(z), z) = (MZ)t Z = Z t M t Z = Z t M Z
= h(z, S(z)) = h(z, λz) = λh(z, z).
Allora
(λ − λ)h(z, z) = 0
e, per la (6), si ha λ = λ, ossia λ ∈ R.
2) Segue immediatamente dalla 1).
37
5 ENDOMORFISMI SIMMETRICI
Teorema 5.7 (Teorema spettrale) Sia V uno spazio vettoriale reale di
dimensione positiva n su cui sia definito un prodotto scalare positivo ◦. Se
T è un endomorfismo simmetrico di V, esiste in V una base ortonormale
costituita da autovettori di T .
DIMOSTRAZIONE. Per n = 1 il teorema è vero perché, se 0 6= v ∈ V , allora
u = v/kvk è un autovettore di T e costituisce una base ortonormale di V.
Procediamo per induzione su n. Sia n > 1 e supponiamo che il teorema sia
vero per spazi vettoriali di dimensione n−1. Per il teorema 5.6, T possiede un
autovettore v1 ; sia u1 = v1 /kv1 k e sia U = [u1 ]⊥ il complemento ortogonale
di u1 . La restrizione T ′ di T a U è un endomorfismo di U; infatti, se
T (u1 ) = λu1 , per ogni u ∈ U si ha
T (u) ◦ u1 = u ◦ T (u1 ) = u ◦ λu1 = λu ◦ u1 = 0
e perciò T (u) ∈ U. Ovviamente T ′ è un endomorfismo simmetrico rispetto al
prodotto scalare indotto. Poiché dimU = n − 1 (osservazione 3.3 e corollario
2.6), per ipotesi esiste una base ortonormale (u2 , ..., un ) di U costituita da
autovettori di T ′ . Ed allora (u1 , u2 , ..., un ) è una base ortonormale di U
costituita da autovettori di T .
Se K è un campo, una matrice M ∈ Kn è ortogonale se e solo se
M t M = MM t = I.
Per il corollario 1.11 del capitolo I, perché M sia ortogonale basta che risulti
MM t = I oppure M t M = I .
Lemma 5.8 Se su uno spazio vettoriale V su K è definito un prodotto scalare ◦ ed E , B sono basi ortonormali di V, la matrice di passaggio dall’una
all’altra è ortogonale.
DIMOSTRAZIONE. Sia E = (e1 , . . . , en ), B = (u1 , . . . , un ) e sia
ui = b1i e1 + b2i e2 + · · · + bni en ,
Allora

b11
.
B
M = ME (I) =  ..
bn1
Sia M t M = (cij ). Si ha
1 ≤ i ≤ n.

. . . b1n
.. 
..
.
.
.
. . . bnn
cij = b1i b1j + b2i b2j + · · · + bni bnj = ui ◦ uj =
e quindi M t M = I .
0, se i 6= j,
1, se i = j,
38
5 ENDOMORFISMI SIMMETRICI
Corollario 5.9 Sia A una matrice reale simmetrica di ordine n. Allora:
1) il polinomio caratteristico ∆(x) di A si decompone in fattori lineari in
R[x];
2) se

λ1 . . .
.
′
∆(x) =
(x − λi ),
A =  .. . . .
i=1
0 ...
esiste una matrice ortogonale M ∈ Rn tale che
n
Y

0
.. 
,
.
λn
A′ = M −1 AM = M t AM.
DIMOSTRAZIONE. Sia T l’endomorfismo di Rn avente A come matrice
rispetto alla base canonica E = (e1 , ..., en ). Poiché, rispetto al prodotto
scalare canonico ◦ di Rn , E è ortonormale, T è simmetrico rispetto a tale
prodotto scalare (corollario 5.5). Il polinomio caratteristico di A coincide con
quello di T e quindi la 1) segue dal teorema 5.6.
Per il teorema 5.7, esiste in Rn una base B = (u1 , ..., un ) ortonormale
rispetto al prodotto scalare canonico costituita da autovettori di T . Se
T (ui ) = λi ui ,
1 ≤ i ≤ n,
la matrice rispetto a B di T è A′ . Se M è la matrice di passaggio dalla base
E alla base B si ha (capitolo I, corollario 1.10) A′ = M −1 AM . Per il lemma
5.8 la matrice M è ortogonale, cioè M t = M −1 e quindi
A′ = M −1 AM = M t AM.
Corollario 5.10 Siano f, g due prodotti scalari su uno spazio vettoriale reale V. Se f è positivo, esiste in V una base ortonormale rispetto a f ed
ortogonale rispetto a g .
DIMOSTRAZIONE. Per il teorema 3.9 esiste in V una base E ortonormale
rispetto a f . Sia A la matrice di g rispetto a E e sia T l’endomorfismo di V
che rispetto a E è associato ad A. Poiché E è ortonormale rispetto a f ed A
è simmetrica, T è simmetrico rispetto a f (corollario 5.5) e quindi in V esiste
una base B = (u1 , ..., un ) ortonormale rispetto a f costituita da autovettori
di T (teorema 5.7). Se T (ui ) = λi ui , 1 ≤ i ≤ n, la matrice di T rispetto a
B è la matrice diagonale


λ1 . . . 0
.
.
(7)
A′ =  .. . . . ..  .
0 . . . λn
39
5 ENDOMORFISMI SIMMETRICI
Se M = MEB (I) è la matrice di passaggio dalla base E alla base B , si ha
(capitolo I corollario 1.10) A′ = M −1 AM . Per il lemma 5.8, M è ortogonale
e quindi
A′ = M −1 AM = M t AM.
Allora A′ è la matrice di g rispetto a B (teorema 1.5) e quindi B è ortogonale
rispetto a g .
Corollario 5.11 Sia g un prodotto scalare su uno spazio vettoriale reale V
di dimensione positiva n e sia A la sua matrice rispetto ad una base E di V.
Se il polinomio caratteristico di A è
n
Y
∆(x) =
(x − λi ),
i=1
λi ∈ R,
esiste in V una base ortogonale B rispetto alla quale la matrice di g è la
matrice diagonale (7).
DIMOSTRAZIONE. Sia f il prodotto scalare su V la cui matrice rispetto a
E sia la matrice identica I ; f è positivo e rispetto ad esso E è ortonormale.
Il corollario segue, allora, dalla dimostrazione del corollario 5.10.
Osservazione 5.12 Il prodotto scalare g del corollario 5.11 è positivo se e
solo se gli autovalori della sua matrice A sono tutti positivi.
CAPITOLO III
SPAZI AFFINI
GEOMETRIA LINEARE AFFINE
1. Spazi affini.
1. Sia A un insieme non vuoto e sia V uno spazio vettoriale su K .
Definizione 1.1 Si dice che su A è definita una struttura di spazio affine
con spazio vettoriale associato V se è assegnata un’applicazione
(1)
A × A −→ V
−−→
tale che ad ogni (P, Q) ∈ A × A associa un vettore di V, denotato P Q , in
modo che:
−−→
a1 ) P Q = 0 ⇐⇒ P = Q;
−−→
a2 ) Per ogni P ∈ A ed ogni v ∈ V , esiste Q ∈ A tale che P Q = v;
−−→ −−→ −−→
a3 ) Se P, Q, R ∈ A si ha P Q + QR = P R .
Un insieme A con una struttura di spazio affine e spazio vettoriale associato
V si dice anche spazio affine su V; i suoi elementi si dicono punti e per ogni
−−→
(P, Q) ∈ A × A, P si dice punto di applicazione del vettore P Q .
La dimensione di V si dice anche dimensione dello spazio affine A e la
denoteremo dim A. Per indicare che lo spazio affine A ha dimensione n
scriveremo anche An . Gli spazi affini A1 si dicono rette e gli spazi affini A2
piani.
Osservazione 1.2 1) Dalle a1 ), a3 ) segue che
(2)
−−→
−−→
QP = − P Q.
2) Per ogni P ∈ A ed ogni v ∈ V vi è un solo punto Q ∈ A tale che
−−→
P Q = v.
−−→
−−→
−−→ −−→ −−→
−−→
Infatti, sia P Q = v = P R ; da P Q + QR = P R segue che v + QR = v,
−−→
quindi QR =0 e perciò Q = R.
41
1 SPAZI AFFINI
−−−→ −−−→
3) Sussiste la legge del parallelogramma: se P1 Q1 = P2 Q2 risulta anche
−−−→ −−−→
P1 P2 = Q1 Q2 .
Infatti, si ha
−−−→ −−−→ −−−→ −−−→ −−−→
P1 Q1 + Q1 Q2 = P1 Q2 = P1 P2 + P2 Q2
−−−→ −−−→
e perciò P1 P2 = Q1 Q2 .
Esempio 1.3 L’applicazione V × V → V che alla coppia (u,v) ∈ V × V
associa
−→
(3)
uv = v − u
per ogni u, v ∈ V definisce su V una struttura di spazio affine con spazio
vettoriale associato V stesso.
Nel caso particolare che V=K n esso si dice spazio affine di dimensione n
su K e lo denoteremo AnK o An (K).
2. Sia A uno spazio affine su V.
Definizione 1.4 Si chiama sistema di riferimento di origine il punto O di
A il dato (O; e1, . . . , en ) del punto O di A e di una base (e1 , ..., en ) di V.
Nel caso dello spazio affine An (K), se O = (0, . . . , 0) ed (e1 , . . . , en ) è la
base canonica di K n , il sistema di riferimento (O; e1, . . . , en ) si dice canonico.
−−→
Se (O; e1 , ..., en ) è un sistema di riferimento di A e P ∈ A, il vettore OP
si dice vettore associato a P nel sistema di riferimento e le sue componenti
rispetto alla base (e1 , ..., en ) si dicono coordinate di P nel sistema di riferimento. Per indicare che x1 , ..., xn sono coordinate di P scriveremo anche
P (x1 , ..., xn ).
Se P (x1 , ..., xn ) e Q(y1 , ..., yn ) sono punti di A, le componenti del vettore
−−→
P Q rispetto alla base (e1 , ..., en ) sono (y1 − x1 , ..., yn − xn ).
Teorema 1.5 Siano (O; e1 , ..., en ) e (O ′ ; e′1 , ..., e′n ) due sistemi di riferimento dello spazio affine A. Se X, Y sono le matrici colonna delle coordinate di
un punto P nei due sistemi di riferimento, si ha la trasformazione (affine)
di coordinate
(4)
Y = AX + B,
dove A è la matrice di passaggio dalla base (e′1 , ..., e′n ) alla base (e1 , ..., en )
e B è la matrice colonna delle coordinate di O nel sistema di riferimento
(O ′; e′1 , ..., e′n ).
2 VARIETÀ LINEARI AFFINI
42
DIMOSTRAZIONE. Si ha
−−→ −−→ −−→
O ′ P = O ′ O + OP .
−−→
La matrice colonna delle componenti di OP rispetto alla base (e′1 , ..., e′n ) è
AX (capitolo I, osservazione 1.2), da cui la (4).
2. Varietà lineari affini.
1. Sia A uno spazio affine sullo spazio vettoriale V.
Definizione 2.1 Un sottoinsieme non vuoto S di A si dice varietà lineare
(affine) o sottospazio lineare di A se e solo se esiste un sottospazio vettoriale
M di V tale che:
−−→
s1 ) se P, Q ∈ S , allora P Q ∈ M;
−−→
s2 ) se P ∈ S e v ∈ M, il punto Q di A tale che P Q = v appartiene a S .
Il sottospazio M è univocamente determinato da S . Infatti, sia N un altro
sottospazio di V per cui siano soddisfatte le s1 ), s2 ). Se v ∈ M e P ∈ S ,
−−→
in virtù della s2 ) esiste Q ∈ S tale che v= P Q e, in virtù della s1 ), si ha
−−→
P Q = v ∈ N. Dunque M ⊂ N. Analogamente N ⊂ M e perciò M=N.
Definizione 2.2 Il sottospazio vettoriale M determinato dalla varietà lineare
S si dice associato a S o anche giacitura di S . La dimensione di M si dice
dimensione di S e la denoteremo dim S .
Le varietà lineari affini di dimensione 0 di A sono i punti, quelle di dimensione 1, 2 si dicono rispettivamente rette, piani e, se dim A = n > 3, quelle
di dimensione n − 1 si dicono iperpiani.
La giacitura M di una retta S di A si dice anche direzione di S ; ogni
0 6= v ∈ M si dice vettore di direzione di S .
In A si adopera il linguaggio geometrico usuale: se S è una sottovarietà di
T , cioè S ⊂ T , si dice che T passa per S ; punti appartenenti ad una stessa
retta si dicono allineati; punti e rette contenuti in uno stesso piano si dicono
complanari; rette passanti per uno stesso punto si dicono concorrenti; ecc.
Osservazione 2.3 Se S è sottovarietà di una varietà lineare T , allora risulta
dim S ≤ dim T e l’uguaglianza vale se e solo se S = T .
Infatti, se M, N sono le giaciture di S, T rispettivamente si ha M ⊂ N e
M=N se e solo se S = T .
2 VARIETÀ LINEARI AFFINI
43
Esempio 2.4 1) Se P0 ∈ A e M è un sottospazio di V, il sottoinsieme di A
−−→
(P0 ; M) = {P ∈ A : P0 P ∈ M}
è una varietà lineare che passa per P0 ed ha giacitura M.
Infatti, (P0 ; M) è non vuoto perché contiene P0 . Se P, Q ∈ (P0 ; M) si
−−→ −−→
−−→ −−→ −−→
ha P0 P , P0 Q ∈ M e quindi P Q = P P0 + P0 Q ∈ M, cioè è soddisfatta la
−−→
−−→
s1 ). Se v ∈ M, P ∈ (P0 ; M) e Q ∈ A è tale che P Q =v, si ha P0 Q =
−−→ −−→ −−→
P0 P + P Q = P0 P + v ∈ M; perciò Q ∈ (P0 ; M) e quindi è soddisfatta la
s2 ).
Se S è una varietà lineare di A di giacitura M, allora per ogni punto
P0 ∈ S si ha S = (P0 ; M).
−−→
Infatti, se P ∈ S risulta P0 P ∈ M e quindi P ∈ (P0 ; M); d’altra parte,
−−→
se P ∈ (P0 ; M) si ha P0 P ∈ M e quindi, per la s2 ), P ∈ S .
2) Sia V uno spazio vettoriale con la struttura di spazio affine definita
dalla (3). Se M è un sottospazio di V e u è un punto dello spazio affine V,
la varietà lineare passante per u e di giacitura M è l’insieme
u + M = {u + v : v ∈ M}.
In particolare, se u ∈ M si ha u+M=M e quindi le varietà lineari dello
spazio affine V sono i sottospazi vettoriali M di V ed i loro traslati u+M.
Lemma 2.5 L’intersezione di una famiglia di varietà lineari di A, se non è
vuota, è una varietà lineare.
DIMOSTRAZIONE. Sia {Si } una famiglia di varietà lineari di A tale che
∩i Si sia non vuota e sia Mi la giacitura di Si . Se P0 ∈ ∩Si si può scrivere
Si = (P0 ; Mi ) e risulta ∩i Si = (P0 ; ∩Mi ).
Lemma 2.6 Siano S1 = (P1 ; M1 ), S2 = (P2 ; M2 ) varietà lineari di A.
−−−→
Risulta S1 ∩ S2 6= Ø se e solo se P1 P2 ∈ M1 + M2 .
−−→
−−→
DIMOSTRAZIONE. Se Q ∈ S1 ∩S2 , per la s1 ) si ha P1 Q = m1 ∈ M1 , P2 Q =
−−−→
−−→ −−→
m2 ∈ M2 e quindi P1 P2 = P1 Q + QP2 = m1 − m2 ∈ M1 + M2 . D’altra
−−−→
parte, se P1 P2 = m1 + m2 , m1 ∈ M1 , m2 ∈ M2 , per la s2 ) esiste Q ∈ S2
−−→
−−−→
−−−→ −−→
−−→
tale che P2 Q = m1 − P1 P2 = −m2 e quindi P1 P2 + P2 Q = P1 Q = m1 .
Allora Q ∈ S1 e quindi S1 ∩ S2 6= Ø.
2 VARIETÀ LINEARI AFFINI
44
Definizione 2.7 Sia {Si } una famiglia di varietà lineari di A. La varietà
lineare intersezione delle varietà lineari che contengono tutte le Si si dice
varietà lineare congiungente le varietà Si . Essa è la minima varietà lineare di
A che contiene tutte le Si . La varietà lineare congiungente le varietà lineari
della famiglia Si la denoteremo ∨i Si o anche S1 ∨ S2 ∨ ... ∨ Sm se la famiglia
è finita e costituita da m elementi.
Lemma 2.8 La varietà lineare congiungente S1 = (P1 ; M1 ) e S2 = (P2 ; M2 )
è
−−−→
S1 ∨ S2 = (P1 ; [ P1 P2 ] + M1 + M2 ).
DIMOSTRAZIONE. Poiché S1 ∨ S2 contiene S1 e S2 , la sua giacitura M
−−−→
−−−→
contiene P1 P2 , M1 , M2 e quindi S1 ∨ S2 ⊃ (P1 ; [ P1 P2 ] + M1 + M2 ). D’altra
−−−→
parte, la varietà lineare (P1 ; [ P1 P2 ] + M1 + M2 ) contiene S1 e S2 , quindi
−−−→
contiene S1 ∨ S2 e perciò S1 ∨ S2 = (P1 ; [ P1 P2 ] + M1 + M2 ).
Corollario 2.9 La varietà lineare congiungente i punti P1 , P2 , ..., Pr è
−−−→ −−−→
−−−→
P1 ∨ P2 ∨ ... ∨ Pr = (P1 ; [ P1 P2 , P1 P3 , ..., P1 Pr ]).
DIMOSTRAZIONE. Ciò è vero per r ≤ 2, come segue dal lemma 2.8. Sia
r > 2 e procediamo per induzione su r , supponendo che l’asserto sia vero per
r − 1 punti. Tenendo conto del lemma 2.8, risulta
P1 ∨ ... ∨ Pr = (P1 ∨ ... ∨ Pr−1 ) ∨ Pr
−−→
−−−−→
= (P1 ; [P1 P2 , ..., P1 Pr−1 ]) ∨ (Pr ; [0])
−−→
−−→
= (P1 ; [P1 P2 , ..., P1 Pr ]).
Definizione 2.10 Se P1 , . . . , Pr sono punti di A, la varietà lineare P1 ∨...∨Pr
si dice varietà lineare individuata dai punti P1 , ..., Pr ; e si dice che P1 , ..., Pr
sono linearmente indipendenti se e solo se dim(P1 ∨ ... ∨ Pr ) = r − 1.
Lemma 2.11 Se S1 = (P1 ; M1 ) e S2 = (P2 ; M2 ) sono varietà lineari di A,
si ha:
dim S1 + dim S2 − dim S1 ∩ S2 , se S1 ∩ S2 6= Ø,
dim S1 ∨ S2 =
dim(M1 + M2 ) + 1,
se S1 ∩ S2 = Ø.
DIMOSTRAZIONE. Per il lemma 2.8 si ha
−−−→
S1 ∨ S2 = (P1 ; [ P1 P2 ] + M1 + M2 ).
45
2 VARIETÀ LINEARI AFFINI
−−−→
Se S1 ∩ S2 6= Ø, per il lemma 2.6 si ha P1 P2 ∈ M1 + M2 e quindi
dim S1 ∨ S2 = dim(M1 + M2 )
= dim M1 + dim M2 − dim(M1 ∩ M2 )
= dim S1 + dim S2 − dim S1 ∩ S2 .
−−−→
Se S1 ∩ S2 = Ø, per il lemma 2.6 risulta P1 P2 6∈ M1 + M2 e quindi
dim S1 ∨ S2 = dim(M1 + M2 ) + 1.
2. Sia (O; e1, . . . , en ) un sistema di riferimento di A.
Sia S una varietà lineare di dimensione r di A di giacitura M. Se P0 è
un suo punto si ha S = (P0 ; M) ed esistono r punti P1 , ..., Pr ∈ S tali che
−−−→
−−−→
P0 P1 , ..., P0 Pr costituiscono una base di M. Quindi
n
o
−−→
−−−→
−−−→
S = (P0 ; M) = P ∈ A : P0 P = λ1 P0 P1 + · · · + λr P0 Pr , λi ∈ K .
Se
−−→
OP = x,
−−→
OPi = ai
per la a3 ) si ha
(0 ≤ i ≤ r),
−−→
−−→ −→
P0 P = P0 O + OP = x − a0 ,
−−→
−−→ −−→
P0 Pi = P0 O + OPi = ai − a0 ,
1 ≤ i ≤ r,
e quindi S è l’insieme dei punti P ∈ A tali che
(1)
x = a0 +
r
X
i=1
od anche, ponendo µ0 = 1 −
(2)
x=
r
X
Pr
i=1
µi ai ,
i=0
λi (ai − a0 ),
λi ∈ K,
λi e µi = λi per 0 < i ≤ n,
µi ∈ K,
r
X
µi = 1.
i=0
Se (x1 , ..., xn ) sono le coordinate di P e (ai1 , ..., ain ) sono le coordinate di
Pi , la (1) si può esprimere mediante le equazioni
′
(1 )
xj =
a0j
+
r
X
i=1
λi (aij − a0j )
(1 ≤ j ≤ n)
46
2 VARIETÀ LINEARI AFFINI
e le (2) mediante le equazioni
(2′ )
xj =
r
X
r
X
µi aij ,
i=0
µi = 1
i=0
(1 ≤ j ≤ n).
Le (1), (1′ ), (2), (2′ ) si dicono equazioni parametriche di S .
Osservazione 2.12 Se A(a1 , . . . , an ) è un punto di A, le rette passanti per
A sono tutte e solo quelle che hanno equazioni parametriche
(∗)
x1 = a1 + µb1 , . . .
xn = an + µbn ,
bi ∈ K.
Infatti, se R è una retta passante per A e C(c1 , . . . , cn ) è un suo punto
distinto da A, equazioni parametriche di R sono
x1 = a1 + µ(c1 − a1 ), . . .
xn = an + µ(cn − an ).
D’altra parte, le (∗) sono equazioni parametriche della retta che congiunge A
col punto C(a1 + b1 , . . . , an + bn ).
Teorema 2.13 Sia S una varietà lineare di dimensione r di A. Esiste un
sistema di n − r equazioni lineari a coefficienti in K , linearmente indipendenti,

+
a12 x2
+ ··· +
a1n xn
= b1
 a11 x1
...

an−r 1 x1 + an−r 2 x2 + · · · + an−r n xn = bn−r
tale che i punti di S sono tutti e solo quelli le cui coordinate, rispetto al
sistema di riferimento assegnato, sono soluzione del sistema.
DIMOSTRAZIONE. Siano (1′ ) equazioni parametriche di S . I punti di S
sono tutti e soli i punti P (x1 , . . . , xn ) per i quali la matrice


x1 − a01 x2 − a02 . . . xn − a0n
 a11 − a01 a12 − a02 . . . a1n − a0n 


(3)
..
..
..
..


.
.
.
.
ar1 − a01
ar2 − a02
. . . arn − a0n
−−→
ha caratteristica r . Essendo i vettori P0 Pi linearmente indipendenti, le ultime
r righe della matrice (3) sono linearmente indipendenti. Se M è un minore di
ordine r non nullo da esse estratto, la condizione affinché la matrice (3) abbia
caratteristica r si esprime annullando gli n − r minori di ordine r + 1 che
47
2 VARIETÀ LINEARI AFFINI
contengono M. Si ottengono, cosı̀, n − r equazioni lineari nelle x1 , ..., xn che
sono soddisfatte da tutti e solo i punti di S . Tali equazioni sono linearmente
indipendenti. Infatti un sistema di tipo (n−r) ×n ha r soluzioni linearmente
indipendenti se e solo se la sua matrice ha rango n − r .
Esempio 2.14 1) Se P0 (a01 , ..., a0n ) e P1 (a11 , ..., a1n ) sono due punti distinti,
equazioni della retta che li congiunge si ottengono imponendo che sia 1 la
caratteristica della matrice
x1 − a01 x2 − a02 . . . xn − a0n
,
a11 − a01 a12 − a02 . . . a1n − a0n
cioè imponendo che sia
x1 − a01
x2 − a02
xn − a0n
.
=
=
·
·
·
=
a11 − a01
a12 − a02
a1n − a0n
2) Se Pi (ai1 , ..., ain ), 1 ≤ i ≤ n, sono n punti linearmente indipendenti,
allora
x1 − a11 x2 − a12 . . . xn − a1n 2
a1 − a11 a22 − a12 . . . a2n − a1n =0
..
..
..
.
.
.
an − a1 an − a1 . . . an − a1 2
2
n
n
1
1
è l’equazione dell’iperpiano che li congiunge.
Il determinante al primo membro della precedente equazione è uguale al
determinante D di ordine n + 1 da esso ottenuto aggiungendo come riga di
posto n + 1 : a11 , a12 , ..., a1n , 1 e come colonna di posto n + 1 quella costituita
da elementi tutti nulli salvo l’ultimo uguale a 1. Sommando ad ognuna delle
prime n righe di D l’ultima e permutando, poi, l’ultima con le precedenti ad
eccezione della prima, l’equazione si può scrivere
x1 x2 . . . xn 1 1
a1 a12 . . . a1n 1 .
. . = 0.
.. . .
..
. .. .. .
an an . . . an 1 1
2
n
Teorema 2.15 Sia

 b11 x1
(4)
...

bm1 x1
+
b12 x2
+··· +
b1n xn
=
c1
+
bm2 x2
+··· +
bmn xn
= cm
un sistema lineare a coefficienti in K . Se le matrici completa ed incompleta
hanno caratteristica h, l’insieme S dei punti di A le cui coordinate, nel sistema di riferimento (O; e1, ..., en ), sono soluzioni del sistema (4), è una varietà
2 VARIETÀ LINEARI AFFINI
48
lineare di dimensione n − h avente come giacitura lo spazio vettoriale M costituito dai vettori le cui componenti rispetto alla base (e1 , ..., en ) soddisfano
il sistema lineare omogeneo

 b11 x1 + b12 x2 + · · · + b1n xn = 0
(5)
...

bm1 x1 + bm2 x2 + · · · + bmn xn = 0
associato al sistema (4).
DIMOSTRAZIONE. Scriviamo per brevità BX = C il sistema (4); risulta
S = {P (X) | BX = C} e la sua giacitura è M = {X1 | BX1 = 0}. Basta
dimostrare che se P0 ∈ S , cioè ha coordinate X0 = (x01 , . . . , x0n ) tali che
BX0 = C , risulta S = (P0 ; M).
−−→
−−→ −−→
Infatti P ∈ (P0 ; M) se e solo se P0 P ∈ M, cioè P0 O + OP ∈ M, ovvero
B(X − X0 ) = 0. Quindi BX = BX0 = C e X è soluzione del sistema.
Se S è una varietà lineare costituita dai punti le cui coordinate nel sistema
di riferimento (O; e1, . . . , en ) sono le soluzioni di un sistema lineare Σ, diremo
che S è definita da Σ o che le equazioni di Σ sono equazioni cartesiane di S .
3. Siano S = (P ; M) e T = (Q; N) varietà lineari di dimensione positiva di
A.
Definizione 2.16 S e T si dicono parallele se e solo se M ⊂ N oppure
N ⊂ M e si dicono sghembe se non sono parallele e S ∩ T = Ø.
Teorema 2.17 Siano S = (P ; M) e T = (Q; N) varietà lineari di A tali
che 0 < dimS ≤ dim T . Allora:
1) Se S ∩ T =
6 Ø, S e T sono parallele ⇐⇒ S ⊂ T ;
2) Se S ∩ T = Ø, S e T sono parallele ⇐⇒ dim S ∨ T = dim T + 1.
DIMOSTRAZIONE. 1) Sia P0 ∈ S ∩ T ; allora S = (P0 ; M) e T = (P0 ; N).
−−→
Se S e T sono parallele si ha M ⊂ N; per ogni punto P ∈ S si ha P0 P ∈
M ⊂ N, quindi P ∈ T , da cui l’implicazione ⇒. D’altra parte, se S ⊂ T ,
−−→
per ogni v ∈ M esiste un punto P ∈ S tale che P0 P = v e, poiché P ∈ T ,
−−→
si ha v = P0 P ∈ N, da cui l’implicazione ⇐.
2) Se S ∩ T = Ø, per il lemma 2.11 si ha
dim S ∨ T = dim (M + N) + 1.
Se S e T sono parallele si ha M ⊂ N, quindi M+N = N, da cui l’implicazione ⇒. D’altra parte, se dim S ∨ T = dim T + 1 si ha dim(M + N) = dim N,
quindi M ⊂ N, da cui l’implicazione ⇐.
2 VARIETÀ LINEARI AFFINI
49
Osservazione 2.18 Se S e T sono parallele e nessuna delle due contiene
l’altra, allora S ∩ T = Ø.
Osservazione 2.19 Se S = (P0 ; M) è una varietà lineare di A di dimensione
positiva, per ogni punto Q0 ∈ A esiste una ed una sola varietà lineare T di
A passante per Q0 , parallela a S ed avente la stessa dimensione di S ; essa
è, manifestamente, T = (Q0 ; M).
Esempio 2.20 In un piano affine A2 l’intersezione di due rette non parallele
è un punto.
Siano S, T rette non parallele di A2 . Poiché S =
6 T si ha dim S ∨ T >
dim S e quindi dim S ∨ T = 2. Deve essere S ∩ T =
6 Ø, altrimenti, per il
teorema 2.17, S e T sarebbero parallele; quindi S ∩ T è un punto.
Esempio 2.21 In uno spazio affine A3 si ha:
1) L’intersezione di due piani non paralleli è una retta.
2) La varietà lineare congiungente due rette incidenti e non parallele è un
piano.
3) L’intersezione di due rette complanari e non parallele è un punto.
4) La varietà lineare congiungente un punto ed una retta che non lo contiene è un piano.
5) La varietà lineare congiungente due rette distinte e parallele è un piano.
6) L’intersezione di un piano con una retta ad esso non parallela è un
punto.
Infatti:
1) Se S, T sono due piani non paralleli si ha dim S ∨ T > dim S e quindi
dim S ∨ T = 3. Per il teorema 2.17 deve essere S ∩ T =
6 Ø e quindi, per il
lemma 2.11, dim S ∩ T = 1.
2) Siano S, T rette incidenti e non parallele. Allora dim S ∩ T = 0 e
quindi, per il lemma 2.11, dim S ∨ T = 2.
3) Come l’esempio 2.20.
4) Siano S una retta e P un punto non contenuto in S ; allora S ∩ P = Ø
e per il lemma 2.11 si ha dim S ∨ P = 2.
5) Siano S, T rette distinte e parallele. Per il teorema 2.17 si ha S ∩T = Ø
e quindi dim S ∨ T = 2.
50
3 AFFINITÀ
6) Siano S un piano e T una retta ad esso non parallela. Poiché T non è
contenuta in S si ha dim S ∨T = 3. Per il teorema 2.17 deve essere S ∩T =
6 Ø
e quindi, per il lemma 2.11, dim S ∩ T = 0.
3. Affinità.
1. Siano A e A′ spazi affini sugli spazi vettoriali V e V′ rispettivamente,
di dimensione n, sullo stesso campo K .
Definizione 3.1 Un’applicazione
ϕ : A −→ A′
si dice affinità o isomorfismo affine se e solo se esiste un isomorfismo
f : V −→ V′,
che si dice associato a ϕ, tale che per ogni coppia di punti P, Q ∈ A si abbia
−−−−−−−→
−−→
ϕ(P )ϕ(Q) = f ( P Q).
L’isomorfismo f è univocamente determinato da ϕ. Infatti, siano f, g : V −→
V′ isomorfismi tali che
−−−−−−−→
−−→
−−→
f ( P Q) = ϕ(P )ϕ(Q) = g( P Q)
per ogni P, Q ∈ A. Fissato P in A, per ogni v ∈ V esiste Q ∈ A tale che
−−→
P Q = v e si ha f (v) = g(v); quindi f = g .
Osservazione 3.2 Un’affinità è un’applicazione biunivoca.
Infatti, sia ϕ : A → A′ un’affinità con isomorfismo associato f ; ϕ è
−−−−−−−→
−−→
iniettiva perché se ϕ(P ) = ϕ(Q) si ha 0 = ϕ(P )ϕ(Q) = f ( P Q) ed essendo
−−→
f isomorfismo deve essere P Q = 0 e perciò P = Q. E’ anche suriettiva.
Infatti, sia P0 un punto fissato in A e sia P0′ = ϕ(P0 ); se P ′ ∈ A′ , esiste
−−−→
−−→
v ∈ V tale che P0′ P ′ = f (v) e se P è il punto di A tale che P0 P = v si ha
−−−→
−−−−−−−→ −−−−−→
−−→
P0′ P ′ = f ( P0 P ) = ϕ(P0 )ϕ(P ) = P0′ ϕ(P ) e quindi P ′ = ϕ(P ).
51
3 AFFINITÀ
Esempio 3.3 Sia (O; e1 , ..., en ) un sistema di riferimento di A. L’applicazione
ϕ : A −→ An (K)
che ad ogni punto P (x1 , ..., xn ) ∈ A associa la n-pla delle sue coordinate nel
sistema di riferimento, cioè l’applicazione definita da
ϕ(P (x1 , ..., xn )) = (x1 , ..., xn )
è un’affinità tra A e An (K).
Infatti, sia f : V → K n l’isomorfismo che ad ogni v ∈ V associa la n-pla
delle sue componenti rispetto alla base (e1 , ..., en ). Se Q(y1 , ..., yn ) ∈ A si ha
−−−−−−−→
−−→
ϕ(P )ϕ(Q) = (y1 − x1 , ..., yn − xn ) = f ( P Q).
Lemma 3.4 Fissati un isomorfismo f : V −→ V′ e due punti O ∈ A,
O ′ ∈ A′ , esiste una ed una sola affinità
ϕ : A −→ A′
avente f come isomorfismo associato tale che
ϕ(O) = O ′
ed è quella che al punto P ∈ A associa il punto ϕ(P ) ∈ A′ per cui
−−−−−→
−−→
O ′ ϕ(P ) = f ( OP ).
DIMOSTRAZIONE. Per ogni punto P ∈ A vi è un ben determinato punto
−−−→
−−→
P ′ ∈ A′ tale che O ′P ′ = f ( OP ). L’applicazione ϕ : A → A′ definita ponendo
P ′ = ϕ(P ) è un’affinità avente f come isomorfismo associato. Infatti, se
P, Q ∈ A si ha
−−−−→ −−−−→ −−−−→ −−−−→
−−−−−−−→
ϕ(P )ϕ(Q) = ϕ(P )O ′ + O ′ϕ(Q) = O ′ϕ(Q) − O ′ ϕ(P )
−→
−→
−→ −→
= f (OQ) − f (OP ) = f (OQ − OP )
−→
= f (P Q).
−−−−−→
−−→
In particolare, si ha O ′ϕ(O) = f ( OO ) = 0 e quindi ϕ(O) = O ′ .
Se ψ : A → A′ è un’altra affinità avente f come isomorfismo associato
tale che ψ(O) = O ′ , per ogni punto P ∈ A si ha
−−−−−→ −−−−−−−→
−−−−−−−→ −−−−−→
−−→
O ′ψ(P ) = ψ(O)ψ(P ) = f ( OP ) = ϕ(O)ϕ(P ) = O ′ ϕ(P )
e quindi ψ(P ) = ϕ(P ), cioè ψ = ϕ.
52
3 AFFINITÀ
Teorema 3.5 Assegnati n + 1 punti P0 , P1 , ..., Pn linearmente indipendenti
in A e n + 1 punti P0′ , P1′ , ..., Pn′ linearmente indipendenti in A′ , esiste una
ed una sola affinità ϕ : A → A′ tale che
ϕ(Pi ) = Pi′ ,
0 ≤ i ≤ n.
−−−→
−−−→
DIMOSTRAZIONE. I vettori P0 P1 ,..., P0 Pn costituiscono una base di V ed
−−−→
−−−→
i vettori P0′ P1′ ,..., P0′ Pn′ costituiscono una base di V′ . Esiste uno ed un solo
−−−→
−−→
isomorfismo f : V → V′ tale che f ( P0 Pi ) = P0′ Pi′ (1 ≤ i ≤ n) (capitolo I,
corollario 1.6). Per il lemma 3.4, l’applicazione ϕ : A → A′ che al punto
P ∈ A associa il punto ϕ(P ) ∈ A′ per cui
−−−−−→
−−→
P0′ ϕ(P ) = f ( P0 P )
è un’affinità tale che
ϕ(P0 ) = P0′ .
Inoltre si ha
−−−−−→
−−−→
−−→
P0′ ϕ(Pi ) = f ( P0 Pi ) = P0′ Pi′ ,
1 ≤ i ≤ n,
e quindi
ϕ(Pi ) = Pi′ ,
1 ≤ i ≤ n.
Se ψ : A → A′ è un’altra affinità tale che ψ(Pi ) = Pi′ (0 ≤ i ≤ n) con
isomorfismo associato g , si ha
−−−→ −−−−−−−−→
−−→
−−→
f ( P0 Pi ) = P0′ Pi′ = ψ(P0 )ψ(Pi ) = g( P0 Pi ),
1 ≤ i ≤ n,
e quindi f = g . Per il lemma 3.4 si ha ψ = ϕ.
Teorema 3.6 La composizione di due affinità è un’affinità e l’inversa di
un’affinità è un’affinità.
DIMOSTRAZIONE. Siano A, A′ , A′′ spazi affini sugli spazi vettoriali V, V′ ,
V′′ rispettivamente e siano
ϕ : A −→ A′ ,
ϕ′ : A′ −→ A′′
affinità con rispettivi isomorfismi associati f, f ′ . Per ogni P, Q ∈ A si ha
−−−−−−−−−−−−−→ −−−−−−−−−−−−−→
−−−−−−−→
−−→
(ϕ′ ϕ)(P )(ϕ′ϕ)(Q) = ϕ′ (ϕ(P ))ϕ′(ϕ(Q)) = f ′ ( ϕ(P )ϕ(Q)) = (f ′ f )( P Q)
53
3 AFFINITÀ
e poiché f ′ f è un isomorfismo, ϕ′ ϕ è un’affinità.
Per ogni P ′ , Q′ ∈ A′ , se P = ϕ−1 (P ′), Q = ϕ−1 (Q′ ), si ha
−−−−−−−−−−−→ −−→
−−−→
−−−−−−−→
−−→
ϕ−1 (P ′)ϕ−1 (Q′ ) = P Q = (f −1 f )( P Q) = f −1 ( ϕ(P )ϕ(Q)) = f −1 ( P ′ Q′ )
e poché f −1 è isomorfismo, ϕ−1 è un’affinità.
Le affinità di A → A si dicono affinità di A.
Corollario 3.7 L’insieme Aff (A) delle affinità di A è un gruppo rispetto
alla composizione.
L’identità di Aff (A) è l’applicazione identica di A, che è un’affinità con
associato l’isomorfismo identico di V.
Definizione 3.8 Una proprietà di un sottoinsieme F di uno spazio affine si
dice invariante per affinità o proprietà affine se e solo se essa è anche proprietà
di tutti i sottoinsiemi ϕ(F ) trasformati di F mediante affinità ϕ.
Due sottoinsiemi di spazi affini si dicono equivalenti per affinità se e solo
se esiste un’affinità che trasforma l’uno nell’altro.
Ad esempio, sono proprietà affini: essere una varietà lineare, la dimensione di
una varietà lineare, il parallelismo, come segue dal seguente teorema.
Teorema 3.9 Un’affinità ϕ : A → A′ trasforma una varietà lineare in una
varietà lineare di ugual dimensione e trasforma varietà lineari parallele in
varietà lineari parallele.
DIMOSTRAZIONE. Sia S = (P0 ; M) una varietà lineare di A e sia f l’isomorfismo associato a ϕ; si ha
(1)
ϕ(S) = (ϕ(P0 ); f (M)).
−−−−−−−→
−−→
−−→
Infatti, se P ∈ S si ha P0 P ∈ M, quindi ϕ(P0 )ϕ(P ) = f ( P0 P ) ∈ f (M)
e perciò ϕ(P ) ∈ (ϕ(P0 ); f (M)). D’altra parte, sia P ′ ∈ (ϕ(P0 ); f (M)); allora
−−−−−→
−−→
ϕ(P0 )P ′ = f (v) con v ∈ M. Se P è il punto di A tale che P0 P = v si ha
P ∈ S e ϕ(P ) = P ′ . Essendo f isomorfismo si ha
dim S = dim M = dim f (M) = dim ϕ(S).
Sia T = (Q0 ; N) una varietà lineare parallela a S ; allora M ⊂ N oppure
N ⊂ M. Si ha f (M) ⊂ f (N) oppure f (N) ⊂ f (M) e perciò ϕ(T ) =
(ϕ(Q0 ); f (N)) è parallela a ϕ(S).
54
3 AFFINITÀ
2. Sia
ϕ : A → A′
un’affinità con isomorfismo associato f e siano (O; e1, ..., en ) un sistema di
riferimento di A e (O ′ ; e′1 , ..., e′n ) un sistema di riferimento di A′ .
Se X e Y sono le matrici colonna delle coordinate rispettivamente del
punto P ∈ A e del punto ϕ(P ) ∈ A′ , nei due sistemi di riferimento, si ha
l’equazione
(2)
Y = AX + B,
che si dice equazione di ϕ, dove A è la matrice dell’isomorfismo f rispetto
alle basi (e1 , ..., en ), (e′1 , ..., e′n ), che si dice matrice di ϕ, e B è la matrice
colonna delle coordinate di ϕ(O) nel sistema di riferimento (O ′ ; e′1 , ..., e′n ).
Infatti, si ha
−−−−−→ −−−−−→ −−−−−−−→ −−−−−→
−−→
O ′ ϕ(P ) = O ′ ϕ(O) + ϕ(O)ϕ(P ) = O ′ ϕ(O) + f ( OP ).
−−→
La matrice colonna delle componenti di f ( OP ) rispetto alla base (e′1 , . . . , e′n )
è AX (capitolo I, osservazione 1.2) e quindi si ha la (2).
D’altra parte, ogni equazione (2), con A invertibile, è l’equazione di un’
affinità ϕ : A → A′ . Infatti, siano f : V → V′ l’isomorfismo che rispetto
alle basi (e1 , ..., en ), (e′1 , ..., e′n ) è associato ad A, O1′ il punto di A′ le cui
coordinate sono gli elementi di B e ϕ l’affinità, di cui nel lemma 3.4, tale che
ϕ(O) = O1′ . L’equazione di ϕ è la (2) in quanto, per ogni P ∈ A, si ha
−−−−−→ −−−−−→ −−−−−−−→
−−−−−→
−−→
O ′ ϕ(P ) = O ′ ϕ(O) + ϕ(O)ϕ(P ) = f ( OP ) + O ′ ϕ(O).
Osservazione 3.10 Dalla dimostrazione del teorema 3.6 segue che l’isomorfismo associato alla composizione ϕ′ ϕ di due affinità ϕ, ϕ′ è la composizione f ′ f degli isomorfismi f, f ′ associati a ϕ, ϕ′ e che l’isomorfismo associato
all’inversa ϕ−1 è l’inverso f −1 di f .
Quindi:
(1) la matrice della composizione ϕ′ ϕ è il prodotto A′ A delle matrici A e
A′ di ϕ e ϕ′ ;
(2) la matrice di ϕ−1 è l’inversa A−1 di A.
3. Sia sempre A uno spazio affine su V.
55
3 AFFINITÀ
Definizione 3.11 Si chiama traslazione di A definita dal vettore v ∈ V ,
l’applicazione
τv : A −→ A
che al punto P associa il punto τv (P ) tale che
−−−−−→
P τv (P ) = v.
La traslazione τ0 definita dal vettore nullo di V è l’applicazione identica
di A.
Una traslazione τv è un’affinità di A che ha associato l’isomorfismo identico
di V. Infatti, si ha
−−−−−−−−→ −−−−−→ −−→ −−−−−→
−−→
−−→
τv (P )τv (Q) = τv (P )P + P Q + Qτv (Q) = −v + P Q + v = P Q.
Teorema 3.12 L’insieme Tr(A) delle traslazioni dello spazio affine A su V
è un sottogruppo commutativo del gruppo Aff(A) delle affinità di A, isomorfo
al gruppo additivo di V.
DIMOSTRAZIONE. Siano τu , τv traslazioni di A. Se P ′ = τu (P ) e P ′′ =
−−→
τv (P ′ ) si ha (τv τu )(P ) = τv (τu (P )) = τv (P ′ ) = P ′′ . D’altra parte, da P P ′ =
−−−→
−−−→ −−→ −−−→
u, P ′P ′′ = v, P P ′′ = P P ′ + P ′ P ′′ = u + v, segue che τu+v (P ) = P ′′ e
quindi
(3)
τv τu = τu+v .
Si ha
τ−v τv = τv τ−v = τ0 ,
cioè τ−v è l’inversa di τv . Dunque, Tr(A) è un sottogruppo del gruppo della
affinità di A e dalla (3) segue che è commutativo. L’applicazione V → Tr(A)
che al vettore v associa la traslazione τv è un isomorfismo.
Osservazione 3.13 Nel caso che lo spazio affine sia uno spazio vettoriale V
−→
con la struttura definita mediante la uv = v − u, la traslazione τv definita
da v è l’applicazione u → u + v. Essa non è, però, un’applicazione lineare
dello spazio vettoriale V, in quanto, se v 6= 0, si ha
τv (x + y) = x + y + v 6= τv (x) + τv (y) = x + v + y + v = x + y + 2v.
56
4 SPAZI EUCLIDEI
Osservazione 3.14 Se S = (P0 ; M) è una varietà lineare di A e τu : A → A
è una traslazione di A, dalla (1) segue che τu (S) = (τu (P0 ); M) e quindi τu
trasforma una varietà lineare di dimensione positiva in una varietà lineare ad
essa parallela.
Se S = (P0 ; M) e T = (Q0 ; N) sono varietà lineari tali che 0 < dim S ≤
dim T , allora S e T sono parallele se e solo se esiste una traslazione di A
che trasforma S in una sottovarietà lineare S ′ di T . Infatti, se S, T sono
−−−→
parallele, si ha M ⊂ N e quindi, posto u = P0 Q0 , si ha S ′ = τu (S) =
(Q0 ; M) ⊂ T . Viceversa, sia τu una traslazione di A tale che S ′ = τu (S) =
(τu (P0 ); M) ⊂ T ; si ha M ⊂ N e quindi S e T sono parallele.
Osservazione 3.15 Poiché l’isomorfismo associato ad una traslazione τu di
A è quello identico, l’equazione di τu è Y = X + B , dove X, Y, B sono le
matrici colonna delle coordinate dei punti P , τu (P ), τu (O).
4. Spazi euclidei.
1.
Definizione 4.1 Si dice spazio euclideo ogni spazio affine su uno spazio vettoriale V reale e sul quale è definito un prodotto scalare positivo ◦.
Uno spazio euclideo lo denoteremo abitualmente E o En quando sarà
opportuno indicarne la dimensione n.
Esempio 4.2 Nel caso particolare che lo spazio affine sia An (R) ed il prodotto scalare sullo spazio vettoriale associato Rn sia quello canonico, si ottiene
lo spazio euclideo reale di dimensione n, abitualmente denotato Rn .
Definizione 4.3 In uno spazio euclideo E si chiama distanza l’applicazione
d : E × E −→ R
definita da
−−→
d(P, Q) = k P Qk
e d(P, Q) si dice distanza dei due punti P, Q o lunghezza del segmento P Q.
Teorema 4.4 La distanza d in uno spazio euclideo gode delle proprietà:
57
4 SPAZI EUCLIDEI
1) d(P, Q) = d(Q, P );
2) d(P, Q) ≥ 0 e d(P, Q) = 0 se e solo se P = Q;
3) d(P, Q) ≤ d(P, R) + d(R, Q).
DIMOSTRAZIONE. Le 1) e 2) sono immediate. La 3) segue dalla disugua−−→
−−→
−−→
glianza k P Qk ≤ k P Rk + k RQk (capitolo II, teorema 3.10).
Se P, Q, R ∈ E e P 6= R, Q 6= R, l’angolo formato dai segmenti RP , RQ
−−→ −−→
è l’angolo θ dei vettori RP , RQ .
Osservazione 4.5 Se P, Q, R ∈ E con P 6= R, Q 6= R e θ è l’angolo dei
segmenti RP, RQ si ha
d2 (P, Q) = d2 (R, P ) + d2 (R, Q) − 2d(R, P )d(R, Q) cos θ.
(1)
Infatti,
−→
−→ −→
−→ −→
−→ −→
d2 (P, Q) = kP Qk2 = k − RP + RQk2 = (−RP + RQ) ◦ (−RP + RQ)
−→
−→
−→ −→
= kRP k2 + kRQk2 − 2kRP k kRQk cos θ
= d2 (R, P ) + d2 (R, Q) − 2d(R, P )d(R, Q) cos θ.
−−→ −−→
Se RP , RQ sono ortogonali la (1) è il teorema di Pitagora.
Definizione 4.6 Un sistema di riferimento (O; e1 , ..., en ) di E si dice ortogonale o cartesiano se la base (e1 , ..., en ) dello spazio vettoriale associato è
ortonormale.
Esempio 4.7 Il sistema di riferimento canonico dello spazio euclideo Rn è
ortogonale. Se (O; e1, ..., en ) è un sistema di riferimento ortogonale di E e
−−→
P (x1 , . . . , xn ), Q(y1 , . . . , yn ) sono punti di E, allora P Q = (y1 − x1 )e1 + · · · +
(yn − xn )en e quindi
p
(2)
d(P, Q) = (y1 − x1 )2 + · · · + (yn − xn )2 .
−−→ −−→
Se θ è l’angolo dei vettori OP , OQ si ha
−−→ −−→
OP ◦ OQ
cos θ = −−→ −−→
k OP kk OQk
58
4 SPAZI EUCLIDEI
e quindi, poiché
n
−−→ X
OP =
xi ei
i=1
si ha
(3)
n
−−→ X
OQ =
yiei ,
i=1
x1 y1 + · · · + xn yn
p
cos θ = p 2
.
x1 + · · · + x2n y12 + · · · + yn2
Osservazione 4.8 Se Y = AX + B è una trasformazione di coordinate
tra due sistemi di riferimento ortogonali (O; e1 , ..., en ) e (O ′ ; e′1 , ..., e′n ) di E,
la matrice A, che è la matrice di passaggio dalla base (e′1 , ..., e′n ) alla base
(e1 , ..., en ) (teorema 1.5), è ortogonale (capitolo II, lemma 5.8).
Una tale trasformazione di coordinate si dice ortogonale.
2. Siano E, E′ spazi euclidei con spazi vettoriali associati V, V′ rispettivamente e siano d, d′ le distanze in E, E′ .
Definizione 4.9 Un’affinità ϕ : E → E′ si dice isometria se e solo se conserva
la distanza, cioè
d(P, Q) = d′ (ϕ(P ), ϕ(Q)) per ogni P, Q ∈ E.
Teorema 4.10 Un’affinità ϕ : E → E′ è un’isometria se e solo se l’isomorfismo f ad essa associato conserva il prodotto scalare, cioè
x ◦ y = f (x) ◦ f (y) per ogni x, y ∈ V.
−−→
DIMOSTRAZIONE. Fissato un punto O in E, se P, Q ∈ E e x = OP , y =
−−→
OQ si ha
−−→
−−→ −−→
d(P, Q) = k P Qk = k OQ − OP k = ky − xk;
e se O ′ = ϕ(O) si ha
−−−−−→ −−−−−→
−−−−−−−→
d′ (ϕ(P ), ϕ(Q)) = k ϕ(P )ϕ(Q)k = k O ′ϕ(Q) − O ′ϕ(P )k = kf (y) − f (x)k.
Se ϕ è un’isometria si ha
ky − xk = kf (y) − f (x)k per ogni x, y ∈ V.
In particolare, assumendo x = 0, si ha che kyk = kf (y)k per ogni y ∈ V;
ed allora
ky − xk2 = kf (y) − f (x)k2 = kf (y)k2 − 2f (y) ◦ f (x) + kf (x)k2
4 SPAZI EUCLIDEI
59
= kyk2 − 2f (y) ◦ f (x) + kxk2 .
D’altra parte
ky − xk2 = kyk2 − 2y ◦ x + kxk2
e quindi
x ◦ y = f (x) ◦ f (y) per ogni x, y ∈ V.
Viceversa, se f conserva il prodotto scalare si ha
d(P, Q) = ky − xk = kf (y − x)k = kf (y) − f (x)k = d′ (ϕ(P ), ϕ(Q))
e perciò ϕ è un’isometria.
Corollario 4.11 Siano (O; e1 , ..., en ) e (O ′; e′1 , ..., e′n ) sistemi di riferimento
ortogonali di E ed E′ rispettivamente. Un’affinità ϕ : E → E′ è un’isometria
se e solo se la matrice A di ϕ rispetto alle basi dei due sistemi di riferimento
è ortogonale.
DIMOSTRAZIONE. Per il teorema 4.10, ϕ è un’isometria se e solo se l’isomorfismo f ad essa associato è tale che x◦ y = f (x) ◦ f (y) per ogni x, y ∈ V.
Se X, Y sono le matrici colonna delle componenti di x, y rispetto alla base
(e1 , ..., en ), le matrici colonna delle componenti di f (x), f (y) rispetto alla
base (e′ 1 , ..., e′ n ) sono rispettivamente AX, AY (capitolo I, osservazione 1.2) e
si ha (capitolo II, osservazione 2.12) x◦y = X t Y e f (x)◦f (y) = (AX)t AY =
X t At AY . Ed allora x◦y = f (x)◦f (y) per ogni x, y ∈ V se e solo se At A = I ,
cioè se e solo se A è ortogonale.
Teorema 4.12 L’insieme Is(E) delle isometrie dello spazio euclideo E è un
sottogruppo del gruppo affine Aff(E) delle affinità di E.
DIMOSTRAZIONE. Se ϕ, ϕ′ ∈ Is(E), per ogni P, Q ∈ E si ha
d(P, Q) = d(ϕ(P ), ϕ(Q)) = d((ϕ′ ϕ)(P ), (ϕ′ϕ)(Q))
e quindi ϕ′ ϕ ∈ Is(E). Inoltre
d(P, Q) = d((ϕϕ−1 )(P ), (ϕϕ−1)(Q)) = d(ϕ−1 (P ), ϕ−1(Q))
e quindi ϕ−1 ∈ Is(E).
3.
Definizione 4.13 Due varietà lineari di dimensione positiva dello spazio euclideo E si dicono ortogonali o perpendicolari se e solo se le loro giaciture sono
ortogonali.
60
4 SPAZI EUCLIDEI
Esempio 4.14 Sia S un iperpiano di E che, rispetto al sistema di riferimento
ortogonale (O; e1, ..., en ), abbia equazione
a1 x1 + a2 x2 + · · · + an xn + b = 0.
P
La giacitura M di S è costituita dai vettori v = ni=1 xi ei tali che
a1 x1 + a2 x2 + · · · + an xn = 0.
Poiché il complemento ortogonale M⊥ di M ha dimensione 1 (capitolo II,
corollario 2.6), le varietà lineari di giacitura M⊥ sono tutte e P
sole le rette
⊥
perpendicolari a S . Lo spazio M è generato dal vettore u = ni=1 ai ei ed
allora, se P0 (x01 , ..., x0n ) è un punto di E, la retta R passante per P0 ortogonale
a S ha equazioni parametriche
(4)
x1 = x01 + λa1 , . . . ,
xn = x0n + λan ,
λ ∈ K.
Sia R la retta di equazioni parametriche
(5)
x1 = b1 + λa1 , . . . ,
xn = bn + λan ,
λ ∈ K.
P
La direzione di R è generata dal vettore u = ni=1 ai ei e le varietà lineari
aventi giacitura [u]⊥ sono iperpiani. L’iperpiano passante per P0 perpendicolare a R ha equazione
a1 (x1 − x01 ) + a2 (x2 − x02 ) + · · · + an (xn − x0n ) = 0.
CAPITOLO IV
SPAZI PROIETTIVI
GEOMETRIA LINEARE PROIETTIVA
1. Spazi proiettivi.
1. Sia V uno spazio vettoriale sul campo K , di dimensione n + 1 > 0.
Definizione 1.1 Si chiama spazio proiettivo definito da V l’insieme P (V)
dei sottospazi di dimensione 1 di V. Gli elementi di P (V) si dicono punti e
l’intero n si dice dimensione di P (V).
Per denotare che lo spazio proiettivo P (V) ha dimensione n scriveremo
n
P (V).
Lo spazio proiettivo P(K n+1 ), che si dice spazio proiettivo di dimensione
n su K , lo denoteremo P n (K) o P nK .
Un sottoinsieme U non vuoto di P(V) si dice sottospazio o varietà lineare
di P(V) se esiste un sottospazio U di V tale che U = P(U); si dice, allora,
che U è definita da U e la sua dimensione, dim U , è dim U − 1.
Le varietà lineari di dimensione 0 di P(V) sono i punti, quelle di dimensione 1 e 2 si dicono rispettivamente rette e piani e, se n > 3, quelle di
dimensione n − 1 si dicono iperpiani.
Converremo che sia varietà lineare di P(V) anche il sottoinsieme vuoto Ø e
converremo che sia dim Ø = −1; essa è definita dal sottospazio nullo (0) di
V.
Se U e W sono varietà lineari di P(V) e U è sottovarietà di W , cioè
U ⊂ W , si ha dim U ≤ dim W e l’uguaglianza vale se e solo se U = W .
In P(V) si adopera il linguaggio geometrico usuale, come negli spazi affini.
Nel seguito, per comodità di notazione, se una varietà lineare di P(V)
sarà denotata con una lettera U, W, . . . , lo spazio vettoriale che la definisce
sarà denotato con la stessa lettera, ma in grassetto, cioè rispettivamente U,
W,. . .
2. Sia {Si } una famiglia di varietà lineari di P(V), con Si definita dal
sottospazio Si di V. L’intersezione delle varietà Si è la varietà lineare ∩i Si
definita dal sottospazio ∩i Si . Due varietà lineari S1 , S2 di P(V) sono sghembe
se e solo se S1 ∩ S2 = Ø, cioè se e solo se S1 ∩ S2 = (0). La varietà lineare
62
1 SPAZI PROIETTIVI
P
P
congiungente le varietà Si è la varietà i Si definita dal sottospazio i Si .
Essa è la più piccola varietà lineare di P(V) che contiene tutte le Si . Se
P1 , ..., Pr sono punti di P(V) risulta
r
X
dim
Pi ≤ r − 1.
(1)
i=1
Infatti, se Pi = P
[vi ], vi ∈ V, 1 ≤ i ≤ r , la varietà lineare
dal sottospazio ri=1 [vi ], che ha dimensione ≤ r .
Pr
i=1
Pi è definita
Definizione 1.2 I punti P1 , ..., Pr si dicono linearmente indipendenti se e
solo se
r
X
dim
Pi = r − 1.
i=1
Osservazione 1.3 Se S è una varietà lineare di P(V) di dimensione d, lo
spazio vettoriale S che la definisce ha dimensione d + 1; se (v1 , ...,P
vd+1 ) è
una base di S, i punti Pi = [vi ] (1 ≤ i ≤ d + 1) sono tali che S = d+1
i=1 Pi
e si dice che S è individuata dai punti P1 , ..., Pd+1 . Nel caso d = 1, la retta
P1 + P2 individuata dai punti P1 , P2 la denoteremo anche P1 P2 .
Teorema 1.4 Se S, T sono varietà lineari di P(V) risulta
dim (S + T ) = dim S + dim T − dim (S ∩ T ).
DIMOSTRAZIONE. Si ha
dim (S + T ) = dim (S + T) − 1 = dim S + dim T − dim (S ∩ T) − 1
= (dim S + 1) + (dim T + 1) − (dim (S ∩ T ) + 1), −1
= dim S + dim T − dim (S ∩ T ).
Esempio 1.5 1) In P(V) due rette R1 , R2 distinte e non sghembe si intersecano in un punto e la varietà loro congiungente è un piano.
Infatti, si ha
dim (R1 + R2 ) + dim (R2 ∩ R2 ) = dim R1 + dim R2 = 2,
0 ≤ dim (R1 ∩ R2 ) ≤ 1.
1 SPAZI PROIETTIVI
63
Non può essere dim(R1 ∩ R2 ) = 1, altrimenti sarebbe R1 = R1 ∩ R2 = R2 ,
e quindi
dim (R1 ∩ R2 ) = 0,
dim (R1 + R2 ) = 2.
2) In P(V) la varietà lineare congiungente un punto P ed una retta R
che non lo contiene è un piano.
Infatti,
dim (R + P ) = dim R + dim P − dim (R ∩ P ) = 1 + 0 − (−1) = 2.
3) In P n (V) una retta R ed un iperpiano (retta se n = 2, piano se n = 3)
S che non la contiene si intersecano in un punto.
Infatti,
dim (R ∩ S) = dim R + dim S − dim (R + S) = 1 + (n − 1) − n = 0.
4) In P 3 (V) l’intersezione di due piani distinti S, T è una retta.
Infatti,
dim (S ∩ T ) = dim S + dim T − dim (S + T ) = 2 + 2 − 3 = 1.
5) In P 3 (V) siano R, S due rette sghembe. Per un punto P non appartenente né a R né a S passa una ed una sola retta T complanare con R e
con S ed è la retta
T = (R + P ) ∩ (S + P ).
Infatti, essa passa per P ed è complanare sia con R che con S . Supponiamo
che vi sia un’altra retta T ′ 6= T passante per P e complanare con R e con
S . Allora le rette R e S stanno sul piano T + T ′ , avendo con esso ciascuna
due punti in comune; assurdo.
Lemma 1.6 Siano S, T varietà lineari di P(V). Per ogni sottovarietà lineare U di T si ha (legge di Dedekind):
U + (S ∩ T ) = (U + S) ∩ T .
DIMOSTRAZIONE. Da S ∩ T ⊂ S segue che U + (S ∩ T ) ⊂ U + S ; da
U ⊂ T , S ∩ T ⊂ T segue che U + (S ∩ T ) ⊂ T e quindi
(2)
U + (S ∩ T ) ⊂ (U + S) ∩ T .
64
1 SPAZI PROIETTIVI
S
T
U +S
S ∩T
U
D’altra parte, sia P ∈ (U + S) ∩ T . In quanto P ∈ U + S è P =[x], con x=
u+s, u ∈ U, s ∈ S. Poiché U ⊂ T si ha x, u ∈ T e quindi s ∈ S ∩ T. Ne
segue che x ∈ U + S ∩ T e perciò P ∈ U + (S ∩ T ). Dunque,
(U + S) ∩ T ⊂ U + (S ∩ T )
da cui, per la (2), segue il lemma.
Corollario 1.7 Siano U, S varietà lineari di P(V) tali che
U ∩ S = Ø,
U + S = P(V).
Se T è una varietà lineare passante per U e L è una sottovarietà lineare di
S risulta
T = U + L ⇐⇒ L = S ∩ T .
DIMOSTRAZIONE. Se T = U + L, tenendo conto del lemma 1.6 e del fatto
che U ∩ S = Ø, si ha
S ∩ T = S ∩ (U + L) = (S ∩ U) + L = L.
Viceversa, se L = S ∩T , tenendo conto del lemma 1.6 e del fatto che U + S =
P(V), si ha
T = (U + S) ∩ T = U + (S ∩ T ) = U + L.
Lemma 1.8 Se U, S, S ′ sono varietà lineari di P n (V) tali che
(3)
si ha:
U ∩ S = U ∩ S ′ = Ø,
U + S = U + S ′ = P n (V),
65
1 SPAZI PROIETTIVI
1) dim S = dim S ′ = n − dim U − 1;
2) se L è una sottovarietà lineare di S ,
allora
L′ = (L + U) ∩ S ′
è una sottovarietà lineare di S ′ di dimensione uguale a quella di L.
DIMOSTRAZIONE. La 1) segue subito dal teorema 1.4.
2) Tenendo conto del teorema 1.4 e della 1) si ha
dim L′ =
=
=
=
dim [(L + U) ∩ S ′ ] = dim (L + U) + dim S ′ − n
dim L + dim U − (−1) + dim S ′ − n
dim L + dim U + 1 + n − dim U − 1 − n
dim L.
In particolare, se S , S ′ , U sono varietà lineari che soddisfano le (3) e P
è un punto di S , allora P ′ = (P + U) ∩ S ′ è un punto di S ′ e quindi resta
definita un’applicazione
π : S −→ S ′
ponendo
π(P ) = P ′ = (P + U) ∩ S ′
per ogni P ∈ S.
Definizione 1.9 L’applicazione π si chiama proiezione di S su S ′ da U o
di centro U . Se L è una sottovarietà lineare di S , la varietà lineare
π(L) = (L + U) ∩ S ′
si chiama proiezione di L da U .
Per la 2) del lemma 1.8 si ha
(4)
dim π(L) = dim L.
Teorema 1.10 Siano U, S, S ′ varietà lineari di P n (V) soddisfacenti le (3).
La proiezione
π : S −→ S ′
di centro U ha le proprietà:
1) è biunivoca;
66
1 SPAZI PROIETTIVI
2) per ogni intero r (0 ≤ r ≤ dimS) subordina un’applicazione biunivoca
tra l’insieme delle sottovarietà lineari di dimensione r di S e l’insieme delle sottovarietà lineari di dimensione r di S ′ nella quale sono
corrispondenti L e π(L);
3) se L1 , L2 sono sottovarietà lineari di S , risulta π(L1 ) ⊂ π(L2 ) se e
solo se L1 ⊂ L2 .
DIMOSTRAZIONE. La 1) segue dalla 2) per r = 0. Dimostriamo, quindi,
le 2) e 3).
2) Se L è una sottovarietà lineare di S ; dal corollario 1.7, applicato alle
varietà lineari U , T = U + L, S ′ , segue che
(5)
L′ = π(L) = (U + L) ∩ S ′ ⇐⇒ U + L = U + L′ .
Ed allora, se L, L1 sono sottovarietà lineari di S tali che π(L) = π(L1 ) risulta
U + L = U + L1 e quindi, posto
T = U + L = U + L1 ,
per il corollario 1.7 si ha
L = S ∩ T = L1 ,
da cui l’iniettività.
Se L′ è una sottovarietà lineare di S ′ , sia
L = (U + L′ ) ∩ S;
per la 2) del lemma 1.8 si ha dim L = dim L′ . Posto T = U + L′ , si ha
L = T ∩ S e quindi, per il corollario 1.7, U + L = U + L′ ; per la (5) risulta
L′ = π(L) e perciò si ha la suriettività.
3) Siano L1 , L2 sottovarietà lineari di S e siano L′ 1 = π(L1 ), L′ 2 = π(L2 ).
Se L1 ⊂ L2 si ha
L′ 1 = (U + L1 ) ∩ S ′ ⊂ (U + L2 ) ∩ S ′ = L′ 2 .
Viceversa, sia L′ 1 ⊂ L′ 2 . Per quanto visto nel corso della dimostrazione della
suriettività di cui in 2), si ha
L1 = (U + L′ 1 ) ∩ S,
L2 = (U + L′ 2 ) ∩ S
e quindi, essendo U + L′ 1 ⊂ U + L′ 2 , si ha L1 ⊂ L2 .
67
2 IL PRINCIPIO DI DUALITÀ
2. Il principio di dualità.
1. Sia P(V) uno spazio proiettivo di dimensione n > 1.
Definizione 2.1 Se P è una proposizione che riguarda varietà lineari di
P(V), si chiama duale di P la proposizione P ∗ che si ottiene da P scambiando tra loro: contenuto con contenente in tutte le relazioni di inclusione,
congiungente con intersezione e dimensione r con dimensione n − r − 1.
Se P ∗ = P si dice che P è autoduale.
Ovviamente si ha
P ∗∗ = P.
Esempio 2.2 1) Sia P la proposizione: se A, B sono punti distinti di P(V),
allora A + B è una retta ed è l’unica retta che contiene A e B .
Se n = 2, la duale di P è la proposizione P ∗ : Se A, B sono rette distinte,
allora A ∩ B è un punto ed è l’unico punto comune ad A, B .
Se n = 3, la duale di P è la proposizione P ∗ : Se A, B sono piani distinti,
allora A ∩ B è una retta ed è l’unica retta comune ad A, B .
2) In P 3 (V) sono duali l’una dell’altra le proposizioni:
P : Il congiungente un punto P ed una retta R che non lo contiene è un
piano;
P ∗ : L’intersezione di un piano P ed una retta R non contenuta in esso è un
punto.
3) In P 3 (V) sono duali l’una dell’altra le proposizioni:
P : Se R, S sono due rette sghembe e P è un punto non appartenente né a
R né a S , esiste una ed una sola retta T che passa per P ed è complanare
con R e con S ;
P ∗ : Se R, S sono due rette sghembe e P è un piano non contenente né R
né S , esiste una ed una sola retta T contenuta in P e complanare con R e
con S .
4) In P 3 (V) la seguente proposizione è autoduale: Sia I un insieme di
rette a due a due incidenti; allora le rette di I o passano tutte per uno stesso
punto o sono contenute tutte in uno stesso piano.2
Definizione 2.3 Se F è una figura in P(V) costituita da varietà lineari, si
chiama duale di F la figura F ∗ ottenuta da F sostituendo ogni varietà lineare
2
Sia P il punto comune a due rette distinte R, S di I; se in I esiste una retta T non
passante per P , allora T , intersecando R e S in due punti distinti, è contenuta nel piano
R + S . Ogni retta di I distinta da R, S, T , intersecando le rette R, S, T , è contenuta in
R + S.
2 IL PRINCIPIO DI DUALITÀ
68
di dimensione r con una varietà lineare di dimensione n − r − 1, scambiando tra loro le relazioni di inclusione e scambiando tra loro intersezione con
congiungente.
Una figura tale che F ∗ = F si dice autoduale.
Ovviamente si ha
F ∗∗ = F .
Esempio 2.4 1) In un piano proiettivo sono figure duali l’una dell’altra le
seguenti:
un triangolo, che è la figura costituita da 3 punti non allineati (i vertici) e
dalle 3 rette (i lati) che li congiungono a due a due;
un trilatero, che è la figura costituita da 3 rette non concorrenti (i lati) e dai
3 punti (i vertici) dove si intersecano a due a due.
Un triangolo ed un trilatero sono la stessa figura e perciò si tratta di una
figura autoduale. Per tale ragione, nel seguito, non distingueremo un triangolo
da un trilatero ed useremo solo la parola triangolo.
2) In un piano proiettivo sono figure duali l’una dell’altra le seguenti:
un quadrangolo completo, che è la figura costituita da 4 punti (i vertici) a tre
a tre non allineati e dalle 6 rette (i lati) che li congiungono a due a due;
un quadrilatero completo, che è la figura costituita da 4 rette (i lati) a tre a
tre non concorrenti e dai 6 punti (i vertici) dove si intersecano a due a due.
Sussiste l’importante Principio di dualità, che dimostreremo nel successivo
numero: se in P(V) è vera una proposizione è vera anche la sua duale.
2. Sia V∗ il duale di V. Se v ∈ V , l’applicazione
lv : V∗ −→ K
definita ponendo
lv (ϕ) = ϕ(v) per ogni ϕ ∈ V∗
è lineare, cioè si ha lv ∈ V∗∗ . Infatti, se ϕ, ψ ∈ V∗ e a, b ∈ K si ha
lv (aϕ + bψ) = (aϕ + bψ)(v) = aϕ(v) + bψ(v) = alv (ϕ) + blv (ψ).
Lemma 2.5 L’applicazione Φ : V → V∗∗ definita da
Φ(v) = lv
è un isomorfismo.
69
2 IL PRINCIPIO DI DUALITÀ
DIMOSTRAZIONE. Essa è lineare; infatti, se u, v ∈ V, a, b ∈ K e ϕ ∈ V∗
si ha
Φ(au + bv)(ϕ) = lau+bv (ϕ) = ϕ(au + bv) = aϕ(u) + bϕ(v)
= alu (ϕ) + blv (ϕ) = (alu + blv )(ϕ)
= (aΦ(u) + bΦ(v))(ϕ).
e quindi
Φ(au + bv) = aΦ(u) + bΦ(v).
Se 0 6= v ∈ V si ha Φ(v) = lv 6= 0 e perciò Φ è iniettiva. Infatti, v può
essere preso come elemento di una base di V e per l’elemento v∗ della base
duale si ha lv (v∗ ) = v∗ (v) = 1. Poiché dimV = dimV∗∗ , Φ è isomorfismo.
In virtù del lemma 2.5, V lo identificheremo sempre con V∗∗ mediante
identificazione di v ∈ V con lv ∈ V∗∗ per ogni v ∈ V .
Se M è un sottospazio di V, l’ annullatore di M è il sottospazio di V∗
M0 = {ϕ ∈ V∗ : ϕ(v) = 0 per ogni v ∈ M}.
In virtù dell’identificazione fatta di V con V∗∗ , se P è un sottospazio di V∗
il suo annullatore è il sottospazio di V
P0 = {v ∈ V : ϕ(v) = 0 per ogni ϕ ∈ P}.
Lemma 2.6 Sia V uno spazio vettoriale su K . L’applicazione che al sottospazio M di V associa il suo annullatore M0 in V∗ è biunivoca tra l’insieme
dei sottospazi di V e l’insieme dei sottospazi di V∗ e gode delle proprietà:
1) dimM0 = dimV − dimM;
2) M00 = M;
3) M0 ⊂ N0 ⇐⇒ M ⊃ N;
4) (M + N)0 = M0 ∩ N0 ;
5) (M ∩ N)0 = M0 + N0 .
DIMOSTRAZIONE. Dimostriamo dapprima che l’applicazione gode delle proprietà 1) e 2).
1) Se dimM = r , sia (v1 , ..., vr , vr+1 , ..., vm ) una base di V tale che (v1 , ..., vr )
∗
sia una base di M e sia (v1∗ , ..., vm
) la base duale. Si ha
vi∗ (vj ) = 0,
per r + 1 ≤ i ≤ m,
1≤j≤r
70
2 IL PRINCIPIO DI DUALITÀ
∗
∗
∗
∗
0
e quindi vr+1
, ..., vm
∈ M0 . I vettori
Pm vr+1 ,∗..., vm generano M .
0
Infatti, se ϕ ∈ M si ha ϕ = j=1 xj vj e poiché
ϕ(vi ) =
m
X
j=1
xj vj∗
(vi ) = xi = 0,
se 1 ≤ i ≤ r,
P
∗
∗
∗
risulta ϕ = m
j=r+1 xj vj . Essendo vr+1 , ..., vm linearmente indipendenti, perché elementi di una base, si ha la 1).
2) Si ha
M00 = {v ∈ V : α(v) = 0 per ogni α ∈ M0 };
se v ∈ M risulta α(v) = 0 per ogni α ∈ M0 e perciò M ⊂ M00 . Per la 1) si
ha
dimM00 = dimV∗ − dimM0 = dimV − (dimV − dimM) = dimM
e perciò M00 = M.
Dalle 1) e 2) segue che l’applicazione è biunivoca. Infatti, se M0 = N0 ,
per la 2) si ha M = M00 = N00 = N e perciò è iniettiva; inoltre, se U è
un sottospazio di V∗ risulta U = (U0 )0 con U0 sottospazio di V e quindi è
suriettiva.
Dimostriamo le altre proprietà.
3) Se M ⊂ N, ovviamente risulta M0 ⊃ N0 . D’altra parte, se M0 ⊃ N0 ,
per la 2) si ha M = M00 ⊂ N00 = N.
4) Da M, N ⊂ M + N, per la 3) segue che
(M + N)0 ⊂ M0 ∩ N0 .
D’altra parte, se α ∈ M0 ∩ N0 , risulta α(x) = 0 per ogni x ∈ M e α(y) = 0
per ogni y ∈ N e quindi α(z) = 0 per ogni z ∈ M + N, ossia α ∈ (M + N)0 .
Dunque,
M0 ∩ N0 ⊂ (M + N)0
e, perciò, si ha la 4).
5) Si ha
(M0 + N0 )0 = M00 ∩ N00 = M ∩ N
e quindi
(M ∩ N)0 = (M0 + N0 )00 = M0 + N0 .
Teorema 2.7 (Principio di dualità). Sia P un teorema sullo spazio proiettivo P(V) di dimensione n > 1, che riguarda varietà lineari. Allora, è un
teorema su P(V) anche il suo duale P ∗ .
2 IL PRINCIPIO DI DUALITÀ
71
DIMOSTRAZIONE. Siano Λ l’insieme delle varietà lineari di P(V) e Λ∗
l’insieme delle varietà lineari di P(V∗). Sia
α : Λ −→ Λ∗
l’applicazione che alla varietà lineare U definita dal sottospazio U di V associa
la varietà lineare U 0 di P(V∗ ) definita dall’annullatore U0 di U; per il lemma
2.6, α è biunivoca. Inoltre, sempre per il lemma 2.6, se dim U = r si ha
dim α(U) = n − r − 1;
α(U) ⊂ α(W) ⇐⇒ U ⊃ W;
α(U + W) = α(U) ∩ α(W);
α(U ∩ W) = α(U) + α(W).
Da ciò segue che P ∗ è un teorema su P(V∗ ).
Considerando un isomorfismo f : V∗ → V ed associando alla varietà
lineare in Λ∗ definita dal sottospazio S di V∗ la varietà lineare in Λ definita
dal sottospazio f (S) di V, si ottiene un’applicazione biunivoca
β : Λ∗ −→ Λ
tale che se S, T ∈ Λ∗ , si ha
dimβ(S) = dimS;
β(S) ⊂ β(T ) ⇐⇒ S ⊂ T ;
β(S + T ) = β(S) + β(T );
β(S ∩ T ) = β(S) ∩ β(T ).
Dalla composizione βα segue che P ∗ è un teorema su P(V).
Esempio 2.8 In P 2 (V) ed in P 3 (V) sono teoremi i duali di quelli stabiliti
negli esempi 2.2.
72
3 COORDINATE PROIETTIVE
3. Sistemi di coordinate. Coordinate proiettive.
1. Sia B = (v1 , ..., vn+1 ) una base dello spazio vettoriale V.
P
Definizione 3.1 Se P = [ n+1
i=1 xi vi ], xi ∈ K , è un punto dello spazio proiettivo P(V) si dice che (x1 , ..., xn+1 ) è un sistema di coordinate omogenee di
P rispetto alla base B e per indicarlo scriveremo P = (x1 , . . . , xn+1 ).
Se (x1 , ..., xn+1 ) è una (n + 1) − pla ordinata non nulla di elementi di K ,
vi è uno ed un solo punto P di P(V) che ha (x1 , ..., xn+1 )P
come sistema di
coordinate omogenee rispetto a B ; esso è il punto P = [ n+1
i=1 xi vi ]. Due
(n + 1) − ple ordinate non nulle (x1 , ..., xn+1 ) e (y1, ..., yn+1 ) di elementi di
K sono sistemi di P
coordinate omogenee
Pn+1 dello stesso punto P rispetto a B se
n+1
e solo se i vettori i=1 xi vi e i=1 yi vi sono linearmente dipendenti, ossia
se e solo se esiste un elemento non nullo k ∈ K tale che
yi = kxi ,
1 ≤ i ≤ n + 1.
Se (x1 , ..., xn+1 ) e (x′1 , ..., x′n+1 ) sono sistemi di coordinate omogenee di uno
′
stesso punto P rispetto a due basi B = (v1 , ..., vn+1 ) e B′ = (v1′ , ..., vn+1
) di
V, esistono una matrice (aij ) ad elementi in K , di ordine n + 1, invertibile,
ed un elemento 0 6= k ∈ K tali che si hanno le
(1)
kxi =
n+1
X
aij x′j ,
1 ≤ i ≤ n + 1,
j=1
che si dicono anche equazioni del cambiamento proiettivo di coordinate.
Infatti, si ha
#
" n+1
# " n+1
X
X
xi vi =
x′j vj′
i=1
j=1
e quindi esiste un elemento 0 6= k ∈ K tale che
k
n+1
X
n+1
X
xi vi =
i=1
Poiché
vj′
=
n+1
X
j=1
aij vi ,
i=1
x′j vj′ .
1 ≤ j ≤ n + 1,
con aij ∈ K e la matrice (aij ) invertibile, si ha
k
n+1
X
i=1
xi vi =
n+1
X
j=1
x′j
n+1
X
i=1
aij vi ,
73
3 COORDINATE PROIETTIVE
da cui le (1).
Lemma 3.2 Siano P1 , ..., Pr punti di P(V) che rispetto alla base B abbiano
sistemi di coordinate omogenee
(i)
(i)
Pi = (x1 , ..., xn+1 ),
e sia

(1)
(1)
x1
 .
A =  ..
x2
..
.
(r)
(r)
x1
Si ha
dim
r
X
Pi
i=1
!
x2
1 ≤ i ≤ r,
...
..
.
...

(1)
xn+1
.. 
. .
(r)
xn+1
= caratteristica(A) − 1.
P
xi vi
DIMOSTRAZIONE. Sia ϕ : V → K n+1 l’isomorfimo che a x = n+1
Pn+1 i=1
(i)
associa ϕ(x) = (x1 , ..., xn+1 ). Essendo Pi = [xi ], con xiP
=
j=1 xj vj , i
r
vettori ϕ(xi ) sono le righe di A e quindi il sottospazio
i=1 [xi ] di V ha
dimensione uguale a quella del sottospazio di K n+1 generato dalle righe di
A, che è la caratteristica di A, da cui il lemma.
2. Sia S una varietà lineare di dimensione r di P(V) e siano
Pi = [xi ],
1 ≤ i ≤ r + 1,
r + 1 punti linearmente indipendenti di S . Un punto P = [x] appartiene a
S se e solo se
(2)
x=
r+1
X
λi xi ,
i=1
(i)
λi ∈ K.
(i)
Se (x1 , ..., xn+1 ) e (x1 , ..., xn+1 ) sono sistemi di coordinate omogenee di Pi , P
rispetto alla base B , la (2) si può scrivere
′
(2 )
xj =
r+1
X
i=1
(i)
λi xj ,
1 ≤ j ≤ n + 1.
Sia le (2) che le (2′ ) si dicono equazioni parametriche di S .
74
3 COORDINATE PROIETTIVE
Teorema 3.3 Sia S una varietà lineare di dimensione r di P(V). Esiste un
sistema di n − r equazioni lineari omogenee a coefficienti in K , linearmente
indipendenti,

+
a12 x2
+ · · · + a1 n+1 xn+1
= 0
 a11 x1
...

an−r 1 x1 + an−r 2 x2 + · · · + an−r n+1 xn+1 = 0
tale che i punti di S sono tutti e solo quelli i cui sistemi di coordinate
omogenee rispetto alla base B sono soluzioni del sistema.
(i)
(i)
DIMOSTRAZIONE. Siano Pi = (x1 , ..., xn+1 ), 1 ≤ i ≤ r + 1, punti linearmente indipendenti che individuano S .PUn punto P = (x1 , ..., xn+1 ) appartiene a S se e solo se risulta dim(P + r+1
i=1 Pi ) = r e quindi (lemma 3.2) se
e solo se la matrice


x1
x2
. . . xn+1
(1)
(1)
 x(1)
x2
. . . xn+1 
1
A=
.. 
..
..

 ..
.
.
.
.
(r+1)
(r+1)
(r+1)
x1
x2
. . . xn+1
ha caratteristica r + 1. Per il lemma 3.2 le ultime r + 1 righe di A contengono un minore M di ordine r + 1 non nullo e la condizione che A abbia
caratteristica r + 1 si esprime annullando tutti i suoi minori di ordine r + 2
contenenti M . Si ottengono, cosı̀, n − r equazioni lineari in x1 , ..., xn+1 tali
che i punti di S sono esattamente quelli i cui sistemi di coordinate omogenee
le soddisfano. In modo analogo al caso del teorema 2.13 del capitolo III, si
verifica che tali equazioni sono linearmente indipendenti.
Esempio 3.4 Se
(i)
(i)
Pi = (x1 , . . . , xn+1 ),
sono n punti linearmente indipendenti
S = P1 + · · · + Pn da essi individuato è
x2 . . .
x1
(1)
(1)
x1
x2
...
.
..
..
.
.
.
.
(n)
(n)
x1
x2
...
Teorema 3.5 Sia

 a11 x1
...

am1 x1
+
i = 1, . . . , n,
di P(V), l’equazione dell’iperpiano
xn+1 (1) xn+1 .. = 0.
. (n) xn+1
a12 x2
+ ··· +
a1 n+1 xn+1
= 0
+ am2 x2
+ ··· +
am n+1 xn+1
= 0
75
3 COORDINATE PROIETTIVE
un sistema lineare omogeneo a coefficienti in K . Se la matrice A=(aij ) ha
caratteristica h, l’insieme dei punti di P(V) i cui sistemi di coordinate omogenee rispetto a B sono soluzione del sistema è una varietà lineare di dimensione
n − h.
DIMOSTRAZIONE. I vettori di V le cui componenti rispetto alla base B
soddisfano il sistema costituiscono un sottospazio S di V di dimensione n +
1 − h, da cui il teorema.
Se S è una varietà lineare costituita dai punti i cui sistemi di coordinate
rispetto alla base B soddisfano un sistema lineare Σ, si dice che S è definita
da Σ o che le equazioni di Σ sono equazioni (cartesiane) di S .
Un iperpiano U di P(V), rispetto alla base B = (v1 , ..., vn+1 ) di V, è
definito da un’equazione lineare
a1 x1 + a2 x2 + · · · + an+1 xn+1 = 0.
Se V∗ è lo spazio vettoriale duale di V, la varietà lineare U 0 definita dall’annullatore U0 dello spazio vettoriale U che definisce U è un punto (lemma
∗
2.6). Se B∗ = (v1∗ , ..., vn+1
) è la base duale di B , i coefficienti a1 , ..., an+1
dell’equazione di U costituiscono un sistema di coordinate omogenee di U 0
rispetto a B∗ .
Pn+1
P
∗
a
v
,
per
ogni
punto
P
=
[
Infatti, se ϕ = n+1
i
i
i=1 xi vi ] di U risulta
i=1
!
! n+1
! n+1
n+1
n+1
X
X
X
X
ϕ
xi vi =
ai vi∗
xi vi =
ai xi = 0
i=1
i=1
i=1
i=1
e quindi U0 = [ϕ].
Si dice, allora, che a1 , . . . , an+1 costituiscono un sistema di coordinate
omogenee dell’iperpiano U rispetto a B e per indicarlo scriveremo
U = [a1 , . . . , an+1 ].
3. Sia P(V) uno spazio proiettivo di dimensione n > 0.
Definizione 3.6 Si chiama riferimento proiettivo di P(V) una (n + 2) − pla
ordinata (E1 , ..., En+1 , E) di suoi punti tali che n + 1 comunque scelti tra essi
sono linearmente indipendenti.
Ad esempio, un riferimento proiettivo della retta proiettiva è una terna ordinata di punti distinti, un riferimento proiettivo del piano proiettivo è una
quaterna ordinata di punti a tre a tre non allineati.
76
3 COORDINATE PROIETTIVE
Teorema 3.7 Sia (E1 , ..., En+1 , E) un riferimento proiettivo di P(V). Allora:
1) esiste un base (e1 , ..., en+1 ) di V tale che
Ei = [ei ], 1 ≤ i ≤ n + 1,
E = [e1 + e2 + · · · + en+1 ];
(3)
2) due basi (e1 , ..., en+1 ) ed (e′1 , ..., e′n+1 ) di V sono tali che
Ei =
[ei ] = [e′i ], 1 ≤ i ≤ n + 1,
E = [e1 + · · · + en+1 ] = [e′1 + · · · + e′n+1 ],
(4)
se e solo se esiste un elemento 0 6= k ∈ K tale che
e′i = kei ,
1 ≤ i ≤ n + 1.
DIMOSTRAZIONE. 1) Sia
Ei = [vi ],
1 ≤ i ≤ n + 1.
Poiché i punti E1 , ..., En+1 sono linearmente
i vettori v1 , ..., vn+1
Pindipendenti,
n+1
costituiscono una base di V e quindi E = [ i=1 ai vi ], ai ∈ P
K . Gli elementi ai
sono tutti non nulli. Infatti, se fosse aj = 0, il sottospazio [ n+1
i=1 ai vi ] sarebbe
contenuto nel sottospazio generato da v1 , ..., vj−1 , vj+1 , ..., vn+1 e quindi i
punti E1 , ..., Ej−1 , Ej+1, ..., En+1 , E sarebbero linearmente dipendenti, contro
l’ipotesi che (E1 , ..., En+1 , E) sia un riferimento proiettivo.
Posto
ei = ai vi ,
1 ≤ i ≤ n + 1,
(e1 , ..., en+1 ) è una base di V soddisfacente la 1).
2) Due basi (e1 , ..., en+1 ) e (e′1 , ..., e′n+1) di V soddisfano le (4) se e solo
se esistono degli elementi 0 6= ki, k ∈ K tali che
e′i = kiei ,
e′1 + · · · + e′n+1 = k(e1 + · · · + en+1 ),
cioè se e solo se
(5)
n+1
X
i=1
(ki − k)ei = 0.
Essendo (e1 , ..., en+1 ) una base di V, la (5) è soddisfatta se e solo se
k = ki ,
1 ≤ i ≤ n + 1.
77
4 PROIETTIVITÀ
Se (E1 , ..., En+1 , E) è un riferimento proiettivo di P(V), rispetto a tutte
le basi ordinate (e1 , ..., en+1 ) di V soddisfacenti le (3), un punto P di P(V)
ha gli stessi sistemi di coordinate omogenee. Tali sistemi di coordinate sono
i sistemi di coordinate proiettive omogenee rispetto a (o nel) sistema di riferimento proiettivo dato. In particolare, il punto Ei ha coordinate proiettive
tutte nulle, salvo l’i-ma uguale a 1; il punto E ha coordinate proiettive tutte
uguali a 1 e si dice punto unità del riferimento.
Se P = (b1 , ..., bn+1 ) è un punto di P(V) non contenuto nell’iperpiano
xn+1 = 0, allora
bn
b1
, ...,
,1 .
P =
bn+1
bn+1
Gli elementi
ci =
bi
bn+1
,
1 ≤ i ≤ n,
che sono gli stessi per tutti i sistemi di coordinate proiettive omogenee nel
dato riferimento proiettivo, si dicono coordinate proiettive non omogenee di
P rispetto a (o nel) riferimento proiettivo (E1 , ..., En+1 , E).
4. Proiettività.
1. Siano V, V′ spazi vettoriali sul campo K di ugual dimensione. Un
isomorfismo
f : V → V′
induce un’applicazione biunivoca
ϕ : P(V) → P(V′ )
nella quale per ogni punto P = [v] di P(V) si ha ϕ(P ) = [f (v)].
Definizione 4.1 Un’applicazione
ϕ : P(V) → P(V′ )
si dice proiettività se e solo se è indotta da un isomorfismo f : V → V′ .
Osservazione 4.2 Sia ϕ : P(V) → P(V′ ) una proiettività indotta da un
isomorfismo f : V → V′ .
1. Manifestamente ϕ induce un’applicazione biunivoca tra l’insieme {S}
delle varietà lineari di P(V) e l’insieme delle varietà lineari di P(V′) nella
78
4 PROIETTIVITÀ
quale sono corrispondenti S e ϕ(S), che conserva dimensione, intersezione,
congiungente e relazione d’inclusione.
2. Se S è una varietà lineare di P(V), la restrizione
ϕ|S : S → ϕ(S)
è una proiettività: essa è indotta dalla restrizione f|S : S → f (S) di f al
sottospazio S di V che definisce S .
Esempio 4.3 Se U, S, S ′ sono varietà lineari di uno spazio proiettivo P(V)
di dimensione n > 1 tali che
U + S = U + S ′ = P(V),
U ∩ S = U ∩ S ′ = Ø,
la proiezione
di centro U è una proiettività.
π : S −→ S ′
U
S
b
P1
P2
b
b
P3
b
P
P2′
S′
P1′
P′
P3′
Se dim U = r si ha (lemma 1.8) dim S = dim S ′ = n − r − 1. Siano U,
S, S′ i rispettivi spazi vettoriali che definiscono U , S , S ′ . Sia (v1 , ..., vn−r )
una base di S e siano
Pi = [vi ],
Pi′ = π(Pi) = [vi′ ],
1 ≤ i ≤ n − r.
Poiché Pi′ ∈ U + Pi , si può scrivere
vi′ = ui + ai vi ,
ui ∈ U,
ai ∈ K,
1 ≤ i ≤ n − r.
79
4 PROIETTIVITÀ
Essendo U ∩ S ′ = Ø si ha ai 6= 0 per ogni i e quindi, posto
ei = ai vi ,
1 ≤ i ≤ n − r,
(e1 , ..., en−r ) è una base di S e si ha
vi′ = ui + ei ,
1 ≤ i ≤ n − r.
′
Dalle proprietà di π (teorema 1.10) segue che i punti P1′ , ..., Pn−r
sono, come
′
′
P1 , ..., Pn−r , linearmente indipendenti e quindi (v1 , ..., vn−r ) è una base di S’.
L’applicazione f : S → S′ definita da
f (ei ) = vi′ = ui + ei ,
1 ≤ i ≤ n − r,
è un isomorfismo e P
π coincide con la proiettività ϕ indotta da f . Infatti, se
n−r
xi ei si ha
P = [x] ∈ S e x = i=1
f (x) =
n−r
X
xi f (ei ) =
i=1
n−r
X
xi (ui + ei ) =
i=1
Quindi,
ϕ(P ) = [f (x)] =
n−r
hX
i=1
e perciò
n−r
X
xi ui + x
i=1
i
xi ui + x ∈ U + P
ϕ(P ) = (U + P ) ∩ S ′ = π(P ),
ossia π = ϕ.
Lemma 4.4 Due isomorfismi
f, g : V → V′
inducono la stessa proiettività
P(V) → P(V′ )
se e solo se esiste 0 6= k ∈ K tale che g = kf .
DIMOSTRAZIONE. Siano ϕ e ψ le proiettività indotte da f e g rispettivamente. Se P =[x] è un punto di P(V), allora ϕ(P ) = [f (x)] e ψ(P ) =
[g(x)].
Se g = kf , con 0 6= k ∈ K , si ha
ψ(P ) = [g(x)] = [kf (x)] = [f (x)] = ϕ(P )
80
4 PROIETTIVITÀ
e perciò ϕ = ψ .
Viceversa, sia ϕ = ψ . Allora
g(x) = kx f (x),
0 6= kx ∈ K.
Bisogna dimostrare che kx non dipende da x, cioè se y è un altro vettore di
V si ha kx = ky .
Se x, y sono linearmente dipendenti si ha y = ax, a ∈ K e quindi
ky f (y) = g(y) = g(ax) = ag(x) = akx f (x) = kx f (ax) = kx f (y)
e perciò kx = ky .
Se x, y sono linearmente indipendenti, da
g(x + y) = g(x) + g(y)
si trae
kx+y f (x + y) = kx f (x) + ky f (y)
e quindi
(kx+y − kx )f (x) + (kx+y − ky )f (y) = 0.
Essendo f isomorfismo, anche i vettori f (x), f (y) sono linearmente indipendenti e quindi
kx = kx+y = ky .
Corollario 4.5 La proiettività ϕ indotta dall’endomorfismo f di V è quella
identica se e solo se f = λI con λ ∈ K ed I l’endomorfismo identico di V.
′
Teorema 4.6 Siano (E1 , ..., En+1 , E) ed (E1′ , ..., En+1
, E ′ ) riferimenti pro′
iettivi di P(V) e P(V ) rispettivamente con n > 0. Esiste una ed una sola
proiettività
ϕ : P(V) −→ P(V′)
tale che
ϕ(Ei ) = Ei′ ,
ϕ(E) = E ′ ,
1 ≤ i ≤ n + 1.
DIMOSTRAZIONE. Per il teorema 3.7 esistono una base (e1 , ..., en+1 ) di V
ed una base (e′1 , ..., e′n+1 ) di V′ tali che
Ei = [ei ],
Ei′ = [e′i ],
E = [e1 + · · · + en+1 ],
1 ≤ i ≤ n + 1,
E ′ = [e′1 + · · · + e′n+1 ].
81
4 PROIETTIVITÀ
L’isomorfismo f : V → V′ definito da
f (ei ) = e′i ,
1 ≤ i ≤ n + 1,
induce una proiettività ϕ : P(V) → P(V′) tale che
ϕ(Ei ) = Ei′ ,
ϕ(E) = E ′ ,
1 ≤ i ≤ n + 1.
Essa è l’unica con tale proprietà. Infatti, se ψ : P(V) → P(V′ ) è una
proiettività indotta dall’isomorfismo g : V → V′ tale che
ψ(Ei ) = Ei′ ,
ψ(E) = E ′ ,
1 ≤ i ≤ n + 1,
deve essere
g(ei ) = ki e′i ,
g(e1 + · · · + en+1 ) = k(e′1 + · · · + e′n+1 ),
con 0 6= ki , k ∈ K . Quindi
n+1
X
i=1
(k − ki )e′i = 0
e perciò k = ki per ogni 1 ≤ i ≤ n + 1. Allora g = kf e perciò, per il lemma
4.4, ψ = ϕ.
Le proiettività dello spazio proiettivo P(V) in se stesso si dicono proiettività di P(V).
Definizione 4.7 Una varietà lineare U di P(V) è unita per la proiettività
ϕ di P(V) se e solo se ϕ(U) = U .
Corollario 4.8 Una proiettività ϕ di P n (V) che ha n + 2 punti uniti che
formano un riferimento proiettivo è quella identica.
DIMOSTRAZIONE. Sia (E1 , ..., En+1 , E) un riferimento proiettivo di P n (V)
tale che ϕ(Ei ) = Ei (1 ≤ i ≤ n + 1), ϕ(E) = E . Per il teorema 4.6 esiste
una ed una sola proiettività di P n (V) che lascia fissi i punti E1 , ..., En+1 , E
e quindi ϕ coincide con la proiettività identica.
Osservazione 4.9 Sia ϕ una proiettività di P(V) indotta dall’automorfismo
f di V. La varietà lineare U di P(V) definita dal sottospazio U di V è unita
per ϕ se e solo se U è invariante per f , cioè f (U) = U. Si noti che se U
è invariante per f lo è anche per ogni automorfismo g di V che induce ϕ,
essendo g = kf con 0 6= k ∈ K (lemma 4.4).
4 PROIETTIVITÀ
82
In particolare, un punto P = [v] di P(V) è unito per ϕ se e solo se
[f (v)] = [v] e cioè se e solo se v è un autovettore per f .
Ne segue che se V(λ) è un autospazio di f relativo all’autovalore λ, tutti
i punti della varietà lineare definita da V(λ) sono uniti per ϕ.
D’altra parte, se una varietà lineare U di P(V) ha tutti i punti uniti per
ϕ, lo spazio vettoriale U che la definisce è contenuto in un autospazio di f .
Infatti, essendo tutti i punti di U uniti per ϕ, la restrizione ϕ|U di ϕ ad U
è la proiettività identica e perciò indotta dall’isomorfismo identico I di U.
Ma ϕ|U è anche indotta dalla restrizione fU di f ad U e quindi deve essere
f|U = λI con λ ∈ K (corollario 4.5), ossia f (u) = λu per ogni u ∈ U.
Le varietà lineari di dimensione massima di P(V) i cui punti sono tutti
uniti per ϕ sono quelle definite dagli autospazi di f .
Esempio 4.10 Sia ϕ una proiettività di P 2 (V) indotta dall’automorfismo f
di V, con V spazio vettoriale su un campo K algebricamente chiuso.
Si hanno i seguenti casi.
a) f ha 3 autovalori distinti λ1 , λ2 , λ3 .
Allora ϕ ha esattamente 3 punti uniti distinti, definiti dagli autospazi
V(λ1), V(λ2), V(λ3 ), che sono non allineati, perché autovettori associati ad
autovalori distinti sono linearmente indipendenti (capitolo I, teorema 2.9).
b) f ha solo due autovalori distinti λ1 di molteplicità algebrica 1 e λ2 di
molteplicità algebrica 2.
Se λ2 ha molteplicità geometrica 1, ϕ ha due soli punti uniti distinti.
Se λ2 ha molteplicità geometrica 2, allora V(λ2 ) definisce una retta U i cui
punti sono tutti uniti per ϕ, la quale non contiene il punto unito O definito
da V(λ1) (capitolo I, teorema 2.9) e ϕ non ha altri punti uniti fuori di U e
distinti da O (corollario 4.8). In questo caso ϕ si dice omologia di asse U e
di centro O .
Manifestamente sono unite per ϕ tutte le rette passanti per O in quanto
ciascuna di esse è la congiungente O con il punto dove interseca U , anch’esso
unito; ed oltre queste rette e U , ϕ non ha altre rette unite, per il teorema
4.6.
c) f ha un solo autovalore λ di molteplicità algebrica 3.
Se λ ha molteplicità geometrica 1, ϕ ha un solo punto unito.
Se λ ha molteplicità geometrica 2, ϕ ha una retta U di punti uniti e non ha
altri punti uniti fuori di essa. In questo caso ϕ si dice omologia speciale di
asse U .
Se λ ha molteplicità geometrica 3, ogni punto di P 2 (V) è unito per ϕ e perciò
ϕ è la proiettività identica.
83
4 PROIETTIVITÀ
2. Siano
ϕ : P(V) → P(V′),
ψ : P(V′) → P(V′′ )
proiettività indotte rispettivamente dagli isomorfismi
f : V → V′,
g : V′ → V′′ .
Se P = [x] è un punto di P(V) si ha
(ψϕ)(P ) = ψ(ϕ(P )) = ψ([f (x)]) = [g(f (x))] = [(gf )(x)]
e quindi ψϕ è la proiettività indotta da gf .
Sia σ la proiettività indotta da f −1 . Allora, ϕσ e σϕ sono indotte rispettivamente da f f −1 e f −1 f e quindi sono le proiettività identiche; da ciò
segue che σ è l’inversa di ϕ. Si ha, quindi, il
Teorema 4.11 La composizione di due proiettività è una proiettività e l’inversa di una proiettività è una proiettività.
Segue immediatamente il seguente
Corollario 4.12 Le proiettività di uno spazio proiettivo formano un gruppo
rispetto alla composizione.
Il gruppo delle proiettività di P(V) si chiama anche gruppo proiettivo di V e
si denota P GL(V).
Definizione 4.13 Una proprietà di un sottoinsieme S di P(V) si dice che è
una proprietà proiettiva se è proprietà di tutti gli insiemi ω(S), trasformati
di S mediante proiettività.
Due sottoinsiemi di P(V) si dicono proiettivamente equivalenti se e solo
se possono essere trasformati uno nell’altro mediante una proiettività.
Esempio 4.14 Le coordinate proiettive sono invarianti per proiettività.
Infatti, siano x1 , ..., xn+1 coordinate proiettive omogenee di un punto P
rispetto al riferimento proiettivo (E1 , ..., En+1 , E) di P(V);P
ciò vuol dire che
se Ei = [ei ], E = [e1 + · · · + en+1 ], allora P = [x] con x = n+1
i=1 xi ei . Se
ϕ : P(V) → P(V′ )
è una proiettività indotta dall’isomorfismo f : V → V′ , si ha
ϕ(Ei ) = [f (ei )],
1 ≤ i ≤ n + 1,
84
4 PROIETTIVITÀ
ϕ(E) = [f (e1 + · · · + en+1 )] = [f (e1 ) + · · · + f (en+1 )].
Quindi, (ϕ(E1 ), ..., ϕ(En+1 ), ϕ(E)) è un riferimento proiettivo di cui ϕ(E) è
il punto unità. Si ha
ϕ(P ) = [f (x)] = [x1 f (e1 ) + · · · + xn+1 f (en+1 )]
e quindi x1 , ..., xn+1 sono coordinate proiettive omogenee di ϕ(P ) nel riferimento proiettivo (ϕ(E1 ), ..., ϕ(En+1 ), ϕ(E)).
3. Sia
ϕ : P(V) → P(V′ )
una proiettività indotta dall’isomorfismo
V ′ rispettivamente ed

a11
a12
 a21
a22
A=
.
..
 ..
.
an+1 1
an+1 2
f : V → V′ e siano B, B′ basi di V,

. . . a1 n+1
. . . a2 n+1 

..
..

.
.
. . . an+1 n+1
la matrice di f rispetto a B, B′ . Se (x1 , ..., xn+1 ) è un sistema di coordinate
omogenee del punto P di P(V) rispetto a B , allora (x′1 , ..., x′n+1 ) con
(1)
kx′i
=
n+1
X
j=1
aij xj ,
1 ≤ i ≤ n + 1,
e 0 6= k ∈ K , è un sistema di coordinate omogenee di ϕ(P ) rispetto a B′ . Le
(1) sono le equazioni della proiettività ϕ.
Se
X = (x1 , ..., xn+1 )t ,
X ′ = (x′1 , ..., x′n+1 )t
le (1) si possono scrivere
(2)
kX ′ = AX.
È chiaro che comunque si assegnino le equazioni (1) o la (2), con la matrice
A = (aij ) invertibile, A definisce un isomorfismo f : V → V′ che induce una
proiettività ϕ : P(V) → P(V′) di cui le (1) sono le equazioni.
5 COMPLETAMENTO PROIETTIVO DI UNO SPAZIO AFFINE
85
5. Completamento proiettivo di uno spazio affine.
1. Nello spazio proiettivo P n (V), con n > 0, sia Z un iperpiano (piano
se n = 3, retta se n = 2, punto se n = 1), definito dal sottospazio Z di V e
sia
à = P(V) − Z.
Fissare un vettore v ∈ V, v ∈
/ Z definisce una biiezione tra Z e à perché per
ogni punto P ∈ Ã esiste uno ed un solo vettore zP ∈ Z tale che
P = [zP + v].
Infatti, essendo V = Z ⊕ [v] e P 6∈ Z , si ha P = [z + kv], z ∈ Z, 0 6= k ∈ K .
Allora, se zP = (1/k)z si ha P = [zP + v]. Il vettore zP è univocamente
determinato da P , perché, se P = [z′ + v], con z′ ∈ Z, deve essere z′ + v =
a(zP + v) con a ∈ K e quindi z′ − azP = (a − 1)v. Poiché z′ − azP ∈ Z e
Z ∩ [v] = 0, deve essere z′ − azP = (a − 1)v = 0 e quindi a = 1, z′ = zP .
Teorema 5.1 L’insieme à è uno spazio affine su Z.
DIMOSTRAZIONE. Se P, Q ∈ Ã si ha P = [zP + v], Q = [zQ + v]. L’applicazione
Ã × Ã → Z
che alla coppia (P, Q) di punti associa il vettore
−−→
P Q = zQ − zP ∈ Z
soddisfa gli assiomi della definizione di spazio affine (capitolo III, §1). Infatti
−−→
a1 ) P Q = 0 ⇐⇒ zQ = zP ⇐⇒ P = Q;
a2 ) se P = [zP + v] ∈ Ã e u ∈ Z, il punto Q = [zQ + v] di Ã, con
−−→
zQ = zP + u, è tale che P Q = (zP + u) − zP = u;
a3 ) se R = [zR + v] si ha
−−→ −−→
−−→
P Q + QR = (zQ − zP ) + (zR − zQ ) = zR − zP = P R.
Se (v1 , ..., vn ) è una base di Z, allora B = (v1 , . . . , vn , v) è una base di
V e rispetto ad essa l’iperpiano Z ha equazione xn+1 = 0. Quindi, rispetto
a B , i punti di Z hanno i sistemi di coordinate omogenee
tutti del tipo
Pn
(x1 , . . . , xn , 0). Se P = [zP + v] ∈ Ã si ha zP + v = i=1 xi vi + v e quindi,
rispetto alla base B , il punto P ha (x1 , ..., xn , 1) come sistema di coordinate
5 COMPLETAMENTO PROIETTIVO DI UNO SPAZIO AFFINE
86
omogenee. In particolare, il punto Õ = [v] di à ha (0, ..., 0, 1) come sistema
di coordinate omogenee. Si ha
−−→
ÕP = zP − 0 = x1 v1 + · · · + xn vn
e quindi P , rispetto al sistema di riferimento (Õ; v1 , ..., vn ) di Ã, ha coordinate (x1 , ..., xn ).
Definizione 5.2 Lo spazio proiettivo P(V) si dice completamento proiettivo
di à e Z si dice l’iperpiano improprio di P(V) o di Ã. I punti di à si dicono
propri e quelli di Z si dicono impropri.
Sia A uno spazio affine di dimensione n sullo spazio vettoriale U col
sistema di riferimento (O; u1 , ..., un ). Esiste un ben determinato isomorfismo
(1)
f :U→Z
tale che f (ui ) = vi (1 ≤ i ≤ n) ed esiste un’affinità
ϕ : A → Ã
con isomorfismo associato f tale che ϕ(O) = Õ (capitolo III, lemma 3.4). Si
−−−−→
−−→
−−→ P
ha Õϕ(P ) = f ( OP ) e quindi, se OP = ni=1 xi ui , si ha
!
n
n
−−−−→
X
X
Õϕ(P ) = f
xi ui =
xi vi .
i=1
i=1
Cioè ϕ(P ) ha nel sistema di riferimento (Õ; v1 , ..., vn ) le stesse coordinate
che ha P nel sistema di riferimento (O; u1 , ..., un ).
Identificando P con ϕ(P ) per ogni punto P ∈ A, lo spazio affine A
si identifica con à e quindi P(V) si può riguardare come completamento
proiettivo di A.
Da ora in poi riguarderemo sempre lo spazio proiettivo P(V) come completamento dello spazio affine A nel modo ora descritto. 2. Le varietà lineari di
P(V) contenute nell’iperpiano improprio Z si dicono improprie o all’infinito,
le altre si dicono proprie o al finito.
Sia L una varietà lineare propria di P(V) definita dal sottospazio L di V.
La restrizione affine L∗ = L∩A di L è una varietà lineare di A di giacitura
L ∩ Z.
−−→
Infatti, se P = [zP + v] e Q = [zQ + v] sono punti di L∗ si ha P Q =
zQ −zP = (zQ +v)−(zP +v) ∈ L∩Z. Inoltre, se u ∈ L∩Z, il punto Q di A tale
5 COMPLETAMENTO PROIETTIVO DI UNO SPAZIO AFFINE
87
−−→
che P Q = u è Q = [zQ +v] con zQ = zP +u; quindi zQ +v = (zP +v)+u ∈ L,
perciò Q ∈ L e poiché zQ + v 6∈ Z si ha Q ∈ L∗ .
Si ha
dim L∗ = dim (L ∩ Z) = dim L + dim Z − dim (L + Z)
(2)
= dim L + n − (n + 1) = dim L − 1
= dim L.
Se, rispetto alla base B , L è definita dal sistema

 a11 x1 + a12 x2 + · · · + a1n xn + a1n+1 xn+1
(3)
...

ah1 x1 + ah2 x2 + · · · + ahn xn + ahn+1 xn+1
= 0
= 0
rispetto al sistema di riferimento (Õ; v1 , ..., vn ), L∗ è definita dal sistema

 a11 x1 + a12 x2 + · · · + a1n xn + a1n+1 = 0
(4)
...

ah1 x1 + ah2 x2 + · · · + ahn xn + ahn+1 = 0
Sia M una varietà lineare di A. Mediante l’isomorfismo (1) la sua giacitura M si può riguardare come sottospazio di Z. Se M, nel sistema di
riferimento (O, u1 , . . . , un ), è definita dalle equazioni (4), allora le equazioni
(4), nel sistema di riferimento (Õ; v1 , . . . , vn ), definiscono la varietà lineare
ϕ(M) con cui si identifica M e, pertanto, diciamo che, nel sistema di riferimento (Õ; v1 , . . . , vn ), M è definita dalle equazioni (4). La varietà lineare
M∗ di P(V) che, rispetto alla base B , è definita dal sistema lineare (3) è il
completamento proiettivo di M e si ha M∗ ∩ A = M.
Risulta
(L∗ )∗ = L,
(M∗ )∗ = M.
3. Se L è una varietà lineare propria di P(V), la varietà lineare L∞ = L ∩ Z
definita da L ∩ Z è la varietà lineare impropria o all’infinito di L o di L∗ .
Risulta
dim L∞ = dim L + dim Z − dim(L + Z) = dim L + (n − 1) − n = dim L − 1.
In particolare, la varietà impropria di una retta propria è un punto, la
varietà impropria di un piano proprio è una retta.
Se L è definita dal sistema (3) la sua varietà impropria L∞ è definita dal
sistema

a11 x1 + a12 x2 + · · · + a1n xn = 0



...
(5)
a
x + ah2 x2 + · · · + ahn xn = 0


 h1 1
xn+1 = 0
5 COMPLETAMENTO PROIETTIVO DI UNO SPAZIO AFFINE
88
Esempio 5.3 1) Se A = (a1 , . . . , an ) e B = (b1 , . . . , bn ) sono punti distinti
di A, il punto improprio della retta AB è (b1 − a1 , . . . , bn − an , 0).
Infatti, in P(V) si ha A = (a1 , . . . , an , 1) e B = (b1 , . . . , bn , 1) ed equazioni
parametriche della retta AB sono (§3, n.2)
x1 = λa1 + µb1 , . . .
xn = λan + µbn ,
xn+1 = λ + µ.
Quindi il suo punto improprio è quello per cui λ + µ = 0, ossia µ = −λ.
2) Il punto improprio della retta R di A di equazioni parametriche
x1 = a1 + µb1 , . . .
xn = an + µbn
è (b1 , . . . , bn , 0).
Infatti due punti di R sono (a1 , . . . , an ) e (a1 + b1 , . . . , an + bn ) ed il
risultato segue dall’esempio 1).
Teorema 5.4 Siano L e M due varietà lineari proprie di P(V) tali che
0 < dim L ≤ dim M. L∗ ed M∗ sono parallele se e solo se la varietà
impropria L∞ di L è contenuta nella varietà impropria M∞ di M.
DIMOSTRAZIONE. L∗ e M∗ sono parallele se e solo se la giacitura di L∗ è
contenuta in quella di M∗ (capitolo III, definizione 2.16) e le giaciture di L∗
e M∗ definiscono in P(V) le loro varietà improprie.
4. Sia ϕ una proiettività di P(V) che lascia fisso l’iperpiano improprio
Z , cioè per la quale Z sia varietà unita. Se ϕ è indotta dall’automorfismo f
di V si ha (osservazione 4.9) f (Z) = Z e quindi
f (v1 )
= a11 v1 + · · · + an1 vn
...
f (vn )
= a1n v1 + · · · + ann vn
f (v) = a1 n+1 v1 + · · · + an n+1 vn + an+1 n+1 v,
aij ∈ K.
La matrice di f rispetto alla base B = (v1 , . . . vn , v) è, allora


a11 . . . a1n
a1 n+1
..
..
..
 ...

.
.
.


a

... a
a
n1
0
nn
...
0
n n+1
an+1 n+1
e perciò ϕ ha equazioni

kx′1
= a11 x1 + · · · + a1n xn + a1 n+1 xn+1



...
= an1 x1 + · · · + ann xn + an n+1 xn+1
kx′


 ′n
= xn+1
kxn+1
5 COMPLETAMENTO PROIETTIVO DI UNO SPAZIO AFFINE
89
L’insieme G delle proiettività di P(V) che lasciano fisso Z è un sottogruppo del gruppo delle proiettività di P(V), perché la composizione di due
proiettività di G e l’inversa di una proiettività di G sono elementi di G.
L’applicazione Ψ : Aff (A) → G che all’affinità α ∈ Aff (A) di equazioni
 ′
 x1 = a11 x1 + . . . + a1n xn + b1
...
 ′
xn = an1 x1 + . . . + ann xn + bn
associa la proiettività di equazioni

kx′1
= a11 x1 + . . . + a1n xn + b1 xn+1



...
′
= an1 x1 + . . . + ann xn + bn xn+1
kx


 ′n
kxn+1
= xn+1
è un isomorfismo.
Infatti, posto
X = (x1 , . . . , xn )t ,
X ′ = (x′1 , . . . , x′n )t ,
A = (aij ),
B = (b1 , . . . , bn )t ,
l’equazione in forma matriciale di α è
X ′ = AX + B
e Ψ(α) è indotta dall’isomorfismo la cui matrice rispetto a B è
A B
.
0 1
Se α′ ∈ Aff (A) è un’altra affinità di A di equazione
X ′′ = A′ X ′ + B ′ ,
allora α′ α ha equazione
X ′′ = A′ AX + A′ B + B ′ .
La proiettività Ψ(α′α) è allora indotta dall’isomorfismo la cui matrice rispetto
alla base B è
′
′
A B
A B′
A A A′ B + B ′
=
0 1
0 1
0
1
e perciò Ψ(α′ α) = Ψ(α′ )Ψ(α), ossia Ψ è un omomorfismo. Manifestamente
Ψ è iniettivo e suriettivo e perciò isomorfismo.
Identificando Aff (A) con G mediante identificazione di ogni affinità α con
Ψ(α), si ha che Aff (A) si può riguardare come il sottogruppo delle proiettività
di P(V) che lasciano fisso l’iperpiano improprio.
90
6 I TEOREMI DI DESARGUES E DI PAPPO
6. I teoremi di Desargues e di Pappo.
1. Sia P(V) di dimensione 2 o 3.
Definizione 6.1 Due triangoli si dicono:
Prospettivi da un punto U , che si chiama centro di prospettiva, se i loro vertici
si possono mettere in corrispondenza biunivoca tale che vertici corrispondenti
sono allineati con U ;
Prospettivi da una retta R, che si chiama asse di prospettiva, se i loro lati si
possono mettere in corrispondenza biunivoca in modo che lati corrispondenti
si intersecano su R.
Teorema 6.2 (di Desargues). Due triangoli sono prospettivi da un punto
se e solo se sono prospettivi da una retta.
DIMOSTRAZIONE. Siano P1 P2 P3 e P1′ P2′ P3′ due triangoli. Se Pi = Pi′ per
qualche indice i il teorema è immediato. Supponiamo che sia Pi =
6 Pi′ per
ogni indice i. Sia
Pi = [xi ],
Pi′ = [x′i ],
i = 1, 2, 3.
Supponiamo che i triangoli siano prospettivi dal punto U = [u] e che siano
allineati con U i punti Pi e Pi′ (1 ≤ i ≤ 3). Si ha
u = a1 x1 + a′1 x′1 = a2 x2 + a′2 x′2 = a3 x3 + a′3 x′3 ,
e quindi
(1)
a1 x1 − a2 x2 = a′2 x′2 − a′1 x′1 ,
(2)
a2 x2 − a3 x3 = a′3 x′3 − a′2 x′2 ,
(3)
a3 x3 − a1 x1 = a′1 x′1 − a′3 x′3 .
ai , a′i ∈ K
91
6 I TEOREMI DI DESARGUES E DI PAPPO
U
P3
b
P1
b
b
Q2
P2
Q1
Q3
b
P1′
b
P2′
b
P3′
Dalla (1) segue che il punto Q3 = [a1 x1 − a2 x2 ] della retta P1 P2 coincide
con il punto [a′2 x′2 − a′1 x′1 ] della retta P1′ P2′ e quindi Q3 è l’intersezione delle
rette P1 P2 e P1′ P2′ .
Similmente dalle (2) e (3) segue che il punto Q1 = [a2 x2 − a3 x3 ] è l’intersezione delle rette P2 P3 e P2′ P3′ ed il punto Q2 = [a3 x3 − a1 x1 ] è l’intersezione
delle rette P1 P3 e P1′ P3′ .
Poiché la somma dei primi membri delle (1), (2), (3) è il vettore nullo, i
punti Q1 , Q2 , Q3 sono allineati.
Viceversa, supponiamo che i triangoli siano prospettivi da una retta R e che
siano su R
Q1 = P2 P3 ∩ P2′ P3′ ,
Q2 = P1 P3 ∩ P1′ P3′ ,
Q3 = P1 P2 ∩ P1′ P2′ .
Se Qi = [vi ](1 ≤ i ≤ 3), essendo Q1 , Q2 , Q3 allineati, vi è una relazione
h1 v1 + h2 v2 + h3 v3 = 0, hi ∈ K ed allora, posto yi = hi vi (1 ≤ i ≤ 3), si ha
Qi = [yi ] e
(4)
y1 + y2 + y3 = 0.
Essendo Q3 allineato con P1 , P2 e con P1′ , P2′ , deve essere
y3 = a1 x1 + a2 x2 = a′1 x′1 + a′2 x′2 ,
ai , a′i ∈ K;
essendo Q2 allineato con P1 , P3 e con P1′ , P3′ , deve essere
y2 = b1 x1 + b3 x3 = b′1 x′1 + b′3 x′3 ,
bi , b′i ∈ K;
92
6 I TEOREMI DI DESARGUES E DI PAPPO
ed essendo Q1 allineato con P2 , P3 e con P2′ , P3′ , deve essere
y1 = c2 x2 + c3 x3 = c′2 x′2 + c′3 x′3 ,
ci , c′i ∈ K.
Per la (4) risulta
(a1 + b1 )x1 + (a2 + c2 )x2 + (b3 + c3 )x3 = 0
e poiché i vettori x1 , x2 , x3 sono linearmente indipendenti deve essere
b1 = −a1 ,
c2 = −a2 ,
c3 = −b3 .
b′1 = −a′1 ,
c′2 = −a′2 ,
c′3 = −b′3
Similmente
e quindi
a1 x1 + a2 x2 = a′1 x′1 + a′2 x′2 ,
−a1 x1 + b3 x3 = −a′1 x′1 + b′3 x′3 ,
−a2 x2 − b3 x3 = −a′2 x′2 − b′3 x′3 .
Da queste si ricava
a1 x1 − a′1 x′1 = a′2 x′2 − a2 x2 = b3 x3 − b′3 x′3 ,
da cui segue che le rette P1 P1′ , P2 P2′ , P3 P3′ passano per il punto U = [a1 x1 −
a′1 x′1 ].
Osservazione 6.3 In P 2 (V) la parte diretta del teorema di Desargues: se
due triangoli sono prospettivi da un punto, allora sono prospettivi da una
retta e la parte inversa: se due triangoli sono prospettivi da una retta, allora
sono prospettivi da un punto, sono duali l’una dell’altra. Ed allora, per il
principio di dualità (teorema 2.7), in P 2 (V) basta dimostrare solo una delle
due.
2. Si ha il seguente
Teorema 6.4 (di Pappo). Siano R, R′ rette distinte del piano proiettvo
P 2 (V) e siano P1 , P2 , P3 punti distinti di R e P1′ , P2′ , P3′ punti distinti di R′ .
Allora i punti
Q1 = P2 P3′ ∩ P2′ P3 ,
sono allineati.
Q2 = P1 P3′ , ∩P1′ P3
Q3 = P1 P2′ ∩ P1′ P2
93
6 I TEOREMI DI DESARGUES E DI PAPPO
DIMOSTRAZIONE. Se P2′ = R ∩ R′ il teorema è banalmente vero. Supponiamo, allora, che sia P2′ 6= R ∩ R′ . I punti P1 , P2′ , P3 , Q2 costituiscono un
riferimento proiettivo di P 2 (V) e quindi (teorema 3.7) è possibile scegliere
una base (v1 , v2 , v3 ) di V in modo che sia
P1 = [v1 ],
P2′ = [v2 ],
P3 = [v3 ],
Q2 = [q2 ],
con
(5)
q2 = v1 + v2 + v3 .
Essendo P2 allineato con P1 , P3 si ha P2 = [p2 ] con
(6)
p2 = av1 + v3 ,
a ∈ K;
essendo P1′ allineato con Q2 , P3 si ha P1′ = [p′1 ] con
(7)
p′1 = q2 + b′ v3 = v1 + v2 + v3 + b′ v3 = v1 + v2 + bv3
(b = 1 + b′ ).
Essendo P3′ allineato con P1′ , P2′ e tenendo conto della (7), si ha P3′ = [p′ 3 ]
con
p′ 3 = p′ 1 + c′ v2 = v1 + v2 + bv3 + c′ v2 = v1 + cv2 + bv3
(c = 1 + c′ ).
P3
b
P2
b
P1
b
Q1
Q3
Q2
b
b
b
P1′
P2′
P3′
Per la (5) risulta
p′ 3 = v1 + cv2 + b(q2 − v1 − v2 ) = (1 − b)v1 + (c − b)v2 + bq2
6 I TEOREMI DI DESARGUES E DI PAPPO
94
e poiché P3′ è allineato con P1 , Q2 deve essere c = b e quindi
(8)
p′ 3 = v1 + bv2 + bv3 .
Essendo Q1 allineato con P2 , P3′ e tenendo conto delle (6) e (8), si ha Q1 =
[q1 ] con
q1 = p2 + dp′ 3 = av1 + v3 + d(v1 + bv2 + bv3 ) = (a + d)v1 + dbv2 + (1 + db)v3
e poiché Q1 è allineato con P2′ , P3 , deve essere d = −a e quindi
(9)
q1 = −abv2 + (1 − ab)v3 .
Essendo Q3 allineato con P1′ , P2 e tenendo conto delle (6) e (7), si ha Q3 =
[q3 ] con
q3 = p′ 1 + mp2 = v1 + v2 + bv3 + m(av1 + v3 ) = (1 + ma)v1 + v2 + (b + m)v3
e poiché Q3 è allineato con P1 , P2 , deve essere m = −b; quindi
(10)
q3 = (1 − ab)v1 + v2 .
Dalle (5), (9) e (10) segue che
q1 + (ab − 1)q2 + q3 = 0
e perciò Q1 , Q2 , Q3 sono allineati.
Diamo un’altra dimostrazione del teorema di Pappo usando un risultato
nello spazio affine.
Teorema 6.5 (Pappo affine). Siano R, R′ rette distinte del piano affine
A2 e siano P1 , P2 , P3 punti distinti di R e P1′ , P2′ , P3′ punti distinti di R′ ,
nessuno dei quali comune ad R, R′ . Se P1 P2′ è parallela a P1′ P2 e P2 P3′ è
parallela a P2′ P3 allora P1 P3′ e P1′ P3 sono parallele.
DIMOSTRAZIONE. Nel caso che R, R′ non siano parallele diciamo O il loro
punto comune.
95
6 I TEOREMI DI DESARGUES E DI PAPPO
P3
b
P2
b
P1
b
O
b
b
b
P3′
P2′
P1′
Per il teorema di Talete si ha:
OP2 = hOP1
OP3 = kOP2
OP1′ = hOP2′
OP2′ = kOP3′
dove 0 6= h, k ∈ K . Segue:
OP3 = kOP2 = khOP1
OP1′ = hOP2′ = hkOP3′
e quindi P3 P1′ = hkP1 P3′ , cioè P3 P1′ è parallela a P1 P3′ . Se R, R′ sono
parallele allora P1 P2 P1′ P2′ e P2 P3 P2′ P3′ sono parallelogrammi e quindi anche
P1 P3 P1′ P3′ ; segue la tesi.
2a DIMOSTRAZIONE del Teorema di Pappo. Consideriamo la retta Q1 Q3 =
S ; P(V) − S è uno spazio affine in cui P2 P3′ è parallela a P2′ P3 e P1 P2′ è
parallela a P1′ P2 . Per il teorema di Pappo affine risulta P1 P3′ parallela a
P3 P1′ , cioè P1 P3′ ∩ P3 P1′ ∈ S .
Per il principio di dualità (teorema 2.7) si ha il seguente teorema, duale
di quello di Pappo.
Teorema 6.6 Siano P, P ′ due punti distinti del piano proiettivo e siano R1 ,
R2 , R3 rette distinte passanti per P e R′ 1 , R′ 2 , R′ 3 rette distinte passanti
per P ′ . Le rette
S1 = R2 ∩R′ 3 +R′ 2 ∩R3 ,
sono concorrenti.
S2 = R1 ∩R′ 3 +R′ 1 ∩R3 ,
S3 = R1 ∩R′ 2 +R′ 1 ∩R2
96
7 BIRAPPORTI
P′
P
R2
S3
R′3
S2
R′2
R3
S1
R′1
R1
7. Birapporti. Quaterne armoniche. Involuzioni sulla retta.
1. Sia L una retta di P(V) con V spazio vettoriale su un campo di
caratteristica 6= 2.
Definizione 7.1 Se P1 , P2 , P3 , P4 sono punti di L, con P1 , P2 , P3 distinti,
P4 6= P1 , e (x1 , x2 ) sono coordinate proiettive omogenee di P4 nel riferimento
x1
proiettivo (P1 , P2 , P3 ), l’ascissa proiettiva non omogenea x =
di P4 nel
x2
riferimento proiettivo (P1 , P2 , P3 ) si chiama birapporto dei punti P1 , P2 , P3 , P4 ,
in quest’ordine, e si denota (P1 P2 P3 P4 ).
Osservazione 7.2 Il birapporto di 4 punti è invariante per proiettività.
Segue subito dall’esempio 4.14.
Nel sottospazio di V che definisce L esistono due vettori u1 , u2 tali che P1 =
[u1 ], P2 = [u2 ], P3 = [u1 + u2 ] (teorema 3.7). Ed allora (P1 P2 P3 P4 ) = x se e
solo se P4 = [xu1 + u2 ] da cui il teorema seguente.
Teorema 7.3 Siano P1 , P2 , P3 punti distinti di una retta proiettiva L. Per
ogni elemento k ∈ K esiste uno ed un solo punto P di L distinto da P1 tale
che (P1 P2 P3 P ) = k .
97
7 BIRAPPORTI
In particolare risulta
(P1 P2 P3 P ) = 0 ⇐⇒ P = P2
(P1 P2 P3 P ) = 1 ⇐⇒ P = P3 .
Da ciò segue il seguente
Corollario 7.4 I punti P1 , P2 , P3 , P4 della retta proiettiva L sono distinti se
e solo se il birapporto (P1 P2 P3 P4 ) è distinto da 0 e da 1.
Teorema 7.5 Sia (E1 , E2 , E) un riferimento proiettivo su una retta proiettiva L e siano
Pi = (yi, zi )
i = 1, 2, 3, 4,
punti di L, con P1 , P2 , P3 distinti e P4 6= P1 . Si ha
y1 z1 y2 z2 y3 z3 y4 z4 (P1 P2 P3 P4 ) = y2 z2 .
y
z
1
1
y4 z4 y3 z3 DIMOSTRAZIONE. Esiste una base (u1 , u2 ) dello spazio vettoriale L che
definisce L in modo che (teorema 3.7)
P1 = [u1 ],
P2 = [u2 ],
P3 = [u1 + u2 ],
e si ha
(P1 P2 P3 P4 ) =
P4 = [x1 u1 + x2 u2 ]
x1
.
x2
Essendo Pi = (yi, zi ), esiste una base (e1 , e2 ) di L tale che
E1 = [e1 ],
ed allora si ha
E2 = [e2 ],
E = [e1 + e2 ],
Pi = [yi e1 + zi e2 ]
[y1 e1 + z1 e2 ]
= [u1 ],
[y2 e1 + z2 e2 ]
= [u2 ],
[y3 e1 + z3 e2 ]
= [u1 + u2 ],
[y4 e1 + z4 e2 ] = [x1 u1 + x2 u2 ].
Poiché
e1 = au1 + bu2 ,
e2 = cu1 + du2
con ad − bc 6= 0, risulta
yie1 + zi e2
= yi (au1 + bu2 ) + zi (cu1 + du2 )
= (ayi + czi )u1 + (byi + dzi )u2 ,
i = 1, 2, 3, 4
98
7 BIRAPPORTI
e quindi
by1 + dz1
ay2 + cz2
ay3 + cz3
ay4 + cz4
by4 + dz4
La matrice dei coefficienti delle prime

0
y1
 y2
0
y3 −y3
=0
=0
= by3 + dz3
x1
= .
x2
tre equazioni in a, b, c, d è

0
z1
z2
0 .
z3 −z3
Essa ha caratteristica 3. Infatti, il suo minore
y2 z2 y3 z3 è non nullo perché P2 6= P3 . I due minori
0
y1 0 y2 z2 y2
0 z2 = −y1 y
z
3
3
y3 −y3 z3 d’ordine 3 che lo contengono sono
0 0
z1 y2 z2 y2 z2
0 = z1 y
z
3
3
y3 z3 −z3 ed uno di essi è non nullo perché uno dei due elementi y1 , z1 è non nullo.
Risolvendo il sistema si trova che è una soluzione non nulla
y1 z1 y2 z2 y1 z1 y2 z2 ,
a = −z2 , b = −z1 , c = y2 , d = y1 y3 z3 y3 z3 y3 z3 y3 z3 ed allora risulta
y
ay4 + cz4 = −z2 y4 1
y3
y
by4 + dz4 = −z1 y4 2
y3
da cui il teorema.
y1
z1 +
y
z
2
4
y3
z3 y
z2 + y1 z4 2
z3
y3
z1 y1
=
z3 y3
z2 y2
=
z3 y3
z1 y2
z3 y4
z2 y1
z3 y4
z2 z4 z1 z4 Corollario 7.6 Se P1 , P2 , P3 , P4 sono come nel teorema 7.5 e xi è l’ascissa
proiettiva non omogenea di Pi nel riferimento proiettivo (E1 , E2 , E), si ha
(P1 P2 P3 P4 ) =
(x1 − x3 )(x2 − x4 )
.
(x1 − x4 )(x2 − x3 )
99
7 BIRAPPORTI
Corollario 7.7 Siano P1 , P2 , P3 , P4 punti distinti di una retta proiettiva e
sia (P1 P2 P3 P4 ) = k . Allora:
1) Il birapporto non cambia se si scambiano tra loro due punti e contemporaneamente si scambiano gli altri due;
2) Il birapporto cambia nel suo inverso 1/k se si scambiano tra loro i primi
due punti o gli ultimi due;
3) Il birapporto cambia in 1 − k se si scambiano tra loro il primo punto col
quarto o il secondo col terzo.
DIMOSTRAZIONE. È una immediata verifica, utilizzando il teorema 7.5.
Fissati su R quattro punti distinti P1 , P2 , P3 , P4 , per ogni loro permutazione si ottiene un birapporto e quindi se ne ottengono 24. Se (P1 P2 P3 P4 ) = k ,
per il corollario 7.7 i 24 birapporti sono
(P1 P2 P3 P4 )
(P1 P2 P4 P3 )
(P1 P3 P2 P4 )
(P1 P3 P4 P2 )
(P1 P4 P2 P3 )
(P1 P4 P3 P2 )
= (P2 P1 P4 P3 ) = (P3 P4 P1 P2 ) = (P4 P3 P2 P1 ) = k
1
= (P2 P1 P3 P4 ) = (P4 P3 P1 P2 ) = (P3 P4 P2 P1 ) =
k
= (P3 P1 P4 P2 ) = (P2 P4 P1 P3 ) = (P4 P2 P3 P1 ) = 1 − k
1
= (P3 P1 P2 P4 ) = (P4 P2 P1 P3 ) = (P2 P4 P3 P1 ) =
1−k
k−1
= (P4 P1 P3 P2 ) = (P2 P3 P1 P4 ) = (P3 P2 P4 P1 ) =
k
k
.
= (P4 P1 P2 P3 ) = (P3 P2 P1 P4 ) = (P2 P3 P4 P1 ) =
k−1
Osservazione 7.8 Se i punti P1 , P2 , P3 , P4 di R sono distinti e (P1 P2 P3 P4 )
= k , allora k 6= 0, 1 (corollario 7.4) ed i birapporti che con essi si ottengono
sono gli elementi dell’insieme
1
1
k−1 k
Hk = k, , 1 − k,
.
,
,
k
1−k
k
k−1
Imponendo in tutti i modi che due elementi di Hk coincidano e tenendo conto
del fatto che k 6= 0, 1, si trova che essi sono tutti distinti per
k 6= −1,
1
,
2
2,
ε1 ,
ε2 ,
dove ε1 e ε2 sono le eventuali radici in K del polinomio t2 − t + 1 ∈ K[t].
100
7 BIRAPPORTI
Pur essendo il birapporto di quattro punti un elemento significativo, in certe
occasioni non è adatto in quanto dipende dall’ordine in cui i punti vengono
considerati. Un elemento che non dipende dall’ordine dei punti è
j(k) =
(k 2 − k + 1)3
.
k 2 (k − 1)2
Si ha infatti il
Lemma 7.9 Sia k ∈ K , k 6= 0, 1, e sia
1
k−1 k
1
.
,
,
Hk = k, , 1 − k,
k
1−k
k
k−1
La funzione razionale
j(t) =
(t2 − t + 1)3
∈ K(t)
t2 (t − 1)2
è tale che se, k ′ ∈ K , risulta j(k ′ ) = j(k) se e solo se k ′ ∈ Hk .
DIMOSTRAZIONE. Si verifica, senza difficoltà, che
1
j
= j(t) = j(1 − t)
t
e quindi
Poiché
1
1
j(k) = j
= j(1 − k) = j
.
k
1−k
k−1
1
=1− ,
k
k
1
k−1
=j
= j(k)
j
k
k
si ha
e quindi anche
j
k
k−1
=j
k−1
k
= j(k).
Quindi, per ogni k ′ ∈ Hk risulta j(k ′ ) = j(k).
Sia ora k ′ ∈ K tale che
j(k ′ ) =
(k ′2 − k ′ + 1)3
= j(k).
k ′2 (k ′ − 1)2
101
7 BIRAPPORTI
Allora k ′ è radice del polinomio
f (t) = (t2 − t + 1)3 − j(k)t2 (t − 1)2 .
Tutti gli elementi di Hk sono radici di f (t) ed allora:
1) Se k 6= −1, 21 , 2, ε1, ε2 , gli elementi di Hk sono tutti distinti (osservazione 7.8); essendo essi di numero uguale al grado di f (t), k ′ deve essere uno
di essi, cioè k ′ ∈ Hk .
2) Se k = −1, 12 , 2, poiché
1
27
j(−1) = j
= j(2) = ,
2
4
il polinomio f (t) diviene
f (t) = (t2 − t + 1)3 −
Si ha
H−1 = H 1 = H2 =
2
27 2
t (t − 1)2 .
4
1
−1, , 2
2
e si verifica che −1, 12 , 2 sono radici doppie3 del polinomio f (t) e quindi
2
1
2
(t − 2)2
f (t) = (t + 1) t −
2
Esse costituiscono le 6 radici di f (t), quindi k ′ è una di esse e perciò k ′ ∈ Hk .
3) Se k ′ = ε1 , ε2 si ha j(k) = 0 e quindi il polinomio f (t) diviene
f (t) = (t2 − t + 1)3 = (t − ε1 )3 (t − ε2 )3 .
Ed allora k ′ = ε1 oppure k ′ = ε2 . Essendo ε1 + ε2 = 1, ε1 ε2 = 1, in quanto
ε1 , ε2 sono radici di t2 − t + 1, si verifica subito che
Hε1 = Hε2 = {ε1 , ε2 }
e perciò anche in questo caso k ′ ∈ Hk .
Definizione 7.10 Se P1 , P2 , P3 , P4 sono quattro punti distinti di una retta
proiettiva e (P1 P2 P3 P4 ) = k , l’elemento j(k), che non dipende dall’ordine in cui i quattro punti sono considerati, si chiama modulo della quaterna
{P1 , P2 , P3 , P4 } e si denota j(P1 , P2 , P3 , P4 ).
3
Che siano radici doppie per f (t) segue osservando che sono anche radici del polinomio
derivato primo f ′ (t) di f (t) ma non sono radici del polinomio derivato secondo f ′′ (t)
(capitolo V, teorema 1.5).
102
7 BIRAPPORTI
Siano R1 , R2 , R3 , R4 rette di un fascio Γ di centro il punto U , con R1 , R2 , R3
distinte e R4 6= R1 . Sia S una retta appartenente al piano di Γ non passante
per U e sia
Pi = Ri ∩ +S,
i = 1, 2, 3, 4.
U
P1
S
S
′
P1′
R1
P2
P2′
R2
P3
P4
P4′
P3′
R3
R4
I punti P1 , P2 , P3 sono distinti e P4 6= P1 . Il birapporto (P1 P2 P3 P4 ) non
varia al variare della retta S , purché non passante per U . Infatti, se S ′ è
un’altra retta non passante per U , i punti
Pi′ = Ri ∩ S ′ ,
i = 1, 2, 3, 4,
sono i corrispondenti dei punti P1 , P2 , P3 , P4 nella proiezione di S su S ′ da
U , che è una proiettività (esempio 4.3) e quindi (osservazione 7.2) si ha
(P1 P2 P3 P4 ) = (P1′ P2′ P3′ P4′ ).
Il birapporto dei punti P1 , P2 , P3 , P4 , che non dipende dalla retta S , è
invariante per proiettività e si può assumere come birapporto delle rette
R1 , R2 , R3 , R4 ; diamo, perciò la seguente
Definizione 7.11 Si chiama birapporto delle rette R1 , R2 , R3 , R4 del fascio Γ, in quest’ordine, e si denota (R1 R2 R3 R4 ), il birapporto dei punti
P1 , P2 , P3 , P4 loro intersezione con una retta S non appartenente a Γ. E,
se le rette sono distinte, il modulo della quaterna di punti {P1 , P2 , P3 , P4 } si
chiama modulo della quaterna {R1 , R2 , R3 , R4 } e si denota j(R1 R2 R3 R4 ).
2. I punti diagonali di un quadrangolo completo, in un piano proiettivo P 2 (V),
sono i punti intersezione delle coppie di lati opposti.
103
7 BIRAPPORTI
Lemma 7.12 I punti diagonali di un quadrangolo completo non sono allineati.
DIMOSTRAZIONE. I vertici A1 , A2 , A3 , A4 del quadrangolo costituiscono un
riferimento proiettivo in P 2 (V)
B1
B3
A1
A2
B2
A4
A3
e quindi (teorema 3.7) esiste una base (u1 , u2 , u3 ) di V tale che
Ai = [ui ],
u4 = u1 + u2 + u3 ,
i = 1, 2, 3, 4.
Da cui seguono le
(1)
u1 + u2 = u4 − u3 ,
(2)
u1 + u3 = u4 − u2 ,
(3)
u2 + u3 = u4 − u1 .
Il punto [u1 + u2 ] appartiene alla retta A1 A2 e la (1) esprime che esso
appartiene alla retta A3 A4 e quindi è il punto diagonale
B3 = A1 A2 ∩ A3 A4 .
Similmente, dalle (2) e (3) segue che [u1 + u3 ] e [u2 + u3 ] sono i punti
diagonali
B2 = A1 A3 ∩ A2 A4
B1 = A2 A3 ∩ A1 A4 .
104
7 BIRAPPORTI
Per dimostrare che B1 , B2 , B3 non sono allineati basta dimostrare che i vettori
u1 + u2 , u1 + u3 , u2 + u3 sono linearmente indipendenti.
Sia
a1 (u2 + u3 ) + a2 (u1 + u3 ) + a3 (u1 + u2 ) = 0;
allora
(a2 + a3 )u1 + (a1 + a3 )u2 + (a1 + a2 )u3 = 0
e poiché u1 , u2 , u3 sono linearmente indipendenti, deve essere
a2 + a3 = a1 + a3 = a1 + a2 = 0.
Essendo il determinante
0 1 1
1 0 1 = 2
1 1 0
non nullo, perché la caratteristica di K è 6= 2, deve essere
a1 = a2 = a3 = 0
e quindi i punti B1 , B2 , B3 non sono allineati.
Osservazione 7.13 Un quadrilatero completo nel piano proiettivo è la figura
duale di un quadrangolo completo. Le congiungenti coppie di vertici opposti
sono le rette diagonali del quadrilatero.
Dal lemma 7.12, per il principio di dualità (teorema 2.7) segue che: Le
rette diagonali di un quadrilatero completo non sono concorrenti.
Definizione 7.14 Si dice che 4 punti distinti allineati P1 , P2 , P3 , P4 costituiscono una quaterna armonica se e solo se esiste un quadrangolo completo di
cui due lati opposti passano per P1 , altri due lati opposti passano per P2 ed
i rimanenti lati opposti passano uno per P3 ed uno per P4 .
Assegnati 3 punti distinti P1 , P2 , P3 , su una retta proiettiva R, è possibile
costruire un punto P4 in modo che la quaterna P1 , P2 , P3 , P4 sia armonica.
Considerate due rette R1 , R2 passanti per P1 , distinte tra loro e distinte da
R, sia A1 6= P1 un punto di R1 e siano
A2 = R2 ∩ P3 A1 ,
A3 = R2 ∩ P2 A1 ,
A4 = R1 ∩ P2 A2 .
Il punto P4 = R ∩ A3 A4 è tale che P1 , P2 , P3 , P4 è una quaterna armonica.
Tale costruzione coinvolge scelte arbitrarie di rette e punti, tuttavia il punto
P4 non dipende da tali scelte, per il teorema seguente.
105
7 BIRAPPORTI
A3
A2
A4
P1
P4
A′4
A1
P2
P3
A′1
A′2
A′3
Teorema 7.15 Siano P1 , P2 , P3 punti distinti di una retta proiettiva R. Vi
è uno ed un solo punto P4 di R tale che P1 , P2 , P3 , P4 sia una quaterna
armonica.
DIMOSTRAZIONE. Siano A1 A2 A3 A4 e A′1 A′2 A′3 A′4 due quadrangoli costruiti
col procedimento sopra descritto per la determinazione di un punto P4 in
modo da costituire con P1 , P2 , P3 una quaterna armonica. Si deve dimostrare
che le rette A3 A4 e A′3 A′4 si intersecano su R.
I triangoli A1 A2 A3 e A′1 A′2 A′3 sono prospettivi da R e quindi sono prospettivi da un punto O (teorema di Desargues), cioè le rette A1 A′1 , A2 A′2 , A3 A′3
si intersecano in O .
I triangoli A1 A2 A4 e A′1 A′2 A′4 sono prospettivi da R e quindi sono prospettivi da un punto; tale punto è quello in cui si intersecano le rette A1 A′1 , A2 A′2 ,
cioè O .
Ma allora i triangoli A1 A3 A4 e A′1 A′3 A′4 sono prospettivi da O e perciò
sono prospettivi da una retta (teorema di Desargues). Poiché
A1 A3 ∩ A′1 A′3 = P2
A1 A4 ∩ A′1 A′4 = P1 ,
le rette A3 A4 e A′3 A′4 si intersecano sulla retta P1 P2 = R.
106
7 BIRAPPORTI
Teorema 7.16 I punti P1 , P2 , P3 , P4 di una retta proiettiva costituiscono una
quaterna armonica se e solo se (P1 P2 P3 P4 ) = −1.
DIMOSTRAZIONE. Supponiamo che i punti P1 , P2 , P3 , P4 costituiscano una
quaterna armonica e sia A1 A2 A3 A4 il quadrangolo che la definisce come nella
precedente figura. Sia S = A1 A2 ∩ A3 A4 . I punti P1 , P2 , P3 , P4 sono rispettivamente i corrispondenti dei punti A2 , A1 , P3 , S nella proiezione π della retta
A1 P3 da A3 sulla retta P1 P2 , mentre i punti P2 , P1 , P3 , P4 sono rispettivamente i corrispondenti dei punti A2 , A1 , P3 , S nella proiezione σ della retta
A1 P3 da A4 . Le proiezioni π, σ sono proiettività (esempio 4.3) e quindi σπ −1
è una proiettività (teorema 4.11). Poiché P1 , P2 , P3 , P4 sono i corrispondenti
di P2 , P1 , P3 , P4 nella proiettività σπ −1 si ha (osservazione 7.2)
(P1 P2 P3 P4 ) = (P2 P1 P3 P4 ).
Ed allora, se (P1 P2 P3 P4 ) = k , per il corollario 7.7 deve essere k = 1/k , ossia
k 2 = 1. Poiché i punti Pi sono distinti non può essere k = 1 (corollario 7.4)
e perciò k = −1.
Viceversa, se (P1 P2 P3 P4 ) = −1 e P4′ è il punto tale che P1 , P2 , P3 , P4′ è una
quaterna armonica, per la prima parte del teorema deve essere (P1 P2 P3 P4′ ) =
−1. Per il teorema 7.3 è, allora, P4′ = P4 .
3. Sia R una retta proiettiva.
Definizione 7.17 Si dice involuzione su R una proiettività non identica ω
di R tale che ω 2 = I , dove I è la proiettività identica.
Sia ω un’involuzione su R. Se A è un punto di R e B = ω(A) si ha
ω(B) = A. Infatti, A = ω 2 (A) = ω(ω(A)) = ω(B).
Scelto su R un riferimento proiettivo, una proiettività ω di R di equazioni
′
ρx1 = a11 x1 + a12 x2
ρx′2 = a21 x1 + a22 x2
è un’involuzione se e solo se a22 = −a11 .
Infatti, sia
a11 a12
M=
;
a21 a22
ω è un’involuzione se e solo se M 2 = kI con 0 6= k ∈ K ed I la matrice
identica, cioè se e solo se
a211 + a12 a21 = a21 a12 + a222 ,
a11 a12 + a12 a22 = a21 a11 + a22 a21 = 0.
107
7 BIRAPPORTI
La prima relazione è soddisfatta se e solo se a22 = ±a11 . Se a22 = a11 6= 0, le
altre due sono soddisfatte se e solo se a12 = a21 = 0, cioè ω = I . Allora ω è
un’involuzione se e solo se a22 = −a11 .
Le equazioni di un’involuzione su R sono
′
ρx1 = a11 x1 + a12 x2
.
(4)
ρx′2 = a21 x1 − a11 x2
In coordinate non omogenee
x=
x1
,
x2
x′ =
x′1
,
x′2
l’involuzione ha equazione
x′ =
a11 x + a12
a21 x − a11
od anche
a21 xx′ − a11 (x + x′ ) − a12 = 0.
Lemma 7.18 Se il campo K è algebricamente chiuso, una involuzione su
una retta proiettiva R ha due punti uniti distinti.
DIMOSTRAZIONE. Siano le (4) le equazioni dell’involuzione ω . Essa è
indotta dall’ automorfismo f che ha come matrice
a11 a12
a21 −a11
e quindi il polinomio caratteristico di f è
x − a11
−a12 = x2 − (a211 + a21 a12 ).
∆(x) = −a21
x + a11 Poiché a211 + a21 a12 6= 0, ∆(x) ha 2 radici distinte in K , quindi f ha due
autospazi distinti di dimensione 1 e perciò ω ha due punti uniti distinti.
Lemma 7.19 Siano P1 , P2 , P3 , P4 punti di una retta proiettiva R e P1′ , P2′ ,
P3′ , P4′ punti di una retta proiettiva R′ tali che (P1 P2 P3 P4 ) = (P1′ P2′ P3′ P4′ ).
Esiste una ed una sola proiettività
ω : R → R′
tale che
ω(Pi) = Pi′ ,
i = 1, 2, 3, 4.
108
7 BIRAPPORTI
DIMOSTRAZIONE. I punti P1 , P2 , P3 sono distinti e P4 6= P1 e, similmente,
i punti P1′ , P2′ , P3′ sono distinti e P4′ 6= P1′ . Per il teorema 4.6, esiste una ed
una sola proiettività
ω : R → R′
tale che
ω(Pi) = Pi′,
per i = 1, 2, 3.
Sia Q′ = ω(P4); essendo il birapporto invariante per proiettività (osservazione
7.2) si ha
(P1 P2 P3 P4 ) = (P1′ P2′ P3′ Q′ ) = (P1′ P2′ P3′ P4′ )
e quindi, per il teorema 7.3, si ha Q′ = P4′ .
Teorema 7.20 Se U, V sono punti uniti di un’involuzione ω su una retta
proiettiva R e P, Q sono punti corrispondenti uno dell’altro in ω , allora
U, V, P, Q è una quaterna armonica. Viceversa, se U, V, P, Q è una quaterna
armonica di punti di R, esiste una ed una sola involuzione ω su R per la
quale U, V sono i punti uniti e P, Q sono corrispondenti uno dell’altro.
DIMOSTRAZIONE. Se (UV P Q) = k , si ha (UV QP ) = 1/k (corollario 7.7).
D’altra parte, essendo il birapporto invariante per proiettività (osservazione
7.2), si ha (UV QP ) = k e quindi deve essere k = 1/k , ossia k = ±1. Deve
essere k = −1 in quanto per k = 1 si ha Q = P = ω(P ) e ciò è assurdo
perché ω non è la proiettività identica. Per il teorema 7.16, U, V, P, Q è una
quaterna armonica.
Viceversa, sia U, V, P, Q una quaterna armonica. Si ha (UV P Q) = −1
per il teorema 7.16 e (UV QP ) = −1 per il corollario 7.7. Per il lemma 7.19
esiste una ed una sola proiettività ω che trasforma U, V, P, Q rispettivamente
in U, V, Q, P . Risulta
ω 2 (U) = U,
ω 2 (V ) = V,
ω 2 (P ) = ω(ω(P )) = ω(Q) = P
e quindi ω 2 ha tre punti uniti distinti; ne segue che ω 2 = I (corollario 4.8) e
perciò ω è un’involuzione.
CAPITOLO V
IPERSUPERFICI ALGEBRICHE
1. Polinomi derivati.
1. Sia A un dominio d’integrità fattoriale e sia K il suo campo delle
frazioni che supporremo sempre di caratteristica 0. Sia A[x] l’anello dei
polinomi nell’indeterminata x a coefficienti in A. Se
F =
n
X
i=0
il polinomio
′
F =
ai xi ∈ A[x],
n
X
iai xi−1
i=1
è il derivato di F .
Risulta F ′ = 0 se e solo se F è costante.
Teorema 1.1 Se F, G ∈ A[x] risulta:
1) (F + G)′ = F ′ + G′ ;
2) (aF )′ = aF ′ , se a ∈ A;
3) (F G)′ = F ′ G + F G′ ;
4) (F k )′ = kF k−1F ′ per ogni intero k > 0.
DIMOSTRAZIONE. 1) Sia
F =
n
X
i
ai x ,
G=
i=0
m
X
bj xj .
j=0
Uno dei due interi m, n non supera l’altro; supponiamo che sia n ≤ m. Allora
F +G=
n
X
i
(ai + bi )x +
i=0
m
X
bj xj
j=n+1
e quindi
′
(F +G) =
n
X
i=1
i−1
i(ai +bi )x
+
m
X
j=n+1
j−1
jbj x
=
n
X
i=1
i−1
iai x
+
m
X
j=1
jbj xj−1 = F ′ +G′
110
1 POLINOMI DERIVATI
2) È immediata.
3) Il coefficiente di xi+j nel prodotto F G è
(a0 bi+j + a1 bi+j−1 + · · · + ai+j b0 )xi+j
(ah = 0 se h > n e bk = 0 se k > m)
e quindi i coefficienti di xi+j−1 in (F G)′ , in F ′ G e in F G′ sono rispettivamente
γi+j = (i + j)(a0 bi+j + a1 bi+j−1 + · · · + ai+j b0 ),
αi+j = a1 bi+j−1 + 2a2 bi+j−2 + · · · + (i + j)ai+j b0 ,
βi+j = (i + j)a0 bi+j + (i + j − 1)a1 bi+j−1 + · · · + ai+j−1 b1 .
Si verifica subito che
γi+j = αi+j + βi+j .
4) È vera per k ≤ 2; per k = 1 banalmente, per k = 2 in quanto
(F ) = F F ′ + F ′ F = 2F F ′ . Sia k > 2 e procediamo per induzione su k ,
supponendo che la 4) sia vera per ogni intero h < k . Allora
2 ′
(F k )′ = (F k−1 F )′ = (F k−1 )′ F + F k−1F ′
= ((k − 1)F k−2F ′ )F + F k−1 F ′ = (k − 1)F (k−1) F ′ + F k−1 F ′
= kF k−1 F ′ .
Sia t un’altra indeterminata e sia Q(t) un polinomio in t a coefficienti in A[x]. Denotando con (F (Q(t)))′ il polinomio derivato del polinomio
F (Q(t)) ∈ A[x, t] rispetto a t si ha il
Teorema 1.2 (F (Q(t)))′ = F ′ (Q(t))Q′ (t).
P
DIMOSTRAZIONE. Se F (x) = ni=0 ai xi , per il teorema 1.1 si ha
!′
n
n
X
X
′
i
(F (Q(t))) =
ai Q (t) =
ai (Qi (t))′
=
i=0
n
X
i=1
i−1
iai Q
i=1
′
′
(t)Q (t) =
n
X
iai Q
i=1
′
= F (Q(t))Q (t).
i−1
!
(t) Q′ (t)
Per ogni intero s ≥ 0 risulta definito il derivato s-mo o di ordine s, F (s) ,
di F ponendo
F (0) = F,
F (s) = (F (s−1) )′ (s > 0).
Se F ha grado n risulta F (s) = 0 per s > n.
Il derivato di ordine 2 di F si denota anche F ′′ .
111
1 POLINOMI DERIVATI
Teorema 1.3 Sia F (x) ∈ K[x] di grado n. Se h ∈ K , si ha
n
X
F (i) (h)
(x − h)i .
(1)
F (x) =
i!
i=0
DIMOSTRAZIONE. Sia
F (x + h) =
n
X
bi xi ;
i=0
allora
F (i) (x + h) = i!bi + xG(x),
G(x) ∈ A[x]
e quindi, per x = 0 si ha
F (i) (h) = i!bi .
Ne segue che
F (x + h) =
n
X
F (i) (h)
i=0
i!
xi ,
da cui, sostituendo x con x − h, si ottiene la (1).
La (1) è la formula di Taylor di F (x) di punto iniziale h; nel caso
particolare h = 0 essa diviene
n
X
F (i) (0) i
F (x) =
x,
i!
i=0
che è la formula di Mac Laurin di F (x).
Se ϕ è una funzione razionale in x, cioè un elemento del campo K(x)
delle frazioni di K[x], si può scrivere ϕ = F/G con F, G ∈ K[x] e G 6= 0.
La funzione razionale
F ′ G − F G′
G2
non dipende dalla particolare coppia di polinomi F, G tali che ϕ = F/G.
Basta dimostrarlo per ϕ 6= 0.
Se F0 , G0 ∈ K[x] sono tali che ϕ = F0 /G0 e primi tra loro, essendo F G0 =
F0 G, ogni fattore di F0 divide F e quindi F = QF0 con 0 6= Q ∈ K[x], da
cui QF0 G0 = F0 G e quindi G = QG0 . Allora si ha
(QF0 )′ (QG0 ) − (QF0 )(QG0 )′
F ′ G − F G′
=
G2
Q20 G20
Q′ F0 QG0 + Q2 F0′ G0 − QF0 Q′ G0 − Q2 F0 G′0
=
Q2 G20
F0′ G0 − F0 G′0
.
=
G20
(2)
ϕ′ =
112
1 POLINOMI DERIVATI
La funzione razionale ϕ′ espresso mediante la (2) è la derivata di ϕ.
In modo ovvio, per ogni intero s ≥ 0 si definisce la derivata di ordine s o
derivata s-ma ϕ(s) di ϕ, ponendo
ϕ(s) = (ϕ(s−1) )′
ϕ(0) = ϕ,
(s > 0).
Osservazione 1.4 È di immediata verifica che i teoremi 1.1 e 1.2 sussistono
anche se si sostituiscono i polinomi F e G con funzioni razionali.
Teorema 1.5 Un elemento a ∈ K è radice di molteplicità s ≥ 1 per il
polinomio F (x) ∈ K[x] se e solo se
(3)
F (a) = F ′ (a) = · · · = F (s−1) (a) = 0,
F (s) (a) 6= 0.
DIMOSTRAZIONE. Se a è radice di molteplicità s ≥ 1 per F (x) si ha
F (x) = (x − a)s G(x),
G(x) ∈ K[x],
G(a) 6= 0.
Se s = 1 le (3) sono vere perché F ′ (x) = G(x) + (x − a)G′ (x) e quindi
F ′ (a) = G(a) 6= 0. Sia s > 1 e procediamo per induzione su s, supponendo
che le (3) sussistano per ogni polinomio ed ogni sua radice di molteplicità
s − 1. Si ha
F ′ (x) = s(x − a)(s−1) G(x) + (x − a)s G′ (x) = (x − a)(s−1) G1 (x),
dove G1 (x) = sG(x) + (x − a)G′ (x). Poiché G1 (a) = sG(a) 6= 0, a è radice
di molteplicità s − 1 per il polinomio F ′ (x). Quindi
F ′ (a) = F ′′ (a) = · · · = (F ′ )(s−2) (a) = 0,
(F ′ )(s−1) (a) 6= 0
ed essendo (F ′ (x))(i) = (F (x))(i+1) si hanno le (3).
Viceversa, sia a ∈ K soddisfacente le (3). La formula di Taylor di F (x)
di punto iniziale a è (teorema 1.3)
F (x) = (x − a)s
X
k≥0
1
F (s+k)(a)(x − a)k
(s + k)!
e quindi, essendo F (s) (a) 6= 0, a è radice di molteplicità s per F (x).
2. Sia A[x1 , ..., xr ] l’anello dei polinomi nelle indeterminate x1 , ..., xr a
coefficienti in A. Se F ∈ A[x1 , ..., xr ], posto Ai = A[x1 , ..., xi−1 , xi+1 , ..., xr ],
si può scrivere
n
X
F =
am xm
am ∈ Ai .
i ,
m=0
113
1 POLINOMI DERIVATI
Il polinomio
n
X
∂F
=
mam xm−1
i
∂xi m=1
è il derivato parziale di F rispetto a xi .
Se ϕ è un elemento del campo K(x1 , . . . , xr ) delle frazioni di K[x1 , . . . , xr ]
e F, G ∈ K[x1 , . . . , xr ] sono tali che ϕ = F/G, il derivato parziale di ϕ
rispetto a xi è
∂G
∂F
−F
G
∂ϕ
∂xi
∂xi
=
.
2
∂xi
G
Teorema 1.6 Se F ∈ A[x1 , . . . , xr ] e Q1 (t), . . . , Qr (t) sono polinomi in una
indeterminata t a coefficienti in A[x1 , . . . , xr ], risulta
r
X
∂F
(Q1 (t), . . . , Qr (t))Q′h (t).
(F (Q1 (t), . . . , Qr (t)) =
∂x
h
h=1
′
DIMOSTRAZIONE. Ovviamente basta dimostrarlo nel caso in cui F è
un monomio del tipo F = xi11 · · · xirr ed in tal caso è una semplice verifica.
Corollario 1.7 Sia F = F (x1 , . . . , xr ) ∈ A[x1 , . . . , xr ]. Se t1 , . . . , ts sono
altre indeterminate su A e
xi =
s
X
aij tj + bi ,
aij , bi ∈ A,
j=1
G(t1 , . . . , ts ) = F
s
X
a1j tj + b1 , . . . ,
j=1
per ogni 1 ≤ i ≤ s risulta
r
∂G X ∂F
=
∂ti
∂xh
h=1
s
X
a1j tj + b1 , . . . ,
j=1
1 ≤ i ≤ r,
s
X
arj tj + br
j=1
s
X
j=1
arj tj + br
!
!
,
ahi .
DIMOSTRAZIONE. Considerando F in A[t1 , . . . , ti−1 , ti+1 , . . . , ts ][x1 , . . . ,
xr ] e posto
X
Qh (ti ) = ahi ti +
ahj tj + bh ,
1 ≤ h ≤ r,
j6=i
dal teorema 1.6 segue l’asserto.
114
2 COMPLEMENTI SUI POLINOMI
Osservazione 1.8 Il teorema 1.6 sussiste anche se si sostituiscono i polinomi F e Q1 , . . . , Qr rispettivamente con elementi ϕ ∈ K(x1 , . . . , xr ) e
ψ1 , . . . , ψr ∈ K(t) ed il suo corollario se si sostituisce F con ϕ.
Il polinomio
∂2F
∂ ∂F =
∂xj ∂xi
∂xj ∂xi
è il derivato parziale di ordine 2 o del secondo ordine di F rispetto a xi , xj .
In modo ovvio risultano definiti i polinomi derivati parziali di ordine s
∂sF
∂xis · · · ∂xi1
per ogni intero s > 0. Come di consueto, scriveremo
∂sF
∂xsi
invece di
∂sF
.
∂xi · · · ∂xi
Osservazione 1.9 È di immediata verifica, e basta farla nel caso che F sia
un monomio, che
∂2F
∂2F
=
.
∂xj ∂xi
∂xi ∂xj
2. Complementi sui polinomi.
1. Siano K ed A come nel § precedente.
Teorema 2.1 Siano x1 , . . . , xr e t1 , . . . , tr indeterminate su A. Se
(1)
xi =
r
X
aij tj + bi ,
j=1
aij , bi ∈ K,
1 ≤ i ≤ r,
con la matrice (aij ) non singolare, l’applicazione
ϕ : K[x1 , . . . , xr ] −→ K[t1 , . . . , tr ]
definita da
ϕ(F (x1 , . . . , xr )) = F
r
X
j=1
a1j tj + b1 , . . . ,
r
X
j=1
arj tj + br
!
per ogni F ∈ K[x1 , . . . , xr ] è un isomorfismo di anelli che conserva il grado
dei polinomi.
115
2 COMPLEMENTI SUI POLINOMI
DIMOSTRAZIONE. Per verificare che ϕ è un omomorfismo di anelli
bisogna verificare che se F, G ∈ K[x1 , . . . , xr ], si ha
(2)
ϕ(F + G) = ϕ(F ) + ϕ(G),
ϕ(F G) = ϕ(F )ϕ(G).
Le (2) basta verificarle nel caso che F e G sono monomi ed in tale caso
la verifica è immediata.
Essendo det(aij ) 6= 0, le (1) sono invertibili e le loro inverse
(3)
tj =
r
X
cjk xk + dj ,
k=1
1 ≤ j ≤ r,
definiscono un omomorfismo
ψ : K[t1 , . . . , tr ] −→ K[x1 , . . . , xr ]
tale che, per ogni H ∈ K[t1 , . . . , tr ]
ψ(H(t1 , . . . , tr )) = H
r
X
c1k xk + d1 , . . . ,
r
X
crk xk + dr
k=1
k=1
!
.
Essendo le (3) le inverse delle (1), si ha
r
X
j=1
aij
r
X
k=1
cjk xk + dj
!
+ bi = xi
e quindi
P
Pr
r
=
(ψϕ)(F (x1 , . . . , xr )) = ψ F
j=1 arj tj + br
j=1 a1j tj + b1 , . . . ,
P
P
P
P
r
r
r
r
=F
a
(
c
t
+
d
)
+
b
,
.
.
.
,
a
(
c
t
+
d
)
+
b
1j
jk
k
j
1
rj
jk
k
j
r
j=1
k=1
j=1
k=1
= F (x1 , . . . , xr );
cioè ψϕ è l’automorfismo identico di K[x1 , . . . , xr ]. Similmente ϕψ è l’automorfismo identico di K[t1 , . . . , tr ] e perciò ϕ è isomorfismo. Poiché i polinomi
(1) sono lineari, il grado del polinomio ϕ(F ) non supera quello di F . Similmente quello di F = (ψϕ)(F ) = ψ(ϕ(F )) non supera quello di ϕ(F ) e perciò
i gradi di F e ϕ(F ) sono uguali.
2. Un polinomio di A[x1 , . . . , xr ] è omogeneo di grado m ≥ 0 se e solo se
è somma di monomi di grado m, cioè è del tipo
X
i1 + · · · + ir = m.
ai1 ···ir xi11 · · · xirr ,
ai1 ···ir ∈ A,
116
2 COMPLEMENTI SUI POLINOMI
I polinomi omogenei si dicono anche forme.
Ogni polinomio F ∈ A[x1 , . . . , xr ] di grado m ≥ 0 si può scrivere, in uno
ed un solo modo, come somma
(4)
F = F0 + F1 + F2 + · · · + Fm ,
dove il polinomio Fi , se non nullo, è omogeneo di grado i. Il polinomio Fi si
dice la componente omogenea di grado i di F (anche se Fi = 0) e la (4) si
dice la decomposizione di F in somma delle componenti omogenee.
Lemma 2.2 Un polinomio F ∈ A[x1 , . . . , xr ] non nullo è omogeneo di grado
m se e solo se nell’anello dei polinomi A[x1 , . . . , xr , t] risulta
F (tx1 , . . . , txr ) = tm F (x1 , . . . , xr ).
(5)
DIMOSTRAZIONE. È chiaro che se F è omogeneo di grado m sussiste
la (5).
Viceversa, supponiamo che sussista la (5) e sia
F = F0 + F1 + F2 + · · · + Fm ,
Fm 6= 0,
la decomposizione di F in somma di componenti omogenee. Allora
m
m
F (tx1 , · · · , txr ) = t F (x1 , . . . , xr ) = t
m
X
Fi (x1 , . . . , xr )
i=0
Ma si ha anche
F (tx1 , . . . , txr ) =
m
X
i=0
Fi (tx1 , . . . , txr ) =
m
X
ti Fi (x1 , . . . , xr ).
i=0
Quindi deve essere
m
t
m−1
X
i=0
Fi (x1 , . . . , xr ) − tm−1 Fm−1 (x1 , . . . , xr ) − · · · − tF1 (x1 , . . . , xr ) − F0 = 0
e perciò
ossia F è omogeneo.
F0 = F1 = F2 = · · · = Fm−1 = 0,
Teorema 2.3 (Teorema di Eulero). Se F ∈ A[x1 , . . . , xr ] è omogeneo di
grado m risulta
r
X
∂F
xi = mF.
∂x
i
i=1
117
2 COMPLEMENTI SUI POLINOMI
DIMOSTRAZIONE. Se t è un’altra indeterminata, per il lemma 2.2, si
ha la (5). Derivando rispetto a t si ottiene
r
X
∂F
i=1
∂xi
(tx1 , . . . , txr )xi = mtm−1 F (x1 , . . . , xr )
da cui, per t = 1, segue il teorema.
Lemma 2.4 Se F ∈ A[x1 , . . . , xr ] è omogeneo, allora tutti i fattori di F
sono omogenei.
DIMOSTRAZIONE. Sia F = f g e siano
f = f0 + f1 + · · · + fm ,
g = g0 + g1 + · · · + gn ,
fm , gn 6= 0,
le decomposizioni di f e g in somma di componenti omogenee. Se f e g
non sono entrambi omogenei e fh e gk sono le componenti omogenee di grado
minimo che non sono nulle, si ha h < m oppure k < n; quindi h + k < m + n
e perciò
F = f g = fh gk + · · · + fm gn
non è omogeneo.
Osservazione 2.5 Se nel teorema 2.1 è b1 = · · · = br = 0, l’isomorfismo ϕ
trasforma polinomi omogenei in polinomi omogenei.
Definizione 2.6 Se F = F (x1 , . . . , xr ) ∈ A[x1 , . . . , xr ] è omogeneo di grado
m, il polinomio
F∗ = F∗ (x1 , . . . , xr−1 ) = F (x1 , . . . , xr−1 , 1)
di A[x1 , . . . , xr ] si dice disomogeneizzato di F rispetto a xr .
Se xsr è la massima potenza di xr che divide F , il grado di F∗ è m − s. In
particolare, se xr non divide F , allora F∗ ha grado uguale a quello di F .
Definizione 2.7 Se f = f (x1 , . . . , xr−1 ) ∈ A[x1 , . . . , xr−1 ] ha grado m e
f = f0 + f1 + f2 + · · · + fm
è la decomposizione di f in somma di componenti omogenee, il polinomio
omogeneo di grado m di A[x1 , . . . , xr ]
m−1
f ∗ = xm
f1 + xm−2
f2 + · · · + xr fm−1 + fm
r f0 + xr
r
si dice omogeneizzato di f rispetto a xr .
118
2 COMPLEMENTI SUI POLINOMI
Lemma 2.8 Si ha:
1) (F + G)∗ = F∗ + G∗ ,
2) (F G)∗ = F∗ G∗ ,
3) (f g)∗ = f ∗ g ∗ ,
4) f = (f ∗ )∗ ,
5) F = xsr (F∗ )∗ ,
dove xsr è la massima potenza di xr che divide F .
In particolare,
F = (F∗ )∗ ⇐⇒ xr non divide F .
DIMOSTRAZIONE. Le 1), 4), 5) sono ovvie.
2) È immediata nel caso che F e G sono monomi. Se F è somma dei
monomi F1 , . . . , Fh e G è somma dei monomi G1 , . . . , Gk , per la 1) si ha
F∗ = F1∗ + · · · + Fh∗ ,
G∗ = G1∗ + · · · + Gk∗ ,
e quindi
(F G)∗ =
X
i,j
Fi Gj
∗
=
X
(Fi Gj )∗ =
i,j
X
Fi∗ Gj∗ = F∗ G∗ .
i,j
3) Siano f, g di gradi m, n e siano
f = f0 + f1 + f2 + · · · + fm ,
g = g0 + g1 + g2 + · · · + gn ,
le loro decomposizioni in somma di componenti omogenee. Allora f g =
P
i,j fi gj e quindi
(f g)∗ =
X
i,j
xrm+n−i−j fi gj =
X
(xm−i
fi )(xrn−j gj ) = f ∗ g ∗.
r
i,j
Corollario 2.9 Sia F ∈ A[x1 , . . . , xr ] omogeneo, non divisibile per xr . Allora :
1) F è irriducibile se e solo se F∗ è irriducibile,
2) i fattori di F∗ sono i disomogeneizzati dei fattori di F ed i fattori di F
sono gli omogeneizzati di quelli di F∗ .
119
2 COMPLEMENTI SUI POLINOMI
DIMOSTRAZIONE. 1) Se F∗ = f g con f, g di grado positivo, per il
lemma 2.8 si ha F = (F∗ )∗ = (f g)∗ = f ∗ g ∗ e quindi F non è irriducibile.
Viceversa, se F = GH con G, H di grado positivo, si ha F∗ = (GH)∗ =
G∗ H∗ . Nessuno dei polinomi G, H è divisibile per xr , quindi G∗ , H∗ hanno
entrambi grado positivo e perciò F∗ non è irriducibile.
2) Se F = F1 F2 · · · Fh è la decomposizione in fattori irriducibili di F ,
per il lemma 2.8 si ha F∗ = F1∗ F2∗ · · · Fh∗ e per la 1) i polinomi Fi∗ sono
irriducibili. D’altra parte, se F∗ = f1 f2 · · · fh è la decomposizione di F∗
in fattori irriducibili, si ha F = (F∗ )∗ = f1∗ f2∗ · · · fh∗ ed i polinomi fi∗ sono
irriducibili, perché fi = (fi∗ )∗ .
Osservazione 2.10 Ovviamente si possono considerare disomogeneizzati ed
omogeneizzati di polinomi rispetto ad una qualunque delle indeterminate
x1 , . . . , xr .
Teorema 2.11 Se il campo K è algebricamente chiuso, ogni polinomio omogeneo F (x, y) ∈ K[x, y] nelle indeterminate x, y di grado positivo m si decompone nel prodotto di m fattori lineari omogenei in K[x, y] e la decomposizione è unica, a meno dell’ordine dei fattori e di fattori costanti.
DIMOSTRAZIONE. Sia
F (x, y) =
m
X
ai xi y m−i ,
ai ∈ K;
i=0
allora il polinomio disomogeneizzato di F rispetto a y è
F∗ (x) = F (x, 1) =
m
X
ai xi .
i=0
Se am 6= 0 e b1 , . . . , bh sono le radici distinte di F∗ (x) in K e s1 , . . . , sh sono
le loro rispettive molteplicità, si ha
h
Y
F∗ (x) = am (x − bj )sj ,
j=1
h
X
sj = m
j=1
e quindi (corollario 2.9)
F (x, y) = am
h
Y
j=1
sj
(x − bj y) ,
h
X
j=1
sj = m.
120
3 RISULTANTE DI DUE POLINOMI
Se am = 0, sia ak il coefficiente con indice massimo tale che ak 6= 0; allora
F (x, y) = y
m−k
k
X
ai xi y k−i.
i=0
Per quanto visto prima, il polinomio G(x, y) =
posizione in fattori lineari del tipo
h
Y
G(x, y) = ak
(x − bj y)sj ,
j=2
Pk
i=0
h
X
ai xi y k−i ha una decom-
sj = k
j=2
e quindi
F (x, y) = ak y m−k
h
Y
(x − bj y)sj ,
j=2
h
X
sj = k.
j=2
L’unicità della decomposizione segue dalla fattorialità dell’anello K[x, y].
3. Risultante di due polinomi.
1. Siano sempre A e K come nei §§ precedenti. Se F ∈ A[x] denoteremo
con d0 F il suo grado.
Teorema 3.1 Due polinomi F, G ∈ A[x] di grado positivo hanno un fattore
non costante in comune se e solo se esistono due polinomi non nulli f, g ∈
A[x] tali che
(1)
F g + Gf = 0,
d0 f < d0 F,
d0 g < d0 G.
DIMOSTRAZIONE. Se F, G hanno un fattore non costante H in comune
si può scrivere
F = Hf,
G = −Hg,
con f, g ∈ A[x],
d0 f < d0 F,
d0 g < d0 G
e quindi
F g + Gf = Hf g − Hgf = 0.
Viceversa, siano f, g ∈ A[x] soddisfacenti le (1). Ogni fattore irriducibile non costante di F compare nella decomposizione in fattori irridicibili di
−Gf = F g e poiché d0 f < d0 F almeno un fattore non costante di F deve
essere fattore di G.
121
3 RISULTANTE DI DUE POLINOMI
Siano
F =
n
X
i
ai x ,
G=
i=0
m
X
bj xj
j=0
polinomi di A[x] di gradi n, m > 0. I polinomi non nulli
f=
n−1
X
vh xh ,
h=0
g=
m−1
X
uk xk
k=0
sono tali che F g + Gf = 0 se e solo se

a0 u0 + b0 v0 = 0




 a1 u0 + a0 u1 + b1 v0 + b0 v1 = 0
a2 u0 + a1 u1 + a0 u2 + b2 v0 + b1 v1 + b0 v2 = 0
(2)


··· ···



an um−1 + bm vn−1 = 0
Riguardando le (2) come equazioni nelle m + n indeterminate ui , vj si ha
che esistono polinomi non nulli f, g soddisfacenti le (1) se e solo se è nullo il
determinante dei coefficienti delle (2).
Definizione 3.2 Il trasposto
a0 a1
0 a0
..
..
.
.
0
0
R(F, G) = b0 b1
0 b0
.
..
..
.
0 0
a2
a1
..
.
0
b2
b1
..
.
0
. . . an
. . . an−1
..
..
.
.
...
...
...
..
.
...
0
an
..
.
0 . . . 0 0 . . . 0 .. . .
.
. .. .
. . . an ... 0 ... 0 . ..
. .. . . . bm del determinante dei coefficienti delle (2) si chiama risultante dei polinomi
F, G.
In virtù del teorema 3.1 e di quanto sopra osservato si ha il seguente
teorema.
Teorema 3.3 I polinomi F, G ∈ A[x] hanno un fattore non costante comune
in A[x] se e solo se il loro risultante è nullo.
122
3 RISULTANTE DI DUE POLINOMI
Esempio 3.4 Se
F =
n
X
ai xi ,
G = x − k,
i=0
k ∈ A,
e F ha grado n > 0, si ha
R(F, G) = F (k).
Se n = 1 è vero perché si ha
a1 = a0 + a1 k = F (k).
1
a
R(F, G) = 0
−k
Sia n > 1 e procediamo per induzione su n, supponendo che la cosa sia vera
per ogni polinomio F di grado m < n. Si ha
a0 a1 . . .
a
a
n−1
n
a0 a1 . . . an−1 −k 1 . . .
0
0 −k 1 . . .
.
0
.
.
.
.
n
.. = an k + .
..
..
..
R(F, G) = ..
.
.
.
..
..
.. .
..
0 0 ...
1
0 0
0 ...
1 0 0 ...
−k
1
Se a1 = a2 = · · · = an−1 = 0, allora
R(F, G) = an k n + a0 = F (k).
Se vi sono indici 0 < i < n per cui ai 6= 0 e tra essi ah è quello con indice
massimo, posto
F1 = a0 + a1 x + . . . + ah xh ,
risulta
R(F, G) = an k n + R(F1 , G) = an k n + F1 (k) = F (k).
Teorema 3.5 Siano F, G ∈ A[x] di gradi n, m rispettivamente. Esistono
due polinomi ϕ, ψ ∈ A[x] di gradi al più m − 1, n − 1 rispettivamente tali che
R(F, G) = ϕF + ψG.
DIMOSTRAZIONE. Consideriamo gli m + n polinomi
F
xF
...
xm−1 F
G
xG
...
n−1
x G
=
=
a0
+ a1 x + a2 x2
a0 x + a1 x2
= ···
= b0 +
=
= ···
b1 x
b0 x
+
+
b2 x2
b1 x2
+ ···
+ ···
+ ···
+ ···
123
3 RISULTANTE DI DUE POLINOMI
Siano A1 , A2 , . . . , Am+n i complementi algebrici degli elementi della prima
colonna del risultante R(F, G). Moltiplicando i precedenti polinomi rispettivamente per A1 , A2 , . . . , Am+n e sommando da 1 a m + n si ottiene
!
!
m+n
m
X
X
Ar xr−m−1 G = a0 A1 +b0 Am+1 +x(...)+x2 (...)+· · ·
Ar xr−1 F +
r=1
r=m+1
Si ha
a0 A1 + b0 Am+1 = R(F, G),
mentre i termini (· · ·) sono tutti nulli in quanto esprimono i prodotti degli
elementi di una colonna del determinante R(F, G), diversa dalla prima, per i
complementi algebrici degli elementi della prima. I polinomi richiesti sono
ϕ=
m
X
r=1
r−1
Ar x
,
ψ=
m+n
X
Ar xr−m−1 .
r=m+1
Definizione 3.6 Il risultante di un polinomio F ∈ A[x] e del polinomio
derivato F ′ di F si chiama discriminante di F .
Teorema 3.7 Se il campo K di caratteristica 0 è algebricamente chiuso, un
polinomio F ∈ K[x] ha le radici in K tutte semplici se e solo se il suo
discriminante è non nullo.
DIMOSTRAZIONE. Una radice a ∈ K di F è semplice per F se e solo se
F (a) 6= 0 (teorema 1.5), cioè x − a non è fattore di F ′ . Quindi F ha radici
tutte semplici se e solo se non ha fattori di grado positivo in comune con F ′ .
Il teorema segue, allora, dal teorema 3.3.
′
Esempio 3.8 1) Sia F = ax2 + bx + c ∈ K[x], con a 6= 0. Il discriminante
di F è
c b
a
b 2a 0 = a(4ac − b2 ).
0 b 2a Si ritrova il risultato, ben noto, che F ha le radici tutte semplici se e solo se
b2 − 4ac 6= 0.
2) Sia F = x3 + px + q ∈ K[x]. Il discriminante di F è
q p 0 1 0
0 q p 0 1
p 0 3 0 0 = 4p3 + 27q 2 .
0 p 0 3 0
0 0 p 0 3
124
3 RISULTANTE DI DUE POLINOMI
Quindi il polinomio F ha le radici tutte semplici se e solo se 4p3 + 27q 2 6= 0.
2. Siano F, G ∈ A[x1 , . . . , xr ] e sia Ai = A[x1 , . . . , xi−1 , xi+1 , . . . , xr ].
Definizione 3.9 Se F e G come polinomi in xi a coefficienti in Ai hanno
entrambi grado positivo, il loro risultante, Rxi (F, G), che è un elemento di
Ai , si chiama risultante di F, G rispetto a xi .
Teorema 3.10 Siano F, G ∈ A[x1 , . . . , xr ] omogenei di rispettivi gradi n, m
positivi. Se in x1 il polinomio F ha grado n ed il polinomio G ha grado m,
il risultante di F, G rispetto a x1 , se non è nullo, è omogeneo di grado mn.
DIMOSTRAZIONE. Siano
F =
n
X
i=0
Ai xi1 ,
G=
m
X
j=0
Bj xj1 ,
Ai , Bj ∈ A[x2 , . . . , xr ]
e sia R(x2 , . . . , xr ) il loro risultante rispetto a x1 . Sia t un’indeterminata.
Poiché Ai , Bj , se non nulli, sono omogenei di gradi n−i, m−j rispettivamente,
si ha
n
t A0 tn−1 A1 . . .
An
0 0 ...
0
0 0
tn A0
. . . tAn−1 An 0 . . .
0
0 .
.. ..
.. . .
..
..
..
..
..
.
.
. .
.
.
.
.
0
0
...
tAn−1 An R(tx2 , . . . , txr ) = tm B tm−1 B . . .
0
0 0
1
.. ..
0
. .
tm B0 . . .
.
.
..
..
...
0
0
...
tBm−1 Bm Moltiplicando nel determinante la prima riga per tm , la seconda per tm−1 , . . .,
la m-ma per t, la (m + 1)-ma per tn , la (m + 2)-ma per tn−1 , . . ., l’ultima
per t, il determinante risulta moltiplicato per tp con
p = (1 + 2 + · · · + m) + (1 + 2 + · · · + n) =
m(m + 1) n(n + 1)
+
.
2
2
125
3 RISULTANTE DI DUE POLINOMI
Quindi
n+m
t
A0
0
..
.
0
tp R(tx2 , . . . , txr ) = n+m
B0
t
0
..
.
0
tn+m−1 A1
tn+m−1 A0
..
.
0
tn+m−1 B1
tn+m−1 B0
..
.
0
. . . tm An
. . . tm An−1
..
..
.
.
...
...
...
..
.
...
0
tm−1 An
..
.
tAn ...
0 ...
0 . . . tBm ...
...
..
.
0
0
..
.
Portando fuori segno di determinante: tn+m dalla prima colonna, tn+m−1
dalla seconda colonna, . . . , t dall’ultima, si ha
tp R(tx2 , . . . , txr ) = tq R(x2 , . . . , xr )
con
q = 1 + 2 + · · · + (m + n) =
(m + n)(m + n + 1)
= p + mn.
2
Quindi
R(tx2 , . . . , txr ) = tmn R(x2 , . . . , xr )
e, per il lemma 2.2, se R(x2 , . . . , xr ) non è nullo è omogeneo di grado mn.
Osservazione 3.11 Il teorema 3.10 sussiste, ovviamente, considerando una
qualsiasi altra indeterminata xi invece di x1 .
Esempio 3.12 Se y1 , . . . , yn , z1 , . . . , zm sono indeterminate su A e
n
Y
F =
(x − yr ),
G=
r=1
m
Y
s=1
(x − zs )
si ha
(i)
Rx (F, G) =
n Y
m
Y
r=1 s=1
(yr − zs ).
Infatti, i polinomi F, G ∈ A[y1 , . . . , yn , z1 , . . . , zm , x] sono omogenei di rispettivi gradi n, m e quindi Rx (F, G) ∈ A[y1 , . . . , yn , z1 , . . . , zm ], che è non nullo
in quanto F, G non hanno fattori di grado positivo in comune, è omogeneo di
grado mn (teorema 3.10). Sostituendo in G un elemento zs con un elemento
126
3 RISULTANTE DI DUE POLINOMI
yr , il polinomio G1 che si ottiene ha in comune con F il fattore x − yr e quindi Rx (F, G1) = 0 (teorema 3.3). Poiché Rx (F, G1 ) si ottiene da Rx (F, G)
sostituendo zs con yr , ciò significa che Rx (F, G) è divisibile per il polinomio
yr − zs . Ed allora, poiché Rx (F, G) ha grado mn ed ha gli mn fattori lineari
yr − zs , si ha
n Y
m
Y
Rx (F, G) = k
(yr − zs ),
(ii)
0 6= k ∈ A.
r=1 s=1
Scritti F e G nella forma
F =
n
X
i
ai x ,
G=
m
X
bj xj ,
(an = bm = 1)
j=0
i=0
si ha che Rx (F, G) è un polinomio omogeneo di grado m nelle a e omogeneo
di grado n nelle b. Sviluppando il determinante si vede subito che il termine
contenente b0 al grado massimo è bn0 , mentre quello contenente a0 al grado
massimo è am
0 . Si ha
m
Y
G(yr ) =
(yr − zs ),
r = 1, 2, . . . , n,
s=1
quindi
n
Y
G(yr ) =
r=1
e perciò
(iii)
n Y
m
Y
(yr − zs )
r=1 s=1
Rx (F, G) = k
n
Y
G(yr ).
r=1
Il termine che contiene b0 al grado massimo nel secondo membro della (iii)
è kbn0 e quindi deve essere k = 1.
Si ha, inoltre,
F (zs ) =
n
Y
(zs − yr ),
s = 1, 2, . . . , m,
r=1
e quindi
m
Y
s=1
F (zs ) =
m Y
n
Y
s=1 r=1
mn
(zs − yr ) = (−1)
m Y
n
Y
s=1 r=1
(yr − zs ).
127
3 RISULTANTE DI DUE POLINOMI
Ed allora
(iv)
m
n Y
m
n
Y
Y
Y
mn
F (zs ).
Rx (F, G) =
(yr − zs ) =
G(yr ) = (−1)
r=1 s=1
s=1
r=1
Esempio 3.13 Siano
F = a0 + a1 x + a2 x2 + · · · + an xn ,
G = b0 + b1 x + b2 x2 + · · · + bm xm ,
polinomi di A[x] di gradi n, m tali che F in A abbia n radici h1 , . . . , hn e
G abbia m radici k1 , . . . , km . Allora
R(F, G) =
n
am
n bm
m
n Y
Y
(hr − ks ).
r=1 s=1
Infatti, si può scrivere
n
Y
F = an (x − hr ),
r=1
m
Y
G = bm (x − ks )
s=1
ed allora, posto
F1 =
n
Y
r=1
(x − hr ),
m
Y
G1 =
(x − ks ),
s=1
per la (i) dell’esempio 3.12, si ha
R(F, G) =
n
am
n bm R(F1 , G1 )
=
n
am
n bm
n Y
m
Y
(hr − ks ).
r=1 s=1
Da questa si può dedurre l’esempio 3.4.
Esempio 3.14 Siano F1 , F2 , G polinomi in A[x] di gradi positivi. Si ha
R(F1 F2 , G) = R(F1 , G)R(F2 , G).
Infatti, esiste un campo K0 , contenente A come sottoanello, tale che in K0 [x]
i polinomi F1 , F2 , G hanno decomposizioni lineari del tipo
F1 = a
n
Y
r=1
(x − hr ),
F2 = b
q
Y
(x − hr ),
r=n+1
m
Y
G = c (x − ks ),
s=1
a, b, c ∈ A.
128
3 RISULTANTE DI DUE POLINOMI
Un tale campo K0 è, ad esempio, la chiusura algebrica del campo K delle
frazioni di A.
Si ha (esempio 3.13)
m n+q
R(F1 F2 , G) = (ab) c
m n m q
= a c b c
n+q m
YY
(hr − ks )
r=1 s=1
n+q
n
Y
Y
m
Y
(hr − ks )
r=1 r=n+1 s=1
= R(F1 , G)R(F2 , G).
3. Siano
F = F (x, y) =
n
X
ai xi y n−i,
G = G(x, y) =
m
X
bj xj y m−j ,
j=0
i=0
ai , bj ∈ A,
forme di gradi positivi n, m nelle indeterminate x, y .
Definizione 3.15 Il determinante di ordine n + m
a0 a1 . . . an
0
0 a0 . . . an−1 an
.. . .
..
..
..
.
.
.
.
.
0
0
.
.
.
Rx,y (F, G) = b0 b1 . . .
0 b0 . . .
.
.. . .
..
.
.
0 0 ...
...
...
..
.
si dice risultante delle forme F, G rispetto a x, y .
an 0 0 .. . bm 0
0
..
.
Osservazione 3.16 1) Se an bm 6= 0, il risultante di F, G rispetto a x, y
coincide con il risultante dei polinomi disomogeneizzati di F, G rispetto a y
F∗ =
n
X
i
ai x ,
G∗ =
i=0
m
X
bj xj .
j=0
2) Se bm 6= 0, an = · · · = an−s+1 = 0, an−s 6= 0, posto
(3)
s
F = y F1 ,
F1 =
n−s
X
i=0
ai xi y n−s−i,
4 IPERSUPERFICI ALGEBRICHE
129
si ha
(4)
Rx,y (F, G) = bsm Rx,y (F1 , G).
Teorema 3.17 I polinomi omogenei F = F (x, y), G = G(x, y) hanno un
fattore non costante in comune in A[x, y] se e solo se Rx,y (F, G) = 0.
DIMOSTRAZIONE. Sia Rx,y (F, G) = 0.
Se an = bm = 0, i polinomi F e G hanno in comune il fattore y .
Se an bm 6= 0, Rx,y (F, G) coincide con il risultante dei polinomi F∗ , G∗ ,
disomogeneizzati di F, G rispetto a y . Per il teorema 3.3, F∗ e G∗ hanno un
fattore non costante in comune H e, per il corollario 2.9, il suo omogeneizzato
H ∗ rispetto a y è un fattore di F e G.
Se bm 6= 0 e an = · · · = an−s+1 = 0, an−s 6= 0, si ha F = y s F1 , dove F1
è il polinomio (3) e si ha la (4). Deve essere Rx,y (F1 , G) = 0 e quindi, per
quanto visto prima, F1 e G hanno un fattore non costante comune H , che è
un fattore di F e G. Il caso bm = 0, an 6= 0 è analogo.
Viceversa, sia H il fattore non costante comune a F e G. Se H è divisibile
per y allora an = bm = 0 e perciò Rx,y (F, G) = 0. Altrimenti an o bm è non
nullo. Se an bm 6= 0 il polinomio H∗ , disomogeneizzato di H rispetto ad y , è
un fattore dei polinomi F∗ e G∗ (corollario 2.9) e quindi R(F∗ , G∗ ) = 0 per
il teorema 3.3. Infine Rx,y (F, G) = 0 per l’osservazione 3.16, 1).
Sia ora an = · · · = an−s+1 = 0, an−s bm 6= 0; si ha F = y s F1 , dove F1
è il polinomio (3). Allora H è fattore di F1 e si ha Rx,y (F1 , G) = 0 per il
caso precedente; infine, per l’osservazione 3.16, 2), risulta Rx,y (F, G) = 0.
Analogamente se an 6= 0 e bm = 0.
4. Ipersuperfici algebriche.
1. Sia K un campo, che, da ora in avanti, supporremo sempre di caratteristica 0 e algebricamente chiuso.
Se F ∈ K[x1 , . . . , xr ], uno zero di F in K r è una soluzione dell’equazione
F = 0, cioè una r -pla (a1 , . . . , ar ) ∈ K r in cui F si annulla.
Teorema 4.1 Se F ∈ K[x1 , . . . , xr ] è un polinomio non nullo, esistono in
K elementi a1 , . . . , ar tali che F (a1 , . . . , ar ) 6= 0.
DIMOSTRAZIONE. Se r = 1 è vero perché F ha solo un numero finito di
radici in K mentre K , essendo di caratteristica 0, possiede infiniti elementi.
130
4 IPERSUPERFICI ALGEBRICHE
Sia r > 1 e procediamo per induzione su r , supponendo che il teorema sia
vero per polinomi in r − 1 indeterminate. Sia F di grado positivo, altrimenti
non vi è niente da dimostrare. Salvo un eventuale scambio di indici, è possibile
supporre che F abbia grado positivo in x1 cosicché
(1)
F =
n
X
i=0
Bi xi1 , Bi ∈ K[x2 , . . . , xr ], Bn 6= 0.
Essendo Bn 6= 0, esistono in K elementi a2 , . . . , ar ∈ K tali che
Bn (a2 , . . . , ar ) 6= 0; il polinomio
F (x1 , a2 , . . . , ar ) =
n
X
Bi (a2 , . . . , ar )xi1 ,
i=0
è non nullo e quindi esistono in K elementi a1 tali che F (a1 , a2 , . . . , ar ) 6= 0.
Osservazione 4.2 Per ogni polinomio di grado positivo F ∈ K[x1 , . . . , xr ]
esistono in K r infiniti elementi in cui F non si annulla e, se r > 1, esistono
in K r infiniti elementi in cui F si annulla.
Infatti, scritto F nella forma (1) e scelti a2 , . . . , ar in K tali che
Bn (a2 , . . . , ar ) 6= 0, vi è solo un numero finito di elementi a1 ∈ K che
sono radici del polinomio F (x1 , a2 , . . . , ar ) e quindi vi sono infinite r -ple
(b, a2 , . . . , ar ) che non annullano F .
Se r > 1 esistono in K r−1 infiniti elementi (c2 , . . . , cr ) tali che Bn (c2 , . . . , cr )
6= 0; per ciascuna di tali (r − 1)-ple, essendo K algebricamente chiuso, esistono in K radici a1 del polinomio F (x1 , c2 , . . . , cr ) e risulta F (a1 , c2 , . . . , cr ) =
0.
Teorema 4.3 Siano F, G ∈ K[x1 , . . . , xr ]. Se F è irriducibile ed ogni zero
di F in K r è anche zero di G, allora G è multiplo di F .
DIMOSTRAZIONE. Se G = 0 il teorema è vero. Se G 6= 0 deve essere
di grado positivo: infatti F ha grado positivo e quindi ha zeri (ricordiamo
che K = K ) che devono essere anche zeri di G. Possiamo supporre che G
abbia grado positivo in x1 , ad esempio; per il teorema 3.5 il risultante di F, G
rispetto ad x1 si può scrivere:
Rx1 (F, G) = ϕF + ψG
Quindi ogni zero di F è anche zero di Rx1 ∈ K[x2 , . . . , xr ]. Se fosse Rx1 (F, G)
6= 0 per il teorema 4.1 esisterebbero a2 , . . . , ar ∈ K tali che Rx1 (a2 , . . . , ar ) 6=
4 IPERSUPERFICI ALGEBRICHE
131
0 mentre F (x1 , a2 , . . . , ar ) ha certamente soluzioni. Quindi è Rx1 = 0 ed
F, G hanno un fattore comune (teorema 3.3); poiché F è irriducibile G è
multiplo di F .
Corollario 4.4 Due polinomi F, G ∈ K[x1 , . . . , xr ] che hanno gli stessi zeri
in K r hanno gli stessi fattori irriducibili, non necessariamente con gli stessi
esponenti.
DIMOSTRAZIONE. Per il teorema 4.3, ogni fattore irriducibile di F è
fattore di G e viceversa.
2. Sia An lo spazio affine di dimensione n sul campo K ed in esso sia
fissato un sistema di riferimento (O, e1 , . . . , en ). Sia F ∈ K[x1 , . . . , xn ].
Un punto P (a1 , . . . , an ) ∈ An è uno zero di F o soddisfa l’equazione F = 0
o è soluzione dell’equazione F = 0 se F (P ) = F (a1 , . . . , an ) = 0.
Dall’osservazione 4.2 segue che, se F ha grado positivo, in An esistono
infiniti punti che sono soluzioni dell’equazione F = 0 e, se n > 1, infiniti
punti che non lo sono.
L’equazione F = 0 non è, però, individuata dal suo insieme delle soluzioni.
Infatti, se F = F1r1 F2r2 · · · Fhrh è la decomposizione in fattori irriducibili di
grado positivo di F , tutte le equazioni F1s1 F2s2 · · · Fhsh = 0, con si interi
positivi, hanno in An lo stesso insieme di soluzioni.
Definizione 4.5 Sia F ∈ K[x1 , . . . , xn ] di grado positivo. Se F è irriducibile, si chiama ipersuperficie algebrica irriducibile di An definita dall’equazione
F = 0 o da F l’insieme F delle soluzioni in An dell’equazione F = 0. Se il
polinomio F è riducibile e
F = F1r1 F2r2 · · · Fhrh
è la sua decomposizione in fattori irriducibili Fi di grado positivo, si chiama
ipersuperficie algebrica F di An definita dall’equazione F = 0 o da F in An
l’insieme {F1, F2 , . . . , Fh } delle ipersuperfici algebriche irriducibili definite
rispettivamente dalle equazioni F1 = 0, F2 = 0, . . . , Fh = 0, con associati gli
interi {r1 , r2 , . . . , rh }. Si dice anche che F è costituita dalle (o è spezzata
nelle) ipersuperfici F1 , F2 , . . . , Fh contate rispettivamente r1 , r2 , . . . , rh volte
e si scrive
F = r1 F 1 + r2 F 2 + · · · + rh F h .
Le ipersuperfici Fi si dicono le componenti irriducibili di F e gli interi
ri le loro molteplicità. Le componenti di molteplicità 1 si dicono semplici, le
altre multiple.
I punti di F sono quelli delle sue componenti.
132
4 IPERSUPERFICI ALGEBRICHE
Le ipersuperfici in spazi affini si dicono ipersuperfici affini.
Nel caso n = 2 le ipersuperfici affini sono le curve affini e nel caso n = 3
sono le superfici affini.
Associando ad ogni equazione F = 0 al variare di F in K[x1 , . . . , xn ] l’ipersuperficie F da essa definita in An si ottiene una corrispondenza biunivoca
tra l’insieme delle equazioni e l’insieme delle ipersuperfici di An . Si ha, infatti,
il
Teorema 4.6 Due equazioni distinte F = 0 e G = 0 definiscono in An
ipersuperfici distinte.
DIMOSTRAZIONE. Se F e G definiscono la stessa ipersuperficie, per
il corollario 4.4 essi hanno gli stessi fattori irriducibili distinti F1 , . . . , Fh .
Se F = F1r1 · · · Fhrh e G = kF1s1 · · · Fhsh , k ∈ K , le ipersuperfici F e G
definite dalle equazioni F = 0 e G = 0 sono F = r1 F1 + · · · + rh F e
G = s1 F1 + · · · + sh Fh , dove Fi è l’ipersuperficie definita da Fi . Essendo
F = G deve essere ri = si per ogni indice i e quindi F = 0 e G = 0 sono la
stessa equazione.
Poiché considereremo solo ipersuperfici algebriche, nel seguito, per brevità,
ometteremo la parola algebrica riferita ad una ipersuperficie. Diremo anche
ipersuperficie F = 0 invece di ipersuperficie di equazione F = 0.
Definizione 4.7 Il grado del polinomio F che definisce l’ipersuperficie affine
F si dice ordine o grado di F .
L’ordine di F è invariante per affinità. Infatti, se α è un’affinità di An e
xi =
n
X
aij x′j + bi ,
i = 1, 2, . . . , n,
j=1
sono le equazioni di α−1 , la trasformata mediante α di F è l’ipersuperficie
di equazione
!
n
n
X
X
anj x′j + bn = 0
a1j x′j + b1 , . . . ,
F ′ = F ′ (x′1 , . . . , x′n ) = F
j=1
j=1
e, per il teorema 2.1, il grado del polinomio F ′ è uguale a quello di F .
Esempio 4.8 1) Le ipersuperfici algebriche affini di ordine 1 sono gli iperpiani.
2) Le ipersuperfici algebriche affini di ordine 2 sono le quadriche affini.
133
4 IPERSUPERFICI ALGEBRICHE
L’equazione di una quadrica affine Q di An si può scrivere
n
X
aii x2i + 2
i=1
X
aij xi xj +
n
X
bi xi + c = 0,
i=1
i<j
aij , bi , c ∈ K.
Se q è la forma quadratica definita su K n che rispetto alla base (e1 , . . . , en )
ha come matrice


a11 a12 . . . a1n
 a21 a22 . . . a2n 
aij = aji per ogni 1 ≤ i, j ≤ n,
A=
.. 
..
..
 ...
.
. 
.
an1
an2
. . . ann
l’equazione di Q si può srivere
q(x1 , . . . , xn ) +
n
X
bi xi + c = 0.
i=1
Esiste in K n una base rispetto alla quale la matrice di q è diagonale (capitolo
II, teorema 2.13) e quindi esiste un sistema di riferimento di An rispetto al
quale l’equazione di Q è
n
X
(2)
ai x2i
+
n
X
bi xi + c = 0.
i=1
i=1
I coefficienti ai si possono ordinare in modo che sia ai 6= 0 per 1 ≤ i ≤ r ed
ai = 0 per r + 1 ≤ i ≤ n e quindi la (2) si può scrivere
r
n
X
X
bi 2
ai xi +
+
bi xi + c′ = 0.
2ai
i=1
i=r+1
Con la trasformazione affine
(
bi
, se 1 ≤ i ≤ r,
x
+
i
yi =
2ai
xi ,
se r + 1 ≤ i ≤ n,
l’equazione di Q diviene
(3)
r
X
i=1
ai yi2
+
n
X
bi yi + c′ = 0.
i=r+1
Se i coefficienti bi non sono tutti nulli si può supporre che sia br+1 6= 0 ed
allora, con l’ulteriore trasformazione affine
yi ,
se i 6= r + 1,
zi =
′
br+1 yr+1 + · · · + bn yn + c , se i = r + 1,
134
4 IPERSUPERFICI ALGEBRICHE
la (3) diviene
r
X
(4)
ai zi2 + zr+1 = 0.
i=1
Essendo K algebricamente chiuso esiste in esso un elemento αi tale che αi2 =
ai (1 ≤ i ≤ r) e quindi, con l’ulteriore trasformazione affine
αi zi , se 1 ≤ i ≤ r,
ui =
zi ,
se r + 1 ≤ i ≤ n,
la (4) diviene
(5)
r
X
u2i + ur+1 = 0,
r < n.
i=1
Se nella (3) è br+1 = · · · = bn = 0, con la trasformazione affine
αi yi , se 1 ≤ i ≤ r,
ui =
yi ,
se r + 1 ≤ i ≤ n,
essa diviene
(6)
r
X
i=1
u2i + c = 0,
r ≤ n.
Quindi in An è possibile scegliere un sistema di riferimento in modo che
rispetto ad esso l’equazione di una quadrica si può scrivere in una delle forme
(5) o (6).
3. Nello spazio proiettivo P n , sia x1 , . . . , xn+1 un sistema di coordinate
omogenee per i punti. Sia F ∈ K[x1 , . . . , xn+1 ] un polinomio omogeneo di
grado m. Se P ∈ P n e F si annulla in un sistema di coordinate omogenee
(a1 , . . . , an+1 ) di P , allora F si annulla in ogni sistema di coordinate omogenee
(ka1 , . . . , kan+1 ) di P in quanto, per il teorema 2.3, si ha
F (ka1 , . . . , kan+1 ) = k m F (a1 , . . . , an+1 ).
Ha senso allora dire che F si annulla in P oppure che P è zero di F in P n
o soluzione dell’equazione omogenea F = 0 e scriveremo anche F (P ) = 0.
4 IPERSUPERFICI ALGEBRICHE
135
Definizione 4.9 Se il polinomio omogeneo F è di grado positivo ed irriducibile, si chiama ipersuperficie algebrica irriducibile di P n definita dall’equazione F = 0 o da F l’insieme F dei punti di P n che sono soluzioni dell’equazione
F = 0.
Se F è riducibile, poiché tutti i suoi fattori di grado positivo sono omogenei
(lemma 2.4), esattamente come nel caso affine, si definisce l’ipersuperficie
algebrica F di P n definita dall’equazione F = 0 o da F e si definiscono le
componenti irriducibili di F e le loro molteplicità.
Le ipersuperfici di uno spazio proiettivo si dicono ipersuperfici proiettive.
Nel caso n = 2 le ipersuperfici proiettive sono le curve proiettive, nel caso
n = 3 sono le superfici proiettive.
Osservazione 4.10 Un polinomio F ∈ K[x1 , . . . , xn+1 ] omogeneo di grado
positivo definisce un’ipersuperficie proiettiva F in P n ed un’ipersuperficie
affine Fe in An+1 .
L’ipersuperficie Fe ha la proprietà: se contiene un punto P distinto dall’origine O di An+1 , allora contiene tutti i punti della retta OP , cioè Fe è un
cono di vertice O .
Infatti, se una (n+1)-pla non nulla (a1 , . . . , an+1 ) di elementi di K annulla
F , annullano F anche tutte le (n + 1)-ple (ka1 , . . . , kan+1 ) al variare di k in
K . Il cono Fe si chiama cono affine associato a F .
Anche nel caso proiettivo un’ipersuperficie individua la sua equazione;
infatti si ha il
Teorema 4.11 Due equazioni omogenee F = 0 e G = 0 distinte definiscono
in P n ipersuperfici distinte.
DIMOSTRAZIONE. Le due equazioni definiscono in P n la stessa ipersuperficie F se e solo se definiscono la stessa ipersuperficie Fe in An+1 (osservazione
4.10) e quindi il teorema segue dal teorema 4.6.
Anche nel caso di ipersuperfici proiettive, nel seguito, per brevità, ometteremo la parola algebrica riferita ad una ipersuperficie e diremo anche ipersuperficie F = 0 invece di ipersuperficie di equazione F = 0.
Definizione 4.12 Il grado del polinomio F che definisce l’ipersuperficie proiettiva F si dice grado o ordine di F .
L’ordine di F è invariante per proiettività. Infatti, se ω è una proiettività di
Pn e
n+1
X
xi =
aij x′j , i = 1, 2, . . . , n + 1,
j=1
136
4 IPERSUPERFICI ALGEBRICHE
sono le equazioni di ω −1 , la trasformata di F mediante ω è l’ipersuperficie
di equazione
!
n+1
n+1
X
X
F ′ = F ′ (x′1 , . . . , x′n+1 ) = F
a1j x′j , . . . ,
an+1 j x′j = 0
j=1
j=1
e, per il teorema 2.1, il polinomio F ′ ha grado uguale a quello di F .
Esempio 4.13 1) Le ipersuperfici algebriche proiettive di ordine 1 sono gli
iperpiani.
2) Le ipersuperfici algebriche proiettive di ordine 2 sono le quadriche
proiettive.
L’equazione di una quadrica proiettiva Q si può scrivere
n+1
X
aii x2i + 2
i=1
X
aij xi xj = 0,
aij ∈ K.
i<j
Se q è la forma quadratica su K n+1 che, rispetto alla base di K n+1 scelta per
il sistema di coordinate omogenee in P n , ha come matrice


a11
. . . a1 n+1
..
..

aij = aji ,
A =  ...
.
.
an+1 1 . . . an+1 n+1
l’equazione di Q si può scrivere
q(x1 , x2 , . . . , xn+1 ) = 0.
Esiste una base di K n+1 rispetto alla quale la matrice di q è diagonale (capitolo II, teorema 2.13 ); se y1 , y2, . . . , yn+1 è un sistema di coordinate omogenee
rispetto a tale base, l’equazione di Q si scrive
(7)
r
X
di yi2 = 0,
i=1
0 6= di ∈ K,
1 ≤ r ≤ n + 1.
Essendo K algebricamente chiuso, in esso esiste un elemento bi tale che b2i =
di (1 ≤ i ≤ r) e quindi con la trasformazione proiettiva
bi yi, se 1 ≤ i ≤ r,
zi =
yi ,
r + 1 ≤ i ≤ n + 1,
l’equazione di Q diviene
(8)
r
X
i=1
zi2 = 0,
1 ≤ r ≤ n + 1.
5 PUNTI SEMPLICI E PUNTI SINGOLARI
137
Quindi è possibile scegliere un sistema di coordinate omogenee in P n in modo
che Q abbia equazione della forma (8).
4. Da ora in avanti riguarderemo P n come completamento proiettivo dello
spazio affine An nel modo descritto nel capitolo IV, §5, in modo che l’iperpiano
improprio sia xn+1 = 0.
Se F è un’ipersuperficie proiettiva di P n , di equazione F (x1 , . . . , xn+1 ) =
0, che non ha come componente l’iperpiano improprio xn+1 = 0, cioè il polinomio F non ha xn+1 come fattore, allora l’ipersuperficie affine F∗ di An di
equazione
F∗ (x1 , . . . , xn ) = F (x1 , . . . , xn , 1) = 0
è la restrizione affine di F . Le due ipersuperfici F e F∗ hanno lo stesso
ordine ed i punti di F∗ sono i punti propri di F .
Se F1 , . . . Fh sono le componenti irriducibili di F e F = r1 F1 +· · ·+rh Fh ,
dal lemma 2.8 segue che
F∗ = r1 F1∗ + · · · + rh Fh∗ .
Se G è un’ipersuperficie affine di An di ordine m, avente per equazione
g(x1 , . . . , xn ) = 0, l’ipersuperficie proiettiva G ∗ di P n di equazione
g ∗ (x1 , . . . , xn+1 ) = 0,
dove g ∗ (x1 , . . . , xn+1 ) è il polinomio omogeneizzato di g(x1 , . . . , xn ) rispetto
a xn+1 , è il completamento proiettivo di G . I punti di G ∗ che non sono punti
di G sono i punti impropri di G o di G ∗ . Se G1 , . . . Gh sono le componenti
irriducibili di G e G = r1 G1 + · · · + rh Gh , allora
G ∗ = r1 G1∗ + · · · + rh Gh∗ .
Sempre dal lemma 2.8 segue che
(G ∗ )∗ = G,
F = (F∗ )∗ .
5. Intersezione di una ipersuperficie con una retta. Punti semplici
e punti singolari.
1. Sia F un’ipersuperficie proiettiva di P n di ordine m, di equazione
F (x1 , . . . , xn+1 ) = 0
138
5 PUNTI SEMPLICI E PUNTI SINGOLARI
e sia R una retta di P n . Se A = (a1 , . . . , an+1 ) e B = (b1 , . . . , bn+1 ) sono due
punti distinti di R, equazioni parametriche di R sono (capitolo IV, §3, n.2)
x1 = λa1 + µb1 , . . .
xn+1 = λan+1 + µbn+1
ed i punti comuni a R ed a F sono quelli che si ottengono per λ, µ tali che
(1)
Φ(λ, µ) = F (λa1 + µb1 , . . . , λan+1 + µbn+1 ) = 0.
Se il polinomio Φ(λ, µ) è nullo, tutti i punti di R sono punti di F e diremo
perciò che R è contenuta in F , cosa che indicheremo scrivendo R ⊂ F .
Se il polinomio Φ(λ, µ) non è nullo, è omogeneo di grado m in λ, µ. Esso
si decompone nel prodotto di m fattori lineari omogenei (teorema 2.11); se
ηi λ − ξi µ, i = 1, . . . , h, sono i fattori lineari distinti, si ha
(2)
Φ(λ, µ) =
h
Y
i=1
(ηi λ − ξiµ)si ,
si > 0,
h
X
si = m.
i=1
Se Pi è il punto di R che si ottiene per λ = ξi , µ = ηi , i punti comuni a
R ed a F sono P1 , . . . , Ph .
Il fatto che il polinomio Φ(λ, µ) sia nullo e, nel caso che non sia nullo, gli
esponenti si dei fattori della (2) che determinano i punti Pi , non dipendono
dai particolari punti A e B scelti per scrivere le equazioni parametriche della
retta R.
Infatti, siano A′ = (a′1 , . . . , a′n+1 ) e B ′ = (b′1 , . . . , b′n+1 ) altri due punti di
R e
x1 = λ′ a′1 + µ′ b′1 , . . .
xn+1 = λ′ a′n+1 + µ′ b′n+1
le equazioni parametriche di R determinate mediante A′ e B ′ . I punti comuni
a R e F si ottengono per λ′ , µ′ tali che
(1′ )
Φ′ (λ′ , µ′ ) = F (λ′ a′1 + µ′ b′1 , . . . , λ′ a′n+1 + µ′ b′n+1 ) = 0.
Se Φ(λ, µ) è nullo si ha R ⊂ F e perciò Φ′ (λ′ , µ′ ) è nullo. Se Φ(λ, µ) non è
nullo, allora R ha in comune con F solo i punti P1 , . . . , Ph e si ha
Φ′ (λ′ , µ′ ) =
h
Y
′
(ηi′ λ′ − ξi′ µ′ )si ,
s′i > 0,
i=1
h
X
s′i = m,
i=1
dove λ′ = ξi′ e µ′ = ηi′ determinano il punto Pi . Se
P = (λa1 + µb1 , . . . , λan+1 + µbn+1 ) = (λ′ a′1 + µ′ b′1 , . . . , λ′ a′n+1 + µ′ b′n+1 ),
5 PUNTI SEMPLICI E PUNTI SINGOLARI
139
allora, su R, (λ, µ) è un sistema di coordinate omogenee di P rispetto alla
base a = (a1 , . . . , an+1 ), b = (b1 , . . . , bn+1 ) dello spazio vettoriale R che definisce R, mentre (λ′ , µ′ ) è un sistema di coordinate omogenee di P rispetto
alla base a′ = (a′1 , . . . , a′n+1 ), b′ = (b′1 , . . . , b′n+1 ) di R. Quindi esistono (capitolo IV, §3) un elemento 0 6= k ∈ K ed una matrice invertibile (cij ) di ordine
2 a elementi in K tali che
(3)
kλ = c11 λ′ + c12 µ′ ,
kµ = c21 λ′ + c22 µ′ .
Mediante le (3) si ha
k(ηi λ − ξi µ) = ηi (c11 λ′ + c12 µ′ ) − ξi (c21 λ′ + c22 µ′ )
= (c11 ηi − c21 ξi )λ′ + (c12 ηi − c22 ξi)µ′ .
Essendo (ξi , ηi ) e (ξi′ , ηi′ ) sistemi di coordinate omogenee di Pi rispetto alle
basi (a, b) e (a′ , b′ ) di R, esiste un elemento 0 =
6 ki ∈ K tale che
ki ξi = c11 ξi′ + c12 ηi′ ,
ki ηi = c21 ξi′ + c22 ηi′ .
Posto c = det (cij ), da queste si ricava
ki
ki
ξi′ = − (c12 ηi − c22 ξi ),
ηi′ = (c11 ηi − c21 ξi )
c
c
e quindi, a meno di un fattore non nullo in K , il fattore ηi λ − ξi µ mediante
le (3) viene trasformato in ηi′ λ′ − ξi′ µ′ . Mediante le inverse delle (3) il fattore
ηi′ λ′ − ξi′ µ′ viene trasformato in ηi λ − ξi µ, sempre a meno di un fattore non
nullo in K . Quindi ηi′ λ′ − ξi′µ′ è il trasformato solo del fattore ηi λ − ξi µ e
perciò s′i = si . Per denotare che P è un punto comune a R e a F scriveremo
P ∈ R ∩ F = F ∩ R. All’esponente massimo si con cui il fattore (ηi λ − ξi µ),
che determina il punto Pi , divide Φ(λ, µ) si attribuisce il significato di numero
di volte in cui Pi compare tra i punti comuni a R e F e si dice che si è la
molteplicità d’intersezione in Pi di R con F o di F con R e si denota
I(R ∩ F , Pi ) = I(F ∩ R, Pi ) = si .
Nel caso che R ⊂ F , in ogni punto P ∈ R si definisce la molteplicità
d’intersezione di R con F ponendo
I(R ∩ F , P ) = I(F ∩ R, P ) = ∞.
Se la retta R non è contenuta in F e P1 , . . . , Ph sono i punti distinti
che essa ha in comune con F e si conviene
Ph di contare Pi esattamente si =
I(R ∩ F , Pi) volte (1 ≤ i ≤ h), poiché i=1 si = m si ha che i punti comuni
a R e F sono m. Si ha, quindi, il seguente teorema, che attribuisce un
significato geometrico all’ordine di un’ipersuperficie.
140
5 PUNTI SEMPLICI E PUNTI SINGOLARI
Teorema 5.1 Sia F un’ipersuperficie proiettiva di P n . Se R è una retta di
P n non contenuta in F , allora R e F hanno in comune un numero finito di
punti distinti e contando ciascuno tante volte quanta è in esso la molteplicità
di intersezione di R con F , il numero di punti comuni è uguale all’ordine di
F.
Se R 6⊂ F e A ∈ R ∩ F , poiché dalle equazioni di R segue che il punto A
si ottiene per µ = 0, si ha che µ è uno dei fattori del polinomio Φ(λ, µ) e
I(R ∩ F , A) = s è il massimo intero per cui µs divide Φ(λ, µ). Quindi si ha:
(4)
I(R ∩ F , A) è la molteplicità della radice µ = 0 per il polinomio
ϕ(µ) = Φ(1, µ) = F (a1 + µb1 , . . . , an+1 + µbn+1 ).
Lemma 5.2 La molteplicità d’intersezione di un’ipersuperficie con una retta
in un punto è invariante per proiettività.
DIMOSTRAZIONE. Siano F un’ipersuperficie, R una retta ed A ∈ R ∩ F .
Bisogna dimostrare che se ω è una proiettività di P n e F ′ , R′ , A′ sono i
trasformati di F , R, A mediante ω , si ha
I(R ∩ F , A) = I(R′ ∩ F ′, A′ ).
Se R ⊂ F si ha anche R′ ⊂ F ′ e quindi l’uguaglianza è vera, essendo
ambo i membri ∞. Sia R 6⊂ F . Se A = (a1 , . . . , an+1 ) e R = AB con
B = (b1 , . . . , bn+1 ) allora I(R ∩ F , A) = s è il massimo intero per cui µs
divide il polinomio Φ(λ, µ) della (1). Se le equazioni di ω −1 sono
xi =
n+1
X
cij x′j ,
i = 1, . . . , n + 1,
j=1
l’equazione di F ′ è
F ′ (x′1 , . . . , x′n+1 ) = F
n+1
X
c1j x′j , . . . ,
j=1
n+1
X
j=1
cn+1j x′j
!
=0
e sistemi di coordinate omogenee per A′ , B ′ sono (a′1 , . . . , a′n+1 ), (b′1 , . . . , b′n+1 )
tali che
n+1
n+1
X
X
′
ai =
cij aj , bi =
cij b′j , i = 1, . . . , n + 1.
j=1
j=1
Equazioni di R′ sono
x′1 = λa′1 + µb′1 , . . .
x′n+1 = λa′n+1 + µb′n+1
141
5 PUNTI SEMPLICI E PUNTI SINGOLARI
′
e I(R′ ∩ F ′ , A′ ) = s′ è il massimo intero per cui µs divide il polinomio
Φ′ (λ, µ) = F ′ (λa′1 + µb′1 , . . . , λa′n+1 + µb′n+1 ).
Si ha
Φ′ (λ, µ) = F
n+1
X
c1j (λa′j + µb′j ), . . . ,
j=1
= F
λ
n+1
X
n+1
X
cn+1j (λa′j + µb′j )
j=1
c1j a′j + µ
j=1
n+1
X
c1j b′j , . . . , λ
j=1
n+1
X
!
cn+1j a′j + µ
j=1
= F (λa1 + µb1 , . . . , λan+1 + µbn+1 )
= Φ(λ, µ)
n+1
X
cn+1j b′j
j=1
!
e quindi s′ = s.
2. Sia F un’ipersuperficie affine di An di ordine m, di equazione
f = f (x1 , . . . , xn ) = 0
e sia A(a1 , . . . , an ) un suo punto. Sia R una retta passante per A. Siano F ∗
e R∗ i rispettivi completamenti proiettivi di F e R.
Si definisce la molteplicità d’intersezione in A di F con R o di R con
F , e si denota I(F ∩ R, A) = I(R ∩ F , A), ponendo
(5)
I(F ∩ R, A) = I(F ∗ ∩ R∗ , A).
Per calcolare la molteplicità d’intersezione possiamo procedere come segue.
Se R ⊂ F si ha R∗ ⊂ F ∗ , avendo F ∗ in comune con R∗ gli infiniti punti
di R, e quindi I(F ∩ R, A) = ∞.
Sia R 6⊂ F . Se R ha equazioni parametriche
x1 = a1 + µb1 , . . .
xn = an + µbn
il suo punto improprio è (capitolo IV, esempio 5.3, 2)) B∞ (b1 , . . . , bn , 0) ed
equazioni parametriche di R∗ sono
x1 = λa1 + µb1 , . . .
xn = λan + µbn ,
xn+1 = λ.
Se
f = f0 + f1 + · · · + fm
è la decomposizione di f in somma di componenti omogenee, l’equazione di
F ∗ è
(6)
m−1
f ∗ = xm
n+1 f0 + xn+1 f1 + · · · + xn+1 fm−1 + fm = 0
5 PUNTI SEMPLICI E PUNTI SINGOLARI
142
e l’equazione (1) è allora
(7)
Φ(λ, µ) = P
f ∗ (λa1 + µb1 , . . . , λan + µbn , λ)
m−i
fi (λa1 + µb1 , . . . , λan + µbn ) = 0.
= m
i=0 λ
Quindi, per la (4), si ha:
(8)
I(F ∩ R, A)è la molteplicità della radice µ = 0 per il polinomio
ϕ(µ) = Φ(1, µ) = f ∗ (a1 + µb1 , . . . , an + µbn , 1) = f (a1 + µb1 , . . . , an + µbn ).
3. Sia F un’ipersuperficie di P n o di An .
Definizione 5.3 Se A è un punto di F , la minima delle molteplicità d’intersezione di F con tutte le rette passanti per A (che è un intero positivo)
si dice molteplicità di A per F o di F in A e si denota mA (F ). I punti di
F di molteplicità 1 si dicono semplici, quelli di molteplicità s > 1 si dicono
multipli o singolari. Un punto di molteplicità s si dice anche s−uplo e se
s = 2 si dice doppio.
Un’ipersuperficie priva di punti singolari si dice non singolare.
Dalla (5) segue che se F è affine e F ∗ è il suo completamento proiettivo,
si ha
(9)
mA (F ) = mA (F ∗ ) per ogni A ∈ F .
Dal lemma 5.2 segue il
Corollario 5.4 La molteplicità di un punto per una ipersuperficie proiettiva
è invariante per proiettività.
Esempio 5.5 1) Sia F un’ipersuperficie affine o proiettiva. Si ha:
a) Se G è una componente irriducibile di F di molteplicità r , per ogni punto
A ∈ G si ha mA (F ) ≥ rmA (G) e l’uguaglianza vale se e solo se A non
appartiene a nessun’altra componente di F .
b) I punti comuni a due componenti irriducibili di F sono multipli per F .
143
5 PUNTI SEMPLICI E PUNTI SINGOLARI
c) Se F è priva di componenti multiple, i punti multipli di F sono i punti
multipli delle sue componenti e i punti comuni a due componenti.
Basta dimostrarlo nel caso proiettivo.
a) Sia G = 0 l’equazione di G . Allora, l’equazione di F è F = Gr H = 0,
con H che non è multiplo di G. Se A = (a1 , . . . , an+1 ), per ogni retta
R : x1 = λa1 + µb1 , . . . , xn+1 = λan+1 + µbn+1 , posto
Φ(λ, µ) = F (λa1 + µb1 , . . . , λan+1 + µbn+1 )
Φ1 (λ, µ) = G(λa1 + µb1 , . . . , λan+1 + µbn+1 )
Φ2 (λ, µ) = H(λa1 + µb1 , . . . , λan+1 + µbn+1 )
si ha
Φ(λ, µ) = Φr1 (λ, µ)Φ2 (λ, µ).
Se s = mA (G), allora esistono rette R per le quali il polinomio Φ1 (λ, µ)
è divisibile per µs , ma non per µs+1 . Per tali rette il polinomio Φ(λ, µ) è
divisibile per µrs , quindi mA (F ) ≥ rs e rs è il massimo esponente con cui µ
lo divide, cioè mA (F ) = rs, se e solo se Φ2 (λ, µ) non è divisibile per µ, cioè
se e solo se A non appartiene ad altre componenti di F .
b) È immediata conseguenza della a).
c) Sia F priva di componenti multiple. Se A è un punto semplice di F ,
per la a) esso non può essere multiplo per nessuna delle componenti di F e
per la b) non può essere punto comune a due componenti. D’altra parte, dalla
a) segue che un punto semplice A di una componente che non appartiene ad
altre componenti di F è semplice per F .
2) Sia F una ipersuperficie di ordine m di An , di equazione
f = f0 + f1 + · · · + fm = 0,
dove i polinomi fi sono le componenti omogenee di f . Se O è l’origine di An
si ha
mO (F ) = s ⇐⇒ f0 = f1 = · · · = fs−1 = 0,
fs 6= 0.
Infatti, se R di equazioni parametriche x1 = b1 µ, . . . xn = bn µ è una retta
per O , il polinomio
ϕ(µ) = f (b1 µ, . . . , bn µ) =
m
X
µi fi (b1 , . . . , bn )
i=0
ha la radice µ = 0 di molteplicità s se e solo se
f0 = f1 (b1 , . . . , bn ) = · · · = fs−1 (b1 , . . . , bn ) = 0,
fs (b1 , . . . , bn ) 6= 0.
144
5 PUNTI SEMPLICI E PUNTI SINGOLARI
Ed allora, mO (F ) = s se e solo se
f0 = f1 (b1 , . . . , bn ) = · · · = fs−1 (b1 , . . . , bn ) = 0 per ogni b1 , . . . , bn ∈ K,
mentre esistono b1 , . . . , bn ∈ K tali che fs (b1 , . . . , bn ) 6= 0 e quindi (teorema
4.1) se e solo se f0 = f1 = · · · = fs−1 = 0, fs 6= 0.
3) Sia F un’ipersuperficie di ordine m di P n , non contenente l’iperpiano
improprio xn+1 = 0 come componente, di equazione
m−1
F (x1 , . . . , xn+1 ) = F0 xm
n+1 + F1 xn+1 + · · · + Fm = 0,
dove Fi ∈ K[x1 , . . . , xn ], se non nullo, è omogeneo di grado i.
Sia An+1 = (0, . . . , 0, 1); dall’esempio precedente, applicato alla restrizione
affine F∗ di F , che ha equazione
F∗ (x1 , . . . , xn ) = F0 + F1 + · · · + Fm = 0,
segue che
mAn+1 (F ) = s ⇐⇒ F0 = F1 = · · · = Fs−1 = 0,
Fs 6= 0.
4) Sia F un’ ipersuperficie di ordine m di P n non contenente l’iperpiano
xr = 0 come componente, di equazione
m−1
F (x1 , . . . , xn+1 ) = F0 xm
+ · · · + Fm = 0,
r + F1 xr
dove Fi ∈ K[x1 , . . . , xr−1 , xr+1 , . . . , xn+1 ], se non nullo, è omogeneo di grado
i. Con la trasformazione proiettiva di coordinate
x′j = xj
se j 6= r, n + 1,
x′r = xn+1 ,
x′n+1 = xr ,
il punto Ar = (0, . . . , 0, 1, 0, . . . , 0), dove 1 è al posto r−mo, viene trasformato in An+1 = (0, . . . , 0, 1) e dall’esempio 3) segue che
mAr (F ) = s ⇐⇒ F0 = F1 = · · · = Fs−1 = 0,
Fs 6= 0.
5) Un’ipersuperficie F , affine o proiettiva, è un cono di vertice il punto A se
e solo se per ogni punto P ∈ F , distinto da A, la retta AP è contenuta in
F.
L’ipersuperficie F di ordine m è un cono di vertice A se e solo se mA (F ) =
m.
Infatti, se mA (F ) = m, per ogni retta R passante per A si ha I(R ∩
F , A) ≥ m e quindi, se R passa per un altro punto di F è contenuta in F
(teorema 5.1 ). Viceversa, sia F un cono di vertice A. Per ogni retta R
passante per A se R ⊂ F si ha I(R ∩ F , A) = ∞ per definizione, altrimenti
R 6⊂ F e allora si ha I(R ∩ F , A) = m per il teorema 5.1; segue mA (F ) = m.
145
5 PUNTI SEMPLICI E PUNTI SINGOLARI
Osservazione 5.6 Un’ipersuperficie affine F di An è un cono di vertice
l’origine O se e solo se il polinomio che la definisce è omogeneo.
Segue subito dall’esempio 5.5, 2).
Osservazione 5.7 Nel piano, un cono C di vertice A e di ordine m è costituito da rette passanti per A e contando ciascuna di esse tante volte quanta
è la sua molteplicità come componente di C il numero di tali rette è m.
Infatti, se B è un suo punto distinto da A, la retta AB è una componente
di C . Se R1 , . . . , Rh sono le componenti (rette) distinte di C e r1 , . . . , rh sono
le loro molteplicità, allora
C = r1 R1 + · · · + rh Rh ,
r1 + · · · + rh = m.
Se F è proiettiva di equazione F = 0 e R = AB è una retta passante per A
il polinomio Φ(λ, µ) della (1) si può scrivere
Φ(λ, µ) = F (λa1 + µb1 , . . . , λan+1 + µbn+1 ) =
m
X
αi λm−i µi ,
i=0
αi ∈ K.
Se R 6⊂ F esso non è nullo e per la formula di Mac Laurin (§1) applicata
al polinomio
(10)
ϕ(µ) = Φ(1, µ) = F (a1 + µb1 , . . . , an+1 + µbn+1 ) =
m
X
i=0
si ha
αi =
Posto
risulta:
(10.0)
(10.1)
1 (i)
ϕ (0),
i!
∂r F
∂r F
=
(a1 , . . . , an+1 ),
∂air · · · ∂ai1
∂xir · · · ∂xi1
α0 = F (a1 , . . . , an+1 )
α1 =
n+1
X
∂F
i=1
(10.2)
0 ≤ i ≤ m.
∂ai
bi
n+1
1 X ∂2F
α2 =
bi bj
2 i,j=1 ∂aj ∂ai
αi µi
146
5 PUNTI SEMPLICI E PUNTI SINGOLARI
···
(10.s)
n+1
∂sF
1 X
bi · · · bis .
αs =
s! i ,...,i =1 ∂ais · · · ∂ai1 1
1
s
···
Se F è affine di equazione f = 0 e R è la retta passante per A di equazioni
parametriche xi = ai + µbi , (1 ≤ i ≤ n), il polinomio ϕ(µ) della (8) si può
scrivere
(11)
ϕ(µ) = f (a1 + µb1 , . . . , an + µbn ) =
m
X
αi µi.
i=0
Se R 6⊂ F il polinomio ϕ(µ) non è nullo e per la formula di Mac Laurin si ha
(11.0)
α0 = f (a1 , . . . , an )
(11.1)
(11.2)
α1 =
n
X
∂f
bi
∂a
i
i=1
n
1 X ∂2f
bi bj
α2 =
2 i,j=1 ∂aj ∂ai
···
(11.s)
n
1 X
∂sf
αs =
bi · · · bis .
s! i ,...,i =1 ∂ais · · · ∂ai1 1
1
s
···
Sia nel caso proiettivo che nel caso affine si ha: se R 6⊂ F e A ∈ R ∩ F ,
allora
(12)
I(R ∩ F , A) = s ⇐⇒ α0 = α1 = · · · = αs−1 = 0,
αs 6= 0.
Da ciò segue che se A ∈ F , allora mA (F ) = s se e solo se per ogni retta
R passante per A risulta
α0 = α1 = · · · = αs−1 = 0
ed esistono rette R passanti per A per le quali αs 6= 0.
5 PUNTI SEMPLICI E PUNTI SINGOLARI
147
Dalle (10.i) e le (11.i) segue, allora, che mA (F ) = s se e solo se in A si
annullano tutti i polinomi derivati sino all’ordine s − 1, ma non tutti quelli
di ordine s, del polinomio che definisce F .
Se F è proiettiva, per il teorema di Eulero (teorema 2.3), per ogni intero
r ≥ 1 si ha
n+1
X
n+1
X
∂r F
∂ r−1 F
∂
∂ r−1 F
aj
=
aj
= (m−r+1)
∂aj ∂air−1 · · · ∂ai1
∂aj ∂air−1 · · · ∂ai1
∂air−1 · · · ∂ai1
j=1
j=1
e quindi se in A si annullano tutti i polinomi derivati di ordine r di F , si
annullano anche tutti quelli di ordine < r e perciò F stesso. Quindi si ha il
Teorema 5.8 Sia F un’ipersuperficie e sia A un suo punto. Allora:
1) se F è proiettiva si ha mA (F ) = s se e solo se in A si annullano tutti
i polinomi derivati di ordine s − 1 ma non tutti quelli di ordine s del
polinomio F che la definisce;
2) se F è affine si ha mA (F ) = s se e solo se in A si annullano tutti i
polinomi derivati sino all’ordine s − 1 ma non tutti quelli di ordine s
del polinomio f che la definisce.
4. Sia F un’ipersuperficie di ordine m, proiettiva di equazione F = 0 o affine
di equazione f = 0.
Definizione 5.9 Se A è un punto di molteplicità s per F , le rette R passanti
per A tali che I(R ∩ F , A) > s si dicono tangenti a F in A. In particolare,
sono tangenti a F in A tutte le rette passanti per A e contenute in F .
Se F è affine, una retta affine R è tangente a F in A se e solo se l’estensione
proiettiva R∗ di R è tangente in A all’estensione proiettiva F ∗ di F .
Se mA (F ) = s, dalla (12) segue che sono tangenti a F in A tutte e solo
le rette R per le quali risulta αs = 0.
Sia s = 1. Se F è proiettiva e A = (a1 , . . . , an+1 ), per la (10.1) la
retta R = AB è tangente a F in A se e solo se il punto B = (b1 , . . . , bn+1 )
appartiene all’iperpiano
(13)
n+1
X
∂F
i=1
∂ai
xi = 0.
148
5 PUNTI SEMPLICI E PUNTI SINGOLARI
Tale iperpiano passa per A perché, per il teorema di Eulero (teorema 2.3), si
ha
n+1
X
∂F
ai = mF (a1 , . . . , an+1 ) = 0.
∂ai
i=1
Se F è affine e A = (a1 , . . . , an ), per la (11.1) la retta R passante per A di
equazioni parametriche xi = ai + µbi , 1 ≤ i ≤ n, è tangente a F in A se e
solo se b1 , . . . , bn sono tali che
n
X
∂f
bi = 0,
∂ai
i=1
e quindi se e solo se, per ogni µ ∈ K , si ha
n
X
∂f
µbi = 0.
∂a
i
i=1
Ed allora, dalle equazioni parametriche di R segue che il luogo delle rette R
tangenti a F in A è l’iperpiano
n
X
∂f
(xi − ai ) = 0,
∂ai
i=1
(14)
che passa per A.
Definizione 5.10 L’iperpiano (13) nel caso proiettivo o l’iperpiano (14) nel
caso affine si chiama iperpiano tangente a F nel punto semplice A.
Sia s > 1. Nel caso proiettivo la retta R = AB è tangente a F in A se e
solo se B appartiene all’ipersuperficie proiettiva Q, di ordine s, di equazione
n+1
X
(15)
i1 ,...,is
∂sF
xi · · · xis = 0.
∂ais · · · ∂ai1 1
=1
L’ipersuperficie Q passa per A perché, per il teorema di Eulero, si ha
X
∂sF
ai1 · · · ais−1 aj =
∂a
∂a
·
·
·
∂a
j
i
i
s−1
1
j,i ,...,i
1
s−1
=
X
i1 ,...,is−1
ai1 · · · ais−1
= (m − s + 1)
X
X
i1 ,...,is−1
j
aj
∂ s−1 F
∂
=
∂aj ∂ais−1 · · · ∂ai1
ai1 · · · ais−1
∂ s−1 F
= 0.
∂ais−1 · · · ∂ai1
5 PUNTI SEMPLICI E PUNTI SINGOLARI
149
Nel caso affine, la retta R è tangente a F in A se e solo se b1 , . . . , bn sono
tali che
n
X
∂sf
bi1 · · · bis = 0,
·
·
·
∂a
∂a
i
i
s
1
i ,...,i =1
s
1
quindi se e solo se, per ogni µ ∈ K , si ha
n
X
i1 ,...,is
∂sf
µbi1 · · · µbis = 0.
·
·
·
∂a
∂a
i
i
s
1
=1
Ed allora, il luogo delle rette tangenti a F in A è l’ipersuperficie affine Q, di
ordine s, di equazione
(16)
n
X
i1 ,...,is
∂sf
(xi1 − ai1 ) · · · (xis − ais ) = 0,
·
·
·
∂a
∂a
i
i
s
1
=1
che passa per A.
L’ ipersuperficie Q, di equazione (15) nel caso proiettivo e di equazione
(16) nel caso affine, è un cono di vertice A perché mA (Q) = s (esempi 5.5,
5)).
Definizione 5.11 Il cono Q di equazione (15) nel caso proiettivo o di equazione (16) nel caso affine si dice cono tangente a F in A.
Osservazione 5.12 Se F è una curva piana e A è un suo punto di molteplicità s, il cono tangente a F in A è costituito da s rette passanti per A
(osservazione 5.6). Se esse sono tutte distinte A si dice punto s-plo ordinario
per F .
I punti doppi ordinari si dicono nodi.
I punti doppi non ordinari sono quelli nei quali le due rette tangenti alla
curva sono coincidenti. Se A è un punto doppio non ordinario ed in esso la
molteplicità d’intersezione della retta tangente con la curva è 3, si dice che A
è una cuspide ordinaria per la curva.
Osservazione 5.13 1) Se F è un’ipersuperficie affine e G è l’iperpiano o il
cono ad essa tangente nel punto A, allora l’iperpiano o cono tangente in A al
completamento proiettivo F ∗ di F è il completamento proiettivo G ∗ di G .
2) Se F è un’ipersuperficie proiettiva non contenente come componente
l’iperpiano improprio e G è l’iperpiano o il cono ad essa tangente nel punto
proprio A, allora l’iperpiano o cono tangente alla restrizione affine F∗ di F
150
5 PUNTI SEMPLICI E PUNTI SINGOLARI
è la restrizione affine G∗ di G . 1) Infatti, sia A = (a1 , . . . , an , 1) e sia f = 0
l’equazione di F . Se
f = f0 + f1 + · · · + fm
è la decomposizione di f in somma di componenti omogenee, l’equazione di
F ∗ è
m−1
f ∗ = xm
n+1 f0 + xn+1 f1 + · · · + fm = 0.
Se A(a1 , . . . , an ) è semplice per F , le equazioni degli iperpiani tangenti in
A a F e a F ∗ sono rispettivamente
n
X
∂f
(xi − ai ) = 0
g=
∂a
i
i=1
G=
n+1
X
∂f ∗
i=1
∂ai
xi = 0 (an+1 = 1).
Si ha
∂f
∂f ∗
=
∂ai
∂ai
(17)
per 1 ≤ i ≤ n.
Per il teorema di Eulero (teorema 2.3):
mf ∗ (x1 , . . . , xn+1 ) =
n
X
∂f ∗
i=1
∂xi
xi +
∂f ∗
xn+1
∂xn+1
calcolando in A e tenendo conto delle (17) si ha
n
n
n
X ∂f ∗
X ∂f ∗
X ∂f
∂f ∗
= mf ∗ (a1 , . . . , an , 1) −
ai = −
ai = −
ai
∂1
∂a
∂a
∂a
i
i
i
i=1
i=1
i=1
(18)
e quindi
g∗ =
n
n
n
X
X
X
∂f
∂f ∗
∂f
∂f ∗
xi −
ai xn+1 =
xi +
xn+1 = G.
∂a
∂a
∂a
∂1
i
i
i
i=1
i=1
i=1
Una verifica analoga si fa per il cono tangente in un punto multiplo. Ad
esempio, se A è doppio, le equazioni dei coni tangenti in A a F e a F ∗ sono
rispettivamente
n
X
∂2f
(xi − ai )(xj − aj ) = 0,
g=
∂aj ∂ai
i,j=1
n+1
X
∂2f ∗
G=
xi xj = 0.
∂aj ∂ai
i,j=1
Si ha
(19)
∂2f
∂2f ∗
=
,
∂aj ∂ai
∂aj ∂ai
se i, j 6= n + 1.
151
5 PUNTI SEMPLICI E PUNTI SINGOLARI
Se 1 ≤ j ≤ n, per le (18) e le (19) si ha
∂2f ∗
∂aj ∂1
(20)
e, per la (18) e le (20),
!
n
X
∂f ∗
∂ ∂f ∗
∂
−
=
=
ai
∂aj ∂1
∂aj
∂a
i
i=1
n
n
X
X
∂2f ∗
∂2f
=−
ai = −
ai
∂a
∂a
∂a
∂a
j
i
j
i
i=1
i=1
∂ ∂f ∗
∂
∂2f ∗
=
=
∂1∂1
∂1 ∂1
∂1
= −
∗
n
X
i=1
ai
−
n
X
∂f ∗
i=1
∂ai
n
X
∂2f
−
aj
∂a
∂a
j
i
j=1
ai
!
!
=
n
X
∂2f ∗
=−
ai
∂1∂a
i
i=1
n
X
∂2f
ai aj .
∂a
∂a
i
j
i,j=1
Quindi g = G.
2) Sia g = 0 l’equazione del cono o dell’iperpiano tangente a F∗ in A. Si
ha (§4, n.4) F = (F∗ )∗ e, per l’osservazione 5.13, 1), G = g ∗ . Quindi, per il
lemma 2.8, risulta g = (g ∗ )∗ = G∗ .
Esempio 5.14 1) Se l’ipersuperficie F dell’esempio 5.5, 2) ha l’origine O di
molteplicità s, allora l’equazione dell’iperpiano (nel caso s = 1) o del cono
(nel caso s > 1) ad essa tangente in O è fs = 0.
2) Se l’ipersuperficie F dell’esempio 5.5, 3) ha il punto An+1 di molteplicità s, l’equazione dell’iperpiano o del cono ad essa tangente in An+1 ha
equazione Fs = 0.
3) Se l’ipersuperficie F dell’esempio 5.5, 4) ha il punto Ar di molteplicità
s, l’equazione dell’iperpiano o del cono ad essa tangente a F in Ar è Fs = 0.
Esempio 5.15 Siano F1 , . . . , Fh le componenti irriducibili di un’ipersuperficie F e sia
F = r1 F 1 + · · · + rh F h .
Se F1 , . . . , Fk sono le componenti di F che passano per il punto A e Qi è il
cono o l’iperpiano tangente a Fi in A, allora il cono tangente a F in A è
(21)
Q = r1 Q1 + · · · + rk Qk .
Si può supporre che F sia affine e A sia l’origine. Allora, se fi = 0 è
l’equazione di Fi , l’equazione di F è
f=
h
Y
i=1
(fi )ri = 0.
6 SISTEMI LINEARI DI IPERSUPERFICI
152
Se (fi )si è la componente omogenea di grado minimo si non nulla del polinomio fi , la componente omogenea di grado minimo non nulla di f è
h
Y
r
ϕ=
(fi )si i .
i=1
Poiché (fi )si è una costante non nulla per k + 1 ≤ i ≤ h, l’equazione del cono
tangente a F in A è (esempio 5.14, 1))
k
Y
(fi )si
i=1
ri
= 0.
Per 1 ≤ i ≤ k l’equazione di Qi è (fi )si = 0 e perciò si ha la (21).
6. Sistemi lineari di ipersuperfici.
1. Un’ipersuperficie F di ordine m di P n è definita da un polinomio
omogeneo
X
in+1
ai1 ···in+1 xi11 · · · xn+1
,
i1 + · · · + in+1 = m
F =
i1 ,...,in+1
di grado m e dal teorema 4.11 segue che due polinomi definiscono la stessa
ipersuperficie se e solo se differiscono per un fattore costante. Ed allora, se
V è lo spazio vettoriale generato su K dai polinomi omogenei di grado m di
K[x1 , . . . , xn+1 ], l’applicazione che all’ipersuperficie F definita dal polinomio
F associa il punto [F ] dello spazio proiettivo P(V) è biunivoca.
Identificando l’ipersuperficie F definita da F con la sua immagine [F ] si
ha che l’insieme delle ipersuperfici algebriche di ordine m di P n si identifica
con lo spazio proiettivo P(V) e quindi si può dire che P(V) è lo spazio
proiettivo delle ipersuperfici di ordine m di P n .
Una base B di V è costituita dai monomi di grado m
(1)
i
n+1
xi11 xi22 · · · xn+1
,
i1 + · · · + in+1 = m,
ed il punto [F ] di P(V) che rappresenta l’ipersuperficie F definita da F è
quello per cui i coefficienti ai1 ···in+1 di F costituiscono un sistema di coordinate
omogenee rispetto a B .
6 SISTEMI LINEARI DI IPERSUPERFICI
153
Definizione 6.1 Un insieme Λ di ipersuperfici di ordine m di P n si dice
sistema lineare di dimensione d di ipersuperfici di ordine m se e solo Λ è una
varietà lineare di dimensione d di P(V).
Se Λ e Λ′ sono sistemi lineari di ipersuperfici di ordine m di P n , allora Λ ∩ Λ′
e Λ + Λ′ sono sistemi lineari di ipersuperfici di ordine m e dal teorema 1.4
del capitolo IV, segue che
(2)
dim (Λ + Λ′ ) = dim Λ + dim Λ′ − dim (Λ ∩ Λ′ ).
In particolare, è un sistema lineare l’insieme di tutte le ipersuperfici di
ordine m di P n , di dimensione N uguale a quella di P(V).
Per calcolare N occorre calcolare la dimensione di V, cioè il numero νn+1,m
dei monomi (1) costituenti la base B di V.
Poiché nell’insieme dei monomi (1) tutte le indeterminate xj compaiono lo
stesso numero di volte e poiché in ogni monomio compaiono m indeterminate,
distinte o no, ogni indeterminata xj compare (m/(n + 1))νn+1,m volte.
D’altra parte, i monomi ove compare xj sono tanti quanti i monomi di
ordine m − 1, cioè νn+1,m−1 ed in essi xj compare ((m − 1)/(n + 1))νn+1,m−1
volte. Quindi
m
m−1
n+m
νn+1,m = νn+1,m−1 +
νn+1,m−1 =
νn+1,m−1 ,
n+1
n+1
n+1
ossia
n+m
νn+1,m−1 .
νn+1,m =
m
Si hanno, allora, le uguaglianze
n+m
νn+1,m =
νn+1,m−1
m
n+m−1
νn+1,m−2
νn+1,m−1 =
m−1
···
n+2
νn+1,1
νn+1,2 =
2
νn+1,1 = n + 1
da cui, moltiplicando membro a membro e semplificando, segue che
(n + m)(n + m − 1) · · · (n + 2)(n + 1)
n+m
n+m
νn+1,m =
=
=
.
m
n
m!
Quindi
(3)
e si ha il
n+m
dim V =
n
6 SISTEMI LINEARI DI IPERSUPERFICI
154
Teorema 6.2 Le ipersuperfici di ordine m di P n costituiscono un sistema
lineare di dimensione
n+m
− 1.
N=
n
Si può dimostrare il teorema per induzione su m + n. Se m + n = 1 allora
può essere m = 1, n = 0 e si ha il solo monomio x1 di grado uno; oppure
m = 0, n = 1 e i monomi di grado zero sono generati da 1. In ogni caso
la formula è vera. Inoltre i monomi di grado m sono quelli di grado m − 1
in x1 , . . . , xn+1 che contengono x1 e quelli di grado m in x2 , . . . , xn+1 ; per
l’ipotesi induttiva possiamo calcolare il totale:
m+n
m+n−1
m+n−1
=
+
n
n−1
n
Esempio 6.3 1) Le curve di ordine m di P 2 costituiscono un sistema lineare
di dimensione
(m + 2)(m + 1)
2+m
m(m + 3)
−1 =
N=
−1 =
.
2
2
2
In particolare:
a) le coniche costituiscono un sistema lineare di dimensione 5,
b) le cubiche costituiscono un sistema lineare di dimensione 9.
2) Le superfici di ordine m di P 3 costituiscono un sistema lineare di
dimensione
3+m
− 1.
N=
3
3) Le quadriche di P n costituiscono un sistema lineare di dimensione
n+2
− 1.
N=
2
In particolare, le quadriche di P 3 costituiscono un sistema lineare di dimensione 9.
2. Sia Λ un sistema lineare di dimensione d di ipersuperfici di ordine m di
P n . Se
F1 = 0, . . . Fd+1 = 0,
155
6 SISTEMI LINEARI DI IPERSUPERFICI
sono ipersuperfici di Λ linearmente indipendenti, cioè tali che sono linearmente indipendenti i punti [F1 ], . . . , [Fd+1 ] di P N (V), allora Λ è costituito dalle
ipersuperfici
λ1 F1 + · · · + λd+1 Fd+1 = 0
al variare in K di λ1 , . . . , λd+1 , non tutti nulli.
Se U è il sottospazio di V generato dai polinomi F1 , . . . , Fd+1 allora Λ è
lo spazio proiettivo P(U) ed il punto di P(U) che rappresenta l’ipersuperficie
λ1 F1 + · · · + λd+1 Fd+1 = 0 è quello per cui, rispetto alla base (F1 , . . . , Fd+1 )
di U, è un sistema di coordinate omogenee (λ1 , . . . , λd+1 ).
Teorema 6.4 Sia Λ un sistema lineare di dimensione d di ipersuperfici di
ordine m di P n costituito dalle ipersuperfici
λ1 F1 + · · · + λd+1 Fd+1 = 0
al variare di λ1 , . . . , λd+1 in K . Se
(4)
M(λ1 , . . . , λd+1 )t = 0,
M ∈ Kh,d+1
è un sistema di equazioni lineari omogenee in λ1 , . . . , λd+1 , il sottoinsieme Λ′
delle ipersuperfici
λ̄1 F1 + · · · + λ̄d+1 Fd+1 = 0
di Λ ottenute al variare di (λ̄1 , . . . , λ̄d+1 ) nell’insieme delle soluzioni non
nulle del sistema (4) è un sistema lineare di dimensione d′ = d − k ≥ d − h,
dove k = rk(M).
DIMOSTRAZIONE. Se U è il sottospazio di V generato da F1 , . . . , Fd+1
allora Λ = P d (U) e Λ′ è la varietà lineare di P(U) definita dalle equazioni
(4). La dimensione di Λ′ è d′ = d − k (capitolo IV, teorema 3.5) e poiché
k ≤ h si ha d′ ≥ d − h.
Corollario 6.5 Sia Λ il sistema lineare di dimensione d di curve di ordine
m di P 2 costituito dalle curve
λ1 F1 + · · · + λd+1 Fd+1 = 0,
λi ∈ K,
e siano P1 , . . . , Pk punti fissati in P 2 e s1 , . . . , sk interi positivi. Le curve C
di Λ tali che mPj (C) = sj , j = 1, . . . , k , costituiscono sistema lineare Λ′ di
dimensione
k
X
si (si + 1)
d′ ≥ d −
.
2
i=1
156
6 SISTEMI LINEARI DI IPERSUPERFICI
DIMOSTRAZIONE. Le curve di Λ aventi in Pj = (b1 , b2 , b3 ) molteplicità sj
sono quelle che si ottengono per (λ1 , . . . , λd+1 ) tali che
(5)
λ1
∂ sj −1 Fd+1
∂ sj −1 F1
+
·
·
·
+
λ
= 0,
d+1
∂bl33 ∂bl22 ∂bl11
∂bl33 ∂bl22 ∂bl11
l1 + l2 + l3 = sj − 1.
Le (5) sono tante quanti i monomi di grado sj − 1 in 3 indeterminate cioè,
per la (3), sono
sj (sj + 1)
2 + sj − 1
=
hj =
2
2
Per il teorema 6.4 si ha la tesi.
Esempio 6.6 Sia Λ un sistema lineare di dimensione d di ipersuperfici di
ordine m di P n . Il sottoinsieme Λ′ delle ipersuperfici di Λ passanti per h
punti P1 , . . . , Ph assegnati in P n è un sistema lineare di dimensione d′ ≥ d−h.
Infatti, sia Λ costituito dalle ipersuperfici
Se
λ1 F1 + · · · + λd+1 Fd+1 = 0,
Pj = (b1j , . . . , bn+1j ),
λi ∈ K.
j = 1, 2, . . . , h,
le ipersuperfici di Λ′ sono quelle che si ottengono per (λ1 , . . . , λd+1 ) tali che
(6) λ1 F1 (b1j , . . . , bn+1j ) + · · · + λd+1 Fd+1 (b1j , . . . , bn+1j ) = 0,
j = 1, . . . , h.
Se per un indice j si ha Fi (b1j , . . . , bn+1j ) = 0 per ogni i = 1, . . . , d + 1, allora
la (6) relativa all’indice i è un’identità, altrimenti è un’equazione lineare
omogenea nelle λ1 , . . . , λd+1 e l’asserto segue dal teorema 6.4.
Ne segue che:
a) Se h ≤ d esistono in Λ ipersuperfici passanti per i punti Pj .
In particolare, tenendo conto degli esempi 5.5, si ha:
m(m + 3)
punti
In P 2 esistono curve di ordine m passanti per N =
2
asseganti.
n+2
n
−1 punti assegnati.
In P esistono quadriche passanti per N =
2
b) In Λ vi è una ed una sola ipersuperficie passante per i punti Pj , cioè
′
d = 0, se e solo se la matrice delle equazioni (6) ha caratteristica d.
In particolare, se d = 1, nel qual caso Λ si dice fascio di ipersuperfici, Λ
ha le proprietà:
a′ ) per ogni punto P ∈ P n passano ipersuperfici di Λ (segue dalla a);
b′ ) se per un punto P ∈ P n passano due ipersuperfici distinte di Λ, allora
per P passano tutte le ipersuperfici di Λ (segue dalla b).
CAPITOLO VI
CURVE
PIANE
ALGEBRICHE
1. Intersezione di due curve. Teorema di Bézout.
(1)
1. Siano C e D curve
F = F (x1 , x2 , x3 ) =
4
n
X
distinte di rispettivi ordini n e m, di equazioni
Ai xi2 = 0,
G = G(x1 , x2 , x3 ) =
i=0
m
X
Bi xi2 = 0,
i=0
con Ai , Bi ∈ K[x1 , x3 ], se non nulli, omogenei di rispettivi gradi n − i, m − i.
Fissato un numero finito di punti P1 , . . . , Pk comuni a C e D è possibile
scegliere un sistema di coordinate in modo che:
(♣) Nessuna delle curve passi per - il punto Y = (0, 1, 0) e nessuna coppia
di punti Pi sia allineata con Y .
Infatti, se R1 = 0, . . . , Rh = 0 sono le equazioni delle rette distinte che
congiungono a 2 a 2 i punti Pi , esiste un punto Q di P 2 che non è zero
del polinomio F GR1 · · · Rk (capitolo V, osservazione 4.2); ed allora basta
applicare una trasformazione proiettiva di coordinate che porti Q in Y .
Se P è un punto comune alle due curve scriveremo P ∈ C ∩ D .
Lemma 1.1 Se nessuna delle curve C e D passa per il punto Y = (0, 1, 0),
il polinomio lineare c3 x1 − c1 x3 (c1 , c3 ∈ K) è un fattore del risultante
R(x1 , x3 ) = Rx2 (F, G)
dei polinomi F , G rispetto a x2 se e solo se la retta c3 x1 − c1 x3 = 0 passa
per un punto P = (c1 , c2 , c3 ) ∈ C ∩ D .
DIMOSTRAZIONE. Poiché nessuna delle curve passa per Y , nelle (1) risulta
An = F (0, 1, 0) 6= 0 e Bm = G(0, 1, 0) 6= 0 e quindi R(x1 , x3 ), se non nullo, è
omogeneo di grado mn (capitolo V, teorema 3.10). Se il punto P = (c1 , c2 , c3 )
della retta c3 x1 − c1 x3 = 0 è comune a C e D , i polinomi
F̄ = F (c1 , x2 , c3 ),
Ḡ = G(c1 , x2 , c3 )
hanno entrambi la radice c2 e quindi (capitolo V, teorema 3.3) è nullo il loro
risultante, che è R(c1 , c3 ). Gli zeri del polinomio c3 x1 − c1 x3 in K 2 sono
4
Con la parola curva, senza altra specificazione, si deve intendere una curva algebrica
del piano proiettivo P 2 su un campo K algebricamente chiuso di caratteristica 0.
158
1 TEOREMA DI BÉZOUT
(kc1 , kc3 ) al variare di k in K ed essi sono tutti zeri di R(x1 , x3 ) in quanto,
per il lemma 2.2 del capitolo V, si ha R(kc1 , kc3 ) = k mn R(c1 , c3 ) = 0. Dal
teorema 4.3 del capitolo V, segue allora che R(x1 , x3 ) è multiplo di c3 x1 −c1 x3 .
Viceversa, se R(x1 , x3 ) è multiplo di c3 x1 − c1 x3 risulta R(c1 , c3 ) = 0 e
quindi F̄ , Ḡ hanno un fattore non costante comune H (capitolo V, teorema
3.3). Se c2 è una radice di H in K (che esiste perché K è algebricamente
chiuso) il punto P = (c1 , c2 , c3 ) appartiene a C , a D ed alla retta c3 x1 −c1 x3 =
0.
Teorema 1.2 Siano C e D curve di ordini n e m. Allora:
1) C e D hanno punti in comune;
2) se C e D hanno in comune più di mn punti distinti, hanno in comune
una componente.
DIMOSTRAZIONE. 1) Scelto un sistema di coordinate in modo che nessuna
delle curve passi per il punto Y = (0, 1, 0), se le equazioni di C e D sono
le (1), per il lemma 1.1, per ogni fattore lineare c3 x1 − c1 x3 del risultante
R(x1 , x3 ) di F e G rispetto a x2 vi è un punto comune a C e D .
2) Se C e D hanno in comune più di mn punti, siano P1 , . . . , Pmn+1 ∈
C ∩ D , distinti. Scelto un sistema di coordinate soddisfacente la (♣), se
(i) (i) (i)
Pi = c1 , c2 , c3 , i = 1, 2, . . . , mn + 1,
(i)
(i)
per il lemma 1.1 gli mn + 1 polinomi c3 x1 − c1 x3 sono fattori di R(x1 , x3 ).
(i)
(i)
E sono tutti fattori distinti, perché c3 x1 − c1 x3 = 0 è l’equazione della retta
Y Pi e al variare di i le rette Y Pi sono tutte distinte. Ed allora R(x1 , x3 ) è
nullo perché, se non nullo, avrebbe grado mn (capitolo V, teorema 3.10) e non
potrebbe avere mn + 1 fattori distinti di grado positivo. Quindi i polinomi
F e G hanno un fattore non costante in comune in K[x1 , x2 , x3 ] e perciò C e
D hanno una componente comune.
2. Siano C e D di equazioni (1), prive di componenti in comune e siano
(i) (i) (i)
Pi = c1 , c2 , c3 , i = 1, 2, . . . , k,
i punti distinti ad esse comuni. Siano A = (a1 , a2 , a3 ), B = (b1 , b2 , b3 ) due
punti distinti di P 2 . I punti in cui la retta AB interseca C sono in corrispondenza biunivoca con i fattori lineari distinti del polinomio (capitolo V,
§5, n.1)
Φ = Φ(λ, µ) = F (λa1 + µb1 , λa2 + µb2 , λa3 + µb3 )
159
1 TEOREMA DI BÉZOUT
e quelli in cui AB interseca D sono in corrispondenza biunivoca con i fattori
lineari distinti del polinomio
Ψ = Ψ(λ, µ) = G(λa1 + µb1 , λa2 + µb2 , λa3 + µb3 ).
Ed allora, la retta AB passa per uno dei punti Pi comuni a C e D se e solo
se i polinomi Φ e Ψ hanno un fattore lineare non costante in comune e quindi
(capitolo V, teorema 3.17) se e solo se è nullo il risultante di Φ, Ψ rispetto a
λ, µ, che è un polinomio S = S(a1 , a2 , a3 , b1 , b2 , b3 ) nelle aj , bj . Il polinomio
S non è identicamente nullo perché vi sono rette AB che non passano per
nessuno dei punti comuni a C e D .
La retta AB passa per il punto Pi se e solo se
a1 a2 a3 |A, B, Pi | = b1 b2 b3 = 0
c(i) c(i) c(i) 1
2
3
e quindi il polinomio S ed il polinomio
T =
k
Y
i=1
|A, B, Pi |
hanno gli stessi zeri in K 6 . Essi hanno allora gli stessi fattori irriducibili (capitolo V, corollario 4.4). I fattori irriducibili di T sono i polinomi |A, B, Pi |.
Infatti, se |A, B, Pi | fosse riducibile, essendo omogeneo e lineare nelle ai ed
omogeneo e lineare nelle bi , per il lemma 2.4 del capitolo V, dovrebbe essere
del tipo
|A, B, Pi| = (p1 a1 + p2 a2 + p3 a3 )(q1 b1 + q2 b2 + q3 b3 ).
Ma allora, essendo
|A, A, Pi | = (p1 a1 + p2 a2 + p3 a3 )(q1 a1 + q2 a2 + q3 a3 ) ≡ 0,
dovrebbe essere p1 = p2 = p3 = 0 oppure q1 = q2 = q3 = 0, quindi
|A, B, Pi | ≡ 0; assurdo. Esistono, allora, degli interi si > 0 tali che
(2)
S=d
k
Y
i=1
|A, B, Pi|si ,
0 6= d ∈ K.
Due fattori |A, B, Pi |, |A, B, Pj | differiscono per un fattore costante se e solo
se hanno gli stessi zeri in K 6 (capitolo V, corollario 4.4), cioè se e solo se ogni
retta AB che passa per Pi passa per Pj e viceversa, e questo si verifica se e
solo se i = j .
160
1 TEOREMA DI BÉZOUT
Definizione 1.3 L’esponente si della (2), che denoteremo I(C ∩ D, Pi ) o
I(D ∩ C, Pi ), si chiama molteplicità di intersezione di C e D o di D e C in
Pi .
Lemma 1.4 La molteplicità di intersezione di C e D in un loro punto comune è invariante per proiettività.
DIMOSTRAZIONE. Sia ω una proiettività di equazioni
x′i = di1 x1 + di2 x2 + di3 x3 ,
i = 1, 2, 3.
xi = ei1 x′1 + ei2 x′2 + ei3 x′3 ,
i = 1, 2, 3,
Se
−1
sono le equazioni di ω , le equazioni delle curve C ′ e D ′ trasformate di C e
D per effetto di ω sono rispettivamente
!
3
3
3
X
X
X
F ′ (x′1 , x′2 , x′3 ) = F
e1j x′j ,
e2j x′j ,
e3j x′j = 0,
j=1
G
′
(x′1 , x′2 , x′3 )
=G
3
X
j=1
e1j x′j ,
j=1
3
X
j=1
e2j x′j ,
j=1
3
X
e3j x′j
j=1
!
= 0.
Sia P = (c1 , c2 , c3 ) ∈ C ∩ D . I trasformati di A, B , P sono
A′ = (a′1 , a′2 , a′3 ),
B ′ = (b′1 , b′2 , b′3 ),
P ′ = (c′1 , c′2 , c′3 ),
con
a′i = di1 a1 + di2 a2 + di3 a3 ,
b′i = di1 b1 + di2 b2 + di3 b3 ,
c′i = di1 c1 + di2 c2 + di3 c3 ,
i = 1, 2, 3,
i = 1, 2, 3,
i = 1, 2, 3.
Sia S ′ = S ′ (a′1 , a′2 , a′3 , b′1 , b′2 , b′3 ) il risultante rispetto a λ, µ dei polinomi
Φ′ = Φ′ (λ, µ) = F ′ (λa′1 + µb′1 , λa′2 + µb′2 , λa′3 + µb′3 )
Ψ′ = Ψ′ (λ, µ) = G′ (λa′1 + µb′1 , λa′2 + µb′2 , λa′3 + µb′3 ).
Si ha
Φ′ = F ′ (λa′1 + µb′1 , λa′2 + µb′2 , λa′3 + µb′3 )
3
3
3
X
X
X
′
′
′
′
e3j (λa′j + µb′j )
= F
e2j (λaj + µbj ),
e1j (λaj + µbj ),
j=1
j=1
j=1
3
3
3
3
X
X
X
X
′
′
′
′
= F λ
e1j aj + µ
e1j bj , . . . , λ
e3j aj + µ
e3j bj ,
j=1
j=1
j=1
j=1
161
1 TEOREMA DI BÉZOUT
cioè Φ′ è il trasformato di Φ per effetto di ω . Similmente Ψ′ è il trasformato
di Ψ per effetto di ω . Ne segue che S ′ è il trasformato di S per effetto di ω .
Si ha
′
′
′ d11 d21 d31 a1
a1
a
a
a
a
2
3
2
3
b′2
b′3 = b1
b2
b3 d12 d22 d32 |A′ , B ′ , Pi′| = b′1
c′ (i) c′ (i) c′ (i) c1 (i) c2 (i) c3 (i) d13 d23 d33 1
2
3
d11 d21 d31 = |A, B, Pi| d12 d22 d32 .
d13 d23 d33 Essendo i fattori |A, B, Pi | di S tutti distinti ed i fattori |A′ , B ′ , Pi′| di S ′
tutti distinti, nelle decomposizioni di S e di S ′ essi compaiono con la stessa
molteplicità.
Teorema 1.5 Siano C e D curve di ordini n e m, di equazioni F = 0 e
G = 0, prive di componenti comuni, nessuna delle quali passi per il punto
Y = (0, 1, 0). Se P = (c1 , c2 , c3 ) ∈ C ∩ D e sulla retta Y P non vi sono altri
punti comuni a C e D oltre P , allora I(C ∩ D, P ) è l’esponente massimo con
cui il polinomio c3 x1 − c1 x3 divide il risultante R(x1 , x3 ) di F e G rispetto
a x2 .
DIMOSTRAZIONE. Siano
(i) (i) (i)
P i = c1 , c2 , c3 ,
i punti comuni a C e D . Assumiamo
x1 , x2 , x3 le coordinate di A. Risulta
x1 x2
1
|A, B, Pi | = 0
c(i) c(i)
1
2
e quindi la (2) diviene
(3)
S(Y ) = S = d
k Y
i=1
(i)
i = 1, . . . , k,
B = Y = (0, 1, 0) e denotiamo con
x3 (i)
(i)
0 = c3 x1 − c1 x3
(i) c3
(i)
c3 x1 − c1 x3
si
,
0 6= d ∈ K
e perciò S = S(x1 , x3 ) ∈ K[x1 , x3 ]. Il polinomio S(x1 , x3 ) coincide col
risultante R(x1 , x3 ). Infatti, S(x1 , x3 ) è il risultante rispetto a λ, µ dei
polinomi
Φ(λ, µ) = F (λx1 , λx2 + µ, λx3 ),
Ψ(λ, µ) = G(λx1 , λx2 + µ, λx3 ).
162
1 TEOREMA DI BÉZOUT
Poiché il coefficiente di µn in Φ(λ, µ) ed il coefficiente di µm in Ψ(λ, µ) sono
rispettivamente Φ(0, 1) = F (0, 1, 0) e Ψ(0, 1) = G(0, 1, 0) e sono non nulli per
ipotesi, S(x1 , x3 ) coincide (capitolo V, §3, osservazione 3.16, 1)) col risultante
rispetto a µ dei polinomi Φ(1, µ) e Ψ(1, µ), cioè col risultante rispetto a µ
dei polinomi
(4)
F (x1 , x2 + µ, x3 ),
G(x1 , x2 + µ, x3 ).
Il risultante rispetto a x2 dei polinomi (4) è un polinomio
Q = Q(x1 , x3 , µ) =
r
X
Qi (x1 , x3 )µi ,
i=1
con Qi (x1 , x3 ) ∈ K[x1 , x3 ] e si ha
Q(x1 , x3 , 0) = Q0 (x1 , x3 ) = R(x1 , x3 ).
Scambiando tra loro µ con x2 i polinomi (4) restano inalterati, mentre S e
Q si scambiano l’uno con l’altro. Ed allora, poiché in S non compare x2 , in
Q non deve comparire µ e S = Q. Quindi
S(x1 , x3 ) = Q = Q0 (x1 , x3 ) = R(x1 , x3 ).
Se sulla retta Y Pi non vi sono altri punti comuni a C e D oltre Pi , i fattori
(i)
(i)
c3 x1 − c1 x3 sono tutti distinti e si = I(C ∩ D, Pi) è il massimo esponente
(i)
(i)
con cui c3 x1 − c1 x3 divide R(x1 , x3 ). Per P = Pi si ha il teorema.
Teorema 1.6 (Teorema di Bézout). Siano C e D curve di ordini n e m,
prive di componenti comuni. Se P1 , . . . , Ph sono i loro punti comuni, si ha
h
X
i=1
I(C ∩ D, Pi ) = mn.
DIMOSTRAZIONE. Scelto un sistema di coordinate soddisfacenti la (♣),
siano le (1) le equazioni di C e D . Se
(i) (i) (i)
Pi = c1 , c2 , c3 , 1 ≤ i ≤ h,
per il teorema 1.5 il risultante R(x1 , x3 ) di F e G rispetto a x2 si può scrivere
h si
Y
(i)
(i)
R(x1 , x3 ) = d
c3 x1 − c1 x3 ,
i=1
0 6= d ∈ K,
163
1 TEOREMA DI BÉZOUT
(i)
(i)
con i fattori c3 x1 − c1 x3 tutti distinti tra loro e si = I(C ∩ D, Pi). Poiché
R(x1 , x3 ) ha grado mn (capitolo V, teorema 3.10) si ha
h
X
i=1
I(C ∩ D; Pi ) = mn.
Il teorema di Bézout si può anche enunciare nel modo seguente:
Due curve di ordini n e m prive di componenti comuni hanno in comune
mn punti, se ciascuno si conta tante volte quanta è in esso la molteplicità di
intersezione delle due curve.
3. Siano sempre C e D curve di rispettivi ordini n e m, prive di componenti in comune, di equazioni (1), nessuna delle quali passi per il punto
Y = (0, 1, 0). I polinomi F e G non sono divisibili per x3 e quindi i polinomi
F∗ = F∗ (x, y) = F (x, y, 1),
G∗ = G∗ (x, y) = G(x, y, 1),
ottenuti ponendo x1 = x e x2 = y nei loro disomogeneizzati rispetto a x3
hanno rispettivi gradi n e m. Se R(x1 , x3 ) è il risultante di F e G rispetto
a x2 ,
R∗ (x) = R(x, 1)
è il risultante di F∗ , G∗ rispetto a y . Se P = (c1 , c2 , c3 ) ∈ C ∩ D , il fattore
c3 x1 − c1 x3 di R(x1 , x3 ) in R∗ (x) diviene c3 (x − (c1 /c3 )) se c3 6= 0, cioè se
P è proprio, e la costante c1 se c3 = 0, cioè se P è improprio. Le radici di
R∗ (x) in K sono, allora, le ascisse dei punti propri comuni a C e D .
Da ciò e dal teorema 1.5 segue il
Teorema 1.7 Siano C e D curve prive di componenti comuni, le cui restrizioni affini abbiano equazioni
F = F (x, y) = 0,
G = G(x, y) = 0
e sia P (x0 , y0 ) un loro punto comune. Se nessuna delle curve passa per il
punto improprio Y = (0, 1, 0) dell’asse y e sulla retta x = x0 non vi sono
altri punti comuni a C e D oltre P , allora I(C ∩ D, P ) è la molteplicità della
radice x0 per il risultante R(x) di F e G rispetto a y .
Osservazione 1.8 Se la curva D è una retta non componente di C , la molteplicità d’intersezione di C e D in un loro punto comune P definita in questo
§ coincide con quella definita nel capitolo V, §5.
164
1 TEOREMA DI BÉZOUT
Per il precedente lemma 1.1 e per il lemma 5.2 del Capitolo V, è possibile
supporre che P sia l’origine (0, 0) di A2 e che la restrizione affine di D sia la
retta y = 0, perché a questo caso ci si può sempre ricondurre mediante una
proiettività.
La molteplicità d’intersezione di C e D in P , secondo la definizione del
capitolo V, §5, è l’esponente massimo r con cui x divide il polinomio F (x, 0)
e secondo la definizione data in questo §, per il teorema 1.7, è l’esponente
massimo s con cui x divide il risultante R(x) rispetto a y dei polinomi
F (x, y), y .
Essendo R(x) = F (x, 0) (capitolo V, esempio 3.4), si ha r = s. 4. La
molteplicità d’intersezione di C e D in un loro punto comune P è influenzata
dalle molteplicità di P per le due curve nel modo espresso dal seguente
Teorema 1.9 Se C e D sono curve prive di componenti comuni, in ogni
punto P ∈ C ∩ D si ha
I(C ∩ D, P ) ≥ mP (C)mP (D).
DIMOSTRAZIONE. Si può supporre che:
a) nessuna delle curve passi per il punto Y = (0, 1, 0),
b) P = (0, 0, 1),
c) sulla retta Y P non vi siano punti di C ∩ D distinti da P .
Se r = mP (C) e s = mP (D), le rispettive equazioni delle restrizioni affini
di C e D si possono scrivere
f = fr + fr+1 + · · · + fn = 0
g = gs + gs+1 + · · · + gm = 0
dove fi , gi ∈ K[x, y], se non nulli, sono omogenei di grado i e fr , gs 6= 0
(capitolo V, esempio 5.5, 2)). Se
fi = ai0 xi + ai1 xi−1 y + · · · + aii y i ,
r ≤ i ≤ n,
allora
f = ϕ0 xr + ϕ1 xr−1 y + · · · + ϕr y r + ϕr+1 y r+1 + · · · + ϕn y n ,
dove
ϕ0 = ar0 + ar+1 0 x + · · · + an0 xn−r
ϕ1 = ar1 + ar+1 1 x + · · · + an1 xn−r
··· = ···
165
1 TEOREMA DI BÉZOUT
e ϕn 6= 0 perché C non passa per Y .
Similmente
g = g(x, y) = ψ0 xs + ψ1 xs−1 y + · · · + ψs y s + ψs+1 y s+1 + · · · + ψm y m ,
con ψj ∈ K[x] e ψm 6= 0.
Per il teorema 1.7 basta dimostrare che il risultante R(x) dei polinomi
f, g rispetto a y è divisibile per xrs . Si ha
ϕ0 xr ϕ1 xr−1 . . . ϕn
0
.
.
.
0
r
0
ϕ0 x
. . . ϕn−1 ϕn . . . 0 ...
0
0
.
.
.
ϕ
n
.
R(x) = s
s−1
...
ψ0 x ψ1 x
s
0
ψ
x
.
.
.
0
...
0
0
...
ψm Moltiplicando la prima riga del determinante per xs , la seconda per xs−1 ,...,
la s − ma per x, la (m + 1)−ma per xr , la (m + 2)−ma per xr−1 ,..., la
(m + r)−ma per x, il determinante risulta moltiplicato per xp con
s(s + 1) r(r + 1)
+
.
2
2
D’altra parte, dal determinante ottenuto si può portare fuori segno di determinante: xr+s dalla prima colonna, xr+s−1 dalla seconda,..., x dalla (r +s)−ma
e quindi si può scrivere
p = s + (s − 1) + · · · + 1 + r + (r − 1) + · · · + 1 =
xp R(x) = xq S(x),
S(x) ∈ K[x],
con
q = (r + s) + (r + s − 1) + · · · + 1 =
(r + s)(r + s + 1)
.
2
Risulta
q−p =
(r + s)(r + s + 1) s(s + 1) r(r + 1)
−
−
= rs
2
2
2
e quindi
R(x) = xrs S(x).
Corollario 1.10 Siano C e D curve di ordini n e m prive di componenti
comuni. Se P1 , . . . , Ph sono i punti distinti comuni a C e D , risulta
h
X
i=1
mPi (C)mPi (D) ≤ mn.
166
1 TEOREMA DI BÉZOUT
DIMOSTRAZIONE. Per il teorema di Bézout si ha
Per il teorema 1.9 si ha
mPi (C)mPi (D) ≤ I(C ∩ D, Pi ),
Ph
i=1
I(C ∩ D, Pi ) = mn.
i = 1, 2, . . . , h,
e quindi
h
X
i=1
mPi (C)mPi (D) ≤
h
X
i=1
I(C ∩ D, Pi ) = mn.
5. Sull’intersezione di due curve di ordine n prive di componenti comuni
sussiste il
Teorema 1.11 Sia C1 una curva di ordine n. Se n2 punti di C1 costituiscono
l’intersezione di C1 con una curva C2 di ordine n e di essi mn costituiscono
l’intersezione di C1 con una curva irriducibile D di ordine m, allora i rimanenti n(n − m) punti costituiscono l’intersezione di C1 con una curva di
ordine n − m.
DIMOSTRAZIONE. Siano P1 , . . . , Pmn , Pmn+1 , . . . , Pn2 i punti intersezione di
C1 con C2 e P1 , . . . , Pmn i punti intersezione di C1 con D . Siano F1 = 0, F2 = 0
le equazioni di C1 , C2 e λ1 F1 + λ2 F2 = 0 il fascio da esse individuato. Se P è
un punto di D distinto da P1 , . . . , Pmn , vi è una curva C del fascio che passa
per P (capitolo V, esempio 6.6, a ′ )). Poiché C passa per tutti i punti di C1 ∩C2
ha in comune con D gli mn+ 1 punti P1 , . . . Pmn , P e quindi (teorema 1.2) ha
con D una componente in comune, che deve essere D , essendo D irriducibile.
Allora, se λ̄1 F1 + λ̄2 F2 = 0 è l’equazione di C e G = 0 è l’equazione di D , si
ha
λ̄1 F1 + λ̄2 F2 = GE.
La curva E di equazione E = 0, di ordine n−m, passa per gli n(n−m) punti
Pmn+1 , . . . , Pn2 per i quali non passa D . Tali punti costituiscono l’intersezione
di C1 con E , in quanto C1 ed E sono prive di componenti comuni. Infatti,
essendo P 6∈ C1 , deve essere λ̄2 6= 0 ed un fattore di grado positivo comune
ai polinomi F1 ed E sarebbe anche fattore di F2 , mentre, per ipotesi, F1 e
F2 sono privi di fattori non costanti comuni.
Corollario 1.12 (Teorema di Pascal). Le coppie di lati opposti di un
esagono semplice inscritto in una conica irriducibile D si intersecano in punti
allineati.
DIMOSTRAZIONE. Siano Li (1 ≤ i ≤ 6) i lati consecutivi dell’esagono. Le
cubiche
C1 = L1 + L3 + L5 , C2 = L2 + L4 + L6
167
2 SUI PUNTI MULTIPLI DELLE CURVE
si intersecano nei 9 punti Li ∩ Lj (i 6= j) ed i vertici dell’esagono costituiscono
l’intersezione di C1 con la conica irriducibile D .
b
L4
L6
L5
L1
b
L3
L2
b
Quindi, per il teorema 1.11, i 3 rimanenti punti comuni a C1 e C2 , che sono
L1 ∩ L4 , L2 ∩ L5 , L3 ∩ L6 , sono allineati.
2. Sui punti multipli delle curve.
1. Se una curva C non ha componenti multiple i suoi punti multipli sono
i punti multipli delle sue componenti ed i punti comuni a due componenti
(capitolo V, esempi 5.5, c)). Essi sono in numero finito. Sussiste, infatti, il
Teorema 2.1 Una curva C di ordine n priva di componenti multiple ha solo
un numero finito di punti singolari. Se essi sono P1 , . . . , Ph e s1 , . . . , sh sono
le loro rispettive molteplicità, risulta
(1)
h
X
i=1
si (si − 1) ≤ n(n − 1).
DIMOSTRAZIONE. Se n = 1 la curva C non ha punti singolari ed entrambi
i membri della (1) sono nulli. Sia n > 1. Si può supporre che C non passi
per il punto (0, 0, 1), altrimenti ci si riconduce a questo caso mediante una
proiettività. Allora, se F = 0 è l’equazione di C , il polinomio F ha grado n
2 SUI PUNTI MULTIPLI DELLE CURVE
168
in x3 . Se D è la curva di equazione ∂F/∂x3 = 0, che ha ordine n − 1, i punti
singolari di C sono nell’insieme C ∩ D , che è finito perché C e D non hanno
componenti in comune. Infatti, sia G un fattore irriducibile di grado positivo
comune ai polinomi F e ∂F/∂x3 . Da
∂H
∂G
∂F
H +G
=
∂x3
∂x3
∂x3
segue che G divide (∂G/∂x3 )H e poiché G non divide H , in quanto C non
ha componenti multiple, deve dividere ∂G/∂x3 . Dai gradi dei polinomi G e
∂G/∂x3 segue che ciò è possibile solo se ∂G/∂x3 = 0, cioè G ∈ K[x1 , x2 ].
Ma allora F (0, 0, 1) = 0, contro l’ipotesi che C non passi per (0, 0, 1).
Siano P1 , . . . , Ph i punti singolari di C . Si ha
ti = mPi (D) ≥ si − 1,
in quanto in Pi si annullano tutti i polinomi derivati di ordine si − 2 di
∂F/∂x3 , ed allora, per il corollario 1.10, risulta
h
X
i=1
si (si − 1) ≤
h
X
i=1
si ti ≤ n(n − 1).
Osservazione 2.2 Dal teorema 1.2 seguono i seguenti fatti.
1) Una conica C che non è costituita da una retta doppia ha al più 1
punto doppio. Se C è costituita da 2 rette distinte l’unico punto doppio di C
è l’intersezione delle due rette.
Se C è irriducibile non ha punti singolari perché l’esistenza su una conica
di un punto singolare P comporta che la retta P Q congiungente P con un
punto Q della conica è contenuta nella conica.
2) Una cubica C priva di componenti multiple non può avere più di 3 punti
doppi. Il numero di 3 punti doppi è raggiunto solo dalle cubiche spezzate in
3 rette distinte (capitolo V, esempio 5.5, 1),a)).
Se C è irriducibile non può avere più di 1 punto doppio. Infatti, una
cubica C con 2 punti doppi distinti A e B ha con la retta AB molteplicità
d’intersezione almeno 2 in ciascuno dei punti A e B e quindi (capitolo V,
teorema 5.1) AB è una componente di C .
3) Una quartica C priva di componenti multiple non può avere più di
6 punti doppi. Il numero di 6 punti doppi è raggiunto solo dalle quartiche
spezzate in 4 rette distinte.
Se la quartica C è irriducibile non può avere più di 3 punti doppi. Infatti,
sia C una quartica con 4 punti doppi distinti P1 , P2 , P3 , P4 ; fissato su C un
2 SUI PUNTI MULTIPLI DELLE CURVE
169
ulteriore punto P5 , per i 5 punti Pi passa una conica D . Per il teorema 1.9
si ha
≥ 2, se i = 1, 2, 3, 4,
I(C ∩ D, Pi)
≥ 1, se i = 5,
P5
e quindi i=1 I(C ∩ D, Pi) ≥ 9. Per il teorema di Bézout, C e D hanno una
componente in comune.
4) Una curva irriducibile C di ordine n ≥ 3 con un punto P di molteplicità
n − 1 non ha altri punti multipli oltre P .
Infatti, se una curva C di ordine n con un punto P di molteplicità n − 1
ha un altro punto multiplo Q, allora la retta P Q, avendo con C molteplicità
d’intersezione ≥ n − 1 in P e ≥ 2 in Q, è una componente di C .
2. Se la curva C è irriducibile la disuguaglianza (1) del teorema 2.1 può essere
rafforzata, come già visto per le curve delle osservazioni 2.2. A tal fine servono
le curve della seguente definizione.
Definizione 2.3 Se C è una curva irriducibile, si chiama curva sub-aggiunta
di C ogni curva D per la quale si abbia
mP (D) ≥ mP (C) − 1 per ogni punto multiplo di C .
Nel caso in cui i punti multipli di C sono tutti ordinari le curve sub-aggiunte
si dicono curve aggiunte.
Lemma 2.4 Se P1 , . . . Ph sono i punti singolari di C e s1 , . . . , sh sono le loro
rispettive molteplicità, le curve sub-aggiunte di C di ordine m costituiscono
un sistema lineare di dimensione
h
m(m + 3) X si (si − 1)
d≥
−
.
2
2
i=1
DIMOSTRAZIONE. Segue dal capitolo V, corollario 6.5 ed esempio 6.3, 1).
Teorema 2.5 . Se P1 , . . . , Ph sono i punti singolari di una curva irriducibile
C di ordine n e s1 , . . . , sh sono le loro rispettive molteplicità, si ha
(2)
h
X
i=1
si (si − 1) ≤ (n − 1)(n − 2).
170
2 SUI PUNTI MULTIPLI DELLE CURVE
DIMOSTRAZIONE. Se n ≤ 2, C non ha punti multipli ed ambo i membri
della (2) sono nulli.
Sia n > 2. Esistono curve sub-aggiunte di C di ordine n − 1. Infatti, per
il lemma 2.4, esse costituiscono un sistema lineare Λd di dimensione
h
d≥
(n − 1)(n + 2) X si (si − 1)
−
.
2
2
i=1
Per il teorema 2.1 si ha
h
X
i=1
si (si − 1) ≤ n(n − 1) < n(n − 1) + 2(n − 1) = (n − 1)(n + 2)
e perciò
h
(n − 1)(n + 2) X si (si − 1)
σ=
−
> 0.
2
2
i=1
Esiste in Λd una curva D passante per σ punti fissati su C , distinti dai
punti Pi (capitolo V, esempio 6.6, a)). Essendo C irriducibile, C e D non
hanno componenti in comune e quindi (corollario 1.10) risulta
n(n − 1) ≥
=
=
h
X
si (si − 1) + σ
i=1
h
X
si (si − 1) (n − 1)(n + 2)
+
.
2
2
i=1
h
X
i=1
h
(n − 1)(n + 2) X si (si − 1)
si (si − 1) +
−
2
2
i=1
Ed allora
h
(n − 1)(n + 2) X si (si − 1)
0 ≤ n(n − 1) −
−
2
2
i=1
h
(n − 1)(n − 2) X si (si − 1)
−
=
2
2
i=1
da cui la (2).
Corollario 2.6 Una curva irriducibile C di ordine n può avere al più un
(n − 1)(n − 2)
numero di
punti doppi.
2
171
3 CURVE RAZIONALI
DIMOSTRAZIONE. Se d è il numero di punti doppi di C si ha
2d ≤ (n − 1)(n − 2).
3. Curve razionali.
1. Sia C una curva irriducibile di ordine n e sia F (x, y) = 0 l’equazione
della sua restrizione affine.
Definizione 3.1 La curva C si dice razionale se esistono due funzioni razionali ϕ(t), ψ(t) ∈ K(t) in una indeterminata t tali che:
a) per ogni elemento t0 ∈ K , ad eccezione di un sottoinsieme finito, il
punto (ϕ(t0 ), ψ(t0 )) appartiene a C ,
b) per ogni punto (x0 , y0 ) di C , ad eccezione di un sottoinsieme finito, vi
è uno ed un solo elemento t0 ∈ K tale che x0 = ϕ(t0 ), y0 = ψ(t0 ).
Se C è razionale e ϕ(t), ψ(t) ∈ K(t) soddisfano le a) e b) si dice che
x = ϕ(t),
y = ψ(t)
sono equazioni parametriche di C .
Esempio 3.2 1) Le rette sono razionali.
Se C è una retta di equazione affine px + qy + r = 0, soddisfano le a) e
b) le funzioni razionali ϕ(t) = t, ψ(t) = −(pt + r)/q se q 6= 0 e le funzioni
razionali ϕ(t) = −r/p, ψ(t) = t se q = 0, e senza eccezioni.
2) Le coniche irriducibili sono razionali.
Sia C una conica irriducibile la cui restrizione affine abbia equazione
F (x, y) = 0. Fissato un punto Q1 (x1 , y1 ) su C , le intersezioni proprie di
C con la retta
y − y1 = λ(x − x1 )
del fascio di centro Q1 sono i punti le cui ascisse sono le radici del polinomio
F (x, λ(x − x1 ) + y1 ) = b0 (λ) + b1 (λ)x + b2 (λ)x2 ,
bi (λ) ∈ K[λ].
Se λ è tale che b2 (λ) 6= 0, il polinomio ha due radici: x1 ed un’altra radice
ϕ(λ), variabile con λ. Se ψ(λ) è l’ordinata del punto intersezione di ascissa
ϕ(λ) si ha
b1 (λ)
b1 (λ)
ϕ(λ) + x1 = −
,
ψ(λ) = λ −
− 2x1 + y1 .
b2 (λ)
b2 (λ)
172
3 CURVE RAZIONALI
Soddisfano le a) e b) le funzioni razionali
b1 (t)
− x1 ,
ϕ(t) = −
b2 (t)
b1 (t)
ψ(t) = t −
− 2x1 + y1 .
b2 (t)
Le curve irriducibili che hanno il massimo numero di punti singolari possibili,
cioè per le quali nella (2) del teorema 2.5 vale l’uguaglianza, sono razionali.
Per dimostrarlo poniamo
δ(C) = (n − 1)(n − 2) −
h
X
i=1
si (si − 1)
e premettiamo il
Lemma 3.3 Se C è una curva irriducibile di ordine n > 2 per la quale
δ(C) = 0, le curve sub-aggiunte di ordine n − 2 di C costituiscono un sistema
lineare Λn−2 di dimensione n − 2.
DIMOSTRAZIONE. Siano P1 , . . . , Ph i punti multipli di C e s1 , . . . , sh le loro
rispettive molteplicità. Per il lemma 2.4, le curve sub-aggiunte di ordine n−2
di C costituiscono un sistema lineare Λd di dimensione
h
d ≥
(n − 2)(n + 1) X si (si − 1)
−
=
2
2
i=1
h
X si (si − 1)
(n − 2)(n − 1)
=
+n−2−
=
2
2
i=1
δ(C)
=
+n−2 =
2
= n − 2.
Essendo irriducibile, C non ha componenti in comune con nessuna curva di
Λd e quindi ogni D ∈ Λd interseca C , oltre che in P1 , . . . , Ph , in un numero
finito r(D) di punti e risulta (corollario 1.10)
h
X
i=1
si (si − 1) + r(D) ≤ n(n − 2).
Quindi
r(D) ≤ n(n − 2) −
h
X
i=1
si (si − 1) =
173
3 CURVE RAZIONALI
= (n − 2) + (n − 1)(n − 2) −
= n − 2 + δ(C) =
= n−2
h
X
i=1
si (si − 1) =
e
r0 = max{r(D) : D ∈ Λd } ≤ n − 2.
Si ha d ≤ r0 . Infatti, se fosse d > r0 , esisterebbero in Λd curve passanti per
r0 + 1 punti fissati su C , distinti da P1 , . . . , Ph (capitolo V, esempio 6.6, a)),
contravvenendo alla massimalità di r0 . Dunque n − 2 ≤ d ≤ n − 2 e perciò
d = n − 2.
Teorema 3.4 Una curva irriducibile C per la quale δ(C) = 0 è razionale.
DIMOSTRAZIONE. Sia n l’ordine di C e sia F (x, y) = 0 l’equazione della
sua restrizione affine.
Se n ≤ 2 il teorema è vero, come segue dagli esempi 3.2.
Sia n > 2 e siano P1 , . . . , Ph i punti multipli di C e s1 , . . . , sh le loro rispettive molteplicità. Fissati n−3 punti Q1 , . . . , Qn−3 su C , distinti da P1 , . . . , Ph ,
le curve sub-aggiunte di ordine n − 2 di C passanti per Q1 , . . . , Qn−3 costituiscono un fascio Λ′ . Infatti, esse costituiscono un sistema lineare Λ′ di
dimensione d′ ≥ (n − 2) − (n − 3) = 1 (lemma 3.3 e capitolo V, esempio
6.6, a)). Se fosse d′ > 1, esisterebbe in Λ′ una curva D passante per due
punti fissati su C e distinti dai punti P1 , . . . , Ph , Q1 , . . . , Qn−3 . Essa, avendo
in comune con C un numero di punti
Ph
− 3) + 2 =
i=1 si (si − 1) +(n
Ph
= i=1 si (si − 1) + (n − 2) + 1 − n(n − 2) + n(n − 2)
P
(1)
= hi=1 si (si − 1) − (n − 2)(n − 1) + n(n − 2) + 1
= −δ(C) + n(n − 2) + 1
= n(n − 2) + 1,
avrebbe una componente in comune con C (teorema 1.2); assurdo, perché C
è irriducibile e D ha ordine minore di quello di C .
Intersechiamo C con le curve di Λ′ .
Se D ed E sono due curve distinte di Λ′ di rispettive equazioni G = 0 e
H = 0, le curve di Λ′ sono E e le curve G + λH = 0 al variare di λ in K .
Scegliamo, come è possibile, un sistema di riferimento in modo che:
(i) nessuna delle curve C, D, E passi per il punto Y = (0, 1, 0),
(ii) nessun punto di C ∩ D sia improprio,
174
3 CURVE RAZIONALI
(iii) nessuna coppia di punti di C ∩ D sia allineata con Y .
Per la (i) si ha che
F =
n
X
i
ai y ,
G=
i=0
n−2
X
i
ci y ,
H=
i=0
n−2
X
di y i ,
i=0
con ai , ci , di ∈ K[x] e an , cn−2 , dn−2 6= 0.
Le ascisse dei punti propri comuni a C ed alla curva Dλ di equazione
G + λH = 0 sono le radici del risultante R(x, λ) dei polinomi F e G + λH
rispetto a y . Sia
R(x, λ) =
N
X
bi (λ)xi ,
i=0
N = n(n − 2).
Poiché R(x, 0) è il risultante rispetto a y dei polinomi F e G ed esso ha grado
n(n − 2), perché, per la (ii), tutti i punti comuni a C e D sono propri, risulta
bN (0) 6= 0; quindi bN (λ) è non nullo. Siano λ1 , . . . , λr le radici distinte di
bN (λ) in K . Se t0 ∈ K e t0 6= λ1 , . . . , λr , C e Dt0 non hanno punti impropri
in comune.
Sia
Pi = (xi , yi),
Qj = (zj , wj ),
1 ≤ i ≤ h, 1 ≤ j ≤ n − 3,
e siano S1 , . . . , Sm i punti di C su tutte le rette x = xi e x = zj , distinti dai
punti Pi e Qj . Poiché per nessuno dei punti Sk passa la curva D , per ogni Sk
passa una ben determinata curva G+ λ̄k H = 0 di Λ′ (capitolo V, esempio 6.6,
a′ ) e b′ )) ed allora, se t0 6= λ̄1 , . . . , λ̄m , su ogni retta x = xi non vi sono punti
comuni a C e a Dt0 oltre Pi e su ogni retta x = zj non vi sono altri punti
comuni a C ed a Dt0 oltre Qj . Se G + λ̄0 H = 0 è la curva di Λ′ che passa per
Y e t0 è anche distinto da λ̄0 allora, per il teorema 1.7, la molteplicità delle
radici xi e zj per il polinomio R(x, t0 ) sono rispettivamente I(C ∩ Dt0 , Pi ) e
I(C ∩ Dt0 , Qj ). Quindi, per il teorema 1.9, la molteplicità della radice xi di
R(x, t0 ) è ≥ si (si − 1) e la molteplicità della radice zj è ≥ 1. Poiché, per la
(1), si ha
h
X
si (si − 1) + (n − 3) = n(n − 2) − 1 = N − 1,
i=1
R(x, t0 ) ha esattamente un’altra radice ϕ(t0 ) e si ha
h
X
i=1
si (si − 1)xi +
n−3
X
j=1
zj + ϕ(t0 ) = −
bN −1 (t0 )
.
bN (t0 )
175
3 CURVE RAZIONALI
Sia ϕ(t) ∈ K(t) la funzione razionale
h
n−3
X
bN −1 (t) X
ϕ(t) = −
−
si (si − 1)xi −
zj .
bN (t)
i=1
j=1
In modo analogo, a partire dal risultante rispetto a x, si ottiene un’altra
funzione razionale ψ(t) ∈ K(t).
Con l’eccezione di un numero finito di elementi di K , quelli che sono stati
esclusi nella precedente costruzione, il punto (ϕ(t0 ), ψ(t0 )) è un punto di C ,
cioè è soddisfatta la a) della definizione 3.1.
Se (x0 , y0 ) è un punto di C che non appartiene ad E , vi è uno ed un
solo t0 ∈ K tale che la curva Dt0 passa per (x0 , y0 ), precisamente t0 =
−G(x0 , y0 )/H(x0 , y0). Quindi il polinomio R(x, t0 ) ha x0 come radice e perciò x0 = ϕ(t0 ). Similmente y0 = ψ(t0 ). Quindi è soddisfatta la b) della
definizione 3.1 perché i punti di C che appartengono ad E sono in numero
finito; perciò C è razionale.
Corollario 3.5 Una curva C irriducibile di ordine n con
punti doppi è razionale.
(n − 1)(n − 2)
2
DIMOSTRAZIONE. Per il teorema 2.5 la curva non ha altri punti multipli
e δ(C) = 0.
Corollario 3.6 Una curva C irriducibile di ordine n con un punto P di
molteplicità n − 1 è razionale.
DIMOSTRAZIONE. La curva C non ha altri punti multipli (osservazione 2.2,
4)) e δ(C) = 0.
Osservazione 3.7 Per ogni intero n > 0 esistono curve razionali di ordine
n.
Tale è, ad esempio, la curva C la cui restrizione affine ha equazione
xn−1 + y n = 0.
È ovvio se n ≤ 2. Se n ≥ 3, la curva C ha l’origine O di molteplicità n−1
(capitolo V, esempio 5.14) ed esso è l’unico punto multiplo di C . La curva
è irriducibile. Infatti essa ha il solo punto improprio X(1, 0, 0) e quindi due
sue componenti irriducibili distinte passerebbero entrambe per X e perciò X
sarebbe multiplo per C (capitolo V, esempio 5.5, 1),b)), contro il fatto che X
è semplice per C . Quindi C è razionale per il corollario 3.6.
176
3 CURVE RAZIONALI
Osservazione 3.8 Se C è una curva irriducibile di ordine n ≥ 3 con un
punto di molteplicità n − 1, le curve sub-aggiunte di ordine n − 2 di C sono
costituite ciascuna da n − 2 rette passanti per P (capitolo V, osservazione
5.7). Il fascio di quelle passanti per n − 3 punti Q1 , . . . , Qn−3 fissati su C ,
distinti da P , è costituito dalle curve di ordine n − 2 spezzate nelle n − 3
rette P Qi ed in un’altra retta variabile nel fascio di rette di centro P . Ed
allora, per determinare equazioni parametriche di C basta intersecarla con le
rette del fascio di centro P .
Ad esempio, se C è la curva xn−1 + y n = 0 dell’osservazione 3.7, per
determinare sue equazioni parametriche basta intersecarla con le rette per
l’origine O . Le ascisse dei punti propri comuni a C ed alla retta y = λx sono
le radici dell’equazione xn−1 (λn x + 1) = 0 e quindi
x=−
1
,
λn
y=−
1
λn−1
sono equazioni parametriche di C .
Osservazione 3.9 Per ogni curva irriducibile C si definisce il genere g(C),
che è un intero non negativo; si ha δ(C) ≥ 2g(C) e se tutti i punti multipli di
C sono ordinari vale l’uguaglianza. Si dimostra che C è razionale se e solo se
g(C) = 0. Esistono, però, curve razionali per le quali δ(C) > 0. Ad esempio,
la quartica C di equazione affine
(x2 − y)2 − y 3 = 0
è irriducibile, ha un solo punto doppio nell’origine e quindi per essa δ(C) > 0.
Essa è razionale in quanto le funzioni razionali
t2 − 1
ϕ(t) =
,
t3
(t2 − 1)2
ψ(t) =
t4
soddisfano la a) e soddisfano anche la b) perché
t=
ψ − ϕ2
.
ϕψ
177
4 LE POLARI DI UNA CURVA
4. Le polari di una curva.
1. Sia C una curva di ordine n di equazione F (x1 , x2 , x3 ) = 0.
Siano A = (a1 , a2 , a3 ) e B = (b1 , b2 , b3 ) punti distinti di P 2 e
Φ(λ, µ) = F (λa1 + µb1 , λa2 + µb2 , λa3 + µb3 ) =
n
X
αi λn−i µi
i=0
il polinomio in λ, µ introdotto nel capitolo V, §5. Per la formula di Mac
Laurin (capitolo V, §1), applicata al polinomio
ϕ(µ) = Φ(1, µ) = F (a1 + µb1 , a2 + µb2 , a3 + µb3 ) =
n
X
αi µi
i=0
si ha
αn−r =
X
ϕ(n−r) (0)
∂ n−r F
1
bi1 bi2 bi3
=
(n − r)!
(n − r)! i ,i ,i ∂ai33 ∂ai22 ∂ai11 1 2 3
1 2 3
ed applicata al polinomio
ψ(λ) = Φ(λ, 1) = F (λa1 + b1 , λa2 + b2 , λa3 + b3 ) =
n
X
αi λn−i
i=0
si ha
αn−r =
Quindi
(1)
1 X
∂r F
ψ (r) (0)
=
aj1 aj2 aj3 .
r!
r! j ,j ,j ∂bj33 ∂bj22 ∂bj11 1 2 3
1 2 3
X
∂ n−r F
∂r F
1
1 X
j1 j2 j3
i1 i2 i3
b
b
b
=
1
2
3
j3
j2
j1 a1 a2 a3 .
i3
i2
i1
(n − r)! i ,i ,i ∂a3 ∂a2 ∂a1
r! j ,j ,j ∂b3 ∂b2 ∂b1
1 2 3
1 2 3
Definizione 4.1 Fissato A, se αn−r (0 < r < n) non risulta nullo qualunque
sia B , cioè A non è un punto di molteplicità > n − r per C , la curva di
equazione
(2)
X
i1 ,i2 ,i3
∂ n−r F
i1 i2 i3
i3
i2
i1 x1 x2 x3 = 0,
∂a3 ∂a2 ∂a1
che ha ordine n − r , si dice polare r-ma di A rispetto a C e si denota PAr (C).
Se A è un punto di molteplicità > n − r per C la polare r−ma di A
rispetto a C non esiste.
178
4 LE POLARI DI UNA CURVA
In virtù della (1) l’equazione di PAr (C) si può scrivere anche
(3)
X
∂r F
j1 j2 j3
j3
j2
j1 a1 a2 a3 = 0.
∂x3 ∂x2 ∂x1
j1 ,j2 ,j3
Esempio 4.2 1) Se in A = (a1 , a2 , a3 ) non si annullano tutti i polinomi
∂F/∂xi , cioè A non è un punto singolare di C , la (n − 1)-ma polare PAn−1 (C)
ha equazione
3
X
∂F
xi = 0
∂a
i
i=1
ed è una retta. Se A è un punto (semplice) di C essa è la tangente a C in A
e se A è un punto singolare di C non esiste.
2) Se in A = (a1 , a2 , a3 ) non si annullano tutti i polinomi derivati di ordine
2 di F , cioè A non è un punto di C di molteplicità ≥ 3, la (n−2)−ma polare
PAn−2 (C) di A rispetto a C ha equazione
X ∂2F
xi xj = 0
∂aj ∂ai
i,j
ed è una conica, che si chiama conica polare di A rispetto a C . Se A è un
punto doppio di C essa è la coppia di rette tangenti a C in A (capitolo V, §5,
(15)) e se A è un punto di C di molteplicità ≥ 3 non esiste.
Se A ∈ C , la conica polare di A rispetto a C , se esiste, passa per A.
Infatti, per il teorema di Eulero (capitolo V, teorema 2.3) si ha
3
3
3
X
X
X
∂2F
∂ ∂F
aj
ai
ai aj =
∂aj ∂ai
∂aj ∂ai
i,j=1
j=1
i=1
= (n − 1)
3
X
i=1
ai
∂F
∂ai
= (n − 1)nF (a1 , a2 , a3 ) = 0.
Osservazione 4.3 La nozione di curva polare di un punto rispetto ad una
data curva è invariante per proiettività, cioè se C è una curva ed A è un
punto, una proiettività ω trasforma la polare r -ma di A rispetto a C nella
polare r -ma di A′ = ω(A) rispetto a C ′ = ω(C).
′
Infatti, il coefficiente αn−r
del polinomio Φ′ (λ, µ) relativo alla curva C ′ è
il trasformato del coefficiente αn−r del polinomio Φ(λ, µ) relativo alla curva
C (capitolo V, dimostrazione del lemma 5.2).
4 LE POLARI DI UNA CURVA
179
Teorema 4.4 Sia C una curva di ordine n e siano A, B punti tali che PAr (C)
e PBn−r (C) esistano. Allora, se B ∈ PAr (C) si ha A ∈ PBn−r (C).
DIMOSTRAZIONE. Se A = (a1 , a2 , a3 ) e B = (b1 , b2 , b3 ) la curva PAr (C),
nella forma (2), ha equazione
X
i1 ,i2 ,i3
∂ n−r F
xi11 xi22 xi33 = 0,
∂ai33 ∂ai22 ∂ai11
mentre la curva PBn−r (C), nella forma (3), ha equazione
X
i1 ,i2 ,i3
∂ n−r F
bi11 bi22 bi33 = 0.
∂xi33 ∂xi22 ∂xi11
Il fatto che B ∈ PAr (C) è espresso dalla
X
i1 ,i2 ,i3
∂ n−r F
bi11 bi22 bi33 = 0,
∂ai33 ∂ai22 ∂ai11
la quale esprime anche che A ∈ PBn−r (C).
Teorema 4.5 Sia A un punto non singolare per C . Allora, le intersezioni
di C con PA1 (C) sono i punti singolari di C ed i punti semplici B tali che la
retta tangente a C in B passa per A.
DIMOSTRAZIONE. Se A = (a1 , a2 , a3 ), PA1 (C) ha equazione (nella forma
(3))
3
X
∂F
ai = 0
∂x
i
i=1
e quindi passa per tutti i punti singolari di C .
Sia B ∈ C ∩ PA1 (C), semplice per C . Per il teorema 4.4, la (n − 1)−ma
polare PBn−1 (C) di B rispetto a C , che è la tangente a C in B , passa per A.
Viceversa, sia B un punto semplice per C tale che la retta R tangente a C
in B passi per A. Essendo R = PBn−1 (C), per il teorema 4.4 si ha B ∈ PA1 (C).
Esempio 4.6 Se C è una conica, l’unica polare di un punto A rispetto a C
che si può considerare è PA1 (C), che è una retta: la retta polare di A rispetto
a C . Si ha:
a) Se C è irriducibile, allora PA1 (C) è definita per ogni punto A e se A ∈ C
essa è la retta tangente a C in A.
180
4 LE POLARI DI UNA CURVA
b) Se C è spezzata in due rette distinte, il loro punto comune B è l’unico
punto per cui la retta polare non è definita; per ogni punto A 6= B la retta
polare di A rispetto a C passa per B e se A ∈ C è la retta AB .
c) Se C è spezzata in due rette coincidenti con la retta R, la retta polare
rispetto a C non è definita per tutti e solo i punti di C e per ogni punto A 6∈ C
essa è la retta R.
Se A è un punto non singolare per C , tra le rette passanti per A ve ne sono
solo un numero finito m che sono tangenti a C in qualche punto semplice e
se n è l’ordine di C risulta m ≤ n(n − 1). Per dimostrarlo premettiamo il
seguente lemma.
Lemma 4.7 Sia C una curva di ordine n > 1 e sia A un punto non singolare
per C . Una componente semplice D di C è componente di PA1 (C) se e solo
se D è una retta passante per A.
DIMOSTRAZIONE. Si può scegliere un riferimento in modo che sia A =
(0, 0, 1), altrimenti, per l’osservazione 4.3, ci si riconduce a questo caso mediante una proiettività.
Se F = 0 è l’equazione di C , l’equazione di PA1 (C), nella forma (3), è
∂F/∂x3 = 0. Se una retta D per A di quazione b1 x1 +b2 x2 = 0 è componente
semplice di C si ha
F = (b1 x1 + b2 x2 )H,
∂F
∂H
= (b1 x1 + b2 x2 )
∂x3
∂x3
e perciò D è una componente di PA1 (C).
Viceversa, sia D una componente semplice di C che sia anche componente
di PA1 (C). Se G = 0 è l’equazione di D , si ha F = GH con G che non divide
H . Da
∂F
∂H
∂G
=
G+H
,
∂x3
∂x3
∂x3
poiché G divide ∂F/∂x3 , segue che G divide (∂G/∂x3 )H e poiché non divide
H deve dividere ∂G/∂x3 , il che è possibile solo se ∂G/∂x3 = 0, cioè G ∈
K[x1 , x2 ]. Ed allora G, essendo irriducibile, deve essere lineare (capitolo V,
teorema 2.11), cioè
G = b1 x1 + b2 x2 ,
e perciò D è una retta passante per A.
b1 , b2 ∈ K
4 LE POLARI DI UNA CURVA
181
Teorema 4.8 Sia C una curva di ordine n > 1. Se A è un punto non
singolare per C , vi è solo un numero finito di rette tangenti a C in punti
semplici che passano per A e tale numero è
m ≤ n(n − 1).
DIMOSTRAZIONE. Per il teorema 4.5, le rette che sono tangenti a C in
qualche punto semplice e passano per A sono quelle che congiungono A con
i punti di C ∩ PA1 (C) che sono semplici 5 per C .
Se C e PA1 (C) non hanno componenti in comune, il numero di punti di
C ∩ PA1 (C) è ≤ n(n − 1) (teorema 1.2) e quindi le rette richieste sono
m ≤ n(n − 1).
Se C e PA1 (C) hanno componenti in comune, siano L1 , . . . , Lk quelle di
esse semplici per C , che, per il lemma 4.7, sono rette passanti per A e sono
tangenti a C in ogni loro punto. Se su C non vi sono altri punti semplici fuori
delle rette L1 , . . . , Lk per i quali passa PA1 (C) le rette richieste sono solo le k
rette L1 , . . . , Lk e poiché k < n e k ≤ n − 1 si ha
k ≤ k 2 < n(n − 1).
Se su C vi sono punti semplici fuori delle rette L1 , . . . , Lk per i quali passa
PA1 (C), questi sono tra le intersezioni della curva D costituita dalle componenti semplici di C distinte dalle rette L1 , . . . , Lk e la curva E costituita dalle
componenti di PA1 (C) che non sono componenti di C . Se d è l’ordine di D ed
e è l’ordine di E le rette richieste sono al massimo k + de e si ha
k + de ≤ k + (n − k)(n − 1 − k)
(perché d ≤ n − k, e ≤ n − 1 − k)
= k + n(n − 1) − nk − kn + k(k + 1)
< n(n − 1)
(perché k < kn, k(k + 1) ≤ kn).
Osservazione 4.9 Si dimostra che se una curva irriducibile C di ordine n ha
come punti singolari solo d nodi e k cuspidi ordinarie, il numero m di rette
tangenti a C passanti per A, detto classe di C , è espresso dalla
m = n(n − 1) − 2d − 3k
che si dice prima formula di Pl ücker.
5
1
Se A ∈ PA
(C) è un punto semplice per C , la congiungente A con A è la retta tangente
a C in A.
5 FLESSI E CURVA HESSIANA
182
5. Flessi di una curva. Curva Hessiana.
1. Sia C una curva di ordine n.
Definizione 5.1 Un flesso di C è un punto A semplice per C in cui la
molteplicità di intersezione di C con la retta tangente a C in A è ≥ 3.
Per una retta tutti i suoi punti sono flessi, mentre una conica irriducibile non
ha flessi. Per le curve di ordine n ≥ 3 si ha:
Teorema 5.2 Sia C una curva di ordine n ≥ 3. Un punto semplice A di C
è un flesso di C se e solo se la conica polare PAn−2 (C) di A rispetto a C ha
come componente la retta tangente a C in A.
DIMOSTRAZIONE. Sia F = 0 l’equazione di C . Sia A = (a1 , a2 , a3 ) un
punto semplice di C e sia B = (b1 , b2 , b3 ) un altro punto della retta tangente
T a C in A. Dalle (12) e (10.i) del capitolo V, §5, segue che A è un flesso
di C se e solo se
3
X
∂2F
bi bj = 0,
∂aj ∂ai
i,j=1
cioè se e solo se B appartiene alla conica polare PAn−2 (C) di A rispetto a C .
Poiché tale condizione deve valere per ogni punto B di T distinto da A si ha
il teorema.
2. Sia sempre C di ordine n ≥ 3 e sia F = 0 la sua equazione.
Definizione 5.3 Si chiama curva Hessiana di C la curva H(C) di equazione
2
2
2
∂ F
∂
F
∂
F
∂x2
∂x
∂x
∂x
∂x
2
1
3
1
1
2
2
2
∂ F
∂ F
∂ F = 0.
∂x ∂x
∂x22
∂x3 ∂x2 1 2
∂2F
∂2F
∂ 2 F ∂x ∂x
∂x2 ∂x3
∂x23 1
3
H(C) ha ordine 3(n − 2) ed i suoi punti sono tutti e solo quelli la cui conica
polare rispetto a C non esiste o è degenere.
0 H(C) passa per tutti i punti multipli di C . Infatti, sia A un punto di C di
molteplicità s ≥ 2; se s > 2 la conica polare di A rispetto a C non esiste,
mentre se s = 2 essa è spezzata nelle tangenti a C in A.
183
5 FLESSI E CURVA HESSIANA
Teorema 5.4 Se C è una curva di ordine n ≥ 3, i flessi di C sono i punti
semplici di C che stanno sulla sua Hessiana.
DIMOSTRAZIONE. Se A è un flesso di C , la conica polare PAn−2 (C) di A
rispetto a C è degenere (teorema 5.2) e quindi A appartiene ad H(C).
Viceversa, ogni punto semplice A di C per cui passa H(C) è un flesso di
C . Per il teorema 5.2, basta dimostrare che la retta tangente a C in A è
componente di PAn−2 (C).
La conica PAn−2 (C) è spezzata, perché A è un punto di H(C), e passa per
A (esempio 4.2, 2)).
Se F = 0 è l’equazione di C ed A = (a1 , a2 , a3 ), l’equazione di PAn−2 (C) è
3
X
∂2F
xi xj = 0.
G(x1 , x2 , x3 ) =
∂aj ∂ai
i,j=1
Il punto A è semplice per PAn−2 (C) in quanto, per il teorema di Eulero, si ha
3
3
X
X
∂G
∂F
∂ ∂F ∂2F
= 2(n − 1)
aj
=2
aj = 2
∂ai
∂aj ∂ai
∂aj ∂ai
∂ai
j=1
j=1
e perciò ∂G/∂ai (i = 1, 2, 3) non sono tutti nulli in A.
La polare R di A rispetto alla conica PAn−2 (C) è la componente di PAn−2 (C)
che contiene A (esempio 4.2, 2)); R ha equazione
3
X
∂G
i=1
∂ai
xi = 2(n − 1)
3
X
∂F
i=1
∂ai
xi = 0
e quindi è la retta tangente a C in A.
Corollario 5.5 Una curva non singolare di ordine n ≥ 3 ha almeno un
flesso.
Corollario 5.6 Se una curva di ordine n ≥ 3 non ha infiniti flessi, allora
ne ha al più 3n(n − 2).
Osservazione 5.7 Si dimostra che se la curva irriducibile C ha come punti
singolari solo d nodi e k cuspidi ordinarie il numero i di flessi di C è espresso
dalla terza formula di Pl ücker:
i = 3n(n − 2) − 6d − 8k.
184
6 LE CUBICHE
6. Le cubiche.
1. Una cubica irriducibile può avere al più un punto doppio (§2, osservazione 2.2, 1)) che può essere un nodo od una cuspide ordinaria; se essa ha un
punto doppio è razionale (corollario 3.5). Una cubica priva di punti singolari
è irriducibile (capitolo V, esempio 5.5, 1),b)) e si dice anche ellittica.
Teorema 6.1 Ogni cubica irriducibile C con un nodo è proiettivamente equivalente alla cubica C0 di equazione affine
xy = x3 + y 3.
(I)
DIMOSTRAZIONE. Mediante una proiettività ω1 , che trasforma il nodo P
di C nel punto (0, 0, 1) e le tangenti a C in P nelle rette x1 = 0 e x2 = 0 viene
trasformata in una cubica C1 per la quale (0, 0, 1) è un nodo con tangenti le
rette x1 = 0 e x2 = 0 (capitolo V, lemma 5.2). Quindi C1 ha equazione
x1 x2 x3 = ax31 + bx21 x2 + cx1 x22 + dx32 ,
a, b, c, d ∈ K,
con a, d 6= 0 perché C1 , come C , è irriducibile. Con la proiettività ω2 , inversa
di quella di equazioni
x1 = y1 ,
x2 = y2 ,
x3 = by1 + cy2 + y3 ,
C1 viene trasformata nella cubica C2 di equazione
y1 y2 y3 = ay13 + dy23
e questa, con la proiettività ω3 , inversa di quella di equazioni
y1 =
1
z1 ,
a0
y2 =
1
z2 ,
d0
y3 = a0 d0 z3 ,
con a30 = a, d30 = d,
viene trasformata nella cubica C0 di equazione
z1 z2 z3 = z13 + z23 ,
la cui restrizione affine rispetto alla retta impropria z3 = 0 è la (I).
Poiché ω3 ω2 ω1 è una proiettività (capitolo IV, teorema 4.11), si ha il
teorema.
Corollario 6.2 Tutte le cubiche irriducibili con un nodo sono proiettivamente equivalenti.
185
6 LE CUBICHE
DIMOSTRAZIONE. Siano C e D due cubiche irriducibili con un nodo. Esistono due proiettività ω e τ che trasformano rispettivamente C e D nella
cubica C0 di equazione affine (I). Ed allora la proiettività τ −1 ω trasforma C
in D .
Teorema 6.3 Ogni cubica irriducibile con una cuspide è proiettivamente equivalente alla cubica C0 di equazione affine
x2 = y 3.
(II)
DIMOSTRAZIONE. Mediante una proiettività ω1 che trasforma la cuspide
P di C nel punto (0, 0, 1) e la tangente a C in P nella retta x1 = 0, C viene
trasformata in una cubica C1 per la quale (0, 0, 1) è una cuspide con tangente
la retta x1 = 0. Quindi C1 ha equazione
x21 x3 = ax31 + bx21 x2 + cx1 x22 + dx32 ,
a, b, c, d ∈ K,
con d 6= 0 perché C1 è irriducibile.
Con la proiettività ω2 , inversa di quella di equazioni
x1 = y1 ,
x2 = −
c
y1 + y2 ,
3d
x3 = y3 ,
C1 viene trasformata nella cubica C2 di equazione
y12 y3 = a1 y13 + b1 y12 y2 + d1 y23 ,
a1 , b1 , d1 ∈ K,
d1 6= 0,
e questa, con la proiettività ω3 inversa di quella di equazioni
y1 = z1 ,
y2 = z2 ,
y3 = a1 z1 + b1 z2 + d1 z3 ,
viene trasformata nella cubica C0 di equazione
z12 z3 = z23 ,
la cui restrizione affine rispetto alla retta impropria z3 = 0 è la (II).
Corollario 6.4 Tutte le cubiche irriducibili con una cuspide sono proiettivamente equivalenti.
DIMOSTRAZIONE. È analoga a quella del corollario 6.2.
Teorema 6.5 Una cubica non singolare C è proiettivamente equivalente ad
una cubica Ck di equazione affine
(III)
y 2 = x(x − 1)(x − k),
0, 1 6= k ∈ K.
186
6 LE CUBICHE
DIMOSTRAZIONE. La cubica C ha almeno un flesso P (corollario 5.5) e,
mediante una proiettività ω1 che trasforma P nel punto Y (0, 1, 0) e la tangente a C in P nella retta x3 = 0, essa viene trasformata in una cubica C ′ per
la quale Y è un flesso con tangente la retta x3 = 0. In quanto C ′ passa per
(0, 1, 0) e la relativa retta tangente è x3 = 0 la sua equazione si può scrivere
(capitolo V, esempio 5.14, 2))
x3 x22 +(b0 x21 +b1 x1 x3 +b2 x23 )x2 +c0 x31 +c1 x21 x3 +c2 x1 x23 +c3 x33 = 0,
bi , ci ∈ K.
Essendo Y un flesso per C ′ , le intersezioni di C ′ con la retta tangente x3 = 0
coincidono tutte con Y , cioè il sistema
b0 x21 x2 + c0 x31 = 0,
x3 = 0,
ha la sola soluzione (0, 1, 0) e quindi b0 = 0. Allora l’equazione di C ′ si può
scrivere
2
b1 x1 + b2 x3
x3 x2 +
= h(x1 , x3 ),
2
con h(x1 , x3 ) polinomio omogeneo di grado 3.
Con la proiettività ω2 , di equazioni
y1 = x1 ,
y2 =
b1
b2
x1 + x2 + x3 ,
2
2
y3 = x3
C ′ viene trasformata nella cubica C ′′ di equazione
y22 y3 = h(y1 , y3 ).
La restrizione affine di C ′′ rispetto alla retta impropria y3 = 0 è
2
y ′ = g(x′ ),
con g(x′ ) ∈ K[x′ ] di grado 3. Il polinomio g(x′ ) ha tre radici distinte in K .
Infatti, se avesse una radice multipla x0 si avrebbe g ′(x0 ) = 0 (capitolo V,
teorema 1.5) ed il punto (x0 , 0) sarebbe singolare per C ′′ , contro il fatto che
C ′′ , come C , è non singolare. Se a1 , a2 , a3 sono le radici in K di g(x′ ), si può
scrivere
2
y ′ = d(x′ − a1 )(x′ − a2 )(x′ − a3 ),
0 6= d ∈ K.
Mediante l’affinità α, inversa di quella di equazioni
x′ = (a2 − a1 )x + a1 ,
y ′ = by,
che si può riguardare come proiettività che lascia fissa la retta impropria
(capitolo IV, §5, n.3), C ′′ viene trasformata nella cubica di equazione
b2 y 2 = d(a2 − a1 )x[(a2 − a1 )x + a1 − a2 ][(a2 − a1 )x + a1 − a3 ]
187
6 LE CUBICHE
ossia
a1 − a3
a1 − a2
x+
.
b y = d(a2 − a1 ) x x +
a2 − a1
a1 − a2
2 2
3
Scegliendo b radice quadrata in K di d(a2 − a1 )3 e ponendo k = (a3 −
a1 )/(a2 − a1 ), la trasformata di C mediante la proiettività αω2 ω1 è la cubica
Ck di equazione
y 2 = x(x − 1)(x − k), k 6= 0, 1.
Teorema 6.6 Una cubica irriducibile C ha un solo flesso se ha una cuspide,
3 flessi se ha un nodo e 9 flessi se è non singolare.
DIMOSTRAZIONE. Poiché una proiettività ω trasforma un flesso di C in un
flesso di ω(C), basta dimostrarlo per le cubiche (I), (II) e (III).
I flessi di una curva C sono i punti semplici nei quali essa interseca la sua
curva Hessiana (teorema 5.4).
Nel caso che C sia la (I), in coordinate omogenee ha equazione
x1 x2 x3 = x31 + x32
ed il nodo è il punto (0, 0, 1). La curva Hessiana H(C) di C ha equazione
x1 x2 x3 + 3(x31 + x32 ) = 0.
Essa interseca C , oltre che nel nodo (0, 0, 1), nei punti le cui coordinate
soddisfano il sistema
x3 = 0,
x31 + x32 = 0,
che sono 3, distinti tra loro.
Nel caso che C sia la (II), in coordinate omogenee ha equazione
x21 x3 = x32
e la cuspide è il punto (0, 0, 1). La curva H(C) ha equazione x21 x2 = 0 ed
interseca C , oltre che nella cuspide, solo nel punto (1, 0, 0), che è l’unico flesso
di C .
Nel caso che C sia la (III), in coordinate omogenee ha equazione
x22 x3 − x31 + (1 + k)x21 x3 − kx1 x23 = 0,
k 6= 0, 1.
La curva H(C) ha equazione
kx1 x3 [−3x1 + (1 + k)x3 ] + x3 [(1 + k)x1 − kx3 ]2 + x22 [−3x1 + (1 + k)x3 ] = 0.
188
6 LE CUBICHE
Sulla retta x3 = 0 essa ha in comune con C solo il flesso (0, 1, 0). Gli altri
flessi sono propri e sono i punti le cui coordinate non omogenee soddisfano il
sistema
2
y = x(x − 1)(x − k)
kx[−3x + (1 + k)] + [(1 + k)x − k]2 + y 2 [−3x + (1 + k)] = 0.
Sostituendo nella seconda equazione y 2 con x(x − 1)(x − k), le ascisse dei
flessi di C sono le radici del polinomio
f (x) = 3x4 − 4(1 + k)x3 + 6kx2 − k 2 .
Il polinomio f (x) ha 4 radici distinte in K . Infatti, le radici in K del suo
polinomio derivato
f ′ (x) = 12x3 − 12(1 + k)x2 + 12kx = 12x[x2 − (1 + k)x + k]
sono 0, 1, k e nessuna di esse è radice di f (x) perché
f (0) = −k 2 ,
f (1) = −(k − 1)2 ,
f (k) = −k 2 (k − 1)2
e k 6= 0, 1. Quindi (capitolo V, teorema 1.5) f (x) in K ha 4 radici distinte
a1 , a2 , a3 , a4 . Essendo esse distinte da 0, 1, k , per ogni indice i l’elemento
ai (ai − 1)(ai − k) ha due radici quadrate bi , −bi distinte in K e quindi i flessi
propri di C sono gli 8 punti
(2)
Qi (ai , bi ),
Ri (ai , −bi ),
i = 1, 2, 3, 4.
2. Si ha
Teorema 6.7 Siano C una cubica e D una curva di ordine n > 1 prive di
componenti comuni. Se 3 dei 3n punti comuni a C ed a D sono su una
retta R che non è componente di C , i rimanenti 3(n − 1) punti costituiscono
l’intersezione di C con una curva di ordine n − 1.
DIMOSTRAZIONE. Se n = 2 la cosa è ovvia. Sia n > 2. Si può supporre
che la retta R abbia equazione x1 = 0, altrimenti ci si riconduce a questo
caso mediante una proiettività che trasforma R nella retta x1 = 0. Siano
F (x1 , x2 , x3 ) = 0 l’equazione di C e G(x1 , x2 , x3 ) = 0 quella di D . Poiché le
soluzioni dell’equazione F (0, x2 , x3 ) = 0 sono anche soluzioni dell’equazione
G(0, x2 , x3 ) = 0, con la stessa molteplicità, il polinomio G(0, x2 , x3 ) è multiplo
di F (0, x2 , x3 ) in K[x2 , x3 ]. Sia
G(0, x2 , x3 ) = H(x2 , x3 )F (0, x2 , x3 ).
189
6 LE CUBICHE
Il polinomio G(x1 , x2 , x3 ) − H(x2 , x3 )F (x1 , x2 , x3 ) si annulla dove si annulla
x1 e perciò è multiplo di x1 (capitolo V, teorema 4.3), cioè
(1)
G(x1 , x2 , x3 ) − H(x2 , x3 )F (x1 , x2 , x3 ) = x1 Q(x1 , x2 , x3 )
con Q(x1 , x2 , x3 ) polinomio omogeneo di grado n − 1. Dalla (1) segue che se
un punto P comune a C, D non sta sulla retta x1 = 0 appartiene alla curva E
di equazione Q(x1 , x2 , x3 ) = 0. La curva E non ha componenti in comune con
C , perché un fattore comune ai polinomi F (x1 , x2 , x3 ) e Q(x1 , x2 , x3 ) sarebbe
anche fattore di G(x1 , x2 , x3 ).
Corollario 6.8 Siano A1 , A2 , A3 , B1 , B2 , B3 i punti intersezione di una cubica irriducibile C con una conica D che non passi per l’eventuale punto doppio
di C . Sia Ri = Ai Bi 6 e sia Pi l’ulteriore intersezione di C con Ri . I punti
P1 , P2 , P3 sono allineati.
DIMOSTRAZIONE. La cubica C ′ = D + P1 P2 interseca C in 9 punti
A1 , A2 , A3 , B1 , B2 , B3 , P1 , P2 , Q.
Di essi A1 , B1 , P1 sono allineati e quindi, per il teorema 6.7, i rimanenti stanno
su una conica C ′′ . Poiché anche A2 , B2 , P2 sono allineati, anche A3 , B3 , Q sono
allineati e quindi Q = P3 .
Corollario 6.9 Siano A1 , A2 , A3 le intersezioni di una cubica irriducibile C
con una retta R non passante per l’eventuale punto doppio di C . Sia Ri la
tangente a C in Ai (i = 1, 2, 3) e sia Pi l’ulteriore intersezione di Ri con C .
I punti P1 , P2 , P3 sono allineati.
DIMOSTRAZIONE. L’asserto segue dal corollario 6.8, considerando come
conica D la retta R contata 2 volte.
Corollario 6.10 La retta che congiunge 2 flessi di una cubica irriducibile C
interseca ulteriormente C in un altro flesso.
DIMOSTRAZIONE. Siano A1 , A2 due flessi distinti di C e sia R = A1 A2 .
Sia A3 l’ulteriore intersezione di R con C . L’asserto segue dal corollario 6.9.
Teorema 6.11 Se C è una cubica non singolare, per ogni coppia di flessi
distinti Q, R di C vi è una proiettività di P 2 che trasforma C in sé e Q in
R.
6
Se Ai = Bi tale retta è la tangente a C in Ai .
190
6 LE CUBICHE
DIMOSTRAZIONE. La retta QR interseca C in un ulteriore flesso S (corollario 6.10). Vi è (teorema 6.5) una proiettività ω che trasforma S nel punto
Y = (0, 1, 0) e C nella cubica Ck di equazione affine
y 2 = x(x − 1)(x − k),
k 6= 0, 1.
I punti Q′ = ω(Q) e R′ = ω(R) sono flessi per Ck , la retta Q′ R′ passa per Y
e quindi dalle (2) segue che Q′ e R′ sono del tipo
Q′ = (a, b),
R′ = (a, −b),
a, b ∈ K,
b 6= 0.
L’affinità
τ : (x, y) → (x, −y),
che si può riguardare come proiettività che lascia fissa la retta impropria
(capitolo IV, §5), trasforma Ck in sé e Q′ in R′ . La proiettività ω −1 τ ω
soddisfa il teorema.
Teorema 6.12 Per ogni flesso Q di una cubica non singolare C passano
esattamente quattro rette distinte che sono tangenti a C , inclusa la tangente
in Q, ed il loro modulo non dipende dal flesso Q.
DIMOSTRAZIONE. Vi è (teorema 6.5) una proiettività ω che trasforma Q
nel punto Y = (0, 1, 0) e C nella cubica Ck di equazione affine
y 2 = x(x − 1)(x − k),
k 6= 0, 1.
Le tangenti a C passanti per Q sono trasformate da ω nelle tangenti a Ck
passanti per Y e queste sono 4. Infatti, la tangente a Ck in Y è la retta
impropria. Una retta propria x = a per Y è tangente a Ck se e solo se a
è radice del polinomio x(x − 1)(x − k), cioè se e solo se a = 0, 1, k . Poiché
k 6= 0, 1 vi sono esattamente 3 rette proprie distinte passanti per Y e tangenti
a Ck .
Se R è un altro flesso di C distinto da Q, per il teorema 6.11, esiste una
proiettività che trasforma C in sé e Q in R. Mediante tale proiettività le
tangenti a C passanti per Q vengono trasformate nelle tangenti a C passanti
per R e quindi il loro modulo (capitolo IV, definizione 7.11) è lo stesso di
quello delle tangenti passanti per Q.
Definizione 6.13 Il modulo delle quattro rette tangenti ad una cubica non
singolare C che passano per un suo flesso si chiama modulo di C e si denota
j(C).
191
6 LE CUBICHE
Esempio 6.14 La cubica Ck di equazione
y 2 = x(x − 1)(x − k),
k 6= 0, 1,
ha modulo j(k).
Infatti, le 4 rette R1 , R2 , R3 , R4 tangenti a Ck nel suo flesso (0, 1, 0) sono
rispettivamente la retta impropria, le rette x = 0, x = 1, x = k e le loro
intersezioni con la retta y = 0 sono P1 = (1, 0, 0), P2 = (0, 0, 1), P3 =
(1, 0, 1), P4 = (k, 0, 1). Sistemi di coordinate omogenee di P1 , P2 , P3 , P4
sulla retta y = 0 sono rispettivamente (1, 0), (0, 1), (1, 1), (k, 1), quindi
(capitolo IV, teorema 7.5)
1 00 1
1 1k 1
=k
(R1 R2 R3 R4 ) = (P1 P2 P3 P4 ) = 1 00 1
k 11 1
e perciò j(Ck ) = j(k).
Teorema 6.15 Due cubiche non singolari sono proiettivamente equivalenti
se e solo se hanno lo stesso modulo.
DIMOSTRAZIONE. Siano C e C ′ due cubiche non singolari.
Se C e C ′ sono proiettivamente equivalenti, esiste una proiettività ω che
trasforma C in C ′ . Un flesso Q di C viene da ω trasformato in un flesso Q′
di C ′ , le tangenti a C passanti per Q vengono trasformate nelle tangenti a C ′
passanti per Q′ e quindi j(C) = j(C ′ ).
Viceversa, sia j(C) = j(C ′ ) e dimostriamo che esiste una proiettività che
trasforma C in C ′ . Per il teorema 3, vi sono una proiettività ω che trasforma
C nella cubica Ck di equazione
(3)
y 2 = x(x − 1)(x − k),
k 6= 0, 1,
ed una proiettività ω ′ che trasforma C ′ nella cubica Ck′ di equazione
(4)
y 2 = x(x − 1)(x − k ′ ),
k ′ 6= 0, 1.
Ed allora basta dimostare che esiste una proiettività τ che trasforma Ck in
Ck′ , perché la proiettività ω ′−1 τ ω trasforma C in C ′ .
Si ha (esempio 6.14 e prima parte del teorema)
j(k) = j(Ck ) = j(C) = j(C ′ ) = j(Ck′ ) = j(k ′ )
192
6 LE CUBICHE
e quindi (capitolo IV, lemma 7.9) k ′ è uno degli elementi
k,
1
,
k
1 − k,
1
,
1−k
k
,
k−1
k−1
.
k
Se k ′ = k si ha Ck = Ck′ e basta assumere come τ la proiettività identica.
Se k ′ 6= k basta fare la dimostrazione dell’esistenza di τ nei casi k ′ = 1/k
e k′ = 1 − k .
Se k ′ = 1/k l’equazione (4) si può scrivere
ky 2 = kx3 − (1 + k)x2 + x
ossia, moltiplicando ambo i membri per k 2 ,
3
(k 2 y)2 = (kx)3 − (1 + k)(kx)2 + k(kx)
3
che si ottiene dalla (3) con la trasformazione affine τ : (x, y) → (kx, k 2 y).
Se k ′ = 1 − k l’equazione (4) si può scrivere
y 2 = x3 − (2 − k)x2 + (1 − k)x
o anche
−y 2 = −x3 + (2 − k)x2 − (1 − k)x
che si ottiene dalla (3) con la trasformazione affine τ : (x, y) → (1 − x, εy),
dove ε2 = −1. In entrambi i casi, riguardando τ come proiettività che lascia
fissa la retta impropria, si ha che Ck è trasformata da τ in Ck′ .
3. Sia C una cubica irriducibile e sia C ∗ il sottoinsieme dei punti semplici
di C . In C ∗ è possibile definire una operazione rispetto alla quale C ∗ risulta
un gruppo abeliano, nel modo seguente.
(⋆) Sia P0 un punto fissato su C ∗ . Se P, Q ∈ C ∗ , sia S ′ l’ulteriore
intersezione di C con la retta P Q 7 . Sia + l’operazione in C ∗ che a P, Q
associa il punto S , ulteriore intersezione della retta P0 S ′ con C , cioè
P + Q = S.
7
Se P = Q la retta P Q è la tangente a C in P .
193
6 LE CUBICHE
TP0
P0
T
U
P
T′
S
R
Q
S
′
U′
Teorema 6.16 L’insieme C ∗ dei punti semplici di una cubica irriducibile C
con l’addizione definita mediante la (⋆) è un gruppo abeliano.
DIMOSTRAZIONE. La somma è associativa, cioè
(5)
(P + Q) + R = P + (Q + R).
Posto
P + Q = S,
S + R = T,
Q + R = U,
per dimostrare la (5) si deve dimostrare che
T = P + U.
Siano S ′ , T ′, U ′ le rispettive ulteriori intersezioni di C con le rette P Q,
SR, QR; essendo P0 , T ′ , T allineati, per dimostrare che T = P + U basta
dimostrare che i punti P, U, T ′ sono allineati.
Per la definizione dell’operazione + si ha che:
P, Q, S ′ stanno su una retta L1 ,
P0 , S, S ′ stanno su una retta H1 ,
S, R, T ′ stanno su una retta L2 ,
P0 , T, T ′ stanno su una retta G ,
Q, R, U ′ stanno stanno su una retta H2 ,
P0 , U, U ′ stanno su una retta L3 .
I punti
P, Q, S ′, S, R, T ′ , P0 , U, U ′
194
6 LE CUBICHE
sono l’intersezione di C con la cubica C ′ = L1 +L2 +L3 e poiché P0 , S, S ′ sono
allineati (stanno su H1 ) i rimanenti P, Q, R, T ′, U, U ′ stanno su una conica
(teorema 6.7). Ma di essi Q, R, U ′ sono allineati (stanno su H2 ) e quindi i
rimanenti P, U, T ′ sono allineati.
È del tutto evidente che
P0 + P = P
per ogni P ∈ C ∗
e quindi P0 è l’elemento neutro.
Per ogni punto P ∈ C ∗ esiste un punto −P ∈ C ∗ tale che
P + (−P ) = P0 .
Infatti, se TP0 è l’ulteriore intersezione di C con la sua tangente in P0 ,
l’ulteriore intersezione −P di C con la retta P TP0 soddisfa tale condizione.
È evidente che
P +Q=Q+P
per ogni P, Q ∈ C ∗
e questo conclude la dimostrazione.
Definizione 6.17 Se P è un punto semplice di C , l’ulteriore intersezione TP
di C con la retta ad essa tangente in P si chiama tangenziale di P .
Teorema 6.18 Se C è una cubica irriducibile 3n suoi punti semplici Q1 , . . . ,
Q3n costituiscono l’intersezione con una curva D di ordine n se e solo se
(6)
Q1 + Q2 + · · · + Q3n = nTP0 .
DIMOSTRAZIONE. Se Q1 , . . . , Q3n costituiscono l’intersezione di C con una
curva D di ordine n sussiste la (6).
Se n = 1 ciò è vero perché, se R è la terza intersezione di C con la retta
P0 Q3 risulta Q1 + Q2 = R, R + Q3 = TP0 e perciò
Q1 + Q2 + Q3 = (Q1 + Q2 ) + Q3 = R + Q3 = TP0 .
Sia n > 1 e procediamo per induzione su n, supponiamo che la (6) valga
per tutti gli interi < n. La retta Q1 Q2 interseca C in un ulteriore punto A,
la retta Q3 Q4 interseca C in un ulteriore punto B e la retta AB interseca
C in un ulteriore punto C . I punti Q1 , . . . , Q3n , A, B, C sono l’intersezione
di C con la curva di ordine n + 1 spezzata in D e nella retta ABC . Di
questi 3(n + 1) punti, Q1 , Q2 , A sono allineati e quindi, per il teorema 6.7, i
rimanenti Q3 , . . . , Q3n , B, C sono l’intersezione di C con una curva di ordine
195
6 LE CUBICHE
n. Ma Q3 , Q4 , B sono allineati e perciò, sempre per il teorema 6.7, i rimanenti
Q5 , . . . , Q3n , C sono l’intersezione di C con una curva E di ordine n − 1. Si
ha, allora
Q5 + · · · + Q3n + C = (n − 1)TP0 .
Per quanto visto prima nel caso n = 1 si ha
Q1 + Q2 + A = TP0 ,
Q3 + Q4 + B = TP0
e quindi
Q1 + · · · + Q3n + A + B + C = (n + 1)TP0 .
Essendo A, B, C allineati si ha
A + B + C = TP0
e perciò si ha la (6).
Siano ora Q1 , . . . , Q3n ∈ C soddisfacenti la (6). Per i punti Q1 , . . . , Q3n−1
passa almeno una curva di ordine n che non contiene C come componente. Ciò è ovvio per n = 1, 2. Sia n ≥ 3. Le curve di ordine n passanti
per Q1 , . . . , Q3n−1 costituiscono un sistema lineare di dimensione (capitolo V,
esempio 6.6)
d≥
n(n + 3)
(n − 1)(n − 2)
− (3n − 1) =
> 0.
2
2
Le curve di ordine n che contengono C come componente costituiscono un
sistema lineare di dimensione uguale a quello delle curve di ordine n − 3, cioè
n(n − 3)/2. Poiché
(n − 1)(n − 2) n(n − 3)
−
= 1,
2
2
esistono curve di ordine n passanti per Q1 , . . . , Q3n−1 e non contenenti C
come componente. Sia F una di tali curve e sia P l’ulteriore intersezione di
F con C . Per la prima parte del teorema risulta
Q1 + Q2 + · · · + Q3n−1 + P = nTP0
e quindi, sussistendo la (6), deve essere P = Q3n .
Il seguente corollario generalizza il teorema 6.7.
Corollario 6.19 Siano C una cubica irriducibile e D una curva di ordine
n + m non contenente C come componente e non passante per l’eventuale
punto doppio di C . Se 3n dei 3(n + m) punti comuni a C ed a D sono
l’intersezione di C con una curva E di ordine n, i rimanenti 3m punti sono
l’intersezione di C con una curva F di ordine m.
196
6 LE CUBICHE
DIMOSTRAZIONE. Siano Q1 , . . . , Q3(n+m) i punti comuni a C e a D e di
essi siano Q1 , . . . , Q3n l’intersezione di C con E ; per il teorema 6.18 si ha
Q1 + Q2 + · · · + Q3(n+m) = (n + m)TP0 ,
Q1 + Q2 + · · · + Q3n = nTP0 .
Sottraendo membro a membro si ha
Q3n+1 + Q3n+2 + · · · + Q3(n+m) = mTP0
e quindi, per il teorema 6.18, Q3n+1 , . . . , Q3(n+m) sono l’intersezione di C con
una curva F di ordine m.
Corollario 6.20 Siano C1 , C2 due cubiche irriducibili che si intersechino nei
punti Qi (1 ≤ i ≤ 9), tutti semplici per entrambe. Se una cubica C passa per
8 dei punti Qi passa anche per il nono.
DIMOSTRAZIONE. Per il teorema 6.18 si ha
Q1 + Q2 + · · · + Q9 = 3TP0 .
Se C passa per Q1 , . . . , Q8 e Q è l’ulteriore sua intersezione con C1 , sempre
per il teorema 6.18, si ha
Q1 + Q2 + · · · + Q8 + Q = 3TP0
e quindi deve essere Q = Q9 .
Nella definizione (⋆) scegliamo come punto P0 un flesso O di C .
Se P è un punto semplice di C e TP è il suo tangenziale, per il teorema
6.18 si ha
(7)
2P + TP = O.
I punti semplici di C tali che TP = P sono i flessi di C . Dalla (7) segue allora
che i flessi di C sono le soluzioni dell’equazione
(8)
3X = O.
Per il teorema 6.6, la (8) ha l’unica soluzione O se C ha una cuspide, 3
soluzioni distinte se C ha un nodo e 9 soluzioni distinte se C è non singolare.
Se la (8) ha una soluzione U 6= O ha anche la soluzione 2U ed i punti
O, U, 2U sono distinti. Infatti da 2U = U seguirebbe U = O e da 2U = O ,
essendo anche 3U = O , seguirebbe ancora U = O .
197
6 LE CUBICHE
Se C ha un nodo i suoi flessi sono O, U, 2U e poiché
O + U + 2U = O + 3U = O
dal teorema 6.18 segue che sono allineati.
Se C è non singolare e V è un’altra soluzione della (8) distinta da O, U, 2U ,
allora le 9 soluzioni distinte della (8), cioè i flessi di C , sono
(9)
O
V
2V
U
U +V
U + 2V
2U
2U + V
2U + 2V
Dal teorema 6.18 segue che 3 flessi sono allineati se e solo se la loro somma
è O ; ed allora, si verifica subito che sono allineati i 3 flessi di ogni riga e di
ogni colonna del quadro (9) ed i 3 che hanno un solo elemento in ogni riga
ed in ogni colonna (basta pensare allo sviluppo di un determinante del terzo
ordine).
Dalla (7) segue che i punti P semplici di C tali che TP = O , sono le
soluzioni dell’equazione
(10)
2X = O.
I punti P di C tali che TP = O sono quelli nei quali la retta tangente a C
passa per O . Se C è non singolare di tali rette ve ne sono esattamente 4 ed una
di esse è la tangente a C in O (teorema 6.12), quindi vi sono esattamente 4
soluzioni distinte dell’equazione (10), di cui una è O . Siano A1 , A2 , A3 le altre
soluzioni. Poiché i punti Ai sono soluzioni della (10) si ha 2(Ai + Aj ) = O
e quindi Ai + Aj è uno dei punti O, A1, A2 , A3 ; se i 6= j esso non può essere
nessuno dei punti O, Ai, Aj e quindi si ha
(11)
Ai + Aj = Ah ,
con i, j, h distinti.
Per ogni punto P di C i punti P + Ai (i = 1, 2, 3) hanno lo stesso tangenziale di P . Infatti, per (7) si ha
2P + TP = O,
2(P + Ai ) + TP +Ai = O
e poiché 2Ai = O ne segue che TP = TP +Ai .
L’applicazione
πi : C → C,
i = 1, 2, 3
definita da
πi (P ) = P + Ai ,
per ogni P ∈ C,
è biunivoca.
È iniettiva, perché se P + Ai = Q + Ai si ha P = Q ed è suriettiva, perché
se Q ∈ C si ha πi (Q − Ai ) = Q − Ai + Ai = Q.
198
6 LE CUBICHE
Teorema 6.21 Se la cubica C è non singolare e π0 è l’applicazione identica di C , le applicazioni π0 , π1 , π2 , π3 costituiscono un gruppo rispetto alla
composizione.
DIMOSTRAZIONE. È ovvio che
π0 πi = πi π0 = πi ,
i = 0, 1, 2, 3.
Se i, j = 1, 2, 3 e i 6= j , per ogni P ∈ C , per la (11), si ha
(πj πi )(P ) = πj (P + Ai ) = P + Ai + Aj = P + Ah = πh (P ),
h 6= i, j
e quindi
π1 π2 = π2 π1 = π3 ,
π1 π3 = π3 π1 = π2 ,
π2 π3 = π3 π2 = π1 .
Inoltre,
πi2 (P ) = πi (P + Ai ) = P + 2Ai = P = π0 (P )
e quindi
πi2 = π0 ,
i = 0, 1, 2, 3.