CAPITOLO I ENDOMORFISMI DI SPAZI VETTORIALI 1. Matrici ed applicazioni lineari. 1. Richiamiamo alcune ben note proprietà delle matrici ad elementi in un campo K . L’insieme Km,n delle matrici a11 a12 . . . a1n a21 a22 . . . a2n aij ∈ K (aij ) = .. .. .. ... . . . am1 am2 . . . amn a m righe ed a n colonne,con la somma ed il prodotto per elementi k ∈ K definite da (aij ) + (bij ) = (aij + bij ) k(aij ) = (kaij ) è uno spazio vettoriale su K . Una base è costituita dalle matrici a m righe ed a n colonne aventi un elemento uguale a 1 e tutti gli altri elementi nulli e quindi si ha (1) dim Km,n = mn. Le matrici ad una sola riga si dicono anche matrici riga e quelle ad una sola colonna matrici colonna. Se m = n l’insieme Km,n lo denoteremo Kn ; i suoi elementi sono le matrici quadrate di ordine n. Le matrici (aij ) ∈ Kn tali che aij = 0 per ogni i 6= j si diconodiagonali. La matrice diagonale di Kn avente tutti gli elementi della diagonale uguali a 1, detta matrice identica, la denoteremo I o In quando sarà opportuno indicarne esplicitamente l’ordine. Se A = (aij ) ∈ Km,n B = (bjh ) ∈ Kn,q il prodotto AB di A, B è la matrice AB = (chl ) ∈ Km,q Si ha: (2) dove chl = (AB)C = A(BC) n X r=1 ahr brl . 2 1 MATRICI ED APPLICAZIONI LINEARI (3) AI = IA = A per ogni A ∈ Kn . Una matrice A ∈ Kn è invertibile se esiste una matrice B ∈ Kn tale che AB = BA = I ; una tale matrice B , che quando esiste è unica, è l’inversa di A e la denoteremo A−1 . Se A e B sono invertibili tale è AB e si ha (AB)−1 = B −1 A−1 (4) Se A = (aij ) ∈ Kn il suo determinante lo denoteremo detA = |aij | . La matrice A ∈ Kn è non singolare se detA 6= 0. Si ha: (5) (6) (7) A ∈ Kn det(AB) è invertibile detA−1 = ⇐⇒ = detA detB; A è non singolare; (detA)−1 . Se A ∈ Km,n , la matrice At ∈ Kn,m che ha come righe le colonne di A è la matrice trasposta di A. Si ha: (8) (9) (10) (11) (12) (A + B)t (AB)t (At )t detAt (A−1 )t = = = = = At + B t ; B t At ; A; detA; (At )−1 . Le matrici A tali che At = A sono le matrici simmetriche. 2. Siano V, V′ spazi vettoriali 1 sul campo K e T : V −→ V′ un’applicazione lineare. ′ Se B = (v1 , ..., vn ) è una base di V e B′ = (v1′ , ..., vm ) è una base di V′ si ha ′ , T (vi ) = a1i v1′ + a2i v2′ + · · · + ami vm 1 aji ∈ K, 1 ≤ i ≤ n. Gli spazi vettoriali da noi considerati saranno da ritenere sempre di dimensione finita. 3 1 MATRICI ED APPLICAZIONI LINEARI Definizione 1.1 La matrice a11 a 21 MBB′ (T ) = ... am1 a12 a22 .. . am2 . . . a1n . . . a2n .. .. . . . . . amn si dice matrice di T rispetto alle basi B e B′ . Se V = V′ e B = B′ diremo che MBB (T ) è la matrice di T rispetto alla base B . Osservazione 1.2 Se X = (x1 , ..., xn )t è la matrice colonna delle componenti di x ∈ V rispetto a B , allora la matrice colonna delle componenti di T (x) rispetto a B′ è X ′ = (MBB′ (T ))X . Infatti, sia ′ T (x) = x′1 v1′ + x′2 v2′ + · · · + x′m vm , xi ∈ K. Poiché x = x1 v1 + x2 v2 + · · · + xn vn , si ha T (x) = x1 T (v1 ) + x2 T (v2 ) + · · · + xn T (vn ) ′ ′ = x1 (a11 v1′ + · · · + am1 vm ) + · · · + xn (a1n v1′ + · · · + amn vm ) ′ = (a11 x1 + · · · + a1n xn )v1′ + · · · + (am1 x1 + · · · + amn xn )vm e quindi x′i = ai1 x1 + ai2 x2 + · · · + ain xn , 1 ≤ i ≤ m. Sia Hom(V, V′) l’insieme delle applicazioni lineari di V in V′ . Con la somma S +T di S, T ∈ Hom(V, V′) ed il prodotto kT , con k ∈ K , definiti ponendo per ogni v ∈ V (S + T )(v) = S(v) + T (v) (kT )(v) = kT (v), Hom(V, V′) diviene uno spazio vettoriale su K . Il suo elemento nullo lo denoteremo 0. Teorema 1.3 Siano V, V′ spazi vettoriali su K e siano B = (v1 , ..., vn ) una ′ base di V e B′ = (v1′ , ..., vm ) una base di V′ . L’applicazione f : Hom(V, V′) −→ Km,n definita ponendo per ogni T ∈ Hom(V, V′) f (T ) = MBB′ (T ) è un isomorfismo. 4 1 MATRICI ED APPLICAZIONI LINEARI DIMOSTRAZIONE. L’applicazione f è lineare. Infatti, sia S, T ∈ Hom(V, V′) e h, k ∈ K . Se f (S) = (bij ) f (T ) = (aij ) f (hS + kT ) = (cij ), per ogni 1 ≤ i ≤ n si ha ′ S(vi ) = b1i v1′ + b2i v2′ + · · · + bmi vm , ′ ′ ′ T (vi ) = a1i v1 + a2i v2 + · · · + ami vm , ′ (hS + kT )(vi ) = c1i v1′ + c2i v2′ + · · · + cmi vm . Ma (hS + kT )(vi ) = hS(vi ) + kT (vi ) ′ ′ = h(b1i v1′ + · · · + bmi vm ) + k(a1i v1′ + · · · + ami vm ) ′ ′ = (hb1i + ka1i )v1 + · · · + (hbmi + kami )vm , quindi cji = hbji + kaji e perciò per 1 ≤ i ≤ n, 1 ≤ j ≤ m f (hS + kT ) = hf (S) + kf (T ). L’applicazione f è iniettiva. Infatti, se f (T ) = MBB′ (T ) è la matrice nulla si ha T (vi ) = 0, 1 ≤ i ≤ n, e quindi T (x) = 0 per ogni x ∈ V , ossia T = 0. L’applicazione f è suriettiva. Infatti, sia A = (aij ) ∈ Km,n ; se T : V −→ V′ è l’applicazione lineare definita da (13) ′ , T (vi ) = a1i v1′ + a2i v2′ + · · · + ami vm 1 ≤ i ≤ n, risulta A = MBB′ (T ) = f (T ). L’applicazione lineare T e la matrice MBB′ (T ) le diremo associate l’una all’altra rispetto alle basi B e B′ . Se B e B′ sono basi dello stesso spazio vettoriale V e I è l’applicazione identica di V, la matrice MBB′ (I) è la matrice di passaggio dalla base B′ alla base B . Corollario 1.4 Se V, V′ sono spazi vettoriali su K di dimensione n, m risulta dim Hom(V, V′) = mn. 1 MATRICI ED APPLICAZIONI LINEARI 5 DIMOSTRAZIONE. Segue subito dal teorema 1.3 e dalla (1). Corollario 1.5 Se T ∈ Hom(V, V) e B è una base di V si ha MBB (T ) = I se e solo se T = I . Corollario 1.6 Se V, V′ sono spazi vettoriali di uguale dimensione n e B = (v1 , ..., vn ), B′ = (v1′ , ..., vn′ ) sono loro rispettive basi, esiste uno ed un solo isomorfismo T : V −→ V′ tale che T (vi ) = vi′ , 1 ≤ i ≤ n. DIMOSTRAZIONE. L’isomorfismo T è quello che rispetto alle basi B , B′ è associato alla matrice identica I ∈ Kn . Osservazione 1.7 Sia T ∈ Hom(V, V′) e sia a11 . . . a1n . .. .. A = .. . . am1 . . . amn ′ la matrice di T rispetto alle basi B = (v1 , . . . , vn ) di V e B′ = (v1′ , . . . , vm ) ′ di V . Se r è la caratteristica di A si ha: 1) dim Im T = r , 2) dim Ker T = dim V − r . 3) Se m = n, allora T è isomorfismo se e solo se A è invertibile. 1) Le colonne di A sono le componenti dei vettori T (v1 ), . . . , T (vn ) rispetto alla base B′ . Se, come è possibile supporre previo un eventuale scambio di indici, sono linearmente indipendenti le prime r colonne di A, i vettori T (v1 ), . . . , T (vr ) sono linearmente indipendenti. Essi generano Im T perché, per ogni r + 1 ≤ j ≤ n, la j−ma colonna di A è combinazione lineare delle prime r . 2) Segue dal fatto che dim V = dim Im (T ) + dim Ker T . 3) Segue immediatamente dalle 1) e 2). Teorema 1.8 Siano V, V′ , V′′ spazi vettoriali su K e T ∈ Hom(V, V′), S ∈ Hom(V′, V′′ ). Se B , B′ , B′′ sono basi rispettive di V, V′ , V′′ , risulta ′ MBB′′ (ST ) = MBB′′ (S)MBB′ (T ). 6 1 MATRICI ED APPLICAZIONI LINEARI DIMOSTRAZIONE. Sia a11 . . . a1n . .. .. MBB′ (T ) = .. . . am1 . . . amn b11 .. B′ MB′′ (S) = . br1 c11 . . . c1n .. . . MBB′′ (ST ) = .. . . . . cr1 . . . crn Allora, se B = (v1 , ..., vn ), ′ B′ = (v1′ , ..., vm ), . . . b1m .. .. . . . . . brm B′′ = (v′′1 , ..., v′′r ), si ha ′ T (vj ) = a1j v1′ + · · · + amj vm , 1 ≤ j ≤ n, ′ ′′ ′′ S(vi ) = b1i v 1 + · · · + bri v r , 1 ≤ i ≤ m, (ST )(vj ) = c1j v′′1 + · · · + crj v′′r , 1 ≤ j ≤ n. Ma (ST )(vj ) = = = = ′ S(a1j v1′ + · · · + amj vm ) ′ ′ a1j S(v1 ) + · · · + amj S(vm ) a1j (b11 v′′1 + · · · + br1 v′′r ) + · · · + amj (b1m v′′1 + · · · + brm v′′r ) (b11 a1j + · · · + b1m amj )v′′1 + · · · + (br1 a1j + · · · + brm amj )v′′r , quindi ossia chj = bh1 a1j + · · · + bhm amj , 1 ≤ h ≤ r, 1 ≤ j ≤ n, ′ MBB′′ (ST ) = MBB′′ (S)MBB′ (T ). Corollario 1.9 Siano V,V′ spazi vettoriali di uguale dimensione su K e B , B′ loro rispettive basi e sia T : V → V′ un isomorfismo. Allora ′ MBB (T −1 ) = (MBB′ (T ))−1 . DIMOSTRAZIONE. Per il teorema 1.8 ed il corollario 1.5, si ha ′ MBB (T −1 T ) = MBB (T −1 )MBB′ (T ) = I, ′ ′ MBB′ (T T −1 ) = MBB′ (T )MBB (T −1 ) = I, e quindi ′ MBB (T −1 ) = (MBB′ (T ))−1 . 7 2 AUTOVALORI ED AUTOVETTORI Corollario 1.10 Sia T ∈ Hom(V, V). Se B e B′ sono basi di V e N = ′ MBB (I) è la matrice di passaggio dalla base B alla base B′ si ha ′ MBB′ (T ) = N −1 MBB (T )N. DIMOSTRAZIONE. Per il teorema 1.8 ed il corollario 1.9 si ha ′ ′ ′ MBB′ (T ) = MBB′ (IT ) = MBB′ (I)MBB (T ) ′ ′ = MBB′ (I)MBB (T I) = MBB′ (I)MBB (T )MBB (I) = N −1 MBB (T )N. Corollario 1.11 Se A, B ∈ Kn sono tali che AB = I si ha anche BA = I . DIMOSTRAZIONE. Siano S , T le applicazioni lineari di K n che rispetto alla base canonica E sono associate rispettivamente a B ed A. Allora, rispetto a E , sono associate T S con AB e ST con BA (teorema 1.8). Da AB = I segue che T S = I (corollario 1.5) e quindi l’iniettività di S . Infatti, se u ∈ KerS si ha u = (T S)(u) = T (S(u)) = T (0) = 0. Poiché n = dimK n = dim(ImS) + dim(KerS) = dim(ImS), S è anche suriettiva e perciò è isomorfismo. Si ha ST = (ST )(SS −1) = S(T S)S −1 = SS −1 = I e quindi (corollario 1.5) BA = I . 2. Autovalori. Autovettori. Polinomio caratteristico. 1. Sia V uno spazio vettoriale sul campo K . Gli endomorfismi di V sono gli elementi di Hom(V, V); gli automorfismi di V sono gli elementi di Hom(V, V) che sono isomorfismi. Definizione 2.1 Sia T un endomorfismo di V; un elemento λ ∈ K si dice autovalore di T se esiste un vettore non nullo v ∈ V tale che T (v) = λv. Se λ è un autovalore di T i vettori non nulli v ∈ V tali che T (v) = λv, si dicono autovettori di T relativi o associati a λ ed il sottospazio V(λ) = {v ∈ V | T (v) = λv} si dice autospazio relativo a λ. 2 AUTOVALORI ED AUTOVETTORI 8 Osserviamo che λ è un autovalore di T se e solo se l’endomorfismo λI −T , dove I è l’endomorfismo identico, non è invertibile, cioè se e solo se Ker(λI − T ) 6= {0}. Se M è una matrice di Kn , si chiamano autovalori ed autovettori di M gli autovalori e gli autovettori dell’endomorfismo T di K n che rispetto ad una base comunque fissata è associato a M . Quindi, un autovettore di M associato all’autovalore λ è una matrice colonna non nulla X tale che MX = λX . Lemma 2.2 Se M è la matrice dell’endomorfismo T di V rispetto ad una base B ed I è la matrice identica, il polinomio ∆(x) = ∆T (x) = det(xI − M) nell’indeterminata x non dipende da B . DIMOSTRAZIONE. Se B′ è un’altra base di V e M ′ è la matrice di T rispetto a B′ , esiste (corollario 1.10) una matrice invertibile N tale che M ′ = N −1 MN e quindi si ha det(xI − M ′ ) = = = = det(N −1 xIN − N −1 MN) det(N −1 (xI − M)N) det N −1 det(xI − M)det N det(xI − M). Definizione 2.3 Il polinomio ∆T (x) si dice polinomio caratteristico di T . Se M ∈ Kn , si dice polinomio caratteristico di M quello dell’endomorfismo di K n che rispetto ad una base comunque fissata è associato a M ; esso è det(xI − M). Lemma 2.4 Sia T un endomorfismo dello spazio vettoriale V. Un elemento λ ∈ K è autovalore di T se e solo se è radice del polinomio caratteristico ∆(x) di T . DIMOSTRAZIONE. Un elemento λ ∈ K è autovalore di T se e solo se λI − T è non invertibile. Se M è la matrice di T rispetto ad una base B di V, la matrice di λI − T rispetto a B è λI − M . Ed allora (corollario 1.9 e (6)) λI − T è non invertibile se e solo se det(λI − M) = ∆(λ) = 0. Corollario 2.5 Un endomorfismo dello spazio vettoriale V ha al più n = dimV autovalori distinti. 9 2 AUTOVALORI ED AUTOVETTORI Corollario 2.6 Se V è uno spazio vettoriale di dimensione positiva su un campo algebricamente chiuso K , ogni endomorfismo di V possiede autovettori. Definizione 2.7 Se λ è un autovalore di T , la molteplicità mT (λ) di λ come radice del polinomio caratteristico ∆T (x) di T si dice molteplicità algebrica di λ. La dimensione gT (λ) dell’autospazio V(λ) si dice molteplicità geometrica di λ. Teorema 2.8 Per ogni endomorfismo T dello spazio vettoriale V e per ogni autovalore λ di T risulta gT (λ) ≤ mT (λ). DIMOSTRAZIONE. Sia r = gT (λ) e sia (v1 , ..., vr ) una base di V(λ). Scelti in V n − r elementi vr+1 , ..., vn in modo che B = (v1 , ..., vr , vr+1 , ..., vn ) sia una base di V, si ha λvi se 1 ≤ i ≤ r, T (vi ) = a1i v1 + a2i v2 + · · · + ani vn se r + 1 ≤ i ≤ n. Quindi la matrice di T rispetto alla λ 0 ... 0 λ ... . . . . ... . . M = 0 0 ... . . . .. .. .. 0 0 ... base B è 0 0 .. . a1 r+1 a2 r+1 .. . λ .. . ar r+1 .. . 0 an r+1 Ne segue che x− λ 0 0 x−λ . .. . . . ∆(x) = det(xI − M) = 0 0 . .. .. . 0 0 . . . a1n . . . a2n .. .. . . . . . . arn .. .. . . . . . ann ... 0 −a1 r+1 ... 0 −a2 r+1 .. .. .. . . . . . . x − λ −ar r+1 .. .. .. . . . ... 0 −an r+1 è divisibile per (x − λ)r e perciò r = gT (λ) ≤ mT (λ). ... −a1n ... −a2n .. .. . . ... −arn .. .. . . . . . x − ann Teorema 2.9 Sia T un endomorfismo dello spazio vettoriale V. Autovettori di T relativi ad autovalori distinti sono linearmente indipendenti. 10 3 DIAGONALIZZAZIONE DI MATRICI DIMOSTRAZIONE. Siano v1 , ..., vm autovettori relativi rispettivamente agli autovalori distinti λ1 , ..., λm . Se m = 1 la cosa è banalmente vera. Sia m ≥ 2 e procediamo per induzione su m, assumendo che l’asserto sia vero per m − 1 autovettori. Sia (1) a1 v1 + a2 v2 + · · · + am vm = 0, ai ∈ K; allora (2) T (a1 v1 + a2 v2 + · · · + am vm ) = a1 λ1 v1 + a2 λ2 v2 + · · · + am λm vm = 0. D’altra parte, moltiplicando ambo i membri della (1) per λ1 e sottraendo dalla (2) si ha a2 (λ2 − λ1 )v2 + · · · + am (λm − λ1 )vm = 0. Poiché λi − λ1 6= 0 per 2 ≤ i ≤ m e, per ipotesi, v2 , ..., vm sono linearmente indipendenti, deve essere a2 = · · · = am = 0. Dalla (1) segue allora che a1 v1 = 0 e perciò anche a1 = 0. 3. Diagonalizzazione di endomorfismi e di matrici 1. Sia T un endomorfismo dello spazio vettoriale V. Definizione 3.1 Se esiste una base B rispetto alla quale le matrice di T è diagonale si dice che T è diagonalizzabile e che B diagonalizza T . Se M è una matrice di Kn , diagonalizzare M significa diagonalizzare l’endomorfismo T di K n che rispetto ad una base comunque fissata è associato a M . In virtù del corollario 1.10, ciò vuol dire trovare una matrice invertibile N tale che N −1 MN è diagonale. Teorema 3.2 Un endomorfismo T dello spazio vettoriale V è diagonalizzabile se e solo se V possiede una base di autovettori di T . DIMOSTRAZIONE. Se (v1 , ..., vn ) è una base di autovettori di T si ha T (vi ) = λi vi , λi ∈ K, 1 ≤ i ≤ n, e la matrice di T rispetto a tale base è diagonale. Viceversa, se la matrice M di T rispetto alla base B = (v1 , ..., vn ) è diagonale ed è λ1 0 . . . 0 0 λ2 . . . 0 M = .. . . . ... . .. . 0 0 . . . λn 11 3 DIAGONALIZZAZIONE DI MATRICI si ha T (vi ) = λi vi , 1 ≤ i ≤ n, e perciò B è una base di autovettori. Corollario 3.3 Se il polinomio caratteristico di un endomorfismo T di uno spazio vettoriale V su K ha n = dimV radici distinte in K , T è diagonalizzabile. DIMOSTRAZIONE. Per teorema 3.2, V possiede una base di autovettori di T. Teorema 3.4 Un endomorfismo T dello spazio vettoriale V è diagonalizzabile se e solo se si ha (1) V = V(λ1 ) ⊕ · · · ⊕ V(λr ) dove λ1 , ..., λr sono gli autovalori distinti di T . DIMOSTRAZIONE. Se è vera la (1), con λi autovalori distinti di T e Bi è una base di V(λi), allora B = ∪Bi è una base di V che diagonalizza T . Viceversa, sia T diagonalizzabile e sia B una base (di autovettori) che lo diagonalizza. Se λ1 , ..., λr sono gli autovalori distinti di T , B ha una ripartizione in sottoinsiemi B1 ,...,Br , dove Bi è il sottoinsieme degli elementi di B associati a λi . Se Vi è il sottospazio generato da Bi , risulta V = V1 ⊕ · · · ⊕ Vr . Si ha Vi = V(λi ) e quindi la (1). Infatti, è ovvio che Vi ⊆ V(λi ). D’altra parte V = V1 ⊕ · · · ⊕ Vr ⊆ V(λ1 ) ⊕ . . . ⊕ V(λr ) ⊆ V P P e quindi dim Vi = dim V(λi) da cui segue dim Vi = dim V(λi ). Si ha allora Vi = V(λi) e il teorema è dimostrato. Teorema 3.5 Un endomorfismo T dello spazio vettoriale V su K è diagonalizzabile se e solo se sono soddisfatte le condizioni: 1) Il polinomio caratteristico di T si decompone in fattori lineari in K[x]; 2) Per ogni autovalore λ di T si ha gT (λ) = mT (λ). DIMOSTRAZIONE. Se valgono le 1) e 2) si ha r Y ∆T (x) = (x − λi )mi i=1 12 3 DIAGONALIZZAZIONE DI MATRICI Pr con λ1 , ..., λr distinti e mi = dimV(λi ). Poiché dimV = i=1 mi si ha V = ⊕V(λi ), con λ1 ,...,λr autovalori distinti e quindi T è diagonalizzabile (teorema 3.4). Viceversa, sia T diagonalizzabile e siano λ1 , . . . , λr gli autovalori distinti di T . Per il lemma 2.4 si ha ∆T (x) = h(x) r Y i=1 (x − λi )mi , h(λi ) 6= 0 e per il teorema 2.8 si ha dimV(λi ) ≤ mi . Per il teorema 3.4 si ha V = ⊕ri=1 V(λi), quindi dimV = r X i=1 e perciò dimV(λi ) ≤ r X r X i=1 mi ≤ dimV mi = dimV. i=1 Allora h(x) = 1 e quindi vale la 1). Inoltre dimV(λi ) = mi per ogni i, cioè vale la 2). CAPITOLO II PRODOTTI SCALARI 1. Forme bilineari. Prodotti scalari. 1. Sia V uno spazio vettoriale sul campo K . Definizione 1.1 Si chiama forma bilineare su V un’applicazione f : V × V −→ K lineare in ogni variabile, cioè tale che per ogni x, y, z ∈ V e a, b ∈ K soddisfa le 1) f (ax + bz, y) = af (x, y) + bf (z, y); 2) f (x, ay + bz) = af (x, y) + bf (x, z). Lemma 1.2 Siano A ∈ Kn e B una base di V. L’applicazione f :V×V →K definita mediante la f (x, y) = X t AY, (1) dove X e Y sono le matrici colonna delle componenti di x e y rispetto a B , è bilineare. DIMOSTRAZIONE. Se a, b ∈ K e x, y, z ∈ V si ha f (ax + bz, y) = (aX + bZ)t AY = aX t AY + bZ t AY = af (x, y) + bf (z, y), f (x, ay + bz) = X t A(aY + bZ) = aX t AY + bX t AZ = af (x, y) + bf (x, z). Ogni forma bilineare f su V si può esprimere nella forma (1). Infatti, se B = (v1 , ..., vn ) è una base di V e x= n X xi vi , y= i=1 n X yi vi i=1 sono elementi di V, si ha (2) f (x, y) = f n X i=1 xi vi , n X i=1 yi vi ! = n X i,j=1 xi yj f (vi , vj ). 1 FORME BILINEARI E PRODOTTI SCALARI 14 Se X e Y sono le matrici colonna delle componenti di x e y rispetto a B e f (v1 , v1 ) f (v1 , v2 ) . . . f (v1 , vn ) f (v2 , v1 ) f (v2 , v2 ) . . . f (v2 , vn ) MB (f ) = .. .. .. .. . . . . f (vn , v1 ) f (vn , v2 ) . . . f (vn , vn ) la (2) si può scrivere f (x, y) = X t MB (f )Y. (3) Definizione 1.3 La matrice MB (f ) si dice matrice di f rispetto a B . Sia Bl(V) l’insieme delle forme bilineari su V. Con la somma f + g di f, g ∈ Bl(V) ed il prodotto kf , con k ∈ K , definiti ponendo per ogni (x, y) ∈ V×V (f + g)(x, y) = f (x, y) + g(x, y), (kf )(x, y) = kf (x, y), Bl(V) è uno spazio vettoriale su K ; il suo elemento nullo, denotato 0, è l’applicazione che ad ogni (x, y) ∈ V × V associa l’elemento nullo. Teorema 1.4 Siano n la dimensione e B una base di V. L’applicazione ϕ : Bl(V) −→ Kn definita ponendo ϕ(f ) = MB (f ) è un isomorfismo. DIMOSTRAZIONE. L’applicazione ϕ è lineare. Infatti, siano f, g ∈ Bl(V), c, d ∈ K e siano ϕ(f ) = MB (f ) = (aij ), ϕ(g) = MB (g) = (bij ), ϕ(cf + dg) = MB (cf + dg) = (cij ). Se B = (v1 , ..., vn ), si ha cij = (cf + dg)(vi, vj ) = cf (vi , vj ) + df (vi , vj ) = caij + dbij , quindi MB (cf + dg) = cMB (f ) + dMB (g). L’applicazione ϕ è iniettiva. Infatti, se ϕ(f ) è la matrice nulla, cioè f (vi , vj ) = 0 per ogni i, j , risulta f = 0. 1 FORME BILINEARI E PRODOTTI SCALARI 15 L’applicazione ϕ è suriettiva. Infatti, se A = (aij ) ∈ Kn , sia f : V × V → K l’applicazione bilineare definita mediante la (1). Se Xi è la matrice colonna delle componenti di vi rispetto a B si ha f (vi , vj ) = Xit AXj = aij e quindi ϕ(f ) = A. Cambiando la base di V la matrice di f ∈ Bl(V) cambia nel modo espresso dal seguente teorema. Teorema 1.5 Sia f una forma bilineare sullo spazio vettoriale V e siano A ′ e A′ le matrici di f rispetto alle basi B e B′ . Se N = MBB (I) è la matrice di passaggio dalla base B alla base B′ , si ha A′ = N t AN. DIMOSTRAZIONE. Se x, y ∈ V , siano X, Y le matrici colonna delle loro componenti rispetto a B e X ′ , Y ′ le matrici colonna delle loro componenti rispetto a B′ . Si ha f (x, y) = X t AY = X ′t A′ Y.′ Poiché (capitolo I, osservazione 1.2) X = NX ′ e Y = NY ′ risulta X ′t A′ Y ′ = X t AY = (NX ′ )t A(NY ′ ) = X ′t (N t AN)Y ′ e quindi, per il teorema 1.4, si ha A′ = N t AN. 2. Sia sempre V uno spazio vettoriale su K . Definizione 1.6 Una forma bilineare f su V si dice simmetrica se e solo se soddisfa la condizione f (x, y) = f (y, x) per ogni x, y ∈ V. Una forma bilineare simmetrica su V si dice anche prodotto scalare o prodotto interno su V o in V. Teorema 1.7 Una forma bilineare f sullo spazio vettoriale V è simmetrica se e solo se la sua matrice rispetto ad una qualsiasi base di V è simmetrica. DIMOSTRAZIONE. Sia B = (v1 , ..., vn ) una base di Ve sia A = (aij ) la matrice di f rispetto a B . Se x= n X i=1 xi vi , y= n X i=1 yivi 16 1 FORME BILINEARI E PRODOTTI SCALARI sono vettori di V si ha f (x, y) = n X aij xi yj , f (y, x) = i,j=1 n X aji yj xi . i,j=1 Se A è simmetrica risulta aij = aji per ogni i, j e quindi f (x, y) = f (y, x), cioè f è simmetrica. Viceversa, se f è simmetrica si ha aij = f (vi , vj ) = f (vj , vi ) = aji per ogni i, j e quindi A è simmetrica. Nel seguito, una forma bilineare simmetrica la chiameremo prodotto scalare; generalmente un prodotto scalare lo denoteremo con il simbolo ◦ e denoteremo x ◦ y il valore assunto da ◦ nella coppia di vettori x, y di V e diremo x ◦ y prodotto scalare di x, y. Esempio 1.8 Se V = K n , l’applicazione K n × K n → K definita ponendo per ogni coppia di elementi x = (x1 , ..., xn ), y = (y1, ..., yn ) di K n x◦y = n X xi yi i=1 è un prodotto scalare che si dice prodotto scalare canonico su K n . Osservazione 1.9 Se il campo K ha caratteristica 6= 2 e f, g sono due prodotti scalari su V tali che f (v, v) = g(v, v) per ogni v ∈ V, allora f = g . Infatti, se x,y ∈ V si ha f (x + y, x + y) = f (x, x) + 2f (x, y) + f (y, y), g(x + y, x + y) = g(x, x) + 2g(x, y) + g(y, y) e quindi 2(f (x, y) − g(x, y)) = 0. Poiché la caratteristica di K è 6= 2, da ciò segue che f (x, y) = g(x, y) per ogni x, y ∈ V, cioè f = g . Osservazione 1.10 Se il campo K ha caratteristica 6= 2 ed il prodotto scalare è non nullo esiste un vettore 0 6= v ∈ V tale che v ◦ v 6= 0. Infatti, se v◦v = 0 per ogni v ∈ V dall’osservazione 1.9 segue che il prodotto scalare è nullo. 17 2 ORTOGONALITÀ 2. Ortogonalità. 1. Sia V uno spazio vettoriale su K su cui sia definito un prodotto scalare ◦. Definizione 2.1 Due vettori x, y ∈ V si dicono ortogonali o perpendicolari (rispetto al prodotto scalare assegnato su V) se e solo se x ◦ y = 0. Due sottoinsiemi M, N di V si dicono ortogonali o perpendicolari se e solo se ogni vettore di uno di essi è ortogonale a tutti i vettori dell’altro. Per denotare che due vettori x e y sono ortogonali scriveremo x ⊥ y. Osservazione 2.2 Se M, N sono due sottoinsiemi di V tra loro ortogonali, allora sono ortogonali tra loro i sottospazi [M ], [N ] da essi generati. Infatti, se x ∈ [M ], y ∈ [N ] si ha x= r X i=1 xi ui , y= s X yj vj , ui , ∈ M, j=1 e quindi x◦y = X i,j vj ∈ N, xi , yj ∈ K xi yj ui ◦ vj = 0. Definizione 2.3 Per ogni sottoinsieme M di V il sottospazio M⊥ = {x ∈ V : x ⊥ v per ogni v ∈ M} si dice complemento ortogonale di M . Definizione 2.4 Un prodotto scalare su V si dice non singolare o non degenere se V⊥ = (0), singolare o degenere in caso contrario. Teorema 2.5 Un prodotto scalare su uno spazio vettoriale V è non singolare se e solo se la sua matrice rispetto ad una qualunque base di V è non singolare. DIMOSTRAZIONE. Sia B = (v1 , . . . , vn ) una base di V e sia A = (aij ) la matrice del prodotto scalare rispetto a B . Il sottospazio V⊥ è costituito dai vettori v ∈ V tali che vi ◦ v = 0 per i = 1, 2, . . . , n. Se X = (x1 , ..., xn )t e Xi = (0, ..., 1, ..., 0)t sono le matrici colonna delle componenti di v, vi rispetto a B , risulta vi ◦ v = Xit AX = ai1 x1 + ai2 x2 + · · · + ain xn 18 2 ORTOGONALITÀ e perciò v ∈ V⊥ se e solo se a11 x1 + a12 x2 ... an1 x1 + an2 x2 + ··· + a1n xn = 0 + · · · + ann xn = 0 Quindi V⊥ = (0) se e solo se det A 6= 0. Corollario 2.6 Se su uno spazio vettoriale V è definito un prodotto scalare non singolare ◦, per ogni sottospazio U di V si ha 1) dimU⊥ = dimV − dimU; 2) U⊥⊥ = U. DIMOSTRAZIONE. 1) Sia B = (v1 , . . . , vn ) una base di V in modo che (v1 , . . . , vr ) sia una base di U. Il complemento ortogonale U⊥ di U è costituito dai vettori v ∈ V tali che vi ◦v = 0 per 1 ≤ i ≤ r e quindi, se A = (aij ) è la matrice del prodotto scalare rispetto a B , dai vettori v le cui componenti rispetto a B sono soluzione del sistema a11 x1 + a12 x2 + · · · + a1n xn = 0 ... ar1 x1 + ar2 x2 + · · · + arn xn = 0 La matrice M dei coefficienti di tale sistema è costituita dalle prime r righe della matrice A, che sono linearmente indipendenti perché A è non singolare (teorema 2.5); quindi la caratteristica di M è r e perciò dimU⊥ = n − r = dimV − dimU. 2) Se u ∈ U risulta u ◦ v = 0 per ogni v ∈ U⊥ e perciò u ∈ U⊥⊥ , cioè U ⊂ U⊥⊥ . Per la 1) si ha dimU⊥⊥ = dimV − dimU⊥ = dimV − (dimV − dimU) = dimU e perciò U⊥⊥ = U. Definizione 2.7 Se U è un sottospazio di V, un prodotto scalare f su V si dice non degenere o non singolare su U se tale è quello indotto da f su U (cioè la restrizione di f a U × U). Teorema 2.8 Sia V uno spazio vettoriale su cui sia definito un prodotto scalare ◦. Il prodotto scalare è non singolare sul sottospazio U di V se e solo se risulta V = U ⊕ U⊥ . 19 2 ORTOGONALITÀ DIMOSTRAZIONE. Se V = U⊕U⊥ si ha U∩U⊥ = (0) e quindi il prodotto scalare è non singolare su U. Viceversa, sia il prodotto scalare non singolare su U. Se B = (u1 , ..., um ) è una base di U ed aij = ui ◦ uj , per il teorema 2.5 si ha det(aij ) 6= 0 e quindi per ogni v ∈ V il sistema lineare a11 x1 + a21 x2 + · · · + am1 xm = v ◦ u1 ... a1m x1 + a2m x2 + · · · + amm xm = v ◦ um ha una soluzione (b1 , . . . , bm ) ∈ K m . Posto u = b1 u1 + b2 u2 + · · · + bm um , w = v − u, risulta w ◦ ui = = = = v ◦ ui − u ◦ ui (a1i b1 + a2i b2 + · · · + ami bm ) − (b1 u1 + b2 u2 + · · · + bm um ) ◦ ui (a1i b1 + a2i bi + · · · + ami bm ) − (b1 a1i + b2 a2i + · · · + bm ami ) 0 (1 ≤ i ≤ m) e quindi w ∈ U⊥ . Poiché v = u + w si ha V = U + U⊥ . Essendo il prodotto scalare non singolare su U si ha U ∩ U⊥ = (0) e quindi V = U ⊕ U⊥ . Corollario 2.9 Sia ◦ un prodotto scalare definito su uno spazio vettoriale V, non singolare sul sottospazio U di V. Allora ◦ è non singolare sul complemento ortogonale U⊥ di U se e solo se è non singolare su V. DIMOSTRAZIONE. Se ◦ è non singolare su V si ha (corollario 2.6) U = U⊥⊥ , quindi V = U⊥⊥ ⊕ U⊥ e perciò (teorema 2.8) ◦ è non singolare su U⊥ . D’altra parte, sia ◦ non singolare su U⊥ . Se A e B sono le matrici dei prodotti scalari indotti rispetto alle basi B1 di U e B2 di U⊥ , la matrice di ◦ rispetto alla base B1 ∪ B2 di V è A 0 M= . 0 B Si ha (teorema 2.5) det A 6= 0, det B 6= 0, quindi det M = det A det B 6= 0 e perciò (teorema 2.5) ◦ è non singolare su V. 2. Sia V uno spazio vettoriale su cui sia definito un prodotto scalare ◦. 20 2 ORTOGONALITÀ Definizione 2.10 Una base (v1 , ..., vn ) di V si dice ortogonale (rispetto al prodotto scalare assegnato) se vi ◦ vj = 0 per ogni i 6= j e si dice ortonormale se è ortogonale ed inoltre vi ◦ vi = 1 per 1 ≤ i ≤ n. Esempio 2.11 La base canonica dello spazio vettoriale K n è ortonormale rispetto al prodotto scalare canonico. Osservazione 2.12 Se B = (v1 , ..., vn ) è una base ortonormale di V e x= n X xi vi , y= i=1 sono vettori di V risulta x◦y= n X i=1 xi vi n X yi vi i=1 ! ◦ n X i=1 yi vi ! = n X xi yi ; i=1 cioè rispetto ad una base ortonormale la matrice del prodotto scalare è quella identica. Teorema 2.13 Sia V uno spazio vettoriale di dimensione positiva n su K su cui sia definito un prodotto scalare ◦. Se K ha caratteristica 6= 2 esistono in V basi ortogonali. DIMOSTRAZIONE. Se n = 1 oppure il prodotto scalare è nullo il teorema è banalmente vero perché ogni base di V è ortogonale. Supponiamo, allora, che sia n ≥ 2, che il prodotto scalare sia non nullo e procediamo per induzione su n, supponendo che il teorema sia vero per spazi di dimensione n − 1. Essendo il prodotto scalare non nullo esiste un vettore v1 ∈ V tale che v1 ◦ v1 6= 0 (osservazione 1.10). Il prodotto scalare è non singolare sul sottospazio V1 = [v1 ] generato da v1 , in quanto v1 ◦ v1 6= 0 e quindi, per il teorema 2.8, si ha V = V1 ⊕ V1⊥ . Poiché dimV1⊥ = n − 1, V1⊥ ha una base (v2 , ..., vn ) ortogonale rispetto al prodotto scalare indotto e (v1 , v2 , ..., vn ) è una base ortogonale di V. Corollario 2.14 Se il campo K ha caratteristica 6= 2 e la matrice A ∈ Kn è simmetrica, esiste una matrice non singolare N ∈ Kn tale che N t AN è diagonale. 21 2 ORTOGONALITÀ DIMOSTRAZIONE. Sia B una base di K n e sia ◦ il prodotto scalare su K n la cui matrice rispetto a B sia A. Per il teorema 2.13 esiste una base ortogonale di K n e rispetto ad essa la matrice A′ del prodotto scalare è diagonale. Dal teorema 1.5 segue il corollario. Il teorema 2.13 assicura l’esistenza di basi ortogonali. Il seguente teorema 2.15 fornisce un procedimento, detto di Gram-Schmidt, per costruire una base ortogonale a partire da una base qualsiasi di V. Teorema 2.15 Sia V uno spazio vettoriale su cui sia definito un prodotto scalare ◦ tale che v ◦ v 6= 0 per ogni 0 6= v ∈ V . Se (u1 , ..., un ) è una base di V, allora una base ortogonale di V è (v1 , ..., vn ) con v1 = u1 , ui ◦ v1 ui ◦ vi−1 vi−1 − · · · − v1 , vi = ui − vi−1 ◦ vi−1 v1 ◦ v1 2 ≤ i ≤ n. DIMOSTRAZIONE. Sia Vi = [u1 , ..., ui ], 1 ≤ i ≤ n, il sottospazio di V generato da u1 , ..., ui , con il prodotto scalare indotto da quello di V e dimostriamo che (v1 , ..., vi ) è una base ortogonale di Vi . Ciò è manifestamente vero per i = 1. Supponiamo allora che sia i ≥ 2 e procediamo per induzione, ammettendo che (v1 , ..., vi−1 ) sia una base ortogonale di Vi−1 . Per ogni 1 ≤ j ≤ i − 1 si ha ui ◦ vi−1 ui ◦ v1 vi ◦ vj = ui − vi−1 − · · · − v1 ◦ vj vi−1 ◦ vi−1 v1 ◦ v1 ui ◦ vj vj ◦ vj = 0. = ui ◦ vj − vj ◦ vj Inoltre i vettori v1 , ..., vi sono linearmente indipendenti perché, se i X h=1 ah vh = 0, ah ∈ K, per ogni 1 ≤ j ≤ i si ha i X h=1 ah vh ◦ vj = aj vj ◦ vj = 0 e quindi aj = 0 per 1 ≤ j ≤ i. Dunque (v1 , ..., vi ) è una base ortogonale di Vi . Per i = n si ha il teorema. Assegnato un prodotto scalare su uno spazio vettoriale V mediante la sua matrice rispetto ad una base B , un metodo, detto di Jacobi, per determinare una matrice diagonale del prodotto scalare è quello descritto nel seguente teorema. 22 2 ORTOGONALITÀ Teorema 2.16 Sia V uno spazio vettoriale con un prodotto scalare ◦ la cui matrice rispetto alla base B = (v1 , ..., vn ) sia A = (aij ). Posto a11 . . . a1r . .. .. (1 ≤ r ≤ n), dr = .. . . a . . . arr r1 se dr 6= 0 per 1 ≤ r ≤ n − 1, esiste in V una base B′ ortogonale rispetto alla quale la matrice del prodotto scalare è c1 0 . . . 0 0 c2 . . . 0 . . .. . . .. . .. . 0 0 . . . cn con dr c1 = d 1 , cr = (2 ≤ r ≤ n). dr−1 DIMOSTRAZIONE. Se 1 ≤ i ≤ n − 1, essendo di 6= 0, il sistema lineare a11 t1 + · · · + ai1 ti + ai+1 1 = 0 ... a1i t1 + · · · + aii ti + ai+1 i = 0 nelle indeterminate t1 , ..., ti ha una soluzione (b1 i+1 , ..., bi i+1 ) in K i . I vettori v1′ = v1 , vi′ = b1i v1 + b2i v2 + · · · + bi−1 i vi−1 + vi , 2 ≤ i ≤ n, costituiscono la base B′ richiesta. Infatti, avendo la matrice 1 b12 . . . b1i 0 1 . . . b2i . .. . . .. . Ni = . . . . 0 0 ... b i−1 i 0 0 ... 1 determinante 1, i vettori v1′ , ..., vi′ sono linearmente indipendenti e quindi Vi = [v1 , ..., vi ] = [v1′ , ..., vi′ ]. ′ Il vettore vi+1 è ortogonale a v1 , ..., vi in quanto, per ogni 1 ≤ h ≤ i, si ha ′ vi+1 ◦ vh = i X j=1 bj i+1 (vj ◦ vh ) + vi+1 ◦ vh = i X j=1 ajh bj i+1 + ai+1 h = 0. 23 2 ORTOGONALITÀ ′ Allora vi+1 è anche ortogonale a v1′ , ..., vi′ e quindi (v1′ , ..., vr′ ) è una base ortogonale di Vr per ogni 1 ≤ r ≤ n. Il prodotto scalare indotto su Vr , rispetto alla base Br = (v1 , ..., vr ) ha come matrice a11 . . . a1r .. . .. Ar = .. . . ar1 . . . arr mentre rispetto alla base Br′ = (v1′ , ..., vr′ ) ha una matrice diagonale c1 . . . 0 . . A′r = .. . . . .. 0 . . . cr e, per il teorema 1.5, si ha A′r = Nrt Ar Nr . Poiché det Nrt = det Nr = 1 si ha c1 c2 ...cr = det A′r = dr . Da ciò segue che c1 = d 1 , cr = dr dr = (2 ≤ r ≤ n). c1 ...cr−1 dr−1 3. Se il campo K ha caratteristica 6= 2 ed un prodotto scalare ◦ non nullo su V è assegnato mediante la sua matrice A = (aij ) rispetto ad una data base B , una matrice diagonale del prodotto scalare può essere determinata con un procedimento elementare, detto del completamento dei quadrati. Per illustrare tale procedimento ci occorre il Lemma 2.17 Sia B = (v1 , ..., vn ) una base dello spazio vettoriale V. Se x1 , ..., xn sono le componenti di v ∈ V rispetto a B e xi = n X cij x′j , j=1 cij ∈ K, 1 ≤ i ≤ n, det(cij ) 6= 0, allora x′1 , ..., x′n sono le componenti di v rispetto alla base vj′ = n X i=1 cij vi , 1 ≤ j ≤ n. 24 2 ORTOGONALITÀ DIMOSTRAZIONE. Si ha v= n X xi vi = n n X X i=1 i=1 cij x′j j=1 ! vi = n X j=1 x′j n X cij vi = n X x′j vj′ . j=1 i=1 Se x1 , ..., xn sono le componenti di v ∈ V rispetto alla base B = (v1 , ..., vn ), allora (1) v◦v = n X aij xi xj = i,j=1 n X aii x2i + 2 i=1 X aij xi xj . i<j Supponiamo che nella (1) vi sia uno dei coefficienti aii non nullo e, salvo uno scambio di indici, possiamo supporre a11 6= 0. I termini della (1) che contengono x1 sono X a11 x21 + 2 a1j x1 xj = = = 1<j 1 X 2 X a11 x21 + a1j x1 xj + 2 a1j xj a11 1<j a11 1<j !2 !2 X a1j 1 X xj − a1j xj a11 x1 + a a 11 11 1<j 1<j e quindi v ◦ v = a11 X a1j x1 + 1<j a11 xj !2 !2 − 1 a11 X 1<j a1j xj !2 + h(x2 , ..., xn ), con h(x2 , ..., xn ) polinomio omogeneo di grado 2 non contenente x1 . Posto X a1j xj , x′i = xi (2 ≤ i ≤ n), x′1 = x1 + a 1<j 11 ossia x1 = x′1 − poiché X a1j 1<j a11 x′j , 1 − a12 a11 0 1 . .. .. . 0 0 xi = x′i (2 ≤ i ≤ n), ... − ... .. . ... a1n a11 0 .. . 1 = 1, 25 2 ORTOGONALITÀ per il lemma 2.17, x′1 , x2 , ..., xn sono le componenti di v rispetto alla base v1′ = v1 , vi′ = − a1i v1 + vi a11 (2 ≤ i ≤ n). Rispetto a tale base risulta 2 v ◦ v = a11 x′ 1 + h(x2 , ..., xn ), la matrice del prodotto scalare è del tipo a11 0 . . . 0 0 b22 . . . b2n . .. .. .. .. . . . 0 bn2 . . . bnn e B = (bij ) è la matrice del prodotto scalare indotto sul sottospazio [v2′ , ..., vn′ ] generato da v2′ , ..., vn′ rispetto alla base (v2′ , ..., vn′ ). Se nella (1) tutti i coefficienti aii delle x2i sono nulli, essendo il prodotto scalare non nullo, uno dei coefficienti aij è non nullo e, salvo uno scambio di indici, possiamo supporre che sia a12 6= 0. Posto x1 = y1 + y2 , x2 = y1 − y2 , xi = yi (3 ≤ i ≤ n) poiché 1 1 0 . . . 0 1 −1 0 . . . 0 0 0 1 . . . 0 = −2 . .. .. . . .. . 0 . . 0 0 0 ... 1 e la caratteristica di K è 6= 2, per il lemma 2.17, y1 , . . . , yn sono le componenti di v rispetto alla base u1 = v1 + v2 , u2 = v1 − v2 , ui = vi (3 ≤ i ≤ n). L’espressione di v ◦ v rispetto alla base (u1 , . . . , un ) è ottenuta dalla (1) mediante la (2) ed in essa compare 2a12 y12 − 2a12 y22 , trasformato di 2a12 x1 x2 ed il termine 2a12 y12 non si cancella con altri termini. Adesso si prosegue come nel caso precedente. Ripetendo il procedimento per il prodotto scalare indotto sul sottospazio [v2′ , . . . , vn′ ] e proseguendo successivamente in modo analogo otteniamo una matrice diagonale del prodotto scalare. 4. Se il campo K ha caratteristica 6= 2 il numero di indici i per i quali in una base ortogonale B = (v1 , ..., vn ) di V si ha vi ◦ vi = 0 non dipende dalla base B , come risulta dal seguente teorema. 3 PRODOTTI SCALARI SU SPAZI VETTORIALI REALI 26 Teorema 2.18 Se il campo K ha caratteristica 6= 2 e B = (v1 , ..., vn ) è una base ortogonale dello spazio vettoriale V con un prodotto scalare ◦, il numero di indici i per i quali vi ◦ vi = 0 è uguale alla dimensione di V⊥ . DIMOSTRAZIONE. Se vi ◦ vi = 0 per ogni 1 ≤ i ≤ n, allora V = V⊥ ed il teorema è vero. Supponiamo che vi sia un indice i tale che vi ◦ vi 6= 0. Gli elementi di B possono essere ordinati in modo che sia 6= 0 se 1 ≤ i ≤ s, vi ◦ vi =0 se s + 1 ≤ i ≤ n. Allora vj ◦ vi = 0 per 1 ≤ j ≤ n, s + 1 ≤ i ≤ n P e quindi vs+1 , ..., vn ∈ V . Se v = ni=1 ai vi ∈ V⊥ , risulta ! n X v ◦ vi = ai vi ◦ vi = ai vi ◦ vi = 0 per 1 ≤ i ≤ n ⊥ i=1 ed allora, essendo vi ◦ vi 6= 0 per 1 ≤ i ≤ s, deve essere a1 = · · · = as = 0. Quindi V⊥ è generato da vs+1 , ..., vn . Poiché vs+1 , ..., vn sono linearmente indipendenti, in quanto elementi di una base, costituiscono una base di V⊥ , da cui il teorema. 3. Prodotti scalari su spazi vettoriali reali. 1. Gli spazi vettoriali reali sono gli spazi vettoriali sul campo reale R. Definizione 3.1 Un prodotto scalare ◦ su uno spazio vettoriale reale V si dice positivo se e solo se x ◦ x > 0 per ogni 0 6= x ∈ V e si dice negativo se e solo se x ◦ x < 0 per ogni 0 6= x ∈ V . Esempio 3.2 Il prodotto scalare canonico di Rn P è positivo. Infatti, se x = (x1 , ..., xn ) ∈ Rn , si ha x ◦ x = ni=1 x2i . Osservazione 3.3 Un prodotto scalare positivo o negativo su V è non degenere. Infatti, se un prodotto scalare ◦ su V è degenere, esiste un elemento 0 6= v ∈ V⊥ e quindi tale che v ◦ v = 0. Osservazione 3.4 Se B = (v1 , ..., vn ) è una base ortogonale di V e x1 , ..., xn sono le componenti di v ∈ V rispetto a B si ha v◦v= n X i=1 x2i (vi ◦ vi ) 27 3 PRODOTTI SCALARI SU SPAZI VETTORIALI REALI e quindi il prodotto scalare è positivo se e solo se vi ◦vi > 0 per ogni 1 ≤ i ≤ n ed è negativo se e solo se vi ◦ vi < 0 per ogni 1 ≤ i ≤ n. Il numero di indici i per i quali in una base ortogonale B = (v1 , ..., vn ) di V risulta vi ◦ vi > 0 non dipende dalla base, come risulta dal seguente teorema. Teorema 3.5 (di Sylvester) Sia V uno spazio vettoriale reale su cui sia definito un prodotto scalare ◦. Esiste un intero r ≥ 0 con la proprietà: per ogni base ortogonale B = (v1 , ..., vn ) di V vi sono esattamente r indici i tali che vi ◦ vi > 0. DIMOSTRAZIONE. Siano B = (v1 , ..., vn ) e B′ = (v1′ , ..., vn′ ) basi ortogonali di V e sia ai = vi ◦ vi , a′i = vi′ ◦ vi′ , 1 ≤ i ≤ n. Siano r il numero di indici i per i quali ai > 0 e s il numero di indici i per i quali a′i > 0. Se r = 0 anche s = 0. Infatti, se vi fosse un elemento a′h > 0, poiché n X ′ vh = cj vj , cj ∈ K, j=1 si avrebbe l’assurdo 0 < a′h = vh′ ◦ vh′ = n X cj vj j=1 ! ◦ n X cj vj j=1 ! = n X j=1 c2j aj ≤ 0. Se r = n il prodotto scalare è positivo (osservazione 3.4), quindi a′j > 0 per ogni j e perciò s = n = r . Sia 1 ≤ r < n; allora 1 ≤ s < n. Le basi B , B′ si possono pensare ordinate in modo che sia > 0 se 1 ≤ i ≤ r, > 0 se 1 ≤ i ≤ s, ′ ai ai ≤ 0 se r + 1 ≤ i ≤ n, ≤ 0 se s + 1 ≤ i ≤ n. ′ , ..., vn′ sono linearmente indipendenti. Infatti, sia I vettori v1 , ..., vr , vs+1 r X (1) bi vi + i=1 n X b′j vj′ = 0, j=s+1 bi , b′j ∈ R. Allora r X i=1 bi vi ! ◦ r X i=1 bi vi ! = n X j=s+1 b′j vj′ ! ◦ n X j=s+1 b′j vj′ ! 3 PRODOTTI SCALARI SU SPAZI VETTORIALI REALI e quindi r X ai b2i = i=1 n X 28 2 a′j b′j . j=s+1 Il primo membro di questa uguaglianza è ≥ 0 mentre il secondo membro è ≤ 0, quindi entrambi i membri debbono essere nulli. Poiché a1 , ..., ar sono positivi, deve essere b1 = · · · = br = 0; la (1) diviene allora n X b′j vj′ = 0 j=s+1 ′ e poiché vs+1 , ..., vn′ sono linearmente indipendenti deve essere b′s+1 = · · · = b′n = 0. Ne segue, allora, che r + (n − s) ≤ n e quindi r ≤ s. Analogamente s ≤ r e perciò r = s. Osservazione 3.6 Dal teorema 3.5 e dal teorema 2.18 segue che non dipende dalla base ortogonale B = (v1 , ..., vn ) il numero di indici j per cui vj ◦vj < 0. 2. Si ha il Teorema 3.7 Un prodotto scalare ◦ su uno spazio vettoriale reale V è positivo se e solo se la sua matrice A = (aij ) rispetto ad una qualunque base B = (v1 , ..., vn ) di V è tale che a11 . . . a1r . .. .. dr = .. . . > 0 per ogni 1 ≤ r ≤ n. a . . . arr r1 DIMOSTRAZIONE. Se dr > 0 per 1 ≤ r ≤ n, per il teorema 2.16, esiste in V una base B′ ortogonale tale che, se x1 , ..., xn sono le componenti di v ∈ V rispetto a B′ , si ha v◦v= n X i=1 ci x2i , c1 = d 1 , cr = dr (2 ≤ r ≤ n) dr−1 e quindi il prodotto scalare è positivo (osservazione 3.4). Viceversa, sia il prodotto scalare positivo. Sia Vr = [v1 , ..., vr ]; allora a11 . . . a1r . .. .. Ar = .. . . ar1 . . . arr 3 PRODOTTI SCALARI SU SPAZI VETTORIALI REALI 29 è la matrice del prodotto scalare indotto su Vr rispetto alla base Br = (v1 , ..., vr ). Esiste in Vr una base ortogonale Br′ (teorema 2.13) e rispetto ad essa la matrice del prodotto scalare è del tipo b1 . . . 0 . . A′r = .. . . . .. 0 . . . br con bi > 0 per 1 ≤ i ≤ r (osservazione 3.6). Se Nr è la matrice di passaggio dalla base Br alla base Br′ si ha (teorema 1.5) A′r = Nrt Ar Nr e quindi b1 b2 ...br = (det Nr )2 dr , da cui segue che dr > 0 per 1 ≤ r ≤ n. 3. Sia V uno spazio vettoriale reale con un prodotto scalare positivo ◦. Definizione 3.8 Se x ∈ V , il numero reale √ kxk = x ◦ x si dice norma o lunghezza di x. Un vettore u ∈ V di lunghezza 1 si dice unitario. Se x ∈ V e x 6= 0, il vettore u= è unitario. x kxk Teorema 3.9 In uno spazio vettoriale reale V, di dimensione positiva, su cui è definito un prodotto scalare ◦, esistono basi ortonormali se e solo se il prodotto scalare è positivo. DIMOSTRAZIONE. Se il prodotto scalare è positivo, è non degenere (osservazione 3.3) e, per il teorema 2.13, V possiede una base ortogonale B = (v1 , ..., vn ). Poiché il prodotto scalare è positivo si ha vi ◦vi > 0 per 1 ≤ i ≤ n ed allora, posto vi , 1 ≤ i ≤ n, ui = kvi k (u1 , ..., un ) è una base ortonormale di V. D’altra parte, se il prodotto scalare non è positivo e (v1 , . . . , vn ) è una base ortogonale di V vi è almeno un elemento vi tale che vi ◦ vi ≤ 0 (osservazione 3.4) e quindi in V non esistono basi ortonormali. 3 PRODOTTI SCALARI SU SPAZI VETTORIALI REALI 30 Teorema 3.10 Sia V uno spazio vettoriale reale su cui sia definito un prodotto scalare positivo ◦. Per ogni coppia di vettori x, y ∈ V si ha: 1) |x ◦ y| ≤ kxk kyk (Disuguaglianza di Schwarz); 2) kx + yk ≤ kxk + kyk; 3) |kxk − kyk| ≤ kx − yk. DIMOSTRAZIONE. 1) Se x = 0 la 1) è banalmente vera. Sia x 6= 0; allora 0 ≤ (kx − y) ◦ (kx − y) = kxk2 k 2 − 2(x ◦ y)k + kyk2 e quindi deve essere da cui la 1). 2) Segue da (x ◦ y)2 ≤ kxk2 kyk2 , kx + yk2 = (x + y) ◦ (x + y) = kxk2 + 2x ◦ y + kyk2 ≤ kxk2 + 2kxk kyk + kyk2 = (kxk + kyk)2 . 3) Da segue che Anlogamente e perciò si ha la 3). kxk = kx − y + yk ≤ kx − yk + kyk kxk − kyk ≤ kx − yk. kyk − kxk ≤ kx − yk Osservazione 3.11 Se i vettori x, y sono entrambi non nulli, nella disuguaglianza di Schwartz vale l’uguaglianza se e solo se essi sono linearmente dipendenti. Infatti, se sono linearmente dipendenti esiste un elemento k0 ∈ K tale che y = k0 x ed allora k0 è radice reale dell’equazione in k (2) quindi kxk2 k 2 − 2(x ◦ y)k + kyk2 = 0, (x ◦ y)2 ≥ kxk2 kyk2 , da cui l’uguaglianza. Viceversa, se vale l’uguaglianza, l’equazione (2) ha una radice reale k0 , quindi (k0 x − y) ◦ (k0 x − y) = 0 e perciò y = k0 x. 31 4 FORME QUADRATICHE Dalla disuguaglianza di Schwartz segue che, se x 6= 0 e y 6= 0, si ha −1 ≤ x◦y ≤ 1. kxk kyk Poiché la funzione coseno è un’applicazione strettamente decrescente dell’intervallo chiuso [0, π] sull’intervallo chiuso [−1, 1], esiste un ben determinato numero reale θ tale che x◦y cos θ = , 0 ≤ θ ≤ π. kxk kyk Il numero reale θ è l’angolo dei vettori x, y. I vettori x, y sono ortogonali se e solo se il loro angolo è π2 . 4. Forme quadratiche. 1. Sia V uno spazio vettoriale su un campo K di caratteristica 6= 2. Definizione 4.1 Si chiama forma quadratica su V un’applicazione q : V −→ K tale che esiste un prodotto scalare ◦ su V in modo che q(v) = v ◦ v per ogni v ∈ V e si dice che q è determinata o definita dal prodotto scalare ◦. Dall’osservazione 1.9 segue che una forma quadratica q su V è determinata da un unico prodotto scalare su V. Sia q una forma quadratica su V e sia B = (v1 , ..., vn ) una base di V. La matrice A = (aij ) rispetto a B del prodotto scalare che definisce q si dice anche matrice di q rispetto a B . Se v= n X xi vi , X = (x1 , ..., xn )t , i=1 risulta (1) q(v) = X t AX = X aij xi xj . i,j D’altra parte, assegnata una matrice simmetrica A = (aij ) ∈ Kn di ordine n = dimV , A definisce una forma bilineare su V avente A come matrice 32 4 FORME QUADRATICHE rispetto a B (teorema 1.4), che è simmetrica (teorema 1.7) e quindi definisce una forma quadratica q su V per la quale si ha la (1). Se x1 , ..., xn sono le componenti di v ∈ V rispetto alla base B , scriveremo anche q(v) = q(x1 , ..., xn ). Una base che diagonalizza q è una base (u1 , ..., un ) di V rispetto alla quale la matrice di q è diagonale, cioè rispetto alla quale q si esprime mediante la (2) q(x1 , ..., xn ) = n X i=1 ai x2i , ai = ui ◦ ui . Dal teorema 2.13 segue che esistono in V basi che diagonalizzano q . Una matrice diagonale di q si ottiene col completamento dei quadrati (§2, n.3) o col metodo di Jacobi (teorema 2.16). Definizione 4.2 Il numero di indici i per i quali nella (2) è ai = 0, che per il teorema 2.18 non dipende dalla base B che diagonalizza q , si dice indice di nullità di q . Definizione 4.3 La forma quadratica q si dice non degenere se e solo se è non degenere il prodotto scalare che la definisce. Dal teorema 2.5 segue il Corollario 4.4 Una forma quadratica è non degenere se e solo se ha indice di nullità 0. 2. Una forma quadratica reale è una forma quadratica su uno spazio vettoriale reale. Definizione 4.5 Una forma quadratica reale q si dice: definita positiva se e solo se q(v) > 0 per ogni 0 6= v ∈ V , cioè se e solo se è positivo il prodotto scalare che la definisce, definita negativa se e solo se q(v) < 0 per ogni 0 6= v ∈ V , semidefinita positiva se e solo se q(v) ≥ 0 per ogni v ∈ V , semidefinita negativa se e solo se q(v) ≤ 0 per ogni v ∈ V . Se A = (aij ) è la matrice di q rispetto ad una base B di V, una condizione necessaria e sufficiente perché q sia definita positiva è data dal teorema 3.7. 33 5 ENDOMORFISMI SIMMETRICI Definizione 4.6 Se B = (u1 , ..., un ) è una base che diagonalizza q e rispetto ad essa q si esprime mediante la (2), il numero dei coefficienti ai che sono positivi, che non dipende da B (teorema 3.5), si dice indice di positività di q . Il numero dei coefficienti ai che sono negativi, che non dipende da B in conseguenza del teorema 2.18, si dice indice di negatività di q . Corollario 4.7 Una forma quadratica reale su V è definita positiva (negativa) se e solo se il suo indice di positività (negatività) è uguale alla dimensione di V. 5. Endomorfismi simmetrici. 1. Sia V uno spazio vettoriale su K . Lo spazio vettoriale duale di V è V∗ = Hom(V, K). Se (v1 , ..., vn ) è una base di V, gli elementi v1∗ , ..., vn∗ di V∗ tali che 0, se i = 6 j; ∗ vi (vj ) = 1, se i = j; costituiscono una base di V∗ , la duale di (v1 , ..., vn ). Teorema 5.1 Sia V uno spazio vettoriale su K su cui sia definito un prodotto scalare ◦ non singolare e per ogni v ∈ V sia λv l’elemento di V∗ tale che λv (x) = v ◦ x per ogni x ∈ V. L’applicazione definita da Ψ : V −→ V∗ Ψ(v) = λv è un isomorfismo. DIMOSTRAZIONE. L’applicazione Ψ è lineare in quanto, se u, v ∈ V e a, b ∈ K , per ogni x ∈ V si ha λau+bv (x) = (au + bv) ◦ x = au ◦ x + bv ◦ x = aλu (x) + bλv (x) = (aλu + bλv )(x) e perciò Ψ(au + bv) = aΨ(u) + bΨ(v). 34 5 ENDOMORFISMI SIMMETRICI Inoltre Ψ è iniettiva. Infatti, se Ψ(v) = 0 si ha λv (x) = v ◦ x = 0 per ogni x ∈ V ed essendo il prodotto scalare non singolare deve essere v = 0. Ed allora, avendo V e V∗ la stessa dimensione, Ψ è isomorfismo. Teorema 5.2 Sia V uno spazio vettoriale su K su cui sia definito un prodotto scalare ◦ non singolare. Per ogni endomorfismo S di V esiste un ben determinato endomorfismo T di V tale che (1) x ◦ S(y) = T (x) ◦ y per ogni x, y ∈ V. DIMOSTRAZIONE. Per ogni x ∈ V , sia fx : V → K l’applicazione definita da fx (y) = x ◦ S(y). Si verifica subito che fx ∈ V∗ e quindi, per il teorema 5.1, esiste un ben determinato elemento v ∈ V tale che se λv : V −→ K è l’applicazione lineare definita da λv (y) = v ◦ y, risulta fx = λv . L’applicazione T : V −→ V definita da x → v soddisfa la (1); infatti, x ◦ S(y) = fx (y) = λT (x) (y) = T (x) ◦ y. E T è un endomorfismo di V perché se x, y, z ∈ V e a, b ∈ K si ha T (ax + bz) ◦ y = (ax + bz) ◦ S(y) = ax ◦ S(y) + bz ◦ S(y) = aT (x) ◦ y + bT (z) ◦ y = (aT (x) + bT (z)) ◦ y e quindi (T (ax + bz) − aT (x) − bT (z)) ◦ y = 0. Poiché ciò vale per ogni y ∈ V ed il prodotto scalare è non singolare, deve essere T (ax + bz) = aT (x) + bT (z). L’endomorfismo T è l’unico che soddisfa la (1). Infatti, se T ′ è un altro endomorfismo che la soddisfa, per ogni y ∈ V si ha (T ′ (x) − T (x)) ◦ y = 0 e poiché il prodotto scalare è non singolare, deve essere T ′ (x) = T (x) per ogni x ∈ V , cioè T ′ = T. 35 5 ENDOMORFISMI SIMMETRICI Definizione 5.3 L’endomorfismo T del teorema 5.2, si dice trasposto di S e lo denoteremo S t . Definizione 5.4 L’endomorfismo S di V si dice simmetrico se e solo se S = S t , cioè x ◦ S(y) = S(x) ◦ y per ogni x, y ∈ V. Corollario 5.5 Sia S un endomorfismo di uno spazio vettoriale V su cui sia definito un prodotto scalare ◦ non singolare e sia B una base ortonormale di V. Allora, la matrice rispetto a B del trasposto S t di S è la trasposta della matrice di S rispetto a B . In particolare S è simmetrico se e solo se la sua matrice rispetto a B è simmetrica. DIMOSTRAZIONE. Siano A, B le matrici rispetto a B di S, S t rispettivamente. Se X, Y sono le matrici colonna delle componenti di x, y rispetto a B si ha (osservazione 2.12 e capitolo I osservazione 1.2) x ◦ S(y) = X t (AY ) = X t AY S t (x) ◦ y = (BX)t Y = X t B t Y. Deve essere X t AY = X t B t Y per ogni X, Y cioè X t (A − B t )Y = 0 per ogni X, Y . In particolare, se B = (v1 , . . . , vn ) e Xi = (0, . . . , 1, . . . , 0)t è la matrice colonna delle componenti di vi rispetto a B , deve essere Xit (A − B t )Xj = 0, per ogni 1 ≤ i, j ≤ n, da cui segue che A − B t = 0 e perciò At = B . Teorema 5.6 Sia V uno spazio vettoriale reale di dimensione n > 0 su cui sia definito un prodotto scalare positivo ◦ e sia T un endomorfismo simmetrico di V. Allora: 1) Il polinomio caratteristico di T si decompone in fattori lineari in R[x]; 2) T possiede autovettori. DIMOSTRAZIONE. 1) Sia B una base ortonormale di V (che esiste, per il teorema 3.9) e sia M la matrice di T rispetto a B . Il polinomio caratteristico di T è ∆(x) = det(xI −M). Se S è l’endomorfismo dello spazio vettoriale Cn 36 5 ENDOMORFISMI SIMMETRICI sul campo complesso C la cui matrice rispetto alla base canonica è M , ∆(x) è anche il polinomio caratteristico di S e quindi le sue radici in C sono gli autovalori di S . Si deve dimostrare che ogni radice di ∆(x) in C appartiene a R. Se B = (bij ) è una matrice ad elementi in C, sia B = (bij ) la matrice i cui elementi sono i coniugati degli elementi di B . Essendo M simmetrica (corollario 5.5) e reale, si ha t Mt = M = M = M . (2) Sia h : Cn × Cn −→ C l’applicazione definita nel modo seguente: se z, y ∈ Cn e Z = (z1 , ..., zn )t , Y = (y1 , ..., yn )t sono le matrici colonna delle componenti di z, y rispetto alla base canonica, allora n X h(z, y) = zj y j = Z t Y . j=1 Sono immediate le (3) h(az, y) = ah(z, y) per ogni a ∈ C; (4) h(z, ay) = ah(z, y) per ogni a ∈ C; (5) h(z, z) ∈ R; (6) h(z, z) > 0 se z 6= 0. Se z è un autovettore dell’endomorfismo S associato all’autovalore λ, si ha S(z) = λz e quindi λh(z, z) = h(λz, z) = h(S(z), z) = (MZ)t Z = Z t M t Z = Z t M Z = h(z, S(z)) = h(z, λz) = λh(z, z). Allora (λ − λ)h(z, z) = 0 e, per la (6), si ha λ = λ, ossia λ ∈ R. 2) Segue immediatamente dalla 1). 37 5 ENDOMORFISMI SIMMETRICI Teorema 5.7 (Teorema spettrale) Sia V uno spazio vettoriale reale di dimensione positiva n su cui sia definito un prodotto scalare positivo ◦. Se T è un endomorfismo simmetrico di V, esiste in V una base ortonormale costituita da autovettori di T . DIMOSTRAZIONE. Per n = 1 il teorema è vero perché, se 0 6= v ∈ V , allora u = v/kvk è un autovettore di T e costituisce una base ortonormale di V. Procediamo per induzione su n. Sia n > 1 e supponiamo che il teorema sia vero per spazi vettoriali di dimensione n−1. Per il teorema 5.6, T possiede un autovettore v1 ; sia u1 = v1 /kv1 k e sia U = [u1 ]⊥ il complemento ortogonale di u1 . La restrizione T ′ di T a U è un endomorfismo di U; infatti, se T (u1 ) = λu1 , per ogni u ∈ U si ha T (u) ◦ u1 = u ◦ T (u1 ) = u ◦ λu1 = λu ◦ u1 = 0 e perciò T (u) ∈ U. Ovviamente T ′ è un endomorfismo simmetrico rispetto al prodotto scalare indotto. Poiché dimU = n − 1 (osservazione 3.3 e corollario 2.6), per ipotesi esiste una base ortonormale (u2 , ..., un ) di U costituita da autovettori di T ′ . Ed allora (u1 , u2 , ..., un ) è una base ortonormale di U costituita da autovettori di T . Se K è un campo, una matrice M ∈ Kn è ortogonale se e solo se M t M = MM t = I. Per il corollario 1.11 del capitolo I, perché M sia ortogonale basta che risulti MM t = I oppure M t M = I . Lemma 5.8 Se su uno spazio vettoriale V su K è definito un prodotto scalare ◦ ed E , B sono basi ortonormali di V, la matrice di passaggio dall’una all’altra è ortogonale. DIMOSTRAZIONE. Sia E = (e1 , . . . , en ), B = (u1 , . . . , un ) e sia ui = b1i e1 + b2i e2 + · · · + bni en , Allora b11 . B M = ME (I) = .. bn1 Sia M t M = (cij ). Si ha 1 ≤ i ≤ n. . . . b1n .. .. . . . . . . bnn cij = b1i b1j + b2i b2j + · · · + bni bnj = ui ◦ uj = e quindi M t M = I . 0, se i 6= j, 1, se i = j, 38 5 ENDOMORFISMI SIMMETRICI Corollario 5.9 Sia A una matrice reale simmetrica di ordine n. Allora: 1) il polinomio caratteristico ∆(x) di A si decompone in fattori lineari in R[x]; 2) se λ1 . . . . ′ ∆(x) = (x − λi ), A = .. . . . i=1 0 ... esiste una matrice ortogonale M ∈ Rn tale che n Y 0 .. , . λn A′ = M −1 AM = M t AM. DIMOSTRAZIONE. Sia T l’endomorfismo di Rn avente A come matrice rispetto alla base canonica E = (e1 , ..., en ). Poiché, rispetto al prodotto scalare canonico ◦ di Rn , E è ortonormale, T è simmetrico rispetto a tale prodotto scalare (corollario 5.5). Il polinomio caratteristico di A coincide con quello di T e quindi la 1) segue dal teorema 5.6. Per il teorema 5.7, esiste in Rn una base B = (u1 , ..., un ) ortonormale rispetto al prodotto scalare canonico costituita da autovettori di T . Se T (ui ) = λi ui , 1 ≤ i ≤ n, la matrice rispetto a B di T è A′ . Se M è la matrice di passaggio dalla base E alla base B si ha (capitolo I, corollario 1.10) A′ = M −1 AM . Per il lemma 5.8 la matrice M è ortogonale, cioè M t = M −1 e quindi A′ = M −1 AM = M t AM. Corollario 5.10 Siano f, g due prodotti scalari su uno spazio vettoriale reale V. Se f è positivo, esiste in V una base ortonormale rispetto a f ed ortogonale rispetto a g . DIMOSTRAZIONE. Per il teorema 3.9 esiste in V una base E ortonormale rispetto a f . Sia A la matrice di g rispetto a E e sia T l’endomorfismo di V che rispetto a E è associato ad A. Poiché E è ortonormale rispetto a f ed A è simmetrica, T è simmetrico rispetto a f (corollario 5.5) e quindi in V esiste una base B = (u1 , ..., un ) ortonormale rispetto a f costituita da autovettori di T (teorema 5.7). Se T (ui ) = λi ui , 1 ≤ i ≤ n, la matrice di T rispetto a B è la matrice diagonale λ1 . . . 0 . . (7) A′ = .. . . . .. . 0 . . . λn 39 5 ENDOMORFISMI SIMMETRICI Se M = MEB (I) è la matrice di passaggio dalla base E alla base B , si ha (capitolo I corollario 1.10) A′ = M −1 AM . Per il lemma 5.8, M è ortogonale e quindi A′ = M −1 AM = M t AM. Allora A′ è la matrice di g rispetto a B (teorema 1.5) e quindi B è ortogonale rispetto a g . Corollario 5.11 Sia g un prodotto scalare su uno spazio vettoriale reale V di dimensione positiva n e sia A la sua matrice rispetto ad una base E di V. Se il polinomio caratteristico di A è n Y ∆(x) = (x − λi ), i=1 λi ∈ R, esiste in V una base ortogonale B rispetto alla quale la matrice di g è la matrice diagonale (7). DIMOSTRAZIONE. Sia f il prodotto scalare su V la cui matrice rispetto a E sia la matrice identica I ; f è positivo e rispetto ad esso E è ortonormale. Il corollario segue, allora, dalla dimostrazione del corollario 5.10. Osservazione 5.12 Il prodotto scalare g del corollario 5.11 è positivo se e solo se gli autovalori della sua matrice A sono tutti positivi. CAPITOLO III SPAZI AFFINI GEOMETRIA LINEARE AFFINE 1. Spazi affini. 1. Sia A un insieme non vuoto e sia V uno spazio vettoriale su K . Definizione 1.1 Si dice che su A è definita una struttura di spazio affine con spazio vettoriale associato V se è assegnata un’applicazione (1) A × A −→ V −−→ tale che ad ogni (P, Q) ∈ A × A associa un vettore di V, denotato P Q , in modo che: −−→ a1 ) P Q = 0 ⇐⇒ P = Q; −−→ a2 ) Per ogni P ∈ A ed ogni v ∈ V , esiste Q ∈ A tale che P Q = v; −−→ −−→ −−→ a3 ) Se P, Q, R ∈ A si ha P Q + QR = P R . Un insieme A con una struttura di spazio affine e spazio vettoriale associato V si dice anche spazio affine su V; i suoi elementi si dicono punti e per ogni −−→ (P, Q) ∈ A × A, P si dice punto di applicazione del vettore P Q . La dimensione di V si dice anche dimensione dello spazio affine A e la denoteremo dim A. Per indicare che lo spazio affine A ha dimensione n scriveremo anche An . Gli spazi affini A1 si dicono rette e gli spazi affini A2 piani. Osservazione 1.2 1) Dalle a1 ), a3 ) segue che (2) −−→ −−→ QP = − P Q. 2) Per ogni P ∈ A ed ogni v ∈ V vi è un solo punto Q ∈ A tale che −−→ P Q = v. −−→ −−→ −−→ −−→ −−→ −−→ Infatti, sia P Q = v = P R ; da P Q + QR = P R segue che v + QR = v, −−→ quindi QR =0 e perciò Q = R. 41 1 SPAZI AFFINI −−−→ −−−→ 3) Sussiste la legge del parallelogramma: se P1 Q1 = P2 Q2 risulta anche −−−→ −−−→ P1 P2 = Q1 Q2 . Infatti, si ha −−−→ −−−→ −−−→ −−−→ −−−→ P1 Q1 + Q1 Q2 = P1 Q2 = P1 P2 + P2 Q2 −−−→ −−−→ e perciò P1 P2 = Q1 Q2 . Esempio 1.3 L’applicazione V × V → V che alla coppia (u,v) ∈ V × V associa −→ (3) uv = v − u per ogni u, v ∈ V definisce su V una struttura di spazio affine con spazio vettoriale associato V stesso. Nel caso particolare che V=K n esso si dice spazio affine di dimensione n su K e lo denoteremo AnK o An (K). 2. Sia A uno spazio affine su V. Definizione 1.4 Si chiama sistema di riferimento di origine il punto O di A il dato (O; e1, . . . , en ) del punto O di A e di una base (e1 , ..., en ) di V. Nel caso dello spazio affine An (K), se O = (0, . . . , 0) ed (e1 , . . . , en ) è la base canonica di K n , il sistema di riferimento (O; e1, . . . , en ) si dice canonico. −−→ Se (O; e1 , ..., en ) è un sistema di riferimento di A e P ∈ A, il vettore OP si dice vettore associato a P nel sistema di riferimento e le sue componenti rispetto alla base (e1 , ..., en ) si dicono coordinate di P nel sistema di riferimento. Per indicare che x1 , ..., xn sono coordinate di P scriveremo anche P (x1 , ..., xn ). Se P (x1 , ..., xn ) e Q(y1 , ..., yn ) sono punti di A, le componenti del vettore −−→ P Q rispetto alla base (e1 , ..., en ) sono (y1 − x1 , ..., yn − xn ). Teorema 1.5 Siano (O; e1 , ..., en ) e (O ′ ; e′1 , ..., e′n ) due sistemi di riferimento dello spazio affine A. Se X, Y sono le matrici colonna delle coordinate di un punto P nei due sistemi di riferimento, si ha la trasformazione (affine) di coordinate (4) Y = AX + B, dove A è la matrice di passaggio dalla base (e′1 , ..., e′n ) alla base (e1 , ..., en ) e B è la matrice colonna delle coordinate di O nel sistema di riferimento (O ′; e′1 , ..., e′n ). 2 VARIETÀ LINEARI AFFINI 42 DIMOSTRAZIONE. Si ha −−→ −−→ −−→ O ′ P = O ′ O + OP . −−→ La matrice colonna delle componenti di OP rispetto alla base (e′1 , ..., e′n ) è AX (capitolo I, osservazione 1.2), da cui la (4). 2. Varietà lineari affini. 1. Sia A uno spazio affine sullo spazio vettoriale V. Definizione 2.1 Un sottoinsieme non vuoto S di A si dice varietà lineare (affine) o sottospazio lineare di A se e solo se esiste un sottospazio vettoriale M di V tale che: −−→ s1 ) se P, Q ∈ S , allora P Q ∈ M; −−→ s2 ) se P ∈ S e v ∈ M, il punto Q di A tale che P Q = v appartiene a S . Il sottospazio M è univocamente determinato da S . Infatti, sia N un altro sottospazio di V per cui siano soddisfatte le s1 ), s2 ). Se v ∈ M e P ∈ S , −−→ in virtù della s2 ) esiste Q ∈ S tale che v= P Q e, in virtù della s1 ), si ha −−→ P Q = v ∈ N. Dunque M ⊂ N. Analogamente N ⊂ M e perciò M=N. Definizione 2.2 Il sottospazio vettoriale M determinato dalla varietà lineare S si dice associato a S o anche giacitura di S . La dimensione di M si dice dimensione di S e la denoteremo dim S . Le varietà lineari affini di dimensione 0 di A sono i punti, quelle di dimensione 1, 2 si dicono rispettivamente rette, piani e, se dim A = n > 3, quelle di dimensione n − 1 si dicono iperpiani. La giacitura M di una retta S di A si dice anche direzione di S ; ogni 0 6= v ∈ M si dice vettore di direzione di S . In A si adopera il linguaggio geometrico usuale: se S è una sottovarietà di T , cioè S ⊂ T , si dice che T passa per S ; punti appartenenti ad una stessa retta si dicono allineati; punti e rette contenuti in uno stesso piano si dicono complanari; rette passanti per uno stesso punto si dicono concorrenti; ecc. Osservazione 2.3 Se S è sottovarietà di una varietà lineare T , allora risulta dim S ≤ dim T e l’uguaglianza vale se e solo se S = T . Infatti, se M, N sono le giaciture di S, T rispettivamente si ha M ⊂ N e M=N se e solo se S = T . 2 VARIETÀ LINEARI AFFINI 43 Esempio 2.4 1) Se P0 ∈ A e M è un sottospazio di V, il sottoinsieme di A −−→ (P0 ; M) = {P ∈ A : P0 P ∈ M} è una varietà lineare che passa per P0 ed ha giacitura M. Infatti, (P0 ; M) è non vuoto perché contiene P0 . Se P, Q ∈ (P0 ; M) si −−→ −−→ −−→ −−→ −−→ ha P0 P , P0 Q ∈ M e quindi P Q = P P0 + P0 Q ∈ M, cioè è soddisfatta la −−→ −−→ s1 ). Se v ∈ M, P ∈ (P0 ; M) e Q ∈ A è tale che P Q =v, si ha P0 Q = −−→ −−→ −−→ P0 P + P Q = P0 P + v ∈ M; perciò Q ∈ (P0 ; M) e quindi è soddisfatta la s2 ). Se S è una varietà lineare di A di giacitura M, allora per ogni punto P0 ∈ S si ha S = (P0 ; M). −−→ Infatti, se P ∈ S risulta P0 P ∈ M e quindi P ∈ (P0 ; M); d’altra parte, −−→ se P ∈ (P0 ; M) si ha P0 P ∈ M e quindi, per la s2 ), P ∈ S . 2) Sia V uno spazio vettoriale con la struttura di spazio affine definita dalla (3). Se M è un sottospazio di V e u è un punto dello spazio affine V, la varietà lineare passante per u e di giacitura M è l’insieme u + M = {u + v : v ∈ M}. In particolare, se u ∈ M si ha u+M=M e quindi le varietà lineari dello spazio affine V sono i sottospazi vettoriali M di V ed i loro traslati u+M. Lemma 2.5 L’intersezione di una famiglia di varietà lineari di A, se non è vuota, è una varietà lineare. DIMOSTRAZIONE. Sia {Si } una famiglia di varietà lineari di A tale che ∩i Si sia non vuota e sia Mi la giacitura di Si . Se P0 ∈ ∩Si si può scrivere Si = (P0 ; Mi ) e risulta ∩i Si = (P0 ; ∩Mi ). Lemma 2.6 Siano S1 = (P1 ; M1 ), S2 = (P2 ; M2 ) varietà lineari di A. −−−→ Risulta S1 ∩ S2 6= Ø se e solo se P1 P2 ∈ M1 + M2 . −−→ −−→ DIMOSTRAZIONE. Se Q ∈ S1 ∩S2 , per la s1 ) si ha P1 Q = m1 ∈ M1 , P2 Q = −−−→ −−→ −−→ m2 ∈ M2 e quindi P1 P2 = P1 Q + QP2 = m1 − m2 ∈ M1 + M2 . D’altra −−−→ parte, se P1 P2 = m1 + m2 , m1 ∈ M1 , m2 ∈ M2 , per la s2 ) esiste Q ∈ S2 −−→ −−−→ −−−→ −−→ −−→ tale che P2 Q = m1 − P1 P2 = −m2 e quindi P1 P2 + P2 Q = P1 Q = m1 . Allora Q ∈ S1 e quindi S1 ∩ S2 6= Ø. 2 VARIETÀ LINEARI AFFINI 44 Definizione 2.7 Sia {Si } una famiglia di varietà lineari di A. La varietà lineare intersezione delle varietà lineari che contengono tutte le Si si dice varietà lineare congiungente le varietà Si . Essa è la minima varietà lineare di A che contiene tutte le Si . La varietà lineare congiungente le varietà lineari della famiglia Si la denoteremo ∨i Si o anche S1 ∨ S2 ∨ ... ∨ Sm se la famiglia è finita e costituita da m elementi. Lemma 2.8 La varietà lineare congiungente S1 = (P1 ; M1 ) e S2 = (P2 ; M2 ) è −−−→ S1 ∨ S2 = (P1 ; [ P1 P2 ] + M1 + M2 ). DIMOSTRAZIONE. Poiché S1 ∨ S2 contiene S1 e S2 , la sua giacitura M −−−→ −−−→ contiene P1 P2 , M1 , M2 e quindi S1 ∨ S2 ⊃ (P1 ; [ P1 P2 ] + M1 + M2 ). D’altra −−−→ parte, la varietà lineare (P1 ; [ P1 P2 ] + M1 + M2 ) contiene S1 e S2 , quindi −−−→ contiene S1 ∨ S2 e perciò S1 ∨ S2 = (P1 ; [ P1 P2 ] + M1 + M2 ). Corollario 2.9 La varietà lineare congiungente i punti P1 , P2 , ..., Pr è −−−→ −−−→ −−−→ P1 ∨ P2 ∨ ... ∨ Pr = (P1 ; [ P1 P2 , P1 P3 , ..., P1 Pr ]). DIMOSTRAZIONE. Ciò è vero per r ≤ 2, come segue dal lemma 2.8. Sia r > 2 e procediamo per induzione su r , supponendo che l’asserto sia vero per r − 1 punti. Tenendo conto del lemma 2.8, risulta P1 ∨ ... ∨ Pr = (P1 ∨ ... ∨ Pr−1 ) ∨ Pr −−→ −−−−→ = (P1 ; [P1 P2 , ..., P1 Pr−1 ]) ∨ (Pr ; [0]) −−→ −−→ = (P1 ; [P1 P2 , ..., P1 Pr ]). Definizione 2.10 Se P1 , . . . , Pr sono punti di A, la varietà lineare P1 ∨...∨Pr si dice varietà lineare individuata dai punti P1 , ..., Pr ; e si dice che P1 , ..., Pr sono linearmente indipendenti se e solo se dim(P1 ∨ ... ∨ Pr ) = r − 1. Lemma 2.11 Se S1 = (P1 ; M1 ) e S2 = (P2 ; M2 ) sono varietà lineari di A, si ha: dim S1 + dim S2 − dim S1 ∩ S2 , se S1 ∩ S2 6= Ø, dim S1 ∨ S2 = dim(M1 + M2 ) + 1, se S1 ∩ S2 = Ø. DIMOSTRAZIONE. Per il lemma 2.8 si ha −−−→ S1 ∨ S2 = (P1 ; [ P1 P2 ] + M1 + M2 ). 45 2 VARIETÀ LINEARI AFFINI −−−→ Se S1 ∩ S2 6= Ø, per il lemma 2.6 si ha P1 P2 ∈ M1 + M2 e quindi dim S1 ∨ S2 = dim(M1 + M2 ) = dim M1 + dim M2 − dim(M1 ∩ M2 ) = dim S1 + dim S2 − dim S1 ∩ S2 . −−−→ Se S1 ∩ S2 = Ø, per il lemma 2.6 risulta P1 P2 6∈ M1 + M2 e quindi dim S1 ∨ S2 = dim(M1 + M2 ) + 1. 2. Sia (O; e1, . . . , en ) un sistema di riferimento di A. Sia S una varietà lineare di dimensione r di A di giacitura M. Se P0 è un suo punto si ha S = (P0 ; M) ed esistono r punti P1 , ..., Pr ∈ S tali che −−−→ −−−→ P0 P1 , ..., P0 Pr costituiscono una base di M. Quindi n o −−→ −−−→ −−−→ S = (P0 ; M) = P ∈ A : P0 P = λ1 P0 P1 + · · · + λr P0 Pr , λi ∈ K . Se −−→ OP = x, −−→ OPi = ai per la a3 ) si ha (0 ≤ i ≤ r), −−→ −−→ −→ P0 P = P0 O + OP = x − a0 , −−→ −−→ −−→ P0 Pi = P0 O + OPi = ai − a0 , 1 ≤ i ≤ r, e quindi S è l’insieme dei punti P ∈ A tali che (1) x = a0 + r X i=1 od anche, ponendo µ0 = 1 − (2) x= r X Pr i=1 µi ai , i=0 λi (ai − a0 ), λi ∈ K, λi e µi = λi per 0 < i ≤ n, µi ∈ K, r X µi = 1. i=0 Se (x1 , ..., xn ) sono le coordinate di P e (ai1 , ..., ain ) sono le coordinate di Pi , la (1) si può esprimere mediante le equazioni ′ (1 ) xj = a0j + r X i=1 λi (aij − a0j ) (1 ≤ j ≤ n) 46 2 VARIETÀ LINEARI AFFINI e le (2) mediante le equazioni (2′ ) xj = r X r X µi aij , i=0 µi = 1 i=0 (1 ≤ j ≤ n). Le (1), (1′ ), (2), (2′ ) si dicono equazioni parametriche di S . Osservazione 2.12 Se A(a1 , . . . , an ) è un punto di A, le rette passanti per A sono tutte e solo quelle che hanno equazioni parametriche (∗) x1 = a1 + µb1 , . . . xn = an + µbn , bi ∈ K. Infatti, se R è una retta passante per A e C(c1 , . . . , cn ) è un suo punto distinto da A, equazioni parametriche di R sono x1 = a1 + µ(c1 − a1 ), . . . xn = an + µ(cn − an ). D’altra parte, le (∗) sono equazioni parametriche della retta che congiunge A col punto C(a1 + b1 , . . . , an + bn ). Teorema 2.13 Sia S una varietà lineare di dimensione r di A. Esiste un sistema di n − r equazioni lineari a coefficienti in K , linearmente indipendenti, + a12 x2 + ··· + a1n xn = b1 a11 x1 ... an−r 1 x1 + an−r 2 x2 + · · · + an−r n xn = bn−r tale che i punti di S sono tutti e solo quelli le cui coordinate, rispetto al sistema di riferimento assegnato, sono soluzione del sistema. DIMOSTRAZIONE. Siano (1′ ) equazioni parametriche di S . I punti di S sono tutti e soli i punti P (x1 , . . . , xn ) per i quali la matrice x1 − a01 x2 − a02 . . . xn − a0n a11 − a01 a12 − a02 . . . a1n − a0n (3) .. .. .. .. . . . . ar1 − a01 ar2 − a02 . . . arn − a0n −−→ ha caratteristica r . Essendo i vettori P0 Pi linearmente indipendenti, le ultime r righe della matrice (3) sono linearmente indipendenti. Se M è un minore di ordine r non nullo da esse estratto, la condizione affinché la matrice (3) abbia caratteristica r si esprime annullando gli n − r minori di ordine r + 1 che 47 2 VARIETÀ LINEARI AFFINI contengono M. Si ottengono, cosı̀, n − r equazioni lineari nelle x1 , ..., xn che sono soddisfatte da tutti e solo i punti di S . Tali equazioni sono linearmente indipendenti. Infatti un sistema di tipo (n−r) ×n ha r soluzioni linearmente indipendenti se e solo se la sua matrice ha rango n − r . Esempio 2.14 1) Se P0 (a01 , ..., a0n ) e P1 (a11 , ..., a1n ) sono due punti distinti, equazioni della retta che li congiunge si ottengono imponendo che sia 1 la caratteristica della matrice x1 − a01 x2 − a02 . . . xn − a0n , a11 − a01 a12 − a02 . . . a1n − a0n cioè imponendo che sia x1 − a01 x2 − a02 xn − a0n . = = · · · = a11 − a01 a12 − a02 a1n − a0n 2) Se Pi (ai1 , ..., ain ), 1 ≤ i ≤ n, sono n punti linearmente indipendenti, allora x1 − a11 x2 − a12 . . . xn − a1n 2 a1 − a11 a22 − a12 . . . a2n − a1n =0 .. .. .. . . . an − a1 an − a1 . . . an − a1 2 2 n n 1 1 è l’equazione dell’iperpiano che li congiunge. Il determinante al primo membro della precedente equazione è uguale al determinante D di ordine n + 1 da esso ottenuto aggiungendo come riga di posto n + 1 : a11 , a12 , ..., a1n , 1 e come colonna di posto n + 1 quella costituita da elementi tutti nulli salvo l’ultimo uguale a 1. Sommando ad ognuna delle prime n righe di D l’ultima e permutando, poi, l’ultima con le precedenti ad eccezione della prima, l’equazione si può scrivere x1 x2 . . . xn 1 1 a1 a12 . . . a1n 1 . . . = 0. .. . . .. . .. .. . an an . . . an 1 1 2 n Teorema 2.15 Sia b11 x1 (4) ... bm1 x1 + b12 x2 +··· + b1n xn = c1 + bm2 x2 +··· + bmn xn = cm un sistema lineare a coefficienti in K . Se le matrici completa ed incompleta hanno caratteristica h, l’insieme S dei punti di A le cui coordinate, nel sistema di riferimento (O; e1, ..., en ), sono soluzioni del sistema (4), è una varietà 2 VARIETÀ LINEARI AFFINI 48 lineare di dimensione n − h avente come giacitura lo spazio vettoriale M costituito dai vettori le cui componenti rispetto alla base (e1 , ..., en ) soddisfano il sistema lineare omogeneo b11 x1 + b12 x2 + · · · + b1n xn = 0 (5) ... bm1 x1 + bm2 x2 + · · · + bmn xn = 0 associato al sistema (4). DIMOSTRAZIONE. Scriviamo per brevità BX = C il sistema (4); risulta S = {P (X) | BX = C} e la sua giacitura è M = {X1 | BX1 = 0}. Basta dimostrare che se P0 ∈ S , cioè ha coordinate X0 = (x01 , . . . , x0n ) tali che BX0 = C , risulta S = (P0 ; M). −−→ −−→ −−→ Infatti P ∈ (P0 ; M) se e solo se P0 P ∈ M, cioè P0 O + OP ∈ M, ovvero B(X − X0 ) = 0. Quindi BX = BX0 = C e X è soluzione del sistema. Se S è una varietà lineare costituita dai punti le cui coordinate nel sistema di riferimento (O; e1, . . . , en ) sono le soluzioni di un sistema lineare Σ, diremo che S è definita da Σ o che le equazioni di Σ sono equazioni cartesiane di S . 3. Siano S = (P ; M) e T = (Q; N) varietà lineari di dimensione positiva di A. Definizione 2.16 S e T si dicono parallele se e solo se M ⊂ N oppure N ⊂ M e si dicono sghembe se non sono parallele e S ∩ T = Ø. Teorema 2.17 Siano S = (P ; M) e T = (Q; N) varietà lineari di A tali che 0 < dimS ≤ dim T . Allora: 1) Se S ∩ T = 6 Ø, S e T sono parallele ⇐⇒ S ⊂ T ; 2) Se S ∩ T = Ø, S e T sono parallele ⇐⇒ dim S ∨ T = dim T + 1. DIMOSTRAZIONE. 1) Sia P0 ∈ S ∩ T ; allora S = (P0 ; M) e T = (P0 ; N). −−→ Se S e T sono parallele si ha M ⊂ N; per ogni punto P ∈ S si ha P0 P ∈ M ⊂ N, quindi P ∈ T , da cui l’implicazione ⇒. D’altra parte, se S ⊂ T , −−→ per ogni v ∈ M esiste un punto P ∈ S tale che P0 P = v e, poiché P ∈ T , −−→ si ha v = P0 P ∈ N, da cui l’implicazione ⇐. 2) Se S ∩ T = Ø, per il lemma 2.11 si ha dim S ∨ T = dim (M + N) + 1. Se S e T sono parallele si ha M ⊂ N, quindi M+N = N, da cui l’implicazione ⇒. D’altra parte, se dim S ∨ T = dim T + 1 si ha dim(M + N) = dim N, quindi M ⊂ N, da cui l’implicazione ⇐. 2 VARIETÀ LINEARI AFFINI 49 Osservazione 2.18 Se S e T sono parallele e nessuna delle due contiene l’altra, allora S ∩ T = Ø. Osservazione 2.19 Se S = (P0 ; M) è una varietà lineare di A di dimensione positiva, per ogni punto Q0 ∈ A esiste una ed una sola varietà lineare T di A passante per Q0 , parallela a S ed avente la stessa dimensione di S ; essa è, manifestamente, T = (Q0 ; M). Esempio 2.20 In un piano affine A2 l’intersezione di due rette non parallele è un punto. Siano S, T rette non parallele di A2 . Poiché S = 6 T si ha dim S ∨ T > dim S e quindi dim S ∨ T = 2. Deve essere S ∩ T = 6 Ø, altrimenti, per il teorema 2.17, S e T sarebbero parallele; quindi S ∩ T è un punto. Esempio 2.21 In uno spazio affine A3 si ha: 1) L’intersezione di due piani non paralleli è una retta. 2) La varietà lineare congiungente due rette incidenti e non parallele è un piano. 3) L’intersezione di due rette complanari e non parallele è un punto. 4) La varietà lineare congiungente un punto ed una retta che non lo contiene è un piano. 5) La varietà lineare congiungente due rette distinte e parallele è un piano. 6) L’intersezione di un piano con una retta ad esso non parallela è un punto. Infatti: 1) Se S, T sono due piani non paralleli si ha dim S ∨ T > dim S e quindi dim S ∨ T = 3. Per il teorema 2.17 deve essere S ∩ T = 6 Ø e quindi, per il lemma 2.11, dim S ∩ T = 1. 2) Siano S, T rette incidenti e non parallele. Allora dim S ∩ T = 0 e quindi, per il lemma 2.11, dim S ∨ T = 2. 3) Come l’esempio 2.20. 4) Siano S una retta e P un punto non contenuto in S ; allora S ∩ P = Ø e per il lemma 2.11 si ha dim S ∨ P = 2. 5) Siano S, T rette distinte e parallele. Per il teorema 2.17 si ha S ∩T = Ø e quindi dim S ∨ T = 2. 50 3 AFFINITÀ 6) Siano S un piano e T una retta ad esso non parallela. Poiché T non è contenuta in S si ha dim S ∨T = 3. Per il teorema 2.17 deve essere S ∩T = 6 Ø e quindi, per il lemma 2.11, dim S ∩ T = 0. 3. Affinità. 1. Siano A e A′ spazi affini sugli spazi vettoriali V e V′ rispettivamente, di dimensione n, sullo stesso campo K . Definizione 3.1 Un’applicazione ϕ : A −→ A′ si dice affinità o isomorfismo affine se e solo se esiste un isomorfismo f : V −→ V′, che si dice associato a ϕ, tale che per ogni coppia di punti P, Q ∈ A si abbia −−−−−−−→ −−→ ϕ(P )ϕ(Q) = f ( P Q). L’isomorfismo f è univocamente determinato da ϕ. Infatti, siano f, g : V −→ V′ isomorfismi tali che −−−−−−−→ −−→ −−→ f ( P Q) = ϕ(P )ϕ(Q) = g( P Q) per ogni P, Q ∈ A. Fissato P in A, per ogni v ∈ V esiste Q ∈ A tale che −−→ P Q = v e si ha f (v) = g(v); quindi f = g . Osservazione 3.2 Un’affinità è un’applicazione biunivoca. Infatti, sia ϕ : A → A′ un’affinità con isomorfismo associato f ; ϕ è −−−−−−−→ −−→ iniettiva perché se ϕ(P ) = ϕ(Q) si ha 0 = ϕ(P )ϕ(Q) = f ( P Q) ed essendo −−→ f isomorfismo deve essere P Q = 0 e perciò P = Q. E’ anche suriettiva. Infatti, sia P0 un punto fissato in A e sia P0′ = ϕ(P0 ); se P ′ ∈ A′ , esiste −−−→ −−→ v ∈ V tale che P0′ P ′ = f (v) e se P è il punto di A tale che P0 P = v si ha −−−→ −−−−−−−→ −−−−−→ −−→ P0′ P ′ = f ( P0 P ) = ϕ(P0 )ϕ(P ) = P0′ ϕ(P ) e quindi P ′ = ϕ(P ). 51 3 AFFINITÀ Esempio 3.3 Sia (O; e1 , ..., en ) un sistema di riferimento di A. L’applicazione ϕ : A −→ An (K) che ad ogni punto P (x1 , ..., xn ) ∈ A associa la n-pla delle sue coordinate nel sistema di riferimento, cioè l’applicazione definita da ϕ(P (x1 , ..., xn )) = (x1 , ..., xn ) è un’affinità tra A e An (K). Infatti, sia f : V → K n l’isomorfismo che ad ogni v ∈ V associa la n-pla delle sue componenti rispetto alla base (e1 , ..., en ). Se Q(y1 , ..., yn ) ∈ A si ha −−−−−−−→ −−→ ϕ(P )ϕ(Q) = (y1 − x1 , ..., yn − xn ) = f ( P Q). Lemma 3.4 Fissati un isomorfismo f : V −→ V′ e due punti O ∈ A, O ′ ∈ A′ , esiste una ed una sola affinità ϕ : A −→ A′ avente f come isomorfismo associato tale che ϕ(O) = O ′ ed è quella che al punto P ∈ A associa il punto ϕ(P ) ∈ A′ per cui −−−−−→ −−→ O ′ ϕ(P ) = f ( OP ). DIMOSTRAZIONE. Per ogni punto P ∈ A vi è un ben determinato punto −−−→ −−→ P ′ ∈ A′ tale che O ′P ′ = f ( OP ). L’applicazione ϕ : A → A′ definita ponendo P ′ = ϕ(P ) è un’affinità avente f come isomorfismo associato. Infatti, se P, Q ∈ A si ha −−−−→ −−−−→ −−−−→ −−−−→ −−−−−−−→ ϕ(P )ϕ(Q) = ϕ(P )O ′ + O ′ϕ(Q) = O ′ϕ(Q) − O ′ ϕ(P ) −→ −→ −→ −→ = f (OQ) − f (OP ) = f (OQ − OP ) −→ = f (P Q). −−−−−→ −−→ In particolare, si ha O ′ϕ(O) = f ( OO ) = 0 e quindi ϕ(O) = O ′ . Se ψ : A → A′ è un’altra affinità avente f come isomorfismo associato tale che ψ(O) = O ′ , per ogni punto P ∈ A si ha −−−−−→ −−−−−−−→ −−−−−−−→ −−−−−→ −−→ O ′ψ(P ) = ψ(O)ψ(P ) = f ( OP ) = ϕ(O)ϕ(P ) = O ′ ϕ(P ) e quindi ψ(P ) = ϕ(P ), cioè ψ = ϕ. 52 3 AFFINITÀ Teorema 3.5 Assegnati n + 1 punti P0 , P1 , ..., Pn linearmente indipendenti in A e n + 1 punti P0′ , P1′ , ..., Pn′ linearmente indipendenti in A′ , esiste una ed una sola affinità ϕ : A → A′ tale che ϕ(Pi ) = Pi′ , 0 ≤ i ≤ n. −−−→ −−−→ DIMOSTRAZIONE. I vettori P0 P1 ,..., P0 Pn costituiscono una base di V ed −−−→ −−−→ i vettori P0′ P1′ ,..., P0′ Pn′ costituiscono una base di V′ . Esiste uno ed un solo −−−→ −−→ isomorfismo f : V → V′ tale che f ( P0 Pi ) = P0′ Pi′ (1 ≤ i ≤ n) (capitolo I, corollario 1.6). Per il lemma 3.4, l’applicazione ϕ : A → A′ che al punto P ∈ A associa il punto ϕ(P ) ∈ A′ per cui −−−−−→ −−→ P0′ ϕ(P ) = f ( P0 P ) è un’affinità tale che ϕ(P0 ) = P0′ . Inoltre si ha −−−−−→ −−−→ −−→ P0′ ϕ(Pi ) = f ( P0 Pi ) = P0′ Pi′ , 1 ≤ i ≤ n, e quindi ϕ(Pi ) = Pi′ , 1 ≤ i ≤ n. Se ψ : A → A′ è un’altra affinità tale che ψ(Pi ) = Pi′ (0 ≤ i ≤ n) con isomorfismo associato g , si ha −−−→ −−−−−−−−→ −−→ −−→ f ( P0 Pi ) = P0′ Pi′ = ψ(P0 )ψ(Pi ) = g( P0 Pi ), 1 ≤ i ≤ n, e quindi f = g . Per il lemma 3.4 si ha ψ = ϕ. Teorema 3.6 La composizione di due affinità è un’affinità e l’inversa di un’affinità è un’affinità. DIMOSTRAZIONE. Siano A, A′ , A′′ spazi affini sugli spazi vettoriali V, V′ , V′′ rispettivamente e siano ϕ : A −→ A′ , ϕ′ : A′ −→ A′′ affinità con rispettivi isomorfismi associati f, f ′ . Per ogni P, Q ∈ A si ha −−−−−−−−−−−−−→ −−−−−−−−−−−−−→ −−−−−−−→ −−→ (ϕ′ ϕ)(P )(ϕ′ϕ)(Q) = ϕ′ (ϕ(P ))ϕ′(ϕ(Q)) = f ′ ( ϕ(P )ϕ(Q)) = (f ′ f )( P Q) 53 3 AFFINITÀ e poiché f ′ f è un isomorfismo, ϕ′ ϕ è un’affinità. Per ogni P ′ , Q′ ∈ A′ , se P = ϕ−1 (P ′), Q = ϕ−1 (Q′ ), si ha −−−−−−−−−−−→ −−→ −−−→ −−−−−−−→ −−→ ϕ−1 (P ′)ϕ−1 (Q′ ) = P Q = (f −1 f )( P Q) = f −1 ( ϕ(P )ϕ(Q)) = f −1 ( P ′ Q′ ) e poché f −1 è isomorfismo, ϕ−1 è un’affinità. Le affinità di A → A si dicono affinità di A. Corollario 3.7 L’insieme Aff (A) delle affinità di A è un gruppo rispetto alla composizione. L’identità di Aff (A) è l’applicazione identica di A, che è un’affinità con associato l’isomorfismo identico di V. Definizione 3.8 Una proprietà di un sottoinsieme F di uno spazio affine si dice invariante per affinità o proprietà affine se e solo se essa è anche proprietà di tutti i sottoinsiemi ϕ(F ) trasformati di F mediante affinità ϕ. Due sottoinsiemi di spazi affini si dicono equivalenti per affinità se e solo se esiste un’affinità che trasforma l’uno nell’altro. Ad esempio, sono proprietà affini: essere una varietà lineare, la dimensione di una varietà lineare, il parallelismo, come segue dal seguente teorema. Teorema 3.9 Un’affinità ϕ : A → A′ trasforma una varietà lineare in una varietà lineare di ugual dimensione e trasforma varietà lineari parallele in varietà lineari parallele. DIMOSTRAZIONE. Sia S = (P0 ; M) una varietà lineare di A e sia f l’isomorfismo associato a ϕ; si ha (1) ϕ(S) = (ϕ(P0 ); f (M)). −−−−−−−→ −−→ −−→ Infatti, se P ∈ S si ha P0 P ∈ M, quindi ϕ(P0 )ϕ(P ) = f ( P0 P ) ∈ f (M) e perciò ϕ(P ) ∈ (ϕ(P0 ); f (M)). D’altra parte, sia P ′ ∈ (ϕ(P0 ); f (M)); allora −−−−−→ −−→ ϕ(P0 )P ′ = f (v) con v ∈ M. Se P è il punto di A tale che P0 P = v si ha P ∈ S e ϕ(P ) = P ′ . Essendo f isomorfismo si ha dim S = dim M = dim f (M) = dim ϕ(S). Sia T = (Q0 ; N) una varietà lineare parallela a S ; allora M ⊂ N oppure N ⊂ M. Si ha f (M) ⊂ f (N) oppure f (N) ⊂ f (M) e perciò ϕ(T ) = (ϕ(Q0 ); f (N)) è parallela a ϕ(S). 54 3 AFFINITÀ 2. Sia ϕ : A → A′ un’affinità con isomorfismo associato f e siano (O; e1, ..., en ) un sistema di riferimento di A e (O ′ ; e′1 , ..., e′n ) un sistema di riferimento di A′ . Se X e Y sono le matrici colonna delle coordinate rispettivamente del punto P ∈ A e del punto ϕ(P ) ∈ A′ , nei due sistemi di riferimento, si ha l’equazione (2) Y = AX + B, che si dice equazione di ϕ, dove A è la matrice dell’isomorfismo f rispetto alle basi (e1 , ..., en ), (e′1 , ..., e′n ), che si dice matrice di ϕ, e B è la matrice colonna delle coordinate di ϕ(O) nel sistema di riferimento (O ′ ; e′1 , ..., e′n ). Infatti, si ha −−−−−→ −−−−−→ −−−−−−−→ −−−−−→ −−→ O ′ ϕ(P ) = O ′ ϕ(O) + ϕ(O)ϕ(P ) = O ′ ϕ(O) + f ( OP ). −−→ La matrice colonna delle componenti di f ( OP ) rispetto alla base (e′1 , . . . , e′n ) è AX (capitolo I, osservazione 1.2) e quindi si ha la (2). D’altra parte, ogni equazione (2), con A invertibile, è l’equazione di un’ affinità ϕ : A → A′ . Infatti, siano f : V → V′ l’isomorfismo che rispetto alle basi (e1 , ..., en ), (e′1 , ..., e′n ) è associato ad A, O1′ il punto di A′ le cui coordinate sono gli elementi di B e ϕ l’affinità, di cui nel lemma 3.4, tale che ϕ(O) = O1′ . L’equazione di ϕ è la (2) in quanto, per ogni P ∈ A, si ha −−−−−→ −−−−−→ −−−−−−−→ −−−−−→ −−→ O ′ ϕ(P ) = O ′ ϕ(O) + ϕ(O)ϕ(P ) = f ( OP ) + O ′ ϕ(O). Osservazione 3.10 Dalla dimostrazione del teorema 3.6 segue che l’isomorfismo associato alla composizione ϕ′ ϕ di due affinità ϕ, ϕ′ è la composizione f ′ f degli isomorfismi f, f ′ associati a ϕ, ϕ′ e che l’isomorfismo associato all’inversa ϕ−1 è l’inverso f −1 di f . Quindi: (1) la matrice della composizione ϕ′ ϕ è il prodotto A′ A delle matrici A e A′ di ϕ e ϕ′ ; (2) la matrice di ϕ−1 è l’inversa A−1 di A. 3. Sia sempre A uno spazio affine su V. 55 3 AFFINITÀ Definizione 3.11 Si chiama traslazione di A definita dal vettore v ∈ V , l’applicazione τv : A −→ A che al punto P associa il punto τv (P ) tale che −−−−−→ P τv (P ) = v. La traslazione τ0 definita dal vettore nullo di V è l’applicazione identica di A. Una traslazione τv è un’affinità di A che ha associato l’isomorfismo identico di V. Infatti, si ha −−−−−−−−→ −−−−−→ −−→ −−−−−→ −−→ −−→ τv (P )τv (Q) = τv (P )P + P Q + Qτv (Q) = −v + P Q + v = P Q. Teorema 3.12 L’insieme Tr(A) delle traslazioni dello spazio affine A su V è un sottogruppo commutativo del gruppo Aff(A) delle affinità di A, isomorfo al gruppo additivo di V. DIMOSTRAZIONE. Siano τu , τv traslazioni di A. Se P ′ = τu (P ) e P ′′ = −−→ τv (P ′ ) si ha (τv τu )(P ) = τv (τu (P )) = τv (P ′ ) = P ′′ . D’altra parte, da P P ′ = −−−→ −−−→ −−→ −−−→ u, P ′P ′′ = v, P P ′′ = P P ′ + P ′ P ′′ = u + v, segue che τu+v (P ) = P ′′ e quindi (3) τv τu = τu+v . Si ha τ−v τv = τv τ−v = τ0 , cioè τ−v è l’inversa di τv . Dunque, Tr(A) è un sottogruppo del gruppo della affinità di A e dalla (3) segue che è commutativo. L’applicazione V → Tr(A) che al vettore v associa la traslazione τv è un isomorfismo. Osservazione 3.13 Nel caso che lo spazio affine sia uno spazio vettoriale V −→ con la struttura definita mediante la uv = v − u, la traslazione τv definita da v è l’applicazione u → u + v. Essa non è, però, un’applicazione lineare dello spazio vettoriale V, in quanto, se v 6= 0, si ha τv (x + y) = x + y + v 6= τv (x) + τv (y) = x + v + y + v = x + y + 2v. 56 4 SPAZI EUCLIDEI Osservazione 3.14 Se S = (P0 ; M) è una varietà lineare di A e τu : A → A è una traslazione di A, dalla (1) segue che τu (S) = (τu (P0 ); M) e quindi τu trasforma una varietà lineare di dimensione positiva in una varietà lineare ad essa parallela. Se S = (P0 ; M) e T = (Q0 ; N) sono varietà lineari tali che 0 < dim S ≤ dim T , allora S e T sono parallele se e solo se esiste una traslazione di A che trasforma S in una sottovarietà lineare S ′ di T . Infatti, se S, T sono −−−→ parallele, si ha M ⊂ N e quindi, posto u = P0 Q0 , si ha S ′ = τu (S) = (Q0 ; M) ⊂ T . Viceversa, sia τu una traslazione di A tale che S ′ = τu (S) = (τu (P0 ); M) ⊂ T ; si ha M ⊂ N e quindi S e T sono parallele. Osservazione 3.15 Poiché l’isomorfismo associato ad una traslazione τu di A è quello identico, l’equazione di τu è Y = X + B , dove X, Y, B sono le matrici colonna delle coordinate dei punti P , τu (P ), τu (O). 4. Spazi euclidei. 1. Definizione 4.1 Si dice spazio euclideo ogni spazio affine su uno spazio vettoriale V reale e sul quale è definito un prodotto scalare positivo ◦. Uno spazio euclideo lo denoteremo abitualmente E o En quando sarà opportuno indicarne la dimensione n. Esempio 4.2 Nel caso particolare che lo spazio affine sia An (R) ed il prodotto scalare sullo spazio vettoriale associato Rn sia quello canonico, si ottiene lo spazio euclideo reale di dimensione n, abitualmente denotato Rn . Definizione 4.3 In uno spazio euclideo E si chiama distanza l’applicazione d : E × E −→ R definita da −−→ d(P, Q) = k P Qk e d(P, Q) si dice distanza dei due punti P, Q o lunghezza del segmento P Q. Teorema 4.4 La distanza d in uno spazio euclideo gode delle proprietà: 57 4 SPAZI EUCLIDEI 1) d(P, Q) = d(Q, P ); 2) d(P, Q) ≥ 0 e d(P, Q) = 0 se e solo se P = Q; 3) d(P, Q) ≤ d(P, R) + d(R, Q). DIMOSTRAZIONE. Le 1) e 2) sono immediate. La 3) segue dalla disugua−−→ −−→ −−→ glianza k P Qk ≤ k P Rk + k RQk (capitolo II, teorema 3.10). Se P, Q, R ∈ E e P 6= R, Q 6= R, l’angolo formato dai segmenti RP , RQ −−→ −−→ è l’angolo θ dei vettori RP , RQ . Osservazione 4.5 Se P, Q, R ∈ E con P 6= R, Q 6= R e θ è l’angolo dei segmenti RP, RQ si ha d2 (P, Q) = d2 (R, P ) + d2 (R, Q) − 2d(R, P )d(R, Q) cos θ. (1) Infatti, −→ −→ −→ −→ −→ −→ −→ d2 (P, Q) = kP Qk2 = k − RP + RQk2 = (−RP + RQ) ◦ (−RP + RQ) −→ −→ −→ −→ = kRP k2 + kRQk2 − 2kRP k kRQk cos θ = d2 (R, P ) + d2 (R, Q) − 2d(R, P )d(R, Q) cos θ. −−→ −−→ Se RP , RQ sono ortogonali la (1) è il teorema di Pitagora. Definizione 4.6 Un sistema di riferimento (O; e1 , ..., en ) di E si dice ortogonale o cartesiano se la base (e1 , ..., en ) dello spazio vettoriale associato è ortonormale. Esempio 4.7 Il sistema di riferimento canonico dello spazio euclideo Rn è ortogonale. Se (O; e1, ..., en ) è un sistema di riferimento ortogonale di E e −−→ P (x1 , . . . , xn ), Q(y1 , . . . , yn ) sono punti di E, allora P Q = (y1 − x1 )e1 + · · · + (yn − xn )en e quindi p (2) d(P, Q) = (y1 − x1 )2 + · · · + (yn − xn )2 . −−→ −−→ Se θ è l’angolo dei vettori OP , OQ si ha −−→ −−→ OP ◦ OQ cos θ = −−→ −−→ k OP kk OQk 58 4 SPAZI EUCLIDEI e quindi, poiché n −−→ X OP = xi ei i=1 si ha (3) n −−→ X OQ = yiei , i=1 x1 y1 + · · · + xn yn p cos θ = p 2 . x1 + · · · + x2n y12 + · · · + yn2 Osservazione 4.8 Se Y = AX + B è una trasformazione di coordinate tra due sistemi di riferimento ortogonali (O; e1 , ..., en ) e (O ′ ; e′1 , ..., e′n ) di E, la matrice A, che è la matrice di passaggio dalla base (e′1 , ..., e′n ) alla base (e1 , ..., en ) (teorema 1.5), è ortogonale (capitolo II, lemma 5.8). Una tale trasformazione di coordinate si dice ortogonale. 2. Siano E, E′ spazi euclidei con spazi vettoriali associati V, V′ rispettivamente e siano d, d′ le distanze in E, E′ . Definizione 4.9 Un’affinità ϕ : E → E′ si dice isometria se e solo se conserva la distanza, cioè d(P, Q) = d′ (ϕ(P ), ϕ(Q)) per ogni P, Q ∈ E. Teorema 4.10 Un’affinità ϕ : E → E′ è un’isometria se e solo se l’isomorfismo f ad essa associato conserva il prodotto scalare, cioè x ◦ y = f (x) ◦ f (y) per ogni x, y ∈ V. −−→ DIMOSTRAZIONE. Fissato un punto O in E, se P, Q ∈ E e x = OP , y = −−→ OQ si ha −−→ −−→ −−→ d(P, Q) = k P Qk = k OQ − OP k = ky − xk; e se O ′ = ϕ(O) si ha −−−−−→ −−−−−→ −−−−−−−→ d′ (ϕ(P ), ϕ(Q)) = k ϕ(P )ϕ(Q)k = k O ′ϕ(Q) − O ′ϕ(P )k = kf (y) − f (x)k. Se ϕ è un’isometria si ha ky − xk = kf (y) − f (x)k per ogni x, y ∈ V. In particolare, assumendo x = 0, si ha che kyk = kf (y)k per ogni y ∈ V; ed allora ky − xk2 = kf (y) − f (x)k2 = kf (y)k2 − 2f (y) ◦ f (x) + kf (x)k2 4 SPAZI EUCLIDEI 59 = kyk2 − 2f (y) ◦ f (x) + kxk2 . D’altra parte ky − xk2 = kyk2 − 2y ◦ x + kxk2 e quindi x ◦ y = f (x) ◦ f (y) per ogni x, y ∈ V. Viceversa, se f conserva il prodotto scalare si ha d(P, Q) = ky − xk = kf (y − x)k = kf (y) − f (x)k = d′ (ϕ(P ), ϕ(Q)) e perciò ϕ è un’isometria. Corollario 4.11 Siano (O; e1 , ..., en ) e (O ′; e′1 , ..., e′n ) sistemi di riferimento ortogonali di E ed E′ rispettivamente. Un’affinità ϕ : E → E′ è un’isometria se e solo se la matrice A di ϕ rispetto alle basi dei due sistemi di riferimento è ortogonale. DIMOSTRAZIONE. Per il teorema 4.10, ϕ è un’isometria se e solo se l’isomorfismo f ad essa associato è tale che x◦ y = f (x) ◦ f (y) per ogni x, y ∈ V. Se X, Y sono le matrici colonna delle componenti di x, y rispetto alla base (e1 , ..., en ), le matrici colonna delle componenti di f (x), f (y) rispetto alla base (e′ 1 , ..., e′ n ) sono rispettivamente AX, AY (capitolo I, osservazione 1.2) e si ha (capitolo II, osservazione 2.12) x◦y = X t Y e f (x)◦f (y) = (AX)t AY = X t At AY . Ed allora x◦y = f (x)◦f (y) per ogni x, y ∈ V se e solo se At A = I , cioè se e solo se A è ortogonale. Teorema 4.12 L’insieme Is(E) delle isometrie dello spazio euclideo E è un sottogruppo del gruppo affine Aff(E) delle affinità di E. DIMOSTRAZIONE. Se ϕ, ϕ′ ∈ Is(E), per ogni P, Q ∈ E si ha d(P, Q) = d(ϕ(P ), ϕ(Q)) = d((ϕ′ ϕ)(P ), (ϕ′ϕ)(Q)) e quindi ϕ′ ϕ ∈ Is(E). Inoltre d(P, Q) = d((ϕϕ−1 )(P ), (ϕϕ−1)(Q)) = d(ϕ−1 (P ), ϕ−1(Q)) e quindi ϕ−1 ∈ Is(E). 3. Definizione 4.13 Due varietà lineari di dimensione positiva dello spazio euclideo E si dicono ortogonali o perpendicolari se e solo se le loro giaciture sono ortogonali. 60 4 SPAZI EUCLIDEI Esempio 4.14 Sia S un iperpiano di E che, rispetto al sistema di riferimento ortogonale (O; e1, ..., en ), abbia equazione a1 x1 + a2 x2 + · · · + an xn + b = 0. P La giacitura M di S è costituita dai vettori v = ni=1 xi ei tali che a1 x1 + a2 x2 + · · · + an xn = 0. Poiché il complemento ortogonale M⊥ di M ha dimensione 1 (capitolo II, corollario 2.6), le varietà lineari di giacitura M⊥ sono tutte e P sole le rette ⊥ perpendicolari a S . Lo spazio M è generato dal vettore u = ni=1 ai ei ed allora, se P0 (x01 , ..., x0n ) è un punto di E, la retta R passante per P0 ortogonale a S ha equazioni parametriche (4) x1 = x01 + λa1 , . . . , xn = x0n + λan , λ ∈ K. Sia R la retta di equazioni parametriche (5) x1 = b1 + λa1 , . . . , xn = bn + λan , λ ∈ K. P La direzione di R è generata dal vettore u = ni=1 ai ei e le varietà lineari aventi giacitura [u]⊥ sono iperpiani. L’iperpiano passante per P0 perpendicolare a R ha equazione a1 (x1 − x01 ) + a2 (x2 − x02 ) + · · · + an (xn − x0n ) = 0. CAPITOLO IV SPAZI PROIETTIVI GEOMETRIA LINEARE PROIETTIVA 1. Spazi proiettivi. 1. Sia V uno spazio vettoriale sul campo K , di dimensione n + 1 > 0. Definizione 1.1 Si chiama spazio proiettivo definito da V l’insieme P (V) dei sottospazi di dimensione 1 di V. Gli elementi di P (V) si dicono punti e l’intero n si dice dimensione di P (V). Per denotare che lo spazio proiettivo P (V) ha dimensione n scriveremo n P (V). Lo spazio proiettivo P(K n+1 ), che si dice spazio proiettivo di dimensione n su K , lo denoteremo P n (K) o P nK . Un sottoinsieme U non vuoto di P(V) si dice sottospazio o varietà lineare di P(V) se esiste un sottospazio U di V tale che U = P(U); si dice, allora, che U è definita da U e la sua dimensione, dim U , è dim U − 1. Le varietà lineari di dimensione 0 di P(V) sono i punti, quelle di dimensione 1 e 2 si dicono rispettivamente rette e piani e, se n > 3, quelle di dimensione n − 1 si dicono iperpiani. Converremo che sia varietà lineare di P(V) anche il sottoinsieme vuoto Ø e converremo che sia dim Ø = −1; essa è definita dal sottospazio nullo (0) di V. Se U e W sono varietà lineari di P(V) e U è sottovarietà di W , cioè U ⊂ W , si ha dim U ≤ dim W e l’uguaglianza vale se e solo se U = W . In P(V) si adopera il linguaggio geometrico usuale, come negli spazi affini. Nel seguito, per comodità di notazione, se una varietà lineare di P(V) sarà denotata con una lettera U, W, . . . , lo spazio vettoriale che la definisce sarà denotato con la stessa lettera, ma in grassetto, cioè rispettivamente U, W,. . . 2. Sia {Si } una famiglia di varietà lineari di P(V), con Si definita dal sottospazio Si di V. L’intersezione delle varietà Si è la varietà lineare ∩i Si definita dal sottospazio ∩i Si . Due varietà lineari S1 , S2 di P(V) sono sghembe se e solo se S1 ∩ S2 = Ø, cioè se e solo se S1 ∩ S2 = (0). La varietà lineare 62 1 SPAZI PROIETTIVI P P congiungente le varietà Si è la varietà i Si definita dal sottospazio i Si . Essa è la più piccola varietà lineare di P(V) che contiene tutte le Si . Se P1 , ..., Pr sono punti di P(V) risulta r X dim Pi ≤ r − 1. (1) i=1 Infatti, se Pi = P [vi ], vi ∈ V, 1 ≤ i ≤ r , la varietà lineare dal sottospazio ri=1 [vi ], che ha dimensione ≤ r . Pr i=1 Pi è definita Definizione 1.2 I punti P1 , ..., Pr si dicono linearmente indipendenti se e solo se r X dim Pi = r − 1. i=1 Osservazione 1.3 Se S è una varietà lineare di P(V) di dimensione d, lo spazio vettoriale S che la definisce ha dimensione d + 1; se (v1 , ...,P vd+1 ) è una base di S, i punti Pi = [vi ] (1 ≤ i ≤ d + 1) sono tali che S = d+1 i=1 Pi e si dice che S è individuata dai punti P1 , ..., Pd+1 . Nel caso d = 1, la retta P1 + P2 individuata dai punti P1 , P2 la denoteremo anche P1 P2 . Teorema 1.4 Se S, T sono varietà lineari di P(V) risulta dim (S + T ) = dim S + dim T − dim (S ∩ T ). DIMOSTRAZIONE. Si ha dim (S + T ) = dim (S + T) − 1 = dim S + dim T − dim (S ∩ T) − 1 = (dim S + 1) + (dim T + 1) − (dim (S ∩ T ) + 1), −1 = dim S + dim T − dim (S ∩ T ). Esempio 1.5 1) In P(V) due rette R1 , R2 distinte e non sghembe si intersecano in un punto e la varietà loro congiungente è un piano. Infatti, si ha dim (R1 + R2 ) + dim (R2 ∩ R2 ) = dim R1 + dim R2 = 2, 0 ≤ dim (R1 ∩ R2 ) ≤ 1. 1 SPAZI PROIETTIVI 63 Non può essere dim(R1 ∩ R2 ) = 1, altrimenti sarebbe R1 = R1 ∩ R2 = R2 , e quindi dim (R1 ∩ R2 ) = 0, dim (R1 + R2 ) = 2. 2) In P(V) la varietà lineare congiungente un punto P ed una retta R che non lo contiene è un piano. Infatti, dim (R + P ) = dim R + dim P − dim (R ∩ P ) = 1 + 0 − (−1) = 2. 3) In P n (V) una retta R ed un iperpiano (retta se n = 2, piano se n = 3) S che non la contiene si intersecano in un punto. Infatti, dim (R ∩ S) = dim R + dim S − dim (R + S) = 1 + (n − 1) − n = 0. 4) In P 3 (V) l’intersezione di due piani distinti S, T è una retta. Infatti, dim (S ∩ T ) = dim S + dim T − dim (S + T ) = 2 + 2 − 3 = 1. 5) In P 3 (V) siano R, S due rette sghembe. Per un punto P non appartenente né a R né a S passa una ed una sola retta T complanare con R e con S ed è la retta T = (R + P ) ∩ (S + P ). Infatti, essa passa per P ed è complanare sia con R che con S . Supponiamo che vi sia un’altra retta T ′ 6= T passante per P e complanare con R e con S . Allora le rette R e S stanno sul piano T + T ′ , avendo con esso ciascuna due punti in comune; assurdo. Lemma 1.6 Siano S, T varietà lineari di P(V). Per ogni sottovarietà lineare U di T si ha (legge di Dedekind): U + (S ∩ T ) = (U + S) ∩ T . DIMOSTRAZIONE. Da S ∩ T ⊂ S segue che U + (S ∩ T ) ⊂ U + S ; da U ⊂ T , S ∩ T ⊂ T segue che U + (S ∩ T ) ⊂ T e quindi (2) U + (S ∩ T ) ⊂ (U + S) ∩ T . 64 1 SPAZI PROIETTIVI S T U +S S ∩T U D’altra parte, sia P ∈ (U + S) ∩ T . In quanto P ∈ U + S è P =[x], con x= u+s, u ∈ U, s ∈ S. Poiché U ⊂ T si ha x, u ∈ T e quindi s ∈ S ∩ T. Ne segue che x ∈ U + S ∩ T e perciò P ∈ U + (S ∩ T ). Dunque, (U + S) ∩ T ⊂ U + (S ∩ T ) da cui, per la (2), segue il lemma. Corollario 1.7 Siano U, S varietà lineari di P(V) tali che U ∩ S = Ø, U + S = P(V). Se T è una varietà lineare passante per U e L è una sottovarietà lineare di S risulta T = U + L ⇐⇒ L = S ∩ T . DIMOSTRAZIONE. Se T = U + L, tenendo conto del lemma 1.6 e del fatto che U ∩ S = Ø, si ha S ∩ T = S ∩ (U + L) = (S ∩ U) + L = L. Viceversa, se L = S ∩T , tenendo conto del lemma 1.6 e del fatto che U + S = P(V), si ha T = (U + S) ∩ T = U + (S ∩ T ) = U + L. Lemma 1.8 Se U, S, S ′ sono varietà lineari di P n (V) tali che (3) si ha: U ∩ S = U ∩ S ′ = Ø, U + S = U + S ′ = P n (V), 65 1 SPAZI PROIETTIVI 1) dim S = dim S ′ = n − dim U − 1; 2) se L è una sottovarietà lineare di S , allora L′ = (L + U) ∩ S ′ è una sottovarietà lineare di S ′ di dimensione uguale a quella di L. DIMOSTRAZIONE. La 1) segue subito dal teorema 1.4. 2) Tenendo conto del teorema 1.4 e della 1) si ha dim L′ = = = = dim [(L + U) ∩ S ′ ] = dim (L + U) + dim S ′ − n dim L + dim U − (−1) + dim S ′ − n dim L + dim U + 1 + n − dim U − 1 − n dim L. In particolare, se S , S ′ , U sono varietà lineari che soddisfano le (3) e P è un punto di S , allora P ′ = (P + U) ∩ S ′ è un punto di S ′ e quindi resta definita un’applicazione π : S −→ S ′ ponendo π(P ) = P ′ = (P + U) ∩ S ′ per ogni P ∈ S. Definizione 1.9 L’applicazione π si chiama proiezione di S su S ′ da U o di centro U . Se L è una sottovarietà lineare di S , la varietà lineare π(L) = (L + U) ∩ S ′ si chiama proiezione di L da U . Per la 2) del lemma 1.8 si ha (4) dim π(L) = dim L. Teorema 1.10 Siano U, S, S ′ varietà lineari di P n (V) soddisfacenti le (3). La proiezione π : S −→ S ′ di centro U ha le proprietà: 1) è biunivoca; 66 1 SPAZI PROIETTIVI 2) per ogni intero r (0 ≤ r ≤ dimS) subordina un’applicazione biunivoca tra l’insieme delle sottovarietà lineari di dimensione r di S e l’insieme delle sottovarietà lineari di dimensione r di S ′ nella quale sono corrispondenti L e π(L); 3) se L1 , L2 sono sottovarietà lineari di S , risulta π(L1 ) ⊂ π(L2 ) se e solo se L1 ⊂ L2 . DIMOSTRAZIONE. La 1) segue dalla 2) per r = 0. Dimostriamo, quindi, le 2) e 3). 2) Se L è una sottovarietà lineare di S ; dal corollario 1.7, applicato alle varietà lineari U , T = U + L, S ′ , segue che (5) L′ = π(L) = (U + L) ∩ S ′ ⇐⇒ U + L = U + L′ . Ed allora, se L, L1 sono sottovarietà lineari di S tali che π(L) = π(L1 ) risulta U + L = U + L1 e quindi, posto T = U + L = U + L1 , per il corollario 1.7 si ha L = S ∩ T = L1 , da cui l’iniettività. Se L′ è una sottovarietà lineare di S ′ , sia L = (U + L′ ) ∩ S; per la 2) del lemma 1.8 si ha dim L = dim L′ . Posto T = U + L′ , si ha L = T ∩ S e quindi, per il corollario 1.7, U + L = U + L′ ; per la (5) risulta L′ = π(L) e perciò si ha la suriettività. 3) Siano L1 , L2 sottovarietà lineari di S e siano L′ 1 = π(L1 ), L′ 2 = π(L2 ). Se L1 ⊂ L2 si ha L′ 1 = (U + L1 ) ∩ S ′ ⊂ (U + L2 ) ∩ S ′ = L′ 2 . Viceversa, sia L′ 1 ⊂ L′ 2 . Per quanto visto nel corso della dimostrazione della suriettività di cui in 2), si ha L1 = (U + L′ 1 ) ∩ S, L2 = (U + L′ 2 ) ∩ S e quindi, essendo U + L′ 1 ⊂ U + L′ 2 , si ha L1 ⊂ L2 . 67 2 IL PRINCIPIO DI DUALITÀ 2. Il principio di dualità. 1. Sia P(V) uno spazio proiettivo di dimensione n > 1. Definizione 2.1 Se P è una proposizione che riguarda varietà lineari di P(V), si chiama duale di P la proposizione P ∗ che si ottiene da P scambiando tra loro: contenuto con contenente in tutte le relazioni di inclusione, congiungente con intersezione e dimensione r con dimensione n − r − 1. Se P ∗ = P si dice che P è autoduale. Ovviamente si ha P ∗∗ = P. Esempio 2.2 1) Sia P la proposizione: se A, B sono punti distinti di P(V), allora A + B è una retta ed è l’unica retta che contiene A e B . Se n = 2, la duale di P è la proposizione P ∗ : Se A, B sono rette distinte, allora A ∩ B è un punto ed è l’unico punto comune ad A, B . Se n = 3, la duale di P è la proposizione P ∗ : Se A, B sono piani distinti, allora A ∩ B è una retta ed è l’unica retta comune ad A, B . 2) In P 3 (V) sono duali l’una dell’altra le proposizioni: P : Il congiungente un punto P ed una retta R che non lo contiene è un piano; P ∗ : L’intersezione di un piano P ed una retta R non contenuta in esso è un punto. 3) In P 3 (V) sono duali l’una dell’altra le proposizioni: P : Se R, S sono due rette sghembe e P è un punto non appartenente né a R né a S , esiste una ed una sola retta T che passa per P ed è complanare con R e con S ; P ∗ : Se R, S sono due rette sghembe e P è un piano non contenente né R né S , esiste una ed una sola retta T contenuta in P e complanare con R e con S . 4) In P 3 (V) la seguente proposizione è autoduale: Sia I un insieme di rette a due a due incidenti; allora le rette di I o passano tutte per uno stesso punto o sono contenute tutte in uno stesso piano.2 Definizione 2.3 Se F è una figura in P(V) costituita da varietà lineari, si chiama duale di F la figura F ∗ ottenuta da F sostituendo ogni varietà lineare 2 Sia P il punto comune a due rette distinte R, S di I; se in I esiste una retta T non passante per P , allora T , intersecando R e S in due punti distinti, è contenuta nel piano R + S . Ogni retta di I distinta da R, S, T , intersecando le rette R, S, T , è contenuta in R + S. 2 IL PRINCIPIO DI DUALITÀ 68 di dimensione r con una varietà lineare di dimensione n − r − 1, scambiando tra loro le relazioni di inclusione e scambiando tra loro intersezione con congiungente. Una figura tale che F ∗ = F si dice autoduale. Ovviamente si ha F ∗∗ = F . Esempio 2.4 1) In un piano proiettivo sono figure duali l’una dell’altra le seguenti: un triangolo, che è la figura costituita da 3 punti non allineati (i vertici) e dalle 3 rette (i lati) che li congiungono a due a due; un trilatero, che è la figura costituita da 3 rette non concorrenti (i lati) e dai 3 punti (i vertici) dove si intersecano a due a due. Un triangolo ed un trilatero sono la stessa figura e perciò si tratta di una figura autoduale. Per tale ragione, nel seguito, non distingueremo un triangolo da un trilatero ed useremo solo la parola triangolo. 2) In un piano proiettivo sono figure duali l’una dell’altra le seguenti: un quadrangolo completo, che è la figura costituita da 4 punti (i vertici) a tre a tre non allineati e dalle 6 rette (i lati) che li congiungono a due a due; un quadrilatero completo, che è la figura costituita da 4 rette (i lati) a tre a tre non concorrenti e dai 6 punti (i vertici) dove si intersecano a due a due. Sussiste l’importante Principio di dualità, che dimostreremo nel successivo numero: se in P(V) è vera una proposizione è vera anche la sua duale. 2. Sia V∗ il duale di V. Se v ∈ V , l’applicazione lv : V∗ −→ K definita ponendo lv (ϕ) = ϕ(v) per ogni ϕ ∈ V∗ è lineare, cioè si ha lv ∈ V∗∗ . Infatti, se ϕ, ψ ∈ V∗ e a, b ∈ K si ha lv (aϕ + bψ) = (aϕ + bψ)(v) = aϕ(v) + bψ(v) = alv (ϕ) + blv (ψ). Lemma 2.5 L’applicazione Φ : V → V∗∗ definita da Φ(v) = lv è un isomorfismo. 69 2 IL PRINCIPIO DI DUALITÀ DIMOSTRAZIONE. Essa è lineare; infatti, se u, v ∈ V, a, b ∈ K e ϕ ∈ V∗ si ha Φ(au + bv)(ϕ) = lau+bv (ϕ) = ϕ(au + bv) = aϕ(u) + bϕ(v) = alu (ϕ) + blv (ϕ) = (alu + blv )(ϕ) = (aΦ(u) + bΦ(v))(ϕ). e quindi Φ(au + bv) = aΦ(u) + bΦ(v). Se 0 6= v ∈ V si ha Φ(v) = lv 6= 0 e perciò Φ è iniettiva. Infatti, v può essere preso come elemento di una base di V e per l’elemento v∗ della base duale si ha lv (v∗ ) = v∗ (v) = 1. Poiché dimV = dimV∗∗ , Φ è isomorfismo. In virtù del lemma 2.5, V lo identificheremo sempre con V∗∗ mediante identificazione di v ∈ V con lv ∈ V∗∗ per ogni v ∈ V . Se M è un sottospazio di V, l’ annullatore di M è il sottospazio di V∗ M0 = {ϕ ∈ V∗ : ϕ(v) = 0 per ogni v ∈ M}. In virtù dell’identificazione fatta di V con V∗∗ , se P è un sottospazio di V∗ il suo annullatore è il sottospazio di V P0 = {v ∈ V : ϕ(v) = 0 per ogni ϕ ∈ P}. Lemma 2.6 Sia V uno spazio vettoriale su K . L’applicazione che al sottospazio M di V associa il suo annullatore M0 in V∗ è biunivoca tra l’insieme dei sottospazi di V e l’insieme dei sottospazi di V∗ e gode delle proprietà: 1) dimM0 = dimV − dimM; 2) M00 = M; 3) M0 ⊂ N0 ⇐⇒ M ⊃ N; 4) (M + N)0 = M0 ∩ N0 ; 5) (M ∩ N)0 = M0 + N0 . DIMOSTRAZIONE. Dimostriamo dapprima che l’applicazione gode delle proprietà 1) e 2). 1) Se dimM = r , sia (v1 , ..., vr , vr+1 , ..., vm ) una base di V tale che (v1 , ..., vr ) ∗ sia una base di M e sia (v1∗ , ..., vm ) la base duale. Si ha vi∗ (vj ) = 0, per r + 1 ≤ i ≤ m, 1≤j≤r 70 2 IL PRINCIPIO DI DUALITÀ ∗ ∗ ∗ ∗ 0 e quindi vr+1 , ..., vm ∈ M0 . I vettori Pm vr+1 ,∗..., vm generano M . 0 Infatti, se ϕ ∈ M si ha ϕ = j=1 xj vj e poiché ϕ(vi ) = m X j=1 xj vj∗ (vi ) = xi = 0, se 1 ≤ i ≤ r, P ∗ ∗ ∗ risulta ϕ = m j=r+1 xj vj . Essendo vr+1 , ..., vm linearmente indipendenti, perché elementi di una base, si ha la 1). 2) Si ha M00 = {v ∈ V : α(v) = 0 per ogni α ∈ M0 }; se v ∈ M risulta α(v) = 0 per ogni α ∈ M0 e perciò M ⊂ M00 . Per la 1) si ha dimM00 = dimV∗ − dimM0 = dimV − (dimV − dimM) = dimM e perciò M00 = M. Dalle 1) e 2) segue che l’applicazione è biunivoca. Infatti, se M0 = N0 , per la 2) si ha M = M00 = N00 = N e perciò è iniettiva; inoltre, se U è un sottospazio di V∗ risulta U = (U0 )0 con U0 sottospazio di V e quindi è suriettiva. Dimostriamo le altre proprietà. 3) Se M ⊂ N, ovviamente risulta M0 ⊃ N0 . D’altra parte, se M0 ⊃ N0 , per la 2) si ha M = M00 ⊂ N00 = N. 4) Da M, N ⊂ M + N, per la 3) segue che (M + N)0 ⊂ M0 ∩ N0 . D’altra parte, se α ∈ M0 ∩ N0 , risulta α(x) = 0 per ogni x ∈ M e α(y) = 0 per ogni y ∈ N e quindi α(z) = 0 per ogni z ∈ M + N, ossia α ∈ (M + N)0 . Dunque, M0 ∩ N0 ⊂ (M + N)0 e, perciò, si ha la 4). 5) Si ha (M0 + N0 )0 = M00 ∩ N00 = M ∩ N e quindi (M ∩ N)0 = (M0 + N0 )00 = M0 + N0 . Teorema 2.7 (Principio di dualità). Sia P un teorema sullo spazio proiettivo P(V) di dimensione n > 1, che riguarda varietà lineari. Allora, è un teorema su P(V) anche il suo duale P ∗ . 2 IL PRINCIPIO DI DUALITÀ 71 DIMOSTRAZIONE. Siano Λ l’insieme delle varietà lineari di P(V) e Λ∗ l’insieme delle varietà lineari di P(V∗). Sia α : Λ −→ Λ∗ l’applicazione che alla varietà lineare U definita dal sottospazio U di V associa la varietà lineare U 0 di P(V∗ ) definita dall’annullatore U0 di U; per il lemma 2.6, α è biunivoca. Inoltre, sempre per il lemma 2.6, se dim U = r si ha dim α(U) = n − r − 1; α(U) ⊂ α(W) ⇐⇒ U ⊃ W; α(U + W) = α(U) ∩ α(W); α(U ∩ W) = α(U) + α(W). Da ciò segue che P ∗ è un teorema su P(V∗ ). Considerando un isomorfismo f : V∗ → V ed associando alla varietà lineare in Λ∗ definita dal sottospazio S di V∗ la varietà lineare in Λ definita dal sottospazio f (S) di V, si ottiene un’applicazione biunivoca β : Λ∗ −→ Λ tale che se S, T ∈ Λ∗ , si ha dimβ(S) = dimS; β(S) ⊂ β(T ) ⇐⇒ S ⊂ T ; β(S + T ) = β(S) + β(T ); β(S ∩ T ) = β(S) ∩ β(T ). Dalla composizione βα segue che P ∗ è un teorema su P(V). Esempio 2.8 In P 2 (V) ed in P 3 (V) sono teoremi i duali di quelli stabiliti negli esempi 2.2. 72 3 COORDINATE PROIETTIVE 3. Sistemi di coordinate. Coordinate proiettive. 1. Sia B = (v1 , ..., vn+1 ) una base dello spazio vettoriale V. P Definizione 3.1 Se P = [ n+1 i=1 xi vi ], xi ∈ K , è un punto dello spazio proiettivo P(V) si dice che (x1 , ..., xn+1 ) è un sistema di coordinate omogenee di P rispetto alla base B e per indicarlo scriveremo P = (x1 , . . . , xn+1 ). Se (x1 , ..., xn+1 ) è una (n + 1) − pla ordinata non nulla di elementi di K , vi è uno ed un solo punto P di P(V) che ha (x1 , ..., xn+1 )P come sistema di coordinate omogenee rispetto a B ; esso è il punto P = [ n+1 i=1 xi vi ]. Due (n + 1) − ple ordinate non nulle (x1 , ..., xn+1 ) e (y1, ..., yn+1 ) di elementi di K sono sistemi di P coordinate omogenee Pn+1 dello stesso punto P rispetto a B se n+1 e solo se i vettori i=1 xi vi e i=1 yi vi sono linearmente dipendenti, ossia se e solo se esiste un elemento non nullo k ∈ K tale che yi = kxi , 1 ≤ i ≤ n + 1. Se (x1 , ..., xn+1 ) e (x′1 , ..., x′n+1 ) sono sistemi di coordinate omogenee di uno ′ stesso punto P rispetto a due basi B = (v1 , ..., vn+1 ) e B′ = (v1′ , ..., vn+1 ) di V, esistono una matrice (aij ) ad elementi in K , di ordine n + 1, invertibile, ed un elemento 0 6= k ∈ K tali che si hanno le (1) kxi = n+1 X aij x′j , 1 ≤ i ≤ n + 1, j=1 che si dicono anche equazioni del cambiamento proiettivo di coordinate. Infatti, si ha # " n+1 # " n+1 X X xi vi = x′j vj′ i=1 j=1 e quindi esiste un elemento 0 6= k ∈ K tale che k n+1 X n+1 X xi vi = i=1 Poiché vj′ = n+1 X j=1 aij vi , i=1 x′j vj′ . 1 ≤ j ≤ n + 1, con aij ∈ K e la matrice (aij ) invertibile, si ha k n+1 X i=1 xi vi = n+1 X j=1 x′j n+1 X i=1 aij vi , 73 3 COORDINATE PROIETTIVE da cui le (1). Lemma 3.2 Siano P1 , ..., Pr punti di P(V) che rispetto alla base B abbiano sistemi di coordinate omogenee (i) (i) Pi = (x1 , ..., xn+1 ), e sia (1) (1) x1 . A = .. x2 .. . (r) (r) x1 Si ha dim r X Pi i=1 ! x2 1 ≤ i ≤ r, ... .. . ... (1) xn+1 .. . . (r) xn+1 = caratteristica(A) − 1. P xi vi DIMOSTRAZIONE. Sia ϕ : V → K n+1 l’isomorfimo che a x = n+1 Pn+1 i=1 (i) associa ϕ(x) = (x1 , ..., xn+1 ). Essendo Pi = [xi ], con xiP = j=1 xj vj , i r vettori ϕ(xi ) sono le righe di A e quindi il sottospazio i=1 [xi ] di V ha dimensione uguale a quella del sottospazio di K n+1 generato dalle righe di A, che è la caratteristica di A, da cui il lemma. 2. Sia S una varietà lineare di dimensione r di P(V) e siano Pi = [xi ], 1 ≤ i ≤ r + 1, r + 1 punti linearmente indipendenti di S . Un punto P = [x] appartiene a S se e solo se (2) x= r+1 X λi xi , i=1 (i) λi ∈ K. (i) Se (x1 , ..., xn+1 ) e (x1 , ..., xn+1 ) sono sistemi di coordinate omogenee di Pi , P rispetto alla base B , la (2) si può scrivere ′ (2 ) xj = r+1 X i=1 (i) λi xj , 1 ≤ j ≤ n + 1. Sia le (2) che le (2′ ) si dicono equazioni parametriche di S . 74 3 COORDINATE PROIETTIVE Teorema 3.3 Sia S una varietà lineare di dimensione r di P(V). Esiste un sistema di n − r equazioni lineari omogenee a coefficienti in K , linearmente indipendenti, + a12 x2 + · · · + a1 n+1 xn+1 = 0 a11 x1 ... an−r 1 x1 + an−r 2 x2 + · · · + an−r n+1 xn+1 = 0 tale che i punti di S sono tutti e solo quelli i cui sistemi di coordinate omogenee rispetto alla base B sono soluzioni del sistema. (i) (i) DIMOSTRAZIONE. Siano Pi = (x1 , ..., xn+1 ), 1 ≤ i ≤ r + 1, punti linearmente indipendenti che individuano S .PUn punto P = (x1 , ..., xn+1 ) appartiene a S se e solo se risulta dim(P + r+1 i=1 Pi ) = r e quindi (lemma 3.2) se e solo se la matrice x1 x2 . . . xn+1 (1) (1) x(1) x2 . . . xn+1 1 A= .. .. .. .. . . . . (r+1) (r+1) (r+1) x1 x2 . . . xn+1 ha caratteristica r + 1. Per il lemma 3.2 le ultime r + 1 righe di A contengono un minore M di ordine r + 1 non nullo e la condizione che A abbia caratteristica r + 1 si esprime annullando tutti i suoi minori di ordine r + 2 contenenti M . Si ottengono, cosı̀, n − r equazioni lineari in x1 , ..., xn+1 tali che i punti di S sono esattamente quelli i cui sistemi di coordinate omogenee le soddisfano. In modo analogo al caso del teorema 2.13 del capitolo III, si verifica che tali equazioni sono linearmente indipendenti. Esempio 3.4 Se (i) (i) Pi = (x1 , . . . , xn+1 ), sono n punti linearmente indipendenti S = P1 + · · · + Pn da essi individuato è x2 . . . x1 (1) (1) x1 x2 ... . .. .. . . . . (n) (n) x1 x2 ... Teorema 3.5 Sia a11 x1 ... am1 x1 + i = 1, . . . , n, di P(V), l’equazione dell’iperpiano xn+1 (1) xn+1 .. = 0. . (n) xn+1 a12 x2 + ··· + a1 n+1 xn+1 = 0 + am2 x2 + ··· + am n+1 xn+1 = 0 75 3 COORDINATE PROIETTIVE un sistema lineare omogeneo a coefficienti in K . Se la matrice A=(aij ) ha caratteristica h, l’insieme dei punti di P(V) i cui sistemi di coordinate omogenee rispetto a B sono soluzione del sistema è una varietà lineare di dimensione n − h. DIMOSTRAZIONE. I vettori di V le cui componenti rispetto alla base B soddisfano il sistema costituiscono un sottospazio S di V di dimensione n + 1 − h, da cui il teorema. Se S è una varietà lineare costituita dai punti i cui sistemi di coordinate rispetto alla base B soddisfano un sistema lineare Σ, si dice che S è definita da Σ o che le equazioni di Σ sono equazioni (cartesiane) di S . Un iperpiano U di P(V), rispetto alla base B = (v1 , ..., vn+1 ) di V, è definito da un’equazione lineare a1 x1 + a2 x2 + · · · + an+1 xn+1 = 0. Se V∗ è lo spazio vettoriale duale di V, la varietà lineare U 0 definita dall’annullatore U0 dello spazio vettoriale U che definisce U è un punto (lemma ∗ 2.6). Se B∗ = (v1∗ , ..., vn+1 ) è la base duale di B , i coefficienti a1 , ..., an+1 dell’equazione di U costituiscono un sistema di coordinate omogenee di U 0 rispetto a B∗ . Pn+1 P ∗ a v , per ogni punto P = [ Infatti, se ϕ = n+1 i i i=1 xi vi ] di U risulta i=1 ! ! n+1 ! n+1 n+1 n+1 X X X X ϕ xi vi = ai vi∗ xi vi = ai xi = 0 i=1 i=1 i=1 i=1 e quindi U0 = [ϕ]. Si dice, allora, che a1 , . . . , an+1 costituiscono un sistema di coordinate omogenee dell’iperpiano U rispetto a B e per indicarlo scriveremo U = [a1 , . . . , an+1 ]. 3. Sia P(V) uno spazio proiettivo di dimensione n > 0. Definizione 3.6 Si chiama riferimento proiettivo di P(V) una (n + 2) − pla ordinata (E1 , ..., En+1 , E) di suoi punti tali che n + 1 comunque scelti tra essi sono linearmente indipendenti. Ad esempio, un riferimento proiettivo della retta proiettiva è una terna ordinata di punti distinti, un riferimento proiettivo del piano proiettivo è una quaterna ordinata di punti a tre a tre non allineati. 76 3 COORDINATE PROIETTIVE Teorema 3.7 Sia (E1 , ..., En+1 , E) un riferimento proiettivo di P(V). Allora: 1) esiste un base (e1 , ..., en+1 ) di V tale che Ei = [ei ], 1 ≤ i ≤ n + 1, E = [e1 + e2 + · · · + en+1 ]; (3) 2) due basi (e1 , ..., en+1 ) ed (e′1 , ..., e′n+1 ) di V sono tali che Ei = [ei ] = [e′i ], 1 ≤ i ≤ n + 1, E = [e1 + · · · + en+1 ] = [e′1 + · · · + e′n+1 ], (4) se e solo se esiste un elemento 0 6= k ∈ K tale che e′i = kei , 1 ≤ i ≤ n + 1. DIMOSTRAZIONE. 1) Sia Ei = [vi ], 1 ≤ i ≤ n + 1. Poiché i punti E1 , ..., En+1 sono linearmente i vettori v1 , ..., vn+1 Pindipendenti, n+1 costituiscono una base di V e quindi E = [ i=1 ai vi ], ai ∈ P K . Gli elementi ai sono tutti non nulli. Infatti, se fosse aj = 0, il sottospazio [ n+1 i=1 ai vi ] sarebbe contenuto nel sottospazio generato da v1 , ..., vj−1 , vj+1 , ..., vn+1 e quindi i punti E1 , ..., Ej−1 , Ej+1, ..., En+1 , E sarebbero linearmente dipendenti, contro l’ipotesi che (E1 , ..., En+1 , E) sia un riferimento proiettivo. Posto ei = ai vi , 1 ≤ i ≤ n + 1, (e1 , ..., en+1 ) è una base di V soddisfacente la 1). 2) Due basi (e1 , ..., en+1 ) e (e′1 , ..., e′n+1) di V soddisfano le (4) se e solo se esistono degli elementi 0 6= ki, k ∈ K tali che e′i = kiei , e′1 + · · · + e′n+1 = k(e1 + · · · + en+1 ), cioè se e solo se (5) n+1 X i=1 (ki − k)ei = 0. Essendo (e1 , ..., en+1 ) una base di V, la (5) è soddisfatta se e solo se k = ki , 1 ≤ i ≤ n + 1. 77 4 PROIETTIVITÀ Se (E1 , ..., En+1 , E) è un riferimento proiettivo di P(V), rispetto a tutte le basi ordinate (e1 , ..., en+1 ) di V soddisfacenti le (3), un punto P di P(V) ha gli stessi sistemi di coordinate omogenee. Tali sistemi di coordinate sono i sistemi di coordinate proiettive omogenee rispetto a (o nel) sistema di riferimento proiettivo dato. In particolare, il punto Ei ha coordinate proiettive tutte nulle, salvo l’i-ma uguale a 1; il punto E ha coordinate proiettive tutte uguali a 1 e si dice punto unità del riferimento. Se P = (b1 , ..., bn+1 ) è un punto di P(V) non contenuto nell’iperpiano xn+1 = 0, allora bn b1 , ..., ,1 . P = bn+1 bn+1 Gli elementi ci = bi bn+1 , 1 ≤ i ≤ n, che sono gli stessi per tutti i sistemi di coordinate proiettive omogenee nel dato riferimento proiettivo, si dicono coordinate proiettive non omogenee di P rispetto a (o nel) riferimento proiettivo (E1 , ..., En+1 , E). 4. Proiettività. 1. Siano V, V′ spazi vettoriali sul campo K di ugual dimensione. Un isomorfismo f : V → V′ induce un’applicazione biunivoca ϕ : P(V) → P(V′ ) nella quale per ogni punto P = [v] di P(V) si ha ϕ(P ) = [f (v)]. Definizione 4.1 Un’applicazione ϕ : P(V) → P(V′ ) si dice proiettività se e solo se è indotta da un isomorfismo f : V → V′ . Osservazione 4.2 Sia ϕ : P(V) → P(V′ ) una proiettività indotta da un isomorfismo f : V → V′ . 1. Manifestamente ϕ induce un’applicazione biunivoca tra l’insieme {S} delle varietà lineari di P(V) e l’insieme delle varietà lineari di P(V′) nella 78 4 PROIETTIVITÀ quale sono corrispondenti S e ϕ(S), che conserva dimensione, intersezione, congiungente e relazione d’inclusione. 2. Se S è una varietà lineare di P(V), la restrizione ϕ|S : S → ϕ(S) è una proiettività: essa è indotta dalla restrizione f|S : S → f (S) di f al sottospazio S di V che definisce S . Esempio 4.3 Se U, S, S ′ sono varietà lineari di uno spazio proiettivo P(V) di dimensione n > 1 tali che U + S = U + S ′ = P(V), U ∩ S = U ∩ S ′ = Ø, la proiezione di centro U è una proiettività. π : S −→ S ′ U S b P1 P2 b b P3 b P P2′ S′ P1′ P′ P3′ Se dim U = r si ha (lemma 1.8) dim S = dim S ′ = n − r − 1. Siano U, S, S′ i rispettivi spazi vettoriali che definiscono U , S , S ′ . Sia (v1 , ..., vn−r ) una base di S e siano Pi = [vi ], Pi′ = π(Pi) = [vi′ ], 1 ≤ i ≤ n − r. Poiché Pi′ ∈ U + Pi , si può scrivere vi′ = ui + ai vi , ui ∈ U, ai ∈ K, 1 ≤ i ≤ n − r. 79 4 PROIETTIVITÀ Essendo U ∩ S ′ = Ø si ha ai 6= 0 per ogni i e quindi, posto ei = ai vi , 1 ≤ i ≤ n − r, (e1 , ..., en−r ) è una base di S e si ha vi′ = ui + ei , 1 ≤ i ≤ n − r. ′ Dalle proprietà di π (teorema 1.10) segue che i punti P1′ , ..., Pn−r sono, come ′ ′ P1 , ..., Pn−r , linearmente indipendenti e quindi (v1 , ..., vn−r ) è una base di S’. L’applicazione f : S → S′ definita da f (ei ) = vi′ = ui + ei , 1 ≤ i ≤ n − r, è un isomorfismo e P π coincide con la proiettività ϕ indotta da f . Infatti, se n−r xi ei si ha P = [x] ∈ S e x = i=1 f (x) = n−r X xi f (ei ) = i=1 n−r X xi (ui + ei ) = i=1 Quindi, ϕ(P ) = [f (x)] = n−r hX i=1 e perciò n−r X xi ui + x i=1 i xi ui + x ∈ U + P ϕ(P ) = (U + P ) ∩ S ′ = π(P ), ossia π = ϕ. Lemma 4.4 Due isomorfismi f, g : V → V′ inducono la stessa proiettività P(V) → P(V′ ) se e solo se esiste 0 6= k ∈ K tale che g = kf . DIMOSTRAZIONE. Siano ϕ e ψ le proiettività indotte da f e g rispettivamente. Se P =[x] è un punto di P(V), allora ϕ(P ) = [f (x)] e ψ(P ) = [g(x)]. Se g = kf , con 0 6= k ∈ K , si ha ψ(P ) = [g(x)] = [kf (x)] = [f (x)] = ϕ(P ) 80 4 PROIETTIVITÀ e perciò ϕ = ψ . Viceversa, sia ϕ = ψ . Allora g(x) = kx f (x), 0 6= kx ∈ K. Bisogna dimostrare che kx non dipende da x, cioè se y è un altro vettore di V si ha kx = ky . Se x, y sono linearmente dipendenti si ha y = ax, a ∈ K e quindi ky f (y) = g(y) = g(ax) = ag(x) = akx f (x) = kx f (ax) = kx f (y) e perciò kx = ky . Se x, y sono linearmente indipendenti, da g(x + y) = g(x) + g(y) si trae kx+y f (x + y) = kx f (x) + ky f (y) e quindi (kx+y − kx )f (x) + (kx+y − ky )f (y) = 0. Essendo f isomorfismo, anche i vettori f (x), f (y) sono linearmente indipendenti e quindi kx = kx+y = ky . Corollario 4.5 La proiettività ϕ indotta dall’endomorfismo f di V è quella identica se e solo se f = λI con λ ∈ K ed I l’endomorfismo identico di V. ′ Teorema 4.6 Siano (E1 , ..., En+1 , E) ed (E1′ , ..., En+1 , E ′ ) riferimenti pro′ iettivi di P(V) e P(V ) rispettivamente con n > 0. Esiste una ed una sola proiettività ϕ : P(V) −→ P(V′) tale che ϕ(Ei ) = Ei′ , ϕ(E) = E ′ , 1 ≤ i ≤ n + 1. DIMOSTRAZIONE. Per il teorema 3.7 esistono una base (e1 , ..., en+1 ) di V ed una base (e′1 , ..., e′n+1 ) di V′ tali che Ei = [ei ], Ei′ = [e′i ], E = [e1 + · · · + en+1 ], 1 ≤ i ≤ n + 1, E ′ = [e′1 + · · · + e′n+1 ]. 81 4 PROIETTIVITÀ L’isomorfismo f : V → V′ definito da f (ei ) = e′i , 1 ≤ i ≤ n + 1, induce una proiettività ϕ : P(V) → P(V′) tale che ϕ(Ei ) = Ei′ , ϕ(E) = E ′ , 1 ≤ i ≤ n + 1. Essa è l’unica con tale proprietà. Infatti, se ψ : P(V) → P(V′ ) è una proiettività indotta dall’isomorfismo g : V → V′ tale che ψ(Ei ) = Ei′ , ψ(E) = E ′ , 1 ≤ i ≤ n + 1, deve essere g(ei ) = ki e′i , g(e1 + · · · + en+1 ) = k(e′1 + · · · + e′n+1 ), con 0 6= ki , k ∈ K . Quindi n+1 X i=1 (k − ki )e′i = 0 e perciò k = ki per ogni 1 ≤ i ≤ n + 1. Allora g = kf e perciò, per il lemma 4.4, ψ = ϕ. Le proiettività dello spazio proiettivo P(V) in se stesso si dicono proiettività di P(V). Definizione 4.7 Una varietà lineare U di P(V) è unita per la proiettività ϕ di P(V) se e solo se ϕ(U) = U . Corollario 4.8 Una proiettività ϕ di P n (V) che ha n + 2 punti uniti che formano un riferimento proiettivo è quella identica. DIMOSTRAZIONE. Sia (E1 , ..., En+1 , E) un riferimento proiettivo di P n (V) tale che ϕ(Ei ) = Ei (1 ≤ i ≤ n + 1), ϕ(E) = E . Per il teorema 4.6 esiste una ed una sola proiettività di P n (V) che lascia fissi i punti E1 , ..., En+1 , E e quindi ϕ coincide con la proiettività identica. Osservazione 4.9 Sia ϕ una proiettività di P(V) indotta dall’automorfismo f di V. La varietà lineare U di P(V) definita dal sottospazio U di V è unita per ϕ se e solo se U è invariante per f , cioè f (U) = U. Si noti che se U è invariante per f lo è anche per ogni automorfismo g di V che induce ϕ, essendo g = kf con 0 6= k ∈ K (lemma 4.4). 4 PROIETTIVITÀ 82 In particolare, un punto P = [v] di P(V) è unito per ϕ se e solo se [f (v)] = [v] e cioè se e solo se v è un autovettore per f . Ne segue che se V(λ) è un autospazio di f relativo all’autovalore λ, tutti i punti della varietà lineare definita da V(λ) sono uniti per ϕ. D’altra parte, se una varietà lineare U di P(V) ha tutti i punti uniti per ϕ, lo spazio vettoriale U che la definisce è contenuto in un autospazio di f . Infatti, essendo tutti i punti di U uniti per ϕ, la restrizione ϕ|U di ϕ ad U è la proiettività identica e perciò indotta dall’isomorfismo identico I di U. Ma ϕ|U è anche indotta dalla restrizione fU di f ad U e quindi deve essere f|U = λI con λ ∈ K (corollario 4.5), ossia f (u) = λu per ogni u ∈ U. Le varietà lineari di dimensione massima di P(V) i cui punti sono tutti uniti per ϕ sono quelle definite dagli autospazi di f . Esempio 4.10 Sia ϕ una proiettività di P 2 (V) indotta dall’automorfismo f di V, con V spazio vettoriale su un campo K algebricamente chiuso. Si hanno i seguenti casi. a) f ha 3 autovalori distinti λ1 , λ2 , λ3 . Allora ϕ ha esattamente 3 punti uniti distinti, definiti dagli autospazi V(λ1), V(λ2), V(λ3 ), che sono non allineati, perché autovettori associati ad autovalori distinti sono linearmente indipendenti (capitolo I, teorema 2.9). b) f ha solo due autovalori distinti λ1 di molteplicità algebrica 1 e λ2 di molteplicità algebrica 2. Se λ2 ha molteplicità geometrica 1, ϕ ha due soli punti uniti distinti. Se λ2 ha molteplicità geometrica 2, allora V(λ2 ) definisce una retta U i cui punti sono tutti uniti per ϕ, la quale non contiene il punto unito O definito da V(λ1) (capitolo I, teorema 2.9) e ϕ non ha altri punti uniti fuori di U e distinti da O (corollario 4.8). In questo caso ϕ si dice omologia di asse U e di centro O . Manifestamente sono unite per ϕ tutte le rette passanti per O in quanto ciascuna di esse è la congiungente O con il punto dove interseca U , anch’esso unito; ed oltre queste rette e U , ϕ non ha altre rette unite, per il teorema 4.6. c) f ha un solo autovalore λ di molteplicità algebrica 3. Se λ ha molteplicità geometrica 1, ϕ ha un solo punto unito. Se λ ha molteplicità geometrica 2, ϕ ha una retta U di punti uniti e non ha altri punti uniti fuori di essa. In questo caso ϕ si dice omologia speciale di asse U . Se λ ha molteplicità geometrica 3, ogni punto di P 2 (V) è unito per ϕ e perciò ϕ è la proiettività identica. 83 4 PROIETTIVITÀ 2. Siano ϕ : P(V) → P(V′), ψ : P(V′) → P(V′′ ) proiettività indotte rispettivamente dagli isomorfismi f : V → V′, g : V′ → V′′ . Se P = [x] è un punto di P(V) si ha (ψϕ)(P ) = ψ(ϕ(P )) = ψ([f (x)]) = [g(f (x))] = [(gf )(x)] e quindi ψϕ è la proiettività indotta da gf . Sia σ la proiettività indotta da f −1 . Allora, ϕσ e σϕ sono indotte rispettivamente da f f −1 e f −1 f e quindi sono le proiettività identiche; da ciò segue che σ è l’inversa di ϕ. Si ha, quindi, il Teorema 4.11 La composizione di due proiettività è una proiettività e l’inversa di una proiettività è una proiettività. Segue immediatamente il seguente Corollario 4.12 Le proiettività di uno spazio proiettivo formano un gruppo rispetto alla composizione. Il gruppo delle proiettività di P(V) si chiama anche gruppo proiettivo di V e si denota P GL(V). Definizione 4.13 Una proprietà di un sottoinsieme S di P(V) si dice che è una proprietà proiettiva se è proprietà di tutti gli insiemi ω(S), trasformati di S mediante proiettività. Due sottoinsiemi di P(V) si dicono proiettivamente equivalenti se e solo se possono essere trasformati uno nell’altro mediante una proiettività. Esempio 4.14 Le coordinate proiettive sono invarianti per proiettività. Infatti, siano x1 , ..., xn+1 coordinate proiettive omogenee di un punto P rispetto al riferimento proiettivo (E1 , ..., En+1 , E) di P(V);P ciò vuol dire che se Ei = [ei ], E = [e1 + · · · + en+1 ], allora P = [x] con x = n+1 i=1 xi ei . Se ϕ : P(V) → P(V′ ) è una proiettività indotta dall’isomorfismo f : V → V′ , si ha ϕ(Ei ) = [f (ei )], 1 ≤ i ≤ n + 1, 84 4 PROIETTIVITÀ ϕ(E) = [f (e1 + · · · + en+1 )] = [f (e1 ) + · · · + f (en+1 )]. Quindi, (ϕ(E1 ), ..., ϕ(En+1 ), ϕ(E)) è un riferimento proiettivo di cui ϕ(E) è il punto unità. Si ha ϕ(P ) = [f (x)] = [x1 f (e1 ) + · · · + xn+1 f (en+1 )] e quindi x1 , ..., xn+1 sono coordinate proiettive omogenee di ϕ(P ) nel riferimento proiettivo (ϕ(E1 ), ..., ϕ(En+1 ), ϕ(E)). 3. Sia ϕ : P(V) → P(V′ ) una proiettività indotta dall’isomorfismo V ′ rispettivamente ed a11 a12 a21 a22 A= . .. .. . an+1 1 an+1 2 f : V → V′ e siano B, B′ basi di V, . . . a1 n+1 . . . a2 n+1 .. .. . . . . . an+1 n+1 la matrice di f rispetto a B, B′ . Se (x1 , ..., xn+1 ) è un sistema di coordinate omogenee del punto P di P(V) rispetto a B , allora (x′1 , ..., x′n+1 ) con (1) kx′i = n+1 X j=1 aij xj , 1 ≤ i ≤ n + 1, e 0 6= k ∈ K , è un sistema di coordinate omogenee di ϕ(P ) rispetto a B′ . Le (1) sono le equazioni della proiettività ϕ. Se X = (x1 , ..., xn+1 )t , X ′ = (x′1 , ..., x′n+1 )t le (1) si possono scrivere (2) kX ′ = AX. È chiaro che comunque si assegnino le equazioni (1) o la (2), con la matrice A = (aij ) invertibile, A definisce un isomorfismo f : V → V′ che induce una proiettività ϕ : P(V) → P(V′) di cui le (1) sono le equazioni. 5 COMPLETAMENTO PROIETTIVO DI UNO SPAZIO AFFINE 85 5. Completamento proiettivo di uno spazio affine. 1. Nello spazio proiettivo P n (V), con n > 0, sia Z un iperpiano (piano se n = 3, retta se n = 2, punto se n = 1), definito dal sottospazio Z di V e sia à = P(V) − Z. Fissare un vettore v ∈ V, v ∈ / Z definisce una biiezione tra Z e à perché per ogni punto P ∈ à esiste uno ed un solo vettore zP ∈ Z tale che P = [zP + v]. Infatti, essendo V = Z ⊕ [v] e P 6∈ Z , si ha P = [z + kv], z ∈ Z, 0 6= k ∈ K . Allora, se zP = (1/k)z si ha P = [zP + v]. Il vettore zP è univocamente determinato da P , perché, se P = [z′ + v], con z′ ∈ Z, deve essere z′ + v = a(zP + v) con a ∈ K e quindi z′ − azP = (a − 1)v. Poiché z′ − azP ∈ Z e Z ∩ [v] = 0, deve essere z′ − azP = (a − 1)v = 0 e quindi a = 1, z′ = zP . Teorema 5.1 L’insieme à è uno spazio affine su Z. DIMOSTRAZIONE. Se P, Q ∈ à si ha P = [zP + v], Q = [zQ + v]. L’applicazione Ã × Ã → Z che alla coppia (P, Q) di punti associa il vettore −−→ P Q = zQ − zP ∈ Z soddisfa gli assiomi della definizione di spazio affine (capitolo III, §1). Infatti −−→ a1 ) P Q = 0 ⇐⇒ zQ = zP ⇐⇒ P = Q; a2 ) se P = [zP + v] ∈ à e u ∈ Z, il punto Q = [zQ + v] di Ã, con −−→ zQ = zP + u, è tale che P Q = (zP + u) − zP = u; a3 ) se R = [zR + v] si ha −−→ −−→ −−→ P Q + QR = (zQ − zP ) + (zR − zQ ) = zR − zP = P R. Se (v1 , ..., vn ) è una base di Z, allora B = (v1 , . . . , vn , v) è una base di V e rispetto ad essa l’iperpiano Z ha equazione xn+1 = 0. Quindi, rispetto a B , i punti di Z hanno i sistemi di coordinate omogenee tutti del tipo Pn (x1 , . . . , xn , 0). Se P = [zP + v] ∈ à si ha zP + v = i=1 xi vi + v e quindi, rispetto alla base B , il punto P ha (x1 , ..., xn , 1) come sistema di coordinate 5 COMPLETAMENTO PROIETTIVO DI UNO SPAZIO AFFINE 86 omogenee. In particolare, il punto Õ = [v] di à ha (0, ..., 0, 1) come sistema di coordinate omogenee. Si ha −−→ ÕP = zP − 0 = x1 v1 + · · · + xn vn e quindi P , rispetto al sistema di riferimento (Õ; v1 , ..., vn ) di Ã, ha coordinate (x1 , ..., xn ). Definizione 5.2 Lo spazio proiettivo P(V) si dice completamento proiettivo di à e Z si dice l’iperpiano improprio di P(V) o di Ã. I punti di à si dicono propri e quelli di Z si dicono impropri. Sia A uno spazio affine di dimensione n sullo spazio vettoriale U col sistema di riferimento (O; u1 , ..., un ). Esiste un ben determinato isomorfismo (1) f :U→Z tale che f (ui ) = vi (1 ≤ i ≤ n) ed esiste un’affinità ϕ : A → à con isomorfismo associato f tale che ϕ(O) = Õ (capitolo III, lemma 3.4). Si −−−−→ −−→ −−→ P ha Õϕ(P ) = f ( OP ) e quindi, se OP = ni=1 xi ui , si ha ! n n −−−−→ X X Õϕ(P ) = f xi ui = xi vi . i=1 i=1 Cioè ϕ(P ) ha nel sistema di riferimento (Õ; v1 , ..., vn ) le stesse coordinate che ha P nel sistema di riferimento (O; u1 , ..., un ). Identificando P con ϕ(P ) per ogni punto P ∈ A, lo spazio affine A si identifica con à e quindi P(V) si può riguardare come completamento proiettivo di A. Da ora in poi riguarderemo sempre lo spazio proiettivo P(V) come completamento dello spazio affine A nel modo ora descritto. 2. Le varietà lineari di P(V) contenute nell’iperpiano improprio Z si dicono improprie o all’infinito, le altre si dicono proprie o al finito. Sia L una varietà lineare propria di P(V) definita dal sottospazio L di V. La restrizione affine L∗ = L∩A di L è una varietà lineare di A di giacitura L ∩ Z. −−→ Infatti, se P = [zP + v] e Q = [zQ + v] sono punti di L∗ si ha P Q = zQ −zP = (zQ +v)−(zP +v) ∈ L∩Z. Inoltre, se u ∈ L∩Z, il punto Q di A tale 5 COMPLETAMENTO PROIETTIVO DI UNO SPAZIO AFFINE 87 −−→ che P Q = u è Q = [zQ +v] con zQ = zP +u; quindi zQ +v = (zP +v)+u ∈ L, perciò Q ∈ L e poiché zQ + v 6∈ Z si ha Q ∈ L∗ . Si ha dim L∗ = dim (L ∩ Z) = dim L + dim Z − dim (L + Z) (2) = dim L + n − (n + 1) = dim L − 1 = dim L. Se, rispetto alla base B , L è definita dal sistema a11 x1 + a12 x2 + · · · + a1n xn + a1n+1 xn+1 (3) ... ah1 x1 + ah2 x2 + · · · + ahn xn + ahn+1 xn+1 = 0 = 0 rispetto al sistema di riferimento (Õ; v1 , ..., vn ), L∗ è definita dal sistema a11 x1 + a12 x2 + · · · + a1n xn + a1n+1 = 0 (4) ... ah1 x1 + ah2 x2 + · · · + ahn xn + ahn+1 = 0 Sia M una varietà lineare di A. Mediante l’isomorfismo (1) la sua giacitura M si può riguardare come sottospazio di Z. Se M, nel sistema di riferimento (O, u1 , . . . , un ), è definita dalle equazioni (4), allora le equazioni (4), nel sistema di riferimento (Õ; v1 , . . . , vn ), definiscono la varietà lineare ϕ(M) con cui si identifica M e, pertanto, diciamo che, nel sistema di riferimento (Õ; v1 , . . . , vn ), M è definita dalle equazioni (4). La varietà lineare M∗ di P(V) che, rispetto alla base B , è definita dal sistema lineare (3) è il completamento proiettivo di M e si ha M∗ ∩ A = M. Risulta (L∗ )∗ = L, (M∗ )∗ = M. 3. Se L è una varietà lineare propria di P(V), la varietà lineare L∞ = L ∩ Z definita da L ∩ Z è la varietà lineare impropria o all’infinito di L o di L∗ . Risulta dim L∞ = dim L + dim Z − dim(L + Z) = dim L + (n − 1) − n = dim L − 1. In particolare, la varietà impropria di una retta propria è un punto, la varietà impropria di un piano proprio è una retta. Se L è definita dal sistema (3) la sua varietà impropria L∞ è definita dal sistema a11 x1 + a12 x2 + · · · + a1n xn = 0 ... (5) a x + ah2 x2 + · · · + ahn xn = 0 h1 1 xn+1 = 0 5 COMPLETAMENTO PROIETTIVO DI UNO SPAZIO AFFINE 88 Esempio 5.3 1) Se A = (a1 , . . . , an ) e B = (b1 , . . . , bn ) sono punti distinti di A, il punto improprio della retta AB è (b1 − a1 , . . . , bn − an , 0). Infatti, in P(V) si ha A = (a1 , . . . , an , 1) e B = (b1 , . . . , bn , 1) ed equazioni parametriche della retta AB sono (§3, n.2) x1 = λa1 + µb1 , . . . xn = λan + µbn , xn+1 = λ + µ. Quindi il suo punto improprio è quello per cui λ + µ = 0, ossia µ = −λ. 2) Il punto improprio della retta R di A di equazioni parametriche x1 = a1 + µb1 , . . . xn = an + µbn è (b1 , . . . , bn , 0). Infatti due punti di R sono (a1 , . . . , an ) e (a1 + b1 , . . . , an + bn ) ed il risultato segue dall’esempio 1). Teorema 5.4 Siano L e M due varietà lineari proprie di P(V) tali che 0 < dim L ≤ dim M. L∗ ed M∗ sono parallele se e solo se la varietà impropria L∞ di L è contenuta nella varietà impropria M∞ di M. DIMOSTRAZIONE. L∗ e M∗ sono parallele se e solo se la giacitura di L∗ è contenuta in quella di M∗ (capitolo III, definizione 2.16) e le giaciture di L∗ e M∗ definiscono in P(V) le loro varietà improprie. 4. Sia ϕ una proiettività di P(V) che lascia fisso l’iperpiano improprio Z , cioè per la quale Z sia varietà unita. Se ϕ è indotta dall’automorfismo f di V si ha (osservazione 4.9) f (Z) = Z e quindi f (v1 ) = a11 v1 + · · · + an1 vn ... f (vn ) = a1n v1 + · · · + ann vn f (v) = a1 n+1 v1 + · · · + an n+1 vn + an+1 n+1 v, aij ∈ K. La matrice di f rispetto alla base B = (v1 , . . . vn , v) è, allora a11 . . . a1n a1 n+1 .. .. .. ... . . . a ... a a n1 0 nn ... 0 n n+1 an+1 n+1 e perciò ϕ ha equazioni kx′1 = a11 x1 + · · · + a1n xn + a1 n+1 xn+1 ... = an1 x1 + · · · + ann xn + an n+1 xn+1 kx′ ′n = xn+1 kxn+1 5 COMPLETAMENTO PROIETTIVO DI UNO SPAZIO AFFINE 89 L’insieme G delle proiettività di P(V) che lasciano fisso Z è un sottogruppo del gruppo delle proiettività di P(V), perché la composizione di due proiettività di G e l’inversa di una proiettività di G sono elementi di G. L’applicazione Ψ : Aff (A) → G che all’affinità α ∈ Aff (A) di equazioni ′ x1 = a11 x1 + . . . + a1n xn + b1 ... ′ xn = an1 x1 + . . . + ann xn + bn associa la proiettività di equazioni kx′1 = a11 x1 + . . . + a1n xn + b1 xn+1 ... ′ = an1 x1 + . . . + ann xn + bn xn+1 kx ′n kxn+1 = xn+1 è un isomorfismo. Infatti, posto X = (x1 , . . . , xn )t , X ′ = (x′1 , . . . , x′n )t , A = (aij ), B = (b1 , . . . , bn )t , l’equazione in forma matriciale di α è X ′ = AX + B e Ψ(α) è indotta dall’isomorfismo la cui matrice rispetto a B è A B . 0 1 Se α′ ∈ Aff (A) è un’altra affinità di A di equazione X ′′ = A′ X ′ + B ′ , allora α′ α ha equazione X ′′ = A′ AX + A′ B + B ′ . La proiettività Ψ(α′α) è allora indotta dall’isomorfismo la cui matrice rispetto alla base B è ′ ′ A B A B′ A A A′ B + B ′ = 0 1 0 1 0 1 e perciò Ψ(α′ α) = Ψ(α′ )Ψ(α), ossia Ψ è un omomorfismo. Manifestamente Ψ è iniettivo e suriettivo e perciò isomorfismo. Identificando Aff (A) con G mediante identificazione di ogni affinità α con Ψ(α), si ha che Aff (A) si può riguardare come il sottogruppo delle proiettività di P(V) che lasciano fisso l’iperpiano improprio. 90 6 I TEOREMI DI DESARGUES E DI PAPPO 6. I teoremi di Desargues e di Pappo. 1. Sia P(V) di dimensione 2 o 3. Definizione 6.1 Due triangoli si dicono: Prospettivi da un punto U , che si chiama centro di prospettiva, se i loro vertici si possono mettere in corrispondenza biunivoca tale che vertici corrispondenti sono allineati con U ; Prospettivi da una retta R, che si chiama asse di prospettiva, se i loro lati si possono mettere in corrispondenza biunivoca in modo che lati corrispondenti si intersecano su R. Teorema 6.2 (di Desargues). Due triangoli sono prospettivi da un punto se e solo se sono prospettivi da una retta. DIMOSTRAZIONE. Siano P1 P2 P3 e P1′ P2′ P3′ due triangoli. Se Pi = Pi′ per qualche indice i il teorema è immediato. Supponiamo che sia Pi = 6 Pi′ per ogni indice i. Sia Pi = [xi ], Pi′ = [x′i ], i = 1, 2, 3. Supponiamo che i triangoli siano prospettivi dal punto U = [u] e che siano allineati con U i punti Pi e Pi′ (1 ≤ i ≤ 3). Si ha u = a1 x1 + a′1 x′1 = a2 x2 + a′2 x′2 = a3 x3 + a′3 x′3 , e quindi (1) a1 x1 − a2 x2 = a′2 x′2 − a′1 x′1 , (2) a2 x2 − a3 x3 = a′3 x′3 − a′2 x′2 , (3) a3 x3 − a1 x1 = a′1 x′1 − a′3 x′3 . ai , a′i ∈ K 91 6 I TEOREMI DI DESARGUES E DI PAPPO U P3 b P1 b b Q2 P2 Q1 Q3 b P1′ b P2′ b P3′ Dalla (1) segue che il punto Q3 = [a1 x1 − a2 x2 ] della retta P1 P2 coincide con il punto [a′2 x′2 − a′1 x′1 ] della retta P1′ P2′ e quindi Q3 è l’intersezione delle rette P1 P2 e P1′ P2′ . Similmente dalle (2) e (3) segue che il punto Q1 = [a2 x2 − a3 x3 ] è l’intersezione delle rette P2 P3 e P2′ P3′ ed il punto Q2 = [a3 x3 − a1 x1 ] è l’intersezione delle rette P1 P3 e P1′ P3′ . Poiché la somma dei primi membri delle (1), (2), (3) è il vettore nullo, i punti Q1 , Q2 , Q3 sono allineati. Viceversa, supponiamo che i triangoli siano prospettivi da una retta R e che siano su R Q1 = P2 P3 ∩ P2′ P3′ , Q2 = P1 P3 ∩ P1′ P3′ , Q3 = P1 P2 ∩ P1′ P2′ . Se Qi = [vi ](1 ≤ i ≤ 3), essendo Q1 , Q2 , Q3 allineati, vi è una relazione h1 v1 + h2 v2 + h3 v3 = 0, hi ∈ K ed allora, posto yi = hi vi (1 ≤ i ≤ 3), si ha Qi = [yi ] e (4) y1 + y2 + y3 = 0. Essendo Q3 allineato con P1 , P2 e con P1′ , P2′ , deve essere y3 = a1 x1 + a2 x2 = a′1 x′1 + a′2 x′2 , ai , a′i ∈ K; essendo Q2 allineato con P1 , P3 e con P1′ , P3′ , deve essere y2 = b1 x1 + b3 x3 = b′1 x′1 + b′3 x′3 , bi , b′i ∈ K; 92 6 I TEOREMI DI DESARGUES E DI PAPPO ed essendo Q1 allineato con P2 , P3 e con P2′ , P3′ , deve essere y1 = c2 x2 + c3 x3 = c′2 x′2 + c′3 x′3 , ci , c′i ∈ K. Per la (4) risulta (a1 + b1 )x1 + (a2 + c2 )x2 + (b3 + c3 )x3 = 0 e poiché i vettori x1 , x2 , x3 sono linearmente indipendenti deve essere b1 = −a1 , c2 = −a2 , c3 = −b3 . b′1 = −a′1 , c′2 = −a′2 , c′3 = −b′3 Similmente e quindi a1 x1 + a2 x2 = a′1 x′1 + a′2 x′2 , −a1 x1 + b3 x3 = −a′1 x′1 + b′3 x′3 , −a2 x2 − b3 x3 = −a′2 x′2 − b′3 x′3 . Da queste si ricava a1 x1 − a′1 x′1 = a′2 x′2 − a2 x2 = b3 x3 − b′3 x′3 , da cui segue che le rette P1 P1′ , P2 P2′ , P3 P3′ passano per il punto U = [a1 x1 − a′1 x′1 ]. Osservazione 6.3 In P 2 (V) la parte diretta del teorema di Desargues: se due triangoli sono prospettivi da un punto, allora sono prospettivi da una retta e la parte inversa: se due triangoli sono prospettivi da una retta, allora sono prospettivi da un punto, sono duali l’una dell’altra. Ed allora, per il principio di dualità (teorema 2.7), in P 2 (V) basta dimostrare solo una delle due. 2. Si ha il seguente Teorema 6.4 (di Pappo). Siano R, R′ rette distinte del piano proiettvo P 2 (V) e siano P1 , P2 , P3 punti distinti di R e P1′ , P2′ , P3′ punti distinti di R′ . Allora i punti Q1 = P2 P3′ ∩ P2′ P3 , sono allineati. Q2 = P1 P3′ , ∩P1′ P3 Q3 = P1 P2′ ∩ P1′ P2 93 6 I TEOREMI DI DESARGUES E DI PAPPO DIMOSTRAZIONE. Se P2′ = R ∩ R′ il teorema è banalmente vero. Supponiamo, allora, che sia P2′ 6= R ∩ R′ . I punti P1 , P2′ , P3 , Q2 costituiscono un riferimento proiettivo di P 2 (V) e quindi (teorema 3.7) è possibile scegliere una base (v1 , v2 , v3 ) di V in modo che sia P1 = [v1 ], P2′ = [v2 ], P3 = [v3 ], Q2 = [q2 ], con (5) q2 = v1 + v2 + v3 . Essendo P2 allineato con P1 , P3 si ha P2 = [p2 ] con (6) p2 = av1 + v3 , a ∈ K; essendo P1′ allineato con Q2 , P3 si ha P1′ = [p′1 ] con (7) p′1 = q2 + b′ v3 = v1 + v2 + v3 + b′ v3 = v1 + v2 + bv3 (b = 1 + b′ ). Essendo P3′ allineato con P1′ , P2′ e tenendo conto della (7), si ha P3′ = [p′ 3 ] con p′ 3 = p′ 1 + c′ v2 = v1 + v2 + bv3 + c′ v2 = v1 + cv2 + bv3 (c = 1 + c′ ). P3 b P2 b P1 b Q1 Q3 Q2 b b b P1′ P2′ P3′ Per la (5) risulta p′ 3 = v1 + cv2 + b(q2 − v1 − v2 ) = (1 − b)v1 + (c − b)v2 + bq2 6 I TEOREMI DI DESARGUES E DI PAPPO 94 e poiché P3′ è allineato con P1 , Q2 deve essere c = b e quindi (8) p′ 3 = v1 + bv2 + bv3 . Essendo Q1 allineato con P2 , P3′ e tenendo conto delle (6) e (8), si ha Q1 = [q1 ] con q1 = p2 + dp′ 3 = av1 + v3 + d(v1 + bv2 + bv3 ) = (a + d)v1 + dbv2 + (1 + db)v3 e poiché Q1 è allineato con P2′ , P3 , deve essere d = −a e quindi (9) q1 = −abv2 + (1 − ab)v3 . Essendo Q3 allineato con P1′ , P2 e tenendo conto delle (6) e (7), si ha Q3 = [q3 ] con q3 = p′ 1 + mp2 = v1 + v2 + bv3 + m(av1 + v3 ) = (1 + ma)v1 + v2 + (b + m)v3 e poiché Q3 è allineato con P1 , P2 , deve essere m = −b; quindi (10) q3 = (1 − ab)v1 + v2 . Dalle (5), (9) e (10) segue che q1 + (ab − 1)q2 + q3 = 0 e perciò Q1 , Q2 , Q3 sono allineati. Diamo un’altra dimostrazione del teorema di Pappo usando un risultato nello spazio affine. Teorema 6.5 (Pappo affine). Siano R, R′ rette distinte del piano affine A2 e siano P1 , P2 , P3 punti distinti di R e P1′ , P2′ , P3′ punti distinti di R′ , nessuno dei quali comune ad R, R′ . Se P1 P2′ è parallela a P1′ P2 e P2 P3′ è parallela a P2′ P3 allora P1 P3′ e P1′ P3 sono parallele. DIMOSTRAZIONE. Nel caso che R, R′ non siano parallele diciamo O il loro punto comune. 95 6 I TEOREMI DI DESARGUES E DI PAPPO P3 b P2 b P1 b O b b b P3′ P2′ P1′ Per il teorema di Talete si ha: OP2 = hOP1 OP3 = kOP2 OP1′ = hOP2′ OP2′ = kOP3′ dove 0 6= h, k ∈ K . Segue: OP3 = kOP2 = khOP1 OP1′ = hOP2′ = hkOP3′ e quindi P3 P1′ = hkP1 P3′ , cioè P3 P1′ è parallela a P1 P3′ . Se R, R′ sono parallele allora P1 P2 P1′ P2′ e P2 P3 P2′ P3′ sono parallelogrammi e quindi anche P1 P3 P1′ P3′ ; segue la tesi. 2a DIMOSTRAZIONE del Teorema di Pappo. Consideriamo la retta Q1 Q3 = S ; P(V) − S è uno spazio affine in cui P2 P3′ è parallela a P2′ P3 e P1 P2′ è parallela a P1′ P2 . Per il teorema di Pappo affine risulta P1 P3′ parallela a P3 P1′ , cioè P1 P3′ ∩ P3 P1′ ∈ S . Per il principio di dualità (teorema 2.7) si ha il seguente teorema, duale di quello di Pappo. Teorema 6.6 Siano P, P ′ due punti distinti del piano proiettivo e siano R1 , R2 , R3 rette distinte passanti per P e R′ 1 , R′ 2 , R′ 3 rette distinte passanti per P ′ . Le rette S1 = R2 ∩R′ 3 +R′ 2 ∩R3 , sono concorrenti. S2 = R1 ∩R′ 3 +R′ 1 ∩R3 , S3 = R1 ∩R′ 2 +R′ 1 ∩R2 96 7 BIRAPPORTI P′ P R2 S3 R′3 S2 R′2 R3 S1 R′1 R1 7. Birapporti. Quaterne armoniche. Involuzioni sulla retta. 1. Sia L una retta di P(V) con V spazio vettoriale su un campo di caratteristica 6= 2. Definizione 7.1 Se P1 , P2 , P3 , P4 sono punti di L, con P1 , P2 , P3 distinti, P4 6= P1 , e (x1 , x2 ) sono coordinate proiettive omogenee di P4 nel riferimento x1 proiettivo (P1 , P2 , P3 ), l’ascissa proiettiva non omogenea x = di P4 nel x2 riferimento proiettivo (P1 , P2 , P3 ) si chiama birapporto dei punti P1 , P2 , P3 , P4 , in quest’ordine, e si denota (P1 P2 P3 P4 ). Osservazione 7.2 Il birapporto di 4 punti è invariante per proiettività. Segue subito dall’esempio 4.14. Nel sottospazio di V che definisce L esistono due vettori u1 , u2 tali che P1 = [u1 ], P2 = [u2 ], P3 = [u1 + u2 ] (teorema 3.7). Ed allora (P1 P2 P3 P4 ) = x se e solo se P4 = [xu1 + u2 ] da cui il teorema seguente. Teorema 7.3 Siano P1 , P2 , P3 punti distinti di una retta proiettiva L. Per ogni elemento k ∈ K esiste uno ed un solo punto P di L distinto da P1 tale che (P1 P2 P3 P ) = k . 97 7 BIRAPPORTI In particolare risulta (P1 P2 P3 P ) = 0 ⇐⇒ P = P2 (P1 P2 P3 P ) = 1 ⇐⇒ P = P3 . Da ciò segue il seguente Corollario 7.4 I punti P1 , P2 , P3 , P4 della retta proiettiva L sono distinti se e solo se il birapporto (P1 P2 P3 P4 ) è distinto da 0 e da 1. Teorema 7.5 Sia (E1 , E2 , E) un riferimento proiettivo su una retta proiettiva L e siano Pi = (yi, zi ) i = 1, 2, 3, 4, punti di L, con P1 , P2 , P3 distinti e P4 6= P1 . Si ha y1 z1 y2 z2 y3 z3 y4 z4 (P1 P2 P3 P4 ) = y2 z2 . y z 1 1 y4 z4 y3 z3 DIMOSTRAZIONE. Esiste una base (u1 , u2 ) dello spazio vettoriale L che definisce L in modo che (teorema 3.7) P1 = [u1 ], P2 = [u2 ], P3 = [u1 + u2 ], e si ha (P1 P2 P3 P4 ) = P4 = [x1 u1 + x2 u2 ] x1 . x2 Essendo Pi = (yi, zi ), esiste una base (e1 , e2 ) di L tale che E1 = [e1 ], ed allora si ha E2 = [e2 ], E = [e1 + e2 ], Pi = [yi e1 + zi e2 ] [y1 e1 + z1 e2 ] = [u1 ], [y2 e1 + z2 e2 ] = [u2 ], [y3 e1 + z3 e2 ] = [u1 + u2 ], [y4 e1 + z4 e2 ] = [x1 u1 + x2 u2 ]. Poiché e1 = au1 + bu2 , e2 = cu1 + du2 con ad − bc 6= 0, risulta yie1 + zi e2 = yi (au1 + bu2 ) + zi (cu1 + du2 ) = (ayi + czi )u1 + (byi + dzi )u2 , i = 1, 2, 3, 4 98 7 BIRAPPORTI e quindi by1 + dz1 ay2 + cz2 ay3 + cz3 ay4 + cz4 by4 + dz4 La matrice dei coefficienti delle prime 0 y1 y2 0 y3 −y3 =0 =0 = by3 + dz3 x1 = . x2 tre equazioni in a, b, c, d è 0 z1 z2 0 . z3 −z3 Essa ha caratteristica 3. Infatti, il suo minore y2 z2 y3 z3 è non nullo perché P2 6= P3 . I due minori 0 y1 0 y2 z2 y2 0 z2 = −y1 y z 3 3 y3 −y3 z3 d’ordine 3 che lo contengono sono 0 0 z1 y2 z2 y2 z2 0 = z1 y z 3 3 y3 z3 −z3 ed uno di essi è non nullo perché uno dei due elementi y1 , z1 è non nullo. Risolvendo il sistema si trova che è una soluzione non nulla y1 z1 y2 z2 y1 z1 y2 z2 , a = −z2 , b = −z1 , c = y2 , d = y1 y3 z3 y3 z3 y3 z3 y3 z3 ed allora risulta y ay4 + cz4 = −z2 y4 1 y3 y by4 + dz4 = −z1 y4 2 y3 da cui il teorema. y1 z1 + y z 2 4 y3 z3 y z2 + y1 z4 2 z3 y3 z1 y1 = z3 y3 z2 y2 = z3 y3 z1 y2 z3 y4 z2 y1 z3 y4 z2 z4 z1 z4 Corollario 7.6 Se P1 , P2 , P3 , P4 sono come nel teorema 7.5 e xi è l’ascissa proiettiva non omogenea di Pi nel riferimento proiettivo (E1 , E2 , E), si ha (P1 P2 P3 P4 ) = (x1 − x3 )(x2 − x4 ) . (x1 − x4 )(x2 − x3 ) 99 7 BIRAPPORTI Corollario 7.7 Siano P1 , P2 , P3 , P4 punti distinti di una retta proiettiva e sia (P1 P2 P3 P4 ) = k . Allora: 1) Il birapporto non cambia se si scambiano tra loro due punti e contemporaneamente si scambiano gli altri due; 2) Il birapporto cambia nel suo inverso 1/k se si scambiano tra loro i primi due punti o gli ultimi due; 3) Il birapporto cambia in 1 − k se si scambiano tra loro il primo punto col quarto o il secondo col terzo. DIMOSTRAZIONE. È una immediata verifica, utilizzando il teorema 7.5. Fissati su R quattro punti distinti P1 , P2 , P3 , P4 , per ogni loro permutazione si ottiene un birapporto e quindi se ne ottengono 24. Se (P1 P2 P3 P4 ) = k , per il corollario 7.7 i 24 birapporti sono (P1 P2 P3 P4 ) (P1 P2 P4 P3 ) (P1 P3 P2 P4 ) (P1 P3 P4 P2 ) (P1 P4 P2 P3 ) (P1 P4 P3 P2 ) = (P2 P1 P4 P3 ) = (P3 P4 P1 P2 ) = (P4 P3 P2 P1 ) = k 1 = (P2 P1 P3 P4 ) = (P4 P3 P1 P2 ) = (P3 P4 P2 P1 ) = k = (P3 P1 P4 P2 ) = (P2 P4 P1 P3 ) = (P4 P2 P3 P1 ) = 1 − k 1 = (P3 P1 P2 P4 ) = (P4 P2 P1 P3 ) = (P2 P4 P3 P1 ) = 1−k k−1 = (P4 P1 P3 P2 ) = (P2 P3 P1 P4 ) = (P3 P2 P4 P1 ) = k k . = (P4 P1 P2 P3 ) = (P3 P2 P1 P4 ) = (P2 P3 P4 P1 ) = k−1 Osservazione 7.8 Se i punti P1 , P2 , P3 , P4 di R sono distinti e (P1 P2 P3 P4 ) = k , allora k 6= 0, 1 (corollario 7.4) ed i birapporti che con essi si ottengono sono gli elementi dell’insieme 1 1 k−1 k Hk = k, , 1 − k, . , , k 1−k k k−1 Imponendo in tutti i modi che due elementi di Hk coincidano e tenendo conto del fatto che k 6= 0, 1, si trova che essi sono tutti distinti per k 6= −1, 1 , 2 2, ε1 , ε2 , dove ε1 e ε2 sono le eventuali radici in K del polinomio t2 − t + 1 ∈ K[t]. 100 7 BIRAPPORTI Pur essendo il birapporto di quattro punti un elemento significativo, in certe occasioni non è adatto in quanto dipende dall’ordine in cui i punti vengono considerati. Un elemento che non dipende dall’ordine dei punti è j(k) = (k 2 − k + 1)3 . k 2 (k − 1)2 Si ha infatti il Lemma 7.9 Sia k ∈ K , k 6= 0, 1, e sia 1 k−1 k 1 . , , Hk = k, , 1 − k, k 1−k k k−1 La funzione razionale j(t) = (t2 − t + 1)3 ∈ K(t) t2 (t − 1)2 è tale che se, k ′ ∈ K , risulta j(k ′ ) = j(k) se e solo se k ′ ∈ Hk . DIMOSTRAZIONE. Si verifica, senza difficoltà, che 1 j = j(t) = j(1 − t) t e quindi Poiché 1 1 j(k) = j = j(1 − k) = j . k 1−k k−1 1 =1− , k k 1 k−1 =j = j(k) j k k si ha e quindi anche j k k−1 =j k−1 k = j(k). Quindi, per ogni k ′ ∈ Hk risulta j(k ′ ) = j(k). Sia ora k ′ ∈ K tale che j(k ′ ) = (k ′2 − k ′ + 1)3 = j(k). k ′2 (k ′ − 1)2 101 7 BIRAPPORTI Allora k ′ è radice del polinomio f (t) = (t2 − t + 1)3 − j(k)t2 (t − 1)2 . Tutti gli elementi di Hk sono radici di f (t) ed allora: 1) Se k 6= −1, 21 , 2, ε1, ε2 , gli elementi di Hk sono tutti distinti (osservazione 7.8); essendo essi di numero uguale al grado di f (t), k ′ deve essere uno di essi, cioè k ′ ∈ Hk . 2) Se k = −1, 12 , 2, poiché 1 27 j(−1) = j = j(2) = , 2 4 il polinomio f (t) diviene f (t) = (t2 − t + 1)3 − Si ha H−1 = H 1 = H2 = 2 27 2 t (t − 1)2 . 4 1 −1, , 2 2 e si verifica che −1, 12 , 2 sono radici doppie3 del polinomio f (t) e quindi 2 1 2 (t − 2)2 f (t) = (t + 1) t − 2 Esse costituiscono le 6 radici di f (t), quindi k ′ è una di esse e perciò k ′ ∈ Hk . 3) Se k ′ = ε1 , ε2 si ha j(k) = 0 e quindi il polinomio f (t) diviene f (t) = (t2 − t + 1)3 = (t − ε1 )3 (t − ε2 )3 . Ed allora k ′ = ε1 oppure k ′ = ε2 . Essendo ε1 + ε2 = 1, ε1 ε2 = 1, in quanto ε1 , ε2 sono radici di t2 − t + 1, si verifica subito che Hε1 = Hε2 = {ε1 , ε2 } e perciò anche in questo caso k ′ ∈ Hk . Definizione 7.10 Se P1 , P2 , P3 , P4 sono quattro punti distinti di una retta proiettiva e (P1 P2 P3 P4 ) = k , l’elemento j(k), che non dipende dall’ordine in cui i quattro punti sono considerati, si chiama modulo della quaterna {P1 , P2 , P3 , P4 } e si denota j(P1 , P2 , P3 , P4 ). 3 Che siano radici doppie per f (t) segue osservando che sono anche radici del polinomio derivato primo f ′ (t) di f (t) ma non sono radici del polinomio derivato secondo f ′′ (t) (capitolo V, teorema 1.5). 102 7 BIRAPPORTI Siano R1 , R2 , R3 , R4 rette di un fascio Γ di centro il punto U , con R1 , R2 , R3 distinte e R4 6= R1 . Sia S una retta appartenente al piano di Γ non passante per U e sia Pi = Ri ∩ +S, i = 1, 2, 3, 4. U P1 S S ′ P1′ R1 P2 P2′ R2 P3 P4 P4′ P3′ R3 R4 I punti P1 , P2 , P3 sono distinti e P4 6= P1 . Il birapporto (P1 P2 P3 P4 ) non varia al variare della retta S , purché non passante per U . Infatti, se S ′ è un’altra retta non passante per U , i punti Pi′ = Ri ∩ S ′ , i = 1, 2, 3, 4, sono i corrispondenti dei punti P1 , P2 , P3 , P4 nella proiezione di S su S ′ da U , che è una proiettività (esempio 4.3) e quindi (osservazione 7.2) si ha (P1 P2 P3 P4 ) = (P1′ P2′ P3′ P4′ ). Il birapporto dei punti P1 , P2 , P3 , P4 , che non dipende dalla retta S , è invariante per proiettività e si può assumere come birapporto delle rette R1 , R2 , R3 , R4 ; diamo, perciò la seguente Definizione 7.11 Si chiama birapporto delle rette R1 , R2 , R3 , R4 del fascio Γ, in quest’ordine, e si denota (R1 R2 R3 R4 ), il birapporto dei punti P1 , P2 , P3 , P4 loro intersezione con una retta S non appartenente a Γ. E, se le rette sono distinte, il modulo della quaterna di punti {P1 , P2 , P3 , P4 } si chiama modulo della quaterna {R1 , R2 , R3 , R4 } e si denota j(R1 R2 R3 R4 ). 2. I punti diagonali di un quadrangolo completo, in un piano proiettivo P 2 (V), sono i punti intersezione delle coppie di lati opposti. 103 7 BIRAPPORTI Lemma 7.12 I punti diagonali di un quadrangolo completo non sono allineati. DIMOSTRAZIONE. I vertici A1 , A2 , A3 , A4 del quadrangolo costituiscono un riferimento proiettivo in P 2 (V) B1 B3 A1 A2 B2 A4 A3 e quindi (teorema 3.7) esiste una base (u1 , u2 , u3 ) di V tale che Ai = [ui ], u4 = u1 + u2 + u3 , i = 1, 2, 3, 4. Da cui seguono le (1) u1 + u2 = u4 − u3 , (2) u1 + u3 = u4 − u2 , (3) u2 + u3 = u4 − u1 . Il punto [u1 + u2 ] appartiene alla retta A1 A2 e la (1) esprime che esso appartiene alla retta A3 A4 e quindi è il punto diagonale B3 = A1 A2 ∩ A3 A4 . Similmente, dalle (2) e (3) segue che [u1 + u3 ] e [u2 + u3 ] sono i punti diagonali B2 = A1 A3 ∩ A2 A4 B1 = A2 A3 ∩ A1 A4 . 104 7 BIRAPPORTI Per dimostrare che B1 , B2 , B3 non sono allineati basta dimostrare che i vettori u1 + u2 , u1 + u3 , u2 + u3 sono linearmente indipendenti. Sia a1 (u2 + u3 ) + a2 (u1 + u3 ) + a3 (u1 + u2 ) = 0; allora (a2 + a3 )u1 + (a1 + a3 )u2 + (a1 + a2 )u3 = 0 e poiché u1 , u2 , u3 sono linearmente indipendenti, deve essere a2 + a3 = a1 + a3 = a1 + a2 = 0. Essendo il determinante 0 1 1 1 0 1 = 2 1 1 0 non nullo, perché la caratteristica di K è 6= 2, deve essere a1 = a2 = a3 = 0 e quindi i punti B1 , B2 , B3 non sono allineati. Osservazione 7.13 Un quadrilatero completo nel piano proiettivo è la figura duale di un quadrangolo completo. Le congiungenti coppie di vertici opposti sono le rette diagonali del quadrilatero. Dal lemma 7.12, per il principio di dualità (teorema 2.7) segue che: Le rette diagonali di un quadrilatero completo non sono concorrenti. Definizione 7.14 Si dice che 4 punti distinti allineati P1 , P2 , P3 , P4 costituiscono una quaterna armonica se e solo se esiste un quadrangolo completo di cui due lati opposti passano per P1 , altri due lati opposti passano per P2 ed i rimanenti lati opposti passano uno per P3 ed uno per P4 . Assegnati 3 punti distinti P1 , P2 , P3 , su una retta proiettiva R, è possibile costruire un punto P4 in modo che la quaterna P1 , P2 , P3 , P4 sia armonica. Considerate due rette R1 , R2 passanti per P1 , distinte tra loro e distinte da R, sia A1 6= P1 un punto di R1 e siano A2 = R2 ∩ P3 A1 , A3 = R2 ∩ P2 A1 , A4 = R1 ∩ P2 A2 . Il punto P4 = R ∩ A3 A4 è tale che P1 , P2 , P3 , P4 è una quaterna armonica. Tale costruzione coinvolge scelte arbitrarie di rette e punti, tuttavia il punto P4 non dipende da tali scelte, per il teorema seguente. 105 7 BIRAPPORTI A3 A2 A4 P1 P4 A′4 A1 P2 P3 A′1 A′2 A′3 Teorema 7.15 Siano P1 , P2 , P3 punti distinti di una retta proiettiva R. Vi è uno ed un solo punto P4 di R tale che P1 , P2 , P3 , P4 sia una quaterna armonica. DIMOSTRAZIONE. Siano A1 A2 A3 A4 e A′1 A′2 A′3 A′4 due quadrangoli costruiti col procedimento sopra descritto per la determinazione di un punto P4 in modo da costituire con P1 , P2 , P3 una quaterna armonica. Si deve dimostrare che le rette A3 A4 e A′3 A′4 si intersecano su R. I triangoli A1 A2 A3 e A′1 A′2 A′3 sono prospettivi da R e quindi sono prospettivi da un punto O (teorema di Desargues), cioè le rette A1 A′1 , A2 A′2 , A3 A′3 si intersecano in O . I triangoli A1 A2 A4 e A′1 A′2 A′4 sono prospettivi da R e quindi sono prospettivi da un punto; tale punto è quello in cui si intersecano le rette A1 A′1 , A2 A′2 , cioè O . Ma allora i triangoli A1 A3 A4 e A′1 A′3 A′4 sono prospettivi da O e perciò sono prospettivi da una retta (teorema di Desargues). Poiché A1 A3 ∩ A′1 A′3 = P2 A1 A4 ∩ A′1 A′4 = P1 , le rette A3 A4 e A′3 A′4 si intersecano sulla retta P1 P2 = R. 106 7 BIRAPPORTI Teorema 7.16 I punti P1 , P2 , P3 , P4 di una retta proiettiva costituiscono una quaterna armonica se e solo se (P1 P2 P3 P4 ) = −1. DIMOSTRAZIONE. Supponiamo che i punti P1 , P2 , P3 , P4 costituiscano una quaterna armonica e sia A1 A2 A3 A4 il quadrangolo che la definisce come nella precedente figura. Sia S = A1 A2 ∩ A3 A4 . I punti P1 , P2 , P3 , P4 sono rispettivamente i corrispondenti dei punti A2 , A1 , P3 , S nella proiezione π della retta A1 P3 da A3 sulla retta P1 P2 , mentre i punti P2 , P1 , P3 , P4 sono rispettivamente i corrispondenti dei punti A2 , A1 , P3 , S nella proiezione σ della retta A1 P3 da A4 . Le proiezioni π, σ sono proiettività (esempio 4.3) e quindi σπ −1 è una proiettività (teorema 4.11). Poiché P1 , P2 , P3 , P4 sono i corrispondenti di P2 , P1 , P3 , P4 nella proiettività σπ −1 si ha (osservazione 7.2) (P1 P2 P3 P4 ) = (P2 P1 P3 P4 ). Ed allora, se (P1 P2 P3 P4 ) = k , per il corollario 7.7 deve essere k = 1/k , ossia k 2 = 1. Poiché i punti Pi sono distinti non può essere k = 1 (corollario 7.4) e perciò k = −1. Viceversa, se (P1 P2 P3 P4 ) = −1 e P4′ è il punto tale che P1 , P2 , P3 , P4′ è una quaterna armonica, per la prima parte del teorema deve essere (P1 P2 P3 P4′ ) = −1. Per il teorema 7.3 è, allora, P4′ = P4 . 3. Sia R una retta proiettiva. Definizione 7.17 Si dice involuzione su R una proiettività non identica ω di R tale che ω 2 = I , dove I è la proiettività identica. Sia ω un’involuzione su R. Se A è un punto di R e B = ω(A) si ha ω(B) = A. Infatti, A = ω 2 (A) = ω(ω(A)) = ω(B). Scelto su R un riferimento proiettivo, una proiettività ω di R di equazioni ′ ρx1 = a11 x1 + a12 x2 ρx′2 = a21 x1 + a22 x2 è un’involuzione se e solo se a22 = −a11 . Infatti, sia a11 a12 M= ; a21 a22 ω è un’involuzione se e solo se M 2 = kI con 0 6= k ∈ K ed I la matrice identica, cioè se e solo se a211 + a12 a21 = a21 a12 + a222 , a11 a12 + a12 a22 = a21 a11 + a22 a21 = 0. 107 7 BIRAPPORTI La prima relazione è soddisfatta se e solo se a22 = ±a11 . Se a22 = a11 6= 0, le altre due sono soddisfatte se e solo se a12 = a21 = 0, cioè ω = I . Allora ω è un’involuzione se e solo se a22 = −a11 . Le equazioni di un’involuzione su R sono ′ ρx1 = a11 x1 + a12 x2 . (4) ρx′2 = a21 x1 − a11 x2 In coordinate non omogenee x= x1 , x2 x′ = x′1 , x′2 l’involuzione ha equazione x′ = a11 x + a12 a21 x − a11 od anche a21 xx′ − a11 (x + x′ ) − a12 = 0. Lemma 7.18 Se il campo K è algebricamente chiuso, una involuzione su una retta proiettiva R ha due punti uniti distinti. DIMOSTRAZIONE. Siano le (4) le equazioni dell’involuzione ω . Essa è indotta dall’ automorfismo f che ha come matrice a11 a12 a21 −a11 e quindi il polinomio caratteristico di f è x − a11 −a12 = x2 − (a211 + a21 a12 ). ∆(x) = −a21 x + a11 Poiché a211 + a21 a12 6= 0, ∆(x) ha 2 radici distinte in K , quindi f ha due autospazi distinti di dimensione 1 e perciò ω ha due punti uniti distinti. Lemma 7.19 Siano P1 , P2 , P3 , P4 punti di una retta proiettiva R e P1′ , P2′ , P3′ , P4′ punti di una retta proiettiva R′ tali che (P1 P2 P3 P4 ) = (P1′ P2′ P3′ P4′ ). Esiste una ed una sola proiettività ω : R → R′ tale che ω(Pi) = Pi′ , i = 1, 2, 3, 4. 108 7 BIRAPPORTI DIMOSTRAZIONE. I punti P1 , P2 , P3 sono distinti e P4 6= P1 e, similmente, i punti P1′ , P2′ , P3′ sono distinti e P4′ 6= P1′ . Per il teorema 4.6, esiste una ed una sola proiettività ω : R → R′ tale che ω(Pi) = Pi′, per i = 1, 2, 3. Sia Q′ = ω(P4); essendo il birapporto invariante per proiettività (osservazione 7.2) si ha (P1 P2 P3 P4 ) = (P1′ P2′ P3′ Q′ ) = (P1′ P2′ P3′ P4′ ) e quindi, per il teorema 7.3, si ha Q′ = P4′ . Teorema 7.20 Se U, V sono punti uniti di un’involuzione ω su una retta proiettiva R e P, Q sono punti corrispondenti uno dell’altro in ω , allora U, V, P, Q è una quaterna armonica. Viceversa, se U, V, P, Q è una quaterna armonica di punti di R, esiste una ed una sola involuzione ω su R per la quale U, V sono i punti uniti e P, Q sono corrispondenti uno dell’altro. DIMOSTRAZIONE. Se (UV P Q) = k , si ha (UV QP ) = 1/k (corollario 7.7). D’altra parte, essendo il birapporto invariante per proiettività (osservazione 7.2), si ha (UV QP ) = k e quindi deve essere k = 1/k , ossia k = ±1. Deve essere k = −1 in quanto per k = 1 si ha Q = P = ω(P ) e ciò è assurdo perché ω non è la proiettività identica. Per il teorema 7.16, U, V, P, Q è una quaterna armonica. Viceversa, sia U, V, P, Q una quaterna armonica. Si ha (UV P Q) = −1 per il teorema 7.16 e (UV QP ) = −1 per il corollario 7.7. Per il lemma 7.19 esiste una ed una sola proiettività ω che trasforma U, V, P, Q rispettivamente in U, V, Q, P . Risulta ω 2 (U) = U, ω 2 (V ) = V, ω 2 (P ) = ω(ω(P )) = ω(Q) = P e quindi ω 2 ha tre punti uniti distinti; ne segue che ω 2 = I (corollario 4.8) e perciò ω è un’involuzione. CAPITOLO V IPERSUPERFICI ALGEBRICHE 1. Polinomi derivati. 1. Sia A un dominio d’integrità fattoriale e sia K il suo campo delle frazioni che supporremo sempre di caratteristica 0. Sia A[x] l’anello dei polinomi nell’indeterminata x a coefficienti in A. Se F = n X i=0 il polinomio ′ F = ai xi ∈ A[x], n X iai xi−1 i=1 è il derivato di F . Risulta F ′ = 0 se e solo se F è costante. Teorema 1.1 Se F, G ∈ A[x] risulta: 1) (F + G)′ = F ′ + G′ ; 2) (aF )′ = aF ′ , se a ∈ A; 3) (F G)′ = F ′ G + F G′ ; 4) (F k )′ = kF k−1F ′ per ogni intero k > 0. DIMOSTRAZIONE. 1) Sia F = n X i ai x , G= i=0 m X bj xj . j=0 Uno dei due interi m, n non supera l’altro; supponiamo che sia n ≤ m. Allora F +G= n X i (ai + bi )x + i=0 m X bj xj j=n+1 e quindi ′ (F +G) = n X i=1 i−1 i(ai +bi )x + m X j=n+1 j−1 jbj x = n X i=1 i−1 iai x + m X j=1 jbj xj−1 = F ′ +G′ 110 1 POLINOMI DERIVATI 2) È immediata. 3) Il coefficiente di xi+j nel prodotto F G è (a0 bi+j + a1 bi+j−1 + · · · + ai+j b0 )xi+j (ah = 0 se h > n e bk = 0 se k > m) e quindi i coefficienti di xi+j−1 in (F G)′ , in F ′ G e in F G′ sono rispettivamente γi+j = (i + j)(a0 bi+j + a1 bi+j−1 + · · · + ai+j b0 ), αi+j = a1 bi+j−1 + 2a2 bi+j−2 + · · · + (i + j)ai+j b0 , βi+j = (i + j)a0 bi+j + (i + j − 1)a1 bi+j−1 + · · · + ai+j−1 b1 . Si verifica subito che γi+j = αi+j + βi+j . 4) È vera per k ≤ 2; per k = 1 banalmente, per k = 2 in quanto (F ) = F F ′ + F ′ F = 2F F ′ . Sia k > 2 e procediamo per induzione su k , supponendo che la 4) sia vera per ogni intero h < k . Allora 2 ′ (F k )′ = (F k−1 F )′ = (F k−1 )′ F + F k−1F ′ = ((k − 1)F k−2F ′ )F + F k−1 F ′ = (k − 1)F (k−1) F ′ + F k−1 F ′ = kF k−1 F ′ . Sia t un’altra indeterminata e sia Q(t) un polinomio in t a coefficienti in A[x]. Denotando con (F (Q(t)))′ il polinomio derivato del polinomio F (Q(t)) ∈ A[x, t] rispetto a t si ha il Teorema 1.2 (F (Q(t)))′ = F ′ (Q(t))Q′ (t). P DIMOSTRAZIONE. Se F (x) = ni=0 ai xi , per il teorema 1.1 si ha !′ n n X X ′ i (F (Q(t))) = ai Q (t) = ai (Qi (t))′ = i=0 n X i=1 i−1 iai Q i=1 ′ ′ (t)Q (t) = n X iai Q i=1 ′ = F (Q(t))Q (t). i−1 ! (t) Q′ (t) Per ogni intero s ≥ 0 risulta definito il derivato s-mo o di ordine s, F (s) , di F ponendo F (0) = F, F (s) = (F (s−1) )′ (s > 0). Se F ha grado n risulta F (s) = 0 per s > n. Il derivato di ordine 2 di F si denota anche F ′′ . 111 1 POLINOMI DERIVATI Teorema 1.3 Sia F (x) ∈ K[x] di grado n. Se h ∈ K , si ha n X F (i) (h) (x − h)i . (1) F (x) = i! i=0 DIMOSTRAZIONE. Sia F (x + h) = n X bi xi ; i=0 allora F (i) (x + h) = i!bi + xG(x), G(x) ∈ A[x] e quindi, per x = 0 si ha F (i) (h) = i!bi . Ne segue che F (x + h) = n X F (i) (h) i=0 i! xi , da cui, sostituendo x con x − h, si ottiene la (1). La (1) è la formula di Taylor di F (x) di punto iniziale h; nel caso particolare h = 0 essa diviene n X F (i) (0) i F (x) = x, i! i=0 che è la formula di Mac Laurin di F (x). Se ϕ è una funzione razionale in x, cioè un elemento del campo K(x) delle frazioni di K[x], si può scrivere ϕ = F/G con F, G ∈ K[x] e G 6= 0. La funzione razionale F ′ G − F G′ G2 non dipende dalla particolare coppia di polinomi F, G tali che ϕ = F/G. Basta dimostrarlo per ϕ 6= 0. Se F0 , G0 ∈ K[x] sono tali che ϕ = F0 /G0 e primi tra loro, essendo F G0 = F0 G, ogni fattore di F0 divide F e quindi F = QF0 con 0 6= Q ∈ K[x], da cui QF0 G0 = F0 G e quindi G = QG0 . Allora si ha (QF0 )′ (QG0 ) − (QF0 )(QG0 )′ F ′ G − F G′ = G2 Q20 G20 Q′ F0 QG0 + Q2 F0′ G0 − QF0 Q′ G0 − Q2 F0 G′0 = Q2 G20 F0′ G0 − F0 G′0 . = G20 (2) ϕ′ = 112 1 POLINOMI DERIVATI La funzione razionale ϕ′ espresso mediante la (2) è la derivata di ϕ. In modo ovvio, per ogni intero s ≥ 0 si definisce la derivata di ordine s o derivata s-ma ϕ(s) di ϕ, ponendo ϕ(s) = (ϕ(s−1) )′ ϕ(0) = ϕ, (s > 0). Osservazione 1.4 È di immediata verifica che i teoremi 1.1 e 1.2 sussistono anche se si sostituiscono i polinomi F e G con funzioni razionali. Teorema 1.5 Un elemento a ∈ K è radice di molteplicità s ≥ 1 per il polinomio F (x) ∈ K[x] se e solo se (3) F (a) = F ′ (a) = · · · = F (s−1) (a) = 0, F (s) (a) 6= 0. DIMOSTRAZIONE. Se a è radice di molteplicità s ≥ 1 per F (x) si ha F (x) = (x − a)s G(x), G(x) ∈ K[x], G(a) 6= 0. Se s = 1 le (3) sono vere perché F ′ (x) = G(x) + (x − a)G′ (x) e quindi F ′ (a) = G(a) 6= 0. Sia s > 1 e procediamo per induzione su s, supponendo che le (3) sussistano per ogni polinomio ed ogni sua radice di molteplicità s − 1. Si ha F ′ (x) = s(x − a)(s−1) G(x) + (x − a)s G′ (x) = (x − a)(s−1) G1 (x), dove G1 (x) = sG(x) + (x − a)G′ (x). Poiché G1 (a) = sG(a) 6= 0, a è radice di molteplicità s − 1 per il polinomio F ′ (x). Quindi F ′ (a) = F ′′ (a) = · · · = (F ′ )(s−2) (a) = 0, (F ′ )(s−1) (a) 6= 0 ed essendo (F ′ (x))(i) = (F (x))(i+1) si hanno le (3). Viceversa, sia a ∈ K soddisfacente le (3). La formula di Taylor di F (x) di punto iniziale a è (teorema 1.3) F (x) = (x − a)s X k≥0 1 F (s+k)(a)(x − a)k (s + k)! e quindi, essendo F (s) (a) 6= 0, a è radice di molteplicità s per F (x). 2. Sia A[x1 , ..., xr ] l’anello dei polinomi nelle indeterminate x1 , ..., xr a coefficienti in A. Se F ∈ A[x1 , ..., xr ], posto Ai = A[x1 , ..., xi−1 , xi+1 , ..., xr ], si può scrivere n X F = am xm am ∈ Ai . i , m=0 113 1 POLINOMI DERIVATI Il polinomio n X ∂F = mam xm−1 i ∂xi m=1 è il derivato parziale di F rispetto a xi . Se ϕ è un elemento del campo K(x1 , . . . , xr ) delle frazioni di K[x1 , . . . , xr ] e F, G ∈ K[x1 , . . . , xr ] sono tali che ϕ = F/G, il derivato parziale di ϕ rispetto a xi è ∂G ∂F −F G ∂ϕ ∂xi ∂xi = . 2 ∂xi G Teorema 1.6 Se F ∈ A[x1 , . . . , xr ] e Q1 (t), . . . , Qr (t) sono polinomi in una indeterminata t a coefficienti in A[x1 , . . . , xr ], risulta r X ∂F (Q1 (t), . . . , Qr (t))Q′h (t). (F (Q1 (t), . . . , Qr (t)) = ∂x h h=1 ′ DIMOSTRAZIONE. Ovviamente basta dimostrarlo nel caso in cui F è un monomio del tipo F = xi11 · · · xirr ed in tal caso è una semplice verifica. Corollario 1.7 Sia F = F (x1 , . . . , xr ) ∈ A[x1 , . . . , xr ]. Se t1 , . . . , ts sono altre indeterminate su A e xi = s X aij tj + bi , aij , bi ∈ A, j=1 G(t1 , . . . , ts ) = F s X a1j tj + b1 , . . . , j=1 per ogni 1 ≤ i ≤ s risulta r ∂G X ∂F = ∂ti ∂xh h=1 s X a1j tj + b1 , . . . , j=1 1 ≤ i ≤ r, s X arj tj + br j=1 s X j=1 arj tj + br ! ! , ahi . DIMOSTRAZIONE. Considerando F in A[t1 , . . . , ti−1 , ti+1 , . . . , ts ][x1 , . . . , xr ] e posto X Qh (ti ) = ahi ti + ahj tj + bh , 1 ≤ h ≤ r, j6=i dal teorema 1.6 segue l’asserto. 114 2 COMPLEMENTI SUI POLINOMI Osservazione 1.8 Il teorema 1.6 sussiste anche se si sostituiscono i polinomi F e Q1 , . . . , Qr rispettivamente con elementi ϕ ∈ K(x1 , . . . , xr ) e ψ1 , . . . , ψr ∈ K(t) ed il suo corollario se si sostituisce F con ϕ. Il polinomio ∂2F ∂ ∂F = ∂xj ∂xi ∂xj ∂xi è il derivato parziale di ordine 2 o del secondo ordine di F rispetto a xi , xj . In modo ovvio risultano definiti i polinomi derivati parziali di ordine s ∂sF ∂xis · · · ∂xi1 per ogni intero s > 0. Come di consueto, scriveremo ∂sF ∂xsi invece di ∂sF . ∂xi · · · ∂xi Osservazione 1.9 È di immediata verifica, e basta farla nel caso che F sia un monomio, che ∂2F ∂2F = . ∂xj ∂xi ∂xi ∂xj 2. Complementi sui polinomi. 1. Siano K ed A come nel § precedente. Teorema 2.1 Siano x1 , . . . , xr e t1 , . . . , tr indeterminate su A. Se (1) xi = r X aij tj + bi , j=1 aij , bi ∈ K, 1 ≤ i ≤ r, con la matrice (aij ) non singolare, l’applicazione ϕ : K[x1 , . . . , xr ] −→ K[t1 , . . . , tr ] definita da ϕ(F (x1 , . . . , xr )) = F r X j=1 a1j tj + b1 , . . . , r X j=1 arj tj + br ! per ogni F ∈ K[x1 , . . . , xr ] è un isomorfismo di anelli che conserva il grado dei polinomi. 115 2 COMPLEMENTI SUI POLINOMI DIMOSTRAZIONE. Per verificare che ϕ è un omomorfismo di anelli bisogna verificare che se F, G ∈ K[x1 , . . . , xr ], si ha (2) ϕ(F + G) = ϕ(F ) + ϕ(G), ϕ(F G) = ϕ(F )ϕ(G). Le (2) basta verificarle nel caso che F e G sono monomi ed in tale caso la verifica è immediata. Essendo det(aij ) 6= 0, le (1) sono invertibili e le loro inverse (3) tj = r X cjk xk + dj , k=1 1 ≤ j ≤ r, definiscono un omomorfismo ψ : K[t1 , . . . , tr ] −→ K[x1 , . . . , xr ] tale che, per ogni H ∈ K[t1 , . . . , tr ] ψ(H(t1 , . . . , tr )) = H r X c1k xk + d1 , . . . , r X crk xk + dr k=1 k=1 ! . Essendo le (3) le inverse delle (1), si ha r X j=1 aij r X k=1 cjk xk + dj ! + bi = xi e quindi P Pr r = (ψϕ)(F (x1 , . . . , xr )) = ψ F j=1 arj tj + br j=1 a1j tj + b1 , . . . , P P P P r r r r =F a ( c t + d ) + b , . . . , a ( c t + d ) + b 1j jk k j 1 rj jk k j r j=1 k=1 j=1 k=1 = F (x1 , . . . , xr ); cioè ψϕ è l’automorfismo identico di K[x1 , . . . , xr ]. Similmente ϕψ è l’automorfismo identico di K[t1 , . . . , tr ] e perciò ϕ è isomorfismo. Poiché i polinomi (1) sono lineari, il grado del polinomio ϕ(F ) non supera quello di F . Similmente quello di F = (ψϕ)(F ) = ψ(ϕ(F )) non supera quello di ϕ(F ) e perciò i gradi di F e ϕ(F ) sono uguali. 2. Un polinomio di A[x1 , . . . , xr ] è omogeneo di grado m ≥ 0 se e solo se è somma di monomi di grado m, cioè è del tipo X i1 + · · · + ir = m. ai1 ···ir xi11 · · · xirr , ai1 ···ir ∈ A, 116 2 COMPLEMENTI SUI POLINOMI I polinomi omogenei si dicono anche forme. Ogni polinomio F ∈ A[x1 , . . . , xr ] di grado m ≥ 0 si può scrivere, in uno ed un solo modo, come somma (4) F = F0 + F1 + F2 + · · · + Fm , dove il polinomio Fi , se non nullo, è omogeneo di grado i. Il polinomio Fi si dice la componente omogenea di grado i di F (anche se Fi = 0) e la (4) si dice la decomposizione di F in somma delle componenti omogenee. Lemma 2.2 Un polinomio F ∈ A[x1 , . . . , xr ] non nullo è omogeneo di grado m se e solo se nell’anello dei polinomi A[x1 , . . . , xr , t] risulta F (tx1 , . . . , txr ) = tm F (x1 , . . . , xr ). (5) DIMOSTRAZIONE. È chiaro che se F è omogeneo di grado m sussiste la (5). Viceversa, supponiamo che sussista la (5) e sia F = F0 + F1 + F2 + · · · + Fm , Fm 6= 0, la decomposizione di F in somma di componenti omogenee. Allora m m F (tx1 , · · · , txr ) = t F (x1 , . . . , xr ) = t m X Fi (x1 , . . . , xr ) i=0 Ma si ha anche F (tx1 , . . . , txr ) = m X i=0 Fi (tx1 , . . . , txr ) = m X ti Fi (x1 , . . . , xr ). i=0 Quindi deve essere m t m−1 X i=0 Fi (x1 , . . . , xr ) − tm−1 Fm−1 (x1 , . . . , xr ) − · · · − tF1 (x1 , . . . , xr ) − F0 = 0 e perciò ossia F è omogeneo. F0 = F1 = F2 = · · · = Fm−1 = 0, Teorema 2.3 (Teorema di Eulero). Se F ∈ A[x1 , . . . , xr ] è omogeneo di grado m risulta r X ∂F xi = mF. ∂x i i=1 117 2 COMPLEMENTI SUI POLINOMI DIMOSTRAZIONE. Se t è un’altra indeterminata, per il lemma 2.2, si ha la (5). Derivando rispetto a t si ottiene r X ∂F i=1 ∂xi (tx1 , . . . , txr )xi = mtm−1 F (x1 , . . . , xr ) da cui, per t = 1, segue il teorema. Lemma 2.4 Se F ∈ A[x1 , . . . , xr ] è omogeneo, allora tutti i fattori di F sono omogenei. DIMOSTRAZIONE. Sia F = f g e siano f = f0 + f1 + · · · + fm , g = g0 + g1 + · · · + gn , fm , gn 6= 0, le decomposizioni di f e g in somma di componenti omogenee. Se f e g non sono entrambi omogenei e fh e gk sono le componenti omogenee di grado minimo che non sono nulle, si ha h < m oppure k < n; quindi h + k < m + n e perciò F = f g = fh gk + · · · + fm gn non è omogeneo. Osservazione 2.5 Se nel teorema 2.1 è b1 = · · · = br = 0, l’isomorfismo ϕ trasforma polinomi omogenei in polinomi omogenei. Definizione 2.6 Se F = F (x1 , . . . , xr ) ∈ A[x1 , . . . , xr ] è omogeneo di grado m, il polinomio F∗ = F∗ (x1 , . . . , xr−1 ) = F (x1 , . . . , xr−1 , 1) di A[x1 , . . . , xr ] si dice disomogeneizzato di F rispetto a xr . Se xsr è la massima potenza di xr che divide F , il grado di F∗ è m − s. In particolare, se xr non divide F , allora F∗ ha grado uguale a quello di F . Definizione 2.7 Se f = f (x1 , . . . , xr−1 ) ∈ A[x1 , . . . , xr−1 ] ha grado m e f = f0 + f1 + f2 + · · · + fm è la decomposizione di f in somma di componenti omogenee, il polinomio omogeneo di grado m di A[x1 , . . . , xr ] m−1 f ∗ = xm f1 + xm−2 f2 + · · · + xr fm−1 + fm r f0 + xr r si dice omogeneizzato di f rispetto a xr . 118 2 COMPLEMENTI SUI POLINOMI Lemma 2.8 Si ha: 1) (F + G)∗ = F∗ + G∗ , 2) (F G)∗ = F∗ G∗ , 3) (f g)∗ = f ∗ g ∗ , 4) f = (f ∗ )∗ , 5) F = xsr (F∗ )∗ , dove xsr è la massima potenza di xr che divide F . In particolare, F = (F∗ )∗ ⇐⇒ xr non divide F . DIMOSTRAZIONE. Le 1), 4), 5) sono ovvie. 2) È immediata nel caso che F e G sono monomi. Se F è somma dei monomi F1 , . . . , Fh e G è somma dei monomi G1 , . . . , Gk , per la 1) si ha F∗ = F1∗ + · · · + Fh∗ , G∗ = G1∗ + · · · + Gk∗ , e quindi (F G)∗ = X i,j Fi Gj ∗ = X (Fi Gj )∗ = i,j X Fi∗ Gj∗ = F∗ G∗ . i,j 3) Siano f, g di gradi m, n e siano f = f0 + f1 + f2 + · · · + fm , g = g0 + g1 + g2 + · · · + gn , le loro decomposizioni in somma di componenti omogenee. Allora f g = P i,j fi gj e quindi (f g)∗ = X i,j xrm+n−i−j fi gj = X (xm−i fi )(xrn−j gj ) = f ∗ g ∗. r i,j Corollario 2.9 Sia F ∈ A[x1 , . . . , xr ] omogeneo, non divisibile per xr . Allora : 1) F è irriducibile se e solo se F∗ è irriducibile, 2) i fattori di F∗ sono i disomogeneizzati dei fattori di F ed i fattori di F sono gli omogeneizzati di quelli di F∗ . 119 2 COMPLEMENTI SUI POLINOMI DIMOSTRAZIONE. 1) Se F∗ = f g con f, g di grado positivo, per il lemma 2.8 si ha F = (F∗ )∗ = (f g)∗ = f ∗ g ∗ e quindi F non è irriducibile. Viceversa, se F = GH con G, H di grado positivo, si ha F∗ = (GH)∗ = G∗ H∗ . Nessuno dei polinomi G, H è divisibile per xr , quindi G∗ , H∗ hanno entrambi grado positivo e perciò F∗ non è irriducibile. 2) Se F = F1 F2 · · · Fh è la decomposizione in fattori irriducibili di F , per il lemma 2.8 si ha F∗ = F1∗ F2∗ · · · Fh∗ e per la 1) i polinomi Fi∗ sono irriducibili. D’altra parte, se F∗ = f1 f2 · · · fh è la decomposizione di F∗ in fattori irriducibili, si ha F = (F∗ )∗ = f1∗ f2∗ · · · fh∗ ed i polinomi fi∗ sono irriducibili, perché fi = (fi∗ )∗ . Osservazione 2.10 Ovviamente si possono considerare disomogeneizzati ed omogeneizzati di polinomi rispetto ad una qualunque delle indeterminate x1 , . . . , xr . Teorema 2.11 Se il campo K è algebricamente chiuso, ogni polinomio omogeneo F (x, y) ∈ K[x, y] nelle indeterminate x, y di grado positivo m si decompone nel prodotto di m fattori lineari omogenei in K[x, y] e la decomposizione è unica, a meno dell’ordine dei fattori e di fattori costanti. DIMOSTRAZIONE. Sia F (x, y) = m X ai xi y m−i , ai ∈ K; i=0 allora il polinomio disomogeneizzato di F rispetto a y è F∗ (x) = F (x, 1) = m X ai xi . i=0 Se am 6= 0 e b1 , . . . , bh sono le radici distinte di F∗ (x) in K e s1 , . . . , sh sono le loro rispettive molteplicità, si ha h Y F∗ (x) = am (x − bj )sj , j=1 h X sj = m j=1 e quindi (corollario 2.9) F (x, y) = am h Y j=1 sj (x − bj y) , h X j=1 sj = m. 120 3 RISULTANTE DI DUE POLINOMI Se am = 0, sia ak il coefficiente con indice massimo tale che ak 6= 0; allora F (x, y) = y m−k k X ai xi y k−i. i=0 Per quanto visto prima, il polinomio G(x, y) = posizione in fattori lineari del tipo h Y G(x, y) = ak (x − bj y)sj , j=2 Pk i=0 h X ai xi y k−i ha una decom- sj = k j=2 e quindi F (x, y) = ak y m−k h Y (x − bj y)sj , j=2 h X sj = k. j=2 L’unicità della decomposizione segue dalla fattorialità dell’anello K[x, y]. 3. Risultante di due polinomi. 1. Siano sempre A e K come nei §§ precedenti. Se F ∈ A[x] denoteremo con d0 F il suo grado. Teorema 3.1 Due polinomi F, G ∈ A[x] di grado positivo hanno un fattore non costante in comune se e solo se esistono due polinomi non nulli f, g ∈ A[x] tali che (1) F g + Gf = 0, d0 f < d0 F, d0 g < d0 G. DIMOSTRAZIONE. Se F, G hanno un fattore non costante H in comune si può scrivere F = Hf, G = −Hg, con f, g ∈ A[x], d0 f < d0 F, d0 g < d0 G e quindi F g + Gf = Hf g − Hgf = 0. Viceversa, siano f, g ∈ A[x] soddisfacenti le (1). Ogni fattore irriducibile non costante di F compare nella decomposizione in fattori irridicibili di −Gf = F g e poiché d0 f < d0 F almeno un fattore non costante di F deve essere fattore di G. 121 3 RISULTANTE DI DUE POLINOMI Siano F = n X i ai x , G= i=0 m X bj xj j=0 polinomi di A[x] di gradi n, m > 0. I polinomi non nulli f= n−1 X vh xh , h=0 g= m−1 X uk xk k=0 sono tali che F g + Gf = 0 se e solo se a0 u0 + b0 v0 = 0 a1 u0 + a0 u1 + b1 v0 + b0 v1 = 0 a2 u0 + a1 u1 + a0 u2 + b2 v0 + b1 v1 + b0 v2 = 0 (2) ··· ··· an um−1 + bm vn−1 = 0 Riguardando le (2) come equazioni nelle m + n indeterminate ui , vj si ha che esistono polinomi non nulli f, g soddisfacenti le (1) se e solo se è nullo il determinante dei coefficienti delle (2). Definizione 3.2 Il trasposto a0 a1 0 a0 .. .. . . 0 0 R(F, G) = b0 b1 0 b0 . .. .. . 0 0 a2 a1 .. . 0 b2 b1 .. . 0 . . . an . . . an−1 .. .. . . ... ... ... .. . ... 0 an .. . 0 . . . 0 0 . . . 0 .. . . . . .. . . . . an ... 0 ... 0 . .. . .. . . . bm del determinante dei coefficienti delle (2) si chiama risultante dei polinomi F, G. In virtù del teorema 3.1 e di quanto sopra osservato si ha il seguente teorema. Teorema 3.3 I polinomi F, G ∈ A[x] hanno un fattore non costante comune in A[x] se e solo se il loro risultante è nullo. 122 3 RISULTANTE DI DUE POLINOMI Esempio 3.4 Se F = n X ai xi , G = x − k, i=0 k ∈ A, e F ha grado n > 0, si ha R(F, G) = F (k). Se n = 1 è vero perché si ha a1 = a0 + a1 k = F (k). 1 a R(F, G) = 0 −k Sia n > 1 e procediamo per induzione su n, supponendo che la cosa sia vera per ogni polinomio F di grado m < n. Si ha a0 a1 . . . a a n−1 n a0 a1 . . . an−1 −k 1 . . . 0 0 −k 1 . . . . 0 . . . . n .. = an k + . .. .. .. R(F, G) = .. . . . .. .. .. . .. 0 0 ... 1 0 0 0 ... 1 0 0 ... −k 1 Se a1 = a2 = · · · = an−1 = 0, allora R(F, G) = an k n + a0 = F (k). Se vi sono indici 0 < i < n per cui ai 6= 0 e tra essi ah è quello con indice massimo, posto F1 = a0 + a1 x + . . . + ah xh , risulta R(F, G) = an k n + R(F1 , G) = an k n + F1 (k) = F (k). Teorema 3.5 Siano F, G ∈ A[x] di gradi n, m rispettivamente. Esistono due polinomi ϕ, ψ ∈ A[x] di gradi al più m − 1, n − 1 rispettivamente tali che R(F, G) = ϕF + ψG. DIMOSTRAZIONE. Consideriamo gli m + n polinomi F xF ... xm−1 F G xG ... n−1 x G = = a0 + a1 x + a2 x2 a0 x + a1 x2 = ··· = b0 + = = ··· b1 x b0 x + + b2 x2 b1 x2 + ··· + ··· + ··· + ··· 123 3 RISULTANTE DI DUE POLINOMI Siano A1 , A2 , . . . , Am+n i complementi algebrici degli elementi della prima colonna del risultante R(F, G). Moltiplicando i precedenti polinomi rispettivamente per A1 , A2 , . . . , Am+n e sommando da 1 a m + n si ottiene ! ! m+n m X X Ar xr−m−1 G = a0 A1 +b0 Am+1 +x(...)+x2 (...)+· · · Ar xr−1 F + r=1 r=m+1 Si ha a0 A1 + b0 Am+1 = R(F, G), mentre i termini (· · ·) sono tutti nulli in quanto esprimono i prodotti degli elementi di una colonna del determinante R(F, G), diversa dalla prima, per i complementi algebrici degli elementi della prima. I polinomi richiesti sono ϕ= m X r=1 r−1 Ar x , ψ= m+n X Ar xr−m−1 . r=m+1 Definizione 3.6 Il risultante di un polinomio F ∈ A[x] e del polinomio derivato F ′ di F si chiama discriminante di F . Teorema 3.7 Se il campo K di caratteristica 0 è algebricamente chiuso, un polinomio F ∈ K[x] ha le radici in K tutte semplici se e solo se il suo discriminante è non nullo. DIMOSTRAZIONE. Una radice a ∈ K di F è semplice per F se e solo se F (a) 6= 0 (teorema 1.5), cioè x − a non è fattore di F ′ . Quindi F ha radici tutte semplici se e solo se non ha fattori di grado positivo in comune con F ′ . Il teorema segue, allora, dal teorema 3.3. ′ Esempio 3.8 1) Sia F = ax2 + bx + c ∈ K[x], con a 6= 0. Il discriminante di F è c b a b 2a 0 = a(4ac − b2 ). 0 b 2a Si ritrova il risultato, ben noto, che F ha le radici tutte semplici se e solo se b2 − 4ac 6= 0. 2) Sia F = x3 + px + q ∈ K[x]. Il discriminante di F è q p 0 1 0 0 q p 0 1 p 0 3 0 0 = 4p3 + 27q 2 . 0 p 0 3 0 0 0 p 0 3 124 3 RISULTANTE DI DUE POLINOMI Quindi il polinomio F ha le radici tutte semplici se e solo se 4p3 + 27q 2 6= 0. 2. Siano F, G ∈ A[x1 , . . . , xr ] e sia Ai = A[x1 , . . . , xi−1 , xi+1 , . . . , xr ]. Definizione 3.9 Se F e G come polinomi in xi a coefficienti in Ai hanno entrambi grado positivo, il loro risultante, Rxi (F, G), che è un elemento di Ai , si chiama risultante di F, G rispetto a xi . Teorema 3.10 Siano F, G ∈ A[x1 , . . . , xr ] omogenei di rispettivi gradi n, m positivi. Se in x1 il polinomio F ha grado n ed il polinomio G ha grado m, il risultante di F, G rispetto a x1 , se non è nullo, è omogeneo di grado mn. DIMOSTRAZIONE. Siano F = n X i=0 Ai xi1 , G= m X j=0 Bj xj1 , Ai , Bj ∈ A[x2 , . . . , xr ] e sia R(x2 , . . . , xr ) il loro risultante rispetto a x1 . Sia t un’indeterminata. Poiché Ai , Bj , se non nulli, sono omogenei di gradi n−i, m−j rispettivamente, si ha n t A0 tn−1 A1 . . . An 0 0 ... 0 0 0 tn A0 . . . tAn−1 An 0 . . . 0 0 . .. .. .. . . .. .. .. .. .. . . . . . . . . 0 0 ... tAn−1 An R(tx2 , . . . , txr ) = tm B tm−1 B . . . 0 0 0 1 .. .. 0 . . tm B0 . . . . . .. .. ... 0 0 ... tBm−1 Bm Moltiplicando nel determinante la prima riga per tm , la seconda per tm−1 , . . ., la m-ma per t, la (m + 1)-ma per tn , la (m + 2)-ma per tn−1 , . . ., l’ultima per t, il determinante risulta moltiplicato per tp con p = (1 + 2 + · · · + m) + (1 + 2 + · · · + n) = m(m + 1) n(n + 1) + . 2 2 125 3 RISULTANTE DI DUE POLINOMI Quindi n+m t A0 0 .. . 0 tp R(tx2 , . . . , txr ) = n+m B0 t 0 .. . 0 tn+m−1 A1 tn+m−1 A0 .. . 0 tn+m−1 B1 tn+m−1 B0 .. . 0 . . . tm An . . . tm An−1 .. .. . . ... ... ... .. . ... 0 tm−1 An .. . tAn ... 0 ... 0 . . . tBm ... ... .. . 0 0 .. . Portando fuori segno di determinante: tn+m dalla prima colonna, tn+m−1 dalla seconda colonna, . . . , t dall’ultima, si ha tp R(tx2 , . . . , txr ) = tq R(x2 , . . . , xr ) con q = 1 + 2 + · · · + (m + n) = (m + n)(m + n + 1) = p + mn. 2 Quindi R(tx2 , . . . , txr ) = tmn R(x2 , . . . , xr ) e, per il lemma 2.2, se R(x2 , . . . , xr ) non è nullo è omogeneo di grado mn. Osservazione 3.11 Il teorema 3.10 sussiste, ovviamente, considerando una qualsiasi altra indeterminata xi invece di x1 . Esempio 3.12 Se y1 , . . . , yn , z1 , . . . , zm sono indeterminate su A e n Y F = (x − yr ), G= r=1 m Y s=1 (x − zs ) si ha (i) Rx (F, G) = n Y m Y r=1 s=1 (yr − zs ). Infatti, i polinomi F, G ∈ A[y1 , . . . , yn , z1 , . . . , zm , x] sono omogenei di rispettivi gradi n, m e quindi Rx (F, G) ∈ A[y1 , . . . , yn , z1 , . . . , zm ], che è non nullo in quanto F, G non hanno fattori di grado positivo in comune, è omogeneo di grado mn (teorema 3.10). Sostituendo in G un elemento zs con un elemento 126 3 RISULTANTE DI DUE POLINOMI yr , il polinomio G1 che si ottiene ha in comune con F il fattore x − yr e quindi Rx (F, G1) = 0 (teorema 3.3). Poiché Rx (F, G1 ) si ottiene da Rx (F, G) sostituendo zs con yr , ciò significa che Rx (F, G) è divisibile per il polinomio yr − zs . Ed allora, poiché Rx (F, G) ha grado mn ed ha gli mn fattori lineari yr − zs , si ha n Y m Y Rx (F, G) = k (yr − zs ), (ii) 0 6= k ∈ A. r=1 s=1 Scritti F e G nella forma F = n X i ai x , G= m X bj xj , (an = bm = 1) j=0 i=0 si ha che Rx (F, G) è un polinomio omogeneo di grado m nelle a e omogeneo di grado n nelle b. Sviluppando il determinante si vede subito che il termine contenente b0 al grado massimo è bn0 , mentre quello contenente a0 al grado massimo è am 0 . Si ha m Y G(yr ) = (yr − zs ), r = 1, 2, . . . , n, s=1 quindi n Y G(yr ) = r=1 e perciò (iii) n Y m Y (yr − zs ) r=1 s=1 Rx (F, G) = k n Y G(yr ). r=1 Il termine che contiene b0 al grado massimo nel secondo membro della (iii) è kbn0 e quindi deve essere k = 1. Si ha, inoltre, F (zs ) = n Y (zs − yr ), s = 1, 2, . . . , m, r=1 e quindi m Y s=1 F (zs ) = m Y n Y s=1 r=1 mn (zs − yr ) = (−1) m Y n Y s=1 r=1 (yr − zs ). 127 3 RISULTANTE DI DUE POLINOMI Ed allora (iv) m n Y m n Y Y Y mn F (zs ). Rx (F, G) = (yr − zs ) = G(yr ) = (−1) r=1 s=1 s=1 r=1 Esempio 3.13 Siano F = a0 + a1 x + a2 x2 + · · · + an xn , G = b0 + b1 x + b2 x2 + · · · + bm xm , polinomi di A[x] di gradi n, m tali che F in A abbia n radici h1 , . . . , hn e G abbia m radici k1 , . . . , km . Allora R(F, G) = n am n bm m n Y Y (hr − ks ). r=1 s=1 Infatti, si può scrivere n Y F = an (x − hr ), r=1 m Y G = bm (x − ks ) s=1 ed allora, posto F1 = n Y r=1 (x − hr ), m Y G1 = (x − ks ), s=1 per la (i) dell’esempio 3.12, si ha R(F, G) = n am n bm R(F1 , G1 ) = n am n bm n Y m Y (hr − ks ). r=1 s=1 Da questa si può dedurre l’esempio 3.4. Esempio 3.14 Siano F1 , F2 , G polinomi in A[x] di gradi positivi. Si ha R(F1 F2 , G) = R(F1 , G)R(F2 , G). Infatti, esiste un campo K0 , contenente A come sottoanello, tale che in K0 [x] i polinomi F1 , F2 , G hanno decomposizioni lineari del tipo F1 = a n Y r=1 (x − hr ), F2 = b q Y (x − hr ), r=n+1 m Y G = c (x − ks ), s=1 a, b, c ∈ A. 128 3 RISULTANTE DI DUE POLINOMI Un tale campo K0 è, ad esempio, la chiusura algebrica del campo K delle frazioni di A. Si ha (esempio 3.13) m n+q R(F1 F2 , G) = (ab) c m n m q = a c b c n+q m YY (hr − ks ) r=1 s=1 n+q n Y Y m Y (hr − ks ) r=1 r=n+1 s=1 = R(F1 , G)R(F2 , G). 3. Siano F = F (x, y) = n X ai xi y n−i, G = G(x, y) = m X bj xj y m−j , j=0 i=0 ai , bj ∈ A, forme di gradi positivi n, m nelle indeterminate x, y . Definizione 3.15 Il determinante di ordine n + m a0 a1 . . . an 0 0 a0 . . . an−1 an .. . . .. .. .. . . . . . 0 0 . . . Rx,y (F, G) = b0 b1 . . . 0 b0 . . . . .. . . .. . . 0 0 ... ... ... .. . si dice risultante delle forme F, G rispetto a x, y . an 0 0 .. . bm 0 0 .. . Osservazione 3.16 1) Se an bm 6= 0, il risultante di F, G rispetto a x, y coincide con il risultante dei polinomi disomogeneizzati di F, G rispetto a y F∗ = n X i ai x , G∗ = i=0 m X bj xj . j=0 2) Se bm 6= 0, an = · · · = an−s+1 = 0, an−s 6= 0, posto (3) s F = y F1 , F1 = n−s X i=0 ai xi y n−s−i, 4 IPERSUPERFICI ALGEBRICHE 129 si ha (4) Rx,y (F, G) = bsm Rx,y (F1 , G). Teorema 3.17 I polinomi omogenei F = F (x, y), G = G(x, y) hanno un fattore non costante in comune in A[x, y] se e solo se Rx,y (F, G) = 0. DIMOSTRAZIONE. Sia Rx,y (F, G) = 0. Se an = bm = 0, i polinomi F e G hanno in comune il fattore y . Se an bm 6= 0, Rx,y (F, G) coincide con il risultante dei polinomi F∗ , G∗ , disomogeneizzati di F, G rispetto a y . Per il teorema 3.3, F∗ e G∗ hanno un fattore non costante in comune H e, per il corollario 2.9, il suo omogeneizzato H ∗ rispetto a y è un fattore di F e G. Se bm 6= 0 e an = · · · = an−s+1 = 0, an−s 6= 0, si ha F = y s F1 , dove F1 è il polinomio (3) e si ha la (4). Deve essere Rx,y (F1 , G) = 0 e quindi, per quanto visto prima, F1 e G hanno un fattore non costante comune H , che è un fattore di F e G. Il caso bm = 0, an 6= 0 è analogo. Viceversa, sia H il fattore non costante comune a F e G. Se H è divisibile per y allora an = bm = 0 e perciò Rx,y (F, G) = 0. Altrimenti an o bm è non nullo. Se an bm 6= 0 il polinomio H∗ , disomogeneizzato di H rispetto ad y , è un fattore dei polinomi F∗ e G∗ (corollario 2.9) e quindi R(F∗ , G∗ ) = 0 per il teorema 3.3. Infine Rx,y (F, G) = 0 per l’osservazione 3.16, 1). Sia ora an = · · · = an−s+1 = 0, an−s bm 6= 0; si ha F = y s F1 , dove F1 è il polinomio (3). Allora H è fattore di F1 e si ha Rx,y (F1 , G) = 0 per il caso precedente; infine, per l’osservazione 3.16, 2), risulta Rx,y (F, G) = 0. Analogamente se an 6= 0 e bm = 0. 4. Ipersuperfici algebriche. 1. Sia K un campo, che, da ora in avanti, supporremo sempre di caratteristica 0 e algebricamente chiuso. Se F ∈ K[x1 , . . . , xr ], uno zero di F in K r è una soluzione dell’equazione F = 0, cioè una r -pla (a1 , . . . , ar ) ∈ K r in cui F si annulla. Teorema 4.1 Se F ∈ K[x1 , . . . , xr ] è un polinomio non nullo, esistono in K elementi a1 , . . . , ar tali che F (a1 , . . . , ar ) 6= 0. DIMOSTRAZIONE. Se r = 1 è vero perché F ha solo un numero finito di radici in K mentre K , essendo di caratteristica 0, possiede infiniti elementi. 130 4 IPERSUPERFICI ALGEBRICHE Sia r > 1 e procediamo per induzione su r , supponendo che il teorema sia vero per polinomi in r − 1 indeterminate. Sia F di grado positivo, altrimenti non vi è niente da dimostrare. Salvo un eventuale scambio di indici, è possibile supporre che F abbia grado positivo in x1 cosicché (1) F = n X i=0 Bi xi1 , Bi ∈ K[x2 , . . . , xr ], Bn 6= 0. Essendo Bn 6= 0, esistono in K elementi a2 , . . . , ar ∈ K tali che Bn (a2 , . . . , ar ) 6= 0; il polinomio F (x1 , a2 , . . . , ar ) = n X Bi (a2 , . . . , ar )xi1 , i=0 è non nullo e quindi esistono in K elementi a1 tali che F (a1 , a2 , . . . , ar ) 6= 0. Osservazione 4.2 Per ogni polinomio di grado positivo F ∈ K[x1 , . . . , xr ] esistono in K r infiniti elementi in cui F non si annulla e, se r > 1, esistono in K r infiniti elementi in cui F si annulla. Infatti, scritto F nella forma (1) e scelti a2 , . . . , ar in K tali che Bn (a2 , . . . , ar ) 6= 0, vi è solo un numero finito di elementi a1 ∈ K che sono radici del polinomio F (x1 , a2 , . . . , ar ) e quindi vi sono infinite r -ple (b, a2 , . . . , ar ) che non annullano F . Se r > 1 esistono in K r−1 infiniti elementi (c2 , . . . , cr ) tali che Bn (c2 , . . . , cr ) 6= 0; per ciascuna di tali (r − 1)-ple, essendo K algebricamente chiuso, esistono in K radici a1 del polinomio F (x1 , c2 , . . . , cr ) e risulta F (a1 , c2 , . . . , cr ) = 0. Teorema 4.3 Siano F, G ∈ K[x1 , . . . , xr ]. Se F è irriducibile ed ogni zero di F in K r è anche zero di G, allora G è multiplo di F . DIMOSTRAZIONE. Se G = 0 il teorema è vero. Se G 6= 0 deve essere di grado positivo: infatti F ha grado positivo e quindi ha zeri (ricordiamo che K = K ) che devono essere anche zeri di G. Possiamo supporre che G abbia grado positivo in x1 , ad esempio; per il teorema 3.5 il risultante di F, G rispetto ad x1 si può scrivere: Rx1 (F, G) = ϕF + ψG Quindi ogni zero di F è anche zero di Rx1 ∈ K[x2 , . . . , xr ]. Se fosse Rx1 (F, G) 6= 0 per il teorema 4.1 esisterebbero a2 , . . . , ar ∈ K tali che Rx1 (a2 , . . . , ar ) 6= 4 IPERSUPERFICI ALGEBRICHE 131 0 mentre F (x1 , a2 , . . . , ar ) ha certamente soluzioni. Quindi è Rx1 = 0 ed F, G hanno un fattore comune (teorema 3.3); poiché F è irriducibile G è multiplo di F . Corollario 4.4 Due polinomi F, G ∈ K[x1 , . . . , xr ] che hanno gli stessi zeri in K r hanno gli stessi fattori irriducibili, non necessariamente con gli stessi esponenti. DIMOSTRAZIONE. Per il teorema 4.3, ogni fattore irriducibile di F è fattore di G e viceversa. 2. Sia An lo spazio affine di dimensione n sul campo K ed in esso sia fissato un sistema di riferimento (O, e1 , . . . , en ). Sia F ∈ K[x1 , . . . , xn ]. Un punto P (a1 , . . . , an ) ∈ An è uno zero di F o soddisfa l’equazione F = 0 o è soluzione dell’equazione F = 0 se F (P ) = F (a1 , . . . , an ) = 0. Dall’osservazione 4.2 segue che, se F ha grado positivo, in An esistono infiniti punti che sono soluzioni dell’equazione F = 0 e, se n > 1, infiniti punti che non lo sono. L’equazione F = 0 non è, però, individuata dal suo insieme delle soluzioni. Infatti, se F = F1r1 F2r2 · · · Fhrh è la decomposizione in fattori irriducibili di grado positivo di F , tutte le equazioni F1s1 F2s2 · · · Fhsh = 0, con si interi positivi, hanno in An lo stesso insieme di soluzioni. Definizione 4.5 Sia F ∈ K[x1 , . . . , xn ] di grado positivo. Se F è irriducibile, si chiama ipersuperficie algebrica irriducibile di An definita dall’equazione F = 0 o da F l’insieme F delle soluzioni in An dell’equazione F = 0. Se il polinomio F è riducibile e F = F1r1 F2r2 · · · Fhrh è la sua decomposizione in fattori irriducibili Fi di grado positivo, si chiama ipersuperficie algebrica F di An definita dall’equazione F = 0 o da F in An l’insieme {F1, F2 , . . . , Fh } delle ipersuperfici algebriche irriducibili definite rispettivamente dalle equazioni F1 = 0, F2 = 0, . . . , Fh = 0, con associati gli interi {r1 , r2 , . . . , rh }. Si dice anche che F è costituita dalle (o è spezzata nelle) ipersuperfici F1 , F2 , . . . , Fh contate rispettivamente r1 , r2 , . . . , rh volte e si scrive F = r1 F 1 + r2 F 2 + · · · + rh F h . Le ipersuperfici Fi si dicono le componenti irriducibili di F e gli interi ri le loro molteplicità. Le componenti di molteplicità 1 si dicono semplici, le altre multiple. I punti di F sono quelli delle sue componenti. 132 4 IPERSUPERFICI ALGEBRICHE Le ipersuperfici in spazi affini si dicono ipersuperfici affini. Nel caso n = 2 le ipersuperfici affini sono le curve affini e nel caso n = 3 sono le superfici affini. Associando ad ogni equazione F = 0 al variare di F in K[x1 , . . . , xn ] l’ipersuperficie F da essa definita in An si ottiene una corrispondenza biunivoca tra l’insieme delle equazioni e l’insieme delle ipersuperfici di An . Si ha, infatti, il Teorema 4.6 Due equazioni distinte F = 0 e G = 0 definiscono in An ipersuperfici distinte. DIMOSTRAZIONE. Se F e G definiscono la stessa ipersuperficie, per il corollario 4.4 essi hanno gli stessi fattori irriducibili distinti F1 , . . . , Fh . Se F = F1r1 · · · Fhrh e G = kF1s1 · · · Fhsh , k ∈ K , le ipersuperfici F e G definite dalle equazioni F = 0 e G = 0 sono F = r1 F1 + · · · + rh F e G = s1 F1 + · · · + sh Fh , dove Fi è l’ipersuperficie definita da Fi . Essendo F = G deve essere ri = si per ogni indice i e quindi F = 0 e G = 0 sono la stessa equazione. Poiché considereremo solo ipersuperfici algebriche, nel seguito, per brevità, ometteremo la parola algebrica riferita ad una ipersuperficie. Diremo anche ipersuperficie F = 0 invece di ipersuperficie di equazione F = 0. Definizione 4.7 Il grado del polinomio F che definisce l’ipersuperficie affine F si dice ordine o grado di F . L’ordine di F è invariante per affinità. Infatti, se α è un’affinità di An e xi = n X aij x′j + bi , i = 1, 2, . . . , n, j=1 sono le equazioni di α−1 , la trasformata mediante α di F è l’ipersuperficie di equazione ! n n X X anj x′j + bn = 0 a1j x′j + b1 , . . . , F ′ = F ′ (x′1 , . . . , x′n ) = F j=1 j=1 e, per il teorema 2.1, il grado del polinomio F ′ è uguale a quello di F . Esempio 4.8 1) Le ipersuperfici algebriche affini di ordine 1 sono gli iperpiani. 2) Le ipersuperfici algebriche affini di ordine 2 sono le quadriche affini. 133 4 IPERSUPERFICI ALGEBRICHE L’equazione di una quadrica affine Q di An si può scrivere n X aii x2i + 2 i=1 X aij xi xj + n X bi xi + c = 0, i=1 i<j aij , bi , c ∈ K. Se q è la forma quadratica definita su K n che rispetto alla base (e1 , . . . , en ) ha come matrice a11 a12 . . . a1n a21 a22 . . . a2n aij = aji per ogni 1 ≤ i, j ≤ n, A= .. .. .. ... . . . an1 an2 . . . ann l’equazione di Q si può srivere q(x1 , . . . , xn ) + n X bi xi + c = 0. i=1 Esiste in K n una base rispetto alla quale la matrice di q è diagonale (capitolo II, teorema 2.13) e quindi esiste un sistema di riferimento di An rispetto al quale l’equazione di Q è n X (2) ai x2i + n X bi xi + c = 0. i=1 i=1 I coefficienti ai si possono ordinare in modo che sia ai 6= 0 per 1 ≤ i ≤ r ed ai = 0 per r + 1 ≤ i ≤ n e quindi la (2) si può scrivere r n X X bi 2 ai xi + + bi xi + c′ = 0. 2ai i=1 i=r+1 Con la trasformazione affine ( bi , se 1 ≤ i ≤ r, x + i yi = 2ai xi , se r + 1 ≤ i ≤ n, l’equazione di Q diviene (3) r X i=1 ai yi2 + n X bi yi + c′ = 0. i=r+1 Se i coefficienti bi non sono tutti nulli si può supporre che sia br+1 6= 0 ed allora, con l’ulteriore trasformazione affine yi , se i 6= r + 1, zi = ′ br+1 yr+1 + · · · + bn yn + c , se i = r + 1, 134 4 IPERSUPERFICI ALGEBRICHE la (3) diviene r X (4) ai zi2 + zr+1 = 0. i=1 Essendo K algebricamente chiuso esiste in esso un elemento αi tale che αi2 = ai (1 ≤ i ≤ r) e quindi, con l’ulteriore trasformazione affine αi zi , se 1 ≤ i ≤ r, ui = zi , se r + 1 ≤ i ≤ n, la (4) diviene (5) r X u2i + ur+1 = 0, r < n. i=1 Se nella (3) è br+1 = · · · = bn = 0, con la trasformazione affine αi yi , se 1 ≤ i ≤ r, ui = yi , se r + 1 ≤ i ≤ n, essa diviene (6) r X i=1 u2i + c = 0, r ≤ n. Quindi in An è possibile scegliere un sistema di riferimento in modo che rispetto ad esso l’equazione di una quadrica si può scrivere in una delle forme (5) o (6). 3. Nello spazio proiettivo P n , sia x1 , . . . , xn+1 un sistema di coordinate omogenee per i punti. Sia F ∈ K[x1 , . . . , xn+1 ] un polinomio omogeneo di grado m. Se P ∈ P n e F si annulla in un sistema di coordinate omogenee (a1 , . . . , an+1 ) di P , allora F si annulla in ogni sistema di coordinate omogenee (ka1 , . . . , kan+1 ) di P in quanto, per il teorema 2.3, si ha F (ka1 , . . . , kan+1 ) = k m F (a1 , . . . , an+1 ). Ha senso allora dire che F si annulla in P oppure che P è zero di F in P n o soluzione dell’equazione omogenea F = 0 e scriveremo anche F (P ) = 0. 4 IPERSUPERFICI ALGEBRICHE 135 Definizione 4.9 Se il polinomio omogeneo F è di grado positivo ed irriducibile, si chiama ipersuperficie algebrica irriducibile di P n definita dall’equazione F = 0 o da F l’insieme F dei punti di P n che sono soluzioni dell’equazione F = 0. Se F è riducibile, poiché tutti i suoi fattori di grado positivo sono omogenei (lemma 2.4), esattamente come nel caso affine, si definisce l’ipersuperficie algebrica F di P n definita dall’equazione F = 0 o da F e si definiscono le componenti irriducibili di F e le loro molteplicità. Le ipersuperfici di uno spazio proiettivo si dicono ipersuperfici proiettive. Nel caso n = 2 le ipersuperfici proiettive sono le curve proiettive, nel caso n = 3 sono le superfici proiettive. Osservazione 4.10 Un polinomio F ∈ K[x1 , . . . , xn+1 ] omogeneo di grado positivo definisce un’ipersuperficie proiettiva F in P n ed un’ipersuperficie affine Fe in An+1 . L’ipersuperficie Fe ha la proprietà: se contiene un punto P distinto dall’origine O di An+1 , allora contiene tutti i punti della retta OP , cioè Fe è un cono di vertice O . Infatti, se una (n+1)-pla non nulla (a1 , . . . , an+1 ) di elementi di K annulla F , annullano F anche tutte le (n + 1)-ple (ka1 , . . . , kan+1 ) al variare di k in K . Il cono Fe si chiama cono affine associato a F . Anche nel caso proiettivo un’ipersuperficie individua la sua equazione; infatti si ha il Teorema 4.11 Due equazioni omogenee F = 0 e G = 0 distinte definiscono in P n ipersuperfici distinte. DIMOSTRAZIONE. Le due equazioni definiscono in P n la stessa ipersuperficie F se e solo se definiscono la stessa ipersuperficie Fe in An+1 (osservazione 4.10) e quindi il teorema segue dal teorema 4.6. Anche nel caso di ipersuperfici proiettive, nel seguito, per brevità, ometteremo la parola algebrica riferita ad una ipersuperficie e diremo anche ipersuperficie F = 0 invece di ipersuperficie di equazione F = 0. Definizione 4.12 Il grado del polinomio F che definisce l’ipersuperficie proiettiva F si dice grado o ordine di F . L’ordine di F è invariante per proiettività. Infatti, se ω è una proiettività di Pn e n+1 X xi = aij x′j , i = 1, 2, . . . , n + 1, j=1 136 4 IPERSUPERFICI ALGEBRICHE sono le equazioni di ω −1 , la trasformata di F mediante ω è l’ipersuperficie di equazione ! n+1 n+1 X X F ′ = F ′ (x′1 , . . . , x′n+1 ) = F a1j x′j , . . . , an+1 j x′j = 0 j=1 j=1 e, per il teorema 2.1, il polinomio F ′ ha grado uguale a quello di F . Esempio 4.13 1) Le ipersuperfici algebriche proiettive di ordine 1 sono gli iperpiani. 2) Le ipersuperfici algebriche proiettive di ordine 2 sono le quadriche proiettive. L’equazione di una quadrica proiettiva Q si può scrivere n+1 X aii x2i + 2 i=1 X aij xi xj = 0, aij ∈ K. i<j Se q è la forma quadratica su K n+1 che, rispetto alla base di K n+1 scelta per il sistema di coordinate omogenee in P n , ha come matrice a11 . . . a1 n+1 .. .. aij = aji , A = ... . . an+1 1 . . . an+1 n+1 l’equazione di Q si può scrivere q(x1 , x2 , . . . , xn+1 ) = 0. Esiste una base di K n+1 rispetto alla quale la matrice di q è diagonale (capitolo II, teorema 2.13 ); se y1 , y2, . . . , yn+1 è un sistema di coordinate omogenee rispetto a tale base, l’equazione di Q si scrive (7) r X di yi2 = 0, i=1 0 6= di ∈ K, 1 ≤ r ≤ n + 1. Essendo K algebricamente chiuso, in esso esiste un elemento bi tale che b2i = di (1 ≤ i ≤ r) e quindi con la trasformazione proiettiva bi yi, se 1 ≤ i ≤ r, zi = yi , r + 1 ≤ i ≤ n + 1, l’equazione di Q diviene (8) r X i=1 zi2 = 0, 1 ≤ r ≤ n + 1. 5 PUNTI SEMPLICI E PUNTI SINGOLARI 137 Quindi è possibile scegliere un sistema di coordinate omogenee in P n in modo che Q abbia equazione della forma (8). 4. Da ora in avanti riguarderemo P n come completamento proiettivo dello spazio affine An nel modo descritto nel capitolo IV, §5, in modo che l’iperpiano improprio sia xn+1 = 0. Se F è un’ipersuperficie proiettiva di P n , di equazione F (x1 , . . . , xn+1 ) = 0, che non ha come componente l’iperpiano improprio xn+1 = 0, cioè il polinomio F non ha xn+1 come fattore, allora l’ipersuperficie affine F∗ di An di equazione F∗ (x1 , . . . , xn ) = F (x1 , . . . , xn , 1) = 0 è la restrizione affine di F . Le due ipersuperfici F e F∗ hanno lo stesso ordine ed i punti di F∗ sono i punti propri di F . Se F1 , . . . Fh sono le componenti irriducibili di F e F = r1 F1 +· · ·+rh Fh , dal lemma 2.8 segue che F∗ = r1 F1∗ + · · · + rh Fh∗ . Se G è un’ipersuperficie affine di An di ordine m, avente per equazione g(x1 , . . . , xn ) = 0, l’ipersuperficie proiettiva G ∗ di P n di equazione g ∗ (x1 , . . . , xn+1 ) = 0, dove g ∗ (x1 , . . . , xn+1 ) è il polinomio omogeneizzato di g(x1 , . . . , xn ) rispetto a xn+1 , è il completamento proiettivo di G . I punti di G ∗ che non sono punti di G sono i punti impropri di G o di G ∗ . Se G1 , . . . Gh sono le componenti irriducibili di G e G = r1 G1 + · · · + rh Gh , allora G ∗ = r1 G1∗ + · · · + rh Gh∗ . Sempre dal lemma 2.8 segue che (G ∗ )∗ = G, F = (F∗ )∗ . 5. Intersezione di una ipersuperficie con una retta. Punti semplici e punti singolari. 1. Sia F un’ipersuperficie proiettiva di P n di ordine m, di equazione F (x1 , . . . , xn+1 ) = 0 138 5 PUNTI SEMPLICI E PUNTI SINGOLARI e sia R una retta di P n . Se A = (a1 , . . . , an+1 ) e B = (b1 , . . . , bn+1 ) sono due punti distinti di R, equazioni parametriche di R sono (capitolo IV, §3, n.2) x1 = λa1 + µb1 , . . . xn+1 = λan+1 + µbn+1 ed i punti comuni a R ed a F sono quelli che si ottengono per λ, µ tali che (1) Φ(λ, µ) = F (λa1 + µb1 , . . . , λan+1 + µbn+1 ) = 0. Se il polinomio Φ(λ, µ) è nullo, tutti i punti di R sono punti di F e diremo perciò che R è contenuta in F , cosa che indicheremo scrivendo R ⊂ F . Se il polinomio Φ(λ, µ) non è nullo, è omogeneo di grado m in λ, µ. Esso si decompone nel prodotto di m fattori lineari omogenei (teorema 2.11); se ηi λ − ξi µ, i = 1, . . . , h, sono i fattori lineari distinti, si ha (2) Φ(λ, µ) = h Y i=1 (ηi λ − ξiµ)si , si > 0, h X si = m. i=1 Se Pi è il punto di R che si ottiene per λ = ξi , µ = ηi , i punti comuni a R ed a F sono P1 , . . . , Ph . Il fatto che il polinomio Φ(λ, µ) sia nullo e, nel caso che non sia nullo, gli esponenti si dei fattori della (2) che determinano i punti Pi , non dipendono dai particolari punti A e B scelti per scrivere le equazioni parametriche della retta R. Infatti, siano A′ = (a′1 , . . . , a′n+1 ) e B ′ = (b′1 , . . . , b′n+1 ) altri due punti di R e x1 = λ′ a′1 + µ′ b′1 , . . . xn+1 = λ′ a′n+1 + µ′ b′n+1 le equazioni parametriche di R determinate mediante A′ e B ′ . I punti comuni a R e F si ottengono per λ′ , µ′ tali che (1′ ) Φ′ (λ′ , µ′ ) = F (λ′ a′1 + µ′ b′1 , . . . , λ′ a′n+1 + µ′ b′n+1 ) = 0. Se Φ(λ, µ) è nullo si ha R ⊂ F e perciò Φ′ (λ′ , µ′ ) è nullo. Se Φ(λ, µ) non è nullo, allora R ha in comune con F solo i punti P1 , . . . , Ph e si ha Φ′ (λ′ , µ′ ) = h Y ′ (ηi′ λ′ − ξi′ µ′ )si , s′i > 0, i=1 h X s′i = m, i=1 dove λ′ = ξi′ e µ′ = ηi′ determinano il punto Pi . Se P = (λa1 + µb1 , . . . , λan+1 + µbn+1 ) = (λ′ a′1 + µ′ b′1 , . . . , λ′ a′n+1 + µ′ b′n+1 ), 5 PUNTI SEMPLICI E PUNTI SINGOLARI 139 allora, su R, (λ, µ) è un sistema di coordinate omogenee di P rispetto alla base a = (a1 , . . . , an+1 ), b = (b1 , . . . , bn+1 ) dello spazio vettoriale R che definisce R, mentre (λ′ , µ′ ) è un sistema di coordinate omogenee di P rispetto alla base a′ = (a′1 , . . . , a′n+1 ), b′ = (b′1 , . . . , b′n+1 ) di R. Quindi esistono (capitolo IV, §3) un elemento 0 6= k ∈ K ed una matrice invertibile (cij ) di ordine 2 a elementi in K tali che (3) kλ = c11 λ′ + c12 µ′ , kµ = c21 λ′ + c22 µ′ . Mediante le (3) si ha k(ηi λ − ξi µ) = ηi (c11 λ′ + c12 µ′ ) − ξi (c21 λ′ + c22 µ′ ) = (c11 ηi − c21 ξi )λ′ + (c12 ηi − c22 ξi)µ′ . Essendo (ξi , ηi ) e (ξi′ , ηi′ ) sistemi di coordinate omogenee di Pi rispetto alle basi (a, b) e (a′ , b′ ) di R, esiste un elemento 0 = 6 ki ∈ K tale che ki ξi = c11 ξi′ + c12 ηi′ , ki ηi = c21 ξi′ + c22 ηi′ . Posto c = det (cij ), da queste si ricava ki ki ξi′ = − (c12 ηi − c22 ξi ), ηi′ = (c11 ηi − c21 ξi ) c c e quindi, a meno di un fattore non nullo in K , il fattore ηi λ − ξi µ mediante le (3) viene trasformato in ηi′ λ′ − ξi′ µ′ . Mediante le inverse delle (3) il fattore ηi′ λ′ − ξi′ µ′ viene trasformato in ηi λ − ξi µ, sempre a meno di un fattore non nullo in K . Quindi ηi′ λ′ − ξi′µ′ è il trasformato solo del fattore ηi λ − ξi µ e perciò s′i = si . Per denotare che P è un punto comune a R e a F scriveremo P ∈ R ∩ F = F ∩ R. All’esponente massimo si con cui il fattore (ηi λ − ξi µ), che determina il punto Pi , divide Φ(λ, µ) si attribuisce il significato di numero di volte in cui Pi compare tra i punti comuni a R e F e si dice che si è la molteplicità d’intersezione in Pi di R con F o di F con R e si denota I(R ∩ F , Pi ) = I(F ∩ R, Pi ) = si . Nel caso che R ⊂ F , in ogni punto P ∈ R si definisce la molteplicità d’intersezione di R con F ponendo I(R ∩ F , P ) = I(F ∩ R, P ) = ∞. Se la retta R non è contenuta in F e P1 , . . . , Ph sono i punti distinti che essa ha in comune con F e si conviene Ph di contare Pi esattamente si = I(R ∩ F , Pi) volte (1 ≤ i ≤ h), poiché i=1 si = m si ha che i punti comuni a R e F sono m. Si ha, quindi, il seguente teorema, che attribuisce un significato geometrico all’ordine di un’ipersuperficie. 140 5 PUNTI SEMPLICI E PUNTI SINGOLARI Teorema 5.1 Sia F un’ipersuperficie proiettiva di P n . Se R è una retta di P n non contenuta in F , allora R e F hanno in comune un numero finito di punti distinti e contando ciascuno tante volte quanta è in esso la molteplicità di intersezione di R con F , il numero di punti comuni è uguale all’ordine di F. Se R 6⊂ F e A ∈ R ∩ F , poiché dalle equazioni di R segue che il punto A si ottiene per µ = 0, si ha che µ è uno dei fattori del polinomio Φ(λ, µ) e I(R ∩ F , A) = s è il massimo intero per cui µs divide Φ(λ, µ). Quindi si ha: (4) I(R ∩ F , A) è la molteplicità della radice µ = 0 per il polinomio ϕ(µ) = Φ(1, µ) = F (a1 + µb1 , . . . , an+1 + µbn+1 ). Lemma 5.2 La molteplicità d’intersezione di un’ipersuperficie con una retta in un punto è invariante per proiettività. DIMOSTRAZIONE. Siano F un’ipersuperficie, R una retta ed A ∈ R ∩ F . Bisogna dimostrare che se ω è una proiettività di P n e F ′ , R′ , A′ sono i trasformati di F , R, A mediante ω , si ha I(R ∩ F , A) = I(R′ ∩ F ′, A′ ). Se R ⊂ F si ha anche R′ ⊂ F ′ e quindi l’uguaglianza è vera, essendo ambo i membri ∞. Sia R 6⊂ F . Se A = (a1 , . . . , an+1 ) e R = AB con B = (b1 , . . . , bn+1 ) allora I(R ∩ F , A) = s è il massimo intero per cui µs divide il polinomio Φ(λ, µ) della (1). Se le equazioni di ω −1 sono xi = n+1 X cij x′j , i = 1, . . . , n + 1, j=1 l’equazione di F ′ è F ′ (x′1 , . . . , x′n+1 ) = F n+1 X c1j x′j , . . . , j=1 n+1 X j=1 cn+1j x′j ! =0 e sistemi di coordinate omogenee per A′ , B ′ sono (a′1 , . . . , a′n+1 ), (b′1 , . . . , b′n+1 ) tali che n+1 n+1 X X ′ ai = cij aj , bi = cij b′j , i = 1, . . . , n + 1. j=1 j=1 Equazioni di R′ sono x′1 = λa′1 + µb′1 , . . . x′n+1 = λa′n+1 + µb′n+1 141 5 PUNTI SEMPLICI E PUNTI SINGOLARI ′ e I(R′ ∩ F ′ , A′ ) = s′ è il massimo intero per cui µs divide il polinomio Φ′ (λ, µ) = F ′ (λa′1 + µb′1 , . . . , λa′n+1 + µb′n+1 ). Si ha Φ′ (λ, µ) = F n+1 X c1j (λa′j + µb′j ), . . . , j=1 = F λ n+1 X n+1 X cn+1j (λa′j + µb′j ) j=1 c1j a′j + µ j=1 n+1 X c1j b′j , . . . , λ j=1 n+1 X ! cn+1j a′j + µ j=1 = F (λa1 + µb1 , . . . , λan+1 + µbn+1 ) = Φ(λ, µ) n+1 X cn+1j b′j j=1 ! e quindi s′ = s. 2. Sia F un’ipersuperficie affine di An di ordine m, di equazione f = f (x1 , . . . , xn ) = 0 e sia A(a1 , . . . , an ) un suo punto. Sia R una retta passante per A. Siano F ∗ e R∗ i rispettivi completamenti proiettivi di F e R. Si definisce la molteplicità d’intersezione in A di F con R o di R con F , e si denota I(F ∩ R, A) = I(R ∩ F , A), ponendo (5) I(F ∩ R, A) = I(F ∗ ∩ R∗ , A). Per calcolare la molteplicità d’intersezione possiamo procedere come segue. Se R ⊂ F si ha R∗ ⊂ F ∗ , avendo F ∗ in comune con R∗ gli infiniti punti di R, e quindi I(F ∩ R, A) = ∞. Sia R 6⊂ F . Se R ha equazioni parametriche x1 = a1 + µb1 , . . . xn = an + µbn il suo punto improprio è (capitolo IV, esempio 5.3, 2)) B∞ (b1 , . . . , bn , 0) ed equazioni parametriche di R∗ sono x1 = λa1 + µb1 , . . . xn = λan + µbn , xn+1 = λ. Se f = f0 + f1 + · · · + fm è la decomposizione di f in somma di componenti omogenee, l’equazione di F ∗ è (6) m−1 f ∗ = xm n+1 f0 + xn+1 f1 + · · · + xn+1 fm−1 + fm = 0 5 PUNTI SEMPLICI E PUNTI SINGOLARI 142 e l’equazione (1) è allora (7) Φ(λ, µ) = P f ∗ (λa1 + µb1 , . . . , λan + µbn , λ) m−i fi (λa1 + µb1 , . . . , λan + µbn ) = 0. = m i=0 λ Quindi, per la (4), si ha: (8) I(F ∩ R, A)è la molteplicità della radice µ = 0 per il polinomio ϕ(µ) = Φ(1, µ) = f ∗ (a1 + µb1 , . . . , an + µbn , 1) = f (a1 + µb1 , . . . , an + µbn ). 3. Sia F un’ipersuperficie di P n o di An . Definizione 5.3 Se A è un punto di F , la minima delle molteplicità d’intersezione di F con tutte le rette passanti per A (che è un intero positivo) si dice molteplicità di A per F o di F in A e si denota mA (F ). I punti di F di molteplicità 1 si dicono semplici, quelli di molteplicità s > 1 si dicono multipli o singolari. Un punto di molteplicità s si dice anche s−uplo e se s = 2 si dice doppio. Un’ipersuperficie priva di punti singolari si dice non singolare. Dalla (5) segue che se F è affine e F ∗ è il suo completamento proiettivo, si ha (9) mA (F ) = mA (F ∗ ) per ogni A ∈ F . Dal lemma 5.2 segue il Corollario 5.4 La molteplicità di un punto per una ipersuperficie proiettiva è invariante per proiettività. Esempio 5.5 1) Sia F un’ipersuperficie affine o proiettiva. Si ha: a) Se G è una componente irriducibile di F di molteplicità r , per ogni punto A ∈ G si ha mA (F ) ≥ rmA (G) e l’uguaglianza vale se e solo se A non appartiene a nessun’altra componente di F . b) I punti comuni a due componenti irriducibili di F sono multipli per F . 143 5 PUNTI SEMPLICI E PUNTI SINGOLARI c) Se F è priva di componenti multiple, i punti multipli di F sono i punti multipli delle sue componenti e i punti comuni a due componenti. Basta dimostrarlo nel caso proiettivo. a) Sia G = 0 l’equazione di G . Allora, l’equazione di F è F = Gr H = 0, con H che non è multiplo di G. Se A = (a1 , . . . , an+1 ), per ogni retta R : x1 = λa1 + µb1 , . . . , xn+1 = λan+1 + µbn+1 , posto Φ(λ, µ) = F (λa1 + µb1 , . . . , λan+1 + µbn+1 ) Φ1 (λ, µ) = G(λa1 + µb1 , . . . , λan+1 + µbn+1 ) Φ2 (λ, µ) = H(λa1 + µb1 , . . . , λan+1 + µbn+1 ) si ha Φ(λ, µ) = Φr1 (λ, µ)Φ2 (λ, µ). Se s = mA (G), allora esistono rette R per le quali il polinomio Φ1 (λ, µ) è divisibile per µs , ma non per µs+1 . Per tali rette il polinomio Φ(λ, µ) è divisibile per µrs , quindi mA (F ) ≥ rs e rs è il massimo esponente con cui µ lo divide, cioè mA (F ) = rs, se e solo se Φ2 (λ, µ) non è divisibile per µ, cioè se e solo se A non appartiene ad altre componenti di F . b) È immediata conseguenza della a). c) Sia F priva di componenti multiple. Se A è un punto semplice di F , per la a) esso non può essere multiplo per nessuna delle componenti di F e per la b) non può essere punto comune a due componenti. D’altra parte, dalla a) segue che un punto semplice A di una componente che non appartiene ad altre componenti di F è semplice per F . 2) Sia F una ipersuperficie di ordine m di An , di equazione f = f0 + f1 + · · · + fm = 0, dove i polinomi fi sono le componenti omogenee di f . Se O è l’origine di An si ha mO (F ) = s ⇐⇒ f0 = f1 = · · · = fs−1 = 0, fs 6= 0. Infatti, se R di equazioni parametriche x1 = b1 µ, . . . xn = bn µ è una retta per O , il polinomio ϕ(µ) = f (b1 µ, . . . , bn µ) = m X µi fi (b1 , . . . , bn ) i=0 ha la radice µ = 0 di molteplicità s se e solo se f0 = f1 (b1 , . . . , bn ) = · · · = fs−1 (b1 , . . . , bn ) = 0, fs (b1 , . . . , bn ) 6= 0. 144 5 PUNTI SEMPLICI E PUNTI SINGOLARI Ed allora, mO (F ) = s se e solo se f0 = f1 (b1 , . . . , bn ) = · · · = fs−1 (b1 , . . . , bn ) = 0 per ogni b1 , . . . , bn ∈ K, mentre esistono b1 , . . . , bn ∈ K tali che fs (b1 , . . . , bn ) 6= 0 e quindi (teorema 4.1) se e solo se f0 = f1 = · · · = fs−1 = 0, fs 6= 0. 3) Sia F un’ipersuperficie di ordine m di P n , non contenente l’iperpiano improprio xn+1 = 0 come componente, di equazione m−1 F (x1 , . . . , xn+1 ) = F0 xm n+1 + F1 xn+1 + · · · + Fm = 0, dove Fi ∈ K[x1 , . . . , xn ], se non nullo, è omogeneo di grado i. Sia An+1 = (0, . . . , 0, 1); dall’esempio precedente, applicato alla restrizione affine F∗ di F , che ha equazione F∗ (x1 , . . . , xn ) = F0 + F1 + · · · + Fm = 0, segue che mAn+1 (F ) = s ⇐⇒ F0 = F1 = · · · = Fs−1 = 0, Fs 6= 0. 4) Sia F un’ ipersuperficie di ordine m di P n non contenente l’iperpiano xr = 0 come componente, di equazione m−1 F (x1 , . . . , xn+1 ) = F0 xm + · · · + Fm = 0, r + F1 xr dove Fi ∈ K[x1 , . . . , xr−1 , xr+1 , . . . , xn+1 ], se non nullo, è omogeneo di grado i. Con la trasformazione proiettiva di coordinate x′j = xj se j 6= r, n + 1, x′r = xn+1 , x′n+1 = xr , il punto Ar = (0, . . . , 0, 1, 0, . . . , 0), dove 1 è al posto r−mo, viene trasformato in An+1 = (0, . . . , 0, 1) e dall’esempio 3) segue che mAr (F ) = s ⇐⇒ F0 = F1 = · · · = Fs−1 = 0, Fs 6= 0. 5) Un’ipersuperficie F , affine o proiettiva, è un cono di vertice il punto A se e solo se per ogni punto P ∈ F , distinto da A, la retta AP è contenuta in F. L’ipersuperficie F di ordine m è un cono di vertice A se e solo se mA (F ) = m. Infatti, se mA (F ) = m, per ogni retta R passante per A si ha I(R ∩ F , A) ≥ m e quindi, se R passa per un altro punto di F è contenuta in F (teorema 5.1 ). Viceversa, sia F un cono di vertice A. Per ogni retta R passante per A se R ⊂ F si ha I(R ∩ F , A) = ∞ per definizione, altrimenti R 6⊂ F e allora si ha I(R ∩ F , A) = m per il teorema 5.1; segue mA (F ) = m. 145 5 PUNTI SEMPLICI E PUNTI SINGOLARI Osservazione 5.6 Un’ipersuperficie affine F di An è un cono di vertice l’origine O se e solo se il polinomio che la definisce è omogeneo. Segue subito dall’esempio 5.5, 2). Osservazione 5.7 Nel piano, un cono C di vertice A e di ordine m è costituito da rette passanti per A e contando ciascuna di esse tante volte quanta è la sua molteplicità come componente di C il numero di tali rette è m. Infatti, se B è un suo punto distinto da A, la retta AB è una componente di C . Se R1 , . . . , Rh sono le componenti (rette) distinte di C e r1 , . . . , rh sono le loro molteplicità, allora C = r1 R1 + · · · + rh Rh , r1 + · · · + rh = m. Se F è proiettiva di equazione F = 0 e R = AB è una retta passante per A il polinomio Φ(λ, µ) della (1) si può scrivere Φ(λ, µ) = F (λa1 + µb1 , . . . , λan+1 + µbn+1 ) = m X αi λm−i µi , i=0 αi ∈ K. Se R 6⊂ F esso non è nullo e per la formula di Mac Laurin (§1) applicata al polinomio (10) ϕ(µ) = Φ(1, µ) = F (a1 + µb1 , . . . , an+1 + µbn+1 ) = m X i=0 si ha αi = Posto risulta: (10.0) (10.1) 1 (i) ϕ (0), i! ∂r F ∂r F = (a1 , . . . , an+1 ), ∂air · · · ∂ai1 ∂xir · · · ∂xi1 α0 = F (a1 , . . . , an+1 ) α1 = n+1 X ∂F i=1 (10.2) 0 ≤ i ≤ m. ∂ai bi n+1 1 X ∂2F α2 = bi bj 2 i,j=1 ∂aj ∂ai αi µi 146 5 PUNTI SEMPLICI E PUNTI SINGOLARI ··· (10.s) n+1 ∂sF 1 X bi · · · bis . αs = s! i ,...,i =1 ∂ais · · · ∂ai1 1 1 s ··· Se F è affine di equazione f = 0 e R è la retta passante per A di equazioni parametriche xi = ai + µbi , (1 ≤ i ≤ n), il polinomio ϕ(µ) della (8) si può scrivere (11) ϕ(µ) = f (a1 + µb1 , . . . , an + µbn ) = m X αi µi. i=0 Se R 6⊂ F il polinomio ϕ(µ) non è nullo e per la formula di Mac Laurin si ha (11.0) α0 = f (a1 , . . . , an ) (11.1) (11.2) α1 = n X ∂f bi ∂a i i=1 n 1 X ∂2f bi bj α2 = 2 i,j=1 ∂aj ∂ai ··· (11.s) n 1 X ∂sf αs = bi · · · bis . s! i ,...,i =1 ∂ais · · · ∂ai1 1 1 s ··· Sia nel caso proiettivo che nel caso affine si ha: se R 6⊂ F e A ∈ R ∩ F , allora (12) I(R ∩ F , A) = s ⇐⇒ α0 = α1 = · · · = αs−1 = 0, αs 6= 0. Da ciò segue che se A ∈ F , allora mA (F ) = s se e solo se per ogni retta R passante per A risulta α0 = α1 = · · · = αs−1 = 0 ed esistono rette R passanti per A per le quali αs 6= 0. 5 PUNTI SEMPLICI E PUNTI SINGOLARI 147 Dalle (10.i) e le (11.i) segue, allora, che mA (F ) = s se e solo se in A si annullano tutti i polinomi derivati sino all’ordine s − 1, ma non tutti quelli di ordine s, del polinomio che definisce F . Se F è proiettiva, per il teorema di Eulero (teorema 2.3), per ogni intero r ≥ 1 si ha n+1 X n+1 X ∂r F ∂ r−1 F ∂ ∂ r−1 F aj = aj = (m−r+1) ∂aj ∂air−1 · · · ∂ai1 ∂aj ∂air−1 · · · ∂ai1 ∂air−1 · · · ∂ai1 j=1 j=1 e quindi se in A si annullano tutti i polinomi derivati di ordine r di F , si annullano anche tutti quelli di ordine < r e perciò F stesso. Quindi si ha il Teorema 5.8 Sia F un’ipersuperficie e sia A un suo punto. Allora: 1) se F è proiettiva si ha mA (F ) = s se e solo se in A si annullano tutti i polinomi derivati di ordine s − 1 ma non tutti quelli di ordine s del polinomio F che la definisce; 2) se F è affine si ha mA (F ) = s se e solo se in A si annullano tutti i polinomi derivati sino all’ordine s − 1 ma non tutti quelli di ordine s del polinomio f che la definisce. 4. Sia F un’ipersuperficie di ordine m, proiettiva di equazione F = 0 o affine di equazione f = 0. Definizione 5.9 Se A è un punto di molteplicità s per F , le rette R passanti per A tali che I(R ∩ F , A) > s si dicono tangenti a F in A. In particolare, sono tangenti a F in A tutte le rette passanti per A e contenute in F . Se F è affine, una retta affine R è tangente a F in A se e solo se l’estensione proiettiva R∗ di R è tangente in A all’estensione proiettiva F ∗ di F . Se mA (F ) = s, dalla (12) segue che sono tangenti a F in A tutte e solo le rette R per le quali risulta αs = 0. Sia s = 1. Se F è proiettiva e A = (a1 , . . . , an+1 ), per la (10.1) la retta R = AB è tangente a F in A se e solo se il punto B = (b1 , . . . , bn+1 ) appartiene all’iperpiano (13) n+1 X ∂F i=1 ∂ai xi = 0. 148 5 PUNTI SEMPLICI E PUNTI SINGOLARI Tale iperpiano passa per A perché, per il teorema di Eulero (teorema 2.3), si ha n+1 X ∂F ai = mF (a1 , . . . , an+1 ) = 0. ∂ai i=1 Se F è affine e A = (a1 , . . . , an ), per la (11.1) la retta R passante per A di equazioni parametriche xi = ai + µbi , 1 ≤ i ≤ n, è tangente a F in A se e solo se b1 , . . . , bn sono tali che n X ∂f bi = 0, ∂ai i=1 e quindi se e solo se, per ogni µ ∈ K , si ha n X ∂f µbi = 0. ∂a i i=1 Ed allora, dalle equazioni parametriche di R segue che il luogo delle rette R tangenti a F in A è l’iperpiano n X ∂f (xi − ai ) = 0, ∂ai i=1 (14) che passa per A. Definizione 5.10 L’iperpiano (13) nel caso proiettivo o l’iperpiano (14) nel caso affine si chiama iperpiano tangente a F nel punto semplice A. Sia s > 1. Nel caso proiettivo la retta R = AB è tangente a F in A se e solo se B appartiene all’ipersuperficie proiettiva Q, di ordine s, di equazione n+1 X (15) i1 ,...,is ∂sF xi · · · xis = 0. ∂ais · · · ∂ai1 1 =1 L’ipersuperficie Q passa per A perché, per il teorema di Eulero, si ha X ∂sF ai1 · · · ais−1 aj = ∂a ∂a · · · ∂a j i i s−1 1 j,i ,...,i 1 s−1 = X i1 ,...,is−1 ai1 · · · ais−1 = (m − s + 1) X X i1 ,...,is−1 j aj ∂ s−1 F ∂ = ∂aj ∂ais−1 · · · ∂ai1 ai1 · · · ais−1 ∂ s−1 F = 0. ∂ais−1 · · · ∂ai1 5 PUNTI SEMPLICI E PUNTI SINGOLARI 149 Nel caso affine, la retta R è tangente a F in A se e solo se b1 , . . . , bn sono tali che n X ∂sf bi1 · · · bis = 0, · · · ∂a ∂a i i s 1 i ,...,i =1 s 1 quindi se e solo se, per ogni µ ∈ K , si ha n X i1 ,...,is ∂sf µbi1 · · · µbis = 0. · · · ∂a ∂a i i s 1 =1 Ed allora, il luogo delle rette tangenti a F in A è l’ipersuperficie affine Q, di ordine s, di equazione (16) n X i1 ,...,is ∂sf (xi1 − ai1 ) · · · (xis − ais ) = 0, · · · ∂a ∂a i i s 1 =1 che passa per A. L’ ipersuperficie Q, di equazione (15) nel caso proiettivo e di equazione (16) nel caso affine, è un cono di vertice A perché mA (Q) = s (esempi 5.5, 5)). Definizione 5.11 Il cono Q di equazione (15) nel caso proiettivo o di equazione (16) nel caso affine si dice cono tangente a F in A. Osservazione 5.12 Se F è una curva piana e A è un suo punto di molteplicità s, il cono tangente a F in A è costituito da s rette passanti per A (osservazione 5.6). Se esse sono tutte distinte A si dice punto s-plo ordinario per F . I punti doppi ordinari si dicono nodi. I punti doppi non ordinari sono quelli nei quali le due rette tangenti alla curva sono coincidenti. Se A è un punto doppio non ordinario ed in esso la molteplicità d’intersezione della retta tangente con la curva è 3, si dice che A è una cuspide ordinaria per la curva. Osservazione 5.13 1) Se F è un’ipersuperficie affine e G è l’iperpiano o il cono ad essa tangente nel punto A, allora l’iperpiano o cono tangente in A al completamento proiettivo F ∗ di F è il completamento proiettivo G ∗ di G . 2) Se F è un’ipersuperficie proiettiva non contenente come componente l’iperpiano improprio e G è l’iperpiano o il cono ad essa tangente nel punto proprio A, allora l’iperpiano o cono tangente alla restrizione affine F∗ di F 150 5 PUNTI SEMPLICI E PUNTI SINGOLARI è la restrizione affine G∗ di G . 1) Infatti, sia A = (a1 , . . . , an , 1) e sia f = 0 l’equazione di F . Se f = f0 + f1 + · · · + fm è la decomposizione di f in somma di componenti omogenee, l’equazione di F ∗ è m−1 f ∗ = xm n+1 f0 + xn+1 f1 + · · · + fm = 0. Se A(a1 , . . . , an ) è semplice per F , le equazioni degli iperpiani tangenti in A a F e a F ∗ sono rispettivamente n X ∂f (xi − ai ) = 0 g= ∂a i i=1 G= n+1 X ∂f ∗ i=1 ∂ai xi = 0 (an+1 = 1). Si ha ∂f ∂f ∗ = ∂ai ∂ai (17) per 1 ≤ i ≤ n. Per il teorema di Eulero (teorema 2.3): mf ∗ (x1 , . . . , xn+1 ) = n X ∂f ∗ i=1 ∂xi xi + ∂f ∗ xn+1 ∂xn+1 calcolando in A e tenendo conto delle (17) si ha n n n X ∂f ∗ X ∂f ∗ X ∂f ∂f ∗ = mf ∗ (a1 , . . . , an , 1) − ai = − ai = − ai ∂1 ∂a ∂a ∂a i i i i=1 i=1 i=1 (18) e quindi g∗ = n n n X X X ∂f ∂f ∗ ∂f ∂f ∗ xi − ai xn+1 = xi + xn+1 = G. ∂a ∂a ∂a ∂1 i i i i=1 i=1 i=1 Una verifica analoga si fa per il cono tangente in un punto multiplo. Ad esempio, se A è doppio, le equazioni dei coni tangenti in A a F e a F ∗ sono rispettivamente n X ∂2f (xi − ai )(xj − aj ) = 0, g= ∂aj ∂ai i,j=1 n+1 X ∂2f ∗ G= xi xj = 0. ∂aj ∂ai i,j=1 Si ha (19) ∂2f ∂2f ∗ = , ∂aj ∂ai ∂aj ∂ai se i, j 6= n + 1. 151 5 PUNTI SEMPLICI E PUNTI SINGOLARI Se 1 ≤ j ≤ n, per le (18) e le (19) si ha ∂2f ∗ ∂aj ∂1 (20) e, per la (18) e le (20), ! n X ∂f ∗ ∂ ∂f ∗ ∂ − = = ai ∂aj ∂1 ∂aj ∂a i i=1 n n X X ∂2f ∗ ∂2f =− ai = − ai ∂a ∂a ∂a ∂a j i j i i=1 i=1 ∂ ∂f ∗ ∂ ∂2f ∗ = = ∂1∂1 ∂1 ∂1 ∂1 = − ∗ n X i=1 ai − n X ∂f ∗ i=1 ∂ai n X ∂2f − aj ∂a ∂a j i j=1 ai ! ! = n X ∂2f ∗ =− ai ∂1∂a i i=1 n X ∂2f ai aj . ∂a ∂a i j i,j=1 Quindi g = G. 2) Sia g = 0 l’equazione del cono o dell’iperpiano tangente a F∗ in A. Si ha (§4, n.4) F = (F∗ )∗ e, per l’osservazione 5.13, 1), G = g ∗ . Quindi, per il lemma 2.8, risulta g = (g ∗ )∗ = G∗ . Esempio 5.14 1) Se l’ipersuperficie F dell’esempio 5.5, 2) ha l’origine O di molteplicità s, allora l’equazione dell’iperpiano (nel caso s = 1) o del cono (nel caso s > 1) ad essa tangente in O è fs = 0. 2) Se l’ipersuperficie F dell’esempio 5.5, 3) ha il punto An+1 di molteplicità s, l’equazione dell’iperpiano o del cono ad essa tangente in An+1 ha equazione Fs = 0. 3) Se l’ipersuperficie F dell’esempio 5.5, 4) ha il punto Ar di molteplicità s, l’equazione dell’iperpiano o del cono ad essa tangente a F in Ar è Fs = 0. Esempio 5.15 Siano F1 , . . . , Fh le componenti irriducibili di un’ipersuperficie F e sia F = r1 F 1 + · · · + rh F h . Se F1 , . . . , Fk sono le componenti di F che passano per il punto A e Qi è il cono o l’iperpiano tangente a Fi in A, allora il cono tangente a F in A è (21) Q = r1 Q1 + · · · + rk Qk . Si può supporre che F sia affine e A sia l’origine. Allora, se fi = 0 è l’equazione di Fi , l’equazione di F è f= h Y i=1 (fi )ri = 0. 6 SISTEMI LINEARI DI IPERSUPERFICI 152 Se (fi )si è la componente omogenea di grado minimo si non nulla del polinomio fi , la componente omogenea di grado minimo non nulla di f è h Y r ϕ= (fi )si i . i=1 Poiché (fi )si è una costante non nulla per k + 1 ≤ i ≤ h, l’equazione del cono tangente a F in A è (esempio 5.14, 1)) k Y (fi )si i=1 ri = 0. Per 1 ≤ i ≤ k l’equazione di Qi è (fi )si = 0 e perciò si ha la (21). 6. Sistemi lineari di ipersuperfici. 1. Un’ipersuperficie F di ordine m di P n è definita da un polinomio omogeneo X in+1 ai1 ···in+1 xi11 · · · xn+1 , i1 + · · · + in+1 = m F = i1 ,...,in+1 di grado m e dal teorema 4.11 segue che due polinomi definiscono la stessa ipersuperficie se e solo se differiscono per un fattore costante. Ed allora, se V è lo spazio vettoriale generato su K dai polinomi omogenei di grado m di K[x1 , . . . , xn+1 ], l’applicazione che all’ipersuperficie F definita dal polinomio F associa il punto [F ] dello spazio proiettivo P(V) è biunivoca. Identificando l’ipersuperficie F definita da F con la sua immagine [F ] si ha che l’insieme delle ipersuperfici algebriche di ordine m di P n si identifica con lo spazio proiettivo P(V) e quindi si può dire che P(V) è lo spazio proiettivo delle ipersuperfici di ordine m di P n . Una base B di V è costituita dai monomi di grado m (1) i n+1 xi11 xi22 · · · xn+1 , i1 + · · · + in+1 = m, ed il punto [F ] di P(V) che rappresenta l’ipersuperficie F definita da F è quello per cui i coefficienti ai1 ···in+1 di F costituiscono un sistema di coordinate omogenee rispetto a B . 6 SISTEMI LINEARI DI IPERSUPERFICI 153 Definizione 6.1 Un insieme Λ di ipersuperfici di ordine m di P n si dice sistema lineare di dimensione d di ipersuperfici di ordine m se e solo Λ è una varietà lineare di dimensione d di P(V). Se Λ e Λ′ sono sistemi lineari di ipersuperfici di ordine m di P n , allora Λ ∩ Λ′ e Λ + Λ′ sono sistemi lineari di ipersuperfici di ordine m e dal teorema 1.4 del capitolo IV, segue che (2) dim (Λ + Λ′ ) = dim Λ + dim Λ′ − dim (Λ ∩ Λ′ ). In particolare, è un sistema lineare l’insieme di tutte le ipersuperfici di ordine m di P n , di dimensione N uguale a quella di P(V). Per calcolare N occorre calcolare la dimensione di V, cioè il numero νn+1,m dei monomi (1) costituenti la base B di V. Poiché nell’insieme dei monomi (1) tutte le indeterminate xj compaiono lo stesso numero di volte e poiché in ogni monomio compaiono m indeterminate, distinte o no, ogni indeterminata xj compare (m/(n + 1))νn+1,m volte. D’altra parte, i monomi ove compare xj sono tanti quanti i monomi di ordine m − 1, cioè νn+1,m−1 ed in essi xj compare ((m − 1)/(n + 1))νn+1,m−1 volte. Quindi m m−1 n+m νn+1,m = νn+1,m−1 + νn+1,m−1 = νn+1,m−1 , n+1 n+1 n+1 ossia n+m νn+1,m−1 . νn+1,m = m Si hanno, allora, le uguaglianze n+m νn+1,m = νn+1,m−1 m n+m−1 νn+1,m−2 νn+1,m−1 = m−1 ··· n+2 νn+1,1 νn+1,2 = 2 νn+1,1 = n + 1 da cui, moltiplicando membro a membro e semplificando, segue che (n + m)(n + m − 1) · · · (n + 2)(n + 1) n+m n+m νn+1,m = = = . m n m! Quindi (3) e si ha il n+m dim V = n 6 SISTEMI LINEARI DI IPERSUPERFICI 154 Teorema 6.2 Le ipersuperfici di ordine m di P n costituiscono un sistema lineare di dimensione n+m − 1. N= n Si può dimostrare il teorema per induzione su m + n. Se m + n = 1 allora può essere m = 1, n = 0 e si ha il solo monomio x1 di grado uno; oppure m = 0, n = 1 e i monomi di grado zero sono generati da 1. In ogni caso la formula è vera. Inoltre i monomi di grado m sono quelli di grado m − 1 in x1 , . . . , xn+1 che contengono x1 e quelli di grado m in x2 , . . . , xn+1 ; per l’ipotesi induttiva possiamo calcolare il totale: m+n m+n−1 m+n−1 = + n n−1 n Esempio 6.3 1) Le curve di ordine m di P 2 costituiscono un sistema lineare di dimensione (m + 2)(m + 1) 2+m m(m + 3) −1 = N= −1 = . 2 2 2 In particolare: a) le coniche costituiscono un sistema lineare di dimensione 5, b) le cubiche costituiscono un sistema lineare di dimensione 9. 2) Le superfici di ordine m di P 3 costituiscono un sistema lineare di dimensione 3+m − 1. N= 3 3) Le quadriche di P n costituiscono un sistema lineare di dimensione n+2 − 1. N= 2 In particolare, le quadriche di P 3 costituiscono un sistema lineare di dimensione 9. 2. Sia Λ un sistema lineare di dimensione d di ipersuperfici di ordine m di P n . Se F1 = 0, . . . Fd+1 = 0, 155 6 SISTEMI LINEARI DI IPERSUPERFICI sono ipersuperfici di Λ linearmente indipendenti, cioè tali che sono linearmente indipendenti i punti [F1 ], . . . , [Fd+1 ] di P N (V), allora Λ è costituito dalle ipersuperfici λ1 F1 + · · · + λd+1 Fd+1 = 0 al variare in K di λ1 , . . . , λd+1 , non tutti nulli. Se U è il sottospazio di V generato dai polinomi F1 , . . . , Fd+1 allora Λ è lo spazio proiettivo P(U) ed il punto di P(U) che rappresenta l’ipersuperficie λ1 F1 + · · · + λd+1 Fd+1 = 0 è quello per cui, rispetto alla base (F1 , . . . , Fd+1 ) di U, è un sistema di coordinate omogenee (λ1 , . . . , λd+1 ). Teorema 6.4 Sia Λ un sistema lineare di dimensione d di ipersuperfici di ordine m di P n costituito dalle ipersuperfici λ1 F1 + · · · + λd+1 Fd+1 = 0 al variare di λ1 , . . . , λd+1 in K . Se (4) M(λ1 , . . . , λd+1 )t = 0, M ∈ Kh,d+1 è un sistema di equazioni lineari omogenee in λ1 , . . . , λd+1 , il sottoinsieme Λ′ delle ipersuperfici λ̄1 F1 + · · · + λ̄d+1 Fd+1 = 0 di Λ ottenute al variare di (λ̄1 , . . . , λ̄d+1 ) nell’insieme delle soluzioni non nulle del sistema (4) è un sistema lineare di dimensione d′ = d − k ≥ d − h, dove k = rk(M). DIMOSTRAZIONE. Se U è il sottospazio di V generato da F1 , . . . , Fd+1 allora Λ = P d (U) e Λ′ è la varietà lineare di P(U) definita dalle equazioni (4). La dimensione di Λ′ è d′ = d − k (capitolo IV, teorema 3.5) e poiché k ≤ h si ha d′ ≥ d − h. Corollario 6.5 Sia Λ il sistema lineare di dimensione d di curve di ordine m di P 2 costituito dalle curve λ1 F1 + · · · + λd+1 Fd+1 = 0, λi ∈ K, e siano P1 , . . . , Pk punti fissati in P 2 e s1 , . . . , sk interi positivi. Le curve C di Λ tali che mPj (C) = sj , j = 1, . . . , k , costituiscono sistema lineare Λ′ di dimensione k X si (si + 1) d′ ≥ d − . 2 i=1 156 6 SISTEMI LINEARI DI IPERSUPERFICI DIMOSTRAZIONE. Le curve di Λ aventi in Pj = (b1 , b2 , b3 ) molteplicità sj sono quelle che si ottengono per (λ1 , . . . , λd+1 ) tali che (5) λ1 ∂ sj −1 Fd+1 ∂ sj −1 F1 + · · · + λ = 0, d+1 ∂bl33 ∂bl22 ∂bl11 ∂bl33 ∂bl22 ∂bl11 l1 + l2 + l3 = sj − 1. Le (5) sono tante quanti i monomi di grado sj − 1 in 3 indeterminate cioè, per la (3), sono sj (sj + 1) 2 + sj − 1 = hj = 2 2 Per il teorema 6.4 si ha la tesi. Esempio 6.6 Sia Λ un sistema lineare di dimensione d di ipersuperfici di ordine m di P n . Il sottoinsieme Λ′ delle ipersuperfici di Λ passanti per h punti P1 , . . . , Ph assegnati in P n è un sistema lineare di dimensione d′ ≥ d−h. Infatti, sia Λ costituito dalle ipersuperfici Se λ1 F1 + · · · + λd+1 Fd+1 = 0, Pj = (b1j , . . . , bn+1j ), λi ∈ K. j = 1, 2, . . . , h, le ipersuperfici di Λ′ sono quelle che si ottengono per (λ1 , . . . , λd+1 ) tali che (6) λ1 F1 (b1j , . . . , bn+1j ) + · · · + λd+1 Fd+1 (b1j , . . . , bn+1j ) = 0, j = 1, . . . , h. Se per un indice j si ha Fi (b1j , . . . , bn+1j ) = 0 per ogni i = 1, . . . , d + 1, allora la (6) relativa all’indice i è un’identità, altrimenti è un’equazione lineare omogenea nelle λ1 , . . . , λd+1 e l’asserto segue dal teorema 6.4. Ne segue che: a) Se h ≤ d esistono in Λ ipersuperfici passanti per i punti Pj . In particolare, tenendo conto degli esempi 5.5, si ha: m(m + 3) punti In P 2 esistono curve di ordine m passanti per N = 2 asseganti. n+2 n −1 punti assegnati. In P esistono quadriche passanti per N = 2 b) In Λ vi è una ed una sola ipersuperficie passante per i punti Pj , cioè ′ d = 0, se e solo se la matrice delle equazioni (6) ha caratteristica d. In particolare, se d = 1, nel qual caso Λ si dice fascio di ipersuperfici, Λ ha le proprietà: a′ ) per ogni punto P ∈ P n passano ipersuperfici di Λ (segue dalla a); b′ ) se per un punto P ∈ P n passano due ipersuperfici distinte di Λ, allora per P passano tutte le ipersuperfici di Λ (segue dalla b). CAPITOLO VI CURVE PIANE ALGEBRICHE 1. Intersezione di due curve. Teorema di Bézout. (1) 1. Siano C e D curve F = F (x1 , x2 , x3 ) = 4 n X distinte di rispettivi ordini n e m, di equazioni Ai xi2 = 0, G = G(x1 , x2 , x3 ) = i=0 m X Bi xi2 = 0, i=0 con Ai , Bi ∈ K[x1 , x3 ], se non nulli, omogenei di rispettivi gradi n − i, m − i. Fissato un numero finito di punti P1 , . . . , Pk comuni a C e D è possibile scegliere un sistema di coordinate in modo che: (♣) Nessuna delle curve passi per - il punto Y = (0, 1, 0) e nessuna coppia di punti Pi sia allineata con Y . Infatti, se R1 = 0, . . . , Rh = 0 sono le equazioni delle rette distinte che congiungono a 2 a 2 i punti Pi , esiste un punto Q di P 2 che non è zero del polinomio F GR1 · · · Rk (capitolo V, osservazione 4.2); ed allora basta applicare una trasformazione proiettiva di coordinate che porti Q in Y . Se P è un punto comune alle due curve scriveremo P ∈ C ∩ D . Lemma 1.1 Se nessuna delle curve C e D passa per il punto Y = (0, 1, 0), il polinomio lineare c3 x1 − c1 x3 (c1 , c3 ∈ K) è un fattore del risultante R(x1 , x3 ) = Rx2 (F, G) dei polinomi F , G rispetto a x2 se e solo se la retta c3 x1 − c1 x3 = 0 passa per un punto P = (c1 , c2 , c3 ) ∈ C ∩ D . DIMOSTRAZIONE. Poiché nessuna delle curve passa per Y , nelle (1) risulta An = F (0, 1, 0) 6= 0 e Bm = G(0, 1, 0) 6= 0 e quindi R(x1 , x3 ), se non nullo, è omogeneo di grado mn (capitolo V, teorema 3.10). Se il punto P = (c1 , c2 , c3 ) della retta c3 x1 − c1 x3 = 0 è comune a C e D , i polinomi F̄ = F (c1 , x2 , c3 ), Ḡ = G(c1 , x2 , c3 ) hanno entrambi la radice c2 e quindi (capitolo V, teorema 3.3) è nullo il loro risultante, che è R(c1 , c3 ). Gli zeri del polinomio c3 x1 − c1 x3 in K 2 sono 4 Con la parola curva, senza altra specificazione, si deve intendere una curva algebrica del piano proiettivo P 2 su un campo K algebricamente chiuso di caratteristica 0. 158 1 TEOREMA DI BÉZOUT (kc1 , kc3 ) al variare di k in K ed essi sono tutti zeri di R(x1 , x3 ) in quanto, per il lemma 2.2 del capitolo V, si ha R(kc1 , kc3 ) = k mn R(c1 , c3 ) = 0. Dal teorema 4.3 del capitolo V, segue allora che R(x1 , x3 ) è multiplo di c3 x1 −c1 x3 . Viceversa, se R(x1 , x3 ) è multiplo di c3 x1 − c1 x3 risulta R(c1 , c3 ) = 0 e quindi F̄ , Ḡ hanno un fattore non costante comune H (capitolo V, teorema 3.3). Se c2 è una radice di H in K (che esiste perché K è algebricamente chiuso) il punto P = (c1 , c2 , c3 ) appartiene a C , a D ed alla retta c3 x1 −c1 x3 = 0. Teorema 1.2 Siano C e D curve di ordini n e m. Allora: 1) C e D hanno punti in comune; 2) se C e D hanno in comune più di mn punti distinti, hanno in comune una componente. DIMOSTRAZIONE. 1) Scelto un sistema di coordinate in modo che nessuna delle curve passi per il punto Y = (0, 1, 0), se le equazioni di C e D sono le (1), per il lemma 1.1, per ogni fattore lineare c3 x1 − c1 x3 del risultante R(x1 , x3 ) di F e G rispetto a x2 vi è un punto comune a C e D . 2) Se C e D hanno in comune più di mn punti, siano P1 , . . . , Pmn+1 ∈ C ∩ D , distinti. Scelto un sistema di coordinate soddisfacente la (♣), se (i) (i) (i) Pi = c1 , c2 , c3 , i = 1, 2, . . . , mn + 1, (i) (i) per il lemma 1.1 gli mn + 1 polinomi c3 x1 − c1 x3 sono fattori di R(x1 , x3 ). (i) (i) E sono tutti fattori distinti, perché c3 x1 − c1 x3 = 0 è l’equazione della retta Y Pi e al variare di i le rette Y Pi sono tutte distinte. Ed allora R(x1 , x3 ) è nullo perché, se non nullo, avrebbe grado mn (capitolo V, teorema 3.10) e non potrebbe avere mn + 1 fattori distinti di grado positivo. Quindi i polinomi F e G hanno un fattore non costante in comune in K[x1 , x2 , x3 ] e perciò C e D hanno una componente comune. 2. Siano C e D di equazioni (1), prive di componenti in comune e siano (i) (i) (i) Pi = c1 , c2 , c3 , i = 1, 2, . . . , k, i punti distinti ad esse comuni. Siano A = (a1 , a2 , a3 ), B = (b1 , b2 , b3 ) due punti distinti di P 2 . I punti in cui la retta AB interseca C sono in corrispondenza biunivoca con i fattori lineari distinti del polinomio (capitolo V, §5, n.1) Φ = Φ(λ, µ) = F (λa1 + µb1 , λa2 + µb2 , λa3 + µb3 ) 159 1 TEOREMA DI BÉZOUT e quelli in cui AB interseca D sono in corrispondenza biunivoca con i fattori lineari distinti del polinomio Ψ = Ψ(λ, µ) = G(λa1 + µb1 , λa2 + µb2 , λa3 + µb3 ). Ed allora, la retta AB passa per uno dei punti Pi comuni a C e D se e solo se i polinomi Φ e Ψ hanno un fattore lineare non costante in comune e quindi (capitolo V, teorema 3.17) se e solo se è nullo il risultante di Φ, Ψ rispetto a λ, µ, che è un polinomio S = S(a1 , a2 , a3 , b1 , b2 , b3 ) nelle aj , bj . Il polinomio S non è identicamente nullo perché vi sono rette AB che non passano per nessuno dei punti comuni a C e D . La retta AB passa per il punto Pi se e solo se a1 a2 a3 |A, B, Pi | = b1 b2 b3 = 0 c(i) c(i) c(i) 1 2 3 e quindi il polinomio S ed il polinomio T = k Y i=1 |A, B, Pi | hanno gli stessi zeri in K 6 . Essi hanno allora gli stessi fattori irriducibili (capitolo V, corollario 4.4). I fattori irriducibili di T sono i polinomi |A, B, Pi |. Infatti, se |A, B, Pi | fosse riducibile, essendo omogeneo e lineare nelle ai ed omogeneo e lineare nelle bi , per il lemma 2.4 del capitolo V, dovrebbe essere del tipo |A, B, Pi| = (p1 a1 + p2 a2 + p3 a3 )(q1 b1 + q2 b2 + q3 b3 ). Ma allora, essendo |A, A, Pi | = (p1 a1 + p2 a2 + p3 a3 )(q1 a1 + q2 a2 + q3 a3 ) ≡ 0, dovrebbe essere p1 = p2 = p3 = 0 oppure q1 = q2 = q3 = 0, quindi |A, B, Pi | ≡ 0; assurdo. Esistono, allora, degli interi si > 0 tali che (2) S=d k Y i=1 |A, B, Pi|si , 0 6= d ∈ K. Due fattori |A, B, Pi |, |A, B, Pj | differiscono per un fattore costante se e solo se hanno gli stessi zeri in K 6 (capitolo V, corollario 4.4), cioè se e solo se ogni retta AB che passa per Pi passa per Pj e viceversa, e questo si verifica se e solo se i = j . 160 1 TEOREMA DI BÉZOUT Definizione 1.3 L’esponente si della (2), che denoteremo I(C ∩ D, Pi ) o I(D ∩ C, Pi ), si chiama molteplicità di intersezione di C e D o di D e C in Pi . Lemma 1.4 La molteplicità di intersezione di C e D in un loro punto comune è invariante per proiettività. DIMOSTRAZIONE. Sia ω una proiettività di equazioni x′i = di1 x1 + di2 x2 + di3 x3 , i = 1, 2, 3. xi = ei1 x′1 + ei2 x′2 + ei3 x′3 , i = 1, 2, 3, Se −1 sono le equazioni di ω , le equazioni delle curve C ′ e D ′ trasformate di C e D per effetto di ω sono rispettivamente ! 3 3 3 X X X F ′ (x′1 , x′2 , x′3 ) = F e1j x′j , e2j x′j , e3j x′j = 0, j=1 G ′ (x′1 , x′2 , x′3 ) =G 3 X j=1 e1j x′j , j=1 3 X j=1 e2j x′j , j=1 3 X e3j x′j j=1 ! = 0. Sia P = (c1 , c2 , c3 ) ∈ C ∩ D . I trasformati di A, B , P sono A′ = (a′1 , a′2 , a′3 ), B ′ = (b′1 , b′2 , b′3 ), P ′ = (c′1 , c′2 , c′3 ), con a′i = di1 a1 + di2 a2 + di3 a3 , b′i = di1 b1 + di2 b2 + di3 b3 , c′i = di1 c1 + di2 c2 + di3 c3 , i = 1, 2, 3, i = 1, 2, 3, i = 1, 2, 3. Sia S ′ = S ′ (a′1 , a′2 , a′3 , b′1 , b′2 , b′3 ) il risultante rispetto a λ, µ dei polinomi Φ′ = Φ′ (λ, µ) = F ′ (λa′1 + µb′1 , λa′2 + µb′2 , λa′3 + µb′3 ) Ψ′ = Ψ′ (λ, µ) = G′ (λa′1 + µb′1 , λa′2 + µb′2 , λa′3 + µb′3 ). Si ha Φ′ = F ′ (λa′1 + µb′1 , λa′2 + µb′2 , λa′3 + µb′3 ) 3 3 3 X X X ′ ′ ′ ′ e3j (λa′j + µb′j ) = F e2j (λaj + µbj ), e1j (λaj + µbj ), j=1 j=1 j=1 3 3 3 3 X X X X ′ ′ ′ ′ = F λ e1j aj + µ e1j bj , . . . , λ e3j aj + µ e3j bj , j=1 j=1 j=1 j=1 161 1 TEOREMA DI BÉZOUT cioè Φ′ è il trasformato di Φ per effetto di ω . Similmente Ψ′ è il trasformato di Ψ per effetto di ω . Ne segue che S ′ è il trasformato di S per effetto di ω . Si ha ′ ′ ′ d11 d21 d31 a1 a1 a a a a 2 3 2 3 b′2 b′3 = b1 b2 b3 d12 d22 d32 |A′ , B ′ , Pi′| = b′1 c′ (i) c′ (i) c′ (i) c1 (i) c2 (i) c3 (i) d13 d23 d33 1 2 3 d11 d21 d31 = |A, B, Pi| d12 d22 d32 . d13 d23 d33 Essendo i fattori |A, B, Pi | di S tutti distinti ed i fattori |A′ , B ′ , Pi′| di S ′ tutti distinti, nelle decomposizioni di S e di S ′ essi compaiono con la stessa molteplicità. Teorema 1.5 Siano C e D curve di ordini n e m, di equazioni F = 0 e G = 0, prive di componenti comuni, nessuna delle quali passi per il punto Y = (0, 1, 0). Se P = (c1 , c2 , c3 ) ∈ C ∩ D e sulla retta Y P non vi sono altri punti comuni a C e D oltre P , allora I(C ∩ D, P ) è l’esponente massimo con cui il polinomio c3 x1 − c1 x3 divide il risultante R(x1 , x3 ) di F e G rispetto a x2 . DIMOSTRAZIONE. Siano (i) (i) (i) P i = c1 , c2 , c3 , i punti comuni a C e D . Assumiamo x1 , x2 , x3 le coordinate di A. Risulta x1 x2 1 |A, B, Pi | = 0 c(i) c(i) 1 2 e quindi la (2) diviene (3) S(Y ) = S = d k Y i=1 (i) i = 1, . . . , k, B = Y = (0, 1, 0) e denotiamo con x3 (i) (i) 0 = c3 x1 − c1 x3 (i) c3 (i) c3 x1 − c1 x3 si , 0 6= d ∈ K e perciò S = S(x1 , x3 ) ∈ K[x1 , x3 ]. Il polinomio S(x1 , x3 ) coincide col risultante R(x1 , x3 ). Infatti, S(x1 , x3 ) è il risultante rispetto a λ, µ dei polinomi Φ(λ, µ) = F (λx1 , λx2 + µ, λx3 ), Ψ(λ, µ) = G(λx1 , λx2 + µ, λx3 ). 162 1 TEOREMA DI BÉZOUT Poiché il coefficiente di µn in Φ(λ, µ) ed il coefficiente di µm in Ψ(λ, µ) sono rispettivamente Φ(0, 1) = F (0, 1, 0) e Ψ(0, 1) = G(0, 1, 0) e sono non nulli per ipotesi, S(x1 , x3 ) coincide (capitolo V, §3, osservazione 3.16, 1)) col risultante rispetto a µ dei polinomi Φ(1, µ) e Ψ(1, µ), cioè col risultante rispetto a µ dei polinomi (4) F (x1 , x2 + µ, x3 ), G(x1 , x2 + µ, x3 ). Il risultante rispetto a x2 dei polinomi (4) è un polinomio Q = Q(x1 , x3 , µ) = r X Qi (x1 , x3 )µi , i=1 con Qi (x1 , x3 ) ∈ K[x1 , x3 ] e si ha Q(x1 , x3 , 0) = Q0 (x1 , x3 ) = R(x1 , x3 ). Scambiando tra loro µ con x2 i polinomi (4) restano inalterati, mentre S e Q si scambiano l’uno con l’altro. Ed allora, poiché in S non compare x2 , in Q non deve comparire µ e S = Q. Quindi S(x1 , x3 ) = Q = Q0 (x1 , x3 ) = R(x1 , x3 ). Se sulla retta Y Pi non vi sono altri punti comuni a C e D oltre Pi , i fattori (i) (i) c3 x1 − c1 x3 sono tutti distinti e si = I(C ∩ D, Pi) è il massimo esponente (i) (i) con cui c3 x1 − c1 x3 divide R(x1 , x3 ). Per P = Pi si ha il teorema. Teorema 1.6 (Teorema di Bézout). Siano C e D curve di ordini n e m, prive di componenti comuni. Se P1 , . . . , Ph sono i loro punti comuni, si ha h X i=1 I(C ∩ D, Pi ) = mn. DIMOSTRAZIONE. Scelto un sistema di coordinate soddisfacenti la (♣), siano le (1) le equazioni di C e D . Se (i) (i) (i) Pi = c1 , c2 , c3 , 1 ≤ i ≤ h, per il teorema 1.5 il risultante R(x1 , x3 ) di F e G rispetto a x2 si può scrivere h si Y (i) (i) R(x1 , x3 ) = d c3 x1 − c1 x3 , i=1 0 6= d ∈ K, 163 1 TEOREMA DI BÉZOUT (i) (i) con i fattori c3 x1 − c1 x3 tutti distinti tra loro e si = I(C ∩ D, Pi). Poiché R(x1 , x3 ) ha grado mn (capitolo V, teorema 3.10) si ha h X i=1 I(C ∩ D; Pi ) = mn. Il teorema di Bézout si può anche enunciare nel modo seguente: Due curve di ordini n e m prive di componenti comuni hanno in comune mn punti, se ciascuno si conta tante volte quanta è in esso la molteplicità di intersezione delle due curve. 3. Siano sempre C e D curve di rispettivi ordini n e m, prive di componenti in comune, di equazioni (1), nessuna delle quali passi per il punto Y = (0, 1, 0). I polinomi F e G non sono divisibili per x3 e quindi i polinomi F∗ = F∗ (x, y) = F (x, y, 1), G∗ = G∗ (x, y) = G(x, y, 1), ottenuti ponendo x1 = x e x2 = y nei loro disomogeneizzati rispetto a x3 hanno rispettivi gradi n e m. Se R(x1 , x3 ) è il risultante di F e G rispetto a x2 , R∗ (x) = R(x, 1) è il risultante di F∗ , G∗ rispetto a y . Se P = (c1 , c2 , c3 ) ∈ C ∩ D , il fattore c3 x1 − c1 x3 di R(x1 , x3 ) in R∗ (x) diviene c3 (x − (c1 /c3 )) se c3 6= 0, cioè se P è proprio, e la costante c1 se c3 = 0, cioè se P è improprio. Le radici di R∗ (x) in K sono, allora, le ascisse dei punti propri comuni a C e D . Da ciò e dal teorema 1.5 segue il Teorema 1.7 Siano C e D curve prive di componenti comuni, le cui restrizioni affini abbiano equazioni F = F (x, y) = 0, G = G(x, y) = 0 e sia P (x0 , y0 ) un loro punto comune. Se nessuna delle curve passa per il punto improprio Y = (0, 1, 0) dell’asse y e sulla retta x = x0 non vi sono altri punti comuni a C e D oltre P , allora I(C ∩ D, P ) è la molteplicità della radice x0 per il risultante R(x) di F e G rispetto a y . Osservazione 1.8 Se la curva D è una retta non componente di C , la molteplicità d’intersezione di C e D in un loro punto comune P definita in questo § coincide con quella definita nel capitolo V, §5. 164 1 TEOREMA DI BÉZOUT Per il precedente lemma 1.1 e per il lemma 5.2 del Capitolo V, è possibile supporre che P sia l’origine (0, 0) di A2 e che la restrizione affine di D sia la retta y = 0, perché a questo caso ci si può sempre ricondurre mediante una proiettività. La molteplicità d’intersezione di C e D in P , secondo la definizione del capitolo V, §5, è l’esponente massimo r con cui x divide il polinomio F (x, 0) e secondo la definizione data in questo §, per il teorema 1.7, è l’esponente massimo s con cui x divide il risultante R(x) rispetto a y dei polinomi F (x, y), y . Essendo R(x) = F (x, 0) (capitolo V, esempio 3.4), si ha r = s. 4. La molteplicità d’intersezione di C e D in un loro punto comune P è influenzata dalle molteplicità di P per le due curve nel modo espresso dal seguente Teorema 1.9 Se C e D sono curve prive di componenti comuni, in ogni punto P ∈ C ∩ D si ha I(C ∩ D, P ) ≥ mP (C)mP (D). DIMOSTRAZIONE. Si può supporre che: a) nessuna delle curve passi per il punto Y = (0, 1, 0), b) P = (0, 0, 1), c) sulla retta Y P non vi siano punti di C ∩ D distinti da P . Se r = mP (C) e s = mP (D), le rispettive equazioni delle restrizioni affini di C e D si possono scrivere f = fr + fr+1 + · · · + fn = 0 g = gs + gs+1 + · · · + gm = 0 dove fi , gi ∈ K[x, y], se non nulli, sono omogenei di grado i e fr , gs 6= 0 (capitolo V, esempio 5.5, 2)). Se fi = ai0 xi + ai1 xi−1 y + · · · + aii y i , r ≤ i ≤ n, allora f = ϕ0 xr + ϕ1 xr−1 y + · · · + ϕr y r + ϕr+1 y r+1 + · · · + ϕn y n , dove ϕ0 = ar0 + ar+1 0 x + · · · + an0 xn−r ϕ1 = ar1 + ar+1 1 x + · · · + an1 xn−r ··· = ··· 165 1 TEOREMA DI BÉZOUT e ϕn 6= 0 perché C non passa per Y . Similmente g = g(x, y) = ψ0 xs + ψ1 xs−1 y + · · · + ψs y s + ψs+1 y s+1 + · · · + ψm y m , con ψj ∈ K[x] e ψm 6= 0. Per il teorema 1.7 basta dimostrare che il risultante R(x) dei polinomi f, g rispetto a y è divisibile per xrs . Si ha ϕ0 xr ϕ1 xr−1 . . . ϕn 0 . . . 0 r 0 ϕ0 x . . . ϕn−1 ϕn . . . 0 ... 0 0 . . . ϕ n . R(x) = s s−1 ... ψ0 x ψ1 x s 0 ψ x . . . 0 ... 0 0 ... ψm Moltiplicando la prima riga del determinante per xs , la seconda per xs−1 ,..., la s − ma per x, la (m + 1)−ma per xr , la (m + 2)−ma per xr−1 ,..., la (m + r)−ma per x, il determinante risulta moltiplicato per xp con s(s + 1) r(r + 1) + . 2 2 D’altra parte, dal determinante ottenuto si può portare fuori segno di determinante: xr+s dalla prima colonna, xr+s−1 dalla seconda,..., x dalla (r +s)−ma e quindi si può scrivere p = s + (s − 1) + · · · + 1 + r + (r − 1) + · · · + 1 = xp R(x) = xq S(x), S(x) ∈ K[x], con q = (r + s) + (r + s − 1) + · · · + 1 = (r + s)(r + s + 1) . 2 Risulta q−p = (r + s)(r + s + 1) s(s + 1) r(r + 1) − − = rs 2 2 2 e quindi R(x) = xrs S(x). Corollario 1.10 Siano C e D curve di ordini n e m prive di componenti comuni. Se P1 , . . . , Ph sono i punti distinti comuni a C e D , risulta h X i=1 mPi (C)mPi (D) ≤ mn. 166 1 TEOREMA DI BÉZOUT DIMOSTRAZIONE. Per il teorema di Bézout si ha Per il teorema 1.9 si ha mPi (C)mPi (D) ≤ I(C ∩ D, Pi ), Ph i=1 I(C ∩ D, Pi ) = mn. i = 1, 2, . . . , h, e quindi h X i=1 mPi (C)mPi (D) ≤ h X i=1 I(C ∩ D, Pi ) = mn. 5. Sull’intersezione di due curve di ordine n prive di componenti comuni sussiste il Teorema 1.11 Sia C1 una curva di ordine n. Se n2 punti di C1 costituiscono l’intersezione di C1 con una curva C2 di ordine n e di essi mn costituiscono l’intersezione di C1 con una curva irriducibile D di ordine m, allora i rimanenti n(n − m) punti costituiscono l’intersezione di C1 con una curva di ordine n − m. DIMOSTRAZIONE. Siano P1 , . . . , Pmn , Pmn+1 , . . . , Pn2 i punti intersezione di C1 con C2 e P1 , . . . , Pmn i punti intersezione di C1 con D . Siano F1 = 0, F2 = 0 le equazioni di C1 , C2 e λ1 F1 + λ2 F2 = 0 il fascio da esse individuato. Se P è un punto di D distinto da P1 , . . . , Pmn , vi è una curva C del fascio che passa per P (capitolo V, esempio 6.6, a ′ )). Poiché C passa per tutti i punti di C1 ∩C2 ha in comune con D gli mn+ 1 punti P1 , . . . Pmn , P e quindi (teorema 1.2) ha con D una componente in comune, che deve essere D , essendo D irriducibile. Allora, se λ̄1 F1 + λ̄2 F2 = 0 è l’equazione di C e G = 0 è l’equazione di D , si ha λ̄1 F1 + λ̄2 F2 = GE. La curva E di equazione E = 0, di ordine n−m, passa per gli n(n−m) punti Pmn+1 , . . . , Pn2 per i quali non passa D . Tali punti costituiscono l’intersezione di C1 con E , in quanto C1 ed E sono prive di componenti comuni. Infatti, essendo P 6∈ C1 , deve essere λ̄2 6= 0 ed un fattore di grado positivo comune ai polinomi F1 ed E sarebbe anche fattore di F2 , mentre, per ipotesi, F1 e F2 sono privi di fattori non costanti comuni. Corollario 1.12 (Teorema di Pascal). Le coppie di lati opposti di un esagono semplice inscritto in una conica irriducibile D si intersecano in punti allineati. DIMOSTRAZIONE. Siano Li (1 ≤ i ≤ 6) i lati consecutivi dell’esagono. Le cubiche C1 = L1 + L3 + L5 , C2 = L2 + L4 + L6 167 2 SUI PUNTI MULTIPLI DELLE CURVE si intersecano nei 9 punti Li ∩ Lj (i 6= j) ed i vertici dell’esagono costituiscono l’intersezione di C1 con la conica irriducibile D . b L4 L6 L5 L1 b L3 L2 b Quindi, per il teorema 1.11, i 3 rimanenti punti comuni a C1 e C2 , che sono L1 ∩ L4 , L2 ∩ L5 , L3 ∩ L6 , sono allineati. 2. Sui punti multipli delle curve. 1. Se una curva C non ha componenti multiple i suoi punti multipli sono i punti multipli delle sue componenti ed i punti comuni a due componenti (capitolo V, esempi 5.5, c)). Essi sono in numero finito. Sussiste, infatti, il Teorema 2.1 Una curva C di ordine n priva di componenti multiple ha solo un numero finito di punti singolari. Se essi sono P1 , . . . , Ph e s1 , . . . , sh sono le loro rispettive molteplicità, risulta (1) h X i=1 si (si − 1) ≤ n(n − 1). DIMOSTRAZIONE. Se n = 1 la curva C non ha punti singolari ed entrambi i membri della (1) sono nulli. Sia n > 1. Si può supporre che C non passi per il punto (0, 0, 1), altrimenti ci si riconduce a questo caso mediante una proiettività. Allora, se F = 0 è l’equazione di C , il polinomio F ha grado n 2 SUI PUNTI MULTIPLI DELLE CURVE 168 in x3 . Se D è la curva di equazione ∂F/∂x3 = 0, che ha ordine n − 1, i punti singolari di C sono nell’insieme C ∩ D , che è finito perché C e D non hanno componenti in comune. Infatti, sia G un fattore irriducibile di grado positivo comune ai polinomi F e ∂F/∂x3 . Da ∂H ∂G ∂F H +G = ∂x3 ∂x3 ∂x3 segue che G divide (∂G/∂x3 )H e poiché G non divide H , in quanto C non ha componenti multiple, deve dividere ∂G/∂x3 . Dai gradi dei polinomi G e ∂G/∂x3 segue che ciò è possibile solo se ∂G/∂x3 = 0, cioè G ∈ K[x1 , x2 ]. Ma allora F (0, 0, 1) = 0, contro l’ipotesi che C non passi per (0, 0, 1). Siano P1 , . . . , Ph i punti singolari di C . Si ha ti = mPi (D) ≥ si − 1, in quanto in Pi si annullano tutti i polinomi derivati di ordine si − 2 di ∂F/∂x3 , ed allora, per il corollario 1.10, risulta h X i=1 si (si − 1) ≤ h X i=1 si ti ≤ n(n − 1). Osservazione 2.2 Dal teorema 1.2 seguono i seguenti fatti. 1) Una conica C che non è costituita da una retta doppia ha al più 1 punto doppio. Se C è costituita da 2 rette distinte l’unico punto doppio di C è l’intersezione delle due rette. Se C è irriducibile non ha punti singolari perché l’esistenza su una conica di un punto singolare P comporta che la retta P Q congiungente P con un punto Q della conica è contenuta nella conica. 2) Una cubica C priva di componenti multiple non può avere più di 3 punti doppi. Il numero di 3 punti doppi è raggiunto solo dalle cubiche spezzate in 3 rette distinte (capitolo V, esempio 5.5, 1),a)). Se C è irriducibile non può avere più di 1 punto doppio. Infatti, una cubica C con 2 punti doppi distinti A e B ha con la retta AB molteplicità d’intersezione almeno 2 in ciascuno dei punti A e B e quindi (capitolo V, teorema 5.1) AB è una componente di C . 3) Una quartica C priva di componenti multiple non può avere più di 6 punti doppi. Il numero di 6 punti doppi è raggiunto solo dalle quartiche spezzate in 4 rette distinte. Se la quartica C è irriducibile non può avere più di 3 punti doppi. Infatti, sia C una quartica con 4 punti doppi distinti P1 , P2 , P3 , P4 ; fissato su C un 2 SUI PUNTI MULTIPLI DELLE CURVE 169 ulteriore punto P5 , per i 5 punti Pi passa una conica D . Per il teorema 1.9 si ha ≥ 2, se i = 1, 2, 3, 4, I(C ∩ D, Pi) ≥ 1, se i = 5, P5 e quindi i=1 I(C ∩ D, Pi) ≥ 9. Per il teorema di Bézout, C e D hanno una componente in comune. 4) Una curva irriducibile C di ordine n ≥ 3 con un punto P di molteplicità n − 1 non ha altri punti multipli oltre P . Infatti, se una curva C di ordine n con un punto P di molteplicità n − 1 ha un altro punto multiplo Q, allora la retta P Q, avendo con C molteplicità d’intersezione ≥ n − 1 in P e ≥ 2 in Q, è una componente di C . 2. Se la curva C è irriducibile la disuguaglianza (1) del teorema 2.1 può essere rafforzata, come già visto per le curve delle osservazioni 2.2. A tal fine servono le curve della seguente definizione. Definizione 2.3 Se C è una curva irriducibile, si chiama curva sub-aggiunta di C ogni curva D per la quale si abbia mP (D) ≥ mP (C) − 1 per ogni punto multiplo di C . Nel caso in cui i punti multipli di C sono tutti ordinari le curve sub-aggiunte si dicono curve aggiunte. Lemma 2.4 Se P1 , . . . Ph sono i punti singolari di C e s1 , . . . , sh sono le loro rispettive molteplicità, le curve sub-aggiunte di C di ordine m costituiscono un sistema lineare di dimensione h m(m + 3) X si (si − 1) d≥ − . 2 2 i=1 DIMOSTRAZIONE. Segue dal capitolo V, corollario 6.5 ed esempio 6.3, 1). Teorema 2.5 . Se P1 , . . . , Ph sono i punti singolari di una curva irriducibile C di ordine n e s1 , . . . , sh sono le loro rispettive molteplicità, si ha (2) h X i=1 si (si − 1) ≤ (n − 1)(n − 2). 170 2 SUI PUNTI MULTIPLI DELLE CURVE DIMOSTRAZIONE. Se n ≤ 2, C non ha punti multipli ed ambo i membri della (2) sono nulli. Sia n > 2. Esistono curve sub-aggiunte di C di ordine n − 1. Infatti, per il lemma 2.4, esse costituiscono un sistema lineare Λd di dimensione h d≥ (n − 1)(n + 2) X si (si − 1) − . 2 2 i=1 Per il teorema 2.1 si ha h X i=1 si (si − 1) ≤ n(n − 1) < n(n − 1) + 2(n − 1) = (n − 1)(n + 2) e perciò h (n − 1)(n + 2) X si (si − 1) σ= − > 0. 2 2 i=1 Esiste in Λd una curva D passante per σ punti fissati su C , distinti dai punti Pi (capitolo V, esempio 6.6, a)). Essendo C irriducibile, C e D non hanno componenti in comune e quindi (corollario 1.10) risulta n(n − 1) ≥ = = h X si (si − 1) + σ i=1 h X si (si − 1) (n − 1)(n + 2) + . 2 2 i=1 h X i=1 h (n − 1)(n + 2) X si (si − 1) si (si − 1) + − 2 2 i=1 Ed allora h (n − 1)(n + 2) X si (si − 1) 0 ≤ n(n − 1) − − 2 2 i=1 h (n − 1)(n − 2) X si (si − 1) − = 2 2 i=1 da cui la (2). Corollario 2.6 Una curva irriducibile C di ordine n può avere al più un (n − 1)(n − 2) numero di punti doppi. 2 171 3 CURVE RAZIONALI DIMOSTRAZIONE. Se d è il numero di punti doppi di C si ha 2d ≤ (n − 1)(n − 2). 3. Curve razionali. 1. Sia C una curva irriducibile di ordine n e sia F (x, y) = 0 l’equazione della sua restrizione affine. Definizione 3.1 La curva C si dice razionale se esistono due funzioni razionali ϕ(t), ψ(t) ∈ K(t) in una indeterminata t tali che: a) per ogni elemento t0 ∈ K , ad eccezione di un sottoinsieme finito, il punto (ϕ(t0 ), ψ(t0 )) appartiene a C , b) per ogni punto (x0 , y0 ) di C , ad eccezione di un sottoinsieme finito, vi è uno ed un solo elemento t0 ∈ K tale che x0 = ϕ(t0 ), y0 = ψ(t0 ). Se C è razionale e ϕ(t), ψ(t) ∈ K(t) soddisfano le a) e b) si dice che x = ϕ(t), y = ψ(t) sono equazioni parametriche di C . Esempio 3.2 1) Le rette sono razionali. Se C è una retta di equazione affine px + qy + r = 0, soddisfano le a) e b) le funzioni razionali ϕ(t) = t, ψ(t) = −(pt + r)/q se q 6= 0 e le funzioni razionali ϕ(t) = −r/p, ψ(t) = t se q = 0, e senza eccezioni. 2) Le coniche irriducibili sono razionali. Sia C una conica irriducibile la cui restrizione affine abbia equazione F (x, y) = 0. Fissato un punto Q1 (x1 , y1 ) su C , le intersezioni proprie di C con la retta y − y1 = λ(x − x1 ) del fascio di centro Q1 sono i punti le cui ascisse sono le radici del polinomio F (x, λ(x − x1 ) + y1 ) = b0 (λ) + b1 (λ)x + b2 (λ)x2 , bi (λ) ∈ K[λ]. Se λ è tale che b2 (λ) 6= 0, il polinomio ha due radici: x1 ed un’altra radice ϕ(λ), variabile con λ. Se ψ(λ) è l’ordinata del punto intersezione di ascissa ϕ(λ) si ha b1 (λ) b1 (λ) ϕ(λ) + x1 = − , ψ(λ) = λ − − 2x1 + y1 . b2 (λ) b2 (λ) 172 3 CURVE RAZIONALI Soddisfano le a) e b) le funzioni razionali b1 (t) − x1 , ϕ(t) = − b2 (t) b1 (t) ψ(t) = t − − 2x1 + y1 . b2 (t) Le curve irriducibili che hanno il massimo numero di punti singolari possibili, cioè per le quali nella (2) del teorema 2.5 vale l’uguaglianza, sono razionali. Per dimostrarlo poniamo δ(C) = (n − 1)(n − 2) − h X i=1 si (si − 1) e premettiamo il Lemma 3.3 Se C è una curva irriducibile di ordine n > 2 per la quale δ(C) = 0, le curve sub-aggiunte di ordine n − 2 di C costituiscono un sistema lineare Λn−2 di dimensione n − 2. DIMOSTRAZIONE. Siano P1 , . . . , Ph i punti multipli di C e s1 , . . . , sh le loro rispettive molteplicità. Per il lemma 2.4, le curve sub-aggiunte di ordine n−2 di C costituiscono un sistema lineare Λd di dimensione h d ≥ (n − 2)(n + 1) X si (si − 1) − = 2 2 i=1 h X si (si − 1) (n − 2)(n − 1) = +n−2− = 2 2 i=1 δ(C) = +n−2 = 2 = n − 2. Essendo irriducibile, C non ha componenti in comune con nessuna curva di Λd e quindi ogni D ∈ Λd interseca C , oltre che in P1 , . . . , Ph , in un numero finito r(D) di punti e risulta (corollario 1.10) h X i=1 si (si − 1) + r(D) ≤ n(n − 2). Quindi r(D) ≤ n(n − 2) − h X i=1 si (si − 1) = 173 3 CURVE RAZIONALI = (n − 2) + (n − 1)(n − 2) − = n − 2 + δ(C) = = n−2 h X i=1 si (si − 1) = e r0 = max{r(D) : D ∈ Λd } ≤ n − 2. Si ha d ≤ r0 . Infatti, se fosse d > r0 , esisterebbero in Λd curve passanti per r0 + 1 punti fissati su C , distinti da P1 , . . . , Ph (capitolo V, esempio 6.6, a)), contravvenendo alla massimalità di r0 . Dunque n − 2 ≤ d ≤ n − 2 e perciò d = n − 2. Teorema 3.4 Una curva irriducibile C per la quale δ(C) = 0 è razionale. DIMOSTRAZIONE. Sia n l’ordine di C e sia F (x, y) = 0 l’equazione della sua restrizione affine. Se n ≤ 2 il teorema è vero, come segue dagli esempi 3.2. Sia n > 2 e siano P1 , . . . , Ph i punti multipli di C e s1 , . . . , sh le loro rispettive molteplicità. Fissati n−3 punti Q1 , . . . , Qn−3 su C , distinti da P1 , . . . , Ph , le curve sub-aggiunte di ordine n − 2 di C passanti per Q1 , . . . , Qn−3 costituiscono un fascio Λ′ . Infatti, esse costituiscono un sistema lineare Λ′ di dimensione d′ ≥ (n − 2) − (n − 3) = 1 (lemma 3.3 e capitolo V, esempio 6.6, a)). Se fosse d′ > 1, esisterebbe in Λ′ una curva D passante per due punti fissati su C e distinti dai punti P1 , . . . , Ph , Q1 , . . . , Qn−3 . Essa, avendo in comune con C un numero di punti Ph − 3) + 2 = i=1 si (si − 1) +(n Ph = i=1 si (si − 1) + (n − 2) + 1 − n(n − 2) + n(n − 2) P (1) = hi=1 si (si − 1) − (n − 2)(n − 1) + n(n − 2) + 1 = −δ(C) + n(n − 2) + 1 = n(n − 2) + 1, avrebbe una componente in comune con C (teorema 1.2); assurdo, perché C è irriducibile e D ha ordine minore di quello di C . Intersechiamo C con le curve di Λ′ . Se D ed E sono due curve distinte di Λ′ di rispettive equazioni G = 0 e H = 0, le curve di Λ′ sono E e le curve G + λH = 0 al variare di λ in K . Scegliamo, come è possibile, un sistema di riferimento in modo che: (i) nessuna delle curve C, D, E passi per il punto Y = (0, 1, 0), (ii) nessun punto di C ∩ D sia improprio, 174 3 CURVE RAZIONALI (iii) nessuna coppia di punti di C ∩ D sia allineata con Y . Per la (i) si ha che F = n X i ai y , G= i=0 n−2 X i ci y , H= i=0 n−2 X di y i , i=0 con ai , ci , di ∈ K[x] e an , cn−2 , dn−2 6= 0. Le ascisse dei punti propri comuni a C ed alla curva Dλ di equazione G + λH = 0 sono le radici del risultante R(x, λ) dei polinomi F e G + λH rispetto a y . Sia R(x, λ) = N X bi (λ)xi , i=0 N = n(n − 2). Poiché R(x, 0) è il risultante rispetto a y dei polinomi F e G ed esso ha grado n(n − 2), perché, per la (ii), tutti i punti comuni a C e D sono propri, risulta bN (0) 6= 0; quindi bN (λ) è non nullo. Siano λ1 , . . . , λr le radici distinte di bN (λ) in K . Se t0 ∈ K e t0 6= λ1 , . . . , λr , C e Dt0 non hanno punti impropri in comune. Sia Pi = (xi , yi), Qj = (zj , wj ), 1 ≤ i ≤ h, 1 ≤ j ≤ n − 3, e siano S1 , . . . , Sm i punti di C su tutte le rette x = xi e x = zj , distinti dai punti Pi e Qj . Poiché per nessuno dei punti Sk passa la curva D , per ogni Sk passa una ben determinata curva G+ λ̄k H = 0 di Λ′ (capitolo V, esempio 6.6, a′ ) e b′ )) ed allora, se t0 6= λ̄1 , . . . , λ̄m , su ogni retta x = xi non vi sono punti comuni a C e a Dt0 oltre Pi e su ogni retta x = zj non vi sono altri punti comuni a C ed a Dt0 oltre Qj . Se G + λ̄0 H = 0 è la curva di Λ′ che passa per Y e t0 è anche distinto da λ̄0 allora, per il teorema 1.7, la molteplicità delle radici xi e zj per il polinomio R(x, t0 ) sono rispettivamente I(C ∩ Dt0 , Pi ) e I(C ∩ Dt0 , Qj ). Quindi, per il teorema 1.9, la molteplicità della radice xi di R(x, t0 ) è ≥ si (si − 1) e la molteplicità della radice zj è ≥ 1. Poiché, per la (1), si ha h X si (si − 1) + (n − 3) = n(n − 2) − 1 = N − 1, i=1 R(x, t0 ) ha esattamente un’altra radice ϕ(t0 ) e si ha h X i=1 si (si − 1)xi + n−3 X j=1 zj + ϕ(t0 ) = − bN −1 (t0 ) . bN (t0 ) 175 3 CURVE RAZIONALI Sia ϕ(t) ∈ K(t) la funzione razionale h n−3 X bN −1 (t) X ϕ(t) = − − si (si − 1)xi − zj . bN (t) i=1 j=1 In modo analogo, a partire dal risultante rispetto a x, si ottiene un’altra funzione razionale ψ(t) ∈ K(t). Con l’eccezione di un numero finito di elementi di K , quelli che sono stati esclusi nella precedente costruzione, il punto (ϕ(t0 ), ψ(t0 )) è un punto di C , cioè è soddisfatta la a) della definizione 3.1. Se (x0 , y0 ) è un punto di C che non appartiene ad E , vi è uno ed un solo t0 ∈ K tale che la curva Dt0 passa per (x0 , y0 ), precisamente t0 = −G(x0 , y0 )/H(x0 , y0). Quindi il polinomio R(x, t0 ) ha x0 come radice e perciò x0 = ϕ(t0 ). Similmente y0 = ψ(t0 ). Quindi è soddisfatta la b) della definizione 3.1 perché i punti di C che appartengono ad E sono in numero finito; perciò C è razionale. Corollario 3.5 Una curva C irriducibile di ordine n con punti doppi è razionale. (n − 1)(n − 2) 2 DIMOSTRAZIONE. Per il teorema 2.5 la curva non ha altri punti multipli e δ(C) = 0. Corollario 3.6 Una curva C irriducibile di ordine n con un punto P di molteplicità n − 1 è razionale. DIMOSTRAZIONE. La curva C non ha altri punti multipli (osservazione 2.2, 4)) e δ(C) = 0. Osservazione 3.7 Per ogni intero n > 0 esistono curve razionali di ordine n. Tale è, ad esempio, la curva C la cui restrizione affine ha equazione xn−1 + y n = 0. È ovvio se n ≤ 2. Se n ≥ 3, la curva C ha l’origine O di molteplicità n−1 (capitolo V, esempio 5.14) ed esso è l’unico punto multiplo di C . La curva è irriducibile. Infatti essa ha il solo punto improprio X(1, 0, 0) e quindi due sue componenti irriducibili distinte passerebbero entrambe per X e perciò X sarebbe multiplo per C (capitolo V, esempio 5.5, 1),b)), contro il fatto che X è semplice per C . Quindi C è razionale per il corollario 3.6. 176 3 CURVE RAZIONALI Osservazione 3.8 Se C è una curva irriducibile di ordine n ≥ 3 con un punto di molteplicità n − 1, le curve sub-aggiunte di ordine n − 2 di C sono costituite ciascuna da n − 2 rette passanti per P (capitolo V, osservazione 5.7). Il fascio di quelle passanti per n − 3 punti Q1 , . . . , Qn−3 fissati su C , distinti da P , è costituito dalle curve di ordine n − 2 spezzate nelle n − 3 rette P Qi ed in un’altra retta variabile nel fascio di rette di centro P . Ed allora, per determinare equazioni parametriche di C basta intersecarla con le rette del fascio di centro P . Ad esempio, se C è la curva xn−1 + y n = 0 dell’osservazione 3.7, per determinare sue equazioni parametriche basta intersecarla con le rette per l’origine O . Le ascisse dei punti propri comuni a C ed alla retta y = λx sono le radici dell’equazione xn−1 (λn x + 1) = 0 e quindi x=− 1 , λn y=− 1 λn−1 sono equazioni parametriche di C . Osservazione 3.9 Per ogni curva irriducibile C si definisce il genere g(C), che è un intero non negativo; si ha δ(C) ≥ 2g(C) e se tutti i punti multipli di C sono ordinari vale l’uguaglianza. Si dimostra che C è razionale se e solo se g(C) = 0. Esistono, però, curve razionali per le quali δ(C) > 0. Ad esempio, la quartica C di equazione affine (x2 − y)2 − y 3 = 0 è irriducibile, ha un solo punto doppio nell’origine e quindi per essa δ(C) > 0. Essa è razionale in quanto le funzioni razionali t2 − 1 ϕ(t) = , t3 (t2 − 1)2 ψ(t) = t4 soddisfano la a) e soddisfano anche la b) perché t= ψ − ϕ2 . ϕψ 177 4 LE POLARI DI UNA CURVA 4. Le polari di una curva. 1. Sia C una curva di ordine n di equazione F (x1 , x2 , x3 ) = 0. Siano A = (a1 , a2 , a3 ) e B = (b1 , b2 , b3 ) punti distinti di P 2 e Φ(λ, µ) = F (λa1 + µb1 , λa2 + µb2 , λa3 + µb3 ) = n X αi λn−i µi i=0 il polinomio in λ, µ introdotto nel capitolo V, §5. Per la formula di Mac Laurin (capitolo V, §1), applicata al polinomio ϕ(µ) = Φ(1, µ) = F (a1 + µb1 , a2 + µb2 , a3 + µb3 ) = n X αi µi i=0 si ha αn−r = X ϕ(n−r) (0) ∂ n−r F 1 bi1 bi2 bi3 = (n − r)! (n − r)! i ,i ,i ∂ai33 ∂ai22 ∂ai11 1 2 3 1 2 3 ed applicata al polinomio ψ(λ) = Φ(λ, 1) = F (λa1 + b1 , λa2 + b2 , λa3 + b3 ) = n X αi λn−i i=0 si ha αn−r = Quindi (1) 1 X ∂r F ψ (r) (0) = aj1 aj2 aj3 . r! r! j ,j ,j ∂bj33 ∂bj22 ∂bj11 1 2 3 1 2 3 X ∂ n−r F ∂r F 1 1 X j1 j2 j3 i1 i2 i3 b b b = 1 2 3 j3 j2 j1 a1 a2 a3 . i3 i2 i1 (n − r)! i ,i ,i ∂a3 ∂a2 ∂a1 r! j ,j ,j ∂b3 ∂b2 ∂b1 1 2 3 1 2 3 Definizione 4.1 Fissato A, se αn−r (0 < r < n) non risulta nullo qualunque sia B , cioè A non è un punto di molteplicità > n − r per C , la curva di equazione (2) X i1 ,i2 ,i3 ∂ n−r F i1 i2 i3 i3 i2 i1 x1 x2 x3 = 0, ∂a3 ∂a2 ∂a1 che ha ordine n − r , si dice polare r-ma di A rispetto a C e si denota PAr (C). Se A è un punto di molteplicità > n − r per C la polare r−ma di A rispetto a C non esiste. 178 4 LE POLARI DI UNA CURVA In virtù della (1) l’equazione di PAr (C) si può scrivere anche (3) X ∂r F j1 j2 j3 j3 j2 j1 a1 a2 a3 = 0. ∂x3 ∂x2 ∂x1 j1 ,j2 ,j3 Esempio 4.2 1) Se in A = (a1 , a2 , a3 ) non si annullano tutti i polinomi ∂F/∂xi , cioè A non è un punto singolare di C , la (n − 1)-ma polare PAn−1 (C) ha equazione 3 X ∂F xi = 0 ∂a i i=1 ed è una retta. Se A è un punto (semplice) di C essa è la tangente a C in A e se A è un punto singolare di C non esiste. 2) Se in A = (a1 , a2 , a3 ) non si annullano tutti i polinomi derivati di ordine 2 di F , cioè A non è un punto di C di molteplicità ≥ 3, la (n−2)−ma polare PAn−2 (C) di A rispetto a C ha equazione X ∂2F xi xj = 0 ∂aj ∂ai i,j ed è una conica, che si chiama conica polare di A rispetto a C . Se A è un punto doppio di C essa è la coppia di rette tangenti a C in A (capitolo V, §5, (15)) e se A è un punto di C di molteplicità ≥ 3 non esiste. Se A ∈ C , la conica polare di A rispetto a C , se esiste, passa per A. Infatti, per il teorema di Eulero (capitolo V, teorema 2.3) si ha 3 3 3 X X X ∂2F ∂ ∂F aj ai ai aj = ∂aj ∂ai ∂aj ∂ai i,j=1 j=1 i=1 = (n − 1) 3 X i=1 ai ∂F ∂ai = (n − 1)nF (a1 , a2 , a3 ) = 0. Osservazione 4.3 La nozione di curva polare di un punto rispetto ad una data curva è invariante per proiettività, cioè se C è una curva ed A è un punto, una proiettività ω trasforma la polare r -ma di A rispetto a C nella polare r -ma di A′ = ω(A) rispetto a C ′ = ω(C). ′ Infatti, il coefficiente αn−r del polinomio Φ′ (λ, µ) relativo alla curva C ′ è il trasformato del coefficiente αn−r del polinomio Φ(λ, µ) relativo alla curva C (capitolo V, dimostrazione del lemma 5.2). 4 LE POLARI DI UNA CURVA 179 Teorema 4.4 Sia C una curva di ordine n e siano A, B punti tali che PAr (C) e PBn−r (C) esistano. Allora, se B ∈ PAr (C) si ha A ∈ PBn−r (C). DIMOSTRAZIONE. Se A = (a1 , a2 , a3 ) e B = (b1 , b2 , b3 ) la curva PAr (C), nella forma (2), ha equazione X i1 ,i2 ,i3 ∂ n−r F xi11 xi22 xi33 = 0, ∂ai33 ∂ai22 ∂ai11 mentre la curva PBn−r (C), nella forma (3), ha equazione X i1 ,i2 ,i3 ∂ n−r F bi11 bi22 bi33 = 0. ∂xi33 ∂xi22 ∂xi11 Il fatto che B ∈ PAr (C) è espresso dalla X i1 ,i2 ,i3 ∂ n−r F bi11 bi22 bi33 = 0, ∂ai33 ∂ai22 ∂ai11 la quale esprime anche che A ∈ PBn−r (C). Teorema 4.5 Sia A un punto non singolare per C . Allora, le intersezioni di C con PA1 (C) sono i punti singolari di C ed i punti semplici B tali che la retta tangente a C in B passa per A. DIMOSTRAZIONE. Se A = (a1 , a2 , a3 ), PA1 (C) ha equazione (nella forma (3)) 3 X ∂F ai = 0 ∂x i i=1 e quindi passa per tutti i punti singolari di C . Sia B ∈ C ∩ PA1 (C), semplice per C . Per il teorema 4.4, la (n − 1)−ma polare PBn−1 (C) di B rispetto a C , che è la tangente a C in B , passa per A. Viceversa, sia B un punto semplice per C tale che la retta R tangente a C in B passi per A. Essendo R = PBn−1 (C), per il teorema 4.4 si ha B ∈ PA1 (C). Esempio 4.6 Se C è una conica, l’unica polare di un punto A rispetto a C che si può considerare è PA1 (C), che è una retta: la retta polare di A rispetto a C . Si ha: a) Se C è irriducibile, allora PA1 (C) è definita per ogni punto A e se A ∈ C essa è la retta tangente a C in A. 180 4 LE POLARI DI UNA CURVA b) Se C è spezzata in due rette distinte, il loro punto comune B è l’unico punto per cui la retta polare non è definita; per ogni punto A 6= B la retta polare di A rispetto a C passa per B e se A ∈ C è la retta AB . c) Se C è spezzata in due rette coincidenti con la retta R, la retta polare rispetto a C non è definita per tutti e solo i punti di C e per ogni punto A 6∈ C essa è la retta R. Se A è un punto non singolare per C , tra le rette passanti per A ve ne sono solo un numero finito m che sono tangenti a C in qualche punto semplice e se n è l’ordine di C risulta m ≤ n(n − 1). Per dimostrarlo premettiamo il seguente lemma. Lemma 4.7 Sia C una curva di ordine n > 1 e sia A un punto non singolare per C . Una componente semplice D di C è componente di PA1 (C) se e solo se D è una retta passante per A. DIMOSTRAZIONE. Si può scegliere un riferimento in modo che sia A = (0, 0, 1), altrimenti, per l’osservazione 4.3, ci si riconduce a questo caso mediante una proiettività. Se F = 0 è l’equazione di C , l’equazione di PA1 (C), nella forma (3), è ∂F/∂x3 = 0. Se una retta D per A di quazione b1 x1 +b2 x2 = 0 è componente semplice di C si ha F = (b1 x1 + b2 x2 )H, ∂F ∂H = (b1 x1 + b2 x2 ) ∂x3 ∂x3 e perciò D è una componente di PA1 (C). Viceversa, sia D una componente semplice di C che sia anche componente di PA1 (C). Se G = 0 è l’equazione di D , si ha F = GH con G che non divide H . Da ∂F ∂H ∂G = G+H , ∂x3 ∂x3 ∂x3 poiché G divide ∂F/∂x3 , segue che G divide (∂G/∂x3 )H e poiché non divide H deve dividere ∂G/∂x3 , il che è possibile solo se ∂G/∂x3 = 0, cioè G ∈ K[x1 , x2 ]. Ed allora G, essendo irriducibile, deve essere lineare (capitolo V, teorema 2.11), cioè G = b1 x1 + b2 x2 , e perciò D è una retta passante per A. b1 , b2 ∈ K 4 LE POLARI DI UNA CURVA 181 Teorema 4.8 Sia C una curva di ordine n > 1. Se A è un punto non singolare per C , vi è solo un numero finito di rette tangenti a C in punti semplici che passano per A e tale numero è m ≤ n(n − 1). DIMOSTRAZIONE. Per il teorema 4.5, le rette che sono tangenti a C in qualche punto semplice e passano per A sono quelle che congiungono A con i punti di C ∩ PA1 (C) che sono semplici 5 per C . Se C e PA1 (C) non hanno componenti in comune, il numero di punti di C ∩ PA1 (C) è ≤ n(n − 1) (teorema 1.2) e quindi le rette richieste sono m ≤ n(n − 1). Se C e PA1 (C) hanno componenti in comune, siano L1 , . . . , Lk quelle di esse semplici per C , che, per il lemma 4.7, sono rette passanti per A e sono tangenti a C in ogni loro punto. Se su C non vi sono altri punti semplici fuori delle rette L1 , . . . , Lk per i quali passa PA1 (C) le rette richieste sono solo le k rette L1 , . . . , Lk e poiché k < n e k ≤ n − 1 si ha k ≤ k 2 < n(n − 1). Se su C vi sono punti semplici fuori delle rette L1 , . . . , Lk per i quali passa PA1 (C), questi sono tra le intersezioni della curva D costituita dalle componenti semplici di C distinte dalle rette L1 , . . . , Lk e la curva E costituita dalle componenti di PA1 (C) che non sono componenti di C . Se d è l’ordine di D ed e è l’ordine di E le rette richieste sono al massimo k + de e si ha k + de ≤ k + (n − k)(n − 1 − k) (perché d ≤ n − k, e ≤ n − 1 − k) = k + n(n − 1) − nk − kn + k(k + 1) < n(n − 1) (perché k < kn, k(k + 1) ≤ kn). Osservazione 4.9 Si dimostra che se una curva irriducibile C di ordine n ha come punti singolari solo d nodi e k cuspidi ordinarie, il numero m di rette tangenti a C passanti per A, detto classe di C , è espresso dalla m = n(n − 1) − 2d − 3k che si dice prima formula di Pl ücker. 5 1 Se A ∈ PA (C) è un punto semplice per C , la congiungente A con A è la retta tangente a C in A. 5 FLESSI E CURVA HESSIANA 182 5. Flessi di una curva. Curva Hessiana. 1. Sia C una curva di ordine n. Definizione 5.1 Un flesso di C è un punto A semplice per C in cui la molteplicità di intersezione di C con la retta tangente a C in A è ≥ 3. Per una retta tutti i suoi punti sono flessi, mentre una conica irriducibile non ha flessi. Per le curve di ordine n ≥ 3 si ha: Teorema 5.2 Sia C una curva di ordine n ≥ 3. Un punto semplice A di C è un flesso di C se e solo se la conica polare PAn−2 (C) di A rispetto a C ha come componente la retta tangente a C in A. DIMOSTRAZIONE. Sia F = 0 l’equazione di C . Sia A = (a1 , a2 , a3 ) un punto semplice di C e sia B = (b1 , b2 , b3 ) un altro punto della retta tangente T a C in A. Dalle (12) e (10.i) del capitolo V, §5, segue che A è un flesso di C se e solo se 3 X ∂2F bi bj = 0, ∂aj ∂ai i,j=1 cioè se e solo se B appartiene alla conica polare PAn−2 (C) di A rispetto a C . Poiché tale condizione deve valere per ogni punto B di T distinto da A si ha il teorema. 2. Sia sempre C di ordine n ≥ 3 e sia F = 0 la sua equazione. Definizione 5.3 Si chiama curva Hessiana di C la curva H(C) di equazione 2 2 2 ∂ F ∂ F ∂ F ∂x2 ∂x ∂x ∂x ∂x 2 1 3 1 1 2 2 2 ∂ F ∂ F ∂ F = 0. ∂x ∂x ∂x22 ∂x3 ∂x2 1 2 ∂2F ∂2F ∂ 2 F ∂x ∂x ∂x2 ∂x3 ∂x23 1 3 H(C) ha ordine 3(n − 2) ed i suoi punti sono tutti e solo quelli la cui conica polare rispetto a C non esiste o è degenere. 0 H(C) passa per tutti i punti multipli di C . Infatti, sia A un punto di C di molteplicità s ≥ 2; se s > 2 la conica polare di A rispetto a C non esiste, mentre se s = 2 essa è spezzata nelle tangenti a C in A. 183 5 FLESSI E CURVA HESSIANA Teorema 5.4 Se C è una curva di ordine n ≥ 3, i flessi di C sono i punti semplici di C che stanno sulla sua Hessiana. DIMOSTRAZIONE. Se A è un flesso di C , la conica polare PAn−2 (C) di A rispetto a C è degenere (teorema 5.2) e quindi A appartiene ad H(C). Viceversa, ogni punto semplice A di C per cui passa H(C) è un flesso di C . Per il teorema 5.2, basta dimostrare che la retta tangente a C in A è componente di PAn−2 (C). La conica PAn−2 (C) è spezzata, perché A è un punto di H(C), e passa per A (esempio 4.2, 2)). Se F = 0 è l’equazione di C ed A = (a1 , a2 , a3 ), l’equazione di PAn−2 (C) è 3 X ∂2F xi xj = 0. G(x1 , x2 , x3 ) = ∂aj ∂ai i,j=1 Il punto A è semplice per PAn−2 (C) in quanto, per il teorema di Eulero, si ha 3 3 X X ∂G ∂F ∂ ∂F ∂2F = 2(n − 1) aj =2 aj = 2 ∂ai ∂aj ∂ai ∂aj ∂ai ∂ai j=1 j=1 e perciò ∂G/∂ai (i = 1, 2, 3) non sono tutti nulli in A. La polare R di A rispetto alla conica PAn−2 (C) è la componente di PAn−2 (C) che contiene A (esempio 4.2, 2)); R ha equazione 3 X ∂G i=1 ∂ai xi = 2(n − 1) 3 X ∂F i=1 ∂ai xi = 0 e quindi è la retta tangente a C in A. Corollario 5.5 Una curva non singolare di ordine n ≥ 3 ha almeno un flesso. Corollario 5.6 Se una curva di ordine n ≥ 3 non ha infiniti flessi, allora ne ha al più 3n(n − 2). Osservazione 5.7 Si dimostra che se la curva irriducibile C ha come punti singolari solo d nodi e k cuspidi ordinarie il numero i di flessi di C è espresso dalla terza formula di Pl ücker: i = 3n(n − 2) − 6d − 8k. 184 6 LE CUBICHE 6. Le cubiche. 1. Una cubica irriducibile può avere al più un punto doppio (§2, osservazione 2.2, 1)) che può essere un nodo od una cuspide ordinaria; se essa ha un punto doppio è razionale (corollario 3.5). Una cubica priva di punti singolari è irriducibile (capitolo V, esempio 5.5, 1),b)) e si dice anche ellittica. Teorema 6.1 Ogni cubica irriducibile C con un nodo è proiettivamente equivalente alla cubica C0 di equazione affine xy = x3 + y 3. (I) DIMOSTRAZIONE. Mediante una proiettività ω1 , che trasforma il nodo P di C nel punto (0, 0, 1) e le tangenti a C in P nelle rette x1 = 0 e x2 = 0 viene trasformata in una cubica C1 per la quale (0, 0, 1) è un nodo con tangenti le rette x1 = 0 e x2 = 0 (capitolo V, lemma 5.2). Quindi C1 ha equazione x1 x2 x3 = ax31 + bx21 x2 + cx1 x22 + dx32 , a, b, c, d ∈ K, con a, d 6= 0 perché C1 , come C , è irriducibile. Con la proiettività ω2 , inversa di quella di equazioni x1 = y1 , x2 = y2 , x3 = by1 + cy2 + y3 , C1 viene trasformata nella cubica C2 di equazione y1 y2 y3 = ay13 + dy23 e questa, con la proiettività ω3 , inversa di quella di equazioni y1 = 1 z1 , a0 y2 = 1 z2 , d0 y3 = a0 d0 z3 , con a30 = a, d30 = d, viene trasformata nella cubica C0 di equazione z1 z2 z3 = z13 + z23 , la cui restrizione affine rispetto alla retta impropria z3 = 0 è la (I). Poiché ω3 ω2 ω1 è una proiettività (capitolo IV, teorema 4.11), si ha il teorema. Corollario 6.2 Tutte le cubiche irriducibili con un nodo sono proiettivamente equivalenti. 185 6 LE CUBICHE DIMOSTRAZIONE. Siano C e D due cubiche irriducibili con un nodo. Esistono due proiettività ω e τ che trasformano rispettivamente C e D nella cubica C0 di equazione affine (I). Ed allora la proiettività τ −1 ω trasforma C in D . Teorema 6.3 Ogni cubica irriducibile con una cuspide è proiettivamente equivalente alla cubica C0 di equazione affine x2 = y 3. (II) DIMOSTRAZIONE. Mediante una proiettività ω1 che trasforma la cuspide P di C nel punto (0, 0, 1) e la tangente a C in P nella retta x1 = 0, C viene trasformata in una cubica C1 per la quale (0, 0, 1) è una cuspide con tangente la retta x1 = 0. Quindi C1 ha equazione x21 x3 = ax31 + bx21 x2 + cx1 x22 + dx32 , a, b, c, d ∈ K, con d 6= 0 perché C1 è irriducibile. Con la proiettività ω2 , inversa di quella di equazioni x1 = y1 , x2 = − c y1 + y2 , 3d x3 = y3 , C1 viene trasformata nella cubica C2 di equazione y12 y3 = a1 y13 + b1 y12 y2 + d1 y23 , a1 , b1 , d1 ∈ K, d1 6= 0, e questa, con la proiettività ω3 inversa di quella di equazioni y1 = z1 , y2 = z2 , y3 = a1 z1 + b1 z2 + d1 z3 , viene trasformata nella cubica C0 di equazione z12 z3 = z23 , la cui restrizione affine rispetto alla retta impropria z3 = 0 è la (II). Corollario 6.4 Tutte le cubiche irriducibili con una cuspide sono proiettivamente equivalenti. DIMOSTRAZIONE. È analoga a quella del corollario 6.2. Teorema 6.5 Una cubica non singolare C è proiettivamente equivalente ad una cubica Ck di equazione affine (III) y 2 = x(x − 1)(x − k), 0, 1 6= k ∈ K. 186 6 LE CUBICHE DIMOSTRAZIONE. La cubica C ha almeno un flesso P (corollario 5.5) e, mediante una proiettività ω1 che trasforma P nel punto Y (0, 1, 0) e la tangente a C in P nella retta x3 = 0, essa viene trasformata in una cubica C ′ per la quale Y è un flesso con tangente la retta x3 = 0. In quanto C ′ passa per (0, 1, 0) e la relativa retta tangente è x3 = 0 la sua equazione si può scrivere (capitolo V, esempio 5.14, 2)) x3 x22 +(b0 x21 +b1 x1 x3 +b2 x23 )x2 +c0 x31 +c1 x21 x3 +c2 x1 x23 +c3 x33 = 0, bi , ci ∈ K. Essendo Y un flesso per C ′ , le intersezioni di C ′ con la retta tangente x3 = 0 coincidono tutte con Y , cioè il sistema b0 x21 x2 + c0 x31 = 0, x3 = 0, ha la sola soluzione (0, 1, 0) e quindi b0 = 0. Allora l’equazione di C ′ si può scrivere 2 b1 x1 + b2 x3 x3 x2 + = h(x1 , x3 ), 2 con h(x1 , x3 ) polinomio omogeneo di grado 3. Con la proiettività ω2 , di equazioni y1 = x1 , y2 = b1 b2 x1 + x2 + x3 , 2 2 y3 = x3 C ′ viene trasformata nella cubica C ′′ di equazione y22 y3 = h(y1 , y3 ). La restrizione affine di C ′′ rispetto alla retta impropria y3 = 0 è 2 y ′ = g(x′ ), con g(x′ ) ∈ K[x′ ] di grado 3. Il polinomio g(x′ ) ha tre radici distinte in K . Infatti, se avesse una radice multipla x0 si avrebbe g ′(x0 ) = 0 (capitolo V, teorema 1.5) ed il punto (x0 , 0) sarebbe singolare per C ′′ , contro il fatto che C ′′ , come C , è non singolare. Se a1 , a2 , a3 sono le radici in K di g(x′ ), si può scrivere 2 y ′ = d(x′ − a1 )(x′ − a2 )(x′ − a3 ), 0 6= d ∈ K. Mediante l’affinità α, inversa di quella di equazioni x′ = (a2 − a1 )x + a1 , y ′ = by, che si può riguardare come proiettività che lascia fissa la retta impropria (capitolo IV, §5, n.3), C ′′ viene trasformata nella cubica di equazione b2 y 2 = d(a2 − a1 )x[(a2 − a1 )x + a1 − a2 ][(a2 − a1 )x + a1 − a3 ] 187 6 LE CUBICHE ossia a1 − a3 a1 − a2 x+ . b y = d(a2 − a1 ) x x + a2 − a1 a1 − a2 2 2 3 Scegliendo b radice quadrata in K di d(a2 − a1 )3 e ponendo k = (a3 − a1 )/(a2 − a1 ), la trasformata di C mediante la proiettività αω2 ω1 è la cubica Ck di equazione y 2 = x(x − 1)(x − k), k 6= 0, 1. Teorema 6.6 Una cubica irriducibile C ha un solo flesso se ha una cuspide, 3 flessi se ha un nodo e 9 flessi se è non singolare. DIMOSTRAZIONE. Poiché una proiettività ω trasforma un flesso di C in un flesso di ω(C), basta dimostrarlo per le cubiche (I), (II) e (III). I flessi di una curva C sono i punti semplici nei quali essa interseca la sua curva Hessiana (teorema 5.4). Nel caso che C sia la (I), in coordinate omogenee ha equazione x1 x2 x3 = x31 + x32 ed il nodo è il punto (0, 0, 1). La curva Hessiana H(C) di C ha equazione x1 x2 x3 + 3(x31 + x32 ) = 0. Essa interseca C , oltre che nel nodo (0, 0, 1), nei punti le cui coordinate soddisfano il sistema x3 = 0, x31 + x32 = 0, che sono 3, distinti tra loro. Nel caso che C sia la (II), in coordinate omogenee ha equazione x21 x3 = x32 e la cuspide è il punto (0, 0, 1). La curva H(C) ha equazione x21 x2 = 0 ed interseca C , oltre che nella cuspide, solo nel punto (1, 0, 0), che è l’unico flesso di C . Nel caso che C sia la (III), in coordinate omogenee ha equazione x22 x3 − x31 + (1 + k)x21 x3 − kx1 x23 = 0, k 6= 0, 1. La curva H(C) ha equazione kx1 x3 [−3x1 + (1 + k)x3 ] + x3 [(1 + k)x1 − kx3 ]2 + x22 [−3x1 + (1 + k)x3 ] = 0. 188 6 LE CUBICHE Sulla retta x3 = 0 essa ha in comune con C solo il flesso (0, 1, 0). Gli altri flessi sono propri e sono i punti le cui coordinate non omogenee soddisfano il sistema 2 y = x(x − 1)(x − k) kx[−3x + (1 + k)] + [(1 + k)x − k]2 + y 2 [−3x + (1 + k)] = 0. Sostituendo nella seconda equazione y 2 con x(x − 1)(x − k), le ascisse dei flessi di C sono le radici del polinomio f (x) = 3x4 − 4(1 + k)x3 + 6kx2 − k 2 . Il polinomio f (x) ha 4 radici distinte in K . Infatti, le radici in K del suo polinomio derivato f ′ (x) = 12x3 − 12(1 + k)x2 + 12kx = 12x[x2 − (1 + k)x + k] sono 0, 1, k e nessuna di esse è radice di f (x) perché f (0) = −k 2 , f (1) = −(k − 1)2 , f (k) = −k 2 (k − 1)2 e k 6= 0, 1. Quindi (capitolo V, teorema 1.5) f (x) in K ha 4 radici distinte a1 , a2 , a3 , a4 . Essendo esse distinte da 0, 1, k , per ogni indice i l’elemento ai (ai − 1)(ai − k) ha due radici quadrate bi , −bi distinte in K e quindi i flessi propri di C sono gli 8 punti (2) Qi (ai , bi ), Ri (ai , −bi ), i = 1, 2, 3, 4. 2. Si ha Teorema 6.7 Siano C una cubica e D una curva di ordine n > 1 prive di componenti comuni. Se 3 dei 3n punti comuni a C ed a D sono su una retta R che non è componente di C , i rimanenti 3(n − 1) punti costituiscono l’intersezione di C con una curva di ordine n − 1. DIMOSTRAZIONE. Se n = 2 la cosa è ovvia. Sia n > 2. Si può supporre che la retta R abbia equazione x1 = 0, altrimenti ci si riconduce a questo caso mediante una proiettività che trasforma R nella retta x1 = 0. Siano F (x1 , x2 , x3 ) = 0 l’equazione di C e G(x1 , x2 , x3 ) = 0 quella di D . Poiché le soluzioni dell’equazione F (0, x2 , x3 ) = 0 sono anche soluzioni dell’equazione G(0, x2 , x3 ) = 0, con la stessa molteplicità, il polinomio G(0, x2 , x3 ) è multiplo di F (0, x2 , x3 ) in K[x2 , x3 ]. Sia G(0, x2 , x3 ) = H(x2 , x3 )F (0, x2 , x3 ). 189 6 LE CUBICHE Il polinomio G(x1 , x2 , x3 ) − H(x2 , x3 )F (x1 , x2 , x3 ) si annulla dove si annulla x1 e perciò è multiplo di x1 (capitolo V, teorema 4.3), cioè (1) G(x1 , x2 , x3 ) − H(x2 , x3 )F (x1 , x2 , x3 ) = x1 Q(x1 , x2 , x3 ) con Q(x1 , x2 , x3 ) polinomio omogeneo di grado n − 1. Dalla (1) segue che se un punto P comune a C, D non sta sulla retta x1 = 0 appartiene alla curva E di equazione Q(x1 , x2 , x3 ) = 0. La curva E non ha componenti in comune con C , perché un fattore comune ai polinomi F (x1 , x2 , x3 ) e Q(x1 , x2 , x3 ) sarebbe anche fattore di G(x1 , x2 , x3 ). Corollario 6.8 Siano A1 , A2 , A3 , B1 , B2 , B3 i punti intersezione di una cubica irriducibile C con una conica D che non passi per l’eventuale punto doppio di C . Sia Ri = Ai Bi 6 e sia Pi l’ulteriore intersezione di C con Ri . I punti P1 , P2 , P3 sono allineati. DIMOSTRAZIONE. La cubica C ′ = D + P1 P2 interseca C in 9 punti A1 , A2 , A3 , B1 , B2 , B3 , P1 , P2 , Q. Di essi A1 , B1 , P1 sono allineati e quindi, per il teorema 6.7, i rimanenti stanno su una conica C ′′ . Poiché anche A2 , B2 , P2 sono allineati, anche A3 , B3 , Q sono allineati e quindi Q = P3 . Corollario 6.9 Siano A1 , A2 , A3 le intersezioni di una cubica irriducibile C con una retta R non passante per l’eventuale punto doppio di C . Sia Ri la tangente a C in Ai (i = 1, 2, 3) e sia Pi l’ulteriore intersezione di Ri con C . I punti P1 , P2 , P3 sono allineati. DIMOSTRAZIONE. L’asserto segue dal corollario 6.8, considerando come conica D la retta R contata 2 volte. Corollario 6.10 La retta che congiunge 2 flessi di una cubica irriducibile C interseca ulteriormente C in un altro flesso. DIMOSTRAZIONE. Siano A1 , A2 due flessi distinti di C e sia R = A1 A2 . Sia A3 l’ulteriore intersezione di R con C . L’asserto segue dal corollario 6.9. Teorema 6.11 Se C è una cubica non singolare, per ogni coppia di flessi distinti Q, R di C vi è una proiettività di P 2 che trasforma C in sé e Q in R. 6 Se Ai = Bi tale retta è la tangente a C in Ai . 190 6 LE CUBICHE DIMOSTRAZIONE. La retta QR interseca C in un ulteriore flesso S (corollario 6.10). Vi è (teorema 6.5) una proiettività ω che trasforma S nel punto Y = (0, 1, 0) e C nella cubica Ck di equazione affine y 2 = x(x − 1)(x − k), k 6= 0, 1. I punti Q′ = ω(Q) e R′ = ω(R) sono flessi per Ck , la retta Q′ R′ passa per Y e quindi dalle (2) segue che Q′ e R′ sono del tipo Q′ = (a, b), R′ = (a, −b), a, b ∈ K, b 6= 0. L’affinità τ : (x, y) → (x, −y), che si può riguardare come proiettività che lascia fissa la retta impropria (capitolo IV, §5), trasforma Ck in sé e Q′ in R′ . La proiettività ω −1 τ ω soddisfa il teorema. Teorema 6.12 Per ogni flesso Q di una cubica non singolare C passano esattamente quattro rette distinte che sono tangenti a C , inclusa la tangente in Q, ed il loro modulo non dipende dal flesso Q. DIMOSTRAZIONE. Vi è (teorema 6.5) una proiettività ω che trasforma Q nel punto Y = (0, 1, 0) e C nella cubica Ck di equazione affine y 2 = x(x − 1)(x − k), k 6= 0, 1. Le tangenti a C passanti per Q sono trasformate da ω nelle tangenti a Ck passanti per Y e queste sono 4. Infatti, la tangente a Ck in Y è la retta impropria. Una retta propria x = a per Y è tangente a Ck se e solo se a è radice del polinomio x(x − 1)(x − k), cioè se e solo se a = 0, 1, k . Poiché k 6= 0, 1 vi sono esattamente 3 rette proprie distinte passanti per Y e tangenti a Ck . Se R è un altro flesso di C distinto da Q, per il teorema 6.11, esiste una proiettività che trasforma C in sé e Q in R. Mediante tale proiettività le tangenti a C passanti per Q vengono trasformate nelle tangenti a C passanti per R e quindi il loro modulo (capitolo IV, definizione 7.11) è lo stesso di quello delle tangenti passanti per Q. Definizione 6.13 Il modulo delle quattro rette tangenti ad una cubica non singolare C che passano per un suo flesso si chiama modulo di C e si denota j(C). 191 6 LE CUBICHE Esempio 6.14 La cubica Ck di equazione y 2 = x(x − 1)(x − k), k 6= 0, 1, ha modulo j(k). Infatti, le 4 rette R1 , R2 , R3 , R4 tangenti a Ck nel suo flesso (0, 1, 0) sono rispettivamente la retta impropria, le rette x = 0, x = 1, x = k e le loro intersezioni con la retta y = 0 sono P1 = (1, 0, 0), P2 = (0, 0, 1), P3 = (1, 0, 1), P4 = (k, 0, 1). Sistemi di coordinate omogenee di P1 , P2 , P3 , P4 sulla retta y = 0 sono rispettivamente (1, 0), (0, 1), (1, 1), (k, 1), quindi (capitolo IV, teorema 7.5) 1 00 1 1 1k 1 =k (R1 R2 R3 R4 ) = (P1 P2 P3 P4 ) = 1 00 1 k 11 1 e perciò j(Ck ) = j(k). Teorema 6.15 Due cubiche non singolari sono proiettivamente equivalenti se e solo se hanno lo stesso modulo. DIMOSTRAZIONE. Siano C e C ′ due cubiche non singolari. Se C e C ′ sono proiettivamente equivalenti, esiste una proiettività ω che trasforma C in C ′ . Un flesso Q di C viene da ω trasformato in un flesso Q′ di C ′ , le tangenti a C passanti per Q vengono trasformate nelle tangenti a C ′ passanti per Q′ e quindi j(C) = j(C ′ ). Viceversa, sia j(C) = j(C ′ ) e dimostriamo che esiste una proiettività che trasforma C in C ′ . Per il teorema 3, vi sono una proiettività ω che trasforma C nella cubica Ck di equazione (3) y 2 = x(x − 1)(x − k), k 6= 0, 1, ed una proiettività ω ′ che trasforma C ′ nella cubica Ck′ di equazione (4) y 2 = x(x − 1)(x − k ′ ), k ′ 6= 0, 1. Ed allora basta dimostare che esiste una proiettività τ che trasforma Ck in Ck′ , perché la proiettività ω ′−1 τ ω trasforma C in C ′ . Si ha (esempio 6.14 e prima parte del teorema) j(k) = j(Ck ) = j(C) = j(C ′ ) = j(Ck′ ) = j(k ′ ) 192 6 LE CUBICHE e quindi (capitolo IV, lemma 7.9) k ′ è uno degli elementi k, 1 , k 1 − k, 1 , 1−k k , k−1 k−1 . k Se k ′ = k si ha Ck = Ck′ e basta assumere come τ la proiettività identica. Se k ′ 6= k basta fare la dimostrazione dell’esistenza di τ nei casi k ′ = 1/k e k′ = 1 − k . Se k ′ = 1/k l’equazione (4) si può scrivere ky 2 = kx3 − (1 + k)x2 + x ossia, moltiplicando ambo i membri per k 2 , 3 (k 2 y)2 = (kx)3 − (1 + k)(kx)2 + k(kx) 3 che si ottiene dalla (3) con la trasformazione affine τ : (x, y) → (kx, k 2 y). Se k ′ = 1 − k l’equazione (4) si può scrivere y 2 = x3 − (2 − k)x2 + (1 − k)x o anche −y 2 = −x3 + (2 − k)x2 − (1 − k)x che si ottiene dalla (3) con la trasformazione affine τ : (x, y) → (1 − x, εy), dove ε2 = −1. In entrambi i casi, riguardando τ come proiettività che lascia fissa la retta impropria, si ha che Ck è trasformata da τ in Ck′ . 3. Sia C una cubica irriducibile e sia C ∗ il sottoinsieme dei punti semplici di C . In C ∗ è possibile definire una operazione rispetto alla quale C ∗ risulta un gruppo abeliano, nel modo seguente. (⋆) Sia P0 un punto fissato su C ∗ . Se P, Q ∈ C ∗ , sia S ′ l’ulteriore intersezione di C con la retta P Q 7 . Sia + l’operazione in C ∗ che a P, Q associa il punto S , ulteriore intersezione della retta P0 S ′ con C , cioè P + Q = S. 7 Se P = Q la retta P Q è la tangente a C in P . 193 6 LE CUBICHE TP0 P0 T U P T′ S R Q S ′ U′ Teorema 6.16 L’insieme C ∗ dei punti semplici di una cubica irriducibile C con l’addizione definita mediante la (⋆) è un gruppo abeliano. DIMOSTRAZIONE. La somma è associativa, cioè (5) (P + Q) + R = P + (Q + R). Posto P + Q = S, S + R = T, Q + R = U, per dimostrare la (5) si deve dimostrare che T = P + U. Siano S ′ , T ′, U ′ le rispettive ulteriori intersezioni di C con le rette P Q, SR, QR; essendo P0 , T ′ , T allineati, per dimostrare che T = P + U basta dimostrare che i punti P, U, T ′ sono allineati. Per la definizione dell’operazione + si ha che: P, Q, S ′ stanno su una retta L1 , P0 , S, S ′ stanno su una retta H1 , S, R, T ′ stanno su una retta L2 , P0 , T, T ′ stanno su una retta G , Q, R, U ′ stanno stanno su una retta H2 , P0 , U, U ′ stanno su una retta L3 . I punti P, Q, S ′, S, R, T ′ , P0 , U, U ′ 194 6 LE CUBICHE sono l’intersezione di C con la cubica C ′ = L1 +L2 +L3 e poiché P0 , S, S ′ sono allineati (stanno su H1 ) i rimanenti P, Q, R, T ′, U, U ′ stanno su una conica (teorema 6.7). Ma di essi Q, R, U ′ sono allineati (stanno su H2 ) e quindi i rimanenti P, U, T ′ sono allineati. È del tutto evidente che P0 + P = P per ogni P ∈ C ∗ e quindi P0 è l’elemento neutro. Per ogni punto P ∈ C ∗ esiste un punto −P ∈ C ∗ tale che P + (−P ) = P0 . Infatti, se TP0 è l’ulteriore intersezione di C con la sua tangente in P0 , l’ulteriore intersezione −P di C con la retta P TP0 soddisfa tale condizione. È evidente che P +Q=Q+P per ogni P, Q ∈ C ∗ e questo conclude la dimostrazione. Definizione 6.17 Se P è un punto semplice di C , l’ulteriore intersezione TP di C con la retta ad essa tangente in P si chiama tangenziale di P . Teorema 6.18 Se C è una cubica irriducibile 3n suoi punti semplici Q1 , . . . , Q3n costituiscono l’intersezione con una curva D di ordine n se e solo se (6) Q1 + Q2 + · · · + Q3n = nTP0 . DIMOSTRAZIONE. Se Q1 , . . . , Q3n costituiscono l’intersezione di C con una curva D di ordine n sussiste la (6). Se n = 1 ciò è vero perché, se R è la terza intersezione di C con la retta P0 Q3 risulta Q1 + Q2 = R, R + Q3 = TP0 e perciò Q1 + Q2 + Q3 = (Q1 + Q2 ) + Q3 = R + Q3 = TP0 . Sia n > 1 e procediamo per induzione su n, supponiamo che la (6) valga per tutti gli interi < n. La retta Q1 Q2 interseca C in un ulteriore punto A, la retta Q3 Q4 interseca C in un ulteriore punto B e la retta AB interseca C in un ulteriore punto C . I punti Q1 , . . . , Q3n , A, B, C sono l’intersezione di C con la curva di ordine n + 1 spezzata in D e nella retta ABC . Di questi 3(n + 1) punti, Q1 , Q2 , A sono allineati e quindi, per il teorema 6.7, i rimanenti Q3 , . . . , Q3n , B, C sono l’intersezione di C con una curva di ordine 195 6 LE CUBICHE n. Ma Q3 , Q4 , B sono allineati e perciò, sempre per il teorema 6.7, i rimanenti Q5 , . . . , Q3n , C sono l’intersezione di C con una curva E di ordine n − 1. Si ha, allora Q5 + · · · + Q3n + C = (n − 1)TP0 . Per quanto visto prima nel caso n = 1 si ha Q1 + Q2 + A = TP0 , Q3 + Q4 + B = TP0 e quindi Q1 + · · · + Q3n + A + B + C = (n + 1)TP0 . Essendo A, B, C allineati si ha A + B + C = TP0 e perciò si ha la (6). Siano ora Q1 , . . . , Q3n ∈ C soddisfacenti la (6). Per i punti Q1 , . . . , Q3n−1 passa almeno una curva di ordine n che non contiene C come componente. Ciò è ovvio per n = 1, 2. Sia n ≥ 3. Le curve di ordine n passanti per Q1 , . . . , Q3n−1 costituiscono un sistema lineare di dimensione (capitolo V, esempio 6.6) d≥ n(n + 3) (n − 1)(n − 2) − (3n − 1) = > 0. 2 2 Le curve di ordine n che contengono C come componente costituiscono un sistema lineare di dimensione uguale a quello delle curve di ordine n − 3, cioè n(n − 3)/2. Poiché (n − 1)(n − 2) n(n − 3) − = 1, 2 2 esistono curve di ordine n passanti per Q1 , . . . , Q3n−1 e non contenenti C come componente. Sia F una di tali curve e sia P l’ulteriore intersezione di F con C . Per la prima parte del teorema risulta Q1 + Q2 + · · · + Q3n−1 + P = nTP0 e quindi, sussistendo la (6), deve essere P = Q3n . Il seguente corollario generalizza il teorema 6.7. Corollario 6.19 Siano C una cubica irriducibile e D una curva di ordine n + m non contenente C come componente e non passante per l’eventuale punto doppio di C . Se 3n dei 3(n + m) punti comuni a C ed a D sono l’intersezione di C con una curva E di ordine n, i rimanenti 3m punti sono l’intersezione di C con una curva F di ordine m. 196 6 LE CUBICHE DIMOSTRAZIONE. Siano Q1 , . . . , Q3(n+m) i punti comuni a C e a D e di essi siano Q1 , . . . , Q3n l’intersezione di C con E ; per il teorema 6.18 si ha Q1 + Q2 + · · · + Q3(n+m) = (n + m)TP0 , Q1 + Q2 + · · · + Q3n = nTP0 . Sottraendo membro a membro si ha Q3n+1 + Q3n+2 + · · · + Q3(n+m) = mTP0 e quindi, per il teorema 6.18, Q3n+1 , . . . , Q3(n+m) sono l’intersezione di C con una curva F di ordine m. Corollario 6.20 Siano C1 , C2 due cubiche irriducibili che si intersechino nei punti Qi (1 ≤ i ≤ 9), tutti semplici per entrambe. Se una cubica C passa per 8 dei punti Qi passa anche per il nono. DIMOSTRAZIONE. Per il teorema 6.18 si ha Q1 + Q2 + · · · + Q9 = 3TP0 . Se C passa per Q1 , . . . , Q8 e Q è l’ulteriore sua intersezione con C1 , sempre per il teorema 6.18, si ha Q1 + Q2 + · · · + Q8 + Q = 3TP0 e quindi deve essere Q = Q9 . Nella definizione (⋆) scegliamo come punto P0 un flesso O di C . Se P è un punto semplice di C e TP è il suo tangenziale, per il teorema 6.18 si ha (7) 2P + TP = O. I punti semplici di C tali che TP = P sono i flessi di C . Dalla (7) segue allora che i flessi di C sono le soluzioni dell’equazione (8) 3X = O. Per il teorema 6.6, la (8) ha l’unica soluzione O se C ha una cuspide, 3 soluzioni distinte se C ha un nodo e 9 soluzioni distinte se C è non singolare. Se la (8) ha una soluzione U 6= O ha anche la soluzione 2U ed i punti O, U, 2U sono distinti. Infatti da 2U = U seguirebbe U = O e da 2U = O , essendo anche 3U = O , seguirebbe ancora U = O . 197 6 LE CUBICHE Se C ha un nodo i suoi flessi sono O, U, 2U e poiché O + U + 2U = O + 3U = O dal teorema 6.18 segue che sono allineati. Se C è non singolare e V è un’altra soluzione della (8) distinta da O, U, 2U , allora le 9 soluzioni distinte della (8), cioè i flessi di C , sono (9) O V 2V U U +V U + 2V 2U 2U + V 2U + 2V Dal teorema 6.18 segue che 3 flessi sono allineati se e solo se la loro somma è O ; ed allora, si verifica subito che sono allineati i 3 flessi di ogni riga e di ogni colonna del quadro (9) ed i 3 che hanno un solo elemento in ogni riga ed in ogni colonna (basta pensare allo sviluppo di un determinante del terzo ordine). Dalla (7) segue che i punti P semplici di C tali che TP = O , sono le soluzioni dell’equazione (10) 2X = O. I punti P di C tali che TP = O sono quelli nei quali la retta tangente a C passa per O . Se C è non singolare di tali rette ve ne sono esattamente 4 ed una di esse è la tangente a C in O (teorema 6.12), quindi vi sono esattamente 4 soluzioni distinte dell’equazione (10), di cui una è O . Siano A1 , A2 , A3 le altre soluzioni. Poiché i punti Ai sono soluzioni della (10) si ha 2(Ai + Aj ) = O e quindi Ai + Aj è uno dei punti O, A1, A2 , A3 ; se i 6= j esso non può essere nessuno dei punti O, Ai, Aj e quindi si ha (11) Ai + Aj = Ah , con i, j, h distinti. Per ogni punto P di C i punti P + Ai (i = 1, 2, 3) hanno lo stesso tangenziale di P . Infatti, per (7) si ha 2P + TP = O, 2(P + Ai ) + TP +Ai = O e poiché 2Ai = O ne segue che TP = TP +Ai . L’applicazione πi : C → C, i = 1, 2, 3 definita da πi (P ) = P + Ai , per ogni P ∈ C, è biunivoca. È iniettiva, perché se P + Ai = Q + Ai si ha P = Q ed è suriettiva, perché se Q ∈ C si ha πi (Q − Ai ) = Q − Ai + Ai = Q. 198 6 LE CUBICHE Teorema 6.21 Se la cubica C è non singolare e π0 è l’applicazione identica di C , le applicazioni π0 , π1 , π2 , π3 costituiscono un gruppo rispetto alla composizione. DIMOSTRAZIONE. È ovvio che π0 πi = πi π0 = πi , i = 0, 1, 2, 3. Se i, j = 1, 2, 3 e i 6= j , per ogni P ∈ C , per la (11), si ha (πj πi )(P ) = πj (P + Ai ) = P + Ai + Aj = P + Ah = πh (P ), h 6= i, j e quindi π1 π2 = π2 π1 = π3 , π1 π3 = π3 π1 = π2 , π2 π3 = π3 π2 = π1 . Inoltre, πi2 (P ) = πi (P + Ai ) = P + 2Ai = P = π0 (P ) e quindi πi2 = π0 , i = 0, 1, 2, 3.