' Elementi $ di Calcolo Tensoriale su & Spazi Vettoriali Sergio Benenti 20 giugno 2012 % Indice Palinsesto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Spazi vettoriali puri iii 1 1.1 Richiami e notazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 Forme lineari e spazi duali . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.3 Forme bilineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.4 Forme bilineari simmetriche . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.5 Forme quadratiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.6 Endomorfismi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.7 Determinante e traccia di un endomorfismo . . . . . . . . . . . . . . . . . . 14 1.8 Polinomio caratteristico di un endomorfismo . . . . . . . . . . . . . . . . . . 16 1.9 Autovalori e autovettori di un endomorfismo . . . . . . . . . . . . . . . . . . 18 1.10 Il teorema di Hamilton-Cayley . . . . . . . . . . . . . . . . . . . . . . . . . 21 1.11 Tensori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 1.12 Somma tensoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 1.13 Prodotto tensoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 1.14 Basi tensoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 1.15 Contrazione o saturazione di due indici . . . . . . . . . . . . . . . . . . . . . 28 1.16 Tensori antisimmetrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 1.17 Antisimmetrizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 1.18 Prodotto esterno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 1.19 Algebra esterna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 1.20 Il simbolo di Levi-Civita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 2 Spazi vettoriali con struttura 39 2.1 Spazi vettoriali euclidei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 2.2 Endomorfismi in spazi euclidei . . . . . . . . . . . . . . . . . . . . . . . . . 44 i ii 2.3 Endomorfismi ortogonali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 2.3.1 Rappresentazione mediante simmetrie . . . . . . . . . . . . . . . . . 52 2.3.2 Decomposizione simmetrica delle isometrie . . . . . . . . . . . . . . 53 2.3.3 Rappresentazione esponenziale . . . . . . . . . . . . . . . . . . . . . 53 2.3.4 Rappresentazione di Cayley . . . . . . . . . . . . . . . . . . . . . . . 54 2.3.5 Rappresentazione quaternionale . . . . . . . . . . . . . . . . . . . . . 55 2.4 Lo spazio vettoriale euclideo tridimensionale . . . . . . . . . . . . . . . . . . 56 2.4.1 La forma volume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 2.4.2 Aggiunzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 2.4.3 Prodotto vettoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 2.4.4 Endomorfismi assiali . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 2.4.5 Rotazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 2.5 Spazi vettoriali iperbolici . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 iii Palinsesto Argomenti trattati in questa dispensa. Puri, senza strutture addizionali euclidea Su spazi vettoriali pseudo-euclidea, iperbolica Con struttura simplettica altre puri euclidei (1) Su spazi affini Calcolo semi-euclidei (2) tensoriale pseudo-euclidei (3) Pure con connessione riemanniana (4) Su varietà differenziabili Con struttura pseudo-riemanniana (5) simplettica (6) altre Applicazioni: (1) Meccanica razionale. (2) Spazio-tempo newtoniano. (3) Spazio-tempo di Minkowski: relatività ristretta. (4) Meccanica lagrangiana. (5) Relatività generale. (6) Meccanica hamiltoniana. Capitolo 1 Spazi vettoriali puri 1.1 Richiami e notazioni Un insieme E è uno spazio vettoriale o spazio lineare sopra un corpo commutativo K se: 1. è definita un’operazione binaria interna su E, + : E × E → E, detta somma, soddisfacente agli assiomi di gruppo commutativo: u + v = v + u, ∀ u, v ∈ E, (u + v) + w = u + (v + w), ∀ u, v, w ∈ E, ∃ 0 ∈ E | u + 0 = u, ∀ u ∈ E, ∀ u ∈ E, ∃ v ∈ E | u + v = 0. 2. è definita un’operazione K × E → E, detta prodotto per uno scalare, tale da soddisfare alle seguenti condizioni: a (u + v) = a u + a v, ∀ a ∈ K, u ∈ E, v ∈ E, (a + b)u = a u + b u, ∀ a, b ∈ K, u ∈ E, (ab) u = a(b u), ∀ a, b ∈ K, u ∈ E, 1 u = u, 1 = unità in K, ∀u ∈ E. Gli elementi di E si dicono vettori, gli elementi di K scalari. Denotiamo i vettori, salvo l’elemento neutro 0 ∈ E (zero o vettore nullo), con lettere grassetto (quasi sempre minuscole). Con lo stesso simbolo 0 denotiamo anche lo zero del campo K. Per ogni vettore u si ha 0u = 0. Si denota con − u il vettore opposto a u, cioè il vettore per cui u + (−u) = 0. Scriviamo v − u al posto di v + (−u). Il vettore nullo e l’opposto di un qualunque vettore sono unici (perché unici sono, in un qualunque gruppo, l’elemento neutro e il reciproco di un qualunque elemento). 1 2 Capitolo 1. Spazi vettoriali puri Tra gli spazi vettoriali sopra un assegnato campo K ritroviamo il campo stesso e tutte le sue potenze cartesiane Kn , cioè l’insieme delle n-ple di elementi del campo. Un sottoinsieme S ⊂ E è un sottospazio se le proprietà (i) e (ii) valide in E valgono anche per tutti gli elementi di S. Se K e L sono due sottospazi, denotiamo con K + L la loro somma, cioè l’insieme dei vettori di E costituito da tutte le possibili somme di elementi di K e di L. La somma K + L e l’intersezione K ∩ L di due sottospazi vettoriali sono a loro volta dei sottospazi. Denotiamo con E ⊕ F la somma diretta di due spazi vettoriali (sul medesimo corpo K): è il prodotto cartesiano E × F dotato della naturale struttura di spazio vettoriale definita dalle operazioni (u, w) + (u0 , w0 ) = (u + u0 , w + w 0 ) e a(u, w) = (au, aw). Denoteremo anche con u ⊕ w un generico elemento di E ⊕ F . Si dice anche che uno spazio vettoriale E è la somma diretta di due suoi sottospazi K e L se E = K + L e se K ∩ L = {0}. In tal caso ogni vettore è la somma di due vettori univocamente determinati di K e L. E risulta pertanto identificabile con K ⊕ L. Una scrittura del tipo 1 2 k a v 2 + a v 2 + . . . + a vk = k X ai vi i=1 prende il nome di combinazione lineare dei vettori v i con coefficienti ai ∈ K. Due o più vettori si dicono indipendenti se la sola combinazione lineare che fornisce il vettore nullo è quella a coefficienti tutti nulli: k X ai vi = 0 =⇒ ai = 0. i=1 Uno spazio vettoriale è detto a dimensione finita se ammette una base costituita da un numero finito n di vettori, cioè un insieme di n vettori indipendenti che generano tutto E tramite tutte le loro possibili combinazioni lineari. Il numero n coincide col massimo numero di vettori indipendenti in un qualunque insieme di vettori. Esso prende il nome di dimensione dello spazio. Scriveremo En oppure dim(E) = n per indicare che la dimensione dello spazio vettoriale E è n. Una generica base di E sarà denotata con (e1 , e2 , . . . , en ) o brevemente con (ei ), dove l’indice i sarà inteso variare da 1 a n. La scrittura n X 1 2 n v = v e2 + v e2 + . . . + v en = v i ei i=1 è la rappresentazione di un generico vettore v ∈ E secondo la base (ei ). I coefficienti di questa combinazione lineare sono le componenti del vettore v. Le componenti di un vettore, fissata la base, sono univocamente determinate. Si noti la diversa posizione degli indici riservata alle componenti (v i ), in alto anziché in basso. Si conviene tuttavia di omettere il simbolo di sommatoria per indici ripetuti in alto e in basso (convenzione di Einstein). Allora la rappresentazione precedente si scrive più semplicemente v = v i ei . 3 1.1. Richiami e notazioni Si noti che non ha importanza la scelta dell’indice, purché la lettera usata appartenga ad un insieme precedentemente convenuto (per esempio, lettere latine minuscole, lettere greche, lettere latine maiuscole dopo la I, e cosı̀ via). Se per esempio conveniamo che le lettere latine minuscole a partire dalla h varino da 1 a n, la precedente scrittura è del tutto equivalente alle seguenti: v = v h eh , v = v j ej , v = v k ek , ... La diversa collocazione degli indici e la sommatoria sottintesa per indici ripetuti in alto e in basso sono convenzioni tipiche del calcolo tensoriale, i cui primi elementi saranno illustrati in questo capitolo. Il formalismo che ne deriva è agevole e sintetico. Le formule riguardanti il calcolo vettoriale o tensoriale sono in genere di tre tipi. Una formula è di tipo intrinseco o assoluto se essa coinvolge vettori o tensori ed operazioni definite su questi senza l’intervento di basi. Ad una formula di tipo intrinseco corrisponde sempre una formula con indici o in componenti, conseguente alla scelta di una base generica. Vi sono infine formule, con indici, valide soltanto per una base particolare o per una classe particolare di basi. Per sottolineare questa circostanza useremo sovente un’uguaglianza ∗ con asterisco: =. Per quel che riguarda il concetto di dimensione è opportuno ricordare che per due sottospazi di uno spazio vettoriale E vale la formula di Grassmann (Hermann Günther Grassmann, 1809-1877) dim(K + L) + dim(K ∩ L) = dim(K) + dim(L). Un’applicazione A : E → F da uno spazio vettoriale E ad uno spazio vettoriale F si dice lineare se A(a u + b v) = a A(u) + b A(v) (∀u, v ∈ E, ∀a, b ∈ K). Si dice anche che A è un omomorfismo lineare. Denoteremo in genere gli omomorfismi lineari con lettere maiuscole in grassetto. Denoteremo con Hom(E; F ) o semplicemente con L(E; F ) l’insieme delle applicazioni lineari da E a F . Quest’insieme ha una naturale struttura di spazio vettoriale, con la somma A + B e il prodotto a A per un elemento a ∈ K definiti da (A + B)(v) = A(v) + B(v), (a A)(v) = a A(v). Più in generale, se (E1 , E2 , . . ., Ep, F ) sono spazi vettoriali, un’applicazione A : E1 × E2 × . . . × Ep → F 4 Capitolo 1. Spazi vettoriali puri è detta p-lineare (genericamente multilineare) se è lineare su ogni argomento. Ad esempio l’applicazione R2 → R : (x, y) 7→ xy è bilineare (l’insieme dei numeri reali R ha un’ovvia struttura di spazio vettoriale su se stesso, di dimensione 1). Denoteremo con L(E1, E2 , . . . , Ep; F ) l’insieme delle applicazioni multilineari da E1 × E2 × . . . × Ep a F . Anch’esso è dotato di una struttura naturale di spazio vettoriale. In queste lezioni ci limiteremo a considerare solo spazi vettoriali reali (cioè sul campo dei reali, K = R) e a dimensione finita. Eesamineremo i seguenti spazi di applicazioni: L(E; F ) = Hom(E, F ) L(E; R) = E ∗ applicazioni lineari spazio duale di E L(E; E) = End(E) endomorfismi lineari su E L(E, E; R) = T2 (E) forme bilineari su E L(E ∗, . . . , E ∗, E, . . ., E ; R) = Tqp (E) | {z } | {z } p volte 1.2 tensori di tipo (p, q). q volte Forme lineari e spazi duali Un’applicazione lineare α : E → R da uno spazio vettorale E allo spazio R dei numeri reali è detta forma lineare su E o covettore. Lo spazio L(E; R) delle forme lineari è più semplicemente denotato con E ∗ ed è chiamato spazio duale di E. Al posto di α(v) useremo il simbolo hv, αi per denotare il valore del covettore α sul vettore v. Diremo che hv, αi è la valutazione di α su v o, viceversa, di v su α. Ponendo F = R in quanto si è detto nel paragrafo precedente, si vede in particolare che dim(E ∗ ) = dim(E). Esiste un’isomorfismo canonico ι : E → E ∗∗ tra lo spazio biduale E ∗∗ = L(E ∗ ; R) e lo spazio E stesso, definito dall’uguaglianza hα, ι(v)i = hv, αi. (1.1) Gli elementi di E ∗∗ saranno di seguito sempre identificati con i vettori di E. Ad ogni sottospazio K ⊂ E associamo un sottospazio K ◦ ⊂ E ∗ , detto polare di K, costituito da tutti i covettori che annullano tutti gli elementi di K: K ◦ = {α ∈ E ∗ | hu, αi = 0, ∀u ∈ K}. (1.2) 5 1.2. Forme lineari e spazi duali Sussistono le seguenti proprietà, qualunque siano i sottospazi K e L di E: dim(K) + dim(K ◦ ) = dim(E), K ◦◦ = K, K ◦ ⊂ L◦ ⇐⇒ L ⊂ K, (K + L)◦ = K ◦ ∩ L◦ , ◦ K + L◦ = (K ∩ L)◦ . (1.3) La loro dimostrazione è lasciata come esercizio. Si noti che la seconda di queste uguaglianze sottintende l’intervento dell’isomorfismo canonico tra lo spazio e il suo biduale e che inoltre, in virtù di questo isomorfismo, le ultime due uguaglianze (1.3) esprimono la medesima proprietà. Ad ogni base (ei ) di E corrisponde un base duale in E ∗ , che denotiamo con (εi ), definita implicitamente dall’uguaglianza: hej , εi i = δji (1.4) dove δji è il simbolo di Kronecker (Leopold Kronecker, 1823-1851): δji = ( 1 se i=j 0 se i 6= j Per ogni v ∈ E e α ∈ E ∗ valgono le relazioni: v = v i ei ⇐⇒ v i = hv, εi i (1.5) α = αi εi ⇐⇒ αi = hei , αi (1.6) hv, αi = αi v i (1.7) La loro dimostrazione è lasciata come esercizio. Si osservi la diversa posizione degli indici delle componenti di un covettore (in basso, anziché in alto come per le componenti dei vettori) e la simmetria formale di queste uguaglianze. L’equivalenza (1.5) mostra che le componenti di un vettore sono ottenute valutando sul vettore gli elementi della base duale. Analogamente la (1.6) mostra che le componenti di un covettore coincidono con le valutazioni di questo sugli elementi della base di E. Infine la (1.7) mostra che la valutazione tra un vettore ed un covettore è data dalla somma dei prodotti delle componenti omologhe. Osservazione 1.2.1 – Rappresentazione geometrica dei covettori. Ad ogni covettore α ∈ E ∗ si possono far corrispondere due sottoinsiemi di E: A0 = {x ∈ E |hx, αi = 0}, A1 = {x ∈ E |hx, αi = 1}. 6 Capitolo 1. Spazi vettoriali puri A0 è un sottospazio di codimensione 1, A1 è un suo laterale. La conoscenza di questi due sottoinsiemi (in effetti basterebbe la conoscenza del secondo) determina completamente α. Infatti, dato un vettore v ∈ E, o è v ∈ A0 , e allora poniamo hv, αi = 0, oppure è v = λ x con x ∈ A1 , e allora poniamo hv, αi = λ. Si osservi che, denotate con (xi ) le componenti di un generico vettore x, i due sottoinsiemi A0 e A1 sono rispettivamente definiti dalle equazioni αi xi = 0, αi xi = 1. Si tratta di una coppia di iperpiani paralleli, il primo passante per l’origine. • Rappresentazione geometrica dei covettori. 1.3 Forme bilineari Una forma bilineare su di uno spazio vettoriale E è un’applicazione bilineare di E × E in R. Lo spazio delle forme bilineari1 è denotato con L(E, E; R). Assegnata una base (ei ) di E, i numeri ϕij = ϕ(ei , ej ) (1.8) si chiamano componenti della forma bilineare secondo la base. Per ogni coppia di vettori di E si ha: ϕ(u, v) = ϕij ui v j (1.9) Le componenti [ϕij ] formano una matrice quadrata n × n. Conveniamo che il primo indice sia indice di riga, il secondo di colonna. Si chiama rango della forma ϕ il rango della matrice [ϕij ].2 1 In accordo con quanto detto all’inizio di questo capitolo. Naturalmente, affinché questa definizione abbia senso, occorre dimostrare che il rango della matrice delle componenti non dipende dalla scelta della base di E. 2 7 1.3. Forme bilineari Una forma bilineare si dice regolare o non degenere se vale la condizione ϕ(u, v) = 0, ∀v ∈ E =⇒ u=0 (1.10) =⇒ v = 0. (1.11) oppure la condizione equivalente ϕ(u, v) = 0, ∀u ∈ E Entrambe sono equivalenti alla condizione det[ϕij ] 6= 0. (1.12) Dunque una forma bilineare è regolare se e solo se ha rango massimo (= n). Che la (1.12) sia equivalente alla (1.10) segue dal fatto che, in componenti, l’implicazione (1.11) si scrive: ϕij ui v j = 0, ∀(v i ) ∈ Rn =⇒ ui = 0. Questa si semplifica in ϕij ui = 0 =⇒ ui = 0, ed esprime la circostanza che il sistema lineare omogeneo (di n equazioni in n incognite) ϕij ui = 0 ammette solo la soluzione nulla. Definizione 1.3.1 – La trasposta di una forma bilineare ϕ è la forma bilineare ϕT definita da ϕT (u, v) = ϕ(v, u) • (1.13) Si ha ovviamente ϕTT = ϕ. Definizione 1.3.2 – Una forma bilineare si dice simmetrica (rispettivamente, antisimmetrica) se ϕT = ϕ (risp. ϕT = − ϕ), (1.14) cioè se ϕ(u, v) = ϕ(v, u), (risp. ϕ(u, v) = − ϕ(v, u)). • (1.15) Questa condizione si esprime, qualunque sia la base scelta, nella simmetria (risp. nella antisimmetria) della matrice delle componenti (basta porre (u, v) = (ei , ej ) nella (1.13)): ϕij = ϕji , (risp. ϕij = − ϕji ). (1.16) Una forma bilineare ϕ è decomponibile nella somma della sua parte simmetrica ϕS e della sua parte antisimmetrica ϕA . Vale cioè l’uguaglianza ϕ = ϕS + ϕA posto ϕS = 12 (ϕ + ϕT ), ϕA = 12 (ϕ − ϕT ) (1.17) 8 Capitolo 1. Spazi vettoriali puri Osservazione 1.3.1 – Un esempio elementare ma importante di forma bilineare è dato dal prodotto tensoriale α ⊗ β di due forme lineari α, β ∈ E ∗ . Esso è definito dall’uguaglianza (α ⊗ β) (u, v) = hu, αihv, βi (1.18) Se (εi ) è la base duale di una base (ei ) di E allora gli n2 prodotti εi ⊗ εj formano una base di L(E, E; R). Cosı̀ una qualunque forma bilineare ϕ può esprimersi come combinazione lineare di questi:3 ϕ = ϕij εi ⊗ εj (1.19) dove le ϕij sono proprio le componenti definite dalla (1.8). • 1.4 Forme bilineari simmetriche Sia ϕ una forma bilineare simmetrica. Due vettori si dicono coniugati (o anche ortogonali) rispetto a ϕ se ϕ(u, v) = 0. In particolare un vettore si dice isotropo se è coniugato con se stesso, ϕ(u, u) = 0, unitario se invece ϕ(u, u) = ±1. Due sono i concetti fondamentali associati ad una forma bilineare simmetrica: quello di base canonica e quello di segnatura. Una base (ei ) di E si dice canonica (sempre rispetto a ϕ) se tutti i suoi vettori sono unitari o isotropi e fra loro coniugati, cioè se, dopo un eventuale riordinamento della base, la matrice della componenti assume la forma: 1p 0 0 (1.20) [ϕij ] = 0 −1q 0 0 0 0 dove 1p e 1q denotano le matrici unitarie di ordine p e q rispettivamente. In una base canonica si ha quindi (si confronti con la (1.9): ϕ(u, v) = p X a=1 a a u v − p+q X ub v b . (1.21) b=p+1 Si dimostra4 che esistono basi canoniche e inoltre che in ogni base canonica la matrice delle componenti è sempre del tipo (1.20), vale a dire che gli interi p e q sono invarianti rispetto alla scelta di basi canoniche. Questa notevole proprietà è nota come teorema di Sylvester o legge di inerzia delle forme quadratiche (James Joseph Sylvester, 1814-1897). Alla coppia di interi non negativi (p, q) si dà il nome di segnatura della forma bilineare simmetrica ϕ. 3 4 Sul prodotto ⊗ torneremo più avanti. La dimostrazione è in appendice al paragrafo. 9 1.5. Forme quadratiche Si osserva dalla (1.20) che la somma p + q è uguale al rango di ϕ. Per calcolare la segnatura di una forma bilineare simmetrica ϕ basterebbe determinare una base canonica (o almeno una base di vettori fra loro ortogonali) (ei ) e valutare quindi i segni dei numeri ϕ(ei , ei ), la qual cosa può rivelarsi in pratica piuttosto difficoltosa. Si può allora fare ricorso ad un metodo assai rapido, illustrato nel seguente teorema:5 Teorema 1.4.1 – Sia [ϕij ] la matrice delle componenti di una forma bilineare simmetrica ϕ relativa ad una base qualsiasi. Si consideri una qualunque successione di sottomatrici quadrate principali, di ordine crescente da 1 a n, ciascuna contenuta nella successiva: M1 , M2 , ... , Mn = [ϕij ]. Allora l’intero q della segnatura (p, q) è uguale al numero delle variazioni di segno della successione di numeri 1, M1 , det M2 , ... det Mn = det[ϕij ], dalla quale siano stati eliminati gli eventuali zeri. Calcolato l’intero q, l’intero p viene poi calcolato conoscendo il rango r della matrice: p = r − q. Si noti bene che questo metodo per il calcolo della segnatura lascia piena libertà di scelta della base e delle sottomatrici della successione. 1.5 Forme quadratiche Data un’applicazione Φ : E → R, si dice sua polarizzazione l’applicazione δΦ : E × E → R definita da δΦ(u, v) = 1 2 h i Φ(u + v) − Φ(u) − Φ(v) (1.22) Una forma quadratica su di uno spazio vettoriale E è un’applicazione Φ : E → R la cui polarizzazione δΦ è una forma bilineare (ovviamente simmetrica). Pertanto, per la sua stessa definizione, ad una forma quadratica corrisponde una forma bilineare simmetrica. Viceversa, se ϕ è una forma bilineare simmetrica allora l’applicazione Φ : E → R definita da Φ(u) = ϕ(u, u) = ϕij ui uj 5 (1.23) Una dimostrazione si trova in F.G. Tricomi, Lezioni di Analisi Matematica I (CEDAM, Padova). 10 Capitolo 1. Spazi vettoriali puri è una forma quadratica tale che δΦ = ϕ. Infatti: δΦ(u, v) = = = 1 2 1 2 1 2 Φ(u + v) − Φ(u) − Φ(v) ϕ(u + v, u + v) − ϕ(u, u) − ϕ(v, v) ϕ(u, u) + ϕ(v, v) + 2 ϕ(u, v) − ϕ(u, u) − ϕ(v, v) = ϕ(u, v). Vi è dunque una corrispondenza biunivoca fra forme quadratiche e forme bilineari simmetriche. Stante questa corrispondenza tutte le definizioni e le proprietà stabilite per le forme bilineari si trasferiscono alle forme quadratiche, e viceversa. Esempio 1.5.1 – Consideriamo E = R2 e la funzione Φ : R2 → R : (x, y) 7→ x y. Calcoliamone la polarizzazione seguendo la definizione (1.22) con u = (x1 , y1 ) e v = (x2 , y2 ): h i δΦ ((x1 , y1 ), (x2 , y2 )) = 12 (x1 + x2 )(y1 + y2 ) − x1 y1 − x2 y2 = = 1 2 1 2 (x1 y1 + x1 y2 + x2 y1 + x2 y2 − x1 y1 − x2 y2 ) (x1 y2 + x2 y1 ) . Se si fissa il vettore v = (x2 , y2 ), quest’ultima espressione è un binomio lineare in (x1 , y1 ); similmente, se si fissa il vettore u = (x1 , y1 ), essa è lineare in (x2 , y2 ). Pertanto la mappa δΦ : R2 × R2 → R : ((x1 , y1 ), (x2 , y2 )) 7→ 1 2 (x1 y2 + x2 y1 ) è bilineare e quindi Φ: R2 → R : (x, y) 7→ x y è una forma quadratica. • Definizione 1.5.1 – Una forma quadratica Φ si dice semi-definita positiva (rispettivamente, semi-definita negativa) se Φ(u) ≥ 0 (risp. Φ(u) ≤ 0) ∀u ∈ E. In particolare si dice definita positiva (risp. definita negativa) se essa si annulla solo sul vettore nullo, cioè se oltre alla condizione precedente vale l’implicazione Φ(u) = 0 ⇒ u = 0. Si dice non definita o indefinita in tutti gli altri casi. • In una base canonica si ha (si veda la (1.21)) Φ(u) = p p+q X X (ua )2 − (ub )2 . a=1 b=p+1 (1.24) 11 1.5. Forme quadratiche Di qui si osserva che: (a) una forma quadratica è semidefinita positiva se q = 0; (b) è definita positiva se p = n. Analogamente per il caso negativo. Per una forma bilineare simmetrica semi-definita positiva (o negativa) vale la disuguaglianza di Schwarz (Hermann Schwarz, 1843-1921) ϕ(u, v) 2 ≤ Φ(u)Φ(v), ∀ u, v ∈ E (1.25) Se in particolare ϕ è definita positiva (o negativa), allora si ha l’uguaglianza se e solo se u e v sono dipendenti. *** Dimostrazione dell’esistenza di basi canoniche. Basta dimostrare l’esistenza di basi ortogonali, per cui cioè ϕ(ei , ej ) = 0 per i 6= j. Se ϕ = 0 ogni base è ortogonale. Supponiamo ϕ 6= 0 e procediamo per induzione sull’intero n = dim(E). Per n = 1 ogni vettore non nullo e ∈ E è una base ortogonale per qualunque forma bilineare simmetrica su E. Sia allora n > 1 e si supponga che ogni forma bilineare simmetrica su di uno spazio di dimensione < n ammetta una base ortogonale. Posto che ϕ 6= 0, esiste almeno un vettore u ∈ E per cui ϕ(u, u) = Φ(u) 6= 0. Si consideri allora il sottospazio U = {v ∈ E | ϕ(u, v) = 0} dei vettori ortogonali a u. Siccome u ∈ / U , abbiamo m = dim(U ) ≤ n − 1. Per la restrizione a U × U di ϕ esiste allora una base ortogonale (e1 , . . . , em ). D’altra parte, posto per ogni v∈E ϕ(u, v) , vn = ϕ(u, u) si vede che ϕ(u, v − v n u) = 0. Dunque v − v n u ∈ U e quindi n v =v u+ m X v i ei . i=1 Ciò mostra che i vettori indipendenti (e1 , . . . , em , u) formano una base ortogonale di E (e quindi anche che m = n − 1). 2 *** Dimostrazione del Teorema di Sylvester. Siano (ei ) e (ei0 ) due basi canoniche per la forma bilineare simmetrica ϕ. Per la (1.24) si ha, per ogni u ∈ E, l’uguaglianza Φ(u) = p X a=1 a 2 (u ) − p+q X b=p+1 0 b 2 (u ) = p X a0 =1 a0 2 (u ) − 0 +q 0 pX 0 (ub )2 . (1.26) b0 =p0 +1 Si ha certamente p0 + q 0 = p + q = rank(ϕ). Occorre dimostrare che p0 = p. Si supponga 0 per assurdo p0 > p (e quindi q 0 < q). Considerata la relazione lineare ei = Eii ei0 tra le due basi, si scriva il sistema lineare omogeneo p+q X b=p+1 0 Ebb xb = 0, b0 = p0 + 1, . . . , p0 + q 0 . (1.27) 12 Capitolo 1. Spazi vettoriali puri Si tratta di q 0 equazioni nelle q incognite (xp+1 , . . . , xp+q ). Siccome q 0 < q, questo sistema ammette certamente una soluzione non nulla (up+1 , . . . , up+q ). Sia u ∈ E il vettore che ha tutte le altre componenti nulle: u1 = . . . = up = up+q+1 = . . . = un = 0. Per la prima parte della (1.26) si ha sicuramente Φ(u) < 0. Con una tale scelta si ha d’altra parte 0 0 ub = Eib ui = p+q X 0 Ebb ub = 0 b=p+1 perché (up+1 , . . . , up+q ) è una soluzione del sistema (1.27). Dalla seconda della (1.26) segue allora Φ(u) ≥ 0: assurdo. Per simmetria l’ipotesi p0 < p conduce pure ad un assurdo. Dunque p0 = p. 2 Dimostrazione della disuguaglianza di Schwarz. Fissati i vettori u e v, qualunque sia x ∈ R, si ha Φ(u + x v) ≥ 0 perché Φ è semidefinita positiva. Questa disuguaglianza si traduce in T (x) ≡ x2 Φ(v) + 2 x ϕ(u, v) + Φ(u) ≥ 0, (1.28) 2 dove Φ(v) ≥ 0. Se Φ(v) > 0, il discriminante ∆ = ϕ(u, v) − Φ(u)Φ(v) del trinomio T (x) non può essere positivo, altrimenti T (x) avrebbe due radici reali e distinte e la (1.28) sarebbe violata. Da ∆ ≤ 0 segue la disuguaglianza (1.25). Se Φ(v) = 0, perché la (1.28) sia sempre soddisfatta deve essere necessariamente ϕ(u, v) = 0. La (1.25) è allora soddisfatta come uguaglianza. Se u è proporzionale a v (in particolare nullo), si verifica subito che vale l’uguaglianza nella (1.25). Viceversa, se vale l’uguaglianza risulta ∆ = 0 e pertanto il trinomio T (x) ammette una radice doppia x0 tale che Φ(u + x0 v) = 0. Se Φ è definita positiva deve necessariamente essere u + x0 v = 0. 2 Osservazione 1.5.1 – Le considerazioni qui svolte sulle forme quadratiche trovano applicazione nella teoria dei massimi e minimi di una funzione a più variabili e nella classificazione delle coniche, quadriche e iperquadriche. • 1.6 Endomorfismi lineari Denotiamo con End(E) lo spazio delle applicazioni lineari L(E; E) di uno spazio vettoriale E in se stesso, cioè lo spazio degli endomorfismi lineari di E. Denotiamo semplicemente con BA la composizione di due endomorfismi B ◦ A. L’operazione di composizione degli endomorfismi conferisce allo spazio End(E) la struttura di algebra associativa con unità; l’unità è l’applicazione identica di E in se stesso, che denotiamo con idE o con 1E o semplicemente con 1. Denotiamo con 0 : E → E l’applicazione che manda tutti i vettori di E nello zero. Gli endomorfismi invertibili sono detti automorfismi o trasformazioni lineari di E. Formano un gruppo che denotiamo con Aut(E). Si denota con A−1 l’inverso di un automorfismo A. Scelta una base (ei ) dello spazio E, ad ogni endomorfismo A ∈ End(E) risulta associata una matrice quadrata [Aji ]n×n , detta matrice delle componenti di A nella base (ei ) 13 1.6. Endomorfismi lineari e definita dall’uguaglianza A(ei ) = Aji ej (1.29) Di conseguenza, l’uguaglianza v = A(u) si traduce, in componenti, nell’uguaglianza v j = Aji ui (1.30) Infatti, posto che u = ui ei e v = v i ei , per la linearità di A e per la definizione (1.29), si ha successivamente: A(u) = A(ui ei ) = ui A(ei ) = ui Aji ej da cui segue che ui Aji coincide con la componente v j di v. Osservazione 1.6.1 – La matrice delle componenti dell’identità 1 è, qualunque sia la base scelta, la matrice unitaria. Vale a dire: (1)ij = δji . • Osservazione 1.6.2 – Applicando ad entrambi i membri della definizione (1.29) un covettore εk della base duale di (ei ) si trova l’uguaglianza Aki = hA(ei ), εk i (1.31) che fornisce le componenti di A in maniera ‘esplicita’.6 • Osservazione 1.6.3 – La matrice delle componenti di un prodotto di endomorfismi è il prodotto delle due rispettive matrici: (AB)ji = Ajk Bik (1.32) Si ha infatti, applicando la (1.31) e la (1.29): j (AB)i = hA(B(ei )), εj i = hA(Bik ek ), εj i = Bik hA(ek ), εj i = Bik Ajk . Si noti che se si conviene che l’indice in basso sia indice di colonna, il prodotto matriciale nella (1.32) è righe per colonne: righe della prima matrice (Bik ) per le colonne della seconda matrice (Ajk ). Si noti bene però che la scrittura Ajk Bik a secondo membro della (1.32) è del tutto equivalente a Bik Ajk . • 6 La (1.29) le fornisce in maniera ‘implicita’. 14 Capitolo 1. Spazi vettoriali puri Osservazione 1.6.4 – Gli automorfismi sono caratterizzati dalla risolubilità del sistema lineare (1.30) rispetto alle (uj ), quindi dalla condizione det[Aij ] 6= 0. La matrice delle componenti di A−1 è l’inversa della matrice [Aij ]. • *** Commutatore di due endomorfismi. Le due operazioni binarie interne fondamentali nello spazio degli endomorfismi End(E), consentono di definire una terza operazione binaria interna, il commutatore. Il commutatore di due endomorfismi A e B è l’endomorfismo [A, B] = AB − BA. (1.33) Si ha [A, B] = 0 se e solo se i due endomorfismi commutano. Il commutatore [·, ·] gode delle seguenti proprietà: [A, B] = − [B, A] , [aA + bB, C] = a [A, C] + b [B, C] , (1.34) [A, [B, C]] + [B, [C, A]] + [C, [A, B]] = 0. Le prime due, di verifica immediata, mostrano che il commutatore è antisimmetrico e bilineare. La terza, la cui verifica richiede un semplice calcolo, prende il nome di identità di Jacobi (Carl Gustav Jacob Jacobi, 1804-1851). Uno spazio vettoriale dotato di un’operazione binaria interna soddisfacente a queste tre proprietà prende il nome di algebra di Lie (Marius Sophus Lie, 1842-1899). Dunque End(E) è un algebra di Lie. Vedremo nel corso di queste lezioni altri esempi di algebre di Lie. Nelle (1.34) la prima proprietà, cioè la proprietà anticommutativa, può essere sostituita da [A, A] = 0. (1.35) è infatti ovvio che la (1.34)1 implica la (1.35). Viceversa, se vale la (1.35) si ha successivamente: 0 = [A + B, A + B] = [A, A] + [B, B] + [A, B] + [B, A] = [A, B] + [B, A] . Di qui la (1.34)1. 1.7 Determinante e traccia di un endomorfismo Sebbene la matrice delle componenti di un endomorfismo cambi al cambiare della base – fanno eccezione l’endomorfismo nullo e quello identico – vi sono delle grandezze ad essa 15 1.7. Determinante e traccia di un endomorfismo associate che invece non risentono di questo cambiamento. Queste grandezze si chiamano invarianti dell’endomorfismo: pur essendo calcolate attraverso le componenti, non dipendono dalla scelta della base e sono quindi intrinsecamente legate all’endomorfismo. Il seguente teorema mette in evidenza i primi due invarianti fondamentali.7 Teorema 1.7.1 – Il determinante det[Aij ] e la traccia Aii (cioè la somma degli elementi della diagonale principale) della matrice delle componenti di un endomorfismo non dipendono dalla scelta della base. Dimostrazione. Siano (ei ) e (ei0 ) due basi di E. Sussistono i legami8 0 ei = Eii ei0 ei0 = Eii0 ei ⇐⇒ (1.36) 0 dove (Eii ) e (Eii0 ) sono matrici regolari una inversa dell’altra, cioè tali che 0 Eii Eij0 = δij , 0 Eii0 Eij = δij0 . 0 (1.37) 0 Siano (Aji ) e (Aji0 ) le matrici delle componenti di un endomorfismo A rispetto alle due basi date. Secondo la definizione (1.29) abbiamo j A(ei ) = Ai ej , j0 A(ei0 ) = Ai0 ej 0 . Facendo intervenire le relazioni (1.36) si ha successivamente: 0 0 0 0 0 0 Aji ej = A(ei ) = A Eii ei0 = Eii A (ei0 ) = Eii Aji0 ej 0 = Eii Aji0 Ejj0 ej Si ottiene quindi l’uguaglianza 0 Aji = Eii Aji0 Ejj0 0 (1.38) che esprime la legge di trasformazione delle componenti di un endomorfismo al variare della base. La (1.38), essendo presenti a secondo membro le sommatorie sugli 0 j j0 indici ripetuti i0 e j 0 , mostra che la matrice [Ai ] è il prodotto delle tre matrici [Eii ], [Ai0 ] e [Ejj0 ]. Siccome il determinante del prodotto di matrici è uguale ai prodotti dei rispettivi determinanti, risulta 0 0 det[Aji ] = det[Eii ] det[Aji0 ] det[Ejj0 ] Ma det[Eii ] det[Ejj0 ] = 1 0 7 8 Presto ne definiremo altri. 0 Se (εi ) e (εi ) sono le corrispondenti basi duali, allora sussistono i legami 0 0 εi = Eii εi ⇐⇒ 0 εi = Eii0 εi 16 Capitolo 1. Spazi vettoriali puri perché le due matrici coinvolte sono l’una inversa dell’altra. Segue 0 det[Aji ] = det[Aji0 ] e la prima tesi del teorema è dimostrata. Ritorno ora alla (1.38) e vi pongo j = i sottintendendo al solito la somma sull’indice ripetuto i: 0 Aii = Eii Aji0 Eji0 . 0 A primo membro ho la traccia della matrice [Aji ]. A secondo membro tengo ancora conto della sommatoria su i e osservo che 0 0 Eii Eji0 = δji 0 essendo le due matrici coinvolte una inversa dell’altra. Ottengo dunque, per la proprietà di δ, 0 j0 0 Aii = Ai0 δji 0 = Aii0 . Anche la seconda parte della tesi è dimostrata. 2 Dopo questo teorema è lecito introdurre la seguente definizione: Definizione 1.7.1 – Il determinante e la traccia di un endomorfismo A ∈ End(E) sono i numeri det A = det[Aij ], trA = Aii , dove [Aij ] è la matrice delle componenti di A rispetto ad una qualunque base di E. • Osservazione 1.7.1 – Si dimostra che per la traccia ed il determinante di un endomorfismo valgono le seguenti proprietà: tr(A + B) = tr(A) + tr(B), tr(a A) = a tr(A), tr(AB) = tr(BA), tr(1) = n, (1.39) det(AB) = det(A) det(B), det(a A) = an det(A), det(1) = 1. • 1.8 Polinomio caratteristico di un endomorfismo Introduciamo ora un altro concetto fondamentale nella teoria degli endomorfismi lineari, che come prima cosa ci consentirà di definire ulteriori invarianti. 17 1.8. Polinomio caratteristico di un endomorfismo Definizione 1.8.1 – Dicesi polinomio caratteristico di un endomorfismo A ∈ End(E) il polinomio di grado n = dim(E) nell’indeterminata x definito da: P (A, x) = (−1)n det(A − x 1). • (1.40) Essendo definito da un determinante, il polinomio caratteristico è un invariante, non dipende cioè dalla scelta della base. Si ha pertanto, comunque si scelga la base P (A, x) = (−1)n det(Aij − x δji ) n = (−1) det A11 − x A12 A21 ... An1 A22 − x . . . An2 .. . .. . A1n A2n .. . .. . . . . Ann − x (1.41) Il segnante (−1)n che interviene in questa definizione ha il compito di rendere uguale a 1 il coefficiente di xn . Infatti, guardando il determinante nella formula precedente si vede che la potenza massima (n-esima) di x viene fuori dall prodotto degli elementi della diagonale principale, e risulta essere (−x)n cioè (−1)n xn . Moltiplicando quindi il suddetto determinante per (−1)n , come indicato nella (1.41), il coefficiente di xn si riduce a 1, come asserito. Ciò detto, è conveniente scrivere per esteso il polinomio caratteristico nella forma seguente: P (A, x) = Pn k=0 (−1) k I (A) xn−k k (1.42) = xn − I1 (A) xn−1 + I2 (A) xn−2 − . . . + (−1)n In (A). Siccome questo polinomio è invariante, sono invarianti tutti i suoi n coefficienti Ik (A) (k = 1, . . ., n). Essi prendono il nome di invarianti principali di A. Osservo subito che per x = 0 dalla (1.41) ottengo P (A, 0) = (−1)n det A, e dalla (1.42) P (A, 0) = (−1)n In (A). Quindi, sempre grazie all presenza del segnate, trovo che In (A) = det A (1.43) cioè che l’n-esimo invariante principale di A è proprio uguale al determinante di A. Per quel riguarda gli altri invarianti, sviluppando il determinante nella (1.41) si arriva a dimostrare il teorema seguente: Teorema 1.8.1 – L’invariante principale Ik (A) è dato dalla somma dei minori principali di ordine k della matrice [Aij ]. 18 Capitolo 1. Spazi vettoriali puri Ricordiamo che un minore principale è il determinante di una sottomatrice quadrata principale e che una sottomatrice quadrata si dice principale se la sua diagonale principale è formata da elementi della diagonale principale della matrice che la contiene. Applicando questo teorema per k = n si ritrova In (A) = det A, mentre per k = 1 si trova I1 (A) = trA (1.44) Dunque tra gli invarianti principali ritroviamo non solo il determinante ma anche la traccia. 1.9 Autovalori e autovettori di un endomorfismo Un sottospazio S ⊂ E si dice invariante rispetto ad un endomorfismo A se A(S) ⊂ S. Un vettore v ∈ E non nullo si dice autovettore di A se esiste un numero reale λ tale da aversi A(v) = λ v. (1.45) Un autovettore genera un sottospazio di autovettori (se si include lo zero), di dimensione 1 e invariante, che prende il nome di autodirezione. L’equazione (1.45) può anche scriversi (A − λ 1)(v) = 0. (1.46) Scelta comunque una base di E, la (1.46) si traduce in un sistema di n equazioni lineari omogenee nelle incognite (v i), componenti dell’autovettore v: (Aji − λ δij ) v i = 0. (1.47) Tale sistema ammette soluzioni non banali se e solo se λ annulla il determinante della matrice dei coefficienti, cioè, vista la definizione (1.40), se e solo se λ è radice del polinomio caratteristico di A. Le radici del polinomio caratteristico, cioè le soluzioni dell’equazione caratteristica, algebrica di grado n, P (A, x) = 0, prendono il nome di autovalori di A. Il loro insieme {λ1 , λ2, . . . , λn} prende il nome di spettro di A. Gli autovalori sono invarianti, nel senso sopra detto. Vista la forma (1.41) con cui si scrive il polinomio caratteristico, dai noti teoremi sulle radici delle equazioni algebriche segue che l’invariante principale Ik (A) è la somma di tutti i possibili prodotti di k autovalori. Risulta in particolare: I1 (A) = tr A = λ1 + λ2 + . . . + λn , (1.48) In (A) = det A = λ1 λ2 . . . λn . 19 1.9. Autovalori e autovettori di un endomorfismo Chiamiamo molteplicità algebrica di un autovalore λ, e la denotiamo con ma(λ), la sua molteplicità come radice del polinomio caratteristico. Gli autovalori possono essere reali o complessi. Consideriamo il caso reale. Ad ogni autovalore reale λ corrisponde un sottospazio Kλ ⊂ E di autovettori ad esso associati, soluzioni cioè dell’equazione (1.45). Chiamiamo molteplicità geometrica di λ la dimensione del sottospazio invariante associato Kλ , e la denotiamo con mg(λ). Si dimostra (la dimostrazione è in appendice al paragrafo) che è sempre ma(λ) ≥ mg(λ) (1.49) Tuttavia, per alcuni tipi di endomorfismi vale sempre l’uguaglianza, per esempio per gli endomorfismi simmetrici in spazi strettamente euclidei, che esamineremo più avanti. Osserviamo che sottospazi invarianti Kλ1 e Kλ2 corrispondenti ad autovalori distinti hanno intersezione nulla: λ1 6= λ2 =⇒ Kλ1 ∩ Kλ2 = 0 (1.50) *** Dimostrazione della disuguaglianza (1.49). Sia λ un autovalore reale di un endomorfismo A. L’equazione caratteristica di A può ovviamente anche scriversi h i det (A − λ1) − (x − λ) 1 = 0, cioè (x − λ)n − I1 (A − λ1)(x − λ)n−1 + . . . + (−1)n In (A − λ1) = 0, ¶[† facendo intervenire gli invarianti principali dell’endomorfismo A − λ1. Osserviamo ora che lo spazio invariante Kλ degli autovettori associati a λ è il nucleo di questo endomorfismo, e quindi mg(λ) = n − rank(A − λ 1) = n − r. Il rango r dell’endomorfismo (A − λ 1) coincide con il rango della matrice (Aji − λ δij ), comunque si scelga la base. Segue che gli invarianti In (A − λ 1), . . . , Ir+1 (A − λ 1), sono tutti nulli perché somma di minori principali di ordine maggiore di r della matrice [Aji − λ δij ]. Pertanto l’equazione caratteristica † si riduce in effetti all’equazione (x − λ)n − I1 (A − λ 1)(x − λ)n−1 + . . . + (−1)r Ir (A − λ 1)(x − λ)n−r = 0. Di qui si vede che λ è una radice di ordine n − r almeno, perché, pur essendo per ipotesi i minori di ordine r non tutti nulli, non si può escludere che la somma di quelli principali, 20 Capitolo 1. Spazi vettoriali puri vale a dire l’invariante Ir (A − λ1), non si annulli. Dunque: ma(λ) ≥ n − r. Questa dimostrazione vale anche nel caso in cui λ è complesso, perché anche in questo caso mg(λ) = n − r dove r è il rango della matrice (Aji − λ δij ). 2 *** Se λ è un autovalore complesso allora gli autovettori associati sono complessi: il sistema (1.46) fornisce soluzioni complesse v i = ui + i w i. Si è cosı̀ condotti a considerare la complessificazione dello spazio E, cioè lo spazio C(E) delle combinazioni v = u + i w, con u, w ∈ E, per le quali si definiscono le due operazioni di somma e di prodotto per un numero complesso in maniera formalmente analoga a quella della somma e del prodotto di numeri complessi. Poiché l’equazione caratteristica ha coefficienti reali, ad ogni autovalore complesso λ = a + ib corrisponde un autovalore coniugato λ̄ = a − ib avente la stessa molteplicità. Si osserva inoltre che se v = u + i w è autovettore associato a λ, allora il vettore coniugato v̄ = u − i w è autovettore associato a λ̄, e che ogni altro vettore complesso ottenuto moltiplicando v per un numero complesso qualunque è ancora autovettore associato a λ. Osservazione 1.9.1 – Se v = u + i w è un autovettore associato ad un autovalore strettamente complesso λ = a + ib (cioè tale che b 6= 0), allora i vettori reali componenti (u, w) sono indipendenti. In caso contrario infatti, da una relazione del tipo u = cw seguirebbe v = (c + i)w e quindi dalla (1.45), dividendo per c + i, A(w) = λ w con λ solo elemento complesso: assurdo. Decomposta allora la (1.45) nella sua parte reale e immaginaria, risulta A(u) = au − bw, A(w) = aw + bu. (1.51) Di qui si osserva che il sottospazio generato dai vettori indipendenti (u, w) è invariante in A. Sia Π questo sottospazio (bidimensionale) e si Π0 il sottospazio invariante corrispondente ad un secondo vettore complesso v0 = u0 + iw0 sempre associato a λ. Non può che essere Π = Π0 oppure Π ∩ Π0 = 0. Infatti, se un vettore non nullo x appartenesse all’intersezione, con opportuna moltiplicazione degli autovettori per un numero complesso, ci si può ricondurre al caso in cui u = u0 = x. Dalla prima delle (1.51) seguirebbe A(x) = ax − bw, A(x) = aw + bx, da cui b(w − w 0 ) = 0, quindi w = w0 . Ciò significa che v = v0 e quindi che Π = Π0 . Da queste proprietà si deduce che ogni autovalore complesso λ individua un sottospazio invariante Kλ che è somma diretta di sottospazi invarianti bidimensionali. La sua dimensione è quindi pari e inoltre Kλ = Kλ̄ . In questo caso per molteplicità geometrica di λ s’intende la metà della dimensione di Kλ . Vale ancora la disuguaglianza (??), mentre la (1.50) va sostituita dalla più generale λ1 6= λ2 , λ1 6= λ̄2 =⇒ Kλ1 ∩ Kλ2 = 0 • (1.52) 21 1.10. Il teorema di Hamilton-Cayley 1.10 Il teorema di Hamilton-Cayley Dato un endomorfismo A, se ne possono considerare le potenze: A0 = 1, A1 = A, A2 = A A, ... Ak = A . . . A}, | A{z ... k volte Quindi ad ogni polinomio di grado k Pk (x) = a0 xk + a1 xk−1 + . . . + ak si può associare l’endomorfismo Pk (A) = a0 Ak + a1 Ak−1 + . . . + ak 1. Un polinomio Pk (x) si dice annichilante di A se Pk (A) si annulla identicamente. Sussiste a questo proposito il notevole teorema di Hamilton-Cayley (William Rowan Hamilton, 1805-1865; Arthur Cayley, 1821-1895): Teorema 1.10.1 – Il polinomio caratteristico di un endomorfismo è annichilante: An − I1 (A) An−1 + I2 (A) An−2 − . . . + (−1)n In (A) 1 = 0. Una prima importante conseguenza di questo teorema è che la potenza n-sima di un endomorfismo risulta essere una combinazione lineare delle precedenti, inclusa A0 = 1. Cosı̀ dicasi delle potenze An+1 e successive. Pertanto: tutte le potenze di un endomorfismo A formano un sottospazio di End(E) al più di dimensione n, generato dall’identità 1 e dalle prime n − 1 potenze di A.9 *** Dimostrazione del teorema di Hamilton-Cayley. Basiamo la dimostrazione sull’osservazione seguente. Se sussite un’uguaglianza del tipo C(x) (A − x 1) = Pk (x) 1 (1.53) dove Pk (x) è un polinomio di grado k e dove C(x) è un polinomio di grado k − 1 in x a coefficienti in End(E), cioè del tipo C(x) = xk−1 C 1 + xk−2 C 2 + . . . + x C k−1 + C k , allora Pk (A) = 0 cioè Pk (x) è annichilante di A. Infatti, esplicitata questa uguaglianza xk−1 C 1 + xn−2 C 2 + . . . + x C n−1 + C n A − x 1 9 = a0 xk + a1 xk−1 + . . . + ak 1 Al più, perché non è escluso che l’identità 1 e le prime n − 1 potenze di A siano linearmente dipendenti. 22 Capitolo 1. Spazi vettoriali puri ed uguagliati i coefficienti delle varie potenze di x, si trova che − C 1 = a0 1, C A − C 2 = a2 1, 1 ··· C k−1 A − C k = ak−1 1, C k A = ak 1. Moltiplicando a destra rispettivamente per Ak , Ak−1 , . . . , A le prime k di queste uguaglianze, e sommando poi membro a membro si trova 0 = Pk (A), come asserito. Ciò posto, si tiene conto del fatto, dimostrato più avanti (§ 1.19), che per ogni endomorfismo B esiste e l’endomorfismo complementare, per cui sempre un endomorfismo B, e B = det(B) 1. B Se ora si prende l’endomorfismo B = A − x 1, con indeterminata x, per la definizione di polinomio caratteristico l’uguaglianza precedente diventa e (A − x 1) = P (A, x) 1. (−1)n B e perché l’endomorfismo Questa è del tipo (1.53), con k = n e C(x) = (−1)n B, e complementare B ha come componenti dei determinanti di ordine n − 1 della matrice [Bji ] = [Aij − x δji ], ed è quindi un polinomio di grado n − 1 in x. Pertanto P (A, A) = 0. 2 1.11 Tensori La nozione di “tensore” ha avuto origine dalla teoria dell’elasticità. Si è successivamente sviluppata nell’ambito dell’algebra lineare e della geometria differenziale, trovando notevoli applicazioni in vari rami della fisica-matematica. Per arrivare a comprendere questa nozione partiamo da questa osservazione: abbiamo già esaminato la nozione di forma bilineare e di endomorfismo su di uno spazio vettoriale E. Assegnata una base di E le componenti di una forma bilineare e di un endomomorfismo formano due matrici quadrate n × n, dove n = dim E: [ϕij ] e [Aji ]. Quindi l’analisi e l’applicazione di queste due nozioni deve ricorrere al calcolo delle matrici (quadrate). Questo è una circostanza che le accomuna, pur essendo due nozioni ben distinte. Ma, come vedremo, un altro fatto le accomuna: le forme bilineari e gli endomorfismi possono essere visti come “tensori”. Una generale definizione di tensore è la seguente: 23 1.11. Tensori Definizione 1.11.1 – Un tensore di tipo (p, q) sopra uno spazio vettoriale E è un’applicazione multilineare del prodotto (E ∗)p × E q = |E ∗ × E ∗ {z × . . . × E}∗ × |E × E × {z. . . × E} p volte q volte in R. Un tensore di tipo (0, 0) è per definizione un numero reale. Denotiamo con Tqp(E) lo spazio tensoriale di tipo (p, q) su E, cioè lo spazio Tqp (E) = L(E ∗ , E ∗, . . . , E ∗, E, E, . . ., E ; R), | {z } | {z } p volte q volte ponendo inoltre, per (p, q) = (0, 0), T00 (E) = R. • p Vediamo che cosa è lo spazio Tq (E) per i primi valori della coppia di interi (p, q) non entambi nulli. Innanzitutto: T01 (E) = L(E ∗; R) = E ∗∗ = E, T10 (E) = L(E; R) = E ∗ , T20 (E) = L(E, E; R) (forme bilineari su E), (1.54) T02 (E) = L(E ∗, E ∗; R) (forme bilineari su E ∗ ). Poi: T11 (E) = L(E ∗, E; R) = End(E) (1.55) Quest’ultima uguaglianza segue dall’esistenza di un isomorfismo canonico tra lo spazio L(E ∗ , E; R) e lo spazio degli endomorfismi su E, definito dall’uguaglianza A(α, v) = hA(v), αi, ∀α ∈ E ∗, v ∈ E. (1.56) A sinistra A è interpretato come elemento di L(E ∗, E; R), a destra come endomorfismo lineare. In componenti abbiamo: A(α, v) = Aji αj v i . Definizione 1.11.2 – Sia (ei ) una base di E e (εi ) la sua duale in E ∗ . Diciamo componenti di un tensore K ∈ Tqp (E) secondo la base (ei ) gli np+q numeri i ...i Kj11...jpq = K(εi1 , . . . , εip , ej1 , . . . ejq ) • (1.57) 24 Capitolo 1. Spazi vettoriali puri Per esempio, le componenti di untensore K ∈ T21 (E) sono gli n3 numeri10 i Kjh = K(εi , ej , eh ). (1.58) Si osservi la corrispondenza nella posizione degli indici a primo e a secondo membro di queste uguaglianze. Le componenti servono, innanzitutto, a calcolare il valore del tensore sui vettori e covettori. Prendendo ad esempio il caso precedente, risulta: i K(α, u, v) = Kjh αi uj v h . (1.59) Inoltre, al variare della base secondo le formule (1.36) e in analogia alla (1.38), le componenti di un tensore di tipo (1,2) variano secondo la legge i Kji0 h0 = Eii Ejj0 Ehh0 Kjh . 0 0 (1.60) Questa formula si deduce direttamente dalla definizione (1.58) scritta per la base “accentata”, tenendo conto quindi delle relazioni fra le basi, ed è facilmente estendibile al caso di un tensore di tipo qualunque, tenendo conto del formalismo degli indici ripetuti in alto e in basso. A questo proposito osserviamo che per passare dalla base (ei ) alla base “accentata” (ei0 ) viene usata la matrice (Eii0 ), con l’accento in basso. Gli indici in basso non accentati delle componenti vengono trasformati in indici accentati (sempre in basso) con la stessa matrice. Per questo gli indici in basso delle componenti vengono detti indici covarianti. Quelli in alto, invece, vengono detti indici contravarianti, perché nel trasformarsi fanno intervenire la matrice inversa. Pertanto, un tensore di tipo (p, q) viene anche detto tensore a p indici di contravarianza e q indici di covarianza. Un tensore di tipo (p, 0) viene detto tensore contravariante di ordine p, un tensore di tipo (0, q) tensore covariante di ordine q. Denoteremo gli spazi tensoriali T0p (E) e Tq0 (E) semplicemente con T p (E) e Tq (E). 1.12 Somma tensoriale Sui tensori possono definirsi varie operazioni che nel loro insieme costituiscono il cosiddetto calcolo tensoriale. Innanzitutto vediamo la somma di due tensori. Essa può eseguirsi, a prima vista, solo fra tensori dello stesso tipo. Tuttavia in molte circostanze, come questa, torna utile considerare la somma diretta di tutti gli spazi tensoriali, di tutti i tipi, ordinati come segue: T (E) = T00 (E) ⊕ T01 (E) ⊕ T10 (E) ⊕ T02 (E) ⊕ T11 (E) ⊕ T20 (E) ⊕ T03 (E) ⊕ . . . = R ⊕ E ⊕ E ∗ ⊕ T02 (E) ⊕ T11 (E) ⊕ T20 (E) ⊕ T03 (E) ⊕ . . . 10 (1.61) Se si vuole, si può dire che le componenti di un tensore di questo tipo formano una “matrice cubica” di lato n. 25 1.13. Prodotto tensoriale Questo è lo spazio tensoriale su E.11 Un tensore K di tipo (p, q) può essere inteso come elemento di T (E): lo si identifica con la successione costituita da tutti zeri e con K al posto (p, q). Per esempio, se A ∈ T11 (E), allora si può intendere A = 0⊕0⊕0⊕0⊕A⊕0⊕··· dove a secondo membro A è al quinto posto nella successione (1.61). Un siffatto elemento di T (E) viene detto omogeneo. Pertanto ogni spazio tensoriale di tipo (p, q) può essere inteso come sottospazio di T (E). Su T (E) si introduce l’operazione di somma diretta ⊕, definita sommando le singole componenti omogenee. 1.13 Prodotto tensoriale Dati due tensori, di tipo qualsiasi, K ∈ Tqp(E) e L ∈ Tsr (E), il loro prodotto tensoriale12 K ⊗L p+r è per definizione un tensore di tipo (p + r, q + s): K ⊗ L ∈ Tq+s . Dunque, secondo la definizione generale di tensore, è innanzitutto un’applicazione multilineare ∗ ∗ K ⊗ L: E × . . . × E }∗ × |E × E × | × E {z {z. . . × E} → R. p+r volte q+r volte Quando K ⊗ L viene applicato ad una successione di p + r covettori α1 , α2 , . . ., αp , β1 , β2 , . . . , βr , (1.62) a1 , a2 , . . . , aq , b1 , b2 , . . . , bs , (1.63) e di q + s vettori, il primo fattore K si prende i primi p covettori ed i primi q vettori e fornisce il numero K(α1 , α2 , . . ., αp ; a1 , a2 , . . . , aq ). Il secondo fattore L prende quel che resta e fornisce il numero L(β1 , β2 , . . . , βr ; b1 , b2 , . . . , bs ). Allora, il valore di K ⊗ L sulle due successioni (1.62) e (1.63) è per definizione il prodotto di questi due numeri. Per esempio, se K ∈ T21 (E) e L ∈ T11 (E), K ⊗ L è il tensore di tipo (2, 3) tale che (K ⊗ L)(α, β, u, v, w) = K(α, u, v) · L(β, w), per ogni α, β ∈ E ∗ , u, v, w ∈ E. 11 12 è uno spazio vettoriale di dimensione infinita. Si legge K tensore L. (1.64) 26 Capitolo 1. Spazi vettoriali puri Osservazione 1.13.1 – Il prodotto tensoriale non è commutativo: K ⊗ L è in generale diverso da L ⊗ K. Due tensori possono commutare in casi speciali, per esempio se K è un tensore covariante e L un tensore contravariante. • Osservazione 1.13.2 – Il prodotto tensoriale di due tensori si estende per linearità agli elementi non omogenei della somma diretta T (E). Il prodotto tensoriale è associativo: K ⊗ (L ⊗ M ) = (K ⊗ L) ⊗ M . Se uno dei due tensori è di tipo (0, 0), cioè un numero reale, il prodotto tensoriale è l’ordinario prodotto per uno scalare a ∈ R: a ⊗ K = K ⊗ a = a K. (1.65) Con le due operazioni di somma ⊕ e prodotto ⊗ lo spazio T (E) assume la struttura di algebra associativa: è l’algebra tensoriale su E. • Osservazione 1.13.3 – La comprensione del concetto di prodotto tensoriale è facilitata dal fatto che, come si riconosce facilmente, le componenti del prodotto tensoriale K ⊗ L sono il prodotto delle componenti di K e L rispettivamente. Per esempio, se K ∈ T21 (E) e L ∈ T11 (E), allora j i (K ⊗ L)ij (1.66) hkl = Khk Ll . • Vediamo ora alcuni casi particolari ma fondamentali di prodotto tensoriale. 1 Prodotto tensoriale a ⊗ b di due vettori a, b ∈ E. È l’applicazione bilineare a ⊗ b: E ∗ × E ∗ → R definita da (a ⊗ b) (α, β) = ha, αi hb, βi. (1.67) 2 Prodotto tensoriale α ⊗ β di due covettori α, β ∈ E ∗ è l’applicazione bilineare α ⊗ β: E × E → R definita da (α ⊗ β) (a, b) = ha, αi hb, βi. (1.68) 3 Prodotto tensoriale a ⊗ α di un vettore per un covettore: è l’applicazione bilineare a ⊗ α : E∗ × E → R tale che (a ⊗ α) (β, b) = ha, βi hb, αi. In questo caso il prodotto è commutativo: a ⊗ α = α ⊗ a. (1.69) 27 1.14. Basi tensoriali 1.14 Basi tensoriali L’assegnazione di una base (ei ) dello spazio vettoriale E genera automaticamente una base per ogni spazio tensoriale Tqp (E). Sia εi ) la base duale su E ∗ . Partiamo, come al solito, dai casi più semplici. 1 I prodotti ei ⊗ ej formano una base di T20 (E), cioè delle forme bilineari su E ∗ , sicché per ogni forma bilineare K : E∗ × E∗ → R (1.70) vale la rappresentazione13 K = K ij ei ⊗ ej (1.71) K ij = K(εi , εj ) (1.72) con le componenti K ij definite da Infatti per ogni coppia di covettori α, β ∈ E ∗ per la (1.70) e per la definizione di prodotto tensoriale si ha K(α, β) = K ij ei ⊗ ej (α, β) = K ij αi βj . D’altra parte, per la (1.71) e per la bilinearità risulta K ij αi βj = K(εi , εj ) αi βj = K(αi εi , βj εj ) = K(α, β), ed il ciclo si chiude. 2 I prodotti εi ⊗ εj formano una base di T02 (E), cioè delle forme bilineari su E K : E × E → R, (1.73) e valgono contemporaneamente le formule, analoghe alle (1.71) e (1.72), K = Kij εi ⊗ εj (1.74) Kij = K(ei , ej ) (1.75) 3 I prodotti tensoriali ei ⊗ εj formano una base dello spazio tensoriale T11 (E) = L(E ∗, E; R) = End(E) degli endomorfismi lineari su E. Per ogni endomorfismo K valgono le formule K = Kij ej ⊗ εi 13 Si sottintende sempre la somma sugli indici ripetuti in alto e in basso. (1.76) 28 Capitolo 1. Spazi vettoriali puri con le componendi Aji definite come nella formula (1.31): Kij = hK(ei ), εj i (1.77) Da questi esempi traiamo la regola generale: i prodotti tensoriali ei1 ⊗ ei2 ⊗ . . . ⊗ eip ⊗ εj1 ⊗ εj2 ⊗ . . . ⊗ εjq (1.78) costituiscono una base di Tqp(E) e per ogni K ∈ Tqp (E) vale la rappresentazione i i ...i K = Kj11j22 ...jpq ei1 ⊗ ei2 ⊗ . . . ⊗ eip ⊗ εj1 ⊗ εj2 ⊗ . . . ⊗ εjq (1.79) i i ...i dove le componenti Kj11j22 ...jpq sono definite come nella (1.57). Gli elementi della base (1.78) sono in numero pari alle disposizioni con ripetizione di p + q oggetti, cioè np+q . Pertanto, dim(Tqp(E)) = np+q . (1.80) 1.15 Contrazione o saturazione di due indici Vi è una terza operazione importante eseguibile su di un tensore. Dato un tensore K di tipo qualsiasi (p, q), purché con p e q non entrambi nulli, di componenti i i ...i p Kj11,j22 ,...,j q si può prendere uno degli indici contravarianti (in alto) e porlo uguale ad uno degli indici covarianti (in basso) ed intendere di eseguire la sommatoria su questi, secondo la convenzione degli indici ripetuti. Si dimostra che, cosı̀ facendo, si ottiene un tensore di tipo (p − 1, q − 1).14 Una tale operazione prende il nome di contrazione o saturazione. i , ho due possibilità di saturazione: Per esempio, se K ∈ T21 (E) ha componenti Khj i Uj = Kij , i Vh = Khi . In entrambi i casi si ottiene un covettore. Questi però sono in generale diversi. Altri due esempi: 1. Se A ∈ T11 (E) = End(E), con componenti Aij , allora la saturazione dei suoi due indici fornisce la traccia dell’endomorfismo A: Aii = tr(A). 2. Il vettore u = A(v), immagine del vettore v secondo un endomorfismo A, può essere anche interpretato come contrazione del prodotto tensoriale A ⊗ v, perché quest’ultimo j j ha componenti Ai v k e le componenti di u sono uj = Ai v i. 14 La dimostrazione si basa sull’equazione di trasformazione delle componenti di un tensore al variare della base. 29 1.16. Tensori antisimmetrici 1.16 Tensori antisimmetrici Definizione 1.16.1 – Un tensore A ∈ Tp0 (E) si dice antisimmetrico se per ogni scambio di due suoi qualunque argomenti il suo valore cambia di segno: A(. . . , u, . . . , v, . . .) = − A(. . . , v, . . . , u, . . .). Cosı̀ dicasi per un tensore A ∈ T0p (E). I vettori, i covettori e gli scalari, che sono di tipo (0, 1), (1, 0) e (0, 0) rispettivamente, sono per definizione antisimmetrici. L’intero p prende il nome di grado del tensore antisimmetrico. • I tensori antisimmetrici svolgono un ruolo importante nelle applicazioni del calcolo tensoriale. Si dimostra che i tensori antisimmetrici contenuti in Tp0 (E) (rispettivamente, in T0p (E)) ne formano un sottospazio che denotiamo con Φp(E) (rispettivamente, con V p (E)). Il teorema seguente fornisce una definizione equivalente di antisimmetria: Teorema 1.16.1 – Un tensore A ∈ Tp0 (E) è antisimmetrico se e solo se esso si annulla quando due dei suoi argomenti coincidono. Lo stesso dicasi per A ∈ T0p (E). Dimostrazione. È sufficiente dimostrare questo teorema nel caso p = 2. Da A(u, v) = − A(v, u) segue ovviamente A(u, u) = 0. Viceversa se A(v, v) = 0 per ogni v, allora si ha, ponendo v = v 1 + v2 , 0 = A(v1 + v2 , v1 + v 2 ) = A(v1 , v1 ) + A(v1 , v2 ) + A(v2 , v1 ) + A(v2 , v2 ) = A(v1 , v2 ) + A(v2 , v1 ), vale a dire A(v1 , v2 ) = − A(v2 , v1 ). 2 Due implicazioni notevoli: Teorema 1.16.2 – 1. Un tensore antisimmetrico si annulla quando i suoi argomenti sono linearmente dipendenti. 2. Un tensore antisimmetrico con p > n è nullo. Dimostrazione. 1. Se A ∈ Φp(E) e se uno dei suoi argomenti (v1 , v2 , . . . , vp ), per esempio v1 è combinazione lineare dei rimanenti, allora A(v1 , v2 , . . . , vp) si decompone nella combinazione lineare di numeri del tipo A(v∗ , v2 , . . . , vp ) dove v∗ è via via uguale a v 2 , . . ., v p , i quali numeri, per via del Teorema 1.16.1, sono tutti nulli. 2. Se p > n i vettori (v1 , v2 , . . . , vp) sono sempre dipendenti. 2 Osservazione 1.16.1 – Di conseguenza, gli spazi V p (E) e Φp (E) per p > n si riducono ad un solo elemento: lo zero. • 30 Capitolo 1. Spazi vettoriali puri Esempio 1.16.1 – Sia E lo spazio vettoriale euclideo tridimensionale. Ponendo η(u, v, w) = u · v × w (prodotto misto). si definisce un tensore covariante antisimmetrico η di ordine 3 detto forma volume.15 • Esempio 1.16.2 – Sia E = Rn : un vettore è una n-pla di numeri reali v = (v 1 , v 2, . . . , v n). Una n-pla di vettori (vi ) = (vi1 , vi2, . . . , vin) dà luogo ad una matrice quadrata [vij ]n×n . Ponendo A(v1 , v2 , . . . , vn ) = det[vij ] si definisce un tensore covariante antisimmetrico di ordine n sopra Rn . • Dal Teorema 1.16.1 si può dedurre un’ulteriore caratterizzazione (o definizione equivalente) di antisimmetria. Per ogni intero p > 1 denotiamo con Gp il gruppo delle permutazioni di p elementi, detto gruppo simmetrico di ordine p. Denotiamo con εσ il segno di una permutazione σ ∈ Gp: uguale a +1 o −1 a seconda che σ sia pari o dispari, vale a dire composta da un numero pari o dispari di scambi. Ricordiamo che Gp è costituito da p! elementi. Teorema 1.16.3 – Un tensore covariante A ∈ Tp0 (E) è antisimmetrico se e solo vale l’uguaglianza A(v1 , . . . , vp ) = εσ A σ(v1 , . . . , vp ) , ∀ v 1 , . . . , vp ∈ E, (1.81) ovvero A = εσ A ◦ σ, (1.82) per ogni σ ∈ Gp . Analogamente per un tensore contravariante A ∈ 1.17 T0p(E). Antisimmetrizzazione Per studiare meglio i tensori antisimmetrici è opportuno introdurre il concetto di “antismmetrizzazione”. Definizione 1.17.1 – Per ogni p > 1 si introduce l’applicazione lineare A : Tp0 (E) → Φp (E) : T 7→ A(T ) chiamata operatore di antisimmetrizzazione e definita da A(T ) = 15 Vedi § 2.4.1. 1 P σ∈Gp εσ T p! ◦ σ (1.83) 31 1.18. Prodotto esterno cioè da A(T )(v1 , . . . , vp) = per ogni v 1 , . . . , vp ∈ E. • 1 P σ∈Gp εσ T σ(v1 , . . . , v p ) p! (1.84) Per rendere effettiva questa definizione dobbiamo verificare che il tensore T A è antisimmetrico. Volendo applicare il Teorema 1.16.3, osserviamo che per qualunque τ ∈ Gp si ha successivamente: ετ A(T ) ◦ τ 1 P σ∈Gp ετ εσ T ◦ σ ◦ τ p! 1 P = σ∈Gp εσ·τ T ◦ σ ◦ τ p! 1 P = σ·τ ∈Gp εσ·τ T ◦ (σ ◦ τ ) = A(T ), p! = tenuto conto che εσ·τ = ετ εσ e inoltre che, mentre σ varia in tutto Gp , anche σ ◦ τ varia in tutto Gp. Tutto quanto precede si riferisce a tensori covarianti (indici in basso) ma si può ripetere per i tensori contravarianti (indici in alto), per i quali l’operatore di antisimmetrizzazione è l’applicazione lineare A : T0p (E) → V p (E) : T 7→ A(T ) definita come nella (1.83). 1.18 Prodotto esterno Definizione 1.18.1 – Il prodotto esterno di due covettori α e β, denotato con α∧β, è il tensore antisimmetrico covariante di grado 2 definito da α∧β = ovvero da (α ∧ β) (v1 , v2 ) = 1 2 1 2 (α ⊗ β − β ⊗ α) (1.85) hv1 , αi hv2 , βi − hv1 , βi hv2 , αi (1.86) Analogamente, il prodotto esterno di due vettori a e b, denotato con a ∧ b, è il tensore antisimmetrico contravariante di grado 2 definito da a∧b= ovvero da (a ∧ b) (α1 , α2 ) = 1 2 1 2 (a ⊗ b − b ⊗ a) ha, α1 i hb, α2 i − ha, α2 i hb, α1 i (1.87) • (1.88) 32 Capitolo 1. Spazi vettoriali puri Osserviamo che facendo intervenire l’operatore di antisimmetrizzazione si hanno le definizioni equivalenti: α ∧ β = A(α ⊗ β) (1.89) a ∧ b = A(a ⊗ b) (1.90) Infatti, se applichiamo la definizione (1.84), osservato che in questo caso p = 2 e che G2 è costituito da soli due elementi, l’identità e lo scambio, troviamo P A(α ⊗ β)(v1 , v2 ) = 12 ε (α ⊗ β) σ(v , v ) σ 1 2 σ∈G2 = 1 2 (α ⊗ β) (v1 , v2 ) − 1 2 (α ⊗ β) (v2 , v1 ) = 1 2 (α ⊗ β) (v1 , v2 ) − 1 2 (β ⊗ α) (v1 , v2 ) = 1 2 (α ⊗ β − β ⊗ α) (v1 , v2 ). Analogamente per il caso a ∧ b. Le formule (1.89) e (1.90) suggeriscono una naturale estensione del prodotto esterno al caso di più di due vettori o covettori: Definizione 1.18.2 – Il prodotto esterno di p covettori α1 , . . . , αp e di p vettori a1 , . . . , ap è definito dalle formule α1 ∧ . . . ∧ αp = A(α1 ⊗ . . . ⊗ αp) (1.91) a1 ∧ . . . ∧ ap = A(a1 ⊗ . . . ⊗ ap ) (1.92) ovvero, vista la (1.84), dalle formule (α1 ∧ . . . ∧ αp ) (v1 , . . . , vp) = 1 P σ∈Gp εσ (α1 ⊗ . . . ⊗ αp ) σ(v 1 , . . . , vp ) p! (a1 ∧ . . . ∧ ap ) (α1 , . . . , αp) = 1 P σ∈Gp εσ (a1 ⊗ . . . ⊗ ap ) σ(α1 , . . . , αp ) p! • (1.93) (1.94) Per esempio, per p = 3 dalla definizione (1.83) risulta: α1 ∧ α2 ∧ α3 = 1 6 h α1 ⊗ α2 ⊗ α3 + α2 ⊗ α3 ⊗ α1 + α3 ⊗ α1 ⊗ α2 i − α2 ⊗ α1 ⊗ α3 + α1 ⊗ α3 ⊗ α2 + α3 ⊗ α2 ⊗ α1 (1.95) 33 1.19. Algebra esterna Nella prima riga abbiamo le permutazioni cicliche, quindi pari, dei tre indici (1, 2, 3). Nella seconda riga, col segno −, abbiamo quelle dispari. Analogamente per il prodotto esterno di tre vettori. Osservazione 1.18.1 – Il prodotto esterno di p covettori (o vettori) cambia di segno quando si scambiano fra loro due elementi. Per esempio: α2 ∧ α1 ∧ α3 = − α1 ∧ α2 ∧ α3 , α3 ∧ α2 ∧ α1 = − α1 ∧ α2 ∧ α3 . • 1.19 Algebra esterna Il prodotto esterno che abbiamo definito nel paragrafo precedente è alla base di un tipo di calcolo che trova svariate utili applicazioni: l’algebra esterna. Questo calcolo si basa sulle seguenti circostanze. 1 Per ogni intero p > 0 i prodotti esterni α1 ∧ . . . ∧ αp , α∗ ∈ E ∗ (1.96) a1 ∧ . . . ∧ ap , a∗ ∈ E (1.97) prendono rispettivamente il nome di p-forme elementari e p-vettori elementari. le loro combinazioni lineari generano rispettivamente lo spazio Φp (E) delle p-forme e lo spazio V p (E) dei p-vettori. 2 Date due forme elementari α = α1 ∧ . . . ∧ αp e β = β1 ∧ . . . ∧ β q , di grado p e q rispettivamente, il loro prodotto esterno α∧β è definito semplicemente dalla frapposizione del simbolo ∧ fra α e β: α ∧ β = α1 ∧ . . . ∧ αp ∧ β 1 ∧ . . . ∧ β q . Il risultato è pertanto una (p + q)-forma elementare. Il prodotto esterno cosı̀ definito è anticommutativo graduato, nel senso che α ∧ β = (−1)pq β ∧ α Osserviamo infatti che nel passare da α ∧ β = α1 ∧ . . . ∧ αp ∧ β 1 ∧ . . . ∧ βq (1.98) 34 Capitolo 1. Spazi vettoriali puri a β ∧ α = β 1 ∧ . . . ∧ βq ∧ α1 ∧ . . . ∧ αp si devono eseguire un numero di scambi pari a pq, il che comporta pq cambiamenti di segno. Nel caso in cui una delle due forme elementari sia di grado 0, sia cioè uno scalare, il prodotto ∧ si identifica con l’ordinario prodotto di un tensore per un numero. Per esempio, se p = 0 cioè se α ∈ Φ0 (E) = R, allora α ∧ β = α β1 ∧ . . . ∧ β q . 3 Il prodotto esterno è bilineare: (a1 α1 + a2 α2 ) ∧ β = a1 α1 ∧ β + a2 α2 ∧ β (1.99) α ∧ (b1 β 1 + b2 β 2 ) = b1 α ∧ β1 + b2 α ∧ β 2 (1.100) 4 Siccome il prodotto esterno fra forme elementari è bilineare e siccome una p-forma,cioè un elemento di Φp(E) è combinazione lineare di p-forme elementari, il prodotto esterno si estende per linearità a forme di grado qualsiasi. Vale ancora l’anticommutatività graduata (1.98). Per questa via il prodotto esterno si estende anche a più di due forme. Vale la proprietà associativa: α ∧ β ∧ γ = (α ∧ β) ∧ γ = α ∧ (β ∧ γ) (1.101) 5 Consideriamo infine la somma diretta di tutti gli spazi Φp (E), Φ(E) = +∞ M Φp (E). p=0 Sappiamo che per p > n = dim(E) gli spazi Φp (E) si riducono allo zero. Sappiamo inoltre che Φ0 (E) = R e Φ1 (E) = E ∗. Di conseguenza la somma diretta Φ(E) risulta essere Φ(E) = R ⊕ E ∗ ⊕ Φ2 (E) ⊕ . . . ⊕ Φn (E) ⊕ 0 ⊕ 0 ⊕ . . . (1.102) Questo è uno spazio vettoriale, detto spazio delle forme esterne su E, rispetto all’ordinaria somma + tra tensori. Il prodotto esterno, definito per due forme “omogeneee”, si estende per linearità a due qualunque elementi di questa somma diretta. Il risultato è che Φ(E), con le due operazioni + e ∧ diventa un’algebra, detta appunto algebra esterna su E. Si dimostra che e n n! dim Φp(E) = = p p! (n − p)! (1.103) dim Φ(E) = 2n . (1.104) 1.20. Il simbolo di Levi-Civita Tutto quanto sin qui visto si ripete pari pari per gli spazi dei p-vettori V p (E) 35 e si conclude con la costruzione della somma diretta V (E) = R ⊕ E ⊕ V 2 (E) ⊕ . . . ⊕ V n (E) ⊕ 0 ⊕ 0 ⊕ . . . che assume anch’essa la struttura di algebra. 1.20 Il simbolo di Levi-Civita Il simbolo di Levi-Civita (Tullio Levi-Civita, 1873-1941) con n indici variabili da 1 a n, εi1 i2 ...in vale +1 o −1 a seconda che la successione degli indici (i1 , i2 , . . . , in) sia una permutazione pari o dispari della succesione fondamentale (1, 2, . . ., n); vale zero in tutti gli altri casi, cioè quando almeno due indici coincidono. Il simbolo di Levi-Civita è antisimmetrico: scambiando fra loro due indici, cambia di segno. Il simbolo di Levi-Civita, che può comparire anche con gli indici in alto,16 εi1 i2 ...in , consente di esprimere in forma sintetica svariate formule di calcolo delle matrici e di calcolo tensoriale. Vediamo alcuni esempi. 1 L’ordinaria definizione di determinante di una matrice quadrata [Aij ]n×n può porsi nella forma sintetica det[Aij ] = εi1 i2 ...in Ai11 Ai22 . . . Ainn (1.105) sottintendendo sempre la sommatoria sugli indici ripetuti in alto e in basso. Verifichiamolo nel caso n = 3: εhij Ah1 Ai2 Aj3 = ε1ij A11 Ai2 Aj3 + ε2ij A21 Ai2 Aj3 + ε3ij A31 Ai2 Aj3 = . . . Ho eseguito la somma sul primo indice h; nell’eseguire la somma sull’indice i tengo conto che con un indice ripetuto il simbolo si annulla, dunque: . . . = ε12j A11 A22 Aj3 + ε13j A11 A32 Aj3 +ε21j A21 A12 Aj3 + ε23j A21 A32 Aj3 +ε31j A31 A12 Aj3 + ε32j A31 A22 Aj3 = . . . 16 La definizione è la medesima. 36 Capitolo 1. Spazi vettoriali puri Sommando infine sull’indice j rimangono soltanto sei termini: . . . = ε123 A11 A22 A33 + ε132 A11 A32 A23 +ε213 A21 A12 A33 + ε231 A21 A32 A13 +ε312 A31 A12 A23 + ε321 A31 A22 A13 = . . . Adesso traduco i simboli in +1 e −1 a seconda della parità della permutazione degli indici rispetto alla permutazione fondamentale (1, 2, 3), . . . = A11 A22 A33 − A11 A32 A23 −A21 A12 A33 + A21 A32 A13 +A31 A12 A23 − A31 A22 A13 e ritrovo lo sviluppo del determinante di ordine 3. 2 Dati n vettori (ei ) di E, n = dim(E), anche non indipendenti, per la proprietà anticommutativa del prodotto esterno vale l’uguaglianza ei1 ∧ ei2 ∧ . . . ∧ ein = εi1 i2 ...in e1 ∧ e2 ∧ . . . ∧ en (1.106) e1 ∧ e2 ∧ . . . ∧ en = εi1 i2 ...in ei1 ∧ ei2 ∧ . . . ∧ ein (1.107) o, inversamente, qualunque sia la permutazione degli indici (i1 , i2 , . . . , in). Si noti bene che a secondo membro di quest’ultima formula non è intesa la sommatoria sugli indici, che sono ripetuti ma entambi in basso. Analoghe formule valgono ovviamente per una qualunque n-pla (εi ) di covettori in E ∗ . 3 Il determinante di un endomorfismo A può essere definito come quel numero det(A) per cui vale l’uguaglianza A(v1 ) ∧ A(v 2 ) ∧ . . . ∧ A(vn ) = det(A) v 1 ∧ v2 ∧ . . . ∧ vn (1.108) per qualunque n-pla di vettori v i ∈ E. Per riconoscerlo, nella (1.108), al posto dei vettori v ∗ si sostituiscano i vettori di una base (ei ) qualsiasi di E. Si ottiene A(e1 ) ∧ A(e2 ) ∧ . . . ∧ A(en ) = Ai11 Ai22 . . . Ainn ei1 ∧ ei2 ∧ . . . ∧ ein = Ai11 Ai22 . . . Ainn εi1 i2 ...in e1 ∧ e2 ∧ . . . ∧ e3 applicando la (1.106) nel secondo passaggio. Ma, come abbiamo già visto, il termine Ai11 Ai22 . . . Ainn εi1 i2 ...in è proprio uguale a det[Aij ]. Si conclude quindi che la (1.108) vale per un qualunque sistema di vettori indipendenti. Essa vale ovviamente anche quando i vettori sono dipendenti, nel qual caso sono nulli ambo i membri. 37 1.20. Il simbolo di Levi-Civita 4 Dalle (1.108) e (1.105) si possono dedurre agevolmente le proprietà fondamentali dei determinanti. Per esempio, dalla (1.108) si vede che det(A B) = det(A) det(B). Si ha infatti successivamente: det(AB) v1 ∧ . . . ∧ vn = (AB)(v1 ) ∧ . . . ∧ (AB)(vn ) = A B(v1 ) ∧ . . . ∧ A B(v n ) = det(A) B(v 1 ) ∧ . . . ∧ B(vn ) = det(A) det(B) v 1 ∧ . . . ∧ v n . 5 Dalla (1.105) segue la regola dello sviluppo del determinante rispetto ad una linea. Posto infatti e1 = εi i ...i Ai2 . . . Ain , A (1.109) i1 n n 1 2 2 la (1.105) diventa e1 . det[Aij ] = Ai11 A i1 (1.110) Si riconosce allora nella (1.109), stante la definizione del simbolo di Levi-Civita e la sua antisimmetria, l’epressione del complemento algebrico del termine Ai11 della prima riga della matrice [Aij ] (conveniamo che gli indici in basso siano indici di riga) cioè del determinante della matrice quadrata di ordine n − 1 ottenuta sopprimendo la riga 1 e la colonna i1 , preceduto dal segno (−1)1+i1 . La (1.110) rappresenta allora lo sviluppo del determinante rispetto alla prima riga. Analogamente si procede per lo sviluppo rispetto ad un’altra riga, o ad una colonna. 6 Dalla (1.109), stante l’antisimmetria del simbolo di Levi-Civita, segue inoltre e1i = εi i ...in Ai1 Ai2 . . . Ainn = 0. Ai21 A 1 2 2 2 1 Quindi: la somma dei prodotti degli elementi di una riga per i complementi algebrici di una riga diversa è nulla. Dalla (1.109) si osserva ancora che e1i = ∂ det(Aij ). A 1 ∂Ai11 Da queste considerazioni, particolarizzate al caso di una riga (la prima), si trae la formula generale, valida per ogni endomorfismo lineare A, dove ej Ai = det(A) δ j A k i k ej = ∂ det(A) A i ∂Aij (1.111) (1.112) 38 Capitolo 1. Spazi vettoriali puri è il complemento algebrico dell’elemento Aij , vale a dire il determinante della matrice quadrata di ordine n − 1 ottenuta cancellando la j-esima riga e la i-esima colonna della matrice delle componenti di A, preceduta dal segno (−1)j+i . ej ) dei complementi algebrici definisce un endomorfismo A e che chiamiamo La matrice (A i endomorfismo complementare di A. Cambiando base, si ha infatti per la (1.112): 0 ej A i ∂Aij 0 ∂ ∂ = det(A) = det(A) 0 ∂Aij ∂Aij ∂Aij 0 ej00 ∂ E h0 E i0 Ak =A j k h i i ∂Aj ej00 E j0 E i0 . =A i i j ej ) cambiano secondo la legge di trasformazione delle componenti di un Dunque le (A i endomorfismo. La (1.111) rappresenta allora, in componenti, l’uguaglianza e A = det(A) 1 A (1.113) Di qui, nel caso di un automorfismo, cioè per det(A) 6= 0, segue la formula A−1 = 1 e A det(A) che fornisce l’inverso di un endomorfismo invertibile. (1.114) Capitolo 2 Spazi vettoriali con struttura 2.1 Spazi vettoriali euclidei Uno spazio vettoriale euclideo è una coppia (E, g) costituita da uno spazio vettoriale E e da un tensore metrico g su E. Un tensore metrico (detto anche metrica) è per definizione una forma bilineare g su E simmetrica e regolare, cioè tale da soddisfare alle condizioni: ( g(u, v) = g(v, u), (2.1) g(u, v) = 0 ∀v ∈ E =⇒ u = 0. La forma bilineare simmetrica g è anche detta prodotto scalare. Per il prodotto scalare si usa comunemente la notazione u · v, poniamo cioè1 u · v = g(u, v). (2.2) Uno spazio vettoriale euclideo è quindi uno spazio vettoriale dotato di un prodotto scalare. Chiamiamo norma e la denotiamo con k · k : E → R la forma quadratica corrispondente al tensore metrico kvk = v · v = g(v, v). (2.3) Chiamiamo invece modulo di un vettore il numero positivo |v| = p |v · v|. 2 (2.4) Due vettori sono detti ortogonali se u · v = 0. Diciamo che un vettore u è unitario se kuk = ±1. Diciamo che u è il versore del vettore v se u è unitario e se v = k u con k > 0. 1 In molti testi il prodotto scalare è denotato con u × v, simbolo che noi invece riserveremo al prodotto vettoriale nello spazio euclideo tridimensionale. 2 La norma k · k qui definita non è una norma nel senso usuale dell’Analisi. Lo è invece il modulo | · |, che però viene in genere considerato solo nel caso in cui la forma quadratica g è definita positiva. 39 40 Capitolo 2. Spazi vettoriali con struttura Seguendo una terminologia tipica della teoria della Relatività Ristretta si dice che un vettore v è del genere spazio, luce, tempo se la sua norma è rispettivamente positiva, nulla, negativa: kvk > 0, genere spazio v∈E genere luce kvk = 0, genere tempo kvk < 0. Un vettore del genere luce è anche detto isotropo. Un vettore isotropo è ortogonale a se stesso. Una base canonica di uno spazio euclideo (E, g) è una base canonica rispetto alla forma bilineare simmetrica g, quindi una base costituita da vettori unitari fra loro ortogonali. Sappiamo dalla teoria delle forme quadratiche che due basi canoniche sono sempre formate da un egual numero p di vettori del genere spazio e quindi da un egual numero q di vettori del genere tempo. Siccome il tensore metrico è non degenere si ha sempre p + q = n = dim(E). La coppia di interi (p, q) è detta segnatura dello spazio euclideo. Si usa anche dire che lo spazio ha segnatura . . −} . . . +} |− .{z |+ .{z p volte q volte Molti autori riservano il nome di spazio euclideo al caso in cui la metrica è definita positiva, cioè di segnatura (n, 0). Per mettere in evidenza questa condizione noi useremo il termine spazio strettamente euclideo, riservando il termine di spazio pseudo-euclideo o semi-euclideo al caso di una metrica indefinita. Osservazione 2.1.1 – In uno spazio strettamente euclideo la norma è sempre positiva (salvo che per il vettore nullo) e vale la disuguaglianza di Schwarz (§ 1.5) (u · v)2 ≤ kuk kvk, (2.5) dove l’uguaglianza sussiste se e solo se i vettori sono dipendenti. Utilizzando il modulo (2.4), che ora è semplicemente definito da √ |v| = v · v, la disuguaglianza di Schwarz diventa |u · v| ≤ |u| |v|. (2.6) Se nessuno dei due vettori è nullo si ha |u · v| ≤ 1. |u| |v| Diciamo allora angolo dei due vettori il numero ϑ compreso tra 0 e π tale che cos ϑ = u·v . |u| |v| (2.7) 41 2.1. Spazi vettoriali euclidei Vale infine la disuguaglianza triangolare |u + v| ≤ |u| + |v|, (2.8) conseguenza della disuguaglianza di Schwarz: |u + v|2 = ku + vk = kuk + kvk + 2 u · v ≤ |u|2 + |v|2 + 2 |u · v| ≤ |u|2 + |v|2 + 2 |u| |v| 2 = |u| + |v| . • Considerata una base (ei ) dello spazio euclideo (E, g), le componenti del tensore metrico gij = g(ei , ej ) = ei · ej (2.9) formano una matrice, detta matrice metrica, simmetrica e regolare: gij = gji , det[gij ] 6= 0. (2.10) Queste condizioni sono in effetti equivalenti alle (2.1). Accanto alla matrice metrica (gij ) torna utile considerare la matrice inversa, che denotiamo con (g ij ). Essa è definita dall’uguaglianza gij g jk = δik . (2.11) In una base canonica, detta anche ortonormale, la matrice metrica è 1p 0 . [gij ] = 0 −1q (2.12) Questa matrice coincide con la sua inversa. Mentre in generale si ha u · v = gij ui v j , (2.13) in una base canonica risulta u·v= p X a=1 quindi kuk = p X a=1 a a u v − a 2 (u ) − n X ub v b , (2.14) (ub )2 . (2.15) b=p+1 n X b=p+1 La presenza del tensore metrico consente di definire su di uno spazio euclideo, oltre al prodotto scalare, alcune altre fondamentali operazioni e precisamente: (I) un isomorfismo canonico tra E e il suo duale E ∗ ; 42 Capitolo 2. Spazi vettoriali con struttura (II) un operatore ortogonale sui sottospazi di E; (III) un operatore di trasposizione sugli endomorfismi di E; (IV) un isomorfismo canonico tra lo spazio degli endomorfismi su E e lo spazio delle forme bilineari su E. Tratteremo i primi due argomenti in questo paragrafo, gli altri due nel prossimo. L’applicazione lineare [ : E → E ∗ : v 7→ v[ definita dall’uguaglianza hu, v[i = u · v (2.16) è un isomorfismo, stante la regolarità del tensore metrico g. Questo isomorfismo fa sı̀ che uno spazio vettoriale euclideo possa essere identificato con il suo duale. Denotiamo con ] : E ∗ → E : α 7→ α] l’inversa dell’applicazione [. Introdotta una base di E, posto v = v i ei , si denotano con vi le componenti del covettore v [ , si pone cioè v[ = vi εi . Allora la (2.16), scritta in componenti, diventa ui vi = gij ui v j . (2.17) Valendo questa per ogni (ui) ∈ Rn si trae vi = gij v j (2.18) Questa è la definizione in componenti dell’applicazione [. Si osserva quindi che le componenti del covettore v [ si ottengono per abbassamento degli indici delle componenti (v i) di v mediante la matrice metrica. L’applicazione inversa è definita dalle relazioni inverse delle (2.18): v i = g ij vj (2.19) Essa consiste quindi nell’innalzamento degli indici tramite l’inversa della matrice metrica. Osservazione 2.1.2 – Le (g ij ) prendono il nome di componenti contravarianti del tensore metrico, mentre alle (gij ) si dà il nome di componenti covarianti. Similmente, alle componenti (vi ) di v[ si dà il nome di componenti covarianti del vettore v, riservando alle (v i ) il nome di componenti contravarianti. L’operazione di innalzamento e di abbassamento degli indici si può applicare anche ai tensori. Si possono cosı̀ stabilire diversi isomorfismi fra spazi tensoriali aventi la stessa somma di indici covarianti e contravarianti, per esempio tra T11 (E) e T2 (E), come sarà visto nel prossimo paragrafo. • Osservazione 2.1.3 – Si è visto (§ 1.2) che un covettore α è geometricamente rappresentato da una coppia di iperpiani paralleli (A0 , A1 ). Nell’identificazione ora vista di E con E ∗ , ad α, cioè a questa coppia di piani, corrisponde il vettore v = α] che è ortogonale 43 2.1. Spazi vettoriali euclidei al sottospazio A0 e il cui prodotto scalare con i vettori del laterale A1 vale 1. Se quindi denotiamo con u il vettore ortogonale ad A0 appartenente ad A1 , si ha v= u . • kuk Osservazione 2.1.4 – Ad ogni base (ei ) di E si fa corrispondere un’altra base, detta base reciproca o base coniugata (e a volte, impropriamente, anche base duale), denotata con (ei ) e definita implicitamente dalle relazioni ei · ej = δji . (2.20) Si verifica che ei = g ij ej , ei = gij ej , (2.21) e che ei = (εi )]. (2.22) La figura che segue mostra per esempio il caso dello spazio euclideo bidimensionale. Assunta (c1 , c2 ) come base canonica, le basi (e1 , e2 ) e (e1 , e2 ) sono basi una reciproca dell’altra, essendo e1 · e1 = e2 · e2 = 1, e1 · e2 = e2 · e1 = 0. In uno spazio strettamente euclideo, ∗ se (ei ) è una base canonica, allora ei = ei : la base coincide con la sua reciproca. Se lo spazio è pseudoeuclideo, di segnatura (p, q), quest’uguaglianza vale solo per gli indici ∗ i ≤ p. Per i rimanenti si ha ei = − ei . • Basi reciproche. Ad ogni sottospazio K ⊂ E associamo il sottospazio K ⊥ = {u ∈ E | u · v = 0, ∀v ∈ K}, (2.23) detto spazio ortogonale a K. Confrontando questa definizione con quella del polare K ◦ data al § 1.2 e tenuto conto della definizione (2.16), si vede che K ⊥ = (K ◦ )]. (2.24) 44 Capitolo 2. Spazi vettoriali con struttura Pertanto dalle proprietà (1.3) del § 1.2 seguono immediatamente analoghe proprietà per l’operatore ortogonale ⊥: dim(K) + dim(K ⊥ ) = dim(E), K ⊥⊥ = K, K ⊥ ⊂ L⊥ ⇐⇒ L ⊂ K, (2.25) (K + L)⊥ = K ⊥ ∩ L⊥ , ⊥ K + L⊥ = (K ∩ L)⊥ . Osservazione 2.1.5 – Un sottospazio K si dice isotropo se K ⊂ K ⊥ . Un sottospazio è isotropo se e solo se (a) tutti i suoi vettori sono isotropi, ovvero se e solo se (b) tutti i suoi vettori sono fra loro ortogonali (dimostrarlo). • Osservazione 2.1.6 – Si può dimostrare che la massima dimensione dei sottospazi isotropi è il minimo dei due numeri (p, q) della segnatura. • Osservazione 2.1.7 – Un sottospazio K si dice euclideo o non degenere se la restrizione del tensore metrico a K è ancora regolare (vale cioè la (2.1)2 ristretta a K). Un sottospazio è non degenere se e solo se K ∩ K ⊥ = 0 (dimostrarlo). • Osservazione 2.1.8 – Il prodotto scalare si può estendere, in maniera naturale, ai vettori complessi. Il prodotto scalare dei vettori v = u+i w e v0 = u0 +i w0 è il numero complesso v · v0 = u · u0 − w · w0 + i (u · w0 + u0 · w). La norma di un vettore è il numero complesso kvk = kuk − kwk + 2i u · w. • 2.2 Endomorfismi in spazi euclidei Sia (E, g) uno spazio euclideo (di segnatura qualsiasi). Ad ogni endomorfismo A su E si associa un altro endomorfismo AT di E, detto endomorfismo trasposto di A, definito dall’uguaglianza AT (u) · v = u · A(v) Per l’operatore di trasposizione T valgono le seguenti proprietà: T 1 = 1, ATT = A, (A + B)T = AT + B T , (AB)T = B T AT , T k Ak = AT (k ∈ N), T T T [A, B] = [B , A ]. (2.26) (2.27) 45 2.2. Endomorfismi in spazi euclidei Se in particolare A è un automorfismo: (A−1 )T = (AT )−1 . (2.28) Le componenti dell’endomorfismo trasposto sono date da (AT )ij = gjh g ik Ahk (2.29) Occorre infatti ricordare la definizione di componenti di un endomorfismo e quanto visto al § precedente (in particolare la (2.22), per dedurre successivamente: (AT )ij = hAT (ej ), εi i = AT (ej ) · ei = A(ei ) · ej = g ik gjh A(ek ) · eh = g ik gjh hA(ek ), εh i = g ik gjh Ahk . Osservazione 2.2.1 – Se lo spazio è strettamente euclideo (la metrica è definita positiva) e se la base scelta è canonica, allora gij = δij e quindi ∗ (AT )ij = Aji . (2.30) Ciò significa che la matrice delle componenti dell’endomorfismo trasposto AT coincide con la trasposta della matrice delle componenti di A (si scambiano cioè righe con colonne). Questa proprietà è valida solo in questo caso. Se la metrica non è definita positiva e la base è canonica allora la (2.30) è verificata a meno del segno per certe coppie di indici (quali ?). • Osservazione 2.2.2 – Dalla (2.29) deduciamo che det(AT ) = det(A), tr(AT ) = tr(A). (2.31) Dalla prima di queste segue det(A − x1) = det(A − x1)T = det(AT − x1). Dunque i polinomi caratteristici di A e AT coincidono, e quindi coincidono anche tutti gli invarianti principali Ik (AT ) = Ik (A), (2.32) nonché gli spettri. • Definizione 2.2.1 – Diciamo che un endomorfismo è simmetrico se AT = A, che è antisimmetrico se AT = −A. Ciò significa che si ha, rispettivamente: A(u) · v = A(v) · u, per ogni coppia di vettori (u, v). • A(u) · v = −A(v) · u, 46 Capitolo 2. Spazi vettoriali con struttura Ogni endomorfismo è decomponibile nella somma della sua parte simmetrica e della sua parte antisimmetrica: ) AS = 12 (A + AT ) (2.33) A = AS + AA . A 1 T A = 2 (A − A ) Segue che AT = AS − AA . (2.34) Alcune proprietà da ricordare: (I) La potenza k-esima di un endomorfismo simmetrico è sempre simmetrica, qualunque T k sia k. Da AT = A segue infatti per la (2.27)4 Ak = AT = Ak . (II) La potenza k-esima di un endomorfismo antisimmetrico è simmetrica o antisimmetrica T k a seconda che k sia pari o dispari. Da AT = − A segue infatti Ak = AT = (−A)k = (−1)k Ak . (III) La traccia di un endomorfismo antisimmetrico è nulla. Infatti tr(A) = tr(−AT ) = − tr(AT ) = − tr(A). (IV) Il determinante di un endomorfismo antisimmetrico è nullo se la dimensione n dello spazio è dispari. Infatti det(A) = det(AT ) = det(−A) = (−1)n det(A). (V) La traccia del prodotto di un endomorfismo simmetrico per uno antisimmetrico è nulla. Infatti se A e simmetrico e B antisimmetrico, tr(A B) = tr(−A B) = − tr(A B). (VI) Il commutatore di due endomorfismi simmetrici, oppure di due endomorfismi antisimmetrici, è antisimmetrico. Questo segue dall’ultima delle (2.27) e dall’anticommutatività del commutatore. Da quest’ultima proprietà segue che gli endomorfismi antisimmetrici formano una sottoalgebra di Lie di End(E). Osservazione 2.2.3 – È importante sottolineare che le precedenti definizioni fanno intervenire in maniera essenziale la metrica g. Esse sono del tutto analoghe a quelle viste per le forme bilineari, dove però la nozione di trasposizione e quelle conseguenti di simmetria e di antisimmetria non richiedono la presenza sullo spazio vettoriale di alcuna struttura aggiuntiva. L’analogia risulta ulteriormente confermata nelle considerazioni seguenti. • Ad ogni endomorfismo A possiamo far corrispondere una forma bilineare, che denotiamo ancora con A, ponendo: A(u, v) = A(u) · v (2.35) Denotate con (Aij ) le componenti della forma bilineare A, risulta Aij = gjk Aki Infatti: Aij = A(ei , ej ) = A(ei ) · ej = Aki ek · ej = gjk Aki . (2.36) 47 2.2. Endomorfismi in spazi euclidei Si osservi che, anche in questo caso, è presente un’operazione di abbassamento di indice. La relazione inversa delle (2.36) è: Aki = g jk Aij . (2.37) L’operazione ora definita è un isomorfismo tra End(E) e T2 (E). Si osservi che accanto alla (2.35) sussiste una definizione alternativa analoga, che genera un altro isomorfismo: A(u, v) = u · A(v). Si osservi inoltre che A è un endomorfismo simmetrico (rispettivamente, antisimmetrico) se e solo se la corrispondente forma bilineare è simmetrica (risp. antisimmetrica). Osservazione 2.2.4 – Il tensore metrico, come forma bilineare, corrisponde all’endomorfismo identico. • Osservazione 2.2.5 – Si consideri il prodotto tensoriale di due vettori A = a ⊗ b. Si tratta di un tensore doppio contravariante. Le sue componenti in una base qualsiasi sono Aij = ai bj . A questo tensore si fa corrispondere un endomorfismo, denotato ancora con A e detto diade, ponendo A(u) = (a · u) b, (2.38) e quindi ancora una forma bilineare ponendo A(u, v) = (a · u) (b · v). (2.39) Le componenti di quest’endomorfismo e di questa forma bilineare sono rispettivamente Aji = ai bj , Aij = ai bj . (2.40) Più in generale ad ogni tensore doppio contravariante A, di componenti (Aij ), per quanto visto al paragrafo precedente, corrisponde un endomorfismo ed una forma bilineare (che denotiamo sempre con A) le cui componenti si ottengono con l’abbassamento degli indici: Aji = Akj gki , Aij = Ahk ghi gkj . • (2.41) Passiamo ora a considerare alcune fondamentali proprietà degli autovalori degli endomorfismi simmetrici e antisimmetrici, nell’ipotesi però che lo spazio E sia strettamente euclideo, cioè a metrica definita positiva (fatta eccezione per il primo teorema che segue, valido anche nel caso di uno spazio non strettamente euclideo). Cominciamo dagli endomorfismi simmetrici. Teorema 2.2.1 – Gli autovettori di un endomorfismo simmetrico corrispondenti ad autovalori distinti sono ortogonali. Dimostrazione. Sia A un endomorfismo simmetrico. Sia A(v1) = λ1 v 1 e A(v2) = λ2 v 2 . Moltiplicando scalarmente la prima uguaglianza per v 2 , la seconda per v1 , sottraendo poi membro a membro e tenendo conto della simmetria di A si deduce 0 = (λ1 − λ2 ) v1 · v 2 . Da λ1 6= λ2 segue v1 · v2 = 0. 2 48 Capitolo 2. Spazi vettoriali con struttura Teorema 2.2.2 – Gli autovalori di un endomorfismo simmetrico in uno spazio strettamente euclideo sono reali. Dimostrazione. Sia A(v) = λ v, con λ complesso e quindi v complesso: v = u + i w. Moltiplicando scalarmente membro a membro per v̄ = u − i w, v̄ · A(v) = λ (u − i w) · (u + i w), si trova, considerando A come forma bilineare simmetrica: A(u, u) + A(w, w) = λ (kuk + kwk). Essendo lo spazio strettamente euclideo è sicuramente kuk + kwk > 0 (a meno che non sia v = 0, caso a priori escluso). L’equazione precedente determina quindi l’autovalore λ attraverso un quoziente di numeri reali. 2 Teorema 2.2.3 – Per un endomorfismo simmetrico in uno spazio strettamente euclideo la molteplicità geometrica degli autovalori coincide con la molteplicità algebrica. Dimostrazione. Si consideri l’insieme degli autovalori distinti (λ1 , λ2, . . . , λl ), l ≤ n, nonché la successione delle rispettive molteplicità (m1 , m2 , . . . , ml ) e dei rispettivi spazi invarianti (K1 , K2 , . . . , Kl ). Con riferimento alle notazioni del § 1.9 abbiamo mi = mλi e Ki = Kλi . Per il Teorema 2.2.1 questi sottospazi sono mutuamente ortogonali. Consideriamo il sottospazio V ⊂ E dei vettori ortogonali a tutti i Ki. Questo è un sottospazio invariante di A; infatti per ogni v ∈ V e per ogni vi ∈ Ki si ha A(vi ) · v = 0 perché A(Ki) ⊂ Ki . Per la simmetria di A di qui segue A(v) · vi = 0, il che significa appunto A(v) ∈ V . Allora la restrizione di A a V darebbe luogo ad ulteriori autovettori da aggiungersi alla lista già fatta: assurdo, a meno che non sia V = {0}. Abbiamo dunque che lo spazio E è somma diretta dei sottospazi mutuamente ortogonali associati agli autovalori: E = K1 ⊕ K2 ⊕ . . . ⊕ Kl . Pertanto dim(E) = n = dim(K1 ) + dim(K2 ) + . . . + dim(Kl ) = mg(λ1 ) + mg(λ2 ) + . . . + mg(λl ). (2.42) 49 2.2. Endomorfismi in spazi euclidei D’altra parte, per il teorema fondamentale dell’algebra: n = m1 + m2 + . . . + ml = ma(λ1 ) + ma(λ2 ) + . . . + ma(λl ). In generale, come si è detto al § 1.9, vale la disuguaglianza ma(λi ) ≥ mg(λi). Se vi fosse una sola disuguaglianza forte, stante le due uguaglianze sopra stabilite, si cadrebbe in un assurdo. 2 Osservazione 2.2.6 – Se gli autovalori di A sono tutti distinti, allora ognuno dei sottospazi invarianti Ki è unidimensionale e univocamente determinato. • Teorema 2.2.4 – Ogni endomorfismo simmetrico in uno spazio strettamente euclideo ammette una rappresentazione del tipo A= n X α=1 λα cα ⊗ cα (2.43) dove (cα ) è una base canonica di autovettori di A e dove (λα) sono i corrispondenti autovalori. Per questa rappresentazione si deve tener conto dell’Oss. 6, cioè della corrispondenza tra tensori doppi contravarianti, endomorfismi e forme bilineari. Segue subito dalla scrittura (2.43) che i (cα ) sono autovettori ed i (λα) sono autovalori. Infatti – si veda la (2.38): A(cβ ) = n X λα(cα · cβ ) cα = α=1 n X λα δαβ cα = λβ cβ . α=1 Per ogni vettore v si ha quindi ∗ A(v) = n X λα vα cα (2.44) α=1 essendo le (vα) le sue componenti rispetto alla base canonica. Dimostrazione. Si consideri la decomposizione (2.42) in sottospazi invarianti. Se v 1 ∈ K1 e |v1 | = 1, allora A(v1 , v1 ) = A(v1 ) · v 1 = λ1 v 1 · v 1 = λ1 . Analogamente, tenuto conto del Teorema 2.2.1, se v2 ∈ K2 allora A(v1 , v2 ) = A(v1 ) · v 2 = λ1 v1 · v2 = 0. 50 Capitolo 2. Spazi vettoriali con struttura Pertanto, scegliendo in ogni sottospazio K1 , K2, . . . , Kl una base canonica si determina una base canonica (cα ) di tutto E per la quale vale la rappresentazione (2.43). 2 Si osservi che dalla (2.43) segue che nella base canonica (cα) le componenti Aαβ = A(cα , cβ ) della forma bilineare A sono tutte nulle salvo quelle della diagonale principale, che coincidono con gli autovalori: Aαβ = δαβ λα. In forma matriciale: [Aαβ ] = (2.45) λ1 1m1 0 ... 0 0 λ2 1m2 ... 0 .. . .. . .. .. . 0 0 . . . λl 1ml . (2.46) Questa base canonica (cα) si trasforma in una base canonica (c0α ) rispetto alla forma bilineare simmetrica A ponendo 1 c0α = p cα |λα| se λα 6= 0, oppure c0α = cα se λα = 0. Si vede cosı̀ che le componenti positive (risp. negative) della forma bilineare A in questa base sono tante quante gli autovalori positivi (risp. negativi) dell’endomorfismo A. Si è pertanto dimostrato che Teorema 2.2.5 – Se un endomorfismo simmetrico in uno spazio strettamente euclideo ha, contati con la dovuta molteplicità, p autovalori positivi e q autovalori negativi, allora la corrispondente forma bilineare simmetrica ha segnatura (p, q). Tenuto conto che il tensore metrico è una forma bilineare simmetrica definita positiva, dalla dimostrazione di quest’ultima proprietà si deduce anche l’enunciato generale seguente: Teorema 2.2.6 – Due forme bilineari simmetriche, di cui una definita positiva, possono contemporaneamente porsi in forma diagonale, ammettono cioè basi ortogonali comuni. Passiamo infine ad esaminare brevemente il caso antisimmetrico. Teorema 2.2.7 – Gli autovalori di un endomorfismo antisimmetrico in uno spazio strettamente euclideo sono nulli o immaginari puri. Dimostrazione. La dimostrazione è analoga a quella del Teorem 2.2.2. Sia A(v) = λ v, con λ complesso e quindi v complesso: v = u + i w. Moltiplicando scalarmente membro a membro per v̄ = u − i w, si trova, considerando A come forma bilineare antisimmetrica: i 2 A(w, u) = λ (kuk + kwk). Essendo lo spazio strettamente euclideo quest’equazione determina l’autovalore λ come quoziente di un numero immaginario puro per un numero reale. 2 51 2.3. Endomorfismi ortogonali 2.3 Endomorfismi ortogonali Un endomorfismo ortogonale o isometria è un endomorfismo Q su di uno spazio euclideo o pseudoeuclideo (E, g) conservante il prodotto scalare, cioè tale che Q(u) · Q(v) = u · v ∀u, v ∈ E (2.47) ∀u ∈ E (2.48) Va osservato che questa definizione equivale a Q(u) · Q(u) = u · u è infatti ovvio che la (2.47) implica la (2.48). Viceversa, se vale la (2.48) risulta Q(u + v) · Q(u + v) = (u + v) · (u + v) (∀u, v ∈ E). Sviluppando ambo i membri di quest’uguaglianza e riutilizzando la(2.48) si trova l’uguaglianza (2.47). Dalla (2.47), per il fatto che la metrica non è degenere, segue che Ker(Q) = 0. Di conseguenza Q(E) = E. Ne deduciamo che un endomorfismo ortogonale è un isomorfismo. Per definizione di endomorfismo trasposto la (2.47) equivale a QT Q(u) · v = u · v, e quindi, per l’arbitrarietà dei vettori, alla condizione QT Q = 1 (2.49) QT = Q−1 (2.50) ovvero Dunque le formule (2.47), (2.48), (2.49) e (2.50) sono tutte definizioni equivalenti di endomorfismo ortogonale. Poiché det(QT ) = det(Q), la (2.49) implica (det(Q))2 = 1 cioè det(Q) = ±1. (2.51) Gli endomorfismi ortogonali il cui determinante vale +1 sono chiamati rotazioni; quelle con determinante −1 rotazioni improprie. L’identità 1 è ovviamente una rotazione. Il prodotto di due (o più) rotazioni è una rotazione. Il prodotto di due rotazioni improprie è una rotazione. Il prodotto di una rotazione per una rotazione impropria è una rotazione impropria. L’insieme di tutti gli endomorfismi ortogonali sopra uno spazio (E, g) è un gruppo rispetto all’ordinaria composizione degli endomorfismi, cioè un sottogruppo di Aut(E), detto 52 Capitolo 2. Spazi vettoriali con struttura gruppo ortogonale di (E, g). Lo denotiamo con O(E, g). Le rotazioni formano un sottogruppo, detto gruppo ortogonale speciale, che denotiamo con SO(E, g). Le rotazioni improprie non formano ovviamente sottogruppo. Se due spazi vettoriali hanno uguale dimensione e segnatura, allora i rispettivi gruppi ortogonali sono isomorfi. Passando alle componenti, osserviamo che un endomorfismo Q è ortogonale se e solo se le sue componenti (Qji ) rispetto ad una base generica verificano le uguaglianze gij Qih Qjk = ghk (2.52) che sono in tutto 12 n(n + 1). Queste si ottengono dalla (2.47) scritta per una generica coppia (eh , ek ) di vettori della base. Se lo spazio è strettamente euclideo e se la base scelta è canonica, allora le (2.52) diventano n X ∗ Qih Qik = δhk (2.53) i=1 Ciò significa che il prodotto della matrice (Qij ) per la sua trasposta è la matrice unitaria. Le matrici soddisfacenti a questa proprietà sono dette matrici ortogonali. Se la base è canonica ma lo spazio non è strettamente euclideo la formula (2.53) non è più valida. In ogni caso, le matrici delle componenti in una base canonica degli endomorfismi ortogonali (o delle rotazioni) di uno spazio di segnatura (p, q) formano un gruppo denotato con O(p, q) (oppure SO(p, q)). Si denotano in particolare con O(n) e SO(n) i gruppi delle matrici n×n ortogonali, cioè soddisfacenti alla (2.53), e di quelle ortogonali a determinante unitario. La scelta di una base canonica stabilisce un isomorfismo tra O(E, g) e O(p, q). Osservazione 2.3.1 – Gli autovalori, complessi o reali, di un endomorfismo ortogonale in uno spazio strettamente euclideo sono unitari: |λ| = 1. Infatti, dall’equazione Q(v) = λv segue, applicando la coniugazione, l’equazione Q(v̄) = λ̄v̄. Moltiplicando scalarmente membro a membro queste due uguaglianze si ottiene Q(v) · Q(v̄) = λλ̄v · v̄. Poiché Q è ortogonale si ha anche Q(v) · Q(v̄) = v · v̄. Di qui segue λλ̄ = 1, come asserito. • Vediamo ora alcuni esempi di rappresentazione delle rotazioni, che suggeriscono alcuni esercizi e ulteriori approfondimenti. 2.3.1 Rappresentazione mediante simmetrie Sia a ∈ E un vettore non isotropo. Si consideri l’endomorfismo S a definito da S a (v) = v − 2 a·v a. a·a (2.54) Esso è una simmetria rispetto al piano ortogonale ad a, nel senso che, come si verifica immediatamente, S a (a) = −a, S a (v) = v 53 2.3. Endomorfismi ortogonali per ogni vettore v ortogonale ad a. Di conseguenza, S a è un’isometria. Più precisamente è una rotazione impropria. Infatti a è un autovettore di autovalore −1 mentre ogni vettore ortogonale ad a è autovettore di autovalore +1, sicché lo spettro è (−1, 1, . . ., 1) e quindi det(S a ) = −1. Si può dimostrare, ma la dimostrazione non è semplice, che ogni isometria è il prodotto di simmetrie. è invece più facile dimostrare (e la dimostrazione è lasciata come esercizio) che due simmetrie S a e S b commutano se e solo se i corrispondenti vettori a e b sono dipendenti (allora le simmetrie coincidono) oppure sono ortogonali. 2.3.2 Decomposizione simmetrica delle isometrie Decomponiamo un endomorfismo Q nelle sue parti simmetrica e antisimmetrica: Q = QS + QA , QS = 1 2 (Q + QT ), QA = 1 2 (Q − QT ). (2.55) Segue che QQT = (QS + QA )(QS − QA ) = (QS )2 − (QA )2 + QA QS − QS QA , QT Q = (QS − QA )(QS + QA ) = (QS )2 − (QA )2 − QA QS + QS QA . Se Q è un’isometria, allora entrambe queste espressioni devono valere 1, sicché sottraendo membro a membro segue subito QA QS − QS QA = [QA , QS ] = 0 (2.56) (QS )2 − (QA )2 = 1. (2.57) e quindi Viceversa, se valgono entrambe queste condizioni allora le predette espressioni valgono 1. è cosı̀ dimostrato che le condizioni (2.56) e (2.57) sono necessarie e sufficienti affinché un endomorfismo Q sia ortogonale. Dalla (2.57) si deduce in particolare che un endomorfismo ortogonale Q è simmetrico se e solo se esso è involutorio, cioè se Q2 = 1. Lo si riconosce comunque anche dal fatto che, valendo la (30 ), la condizione QQ = 1 è equivalente a Q = QT . Osserviamo infine che se l’endomorfismo ortogonale Q è simmetrico allora, qualunque sia il vettore v, il vettore v ± Q(v) è autovettore di Q con autovalore ±1. Infatti: Q(v ± Q(v)) = Q(v) ± Q2 (v) = Q(v) ± v = ±(v ± Q(v)). 2.3.3 Rappresentazione esponenziale Dato un endomorfismo A, consideriamone tutte le sue potenze {Ak ; k ∈ N} e quindi la serie ∞ X 1 k A e = A , (2.58) k! k=0 54 Capitolo 2. Spazi vettoriali con struttura detta esponenziale di A. Questa è convergente, nel senso che qualunque sia A e comunque si fissi una base di E, le n2 serie di numeri reali date dalle componenti di eA sono tutte convergenti (anzi, assolutamente convergenti) o, se si vuole, che tale è la serie vettoriale ∞ X 1 k A (v), k! k=0 qualunque sia il vettore v. Omettiamo la discussione sulla convergenza di questa serie e su serie analoghe costruibili a partire da funzioni analitiche. Ci limitiamo qui ad osservare che se (λ1 , . . . , λn) è lo spettro di A allora lo spettro di eA è (eλ1 , . . . , eλn ). Infatti da A(v) = λv segue Ak (v) = λk v e quindi eA (v) = ∞ ∞ X X 1 k 1 k A (v) = λ v = eλ v. k! k! k=0 k=0 L’esponenziale di un endomorfismo non gode di tutte le proprietá della corrispondente funzione analitica. Per esempio l’uguaglianza eA+B = eA eB non è più vera in generale. Lo è se i due endomorfismi A e B commutano (col che commutano anche gli esponenziali). Vale comunque la proprietà T (eA)T = eA . Di qui segue che: se A è antisimmetrico allora eA è una rotazione. Infatti: T eA (eA )T = eA eA = eA e−A = e(A−A) = 1. Inoltre la condizione det(eA ) = 1 segue dal fatto che nello spettro di un endomorfismo antisimmetrico gli autovalori non nulli si distribuiscono in coppie di segno opposto, sicché la loro somma è uguale a zero. Allora, per quanto sopra detto, det(eA ) = n Y Pn eλi = e i=1 λi = e0 = 1. i=1 2.3.4 Rappresentazione di Cayley Se A è un endomorfismo antisimmetrico tale che A − 1 è invertibile allora l’endomorfismo Q = (1 + A)(1 − A)−1 (2.59) è ortogonale. Si verifica infatti facilmente, utilizzando le ben note proprietà della trasposizione e il fatto che i due endomorfismi 1 ± A commutano, che QQT = 1. Un po’ meno immediata è la verifica del fatto che det(Q) = 1 (essa è lasciata come esercizio). Si ottiene quindi un’ulteriore rappresentazione delle rotazioni in termini di endomorfismi antisimmetrici. Si osservi che la condizione det(1 − A) 6= 0, richiesta per la validità della scrittura (2.59), è sempre soddisfatta in uno spazio strettamente euclideo. Infatti, questa equivale alla condizione che 1 sia un autovalore di A, cosa impossibile perché in tali spazi gli autovalori non nulli di un endomorfismo antisimmetrico sono immaginari puri. 55 2.3. Endomorfismi ortogonali 2.3.5 Rappresentazione quaternionale Veniamo infine ad una interessante rappresentazione delle rotazioni nello spazio euclideo tridimensionale E3 . Si consideri nella somma diretta di spazi vettoriali R ⊕ E3 il prodotto (interno) definito da (a, u)(b, v) = (ab − u · v, av + bu + u × v) (2.60) nonché il prodotto scalare definito da (a, u) · (b, v) = ab + u · v. (2.61) L’elemento inverso è definito da (a, u)−1 = (a, −u) k(a, u)k (2.62) dove si è posto k(a, u)k = (a, u) · (a, u) = a2 + u2 . Quindi tutti gli elementi sono invertibili, fuorché quello nullo (0, 0). Si ottiene un’algebra associativa, non commutativa, con unità (1, 0). Si pone per comodità (a, 0) = a e (0, v) = v. Il prodotto scalare è conservato dal prodotto interno, nel senso che k(a, u)(b, v)k = k(a, u)k k(b, v)k. (2.63) Da questa proprietà segue per esempio che gli elementi unitari, cioè quelli per cui k(a, u)k = 1, formano un sottogruppo del gruppo degli elementi non nulli. Un modo conveniente per rappresentare quest’algebra, e quindi riconoscerne facilmente le proprietà fondamentali, consiste nella scelta di una base canonica (i, j, k) dello spazio vettoriale e nella rappresentazione di un generico elemento (a, u = b i + c j + d k) nella somma formale a + b i + c j + d k, (2.64) detta quaternione. Il prodotto di due quaternioni, in conformità alla definizione (2.60), è l’estensione lineare dei seguenti prodotti fondamentali: i2 = j 2 = k 2 = −1, i j = k, j k = i, k i = j. (2.65) Definita quest’algebra, ad ogni suo elemento non nullo (a, u) si associa un’applicazione Q : E3 → E3 definita da Q(v) = (a, u)v(a, u)−1 . (2.66) Lasciamo come esercizio di dimostrare che: (i) il secondo membro definisce effettivamente un vettore; (ii) che l’applicazione cosı̀ definita è un endomorfismo ortogonale, anzi una rotazione; (iii) che l’applicazione f : (R × E3 )\{0} → SO(E3 ) 56 Capitolo 2. Spazi vettoriali con struttura definita dalla (2.66) è un omomorfismo di gruppi. In particolare possiamo restringere quest’applicazione agli elementi unitari di R × E3 . Osserviamo allora che, scegliendo una base canonica nello spazio euclideo, questi elementi sono caratterizzati dall’equazione (si veda la (2.64)) a2 + b2 + c2 + d2 = 1, e quindi descrivono tutta la sfera unitaria S3 ⊂ R4 . Risulta pertanto che: (i) la sfera S3 ha una struttura di gruppo; (ii) esiste un omomorfismo di gruppi ϕ : S3 → SO(3) che costituisce un ricoprimento universale del gruppo delle rotazioni dello spazio euclideo tridimensionale (questo termine è proprio della teoria dei gruppi di Lie, argomento di corsi superiori). Si osservi che ogni elemento di SO(3) ha come controimmagine due punti opposti di S3 . Sulla rappresentazione delle rotazioni nello spazio tridimensionale euclideo si ritornerà più avanti (§ 2.4.5). 2.4 Lo spazio vettoriale euclideo tridimensionale In questo paragrafo esamineremo le proprietà fondamentali di uno spazio vettoriale sul campo reale, tridimensionale, dotato di un tensore metrico, cioè di un prodotto scalare, definito positivo. Lo denotiamo semplicemente con E3 . Adotteremo tutte le definizioni e notazioni già introdotte al § 2.1. Siccome dovremo distinguere tra basi generiche e basi canoniche, una base canonica sarà denotata con (cα) (α = 1, 2, 3), una base generica con (ei ) (i = 1, 2, 3). Le componenti relative a una base canonica saranno quindi contrassegnate con indici greci, quelle relative ad una base generica con indici latini. Quando non occorrono notazioni con indici, una base canonica sarà denotata con (i, j, k). Una base canonica è anche detta ortonormale. 2.4.1 La forma volume Due basi ordinate di uno spazio vettoriale (ci riferiamo ad uno spazio vettoriale di dimensione n qualsiasi) si dicono concordi o equiorientate se la matrice della trasformazione da una base all’altra ha determinante positivo. Si stabilisce in questo modo una relazione di equivalenza nell’insieme delle basi ordinate. Le classi di equivalenza sono due e prendono il nome di orientamenti. Quando si sceglie una base e la si ordina, come si fa usualmente, corredandone gli elementi con un indice che va da 1 a n, si sceglie automaticamente un orientamento dello spazio. Se si scambiano fra di loro due vettori della base, oppure se si cambia verso ad un numero dispari di vettori della base, si cambia orientamento. Consideriamo ora lo spazio vettoriale euclideo tridimensionale E3 , pur avvertendo che le considerazioni svolte in questo sottoparagrafo si estendono a spazi euclidei di dimensione 57 2.4. Lo spazio vettoriale euclideo tridimensionale superiore. Fissata una base canonica (cα ) = (c1 , c2 , c3 ), col che risulta anche fissato un orientamento, definiamo una 3-forma η : E3 × E3 × E3 → R ponendo u1 u2 u3 1 2 3 η(u, v, w) = det v v v (2.67) w1 w2 w3 Che l’applicazione η cosı̀ definita sia multilineare e antisimmetrica segue immediatamente dalle proprietà del determinante. È importante la circostanza che la definizione (2.67) di η non dipende dalla scelta della base canonica, purché questa appartenga all’orientamento prefissato. Per riconoscerlo basta osservare che, ricordata la definizione di determinante, la definizione (2.67) si può porre in forma sintetica utilizzando il simbolo di Levi-Civita3 a tre indici: η(u, v, w) = εαβγ uα v β w γ (2.68) Il simbolo εαβγ vale +1 se la successione di indici (α, β, γ) è una permutazione pari della disposizione fondamentale (1, 2, 3), −1 se è invece una permutazione dispari, 0 in tutti gli altri casi, cioè quando almeno due degli indici sono uguali. La (2.68) mostra subito che le componenti del tensore η nella base canonica (cα ) coincidono proprio con il simbolo di Levi-Civita: ∗ ηαβγ = εαβγ . (2.69) Quest’ultima proprietà è manifestamente indipendente dalla base canonica di partenza: se si ripetesse la definizione (2.67) scegliendo un’altra base canonica si giungerebbe al medesimo risultato (2.69). Pertanto la definizione di η data dalla (2.67) è invariante rispetto alla scelta della base canonica. Il significato di η è notevole: il determinante nella definizione (2.67) rappresenta il volume del parallelepipedo individuato dai vettori (u, v, w), più precisamente il volume con segno: positivo se questi vettori formano, nell’ordine, una base concorde con quella canonica prefissata, negativo in caso contrario; nullo se i vettori sono dipendenti. Per riconoscerlo si può scegliere una base canonica (cα ) tale che c1 sia parallelo ad u e il sottospazio individuato da (c1 , c2 ) contenga il vettore v (vedi figura). Allora: u = u1 c1 , v = v 1 c1 + v 2 c2 , w = w 1 c1 + w 2 c2 + w 3 c3 e la definizione (2.67) fornisce 3 Vedi § 1.20. u1 0 0 1 η(u, v, w) = det v2 0 v w1 w2 w3 = u1 v 2 w 3 . (2.70) 58 Capitolo 2. Spazi vettoriali con struttura Si riconosce, sempre guardando la figura, che quest’ultimo prodotto è proprio il volume del parallelepipedo individuato dai vettori (u, v, w). ' $ & % La forma volume. Per quanto ora visto il tensore antisimmetrico covariante η prende il nome di forma volume. La sua definizione si estende facilmente a spazi euclidei di dimensione qualsiasi. Si osservi che di forme volume ne esistono due, una opposta all’altra, una per ogni orientamento. L’orientamento che di solito si assume nello spazio euclideo tridimensionale è quello della mano destra: i vettori di una base canonica ordinata (c1 , c2 , c3 ) = (i, j, k) sono rispettivamente orientati come indice-medio-pollice (o pollice-indice-medio) della mano destra. La forma volume è un ente fondamentale nello spazio euclideo. Per suo tramite, come si vedrà nei prossimi paragrafi, si possono definire due operazioni fondamentali: l’aggiunzione e il prodotto vettoriale. Teorema 2.4.1 – Le componenti della forma-volume η rispetto ad una qualunque base (ei ), legata ad una base canonica (cα ) dalle uguaglianze ei = Eiα cα, sono date da ηhij = J εhij , J = det[Eiα] (2.71) dove εhij è il simbolo di Levi-Civita, oppure da √ ηhij = ± g εhij , g = det[gij ], gij = ei · ej col segno + se la base (ei ) è concorde con la base fondamentale (cα ). (2.72) 59 2.4. Lo spazio vettoriale euclideo tridimensionale Dimostrazione. Posto che le due basi sono legate da relazioni del tipo ei = Eiα cα, e posto che la base (cα) è canonica e quindi che le componenti del tensore metrico rispetto a questa coincidono col simbolo di Kronecker, risulta gij = Eiα Ejβ δαβ , per cui det[gij ] = (det[Eiα])2 . (2.73) D’altra parte, per la legge di trasformazione delle componenti di un tensore, si ha anche, stante la (2.69), β γ ηhij = Ehα Ei Ej εαβγ . Scelto per esempio (h, i, j) = (1, 2, 3) e ricordata la definizione di determinante, si vede che quest’ultima formula implica η123 = E1α E2β E3γ εαβγ = det[Eiα]. Se invece (h, i, j) = (2, 1, 3), allora η213 = − det[Eiα]. Si riconosce cosı̀ che vale la formula generale (2.71). Dalla (2.71) segue poi la (2.72) in virtù della (2.73). Osservazione 2.4.1 – Data una base canonica (cα ) e denotata con (γ α) la sua duale, la forma volume risulta essere anche definita da η = γ1 ∧ γ2 ∧ γ3 (2.74) Infatti, richiamata e adattata al caso n = 3 la formula generale analoga alla (1.107) per i covettori, possiamo scrivere γ 1 ∧ γ 2 ∧ γ 3 = εαβγ γ α ⊗ γ β ⊗ γ γ . Per cui (γ 1 ∧ γ 2 ∧ γ 3 )(u, v, w) = εαβγ (γ α ⊗ γ β ⊗ γ γ )(u, v, w) = εαβγ uα v β w γ , come nella (2.68). Dunque la forma volume ammette la definizione equivalente (2.74). • 2.4.2 Aggiunzione Introdotta la forma volume, ad ogni vettore u ∈ E3 si fa corrispondere una forma bilineare antisimmetrica, sempre su E3 , chiamata aggiunta di u, denotata con ∗u e definita dall’uguaglianza (∗u)(v, w) = η(u, v, w) (2.75) 60 Capitolo 2. Spazi vettoriali con struttura Posto ϕ = ∗u, si ha successivamente: ϕij = ϕ(ei , ej ) = (∗u)(ei , ej ) = η(u, ei , ej ) = uh η(eh , ei , ej ) = uh ηhij . Quindi le componenti ϕij della forma aggiunta, in una base generica dell’orientamento scelto, sono date da ϕij = ηhij uh (2.76) Se in particolare la base è canonica ∗ ϕαβ = εγαβ uγ vale a dire: La corrispondenza 0 (2.77) u3 −u2 3 [ϕαβ ] = 0 −u u2 −u1 u 1 0 (2.78) ∗ : E3 → Φ2 (E3 ) : u 7→ ∗u che cosı̀ si genera è un isomorfismo. Con lo stesso simbolo denotiamo la corrispondenza inversa, denotiamo cioè con ∗ϕ il vettore aggiunto della 2-forma ϕ. In questo modo si ha ∗∗ u = u e ∗∗ ϕ = ϕ. Dalla (2.78) si vede che ϕ23 = u1 , ϕ31 = u2 , ϕ12 = u3 , (2.79) cioè che la relazione inversa della (2.77) può essere scritta, considerando il simbolo di Levi-Civita con gli indici in alto, ∗ 1 2 uα = εαβγ ϕβγ (2.80) In una base qualsiasi, sempre nell’orientamento scelto, risulta ui = 1 2 η ijh ϕjh (2.81) dove le (η ijh ) sono le componenti contravarianti della forma volume: η ijh = g ik g jl g hm ηklm . (2.82) 61 2.4. Lo spazio vettoriale euclideo tridimensionale Queste si possono a loro volta esprimere mediante il simbolo di Levi-Civita: 1 η ijh = √ εijh . g (2.83) Infatti dalla (2.82) si trae: η ijh = √ g g ik g jl g hm εklm = √ 1 g εijh det[g rs] = √ εijh , g poiché det[g rs] = g −1 . La forma volume permette anche di stabilire un isomorfismo fra R = Λ0 (E3 ) e Λ3 (E3 ), che chiamiamo ancora aggiunzione e che denotiamo ancora con ∗. Ad un numero reale a corrisponde la 3-forma ∗a = aη (2.84) e, viceversa, ad una 3-forma ϕ corrisponde il numero reale ∗ϕ= 1 hij ∗ 1 η ϕhij = εαβγ ϕαβγ 3! 3! (2.85) Per riconoscere la coerenza tra la (2.84) e la (2.85), cioè che ∗∗ a = a, occorre osservare che per il simbolo di Levi-Civita vale l’uguaglianza εαβγ εαβγ = 3! (2.86) Accanto a questa valgono anche le seguenti, la cui verifica è lasciata come esercizio: εαβγ εµβγ = 2 δµα, 2.4.3 εαβγ εµνγ = δµα δνβ − δνα δµβ . (2.87) Prodotto vettoriale Per mezzo della forma volume definiamo un’operazione binaria interna su E3 , detta prodotto vettoriale e denotata con ×, ponendo u × v · w = η(u, v, w) (2.88) Si tenga presente che il prodotto vettoriale è in alcuni testi denotato con ∧ ed è anche chiamato prodotto esterno. Tuttavia il simbolo ∧ è oggi universalmente usato per il prodotto esterno di forme antisimmetriche (§ 1.18). Segue subito dalla definizione (2.88) che il prodotto vettoriale u × v è ortogonale ai due fattori: u × v · u = 0, u × v · v = 0. (2.89) 62 Capitolo 2. Spazi vettoriali con struttura Segue inoltre che, se si prendono i tre vettori di una base canonica appartenente all’orientamento scelto, si ha c1 × c2 = c3 , c2 × c3 = c1 , c3 × c1 = c2 . (2.90) Il prodotto vettoriale è anticommutativo, bilineare e soddisfa all’identità di Jacobi: u × v = − v × u, (a u + b v) × w = a u × w + b v × w, (2.91) u × (v × w) + v × (w × u) + w × (u × v) = 0. Pertanto il prodotto vettoriale istituisce sullo spazio euclideo tridimensionale una struttura di algebra di Lie. Le prime due proprietà sono di immediata verifica. La terza si può far seguire, con qualche calcolo, dalla formula del doppio prodotto vettoriale u × (v × w) = u · w v − u · v w (2.92) (u × v) × w = u · w v − v · w u (2.93) che è equivalente a Per dimostrare la (2.92) si osserva che il primo membro è un vettore ortogonale a v × w e quindi, essendo questo prodotto ortogonale a v e w, appartenente allo spazio generato dai vettori (v, w). Si può allora scrivere u × (v × w) = a v + b w. Moltiplicando scalarmente per u si trova 0 = a v · u + b w · u. Possiamo pertanto scrivere a = ρ w · u, b = − ρ v · u, con ρ costante indeterminata. Segue allora: u × (v × w) = ρ (w · u) v − (v · u) w . Per come è definito il prodotto vettoriale il primo membro è lineare rispetto ad ogni fattore. Cosı̀ dicasi della quantità tra parentesi a secondo membro. Allora il fattore ρ deve essere un numero indipendente dai vettori (u, v, w) che compaiono nell’uguaglianza. Se si considera per esempio una base canonica appartenente all’orientamento scelto e si prende (u, v, w) = (c1 , c1 , c2 ), posto che – si veda la (2.90) – c1 × c2 = c3 e c1 × c3 = − c2 , risulta l’uguaglianza − c3 = ρ (− c3 ). Deve quindi essere ρ = 1 e la (2.92) è dimostrata. 63 2.4. Lo spazio vettoriale euclideo tridimensionale Ponendo w = ei nella (2.88) si trovano le componenti covarianti del prodotto vettoriale in una base generica: (u × v)i = ηihj uh v j . (2.94) Le componenti contravarianti sono di conseguenza (u × v)i = η ihj uh vj . (2.95) In una base canonica (cα ), tenendo presente che non vi è più differenza numerica tra componenti covarianti e contravarianti, si ha (u × v)α = εαβγ uβ v γ (2.96) (u × v)α = εαβγ uβ vγ . (2.97) ovvero anche Di qui la possibilità di esprimere il prodotto vettoriale mediante un determinante formale: c1 c2 c3 1 2 3 u × v = det u u u 1 2 3 v v v (2.98) Tenuto conto delle (2.96) e (2.97), nonché della seconda delle (2.87), si può ridimostrare la formula (2.92) del doppio prodotto vettoriale alla maniera seguente: u × (v × w) α = εαβγ uβ (v × w)γ = εαβγ uβ εγµν vµ wν = εαβγ εµνγ uβ vµ wν = uβ wβ vα − uβ vβ wα. Osservazione 2.4.2 – Partendo dalla definizione (2.88) si dimostra che se ϑ è l’angolo compreso tra i vettori non nulli u e v (valutato tra 0 e π) allora |u × v| = |u| |v| sin ϑ (2.99) Infatti, per le proprietà già viste: |u × v|2 = (u × v) · (u × v) = (u × v) × u · v = (u · u v − u · v u) · v = |u|2 |v|2 − (u · v)2 (u · v)2 2 2 = |u| |v| 1 − = |u|2 |v|2 (1 − cos2 ϑ). • |u|2 |v|2 Osservazione 2.4.3 – L’operazione combinata di prodotto vettoriale e prodotto scalare, u × v · w, è chiamata prodotto misto. Dalla definizione (2.88) seguono subito, 64 Capitolo 2. Spazi vettoriali con struttura stante l’antisimmetria di η, la proprietà anticommutativa, la proprietà ciclica e la proprietà di scambio del prodotto misto: u × v · w = − v × u · w, u × v · w = − u × w · v, . . . u × v · w = v × w · u = w × u · v, (2.100) u × v · w = u · v × w. • 2.4.4 Endomorfismi assiali Ad ogni vettore a ∈ E3 corrisponde per aggiunzione una forma bilineare antisimmetrica ∗a. Interpretata questa come endomorfismo (antisimmetrico), vale la formula ∗ a(v) = a × v (2.101) Infatti, in virtù delle definizioni sopra date, si ha successivamente ∗a(v) · u = ∗a(v, u) = η(a, v, u) = a × v · u, per cui, stante l’arbitarietà del vettore u, segue la (2.101). Siccome l’aggiunzione è una corrispondenza biunivoca fra vettori e forme bilineari antisimmetriche, e quindi endomorfismi antisimmetrici, concludiamo che nello spazio euclideo tridimensionale ogni endomorfismo antisimmetrico è del tipo (2.101), cioè del tipo a×, con a ∈ E3 . Si noti che il vettore a è un autovettore di ∗a, corrispondente all’autovalore nullo; infatti ∗a(a) = a × a = 0. Per questo motivo gli endomorfismi antisimmetrici sono anche chiamati endomorfismi assiali. La corrispondenza biunivoca cosı̀ stabilita tra i vettori e gli endomorfismi antisimmetrici è un isomorfismo d’algebre di Lie (si ricordi che, proprietà (VI) al § 2.2, in ogni spazio euclideo gli endomorfismi antisimmetrici formano, con il commutatore, un’algebra di Lie). Sussiste infatti l’uguaglianza ∗ [A, B] = (∗A) × (∗B) (2.102) [∗a, ∗b] = ∗(a × b) (2.103) ovvero l’uguaglianza equivalente Infatti, posto ∗a = A e ∗b = B, si ha A B(u) = a × (b × u) e quindi, utilizzando l’identità di Jacobi per il doppio prodotto vettoriale, [A, B](u) = a × (b × u) − b × (a × u) = a × (b × u) + b × (u × a) = − u × (a × b) = (a × b) × u = ∗(a × b)(u). 65 2.4. Lo spazio vettoriale euclideo tridimensionale Osservazione 2.4.4 – Sappiamo che in E3 , come in ogni spazio euclideo, esiste una corrispondenza biunivoca fra vettori e covettori (§ 2.1). Al § 1.18 abbiamo definito il prodotto esterno di due covettori. Il legame tra questo prodotto esterno e il prodotto vettoriale è espresso dall’uguaglianza ∗ (u × v) = u[ ∧ v[ (2.104) Infatti, tenuto conto della formula (2.93) sul doppio prodotto vettoriale, si ha successivamente: ∗(a × b)(u, v) = η(a × b, u, v) = (a × b) × u · v =a·ub·v−a·v b·u = hu, a[ ihv, b[ i − hv, a[ ihu, b[ i = a[ ∧ b[ (u, v). • 2.4.5 Rotazioni Consideriamo le rotazioni dello spazio E3 . Ricordiamo, dalla teoria generale svolta al § 2.3, che una rotazione è una isometria con determinante uguale a +1 e che i suoi autovalori, se lo spazio è strettamente euclideo, sono unitari, quindi del tipo eiϑ = cos ϑ + i sin ϑ. Per n = 3 gli autovalori sono radici di un polinomio di terzo grado a coefficienti reali. Quindi almeno uno di essi è reale, gli altri due complessi coniugati o reali. Imponendo la condizione che il prodotto di tutti e tre gli autovalori sia uguale a 1 = det(Q) si trova che l’unico spettro possibile di una rotazione è del tipo (1, eiϑ, e−iϑ ). (2.105) Ciò premesso, se escludiamo il caso Q = 1, il cui spettro è (1, 1, 1), l’autovalore 1 determina un sottospazio unidimensionale di autovettori K1 ⊂ E3 che chiamiamo asse della rotazione. Il numero ϑ che compare nella (2.105), determinato a meno del segno e di multipli di 2π, prende il nome di angolo della rotazione. ' $ & % Versore-angolo di una rotazione. 66 Capitolo 2. Spazi vettoriali con struttura Si può rappresentare la rotazione Q mediante una coppia (u, ϑ) dove u è un versore dell’asse e ϑ è l’angolo della rotazione, orientato in maniera tale che per ogni vettore c ortogonale a u il passaggio da c a Q(c) secondo il verso di ϑ sia tale da produrre un “avvitamento” nel verso di u (è sottintesa la scelta del solito orientamento dello spazio, secondo la regola della mano destra). Si dice allora che (u, ϑ) sono versore e angolo della rotazione Q o anche che u è il versore dell’angolo ϑ. Si osservi che le coppie (u, ϑ) e (−u, −ϑ) dànno luogo alla stessa rotazione come anche, in particolare, le coppie (u, π) e (u, −π). Se si sceglie una base canonica (cα ) tale che c3 = u, allora la matrice delle componenti della rotazione Q generata dalla coppia (u, ϑ), con u versore di ϑ, ha la forma seguente: cos ϑ sin ϑ 0 β (2.106) [Qα] = − sin ϑ cos ϑ 0 . 0 0 1 Infatti, tenuto presente che in una base canonica ∗ Qβα = Qαβ = Q(cα ) · cβ , si vede con l’aiuto della figura che Q11 = Q(c1 ) · c1 = cos ϑ, Q12 = Q(c1 ) · c2 = sin ϑ, e cosı̀ via. Oltre alla coppia versore-angolo vi sono varie altre rappresentazioni della rotazioni, per esempio quella esponenziale e quella quaternionale, già esaminate ai §§ 2.3.3 e 2.3.5. Oltre a queste è da prendersi in considerazione quella fornita dagli angoli di Eulero (Leonhard Euler, 1707-1783), basata sulla relazione fra una terna ortonormale di vettori, detta terna fissa, e la terna ruotata: la prima è una base canonica (cα ) = (i, j, k); la seconda è la terna (Q(cα )) = (i0 , j 0 , k0 ). Gli angoli di Euler (θ, φ, ψ), detti rispettivamente angolo di nutazione, di rotazione propria, di precessione e soddisfacenti alle limitazioni 0 < θ < π, 0 ≤ φ < 2π, (2.107) 0 ≤ ψ < 2π, sono definiti, nell’ipotesi che k0 = Q(c3 ) sia distinto da k = c3 , come segue (si guardi la figura). (I) L’angolo di nutazione θ è l’angolo compreso tra k e k 0 . (II) Si consideri l’intersezione fra il piano (i0 , j 0 ) e il piano (i, j): è una retta detta linea dei nodi. Questa è individuata dal versore del prodotto vettoriale k × k0 che denotiamo con N (infatti la retta in questione è ortogonale sia a k che a k0 ). (III) L’angolo di rotazione propria φ è l’angolo formato da (N , i0 ) di versore k0 e l’angolo di precessione ψ è l’angolo formato da (i, N) di versore k. Da questa definizione discende che assegnati comunque tre angoli soddisfacenti alle limitazioni (2.107) risulta univocamente definita la terna ruotata (si veda anche l’Esercizio 2 seguente). 2.4. Lo spazio vettoriale euclideo tridimensionale ' $ & % Gli angoli di Euler 67 *** Esempio 2.4.1 – Poniamoci il problema di: (I) determinare la coppia (u, ϑ) a partire dalla rotazione Q e, viceversa, (II) di determinare la rotazione Q a partire dalla coppia (u, ϑ). Osserviamo innanzitutto che, data Q, il versore u è un autovettore associato all’autovalore 1, quindi determinabile risolvendo un sistema di equazioni lineari. Tuttavia, è più semplice la sua determinazione attraverso la parte antisimmetrica di Q, almeno quando questa non è nulla, perché si ha sin ϑ u = ∗QA . (2.108) Se infatti si guarda alla matrice (2.106), che è ottenuta scegliendo opportunamente una base canonica, e si ricorda la relazione tra le componenti di una forma bilineare antisimmetrica e quelle del vettore aggiunto, data per esempio dalla (2.78), si trova l’uguaglianza 0 a3 −a2 0 sin ϑ 0 β 3 1 [Aα] = −a 0 a = − sin ϑ 0 0 , 2 1 a −a 0 0 0 0 posto A = QA e a = ∗A. Di qui la (2.108). La formula (2.108), fissata una delle due possibili scelte del versore u, determina solamente sin ϑ e non ϑ. Occorre quindi, per eliminare questa indeterminazione, estrarre qualche altra informazione da Q. Si può per esempio calcolare cos ϑ attraverso la formula (che lasciamo da dimostrare) 1 + 2 cos ϑ = I2 (Q) = tr(Q). (2.109) 68 Capitolo 2. Spazi vettoriali con struttura Questa ci consente fra l’altro di osservare che l’invariante primo (la traccia) e l’invariante secondo di una rotazione coincidono. Il problema inverso (II) può essere risolto con l’uso della rappresentazione esponenziale. Infatti, data una qualunque coppia (u, ϑ), e introdotto l’endomorfismo aggiunto U = ∗u, la rotazione Q = eϑU (2.110) è proprio la rotazione di versore-angolo (u, ϑ). Per riconoscerlo ominciamo con l’osservare che: U (v) = (∗U ) × v = u × v, U 2 (v) = u × U (v) = u × (u × v) = u · v u − v, U 3 (v) = u × U 2 (v) = − u × v = − U (v), quindi che U 2n+2 = (−1)n U 2 , U 2n+1 = (−1)n U . Si ha allora successivamente: eϑU 1 1 2n 2n P∞ ϑ U + n=0 ϑ2n+1 U 2n+1 2n! (2n + 1)! P∞ P∞ (−1)n−1 2n (−1)n 2 2n+1 =1+ ϑ U + ϑ U, n=1 n=0 2n! (2n + 1)! = P∞ n=0 vale a dire Q = eϑU = 1 + sin ϑ U + (1 − cos ϑ)U 2 . (2.111) Questa formula è in accordo con le precedenti (2.108) e (2.109) perché implica ∗QA = sin ϑ ∗ U = sin ϑ u, e tr(Q) = 3 + (1 − cos ϑ)tr(U 2 ) = 2 cos ϑ + 1, valendo la formula generale, la cui verifica è immediata, tr(U 2 ) = −2 kuk, (2.112) che quindi in questo caso produce tr(U 2 ) = −2. La formula (2.111), tenuto conto delle espressioni U (v) e U 2 (v) sopra scritte, consente anche di esprimere il generico vettore Q(v) mediante la coppia (u, ϑ): Q(v) = cos ϑ v + (1 − cos ϑ) u · v u + sin ϑ u × v. • (2.113) 69 2.4. Lo spazio vettoriale euclideo tridimensionale Esempio 2.4.2 – La matrice delle componenti della rotazione Q determinata dagli angoli di Euler (θ, φ, ψ) è: cos φ cos ψ − sin φ sin ψ cos θ cos φ sin ψ + sin φ cos ψ cos θ [Qβα] = − sin φ sin ψ + cos φ cos ψ cos θ − sin φ cos ψ − cos φ sin ψ cos θ sin φ sin θ − cos ψ sin θ sin ψ sin θ cos φ sin θ . cos θ (2.114) Per giungere alla (2.114) si può osservare che la rotazione Q è composta da tre rotazioni successive Φ, Θ, Ψ, caratterizzate dalle seguenti coppie versore-angolo: Φ = (k, φ), Θ = (i, θ), Ψ = (k, ψ). Le matrici delle componenti sono rispettivamente: cos φ sin φ 0 β , [Φα] = − sin φ cos φ 0 0 0 1 1 0 0 β [Θα] = 0 cos θ sin θ , 0 − sin θ cos θ cos ψ sin ψ 0 β [Ψα] = − sin ψ cos ψ 0 . 0 0 1 Si deve quindi eseguire il prodotto matriciale Qβα = Φρα Θσρ Ψβσ . Eseguendo il prodotto (righe per colonne, secondo le convenzioni adottate) delle prime due matrici si ottiene cos φ sin φ cos θ sin φ sin θ . [Φρα Θσρ ] = − sin φ cos φ cos θ cos φ sin θ 0 − sin θ cos θ Moltiplicando questa per la terza si ottiene la (2.114). • 70 2.5 Capitolo 2. Spazi vettoriali con struttura Spazi vettoriali iperbolici Uno spazio vettoriale iperbolico è uno spazio vettoriale pseudoeuclideo (Hn , g) di segnatura (n − 1, 1). Ciò significa (si veda il § 2.1) che in ogni base canonica (ci ) un vettore ha norma negativa (si dice che è del genere tempo) e gli altri n − 1 hanno norma positiva (si dicono del genere spazio). Conveniamo che gli indici latini varino da 0 a n − 1, che in una base canonica (ci ) il vettore del genere tempo sia c0 , che i rimanenti vettori del genere spazio siano denotati con (cα ), e che gli indici greci varino quindi da 1 a n − 1. La matrice metrica in una base canonica avrà pertanto la forma −1 0 . . . 0 0 1 ... 0 [gij ] = (2.115) .. .. . . .. . . . . 0 0 ... 1 Lo spazio iperbolico di dimensione 4 prende il nome di spazio vettoriale di Minkowski (Hermann Minkowski, 1864-1909). Questo spazio è di fondamentale importanza per la teoria della Relatività Ristretta. Ricordiamo ancora che un vettore ortogonale a se stesso è detto isotropo o del genere luce. Ci limitiamo in questo paragrafo ad esaminare alcune proprietà fondamentali degli spazi iperbolici in generale e, in particolare, dello spazio iperbolico bidimensionale. Si tenga presente che per spazio iperbolico alcuni autori intendono uno spazio di dimensione pari 2n e segnatura (n, n). Teorema 2.5.1 – Un vettore (non nullo) ortogonale ad un vettore del genere tempo è un vettore del genere spazio. Il sottospazio ortogonale ad un vettore del genere tempo è uno spazio strettamente euclideo (di dimensione n − 1). Dimostrazione. Sia v un vettore del genere tempo. Si consideri il sottospazio unidimensionale K generato da v e il suo ortogonale K ⊥ . Non può essere v ∈ K ⊥ perché v sarebbe anche ortogonale a se stesso, quindi isotropo. Dunque K ∩ K ⊥ = 0 e il sottospazio K ⊥ è a metrica non degenere (si veda l’Oss. 2.1.6). Si può quindi determinare su K ⊥ , che è di dimensione n − 1, una base canonica (cα ). Se consideriamo anche il versore c0 di v, otteniamo una base canonica. Siccome c0 è del genere tempo tutti gli altri vettori della base sono del genere spazio, altrimenti si violerebbe il teorema di Sylvester, posto che la segnatura è (n − 1, 1). Dunque tutti i vettori di K ⊥ sono del genere spazio e questo è strettamente euclideo. 2 In maniera analoga si dimostra che Teorema 2.5.2 – Il sottospazio ortogonale ad un vettore del genere spazio è uno spazio iperbolico se n > 2 o del genere tempo se n = 2. 71 2.5. Spazi vettoriali iperbolici Dal Teorema 2.5.1 segue che i sottospazi del genere tempo hanno dimensione 1. Segue anche che, fissato un sottospazio K ⊂ H del genere tempo, risulta definita una decomposizione spazio-temporale dello spazio iperbolico H nella somma diretta H = K ⊕ S, dove S è il sottospazio strettamente euclideo ortogonale a K (S = K ⊥ ). Teorema 2.5.3 – Il sottospazio ortogonale ad un vettore (non nullo) del genere luce è a metrica degenere contenente il vettore stesso. Tutti i vettori del sottospazio indipendenti da questo sono del genere spazio. Dimostrazione. Sia v un vettore isotropo, K il sottospazio da esso generato. Siccome v è ortogonale a se stesso per definizione, risulta K ⊂ K ⊥ . Quindi K ∩ K ⊥ 6= 0 e il sottospazio K ⊥ è a metrica degenere. Se in esso vi fosse un vettore del genere tempo, si contrasterebbe con la Proposizione 1, che implica v del genere spazio. Se vi fossero due vettori indipendenti del genere luce, si contrasterebbe con il teorema seguente. 2 Teorema 2.5.4 – Due vettori del genere luce e ortogonali sono dipendenti (cioè paralleli). Dimostrazione. Un generico vettore isotropo v 6= 0 può sempre mettersi nella forma v = a(u + c0 ), dove u è un vettore unitario, del genere spazio, ortogonale a c0 , generico vettore unitario del genere tempo; basta infatti porre u = a1 v − c0 con a = −v · c0 (si osservi che la condizione v · c0 = 0 violerebbe la Proposizione 1). Se v0 = a0 (u0 + c0 ) è un altro vettore isotropo decomposto allo stesso modo, dalla condizione v · v 0 = 0 segue u · u0 − 1 = 0. Ma due vettori unitari del genere spazio hanno prodotto scalare uguale a 1 se e solo se sono uguali. Da u = u0 segue che v e v0 sono dipendenti. 2 Dal teorema precedente segue che i sottospazi isotropi hanno dimensione 1, a conferma della proprietà generale messa in evidenza nell’Oss. 2.1.6. Definizione 2.5.1 – Denotiamo con T il sottoinsieme dei vettori del genere tempo. Diciamo che due vettori u, v ∈ T sono ortocroni se u · v < 0. • Teorema 2.5.5 – La relazione di ortocronismo è una relazione di equivalenza che divide T in due classi. Dimostrazione. La relazione di ortocronismo è riflessiva perché si ha v · v = kvk < 0 per ogni vettore del genere tempo (per definizione). è ovviamente simmetrica, perché è simmetrico il prodotto scalare. Per dimostrare la proprietà transitiva dobbiamo dimostrare l’implicazione u · v < 0, v · w < 0 =⇒ u · w < 0. (2.116) 72 Capitolo 2. Spazi vettoriali con struttura Per dimostrare che le classi di equivalenza sono due dobbiamo dimostrare l’mplicazione u · v > 0, v·w>0 =⇒ u · w < 0. (2.117) Per questo scopo, supposto senza ledere la generalità che il vettore v sia unitario, si scelga una base canonica tale da aversi c0 = v. Si ha allora: u·w= n−1 X α=1 uα w α − u0 w 0 , u · v = g00 u0 = − u0 , w · v = − w0 . Le condizioni u ∈ T e w ∈ T sono equivalenti alle disuguaglianze n−1 X α=1 (uα)2 − (u0 )2 < 0, n−1 X (w α )2 − (w 0 )2 < 0. α=1 Per la disuguaglianza di Schwarz, valida nello spazio strettamente euclideo ortogonale a c0 e generato dai vettori (cα), si ha anche n−1 X α=1 uα w α !2 ≤ n−1 X (uα )2 α=1 n−1 X (w α)2 < (u0 w 0 )2 . α=1 Abbiamo allora le seguenti implicazioni : (u · v < 0, v · w < 0) ⇐⇒ (u0 > 0, w 0 > 0) =⇒ u0 w 0 > 0 =⇒ u · w < 0. Quindi l’implicazione (2.116) è dimostrata. Analogamente si ha: (u · v > 0, v · w > 0) ⇐⇒ (u0 < 0, w 0 < 0) =⇒ u0 w 0 > 0 =⇒ u · w < 0. Quindi anche l’implicazione (2.117) è dimostrata. 2 Denotiamo con T + e T − le due classi di equivalenza in cui è diviso l’insieme T dei vettori del genere tempo; essi si chiamano rispettivamente futuro e passato. Denotiamo con L l’insieme dei vettori del genere luce. Essi formano il cosiddetto cono di luce. Se infatti denotiamo con x = xi ci il generico vettore dello spazio e se imponiamo che esso sia isotropo, cioè che x · x = 0, troviamo la condizione n−1 X α=1 (xα)2 − (x0 )2 = 0. (2.118) Questa è l’equazione di un cono di centro l’origine (vettore nullo). Il cono di luce è diviso in due falde, L+ e L− , ciascuna delle quali separa dai vettori del genere spazio i vettori delle classi T + e T − rispettivamente, i quali stanno all’interno di ciascuna falda (vedi figura). 2.5. Spazi vettoriali iperbolici ' $ & % Il cono di luce. 73 I vettori unitari del genere spazio sono caratterizzati dall’equazione n−1 X α=1 (xα)2 − (x0 )2 = 1. (2.119) Si tratta di un iperboloide a una falda. I vettori unitari del genere tempo sono invece caratterizzati dall’equazione n−1 X (xα )2 − (x0 )2 = −1. (2.120) α=1 Si tratta di un iperboloide a due falde. Va inoltre tenuto presente che Teorema 2.5.6 – La somma di due o più vettori di T + (risp. di T − ) è ancora un vettore di T + (risp. di T − ). Dimostrazione. Siano u, v ∈ T + . Ciò significa che kuk < 0, kvk < 0, u · v < 0. Di qui segue ku + vk = kuk + kvk + 2 u · v < 0; quindi la somma u + v è del genere tempo. Inoltre: u · (u + v) = u · u + u · v < 0. Dunque u e la somma u + v sono ortocroni. 2 Osservazione 2.5.1 – (I) Si verifichi che nello spazio End(E) degli endomorfismi sopra uno spazio vettoriale E si definisce un prodotto scalare ponendo A · B = tr(AB). (2.121) 74 Capitolo 2. Spazi vettoriali con struttura (II) Si dimostri che, nel caso n = 2, la segnatura del tensore metrico cosı̀ definito è (3,1). Lo spazio H4 = End(E2 ) degli endomorfismi su di uno spazio bidimensionale è quindi uno spazio di Minkowski. (III) Si dimostri che l’assegnazione di un tensore metrico definito positivo su E2 implica la definizione di una decomposizione spazio-temporale di H4 . (IV) Si estendano queste considerazioni al caso dello spazio Hn2 = End(En ), dimostrando che la segnatura del prodotto scalare definito dalla (2.121) è n(n + 1) n(n − 1) , . • 2 2 Esaminiamo ora, per meglio comprendere la struttura di uno spazio iperbolico, il caso più semplice dello spazio iperbolico bidimensionale H2 . Fissata una base canonica (c0 , c1 ), con c0 del genere tempo, osserviamo innanzitutto che il cono di luce, insieme dei vettori isotropi, ha ora equazione (x1 )2 − (x0 )2 = 0, e si riduce pertanto alle rette isotrope di equazione x1 − x0 = 0 e x1 + x0 = 0, che sono le bisettrici dei quadranti individuati dai vettori della base. Volendo raffigurare su di un piano i vettori (c0 , c1 ), unitari e ortogonali fra loro, dobbiamo tener presente che il foglio su cui riportiamo la figura che segue, fissato un punto corrispondente al vettore nullo, è la rappresentazione intuitiva dello spazio bidimensionale strettamente euclideo, non di quello iperbolico. Per esempio, contrariamente al nostro senso euclideo, i vettori che si trovano sulle bisettrici hanno lunghezza nulla. Cosı̀, i vettori unitari del genere tempo sono caratterizzati dall’equazione (x0 )2 − (x1 )2 = 1, e descrivono quindi un’iperbole di vertici i punti (±1, 0) e asintoti le rette isotrope, mentre i vettori unitari del genere spazio sono caratterizzati dall’equazione (x1 )2 − (x0 )2 = 1, e descrivono pertanto l’iperbole di vertici i punti (0, ±1) con gli stessi asintoti. Se ora prendiamo un vettore u unitario del genere tempo, la retta descritta dai vettori ortogonali a questo ha equazione u1 x1 − u0 x0 = 0. Si consideri quindi uno dei due vettori v unitari e ortogonali a u; sappiamo che questi sono del genere spazio. Allora ku − vk = kuk + kvk + 2 u · v = −1 + 1 + 0 = 0. Ciò significa che il vettore differenza u − v è isotropo, quindi giacente su una delle due bisettrici (asintoti). Concludiamo che, nella rappresentazione euclidea, due vettori del piano iperbolico non isotropi, unitari e ortogonali, stanno in posizione simmetrica rispetto ad una delle due bisettrici (vedi figura). 2.5. Spazi vettoriali iperbolici ' $ & % Ortogonalità dei vettori nel piano iperbolico. 75 Si osservi ancora, guardando dinuovo la figura, che per un “osservatore iperbolico” la coppia (u, v) è una base canonica, quindi del tutto equivalente alla coppia (c0 , c1 ), ottenibile da questa mediante una rotazione, cioè mediante un elemento di SO(1, 1). Siamo quindi condotti ad esaminare il gruppo delle isometrie sullo spazio iperbolico bidimensionale. Ci limitiamo a quelle di determinante +1, cioè alle rotazioni. Ricordiamo inanzitutto che le componenti Qji di un qualunque endomorfismo Q sono legate alle componenti (Qij ) della forma bilineare corrispondente dalle equazioni Qij = gjk Qki . Pertanto, essendo nel caso presente g00 = −1, g11 = 1, g01 = g10 = 0, risulta: Posto inoltre Q00 = − Q00 , Q01 = Q10 , Q(c0 ) = a c0 + b c1 , cioè [Qji ] = Q10 = − Q01 , Q11 = Q11 . Q(c1 ) = c c0 + d c1 , " a b c d # , dalle condizioni Q(ci ) · Q(cj ) = ci · cj e det(Qji ) = 1, caratteristiche di una rotazione, seguono le uguaglianze: a2 − b2 = 1, d2 − c2 = 1, bd − ac = 0, ad − bc = 1. Dalle ultime due si trae a = d e b = c. Dalla prima segue a2 ≥ 1. Possiamo allora porre a = cosh χ, b = sinh χ, (2.122) 76 Capitolo 2. Spazi vettoriali con struttura oppure a = − cosh χ, b = sinh χ. (2.123) Poiché a = − Q(c0 ) · c0 , nel primo caso abbiamo a > 0, quindi una rotazione ortocrona, conservante cioè la classe di ogni vettore del genere tempo. La matrice delle componenti di una rotazione ortocrona ha quindi la forma: # " cosh χ sinh χ j [Qi ] = . (2.124) sinh χ cosh χ Nel secondo caso si ha una rotazione non ortocrona e la matrice corrispondente è: " # − cosh χ sinh χ j [Qi ] = . (2.125) sinh χ − cosh χ Il parametro χ che interviene in queste due rappresentazioni prende il nome di pseudoangolo della rotazione. Esso può variare da −∞ a +∞, ricoprendo tutte le rotazioni ortocrone. Per χ = 0 si ha ovviamente Q = 1. La composizione di due rotazioni di pseudoangolo χ1 e χ2 è la rotazione di pseudoangolo χ1 + χ2 : lo si desume dalla (2.124) utilizzando le proprietà elementari delle funzioni trigonometriche iperboliche. Sempre in base a tali proprietà, si osserva che si può scegliere come parametro rappresentativo la tangente iperbolica dello pseudoangolo, β = tanh χ = sinh χ , cosh χ variabile nell’intervallo aperto (−1, 1). La (2.124) diventa allora " # 1 β 1 [Qji ] = p . 1 − β2 β 1 (2.126)