Note Metodi geometrici per la fisica matematica Anno Accademico 2008-2009 S. Cacciatori B. van Geemen versione 07.0 1 INDICE 2 Indice 1 Algebra multilineare 5 1.1 Tensori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.2 Tensori in fisica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.3 L’algebra esterna. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2 Rappresentazioni di gruppi finiti 2.1 Teoria generale . . . . . . . . . . 2.2 Caratteri . . . . . . . . . . . . . . 2.3 Le classi di coniugio di Sm . . . . 2.4 Le rappresentazioni irriducibili del . . . . 28 28 30 36 39 3 Tensori e gruppo simmetrico 3.1 Introduzione e risultati generali . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 I funtori di Schur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Esempi: T 3 V e T 4 V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 45 48 53 4 Geometria differenziale 4.1 Richiami di analisi. . . . . . . . . . 4.2 Varietà differenziabili . . . . . . . . 4.3 Spazi e fibrati tangenti . . . . . . . 4.4 Forme differenziali. . . . . . . . . . 4.5 Geometria differenziale e meccanica . . . . . 58 58 58 63 69 74 . . . . . . . . . . . . 83 83 86 91 94 97 100 . . . . . . 103 . 103 . 109 . 112 . 115 . 117 . 127 5 Gruppi e algebre di Lie 5.1 Gruppi di Lie . . . . . . . . . 5.2 Algebre di Lie . . . . . . . . . 5.3 Rappresentazioni. . . . . . . . 5.4 Algebre di Lie semplici . . . . 5.5 Le rappresentazioni irriducibili 5.6 Rappresentazioni di sl(2). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . gruppo simmetrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . dell’algebra di Lie sl(2) . . . . . . . . . . . . . . 6 Le rappresentazioni dell’algebra di Lie sl(3) 6.1 L’algebra di Lie sl(3). . . . . . . . . . . . . . . . . . 6.2 Pesi: integralità e simmetria . . . . . . . . . . . . . . 6.3 Il peso massimale di una rappresentazione irriducibile 6.4 Le rappresentazioni irriducibili di sl(3) . . . . . . . . 6.5 Le rappresentazioni irriducibili di sl(3) . . . . . . . . 6.6 La forma di Killing per sl(3). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 La classificazione delle algebre di Lie semisemplici 130 7.1 L’algebra di Cartan e i pesi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 7.2 Sistemi di radici e diagrammi di Dynkin . . . . . . . . . . . . . . . . . . . . . . 138 INDICE 7.3 7.4 3 Diagrammi di Dynkin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 Algebre di Lie semplici reali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 8 Rappresentazioni di algebre di Lie semplici 146 8.1 Pesi: integralità e simmetria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 8.2 Il peso massimale di una rappresentazione irriducibile . . . . . . . . . . . . . . . 148 8.3 Le rappresentazioni irriducibili di sl(n) . . . . . . . . . . . . . . . . . . . . . . . 153 9 Gruppi ortogonali 9.1 Forme bilineari simmetriche e forme 9.2 Esempi di gruppi ortogonali . . . . 9.3 Quaternioni. . . . . . . . . . . . . . 9.4 Il gruppo ortogonale SO(2m) . . . 9.5 Il gruppo ortogonale SO(2m + 1) quadratiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 157 159 163 165 169 10 Rappresentazioni di Spin 172 10.1 L’algebra di Clifford . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172 10.2 L’algebra di Clifford e il gruppo spinoriale. . . . . . . . . . . . . . . . . . . . . . 175 10.3 Le rappresentazioni spinoriali di so(n). . . . . . . . . . . . . . . . . . . . . . . . 180 11 Strutture geometriche 11.1 Fibrati . . . . . . . . . . . . . . . 11.2 Geometria e gruppi di Lie . . . . 11.3 Connessioni . . . . . . . . . . . . 11.4 Derivate covarianti (connessioni di 11.5 Curvature . . . . . . . . . . . . . 11.6 Strutture Riemanniane . . . . . . . . . . . . . . . . . . . . . Koszul) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186 . 186 . 194 . 198 . 205 . 211 . 213 12 Teoria dinamica delle simmetrie. 12.1 Campi di materia. . . . . . . . . 12.2 Campi di gauge. . . . . . . . . . 12.3 Teorie di Yang-Mills. . . . . . . 12.4 Simmetrie esterne e relatività. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227 227 230 234 237 13 Campi scalari e spinoriali. 13.1 Le particelle e il gruppo di Poincaré. 13.2 Equazione di Klein-Gordon. . . . . . 13.3 Equazione di Dirac. . . . . . . . . . . 13.4 Il gruppo SO(1, 3) . . . . . . . . . . 13.5 Campi di spin 1. . . . . . . . . . . . 13.6 Campi e gravità (cenni). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244 244 249 251 256 262 262 . . . . INDICE 14 Geometria del Modello Standard e GUT. 14.1 I campi del modello standard. . . . . . . . . . . . . . . . 14.2 Costruzione del Modello Standard. . . . . . . . . . . . . 14.3 La massa dei neutrini. . . . . . . . . . . . . . . . . . . . 14.3.1 Il meccanismo dell’altalena (Seesaw mechanism). . 14.4 Teorie GUT (cenni). . . . . . . . . . . . . . . . . . . . . 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265 . 265 . 270 . 276 . 277 . 278 1 ALGEBRA MULTILINEARE 1 5 Algebra multilineare Testi consigliati: [A], [MB]. 1.1 Tensori 1.1.1 Lo spazio duale. Sia V uno spazio vettoriale reale di dimensione n. Scelta una base e1 , . . . , en di V ogni x ∈ V si scrive in modo unico come combinazione lineare x = x1 e1 + . . . + xn en con xi ∈ R. In questo modo si ottiene un isomorfismo x1 ∼ = V −→ Rn , x = (x1 , x2 , . . . , xn ) = ... . xn Lo spazio duale V ∗ di V è lo spazio vettoriale reale delle applicazioni R-lineari da V a R: V ∗ := HomR (V, R) = {l : V → R, l R-lineare}. Si ricordi che per l, m ∈ V ∗ e λ, µ ∈ R l’elemento λl + µm dello spazio vettoriale V ∗ è definito da: (λl + µm)(x) := λl(x) + µm(x) (x ∈ V ). Poiché è lineare, l è determinata dalle l(ei ) ∈ R: x1 l(x) = l(x1 e1 + . . . + xn en ) = x1 l(e1 ) + . . . + xn l(en ) = (l(e1 ) ; l(e2 ) ; . . . ; l(en )) ... . xn Data la base ei , l si identifica con un’applicazione lineare Rn → R che è data da una matrice, ancora indicata con l, con una sola riga e n colonne i cui coefficienti sono le immagini dei vettori di base: l = (a1 ; a2 ; . . . ; an ) con ai := l(ei ). 1.1.2 La base duale. Data la base ei di V , si ottiene in modo canonico una base 1 , . . . , n di V ∗ , detta la base duale, che è definita da: X j : V −→ R, j ( xi e i ) = xj cioè j (ei ) = δij dove δ è la δ di Kronecker: δij = 0 se i 6= j e δij = 1 se i = j. Si noti che 1 = (1 0 . . . 0),. . .,n = (0 0 . . . 1). 1.1.3 L’applicazione duale. Dati gli spazi vettoriali V, W , di dimensione n e r rispettivamente, abbiamo definito i loro spazi duali V ∗ , W ∗ . Adesso consideriamo un’applicazione lineare f : V → W . Essa induce un’applicazione lineare f ∗ : W ∗ −→ V ∗ , m 7−→ m ◦ f, 1 ALGEBRA MULTILINEARE 6 cioè, se m : W → R è lineare, definiamo f ∗ m ∈ V ∗ con (f ∗ m)(v) := m(f (v)). L’ applicazione f ∗ è detta applicazione duale di f oppure applicazione aggiunta. Sia A la matrice di f : V → W e M = (m1 . . . mr ) la matrice di m : W ∼ = Rr → R rispetto alle basi ei , fj di V e W rispettivamente. Siccome m(f (x)) = M Ax, troviamo che la matrice di f ∗ (m) è M A. P ∗ La base duale ηj di W dà un isomorfismo W ∗ ∼ = Rr , e l’elemento m = j mj ηj ∈ W corrisponde al vettore (m1 , . . . , mr ) che è t M , una matrice con r righe e una sola colonna. Se usiamo la base duale delle ei come base di V ∗ , la matrice di f ∗ è allora t A perché t (M A) = t At M . Quindi se f : V → W è dato da una matrice A, allora, rispetto alle base duale f ∗ : W ∗ → V ∗ è dato dalla matrice t A. 1.1.4 Motivazione. Per motivare il prodotto tensoriale tra due spazi vettoriali, consideriamo lo spazio delle applicazioni lineari V → W dove anche W è uno spazio vettoriale su R di dimensione finita, dim W = m. Data una base f1 , . . . , fm di W e una f ∈ HomR (V, W ) sia f (ej ) = m X aij fi (f ∈ HomR (V, W )) i=1 cioè la matrice (aij ) è la matrice determinata da f . Sfruttando il fatto che j (x) = xj si ha: X X X X f (x) = f ( xj ej ) = xj f (ej ) = j (x)f (ej ) = aij j (x)fi . j j j i,j Perciò f è una combinazione lineare delle applicazioni lineari x 7→ j (x)fi . Questo si vede anche facilmente utilizzando il prodotto matriciale, per esempio: a11 a12 1 1 0 0 = a11 (1 0) + a12 (0 1) + a21 (1 0) + a22 (0 1). a21 a22 0 0 1 1 (Si noti che il vettore ei ∈ V è identificato con l’applicazione lineare R → V che manda λ in λei .) Quindi, in un certo senso, Hom(V, W ) è un ‘prodotto’ degli spazi vettoriali V ∗ e W ; ogni elemento f ∈ Hom(V, W ) è una combinazione lineare di ‘prodotti’ di elementi di V ∗ e di W . Si veda 1.1.9 per definizioni precise. 1.1.5 Il prodotto tensoriale. Dati gli spazi vettoriali reali V, W di dimensione rispettivamente n e m, definiamo uno spazio vettoriale reale V ⊗ W di dimensione nm, il prodotto tensoriale di V e W . Gli elementi di V ⊗ W sono combinazioni R-lineari di ‘tensori puri’ v ⊗ w con v ∈ V, w ∈ W . Vogliamo che siano valide le ‘solite’ regole per un prodotto: (v1 + v2 ) ⊗ w = v1 ⊗ w + v2 ⊗ w, v ⊗ (w1 + w2 ) = v ⊗ w1 + v ⊗ w2 , a(v ⊗ w) = (av) ⊗ w = v ⊗ (aw). Per ottenere lo spazio vettoriale ‘più grande possibile’ nel quale valgono queste regole, consideriamo lo spazio vettoriale F (V, W ) che ha come base tutte le coppie (v, w) con v ∈ 1 ALGEBRA MULTILINEARE 7 V, w ∈ W . In particolare, se V o W non è lo spazio {0}, F (V,P W ) ha dimensione infinita! <∞ Un elemento f ∈ F (V, W ) si scrive, in modo unico, come f = ri (vi , wi ) dove ri ∈ R i e (vi , wi ) ∈ V × W sono coppie distinte. In F (V, W ) consideriamo il sottospazio vettoriale R(V, W ) generato dai seguenti elementi di F (V, W ): (v1 + v2 , w) − (v1 , w) − (v2 , w), (v, w1 + w2 ) − (v, w1 ) − (v, w2 ), a(v, w) − (av, w), a(v, w) − (v, aw), dove v1 , v2 ∈ V , w1 , w2 ∈ W ed a ∈ R. Definiamo il prodotto tensoriale di V e W , denotato con V ⊗ W , come lo spazio quoziente: V ⊗ W := F (V, W )/R(V, W ), con v ⊗ w := (v, w) = (v, w) + R(V, W ), cioè, ogni elemento t ∈ V ⊗ W è una classe laterale: t = f + R(V, W ) per un certo f ∈ F (V, W ), che di solito indicheremo con t = f , e v ⊗ w è la classe laterale definita da (v, w) ∈ F (V, W ). Si ricordi che f¯ = ḡ se e solo se f − g ∈ R(V, W ). Le operazioni in un spazio quoziente sono f + g = f + g e λ · f = λf . Siccome f = 0 per ogni f ∈ R(V, W ), otteniamo per esempio: 0 = (v1 + v2 , w) − (v1 , w) − (v2 , w) = (v1 + v2 , w) − (v1 , w) − (v2 , w) = (v1 + v2 ) ⊗ w − (v1 ⊗ w) − (v2 ⊗ w), quindi, se scriviamo 0 = 0 ∈ V ⊗ W , vediamo che vale la prima regola. Nello stesso modo si verificano le altre regole. Poiché abbiamo imposto su F (V, W ) soltanto le relazioni di R(V, W ), V ⊗ W è lo spazio più grande nel quale queste valgono. 1.1.6 Una tensoriale. Siano ei e fj basi di V e W rispettivamente. P base del prodotto P Dato v = i vi ei ∈ V e w = j wj fj ∈ W abbiamo, usando le regole qui sopra: P v ⊗ w = ( i vi ei ) ⊗ w P = i (vi ei ) ⊗ w P P = i vi (ei ⊗ ( j wj fj )) = ... P = i,j vi wj (ei ⊗ fj ). Ogni elemento di F (v, w) è una combinazione lineare delle coppie (v, w), quindi ogni elemento di V ⊗ W = F (V, W )/R(V, W ) è una combinazione delle v ⊗ w. Come appena mostrato, ogni v ⊗ w è combinazione lineare degli ea ⊗ fb con a = 1, . . . , n e b = 1, . . . , m. Quindi ogni elemento di V ⊗ W è combinazione lineare degli nm elementi ea ⊗ fb , in particolare 1 ALGEBRA MULTILINEARE 8 dim V ⊗ W ≤ nm = (dim V )(dim W ). Per mostrare che si ha l’ uguaglianza, sfruttiamo l’applicazione lineare φa,b : F (V, W ) −→ R, (v, w) 7−→ va wb (si ricordi che i (v, w) sono una base di F (V, W )). Si verifica che φa,b (R(V, W )) = 0, quindi φa,b dà un’applicazione ben definita φ̄a,b : V ⊗ W → R. L’immagine di ei ⊗ fj è zero tranne se i = a, j = b e perciò gli ei ⊗fj sono indipendenti e sono quindi una base di V ⊗W . Concludiamo che dim V ⊗ W = (dim V )(dim W ), V ⊗ W = ⊕i,j Rei ⊗ fj . 1.1.7 Applicazioni bilineari e prodotto tensoriale. Il prodotto tensoriale di due spazi vettoriali è definito come un quoziente. Perciò per definire un’applicazione lineare f : V ⊗ W → U , dove U è uno spazio vettoriale, bisogna sempre verificare che sia ben definita, cioè, bisogna prima definire un’applicazione f˜ : F (V, W ) → U che soddisfi le condizioni f˜(R(V, W )) = 0 e f˜((v, w)) = f (v ⊗ w), come abbiamo fatto per la applicazione f = φ̄a,b con f˜ = φa,b in 1.1.6. Adesso daremo un criterio più facile che garantisce che f sia ben definita e, in più, otterremo una descrizione di tutte le applicazioni lineari V ⊗ W → U . Un’applicazione φ(λv1 + µv2 , w) = λφ(v1 , w) + µφ(v2 , w), φ : V × W −→ U, tale che φ(v, λw1 + µw2 ) = λφ(v, w1 ) + µφ(v, w2 ) per ogni λ, µ ∈ R, v, v1 , v2 ∈ V e w, w1 , w2 ∈ W è detta bilineare. Sia dunque φ : V × W −→ U un’applicazione bilineare, allora definiamo un’applicazione lineare Φ̃ : F (V, W ) −→ U, Φ̃((v, w)) := φ(v, w). Siccome φ è bilineare, abbiamo che Φ̃(R(V, W )) = 0, per esempio vale: Φ̃((v1 + v2 , w) − (v1 , w) − (v2 , w)) = Φ̃((v1 + v2 , w)) − Φ̃((v1 , w)) − Φ̃((v2 , w)) = φ(v1 + v2 , w)) − φ(v1 , w) − φ(v2 , w) = 0 perché φ(v1 + v2 , w) = φ(v1 , w) + φ(v2 , w). Perciò Φ̃ definisce un’applicazione lineare (ben definita) Φ : V ⊗ W −→ U, v ⊗ w 7−→ φ(v, w). A questo punto si potrebbe ‘dimenticare’ l’applicazione Φ̃ ricordando soltanto che: ogni applicazione bilineare φ : V × W → U definisce un’applicazione lineare Φ : V ⊗ W → U tale che Φ(v ⊗ w) = φ(v, w). Viceversa, è facile verificare, usando le regole per ⊗ date in 1.1.5, che l’applicazione (detta applicazione bilineare universale) B : V × W −→ V ⊗ W, (v, w) 7−→ v ⊗ w è bilineare. In più, si verifica che la composizione dell’applicazione bilineare B con ogni applicazione lineare f : V ⊗ W → U è un’applicazione bilineare φ := f ◦ B : V × W → U . Poiché 1 ALGEBRA MULTILINEARE 9 φ(v, w) = f (B(v, w)) = f (v ⊗ w) concludiamo che f è l’applicazione lineare definita da φ come sopra, cioè f = Φ. Risulta che abbiamo verificato: 1.1.8 Proprietà universale del prodotto tensoriale. Sia B l’applicazione bilineare universale V × W → V ⊗ W , B(v, w) := v ⊗ w. Allora per ogni spazio vettoriale reale U di dimensione finita e per ogni applicazione bilineare φ : V × W → U esiste un’unica applicazione lineare Φ : V ⊗ W → U tale che il diagramma B V × W −→ V ⊗ W φ↓ .Φ U sia commutativo, ovvero risulti: φ = Φ ◦ B. 1.1.9 Esempio: applicazioni lineari. Riprendiamo l’esempio motivante 1.1.4. Si verifica che la applicazione φ : V ∗ × W −→ HomR (V, W ), (l , w) 7−→ [x 7−→ l(x)w] è bilineare. Perciò otteniamo un’applicazione lineare ∼ = Φ : V ∗ ⊗ W −→ HomR (V, W ), l ⊗ w 7−→ [x 7→ l(x)w] (l ∈ V ∗ , w ∈ W, x ∈ V ). Usando le basi i e fj di V ∗ e W è facile vedere che Φ è iniettiva. Poiché dim V ∗ ⊗ W = dim HomR (V, W ), concludiamo che Φ è un isomorfismo: ∼ = Φ : V ∗ ⊗ W −→ HomR (V, W ) 1.1.10 Esempio: applicazioni bilineari. L’insieme Bil(V, W ) delle applicazioni bilineari V × W → R è uno spazio vettoriale con le operazioni: (φ + ψ)(v, w) := φ(v, w) + ψ(v, w), (λψ)(v, w) := λψ(v, w), per φ, ψ ∈ Bil(V, W ), v ∈ V, w ∈ W e λ ∈ R. Se ei , fj sono basi di V e W e se φ è bilineare, abbiamo: X X X φ( xi ei , y j fj ) = xi yj φ(ei , fj ), i j quindi un’applicazione bilineare è determinata dalle immagini delle coppie (ei , fj ) ∈ V × W . In particolare, otteniamo un isomorfismo di spazi vettoriali reali Bil(V, W ) ∼ = Mn,m (R) dove Mn,m (R) è lo spazio vettoriale delle matrici reali con n righe e m colonne. Segue che dim Bil(V, W ) = (dim V )(dim W ). Si noti che se M = (φ(ei , fj )) è la matrice determinata da φ, allora φ(x, y) = t xM y, (M = (φ(ei , fj )) ∈ Mn,m (R)). 1 ALGEBRA MULTILINEARE 10 Il fatto che xi = i (x) e yj = ηj (y), dove ηj ∈ W ∗ è la base duale delle fj , suggerisce il seguente risultato. La proprietà universale del prodotto tensoriale mostra che l’ applicazione bilineare V ∗ × W ∗ −→ Bil(V, W ), (l, m) 7−→ [(x, y) 7−→ l(x)m(y)] induce un’applicazione lineare Ψ : V ∗ ⊗ W ∗ −→ Bil(V, W ), l ⊗ m 7−→ [(x, y) 7−→ l(x)m(y)]. E’ facile vedere (per esempio usando le basi) che questa applicazione è iniettiva e siccome dim(V ∗ ⊗ W ∗ ) = dim Bil(V, W ) otteniamo che ∼ = Ψ : V ∗ ⊗ W ∗ −→ Bil(V, W ). Un altro modo di ottenere queso risultato è di osservare che in 1.1.7 abbiamo mostrato che ∼ = Bil(V, W ) −→ Hom(V ⊗ W, R), φ 7−→ Ψ. Siccome Hom(V ⊗W, R) = (V ⊗W )∗ , lo spazio duale, basta verificare che (V ⊗W )∗ ∼ = V ∗ ⊗W ∗ . Per questo si può usare l’ applicazione bilineare V ∗ × W ∗ −→ (V ⊗ W )∗ , (l, m) 7−→ [(x ⊗ y) 7−→ l(x)m(y)], lasciamo i dettagli come esercizio. 1.1.11 Funtorialità del prodotto tensoriale. Consideriamo le applicazioni lineari f : V1 → V2 e g : W1 → W2 tra spazi vettoriali reali di dimensione finita. E’ facile vedere che V1 × W1 −→ V2 ⊗ W2 , (v1 , w1 ) 7−→ f (v1 ) ⊗ g(w1 ) è un’applicazione bilineare che induce perciò un’applicazione lineare, indicata con f ⊗ g: f ⊗ g : V1 ⊗ W1 −→ V2 ⊗ W2 , v1 ⊗ w1 7−→ f (v1 ) ⊗ g(w1 ). Osserviamo l’isomorfismo evidente: (V ⊗ W ) ⊗ U ∼ = V ⊗ (W ⊗ U ), (v ⊗ w) ⊗ u 7−→ v ⊗ (w ⊗ u), che ci permette di scrivere semplicemente V ⊗ W ⊗ U per entrambi questi spazi. 1.1.12 La rappresentazione controgradiente. Sia V uno spazio vettoriale di dimensione finita. Il gruppo GL(V ) delle applicazioni lineari invertibili agisce su V : A(Bx) = (AB)x per x ∈ V . Per A ∈ GL(V ) e l ∈ V ∗ , lo spazio duale, abbiamo definito l’applicazione duale (A∗ l)(x) = l(Ax) (vedi 1.1.3). Si noti che questa non dà un’azione di GL(V ) su V ∗ : (A∗ (B ∗ l))(x) = (B ∗ l)(Ax) = l(BAx), invece ((AB)∗ l)(x) = l(ABx); 1 ALGEBRA MULTILINEARE 11 Poiché in generale AB 6= BA, non vale in generale A∗ (B ∗ l) = (AB)∗ l. Per questo motivo definiamo per A ∈ GL(V ): A : V ∗ −→ V ∗ , l 7−→ [x 7−→ (Al)(x) := l(A−1 x)], (A ∈ GL(V ), l ∈ V ∗ , x ∈ V ). Ora si ha una azione di GL(V ) su V ∗ perché: (A(Bl))(x) = (Bl)(A−1 x) = l(B −1 A−1 x) = l((AB)−1 x) = ((AB)l)(x) per ogni A, B ∈ GL(V ), l ∈ V ∗ e x ∈ V . Si noti che l’azione è tramite applicazioni lineari: A(λl + µm) = λAl + µAm. Abbiamo quindi ottenuto un omomorfismo di gruppi, detto rappresentazione controgradiente GL(V ) −→ GL(V ∗ ), A 7−→ [l 7−→ Al] (A ∈ GL(V ), l ∈ V ∗ ). Osserviamo che con questa defizione di Al si ha: (Al)(Ax) = l(A−1 Ax) = l(x), cioè, il valore della trasformata della forma lineare nel trasformato del punto è il valore della forma lineare nel punto. Come visto in 1.1.3, se A : V → V è dato dalla matrice, indicata ancora con A, rispetto a una base di V , allora rispetto alla base duale di V la mappa indotta V ∗ → V ∗ è data dalla matrice t A. Quindi la rappresentazione controgradiente GL(V ) −→ GL(V ∗ ), A 7−→ A∗ := t A−1 . 1.1.13 Azione di GL(V ) su Tmn (V ). Per un intero k ∈ Z≥0 definiamo uno spazio vettoriale: T 0 (V ) = R, T 1 (V ) = V, T k (V ) = V ⊗n := |V ⊗ V ⊗ {z. . . ⊗ V}, k e poi, per interi n, m ∈ Z≥0 definiamo: Tmn (V ) := T n (V ) ⊗ T m (V ∗ ), si noti che T n (V ) ⊗ T 0 (V ∗ ) = T n (V ) ⊗ R ∼ = T n (V ) usando la applicazione (v1 ⊗ . . . ⊗ vn ) ⊗ λ 7→ λ(v1 ⊗ . . . ⊗ vn ). Similmente Tm0 (V ) ∼ = T m (V ∗ ). Per A ∈ GL(V ) definiamo un’applicazione: A = ρnm (A) : Tmn (V ) −→ Tmn (V ) x1 ⊗ x2 ⊗ . . . . . . ⊗ xn ⊗ l1 ⊗ . . . ⊗ lm 7−→ (Ax1 ) ⊗ (Ax2 ) ⊗ . . . ⊗ (Axn ) ⊗ (Al1 ) ⊗ . . . ⊗ (Alm ). Non è difficile vedere che ρnm (AB) = ρnm (A)ρnm (B), cioè che GL(V ) agisce su Tmn , e che ρnm (A) è un’applicazione lineare su Tmn . Quindi otteniamo un omomorfismo di gruppi ρnm : GL(V ) −→ GL(Tmn (V )). 1 ALGEBRA MULTILINEARE 12 Sia ei , 1 ≤ i ≤ n, una base di V . Si può mostrare che se M ∈ Hom(V, V ) = V ∗ ⊗ V = T11 è data dalla matrice M = (mij ) ∈ Mn (R), allora l’azione di A ∈ GL(V ) su M è data da: A · M = AM A−1 (A ∈ GL(V ), M ∈ T11 (V )). Invece, se consideriamo un’applicazione bilineare ψ ∈ Bil(V, V ) ∼ = V ∗ ⊗ V ∗ = T20 (V ), data da una matrice M = (mij ) ∈ Mn (R), allora l’azione di A ∈ GL(V ) su M è dato da: A · M = t A−1 M A−1 , (A ∈ GL(V ), M ∈ T20 (V )). (Si noti che l’azione di A ∈ GL(V ) su ψ ∈ Bil(V, V ) è dato da (Aψ)(x, y) = ψ(A−1 x, A−1 y) e che ψ(x, y) = t xM y). 1.1.14 La complessificazione di uno spazio vettoriale reale. Sia V uno spazio vettoriale reale. Definiamo uno spazio vettoriale complesso VC con un’applicazione iniettiva R-lineare V ,→ VC tale che VC = V ⊕ iV , cioè, ogni elemente di VC si scrive, in modo unico, come somma v1 + iv2 con v1 , v2 ∈ V . Nel caso che V = Rn , troviamo VC = Cn e l’inclusione Rn ,→ Cn è quella standard. La definizione di VC è data da: VC := V ⊗R C dove C è visto come spazio vettoriale di dimensione due su R. In particolare, VC è uno spazio vettoriale reale di dimensione 2 dim V . Per definire l’azione di C su VC (cioè il prodotto di un scalare t ∈ C con un vettore w ∈ VC ) osserviamo che, per ogni t ∈ C, l’applicazione φt : V × C −→ VC , (v, t) 7−→ v ⊗ (tz) è R-bilineare e quindi definisce un’applicazione R-lineare Φt : VC → VC , v ⊗ z 7→ v ⊗ (tz). L’azione di C su VC è allora definito da t · (v ⊗ z) := v ⊗ (tz). E’ facile verificare che in questo modo VC è uno spazio vettoriale complesso. In più, l’applicazione V −→ VC , v 7−→ v ⊗ 1 è R-lineare e, poichè v ⊗ (x + iy) = (v ⊗ x) + (v ⊗ (iy)) = (xv) ⊗ 1 + (yv) ⊗ i (x, y ∈ R), si ha VC = V ⊕ iV dove, per definizione della struttura di spazio vettoriale complesso su VC , iV = {v ⊗ i : v ∈ V }. Una proprietà importante di VC è che ogni applicazione R-lineare A : V → V definisce un’applicazione C-lineare AC : VC → VC , AC (v ⊗ z) := (Av) ⊗ z (A ∈ HomR (V, V )), come si verifica facilmente usando l’applicazione R-bilineare V × C → VC , (v, z) 7→ (Av) ⊗ z. 1 ALGEBRA MULTILINEARE 13 Nel caso V ⊂ W , dove W è uno spazio vettoriale complesso, si ottiene un’applicazione Clineare VC → W dato da v ⊗ z → zv (dove il prodotto zv è preso nel spazio vettoriale complesso W ). Un esempio interessante è il caso dove V := {X ∈ W = Mn (C) : t X + X = 0 }. Si noti che V è un sottospazio vettoriale reale di W , ma non un sottospazio vettoriale complesso (se X 6= 0 e t X = −X allora t iX = −it X = +iX 6= −iX, quindi iX 6∈ V ). Questo argomento mostra in realtà che V ∩ iV = {0} e quindi, calcolando dimensioni (oppure vedi 7.4.3), si ha W = V + iV e perciò VC ∼ = W. 1.2 Tensori in fisica Gli elementi dello spazio vettoriale Tmn (V ) si chiamano tensori di rango r = n + m, con n indici controvarianti ed m indici covarianti o anche tensori di tipo (n, m). In particolare i tensori di tipo (1, 0) sono i vettori di V detti anche vettori controvarianti, mentre i tensori di tipo (0, 1) vengono chiamati covettori o vettori covarianti. Le nozioni di covarianza e controvarianza sono direttamente riconducibili al modo in cui GL(V ) agisce su Tmn (V ). Vogliamo però soffermarci a illustrarle da un punto di vista meno astratto, in maniera tale da rendere evidente l’importanza dei tensori in fisica e contemporaneamente giustificare le notazioni usualmente adottate. 1.2.1 Vettori, indici in alto e controvarianza. In prima approssimazione per un fisico una grandezza vettoriale è una quantità specificata da una intensità (o modulo), una direzione e un verso. Per esempio il vettore posizione, o la velocità di una particella in un determinato istante, o la forza che un corpo esercita su di un altro e cosı̀ via. Per specificare un tale vettore o eseguirne una misura è necessario introdurre un sistema di riferimento, che corrisponde alla scelta di una base ordinata {~e1 , ~e2 , ~e3 } dello spazio vettoriale V in cui il vettore, diciamo ~v , vive. Dunque ~v = v 1~e1 + v 2~e2 + v 3~e3 , e la misura consisterà nella determinazione delle componenti del vettore, cioè i coefficienti v i . Si noti che abbiamo scritto gli indici come apici. Questo è un fatto puramente convenzionale che è però universalmente adottato e come vedremo permette di semplificare le notazioni. A questo punto si può essere tentati di identificare il vettore ~v con la terna delle sue componenti 1 v v2 . v= v3 Tale identificazione risulta essere inappropriata dato che mentre il vettore ~v prescinde dalla scelta di una base, v non ha alcun significato senza tale base. E se infatti si decide di cambiare base, il vettore ~v resterà invariato, mentre le sue componenti ~v cambieranno ansse. Infatti supponiamo di introdurre la nuova base {~ẽ1 , ~ẽ2 , ~ẽ3 } legata alla precedente dalla matrice M = {Mi j } da 3 X ~ẽi = Mi j ~ej . j=1 1 ALGEBRA MULTILINEARE 14 Rispetto a questa base le nuove componenti ṽ saranno tali per cui ~v = ṽ 1~ẽ1 + ṽ 2~ẽ2 + ṽ 3~ẽ3 , e quindi X v i~ei = X i ṽ j~ẽj = j X ṽ j Mj k~ek , j,k da cui vi = X ṽ j Mj i . j In forma matriciale questa relazione può essere scritta come T dove T v =T ṽ · M , indica la trasposizione, mentre 0 ·0 è l’usuale prodotto matriciale. In conclusione ṽ =T M −1 v , ovvero: se la base {~ei } viene cambiata con la matrice M , allora le componenti di un vettore si trasformano con l’inversa della matrice trasposta. In pratica si trasformano al contrario per compensare il cambiamento di base in modo da lasciare invariato ~v . Questo giustifica il termine controvariante. Se vogliamo identificare un vettore con le sue componenti, allora dobbiamo tenere presente che queste si trasformano controvariantemente rispetto ad un cambiamento di riferimento. È chiaro che tali ragionamenti non dipendono dalla dimensione dello spazio vettoriale. Si cominci anche ad osservare una prima comodità della scelta sulle posizioni degli indici in alto o in basso: nel cambiamento di base, si somma l’indice in alto della matrice con quello in basso della base, per dare una seconda base che ancora è indicizzata da un pedice. Ecco perché il corrispondente indice di riga della matrice è un pedice. P Viceversa, nel cambiamento delle componenti, espresso dalla relazione v i = j ṽ j Mj i , si somma l’indice in basso della matrice con quello in alto delle componenti, per dare altre componenti che secondo le convenzioni scelte devono ancora avere l’indice in alto. Questo mostra la coerenza delle convenzioni. Scegliamo infine di adottare una ulteriore semplificazione, suggerita da Einstein e nota appunto come convenzione di Einstein: ogni volta che un indice in alto ed uno in basso compaiono ripetuti, è sottintesa una sommatoria sugli stessi. Per esempio potremo scrivere le relazioni precedenti come ~v = v i~ei , ~ẽi = Mi j ~ej , v i = ṽ j Mj i , e cosı́ via. In questa sezione d’ora in poi adotteremo questa convenzione. Mettiamo infine in evidenza il seguente fatto: quando si identifica un vettore con le sue componenti, talvolta si dice erroneamente che il vettore è descritto da 3 (nel caso tridimensionle) scalari. Tuttavia uno scalare è una grandezza che non dipende dalla scelta del sistema di riferimento, come può essere la temperatura in un punto dato. Questa osservazione dovrebbe 1 ALGEBRA MULTILINEARE 15 ulteriormente chiarire la possibile ambiguità che può portare l’identificazione di un vettore con le sue componenti. Se da una parte il formalismo in componenti ha un significato pratico, dato che esse rappresentano le quantitá da misurare in un dato riferimento, d’altra parte si intuisce la necessità di un formalismo indipendente dai riferimenti per catturare quelle proprietà intrinseche che prescindano dalla scelta di un riferimento. 1.2.2 Covettori, indici in basso e covarianza. I covettori sono gli elementi dello spazio duale V ∗ . Indichiamo con w il generico covettore. Esso sarà completamente specificato dalla sua valutazione su una base {~ei } di V : wi = w(~ei ). Infatti possiamo scrivere w = wi i dove i é la base di V ∗ canonicamente associata alla base di V , come mostrato nelle sezioni precedenti. Ne segue immediatamente che le componenti wi di w si trasformano con la stessa matrice con cui si effettua il cambiamento di base: w̃i = w(Mi j ~ej ) = Mi j wj . Ecco perché i covettori vengono detti vettori controvarianti, e secondo le convenzioni introdotte le loro componenti si indicano con un pedice. Lasciamo come esercizio quello di verificare che in effetti la base canonica si trasforma con la matrice inversa trasposta, mostrando quindi la completa coerenza delle notazioni. Si noti anche che w(~v ) = wi v i . n 1.2.3 Tensori in Tm (V ) e componenti. A questo punto è chiaro quale debba essere la notazione in componenti di un tensore x ∈ Tmn (V ). Scriveremo cioè le sue componenti come n xji11...i ...jm tenendo conto che se si effettua un cambiamento di base ~ẽi = Mi j ~ej , le componenti diventano ...hn k1 n x̃ij11...i . . . Mjn km (T M −1 )i1 h1 . . . (T M −1 )in hn xhk11...k . ...jm = Mj1 m Lasciamo come esercizio la dimostrazione di questo fatto, nonché la riformulazione in termini di azione del gruppo GL(V ). 1.2.4 Una convenzione alternativa. In casi più generali è conveniente utilizzare una notazione leggermente differente da quella indicata nel paragrafo precedente, valida ad esempio in casi di spazi vettoriali su corpi non abeliani anziché su campi. In tal caso occorrerà distinguere ad esempio tra campi vettoriali destri e campi vettoriali sinistri. Se K è il corpo degli scalari, posto s : (K, V ) → V , diremo che lo spazio vettoriale V è destro se s(a, s(b, v)) = s(ba, v) , ∀a, b ∈ K , v ∈ V , mentre diremo che è sinistro se s(a, s(b, v)) = s(ab, v) , ∀a, b ∈ K , v ∈ V , 1 ALGEBRA MULTILINEARE 16 cioè come se gli scalari moltiplicassero da destra, s(a, v) = va, nel primo caso e da sinistra, s(a, v) = av, nel secondo caso. Si noti che se uno spazio vettoriale è destro allora il suo duale V ∗ è uno spazio vettoriale1 sinistro e viceversa. Per fissare le idee, secondo le convenzioni comuni, supponiamo che V sia destro. Sia ~e1 , . . . , ~en una base di V , che disporremo in un vettoreriga ~e := (~e1 , . . . , ~en ). Il generico vettore ~v ∈ V avrà perciò componenti in K che scriveremo convenientemente in un vettore-colonna v̄ ∈ Kn in modo da utilizzare il prodotto riga per colonna2 nella scrittura v X ~v = ~ei v i = ~e · v̄ . i=1 Si verifica facilmente che, fissata la base ~e un endomorfismo lineare di V è rappresentato da una matrice n × n con coefficienti in K, che moltiplica con l’usuale prodotto riga per colonna i vettori-colonna v̄ che rappresentano i punti di V in Kn . Consideriamo ora il duale V ∗ e sia h , i : V ∗ × V → K la valutazione dei funzionali sui vettori, che trasforma in modo naturale l’azione destra degli scalari su V nell’azione a sinistra su V ∗ . Sia ~1 , . . . ,~n la base duale canonica definita da h~i , ~ej i = δji , dove la delta di Kronecker è costruita con lo zero e l’unità in K. Conviene allora disporre i vettori della base in un vettore-colonna 1 ~ . . ¯ = . ~n in modo che la definizione della base diventa h¯, ~ei = I mentre ~e ⊗ ¯ = idV , essendo I la matrice di componenti δji . Ne segue che nella base fissata un covettore ~v ∈ V ∗ sarà individuato da un vettore riga v = (v1 , . . . , vn ) ∈ Kn in modo tale che ~v = v · ¯. In particolare se ~v = v · ¯ ∈ V ∗ e w ~ = ~e · w̄ ∈ V allora si ottiene h~v , wi ~ = v · w̄, l’usuale prodotto riga per colonna! Sia inoltre A ∈ End(V ) ed ∗ A l’applicazione duale definita da hA∗~v , wi ~ := h~v , Awi. ~ Ne segue che se A è rappresentato da una matrice M ∈ M at(n, K) tale che w̄ 7→ ·w̄, allora A∗ è rappresentato dalla stessa matrice M che però agisce a destra: v 7→ v · M . Si noti che solo dopo trasposizione, che trasforma i vettori riga in vettori colonna, l’operatore aggiunto viene allora rappresentato dalla matrice trasposta che però agisce a sinistra. Questo perché essenzialmente la trasposizione corrisponde all’esplicitazione dell’isomorfismo (non naturale) tra V e V ∗ che quindi trasforma un’azione destra in sinistra e viceversa. Tuttavia tale isomorfismo è conveniente solo nel caso degli spazi vettoriali su un campo cosicchè non vi è nessuna differenza tra azione destra ed azione sinistra. In generale invece è conveniente mantenere evidente la caratteristica di spazio sinistro per V ∗ (se V è destro) e ciò giustifica le notazioni qui introdotte. In queste notazioni un cambiamento di base sarà definito da una matrice M ∈ GL(n, K) tale che ~ẽ = ~e · M . La condizione di indipendenza di un vettore dalla base è espressa dunque dalla qui continuiamo a limitarci al caso di spazi finito dimensionali e V ∗ è lo spazio dei funzionali lineari su V a valori in K 2 che d’ora in poi indicheremo con un punto ’·’ 1 1 ALGEBRA MULTILINEARE 17 relazione ~v = ~e · v̄ = ~ẽ · ṽ¯ ovvero ~ẽ · ṽ¯ = ~e · v̄ = ~e · (M · M −1 ) · v̄ = (~e · M ) · (M −1 · v̄) = ~ẽ · (M −1 · v̄) , cosicché ṽ¯ = M −1 · v̄: se la base trasforma con la matrice M (a destra) allora le componenti del vettore trasformano con la matrice M −1 (a sinistra). Lasciamo come esercizio la determinazione di simili proposizioni nel caso dei covettori e dei tensori in generale, nonchè il confronto dettagliato con le formule ottenute nei paragrafi precedenti. Mentre nel presente capitolo continueremo ad usare le notazioni precedenti, queste convenzioni verranno adottate nel capitolo 11 riguardante i fibrati differenziali. 1.2.5 Il tensore metrico e l’abbassamento ed innalzamento degli indici. Su uno spazio vettoriale V finitodimensionale e reale, è sempre possibile introdurre un tensore metrico, cioè una forma bilineare non degenere g ∈ Bil(V, V ). Nondegenere significa che se fissiamo ~v ∈ V e ~ ∈ V allora ~v = ~0. Se g(~v , ~v ) ≥ 0 , ∀~v ∈ V , si dice che la metrica si ha che g(~v , w) ~ = 0 , ∀W è definita positiva o Euclidea. Lasciamo come esercizio la verifica del fatto che in tal caso g(~v , ~v ) = 0 implica ~v = ~0. Similmente una metrica g si dirà definita negativa se −g è definita positiva. Nei restanti casi si parlerà di metrica Lorentziana con data segnatura. In ogni caso vediamo che il tensore metrico è dunque un tensore simmetrico in V ∗ ⊗ V ∗ . Esso definisce una corrispondenza biunivoca ψ : V → V ∗ , ~v 7→ ψ(~v ), dove ψ(~v )(w) ~ := g(~v , w). ~ Si verifica immediatamente che si tratta infatti di un isomorfismo lineare, basti usare il fatto che g è nondegenere3 . In componenti si ha vi = gij v j , dove vi sono le componenti del covettore ψ(~v ), notazione piuttosto naturale dato l’isomorfismo. Viceversa, dato un covettore w, si indicano con wi le componenti del vettore ψ −1 (w). Se con g ij indichiamo le componenti della matrice inversa alla gij (si dimostri che g ij sono le componenti di un tensore simmetrico controvariante di grado 2), allora si ha wi = g ij wj . Le operazioni appena viste vengono anche chiamate abbassamento ed innalzamento dell’indice. Esse possono essere estese in maniera ovvia a tensori di rango qualunque. Cosı̀ ad esempio Tij = gik T k j = gjk Ti k = gik gjl T kl . Si noti in generale l’importanza della posizione degli indici alzati ed abbassati: in generale T i j e Tj i , ad esempio, non saranno affatto uguali. Si noti infine che nel caso di una metrica euclidea è sempre possibile scegliere una base in cui gij = δij , essendo δij l’usuale simbolo di Kronecker. 1.2.6 Esempi di tensori in fisica. Abbiamo già parlato di esempi di vettori in fisica, come la velocità, la forza, eccetera, che individuano tensori di tipo (1, 0). Cosı̀ potremo anche dire 3 In particolare dunque in generale tale isomorfismo non richiede nemmeno che g sia simmetrico. 1 ALGEBRA MULTILINEARE 18 che una quantità scalare, come ad esempio la temperatura, è un tensore di tipo (0, 0). Per vedere come i tensori prolificano in fisica, vediamo ulteriori esempi di grandezze fisiche di natura tensoriale. La costante dielettrica. Consideriamo una sostanza materiale immersa in un campo elettrico. Dal punto di vista microscopico accade che le molecole componenti il materiale subiranno l’effetto del campo elettrico eventualmente deformandosi ed orientandosi secondo le coercizioni imposte dal campo e dalla struttura stessa del materiale (cristallina o meno). Per contro, le molecole deformate generano allora un campo (microscopico) che si somma al campo esterno modificando cosı̀ il campo complessivo nella regione occupata dalla sostanza materiale. Dal punto di vista macroscopico ciò verrà descritto in termini di un campo di induzione elettrica ~ che dipenderà sia dal campo elettrico esterno E, ~ sia dalla natura precisa della sostanza S D stessa ~ = E(E, ~ S) . D ~ 0 := E(~0, S) sia sia differente da zero. In particolare per alcune sostanze può accadere che D Si dice allora che S è un materiale piezoelettrico. La maggior parte delle sostanze non sono ~ 0 = ~0. Per tali sostanze, se il campo elettrico nella regione in cui sono piezoelettriche sicché D ~ Qualora situate è abbastanza debole, l’induzione elettrica dipenderà linearmente dal campo E. le correzioni nonlineari non entrino in gioco praticamente mai la sostanza in considerazione viene detta mezzo lineare o anche mezzo normale. I materiali per cui invece le correzioni nonlineari non sono essenzialmente mai trascurabili si dicono mezzi nonlineari. Supponiamo dunque di disporre di un mezzo normale e concentriamoci su un punto fissato. In tal caso allora E definisce una mappa lineare E : R3 → R3 che, per quanto osservato nel paragrafo 1.1.9, sarà rappresentata da un tensore ∈ V ∗ ⊗ V , detto tensore di permettività dielettrica. Qui abbiamo posto R3 =: V . Poiché in generale tale tensore dipenderà dal punto considerato, in generale la permettività dielettrica definisce in realtà un campo tensoriale sul mezzo normale4 . Se non si ha alcuna dipendenza dal punto, si dice che il mezzo normale è un dielettrico omogeneo. In componenti potremo scrivere Di = i j Ej , dove ovunque è stata omessa la dipendenza esplicita dal punto p. Osserviamo che se gij sono le componenti della metrica spaziale (euclidea) nel dato punto p, allora si può ivi descrivere la permeabilità dielettrica tramite il tensore completamente covariante ij ottenuto abbassando l’indice controvariante. Si può allora dimostrare, tramite un semplice argomento di termodinamica, che quest ultimo tensore deve necessariamente essere simmetrico. Nel caso in cui il mezzo sia omogeneo allora il tensore non dipende dal punto. Se invece il mezzo è isotropo le sue componenti non devono restare invariate qualunque sia la rotazione che si compia nel cambiare riferimento. Poiché, a meno di costanti moltiplicative, l’unico tensore a due indici invariante per rotazione è δi j , si ha che in tal caso deve essere i j = δi j . Se il mezzo è anche omogeneo, il dielettrico è allora unicamente caratterizzato da uno scalare , detto 4 Il concetto di campo tensoriale richiede l’introduzione di strumenti matematici più raffinati e verrà descritto in maniera precisa nel capitolo successivo. 1 ALGEBRA MULTILINEARE 19 costante dielettrica. Una trattazione del tutto analoga può essere fatta per il campo magnetico. Il tensore degli sforzi e la pressione. Un altro esempio riguarda lo studio delle proprietà meccaniche dei mezzi continui. Se ad esempio ci si accinge a deformare un corpo solido che si trovava all’equilibrio, esso si opporrà a tale azione tramite delle forze interne che tenderanno a mantenerlo (o riportarlo) nello stato di equilibrio. Tali forze interne vengono dette sforzi. Se il corpo solido preso in considerazione non è ad esempio fatto di materiale piezzoelettrico, cioè se le deformazioni non generano campi elettrici (o magnetici) macroscopici all’interno del mezzo, allora gli sforzi saranno dovuti univocamente alle inerazioni tra le molecole adiacenti. Dal punto di vista macroscopico, essendo tali interazioni di breve range, le varie parti del corpo solido appariranno interagire solamente per mezzo delle superfici che li delimitano. Pertanto su una porzione di volume V delimitato dalla superficie S = ∂V la forza esercitata dalle restanti parti del corpo sarà esprimibile nella forma5 I i F = σ ij nj dS S essendo ~n(p) la normale uscente alla superficie S nel punto p. E’ chiaro che allora σ ij (p) è un tensore di secondo grado definito in ogni punto p del corpo: esso è detto tensore degli sforzi. ij come In particolare tramite il teorema di Stockes si può interpretare la divergenza f i = ∂σ ∂xj la forza per unità di volume subita dal corpo nel dato punto ad effetto della deformazione. Più precisamente per definizione gli sforzi interni sono descritti dalla reazione del corpo alla deformazione, ovvero da −f i . Se xi rappresenta il vettore posizione del punto p rispetto ad un origine O, possiamo interpretare la quantità mij = f i xj − f j xi come il momento di torsione per unità di volume subito nel punto p a causa della deformazione6 . Se si integra sul volume V esplicitando l’espressione di f~ e utilizzando nuovamente il teorema di Stockes, si ottiene un’espressione per il momento angolare totale agente sul volume V dato I Z ij ik j jk i M = (σ x − σ x )nk dS + (σ ij − σ ji )dV . S V In generale accade che, benché abbiamo introdotto il concetto di forze volumetriche f i , tale momento debba essere ragionevolmente attribuito esclusivamente alle forze di contatto sulla superficie, sicché l’integrale di volume deve essere nullo qualunque sia il volumetto considerato. Pertanto genericamente si ha che il tensore degli sforzi è un tensore simmetrico. Può tuttavia accadere che in casi eccezionali il momento angolare subisca anche un contributo dovuto ad esempio alla contorsione della struttura microscopica del mezzo. In questo caso la seconda equazione cardinale della meccanica non è più conseguenza della prima e il termine di volume non è più nullo. In questo caso il vettore 1 Si := ijk σ jk , 2 5 si noti l’indice covariante per il versore ~n normale alla superficie: quando si calcola il flusso di un campo ~v vettoriale attraverso una superficie occorre determinare punto per punto il prodotto scalare ~v ·~n = v i nj gij = v i nj 6 per la precisione questo è il duale di Hodge del momento angolare, si veda più avanti 1 ALGEBRA MULTILINEARE 20 può essere interpretato come uno spin classico del mezzo continuo. Benché si sia finora ragionato in termini di corpi solidi, gli stessi ragionamenti possono essere ripetuti, con le stesse conclusioni, nel caso di corpi fluidi (liquidi e gassosi). In effetti liquidi dotati di spin classico sono noti ai chimici industriali e vengono utilizzati ad esempio per la realizzazione di propellenti per razzi. Nel caso di mezzi isotropi, analogamente al tensore di permettività dielettrica, il tensore degli sforzi dovrà allora essere della forma σ ij = pδ ij . Il coefficiente di proporzionalità p è la pressione. Vettori assiali e vettori polari. Vi sono grandezze per la cui descrizione il concetto di vettore inteso intuitivamente come oggetto descritto da una intensità, una direzione ed un verso è solo convenzionale e viene a dipendere nei dettagli dall’osservatore. Per chiarire questo punto consideriamo ad esempio il caso immaginario di una sferetta che ruota su sè stessa con velocitá angolare ω. Supponiamo di voler attribuire un vettore alla velocità angolare, che ne specifichi sia l’asse di rotazione che il senso di rotazione. Per stabilire tale vettore specifichiamo un sistema di riferimento cartesiano inerziale sinistrorso con origine nel centro della sfera ed asse z sovrapposto all’asse di rotazione. Decidiamo dunque di attribuire alla velocità angolare il vettore di coordinate (0, 0, ω) se la rotazione va dall’asse x all’asse y e con segno opposto nel caso contrario. Questo stabilirà un ben preciso vettore che secondo il nostro riferimento (~e1 , ~e2 , ~e3 ) si scriverà ω ~ = ω~e3 . Si noti che il risultato per ω ~ non dipende da quale dei due poli della sfera sia scelto come punto di uscita dell’asse z. Supponiamo ora di voler risolvere lo stesso problema con le stesse convenzioni ma scegliendo stavolta un sistema (~e0x , ~e0y , ~e0z ) destrorso anziché uno sinistrorso. Il risultato ovvio é che determineremo un vettore ω ~ 0 = −~ω . È chiaro che nessuna delle due determinazioni è privilegiata ed entrambi i vettori vanno ugualmente bene per specificare la velocità angolare della sferetta. Ciascuno di essi è ben definito una volta che si specifichi un sistema di riferimento orientato e non dipende dal sistema di riferimento purché si considerino solo riferimenti con lo stesso orientamento. Per dare un significato assoluto (cioè completamente indipendente dal riferimento) al vettore velocità angolare, è necessario unificare le due convenzioni, richiedendo che ω si trasformi in ω 0 quando si passi da un sistema sinistrorso ad uno destrorso. Ciò significa che ω ~ non può essere trattato come un usuale vettore ma piuttosto occorre considerare la coppia {~ω , Ω}, Ω essendo l’orientamento scelto. I vettori con questa proprità si chiamano vettori assiali per distinguerli dagli usuali vettori che vengono invece chiamati vettori polari. Si lascia come esercizio la verifica del fatto che il prodotto vettoriale tra due vettori polari è un vettore polare, mentre quello tra un vettore assiale ed uno polare è invece un vettore polare. In particolare si ha dunque che il campo elettrico può essere rappresentato da un vettore polare mentre quello magnetico sarà un vettore assiale. Tensori rispetto ad un gruppo di trasformazioni. L’argomento del precedente esempio suggerisce una generalizzazione molto utile in fisica. Possiamo infatti dire che i vettori assiali si comportano come usuali tensori controvarianti di grado 1 se consideriamo solo trasformazioni di riferimento che conservano l’orientamento. Più in generale possiamo pensare a tensori che si comportano come tali solamente se si prende in considerazione un determinato gruppo G di trasformazioni. Sia cioè V uno spazio vettoriale che 1 ALGEBRA MULTILINEARE 21 sia lo spazio supporto di una rappresentazione ρ del gruppo G.7 Diremo allora che Ti1 ,...,im j1 ,...,jn sono le componenti di un tensore di tipo (m, n) rispetto al gruppo G (nella rappresentazione ρ) se trasformano nel modo corretto sotto una trasformazione di base indotta dalle applicazioni lineari del tipo ρ(g) : V → V , al variare di g ∈ G. Per capire l’importanza di questo concetto in fisica vediamo alcuni esempi. Un primo semplice esempio è il vettore velocità che si comporta esattamente come un vettore rispetto al gruppo delle rotazioni ma non certamente rispetto al gruppo di trasformazioni di Galilei. I vettori forza ed accelerazione restano tali anche rispetto al gruppo di Galilei, mentre non lo sono rispetto al gruppo di Lorentz: rispetto ad esso si comportano solamente come componenti spaziali di un tetravettore. In generale i tetravettori si comportano come tali rispetto a trasformazioni tra sistemi di riferimento inerziali. Ad esempio la tetra-accelerazione non trasforma correttamente se si passa da un sistema inerziale ad uno non inerziale. I campi elettrico e magnetico si comportano come vettori (polare ed assiale) rispetto al gruppo delle rotazioni mentre rispetto al gruppo di Lorentz si comportano come le componenti di un tensore antisimmetrico controvariante di secondo grado (il tensore di Faraday). Questi esempi e molti altri mostrano che in fisica è sovente indispensabile specificare il gruppo di trasformazioni rispetto al quale le grandezze in gioco si comportano effettivamente come tensori. Il carattere tensoriale di una grandezza fisica dipende in tal senso dal contesto specifico. Leggi tensoriali in fisica. Osserviamo per concludere quale sia l’importanza di formulare le leggi fisiche sotto forma tensoriale. Il punto chiave è che se le componenti di un tensore sono nulle in un determinato riferimento, allora lo sono in qualunque riferimento. Quindi se è possibile scrivere una legge fisica nella forma Ti1 ,...,im j1 ,...,jn = 0 , in un dato riferimento, allora essa è universale nel senso che mantiene la stessa forma in qualunque altro sistema di riferimento. Ciò è conseguenza del fatto che se Ti1 ,...,im j1 ,...,jn sono le componenti del tensore T , il quale non dipende dalle coordinate, allora la legge fisica assume la forma T = 0, chiaramente indipendente dalla scelta di ogni sistema di riferimento. Cosı̀ ad esempio la legge di Newton F i = mai ha la forma invariante F~ = m~a che ne evidenzia la natura tensoriale rispetto al gruppo di Galilei. Tale legge non è però invariante rispetto al gruppo di Lorentz, mentre lo sono le equazioni di Maxwell. In una descrizione coerente della fisica è opportuno che le leggi fisiche siano tutte della stessa natura, cosicché diventa necessario modificare le equazioni di Newton affinchè possano essere anch’esse scritte in termini di tensori Lorentziani. Naturalmente si potrebbe pensare invece che sia necessario cambiare le equazioni di Maxwell per renderle Galilei-covarianti. Tuttavia la prima soluzione risulta essere quella corretta, anzitutto dal punto di vista sperimentale. Vi sono inoltre degli evidenti motivi di principio che portano alla stessa conclusione: essendo i sistemi galileiani una situazione limite di quelli lorentziani è più naturale pensare che i tensori rispetto al gruppo di Galilei compaiano solo in tali situazioni limite. 7 si veda il capitolo dedicato ai gruppi di Lie 1 ALGEBRA MULTILINEARE 1.3 22 L’algebra esterna. 1.3.1 Il prodotto esterno. Sia V uno spazio vettoriale reale di dimensione n. Definiamo un sottospazio I2 di V ⊗ V con: I2 := hv ⊗ v : v ∈ V i. Si noti che per u, v ∈ V : (u + v) ⊗ (u + v) = u ⊗ u + v ⊗ v + u ⊗ v + v ⊗ u, quindi u ⊗ v + v ⊗ u = (u + v) ⊗ (u + v) − u ⊗ u − v ⊗ v ∈ I2 per ogni u, v ∈ I2 . Il prodotto esterno di V è lo spazio quoziente ∧2 V := V ⊗ V /I2 con u ∧ v := u ⊗ v = u ⊗ v + I2 . Visto che v ⊗ v ∈ I2 , si ha v ⊗ v + I2 = I2 , quindi v ∧ v = 0, u ∧ v = −v ∧ u perché u ⊗ v + v ⊗ u ∈ I2 . P P Se ei è una base di V e u = ui ei , v = vj ej , allora: X X X u∧v =( ui e i ) ∧ ( vj ej ) = ui vj (ei ∧ ej ) = X (ui vj − uj vi )(ei ∧ ej ). 1≤i<j≤n quindi gli ei ∧ ej con i < j generano ∧2 V . Per vedere se sono indipendenti, definiamo per gli interi a, b con 1 ≤ a < b ≤ n un’applicazione bilineare φa,b : V × V −→ R, (u, v) 7−→ ua vb − ub va . Quindi φa,b definisce un’applicazione lineare φ̄a,b : V ⊗ V → R. Si noti che φ̄a,b (v ⊗ v) = va vb − vb va = 0, quindi φ̄a,b (I2 ) = 0. Perciò φ̄a,b definisce un’applicazione lineare φ̄a,b : ∧2 V −→ R, φ̄a,b (u ∧ v) = ua vb − ub va . Siccome φ̄a,b (ei ∧ ej ) = 0 tranne se {i, j} = {a, b} segue che gli ei ∧ ej , i < j sono una base di ∧2 V , quindi dim ∧2 V = (n2 ) = n(n − 1)/2, ∧2 V = ⊕i<j Rei ∧ ej . In modo simile a quanto visto in 1.1.7, si può considere applicazioni bilineari alternanti, cioè applicazioni bilineari φ : V × V −→ R, t.c. φ(u, v) = −φ(v, u) (u, v ∈ V ). Si mostra che Hom(V ∧ V, R) = Bilalt (V × V, R) (c.f. 1.1.8) dove Bilalt (V × V, R) è lo spazio vettoriale reale delle applicazioni bilineari alternanti. Per esempio, φa,b ∈ Bilalt (V × V, R) qui sopra corrisponde a φ̄a,b ∈ Hom(V ∧ V, R). 1 ALGEBRA MULTILINEARE 23 Finalmente osserviamo che per u = (u1 , u2 ), v = (v1 , v2 ) ∈ R2 si ha: u1 v1 u1 v1 u∧v = ∧ = det(u, v)e1 ∧ e2 , dove (u, v) := . u2 v2 u2 v2 1.3.2 Il k-esimo prodotto esterno. Per ogni intero k ≥ 3 definiamo il sottospazio Ik di T k (V ) nel modo seguente: Ik = Ik−1 ⊗ V ⊕ V ⊗ Ik−1 (⊂ T k (V )). In particolare, per k = 3 si ha: I3 = hu ⊗ u ⊗ v, u ⊗ v ⊗ v : u, v ∈ V i. In generale, se un tensore puro t = v1 ⊗ v2 ⊗ . . . ⊗ vk ∈ T k (V ) soddisfa vi = vi+1 per un certo i, allora t ∈ Ik . Il k-esimo prodotto esterno di V è lo spazio vettoriale ∧k V := T k (V )/Ik , v1 ∧ v2 ∧ . . . ∧ vk := v1 ⊗ v2 ⊗ . . . ⊗ vk + Ik . Poiché v1 ∧ v2 ∧ . . . ∧ vi ∧ vi+1 ∧ . . . vk = 0 se vi = vi+1 troviamo, come in 1.3.1, che v1 ∧ v2 ∧ . . . ∧ vi ∧ vi+1 ∧ . . . ∧ vk = −v1 ∧ v2 ∧ . . . ∧ vi+1 ∧ vi ∧ . . . ∧ vk per ogni vi ∈ V . Ogni permutazione di {1, . . . , n} è un prodotto di trasposizioni del tipo (i i + 1), quindi otteniamo che: v1 ∧ v2 ∧ . . . ∧ vi ∧ vi+1 ∧ . . . ∧ vk = (σ)vσ(1) ∧ vσ(2) ∧ . . . ∧ vσ(i) ∧ vσ(i+1) ∧ . . . ∧ vσ(k) per ogni σ ∈ Sk , dove Sk è il gruppo simmetrico, e ogni vi ∈ V , dove (σ) è il segno della permutazione σ. Sfruttando il fatto che applicazioni multilineari in k variabili, cioè lineari in ogni variabile, ed alternanti, cioè : φ : V k −→ R, φ(v1 , . . . , vi , . . . , vk ) = (σ)φ(vσ(1) , . . . , vσ(i) , . . . , vσ(k) ) definiscono applicazioni ∧k V −→ R si mostra che una base di ∧k V è data dagli: eI := ei1 ∧ ei2 ∧ . . . ∧ eik , dove I = {i1 , . . . , ik } ⊂ {1, . . . , n} e i1 < i2 < . . . < ik . In particolare dim ∧k V = (nk ) se 0 ≤ k ≤ n, ∧k V = 0 se k > n. Se dim V = n si ha, usando il fatto che il determinante di una matrice è R-lineare in ogni colonna ed è alternante, che v1 ∧ v2 ∧ . . . ∧ vn = det(v1 , . . . , vn )(e1 ∧ e2 ∧ . . . ∧ en ), 1 ALGEBRA MULTILINEARE 24 dove ei è una base di V e (v1 , . . . , vn ) = (v1 )1 (v2 )1 . . . (vn )1 (v1 )2 (v2 )2 . . . (vn )2 .. .. .. .. . . . . (v1 )n (v2 )n . . . (vn )n dove vj = n X (vj )i ei . i=1 1.3.3 L’algebra esterna. Per uno spazio vettoriale reale V di dimensione finita definiamo k T (V ) = ⊕∞ k=0 T (V ) dove T k (V ) è definito in 1.1.13. Lo spazio vettoriale T (V ), di dimensione infinita se V 6= {0}, ha un prodotto naturale (anche se ‘banale’). Per tensori ‘puri’ si definisce: (∈ T k+l (V )). P Si λi si , t = P estende poi questo prodotto in modo R-bilineare a tutto T (V ). Quindi se s = µj tj ∈ T (V ) con si , tj tensori puri, definiamo X X X s·t=( λi si ) · ( µj tj ) = ui vj (si · tj ). (u1 ⊗ u2 ⊗ . . . ⊗ uk ) · (v1 ⊗ v2 ⊗ . . . ⊗ vl ) := u1 ⊗ u2 ⊗ . . . ⊗ uk ⊗ v1 ⊗ v2 ⊗ . . . ⊗ vl Con questo prodotto T (V ) diventa una R-algebra, cioè uno spazio vettoriale reale con un prodotto R-bilineare. Sia I = I2 ⊕ I3 ⊕ . . . ⊕ Ik ⊕ . . . = ⊕∞ i=k Ik , con Ik come in 1.3.2. Allora lo sottospazio reale I è un ideale bilaterale dell’algebra T (V ), cioè per t ∈ T (V ) e s ∈ I si ha s · t ∈ I e t · s ∈ I, come segue facilmente dalla definizione di Ik . Questo implica che l’algebra quoziente, chiamata l’algebra esterna, ∧V := T (V )/I = R ⊕ V ⊕ ∧2 V ⊕ . . . ⊕ ∧n V, è una R-algebra con prodotto indotto da ‘·’. Tale prodotto si indica con ∧: (u1 ∧ u2 ∧ . . . ∧ uk ) ∧ (v1 ∧ v2 ∧ . . . ∧ vl ) := u1 ∧ u2 ∧ . . . ∧ uk ∧ v1 ∧ v2 ∧ . . . ∧ vl (∈ ∧k+l V ). Si verifica che: (u1 ∧ u2 ∧ . . . ∧ uk ) ∧ (v1 ∧ v2 ∧ . . . ∧ vl ) = (−1)kl (v1 ∧ v2 ∧ . . . ∧ vl ) ∧ (u1 ∧ u2 ∧ . . . ∧ uk ). 1.3.4 L’azione di GL(V ) su ∧k V . Sia A ∈ GL(V ), allora abbiamo definito in 1.1.13 ρk (A) : V ⊗k −→ V ⊗k , x1 ⊗ . . . ⊗ xk 7−→ (Ax1 ) ⊗ . . . ⊗ (Axk ). 1 ALGEBRA MULTILINEARE 25 Si noti che ρn (A)(Ik ) = Ik , perché se xi = xi+1 anche Axi = Axi+1 . Quindi ρn (A) induce una mappa lineare ‘ben definita’ ρ[k] (A) : ∧k V −→ ∧k V, x1 ∧ . . . ∧ xk 7−→ (Ax1 ) ∧ . . . ∧ (Axk ). Poiché ρk è un omomorfismo, otteniamo, per ogni k, un omomorfismo ρ[k] : GL(V ) −→ GL(∧k V ), ρ[k] (AB) = ρ[k] (A)ρ[k] (B). Si verifica che se n = dim V allora ρ[n] (A) = det(A). 1.3.5 Il duale di ∧k V . Ci sono due modi comodi per descrivere lo spazio vettoriale (∧k V )∗ , lo spazio duale di ∧k V . Dato l1 , . . . , lk ∈ V ∗ e v1 , . . . , vk ∈ V , definiamo un’applicazione multilineare a : V ∗ × . . . × V ∗ × V × . . . × V −→ R, (l1 , . . . , lk , v1 , . . . , vk ) 7−→ det(A), A = (li (vj )), cioè A è la matrice k × k con coefficienti i numeri reali Aij := li (vj ). La multilinearità di a permette di definire un’applicazione bilineare a0 : (V ∗ )⊗k × V ⊗k −→ R, a0 (l1 ⊗ . . . ⊗ lk , v1 ⊗ . . . ⊗ vk ) = a(l1 , . . . , lk , v1 , . . . , vk ). Si noti che a0 (l1 ⊗. . .⊗lk , v1 ⊗. . .⊗vk ) = 0 se vi = vi+1 (in tal caso due colonne di A sono uguali) e anche se li = li+1 (in tal caso due righe di A sono uguali). Quindi a0 è zero su Ik ⊂ V ⊗k e su Ik∗ ⊂ (V ∗ )⊗k (definito in modo analogo). Quindi a0 definisce un’applicazione bilineare: ã : ∧k (V ∗ ) × ∧k V −→ R, ã(l1 ∧ . . . ∧ lk , v1 ∧ . . . ∧ vk ) = a(l1 , . . . , lk , v1 , . . . , vk ). Si scrive di solito (l1 ∧ . . . ∧ lk )(v1 ∧ . . . ∧ vk ) := a(l1 , . . . , lk , v1 , . . . , vk ), in modo esplicito: X (σ)l1 (vσ(1) )l2 (vσ(2) ) · . . . · lk (vσ(k) ) (l1 ∧ . . . ∧ lk )(v1 ∧ . . . ∧ vk ) = σ∈Sk dove Sk è il gruppo simmetrico e (σ) è il segno della permutazione σ ∈ Sk . Sia e1 , . . . , en una base di V e sia 1 , . . . n la base duale di V ∗ . Allora gli eI = ei1 ∧ . . . ∧ eik sono una base di ∧k V e gli J = j1 ∧ . . . ∧ jk sono una base di ∧k (V ∗ ). Si ha: 1 se I = J, J (eI ) = 0 se I 6= J, perché la matrice jk (eil ) è l’identità I se I = J; se I 6= J esiste un ia ∈ I, ia 6∈ J e quindi jk (eia ) = 0 per ogni jk ∈ J e perciò det(jk (eil )) = 0. Questo mostra che le applicazioni lineari J : ∧k V → R sono la base duale della base data dalle eI , e quindi ∼ = ∧k (V ∗ ) −→ (∧k V )∗ , l1 ∧ . . . ∧ lk 7−→ [v1 ∧ . . . ∧ vk 7−→ (l1 ∧ . . . ∧ lk )(v1 ∧ . . . ∧ vk )]. 1 ALGEBRA MULTILINEARE 26 Un’altro modo per ottenere lo spazio (∧k V )∗ è il seguente. Lo spazio vettoriale ∧n V è uno dimensionale. Si scelga un isomorfismo f : ∧n V → R. Allora si ha un isomorfismo ∼ = ∧n−k V −→ (∧k V )∗ , u1 ∧ . . . ∧ un−k 7−→ [v1 ∧ . . . ∧ vk 7−→ f (u1 ∧ . . . ∧ un−k ∧ v1 ∧ . . . ∧ vk )]. Si noti che se J ⊂ {1, . . . , n} è il complemento di I = {i1 , . . . , ik }, allora eJ ∈ ∧n−k V soddisfa eJ ∧ eI = ±e1 ∧ . . . ∧ en 6= 0 ∈ ∧n V ; mentre se I e J hanno un elemento in comune si ha eJ ∧ eI = 0. Quindi, a meno di moltiplicazione per scalari, gli eJ , con |J| = n − k, sono la base duale della base di ∧k V data dalle eI con |I| = k. 1.3.6 Orientazione. Sia V uno spazio vettoriale reale di dimensione n. Lo spazio vettoriale ∧n V è unidimensionale, quindi isomorfo a R, e perciò (∧n V )−{0} ha due componenti connesse. Un’orientazione su V è la scelta di una componente connessa di (∧n V ) − {0}. Una base ei di V è detta orientata se e1 ∧. . .∧en è un elemento nella componente connessa data dall’orientazione. Per esempio, se ei è la base standard di V = Rn , un’orientazione di V è data dalla componente connessa a cui appartiene e1 ∧ . . . ∧ en . La base e2 , e1 , e3 , . . . , en di V è allora non orientata in quanto e2 ∧ e1 ∧ e3 ∧ . . . ∧ en = −e1 ∧ . . . ∧ en non giace nella componente connessa determinata dall’orientazione. 1.3.7 L’operatore di Hodge. Sia V uno spazio vettoriale reale orientato di dimensione n dotato di un prodotto scalare (, ). Definiamo un’ applicazione lineare, chiamata operatore di Hodge: ∗ : ∧k V −→ ∧n−k V, ∗eI = I,J eJ , dove e1 , . . . en è una base ortonormale orientata di V , I = {i1 , . . . , ik }, J = {j1 , . . . , jn−k } e I ∪ J = {1, . . . , n}, ed I,J ∈ {±1} è tale che I,J (eI ∧ eJ ) = I,J (ei1 ∧ . . . ∧ eik ) ∧ (ej1 ∧ . . . ∧ ejn−k ) = e1 ∧ . . . ∧ en . Si può mostrare che ∗ non dipende dalle scelta della base ortonormale orientata. La mappa ∗ è un isomorfismo per ogni k, 0 ≤ k ≤ n. Per esempio, se definiamo un’orientazione su R3 con la scelta della componente connessa sulla quale giace e1 ∧e2 ∧e3 , dove ei è la base standard, e prendiamo il prodotto scalare standard, allora otteniamo per ∗ : ∧2 R3 → ∧1 R3 = R3 : ∗(e1 ∧ e2 ) = e3 , ∗(e1 ∧ e3 ) = −e2 , ∗(e2 ∧ e3 ) = e1 , (si noti: (e1 ∧ e3 ) ∧ e2 = −e1 ∧ e2 ∧ e3 , cioè {1,3},{2} = −1, quindi ∗(e1 ∧ e3 ) = −e2 ). Per x = (x1 , x2 , x3 ), y = (y1 , y2 , y3 ) ∈ R3 si ha: x ∧ y = (x1 y2 − x2 y1 )(e1 ∧ e2 ) + (x1 y3 − x3 y1 )(e1 ∧ e3 ) + (x2 y3 − x3 y2 )(e2 ∧ e3 ), quindi ∗(x ∧ y) = (x2 y3 − x3 y2 )e1 − (x1 y3 − x3 y1 )e2 + (x1 y2 − x2 y1 )e3 = x × y, dove x × y è il prodotto vettoriale. Il caso Minkowskiano. 1 ALGEBRA MULTILINEARE 27 In alcune applicazioni fisiche lo spazio vettoriale non è dotato di un prodotto scalare ma solamente di una forma simmetrica non degenere η di segnatura non definita. Un tipico esempio è lo spazio-tempo minkowskiano. È possibile ugualmente definire il duale di Hodge in base alla seguente osservazione. La forma η, essendo non degenere, induce un isomorfismo naturale8 tra V e il suo duale V ∗ : η̃ : V −→ V ∗ v 7−→ η̃(v); η̃(v)[w] = η(v, w) , ∀w ∈ V . Tale isomorfismo si estende in modo ovvio ad un isomorfismo Λη̃ tra ΛV e ΛV ∗ , con (∧k η̃)(w1 , . . . , wk ) = η̃(w1 ) ∧ . . . ∧ η̃(wk ). Essendo η simmetrica e non degenere, essa avrà un numero p si autovalori positivi ed un numero q di autovalori negativi, tali che p + q = n := dim(V ). Si dice che la forma ha segnatura (p, q) o anche che la segnatura è s = p − q. Una base {ei }ni=1 ⊂ V si dice ortonormale se se i 6= j 0 1 se i = j ≤ p η(ei , ej ) = −1 se i = j > p . Fissata una base ortonormale orientata {ei }ni=1 , sia ε ∈ Λn V ∗ l’unico elemento individuato da ε(e1 , . . . , en ) = 1. Si dimostra che non dipende dalla scelta della base. Esso genera degli isomorfismi lineari (k) : Λk V −→ Λn−k V ∗ , v1 ∧ . . . ∧ vk 7→ (k) (v1 ∧ . . . ∧ vk ) , ∀v1 , . . . , vk ∈ V , dove (k) (v1 ∧ . . . ∧ vk )[w1 , . . . , wn−k ] := ε(v1 . . . vk , w1 , . . . , wn−k ) . Otteniamo allora un operatore ∗ : Λk V → Λn−k V definito da ∗ = (∧n−k η̃)−1 ◦ (k) . Tale mappa coincide con l’operatore di Hodge se η è definita positiva e ne costituisce la definizione nel caso in cui η sia semplicemente nondegenere. Si noti che ∗∗ = (−1)q id. Si noti infine che η induce una forma bilineare nondegenere su V ∗ che si può usare per definire il duale di Hodge per ΛV ∗ . Si ottiene facilmente che sul duale ∗ = (k) ◦ ∧k η̃ (esercizio). 8 cioè indipendente dalla scelta di una base 2 RAPPRESENTAZIONI DI GRUPPI FINITI 2 28 Rappresentazioni di gruppi finiti Testi consigliati: [A], [FH], [S]. 2.1 Teoria generale 2.1.1 Rappresentazioni e applicazioni equivarianti. Sia G un gruppo finito, sia V uno spazio vettoriale reale (o complesso) di dimensione finita e sia ρ : G −→ GL(V ) un omomorfismo. Un tale omomorfismo è detto rappresentazione di G in V . Siano ρ : G → GL(V ) e τ : G → GL(W ) due rappresentazioni di un gruppo G sugli spazi vettoriali complessi V, W . Un’applicazione lineare f : V → W è detta G-equivariante (oppure G-invariante, vedi 2.2.3) se f (ρ(g)v) = τ (g)f (v) per ogni g ∈ G e v ∈ V . Si scrive: HomG (V, W ) = {f ∈ Hom(V, W ) : f (ρ(g)v) = τ (g)f (v) ∀g ∈ G, v ∈ V }. Le rappresentazioni ρ e τ sono dette isomorfe (oppure equivalenti) se esiste una f ∈ HomG (V, W ) che è un ismorfismo f : V → W di spazi vettoriali. In tale caso si ha: f ρ(g) = τ (g)f , cioè f ρ(g)f −1 = τ (g) per ogni g ∈ G. In particolare, se S : V → V è un’applicazione lineare invertibile, e se ρ : G → GL(V ) è una rappresentazione, allora τ : G → GL(V ), definita da τ (g) := Sρ(g)S −1 è una rappresentazione isomorfa a ρ. 2.1.2 Sottospazi invarianti. Un sottospazio W ⊂ V è detto G-invariante se ρ(g)(W ) ⊂ W per ogni g ∈ G. Una rappresentazione ρ di G in V , V 6= {0}, è detta irriducibile se non ci sono sottospazi G-invarianti diversi da W = {0} e W = V . Un risultato fondamentale è: 2.1.3 Teorema. Sia ρ una rappresentazione di un gruppo finito G in V , allora V è una somma diretta di sottorappresentazioni irriducibili. 2.1.4 Prodotti scalari invarianti. Per la dimostrazione del teorema, vedi per esempio [A], Corollario (4.9) del Capitolo 9. Si mostra prima che esiste su V un prodotto scalare invariante per G, cioè (x, y) = (ρ(g)x, ρ(g)y) per ogni x, y ∈ V e g ∈ G. Dato questo, segue facilmente che se W ⊂ V è G-invariante, allora anche W ⊥ è G-invariante e il teorema segue. Il fatto che ogni ρ(g) preserva un prodotto scalare, cioè che ρ(g) è unitario, implica che ρ(g) è diagonalizzabile. È interessante notare che un prodotto scalare G-invariante esiste più in generale se G è un gruppo di Lie compatto. Il trucco di unitarietà Weyl (Weyl’s unitarity trick), che si usa per mostrare la completa riducibilità di rappresentazioni di gruppi e algebre di Lie semisemplici, sfrutta tale costruzione. 2 RAPPRESENTAZIONI DI GRUPPI FINITI 29 2.1.5 Esempio. Sia G = S2 il gruppo delle permutazioni di due elementi. rappresentazione ρ di G su uno spazio vettoriale V si decompone in G-rappresentazioni V = V1 ⊕ V , V1 = {v ∈ V : ρ(g)v = v ∀g ∈ G}, Una V = {v ∈ V : ρ((12))v = −v }, infatti ogni v ∈ V si scrive come v = (v + ρ(12)v)/2 + (v − ρ(12)v)/2. Ogni sottospazio di V1 (e di V ) è G-invariante. Invece, se x ∈ V1 , y ∈ V sono entrambi non nulli, allora hx + yi non è una sottorappresentazione, perché ρ((12))(x + y) = x − y e x − y 6∈ hx + yi. Ogni sottospazio 1-dimensionale di V1 (e di V ) è una rappresentazione irriducibile di G. Si noti che, a meno di isomorfismi, G ha soltanto due rappresentazioni irriducibili, entrambe hanno dimensione 1 e una è banale (ρ(g) = 1 per ogni g ∈ G), mentre per l’altra si ha ρ(e) = 1, ρ((12)) = −1, quindi coincide con il segno : S2 → {±1} ⊂ GL(C). 2.1.6 Esempio. Sia G = Sm e sia V = Rm . Si definisce una rappresentazione di G in V ponendo ρ : G −→ GL(V ), ei 7−→ eσ(i) , dove e1 , . . . , em è la base standard di Rm . Il sottospazio W = he1 + e2 + . . . + em i è G-invariante perché gli ei sono permutati tra di loro da ogni g ∈ G. La rappresentazione di G su W è banale e, poichè dim W = 1, W è una rappresentazione irriducibile di G. Sia (·, ·) il prodotto scalare standard su Rm , allora è facile vedere che (ρ(g)x, ρ(g)y) = (x, y) per ogni g ∈ G e x, y ∈ V . Quindi questo prodotto scalare è G-invariante e perciò W ⊥ è un sottospazio G-invariante. 2.1.7 Il Lemma di Schur. Il seguente lemma è uno strumento fondamentale per lo studio delle rappresentazioni. 2.1.8 Lemma (Lemma di Schur.) Siano ρ : G → GL(V ) e τ : G → GL(W ) due rappresentazioni irriducibili di un gruppo G su spazi vettoriali complessi V, W . Sia f ∈ HomG (V, W ), cioè f è un’applicazione G-equivariante. Allora 1. f = 0 oppure f è un isomorfismo, 2. se V = W e ρ = τ , allora f = λI, la moltiplicazione per uno scalare λ. Dimostrazione. Si noti che ker(f ) e im(f ) sono sottospazi G-invarianti di V e di W rispettivamente. Infatti, se v ∈ ker(f ), cioè f (v) = 0, allora τ (g)f (v) = 0 e quindi f (ρ(g)v) = 0, perciò anche ρ(g)v ∈ ker(f ). Similmente, se w ∈ im(f ), allora w = f (v) per un certo v ∈ V e quindi τ (g)w = τ (g)f (v) = f (ρ(g)v), cioè τ (g)w è l’immagine di ρ(g)v ∈ V e perciò τ (g)w ∈ im(f ). Poiché V è irriducibile, si ha ker(f ) = V oppure ker(f ) = {0}. Nel primo caso f è zero. Nel secondo caso, f è iniettiva e V ∼ = im(f ) è un sottospazio G-invariante, non-zero, di W , che è irriducibile, quindi im(f ) = W e perciò f è anche suriettiva. Segue che f è un isomorfismo. 2 RAPPRESENTAZIONI DI GRUPPI FINITI 30 Sia V = W e ρ = τ . L’applicazione f : V → V è lineare, sia λ ∈ C un autovalore di f . Allora f − λI è un endomorfismo di V che è G-equivariante perché f lo è e (λI)A = A(λI) per ogni applicazione lineare A : V → V , in particolare per A = ρ(g). Quindi ker(f − λI) è un sottospazio G-invariante non nullo e perciò ker(f − λI) = V . Segue che f = λI. 2 2.2 Caratteri 2.2.1 Il carattere di una rappresentazione. Sia ρ : G → GL(V ) una rappresentazione di G. Definiamo un’applicazione, il carattere di ρ, χ = χρ : G −→ C, χ(g) := Tr(ρ(g)) dove Tr(A) è la traccia Pdell’applicazione lineare A : V → V (cioè, se A è data da una matrice (aij ), allora T r(A) = i aii ). Si noti che se τ : G → GL(V ) è una rappresentazione e A ∈ GL(V ) è un isomorfismo tra ρ e τ , cioè A(ρ(g)v) = τ (g)Av per ogni v ∈ V , allora τ (g) = Aρ(g)A−1 e quindi χρ = χτ . Il carattere dipende quindi soltanto della classe di isomorfismo di una rappresentazione. Alcune proprietà di base di un carattere sono: 2.2.2 Lemma. Sia ρ : G → GL(V ) una rappresentazione di un gruppo finito G con carattere χ = χρ . Allora: 1. χ(e) = dim V , dove e ∈ G è l’elemento neutro. 2. χ(g) = χ(hgh−1 ) per ogni g, h ∈ G, cioè, χ è costante sulle classi di coniugio di G. 3. χ(g −1 ) = χ(g), il coniugato complesso. 4. Se τ : G → GL(W ) è una rappresentazione, allora il carattere della rappresentazione ρ ⊕ τ : G → V ⊕ W è χρ + χτ . Il carattere della rappresentazione ρ ⊗ τ : G → V ⊗ W è χρ χτ . Dimostrazione. Poiché ρ(e) = I, la matrice identità n × n dove n = dim V , segue χ(e) = Tr(I) = n. La seconda proprietà segue da ρ(hgh−1 ) = ρ(h)ρ(g)ρ(h)−1 e il fatto che Tr(SAS −1 ) = T r(A). Per mostrare la terza proprietà, consideriamo una base di V rispetto alle quale ρ(g) è diagonale. Poiché G è finito si ha g N = e per un certo N . Perciò ρ(g)N = I e con un semplice ragionamento si vede che gli autovalori λ1 , . . . , λn di ρ(g) sono radici dell’unità −1 N -esime: λN = λi . Gli autovalori di ρ(g −1 ) = ρ(g)−1 sono i = 1 per i = 1, . . . , n e quindi λi −1 allora λi = λi . Perciò −1 χ(g −1 ) = Tr(ρ(g)−1 ) = λ−1 1 + . . . + λn = λ1 + . . . + λn = χ(g). L’ultima proprietà segue considerando delle basi ei , fj di V , W su cui ρ(g) e τ (g) sono dati da matrici diagonali (vedi 2.1.4). Se ρ(g)ei = λi ei , ρ(g)fj = µj fj allora ei ⊗ fj 7→ λi µj (ei ⊗ fj ). La 2 RAPPRESENTAZIONI DI GRUPPI FINITI 31 traccia di ρ(g) ⊗ τ (g) è allora χρ⊗τ (g) = Tr(ρ(g) ⊗ τ (g)) = X X X λi µj = ( λi )( µj ) = χρ (g)χτ (g). i,j i j 2 Il caso ρ ⊕ τ è più semplice. 2.2.3 Applicazioni equivarianti e invarianti. Si ricordi che Hom(V, W ) ∼ = V ∗ ⊗ W dove V ∗ = HomC (V, C) è lo spazio duale dello spazio vettoriale complesso V . La rappresentazione ρ su V definisce una rappresentazione duale ρ∗ su V ∗ data da ρ∗ (g)l = l ◦ ρ(g)−1 = l ◦ ρ(g −1 ). Rispetto ad una base si ha ρ∗ (g) = t ρ(g)−1 = t ρ(g −1 ). Poiché Tr(A) = Tr(t A) otteniamo dal Lemma 2.2.2 ρ∗ : G −→ V ∗ = HomC (V, C). χρ∗ = χρ , Otteniamo una rappresentazione di G su Hom(V, W ) data da: ρ∗ ⊗ τ : G −→ Hom(V, W ), g 7−→ [f 7−→ [v 7→ τ (g)f (ρ(g)−1 v)]] Si noti che un elemento f ∈ Hom(V, W ) è invariante per G se τ (g)f (ρ(g)−1 v) = f (v) per ogni v ∈ V e g ∈ G. Questa identità, per g −1 invece di g, è equivalente a f (ρ(g)v) = τ (g)f (v), cioè, f ∈ HomG (V, W ). Per questo motivo un’applicazione G-equivariante è anche detta G-invariante. 2.2.4 Proiettori e idempotenti. Un elemento p in un algebra A è detto idempotente se p2 = p. Nel caso in cui A = End(V ) un idempotente è anche detto un proiettore, cioè un’applicazione lineare P : V → V è un proiettore se P 2 = P . 2.2.5 Lemma. Sia P ∈ End(V ) è un proiettore, allora V = im(P ) ⊕ im(I − P ), e im(I − P ) = ker(P ). In più, anche I − P è un proiettore e si ha ker(P ) = im(I − P ). Dimostrazione. Si noti che (I − P )(I − P ) = I − P − P + P 2 = I − P , quindi I − P è un proiettore. Per mostrare la decomposizione di V , si noti che v = (P v) + (I − P )v per ogni v ∈ V , quindi V = im(P ) + im(I − P ). Poi se x ∈ imP , quindi x = P y per un certo y ∈ V , allora P 2 = P implica che P x = P 2 y = P y = x, quindi P x = x, cioè P è l’identità sul sottospazio imP . Se x ∈ im(I − P ), quindi x = (I − P )z per un certo z ∈ V , allora P x = P (I − P )z = (P − P 2 )z = 0. Se v ∈ im(P ) ∩ im(I − P ), allora si ha P v = v e P v = 0, quindi v = 0. Si noti che rispetto a questa decomposizione l’applicazione P è data da: P : v = vP + vI−P 7−→ vP , vP = P v ∈ imP, vI−P = (I − P )v ∈ im(I − P ). 2 Da ciò segue che im(I − P ) = ker(P ). 2.2.6 Lo spazio degli invarianti. Sia ρ : G → GL(V ) una rappresentazione di un gruppo su uno spazio vettoriale V . Lo spazio degli invarianti è V G := {v ∈ V : ρ(g)v = v ∀g ∈ G}. 2 RAPPRESENTAZIONI DI GRUPPI FINITI 32 Come appena visto, Hom(V, W )G = HomG (V, W ). P Sia G un gruppo finito. Se v ∈ V G allora ρ(g)v = v e quindi g∈G ρ(g)v = v +. . .+v = |G|v dove |G| è l’ordine di G. Definiamo: Π = Π0 : V −→ V, Π= 1 X ρ(g). |G| g∈G Allora per v ∈ V G si ha Πv = v. In più, per ogni v ∈ V is ha Πv ∈ V G perché per ogni h ∈ G: ! ! 1 X 1 X ρ(h)ρ(g) v = ρ(hg) v = Πv ρ(h)(Πv) = |G| g∈G |G| g∈G (si noti che se g varia in G anche hg, per h ∈ G fissato, varia in G). L’applicazione lineare Π è quindi un proiettore su V G : Π2 = Π, perché ΠV ⊂ V G e Π è l’identità su V G . Quindi V = im(Π) ⊕ ker(Π) = V G ⊕ ker(Π), v = (Πv, (I − Π)v). Se prendiamo una base e1 , . . . , ek di V G e una base ek+1 , . . . , en di ker(Π) otteniamo una base e1 , . . . , en di V rispetto alla quale la matrice P di Π ha tutti i coefficienti ugali a zero tranne P11 = P22 = . . . = Pkk = 1. In particolare Tr(Π) = dim V G . D’altra parte, dim V G = Tr(Π) = Tr( 1 X 1 X 1 X ρ(g)) = Tr(ρ(g)) = χ(g). |G| g∈G |G| g∈G |G| g∈G Questa formula, in combinazione con il Lemma di Schur ha delle consequenze notevoli. Si noti che se G = S2 , allora Πv = (v + ρ((12))v)/2 e (I − Π)v = (v − ρ((12))/2. Abbiamo già usato queste applicazioni nell’Esempio 2.1.5. 2.2.7 Caratteri irriducibili. Per studiare i caratteri delle rappresentazioni irriducibili, detti caratteri irriducibili, sfruttiamo il Lemma di Schur 2.1.7 che dà, per le rappresentazioni irriducibili ρ : G → V , τ : G → W : 1 se V ∼ = W, dim HomG (V, W ) = ∼ 0 se V 6= W. Il risultato della sezione 2.2.6 precendente, applicato alla rappresentazione ρ∗ ⊗ τ di G su Hom(V, W ) ci dà: dim HomG (V, W ) = 1 X 1 X χρ∗ ⊗τ (g) = χρ (g)χτ (g). |G| g∈G |G| g∈G Questo suggerisce di definire, per un gruppo finito G, un prodotto scalare (Hermitiano) (·, ·) sullo spazio vettoriale complesso delle funzioni α : G → C dato da (α, β) := 1 X α(g)β(g). |G| g∈G 2 RAPPRESENTAZIONI DI GRUPPI FINITI 33 Allora i caratteri irriducibili χ : G → C di G sono ortonormali per questo prodotto scalare: se ρ : G → GL(V ) e τ : G → GL(W ) sono rappresentazioni irriducibili allora 1 X 1 se ρ ∼ = τ, α(g)β(g) = dim HomG (V, W ) = (χρ , χτ ) = ∼ 0 se ρ 6= τ. |G| g∈G In particolare, i caratteri delle rappresentazioni irriducibili sono indipendenti, perciò il numero delle rappresentazioni irriducibili di un gruppo finito è al più |G|, la dimensione dello spazio delle funzioni G → C. In realtà, un carattere è costante sulle classi di coniugio (2.2.2.2), e quindi il numero delle rappresentazioni irriducibili è al più il numero delle classi di coniugio di G. Mostreremo l’ugualianza in 2.2.12. Per esempio, se G = S3 , le classi di coniugio sono (vedi anche 2.3.3) {e}, {(12), (13), (23)}, {(123), (132)}, quindi S3 , che ha 6 elementi, ha al più tre rappresentazioni irriducibili. Il seguente lemma, di frequente uso, è una semplice conseguenza del Teorema 2.1.3 e dell’ortonormalità dei caretteri irriducibili. 2.2.8 Lemma. Siano χ1 , . . . , χr i caratteri irriducibili di un gruppo finito G e sia ρi : G → GL(Vi ) la rappresentazione irriducibile corrispondente: χi (g) = Tr(ρi (g)). Sia ρ : G → V una rappresentazione di G. Allora la decomposizione di ρ in rappresentazioni irriducibili è V ∼ con ni = (χρ , χi ). = V1n1 ⊕ V2n2 ⊕ . . . ⊕ Vrnr , Inoltre, si ha: (χρ , χρ ) = n21 + n22 + . . . n2r . Dimostrazione. Il Teorema 2.1.3 garantisce che V ∼ = V1n1 ⊕V2n2 ⊕. . .⊕Vrnr per certe ni ∈ Z≥0 . Il carattere χρ di ρ è allora, vedi 2.2.2,4, il carattere n1 χ1 + . . . + nr χr . Per calcolare gli ni sfruttiamo l’ortonormalità dei caratteri irriducibili: X (χρ , χi ) = (n1 χ1 + . . . + nr χr , χi ) = nj (χj , χi ) = ni . j Dunque si ha: (χρ , χρ ) = (n1 χ1 + . . . + nr χr , n1 χ1 + . . . + nr χr ) = X i,j ni nj (χi , χj ) = X n2i . i 2 2.2.9 Esempio: il gruppo S3 . Sia G = S3 il gruppo delle permutazioni di tre elementi e sia ρ : S3 → W ⊥ ∼ = R2 la rappresentazione sul spazio perpendicolare a (1, 1, 1) ∈ R3 costruito nell’Esempio 2.1.6. Poiché R3 = W ⊕ W ⊥ e W è la rappresentazione banale, quindi ρ(g) = 1 per ogni g ∈ S3 e perciò χW (g) = 1, abbiamo χρ = 1 + χW ⊥ . Ovviamente (vedi Lemma 2.2.2) 2 RAPPRESENTAZIONI DI GRUPPI FINITI 34 χW ⊥ (e) = dim W ⊥ = 2. Se g = (12) allora ρ(g) fissa e3 e permuta e1 ed e2 , quindi χρ ((12)) = 1 e χW ⊥ ((12)) = 0. Poiché un carattere è costante sulle classi di coniugio, si ha χW ⊥ (g) = 0 per ognuno dei tre 2-cicli. Se g = (123), la traccia di ρ(g) è zero, e quindi χW ⊥ ((123)) = −1, e questo vale anche per l’altro 3-ciclo (132). Da qui segue: 6 1 (χW ⊥ , χW ⊥ ) = (22 + 3 · 02 + 2 · (−1)2 ) = = 1. 6 6 La conclusione è chePχW ⊥ è una rappresentazione irriducibile, P 2 perché nella decomposizione in irriducibili χW ⊥ = ni χi come nel Lemma 2.2.8 si ha ni = 1 e quindi esattamente una delle ni è 1 e le altre sono zero. Adesso conosciamo tre rappresentazioni irriducibili di S3 : la rappresentazione banale, con carattere χ0 (g) = 1 per ogni g ∈ S3 , la rappresentazione data dal segno di una permutazione, : S3 → {±1} ⊂ GL(C), e la rappresentazione due dimensionale appena costruita. Di solito, i caratteri irriducibile sono messi in una tabella dei caratteri come qui sotto. S3 χ0 χ χW ⊥ {e} 1 1 2 {(12), (23), (13)} 1 -1 0 {(123), (132)} 1 1 -1 Il prodotto scalare è dato da (1/6)(a1 b1 + 3a2 b2 + 2a3 b3 ) dove (a1 , a2 , a3 ) e (b1 , b2 , b3 ) sono due righe di questa matrice. Si verifica facilmente l’ortonormalità dei caratteri irriducibili. 2.2.10 La rappresentazione regolare. Per trovare il numero delle rappresentazioni irriducibili si studia la rappresentazione regolare di un gruppo finito G. Si consideri lo spazio vettoriale C[G], di dimensione |G|, con vettori di base gli eg dove g varia in G. È facile verificare che si ha una rappresentazione ρ = ρR : G −→ GL(C[G]), ρ(g)eh = egh . Poiché egh = eh se e solo se g = e, il carattere di questa rappresentazione è particolarmente semplice: |G| se g = e, χR (g) := χρR (g) = 0 se g 6= e. Nella decomposizione in irriducibili C[G] = V1n1 ⊕ V2n2 ⊕ . . . ⊕ Vrnr (cf. Lemma 2.2.8) si ha allora: 1 X χR (g)χi (g) = χi (e) = dim Vi , ni = (χR , χi ) = |G| g∈G cioè ogni rappresentazione irriducibile compare in ρR con moltiplicità uguale alla sua dimensione! Un altro risultato è: |G| = dim C[G] = dim(V1n1 ⊕ V2n2 ⊕ . . . ⊕ Vrnr ) = (dim V1 )2 + . . . + (dim Vr )2 , che dà, per esempio, una stima della dimensione di una rappresentazione irriducible di G. 2 RAPPRESENTAZIONI DI GRUPPI FINITI 35 2.2.11 Lo spazio generato dai caratteri. Sia ρ : G → GL(V ) una rappresentazione di un gruppo finito e sia α : G −→ C una funzione che è costante sulle classi di coniugio. Definiamo un endomorfismo di V con: X Φα,ρ : V −→ V, Φα,ρ = α(g)ρ(g). g∈G Allora Φα,ρ è G-equivariante: Φα,ρ ρ(h) = X g∈G α(g)ρ(g)ρ(h) = X α(g)ρ(gh), g∈G ed inoltre si noti che gh = h(h−1 gh) e che, per ipotesi, α(g) = α(h−1 gh) quindi: X X X Φα,ρ (ρ(h)v) = α(g)ρ(gh) = α(h−1 gh)ρ(h)ρ(h−1 gh) = ρ(h) α(g)ρ(g) = ρ(h)Φα,ρ g∈G g∈G g∈G dove abbiamo usato che h−1 gh varia in tutto G se g varia in tutto G. Supponiamo adesso che una funzione α : G → C sia costante sulle classi di coniugio e che (α, χi ) = 0 per ogni rappresentazione irriducibile di G. Per il Lemma di Schur, per ogni rappresentazione irriducibile ρi di G si ha Φα,ρi = λi I per un certo numero complesso λi . Quindi Tr(Φα,ρi ) = ni λi dove ni = dim Vi : λi = 1 X |G| 1 Tr(Φα,ρi ) = (α, χi ). α(g)Tr(ρi (g)) = ni ni g∈G ni Poiché (α, χi ) = 0 per ipotesi, abbiamo allora λi = 0 e quindi Φα,ρi = 0 per ogni rappresentazione irriducibile di G. Perciò Φα,ρ è zero per ogni rappresentazione ρ di G. Però nella rappresentazione regolare ρR le matrici ρR (g) sono indipendenti in End(C[G]), per esempio ρR (g) è l’unica matrice per cui il coefficiente ρg,e 6= 0 (questo perché ρ(h)ee = eh , quindiPla prima colonna di ρ(h) ha un unico coefficiente 1 e gli altri zero). In particolare, se Φα,ρR = g α(g)ρR (g) = 0 allora α(g) = 0 per ogni g ∈ G e quindi α = 0. Pertanto, ogni funzione α : G → C che è costante sulle classi di coniugio è contenuta nello spazio vettoriale generato dai caratteri delle rappresentazioni irriducibili. Poiché questi caratteri sono ortonormali si ha: 2.2.12 Teorema. I caratteri irriducibili formano una base ortonormale dello spazio vettoriale delle funzioni G → C che sono costanti sulle classi di coniugio. In particolare, il numero delle rappresentazioni irriducibili di G è uguale al numero delle classi di coniugio di G. 2.2.13 Esempio: gruppi abeliani. Sia G un gruppo abeliano, cioè gh = hg per ogni g, h ∈ G. Allora hgh−1 = g per ogni g, h ∈ G e quindi ogni elemento di G è una classe di coniugio. Perciò il numero delle classi di coniugio è r = |G|, che è anche il numero delle rappresentazioni irriducibili di G. 2 RAPPRESENTAZIONI DI GRUPPI FINITI 36 P Poiché ri=1 n2i = |G|, dove gli ni sono le dimenionsioni delle rappresentazioni irriducibile di G, ogni rappresentazione irriducibile di G ha dimensione uno(!). 2.2.14 Il groupring. Lo spazio vettoriale C[G] (vedi 2.2.10) è una C-algebra con moltiplicazione: X X X X X ( xg eg )( yg eg ) = xg yh egh = ( xh yk )eg . g,h hk=g Si noti che il prodotto non è commutativo se G non è commutativo. Questa algebra si chiama il groupring di G. Una rappresentazione ρ : G → GL(V ) induce un omomorfismo di algebre: X X ρ̃ : C[G] −→ End(V ), xg eg 7−→ xg ρ(g). Siano ρi : G → Vi (i = 1, . . . , r), le rappresentazioni irriducibili di G e sia ρ := ⊕ri=1 ρi : G −→ r Y GL(Vi ). i=1 Come abbiamo già notato, dim C[G] = |G| = P 2 i (dim Vi ) = P i dim End(Vi ) e l’omomorfismo ρ̃ : C[G] −→ ⊕ri=1 End(Vi ) è un isomorfismo. Per mostrare questo, si ricordi che la rappresentazione regolare ρR su C[G] è isomorfa a ⊕i Vini , dove i Vi sono le rappresentazioni irriducibili di G e ni = dim Vi . Quindi esiste una matrice M ∈ GL(N ), con N = |G| = dim C[G], tale che SρR (g)S −1 = diag(ρ1 (g), . . . , ρ1 (g), . . . , ρr (g), . . . , ρr (g)) {z } | {z } | n1 nr è una matrice con blocchi diagonali. Il sottospazio di End(CN ) generato dalle SρR (g)S −1 , dove g varia in G, ha dimensione |G| perché S è invertibile e i ρR (g), dove g varia in G, sono indipendenti (vedi 2.2.11). Quindi anche il sottospazio di End(CM ), con M = n1 +n2 +. . .+nr , generato dalle matrici ρ̃(g) = diag(ρ1 (g), ρ2 (g), . . . , ρr (g)). ha dimensione |G| e perciò ρ̃ è un isomorfismo di spazi vettoriali. Poiché ρ̃ è l’estensione Clineare di una rappresentazione di G si ha ρ̃(xy) = ρ̃(x)ρ̃(y), e quindi ρ̃ è un isomorfismo di algebre. Vedi 2.4.2 per un esempio. 2.3 Le classi di coniugio di Sm 2.3.1 Classi di coniugio. Si ricordi che due elementi g, g 0 di un gruppo G sono detti coniugati se esiste un h ∈ G tale che g 0 = hgh−1 . L’essere coniugati (o il coniugio) è una relazione di 2 RAPPRESENTAZIONI DI GRUPPI FINITI 37 equivalenza. Quindi le classi di equivalenza sono una partizione di G. Se C ⊂ G è un classe di coniugio e g ∈ C è un qualunque elemento di C allora C = Cg = {hgh−1 : h ∈ G}. Per esempio, se G è un gruppo abeliano allora ogni classe di coniugio consiste di un solo elemento perché hgh−1 = hh−1 g = g per ogni g, h ∈ G. Per ogni gruppo G la classe di coniugio dell’elemento neutro e ∈ G ha un solo elemento: Ce = {e}. 2.3.2 Decomposizione di permutazioni in cicli. Si ricordi che il gruppo Sm è l’insieme delle applicazioni biiettive g : {1, . . . , m} → {1, . . . , m} con prodotto la composizione (g1 g2 )(i) := g1 (g2 (i)) per ogni i ∈ {1, . . . , m}. Un ciclo è un elemento g ∈ Sm tale che ci siano interi distinti i1 , . . . , ir ∈ {1, . . . , m} per i quali g(i1 ) = i2 , g(i2 ) = i3 , . . . , g( ir−1 ) = g(ir ), g(ir ) = i1 , g(i) = i se i 6∈ {i1 , . . . , ir }. Si scrive g = (i1 i2 . . . ir ), g è detto un r-ciclo e l’ordine del ciclo è |g| = r (questo è proprio l’ordine dell’elemento g ∈ Sm ). Ogni permutazione è un prodotto di cicli disgiunti ([A], Proposizione 6.6). Si noti che se c, c0 sono due cicli disgiunti, allora commutano tra loro: cc0 = c0 c. Per esempio, l’identità e è il prodotto di m uno cicli: e = (1)(2) . . . (m), e la decomposizione in cicli della permutazione g ∈ S4 con g(1) = 3 g(2) = 2, g(3) = 4, g(4) = 1 è g = (134)(2). Sia g ∈ Sm e sia g = c1 c2 . . . ck la decomposizione di g in cicli disgiunti. Sia mi = |ci | ∈ Z>0 l’ordine del ciclo ci , allora m = m1 + m2 + . . . + mk . Poiché ci cj = cj ci possiamo scrivere ogni permutazione g ∈ Sm come prodotto di cicli disgiuni nel modo seguente: g = c1 c2 . . . ck , |c1 | ≥ |c2 | ≥ . . . ≥ |cr | la somma m = |c1 | + |c2 | + . . . + |cr | è detta partizione di un intero m associato ad g. Per esempio g = (134)(2) dà la partizione 4 = 3 + 1 e l’identità di Sm dà la partizone m = 1 + 1 + . . . + 1. 2.3.3 Le classi di coniugio di Sm . Sia c = (i1 i2 . . . ir ) ∈ Sm un r-ciclo e sia h ∈ Sm , allora è facile determinare il coniugato hch−1 che risulta essere anch’esso un r-ciclo. Infatti si ha: h(i1 i2 . . . ir )h−1 = (h(i1 ) h(i2 ) . . . h(ir )), perché se i 6∈ {h(i1 ), . . . , h(ir )} allora h−1 (i) 6∈ {i1 , . . . , ir } e quindi (ch−1 )(i) = c(h−1 (i)) = h−1 (i), perciò (hch−1 )(i) = h(h−1 (i)) = i; se invece i = h(ij ) per un certo j, allora (ch−1 )(i) = c(ij ) = ij+1 (con j + 1 = 1 se j = r) e perciò (hch−1 (h(ij )) = h(ij+1 ). 2 RAPPRESENTAZIONI DI GRUPPI FINITI 38 Se g = c1 c2 . . . cr allora hgh−1 = h(c1 c2 . . . cr )h−1 = (hc1 h−1 )(hc2 h−1 ) . . . (hcr h−1 ). Quindi ogni elemento in una classe di coniugio di una permutazione che è prodotto di r cicli con ordine m1 , . . . , mr è un prodotto di r cicli con ordine m1 , . . . , mr . In particolare gli elementi in una classe di coniugio di Sm determinano la stessa partizione di m. Non è difficile verificare che se due elementi in Sm determinano la stessa partizione, allora sono tra loro coniugati ([A], Proposizione 6.10(c)). Per esempio, siano g = (134)(2), g 0 = (1)(243) ∈ S4 . Entrambi due determinano la partizione 4 = 3 + 1. Allora g = hg 0 h−1 con h = (12)(34) perché hg 0 h−1 = (h(1))(h(2)h(4)h(3)) = (2)(134) = g. Quindi le classi di coniugio di Sm sono in biiezione con le partizioni di m. La classe di coniugio determinata dalla partizione m = m1 + m2 + . . . + mr è indicato con Cm1 ,m2 ,...,mr . Per esempio S3 ha tre classi di coniugio perché 3 ha esattamente tre partizioni: 3 = 3, 3 = 2 + 1, 3 = 1 + 1 + 1. Le classe di coniugio di S3 sono (dove non scriviamo gli 1-cicli): C3 = {(123), (132)}, C2,1 = {(12), (13), (23)}, C1,1,1 = {e}. Il gruppo S4 ha 5 classi di coniugio perché 4 ha esattamente cinque partizioni: 4 = 4, 4 = 3 + 1, 4 = 2 + 2, 4 = 2 + 1 + 1, 4 = 1 + 1 + 1 + 1. le classe di coniugio di S4 sono (dove non scriviamo gli 1-cicli): C4 = {(1234), (1243), . . .}, C3,1 = {(123), (132), . . .}, C2,1,1 = {(12), (13), . . .}, C2,2 = {(12)(34), (13)(24), . . .} C1,1,1,1 = {e}. Lasciamo al lettore la verifica del fatto che il numero di elementi in ogni classe di coniugio è dato da: |C4 | = 6, |C3,1 | = 8, P si noti che λ |Cλ | = |S4 | = 24. |C2,2 | = 3, |C2,1,1 | = 6, |C1,1,1,1 | = 1, 2.3.4 Esempio. Date le classe di coniugio in S4 non è difficile trovare i caratteri irriducibili, come abbiamo già fatto per S3 in 2.2.9. Ci sono la rappresentazione banale, con carattere χ0 e il segno, con carattere χ . Poi c’è la rappresentazione 3 dimensionale ρ3 su W ⊥ (vedi 2.1.6), è facile trovare il suo carattere χW ⊥ e verificare che (χW ⊥ , χW ⊥ ) = 1, quindi χW ⊥ è un carattere irriducibile. Poiché χW ⊥ ((12)) = 1, segue che la rappresentazione ρ3 tensorizzata con ha un carattere, dato da χρ3 ⊗ (g) = χW ⊥ (g)χ (g) che è diverso da χW ⊥ e che risulta essere irriducibile. Poi si trova il carattere di una quinta rappresentazione irriducile determinando 2 RAPPRESENTAZIONI DI GRUPPI FINITI 39 un vettore a = (a1 , . . . , a5 ) perpendicolare ai quattro caratteri già trovati e poi il carattere mancante è dato da a0 = λa dove λa1 > 0 (sarebbe la dimensione della quinta rappresentazione) e (a0 , a0 ) = 1. La tabella dei caratteri di S4 è quindi quella qui sotto, dove la prima riga dà la cardinalità dei classi di coniugio. S4 χ0 χ χρ3 χρ3 ⊗ χρ2 1 C1,1,1,1 1 1 3 3 2 6 C2,1,1 1 -1 1 -1 0 3 C2,2 1 1 -1 -1 2 8 C3,1 1 1 0 0 -1 6 C4 1 -1 -1 1 0 Il carattere χρ2 di S4 è molto simile al carattere χW ⊥ di S3 (vedi 2.2.9). Infatti, esiste un omomorfismo suriettivo φ : S4 → S3 tale che ρ2 è la composizione di φ con la rappresentazione ρW ⊥ : S3 → GL(W ⊥ ). Per definire φ, si noti che S4 ha una classe di coniugio C2,2 = {x1 = (12)(34), x2 = (13)(24), x3 = (14)(23)} con soltanto 3 elementi. La coniugazione con g ∈ S4 induce una permutazione di questi elementi, quindi esiste una permutazione σ degli indici 1, 2, 3 tale che gxi g −1 = xσ(i) . Ció definisce un’applicazione φ : S4 −→ S3 , g 7−→ σ se gxi g −1 = xσ(i) e si verifca facilmente che φ è un omomorfismo. Un rapido conto mostra che: φ((12)) = (23), φ((123)) = (132), φ((12)(34)) = e, φ((1234)) = (13). A questo punto è facile verificare che il carattere della rappresentazione ρW ⊥ ◦φ : S4 → GL(W ⊥ ) è χρ2 . Per n > 4 non ci sono omomorfismi suriettivi Sn → Sm con m > 2 (per m = 2 c’è il segno perché S2 ∼ = {±1}). 2.4 Le rappresentazioni irriducibili del gruppo simmetrico 2.4.1 Sottospazi invarianti nel groupring. Ogni rappresentazione irriducibile ρ di un gruppo finito G è presente, con molteplicità dim(ρ), nella rappresentazione regolare ρR del gruppo (vedi 2.2.10) sul groupring C[G]. Per g ∈ G e x ∈ C[G] si ha ρR (g)x = gx, quindi, per ogni y ∈ C[G] il sottospazio C[G]y ⊂ C[G] è G invariante, semplicemente perché se x ∈ C[G]y allora x = zy per un certo z ∈ C[G] e ρR (g)x = ρR (g)zy = ρR (g)zy = (gz)y ∈ C[G]y. Usando l’isomorfismo del groupring con il prodotto di algebre di matrici di 2.2.14, non è difficile mostrare che, dato ρ, esiste cρ ∈ C[G] tale che il sottospazio G-invariante C[G]cρ sia la rappresentazione irriducibile ρ di G. Nel caso del gruppo simmetrico, esistono espressioni esplicite per tali elementi, che si chiamano ‘simmetrizzatori di Young’(‘Young symmetrizers’), vedi 2.4.3. 2 RAPPRESENTAZIONI DI GRUPPI FINITI 40 2.4.2 Esempio. Per dare un isomorfismo esplicito tra C[S3 ] e M1 (C) × M1 (C) × M2 (C), determiniamo prima la rappresentazione ρ2 := ρW ⊥ : S3 → GL(2, C) in modo esplicito. Una base di W ⊥ = h(1, 1, 1)i⊥ ⊂ C3 è data da f1 , f2 (e f1 + f2 + f3 = 0): f1 = (2, −1, −1), f2 = (−1, 2, −1), f3 = (−1, −1, 2), g fi = fg(i) in particolare, S3 permuta gli fi . Le matrici dei ρ2 (g) rispetto a questa base sono: 0 1 −1 0 1 −1 ρ2 ((12)) = , ρ2 ((13)) = , ρ2 ((23)) = 0 −1 1 0 −1 1 e ρ2 ((123)) = 0 −1 1 −1 , ρ2 ((213)) = −1 1 −1 0 , e, ovviamente, ρ2 (e) = I. Otteniamo un isomorfismo ρ̃ : C[S3 ] −→ M1 (C) × M1 (C) × M2 (C), X xg eg 7−→ X xg (1, (g), ρ(g)). Si noti che ρ̃((12)) + ρ̃((13)) + ρ̃((23)) = (3, −3, 0), ρ̃((123)) + ρ̃((132)) = (2, 2, −I). Quindi troviamo: (1, 0, 0) = (1/6)( X g∈S3 ρ̃(g)) = Π0 , (0, 1, 0) = (1/6)( X (g)ρ̃(g)) =: Π , g∈S3 dove riconosciamo il proiettore sullo spazio degli invarianti Π = Π0 (vedi 2.2.6). Si noti in particolare che C[G]Π0 ∼ (a, b, c) 7−→ (a, 0, 0) = M1 (C), dà la sottorappresentazione banale di C[g]. Similmente, il sottospazio G-invariante C[G]Π = {(0, b, 0) : b ∈ C} di C[G] è la rappresentazione data dal segno. Il proiettore corrispondente alla rapresentazione due dimensionale è: (0, 0, I) = (2/3, 2/3, (2/3)I) − (2/3, 2/3, −(1/3)I) = (2/3)ρ̃(e) − (1/3)(ρ̃((123)) + ρ̃((132)) =: Π2 . Quindi il sottospazio G-invariante C[G]Π2 è isomorfo a M2 (C), che è 4-dimensionale. La rappresentazione di G = S3 su C[G]Π2 è isomorfa a due copie della rappresentazione irriducibile ρ2 . Se vogliamo un elemento c2 ∈ C[G] tale che C[G]c2 sia due dimensionale e tale che la rappresentazione di S3 su questo sottospazio sia ρ2 , dobbiamo avere che ρ̃(c2 ) = (0, 0, P ) con P una matrice di rango uno. Allora C[G]c2 ∼ = M2 (C)P , e si può mostrare che è costituita dalle matrici 2 × 2 che hanno lo stesso nucleo (di dimensione uno) di P ed è un sottospazio 2 RAPPRESENTAZIONI DI GRUPPI FINITI 41 di dimensione due di M2 (C). Poiché questo sottospazio è G-invariante ed è contenuto nella rappresentazione ρ2 ⊕ ρ2 , dà la rappresentazione ρ2 di G. Un esempio è: c2 = e + e(13) − e(12) − e(123) ∈ C[S3 ], ρ(c) = (0, 0, P ), dove P = ρ2 (c2 ) = 1 0 0 1 + −1 0 −1 1 − 0 1 1 0 − 0 −1 1 −1 = 0 0 −3 3 . 2.4.3 Diagrammi di Young e simmetrizzatori di Young. Data una partizione di un intero m ∈ Z>0 , m = m1 + . . . + mr , il suo diagramma di Young è una figura con m quadri, mi nella i-esima riga, come negli esempi in figura: , 3=1+1+1 , 4=4 . 8=4+3+1 Data la partizione λ = (m1 , . . . , mr ) di m, vogliamo costruire un elemento cλ in C[Sm ]. Per questo, scriviamo i numeri 1, 2 . . . , m nel diagramma di Young come nell’esempio (in realtà, cambiando l’ordine dei numeri si ottiene un elemento con proprietà simili e la rappresentazione definita è la stessa). 1 , 2 3 1 2 3 4 , 1 4 6 8 . 2 5 7 3 Poi definiamo due sottogruppi di Sm associati alla partizione λ = (m1 , . . . , mr ) di m: P = Pλ = {g ∈ Sm : g permuta gli elementi di ogni riga } e Q = Qλ = {g ∈ Sm : g permuta gli elementi di ogni colonna }. Per esempio: P1,1,1 = {e}, Q1,1,1 = S3 ; P4 = S4 , Q4 = {e}. Si ha P4,3,1 ∼ = S4 × S3 × S1 e Q4,3,1 ∼ = S3 × S2 × S2 × S1 (dove S1 = {e}), però S3 sottogruppo di P4,3,1 permuta i tre elementi di {2, 5, 7} e fissa gli altri elementi in {1, . . . , 8}, invece i gruppi simmetrici in Q permutano rispettivamente gli elementi di {1, 2, 3}, {4, 5}, {6, 7}, e fissano gli altri. 2 RAPPRESENTAZIONI DI GRUPPI FINITI 42 Usando i sottogruppi P e Q associati alla partizione λ = (m1 , . . . , mr ) di m, definiamo due elementi di C[G]: X X aλ := eg , bλ := (g)eg , g∈P g∈Q dove : Sm → {±1} è il segno. Poi definiamo il ‘simmetrizzatore di Young’ cλ := aλ bλ (∈ C[Sm ]). Il risultato principale, che non dimostriamo, vedi [FH], Theorem 4.3, è: 2.4.4 Teorema. Sia λ = (m1 , . . . , mr ) una partizione di m. Allora il sottospazio Sm -invariante del groupring C[Sm ] definito da cλ : Vλ := C[Sm ]cλ è una rappresentazione irriducibile, indicata con ρλ , di Sm . In questo modo si ottiene una biiezione tra le partizioni di m e le rappresentazioni irriducibili di Sm . 2.4.5 Esempio. Un esempio semplice è dato dalla partizione m = m. In questo caso P = Sm , Q = {e}, quindi X eg , bm = ee , quindi cm = am . am = g∈Sm P P P Poiché eh cm = g eh eg = g ehg = g eg = cλ , e gli eh sono una base di C[Sm ] troviamo che C[Sm ]cm = Ccm , uno spazio unidimensionale. Poiché ρR (h)eg = ehg si ha ρR (h)cm = cm , perciò Wm = C[Sm ]cm è la rappresentazione banale di Sm . Se λ = (1, 1, . . . , 1), si ha P = {e}, quindi aλ = ee , e Q = Sm . Perciò X cλ = c(1,...,1) = b(1,...,1) = (g)eg . g Si noti che eh cλ = X g (g)eh eg = X g (g)ehg = X (h−1 k)ek = (h)cλ , k dove k = hg varia in Sm se g varia in Sm e abbiamo usato che è un omomorfismo: (xy) = (x)(y), (x−1 ) = (x)−1 . Segue che Wλ = C[Sm ]cλ = Ccλ è unidimensionale e che la rappesentazione di Sm su Wλ è data da : Sm → GL(C) perché ρR (h)cλ = (h)cλ . Nel caso λ = (2, 1), abbiamo: P2,1 = {e, (13)}, Q2,1 = {e, (12)} quindi a2,1 = ee + e(13) , bλ = ee − e(12) , perciò il simmetrizzatore di Young di λ è: cλ = (ee + e(13) )(ee − e(12) ) = ee2 + e(13)e − ee(12) − e(13)(12) = ee + e(13) − e12) − e(123) , 2 RAPPRESENTAZIONI DI GRUPPI FINITI 43 e questo è proprio l’elemento c2 di 2.4.2. In 2.4.2 abbiamo visto che C[S3 ]c2 è la rappresentazione irriducibile, due dimensionale, di S3 . Diamo una verifica esplicita di questo fatto. Poiché Vλ = C[S3 ]cλ è due dimensionale (vedi anche la formula in 2.4.6), una base di Vλ è data da cλ , gcλ per un qualunque g ∈ S3 tale che questi due elementi siano indipendenti (ciò esclude ovviamente g = e e, meno ovvio, g = (13)). Prendiamo g = (12) allora: (12)cλ = (12)(ee + e(13) − e12) − e(123) ) = e(12) + e(132) − ee − e(23) , quindi cλ , (12)cλ sono indipendenti nello spazio vettoriale C[S3 ]. Poiché (12)2 = e, (12) scambia questi due vettori. In particolare, la matrice di moltiplicazione per (12) su questa base ha traccia zero. Allora si verifica che (123)cλ = e(123) +e(23) −e(13) −e(132) = −cλ −(12)cλ , (123)(12)cλ = e(13) +e−e(123) −e(12) = cλ . Quindi il sottospazio generato da cλ , (12)cλ è invariante per (12), (123) e, poiché queste due permutazioni generano S3 , tale sottospazio è invariante per S3 . Le matrici di moltiplicazione sono: 0 1 −1 1 ρλ : (12) 7−→ , ρλ : (123) 7−→ . 1 0 −1 0 In particolare, T r(ρλ ((12))) = 0 , T r(ρλ ((123))) = −1 e ovviamente T r(ρλ (e)) = 0. È facile verificare (e l’abbiamo già fatto!) che questo carattere è irriducibile. Segue che la rappresentazione ρλ è equivalente alla rappresentazione ρ2 di 2.4.2. Infatti, basta scambiare i due vettori di base cλ , (12)cλ per ottenere le matrici di ρ2 . 2.4.6 La dimensione di Vλ . Esiste un modo semplice per determinare la dimensione della rappresentazione irriducibile Vλ . Sia λ = {m1 , . . . , mr }, con m = m1 + . . . + mr , e consideriamo il diagramma di Young della partizione λ. Nel quadrato nella i-esima riga e j-esima colonna mettiamo il numero hij := 1 + dij + sij , dove dij è il numero dei quadrati a destra e sij è il numero dei quadrati sotto questo quadrato (questo numero si chiama la ‘hooklength’ del quadrato). Allora si ha m! dim Vλ = Q . i,j hij Qualche esempio: λ= 3 2 , 2 1 µ= 6 4 3 1 , 4 2 1 1 ρ= m m−2 ... ... 2 1 . 1 Quindi la partizione λ = {2, 2} di m = 4 definisce la rappresentazione irriducibile Vλ di S4 che ha dimensione 4·3·2·1 dim Vλ = =2 3·2·2·1 2 RAPPRESENTAZIONI DI GRUPPI FINITI 44 e, poiché S4 ha un’unica rappresentazione irriducibile di dimensione due, Vλ è la rappresentazione ρ2 trovata in 2.3.4. Si noti che Vµ è una rappresentazioe irriducibile di S8 di dimensione (8!)/(6 · 4 · 4 · 2 · 3) = 70. La partizione ρ = {m − 1, 1} di m definisce una rappresentazione irriducibile Vρ di Sm che ha dimensione m(m − 1)(m − 2)! = m − 1. dim Vρ = m · ((m − 2)!) · 1 Si può mostrare che Vρ è la rappresentazione W ⊥ di 2.1.6. 3 TENSORI E GRUPPO SIMMETRICO 3 45 Tensori e gruppo simmetrico Testi consigliati: [FH]. 3.1 Introduzione e risultati generali 3.1.1 L’azione di Sm su T m V Sia V uno spazio vettoriale reale di dimensione n. Per un intero m ∈ Z≥0 sono stati definiti nella sezione 3.1 gli spazi vettoriali: T 0 (V ) = R, T 1 V = V, T m V := |V ⊗ V ⊗ {z. . . ⊗ V} . m Per g ∈ Sm , l’applicazione τ (g) : T m V → T m V è per definizione la permutazione dei fattori del prodotto tensoriale che corrisponde a g. Quindi si sposta l’i-esima componente del prodotto tensoriale nella g(i)-esima componente. Per esempio, se v1 , v2 , v3 ∈ V : τ ((123)) : v1 ⊗ v2 ⊗ v3 7−→ v3 ⊗ v1 ⊗ v2 , perché (123) manda 1 7→ 2 quindi v1 compare nel secondo fattore dell’immagine, poi 2 7→ 3 quindi v2 compare nell’ultimo fattore, ecc. Si noti che v3 ⊗ v1 ⊗ v2 6= vg(1) ⊗ vg(2) ⊗ vg(3) . Per ottenere una formula per τ (g) si noti che τ (g) : v1 ⊗ v2 ⊗ . . . ⊗ vm 7−→ y1 ⊗ y2 ⊗ . . . ⊗ ym = vg−1 (1) ⊗ vg−1 (2) ⊗ . . . ⊗ vg−1 (m) perché, per definizione di τ , yj = vi dove j = g(i), cioè i = g −1 (j) e perciò yj = vg−1 (i) . E’ facile verificare che τ : Sm → GL(T m V ) è un omomorfismo: se τ (h)(y1 ⊗ . . . ⊗ ym ) = z1 ⊗ . . . ⊗ zm allora zk = yh−1 (k) = vg−1 (h−1 (k)) = v(hg)−1 (k) quindi τ (h)(τ (g)(v1 ⊗ . . . ⊗ vm )) = v(hg)−1 (1) ⊗ . . . ⊗ v(hg)−1 (m) = τ (hg)(v1 ⊗ . . . ⊗ vm ). Si può anche considerare un’azione di Sm da destra, su T m V , data da (v1 ⊗ . . . ⊗ vm ) · σ = vσ(1) ⊗ . . . ⊗ vσ(m) (vedi [FH], p.76, questo rende un po’ faticoso il confronto tra varie formule esplicite ma non cambia la sostanza). 3.1.2 L’azioni dei gruppi GL(V ) e Sm su T m V . Il gruppo GL(V ) agisce su T m V tramite l’omomorfismo ρ : GL(V ) −→ GL(T m V ), ρ(A)(v1 ⊗ v2 ⊗ . . . . . . ⊗ vm ) = (Av1 ) ⊗ (Av2 ) ⊗ . . . ⊗ (Avm ). Il gruppo simmetrico Sm agisce su T m V tramite l’omomorfismo (vedi 3.1.1: τ : Sm −→ GL(T m V ), τ (σ −1 )(v1 ⊗ v2 ⊗ . . . . . . ⊗ vm ) = vσ(1) ⊗ vσ(2) ⊗ . . . ⊗ vσ(m) . 3 TENSORI E GRUPPO SIMMETRICO 46 Queste azioni commutano, cioè: ρ(A)τ (σ −1 ) = τ (σ −1 )ρ(A), per ogni A ∈ GL(V ) e ogni σ ∈ Sm , infatti, entrambe mandano v1 ⊗ v2 ⊗ . . . . . . ⊗ vm 7−→ (Avσ(1) ) ⊗ (Avσ(2) ⊗ . . . ⊗ (Avσ(m) ). Spesso non scriveremo gli omomorfismi ρ, τ , ma semplicemente A(v1 ⊗. . . . . .⊗vm ) = (Av1 )⊗ . . . ⊗ (Avm ) e σ −1 (v1 ⊗ . . . . . . ⊗ vm ) = vσ(1) ⊗ . . . ⊗ vσ(m) . 3.1.3 Esempio. Consideriamo il caso n = 2. Il gruppo S2 ha soltanto due elementi, S2 = {e, g = (12)}. Poiché g 2 = e e τ (e) = I, l’identità su T 2 V , τ (g) : T 2 V → T 2 V è un’applicazione lineare con τ (g)2 = I. Quindi ogni elemento t di T 2 V si scrive nel modo seguente: t = (t + τ (g)t)/2 + (t − τ (g)t)/2 e, poiché τ (g)((t + τ (g)t)/2) = (t + τ (g)t)/2, τ (g)((t − τ (g)t)/2) = −(t − τ (g)t)/2, la decomposizione di T 2 V in autospazi di τ (g) è: T 2 V = S 2 V ⊕ A2 V, S 2 V = {x ∈ T 2 V : τ (g)x = x }, S 2 V = {x ∈ T 2 V : τ (g)x = −x }, 3.1.4 Gli spazi A2 V e ∧2 V . Se e1 , . . . , en è una base di V , allora ei ⊗ ej , 1 ≤ i, j ≤ n è una base di T 2 V e τ (g)(ei ⊗ ej ) = ej ⊗ ei . Quindi otteniamo una base di S 2 V e A2 V nel modo seguente: S 2 V = he1 ⊗ e1 , . . . , en ⊗ en , e1 ⊗ e2 + e2 ⊗ e1 , . . . , en−1 ⊗ en + en−1 ⊗ en i, A2 V = he1 ⊗ e2 − e2 ⊗ e1 , . . . , en−1 ⊗ en − en−1 ⊗ en i. Nella sezione 1.3.1 abbiamo definito il prodotto esterno ∧2 V di V e un’applicazione canonica Ψ : T 2 V −→ ∧2 V, u ⊗ v 7−→ u ∧ v = −v ∧ u. Lo spazio vettoriale ∧2 V ha una base data dalle ei ∧ ej con 1 ≤ i < j ≤ n. Poiché Ψ(ei ⊗ ei ) = ei ∧ ei = −ei ∧ ei = 0 e Ψ(ei ⊗ ej ) = ei ∧ ej , si ha Ψ(S 2 V ) = 0 e la restrizione ΨA di Ψ ad A2 V è un isomorfismo, con inversa Φ−1 A data da: ∼ = 2 2 Ψ−1 A : ∧ V −→ A V, 1 Ψ−1 A (u ∧ v) = 2 (u ⊗ v − v ⊗ u). Spesso si scrive (identificando A2 V e ∧2 V ): u ∧ v := 12 (u ⊗ v − v ⊗ u). In modo simile, scriviamo u v := 21 (u ⊗ v + v ⊗ u) (∈ S 2 V ), 3 TENSORI E GRUPPO SIMMETRICO 47 si dice che u v è il prodotto simmetrico di u e v. 3.1.5 Decomposizioni. Gli autospazi S 2 V e A2 V di τ (g) nell’ esempio 3.1.3 sono invarianti per GL(V ): ρ(A)(S 2 V ) ⊂ S 2 V, ρ(A)(A2 V ) ⊂ A2 V (A ∈ GL(V )), come si verifica per esempio considerando l’azione di GL(V ) sui vettori di base di S 2 V e di A2 V . Per generalizzare questa decomposizione consideriamo uno spazio vettoriale W , due gruppi, G e H, e due omomorfismi ρ : G −→ GL(W ), τ : H −→ GL(W ), t.c. ρ(g)τ (h) = τ (h)ρ(g) per ogni g ∈ G, h ∈ H, cioè le azioni di G e H commutano. Sia data una decomposizione W = W1 ⊕ W2 t.c. ρ(h)Wi ⊂ Wi per ogni h ∈ H, cioè gli spazi W1 , W2 sono H-invarianti (si dice anche che W1 , W2 sono sottorappresentazioni di H). Sia (come in 2.1.1) HomH (W1 , W2 ) := {f ∈ Hom(W1 , W2 ) : f (ρ(h)w1 ) = ρ(h)f (w1 ) ∀w1 ∈ W1 }. cioè HomH (W1 , W2 ) è l’insieme (in effetti uno spazio lineare) delle applicazioni lineari W1 → W2 che commutano con l’azione di H, dette applicazioni H-equivarianti. 3.1.6 Lemma. Siano ρ : G → GL(W ) e τ : H → GL(W ) rappresentazioni che commutano. Sia W = W1 ⊕ W2 e supponiamo che HomH (W1 , W2 ) = 0. Allora W1 è G-invariante. Dimostrazione. Per g ∈ G e w1 ∈ W1 , il vettore ρ(g)w1 ∈ W = W1 ⊕ W2 si scrive come ρ(g)w1 = (ρ1 (g)w1 , ρ2 (g)w1 ) ∈ W1 ⊕ W2 , ed è facile verificare che le ρi (g) : W1 → Wi , i = 1, 2, sono mappe lineari. Ora mostriamo che ρ2 (g) è H-equivariante, e quindi, per ipotesi, è zero. Segue allora che ρ(g)w1 = (ρ1 (g)w1 , 0) ∈ W1 come desiderato. Per mostrare che ρ2 (g) è H-equivariante, si noti che per ogni h ∈ H, g ∈ G e w1 ∈ W1 : τ (h)(ρ(g)w1 ) = τ (h)(ρ1 (g)w1 , ρ2 (g)w1 ) = (τ (h)(ρ1 (g)w1 ), τ (h)(ρ2 (g)w1 )), dove per la seconda ugualizanza si usa che τ (h)Wi ⊂ Wi , quindi τ (h)(ρ1 (g)w1 ) ∈ W1 , τ (h)(ρ2 (g)w1 ) ∈ W2 . D’altra parte, poiché τ (h) e ρ(g) commutano, troviamo: τ (h)(ρ(g)w1 ) = ρ(g)(τ (h)w1 ) = (ρ1 (g)(τ (h)w1 ), ρ2 (g)(τ (h)w1 )), dove per la seconda ugualianza si usa che τ (h)w1 ∈ W1 . Quindi abbiamo verificato che τ (h)(ρ2 (g)w1 ) = ρ2 (g)(τ (h)w1 ), per ogni w1 ∈ W1 e ogni h ∈ H, perciò ρ2 (g) ∈ HomH (W1 , W2 ). 2 3.1.7 Esempio. Sia W = T 2 V , H = S2 = {e, g} e W1 = S 2 V , W2 = A2 V come in 3.1.3. Allora per f ∈ HomH (W1 , W2 ) si ha f (ρ(g)w1 ) = f (w1 ) per ogni w1 ∈ S 2 V , mentre ρ(g)f (w1 ) = −f (w1 ) perché f (w1 ) ∈ A2 V . Quindi f (w1 ) = 0 per ogni w1 ∈ W1 e perciò HomH (W1 , W2 ) = 0. 3 TENSORI E GRUPPO SIMMETRICO 3.2 48 I funtori di Schur 3.2.1 La decomposizione intrinseca di T m V . Sullo spazio vettoriale W = T m V , ci sono le rappresentazioni ρ : GL(V ) → GL(W ) e τ : Sm → GL(W ) che commutano (vedi 3.1.2). La teoria delle rappresentazioni di Sm (vedi 2.4.4) da una decomposizione intrinseca: T m V = ⊕λ Wλ , n con Wλ ∼ = Vλ λ dove λ varia nell’insieme delle partizioni di m e Vλ è la rappresentazione irriducibile di Sm che corrisponde alla partizione λ. Poiché le rappresentazioni irriducibili Vλ e Vµ sono isomorfe se e solo se λ = µ, il Lemma di Schur implica (vedi 3.2.3): HomSm (Vλnλ , Vµnµ ) = 0 (λ 6= µ). Ogni Wλ := Vλnλ è allora GL(V )-invariante per il Lemma 3.1.6. 3.2.2 Esempio. Poiché conosciamo i caratteri irriducibili di S3 e non è difficile trovare il carattere χ = χτ della rappresentazione τ : S3 → T 3 V , si calcola facilmente le molteplicità nλ = (χ, χλ ) delle rappresentazioni irriducibili Vλ in T 3 V . Anzitutto, χ(e) = dim T 3 V = n3 dove n = dim V . Sia e1 , . . . , en una base di V . Se g ∈ S3 , allora g(e1 ⊗ e2 ⊗ e3 ) = eg−1 (1) ⊗ eg−1 (2) ⊗ eg−1 (3) , quindi g permuta questi vettori di base di T 3 V . Perciò la matrice τ (g) ha tutti i coefficienti uguali a zero, tranne τ (g)ij = 1 se g manda il j-esimo vettore di base di T 3 V nel’i-esimo vettore di base. Perciò χ(g) = T r(τ (g)) è uguale al numero dei vettori di base di T 3 V fissati da g. Se g = (12) allora g fissa esattamente i vettori di base di tipo ei ⊗ ei ⊗ ej , con 1 ≤ i, j ≤ n, quindi χ((12)) = n2 . In modo simile, g = (123), fissa esattamente gli ei ⊗ ei ⊗ ei , quindi χ((123)) = n. Sia per esempio λ = (2, 1), allora a questa partizione di 3 corrisponde la rappresentazione irriducibile due dimensionale di S3 che ha carattere χ2,1 (g) = 2, 0, −1 per g = e, (12), (123) rispettivamente (vedi 2.2.9). Quindi otteniamo: n3 − n 1 . n2,1 = (χ, χ2,1 ) = (n3 · 2 + 3 · n2 · 0 + 2 · n · (−1)) = 6 3 Si veda 3.2.10 per un altro modo di ottenere queste molteplicità. E’ un esercizio per il lettore verificare le formule per le molteplicità nλ (= dim Sλ V ) date in 3.2.10 nel caso n = 3, 4. n 3.2.3 Le applicazioni Sm -equivarianti. Studiamo lo spazio HomSm (Vλnλ , Vµ µ ) in maggior detaglio, in particolare nel caso λ = µ. Sia f : Vλnλ −→ Vµnµ Sm -equivariante. Allora f = (f1 , . . . , fnµ ) con fi : Vλnλ → Vµ . Poiché ogni coppia di Vµ è Sm -invariante, ogni fi è Sm equivariante. In più, poiché f è lineare, per v1 , . . . , vnλ ∈ Vλ si ha fi (v1 , . . . , vnλ ) = fi (v1 , 0 . . . , 0) + . . . + fi (0, . . . , 0, vnλ ). 3 TENSORI E GRUPPO SIMMETRICO 49 Per ogni i, j l’applicazione fij : Vλ −→ Vµ , v 7−→ fi (0, . . . , 0, v, 0, . . . , 0) (con v nella j-esima posizione) è Sm equivariante. Se λ 6= µ allora, per il Lemma di Schur, ogni fij = 0. Se invece λ = µ, ogni fij è uno scalare, quindi f = (fij ) è data da una matrice nλ × nλ , cioè: HomSm (Vλnλ , Vλnλ ) ∼ = M (nλ , C). In particolare, poiché ogni Wλ = Vλnλ è GL(V )-invariante e l’azione di ogni A ∈ GL(V ) è Sm -equivariante, otteniamo una rappresentazione ρλ : GL(V ) −→ GL(nλ , C), che risulta essere irriducibile, vedi il Teorema 3.2.6. Questa rappresentazione, indicata con Sλ V , è determinata da V e dalla partizione λ di m. La rappresentazione Sλ V di GL(V ) è contenuta in T m V , ma poiché la sua molteplicità non è uno, tranne per λ = (m) e λ = (1, 1, . . . , 1), non c’è in generale un modo intrinseco di ottenere Sλ V come sottospazio di T m V . Usando il simmetrizzatore di Young cλ di λ (che dipende da una scelta di inserire i numeri 1, . . . , m nel diagramma di Young e dalla scelta dell’azione di Sm su T m V a sinistra o a destra, che non è la stessa per tutti gli autori) si può mostrare che Sλ V ∼ = cλ T m V . Questa sarà la definizione di Sλ V qui sotto, ma vale la pena di ricordare (vedi 3.3.1 per esempio) che in generale ci sono altre applicazione GL(V )-equivarianti Sλ V ,→ T m V . 3.2.4 Il funtore di Schur. La rappresentazione di Sm su T m V dà, per ‘estensione C-lineare’, un omomorfismo di C-algebre C[Sm ] −→ End(T m V ), X X x= ag eg 7−→ [v1 ⊗ v2 ⊗ . . . ⊗ vm 7−→ ag vg−1 (1) ⊗ vg−1 (2) ⊗ . . . ⊗ vg−1 (m) ]. g g Sia λ = (m1 , . . . , mr ) una partizione di m e sia cλ ∈ C[Sm ] il simmetrizzatore di Young associato a λ (vedi 2.4.3). Definiamo il sottospazio Sλ V di T m V nel modo seguente: Sλ V := cλ T m V (= im(cλ : T m −→ T m V )). In questo modo assegnamo ad ogni spazio vettoriale V uno spazio vettoriale Sλ V : questa assegnazione si chiama il funtore di Schur (definito da λ). Si noti che data un’applicazione lineare f : V → W si ottiene un’applicazione indotta Sλ V → Sλ W , che è indicata con Sλ (f ). Il sottospazio vettoriale Sλ V di T m V è GL(V )-invariante perché l’azione di GL(V ) commuta con quella di Sm . 3.2.5 Il sottospazio (Sλ V ) ⊗ Vλ di T m V . Il Teorema 2.4.4 mostra che Vλ := C[Sm ]cλ è una rappresentazione irriducibile di Sm . Poiché il simmetrizzatore di Young soddisfa c2λ = kλ cλ ([FH], Theorem 4.3), per un intero kλ (6= 0), si ha cλ (Sλ V ) = Sλ V . Scrivendo f = cλ g, si vede che cλ f = kλ f per ogni f ∈ Sλ V . 3 TENSORI E GRUPPO SIMMETRICO 50 Siano g1 = e, . . . , gnλ ∈ Sm tali che gli gi cλ sono una base di Vλ e sia f1 , . . . , fmλ una base di Sλ V : λ λ Sλ V = ⊕ni=1 Cfi , Vλ = ⊕m j=1 Cgj cλ . Si può mostrare che l’applicazione (Sλ V ) ⊗ Vλ −→ T m V, fi ⊗ (gj cλ ) 7−→ gj cλ fi = kλ gj (fi ) è iniettiva. Quindi la sua immagine è una rappresentazione di Sm che è isomorfa a Vλmλ ed è una rappresentazione di GL(V ) isomorfa a (Sλ V )nλ . In questo modo si ottiene ([FH], Theorem 6.3(2), Lemma 6.22 e Exercise 6.30): 3.2.6 Teorema. La decomposizione di T m V in sottorappresentazioni irriducibili per il gruppo GL(V ) × Sm è data da: M T mV ∼ (Sλ V ) ⊗ Vλ = λ dove λ percorre le partizioni di m, Sλ V è una rappresentazione irriducibile di GL(V ) e Vλ è la rappresentazione irriducibile di Sm definita da λ. Si hanno in particolare le decomposizioni, in rappresentazioni irriducibili per Sm e GL(V ) rispettivamente: M n M T mV ∼ Vλ λ ∼ (Sλ V )mλ , nλ := dim Sλ V, mλ = dim Vλ . = = λ λ 3.2.7 Esempio: m = 2. Nel caso m = 2, le partizioni sono 2 = 2 e 2 = 1 + 1. Le due rappresentazioni irriducibili di S2 hanno dimensione 1: Vλ ∼ = C, perciò (Sλ V ) ⊗ Vλ ∼ = Sλ V . Otteniamo allora la decomposizione V ⊗V ∼ = S2 V ⊕ S1,1 V, S2 V ∼ = S 2 V, S1,1 V ∼ = ∧2 V, che è quella dell’Esempio 3.1.3. Infatti, si ha (vedi 2.4.5): c2 (v1 ⊗ v2 ) = (1 + (12))(v1 ⊗ v2 ) = v1 ⊗ v2 + v2 ⊗ v1 = 2v1 v2 , e similmente, c1,1 (v1 ⊗ v2 ) = (1 − (12))(v1 ⊗ v2 ) = v1 ⊗ v2 − v2 ⊗ v1 = 2v1 ∧ v2 . 3.2.8 Il prodotto alternante in T m V . L’applicazione canonica Ψ : T m V −→ ∧m V, v1 ⊗ v2 ⊗ . . . ⊗ vm 7−→ v1 ∧ v2 ∧ . . . ∧ vm , ristretta a S(1,1,...,1) V induce un isomorfismo ∼ = S(1,1,...,1) V = cλ T m V −→ ∧m V, 3 TENSORI E GRUPPO SIMMETRICO 51 per v1 ⊗ v2 ⊗ . . . vm ∈ T m V e λ = (1, 1, . . . , 1) si ha: cλ (v1 ⊗ v2 ⊗ . . . ⊗ vm ) = X Ψ (g)vg(1) ⊗ vg(2) ⊗ . . . ⊗ vg(m) 7−→ (m!)(v1 ∧ v2 ∧ . . . ∧ vm ). g∈Sm Si noti che se dim V < m, si ha S1,1,...,1 V = ∧m V = 0. In generale si ha (vedi 3.2.11): Sλ V = 0 se λ = (m1 , m2 , . . . , mr ) e dim V < r. 3.2.9 Il prodotto simmetrico in T m V . Il sottospazio Sm V di T m V è detto l’m-esimo prodotto simmetrico di V ed è scritto S m V . Per v1 , . . . , vm ∈ V si definisce il loro prodotto simmetrico, che sta in S m V , come X vg(1) ⊗ vg(2) ⊗ . . . ⊗ vg(m) . v1 v2 . . . vm := (m!)−1 cm (v1 ⊗ v2 ⊗ . . . ⊗ vm ) = (m!)−1 g∈Sm Si noti che v1 . . . vm è l’immagine di v1 ⊗ . . . ⊗ vm mediante il proiettore Π sullo spazio degli invarianti (vedi 2.2.6). In particolare, per ogni g ∈ Sm si ha: v1 v2 . . . vm = vg(1) vg(2) . . . vg(m) . Sia e1 , . . . , en una base di V , allora una base di S m V è data dalle ei1 ei2 . . . eim con i1 ≤ i2 ≤ . . . ≤ im . In modo simile a 1.3.3, ma considerando applicazioni simmetriche invece di applicazioni alternanti, si possono definire i sottospazi Ik di T k V nel modo seguente: I2 = h. . . , v1 ⊗ v2 − v2 ⊗ v1 , . . .iv1 ,v2 ∈V , Ik = Ik−1 ⊗ V ⊕ V ⊗ Ik−1 (⊂ T k V ). Allora si ha v1 ⊗ v2 = v2 ⊗ v1 in T 2 V /I2 e poi v1 ⊗ . . . ⊗ vm = vg(1) ⊗ . . . ⊗ vg(m) in T m V /Im per ogni g ∈ Sm . In particolare, v1 ⊗ v2 ⊗ . . . ⊗ vm = v1 v2 . . . vm (∈ T m V /Im ). Si può mostrare che T m V /Im ∼ = S m V e spesso si scrive (come anche per il prodotto ‘∧’) semplicemente v1 v2 . . . vm per l’elemento v1 v2 . . . vm di T m V /Im . La struttura di algebra su T (V ) = ⊕m T m V (vedi 1.3.3) induce una struttura di algebra su S ∗ V := T V /I, dove I = I2 ⊕ I3 ⊕ . . ., detta l’algebra simmetrica generata da V . Si ha un isomorfismo tra l’algebra simmetrica su V e l’anello dei polinomi in n = dim V variabili: S ∗V = ∞ M m=0 ∼ = S m V −→ C[x1 , . . . , xn ], ei1 ei2 . . . eim 7−→ xi1 xi2 . . . xim . 3 TENSORI E GRUPPO SIMMETRICO 52 3.2.10 La dimensione di Sλ V . Sia λ = (m1 , m2 , . . . , mr ) una partizione di m. Allora si ha la seguente formula per la dimensione dello spazio vettoriale Sλ V ([FH], Theorem 6.3(1) e Excercise 6.4): Yn−i+j dim Sλ V = , n = dim V, h ij i,j il prodotto è sugli m = m1 +. . .+mr quadrati nel diagramma di Young di λ e hij è il ‘hooklength’ del quadrato nel i-esima riga e j-esima colonna hij (vedi 2.4.6). Qualche esempio: λ= 3 1 , 1 µ= 3 2 , 2 1 ρ= m m−1 ... ... 2 1 . Se λ = (2, 1) ci sono tre quadrati con (i, j) = (1, 1), (1, 2), (2, 1) e hij è come indicato nel diagramma, quindi: dim S2,1 V = (n − 1 + 1)(n − 1 + 2)(n − 2 + 1) (n + 1)n(n − 1) n(n2 − 1) = = . 3·1·1 3 3 Se µ = (2, 2) ci sono quattro quadrati con (i, j) = (1, 1), (1, 2), (2, 1), (2, 2) e quindi: (n − 1 + 1)(n − 1 + 2)(n − 2 + 1)(n − 2 + 2) n2 (n2 − 1) dim S2,2 V = = . 3·2·2·1 12 Se ρ = (m), allora ci sono m quadrati con (i, j) = (1, 1), (1, 2), . . . , (1, m) e: dim Sm V = dim S m V = (n − 1 + 1)(n − 1 + 2) · · · (n − 1 + m) = m(m − 1) · · · 1 m+n−1 m , che è un coefficiente binomiale. Similmente, si calcola: dim S3,1 = (n + 2)(n + 1)n(n − 1) , 8 dim S2,1,1 = (n + 1)n(n − 1)(n − 2) , 8 e si verifica che dim S1,1,...,1 V = dim ∧m V = (nm ). 3.2.11 L’operatore bλ . In generale, non è facile identificare il sottospazio Sλ V = cλ T m V di T m V . Si ricordi (vedi 2.4.3) che cλ = aλ bλ e che bλ è dato da: X bλ := (g)eg , Q = Sµ1 × Sµ2 × . . . × Sµs , g∈Q dove µi è il numero dei quadrati nella i-esima colonna del diagramma di Young di λ. Si noti che µ1 = r, il numero delle righe. Cioè ogni g ∈ Q è un prodotto g1 g2 · · · gs = gs gs−1 · · · g1 , 3 TENSORI E GRUPPO SIMMETRICO 53 in modo unico, di permutazioni gj ∈ Sµj , e gj permuta soltanto i numeri nei quadrati nella j-esima colonna. Questo ci permette di scrivere: X X X (g1 )eg1 . bλ := (gs )egs (gs−1 )egs−1 · · · gs ∈Sµs g1 ∈Sµ1 gs−1 ∈Sµs−1 Poiché i numeri nella prima colonna sono 1, 2 . . . , µ1 , si ha: X (g1 )eg1 (V ⊗ . . . ⊗ V ) = (∧µ1 V ) ⊗ (V ⊗ . . . ⊗ V ) . | {z } {z } | g1 ∈Sµ1 m m−µ1 In questo modo, si ottiene: bλ (T m V ) = (∧µ1 V ) ⊗ (∧µ2 V ) ⊗ . . . ⊗ (∧µs V ) (⊂ T m V ). Si noti che bλ (T m V ) = 0 se uno dei ∧µj V = 0, cioè se µj > dim V . Poiché µ1 ≥ µ2 ≥ . . . ≥ µs e µ1 = r, bλ (T m V ) = 0 se r > dim V . In tal caso anche Sλ V = aλ bλ (T m V ) = 0. 3.2.12 Una base di Sλ V e diagrammi di Young. Sia e1 , . . . , en una base di V , allora esiste un modo efficiente per trovare una base di Sλ V . Sia λ una partizione di m e sia n = dim V . Esiste una base di Sλ V tale che i vettori di base sono in corrispondenza biunivoca con i ‘tableau semistandard’ di Young ([FH], Problem 6.15∗ ). Un tableau semistandard di Young è il diagramma di Young di λ dove in ogni quadrato compare un intero dell’insieme {1, . . . , n} in modo tale che i numeri in ogni colonna siano in ordine strettamente crescente (ai+k,j > ai,j se ai,j è l’intero nel quadrato nell’i-esima riga e j-esima colonna) mentre gli interi in ogni riga siano in ordine non-decrescente (ai,j+k ≥ ai,j ). La prima condizione corrisponde al fatto che Sλ V ⊂ (∧µ1 V ) ⊗ . . . ⊗ (∧µs V ). Per esempio, gli otto vettori di base di S2,1 V , con dim V = 3 corrispondono ai seguenti tableau semistandard: 11 , 2 3.3 11 , 3 22 , 3 12 , 2 13 , 3 23 , 3 13 , 2 12 . 3 Esempi: T 3 V e T 4 V . 3.3.1 La decomposizione di T 3 V . Sia m = 3. Ci sono tre partizioni di 3: 3, 2 + 1, 1 + 1 + 1 e le rappresentazioni corrispondenti di S3 hanno dimensione 1, 2, 1 rispettivamente. Perciò il Teorema 3.2.6, insieme a 3.2.9 e 3.2.8, ci dà: V ⊗V ⊗V ∼ = S(3) V ⊕ (S2,1 V )2 ⊕ S1,1,1 V ∼ = S 3 V ⊕ (S2,1 V )2 ⊕ ∧3 V. La rappresentazione S2,1 V di GL(V ) è l’immagine del simmetrizzatore di Young c2,1 : T 3 V → T 3 V . Si ha (vedi 2.4.5): c2,1 = a2,1 b2,1 = (ee + e(13) )(ee − e(12) ) = ee + e(13) − e(12) − e(123) . 3 TENSORI E GRUPPO SIMMETRICO 54 Si noti che b2,1 (v1 ⊗ v2 ⊗ v3 ) = v1 ⊗ v2 ⊗ v3 − v2 ⊗ v1 ⊗ v3 = 2(v1 ∧ v2 ) ⊗ v3 . Quindi, come abbiamo già visto in generale in 3.2.11, imb2,1 = (∧2 V ) ⊗ V. Ora si ha: S2,1 V = a2,1 (b2,1 T 3 V ) = a2,1 ((∧2 V ) ⊗ V ). Con a2,1 = e + e(13) si calcola: (e + e(13) )(v1 ⊗ v2 ⊗ v3 − v2 ⊗ v1 ⊗ v3 )) = v1 ⊗ v2 ⊗ v3 − v2 ⊗ v1 ⊗ v3 + v3 ⊗ v2 ⊗ v1 − v3 ⊗ v1 ⊗ v2 , quindi c2,1 (v1 ⊗ v2 ⊗ v3 ) = 2(v1 ∧ v2 ) ⊗ v3 + 2v3 ⊗ (v2 ∧ v1 ). In particolare, S2,1 V non è contenuto in (∧2 V ) ⊗ V . Posto (S 2 V )13 ⊗ V := hw1 ⊗ w2 ⊗ w3 + w3 ⊗ w2 ⊗ w1 : wi ∈ V i (⊂ T 3 V ), si ha che S2,1 V ⊂ (S 2 V )13 ⊗ V . Per capire meglio come è fatto lo spazio S2,1 V , si noti che l’applicazione data dal simmetrizzatore c3 : T 3 V → S 3 V , v1 ⊗ v2 ⊗ v3 7→ v1 v2 v3 (vedi 3.2.9) ristretto a (S 2 V )13 ⊗ V manda ogni elemento del sottospazio S2,1 V di T 3 V in zero: c3 (c2,1 (v1 ⊗ v2 ⊗ v3 )) = c3 (v1 ⊗ v2 ⊗ v3 − v2 ⊗ v1 ⊗ v3 + v3 ⊗ v2 ⊗ v1 − v3 ⊗ v1 ⊗ v2 ) = v1 v2 v3 − v2 v1 v3 + v3 v2 v1 − v3 v1 v2 = 0. Usando la formula per la dimensione degli Sλ V mostriamo che S2,1 V = ker(Ψ : (S 2 V )13 ⊗ V −→ S 3 V ). È facile vedere che Ψ è suriettiva, quindi dim ker(Ψ) = dim((S 2 V )13 ⊗ V ) − dim S 3 V = n+1 2 n− n+2 3 = n(n2 − 1) = dim S2,1 V, 3 e perciò ker(c3 ) = S2,1 V . Si noti che t 7→ (23)t dà un isomorfismo (che commuta con l’azione di GL(V )): (S 2 V )13 ⊗ V ∼ = (S 2 V ) ⊗ V := h(w1 w3 ) ⊗ w2 = w1 ⊗ w3 ⊗ w2 + w3 ⊗ w1 ⊗ w2 : wi ∈ V i. In generale si ha (vedi [FH], p.79) che Sd,1 ∼ = ker((S d V ) ⊗ V → S d+1 V ). 3.3.2 Una base di S2,1 V . Non è difficile verificare la formula per la dimensione di S2,1 V . Sia e1 , . . . , en una base di V . Una base di T 3 V è data dagli eijk := ei ⊗ ej ⊗ ek . Quindi Sλ V = c2,1 T 3 V , con c2,1 = ee − e12) + e(13) − e(123) è generato dagli fijk := c2,1 eijk = eijk − ejik + ekji − ekij (eijk := ei ⊗ ej ⊗ ek ). 3 TENSORI E GRUPPO SIMMETRICO 55 Si verifica facilmente che: fijk = −fjik , fikj = −fkij , fjki = −fkji , fijk + fkij + fjki = 0. In particolare, fijk = 0 se i = j = k (infatti, eiii ∈ S 3 V ). L’immagine del sottospazio tridimensionale di T 3 V generato da eiij , eiji , ejii , con i 6= j, ha dimensione uno ed è generato da fiji = −fjii perché c2,1 eiij = 0. Se i, j, k sono distinti, l’immagine del sottospazio sei dimensionale generato dai eσ(i)σ(j)σ(k) , dove σ varia tra le permutazioni di {i, j, k}, ha dimensione due. Una base dell’immagine è data da fijk e fikj . Il numero di vettori di base è allora facile da contare: n(n2 − 1) . dim S2,1 V = n(n − 1) + 2 (n3 ) = 3 Nel caso n = 3, la corrispondenza tra i tableau semistandard di 3.2.12 e i vettori di base fijk è data da i k ←→ c2,1 (ei ⊗ ej ⊗ ek ) = fijk . j 3.3.3 Lo spazio S2,1 V e tensori alternanti. Come osservato prima, il sottospazio Wλ ∼ = Vλnλ ∼ = (Sλ V ) ⊗ Vλ è definito in modo intrinseco da T m V , mentre il sottospazio Sλ V dipende da varie scelte non intrinseche. Per ogni x ∈ C[Sm ], la molteplicazione per x dà un’applicazione GL(V )-equivariante Sλ V → xSλ V . Poiché Sλ V è una rappresentazione irriducibile per GL(V ), se xSλ V 6= 0, quest’applicazione è un isomorfismo. Consideriamo per esempio λ = (2, 1) e x = ee − e(12) ∈ C[S3 ]. Usando: e(12) (c21 (v1 ⊗ v2 ⊗ v3 )) = v2 ⊗ v1 ⊗ v3 − v1 ⊗ v2 ⊗ v3 + v2 ⊗ v3 ⊗ v1 − v1 ⊗ v3 ⊗ v2 , otteniamo che (ee − e(12) )(c21 (v1 ⊗ v2 ⊗ v3 )) = 2(v1 ∧ v2 ) ⊗ v3 − (v2 ∧ v3 ) ⊗ v1 − (v1 ∧ v3 ) ⊗ v2 , e quindi S2,1 ∼ = (ee − e(12) )S2,1 ⊂ (∧2 V ) ⊗ V. Una certa combinazione lineare di questi elementi è più semplice: xc2,1 (v1 ⊗ v2 ⊗ v3 − v1 ⊗ v3 ⊗ v2 ) = 3((v1 ∧ v2 ) ⊗ v3 + (v1 ∧ v3 ) ⊗ v2 ). Si verifica che l’applicazione naturale Ψ : T 3 V → ∧3 V , data da Ψ(v1 ⊗ v2 ⊗ v3 ) = v1 ∧ v2 ∧ v3 , manda ogni elemento del sottospazio (ee − e(12) )S2,1 di T 3 V in zero ed è suriettiva. Quindi dim ker(Ψ) = dim((∧2 V ) ⊗ V ) − dim ∧3 V = (n2 ) n − (n3 ) = e perciò ([FH], p.76) n(n2 − 1) = dim S2,1 V, 3 S2,1 V ∼ = ker(Ψ : (∧2 V ) ⊗ V −→ ∧3 V ). 3 TENSORI E GRUPPO SIMMETRICO 56 In generale, S2,1,...,1 V ∼ = ker(∧m−1 V ⊗ V −→ ∧m V ) ([FH], p.79). Nel libro [FH] p.76, lo spazio S2,1 V è definito usando un certo simmetrizzatore di Young e l’azione a destra, e il loro spazio è generato dalle v1 ⊗ v2 ⊗ v3 + v2 ⊗ v1 ⊗ v3 − v3 ⊗ v2 ⊗ v1 − v3 ⊗ v1 ⊗ v2 ∈ (∧2 V )13 ⊗ V, cioè, questi generatori sono antisimmetrici rispetto all’azione di (13). E’ facile vedere che lo spazio generato da questi elementi è (23)xc2,1 T 3 V ⊂ (Sλ V ) ⊗ Vλ , e quindi è isomorfo, come rappresentazione di GL(V ), al nostro spazio Sλ V . 3.3.4 La decomposizione di T 4 V . Sia m = 4, ci sono cinque partizioni di 4: (4), (3, 1), (2, 2), (2, 1, 1), (1, 1, 1, 1) e le rappresentazioni corrispondenti di S4 hanno dimensione 1, 3, 2, 3, 1 rispettivamente. Perciò il Teorema 3.2.6, in combinazione con 3.2.9 e 3.2.8, si da: V ⊗V ⊗V ⊗V ∼ = S 4 V ⊕ (S3,1 V )3 ⊕ (S2,2 V )2 ⊕ (S2,1,1 V )3 ⊕ ∧4 V. Consideriamo il sottospazio S2,2 = c2,2 T 4 V di T 4 V . Come nell’esempio 3.3.1 si ha: b2,2 T 4 V = (∧2 V ) ⊗ (∧2 V ) ⊂ (V ⊗ V ) ⊗ (V ⊗ V ). In questo caso non è facile descrivere a2,2 (b2,2 T 4 V ). Visto che a2,2 = (ee + e(13) )(ee + e(24) ) si ha: a2,2 T 4 V = (S 2 V )13 ⊗ (S 2 V )24 ⊂ V ⊗ V ⊗ V ⊗ V, quindi S2,2 V = a2,2 (b2,2 T 4 V ) ⊂ (S 2 V )13 ⊗ (S 2 V )24 . Poiché l’azione di S4 commuta con quella di GL(V ), lo spazio (23)S2,2 V è isomorfo, come rappresentazione di GL(V ) a S2,2 e si ha: S2,2 V ∼ = (23)S2,2 V ⊂ (S 2 V ) ⊗ (S 2 V ) ⊂ (V ⊗ V ) ⊗ (V ⊗ V ). Si ha una decomposizione di GL(V )-rappresentazioni: (S 2 V ) ⊗ (S 2 V ) ∼ = S 2 (S 2 V ) ⊗ ∧2 (S 2 V ). Un elemento di (S 2 V ) ⊗ (S 2 V ) è una combinazione lineare di tensori del tipo: (ei ej ) ⊗ (ek el ) = fijkl + fjikl + fijlk + fjilk ⊂ (S 2 V ) ⊗ (S 2 V ) dove gli ei sono una base di V e fijkl = ei ⊗ ej ⊗ ek ⊗ el . Poi un elemento in S 2 (S 2 V ) è combinazione lineare di tensori del tipo: gijkl := (ei ej ) ⊗ (ek el ) + (ek el ) ⊗ (ei ej ) ⊂ S 2 (S 2 V ). Lasciamo al lettore il piacere di verificare che (23)c2,2 (fijkl ) = gikjl − gjkil (∈ S 2 (S 2 V )). Quindi l’immagine dell’applicazione (23)c2,2 : T 4 V → T 4 V è contenuta in S 2 (S 2 V ) e perciò (23)S2,2 V ⊂ S 2 (S 2 V ). 3 TENSORI E GRUPPO SIMMETRICO 57 La restrizione dell’applicazione c4 : T 4 V −→ S 4 V, fijkl 7−→ ei ej ek el a S 2 (S 2 V ) manda gikjl − gjkil nello 0 ed è suriettiva. Calcolando le dimensioni si vede che S2,2 V ∼ = (23)S2,2 V = ker(c4 : S 2 (S 2 V ) −→ S 4 V ), infatti dim S 2 (S 2 V ) − dim S 4 V = = = (n(n+1)/2)n(n+1)/2+1 − (n+3)(n+2)(n+1)n 2 24 n(n+1)(3(n(n+1)+2)−(n+3)(n+2)) 24 n2 (n2 −1) 12 = dim S2,2 V. 3.3.5 La rappresentazione S2,2 V e S 2 (∧2 V ). Per la geometria riemanniana c’è un’altra copia della GL(V )-rappresentazione S2,2 in T 4 V che è di grande interesse (vedi [FH], Exc. 23.38, 2 p.427). Si ricordi che S2,2 V ⊗ V2,2 ∼ ⊂ T 4 V , e che in 3.3.4 abbiamo visto che ci sono le = S2,2 due copie S2,2 V := c2,2 T 4 V e (23)S2,2 V = e23 S2,2 , quindi ogni altra copia di S2,2 V in T 4 V è ottenuta come (aee + be(23) )S2,2 V per certi a, b ∈ C. Ora consideriamo il sottospazio S 2 (∧2 V ) ,→ (∧2 V ) ⊗ (∧2 V ). Se le ei sono una base di V , questo spazio è generato dalle hijkl := (ei ∧ ej ) (ek ∧ el ) = fijkl − fjikl − fijlk + fijlk + fklij − flkij − fklji + flkji . dove fijkl = ei ⊗ ej ⊗ ek ⊗ el . Lasciamo verificare al lettore che 2c22 fijkl + (13)c2,2 fijkl = 2hijkl + hikjl − hiljk ∈ S 2 (∧2 V ). Perciò S 2 (∧2 V ) contiene (2ee + e(23) )S2,2 , che è una copia di S2,2 . Si verifica anche, usando 3.2.10, che S2,2 V ∼ = (2ee + e(23) )S2,2 V = ker(c4 : S 2 (∧2 V ) −→ ∧4 V ). 4 GEOMETRIA DIFFERENZIALE 4 58 Geometria differenziale Testi consigliati: [dC], [D], [DNF1], [DNF2], [T], [Wa]. 4.1 Richiami di analisi. 4.1.1 Diffeomorfismi. Sia U ⊂ Rm un sottoinsieme aperto. L’algebra delle funzioni lisce su U si indica con C ∞ (U ). Sia F = (F1 , F2 , . . . , Fn ) : U −→ Rn un’applicazione liscia, cioè ogni Fi : U → R è in C ∞ (U ). Un’applicazione liscia F : U → V := F (U ) (⊂ Rn ) è detta diffeomorfismo su U se esiste una mappa liscia G : V → U tale che F ◦ G = idF (U ) e G ◦ F = idU . In tal caso si ha m = n. La matrice jacobiana di F in p ∈ U è la matrice n × m definita da: (∂F1 /∂t1 )(p) . . . (∂F1 /∂tm )(p) .. .. Jp (F ) = (∈ Mn,m (R)), . . (∂Fn /∂t1 )(p) . . . (∂Fn /∂tm )(p) dove le ti sono le coordinate su Rm . Per x ∈ Rm , il vettore Jp (F )x ∈ Rn è dato da: Jp (F )x = (dF (p + tx)/dt)|t=0 , quindi Jp (F ) determina il comportamento di F ‘vicino’ a p. Per esempio si ha: 4.1.2 Teorema della funzione inversa. Sia U un aperto in Rm e sia F : U → Rm un’applicazione liscia. Supponiamo che la matrice jacobiana Jp (F ) sia invertibile in un punto p ∈ U . Allora esiste un intorno aperto U 0 di p tale che F (U 0 ) è aperto e che l’ applicazione F|U 0 : U 0 → F (U 0 ) è un diffeomorfismo. 4.2 Varietà differenziabili 4.2.1 Definizione di varietà. Sia M uno spazio topologico non-vuoto di Hausdorff. Una carta locale di M è una coppia (U, φ) dove U ⊂ M è un aperto e φ : U → φ(U ) (⊂ Rm ) è un omeomorfismo. Due carte locali (U, φ), (V, ψ) sono dette compatibili se φ ◦ ψ −1 : ψ(U ∩ V ) −→ φ(U ∩ V ) è un diffeomorfismo. Si noti che in tal caso anche (φ ◦ ψ −1 )−1 = ψ ◦ φ−1 è un diffeomorfismo. Un atlante di M è una collezione {(Ui , φi )i∈I di carte locali compatibili tale che M = ∪i∈I Ui . Se M è connesso segue che il numero intero m non dipende della carta dell’ atlante ed è detto dimensione di M . 4 GEOMETRIA DIFFERENZIALE 59 Sia A = {(Ui , φi )}i∈I un atlante di M e sia (V, ψ) una carta locale compatibile con tutte le (Ui , φi ). Allora anche {(Ui , φi )}i∈I ∪ {(V, ψ)} è un atlante di M . Prendendo quindi l’unione di tutte le carte compatibili con un atlante dato, otteniamo un atlante massimale, cioè un atlante che non è propriamente contenuto in nessun altro atlante. In particolare, ogni atlante di M è contenuto in un unico atlante massimale. Una varietà differenziabile è una coppia (M, A) dove M è uno spazio topologico non-vuoto di Hausdorff ed A è un atlante massimale di M . Si richiede inoltre che la topologia di X sia a base numberabile, condizione tecnica verificata per gli esempi considerati in queste note. Un esempio di varietà è lo spazio vettoriale Rn , con la topologia euclidea, con l’atlante massimale definito dall’atlante, con una sola carta locale, {(Rn , idRn )}. Un sottoinsieme aperto U di una varietà M , con le restrizioni delle carte locali di M ad U , è una varietà. Sia (U, φ) una carta di M . Si noti che per ogni diffeomorfismo δ : φ(U ) → δ(φ(U )) ⊂ Rm , anche (U, δ ◦ φ) è una carta di M . In particolare, se p ∈ U e δ(x) = x − φ(p), la carta locale (U, ψ := δ ◦ φ) soddisfa ψ(p) = 0. 4.2.2 Applicazioni lisce. rispettivamente. Sia Siano M, N varietà differenziabili di dimensione m ed n f : M −→ N un’applicazione continua. L’applicazione f è detta liscia in p ∈ M se per ogni carta (U, φ) di M , con p ∈ U , e ogni carta (V, ψ) di Y , con f (p) ∈ V , l’applicazione ψ ◦ f ◦ φ−1 : φ(U ∩ f −1 (V )) −→ ψ(V ) (⊂ Rn ) è liscia in φ(p) ∈ φ(U ∩ f −1 (V )) (⊂ Rm ). Se scriviamo F = ψ ◦ f ◦ φ−1 , allora F = (F1 , . . . , Fn ) è definita sull’aperto φ(U ∩ f −1 (V )) di Rm che contiene φ(p) e f liscia in p vuole dire che ogni Fi è liscia nel punto φ(p). Per verificare se f è liscia in p ∈ M basta verificarlo per una sola carta (U, φ) e una sola carta (V, ψ) perché se (U 0 , φ0 ), (V 0 , ψ 0 ) sono altre carte, si ha: ψ 0 ◦ f ◦ (φ0 )−1 = (ψ 0 ◦ ψ −1 ) ◦ ψ ◦ f ◦ φ−1 ◦ (φ ◦ (φ0 )−1 ). Poiché le mappe ψ 0 ◦ ψ −1 , φ ◦ (φ0 )−1 sono diffeomorfismi, e per ipotesi ψ ◦ f ◦ φ−1 è liscia, segue che l’applicazione ψ 0 ◦ f ◦ (φ0 )−1 è liscia. L’applicazione f è detta liscia se è liscia in ogni p ∈ M . E’ facile verifcare che la composizione di due applicazioni liscie è liscia. 4.2.3 Funzioni lisce. Un caso particolare di applicazioni lisce sono quelle della forma f : V −→ R dove V è un aperto in una varietà M . L’algebra delle funzioni lisce su V è denotato con C ∞ (V ). Un esempio importante di funzioni lisce è quello delle funzioni coordinate di una carta. Sia (U, φ = (x1 , . . . , xm )) una carta di M , allora xi ∈ C ∞ (U ), per ogni i = 1, . . . , m, perché se (t1 , . . . , tm ) = φ(p) ∈ φ(U ) ⊂ Rm allora: (xi ◦ φ−1 )(t1 , . . . , tm ) = xi (p) = ti 4 GEOMETRIA DIFFERENZIALE 60 e la funzione (t1 , . . . , tm ) 7→ ti è ovviamente liscia. 4.2.4 Il rango di una mappa liscia. Sia f : M → N una mappa liscia tra varietà di dimensione m e n rispettivamente. Sia p ∈ M e siano (U, φ), (V, ψ) carte di M e N con p ∈ U e f (p) ∈ V . Allora F = (F1 , . . . , Fn ) := ψ ◦ f ◦ φ−1 è una mappa liscia su un intorno di φ(p) ∈ Rm e la sua matrice jacobiana in φ(p) è: Jφ(p) (F ) := (∂Fi /∂tj )(φ(p)) dove t1 , . . . , tm sono le coordinate su Rm . Il rango di f in p è definito come il rango della matrice Jφ(p) (F ). Questa definizione non dipende dalle scelta delle carte. Se invece di F consideriamo G = β ◦ F ◦ α dove α e β sono diffeomorfismi locali, allora, poiché J(G) = J(β)J(F )J(α) e J(β), J(α) sono applicazioni lineari invertibili, segue che il rango di J(G) è uguale a quello di J(F ). 4.2.5 Sommersioni. Sia f : M → N un’applicazione liscia tra varietà di dimensione m e n rispettivamente. L’applicazione è detta sommersione in p ∈ M se il rango di f in p è uguale a n = dim N . In tal caso, dim M ≥ dim N e f ha rango massimale in p ∈ M . 4.2.6 Sottovarietà. Un sottoinsieme K ⊂ M è una sottovarietà di M se per ogni p ∈ K esiste una carta (U, φ = (x1 , . . . , xn )) di M con p ∈ U e tale che K ∩ U = {q ∈ M : xr+1 (q) = . . . = xm (q) = 0 } per qualche r, cioè, tramite l’omeomorfismo φ : U → φ(U ) ⊂ Rm , l’immagine di K (più precisamente: di K ∩ U ) è un aperto di un sottospazio lineare di Rm . Una sottovarietà è una varietà che ha per carte gli (U ∩ K, φ̄ = (x1 , . . . , xr )) con (U, φ) come sopra. Si verifica facilmente che l’inclusione i : K ,→ M è un’applicazione liscia. In particolare, la restrizione a K di una funzione liscia su M è liscia. Un risultato importante è il seguente teorema. 4.2.7 Teorema. Sia f : M → N è un’applicazione liscia tra varietà di dimensione m e n rispettivamente. Sia q ∈ N tale che f è una sommersione in ogni p ∈ f −1 (q). Allora f −1 (q) è una sottovarietà di dimensione r = m − n di M . 4.2.8 Esempio: la sfera. Sia F : Rn+1 −→ R la mappa definita da F (x) = x21 + . . . + x2n+1 . Usando le carte locali sulle varietà Rn+1 e R che sono individuate dalle identità, si ha: F (x) = n+1 X x2i , Jx (F ) = (2x1 2x2 . . . 2xn+1 ). i=1 Quindi se x 6= 0 la matrice Jx (F ) ha rango 1 = dim R e concludiamo che F è una sommersione sull’aperto Rn+1 − {0} di Rn+1 . 4 GEOMETRIA DIFFERENZIALE 61 Dal Teorema 4.2.7 segue allora che F −1 (1) è una sottovarietà di Rn+1 , quindi la sfera di dimensione n è una varietà: X S n = {x ∈ Rn+1 : x2i = 1 } = F −1 (1). 4.2.9 Esempio: il gruppo SL(n, R). determinante 1 è una varietà. Sia Mostriamo che il gruppo delle matrici con 2 F = det : Mn (R) ∼ = Rn −→ R, A = (aij ) 7−→ det(A). Per calcolare ∂ det /∂xij si sviluppi il determinante della matrice X = (xij ) rispetto l’i-esimo riga: n X det(X) = det(xij ) = (−1)i+j xij det(Xij ) j=1 dove Xij ∈ Mn−1 (R) è la matrice ottenuta cancellando l’i-esima riga e la j-esima colonna della matrice X. Poiché in questa formula xij compare soltanto davanti a det(Xij ), si ha ∂ det /∂xij = (−1)i+j det(Xij ). Quindi la matrice JX (F ), con una sola riga e n2 colonne, ha rango massimale se det(Xij ) 6= 0 per almeno una coppia i, j. La formula qui sopra mostra inoltre che det(X) 6= 0 implica che almeno uno delle det(Xij ) è non-zero. Quindi, per X nell’ aperto GL(n, R) di Mn (R), dato dalle matrici con det(A) 6= 0, JX (F ) ha rango massimale. Perciò det è un sommersione su SL(n, R) = {A ∈ Mn (R) : det(A) = 1 } = F −1 (1). Dal teorema segue che SL(n, R) è una varietà. La dimensione di SL(n, R) è n2 − 1. Un altro modo di mostrare che det ha rango massimale su GL(n, R) è di usare il fatto che per una mappa liscia γ : R → Mn (R) si ha: J0 (det ◦γ) = Jγ(0) (det)J0 (γ), dove si noti che J0 (det ◦γ) = (d/dt)(det(γ))(0) è una matrice 1 × 1. Sia X ∈ GL(n, R) e definiamo γ(t) = (1 + t)X ∈ Mn (R). allora γ(0) = X e J0 (det ◦γ) = ((d/dt)(det((1 + t)X))|t=0 = ((d/dt)((1 + t)n det(X))|t=0 = (n(1 + t)n−1 det(X))|t=0 = n det(X) 6= 0 quindi anche Jγ(0) (det) = JX (det) 6= 0 e siccome JX (det) ha soltanto una riga, concludiamo che det ha rango massimale in X ∈ GL(n, R). 4 GEOMETRIA DIFFERENZIALE 62 4.2.10 Esempio: il gruppo O(n,R). Il gruppo ortogonale reale è il sottogruppo di GL(n, R) definito da O(n, R) := {A ∈ Mn (R) : t AA = I }, in particolare, per A ∈ O(n, R) si ha A−1 = t A. Per mostrare che O(n, R) è una sottovarietà di GL(n, R), definiamo prima Symn (R) := {X ∈ Mn (R) : t X = X }, cioè, Symn (R) è lo spazio vettoriale reale delle matrici n × n simmetriche. Si noti che dim Symn (R) = n(n + 1)/2. Definiamo poi un’applicazione liscia tra spazi vettoriali: F : Mn (R) −→ Symn (R), A 7−→ t AA, e notiamo che O(n, R) = F −1 (I). Mostriamo che F è una sommersione su F −1 (I). Sia A ∈ F −1 (I), dobbiamo mostrare che JA (F ) ha rango massimale, oppure, equivalentemente, che JA (F ) è un’applicazione suriettiva. Se consideriamo JA (F ) come matrice con 2 n2 colonne e n(n + 1)/2 righe, allora per X ∈ Mn (R) che corrisponde a x ∈ Rn si ha che JA (F )x = y ∈ Rn(n+1)/2 , dove y corrisponde alla matrice simmetrica Y data da: Y = d F (A dλ + λX)|λ=0 se y = JA (F )x. Per A ∈ F −1 (I) e X ∈ Mn (R), si ha: d F (A dλ + λX)|λ=0 = d t ( (A dλ + λX)(A + λX))|λ=0 = d t ( AA dλ = t + λ(t AX + t XA) + λ2 (t XX))|λ=0 AX + t XA. Si noti che t AX + t XA = 0 equivale a t AX = −t XA e, poiché −t XA = −t (t AX), questo equivale inoltre a t AX = −t (t AX), cioè t AX è una matrice antisimmetrica. Poiché A è invertibile otteniamo un isomorfismo ∼ = ker(JA (F )) ∼ = {X ∈ Mn (R) : t AX = −t (t AX) } −→ {Z ∈ Mn (R) : t Z = −Z}, X 7−→ t AX, con inversa Z 7→ t A−1 Z. Quindi dim ker(JA (F )) = n(n − 1)/2 per ogni A ∈ F −1 (I) e perciò dim im(JA (F )) = n2 − n(n − 1)/2 = n(n + 1)/2 = dim Symn (R). Concludiamo che JA (F ) ha rango massimale per ogni A ∈ F −1 (I) e quindi che F è una sommersione su O(n, R). Si ricordi che O(n, R) ha due componenti connesse: una è il gruppo SO(n, R) = {A ∈ O(n, R) : det(A) = 1 }, l’altra è data dalle matrici A ∈ O(n, R) con det(A) = −1. Abbiamo mostrato che entrambe sono varietà di dimensione n(n − 1)/2. 4 GEOMETRIA DIFFERENZIALE 4.3 63 Spazi e fibrati tangenti 4.3.1 Lo spazio tangente. Sia M una varietà differenziabile di dimensione m e sia p ∈ M . L’algebra dei germi delle funzioni lisce in p è C ∞ (M, p) := {(U, f )}/ ∼ dove U è un intorno aperto di p e f : U → R è una funzione liscia. Per tali (U, f ), (V, g) si definisce (U, f ) ∼ (V, g) se f = g su un intorno di p. Quindi la classe, il germe, di f dipende soltanto dal comportamento di f ‘molto vicino’ a p. Di solito scriveremo semplicemente f invece di [(U, f )] per il germe definito da (U, f ). Una derivazione su C ∞ (M, p) è un’applicazione v(λf + µg) = λv(f ) + µv(g), ∞ v : C (M, p) −→ R, t.c. v(f g) = f (p)v(g) + g(p)v(f ), per f, g ∈ C ∞ (M, p) e λ, µ ∈ R, cioè v è R-lineare e soddisfa la regola di Leibnitz. L’insieme delle derivazioni su C ∞ (M, p) è uno spazio vettoriale reale tramite (λv + µw)(f ) := λv(f ) + µw(f ) (λ, µ ∈ R, f ∈ C ∞ (M, p)), dove v, w sono derivazioni su C ∞ (M, p). Questo spazio vettoriale è detto spazio tangente di M in p e si scrive Tp M . Una derivazione in Tp M si chiama vettore tangente. Esempi di tali derivazioni si ottengono nel modo seguente. Sia (U, φ = (x1 , . . . , xm ) una carta di M dove p ∈ U . Si definisce (∂/∂xi )|p : C ∞ (M, p) −→ R, (∂/∂xi )|p (f ) := ∂(f ◦ φ−1 ) (φ(p)), ∂ti dove i ti sono coordinate su Rm . Si noti che f ◦ φ−1 è liscia su un intorno di φ(p) in Rm . E’ facile verificare che (∂/∂xi )|p ∈ Tp M . 4.3.2 Una base dello spazio tangente. Si può mostrare che i (∂/∂xi )|p , 1 ≤ i ≤ m, definiti come sopra, Psono una base di Tp M , in particolare, dim Tp M = dim M = m. Sia v ∈ Tp M , allora v = ai (∂/∂xi )|p per certe ai ∈ R. Poiché xi ∈ C ∞ (M, p) e si ha: (∂/∂xi )|p (xj ) = δij con δij la delta di Kronecker, i coefficienti ai di v sono determinati da: v(xj ) = m X ai (∂/∂xi )|p (xj ) = aj . i=1 In particolare, se (V, ψ = (y1 , . . . , ym )) è un’altra carta di M con p ∈ V , allora abbiamo anche i vettori tangenti (∂/∂yi )|p ∈ Tp M . Per esprimere questi vettori tangenti come combinazione lineare delle (∂/∂xi )|p si noti: (∂/∂yj )|p = m X i=1 cij (∂/∂xi )|p con cij = (∂/∂yj )|p (xi ), 4 GEOMETRIA DIFFERENZIALE 64 che generalizza la ben nota formula ∂/∂yj = P i (∂xi /∂yj )∂/∂xi . 4.3.3 Vettori tangenti e cammini. Un altro modo di definire un vettore tangente in Tp M è il seguente. Sia > 0 e γ : ] − , [ −→ M, γ(0) = p un’applicazione liscia, detto cammino. Definiamo ∞ γ∗ : C (M, p) −→ R, γ∗ (f ) := df ◦ γ dτ . |τ =0 E’ facile mostrare che γ∗ ∈ Tp M . Viceversa, data una carta (U, φ = (x1 , . . . , xm )) di M con p ∈ U e un vettore tangente P v = ai (∂/∂xi )|p ∈ Tp M , sia a = (a1 , . . . , am ) ∈ Rm . Definiamo un cammino γ : ] − , [ −→ M, γ(τ ) = φ−1 (φ(p) + τ a) con tale che φ(p) + τ a ∈ φ(U ) per τ ∈] − , [. Si verifica che γ∗ = v, quindi ogni vettore tangente si ottiene tramite un cammino. 4.3.4 Lo spazio tangente ad uno spazio vettoriale. Un caso importante, anche se banale, è M = V , uno spazio vettoriale reale di dimensione finita. Per p ∈ V si ha un isomorfismo ‘naturale’ tra V e Tp V nel modo seguente: ∼ = V −→ Tp V, a 7−→ γ∗ , con γ(τ ) = p + τ a. P Se V = Rm , l’isomorfismo è dato da a = (a1 , . . . , am ) 7→ ai (∂/∂ti )|p . Questo isomorfismo verrà usato in varie occasioni in futuro. 4.3.5 Il differenziale di un’applicazione liscia. Sia f : M → N un’applicazione liscia tra varietà di dimensione m e n rispettivamente. Per p ∈ M definiamo un’applicazione lineare, il differenziale di f in p: (df )p : Tp M −→ Tf (p) N, v 7−→ [g 7−→ v(g ◦ f )] dove v ∈ Tp M e g ∈ C ∞ (N, f (p)) (e quindi g ◦ f ∈ C ∞ (M, p)). Se γ∗ ∈ Tp M è definito da un cammino γ, allora (df )p γ∗ ∈ Tf (p) N è definito dal cammino f ◦ γ perché per g ∈ C ∞ (N, f (p)): ((df )p γ∗ )(g) = γ∗ (g ◦ f ) = (d(g ◦ (f ◦ γ))/dτ )|τ =0 = (f ◦ γ)∗ (g). Siano (U, φ = (x1 , . . . , xm )) e (V, ψ = (y1 , . . . , yn )) carte di M e N rispettivamente con p ∈ U e f (p) ∈ V . Allora delle basi di Tp M e Tf (p) N sono i (∂/∂xi )|p e (∂/∂yj )|f (p) rispettivamente. La matrice (vij ) dell’applicazione lineare (df )p è data da: (df )p ((∂/∂xj )|p ) = n X i=1 vij (∂/∂yi )|f (p) . 4 GEOMETRIA DIFFERENZIALE 65 Usando (∂/∂yi )|f (p) (yj ) = δij si trova: vij = (df )p ((∂/∂xj )|p (yi ) = (∂/∂xj )|p (yi ◦ f ). Se scriviamo F = (F1 , . . . , Fn ) = ψ ◦ f ◦ φ−1 allora Fi = yi ◦ f ◦ φ−1 e vij = (∂/∂xj )|p (yi ◦ f ) = (∂(yi ◦ f ◦ φ−1 )∂tj )(φ(p)) = (∂Fi /∂tj )(φ(p)). Ne concludiamo che il differenziale (df )p è determinato dalla matrice jacobiana Jφ(p) (F ). 4.3.6 Il differenziale di una funzione liscia. Sia f : M → R una funzione liscia. Per p ∈ M , il suo differenziale è una mappa lineare quindi (df )p ∈ Tp∗ M := Hom(Tp M, R). (df )p : Tp M −→ Tf (p) R = R, Qui sfruttiamo l’isomorfismo Tf (p) R = R di 4.3.4. Il duale Tp∗ M := (Tp M )∗ dello spazio tangente Tp M è detto spazio cotangente. Ogni f ∈ C ∞ (M, p) definisce allora un elemento (df )p ∈ Tp∗ M . Il differenziale è dato dalla seguente identità: (df )p : Tp M −→ R, (f ∈ C ∞ (M, p), v ∈ Tp M ). (df )p (v) = v(f ), Per verificare l’identità, si ricordi che l’isomorfismo Tf (p) R ∼ = R identifica λ(∂/∂t)|f (p) con ∞ λ ∈P R. Sia g ∈ C (R, f (p)) e applichiamo la derivazione (df )p (v) ∈ Tf (p) R a g, scrivendo v = ai (∂/∂xi )|p ∈ Tp M : −1 ) ((df )p (v))(g) = P ai ∂g◦(f∂t◦φ i = P ◦φ ai ∂g (f (p)) ∂(f∂t ∂t i (φ(p)) −1 ) (φ(p)) ∂ = v(f )( ∂t )|f (p) (g), che verifica che (df )p (v)) ∈ Tf (p) R corrisponde a v(f ) ∈ R. Sia (U, φ = (x1 , . . . , xm )) una carta di M con p ∈ U , allora i (∂/∂xi )|p sono una base di Tp M . Poiché (dx)i )p ((∂/∂xj )|p ) = (∂/∂xj )|p (xi ) = δij , i (dxi )p ∈ Tp∗ M sono la base duale di Tp∗ M . L’elemento (df )p ∈ Tp∗ M è la seguente combinazione lineare dei (dxi )p : X (df )p = (∂/∂xi )|p (f )(dxi )p i come si verifica facilmente valutando entrambi i membri sui vettori tangenti (∂/∂xj )|p per j = 1, . . . , n. 4.3.7 Il fibrato tangente. Sia M una varietà differenziabile di dimensione m. L’unione disgiunta degli spazi tangenti ad M è denotata con a TM = Tp M, sia π : T M −→ M, v 7−→ p p∈M 4 GEOMETRIA DIFFERENZIALE 66 se v ∈ Tp M . Sia (U, φ = (x1 , . . . , xm )) una carta locale di M . Allora per ogni p ∈ U , i vettori tangenti (∂/∂xi )|p sono una base di Tp M . Quindi otteniamo una biezione ∼ = ∼ = Φ : T U := π −1 (U ) −→ U × Rm −→ φ(U ) × Rm (⊂ Rm × Rm = R2m ) data da v= X ai (∂/∂xi )|p 7−→ (p, (a1 , . . . , am )) 7−→ (φ(p), (a1 , . . . , am )). Si noti che p = π(v). Si può mostrare che esiste una topologia di Hausdorff su T M t.c. π è continua. In più, T M è una varietà differenziabile, di dimensione 2m, con carte (T U, Φ) ottenute da carte (U, φ) di M come sopra. In particolare, Φ : T U → φ(U ) × Rm è un omeomorfismo. Per esempio, se V è uno spazio vettoriale, allora ∼ = V × V −→ T V, (p, a) 7−→ γ∗ con γ(τ ) = p + τ a. 4.3.8 Esempio: il fibrato tangente a una sottovarietà. Sia f : M → N una sommersione su K = f −1 (y) per un certo y ∈ N . Quindi K è una sottovarietà di M di dimensione r = m − n dove m = dim M , n = dim N (vedi 4.2.7). Per ogni p ∈ K lo spazio tangente Tp K è una sottospazio di Tp M . Se (U, φ = (x1 , . . . , xn )) è una carta di M con p ∈ K ∩ U e tale che K ∩ U = {x ∈ M : xr+1 (x) = . . . = xm (x) = 0 } allora Tp K è lo sottospazio di Tp M con base (∂/∂xi )|p per 1 ≤ i ≤ r. Sia v ∈ Tp K definito da un cammino γ : ] − , [ → K. Allora f (γ(τ )) = y, un cammino costante, per ogni τ perché f (K) = y. Quindi (df )p (v) = 0 ∈ Ty N cioè Tp K ⊂ ker((df )p ). Poiché l’applicazione lineare (df )p è suriettiva, perché (df )p è dato dalla matrice jacobiana in carte locali, segue che dim Tp K = dim K = n − m è uguale a dim ker((df )p ), perciò: Tp K = ker((df )p : Tp M −→ Tf (p) N ) (p ∈ K). Quindi, con significato ovvio, T K = ker(df : T M −→ T N ). 4.3.9 Esempio: il fibrato tangente di S n . Si ricordi (vedi Esempio 4.2.8) che S n = f −1 (1) dove f : Rn+1 −→ R, x = (x1 , . . . , xn+1 ) 7−→ x21 + . . . + x2n+1 è una sommersione sulla n-sfera S n . Quindi per x ∈ S n e y ∈ Tx Rn+1 = Rn+1 abbiamo che y ∈ Tx S n se e solo se (df )x (y) = 2x1 y1 + . . . + 2xn+1 yn+1 = 0. Sia (, ) il prodotto scalare euclideo standard su Rn+1 , (x, y) = x1 y1 + . . . + xn+1 yn+1 . Se non confondiamo le coppie (x, y) con il prodotto scalare (x, y) abbiamo allora: T S n+1 = {(x, y) ∈ Rn+1 × Rn+1 = T Rn+1 : (x, x) = 1, (x, y) = 0 }. Non è difficile verificare che l’applicazione F : Rn+1 × Rn+1 −→ R2 , (x, y) 7−→ ((x, x), (x, y)) 4 GEOMETRIA DIFFERENZIALE 67 è una sommersione su F −1 ((1, 0)). Quindi T S n è una sottovarietà di R2n+2 e questa struttura di varietà su T S n coincide con quella data dalle carte (T U, Φ) come in 4.3.7. Nel caso n = 1, il fibrato tangente T S 1 è diffeomorfo al prodotto S 1 × R. Un tale diffeomorfismo è: f : S 1 × R −→ T S 1 , ((x1 , x2 ), t) 7−→ (x, y) = ((x1 , x2 ), t(−x2 , x1 )). Per dare qualche idea su come è fatto il fibrato T S 2 , definiamo il fibrato tangente unitario: T1 S 2 = {(x, y) ∈ T S 2 : (x, x) = (y, y) = 1, (x, y) = 0 }. Si noti che ogni fibra π −1 (x) di π : T1 S 2 → S 2 è diffeomorfa a S 1 . E’ facile verificare che T1 S 2 è una sottovarietà di R3 × R3 e quindi anche di T S 2 . La varietà T1 S 2 è diffeomorfa a SO(3) = {A ∈ O(3) : det(A) = 1}. Si ricordi che una matrice A = (a1 |a2 |a3 ), con colonne ai , sta in SO(3) esattamente se le colonne sono una base ortonormale di R3 , quindi ||ai ||2 = (ai , ai ) = 1 e (ai , aj ) = 0 se i 6= j. Poi si ricordi che dati due vettori x, y ∈ R3 il loro prodotto vettoriale x × y è perpendicolare a entrambi e ||x × y|| = ||x||||y||senφ dove φ ∈]0, π[ è l’angolo tra i vettori x, y (nel piano hx, yi). In più, det(x, y, x × y) ≥ 0 in quanto i vettori x, y, x × y sono ortientati. Da ciò segue che l’applicazione f : T S 2 −→ SO(3), (x, y) 7−→ A = (x|y|x × y) è ben definita ed è facile vedere che f e f −1 sono lisce. 4.3.10 Campi vettoriali. Sia M una varietà differenziabile e sia π : T M → M il fibrato tangente. Un campo vettoriale X su un aperto V di M è un’applicazione liscia X : V −→ T V := π −1 (V ) t.c. π ◦ X = idV . Si noti che π(X(p)) = p implica che X(p) ∈ π −1 (p) = Tp M . Quindi un campo vettoriale su V dà per ogni p ∈ V un vettore tangente X(p) in Tp M . Se (U, φ = (x1 , . . . , xm )) è una carta di M con U ⊂ V allora per ogni p ∈ U si ha X(p) = a1 (p)(∂/∂x1 )|p + . . . + am (p)(∂/∂xm )|p , (ai (p) ∈ R) e X è liscia su U equivale a dire che gli ai : U → R sono funzioni lisce. L’insieme dei campi vettoriali su V si indica con X (V ). Dati i campi vettoriali X, Y ∈ X (V ) e le funzioni lisce f, g ∈ C ∞ (V ), definiamo un campo vettoriale f X + gY su V come: (f X + gY )(p) := f (p)X(p) + g(p)Y (p) (∈ Tp M ), dove p ∈ V . Con questo operazione l’insieme X (V ) è un modulo sull’algebra C ∞ (V ), in particolare, X (V ) è un gruppo abeliano. Dati X ∈ X (V ) e f ∈ C ∞ (V ) otteniamo una funzione liscia X(f ) su V nel modo seguente: X(f )(p) := Xp (f ), dove Xp := X(p) (∈ Tp M ) 4 GEOMETRIA DIFFERENZIALE 68 e dove p ∈ V . Per verificare che X(f ) è liscia, si usaPl’espressione locale per X data qui sopra: se F = f ◦ φ−1 e t = φ(p) ∈ Rm allora X(f )(p) = ai (φ−1 (t))(∂F/∂ti )(t) che è liscia perché −1 ai ◦ φ e F sono lisce su φ(U ). 4.3.11 Parentesi di Lie. Dati i campi vettoriali X, Y ∈ X (V ) su un aperto V ⊂ M e una funzione liscia f ∈ C ∞ (V ) la funzione Y (f ) è liscia su V . Per p ∈ V consideriamo la mappa f 7−→ Xp (Y (f )) f ∈ C ∞ (V )). (∈ R, Questa mappa non è una derivazione in generale. Per esempio, se V = M = R, X = Y = ∂/∂t e p = a ∈ R allora Xp (Y (f )) = f 00 (a), ma l’applicazione f 7→ f 00 (a) non soddisfa la regola di Leibnitz. Più in generale, ogni campo vettoriale su R si scrive come g∂/∂t per g ∈ C ∞ (R). Se X = g∂/∂t, Y = h∂/∂t, si ha: Xp (Y (f )) = Xp (hf 0 ) = (ghf 00 + gh0 f 0 )|t=a = g(a)h(a)f 00 (a) + g(a)h0 (a)f 0 (a) e si noti che la parte ‘sbagliata’ è g(a)h(a)f 00 (a): questa espressione è però simmetrica in g, h cioè in X, Y . Definiamo le parentesi di Lie [X, Y ] di due campi vettoriali X, Y ∈ X (V ) come: [X, Y ]p (f ) := Xp (Y (f )) − Yp (X(f )) (∈ R, X, Y ∈ X (V ), p ∈ V, f ∈ C ∞ (V )). Nell’esempio si ottiene: [X, Y ]p (f ) = (g(a)h(a)f 00 (a) + . . .) − (. . . + h(a)g 0 (a)f 0 (a)) = (g(a)h0 (a) − g 0 (a)h(a))f 0 (a) e quindi [X, Y ]p è una derivazione. Il campo vettoriale [X, Y ] è allora dato da [X, Y ] = (gh0 − h0 g)∂/∂t, (X = g∂/∂t, Y = h∂/∂t ∈ X (R)). In generale, in coordinate locali si ha: X [X, Y ] = (Xj ∂Yi /∂xj − Yj ∂Xi /∂xj )∂/∂xi (X = X Xi ∂/∂xi , Y = X Yi ∂/∂xi ) i,j Le parentesi di Lie godono delle proprietà seguenti: [X, Y ] = −[Y, X], [X, [Y, Z]] + [Y, [Z, X]] + [Z, [X, Y ]] = 0 la seconda identità è detta identità di Jacobi (si noti la permutazione ciclica degli argomenti). Un altro modo di scrivere l’identità di Jacobi è: adZ ([X, Y ]) = [X, adZ (Y )] + [adZ (X), Y ] dove adZ (V ) := [Z, V ]. In questa scrittura si vede che adZ soddisfa la regola di Leibnitz per il prodotto dato dalle parentesi di Lie. 4 GEOMETRIA DIFFERENZIALE 4.4 69 Forme differenziali. 4.4.1 Il fibrato delle k-forme. Sia M una varietà differenziabile di dimensione m. Per p ∈ M abbiamo definito lo spazio cotangente Tp∗ M = Hom(Tp M, R) e il suo k-esimo prodotto esterno ∧k Tp∗ M , uno spazio vettoriale di dimensione (m k ). Similmente alla definizione del fibrato tangente si può definire una varietà differenziabile, il fibrato delle k-forme, a ∧k (M ) := ∧k Tp∗ M, π : ∧k (M ) −→ M p∈M dove π è un’applicazione liscia tale che π(∧k Tp∗ M ) = p. Definiamo inoltre ∧0 (M ) = M × R. Una k-forma differenziale su un aperto V di M è un’applicazione liscia ω : V −→ ∧k (V ) := π −1 (V ) (⊂ ∧k (M )) tale che π ◦ ω = idV , cioè, per ogni p ∈ V si ha che ω(p) ∈ π −1 (p) = ∧k T ∗p M . Se (U, φ = (x1 , . . . , xm ) è una carta di M con U ⊂ V , i differenziali (dxi )p sono una base di Tp∗ M , quindi X aI (p)dxI (∈ ∧k Tp∗ M ), ω(p) = I,]I=k e ω è liscia se e solo se le funzioni aI sono lisce. Una 0-forma è semplicemnete una funzione liscia f : V → R. L’insieme delle k-forme differenziali su V si denota con Ωk (V ) e si ha Ω0 (V ) = C ∞ (V ). Per f, g ∈ C ∞ (V ) e ω, θ ∈ Ωk (V ) si definisce una k-forma con: (f ω + gθ)(p) = f (p)ω(p) + g(p)θ(p) (∈ ∧k Tp∗ M ). Data una 1-forma ω ∈ Ω1 (M ) e un campo vettoriale X ∈ X (M ) si definisce una funzione liscia ω(X) ∈ C ∞ (M ) tramite ω(X)(p) := ω(p)(X(p)). Più in generale, una k-forma ω ∈ Ωk (M ) e k campi vettoriali X1 , . . . , XP k ∈ X (M ), definiscono una funzione liscia ω(X1 , . . . , Xk ), localmente tramite ω(X1 , . . . , Xk ) = aI (dxI (X1 , . . . Xk )): ω(X1 , . . . , Xk ) ∈ C ∞ (M ) con (dxi1 ∧ . . . ∧ dxik )(X1 , . . . , Xk ) = det(A), A = (dxia (Xb )) dove 1 ≤ a, b ≤ k (vedi 1.3.5). 4.4.2 La derivata esterna. Sia V un aperto in una varietà M . Per f ∈ C ∞ (V ) = Ω0 (V ) e p ∈ V abbiamo definito il suo differenziale (df )p ∈ Tp∗ M . In questo modo otteniamo un’applicazione d = d0 : Ω0 (V ) −→ Ω1 (V ), (d0 f )(p) = (df )p Si può mostrare che per ogni k ≥ 0 esiste un’ unica applicazione dk : Ωk (V ) −→ Ωk+1 (V ) tale che: (∈ Tp∗ M ). 4 GEOMETRIA DIFFERENZIALE 70 1. d0 = d, 2. dk è R-lineare, 3. dk (ω ∧ θ) = (da ω) ∧ θ + (−1)a ω ∧ (db θ) per ω ∈ Ωa (V ), θ ∈ Ωb (V ) e k = a + b, 4. dk+1 ◦ dk = 0. L’unicità di dk implica che per ω ∈ Ωk (V ) e U ⊂ V un aperto si ha: dk (ω)|U = dk (ω|U ), dove ω|U ∈ Ωk (U ) e le derivate dk sono su Ωk (V ) e Ωk (U ) rispettivamente. Questo permette di calcolare la derivata esterna su carte locali. Sia (U, φ = (x1 , . . . , xm )) una carta di M con U ⊂ V , e sia X ω= aI dxI (∈ Ωk (U )), I,]I=k con aI ∈ C ∞ (U ) = Ω0 (U ). Per calcolare dk ω sfruttiamo prima il fatto che dk è R-lineare X X dk (aI dxI ). aI dxI ) = dk ω = dk ( I,]I=k I,]I=k Poi applichiamo (3) con a = 0, b = k: dk (aI dxI ) = (d0 aI ) ∧ dxI + aI dk (dxI ). Poi mostriamo che dk (dxI ) = 0, usando ancora (3), con a = 1, b = k − 1: dk (dxI ) = dk (d0 xi1 ∧ d0 xi2 ∧ . . . ∧ d0 xik ) = (d1 d0 xi1 ) ∧ d0 xi2 ∧ . . . ∧ d0 xik − d0 xi1 ∧ dk−1 (d0 xi2 ∧ . . . ∧ d0 xik ) Per (4), d1 d0 = 0. Usando (3) k − 1-volte si trova che dk−1 (d0 xi2 ∧ . . . ∧ d0 xik ) = 0. Quindi si ottiene: X X dk ω = dk ( aI dxI ) = (daI ) ∧ dxI . I,]I=k I,]I=k 4.4.3 Il pull-back di forme differenziali. Sia f : M → N un’applicazione liscia tra varietà differenziabili. Allora f definisce un’applicazione lineare, il pull-back, f ∗ : Ωk (N ) −→ Ωk (M ), (f ∗ θ)(X1 , . . . , Xk ) := θ((df )X1 , . . . , (df )Xk ), dove θ ∈ Ωk (N ) e X1 , . . . , Xk ∈ X (M ). Si può mostrare che la derivata esterna è compatibile con il pull-back: f ∗ (dθ) = d(f ∗ θ). 4 GEOMETRIA DIFFERENZIALE 71 4.4.4 Forme differenziali su R3 . Sia M = R3 e sia f ∈ Ω0 (R3 ), cioè f : R3 → R sia una funzione liscia. Allora 3 X ∂f ∂f ∂f ∂f df = dxi . Si ricordi grad(f ) = , , . ∂x ∂x ∂x ∂x i 1 2 3 i=1 Sia ω ∈ Ω1 (R3 ), diciamo ω = gdx1 + hdx2 + kdx3 con g, h, k ∈ C ∞ (R3 ). Dunque si ha, con gi = ∂g/∂xi ecc.: d1 ω = d1 (gdx1 + hdx2 + kdx3 ) = (g1 dx1 + g2 dx2 + g3 dx3 ) ∧ dx1 + . . . + (k1 dx1 + k2 dx2 + k3 dx3 ) ∧ dx3 = (h1 − g2 )dx1 ∧ dx2 + (k1 − g3 )dx1 ∧ dx3 + (k2 − h3 )dx2 ∧ x3 dove abbiamo usato dxi ∧ dxj = −dxj ∧ dxi . Usando l’operatore ∗ di Hodge (vedi 1.3.7), si può identificare questa 2-forma con una 1-forma: g k2 − h3 ∗d1 ω = (k2 −h3 )dx1 −(k1 −g3 )dx2 +(h1 −g2 )dx3 . Si ricordi rot h = −(k1 − g3 ) . k h1 − g2 In particolare, d1 d0 = 0 corrisponde al fatto che rot(grad(f )) = 0 per ogni f ∈ C ∞ (R3 ). Sia θ ∈ Ω2 (R3 ), diciamo θ = pdx1 ∧ dx2 + qdx1 ∧ dx3 + rdx2 ∧ dx3 con p, q, r ∈ C ∞ (R3 ). Si ha: d2 θ = d2 (pdx1 ∧ dx2 + qdx1 ∧ dx3 + rdx2 ∧ x3 ) = (p1 dx1 + p2 dx2 + p3 dx3 ) ∧ dx1 ∧ dx2 + . . . + (r1 dx1 + r2 dx2 + r3 dx3 ) ∧ dx2 ∧ dx3 = (p3 − q2 + r1 )dx1 ∧ dx2 ∧ dx3 . Si noti che usando l’operatore ∗ di Hodge si ha: ∗θ = rdx1 − qdx2 + pdx3 div(r, −q, p) = r1 − q2 + p3 , quindi d2 d1 = 0 corrisponde al fatto che div(rot(f, g, h)) = 0 per ogni f, g, h ∈ C ∞ (R3 ). Usando le correspondenze qui sopra, otteniamo allora il diagramma d0 Ω0 (R3 ) −→ ↓ grad Ω1 (R3 ) ↓ d1 −→ rot Ω2 (R3 ) ↓ d2 −→ Ω3 (R3 ) ↓ div C ∞ (R3 ) −→ C ∞ (R3 )3 −→ C ∞ (R3 )3 −→ C ∞ (R3 ) dove le applicazioni verticali sono come sopra. 4.4.5 Equazioni di Maxwell e forme differenziali. Nella teoria della relatività ristretta, il campo elettrico e magnetico vengono unificati, nel senso che risultano comportarsi come diverse componenti di un unico campo tensoriale antisimmetrico, il tensore di Faraday 0 Ex Ey Ez −Ex 0 Bz −By , F = {F µν } = −Ey −Bz 0 Bx −Ez By −Bx 0 4 GEOMETRIA DIFFERENZIALE 72 sullo spazio-tempo R4 . La metrica di Minkowski η = ηµν dxµ ⊗ dxν , dove x0 = ct, (x1 , x2 , x3 ) = (x, y, z) e {ηµν } = diag{1, −1, −1, −1} permette tramite abbassamento degli indici di interpretare F come una 2−forma su R4 , 1 θ = Fµν dxµ ∧ dxν . 2 Allora, se i = 1, 2, 3 mentre 0 si riferisce alla coordinata temporate, si ha θ0i = Ei e, vista come una due forma su R3 , 12 θij dxi ∧ dxj = ∗B 9 . D’altra parte il tensore di Faraday deve risolvere le equazioni di Maxwell che in forma covariante sono ∂Fµν ∂Fρµ ∂Fνρ + + =0, ∂xρ ∂xν ∂xµ 4π ν ∂F ρν j = ρ ∂x c dove j ν è la tetra-corrente. Si noti che la prima equazione coincide con dθ = 0. Vogliamo scrivere anche la seconda nel linguaggio delle forme differenziali. A tale scopo consideriamo il duale di Hodge in R4 , dotato del tensore metrico η. Seguendo 1.3.7 abbiamo10 ! X 1 X (2) 2 −1 0 i i j ∗θ = ◦ (∧ η̃) F0i dx ∧ dx Fij dx ∧ dx + 2 i6=06=j i6=0 ! X X ∂ ∂ ∂ ∂ 1 F0i 0 ∧ i = (2) Fij i ∧ j − 2 i6=06=j ∂x ∂x ∂x ∂x i6=0 X 1 ijk Fij dx0 ∧ dxk − F0i dxj ∧ dxk , = 2 i6=0,j6=0,k6=0 dove ijk sono le componenti della 3−forma dx1 ∧dx2 ∧dx3 = 16 ijk dxi ∧dxj ∧dxk . Di conseguenza X 1 ∂Fij 0 l k d∗θ = kij dx ∧ dx ∧ dx 2 i6=06=j; k6=06=l ∂xl X 1 ∂F0i j k l + ikl dx ∧ dx ∧ dx 2 i6=06=j; k6=06=l ∂xj ∂F0i 1 X 0 k l ikl dx ∧ dx ∧ dx , − 2 i6=06=k6=06=l ∂x0 P ed infine, usando i ijl ihk = δjh δlk − δjk δlh , X ∂Fij X ∂F0s ∂F0j 0 dx + − dxj . ∗d ∗ θ = s i 0 ∂x ∂x ∂x s6=0 i6=06=j 9 Qui stiamo trattando B come una uno forma su R3 dipendente da un parametro t e il duale di Hodge è inteso in R3 . Si noti che sono tensori rispetto alle trasformazioni di R3 ma non a quelle di R4 . 10 qui non adottiamo la convenzione di Einstein per evitare confusione 4 GEOMETRIA DIFFERENZIALE 73 Se introduciamo la 1−forma J := jµ dxµ e ricordiamo che ∗∗ = −id, le equazioni di Maxwell assumono perciò la semplice forma dθ = 0 , 4π d∗θ = ∗J . c In particolare dalla seconda segue che deve aversi per consistenza d ∗ J = 0 e dunque ∗d ∗ J = 0 che è l’equazione di continuità per J espressa nel linguaggio delle forme differenziali (verificare): ∂j µ = 0. ∂xµ 4.4.6 La 1-forma canonica sul fibrato cotangente. Sia M una varietà di dimensione m e sia T ∗ M il suo fibrato cotangente, che è una varietà di dimensione 2m. Mostriamo che si può definire, in modo intrinseco, un elemento di Ω1 (T ∗ M ). Sia θ ∈ Tp∗ M = π −1 (p) dove π : T ∗ M → M . Il differenziale di π in θ è un’applicazione lineare dallo spazio tangente al fibrato cotangente di M in θ allo spazio tangente di M in π(θ) = p: (dπ)θ : Tθ (T ∗ M ) −→ Tp M. Poiché θ ∈ Tp∗ M , abbiamo una mappa lineare θ : Tp M → R e quindi la composizione di (dπ)θ e θ dà una mappa lineare ϑθ =: θ ◦ (dπ)θ : Tθ (T ∗ M ) −→ R, cioè ϑθ ∈ Tθ∗ (T ∗ M ) e in questo modo otteniamo una 1-forma ϑ ∈ Ω1 (T ∗ M ). Per calcolare ϑ in coordinate locali, prendiamo una carta (U, (φ = (x1 , . . . , xm )) di M con p ∈ U . Allora otteniamo una carta locale ∗ −1 Φ : T U = π (U ) −→ R 2m , m X yi (dxi )p 7−→ ((x1 (p), . . . , xm (p), y1 , . . . , ym )). i=1 Tramite questa carta otteniamo la base (∂/∂xi )θ , (∂/∂yi )θ , con 1 ≤ i ≤ m, di Tθ (T ∗ M ). In coordinate locali, la mappa π è (x, y) 7→ x. Si ha allora: (dπ)θ ((∂/∂xi )θ ) = (∂/∂xi )p , Perciò, con θ = P (dπ)θ ((∂/∂yi )θ ) = 0. yi (dxi )p ∈ Tp∗ M si ha: m m m X X X ϑθ ( qi (∂/∂xi )θ + ri (∂/∂yi )θ ) = θ( qi (∂/∂xi )p ) = y i qi . i=1 i=1 i=1 Usando le coordinate locali (x1 , . . . , xm , y1 , . . . , ym ) su T ∗ M abbiamo infine: ϑ= X yi dxi , e quindi dϑ = m X dyi ∧ dxi . i=1 La 2-forma dϑ è alla base della teoria Hamiltoniana della meccanica classica. 4 GEOMETRIA DIFFERENZIALE 4.5 74 Geometria differenziale e meccanica Come esempio di applicazione della geometria differenziale alla fisica rivediamo qui alcuni aspetti della meccanica classica Hamiltoniana dal punto di vista geometico. 4.5.1 Equazione di Newton e geometria. Consideriamo il moto di una particella di massa m soggetta ad un determinato campo di forze che per ora chiameremo semplicemente F~ (x) ed al quale daremo un significato più preciso tra poco. Supponiamo che la particella si muova su una varietà M che ammetteremo essere di classe C ∞ . Per esempio potrebbe muoversi su una superficie sferica perfettamente liscia o su un iperboloide di rotazione e cosı̀ via. Sia n la dimensione di M . La traiettoria della particella sarà una curva γ nella varietà e la sua velocità all’istante t sarà perciò un vettore nello spazio tangente Tγ(t) M . Vediamo dunque che il fibrato tangente si presenta in modo naturale come l’oggetto geometrico più adeguato per descrivere il moto della particella, rappresentando lo spazio delle posizioni e delle velocità assumibili da essa. Infatti la descrizione matematica del fibrato tangente risulta particolarmente adatta alla descrizione fisica non solo da un punto di vista teorico, ma in un certo senso anche dal punto di vista pratico. Come è stato mostrato, scelto un atlante per M , il fibrato tangente T M può essere descritto localmente come il prodotto φ(U ) × Rn , in cui U è un aperto di una carta locale (U, φ). Ciò è essenzialmente quello che fa un fisico quando, per descrivere il fenomeno in considerazione, introduce in una certa regione (corrispondente all’intorno U ) un riferimento (che individua i punti di U in termini di una certa regione di Rn ) rispetto al quale misura in ogni istante la posizione e la velocità della particella. La velocità risulterà allora essere un vettore v ∈ Rn , cosicché l’isomorfismo locale π −1 (U ) ' U × Rn è realizzato in modo concreto dal fisico che effettua l’esperimento, essendo essenzialmente v = dtd φ(γ(t)). In sostanza è quindi conveniente dal punto di vista geometrico vedere in ogni istante la velocità della particella come un punto in T M . Nella notazione del paragrafo 4.3.3 scriveremo allora γ̇(t) = (γ(t), γ∗ |γ(t) ). Più precisamente, vediamo la curva γ : R −→ M , t 7−→ γ(t) , come una mappa differenziabile tra varietà differenziabili11 . Allora il differenziale di γ definisce una mappa dγ : T R −→ T M , come mostrato in 4.3.5. Consideriamo il campo vettoriale su R 2 Xt : R −→ T R ' R , πR ◦ Xt = idR , t 7−→ Xt (t) = ∂ t, ∂t . Allora γ̇ = dγ ◦ Xt , cioè è definita dai diagrammi commutativi dγ T R −→ T M Xt ↑ % γ̇ R 11 TM γ̇ % ↓ πM γ R −→ M dove la struttura differenziale di R è come al solito definita dall’unica carta locale (R, idR ); eventualmente in luogo di R la curva può essere definita su un intervallo (a, b) ma il concetto non cambierebbe. 4 GEOMETRIA DIFFERENZIALE 75 Una volta chiarito il concetto di velocità dal punto di vista geometrico, è evidente come debba essere trattata l’accelerazione γ̈ = (γ̇)· . Poiché γ̇ è una curva in T M , similmente γ̈ sarà una curva in T (T M ) costruita rispetto a γ̇ esattamente nello stesso modo in cui abbiamo costruito γ̇ rispetto a γ. Mentre lasciamo come esercizio i dettagli della costruzione di γ̈, ci basti ora osservare che se γ̇(t) = (γ(t), γ∗ |γ(t) ) allora γ̈ = ((γ(t), γ∗ |γ(t) ); (γ(t), γ∗ |γ(t) )∗ ) = ((γ(t), γ∗ |γ(t) ); (γ∗ |γ(t) ; γ∗∗ |γ∗ |γ(t) )) , cosicché il secondo ed il terzo elemento coincidono. Tale osservazione diventa fondamentale nel momento in cui dobbiamo scrivere la seconda legge di Newton per la meccanica: mγ̈ = F . Perché tale equazione sia ben definita occorre anzitutto che F abbia valori in T (T M ) e possiamo dunque pensare al campo di forze F come un campo vettoriale su T M F : T M −→ T (T M ) , πT M ◦ F = idT M ; (x, ~v ) 7−→ F (x, ~v ) . Una tale definizione non è completa poiché in generale non sarebbe compatibile con l’equazione di Newton. Infatti il generico punto di T (T M ) lo possiamo scrivere in coordinate locali nella forma ((x, v); (w, z)) ∈ R2n ×R2n , mentre l’accelerazione, come abbiamo notato pocanzi, richiede che la seconda e la terza componente debbano coincidere. Questa condizione può essere scritta in maniera più elegante nel linguaggio geometrico. Osserviamo anzitutto che c’è una mappa naturale πT M : T (T M ) −→ T M , ((x, v); (w, z)) 7−→ (x, v) . D’altra parte si consideri la mappa analoga πM : T M → M . Il suo differenziale è la mappa dπM : T (T M ) −→ T M , ((x, v); (w, z)) 7−→ (x, w) . La condizione soddisfatta dall’accelerazione può dunque essere scritta nella forma πT M γ̈ = dπM γ̈. La stessa condizione deve perciò essere soddisfatta dal campo di forze: chiameremo campo di forze una mappa F : T M −→ T (T M ) , πT M ◦ F = idT M ; πT M F = dπM F . Con tale definizione si può infine scrivere l’equazione di Newton sulla varietà M mγ̈ = F ◦ γ̇ . Si noti che scritta in questa forma essa è indipendente dalla scelta delle coordinate o di una carta locale. 4.5.2 Richiami di meccanica Hamiltoniana. Una descrizione ancora più geometrica si ottiene nel formalismo Hamiltoniano. Si consideri una particella soggetta a forze conservative, descritte da un potenziale V (q i ), dove 4 GEOMETRIA DIFFERENZIALE 76 q i sono le coordinate generalizzate che individuano la posizione della particella. In termini della funzione lagrangiana12 L : T M −→ R , L(q j , q̇ j ) = T (q j , q̇ j ) − V (q j ) , dove T (q j , q̇ j ) è l’energia cinetica, l’equazione di Newton per la dinamica assume la forma d ∂L ∂L = j , j dt ∂ q̇ ∂q q̇ j = dq j . dt Si noti che in questa forma le equazioni del moto sono covarianti, nel senso che trasformano esattamente come la base locale dello spazio tangente TqM come in 4.3.2. Si lascia come esercizio la verifica di questo fatto. Poiché nel caso in cui la lagrangiana non dipenda esplicitamente dalla coordinata q J0 per qualche fissato j0 le equazioni del moto implicano che pj0 := ∂∂L sia q̇ j0 i j i una costante del moto, appare opportuno considerare in luogo di (q , q̇ ) le variabili (q , pj ) , detti momenti coniugati alle variabili q i , purché il sistema di equazioni ottenuto dove pj := ∂∂L q̇ j sia equivalente. Qui abbiamo utilizzato appositamente il termine variabili anziché coordinate, poiché come osservato pocanzi pi si comportano (almeno fintanto che si impongono le equazioni del moto) come le componenti di un covettore e dunque descrivono localmente il fibrato cotangente piuttosto che il fibrato tangente. Comunque ci viene in aiuto il fatto che localmente il fibrato tangente e quello cotangente sono tra di loro diffeomorfi (ed in particolare sono diffeomorfi a U × Rn , dove U è un aperto di qualche carta locale) cosicché risulta evidente che il nuovo sistema sarà equivalente al precedente se la mappa q j 7−→ pj = ∂L ∂ q̇ j è invertibile, cioè ci permette di ricavare q̇ i come funzioni di pi e q k . Il teorema della funzione 2 implicita ci dice che questo è garantito localmente dalla condizione det ∂ q̇∂i ∂Lq̇j 6= 0. Ammesso che tale condizione sia soddisfatta si introduce allora la funzione H : T ∗ M −→ R , H(q i , pj ) = (pk q̇ k − L)|q̇j =q̇j (qi ,pk ) , rispetto alla quale le equazioni del moto diventano (esercizio) ∂H dq j = dt ∂pj dpj ∂H =− j . dt ∂q Indichiamo con xI , i = 1, . . . , 2n le coordinate del generico punto di T ∗ M , dove xi = q i , xn+i = pi , i = 1, . . . , n. Se introduciamo la matrice 2n × 2n antisimmetrica O I E= , −I O 12 qui (q i , q̇ j ) sono coordinate locali in T M 4 GEOMETRIA DIFFERENZIALE 77 dove O e I sono le matrici nulla ed identità n × n, possiamo scrivere le equazioni del moto nella forma dxI ∂H = EIJ J . dt ∂x I è un vettore tangente a T ∗ M nel punto di coDal punto di vista geometrico abbiamo che dx dt ∂H ordinate {xI }, mentre ∂x J è un covettore dello spazio cotangente nello stesso punto. Possiamo dunque vedere la matrice E come una mappa E : Tx∗ (T ∗ M ) → Tx (T ∗ M ) ed è cioè un tensore controvariante di secondo grado. Essa è chiaramente una mappa non degenere e la sua inversa E−1 , usualmente indicata con ω, è dunque un tensore covariante antisimmetrico, che individua pertanto una due-forma ω = 21 ωIJ dxI ∧ dxJ = dqi ∧ dpi . Confrontando con la sezione 4.4.6, vediamo allora che ω = −dϑ, dove ϑ è la uno-forma canonica su T ∗ M . Possiamo quindi concludere che la meccanica Hamiltoniana dal punto di vista geometrico è descritta in modo naturale sul fibrato cotangente ed è essenzialmente specificata da due ingredienti fondamentali: una funzione Hamiltoniana H : T ∗ M → R e la forma canonica ϑ su T ∗ M . Il differenziale della forma canonica definisce una due forma, talvolta chiamata la seconda forma canonica, che ha la proprietà di essere non degenere. Il differenziale di H definisce invece un campo covettoriale su T ∗ M che viene trasformato in un campo vettoriale dall’inversa della seconda forma canonica, ω −1 = −E. Diciamo XH := E(dH) (campo hamiltoniano). Le equazioni di Hamilton sono infine le equazioni che determinano le curve x(t) su T ∗ M con la proprietà di essere in ogni punto tangenti al campo vettoriale XH . Una tale equazione si chiama equazione di flusso per il campo XH .13 Associate al moto delle particelle possono esserci delle osservabili fisiche, che saranno delle funzioni reali delle coordinate q e p delle particelle, come ad esempio potrebbe essere la loro energia. Tali osservabili fisiche F (q, p) varieranno nel tempo seguendo l’evoluzione (q(t), p(t)) determinata dalle equazioni di Hamilton. Derivando rispetto al tempo si ottiene dF = {F , H} , dt dove X ∂F ∂H ∂F ∂H {F , H} = − i ∂p ∂q ∂pi ∂q i i i sono le parentesi di Poisson. Come si vede immediatamente esse possono essere scritte nella forma {F , H} = ω(XF , XH ), che mette in evidenza il ruolo della seconda forma canonica nell’evoluzione temporale. E’ possibile a questo punto riformulare quanto esposto in questo paragrafo nel linguaggio rigoroso della geometria differenziale. 4.5.3 Formulazione geometrica della meccanica Hamiltoniana. Sia M una varietà differenziabile reale n−dimensionale di classe C ∞ sia T ∗ M il corrispondente fibrato cotangente. Quest ultimo è naturalmente dotato di una 1−forma canonica ϑ, il cui differenziale dà origine 13 Si noti che le equazioni di Newton nella precedente sezione sono anch’esse delle equazioni di flusso per il campo vettoriale F su T M , essendo appunto γ̇ una curva su T M . 4 GEOMETRIA DIFFERENZIALE 78 ad una 2−forma nondegenere ω = −dϑ. Si dice allora che tale 2−forma provvede T ∗ M di una struttura simplettica naturale. In particolare essa definisce una mappa E : T ∗ (T ∗ M ) −→ T (T ∗ M ) , ν 7−→ E(ν) ∀ ν ∈ Ω1 (T ∗ M ) secondo la regola ω(E(ν), X) := ν(X) , ∀ ν ∈ Ω1 (T ∗ M ) , X ∈ X (T ∗ M ) . In pratica, in un fissato punto e sistema di coordinate, E è rappresentata dall’inversa trasposta della matrice ωIJ delle componenti della 2− forma ω. Sia ora H ∈ C ∞ (T ∗ M, R). Una tale funzione viene detta funzione hamiltoniana. Si chiama invece campo hamiltoniano associato ad H il campo vettoriale XH := E(dH). E’ molto ineteressante il problema inverso di stabilire se un campo vettoriale X su T ∗ M sia un campo hamiltoniano, cioè se esiste una funzione hamiltoniana al quale il campo è associato. Si chiama contrazione del campo X con la 2−forma ω la 1−forma iX ω definita da14 iX (ω)(Y ) := ω(X, Y ) , ∀ X ∈ X (T ∗ M ) . Il problema posto equivale allora a chiedersi se esiste una funzione F di tipo hamiltoniano tale che iX ω = dF . Se F esiste si dice che iX ω è esatta. Evidentemente una condizione necessaria è che valga d(iX ω) = 0. Se è soddisfatta si dice che iX ω è chiusa: una forma esatta è sempre anche chiusa. Tuttavia tale condizione non è in generale sufficiente poiché non è detto che una forma chiusa sia anche esatta. Per fare un esempio di forma chiusa ma non esatta si consideri la uno forma ν = dφ sul cerchio S 1 , essendo φ la funzione coordinata angolare. E’ facile verificare che ν è ben definita su tutto il cerchio, mentre la funzione φ non lo è ovviamente. Dunque ν è chiusa ma non esatta. Tuttavia notiamo che se restringiamo il problema, anzichè su tutto il cerchio, ad un sottoinsieme aperto proprio di S 1 , allora in tale aperto ν|U è esatta: mentre non esiste una funzione φ ∈ C ∞ (S 1 , R) tale che ν = dφ, si ha che φ è ben definita su U e si ha ν|U = dφ|U . Si dice allora che ν è localmente esatta. Si può dimostrare che questo fatto è vero in generale, cioè ogni forma chiusa è localmente esatta. In altre parole se iX ω è chiusa allora per ogni punto x ∈ T ∗ M esiste un intorno aperto U ∈ T ∗ M che lo contiene ed una funzione F ∈ C ∞ (U, R) tale che iX ω|U = dF . In tal caso si dice che il campo è localmente hamiltoniano. Si chiama sistema hamiltoniano la tripla {M, ω, H}. Ad esso si associa il problema della determinazione del flusso hamiltoniano. Dato un campo vettoriale Y ∈ X (N ) su una varietà differenziabile N ed un punto p ∈ N , si vuole determinare una curva γ : (−a, a) ∈ N , con γ(0) = p e che in ogni punto sia tangente al campo vettoriale dato. Seguendo la notazione del paragrafo 4.5.1 si deve risolvere dunque il problema di Cauchy γ̇(t) = Y ◦ γ(t) , γ(0) = p . L’equazione differenziale si chiama equazione di flusso del campo Y . Si chiamano equazioni di Hamilton associate al dato sistema Hamiltoniano le equazioni di flusso per il campo XH = 14 dovrebbe da qui essere chiaro come si possa definire la contrazione iX ω ∈ Ωn−1 (M ) per ogni ω ∈ Ωn (M ) e X ∈ X (M ). 4 GEOMETRIA DIFFERENZIALE 79 E(dH). Il problema di Cauchy è localmente ben definito, ma si può in effetti porre il problema in una forma più debole ma più interessante che presentiamo nel seguente paragrafo. 4.5.4 Flussi ed evoluzione temporale. Si consideri un campo vettoriale V ∈ X (N ) e la relativa equazione di flusso. In particolare si prenda in considerazione il problema di Cauchy γ̇ = V ◦ γ , γ(0) = p0 ∈ N . Introducendo una carta locale intorno a p0 non è difficile dimostrare che localmente la soluzione esiste sempre ed è unica. Essa è detta curva integrale di V passante per p0 . Ancora più interessante è il fatto che è possibile dimostrare che15 vi è dipendenza continua e differenziabile dal dato iniziale p0 . Più precisamente esiste un intorno U ∈ N contenente p0 ed > 0 tale che, detta γ(t; p) la soluzione del problema di Cauchy associato all’equazione di flusso per V con punto iniziale γ(0) = p ∈ U , allora l’applicazione ΦVt : U −→ N , q 7−→ ΦVt (q) = γ(t; q) , è un diffeomorfismo tra U e ΦVt (U ) per ogni fissato t ∈ (−, ). L’applicazione ΦVt , che per t fissato determina un diffeomorfismo locale mentre per p ∈ U fissato determina una curva integrale per V , viene detta flusso locale o semplicemente flusso di V . Se il campo vettoriale è hamiltoniano V = XH , allora si può immaginare che ogni punto p ∈ U sia una particella la cui evoluzione temporale è descritta da un sistema hamiltoniano. All’istante t = 0 tutte le particelle riempiranno la regione U dello spazio delle fasi (in tal caso N = T ∗ M H per qualche M ). Al variare del tempo esse occuperanno invece la posizione ΦX t (p). Vediamo dunque che in tal caso il flusso di XH individua quindi l’evoluzione temporale del sistema. Esso è detto in tal caso flusso hamiltoniano. Un altro esempio di origine fisica è quello di immaginare U come una regione attraversata da un fluido in moto stazionario, di cui V rappresenti il campo di velocità. In tal caso i punti di U possono essere visti come i punti del fluido all’istante t = 0 che invece occuperanno la posizione ΦVt (p) all’istante t. Ritornando al caso di un flusso Hamiltoniano, si noti che esso permette di definire l’evoluzione H rappresenterà la temporale di una osservabile fisica. Se O ∈ C ∞ (M, R) allora Ot = O ◦ ΦX t stessa osservabile all’istante t. Si osservi che in particolare il flusso ha le proprietà ΦV0 = id e ΦVt1 ◦ ΦVt2 = ΦVt1 +t2 . D’altra parte più in generale una osservabile fisica potrebbe essere un campo vettoriale o tensoriale. 4.5.5 Pull back. Siano date due varietà differenziabili M ed N ed un’applicazione f : M → N liscia. Si consideri un campo tensoriale covariante di grado q, V ∈ Γ(N, T ∗ N ⊗q ), di cui in particolare fanno parte le forme differenziali. Poiché la fibra di T ∗ N ⊗q altro non è che il duale della fibra di T N ⊗q , è naturale in tal caso introdurre il concetto di pull back di V tramite 15 si assume che sia la varietà che il campo vettoriale sono di classe C ∞ 4 GEOMETRIA DIFFERENZIALE 80 l’applicazione liscia f : M → N . Esso trasporta il campo V all’indietro, da N a M , nel campo tensoriale f ∗ (V) ∈ Γ(N, T ∗ M ⊗q ) definito dalla commutatività del seguente diagramma T ∗f T ∗ M ⊗q ←− f ∗ (V) ↑ M T ∗ N ⊗q V↑ f −→ N essendo T ∗ f la mappa cotangente di f , cioè la trasposta della mappa tangente: hT ∗ f (V)(x), T (x)i = hV(f (x)), T f (T )(f (x))i, ∀ x ∈ M, T ∈ Γ(M, T M ⊗q ) , mentre h , i è la valutazione dei funzionali sui vettori. Dunque f ∗ (V) = T ∗ f ◦V ◦f . Si noti che in tale formula non compare l’inversa di f cosicché il pull back è ben definito anche qualora f non sia un diffeomorfismo, ma semplicemente una applicazione liscia. In particolare, in coordinate locali il pull back è descritto dalla trasposta della matrice jacobiana composta con f (esercizio). 4.5.6 Push forward. Siano date due varietà differenziabili M ed N ed un’applicazione f : M → N liscia. Sia poi V ∈ X (M ) un campo vettoriale su M . Si vuole indurre un campo vettoriale su N tramite f , che verrà denotato con f∗ (V ). A tale scopo consideriamo il diagramma commutativo df T M −→ TN πM ↓ πN ↓ M f −→ N dal quale si vede che un campo su N può essere ottenuto ponendo f∗ (V ) = df ◦V ◦f −1 , cioè per y ∈ N si ha f∗ (V )y = (df )x V (x) dove x = f −1 (y). In particolare dunque f∗ (V ) è ben definito se f è un diffeomorfismo. La mappa f∗ viene detta push forward e vale la commutatività del diagramma df T M −→ TN V ↑ f∗ (V ) ↑ M f −1 ←− N E’ semplice determinare l’espressione per il push forward di V in coordinate locali e lo si lascia come esercizio (si veda la sezione 4.3.5). In generale, si considera il diagramma precedente con Tf T M ⊗p −→ T ↑ M T N ⊗p f∗ (T ) ↑ f −1 ←− N dove: T M ⊗p è il prodotto tensore di T M per sè stesso p volte, cioè un fibrato vettoriale su M che ha per fibra in x ∈ M lo spazio vettoriale Tx M ⊗p ; T è una sezione del fibrato tensoriale16 , cioè una applicazione liscia T : M → T ⊗p M tale che π ◦ T = idM , essendo π la 16 si scrive T ∈ Γ(M, T M ⊗p ), in particolare Γ(M, T M ) = X (M ) 4 GEOMETRIA DIFFERENZIALE 81 proiezione su M ; T f è l’estensione della mappa df , detta anche mappa tangente, definita da T f (T M ⊗p ) = (df (T M ))⊗p . Poiché f è un diffeomorfismo, si può definire anche il push forward di un campo tensoriale covariante su M tramite f , come il pullback tramite f −1 . Questo permette di estendere il concetto di push forward al caso di campi tensoriali misti. Le espressioni locali in tal caso generalizzano i concetti di covarianza e controvarianza introdotti nella sezione 1.217 . Si noti infine che per un campo scalare S, cioè un campo tensoriale di tipo (0, 0), si ha f∗ S = S ◦ f −1 . 4.5.7 Derivata di Lie ed evoluzione temporale. Per quanto visto nel paragrafo 4.5.6 e ∞ ∗ in 4.5.4, si può scrivere l’evoluzione temporale di una osservabile scalare S ∈ C (T M, R) come XH XH −1 XH il suo push forward tramite φ−t = (φt ) , cioè St = φ−t ∗ (S). Questa forma può essere immediatamente generalizzata al caso di osservabili tensoriali O ≡ Oqp ∈ Γ(M, T M ⊗p ⊗ T ∗ M ⊗q ) H per le quali scriveremo Ot = φX −t ∗ (O). Di questa espressione è possibile determinare l’equivalente infinitesimale, che si ottiene derivando rispetto al parametro t e ponendo t = 0. Il risultato ottenuto si chiama derivata di Lie del campo tensoriale O rispetto al campo vettoriale XH : H φX −t ∗ (O) − O0 . LXH O = lim t→0 t E’ chiaro che in generale si può sostituire a XH un campo vettoriale V qualunque. In tal caso la derivata di Lie di O rispetto a V si indica con LV O. Nel caso di un campo scalare S la derivata di Lie coincide con la derivata direzionale e si ha LV S = hdS, V i. Se invece W è un campo vettoriale allora si trova LV W = [V, W ], coincide cioè con le parentesi di Lie introdotte in 4.3.11: LV S := hdS, V i := (dS)(V ) = V (S), LV W := [V, W ]. Infine per una qualunque k−forma differenziale ω si ha LV ω = (iV ◦ d(k) + d(k−1) ◦ iV )ω, (ω ∈ Ωk (M )). Si lascia come esercizio la dimostrazione di queste ultime due asserzioni. Consideriamo più in dettaglio il caso di una osservabile scalare S. Allora dS = LXH S = hdS, XH i = ω(XS , XH ) , dt in accordo con quanto osservato nella sezione introduttiva 4.5.2. 4.5.8 Derivata di Lie e derivata esterna. La derivata di Lie è permette di determinare una formula comoda per il calcolo della derivata esterna di una forma differenziale. Sia ω una 1−forma su M e V, W ∈ X (M ) due campi vettoriali. Allora vale la seguente formula di Cartan (dω)(V, W ) = LV (ω(W )) − LW (ω(V )) − ω([V, W ]) . 17 in tal caso la matrice M di cambiamento di base va identificata con l’nversa trasposta della matrice jacobiana calcolata nel punto considerato 4 GEOMETRIA DIFFERENZIALE 82 La dimostrazione si ottiene direttamente in carte locale, valutando entrambi i membri e osservando che coincidono. Si noti che se la formula vale per ω = ω1 , ω2 allora vale anche per ω = ω1 + ω2 , quindi basta verificarla nel caso ω = adxk con a ∈ C ∞ (M ). Lasciamo come esercizio la determinazione della generalizzazione alle k−forme. Rimandiamo ad altri testi per ulteriori applicazioni della geometria alla meccanica Hamiltoniana. Volendo invece considerare applicazioni ad altri campi della fisica è conveniente dapprima sviluppare un po’ di concetti riguardanti la teoria dei gruppi di Lie e delle loro rappresentazioni. 5 GRUPPI E ALGEBRE DI LIE 5 83 Gruppi e algebre di Lie Testi consigliati: [FH], [DNF1], [DNF2], [Ha], [Wa]. 5.1 Gruppi di Lie 5.1.1 Gruppi di Lie. Una varietà G è detta gruppo di Lie se esistono due applicazioni lisce µ : G × G −→ G, ν : G −→ G, e un punto e ∈ G tali che G sia un gruppo con elemento neutro e, prodotto g1 g2 := µ(g1 , g2 ), e inversa g −1 := ν(g). Un’applicazione f : H → G tra gruppi di Lie è un omomorfismo di gruppi di Lie se f è liscia e se f è un omomorfismo di gruppi. Un sottogruppo H ⊂ G di un gruppo di Lie è detto sottogruppo di Lie se è una sottovarietà di G, in quel caso H è anche un gruppo di Lie. 5.1.2 Sottogruppi di Lie immersi. Un punto delicato è che l’immagine f (H) di un omomorfismo di gruppo di Lie f : H → G non è sempre un sottogruppo di Lie; ovviamente f (H) è un sottogruppo di G però f (H) non è necessariamente una sottovarietà di G. Un esempio è (vedi anche 5.1.3) il caso H = R, G = (R/Z)2 (il toro), e l’omomorfismo f : R −→ (R/Z)2 , t 7−→ (t, at), (a ∈ R, a 6∈ Q). Si noti che f è iniettiva (si ha (t, at) = (0, 0) se e solo se (t, at) ∈ Z2 ; se t 6= 0 e t, at ∈ Z allora si ha a = (at)/t ∈ Q in contraddizione con la scelta a 6∈ Q). Per ogni n ∈ Z troviamo un punto pn := (n, an) = (0, an) ∈ G e i pi sono distinti nello spazio topologico compatto G e quindi hanno un punto di accumulazione p. Allora è impossibile trovare una carta locale (U, φ = (x1 , x2 )), con p ∈ U , di G tale che f (H) ∩ U = {q ∈ U : x2 (q) = 0}, che è chiuso in U . Un sottogruppo di Lie immerso è l’immagine di un omomorfismo di gruppi di Lie iniettivo. In particolare, f (H) qui sopra è un sottogruppo di Lie immerso di G. 5.1.3 Esempi. Il gruppo additivo (R, +) è un gruppo di Lie perché le applicazioni µ(x, y) = x+ y e ν(x) = −x sono evidentemente lisce. Similmente il gruppo moltiplicativo R∗ := (R − {0}, ·) è un gruppo di Lie. L’applicazione exp : R → R∗ , exp(x) := ex è un omomorfismo di gruppi di Lie. Il gruppo di Lie R/Z può essere definito come la varietà differenziabile S 1 (⊂ R2 ), la circonferenza, con legge del gruppo indotta dall’addizione degli angoli µ : S 1 × S 1 −→ S 1 , µ((cos φ, sen φ), (cos ψ, sen ψ)) = (cos(φ + ψ), sen (φ + ψ)) e le formule ben note che esprimono cos(φ+ψ), sen (φ+ψ) in termini di cos φ, . . . , sen ψ mostrano che µ è liscia. Ovviamente anche l’inversa ν(cos φ, sen φ) = (cos φ, −sen φ) è liscia. Per essere precisi, bisogna identificare t̄ ∈ R/Z con il punto (cos(2πt), sen (2πt)) di S 1 . 5 GRUPPI E ALGEBRE DI LIE 84 Il gruppo GL(n, R) è un gruppo di Lie. Ovviamente GL(n, R) è un gruppo ed è un aperto dello spazio vettoriale Mn (R) di dimensione n2 , quindi GL(n, R) è una varietà. I coefficienti di di A e B ((AB)ij = P un prodotto AB di due matrici A e B sono polinomi nei coefficienti −1 = (det A)−1 A] dove A] k aik bkj ), quindi µ è liscia. L’inversa ν è anch’essa liscia perché A ] è la ‘matrice dei cofattori’ di A, cioè (A )ij è il determinante, moltiplicato per (−1)i+j , della matrice (n − 1) × (n − 1) ottenuta da A eliminando la j-esima riga e la i-esima colonna. La funzione det è data da un polinomio nei coefficienti di una matrice, e quindi è liscia. Poiché det(A) è liscia e non zero su GL(n, R), anche A 7→ ν(A) = (det A)−1 A] è liscia su GL(n, R). Ogni sottovarietà di GL(n, R) che è un sottogruppo di GL(n, R) è allora un gruppo di Lie. Esempi sono SL(n, R) (vedi 4.2.9) e SO(n, R) (vedi 4.2.10). 5.1.4 Rappresentazioni dei gruppi di Lie. Una rappresentazione (reale) di un gruppo di Lie su uno spazio vettoriale V (reale) di dimensione n è un omomorfismo di gruppi di Lie ρ : G −→ GL(V ) ∼ = GL(n, R). Esempi sono l’ inclusione SL(n, R) ,→ GL(n, R), SO(n, R) ,→ GL(n, R), la rappresentazione controgradiente GL(V ) −→ GL(V ∗ ) (vedi 1.1.12) e gli omomorfismi ρkl : GL(V ) → GL(Tlk (V )) (vedi 3.1). 5.1.5 La rappresentazione Aggiunta. Sia G un gruppo di Lie e sia g := Te G, lo spazio tangente di G nell’identità e ∈ G. Per g ∈ G definiamo un automorfismo ig di G per coniugazione: ig : G −→ G, h 7−→ ghg −1 (g, h ∈ G). Poiché ig è un’applicazione liscia tale che ig (e) = e, si ha un’applicazione lineare, il suo differenziale, che si chiama Ad(g) Ad(g) := (dig )e : g = Te G −→ g. Poiché ig ◦ ig−1 = idG si ha Ad(g)Ad(g −1 ) = idg , quindi Ad(g) ∈ GL(g). L’applicazione, detta applicazione ‘Aggiunta’, Ad : G −→ GL(g), g 7−→ Ad(g) è una rappresentazione di G perché (g1 g2 )h(g1 g2 )−1 = g1 (g2 hg2−1 )g1−1 implica: igg0 = ig ◦ ig0 perciò Ad(gg 0 ) := (digg0 )e = (dig )e ◦ (dig0 )e = Ad(g) ◦ Ad(g 0 ). 5.1.6 La rappresentazione Aggiunta per GL(n). Il gruppo di Lie GL(n, R) è un aperto 2 della varietà Mn (R) ∼ = Rn e quindi TI GL(n, R) ∼ = TI Mn (R) = Mn (R) (vedi 4.3.4 per l’ultima identificazione). Per calcolare Ad(g)(X), per g ∈ GL(n, R) e X ∈ TI GL(n, R) = Mn (R), consideriamo un cammino che rappresenta X: γ : ] − , [ −→ G ⊂ Mn (R), tale che γ(0) = I, γ 0 (0) = X. 5 GRUPPI E ALGEBRE DI LIE 85 Allora, usando una delle definizione di 4.3.5, Ad(g)(X) è definito dal cammino τ 7→ ig (γ(τ )) e questo cammino corrisponde a d d(gγ(τ )g −1 ) Ad(g)(X) = ig (γ(τ )) = = gXg −1 dτ dτ |τ =0 |τ =0 come si verifica differenziando ogni coefficiente della matrice gγ(τ )g −1 rispetto τ e ponendo τ = 0. 5.1.7 La rappresentazione Aggiunta per SL(n). Il gruppo di Lie SL(n, R) = det−1 (1) è una sottavarietà di GL(n, R) e il suo spazio tangente in g ∈ SL(n, R) è lo spazio vettoriale (vedi 4.3.8) Tg SL(n, R) := ker((d det)g : Tg GL(n, R) ∼ = Mn (R) −→ T1 R = R). Per g = I, da 4.2.9, la matrice (d det)I = JI (det) ha coefficienti (−1)i+j det(Iij ), che sono zero se i 6= j e 1 se i = j, cioè (d det)I (X) = x11 + x22 + . . . + xnn =: tr(X) dove tr(X) è la traccia della matrice X. Perciò: TI SL(n, R) = {X ∈ Mn (R) : tr(X) := x11 + x22 + . . . + xnn = 0 }, cioè l’algebra di Lie di SL(n, R) sono le matrici di Mn (R) con traccia nulla. Poiché SL(n, R) è una sottovarietà di GL(n, R), il calcolo fatto qui sopra mostra che Ad(g)(X) = gXg −1 per g ∈ SL(n, R) e X ∈ TI SL(n, R). Si noti che per g ∈ SL(n, R) si ha proprio Ad(g)(TI SL(n, R)) ⊂ TI (SL(n, R)) perché il polinomio caratteristico di X è uguale a quello di gXg −1 e tale polinomio è pX (λ) = ±(λn − tr(X)λn−1 + . . .). 5.1.8 La rappresentazione Aggiunta per SO(n). Lo spazio tangente TI SO(n, R) del gruppo di Lie SO(n, R) si determina usando 4.2.10 e, di nuovo, 4.3.8, con A = I: X 7−→ t X + X, TI SO(n, R) = ker(JI (F ) : Mn (R) −→ Symn (R)), cioè TI SO(n, R) = { X ∈ Mn (R) : t X = −X } = Altn (R), lo spazio vettoriale delle matrici n × n alternanti. Per g ∈ SO(n, R) la mappa Aggiunta Ad(g) ∈ End(TI SO(n, R)) è ancora data da Ad(g)(X) 7→ gXg −1 . Si noti che g −1 = t g per g ∈ SO(n, R) e quindi se X ∈ Altn (R) anche gXg −1 ∈ Altn (R): t (gXg −1 ) = t (gX(t g)) = g(t X)(t g) = −gX(t g) (∈ Altn (R), g ∈ SO(n, R), X ∈ Altn (R)). Si noti che per il cammino γ : R −→ SO(2, R), e che infatti t X = −X. τ 7−→ cos τ −sen τ sen τ cos τ , 0 X := γ (0) = 0 −1 1 0 ∈ TI SO(2, R) 5 GRUPPI E ALGEBRE DI LIE 5.2 86 Algebre di Lie 5.2.1 L’algebra di Lie di un gruppo di Lie. Nella sezione 5.1.5 abbiamo definito un omomorfismo di gruppi di Lie Ad : G −→ GL(g) e quindi otteniamo un’applicazione lineare, chiamata applicazione aggiunta, ad := (dAd)e : Te G = g −→ TI GL(g) ∼ = End(g). Qui indentifichiamo, come al solito, lo spazio tangente in I all’aperto GL(g) dello spazio vettoriale End(g) con questo spazio vettoriale stesso. Per calcolare l’aggiunta per sottogruppi di Lie di GL(n, R) si noti che per un cammino γ :] − , [→ GL(n, R) e ogni τ ∈] − , [ si ha γ(τ )γ(τ )−1 = I. Quindi, con γ 0 (0) := (dγ/dτ )(0), abbiamo γ 0 (0)γ −1 (0) + γ(0)(γ −1 )0 (0) = 0. In particolare, γ(0) = I, γ 0 (0) = X (γ −1 )0 (0) = −X. =⇒ Per X ∈ TI GL(n, R) definito da un cammino γ (quindi con γ(0) = I, γ 0 (0) = X) e Y ∈ g, l’immagine di Y sotto l’endomorfismo ad(X) di g è: ad(X)(Y ) := = dAd(γ(τ ))(Y ) dτ |τ =0 −1 dγ(τ )Y γ(τ ) dτ |τ =0 = γ 0 (0)Y γ −1 (0) + γ(0)Y (γ −1 )0 (0) = XY − Y X =: [X, Y ] dove [X, Y ] è detto il commutatore di X e Y . In generale, per un gruppo di Lie, per X ∈ Te G si definisce un campo vettoriale X̃ su G per X̃g := (dLg )e (X) dove Lg : G −→ G, Lg (h) := gh. Poiché Lg Lh = Lgh segue che per ogni g, h ∈ G si ha (dLg )h X̃h = X̃gh , si dice che il campo vettoriale X̃ è invariante a sinistra. Poi si mostra che le parentesi di Lie per campi vettoriali (vedi 4.3.11) sono compatibili con la mappa ad nel senso che: ^ ) = [X̃, Ỹ ], ad(X)(Y questo ‘giustifica’ la nostra definizione [X, Y ] := ad(X)(Y ) per X, Y ∈ g. Da questa identità e dall’identità di Jacobi, oppure nel caso di sottogruppi di Lie di GL(n, R), dal semplice fatto che [X, Y ] = XY − Y X, segue che [X, Y ] = −[Y, X], [X, [Y, Z]] = [[X, Y ], Z] + [Y, [X, Z]]. 5 GRUPPI E ALGEBRE DI LIE 87 5.2.2 Algebre di Lie. Un’algebra di Lie g è uno spazio vettoriale con un’applicazione bilineare alternante g × g −→ g, (X, Y ) 7−→ [X, Y ] che soddisfa l’identità di Jacobi (vedi qui sopra). Esempi di algebre di Lie sono gli spazi tangenti Te G, dove e è l’elemento neutro di un gruppo di Lie G (vedi 5.2.1) e gli spazi vettoriali X (M ) (di dimensione infinita!) dei campi vettoriali su una varietà differenziabile (vedi 4.3.11). 5.2.3 Esempio: sl(2) . L’algebra di Lie del gruppo SL(2, R) sl(2) := {W ∈ M2 (R) : tr(W ) = 0 } ha una base data da: H := 1 0 0 −1 , X := 0 1 0 0 , Y := 0 0 1 0 , e un facile calcolo mostra che i commutatori sono dati da: [X, Y ] = −[Y, X] = H, [H, X] = −[X, H] = 2X, [H, Y ] = −[Y, H] = −2Y, (cioè XY − Y X = H ecc.) e gli altri commutatori sono zero: [X, X] = [Y, Y ] = [H, H] = 0 perché [X, X] = −[X, X] ecc. 5.2.4 Rappresentazioni di algebre di Lie. Una rappresentazione di un’algebra di Lie g in V , dove V è uno spazio vettoriale di dimensione finita, è un’applicazione lineare ρ : g −→ End(V ) t.c. ρ([X, Y ]) = ρ(X) ◦ ρ(Y ) − ρ(Y ) ◦ ρ(X) dove ◦ indica la composizione di endomorfismi di V , cioè una rappresentazione di un’algebra di Lie conserva il commutatore. Una rappresentazione è detta irriducibile se V non ha sottospazi invarianti per g tranne {0} e V , cioè se W è un sottospazio di V tale che ρ(X)w ∈ W per ogni X ∈ g e ogni w ∈ W allora W = {0} oppure W = V . 5.2.5 La rappresentazione aggiunta. L’applicazione aggiunta di g in End(g): ad : g −→ End(g), X 7−→ [Y −→ ad(X)(Y )] (X, Y ∈ g). è una rappresentazione di g perché dall’identità di Jacobi [X, [Y, Z]] = [[X, Y ], Z] + [Y, [X, Z] segue ad([X, Y ])(Z) = [[X, Y ], Z] = [X, [Y, Z]] − [Y, [X, Z]] = ad(X)(ad(Y )(Z)) − ad(Y )(ad(X)(Z)) per ogni Z ∈ g, quindi ad([X, Y ]) = ad(X) ◦ ad(Y ) − ad(Y ) ◦ ad(X) in End(g). 5 GRUPPI E ALGEBRE DI LIE 88 Nel caso g = sl(2), la base X, H, Y (in questo ordine), vedi 5.2.3, dà le seguente matrice per la rappresentazione aggiunta 0 −2 0 2 0 0 0 0 0 ad(X) = 0 0 1 , ad(H) = 0 0 0 , ad(Y ) = −1 0 0 . 0 0 0 0 0 −2 0 2 0 (usare che ad(X)(X) = [X, X] = 0, ad(X)(H) = −[H, X] = −2X, ad(X)(Y ) = [X, Y ] = H ecc.). 5.2.6 Rappresentazioni del gruppo e dell’algebra di Lie. Data una rappresentazione r : G → GL(V ) otteniamo un’applicazione lineare d r(γ(t))v ρ := (dr)e : g −→ End(V ), ρ(X)v := dt |t=0 dove γ è un cammino in G che rappresenta X ∈ Te G, cioè con γ(0) = e e γ 0 (0) = X. L’applicazione ρ è una rappresentazione dell’algebra di Lie g in V . Per mostrarlo, osserviamo prima che, per g, h ∈ G si ha, in GL(V ): ir(g) (r(h)) = r(g)r(h)r(g)−1 = r(ghg −1 ) = r(ig (h)), cioè ir(g) ◦ r = r ◦ ig : G → GL(V ). Il differenziale g → End(V ) di questa mappa G → GL(V ) in e ∈ G è allora d(ir(g) ◦ r)e = d(ir(g) )I ◦ (dr)e = (dr)e ◦ (dig )e , quindi Ad(r(g)) ◦ ρ = ρ ◦ Ad(g). Adesso prendiamo il differenziale in e ∈ G dell’applicazione G −→ End(V ), g 7−→ Ad(r(g)) ◦ ρ = ρ ◦ Ad(g). Usando un cammino γ in G con γ(0) = e, γ 0 (0) = X, troviamo per ogni Y ∈ g: d d Ad(r(γ(t)))(ρ(Y )) = ρ(Ad(γ(t))(Y )) . dt dt t=0 t=0 Con la definizione di Ad, nel caso G ⊂ GL(n), si ottiene: d d −1 −1 r(γ(t))ρ(Y )r(γ(t) ) = ρ(γ(t)Y γ(t) ) . dt dt t=0 t=0 Il lato sinistro è [ρ(X), ρ(Y )] e poiché l’applicazione ρ è continua il lato destro è ρ([X, Y ]). Quindi ρ è una rappresentazione dell’algebra di Lie g: [ρ(X), ρ(Y )] = ρ([X, Y ]). 5.2.7 L’applicazione esponenziale. Dato un X ∈ g, X 6= 0, si può mostrare che esiste un unico cammino γ = γX : R −→ G, t.c. γ∗ = X, γ(s + t) = γ(s)γ(t) (∀s, t ∈ R), 5 GRUPPI E ALGEBRE DI LIE 89 cioè γ è omomorfismo di gruppi di Lie. L’applicazione esponenziale è definita da: exp : g −→ G, exp(tX) := γX (t), quindi la restrizione di exp alla retta < X >⊂ g è un omomorfismo per ogni X ∈ g. In più si ha che (d exp)0 : T0 g = g −→ Te G = g è l’identità. L’applicazione exp è l’unica applicazione con queste due proprietà. Se G è connesso, si può mostrare che G è generato da exp(U ), dove U ⊂ g è un intorno aperto di 0 ∈ g. Se G è un sottogruppo di Lie di GL(n, R), allora g ⊂ M (n, R) e si ha la formula esplicita: exp tX = ∞ k k X t X k=0 k! , (X ∈ M (n, R) = Te GL(n, R)). Si noti che si ha proprio γ∗ := (d/dt) exp tX)t=0 = X. In generale non vale exp(X + Y ) = (exp X)(exp Y ) perché XY 6= Y X. La formula di Campbell-Baker-Haussdorf dà una formula per (exp X)(exp Y ) come exp di una somma di commutatori tra X e Y : (exp X)(exp Y ) = exp(X + Y + (1/2)[X, Y ] + (1/12)[X, [X, Y ]] − (1/12)[Y, [X, Y ]] + . . .). Per calcolare l’exp è spesso utile usare che exp(SXS −1 ) = S(exp(X))S −1 (che segue dalla serie per exp), quindi la forma di Jordan di X determina essenzialmente exp(X). Si può mostrare che poiché (d exp)0 è un isomorfismo, l’immagine della mappa esponenziale contiene un aperto U di G tale che e ∈ U . La formula qui sopra mostra che il prodotto µ in un tale aperto di G è determinato dal prodotto nell’algebra di Lie g. Questo ci permette di mostrare che un’algebra di Lie g di dimensione finita determina in modo unico un gruppo di Lie G che è connesso e semplicemente connesso. Queste condizioni su G sono importanti, per esempio l’algebra di Lie g = R (con prodotto banale) è l’algebra di Lie di R∗ = R − {0} (non connesso), di R/Z (connesso ma non semplicemente connesso) e di R (connesso e semplicemente connesso e l’unico tale G con algebra di Lie g, a meno di isomorfismo di gruppi di Lie). 5.2.8 Esempi dell’applicazione esponenziale. Si ha: exp(tX) = diag(etλ1 , . . . , etλn ), se X = diag(λ1 , . . . , λn ) ∈ M (n, R) perché X k = diag(λk1 , . . . , λkn ). Se X ∈ M (n, R) è nilpotente, allora X N = 0 per un X 2 /2! + . . . + X N /N !, una somma finita. Per esempio, 0 1 0 0 0 2 0 0 2 , 0 0 X= X = 0 0 0 0 0 certo N e quindi exp(X) = I + X + 2 0 , 0 X 3 = 0, 5 GRUPPI E ALGEBRE DI LIE 90 quindi si ha: 1 t 2t2 exp(tX) = I + tX + t2 X 2 /2 = 0 1 2t . 0 0 1 Sia (vedi 5.1.8) 0 −1 X= ∈ TI SO(2, R), 1 0 si noti: X 2 = −I, X 2k = (−1)k I, X 2k+1 = (−1)k X. L’esponenziale di X è allora exp(tX) = = P Xn n n! P ∞ (−1)k t2k k=0 (2k)! I+ P ∞ (−1)k t2k+1 k=0 (2k+1)! X = (cos t)I + (sen t)X cos t −sen t . = sen t cos t 5.2.9 Sottogruppi e sottoalgebre di Lie. Sia G ⊂ G0 un sottogruppo di Lie, allora g = Te G ⊂ Te G0 = g0 è un sottospazio vettoriale. Il prodotto di Lie in g è allora la restrizione del prodotto di Lie in g0 : visto che ghg −1 ∈ G per ogni g, h ∈ G si ha Ad(g)(Y ) ∈ g per ogni Y ∈ g e g ∈ G. Questa poi implica che ad(X)(Y ) = [X, Y ] ∈ g per ogni X, Y ∈ g. Si dice che g è una sottoalgebra di Lie di h. In particolare, se ρ : G → GL(V ) è una rappresentazione di G, allora ρ(G) è un sottogruppo di Lie di GL(V ) e Te ρ(G) = (dρ)e g. Quindi (dρ)e g è un sottoalgebra di Lie di End(V). In generale, una sottoalgebra di Lie h ⊂ g non determina un sottogruppo di Lie H di G. Si può invece mostrare che h determina sempre un sottogruppo di Lie immerso f (H) ⊂ G (dove f : H → G è un omomorfismo di gruppi di Lie) tale che l’immagine del differenziale (df )e : Te H → Te G = g è h ⊂ g. In più, l’iniettività di f implica che (df )e è iniettiva, quindi Te H ∼ = h. 5.2.10 Sottogruppi normali ed ideali. Supponiamo che H sia un sottogruppo di Lie normale di G, cioè ghg −1 ∈ H per ogni g ∈ G, h ∈ H. Allora Ad(g)(Y ) ∈ h per ogni g ∈ G, Y ∈ h e perciò ad(X)(Y ) = [X, Y ] ∈ h per ogni X ∈ g e Y ∈ h (in questo senso h ‘assorbe’ g). Si dice che h è un ideale di g. Se G è un gruppo di Lie e H è un sottogruppo di Lie normale chiuso, allora anche G/H è un gruppo di Lie e lo studio di G equivale a studiare H, G/H e i possibili gruppi di Lie G0 che hanno H come sottogruppo normale e G/H come gruppo quoziente (si dice che G0 è una estensione di G/H con H). 5 GRUPPI E ALGEBRE DI LIE 5.3 91 Rappresentazioni. 5.3.1 Rappresentazioni in prodotti tensoriali. Siano r : G → GL(V ) e s : G → GL(W ) rappresentazioni di un gruppo di Lie in spazi vettoriali. Allora si ha una rappresentazione di G nel prodotto tensoriale: r ⊗ s : G −→ GL(V ⊗ W ), v ⊗ w 7−→ (r(g)v) ⊗ (s(g)w), come si verifica facilmente. La rappresentazione r ⊗ s di G definisce una rappresentazione dell’algebra di Lie g d(r ⊗ s)e : g −→ End(V ⊗ W ). Si ha (si veda 5.2.6) usando la regola di Leibnitz: d d(r ⊗ s)e (X)(v ⊗ w) = r(γ(t))v ⊗ s(γ(t))w = (ρ(X)v) ⊗ w + v ⊗ σ(X)w, dt |t=0 dove γ è un cammino in G con γ(0) = e, γ 0 (0) = X e ρ = (dr)e : g −→ End(V ), σ = (ds)e : g −→ End(W ) sono le rappresentazioni dell’algebra di Lie di G definite da r, s. 5.3.2 Le rappresentazioni V ⊗ V e V ⊗ V ∗ . La rappresentazione standard r di GL(V ) su V induce una rappresentazione r2 := r ⊗ r r2 : GL(V ) −→ GL(V ⊗ V ), r2 (A)(v ⊗ w) = (Av) ⊗ (Aw). Sia e1 , . . . , en una base V . Un modo comodo per vedere questa rappresentazione è tramite la mappa lineare V ⊗ V −→ Mn (R), v ⊗ w 7−→ v(t w), P P dove per v = vi ei , w = wi ei ∈ V il prodotto v(t w) = (vi wj ) è una matrice n × n. In particolare otteniamo un isomorfismo di spazi vettoriali V ⊗ V ∼ = Mn (R). Visto che (Av) ⊗ t t (Aw) 7→ Av( w)( A) otteniamo che la rappresentazione r può anche essere data da r2 : GL(V ) −→ GL(Mn (R)), r2 (A)M = AM (t A). La rappresentazione ρ2 := (dr2 )e dell’algebra di Lie gl(n) = Mn (R) di GL(V ) è data da ρ2 := (dr2 )e : gl(n) −→ End(Mn (R)), ρ2 (X)(M ) = XM + M t X. Si verifica che il sottospazio delle matrici simmetriche S 2 V di Mn (R) (cioè le M con t M = M ) è un sottospazio invariante (per r2 e per ρ2 ), similmente anche il sottospazio delle matrici antisimmetriche A2 V di Mn (R) (cioè le M con t M = −M ) è un sottospazio invariante e si ha Mn (R) = S 2 V ⊕ A2 V . 5 GRUPPI E ALGEBRE DI LIE 92 La rappresentazione standard r di GL(V ) su V induce la rappresentazione controgradiente (vedi 1.1.12) s : GL(V ) −→ GL(V ∗ ) ∼ s(A) = t A−1 , = GL(n, R), si verifica che la rappresentazione σ := (dr)e dell’algebra di Lie gl(n) di GL(V ) è data da σ := (dr)e : gl(n) −→ End(V ) ∼ = Mn (R), σ(X) = −t X. Il prodotto tensoriale r ⊗ s : GL(V ) −→ GL(V ⊗ V ∗ ), (r ⊗ s)(A)(v ⊗ wl ) = (Av) ⊗ (t A−1 wl ), P dove, per l = li i ∈ V ∗ e i la base duale, wl è il vettore colonna con coefficienti (wl )i = li , cioè wl = t l se l è visto come matrice con una sola riga e n colonne. L’identificazione naturale V ⊗V∗ ∼ = End(V ) (tale che (v ⊗ l)(x) = l(x)v, cioè v ⊗ l 7→ vl = v(t wl ) vedi 1.1.10) seguito dall’isomorfismo End(V ) ∼ = Mn (R) dà allora (Av) ⊗ (t A−1 wl ) 7→ A(v t wl )A−1 . Otteniamo cosı̀ la descrizione seguente di r ⊗ s: r ⊗ s : GL(V ) −→ End(V ) ∼ = Mn (R), (r ⊗ s)(A)(M ) = AM A−1 , che è infatti la ben nota formula per M dopo il cambio di base dato da A. La rappresentazione ρ ⊗ σ := (d(r ⊗ s))e dell’algebra di Lie gl(n) = Mn (R) di GL(V ) è data da ρ ⊗ σ := (d(r ⊗ s))e : gl(n) −→ End(Mn (R)), ρ ⊗ σ(X)(M ) = XM − M X. Si verifica che il sottospazio delle matrici con traccia zero sl(n) è un sottospazio invariante, anche il sottospazio delle matrici D = {λI : λ ∈ R} in Mn (R) è un sottospazio invariante e si ha Mn (R) = sl(n) ⊕ D. 5.3.3 Omomorfismo di rappresentazioni. Un omomorfismo tra due rappresentazioni ρ : g → End(V ) e σ : g → End(W ) di un’algebra di Lie g è un’applicazione lineare S : W −→ V tale che ρ(X)S = Sσ(X) (∀X ∈ g). Si verifica facilmente che ker(S) è un sottospazio invariante di W e che im(S) è un sottospazio invariante di V . Infatti, se w ∈ ker(S) e X ∈ g allora S(σ(X)w) = ρ(X)(Sw) = ρ(X)0 = 0 quindi anche σ(X)w ∈ ker(S), e similmente, se v ∈ im(S) allora v = Sw per un w ∈ W e: ρ(X)v = ρ(X)Sw = S(σ(X)w) quindi anche ρ(X)v ∈ im(S). Le due rappresentazioni sono dette isomorfe se esiste un isomorfismo S : W → V tale che ρ(X) = Sσ(X)S −1 : V −→ V 5 GRUPPI E ALGEBRE DI LIE 93 per ogni X ∈ g. Per esempio, se V = W = Rn , due rappresentazioni sono isomorfe se e solo se una è ottenuta dall’altra tramite un cambio di base di Rn . Due rappresentazioni r : G → GL(V ) e s : G → GL(W ) di un gruppo di Lie G sono dette isomorfe se esiste un isomorfismo S : W → V tale che r(g) = Ss(g)S −1 : V −→ V per ogni g ∈ G. Si noti che se r, s sono isomorfe, allora anche le rappresentazioni delle algebre di Lie che definiscono, (dr)0 e (ds)0 , sono isomorfe. Una proprietà importante di un omomorfismo S di rappresentazioni è che sia il nucleo sia l’immagine di S sono sottospazi invarianti. Lo mostriamo per un omomorfismo tra due rappresentazioni ρ : g → End(V ) e σ : g → End(W ) di un algebra di Lie g, il caso di un gruppo di Lie G è analogo. Per mostrare che ker(S) è un sottospazio invariante di W prendiamo un w ∈ ker(S) (cioè Sw = 0) e un X ∈ g e verifichiamo che anche σ(X)w ∈ ker(S): S(σ(X)w) = ρ(X)Sw = ρ(X)0 = 0, quindi σ(X)w ∈ ker(S) come desiderato. Similmente, per mostrare che im(S) è un sottospazio invariante di V prendiamo un v ∈ im(S) (cioè v = Sw per un certo w ∈ W ) e un X ∈ g e verifichiamo che anche ρ(X)v ∈ im(S): ρ(X)v = ρ(X)Sw = S(σ(X)v), quindi ρ(X)v ∈ im(S) come desiderato. 5.3.4 Esempio: una rappresentazione di SL(2, R). Consideriamo la rappresentazione r, di dimensione infinita, di SL(2, R) sullo spazio C ∞ (R2 ) delle funzioni lisce su R2 data da r : SL(2, R) −→ Aut(C ∞ (R2 )), (r (A) F )(v) := F (t Av) (v ∈ R2 ). Si noti che: (r(A)(r(B)F )))(v) = (r(B)F )(t Av) = F (t B(t Av)) = F (t (AB)v) = (r(AB)F )(v), quindi r è una rappresentazione. La rappresentazione dell’algebra di Lie associata è: ρ : sl(2) −→ End(C ∞ (R2 )), (ρ(Z)F )(v) := d (r(t γ(t))F )(v)|t=0 dt (Z ∈ sl(2)), dove γ è un cammino in SL(2, R) con γ(0) = I, γ 0 (0) = Z. In particolare, con la base X, Y, H di sl(2) come in 5.2.3, si possono prendere i cammini γ(t) = exp(tX) ecc: t 1 t 1 0 e 0 exp(tX) = , exp(tY ) = , exp(tH) = . 0 1 t 1 0 e−t 5 GRUPPI E ALGEBRE DI LIE 94 Allora troviamo, con v = (x, y): (ρ(X)F )(v) = d (F (x, tx + y))|t=0 = (x∂y )F (v), dt (ρ(Y )F )(v) = d (F (x + ty, y))|t=0 = (y∂x F )(v), dt d (F (et x, e−t y))|t=0 = ((x∂x − y∂y )F )(v). dt L’algebra di Lie di sl(2) ha dunque una rappresentazione nei campi vettoriali su R2 . Lasciamo al lettore la verifica che vale proprio [X, Y ] = [y∂x , x∂y ] = x∂x − y∂y = H ecc. (ρ(H)F )(v) = 5.3.5 La rappresentazione V (n) di sl(2). Sia F un polinomio omogeneo di grado n, cioè F (λx, λy) = λn F (x, y) per ogni λ ∈ R. Allora si verifica che anche r(A)F è un polinomio omogeneo di grado n. Perciò R[x, y]n := {F ∈ R[x, y] : F (λx, λy) = λn F (x, y) ∀λ ∈ R } è un sottospazio vettoriale di C ∞ (R2 ) che è invariante sotto r(SL(2, R)) e perciò è anche invariante sotto ρ(sl(2)). La restrizione di ρ a questo sottospazio dà una rappresentazione ρn : sl(2) −→ End(R[x, y]n ), Z 7−→ ρn (Z) = ρ(Z)|R[x,y]n . Una base di R[x, y]n è data dai monomi xn , xn−1 y, . . . xn−a y a , . . . y n , quindi dim R[x, y]n = n + 1. Si noti che: ρn (H)(xn−a y a ) = (x∂x − y∂y )(xn−a y a ) = (n − a)xn−a y a − axn−a y a = (n − 2a)xn−a y a , quindi xn−a y a ∈ V (n)n−2a , e in modo simile: ρn (X)(xn−a y a ) = x∂y (xn−a y a ) = axn−a+1 y a−1 , ρn (Y )(xn−a y a ) = y∂x (xn−a y a ) = (n − a)xn−a−1 y a+1 . In particolare, ogni vettore della base è un autovettore per ρn (H), con autovalori n, n − 2, n − 4 . . . , −n, in più ρn (X)(xn ) = 0 e R[x, y]n è generato dalle ρn (Y )a (xn ) = ca xn−a y a con ca = n(n − 1) . . . (n − a + 1) 6= 0 per a = 1, . . . , n. 5.4 Algebre di Lie semplici 5.4.1 Algebre di Lie semplici e semi-semplici. Un’algebra di Lie g è detta semplice se dim g > 1 e se g non ha ideali tranne {0} e g. Cioè, se V ⊂ g è un sottospazio vettoriale tale che [x, v] ∈ V per ogni x ∈ g e v ∈ V allora V = {0} oppure V = g. 5 GRUPPI E ALGEBRE DI LIE 95 Un’algebra di Lie è detta semi-semplice se è somma diretta di algebre di Lie semplici. 5.4.2 Esempio. L’algebra di Lie del gruppo SL(n, R) sl(n) := {W ∈ Mn (R) : tr(W ) = 0 } è semplice per ogni n ≥ 2, qui lo dimostriamo per n = 2. Con la base X, Y, H di sl(2) come in 5.2.3, i commutatori sono dati da: [X, Y ] = −[Y, X] = H, [H, X] = −[X, H] = 2X, [H, Y ] = −[Y, H] = −2Y, e gli altri commutatori sono zero: [X, X] = [Y, Y ] = [H, H] = 0. Sia W ∈ sl(2) la matrice a b W = aH + bX + cY = (∈ sl(2)). c −a Allora si verifica: [X, W ] = 0 1 0 0 a b c −a − a b c −a 0 1 0 0 = c −2a 0 −c , e quindi, come sopra, ma con [X, W ] invece di W : 0 −2c [X, [X, W ]] = . 0 0 Sia adesso V ⊂ sl(2), V 6= 0, uno sottospazio vettoriale tale che [Z, W ] ∈ V per ogni Z ∈ sl(2) e W ∈ V , mostriamo che V = sl2 e quindi sl2 è semplice. Sia W ∈ V , W = aH + bX + cY 6= 0 come sopra, quindi uno dei coefficienti a, b, c è non zero. Se c 6= 0, abbiamo [X, W ] ∈ V , e poi [X, [X, W ]] ∈ V . Perciò −2cX ∈ V e quindi X ∈ V . Inoltre [Y, X] = −H ∈ V , e poi [Y, H] = 2Y ∈ V . Ma allora V contiene una base di sl2 e perciò V = sl2 . Nel caso c = 0, a 6= 0 si ha [X, Z] = −2aX ∈ V e quindi X ∈ V , come sopra si deduce che V = sl(2). Infine, se c = a = 0, b 6= 0 si ha Z = bX ∈ V e, ancora una volta, V = sl(2). Ne concludiamo che V = sl2 se V 6= 0 e quindi sl2 è un’algebra di Lie semplice. 5.4.3 Irriducibilità della rappresentazione aggiunta. Si ad la rappresentazione aggiunta di g in End(g) (vedi 5.2.5): ad : g −→ End(g), X 7−→ [Y −→ ad(X)(Y )] (X, Y ∈ g). Se g è semplice (vedi 5.4.1) allora ad è una rappresentazione irriducibile. Infatti, se W ⊂ g è un sottospazio invariante, allora ad(X)(Y ) ∈ W per ogni X ∈ g e Y ∈ W implica che W è un ideale di g. Poiché g è semplice si ha allora W = {0} oppure W = g. 5 GRUPPI E ALGEBRE DI LIE 96 5.4.4 Il nucleo di una rappresentazione. Sia ρ : g → End(V ) una rappresentazione di un’algebra di Lie. Il nucleo ker(ρ) è un’ideale di g perché se X ∈ g e Y ∈ ker(ρ) si ha ρ([X, Y ]) = ρ(X)ρ(Y ) − ρ(Y )ρ(X) = ρ(X) ◦ 0 − 0 ◦ ρ(X) = 0, quindi [X, Y ] ∈ ker(ρ). In particolare, se g è semplice, allora ogni rappresentazione di g è 0 (cioè ρ(X) = 0 per ogni X ∈ g) oppure ρ è iniettiva. 5.4.5 La decomposizione di Jordan. Per studiare le rappresentazioni di un’algebra di Lie g si usano gli autospazi di endomorfismi ρ(X) per X ∈ g. In generale, se V è uno spazio vettoriale complesso di dimensione finita e X ∈ End(V ), lo spazio V non è la somma diretta degli autospazi di X. Per esempio, la matrice X di 5.4.2 ha autovalore 0 (con moltiplicità 2), ma l’autospazio corrispondente, generato da (1, 0), ha soltanto dimensione 1. Un endomorfismo ha una decomposizione di Jordan, cioè esiste una base di V tale che la matrice A dell’endomorfismo è una matrice ‘triangolare superiore’. Si può fare tale decomposizione in modo che la matrice A sia la somma di una matrice diagonale As e una matrice strettemente triangolare superiore An (cioè (An )kl = 0 se k ≤ l, in particolare XnN = 0 per N ≥ dim V ) e: A = As + An , As An = An As . Un risultato fondamentale è che se g è un algebra di Lie semi-semplice e X ∈ g allora ci sono (unici) Xs , Xn ∈ g tali che X = Xs + Xn e tali che ρ(X)s = ρ(Xs ), ρ(X)n = ρ(Xn ) per ogni rappresentazione ρ : g → End(V ) su uno spazio vettoriale V di dimensione finita. In particolare, sia g è semplice e ρ una rappresentazione non-banale. Se H ∈ g è tale che ρ(H) è diagonalizzabile, allora ρ(H)s = ρ(H) e ρ(H)n = 0. Poiché ρ è iniettiva, si ha allora che H = Hs e Hn = 0. Perciò in ogni rappresentazione σ di g si ha che σ(H) è diagonalizzabile. Per esempio, l’inclusione sl(2) ⊂ M2 (R) è una rappresentazione di sl(2) nella quale H è diagonale, quindi H = Hs . Dal risultato citato si ha allora che in ogni rappresentazione ρ di sl(2) in uno spazio vettoriale complesso V di dimensione finita, l’endomorfismo ρ(H) è diagonalizzabile, cioè: V = ⊕λ∈C Vλ , Vλ = {v ∈ V : ρ(H)v = λv }. Similmente, X = Xn e quindi esiste un N (che dipende dalla rappresentazione!) tale che ρ(X)N = 0. 5.4.6 Completa riducibilità di rappresentazioni. Sia ρ : g → End(V ) una rappresentazione di un’algebra di Lie in uno spazio vettoriale V . La rappresentazione ρ è detta completamente riducibile se V = ⊕i∈I Wi dove ogni Wi è una sottorappresentazione irriducibile. 5 GRUPPI E ALGEBRE DI LIE 97 Un risultato fondamentale di H. Weyl dice che se g è semi-semplice, allora ogni rappresentazione di g in uno spazio vettoriale di dimensione finita è completamente riducibile. le PIn più, sottorappresentazioni irriducibili sono determinate in modo unico, cioè se ⊕Wi ∼ Wj0 dove = 0 . gli Wi , Wj0 sono irriducibili, allora esiste una permutazione σ degli indici tale che Wi ∼ = Wσ(j) Questo risultato implica anche che se W ⊂ V è una sottorappresentazione irriducibile, allora W ∼ = Wi per un certo i. 5.5 Le rappresentazioni irriducibili dell’algebra di Lie sl(2) 5.5.1 Le rappresentazioni di sl(2). Si studi una rappresentazione qualunque di sl(2) in uno spazio vettoriale V . Da questo studio è facile ottenere tutte le rappresentazioni irriducibili di sl(2). Esse sono parametrizzate da un intero n ∈ Z≥0 , detto il peso più alto della rappresentazione. La rappresentazione ρn con peso più alto n è in uno spazio vettoriale V (n) di dimensione n + 1. 5.5.2 Rappresentazioni di sl(2). Sia ρ : sl(2) → End(V ) una rappresentazione dell’algebra di Lie sl(2) in uno spazio vettoriale di dimensione finita. Sia X, Y, H la base di sl(2) data in 5.4.2. Poiché ρ è una rappresentazione abbiamo (in End(V )) [ρ(X), ρ(Y )] = ρ(H), [ρ(H), ρ(X)] = 2ρ(X), [ρ(H), ρ(Y )] = −2ρ(Y ). In particolare, vale ρ(H)ρ(X) = ρ(X)ρ(H) + ρ([H, X]) = ρ(X)ρ(H) + 2ρ(X) ecc. 5.5.3 Pesi e spazi di peso di una rappresentazione di sl(2). Consideriamo gli autovalori (detti pesi di ρ) e autospazi (detti spazi di pesi, (ingl: weight spaces)) dell’applicazione lineare ρ(H) : V → V . Mostreremo che questi autovalori sono interi, ma per adesso consideriamo un autovalore qualunque λ ∈ C di ρ(H). Nella complessificazione VC di V consideriamo l’autospazio corrispondente Vλ := {v ∈ VC : ρ(H)v = λv }, Per adesso non sfruttiamo il risultato generale sulla forme di Jordan di ρ(H) di 5.4.5. 5.5.4 L’azione di X e Y su Vλ . Un primo risultato è che gli endomorfismi ρ(X), ρ(Y ) di V trasformano un autospazio di ρ(H) in un altro: ρ(X)Vλ ⊂ Vλ+2 , ρ(Y )Vλ ⊂ Vλ−2 , cioè ρ(X) alza il peso di 2 mentre ρ(Y ) l’abbassa di 2. Questo segue dal calcolo seguente: per v ∈ Vλ si ha ρ(H)(ρ(X)v) = (ρ(X)ρ(H))v + ρ([H, X])v = ρ(X)(λv) + 2ρ(X)v = (λ + 2)ρ(X)v, e similmente ρ(H)(ρ(Y )v) = (λ − 2)ρ(Y )v. 5 GRUPPI E ALGEBRE DI LIE 98 5.5.5 Vettori massimali. Sia v ∈ Vλ , v 6= 0. Allora ρ(X)k v è un autovettore di ρ(H) con autovalore λ + 2k. Poiché V ha dimensione finita e i numeri complessi λ, λ + 2, λ + 4, . . . sono distinti, esiste un k tale che ρ(X)k v 6= 0, ρ(X)k+1 v = 0. Un vettore v ∈ V è detto vettore massimale (per la rappresentazione ρ) se v è un autovettore di ρ(H) e se ρ(X)v = 0. Come visto, ogni autovettore v, v 6= 0, di ρ(H) dà un vettore massimale, non zero, di V . In particolare, ogni rappresentazione V di sl(2) (più preciso: ogni rappresentazione ρ : sl(2) → End(V )) ha vettori massimali. 5.5.6 Vettori massimali e sottorappresentazioni di V . Dato un vettore massimale v ∈ Vλ , v 6= 0, mostriamo che il sottospazio W := hv, ρ(Y )v, ρ(Y )2 v, . . . i (⊂ V ) è invariante per sl(2), quindi W è una sottorappresentazione di V . Per costruzione si ha ρ(Y )w ∈ W , per ogni w ∈ W . Poi ρ(H)w ∈ W per ogni w ∈ W perché ρ(H)(ρ(Y )l v) = (λ − 2l)(ρ(Y )l v) ∈ W . Poiché v è massimale, ρ(X)v = 0. Usando [X, Y ] = H si ha ρ(X)(ρ(Y )v) = ρ(Y )(ρ(X)v) + ρ(H)v = 0 + λv ∈ W. Per induzione su k, supponendo che ρ(X)(ρ(Y )k−1 v) ∈ W , troviamo allora: ρ(X)(ρ(Y )k v) = ρ(Y )(ρ(X)ρ(Y )k−1 v) + ρ(H)(ρ(Y )k−1 v) ∈ W, perché sia ρ(X)ρ(Y )k−1 v che ρ(H)(ρ(Y )k−1 v) stanno in W . Quindi W è invariante per ρ(Y ), ρ(H) e ρ(X) e perciò è invariante per sl(2). Dato un vettore massimale v di una rappresentazione ρ : sl(2) → End(W ) abbiamo quindi costruito un sottospazio W di V con v ∈ W tale che la rappresentazione ρ definisce una rappresentazione sl(2) → End(W ) (per essere precisi: l’immagine di w ∈ W sotto M ∈ sl(2) è ρ(M )w). Si dice che W è la sottorappresentazione di V generata dal vettore massimale v. 5.5.7 La sottorappresentazione W . Sia W la sottorappresentazione di V generata da un vettore massimale v ∈ Vλ (vedi 5.5.6). Se dim W = n + 1, una base di W è data dalle ρ(Y )k v, con k = 0, 1, . . . , n (questi vettori sono indipendenti perché ρ(H)ρ(Y )k v = (λ − 2k)ρ(Y )k v). In particolare, ρ(Y )n v 6= 0 e ρ(Y )n+1 v = 0. L’azione di ρ(Y ) e ρ(H) su questa base sono semplici da descrivere: ρ(Y )k+1 v k < n, k k k ρ(H)ρ(Y ) v = (λ − 2k)ρ(Y ) v, ρ(Y )ρ(Y ) v = 0 se k = n. Adesso mostriamo che k ρ(X)ρ(Y ) v = k−1 ck ρ(Y ) 0 se k = 0, v 1 ≤ k ≤ n, dove ck = kλ − k(k − 1). Abbiamo già visto i casi k = 0, 1: ρ(X)v = 0, ρ(X)(ρ(Y )v) = ρ(Y )(ρ(X)v) + ρ(H)v = λv. 5 GRUPPI E ALGEBRE DI LIE 99 Usando questo, troviamo: ρ(X)(ρ(Y )2 v) = ρ(Y )(ρ(X)ρ(Y )v) + ρ(H)(ρ(Y )v) = ρ(Y )(λv) + (λ − 2)(ρ(Y )v) = (λ + (λ − 2))(ρ(Y )v), quindi c2 = 2λ − 2. Poiché ρ(X)(ρ(Y )k v) = ρ(Y )(ρ(X)ρ(Y )k−1 v) + ρ(H)(ρ(Y )k−1 v) troviamo in generale: ρ(X)(ρ(Y )k v) = (λ + (λ − 2) + . . . + (λ − 2(k − 1)))ρ(Y )k−1 v = (kλ − 2(1 + 2 + . . . + (k − 1)))ρ(Y )k−1 v = (kλ − k(k − 1))ρ(Y )k−1 v. In particolare, le matrici di ρ(H), ρ(Y ) e ρ(X) rispetto alla base v, ρ(Y )v, . . . , ρ(Y )n v di W sono determinate in modo unico dal peso λ di v e dalla dimensione n + 1 di W . 5.5.8 I pesi sono interi. Mostriamo che il peso λ del vettore massimale v è un intero: λ ∈ Z≥0 , in più dim W = λ + 1, in particolare, ogni autovalore λ − 2k di ρ(H) su W è un intero. Poiché ρ(Y )n+1 v = 0 otteniamo: 0 = ρ(X)ρ(Y )n+1 v = cn+1 ρ(Y )n v. Dato che ρ(Y )n v 6= 0 si ha cn+1 = 0: 0 = cn+1 = (n + 1)λ − (n + 1)n =⇒ λ = n. Gli n + 1 autovalori, i pesi, di ρ(H) sullo spazio n + 1-dimensionale W sono allora gli interi n, n − 2, n − 4, . . . , n − 2n = −n, ognuno con molteplicità 1: W = ⊕nk=0 Wn−2k , Wµ := {w ∈ W : ρ(H)w = µw } dim Wµ = 1. Una base di Wn−2k è data da ρ(Y )k v, quindi ρ(Y ) : Wn−2k → Wn−2(k+1) è un isomorfismo, tranne se k = n (in quel caso Wn−2(k+1) = 0). In più, abbiamo visto che per k = 1, . . . , n ρ(X)(ρ(Y )k v) = ck ρ(Y )k−1 v con ck 6= 0 (k = 1, . . . , n) quindi in questi casi ρ(X) : Wn−2k → Wn−2(k−1) è un isomorfismo e ρ(X)Wn = 0 perché v ∈ Wn è un vettore massimale. Segue che ker ρ(X) = Wn . In particolare, ogni vettore massimale in W è un moltiplo di v. Adesso non è difficile verificare che le matrici che abbiamo trovato per ρ(X), ρ(Y ) e ρ(H) rispetto alla base ρ(Y )k v, k = 0, . . . , n, di W , definiscono una rappresentazione di sl(2). In 5.3.5 si darà un’altra dimostrazione. 5 GRUPPI E ALGEBRE DI LIE 100 5.5.9 La sottorappresentazione W è irriducibile. Sia W 0 ⊂ W un sottospazio sl(2)invariante con W 0 6= 0. Prendiamo un w ∈ W 0 , w 6= 0. Allora esiste un l ≥ 0 tale che ρ(X)l w 6= 0 ma ρ(X)l+1 w = 0. Per quanto visto prima, si ha allora ρ(X)l w = cv, dove v è il vettore massimale e c ∈ C, c 6= 0. Poichè W 0 è sl(2)-invariante, si ha allora v ∈ W 0 e poi ρ(Y )k v ∈ W 0 per ogni k ≥ 0, quindi W 0 = W . In questo modo abbiamo mostrato che gli unici sottospazi sl(2)-invarianti in W sono {0} e W , e quindi la rappresentazione di sl(2) in End(W ) è irriducibile. 5.5.10 La rappresentazione irriducibile V (n) di sl(2). Sia adesso V una rappresentazione irriducibile di sl(2). La scelta di un vettore massimale non-zero v ∈ V definisce una sottorappresentazione non-banale W di V . Poiché V è irriducibile, V = W (ed il vettore massimale è quindi unico a meno di moltiplicazione per uno scalare non nullo). Poiché W ha una base data dalle vk := ρ(Y )k v, 0 ≤ k ≤ n dove ρ(H)v = nv, e poiché le applicazioni ρ(Y ), ρ(H) e ρ(X) rispetto a questa base sono state determinate in modo unico, tale rappresentazione è unica. Si può verificare che queste applicazioni definiscono davvero una rappresentazione (oppure vedi 5.3.5). Quindi esiste un’unica rappresentazione irriducibile di dimensione n + 1 di sl(2), scritto V (n), e anche: ρn : sl(2) −→ End(V (n)). La rappresentazione V (n) ha allora pesi λ = n, n − 2, . . . , −n, il peso più alto è n e ogni spazio di peso V (n)λ ha dimensione 1. 5.6 Rappresentazioni di sl(2). 5.6.1 Esempi. La rappresentazione ρ0 è quella banale: ρ(Z) = 0 per ogni Z ∈ sl(2). La rappresentazione ‘identità’ è ρ1 : sl(2) ,→ M2 (R) e si noti che gli autovalori di ρ1 (H) = H sono proprio 1 e 1 − 2 = −1. Poi c’è la rappresentazione aggiunta ad : sl(2) → End(sl(2)) ∼ = M3 (R) (vedi anche 5.2.5). Poiché X, H, Y sono una base di sl(2) e poiché ad(H)(X) = [H, X] = 2X, ad(H)(H) = [H, H] = 0, ad(H)(Y ) = [H, Y ] = −2Y si ha ad(H) = diag(2, 0, −2), in particolare, ad(H) ha autovalori 2, 2 − 2 = 0, 2 − 4 = −2. Inoltre, sl(2) ha base di autovettori X, ad(Y )(X) = [Y, X] = −H, ad(Y )2 (X) = [Y, [Y, X]] = [Y, −H] = 2Y e la dimensione della rappresentazione irriducibile ad è 2 + 1 = 3. 5.6.2 La formula di Clebsch-Gordan. Studiamo ora la decomposizione del prodotto tensoriale di due rappresentazioni irriducibili di sl(2). Per la classificazione ottenuta in 5.5.10, dobbiamo considerare la rappresentazione ρ : sl(2) −→ V (n) ⊗ V (m), ρ(Z)(v ⊗ w) = (ρn (Z)v) ⊗ w + w ⊗ (ρm (Z)w) 5 GRUPPI E ALGEBRE DI LIE 101 dove Z ∈ sl(2) e con n, m ∈ Z≥0 di dimensione (n + 1)(m + 1). La rappresentazione ρ si decompone, in modo unico, (vedi 5.4.6) in rappresentazioni irriducibili. Poiché le rappresentazioni irriducibili sono determinate dai loro pesi, basta considerare questi. Se v ∈ V (n) e w ∈ V (m) sono autovettori di ρn (H) e ρm (H), con autovalori λ, µ rispettivamente, allora (vedi 5.3.1): ρ(H)(v ⊗ w) = (ρn (H)v) ⊗ w + v ⊗ (ρm (H)w) = λ(v ⊗ w) + µ(v ⊗ w) = (λ + µ)(v ⊗ w). Quindi il prodotto tensoriale di due autovettori è un autovettore. Poiché V (n) e V (m) sono somma diretta di spazi peso troviamo allora che gli spazi pesi di V (n) ⊗ V (m) sono: (V (n) ⊗ V (m))ν = ⊕λ+µ=ν V (n)λ ⊗ V (m)µ . Poiché i pesi di V (n) e V (m) sono n, n − 2, . . . , n − 2k, . . . , −n e m, m − 2, . . . , m − 2l, . . . , −m i pesi di V (n) ⊗ V (m) sono allora gli (n + 1)(m + 1) interi nella tabella n + 1 × m + 1 qui sotto: n+m (n − 2) + m .. . n + (m − 2) (n − 2) + (m − 2) .. . ... ... n + (m − 2l) (n − 2) + (m − 2l) .. . ... ... n−m (n − 2) − m .. . (n − 2k) + m (n − 2k) + (m − 2) . . . (n − 2k) + (m − 2l) . . . (n − 2k) − m .. .. .. .. . . . . −n − m −n + (m − 2) ... −n + (m − 2l) ... −n − m In particolare, n + m è il peso più alto di V (n) ⊗ V (m) e perciò la rappresentazione irriducibile V (n + m) è una sottorappresentazione di V (n) ⊗ V (m), con moltiplicità uno. Poiché i pesi di V (n + m) sono gli n + m − 2r, r = 0, . . . , n + m, gli altri pesi di V (n) ⊗ V (m) sono quelli che rimangono togliendo la prima riga e l’ultima colonna della tabella. Il peso più alto rimasto è allora (n−2)+m = n+m−2 e quindi V (n+m−2) è una sottorappresentazione di V (n)⊗V (m), con moltiplicità uno. Poi togliamo la prima riga e l’ultima colonna della tabella che era rimasta e troviamo che V (n + m − 4) è una sottorappresentazione di V (n) ⊗ V (m), con moltiplicità uno, ecc. Conclusione: V (n) ⊗ V (m) ∼ = V (n + m) ⊕ V (n + m − 2) ⊕ . . . ⊕ V (|n − m|), questa formula si chiama formula di Clebsch-Gordan. 5.6.3 Esempio. La formula di Clebsch-Gordan dà: V (1) ⊗ V (1) ∼ = V (2) ⊕ V (0) ∼ = Sym2 (R2 ) ⊕ R dove la rappresentazione di sl(2) su R è quella banale. Questa si verifica facilmente, la rappresentazione V (1) ⊗ V (1) è ottenuta dalla rappresentazione di SL(2) su M2 (R) per r(g)(M ) = gM t g (vedi 5.3.2), ovviamente Sym2 (R2 ) e Alt2 (R2 ) sono sottospazi invarianti, e abbiamo visto in 5.3.5 che Sym2 (R2 ) ∼ = V (2) e Alt2 (R2 ) ha dimensione uno, quindi è la rappresentazione banale dell’algebra di Lie semplice sl(2) (vedi 5.4.4). 5 GRUPPI E ALGEBRE DI LIE 102 5.6.4 La decomposizione di prodotti tensoriali. Un modo comodo per trovare esplicitamente la decomposizione di un prodotto tensoriale di rappresentazioni irriducibili di sl(2) dato dalla formula di Clebsch-Gordan è il seguente. Consideriamo V (n) = R[x, y]n e V (m) = R[u, v]m (vedi 5.3.5), prendiamo altre variabili per ottenere la decomposizione di V (n) ⊗ V (m) = R[x, y]n ⊗ R[u, v]m in modo più semplice. Da 5.3.1 e 5.3.5 otteniamo: ρn (X) ⊗ ρm (X) = x∂y + u∂v , ρn (H) ⊗ ρm (H) = x∂x − y∂y + u∂u − v∂v . Con questi operatori si ottiene: (ρn (X) ⊗ ρm (X))(xv − yu) = (x∂y + u∂v )(xv − yu) = 0, (ρn (H) ⊗ ρm (H))(xv − yu) = (x∂x − y∂y + u∂u − v∂v )(xv − yu) = 0. Quindi anche (xv − yu)k 7→ 0 applicando questi operatori. Per ottenere la decomposizione di una rappresentazione di sl(2) dobbiamo trovare i vettori massimali, cioè i polinomi f ∈ R[x, y]n ⊗ R[u, v]m tali che (ρn (X) ⊗ ρm (X))(f ) = 0 e tali che (ρn (H) ⊗ ρm (H))(f ) = kf , allora k ≥ 0 e f genera una coppia di V (k). Poiché gli operatori lineari considerati sono derivazioni, troviamo: (ρn (X) ⊗ ρm (X))(xa ub (xv − yu)c ) = ub (xv − yu)c (ρn (X) ⊗ ρm (X))(xa ) + . . . = axa−1 ub (xv − yu)c (x∂y + u∂v )(x) + . . . = 0 + 0 + 0 = 0, e, similmente, (ρn (H) ⊗ ρm (H))(xa ub (xv − yu)c ) = (a + b + 0)xa ub (xv − yu)c = (a + b)xa ub (xv − yu)c . Quindi xa ub (xv − yu)c è un vettore massimale, di peso a + b, per ogni a, b, c ∈ Z≥0 tale che xa ub (xv − yu)c ∈ R[x, y]n ⊗ R[u, v]m , cioè tale che a + c = n, b + c = m. Supponiamo ora che n ≥ m, allora c = 0, 1, . . . , m poi b = m − c, a = n − c e il peso massimale corrispondente è a + b = n + m − 2c. Quindi troviamo che R[x, y]n ⊗ R[u, v]m ha sottorappresentazioni isomorfe a V (n + m), V (n + m − 2), . . . , V (n − m). Secondo Clebsch e Gordan queste sono tutte le sottorappresentazioni irriducibili di R[x, y]n ⊗ R[u, v]m . Nel caso n = m, lo scambio di variabili x ↔ u, y ↔ v dà una decomposizione in autospazi: V (n) ⊗ V (n) = Sym2 (V (n)) ⊕ Alt2 (V (n)). Si noti che il vettore massimale della sottorappresentazione V (n − 2k) di V (n) ⊗ V (n) è xn−k un−k (xv − yu)k , che è simmetrico se k è pari ed alternante se k è dispari. Quindi si ha: Sym2 (V (n)) = V (2n) ⊕ V (2n − 4) ⊕ . . . ⊕ V (2n − 4k) . . . , Alt2 (V (n)) = V (2n − 2) ⊕ V (2n − 6) ⊕ . . . ⊕ V (2n − 4k − 2) . . . . 6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3) 6 103 Le rappresentazioni dell’algebra di Lie sl(3) Testi consigliati: [FH], [Ha], [Hu]. 6.1 L’algebra di Lie sl(3). 6.1.1 Introduzione. In questo capitolo daremo la classificazione delle rappresentazioni irriducibili delle algebre di Lie sl(3) e su(3). Il risultato è che le rappresentazioni irriducibili di sl(3) sono classificate da una coppia di interi positivi, o meglio, da ‘un peso dominante’. In 6.5.9 mostriamo che c’è una biiezione tra le rappresentazioni irriducibili di sl(3) e quelle di su(3). Quest’ultime sono di grande importanza per il modello standard delle particelle elementari, si veda il capitolo 14. 6.1.2 L’algebra di Lie sl(3). L’algebra di Lie sl(3) del gruppo di Lie SL(3) è data da: sl(3) = { X ∈ M3 (C) : T r(X) := X11 + X22 + X33 = 0 } (vedi 5.1.7), in particolare, sl(3) è uno spazio vettoriale complesso di dim sl(n) = 32 − 1 = 8. Sia h il sottospazio di sl(3) delle matrici diagonali: h = {H = diag(t1 , t2 , t3 ) ∈ M3 (C) : t1 + t2 + t3 = 0 }, si noti che dim h = 2. Se H1 , H2 ∈ h, allora H1 H2 = H2 H1 perché H1 , H2 sono matrici diagonali, quindi si ha [H1 , H2 ] = 0. Perciò h è una sottoalgebra abeliana di sl(3). Ogni H ∈ h definisce una mappa lineare ad(H) : sl(3) −→ sl(3), X 7−→ ad(H)(X) := [H, X] (= HX − XH). Un X ∈ sl(3) è un autovettore, con autovalore λ ∈ C, di ad(H) se ad(H)(X) = λX. Dato che ad(H)(H1 ) = 0 per ogni H1 ∈ h, ogni elemento nel sottospazio h è un autovettore di ad(H) con autovalore λ = 0, e questo per ogni H ∈ h. Per trovare gli altri autovettori di ad(H) calcoliamo in modo esplicito questa mappa: t1 0 0 x11 x12 x13 t1 x11 t1 x12 t1 x13 HX = 0 t2 0 x21 x22 x23 = t2 x21 t2 x22 t2 x23 , 0 0 t3 x31 x32 x33 t3 x31 t3 x32 t3 x33 e similmente x11 x12 x13 t1 0 0 t1 x11 t2 x12 t3 x13 XH = x21 x22 x23 0 t2 0 = t1 x21 t2 x22 t3 x23 . x31 x32 x33 0 0 t3 t1 x31 t2 x32 t3 x33 6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3) 104 Quindi si ha 0 (t1 − t2 )x12 (t1 − t3 )x13 0 (t2 − t3 )x23 . ad(H)(X) = [H, X] = HX − XH = (t2 − t1 )x21 (t3 − t1 )x31 (t3 − t2 )x32 0 (1) Si noti che una matrice X = (xij ) che ha tutti i coefficienti xij = 0, tranne x12 6= 0, è un autovettore con autovalore t1 − t2 . Similmente per le altre coppie i, j con i 6= j. Quindi conviene introdurre una base di sl(3) di ‘matrici elementari’. Sia Ei,j la matrice ‘elementare’: Ei,j ∈ Mn (C), (Ei,j )kl = δik δjl dove δab è la delta di Kronecker: δab = 1 se a = b e zero altrimenti. In particolare, tutti i coefficienti di Ei,j sono zero tranne il coefficiente nella i-esima riga e j-esima colonna che è (Ei,j )ij = 1. Per esempio 1 0 0 0 1 0 0 0 0 E1,1 = 0 0 0 , E1,2 = 0 0 0 , E2,1 = 1 0 0 . 0 0 0 0 0 0 0 0 0 La matrice Ei,i 6∈ sl(3) (perché T r(Ei,i ) = 1 6= 0), ma per esempio le due matrici H12 , H23 definite da H12 := E1,1 − E2,2 , H23 := E2,2 − E3,3 sono in sl(3) ed insieme sono una base di h. Una base di sl(3) è allora data da H12 , H23 e le sei matrici Ei,j con 1 ≤ i, j ≤ 3 e i 6= j. Il calcolo esplicito di ad(H)(X) (vedi equazione 1) mostra allora che ognuno di questi 8 vettori di base di sl(3) è un autovettore di ad(H) e l’autovalore di Ei,j è ti − tj : ad(H)(Ei,j ) = [H, Ei,j ] = (ti − tj )Ei,j . In particolare, sulla base H12 , H23 , E1,2 , E2,3 , E1,3 , E2,1 , E3,2 , E3,1 di sl(3) la matrice di ad(H) è data da una matrice 8 × 8 diagonale: ad(H) = diag(0, 0, t1 − t2 , t2 − t3 , t1 − t3 , t2 − t1 , t3 − t2 , t3 − t1 ), H = diag(t1 , t2 , t3 ). (2) 6.1.3 L’algebra di Cartan h. Ogni matrice H ∈ h è diagonale. Secondo un teorema (vedi 5.4.5), in ogni rappresentazione ρ di sl(3), la matrice ρ(H) può allora essere diagonalizzata per ogni H ∈ h. L’algebra h è abeliana. Se X ∈ sl(3) e X 6∈ h, allora almeno un coefficiente xij di X con i 6= j è non-zero. Questo implica, usando l’equazione (1), che [H, X] 6= 0 se H = diag(t1 , t2 , t3 ) ∈ h e ti 6= tj . Quindi non esiste una sottoalgebra h0 ⊂ sl(3), più grande di h (cioè h ⊂ h0 ) tale che h0 sia abeliana. In generale una tale algebra è detta algebra di Cartan: 6.1.4 Definizione. Sia g un’algebra di Lie complessa semplice. Una sottoalgebra di Lie h ⊂ g è detta un’algebra di Cartan se h è abeliana, se ogni elemento di h è diagonalizzabile (in una 6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3) 105 e quindi in ogni rappresentazione di g, vedi 5.4.5) e se h è massimale rispetto a tale proprietà (vedi [FH], Definition D.2). Si può mostrare che se h, h0 sono due algebre di Cartan di g, allora esiste un automorfismo g → g0 che manda h in h0 , quindi h è essenzialmente unica (vedi [FH] D.3). Il rango l di g è la dimensione di un’algebra di Cartan di g: l = rango(g) := dimC h. In particolare, il rango di sl(3) è l = 2. 6.1.5 I pesi delle rappresentazioni di sl(3). Sia h l’algebra di Cartan di sl(3) come in 6.1.2, sia V uno spazio vettoriale complesso e sia ρ : g −→ End(V ) una rappresentazione di g. Poiché ρ(H) è diagonalizzabile per ogni H ∈ h, si può decomporre V in autospazi per ρ(H12 ). Sia Vλ ⊂ V l’autospazio di ρ(H12 ) con autovalore λ. La mappa lineare ρ(H23 ) induce una mappa lineare Vλ → Vλ , cioè ρ(H23 )Vλ ⊂ Vλ , perché: ρ(H12 )(ρ(H23 )v) = ρ(H23 )(ρ(H12 )v) = ρ(H23 )(λv) = λ(ρ(H23 )v), (v ∈ Vλ ). Poiché anche ρ(H23 ) è diagonalizzabile, il sottospazio Vλ ammette una decomposizione in autospazi per H23 . Per λ, µ ∈ C definiamo un sottospazio Vλ,µ di Vλ (e quindi di V ) tramite Vλ,µ = {v ∈ V, : ρ(H12 )v = λv, ρ(H23 )v = µv }, cioè il sottospazio di V di autovettori di ρ(H12 ) con autovalore λ e di autovettori di ρ(H23 ) con autovalore µ. Allora Vλ = ⊕µ Vλ,µ e V = ⊕(λ,µ) Vλ,µ . Adesso consideriamo gli autovalori di ρ(H) per un elemento generico H ∈ h. Tale H ∈ h si scrive, in modo unico, come H = aH12 + bH23 per certi a, b ∈ C. Poiché ρ è lineare si ha per v ∈ Vλ,µ : ρ(H)v = aρ(H12 ) + bρ(H23 ) v = (aλ + bµ)v (v ∈ Vλ,µ ). Quindi ρ(H) ha l’autovalore aλ + bµ su Vλ,µ , si noti che l’autovalore dipende in modo lineare dagli elementi di H. Un autospazio Vλ,µ definisce allora una mappa lineare (un ‘peso’) L : h −→ C, H = aH12 + bH23 7−→ aλ + bµ, tale che ρ(H)v = L(H)v per ogni v ∈ Vλ,µ . Si scrive VL := Vλ,µ e VL è detto uno spazio peso (invece di autospazio per tutti gli elementi di h) con peso L ∈ h∗ , lo spazio duale di h. In particolare, ogni rappresentazione V ammette una decomposizione in spazi peso: V = ⊕L∈h∗ VL , ρ(H)v = L(H)v (∀v ∈ VL ). Poiché dim V è finita, VL = 0 tranne che per un numero finito di L ∈ h∗ , questi L sono detti i pesi della rappresentazione ρ. La molteplicità di un peso L è per definizione la dimensione di VL . 6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3) 106 6.1.6 La rappresentazione aggiunta di sl(3). La rappresentazione aggiunta dell’algebra di Lie sl(3) è (vedi 5.2.5 e 6.1.2): ad : g −→ End(g), X 7−→ (ad(X) : Y 7→ [X, Y ]). Abbiamo visto che rispetto a una base opportuna di sl(3) si ha (vedi equazione 2 di 6.1.2): ad(diag(t1 , t2 , t3 )) = diag(0, 0, t1 − t2 , t2 − t3 , t1 − t3 , t2 − t1 , t3 − t2 , t3 − t1 ). Definiamo Li ∈ h∗ con: Li : h −→ C, Poiché P Li (diag(t1 , t2 , t3 )) = ti . ti = 0 gli Li ∈ h∗ non sono indipendenti in h∗ ma si ha: L1 + L2 + L3 = 0 ∈ h∗ , In particolare, Li e Li − c(L1 + L2 + L3 ) sono la stessa mappa lineare su h per ogni c ∈ C. Una base dello spazio due dimensionale h∗ è L1 − L2 , L2 − L3 . Visto che (Li − Lj )(H) = ti − tj otteniamo allora che i pesi della rappresentazione aggiunta di sl(3) sono L = 0 e α1 := L1 − L2 , α2 := L2 − L3 , L1 − L3 , L2 − L1 , L3 − L2 , L3 − L1 , questi sei pesi hanno molteplicità uno, il peso 0 ha molteplicità 2. In particolare, l’algebra di Lie sl(3) ha la decomposizione in spazi peso: sl(3) = h ⊕ (⊕α∈h∗ −{0} gα ) dove il sottospazio gα è definito da: gα := {X ∈ sl(3) : [H, X] = α(H)X }, se α = Li − Lj allora gα = CEi,j , in particolare ogni gα è uno dimensionale. 6.1.7 Le radici di sl(3). Un elemento α ∈ h∗ è detto una radice (inglese: root) di g = sl(3) se α 6= 0 e gα 6= 0. L’insieme delle radici è indicato con R, quindi R = {±(Li − Lj ) : i 6= j}. Lo spazio radice (inglese root space) è l’autospazio gα di g, dove α ∈ R. Una radice α = Li − Lj è detta positiva se i < j, l’insieme delle tre radici positive lo si indica con R+ . Per una radice α = Li − Lj positiva si definisce Hα := Ei,i − Ej,j , Xα := Ei,j , X−α := Ej,i , si noti che Hα ∈ h, Xα ∈ gα e X−α ∈ g−α . Nel caso α = L1 − L2 si ha H12 = Hα ecc. Il sottospazio tridimensionale di g generato da Hα , Xα , X−α è una sottoalgebra di Lie di g isomorfa a sl(2), infatti si verifica che: [Hα , Xα ] = 2Xα , [Hα , X−α ] = −2X−α , [Xα , X−α ] = Hα , 6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3) 107 che coincide con i commutatori di sl(2) (vedi 5.4.2). 6.1.8 Il sistema delle radici di sl(3). Per visualizzare le radici di sl(3), che sono vettori in h∗ ∼ = C2 , conviene anzitutto osservare che le sei radici generano un sottospazio reale di dimensione due, indicato con h∗R , h∗R := Rα ⊕ Rα2 , α := L1 − L2 , α2 := L2 − L3 . P P Come abbiamo visto in 6.1.6 le mappe lineari i ai Li e i ai Li −c(L1 +L2 +L3 ) sono uguali su h∗ .PConvieneP normalizzare il modo di scrivere un peso nel modo seguente: la normalizzazione di i ai Li è i ai Li − c(L1 + L2 + L3 ) con c = (a1 + a2 + a3 )/3; con questa normalizzazione si ha X X X X X bi Li := ai Li − 31 ( ai )(L1 + L2 + L3 ), con b1 + b2 + b3 = ( ai ) − 3 13 ( ai ) = 0. i i i i i Usando questa normalizzazione, si può definire un prodotto scalare (−, −) su h∗R nel modo seguente: X X X X ( ai Li , bi Li ) = a1 b1 + a2 b2 + a3 b3 , ( ai = bi = 0). P P E’ importante la normalizzazione ai = bi = 0, per esempio, senza questa, (L1 , L1 ) = 1 mentre in realtà: (L1 , L1 ) = ((2L1 − L2 − L3 )/3, (2L1 − L2 − L3 )/3) = (4 + 1 + 1)/9 = 2/3. Le radici α1 = L1 − L2 , α2 = L2 − L3 sono già normalizzate e si ha (α1 , α1 ) = (α2 , α2 ) = 2, (α1 , α2 ) = −1. - α2 - In 6.6 si dà un modo meno ad-hoc per costruire il prodotto scalare su h∗ . Un disegno del sistema di radici è allora: α1 + α2 α1 α1 = L 1 − L 2 , α2 = L 2 − L 3 , α1 + α2 = L 1 − L 3 . - 6.1.9 Il gruppo di Weyl. Per una radice α, denotiamo con α⊥ l’iperpiano perpendicolare ad α: α⊥ := {x ∈ h∗R : (x, α) = 0 } (⊂ h∗R ). 6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3) 108 Sia sα la riflessione in α⊥ : sα : h∗R −→ h∗R , x 7−→ x − 2 (x, α) α = x − (x, α)α, (α, α) (l’ultima ugualianza vale perché (α, α) = 2 per ogni radice di sl(3)), per verificare la formula basta notare la linearità, che sα (x) = x se x ∈ α⊥ , cioè se (x, α) = 0, e che sα (λα) = −λα per α ∈ R. Si noti che sα = s−α per ogni α. Il sottogruppo del gruppo ortogonale di h∗R generato dalle sα , α ∈ R è il gruppo di Weyl di g, denotato W = W (g) := h sα : α ∈ R i (⊂ O(h∗R )). Dal diagramma in 6.1.8 si vede (e si verifca facilmente) che, con α1 = L1 − L2 , α2 = L2 − L3 , si ha α1 7−→ −α1 , α1 7−→ α1 + α2 , α1 7−→ −α2 , sα1 : sα2 : sα1 +α2 : α2 7−→ α1 + α2 , α2 7−→ −α2 , α2 7−→ −α1 . L’insieme delle sei radici R rimane quindi invariante sotto W . Si noti che sα1 permuta L1 , L2 e fissa L3 , sα2 permuta L2 , L3 e fissa L1 mentre sα1 +α2 permuta L1 , L3 e fissa L2 , per esempio sα1 +α2 (α1 ) = sα1 +α2 (L1 − L2 ) = L3 − L2 = −(L2 − L3 ) = −α2 . E’ facile vedere che il gruppo di Weyl di sl(3) è isomorfo al gruppo simmetrico S3 per esempio perché permuta le Li . 6.1.10 Pesi e prodotto scalare. Sia α = Li − Lj ∈ R+ eP sia Hα = Ei,i − Ej,j l’elemento di h nella copia di sl(2) definito da α (vedi 6.1.7). Sia λ = ai Li ∈ h∗ , normalizzata, cioè P ai = 0. Allora X λ(Hα ) = ( ai Li )(Ei,i − Ej,j ) = ai − aj . D’altra parte, poiché λ e Li − Lj sono normalizzati, anche: X (λ, α) = ( ai Li , Li − Lj ) = ai − aj . Quindi otteniamo l’identità, per ogni λ ∈ h∗ e ogni α ∈ R: λ(Hα ) = (λ, α). 6.1.11 Commutatori e radici in sl(3). commutatori: [gα , gβ ] ⊆ gα+β (3) Mostriamo che le radici determinano vari (α, β ∈ R), in particolare [gα , gβ ] = 0 se α + β 6∈ R. La dimostrazione è facile, sia Xα ∈ gα , Xβ ∈ gβ , allora [H, [Xα , Xβ ]] = [[H, Xα ], Xβ ] + [Xα , [H, Xβ ]] = α(H)[Xα , Xβ ] + β(H)[Xα , Xβ ] = (α + β)(H)[Xα , Xβ ] 6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3) 109 e perciò [Xα , Xβ ] ∈ gα+β , dove abbiamo usato l’identità di Jacobi come in 5.2.5. Si può mostrare che [gα , gβ ] = gα+β se α + β ∈ R. 6.2 Pesi: integralità e simmetria 6.2.1 I pesi di una rappresentazione. In 6.1.5 abbiamo visto che ogni rappresentazione ρ : sl(3) −→ End(V ) dà una decomposizione di V in spazi peso (autospazi per gli elementi dell’algebra di Cartan h): V = ⊕λ V λ , ρ(H)v = λ(H)v (∀H ∈ h, v ∈ Vλ ) dove λ : h → C è un’applicazione lineare. L’insieme delle λ ∈ h∗ per le quali Vλ 6= 0 è detto l’insieme dei pesi di ρ. Per esempio, i pesi della rappresentazione aggiunta di g sono le radici e λ = 0 (vedi 7.1.5) sl(3) = h ⊕ (⊕α∈R gα ). Un altro esempio è V = C3 , la rappresentazione standard di g = sl(3). diag(t1 , t2 , t3 ) ∈ h è già diagonale sulla base standard ei di V , si ha: V = C3 = VL1 ⊕ VL2 ⊕ VL3 , VLi = Cei , Poiché H = perché Hei = ti ei = Li (H)ei . 6.2.2 Integralità e reticolo dei pesi ΛW . L’algebra di Cartan h è generata su C da H12 = Hα1 e H23 = Hα2 . Dato un Hα , ci sono X±α ∈ g tali che < Hα , Xα , X−α > sia una sottoalgebra di Lie di g isomorfa a sl(2) e tale che [Hα , X±α ] = ±2X±α (vedi 6.1.7). In particolare, la restrizione della rappresentazione ρ a questa sl(2) è una rappresentazione di sl(2) e quindi gli autovalori di ρ(Hα ) su V sono interi (vedi 5.5.8). Perciò, per ogni peso λ di V e per ogni α ∈ R si ha: λ(Hα ) ∈ Z Questo è equivalente a (vedi 6.1.10): (λ, α) ∈ Z (∀α ∈ R). Quindi un peso di una rappresentazione di sl(3) è contenuto nell’insieme: ΛW := {λ ∈ h∗R : (λ, α) ∈ Z ∀α ∈ R }. Ognuna delle sei radici ±α1 , ±α2 , ±(α1 + α2 ) di sl(3) si scrive come aα1 + bα2 , con a, b ∈ Z. Quindi (λ, γ) ∈ Z per ogni γ ∈ R se e solo se (λ, αi ) ∈ Z per i = 1, 2. 6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3) 110 I pesi fondamentali di sl(3) sono gli elementi λ1 , λ2 ∈ h∗R definiti da (λ1 , α1 ) = 1, (λ2 , α1 ) = 0, , (λ1 , α2 ) = 0, (λ2 , α2 ) = 1, dove α1 = L1 − L2 , α2 = L2 − L3 è la base ‘standard’ di h∗ . Poiché (−, −) è un prodotto scalare su h∗R segue che anche λ1 , λ2 è una base di h∗R e per definizione λ1 , λ2 ∈ ΛW . In più, si ha X X ( ai λi , α1 ) ∈ Z ⇐⇒ a1 ∈ Z, ( ai λi , α2 ) ∈ Z ⇐⇒ a2 ∈ Z. Quindi otteniamo che: ΛW = Zλ1 ⊕ Zλ2 . L’insieme ΛW è quindi un sottogruppo abeliano di rango 2 di h∗R e genera questo spazio. Esso si chiama il reticolo dei pesi (weight lattice) di sl(3). Un semplice calcolo mostra che λ1 = L1 = (2L1 − L2 − L3 )/3 c c c c c α2 c c c c c c c λ2 α1 c sc sc sc c c cλ1 c c c c c c sc sc c c c c c c c c c c c c c c c c c c c c c c λ2 = L1 + L2 = (L1 + L2 − 2L3 )/3. 0 c c c c c c c c c c c c c c c c c c c c c c sc sc c c c c c c c c Pesi fondamentali e radici di sl(3) c 6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3) 111 6.2.3 Il reticolo delle radici di sl(3). Il reticolo delle radici di sl(3) è il gruppo: α1 = L1 − L2 , α2 = L2 − L3 . ΛR := Zα1 + Zα2 Poiché ogni radice è una combinazione lineare con coefficienti interi delle radici semplici α1 , α2 , si ha R ⊂ ΛR . Inoltre, ogni radice è un peso della rappresentazione aggiunta e quindi ΛR ⊂ ΛW . In modo esplicito: α1 = L1 − L2 = 2λ1 − λ2 , α2 = L2 − L3 = −λ1 + 2λ2 . Il gruppo quoziente ΛW /ΛR risulta essere un gruppo finito con tre elementi e ha (più precisamente, il suo ‘duale’) un’interpretazione in termini del gruppo di Lie SL(3, C), vedi [FH] p.372-374. 6.2.4 Radici e pesi. L’algebra di Lie sl(3) ammette la decomposizione in spazi peso per la rappresentazione aggiunta: sl(3) = h ⊕ (⊕α∈R gα ). Mostriamo che l’azione di un ρ(Xα ), con Xα ∈ gα , manda Vλ in Vλ+α , ρ(Xα ) : Vλ −→ Vλ+α (Xα ∈ gα ). Per verificare ciò, sia v ∈ Vλ : ρ(H)(ρ(Xα )v) = = = = (ρ([H, Xα ]) + ρ(Xα )ρ(H))v (ρ(α(H)Xα ) + ρ(Xα )ρ(H))v (α(H) + λ(H))(ρ(Xα )v) (λ + α)(H)(ρ(Xα )v), quindi ρ(Xα )v ∈ Vλ+α . 6.2.5 Il gruppo di Weyl e i pesi. Mostriamo che per α ∈ R+ e λ un peso di V , anche sα (λ) è un peso di V , cioè l’insieme dei pesi di una rappresentazione è invariante per l’azione del gruppo di Weyl su h∗R . In più dim Vλ = dim Vsα (λ) , cioè, i pesi nella stessa orbita del gruppo di Weyl hanno la stessa molteplicità. Anzitutto si ha: sα (λ) = λ − (λ, α)α = λ − λ(Hα )α. Consideriamo la restrizione di ρ : sl(3) → End(V ) a sl(2) :=< Hα , Xα , X−α > (vedi 6.1.7). Visto che ρ(Hα )v = λ(Hα )v per ogni v ∈ Vλ , lo spazio Vλ è uno spazio peso per sl(2) con peso k := λ(Hα ) e molteplicità dim Vλ . Come visto in 6.2.4, ρ(X±α )Vλ ⊂ Vλ±α . Quindi otteniamo una rappresentazione di sl(2) sul sottospazio V[λ] di V definita da: V[λ] := ⊕n∈Z Vλ+nα (⊂ V ). Il sottospazio Vλ+nα è uno spazio peso per Hα ∈ sl(2) con peso (λ + nα)(Hα ) = λ(Hα ) + 2n perché α(Hα ) = (α, α) = 2. 6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3) 112 Dalla teoria delle rappresentazioni di sl(2) segue che se k è un peso di una rappresentazione di sl(2), allora anche −k è un peso con la stessa molteplicità e che ρ(X±α )k è un isomorfismo tra questi due spazi pesi (con segno − se k > 0). Per k > 0 si ha allora ρ(X−α )k (Vλ ) = Vλ−kα e k = λ(Hα ), e perciò: ∼ = ρ(X−α )k : Vλ −→ Vλ−λ(Hα )α = Vsα (λ) . Quindi anche Vsα (λ) è uno spazio peso e dim Vsα (λ) = dim Vλ . 6.3 Il peso massimale di una rappresentazione irriducibile 6.3.1 La camera di Weyl. Poiché il gruppo di Weyl W permuta i pesi di ogni rappresentazione di g, è interessante avere un modo di determinare un unico elemento (almeno, quasi sempre) in ogni orbita di W , dove l’orbita di un peso λ sotto W è l’insieme delle w(λ) dove w percorre W . Visto che W ∼ = S3 permuta le Li , l’orbita di λ1 = (2L1 − L2 − L3 )/3 è {(2L1 − L2 − L3 )/3 = λ1 , (−L1 + 2L2 − L3 )/3 = −λ1 + λ2 , (−L1 − L2 + 2L3 )/3 = −λ2 } (si noti che sα2 fissa λ1 ), mentre l’orbita di α1 = L1 − L2 è R, l’insieme delle radici. La camera di Weyl fondamentale (chiusa) è il sottoinsieme di h∗R dato da: C = {x ∈ h∗R : (x, αi ) ≥ 0, i = 1, 2 } = {a1 L1 + a2 L2 + a3 L3 : a1 ≥ a2 ≥ a3 }. Nel diagramma in 6.2.2, i bordi di C, detti pareti della camera di Weyl fondamentale, sono le due semirette indicate; la parte triangolare che essi definiscono è C. Poiché W permuta gli Li è facile vedere che per ogni x ∈ h∗R esiste un w ∈ W tale che w(x) ∈ C. Questo w è unico tranne se w(x) è su una delle due pareti di C, nel qual caso la riflessione in quella parete fissa w(x) (vedi [FH], Lemma D.31). 6.3.2 I pesi dominanti. Un peso λ ∈ ΛW è detto dominante se λ ∈ ΛW ∩ C. L’insieme dei pesi dominanti è indicato con nX o Λ+ := Λ ∩ C = m λ : m ∈ Z , W i i i ≥0 W l’ultima ugualianza segue dal fatto che ( P mi λi , αj ) = mj . 6.3.3 Vettori massimali e pesi massimali. Sia ρ : sl(3) → End(V ) una rappresentazione di sl(3). Un peso λ di ρ è detto massimale se esiste v ∈ Vλ , v 6= 0, tale che ρ(Xα )v = 0 per ogni α ∈ R+ . Il vettore v ∈ Vλ è detto vettore massimale di ρ. Ciò generalizza il concetto di vettore massimale per una rappresentazione di sl(2), vedi 5.5.5. Nel caso g = sl(2) i pesi massimali (in quel caso, interi n ∈ Z≥0 ) classificano le rappresentazioni irriducibili di g (vedi 5.5.10). Visto che R+ = {α1 , α2 , α1 + α2 } e Xα1 +α2 = [Xα1 , Xα2 ], si ha: ρ(Xα1 +α2 ) = ρ(Xα1 )ρ(Xα2 ) − ρ(Xα2 )ρ(Xα1 ), 6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3) 113 quindi un vettore v ∈ Vλ è massimale se e solo se ρ(Xαi )v = 0 per i = 1, 2. Se λ è un peso tale che Vλ+α1 = Vλ+α2 = 0, allora, poiché ρ(Xα )(Vλ ) ⊂ Vλ+α , ogni v ∈ Vλ , v 6= 0, è un vettore massimale di ρ. 6.3.4 I pesi massimali sono dominanti. Mostriamo che un peso massimale è un peso dominante. Sia λ un peso massimale e sia v ∈ Vλ un vettore massimale. Sia hHα , X±α i ⊂ sl(3) la copia di sl(2) definita da α, allora il vettore massimale v ∈ Vλ è un vettore massimale per questa sl(2). Perciò ρ(Hα )v = λ(Hα )v con λ(Hα ) ≥ 0. Per le radici α1 , α2 ∈ R+ si ha allora 0 ≤ λ(Hαi ) = (λ, αi ), quindi λ è dominante. 6.3.5 Esistenza di un vettore massimale. L’insieme dei pesi di una rappresentazione ρ di sl(3) è un insieme finito, quindi esiste un peso λ tale che Vλ 6= 0 ma Vλ+α = 0 per ogni α ∈ R+ . Quindi λ è un peso massimale di ρ e ogni v ∈ Vλ , v 6= 0 è un vettore massimale di ρ. 6.3.6 Esempio. Consideriamo la rappresentazione aggiunta V = sl(3) di sl(3). I suoi pesi sono lo 0 e gli Li −Lj con i 6= j. Tra questi, i pesi dominanti sono 0 e L1 −L3 = α1 +α2 = λ1 +λ2 . Quindi se v ∈ V è un vettore massimale, si ha v ∈ V0 = h oppure v ∈ VL1 −L3 = CE1,3 . Un vettore v ∈ V0 si scrive come v = aH12 + bH23 = aHα1 + bHα2 per certi a, b ∈ C. Poi v è massimale sse ρ(Xαi )v = 0 per i = 1, 2. Si ricordi che [Hα , Xβ ] = β(Hα )Xβ = (β, α)Xβ , cosı̀ ρ(Xα1 )v = [Xα1 , aHα1 + bHα2 ] = −aα1 (Hα1 ) − bα1 (Hα2 ) Xα1 = (−2a + b)Xα1 , quindi se v è massimale si ha b = 2a. In modo simile, ρ(Xα2 )v = (a − 2b)Xα2 , quindi se v è massimale anche a − 2b = 0 cioè a − 4a = 0 e perciò a = b = 0. La conclusione è che non ci sono vettori massimali in V0 . In 6.3.5 abbiamo visto che V dovrebbe avere un vettore massimale, e quindi ci deve essere un vettore massimale in VL1 −L3 . Poiché dim VL1 −L3 = 1, ogni vettore non-zero in VL1 −L3 è massimale. Si noti anche che VL1 −L3 = Vα1 +α2 e che α1 + α2 + αi non è un peso di V per i = 1, 2; questo implica che ogni vettore in Vα1 +α2 è massimale. 6.3.7 La rappresentazione irriducibile generata da un vettore massimale. Sia v ∈ Vλ un vettore massimale. Sia W il sottospazio generato dalle immagini di v mediante successive applicazioni di elementi di gβ con β ∈ R− . Mostriamo che W è una sottorappresentazione di g := sl(3). Sia R− = {β1 = L2 − L1 , β2 = L3 − L2 , β3 = L3 − L1 }, Wn := h ρ(Xβi1 ) . . . ρ(Xβik )v : βij ∈ R− , 0 ≤ k ≤ n i, W = ∪∞ n=0 Wn . Poiché ρ : g → End(V ) è lineare, basta mostrare che ρ(X)x ∈ W per ogni x ∈ W e X = H, Xβ , Xα con H ∈ h, β ∈ R− e α ∈ R+ . Sia x = ρ(Xβi1 ) . . . ρ(Xβik )v ∈ Wn con k ≤ n. Allora ρ(H)x = µ(H)x con µ = λ + βi1 + . . . + βik (vedi 8.1.6), quindi ρ(H)x ∈ W e, in più, x ∈ Vµ . In particolare, ρ(h)Wn ⊂ Wn (∀n ∈ Z≥0 ), 6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3) 114 e segue che ρ(H)W ⊂ W per ogni H ∈ h. L’unico vettore (a meno di moltiplicazione per uno scalare) in W con peso λ è v: Wλ = Cv, e ogni altro peso di W si scrive come µ = λ + βi1 + . . . + βik con k ≥ 1 e βij ∈ R− , cioè µ = λ − kα − lα2 con k, l ∈ Z≥0 dove α1 = L1 − L2 , α2 = L2 − L3 . La definizione di Wn mostra che per x ∈ Wn e β ∈ R− si ha ρ(Xβ )x ∈ Wn+1 . Segue che ρ(Xβ )W ⊂ W per ogni β ∈ R− . Infine, mostriamo per induzione su n che ρ(Xα )Wn ⊂ Wn ∀Xα ∈ gα , ∀α ∈ R+ ; da ciò segue che ρ(Xα )W ⊂ W per ogni α ∈ R+ . Se n = 0, si ha W0 = Cv e ρ(Xα )v = 0 perché v è un vettore massimale. Se x ∈ Wn e n > 0, allora x = ρ(Xβ )y con y ∈ Wn−1 e β ∈ R− , quindi ρ(Xα )x = ρ(Xα )ρ(Xβ )y = ρ(Xβ )ρ(Xα )y + ρ([Xα , Xβ ])y. Si noti che Y := [Xα , Xβ ] ∈ gα+β . Se α + β 6∈ R ∪ {0}, gα+β = 0 e quindi Y = 0. Se α + β = 0, Y ∈ h e quindi ρ(Y )y ∈ Wn . Se α + β ∈ R− allora ρ(Y )y ∈ Wn perché y ∈ Wn−1 . Se α + β ∈ R+ si ha ρ(Y )y ∈ Wn−1 per l’ipotesi di induzione. Quindi in ogni caso si ha ρ([Xα , Xβ ])y ∈ Wn . Sempre per l’ipotesi di induzione, per y ∈ Wn−1 si ha ρ(Xα )y ∈ Wn−1 , e perciò ρ(Xβ )ρ(Xα )y ∈ Wn . Allora anche ρ(Xβ )ρ(Xα )y + ρ([Xα , Xβ ])y ∈ Wn e concludiamo che ρ(Xα )x ∈ Wn . 6.3.8 La rappresentazione W è irriducibile. Mostriamo che la rappresentazione W di g generata dal vettore massimale v è irriducibile. Sia W = W 0 ⊕ W 00 , dove W 0 , W 00 sono sottorappresentazioni. Decomponendo ciascuna in spazi peso, lo spazio peso Wλ = Cv, che ha dimensione uno, è contenuto in W 0 oppure W 00 . Poiché la rappresentazione di g generata da v è W si ha W 0 = W oppure W 00 = W , quindi W è irriducibile. 6.3.9 Il vettore massimale è unico. Mostriamo che v è l’unico vettore massimale (a meno di moltiplicazione per uno scalare) nella rappresentazione W . Sia v 0 ∈ W , v 0 (6= 0) un vettore massimale. Allora v 0 genera una sottorappresentazione W 0 ⊂ W . Dato che W è irriducibile e W 0 6= 0, si ha allora W 0 = W . Sia µ ∈ ΛW il peso di v 0 , allora µ = λ − nα1 − mα2 per certi n, m ∈ Z≥0 e α1 = L1 − L2 , α2 = L2 − L3 . Ogni altro peso di W 0 si scrive come τ = µ − kα1 − lα2 per certi k, l ∈ Z≥0 . Dato che v ∈ W 0 e il peso di v è λ segue allora che λ = µ − kα1 − lα2 = λ − (k + n)α1 − (l + m)α2 e quindi k + n = l + n = 0 ma poiché k, l, m, n ≥ 0 segue allora n = m = 0 e perciò µ = λ. Dato che Wλ = Cv, segue v 0 ∈ Cv. In particolare, una rappresentazione irriducibile ha un unico vettore massimale, a meno di moltiplicazione per uno scalare. 6.3.10 Conclusione. Data una rappresentazione ρ : g → End(V ), il teorema di Weyl (vedi 5.4.6) afferma che V = V1 ⊕ V2 ⊕ . . . ⊕ Vk , dove ogni Vi è una rappresentazione irriducibile. I risultati appena ottenuti mostrano che ogni Vi ha un vettore massimale vi e che il vettore 6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3) 115 massimale vi genera una sottorappresentazione irriducibile di Vi , che è quindi Vi . In particolare, la dimensione dello spazio generato dai vettori massimali è k. Se la rappresentazione ρ è irriducibile, allora ha un unico vettore massimale (a meno di moltiplicazione per uno scalare). Il peso λ = λρ del vettore massimale è allora determinato in modo unico dalla rappresentazione. Questo peso λ è massimale (per definizione) e abbiamo mostrato che è quindi dominante (si veda 6.3.4). Nell’ esempio 6.3.6 abbiamo visto che la rappresentazione aggiunta ad ha un unico vettore massimale, quindi ad è irriducibile. In più si ha λad = λ1 + λ2 . Mostriamo che il peso λ determina in modo unico (a meno di isomorfismi) la rappresentazione irriducibile W generata dal vettore massimale. Questa rappresentazione irriducibile verrà indicata con V (λ). Poi c’è da stabilire se un peso dominante λ determini una rappresentazione irriducibile il cui vettore massimale abbia peso λ (si veda 6.4.2). 6.3.11 Unicità della rappresentazione irriducibile. Due rappresentazioni irriducibili ρV , ρW di g su spazi vettoriali V, W rispettivamente, con vettori massimali v ∈ V e w ∈ W e lo stesso peso λ ∈ Λ+ W sono isomorfe. Per vedere questo, si consideri la somma diretta V ⊕ W , che è una rappresentazione di g con ρ : g −→ End(V ⊕ W ), ρ(X)(x, y) := (ρV (X)x, ρW (X)y). Sia U ⊂ V ⊕ W la sottorappresentazione generata da (v, w). Allora U è irriducibile perché (v, w) è un vettore massimale in V ⊕ W . La proiezione πV : U −→ V, (x, y) 7−→ x, soddisfa πV ρ(X) = ρV (X)πV per ogni X ∈ g come si verifica facilmente. Quindi πV è un omomorfismo di rappresentazioni e perciò ker(πV ) e im(πV ) sono sottospazi invarianti (vedi 5.3.3). Poiché (v, w) ∈ U e πV (v, w) = v ∈ V , si ha ker(πV ) 6= U e im(πV ) 6= 0. Dato che U e V sono irriducibili, si ha allora ker(πV ) = 0 e im(πV ) = V , quindi πV è un isomorfismo. Similmente, usando πW , si trova che U∼ = W , quindi V ∼ = W. 6.4 Le rappresentazioni irriducibili di sl(3) 6.4.1 Classificazione. In 6.3.10 abbiamo visto che una rappresentazione irriducibile ρ : sl(3) −→ End(V ) ha un unico vettore massimale (a meno di moltiplicazione per uno scalare) vρ e che vρ sta in uno spazio peso Vλ di V . Il peso λ = λρ è allora l’unico peso massimale di V . In più λ è sempre un peso dominante. In 6.3.11 abbiamo visto che il peso λ determina ρ in modo unico. Mostriamo che viceversa ogni peso dominante λ definisce una rappresentazione irriducibile di sl(3), denotata V (λ), tale che l’unico vettore massimale di V (λ) ha peso λ. 6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3) 116 Fatto questo, segue che le rappresentazioni irriducibili di sl(3) sono classificate dal loro peso massimale e c’è una biiezione tra l’insieme dei pesi dominanti Λ+ W e l’insieme delle rappresentazioni irriducibili di sl(3) data da λ 7→ V (λ) con inversa ρ 7→ λρ , l’unico peso massimale di ρ. bi Λ+ W = { m1 λ1 + m2 λ2 : mi ∈ Z≥0 } ←→ { rappr. irrid. di sl(3) }, λ 7−→ V (λ). 6.4.2 Le rappresentazioni irriducibili fondamentali. Per costruire la rappresentazione V (λ), con λ dominante, mostriamo prima che le rappresentazioni V (λ1 ) e V (λ2 ) sono la rappresentazione standard di sl(3) e il suo duale. Le rappresentazioni V (λi ) si chiamano rappresentazioni fondamentali di sl(3). Si ricordi che i pesi della rappresentazione standard C3 di sl(3) sono L1 , L2 , L3 (vedi 6.1.5), è facile verificare che L1 è l’unico peso dominante di C3 . Quindi L1 è l’unico peso massimale e poiché dimVL1 = 1 la rappresentazione C3 è irriducibile, con peso massimale L1 . Visto che L1 = (2L1 − L2 − L3 )/3 = λ1 (vedi 6.2.2), C3 è allora la rappresentazione irriducibile che corrisponde al peso dominante λ1 : V (λ1 ) = C3 . Si ricordi che l’azione di A ∈ SL(3, C) sullo spazio duale è data dalla matrice t A−1 (vedi 1.1.12). Per l’algebra di Lie questo implica (si usi un cammino γ(t) con γ(0) = I e γ 0 (0) = X) che l’azione di X ∈ sl(3) sullo spazio duale è data da −t X. In particolare, se H = diag(t1 , t2 , t3 ) allora rispetto alla base duale di V (λ1 ) = C3 l’azione di H è diag(−t1 , −t2 , −t3 ). Perciò i pesi della rappresentazione duale V (λ1 )∗ sono −L1 , −L2 , −L3 . Si verifica che l’unico peso dominante di V (λ1 )∗ è il peso −L3 = L1 + L2 = (L1 + L2 − 2L3 )/3 = λ2 , quindi V (λ2 ) = V (λ1 )∗ . Per mostrare che una rappresentazione con peso massimale λ = m1 λ1 + m2 λ2 e mi ≥ 0 esiste, consideriamo prodotti tensoriali di V (λ1 ) e V (λ2 ). 6.4.3 Prodotti tensoriali e pesi. Il prodotto tensoriale di rappresentazioni ρV , ρW di un’algebra di Lie g è definito da ρV ⊗W (X)(v ⊗ w) = (ρ(X)v) ⊗ w + v ⊗ (ρW (X)w). In particolare, se X = H ∈ g e ρV (H)v = µ1 (H)v, ρW (H)w = µ2 (H)w =⇒ ρV ⊗W (H)(v ⊗ w) = (µ1 + µ2 )(H)(v ⊗ w). Quindi se Vµ1 e Wµ2 sono spazi peso di V e W , il loro prodotto tensoriale è contenuto in uno spazio peso di V ⊗ W : Vµ1 ⊗ Wµ2 ⊂ (V ⊗ W )µ1 +µ2 . In generale si ha Vµ1 ⊗ . . . ⊗ Vµk ⊂ Vµ1 +...+µk . 6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3) 117 6.4.4 Costruzione delle V (λ). Sia λ = m1 λ1 + m2 λ2 , mi ∈ Z≥0 un peso dominante. Consideriamo il prodotto tensoriale V := V (λ1 ) ⊗ . . . ⊗ V (λ1 ) ⊗ V (λ2 ) ⊗ . . . ⊗ V (λ2 ) =: V (λ1 )⊗m1 ⊗ V (λ2 )⊗m2 . | {z } | {z } m1 m2 Sia vi ∈ V (λi ) un vettore massimale e sia v := v1 ⊗ . . . ⊗ v1 ⊗ v2 ⊗ . . . ⊗ v2 | {z } | {z } m1 (∈ V ). m2 Dato che vi ∈ V (λi ) è un vettore massimale, cioè ρi (Xα )vi = 0 per ogni αi ∈ R+ , si ha ρ(Xα )v = ρ1 (Xα )v1 ⊗ v1 . . . ⊗ v2 + . . . + v1 ⊗ v1 . . . ⊗ ρ2 (Xα )v2 = 0 + . . . + 0 = 0. Quindi v è un vettore massimale in V con peso (massimale e quindi dominante): ρ(H)v = (m1 λ1 + m2 λ2 )(H)v = λ(H)v. Perciò v genera una rappresentazione irriducibile W ⊂ V con (un unico) peso massimale λ (vedi 6.3.7). Questa rappresentazione W è l’unica rappresentazione irriducibile con peso massimale λ (vedi 6.3.11) ed è la rappresentazione indicata con V (λ), cioè V (λ) := W . In questo modo si conclude la classificazione delle rappresentazioni irriducibili di sl(3). Però per determinare la dimensione (vedi 8.2.14 per una formula esplicita) o per poter decomporrere prodotti tensoriali di rappresentazioni di sl(3) ci vuole uno studio più approfondito, vedi 6.5. Il legame con le rappresentazioni di su(3) è dato in 6.5.9. 6.5 Le rappresentazioni irriducibili di sl(3) 6.5.1 Il prodotto simmetrico della rappresentazione standard. Mostriamo che la rappresentazione V (kλ1 ) (per k ≥ 0) di sl(3) è la rappresentazione S k V (λ1 ), il k-esimo prodotto simmetrico della rappresentazione standard V = V (λ1 ). In più determiniamo gli spazi peso e mostriamo che ogni spazio peso ha dimensione 1. Consideriamo (si veda anche 5.3.4 per il caso n = 2) la rappresentazione del gruppo di Lie SL(3, R) su C ∞ (R3 ) definita da: r : SL(3, R) −→ Aut(C ∞ (R3 )), (r (A) F )(v) := F (t Av) (v ∈ R3 ). Sia ρ := (dr)I : sl(3, R) → End(C ∞ (R3 )) la rappresentazione dell’algebra di Lie associata. Si mostra facilmente che, per i 6= j, ρ(Ei,j ) = xi ∂ , ∂xj ρ(t1 E1,1 + t2 E2,2 + t3 E3,3 ) = t1 x1 ∂ ∂ ∂ + t2 x2 + t3 x3 . ∂x1 ∂x2 ∂x3 6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3) 118 Sia C[x1 , x2 , x3 ]m lo spazio vettoriale dei polinomi omogenei di grado m. Una base di C[x1 , x2 , x3 ]m è data dai monomi xa11 xa22 xa33 , a1 + a2 + a3 = m. E’ facile verificare che C[x1 , x2 , x3 ]m è un sottospazio sl(3, R)-invariante che è anche sl(3) = sl(3, R) ⊗R C invariante. La complessificazione di ρ dà allora le rappresentazioni ρm : sl(3) −→ End(C[x1 , x2 , x3 ]m ). Un vettore massimale di ρm è un F ∈ C[x1 , x2 , x3 ]m tale che ρm (Xα )F = 0 per ogni α ∈ R+ . Allora α = Li − Lj con i < j, ρm (Xα ) = xi ∂/∂xj e F soddisfa: x1 ∂F = 0 ∂x2 e x2 ∂F = 0. ∂x3 In particolare, ∂F/∂xj = 0 per j = 2, 3 quindi F = cxm 1 per uno scalare c ∈ C. Quindi ρm ha un unico vettore massimale (a meno di moltiplicazione per uno scalare) e perciò ρm è irriducibile. Il peso del vettore massimale è: ρm (H)(xm 1 ) = (t1 x1 ∂ ∂ ∂ m m + t2 x2 + t3 x3 )(xm 1 ) = mt1 x1 = mL1 (H) x1 , ∂x1 ∂x2 ∂x3 quindi il peso massimale è mL1 . Dato che λ1 = L1 , questo mostra che V (mλ1 ) ∼ = C[x1 , x2 , x3 ]m = S m V, detto l’m-esimo prodotto simmetrico della rappresentazione standard V . Si verifica che ogni monomio è un vettore peso: ρm (H)(xa11 xa22 xa33 ) = (a1 L1 + a2 L2 + a3 L3 )(H)xa11 xa22 xa33 . P I pesi sono quindi della forma a1 L1 + a2 L2 + a3 L3 con ai ≥ 0 e ai = m. Questi pesi sono distinti tra di loro, perciò ogni spazio peso ha dimensione uno cioè ogni peso ha moltiplicità uno. Nel diagramma qui sotto sono indicati i pesi e i monomi di S 3 V = C[x, y, z]3 . Il diagramma dei vettori peso di S m V è un triangolo con vertici mL1 , mL2 e mL3 , ogni peso nell’interno del 6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3) 119 triangolo (inclusi quelli sul bordo) è un peso di S m V e ha molteplicità uno. 3L2 L1 + 2L2 t y t 3 xy 2L1 + L2 3L1 2 x3 t 2 2L2 + L3 xy L1 + L2 + L3 t xyz t y2z L2 + 2L3 L1 + 2L2 t x2 z L1 + 2L3 t yz t t 2 xz 2 3L3 t z3 6.5.2 Il duale del prodotto simmetrico. Si ricordi che l’azione di A ∈ GL(n, C) sullo spazio duale è data dalla matrice t A−1 (vedi 1.1.12). Per l’algebra di Lie questo implica (si usi un cammino γ(t) con γ(0) = I e γ 0 (0) = X) che l’azione di X ∈ g sullo spazio duale è data da −t X. In particolare, se V è una rappresentazione di g con pesi λ1 , . . . , λr , i pesi di V ∗ sono −λ1 , . . . , −λr . m Poiché a1 L1 + a2 L2 + a3 L3 con ai ∈ P i pesi della rappresentazione S V sono della forma m ∗ Z≥0 e ai = m, i pesi della rappresentazione duale (S V ) = S m (V ∗ ) sono della forma −(a1 L1 + a2 L2 + a3 L3 ). In particolare, −mL3 = m(L1 + L2 ) è un peso dominante di questa rappresentazione. Poiché per α ∈ R+ , m(L1 + L2 + Ln ) + α non è un peso, m(L1 + L2 ) è un peso massimale di S m (V ∗ ). Visto che S m V è irriducibile, anche il suo duale è irriducible (un sottospazio invariante W ⊂ S m V ∗ definisce un sottospazio W ⊥ = {x ∈ S n V : w(x) = 0 ∀w ∈ S m V ∗ } che è anch’esso invariante). Quindi S m V ∗ = V (mλ2 ) dove λ2 = L1 + L2 = −L3 . 6.5.3 I pesi del prodotto tensoriale di S m V e S n V ∗ . Sia λ = mλ1 + nλ2 un peso dominante di sl(3), cioè m, n ∈ Z≥0 . La rappresentazione irriducibile V (λ) è una sottorappresentazione di V (λ) = V (mλ1 + nλ2 ) ,→ V (mλ1 ) ⊗ V (nλ2 ) = (S m V ) ⊗ (S n V ∗ ), V = C3 . 6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3) 120 Per trovare la decomposizione di (S m V ) ⊗ (S n V ∗ ) in rappresentazioni irriducibili, determiniamo i pesi di questa rappresentazione e la loro molteplicità. Poi troviamo i pesi, con le loro molteplicità, di ogni rappresentazione irriducibile V (λ) di sl(3), vedi 6.5.6. Consideriamo prima un esempio, con m = m1 = 3, n = m2 = 2. Nel prossimo diagramma sono riportati i pesi della rappresentazione (S 3 V ) ⊗ (S 2 V ∗ ). Si noti che i pesi sull’esagono H0 , che è il bordo del diagramma, sono somma di un peso di S 3 V e un peso di S 2 V ∗ in modo unico, quindi la molteplicità di un peso in H0 è uno. Nel triangolo interiore T , con vertici 3L1 − 2L1 = L1 , L2 , L3 , ogni peso è la somma di un peso di S 3 VPe un peso di S 2 V ∗ in 6 modi diversi. Infatti, µ = Li + (b1 L1 + b2 L2 + b3 L3 ), con bi ∈ Z≥0 e bi = 2, è sempre un peso di S 3 V , e ρ = −(b1 L1 + b2 L2 + b3 L3 ) è un peso di S 2 V ∗ . Quindi per ognuno dei sei pesi ρ di S 2 V ∗ esiste un peso µ di S 3 V tale che Li = µ + ρ. Non è difficile vedere che un peso sull’esagono H1 , in mezzo tra H0 e T e indicato con le linee tratteggiate, è la somma di un peso di S 3 V e un peso di S 2 V ∗ in 3 modi diversi. Per esempio, 2L1 − L3 = 3L1 − (L1 + L3 ) = (2L1 + L2 ) − (L2 + L3 ) = (2L1 + L3 ) − 2L3 , si noti che si usano soltanto i 3 pesi di S 2 V ∗ nel triangolino formato dalle prime due righe. 3L2 − 2L3 −2L3 3L2 s s s s s s s s s s s 3L1 s + s −2L1 s s s s 3L2 − 2L1 s = s s s s s s s s L1 s s s 3L1 − 2L3 s s s s s s3L1 − 2L2 s −2L2 s 3L3 3L3 − 2L1 s s s s s s 3L3 − 2L2 Si noti inoltre che ci sono 15 pesi su H0 , 9 su H1 e 3 in T con molteplicità 1, 3 e 6 rispettivamente, e questo quadra con: dim (S 3 V ) ⊗ (S 2 V ∗ ) = 10 · 6 = 60 = 15 + 27 + 18 = 15 · 1 + 9 · 3 + 3 · 6. Nel caso m ≥ n il diagramma dei pesi di (S m V ) ⊗ (S n V ∗ ) è una unione di esagoni H0 , H1 , . . . Hm−n e un triangolo pieno T con vertici (m − n)L1 , (m − n)L2 , (m − n)L1 . La molteplicità di un peso in Hi è (i + 1)(i + 2)/2, per esempio se un peso λ ∈ Hi è sul lato superiore dell’esagono, λ = µ + ρ con ρ nel triangolino superiore del diagramma dei pesi di S n V ∗ formato dalle prime i + 1 righe e µ un peso opportuno di S m V . Poiché questo triangolino ha (i + 1)(i + 2)/2 pesi, segue la molteplicità di λ. 6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3) 121 Se λ ∈ T , allora per ogni peso ρ di S n V ∗ c’è un peso µ di S n V tale che λ = µ + ρ, quindi la molteplicità di un tale peso è dim S n V ∗ = (n + 1)(nP+ 2)/2. (Per vedere questo, si noti che si può scrivere λ = c1 L1 + c2 L2 + c3 L3 con ci ∈ Z≥0 e i ci = m − n, come P nel diagramma dei m−n pesi di S V . Allora µ = λ + (b1 L1 + b2 L2 + b3 L3 ), con bi ∈ Z≥0 e bi = n, è sempre un peso di S m V . Poiché ρ = −(b1 L1 + b2 L2 + b3 L3 ) è un peso di S n V ∗ , si ha λ = µ + ρ per ogni peso ρ di S n V ∗ .) In conclusione, per un peso λ di (S m V ) ⊗ (S n V ∗ ) si ha: (i + 1)(i + 2)/2 se λ ∈ Hi , i = 0, 1, . . . n − 1, m n ∗ dim (S V ⊗ S V )λ = (n + 1)(n + 2)/2 se λ ∈ T. 6.5.4 La decomposizione di (S m V ) ⊗ (S n V ∗ ). Un peso massimale di (S m V ) ⊗ (S n V ∗ ) è λ = mL1 − nL3 = (m + n)L1 + nL2 = mλ1 + nλ2 perché λ + α non è un peso per α ∈ R+ (questi pesi sono o a destra (se α = α1 ) o sopra (se α = α2 , α1 + α2 ) a λ nel diagramma dei pesi e non ci sono tali pesi). Poiché λ ∈ H0 ha molteplicità uno, lo spazio peso ((S m V ) ⊗ (S n V ∗ ))λ ha dimensione uno. Perciò la sottorappresentazione generata da un vettore non-zero vλ in questo spazio genera una sottorappresentazione irriducibile di (S m V ) ⊗ (S n V ∗ ) isomorfa a Vλ . Per la teoria generale, esiste allora una sottorappresentazione W1 di (S m V ) ⊗ (S n V ∗ ) tale che (S m V ) ⊗ (S n V ∗ ) = V (mλ1 + nλ2 ) ⊕ W 0 . Per trovare la decomposizione di W 0 , dobbiamo trovare gli altri pesi massimali di (S m V ) ⊗ (S V ∗ ). Mostriamo che i soli pesi massimali in W1 sono n µi = (m−i)L1 −(n−i)L3 = (m+n−2i)L1 +(n−i)L2 = (m−i)λ1 +(n−i)λ2 (i = 1, . . . , n), e che ogni (W 0 )µi contiene un unico, a meno di moltiplicazione per uno scalare, vettore massimale. Da qui segue che, per m ≥ n, (S m V ) ⊗ (S n V ∗ ) = V (mλ1 + nλ2 ) ⊕ V ((m − 1)λ1 + (n − 1)λ2 ) ⊕ . . . ⊕ V ((m − n)λ1 ). 6.5.5 Dimostrazione di 6.5.4. Per mostrare l’affermazione sui pesi massimali, consideriamo prima un peso µ ∈ Hi , µ 6= µi . Usando il gruppo di Weyl, possiamo assumere che µ = µi − kα1 oppure µ = µi − kα2 con k > 0. µi − 2α1s µ si µi −s α1 µi − α 2 s µi −s α1 s s µi − 2α2 s µi − 2α1s µ si µi − (α1 + α2 ) µi − 2(α1 + α2 ) 6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3) 122 Consideriamo la copia di sl(2) generata da Hα1 , X±α1 . Sia W1 la sottorappresentazione di questo sl(2) generato dai vettori in Vµi . Si ha µi (Hα1 ) = ((m − i)L1 − (n − i)L3 )(diag(1, −1, 0)) = m − i, quindi Vµi = (W1 )m−i , è uno spazio peso di questo sl(2). Dalla teoria delle rappresentazioni di sl(2) segue che ρ(X−α1 )k : (W1 )m−i → (W1 )m−i−2k è iniettiva, per k = 0, 1, . . . , m − i, con inversa ρ(Xα1 )k . Si noti che ρ(X−α1 )k Vµi = Vµi −kα1 , quindi (W1 )m−i−2k ⊂ Vµi −kα1 . Per k = 0, 1, . . . , m − i, i pesi µi − kα1 sono esattamente i pesi (m − i − k)L1 + kL2 − (n − i)L3 sul lato superiore dell’esagono Hi . Poiché la molteplicità di un peso è costante sull’esagono, si ha dim Vµi = dim Vµi −kα1 , e quindi ρ(X−α1 )k : Vµi → Vµi −kα1 è un isomorfismo con inversa ρ(Xα1 )k . Perciò ρ(Xα1 ) : Vµi −kα1 → Vµi −(k−1)α1 è un isomorfismo per k = 0, 1, . . . , m − i, k 6= 0, in particolare, non ci sono vettori massimali in Vµi −kα1 per k 6= 0. In modo simile, usando la copia di sl(2) generata da Hα2 , X±α2 si vede che non ci sono vettori massimali in Vµi −lα2 con µi − lα2 ∈ Hi e l 6= 0. Poi, ancora in modo simile, si mostra che non ci sono vettori massimali in Vµ per µ in un triangolo, tranne al più in Vµm−n con µm−n = (m − n)L1 . Adesso mostriamo che c’è un unico vettore massimale, a meno di moltiplicazione per uno scalare, in ogni Vµi . Considerando il triangolo formato dalle prime i righe del diagramma dei pesi di S n V ∗ , si vede che se µi = λ + ρ con λ, ρ pesi di S m V , S n V ∗ rispettivamente, allora µi = µ + ρ, con cj ∈ Z≥0 µ = (m − i)L1 + (c1 L1 + c2 L2 + c3 L3 ) ρ = −(n − i)L3 − (c1 L1 + c2 L2 + c3 L3 ), P e cj = i. Il vettore peso corrispondente a questa decomposizione è 1 ,c2 ,n−i+c3 ) vc := e(m−i+c1 ,c2 ,c3 ) ⊗ e(c , ∗ dove ed = e(d1 ,d2 ,d3 ) := (e1 )d1 (e2 )d2 (e3 )d3 , ed∗ = e∗(d1 ,d2 ,d3 ) := (e∗1 )d1 (e∗2 )d2 (e∗3 )d3 , dove e∗1 , e∗2 , e∗3 sono i vettori della base duale. Definiamo ed = 0, ed∗ = 0 se una delle di è negativa. Si noti che ed corrisponde al monomio xd1 y d2 z d3 . Adesso calcoliamo l’azione di Xα1 = E1,2 su vc , si ricordi che E1,2 e1 = 0, E1,2 e2 = e1 , E1,2 e3 = 0, e nella rappresentazione duale l’azione è data da −t E1,2 = −E2,1 quindi e∗1 7→ −e∗2 e e∗2 , e∗3 7→ 0. Perciò si ha: (m−i+c +1,c −1,c ) 1 2 3 1 ,c2 ,n−i+c3 ) ρ(Xα1 )vc = c2 e1 ⊗ e(c − c1 e(m−i+c1 −1,c2 +1,c3 ) ⊗ (e∗ )(c1 −1,c2 +1,n−i+c3 ) ∗ P Sia v = c xc vc ∈ Vµi , con xc ∈ C, allora X v= xc vc ∈ ker ρ(Xα1 ) =⇒ c2 cv = (c1 + 1)c(c1 +1,c2 −1,c3 ) . c 6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3) In modo simile, si trova X v= xc vc ∈ ker ρ(Xα2 ) =⇒ 123 c3 xc = (c2 + 1)x(c1 ,c2 +1,c3 −1) . c L’ultima formula implica che se c(0,0,i) = 1, allora c(0,1,i−1) = i, poi c(0,2,i−2) = i(i − 1)/2 ecc. Si usa poi la prima formula per determinare c(p,q,r) per ogni p, q, r ∈ Z≥0 , p + q + r = i. Il risultato P è che v è un multiplo del vettore c (c1 !c2 !c3 !)−1 vc . Quindi c’è un unico vettore massimale in (S m V ⊗ S n V ∗ )µi . 6.5.6 I pesi di V (mλ1 + nλ2 ). Adesso siamo in grado di determinare i pesi della rappresentazione irriducibile V (mλ1 + nλ2 ) e le loro molteplicità. Per il caso n = 0, V (mλ1 ) = S m V si veda 6.5.1. Nel caso n = 1, si noti che (S m V ) ⊗ V ∗ = V (mλ1 + λ2 ) ⊕ S m V. Il diagramma dei pesi di (S m V ) ⊗ V ∗ è un esagono H0 con vertici mL1 − L3 = (m + 1)L1 + L2 e le sue orbite attraverso il gruppo di Weyl e il triangolo T (bordo e interno) con vertici mLi , i = 1, 2, 3. I pesi su H0 e T hanno molteplicità 1 e 3 rispettivamente, vedi 6.5.3. I pesi di S m V sono i punti del triangolo, ognuno ha molteplicità uno. Quindi i pesi di V (mλ1 + λ2 ) sono i pesi in H0 , con molteplicità 1 − 0 = 1 e i pesi di T , con molteplicità 3 − 1 = 2. Per m ≥ n generale, si noti che (S m V ) ⊗ (S n V ∗ ) = V (mλ1 + nλ2 ) ⊕ V ((m − 1)λ1 + (n − 1)λ2 ) ⊕ . . . ⊕ V ((m − n)λ1 ) = V (mλ1 + nλ2 ) ⊕ (S m−1 V ) ⊗ (S n−1 V ∗ ). Quindi un peso λ di V (mλ1 + nλ2 ) ha molteplicità dim (V (mλ1 + nλ2 ))λ = dim((S m V ) ⊗ (S n V ∗ ))λ − dim((S m−1 V ) ⊗ (S n−1 V ∗ ))λ . Usando il risultato di 6.5.3 e (i + 1)(i + 2)/2 − i(i + 1)/2 = i + 1, troviamo: i+1 se λ ∈ Hi , i = 0, . . . , n − 1, dim (V (mλ1 + nλ2 ))λ = n+1 se λ ∈ T. 6.5.7 Esempio: S m V ⊗V . Determiniamo la decomposizione della rappresentazione S m V ⊗V di sl(3), dove V P = C3 è la rappresentazione standard. I pesi di S m V sono gli a1 L1 + a2 L2 + a3 L3 con ai ∈ Z≥0 e ai = m, in particolare, i pesi di V sono L1 , L2 , L3 , vedi 6.5.1. Ogni peso ha molteplicità uno. P I pesi di S m V ⊗V si scrivono allora tutti come c1 L1 +c2 L2 +c3 L3 con ci ∈ Z≥0 e ci = m+1. Si noti che questi sono anche i pesi di S m+1 V e il diagramma dei pesi è un triangolo con vertici (m + 1)Li . La molteplicità dei pesi (m + 1)Li , i = 1, 2, 3, è uno, perché l’unico modo di ottenere (m + 1)Li come somma di pesi di S m V e V è (m + 1)Li = mLi + Li . Se esattamente uno delle cj = 0, diciamo c3 = 0, allora ci sono due modi di ottenere c1 L1 + c2 L2 come somma: c1 L1 + c2 L2 = (c1 − 1)L1 + c2 L2 = c1 L1 + (c2 − 1)L2 6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3) 124 quindi la molteplicità di ogni peso sul bordo del triangolo, che non sia un vertice, è due. Poi ogni peso nell’interno del triangolo ha ci ≥ 1 per ogni i e quindi ha molteplicità tre: c1 L1 + c2 L2 + c3 L3 = ((c1 − 1)L1 + c2 L2 + c3 L3 ) + L1 = . . . = (c1 L1 + c2 L2 + (c3 − 1)L3 ) + L3 . Nel diagramma qui sotto i pesi sull’esagono indicato hanno molteplicità due, il vertice (m+1)L1 del diagramma ha molteplicità uno e i pesi nell’interno dell’esagono hanno molteplicità 3. (m − 1)L1 + 2L2 s mL1 s+ L2 s s s mLs1 s (m + 1)L1 s mL1 + L3 mL1 + 2L3 Il peso (m + 1)L1 è massimale perché (m + 1)L1 + (Li − Lj ) non è un peso se i > j. La sua molteplicità è uno, quindi V ((m + 1)L1 ) = S m+1 V compare con molteplicità uno in S m V ⊗ V . Togliendo i pesi di S m+1 V , si vede che rimane un diagramma esagonale, con vertici mL1 + L2 = (m − 1)λ1 + λ2 e la sua immagine per il gruppo di Weyl (che permuta gli Li ). I pesi sul bordo dell’esagono hanno molteplicità 2 − 1 = 1, i pesi nell’interno, che è un triangolo con vertici mL1 , mL2 , mL3 hanno molteplicità 3 − 1 = 2. Questi sono esattamente i pesi, con molteplicità, della rappresentazione irriducibile V ((m − 1)λ1 + λ2 ). Quindi si ha: S m V ⊗ V = S m+1 V ⊕ V ((m − 1)λ1 + λ2 ). Si noti che il nucleo dell’applicazione suriettiva S m V ⊗ V −→ S m+1 V, F ⊗ G 7−→ F G è allora V ((m − 1)λ1 + λ2 ). 6.5.8 Esempio: V ⊗ V ⊗ V . I pesi della rappresentazione standard V = C3 di sl(3) sono L1 , L2 , L3 ; siano e1 , e2 , e3 i vettori peso: Hei = Li (H)ei . Allora la rappresentazione W := V ⊗ V ⊗ V , di dimensione 33 = 27, ha una base di vettori peso data dalle ei ⊗ ej ⊗ ek (con peso Li + Lj + Lk ). In particolare, i pesi di W sono aL1 + bL2 + cL3 = (a − c)L1 + (b − c)L2 , con a + b + c = 3 e a, b, c ≥ 0. Per decomporre W in rappresentazioni irriducibili, determiniamo le molteplicità dei pesi dominanti, cioè dei pesi aL1 + bL2 + cL3 = (a − c)L1 + (b − c)L2 con a − c ≥ b − c ≥ 0, cioè 6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3) 125 a ≥ b ≥ c (vedi 8.3.1). Quindi questi pesi sono 3L1 , 2L1 + L2 , L1 + L2 + L3 . Segue già che se Vλ è una componente irriducibile di W , allora λ è uno di questi tre pesi. La molteplicità dei pesi di W è: peso dominante molteplicità 3L1 = 3λ1 1 2L1 + L2 = λ1 + λ2 3 e1 ⊗ e1 ⊗ e2 , e1 ⊗ e2 ⊗ e1 , L1 + L2 + L3 = 0 6 e1 ⊗ e2 ⊗ e3 , e1 ⊗ e3 ⊗ e2 , e2 ⊗ e3 ⊗ e1 , e3 ⊗ e1 ⊗ e2 , vettori peso e1 ⊗ e1 ⊗ e1 e2 ⊗ e1 ⊗ e1 e2 ⊗ e1 ⊗ e3 e3 ⊗ e2 ⊗ e1 Poiché 3L1 è un peso massimale (3L1 + α non è un peso di W per nessuna radice α > 0, cioè per α = L1 − L2 , L1 − L3 , L2 − L3 ), ed ha molteplicità uno. Quindi V (3λ1 ) è una componente irriducibile di W e compare una volta sola in W . Il diagramma dei pesi di V (3λ1 ) è un triangolo (infatti V (3λ1 ) ∼ = Sym3 (V ), vedi 6.5.1) e quindi ogni peso di V (3λ1 ) ha molteplicità uno (vedi 6.5.6). Perciò W = V (3λ1 ) ⊕ W 0 e i pesi dominanti di W 0 sono 2L1 + L2 = λ1 + λ2 L1 + L2 + L3 = 0 con molteplicità 3 − 1 = 2, ,, ,, 6 − 1 = 5. Si noti che 2L1 +L2 è un peso massimale di W 0 e ha molteplicità due, quindi W 0 = V (λ1 + λ2 )2 ⊕ W 00 . Il peso L1 + L2 + L3 di V (λ1 + λ2 ) ha molteplicità 2 (il diagramma dei pesi di V (λ1 + λ2 ) è un esagono H0 e un triangolo T ridotto ad un solo punto 0 = L1 + L2 + L3 , poi si usi 6.5.6). Quindi W 00 ha un unico peso dominante, L1 + L2 + L3 = 0, con molteplicità 5 − 2 · 2 = 1, perciò W 00 = V (0) ∼ = C, è la rappresentazione banale di sl(3). In conclusione: V ⊗ V ⊗ V = V (3λ1 ) ⊕ V (λ1 + λ2 )2 ⊕ V (0). Si verifica anche facilmente che dim V (3λ1 ) = 10, dim V (λ1 + λ2 ) = 8 e che 27 = 10 + 2 · 8 + 1, come dovrebbe essere. Questa decomposizione si ottiene anche con i funtori di Schur (si veda 8.3.2 e Teorema 3.2.6): 2 V ⊗ V ⊗ V = T 3 V = V(3) ⊕ V(2,1) ⊕ V(1,1,1) . 6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3) L1 + 2L2 3L2 1j 2L1 + L2 3j c 2L2 + L3 3L1 3j 1j c L2 c 3j c L2 + 2L3 c cL1 2L1 + L3 6j c 126 L1 + L2 + L3 3j c c c L3 3j 3j L1 + 2L3 c 1j 3L3 6.5.9 Le algebre di Lie su(n) e sl(n)C . Una rappresentazione ρ : sl(n)C → End(V ) dell’algebra di Lie complessa sl(n)C su uno spazio vettoriale complesso V definisce, per restrizione, una rappresentazione dell’algebra di Lie su(n) ⊂ sl(n)C . Si può mostrare che in questo modo si ottiene una biiezione tra le rappresentazioni irriducibile di sl(n)C (di dimensione finita) e le rappresentazioni di su(n). Data una rappresentazione σ : su(n) → End(V ), in particolare σ è R-lineare, la rappresentazione di sl(n)C = su(n) ⊗R C corrispondente è l’estensione C-lineare σC di σ: σC (X ⊗ z) := zσ(X) per X ∈ su(n) e z ∈ C. L’algebra di Lie su(n) è lo spazio vettoriale reale definito da su(n) = {X ∈ Mn (C) : t X + X = 0, tr(X) = 0 } (si noti che X ∈ su(n) e X 6= 0 allora iX 6∈ su(n)). P In particolare, una matrice diagonale H = diag(t1 , . . . , tn ) ∈ su(n) se e solo se ti = −ti e ti = 0. In più, se X ∈ su(n) allora anche X ∈ su(n). Data una rappresentazione ρ di sl(n)C , il suo duale ρ∗ è dato da ρ∗ : X 7→ −t ρ(X) (perché per il gruppo di Lie la rappresentazione duale è data da A 7→ t A−1 (si veda 1.1.12), quindi si prenda la derivata in A = I). Quindi se λ è un peso con molteplicità k per ρ, allora −λ è un peso con molteplicità k per ρ∗ . Data una rappresentazione σ : su(n) → End(V ) si definisce una rappresentazione dell’algebra di Lie reale su(n), detta la sua coniugata complessa, con σ : su(n) −→ End(V ), X 7−→ σ(X). 6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3) 127 Poiché X = −t X per X ∈ su(n), se λ è un peso con molteplicità k per σ, allora −λ è un peso con molteplicità k per σ. In particolare, se σ è la restrizione della rappresentazione ρ di sl(n) a su(n), allora σ è la restrizione della rappresentazione duale ρ∗ . Di solito i fisici indicano le rappresentazioni di su(n) (e di tutti le altre algebre di Lie) con la loro dimensione, eventualmente con qualche indice per distinguere rappresentazioni non equivalenti con la stessa dimensione. Per esempio, qui sotto diamo un dizionario che dà il legame tra le rappresentazioni di sl(3)C e di su(3): V0 ←→ 1, VL1 ←→ 3, VL1 +L2 = VL∗1 ←→ 3, V2L1 +L2 ←→ 8, V3L1 ←→ 10. I prodotti tensoriali sono tipicamente indicati con un × invece di un ⊗, e analogamente invece di ⊕ scrivono +, per esempio: VL1 ⊗ VL1 +L2 = V2L1 +L2 ⊕ V0 2 VL1 ⊗ VL1 ⊗ VL1 = V3L1 ⊕ V2L ⊕ V0 1 +L2 6.6 ←→ ←→ 3 × 3 = 8 + 1, 3 × 3 × 3 = 10 + 8 + 8 + 1. La forma di Killing per sl(3). 6.6.1 In questa sezione definiamo la forma di Killing per l’algebra di Lie sl(3) e mostriamo che dalla forma di Killing si ottiene in modo naturale il prodotto scalare su h∗ introdotto in 6.1.8, a meno di uno scalare. 6.6.2 Una forma bilineare su End(V ). Sia V uno spazio vettoriale complesso. Lo spazio vettoriale complesso End(V ) ha una forma bilineare ‘naturale’ data da BV (X, Y ) := Tr(XY ) dove Tr(Z) è la traccia dell’endomorfismo Z di V . Scegliendo una base di V , cioè un isomorfismo V ∼ = Cn , si può esplicitare tale forma bilineare e si ottiene: Bn : Mn (C) × Mn (C) −→ C, n X n X Bn (X, Y ) = Tr(XY ) = ( Xlk Ykl ), l=1 k=1 P dove Tr(Z) = l Zll è la traccia della matrice Z. La formula per Bn mostra che Tr(XY ) = Tr(Y X), quindi B è simmetrico: B(X, Y ) = B(Y, X) per ogni X, Y ∈ End(V ). Poiché la traccia è lineare, Tr(λX + µY ) = λTr(X) + µTr(Y ), si ha T r([X, Y ]) = T r(XY − Y X) = 0. Un’altra proprietà importante della forma di Killing è: B([X, Y ], Z) = B(X, [Y, Z]) (∀X, Y, Z ∈ Mn (C)), cioè, che vale Tr((XY − Y X)Z) = Tr(X(Y Z − ZY )). Per mostrarlo si consideri la differenza tra i due lati e si usi: Tr((XY − Y X)Z − X(Y Z − ZY )) = Tr(XZY − Y XZ) = Tr([XZ, Y ]) = 0, come appena visto. 6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3) 128 La rappresentazione aggiunta di un’algebra di Lie semplice g dà una inclusione ad : g ,→ End(g) ∼ = Mn (C) dove n = dim g. Quindi otteniamo una forma bilineare su g, detta forma di Killing, definita da B : g × g −→ C, B(X, Y ) := Bg (ad(X), ad(Y )) e, come appena visto, questa forma bilineare soddisfa B([X, Y ], Z) = B(X, [Y, Z]). Una proprietà importante della forma di Killing è che è nondegenere, cioè, per ogni X ∈ g, X 6= 0, esiste uno Z ∈ g tale che B(X, Z) 6= 0. 6.6.3 La forma di Killing su h. L’algebra di Cartan h ha dimensione 2 e ha C-base H12 = diag(1, −1, 0), H23 = diag(0, 1, −1). Mostriamo che la restrizione di B ad h è non-degenere con un calcolo esplicito. Dall’ equazione 2 di 6.1.2 si ha: ad(H12 ) = diag(0, 0, 2, −1, −1, −2, −1, −1) ad(H23 ) = diag(0, 0, −1, 2, 1, 1, −2, −1) quindi: ad(H12 )ad(H12 ) = diag(0, 0, 4, 1, 1, 4, 1, 1) ad(H23 )ad(H23 ) = diag(0, 0, 1, 4, 1, 1, 4, 1) ad(H12 )ad(H23 ) = diag(0, 0, −2, −2, 1, −2, −2, 1) T r(ad(H12 )ad(H12 )) = 12, T r(ad(H23 )ad(H23 )) = 12, T r(ad(H12 )ad(H23 )) = −6, e, per simmetria di B, allora anche B(H23 , H12 ) = −6. Segue che 2 −1 y1 B(x1 H12 +x2 H23 , y1 H12 +y2 H23 ) = 6(x1 x2 ) = 6(2x1 y1 −x1 y2 −x2 y1 +2x2 y2 ). −1 2 y2 Poiché la matrice (2−1−12 ) ha determinante 6= 0, la forma di Killing ristretta ad h è non-degenere. Questo implica che B definisce una dualità, sempre indicata con B, cioè un isomorfismo: ∼ = B : h∗ −→ h, α 7−→ Tα se α(H) = B(Tα , H) per ogni H ∈ h, cioè le forme lineari α e B(Tα , −) sono la stessa su h. Tramite questo isomorfismo si definisce un prodotto scalare su h∗R nel modo seguente: (α, β)B := (Tα , Tβ ) (α, β ∈ h∗R ). Per calcolare il prodotto scalare in modo esplicito determiniamo Ti := Tαi ∈ h per i = 1, 2. Si noti che α1 (H) = t1 − t2 se H = diag(t1 , t2 , t3 ) ∈ h. D’altre parte, T1 = x1 H12 + x2 H23 per certe xi ∈ C e, poiché t1 + t2 + t3 = 0, H = diag(t1 , t2 , t3 ) = t1 H12 + (t1 + t2 )H23 , quindi B(Tα , H) = B(x1 H12 + x2 H23 , t1 H12 + (t1 + t2 )H23 ) = 6 2x1 t1 − x1 (t1 + t2 ) − x2 t1 + 2x2 (t1 + t2 ) = 6(x1 + x2 )t1 + 6(−x1 + 2x2 )t2 6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3) 129 perciò si ha: α1 (H) = B(T1 , H) per ogni H ∈ h se e solo se 6(x1 + x2 ) = 1, 6(−x1 + 2x2 ) = −1; quindi x1 = 1/6, x2 = 0 e perciò T1 = H12 /6. In modo simile si ha T2 = H23 /6. Allora (α1 , α2 )B = (H12 /6, H23 /6) = −1/6, (α1 , α1 )B = (α2 , α2 )B = 2/6, e questo è, a meno di una fattore 1/6, il prodotto scalare (−, −) su h∗R . Si noti che Hα1 := H12 = 2 T1 , B(T1 , T1 ) (si veda 7.1.11 per il caso generale). Hα2 := H23 = 2 T2 B(T2 , T2 ) 7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI 7 130 La classificazione delle algebre di Lie semisemplici Testi consigliati: [FH], [Ha], [Hu]. 7.1 L’algebra di Cartan e i pesi. 7.1.1 Introduzione. In questo capitolo daremo la classificazione delle algebre di Lie complesse semplici. Il risultato è che ci sono quattro famiglie, parametrizzate da interi positivi, di algebre di Lie complesse semplici g e poi ci sono 5 casi ‘eccezionali’, si veda 7.3.3. La classificazione sfrutta l’azione di una sottoalgebra ‘di Cartan’ h di g nella rappresentazione aggiunta su g. Risulta che nello spazio vettoriale duale h∗ è definito un sottospazio reale h∗R generato da certi vettori, chiamati radici di g. L’insieme delle radici di g è un sistema di radici, questo concetto è definito in 7.2.2. Si mostra che esiste una biiezione tra sistemi di radici ‘irriducibili’ e algebre di Lie complesse semplici. Poi si dà la classificazione dei sistemi di radici. 7.1.2 L’algebra di Cartan. Sia g un’algebra di Lie complessa semplice. Una sottoalgebra di Lie h ⊂ g è detta un’algebra di Cartan se h è abeliana, se ogni elemento di h è diagonalizzabile (in una e quindi in ogni rappresentazione di g, vedi 5.4.5) e se h è massimale rispetto a tale proprietà (vedi [FH], Definition D.2). Si può mostrare che se h, h0 sono due algebre di Cartan di g, allora esiste un automorfismo g → g0 che manda h in h0 , quindi h è essenzialmente unica (vedi [FH] D.3). Il rango l di g è la dimensione di un’algebra di Cartan di g: l = rango(g) := dimC h. 7.1.3 Pesi delle rappresentazioni. Sia h un’algebra di Cartan di g e sia ρ : g −→ End(V ) una rappresentazione di g. Poiché ρ(H) per ogni H ∈ h è diagonalizzabile, si può decomporre V in autospazi per ρ(H). Se H, H 0 ∈ h e Vλ ⊂ V è l’autospazio di ρ(H) con autovalore λ, allora ρ(H 0 )Vλ ⊂ Vλ perché: ρ(H)(ρ(H 0 )X) = ρ(H 0 )(ρ(H)X) = ρ(H 0 )(λX) = λ(ρ(H 0 )X), (X ∈ Vλ ). Quindi Vλ ha una decomposizione in autospazi per H 0 . Procedendo in questo modo, usando una base H1 , . . . , Hl di h, si trova una decomposizione P V = ⊕Vλ1 ,...,λl tale Pche Hi v = λi v per v ∈ Vλ1 ,...,λl . Poiché ogni H ∈ h si scrive come H = xi Hi , si ha Hv = ( λi xi )v. Quindi un autospazio Vλ1 ,...,λl definisce una mappa lineare (un ‘peso’) L : h −→ C, H= l X i=1 xi Hi 7−→ l X i=1 λ i xi , tale che ρ(H)v = L(H)v 7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI 131 per ogni v ∈ Vλ1 ,...,λl . Si scrive VL := Vλ1 ,...,λl e VL è detto uno spazio peso (invece di autospazio per tutti gli elementi di h) con peso L ∈ h∗ , lo spazio duale di h. In particolare, ogni rappresentazione V di g ha una decomposizione in spazi peso: V = ⊕L∈h∗ VL , ρ(H)v = L(H)v (∀v ∈ VL ). Poiché dim V è finita, VL = 0 tranne che per un numero finito di L ∈ h∗ , questi L sono detti i pesi della rappresentazione ρ e la moltiplicità di un peso L è la dimensione di VL . 7.1.4 La rappresentazione aggiunta. La rappresentazione aggiunta di un’algebra di Lie g è (vedi 5.2.5): ad : g −→ End(g), X− 7 → (ad(X) : Y 7→ [X, Y ]). Poiché h è abeliana, si ha [H, H 0 ] = 0 · H 0 = 0 per ogni H, H 0 ∈ h e quindi h è contenuta nell’autospazio g0 con peso 0. Si può mostrare che ogni elemento in questo autospazio è diagonalizzabile e quindi sta in h, perciò g0 = h. Otteniamo allora la decomposizione in autospazi (spazi peso) per l’algebra di Cartan: g = h ⊕ (⊕α∈h∗ −{0} gα ), dove il sottospazio gα è definito da: gα := {X ∈ g : [H, X] = α(H)X }. 7.1.5 Le radici di un’algebra di Lie semisemplice. Un elemento α ∈ h∗ è detto una radice (inglese: root) di g se α 6= 0 e gα 6= 0. Poiché dim g è finita, ci sono soltanto un numero finito di radici. L’insieme delle radici è indicato con R. Lo spazio radice (inglese root space) è l’autospazio gα di g, dove α ∈ R. 7.1.6 Le radici di sl(n). L’algebra di Lie sl(n) del gruppo di Lie SL(n) è data da: sl(n) = { X ∈ Mn (C) : T r(X) := X11 + . . . + Xnn = 0 } (vedi 5.1.7), in particolare, dim sl(n) = n2 − 1. Sia h il sottospazio di sl(n) delle matrici diagonali: h = {H ∈ sl(n) : Hij = 0 se i 6= j } = {diag(t1 , . . . , tn ) ∈ Mn (C) : t1 + . . . + tn = 0 }. Poiché H1 H2 = H2 H1 se H1 , H2 sono matrici diagonali, si ha [H1 , H2 ] = 0 per ogni H1 , H2 ∈ h e quindi h è abeliana e diagonalizzabile (perché già diagonalizzata!). Si noti che se H = diag(t1 , . . . , tn ) e X = (Xij ) ∈ Mn (C) allora (HX)ij = ti Xij , cioè la i-esima riga di HX è quella di X, moltiplicata per ti . Similmente, (XH)ij = tj Xij , cioè la j-esima colonna di (HX) è quella di X, moltiplicata per tj . Perciò, [H, X] è la matrice con coefficienti dati da [H, X]ij = (ti − tj )Xij , H = diag(t1 , . . . , tn ). 7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI 132 A questo punto è facile trovare gli spazi radice. Sia Ei,j la matrice ‘elementare’: Ei,j ∈ Mn (C), (Ei,j )kl = δik δjl dove δab è il delta di Kronecker: δab = 1 se a = b e zero altrimenti. In particolare, tutti i coefficienti di Ei,j sono zero tranne (Ei,j )ij = 1. Allora [H, Ei,j ] = (ti − tj )Ei,j . Poiché gli Ei,j sono una base di Mn (C), l’insieme delle radici di sl(n) è: R = {αij := Li − Lj ∈ h∗ : 1 ≤ i, j ≤ n, i 6= j }, dove Li : h −→ C, Poiché P Li (diag(t1 , . . . , tn )) = ti . ti = 0 gli Li ∈ h∗ non sono indipendenti in h∗ ma si ha: L1 + . . . + Ln = 0 ∈ h∗ . Una base di gαij è data dalla matrice ‘elementare’ Ei,j : gαij = CEi,j . Si noti che ogni spazio radice è proprio unidimensionale. Per essere concreti, nel caso n = 3 si ha: t1 0 0 x11 x12 x13 t1 x11 t1 x12 t1 x13 HX = 0 t2 0 x21 x22 x23 = t2 x21 t2 x22 t2 x23 , 0 0 t3 x31 x32 x33 t3 x31 t3 x32 t3 x33 e poi: t1 x11 t1 x12 t1 x13 t1 x11 t2 x12 t3 x13 [H, X] = HX − XH = t2 x21 t2 x22 t2 x23 − t1 x21 t2 x22 t3 x23 t3 x31 t3 x32 t3 x33 t1 x31 t2 x32 t3 x33 0 (t1 − t2 )x12 (t1 − t3 )x13 0 (t2 − t3 )x23 . = (t2 − t1 )x21 (t3 − t1 )x31 (t3 − t2 )x32 0 Quindi gli autovalori non nulli di ad(H) sono: ±(t1 − t2 ), ±(t1 − t3 ), ±(t2 − t3 ). Perciò sl(3) ha sei radici: R = {±(L1 − L2 ), ±(L1 − L3 ), ±(L2 − L3 )}. 7.1.7 Commutatori e radici. L’insieme delle radici R ⊂ h∗ determina l’algebra di Lie semplice g. Un primo passo per capire come mai ciò capita è la proprietà: [gα , gβ ] ⊆ gα+β (α, β ∈ R), 7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI 133 in particolare [gα , gβ ] = 0 se α + β 6∈ R. La dimostrazione è facile, sia Xα ∈ gα , Xβ ∈ gβ , allora [H, [Xα , Xβ ]] = [[H, Xα ], Xβ ] + [Xα , [H, Xβ ]] = α(H)[Xα , Xβ ] + β(H)[Xα , Xβ ] = (α + β)(H)[Xα , Xβ ] e perciò [Xα , Xβ ] ∈ gα+β , dove abbiamo usato l’identità di Jacobi come in 5.2.5. Si può mostrare che [gα , gβ ] = gα+β se α + β ∈ R. 7.1.8 La forma di Killing. Sia V uno spazio vettoriale complesso. Lo spazio vettoriale complesso End(V ) ha una forma bilineare ‘naturale’ data da BV (X, Y ) := Tr(XY ) dove Tr(Z) è la traccia dell’endomorfismo Z di V . Scegliendo una base di V , cioè un isomorfismo V ∼ = Cn , si può esplicitare tale forma bilineare e si ottiene: Bn : Mn (C) × Mn (C) −→ C, n X n X Bn (X, Y ) = Tr(XY ) = ( Xlk Ykl ), l=1 k=1 P dove Tr(Z) = l Zll è la traccia della matrice Z. La formula per Bn mostra che Tr(XY ) = Tr(Y X), quindi B è simmetrico: B(X, Y ) = B(Y, X) per ogni X, Y ∈ End(V ). Poiché la traccia è lineare, Tr(λX + µY ) = λTr(X) + µTr(Y ), si ha T r([X, Y ]) = T r(XY − Y X) = 0. Un’altra proprietà importante della forma di Killing è: B([X, Y ], Z) = B(X, [Y, Z]) (∀X, Y, Z ∈ Mn (C)), cioè, che vale Tr((XY − Y X)Z) = Tr(X(Y Z − ZY )). Per mostrarlo si considera la differenza tra i due lati e si usa: Tr((XY − Y X)Z − X(Y Z − ZY )) = Tr(XZY − Y XZ) = Tr([XZ, Y ]) = 0, come appena visto. La rappresentazione aggiunta di un’algebra di Lie semplice g dà una inclusione ad : g ,→ End(g) ∼ = Mn (C) dove n = dim g. Quindi otteniamo una forma bilineare su g, detta forma di Killing, definita da B : g × g −→ C, B(X, Y ) := Bg (ad(X), ad(Y )) e, come appena visto, questa forma bilineare soddisfa B([X, Y ], Z) = B(X, [Y, Z]). La forma di Killing è nondegenere, cioè, per ogni X ∈ g, X 6= 0, esiste uno Z ∈ g tale che B(X, Z) 6= 0. Per mostrare ciò, si definisce il nucleo di B: ker(B) := {X ∈ g : B(X, Z) = 0 ∀Z ∈ g} e si mostra che ker(B) = 0. Si noti che ker(B) è un sottospazio lineare di g. In più, se X, Y ∈ g sono tali che B(X, Z) = B(Y, Z) = 0 per ogni Z ∈ g allora anche B([X, Y ], Z) = B(X, [Y, Z]) = 7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI 134 B(X, Z 0 ) = 0. Quindi ker(B) è un ideale di g e, poiché g è semplice, ker(B) = {0} oppure ker(B) = g. Poi si dimostra che ker(B) 6= g, per esempio usando un risultato di Cartan. 7.1.9 La simmetria R = −R. Siano α, β ∈ h∗ e Xα ∈ gα , Xβ ∈ gβ . Se α + β 6= 0 ∈ h∗ , allora esiste un H ∈ h tale che (α + β)(H) 6= 0. Si ha: α(H)B(Xα , Xβ ) = B([H, Xα ], Xβ ) = −B([Xα , H], Xβ ) = −B(Xα , [H, Xβ ]) = −β(H)B(Xα , Xβ ), perciò (α + β)(H)B(Xα , Xβ ) = 0 e quindi B(Xα , Xβ ) = 0. In particolare, gli autospazi gα e gβ sono perpendicolari se α + β 6= 0: gα ⊥B gβ se α + β 6= 0. Sia adesso α ∈ R e Xα ∈ gα , Xα 6= 0. Supponiamo che g−α = 0. Allora B(Xα , Xβ ) = 0 per ogni Xβ ∈ gβ e per ogni β ∈ h∗ . Ma allora B(Xα , X) = 0 per ogni X ∈ g = ⊕gβ , in contraddizione con il fatto che B è nondegenere su g. Quindi g−α 6= 0 se gα 6= 0. 7.1.10 La forma di Killing e l’algebra di Cartan. La restrizione della forma di Killing ad h è nondegenere perché se H ∈ h allora esiste un X ∈ g tale che B(H, X) 6= 0. Allora P X = X0 + α Xα con X0 ∈ h e Xα ∈ gα . Se α ∈ R, α 6= 0 e quindi α + 0 6= 0 e in 7.1.9 abbiamo visto che ciò implica B(H, Xα ) = 0. Quindi B(H, X0 ) 6= 0 e poiché X0 ∈ g0 = h segue che B non è degenere su h. Poiché B è nondegenere su h, B definisce una dualità, sempre indicata con B, cioè un isomorfismo: ∼ = B : h∗ −→ h, α 7−→ Tα se α(H) = B(Tα , H) per ogni H ∈ h. Si noti che α(Tα ) = B(Tα , Tα ). 7.1.11 Copie di sl(2) in g. Sia α ∈ R, quindi anche −α ∈ R e [gα , g−α ] ⊂ g0 = h. Mostriamo che [Xα , X−α ] = B(Xα , X−α )Tα se Xα ∈ gα , X−α ∈ g−α , dove Tα ∈ h è definito in 7.1.10. Da questo segue che [gα , g−α ] = CTα perché ci sono Xα , X−α tale che B(Xα , X−α ) 6= 0 (vedi 7.1.9). Sia H ∈ h, allora si ha: B(H, [Xα , X−α ]) = = = = B([H, Xα ], X−α ) α(H)B(Xα , X−α ) B(H, Tα )B(Xα , X−α ) B(H, B(Xα , X−α )Tα ), quindi ogni H ∈ h è perpendicolare a [Xα , X−α ] − B(Xα , X−α )Tα . Poiché B è nondegenere su h segue [Xα , X−α ] = B(Xα , X−α )Tα , come volevasi dimostrare. Si ricordi che l’algebra di Lie sl(2) ha una base H, X, Y con H = [X, Y ] e [H, X] = 2X (si veda 5.4.2). Si può mostrare che B(Tα , Tα ) 6= 0 e quindi si può definire l’elemento Hα := 2 Tα B(Tα , Tα ) (∈ h), allora α(Hα ) = B(Tα , Hα ) = 2. 7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI 135 Visto che CHα = CTα = [gα , g−α ], ci sono Xα ∈ gα , X−α ∈ g−α tali che [Xα , X−α ] = Hα e poiché α(Hα ) = 2 si ha anche [Hα , Xα ] = α(Hα )Xα = 2Xα . Il sottospazio tre dimensionale generato da Xα , X−α e Hα è allora una sottoalgebra di Lie di g isomorfa a sl(2): [Xα , X−α ] = Hα , [Hα , Xα ] = 2Xα , [Hα , X−α ] = −2X−α . In particolare, ogni radice definisce una copia di sl(2). L’inclusione di algebre di Lie sl(2) ,→ g composta con la rappresentazione aggiunta di g definisce una rappresentazione dell’algebra sl(2) su g. In particolare, gli autovalori di ad(Hα ) sono interi(!) (vedi 5.5.8). Poiché ad(Hα )(Xβ ) = [Hα , Xβ ] = si ha allora che 2β(Tα ) 2 [Tα , Xβ ] = Xβ B(Tα , Tα ) B(Tα , Tα ) 2β(Tα ) ∈ Z B(Tα , Tα ) (∀α, β ∈ R). Lo studio dell’azione di sl(2) su g permette inoltre di mostrare che: dim gα = 1 se α ∈ R e anche che se α ∈ R allora λα ∈ R se e solo se λ = ±1. 7.1.12 Lo spazio h∗R . Per ogni α ∈ R è stato definito un elemento Hα ∈ h (vedi 7.1.11). Si può mostrare che il sottospazio vettoriale complesso di h generato dalle Hα è h. Usando l’isomorfismo h∗ ∼ = h definito da B, si può definire una forma bilineare (·, ·) su h∗ nel modo seguente: (α, β) := B(Tα , Tβ ) (∀α, β ∈ h∗ ). Il sottospazio vettoriale reale di h generato dalle Hα , scritto hR , è uno spazio reale di dimensione l = dimC h, il rango di g: l = dimC h = dimR hR . La forma bilineare (·, ·) definisce un prodotto scalare sullo spazio vettoriale reale h∗R . Si noti che in 7.1.11 abbiamo mostrato che 2 (β, α) 2β(Tα ) = (α, α) B(Tα , Tα ) è un intero. 7.1.13 Il gruppo di Weyl. L’insieme delle radici R di un’algebra di Lie complessa semplice è un sottoinsieme finito che genera uno spazio vettoriale reale h∗R con un prodotto scalare (·, ·), vedi 7.1.12. 7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI 136 Per una radice α, scriviamo α⊥ per l’iperpiano perpendicolare a α: α⊥ := {x ∈ h∗R : (x, α) = 0 } (⊂ h∗R ). Sia sα la riflessione in α⊥ : sα : h∗R −→ h∗R , x 7−→ x − 2 (x, α) α, (α, α) per verificare la formula basta notare la linearità, che sα (x) = x se x ∈ α⊥ , cioè se (x, α) = 0, e che sα (λα) = −λα per α ∈ R. Il sottogruppo del gruppo ortogonale di h∗R generato dalle sα , α ∈ R è il gruppo di Weyl di g, scritto W = W (g) := h sα : α ∈ R i (⊂ O(h∗R )). 7.1.14 L’invarianza di R sotto W . L’insieme delle radici R è invariante per l’azione di W , cioè per w ∈ W e β ∈ R anche w(β) ∈ R. Per mostrare questo, dobbiamo verificare che se α, β ∈ R anche sα (β) = β − 2 B(Tβ , Tα ) β(Tα ) (β, α) α=β−2 α=β−2 α = β − β(Hα )α (α, α) B(Tα , Tα ) B(Tα , Tα ) ∈ R. La copia di sl(2) ⊂ g generata da Hα , Xα , X−α agisce su g via la rappresentazione aggiunta. Il sottospazio V[β] ⊂ g definito da V[β] := ⊕n∈Z gnα+β , è una sottorappresentazione di sl(2) in g perché: ad(Hα )Xnα+β = (nα + β)(Hα )Xnα+β , ad(X±α )Xnα+β = [X±α , Xnα+β ] ∈ g(n±1)α+β . Ogni gnα+β è uno spazio peso delle rappresentazioni di sl(2) su V[β] con peso l’intero (nα + β)(Hα ) = 2n + β(Hα ). Poiché ogni gnα+β ha dimensione al più uno, segue che V[β] è una rappresentazione irriducibile di sl(2) (vedi 5.5.10). Da ciò segue che i pesi di V[β] sono m, m − 2, . . . , −(m − 2), −m per un certo m ∈ Z≥0 . Dato che β(Hα ) è un peso, anche −β(Hα ) deve essere un peso di V[β] . Quindi esiste un intero n tale che −β(Hα ) = (nα + β)(Hα ). Dato che α(Hα ) = 2 si ha n = −β(Hα ). Perciò −β(Hα )α + β è una radice di g, come desiderato. 7.1.15 Esempio: l’algebra di Cartan di sl(n). Consideriamo il caso g = sl(n). Sia αij = Li − Lj ∈ R (vedi 7.1.6), si ricordi che gαij = CEi,j . Definiamo, per i, j ∈ {1, . . . , n}, i 6= j, l’elemento Hij = [Ei,j , Ej,i ] = Ei,i − Ej,j (∈ [gαij , g−αij ] ⊂ h), la matrice diagonale con tutti i coefficienti uguale a zero tranne un 1 in posizione ii e un −1 in posizione jj. In particolare, Hji = −Hij . Per esempio, se n = 3, H12 = diag(1, −1, 0) e H23 = diag(0, 1, −1). Si verifica che [Hij , Ei,j ] = 2Ei,j quindi Hij = Hαij , 7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI 137 l’unico elemento in [gαij , g−αij ] con questo autovalore su gαij . Le radici di sl(n) sono gli αkl = Lk − Ll con αkl (diag(t1 , . . . , tn )) = tk − tl , quindi si ha 2 se k = i, l = j, 1 se k = i, l 6= j, αkl (Hij ) = 0 se {k, l} ∩ {i, j} = ∅, e ovviamente αkl (Hlk ) = −2, αkl (Hik ) = αkl (−Hki ) = −1 se i 6= l. L’azione del gruppo di Weyl è dato da sα (β) = β − β(Hα )α (vedi 7.1.13) quindi αij − 2αij = −αij se k = i, l = j, αil − αij = αjl se k = i, l 6= j, sαij (αkl ) = αkl se {k, l} ∩ {i, j} = ∅, (si noti: αil − αij = (Li − Ll ) − (Li − Lj ) = Lj − Ll = αjl ). Usando sα (−β) = −sα (β) e sα = s−α , troviamo che dove σ = (ij) ∈ Sn , sαij (αkl ) = ασ(k)σ(l) , W (sl(n)) ∼ = Sn , cioè il gruppo di Weyl del sistema di radici di sl(n) è il gruppo simmetrico Sn . Si noti che non abbiamo usato il prodotto scalare su h∗R in modo esplicito. Poiché le riflessioni sα sono applicazioni ortogonali, possiamo comunque determinare questo prodotto scalare, a meno di moltiplicazione per una constante non-zero, da questo risultato (per calcoli ‘diretti’ vedi [FH], 15.1). Anzitutto, date due radici αij , αkl , esiste un σ ∈ W (sl(n)) = Sn tale che σ(αij ) = αkl . Quindi (α, α) non dipende dalla scelta di α ∈ R. Scegliamo lo scalare col quale moltiplichiamo il prodotto scalare su h∗R in modo tale che (α, α) = 2 e scriviamo ancora (·, ·) per questo prodotto scalare. Poiché β(Hα ) = 2 (α, β) = (α, β) (α, α) troviamo, usando la formula per sαij qui sopra, che (αij , αij ) = 2, (αij , αil ) = 1, (αij , αkl ) = 0 se i, j, k, l sono distinti tra di loro. Questa mostra che si ha una isometria h∗R = (⊕ni=1 RLi ) /hL1 + . . . + Ln i −→ E := {(x1 , . . . , xn ) ∈ Rn : x1 + . . . + xn = 0}, data da: Li 7−→ ei − (e1 + . . . + en )/n, quindi αij = Li − Lj 7−→ ei − ej , (αij , αkl ) = (ei − ej , ek − el ). dove il prodotto scalare su E è P quello indotto dal prodotto scalare euclideo standard su Rn : P (x, y) = xi yi . In particolare, ( ni=1 ai Li , Lk − Ll ) = ak − al . 7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI 7.2 138 Sistemi di radici e diagrammi di Dynkin 7.2.1 Sistemi di radici. Sia g un’algebra di Lie semplice (complessa) con algebra di Cartan h. La rappresentazione aggiunta di g individua un insieme finito R ⊂ h∗ , cioè un insieme di mappe lineari h → C. Un α ∈ h∗ sta in R se e solo α 6= 0 e se esiste un X ∈ g tale che ad(H)(X) = α(H)X per ogni H ∈ h (vedi 7.1.5). Il sottospazio reale di h∗ generato dalle radici si scrive h∗R , la sua dimensione è uguale al rango di g, cioè l = dimC h = dimR h∗R . La forma di Killing B su g induce un prodotto scalare sullo spazio reale h∗R , scritto semplicemente (·, ·). Il gruppo di Weyl W di g è il sottogruppo del gruppo ortogonale di (h∗R , (·, ·)) generato dalle riflessioni rispetto agli iperpiani perpendicolari alle radici. L’insieme delle radici R è invariante per l’azione di W , cioè ogni w ∈ W permuta le radici. Adesso definiamo, in astratto, un sistema di radici. Mostriamo che gli insiemi di radici R ⊂ h∗R sono sistemi di radici. Poi daremo brevemente i risultati principali che servono per classificare i sistemi di radici e per mostrare che c’è una biiezione tra algebre di Lie complesse semplice e sistemi di radici. 7.2.2 Definizione. Sia E uno spazio vettoriale euclideo, cioè E è uno spazio vettoriale reale con prodotto scalare, scritto (·, ·). Un sistemo di radici in E è un sottoinsieme R ⊂ E tale che valgano le seguenti quattro condizioni: R1 R è un insieme finito, R genera E e 0 6∈ R. R2 Sia α ∈ R, allora λα ∈ R se e solo se λ = ±1. R3 Per α ∈ R, la riflessione sα rispetto all’iperpiano α⊥ manda R in se stesso. R4 Per α, β ∈ R il numero reale nβα := 2 (β, α) (α, α) è un intero. Un elemento di R è detto ` radice, il rango di R è la dimensione di E. Un sistema di radici è detto irriducibile se R 6= R1 R2 in modo tale che ogni α ∈ R1 è perpendicolare con ogni β ∈ R2 . 7.2.3 Un’algebra di Lie dà un sistema di radici. Sia g un’algebra di Lie complessa semplice e sia h un’algebra di Cartan di g. Allora R = Rg ⊂ h∗R è un sistema di radici irriducibile (vedi [FH], 21.1), vedi anche 7.1.11, 7.1.12. 7.2.4 Un sistema di radici dà un’algebra di Lie. Sia R ⊂ E un sistema di radici irriducibile. Si può definire un’algebra di Lie complessa g = gR , che risulta essere semplice e tale che il sistema di radici Rg di g è proprio R stessa. In più, se R = Rg , il sistema di radici di un’algebra di Lie complessa semplice, allora gR = g. In combinazione con il fatto, vedi 7.2.3, che ogni algebra di Lie semplice complessa determina un sistema di radici irriducibile, si conclude che si ha una biiezione tra le algebre di Lie 7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI 139 semisemplici complesse e i sistemi di radici irriducibili. Per la classificazione dei sistemi di radici irriducibili, tramite diagrammi di Dynkin, si veda 7.3. Per costruire l’algebra di Lie gR si può usare una variante della costruzione di Serre (vedi [FH], p.337). Siano α1 , . . . , αn le radici semplici di g che corrisponderanno ai vertici del diagramma di Dynkin, definito qui sotto e sia nij = 2(αi , αj )/(αj , αj ). Si consideri l’algebra di Lie complessa generata da elementi Hi , Xi , Yi , 1 ≤ i ≤ n, cioè un elemento di questa algebra di Lie è una combinazione lineare di [Z1 [Z2 , [Z3 , . . . Zk ]] . . .] con Zj ∈ {H1 , . . . , Yn }. Poi si prenda il quoziente per le seguenti relazioni [Hi , Hj ] = 0, [Xi , Xi ] = Hi , [Xk , Yl ] = 0, [Hi , Xj ] = nji Xj , [Hi , Yj ] = −nji Yj per ogni i, j e k 6= l, poi per i 6= j si impone anche: [Xi , Xj ] = 0, [Xi , [Xi , Xj ]] = 0, [Xi , [Xi , [Xi , Xj ]]] = 0, [Xi , [Xi , [Xi , [Xi , Xj ]]]] = 0, [Yi , Yj ] = 0 [Yi , [Yi , Yj ]] = 0, [Yi [Yi , [Yi , Yj ]]] = 0 [Yi , [Yi [Yi , [Yi , Yj ]]]] = 0 se nij se nij se nij se nij = 0, = −1, = −2, = −3. L’algebra di Lie quoziente si indica con gR . Si mostra che gR è semplice, di rango n, con algebra di Cartan h =< H1 , . . . , Hn > e il sistema di radici di gR è R. 7.3 Diagrammi di Dynkin 7.3.1 Radici positive e radici semplici. Le condizioni R1, . . . , R4 sono molto restrittive. Per esempio, se φ è l’angolo tra due radici α, β, allora una formula ben nota per il prodotto scalare dà: (α, β)2 =⇒ nαβ nβα = 4 cos2 φ. cos2 φ = (α, α)(β, β) Poiché gli nαβ sono interi per R4 e 0 ≤ cos2 φ ≤ 1 ci sono poche possibilità per gli nαβ (vedi [FH], Table 21.4 e 7.3.3). In particolare, non è difficile classificare tutti i sistemi di radici di rango 1 (è facile vedere che è unico) e 2 (ce ne sono 4, i tre sistemi irriducibili sono disegnati in 7.3.3). Per classificare i sistemi di radici in generale, si usa una qualsiasi applicazione lineare l : E → R tale che l(α) 6= 0 per ogni α ∈ R. Poiché R è finito, tale l esiste ed è detta mappa regolare. Allora, poiché l(α) 6= 0, l(−α) = −l(α) e R = −R (per R2), si ottiene una partizione dell’insieme R a R = R+ R− R+ := {α ∈ R : l(α) > 0}, R− = −R+ . L’insieme R+ è detto l’insieme delle radici positive mentre R− è l’insieme delle radici negative. Una radice positiva α (∈ R+ ) è detta semplice se non è la somma di due altre radici positive. 7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI 140 Si mostra poi che l’insieme delle radici semplice è una base di E, che ogni radice positiva è una combinazione lineare delle radici positive con coefficienti che sono interi positivi e che (α, β) ≤ 0 per radici semplici α, β. Questo implica che 90◦ ≤ φ < 180◦ . 7.3.2 Esempio. Sia R il sistema di radici di sl(n), vedi 7.1.6: X X ai = 0, R = {Li − Lj : i 6= j} ⊂ E = h∗R = { ai Li ∈ h∗C : ai ∈ R ∀i }. i Si scelga l : E −→ R tale che X X l( ai Li ) = li ai , con li > li+1 > 0, i allora l(Li − Lj ) = li − lj 6= 0 se i 6= j, quindi l è una mappa regolare. Una scelta conveniente, anche per il sistema di radici Bn qui sotto in 7.3.5, è di definire: l : ⊕ni=1 RLi −→ R, l(Li ) = n + 1 − i, quindi l(Li − Lj ) = j − i (∈ Z). Poiché li − lj > 0 se e solo se i < j si ha: R+ = { Li − Lj : i < j }. Sia αi := Li − Li+1 (∈ R+ ) per i = 1, . . . , n−1. Si noti che l(α) ∈ Z>0 per ogni α ∈ R+ e l(α) = 1 se e solo se α = αi per un certo i. Allora segue che ogni αi è semplice perché se αi = β +γ con β, γ ∈ R+ allora 1 = l(αi ) = l(β) + l(γ) ≥ 2, una contraddizione. Invece, per k ≥ 2, Li − Li+k = (Li − Li+1 ) + (Li+1 − Li+k ) quindi le altre radici positive non sono semplici. P P Gli αi sono una base di E (si ricordi che ai = 0 se ai Li ∈ E). In più, se a ∈ R+ si ha α = Li − Lj con i < j e: Li − Lj = (Li − Li+1 ) + (Li+1 − Li+2 ) + . . . + (Lj−1 − Lj ) = αi + αi+1 + . . . + αj−1 quindi ogni radice positiva è combinazione lineare delle radici positive con coefficienti che sono interi positivi (infatti, i coefficienti sono in {0, 1}). Infine, (αi , αi+1 ) = (Li − Li+1 , Li+1 − Li+2 ) = −1, (αi , αj ) = 0 se |i − j| > 1. 7.3.3 Diagrammi di Dynkin. Se α1 , . . . , αn e α10 , . . . , αn0 sono radici semplici (per scelte di mappe regolari l, l0 : E → R), allora si mostra che esistono un w ∈ W (R) e una permutazione 0 0 0 σ di 1, . . . , n tale che w(αi ) = ασ(i) . Quindi gli n2 prodotti scalari (αi , αj ) = (ασ(i) , ασ(j) ) sono determinati in modo unico (a meno di permutazioni) da R. Il diagramma di Dynkin di un sistema di radici è definito nel modo seguente. Per ogni radice semplice si ha un vertice, e due vertici sono connessi da k segmenti, k ∈ {0, 1, 2, 3}, se 4(αi , αj )2 = 4 cos2 φ = k (αi , αi )(αj , αj ) 7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI 141 dove φ è l’angolo tra le due radici corrispondenti. Se α, β hanno lunghezza diversa, mettiamo il segno < (o >) sui segmenti tra i vertici corrispondenti, indicando in tal modo quale è più lungo dell’altro. Se due radici semplici α e β non sono perpendicolari, (α, β) < 0. Allora k = 4 cos2 φ è 1, 2, 3, e l’angolo φ tra di loro è 120◦ , 135◦ , 150◦ rispettivamente. Si ricordi che nβα = 2(β, α)/(α, α) e nβα sono interi per R4, ora negativi, con prodotto nβα nαβ = k, quindi nαβ , nβα ∈ {−1, −2, −3}. Supponiamo ora nαβ ≤ nβα , poiché (α, α)/(β, β) = nαβ /nβα si ha: Se k = 1, si ha nαβ = nβα = −1, quindi (α, α) = (β, β). Se k = 2, si ha nαβ = −2, nβα = −1, quindi (α, α) = 2(β, β). Se k = 3, si ha nαβ = −3, nβα = −1, quindi (α, α) = 3(β, β). Nel diagramma di Dynkin si trovano allora soltanto le seguenti connessioni tra due vertici: β α e β α e e e (α, α) = 2(β, √ β) cos φ = − 2/2 φ = 135◦ (α, α) = (β, β) cos φ = −1/2 φ = 120◦ β α e > e > (α, α) = 3(β, √ β) cos φ = − 3/2 φ = 150◦ β - - α - α - - - β β - I tre casi considerati qui sopra sono tutti i tre sistemi di radici di rango 2, si chiamano A2 , B2 e G2 rispettivamente. Questi sistemi di radici sono quindi i seguenti: 6 - - α - - ? Dato il diagramma di Dynkin di R, si può ricostruire R (a meno di moltiplicazione per uno scalare e una isometria) nel modo seguente. Si enumerino i vertici del diagramma di Dynkin. Si prenda α1 = e1 ∈ E = Rn , con prodotto scalare standard. Supponiamo che α1 , . . . , αi−1 ∈ Ri−1 ⊂ Rn siano stati determinati. Dal diagramma si trova la lunghezza di αi . Si trova anche i prodotti scalari (αj , αi ) (≤ 0) per j = 1, . . . , i − 1, questi determinano una retta (affine) in Ri su cui giace αi . Ci sono adesso due scelte per αi (scambiate tramite la riflessione rispetto all’iperpiano Ri−1 ⊂ Ri ). In questo modo si determina α1 , . . . , αn ∈ Rn , unico a meno di una isometria. Sia si la riflessione rispetto all’iperpiano perpendicolare a αi e sia W il gruppo generato dalle si . Si mostra che l’unione delle orbite delle αi è un sistema di radici, che è R, a meno di moltiplicazione per uno scalare (per aggiustare la lunghezza di α1 ) e una isometria: R ∼ = { w(αi ) : w ∈ W, i = 1, . . . , n }. 7.3.4 Esempio: sl(n) e An−1 . Per esempio, sia R = {Li − Lj : i 6= j, 1 ≤ i, j ≤ n} e αi = Li − Li+1 per i = 1, . . . , n − 1 il sistema di radici di sl(n) (con la scelta di radici positive 7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI 142 come in 7.3.2). Le radici hanno la stessa lunghezza e il diagramma di Dynkin è: α1 c α2 c α3 α4 c c αn−2 c αn−1 c , questa sistema di radici è chiamato An−1 . 7.3.5 Esempio: il sistema di radici Bn . Il sistema di radici Bn è il sottoinsieme di Rn , con prodotto scalare standard, dato dai vettori α ∈ Rn con (α, α) ∈ {1, 2}, cioè: Bn = { ±Li , ±(Li ± Lj ), i, j ∈ {1, . . . , n}, i 6= j } dove gli Li sono la base standard di Rn . Poiché le riflessioni sα sono applicazioni ortogonali, è ovvio che sα (Bn ) = Bn . Si noti che sα permuta Li e Lj se α = Li − Lj , manda Li 7→ −Lj e Lj 7→ −Li se α = Li + Lj e manda Li 7→ −Li se α = Li . Infine sα fissa gli altri Lk . La mappa l : Rn → R di 7.3.2 è regolare anche per Bn . Le radici positive sono gli Li e gli Li ± Lj con i < j, le radici semplici sono i α ∈ R con l(α) = 1: α1 = L1 − L2 , . . . αn−1 = Ln−1 − Ln , αn = Ln . Il diagramma di Dynkin Bn contiene quello di An−1 , poi l’ultima radice semplice αn è perpendicolare a tutte le altre tranne αn−1 e 4 cos2 φ = 4 (αn−1 , αn )2 = 4(−1)2 /(2 · 1) = 2 (αn−1 , αn−1 )(αn , αn ) quindi ci sono due segmenti tra αn−1 e αn . Poiché (αn−1 , αn−1 ) > (αn , αn ) mettiamo il segno ‘>’ nel diagramma tra i vertice corrispondenti: α1 e α2 e α3 e αn−2 αn−1 e e αn > e 7.3.6 Classificazione dei diagrammi di Dynkin. Si arriva cosı̀ a classificare tutti i diagrammi di Dynkin: 7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI α2 α1 α2 α3 αn−2 αn−1 α1 α2 α3 αn−2 αn−1 α1 α2 c c e α4 c e e c α3 αn−1 α1 c c e e α3 c c e e c αn e e αn−3 c αn−2 c e 143 An , n ≥ 1, sl(n + 1), αn > e Bn , n ≥ 2, so(2n + 1), αn < e Cn , n ≥ 3, sp(2n), Dn , n ≥ 4, so(2n), αn−1 c c αn α2 c α3 α4 c c α5 c αn−1 c αn c En , n = 6, 7, 8, c α1 α1 e α2 e > α3 e e F4 , αe β < e G2 . Si noti che E5 corrisponderebbe à D5 , D3 a A3 , D2 a due copie di A1 , e C2 a B2 , mentre D1 = C1 = B1 = A1 , quindi le restrizioni su n sono fatte in modo tale da avere ogni diagramma di Dynkin una sola volta. Per i diagrammi di Dynkin delle algebre di Lie complesse semplici sl(n + 1), so(2n) e so(2n + 1) vedi 7.3.4, 9.4.2 e 9.5.2. I sistemi di radici En , F4 , G2 corrispondono ai ‘gruppi di Lie eccezionali’, si veda [FH] Lecture 22, per maggiori dettagli su di essi. In particolare, E8 e G2 godono di un interesse particolare per i fisici. 7.3.7 Il sistema di radici duali. Sia R ⊂ E un sistema di radici. Per α ∈ R definiamo α̌ := 2 α (∈ E), (α, α) Ř := { α̌ : α ∈ R } (⊂ E). Si può verificare che anche Ř ⊂ E è un sistema di radici, detto sistema di radici duali di R. In più se α1 , . . . , αn sono le radici semplici di R (per una scelta di una mappa regolare l), allora α̌1 , . . . , α̌n sono radici semplici di Ř. Nel caso in cui (α, α) è lo stesso intero per tutti gli α ∈ R, allora ovviamente R e Ř coincidono (a meno di moltiplicazione per uno scalare). Queste è il caso per An , Dn e En . Se invece ci sono due lunghezze di radici, potrebbe essere che R e Ř sono isomorfe (succede nel caso B2 = C2 , F4 e G2 ) oppure che non sono isomorfe, questo succede soltanto nel caso R = Bn , Cn con n > 2, in quel caso B̌n = Cn , e Čn = Bn per n > 2. Nel caso di Bn , vedi 7.3.5, le radici sono α = ±Li ⇒ α̌ = 2Li , α = ±(Li ± Lj ) ⇒ α̌ = ±(Li ± Lj ) (i 6= j). 7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI 144 In particolare, (α, α) ∈ {1, 2} mentre (α̌, α̌) ∈ {2, 4}. Usando la solita mappa regolare l di 7.3.1, si verifica che α̌1 = L1 − L2 , . . . , α̌n−1 = Ln−1 − Ln , αn = 2Ln sono le radici semplici e che il diagramma di Dynkin di B̌n è quello di Cn . Viceversa, Čn = Bn . 7.4 Algebre di Lie semplici reali 7.4.1 Coniugazioni su uno spazio vettoriale complesso. Sia V uno spazio vettoriale complesso di dimensione finita. Una coniugazione su V è un’involuzione C-antilineare σ : V −→ V, σ(z1 v1 + z2 v2 ) = z̄1 v1 + z̄2 v2 , σ(σ(v)) = v, per v, v1 , v2 ∈ V e z1 , z2 ∈ C. Il sottospazio (reale) dei vettori σ-invarianti è: V σ := {v ∈ V : σ(v) = v }, si ha V = V σ ⊕ iV σ , perché la R-linearità di σ e σ 2 = I dà la decomposizione in autospazi (reali) V = V σ ⊕ V− dove v ∈ V− se σ(v) = −v. Se v ∈ V σ si ha σ(iv) = −iσ(v) = −iv, quindi iV σ ⊂ V− . Viceversa, se σ(v) = −v allora σ(−iv) = iσ(v) = −iv, quindi −iv = w ∈ V σ e v = iw ∈ iV σ , perciò anche V− ⊂ iV σ . Un esempio di coniugazione è σ : Cn −→ Cn , (z1 , . . . , zn ) 7−→ (z̄1 , . . . , z̄n ), in questo caso ovviamente (Cn )σ = Rn , i vettori con z1 , . . . , zn ∈ R. Ogni base di uno spazio vettoriale complesso definisce in questo modo una coniugazione, data dalla coniugazione complessa delle coordinate di un vettore. Se τ è un’altra coniugazione su Cn , allora τ σ : Cn → Cn è C-lineare ed invertibile (si noti che (τ σ)−1 = στ ), quindi τ (σw) = Aw per un A ∈ GL(n, C) e ogni w ∈ V . Sia v = σ(w) allora otteniamo τ (v) = Aσ(v), quindi data una coniugazione σ, tutti le altre si ottengono componendo σ con un’applicazione C-lineare invertibile opportuna. Per esempio, l’applicazione τ : C → C, z 7→ az̄ è una coniugazione su V = C se e solo se τ 2 = I, cioè a(az̄) = z per ogni z ∈ C, quindi se e solo se aā = 1. Per esempio, se a = −1 allora Cτ = iR. 7.4.2 Forme reali di algebre di Lie complesse. Sia g un’algebra di Lie complessa. Una forma reale di g è un sottospazio reale g0 di g, che è un’algebra di Lie (reale) e tale che g = g0 ⊕ ig0 (equivalente: g0 ⊗R C ∼ = g tramite il prodotto X ⊗ z 7→ zX) (vedi [FH], Lecture 26). Una forma reale di g determina quindi una coniugazione σ su g con gσ = g0 . In generale però, per una coniugazione τ su g qualsiasi, lo spazio vettoriale gτ non è un’algebra di Lie. 7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI 145 7.4.3 Le forme reali di sl(n). L’algebra di Lie sl(n)R := {X ∈ Mn (R) : tr(X) = 0 } ,→ sl(n) = {Y ∈ Mn (C) : tr(Y ) = 0 } è una forma reale di sl(n) perché Y ∈ sl(n) si scrive in modo unico come Y = Y1 + iY2 con Y1 , Y2 ∈ sl(n)R (usare tr(Y1 + iY2 ) = tr(Y1 ) + itr(Y2 )). Sia Q = diag(1 , . . . , n ) ∈ Mn (C) con i ∈ {±1}. Allora Q2 = I, cioè Q = Q−1 e Q = Q. L’applicazione X 7→ −Q−1 (t X)Q è C-lineare, e quindi τ : sl(n) −→ sl(n), X 7−→ −Q−1 (t X)Q è C-antilineare, e in più è un’involuzione: τ (τ (X)) = Q−1t Q−1 (t X Q = Q−1 t QXQ−1 Q = X. I punti fissi di τ sono su(Q) := sl(n)τ = {X ∈ sl(n) : QX + t XQ = 0 } che è l’algebra di Lie del gruppo unitario SU (Q) definito da SU (Q) = {A ∈ GL(n, C) : t AQA = Q, }. Se Q = Ip,q , la matrice con 1 = . . . = p = 1, p+1 = . . . = n = −1, quindi In = I, il gruppo unitario si scrive SU (p, q) (oppure SU (n) se q = 0) e l’algebra di Lie si scrive su(p, q) oppure su(n). Si può anche mostrare in modo diretto che su(n) è una forma reale di sl(n), poiché X ∈ su(n) se e solo se X = −X e tr(X) = 0, in particolare X è una matrice antihermitiana, e ogni Y ∈ sl(n) si scrive come Y + tY , con Y − t Y , −i(Y + t Y ) ∈ su(n). Y = 21 Y − t Y + i −i 2 Il risultato fondamentale è che ogni forma reale di sl(n) è isomorfa a sl(n)R , su(n) oppure su(p, q) con 1 ≤ p ≤ q ≤ n, p + q = n. 7.4.4 La forma compatta. Il gruppo di Lie SU (n) è compatto. La sua algebra di Lie su(n) è una forma reale di sl(n). L’algebra di Cartan h di sl(n) da una sottoalgebra h ∩ su(n) di su(n): P h ∩ su(n) = {diag(t1 , . . . , tn ) : P ti = 0} ∩ {X : t X = −X } = {diag(is1 , . . . , isn ) : si = 0, sj ∈ R }. Gli autovalori di ad(H) per H ∈ h ∩ su(n) nella rappresentazione aggiunta sono isa − isb = i(sa − sb ), in particolare, sono puramente immaginari. Poiché exp(H) = diag(et1 , . . . , etn ), e ex+iy = ex (cos x + isen y), si ha che exp(h ∩ su(n)) è un sottogruppo compatto. In generale, sia g0 una forma reale di un’algebra di Lie complessa semplice g. Allora g0 è l’algebra di Lie di un gruppo di Lie reale compatto se e solo se ogni radice di g ha valori puramente immaginari su h ∩ g0 , dove h è un’algebra di Cartan di g (vedi [FH], Proposition 26.4) 8 RAPPRESENTAZIONI DI ALGEBRE DI LIE SEMPLICI 8 146 Rappresentazioni di algebre di Lie semplici Testi consigliati: [FH], [Ha], [Hu]. 8.1 Pesi: integralità e simmetria 8.1.1 I pesi di una rappresentazione. Sia g un’algebra di Lie semplice e sia ρ : g −→ End(V ) una rappresentazione di g su uno spazio vettoriale complesso V di dimensione finita. Sia h ⊂ g un’algebra di Cartan. In 7.1.3 abbiamo visto che V si decompone in spazi pesi (autospazi per h): V = ⊕λ V λ , ρ(H)v = λ(H)v (∀H ∈ h, v ∈ Vλ ) dove λ : h → C è un’applicazione lineare. L’insieme delle λ ∈ h∗ per i quali Vλ 6= 0 è detto l’insieme dei pesi di ρ. In particolare, i pesi della rappresentazione aggiunta di g sono le radici e λ = 0 (vedi 7.1.5). 8.1.2 Esempio. Sia V = Cn , la rappresentazione standard di g = sl(n). Poiché H = diag(t1 , . . . , tn ) ∈ h è già diagonale sulla base standard ei di V , si ha: V = Cn = ⊕Li VLi , VLi = Cei , perché Hei = ti ei = Li (H)ei . 8.1.3 Integralità dei pesi. L’algebra di Cartan h è generata su C dagli Hα dove α è una radice di g. Dato un Hα , ci sono X±α ∈ g± tali che < Hα , Xα , X−α > è una sottoalgebra di Lie di g che è isomorfa a sl(2) e tale che [Hα , X±α ] = ±2X±α (vedi 7.1.11). In particolare, la restrizione della rappresentazione ρ a questa sl(2) è una rappresentazione di sl(2) e quindi gli autovalori di Hα su V sono interi. Perciò, per ogni peso λ di una rappresentazione di g e per ogni α ∈ R si ha: λ(Hα ) ∈ Z Questo è equivalente a, come già visto, < λ, α >∈ Z: < λ, α >:= 2 2 (λ, α) = B(Tλ , Tα ) = B(Tλ , Hα ) = λ(Hα ) ∈ Z, (α, α) (α, α) vedi 7.1.10 per la definizione di Tλ , 7.1.11 per la definizione di Hα e 7.1.12 per la definizione di (·, ·). 8.1.4 Il reticolo dei pesi ΛW . Quindi un peso di una rappresentazione di g è contenuto nell’insieme: ΛW := {λ ∈ h∗R : < λ, α >∈ Z ∀α ∈ R }. 8 RAPPRESENTAZIONI DI ALGEBRE DI LIE SEMPLICI 147 ` Scelta una decomposizione R = R+ R− , sia ∆ = {α1 , . . . , αn } ⊂ R+ l’insieme delle radici semplici. I pesi fondamentali di g (rispetto a ∆) sono gli elementi λi ∈ h∗R definiti da < λi , αi >= 1, < λi , αj >= 0 (i 6= j). Allora si ha: ΛW = Zλ1 ⊕ Zλ2 ⊕ . . . ⊕ Zλn . Infatti, per λ ∈ ΛW sia mi =< λ, αi >. Allora mi ∈ Z e X X <λ− mi λi , αj >=< λ, αj > − < mi λi , αj >= mj − mj = 0 i (∀ αj ). i ∗ ∗ Dal P fatto che (·, ·) è un prodotto scalare su hR e gli αi sono una base di hR , segue che λ − i mi λi = 0, cioè: X λ= mi λi , dove mi =< λ, αi >∈ Z i che mostra ‘⊂’. Per ‘⊃’, si noti che < λ, α > è lineare in λ, quindi basta verificare che < λi , α >∈ Z per i = 1, . . . , n. Si ricordi da 7.3.7 che α̌ = (2/(α, α))α ∈ Ř è una radice del sistema di radici duali. Visto che < λi , α >= (λ, α̌) dobbiamo quindi mostrare che (λi , α̌) ∈ Z per ogni α̌ ∈ Ř. Gli α̌i sono un base di radici semplici di Ř e quindi ogni α̌ è una combinazione con coefficienti interi di questi α̌i . Poiché (λi , α̌) è lineare in α̌ basta allora verificare che (λi , α̌j ) ∈ Z per ogni i, j. Ma (λi , α̌j ) =< λi , αj >= δij , per definizione di λi , e abbiamo mostrato ‘⊃’. L’insieme ΛW è un sottogruppo abeliano di rango n di h∗R e genera questo spazio. Si chiama il reticolo dei pesi (weight lattice) di g. 8.1.5 Il reticolo delle radici. Il reticolo delle radici è il gruppo: ΛR := Zα1 + . . . + Zαn . Poiché ogni radice è una combinazione lineare con coefficienti interi delle radici semplici α1 , . . . , αn , R ⊂ ΛR . Inoltre, dato che nβα = 2(β, α)/(α, α) =< α, β >∈ Z ogni radice è un peso e quindi ΛR ⊂ ΛW . Il gruppo quoziente ΛW /ΛR risulta essere un gruppo finito e ha (più precisamente, il suo ‘duale’) un’interpretazione in termine di gruppi di Lie complessi con algebra di Lie g, vedi [FH] p.372-374. 8.1.6 Radici e pesi. Nel capitolo 7 abbiamo introdotto e studiato la decomposizione dell’algebra di Lie in spazi peso per la rappresentazione aggiunta: g = h ⊕ (⊕α∈R gα ). L’azione di un ρ(Xα ), con Xα ∈ gα , manda Vλ in Vλ+α , ρ(Xα ) : Vλ −→ Vλ+α (Xα ∈ gα ) 8 RAPPRESENTAZIONI DI ALGEBRE DI LIE SEMPLICI 148 perché, per v ∈ Vλ : ρ(H)(ρ(Xα )v) = = = = (ρ([H, Xα ]) + ρ(Xα )ρ(H))v (ρ(α(H)Xα ) + ρ(Xα )ρ(H))v (α(H) + λ(H))(ρ(Xα )v) (λ + α)(H)(ρ(Xα )v). 8.1.7 Il gruppo di Weyl e i pesi. Mostriamo che per α ∈ R e λ un peso di V , anche sα (λ) è un peso di V , cioè l’insieme dei pesi di una rappresentazione è invariante per l’azione del gruppo di Weyl su h∗R . In più dim Vλ = dim Vsα (λ) , cioè, i pesi nella stessa orbita del gruppo di Weyl hanno la stessa molteplicità. La dimostrazione è analoga a quella di 7.1.14. Anzitutto si ha: sα (λ) = λ− < λ, α > α = λ − λ(Hα )α. Se Vλ 6= 0, allora Vλ è uno spazio peso per sl(2) con peso k := λ(Hα ) e molteplicità dim Vλ . Sia < Hα , Xα , X−α > la copia di sl(2) ⊂ g associata a α. Il sottospazio V[λ] := ⊕n∈Z Vλ+nα (⊂ V = ⊕λ Vλ ) è allora invariante per ρ(sl(2)), quindi è una rappresentazione di sl(2). Si noti che Vλ+nα è uno spazio peso per Hα ∈ sl(2) con peso (λ + nα)(Hα ) = λ(Hα ) + 2n perché α(Hα ) = 2. Dalla teoria delle rappresentazioni di sl(2) segue che se k è un peso di una rappresentazione di sl(2), allora anche −k è un peso con la stessa molteplicità e che ρ(X±α )k : V[β],k → V[β],−k è un isomorfismo (con segno − se k > 0). Poiché −k = −λ(Hα ) = λ(Hα ) − 2λ(Hα ) = (λ − λ(Hα )α)(Hα ) il sottospazio di V[λ] con peso −λ(Hα ) per sl(2) è Vλ−λ(Hα )α = Vsα (λ) . 8.2 Il peso massimale di una rappresentazione irriducibile 8.2.1 La camera di Weyl. Poiché il gruppo di Weyl W permuta i pesi di ogni rappresentazione di g, è interessante avere un modo di determinare un unico elemento (almeno, quasi sempre) in ogni orbita di W . Sia ∆ = {α1 , . . . , αn } ⊂ R l’insieme delle radici semplici (per una scelta di mappa regolare l). La camera di Weyl fondamentale (chiusa) è il sottoinsieme di h∗R dato da: C = C(∆) = {x ∈ h∗R : (x, α) ≥ 0 ∀α ∈ ∆ }. Allora si può mostrare che per ogni x ∈ h∗R esiste un w ∈ W tale che w(x) ∈ C. Questo w è unico tranne se (w(x), α) = 0 per un α ∈ ∆, nel qual caso anche (sα w)(x) = w(x) ∈ C quindi w non è unico (vedi [FH], Lemma D.31). L’insieme α⊥ delle x ∈ C con (x, α) = 0 per un α ∈ ∆ è detto una parete della camera di Weyl. 8 RAPPRESENTAZIONI DI ALGEBRE DI LIE SEMPLICI 149 8.2.2 I pesi dominanti. Un peso λ ∈ ΛW è detto dominante se λ ∈ ΛW ∩ C. L’insieme dei pesi dominanti è indicato con nX o + ΛW := ΛW ∩ C = mi λi : mi ∈ Z≥0 , l’ultima ugualianza segue dal fatto che < P mi λi , αj >= mj . 8.2.3 Vettori massimali e pesi massimali. Sia ρ : g → End(V ) una rappresentazione di g. Un peso λ di ρ è detto massimale se esiste v ∈ Vλ , v 6= 0, tale che ρ(Xα )v = 0 per ogni α ∈ R+ . Il vettore v ∈ Vλ è detto vettore massimale di ρ. Ciò generalizza il concetto di vettore massimale per una rappresentazione di sl(2), vedi 5.5.5. Nel caso g = sl(2) i pesi massimali (in quel caso, interi n ∈ Z≥0 ) classificano le rappresentazioni irriducibili di g (vedi 5.5.10). Ogni α ∈ R+ è una combinazione, con coefficienti interi non-negativi, di radici semplici. Poiché gα+β = [gα , gβ ] se α + β è una radice, si può mostrare che Xα è un prodotto (per il prodotto di Lie in g) delle Xαi . Quindi ρ(Xα ) è un prodotto delle ρ(Xαi ). Perciò un vettore v ∈ Vλ è massimale se e solo se ρ(Xαi )v = 0 per ogni radice semplice αi . Se λ è un peso tale che Vλ+αi = 0 per ogni radice semplice, allora, poiché ρ(Xα )(Vλ ) ⊂ Vλ+α , ogni v ∈ Vλ , v 6= 0, è un vettore massimale di ρ. 8.2.4 Pesi massimali sono dominanti. Mostriamo che un peso massimale è un peso dominante. Sia λ un peso massimale, e sia v ∈ Vλ un vettore massimale. Se hHα , X±α i ⊂ g è la copia di sl(2) definita da α ∈ R+ , allora il vettore massimale v è un vettore massimale per questa sl(2). Perciò ρ(Hα )v = λ(Hα )v con λ(Hα ) ≥ 0. Per ogni radice semplice αi ∈ R+ si ha allora 0 ≤ λ(Hαi ) =< λ, αi >, quindi λ è dominante. 8.2.5 Esistenza di un vettore massimale. L’insieme dei pesi di una rappresentazione ρ di g è un insieme finito, quindi esiste un peso λ con l(λ) ≥ l(µ) per ogni peso µ di ρ. Poiché l è lineare e l(α) > 0 per ogni α ∈ R+ si ha l(λ + α) > l(λ) e quindi Vλ+α = 0 per ogni α ∈ R. Quindi λ è un peso massimale di ρ e ogni v ∈ Vλ , v 6= 0 è un vettore massimale di ρ. 8.2.6 La rappresentazione irriducibile generata da un vettore massimale. Sia v ∈ Vλ un vettore massimale. Sia W il sottospazio generato dalle immagini di v mediante successive applicazioni di elementi di gβ con β ∈ R− . Mostriamo che W è una sottorappresentazione di g. Sia R− = {β1 , . . . , βN }, Wn := h ρ(Xβi1 ) . . . ρ(Xβik )v : βij ∈ R− , 0 ≤ k ≤ n i, W = ∪∞ n=0 Wn . Poiché ρ : g → End(V ) è lineare, basta mostrare che ρ(X)x ∈ W per ogni x ∈ W e X = H, Xβ , Xα con H ∈ h, β ∈ R− e α ∈ R+ . Sia x = ρ(Xβi1 ) . . . ρ(Xβik )v ∈ Wn con k ≤ n. Allora ρ(H)x = µ(H)x con µ = λ + βi1 + . . . + βik (vedi 8.1.6), quindi ρ(H)x ∈ W e, in più, x ∈ Vµ . In particolare, ρ(h)Wn ⊂ Wn (∀n ∈ Z≥0 ), 8 RAPPRESENTAZIONI DI ALGEBRE DI LIE SEMPLICI 150 e segue che ρ(H)W ⊂ W per ogni H ∈ h. L’unico vettore (a meno di moltiplicazione per uno scalare) in W con peso λ è v: Wλ = Cv, e ogni altro peso di W si scrive come µ = λ + βi1 + . . . + βik con k ≥ 1 e βij ∈ R− . La definizione di Wn mostra che per x ∈ Wn e β ∈ R− si ha ρ(Xβ )x ∈ Wn+1 . Segue che ρ(Xβ )W ⊂ W per ogni β ∈ R− . In fine, mostriamo per induzione su n che ρ(Xα )Wn ⊂ Wn ∀Xα ∈ gα , ∀α ∈ R+ ; da ciò segue che ρ(Xα )W ⊂ W per ogni α ∈ R+ . Se n = 0, si ha W0 = Cv e ρ(Xα )v = 0 perché v è un vettore massimale. Se x ∈ Wn e n > 0, allora x = ρ(Xβ )y con y ∈ Wn−1 e β ∈ R− , quindi ρ(Xα )x = ρ(Xα )ρ(Xβ )y = ρ(Xβ )ρ(Xα )y + ρ([Xα , Xβ ])y. Si noti che Y := [Xα , Xβ ] ∈ gα+β . Se α + β 6∈ R ∪ {0}, gα+β = 0 e quindi Y = 0. Se α + β = 0, Y ∈ h e quindi ρ(Y )y ∈ Wn . Se α + β ∈ R− allora ρ(Y )y ∈ Wn perché y ∈ Wn−1 . Se α + β ∈ R+ si ha ρ(Y )y ∈ Wn−1 per l’ipotesi di induzione. Quindi in ogni caso si ha ρ([Xα , Xβ ])y ∈ Wn . Sempre per l’ipotesi di induzione, per y ∈ Wn−1 si ha ρ(Xα )y ∈ Wn−1 , e perciò ρ(Xβ )ρ(Xα )y ∈ Wn . Allora anche ρ(Xβ )ρ(Xα )y + ρ([Xα , Xβ ])y ∈ Wn e concludiamo che ρ(Xα )x ∈ Wn . 8.2.7 La rappresentazione W è irriducibile. Mostriamo che la rappresentazione W di g generata dal vettore massimale v è irriducibile. Sia W = W 0 ⊕ W 00 , dove W 0 , W 00 sono sottorappresentazioni. Decomponendo ciascuna in spazi peso, lo spazio peso Wλ = Cv, che ha dimensione uno, è contenuto in W 0 oppure W 00 . Poiché la rappresentazione di g generata da v è W si ha W 0 = W oppure W 00 = W , quindi W è irriducibile. 8.2.8 Il vettore massimale è unico. Mostriamo che v è l’unico vettore massimale (a meno di moltiplicazione per uno scalare) nella rappresentazione W . Sia v 0 ∈ W , v 0 (6= 0) un vettore massimale. Allora v 0 genera una sottorappresentazione W 0 ⊂ W . Dato che W è irriducibile e W 0 6= 0, si ha allora W 0 = W . Sia µ ∈ ΛW il peso di v 0 , allora µ = λ + βi1 + . . . + βik per certi βir ∈ R− . Sia l : h∗R → R una mappa regolare lineare tale che l(β) < 0 per ogni β ∈ R− , allora l(µ) ≤ l(λ) e si ha l(µ) = l(λ) se e solo se µ = λ. Ogni altro peso di W 0 si scrive come τ = µ + βj1 + . . . + βjl per certi βjs ∈ R− , in particolare l(τ ) ≤ l(µ). Dato che v ∈ W 0 e il peso di v è λ segue allora che l(λ) ≤ l(µ). Quindi l(µ) = l(λ) e perciò µ = λ. Dato che Wλ = Cv, segue v 0 ∈ Cv. In particolare, una rappresentazione irriducibile ha un unico vettore massimale, a meno di moltiplicazione per uno scalare. 8.2.9 Conclusione. Data una rappresentazione ρ : g → End(V ), il teorema di Weyl (vedi 5.4.6) afferma che V = V1 ⊕ V2 ⊕ . . . ⊕ Vk , dove ogni Vi è una rappresentazione irriducibile. I risultati appena ottenuti mostrano che ogni Vi ha un vettore massimale vi e che il vettore 8 RAPPRESENTAZIONI DI ALGEBRE DI LIE SEMPLICI 151 massimale vi genera una sottorappresentazione irriducibile di Vi , che è quindi Vi . In particolare, la dimensione dello spazio generato dai vettori massimali è k. Se la rappresentazione ρ è irriducibile, allora ha un unico vettore massimale (a meno di moltiplicazione per uno scalare). Il peso λ = λρ del vettore massimale è allora determinato in modo unico dalla rappresentazione. Questo peso λ è massimale (per definizione) e abbiamo mostrato che è quindi dominante (si veda 8.2.4). Mostriamo che il peso λ determina in modo unico (a meno di isomorfismi) la rappresentazione irriducibile W generata dal vettore massimale. Questa rappresentazione irriducibile verrà indicata con V (λ). Poi c’è da stabilire se un peso dominante λ determini una rappresentazione irriducibile il cui vettore massimale abbia peso λ (si vedano 8.2.12 e 8.2.13). 8.2.10 Unicità della rappresentazione irriducibile. Due rappresentazioni irriducibili ρV , ρW di g su spazi vettoriali V, W rispettivamente, con vettori massimali v ∈ V e w ∈ W e lo stesso peso λ ∈ Λ+ W sono isomorfe. Per vedere questo, si consideri la somma diretta V ⊕ W , che è una rappresentazione di g con ρ : g −→ End(V ⊕ W ), ρ(X)(x, y) := (ρV (X)x, ρW (X)y). Sia U ⊂ V ⊕ W la sottorappresentazione generata da (v, w). Allora U è irriducibile perché (v, w) è un vettore massimale in V ⊕ W . La proiezione πV : U −→ V, (x, y) 7−→ x, soddisfa πV ρ(X) = ρV (X)πV per ogni X ∈ g come si verifica facilmente. Quindi πV è un omomorfismo di rappresentazioni e perciò ker(πV ) e im(πV ) sono sottospazi invarianti (vedi 5.3.3). Poiché (v, w) ∈ U e πV (v, w) = v ∈ V , si ha ker(πV ) 6= U e im(πV ) 6= 0. Dato che U e V sono irriducibili, si ha allora ker(πV ) = 0 e im(πV ) = V , quindi πV è un isomorfismo. Similmente, usando πW , si trova che U∼ = W , quindi V ∼ = W. 8.2.11 Prodotti tensoriali e pesi. Il prodotto tensoriale di rappresentazioni ρV , ρW di un’algebra di Lie g è definito da ρV ⊗W (X)(v ⊗ w) = (ρ(X)v) ⊗ w + v ⊗ (ρW (X)w). In particolare, se X = H ∈ g e ρV (H)v = µ1 (H)v, ρW (H)w = µ2 (H)w =⇒ ρV ⊗W (H)(v ⊗ w) = (µ1 + µ2 )(H)(v ⊗ w). Quindi se Vµ1 e Wµ2 sono spazi peso di V e W , il loro prodotto tensoriale è contenuto in uno spazio peso di V ⊗ W : Vµ1 ⊗ Wµ2 ⊂ (V ⊗ W )µ1 +µ2 . In generale si ha Vµ1 ⊗ . . . ⊗ Vµk ⊂ Vµ1 +...+µk . 8.2.12 Le rappresentazioni irriducibili fondamentali. I pesi fondamentali λ1 , . . . , λn , definiti da < λi , αj >= δij (vedi 8.1.4), sono in particolare pesi dominanti (vedi 8.2.2). Un 8 RAPPRESENTAZIONI DI ALGEBRE DI LIE SEMPLICI 152 teorema fondamentale mostra che esistono rappresentazioni irriducibili V (λi ) di g con peso massimale λi , cioè ρi : g −→ End(V (λi )), ρi (H)vi = λi (H)vi , ρi (Xα )vi = 0, per ogni α ∈ R+ , dove vi ∈ V (λi ) è un vettore massimale (che è unico a meno di moltiplicazione per una costante). Queste rappresentazioni si chiamano rappresentazioni fondamentali di g. 8.2.13 La classificazione di rappresentazioni irriducibili. Ogni peso dominantePλ è una combinazione lineare con coefficienti interi non-negativi dei pesi fondamentali. Sia λ = i mi λi , mi ∈ Z≥0 . Consideriamo il prodotto tensoriale V := V (λ1 ) ⊗ . . . ⊗ V (λ1 ) ⊗ V (λ2 ) ⊗ . . . ⊗ V (λ2 ) ⊗ . . . ⊗ V (λn ) ⊗ . . . ⊗ V (λn ) . | {z } | {z } | {z } m1 m2 mn Sia vi ∈ V (λi ) un vettore massimale e sia v := v1 ⊗ . . . ⊗ v1 ⊗ v2 ⊗ . . . ⊗ v2 ⊗ . . . ⊗ vn ⊗ . . . ⊗ vn {z } | {z } | {z } | m1 m2 (∈ V ). mn Dato che vi ∈ V (λi ) è un vettore massimale, cioè ρi (Xα )vi = 0 per ogni αi ∈ R+ , si ha ρ(Xα )v = ρ1 (Xα )v1 ⊗ v1 . . . ⊗ vn + . . . + v1 ⊗ v1 . . . ⊗ ρn (Xα )vn = 0 + . . . + 0 = 0. Quindi v è un vettore massimale in V con peso (massimale e quindi dominante): ρ(H)v = (m1 λ1 + m2 λ2 + . . . + mn λn )(H)v = λ(H)v. Perciò v genera una rappresentazione irriducibile W ⊂ V con (unico) peso massimale λ (vedi 8.2.6). Questa rappresentazione W è l’unica rappresentazione irriducibile con peso massimale λ (vedi 8.2.10) ed è indicata con V (λ) := W . In questo modo si conclude la classificazione delle rappresentazioni irriducibili di un’algebra di Lie complessa semplice: esse corrispondono ai pesi dominanti. In particolare sono parametrizate da n-tuple di interi (m1 , . . . , mn ) dove n è il rango P dell’algebra di Lie, e ogni mi ∈ Z≥0 . La rappresentazione corrispondente è V (λ) con λ = mi λi . 8.2.14 Formula per la dimensione di V (λ). La dimensione della rappresentazione V (λ) corrispondente al peso dominante λ è ([FH], Cor. 24.6): Q X α∈R+ (λ + δ, α) α. dim V (λ) = Q , dove δ = 12 α∈R+ (δ, α) + α∈R Un esempio: se g = sl(3), si ha R+ = {L1 − L2 , L2 − L3 , L1 − L3 } e quindi Y δ = L1 − L3 , (δ, α) = 1 · 1 · 2 = 2. α∈R+ 8 RAPPRESENTAZIONI DI ALGEBRE DI LIE SEMPLICI 153 Se λ = m1 λ1 + m2 λ2 = a1 L1 + a2 L2 , con a1 = m1 + m2 , m2 = a2 , allora Y (λ + δ, α) = (m1 + 1)(m2 + 1)(m1 + m2 + 2) = (a1 − a2 + 1)(a2 + 1)(a1 + 2), α∈R+ quindi la dimensione di V (λ) è: dim V (m1 λ1 + m2 λ2 ) = (m1 + 1)(m2 + 1)(m1 + m2 + 2)/2 = (a1 − a2 + 1)(a2 + 1)(a1 + 2)/2. 8.3 Le rappresentazioni irriducibili di sl(n) 8.3.1 I pesi fondamentali di sl(n). Un insieme di radici semplici del sistema di radici R di sl(n), indicato con An−1 , è dato dalle αi = Li − Li+1 ∈ Rn /hL1 + . . . + Ln i, con 1 ≤ i ≤ n − 1. Si noti che, con λ1 = L1 , λ2 = L1 + L2 , . . . , λn−1 = L1 + L2 + . . . + Ln−1 = −Ln si ha < λi , αj >= δij , dove il prodotto scalare (·, ·) viene calcolato tramite l’isometria di h∗R con E in 7.1.15. In particolare, (α, α) = 2 per ogni radice α e perciò < λ, α >= (λ, α). Quindi questi λi sono i pesi fondamentali. I pesi dominanti di sl(n) sono allora Pn−1 Λ+ W = { i=1 mi λi : mi ∈ Z≥0 } = {(m1 + . . . + mn−1 )L1 + (m2 + . . . + mn−1 )L2 + . . . + mn−1 Ln−1 : mi ∈ Z≥0 } P cioè un peso n−1 i=0 ai Li è dominante se a1 ≥ a2 . . . ≥ an−1 (e poi an−1 = mn−1 , an−2 − an−1 = mn−2 ecc.). Nella rappresentazione standard Cn di sl(n), l’algebra di Cartan è data dalle H = P diag(t1 , . . . , tn ) con ti = 0 e Li (H) = ti . In particolare si ha la decomposizione in spazi peso: Cn = ⊕ni=1 Cei , Hei = Li (H)ei (1 ≤ i ≤ n) e ei è l’i-esimo vettore della base standard di Cn . L’unico peso dominante in {L1 , . . . , Ln } è L1 = λ1 quindi si ha: V (λ1 ) = Cn . Si noti anche che Xα , per α ∈ R+ , è una matrice triangolare superiore con zeri sulla diagonale, quindi Xα e1 = 0, che verifica che e1 ∈ (Cn )λ1 è un vettore massimale. La rappresentazione di sl(n) su ∧k Cn (⊂ (Cn )⊗k ), per k < n, ha la seguente decomposizione in spazi peso: ∧k Cn = ⊕(∧k Cn )λ , λ = Li1 + Li2 + . . . + Lik , Vλ = C ei1 ∧ ei2 ∧ . . . ∧ eik , dove i1 < . . . < ik . L’unico peso dominante tra le Li1 + Li2 + . . . + Lik , con indici distinti, è L1 +L2 +. . .+Lk = λk (bisogna ricordare Ln = −(L1 +. . .+Ln−1 )). Quindi la rappresentazione 8 RAPPRESENTAZIONI DI ALGEBRE DI LIE SEMPLICI 154 è irriducibile perché ogni sottorappresentazione non banale avrebbe un peso dominante. Perciò abbiamo trovato le rappresentazioni irriducibili fondamentali, esse sono i V (λk ) = ∧k Cn . Il prodotto wedge ∧k Cn × ∧n−k Cn −→ ∧n Cn ∼ = C, (ω, θ) 7−→ ω ∧ θ = cω,θ e1 ∧ . . . ∧ en dà una dualità ∧k Cn ∼ = (∧n−k Cn )∗ . Quindi le rappresentazioni V (λk ) e V (λn−k ) di sl(n) sono rappresentazioni duali: V (λk ) ∼ = (V (λn−k ))∗ . 8.3.2 Rappresentazioni di sl(n) e funtori di Schur. La rappresentazione Vλ , con λ = P mi λi , è una sottorappresentazione di un prodotto tensoriale: V (λ) ,→ ⊗k (∧k V )⊗mk ⊂ V ⊗ Pn−1 k=1 kmk , V = Cn . La decomposizione del prodotto tensoriale V ⊗m in rappresentazioni irriducibili di GL(V ) è data nel Teorema 3.2.6. Mostriamo che la restrizione a SL(V ) di una rappresentazione irriducibile ρ di GL(V ) su uno spaziop vettoriale W rimane irriducibile. Ogni A ∈ GL(V ) n si scrive come A = (tI)B con t = ( det(A))−1 , n = dim V , e B ∈ SL(V ). Poiché tI commuta con tutti gli elementi di GL(V ), anche ρ(tI) commuta con tutto ρ(GL(V )), e quindi, per il Lemma di Schur 2.1.7, ρ(tI) = sIW per un s = s(t) ∈ C. Se W = W1 ⊕ W2 è una decomposizione di W in sottospazi invarianti per ρ(SL(V )), allora, poiché sIW (Wi ) ⊂ Wi , questi sottospazi sono invarianti anche per ρ(GL(V )), quindi uno dei due è {0} e l’altro W . Segue che ρ : SL(V ) → GL(W ) è irriducibile. In particolare, nella decomposizione del Teorema 3.2.6: X T m V = ⊕p (Sp V )mp , con p = (p1 , . . . , pr ), pi ≥ pi−1 > 0, pi = m i in rappresentazioni irriducibili per GL(V ), parametrizzate dalle partizioni p di m, ogni Sp V è una rappresentazione irriducibile di SL(V ) = SL(n, C) e quindi di sl(n). Il peso dominante che corrisponde alla rappresentazione irriducibile di Sp V è: Sp V ∼ = V (p1 L1 + p2 L2 + . . . + pr Lr ). Poiché L1 + . . . + Ln−1 + Ln = 0, le rappresentazioni definite da p = (p1 , . . . , pr ) e pa = (p1 + a, . . . , pr + a, a, . . . , a), partizioni di m e m + na rispettivamente, sono isomorfe. Per mostrare che Sp V ∼ = V (p1 L1 + p2 L2 + . . . + pr Lr ), basta trovare un peso massimale in Sp V , che è unico perché Sp V è irriducibile, e verificare che è uguale a p1 L1 + p2 L2 + . . . + pr Lr . Si ricordi che Sp V = ap bp T m V e bp V ⊗m ⊂ (∧µ1 V ) ⊗ . . . ⊗ (∧µs V ), 8 RAPPRESENTAZIONI DI ALGEBRE DI LIE SEMPLICI 155 dove µi è il numero dei quadrati nella i-esima colonna del diagramma di Young di p (vedi 3.2.11). In particolare, s = p1 , il numero delle colonne è uguale al numero dei quadrati nella prima riga. Un vettore massimale del lato a destra è v = (e1 ∧ e2 ∧ . . . ∧ eµ1 ) ⊗ . . . ⊗ (e1 ∧ e2 ∧ . . . ∧ eµs ), Hv = (p1 L1 + . . . + pr Lr )(H)v, perché Hei = Li (H)ei e e1 compare s = p1 volte in v e ha peso L1 , poi ci sono p2 colonne con almeno due quadrati e perciò e2 compare p2 volte, ecc. Il vettore v è massimale perché un Xα , per α ∈ R+ è dato da un Ei,j , con i < j, che manda ej 7→ ei e ek 7→ 0 se k 6= j, quindi v 7→ 0. Applicando ap a v otteniamo un vettore di Sp V e poiché ap v è una simmetrizzazione parziale di v il peso di ap v ∈ Sp V è uguale al peso di v. Da ciò segue l’isomorfismo Sp V ∼ = V (p1 L1 + p2 L2 + . . . + pr Lr ). Nel caso n = 3 verifichiamo esplicitamente che la dimensione di S(a1 ,a2 ) V , calcolato usando 3.2.10 è uguale alla dimensione di V (a1 L1 + a2 L2 ), calcolata con 8.2.14. Il diagramma di Young della partizione m = a1 + a2 è: ... ... a1 +1 a1 a2 a2 −1 ... a1 −a2 a1 −a2 +2 ... ... 2 1 , 1 dove abbiamo indicato gli hooklength hij nei quadrati. Allora si ha, per n = 3, ! a ! a1 2 Yn−i+j Y Y a1 − a2 + 1 dim S(a1 ,a2 ) V = = (2 + j) (1 + j) hij (a1 + 1)! a2 ! i,j j=1 j=1 quindi dim S(a1 ,a2 ) V = (a1 + 2)(a2 + 1)(a1 − a2 + 1)/2 che è proprio la formula di 8.2.14 per dim V (a1 L1 + a2 L2 ). 8.3.3 Il prodotto simmetrico della rappresentazione standard. Mostriamo che la rappresentazione V (kλ1 ) (per k ≥ 0) di sl(n) è la rappresentazione S k V (λ1 ), il k-esimo prodotto simmetrico della rappresentazione standard V = V (λ1 ). In più determiniamo gli spazi peso e mostriamo che ogni spazio peso ha dimensione 1. Consideriamo (si veda anche 5.3.4 per il caso n = 2) la rappresentazione del gruppo di Lie SL(n, R) su C ∞ (Rn ) definita da: r : SL(n, R) −→ Aut(C ∞ (Rn )), (r (A) F )(v) := F (t Av) (v ∈ Rn ). Sia ρ := (dr)I : sl(n, R) → End(C ∞ (Rn )) la rappresentazione dell’algebra di Lie associata. Si mostra facilmente che, per i 6= j, ρ(Ei,j ) = xi ∂ , ∂xj ρ(t1 E1,1 + . . . + tn En,n ) = t1 x1 ∂ ∂ + . . . + tn xn . ∂x1 ∂xn Sia C[x1 , . . . , xn ]m lo spazio vettoriale dei polinomi omogenei di grado m. Una base di C[x1 , . . . , xn ]m è data dai monomi xa11 xa22 . . . xann , a1 + a2 + . . . + an = m. 8 RAPPRESENTAZIONI DI ALGEBRE DI LIE SEMPLICI 156 E’ facile verificare che C[x1 , . . . , xn ]m è un sottospazio sl(n, R)-invariante che è anche sl(n) = sl(n, R) ⊗R C invariante. La complessificazione di ρ dà allora le rappresentazioni ρm : sl(n) −→ End(C[x1 , . . . , xn ]m ). Un vettore massimale di ρm è un F ∈ C[x1 , . . . , xn ]m tale che ρm (Xα )F = 0 per ogni α ∈ R+ . Allora α = Li − Lj con i < j, ρm (Xα ) = xi ∂/∂xj e F soddisfa: xi ∂F = 0 ∂xj 1 ≤ i < j ≤ n. In particolare, ∂F/∂xj = 0 per j = 2, . . . , n quindi F = cxm 1 per uno scalare c ∈ C. Quindi ρm ha un unico vettore massimale (a meno di moltiplicazione per uno scalare) e perciò ρm è irriducibile. Il peso del vettore massimale è: ρm (H)(xm 1 ) = (t1 x1 ∂ ∂ m + . . . + tn xn )(xm ) = mt1 xm 1 = mL1 (H) x1 , ∂x1 ∂xn 1 quindi il peso massimale è mL1 . Dato che λ1 = L1 , questo mostra che V (mλ1 ) ∼ = C[x1 , . . . , xn ]m = S m V, detto l’m-esimo prodotto simmetrico della rappresentazione standard V . Si verifica che ogni monomio è un vettore peso: ρm (H)(xa11 xa22 . . . xann ) = (a1 L1 + a2 L2 + . . . + an Ln )(H)xa11 xa22 . . . xann . P I pesi sono quindi della forma a1 L1 + a2 L2 + . . . + an Ln con ai ≥ 0 e ai = m. Questi pesi sono distinti tra di loro, perciò ogni spazio peso ha dimensione uno cioè ogni peso ha moltiplicità uno. 9 GRUPPI ORTOGONALI 9 157 Gruppi ortogonali Testi consigliati: [FH]. 9.1 Forme bilineari simmetriche e forme quadratiche 9.1.1 Forme bilineari simmetriche. Sia V uno spazio vettoriale su un campo K (K = R oppure C) di dimensione n. Sia B : V × V −→ K una forma bilineare simmetrica. Sia ei una base di V , allora B è definita da una matrice simmetrica A := (B(ei , ej ))1≤i,j≤n = t A, B(x, y) = t xAy. Per S ∈ GL(n, K) si ha allora B(Sx, Sy) = t x(t SAS)y. Due matrici simmetriche A, A0 sono dette congruenti se A = t SAS per un S ∈ GL(n, K). Una forma bilineare simmetrica ψ definisce quindi una classe di congruenza di matrici simmetriche. Data una matrice simmetrica A, esiste una matrice S ∈ GL(n, K) tale che t SAS = diag(1, . . . , 1, −1, . . . , −1, 0, . . . , 0), | {z } | {z } | {z } p q p + q + r = n = dim V. r (si veda [A], 7.2, Teorema 2.9). Nel caso K = C si può sempre trovare una S tale che q = 0 (se B(x, x) = −1 allora B(ix, ix) = i2 B(x, x) = +1). 9.1.2 Legge di Sylvester. ([A], Capitolo 7, Teorema 2.11) I numeri p, q, r che compaiono nella matrice diagonale qui sopra sono determinati univocamente dalla classe di congruenza di A, cioè dalla forma bilineare B. 9.1.3 Forme bilineari simmetriche nondegeneri. Una forma bilineare B è detta nondegenere se per ogni v ∈ V , v 6= 0, esiste un w ∈ V tale che B(v, w) 6= 0. Equivalentemente, se A è una matrice simmetrica che definisce B, allora det A 6= 0, oppure nella forma standard di A qui sopra si ha r = 0. Una forma bilineare simmetrica nondegenere è quindi determinata, a meno di isomorfismi di V , da due interi non-negativi p, q con p + q = n e la matrice simmetrica in forma standard corrispondente è indicata con: Ip,q := diag(1, . . . , 1, −1, . . . , −1), | {z } | {z } p p + q = n. q 9.1.4 Forme quadratiche. Una forma quadratica Q su V è un’applicazione Q : V −→ K, tale che Q(x) = B(x, x) 9 GRUPPI ORTOGONALI 158 per una certa forma bilineare simmetrica B. Si noti che, rispetto ad una base dove B è data dalla matrice simmetrica A, si ha: Q(x + y) = t (x + y)A(x + y) = t xAx + t xAy + t yAx + t yAy = Q(x) + Q(y) + 2B(x, y), dove t xAy = B(x, y) = B(y, x) = t yAx, quindi Q determina B in modo unico: B(x, y) = (Q(x + y) − Q(x) − Q(y))/2. (Equivalentemente, si definisce una forma quadratica richiedendo che (x, y) 7→ Q(x + y) − Q(x) − Q(y) sia un’applicazione bilineare). Si dice che Q è nondegenere se B lo è. Siano K = R e Q nondegenere. Allora esiste una base di V e ci sono p, q con p + q = n tali che Q(x) = t xIp,q x = x21 + . . . + x2p − (x2p+1 + . . . + x2n ). Nel caso K = C e Q nondegenere, esiste una base tale che Q(x) = t xIn,0 x = x21 + . . . + x2n . In questo caso conviene spesso scegliere un’altra base di V . Nel caso n = 2m quella per cui le coordinate sono: m m X X 2 2 yj = xj + ixm+j , yj+m = xj − ixm+j , quindi Q(x) = (xj + xj+m ) = yj yj+m , j=1 j=1 Pm 2 . nel caso n = 2m + 1 dispari, si prende y2m+1 = x2m+1 quindi Q(x) = ( j=1 yj yj+m ) + y2m+1 Il gruppo ortogonale O(Q) di una forma quadratica è il sottogruppo di GL(V ) definito da O(Q) = {S ∈ GL(V ) : Q(Sx) = Q(x) } = {S ∈ GL(V ) : B(Sx, Sy) = B(x, y) ∀x, y ∈ V }, l’ultima ugualianza segue da 2B(x, y) = Q(x + y) − Q(x) − Q(y). Nel caso K = R i gruppi ortogonali sono indicati con O(p, q) := O(Ip,q ), O(n, R) := O(In,0 ) dove si scrive il campo R in modo esplicito per non confondersi con O(n) = O(In ) = O(n, C) per il gruppo ortogonale complesso. Visto che il gruppo ortogonale O(p, q) è isomorfo a O(q, p) (basta moltiplicare la matrice Ip,q con −1 e permutare i vettori di base), consideriamo soltanto il caso p ≥ q nella sezione seguente. 9.1.5 Componenti connesse dei gruppi ortogonali. I gruppi ortogonali O(n, R) e O(n) hanno due componenti connesse, la componente connessa contenente l’identità I è SO(n, R) rispettivamente SO(n). I gruppi O(p, q) con pq 6= 0 hanno quattro compomenti connesse. Mostriamo che O(p, q) ha almeno 4 componenti connesse. Scriviamo una matrice M ∈ O(p, q) nel modo seguente A B M= , A ∈ Mp (R), B ∈ Mp,q (R), C ∈ Mq,p (R), D ∈ Mq (R). C D 9 GRUPPI ORTOGONALI 159 Allora A è invertibile: se Ax = 0 per x ∈ Rp allora A B x 0 = , y = Cx ∈ Rq , C D 0 y P 2 P e quindi Qp,q ((x, 0)) = xi ≥ 0 e Qp,q (M (x, 0)) = Q((0, y)) = − yj2 ≤ 0. Poiché M ∈ O(p, q) si ha x = y = 0 e quindi A è invertibile. In particolare, l’applicazione δ : O(p, q) −→ R − {0}, M 7−→ det(A) è ben definita e continua. Adesso consideriamo l’applicazione continua: (det, δ) : O(p, q) −→ (R − {0})2 , M 7−→ (det(M ), δ(M )). Sia M la matrice diagonale con M11 = b, Mnn = ab e Mii = 1 per i 6= 1, n. Allora per a, b ∈ {±1} si ha M ∈ O(p, q) e (det(M ), δ(M )) = (ab2 , b) = (a, b). Poiché (R − {0})2 ha quattro componenti connesse, concludiamo che anche O(p, q) ha almeno quattro componenti connesse. 9.2 Esempi di gruppi ortogonali 9.2.1 Il gruppo ortogonale O(2, R). Il gruppo O(2, R) è il ortogonali di GL(2, R). Si ha A ∈ O(2, R) ⇔ t AA = I che dà coefficienti di A: 2 a c a b a + c2 ab + cd = = b d c d ab + cd b2 + d2 sottogruppo delle matrici le condizioni seguenti sui 1 0 0 1 . Poiché ab + cd = 0 e (a, c), (b, d) 6= (0, 0) esiste un λ ∈ R, λ 6= 0, tale che (b, d) = (−λc, λa). L’equazione 1 = b2 + d2 = λ2 (a2 + c2 ) = λ2 mostra che λ = ±1. Nel caso λ = 1, si ha (b, d) = (−c, a). Poiché a2 + c2 = 1, il punto (a, c) ∈ R2 sta sulla circonferenza con raggio 1 e quindi esiste un φ ∈ R tale che a = d = cos φ, c = −b = sen φ e quindi cos φ −sen φ Aφ = , Aφ Aψ = Aφ+ψ sen φ cos φ che è la matrice di una rotazione per φ con centro (0, 0). Si noti che det A = 1. Per verificare che Aφ Aψ = Aφ+ψ , cioè che φ 7→ Aφ è un omomorfismo di gruppi di Lie R → SO(2, R), si usano le ben note formule che seguono da eiφ eiψ = ei(φ+ψ) , cioè (cos φ + isen φ)(cos ψ + isen ψ) = cos(φ + ψ) + isen (φ + ψ). Si noti che Aφ = exp(φX) dove X è un generatore di Lie(SO(2, R)), si veda 5.2.8. Nel caso λ = −1 si ha (b, d) = (c, −a) e det A = a(−a) − b2 = −(a2 + b2 ) = −1. Segue che O(2, R) ha due componenti connesse, ciascuna omeomorfa alla circonferenza S 1 . Come 9 GRUPPI ORTOGONALI 160 prima, si ha (a, c) = (cos φ, sen φ). Sia ψ = φ/2, allora (si usi per esempio (eiψ )2 = e2iψ cioè (cos ψ + isen ψ)2 = cos 2ψ + isen 2ψ): a = −d = cos φ = cos 2ψ = cos2 ψ − sen 2 ψ, b = c = sen φ = sen 2ψ = 2 cos ψsen ψ. Si verifica che A è la matrice della riflessione rispetto all’iperpiano v ⊥ definito da v = (−sen ψ, cos ψ), cioè Ax = x − 2(x, v)v. Il prodotto di due riflessioni è in SO(2, R) e quindi è una rotazione. Ogni rotazione è il prodotto di due riflessioni, per esempio, A, B qui sotto sono riflessioni e cos φ sen φ 1 0 cos φ −sen φ A= , B= , AB = sen φ − cos φ 0 −1 sen φ cos φ è la rotazione per φ. 9.2.2 Il gruppo di Lorentz O(1, 1). Il gruppo O(1, 1) è il sottogruppo delle matrici di GL(2, R) che soddisfano t AI1,1 A = I1,1 , cioè: 2 a c 1 0 a b a − c2 ab − cd 1 0 = = . ab − cd b2 − d2 0 −1 b d 0 −1 c d Poiché ab − cd = 0 esiste un λ ∈ R tale che (b, d) = (λc, λa), L’equazione 1 = b2 − d2 = λ2 (a2 − c2 ) = λ2 mostra che λ = ±1. Per parametrizzare le soluzioni dell’equazione a2 − c2 = 1, poniamo u = a + c. Poiché (a + c)(a − c) = 1, si ha u−1 = a − c, in particolare u 6= 0, cioè u ∈ R>0 oppure u ∈ R<0 . Dunque a = (u + u−1 )/2, c = (u − u−1 )/2, con u = a + c, u−1 = a − c. Si noti che O(1, 1) ha quattro componenti connesse, in corrispondenza con il segno di λ e di u = a + b, ciascuno di queste componenti è omeomorfa con R>0 . Poiché det A = ad − bc = a(λa) − (λc)c = λ(a2 − c2 ) = λ, la componente connessa di O(1, 1) che contiene l’identità I è: a b (u + u−1 )/2 (u − u−1 )/2 o SO(1, 1) = = : u ∈ R>0 . c d (u − u−1 )/2 (u + u−1 )/2 Ci sono altre due parametrizzazioni di SO(1, 1)o che sono ben note. Una viene dalla teoria della relatività speciale. Poiché u ∈ R>0 , l’applicazione u 7→ u2 è una biiezione. Si definisce √ 1+v 1+v 1+v u2 − 1 2 , con inversa: u = , u= √ =√ . v= 2 u +1 1−v 1−v 1 − v2 Quindi i coefficienti delle matrici sono √ √ 1+v 1 1−v 1 −1 a = (u + u )/2 = ( √ + √ )= √ , 1−v 2 1+v 1 − v2 b = (u − u−1 )/2 = √ v . 1 − v2 9 GRUPPI ORTOGONALI 161 Gli elementi di O(1, 1)o sono quindi le ben note trasformazioni di Lorentz (con velocità della luce c = 1, quindi v = v/c = β): ! Av := e √ 1 1−v 2 √ v 1−v 2 √ v 1−v 2 √ 1 1−v 2 , si verifica Av Aw = A v+w , 1+vw v+w 1+vw è la somma ‘relativistica’ delle velocità. Un’altra parametrizzazione è data dalla mappa esponenziale (si veda 5.2.7 exp : T0 SO(1, 1)o = R → SO(1, 1)o . Poiché SO(1, 1)o è uno dimensionale e u 7→ γ(u), con γ(u) la matrice con a = (u + u−1 )/2 ecc., è un cammino con γ(1) = I, e X := γ 0 (1) è dato da d (u + u−1 )/2 (u − u−1 )/2 0 1 = , Lie(SO(1, 1)o ) = RX X= 1 0 du (u − u−1 )/2 (u + u−1 )/2 |u=1 Per calcolare exp(tX) si noti che X 2 = I e quindi ! ! t ∞ ∞ X X t2k t2k+1 (e + e−t )/2 (et − e−t )/2 exp(tX) = I+ X= . (et − e−t )/2 (et + e−t )/2 (2k)! (2k + 1)! k=0 k=0 Poiché exp(tX)exp(sX) = exp((s + t)X), otteniamo un isomorfismo exp : R → SO(1, 1)o , t 7→ exp(tX) (suriettivo perché per ogni u ∈ R>0 esiste un t ∈ R tale u = et e iniettivo perché (et + e−t )/2 = 1 se e solo se t = 0). Spesso si usa la notazione: cosh t := (et + e−t )/2, sinh t := (et − e−t )/2. 9.2.3 Il gruppo O(2, 1). Consideriamo lo spazio vettoriale V delle matrici 2 × 2 con traccia zero, che è anche l’algebra di Lie sl(2): y1 y2 3 V = sl(2) = M = : (y1 , y2 , y3 ) ∈ R . y3 −y1 Per A ∈ SL(2, R) la rappresentazione aggiunta Ad : SL(2, R) → GL(V ) è data da Ad(A) : V −→ V, Ad(A)(M ) = AM A−1 . Poiché det(A) = 1, det(M ) = −y12 − y2 y3 , det(AM A−1 ) = det(A) det(M ) det(A)−1 = det(M ), l’applicazione Q : M 7→ det(M ) è una forma quadratrica su V e Ad(A) ∈ O(Q) per ogni A ∈ SL(2, R). Cambiando coordinate in V , y1 = x1 , y2 = x2 − x3 , y3 = x2 + x3 otteniamo Q(M ) = −x21 − x22 + x23 , quindi Q è equivalente a Q1,2 e perciò O(Q) ∼ = O(1, 2) ∼ = O(2, 1). Perciò Ad : SL(2, R) −→ SO(2, 1)o , A 7−→ Ad(A) 9 GRUPPI ORTOGONALI 162 è un omomorfismo di gruppi di Lie e si può verificare che ρ è suriettivo con nucleo ±I. 9.2.4 Il gruppo O(2, 2). Consideriamo lo spazio vettoriale V delle matrici 2 × 2: y1 y3 4 V = M = : (y1 , y2 , y3 , y4 ) ∈ R . y4 y2 Per A, B ∈ SL(2, R) definiamo un’applicazione lineare r(A, B) : V −→ V, r(A)(M ) = AM t B. Poiché det(A) = det(B) = 1, det(M ) = y1 y2 − y3 y4 , det(AM t B) = det(A) det(M ) det(B) = det(M ), l’applicazione Q : M 7→ det(M ) è una forma quadratrica su V e r(A) ∈ O(Q) per ogni A, B ∈ SL(2, R). Cambiando coordinate in V , y1 = x1 + x3 , y2 = x1 − x3 , y3 = x2 + x4 , y4 = x2 − x4 , otteniamo Q(M ) = x21 + x22 − x23 − x24 , quindi Q è equivalente a Q2,2 e perciò O(Q) ∼ = O(2, 2). L’applicazione r : SL(2, R) × SL(2, R) −→ SO(2, 2)o , (A, B) 7−→ r(A, B) è un omomorfismo di gruppi di Lie e si può verificare che r è suriettiva con nucleo ±I. 9.2.5 Il gruppo O(3, 1). Consideriamo lo spazio vettoriale V delle matrici 2 × 2 Hermitiane (cioè t M = M ): : y1 y3 + iy4 4 : (y1 , y2 , y3 , y4 ) ∈ R . V = M = y3 − iy4 y2 Per A ∈ SL(2, C) definiamo un’applicazione R-lineare r(A) : V −→ V, r(A)(M ) = AM t A. Poiché det(A) = 1, det(M ) = y1 y2 − y32 − y42 , det(AM t A) = det(A) det(M )det(A) = det(M ), l’applicazione Q : M 7→ det(M ) è una forma quadratrica su V e r(A) ∈ O(Q) per ogni A ∈ SL(2, C). Cambiando coordinate in V , y1 = x1 + x2 , y2 = x1 − x2 , y3 = x3 , y4 = x4 , otteniamo Q(M ) = x21 − x22 − x23 − x24 , quindi Q è equivalente a Q1,3 e perciò O(Q) ∼ = O(1, 3) ∼ = O(3, 1). L’applicazione r : SL(2, C) −→ SO(3, 1)o , A 7−→ r(A) è un omomorfismo di gruppi di Lie e si può verificare che r è suriettivo con nucleo ±I. 9 GRUPPI ORTOGONALI 9.3 163 Quaternioni. 9.3.1 Quaternioni, Sp(1) e SU (2). I quaternioni sono una generalizzazione dei numeri complessi, come i numeri complessi sono una generalizzazione dei numeri reali. Un quaternione è formalmente una coppia di numeri complessi, ma è più comodo scriverlo nella forma h = z + wj, dove si ha j 2 = −1, jz = z̄j (z, w ∈ C). Si noti che il prodotto non è commutativo. L’addizione è data da: (z + wj) + (z 0 + w0 j) = (z + z 0 ) + (w + w0 )j. Il prodotto è dato da: (z + wj)(z 0 + w0 j) = zz 0 + zw0 j + wjz 0 + wjw0 j = zz 0 + zw0 j + wz 0 j + ww0 j 2 = (zz 0 − ww0 ) + (zw0 + wz 0 )j. So può verificare che valgono le proprietà di associatività per l’addizione e moltiplicazione e la distributività. Se z = a + bi, w = c + di con a, . . . , d ∈ R, un quaternione si scrive: h = z + wj = (a + bi) + (c + di)j = a + bi + cj + dk, k := ij = −ji (a, . . . , d ∈ R). Si verifica facilmente che anche k 2 = −1. L’algebra dei quaternioni si indica con H. Una proprietà importante dei quaternioni è che ogni elemento non-zero ha un inverso moltiplicativo, si dice che H è un corpo. Definiamo prima il coniugato di un quarternione h per: h = z + wj = z̄ − wj = a − bi − cj − dk, si ha hh0 = h0 h. Si verifica che hh̄ = z z̄ + ww̄ = a2 + b2 + c2 + d2 (∈ R≥0 ), quindi hh̄ è sempre reale ed è zero soltanto se h = 0. Perciò, se h 6= 0, h−1 := (hh̄)−1 h̄ è l’inverso di h. La norma di un quaternione è p |h| = hh̄ ∈ (R≥0 ). La norma è un omomorfismo di gruppi moltiplicativi H∗ := H − {0} → R∗>0 perché |hh0 |2 = (hh0 )hh0 = h(h0 h0 )h = (hh)(h0 h0 ) = |h|2 |h0 |2 dove abbiamo usato che il numero reale h0 h0 commuta con ogni quaternione, in particolare con h̄. Il nucleo della norma: Sp(1) := {h ∈ H∗ : |h| = 1 } = {a + bi + cj + dk ∈ H : a2 + b2 + c2 + d2 = 1 } 9 GRUPPI ORTOGONALI 164 è allora un sottogruppo moltiplicativo. Poiché S 3 è una varietà (una sottovarietà di R4 ) si verifica facilmente che Sp(1) è un gruppo di Lie. E’ noto che S n è un gruppo di Lie soltanto se n = 1, 3. L’algebra dei quaternioni è isomorfa a una sottoalgebra dall’algebra delle matrici M2 (C): z w X : H −→ M2 (C), h = z + wj 7−→ Xh = , −w̄ z̄ quindi X è iniettiva e per h, h0 ∈ H si ha: Xh+h0 = Xh + Xh0 , Xhh0 = Xh Xh0 ; in più |h|2 = det(Xh ), come si verifica facilmente. I quaternioni i, j, k corrispondono alle matrici di Pauli: i 0 0 1 0 i Xi = = σ1 , Xj = = σ2 , Xk = = σ3 . 0 −i −1 0 i 0 Tramite la mappa X si ottiene un isomorfismo di gruppi di Lie (si veda Esercizio 9.3.3): X : Sp(1) −→ SU (2) = {A ∈ GL(2, C) : t AA = I, det(A) = 1 }, dove SU (2) è il gruppo unitario speciale in dimensione 2. 9.3.2 Esercizio. Sia x = x0 + x1 i + x2 j + x3 k un quaternione, definiamo ~x = (x1 , x2 , x3 ) ∈ R3 . Verificare che z0 = x0 y0 − (~x, ~y ), xy = z0 + z1 i + z2 j + z3 k, con ~z = x0 ~y + y0~x + ~x × ~y . 9.3.3 Esercizio. Sia A= Mostrare che A ∈ U (2) = {B z̄z + ūu w̄w + v̄v z̄w + ūv z w u v ∈ M2 (C). ∈ GL(2, C) : t BB = I} se e solo se = 1, = 1, = 0, se e solo se u = −w̄, v = z̄. 9.3.4 SO(3, R) e la rappresentazione Aggiunta per SU (2). Sia G = SU (2), usando per esempio il diffeomorfismo SU (2) ∼ = S 3 (si veda 9.3.1) si ottiene: su(2) := TI SU (2) ∼ = {X ∈ M2 (C) : t X̄ + X = 0, tr(X) = 0 } ix1 x2 + ix3 : (x1 , x2 , x3 ) ∈ R3 = M= −x2 + ix3 −ix1 ∼ = R3 . 9 GRUPPI ORTOGONALI 165 La rappresentazione Aggiunta di SU (2) è allora un omomorfismo di gruppi di Lie: Ad : SU (2) −→ GL(3, R) ∼ = GL(su(2)), Ad(A)(M ) = AM A−1 . Poiché det(A) = 1, det(M ) = x21 + x22 + x23 , det(AM A−1 ) = det(A) det(M ) det(A)−1 = det(M ), l’applicazione Q : M 7→ det(M ) è una forma quadratrica su V e Ad(A) ∈ O(Q) ∼ = O(3, R) per 3 ∼ ogni A ∈ SL(2, C). Poiché SU (2) = S è connesso e Ad(1) = I allora Ad(SU (2)) ⊂ SO(3, R). Si può verificare che Ad(SU (2)) = SO(3, R), ker(Ad) = {±1}. 9.3.5 Il gruppo ortogonale SO(4, R). Consideriamo lo spazio vettoriale reale quattro dimensionale H, equivalentemente, lo spazio delle matrici 2 × 2 seguenti (si veda 9.3.1): : x + ix x + ix 0 1 2 3 4 H ∼ : (x0 , x1 , x2 , x3 ) ∈ R . = M = −x2 + ix3 x0 − ix1 Per A, B ∈ SU (2) ⊂ H× definiamo un’applicazione lineare r(A, B) : H −→ H, r(A, B)(M ) = AM B −1 , (A, B, M ‘sono’ quaternioni, quindi anche AM B −1 ‘è’ un quaternione!). Poiché det(A) = det(B) = 1, det(M ) = x20 + x21 + x22 + x23 , det(AM B −1 ) = det(A) det(M ) det(B)−1 = det(M ), l’applicazione Q : M 7→ det(M ) è una forma quadratrica su V e r(A, B) ∈ O(Q) ∼ = O(4, R) per ogni A, B ∈ SU (2). Poiché SU (2) è connessa otteniamo un’applicazione r : SU (2) × SU (2) −→ SO(4, R), A 7−→ r(A, B) che è un omomorfismo di gruppi di Lie e si può verificare che r è suriettivo con nucleo (I, I), (−I, −I). 9.4 Il gruppo ortogonale SO(2m) 9.4.1 L’algebra di Lie so(2m). Per determinare un’algebra di Cartan dell’algebra di Lie so(2m) scegliamo una base di C2m tale che la forma quadratica sia data da 0 I t x1 xm+1 + . . . + xm x2m = xQx/2, Q= , I 0 9 GRUPPI ORTOGONALI 166 dove la matrice simmetrica Q è divisa in blocchi m × m. L’algebra di Lie so(2m) ⊂ M2m (C) è data dalle matrici X ∈ M2m (C) tali che A B t XQ + QX = 0, sia X = . C D Allora l’equazione per X diventa: t t 0 I 0 I A B C A tC + = t t t D B D I 0 I 0 C D t A t B + C D A B = 0 0 0 0 , quindi otteniamo le equazioni seguenti per le matrici m × m in X: t t A = −D, B = −B, t C = −C. Verifichiamo che la dimensione di so(2m) è (2m)(2m − 1)/2 = 2m2 − m. Poiché A ∈ Mm (C), che ha dimensione m2 , e B, C ∈ Mm (C) sono antisimmetriche, si trova infatti dim so(2m) = m2 + 2m(m − 1)/2 = 2m2 − m. 9.4.2 Le radici di so(2m). Si noti che la seguente sottoalgebra di matrici diagonali sta in so(2m): h = { H = diag(t1 , . . . , tm , −t1 , . . . , −tm ) : ti ∈ C }, sia Hi = Ei,i − Ei+m,i+m ∈ h. Consideriamo gli autospazi in so(2m), per la rappresentazione aggiunta, di questa sottoalgebra. Una base di so(2m) è data dalle Hi e le Ei,j − Ej+m,i+m , Ek,l+m − El,k+m , Ek+m,l − El+m,k , dove 1 ≤ i, j, k, l ≤ m, i 6= j e k < l. Le prime matrici hanno A = −t D e B = C = 0, poi ci sono quelle con A = C = 0 e B = −t B e infine ci sono quelle con A = B = 0 e t C = −C. Poiché [diag(t1 , . . . , t2m ), Ea,b ] = (ta − tb )Ea,b e ora ti+m = −ti si ha: [H, Ei,j − Ej+m,i+m ] = (ti − tj )(Ei,j − Ej+m,i+m ), [H, Ek,l+m − El,k+m ] = (tk + tl )(Ek,l+m − El,k+m ), [H, Ek+m,l − El+m,k ] = −(tk + tl )(Ek+m,l − El+m,k ). Questo implica che se X ∈ so(2m), X 6∈ h allora [H, X] 6= 0 per un certo H ∈ h. Quindi h è una sottoalgebra commutativa massimale, e perciò h è un’algebra di Cartan di so(2m). In più abbiamo trovato la decomposizione di so(2m) in spazi peso per la rappresentazione aggiunta. Le radici di so(2m) sono: Li − Lj , ±(Lk + Ll ), 1 ≤ i, j, k, l ≤ m, i 6= j, k < l. P P Ogni applicazione l : h∗R = Rn = ⊕RLi → R, l( ai Li ) = li ai con li > li+1 > 0 è regolare (si veda 7.3.1). Le radici positive sono gli Li − Lj con i < j e gli Lk + Ll con k < l. 9 GRUPPI ORTOGONALI 167 Si può verificare, similmente al caso di sl(n), si veda 7.1.15, che il gruppo di Weyl agisce nel modo seguente. Se α = Li − Lj la riflessione sα permuta Li e Lj e fissa gli altri radici. Se α = Lk + Ll , Lk 7→ −Ll , sα : Ll 7→ −Lk , Li 7→ Li i 6= k, l). (α = Lk + Ll , Il prodotto scalare su h∗R definito dalla forma di Killing su h è invariante per il gruppo di Weyl e perciò è uguale, a meno di moltipicazione per uno scalare, al prodotto scalare standard dato da (Li , Lj ) = δij . Si ha (α, α) = 2 per ogni radice α e perciò < λ, α >= 2(λ, α)/(α, α) = (λ, α) per ogni λ ∈ h∗R . Le radici semplici sono α1 = L1 − L2 , α2 = L2 − L3 , . . . , αm−1 = Lm−1 − Lm , Il loro diagramma di Dynkin è il seguente: αn−2 α1 α2 α3 αn−3 c c c c c αm = Lm−1 + Lm . αn−1 c Dn c αn 9.4.3 Le rappresentazioni fondamentali di so(2m). I pesi fondamentali λi , i = 1, . . . , m, di so(2m), definiti da < λi , αj >= (λi , αj ) = δij (si veda 8.1.4). Poiché (α, α) = 2 per ogni α ∈ R si ha < λi , αj >:= 2(λi , αj )/(αj , αj ) = (λi , αj ), quindi: λ1 = L1 , λ2 = L1 + L2 , . . . , L1 + L2 + . . . + Lm−1 − Lm , 2 I pesi dominanti di so(2m) sono allora: λm−1 = λm−2 = L1 + L2 + . . . + Lm−2 , λm = Pm Λ+ mi λi : mi ∈ Z≥0 } W = { n i=1 = (m1 + . . . + mm−2 + (mm−12+mm ) L1 + . . . + L1 + L2 + . . . + Lm−1 + Lm . 2 (mm−1 +mm ) Lm−1 2 + (−mm−1 +mm ) Lm 2 o . P Quindi un peso λ = m i=1 ai Li è dominante se a1 ≥ a2 ≥ . . . ≥ am−1 ≥ |am | (e poi mm = am−1 + am , mm−1 = am−1 − am , mm−2 = am−2 − am−1 , . . ., m1 = a1 − a2 ). Nella rappresentazione standard di so(2m) su V := C2m , l’algebra di Cartan è data dalle H = diag(t1 , . . . , tm , −t1 , . . . , −tm ) e Li (H) = ti per i = 1, . . . , m. Quindi i pesi di V sono gli ±Li e l’unico peso dominante tra di loro è L1 . Perciò si ha: V (λ1 ) = V, V = C2m . Si può mostrare (si veda [FH], Thm 19.2) che V (λk ) = ∧k V, k = 1, 2, . . . , m − 2. 9 GRUPPI ORTOGONALI 168 Un vettore con peso massimale in V (λk ) = ∧k V è ovviamente e1 ∧ e2 ∧ . . . ∧ ek . Anche la rappresentazione ∧m−1 V è irriducibile, ma il suo peso massimale è L1 +. . .+Lm−1 = λm−1 +λm , che non è un peso fondomentale. La rappresentazione ∧m V è riducibile. Poiché le rappresentazioni V (λm−1 ), V (λm ) hanno pesi con coefficienti che non sono interi rispetto alla base L1 , . . . , Lm di h∗R , non è possibile trovarli nei prodotti tensoriali delle V (λ1 ), . . . , V (λm−2 ) (che poi sono tutti contenuti nei prodotti tensoriali di V = V (λ1 )), perché ogni peso in una tale rappresentazione è una combinazione con coeficienti interi di L1 , . . . , Lm . I pesi di V (λm−1 ), la rappresentazione irriducibile generata da un vettore massimale con Pm peso λm−1 , sono del tipo λm−1 − i=1 ni αi con ni ≥ 0 (si veda 8.2.6). Nessuno di questi pesi è dominante, tranne λm−1 stesso. Poiché ogni peso è nell’orbita di un peso dominante per il gruppo di Weyl, ogni peso di V (λm−1 ) è nell’orbita di λm−1 . Perciò ogni spazio peso di V (λm−1 ) è isomorfo allo spazio del peso massimale, in particolare, è unidimensionale. Il gruppo di Weyl agisce per permutazioni delle Li e cambiamenti di un numero pari di segni, quindi i pesi di V (λm−1 ) sono: (1 L1 + 2 L2 + . . . + m Lm )/2, i ∈ {+1, −1}, 1 2 · · · m = −1. i ∈ {+1, −1}, 1 2 · · · m = +1. In modo simile, i pesi di V (λm ) sono: (1 L1 + 2 L2 + . . . + m Lm )/2, Ogni peso di V (λm−1 ) e di V (λm ) ha moltiplicità uno e ogni rappresentazione ne ha 2m−1 , quindi: dim V (λm−1 ) = 2m−1 , dim V (λm ) = 2m−1 . Le rappresentazioni fondamentali V (λm−1 ) e V (λm ) si chiamano rappresentazioni spinoriali (Inglese: (half) spin representations). Costruiremo queste rappresentazioni di so(2m) in 10.3.5. 9.4.4 Il caso so(4). Nel caso m = 2, l’algebra di Lie so(4) è data da: so(4) = h H1 −H2 , E1,2 −E4,3 , E2,1 −E3,4 i ⊕ h H1 +H2 , E1,4 −E2,3 , E3,2 −E4,1 i ∼ = sl(2) ⊕ sl(2), l’isomorfismo manda i tre generatori di ogni coppia nei generatori standard di sl(2). La rappresentazione standard C4 di so(4) ha pesi λ = L1 , L2 , −L1 , −L2 . Si ha λ(H1 − H2 ) = 1, −1, −1, 1 e λ(H1 + H2 ) = 1, 1, −1, −1, quindi C4 è isomorfa a due copie della rappresentazione standard due dimensionale di ognuna delle due copie di sl(2). Da qui segue che C4 ∼ = W1 ⊗ W2 dove W1 , W2 sone le rappresentazioni standard delle due copie di SL(2). Le rappresentazioni due dimensionali di so(4) ottenute come la composizione πi ρi : so(4) ∼ = sl(2) ⊕ sl(2) −→ sl(2) ,→ End(C2 ) sono rappresentazioni due dimensionali, irriducibili, di so(4). Poiché ρ1 (H1 −H2 ) = diag(1, −1), ρ1 (H1 + H2 ) = 0, i pesi di ρ1 sono aL1 + bL2 con a − b = ±1 e a + b = 0, quindi ±(L1 − L2 )/2. Perciò ρ1 è una delle due rappresentazioni spinoriali di so(4). In modo simile si trova che i pesi di ρ2 sono ±(L1 + L2 )/2 e quindi anche ρ2 è una rappresentazione spinoriale. 9 GRUPPI ORTOGONALI 9.5 169 Il gruppo ortogonale SO(2m + 1) 9.5.1 L’algebra di Lie so(2m + 1). Per determinare un’algebra di Cartan dell’algebra di Lie so(2m + 1) scegliamo una base di C2m+1 tale che la forma quadratica sia dato da I 0 0 x1 xm+1 + . . . + xm x2m + x22m+1 = t xQx, Q = 0 I 0 , 0 0 1 dove la matrice simmetrica Q è divisa in quattro blocchi m × m, due blocchi 1 × m, due blocchi m × 1 e un blocco 1 × 1. L’algebra di Lie so(2m + 1) ⊂ M2m+1 (C) è data dalle le matrici X ∈ M2m+1 (C) tali che t A B a A tC c t XQ + QX = 0, sia X = C D b , quindi t X = t B t D d t t a tb e c td e con A, B, C, D ∈ Mm (C), a, b, c, d, ∈ Cm e e ∈ C. Allora le equazioni per X diventano: t C D b 0 0 0 C tA c tD tB d + A B a = 0 0 0 , t t c td e 0 0 0 b ta e quindi otteniamo le equazioni seguenti per i blocchi di X: t A = −D, t B = −B, t C = −C, d = −a, c = −b, e = 0. Verifichiamo che la dimensione di so(2m+1) è (2m+1)(2m)/2 = 2m2 +m. Poiché A ∈ Mm (C), che ha dimensione m2 , e B, C ∈ Mm (C) sono antisimmetriche e a, b ∈ Cm , si trova infatti dim so(2m) = m2 + 2m(m − 1)/2 + 2m = 2m2 + m. 9.5.2 Le radici di so(2m + 1). Si noti che la seguente sottoalgebra di matrici diagonali sta in so(2m + 1): h = { H = diag(t1 , . . . , tm , −t1 , . . . , −tm , 0) : ti ∈ C }, sia Hi = Ei,i − Ei+m,i+m ∈ h. Consideriamo gli autospazi in so(2m + 1), per la rappresentazione aggiunta, di questa sottoalgebra. Una base di so(2m + 1) è dato dalle Hi e le matrici indicate qui sotto. Poiché [diag(t1 , . . . , t2m , t2m+1 ), Ea,b ] = (ta − tb )Ea,b e adesso ti+m = −ti , t2m+1 = 0 si ha: [H, Ei,j − Ej+m,i+m ] [H, Ek,l+m − El,k+m ] [H, Ek,l+m − El,k+m ] [H, Ek+m,l − El+m,k ] [H, Ep,2m+1 − E2m+1,p+m ] [H, Ep+m,2m+1 − E2m+1,p ] = (ti − tj )(Ei,j − Ej+m,i+m ), = (ti − tj )(Ei,j − Ej+m,i+m ), = (tk + tl )(Ek,l+m − El,k+m ), = −(tk + tl )(Ek+m,l − El+m,k ), = tp (Ep,2m+1 − E2m+1,p+m ), = −tp (Ep+m,2m+1 − E2m+1,p ), 1 ≤ i, j ≤ m, i 6= j, 1 ≤ i, j ≤ m, i 6= j, 1 ≤ k < l ≤ m, 1 ≤ k < l ≤ m, 1 ≤ p ≤ m, 1 ≤ p ≤ m. 9 GRUPPI ORTOGONALI 170 Questo implica che se X ∈ so(2m + 1), X 6∈ h allora [H, X] 6= 0 per un certo H ∈ h. Quindi h è una sottoalgebra commutativa massimale, e perciò h è un’algebra di Cartan di so(2m + 1). In più abbiamo trovato la decomposizione di so(2m + 1) in spazi peso per la rappresentazione aggiunta. Le radici di so(2m + 1) sono: Li − Lj , ±(Lk + Ll ), 1 ≤ i, j, k, l, p ≤ m, i 6= j, k < l. P P Ogni applicazione l : h∗R = Rn = ⊕RLi → R, l( ai Li ) = li ai con li > li+1 > 0 è regolare (si veda 7.3.1). Le radici positive sono gli Li − Lj con i < j, gli Lk + Ll con k 6= l e gli Lp , 1 ≤ p ≤ m. Si può verificare, similmente al caso di sl(n), si veda 7.1.15, che il gruppo di Weyl agisce nel modo seguente. Se α = Li − Lj la riflessione sα permuta Li e Lj e fissa le altre radici. Se α = Lk + Ll , Lk 7→ −Ll , sα : , ±Lp Ll 7→ −Lk , Li 7→ Li i 6= k, l) (α = Lk + Ll , e sLp manda Lp 7→ −Lp e fissa gli altri Lq . Il prodotto scalare su h∗R definito dalla forma di Killing su h è invariante sotto il gruppo di Weyl e perciò è uguale, a meno di moltiplicazione per uno scalare, al prodotto scalare standard dato da (Li , Lj ) = δij . Si noti che le radici di so(2m + 1) sono esattamente i vettori α con (α, α) = 1, 2, quindi il sistema di radici è Bn (si veda 7.3.5). Le radici semplici sono α1 = L1 − L2 , α2 = L2 − L3 , . . . , αm−1 = Lm − Lm−1 , Il loro diagramma di Dynkin è il seguente: α1 α2 α3 e e e αn−2 αn−1 e e αn > e αm = Lm . Bn 9.5.3 Le rappresentazioni fondamentali di so(2m + 1). I pesi fondamentali λi , i = 1, . . . , m, di so(2m), definiti da < λi , αj >= 2(λi , αj )/(αi , αi ) = δij (si veda 8.1.4) sono: λ1 = L1 , λ2 = L1 + L2 , . . . , λm−1 = L1 + L2 + . . . + Lm−1 , L1 + L2 + . . . + Lm−1 + Lm . 2 I pesi dominanti di so(2m) sono allora: λm = Pm Λ+ W = { i=1 mi λi : mi ∈ Z≥0 } = (m1 + . . . + mm−1 + m2m )L1 + . . . + (mm−1 + mm )Lm−1 2 + mm Lm 2 . 9 GRUPPI ORTOGONALI 171 P Quindi un peso λ = m i=1 ai Li è dominante se a1 ≥ a2 ≥ . . . ≥ am−1 ≥ am ≥ 0 (e dunque mm = 2am , mm−1 = am−1 − 2am , mm−2 = am−2 − am−1 , . . ., m1 = a1 − a2 ). Nella rappresentazione standard di so(2m + 1) su V := C2m+1 , l’algebra di Cartan è data dalle H = diag(t1 , . . . , tm , −t1 , . . . , −tm , 0) e Li (H) = ti per i = 1, . . . , m. Quindi i pesi di V sono ±Li e 0. Si può mostrare (si veda [FH], Thm 19.14) che V (λk ) = ∧k V, k = 1, 2, . . . , m − 1. Un vettore con peso massimale in Vλk = ∧k V è ovviamente e1 ∧e2 ∧. . .∧ek . La rappresentazione ∧m V è anche irriducibile, ma il suo peso massimale è L1 + . . . + Lm = 2λm , che non è un peso fondamentale. Poiché la rappresentazione V (λm ) ha pesi con coefficienti che non sono interi rispetto alla base L1 , . . . , Lm di h∗R , non è possibile trovarli nei prodotti tensoriali delle V (λ1 ), . . . , V (λm−1 ) (che poi sono tutti contenuti nei prodotti tensoriali di V = V (λ1 )). I pesi di V (λm ), la rappresentazione irriducibile generata da un vettore massimale con peso Pm λm , sono del tipo λm − i=1 ni αi con ni ≥ 0. Nessuno di questi pesi è dominante, tranne λm stesso. Poiché ogni peso è nell’orbita di un peso dominante per il gruppo di Weyl, ogni peso di V (λm ) deve essere nell’orbita di λm . In più, ogni spazio peso è isomorfo allo spazio del peso più alto, in particolare, è unidimensionale. Il gruppo di Weyl agisce per permutazioni delle Li e cambiamenti di segno, quindi i pesi di V (λm ) sono i: (1 L1 + 2 L2 + . . . + m Lm )/2, i ∈ {+1, −1}. Ogni peso di V (λm ) ha moltiplicità uno e la rappresentazione ne ha 2m , quindi: dim V (λm ) = 2m . La rappresentazione fondamentale V (λm ) si chiama rappresentazione spinoriale (Inglese: spin representation). Costruiremo questa rappresentazione di so(2m + 1) in 10.3.6. 9.5.4 Il caso so(3). Nel caso m = 1, l’algebra di Lie so(3) ha base H1 , E1,3 − E3,2 , E2,3 − E3,1 ed è isomorfo con sl(2). La rappresentazione standard C3 di so(3) ha peso dominante L1 = 2λ1 , e la rappresentazione con peso dominante λ1 è la rappresentazione standard C2 di sl(2). La rappresentazione C3 è S 2 (C2 ) di sl(2), che è anche la rappresentazione aggiunta. Vedi 9.2.3 per il legame tra i gruppi di Lie nel caso K = R (che si generalizza al caso K = C). 10 RAPPRESENTAZIONI DI SPIN 10 172 Rappresentazioni di Spin Testi consigliati: [FH]. 10.1 L’algebra di Clifford 10.1.1 Definizione. L’algebra di Clifford di una forma quadratica generalizza l’algebra dei quaternioni e permette di definire le rappresentazioni spinoriali dei gruppi ortogonali. Sia V uno spazio vettoriale su un campo K, con K = R oppure K = C e sia Q : V → K una forma quadratica definita da una forma bilineare B, Q(v) = B(v, v) e poi (si veda 9.1.4): Q(v + w) − Q(v) − Q(w) = 2B(v, w) (v, w ∈ V ). L’algebra di Clifford di (V, Q), indicata con C(Q), è una K-algebra che contiene K e V , in più, il prodotto di un v ∈ V ⊂ C(Q) con se stesso è tale che v 2 = Q(v)(!). Per costruire C(Q) consideriamo l’ideale bilaterale IQ dell’algebra tensoriale T (V ) = ⊕k V ⊗k (si veda 1.3.3) generato dagli elementi v ⊗ v − Q(v) ∈ T (V ) (v ∈ V ). Quindi un elemento di IQ è una combinazione lineare di elementi del tipo x ⊗ (v ⊗ v − Q(v)) ⊗ y con x, y ∈ T (V ) e v ∈ V . Nel caso Q = 0, si ottiene l’ideale I di 1.3.3 e T (V )/I è l’algebra esterna. In generale, l’algebra che si ottiene è per definizione l’algebra di Clifford (di Q): C(Q) := T (V )/IQ = ⊕V ⊗k /IQ . Ci sono testi in cui si usa −Q per definire C(Q), cioè si usa l’ideale generato dalle x ⊗ x + Q(x) invece di IQ . I gruppi ortogonali di Q e −Q sono ovviamente uguali e si può mostrare che il gruppo Spin e le rappresentazioni spinoriali di so(Q) non cambiano. Usiamo le seguente notazioni (si veda 9.1.4): C(p, q) := C(Ip,q ), se K = R; C(n) = C(In ) se K = C. π Ci sono le applicazioni lineari V ⊗k ,→ T (V ) → C(Q) dove π è la mappa canonica che manda x 7→ x + IQ . Queste applicazioni sono iniettive se k = 0, 1 (si veda 10.1.4). Per λ ∈ K = V ⊗0 o v ∈ V = V ⊗1 scriviamo semplicemente λ e v per l’immagine di λ e v in C(Q). Allora si ha: v 2 = Q(v), vw + wv = 2B(v, w) (v, w ∈ V ⊂ C(Q)), la prima relazione segue dal fatto che v ⊗ v − Q(v) ∈ IQ quindi v 2 − Q(v) = 0 in C(Q), la seconda segue da Q(v + w) − Q(v) − Q(w) = 2B(v, w) e: Q(v + w) = (v + w)2 = v 2 + w2 + vw + vw = Q(v) + Q(w) + vw + wv. Sia ei , 1 ≤ i ≤ n = dim V , una K-base di V . Usando queste regole, l’immagine di un tensore ei1 ⊗ . . . ⊗ eik ∈ V ⊗k si scrive come combinazione lineare di prodotti ej1 . . . ejl con l ≤ n e indici 10 RAPPRESENTAZIONI DI SPIN 173 distinti (eja = ejb solo se a = b). In particolare, dim C(Q) ≤ 2n . Si può dimostrare (si veda 10.1.4, [FH], Lemma 20.3) che C(Q) ha una base data dalle eI , C(Q) = ⊕I KeI ; eI = ei1 ei2 . . . eik se I = {i1 , . . . , ik }, 1 ≤ i1 < i2 < . . . < ik ≤ n, dove I percorre tutti gli insiemi ordinati con al più n elementi, e e∅ = 1. In particolare, dim C(Q) = 2n . 10.1.2 Esempi. Sia V = R2 con base e1 , e2 . Sia Q = I2 , quindi Q(v1 e1 + v2 e2 ) = v12 + v22 . Allora in C(Q) = C(2, 0) si ha e21 = e22 = 1, e1 e2 + e2 e1 = 0 quindi e1 e2 = −e2 e1 . In più il quadrato di e1 e2 è: (e1 e2 )2 = e1 e2 e1 e2 = e1 (−e1 e2 )e2 = −1 · 1 = −1. Un semplice calcolo mostra che l’applicazione F : C(2, 0) −→ M2 (R), a + be1 + ce2 + de1 e2 7−→ a+b c−d c+d a−b è un isomorfismo di algebre (cioè F è R-lineare, F (x + y) = F (x) + F (y) e F (xy) = F (x)F (y)). Sia V come sopra e sia Q = −I2 , allora in C(Q) = C(0, 2) si ha: e21 = e22 = −1, e1 e2 = −e2 e1 , (e1 e2 )2 = e1 (−e1 e2 )e2 = −1. Un semplice calcolo mostra che l’applicazione G : C(0, 2) −→ H, a + be1 + ce2 + de1 e2 7−→ a + bi + cj + dk è un isomorfismo di algebre, dove H è l’algebra di quaternioni (si veda 9.3.1). Sia V come sopra e sia Q = I1,1 , allora in C(Q) = C(1, 1) si ha: e21 = 1, e22 = −1, e1 e2 = −e2 e1 , (e1 e2 )2 = e1 (−e1 e2 )e2 = 1. Un semplice calcolo mostra che l’applicazione H : C(1, 1) −→ M2 (R), a + be1 + ce2 + de1 e2 7−→ a+b c+d −c + d a − b è un isomorfismo di algebre. Nel caso K = C e Q = I2 si ha C(Q) = C(2) ∼ = M2 (C). 10.1.3 Le proprietà universale dell’algebra di Clifford. L’algebra di Clifford C(Q) gode delle seguente proprietà, che è molto conveniente per definire automorfismi di C(Q). 10 RAPPRESENTAZIONI DI SPIN 174 Sia E una K-algebra (associativa) con elemento unità 1 ∈ E e sia data un’applicazione lineare j : V −→ E, tale che j(v)2 = Q(v) per ogni v ∈ V , allora esiste un unico omomorfismo di K-algebre J che estende j: J : C(Q) −→ E, (v ∈ V ⊂ C(Q)). tale che J(v) = j(v) Per definire J, si definisce prima, per ogni k, un’applicazione multilineare V × . . . × V → E per (v1 , v2 , . . . , vk ) 7→ j(v1 )j(v2 ) . . . j(vk ). Queste applicazioni definiscono delle mappe lineari Jk : V ⊗k → E (si veda 1.1.8) che sono componenti di un omomorfismo di K-algebre J : T (V ) → E, cioè J = Jk su V ⊗k . Se t ∈ IQ , t è combinazione lineare di x ⊗ (v ⊗ v − Q(v)) ⊗ y e J(x ⊗ (v ⊗ v − Q(v)) ⊗ y) = J(x)J(v ⊗ v − Q(v))J(y) = J(x)(J(v)J(v) − Q(v))J(y) = 0 perché J(v) = j(v) e j(v)2 = Q(v). Quindi J definisce un’omomorfismo di K-algebre C(Q) = T (V )/IQ → E. L’unicità segue dal fatto che le proprietà J(v) = j(v) e J(x ⊗ y) = J(x)J(y) determinano l’immagine di ogni tensore in T (V ) mediante J. 10.1.4 La dimensione di C(Q). Si ricordi che C(Qp,q ) ,→ M2 (C) se p + q = 2, per esempio C0,2 ∼ = H ,→ M2 (C), si veda 9.3.1. Dato un omomorfismo iniettivo φ : C(Qp,q ) ,→ MN (C), sia Mi ∈ MN (C) l’immagine di ei ∈ Rn . In particolare, si ha (x1 M1 + . . . + xn Mn )2 = (x21 + . . . + x2p ) − (x2p+1 + . . . + x2n )IN = Qp,q (x)IN , equivalentamente, gli Mi soddisfano: Mi Mj + Mj Mi = 0, Mi2 = i IN , i = 1 se 1 ≤ i ≤ p, −1 se p + 1 ≤ i ≤ n, Sia Q = Qp+1,q oppure Qp,q+1 , quindi Q(en+1 ) = 1 oppure −1. Definiamo un’applicazione lineare 0 Mi 0 η n+1 0 0 R −→ M2N (C), ei 7−→ Mi := , en+1 7−→ Mn+1 = , Mi 0 −η 0 dove η = i se Q(en+1 ) = +1 e η = 1 se Q(en+1 ) = −1. Allora si verifica facilmente che gli Mi0 soddisfano le stesse relazioni degli Mi e in più 0 (Mn+1 )2 = Q(en+1 ), 0 0 Mi0 Mn+1 + Mn+1 Mi0 = 0, quindi si ha: n+1 X !2 xi Mi0 = Q( i=1 n+1 X xi ei ). i=1 Perciò la proprietà universale di C(Q) dà un omomorfismo di R-algebre φ̃ : C(Q) −→ M2N (C), ei 7−→ Mi0 . 10 RAPPRESENTAZIONI DI SPIN 175 Poiché φ : C(Qp,q ) ,→ MN (C) è definito da ei 7→ Mi , 1 ≤ i ≤ n, anche φ̃ è iniettivo su C(Qp,q ), φ̃ : Cp,q ,→ M2N (C). Ogni elemento di C(Q) si scrive come x+yen+1 con x, y ∈ C(Qp,q ) ⊂ C(Q) e adesso è facile vedere che φ̃ è iniettivo. Si noti che se dim C(Qp,q ) = K, allora dim φ̃(C(Q)) = 2K. Per induzione su n = p + q si conclude che dim C(Q) = 2n se n = dim V e che gli eI sono una base di C(Q). 10.2 L’algebra di Clifford e il gruppo spinoriale. 10.2.1 L’algebra di Clifford e il gruppo ortogonale. L’inclusione V ,→ E = C(Q) è K-lineare e soddisfa v 2 = Q(v) per costruzione. Per ogni A ∈ O(Q), il gruppo ortogonale di Q, anche l’applicazione lineare jA : V −→ E = C(Q), v 7−→ Av (A ∈ O(Q), v ∈ V ) soddisfa jA (v)2 = (Av)2 = Q(Av) = Q(v). In particolare, esiste un’omomorfismo di K-algebre JA : C(Q) −→ C(Q) tale che JA (v) = Av (A ∈ O(Q), v ∈ V ⊂ C(Q)). Consideriamo il caso di un prodotto AB ∈ O(Q) con A, B ∈ O(Q). Allora JAB v = ABv e JAB è l’unico omomorfismo con questa proprietà. Poiché anche JA ◦ JB è un omomorfismo con JA (JB (v)) = JA (Bv) = ABv si ha JAB = JA JB , in particolare: JIV = IC(Q) , con IV l’identità su V e JIV = IC(Q) l’identità su C(Q). Perciò l’applicazione J : O(Q) −→ Aut(C(Q)), A 7−→ JA è un omomorfismo di gruppi, iniettivo perché JA v = Av per v ∈ V ⊂ C(Q). 10.2.2 L’algebra di Clifford pari e l’automorfismo α. Un caso particolare di A ∈ O(Q) è A = −IV = −I. Si indica α := J−I : C(Q) −→ C(Q), α2 = IC(Q) perché (−IV )2 = IV . La decomposizione di C(Q) in autospazi è indicata con C(Q) = C(Q)+ ⊕ C(Q)− , C(Q)± = {x ∈ C(Q) : α(x) = ±x }. Dato che α è K-lineare e α(xy) = α(x)α(y) è facile verificare che C(Q)+ è una sottoalgebra di C(Q). Per un elemento di base eI di C(Q), si veda 10.1.1 con ]I = k, si ha α(eI ) = (−1)k eI , quindi C(Q)+ = ⊕I KeI , ]I ∈ {0, 2, . . .}, quindi dim C(Q)+ = 2n−1 . 10 RAPPRESENTAZIONI DI SPIN 176 Per λ ∈ C× , le algebre C(Q) e C(λQ) sono isomorfe, perché λ = µ2 per un µ ∈ C× e l’applicazione lineare jµ : V −→ C(λQ), v 7−→ µ−1 v soddisfa jµ (v)2 = (µ−1 v)2 = µ−2 v 2 = µ−2 λQ(v) = Q(v) in C(λQ), quindi jµ si estende a un omomorfismo di C-algebre Jµ : C(Q) −→ C(λQ). Per simmetria, si ha un omomorfismo Jµ−1 : C(λQ) −→ C(Q) e Jµ−1 è l’inverso di Jµ (perché Jµ−1 (Jµ (v)) = v per ogni v ∈ V e quindi sia Jµ−1 ◦ Jµ , sia 1C(Q) , è l’unica estensione di 1V . Negli esempi 10.1.2 si vede che C(Q) ∼ 6= C(−Q) nel caso K = R. Invece per ogni λ ∈ R× si ha C(Q)+ ∼ = C(λQ)+ perché se ei è una R-base di V (e quindi è una C-base della complessificazione VC ) l’omomorfismo Jµ : C(Q)C → C(λQ)C manda eI = ei1 . . . ei2k ∈ C(Q)+ ⊂ C(Q)C in µ−2k eI = λ−k eI ∈ C(λQ)+ ⊂ C(λQ)C . Quindi Jµ induce un isomorfismo tra le sottoalgebre reali C(Q)+ ⊂ C(Q)C e C ( λQ)+ ⊂ C(λQ)C : ∼ = Jµ : C(Q)C −→ C(λQ)C ∼ = induce C(Q)+ −→ C(λQ)+ . 10.2.3 Esempi di algebre di Clifford pari. Nel caso V abbia base e1 , e2 , come negli esempi 10.1.2, l’algebra di Clifford pari è C + (Q) = K ⊕ Ke1 e2 . Nel caso K = R, nelle algebre C(2, 0) e C(0, 2) si ha (e1 e2 )2 = −1. In tali casi C + (Q) ∼ =C 2 tramite a+be1 e2 7→ a+bi. Nell’algebra C(1, 1) si ha (e1 e2 ) = 1 che implica (1+e1 e2 )(1−e1 e2 ) = 0, (1 ± e1 e2 )2 = 2(1 ± e1 e2 ). Sia π± := (1 ± e1 e2 )/2, allora 1 = π+ + π− , π+ π− = 0 = π− π+ , 2 π± = π± , come si verifica facilmente. In particolare, per x ∈ C + (1, 1) si ha x = x1 = (xπ+ ) + (xπ− ) = x+ + x− e il prodotto è dato da (x+ + x− )(y+ + y− ) = (x+ y+ ) + (x− y− ). Poiché (a + be1 e2 )π± = (a ± b)π± , si ottiene un isomorfismo di algebre: ∼ = C(1, 1)+ −→ R × R, x = a + be1 e2 7−→ (a + b, a − b), con π+ 7→ (1, 0), π− 7→ (0, 1). L’algebra C + (0, 3)+ ha dimensione 4 e base 1, e1 e2 , e1 e3 , e1 e3 . Poiché e2i = −1, i = 1, 2, 3, e ei ej = ei ej in C(0, 3), si ha, se i, j, k sono distinti: (ei ej )2 = ei ej ei ej = −e2i e2j = −1, (ei ej )(ei ek ) = −e2i ej ek = ej ek = −(ei ek )(ei ej ). Segue che l’algebra C(0, 3)+ è isomorfa all’algebra dei quaternioni: ∼ = C(0, 3)+ −→ H, a + be1 e2 + ce1 e3 + de2 e3 7−→ a + bi + cj + dk. Nell’algebra C(0, 3) si ha: ei ω = ωei , dove ω := e1 e2 e3 ∈ C(0, 3) 10 RAPPRESENTAZIONI DI SPIN 177 e, in più, ω 2 = (e1 e2 e3 )(e1 e2 e3 ) = e21 e2 e3 e2 e3 = −(−1)e22 e33 = +1. quindi, come prima, gli elementi π± := (1 ± ω)/2 sono idempotenti centrali (cioè commutano con ogni x ∈ C(0, 3)), e perciò C(0, 3) ∼ = (π+ C(0, 3)) × (π− C(0, 3)). E’ facile vedere che C(0, 3)+ −→ π± C(0, 3), x 7−→ π± x è un’omomorfismo di algebre iniettivo. Quindi dim π± C(0, 3) ≥ 4, poiché dim C(0, 3) = 8 si ha allora dim π± C(0, 3) = 4 e π± C(0, 3) ∼ = H. Perciò: ∼ = C(0, 3) −→ H × H. 10.2.4 Riflessioni e l’algebra di Clifford. In 10.2.1 abbiamo costruito un omomorfismo iniettivo O(Q) → Aut(C(Q)), A 7→ JA . Ora studiamo quest’azione di O(Q) su C(Q), prima per le riflessioni in O(Q). Sia v ∈ V tale che Q(v) 6= 0. Poiché v 2 = Q(v) si ha v −1 = Q(v)−1 v in C(Q). Consideriamo l’applicazione ρ(v) : C(Q) −→ C(Q), x 7−→ −vxv −1 . Si consideri il caso in cui x ∈ V , e si ricordi che vx = −xv + 2B(x, v) e Q(x) = B(x, x): ρ(v)(x) = −vxv xv 2 − 2B(x, v)v xQ(v) − 2B(x, v)v B(x, v) = = =x−2 v Q(v) Q(v) Q(v) B(v, v) che mostra che, se K = R e B è un prodotto scalare, ρ(x) coincide su V ⊂ C(Q) con la riflessione Rv rispetto all’iperpiano v ⊥ (si veda 7.1.13). In generale, si verifica che ρ(v) ∈ O(Q) e quest’applicazione è detta riflessione. Si noti che ρ(v) non è un automorfismo di C(Q), per esempio ρ(v)(1) = −v1v −1 = −1 mentre un K-algebra automorfismo manda 1 in 1. Gli automorfismi JA , per A ∈ O(Q) si possono ottenere nel modo seguente. Prima si osservi che per w ∈ V si ha α(w) = −w e quindi ρ(v)(w) = −vwv −1 = v(−w)v −1 = vα(w)v −1 (v, w ∈ V, B(v) 6= 0). Per v ∈ V con Q(v) 6= 0 il sollevamento della riflessione Rv ∈ O(Q) è dato da: JRv : C(Q) −→ C(Q) x 7−→ vα(x)v −1 . Si verifica facilmente che JRv è un automorfismo, per esempio vα(xy)v −1 = vα(x)α(y)v −1 = (vα(x)v −1 )(vα(y)v −1 ). In più, JRv coincide con Rv su V ⊂ C(Q) e, per l’unicità di un tale automorfismo, si ha quindi JRv (x) = vα(x)v −1 . Nel caso B sia nondegenere, un teorema di Cartan e Dieudonné afferma che ogni A ∈ O(Q) è un prodotto di riflessioni Rv . Quindi JA è un prodotto di tali JRv . In particolare, sia A ∈ SO(n), 10 RAPPRESENTAZIONI DI SPIN 178 allora A = Rv1 . . . Rv2k per certe vi ∈ V . Poiché α2 = IC(Q) , α(xy) = α(x)α(y) e α(v) = −v per v ∈ V , si ha, per ogni x ∈ C(Q): JA (x) = JRv1 . . . JRv2k (x) = = = = = −1 JRv1 . . . JRv2k−1 (v2k α(x)v2k ) −1 −1 JRv1 . . . JRv2k−2 (v2k−1 α(v2k α(x)v2k )v2k−1 ) −1 −1 JRv1 . . . JRv2k−2 (v2k−1 v2k xv2k v2k−1 ) ... v1 . . . v2k x(v1 . . . v2k )−1 . Quindi per A ∈ SO(Q), l’automorfismo JA di C(Q) è dato dalla coniugazione con v1 . . . v2k ∈ C(Q)+ . 10.2.5 Il gruppo moltiplicativo di C(Q). Si potrebbe tentare di definire un omomorfismo di gruppi O(Q) → C(Q)× , il gruppo moltiplicativo dato dagli elementi invertibili in C(Q), in modo tale che Rv 7→ v, allora si avrebbe ? A 7−→ x = v1 . . . v2k , se JA (w) = xwx−1 . La formula per Rv mostra però che Rv = Rλv per ogni non nullo λ ∈ K. Quindi non c’è una scelta canonica per l’immagine di Rv in C(Q)× . Visto che per definire Rv si dovrebbe avere Q(v) 6= 0, e Q(λv) = λ2 Q(v), è ragionevole scegliere λ ∈ K tale che λ2 Q(v) = 1 (oppure λ2 Q(v) = −1 se K = R e Q(v) < 0). Quindi ci sono due scelte ‘naturali’ per λ. Come già visto, un tale omomorfismo non esiste sempre, si veda 9.3.4. In quel caso Q = I3,0 e C(Q)+ ∼ = H (si veda 10.2.3) e c’è un sottogruppo SU (2) ⊂ H× con un omomorfismo = C(−Q)+ ∼ suriettivo SU (2) → SO(3, R) con nucleo {±I}. Questo si può generalizare, si veda Proposizione 10.2.8: esiste un sottogruppo Spin(Q) di (C(Q)+ )× che è un rivestimento doppio di SO(Q). 10.2.6 Le antiinvoluzioni τ e ∗ di C(Q). L’algebra T (V ) = ⊕k V ⊗k ha un’antiinvoluzione τ data da τ : v1 ⊗ v2 ⊗ . . . ⊗ vk 7−→ vk ⊗ vk−1 ⊗ . . . ⊗ v1 , τ (x ⊗ y) = τ (y) ⊗ τ (x). Pochè τ (v ⊗ v − Q(v)) = v ⊗ v − Q(v), τ preserva l’ideale τ (IQ ) = IQ , segue che τ induce un’antiinvoluzione, ancora indicata con τ : τ : C(Q) −→ C(Q), τ (v1 v2 . . . vk ) = vk . . . v2 v1 , τ (xy) = τ (y)τ (x). Si noti che se Q(vi ) = ±1, allora vi2 = ±1 e v1 v2 . . . vk τ (v1 v2 . . . vk ) = v1 v2 . . . vk vk . . . v2 v1 = ±1. La composizione di τ e α è l’antiinvoluzione chiamata la coniugazione su C(Q) e si scrive: τ α : C(Q) −→ C(Q), x 7−→ x∗ , (v1 v2 . . . vk )∗ = (−1)k vk . . . v2 v1 . 10.2.7 Il gruppo Spin(Q). Ora si può dare una definizone del gruppo Spin che non sfrutta in modo esplicito le reflessioni: ±1 se K = R, + ∗ −1 Spin(Q) := { x ∈ C(Q) : xx = , xV x ⊂ V }, = 1 se K = C. 10 RAPPRESENTAZIONI DI SPIN 179 Il gruppo Spin(Q) è un sottogruppo di (C(Q)+ )× (x−1 = x∗ per x ∈ Spin(Q)) e si può mostrare che è un gruppo di Lie. Nel caso K = R, Spin(Q) non è connessa se ci sono x ∈ Spin(Q) con xx∗ = −1. Questo occorre soltanto se esiste una base di V tale che Q è dato da Ip,q con p, q ≥ 1. Per la definizione di Spin(Q), si ha un omomorfismo ρ : Spin(Q) −→ GL(V ), ρ(x)(w) := xwx−1 (w ∈ V ) 10.2.8 Proposizione. Sia B una forma bilineare nondegenere su uno spazio vettoriale V sul campo K = R o C e sia Q(x) := B(x, x). Allora ρ(Spin(Q)) = SO(Q) e ker(ρ) = {±1}. Dimostrazione. Per la dimostrazione abbiamo bisogno delle riflessioni. Quindi definiamo P in(Q) := { x ∈ C(Q) : xx∗ = ±1, α(x)V x−1 ⊂ V }, si noti che Spin(Q) ⊂ P in(Q). Si definisce un’estensione dell’omomorfismo ρ come ρ : P in(Q) −→ GL(V ), ρ(x)(w) = α(x)wx−1 . Per x ∈ Spin(Q) ⊂ C + si ha α(x) = x e quindi ρ(x)(w) = xwx−1 come prima in 10.2.7. Mostriamo che ρ(P in(Q)) = O(Q). Si ha ‘⊂’, perché se x ∈ P in(Q) e w ∈ V si ha ρ(x)(w) ∈ V quindi (ρ(x)(w))∗ = −ρ(x)(w): Q(ρ(x)w) = = = = = = = = = (ρ(x)w)2 −ρ(x)(w)(ρ(x)(w))∗ −(α(x)wx−1 )(α(x)wx−1 )∗ −α(x)wx−1 (x−1 )∗ w∗ α(x)∗ ∓α(x)ww∗ α(x)∗ ±α(x)w2 α(x)∗ ±Q(w)α(x)α(x)∗ ±Q(w)α(xx∗ ) Q(w). (xx−1 = 1 ⇒ (x−1 )∗ x∗ = 1 ⇒ (x−1 )∗ = (x∗ )−1 ) (w∗ = −w) (w2 = Q(w)) (xx∗ = ±1 ⇒ α(xx∗ ) = ±1) L’inclusione ‘⊃’ segue dal fatto che se v ∈ V e Q(v) 6= 0 esiste λ ∈ K tale che Q(λv) = ±1. Sia x = λv, allora Rv = Rx e x∗ = −x. Perciò xx∗ = −x2 = ∓1 e xwx−1 = −Rx (w) ∈ V se w ∈ W , quindi x ∈ P in(Q). Ora si ha ρ(x) = Rx come visto in 10.2.4. Perciò ρ(P in(Q)) contiene tutte le riflessioni e dal teorema di Cartan e Dieudonné segue che ρ(P in(Q)) ⊃ O(Q). Adesso mostriamo che ρ(Spin(Q)) = SO(Q). Come visto in 10.2.4, dato A ∈ SO(n), ci sono vi ∈ V tali che A = Rv1 . . . Rv2k e inoltre si ha JA (w) = xwx−1 dove x = v1 . . . v2k ∈ C(Q)+ . Normalizzando i vi in modo tale che Q(vi ) = ±1 se K = R e Q(vi ) = 1 se K = C si vede che xx∗ = (v1 . . . v2k ) · (−1)2k (v2k . . . v1 ) = (v1 . . . v2k−1 )Q(v2k )(v2k−1 . . . v1 ) = . . . = Q(v1 ) . . . Q(v2k ), che è 1 se K = C e ±1 se K = R, quindi x ∈ Spin(Q) e ρ(x) = A come desiderato. 10 RAPPRESENTAZIONI DI SPIN 180 Determiniamo il nucleo di ρ : P in(Q) → O(Q). Sia x ∈ ker(ρ), cioè, α(x)v = vx per ogni v ∈ V . Scriviamo x = x+ + x− con x± ∈ C(Q)± , allora segue che x = x+ + x− ∈ ker(ρ) =⇒ x+ v = vx+ , −x− v = vx− . Sia ei una base ortogonale per V , quindi ei ej = −ej ei se i 6= j e e2i ∈ K − {0}. Adesso − + + − − scriviamo x+ = x+ 1 + e1 y1 dove x1 ∈ C(Q) , y1 ∈ C(Q) sono combinazioni lineari degli eI − k con 1 6∈ I, cioè e1 non compare in x+ 1 e y1 . In particolare eI e1 = (−1) e1 eI dove k = ]I. Allora + + se scegliamo v = e1 , l’equazione x v = vx dà 2 − + − e1 x+ 1 + e 1 y 1 = x1 e 1 + e 1 y 1 e 1 2 − + 2 − cioè e1 x+ 1 + e1 y1 = e1 x1 − e1 y1 , perciò y1− = 0, quindi e1 non compare in x+ . Procedendo in questo modo si ottiene che x+ non + − − + + contiene nessun ei quindi x+ ∈ K. Poi scriviamo x− = x− 1 +e1 y1 dove x1 ∈ C(Q) , y1 ∈ C(Q) − + e e1 non compare in x1 e y1 . Con v = e1 otteniamo 2 + − + −(e1 x− 1 + e1 y1 ) = x1 e1 + e1 y1 e1 cioè 2 + − 2 + − e1 x− 1 − e1 y1 = −e1 x1 + e1 y1 quindi y1+ = 0 e perciò x− non contiene e1 , quindi nessun ei , perciò x− = 0, perché x− ∈ C(Q)− . La conclusione è che x = x+ ∈ K. Adesso consideriamo ker(ρ : Spin(Q) → SO(Q)), quindi imponiamo la condizione xx∗ = 1 se K = C e xx∗ = se K = R. Poiché x∗ = x per x ∈ K e x2 = 1 implica x = ±1, segue che ker(ρ) = {±1}. 2 10.3 Le rappresentazioni spinoriali di so(n). 10.3.1 L’inclusione so(Q) ,→ C(Q)+ . L’omomorfismo di gruppi di Lie ρ : Spin(Q) → SO(Q) induce un isomorfismo di algebre di Lie (dρ)1 : T1 Spin(Q) = Lie(Spin(Q)) −→ TI SO(Q) = so(Q). Poiché Spin(Q) ⊂ (C(Q)+ )× , il gruppo dei elementi invertibili in C(Q)+ , e C(Q)+ è uno spazio vettoriale, si ha Lie(Spin(Q)) ⊂ C(Q)+ . In più, è facile verificare (come già fatto nel caso analogo di GL(n, R) = Mn (R)× ⊂ Mn (R), si veda 5.2.1) che le parentesi di Lie su Lie(Spin(Q)) sono date da [X, Y ] = XY − Y X dove XY è il prodotto di X, Y ∈ Lie(Spin(Q)) ⊂ C(Q)+ in C(Q)+ : so(Q) ∼ = T1 Spin(Q) ,→ C(Q)+ , [X, Y ] = XY − Y X (X, Y ∈ so(Q) ⊂ C(Q)+ ). Si noti che ora abbiamo trovato una rappresentazione dell’algebra di Lie so(Q) sullo spazio vettoriale C(Q)+ : so(Q) −→ End(C(Q)+ ), X 7−→ [x 7→ Xx]. Cioè, X ∈ so(Q) ⊂ C(Q)+ agisce per moltipicazione e poiché [X, Y ]x = (XY − Y X)x = X(Y x) − Y (Xx) si ha proprio una rappresentazione. 10 RAPPRESENTAZIONI DI SPIN 181 Questa rappresentazione non è irriducibile in generale, perché dato un qualunque z ∈ C(Q)+ si ha (Xx)z = X(xz) e quindi l’applicazione lineare C(Q)+ → C(Q)+ , x 7→ xz, commuta con la rappresentazione di so(n). Nel caso K = C la decomposizione della rappresentazione di so(Q) = so(n) in rappresentazioni irriducibili è data in 10.3.5 e 10.3.6. Per questo si usa l’algebra di Cartan di so(n), vista come sottospazio di C(Q)+ . In generale, si può mostrare che Lie(Spin(Q)) = so(Q) ⊂ C(Q)+ è generata dagli elementi vw − B(v, w) ∈ C(Q)+ , dove v, w variano in V (si veda [FH] 20.1). Si può anche verificare direttamente che: Lie(Spin(Q)) := {x ∈ C(Q)+ : x + x∗ = 0, xv + vx∗ ∈ V ∀v ∈ V }. E’ facile verificare che vw − B(v, w) ∈ Lie(Spin(Q)). Poiché dim Spin(Q) = dim SO(Q), segue che dim Lie(Spin(Q)) = n(n − 1)/2 dove n = dim V e che gli ei ej − B(ei , ej ), dove ei è una base di V e i < j, sono una base di Lie(Spin(Q)). In 10.3.3 determiniamo in modo esplicito la base Hi dell’algebra di Cartan h di so(n), vista come sottospazio di C(Q)+ . 10.3.2 L’algebra di Clifford di Q. D’ora in avanti consideriamo sempre la forma quadratica Q su Cn data da Q(x) = x1 xm + . . . + xm x2m oppure Q(x) = x1 xm + . . . + xm x2m + x22m+1 se n = 2m è pari oppure n = 2m + 1 è dispari. La forma bilineare B tale che Q(x) = B(x, x) (e quindi 2B(x, y) = Q(x + y) − Q(x) − Q(y) è data da: B(x, y) = 21 (x1 y2 + x2 y1 + . . . + xm y2m + x2m ym ) oppure da B(x, y) = 12 (x1 y2 + x2 y1 + . . . + xm y2m + x2m ym ) + x2m+1 y2m+1 . In C(Q) si ha quindi: e2i = 0, 1 ≤ i ≤ 2m, ej ej+m + ej ej+m = 1, ea eb + eb ea = 0, (|a − b| = 6 m) dove 1 ≤ i, a, b ≤ 2m e 1 ≤ j ≤ m. In più e2m+1 anticommuta con questi ei e e22m+1 = 1. 10.3.3 L’algebra di Cartan. L’algebra di Cartan di so(n) = so(Q) è generata dalle Hi , 1 ≤ i ≤ m dove n = 2m o n = 2m + 1, con Hi ej = 0, se j 6= i, i + m, Hi ei = ei , Hi ei+m = −ei+m . Quindi Hi = γ∗ := (d/dt)γ(t)|t=0 dove γ(t) ∈ SO(n) è dato da γ : C∗ −→ SO(n), γ(t)ei = tei , γ(t)ei+m = t−1 ei+m γ(t)ei = 1 se j 6= i, i + m. 10 RAPPRESENTAZIONI DI SPIN 182 Si noti che sullo spazio due dimensionale W con base ei , ei+m si ha Q(x1 ei + x2 ei+m ) = x1 x2 , B(x1 ei + x2 ei+m , y1 ei + y2 ei+m ) = 12 (x1 y2 + x2 y1 ), e γ(t) induce l’applicazione lineare seguente su W , dove scegliamo un s ∈ C∗ con s2 = t: −1 2 1 s 0 −1 0 −s−2 s 0 2 , = Rv Rw , v = , w= = γ(s ) = s −s2 0 1 −1 0 0 s−2 dove t = s2 e si ha Q(v) = Q(w) = 1, come si verifica facilmente. Su W ⊥ sia γ(t) sia Rv Rw sono l’identità, quindi si ha x(t) = Rv Rw su V = Cn . Poiché x∗ = −x per x ∈ V si ha (vw)∗ = (−w)(−v) = wv e (vw)(vw)∗ = vwwv = vQ(w)v = Q(w)Q(v) = 1, quindi vw = (ei + ei+m )(s−1 ei + sei+m ) = s−1 ei ei+m + sei+m si = s−1 + (s − s−1 )ei ei+m ∈ Spin(Q), qui abbiamo usato e2i = e2i+m = 0 e ei ei+m + ei+m ei = 2B(ei , ei+m ) = 1. Definiamo un cammino γ̃ : C∗ −→ Spin(n), γ̃(s) = s−1 + (s − s−1 )ei ei+m . Allora si ha: 2 ρ(γ̃(s)) = Rv Rw = γ(s ), ∗ C γ̃ % Spin(n) ↓ρ γ & SO(n), quindi γ̃ è un sollevamento del cammino γ a Spin(n). Si noti che ρ è 2:1 su γ̃(C∗ ) ma che C∗ è connesso, quindi anche Spin(n) è connesso. L’inclusione so(n) ⊂ C(Q)+ è definita tramite l’inverso dell’omomorfismo (dρ)1 : T1 Spin(n) → so(n). In particolare, X ∈ T1 Spin(n) corrisponde con Hi ∈ so(n) se e solo se (dρ)1 (X) = Hi . Un cammino γ definisce un vettore tangente γ∗ (si veda 4.3.3) e si ha (si veda 4.3.5) (dρ)1 (γ̃∗ ) = (ρ ◦ γ̃)∗ = γ∗ . In particolare, γ̃∗ = (d/ds)γ̃(s)|s=1 = −1 + 2ei ei+m (∈ so(n) ⊂ C(Q)+ ) e la sua immagine mediante (dρ)1 in so(n) è: (dρ)1 (γ̃∗ ) = (d/ds)γ(s2 )|s=1 = 2(d/dt)γ(t)|t=1 = 2Hi quindi si ha Hi = 21 γ̃∗ = − 12 + ei ei+m (∈ so(n) ⊂ C(Q)+ ). 10.3.4 Vettori peso in C(Q). Adesso determiniamo alcuni vettori peso in CQ) per h ⊂ C(Q)+ . Per i ≤ m si ha in C(Q) (si veda 10.3.2): (ei ei+m )ei = ei (−ei ei+m + 1) = ei , (ei ei+m )ej = ej (ei ei+m ) (j 6= i, i + m). 10 RAPPRESENTAZIONI DI SPIN 183 Usando ciò si trova in C(Q), per ogni i, 1 ≤ i ≤ m: Hi (e1 e2 . . . em ) = (− 12 + ei ei+m )(e1 e2 . . . em ) = − 12 (e1 e2 . . . em ) + e1 e2 . . . em = 21 e1 e2 . . . em . I pesi Li : h∗ → C soddisfano Li (Hj ) = δij . Quindi e1 e2 . . . em è un vettore peso per h: H(e1 e2 . . . em−1 em ) = λm (H)e1 e2 . . . em−1 em , λm = 21 (L1 + . . . + Lm ). In modo simile, si verifica: H(e1 e2 . . . em−1 e2m ) = 21 (L1 + . . . + Lm−1 − Lm )(H)(e1 e2 . . . em−1 e2m ). Per ogni z ∈ C(Q), si trova nello stesso modo: H(e1 . . . em z) = 12 (L1 + . . . + Lm )(H)e1 . . . em z, e similmente H(e1 . . . em−1 e2m z) = 12 (L1 + . . . + Lm−1 − Lm )(H)e1 . . . em−1 e2m z. 10.3.5 Le rappresentazioni spinoriali di so(2m). Si ricordi che le rappresentazioni spinoriali di so(2m) sono le rappresentazioni irriducibili con peso dominante λm−1 = 21 (L1 + . . . + Lm−1 − Lm ), λm = 12 (L1 + . . . + Lm ), si veda 9.4.3. Consideriamo la rappresentazione di so(2m) ⊂ C(Q)+ su C + (Q) di 10.3.1. Supponiamo prima che m sia pari. In questo caso x = e1 . . . em , y = e1 . . . em−1 e2m sono in C(Q)+ e sono vettori pesi con peso λm e λm−1 rispettivamente. Per J ⊂ {m + 1, . . . , 2m}, K ⊂ {m, m + 1, . . . , 2m − 1} con ]J, ]K ≡ 0 mod 2, i vettori xeJ e yeK sono vettori peso indipendenti in C + (Q) con lo stesso peso λm e λm−1 rispettivamente. Quindi la moltiplicità di questi pesi è almeno: + m−1 . dim C(Q)+ λm−1 , dim C(Q)λm ≥ 2 Ogni peso λ nell’orbita di λm−1 o λm sotto il gruppo di Weyl ha la stessa moltiplicità, e ci sono 2m−1 pesi in ognuna delle due orbite (si veda 9.4.3). Quindi ognuno dei 2m−1 + 2m−1 = 2m pesi nell’unione delle orbite di λm−1 e λm ha moltiplicità almeno 2m−1 . La somma diretta di questi spazi peso ha allora dimensione almeno 2m 2m−1 = 22m−1 = dim C(Q)+ . In particolare, ogni peso di h su C + (Q) è nell’orbita di Weyl di λm−1 o λm e perciò 2m−1 C(Q)+ ∼ . = (V (λm−1 ) ⊕ V (λm )) 10 RAPPRESENTAZIONI DI SPIN 184 Lo stesso isomorfismo vale se m è dispari. In tal caso x, y ∈ C(Q)− , però per ogni J, K come come sopra, con ]J, ]K ≡ 1 mod 2, i vettori xeJ e yeK sono vettori peso in C(Q)+ . Quindi + troviamo ancora almeno 2m−1 vettori pesi indipendenti in C(Q)+ λm−1 e C(Q)λm e si ottiene l’isomorfismo desiderato. 10.3.6 La rappresentazione spinoriale di so(2m + 1). Si ricordi che la rappresentazione spinoriale di so(2m + 1) è la rappresentazione irriducibile con peso dominante λm = 21 (L1 + . . . + Lm ), si veda 9.5.3. Se m è pari allora per ogni J ⊂ {m + 1, . . . , 2m + 1} con ]J pari, il vettore e1 . . . em eJ sta in C(Q)+ e ha peso λm . Se invece m è dispari, il vettore e1 . . . em eJ con ]J dispari sta in C(Q)+ . In entrambi i casi troviamo che m dim C(Q)+ λm ≥ 2 . Poiché ogni peso nell’orbita del gruppo di Weyl di λm ha la stessa moltiplicità, e ce ne sono 2m di tali pesi (si veda 9.5.3), la somma diretta di questi spazi ha dimensione almeno 2m 2m = 22m . Poiché dim C(Q)+ = 2n−1 = 22m concludiamo 2m C(Q)+ ∼ = (V (λm )) . 10.3.7 Isomorfismi di algebre. m−1 (V (λm−1 ) ⊕ V (λm ))2 implica che Nel caso n = 2m, l’isomorfismo C(Q)+ ∼ = Homso(2m) (C(Q)+ , C(Q)+ ) ∼ = M2m−1 (C) × M2m−1 (C). Si noti che dim Homso(2m) (C(Q)+ , C(Q)+ ) = 2 · 22(m−1) = 22m−1 . D’altra parte, per ogni z ∈ C + (Q) l’applicazione lineare C(Q)+ → C(Q)+ , y 7→ yz sta in Homso(2m) (C(Q)+ , C(Q)+ ) (perché x ∈ so(n) ⊂ C(Q)+ agisce per y 7→ xy). Per ottenere un omomorfismo di algebre, definiamo φ : C(Q)+ −→ Homso(2m) (C(Q)+ , C(Q)+ ), z 7−→ [x 7→ xz ∗ ] allora φ(yz)(x) = x(yz)∗ = (xz ∗ )y ∗ = (φ(y) ◦ φ(z))(x), quindi φ è un omomorfismo di algebre. Visto che 1 ∈ C(Q)+ e 1z = z, φ è iniettiva. Dato che dim C(Q)+ = 2n−1 = 22m−1 concludiamo C(Q)+ ∼ = M2m−1 (C) × M2m−1 (C) In modo simile si trova C(Q)+ ∼ = M2m (C), (n = 2m). (n = 2m + 1). Si noti che Spin(Q) ⊂ (C(Q)+ )× = M2m (C)× = GL(2m , C) e questa inclusione è una m rappresentazione di Spin(Q) su C2 , che induce la rappresentazione spinoriale di so(2m + 1) m su C2 ∼ = V (λm ). In modo simile si ottengono le rappresentazioni spinoriali di so(2m). 10 RAPPRESENTAZIONI DI SPIN 185 10.4 Spinori Vediamo ora alcune definizioni di uso comune nel linguaggio fisico. 10.4.1 Spinori di Dirac. Sia Q una forma quadratica non-degenere su Cn . In 10.3.7 abbiamo trovato gli isomorfismi di algebre complesse C(Q)+ ∼ = M2m−1 (C) × M2m−1 (C) se n = 2m e + ∼ C(Q) = M2m (C) se n = 2m + 1. In particolare, se n = 2m o 2m + 1, l’algebra di Clifford m pari agisce su C2 e questo induce le rappresentazioni spinoriali di so(2m) e so(2m + 1). m Gli elementi dello spazio C2 sono detti spinori di Dirac. Il gruppo Spin(Q) ⊂ (C(Q)+ )∗ agisce sugli spinori di Dirac. 10.4.2 Spinori di Weyl. Nel caso che n = 2m sia pari, gli elementi dei due sottospazi, di dimensione 2m−1 invarianti per C(Q)+ ∼ = M2m−1 (C) × M2m−1 (C) si chiamano spinori di Weyl. In particolare, in questo caso ogni spinore di Dirac è una coppia di spinori di Weyl. 10.4.3 Spinori di Majorana. La forma quadratica Qr,s , con r + s = n, su Rn , definisce una forma quadratica non-degenere Q su Cn (data dallo stesso polinomio x21 + . . . + x2p − (x2p+1 + . . . + x2n )). Quindi si ha C(r, s)+ := C(Qr,s )+ ,→ C(Q)+ . In generale però non è vero che C(r, s)+ ∼ = M2m−1 (R) × M2m−1 (R) se n = 2m e C(Q)+ ∼ = M2m (R) se n = 2m + 1. Per esempio, + ∼ + ∼ C(0, 3) = H, un corpo (si veda 10.2.3) e C(1, 3) = M2 (C). m Nel caso in qui esista un sottospazio reale V , di dimensione reale 2m , di C2 che sia invariante per l’azione di C(r, s)+ si dice che gli elementi di V sono spinori di Majorana. Per esempio C(1, 3)+ ∼ = M2 (C) e in questo caso esiste un tale V : si noti che A + Bi ∈ M2 (C), con A, B ∈ M2 (R) agisce su R4 nel modo seguente A B M2 (C) ,→ M4 (R), A + Bi 7−→ . −B A 10.4.4 Spinori di Majorana-Weyl. Nel caso n = 2m, e se esiste anche uno spazio vettoriale V di spinori di Majorana ci si può inoltre chiedere se esistano due sottospazi reale V+ , V− di V , di dimensione reale 2m−1 , che siano invarianti per l’azione di C(r, s)+ . nel caso affermativo gli elementi di V+ e V− sono detti spinori di Majorana-Weyl. 10.4.5 Esistenza di spinori dei vari tipi per C(1, s)+ . Nella tabella qui sotto si dà l’esistenza o meno di spinori dei vari tipi per C(1, s)+ (∼ = C(s, 1)+ , si veda 10.2.2). Il risultato dipende soltanto da n = 1 + s mod 8. n mod 8 0 1 2 Majorana sı̀ sı̀ sı̀ Majorana-Weyl no no sı̀ Naturalmente gli spinori di Dirac esistono sempre. 3 4 5 6 7 sı̀ sı̀ no no no no no no no no 11 STRUTTURE GEOMETRICHE 11 186 Strutture geometriche Testi consigliati: [dC], [D], [DNF1], [DNF2], [KN], [N1], [N2] [T], [Wa]. 11.1 Fibrati Nel capitolo 4 è stato introdotto il concetto di fibrato tangente che è poi stato generalizzato ad alcuni altri casi quali il fibrato cotangente o i fibrati ottenuti dai prodotti tensori o dai prodotti esterni. Tali concetti possono essere ulteriormente generalizzati per permettere la considerazione di situazioni più generali che risultano frequenti anche nelle applicazioni fisiche. Infatti abbiamo finora visto i campi vettoriali su una varietà M come sezioni del fibrato tangente, ovvero come mappe verticali V : M → T M , πM ◦ V := idM . Tuttavia è possibile pensare a campi che in ogni punto hanno valori in spazi più generali, che possono essere spazi vettoriali, reali o complessi, algebre di Lie ma anche gruppi o varietà differenziali. I concetti fondamentali per la costruzione dei fibrati generali sono tutti contenuti nelle proprietà fondamentali del fibrato tangente. π 11.1.1 Fibrati vettoriali. Un fibrato vettoriale si indica con E −→ M e consiste dei seguenti ingredienti • una varietà differenziale n−dimensionale M , provvista di un atlante A = {Uα , φα }α∈A ; • uno spazio vettoriale su campo K m dimensionale, detto fibra di riferimento; • una varietà differenziale (n + m)-dimensionale E, detta lo spazio totale del fibrato; • una mappa differenziabile suriettiva πM : E → M detta proiezione; −1 −1 • una famiglia di omeomorfismi locali Φα : πM (Uα ) → Uα ×F tale che Φα (πM (x)) = {x}×F per ogni x ∈ Uα , i quali devono soddisfare −1 • per ogni x ∈ M l’insieme Ex = πM (x) deve essere uno spazio vettoriale isomorfo a F . Ex si chiama fibra su x. Un punto di E sarà quindi localmente individuato da una coppia (x, v), x ∈ M e v ∈ F ; • se Uαβ := Uα ∩ Uβ 6= ∅ allora le mappe Φβ ◦ Φ−1 α : Uαβ × F → Uαβ × F , (x, v) 7→ (x, gαβ (x)v) , dove gαβ : Uαβ → GL(F ) sono mappe differenziabili dette funzioni di incollamento. La dimensione della fibra è detta anche rango del fibrato. Il fatto che le funzioni di incollamento si riducano essenzialmente all’azione del gruppo GL(F ) sulle fibre, può essere interpretato come se l’incollamento degli intorni locali avvenisse attaccando assieme le fibre comuni, cioè se i due intorni Uα e Uβ hanno intersezione non vuota Uαβ allora si incolla la fibra {x} × F ⊂ Uα × F 11 STRUTTURE GEOMETRICHE 187 con la fibra {x} × F ⊂ Uβ × F al variare di x ∈ Uαβ , dopo averle identificate a meno di una trasformazione lineare in G := GL(F ). In questo senso la struttura del fibrato dipende essenzialmente dall’azione del gruppo G nell’incollamento delle fibre e per tale motivo esso viene chiamato il gruppo di struttura del fibrato. Talvolta scriveremo (E, π, M, G, F ) per mettere in evidenza anche il gruppo di struttura. Più in generale, dato un atlante per M e uno spazio vettoriale F , si chiamano funzioni di incollamento una famiglia di applicazioni gαβ : Uαβ −→ GL(F ) , tali che gαβ (x) = gβα (x)−1 , e gαβ (x)gβγ (x)gγα (x) = I ∈ GL(F ) , per ogni α, β, γ tale che Uαβγ := Uα ∩ Uβ ∩ Uγ 6= ∅. Nella seconda condizione naturalmente le mappe si intendono tutte ristrette a Uαβγ . Essa viene detta anche relazione di cociclo. Dalle mappe di incollamento possiamo quindi ricostruire il fibrato vettoriale tramite la relazione ! a E= (Uα × F ) / ∼ , α dove (x, v) ∈ Uα × F e (y, w) ∈ Uβ × F sono equivalenti se x = y ∈ Uαβ e w = gαβ v . 11.1.2 Esempio. Un esempio di fibrato vettoriale è il fibrato tangente con E = T M , F = Rn e G = GL(n, R). Vediamo allora che l’elemento gαβ nel caso del fibrato tangente non è altro che la matrice jacobiana J ∈ GL(n, R) della mappa φβ ◦ φ−1 α indotta dalle carte locali (Uα , φα ) e (Uβ , φβ ). Confrontando con quanto visto in 3.1 ed utilizzando le convenzioni introdotte in 1.2.4 si può dunque interpretare l’inversa di J come la matrice di cambiamento di riferimento nella fibra fissata (che dunque agisce a destra), cosicché le componenti (controvarianti) del vettore v ∈ Rn trasformano appunto con la matrice J. In altre parole, nel linguaggio del paragrafo 1.2.6, il gruppo di struttura individua il gruppo rispetto al quale i vettori (e più in generale i tensori) si comportano come tali. 11.1.3 Esempio. Il fibrato banale. Un fibrato vettoriale si dice banale se E = M × F . In tal caso la proiezione sul fibrato coincide con la proiezione sul primo fattore. 11.1.4 Il punto di vista fisico. La proprietà di incollamento è particolarmente importante nelle applicazioni fisiche. Nelle trattazioni più elementari di fisica un campo vettoriale in una certa regione U viene trattato semplicemente come una mappa V : U → Rn . Il grafico di tale mappa è l’insieme delle coppie (x, V (x)) ∈ U × Rn sicché possiamo rivedere il campo come 11 STRUTTURE GEOMETRICHE 188 un’applicazione V : U → U × Rn che composta con la proiezione sul primo elemento si riduce all’identità. Tale descrizione è dunque rigorosa finché ci si riduce ad una regione limitata (cioè una descrizione locale) in quanto T M |U ' U × Rn , ma non è più corretta per una definizione del campo vettoriale su tutta la varietà M , a meno che non si abbia T M ' M × Rn . Un fibrato siffatto si dice banalizzabile e la mappa che realizza tale isomorfismo si dice banalizzazione del fibrato. Il fatto che in generale i fibrati siano non banali dimostra la loro importanza in fisica. Per esempio si dimostra che per le sfere si ha T S n ' S n × Rn solamente per n = 1, 3, 7. D’altra parte la descrizione locale continua ad essere indispensabile in quanto la descrizione fisica sperimentale non può avvenire altrimenti. L’apparato sperimentale e l’interpretazione relativa dei dati per la definizione fisica del campo richiede essenzialmente l’dentificazione locale del fibrato con un prodotto cartesiano: nella regione U in cui si effettuano le misure, i vettori misurati vengono tutti individuati con elementi di un unico spazio vettoriale Rn e non di un differente spazio vettoriale (fibra) per ogni punto. Dal punto di vista fisico quindi il fibrato viene costruito necessariamente a pezzi, che vanno poi incollati per costruire il fibrato completo (e dunque la teoria generale). Tale ruolo viene svolto dalle funzioni di incollamento. π i M , i = 1, 2 si dicono isomorfi 11.1.5 Isomorfismo tra fibrati. Due fibrati vettoriali Ei −→ se esiste un diffeomorfismo f : E1 −→ E2 che ristretto alle fibre si riduce ad un isomorfismo tra spazi vettoriali e che sottende l’identità sulla base, cioè π2 ◦ f = π1 . In altre parole una fibra sul punto x viene mandata nella fibra sullo stesso punto. Un fibrato si dice banalizzabile se è isomorfo ad un fibrato banale. 11.1.6 Esempi. Un esempio di fibrato banale è il cilindro, visto come fibrato di rette sul cerchio S 1 situato nell’origine delle rette stesse. Un fibrato banalizzabile, come visto nel capitolo 4, è il fibrato tangente sul cerchio S 1 . Un fibrato non banalizzabile è invece il nastro di Möbius anch’esso visto come fibrato vettoriale su S 1 . Dato un fibrato, la sua restrizione ad una carta locale opportuna è per definizione un fibrato banalizzabile e si dimostra in realtà che è banale, cioè tutti i possibili isomorfismi sono equivalenti. π 11.1.7 Sezioni di un fibrato. Dato un fibrato E −→ M si chiamano sezioni o sezioni trasversali del fibrato le mappe differenziabili ψ : M −→ E , che soddisfano π ◦ ψ = idM . Si scrive ψ ∈ Γ(M, E). In particolare si dice che ψ è una sezione globale se è definita su tutto M . Si dice invece che è locale se è definita solamente su un intorno aperto U in M e si scrive ψ ∈ Γ(U, E). Queste definizioni sono vere anche per fibrati più generali di quelli vettoriali (si veda più avanti). 11.1.8 Criterio di banalizzabilità. Non è difficile dimostrare che un fibrato vettoriale con fibra m−dimensionale è banalizzabile se e soltanto se ammette l’esistenza di m sezioni globali ovunque linearmente indipendenti (esercizio). In pratica la scelta di un riferimento di sezioni globali idividua un isomorfismo con il fibrato M × F . Tuttavia, dati due riferimenti, non è 11 STRUTTURE GEOMETRICHE 189 detto che sia possibile deformare l’uno nell’altro con continuità tramite una famiglia continua di riferimenti. π 1 11.1.9 Prodotto fibrato e prodotto tensoriale di fibrati vettoriali. Siano E1 −→ Me π2 E2 −→ M due fibrati vettoriali su M con fibre F1 ed F2 . Si costruisce allora il prodotto fibrato π× E1 ×M E2 −→ M su M , con fibra F1 × F2 dove lo spazio totale è E1 ×M E2 := {(ξ1 , ξ2 ) ∈ E1 × E2 | π1 ξ1 = π2 ξ2 } . π⊗ In modo del tutto analogo si costruisce il prodotto tensore E1 ⊗M E2 −→ M su M , con fibra F1 ⊗ F2 dove lo spazio totale è E1 ⊗M E2 := {ξ1 ⊗ ξ2 |(ξ1 , ξ2 ) ∈ E1 × E2 e π1 ξ1 = π2 ξ2 } . Un modo più semplice di definire tali fibrati è attraverso le funzioni di incollamento. Indichiamo (i) con gαβ : Uαβ −→ GL(Fi ), i = 1, 2 le funzioni di incollamento dei due fibrati. Per il prodotto fibrato, di fibra F1 ⊕ F2 , avremo ! a E1 ×M E2 = Uα × (F1 ⊕ F2 ) / ∼ , α dove la relazione di equivalenza è (1) (2) (x, (v, w)) ∼ (x, (gαβ (x)v, gαβ (x)w)) , ∀x ∈ Uαβ , v ∈ F1 , w ∈ F2 . Analogamente per il prodotto tensore, di fibra F1 ⊗ F2 , avremo ! a E1 ⊗M E2 = Uα × (F1 ⊗ F2 ) / ∼ , α dove la relazione di equivalenza è l’estensione lineare di (1) (2) (x, v ⊗ w) ∼ (x, gαβ (x)v ⊗ gαβ (x)w) , ∀x ∈ Uαβ , v ∈ F1 , w ∈ F2 . È ovvio come tali definizioni si estendano al caso di un numero arbitrario di fibrati. π 11.1.10 Duale di un fibrato vettoriale. Dato un fibrato vettoriale E −→ M di fibra F si può costruire il suo duale E ∗ semplicemente sostituendo ogni fibra Ex ' F con il suo duale Ex∗ . Usando le funzioni di struttura come sopra, vediamo che ! a E∗ = Uα × (F ∗ ) /∼∗ , α dove ∼∗ è definita dalla rappresentazione controgradiente di GL(F ) su F ∗ . 11 STRUTTURE GEOMETRICHE 190 11.1.11 Fibrati principali. Finora abbiamo individuato il gruppo di struttura di un fibrato vettoriale con fibra F con il gruppo GL(F ). Tuttavia più in generale può accadere che le funzioni di incollamento abbiano valori in un sottogruppo G ⊂ GL(F ). L’importanza del ruolo del gruppo di struttura G nella costruzione dei fibrati vettoriali suggerisce di introdurre il seguente concetto. Un fibrato principale con gruppo di struttura G è una quadrupla {P, πM , M, G} (che in generale πM indicheremo semplicemente con P o con P −→ M ) dove P ed M sono due varietà differenziabili, πM : P → M un’applicazione differenziabile suriettiva, G un gruppo di Lie che agisce −1 liberamente a destra su P, preservando ciascuna fibra Px := πM (x) e l’azione è transitiva sulle fibre. Infine si richiede che esistano degli omeomorfismi locali che banalizzino localmente il fibrato e che siano compatibili con l’azione di G: −1 Φα : πM (Uα ) −→ Uα × G tale che Φα (Px ) = {x} × G, Φα (pg) = Φα (p)g dove (x, h)g := (x, hg) per x ∈ Uα e g, h ∈ G. In particolare dunque Px ' G e (Φβ Φ−1 α )(x, h) = (x, gαβ (x)h) per una mappa differenziabile gαβ : Uαβ → G. Poiché tali funzioni devono chiaramente soddisfare le relazioni di cociclo (si veda 11.1.1) come vedremo da un fibrato principale si può sempre costruire un fibrato vettoriale. Si noti che la richiesta che le Φα rispettino l’azione a destra impone che esso definisca essenzialmente un’azione a sinistra sulle fibre. In sostanza possiamo scrivere ! a P= Uα × G / ∼ , α dove (x, h) ∼ (x, gαβ (x)h) , ∀x ∈ Uαβ , h ∈ G . Un esempio di fibrato principale, di particolare importanza in relatività generale, è il fibrato dei riferimenti. Nota. Una sezione di un fibrato principale si dice globale se è ovunque ben definita. Allora un fibrato principale è banalizzabile se e solo se ammette almeno una sezione globale. 11.1.12 Il fibrato dei riferimenti. Il fibrato dei riferimenti può essere definito per ogni fibrato vettoriale. Tuttavia, per motivi di definitezza e per il significato che assume in relatività generale, ci concentriamo qui nel caso del fibrato tangente. Sia πM : T M −→ M il fibrato tangente a M . Ad ogni x ∈ M , anziché uno spazio vettoriale Tx M , si associ l’insieme dei riferimenti18 in Tx M , che denoteremo con Rx M . Rx M non è uno spazio vettoriale ma è 2 un sottoinsieme aperto di Rn e quindi una varietà dfferenziale n2 −dimensionale. Su di essa vi è un’azione19 libera e transitiva di GL(n, R) il quale risulta perciò isomorfo (come varietà) 18 19 cioè n-uple di vettori linearmente indipendenti, n = dimM , cioè una base ordinata a destra secondo le convenzioni in 1.2.4 11 STRUTTURE GEOMETRICHE 191 alla fibra stessa, una volta che si sia identificato un punto e ∈ Rx M con l’elemento neutro I ∈ GL(n, R). Sull’insieme a RM := Rp M , p∈M ` e le sue restrizioni RM |Uα := p∈Uα Rp M agli intorni delle carte locali (Uα , φα ), si vede che la precedente identificazione individua degli omeomorfismi locali −1 Ψα : πM (Uα ) ≡ RM |Uα −→ Uα × GL(n, R) , i quali danno a RM la struttura di una varietà differenziale ((n2 + n)−dimensionale). Qui πM è la proiezione naturale che associa x ∈ M ad ogni fibra Rx M . L’oggetto cosı̀ costruito si chiama il fibrato dei riferimenti su M . Esso è costituito da una quadrupla {RM, πM , M, GL(n, R)} dove RM ed M sono due varietà differenziabili, πM : RM → M un’applicazione differenziabile suriettiva e il gruppo di Lie GL(n, R) agisce liberamente e transitivamente a destra su RM preservando le fibre. 11.1.13 Fibrati vettoriali associati ad un fibrato principale. Sia P un fibrato principale di gruppo G e (ρ, F ) una rappresentazione di G sullo spazio vettoriale F (finito-dimensionale). Si può costruire un fibrato vettoriale π E E = P ×G F −→ M con gruppo di struttura G ponendo E = P ×ρ F := (P × F )/∼ρ , dove la relazione di equivalenza è data da (p, h) ∼ρ (pg, ρ(g −1 )v) , ∀p ∈ P, g ∈ G, v ∈ F . Se con ∼P indichiamo la relazione di equivalenza che definisce P, abbiamo ! ! a E= Uα × G / ∼P ×ρ F . α Dunque se (x, h, v)((x, h), v) è un rappresentante di un punto di E e se gαβ sono le funzioni di transizione di P, si ha (x, h, v) ∼ρ (x, e, ρ(h)v) ∼P (x, gαβ (x), ρ(h)v) ∼ρ (x, e, ρ(gαβ (x))ρ(h)v) , dove e è l’identità del gruppo. Poiché la mappa v 7−→ (e, v) definisce un isomorfismo tra G ×ρ V e V , possiamo scrivere la catena di equivalenze nella forma (dove in questo caso particolare w ' (e, w) ' (h, v)) (x, w) ∼E (x, ρ(gαβ (x))w) , 11 STRUTTURE GEOMETRICHE 192 cosicché ! E= a Uα × F / ∼E . α In altre parole, se gαβ sono le funzioni di transizione di P, allora le funzioni di transizione del fibrato vettoriale associato sono le ρ(gαβ ). 11.1.14 Esempio. Il fibrato tangente. Il fibrato tangente è il fibrato vettoriale associato al fibrato dei riferimenti, dove V = Rn (n = dim(M )) e se A è una matrice di GL(n, R) allora ρ(A) agisce su Rn semplicemente con l’usuale prodotto riga per colonna della matrice A per i vettori colonna di Rn . Infatti possiamo costruire esplicitamente la mappa che lega il fibrato dei riferimenti al fibrato tangente n Φ : R × R −→ T M , (r, v) 7−→ n X fi ai ∈ Tx M , i=1 dove r = (f1 (x), . . . , fn (x)) ∈ Rx è un riferimento in x e v = (a1 , . . . , an ) ∈ Rn una n-upla reale. Il gruppo GL(n, R) agisce a destra sui riferimenti in modo che se A ∈ GL(n, R), allora RA r = r̃ = (f˜1 , . . . , f˜n ) , f˜i = n X fj Aji . j=1 Allora ρ(A−1 ) è la matrice inversa di A che agisce a destra nella trasformazione dei riferimenti, cioè n X −1 1 n i ρ(A )v = ṽ = (ã , . . . , ã ), ã = (A−1 )ij aj . j=1 Infatti in tal modo gli elementi (r, v) e (r̃, ṽ), che sono ρ equivalenti, vengono mappati nello stesso elemento di T M : Φ(r̃, ṽ) = n X n X n X i=1 j=1 k=1 fi Aij (A−1 )jk ak = n X n X i=1 k=1 fi δik ak = n X fi ai = Φ(r, v) . i=1 Questo, oltre a mostrare esplicitamente come il fibrato vettoriale venga realizzato tramite le classi di equivalenza, mette in evidenza come in pratica la relazione tra fibrato principale e fibrato vettoriale sia una generalizzazione della relazione tra vettori, componenti e basi descritta nel capitolo 1. Il fibrato cotangente si ottiene allo stesso modo sostituendo a ρ la sua rappresentazione controgradiente. Più in generale si può usare 3.1 per definire i fibrati tensoriali. 11.1.15 Osservazioni. Si può generalizzare ulteriormente il concetto di fibrato. Ciò che occorre sono • tre varietà differenziabili E, M, F con dim(E) = dim(M )+dim(F ), dette rispettivamente spazio totale, base e fibra di riferimento; 11 STRUTTURE GEOMETRICHE 193 E • una mappa differenziabile suriettiva πM : E → M; • associata ad un atlante {(Uα , φα )}α∈A di M , una famiglia di omeomorfismi locali ΨE α : E −1 (πM ) (Uα ) → Uα × F ; E −1 • un gruppo di struttura G che agisce su F e tale cioè che ΨE β ◦ (Ψα ) ((p, f )) = (p, gαβ f ) se p ∈ Uα ∩ Uβ e f ∈ F mentre gαβ ∈ G. Si definisce cosı̀ un fibrato differenziale E su M con fibra F e gruppo di struttura G. Si noti ancora una volta che le funzioni di incollamento gαβ devono soddisfare le condizioni di cociclo −1 gαβ = gβα , gαβ gβγ gγα = idUαβγ , essendo Uαβγ = Uα ∩ Uβ ∩ Uγ . Tutte le precedenti definizioni sono casi particolari di questa, dove in particolare F = G nel caso di un fibrato principale. Si vede inoltre facilmente che ogni fibrato sottende sempre un fibrato principale. Nella costruzione di tutti i possibili fibrati, la fibra non ha quindi particolare importanza dato che tutti i fibrati possono essere ricondotti al fibrato principale sotteso. Di qui la particolare importanza dei fibrati principali: per classificare tutti i fibrati differenziali su una varietà è sufficiente classificarne i possibili fibrati principali. 11.1.16 Esempio: fibrati sulla sfera. Se consideriamo M = S n , la sfera n-dimensionale con l’usuale struttura differenziale individuata ad esempio dall’immersione in Rn+1 , come noto si può utilizzare un atlante costituito da due sole carte locali, diciamo una che copre l’emisfero boreale S+ = {x = (x0 , . . . , xn ) ∈ Rn+1 |x · x = 1, x0 > −} , e l’altra che copre l’emisfero australe S− = {x = (x0 , . . . , xn ) ∈ Rn+1 |x · x = 1, x0 < } , che si intersecano in un intorno (piccolo a piacere) della sfera equatoriale Se = S+ ∩ S− = S n−1 . Ogni fibrato sulla sfera è quindi individuato da una sola funzione di transizione, essenzialmente ge : Se −→ GL(n, R). Per classificare tutti i fibrati (o meglio le loro classi di equivalenza) sulla sfera S n , occorre classificare le mappe S n−1 −→ GL(n, R) (o meglio le loro classi di omotopia). 11.1.17 Osservazione. Notiamo infine che può essere utile talvolta utilizzare la seguente 11 STRUTTURE GEOMETRICHE 194 π raffigurazione pittorica per un fibrato E :−→ M con fibra F Fibrato differenziale E F ξ s ψ s I v = ψ(ξ) Ex π H s M x = π(ξ) 11.2 Geometria e gruppi di Lie Vediamo alcuni aspetti della geometria dei gruppi di Lie dal punto di vista delle varietà differenziali. Sia dunque G un gruppo di Lie n−dimensionale. 11.2.1 La 1−forma di Cartan. Come si è visto in 5.2.1 su G è definita una mappa Lg di traslazione a sinistra, che permette di definire l’algebra di Lie associata al gruppo come l’algebra dei campi vettoriali invarianti a sinistra ed identificarla con lo spazio tangente all’identità. Una base di campi vettoriali invarianti a sinistra è data da {χi }ni=1 dove χi |g = Lg ∗ τi , essendo τi gli elementi di una base di Te G. Similmente se µj individuano la base duale di Te∗ G, µi (τj ) = δji , allora la base delle 1−forme invarianti a sinistra (canonicamente duale a quella dei campi) è data da J i |g = L∗g−1 (µi ). Si definisce allora la forma di Cartan J := τi J i , che per costruzione è dunque una 1−forma a valori nell’algebra di Lie che risulta essere invariante a sinistra. Poiché i τ si possono identificare con χi si vede che la forma di Cartan agisce come l’identità sui campi invarianti a sinistra. In particolare dunque J è indipendente dalla scelta della base τi . Infine è un utile esercizio la dimostrazione della importante proprietà Rg∗ J = Ad(g −1 ) ◦ J. 11.2.2 La forma di Killing. Sull’algebra di Lie g si definisce una forma bilineare K : g × g → C, detta forma di Killing, tramite la relazione K(a, b) = T r(ad(a)ad(b)) per ogni a, b ∈ g, dove T r indica la traccia. Essa soddisfa le proprietà di simmetria K(a, b) = K(b, a) e di ad-invarianza K([a, b], c) = K(a, [b, c]), che segue facilmente dalle identità di Jacobi. Posto 11 STRUTTURE GEOMETRICHE 195 Kij = K(τi , τj ) si può scrivere K = Kij µi ⊗ µj . La forma di Killing si estende facilmente ad una forma bilineare simmetrica ad-invariante KG ∈ T ∗ G ⊗S T ∗ G := Sym2 (T ∗ G) tramite pull-back: KG |g = L∗g−1 K. Dunque KG = T r(ad(J) ⊗ ad(J)) = Kij J i ⊗ J j è invariante a sinistra. Si noti che scelta una base τj dell’algebra, con costanti di struttura cjk l e con base duale µj , si ha Kij = T r(ad(τi ) ◦ ad(τj )) = n X l µ ((ad(τi ) ◦ ad(τj ))(τl )) = l=1 = n X n X µl ([τi , cjl k τk ]) l,k=1 cil k cjks µl (τs ) , l,k,s=1 sicché, adottando la convenzione di Einstein, Kij = cil k cjkl . Inoltre la condizione di adinvarianza assume la forma cij l Klk = −cik l Klj che equivale a dire che i coefficienti cijk := cij l Klk sono completamente antisimmetrici negli indici. 11.2.3 L’equazione di Maurer-Cartan. Vogliamo calcolare d1 J ovvero d1 J i . Poiché le J i sono invarianti a sinistra e, come si dimostra facilmente, l’operatore di derivazione esterna commuta con il pull-back, le due forme d1 J i saranno anch’esse invarianti a sinistra. Per determinarle è dunque sufficiente valutarle sulla base χj di campi invarianti a sinistra. Utilizzando la formula di Cartan in 4.5.8 e il fatto che J i (χj ) = δji , si ottiene dJ i (χj , χk ) = −J i ([χj , χk ]) = −cjkl J i (χk ) = −cjki , essendo cjkl le costanti di struttura dell’algebra nella data base: [τj , τk ] = cjk l τl . Segue che dJ = 21 J j ∧ J k cjk l τl , che si trova talvolta scritta nella forma 1 dJ + [J, J] = 0 2 dove si intende convenzionalmente che per due 1-forme J, K a valori in un’algebra di Lie [J, K](χ, ξ) := [J(χ), K(ξ)] − [J(ξ), K(χ)] , cosicché [J, J] := [τi , τj ]J i ∧ J j . 11.2.4 Forma di Killing per gruppi semisemplici. Si dimostra che K è non degenere se e soltanto se l’algebra g è semisemplice. Ricordiamo che nondegenere significa che K(a, b) = 0 ∀b ∈ g implica a = 0 (l’analogo scambiando a con b segue dalla simmetria), che equivale a det Kij 6= 0. Dimostriamo che se K non è degenere allora g è semisemplice. Per assurdo sia I ⊂ g un ideale 11 STRUTTURE GEOMETRICHE 196 abeliano non banale. Allora K(I, g) = 0 cioè K(i, a) = 0 per ogni i ∈ I,P a ∈ g. Infatti, scelta j la base τi di g e la sua duale µ , sia ha K(i, a) = T r(ad(i) ◦ ad(a)) = nl=1 µl ([i, [a, τl ]]). Se s = dim(I) allora scegliamo la base τi in modo che i primi elementi generino I. Perciò K(i, a) = s X l µ ([i, [a, τl ]]) + l=1 n X µl ([i, [a, τl ]]) = 0 , l=s+1 dato che nella prima sommatoria [a, τl ] ∈ I ha parentesi nulle con i (essendo I abeliano) mentre nella seconda sommatoria µl è valutato su I, ma l > s. In particolare dunque KG è nondegenere per i gruppi semisemplici. Se l’algebra di Lie è reale, allora K definisce una metrica con segnatura, che è euclidea nel caso si tratti di una forma compatta. Una metrica invariante a sinistra sul gruppo è perciò ds2 = κKG , essendo κ una costante di normalizzazione. 11.2.5 Esempio. Il caso dei gruppi matriciali. Consideriamo il caso in cui G sia un sottogruppo di Lie di GL(N, C). Sia (U, ψ) una carta locale contenente l’identità e = ψ −1 (0). Posto V := ψ(U ) ∈ Rn , dove n = dim(G), indichiamo con g(x) = ψ −1 (x) il generico punto di U e sia θ(x) := g(x)−1 dg. Si tratta di una 1−forma su V con le seguenti proprietà di immediata verifica: • θ(0) : T0 V → Te G ' g; • se hg(x) ∈ U allora (Lh ◦ ψ −1 )∗ θ = θ; • θ(0)(∂/∂xj ) = ψ∗−1 (∂/∂xj ). Ne segue che φ := ψ ∗ θ è una 1−forma U con le proprietà • φ(e) : Te U → Te G ' g; • se hg ∈ U allora (Lh )∗ φ = φ, cioè è invariante a sinistra; • φ(e)(τi ) = θ(0)(ψ∗ (τi )) = τi , cosicché φ = J|θ è la restrizione a U della forma di Cartan. Per i gruppi matriciali si ha quindi una costruzione semplice della forma di Cartan che si indica semplicemente con J = g −1 dg. Essa permette anche una deduzione elementare dell’equazione di Maurer-Cartan. Poiché g −1 · g = e, si trova che dg −1 = −g −1 · dg · g −1 , da cui segue immediatamente che dJ = −J ∧ J. D’altra parte, posto J = J i τi , usando l’antisimmetria del prodotto esterno, si ha J ∧ J = τi τj J i ∧ J j = 1 [τ τ − τj τi ]J i ∧ J j = 21 [τi , τj ]J i ∧ J j , che porta all’equazione di Maurer-Cartan. 2 i j 11.2.6 Esempio. SU (2). È il gruppo delle matrici 2 × 2 unitarie, U U † = U † U = 1, con det U = 1. Il differenziale di queste relazioni mostra che l’algebra consiste delle matrici antihermitiane di traccia nulla. Una base conveniente è data dalle τi = −iσi , i = 1, 2, 3 con 0 1 0 −i 1 0 σ1 = , σ2 = , σ3 = . 1 0 i 0 0 −1 11 STRUTTURE GEOMETRICHE 197 Le costanti di struttura sono cij l = 2ijl , cioè due volte il tensore di Levi-Civita. La metrica di Killing è perciò Kij = cik l cil k = −8δij . È definita negativa ed in particolare nondegenere, conseguenza della semplicità di su(2). Per individuare l’elemento generico di SU (2) si può adoperare la parametrizzazione di Eulero g(φ, θ, ψ) = eφσ3 eθσ2 eψσ3 dove φ ∈ [0, π[, θ ∈ [0, π/2[, ψ ∈ [0, 2π[. Allora si trova per la forma di Cartan20 J = g −1 dg = [− cos(2ψ) sin(2θ)dφ + sin(2ψ)dθ]σ1 + [sin(2ψ) sin(2θ)dφ + cos(2ψ)dθ]σ2 +[dψ + cos(2θ)dφ]σ3 , e quindi per la forma di Killing sul gruppo21 KG = −8[dφ2 + dθ2 + dψ 2 + 2 cos(2θ)dφdψ] . 11.2.7 Misura invariante su gruppi semisemplici. In Rn si può definire una misura di Lebesgue dµ(x) = dx1 · . . . · dxn . Sia (M, γ) una varietà dotata di una metrica γ. Scegliamo una carta locale (U, φ) con coordinate x. Si definisce allora una misura τ su U nel seguente modo: poiché φ è un omeomorfismo, allora V ⊂ U sarà misurabile se lo è φ(V ) e poniamo Z p | det γ̃|dµφ (x) , τ (V ) = φ(V ) p ∗ . Essa è ben definito poiché | det γ̃|dµφ (x) non dipende dalla scelta delle dove γ̃ := φ−1p coordinate22 e | det γ̃| è strettamente positivo su φ(U ). Inoltre può essere estesa a tutta M tramite una partizione dell’unità. Consideriamo allora il caso di un gruppo semisemplice reale. Su di esso la metrica invariante dà origine ad una misura invariante. Infatti sia V ⊂ Z e Lg V ⊂ U , dove (Z, ψ) è una seconda carta locale di coordinate y. Allora Z Z q q ∗ | det φ−1 (KG )|dµφ (x) = | det ψ −1 ∗ ◦ L∗g−1 (KG )|dµψ (y) τ (Lg V ) = ψ(V ) φ(Lg V ) Z q = | det ψ −1 ∗ (KG )|dµψ (y) = τ (V ) . ψ(V ) Giustificazione della misura: in un dato punto è sempre possibile scegliere delle coordinate ortogonali per le quali cioè il tensore metrico γ = gij dxi dxj è diagonale. Se in tale sistema consideriamo le curve coordinate infinitesime δxi , ciascuna ottenuta variando di p ∆xi la corrispondente coordinata, esse individuano un cubetto i cui lati sono lunghi |δxi | = |gii |∆xi e 20 come d’uso omettiamo di mettere in evidenza il fatto che in realtà stiamo esprimendo le seguenti quantità in coordinate locali 21 usiamo la notazione dx2 := dx ⊗ dx e dxdy := dx ⊗S dy = 12 (dx ⊗ dy + dy ⊗ dx) 22 verificare! 11 STRUTTURE GEOMETRICHE 198 p Q che ha dunque volume | det g| ni=1 ∆xi . Se sul gruppo usiamo la metrica γ = κKG , allora si ha gij dxi dxj = κKij J i ⊗ J j = κKlm Jil Jjm dxi dxj , p p da cui |detgij | = |κ det Kij || det Jji |. La determinazione della misura invariante sul gruppo si riduce allora essenzialmente al calcolo del determinante della matrice Jji . 11.2.8 Esempio. La misura invariante per SU (2). La matrice associata alla forma di Cartan è − cos(2ψ) sin(2θ) sin(2ψ) 0 Jli = sin(2ψ) sin(2θ) cos(2ψ) 0 , cos(2θ) 0 1 e quindi | det Jli | = sin(2θ), che determina l’intera misura se scegliamo ad esempio κ = − 81 . Si noti che in questo caso il calcolo della misura si poteva fare direttamente partendo da KG . Tuttavia nel caso generale le difficoltà tecniche diventano tali che il calcolo di KG è praticamente impossibile mentre il calcolo di J e del suo determinante sono ancora fattibili. 11.3 Connessioni Dato un fibrato differenziale (E, π, M, G, F ) ha senso introdurre il concetto di campi su M a valori nello spazio vettoriale F . Si tratterà delle sezioni ψ ∈ Γ(M ; E), cioè le mappe ψ : M −→ E , π ◦ ψ = idM . Nasce allora la necessità di introdurre il concetto di derivazione di un tale campo, che estenda quello delle usuali funzioni, e che ammetta però l’interpretazione di confronto tra i valori del campo in punti vicini. La difficoltà principale è insita nel fatto che ψ(x) ∈ π −1 (x) e ψ(y) ∈ π −1 (y) per x 6= y appartengono a due spazi vettoriali isomorfi ma distinti e perciò la loro differenza non ha alcun significato. Per poter confrontare i due vettori ψ(x) e ψ(y) occorre in qualche modo trovare il modo di trasportare uno dei due vettori nello spazio vettoriale dell’altro. Bisogna perciò in qualche modo connettere i due spazi vettoriali e una volta che si sia stabilita una tale connessione si può pensare di trasportare uno dei due vettori da uno spazio vettoriale all’altro. Un tale trasporto viene detto anche trasporto parallelo. 11.3.1 Esempio. Spazi affini. Consideriamo il caso in cui M sia uno spazio affine n−dimensionale reale. Come varietà differenziale M ' Rn . Consideriamo un campo vettoriale ψ ∈ X (M ) = Γ(M, T M ). In questo caso si ha T M ' M × Rn ' R2n . Fissato un punto x ∈ M , si ha l’isomorfismo naturale TxM ' Rn . In pratica, possiamo pensare pittoricamente a Tx M come all’insieme dei vettori che spiccano da x e terminano nei punti y di M . Usando le proprietà dello spazio affine, dati i punti x, y ∈ M c’è un modo naturale di trasportare il vettore ψ(y) in x. Infatti se ψ(y) = z − y per qualche z ∈ M , sia w = x + (z − y). In pratica x, y, z, w sono i vertici di un parallelogramma. Possiamo allora pensare a w − x come al trasporto parallelo di ψ(y) in x. 11 STRUTTURE GEOMETRICHE 199 Conviene vedere la regola di trasporto che abbiamo assegnato dal punto di vista del fibrato. Scriviamo T M ' Rn(1) × Rn(2) e vediamo i due fattori del prodotto come se fossero ascisse ed ordinate: le ascisse individuano i punti di M ' Rn(1) . L’iperpiano individuato da un fissato valore delle ascisse rappresenta la fibra nel dato punto. Posto ψ(y) = (y, v) il suo trasporto in x è semplicemente (x, v). In altre parole la regola stabilita è la seguente: quando ci si sposta da y in x, lungo una qualche curva γ (γ(0) = y, γ(1) = x), corrispondentemente il punto in T M si sposta nell’iperpiano (Rn(1) , v) lungo la curva (γ, v). Questo modo di eseguire il trasporto è banale, ma è reso possibile dal fatto che il fibrato è banale. Poiché T M ' M × Rn possiamo trasformare una curva γ in M in una curva γ̃ = (γ, v) in T M ed usarla per eseguire il trasporto: il punto iniziale è quello da trasportare mentre quello finale è il risultato del trasporto lungo la curva. Per fibrati non banali non è possibile associare alla curva γ ∈ M una curva γ̃ ∈ T M che determini il trasporto, in modo altrettanto naturale. Osserviamo inoltre che per Rn la curva non sembra giocare in realtà nessun ruolo, mentre si vede facilmente che il trasporto dipende decisamente dalla curva nei casi non banali. 11.3.2 Esempio. Connessioni metriche su S 2 . Naturalmente possiamo pensare S 2 immerso in R3 per cui T S 2 ⊂ R3 × R3 , dove R3 è dotato della metrica euclidea. Questa metrica induce una metrica su S 2 , con la quale si possono misurare le lunghezze e gli angoli tra i vettori tangenti in un punto della sfera. Un trasporto parallelo che conserva tali angoli si dice essere indotto da una connessione metrica. Comunque una volta fissata una metrica la connessione metrica non è univoca poiché occorre caratterizzare anche le curve rispetto alle quali l’angolo viene conservato. Per chiarire questo punto nel caso di una sfera esiste una rappresentazione pittorica. Connessione di Levi-Civita Sia v ∈ Tp S 2 il vettore da trasportare sulla sfera. Possiamo supporre che p sia il polo sud e Tp S 2 sia un piano sul quale la sfera è appoggiata. Identificando il piano con lo spazio affine R2 possiamo spostare parallelamente il vettore v ovunque e quindi immaginare che in ogni suo punto vi sia un vettore parallelo a v. Supponiamo di far rotolare la sfera sul piano. La regola è che non ruoti mai su sè stessa attorno al punto d’appoggio. Allora man mano che rotola il punto d’appoggio traccia sulla sfera un arco diametrale che mantiene sempre lo stesso angolo rispetto ai vettori fissati sul piano. Se la fermiamo, essa si appoggerà nel punto q (sull’arco massimo) e possiamo identificare il piano con Tq S 2 . Il vettore in q parallelo a v (sul piano!) può allora essere identificato con il trasporto parallelo di v in q. Si noti che il vettore unitario tangente alla curva in ogni punto coincide con il trasporto parallelo del vettore unitario tangente in p lungo la curva. Si dice che tale curva è autoparallela. Se vogliamo trasportare lo stesso vettore v lungo una curva arbitraria sulla sfera, potremo disegnare la curva sulla sfera, e farla rotolare in modo che poggi sul piano sempre con i punti segnati dalla curva senza mai ruotare rispetto all’asse verticale. Il vettore unitario tangente alla sfera lungo la curva arbitraria non coincide con il trasporto parallelo del vettore unitario tangente alla curva in p. Se introduciamo delle coordinate locali xα e se nel punto fissato consideriamo uno spostamento cosı̀ breve da essere considerato rettilineo, allora nello spostamento lungo il 11 STRUTTURE GEOMETRICHE 200 trattino di curva dγ, il vettore v = v α ∂x∂α resterà invariato e, se l è la lunghezza d’arco che α parametrizza la curva, avremo dvdl = o(dl), cioè si annulla a meno di termini di ordine (dl)2 , essendo dl la lunghezza infinitesima del trattino. Connessione metrica con torsione Possiamo usare la stessa rappresentazione per introdurre un trasporto parallelo più complicato. Si faccia rotolare la sfera accompagnando il suo movimento con una leggera rotazione attorno al punto d’appoggio, proporzionale di volta in volta allo spostamento (vettoriale) infinitesimo della sfera, in particolare se è ferma non ruota su sè stessa, ed eventualmente dipendente dal punto di appoggio. Se in tali circostanze si vuole che il vettore tangente alla sfera sia trasportato parallelamente, otterremo una curva in generale diversa da una curva diametrale. Sicché anche questo trasporto è indotto da una connessione metrica, tuttavia è differente dal precedente poiché si distingue per le curve autoparallele. α Lungo una curva arbitraria, con le stesse convenzioni del caso precedente, avremo dvdl = dγ β Kβαγ v γ + o(dl), dove δRα γ = dγ β Kβαγ è la matrice di rotazione infinitesima secondo la suddetta regola. Nel dato punto, l’oggetto a tre indici Kβαγ , che ovviamente dipende dal punto e che in funzione della direzione β fornisce la velocità di rotazione della sfera rispetto alla lunghezza d’arco di spostamento, definisce dunque un tensore detto contorsione. In questo caso si parla di trasporto parallelo indotto da una connessione metrica con torsione. Da questi esempi si vede che per determinare un trasporto parallelo occorre assegnare una α regola che esprima dvdl in funzione di v stesso e della curva considerata. Come osservato in 11.3.1 in effetti il problema di determinare il trasporto parallelo può essere tradotto in quello di associare opportunamente alla curva γ una curva γ̃(l) = (γ(l), v(l)) ∈ T M . Il vettore tangente ∈ Tγ̃ (T M ). Ora il vettore da trasportare giace sulla a tale curva in ogni punto sarà allora dγ̃ dl fibra Tγ(l) M e quindi, essendo Tγ̃(l) (Tγ(l) M ) naturalmente contenuto come sottospazio vettoriale in Tγ̃ (T M ), euristicamente possiamo dire che la velocità di variazione del vettore nel trasporto, dv non è altro che la proiezione di dγ̃ sul sottospazio Tγ̃(l) (Tγ(l) M ). Si dice anche che ne è la dl dl componente verticale. Spazi orizzontali E H0 H F 0 N Ṽ l l l l ξ l l s I l % l l V ∈ Tξ E Ṽ ≡ 0 l l l l Ex π H s x = π(ξ) M 11 STRUTTURE GEOMETRICHE 201 Tuttavia, come si vede dal disegno, questa interpretazione diventa significativa solamente se è possibile la determinazione anche di una componente orizzontale che in pratica fornisce l’immersione di Tγ M in Tγ̃ (T M ) come spazio degli spostamenti da una fibra all’altra, che non è affatto naturale. In altre parole è necessario assegnare ad ogni punto ξ ∈ T M una spazio orizzontale n−dimensionale Hξ che determini una decomposizione diretta Tξ (T M ) ' TπM (ξ) M ⊕ Hξ . Si noti infatti che l’individuazione di un sottospazio vettoriale di uno spazio V non è sufficiente a determinare una decomposizione diretta. Nel disegno vediamo che fissato un vettore V ∈ Tξ E, la sua componente verticale Ṽ lungo la fibra Ex non è determinata univocamente dalla conoscenza di Tξ Ex . Occorre specificare anche lo spazio orizzontale! Se scegiamo H come spazio orizzontale allora in particolare V è orizzontale e la sua componente lungo lo spazio tangente alla fibra è nulla. Se invece scegliamo H0 allora V non è più orizzontale ed ha una componente verticale non nulla. Si noti inoltre che invece che per un vettore, come ad esempio Ṽ 0 , la caratteristica di essere verticale, cioè tale che π∗ Ṽ 0 = 0, non dipende dalla scelta di uno spazio orizzontale. 11.3.3 Distribuzioni involutive [KN]. Data una varietà M di dimensione n, si chiama distribuzione d-dimensionale Σ su M l’assegnazione di un sottospazio d-dimensionale Σx ⊂ Tx M ad ogni punto x ∈ M . Si dice che Σ è differenziabile se per ogni x esiste un intorno aperto U ⊂ M di x e d campi vettoriali differenziabili ξi ∈ X (U ), i = 1, . . . , d tali che {ξi (y)}di=1 siano una base di Σy per ogni y ∈ U . Dato un campo vettoriale ξ ∈ X , si dice che ξ appartiene a Σ se ξ(x) ∈ Σx per ogni x ∈ M . Infine si dice che Σ è una distribuzione involutiva se la parentesi di Lie di due campi in Σ è ancora in Σ. Sia dunque M dotato di una distribuzione Σ e sia S una sottovarietà connessa di M e i : S ,→ M la sua immersione in M . Si dice che S è una varietà integrale per Σ se i∗ (Tx S) = Σx per ogni x ∈ S. Si dice che S è massimale se non ci sono varietà integrali per Σ che la contengono. L’esistenza di una varietà integrale massimale è sempre garantita per distribuzioni differenziabili involutive, si veda 11.5.1. E 11.3.4 Connessione su un fibrato differenziale. Sia (E, πM , M, F, G) un fibrato differenziale su una varietà n−dimensionale M e fibra F . Si chiama connessione una distribuzione differenziabile su E che assegni ad ogni punto ξ ∈ E un sottospazio orizzontale n−dimensionale Hξ di Tξ E, dove per orizzontale si intende trasversale alla fibra (che per convenzione si dice essere verticale) cioè tale per cui E (ξ) ⊕ Hξ . Tξ E ' Tξ FπM E In pratica significa che la proiezione di πM : E → M induce un isomorfismo tra Hξ e Tx M , E dove x = πM (ξ). 11.3.5 Trasporto parallelo. Una connessione determina allora un trasporto parallelo locale E nel seguente modo: sia ξ0 ∈ Ep (con p = πM (ξ0 )) il punto della fibra da trasportare lungo 11 STRUTTURE GEOMETRICHE 202 la curva γ : R → M , γ(0) = p. Sia poi > 0 sufficientemente piccolo perché la curva E −1 ristretta a I := (−, ) non si autointersechi. Allora ∆ = πM (γ(I ) definisce un fibrato su δ := γ(I ), con le stesse fibre di E. In particolare Tξ ∆ ⊂ Tξ E è un sottospazio lineare per il quale la decomposizione stabilita dalla connessione induce una analoga decomposizione E (ξ) ⊕hξ , dove hξ è un sottospazio unidimensionale ∀ξ ∈ ∆. Dunque hξ individua un Tξ ∆ ' Tξ FπM campo di direzioni preferenziali in T ∆. Esiste quindi un’unica curva γ̃ : I −→ ∆, univocamente determinata dalla curva integrale definita dal campo di direzioni e passante per ξ0 (si veda 4.5.4). Il fatto che il trasporto ottenuto sia solamente locale è dovuto al fatto che si tratta di un problema di Cauchy di cui è garantita solamente l’esistenza e unicità locale, mentre può capitare che nel prolungamento la curva γ̃ vada all’infinito lungo le fibre23 . I casi interessanti sono quelli in cui è garantita l’esistenza globale. La curva γ̃ cosı̀ univocamente determinata si chiama sollevamento orizzontale di γ e definisce il trasporto parallelo del vettore in modo ovvio: γ̃(1) ∈ Tγ(1) M è il trasporto parallelo di γ̃(0) = ξ0 ∈ Fp in Tγ(1) M lungo il cammino γ. Se il cammino è chiuso allora γ(1) = γ(0), ma in generale γ̃(1) 6= γ̃(0). Il trasporto parallelo lungo i cammini chiusi definisce un automorfismo della fibra. Se tale automorfismo individua sempre un elemento del gruppo di trasformazioni G, si parla di G−connessione. Le G−connessioni hanno il vantaggio di poter essere definite passando attraverso il fibrato principale e sono sempre buone nel senso che garantiscono l’esistenza globale dei sollevamenti orizzontali. 11.3.6 Campi verticali e campi fondamentali. Sia E lo spazio totale di un fibrato π E → M . Una sezione ψ ∈ X (E) si dice campo verticale se (dπ)(ψ) = 0. Se si tratta di un fibrato principale E = P, allora si ha un’azione libera, e transitiva sulle fibre, R : G × P −→ P. Fissato p ∈ P, introduciamo l’applicazione fp : G −→ P , g 7−→ R(g, p) . Il differenziale di fp è una mappa che ad ogni elemento X ∈ Lie(G) associa un vettore verticale ξp (X) ∈ Tp P: (dfp )e : Te G = Lie(G) → Tp P X− 7 → ξp (X). Il campo ξ(X) ∈ X (P) cosı̀ ottenuto si chiama campo fondamentale associato a X. Il fatto che l’azione di G sia libera e transitiva implica il fatto importante che ad ogni vettore verticale χ ∈ Tp P corrisponde un unico X ∈ Lie(G) tale che ξp (X) = χ. In generale dunque parlando di campi verticali su un fibrato principale intenderemo i campi fondamentali associati. 11.3.7 Connessione infinitesima. L’idea di come costruire una connessione su un fibrato vettoriale π : E −→ M è piuttosto semplice. Dato un vettore ψ ∈ Tξ E, si può stabilire in modo naturale se sia verticale, ovvero se ‘giace lungo le fibre’: ciò avviene se π∗ ψ = 0. Tuttavia in generale non è possibile scomporre il vettore ψ in componente orizzontale e componente verticale, a meno che in ogni punto ξ ∈ E non sia assegnata una scomposizione Tξ E ' Tξ F ⊕ Hξ . Questo è infatti il ruolo della connessione. 23 il problema non si pone nel caso di fibre compatte per cui il teorema di esistenza e unicità è garantito globalmente 11 STRUTTURE GEOMETRICHE 203 D’altra parte una tale scomposizione definisce un operatore lineare ωξ : Tξ E → Tξ F che altro non è che il proiettore sulla Tξ F e che di ogni vettore ψ ∈ Tξ E ci dà la sua componente verticale. Se Hξ è una distribuzione differenziabile allora ωξ definisce una uno forma su E a valori in F ' Tξ F . Viceversa sia ωξ : Tξ E −→ Tξ F una mappa lineare suriettiva. Essa definisce allora una scomposizione Tξ E ' Tξ F ⊕ ker(ωξ ) . Se ωξ dipende in modo liscio da ξ allora otteniamo una connessione ponendo Hξ := ker(ωξ ). Si dice allora che ω è una connessione infinitesima su E. Data una connessione infinitesima ωE , il sollevamento orizzontale per ξ di una curva γ : R → M ˙ è la curva γ̃ : R → E che risolve l’equazione differenziale ωE (γ̃(t))[γ̃(t)] = 0, con γ̃(0) = ξ. Vale allora il seguente teorema. 11.3.8 Teorema. Sia π : E −→ M un fibrato vettoriale sul quale sia definita una connessione infinitesima ωE . Allora ωE definisce il trasporto parallelo delle fibre lungo ogni curva γ : [−, ] → M . 11.3.9 Connessione sui fibrati prodotto. Siano E1 ed E2 due fibrati vettoriali su M , ciascuno dotato di una connessione ci : T Ei −→ Hi Ei , i = 1, 2 dove Hi,ξ Ei è il sottospazio orizzontale di Tξ Ei , ξ ∈ Ei . Sia poi E = E1 ⊗M E2 il loro prodotto tensore. Allora le connessioni ci inducono una connessione c = c1 ⊗ c2 su E. Basta infatti osservare (esercizio) che T E ' T E1 ⊗T M T E2 , cosicché basta scegliere Hξ E := H1,ξ1 E1 ⊗T M H2,ξ2 E2 , cioè lo spazio orizzontale del prodotto tensore è il prodotto fibrato degli spazi orizzontali. 11.3.10 Connessione sul fibrato duale. In modo analogo la connessione c su un fibrato vettoriale E individua una connessione c∗ sul fibrato duale E ∗ : gli spazi orizzontali di T E ∗ sono semplicemente i duali degli spazi orizzontali di T E. È una buona definizione grazie al fatto che T E ∗ ' (T E)∗ (verificare). 11.3.11 G-connessioni sui fibrati principali. Spesso è conveniente considerare le connesπM sioni sui fibrati principali. Sia P −→ M un fibrato principale con gruppo G. Una connessione su P assegna in ogni punto ξ ∈ P una decomposizione Tξ P ' Tξ Px ⊕ Hξ ed una proiezione π : Tξ P → Tξ Px , π(Hξ ) = 0 dove si è posto x = πM (ξ). Si dice che è una G−connessione se la distribuzione di direzioni orizzontali è invariante a destra, cioè se Rg∗ (Hξ ) = HRg ξ . In particolare dunque Rg∗ commuta con la proiezione π. 11.3.12 Connessione infinitesima su un fibrato principale. Analogamente al caso dei fibrati vettoriali, si può costruire anche su P una connessione infinitesima. Si otterrà allora una uno forma su P che ad ogni campo χ ∈ X (P) associa la sua proiezione verticale. Dato che i campi verticali si identificano con quelli fondamentali, avremo allora che per ogni p ∈ P ωp : Tp P −→ Lie(G) . 11 STRUTTURE GEOMETRICHE 204 In altre parole se χ è un campo verticale allora ωp (χp ) = X, l’unico elemento di Lie(G) individuato dal campo fondamentale corrispondente. In più se la connessione su P è una G-connessione allora lasciamo come esercizio la verifica del fatto che Rg∗ ω = Ad(g −1 )(ω) per ogni g ∈ G, dove Rg come al solito indica l’azione a destra di G su P. Chiameremo questa una G-connessione infinitesima. In particolare possiamo dire che essenzialmente la restrizione di ω alle fibre si identifica con la forma di Cartan J su G. Si ricordi infatti che ogni fibra è isomorfa a G e le proprietà di J descritte in 11.2.1. In conclusione si chiama G-connessione infinitesima una 1−forma ω ∈ Ω(P) ⊗ Lie(G) con le proprietà 1. ω|Px = ψ ∗ J per ogni x ∈ M , e per ogni isomorfismo ψ : Px −→ G indotto da una banalizzazione locale. Ovviamente J è la forma di Cartan sul gruppo; 2. Rg∗ ω = Ad(g −1 )(ω) per ogni g ∈ G. Abbiamo dunque visto che una G−connessione definisce una connessione infinitesima. Ma è vero anche il contrario, dato che una connessione infinitesima ω grazie alla proprietà 1) individua una famiglia di direzioni orizzontali Hξ in ogni punto, che risulta essere invariante a destra in conseguenza alla proprietà 2). Non è difficile dimostrare che su ogni fibrato principale è sempre possibile determinare una connessione infinitesima ω e quindi una G−connessione. In sostanza è sufficiente costruirla su ogni banalizzazione locale di P e poi definirla su tutto P tramite una partizione dell’unità. Data ω, il sollevamento orizzontale per ξ di una curva γ : R → M è la ˙ curva γ̃ : R → P che risolve l’equazione differenziale ω(γ̃(t))[γ̃(t)] = 0, con γ̃(0) = ξ. 11.3.13 Teorema. Sia π : P −→ M un fibrato principale su M dotato di una connessione infinitesima ω. Allora ω definisce il trasporto parallelo delle fibre lungo ogni curva γ : [a, b] → M. 11.3.14 Connessioni infinitesime e fibrati associati. Vediamo infine il legame tra le connessioni infinitesime sui fibrati vettoriali e quelle sui fibrati principali. Ricordiamo che il legame tra un fibrato principale e quello vettoriale associato è E = P ×ρ F . Allora avremo T E = T P ×ρ∗ T F , sicché per un vettore nel punto [p, v] di E (con le parentesi quadre indichiamo la classe di equivalenza) (χp , wv ) ∼ ((Rg∗ (χ))Rg (p) , (ρ(g)∗ w)ρ(g)v ) , ∀χp ∈ Tp P , wv ∈ Tv F . Si noti che qui con ρ∗ non si intende la rappresentazione dell’algebra di Lie del gruppo di struttura, ma piuttosto l’azione di G su T F ottenuta differenziando la mappa ρg : F −→ F , v 7−→ ρ(g)v . Si noti inoltre che come sopra χ si identifica con un elemento di Lie(G) (si veda 11.3.6), come sottintenderemo qui di seguito. Sia ora ω una connessione infinitesima su P. Fissiamo un punto ξ ∈ E. In termini del fibrato principale potremo scrivere ξ = [p, v]. Un vettore Vξ ∈ Tξ E sarà allora individuato da una 11 STRUTTURE GEOMETRICHE 205 coppia (χp , wv ), che come sopra definisce una classe di equivalenza Vξ = [χp , wv ]. Infine si usi ρ̂ per indicare la rappresentazione di Lie(G) indotta da ρ. Allora ω induce su E la connessione infinitesima ωE |ξ ((χp , wv )) = ρ∗ (ωp (χp ))wv ∈ Tv F , cioè è definita dall’azione dell’elemento ωp (χp ) ∈ Lie(G) su T F . Per vedere che essa è ben definita occorre verificare che non dipende dalla scelta dei rappresentanti delle classi di equivalenza, cioè deve essere ρ∗ equivariante. Infatti se (χ0 , w0 ) = ((Rg∗ (χ))Rg (p) , (ρ(g)∗ w)ρ(g)v ) è un altro rappresentante in ξ = (Rg (p), ρ(g)v) ωE deve far corrispondere il vettore ρ(g)∗ ωE |ξ ((χp , wv )) ∈ Tρ(g)v F. Per capire meglio questo fatto, si osservi che la connessione infinitesima su E deve avere valore in Tξ F . Nella descrizione di E in termini di P ed F , si ha che i suoi punti sono determinati dalle coppie (p, v), cosicché Tξ F è descritto da Tv F . Tuttavia, per la precisione con Tξ F si intende la parte verticale di Tξ E, la quale dipende solamente da ξ e non dal rappresentante. Se cambiamo rappresentante per ξ, passando al rappresentante (p0 , v 0 ) = (pg, ρ(g)v), allora Tξ F sarà ora identificato con Tv0 F e la relazioni di equivalenza introdotte sopra richiedono l’dentificazione Tv0 F = ρ(g)∗ Tv F , che significa che i vettori w ∈ Tv F e ρ(g)∗ ∈ Tv0 F vanno identificati in Tξ F . Lasciamo come esercizio al lettore la dimostrazione del fatto che dunque ωE è ben definita se e solo se ω è una G-connessione. Viceversa, data una connessione su E si può determinare la connessione sul fibrato principale sottostante, imponendo la stessa relazione di cui sopra tra ωE ed ω. Si ottiene allora una G-connessione. 11.3.15 Osservazione. La costruzione testè data per la connessione infinitesima su E può sembrare piuttosto involuta. Infatti le notazioni e la definizione stessa di connessione infinitesima su E potrebbero essere alleggerite sfruttando l’isomorfismo naturale tra Tξ F ed F . Tuttavia, senza tali restrizioni, il formalismo qui utilizzato può resta valido per estensioni a fibrati più generali dei fibrati vettoriali. Si noti infatti che per un fibrato differenziale differenziale (in cui F è una varietà che ammette un’azione ρ di G) allora Tξ F è pur sempre uno spazio vettoriale (non più identificabile con F ) su cui G agisce tramite ρ∗ . 11.4 Derivate covarianti (connessioni di Koszul) Torniamo ora sul problema della definizione di una derivata covariante. 11.4.1 Derivata covariante (connessione di Koszul). Sia π : E → M un fibrato Kvettoriale su una varietà M . Sia Γ(M, E) il C ∞ (M )-modulo delle sezione globali di E (si ricodi che per s ∈ Γ(M, E) e f ∈ C ∞ (M ) la sezione globale f s ∈ Γ(M, E) è definita da (f s)(x) := f (x)s(x) ∈ Ex per x ∈ X). Sia Ωp (M, E) := Γ(M, (∧p M ) ⊗ E), 11 STRUTTURE GEOMETRICHE 206 il C ∞ -modulo delle p-forme differenziali a valori in E, cioè le sezioni globali del fibrato vettoriale (∧p M ) ⊗ E dove ∧p M è il fibrato delle p-forme su M . In particolare, Ω0 (M, E) = Γ(M, E). Una derivata covariante o conessione di Koszul su E è un’applicazione K-lineare ∇ : Γ(M, E) −→ Ω1 (M, E) = Γ(M, T ∗ M ⊗ E), con la proprietà (regola di Leibnitz) ∇(f ψ) = df ⊗ ψ + f ∇ψ, per ogni f ∈ C ∞ (M, K) e ψ ∈ Γ(M, E). In pratica, la derivata covariante ad ogni sezione del fibrato vettoriale associa una 1-forma a valori nello stesso fibrato. La valutazione della 1-forma ∇ψ su un campo vettoriale ξ ∈ X (M ) definisce la derivata covariante direzionale associata a ∇. 11.4.2 Motivazione. Sia π : E → M un fibrato vettoriale. Dato un campo di vettori X su M e una sezione liscia s : M → E del fibrato, vogliamo cercare di definire una derivata Xs di s tale che anche Xs sia una sezione del fibrato E. Si noti che per x ∈ M il differenziale (ds)x : Tx M −→ Ts(x) E permette di definere (ds)x (X(x)) ∈ Ts(x) E, mentre noi ora vogliamo ottenere un elemento di Ex . Se possibile, questo è collegato alla definizione di un trasporto parallello: dato un x ∈ M e un v ∈ Ex := π −1 (x), il suo trasporto parallelo sarà dato da una sezione s del fibrato in un intorno di x tale che s(x) = v e Xs = 0. Facciamo subito un primo tentativo: sia U ⊂ M un intorno di coordinate tale che il fibrato, indicato ancora con π, π : EU := π −1 U −→ U , sia banale ∼ = Ψ : EU −→ U × Rn con Ψ un isomorfismo di fibrati. Allora le sezioni lisce s : U → EU corrisponderanno alle mappe lisce e : U → Rn nel modo seguente: (Ψ ◦ s)(x) = (x, e(x)) (∈ U × Rn ). P Un campo di vettori X su U si scrive come X = i ai (∂/∂xi ) dove le xi sono le coordinate su U e ai ∈ C ∞ (U ). Allora si potrebbe definire una sezione Xs : U −→ EU , (Xs)(x) := Ψ−1 (x, (Xe)(x)), dove e = (e1 , . . . , en ) con ei ∈ C ∞ (U ) e X(e) = (X(e1 ), . . . , X(en )). Un problema di questa definizione è che X(s) dipende in modo essenziale dall’isomorfismo Ψ. Considerando un isomorfismo Ψ2 : EU → U × Rn si ha (Ψ2 Ψ−1 )(x, e(x)) = (x, g(x)e(x)) per un’applicazione liscia 11 STRUTTURE GEOMETRICHE 207 g : U → GLn (R), e la regola di Leibnitz applicata a X(ge) mostra che in generale non vale la relazione X(ge)(x) = g(x)(Xe)(x). Quindi questa definizione di Xs dipende dalla scelta di Ψ. È meglio dunque definire in modo globale tali ‘derivate di sezioni’ e poi studiare come si può calcolarle localmente. 11.4.3 Derivata covariante direzionale. Sia ∇ una connessione di Koszul su E e sia X ∈ X (M ) un campo di vettori su M . Allora definiamo un’applicazione, detta derivata covariante direzionale, ∇X : Γ(M, E) −→ Γ(M, E), ψ 7−→ ∇(ψ)(X), cioè si usa la contrazione Ω1 (M ) = Γ(M, ∧1 M ) → C ∞ (M ) data da ω 7→ ω(X), per passare da ∇(ψ) ∈ Γ(M, (∧1 M ) ⊗ E) a ∇(ψ)(X) ∈ Γ(M, E). La derivata direzionale ha le seguenti proprietà: ∇X (f ψ) = (f ∇(ψ) + (df ) ⊗ ψ)(X) = f ∇X ψ + X(f )ψ, detta regola di Leibnitz. In più si ha ∇f X+gY (ψ) = f ∇X (ψ) + g∇Y (ψ) per ψ ∈ Γ(M, E), X, Y ∈ X (M ) e f, g ∈ C ∞ (M ) perché se ω è una 1-forma, si ha ω(f X) = f ω(X) e quindi ∇f X+gY (ψ) := ∇(ψ)(f X + gY ) = f ∇(ψ)(X) + g∇(ψ)(Y ). 11.4.4 Simboli di Christoffel. Sia π : E → M un fibrato vettoriale di rango n, sia U ⊂ M un aperto coordinato, con coordinate x1 , . . . , xm : U → R (dove m = dim M ), e sia Ψ : EU → U × Rn una banalizazzione. Siano ē1 , . . . , ēn i vettori di una base standard di Rn e −1 siano ei : U → EU le sezioni Allora ogni sezione ψ : U → EU P corrispondenti, ei (x) := Ψ (x, ēi ). si scrive come ψ(x) = ψi (x)ei (x) per certe funzione ψi ∈ C ∞ (U ). Sia ∇ una derivata covariante su un fibrato π : E → M , allora si ha: n n X X ∇(ψ) = ∇( ψi ei ) = ψk ∇(ek ) + (dψk ) ⊗ ek . i=1 i=k P Poiché ogni una forma ω su U si scrive come ω = aj dxj per certe funzioni aj ∈ C ∞ (U ), ogni uno forma ωE su U con valori in E si scriverà come ωE = n X i=1 ei ⊗ ωi = n X m X (∈ Ω1 (U, E)) aij ei ⊗ dxj i=1 j=1 per certe aij ∈ C ∞ (U ). Quindi per ogni k, k = 1, . . . , n, la uno forma ∇(ek ) con valori in E si scrive come: n X m m X X i ∇(ek ) = Γkj ei ⊗ dxj = ωki ei , i=1 j=1 j=1 11 STRUTTURE GEOMETRICHE 208 per certe funzioni Γikj ∈ C ∞ (U ), dette i simboli di Christoffel, e la matrice n × n con coefficienti in Ω1 (U ) m X ω = (ωki )1≤i,k≤n (∈ Mn (Ω1 (U )), ωki = Γikj dxj j=1 è detta matrice di uno forme della connessione di Koszul ∇ (su U , rispetto a Ψ). Con queste definizioni, si ha ∇(ek ) = ωek . P Ogni campo vettoriale X su U si scrive localmente come X = l al (∂/∂xl ) con al ∈ C ∞ (U ), l = 1, . . . , m. Poiché dxj (∂/∂xl ) = δjl , si ha ! n X m n X X i ∇(∂/∂xl ) (ek ) := ∇(ek )(∂/∂xl ) = Γkj ei ⊗ dxj (∂/∂xl ) = Γikl ei . i=1 j=1 i=1 Per X generale, si ha allora ∇X (ek ) = ∇ P al (∂/∂xl ) (ek ) = m X n X al Γikl ei . l=1 i=1 Non è difficile rendersi conto del fatto che i coefficienti di Christoffel non individuano dei tensori, cioè sezioni del fibrato T ∗ M ⊗ T ∗ M ⊗ T M . Rimandiamo comunque tale questione a 11.6.17. Vediamo invece un primo legame tra connessione infinitesima e la derivata covariante. 11.4.5 Connessione infinitesima e derivata covariante direzionale. Sia Xp ∈ Tp M e πE ψ ∈ Γ(M ; E) una sezione di un fibrato E → M su M . Sia poi γ : [0, 1] → M una curva in M tale che γ(0) = p e γ̇(0) = Xp . Sia infine cγ il trasporto parallelo lungo γ indotto da una connessione infinitesima ω su E. Otteniamo una derivata covariante di ψ lungo il vettore Xp nel punto p tramite 1 ∇ωXp ψ(p) := lim {c−1 γ(h) (ψ(γ(h))) − ψ(p)} . h→0 h In pratica si confrontano i valori di σ in due punti distinti trasportando il secondo nella stessa fibra del primo. È un esercizio dimostrare che infatti ∇ωXp ψ(p) esiste sempre e non dipende da γ ma solamente da p e Xp e dalla connessione ω. In particolare se Xp = X(p) è il valore in p di un campo vettoriale X ∈ Γ(M, T M ), allora l’assegnazione x 7−→ ∇ωX ψ(x) definisce una sezione liscia del fibrato E, che chiameremo ∇ωX ψ. Si lascia come esercizio la verifica del fatto che ∇ωX ha le proprietà una derivata covariante direzionale. Per l’arbitrarietà di X, una connessione ω su un fibrato vettoriale definisce dunque una derivata covariante ∇ω . Vedremo più avanti che in effetti vale anche il discorso inverso. 11.4.6 Derivata covariante, prodotto tensore e duale. Siano E1 ed E2 due fibrati vettoriali dotati di derivate covarianti ∇i , i = 1, 2. Si ottiene una derivata covariante sul prodotto tensore dei fibrati ponendo ∇ = ∇1 ⊗ idΓ2 + idΓ1 ⊗ ∇2 , 11 STRUTTURE GEOMETRICHE 209 dove Γi := Γ(M, Ei ). Analogamente si determina la derivata covariante sul duale E ∗ di un fibrato vettoriale E. Se ψ ∈ Γ(M, E) e λ ∈ Γ(M, E ∗ ) si impone la relazione d(λ(ψ))[ξ] = (∇∗ξ λ)[ψ] + λ(∇ξ ψ). 11.4.7 Esercizio. Si dimostri che si ottengono le stesse relazioni utilizzando la connessione prodotto 11.3.9, la connessione duale 11.3.10 e la relazione in 11.4.5. 11.4.8 Derivata covariante e sollevamento orizzontale. Indichiamo con ∇ω la derivata covariante associata alla connessione infinitesima ω. Sia poi γ̃ il sollevamento orizzontale in E di una curva γ : [0, 1] → M , costruito a partire da ω. Posto Γ = γ([0, 1]) l’immagine di γ in M , supponiamo per semplicità che Γ individui una sottovarietà monodimensionale di M . Per ogni sezione liscia ψ ∈ Γ(Γ, E) è quindi ben definita la derivata covariante ottenuta per restrizione a Γ di ∇ω e la conseguente derivata direzionale lungo i vettori tangenti a Γ. In altre parole è ben definita la derivata ∇ωγ̇ (ψ ◦ γ) =: ∇γ̇ (ψ)(γ(t)). In particolare essa risulta ben definita su γ̃ e dalla definizione data in 11.4.3 si ottiene immediatamente ∇γ̇ γ̃ = 0. Questo suggerisce come, viceversa, si possa costruire una connessione ω ∇ partendo da una derivata covariante ∇, definendo i sollevamenti orizzontali mediante le soluzioni dell’equazione ∇γ̇ γ̃ = 0. Lasciamo come esercizio i dettagli di una tale costruzione. Vogliamo ora approfondire il legame tra ω e ∇. 11.4.9 Sezioni e funzioni equivarianti. Allo scopo di determinare una relazione più esplicita tra derivata covariante e connessione è conveniente analizzare più a fondo la corrispondenza tra il fibrato principale P e il fibrato vettoriale associato E di fibra V . Ricordiamo che quest ultimo è costruito a partire dalle classi di equivalenza [p, v] = [Rg p, ρ(g −1 )(v)] dove ρ(g) è l’elemento di Aut(V ) individuato dalla rappresentazione ρ del gruppo di struttura G su V . Sia ψ ∈ Γ(M, E) una sezione liscia. Allora potremo scrivere ψ(x) = [p(x), v(x)], dove p(x) ∈ Px e v(x) ∈ V . Ricordando che l’azione di G su ogni fibra Px è libera e transitiva, possiamo allora associare alla sezione ψ una applicazione αψ : P −→ V , tale che ψ(x) = [p, αψ (p)]. Per consistenza deve accadere che [Rg p, αψ (Rg p)] = [p, αψ (p)] = [Rg p, ρ(g −1 )ψ(p)] , e quindi Rg∗ αψ = ρ(g −1 ) ◦ αψ . Diremo che αψ è G−equivariante e scriveremo αψ ∈ M ap(P, V )G . Si verifica allora facilmente che l’applicazione ΦG : Γ(M, E) −→ M ap(P, V )G , ψ 7−→ αψ , è un isomorfismo di K−spazi vettoriali. 11.4.10 Forme tensoriali. Più in generale questa corrispondenza si estende dalle sezioni allo spazio delle forme tensoriali Ωk (M, E), le k−forme a valore nel fibrato. Se ξi ∈ Tx M , i = 1, . . . , k, allora sian ξ˜i i rispettivi sollevamenti orizzontali. Allora, per ogni λ ∈ Ωk (M, E) si ottiene una unica forma orizzontale ΦG (λ) ∈ Ωk (P, V ) equivariante tale che λ(ξ1 , . . . , ξk ) = [p, ΦG (λ)(ξ˜1 , . . . , ξ˜k )] , 11 STRUTTURE GEOMETRICHE 210 dove orizzontale significa iχ ΦG (λ) = 0 per ogni campo verticale χ. Naturalmente ΦG (λ) deve essere G−equivariante (par.11.4.9) affinché la mappa sia ben definita. In particolare è un isomorfismo. Scriveremo ΦG : Ωk (M, E) −→ ΩG H (P, V ). Questo ci permette di estendere la connessione di Koszul alle forme tensoriali ∇ : Ωk (M, E) −→ Ωk+1 (M, E) . Localmente Ωk (U, E) sarà generato da forme del tipo λ = σ ⊗ψ dove ψ ∈ Γ(U, E) e σ ∈ Ωk (M ), cosicché ∇λ = dσ ⊗ ψ + (−1)k σ ∧ ∇ψ . 11.4.11 Derivata covariante e connessione infinitesima. Vogliamo ora determinare una corrispondenza esplicita tra la derivata covariante e la connessione infinitesima sul fibrato principale. Utilizziamo la mappa ΦG per calcolare il limite in 11.4.3. Posto che y ∈ P tale che π(y) = p ∈ M sia γ̃ il sollevamento orizzontale di γ in P, passante per y. Allora avremo che ψ(p) = [y, αψ (y)] −1 ψ e ψ(γ(h)) = [γ̃(h), αψ (γ̃(h))]. Infine cE γ(h) (ψ(γ(h))) = [y, α (γ̃(h))], sicché 1 −1 ∇ξ ψ(p) = lim {cE γ(h) (ψ(γ(h))) − ψ(p)} h→0 h 1 = lim {[y, αψ (γ̃(h))] − [y, αψ (y)]} h→0 h = [y, dαψ (p)[ξ H ]] , dove ξ H è il sollevamento orizzontale di ξ H in P. Dunque possiamo scrivere ΦG ∇ξ ψ = ξ H · αψ . Ora osserviamo che la rappresentazione ρ di G su V induce una rappresentazione ρ∗ di Lie(G) su V , ottenuta differenziando ρ nell’identità di G. La relazione di G−equivarianza per αψ assume allora la forma ξ a · αψ + ρ∗ (a) ◦ αψ = 0, dove ξ a è il campo verticale generato dall’elemento a ∈ Lie(G). Utilizzando questa relazione otteniamo dαψ (ξ H ) = (d + ρ∗ (ω))αψ (ξ) e quindi ΦG ∇ξ ψ = (d + ρ∗ (ω))αψ (ξ) . Questa formula rappresenta la relazione cercata ed ha una semplice interpretazione: αψ è in pratica la componente lungo la fibra del campo vettoriale. Per garantire la covarianza della derivata occorre correggere il differenziale tramite la trasformazione infinitesima associata allo spostamento infinitesimo degli spazi vettoriali da confrontare. Tale trasformazione è descritta dall’elemento ω dell’algebra, che agisce sulla fibra tramite la rappresentazione ρ̃. Viceversa tale formula permette di definire e calcolare in modo pratico la derivata covariante su un fibrato vettoriale. Infatti si noti che d + ρ∗ (ω) : Ω0H (P, V ) −→ Ω1H (P, V ) . Un ragionamento analogo, più semplice, può essere fatto per trovare il legame tra la connessione infinitesima ωE su E e la derivata covariante. Lo lasciamo come esercizio. 11 STRUTTURE GEOMETRICHE 11.5 211 Curvature Una volta definita una connessione su un fibrato, è naturale introdurre il concetto di curvatura. Infatti la connessione individua in ogni punto ξ dello spazio totale E una separazione Tξ E ' Tξ F ⊕ Hξ . La scelta di Hξ definisce una distribuzione differenziabile (si veda 11.3.3). Ci si può chiedere allora se tale distribuzione sia integrabile, cioè se essenzialmente sia possibile costruire il sollevamento orizzontale dell’intera varietà M in E. In altre parole ciò accade se per ogni ξ ∈ E esiste un’immersione regolare di i : M ,→ E, tale che i∗ T M ∈ H, vale a dire che in ogni punto i vettori tangenti all’immagine dell’immersione sono orizzontali e che ξ appartenga all’immagine di i. Questo implica che le parentesi di Lie tra due campi orizzontali debbano dare sempre un campo orizzontale (verificare). Nel linguaggio di 11.3.3 ciò significa che H è una distribuzione involutiva e che M H (ξ) := i(M ) è una varietà integrale per H, passante per ξ. Ricordiamo che essa si dice massimale se non esistono superfici integrali per H che la contengano propriamente. Enunciamo senza dimostrarlo il seguente importante risultato. 11.5.1 Teorema di Frobenius. Sia H una distribuzione differenziabile involutiva su E. Allora, per ogni ξ ∈ E esiste una unica varietà integrale massimale M H (ξ) di H. A commento di questo teorema osserviamo il suo significato intuitivo: se ξ è un vettore orizzontale in i(x), allora la sua curva integrale in E deve giacere nell’immagine di i e tutti i suoi vettori tangenti devono essere orizzontali. Questo deve essere vero per ogni vettore orizzontale di un intorno di x. Dunque la proprietà appena vista deve essere vera per il flusso locale. Dato che il flusso locale determina la derivata di Lie e a sua volta le parentesi di Lie, si vede che la involutività è una condizione necessaria. Non è molto difficile vedere che è anche localmente sufficiente. 11.5.2 Forma di curvatura. L’involutività di H è dunque una condizione necessaria e sufficiente per la sua integrabilità. Siano X e Y due campi orizzontali secondo la connessione infinitesima ω su E. Chiaramente [X, Y ] è orizzontale se e solo se ω([X, Y ]) = 0. Perciò la quantità ω([X, Y ]) determina l’ostruzione all’integrabilità di H. Ovviamente la decomposizione Tp E ' Tp F ⊕ Hp definisce un proiettore π H : Tp E −→ Hp , per ogni p ∈ E che indicheremo con XpH = π H (Xp ) per ogni Xp ∈ Tp E. Data una p−forma λ ∈ Ωp (E), si chiama parte orizzontale di λ la p−forma Hλ definita da H Hλ(Ψ1 , . . . , Ψp ) := λ(ΨH 1 , . . . , Ψp ) per ogni p−upla di campi vettoriali su E, Ψi ∈ X (E). Si chiama forma di curvatura la due forma ΩE := H(dω) ∈ Ω2 (M, E). Cioè per ogni coppia X, Y ∈ X (E) si ha ΩE (X, Y ) = dω(X H , Y H ) , dove, come sopra, X H e Y H sono le parti orizzontali dei campi X e Y . Utilizzando la formula di Cartan si trova ΩE (X, Y ) = X H (ω(Y H )) − Y H (ω(X H )) − ω([X H , Y H ]) = ω([χH , ξ H ]) , 11 STRUTTURE GEOMETRICHE 212 cioè la curvatura misura proprio l’ostruzione all’integrabilità di H. Esattamente come in precedenza in generale è sufficiente considerare la curvatura sul fibrato principale. 11.5.3 Proposizione. Equazione di struttura. Sia π : P −→ M un fibrato principale con gruppo di struttura G, dotato di una G-connessione infinitesima ω. La connessione infinitesima ω sul fibrato principale P e la relativa curvatura Ω soddifano l’equazione 1 Ω = dω + [ω, ω] . 2 Dimostrazione. Sia X un campo verticale associato all’elemento A dell’algebra Lie(G). Allora ω(X) = A. Inoltre, se g = exp(tA), la G−equivarianza di ω può essere scritta nella forma infinitesima LX ω + [A, ω] = 0. Usiamo questa relazione per dimostrare dapprima che, come Ω, anche Ω̃ := dω + 21 [ω, ω] è orizzontale. Infatti 1 iX (dω + [ω, ω]) = LX − d ◦ iX (ω) + [A, ω] = 0 , 2 per la suddetta relazione e poiché diX (ω) = dA = 0. Basta allora valutare Ω̃ su una coppia di vettori orizzontali Yp e Zp , per vedere che coincide con Ω. 2 Un corollario immediato è il seguente risultato, di cui si lascia la dimostrazione come esercizio. 11.5.4 Proposizione. Identità di Bianchi. La forma di curvatura Ω sul fibrato principale P dotato di una G-connessione ω soddisfa le seguenti identità: dΩ = −[ω, Ω] , ovvero HdΩ = 0 . 11.5.5 Tensore di curvatura. Sia E il fibrato vettoriale associato a P tramite la rappresentazione (ρ, F ). Supponiamo di dotare P di una G-connessione infinitesima ω. Sia poi Ω la forma di curvatura associata alla connessione ω su P. Dunque Ω è una due forma orizzontale su P a valori in Lie(G), che soddisfa Rg∗ Ω = Adg−1 Ω. Siano X, Y ∈ Tp P e ξ = [p, v] ∈ Eπ(p) un vettore della fibra in x. Allora è ben definita l’applicazione lineare T X,Y : Ex −→ Ex , [p, v] 7→ [p, ρ̃(Ω(X, Y ))(v)] , endomorfismo della fibra Ex ,dove ρ̃ è la rappresentazione di Lie(G) su V indotta da ρ. Si noti in particolare che, dati X, Y ∈ X (P) la mappa AX,Y (v) : P −→ V ; p 7−→ ρ̃(Ω(X, Y ))(v) , è equivariante. Ciò permette, tramite l’isomorfismo ΦG , di definire sulla base M del fibrato una due forma Ω∇ a valori in End(E) che, ad ogni sezione ψ ∈ Γ(M, E) e per ogni coppia di campi ξ, χ ∈ X (M ), associ la sezione ˜ χ̃))(αψ (p))] , Ω∇ (ξ, χ)ψ(x) = [p, ρ̃(Ω(ξ, 11 STRUTTURE GEOMETRICHE 213 dove ξ˜ e χ̃ sono i sollevamenti orizzontali di ξ e χ in P nel punto p su x. Evidentemente Ω∇ (ξ, χ)ψ ∈ Γ(M, E). La forma Ω∇ si chiama tensore di curvatura e definisce una sezione di (T ∗ M ∧ T ∗ M ) ⊗ (E ∗ ⊗ E). 11.5.6 Proposizione. Il tensore di curvatura Ω∇ è legato all’operatore di derivazione covariante dalla relazione Ω∇ (ξ, χ)ψ = [∇ξ , ∇χ ]ψ − ∇[ξ,χ] ψ , in cui le parentesi tra le derivate covarianti sono il commutatore, mentre quelle tra i campi sono le parentesi di Lie Dimostrazione. Anzitutto abbiamo24 ] ˜ ψ − [ξ, ˜ χ̃]αψ − [] ˜ χ̃]αψ , ΦG ([∇ξ , ∇χ ]ψ − ∇[ξ,χ] ψ) = ξ˜χ̃αψ − χ̃ξα χ]αψ = [ξ, ξ, dove abbiamo usato il fatto che i campi verticali sono un ideale nell’algebra dei campi. Posto ˜ χ̃] ∈ X (E) abbiamo perciò che Z := [ξ, ΦG ([∇ξ , ∇χ ]ψ − ∇[ξ,χ] ψ) = Z V αψ = iZ V dαψ = LZ V αψ , dove Z V è la parte verticale di Z. Ma la G−invarianza di αψ , se A ∈ Lie(G) è il generatore di Z V , in forma infinitesima si scrive LZ V (αψ ) = −ρ̃(A)αψ . Poiché infine A = ω(Z V ), otteniamo ˜ χ̃]))αψ = ΦG (Ω∇ (ξ, χ)ψ) , ΦG ([∇ξ , ∇χ ]ψ − ∇[ξ,χ] ψ) = ρ̃(ω([ξ, che implica la tesi, essendo ΦG un isomorfismo. 2 11.5.7 Proposizione. Il tensore di curvatura è legato alla derivata covariante dalla relazione Ω∇ = ∇2 . Dimostrazione. Basta mostrare che per ogni coppia di campi ξ, χ ∈ X (M ) e sezione ψ ∈ Γ(M, E) si ha iξ iχ ∇2 ψ = [∇χ , ∇ξ ]ψ − ∇[χ,ξ] ψ. Poiché ∇ψ ∈ Ω1 (M, E), localmente esisteranno delle 1−forme λk e delle sezioni φj di E tali che ∇ψ = λj φj . Allora ∇∇ψ = dλj φj − λj ∧ ∇φj . Basta allora applicarlo a (χ, ξ) utilizzando la formula di Cartan per dλj (χ, ξ) e confrontare con il calolo diretto di [∇χ , ∇ξ ]ψ − ∇[χ,ξ] ψ. I dettagli sono lasciati come esercizio. 2 11.6 Strutture Riemanniane 11.6.1 Esempio: fibrato tangente. Un esempio particolarmente interessante è quello del fibrato tangente. In tal caso il fibrato principale è il fibrato dei riferimenti R e il gruppo di struttura è GL(n, R), essendo n la dimensione della base M . Un riferimento in x ∈ M 24 ovunque adoperando il tilde per indicare il sollevamento orizzontale 11 STRUTTURE GEOMETRICHE 214 è individuato da n vettori {v1 , . . . , vn } linearmente indipendenti in Tx M . Su di essa M ij ∈ GL(n, R) agisce come {vj } 7→ {vi M ij }. Se xµ sono delle coordinate locali su M allora vj = vjµ ∂x∂ µ e {xµ , vjν } sono coordinate locali per R (che è infatti una varietà (n2 + n)−dimensionale). Assumiamo infine che su R sia data una connessione ω. Infine, data l’ovvia azione di GL(n, R) e della sua algebra di Lie su Rn , indicheremo semplicemente con gX e AX tali azioni, dove g ∈ GL(n, R), A ∈ gl(n, R) e X ∈ Rn . 11.6.2 Campo orizzontale canonico e forma orizzontale canonica. Un riferimento può essere visto come una mappa lineare bijettiva v : Rn −→ Tx M , che associa il vettore vi π all’elemento ei della base canonica di Rn . Se R −→ M è il fibrato dei riferimenti, dotato di una connessione infinitesima ω, per ogni X ∈ Rn si definisce il campo orizzontale canonico C(X), tale che se p ∈ R allora C(X)p ∈ Tp R è l’unico vettore orizzontale che soddisfa π∗ C(X)p = v(X). Si chiama forma orizzontale canonica il suo duale θ = v −1 ◦ π∗ . Si ha evidentemente θ(C(X)) = X. Si noti che il campo orizzontale canonico non è in realtà canonico su un fibrato dei riferimenti, ma piuttosto sul fibrato dei riferimenti con una connessione. La forma canonica invece è veramente canonica, nel senso che non richiede una specificazione di una connessione per essere π definita. Sia infatti R −→ M un fibrato dei riferimenti e sia ξ ∈ Tp R, p ∈ R. Allora p individua un riferimento in Tx M , x = π(p), che definisce un isomorfismo v : Rn −→ Tx M . Pertanto si può definire θ(ξ) = v −1 π∗ ξ. Si tratta evidentemente di una forma orizzontale, dato che si annulla sui vettori verticali. 11.6.3 Forma di torsione. definita da Si chiama forma di torsione la 2−forma su R a valori in Rn T := Hdθ , dove ricordiamo che Hdθ indica la parte orizzontale di dθ, cioè, se X, Y ∈ T R allora Hdθ(X, Y ) = dθ(X H , Y H ) . Come si verifica facilmente si tratta di una forma orizzontale equivariante e quindi vi corrisponde un tensore di curvatura T tale che ΦG (T ) = T che risulta essere una sezione di (T ∗ M ∧ T ∗ M ) ⊗ T M . In maniera del tutto analoga a 11.5.7 si dimostra la seguente proposizione. 11.6.4 Proposizione. Il tensore di torsione soddisfa la relazione T (χ, ξ) = ∇χ ξ − ∇ξ χ − [χ, ξ] , (∈ X (M )) per ogni coppia di campi χ, ξ ∈ X (M ). 11.6.5 Proposizione. I equazione di struttura. La forma di torsione soddisfa l’equazione T = (d + ω)θ, dove ω è la connessione su R. Dimostrazione. Prima di tutto vediamo che, come T , (d + ω)θ è orizzontale. Infatti, se ξ(A) è il campo fondamentale associato ad A ∈ gl(n, R), si ha iξ(A) (d + ω)θ = Lξ(A) θ − d(iξ(A) θ) + (iξ(A) ω)θ − ωiξ(A) θ = Lξ(A) θ + Aθ = 0 , 11 STRUTTURE GEOMETRICHE 215 dove abbiamo usato il fatto che θ è orizzontale e, nell’ultimo passaggio, l’equivarianza di θ. Dopodiché per verificare l’uguaglianza basta applicare entrambi i membri ad una coppia di vettori orizzontali. 2 Nota. L’equazione di struttura che coinvolge la curvatura viene anche detta II equazione di struttura. Differenziando la prima equazione di struttura si ottiene inoltre la seguente identità. 11.6.6 I identità di Bianchi. Vale dT + ω ∧ T = Ω ∧ θ . L’identità di Bianchi che coinvolge dΩ in 11.5.4 si chiama anche II identità di Bianchi. 11.6.7 Connessione metrica e di Levi-Civita. Si dice che su M è definita una struttura Riemanniana se è assegnata una sezione g ∈ Γ(M, T ∗ M ⊗ T ∗ M ) simmetrica e definita positiva. In particolare per ogni x ∈ M , g(x) ∈ Tx∗ M ⊗ Tx∗ M è un prodotto scalare su Tx M . Scelta una base per Tx M , g(x) sarà individuato da una matrice simmetrica con autovalori tutti positivi. Si dice che la struttura è pseudo-Riemanniana se g è simmetrica e non degenere. Si chiama segnatura s la differenza tra il numero di autovalori positivi e il numero di autovalori negativi. Si dice che la struttura è Lorentziana se |s| = n − 2, essendo n la dimensione di M . Mentre è sempre possibile assegnare una struttura Riemanniana ad una varietà liscia, ciò non è vero in generale per le strutture pseudo-Riemanniane. In senso improprio g viene chiamata metrica anche nel caso pseudo-Riemanniano. Sia ω una connessione sul fibrato principale R. Si dice che ω è una connessione metrica se g è parallela, cioè se ∇ω g = 0 . Dato che per ogni X, Y, Z ∈ X (M ) si ha (si veda 11.4.6) iZ d(g(X, Y )) = (∇Z g)(X, Y ) + g(∇Z X, Y ) + g(X, ∇Z Y ) , la condizione di metricità equivale a Z · g(X, Y ) = g(∇Z X, Y ) + g(X, ∇Z Y ) , ∀X, Y, Z ∈ X (M ) . La metricità della connessione non determina univocamente la connessione stessa. È però fatto ben noto che la connessione è univocamente determinata se oltre alla metricità si richiede l’annullamento della torsione. In tal caso la connessione è detta di Levi − Civita. Vale il seguente importante teorema. 11.6.8 Teorema. Sia (M, g) una varietà pseudo-Riemanniana. Allora esiste una unica derivata covariante ∇L−C tale che ∇L−C g = 0 e T =0. Dimostrazione. Dati i campi X, Y, Z ∈ X (M ), usiamo ripetutamente le relazioni Z · g(X, Y ) = g(∇Z X, Y ) + g(X, ∇Z Y ) , metricità della connessione ∇Z X − ∇X Z = [Z, X] , torsione nulla 11 STRUTTURE GEOMETRICHE 216 con le varie permutazioni degli indici: Zg(X, Y ) = g(∇Z X, Y ) + g(X, ∇Z Y ) = g(∇X Z, Y ) + g(X, ∇Y Z) + g([Z, X], Y ) + g(X, [Z, Y ]) = Xg(Z, Y ) − g(Z, ∇X Y ) + Y g(X, Z) − g(∇Y X, Z) + g([Z, X], Y ) + g(X, [Z, Y ]) = −2g(Z, ∇X Y ) + Xg(Z, Y ) + Y g(X, Z) − g([Y, X], Z) + g([Z, X], Y ) + g(X, [Z, Y ]) , da cui 2g(Z, ∇X Y ) = Xg(Z, Y ) + Y g(X, Z) − g([Y, X], Z) + g([Z, X], Y ) + g(X, [Z, Y ]) − Z · g(X, Y ) . Poiché questa uguaglianza vale per ogni scelta dei campi e dato che g è nondegenere, ∇X Y e quindi ∇ sono univocamente determinate da questa espressione. 2 Lasciamo invece come esercizio la verifica del fatto che una connessione è metrica se e soltanto se è una connessione sul fibrato O dei riferimenti ortonormali. 11.6.9 Tensore di Riemann, di Ricci e curvatura scalare. Abbiamo definito il tensore di curvatura Ω∇ come una due forma a valori in End(E). Nel nostro caso E = T M . Si chiama campo tensoriale di Riemann R, o semplicemente Tensore di Riemann, il campo tensoriale covariante di grado 4 definito da R(X, Y, W, Z) := g(Ω∇ (W, Z)Y, X) , ∀X, Y, W, Z ∈ X (M ) . Sia {ei }ni=1 una base ortonormale per T U , U essendo un aperto di una carta locale per M (dunque con M banalizzabile). Si definisce allora il tensore di Ricci S come il tensore covariante di grado due S(X, Y ) := R(ei , X, ej , Y )η ij , ∀X, Y ∈ X (M ) . Qui η è l’usuale metrica (pseudo)euclidea. È facile verificare che S non dipende dalla scelta della base ortonormale. Infine si definisce lo scalare di curvatura Ric tramite Ric := S(ei , ej )η ij . Di nuovo si verifica l’indipendenza dalla scelta della base. Si chiama tensore di Einstein G la particolare combinazione G := S − Ric g. 2 11.6.10 Nota. Soprattutto in fisica è d’uso indicare le componenti del tensore di Riemann rispetto ad un sistema di coordinate con Rµνσρ , quelle del tensore di Ricci con Rµν e lo scalare di curvatura con R. 11.6.11 Simmetrie dei tensori di curvatura e curvatura sezionale. Il tensore di Riemann gode delle tre seguenti proprietà di simmetria, di cui lasciamo al lettore i dettagli della deduzione 11 STRUTTURE GEOMETRICHE 217 • R(X, Y, W, Z) = −R(X, Y, Z, W ), che segue dal fatto che ovviamente Ω∇ (W, Z) = −Ω∇ (Z, W ); • R(X, Y, W, Z) = −R(Y, X, W, Z). Questa è invece conseguenza del fatto che la connessione è metrica. Uno dei modi per verificarlo è infatti osservando che se la connessione è metrica, essa è definita su O e quindi la curvatura Ωω ha valori in nell’algebra di Lie del gruppo ortogonale, che si identifica con le matrici Mi j che soddisfano Mij = −Mji , dove Mij := Mi k ηkj . Dopodiché basta sfruttare i legami tra Ωω ed Ω∇ e tra Ω∇ ed R; • R(X, Y, W, Z) + R(X, W, Z, Y ) + R(X, Z, Y, W ) = 0. Questa è conseguenza della torsione nulla. Essa segue dalla I identità di Bianchi, con T = 0, in modo analogo al punto precedente. Si dimostra facilmente che da queste tre proprietà ne segue una quarta: R(X, Y, W, Z) = R(W, Z, X, Y ) . Sia ora Πx un piano bidimensionale in Tx M . Sia poi e1 , e2 ∈ Tx P una base ortonormale per Πx . Si chiama curvatura sezionale relativa al piano Πx il numero reale κ(Πx ) = R(e1 , e2 , e1 , e2 ) . È un semplice esercizio verificare che κ(Πx ) non dipende dalla scelta della base ortonormale. L’importanza della curvatura sezionale è dovuta alle due seguenti proposizioni, la cui dimostrazione è lasciata come esercizio. 11.6.12 Proposizione. Sia T un tensore covariante di grado 4 che gode delle stesse proprietà di simmetria del tensore di Riemann. Se T(X, Y, X, Y ) = R(X, Y, X, Y ) ∀X, Y ∈ Tx M, x ∈ M , allora T = R. 11.6.13 Proposizione. Se X e Y sono due vettori che formano una base per Πx , allora κ(Πx ) = R(X, Y, X, Y ) . g(X, X)g(Y, Y ) − g(X, Y )2 11.6.14 Osservazioni pratiche. Per rendere operativa la teoria sviluppata, almeno nel caso del fibrato tangente (il caso generale sarà considerato nel prossimo capitolo) consideriamo le cose da un punto di vista fisico. Per misurare ad esempio i vettori velocità in ogni punto della varietà è necessario introdurre in ciascun punto un sistema di riferimento, in modo che il passaggio da un sistema all’altro sia differenziabile. Dal punto di vista matematico ciò significa considerare una sezione locale εα : Uα −→ R. In generale una tale sezione non esisterà globalmente, a meno che T M sia banalizzabile. Definiamo allora la 1−forma locale eα ∈ Ω1 (Uα ) tramite eα := ε∗α (θ), 11 STRUTTURE GEOMETRICHE 218 essendo θ la forma orizzontale canonica definita in 11.6.2. Allora, se ξ ∈ X (Uα ) e x ∈ Uα , poiché π ◦ εα = idM si ha eα (ξ)x = ε∗α (θ)(ξ) = v −1 ◦ dπ(εα∗ (ξx )) = v −1 (ξ) , dove vx : Rn −→ Tx M è la mappa indotta dal riferimento vx = vepsα (x) (e che chiamiamo con lo stesso nome). In pratica dunque, scelte delle coordinate locali xµ su Uα , potremo scrivere eiα = eiµ (x)dxµ e ξ = ξ µ (x) ∂x∂ µ , cosicché eα (ξ)i = eiµ (x)ξ µ . In altre parole ∂x∂ µ = eiµ vi , cioè eiµ sono le componenti di ∂x∂ µ rispetto al riferimento {vi }. In particolare se su M è definito un campo tensoriale metrico g ∈ Γ(M, T ∗ M ⊗S T ∗ M ), allora ∂ ∂ gµν := g = eiµ ejν g(vi , vj ) . , ∂xµ ∂xν Si dice che il riferimento locale è ortonormale se g(vi , vj ) = ηij , la metrica di Minkowski su Rn . La 1−forma locale eα viene allora detta vielbein. Considerando la I equazione di struttura si ha deα = dε∗α (θ) = ε∗α (dθ) = ε∗α (−ω ∧ θ + T ) . Posto ωα := ε∗α (ω), l’espressione locale della connessione infinitesima, abbiamo perciò deα +ωα ∧ eα = ε∗α (T ). Lasciamo come esercizio la dimostrazione della seguente semplice proposizione. 11.6.15 Proposizione. Si ha ε∗α (T ) = v −1 (T ), dove T è il tensore di torsione. In altre parole possiamo scrivere25 dei + ω i j ∧ ej = T i , dove T i = eiµ T µ . 11.6.16 Osservazioni. Questa formula, valida localmente, risulta essere estremamente pratica nelle applicazioni concrete. Si consideri ad esempio di aver a che fare con una varietà pseudoeuclidea {M, g} e si supponga di voler determinare la connessione di Levi-Civita. Allora dovrà anzitutto essere T = 0. D’altra parte la condizione di metricità ∇ω g = 0 (par. 11.6.7) assume la forma ηik ω k j + ηkj ω k i = 0 in termini di un determinato vielbein ei (verificare!). Ciò significa semplicemente che ω ha valori nell’algebra delle isometrie della metrica piatta η. Posto ωij := ηik ω k j , possiamo allora scrivere le equazioni per la connessione nella forma dei + ω i j ∧ ej = 0 , ωij = −ωji . Poiché si tratta di n(n − 1)/2 equazioni lineari indipendenti per altrettante incognite (le ωij ), la connessione risulta essere completamente determinata in funzione del vielbein. Si può determinare una formula altrettanto pratica per il calcolo del tensore di curvatura. Infatti, similmente a prima, dalla II equazione di struttura e tenendo conto del fatto che nel caso del fibrato dei riferimenti si ha evidentemente 12 [ω, ω] = ω ∧ ω, si ricava immediatamente dωα + ωα ∧ ωα = ε∗α (Ω) . 25 omettiamo il pedice α relativo alla carta locale per evitare confusione con il pedice µ referentesi alla componente µ−esima nelle coordinate locali 11 STRUTTURE GEOMETRICHE 219 Similmente a prima si ottiene allora che in componenti, rispetto ad una scelta delle coordinate locali, si ha (si veda 11.6.21) ε∗α (Ω)i j = eiµ eνj 12 Rµ νρσ dxρ ∧ dxσ , dove eµi sono le componenti di vi rispetto alla base coordinata (ovvero è l’inversa della matrice di coefficienti eiµ ). Queste formule forniscono un metodo relativamente rapido per il calcolo del tensore di curvatura. Ribadiamo però il fatto che la loro origine è nelle equazioni di struttura che sono equazioni sul fibrato principale, mentre i tensori di curvatura e di torsione sono sulla varietà M . 11.6.17 Cambio di carta. Vogliamo confrontare le espressioni locali di una data connessione infinitesima rispetto a due riferimenti locali sulla stessa carta. Siano ε = {vi } e ε̃ = {ṽj } due sezioni locali rispetto alle quali la connessione infinitesima ω ammette le espressioni locali ˜ = ε̃∗ ω. Sia ξ ∈ X . Usando il linguaggio in 11.4.9, potremo scrivere, sulla data ω̂ = ε∗ ω e ω̂ carta locale, ξ(x) = [vi (x), ξ i (x)] = [ṽi (x), ξ˜i (x)] , e similmente ˜ i ξ˜j (x)] , ∇ξ(x) = [vi (x), dξ i (x) + ω̂(x)i j ξ j (x)] = [ṽi (x), dξ˜i (x) + ω̂(x) j essendo x appartenente all’intorno locale U considerato. D’altra parte deve esistere una funzione continua h : U −→ G tale che ε̃ = Rg ε̃, dove G = GL(n, R) (oppure un gruppo ortogonale se ci si restringe a riferimenti ortonormali) in modo che ṽi (x) = vj (x)hj i (x) per ogni x ∈ U . Dall’equivarianza di d + ω e dalle relazioni appena scritte segue allora ˜ ω̂(x) = h−1 (x)ω(x)h(x) + h−1 (x)dh(x) . Questa relazione è il caso particolare di una proprietà molto generale che verrà considerata nel capitolo successivo. 11.6.18 Ancora sui simboli di Christoffel. Ulteriori espressioni pratiche le otteniamo in base alle seguenti osservazioni. Se anziché scegliere una base ortonormale si decide di utilizzare la base coordinata, allora la forma locale eα avrà componenti26 eνµ = δµν . In tal caso le componenti del’espressione locale di ω vengono tradizionalmente indicate con la lettera Γ: ω µ ν = Γµσν dxσ µ e la I equazione di struttura assume la forma Γµσν dxσ ∧ dxν = T µ = 21 Tσν dxσ ∧ dxν ovvero µ Tσν = Γµσν − Γµνσ . In particolare nel caso di torsione nulla i coefficienti Γµσν sono simmetrici nei due indici σ e ν. La matrice di componenti eiµ rappresenta la matrice h di trasformazione tra la base vi e la base coordinata: ∂x∂ µ = vi eiµ , perciò si trova Γµνρ dxν = eµj dejρ + eµj ω̂ij eiρ , 26 conviene in tal caso usare la lettera greca anche per l’indice relativo alla base vν = ∂ ∂xν 11 STRUTTURE GEOMETRICHE 220 Si noti che in particolare si ha ∇ ∂x∂ µ = Γν µ ∂x∂ ν , dove Γν µ := Γνσµ dxσ . Se allora ξ ∈ X (M ) in coordinate locali avremo ξ = ξ µ ∂x∂ µ e quindi ∇ξ = (dξ µ + ξ α Γµ α ) ∂ . ∂xµ La condizione di metricità permette allora di determinare i coefficienti Γ in funzione della metrica e del tensore di torsione. Nel caso di torsione nulla e connessione metrica, si ottiene la ben nota espressione 1 ∂gνρ ∂gνσ ∂gσρ µ + − . gνµ Γσρ = 2 ∂xσ ∂xρ ∂xν Osserviamo inoltre che per una base coordinata si ha [∂xµ , ∂xν ] = 0 e quindi posto (si veda 11.6.9) Ω∇ (∂µ , ∂ν )(∂σ ) = Rρ σµν ∂ρ , usando 11.5.6 e le proprietà di ∇, si ottiene Rρ σµν ∂ρ = ∇∂µ (Γτσν ∂τ ) − ∇∂ν (Γτσµ ∂τ ) = ∂µ Γρσν ∂ρ + Γτσν ∇∂µ (∂τ ) − ∂ν Γρσµ ∂ρ − Γτσµ ∇∂ν (∂τ ) , da cui Rρ σµν = ∂µ Γρσν − ∂ν Γρσµ + Γτσν Γρτµ − Γτσµ Γρτν . 11.6.19 Nota. Nell’intorno di un punto O si possono scegliere delle coordinate locali, dette coordinate normali, per le quali gµν (O) = ηµν , la metrica di Minkowski o euclidea, e Γµνρ (O) = 0. Si può verificare allora che (si veda 12.4.4) 1 gµν (x) = ηµν + Rαµβν (O)xα xβ + O(|xσ |3 ) . 3 Questo risultato mostra come la curvatura individui la deformazione rispetto alla geometria euclidea. 11.6.20 Esercizio. Si usi la suddetta espressione approssimata, in coordinate normali, per la metrica in un intorno U nel quale le correzioni di ordine superiore al secondo siano trascurabili, per calcolare i simboli di Christoffel nel dato intorno. Si calcoli il trasporo infinitesimo di un vettore tangente in O lungo un cammino rettangolare chiuso tutto contenuto in O. Si dimostri che, se il parallelogramma è generato dai vettori y µ e z ν e se v µ è il vettore da trasportare, allora si ottiene per il vettore trasportato 1 ṽ µ = Σαβ Rµ γαβ v γ , 2 dove si è posto Σαβ = y α z β − z α y β . Poiché nel punto dato la metrica è (pseudo-)euclidea le componenti del tensore di Riemann possono essere identificate con quelle della forma di curvatura Ω (in pratica le componenti del 11 STRUTTURE GEOMETRICHE 221 vielbein sono eiµ = δµi ) e quindi questo esercizio mette in evidenza un’interessante proprietà geometrica del tensore di curvatura, che permette di interpretare l’azione di Ω visto come operatore lineare sullo spazio tangente. Esso individua la ‘rotazione’ subita dal vettore quando viene trasportato lungo il cammino chiuso. 11.6.21 Esercizio. Si dimostri che, posto (nelle notazioni di 11.6.16) 1 i k Ω jkl e ∧ el = dω i j + ω i k ∧ ω k j , 2 si ottiene Rρ σµν = eρi ejµ Ωi jkl ekµ elν , dove si ricordi che eρi indica la matrice inversa della eiρ . 11.6.22 Un esempio fisico. Il sistema di riferimento ruotante. Sebbene rimandiamo al capitolo successivo le applicazioni (e le motivazioni) fisiche, vediamo qui un esempio particolarmente interessante che mette in evidenza alcuni degli aspetti finora considerati. Vogliamo cioè considerare, nell’ambito della relatività, il confronto tra due osservatori O e Oω , il primo inerziale ed il secondo che ruota uniformemente con velocità angolare ω rispetto al primo. Nasce anzitutto il problema di definire esattamente ciò che si intende. Per quanto riguarda l’osservatore inerziale O, sappiamo che egli è in grado di costruire globalmente un sistema di riferimento inerziale, disponendo ovunque di orologi che sincronizzerà lanciando e ricevendo raggi luminosi, secondo la ben nota procedura che non andremo qui dunque a ripetere. Chiamiamo perciò K il sistema di riferimento inerziale di cui O rappresenta l’origine. La situazione diventa un pò più complicata per l’osservatore Oω . Supponiamo che possieda degli orologi del tutto identici a quelli di O. Li disporrà ovunque in modo che gli appaiano sempre immobili. Esattamente come fa O, anche Oω vuol utilizzare il proprio orologio per individuare la coordinata temporale degli eventi contemporanei. Deve dunque sincronizzare gli orologi. Anzitutto, il suo orologio può essere sincronizzato a quello di O, poiché sono in ogni istante spazialmente coincidenti. Per sincronizzare gli orologi restanti egli può usare lo stesso metodo di O, mandando raggi luminosi che gli vengono poi riflessi da ciascun orologio. Benché il raggio luminoso non percorrerà (secondo Oω ) un cammino rettilineo da Oω all’orologio P , nè si muoverà alla velocità c, un semplice argomento di simmetria (che lasciamo svolgere come esercizio) mostra che i tempi di andata e di ritorno del raggio luminoso devono coincidere. Egli direbbe allora che l’orologio P è sincronizzato con il proprio se nel momento in cui riceve il segnale, P indica l’ora tp = (t1 − t0 )/2 se t0 è l’ora segnata da Oω nel momento in cui lancia il segnale e t1 è l’istante in cui Oω riceve il segnale di risposta. Tuttavia tale procedura non è ancora sufficente. La sua costruzione richiede infatti che l’orologio di P cammini alla stessa frequenza del suo. Ma pur essendo identici per costruzione, una volta posto nella sua posizione P indicherà il suo tempo proprio. Dal punto di vista di O, P si muove p lungo un orbita circolare di raggio r alla velocità rω. Il suo tempo proprio è perciò τ = τ0 + 1 − ω 2 r2 /c2 t, cosicché P cammina più lentamente di O e quindi di Oω . Se O a un dato istante pensa di aver sincronizzato il suo orologio con P , dopo un po’ si accorge che si 11 STRUTTURE GEOMETRICHE 222 desincronizzano. Per assegnare una coordinata temporale sincrona a P , Oω è perciò costretto a fornire P di un orologio diverso da Oω , costruito in modo che una volta posto in P appaia camminare alla stessa frequenza di O.27 Assegnata tale coordinata temporale a P , è evidente che le coodinate temporali costruite da O e Oω sono legate dalla relazione t(P ) = tω (P ). Due eventi sono contemporanei per O se e soltanto se lo sono anche per Oω ! Dato che O e Oω concordano sulla contemporaneità, concordano anche sulle misure di lunghezza gicché misurare la lunghezza di un segmento equivale a registrarne la posizione simultanea degli estremi. Se quindi i due osservatori dispongono di due regoli identici, essi appariranno entrambi di pari lunghezza ad ognuno dei due osservatori indipendentemente dalla posizione e dall’orientamento dei regoli (ciascuno fermo nel proprio sistema di riferimento). In conclusione dunque Oω con il suo regolo può costruire un sistema di coordinate spaziali cilindriche (rω , φω , zω ) che saranno legate alle coordinate cilindriche di O dalla relazione28 tω = t , rω = r , φω = φ − ωt , zω = z . La metrica. La metrica minkowskiana nelle coordinate ruotanti assume la forma ω 2 r2 2 2 2 c dtω − drω2 − 2rω2 ωdφω dtω − rω2 dφ2ω − dzω2 . ds = 1 − 2 c Come esercizio verifichiamolo nei dettagli. Le coordinate cartesiane inerziali sono per definizione coordinate (t, x, y, z) per le quali ds2 = c2 dt2 − dx2 − dy 2 − dz 2 . Prima di tutto introduciamo delle coordinate cilindriche (t, r, φ, z) tali che x = r cos φ e y = r sin φ. Differenziando si ha dx = cos φdr − r sin φdφ , dy = sin φdr + r cos φdφ e ricordando che, ad esempio, dx2 := dx dx, si ha dx2 + dy 2 = (cos2 φdr2 + r2 sin2 φdφ2 − 2r cos φ sin φdr dφ) +(sin2 φdr2 + r2 cos2 φdφ2 + 2r cos φ sin φdr dφ) = dr2 + r2 dφ2 , e quindi la metrica di Minkowski assume la forma ds2 = c2 dt2 − dr2 − r2 dφ2 − dz 2 . 27 Equivalentemente Oω potrebbe mandare a P un impulso al secondo, dicendogli di usare quegli impulsi come orologio, identificando il primo impulso con tP = (t0 + t1 )/2. In altre parole Oω usa esclusivamente il proprio orologio per attribuire la coordinata temporale agli eventi. 28 lasciamo come esercizio i dettagli della deduzione 11 STRUTTURE GEOMETRICHE 223 Per esprimerla in termini delle coordinate ruotranti occorre invertire la trasformazione di coordinate che lega le coordinate cilindriche a quelle ruotanti: t = tω , r = rω , φ = φω + ωtω , z = zω , dopodiché, differenziando dt = dtω , dr = drω , dφ = dφω + ωdtω , dz = dzω , e sostituendo nella metrica di Minkowski, si ottiene ds2 = c2 dt2 − dr2 − r2 dφ2 − dz 2 = c2 dt2ω − drω2 − (dφω + ωdtω )2 − dzω2 , che coincide con la tesi. Come si vede le coordinate di Oω sono limitate alla regione rω < c/ω. Si noti che il tempo proprio p di un orologio di posizione spaziale fissa rispetto ad Oω fornito dalla metrica è dτ = 1 − rω2 ω 2 /c2 dtω , coincidente con la relazione dedotta da O utilizzando la dilatazione relativistica. Mentre O interpreta il rallentamento dell’orologio P come un effetto cinematico, Oω lo vede come conseguenza del campo gravitazionale individuato dal potenziale V = gctt2 − 1 (che in pratica rappresenta il potenziale centrifugo). Ciò che è fondamentale non è decidere quale sia la giusta interpretazione, ma piuttosto che entrambi arrivino alla stessa conclusione: gli orologi rallentano! Questa è un’espressione del principio di equivalenza. Base ortonormale, connessione di spin e connessione di Levi-Civita. Una possibile tetrade associata alla metrica è data dalle 1−forme (e0 , e1 , e2 , e3 ) dove e0 = cdt = cdtω , e1 = dr = drω , e2 = rdφ = rω (dφω + ωdtω ) , e3 = dz = dzω . Questa tetrade individua in ogni punto dello spazio-tempo un sistema di riferimento ortonormale fisso rispetto a quello di O. Si rammenti che non si tratta di un sistema di coordinate ma di un riferimento per lo spazio tangente nel punto dato. La connessione di spin riemanniana è determinata dalle equazioni dei = −ω i j ∧ ej , Si trova immediatamente che gli unici termini non 0 0 0 e2 0 0 r ω= 0 − e2 0 r 0 0 0 ωij = −ωji . nulli sono ω 1 2 = −ω 2 1 = 0 0 . 0 0 e2 r o anche 11 STRUTTURE GEOMETRICHE 224 Utilizzando le relazioni in 11.6.14 si ottiene per i simboli di Christoffel nelle coordinate di Oω 29 sono date dalle 1−forme Γµ ν := Γµσν dxσω , dove x0ω = tω , x1ω = rω , x2ω = φω , x3ω = zω e 0 0 0 0 −ω 2 rω dtω − ωrω dφω 0 −rω dφω − ωrω dtω 0 . Γ= ω 1 1 ω drω dtω + rω dφω drω 0 rω rω rω 0 0 0 0 Mentre sappiamo quale sia il significato geometrico di Γ, è interessante studiarne l’interpretazione fisica. Supponiamo che Oω osservi il punto P di coordinate (ctω , rω , φω , zω ), fisso nel suo riferimento. Le componenti della quadrivelocità di P calcolata rispetto al tempo misurato dal proprio orologio sono uµ = (1, 0, 0, 0) in ogni istante. Tuttavia per confrontare uµ (tω + δtω ) con uµ (tω ) egli deve portarlo in tale punto tramite Γ. Lo spostamento infinitesimo è rappresentato dal vettore δ := −δtω ∂t∂ω sicché uµ (tω + δtω ) 7−→ uµ (tω + δtω ) + Γ(δ)µ ν uν (tω + δtω ) ed essendo 0 ω 2 rω δtω Γ(δ) = 0 0 0 0 0 ωrω δtω ω dtω 0 rω 0 0 0 0 , 0 0 ovvero δuµ = (0, ω 2 rω δtω , 0, 0). Il punto P appare dunque soggetto ad una accelerazione radiale ω 2 rω , l’accelerazione centrifuga, che Oω potrebbe interpretare come un campo di forze gravitazionali. Se in P vi fosse situata una masserella m, essa dovrebbe perciò essere trattenuta da P con una forza −mδur /δτ , essendo τ il tempo proprio misurato da P , cioè ω 2 rω f~ = −m q ûr , ω2 r2 1 − c2 essendo ûr il versore radiale. In particolare tale forza diverge all’avvicinarsi di rω al suo valore limite c/ω, rendendo evidente la difficoltà di una realizzazione fisica del sistema ruotante. Simili analisi possono essere fatte per interpretare le restanti componenti di Γ. 11.6.23 Sistemi inerziali comoventi e la precessione di Thomas. Vogliamo ora considerare il punto di vista di O mentre osserva il suddetto punto P fermo nel sistema di Oω . Poiché O è inerziale, ha una predilezione per i sistemi inerziali cosicché, nel considerare il moto di P , lo confronta istante per istante con il sistema inerziale comovente con P . Ricordiamo che O già disponeva di una tetrade di riferimenti ei , che però non sono comoventi con P ma piuttosto con O. Da questa si ottiene la tetrade dei sistemi comoventi semplicemente con un boost (in 1 ogni punto) in direzione ûφ di velocità v = ωr. Posto γ = (1 − ω 2 r2 )− 2 ,30 il boost è generato 29 30 ovviamente sono nulli nelle coordinate di O in questa ultima parte scegliamo le unità in cui c = 1 per alleggerire le formule 11 STRUTTURE GEOMETRICHE 225 dalla matrice Λ ∈ G = SO(1, 3) γ 0 Λ= −ωrγ 0 0 −ωrγ 0 1 0 0 , 0 γ 0 0 0 1 cosicché, usando le osservazioni in 11.6.14 si ha ẽ0 = γ(e0 − ωre2 ) , e ẽ1 = e1 , ẽ2 γ(e2 − ωre0 ) , 0 γωe2 −γ 2 ωe1 γ 2 2 γωe 0 e r ω̃ = Λ−1 ωΛ + Λ−1 dΛ = −γ 2 ωe1 − γ e2 0 r 0 0 0 ẽ3 = e3 0 0 . 0 0 La particella P porta con sè il sistema di riferimento individuato in ogni punto dai vettori ∂t∂ω , ∂ , ∂ , ∂ le cui componenti rispetto al sistema ortonormale di vettori duali alle tetradi ei e ∂rω ∂φω ∂zω ẽi sono dati dai coefficienti eiµ e ẽiµ rispettivamente, cioè 1 0 ∂ ∂ 0 1 ≡ ≡ , rω 0 ∂tω ∂rω 0 0 0 0 , ∂ ≡ 0 , ∂ ≡ 0 ∂φω r ∂zω 0 0 1 , rispetto ad ei e ωr2 γ 0 − c ∂ ∂ ∂ 1 0 0 ≡ , ≡ , ≡ 0 0 rγ ∂tω ∂rω ∂φω 0 0 0 1 γ 0 , ∂ ≡ 0 , ∂zω 0 1 rispetto a ẽi . Questi vettori rappresentano il sistema di riferimento associato alla particella dalle coordinate ruotanti, visti da O e dalla famiglia di sistemi inerziali comoventi rispettivamente. Nello spostamento di P lungo il tratto δ = (δt, 0, ωδt, 0) dell’orbita, secondo O31 le componenti v i di un vettore nel dato punto subiranno una variazione −ω(δ)i j v j rispetto al riferimento nel medesimo punto. Dunque secondo O 0 0 0 0 −ω 2 rδt 0 −ωrδt 0 ∂ ∂ ∂ ∂ , δ , δ , δ δ ≡ ≡ ≡ ≡ . 0 0 ∂tω ∂rω ωδt ∂φω ∂zω 0 0 0 0 0 31 ripetendo il ragionamento precedentemente fatto con Γ, ma questa volta utilizzando ω 11 STRUTTURE GEOMETRICHE 226 Un osservatore comovente registrerà invece la variazione 0 0 −ω 2 γrδt ω 2 ∂ ∂ −ω rδt 0 , δ ∂ ≡ − γ rδt δ ≡ ≡ , δ 0 γωδt 0 ∂tω ∂rω ∂φω 0 0 0 Per confrontare con le sue misure O deve applicare il boost inverso 0 0 0 −ω 2 rδt 0 − ω rδt ∂ ∂ ∂ , δ̃ ≡ ≡ ω , δ̃ ≡ γ δ̃ 0 0 ∂tω ∂rω γ δt ∂φω 0 0 0 , 0 0 ∂ . ≡ δ ∂zω 0 0 Λ−1 , ottenendo , 0 0 ∂ . δ̃ ≡ ∂zω 0 0 Come si vede dunque O vede una discrepanza tra la sua misura e quella fatta da O, che corrisponde ad una rotazione degli assi ûrω e ûφω attorno all’asse ûz di un angolo 1 − 1 dt = ω(1 − γ)dτ . δθ = ω γ In altre parole secondo O la particella P nel muoversi subisce rispetto ai sistemi comoventi un movimento di precessione lungo l’asse z, con velocità di precessione ωp = ω(1 − γ) rispetto al tempo proprio. Tale fenomeno relativistico è noto come precessione di Thomas. Alcuni autori attribuiscono tale fenomeno al fatto che nel moto accelerato della particella vengono a mancare le proprietà pseudoeuclidee dello spazio-tempo. Tuttavia abbiamo visto invece che si tratta di un fenomeno relativo da attribuire alle differenti descrizioni della connessione metrica euclidea secondo le differenti scelte fatte sul fibrato dei riferimenti dello spazio piatto di Minkowski. In particolare non abbiamo affatto dovuto modificare la metrica di Minkowski, ma solamente esprimerla in coordinate differenti e utilizzare in maniera adeguata la descrizione sul fibrato dei riferimenti. Tuttalpiù può essere attribuito al fatto che lo spazio delle velocità non è euclideo, ma è piuttosto uno spazio di Lobachewski. 12 TEORIA DINAMICA DELLE SIMMETRIE. 12 227 Teoria dinamica delle simmetrie. Testi consigliati: [CDF], [N1], [N2]. Vogliamo ora considerare un’interpretazione fisica dei concetti introdotti nel capitolo 11. Questo verrà fatto da un punto di vista classico o tuttalpiù in prima quantizzazione, dove tutti i campi in gioco sono comunque classici. Assumeremo inoltre che i gruppi in gioco siano sempre dei gruppi di Lie. 12.1 Campi di materia. Cominciamo a descrivere una certa classe di campi che chiameremo campi di materia. 12.1.1 Simmetrie esterne ed interne. Su una varietà M si consideri un campo, termine con il quale intenderemo qui la funzione d’onda che descrive un qualche tipo di particella. La natura esatta del campo (scalare, vettoriale,. . .) dipenderà dal gruppo di struttura e dalla rispettiva rappresentazione. Si può ad esempio pensare che si tratti della funzione d’onda di una particella su M . Qui M può essere lo spazio-tempo (in una teoria relativistica ad esempio) o solamente lo spazio (nel caso non relativistico). Dal punto di vista pratico un campo di materia è semplicemente una mappa da un certo intorno locale a valori in uno spazio vettoriale: ψ : U −→ V , ad esempio V = C se si tratta del campo di Schrödinger di una particella senza spin. Dal punto di vista matematico si tratta della sezione di qualche fibrato vettoriale: ψ ∈ Γ(M, ξ), ξ = (E, π, M, G, (ρ, V )). La descrizione locale del campo può essere fatta scegliendo una carta locale (U, φ) nell’atlante di M . Allora esisterà una mappa Φ : π −1 (U ) −→ φ(U ) × V , con φ = π1 ◦ Φ32 , tramite la quale si ottiene la descrizione locale ψU : O −→ V , dove abbiamo posto O := φ(U ) ⊂ Rn e ψU = π2 ◦ Φ ◦ ψ ◦ φ−1 . Tale descrizione semplificata del campo ci permette di introdurre in forma elementare il seguente problema. Nel descrivere una situazione fisica si ricorre spesso al concetto di simmetria. Vediamo cosa si intende nel caso semplice in cui il campo sia la mappa ψU : O −→ V . Supponiamo che un osservatore stia descrivendo un certo sistema fisico in una regione O attorno a lui, tramite il campo ψU . Il modo più semplice in cui può manifestarsi una simmetria è tramite il fatto che la sua descrizione non dipenda sempre dal modo in cui lui osserva il sistema. Per esempio potrebbe accadere che guardandosi attorno, senza alzare o abbassare lo sguardo, la descrizione del mondo circostante rimanga sempre la stessa. Egli dirà che tale mondo è simmetrico per rotazione attorno al proprio asse. Naturalmente la conclusione non dipende dal fatto che sia lui a ruotare su sè stesso o sia il sistema a ruotare attorno a lui. Il primo è detto punto di vista passivo, mentre il secondo è il punto di vista attivo. Il punto di vista attivo mette 32 π1 e π2 sono le due proiezioni naturali sul primo e secondo fattore del prodotto cartesiano. 12 TEORIA DINAMICA DELLE SIMMETRIE. 228 in evidenza il fatto che la rotazione debba mandare O in sè stesso. L’osservatore dirà allora che le rotazioni sono trasformazioni di simmetria. Resta da specificare cosa si intenda dicendo che la descrizione resta la stessa. Dato che l’unico modo di testare il mondo fisico è tramite delle misure, la trasformazione deve lasciare invariate le quantità misurabili. Se ad esempio ψU (x) è osservabile e R : O −→ O è una trasformazione di simmetria, dovrà aversi ψU (x) = ψU (R(x)). Chiaramente se due trasformazioni sono trasformazioni di simmetria, anche la loro composizione lo è e dunque l’insieme di tutte le trasformazioni di simmetria formano un gruppo, detto gruppo di simmetria. Esiste tuttavia un secondo tipo di trasformazioni di simmetria, che lasciano cioè invariate le osservabili fisiche. Si tratta delle trasformazioni di V , cioè T : V −→ V . Per esempio se ψU è una funzione d’onda per una particella scalare non relativistica, allora la trasformazione di fase ψU (x) 7→ eiα ψU (x) è una tale simmetria. In particolare diremo che è locale o globale a seconda che α dipenda o meno dal punto x. Queste trasformazioni si dicono interne, dato che non sono associate direttamente ad una trasformazione geometrica dello spazio osservabile O, ma piuttosto allo spazio astratto V sul quale l’osservatore non può agire direttamente. V è talvolta detto spazio interno per ψU . Per contro il primo tipo di simmetrie si dicono esterne. Più in generale le trasformazioni esterne si mischieranno con quelle interne. π 12.1.2 Trasformazioni. Sia E −→ M un fibrato su M . Chiamiamo trasformazione del fibrato un diffeomorfismo T : E −→ E che rispetti la struttura delle fibre, cioè tale che • τ := π ◦ T ◦ π −1 : M −→ M è un diffeomorfismo; • T |Ex : Ex −→ Eτ (x) è un isomorfismo tra le fibre.33 Diremo che la trasformazione è interna se τ è l’identità (cioè se T è un isomorfismo di fibrati). Una trasformazione dei fibrati induce una trasformazione dei campi associati, T : Γ(M, E) −→ Γ(M, E), definita da T ψ = T ◦ ψ ◦ τ −1 per ogni ψ ∈ Γ(M, E). Si chiama trasformazione esterna del campo ψ la trasformazione ψ 7→ τ∗ ψ, indotta da un diffeomorfismo τ : M −→ M . È chiaro che ogni trasformazione può allora essere decomposta in trasformazioni interne ed esterne. 12.1.3 Osservazione. La definizione precedente può essere indebolita osservando che nella descrizione fisica non è a priori necessario fissare un determinato fibrato: un altro fibrato isomorfo andrebbe altrettanto bene. Perciò una trasformazione può essere definita come un diffeomorfismo T : E −→ Ẽ tra due fibrati isomorfi. In questo senso è naturale pensare alle trasformazioni come simmetrie del sistema, nel senso che mandano un fibrato in un altro, potenzialmente equivalente per descrivere la fisica. Il ’potenzialmente’ sottolinea il fatto che l’equivalenza non è ancora garantita. Infatti la fisica non è descritta solamente dagli oggetti (i campi e i fibrati), ma anche dalle relative equazioni del moto che caratterizzano il sistema. Una simmetria deve quindi rispettare anche le equazioni del moto. 33 Un isomorfismo lineare se il fibrato è vettoriale, di gruppi se è un fibrato principale e cosı̀ via. 12 TEORIA DINAMICA DELLE SIMMETRIE. 229 ' 12.1.4 Significato. In una descrizione locale Φ : π −1 (U ) −→ U × V , una trasformazione interna sarà determinata da una funzione locale f : U × V −→ V , in modo che la trasformazione sarà descritta dall’applicazione (x, v) 7→ (x, f (x, v)) . Tale applicazione deve agire linearmente sulla fibra,34 e poichè le trasformazioni formano un gruppo, la funzione f si riduce a sua volta ad un’applicazione T : U −→ Aut(V ) , a valori negli automorfismi di V cosicché f (x, v) = T (x)v . Il sottogruppo di Aut(V ) generato dalle trasformazioni T (x) , x ∈ U realizza un gruppo U, in generale diverso dal gruppo di struttura G. Possiamo sempre pensare a questo come alla rappresentazione di U sulla fibra Ex ' V . Viceversa dato un gruppo U e una sua rappresentazione su V , possiamo costruire un gruppo di trasformazioni con la procedura inversa. Data cioè una mappa f : U −→ U , la trasformazione sarà descritta dall’applicazione (x, v) 7→ (x, ρ(f (x))(v)) . Per capire ancora meglio il significato delle trasformazioni, supponiamo supponiamo che V ' R3 e U sia il gruppo delle rotazioni. Sia poi R la rappresentazione di U su V . La trasformazione (x, v) 7→ (x, R(f (x))(v)) , corrisponde allora a far ruotare V tramite una rotazione R(f (x)). Poiché tale rotazione dipende dal punto x dobbiamo pensare che per ogni x lo spazio V subisca una rotazione diversa per ogni punto. Questo giustifica il fatto che sia conveniente pensare alla trasformazone agente su una copia` diversa Ex ' V di V per ogni punto e ai campi come a delle funzioni a valori in U × V = x∈U Ex anziché in V . La struttura di fibrato è dunque quella più naturale per descrivere le trasformazioni. Osserviamo che comunque, a differenza del gruppo di struttura G, il gruppo di trasformazioni U non lascia invariati i vettori di E nè tantomeno le sue sezioni. Il fibrato che occorre costruire per poter descrivere dei campi di E soggetti a trasformazioni non è dunque in generale lo stesso di E. Sia allora Υ il fibrato principale con gruppo U. Possiamo procedere in due modi. Se P è il fibrato principale con gruppo G sotteso da E, si può costruire il fibrato principale P ⊗ Υ su 34 consideriamo campi vettoriali 12 TEORIA DINAMICA DELLE SIMMETRIE. 230 cui agiscono sia G che U , e quindi ricostruire il fibrato Ẽ con la struttura arricchita. Tuttavia dal punto di vista fisico, dovendo distinguere tra i campi vettoriali rispetto alla struttura G e le U−trasformazioni, conviene adottare la corrispondenza individuata nella sezione 11.4.9. 12.1.5 Campi di materia e trasformazioni di gauge. Chiamiamo campo di materia calibrabile o gauge covariante su E una mappa equivariante φ : Υ −→ E, tale che πE ◦ φ = πΥ . Equivariante significa che è equivariante su ogni fibra. Lasciamo come utile esercizio la verifica del fatto che una trasformazione interna di un campo di materia su E è allora indotta da una trasformazione di Υ. A tale scopo si introduca una descrizione locale di E e Υ indotta da una carta locale (U, φ) dell’atlante di M e si descriva la trasformazione interna di un campo osservando che l’azione di U sulle fibre di Υ è transitiva. Si chiama scelta del gauge o calibrazione la scelta di una sezione σ ∈ Γ(M, Υ). In tal caso si dice che la sezione φσ := φ ◦ σ ∈ Γ(M, E) rappresenta il campo φ nel gauge fissato. La trasformazione che corrisponde al passaggio da una sezione σ ad una seconda sezione σ̃ si chiama trasformazione di gauge o ricalibrazione. In una descrizione locale σ è individuata da una funzione (che continuiamo a chiamare) σ : U −→ U, cosicché esisterà una funzione f : U −→ U tale che σ̃(x) = σ(x)f (x)−1 per ogni x ∈ U . Allora, sempre nella descrizione locale, avremo φσ̃ = (ρ ◦ f )(φσ ). Come abbiamo osservato in precedenza, le trasformazioni di gauge vengono promosse a simmetrie di gauge se sono delle simmetrie, ed in particolare se lasciano invariate (o covarianti) le equazioni del moto. Si noti che la seconda condizione è in generale più debole della prima: essa significa che la trasformazione di gauge manda una soluzione delle equazioni del moto in un’altra soluzione, ma non è detto che la nuova soluzione abbia lo stesso significato fisico della vecchia, come invece pretende una simmetria. Se la soluzione è una nuova soluzione fisica si dice che la trasformazione è una dualità. Nelle teorie di gauge comunque si assume come principio che le trasformazioni di gauge siano simmetrie, cosicché solo alle quantità invarianti per trasformazioni di gauge, detti gli invarianti di gauge, viene attribuito un significato fisico. 12.2 Campi di gauge. Le equazioni del moto per i campi di materia in una teoria di gauge devono essere scritte in forma covariante. Un modo naturale per farlo è di scriverle in termini di derivate covarianti, come mostrato nel capitolo 11. Tuttavia, prima di procedere in via sistematica, vogliamo illustrare il punto di vista euristico dei fisici. 12.2.1 Costruzione euristica dei campi di gauge. Consideriamo dapprima un esempio particolarmente semplice. Sia M = R3,1 lo spazio-tempo di Minkowski e φ : M −→ C un campo scalare, al quale non diamo alcun significato particolare, ma semplicemente assumiamo che tutte le quantità misurabili siano funzioni di φ(x)∗ φ(x) = |φ(x)|2 e delle quantità conservate associate all’azione Z S[φ] = η µν ∂µ φ∗ (x)∂ν φ(x)d4 x . M 12 TEORIA DINAMICA DELLE SIMMETRIE. 231 Si osservi che allora l’azione è invariante per trasformazioni di fase costante φ 7→ eiα φ dove α : M −→ R è una mappa costante. Usando il teorema di Noether35 si trova la corrente conservata jµ (x) = i(φ(x)∗ ∂µ φ(x) − φ(x)∂µ φ(x)∗ ) che infatti, per ogni φ che risolve le equazioni del moto, soddisfa ∂µ j µ = 0. Fissato un sistema di riferimento (ct, x1 , x2 , x3 ) e una fissata regione spaziale V di bordo S = ∂V fissa nel dato riferimento si ha perciò Z Z I Z ∂ 0 d 0 3 3 l 3 j (x)d x = j (x)d x = −c ∂l j d x = −c jl (x)nl (x)dσ, dt V ∂t V V S in cui abbiamo dapprima utilizzato l’equazione di continuità ∂µ j µ = 0 e poi il teorema di Stocks. In particolare l si somma da 1 a 3 e R~n è il versore normale alla superficie e sσ l’elemento di superficie. Dunque la quantità Q := V j 0 d3 x si conserva nel tempo se non vi è flusso di ~j attraverso la superficie. Si noti che, come doveva essere, anche la corrente conservata è invariante per la trasformazione di fase costante. Vogliamo ora chiederci cosa accade se facciamo una trasformazione di fase dipendente dal punto, in cui cioè α ∈ C ∞ (M ) non sia più costante. In primo luogo non è più conveniente pensare al campo come ad una funzione a valori complessi, ma piuttosto come una sezione φ : M −→ M × C , tale che π1 ◦ φ = idM . ` In questo modo, posto Cx := π1−1 (x) ' C, avremo M × C := x∈M Cx e potremo pensare alla trasformazione di fase φ 7→ eiα φ come associata ad una diversa rotazione di fase di angolo α(x) per ciascun piano complesso Cx . Questo mette in luce la struttura di fibrato necessaria. Tuttavia la trasformazione ottenuta non è una simmetria poiché non lascia invariata nè l’azione nè le equazioni del moto. Per vedere come modificare la teoria per renderla una teoria di gauge analizziamo in che modo risulta violata l’invarianza e come possa essere ripristinata. Per farlo, generalizziamo un po’ l’esempio, assumendo che φ abbia valore in Cn e che la simmetria originale sia φ 7→ gφ, dove g : M −→ G è una funzione costante a valori nel sottogruppo G di U (n, C)36 . Per rendere locale la simmetria assumiamo dunque che g non sia più costante. L’azione sia semplicemente Z S[φ] = η µν h∂µ φ(x), ∂ν φ(x)id4 x , M scritta in termini del prodotto hermitiano in Cn . Vediamo subito che l’invarianza dell’azione cade a causa del semplice fatto che ∂µ (g(x)φ(x)) 6= g(x)∂µ φ(x) . 35 o direttamente dalle equazioni del moto η µν ∂µ ∂ν φ = 0 36 l’esempio originale si riottiene allora per n = 1 12 TEORIA DINAMICA DELLE SIMMETRIE. 232 Per ripristinare la simmetria occorre ripristinare tale proprietà. Bisogna cioè covariantizzare la derivata. A ∂µ bisogna sostituire una nuova derivata Dµ covariante. Nel linguaggio di 12.1.5 diremo che se φ̃(x) = g(x)φ(x) rappresenta la trasformazione di gauge, allora anche la derivata Dµ deve trasformarsi in D̃µ in modo che valga D̃µ φ̃(x) = g(x)Dµ φ(x) , cioè la derivata (trasformata) del trasformato deve essere pari al trasformato della derivata. In altre parole, esattamente come avviene per φ, Dµ sarà solo l’espressione nel gauge fissato della derivata. Se la condizione suddetta è soddisfatta, otteniamo una teoria di gauge semplicemente sostituendo Dµ a ∂µ . Cerchiamo ora di capire come debba essere fatta l’espressione locale (cioè nel dato gauge) della derivata Dµ . Possiamo scrivere Dµ = ∂µ + Aµ (x), dove Aµ (x) : Cn −→ Cn sarà un qualche operatore lineare che deve agire sul campo φ. Nel nuovo gauge avremo invece D̃µ = ∂µ + õ (x). Imponendo la suddetta condizione di covarianza otteniamo che deve essere õ (x) = g(x)Aµ (x)g(x)−1 − g(x)−1 ∂µ g(x) . Questa relazione ci dice come deve essere fatto l’operatore Aµ (x). Se U è il gruppo di trasformazioni allora g(x)−1 ∂µ g(x) ∈ Lie(ρ(U))37 e quindi Aµ è localmente un campo a valori in Lie(U), ed agisce sul campo φ tramite la rappresentazione di Lie(U) indotta da ρ. Tuttavia Aµ non è un campo di materia, poiché sotto trasformazioni di gauge non trasforma come una sezione, a causa del termine additivo g(x)−1 ∂µ g(x). Per tale motivo Aµ viene invece chiamato campo di gauge. 12.2.2 Osservazione. Nel caso in cui il gruppo di gauge sia U (1) allora iAµ avrà valori in R e alla trasformazione di fase con angolo α corrisponde la trasformazione di gauge iõ = iAµ +∂µ α. Dunque iAµ si comporta esattamente come il quadripotenziale del campo elettromagnetico! Questa affermazione induce a dare proprio tale interpretazione ad Aµ . In tal caso sappiamo rendere dinamico Aµ associandovi il campo di forze Fµν = ∂µ Aν − ∂ν Aµ e la relativa azione Z S[A] = κ Fµν F µν d4 x . M Da questo punto di vista possiamo dire che i campi di gauge e i relativi campi di forze sono conseguenza del fatto che si siano rese locale delle simmetrie globali. In un certo senso sono il manifestarsi di una simmetria che per qualche motivo non può essere globale. Si osservi anche che Fµν in questo caso è invariante di gauge e quindi è osservabile, a differenza di Aµ . Prima di considerare il caso di un gruppo generico, torniamo all’interpretazione geometrica rigorosa. 37 dove ρ è la rappresentazione di U su V 12 TEORIA DINAMICA DELLE SIMMETRIE. 233 12.2.3 Connessione e campi di gauge. Consideriamo il fibrato principale delle trasformazioni di gauge Υ. Sia T : Υ −→ Υ una trasformazione di gauge, cioè un automorfismo di Υ che induce l’identità su M . Per descrivere tale trasformazione osserviamo che T determina univocamente una funzione equivariante αT : Υ −→ G, cioè tale che αT (ξg) = Adg−1 (αT (ξ)) per ogni ξ ∈ Υ e g ∈ G. Infatti, per definizione, T manda ogni fibra in sè, sicché se ξ ∈ Υx allora si ha T (ξ) ∈ Υx . D’altra parte G agisce transitivamente e liberamente su ogni fibra, e quindi deve esistere un unico g ∈ G tale che T (ξ) = ξg. Tale g è univocamente determinato da ξ e T e quindi possiamo definire αT (ξ) := ξg, cioè ξαT (ξ) =: T (ξ) . D’altra parte la trasformazione deve essere compatibile con l’azione a destra, cioè T (ξh) = T (ξ)h per ogni h ∈ G. Da ciò segue che αT è equivariante: (ξh)αT (ξh) = (ξαT (ξ))h =⇒ αT (ξh) = h−1 αT (ξ)h . Viceversa, una mappa equivariante α : Υ −→ G determina univocamente una trasformazione Tα : Υ −→ Υ. Basta porre Tα (ξ) = ξα(ξ). Su Υ possiamo introdurre una connessione infinitesima ω con la quale definire una derivata covariante ∇ω che agisca sui campi di materia, come introdotto in 11.3.12 e 11.4.11. Vogliamo innanzitutto vedere quale sia l’effetto di una trasformazione T sulla connessione. 12.2.4 Proposizione. La 1−forma T ∗ ω è ancora una connessione infinitesima su Υ e si ha T ∗ (ω)ξ = AdαT (ξ)−1 (ωT (ξ) ) + dLα−1 (ξ) ) ◦ dαT (ξ) . T Qui abbiamo usato il pedice ξ per indicare la valutazione nel punto ξ ∈ Υ. Dimostrazione. Diamo una traccia della dimostrazione. Per verificare la formula per T ∗ (ω)ξ basta applicare T ∗ (ω)ξ ad un campo vettoriale Ψ su Υ usando T ∗ (ω)ξ (Ψ(ξ)) = ωξ (T∗ (Ψ)(ξ)) e T (ξ) = ξαT (ξ) per calcolare il push forward, dove usiamo ξg per Rg (ξ). Una volta verificata la formula, si verifichi che l’espressione nel membro di destra soddisfa le proprietà di una connessione infinitesima. 2 La mappa dLα−1 (ξ) ◦ dαT (ξ) : Tξ Υ −→ Lie(G) T viene usualmente indicata con αT (ξ)−1 dαT (ξ) e chiamata derivata logaritmica di αT . Naturalmente dLα−1 (ξ) : TαT (ξ) U −→ Te G T è l’azione a sinistra su T G (ristretta ad αT (ξ)) indotta dalla moltiplicazione a sinistra sul gruppo. 12 TEORIA DINAMICA DELLE SIMMETRIE. 234 Sia (U, φ) una carta locale. Supponiamo ora di fissare un gauge σ ∈ Γ(U, Υ). Questa è un’operazione che può essere fatta solo localmente. Il motivo è che in generale un fibrato principale è banale se e solo se ammette una sezione globale38 . Dunque non esistono sezioni globali se il fibrato non è banale. Detto ciò, potremo definire la connessione locale nel gauge fissato come A := ω ◦ σ. Si tratta di una 1-forma a valori in Lie(G). Cosa accade se cambiamo gauge, cioè se passiamo da σ a σ̃ ∈ Γ(U, Υ)? Il cambiamento può evidentemente essere visto come indotto da una trasformazione del fibrato Υ|U e quindi sarà descritto allora da una mappa equivariante αT cioè σ̃(x) := T σ(x) = σ(x)αT (σ(x)) =: σ(x)g(x). Nel nuovo gauge la connessione locale à sarà allora legata ad A dalla relazione A = T ∗ à ed applicando la regola di trasformazione della proposizione otteniamo A(x) = g(x)−1 Ã(x)g(x) − g(x)−1 dg(x) , che è proprio la formula dedotta euristicamente dal punto di vista fisico. Basta inoltre applicare 11.4.11 per verificare che la derivata covariante Dµ è semplicemente l’espressione locale della derivata covariante geometrica ∇ω sui campi di materia. Si noti in particolare che il campo A visto come un campo su M è ben definito solo localmente, mentre l’oggetto globale è ω che vive su Υ. Questo mostra l’importanza del concetto di fibrato nella costruzione delle teorie di gauge. 12.2.5 Curvatura e campo di forze. Data la connessione infinitesima ω su Υ, possiamo anche considerarne la forma di curvatura Ω = H(dω). L’equazione di struttura (sezione 11.5.3) ci dice allora che Ω = dω + 21 [ω, ω]. Scelto un gauge locale σ possiamo introdurre il concetto di curvatura locale F := Ωσ = Ω ◦ σ. Allora F = dA + 21 [A, A] è una 2-forma a valori in Lie(G). In particolare se G = U (1) allora F = dA è il tensore di Faraday. Dunque la forma di curvatura rappresenta il campo di forze o fieldstrength associato al campo di gauge. È un semplice esercizio verificare che in una trasformazione di gauge il campo di forze trasforma secondo la rappresentazione aggiunta: se σ̃(x) = σ(x)g(x) allora F̃ (x) = dAdg(x) (F (x)).39 In effetti si tratta dell’espressione locale della seguente proposizione di facile dimostrazione. 12.2.6 Proposizione. Sia T : Υ −→ Υ una trasformazione di gauge. Se Ω è la forma di curvatura associata ad ω allora T ∗ Ω è la forma di curvatura associata a T ∗ ω e si ha T ∗ Ωξ = dAdαT (ξ)−1 ◦ ΩT (ξ) . 12.3 Teorie di Yang-Mills. Riassumendo, il campo di gauge è geometricamente individuato dalla connessione infinitesima sul fibrato principale, mentre il campo di forze è individuato dalla forma di curvatura. L’interazione di tali campi con i campi di materia avviene tramite l’azione della derivata covariante ∇ω e del corrispondente campo di curvatura Ω∇ sui campi di materia. Si noti che in un particolare gauge avremo ad esempio ∇µ φ(x) = ∂µ φ + ρ(A(x))φ(x), dove ρ è la rappresentazione di Lie(G) 38 39 la dimostrazione è un esercizio ovviamente dAdg è l’azione aggiunta del gruppo sull’algebra ottenuta differenziando Adg : U −→ U 12 TEORIA DINAMICA DELLE SIMMETRIE. 235 su V . Se inoltre fissiamo una base {τa }na=1 dell’algebra di Lie di G, con costanti di struttura cbc a , allora A = Aa τa , F = F a τa e a Fµν = ∂µ Aaν − ∂ν Aaµ + cbc a Abµ Acν . Ovviamente dal punto di vista fisico è conveniente identificare il campo di forze con Ω∇ che vive su M , anziché con Ωω che vive su Υ.40 . In tal senso il campo di forze è globalmente definito su M , a differenza del campo di gauge. In questo senso il campo di forze appare più fisico del campo di gauge che rappresenta piuttosto un ’potenziale’ per il campo di forze. Tuttavia possiamo notare che solamente se il gruppo di gauge è abeliano il campo di forze è invariante di gauge. Nel caso non abeliano F trasforma con l’aggiunta e non è direttamente osservabile. Lo saranno piuttosto le quantità invarianti che si possono costruire a partire da F . 12.3.1 Interazioni di gauge. L’accoppiamento tra connessione e campi di materia ha come effetto secondario un’interazione tra i campi di materia mediata dai campi di gauge, detta anche interazione di gauge. Per esempio nel caso eletromagnetico possiamo dire che l’interazione elettromagnetica tra campi carichi41 è mediata dal quadripotenziale Aµ . Abbiamo visto come nel caso abeliano sia possibile rendere R dinamico il campo di gauge introducendo un’azione quadratica nel campo di forze: S[A] = κ Fµν F µν d4 x. Nel caso nonabeliano tale espressione non è invariante di gauge, ma lo è la sua traccia. Dunque su una varietà (pseudo-)metrica ha senso definire almeno localmente Z p SU [A] = κ T r{Fµν (x)F µν (x)} g(x)d4 x , U dove g(x) è il modulo del determinante della matrice metrica, (U, φ) una carta locale e la traccia è presa nella rappresentazione aggiunta (composta con la rappresentazione ρ). Se Ũ è un secondo aperto locale che ha intersezione non vuota con U allora sull’intersezione F ed F̃ differiranno per una trasformazione di coordinate composta con una trasformazione di gauge. Chiaramente l’integrale con la misura indotta dalla metrica non dipende dalla scelta delle coordinate. Poiché la trasformazione di gauge corrisponde all’azione aggiunta del gruppo su F e dato che la traccia è invariante sotto tale azione, si ha allora SŨ [Ã]|U ∩Ũ = SU [A]|U ∩Ũ . Quindi le due azioni locali sono compatibili ed è possibile determinare una partizione dell’unità associata all’atlante di M e definire quindi SM [A]. In assenza di altri termini, le equazioni del moto conseguenti sono dunque42 0= 40 p δSM = −4κKab ∂ν ( g(x)F bνµ (x)) , a δAµ (x) sappiamo però che sono equivalenti diremo che un campo di materia è carico se trasforma in maniera non banale sotto trasformazioni di gauge 42 calcolata ad esempio scegliendo una variazione δAaµ a supporto compatto in U 41 12 TEORIA DINAMICA DELLE SIMMETRIE. 236 dove Kab = T r(τa τb ) è la metrica di Killing sull’algebra di Lie del gruppo di gauge. Inoltre F deve soddisfare le identità di Bianchi 11.5.4 che assumono la forma43 Dµa Fνρ (x) + Dρa Fµν (x) + Dνa Fρµ (x) = 0 , dove si è posto c a (x) + cbc a Abµ (x)Fνρ (x) . Dµa Fνρ (x) := ∂µ Fνρ Le teorie di gauge la cui dinamica viene definita dall’azione quadratica testé definita si chiamano teorie di Yang-Mills. Se il gruppo di gauge è abeliano si riducono essenzialmente alla teoria del campo elettromagnetico, per cui ci si riferisce al caso non-abeliano quando si parla di teorie di Yang-Mills. Si noti che in tal caso l’azione SM [Aa ] non è quadratica nei campi ma contiene anche termini cubici e quartici.44 Dal punto di vista fisico questo significa che nemmeno in assenza di sorgenti i campi di gauge non-abeliani soddisfano il principio di sovrapposizione, a causa dei termini cubici e quartici che si interpretano allora come termini di autointerazione. Questa interprtazione è chiara dal punto di vista perturbativo in cui i termini non lineari nelle a := ∂µ Aaν −∂ν Aaµ , equazioni del moto vengono considerati perturbativamente. Posto allora F(0),µν aµν le equazioni del moto assumono la forma ∂µ F(0) = j aν , dove j aν contengono termini quadratici a e cubici nei campi di gauge e a livello perturbativo definiscono la sorgente per il campo F(0),µν . È interessante comunque osservare che esistono tecniche per determinare e descrivere soluzioni esatte di queste equazioni che, oltre a permettere di descrivere fenomeni non perturbativi in fisica, introducono una più profonda interazione tra fisica e matematica. Ci limiteremo invece a concludere le nostre considerazioni sulle teorie di Yang-Mills con alcune osservazioni. 12.3.2 Osservazioni. Scelta una base τa dell’algebra di Lie asociata al gruppo di gauge, anziché parlare di campo di gauge Aµ , in fisica si preferisce parlare di campi di gauge Aaµ . Ad esempio se il gruppo di gauge è SU (n), ci saranno n2 − 1 campi di gauge. Un solo campo per U (1) (il fotone), tre per SU (2) (la luce pesante Z, W ± ), otto per SU (3) (i gluoni). Ad ogni campo di gauge è associata una carica, che chiameremo carica di gauge in generale ma che assume il nome specifico di carica elettrica, elettrodebole e di colore nei casi sopra citati. Consideriamo un campo di materia φ su cui agisca un gruppo compatto K (di Lie) come gruppo di gauge, in qualche rappresentazione ρ. Se il gruppo è compatto allora si può sempre scrivere P a localmente la trasformazione di gauge nella forma φ̃(x) = e a qa α (x)τa φ(x). Le costanti qa sono appunto le cariche del campo, che determinano come il campo si trasforma sotto l’azione del gruppo. In particolare la connessione infinitesima sarà ragionevolmente scritta, dal punto di vista fisico, nella forma X ω ◦ σ(x) = qa τa Aa , a dove σ è il gauge fissato. Si noti che alcune delle cariche possono essere nulle, tuttavia quelle non nulle devono corrispondere ad una sottoalgebra dell’algebra di Lie. In tal caso la teoria di gauge si riduce al sottogruppo corrispondente. In ogni caso possiamo pensare alle cariche 43 44 verificare! si scriva esplicitamente SM [A] in termini di Aaµ 12 TEORIA DINAMICA DELLE SIMMETRIE. 237 come dei parametri che determinano la rappresentazione con la quale la connessione (che ha valori nell’algebra del gruppo di gauge) agisce sul campo di materia. Tali cariche dipendono comunque dal campo di materia e non dal campo di gauge la cui natura è fissata. Infine osserviamo che finora abbiamo parlato di gruppo di gauge riferendoci al gruppo di Lie compatto indotto su ogni fibra. Tuttavia più propriamente il gruppo di gauge è il gruppo delle trasformazioni del fibrato principale e si tratta dunque di un gruppo di Lie infinito dimensionale, ben più complicato dei gruppi di Lie da noi considerati. 12.4 Simmetrie esterne e relatività. Finora abbiamo considerato le simmetrie che riguardano le trasformazioni dello spazio interno, che costituisce parte della definizione dei campi. Tuttavia un ruolo non meno importante ce l’hanno le trasformazioni esterne, che riguardano cioè lo spazio-tempo. Esse infatti sono determinanti nella costruzione stessa dei campi e non solo nella loro dinamica e sono ovviamente i fondamenti delle teorie relativistiche. Nel capitolo 13 vedremo ad esempio il ruolo della relatività ristretta nella determinazione dei campi fondamenteli e delle relative equazioni del moto che trovano posto nel modello standard delle particelle elementari, il cui contenuto geometrico verrà illustrato nel capitolo 14. In questa sezione ci occuperemo invece di alcuni aspetti della relatività generale. 12.4.1 Relatività generale e leggi fisiche. Mentre in relatività ristretta si privilegiano i sistemi di riferimento inerziali, nella relatività generale non viene privilegiato alcun sistema di riferimento. Poiché costruire un sistema di riferimento in una regione dello spaziotempo corrisponde a introdurvi un sistema di coordinate locali, le equazioni fisiche devono essere nella loro essenza indipendenti dalla scelta delle coordinate. In altri termini le equazioni fisiche vanno scritte in forma tensoriale (covariante o controvariante) nelle coordinate locali. Gli argomenti considerati nei precedenti capitoli ci portano a pensare che lo spazio-tempo debba essere allora considerato come una varietà differenziale. Le leggi fisiche andranno allora scritte in termini di sezioni di fibrati associati al fibrato dei riferimenti. In questo modo le equazioni risulteranno indipendenti dalla scelta delle coordinate, ovvero trasformeranno in maniera covariante rispetto a cambiamenti di coordinate. Da questo punto di vista dunque una scelta di coordinate locali è equivalente a una scelta di gauge nelle teorie di gauge. Tuttavia in questo caso la questione è un po’ più delicata, poiché non possiamo dire a priori che solo le quantità indipendenti dalla scelta delle coordinate sono osservabili. I fenomeni relativistici sono appunto quelli in cui i risultati delle misure dipendono dalle coordinate (cioè dal sistema di riferimento). Nella maggior parte dei casi sono proprio le componenti dei tensori ad essere misurabili, sebbene dipendano ovviamente dal riferimento. Tuttavia è evidente che le quantità invarianti avranno un significato più profondo. 12.4.2 Il principio di equivalenza e la geometria dello spazio-tempo. Il principio di equivalenza può essere espresso nei seguenti due punti • si consideri una particella in caduta libera (cioè muoventesi in assenza di forze differenti da quella gravitazionale). Allora la sua traiettoria non dipende dalla composizione e dalla 12 TEORIA DINAMICA DELLE SIMMETRIE. 238 struttura interna della particella; (principio di equivalenza debole) • esperimenti locali eseguiti in riferimenti in caduta libera danno risultati indipendenti dalla velocità del riferimento considerato, dal’istante e dal luogo dell’universo in cui essi vengono eseguiti. Il primo punto era già rispettato dalla teoria della gravitazione di Newton. Il secondo punto, aggiunto al primo, definisce il principio di equivalenza forte. Esso afferma che nell’intorno di ogni punto si può costruire un laboratorio abbastanza piccolo in cui gli effetti gravitazionali risultino completamente trascurabili ed inavvertibili, almeno per tempi piccoli, per cui la fisica sarà descritta (all’interno di tale laboratorio) dalla fisica dei sistemi inerziali. Nella teoria della relatività generale si assume usualmente che questa sia la fisica Minkowskiana. Ciò non significa che il campo gravitazionale non sia misurabile dato che gli osservatori potranno determinare le forze di marea, come vedremo più avanti. Si consideri ad esempio una particella massiva in caduta libera. In un laboratorio localmente inerziale il suo moto sarà descritto, nelle fissate coordinate, dall’equazione del moto libero d2 x µ =0, dτ 2 dove τ è il tempo proprio. Questo è certamente vero in un intorno del punto xµ0 := xµ (0), il nostro laboratorio. Questa piccola regione dello spaziotempo verrà descritta con una metrica Minkowskiana ηµν . Consideriamo ora un secondo sistema di riferimento arbitrario, rispetto al quale il moto della particella sarà descritto da coordinate x̃ = x̃(x). Gli osservatori Õ di questo laboratorio vedranno allora le correlazioni spaziotemporali descritte dall’osservatore inerziale α ∂xβ . Applicando la trasformazione di coordinate O, in termini di una metrica gµν (x̃) = ηαβ ∂x ∂ x̃µ ∂ x̃ν all’equazione del moto si ottiene l’equazione che secondo Õ descrive il moto della particella: α β d2 x̃µ µ dx̃ dx̃ + Γ =0, αβ dτ 2 dτ dτ in cui Γµαβ sono proprio i simboli di Christoffel determinati dalla metrica gµν . Questa è l’equazione di una curva autoparallela su una varietà di metrica gµν dotata della connessione di Levi-Civita. Questa osservazione, unita con la terza parte del principio di equivalenza, suggerisce che lo spazio-tempo debba essere identificato con una varietà differenziale dotata di una metrica di segnatura Minkowskiana, in cui le equazioni che descrivono quei fenomeni localmente non gravitazionali vengano ottenute semplicemente covariantizzando le corrispondenti equazioni note nel limite inerziale. Questo a livello pratico significherebbe sostituire la metrica generica gµν in luogo di quella di Minkowski e la derivata covariante in luogo di quella ordinaria. In ogni dato punto si potranno sempre scegliere delle coordinate locali per le quali la matrice metrica sarà proprio ηµν . Tuttavia non è vero che questo sia possibile farlo in tutto l’intorno dato: questo dipende da quale sia realmente la metrica sullo spazio tempo. Tale eventuale impossibilità sarà allora la manifestazione delle forze gravitazionali e la loro intensità determinerà l’ampiezza della regione dello spazio-tempo in cui il limite minkowskiano sarà approssimativamente valido. 12 TEORIA DINAMICA DELLE SIMMETRIE. 239 Il principio di equivalenza può essere indebolito, richiedendo che nel secondo punto solo gli esperimenti locali non gravitazionali eseguiti in riferimenti in caduta libera diano risultati indipendenti dalla velocità del riferimento considerato, dal’istante e dal luogo dell’universo in cui essi vengono eseguiti. Questo viene chiamato anche principio di equivalenza di Einstein. Distinguendo gli esperimenti gravitazionali da quelli non gravitazionali tale principio in realtà è più debole ed è quindi soddisfatto da una classe più ampia di teorie rispetto a quelle che soddisfano il principio di equivalenza forte. In particolare la teoria della relatività generale è l’unica finora nota che soddisfi il principio di equivalenza forte. Perciò chiameremo il principio di equivalenza forte principio di relatività generale. 12.4.3 Relatività generale e geometria. Quanto osservato finora richiede alcuni ulteriori commenti. Quando si covariantizza, non vi è un’unica possibilità di scegliere la derivata covariante. Dato il ruolo attribuito alla metrica, è chiaro che la connessione dovrà essere metrica. Tuttavia questa condizione non è sufficiente a determinare univocamente la connessione, che può ancora dipendere dalla scelta di una torsione. L’equazione sopra determinata per il moto della particella, non è ancora sufficiente a decidere che la connessione debba essere proprio quella di Levi-Civita. Dapprima osserviamo che in questa equazione non può esservi torsione. Si faccia infatti l’esercizio di dimostrare che se esistono delle coordinate per le quali in un punto dato la metrica è quella di Minkowski e Γµαβ = 0 (un’arbitraria connessione metrica), allora necessariamente in quel punto la torsione è nulla. Il principio di equivalenza richiede che questo debba valere ovunque e sempre, per cui in questa equazione si deve usare la connessione di Levi-Civita. Questa è una manifestazione dell’equivalenza tra massa inerziale e massa gravitazionale. Non sarebbe però strano che la torsione comparisse in altre equazioni. Questa particolare equazione sarebbe significativa su una varietà metrica a prescindere dalla presenza o meno di una torsione. Semplicemente non sarebbe più l’equazione di una curva autoparallela, continuerebbe ad essere l’equazione di una curva geodetica, che rende cioè stazionario il funzionale lunghezza d’arco Z S[γ] = −mc ds , γ dove ds = cdτ è il tempo proprio (e c la velocità della luce, m la massa della particella). Mentre lasciamo come esercizio la verifica di tale fatto, possiamo commentare che dunque le particelle si devono muovere di moto geodetico e questo non è affatto incompatibile con la presenza di una eventuale torsione. L’unica condizione di compatibilità richiesta è che la connessione sia metrica. Tuttavia il punto è che il principio di equivalenza deve valere per tutte le equazioni che riguardano i fenomeni localizzati. Questo significa che nel dato punto la torsione, nelle date coordinate, deve scomparire da tutte le equazioni, per cui ovunque bisogna utilizzare la connessione metrica. Il principio di relatività generale quindi richiede che lo spazio-tempo debba essere una varietà di Levi-Civita. Accertato questo fatto, occorre determinare delle equazioni che stabiliscano quale debba essere la metrica sullo spaziotempo che determina gli effetti gravitazionali. Queste saranno appunto le equazioni di Einstein. Vi sono diversi modi di introdurre le equazioni di Einstein. Per essere 12 TEORIA DINAMICA DELLE SIMMETRIE. 240 brevi adotteremo un approccio che, sebbene non sia necessariamente quello preferibile dal punto di vista fisico, mette in luce gli aspetti geometrici. Il principio di equivalenza di Einstein, come lo abbiamo scritto sopra, permette invece l’esistenza di campi diversi dal campo gravitazionale, come generatori delle interazioni gravitazionali. Per esempio diventa ammissibile una torsione (gravità con torsione) non nulla oppure la presenza di ulteriori campi, oltre al campo metrico, come responsabili delle interazioni gravitazionali. 12.4.4 Esercizio. Si supponga di introdurre nell’intorno di un punto O delle coordinate localmente inerziali, per le quali gµν (O) = ηµν e Γµνρ (O) = 0. Si dimostri che (se le coordinate di O sono nulle) allora 1 gµν (x) = ηµν + Rαµβν (O)xα xβ + O(|xσ |3 ) . 3 Come si vede dall’esercizio il campo gravitazionale si manifesta attraverso il tensore di Riemann. Nello stesso limite ad esempio l’equazione geodetica assume la forma 2 ẍµ + Rµ 00σ (O)xσ = 0 , 3 dove abbiamo ipotizzato una particella inizialmente in quiete. In particolare quindi l’osservatore O vedrà le particelle a lui molto vicine subire delle quadriforze f µ = − 23 mRµ 00σ (O)xσ , nelle varie direzioni, che interpreterà come forze di marea e che potrà misurare per determinare la presenza del campo gravitazionale. 12.4.5 Il principio d’azione: equazioni di Einstein. In questa sezione accenneremo ad un metodo geometrico di costruzione dell’azione di gravità, evidenziando le idee principali e lasciando i dettagli come esercizio [CDF]. Poiché il ’campo di gauge’ in questo caso è la metrica, vogliamo costruire un’azione per il campo gravitazionale, che sia invariante per trasformazioni generali, che manifesti l’invarianza locale di Lorentz e le cui equazioni del moto contengano derivate di ordine non superiore al secondo. Nella costruzione del principio di azione vi è un punto delicato che riguarda i termini di bordo e che va considerato con cautela nei casi in cui si debbano considerare particolari condizioni di bordo. Qui non tratteremo tali questioni (che escono dai nostri scopi) ipotizzando che i termini di bordo non diano mai problemi. Anzitutto, cominciamo con l’osservare che, a differenza delle teorie di Yang-Mills, non è possibile a priori scegliere la varietà M che individua lo spazio-tempo. Infatti, mentre a priori qualunque varietà ammette almeno una metrica Riemanniana, non tutte le varietà ammettono metrica Lorentziana. Probabilmente non è nemmeno nota una classificazione delle varietà che ammettono una metrica con segnatura Minkowskiana. Questo significa che in realtà le equazioni di Einstein devono determinare non solo la metrica, ma anche la varietà (o meglio la classe di isomorfismo) su cui tale metrica è definita. Una possibilità è quella di costruire l’azione e le relative equazioni del moto solo localmente, ed ottenere poi le soluzioni globali incollando le carte locali e facendo uso di qualche principio di completezza, che comunque qui 12 TEORIA DINAMICA DELLE SIMMETRIE. 241 non considereremo. Invece di procedere in questo modo, costruiamo un’azione globale in cui sia la metrica che la varietà siano incognite. Sia M una varietà, ipotetica soluzione delle equazioni di Einstein. Sappiamo che una teoria indipendente dai sistemi di riferimento può essere costruita passando attraverso il fibrato principale dei riferimenti R associato a T M . Possiamo allora pensare di definire un’azione parziale iniziale su R. Ammettere che su M possa essere definita una metrica lorentziana equivale ad ammettere che il fibrato dei riferimenti possa essere allora ridotto ai sistemi di riferimento ortonormali (nel senso lorentziano), il fibrato che chiameremo O. Tutte le quantità costruite sul fibrato R possono essere naturalmente costruite sul fibrato O. In particolare la connessione infinitesima e la forma di curvatura avranno valori in so(1, 3) (si veda il capitolo 9). Si noti che il gruppo di struttura in generale non sarà ridotto a SO(1, 3) ma a O(1, 3). Si verifichi che la riduzione a SO(1, 3) può essere fatta solamente se M è orientabile. Indichiamo sempre con θ la forma orizzontale canonica su O. Non solo è una uno-forma a valori in R4 : su R4 è definito un prodotto scalare Minkowskiano η, tale che g(π(ξ))(π∗ (X), π∗ (Y )) = η(θξ (X), θξ (Y ) , ξ ∈ O , X, Y ∈ Tξ O . Questa, che lasciamo verificare come esercizio, non è altro che la relazione che lega il vielbein alla metrica. L’idea è quella di usare solo questi ingredienti per costruire un’azione su O, invariante sotto l’azione del gruppo di struttura, quindi per trasformazioni di gauge, oltre che per diffeomorfismi. L’invarianza sotto l’azione del gruppo di struttura permette quindi di ridurre l’integrazione sul quoziente O/G ' M . Poiché non si hanno ulteriori strutture, l’azione deve essere costruita integrando delle quattro-forme su O/G, costruite a partire dalle forme su O, che sono θ, la connessione infinitesima ω e la forma di curvature Ω. L’invarianza di gauge richiede che la dipendenza da ω possa avvenire solamente attraverso Ω. La richiesta che le equazioni del moto siano al più del secondo ordine equivale a dire che l’azione deve dipendere al più linearmente da Ω. Infine l’azione deve avere la giusta parità. Per capire quest ultimo punto, osserviamo che un possibile esempio di termine da considerare sarebbe Z S1 = η(θ, Ω · θ) , O/G dove il punto indica l’azione di so(1, 3) su R4 . Naturalmente, poichè gli argomenti del prodotto scalare sono forme a valore vettoriale e il prodotto va inteso sulla valutazione delle forme, l’integranda è una quattroforma a valori reali. Approfittiamone per specificare cosa si intende R con O/G , G essendo il gruppo di struttura. Poiché assumiamo che M sia paracompatto, ammetterà un atlante al più numerabile al quale sia associata una partizione dell’unità. Questo ci permette di definire l’integrale localmente, cioè su Ũ := π −1 (U )/G, se U è un intorno locale. A questo punto, basta scegliere una qualunque sezione locale σ ∈ Γ(U, O). Detta Λ la quattroforma invariante da integrare, allora Z Z Λ := σ∗Λ , Ũ U 12 TEORIA DINAMICA DELLE SIMMETRIE. 242 non dipende dalla scelta di σ, data l’invarianza. D’altra parte σ ∗ θ è il vierbein ea (in termini della base canonica di R4 ). Come esercizio si verifichi che allora Z p Rabcd εabcd | det g|d4 x . S1 |Ũ ∝ U Questo definisce la densità lagrangiana L1 tramite Z Z p p 4 Rabcd εabcd | det g|d4 x , L1 | det g|d x := U U dove L1 non è realmente una funzione scalare, dato che si comporta come tale solo per trasformazioni che conservano l’orientamento (lo si verifichi!). In questo senso diciamo che S1 non ha la giusta parità. In conclusione dopo aver elencato tutti i possibili termini lineari in Ω, si ottiene che solo due soddisfano i requisiti richiesti: • il primo termine, per a ∈ R, è Z θ∧θ∧θ∧θ ; Sa = a O/G • il secondo termine si costruisce tramite il seguente automorfismo : so(1, 3) −→ so(1, 3) per il quale aa b 7→ 21 εa bcd acd . Per b reale sia allora Z Sb = b η(θ, (Ω) · θ) . O/G L’azione gravitazionale assume quindi la forma Sa,b = Sa + Sb . 12.4.6 Esercizio. Si dimostri che l’espressione locale dei due termini dell’azione è Z √ Sa = κ Λ gd4 x , ZM √ Sb = κ R(x) gd4 x , M dove R è lo scalare di curvatua, κ una costante proporzionale a b e Λ una seconda costante proporzionale ad a/b. Per concludere la nostra deduzione dell’azione gravitazionale osserviamo che se Λ 6= 0 allora la metrica di Minkowski non è ammessa in assenza di materia. Questo contrasta con il principio di equivalenza forte, almeno nella versione cosı̀ forte in cui è enunciato. In conclusione l’azione di Einstein-Hilbert Sb è l’unica compatibile con il principio di equivalenza forte unito alla richiesta di equazioni del moto di ordine al più quadratico. 12.4.7 Osservazione. La costante Λ è la costante cosmologica. In una teoria strettamente fedele al principio di equivalenza forte essa può comparire come termine efficace proveniente 12 TEORIA DINAMICA DELLE SIMMETRIE. 243 dall’azione che contiene i campi di materia (ad esempio le fluttuazioni di vuoto quantistico). Alternativamente potrebbe in realtà accadere che il gruppo relativistico in assenza di materia sia piuttosto un gruppo di de Sitter. In tal caso si dimostra che l’azione più generale compatibile con tale gruppo sarebbe proprio Sa,b con a e b entrambi non nulli. 12.4.8 Osservazione. Nel costruire Sa , avremmo potuto considerare a non costante, sotto il segno di integrale. In tal caso l’unica scelta possibile sarebbe stata a = α + βρ, con α e β costanti e ρ una funzione scalare espressa come funzione lineare della curvatura. Il termine lineare in β sarebbe allora della stessa forma di Sb , per cui non si è persa alcuna generalità nell’assumere a costante. 13 CAMPI SCALARI E SPINORIALI. 13 244 Campi scalari e spinoriali. Testi consigliati: [We], [N1], [N2]. Nel capitolo 12 abbiamo visto come possano essere costruite le teorie di gauge nello spaziotempo di Minkowski. Si è anche accennato al fatto che esse si accoppiano in modo semplice ai campi di materia: basta covariantizzare le equazioni del moto tramite la connessione del campo di gauge, che agisce sui campi tramite una data rappresentazione. In questo capitolo vogliamo vedere quali siano appunto tali equazioni del moto, limitandoci ai casi interessanti per l’applicazione al modello standard delle particelle. 13.1 Le particelle e il gruppo di Poincaré. Lo studio delle rappresentazioni del gruppo di poincaré e la connessione con le particelle elementari richiederebbe un capitolo a sè stante. Per motivi di spazio accenneremo qui solamente l’idea, rimandando gli approfondimenti a [We]. 13.1.1 Algebra di Poincaré. La relatività ristretta identifica lo spazio-tempo con lo spazio di Minkowski. Come ben noto si tratta di uno spazio isotropo ed omogeneo, il cui gruppo di simmetria (le trasformazioni isometriche) è il gruppo di Poincaré P , costituito dalle trasformazioni di Lorentz, composte con le traslazioni spazio-temporali: xµ −→ Λµ ν xν + bµ , Λ ∈ O(1, 3) , b ∈ R4 . Un campo di materia sarà caratterizzato da come si comporta sotto trasformazioni di Poincaré. Se pensiamo a ψ come la funzione d’onda di una singola particella, essa individuerà un elemento di uno spazio di Hilbert H, sul quale la trasformazione dovrà agire unitariamente: ψ −→ U (Λ, b)ψ . La mappa U : P −→ U (H), essendo una rappresentazione unitaria di P su H, deve soddisfare la regola di composizione U (Λ1 , b1 )U (Λ2 , b2 ) = U (Λ1 Λ2 , b1 + Λ1 b2 ) . Il problema diventa quello di classificare le rappresentazioni di questo tipo (infinito dimensionali!). A tale scopo conviene sfruttare la mappa esponenziale riducendosi dunque allo studio dell’algebra. Non entreremo nei dettagli, non avendo considerato gruppi di Lie infinito dimensionali. L’algebra di Lie di U (H) è l’algebra degli operatori antiautoaggiunti su H (non ci preoccupiamo qui delle questioni di dominio!). D’altra parte l’algebra di Poincaré è generata dalle matrici aµ ν con aµν := ηµρ arho ν antisimmetrica e dalle traslazioni stesse individuate dai vettori εµ . Possiamo usare {aµν , εµ } come coordinate locali dell’algebra. Nell’intorno dello zero esse diventano coordinate locali anche per il gruppo, per cui potremo scrivere i U (a, ε) = exp( aµν M µν − iεµ P µ ) , 2 13 CAMPI SCALARI E SPINORIALI. 245 dove M µν = −M νµ e P µ sono operatori hermitiani su H. In particolare nelle date coordinate avremo Λµ ν = δ µ ν + aµ ν + . . .. Applicando la regola di composizione a U (Λ, a)U (Λ̃, b)U (Λ, a)−1 per due arbitrarie trasformazioni infinitesime si trova allora [M µν , M ρσ ] = i(M µρ η νσ + M νσ η µρ − M µσ η νρ − M νρ η µσ ) , [M µν , P σ ] = i(η µσ P ν − η νσ P µ ) , [P µ , P ν ] = 0 . H := P 0 è il generatore delle traslazioni temporali e può essere identificato con l’operatore hamiltoniano. I generatori che commutano con H sono P i e J i con i = 1, 2, 3 e J 1 = M 2,3 , J 2 = M 3,1 e J 3 = M 1,2 . P i sono gli operatori di quantità di moto e J i quelli di momento angolare. Infine K i := M i,0 generano i boost. 13.1.2 Rappresentazioni e piccolo gruppo. Poiché gli operatori P µ commutano tra loro si possono considerarne gli autostati (in senso generalizzato): P µ ψkµ ,α = k µ ψkµ ,α , dove α è un indice di degenerazione. Su tali stati una pura traslazione U (1, b) agirà come U (1, b)ψkµ ,α = e−ik µb µ ψkµ ,α . Fissata la segnatura {−.+, +, +} per η, le rappresentazioni fisicamente significative sono quelle per le quali k 2 := kµ k µ ≤ 0 e k 0 > 0. Una trasformazione di Lorentz U (Λ, 0) agirà mandando un autostato ψkµ ,α in un altro autostato di P µ con autovalore Λµ ν k ν , come segue dalla regola di composizione. Quindi X L(Λ, k)αβ ψ(Λk)µ ,β . [U (Λ, 0)ψ]kµ ,α = β La trasformazione L agisce dunque sugli indici di degenerazione. Essa dovrà a sua volta rappresentare il gruppo delle trasformazioni di Lorentz ed in realtà il sottogruppo che lascia invariato k µ . Tale gruppo si chiama il piccolo gruppo. L’idea è dunuque quella di caratterizzare il campo secondo le rappresentazioni del piccolo gruppo. Rimandando i dettagli a [We], ci accontentiamo di osservare che vi sono due caratterizzazioni del piccolo gruppo che inducono rappresentazioni unitarie di interesse fisico: • se k 2 < 0 e k 0 > 0, il piccolo gruppo è isomorfo al sottogruppo del gruppo di Lorentz che lascia invariato il vettore (m, 0, 0, 0). m > 0 è la massa e il piccolo gruppo è SO(3); • se k 2 = 0 e k 0 := ν, si ha la rappresentazione a massa nulla e il piccolo gruppo è isomorfo al gruppo che lascia invariato il vettore (ν, ν, 0, 0). È isomorfo al gruppo ISO(2, R) delle rototraslazioni di un piano euclideo. Prima di concludere le nostre osservazioni, aggiungiamo un ulteriore commento di tipo generale sulle rappresentazioni. 13 CAMPI SCALARI E SPINORIALI. 246 13.1.3 Rappresentazioni proiettive e gruppo di ricoprimento. Nelle teorie quantistiche gli stati sono raggi in uno spazio di Hilbert, dunque risultano definiti a meno di una fase complessa. Ciò significa in sostanza che in luogo di rappresentazioni lineari nella fisica quantistica è più opportuno considerare rappresentazioni proiettive. Supponiamo cioè di considerare un gruppo G del quale vogliamo una rappresentazione unitaria su uno spazio di Hilbert H. Poiché ogni stato è definito a meno di una fase, anziché l’usuale regola di composizione, più in generale potremo richiedere che Uα : G −→ U (H) soddisfi U (g1 g2 ) = eiα(g1 ,g2 ) U (g1 )U (g2 ) , g1 , g2 ∈ G , dove α : G × G −→ R è una funzione che determina la fase. Se si impone l’associatività si ottiene che la funzione di fase deve soddiafare la relazione α(g1 , g2 ) + α(g1 g2 , g3 ) = α(g2 , g3 ) + α(g1 , g2 g3 ) . Questa viene detta relazione di cociclo ed una sua soluzione si chiama un 2-cociclo chiuso. Ogni rappresentazione proiettiva è caratterizzata dunque da un cociclo chiuso. Di questa equazione esiste sempre una classe di soluzioni, dette cocicli banali o esatti e sono determinati dalle funzioni f : G −→ R, secondo la relazione α(g1 , g2 ) = f (g1 g2 ) − f (g1 ) − f (g2 ) , e si scrive α = δf . Si dicono banali perché se α = δf allora la rappresentazione proiettiva può essere ridotta ad una lineare (cioè senza fase) tramite la mappa Uα 7→ Ũ , dove Ũ (g) := eif (g) Uα (g). Se invece un cociclo chiuso non è banale, la rappresentazione è intrinsecamente proiettiva. Si noti che la moltiplicazione per una fase è essa stessa un operatore unitario su H, che possiamo scrivere nella forma eiαI , dove I : H −→ H è l’operatore identità. Questo ci permette di dire che dal punto di vista algebrico è come aggiungere all’algebra dei generatori del gruppo U (G) l’operatore I, che commuta con tutti i generatori in modo che se l’algebra originale era della forma [Ja , Jb ] = cab c Jc , l’algebra estesa assumerà ora la forma [Ja , Jb ] = cab c Jc + cab I , [I, Ja ] = 0 . La nuova algebra si chiama l’ estensione centrale della vecchia. Le costanti Cab si chiamano cariche centrali. L’equivalente della condizione di cociclo a livello algebrico è l’identità di Jacobi, che in particolare implica cad cd bc + cbd cd ca + ccd cd ab = 0 . Questa può essere vista come un’equazione per le costanti cab . Dato che l’algebra di partenza soddisfa di per sè le identità di Jacobi, una soluzione banale è data da cab = λd cd ab 13 CAMPI SCALARI E SPINORIALI. 247 con λd costanti (e sottintendendo la somma su d). Di nuovo questa è detta banale poiché in tal caso è sufficiente ridefinire i generatori J˜a := Ja + λa I, per eliminare le cariche centrali. Diremo allora che l’estensione centrale in questo caso è banale. Vale la seguente proposizione. 13.1.4 banali. Proposizione. Le algebre semisemplici ammettono solamente estensioni centrali Dimostrazione. Si consideri l’equazione cad cd bc + cbd cd ca + ccd cd ab = 0 , di cui si supponga di aver determinato una qualunque soluzione cab . Poiché l’algebra è semisemplice, la forma di Killing di componenti Kab = cac d cbd c è non degenere e può essere adoperata per alzare ed abbassare gli indici delle costanti di struttura. Come al solito K ab indica la matrice inversa di Kab , mentra Kba = δba . Posto allora cab c = K ad K bf Kcl cdf l , si ha cd bc cbc a = δad , dove si è usato anche il fatto che cabc è completamente antisimmetrico a conseguenza della ad-invarianza. Contraendo allora l’equazione di partenza con cbc e , otteniamo cae = cbd cd ca cbc e + ccd cd ab cbc e = cbd (cd ca cbc e + cd ac ccb e ) = 2cbd cd ca cbc e , dove abbiamo ribattezzato gli indici muti (cioè quelli sommati secondo la convenzione di Einstein) e usato le proprietà di simmetria. A questo punto usiamo l’identità di Jacobi nella forma cd ca cbc e = −cdc b ce c a − cd ce ca cb per ottenere cbd cd ca cbc e = cbd (cdbc ce c a + cd ce cbc a ) , e, poiché45 cbd cd ce cbc a = −cbd cd ca cbc e , da cui infine cae = cbd cdbc ce c a = cae c (cbd cbd c ) = cae c λc , con λc = cbd cbd c . Quindi, se esiste una soluzione, è necessariamente banale, ovvero tutte le soluzioni sono banali. 2 13.1.5 Esercizio. Si estenda tale proposizione all’algebra di Poincarè e alle rototraslazioni. 13.1.6 Ostruzioni topologiche. Ne concludiamo che nei casi che ci interessano, a livello algebrico esistono solo estensioni centrali banali. Questo non basta a impedire l’esistenza 45 si usi ad esempio cbd = −cdb e si ribattezzino poi opportunamente gli indici muti 13 CAMPI SCALARI E SPINORIALI. 248 di rappresentazioni intrinsecamente proiettive, dato che le questioni algebriche sono locali e riguardano l’intorno dell’identità (o un qualunque intorno locale per traslazione). Ci possono ancora essere questioni globali, di natura topologica. Vale il seguente teorema. 13.1.7 Teorema. Sia G un gruppo di Lie finito dimensionale la cui algebra di Lie ammetta solamente estensioni centrali banali. Allora la rispettiva equazione di cociclo ammette solo soluzioni non banali se e soltanto se G non è semplicemente connesso. Dimostrazione. Si veda [We]. 2 I gruppi ortogonali, euclidei o con segnatura, non sono semplicemente connessi, dato che contengono cammini noncontraibili. Dunque, benché semplici, ammettono rappresentazioni proiettive intrinseche, cioè rappresentazioni per le quali non si può ridefinire la fase con una ridefinizione. Tuttavia ogni tale gruppo ammette un unico ricoprimento universale (a meno di isomorfismi), cioè un gruppo semplicemente connesso G̃ che ammette un diffeomorfismo locale e suriettivo Φ : G̃ −→ G . Le rapprsentazioni di G̃ sono quindi solamente lineari. Per i gruppi semplici Ker(Φ) è sempre un gruppo puntuale finito. Per i gruppi ortogonali speciali il gruppo di ricoprimento è il gruppo di spin. In particolare SU (2) è il ricoprimento di SO(3) e SL(2, C) è il ricoprimento di SO(1, 3). In ogni caso KerΦ = Z2 =: {e, −e}.46 Ne segue immediatamente che ogni rappresentazione proiettiva di G proviene da una rappresentazione lineare di G̃. In particolare, dato che le uniche possibilità sono U (−e) = I oppure U (−e) = −I, è evidente che le rappresentazioni intrinsecamente proiettive sono quelle per cui U (−e) = −I. In altre parole sono proprio le rappresentazioni di spin dei gruppi ortogonali che devono comparire nella descrizione quantistica del mondo. Questo spiega ad esempio perché nella teoria generale del momento angolare compare l’intero gruppo SU (2) in luogo di SO(3). In particolare le particelle di spin semidispari (i fermioni) corrispondono alle rappresentazioni intrinsecamente proiettive di SO(3). 13.1.8 Conclusione. Tornando alle rappresentazioni del piccolo gruppo, si vede dunque che le rappresentazioni massive, oltre che dal valore della massa m, sono individuate dalle rappresentazioni spinoriali di SO(3). Possiamo dire che le particelle massive, dal punto di vista delle simmetrie esterne, sono classificate dalla massa e dallo spin. Naturalmente ulteriori sottoclassificazioni possono essere indotte dalle simmetrie interne. Per quanto riguarda invece le particelle di massa nulla occorre considerare le rappresentazioni di ISO(2). Nel caso in cui si fissi k µ = (ν, 0, 0, ν) i generatori infinitesimi son J 3 , A := K 1 + J 2 e B := K 2 − J 1 . Di nuovo non entriamo qui nel dettaglio di come si costruiscono le rappresentazioni irriducibili, ma ci accontentiamo di enunciare che quelle di interesse fisico sono classificate dall’autovalore dell’operatore J 3 , che rappresenta la proiezione del momento angolare lungo la direzione spaziale della quantità di moto. Tale numero quantico si chiama elicità. Come lo spin, è vincolata ad assumere valori seminteri, ma questa volta per motivi topologici anziché algebrici. Nuovamente rimandiamo a [We] per i dettagli. Osserviamo infine che il gruppo di Lorentz proprio SO(1, 3) non è connesso, la sua componente 46 indichiamo cioè con −e il generatore di Z2 13 CAMPI SCALARI E SPINORIALI. 249 connessa essendo il sottogruppo che preserva l’ordinamento temporale, detto gruppo di Lorentz proprio ed ortocrono. 13.2 Equazione di Klein-Gordon. Sia M lo spazio-tempo di Minkowski d + 1 dimensionale. I campi scalari sono i campi che trasformano in maniera banale sotto trasformazioni del gruppo di Lorentz proprio ed ortocrono. Saranno perciò sezioni di un fibrato vettoriale (E, π, M, SO(1, d), (ρ0 , V )), dove ρ0 : SO(1, d) −→ Aut(V ) è la rappresentazione banale SO(1, d) 7→ I, I essendo l’applicazione identica. In generale tuttavia su V potrà agire la rappresentazione non banale di un gruppo di gauge. Nel caso di particelle libere qualunque interazione, compresa quella di gauge, deve essere trascurata. In particolare questo ci porta a richiedere che le equazioni del campo libero debbano essere lineari. 13.2.1 Particelle scalari libere. Si noti anche che il fibrato dei riferimenti inerziali su M è in questo caso banale, cosicché, finché non intervengono le interazioni di gauge, possiamo in questo caso considerare i campi scalari come funzioni φ : M −→ V . In fisica si parla allora di un multipletto di campi scalari di dimensione n pari alla dimensione di V . Possiamo pertanto assumere semplicemente V = R: il caso generale lo si otterrà moltiplicando tensorialmente per V il campo scalare. Del gruppo di Poincaré (proprio ed ortocrono) sui campi scalari solamente il sottogruppo delle traslazioni può agire in maniera non banale. In particolare, dato il loro ruolo nella determinazione della classificazione dei campi, vogliamo ammettere che gli autostati di P µ siano essi stessi soluzioni (in senso generalizzato) delle equazioni del moto. Ne concludiamo che l’equazione per φ deve essere determinata esclusivamente in termini di m e dell’operatore P µ . Essendo P µ il generatore delle traslazioni, esso agirà sui campi scalari con la rappresentazione Pµ = −i∂µ , come si può verificare facilmente. 13.2.2 Esercizio. Si dimostri che sui campi scalari l’azione delle trasformazioni infinitesime aµν è generata dagli operatori M̂ µν := xµ P ν − xν P µ . La richiesta che le autofunzioni di P µ siano soluzioni impedisce la comparsa degli operatori M̂ µν se si vuole che le equazioni differenziali non superino il secondo ordine. In ogni caso M̂ µν non son caratterizzanti della rappresentazione, dato che non forniscono una rappresentazione irriducibile del piccolo gruppo. Ne segue che l’unica equazione compatibile con le richieste fatte è P µ Pµ φ = −m2 φ, ovvero (nelle opportune unità di misura) (−2 + m2 )φ = 0 , dove 2 := η µν ∂µ ∂ν è l’operatore quadratello. Questa equazione è nota come equazione di Klein-Gordon. 13.2.3 Osservazione importante. Abbiamo dedotto l’equazione di Klein-Gordon come l’equazione per i campi scalari. Tuttavia supponiamo ora di considerare un campo qualunque ψα , dove l’indice interno α individua la rappresentazione non banale del gruppo di Lorentz sullo spazio interno e che caratterizza il tipo di particella (scalare, spinore,. . .). Essendo naturale 13 CAMPI SCALARI E SPINORIALI. 250 chiedere che gli stati ψkµ ,α che supportano la rappresentazione costituiscano il campo, poiché P µ Pµ ψkµ ,α = −m2 ψkµ ,α , ne segue che deve valere (−2 + m2 )ψα = 0 ovvero le singole componenti di un qualunque campo devono soddisfare l’equazione di KleinGordon. Tuttavia, mentre per i campi scalari questa è l’unica equazione (libera) ammessa di ordine inferiore al terzo, per i restanti campi vi saranno altre equazioni caratterizzanti. 13.2.4 Accoppiamento con il campo di gauge. Supponiamo ora di avere un multipletto di campi scalari accoppiato con una simmetria di gauge. Ciò significa che il campo avrà valore in uno spazio vettoriale V , sul quale agisce un gruppo G tramite una rappresentazione non banale ρ. Sia dunque φ : M −→ V il campo scalare. Sappiamo che possiamo accoppiare questo campo con un campo di gauge, introducendo un fibrato principale con gruppo di struttura G sul quale è definita la connessione che individua il campo di gauge. Se per brevità chiamiamo ρ anche la rappresentazione di Lie(G) su V , indotta dalla rappresentazione ρ di G su V , allora, in un fissato gauge locale su un aperto U , avremo che il campo di gauge sarà individuato da una uno-forma A a valori in ρ(Lie(G)). Scelta una base {σa }na=1 dell’algebra, poniamo iτa := ρ(σa ). Qui stiamo ammettendo che la rappresentazione sia unitaria, cosicché l’unità immaginaria rende hermitiani i generatori τa . Fissiamo inoltre una base {ei }m i=1 di V in modo da rendere matriciale la rappresentazione. Il multipletto scalare sarà perciò individuato da m campi scalari φi che si accoppiano con il campo di gauge tramite la covariantizzazione ∂µ → ∂µ + iAaµ τa ovvero dovranno risolvere l’equazione i −η µν (δ i j ∂µ + iAaµ τaj )(δ j k ∂ν + iAbν τbj k )φk + m2 φi = 0 . Come si vede, a causa della connessione, i vari campi φi non sono più disaccoppiati. Essi interagiscono tramite il campo di gauge, cioè sono carichi rispetto al campo di gauge. 13.2.5 Esercizio. Si scriva un’azione Sφ per l’equazione di Klein-Gordon accoppiata con il R campo di gauge. Si aggiunga a questa l’azione di Yang-Mills SY M = κ M T r[Fµν F µν ]d4 x e si ricavino le equazioni complete del moto, per A e φ. 13.2.6 Particelle scalari con potenziale. Nel caso dei campi scalare è interessante considerare il caso in cui il campo sia anche direttamente autointeragente. Ciò significa che le equazioni del moto non saranno più lineari neppure in assenza di campi esterni. L’azione che genera le equazioni del moto (se ammettiamo che ammettano principio variazionale) non è più vincolata a contenere termini quadratici nei campi. Se L0 è la densità che definisce l’azione libera, l’azione del campo autointeragente può essere ottenuta aggiungendo un potenziale alla lagrangiana: Z S[φ] = (L0 − Φ(φ))d4 x . M Naturalmente il potenziale Φ(φ) dovrà essere invariante sotto l’azione del gruppo di gauge G. Se ad esempio il gruppo di gauge agisce unitariamente sullo spazio V in cui il campo assume valore, 13 CAMPI SCALARI E SPINORIALI. 251 allora V sarà ovviamente dotato di un prodotto scalare (, ) : V ×V −→ C, rispetto al quale ρ(g) è unitario, se g ∈ G. In tal caso si potrà considerare come potenziale Φ(φ(x)) = f ((φ(x), φ(x))), dove f è un’opportuna funzione a valori reali. Un tipico esempio è f (x) = (x − v)2 , per un fissato parametro v ∈ R. 13.3 Equazione di Dirac. Vogliamo ora considerare il caso di particelle spinoriali. Naturalmente siamo interessati al caso di uno spazio-tempo quadridimensionale, tuttavia vale la pena nuovamente prendere in considerazione il caso di uno spazio d + 1 dimensionale, come si è fatto per il campo scalare, giacché in teorie moderne vengono presi in considerazione spazi-tempo di dimensione maggiore. Comunque accade in generale che per campi non scalari si ha una forte dipendenza dalla dimensione. Per esempio basti osservare che nel caso generale, per particelle massive il piccolo gruppo è SO(d), e dunque la classificazione delle particelle è individuata dalle rappresentazioni spinoriali irriducibili di SO(d), che dipendono da d. In generale il caso a massa nulla richiederebbe un’analisi a sè stante, tuttavia otterremo le equazioni a massa nulla considerando a partire dal limite per m → 0 delle equazioni massive. Per semplicità chiameremo elettrone il campo spinoriale massivo. Con campo spinoriale intenderemo naturalmente la sezione di un opportuno fibrato. Dedicandoci per ora al caso puramente Minkowskiano, rimandiamo più avanti le specificazioni relative alla struttura di tale fibrato. 13.3.1 L’elettrone e le algebre di Clifford. Vogliamo costruire il campo di spin come una funzione a valori in una rappresentazione del gruppo di spin associato al gruppo di Lorentz m SO(d, 1). Se d = 2m o d = 2m − 1, le rappresentazioni di spin possono essere costruite su C2 , che può infatti essere esteso ad un modulo sinistro sull’algebra di Clifford (complessificata) Cl(d, 1) ⊗R C. Questo definisce un accoppiamento (pairing) m m · : C(d, 1) × C2 −→ C2 , (γ, z) 7→ γ · z . Come sappiamo l’algebra di Clifford è essenziale nella realizzazione del gruppo di spin. Ricordiamo che nel nostro caso lo spazio di partenza è lo spaziotempo di Minkowski M = Rd,1 , provvisto della forma quadratica η. Il punto essenziale è che nell’algebra di Clifford è contenuto M come sottospazio vettoriale, cosicchè il suddetto pairing induce il pairing m m · : M × C2 −→ C2 . In realtà, nel caso d = 2m − 1 in cui lo spazio-tempo ha dimensione pari, come mostrato in 10.2.2, l’algebra di Clifford possiede un automorfismo α che la separa negli autospazi positivo e negativo: C(η) = C(η)+ ⊕ C(η)− . Ad esso corrisponde una decomposizione dello spazio di m m−1 m−1 rappresentazione S := C2 nella somma diretta S = S + ⊕S − = C2 ⊕C2 , che individuano due sottospazi per rappresentazioni irriducibili per il gruppo di spin. Tuttavia il suddetto pairing, che risulterà essenziale nella determinazione delle equazioni del moto, tiene in gioco 13 CAMPI SCALARI E SPINORIALI. 252 entrambe le rappresentazioni, dato che si ha · : M × S + −→ S − , · : M × S − −→ S + . Il secondo punto fondamentale è la proposizione 10.2.8 riguardante l’omomorfismo ρ. Sia σ la rappresentazione di spin del gruppo si Lorentz su S.47 Dati s ∈ S, x ∈ M e Λ un elemento del gruppo di Lorentz, vale la proprietà notevole σ(Λ)(x · s) = (ρ(σ(Λ))x) · (σ(s)) . La proposizione ci dice dunque che ρ(σ) è una rappresentazione del gruppo di Lorentz su M , cioè proprio la rappresentazione fondamentale. Consideriamo ora un campo spinoriale massivo, cioè una mappa equivariante ψ : M −→ S , che trasforma cioè secondo la rappresentazione di spin σ sotto trasformazioni di Lorentz. Alternativamente diremo che ψ ∈ Γ(M, SM ), dove SM ' M × S è detto il fibrato di spin. (si veda 13.6.2). La scelta di un sistema di coordinate inerziali su M , corrisponde ad aver definito 48 su T M delle sezioni {ei }d+1 In particolare, se i=1 ⊂ X (M ) tali che η(ei , ej ) = ηij e [ei , ej ] = 0. ∂ i ∇ è la derivata covariante di Levi-Civita, si avrà ∇ei ψ = ∂xi ψ, se x sono le relative coordinate inerziali. Una trasformazione di Lorentz Λ agirà tramite σ su S e tramite σρ := ρ ◦ σ sulle coordinate in modo che49 j σ(λ)(∂i ψ) = σρ (Λ−1 )i ∂j σ(ψ) . Ora ricordiamo che lo scopo è quello di determinare la più semplice equazione che contenga P j ed m. Nel caso del campo scalare l’unico ingrediente aggiuntivo era la metrica η, che ci costringeva a scrivere un’equazione di secondo ordine, in questo caso disponiamo di un ingrediente in più: l’algebra di Clifford. Se γ : M ,→ C(d, 1) è l’inclusione di M nell’algebradi Clifford allora poniamo γi := ei . In particolare γi · γj + γj · γi = 2ηij . Costruiamo quindi l’operatore D : Γ(M, SM ) −→ Γ(M, SM ) , ψ 7→ Dψ := η ij ei · ∂j ψ . L’operatore D è detto operatore di Dirac. Lasciamo come esercizio la verifica dei seguenti due punti • l’operatore di Dirac non dipende dalla scelta della base ortonormale; • l’operatore di Dirac è covariante sotto trasformazioni di Lorentz su M: σ(Λ)(DΨ) = D(σ(Λ)ψ). 47 dunque nel prodotto diretto di due rappresentazioni irriducibili nel caso di dimensione pari si noti che ciò è possibile poiché T M è banale 49 cioè xi 7→ σρ (Λ)i j xj 48 13 CAMPI SCALARI E SPINORIALI. 253 La seconda proprietà segue dalla prima e dalla suddetta proprietà notevole. In fisica si preferisce al solito usare Pi = −i∂i , cosicché si costruisce l’operatore P / := −iD. L’equazione cercata deve quindi avere la forma (P / + f (m))ψ = 0. Applicando l’operatore P / − f (m) ed usando l’osservazione 13.2.3 si ottiene che deve essere f (m) = ±m. Otteniamo finalmente l’equazione di Dirac (P / − m)ψ = 0 . 13.3.2 Dimensione pari e chiralità. Consideriamo ora in particolare il caso di spazitempo di dimensione pari. In tal caso un campo di Dirac ψ è una sezione del fibrato SM = S + M ⊕ S − M . Il campo si decompone allora nella somma diretta ψ = ψ + + ψ − , dove ψ ± è una sezione di S ± M e sono dette componenti chirali del campo (positiva e negativa). Benché S ± sono sottospazi irriducibili per la rappresentazione del gruppo di spin, l’equazione di Dirac mischia le diverse componenti chirali, dato che evidentemente D : Γ(M, S ± M ) −→ Γ(M, S ∓ M ), mentre la moltiplicazione per la massa agisce in modo banale. In un campo massivo necessariamente compaiono entrambe le chiralità. Le cose cambiano tuttavia per i campi di massa nulla. 13.3.3 Campi chirali: il neutrino. Nel caso di massa nulla ha senso considerare campi che siano sezioni di S + M o di S − M . Essi vengono detti campi chirali, sinistrorso e destrosro rispettivamente (left e right). Assumiamo che le loro equazioni del moto siano quelle ottenute dall’equazione di Dirac per m = 0. In questo caso esse non mischiano più componenti left con componenti right ed ha perciò senso considerare separatamente campi left o campi right. Si parla allora di campi chirali. In senso stretto si parla di teoria chirale quando si ha a che fare con una teoria che coinvolge solamente campi di una determinata chiralità. Più in generale può accadere che entrambi i tipi di campi compaiano, ma che giuochino un ruolo differente. Cosı̀ ad esempio nella teoria elettrodebole compaiono elettroni e neutrini e le corrispondenti antiparticelle. Il campo elettronico contiene entrambe le componenti chirali del campo, mentre i neutrini sono campi chirali left, che si accoppiano (debolmente) solamente con la componente left dell’elettrone (si veda il capitolo successivo). A questa asimmetria tra campi left e right corrisponde una violazione della simmetria di parità spaziale, come accenneremo nell’ esempio 13.3.8. 13.3.4 Accoppiamento con i campi di gauge. Come prima l’accoppiamento con il campo di gauge lo si ottiene introducendo una connessione sul fibrato principale in cui viene definito il gruppo di gauge. L’azione del gruppo di gauge sul campo di spin può avvenire diretta mente tramite una rappresentazione sullo stesso spazio S, (ad esempio una simmetria U (1)) o eventualmente su una sua estensione tramite uno spazio di rappresentazione V , come nel caso del campo scalare. In tal caso potremo parlare di un multipletto di campi spinoriali. Lasciamo i dettagli come esercizio. Procedendo come in 13.2.4 si ottiene γ µ · (−iδ j k ∂ν + Abν τbj k )ψ k + mψ j = 0 . 13.3.5 Esempio. L’elettrone in 4D. Consideriamo il caso di uno spazio-tempo minkowskiano quadridimensionale. In tal caso il campo di Dirac, in un dato riferimento in- 13 CAMPI SCALARI E SPINORIALI. 254 erziale, sarà descritto da una funzione ψ : M −→ C4 . Se eµ := ∂µ definisce il riferimento ortogonale e γµ = γ(eµ ), l’azione di γµ su S = C4 puó essere realizzata in termini matriciali. Si possono cioè determinare delle matrici Γµ ∈ GL(C4 ) tali che Γµ Γν + Γν Γµ = 2ηµν I e (γµ · s)α = Γµ α β sβ , dove α = 1, . . . , 4 indica la componente in C4 . Le matrici Γµ si chiamano matrici di Dirac. Ricordiamo che esse non sono univocamente determinate, dato che su C4 si può agire con una trasformazione di spin. Essa corrisponde ad un cambiamento di riferimento nello spazio interno. Esiste una scelta standard di riferimento rispetto alla quale le matrici di Dirac assumono la seguente forma I O 0 σ1 O σ2 O σ3 Γ0 = , Γ1 = , Γ2 = , Γ3 = , O −I −σ1 0 −σ2 O −σ3 O dove σi , i = 1, 2, 3 sono le matrici di Pauli 0 1 0 −i σ1 = , σ2 = , 1 0 i 0 σ3 = 1 0 0 −1 . Questo riferimento è noto come rappresentazione di Dirac. La struttura a blocchi suggerisce di scrivere il campo di Dirac nella forma ↑ ψ (x) ψ(x) = , ψ ↓ (x) dove ψ ↑ e ψ ↓ hanno valori in C2 . Vogliamo considerare il caso in cui l’elettrone si accoppi con un campo elettromagnetico. Dal punto di vista delle teorie di gauge ciò significa che c’è una simmetria U (1) locale, ψ(x) 7→ eiqα(x) ψ(x). Il parametro q rappresenta la carica del campo rispetto al gruppo di gauge50 . L’equazione di Dirac assume pertanto la forma η µν Γν (Pµ + qAµ )ψ − mψ = 0 . Per chiarire il significato fisico è opportuno introdurre le unità di misura che mettano in evidenza i parametri fisici: la costante di Planck ~ e la velocità della luce c.51 Inoltre conviene scrivere le equazioni in termini dei campi ψ ↑ e ψ ↓ i~∂t ψ ↑ = mc2 ψ ↑ + c 3 X i=1 i~∂t ψ ↓ = −mc2 ψ ↓ + c q q σi (−i~∂i + Ai )ψ ↓ + A0 ψ ↑ , c c 3 X i=1 q q σi (−i~∂i + Ai )ψ ↑ + A0 ψ ↓ . c c 2 2 Nel limite non dominano i termini in mc2 e si ha ψ ↑ ≈ e−imc t/~ u± , ψ ↓ ≈ eimc t/~ u± , relativistico 1 0 dove u+ = e u− = . Si noti che in particolare ψ ↓ corrisponde a stati ad energia 0 1 50 se q = 0 allora il campo trasforma banalmente per trasformazioni di gauge. In tal caso si dice che il campoè neutro 51 in particolare x0 = ct 13 CAMPI SCALARI E SPINORIALI. 255 negativa. Per interpretare fisicamente il campo di Dirac nel limite relativistico, cerchiamo soluzioni a energia positiva, imponendo la dipendenza temporale in tale limite nella forma 2 2 ψ ↑ = e−imc t/~ φ e ψ ↓ = eimc t/~ χ. Dalla seconda equazione (trascurando i termini in ∂t χ e in A0 ) si ricava allora χ in funzione di φ, che sostituito nella prima fornisce 3 i~∂t φ = Ĥφ , 3 1 X i q 2 q ~X Ĥ = σi Bi + qV , P̂ + Âi + 2m i=1 c mc 2 i=1 Questa è l’equazione di Schrödinger per un elettrone in un campo elettromagnetico con ~ = rotA, ~ se m è la massa sell’elettrone e q = −e la sua quadripotenziale Aµ , A0 = cV , B carica. 13.3.6 Esercizio. Si consideri l’equazione di Dirac per un campo massivo ψ (in 4D). Si dimostri che ρ = ψ † ψ = hψ, ψi (il prodotto hermitiano in C4 ) definisce la densità di una quantità conservata. In particolare si verifichi che la corrente spaziale associata è j i = ψ † Γ0 Γi ψ. 13.3.7 Principio d’azione per il campo di Dirac. Come al solito è conveniente disporre di un principio d’azione, ad esempio per includere il campo di Dirac in teorie contenenti altri campi. L’esercizio precedente suggerisce immediatamente quale debba essere l’azione per il campo di Dirac: posto ψ̄ := ψ † Γ0 , si dimostri che l’azione Z ψ̄(P / − m)ψd4 x , SD [ψ] = k M fornisce un principio variazionale per l’equazione di Dirac. Qui si usi P / = Γµ ∂µ . È ovviamente 0 importante il fatto che nella rappresentazione di Dirac Γ sia hermitiana mentre Γi sono antihermitiane rispetto al prodotto scalare di C4 . Per definire l’azione nel caso generale occorre mostrare che esistono sempre delle matrici di Dirac in qualunque dimensione. Questo lo si fa facilmente per induzione. Sia d la dimensione dello spaziotempo. m Consideriamo dapprima il caso d = 2m. I campi di Dirac (massivi) avranno perciò valori in C2 . m Supponiamo di conoscere una rappresentazione di Dirac: le matrici di Dirac, Γµ ∈ GL(C2 ), µ = 0, i e i = 1, . . . , d − 1 soddisferanno {Γµ , Γν } = ηµν e saranno antihermitiane se i = µ, mentre Γ0 sarà hermitiana. m Vogliamo allora costruire le matrici di Dirac Γ̃N ∈ GL(C2 ), N = 0, . . . , d nello spaziotempo di dimensione d + 1 = 2m + 1. Si verifica immediatamente che basta porre Γ̃µ := Γµ , µ = 0, . . . , d − 1 , d−1 Y Γ̃d := Γµ . µ=0 m Viceversa, supponiamo d = 2m+1 e siano note le matrici di Dirac Γµ ∈ GL(C2 ), µ = 0, . . . , d− m+1 1, con le proprietá richieste. Costruiamo allora le matrici Γ̃M ∈ GL(C2 ), M = 0, . . . , d, nel 13 CAMPI SCALARI E SPINORIALI. 256 seguente modo Γ̃0 := Γ̃i := Γ̃d := I O O −I O Γi Γi O , O iΓ0 iΓ0 O i = 1, . . . , d − 1 , , . 13.3.8 Esempio. Chiralità e parità. Tornando al caso d = 4, si introduca la matrice Γ5 := iΓ0 Γ1 Γ2 Γ3 . Essa è hermitiana e anticommuta con le matrici di Dirac. Inoltre si tratta di una matrice a traccia nulla il cui quadrato è l’identità. Consideriamo la trasformazione di spin ψ 7→ Γ5 ψ. Ad essa corrisponde la trasformazione Γµ 7→ −Γµ = α(Γµ ), dove α è l’automorfismo dell’algebra di Clifford che definisce la chiralità. Si consideri ora trasformazione di inversione spaziale, che cambia segno alle coordinate spaziali, lasciando invariata quella temporale. Essa sarà rappresentata da qualche operatore P si sui campi di spin, tale che P Γi P −1 = −Γi se i = 1, 2, 3, mentre P commuta con Γ0 . Ne segue che in particolare P Γ5 P −1 = −Γ5 . Questo significa che l’operatore di parità scambia tra di loro gli stati di chiralità opposta. Una teoria che privilegia in modo differente stati di diversa chiralità non può perciò essere simmetrica per inversione spaziale. D’altra parte è noto che la parità è violata in natura. 13.4 Il gruppo SO(1, 3) Vale la pena approfondire l’analisi delle rappresentazioni di Spin del gruppo di Lorentz, come applicazione della teoria sviluppata nel capitolo 10. 13.4.1 Matrici Γ. Come in 13.3.5 consideriamo le seguenti 4 matrici Γ0 , . . . , Γ3 ∈ M4 (C): O σ2 O σ3 I O O σ1 , Γ0 = , Γ1 = , Γ2 = , Γ3 = −σ3 O −σ2 O O −I −σ1 O dove σi , i = 1, 2, 3 sono le matrici di Pauli 0 1 0 −i σ1 = , σ2 = , 1 0 i 0 σ3 = 1 0 0 −1 . Si notino in particolare le proprietà seguenti: σ1 σ2 = −σ2 σ1 = iσ3 , σ1 σ3 = −σ3 σ1 = −iσ2 , σ2 σ3 = −σ2 σ3 = iσ1 , che sono utili per mostrare che Γ20 = I, Γ2i = −I, (i = 1, 2, 3), Γi Γj = −Γj Γi (i, j = 0, 1, 2, 4). 13 CAMPI SCALARI E SPINORIALI. 257 Ne segue che l’applicazione lineare j : R4 −→ M4 (C), j((x0 , . . . , x3 )) = x0 Γ0 + . . . + x3 Γ3 (cioè j(ei ) = Γi ) soddisfa: j(x)2 = (x0 Γ0 + . . . + x3 Γ3 )2 = (x20 − x21 − x22 − x23 )I. La proprietà universale dell’algebra di Clifford dà allora un omomorfismo di R-algebre: J : C(1, 3) := C(Q1,3 ) −→ M4 (C) tale che J(v) = j(v) per ogni v ∈ R4 ⊂ C(1, 3). Poiché vogliamo descrivere il gruppo di spin Spin(1, 3) := { x ∈ C(1, 3)+ : xx∗ = ±1, xV x−1 ⊂ V }, cominciamo anzitutto a caratterizzare l’algebra di Clifford pari. 13.4.2 L’algebra di Clifford pari. L’algebra di Clifford pari C + (1, 3) ha dimensione 8 (su R) ed ha una base data da 1, ei ej , e1 e2 e3 e4 dove gli ei sono i vettori base di R4 . Quindi J(C + (1, 3)) è generato dalle matrici I, Γ0 Γj (j = 1, 2, 3), Γj Γk (1 ≤ j < k ≤ 3) e Γ5 := Γ0 Γ1 Γ2 Γ3 . Si ha: 0 σj −σj σk 0 ±iσl 0 0 −iI Γ0 Γj = , Γj Γk = = , Γ5 = , σj 0 0 −σj σk 0 ±iσl −iI 0 dove {j, k, l} = {1, 2, 3}. La proprietà Γi Γj = −Γj Γi per i 6= j implica che per ogni j: Γ5 Γj = −Γj Γ5 quindi Γ5 (Γj Γk ) = (Γj Γk )Γ5 qundi Γ5 commuta con ogni elemento dell’algebra di Clifford pari C + (1, 3). Segue che ogni autospazio di Γ5 è invariante per C + (1, 3). Consideriamo l’applicazione C-lineare α+,− : C2 −→ C4 , α+ (z1 , z2 ) = (z1 , z2 , −z1 , −z2 ), α− (z1 , z2 ) = (z1 , z2 , z1 , z2 ), cioè, in blocchi, si ha α+ (z) = (z, −z) e α− (z) = (z, z). Allora α± (C2 ) sono i due autospazi di Γ5 con autovalori ±i: 0 −iI z −iz Γ5 α− (z) = −iα− (z), perché = −iI 0 z −iz e similmente Γ5 α+ (z) = +iα+ (z). Poiché α± sono C-lineari si ha Γ5 α± (z) = α± (±iz). Come si è detto prima, questi autospazi sono invarianti per C + (1, 3). In particolare, per ogni Γ ∈ J(C + (1, 3)) esiste un AΓ ∈ End(C2 ) = M2 (C) tale che Γα− (z) = α− (AΓ z) per ogni z ∈ C2 . 13 CAMPI SCALARI E SPINORIALI. 258 Si verifica facilmente che si ha: Γ0 Γj α− (z) = α− (σj z), Γj Γk α− (z) = α− (±iσl z). In questo modo otteniamo un omomorfismo di algebre: J(C(1, 3)+ ) −→ End(C2 ) = M2 (C), Γ 7−→ AΓ e si ha: AI4 = I2 , AΓ0 Γj = σj , AΓj Γk = ±iσl , AΓ5 = iI2 . Ora è facile vedere che questo omomorfismo è suriettivo. Poiché dimR C + (1, 3) = 23 = 8 = dimR M2 (C) si hanno allora gli isomorfismi: ∼ = ∼ = C(1, 3)+ −→ J(C + (1, 3)) −→ M2 (C), c 7−→ J(c) = Γ 7−→ AΓ . 13.4.3 Il gruppo Spin(1, 3). Da 10.2.7 si ha la definizione Spin(1, 3) := { x ∈ C(1, 3)+ : xx∗ = ±1, xV x−1 ⊂ V }, dove, per x = x1 . . . x2k ∈ C + (1, 3) si ha x∗ = x2k . . . x1 . Come appena visto in 13.4.2, C + (1, 3) ∼ = J(C + (1, 3)) ⊂ M4 (C) e J(C + (1, 3)) ∼ = M2 (C). + + L’antiinvoluzione ∗ : C (1, 3) → C (1, 3) induce allora un’antiinvoluzione, indicata ancora con ∗, su M2 (C) nel modo seguente: ∗ : M2 (C) −→ M2 (C), A = AJ(x) 7−→ A∗ := AJ(x∗ ) . Se j 6= k, si ha Γj Γk = −Γk Γj . Quindi σj = AΓ0 Γj 7−→ σj∗ = AΓj Γ0 = A−Γ0 Γj = −σj , ±iσl = AΓj Γk 7−→ A−Γj Γk = ∓iσl , e si noti che Γ∗5 = (Γ0 Γ1 Γ2 Γ3 )∗ = Γ3 Γ2 Γ1 Γ0 = Γ0 Γ1 Γ2 Γ3 = Γ5 , quindi iI = AΓ5 7−→ AΓ∗5 = iI. Perciò l’antiinvoluzione ∗ manda la base I, iI, σj , iσj (j = 1, 2, 3) di M2 (C) nella base I, iI, −σj , −iσj . Cioè, ∗ fissa le matrici diagonali e cambia il segno alle matrici con traccia zero: a+b c a − b −c ∗ X= 7−→ X := . d a−b −d a + b Gli elementi x ∈ C + (1, 3) con xx∗ = ±1 corrispondono alle matrici X ∈ M2 (C) tale che XX ∗ = ±I, cioè: 2 a+b c a − b −c a − b2 − cd 0 1 0 ∗ XX = = = , d a−b −d a + b 0 a2 − b2 − cd 0 1 13 CAMPI SCALARI E SPINORIALI. 259 poiché det X = a2 − b2 − cd, troviamo allora {x ∈ C + (1, 3) : xx∗ = 1 } ∼ = SL(2, C). Dato che SL(2, C) è connesso, la componente connessa Spin(1, 3)o di Spin(1, 3) che contiene l’identità è contenuta in SL(2, C). Visto che SL(2, C) ha dimensione complessa 3 e quindi dimR SL(2, C) = 6 = dim SO(1, 3) = dim Spin(1, 3), concludiamo che Spin(1, 3)o ∼ = SL(2, C), un risultato che abbiamo già ottenuto ‘ad hoc’ in 9.2.5 (si noti che O(1, 3) ∼ = O(3, 1)). 13.4.4 Spinori di Majorana. Esiste un sottospazio reale V ⊂ C4 , con dimR V = 4, tale che J(x)v ⊂ v, ∀ x ∈ C + (1, 3), v ∈ V e t.c. C4 = V ⊕ iV ∼ = V ⊗R C. Gli elementi di V sono detti spinori di Majorana (vedi 10.4.3). Si noti che tale V non è unico: per ogni t ∈ C anche il sottospazio reale tV = {tv : v ∈ V } soddisfa le stesse condizioni. L’algebra reale J(C + (1, 3)) ∼ = C + (1, 3) ha R-base I, Γ0 Γi , Γj Γk , Γ5 = Γ1 . . . Γ4 con i = 1, 2, 3 e 1 ≤ j < k ≤ 3. Poiché Γj Γk = −Γ0 Γj Γ0 Γk , basta trovare un sottospazio reale V tale che Γ0 Γi v ∈ V per ogni v ∈ V , i = 1, 2, 3 e tale che C4 = V ⊕ iV . Per trovare tale V osserviamo che l’azione di x ∈ C + (1, 3) su α− (C2 ) è data da AJ(x) (vedi 13.4.2). In maniera simile, sia BJ(x) ∈ M2 (C) definito da J(x)α+ (z) = α+ (BJ(x) z) (∀z ∈ C2 ); si ha Γ0 Γi α+ (z) = α+ (−σj z) come si verifica facilmente. Si ricordi che C4 = α+ (C2 )⊕α− (C2 ) (la decomposizione in autospazi per Γ5 ), e quindi si ha Γ(α+ (z) + α− (w)) = α+ (BΓ z) + α− (AΓ w) (∀Γ ∈ J(C + (1, 3), ∀z, w ∈ C2 ). Le matrici AΓ e BΓ non sono ‘indipendenti’, infatti si verifica facilmente che: 0 1 −σi S = Sσi , (i = 1, 2, 3) con S = −1 0 (si noti che il complesso coniugato σi di σi è σi stesso se i = 1, 3 e −σ2 se i = 2). Questo implica che −σi = Sσi S −1 e poiché (−σi , σi ) = (BΓ0 Γi , AΓ0 Γi ) otteniamo BΓ0 Γi = SAΓ0 Γi S −1 . Poiché AΓΓ0 = AΓ AΓ0 per ogni Γ, Γ0 ∈ J(C + (1, 3)) e similmente per B, com’è facile verificare, otteniamo: BΓj Γk = −BΓ0 Γj BΓ0 Γk = −SAΓ0 Γj S −1 SAΓ0 Γk S −1 = −SAΓ0 Γj AΓ0 Γk S −1 = SAΓj Γk S −1 , 13 CAMPI SCALARI E SPINORIALI. 260 e analogamente BΓ5 = SAΓ5 S −1 . Quindi per ogni Γ ∈ J(C + (1, 3)), cioè una combinazione lineare con coefficienti reali di prodotti Γ0 Γi , si ha ∀ Γ ∈ J(C + (1, 3)). BΓ S = SAΓ , Come già osservato, rispetto alla decomposizione C4 = α+ (C2 ) ⊕ α− (C2 ), l’azione di Γ ∈ J(C + (1, 3)) è data da (BΓ , AΓ ) = (SAΓ S −1 , AΓ ). Adesso è facile vedere che il sottospazio reale V := {α+ (Sz) + α− (z) ∈ C4 : z ∈ C2 } = {(z¯2 , −z¯1 , −z¯2 , z¯1 ) + (z1 , z2 , z1 , z2 ) ∈ C4 : z1 , z2 ∈ C } è invariante per l’azione di J(C + (1, 3)): Γ(α+ (Sz) + α− (z)) = = = = α+ (BΓ Sz) + α− (AΓ z) α+ (SAΓ (z)) + α− (AΓ z) α+ (SAΓ z)) + α− (AΓ z) α+ (Sw) + α− (w) ∈ V, dove w := AΓ z ∈ C2 . Una R-base di V è data dai quattro vettori f1 = (1, −1, 1, 1), f2 = (i, i, i, −i), f3 = (1, 1, −1, 1), f4 = (−i, i, i, i) (si noti che f1 = α+ (S(1, 0)) + α− ((1, 0)), f1 = α+ (S(i, 0)) + α− ((i, 0)) ecc.). L’azione dei generatori Γ0 Γi di J(C + (1, 3)) su questa base è data da Γ0 Γ1 Γ0 Γ2 Γ0 Γ3 f1 f2 f3 f4 f3 f4 f1 f2 f2 −f1 −f3 −f4 f1 f2 −f3 −f4 , e si noti che i coefficienti delle matrici di Γ0 Γi rispetto a questa base sono proprio reali. E’ facile vedere che C4 = V ⊕ iV (si considerino f1 ± f3 , f2 ± f4 ), quindi abbiamo trovato ‘gli spinori di Majorana’. 13.4.5 L’operatore di coniugazione di carica C. Alla luce di quanto appena visto, si consideri l’operatore C : C4 −→ C4 , α+ (z) + α− (w) 7→ α+ (S w̄) + α− (−S z̄) . Esso è detto operatore coniugazione di carica per il motivo che vedremo in 13.4.7. E’ evidente che se V è lo spazio reale che individua gli spinori di Majorana allora C|V = idV ed inoltre è antilineare e involutivo (si ricordi che S 2 è l’identità). Dunque possiamo dire che gli spinori di Majorana sono gli spinori reali rispetto alla coniugazione C. 13 CAMPI SCALARI E SPINORIALI. 261 13.4.6 Esercizio. Si dimostri che C = −iΓ2 ∗ , dove ∗ è l’usuale coniugazione complessa in C4 . 13.4.7 Esempio. Il positrone e le antiparticelle. Sia ψ la funzione d’onda di un elettrone, che quindi soddisfa l’equazione di Dirac η µν Γν (Pµ + qAµ )ψ − mψ = 0 . Notando che Γ2 Γi Γ2 = −Γ∗i (il complesso coniugato della matrice Γi ), posto ψ C := Cψ , si ottiene immediatamente che ψ C è soluzione dell’equazione η µν Γν (Pµ − qAµ )ψ C − mψ C = 0 , cioè la stessa dell’elettrone, ma con carica opposta. La particella descritta da ψ C si chiama il positrone. Tale risultato è valido per qualunque particella di spin 12 , sia che sia carica o meno, sia che sia massiva o meno. In ogni caso ψ C descrive l’antiparticella corrispondente alla particella descritta da ψ. Per esempio per il neutrino chirale a massa nulla, l’antineutrino ha chiralità opposta. Tale proprietà, che ad ogni particella corrisponde un’antiparticella, è vera per qualunque tipo di particella, a prescindere dallo spin.52 13.4.8 Esercizio. Si consideri una particella scalare carica descritta da un campo di KleinGordon massivo. Si dimostri che a meno della moltiplicazione per un fattore di fase, l’operatore di coniugazione di carica è dato semplicemente dalla coniugazione complessa. 13.4.9 La complessificazione di Lie(SO(1, 3)). La rappresentazione di SO(1, 3)o ∼ = 2 2 SL(2, C) su C induce una rappresentazione dell’algebra di Lie Lie(SO(1, 3)) su C ) ρR : Lie(SO(1, 3)) −→ End(C2 ). L’algebra di Lie Lie(SO(1, 3)) è un algebra di Lie reale (perché SO(1, 3) è un gruppo di Lie reale), anche se, per ‘un miracolo’, Lie(SO(1, 3)) ∼ = Lie(SL(2, C)) ∼ = M2 (C)o ) := {X ∈ M2 (C) : tr(X) = 0 }, le matrici con traccia nulla, formano già uno spazio vettoriale complesso di dimensione tre. Per ottenere il legame con la teoria delle rappresentazioni di algebre di Lie complesse semplici, dobbiamo allora considerare la complessificazione dell’algebra di Lie Lie(SO(1, 3)) che ha una rappresentazione sulla complessificazione di C2 , cioè, la rappresentazione ρ : Lie(SO(1, 3))C := Lie(SO(1, 3)) ⊗R C −→ End(C2 ) ⊗R C, 52 X ⊗ z 7−→ ρR (X) ⊗ z, Eventualmente l’antiparticella coincide con la particella, come accade ad esempio per il fotone. 13 CAMPI SCALARI E SPINORIALI. 262 per X ∈ Lie(SO(1, 3)) e z ∈ C. Nel caso in cui uno spazio vettoriale V abbia già una struttura di spazio vettoriale complesso, la sua complessificazione VC := V ⊗R C ha una decomposizione canonica (cioè intrinseca), data dai due autospazi per l’azione di C su V . Quindi si considera l’aplicazione R-lineare J : V −→ V, Jv := iv. Gli autovalori di J sono i, −i ∈ C (si usi J 2 = −I) e VC è la somma diretta degli autospazi di J: VC = Vi ⊕ V−i , V±i := {w ∈ VC : (i ⊗ 1)w = (1 ⊗ (±i))w }. Si noti che questa decomposizione gode della proprietà seguente: se v 7−→ (v+ , v− ) ∈ Vi ⊕ V−i allora ((a + bi)v) ⊗ z 7−→ ((a + bi)zv+ , (a − bi)zv− ) per v ∈ V , a + bi, z ∈ C con a, b ∈ R. In particolare, otteniamo Lie(SO(1, 3)C ∼ = End(C2 )oC ∼ = End(C2 )o ⊕ End(C2 )o , e, poiché Lie(SO(1, 3)C ∼ = Lie(SO(4)) = so(4), questo è l’isomorfismo di algebre di Lie so(4) ∼ = sl(2) × sl(2) che abbiamo già osservato in 9.4.4. La rappresentazione ρ, che è C-lineare, è la somma diretta delle due rappresentazioni spinoriali di so(4): ρ : Lie(SO(1, 3))C ∼ = Endo (C) ⊕ Endo (C) −→ End(C2 )C = End(C2 ) ⊕ End(C2 ), la C-linearità di ρR : Lie(SO(1, 3)) = End(C2 )o → End(C2 ) garantisce infatti che ρ mandi gli autospazi della moltiplicazione con i⊗1 su End(C2 )o negli autospazi corrispondenti in End(C2 ). 13.5 Campi di spin 1. Benché la costruzione delle equazioni del moto per i campi di spin 1 richiederebbe un’analisi ulteriore, usiamo un punto di vista semplificativo per i nostri scopi. Da 13.3.7 e l’esercizio precedente, segue facilmente che da un campo di Dirac massivo ψ si può ottenere un campo vettoriale definendo V µ := ψ̄Γµ ψ. Oltre all’equazione di Klein-Gordon esso soddisfa l’equazione ∂µ V µ = 0. Assumeremo entrambe come equazioni definitorie per un campo vettoriale. 13.6 Campi e gravità (cenni). Vogliamo ora considerare molto brevemente alcune questioni riguardanti l’accoppiamento dei campi di materia con il campo gravitazionale. 13.6.1 Esercizio. Equazioni covarianti. Si è mostrato che un modo di introdurre l’accoppiamento con il campo gravitazionale è quello di covariantizzare le equazioni, introducendo 13 CAMPI SCALARI E SPINORIALI. 263 una metrica e la derivata covariante di Levi-Civita. Consideriamo ad esempio un campo di Klein-Gordon (2 + m2 )φ = 0. Allora la covariantizzazione ci porta all’equazione (g µν ∇µ ∂ν + m2 )φ = 0 . Tuttavia notiamo che esiste un secondo modo di scrivere l’equazione di Klein-Gordon nello spazio di Minkowski. Posto d† := − ∗ d∗, dove ∗ è il duale di Hodge, allora si ha (sulla 0−forma φ) 2 = 12 (d† d + dd† ). Nel caso di un manifold arbitrario con metrica gµν il duale di Hodge si costruisce come in 1.3.7, utilizzando un vielbein. Si usi 1 † (d d + dd† )φ + m2 φ = 0 2 per definire l’equazione di Klein-Gordon su uno spazio curvo. La si esprima esplicitamente in termini della derivata covariante e si confronti il risultato con l’equazione precedente. 13.6.2 Fibrati spinoriali. L’equazione di Dirac può essere definita su varietà che ammettano la struttura di fibrato spinoriale. Per definire una tale struttura occorre poter restringere il gruppo di struttura dal gruppo lineare generale al gruppo di spin. Poiché d’altra parte quest ultimo è il ricoprimento del gruppo speciale ortogonale, deve accadere anzitutto che M sia una varietà orientabile. Data una famiglia di banalizzazioni locali del fibrato tangente, come mostrato in 11.1, il fibrato sarà caratterizzato da una famiglia di mappe di transizione −1 gαβ : Uα ∩ Uβ −→ SO(p, q).53 Esse devono soddisfare ovviamente le condizioni gβα = gαβ e gαβ gβγ gγα = 1. Nella seconda relazione ovviamente le funzioni si intendono ristrette su Uα ∩ Uβ ∩ Uγ . Il punto è che per generare un fibrato di spin bisogna poter sollevare le funzioni di struttura a funzioni a valori nel gruppo di spin, cioè γαβ : Uα ∩Uβ −→ Spin(p, q), con le stesse suddette proprietà. Si fissi un sollevamento qualunque (per ogni Uα ∩Uβ ). Da 10.2.8 vediamo che deve essere ργαβ = gαβ e, poiché Ker(ρ) = ±1, ne segue che γαβ γβγ γγα = ±1. Si dimostri che si può ottenere il sollevamento cercato se esiste una famiglia di funzioni σαβ : Uα ∩Uβ −→ {1, −1}, tale che σαβ σβγ σγα = γαβ γβγ γγα . Questa è detta condizione di cociclo e se σ esiste, si dice che la mappa w : Uα ∩ Uβ ∩ Uγ −→ γαβ γβγ γγα è un cociclo banale. La banalità di w è una proprietà topologica della varietà di base M . Se M ha una tale proprietà diremo che è una varietà di spin. Sia dunque M una varietà di spin. Possiamo quindi costruire il fibrato di spin SM . Fissato localmente un vielbein ei ed una connessione ∇ su SM , è be definito l’operatore di Dirac D : Γ(M, SM ) −→ Γ(M, SM ) tramite Dψ := η ij ei · ∇ej ψ, dove il punto indica il pairing · : T M × SM −→ SM indotto dal prodotto di Clifford, come in precedenza. In particolare se ω è la connessione infinitesima sul fibrato dei riferimenti,54 si ottiene la derivata covariante sui campi spinoriali tramite ∇µ ψ := (eµi ∂µ + 21 ωµ ij Γij )ψ, dove Γij := 12 [Γi , Γj ]. Segue infatti da 10.3.1 che Γij , 0 ≤ i < j ≤ d − 1 (dove d = dim(M )) sono i generatori di una rappresentazione spinoriale di so(p, q). Chiameremo questa la connessione di spin. 13.6.3 Esercizio. Su una varietà di spin M , si consideri l’equazione di Dirac costruita con la connessione di spin: (−iD − m)ψ = 0. Si ricavi l’equazione del secondo ordine ottenuta 53 54 dove p, q individuano la segnatura dunque una 1−forma a valori in so(p, q) 13 CAMPI SCALARI E SPINORIALI. 264 moltiplicando per l’operatore −iD + m. Si discuta il risultato alla luce del precedente esercizio e delle osservazioni fatte in 13.2.3. 14 GEOMETRIA DEL MODELLO STANDARD E GUT. 14 265 Geometria del Modello Standard e GUT. Testi consigliati: [CL], [CL2]. Poiché una ricostruzione del modello standard delle particelle richiederebbe ovviamente molto spazio, ci accontentiamo di un’esposizione rapida che porti direttamente ad evidenziarne il contenuto geometrico. Ovunque in questo capitolo adotteremo il formalismo dei fisici, valido in coordinate locali o in un fissato gauge, lasciando come esercizio la formulazione rigorosa nei termini matematici introdotti nei capitoli precedenti. La sezione seguente è puramente descrittiva. 14.1 I campi del modello standard. Vediamo anzitutto quali sono i campi che intervengono nella fisica delle particelle elementari. 14.1.1 I leptoni. Vi sono due classi evidenti di particelle costituenti la materia. La prima classe consiste di particelle elementari leggere: i leptoni. Si tratta di particelle di spin 1/2, suddivise in tre famiglie. • La prima famiglia è costituita dall’elettrone e− , il neutrino elettronico νe e le rispettive antiparticelle, il positrone e+ e l’antineutrino elettronico. L’elettrone e il positrone sono carichi, mentre i rispettivi neutrini sono neutri e la loro massa è talmente piccola da potersi considerare in prima approssimazione nulla55 . • La seconda famiglia è costituita dal muone µ− , il neutrino muonico νµ e le rispettive antiparticelle. Mentre le cariche sono le stesse, il muone è molto più pesante dell’elettrone. • La terza famiglia è costituita dal tauone τ − , il neutrino tauonico ντ e le rispettive antiparticelle. Il tauone è il più pesante dei leptoni. Le particelle cariche ovviamente interagiscono elettromagneticamente. Tutti i leptoni comunque interagiscono anche in un secondo modo, cioè mediante interazione debole. Essa è responsabile ad esempio del decadimento del muone che si trasforma in elettrone emettendo un neutrino muonico ed un antineutrino elettronico. L’interazione debole vede in effetti ogni neutrino con il corrispondente leptone carico, come le due componenti di un doppietto isotopico, sul quale agisce una simmetria SU (2). Alcuni esperimenti mostrano inoltre che l’interazione debole viola la parità spaziale. In effetti si trova che tali esperimenti sono ben descritti dalla teoria se si assume che i neutrini siano chirali con chiralità left. Essi interagiscono solamente con le componenti left dei leptoni carichi negativamente. Le componenti right di questi ultimi saranno dunque descritte da singoletti di SU (2).56 14.1.2 Gli adroni e l’ottuplice via. Gli adroni costituiscono una vastissima collezione di particelle che si suddividono in due principali famiglie: i mesoni e i barioni. Tutte queste particelle sono composte e interagiscono sia elettromagneticamente, sia debolmente e sia fortemente. 55 56 la questione sulla massa dei neutrini non verrà qui considerata e in ogni caso assumiamo che sia trascurabile per le antiparticelle i termini left e right vanno interscambiati 14 GEOMETRIA DEL MODELLO STANDARD E GUT. 266 L’interazione forte è responsabile ad esempio dell’attrazione tra nucleoni o di decadimenti molto veloci (con tempi di decadimento dell’ordine di 10−23 secondi). I mesoni sono particelle con spin intero, dunque bosoni, e quelli instabili possono decadere lasciando solamente leptoni o fotoni come prodotti di decadimento. I barioni, che comprendono protoni e neutroni, sono invece particelle di spin semidispari, dunque fermioni, e quelli instabili decadono lasciando comunque barioni come prodotti di reazione. Come si è detto gli adroni non sono particelle elementari, ma sono composte. I mattoni costituenti sono i quark, che sono particelle di spin 1/2 e carica frazionaria. I mesoni sono costituiti ad esempio da coppie di quark ed antiquark, mentre i barioni sono costituiti da un numero da tre quarks (o tre antiquarks). Consistentemente ad ogni quark si associa numero barionico 1/3 (con il segno meno per gli antiquarks). Il decadimento del neutrone, che si trasforma in un protone emettendo un elettrone ed un antineutrino elettronico, oltre a mostrare che i quark come i leptoni possono interagire anche debolmente, suggerisce appunto che i quark compaiano in doppietti isotopici, proprio perché se non differissero per la carica, neutrone e protone compaiono in maniera simmetrica nelle interazioni nucleari. Originariamente si pensava dunque a due quarks: l’up e il down costituenti il doppietto u . d Poiché a neutrone e protone si associava spin isotopico 1/2, con terza componente +1/2 per il protone e −1/2 per il neutrone, si faceva l’identificazione p = uud e n = ddu. Le cariche elettriche dei quark devono essere dunque 2/3 per u e −1/3 per d. Oggi si sa che i quark, come i leptoni, sono suddivisi in tre famiglie (con i corrispondenti antiquarks)57 , di masse via via crescenti: • i quarks up (u) e down (d) con terza componente dello spin isotopico T3 = rispettivamente e cariche q = 32 e q = − 13 ; 1 , − 12 2 • il quark charm (c al quale è associato il numero quantico di incanto c = 1) con T3 = 12 , q = 23 e il quark strange (s avente stranezza s = 1) con T3 = − 12 , q = − 13 ; • il quark top (t al quale è associato il numero quantico t = 1) con T3 = 12 , q = beauty (o bottom) (b avente bellezza b = 1) con T3 = − 12 , q = − 13 . 2 3 e il quark Come prima, i doppietti riguardano le componenti left responsabili delle interazioni deboli, mentre le componenti right sono disposte in singoletti. È comunque interessante osservare che, dato che i quarks c, b, t sono molto pesanti, furono scoperte dapprima quelle particelle costituite dai quark up, down e strange. In particolare vi erano alcuni decadimenti che dovevano essere attribuiti a interazioni forti (dato che non coinvolgevano nè fotoni nè neutrini), ma ciononostante avvenivano in tempi molto più lunghi di quelli tipici delle interazioni forti. Le particelle che decadono in questo modo vennero perciò battezzate strane e il fenomeno fu attribuito alla tendenza a conservare un nuovo tipo di numero quantico, detto appunto la stranezza. 57 più precisamente la quantizzazione risulta consistente solamente se il numero di famiglie di quarks è uguale al numero di famiglie leptoniche 14 GEOMETRIA DEL MODELLO STANDARD E GUT. 267 Y Y α2 c c sc T T c c T T c T T s Tscd¯ ū c s̄ c c c c α2 Q = −1/3 c c c c α1 c T3 c c cs scu T T c T T c c T T sc T c 0 Σ0ss cΛ c scp (uud) T T c T T c T T TscΣ+ (uus) T3 c c sc 0 K 0 (ds̄) Q=0 sc c π − (dū) cs T T c T T c T T Tsc − c K (sū) Q = −1 Q=1 Decupletto dei Barioni Q = −1 ∆− (ddd) c Ottetto dei Mesoni Ξ (uss) Q = −1 T3 Y n (ddu) (dss) c Q = 1/3 Y Ξ α1 c c Ottetto dei Barioni cs c c Σ− (dds) s c T T c T T c T T Tsc − c s c Q = −2/3 c c d c Q = 2/3 Q=0 Y Q=1 ∆0 (ddu) ∆+ (uud) Q=2 ∆++ (uuu) s cs sc s T T c c c T T c c T T Σ∗0 (dus) ∗+ Σ∗− (dds)Tcs sc scΣ (uus) T T3 T c c T T c c c T T Tsc sc Ξ∗0 (uss) Ξ∗− (dss) T T c T T T T Ts Ω− (sss) c η π0 c ss c scK + (us̄) T T c T T c T T ¯ Tcsπ+ (ud) T3 c c sc 0 ¯ K̄ (sd) Q=0 Q=1 14 GEOMETRIA DEL MODELLO STANDARD E GUT. 268 Le particelle potevano quindi essere classificate riunendole in schemi, secondo la loro stranezza (disposta in maniera crescente dal basso verso l’alto) e alla loro carica (crescente nella direzione obliqua SO-NE), come mostrato nella pagina precedente. Gli ottetti e il decupletto in effetti ricordavano i pesi delle rappresentazioni irriducibili di su(3) mentre gli schemi associati alle rappresentazioni fondamentali non comparivano. Nonostante ciò, era naturale ipotizzare l’esistenza di tre particelle (e le loro antiparticelle) corrispondenti a tali rappresentazioni, e che dovessero costituire i mattoni fondamentali della materia. Essi furono chiamati quark.58 Il fatto che tuttora non si riescano a vedere i quark liberi, cioè non in stati legati come nei multipletti, è attribuito ad un meccanismo che impedisce ai quarks di muoversi liberamente, almeno alle energie finora disponibili: il meccanismo del confinamento. In particolare si noti che tutti gli stati legati che compaiono, hanno carica elettrica intera. Il meccanismo del confinamento è un mistero che a tuttoggi attende una spiegazione soddisfacente. La ricerca di stati con carica frazionaria, o dei quark isolati ha comunque fino ad ora dato esito negativo. Se assumiamo che i quark up, down e strange siano i tre stati della rappresentazione fondamentale e gli antiquark quelli della coniugata, allora lo schema dei mesoni rientra in modo naturale nella rappresentazione 3 ⊗ 3∗ = 8 ⊕ 1, mentre gli schemi dei barioni sono individuati dalla rappresentazione 3 ⊗ 3 ⊗ 3 = 10 ⊕ 8 ⊕ 8 ⊕ 1. Questa simmetria SU (3), viene detta simmetria di sapore59 . Tale simmetria non è esatta, cosa che si manifesta nel fatto che le masse dei quark (e delle particelle nei multipletti) sono diverse. La scoperta degli altri quark porta inoltre ad allargare la simmetria dei sapori a SU (6), con schemi molto complicati, ma molto meno evidenti, a causa delle notevoli differenze di massa dei rimanenti quark. Il punto interessante nell’individuazione di tali schemi non è comunque nell’aver individuato il manifestarsi di una simmetria (non esatta) di sapore. Si consideri il decupletto dei barioni. Inizialmente esso non era completo, poiché mancava in realtà uno dei vertici (le particelle Ω). Ciò non era sorprendente, poiché avendo i quark spin 12 la funzione d’onda che descrive lo stato composto da tre quark deve essere antisimmetrica nello scambio qualunque di due di essi. Nel caso delle particelle ai vertici del diagramma, in cui i quark hanno esattamente gli stessi numeri quantici, sarebbero dunque permessi solamente stati con configurazioni spaziali di momento angolare superiore, difficili da realizzare (tenendo conto anche dell’elevata massa delle particelle). Tuttavia quando la particella Ω fu scoperta, venne prodotta nello stato fondamentale con momento angolare nullo. 14.1.3 I quark e i colori. Sia ψ s (α; x) la funzione d’onda a valori complessi che descrive un quark strange con numeri quantici α. Se i numeri quantici sono la carica, lo spin il sapore e lo spin isotopico, poiché lo spin ha solamente due valori mentre i restanti numeri quantici sono completamente fissati, è impossibile costruire, dal prodotto tensore di tre di tali funzioni, una funzione d’onda a tre particelle completamente antisimmetrica nello scambio dei quark, con tutti e tre i quark nello stato corrispondente a momento angolare nullo. Lo stato a energia più bassa dovrebbe corrispondere al momento angolare ~ (con due quark di momento nullo e uno di momento ~). L’analisi dello spettro di energia degli stati eccitati della particella Ω 58 Suggerito da Gell-Mann, ispirandosi a una frase del romanzo ‘Finnegans wake’ di J.A.A. Joyce. Quark in tedesco e in inglese significa ‘ricotta’. 59 i numeri quantici u, d, s, c, b e t vengono infatti detti sapori 14 GEOMETRIA DEL MODELLO STANDARD E GUT. 269 evidenzia invece che lo stato a energia più bassa ha momento angolare nullo e deve dunque corrispondere al caso in cui tutti e tre i quark hanno momento nullo. Ciò è vietato dal principio di esclusione di Pauli, a meno che non esista un nuovo numero quantico che per ogni quark possa assumere tre distinti valori. Tale numero quantico viene detto colore e i tre possibili valori vengono indicati con rosso, blu e verde per i quark e antirosso, antiblu e antiverde per gli antiquark. Sullo spazio dei colori agisce il gruppo di simmetria SU (3)C (cioè SU (3) di colore) ritenuto responsabile delle interazioni forti. A differenza delle simmetrie di sapore, si ritiene che la simmetria di colore sia esatta. 14.1.4 I campi di gauge. Assumendo che le interazioni tra le particelle siano mediate da dei campi di gauge, tramite la manifestazione di simmetrie locali come descritto nei precedenti capitoli, si può pensare che mentre l’interazione elettromagnetica è associata ad un gruppo di gauge U (1), le interazioni debole e forte siano associate ai gruppi SU (2)L e SU (3)C . Il gruppo di gauge del modello standard è identificato con GM S = U (1)Y ⊗ SU (2)L ⊗ SU (3)C . Il gruppo di gauge U (1)Y viene detto gruppo di ipercarica e non coincide con il gruppo U (1)em responsabile dell’interazione elettromagnetica. La carica associata ad U (1)Y viene detta ipercarica. Poiché U (1)Y commuta co SU (2)L , le componenti di un fissato doppietto di SU (2)L devono avere la stessa ipercarica, cosa che non avviene invece per la carica elettrica. Ad esempio neutrino elettronico ed elettrone devono avere la stessa ipercarica ma l’elettrone è carico mentre il neutrino no. D’altra parte se si assume che T1 , T2 , T3 siano i tre generatori infinitesimi di SU (2)L e che T3 sia diagonale, allora per ogni doppietto leptonico o dei quark, cosı̀ come per i singoletti, si ottiene che q − t3 (t3 essendo l’autovalore di T3 ) è costante e può essere identificato con l’ipercarica a meno di una costante moltiplicativa. è convenzionale scegliere la normalizzazione in modo tale che Q = T3 + Y2 . Il gruppo U (1)em è quindi una combinazione dei gruppi U (1)Y e del sottogruppo U (1) di SU (2) generato da T3 . Al gruppo U (1)Y si associa un campo di gauge abeliano AY , come nell’elettromagnetismo. Al gruppo SU (2)L invece corrisponde un campo di gauge a valori in su(2) ovvero ± − 3 tre campi di gauge: AL = A+ L T+ + AL T− + AL T3 , di cui AL individuano due campi di gauge che ± 3 risultano essere carichi elettricamente (W ), mentre AL si combina con AY per dare origine al campo di gauge elettromagnetico Aem ed un altro campo neutro (Z 0 ). Aem rappresenta i fotoni, mentre gli altri campi vengono anche detti luce pesante. Infine il gruppo SU (3)C definisce 8 campi di gauge colorati AC = AαC λα , dove λα sono i generatori della rappresentazione aggiunta di SU (3). Questi campi, che trasportano carica frazionaria e carica di colore si chiamano i gluoni. 14.1.5 Il bosone di Higgs. Oltre ai campi finora discussi nel modello standard compare un campo scalare complesso: il bosone di Higgs. Il punto è che, come abbiamo visto, la teoria elettrodebole è basata su una simmetria chirale, e pertanto richiede l’annullarsi delle masse in gioco. È un fatto sperimentale evidente che invece solamente il fotone e (forse) i neutrini hanno massa nulla. Ciò significa che la simmetria debole deve essere rotta in qualche modo. Poiché la massa di un campo compare nella lagrangiana tramite un termine quadratico nel 14 GEOMETRIA DEL MODELLO STANDARD E GUT. 270 campo, si potrebbero aggiungere tali termini a mano. Questo metodo esplicito di rompere la simmetria fin dall’inizio è però troppo brutale e rende più difficoltosa la quantizzazione della teoria. Un metodo più sottile consiste invece nell’aggiungere un campo scalare opportunamente accoppiato con gli altri campi e descritto da un potenziale che rispetta tutte le simmetrie del modello. Il trucco sta nel scegliere un potenziale per il quale le configurazioni di minima energia non rispettino la simmetria, cosicché per una fissata soluzione delle equazioni del moto la simmetria si rompe e vengono generati i termini di massa. Questo è detto meccanismo di Higgs e si parla allora di rottura spontanea della simmetria. Del bosone di Higgs non vi è tuttora alcuna evidenza sperimentale. 14.2 Costruzione del Modello Standard. Una volta stabiliti gli ingredienti principali del modello standard, si può procedere nella sua costruzione. 14.2.1 Il modello elettrodebole. Consideriamo per prima la parte di interazione elettrodebole. A tale scopo trascureremo momentaneamente l’interazione forte che verrà aggiunta successivamente covariantizzando rispetto al gruppo SU (3)C . I campi di gauge. Il gruppo di gauge elettrodebole è U (1)Y × SU (2)L . Il campo di gauge U (1)Y è AY µ con campo di forze FY µν = ∂µ AY ν − ∂ν AY µ .PPer SU (2)L avremo invece tre campi Aiµ , i = 1, 2, 3 con campi i = ∂µ Aiν − ∂ν Aiµ + g j,k ijk Ajµ Akν , dove g è la costante di accoppiamento. L’azione di forze Fµν di Yang-Mills elettrodebole è quindi Z X 1 i ed [FY µν FYµν + Fµν F iµν ]d4 x . SY M = − 4 i I campi di materia. Consideriamo una famiglia di campi di materia. Essa consiste di: • un doppietto di isospin contenente quark left, ψL : M −→ C2 ⊗ C4 dove M è lo spazio-tempo di Minkowski, il fattore C2 è lo spazio di supporto per la rappresentazione fondamentale di SU (2) e C4 lo è per la rappresentazione spinoriale del gruppo di spin di SO(1, 3). Tipicamente si scrive UL ψL = DL dove UL e DL hanno valori in C4 . A tali campi si associa ipercarica Y = 31 . La notazione adottata è la seguente: se ψ U è la funzione d’onda (di Dirac) per il quark di tipo up (ad esempio u), allora 1 − Γ5 U 1 + Γ5 U UL = ψ , UR = ψ , 2 2 14 GEOMETRIA DEL MODELLO STANDARD E GUT. 271 e cosı̀ via. Alternativamente scriveremo ad esempio ψL = 1 − Γ5 ψ, 2 dove ψ ha valori in C2 ⊗ C4 e le matrici gamma agiscono come l’identità su C2 ; • un doppietto di isospin con i leploni left, V`L `− L di ipercarica Y = −1; • un singoletto con il quark UR di ipercarica Y = 4 3 e chiralità negativa; • un singoletto con il quark DR di ipercarica Y = − 32 e chiralità negativa; • un singoletto con il leptone `− R di ipercarica Y = −2 e chiralità negativa. Rammentando che ogni quark ha tre stati di colore, si tratta in tutto di 15 stati chirali, ai quali si aggiungono i quindici stati di antiparticella. Utilizzando il metodo di covariantizzazione illustrato ad esempio nel capitolo 13 è semplice costruire la lagrangiana relativa ai campi di materia. Per ottenere una scrittura compatta introduciamo le notazioni seguenti V U ψ ψ e Q , ψ := ψ := ψ` ψD in modo che ad esempio 1 − Γ5 Q ψ = 2 UL DL , 1 + Γ5 e ψ = 2 0 `− R , e ψ̄ Q = (ψ̄ U , ψ̄ D ) . Indichiamo con Y l’operatore di ipercarica e con τi , i = 1, 2, 3 gli operatori di isospin. Essi agiranno come lo zero sui singoletti e come τi = 12 σi sui doppietti, σi essendo le matrici di Pauli. Le matrici di Pauli agiscono come l’identità sul fattore C4 , mentre agiscono in maniera non banale su C2 . Ad esempio −ψ V e Yψ = −ψ ` − `− R e 1 1 − Γ5 Q τi ψ Q = σi ψ . 2 2 In altre parole le matrici Γ agiscono sulle singole componenti del doppietto, mentre le matrici di Pauli agiscono sull’indice di doppietto, cioè ad esempio U U D ψ Γµ ψ U ψ ψ Γµ = , σ1 = . ψD Γµ ψ D ψD ψU 14 GEOMETRIA DEL MODELLO STANDARD E GUT. 272 Ciò significa semplicemente che ψ Q ha valore nello spazio di supporto delle rappresentazione prodotto ρSU (2) ⊗ ρSpin(1,3) , ρSU (2) essendo la rappresentazione fondamentale. Con queste notazioni l’azione per il modello elettrodebole è Z ed Smat = (iψ̄ Q Γµ Dµ ΨQ + iψ̄ e Γµ Dµ Ψe ) , dove ged i 1 − Γ5 Y Dµ = ∂µ − i Aµ σi − igY AY µ . 2 2 2 Il meccanismo di Higgs. Nell’azione finora costruita la chiralità dell’interazione debole ha forzato a considerare solamente campi di massa nulla. Vediamo molto brevemente come si possa generare una massa accoppiando il sistema con un campo scalare. Si consideri un campo scalare complesso costituito da un doppietto di isospin con ipercarica Y = 1 + H 2 . H : M −→ C , H= H0 Diciamo che H è un doppietto scalare, poiché il gruppo di Lorentz agisce banalmente su di esso. In altre parole H assume valori in C2 ≡ C2 ⊗ C0 , supporto per la rappresentazione ρSU (2) ⊗ 1SO(1,3) . Assumiamo dunque per tale campo l’azione di Klein-Gordon covariantizzata Z SH = [(Dµ H)† Dµ H − V (H)]d4 x , con derivata covariante 1 ged i Dµ H = ∂µ − i Aµ σi − igY AY µ H 2 2 e potenziale a fondo di bottiglia 1 1 V (H) = − m2H H † H + λH (H † H)2 . 2 2 √ √ Posto come d’uso v := mH / λH ∈ R, tale potenziale ha minimo per |H| = v/ 2. A meno di una trasformazione di gauge globale U (1)Y × SU (2)L , sullo stato di vuoto il campo assumerà dunque valore di aspettazione 0 hHi = ∈ C2 . √v 2 Le fluttuazioni attorno a tale configurazione di vuoto si possono parametrizzare nella forma ! 0 iξ i τi H(x) = e , v+η(x) √ 2 14 GEOMETRIA DEL MODELLO STANDARD E GUT. 273 dove η e ξ sono campi con valore di aspettazione nullo sul vuoto. La fase ξ a può essere eliminata con una trasformazione di gauge locale SU (2)L , sotto la quale trasformeranno anche i campi left e il campo di gauge A, mentre resteranno invariati i campi right e AY . Prima di farlo si consideri l’interazione tra il campo scalare e quelli di materia Z i Q − e ∗ κe ψ̄L H`R + ψ̄L κD HDR + κU σ2 H UR d4 x + h.c. , Smassa = 2 dove h.c. significa hermitiano coniugato. 14.2.2 Esercizio. Si esegua la suddetta trasformazione di gauge e si dimostri che 1. nell’azione Smassa compaiono i termini di massa per i campi `− , U e D, con masse κ` v m` = √ , 2 κU v mU = √ , 2 κD v mD = √ ; 2 2. in SH rimane il campo dinamico η con massa mH (il campo di Higgs fisico); 3. se Ãiµ è il campo elettrodebole trasformato, allora in SH compaiono dei termini di massa per i campi di gauge nella forma Z 2 2 2 2 ged v + gY2 v 2 0 0µ 4 ged v + −µ Wµ W + Zµ Z dx, 4 8 dove W ± := sono campi di massa mW = ged v , 2 Ã1µ ± iÃ2µ √ 2 mentre Zµ0 = cos θW Ã3µ − sin θW AY µ , Aµ = sin θW Ã3µ + cos θW AY µ , in cui θW è detto angolo di Weinberg e soddisfa tan θW = massa nulla mentre Zµ0 ha massa mZ = mW / cos θW ; gY , ged cosicché Aµ ha ancora 4. mentre la simmetria SU (2)L è rotta, si verifichi che sopravvive ancora una simmetria U (1)em generata da τ3 + Y2 , sotto cui Aµ trasforma come campo di gauge e Wµ± hanno carica ±1 mentre Zµ0 e Aµ sono scarichi. Dunque Aµ può essere identificato con il campo elettromagnetico. I restanti campi di gauge diventano massivi e sono anche chiamati luce pesante; 5. in particolare si verifichi che i campi neutri si accoppiano alle correnti attraverso i termini ejemµ Aµ + dove sin2 θW jewµ = jµ3 − jµ0 e e = g sin θW ; g j 0 Z 0µ , cos θW µ 14 GEOMETRIA DEL MODELLO STANDARD E GUT. 274 6. si verifichi che la condizione Y = 1 per il campo di Higgs (cioè una delle componenti ha carica nulla) è necessaria a garantire la sopravvivenza di un gruppo non rotto U (1)em . Il meccanismo di Higgs dunque realizza la rottura di simmetria U (1)Y × SU (2)L −→ U (1)em . Le particelle W ± e Z 0 sono in effetti state rilevate al CERN, mentre manca tuttora evidenza dell’esistenza del bosone di Higgs, che confermi la realtà del meccanismo di Higgs. 14.2.3 L’angolo di Cabibbo e la matrice di Kobaiashi-Maskawa. Il punto è che non c’è un’unica famiglia di leptoni, ma ne sono note tre. Se alle funzioni d’onda assegnamo un indice di famiglia ψ a , a = 1, 2, 3 per le famiglie contenenti l’elettrone, il muone e il tauone, mentre l’azione per i campi fermionici sarà la somma delle azioni delle singole particelle, l’interazione tra il campo di Higgs e le famiglie potrà avvenire attraverso matrici κA,ab dove A = e, U, D. Utilizzando questo nell’azione Smassa si ottiene allora che i termini di massa potranno essere rappresentati da matrici v MA,ab = √ κA,ab , 2 che in generale non saranno diagonali. In altre parole gli autostati di gauge non coincidono con gli autostati di massa. Se le matrici di massa fossero hermitiane, le si potrebbe diagonalizzare con una rotazione unitaria. Si potrebbe cioè scrivere MA = UA† M̃A UA , con MA diagonale e UA unitaria. Tuttavia tali matrici non sono necessariamente unitarie cosicché per diagonalizzarle non basta una sola matrice UA (per ogni A), ma è necessario utilizzare una coppia di matrici unitarie XA,ab e VA,ab (definite a meno di matrici diagonali unitarie), in modo che MA = XA† M̃A VA , essendo M̃A matrici diagonali. I termini di massa per i fermioni assumono perciò la forma ¯ M̃ ψ̃ , ψ̄L,a Mab ψR,b = ψ̃ L,a ab R,b dove abbiamo omesso l’indice di famiglia per semplicità e introdotto gli autostati di massa ψ̃L = X † ψL , ψ̃R = V † ψR . 14.2.4 Esercizio. Si considerino tali trasformazioni nell’azione SD . Si dimostri che • i bosoni carichi W ± si accoppiano alle correnti cariche jµ± = ¯ A U ψ̃ B ± h.c. ψ̃ L AB L , 1 1 2i 2 ∓ 2 dove A e B assumono i possibili calori A = U e B = D oppure A = B = `, mentre UAB = XA VB† e come al solito h.c. indica l’hermitiano coniugato dell’espressione ad esso precedente; le matrici UAB si dicono matrici di mixing; 14 GEOMETRIA DEL MODELLO STANDARD E GUT. 275 • si verifichi che se i neutrini hanno massa nulla, la matrice di mixing leptonico U`` è ininfluente; si verifichi che le interazioni neutre, definite dai termini contenenti Zµ0 o il fotone, non contengono la matrice di mixing. Da questo esercizio segue che anzitutto i leptoni non risentono del mixing delle famiglie. Per quanto riguarda i quark ciò è vero solamente per le correnti neutre, che in termini degli autostati di massa si ottengono da quelle di partenza sostituendo ψ̃ a ψ. L’unica matrice di mixing influente è dunque UKM := UU D , nota come matrice di Kobaiashi-Maskawa. Nelle interazioni che coinvolgono i bosoni W ± , dette appunto interazioni cariche, i quark si mischiano comparendo nell’azione del modello standard attraverso le funzioni d’onda u c t ψ̃L ψ̃L ψ̃L , , , ψ̃Ld0 ψ̃Ls0 ψ̃Lb0 dove d ψ̃Ld0 ψ̃L ψ̃Ls0 := UKM ψ̃Ls . ψ̃Lb0 ψ̃Lb Poiché le particelle sono identificate dagli autostati di massa, sono le funzioni ψ̃ quelle che descrivono gli stati associati alle singole particelle. Dunque, mentre le interazioni neutre conservano i sapori delle famiglie, le interazioni deboli cariche cariche mischiano le famiglie. In un prima approssimazione si ha cos θc sin θc 0 UKM ∼ − sin θc cos θc 0 , 0 0 1 dove θc è detto angolo di Cabibbo. Ciò significa che ad esempio uno stato ψ u può decadere debolmente, tramite un’interazione carica, in uno stato cos θc ψ d + sin θc ψ s , dando origine a interazioni che per una frazione sin2 θc violano la stranezza. Queste violazioni furono quelle che portarono Cabibbo a introdurre il suo famoso angolo, in un momento in cui in realtà esso non aveva alcuna interpretazione ovvia, dato che ancora non vi era neppure alcuna ipotesi sull’esistenza dei quark c, b, t. 14.2.5 Nota. I valori sperimentali degli angoli di Weinberg e di Cabibbo sono sin θW ≈ 0.23120 e sin θc ≈ 0.225, tuttavia tale vicinanza dei valori è del tutto accidentale. Infine osserviamo senza ulteriori analisi che l’ambiguità di fase nelle matrici di rotazione è collegata al fenomeno della violazione di CP , cioè della rottura della simmetria di parità e coniugazione di carica. 14.2.6 La cromodinamica (cenni). Per completare il modello standard ci rimane da considerara l’interazione di gauge SU (3)C . Tale interazione di gauge viene descritta dalla connessione di colore ACµ = 12 AaCµ λa dove λa , a = 1, . . . , 8 sono le matrici di Gell-Mann 0 1 0 0 −i 0 1 0 0 λ1 = 1 0 0 , λ2 = i 0 0 , λ3 = 0 −1 0 , 0 0 0 0 0 0 0 0 0 14 GEOMETRIA DEL MODELLO STANDARD E GUT. 0 0 1 0 0 λ4 = 0 0 0 , λ 5 = 0 0 1 0 0 i 0 0 0 0 1 λ7 = 0 0 −i , λ8 = √ 3 0 i 0 −i 0 , 0 276 0 0 0 λ6 = 0 0 1 , 0 1 0 1 0 0 0 1 0 . 0 0 −2 Si noti che λ3 e λ8 generano la sottoalgebra di Cartan. Gli 8 campi AaCµ , a = 1, . . . , 8 sono i campi di gluoni e hanno sia cariche di colore che cariche elettriche frazionarie. Poiché fino ad ora tale tipo di cariche non è stato visto, i gluoni come i quark compaiono solo in stati fortemente legati ed è ragionevole ritenere che l’interazione forte debba essere responsabile del confinamento. L’azione della cromodinamica si ottiene dunque aggiungendo il termine di Yang-Mills ottenuto con i campi di forze gluonici FCµν := ∂µACν − ∂νACµ − igF [ACµ , ACν ] Z 1 crom T r[FCµν FCµν ]d4 x , SY M = − 2 e covariantizzando, rispetto alla connessione gluonica, le derivate parziali che agiscono sui quark: ∂µ ψ Q 7−→ (∂µ − igF ACµ )ψ Q . Non ci occuperemo di analizzare oltre gli aspetti della cromodinamica. 14.2.7 Esercizio. Si scriva l’azione completa per il modello standard. 14.3 La massa dei neutrini. Mentre nel modello standard si assume che la massa dei neutrini sia nulla, è piuttosto recente la conferma del fatto che in realtà tra le famiglie di neutrini ci siano delle differenze di massa. Se infatti i diversi neutrini avessero masse diverse, similmente a quanto avviene per esempio nel caso dei quark vi sarebbe la possibilità che gli autostati di massa e quelli di sapore fossero differenti. In altre parole i termini quadratici che determinano le masse dei neutrini nell’azione possono in generale avere la forma X Lmassa = ν̄i Mij νj , ij dove la matrice dei coefficienti non è diagonale e i, j assumono i valori simbolici e, µ, τ . Se gli autostati di massa, cioè gli stati che diagonalizzano la matrice M , sono differenti da quelli di sapore,cioè dal vettore (νe , νµ , ντ ), allora ci sarà una matrice analoga alla matrice di KobaiashiMaskawa che collega le due basi: νe φ11 φ12 φ13 f1 νµ = φ21 φ22 φ23 f2 , ντ φ31 φ32 φ33 f3 14 GEOMETRIA DEL MODELLO STANDARD E GUT. 277 dove abbiamo indicato con fa , a = 1, 2, 3 gli autostati di massa. Sebbene la prima evidenza della massa del neutrino fu annunciata solo i primi di giugno del 199860 alla ’XVIIIth International Conference on Neutrino Physics and Astrophysics’ tenutasi a Takayama, in Giappone, come risultato dell’esperimento ’superKamiokande’, tale possibilità fu già proposta dal fisico italiano (ma che all’epoca si era da poco trasferito definitivamente in Russia) Bruno Pontecorvo61 nel 1957. Il punto è che un neutrino, diciamo ad esempio un νµ , prodotto in una determinata regione dello spazio, si muoverà come sovrapposizione degli autostati di massa che infatti soddisferanno tre distinte equazioni di Dirac (lo si verifichi come esercizio!) e si propagheranno perciò in maniera indipendente. Un rivelatore del neutrino a grandi distanze vedrà perciò in generale una diversa sovrapposizione di stati, che al tempo t giungeranno al rivelatore con fasi differenti. Pertanto, riespresso in termini degli autostati di sapore,62 lo stato che descriverà il neutrino sarà in generale diverso da quello iniziale e apparirà come combinazione lineare degli autostati di sapore. La probabilità di rilevare il neutrino come un neutrino elettronico oppure tauonico sarà perciò diversa da zero e dipenderà dal tragitto percorso. Le oscillazioni dei neutrini implicano dunque delle differenze di massa tra i diversi tipi di neutrini, tuttavia non permettono una misura diretta delle masse, che tra l’altro risultano essere troppo piccole per essere misurate senza difficoltà, ed è stato finora possibile dare delle stime per i limiti superiori delle masse. In particolare non è detto che tutti i tipi di neutrino (noti) abbiano massa differente da zero. Il fatto che le masse dei neutrini siano molto piccole pone un problema nuovo: se il meccanismo con cui i neutrini acquistano massa fosse lo stesso che nel caso dei quark, sarebbe naturale aspettarsi per i neutrini una massa dello stesso ordine di grandezza delle masse dei quark. A questo punto è interessante notare che, se i neutrini fossero di Majorana, allora vi è una possibile meccanismo diverso di assegnare la massa ai neutrini, che ora descriveremo brevemente. 14.3.1 Il meccanismo dell’altalena (Seesaw mechanism). Nel modello standard il numero leptonico è conservato. Se i neutrini hanno massa, devono comparire dei termini quadratici nei campi dei neutrini. Tuttavia è facile vedere che termini di questo tipo che non violino il numero leptonico non possono esserci in assenza di neutrini di tipo right. Devono allora esistere dei neutrini righta, che si indicano tipicamente con NiR , che si accoppiano con i neutrini left in termini della forma mD (ν̄N R + N̄ R ν). Il coefficiente mD , che più in generale sarà una matrice, si chiama termine di massa di Dirac e come suddetto ci si aspetta che sia dell’ordine della scala di energia tipica del modello elettrodebole. Se il numero leptonico è effettivamente conservato, allora qui finisce la storia. Se però ad esempio almeno i neutrini right fossero di Majorana, allora essi violerebbero certamente il numero leptonico, dato che un neutrino, essendo reale, può trasformarsi nel proprio antineutrino (essendo coincidenti). Ciò permetterebbe di aggiungere allora termini di massa 60 ma il risultato definitivo delle misura delle oscillazioni dei neutrini è stato pubblicato su Physical Review D solamente nell’ottobre 2006! 61 fratello del regista Gillo 62 gli esperimenti che rivelano i neutrini sono basati sui processi nei quali si osservano i sapori leptonici! 14 GEOMETRIA DEL MODELLO STANDARD E GUT. 278 diagonali. Nella base ordinata (νi , NiR ) la matrice di massa può allora assumere la forma 0 mD M= . mD mM La matrice mM è la matrice di massa di Majorana. Poiché i campi right sono per il resto completamente disaccoppiati da tutti gli altri campi, non vi è alcun meccanismo (simmetrie) che prevenga gli autovalori di mM dall’essere arbitrariamente elevati, ad esempio alle scale di energia in cui si verifichi una eventuale grande unificazione (si noti che nelle teorie di grande unificazione tipicamente il numero leptonico non si conserva, si vedano i paragrafi successivi). Gli autostati di massa dei neutrini si determinano allora diagonalizzando la matrice M . Nell’approssimazione in cui mM mD indicando sempre con le stesse lettere gli ordini di grandezza degli autovalori delle matrici date, avremo che i neutrini right avranno massa mR ≈ mM , mentre i neutrini left avranno massa m2 mL ≈ D , mM che giustificherebbe le piccolissime masse dei neutrini osservati. Le masse dei neutrini right saranno invece notevolmente elevate, rendendoli pertanto non osservabili. 14.4 Teorie GUT (cenni). Il modello standard e il meccanismo di rottura spontanea suggeriscono l’idea di una possibile unificazione delle forze. Nel modello elettrodebole il gruppo U (1)em emerge dalla rottura di simmetria. La struttura in prodotti U (1)Y ×SU (2)L ×SU (3)C del gruppo del modello standard potrebbe in modo simile essere conseguenza di una rottura spontanea di simmetria da un unico gruppo G che per mezzo di un meccanismo analogo a quello di Higgs porta alla rottura G −→ U (1)Y × SU (2)L × SU (3)C −→ U (1)em × SU (3)C . Il gruppo G si chiama allora il gruppo di grande unificazione e la teoria relativa è detta GUT (Grand Unification Theory). Ciò che alletta nella ricerca di una teoria GUT non è solamente l’idea di unificare le forze, ma la spiegazione della quantizzazione della carica. Nel modello standard infatti la carica Q = τ3 + Y2 non è automaticamente quantizzata. Ciò avviene per il fatto che a differenza di τ3 che assume solo valori discreti, Y essendo associato a un gruppo U (1) non semplice, può assumere qualunque valore e i valori discreti gli vengono imposti in seguito alle osservazioni sperimentali. Se invece U (1)Y , come avviene per il sottogruppo U (1) generato da τ3 , fosse un sottogruppo di un gruppo compatto e semplice, allora sarebbe anch’egli quantizzato in modo naturale, e ciò potrebbe fornire una giustificazione teorica della quantizzazione della carica. 14.4.1 Il modello SU (5). Il più semplice modello di GUT è quello con gruppo G = SU (5), benché non sia storicamente il primo. Anzitutto SU (5) contiene il gruppo SU (2) × SU (3) come matrici diagonali a blocchi. Sappiamo anche dalla teoria che SU (5) ammette quattro rappresentazioni fondamentali, due di dimensione 5 e due di dimensione 10. In fisica è usuale chiamare 14 GEOMETRIA DEL MODELLO STANDARD E GUT. 279 fondamentale solamente la rappresentazione di dimensione 5 associata al peso massimale L1 . Essa viene indicata con 5. La sua coniugata, associata al peso massimale L1 +L2 +L3 +L4 , viene indicata con 5∗ . La rappresentazione di dimensione 10 associata al peso L1 + L2 e che si ottiene dal prodotto esterno 5 ∧ 5 viene indicata con 10 e la sua coniugata con 10∗ . In particolare la 10 viene realizzata sullo spazio delle matrici antisimmetriche. Tipicamente si fissa una base per l’algebra di SU (5) data da matrici {− 2i µi }15 i=1 , dove µi sono matrici hermitiane a traccia nulla, normalizzate con la regola T rµi µj = 2δij (che ovviamente non identifica univocamente la base). Esse possono essere costruite ad esempio sulla falsa riga delle matrici di Gell-Mann. Per fissare le idee scegliamo la base λi 0 µi = , per i = 1, . . . , 8 0 0 0 0 µi = , per i = 9, . . . , 11 0 σi−8 1 µ12 = √ diag{2, 2, 2, −3, −3} , 15 dove λi e σj sono ovviamente le matrici di Gell-Mann e di Pauli mentre le restanti 12 matrici hanno elementi di matrice non nulli {µ13 }1,4 {µ16 }2,4 {µ19 }1,5 {µ22 }2,5 = {µ13 }4,1 = 1 , = −{µ16 }4,2 = −i = {µ19 }5,1 = 1 , = −{µ22 }5,2 = −i {µ14 }1,4 = −{µ14 }4,1 = −i , {µ17 }3,4 = {µ17 }4,3 = 1 {µ20 }1,5 = −{µ20 }5,1 = −i , {µ23 }3,5 = {µ23 }5,3 = 1 , , , , {µ15 }2,4 {µ18 }3,4 {µ21 }2,5 {µ24 }3,5 = {µ15 }4,2 = 1 , = −{µ18 }4,3 = −i , = {µ21 }5,2 = 1 , = −{µ24 }5,3 = −i . Tra le quattro matrici diagonali, oltre alle due di SU (3) e a quella di SU (2), compare µ12 . Essa commuta con le prime 11 matrici, ovvero con SU (2) × SU (3) e può perciò essere identificata, a meno di un fattore costante, con l’operatore Y . 14.4.2 Le particelle in SU (5). Ricordando che ci sono 30 stati in una famiglia del modello standard (includendo le antiparticelle), 15 potranno comparire nelle 5 e 10, e 15 nelle coniugate. Per poter inserire le particelle in SU (5), occorre analizzare come si comportano rispetto al sottogruppo SU (2) × SU (3) di SU (5), la qual cosa ci viene rivelata dal modello standard. Come usuale indicheremo con una coppia di numeri tale comportamento, dove il primo numero si riferisce alla sottorappresentazione SU (2) e il secondo alla sottorappresentazione SU (3). Ad esempio scriveremo per i quark up e down (uαL , dαL ) ∈ (2, 3) , per intendere che essi trasformano come un doppietto per SU (2) e nella fondamentale 3 per quanto riguarda l’indice di colore α. In pratica (a, b) è una notazione per individuare la rappresentazione prodotto tensore [a] ⊗ [b] dove con [a] indichiamo una rappresentazione di SU (2) di dimensione a e con [b] una rappresentazione di SU (3) di dimensione b. Perciò la dimensione di (a, b) è ab. I restanti 9 stati di particella sono − uαR ∈ (1, 3) , dαR ∈ (1, 3) , (νeL , e− L ) ∈ (2, 1) , eR ∈ (1, 1) , 14 GEOMETRIA DEL MODELLO STANDARD E GUT. 280 ed ovviamente le antiparticelle. Naturalmente abbiamo (1, 3) + (2, 1) = 5 , (1, 3∗ ) + (2∗ , 1) = 5∗ . Per quanto riguarda la 10 osserviamo che 10 = 5 ∧ 5 = ((1, 3) + (2, 1)) ∧ ((1, 3) + (2, 1)) = (1, 1) + (2, 3) + (1, 3∗ ) . Una realizzazione esplicita di tale struttura la si ottiene (si veda [CL] capitolo 14) identificando gli stati della 5 con ψR = (d1R , d2R , d3R , e+ R , −ν̄eR ) , dove il numero è l’indice di colore, e quelli della 10 con 0 ū3L −ū2L u1L −ū3L 0 ū1L u2L 1 ū2L ū1L 0 u3L ψij = −ψji = √ 2 3 2 1 −uL −uL −uL 0 1 2 3 −dL −dL −dL −e+ L d1L d2L d3L e+ L 0 , dove si è usata la barra per indicare l’antiparticella, tranne che per il positrone. Come prima il numero rappresenta l’indice di colore. La carica delle particelle è allora Q = τ3 + Y2 dove r 1 5 µ12 . τ3 = µ11 , Y = − 2 3 14.4.3 I campi di gauge. In modo simile si ottiene l’analisi dei campi di gauge. La rappresentazione aggiunta di SU (5) ha dimensione 24 e si ottiene dalla decomposizione 5 ⊗ 5∗ = 24 ⊕ 1 , da cui si ottiene immediatamente 24 = (1, 8) + (3, 1) + (1, 1) + (2, 3) + (2, 3∗ ) . La (1, 8) è l’aggiunta di SU (3) e corrisponde ai gluoni. La (2, 1) è l’aggiunta di SU (2) e individua i bosoni vettori della teoria debole. (1, 1) è il campo di gauge U (1)Y dell’ipercarica. I rimanenti sono invece dei bosoni non contenuti nel modello standard, detti campi X e Y . Naturalmente ci si aspetta che il gruppo di unificazione sia spontaneamente rotto e che il meccanismo di rottura doti i campi X e Y di una massa estremamente elevata, ben superiore a quelle dei bosoni pesanti W ± e Z 0 . Il problema del perché le rotture di simmetria SU (5) −→ U (1)Y × SU (2)L × SU (3)C e U (1)Y × SU (2)L −→ U (1)em 14 GEOMETRIA DEL MODELLO STANDARD E GUT. 281 debbano avvenire a scale di energia molto differenti viene indicato come il problema della gerarchia. I campi X e Y , sono responsabili delle interazioni miste tra quark e leptoni (gli stati detti di lepto-quark) o tra quark e antiquark (i diquark). Di conseguenza essi sono responsabili di fenomeni che violano il numero barionico, quali il decadimento del protone in stati leptonici. L’osservata stabilità del protone (se decade deve farlo con una vita media di almeno 1035 anni) pone forti costrizioni alla teoria GUT. Non considereremo qui ulteriori dettagli (si veda [CL] capitolo 14). 14.4.4 Il modello SO(10). Storicamente il primo modello di teoria GUT fu realizzato con il gruppo di gauge SO(10). Il punto era che SO(10) ammette una rappresentazione spinoriale chirale Spin(10)+ di dimensione 16, che poteva quindi accomodare i 15 stati del modello standard, mentre gli altri 15 venivano inseriti nella rappresentazione Spin(10)− . Lo stato in più era attribuito al neutrino right e veniva abilmente fatto scomparire nella costruzione del modello. Per vedere come si possa costruire un modello GUT con gruppo SO(10), procediamo invece all’inverso osservando anzitutto che SU (5) può essere visto come sottogruppo di SO(10). Se scriviamo la generica matrice M dell’algebra so(10) in blocchi 5×5 (che indicheremo con lettere greche), allora si ha α β A= −β γ dove α, β, γ ∈ M (5, R) e α e γ sono antisimmetriche. Tali blocchi corrispondono alla decomposizione R10 = R5 ⊕ R5 = {(x, y) ∈ R5 × R5 } . La sottoalgebra delle matrici di so(10) per le quali γ = α mentre β è simmetrica a traccia nulla, si identificano con su(5) tramite la mappa A 7→ A − iB agenti su C5 generato dai vettori z = x + iy. Si può perciò passare attraverso su(5) per individuare i campi del modello standard in so(10). Si ricordi che i pesi di spin(10)+ sono 1 = (±L1 ± L2 ± L3 ± L4 ± L5 ) 2 per tutte le possibili combinazioni di segni che abbiano numero pari di segni −. Si osservi anche che le radici positive di so(10) sono Li ± Lj , 1≤i<j≤5, dunque 20, mentre quelle di su(5) sono Li − Lj , 1≤i<j≤5. Le sottorappresentazioni di su(5) in so(10) si ottengono quindi guardando come le radici di su(5) agiscono sui vettori peso di spin(10)+ . Addizionando e sottraendo le radici di su(5) ai pesi di spin(10)+ si vede che devono agire sui vettori peso conservando il numero di segni −. Si hanno perciò tre sottospazi invarianti per su(5): 14 GEOMETRIA DEL MODELLO STANDARD E GUT. 282 • un sottospazio unidimensionale corrispondente al peso massimo 12 (L1 +L2 +L3 +L4 +L5 ) ≡ 0, dato che per su(5) si ha L1 + L2 + L3 + L4 + L5 ≡ 0; • un sottospazio 5−dimensionale corrispondente ai 5 pesi con 4 segni −. Il peso massimo rispetto a su(5) è 21 (L1 − L2 − L3 − L4 − L5 ) ≡ L1 ; • un sottospazio 10−dimensionale corrispondente ai 10 pesi con 2 segni meno. In questo caso il peso massimo è evidentemente 12 (L1 + L2 + L3 − L4 − L5 ) ≡ L1 + L2 + L3 . Quindi possiamo dire che spin(10)+ si decompone in 1 + 5 + 10∗ secondo le rappresentazioni di SU (5). Questo metodo può essere ulteriormente applicato a SU (5) per decomporlo secondo SU (2) × SU (3) (in alternativa al metodo adottato nella sezione 14.4.2). Poiché una volta individuata la decomposizione, la costruzione delle funzioni d’onda è la stessa come in 14.4.2 (con l’accortezza di aggiungere il neutrino right nel singoletto), non consideriamo qui ulteriori dettagli. Si veda eventualmente [CL2], capitolo 14. 14.4.5 Esercizio. Si costruisca l’analoga decomposizione della rappresentazione aggiunta 45 di SO(10) rispetto a SU (5). RIFERIMENTI BIBLIOGRAFICI 283 Riferimenti bibliografici [A] M. Artin, Algebra, Bollati Boringhieri 1997. [CDF] L. Castellani, R. D’Auria, P. Fré, Supergravity and Superstrings, Vol. 1, parte I, World Scientific 1991. [CL] T.-P. Cheng, L.-F. Li, Gauge theory of elementary particle physics, Oxford University Press, 2004. [CL2] T.-P. Cheng, L.-F. Li, Gauge theory of elementary particle physics: Problems and solutions, Oxford University Press, 2000. [dC] M.P. do Carmo, Riemannian geometry, Birkhäuser Boston, 1992. [D] R.W.R. Darling, Differential forms and connections, Cambridge University Press, 1994. [DNF1] B.A. Dubrovin, S.P. Novikov, A.T. Fomenko, Geometria delle superfici, dei gruppi di trasformazioni e dei campi, Editori Riuniti 1987. [DNF2] B.A. Dubrovin, S.P. Novikov, A.T. Fomenko, Geometria e topologia delle varietà, Editori Riuniti 1988. [FH] W. Fulton, J. Harris, Representation Theory, GTM 129, Springer 1991. [Ha] B.C. Hall, Lie groups, Lie algebras, and representations, GTM 222, Springer 2003. [Hu] J.E. Humphreys, Introduction to Lie algebras and representation theory, GTM 9, Springer 1978. [KN] S. Kobayashi, K. Nomizu, Foundations of differential geometry, Vol. I. Wiley Classics Library. A Wiley-Interscience Publication. John Wiley & Sons, Inc., 1996 [Lie] Sito: http://www-math.univ-poitiers.fr/ maavl/ [MB] S. Mac Lane, G. Birkhoff, Algebra, Mursia. [N1] G.L. Naber, Topology, geometry, and gauge fields, Foundations, TAM 25, Springer 1997. [N2] G.L. Naber, Topology, geometry, and gauge fields. Interactions, AMS 141. Springer 2000. [S] J-P. Serre, Linear representations of finite groups, GTM 42, Springer 1977. [T] W. Thirring, Classical mathematical physics. Dynamical systems and field theories, Springer 1997. [We] S. Weinberg, The Quantum Theory of Fields, Vol. 1, Cambridge University Press. [Wa] F.W. Warner, Foundations of differentiable manifolds and Lie groups, GTM 94, Springer 1983. Indice analitico Adroni, 265 Aggiunta, Ad, 84 aggiunta, ad, 86 Algebra di Clifford ed elettrone, 251 di Poincaré, 244 Algebra di Lie, 87 Algebra di Lie semplice, 94 Angolo di Cabibbo, 275 Angolo di Weinberg, 273 Antiparticella, 261 Applicazione liscia, 59 Atlante, 58 Azione per l’equazione di Dirac, 255 Barioni, 266 Bellezza, 266 Bosone di Higgs, 269 Calibrazione, 230 Camera di Weyl, 148 Camera di Weyl di sl(3), 112 Cammino, 64 Campbell-Baker-Hausdorff, 89 Campi di gauge costruzione euristica, 230 Campi di materia, 227 calibrabili o gauge covarianti, 230 Campo orizzontale, 214 vettoriale fondamentale, 202 verticale, 202 Campo di gauge, 230, 232 Campo hamiltoniano, 78 Campo scalare, 249 carico, 250 con potenziale, 250 libero, 249 Campo spinoriale, 251 Campo vettoriale di Spin 1, 262 Carattere, 30 Carta locale, 58 Chiralità, 253 e parità, 256 Ciclo, 37 Classe di coniugio, 37 Colori, 268 Complessificazione di SO(1, 3), 261 Confinamento, 268 Connessione, 198 G-connessione, 203 di Koszul, 205 di Levi-Civita, 215 e vielbein, 218 in coordinate locali, 220 di Spin, 263 e cambiamento di carta locale, 219 e campi di gauge, 233 metrica, 215 su spazi affini, 198 su un fibrato differenziale, 201 Connessione infinitesima G-connessione infinitesima, 204 e derivata covariante, 208 su un fibrato principale, 203 su un fibrato vettoriale, 202 sul fibrato duale, 203 sul fibrato prodotto, 203 coordinate normali, 220 Costante cosmologica, 242 Cromodinamica, 275 Curvatura, 211 e campo di forze, 234 forma di, 211 rispetto a un sistema di coordinate, 220 rispetto a un vielbein, 218 284 INDICE ANALITICO scalare, 216 sezionale, 217 tensore di, 212 Decadimento del protone, 281 Decomposizione di Jordan, 96 Derivata covariante, 205 sul prodotto di fibrati, 208 direzionale, 207 e connessione infinitesima, 210 e trasporto parallelo, 209 sul fibrato duale, 209 Derivata di Lie, 81 Derivata esterna, 69 Derivazione, 63 Diagramma di Dynkin, 140 Diagramma di Young, 41 Diffeomorfismo, 58 Differenziale di un’applicazione liscia, 64 Differenziale di una funzione liscia, 65 Diquark, 281 Distribuzione, 201 differenziale, 201 involutiva, 201 Doppietto isotopico, 265 Dualità, 230 Elettrone, 253 Elicità, 248 Equazione di Dirac, 253 di Klein-Gordon, 249 di Maurer-Cartan, 195 di struttura, 212 I, 214 II, 212 Equazione di Newton, 74 Equazioni di Einstein, 240 Equazioni di Hamilton, 78 Esponenziale, 89 Estensione centrale, 246 Famiglie leptoniche, 265 Fibrato, 186 285 associato, 191 banale, 187 dei riferimenti, 190 differenziale, 192 duale, 189 principale, 190 prodotto, 189 spinoriale, 263 sulla sfera, 193 vettoriale, 186 Fibrato tangente, 65 Flusso di un campo vettoriale, 79 Forma di Cartan, 194 di curvatura, 211 di torsione, 214 orizzontale canonica, 214 tensoriale, 209 Forma canonica (sul fibrato cotangente), 73 Forma di Killing, 194 per gruppi semisemplici, 195 Forma differenziale, 69 Forma quadratica, 157 Formula di Cartan, 81 Forze di marea, 240 Funzione hamiltoniana, 78 Funzione liscia, 59 Funzioni equivarianti, 209 Geometria dei gruppi di Lie, 194 Germe, 63 Groupring, 36 Gruppo di Lorentz proprio ed ortocrono, 249 di Spin Spin(1, 3), 258 Gruppo di Lie, 83 Gruppo di simmetria, 228 Gruppo di Weyl di sl(3), 107 Gruppo ortogonale, 62, 158 Gruppo speciale, 61 INDICE ANALITICO GUT, 278 modello SO(10), 281 modello SU (5), 278 Hooklength, 43 Ideale, 90 Idempotente, 31 Identità di Bianchi, 212 I, 215 II, 212 Identità di Jacobi, 68 Incanto, 266 Interazioni di gauge, 235 Invarianti di gauge, 230 Ipercarica, 269 Legge di Sylvester, 157 Lemma di Schur, 29 Lepto-quark, 281 Leptoni, 265 Luce pesante, 269 W ± , Z 0 , 273 Mappa regolare, 139 Massa dei neutrini, 276 Matrice di Kobaiashi-Maskawa, 275 Matrice jacobiana, 58 Matrici Γ, 256 di Dirac, 254, 256 di Gell-Mann, 275 di Pauli, 254, 256 Meccanica Hamiltoniana, 77 Meccanismo di Higgs, 272 Mesoni, 266 Misura invariante, 197 per SU (2), 198 Modello elettrodebole, 270 standard, 270 Neutrino, 253 Nondegenere, 157 286 O(1,1), 160 Omomorfismo di gruppi di Lie, 83 Operatore coniugazione di carica, 260 di Dirac, 252 Oscillazioni dei neutrini, 277 Parentesi di Lie, 68 Partizione, 37 Peso dominante, 149 Peso massimale, 149 Piccolo gruppo, 245 Positrone, 261 Precessione di Thomas, 224 Principio di equivalenza, 237 debole, 238 forte, 238 Principio di relatività generale, 239 Problema della gerarchia, 281 Proiettore, 31 Pull-back (di forme differenziali), 70 Pullback, 79 Pushforward, 80 Quark beauty, 266 charm, 266 down, 266 strange, 266 top, 266 up, 266 Radice semplice, 139 Radici positive, 139 Rango di un fibrato, 186 Rango di una mappa liscia, 60 Rappresentazione di Dirac, 254 di Spin di SO(1, 3), 256 intrinsecamente proiettiva, 246 proiettiva, 246 Rappresentazione di un algebra di Lie, 87 Rappresentazione di un gruppo di Lie, 84 INDICE ANALITICO Rappresentazione fondamentale, 152 Rappresentazione regolare, 34 Relazione di cociclo per rappresentazioni proiettive, 246 Reticolo dei pesi, 146 Reticolo delle radici, 147 Ricoprimento universale, 248 Scalare di curvatura, 216 Seesaw mechanism, 277 Sezione di un fibrato, 188 e funzioni equivarianti, 209 globale, 188 locale, 188 Simboli di Christoffel, 207, 219 Simmetrie esterne, 227 interne, 227 Simmetrie di gauge, 230 Simmetrie interne e relatività, 237 Simmetrizzatore di Young, 42 Sistema delle radici di sl(3), 107 Sistema di radici duali, 143 Sistema di riferimento ruotante, 221 Sommersioni, 60 Sottogruppo di Lie, 83 Sottogruppo di Lie immerso, 83 Sottospazio orizzontale, 201 Sottovarietà, 60 Spazio cotangente, 65 Spazio degli invarianti, 31 Spazio tangente, 63 Spinori di Majorana, 259 Stranezza, 266 Struttura Riemanniana, 215 Struttura simplettica, 78 Strutture geometriche, 186 Riemanniane, 213, 215 Tensore 287 di curvatura, 212 simmetrie, 216 di Einstein, 216 di Ricci, 216 di Riemann, 216 di torsione, 214 Teorema di Frobenius, 211 Teorie di grande unificazione, 278 Teorie di Yang-Mills, 234 Torsione forma di, 214 rispetto a un sistema di coordinate, 219 rispetto a un vielbein, 218 tensore di, 214 Trasformazione di gauge della connessione, 233 della curvatura, 234 Trasformazioni, 228 di gauge, 230 esterne, 228 interne, 228 Trasformazioni di simmetria, 228 Trasporto parallelo, 198, 201 su spazi affini, 198 sulla sfera S 2 , 199 Varietà differenziabile, 59 Vettore tangente, 63 Vielbein, 218 e connessione di Levi-Civita, 218 e curvatura, 218 e tensore di torsione, 218