Note Metodi geometrici per la fisica matematica

Note
Metodi geometrici per la fisica matematica
Anno Accademico 2008-2009
S. Cacciatori
B. van Geemen
versione 07.0
1
INDICE
2
Indice
1 Algebra multilineare
5
1.1 Tensori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Tensori in fisica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3 L’algebra esterna. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2 Rappresentazioni di gruppi finiti
2.1 Teoria generale . . . . . . . . . .
2.2 Caratteri . . . . . . . . . . . . . .
2.3 Le classi di coniugio di Sm . . . .
2.4 Le rappresentazioni irriducibili del
.
.
.
.
28
28
30
36
39
3 Tensori e gruppo simmetrico
3.1 Introduzione e risultati generali . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 I funtori di Schur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3 Esempi: T 3 V e T 4 V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
45
45
48
53
4 Geometria differenziale
4.1 Richiami di analisi. . . . . . . . . .
4.2 Varietà differenziabili . . . . . . . .
4.3 Spazi e fibrati tangenti . . . . . . .
4.4 Forme differenziali. . . . . . . . . .
4.5 Geometria differenziale e meccanica
.
.
.
.
.
58
58
58
63
69
74
.
.
.
.
.
.
.
.
.
.
.
.
83
83
86
91
94
97
100
.
.
.
.
.
.
103
. 103
. 109
. 112
. 115
. 117
. 127
5 Gruppi e algebre di Lie
5.1 Gruppi di Lie . . . . . . . . .
5.2 Algebre di Lie . . . . . . . . .
5.3 Rappresentazioni. . . . . . . .
5.4 Algebre di Lie semplici . . . .
5.5 Le rappresentazioni irriducibili
5.6 Rappresentazioni di sl(2). . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
gruppo simmetrico
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
dell’algebra di Lie sl(2)
. . . . . . . . . . . . . .
6 Le rappresentazioni dell’algebra di Lie sl(3)
6.1 L’algebra di Lie sl(3). . . . . . . . . . . . . . . . . .
6.2 Pesi: integralità e simmetria . . . . . . . . . . . . . .
6.3 Il peso massimale di una rappresentazione irriducibile
6.4 Le rappresentazioni irriducibili di sl(3) . . . . . . . .
6.5 Le rappresentazioni irriducibili di sl(3) . . . . . . . .
6.6 La forma di Killing per sl(3). . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7 La classificazione delle algebre di Lie semisemplici
130
7.1 L’algebra di Cartan e i pesi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
7.2 Sistemi di radici e diagrammi di Dynkin . . . . . . . . . . . . . . . . . . . . . . 138
INDICE
7.3
7.4
3
Diagrammi di Dynkin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
Algebre di Lie semplici reali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
8 Rappresentazioni di algebre di Lie semplici
146
8.1 Pesi: integralità e simmetria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
8.2 Il peso massimale di una rappresentazione irriducibile . . . . . . . . . . . . . . . 148
8.3 Le rappresentazioni irriducibili di sl(n) . . . . . . . . . . . . . . . . . . . . . . . 153
9 Gruppi ortogonali
9.1 Forme bilineari simmetriche e forme
9.2 Esempi di gruppi ortogonali . . . .
9.3 Quaternioni. . . . . . . . . . . . . .
9.4 Il gruppo ortogonale SO(2m) . . .
9.5 Il gruppo ortogonale SO(2m + 1)
quadratiche
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
157
157
159
163
165
169
10 Rappresentazioni di Spin
172
10.1 L’algebra di Clifford . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
10.2 L’algebra di Clifford e il gruppo spinoriale. . . . . . . . . . . . . . . . . . . . . . 175
10.3 Le rappresentazioni spinoriali di so(n). . . . . . . . . . . . . . . . . . . . . . . . 180
11 Strutture geometriche
11.1 Fibrati . . . . . . . . . . . . . . .
11.2 Geometria e gruppi di Lie . . . .
11.3 Connessioni . . . . . . . . . . . .
11.4 Derivate covarianti (connessioni di
11.5 Curvature . . . . . . . . . . . . .
11.6 Strutture Riemanniane . . . . . .
. . . . .
. . . . .
. . . . .
Koszul)
. . . . .
. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
186
. 186
. 194
. 198
. 205
. 211
. 213
12 Teoria dinamica delle simmetrie.
12.1 Campi di materia. . . . . . . . .
12.2 Campi di gauge. . . . . . . . . .
12.3 Teorie di Yang-Mills. . . . . . .
12.4 Simmetrie esterne e relatività. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
227
227
230
234
237
13 Campi scalari e spinoriali.
13.1 Le particelle e il gruppo di Poincaré.
13.2 Equazione di Klein-Gordon. . . . . .
13.3 Equazione di Dirac. . . . . . . . . . .
13.4 Il gruppo SO(1, 3) . . . . . . . . . .
13.5 Campi di spin 1. . . . . . . . . . . .
13.6 Campi e gravità (cenni). . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
244
244
249
251
256
262
262
.
.
.
.
INDICE
14 Geometria del Modello Standard e GUT.
14.1 I campi del modello standard. . . . . . . . . . . . . . . .
14.2 Costruzione del Modello Standard. . . . . . . . . . . . .
14.3 La massa dei neutrini. . . . . . . . . . . . . . . . . . . .
14.3.1 Il meccanismo dell’altalena (Seesaw mechanism). .
14.4 Teorie GUT (cenni). . . . . . . . . . . . . . . . . . . . .
4
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
265
. 265
. 270
. 276
. 277
. 278
1 ALGEBRA MULTILINEARE
1
5
Algebra multilineare
Testi consigliati: [A], [MB].
1.1
Tensori
1.1.1 Lo spazio duale. Sia V uno spazio vettoriale reale di dimensione n. Scelta una
base e1 , . . . , en di V ogni x ∈ V si scrive in modo unico come combinazione lineare x =
x1 e1 + . . . + xn en con xi ∈ R. In questo modo si ottiene un isomorfismo


x1
∼


=
V −→ Rn ,
x = (x1 , x2 , . . . , xn ) =  ...  .
xn
Lo spazio duale V ∗ di V è lo spazio vettoriale reale delle applicazioni R-lineari da V a R:
V ∗ := HomR (V, R) = {l : V → R, l R-lineare}.
Si ricordi che per l, m ∈ V ∗ e λ, µ ∈ R l’elemento λl + µm dello spazio vettoriale V ∗ è definito
da:
(λl + µm)(x) := λl(x) + µm(x)
(x ∈ V ).
Poiché è lineare, l è determinata dalle l(ei ) ∈ R:


x1


l(x) = l(x1 e1 + . . . + xn en ) = x1 l(e1 ) + . . . + xn l(en ) = (l(e1 ) ; l(e2 ) ; . . . ; l(en ))  ...  .
xn
Data la base ei , l si identifica con un’applicazione lineare Rn → R che è data da una matrice,
ancora indicata con l, con una sola riga e n colonne i cui coefficienti sono le immagini dei vettori
di base: l = (a1 ; a2 ; . . . ; an ) con ai := l(ei ).
1.1.2 La base duale. Data la base ei di V , si ottiene in modo canonico una base 1 , . . . , n
di V ∗ , detta la base duale, che è definita da:
X
j : V −→ R,
j (
xi e i ) = xj
cioè j (ei ) = δij dove δ è la δ di Kronecker: δij = 0 se i 6= j e δij = 1 se i = j. Si noti che
1 = (1 0 . . . 0),. . .,n = (0 0 . . . 1).
1.1.3 L’applicazione duale. Dati gli spazi vettoriali V, W , di dimensione n e r rispettivamente, abbiamo definito i loro spazi duali V ∗ , W ∗ . Adesso consideriamo un’applicazione lineare
f : V → W . Essa induce un’applicazione lineare
f ∗ : W ∗ −→ V ∗ ,
m 7−→ m ◦ f,
1 ALGEBRA MULTILINEARE
6
cioè, se m : W → R è lineare, definiamo f ∗ m ∈ V ∗ con (f ∗ m)(v) := m(f (v)). L’ applicazione
f ∗ è detta applicazione duale di f oppure applicazione aggiunta.
Sia A la matrice di f : V → W e M = (m1 . . . mr ) la matrice di m : W ∼
= Rr → R rispetto
alle basi ei , fj di V e W rispettivamente. Siccome m(f (x)) = M Ax, troviamo che la matrice
di f ∗ (m) è M A.
P
∗
La base duale ηj di W dà un isomorfismo W ∗ ∼
= Rr , e l’elemento m =
j mj ηj ∈ W
corrisponde al vettore (m1 , . . . , mr ) che è t M , una matrice con r righe e una sola colonna. Se
usiamo la base duale delle ei come base di V ∗ , la matrice di f ∗ è allora t A perché t (M A) = t At M .
Quindi se f : V → W è dato da una matrice A, allora, rispetto alle base duale f ∗ : W ∗ → V ∗
è dato dalla matrice t A.
1.1.4 Motivazione. Per motivare il prodotto tensoriale tra due spazi vettoriali, consideriamo
lo spazio delle applicazioni lineari V → W dove anche W è uno spazio vettoriale su R di
dimensione finita, dim W = m. Data una base f1 , . . . , fm di W e una f ∈ HomR (V, W ) sia
f (ej ) =
m
X
aij fi
(f ∈ HomR (V, W ))
i=1
cioè la matrice (aij ) è la matrice determinata da f . Sfruttando il fatto che j (x) = xj si ha:
X
X
X
X
f (x) = f (
xj ej ) =
xj f (ej ) =
j (x)f (ej ) =
aij j (x)fi .
j
j
j
i,j
Perciò f è una combinazione lineare delle applicazioni lineari x 7→ j (x)fi . Questo si vede anche
facilmente utilizzando il prodotto matriciale, per esempio:
a11 a12
1
1
0
0
= a11
(1 0) + a12
(0 1) + a21
(1 0) + a22
(0 1).
a21 a22
0
0
1
1
(Si noti che il vettore ei ∈ V è identificato con l’applicazione lineare R → V che manda λ in
λei .) Quindi, in un certo senso, Hom(V, W ) è un ‘prodotto’ degli spazi vettoriali V ∗ e W ; ogni
elemento f ∈ Hom(V, W ) è una combinazione lineare di ‘prodotti’ di elementi di V ∗ e di W . Si
veda 1.1.9 per definizioni precise.
1.1.5 Il prodotto tensoriale. Dati gli spazi vettoriali reali V, W di dimensione rispettivamente n e m, definiamo uno spazio vettoriale reale V ⊗ W di dimensione nm, il prodotto
tensoriale di V e W . Gli elementi di V ⊗ W sono combinazioni R-lineari di ‘tensori puri’ v ⊗ w
con v ∈ V, w ∈ W . Vogliamo che siano valide le ‘solite’ regole per un prodotto:
(v1 + v2 ) ⊗ w = v1 ⊗ w + v2 ⊗ w,
v ⊗ (w1 + w2 ) = v ⊗ w1 + v ⊗ w2 ,
a(v ⊗ w) = (av) ⊗ w = v ⊗ (aw).
Per ottenere lo spazio vettoriale ‘più grande possibile’ nel quale valgono queste regole,
consideriamo lo spazio vettoriale F (V, W ) che ha come base tutte le coppie (v, w) con v ∈
1 ALGEBRA MULTILINEARE
7
V, w ∈ W . In particolare, se V o W non è lo spazio {0}, F (V,P
W ) ha dimensione infinita!
<∞
Un elemento f ∈ F (V, W ) si scrive, in modo unico, come f =
ri (vi , wi ) dove ri ∈ R
i
e (vi , wi ) ∈ V × W sono coppie distinte. In F (V, W ) consideriamo il sottospazio vettoriale
R(V, W ) generato dai seguenti elementi di F (V, W ):
(v1 + v2 , w) − (v1 , w) − (v2 , w),
(v, w1 + w2 ) − (v, w1 ) − (v, w2 ),
a(v, w) − (av, w),
a(v, w) − (v, aw),
dove v1 , v2 ∈ V , w1 , w2 ∈ W ed a ∈ R.
Definiamo il prodotto tensoriale di V e W , denotato con V ⊗ W , come lo spazio quoziente:
V ⊗ W := F (V, W )/R(V, W ),
con v ⊗ w := (v, w) = (v, w) + R(V, W ),
cioè, ogni elemento t ∈ V ⊗ W è una classe laterale: t = f + R(V, W ) per un certo f ∈ F (V, W ),
che di solito indicheremo con t = f , e v ⊗ w è la classe laterale definita da (v, w) ∈ F (V, W ).
Si ricordi che f¯ = ḡ se e solo se f − g ∈ R(V, W ). Le operazioni in un spazio quoziente sono
f + g = f + g e λ · f = λf . Siccome f = 0 per ogni f ∈ R(V, W ), otteniamo per esempio:
0 = (v1 + v2 , w) − (v1 , w) − (v2 , w)
= (v1 + v2 , w) − (v1 , w) − (v2 , w)
= (v1 + v2 ) ⊗ w − (v1 ⊗ w) − (v2 ⊗ w),
quindi, se scriviamo 0 = 0 ∈ V ⊗ W , vediamo che vale la prima regola. Nello stesso modo si
verificano le altre regole. Poiché abbiamo imposto su F (V, W ) soltanto le relazioni di R(V, W ),
V ⊗ W è lo spazio più grande nel quale queste valgono.
1.1.6 Una
tensoriale. Siano ei e fj basi di V e W rispettivamente.
P base del prodotto
P
Dato v = i vi ei ∈ V e w = j wj fj ∈ W abbiamo, usando le regole qui sopra:
P
v ⊗ w = ( i vi ei ) ⊗ w
P
=
i (vi ei ) ⊗ w
P
P
=
i vi (ei ⊗ (
j wj fj ))
= ...
P
=
i,j vi wj (ei ⊗ fj ).
Ogni elemento di F (v, w) è una combinazione lineare delle coppie (v, w), quindi ogni elemento
di V ⊗ W = F (V, W )/R(V, W ) è una combinazione delle v ⊗ w. Come appena mostrato,
ogni v ⊗ w è combinazione lineare degli ea ⊗ fb con a = 1, . . . , n e b = 1, . . . , m. Quindi
ogni elemento di V ⊗ W è combinazione lineare degli nm elementi ea ⊗ fb , in particolare
1 ALGEBRA MULTILINEARE
8
dim V ⊗ W ≤ nm = (dim V )(dim W ). Per mostrare che si ha l’ uguaglianza, sfruttiamo
l’applicazione lineare
φa,b : F (V, W ) −→ R,
(v, w) 7−→ va wb
(si ricordi che i (v, w) sono una base di F (V, W )). Si verifica che φa,b (R(V, W )) = 0, quindi
φa,b dà un’applicazione ben definita φ̄a,b : V ⊗ W → R. L’immagine di ei ⊗ fj è zero tranne se
i = a, j = b e perciò gli ei ⊗fj sono indipendenti e sono quindi una base di V ⊗W . Concludiamo
che
dim V ⊗ W = (dim V )(dim W ),
V ⊗ W = ⊕i,j Rei ⊗ fj .
1.1.7 Applicazioni bilineari e prodotto tensoriale. Il prodotto tensoriale di due spazi
vettoriali è definito come un quoziente. Perciò per definire un’applicazione lineare f : V ⊗ W →
U , dove U è uno spazio vettoriale, bisogna sempre verificare che sia ben definita, cioè, bisogna
prima definire un’applicazione f˜ : F (V, W ) → U che soddisfi le condizioni f˜(R(V, W )) = 0 e
f˜((v, w)) = f (v ⊗ w), come abbiamo fatto per la applicazione f = φ̄a,b con f˜ = φa,b in 1.1.6.
Adesso daremo un criterio più facile che garantisce che f sia ben definita e, in più, otterremo
una descrizione di tutte le applicazioni lineari V ⊗ W → U .
Un’applicazione
φ(λv1 + µv2 , w) = λφ(v1 , w) + µφ(v2 , w),
φ : V × W −→ U,
tale che
φ(v, λw1 + µw2 ) = λφ(v, w1 ) + µφ(v, w2 )
per ogni λ, µ ∈ R, v, v1 , v2 ∈ V e w, w1 , w2 ∈ W è detta bilineare.
Sia dunque φ : V × W −→ U un’applicazione bilineare, allora definiamo un’applicazione
lineare
Φ̃ : F (V, W ) −→ U,
Φ̃((v, w)) := φ(v, w).
Siccome φ è bilineare, abbiamo che Φ̃(R(V, W )) = 0, per esempio vale:
Φ̃((v1 + v2 , w) − (v1 , w) − (v2 , w)) = Φ̃((v1 + v2 , w)) − Φ̃((v1 , w)) − Φ̃((v2 , w))
= φ(v1 + v2 , w)) − φ(v1 , w) − φ(v2 , w)
= 0
perché φ(v1 + v2 , w) = φ(v1 , w) + φ(v2 , w). Perciò Φ̃ definisce un’applicazione lineare (ben
definita)
Φ : V ⊗ W −→ U,
v ⊗ w 7−→ φ(v, w).
A questo punto si potrebbe ‘dimenticare’ l’applicazione Φ̃ ricordando soltanto che:
ogni applicazione bilineare φ : V × W → U definisce un’applicazione lineare Φ : V ⊗ W → U
tale che Φ(v ⊗ w) = φ(v, w).
Viceversa, è facile verificare, usando le regole per ⊗ date in 1.1.5, che l’applicazione (detta
applicazione bilineare universale)
B : V × W −→ V ⊗ W,
(v, w) 7−→ v ⊗ w
è bilineare. In più, si verifica che la composizione dell’applicazione bilineare B con ogni applicazione lineare f : V ⊗ W → U è un’applicazione bilineare φ := f ◦ B : V × W → U . Poiché
1 ALGEBRA MULTILINEARE
9
φ(v, w) = f (B(v, w)) = f (v ⊗ w) concludiamo che f è l’applicazione lineare definita da φ come
sopra, cioè f = Φ.
Risulta che abbiamo verificato:
1.1.8 Proprietà universale del prodotto tensoriale. Sia B l’applicazione bilineare universale V × W → V ⊗ W , B(v, w) := v ⊗ w. Allora per ogni spazio vettoriale reale U di
dimensione finita e per ogni applicazione bilineare φ : V × W → U esiste un’unica applicazione
lineare Φ : V ⊗ W → U tale che il diagramma
B
V × W −→ V ⊗ W
φ↓
.Φ
U
sia commutativo, ovvero risulti: φ = Φ ◦ B.
1.1.9 Esempio: applicazioni lineari. Riprendiamo l’esempio motivante 1.1.4. Si verifica
che la applicazione
φ : V ∗ × W −→ HomR (V, W ),
(l , w) 7−→ [x 7−→ l(x)w]
è bilineare. Perciò otteniamo un’applicazione lineare
∼
=
Φ : V ∗ ⊗ W −→ HomR (V, W ),
l ⊗ w 7−→ [x 7→ l(x)w]
(l ∈ V ∗ , w ∈ W, x ∈ V ).
Usando le basi i e fj di V ∗ e W è facile vedere che Φ è iniettiva. Poiché dim V ∗ ⊗ W =
dim HomR (V, W ), concludiamo che Φ è un isomorfismo:
∼
=
Φ : V ∗ ⊗ W −→ HomR (V, W )
1.1.10 Esempio: applicazioni bilineari. L’insieme Bil(V, W ) delle applicazioni bilineari
V × W → R è uno spazio vettoriale con le operazioni:
(φ + ψ)(v, w) := φ(v, w) + ψ(v, w),
(λψ)(v, w) := λψ(v, w),
per φ, ψ ∈ Bil(V, W ), v ∈ V, w ∈ W e λ ∈ R.
Se ei , fj sono basi di V e W e se φ è bilineare, abbiamo:
X
X
X
φ(
xi ei ,
y j fj ) =
xi yj φ(ei , fj ),
i
j
quindi un’applicazione bilineare è determinata dalle immagini delle coppie (ei , fj ) ∈ V × W .
In particolare, otteniamo un isomorfismo di spazi vettoriali reali Bil(V, W ) ∼
= Mn,m (R) dove
Mn,m (R) è lo spazio vettoriale delle matrici reali con n righe e m colonne. Segue che
dim Bil(V, W ) = (dim V )(dim W ). Si noti che se M = (φ(ei , fj )) è la matrice determinata
da φ, allora
φ(x, y) = t xM y,
(M = (φ(ei , fj )) ∈ Mn,m (R)).
1 ALGEBRA MULTILINEARE
10
Il fatto che xi = i (x) e yj = ηj (y), dove ηj ∈ W ∗ è la base duale delle fj , suggerisce il
seguente risultato.
La proprietà universale del prodotto tensoriale mostra che l’ applicazione bilineare
V ∗ × W ∗ −→ Bil(V, W ),
(l, m) 7−→ [(x, y) 7−→ l(x)m(y)]
induce un’applicazione lineare
Ψ : V ∗ ⊗ W ∗ −→ Bil(V, W ),
l ⊗ m 7−→ [(x, y) 7−→ l(x)m(y)].
E’ facile vedere (per esempio usando le basi) che questa applicazione è iniettiva e siccome
dim(V ∗ ⊗ W ∗ ) = dim Bil(V, W ) otteniamo che
∼
=
Ψ : V ∗ ⊗ W ∗ −→ Bil(V, W ).
Un altro modo di ottenere queso risultato è di osservare che in 1.1.7 abbiamo mostrato che
∼
=
Bil(V, W ) −→ Hom(V ⊗ W, R),
φ 7−→ Ψ.
Siccome Hom(V ⊗W, R) = (V ⊗W )∗ , lo spazio duale, basta verificare che (V ⊗W )∗ ∼
= V ∗ ⊗W ∗ .
Per questo si può usare l’ applicazione bilineare
V ∗ × W ∗ −→ (V ⊗ W )∗ ,
(l, m) 7−→ [(x ⊗ y) 7−→ l(x)m(y)],
lasciamo i dettagli come esercizio.
1.1.11 Funtorialità del prodotto tensoriale. Consideriamo le applicazioni lineari f : V1 →
V2 e g : W1 → W2 tra spazi vettoriali reali di dimensione finita. E’ facile vedere che
V1 × W1 −→ V2 ⊗ W2 ,
(v1 , w1 ) 7−→ f (v1 ) ⊗ g(w1 )
è un’applicazione bilineare che induce perciò un’applicazione lineare, indicata con f ⊗ g:
f ⊗ g : V1 ⊗ W1 −→ V2 ⊗ W2 ,
v1 ⊗ w1 7−→ f (v1 ) ⊗ g(w1 ).
Osserviamo l’isomorfismo evidente:
(V ⊗ W ) ⊗ U ∼
= V ⊗ (W ⊗ U ),
(v ⊗ w) ⊗ u 7−→ v ⊗ (w ⊗ u),
che ci permette di scrivere semplicemente V ⊗ W ⊗ U per entrambi questi spazi.
1.1.12 La rappresentazione controgradiente. Sia V uno spazio vettoriale di dimensione
finita. Il gruppo GL(V ) delle applicazioni lineari invertibili agisce su V : A(Bx) = (AB)x
per x ∈ V . Per A ∈ GL(V ) e l ∈ V ∗ , lo spazio duale, abbiamo definito l’applicazione duale
(A∗ l)(x) = l(Ax) (vedi 1.1.3). Si noti che questa non dà un’azione di GL(V ) su V ∗ :
(A∗ (B ∗ l))(x) = (B ∗ l)(Ax) = l(BAx),
invece ((AB)∗ l)(x) = l(ABx);
1 ALGEBRA MULTILINEARE
11
Poiché in generale AB 6= BA, non vale in generale A∗ (B ∗ l) = (AB)∗ l. Per questo motivo
definiamo per A ∈ GL(V ):
A : V ∗ −→ V ∗ ,
l 7−→ [x 7−→ (Al)(x) := l(A−1 x)],
(A ∈ GL(V ), l ∈ V ∗ , x ∈ V ).
Ora si ha una azione di GL(V ) su V ∗ perché:
(A(Bl))(x) = (Bl)(A−1 x) = l(B −1 A−1 x) = l((AB)−1 x) = ((AB)l)(x)
per ogni A, B ∈ GL(V ), l ∈ V ∗ e x ∈ V . Si noti che l’azione è tramite applicazioni lineari: A(λl + µm) = λAl + µAm. Abbiamo quindi ottenuto un omomorfismo di gruppi, detto
rappresentazione controgradiente
GL(V ) −→ GL(V ∗ ),
A 7−→ [l 7−→ Al]
(A ∈ GL(V ), l ∈ V ∗ ).
Osserviamo che con questa defizione di Al si ha:
(Al)(Ax) = l(A−1 Ax) = l(x),
cioè, il valore della trasformata della forma lineare nel trasformato del punto è il valore della
forma lineare nel punto.
Come visto in 1.1.3, se A : V → V è dato dalla matrice, indicata ancora con A, rispetto
a una base di V , allora rispetto alla base duale di V la mappa indotta V ∗ → V ∗ è data dalla
matrice t A. Quindi la rappresentazione controgradiente
GL(V ) −→ GL(V ∗ ),
A 7−→ A∗ := t A−1 .
1.1.13 Azione di GL(V ) su Tmn (V ). Per un intero k ∈ Z≥0 definiamo uno spazio vettoriale:
T 0 (V ) = R,
T 1 (V ) = V,
T k (V ) = V ⊗n := |V ⊗ V ⊗
{z. . . ⊗ V},
k
e poi, per interi n, m ∈ Z≥0 definiamo:
Tmn (V ) := T n (V ) ⊗ T m (V ∗ ),
si noti che T n (V ) ⊗ T 0 (V ∗ ) = T n (V ) ⊗ R ∼
= T n (V ) usando la applicazione (v1 ⊗ . . . ⊗ vn ) ⊗ λ 7→
λ(v1 ⊗ . . . ⊗ vn ). Similmente Tm0 (V ) ∼
= T m (V ∗ ).
Per A ∈ GL(V ) definiamo un’applicazione:
A = ρnm (A) : Tmn (V ) −→ Tmn (V )
x1 ⊗ x2 ⊗ . . . . . . ⊗ xn ⊗ l1 ⊗ . . . ⊗ lm 7−→ (Ax1 ) ⊗ (Ax2 ) ⊗ . . . ⊗ (Axn ) ⊗ (Al1 ) ⊗ . . . ⊗ (Alm ).
Non è difficile vedere che ρnm (AB) = ρnm (A)ρnm (B), cioè che GL(V ) agisce su Tmn , e che ρnm (A)
è un’applicazione lineare su Tmn . Quindi otteniamo un omomorfismo di gruppi
ρnm : GL(V ) −→ GL(Tmn (V )).
1 ALGEBRA MULTILINEARE
12
Sia ei , 1 ≤ i ≤ n, una base di V . Si può mostrare che se M ∈ Hom(V, V ) = V ∗ ⊗ V = T11 è
data dalla matrice M = (mij ) ∈ Mn (R), allora l’azione di A ∈ GL(V ) su M è data da:
A · M = AM A−1
(A ∈ GL(V ), M ∈ T11 (V )).
Invece, se consideriamo un’applicazione bilineare ψ ∈ Bil(V, V ) ∼
= V ∗ ⊗ V ∗ = T20 (V ), data da
una matrice M = (mij ) ∈ Mn (R), allora l’azione di A ∈ GL(V ) su M è dato da:
A · M = t A−1 M A−1 ,
(A ∈ GL(V ), M ∈ T20 (V )).
(Si noti che l’azione di A ∈ GL(V ) su ψ ∈ Bil(V, V ) è dato da (Aψ)(x, y) = ψ(A−1 x, A−1 y) e
che ψ(x, y) = t xM y).
1.1.14 La complessificazione di uno spazio vettoriale reale. Sia V uno spazio vettoriale
reale. Definiamo uno spazio vettoriale complesso VC con un’applicazione iniettiva R-lineare
V ,→ VC tale che VC = V ⊕ iV , cioè, ogni elemente di VC si scrive, in modo unico, come somma
v1 + iv2 con v1 , v2 ∈ V . Nel caso che V = Rn , troviamo VC = Cn e l’inclusione Rn ,→ Cn è
quella standard.
La definizione di VC è data da:
VC := V ⊗R C
dove C è visto come spazio vettoriale di dimensione due su R. In particolare, VC è uno spazio
vettoriale reale di dimensione 2 dim V . Per definire l’azione di C su VC (cioè il prodotto di un
scalare t ∈ C con un vettore w ∈ VC ) osserviamo che, per ogni t ∈ C, l’applicazione
φt : V × C −→ VC ,
(v, t) 7−→ v ⊗ (tz)
è R-bilineare e quindi definisce un’applicazione R-lineare Φt : VC → VC , v ⊗ z 7→ v ⊗ (tz).
L’azione di C su VC è allora definito da t · (v ⊗ z) := v ⊗ (tz). E’ facile verificare che in questo
modo VC è uno spazio vettoriale complesso. In più, l’applicazione
V −→ VC ,
v 7−→ v ⊗ 1
è R-lineare e, poichè
v ⊗ (x + iy) = (v ⊗ x) + (v ⊗ (iy)) = (xv) ⊗ 1 + (yv) ⊗ i
(x, y ∈ R),
si ha VC = V ⊕ iV dove, per definizione della struttura di spazio vettoriale complesso su VC ,
iV = {v ⊗ i : v ∈ V }.
Una proprietà importante di VC è che ogni applicazione R-lineare A : V → V definisce
un’applicazione C-lineare
AC : VC → VC ,
AC (v ⊗ z) := (Av) ⊗ z
(A ∈ HomR (V, V )),
come si verifica facilmente usando l’applicazione R-bilineare V × C → VC , (v, z) 7→ (Av) ⊗ z.
1 ALGEBRA MULTILINEARE
13
Nel caso V ⊂ W , dove W è uno spazio vettoriale complesso, si ottiene un’applicazione Clineare VC → W dato da v ⊗ z → zv (dove il prodotto zv è preso nel spazio vettoriale complesso
W ). Un esempio interessante è il caso dove
V := {X ∈ W = Mn (C) : t X + X = 0 }.
Si noti che V è un sottospazio vettoriale reale di W , ma non un sottospazio vettoriale complesso
(se X 6= 0 e t X = −X allora t iX = −it X = +iX 6= −iX, quindi iX 6∈ V ). Questo argomento
mostra in realtà che V ∩ iV = {0} e quindi, calcolando dimensioni (oppure vedi 7.4.3), si ha
W = V + iV e perciò VC ∼
= W.
1.2
Tensori in fisica
Gli elementi dello spazio vettoriale Tmn (V ) si chiamano tensori di rango r = n + m, con n indici
controvarianti ed m indici covarianti o anche tensori di tipo (n, m). In particolare i tensori di
tipo (1, 0) sono i vettori di V detti anche vettori controvarianti, mentre i tensori di tipo (0, 1)
vengono chiamati covettori o vettori covarianti. Le nozioni di covarianza e controvarianza sono
direttamente riconducibili al modo in cui GL(V ) agisce su Tmn (V ). Vogliamo però soffermarci a
illustrarle da un punto di vista meno astratto, in maniera tale da rendere evidente l’importanza
dei tensori in fisica e contemporaneamente giustificare le notazioni usualmente adottate.
1.2.1 Vettori, indici in alto e controvarianza. In prima approssimazione per un fisico
una grandezza vettoriale è una quantità specificata da una intensità (o modulo), una direzione
e un verso. Per esempio il vettore posizione, o la velocità di una particella in un determinato
istante, o la forza che un corpo esercita su di un altro e cosı̀ via. Per specificare un tale vettore
o eseguirne una misura è necessario introdurre un sistema di riferimento, che corrisponde alla
scelta di una base ordinata {~e1 , ~e2 , ~e3 } dello spazio vettoriale V in cui il vettore, diciamo ~v ,
vive. Dunque
~v = v 1~e1 + v 2~e2 + v 3~e3 ,
e la misura consisterà nella determinazione delle componenti del vettore, cioè i coefficienti v i .
Si noti che abbiamo scritto gli indici come apici. Questo è un fatto puramente convenzionale
che è però universalmente adottato e come vedremo permette di semplificare le notazioni. A
questo punto si può essere tentati di identificare il vettore ~v con la terna delle sue componenti
 1 
v

v2  .
v=
v3
Tale identificazione risulta essere inappropriata dato che mentre il vettore ~v prescinde dalla
scelta di una base, v non ha alcun significato senza tale base. E se infatti si decide di cambiare
base, il vettore ~v resterà invariato, mentre le sue componenti ~v cambieranno ansse. Infatti
supponiamo di introdurre la nuova base {~ẽ1 , ~ẽ2 , ~ẽ3 } legata alla precedente dalla matrice M =
{Mi j } da
3
X
~ẽi =
Mi j ~ej .
j=1
1 ALGEBRA MULTILINEARE
14
Rispetto a questa base le nuove componenti ṽ saranno tali per cui
~v = ṽ 1~ẽ1 + ṽ 2~ẽ2 + ṽ 3~ẽ3 ,
e quindi
X
v i~ei =
X
i
ṽ j~ẽj =
j
X
ṽ j Mj k~ek ,
j,k
da cui
vi =
X
ṽ j Mj i .
j
In forma matriciale questa relazione può essere scritta come
T
dove
T
v =T ṽ · M ,
indica la trasposizione, mentre 0 ·0 è l’usuale prodotto matriciale. In conclusione
ṽ =T M −1 v ,
ovvero: se la base {~ei } viene cambiata con la matrice M , allora le componenti di un vettore
si trasformano con l’inversa della matrice trasposta. In pratica si trasformano al contrario
per compensare il cambiamento di base in modo da lasciare invariato ~v . Questo giustifica
il termine controvariante. Se vogliamo identificare un vettore con le sue componenti, allora
dobbiamo tenere presente che queste si trasformano controvariantemente rispetto ad un cambiamento di riferimento. È chiaro che tali ragionamenti non dipendono dalla dimensione dello
spazio vettoriale.
Si cominci anche ad osservare una prima comodità della scelta sulle posizioni degli indici in
alto o in basso: nel cambiamento di base, si somma l’indice in alto della matrice con quello in
basso della base, per dare una seconda base che ancora è indicizzata da un pedice. Ecco perché
il corrispondente indice di riga della matrice è un pedice.
P
Viceversa, nel cambiamento delle componenti, espresso dalla relazione v i = j ṽ j Mj i , si somma
l’indice in basso della matrice con quello in alto delle componenti, per dare altre componenti
che secondo le convenzioni scelte devono ancora avere l’indice in alto. Questo mostra la coerenza delle convenzioni. Scegliamo infine di adottare una ulteriore semplificazione, suggerita da
Einstein e nota appunto come convenzione di Einstein: ogni volta che un indice in alto ed
uno in basso compaiono ripetuti, è sottintesa una sommatoria sugli stessi. Per esempio potremo
scrivere le relazioni precedenti come
~v = v i~ei , ~ẽi = Mi j ~ej , v i = ṽ j Mj i ,
e cosı́ via. In questa sezione d’ora in poi adotteremo questa convenzione.
Mettiamo infine in evidenza il seguente fatto: quando si identifica un vettore con le sue componenti, talvolta si dice erroneamente che il vettore è descritto da 3 (nel caso tridimensionle)
scalari. Tuttavia uno scalare è una grandezza che non dipende dalla scelta del sistema di
riferimento, come può essere la temperatura in un punto dato. Questa osservazione dovrebbe
1 ALGEBRA MULTILINEARE
15
ulteriormente chiarire la possibile ambiguità che può portare l’identificazione di un vettore con
le sue componenti. Se da una parte il formalismo in componenti ha un significato pratico, dato
che esse rappresentano le quantitá da misurare in un dato riferimento, d’altra parte si intuisce la necessità di un formalismo indipendente dai riferimenti per catturare quelle proprietà
intrinseche che prescindano dalla scelta di un riferimento.
1.2.2 Covettori, indici in basso e covarianza. I covettori sono gli elementi dello spazio
duale V ∗ . Indichiamo con w il generico covettore. Esso sarà completamente specificato dalla
sua valutazione su una base {~ei } di V : wi = w(~ei ). Infatti possiamo scrivere w = wi i dove i
é la base di V ∗ canonicamente associata alla base di V , come mostrato nelle sezioni precedenti.
Ne segue immediatamente che le componenti wi di w si trasformano con la stessa matrice con
cui si effettua il cambiamento di base:
w̃i = w(Mi j ~ej ) = Mi j wj .
Ecco perché i covettori vengono detti vettori controvarianti, e secondo le convenzioni introdotte
le loro componenti si indicano con un pedice. Lasciamo come esercizio quello di verificare che
in effetti la base canonica si trasforma con la matrice inversa trasposta, mostrando quindi la
completa coerenza delle notazioni.
Si noti anche che w(~v ) = wi v i .
n
1.2.3 Tensori in Tm
(V ) e componenti. A questo punto è chiaro quale debba essere la
notazione in componenti di un tensore x ∈ Tmn (V ). Scriveremo cioè le sue componenti come
n
xji11...i
...jm tenendo conto che se si effettua un cambiamento di base
~ẽi = Mi j ~ej ,
le componenti diventano
...hn
k1
n
x̃ij11...i
. . . Mjn km (T M −1 )i1 h1 . . . (T M −1 )in hn xhk11...k
.
...jm = Mj1
m
Lasciamo come esercizio la dimostrazione di questo fatto, nonché la riformulazione in termini
di azione del gruppo GL(V ).
1.2.4 Una convenzione alternativa. In casi più generali è conveniente utilizzare una
notazione leggermente differente da quella indicata nel paragrafo precedente, valida ad esempio
in casi di spazi vettoriali su corpi non abeliani anziché su campi. In tal caso occorrerà distinguere
ad esempio tra campi vettoriali destri e campi vettoriali sinistri. Se K è il corpo degli scalari,
posto s : (K, V ) → V , diremo che lo spazio vettoriale V è destro se
s(a, s(b, v)) = s(ba, v) ,
∀a, b ∈ K , v ∈ V ,
mentre diremo che è sinistro se
s(a, s(b, v)) = s(ab, v) ,
∀a, b ∈ K , v ∈ V ,
1 ALGEBRA MULTILINEARE
16
cioè come se gli scalari moltiplicassero da destra, s(a, v) = va, nel primo caso e da sinistra,
s(a, v) = av, nel secondo caso. Si noti che se uno spazio vettoriale è destro allora il suo duale V ∗
è uno spazio vettoriale1 sinistro e viceversa. Per fissare le idee, secondo le convenzioni comuni,
supponiamo che V sia destro. Sia ~e1 , . . . , ~en una base di V , che disporremo in un vettoreriga ~e := (~e1 , . . . , ~en ). Il generico vettore ~v ∈ V avrà perciò componenti in K che scriveremo
convenientemente in un vettore-colonna v̄ ∈ Kn in modo da utilizzare il prodotto riga per
colonna2 nella scrittura
v
X
~v =
~ei v i = ~e · v̄ .
i=1
Si verifica facilmente che, fissata la base ~e un endomorfismo lineare di V è rappresentato da
una matrice n × n con coefficienti in K, che moltiplica con l’usuale prodotto riga per colonna i
vettori-colonna v̄ che rappresentano i punti di V in Kn .
Consideriamo ora il duale V ∗ e sia h , i : V ∗ × V → K la valutazione dei funzionali sui vettori,
che trasforma in modo naturale l’azione destra degli scalari su V nell’azione a sinistra su V ∗ . Sia
~1 , . . . ,~n la base duale canonica definita da h~i , ~ej i = δji , dove la delta di Kronecker è costruita
con lo zero e l’unità in K. Conviene allora disporre i vettori della base in un vettore-colonna
 1 
~
 . 



.
¯ = 


 . 
~n
in modo che la definizione della base diventa h¯, ~ei = I mentre ~e ⊗ ¯ = idV , essendo I la matrice
di componenti δji .
Ne segue che nella base fissata un covettore ~v ∈ V ∗ sarà individuato da un vettore riga v =
(v1 , . . . , vn ) ∈ Kn in modo tale che ~v = v · ¯. In particolare se ~v = v · ¯ ∈ V ∗ e w
~ = ~e · w̄ ∈ V
allora si ottiene h~v , wi
~ = v · w̄, l’usuale prodotto riga per colonna! Sia inoltre A ∈ End(V ) ed
∗
A l’applicazione duale definita da hA∗~v , wi
~ := h~v , Awi.
~ Ne segue che se A è rappresentato da
una matrice M ∈ M at(n, K) tale che w̄ 7→ ·w̄, allora A∗ è rappresentato dalla stessa matrice
M che però agisce a destra: v 7→ v · M . Si noti che solo dopo trasposizione, che trasforma
i vettori riga in vettori colonna, l’operatore aggiunto viene allora rappresentato dalla matrice
trasposta che però agisce a sinistra. Questo perché essenzialmente la trasposizione corrisponde
all’esplicitazione dell’isomorfismo (non naturale) tra V e V ∗ che quindi trasforma un’azione
destra in sinistra e viceversa. Tuttavia tale isomorfismo è conveniente solo nel caso degli spazi
vettoriali su un campo cosicchè non vi è nessuna differenza tra azione destra ed azione sinistra.
In generale invece è conveniente mantenere evidente la caratteristica di spazio sinistro per V ∗
(se V è destro) e ciò giustifica le notazioni qui introdotte.
In queste notazioni un cambiamento di base sarà definito da una matrice M ∈ GL(n, K) tale
che ~ẽ = ~e · M . La condizione di indipendenza di un vettore dalla base è espressa dunque dalla
qui continuiamo a limitarci al caso di spazi finito dimensionali e V ∗ è lo spazio dei funzionali lineari su V
a valori in K
2
che d’ora in poi indicheremo con un punto ’·’
1
1 ALGEBRA MULTILINEARE
17
relazione ~v = ~e · v̄ = ~ẽ · ṽ¯ ovvero
~ẽ · ṽ¯ = ~e · v̄ = ~e · (M · M −1 ) · v̄ = (~e · M ) · (M −1 · v̄) = ~ẽ · (M −1 · v̄) ,
cosicché ṽ¯ = M −1 · v̄: se la base trasforma con la matrice M (a destra) allora le componenti
del vettore trasformano con la matrice M −1 (a sinistra).
Lasciamo come esercizio la determinazione di simili proposizioni nel caso dei covettori e dei
tensori in generale, nonchè il confronto dettagliato con le formule ottenute nei paragrafi precedenti.
Mentre nel presente capitolo continueremo ad usare le notazioni precedenti, queste convenzioni
verranno adottate nel capitolo 11 riguardante i fibrati differenziali.
1.2.5 Il tensore metrico e l’abbassamento ed innalzamento degli indici. Su uno spazio
vettoriale V finitodimensionale e reale, è sempre possibile introdurre un tensore metrico, cioè
una forma bilineare non degenere g ∈ Bil(V, V ). Nondegenere significa che se fissiamo ~v ∈ V e
~ ∈ V allora ~v = ~0. Se g(~v , ~v ) ≥ 0 , ∀~v ∈ V , si dice che la metrica
si ha che g(~v , w)
~ = 0 , ∀W
è definita positiva o Euclidea. Lasciamo come esercizio la verifica del fatto che in tal caso
g(~v , ~v ) = 0 implica ~v = ~0. Similmente una metrica g si dirà definita negativa se −g è definita
positiva. Nei restanti casi si parlerà di metrica Lorentziana con data segnatura. In ogni caso
vediamo che il tensore metrico è dunque un tensore simmetrico in V ∗ ⊗ V ∗ .
Esso definisce una corrispondenza biunivoca ψ : V → V ∗ , ~v 7→ ψ(~v ), dove ψ(~v )(w)
~ := g(~v , w).
~
Si verifica immediatamente che si tratta infatti di un isomorfismo lineare, basti usare il fatto
che g è nondegenere3 . In componenti si ha
vi = gij v j ,
dove vi sono le componenti del covettore ψ(~v ), notazione piuttosto naturale dato l’isomorfismo.
Viceversa, dato un covettore w, si indicano con wi le componenti del vettore ψ −1 (w). Se con g ij
indichiamo le componenti della matrice inversa alla gij (si dimostri che g ij sono le componenti
di un tensore simmetrico controvariante di grado 2), allora si ha
wi = g ij wj .
Le operazioni appena viste vengono anche chiamate abbassamento ed innalzamento dell’indice.
Esse possono essere estese in maniera ovvia a tensori di rango qualunque. Cosı̀ ad esempio
Tij = gik T k j = gjk Ti k = gik gjl T kl .
Si noti in generale l’importanza della posizione degli indici alzati ed abbassati: in generale T i j
e Tj i , ad esempio, non saranno affatto uguali.
Si noti infine che nel caso di una metrica euclidea è sempre possibile scegliere una base in cui
gij = δij , essendo δij l’usuale simbolo di Kronecker.
1.2.6 Esempi di tensori in fisica. Abbiamo già parlato di esempi di vettori in fisica, come
la velocità, la forza, eccetera, che individuano tensori di tipo (1, 0). Cosı̀ potremo anche dire
3
In particolare dunque in generale tale isomorfismo non richiede nemmeno che g sia simmetrico.
1 ALGEBRA MULTILINEARE
18
che una quantità scalare, come ad esempio la temperatura, è un tensore di tipo (0, 0). Per
vedere come i tensori prolificano in fisica, vediamo ulteriori esempi di grandezze fisiche di natura tensoriale.
La costante dielettrica.
Consideriamo una sostanza materiale immersa in un campo elettrico. Dal punto di vista microscopico accade che le molecole componenti il materiale subiranno l’effetto del campo elettrico
eventualmente deformandosi ed orientandosi secondo le coercizioni imposte dal campo e dalla
struttura stessa del materiale (cristallina o meno). Per contro, le molecole deformate generano allora un campo (microscopico) che si somma al campo esterno modificando cosı̀ il campo
complessivo nella regione occupata dalla sostanza materiale.
Dal punto di vista macroscopico ciò verrà descritto in termini di un campo di induzione elettrica
~ che dipenderà sia dal campo elettrico esterno E,
~ sia dalla natura precisa della sostanza S
D
stessa
~ = E(E,
~ S) .
D
~ 0 := E(~0, S) sia sia differente da zero.
In particolare per alcune sostanze può accadere che D
Si dice allora che S è un materiale piezoelettrico. La maggior parte delle sostanze non sono
~ 0 = ~0. Per tali sostanze, se il campo elettrico nella regione in cui sono
piezoelettriche sicché D
~ Qualora
situate è abbastanza debole, l’induzione elettrica dipenderà linearmente dal campo E.
le correzioni nonlineari non entrino in gioco praticamente mai la sostanza in considerazione viene
detta mezzo lineare o anche mezzo normale. I materiali per cui invece le correzioni nonlineari
non sono essenzialmente mai trascurabili si dicono mezzi nonlineari.
Supponiamo dunque di disporre di un mezzo normale e concentriamoci su un punto fissato.
In tal caso allora E definisce una mappa lineare E : R3 → R3 che, per quanto osservato nel
paragrafo 1.1.9, sarà rappresentata da un tensore ∈ V ∗ ⊗ V , detto tensore di permettività
dielettrica. Qui abbiamo posto R3 =: V . Poiché in generale tale tensore dipenderà dal punto
considerato, in generale la permettività dielettrica definisce in realtà un campo tensoriale sul
mezzo normale4 . Se non si ha alcuna dipendenza dal punto, si dice che il mezzo normale è un
dielettrico omogeneo. In componenti potremo scrivere
Di = i j Ej ,
dove ovunque è stata omessa la dipendenza esplicita dal punto p.
Osserviamo che se gij sono le componenti della metrica spaziale (euclidea) nel dato punto p, allora si può ivi descrivere la permeabilità dielettrica tramite il tensore completamente covariante
ij ottenuto abbassando l’indice controvariante. Si può allora dimostrare, tramite un semplice
argomento di termodinamica, che quest ultimo tensore deve necessariamente essere simmetrico.
Nel caso in cui il mezzo sia omogeneo allora il tensore non dipende dal punto. Se invece il
mezzo è isotropo le sue componenti non devono restare invariate qualunque sia la rotazione che
si compia nel cambiare riferimento. Poiché, a meno di costanti moltiplicative, l’unico tensore
a due indici invariante per rotazione è δi j , si ha che in tal caso deve essere i j = δi j . Se il
mezzo è anche omogeneo, il dielettrico è allora unicamente caratterizzato da uno scalare , detto
4
Il concetto di campo tensoriale richiede l’introduzione di strumenti matematici più raffinati e verrà descritto
in maniera precisa nel capitolo successivo.
1 ALGEBRA MULTILINEARE
19
costante dielettrica.
Una trattazione del tutto analoga può essere fatta per il campo magnetico.
Il tensore degli sforzi e la pressione.
Un altro esempio riguarda lo studio delle proprietà meccaniche dei mezzi continui. Se ad esempio ci si accinge a deformare un corpo solido che si trovava all’equilibrio, esso si opporrà a
tale azione tramite delle forze interne che tenderanno a mantenerlo (o riportarlo) nello stato di
equilibrio. Tali forze interne vengono dette sforzi.
Se il corpo solido preso in considerazione non è ad esempio fatto di materiale piezzoelettrico,
cioè se le deformazioni non generano campi elettrici (o magnetici) macroscopici all’interno del
mezzo, allora gli sforzi saranno dovuti univocamente alle inerazioni tra le molecole adiacenti.
Dal punto di vista macroscopico, essendo tali interazioni di breve range, le varie parti del corpo
solido appariranno interagire solamente per mezzo delle superfici che li delimitano. Pertanto su
una porzione di volume V delimitato dalla superficie S = ∂V la forza esercitata dalle restanti
parti del corpo sarà esprimibile nella forma5
I
i
F =
σ ij nj dS
S
essendo ~n(p) la normale uscente alla superficie S nel punto p. E’ chiaro che allora σ ij (p) è un
tensore di secondo grado definito in ogni punto p del corpo: esso è detto tensore degli sforzi.
ij
come
In particolare tramite il teorema di Stockes si può interpretare la divergenza f i = ∂σ
∂xj
la forza per unità di volume subita dal corpo nel dato punto ad effetto della deformazione.
Più precisamente per definizione gli sforzi interni sono descritti dalla reazione del corpo alla
deformazione, ovvero da −f i .
Se xi rappresenta il vettore posizione del punto p rispetto ad un origine O, possiamo interpretare
la quantità mij = f i xj − f j xi come il momento di torsione per unità di volume subito nel punto
p a causa della deformazione6 . Se si integra sul volume V esplicitando l’espressione di f~ e
utilizzando nuovamente il teorema di Stockes, si ottiene un’espressione per il momento angolare
totale agente sul volume V dato
I
Z
ij
ik j
jk i
M = (σ x − σ x )nk dS + (σ ij − σ ji )dV .
S
V
In generale accade che, benché abbiamo introdotto il concetto di forze volumetriche f i , tale
momento debba essere ragionevolmente attribuito esclusivamente alle forze di contatto sulla
superficie, sicché l’integrale di volume deve essere nullo qualunque sia il volumetto considerato.
Pertanto genericamente si ha che il tensore degli sforzi è un tensore simmetrico.
Può tuttavia accadere che in casi eccezionali il momento angolare subisca anche un contributo
dovuto ad esempio alla contorsione della struttura microscopica del mezzo. In questo caso la
seconda equazione cardinale della meccanica non è più conseguenza della prima e il termine di
volume non è più nullo. In questo caso il vettore
1
Si := ijk σ jk ,
2
5
si noti l’indice covariante per il versore ~n normale alla superficie: quando si calcola il flusso di un campo ~v
vettoriale attraverso una superficie occorre determinare punto per punto il prodotto scalare ~v ·~n = v i nj gij = v i nj
6
per la precisione questo è il duale di Hodge del momento angolare, si veda più avanti
1 ALGEBRA MULTILINEARE
20
può essere interpretato come uno spin classico del mezzo continuo. Benché si sia finora ragionato in termini di corpi solidi, gli stessi ragionamenti possono essere ripetuti, con le stesse
conclusioni, nel caso di corpi fluidi (liquidi e gassosi). In effetti liquidi dotati di spin classico
sono noti ai chimici industriali e vengono utilizzati ad esempio per la realizzazione di propellenti
per razzi.
Nel caso di mezzi isotropi, analogamente al tensore di permettività dielettrica, il tensore degli
sforzi dovrà allora essere della forma σ ij = pδ ij . Il coefficiente di proporzionalità p è la pressione.
Vettori assiali e vettori polari.
Vi sono grandezze per la cui descrizione il concetto di vettore inteso intuitivamente come oggetto descritto da una intensità, una direzione ed un verso è solo convenzionale e viene a dipendere
nei dettagli dall’osservatore. Per chiarire questo punto consideriamo ad esempio il caso immaginario di una sferetta che ruota su sè stessa con velocitá angolare ω. Supponiamo di voler
attribuire un vettore alla velocità angolare, che ne specifichi sia l’asse di rotazione che il senso
di rotazione. Per stabilire tale vettore specifichiamo un sistema di riferimento cartesiano inerziale sinistrorso con origine nel centro della sfera ed asse z sovrapposto all’asse di rotazione.
Decidiamo dunque di attribuire alla velocità angolare il vettore di coordinate (0, 0, ω) se la
rotazione va dall’asse x all’asse y e con segno opposto nel caso contrario. Questo stabilirà un
ben preciso vettore che secondo il nostro riferimento (~e1 , ~e2 , ~e3 ) si scriverà ω
~ = ω~e3 . Si noti che
il risultato per ω
~ non dipende da quale dei due poli della sfera sia scelto come punto di uscita
dell’asse z.
Supponiamo ora di voler risolvere lo stesso problema con le stesse convenzioni ma scegliendo
stavolta un sistema (~e0x , ~e0y , ~e0z ) destrorso anziché uno sinistrorso. Il risultato ovvio é che determineremo un vettore ω
~ 0 = −~ω . È chiaro che nessuna delle due determinazioni è privilegiata
ed entrambi i vettori vanno ugualmente bene per specificare la velocità angolare della sferetta.
Ciascuno di essi è ben definito una volta che si specifichi un sistema di riferimento orientato e
non dipende dal sistema di riferimento purché si considerino solo riferimenti con lo stesso orientamento. Per dare un significato assoluto (cioè completamente indipendente dal riferimento) al
vettore velocità angolare, è necessario unificare le due convenzioni, richiedendo che ω si trasformi in ω 0 quando si passi da un sistema sinistrorso ad uno destrorso. Ciò significa che ω
~ non
può essere trattato come un usuale vettore ma piuttosto occorre considerare la coppia {~ω , Ω},
Ω essendo l’orientamento scelto. I vettori con questa proprità si chiamano vettori assiali per
distinguerli dagli usuali vettori che vengono invece chiamati vettori polari.
Si lascia come esercizio la verifica del fatto che il prodotto vettoriale tra due vettori polari è un
vettore polare, mentre quello tra un vettore assiale ed uno polare è invece un vettore polare. In
particolare si ha dunque che il campo elettrico può essere rappresentato da un vettore polare
mentre quello magnetico sarà un vettore assiale.
Tensori rispetto ad un gruppo di trasformazioni.
L’argomento del precedente esempio suggerisce una generalizzazione molto utile in fisica. Possiamo infatti dire che i vettori assiali si comportano come usuali tensori controvarianti di grado
1 se consideriamo solo trasformazioni di riferimento che conservano l’orientamento. Più in
generale possiamo pensare a tensori che si comportano come tali solamente se si prende in considerazione un determinato gruppo G di trasformazioni. Sia cioè V uno spazio vettoriale che
1 ALGEBRA MULTILINEARE
21
sia lo spazio supporto di una rappresentazione ρ del gruppo G.7 Diremo allora che Ti1 ,...,im j1 ,...,jn
sono le componenti di un tensore di tipo (m, n) rispetto al gruppo G (nella rappresentazione ρ)
se trasformano nel modo corretto sotto una trasformazione di base indotta dalle applicazioni
lineari del tipo ρ(g) : V → V , al variare di g ∈ G.
Per capire l’importanza di questo concetto in fisica vediamo alcuni esempi.
Un primo semplice esempio è il vettore velocità che si comporta esattamente come un vettore rispetto al gruppo delle rotazioni ma non certamente rispetto al gruppo di trasformazioni
di Galilei. I vettori forza ed accelerazione restano tali anche rispetto al gruppo di Galilei,
mentre non lo sono rispetto al gruppo di Lorentz: rispetto ad esso si comportano solamente
come componenti spaziali di un tetravettore. In generale i tetravettori si comportano come tali
rispetto a trasformazioni tra sistemi di riferimento inerziali. Ad esempio la tetra-accelerazione
non trasforma correttamente se si passa da un sistema inerziale ad uno non inerziale. I campi
elettrico e magnetico si comportano come vettori (polare ed assiale) rispetto al gruppo delle
rotazioni mentre rispetto al gruppo di Lorentz si comportano come le componenti di un tensore
antisimmetrico controvariante di secondo grado (il tensore di Faraday).
Questi esempi e molti altri mostrano che in fisica è sovente indispensabile specificare il gruppo
di trasformazioni rispetto al quale le grandezze in gioco si comportano effettivamente come tensori. Il carattere tensoriale di una grandezza fisica dipende in tal senso dal contesto specifico.
Leggi tensoriali in fisica.
Osserviamo per concludere quale sia l’importanza di formulare le leggi fisiche sotto forma tensoriale. Il punto chiave è che se le componenti di un tensore sono nulle in un determinato
riferimento, allora lo sono in qualunque riferimento. Quindi se è possibile scrivere una legge
fisica nella forma
Ti1 ,...,im j1 ,...,jn = 0 ,
in un dato riferimento, allora essa è universale nel senso che mantiene la stessa forma in
qualunque altro sistema di riferimento. Ciò è conseguenza del fatto che se Ti1 ,...,im j1 ,...,jn sono le
componenti del tensore T , il quale non dipende dalle coordinate, allora la legge fisica assume
la forma T = 0, chiaramente indipendente dalla scelta di ogni sistema di riferimento. Cosı̀
ad esempio la legge di Newton F i = mai ha la forma invariante F~ = m~a che ne evidenzia
la natura tensoriale rispetto al gruppo di Galilei. Tale legge non è però invariante rispetto al
gruppo di Lorentz, mentre lo sono le equazioni di Maxwell. In una descrizione coerente della
fisica è opportuno che le leggi fisiche siano tutte della stessa natura, cosicché diventa necessario
modificare le equazioni di Newton affinchè possano essere anch’esse scritte in termini di tensori
Lorentziani. Naturalmente si potrebbe pensare invece che sia necessario cambiare le equazioni
di Maxwell per renderle Galilei-covarianti. Tuttavia la prima soluzione risulta essere quella
corretta, anzitutto dal punto di vista sperimentale. Vi sono inoltre degli evidenti motivi di
principio che portano alla stessa conclusione: essendo i sistemi galileiani una situazione limite
di quelli lorentziani è più naturale pensare che i tensori rispetto al gruppo di Galilei compaiano
solo in tali situazioni limite.
7
si veda il capitolo dedicato ai gruppi di Lie
1 ALGEBRA MULTILINEARE
1.3
22
L’algebra esterna.
1.3.1 Il prodotto esterno. Sia V uno spazio vettoriale reale di dimensione n. Definiamo un
sottospazio I2 di V ⊗ V con:
I2 := hv ⊗ v : v ∈ V i.
Si noti che per u, v ∈ V :
(u + v) ⊗ (u + v) = u ⊗ u + v ⊗ v + u ⊗ v + v ⊗ u,
quindi u ⊗ v + v ⊗ u = (u + v) ⊗ (u + v) − u ⊗ u − v ⊗ v ∈ I2 per ogni u, v ∈ I2 .
Il prodotto esterno di V è lo spazio quoziente
∧2 V := V ⊗ V /I2
con u ∧ v := u ⊗ v = u ⊗ v + I2 .
Visto che v ⊗ v ∈ I2 , si ha v ⊗ v + I2 = I2 , quindi
v ∧ v = 0,
u ∧ v = −v ∧ u
perché u ⊗ v + v ⊗ u ∈ I2 .
P
P
Se ei è una base di V e u = ui ei , v =
vj ej , allora:
X
X
X
u∧v =(
ui e i ) ∧ (
vj ej ) =
ui vj (ei ∧ ej ) =
X
(ui vj − uj vi )(ei ∧ ej ).
1≤i<j≤n
quindi gli ei ∧ ej con i < j generano ∧2 V . Per vedere se sono indipendenti, definiamo per gli
interi a, b con 1 ≤ a < b ≤ n un’applicazione bilineare
φa,b : V × V −→ R,
(u, v) 7−→ ua vb − ub va .
Quindi φa,b definisce un’applicazione lineare φ̄a,b : V ⊗ V → R. Si noti che φ̄a,b (v ⊗ v) =
va vb − vb va = 0, quindi φ̄a,b (I2 ) = 0. Perciò φ̄a,b definisce un’applicazione lineare
φ̄a,b : ∧2 V −→ R,
φ̄a,b (u ∧ v) = ua vb − ub va .
Siccome φ̄a,b (ei ∧ ej ) = 0 tranne se {i, j} = {a, b} segue che gli ei ∧ ej , i < j sono una base di
∧2 V , quindi
dim ∧2 V = (n2 ) = n(n − 1)/2,
∧2 V = ⊕i<j Rei ∧ ej .
In modo simile a quanto visto in 1.1.7, si può considere applicazioni bilineari alternanti, cioè
applicazioni bilineari
φ : V × V −→ R,
t.c. φ(u, v) = −φ(v, u)
(u, v ∈ V ).
Si mostra che Hom(V ∧ V, R) = Bilalt (V × V, R) (c.f. 1.1.8) dove Bilalt (V × V, R) è lo spazio
vettoriale reale delle applicazioni bilineari alternanti. Per esempio, φa,b ∈ Bilalt (V × V, R) qui
sopra corrisponde a φ̄a,b ∈ Hom(V ∧ V, R).
1 ALGEBRA MULTILINEARE
23
Finalmente osserviamo che per u = (u1 , u2 ), v = (v1 , v2 ) ∈ R2 si ha:
u1
v1
u1 v1
u∧v =
∧
= det(u, v)e1 ∧ e2 ,
dove (u, v) :=
.
u2
v2
u2 v2
1.3.2 Il k-esimo prodotto esterno. Per ogni intero k ≥ 3 definiamo il sottospazio Ik di
T k (V ) nel modo seguente:
Ik = Ik−1 ⊗ V ⊕ V ⊗ Ik−1
(⊂ T k (V )).
In particolare, per k = 3 si ha:
I3 = hu ⊗ u ⊗ v, u ⊗ v ⊗ v : u, v ∈ V i.
In generale, se un tensore puro t = v1 ⊗ v2 ⊗ . . . ⊗ vk ∈ T k (V ) soddisfa vi = vi+1 per un certo
i, allora t ∈ Ik .
Il k-esimo prodotto esterno di V è lo spazio vettoriale
∧k V := T k (V )/Ik ,
v1 ∧ v2 ∧ . . . ∧ vk := v1 ⊗ v2 ⊗ . . . ⊗ vk + Ik .
Poiché v1 ∧ v2 ∧ . . . ∧ vi ∧ vi+1 ∧ . . . vk = 0 se vi = vi+1 troviamo, come in 1.3.1, che
v1 ∧ v2 ∧ . . . ∧ vi ∧ vi+1 ∧ . . . ∧ vk = −v1 ∧ v2 ∧ . . . ∧ vi+1 ∧ vi ∧ . . . ∧ vk
per ogni vi ∈ V . Ogni permutazione di {1, . . . , n} è un prodotto di trasposizioni del tipo
(i i + 1), quindi otteniamo che:
v1 ∧ v2 ∧ . . . ∧ vi ∧ vi+1 ∧ . . . ∧ vk = (σ)vσ(1) ∧ vσ(2) ∧ . . . ∧ vσ(i) ∧ vσ(i+1) ∧ . . . ∧ vσ(k)
per ogni σ ∈ Sk , dove Sk è il gruppo simmetrico, e ogni vi ∈ V , dove (σ) è il segno della
permutazione σ.
Sfruttando il fatto che applicazioni multilineari in k variabili, cioè lineari in ogni variabile,
ed alternanti, cioè :
φ : V k −→ R,
φ(v1 , . . . , vi , . . . , vk ) = (σ)φ(vσ(1) , . . . , vσ(i) , . . . , vσ(k) )
definiscono applicazioni ∧k V −→ R si mostra che una base di ∧k V è data dagli:
eI := ei1 ∧ ei2 ∧ . . . ∧ eik ,
dove I = {i1 , . . . , ik } ⊂ {1, . . . , n}
e i1 < i2 < . . . < ik . In particolare
dim ∧k V = (nk )
se 0 ≤ k ≤ n,
∧k V = 0 se k > n.
Se dim V = n si ha, usando il fatto che il determinante di una matrice è R-lineare in ogni
colonna ed è alternante, che
v1 ∧ v2 ∧ . . . ∧ vn = det(v1 , . . . , vn )(e1 ∧ e2 ∧ . . . ∧ en ),
1 ALGEBRA MULTILINEARE
24
dove ei è una base di V e



(v1 , . . . , vn ) = 


(v1 )1 (v2 )1 . . . (vn )1
(v1 )2 (v2 )2 . . . (vn )2 

..
..
..
.. 
.
.
.
. 
(v1 )n (v2 )n . . . (vn )n
dove vj =
n
X
(vj )i ei .
i=1
1.3.3 L’algebra esterna. Per uno spazio vettoriale reale V di dimensione finita definiamo
k
T (V ) = ⊕∞
k=0 T (V )
dove T k (V ) è definito in 1.1.13. Lo spazio vettoriale T (V ), di dimensione infinita se V 6= {0},
ha un prodotto naturale (anche se ‘banale’). Per tensori ‘puri’ si definisce:
(∈ T k+l (V )).
P
Si
λi si , t =
P estende poi questo prodotto in modo R-bilineare a tutto T (V ). Quindi se s =
µj tj ∈ T (V ) con si , tj tensori puri, definiamo
X
X
X
s·t=(
λi si ) · (
µj tj ) =
ui vj (si · tj ).
(u1 ⊗ u2 ⊗ . . . ⊗ uk ) · (v1 ⊗ v2 ⊗ . . . ⊗ vl ) := u1 ⊗ u2 ⊗ . . . ⊗ uk ⊗ v1 ⊗ v2 ⊗ . . . ⊗ vl
Con questo prodotto T (V ) diventa una R-algebra, cioè uno spazio vettoriale reale con un
prodotto R-bilineare. Sia
I = I2 ⊕ I3 ⊕ . . . ⊕ Ik ⊕ . . . = ⊕∞
i=k Ik ,
con Ik come in 1.3.2. Allora lo sottospazio reale I è un ideale bilaterale dell’algebra T (V ), cioè
per t ∈ T (V ) e s ∈ I si ha s · t ∈ I e t · s ∈ I, come segue facilmente dalla definizione di Ik .
Questo implica che l’algebra quoziente, chiamata l’algebra esterna,
∧V := T (V )/I = R ⊕ V ⊕ ∧2 V ⊕ . . . ⊕ ∧n V,
è una R-algebra con prodotto indotto da ‘·’. Tale prodotto si indica con ∧:
(u1 ∧ u2 ∧ . . . ∧ uk ) ∧ (v1 ∧ v2 ∧ . . . ∧ vl ) := u1 ∧ u2 ∧ . . . ∧ uk ∧ v1 ∧ v2 ∧ . . . ∧ vl
(∈ ∧k+l V ).
Si verifica che:
(u1 ∧ u2 ∧ . . . ∧ uk ) ∧ (v1 ∧ v2 ∧ . . . ∧ vl ) = (−1)kl (v1 ∧ v2 ∧ . . . ∧ vl ) ∧ (u1 ∧ u2 ∧ . . . ∧ uk ).
1.3.4 L’azione di GL(V ) su ∧k V . Sia A ∈ GL(V ), allora abbiamo definito in 1.1.13
ρk (A) : V ⊗k −→ V ⊗k ,
x1 ⊗ . . . ⊗ xk 7−→ (Ax1 ) ⊗ . . . ⊗ (Axk ).
1 ALGEBRA MULTILINEARE
25
Si noti che ρn (A)(Ik ) = Ik , perché se xi = xi+1 anche Axi = Axi+1 . Quindi ρn (A) induce una
mappa lineare ‘ben definita’
ρ[k] (A) : ∧k V −→ ∧k V,
x1 ∧ . . . ∧ xk 7−→ (Ax1 ) ∧ . . . ∧ (Axk ).
Poiché ρk è un omomorfismo, otteniamo, per ogni k, un omomorfismo
ρ[k] : GL(V ) −→ GL(∧k V ),
ρ[k] (AB) = ρ[k] (A)ρ[k] (B).
Si verifica che se n = dim V allora ρ[n] (A) = det(A).
1.3.5 Il duale di ∧k V . Ci sono due modi comodi per descrivere lo spazio vettoriale (∧k V )∗ ,
lo spazio duale di ∧k V .
Dato l1 , . . . , lk ∈ V ∗ e v1 , . . . , vk ∈ V , definiamo un’applicazione multilineare
a : V ∗ × . . . × V ∗ × V × . . . × V −→ R,
(l1 , . . . , lk , v1 , . . . , vk ) 7−→ det(A),
A = (li (vj )),
cioè A è la matrice k × k con coefficienti i numeri reali Aij := li (vj ). La multilinearità di a
permette di definire un’applicazione bilineare
a0 : (V ∗ )⊗k × V ⊗k −→ R,
a0 (l1 ⊗ . . . ⊗ lk , v1 ⊗ . . . ⊗ vk ) = a(l1 , . . . , lk , v1 , . . . , vk ).
Si noti che a0 (l1 ⊗. . .⊗lk , v1 ⊗. . .⊗vk ) = 0 se vi = vi+1 (in tal caso due colonne di A sono uguali)
e anche se li = li+1 (in tal caso due righe di A sono uguali). Quindi a0 è zero su Ik ⊂ V ⊗k e su
Ik∗ ⊂ (V ∗ )⊗k (definito in modo analogo). Quindi a0 definisce un’applicazione bilineare:
ã : ∧k (V ∗ ) × ∧k V −→ R,
ã(l1 ∧ . . . ∧ lk , v1 ∧ . . . ∧ vk ) = a(l1 , . . . , lk , v1 , . . . , vk ).
Si scrive di solito (l1 ∧ . . . ∧ lk )(v1 ∧ . . . ∧ vk ) := a(l1 , . . . , lk , v1 , . . . , vk ), in modo esplicito:
X
(σ)l1 (vσ(1) )l2 (vσ(2) ) · . . . · lk (vσ(k) )
(l1 ∧ . . . ∧ lk )(v1 ∧ . . . ∧ vk ) =
σ∈Sk
dove Sk è il gruppo simmetrico e (σ) è il segno della permutazione σ ∈ Sk .
Sia e1 , . . . , en una base di V e sia 1 , . . . n la base duale di V ∗ . Allora gli eI = ei1 ∧ . . . ∧ eik
sono una base di ∧k V e gli J = j1 ∧ . . . ∧ jk sono una base di ∧k (V ∗ ). Si ha:
1 se I = J,
J (eI ) =
0 se I 6= J,
perché la matrice jk (eil ) è l’identità I se I = J; se I 6= J esiste un ia ∈ I, ia 6∈ J e quindi
jk (eia ) = 0 per ogni jk ∈ J e perciò det(jk (eil )) = 0. Questo mostra che le applicazioni lineari
J : ∧k V → R sono la base duale della base data dalle eI , e quindi
∼
=
∧k (V ∗ ) −→ (∧k V )∗ ,
l1 ∧ . . . ∧ lk 7−→ [v1 ∧ . . . ∧ vk 7−→ (l1 ∧ . . . ∧ lk )(v1 ∧ . . . ∧ vk )].
1 ALGEBRA MULTILINEARE
26
Un’altro modo per ottenere lo spazio (∧k V )∗ è il seguente. Lo spazio vettoriale ∧n V è uno
dimensionale. Si scelga un isomorfismo f : ∧n V → R. Allora si ha un isomorfismo
∼
=
∧n−k V −→ (∧k V )∗ ,
u1 ∧ . . . ∧ un−k 7−→ [v1 ∧ . . . ∧ vk 7−→ f (u1 ∧ . . . ∧ un−k ∧ v1 ∧ . . . ∧ vk )].
Si noti che se J ⊂ {1, . . . , n} è il complemento di I = {i1 , . . . , ik }, allora eJ ∈ ∧n−k V soddisfa
eJ ∧ eI = ±e1 ∧ . . . ∧ en 6= 0 ∈ ∧n V ; mentre se I e J hanno un elemento in comune si ha
eJ ∧ eI = 0. Quindi, a meno di moltiplicazione per scalari, gli eJ , con |J| = n − k, sono la base
duale della base di ∧k V data dalle eI con |I| = k.
1.3.6 Orientazione. Sia V uno spazio vettoriale reale di dimensione n. Lo spazio vettoriale
∧n V è unidimensionale, quindi isomorfo a R, e perciò (∧n V )−{0} ha due componenti connesse.
Un’orientazione su V è la scelta di una componente connessa di (∧n V ) − {0}. Una base ei di V
è detta orientata se e1 ∧. . .∧en è un elemento nella componente connessa data dall’orientazione.
Per esempio, se ei è la base standard di V = Rn , un’orientazione di V è data dalla componente connessa a cui appartiene e1 ∧ . . . ∧ en . La base e2 , e1 , e3 , . . . , en di V è allora non
orientata in quanto e2 ∧ e1 ∧ e3 ∧ . . . ∧ en = −e1 ∧ . . . ∧ en non giace nella componente connessa
determinata dall’orientazione.
1.3.7 L’operatore di Hodge. Sia V uno spazio vettoriale reale orientato di dimensione n
dotato di un prodotto scalare (, ). Definiamo un’ applicazione lineare, chiamata operatore di
Hodge:
∗ : ∧k V −→ ∧n−k V,
∗eI = I,J eJ ,
dove e1 , . . . en è una base ortonormale orientata di V , I = {i1 , . . . , ik }, J = {j1 , . . . , jn−k } e
I ∪ J = {1, . . . , n}, ed I,J ∈ {±1} è tale che
I,J (eI ∧ eJ ) = I,J (ei1 ∧ . . . ∧ eik ) ∧ (ej1 ∧ . . . ∧ ejn−k ) = e1 ∧ . . . ∧ en .
Si può mostrare che ∗ non dipende dalle scelta della base ortonormale orientata. La mappa ∗
è un isomorfismo per ogni k, 0 ≤ k ≤ n.
Per esempio, se definiamo un’orientazione su R3 con la scelta della componente connessa
sulla quale giace e1 ∧e2 ∧e3 , dove ei è la base standard, e prendiamo il prodotto scalare standard,
allora otteniamo per ∗ : ∧2 R3 → ∧1 R3 = R3 :
∗(e1 ∧ e2 ) = e3 ,
∗(e1 ∧ e3 ) = −e2 ,
∗(e2 ∧ e3 ) = e1 ,
(si noti: (e1 ∧ e3 ) ∧ e2 = −e1 ∧ e2 ∧ e3 , cioè {1,3},{2} = −1, quindi ∗(e1 ∧ e3 ) = −e2 ).
Per x = (x1 , x2 , x3 ), y = (y1 , y2 , y3 ) ∈ R3 si ha:
x ∧ y = (x1 y2 − x2 y1 )(e1 ∧ e2 ) + (x1 y3 − x3 y1 )(e1 ∧ e3 ) + (x2 y3 − x3 y2 )(e2 ∧ e3 ),
quindi
∗(x ∧ y) = (x2 y3 − x3 y2 )e1 − (x1 y3 − x3 y1 )e2 + (x1 y2 − x2 y1 )e3 = x × y,
dove x × y è il prodotto vettoriale.
Il caso Minkowskiano.
1 ALGEBRA MULTILINEARE
27
In alcune applicazioni fisiche lo spazio vettoriale non è dotato di un prodotto scalare ma solamente di una forma simmetrica non degenere η di segnatura non definita. Un tipico esempio è
lo spazio-tempo minkowskiano. È possibile ugualmente definire il duale di Hodge in base alla
seguente osservazione. La forma η, essendo non degenere, induce un isomorfismo naturale8 tra
V e il suo duale V ∗ :
η̃ : V −→ V ∗
v 7−→ η̃(v);
η̃(v)[w] = η(v, w) , ∀w ∈ V .
Tale isomorfismo si estende in modo ovvio ad un isomorfismo Λη̃ tra ΛV e ΛV ∗ , con
(∧k η̃)(w1 , . . . , wk ) = η̃(w1 ) ∧ . . . ∧ η̃(wk ).
Essendo η simmetrica e non degenere, essa avrà un numero p si autovalori positivi ed un numero
q di autovalori negativi, tali che p + q = n := dim(V ). Si dice che la forma ha segnatura (p, q)
o anche che la segnatura è s = p − q. Una base {ei }ni=1 ⊂ V si dice ortonormale se

se i 6= j
 0
1
se i = j ≤ p
η(ei , ej ) =

−1
se i = j > p .
Fissata una base ortonormale orientata {ei }ni=1 , sia ε ∈ Λn V ∗ l’unico elemento individuato
da ε(e1 , . . . , en ) = 1. Si dimostra che non dipende dalla scelta della base. Esso genera degli
isomorfismi lineari
(k) : Λk V −→ Λn−k V ∗ , v1 ∧ . . . ∧ vk 7→ (k) (v1 ∧ . . . ∧ vk ) ,
∀v1 , . . . , vk ∈ V ,
dove
(k) (v1 ∧ . . . ∧ vk )[w1 , . . . , wn−k ] := ε(v1 . . . vk , w1 , . . . , wn−k ) .
Otteniamo allora un operatore ∗ : Λk V → Λn−k V definito da ∗ = (∧n−k η̃)−1 ◦ (k) . Tale mappa
coincide con l’operatore di Hodge se η è definita positiva e ne costituisce la definizione nel caso
in cui η sia semplicemente nondegenere. Si noti che ∗∗ = (−1)q id.
Si noti infine che η induce una forma bilineare nondegenere su V ∗ che si può usare per definire
il duale di Hodge per ΛV ∗ . Si ottiene facilmente che sul duale ∗ = (k) ◦ ∧k η̃ (esercizio).
8
cioè indipendente dalla scelta di una base
2 RAPPRESENTAZIONI DI GRUPPI FINITI
2
28
Rappresentazioni di gruppi finiti
Testi consigliati: [A], [FH], [S].
2.1
Teoria generale
2.1.1 Rappresentazioni e applicazioni equivarianti. Sia G un gruppo finito, sia V uno
spazio vettoriale reale (o complesso) di dimensione finita e sia
ρ : G −→ GL(V )
un omomorfismo. Un tale omomorfismo è detto rappresentazione di G in V .
Siano ρ : G → GL(V ) e τ : G → GL(W ) due rappresentazioni di un gruppo G sugli spazi
vettoriali complessi V, W . Un’applicazione lineare f : V → W è detta G-equivariante (oppure
G-invariante, vedi 2.2.3) se f (ρ(g)v) = τ (g)f (v) per ogni g ∈ G e v ∈ V . Si scrive:
HomG (V, W ) = {f ∈ Hom(V, W ) : f (ρ(g)v) = τ (g)f (v) ∀g ∈ G, v ∈ V }.
Le rappresentazioni ρ e τ sono dette isomorfe (oppure equivalenti) se esiste una f ∈
HomG (V, W ) che è un ismorfismo f : V → W di spazi vettoriali. In tale caso si ha:
f ρ(g) = τ (g)f , cioè f ρ(g)f −1 = τ (g) per ogni g ∈ G.
In particolare, se S : V → V è un’applicazione lineare invertibile, e se ρ : G → GL(V ) è una
rappresentazione, allora τ : G → GL(V ), definita da τ (g) := Sρ(g)S −1 è una rappresentazione
isomorfa a ρ.
2.1.2 Sottospazi invarianti. Un sottospazio W ⊂ V è detto G-invariante se ρ(g)(W ) ⊂ W
per ogni g ∈ G.
Una rappresentazione ρ di G in V , V 6= {0}, è detta irriducibile se non ci sono sottospazi
G-invarianti diversi da W = {0} e W = V .
Un risultato fondamentale è:
2.1.3 Teorema. Sia ρ una rappresentazione di un gruppo finito G in V , allora V è una somma
diretta di sottorappresentazioni irriducibili.
2.1.4 Prodotti scalari invarianti. Per la dimostrazione del teorema, vedi per esempio [A],
Corollario (4.9) del Capitolo 9. Si mostra prima che esiste su V un prodotto scalare invariante
per G, cioè (x, y) = (ρ(g)x, ρ(g)y) per ogni x, y ∈ V e g ∈ G. Dato questo, segue facilmente
che se W ⊂ V è G-invariante, allora anche W ⊥ è G-invariante e il teorema segue.
Il fatto che ogni ρ(g) preserva un prodotto scalare, cioè che ρ(g) è unitario, implica che ρ(g)
è diagonalizzabile.
È interessante notare che un prodotto scalare G-invariante esiste più in generale se G è un
gruppo di Lie compatto. Il trucco di unitarietà Weyl (Weyl’s unitarity trick), che si usa per
mostrare la completa riducibilità di rappresentazioni di gruppi e algebre di Lie semisemplici,
sfrutta tale costruzione.
2 RAPPRESENTAZIONI DI GRUPPI FINITI
29
2.1.5 Esempio. Sia G = S2 il gruppo delle permutazioni di due elementi.
rappresentazione ρ di G su uno spazio vettoriale V si decompone in G-rappresentazioni
V = V1 ⊕ V ,
V1 = {v ∈ V : ρ(g)v = v ∀g ∈ G},
Una
V = {v ∈ V : ρ((12))v = −v },
infatti ogni v ∈ V si scrive come v = (v + ρ(12)v)/2 + (v − ρ(12)v)/2.
Ogni sottospazio di V1 (e di V ) è G-invariante. Invece, se x ∈ V1 , y ∈ V sono entrambi
non nulli, allora hx + yi non è una sottorappresentazione, perché ρ((12))(x + y) = x − y e
x − y 6∈ hx + yi. Ogni sottospazio 1-dimensionale di V1 (e di V ) è una rappresentazione
irriducibile di G. Si noti che, a meno di isomorfismi, G ha soltanto due rappresentazioni
irriducibili, entrambe hanno dimensione 1 e una è banale (ρ(g) = 1 per ogni g ∈ G), mentre
per l’altra si ha ρ(e) = 1, ρ((12)) = −1, quindi coincide con il segno : S2 → {±1} ⊂ GL(C).
2.1.6 Esempio. Sia G = Sm e sia V = Rm . Si definisce una rappresentazione di G in V
ponendo
ρ : G −→ GL(V ),
ei 7−→ eσ(i) ,
dove e1 , . . . , em è la base standard di Rm . Il sottospazio
W = he1 + e2 + . . . + em i
è G-invariante perché gli ei sono permutati tra di loro da ogni g ∈ G. La rappresentazione di
G su W è banale e, poichè dim W = 1, W è una rappresentazione irriducibile di G.
Sia (·, ·) il prodotto scalare standard su Rm , allora è facile vedere che (ρ(g)x, ρ(g)y) = (x, y)
per ogni g ∈ G e x, y ∈ V . Quindi questo prodotto scalare è G-invariante e perciò W ⊥ è un
sottospazio G-invariante.
2.1.7 Il Lemma di Schur. Il seguente lemma è uno strumento fondamentale per lo studio
delle rappresentazioni.
2.1.8 Lemma (Lemma di Schur.) Siano ρ : G → GL(V ) e τ : G → GL(W ) due rappresentazioni irriducibili di un gruppo G su spazi vettoriali complessi V, W . Sia f ∈ HomG (V, W ),
cioè f è un’applicazione G-equivariante. Allora
1. f = 0 oppure f è un isomorfismo,
2. se V = W e ρ = τ , allora f = λI, la moltiplicazione per uno scalare λ.
Dimostrazione. Si noti che ker(f ) e im(f ) sono sottospazi G-invarianti di V e di W rispettivamente. Infatti, se v ∈ ker(f ), cioè f (v) = 0, allora τ (g)f (v) = 0 e quindi f (ρ(g)v) = 0, perciò
anche ρ(g)v ∈ ker(f ). Similmente, se w ∈ im(f ), allora w = f (v) per un certo v ∈ V e quindi
τ (g)w = τ (g)f (v) = f (ρ(g)v), cioè τ (g)w è l’immagine di ρ(g)v ∈ V e perciò τ (g)w ∈ im(f ).
Poiché V è irriducibile, si ha ker(f ) = V oppure ker(f ) = {0}. Nel primo caso f è zero.
Nel secondo caso, f è iniettiva e V ∼
= im(f ) è un sottospazio G-invariante, non-zero, di W , che
è irriducibile, quindi im(f ) = W e perciò f è anche suriettiva. Segue che f è un isomorfismo.
2 RAPPRESENTAZIONI DI GRUPPI FINITI
30
Sia V = W e ρ = τ . L’applicazione f : V → V è lineare, sia λ ∈ C un autovalore di f .
Allora f − λI è un endomorfismo di V che è G-equivariante perché f lo è e (λI)A = A(λI) per
ogni applicazione lineare A : V → V , in particolare per A = ρ(g). Quindi ker(f − λI) è un
sottospazio G-invariante non nullo e perciò ker(f − λI) = V . Segue che f = λI.
2
2.2
Caratteri
2.2.1 Il carattere di una rappresentazione. Sia ρ : G → GL(V ) una rappresentazione di
G. Definiamo un’applicazione, il carattere di ρ,
χ = χρ : G −→ C,
χ(g) := Tr(ρ(g))
dove Tr(A) è la traccia
Pdell’applicazione lineare A : V → V (cioè, se A è data da una matrice
(aij ), allora T r(A) = i aii ).
Si noti che se τ : G → GL(V ) è una rappresentazione e A ∈ GL(V ) è un isomorfismo tra
ρ e τ , cioè A(ρ(g)v) = τ (g)Av per ogni v ∈ V , allora τ (g) = Aρ(g)A−1 e quindi χρ = χτ . Il
carattere dipende quindi soltanto della classe di isomorfismo di una rappresentazione.
Alcune proprietà di base di un carattere sono:
2.2.2 Lemma. Sia ρ : G → GL(V ) una rappresentazione di un gruppo finito G con carattere
χ = χρ . Allora:
1. χ(e) = dim V , dove e ∈ G è l’elemento neutro.
2. χ(g) = χ(hgh−1 ) per ogni g, h ∈ G, cioè, χ è costante sulle classi di coniugio di G.
3. χ(g −1 ) = χ(g), il coniugato complesso.
4. Se τ : G → GL(W ) è una rappresentazione, allora il carattere della rappresentazione
ρ ⊕ τ : G → V ⊕ W è χρ + χτ . Il carattere della rappresentazione ρ ⊗ τ : G → V ⊗ W è
χρ χτ .
Dimostrazione. Poiché ρ(e) = I, la matrice identità n × n dove n = dim V , segue
χ(e) = Tr(I) = n. La seconda proprietà segue da ρ(hgh−1 ) = ρ(h)ρ(g)ρ(h)−1 e il fatto che
Tr(SAS −1 ) = T r(A). Per mostrare la terza proprietà, consideriamo una base di V rispetto alle
quale ρ(g) è diagonale. Poiché G è finito si ha g N = e per un certo N . Perciò ρ(g)N = I e
con un semplice ragionamento si vede che gli autovalori λ1 , . . . , λn di ρ(g) sono radici dell’unità
−1
N -esime: λN
= λi . Gli autovalori di ρ(g −1 ) = ρ(g)−1 sono
i = 1 per i = 1, . . . , n e quindi λi
−1
allora λi = λi . Perciò
−1
χ(g −1 ) = Tr(ρ(g)−1 ) = λ−1
1 + . . . + λn = λ1 + . . . + λn = χ(g).
L’ultima proprietà segue considerando delle basi ei , fj di V , W su cui ρ(g) e τ (g) sono dati da
matrici diagonali (vedi 2.1.4). Se ρ(g)ei = λi ei , ρ(g)fj = µj fj allora ei ⊗ fj 7→ λi µj (ei ⊗ fj ). La
2 RAPPRESENTAZIONI DI GRUPPI FINITI
31
traccia di ρ(g) ⊗ τ (g) è allora
χρ⊗τ (g) = Tr(ρ(g) ⊗ τ (g)) =
X
X
X
λi µj = (
λi )(
µj ) = χρ (g)χτ (g).
i,j
i
j
2
Il caso ρ ⊕ τ è più semplice.
2.2.3 Applicazioni equivarianti e invarianti. Si ricordi che Hom(V, W ) ∼
= V ∗ ⊗ W dove
V ∗ = HomC (V, C) è lo spazio duale dello spazio vettoriale complesso V . La rappresentazione
ρ su V definisce una rappresentazione duale ρ∗ su V ∗ data da ρ∗ (g)l = l ◦ ρ(g)−1 = l ◦ ρ(g −1 ).
Rispetto ad una base si ha ρ∗ (g) = t ρ(g)−1 = t ρ(g −1 ). Poiché Tr(A) = Tr(t A) otteniamo dal
Lemma 2.2.2
ρ∗ : G −→ V ∗ = HomC (V, C).
χρ∗ = χρ ,
Otteniamo una rappresentazione di G su Hom(V, W ) data da:
ρ∗ ⊗ τ : G −→ Hom(V, W ),
g 7−→ [f 7−→ [v 7→ τ (g)f (ρ(g)−1 v)]]
Si noti che un elemento f ∈ Hom(V, W ) è invariante per G se τ (g)f (ρ(g)−1 v) = f (v) per ogni
v ∈ V e g ∈ G. Questa identità, per g −1 invece di g, è equivalente a f (ρ(g)v) = τ (g)f (v), cioè,
f ∈ HomG (V, W ).
Per questo motivo un’applicazione G-equivariante è anche detta G-invariante.
2.2.4 Proiettori e idempotenti. Un elemento p in un algebra A è detto idempotente
se p2 = p. Nel caso in cui A = End(V ) un idempotente è anche detto un proiettore, cioè
un’applicazione lineare P : V → V è un proiettore se P 2 = P .
2.2.5 Lemma. Sia P ∈ End(V ) è un proiettore, allora
V = im(P ) ⊕ im(I − P ),
e im(I − P ) = ker(P ).
In più, anche I − P è un proiettore e si ha ker(P ) = im(I − P ).
Dimostrazione. Si noti che (I − P )(I − P ) = I − P − P + P 2 = I − P , quindi I − P
è un proiettore. Per mostrare la decomposizione di V , si noti che v = (P v) + (I − P )v per
ogni v ∈ V , quindi V = im(P ) + im(I − P ). Poi se x ∈ imP , quindi x = P y per un certo
y ∈ V , allora P 2 = P implica che P x = P 2 y = P y = x, quindi P x = x, cioè P è l’identità
sul sottospazio imP . Se x ∈ im(I − P ), quindi x = (I − P )z per un certo z ∈ V , allora
P x = P (I − P )z = (P − P 2 )z = 0. Se v ∈ im(P ) ∩ im(I − P ), allora si ha P v = v e P v = 0,
quindi v = 0. Si noti che rispetto a questa decomposizione l’applicazione P è data da:
P : v = vP + vI−P 7−→ vP ,
vP = P v ∈ imP,
vI−P = (I − P )v ∈ im(I − P ).
2
Da ciò segue che im(I − P ) = ker(P ).
2.2.6 Lo spazio degli invarianti. Sia ρ : G → GL(V ) una rappresentazione di un gruppo
su uno spazio vettoriale V . Lo spazio degli invarianti è
V G := {v ∈ V : ρ(g)v = v
∀g ∈ G}.
2 RAPPRESENTAZIONI DI GRUPPI FINITI
32
Come appena visto, Hom(V, W )G = HomG (V, W ).
P
Sia G un gruppo finito. Se v ∈ V G allora ρ(g)v = v e quindi g∈G ρ(g)v = v +. . .+v = |G|v
dove |G| è l’ordine di G. Definiamo:
Π = Π0 : V −→ V,
Π=
1 X
ρ(g).
|G| g∈G
Allora per v ∈ V G si ha Πv = v. In più, per ogni v ∈ V is ha Πv ∈ V G perché per ogni h ∈ G:
!
!
1 X
1 X
ρ(h)ρ(g) v =
ρ(hg) v = Πv
ρ(h)(Πv) =
|G| g∈G
|G| g∈G
(si noti che se g varia in G anche hg, per h ∈ G fissato, varia in G). L’applicazione lineare Π è
quindi un proiettore su V G : Π2 = Π, perché ΠV ⊂ V G e Π è l’identità su V G . Quindi
V = im(Π) ⊕ ker(Π) = V G ⊕ ker(Π),
v = (Πv, (I − Π)v).
Se prendiamo una base e1 , . . . , ek di V G e una base ek+1 , . . . , en di ker(Π) otteniamo una base
e1 , . . . , en di V rispetto alla quale la matrice P di Π ha tutti i coefficienti ugali a zero tranne
P11 = P22 = . . . = Pkk = 1. In particolare Tr(Π) = dim V G . D’altra parte,
dim V G = Tr(Π) = Tr(
1 X
1 X
1 X
ρ(g)) =
Tr(ρ(g)) =
χ(g).
|G| g∈G
|G| g∈G
|G| g∈G
Questa formula, in combinazione con il Lemma di Schur ha delle consequenze notevoli.
Si noti che se G = S2 , allora Πv = (v + ρ((12))v)/2 e (I − Π)v = (v − ρ((12))/2. Abbiamo
già usato queste applicazioni nell’Esempio 2.1.5.
2.2.7 Caratteri irriducibili. Per studiare i caratteri delle rappresentazioni irriducibili,
detti caratteri irriducibili, sfruttiamo il Lemma di Schur 2.1.7 che dà, per le rappresentazioni
irriducibili ρ : G → V , τ : G → W :
1 se V ∼
= W,
dim HomG (V, W ) =
∼
0 se V 6= W.
Il risultato della sezione 2.2.6 precendente, applicato alla rappresentazione ρ∗ ⊗ τ di G su
Hom(V, W ) ci dà:
dim HomG (V, W ) =
1 X
1 X
χρ∗ ⊗τ (g) =
χρ (g)χτ (g).
|G| g∈G
|G| g∈G
Questo suggerisce di definire, per un gruppo finito G, un prodotto scalare (Hermitiano) (·, ·)
sullo spazio vettoriale complesso delle funzioni α : G → C dato da
(α, β) :=
1 X
α(g)β(g).
|G| g∈G
2 RAPPRESENTAZIONI DI GRUPPI FINITI
33
Allora i caratteri irriducibili χ : G → C di G sono ortonormali per questo prodotto scalare: se
ρ : G → GL(V ) e τ : G → GL(W ) sono rappresentazioni irriducibili allora
1 X
1 se ρ ∼
= τ,
α(g)β(g) = dim HomG (V, W ) =
(χρ , χτ ) =
∼
0 se ρ 6= τ.
|G|
g∈G
In particolare, i caratteri delle rappresentazioni irriducibili sono indipendenti, perciò il numero delle rappresentazioni irriducibili di un gruppo finito è al più |G|, la dimensione dello
spazio delle funzioni G → C. In realtà, un carattere è costante sulle classi di coniugio (2.2.2.2),
e quindi il numero delle rappresentazioni irriducibili è al più il numero delle classi di coniugio
di G. Mostreremo l’ugualianza in 2.2.12.
Per esempio, se G = S3 , le classi di coniugio sono (vedi anche 2.3.3)
{e},
{(12), (13), (23)},
{(123), (132)},
quindi S3 , che ha 6 elementi, ha al più tre rappresentazioni irriducibili.
Il seguente lemma, di frequente uso, è una semplice conseguenza del Teorema 2.1.3 e
dell’ortonormalità dei caretteri irriducibili.
2.2.8 Lemma. Siano χ1 , . . . , χr i caratteri irriducibili di un gruppo finito G e sia ρi : G →
GL(Vi ) la rappresentazione irriducibile corrispondente: χi (g) = Tr(ρi (g)).
Sia ρ : G → V una rappresentazione di G. Allora la decomposizione di ρ in rappresentazioni
irriducibili è
V ∼
con ni = (χρ , χi ).
= V1n1 ⊕ V2n2 ⊕ . . . ⊕ Vrnr ,
Inoltre, si ha:
(χρ , χρ ) = n21 + n22 + . . . n2r .
Dimostrazione. Il Teorema 2.1.3 garantisce che V ∼
= V1n1 ⊕V2n2 ⊕. . .⊕Vrnr per certe ni ∈ Z≥0 .
Il carattere χρ di ρ è allora, vedi 2.2.2,4, il carattere n1 χ1 + . . . + nr χr . Per calcolare gli ni
sfruttiamo l’ortonormalità dei caratteri irriducibili:
X
(χρ , χi ) = (n1 χ1 + . . . + nr χr , χi ) =
nj (χj , χi ) = ni .
j
Dunque si ha:
(χρ , χρ ) = (n1 χ1 + . . . + nr χr , n1 χ1 + . . . + nr χr ) =
X
i,j
ni nj (χi , χj ) =
X
n2i .
i
2
2.2.9 Esempio: il gruppo S3 . Sia G = S3 il gruppo delle permutazioni di tre elementi e
sia ρ : S3 → W ⊥ ∼
= R2 la rappresentazione sul spazio perpendicolare a (1, 1, 1) ∈ R3 costruito
nell’Esempio 2.1.6. Poiché R3 = W ⊕ W ⊥ e W è la rappresentazione banale, quindi ρ(g) = 1
per ogni g ∈ S3 e perciò χW (g) = 1, abbiamo χρ = 1 + χW ⊥ . Ovviamente (vedi Lemma 2.2.2)
2 RAPPRESENTAZIONI DI GRUPPI FINITI
34
χW ⊥ (e) = dim W ⊥ = 2. Se g = (12) allora ρ(g) fissa e3 e permuta e1 ed e2 , quindi χρ ((12)) = 1
e χW ⊥ ((12)) = 0. Poiché un carattere è costante sulle classi di coniugio, si ha χW ⊥ (g) = 0 per
ognuno dei tre 2-cicli. Se g = (123), la traccia di ρ(g) è zero, e quindi χW ⊥ ((123)) = −1, e
questo vale anche per l’altro 3-ciclo (132). Da qui segue:
6
1
(χW ⊥ , χW ⊥ ) = (22 + 3 · 02 + 2 · (−1)2 ) = = 1.
6
6
La conclusione è chePχW ⊥ è una rappresentazione irriducibile,
P 2 perché nella decomposizione in
irriducibili χW ⊥ =
ni χi come nel Lemma 2.2.8 si ha
ni = 1 e quindi esattamente una
delle ni è 1 e le altre sono zero.
Adesso conosciamo tre rappresentazioni irriducibili di S3 : la rappresentazione banale, con
carattere χ0 (g) = 1 per ogni g ∈ S3 , la rappresentazione data dal segno di una permutazione,
: S3 → {±1} ⊂ GL(C), e la rappresentazione due dimensionale appena costruita. Di solito, i
caratteri irriducibile sono messi in una tabella dei caratteri come qui sotto.
S3
χ0
χ
χW ⊥
{e}
1
1
2
{(12), (23), (13)}
1
-1
0
{(123), (132)}
1
1
-1
Il prodotto scalare è dato da (1/6)(a1 b1 + 3a2 b2 + 2a3 b3 ) dove (a1 , a2 , a3 ) e (b1 , b2 , b3 ) sono due
righe di questa matrice. Si verifica facilmente l’ortonormalità dei caratteri irriducibili.
2.2.10 La rappresentazione regolare. Per trovare il numero delle rappresentazioni irriducibili si studia la rappresentazione regolare di un gruppo finito G. Si consideri lo spazio
vettoriale C[G], di dimensione |G|, con vettori di base gli eg dove g varia in G. È facile verificare
che si ha una rappresentazione
ρ = ρR : G −→ GL(C[G]),
ρ(g)eh = egh .
Poiché egh = eh se e solo se g = e, il carattere di questa rappresentazione è particolarmente
semplice:
|G| se g = e,
χR (g) := χρR (g) =
0
se g 6= e.
Nella decomposizione in irriducibili C[G] = V1n1 ⊕ V2n2 ⊕ . . . ⊕ Vrnr (cf. Lemma 2.2.8) si ha
allora:
1 X
χR (g)χi (g) = χi (e) = dim Vi ,
ni = (χR , χi ) =
|G| g∈G
cioè ogni rappresentazione irriducibile compare in ρR con moltiplicità uguale alla sua
dimensione! Un altro risultato è:
|G| = dim C[G] = dim(V1n1 ⊕ V2n2 ⊕ . . . ⊕ Vrnr ) = (dim V1 )2 + . . . + (dim Vr )2 ,
che dà, per esempio, una stima della dimensione di una rappresentazione irriducible di G.
2 RAPPRESENTAZIONI DI GRUPPI FINITI
35
2.2.11 Lo spazio generato dai caratteri. Sia ρ : G → GL(V ) una rappresentazione di un
gruppo finito e sia α : G −→ C una funzione che è costante sulle classi di coniugio. Definiamo
un endomorfismo di V con:
X
Φα,ρ : V −→ V,
Φα,ρ =
α(g)ρ(g).
g∈G
Allora Φα,ρ è G-equivariante:
Φα,ρ ρ(h) =
X
g∈G
α(g)ρ(g)ρ(h) =
X
α(g)ρ(gh),
g∈G
ed inoltre si noti che gh = h(h−1 gh) e che, per ipotesi, α(g) = α(h−1 gh) quindi:
X
X
X
Φα,ρ (ρ(h)v) =
α(g)ρ(gh) =
α(h−1 gh)ρ(h)ρ(h−1 gh) = ρ(h)
α(g)ρ(g) = ρ(h)Φα,ρ
g∈G
g∈G
g∈G
dove abbiamo usato che h−1 gh varia in tutto G se g varia in tutto G.
Supponiamo adesso che una funzione α : G → C sia costante sulle classi di coniugio e
che (α, χi ) = 0 per ogni rappresentazione irriducibile di G. Per il Lemma di Schur, per ogni
rappresentazione irriducibile ρi di G si ha Φα,ρi = λi I per un certo numero complesso λi . Quindi
Tr(Φα,ρi ) = ni λi dove ni = dim Vi :
λi =
1 X
|G|
1
Tr(Φα,ρi ) =
(α, χi ).
α(g)Tr(ρi (g)) =
ni
ni g∈G
ni
Poiché (α, χi ) = 0 per ipotesi, abbiamo allora λi = 0 e quindi Φα,ρi = 0 per ogni rappresentazione irriducibile di G. Perciò Φα,ρ è zero per ogni rappresentazione ρ di G. Però nella rappresentazione regolare ρR le matrici ρR (g) sono indipendenti in End(C[G]), per esempio ρR (g) è
l’unica matrice per cui il coefficiente ρg,e 6= 0 (questo perché ρ(h)ee = eh , quindiPla prima colonna
di ρ(h) ha un unico coefficiente 1 e gli altri zero). In particolare, se Φα,ρR = g α(g)ρR (g) = 0
allora α(g) = 0 per ogni g ∈ G e quindi α = 0. Pertanto, ogni funzione α : G → C che è
costante sulle classi di coniugio è contenuta nello spazio vettoriale generato dai caratteri delle
rappresentazioni irriducibili. Poiché questi caratteri sono ortonormali si ha:
2.2.12 Teorema. I caratteri irriducibili formano una base ortonormale dello spazio vettoriale
delle funzioni G → C che sono costanti sulle classi di coniugio.
In particolare, il numero delle rappresentazioni irriducibili di G è uguale al numero delle
classi di coniugio di G.
2.2.13 Esempio: gruppi abeliani. Sia G un gruppo abeliano, cioè gh = hg per ogni
g, h ∈ G. Allora hgh−1 = g per ogni g, h ∈ G e quindi ogni elemento di G è una classe
di coniugio. Perciò il numero delle classi di coniugio è r = |G|, che è anche il numero delle
rappresentazioni irriducibili di G.
2 RAPPRESENTAZIONI DI GRUPPI FINITI
36
P
Poiché ri=1 n2i = |G|, dove gli ni sono le dimenionsioni delle rappresentazioni irriducibile
di G, ogni rappresentazione irriducibile di G ha dimensione uno(!).
2.2.14 Il groupring. Lo spazio vettoriale C[G] (vedi 2.2.10) è una C-algebra con
moltiplicazione:
X
X
X
X X
(
xg eg )(
yg eg ) =
xg yh egh =
(
xh yk )eg .
g,h
hk=g
Si noti che il prodotto non è commutativo se G non è commutativo. Questa algebra si chiama
il groupring di G. Una rappresentazione ρ : G → GL(V ) induce un omomorfismo di algebre:
X
X
ρ̃ : C[G] −→ End(V ),
xg eg 7−→
xg ρ(g).
Siano ρi : G → Vi (i = 1, . . . , r), le rappresentazioni irriducibili di G e sia
ρ := ⊕ri=1 ρi : G −→
r
Y
GL(Vi ).
i=1
Come abbiamo già notato, dim C[G] = |G| =
P
2
i (dim Vi ) =
P
i
dim End(Vi ) e l’omomorfismo
ρ̃ : C[G] −→ ⊕ri=1 End(Vi )
è un isomorfismo. Per mostrare questo, si ricordi che la rappresentazione regolare ρR su C[G]
è isomorfa a ⊕i Vini , dove i Vi sono le rappresentazioni irriducibili di G e ni = dim Vi . Quindi
esiste una matrice M ∈ GL(N ), con N = |G| = dim C[G], tale che
SρR (g)S −1 = diag(ρ1 (g), . . . , ρ1 (g), . . . , ρr (g), . . . , ρr (g))
{z
}
|
{z
}
|
n1
nr
è una matrice con blocchi diagonali. Il sottospazio di End(CN ) generato dalle SρR (g)S −1 ,
dove g varia in G, ha dimensione |G| perché S è invertibile e i ρR (g), dove g varia in G, sono
indipendenti (vedi 2.2.11). Quindi anche il sottospazio di End(CM ), con M = n1 +n2 +. . .+nr ,
generato dalle matrici
ρ̃(g) = diag(ρ1 (g), ρ2 (g), . . . , ρr (g)).
ha dimensione |G| e perciò ρ̃ è un isomorfismo di spazi vettoriali. Poiché ρ̃ è l’estensione Clineare di una rappresentazione di G si ha ρ̃(xy) = ρ̃(x)ρ̃(y), e quindi ρ̃ è un isomorfismo di
algebre. Vedi 2.4.2 per un esempio.
2.3
Le classi di coniugio di Sm
2.3.1 Classi di coniugio. Si ricordi che due elementi g, g 0 di un gruppo G sono detti coniugati
se esiste un h ∈ G tale che g 0 = hgh−1 . L’essere coniugati (o il coniugio) è una relazione di
2 RAPPRESENTAZIONI DI GRUPPI FINITI
37
equivalenza. Quindi le classi di equivalenza sono una partizione di G. Se C ⊂ G è un classe di
coniugio e g ∈ C è un qualunque elemento di C allora
C = Cg = {hgh−1 : h ∈ G}.
Per esempio, se G è un gruppo abeliano allora ogni classe di coniugio consiste di un solo
elemento perché hgh−1 = hh−1 g = g per ogni g, h ∈ G. Per ogni gruppo G la classe di coniugio
dell’elemento neutro e ∈ G ha un solo elemento: Ce = {e}.
2.3.2 Decomposizione di permutazioni in cicli. Si ricordi che il gruppo Sm è l’insieme delle
applicazioni biiettive g : {1, . . . , m} → {1, . . . , m} con prodotto la composizione (g1 g2 )(i) :=
g1 (g2 (i)) per ogni i ∈ {1, . . . , m}.
Un ciclo è un elemento g ∈ Sm tale che ci siano interi distinti i1 , . . . , ir ∈ {1, . . . , m} per i
quali
g(i1 ) = i2 ,
g(i2 ) = i3 , . . . , g( ir−1 ) = g(ir ),
g(ir ) = i1 ,
g(i) = i se i 6∈ {i1 , . . . , ir }.
Si scrive g = (i1 i2 . . . ir ), g è detto un r-ciclo e l’ordine del ciclo è |g| = r (questo è proprio
l’ordine dell’elemento g ∈ Sm ).
Ogni permutazione è un prodotto di cicli disgiunti ([A], Proposizione 6.6). Si noti che se
c, c0 sono due cicli disgiunti, allora commutano tra loro: cc0 = c0 c.
Per esempio, l’identità e è il prodotto di m uno cicli: e = (1)(2) . . . (m), e la decomposizione
in cicli della permutazione g ∈ S4 con
g(1) = 3 g(2) = 2,
g(3) = 4,
g(4) = 1 è
g = (134)(2).
Sia g ∈ Sm e sia g = c1 c2 . . . ck la decomposizione di g in cicli disgiunti. Sia mi = |ci | ∈ Z>0
l’ordine del ciclo ci , allora m = m1 + m2 + . . . + mk . Poiché ci cj = cj ci possiamo scrivere ogni
permutazione g ∈ Sm come prodotto di cicli disgiuni nel modo seguente:
g = c1 c2 . . . ck ,
|c1 | ≥ |c2 | ≥ . . . ≥ |cr |
la somma m = |c1 | + |c2 | + . . . + |cr | è detta partizione di un intero m associato ad g.
Per esempio g = (134)(2) dà la partizione 4 = 3 + 1 e l’identità di Sm dà la partizone
m = 1 + 1 + . . . + 1.
2.3.3 Le classi di coniugio di Sm . Sia c = (i1 i2 . . . ir ) ∈ Sm un r-ciclo e sia h ∈ Sm , allora
è facile determinare il coniugato hch−1 che risulta essere anch’esso un r-ciclo. Infatti si ha:
h(i1 i2 . . . ir )h−1 = (h(i1 ) h(i2 ) . . . h(ir )),
perché se i 6∈ {h(i1 ), . . . , h(ir )} allora h−1 (i) 6∈ {i1 , . . . , ir } e quindi (ch−1 )(i) = c(h−1 (i)) =
h−1 (i), perciò (hch−1 )(i) = h(h−1 (i)) = i; se invece i = h(ij ) per un certo j, allora (ch−1 )(i) =
c(ij ) = ij+1 (con j + 1 = 1 se j = r) e perciò (hch−1 (h(ij )) = h(ij+1 ).
2 RAPPRESENTAZIONI DI GRUPPI FINITI
38
Se g = c1 c2 . . . cr allora
hgh−1 = h(c1 c2 . . . cr )h−1 = (hc1 h−1 )(hc2 h−1 ) . . . (hcr h−1 ).
Quindi ogni elemento in una classe di coniugio di una permutazione che è prodotto di r cicli
con ordine m1 , . . . , mr è un prodotto di r cicli con ordine m1 , . . . , mr . In particolare gli elementi
in una classe di coniugio di Sm determinano la stessa partizione di m. Non è difficile verificare
che se due elementi in Sm determinano la stessa partizione, allora sono tra loro coniugati ([A],
Proposizione 6.10(c)).
Per esempio, siano g = (134)(2), g 0 = (1)(243) ∈ S4 . Entrambi due determinano la partizione 4 = 3 + 1. Allora g = hg 0 h−1 con h = (12)(34) perché hg 0 h−1 = (h(1))(h(2)h(4)h(3)) =
(2)(134) = g.
Quindi le classi di coniugio di Sm sono in biiezione con le partizioni di m. La classe di
coniugio determinata dalla partizione m = m1 + m2 + . . . + mr è indicato con Cm1 ,m2 ,...,mr .
Per esempio S3 ha tre classi di coniugio perché 3 ha esattamente tre partizioni:
3 = 3,
3 = 2 + 1,
3 = 1 + 1 + 1.
Le classe di coniugio di S3 sono (dove non scriviamo gli 1-cicli):
C3 = {(123), (132)},
C2,1 = {(12), (13), (23)},
C1,1,1 = {e}.
Il gruppo S4 ha 5 classi di coniugio perché 4 ha esattamente cinque partizioni:
4 = 4,
4 = 3 + 1,
4 = 2 + 2,
4 = 2 + 1 + 1,
4 = 1 + 1 + 1 + 1.
le classe di coniugio di S4 sono (dove non scriviamo gli 1-cicli):
C4 = {(1234), (1243), . . .},
C3,1 = {(123), (132), . . .},
C2,1,1 = {(12), (13), . . .},
C2,2 = {(12)(34), (13)(24), . . .}
C1,1,1,1 = {e}.
Lasciamo al lettore la verifica del fatto che il numero di elementi in ogni classe di coniugio è
dato da:
|C4 | = 6,
|C3,1 | = 8,
P
si noti che λ |Cλ | = |S4 | = 24.
|C2,2 | = 3,
|C2,1,1 | = 6,
|C1,1,1,1 | = 1,
2.3.4 Esempio. Date le classe di coniugio in S4 non è difficile trovare i caratteri irriducibili,
come abbiamo già fatto per S3 in 2.2.9. Ci sono la rappresentazione banale, con carattere
χ0 e il segno, con carattere χ . Poi c’è la rappresentazione 3 dimensionale ρ3 su W ⊥ (vedi
2.1.6), è facile trovare il suo carattere χW ⊥ e verificare che (χW ⊥ , χW ⊥ ) = 1, quindi χW ⊥ è un
carattere irriducibile. Poiché χW ⊥ ((12)) = 1, segue che la rappresentazione ρ3 tensorizzata con
ha un carattere, dato da χρ3 ⊗ (g) = χW ⊥ (g)χ (g) che è diverso da χW ⊥ e che risulta essere
irriducibile. Poi si trova il carattere di una quinta rappresentazione irriducile determinando
2 RAPPRESENTAZIONI DI GRUPPI FINITI
39
un vettore a = (a1 , . . . , a5 ) perpendicolare ai quattro caratteri già trovati e poi il carattere
mancante è dato da a0 = λa dove λa1 > 0 (sarebbe la dimensione della quinta rappresentazione)
e (a0 , a0 ) = 1. La tabella dei caratteri di S4 è quindi quella qui sotto, dove la prima riga dà la
cardinalità dei classi di coniugio.
S4
χ0
χ
χρ3
χρ3 ⊗
χρ2
1
C1,1,1,1
1
1
3
3
2
6
C2,1,1
1
-1
1
-1
0
3
C2,2
1
1
-1
-1
2
8
C3,1
1
1
0
0
-1
6
C4
1
-1
-1
1
0
Il carattere χρ2 di S4 è molto simile al carattere χW ⊥ di S3 (vedi 2.2.9). Infatti, esiste un
omomorfismo suriettivo φ : S4 → S3 tale che ρ2 è la composizione di φ con la rappresentazione
ρW ⊥ : S3 → GL(W ⊥ ). Per definire φ, si noti che S4 ha una classe di coniugio
C2,2 = {x1 = (12)(34), x2 = (13)(24), x3 = (14)(23)}
con soltanto 3 elementi. La coniugazione con g ∈ S4 induce una permutazione di questi elementi,
quindi esiste una permutazione σ degli indici 1, 2, 3 tale che gxi g −1 = xσ(i) . Ció definisce
un’applicazione
φ : S4 −→ S3 ,
g 7−→ σ se gxi g −1 = xσ(i)
e si verifca facilmente che φ è un omomorfismo. Un rapido conto mostra che:
φ((12)) = (23),
φ((123)) = (132),
φ((12)(34)) = e,
φ((1234)) = (13).
A questo punto è facile verificare che il carattere della rappresentazione ρW ⊥ ◦φ : S4 → GL(W ⊥ )
è χρ2 . Per n > 4 non ci sono omomorfismi suriettivi Sn → Sm con m > 2 (per m = 2 c’è il
segno perché S2 ∼
= {±1}).
2.4
Le rappresentazioni irriducibili del gruppo simmetrico
2.4.1 Sottospazi invarianti nel groupring. Ogni rappresentazione irriducibile ρ di un
gruppo finito G è presente, con molteplicità dim(ρ), nella rappresentazione regolare ρR del
gruppo (vedi 2.2.10) sul groupring C[G]. Per g ∈ G e x ∈ C[G] si ha ρR (g)x = gx, quindi, per
ogni y ∈ C[G] il sottospazio C[G]y ⊂ C[G] è G invariante, semplicemente perché se x ∈ C[G]y
allora x = zy per un certo z ∈ C[G] e
ρR (g)x = ρR (g)zy = ρR (g)zy = (gz)y
∈ C[G]y.
Usando l’isomorfismo del groupring con il prodotto di algebre di matrici di 2.2.14, non è difficile
mostrare che, dato ρ, esiste cρ ∈ C[G] tale che il sottospazio G-invariante C[G]cρ sia la rappresentazione irriducibile ρ di G. Nel caso del gruppo simmetrico, esistono espressioni esplicite per
tali elementi, che si chiamano ‘simmetrizzatori di Young’(‘Young symmetrizers’), vedi 2.4.3.
2 RAPPRESENTAZIONI DI GRUPPI FINITI
40
2.4.2 Esempio. Per dare un isomorfismo esplicito tra C[S3 ] e M1 (C) × M1 (C) × M2 (C),
determiniamo prima la rappresentazione ρ2 := ρW ⊥ : S3 → GL(2, C) in modo esplicito.
Una base di W ⊥ = h(1, 1, 1)i⊥ ⊂ C3 è data da f1 , f2 (e f1 + f2 + f3 = 0):
f1 = (2, −1, −1),
f2 = (−1, 2, −1),
f3 = (−1, −1, 2),
g fi = fg(i)
in particolare, S3 permuta gli fi . Le matrici dei ρ2 (g) rispetto a questa base sono:
0 1
−1 0
1 −1
ρ2 ((12)) =
, ρ2 ((13)) =
, ρ2 ((23)) =
0 −1
1 0
−1 1
e
ρ2 ((123)) =
0 −1
1 −1
,
ρ2 ((213)) =
−1 1
−1 0
,
e, ovviamente, ρ2 (e) = I. Otteniamo un isomorfismo
ρ̃ : C[S3 ] −→ M1 (C) × M1 (C) × M2 (C),
X
xg eg 7−→
X
xg (1, (g), ρ(g)).
Si noti che
ρ̃((12)) + ρ̃((13)) + ρ̃((23)) = (3, −3, 0),
ρ̃((123)) + ρ̃((132)) = (2, 2, −I).
Quindi troviamo:
(1, 0, 0) = (1/6)(
X
g∈S3
ρ̃(g)) = Π0 ,
(0, 1, 0) = (1/6)(
X
(g)ρ̃(g)) =: Π ,
g∈S3
dove riconosciamo il proiettore sullo spazio degli invarianti Π = Π0 (vedi 2.2.6). Si noti in
particolare che
C[G]Π0 ∼
(a, b, c) 7−→ (a, 0, 0)
= M1 (C),
dà la sottorappresentazione banale di C[g]. Similmente, il sottospazio G-invariante C[G]Π =
{(0, b, 0) : b ∈ C} di C[G] è la rappresentazione data dal segno. Il proiettore corrispondente
alla rapresentazione due dimensionale è:
(0, 0, I) = (2/3, 2/3, (2/3)I) − (2/3, 2/3, −(1/3)I)
= (2/3)ρ̃(e) − (1/3)(ρ̃((123)) + ρ̃((132))
=: Π2 .
Quindi il sottospazio G-invariante C[G]Π2 è isomorfo a M2 (C), che è 4-dimensionale. La rappresentazione di G = S3 su C[G]Π2 è isomorfa a due copie della rappresentazione irriducibile
ρ2 .
Se vogliamo un elemento c2 ∈ C[G] tale che C[G]c2 sia due dimensionale e tale che la
rappresentazione di S3 su questo sottospazio sia ρ2 , dobbiamo avere che ρ̃(c2 ) = (0, 0, P ) con
P una matrice di rango uno. Allora C[G]c2 ∼
= M2 (C)P , e si può mostrare che è costituita
dalle matrici 2 × 2 che hanno lo stesso nucleo (di dimensione uno) di P ed è un sottospazio
2 RAPPRESENTAZIONI DI GRUPPI FINITI
41
di dimensione due di M2 (C). Poiché questo sottospazio è G-invariante ed è contenuto nella
rappresentazione ρ2 ⊕ ρ2 , dà la rappresentazione ρ2 di G. Un esempio è:
c2 = e + e(13) − e(12) − e(123) ∈ C[S3 ],
ρ(c) = (0, 0, P ),
dove
P = ρ2 (c2 ) =
1 0
0 1
+
−1 0
−1 1
−
0 1
1 0
−
0 −1
1 −1
=
0 0
−3 3
.
2.4.3 Diagrammi di Young e simmetrizzatori di Young. Data una partizione di un
intero m ∈ Z>0 , m = m1 + . . . + mr , il suo diagramma di Young è una figura con m quadri, mi
nella i-esima riga, come negli esempi in figura:
,
3=1+1+1
,
4=4
.
8=4+3+1
Data la partizione λ = (m1 , . . . , mr ) di m, vogliamo costruire un elemento cλ in C[Sm ]. Per
questo, scriviamo i numeri 1, 2 . . . , m nel diagramma di Young come nell’esempio (in realtà,
cambiando l’ordine dei numeri si ottiene un elemento con proprietà simili e la rappresentazione
definita è la stessa).
1 ,
2
3
1 2 3 4 ,
1 4 6 8 .
2 5 7
3
Poi definiamo due sottogruppi di Sm associati alla partizione λ = (m1 , . . . , mr ) di m:
P = Pλ = {g ∈ Sm : g permuta gli elementi di ogni riga }
e
Q = Qλ = {g ∈ Sm : g permuta gli elementi di ogni colonna }.
Per esempio:
P1,1,1 = {e},
Q1,1,1 = S3 ;
P4 = S4 , Q4 = {e}.
Si ha P4,3,1 ∼
= S4 × S3 × S1 e Q4,3,1 ∼
= S3 × S2 × S2 × S1 (dove S1 = {e}), però S3 sottogruppo
di P4,3,1 permuta i tre elementi di {2, 5, 7} e fissa gli altri elementi in {1, . . . , 8}, invece i gruppi
simmetrici in Q permutano rispettivamente gli elementi di {1, 2, 3}, {4, 5}, {6, 7}, e fissano gli
altri.
2 RAPPRESENTAZIONI DI GRUPPI FINITI
42
Usando i sottogruppi P e Q associati alla partizione λ = (m1 , . . . , mr ) di m, definiamo due
elementi di C[G]:
X
X
aλ :=
eg ,
bλ :=
(g)eg ,
g∈P
g∈Q
dove : Sm → {±1} è il segno. Poi definiamo il ‘simmetrizzatore di Young’
cλ := aλ bλ
(∈ C[Sm ]).
Il risultato principale, che non dimostriamo, vedi [FH], Theorem 4.3, è:
2.4.4 Teorema. Sia λ = (m1 , . . . , mr ) una partizione di m. Allora il sottospazio Sm -invariante
del groupring C[Sm ] definito da cλ :
Vλ := C[Sm ]cλ
è una rappresentazione irriducibile, indicata con ρλ , di Sm .
In questo modo si ottiene una biiezione tra le partizioni di m e le rappresentazioni irriducibili
di Sm .
2.4.5 Esempio. Un esempio semplice è dato dalla partizione m = m. In questo caso P = Sm ,
Q = {e}, quindi
X
eg , bm = ee ,
quindi cm = am .
am =
g∈Sm
P
P
P
Poiché eh cm = g eh eg = g ehg = g eg = cλ , e gli eh sono una base di C[Sm ] troviamo che
C[Sm ]cm = Ccm , uno spazio unidimensionale. Poiché ρR (h)eg = ehg si ha ρR (h)cm = cm , perciò
Wm = C[Sm ]cm è la rappresentazione banale di Sm .
Se λ = (1, 1, . . . , 1), si ha P = {e}, quindi aλ = ee , e Q = Sm . Perciò
X
cλ = c(1,...,1) = b(1,...,1) =
(g)eg .
g
Si noti che
eh cλ =
X
g
(g)eh eg =
X
g
(g)ehg =
X
(h−1 k)ek = (h)cλ ,
k
dove k = hg varia in Sm se g varia in Sm e abbiamo usato che è un omomorfismo:
(xy) = (x)(y), (x−1 ) = (x)−1 . Segue che Wλ = C[Sm ]cλ = Ccλ è unidimensionale e
che la rappesentazione di Sm su Wλ è data da : Sm → GL(C) perché ρR (h)cλ = (h)cλ .
Nel caso λ = (2, 1), abbiamo:
P2,1 = {e, (13)},
Q2,1 = {e, (12)}
quindi a2,1 = ee + e(13) ,
bλ = ee − e(12) ,
perciò il simmetrizzatore di Young di λ è:
cλ = (ee + e(13) )(ee − e(12) ) = ee2 + e(13)e − ee(12) − e(13)(12) = ee + e(13) − e12) − e(123) ,
2 RAPPRESENTAZIONI DI GRUPPI FINITI
43
e questo è proprio l’elemento c2 di 2.4.2. In 2.4.2 abbiamo visto che C[S3 ]c2 è la rappresentazione
irriducibile, due dimensionale, di S3 . Diamo una verifica esplicita di questo fatto.
Poiché Vλ = C[S3 ]cλ è due dimensionale (vedi anche la formula in 2.4.6), una base di Vλ è
data da cλ , gcλ per un qualunque g ∈ S3 tale che questi due elementi siano indipendenti (ciò
esclude ovviamente g = e e, meno ovvio, g = (13)). Prendiamo g = (12) allora:
(12)cλ = (12)(ee + e(13) − e12) − e(123) ) = e(12) + e(132) − ee − e(23) ,
quindi cλ , (12)cλ sono indipendenti nello spazio vettoriale C[S3 ]. Poiché (12)2 = e, (12) scambia
questi due vettori. In particolare, la matrice di moltiplicazione per (12) su questa base ha traccia
zero. Allora si verifica che
(123)cλ = e(123) +e(23) −e(13) −e(132) = −cλ −(12)cλ ,
(123)(12)cλ = e(13) +e−e(123) −e(12) = cλ .
Quindi il sottospazio generato da cλ , (12)cλ è invariante per (12), (123) e, poiché queste due
permutazioni generano S3 , tale sottospazio è invariante per S3 . Le matrici di moltiplicazione
sono:
0 1
−1 1
ρλ : (12) 7−→
,
ρλ : (123) 7−→
.
1 0
−1 0
In particolare, T r(ρλ ((12))) = 0 , T r(ρλ ((123))) = −1 e ovviamente T r(ρλ (e)) = 0. È facile
verificare (e l’abbiamo già fatto!) che questo carattere è irriducibile. Segue che la rappresentazione ρλ è equivalente alla rappresentazione ρ2 di 2.4.2. Infatti, basta scambiare i due vettori
di base cλ , (12)cλ per ottenere le matrici di ρ2 .
2.4.6 La dimensione di Vλ . Esiste un modo semplice per determinare la dimensione della
rappresentazione irriducibile Vλ . Sia λ = {m1 , . . . , mr }, con m = m1 + . . . + mr , e consideriamo
il diagramma di Young della partizione λ. Nel quadrato nella i-esima riga e j-esima colonna
mettiamo il numero hij := 1 + dij + sij , dove dij è il numero dei quadrati a destra e sij è
il numero dei quadrati sotto questo quadrato (questo numero si chiama la ‘hooklength’ del
quadrato). Allora si ha
m!
dim Vλ = Q
.
i,j hij
Qualche esempio:
λ= 3 2 ,
2 1
µ= 6 4 3 1 ,
4 2 1
1
ρ=
m
m−2
...
...
2 1 .
1
Quindi la partizione λ = {2, 2} di m = 4 definisce la rappresentazione irriducibile Vλ di S4 che
ha dimensione
4·3·2·1
dim Vλ =
=2
3·2·2·1
2 RAPPRESENTAZIONI DI GRUPPI FINITI
44
e, poiché S4 ha un’unica rappresentazione irriducibile di dimensione due, Vλ è la
rappresentazione ρ2 trovata in 2.3.4.
Si noti che Vµ è una rappresentazioe irriducibile di S8 di dimensione (8!)/(6 · 4 · 4 · 2 · 3) = 70.
La partizione ρ = {m − 1, 1} di m definisce una rappresentazione irriducibile Vρ di Sm che
ha dimensione
m(m − 1)(m − 2)!
= m − 1.
dim Vρ =
m · ((m − 2)!) · 1
Si può mostrare che Vρ è la rappresentazione W ⊥ di 2.1.6.
3 TENSORI E GRUPPO SIMMETRICO
3
45
Tensori e gruppo simmetrico
Testi consigliati: [FH].
3.1
Introduzione e risultati generali
3.1.1 L’azione di Sm su T m V Sia V uno spazio vettoriale reale di dimensione n. Per un
intero m ∈ Z≥0 sono stati definiti nella sezione 3.1 gli spazi vettoriali:
T 0 (V ) = R,
T 1 V = V,
T m V := |V ⊗ V ⊗
{z. . . ⊗ V} .
m
Per g ∈ Sm , l’applicazione τ (g) : T m V → T m V è per definizione la permutazione dei fattori
del prodotto tensoriale che corrisponde a g. Quindi si sposta l’i-esima componente del prodotto
tensoriale nella g(i)-esima componente. Per esempio, se v1 , v2 , v3 ∈ V :
τ ((123)) : v1 ⊗ v2 ⊗ v3 7−→ v3 ⊗ v1 ⊗ v2 ,
perché (123) manda 1 7→ 2 quindi v1 compare nel secondo fattore dell’immagine, poi 2 7→ 3
quindi v2 compare nell’ultimo fattore, ecc. Si noti che v3 ⊗ v1 ⊗ v2 6= vg(1) ⊗ vg(2) ⊗ vg(3) .
Per ottenere una formula per τ (g) si noti che
τ (g) : v1 ⊗ v2 ⊗ . . . ⊗ vm 7−→ y1 ⊗ y2 ⊗ . . . ⊗ ym = vg−1 (1) ⊗ vg−1 (2) ⊗ . . . ⊗ vg−1 (m)
perché, per definizione di τ , yj = vi dove j = g(i), cioè i = g −1 (j) e perciò yj = vg−1 (i) .
E’ facile verificare che τ : Sm → GL(T m V ) è un omomorfismo: se τ (h)(y1 ⊗ . . . ⊗ ym ) =
z1 ⊗ . . . ⊗ zm allora
zk = yh−1 (k) = vg−1 (h−1 (k)) = v(hg)−1 (k)
quindi
τ (h)(τ (g)(v1 ⊗ . . . ⊗ vm )) = v(hg)−1 (1) ⊗ . . . ⊗ v(hg)−1 (m) = τ (hg)(v1 ⊗ . . . ⊗ vm ).
Si può anche considerare un’azione di Sm da destra, su T m V , data da (v1 ⊗ . . . ⊗ vm ) · σ =
vσ(1) ⊗ . . . ⊗ vσ(m) (vedi [FH], p.76, questo rende un po’ faticoso il confronto tra varie formule
esplicite ma non cambia la sostanza).
3.1.2 L’azioni dei gruppi GL(V ) e Sm su T m V . Il gruppo GL(V ) agisce su T m V tramite
l’omomorfismo
ρ : GL(V ) −→ GL(T m V ),
ρ(A)(v1 ⊗ v2 ⊗ . . . . . . ⊗ vm ) = (Av1 ) ⊗ (Av2 ) ⊗ . . . ⊗ (Avm ).
Il gruppo simmetrico Sm agisce su T m V tramite l’omomorfismo (vedi 3.1.1:
τ : Sm −→ GL(T m V ),
τ (σ −1 )(v1 ⊗ v2 ⊗ . . . . . . ⊗ vm ) = vσ(1) ⊗ vσ(2) ⊗ . . . ⊗ vσ(m) .
3 TENSORI E GRUPPO SIMMETRICO
46
Queste azioni commutano, cioè:
ρ(A)τ (σ −1 ) = τ (σ −1 )ρ(A),
per ogni A ∈ GL(V ) e ogni σ ∈ Sm , infatti, entrambe mandano
v1 ⊗ v2 ⊗ . . . . . . ⊗ vm 7−→ (Avσ(1) ) ⊗ (Avσ(2) ⊗ . . . ⊗ (Avσ(m) ).
Spesso non scriveremo gli omomorfismi ρ, τ , ma semplicemente A(v1 ⊗. . . . . .⊗vm ) = (Av1 )⊗
. . . ⊗ (Avm ) e σ −1 (v1 ⊗ . . . . . . ⊗ vm ) = vσ(1) ⊗ . . . ⊗ vσ(m) .
3.1.3 Esempio. Consideriamo il caso n = 2. Il gruppo S2 ha soltanto due elementi, S2 =
{e, g = (12)}. Poiché g 2 = e e τ (e) = I, l’identità su T 2 V , τ (g) : T 2 V → T 2 V è un’applicazione
lineare con τ (g)2 = I. Quindi ogni elemento t di T 2 V si scrive nel modo seguente:
t = (t + τ (g)t)/2 + (t − τ (g)t)/2
e, poiché τ (g)((t + τ (g)t)/2) = (t + τ (g)t)/2, τ (g)((t − τ (g)t)/2) = −(t − τ (g)t)/2, la
decomposizione di T 2 V in autospazi di τ (g) è:
T 2 V = S 2 V ⊕ A2 V,
S 2 V = {x ∈ T 2 V : τ (g)x = x },
S 2 V = {x ∈ T 2 V : τ (g)x = −x },
3.1.4 Gli spazi A2 V e ∧2 V . Se e1 , . . . , en è una base di V , allora ei ⊗ ej , 1 ≤ i, j ≤ n è
una base di T 2 V e τ (g)(ei ⊗ ej ) = ej ⊗ ei . Quindi otteniamo una base di S 2 V e A2 V nel modo
seguente:
S 2 V = he1 ⊗ e1 , . . . , en ⊗ en , e1 ⊗ e2 + e2 ⊗ e1 , . . . , en−1 ⊗ en + en−1 ⊗ en i,
A2 V = he1 ⊗ e2 − e2 ⊗ e1 , . . . , en−1 ⊗ en − en−1 ⊗ en i.
Nella sezione 1.3.1 abbiamo definito il prodotto esterno ∧2 V di V e un’applicazione canonica
Ψ : T 2 V −→ ∧2 V,
u ⊗ v 7−→ u ∧ v = −v ∧ u.
Lo spazio vettoriale ∧2 V ha una base data dalle ei ∧ ej con 1 ≤ i < j ≤ n. Poiché Ψ(ei ⊗ ei ) =
ei ∧ ei = −ei ∧ ei = 0 e Ψ(ei ⊗ ej ) = ei ∧ ej , si ha Ψ(S 2 V ) = 0 e la restrizione ΨA di Ψ ad A2 V
è un isomorfismo, con inversa Φ−1
A data da:
∼
=
2
2
Ψ−1
A : ∧ V −→ A V,
1
Ψ−1
A (u ∧ v) = 2 (u ⊗ v − v ⊗ u).
Spesso si scrive (identificando A2 V e ∧2 V ):
u ∧ v := 12 (u ⊗ v − v ⊗ u).
In modo simile, scriviamo
u v := 21 (u ⊗ v + v ⊗ u)
(∈ S 2 V ),
3 TENSORI E GRUPPO SIMMETRICO
47
si dice che u v è il prodotto simmetrico di u e v.
3.1.5 Decomposizioni. Gli autospazi S 2 V e A2 V di τ (g) nell’ esempio 3.1.3 sono invarianti
per GL(V ):
ρ(A)(S 2 V ) ⊂ S 2 V,
ρ(A)(A2 V ) ⊂ A2 V
(A ∈ GL(V )),
come si verifica per esempio considerando l’azione di GL(V ) sui vettori di base di S 2 V e di
A2 V .
Per generalizzare questa decomposizione consideriamo uno spazio vettoriale W , due gruppi,
G e H, e due omomorfismi
ρ : G −→ GL(W ),
τ : H −→ GL(W ),
t.c. ρ(g)τ (h) = τ (h)ρ(g)
per ogni g ∈ G, h ∈ H, cioè le azioni di G e H commutano. Sia data una decomposizione
W = W1 ⊕ W2
t.c. ρ(h)Wi ⊂ Wi
per ogni h ∈ H, cioè gli spazi W1 , W2 sono H-invarianti (si dice anche che W1 , W2 sono
sottorappresentazioni di H). Sia (come in 2.1.1)
HomH (W1 , W2 ) := {f ∈ Hom(W1 , W2 ) : f (ρ(h)w1 ) = ρ(h)f (w1 ) ∀w1 ∈ W1 }.
cioè HomH (W1 , W2 ) è l’insieme (in effetti uno spazio lineare) delle applicazioni lineari W1 → W2
che commutano con l’azione di H, dette applicazioni H-equivarianti.
3.1.6 Lemma. Siano ρ : G → GL(W ) e τ : H → GL(W ) rappresentazioni che commutano.
Sia W = W1 ⊕ W2 e supponiamo che HomH (W1 , W2 ) = 0. Allora W1 è G-invariante.
Dimostrazione. Per g ∈ G e w1 ∈ W1 , il vettore ρ(g)w1 ∈ W = W1 ⊕ W2 si scrive come
ρ(g)w1 = (ρ1 (g)w1 , ρ2 (g)w1 )
∈ W1 ⊕ W2 ,
ed è facile verificare che le ρi (g) : W1 → Wi , i = 1, 2, sono mappe lineari. Ora mostriamo che
ρ2 (g) è H-equivariante, e quindi, per ipotesi, è zero. Segue allora che ρ(g)w1 = (ρ1 (g)w1 , 0) ∈
W1 come desiderato.
Per mostrare che ρ2 (g) è H-equivariante, si noti che per ogni h ∈ H, g ∈ G e w1 ∈ W1 :
τ (h)(ρ(g)w1 ) = τ (h)(ρ1 (g)w1 , ρ2 (g)w1 ) = (τ (h)(ρ1 (g)w1 ), τ (h)(ρ2 (g)w1 )),
dove per la seconda ugualizanza si usa che τ (h)Wi ⊂ Wi , quindi τ (h)(ρ1 (g)w1 ) ∈ W1 ,
τ (h)(ρ2 (g)w1 ) ∈ W2 . D’altra parte, poiché τ (h) e ρ(g) commutano, troviamo:
τ (h)(ρ(g)w1 ) = ρ(g)(τ (h)w1 ) = (ρ1 (g)(τ (h)w1 ), ρ2 (g)(τ (h)w1 )),
dove per la seconda ugualianza si usa che τ (h)w1 ∈ W1 . Quindi abbiamo verificato
che τ (h)(ρ2 (g)w1 ) = ρ2 (g)(τ (h)w1 ), per ogni w1 ∈ W1 e ogni h ∈ H, perciò ρ2 (g) ∈
HomH (W1 , W2 ).
2
3.1.7 Esempio. Sia W = T 2 V , H = S2 = {e, g} e W1 = S 2 V , W2 = A2 V come in
3.1.3. Allora per f ∈ HomH (W1 , W2 ) si ha f (ρ(g)w1 ) = f (w1 ) per ogni w1 ∈ S 2 V , mentre
ρ(g)f (w1 ) = −f (w1 ) perché f (w1 ) ∈ A2 V . Quindi f (w1 ) = 0 per ogni w1 ∈ W1 e perciò
HomH (W1 , W2 ) = 0.
3 TENSORI E GRUPPO SIMMETRICO
3.2
48
I funtori di Schur
3.2.1 La decomposizione intrinseca di T m V . Sullo spazio vettoriale W = T m V , ci sono
le rappresentazioni ρ : GL(V ) → GL(W ) e τ : Sm → GL(W ) che commutano (vedi 3.1.2). La
teoria delle rappresentazioni di Sm (vedi 2.4.4) da una decomposizione intrinseca:
T m V = ⊕λ Wλ ,
n
con Wλ ∼
= Vλ λ
dove λ varia nell’insieme delle partizioni di m e Vλ è la rappresentazione irriducibile di Sm che
corrisponde alla partizione λ.
Poiché le rappresentazioni irriducibili Vλ e Vµ sono isomorfe se e solo se λ = µ, il Lemma di
Schur implica (vedi 3.2.3):
HomSm (Vλnλ , Vµnµ ) = 0
(λ 6= µ).
Ogni Wλ := Vλnλ è allora GL(V )-invariante per il Lemma 3.1.6.
3.2.2 Esempio. Poiché conosciamo i caratteri irriducibili di S3 e non è difficile trovare il
carattere χ = χτ della rappresentazione τ : S3 → T 3 V , si calcola facilmente le molteplicità
nλ = (χ, χλ ) delle rappresentazioni irriducibili Vλ in T 3 V .
Anzitutto, χ(e) = dim T 3 V = n3 dove n = dim V . Sia e1 , . . . , en una base di V . Se g ∈ S3 ,
allora g(e1 ⊗ e2 ⊗ e3 ) = eg−1 (1) ⊗ eg−1 (2) ⊗ eg−1 (3) , quindi g permuta questi vettori di base di
T 3 V . Perciò la matrice τ (g) ha tutti i coefficienti uguali a zero, tranne τ (g)ij = 1 se g manda il
j-esimo vettore di base di T 3 V nel’i-esimo vettore di base. Perciò χ(g) = T r(τ (g)) è uguale al
numero dei vettori di base di T 3 V fissati da g. Se g = (12) allora g fissa esattamente i vettori
di base di tipo ei ⊗ ei ⊗ ej , con 1 ≤ i, j ≤ n, quindi χ((12)) = n2 . In modo simile, g = (123),
fissa esattamente gli ei ⊗ ei ⊗ ei , quindi χ((123)) = n.
Sia per esempio λ = (2, 1), allora a questa partizione di 3 corrisponde la rappresentazione
irriducibile due dimensionale di S3 che ha carattere χ2,1 (g) = 2, 0, −1 per g = e, (12), (123)
rispettivamente (vedi 2.2.9). Quindi otteniamo:
n3 − n
1
.
n2,1 = (χ, χ2,1 ) = (n3 · 2 + 3 · n2 · 0 + 2 · n · (−1)) =
6
3
Si veda 3.2.10 per un altro modo di ottenere queste molteplicità. E’ un esercizio per il lettore
verificare le formule per le molteplicità nλ (= dim Sλ V ) date in 3.2.10 nel caso n = 3, 4.
n
3.2.3 Le applicazioni Sm -equivarianti. Studiamo lo spazio HomSm (Vλnλ , Vµ µ ) in maggior
detaglio, in particolare nel caso λ = µ.
Sia
f : Vλnλ −→ Vµnµ
Sm -equivariante. Allora f = (f1 , . . . , fnµ ) con fi : Vλnλ → Vµ . Poiché ogni coppia di Vµ è
Sm -invariante, ogni fi è Sm equivariante. In più, poiché f è lineare, per v1 , . . . , vnλ ∈ Vλ si ha
fi (v1 , . . . , vnλ ) = fi (v1 , 0 . . . , 0) + . . . + fi (0, . . . , 0, vnλ ).
3 TENSORI E GRUPPO SIMMETRICO
49
Per ogni i, j l’applicazione
fij : Vλ −→ Vµ ,
v 7−→ fi (0, . . . , 0, v, 0, . . . , 0)
(con v nella j-esima posizione) è Sm equivariante. Se λ 6= µ allora, per il Lemma di Schur, ogni
fij = 0. Se invece λ = µ, ogni fij è uno scalare, quindi f = (fij ) è data da una matrice nλ × nλ ,
cioè:
HomSm (Vλnλ , Vλnλ ) ∼
= M (nλ , C).
In particolare, poiché ogni Wλ = Vλnλ è GL(V )-invariante e l’azione di ogni A ∈ GL(V ) è
Sm -equivariante, otteniamo una rappresentazione
ρλ : GL(V ) −→ GL(nλ , C),
che risulta essere irriducibile, vedi il Teorema 3.2.6. Questa rappresentazione, indicata con Sλ V ,
è determinata da V e dalla partizione λ di m. La rappresentazione Sλ V di GL(V ) è contenuta
in T m V , ma poiché la sua molteplicità non è uno, tranne per λ = (m) e λ = (1, 1, . . . , 1),
non c’è in generale un modo intrinseco di ottenere Sλ V come sottospazio di T m V . Usando il
simmetrizzatore di Young cλ di λ (che dipende da una scelta di inserire i numeri 1, . . . , m nel
diagramma di Young e dalla scelta dell’azione di Sm su T m V a sinistra o a destra, che non è
la stessa per tutti gli autori) si può mostrare che Sλ V ∼
= cλ T m V . Questa sarà la definizione
di Sλ V qui sotto, ma vale la pena di ricordare (vedi 3.3.1 per esempio) che in generale ci sono
altre applicazione GL(V )-equivarianti Sλ V ,→ T m V .
3.2.4 Il funtore di Schur. La rappresentazione di Sm su T m V dà, per ‘estensione C-lineare’,
un omomorfismo di C-algebre
C[Sm ] −→ End(T m V ),
X
X
x=
ag eg 7−→ [v1 ⊗ v2 ⊗ . . . ⊗ vm 7−→
ag vg−1 (1) ⊗ vg−1 (2) ⊗ . . . ⊗ vg−1 (m) ].
g
g
Sia λ = (m1 , . . . , mr ) una partizione di m e sia cλ ∈ C[Sm ] il simmetrizzatore di Young
associato a λ (vedi 2.4.3). Definiamo il sottospazio Sλ V di T m V nel modo seguente:
Sλ V := cλ T m V
(= im(cλ : T m −→ T m V )).
In questo modo assegnamo ad ogni spazio vettoriale V uno spazio vettoriale Sλ V : questa
assegnazione si chiama il funtore di Schur (definito da λ). Si noti che data un’applicazione
lineare f : V → W si ottiene un’applicazione indotta Sλ V → Sλ W , che è indicata con Sλ (f ).
Il sottospazio vettoriale Sλ V di T m V è GL(V )-invariante perché l’azione di GL(V ) commuta
con quella di Sm .
3.2.5 Il sottospazio (Sλ V ) ⊗ Vλ di T m V . Il Teorema 2.4.4 mostra che Vλ := C[Sm ]cλ è
una rappresentazione irriducibile di Sm . Poiché il simmetrizzatore di Young soddisfa c2λ = kλ cλ
([FH], Theorem 4.3), per un intero kλ (6= 0), si ha cλ (Sλ V ) = Sλ V . Scrivendo f = cλ g, si vede
che cλ f = kλ f per ogni f ∈ Sλ V .
3 TENSORI E GRUPPO SIMMETRICO
50
Siano g1 = e, . . . , gnλ ∈ Sm tali che gli gi cλ sono una base di Vλ e sia f1 , . . . , fmλ una base
di Sλ V :
λ
λ
Sλ V = ⊕ni=1
Cfi ,
Vλ = ⊕m
j=1 Cgj cλ .
Si può mostrare che l’applicazione
(Sλ V ) ⊗ Vλ −→ T m V,
fi ⊗ (gj cλ ) 7−→ gj cλ fi = kλ gj (fi )
è iniettiva. Quindi la sua immagine è una rappresentazione di Sm che è isomorfa a Vλmλ ed è
una rappresentazione di GL(V ) isomorfa a (Sλ V )nλ . In questo modo si ottiene ([FH], Theorem
6.3(2), Lemma 6.22 e Exercise 6.30):
3.2.6 Teorema. La decomposizione di T m V in sottorappresentazioni irriducibili per il gruppo
GL(V ) × Sm è data da:
M
T mV ∼
(Sλ V ) ⊗ Vλ
=
λ
dove λ percorre le partizioni di m, Sλ V è una rappresentazione irriducibile di GL(V ) e Vλ è la
rappresentazione irriducibile di Sm definita da λ.
Si hanno in particolare le decomposizioni, in rappresentazioni irriducibili per Sm e GL(V )
rispettivamente:
M n
M
T mV ∼
Vλ λ ∼
(Sλ V )mλ ,
nλ := dim Sλ V, mλ = dim Vλ .
=
=
λ
λ
3.2.7 Esempio: m = 2. Nel caso m = 2, le partizioni sono 2 = 2 e 2 = 1 + 1. Le due
rappresentazioni irriducibili di S2 hanno dimensione 1: Vλ ∼
= C, perciò (Sλ V ) ⊗ Vλ ∼
= Sλ V .
Otteniamo allora la decomposizione
V ⊗V ∼
= S2 V ⊕ S1,1 V,
S2 V ∼
= S 2 V,
S1,1 V ∼
= ∧2 V,
che è quella dell’Esempio 3.1.3. Infatti, si ha (vedi 2.4.5):
c2 (v1 ⊗ v2 ) = (1 + (12))(v1 ⊗ v2 ) = v1 ⊗ v2 + v2 ⊗ v1 = 2v1 v2 ,
e similmente,
c1,1 (v1 ⊗ v2 ) = (1 − (12))(v1 ⊗ v2 ) = v1 ⊗ v2 − v2 ⊗ v1 = 2v1 ∧ v2 .
3.2.8 Il prodotto alternante in T m V . L’applicazione canonica
Ψ : T m V −→ ∧m V,
v1 ⊗ v2 ⊗ . . . ⊗ vm 7−→ v1 ∧ v2 ∧ . . . ∧ vm ,
ristretta a S(1,1,...,1) V induce un isomorfismo
∼
=
S(1,1,...,1) V = cλ T m V −→ ∧m V,
3 TENSORI E GRUPPO SIMMETRICO
51
per v1 ⊗ v2 ⊗ . . . vm ∈ T m V e λ = (1, 1, . . . , 1) si ha:
cλ (v1 ⊗ v2 ⊗ . . . ⊗ vm ) =
X
Ψ
(g)vg(1) ⊗ vg(2) ⊗ . . . ⊗ vg(m) 7−→ (m!)(v1 ∧ v2 ∧ . . . ∧ vm ).
g∈Sm
Si noti che se dim V < m, si ha S1,1,...,1 V = ∧m V = 0. In generale si ha (vedi 3.2.11):
Sλ V = 0
se λ = (m1 , m2 , . . . , mr ) e dim V < r.
3.2.9 Il prodotto simmetrico in T m V . Il sottospazio Sm V di T m V è detto l’m-esimo
prodotto simmetrico di V ed è scritto S m V . Per v1 , . . . , vm ∈ V si definisce il loro prodotto
simmetrico, che sta in S m V , come
X
vg(1) ⊗ vg(2) ⊗ . . . ⊗ vg(m) .
v1 v2 . . . vm := (m!)−1 cm (v1 ⊗ v2 ⊗ . . . ⊗ vm ) = (m!)−1
g∈Sm
Si noti che v1 . . . vm è l’immagine di v1 ⊗ . . . ⊗ vm mediante il proiettore Π sullo spazio degli
invarianti (vedi 2.2.6). In particolare, per ogni g ∈ Sm si ha:
v1 v2 . . . vm = vg(1) vg(2) . . . vg(m) .
Sia e1 , . . . , en una base di V , allora una base di S m V è data dalle
ei1 ei2 . . . eim
con i1 ≤ i2 ≤ . . . ≤ im .
In modo simile a 1.3.3, ma considerando applicazioni simmetriche invece di applicazioni
alternanti, si possono definire i sottospazi Ik di T k V nel modo seguente:
I2 = h. . . , v1 ⊗ v2 − v2 ⊗ v1 , . . .iv1 ,v2 ∈V ,
Ik = Ik−1 ⊗ V ⊕ V ⊗ Ik−1
(⊂ T k V ).
Allora si ha v1 ⊗ v2 = v2 ⊗ v1 in T 2 V /I2 e poi v1 ⊗ . . . ⊗ vm = vg(1) ⊗ . . . ⊗ vg(m) in T m V /Im
per ogni g ∈ Sm . In particolare,
v1 ⊗ v2 ⊗ . . . ⊗ vm = v1 v2 . . . vm
(∈ T m V /Im ).
Si può mostrare che T m V /Im ∼
= S m V e spesso si scrive (come anche per il prodotto ‘∧’)
semplicemente v1 v2 . . . vm per l’elemento v1 v2 . . . vm di T m V /Im .
La struttura di algebra su T (V ) = ⊕m T m V (vedi 1.3.3) induce una struttura di algebra
su S ∗ V := T V /I, dove I = I2 ⊕ I3 ⊕ . . ., detta l’algebra simmetrica generata da V . Si ha un
isomorfismo tra l’algebra simmetrica su V e l’anello dei polinomi in n = dim V variabili:
S ∗V =
∞
M
m=0
∼
=
S m V −→ C[x1 , . . . , xn ],
ei1 ei2 . . . eim 7−→ xi1 xi2 . . . xim .
3 TENSORI E GRUPPO SIMMETRICO
52
3.2.10 La dimensione di Sλ V . Sia λ = (m1 , m2 , . . . , mr ) una partizione di m. Allora si
ha la seguente formula per la dimensione dello spazio vettoriale Sλ V ([FH], Theorem 6.3(1) e
Excercise 6.4):
Yn−i+j
dim Sλ V =
,
n = dim V,
h
ij
i,j
il prodotto è sugli m = m1 +. . .+mr quadrati nel diagramma di Young di λ e hij è il ‘hooklength’
del quadrato nel i-esima riga e j-esima colonna hij (vedi 2.4.6).
Qualche esempio:
λ= 3 1 ,
1
µ= 3 2 ,
2 1
ρ=
m
m−1
...
...
2 1 .
Se λ = (2, 1) ci sono tre quadrati con (i, j) = (1, 1), (1, 2), (2, 1) e hij è come indicato nel
diagramma, quindi:
dim S2,1 V =
(n − 1 + 1)(n − 1 + 2)(n − 2 + 1)
(n + 1)n(n − 1)
n(n2 − 1)
=
=
.
3·1·1
3
3
Se µ = (2, 2) ci sono quattro quadrati con (i, j) = (1, 1), (1, 2), (2, 1), (2, 2) e quindi:
(n − 1 + 1)(n − 1 + 2)(n − 2 + 1)(n − 2 + 2)
n2 (n2 − 1)
dim S2,2 V =
=
.
3·2·2·1
12
Se ρ = (m), allora ci sono m quadrati con (i, j) = (1, 1), (1, 2), . . . , (1, m) e:
dim Sm V = dim S m V =
(n − 1 + 1)(n − 1 + 2) · · · (n − 1 + m)
=
m(m − 1) · · · 1
m+n−1
m
,
che è un coefficiente binomiale. Similmente, si calcola:
dim S3,1 =
(n + 2)(n + 1)n(n − 1)
,
8
dim S2,1,1 =
(n + 1)n(n − 1)(n − 2)
,
8
e si verifica che dim S1,1,...,1 V = dim ∧m V = (nm ).
3.2.11 L’operatore bλ . In generale, non è facile identificare il sottospazio Sλ V = cλ T m V di
T m V . Si ricordi (vedi 2.4.3) che cλ = aλ bλ e che bλ è dato da:
X
bλ :=
(g)eg ,
Q = Sµ1 × Sµ2 × . . . × Sµs ,
g∈Q
dove µi è il numero dei quadrati nella i-esima colonna del diagramma di Young di λ. Si noti
che µ1 = r, il numero delle righe. Cioè ogni g ∈ Q è un prodotto g1 g2 · · · gs = gs gs−1 · · · g1 ,
3 TENSORI E GRUPPO SIMMETRICO
53
in modo unico, di permutazioni gj ∈ Sµj , e gj permuta soltanto i numeri nei quadrati nella
j-esima colonna. Questo ci permette di scrivere:
X
X
X
(g1 )eg1 .
bλ :=
(gs )egs
(gs−1 )egs−1 · · ·
gs ∈Sµs
g1 ∈Sµ1
gs−1 ∈Sµs−1
Poiché i numeri nella prima colonna sono 1, 2 . . . , µ1 , si ha:
X
(g1 )eg1 (V ⊗ . . . ⊗ V ) = (∧µ1 V ) ⊗ (V ⊗ . . . ⊗ V ) .
|
{z
}
{z
}
|
g1 ∈Sµ1
m
m−µ1
In questo modo, si ottiene:
bλ (T m V ) = (∧µ1 V ) ⊗ (∧µ2 V ) ⊗ . . . ⊗ (∧µs V )
(⊂ T m V ).
Si noti che bλ (T m V ) = 0 se uno dei ∧µj V = 0, cioè se µj > dim V . Poiché µ1 ≥ µ2 ≥ . . . ≥ µs
e µ1 = r, bλ (T m V ) = 0 se r > dim V . In tal caso anche Sλ V = aλ bλ (T m V ) = 0.
3.2.12 Una base di Sλ V e diagrammi di Young. Sia e1 , . . . , en una base di V , allora
esiste un modo efficiente per trovare una base di Sλ V . Sia λ una partizione di m e sia n =
dim V . Esiste una base di Sλ V tale che i vettori di base sono in corrispondenza biunivoca con
i ‘tableau semistandard’ di Young ([FH], Problem 6.15∗ ). Un tableau semistandard di Young
è il diagramma di Young di λ dove in ogni quadrato compare un intero dell’insieme {1, . . . , n}
in modo tale che i numeri in ogni colonna siano in ordine strettamente crescente (ai+k,j > ai,j
se ai,j è l’intero nel quadrato nell’i-esima riga e j-esima colonna) mentre gli interi in ogni riga
siano in ordine non-decrescente (ai,j+k ≥ ai,j ). La prima condizione corrisponde al fatto che
Sλ V ⊂ (∧µ1 V ) ⊗ . . . ⊗ (∧µs V ).
Per esempio, gli otto vettori di base di S2,1 V , con dim V = 3 corrispondono ai seguenti
tableau semistandard:
11 ,
2
3.3
11 ,
3
22 ,
3
12 ,
2
13 ,
3
23 ,
3
13 ,
2
12 .
3
Esempi: T 3 V e T 4 V .
3.3.1 La decomposizione di T 3 V . Sia m = 3. Ci sono tre partizioni di 3: 3, 2 + 1, 1 + 1 + 1
e le rappresentazioni corrispondenti di S3 hanno dimensione 1, 2, 1 rispettivamente. Perciò il
Teorema 3.2.6, insieme a 3.2.9 e 3.2.8, ci dà:
V ⊗V ⊗V ∼
= S(3) V ⊕ (S2,1 V )2 ⊕ S1,1,1 V ∼
= S 3 V ⊕ (S2,1 V )2 ⊕ ∧3 V.
La rappresentazione S2,1 V di GL(V ) è l’immagine del simmetrizzatore di Young c2,1 : T 3 V →
T 3 V . Si ha (vedi 2.4.5):
c2,1 = a2,1 b2,1 = (ee + e(13) )(ee − e(12) ) = ee + e(13) − e(12) − e(123) .
3 TENSORI E GRUPPO SIMMETRICO
54
Si noti che
b2,1 (v1 ⊗ v2 ⊗ v3 ) = v1 ⊗ v2 ⊗ v3 − v2 ⊗ v1 ⊗ v3 = 2(v1 ∧ v2 ) ⊗ v3 .
Quindi, come abbiamo già visto in generale in 3.2.11,
imb2,1 = (∧2 V ) ⊗ V.
Ora si ha: S2,1 V = a2,1 (b2,1 T 3 V ) = a2,1 ((∧2 V ) ⊗ V ). Con a2,1 = e + e(13) si calcola:
(e + e(13) )(v1 ⊗ v2 ⊗ v3 − v2 ⊗ v1 ⊗ v3 )) = v1 ⊗ v2 ⊗ v3 − v2 ⊗ v1 ⊗ v3 + v3 ⊗ v2 ⊗ v1 − v3 ⊗ v1 ⊗ v2 ,
quindi
c2,1 (v1 ⊗ v2 ⊗ v3 ) = 2(v1 ∧ v2 ) ⊗ v3 + 2v3 ⊗ (v2 ∧ v1 ).
In particolare, S2,1 V non è contenuto in (∧2 V ) ⊗ V . Posto
(S 2 V )13 ⊗ V := hw1 ⊗ w2 ⊗ w3 + w3 ⊗ w2 ⊗ w1 : wi ∈ V i
(⊂ T 3 V ),
si ha che S2,1 V ⊂ (S 2 V )13 ⊗ V . Per capire meglio come è fatto lo spazio S2,1 V , si noti che
l’applicazione data dal simmetrizzatore c3 : T 3 V → S 3 V , v1 ⊗ v2 ⊗ v3 7→ v1 v2 v3 (vedi
3.2.9) ristretto a (S 2 V )13 ⊗ V manda ogni elemento del sottospazio S2,1 V di T 3 V in zero:
c3 (c2,1 (v1 ⊗ v2 ⊗ v3 )) = c3 (v1 ⊗ v2 ⊗ v3 − v2 ⊗ v1 ⊗ v3 + v3 ⊗ v2 ⊗ v1 − v3 ⊗ v1 ⊗ v2 )
= v1 v2 v3 − v2 v1 v3 + v3 v2 v1 − v3 v1 v2
= 0.
Usando la formula per la dimensione degli Sλ V mostriamo che
S2,1 V = ker(Ψ : (S 2 V )13 ⊗ V −→ S 3 V ).
È facile vedere che Ψ è suriettiva, quindi
dim ker(Ψ) = dim((S 2 V )13 ⊗ V ) − dim S 3 V =
n+1
2
n−
n+2
3
=
n(n2 − 1)
= dim S2,1 V,
3
e perciò ker(c3 ) = S2,1 V .
Si noti che t 7→ (23)t dà un isomorfismo (che commuta con l’azione di GL(V )):
(S 2 V )13 ⊗ V ∼
= (S 2 V ) ⊗ V := h(w1 w3 ) ⊗ w2 = w1 ⊗ w3 ⊗ w2 + w3 ⊗ w1 ⊗ w2 : wi ∈ V i.
In generale si ha (vedi [FH], p.79) che Sd,1 ∼
= ker((S d V ) ⊗ V → S d+1 V ).
3.3.2 Una base di S2,1 V . Non è difficile verificare la formula per la dimensione di S2,1 V .
Sia e1 , . . . , en una base di V . Una base di T 3 V è data dagli eijk := ei ⊗ ej ⊗ ek . Quindi
Sλ V = c2,1 T 3 V , con c2,1 = ee − e12) + e(13) − e(123) è generato dagli
fijk := c2,1 eijk = eijk − ejik + ekji − ekij
(eijk := ei ⊗ ej ⊗ ek ).
3 TENSORI E GRUPPO SIMMETRICO
55
Si verifica facilmente che:
fijk = −fjik ,
fikj = −fkij ,
fjki = −fkji ,
fijk + fkij + fjki = 0.
In particolare, fijk = 0 se i = j = k (infatti, eiii ∈ S 3 V ). L’immagine del sottospazio tridimensionale di T 3 V generato da eiij , eiji , ejii , con i 6= j, ha dimensione uno ed è generato da
fiji = −fjii perché c2,1 eiij = 0. Se i, j, k sono distinti, l’immagine del sottospazio sei dimensionale generato dai eσ(i)σ(j)σ(k) , dove σ varia tra le permutazioni di {i, j, k}, ha dimensione due.
Una base dell’immagine è data da fijk e fikj . Il numero di vettori di base è allora facile da
contare:
n(n2 − 1)
.
dim S2,1 V = n(n − 1) + 2 (n3 ) =
3
Nel caso n = 3, la corrispondenza tra i tableau semistandard di 3.2.12 e i vettori di base
fijk è data da
i k
←→
c2,1 (ei ⊗ ej ⊗ ek ) = fijk .
j
3.3.3 Lo spazio S2,1 V e tensori alternanti. Come osservato prima, il sottospazio Wλ ∼
=
Vλnλ ∼
= (Sλ V ) ⊗ Vλ è definito in modo intrinseco da T m V , mentre il sottospazio Sλ V dipende da
varie scelte non intrinseche. Per ogni x ∈ C[Sm ], la molteplicazione per x dà un’applicazione
GL(V )-equivariante Sλ V → xSλ V . Poiché Sλ V è una rappresentazione irriducibile per GL(V ),
se xSλ V 6= 0, quest’applicazione è un isomorfismo.
Consideriamo per esempio λ = (2, 1) e x = ee − e(12) ∈ C[S3 ]. Usando:
e(12) (c21 (v1 ⊗ v2 ⊗ v3 )) = v2 ⊗ v1 ⊗ v3 − v1 ⊗ v2 ⊗ v3 + v2 ⊗ v3 ⊗ v1 − v1 ⊗ v3 ⊗ v2 ,
otteniamo che
(ee − e(12) )(c21 (v1 ⊗ v2 ⊗ v3 )) = 2(v1 ∧ v2 ) ⊗ v3 − (v2 ∧ v3 ) ⊗ v1 − (v1 ∧ v3 ) ⊗ v2 ,
e quindi
S2,1 ∼
= (ee − e(12) )S2,1 ⊂ (∧2 V ) ⊗ V.
Una certa combinazione lineare di questi elementi è più semplice:
xc2,1 (v1 ⊗ v2 ⊗ v3 − v1 ⊗ v3 ⊗ v2 ) = 3((v1 ∧ v2 ) ⊗ v3 + (v1 ∧ v3 ) ⊗ v2 ).
Si verifica che l’applicazione naturale Ψ : T 3 V → ∧3 V , data da Ψ(v1 ⊗ v2 ⊗ v3 ) = v1 ∧ v2 ∧ v3 ,
manda ogni elemento del sottospazio (ee − e(12) )S2,1 di T 3 V in zero ed è suriettiva. Quindi
dim ker(Ψ) = dim((∧2 V ) ⊗ V ) − dim ∧3 V = (n2 ) n − (n3 ) =
e perciò ([FH], p.76)
n(n2 − 1)
= dim S2,1 V,
3
S2,1 V ∼
= ker(Ψ : (∧2 V ) ⊗ V −→ ∧3 V ).
3 TENSORI E GRUPPO SIMMETRICO
56
In generale, S2,1,...,1 V ∼
= ker(∧m−1 V ⊗ V −→ ∧m V ) ([FH], p.79).
Nel libro [FH] p.76, lo spazio S2,1 V è definito usando un certo simmetrizzatore di Young e
l’azione a destra, e il loro spazio è generato dalle
v1 ⊗ v2 ⊗ v3 + v2 ⊗ v1 ⊗ v3 − v3 ⊗ v2 ⊗ v1 − v3 ⊗ v1 ⊗ v2 ∈ (∧2 V )13 ⊗ V,
cioè, questi generatori sono antisimmetrici rispetto all’azione di (13). E’ facile vedere che lo
spazio generato da questi elementi è (23)xc2,1 T 3 V ⊂ (Sλ V ) ⊗ Vλ , e quindi è isomorfo, come
rappresentazione di GL(V ), al nostro spazio Sλ V .
3.3.4 La decomposizione di T 4 V . Sia m = 4, ci sono cinque partizioni di 4:
(4), (3, 1), (2, 2), (2, 1, 1), (1, 1, 1, 1) e le rappresentazioni corrispondenti di S4 hanno dimensione
1, 3, 2, 3, 1 rispettivamente. Perciò il Teorema 3.2.6, in combinazione con 3.2.9 e 3.2.8, si da:
V ⊗V ⊗V ⊗V ∼
= S 4 V ⊕ (S3,1 V )3 ⊕ (S2,2 V )2 ⊕ (S2,1,1 V )3 ⊕ ∧4 V.
Consideriamo il sottospazio S2,2 = c2,2 T 4 V di T 4 V . Come nell’esempio 3.3.1 si ha:
b2,2 T 4 V = (∧2 V ) ⊗ (∧2 V )
⊂ (V ⊗ V ) ⊗ (V ⊗ V ).
In questo caso non è facile descrivere a2,2 (b2,2 T 4 V ). Visto che a2,2 = (ee + e(13) )(ee + e(24) ) si
ha:
a2,2 T 4 V = (S 2 V )13 ⊗ (S 2 V )24 ⊂ V ⊗ V ⊗ V ⊗ V,
quindi S2,2 V = a2,2 (b2,2 T 4 V ) ⊂ (S 2 V )13 ⊗ (S 2 V )24 . Poiché l’azione di S4 commuta con quella
di GL(V ), lo spazio (23)S2,2 V è isomorfo, come rappresentazione di GL(V ) a S2,2 e si ha:
S2,2 V ∼
= (23)S2,2 V ⊂ (S 2 V ) ⊗ (S 2 V )
⊂ (V ⊗ V ) ⊗ (V ⊗ V ).
Si ha una decomposizione di GL(V )-rappresentazioni:
(S 2 V ) ⊗ (S 2 V ) ∼
= S 2 (S 2 V ) ⊗ ∧2 (S 2 V ).
Un elemento di (S 2 V ) ⊗ (S 2 V ) è una combinazione lineare di tensori del tipo:
(ei ej ) ⊗ (ek el ) = fijkl + fjikl + fijlk + fjilk
⊂ (S 2 V ) ⊗ (S 2 V )
dove gli ei sono una base di V e fijkl = ei ⊗ ej ⊗ ek ⊗ el . Poi un elemento in S 2 (S 2 V ) è
combinazione lineare di tensori del tipo:
gijkl := (ei ej ) ⊗ (ek el ) + (ek el ) ⊗ (ei ej )
⊂ S 2 (S 2 V ).
Lasciamo al lettore il piacere di verificare che
(23)c2,2 (fijkl ) = gikjl − gjkil
(∈ S 2 (S 2 V )).
Quindi l’immagine dell’applicazione (23)c2,2 : T 4 V → T 4 V è contenuta in S 2 (S 2 V ) e perciò
(23)S2,2 V ⊂ S 2 (S 2 V ).
3 TENSORI E GRUPPO SIMMETRICO
57
La restrizione dell’applicazione
c4 : T 4 V −→ S 4 V,
fijkl 7−→ ei ej ek el
a S 2 (S 2 V ) manda gikjl − gjkil nello 0 ed è suriettiva. Calcolando le dimensioni si vede che
S2,2 V ∼
= (23)S2,2 V = ker(c4 : S 2 (S 2 V ) −→ S 4 V ),
infatti
dim S 2 (S 2 V ) − dim S 4 V
=
=
=
(n(n+1)/2)n(n+1)/2+1
− (n+3)(n+2)(n+1)n
2
24
n(n+1)(3(n(n+1)+2)−(n+3)(n+2))
24
n2 (n2 −1)
12
= dim S2,2 V.
3.3.5 La rappresentazione S2,2 V e S 2 (∧2 V ). Per la geometria riemanniana c’è un’altra
copia della GL(V )-rappresentazione S2,2 in T 4 V che è di grande interesse (vedi [FH], Exc. 23.38,
2
p.427). Si ricordi che S2,2 V ⊗ V2,2 ∼
⊂ T 4 V , e che in 3.3.4 abbiamo visto che ci sono le
= S2,2
due copie S2,2 V := c2,2 T 4 V e (23)S2,2 V = e23 S2,2 , quindi ogni altra copia di S2,2 V in T 4 V è
ottenuta come (aee + be(23) )S2,2 V per certi a, b ∈ C.
Ora consideriamo il sottospazio
S 2 (∧2 V ) ,→ (∧2 V ) ⊗ (∧2 V ).
Se le ei sono una base di V , questo spazio è generato dalle
hijkl := (ei ∧ ej ) (ek ∧ el ) = fijkl − fjikl − fijlk + fijlk + fklij − flkij − fklji + flkji .
dove fijkl = ei ⊗ ej ⊗ ek ⊗ el . Lasciamo verificare al lettore che
2c22 fijkl + (13)c2,2 fijkl = 2hijkl + hikjl − hiljk ∈ S 2 (∧2 V ).
Perciò S 2 (∧2 V ) contiene (2ee + e(23) )S2,2 , che è una copia di S2,2 . Si verifica anche, usando
3.2.10, che
S2,2 V ∼
= (2ee + e(23) )S2,2 V = ker(c4 : S 2 (∧2 V ) −→ ∧4 V ).
4 GEOMETRIA DIFFERENZIALE
4
58
Geometria differenziale
Testi consigliati: [dC], [D], [DNF1], [DNF2], [T], [Wa].
4.1
Richiami di analisi.
4.1.1 Diffeomorfismi. Sia U ⊂ Rm un sottoinsieme aperto. L’algebra delle funzioni lisce su
U si indica con C ∞ (U ). Sia
F = (F1 , F2 , . . . , Fn ) : U −→ Rn
un’applicazione liscia, cioè ogni Fi : U → R è in C ∞ (U ). Un’applicazione liscia F : U → V :=
F (U ) (⊂ Rn ) è detta diffeomorfismo su U se esiste una mappa liscia G : V → U tale che
F ◦ G = idF (U ) e G ◦ F = idU . In tal caso si ha m = n.
La matrice jacobiana di F in p ∈ U è la matrice n × m definita da:


(∂F1 /∂t1 )(p) . . . (∂F1 /∂tm )(p)


..
..
Jp (F ) = 
(∈ Mn,m (R)),

.
.
(∂Fn /∂t1 )(p) . . . (∂Fn /∂tm )(p)
dove le ti sono le coordinate su Rm . Per x ∈ Rm , il vettore Jp (F )x ∈ Rn è dato da:
Jp (F )x = (dF (p + tx)/dt)|t=0 ,
quindi Jp (F ) determina il comportamento di F ‘vicino’ a p. Per esempio si ha:
4.1.2 Teorema della funzione inversa. Sia U un aperto in Rm e sia F : U → Rm
un’applicazione liscia. Supponiamo che la matrice jacobiana Jp (F ) sia invertibile in un punto
p ∈ U . Allora esiste un intorno aperto U 0 di p tale che F (U 0 ) è aperto e che l’ applicazione
F|U 0 : U 0 → F (U 0 ) è un diffeomorfismo.
4.2
Varietà differenziabili
4.2.1 Definizione di varietà. Sia M uno spazio topologico non-vuoto di Hausdorff. Una
carta locale di M è una coppia (U, φ) dove U ⊂ M è un aperto e φ : U → φ(U ) (⊂ Rm ) è un
omeomorfismo. Due carte locali (U, φ), (V, ψ) sono dette compatibili se
φ ◦ ψ −1 : ψ(U ∩ V ) −→ φ(U ∩ V )
è un diffeomorfismo. Si noti che in tal caso anche (φ ◦ ψ −1 )−1 = ψ ◦ φ−1 è un diffeomorfismo.
Un atlante di M è una collezione {(Ui , φi )i∈I di carte locali compatibili tale che M = ∪i∈I Ui .
Se M è connesso segue che il numero intero m non dipende della carta dell’ atlante ed è detto
dimensione di M .
4 GEOMETRIA DIFFERENZIALE
59
Sia A = {(Ui , φi )}i∈I un atlante di M e sia (V, ψ) una carta locale compatibile con tutte le
(Ui , φi ). Allora anche {(Ui , φi )}i∈I ∪ {(V, ψ)} è un atlante di M .
Prendendo quindi l’unione di tutte le carte compatibili con un atlante dato, otteniamo un
atlante massimale, cioè un atlante che non è propriamente contenuto in nessun altro atlante.
In particolare, ogni atlante di M è contenuto in un unico atlante massimale.
Una varietà differenziabile è una coppia (M, A) dove M è uno spazio topologico non-vuoto
di Hausdorff ed A è un atlante massimale di M . Si richiede inoltre che la topologia di X sia a
base numberabile, condizione tecnica verificata per gli esempi considerati in queste note.
Un esempio di varietà è lo spazio vettoriale Rn , con la topologia euclidea, con l’atlante
massimale definito dall’atlante, con una sola carta locale, {(Rn , idRn )}. Un sottoinsieme aperto
U di una varietà M , con le restrizioni delle carte locali di M ad U , è una varietà.
Sia (U, φ) una carta di M . Si noti che per ogni diffeomorfismo δ : φ(U ) → δ(φ(U )) ⊂ Rm ,
anche (U, δ ◦ φ) è una carta di M . In particolare, se p ∈ U e δ(x) = x − φ(p), la carta locale
(U, ψ := δ ◦ φ) soddisfa ψ(p) = 0.
4.2.2 Applicazioni lisce.
rispettivamente. Sia
Siano M, N varietà differenziabili di dimensione m ed n
f : M −→ N
un’applicazione continua. L’applicazione f è detta liscia in p ∈ M se per ogni carta (U, φ) di
M , con p ∈ U , e ogni carta (V, ψ) di Y , con f (p) ∈ V , l’applicazione
ψ ◦ f ◦ φ−1 : φ(U ∩ f −1 (V )) −→ ψ(V )
(⊂ Rn )
è liscia in φ(p) ∈ φ(U ∩ f −1 (V )) (⊂ Rm ). Se scriviamo F = ψ ◦ f ◦ φ−1 , allora F = (F1 , . . . , Fn )
è definita sull’aperto φ(U ∩ f −1 (V )) di Rm che contiene φ(p) e f liscia in p vuole dire che ogni
Fi è liscia nel punto φ(p).
Per verificare se f è liscia in p ∈ M basta verificarlo per una sola carta (U, φ) e una sola
carta (V, ψ) perché se (U 0 , φ0 ), (V 0 , ψ 0 ) sono altre carte, si ha:
ψ 0 ◦ f ◦ (φ0 )−1 = (ψ 0 ◦ ψ −1 ) ◦ ψ ◦ f ◦ φ−1 ◦ (φ ◦ (φ0 )−1 ).
Poiché le mappe ψ 0 ◦ ψ −1 , φ ◦ (φ0 )−1 sono diffeomorfismi, e per ipotesi ψ ◦ f ◦ φ−1 è liscia, segue
che l’applicazione ψ 0 ◦ f ◦ (φ0 )−1 è liscia.
L’applicazione f è detta liscia se è liscia in ogni p ∈ M . E’ facile verifcare che la composizione
di due applicazioni liscie è liscia.
4.2.3 Funzioni lisce. Un caso particolare di applicazioni lisce sono quelle della forma
f : V −→ R
dove V è un aperto in una varietà M . L’algebra delle funzioni lisce su V è denotato con C ∞ (V ).
Un esempio importante di funzioni lisce è quello delle funzioni coordinate di una carta. Sia
(U, φ = (x1 , . . . , xm )) una carta di M , allora xi ∈ C ∞ (U ), per ogni i = 1, . . . , m, perché se
(t1 , . . . , tm ) = φ(p) ∈ φ(U ) ⊂ Rm allora:
(xi ◦ φ−1 )(t1 , . . . , tm ) = xi (p) = ti
4 GEOMETRIA DIFFERENZIALE
60
e la funzione (t1 , . . . , tm ) 7→ ti è ovviamente liscia.
4.2.4 Il rango di una mappa liscia. Sia f : M → N una mappa liscia tra varietà di
dimensione m e n rispettivamente. Sia p ∈ M e siano (U, φ), (V, ψ) carte di M e N con p ∈ U e
f (p) ∈ V . Allora F = (F1 , . . . , Fn ) := ψ ◦ f ◦ φ−1 è una mappa liscia su un intorno di φ(p) ∈ Rm
e la sua matrice jacobiana in φ(p) è:
Jφ(p) (F ) := (∂Fi /∂tj )(φ(p))
dove t1 , . . . , tm sono le coordinate su Rm .
Il rango di f in p è definito come il rango della matrice Jφ(p) (F ).
Questa definizione non dipende dalle scelta delle carte. Se invece di F consideriamo G =
β ◦ F ◦ α dove α e β sono diffeomorfismi locali, allora, poiché J(G) = J(β)J(F )J(α) e J(β),
J(α) sono applicazioni lineari invertibili, segue che il rango di J(G) è uguale a quello di J(F ).
4.2.5 Sommersioni. Sia f : M → N un’applicazione liscia tra varietà di dimensione m e n
rispettivamente. L’applicazione è detta sommersione in p ∈ M se il rango di f in p è uguale a
n = dim N . In tal caso, dim M ≥ dim N e f ha rango massimale in p ∈ M .
4.2.6 Sottovarietà. Un sottoinsieme K ⊂ M è una sottovarietà di M se per ogni p ∈ K
esiste una carta (U, φ = (x1 , . . . , xn )) di M con p ∈ U e tale che
K ∩ U = {q ∈ M : xr+1 (q) = . . . = xm (q) = 0 }
per qualche r, cioè, tramite l’omeomorfismo φ : U → φ(U ) ⊂ Rm , l’immagine di K (più
precisamente: di K ∩ U ) è un aperto di un sottospazio lineare di Rm .
Una sottovarietà è una varietà che ha per carte gli (U ∩ K, φ̄ = (x1 , . . . , xr )) con (U, φ) come
sopra. Si verifica facilmente che l’inclusione i : K ,→ M è un’applicazione liscia. In particolare,
la restrizione a K di una funzione liscia su M è liscia.
Un risultato importante è il seguente teorema.
4.2.7 Teorema. Sia f : M → N è un’applicazione liscia tra varietà di dimensione m e n
rispettivamente. Sia q ∈ N tale che f è una sommersione in ogni p ∈ f −1 (q). Allora f −1 (q) è
una sottovarietà di dimensione r = m − n di M .
4.2.8 Esempio: la sfera. Sia F : Rn+1 −→ R la mappa definita da F (x) = x21 + . . . + x2n+1 .
Usando le carte locali sulle varietà Rn+1 e R che sono individuate dalle identità, si ha:
F (x) =
n+1
X
x2i ,
Jx (F ) = (2x1 2x2 . . . 2xn+1 ).
i=1
Quindi se x 6= 0 la matrice Jx (F ) ha rango 1 = dim R e concludiamo che F è una sommersione
sull’aperto Rn+1 − {0} di Rn+1 .
4 GEOMETRIA DIFFERENZIALE
61
Dal Teorema 4.2.7 segue allora che F −1 (1) è una sottovarietà di Rn+1 , quindi la sfera di
dimensione n è una varietà:
X
S n = {x ∈ Rn+1 :
x2i = 1 } = F −1 (1).
4.2.9 Esempio: il gruppo SL(n, R).
determinante 1 è una varietà. Sia
Mostriamo che il gruppo delle matrici con
2
F = det : Mn (R) ∼
= Rn −→ R,
A = (aij ) 7−→ det(A).
Per calcolare ∂ det /∂xij si sviluppi il determinante della matrice X = (xij ) rispetto l’i-esimo
riga:
n
X
det(X) = det(xij ) =
(−1)i+j xij det(Xij )
j=1
dove Xij ∈ Mn−1 (R) è la matrice ottenuta cancellando l’i-esima riga e la j-esima colonna della
matrice X. Poiché in questa formula xij compare soltanto davanti a det(Xij ), si ha
∂ det /∂xij = (−1)i+j det(Xij ).
Quindi la matrice JX (F ), con una sola riga e n2 colonne, ha rango massimale se det(Xij ) 6= 0
per almeno una coppia i, j. La formula qui sopra mostra inoltre che det(X) 6= 0 implica che
almeno uno delle det(Xij ) è non-zero.
Quindi, per X nell’ aperto GL(n, R) di Mn (R), dato dalle matrici con det(A) 6= 0, JX (F )
ha rango massimale. Perciò det è un sommersione su
SL(n, R) = {A ∈ Mn (R) : det(A) = 1 } = F −1 (1).
Dal teorema segue che SL(n, R) è una varietà. La dimensione di SL(n, R) è n2 − 1.
Un altro modo di mostrare che det ha rango massimale su GL(n, R) è di usare il fatto che
per una mappa liscia γ : R → Mn (R) si ha:
J0 (det ◦γ) = Jγ(0) (det)J0 (γ),
dove si noti che J0 (det ◦γ) = (d/dt)(det(γ))(0) è una matrice 1 × 1. Sia X ∈ GL(n, R) e
definiamo γ(t) = (1 + t)X ∈ Mn (R). allora γ(0) = X e
J0 (det ◦γ) = ((d/dt)(det((1 + t)X))|t=0
= ((d/dt)((1 + t)n det(X))|t=0
= (n(1 + t)n−1 det(X))|t=0
= n det(X) 6= 0
quindi anche Jγ(0) (det) = JX (det) 6= 0 e siccome JX (det) ha soltanto una riga, concludiamo
che det ha rango massimale in X ∈ GL(n, R).
4 GEOMETRIA DIFFERENZIALE
62
4.2.10 Esempio: il gruppo O(n,R). Il gruppo ortogonale reale è il sottogruppo di GL(n, R)
definito da
O(n, R) := {A ∈ Mn (R) : t AA = I },
in particolare, per A ∈ O(n, R) si ha A−1 = t A. Per mostrare che O(n, R) è una sottovarietà
di GL(n, R), definiamo prima
Symn (R) := {X ∈ Mn (R) : t X = X },
cioè, Symn (R) è lo spazio vettoriale reale delle matrici n × n simmetriche. Si noti che
dim Symn (R) = n(n + 1)/2. Definiamo poi un’applicazione liscia tra spazi vettoriali:
F : Mn (R) −→ Symn (R),
A 7−→ t AA,
e notiamo che O(n, R) = F −1 (I). Mostriamo che F è una sommersione su F −1 (I).
Sia A ∈ F −1 (I), dobbiamo mostrare che JA (F ) ha rango massimale, oppure, equivalentemente, che JA (F ) è un’applicazione suriettiva. Se consideriamo JA (F ) come matrice con
2
n2 colonne e n(n + 1)/2 righe, allora per X ∈ Mn (R) che corrisponde a x ∈ Rn si ha che
JA (F )x = y ∈ Rn(n+1)/2 , dove y corrisponde alla matrice simmetrica Y data da:
Y =
d
F (A
dλ
+ λX)|λ=0
se y = JA (F )x.
Per A ∈ F −1 (I) e X ∈ Mn (R), si ha:
d
F (A
dλ
+ λX)|λ=0 =
d t
( (A
dλ
+ λX)(A + λX))|λ=0
=
d t
( AA
dλ
=
t
+ λ(t AX + t XA) + λ2 (t XX))|λ=0
AX + t XA.
Si noti che t AX + t XA = 0 equivale a t AX = −t XA e, poiché −t XA = −t (t AX), questo equivale inoltre a t AX = −t (t AX), cioè t AX è una matrice antisimmetrica. Poiché A è invertibile
otteniamo un isomorfismo
∼
=
ker(JA (F )) ∼
= {X ∈ Mn (R) : t AX = −t (t AX) } −→ {Z ∈ Mn (R) : t Z = −Z},
X 7−→ t AX,
con inversa Z 7→ t A−1 Z. Quindi dim ker(JA (F )) = n(n − 1)/2 per ogni A ∈ F −1 (I) e perciò
dim im(JA (F )) = n2 − n(n − 1)/2 = n(n + 1)/2 = dim Symn (R). Concludiamo che JA (F ) ha
rango massimale per ogni A ∈ F −1 (I) e quindi che F è una sommersione su O(n, R).
Si ricordi che O(n, R) ha due componenti connesse: una è il gruppo
SO(n, R) = {A ∈ O(n, R) : det(A) = 1 },
l’altra è data dalle matrici A ∈ O(n, R) con det(A) = −1. Abbiamo mostrato che entrambe
sono varietà di dimensione n(n − 1)/2.
4 GEOMETRIA DIFFERENZIALE
4.3
63
Spazi e fibrati tangenti
4.3.1 Lo spazio tangente. Sia M una varietà differenziabile di dimensione m e sia p ∈ M .
L’algebra dei germi delle funzioni lisce in p è
C ∞ (M, p) := {(U, f )}/ ∼
dove U è un intorno aperto di p e f : U → R è una funzione liscia. Per tali (U, f ), (V, g) si
definisce (U, f ) ∼ (V, g) se f = g su un intorno di p. Quindi la classe, il germe, di f dipende
soltanto dal comportamento di f ‘molto vicino’ a p. Di solito scriveremo semplicemente f
invece di [(U, f )] per il germe definito da (U, f ).
Una derivazione su C ∞ (M, p) è un’applicazione
v(λf + µg) = λv(f ) + µv(g),
∞
v : C (M, p) −→ R,
t.c.
v(f g) = f (p)v(g) + g(p)v(f ),
per f, g ∈ C ∞ (M, p) e λ, µ ∈ R, cioè v è R-lineare e soddisfa la regola di Leibnitz. L’insieme
delle derivazioni su C ∞ (M, p) è uno spazio vettoriale reale tramite
(λv + µw)(f ) := λv(f ) + µw(f )
(λ, µ ∈ R, f ∈ C ∞ (M, p)),
dove v, w sono derivazioni su C ∞ (M, p). Questo spazio vettoriale è detto spazio tangente di M
in p e si scrive Tp M . Una derivazione in Tp M si chiama vettore tangente.
Esempi di tali derivazioni si ottengono nel modo seguente. Sia (U, φ = (x1 , . . . , xm ) una
carta di M dove p ∈ U . Si definisce
(∂/∂xi )|p : C ∞ (M, p) −→ R,
(∂/∂xi )|p (f ) :=
∂(f ◦ φ−1 )
(φ(p)),
∂ti
dove i ti sono coordinate su Rm . Si noti che f ◦ φ−1 è liscia su un intorno di φ(p) in Rm . E’
facile verificare che (∂/∂xi )|p ∈ Tp M .
4.3.2 Una base dello spazio tangente. Si può mostrare che i (∂/∂xi )|p , 1 ≤ i ≤ m, definiti
come sopra,
Psono una base di Tp M , in particolare, dim Tp M = dim M = m. Sia v ∈ Tp M ,
allora v = ai (∂/∂xi )|p per certe ai ∈ R. Poiché xi ∈ C ∞ (M, p) e si ha:
(∂/∂xi )|p (xj ) = δij
con δij la delta di Kronecker, i coefficienti ai di v sono determinati da:
v(xj ) =
m
X
ai (∂/∂xi )|p (xj ) = aj .
i=1
In particolare, se (V, ψ = (y1 , . . . , ym )) è un’altra carta di M con p ∈ V , allora abbiamo anche
i vettori tangenti (∂/∂yi )|p ∈ Tp M . Per esprimere questi vettori tangenti come combinazione
lineare delle (∂/∂xi )|p si noti:
(∂/∂yj )|p =
m
X
i=1
cij (∂/∂xi )|p
con cij = (∂/∂yj )|p (xi ),
4 GEOMETRIA DIFFERENZIALE
64
che generalizza la ben nota formula ∂/∂yj =
P
i (∂xi /∂yj )∂/∂xi .
4.3.3 Vettori tangenti e cammini. Un altro modo di definire un vettore tangente in Tp M
è il seguente. Sia > 0 e
γ : ] − , [ −→ M,
γ(0) = p
un’applicazione liscia, detto cammino. Definiamo
∞
γ∗ : C (M, p) −→ R,
γ∗ (f ) :=
df ◦ γ
dτ
.
|τ =0
E’ facile mostrare che γ∗ ∈ Tp M .
Viceversa,
data una carta (U, φ = (x1 , . . . , xm )) di M con p ∈ U e un vettore tangente
P
v = ai (∂/∂xi )|p ∈ Tp M , sia a = (a1 , . . . , am ) ∈ Rm . Definiamo un cammino
γ : ] − , [ −→ M,
γ(τ ) = φ−1 (φ(p) + τ a)
con tale che φ(p) + τ a ∈ φ(U ) per τ ∈] − , [. Si verifica che γ∗ = v, quindi ogni vettore
tangente si ottiene tramite un cammino.
4.3.4 Lo spazio tangente ad uno spazio vettoriale. Un caso importante, anche se banale,
è M = V , uno spazio vettoriale reale di dimensione finita. Per p ∈ V si ha un isomorfismo
‘naturale’ tra V e Tp V nel modo seguente:
∼
=
V −→ Tp V,
a 7−→ γ∗ ,
con γ(τ ) = p + τ a.
P
Se V = Rm , l’isomorfismo è dato da a = (a1 , . . . , am ) 7→
ai (∂/∂ti )|p . Questo isomorfismo
verrà usato in varie occasioni in futuro.
4.3.5 Il differenziale di un’applicazione liscia. Sia f : M → N un’applicazione liscia tra
varietà di dimensione m e n rispettivamente. Per p ∈ M definiamo un’applicazione lineare, il
differenziale di f in p:
(df )p : Tp M −→ Tf (p) N,
v 7−→ [g 7−→ v(g ◦ f )]
dove v ∈ Tp M e g ∈ C ∞ (N, f (p)) (e quindi g ◦ f ∈ C ∞ (M, p)).
Se γ∗ ∈ Tp M è definito da un cammino γ, allora (df )p γ∗ ∈ Tf (p) N è definito dal cammino
f ◦ γ perché per g ∈ C ∞ (N, f (p)):
((df )p γ∗ )(g) = γ∗ (g ◦ f ) = (d(g ◦ (f ◦ γ))/dτ )|τ =0 = (f ◦ γ)∗ (g).
Siano (U, φ = (x1 , . . . , xm )) e (V, ψ = (y1 , . . . , yn )) carte di M e N rispettivamente con p ∈ U
e f (p) ∈ V . Allora delle basi di Tp M e Tf (p) N sono i (∂/∂xi )|p e (∂/∂yj )|f (p) rispettivamente.
La matrice (vij ) dell’applicazione lineare (df )p è data da:
(df )p ((∂/∂xj )|p ) =
n
X
i=1
vij (∂/∂yi )|f (p) .
4 GEOMETRIA DIFFERENZIALE
65
Usando (∂/∂yi )|f (p) (yj ) = δij si trova:
vij = (df )p ((∂/∂xj )|p (yi ) = (∂/∂xj )|p (yi ◦ f ).
Se scriviamo F = (F1 , . . . , Fn ) = ψ ◦ f ◦ φ−1 allora Fi = yi ◦ f ◦ φ−1 e
vij = (∂/∂xj )|p (yi ◦ f ) = (∂(yi ◦ f ◦ φ−1 )∂tj )(φ(p)) = (∂Fi /∂tj )(φ(p)).
Ne concludiamo che il differenziale (df )p è determinato dalla matrice jacobiana Jφ(p) (F ).
4.3.6 Il differenziale di una funzione liscia. Sia f : M → R una funzione liscia. Per
p ∈ M , il suo differenziale è una mappa lineare
quindi (df )p ∈ Tp∗ M := Hom(Tp M, R).
(df )p : Tp M −→ Tf (p) R = R,
Qui sfruttiamo l’isomorfismo Tf (p) R = R di 4.3.4. Il duale Tp∗ M := (Tp M )∗ dello spazio tangente
Tp M è detto spazio cotangente. Ogni f ∈ C ∞ (M, p) definisce allora un elemento (df )p ∈ Tp∗ M .
Il differenziale è dato dalla seguente identità:
(df )p : Tp M −→ R,
(f ∈ C ∞ (M, p), v ∈ Tp M ).
(df )p (v) = v(f ),
Per verificare l’identità, si ricordi che l’isomorfismo Tf (p) R ∼
= R identifica λ(∂/∂t)|f (p) con
∞
λ ∈P
R. Sia g ∈ C (R, f (p)) e applichiamo la derivazione (df )p (v) ∈ Tf (p) R a g, scrivendo
v = ai (∂/∂xi )|p ∈ Tp M :
−1 )
((df )p (v))(g) =
P
ai ∂g◦(f∂t◦φ
i
=
P
◦φ
ai ∂g
(f (p)) ∂(f∂t
∂t
i
(φ(p))
−1 )
(φ(p))
∂
= v(f )( ∂t
)|f (p) (g),
che verifica che (df )p (v)) ∈ Tf (p) R corrisponde a v(f ) ∈ R.
Sia (U, φ = (x1 , . . . , xm )) una carta di M con p ∈ U , allora i (∂/∂xi )|p sono una base di
Tp M . Poiché
(dx)i )p ((∂/∂xj )|p ) = (∂/∂xj )|p (xi ) = δij ,
i (dxi )p ∈ Tp∗ M sono la base duale di Tp∗ M . L’elemento (df )p ∈ Tp∗ M è la seguente combinazione
lineare dei (dxi )p :
X
(df )p =
(∂/∂xi )|p (f )(dxi )p
i
come si verifica facilmente valutando entrambi i membri sui vettori tangenti (∂/∂xj )|p per
j = 1, . . . , n.
4.3.7 Il fibrato tangente. Sia M una varietà differenziabile di dimensione m. L’unione
disgiunta degli spazi tangenti ad M è denotata con
a
TM =
Tp M,
sia π : T M −→ M, v 7−→ p
p∈M
4 GEOMETRIA DIFFERENZIALE
66
se v ∈ Tp M . Sia (U, φ = (x1 , . . . , xm )) una carta locale di M . Allora per ogni p ∈ U , i vettori
tangenti (∂/∂xi )|p sono una base di Tp M . Quindi otteniamo una biezione
∼
=
∼
=
Φ : T U := π −1 (U ) −→ U × Rm −→ φ(U ) × Rm
(⊂ Rm × Rm = R2m )
data da
v=
X
ai (∂/∂xi )|p 7−→ (p, (a1 , . . . , am )) 7−→ (φ(p), (a1 , . . . , am )).
Si noti che p = π(v).
Si può mostrare che esiste una topologia di Hausdorff su T M t.c. π è continua. In più, T M
è una varietà differenziabile, di dimensione 2m, con carte (T U, Φ) ottenute da carte (U, φ) di
M come sopra. In particolare, Φ : T U → φ(U ) × Rm è un omeomorfismo.
Per esempio, se V è uno spazio vettoriale, allora
∼
=
V × V −→ T V,
(p, a) 7−→ γ∗
con γ(τ ) = p + τ a.
4.3.8 Esempio: il fibrato tangente a una sottovarietà. Sia f : M → N una sommersione
su K = f −1 (y) per un certo y ∈ N . Quindi K è una sottovarietà di M di dimensione r = m − n
dove m = dim M , n = dim N (vedi 4.2.7). Per ogni p ∈ K lo spazio tangente Tp K è una
sottospazio di Tp M . Se (U, φ = (x1 , . . . , xn )) è una carta di M con p ∈ K ∩ U e tale che
K ∩ U = {x ∈ M : xr+1 (x) = . . . = xm (x) = 0 } allora Tp K è lo sottospazio di Tp M con base
(∂/∂xi )|p per 1 ≤ i ≤ r.
Sia v ∈ Tp K definito da un cammino γ : ] − , [ → K. Allora f (γ(τ )) = y, un cammino
costante, per ogni τ perché f (K) = y. Quindi (df )p (v) = 0 ∈ Ty N cioè Tp K ⊂ ker((df )p ).
Poiché l’applicazione lineare (df )p è suriettiva, perché (df )p è dato dalla matrice jacobiana in
carte locali, segue che dim Tp K = dim K = n − m è uguale a dim ker((df )p ), perciò:
Tp K = ker((df )p : Tp M −→ Tf (p) N )
(p ∈ K).
Quindi, con significato ovvio, T K = ker(df : T M −→ T N ).
4.3.9 Esempio: il fibrato tangente di S n . Si ricordi (vedi Esempio 4.2.8) che S n = f −1 (1)
dove
f : Rn+1 −→ R,
x = (x1 , . . . , xn+1 ) 7−→ x21 + . . . + x2n+1
è una sommersione sulla n-sfera S n . Quindi per x ∈ S n e y ∈ Tx Rn+1 = Rn+1 abbiamo che
y ∈ Tx S n se e solo se (df )x (y) = 2x1 y1 + . . . + 2xn+1 yn+1 = 0. Sia (, ) il prodotto scalare
euclideo standard su Rn+1 , (x, y) = x1 y1 + . . . + xn+1 yn+1 . Se non confondiamo le coppie (x, y)
con il prodotto scalare (x, y) abbiamo allora:
T S n+1 = {(x, y) ∈ Rn+1 × Rn+1 = T Rn+1 : (x, x) = 1, (x, y) = 0 }.
Non è difficile verificare che l’applicazione
F : Rn+1 × Rn+1 −→ R2 ,
(x, y) 7−→ ((x, x), (x, y))
4 GEOMETRIA DIFFERENZIALE
67
è una sommersione su F −1 ((1, 0)). Quindi T S n è una sottovarietà di R2n+2 e questa struttura
di varietà su T S n coincide con quella data dalle carte (T U, Φ) come in 4.3.7.
Nel caso n = 1, il fibrato tangente T S 1 è diffeomorfo al prodotto S 1 × R. Un tale
diffeomorfismo è:
f : S 1 × R −→ T S 1 ,
((x1 , x2 ), t) 7−→ (x, y) = ((x1 , x2 ), t(−x2 , x1 )).
Per dare qualche idea su come è fatto il fibrato T S 2 , definiamo il fibrato tangente unitario:
T1 S 2 = {(x, y) ∈ T S 2 : (x, x) = (y, y) = 1, (x, y) = 0 }.
Si noti che ogni fibra π −1 (x) di π : T1 S 2 → S 2 è diffeomorfa a S 1 . E’ facile verificare che T1 S 2
è una sottovarietà di R3 × R3 e quindi anche di T S 2 .
La varietà T1 S 2 è diffeomorfa a SO(3) = {A ∈ O(3) : det(A) = 1}. Si ricordi che una
matrice A = (a1 |a2 |a3 ), con colonne ai , sta in SO(3) esattamente se le colonne sono una
base ortonormale di R3 , quindi ||ai ||2 = (ai , ai ) = 1 e (ai , aj ) = 0 se i 6= j. Poi si ricordi
che dati due vettori x, y ∈ R3 il loro prodotto vettoriale x × y è perpendicolare a entrambi
e ||x × y|| = ||x||||y||senφ dove φ ∈]0, π[ è l’angolo tra i vettori x, y (nel piano hx, yi). In più,
det(x, y, x × y) ≥ 0 in quanto i vettori x, y, x × y sono ortientati. Da ciò segue che l’applicazione
f : T S 2 −→ SO(3),
(x, y) 7−→ A = (x|y|x × y)
è ben definita ed è facile vedere che f e f −1 sono lisce.
4.3.10 Campi vettoriali. Sia M una varietà differenziabile e sia π : T M → M il fibrato
tangente. Un campo vettoriale X su un aperto V di M è un’applicazione liscia
X : V −→ T V := π −1 (V )
t.c. π ◦ X = idV .
Si noti che π(X(p)) = p implica che X(p) ∈ π −1 (p) = Tp M . Quindi un campo vettoriale su V
dà per ogni p ∈ V un vettore tangente X(p) in Tp M . Se (U, φ = (x1 , . . . , xm )) è una carta di
M con U ⊂ V allora per ogni p ∈ U si ha
X(p) = a1 (p)(∂/∂x1 )|p + . . . + am (p)(∂/∂xm )|p ,
(ai (p) ∈ R)
e X è liscia su U equivale a dire che gli ai : U → R sono funzioni lisce. L’insieme dei campi
vettoriali su V si indica con X (V ).
Dati i campi vettoriali X, Y ∈ X (V ) e le funzioni lisce f, g ∈ C ∞ (V ), definiamo un campo
vettoriale f X + gY su V come:
(f X + gY )(p) := f (p)X(p) + g(p)Y (p)
(∈ Tp M ),
dove p ∈ V . Con questo operazione l’insieme X (V ) è un modulo sull’algebra C ∞ (V ), in
particolare, X (V ) è un gruppo abeliano.
Dati X ∈ X (V ) e f ∈ C ∞ (V ) otteniamo una funzione liscia X(f ) su V nel modo seguente:
X(f )(p) := Xp (f ),
dove
Xp := X(p)
(∈ Tp M )
4 GEOMETRIA DIFFERENZIALE
68
e dove p ∈ V . Per verificare che X(f ) è liscia, si usaPl’espressione locale per X data qui sopra:
se F = f ◦ φ−1 e t = φ(p) ∈ Rm allora X(f )(p) =
ai (φ−1 (t))(∂F/∂ti )(t) che è liscia perché
−1
ai ◦ φ e F sono lisce su φ(U ).
4.3.11 Parentesi di Lie. Dati i campi vettoriali X, Y ∈ X (V ) su un aperto V ⊂ M e una
funzione liscia f ∈ C ∞ (V ) la funzione Y (f ) è liscia su V . Per p ∈ V consideriamo la mappa
f 7−→ Xp (Y (f ))
f ∈ C ∞ (V )).
(∈ R,
Questa mappa non è una derivazione in generale. Per esempio, se V = M = R, X = Y = ∂/∂t
e p = a ∈ R allora Xp (Y (f )) = f 00 (a), ma l’applicazione f 7→ f 00 (a) non soddisfa la regola di
Leibnitz. Più in generale, ogni campo vettoriale su R si scrive come g∂/∂t per g ∈ C ∞ (R). Se
X = g∂/∂t, Y = h∂/∂t, si ha:
Xp (Y (f )) = Xp (hf 0 ) = (ghf 00 + gh0 f 0 )|t=a = g(a)h(a)f 00 (a) + g(a)h0 (a)f 0 (a)
e si noti che la parte ‘sbagliata’ è g(a)h(a)f 00 (a): questa espressione è però simmetrica in g, h
cioè in X, Y .
Definiamo le parentesi di Lie [X, Y ] di due campi vettoriali X, Y ∈ X (V ) come:
[X, Y ]p (f ) := Xp (Y (f )) − Yp (X(f ))
(∈ R,
X, Y ∈ X (V ), p ∈ V, f ∈ C ∞ (V )).
Nell’esempio si ottiene:
[X, Y ]p (f ) = (g(a)h(a)f 00 (a) + . . .) − (. . . + h(a)g 0 (a)f 0 (a)) = (g(a)h0 (a) − g 0 (a)h(a))f 0 (a)
e quindi [X, Y ]p è una derivazione. Il campo vettoriale [X, Y ] è allora dato da
[X, Y ] = (gh0 − h0 g)∂/∂t,
(X = g∂/∂t, Y = h∂/∂t ∈ X (R)).
In generale, in coordinate locali si ha:
X
[X, Y ] =
(Xj ∂Yi /∂xj − Yj ∂Xi /∂xj )∂/∂xi
(X =
X
Xi ∂/∂xi , Y =
X
Yi ∂/∂xi )
i,j
Le parentesi di Lie godono delle proprietà seguenti:
[X, Y ] = −[Y, X],
[X, [Y, Z]] + [Y, [Z, X]] + [Z, [X, Y ]] = 0
la seconda identità è detta identità di Jacobi (si noti la permutazione ciclica degli argomenti).
Un altro modo di scrivere l’identità di Jacobi è:
adZ ([X, Y ]) = [X, adZ (Y )] + [adZ (X), Y ]
dove adZ (V ) := [Z, V ]. In questa scrittura si vede che adZ soddisfa la regola di Leibnitz per il
prodotto dato dalle parentesi di Lie.
4 GEOMETRIA DIFFERENZIALE
4.4
69
Forme differenziali.
4.4.1 Il fibrato delle k-forme. Sia M una varietà differenziabile di dimensione m. Per
p ∈ M abbiamo definito lo spazio cotangente Tp∗ M = Hom(Tp M, R) e il suo k-esimo prodotto
esterno ∧k Tp∗ M , uno spazio vettoriale di dimensione (m
k ). Similmente alla definizione del fibrato
tangente si può definire una varietà differenziabile, il fibrato delle k-forme,
a
∧k (M ) :=
∧k Tp∗ M,
π : ∧k (M ) −→ M
p∈M
dove π è un’applicazione liscia tale che π(∧k Tp∗ M ) = p. Definiamo inoltre ∧0 (M ) = M × R.
Una k-forma differenziale su un aperto V di M è un’applicazione liscia
ω : V −→ ∧k (V ) := π −1 (V )
(⊂ ∧k (M ))
tale che π ◦ ω = idV , cioè, per ogni p ∈ V si ha che ω(p) ∈ π −1 (p) = ∧k T ∗p M . Se (U, φ =
(x1 , . . . , xm ) è una carta di M con U ⊂ V , i differenziali (dxi )p sono una base di Tp∗ M , quindi
X
aI (p)dxI
(∈ ∧k Tp∗ M ),
ω(p) =
I,]I=k
e ω è liscia se e solo se le funzioni aI sono lisce. Una 0-forma è semplicemnete una funzione
liscia f : V → R.
L’insieme delle k-forme differenziali su V si denota con Ωk (V ) e si ha Ω0 (V ) = C ∞ (V ). Per
f, g ∈ C ∞ (V ) e ω, θ ∈ Ωk (V ) si definisce una k-forma con:
(f ω + gθ)(p) = f (p)ω(p) + g(p)θ(p)
(∈ ∧k Tp∗ M ).
Data una 1-forma ω ∈ Ω1 (M ) e un campo vettoriale X ∈ X (M ) si definisce una funzione
liscia ω(X) ∈ C ∞ (M ) tramite ω(X)(p) := ω(p)(X(p)). Più in generale, una k-forma ω ∈
Ωk (M ) e k campi vettoriali X1 , . . . , XP
k ∈ X (M ), definiscono una funzione liscia ω(X1 , . . . , Xk ),
localmente tramite ω(X1 , . . . , Xk ) = aI (dxI (X1 , . . . Xk )):
ω(X1 , . . . , Xk ) ∈ C ∞ (M )
con (dxi1 ∧ . . . ∧ dxik )(X1 , . . . , Xk ) = det(A),
A = (dxia (Xb ))
dove 1 ≤ a, b ≤ k (vedi 1.3.5).
4.4.2 La derivata esterna. Sia V un aperto in una varietà M . Per f ∈ C ∞ (V ) = Ω0 (V ) e p ∈
V abbiamo definito il suo differenziale (df )p ∈ Tp∗ M . In questo modo otteniamo un’applicazione
d = d0 : Ω0 (V ) −→ Ω1 (V ),
(d0 f )(p) = (df )p
Si può mostrare che per ogni k ≥ 0 esiste un’ unica applicazione
dk : Ωk (V ) −→ Ωk+1 (V )
tale che:
(∈ Tp∗ M ).
4 GEOMETRIA DIFFERENZIALE
70
1. d0 = d,
2. dk è R-lineare,
3. dk (ω ∧ θ) = (da ω) ∧ θ + (−1)a ω ∧ (db θ)
per ω ∈ Ωa (V ), θ ∈ Ωb (V ) e k = a + b,
4. dk+1 ◦ dk = 0.
L’unicità di dk implica che per ω ∈ Ωk (V ) e U ⊂ V un aperto si ha: dk (ω)|U = dk (ω|U ), dove
ω|U ∈ Ωk (U ) e le derivate dk sono su Ωk (V ) e Ωk (U ) rispettivamente. Questo permette di
calcolare la derivata esterna su carte locali.
Sia (U, φ = (x1 , . . . , xm )) una carta di M con U ⊂ V , e sia
X
ω=
aI dxI
(∈ Ωk (U )),
I,]I=k
con aI ∈ C ∞ (U ) = Ω0 (U ). Per calcolare dk ω sfruttiamo prima il fatto che dk è R-lineare
X
X
dk (aI dxI ).
aI dxI ) =
dk ω = dk (
I,]I=k
I,]I=k
Poi applichiamo (3) con a = 0, b = k:
dk (aI dxI ) = (d0 aI ) ∧ dxI + aI dk (dxI ).
Poi mostriamo che dk (dxI ) = 0, usando ancora (3), con a = 1, b = k − 1:
dk (dxI ) = dk (d0 xi1 ∧ d0 xi2 ∧ . . . ∧ d0 xik )
= (d1 d0 xi1 ) ∧ d0 xi2 ∧ . . . ∧ d0 xik − d0 xi1 ∧ dk−1 (d0 xi2 ∧ . . . ∧ d0 xik )
Per (4), d1 d0 = 0. Usando (3) k − 1-volte si trova che dk−1 (d0 xi2 ∧ . . . ∧ d0 xik ) = 0. Quindi si
ottiene:
X
X
dk ω = dk (
aI dxI ) =
(daI ) ∧ dxI .
I,]I=k
I,]I=k
4.4.3 Il pull-back di forme differenziali. Sia f : M → N un’applicazione liscia tra varietà
differenziabili. Allora f definisce un’applicazione lineare, il pull-back,
f ∗ : Ωk (N ) −→ Ωk (M ),
(f ∗ θ)(X1 , . . . , Xk ) := θ((df )X1 , . . . , (df )Xk ),
dove θ ∈ Ωk (N ) e X1 , . . . , Xk ∈ X (M ).
Si può mostrare che la derivata esterna è compatibile con il pull-back:
f ∗ (dθ) = d(f ∗ θ).
4 GEOMETRIA DIFFERENZIALE
71
4.4.4 Forme differenziali su R3 . Sia M = R3 e sia f ∈ Ω0 (R3 ), cioè f : R3 → R sia una
funzione liscia. Allora
3
X
∂f ∂f ∂f
∂f
df =
dxi .
Si ricordi grad(f ) =
,
,
.
∂x
∂x
∂x
∂x
i
1
2
3
i=1
Sia ω ∈ Ω1 (R3 ), diciamo ω = gdx1 + hdx2 + kdx3 con g, h, k ∈ C ∞ (R3 ). Dunque si ha, con
gi = ∂g/∂xi ecc.:
d1 ω = d1 (gdx1 + hdx2 + kdx3 )
= (g1 dx1 + g2 dx2 + g3 dx3 ) ∧ dx1 + . . . + (k1 dx1 + k2 dx2 + k3 dx3 ) ∧ dx3
= (h1 − g2 )dx1 ∧ dx2 + (k1 − g3 )dx1 ∧ dx3 + (k2 − h3 )dx2 ∧ x3
dove abbiamo usato dxi ∧ dxj = −dxj ∧ dxi . Usando l’operatore ∗ di Hodge (vedi 1.3.7), si può
identificare questa 2-forma con una 1-forma:
  

g
k2 − h3
∗d1 ω = (k2 −h3 )dx1 −(k1 −g3 )dx2 +(h1 −g2 )dx3 .
Si ricordi rot  h  =  −(k1 − g3 )  .
k
h1 − g2
In particolare, d1 d0 = 0 corrisponde al fatto che rot(grad(f )) = 0 per ogni f ∈ C ∞ (R3 ).
Sia θ ∈ Ω2 (R3 ), diciamo θ = pdx1 ∧ dx2 + qdx1 ∧ dx3 + rdx2 ∧ dx3 con p, q, r ∈ C ∞ (R3 ). Si
ha:
d2 θ = d2 (pdx1 ∧ dx2 + qdx1 ∧ dx3 + rdx2 ∧ x3 )
= (p1 dx1 + p2 dx2 + p3 dx3 ) ∧ dx1 ∧ dx2 + . . . + (r1 dx1 + r2 dx2 + r3 dx3 ) ∧ dx2 ∧ dx3
= (p3 − q2 + r1 )dx1 ∧ dx2 ∧ dx3 .
Si noti che usando l’operatore ∗ di Hodge si ha:
∗θ = rdx1 − qdx2 + pdx3
div(r, −q, p) = r1 − q2 + p3 ,
quindi d2 d1 = 0 corrisponde al fatto che div(rot(f, g, h)) = 0 per ogni f, g, h ∈ C ∞ (R3 ).
Usando le correspondenze qui sopra, otteniamo allora il diagramma
d0
Ω0 (R3 ) −→
↓
grad
Ω1 (R3 )
↓
d1
−→
rot
Ω2 (R3 )
↓
d2
−→ Ω3 (R3 )
↓
div
C ∞ (R3 ) −→ C ∞ (R3 )3 −→ C ∞ (R3 )3 −→ C ∞ (R3 )
dove le applicazioni verticali sono come sopra.
4.4.5 Equazioni di Maxwell e forme differenziali. Nella teoria della relatività ristretta, il
campo elettrico e magnetico vengono unificati, nel senso che risultano comportarsi come diverse
componenti di un unico campo tensoriale antisimmetrico, il tensore di Faraday


0
Ex
Ey
Ez
 −Ex
0
Bz −By 
 ,
F = {F µν } = 
 −Ey −Bz
0
Bx 
−Ez By −Bx
0
4 GEOMETRIA DIFFERENZIALE
72
sullo spazio-tempo R4 . La metrica di Minkowski η = ηµν dxµ ⊗ dxν , dove x0 = ct,
(x1 , x2 , x3 ) = (x, y, z) e {ηµν } = diag{1, −1, −1, −1} permette tramite abbassamento degli
indici di interpretare F come una 2−forma su R4 ,
1
θ = Fµν dxµ ∧ dxν .
2
Allora, se i = 1, 2, 3 mentre 0 si riferisce alla coordinata temporate, si ha θ0i = Ei e, vista come
una due forma su R3 , 12 θij dxi ∧ dxj = ∗B 9 .
D’altra parte il tensore di Faraday deve risolvere le equazioni di Maxwell che in forma covariante
sono
∂Fµν ∂Fρµ ∂Fνρ
+
+
=0,
∂xρ
∂xν
∂xµ
4π ν
∂F ρν
j
=
ρ
∂x
c
dove j ν è la tetra-corrente. Si noti che la prima equazione coincide con dθ = 0. Vogliamo
scrivere anche la seconda nel linguaggio delle forme differenziali. A tale scopo consideriamo il
duale di Hodge in R4 , dotato del tensore metrico η. Seguendo 1.3.7 abbiamo10
!
X
1 X
(2)
2 −1
0
i
i
j
∗θ = ◦ (∧ η̃)
F0i dx ∧ dx
Fij dx ∧ dx +
2 i6=06=j
i6=0
!
X
X
∂
∂
∂
∂
1
F0i 0 ∧ i
= (2)
Fij i ∧ j −
2 i6=06=j
∂x
∂x
∂x
∂x
i6=0
X
1
ijk Fij dx0 ∧ dxk − F0i dxj ∧ dxk ,
=
2 i6=0,j6=0,k6=0
dove ijk sono le componenti della 3−forma dx1 ∧dx2 ∧dx3 = 16 ijk dxi ∧dxj ∧dxk . Di conseguenza
X
1
∂Fij
0
l
k
d∗θ =
kij dx ∧ dx ∧ dx
2 i6=06=j; k6=06=l ∂xl
X
1
∂F0i
j
k
l
+
ikl dx ∧ dx ∧ dx
2 i6=06=j; k6=06=l ∂xj
∂F0i
1 X
0
k
l
ikl dx ∧ dx ∧ dx ,
−
2 i6=06=k6=06=l ∂x0
P
ed infine, usando i ijl ihk = δjh δlk − δjk δlh ,
X ∂Fij
X ∂F0s
∂F0j
0
dx +
−
dxj .
∗d ∗ θ =
s
i
0
∂x
∂x
∂x
s6=0
i6=06=j
9
Qui stiamo trattando B come una uno forma su R3 dipendente da un parametro t e il duale di Hodge è
inteso in R3 . Si noti che sono tensori rispetto alle trasformazioni di R3 ma non a quelle di R4 .
10
qui non adottiamo la convenzione di Einstein per evitare confusione
4 GEOMETRIA DIFFERENZIALE
73
Se introduciamo la 1−forma J := jµ dxµ e ricordiamo che ∗∗ = −id, le equazioni di Maxwell
assumono perciò la semplice forma
dθ = 0 ,
4π
d∗θ =
∗J .
c
In particolare dalla seconda segue che deve aversi per consistenza d ∗ J = 0 e dunque ∗d ∗ J = 0
che è l’equazione di continuità per J espressa nel linguaggio delle forme differenziali (verificare):
∂j µ
= 0.
∂xµ
4.4.6 La 1-forma canonica sul fibrato cotangente. Sia M una varietà di dimensione m e
sia T ∗ M il suo fibrato cotangente, che è una varietà di dimensione 2m. Mostriamo che si può
definire, in modo intrinseco, un elemento di Ω1 (T ∗ M ).
Sia θ ∈ Tp∗ M = π −1 (p) dove π : T ∗ M → M . Il differenziale di π in θ è un’applicazione
lineare dallo spazio tangente al fibrato cotangente di M in θ allo spazio tangente di M in
π(θ) = p:
(dπ)θ : Tθ (T ∗ M ) −→ Tp M.
Poiché θ ∈ Tp∗ M , abbiamo una mappa lineare θ : Tp M → R e quindi la composizione di (dπ)θ
e θ dà una mappa lineare
ϑθ =: θ ◦ (dπ)θ : Tθ (T ∗ M ) −→ R,
cioè ϑθ ∈ Tθ∗ (T ∗ M ) e in questo modo otteniamo una 1-forma ϑ ∈ Ω1 (T ∗ M ).
Per calcolare ϑ in coordinate locali, prendiamo una carta (U, (φ = (x1 , . . . , xm )) di M con
p ∈ U . Allora otteniamo una carta locale
∗
−1
Φ : T U = π (U ) −→ R
2m
,
m
X
yi (dxi )p 7−→ ((x1 (p), . . . , xm (p), y1 , . . . , ym )).
i=1
Tramite questa carta otteniamo la base (∂/∂xi )θ , (∂/∂yi )θ , con 1 ≤ i ≤ m, di Tθ (T ∗ M ). In
coordinate locali, la mappa π è (x, y) 7→ x. Si ha allora:
(dπ)θ ((∂/∂xi )θ ) = (∂/∂xi )p ,
Perciò, con θ =
P
(dπ)θ ((∂/∂yi )θ ) = 0.
yi (dxi )p ∈ Tp∗ M si ha:
m
m
m
X
X
X
ϑθ (
qi (∂/∂xi )θ + ri (∂/∂yi )θ ) = θ(
qi (∂/∂xi )p ) =
y i qi .
i=1
i=1
i=1
Usando le coordinate locali (x1 , . . . , xm , y1 , . . . , ym ) su T ∗ M abbiamo infine:
ϑ=
X
yi dxi ,
e quindi
dϑ =
m
X
dyi ∧ dxi .
i=1
La 2-forma dϑ è alla base della teoria Hamiltoniana della meccanica classica.
4 GEOMETRIA DIFFERENZIALE
4.5
74
Geometria differenziale e meccanica
Come esempio di applicazione della geometria differenziale alla fisica rivediamo qui alcuni
aspetti della meccanica classica Hamiltoniana dal punto di vista geometico.
4.5.1 Equazione di Newton e geometria. Consideriamo il moto di una particella di
massa m soggetta ad un determinato campo di forze che per ora chiameremo semplicemente
F~ (x) ed al quale daremo un significato più preciso tra poco. Supponiamo che la particella si
muova su una varietà M che ammetteremo essere di classe C ∞ . Per esempio potrebbe muoversi
su una superficie sferica perfettamente liscia o su un iperboloide di rotazione e cosı̀ via. Sia n la
dimensione di M . La traiettoria della particella sarà una curva γ nella varietà e la sua velocità
all’istante t sarà perciò un vettore nello spazio tangente Tγ(t) M . Vediamo dunque che il fibrato
tangente si presenta in modo naturale come l’oggetto geometrico più adeguato per descrivere
il moto della particella, rappresentando lo spazio delle posizioni e delle velocità assumibili da
essa. Infatti la descrizione matematica del fibrato tangente risulta particolarmente adatta alla
descrizione fisica non solo da un punto di vista teorico, ma in un certo senso anche dal punto
di vista pratico. Come è stato mostrato, scelto un atlante per M , il fibrato tangente T M può
essere descritto localmente come il prodotto φ(U ) × Rn , in cui U è un aperto di una carta
locale (U, φ). Ciò è essenzialmente quello che fa un fisico quando, per descrivere il fenomeno
in considerazione, introduce in una certa regione (corrispondente all’intorno U ) un riferimento
(che individua i punti di U in termini di una certa regione di Rn ) rispetto al quale misura
in ogni istante la posizione e la velocità della particella. La velocità risulterà allora essere un
vettore v ∈ Rn , cosicché l’isomorfismo locale π −1 (U ) ' U × Rn è realizzato in modo concreto
dal fisico che effettua l’esperimento, essendo essenzialmente v = dtd φ(γ(t)).
In sostanza è quindi conveniente dal punto di vista geometrico vedere in ogni istante la velocità
della particella come un punto in T M . Nella notazione del paragrafo 4.3.3 scriveremo allora
γ̇(t) = (γ(t), γ∗ |γ(t) ). Più precisamente, vediamo la curva
γ : R −→ M ,
t 7−→ γ(t) ,
come una mappa differenziabile tra varietà differenziabili11 . Allora il differenziale di γ definisce
una mappa
dγ : T R −→ T M ,
come mostrato in 4.3.5. Consideriamo il campo vettoriale su R
2
Xt : R −→ T R ' R , πR ◦ Xt = idR ,
t 7−→ Xt (t) =
∂
t,
∂t
.
Allora γ̇ = dγ ◦ Xt , cioè è definita dai diagrammi commutativi
dγ
T R −→ T M
Xt ↑ % γ̇
R
11
TM
γ̇ % ↓ πM
γ
R −→ M
dove la struttura differenziale di R è come al solito definita dall’unica carta locale (R, idR ); eventualmente
in luogo di R la curva può essere definita su un intervallo (a, b) ma il concetto non cambierebbe.
4 GEOMETRIA DIFFERENZIALE
75
Una volta chiarito il concetto di velocità dal punto di vista geometrico, è evidente come debba
essere trattata l’accelerazione γ̈ = (γ̇)· . Poiché γ̇ è una curva in T M , similmente γ̈ sarà una
curva in T (T M ) costruita rispetto a γ̇ esattamente nello stesso modo in cui abbiamo costruito
γ̇ rispetto a γ. Mentre lasciamo come esercizio i dettagli della costruzione di γ̈, ci basti ora
osservare che se γ̇(t) = (γ(t), γ∗ |γ(t) ) allora
γ̈ = ((γ(t), γ∗ |γ(t) ); (γ(t), γ∗ |γ(t) )∗ ) = ((γ(t), γ∗ |γ(t) ); (γ∗ |γ(t) ; γ∗∗ |γ∗ |γ(t) )) ,
cosicché il secondo ed il terzo elemento coincidono.
Tale osservazione diventa fondamentale nel momento in cui dobbiamo scrivere la seconda legge
di Newton per la meccanica: mγ̈ = F . Perché tale equazione sia ben definita occorre anzitutto
che F abbia valori in T (T M ) e possiamo dunque pensare al campo di forze F come un campo
vettoriale su T M
F : T M −→ T (T M ) , πT M ◦ F = idT M ;
(x, ~v ) 7−→ F (x, ~v ) .
Una tale definizione non è completa poiché in generale non sarebbe compatibile con l’equazione
di Newton. Infatti il generico punto di T (T M ) lo possiamo scrivere in coordinate locali nella
forma ((x, v); (w, z)) ∈ R2n ×R2n , mentre l’accelerazione, come abbiamo notato pocanzi, richiede
che la seconda e la terza componente debbano coincidere. Questa condizione può essere scritta
in maniera più elegante nel linguaggio geometrico.
Osserviamo anzitutto che c’è una mappa naturale
πT M : T (T M ) −→ T M ,
((x, v); (w, z)) 7−→ (x, v) .
D’altra parte si consideri la mappa analoga πM : T M → M . Il suo differenziale è la mappa
dπM : T (T M ) −→ T M ,
((x, v); (w, z)) 7−→ (x, w) .
La condizione soddisfatta dall’accelerazione può dunque essere scritta nella forma πT M γ̈ =
dπM γ̈. La stessa condizione deve perciò essere soddisfatta dal campo di forze: chiameremo
campo di forze una mappa
F : T M −→ T (T M ) ,
πT M ◦ F = idT M ;
πT M F = dπM F .
Con tale definizione si può infine scrivere l’equazione di Newton sulla varietà M
mγ̈ = F ◦ γ̇ .
Si noti che scritta in questa forma essa è indipendente dalla scelta delle coordinate o di una
carta locale.
4.5.2 Richiami di meccanica Hamiltoniana. Una descrizione ancora più geometrica si
ottiene nel formalismo Hamiltoniano.
Si consideri una particella soggetta a forze conservative, descritte da un potenziale V (q i ), dove
4 GEOMETRIA DIFFERENZIALE
76
q i sono le coordinate generalizzate che individuano la posizione della particella. In termini della
funzione lagrangiana12
L : T M −→ R ,
L(q j , q̇ j ) = T (q j , q̇ j ) − V (q j ) ,
dove T (q j , q̇ j ) è l’energia cinetica, l’equazione di Newton per la dinamica assume la forma
d ∂L
∂L
= j ,
j
dt ∂ q̇
∂q
q̇ j =
dq j
.
dt
Si noti che in questa forma le equazioni del moto sono covarianti, nel senso che trasformano
esattamente come la base locale dello spazio tangente TqM come in 4.3.2. Si lascia come esercizio
la verifica di questo fatto. Poiché nel caso in cui la lagrangiana non dipenda esplicitamente
dalla coordinata q J0 per qualche fissato j0 le equazioni del moto implicano che pj0 := ∂∂L
sia
q̇ j0
i j
i
una costante del moto, appare opportuno considerare in luogo di (q , q̇ ) le variabili (q , pj )
, detti momenti coniugati alle variabili q i , purché il sistema di equazioni ottenuto
dove pj := ∂∂L
q̇ j
sia equivalente. Qui abbiamo utilizzato appositamente il termine variabili anziché coordinate,
poiché come osservato pocanzi pi si comportano (almeno fintanto che si impongono le equazioni
del moto) come le componenti di un covettore e dunque descrivono localmente il fibrato cotangente piuttosto che il fibrato tangente. Comunque ci viene in aiuto il fatto che localmente il
fibrato tangente e quello cotangente sono tra di loro diffeomorfi (ed in particolare sono diffeomorfi a U × Rn , dove U è un aperto di qualche carta locale) cosicché risulta evidente che il
nuovo sistema sarà equivalente al precedente se la mappa
q j 7−→ pj =
∂L
∂ q̇ j
è invertibile, cioè ci permette di ricavare q̇ i come funzioni di pi e q k . Il teorema della funzione
2
implicita ci dice che questo è garantito localmente dalla condizione det ∂ q̇∂i ∂Lq̇j 6= 0.
Ammesso che tale condizione sia soddisfatta si introduce allora la funzione
H : T ∗ M −→ R ,
H(q i , pj ) = (pk q̇ k − L)|q̇j =q̇j (qi ,pk ) ,
rispetto alla quale le equazioni del moto diventano (esercizio)
∂H
dq j
=
dt
∂pj
dpj
∂H
=− j .
dt
∂q
Indichiamo con xI , i = 1, . . . , 2n le coordinate del generico punto di T ∗ M , dove xi = q i ,
xn+i = pi , i = 1, . . . , n. Se introduciamo la matrice 2n × 2n antisimmetrica
O I
E=
,
−I O
12
qui (q i , q̇ j ) sono coordinate locali in T M
4 GEOMETRIA DIFFERENZIALE
77
dove O e I sono le matrici nulla ed identità n × n, possiamo scrivere le equazioni del moto nella
forma
dxI
∂H
= EIJ J .
dt
∂x
I
è un vettore tangente a T ∗ M nel punto di coDal punto di vista geometrico abbiamo che dx
dt
∂H
ordinate {xI }, mentre ∂x
J è un covettore dello spazio cotangente nello stesso punto. Possiamo
dunque vedere la matrice E come una mappa E : Tx∗ (T ∗ M ) → Tx (T ∗ M ) ed è cioè un tensore
controvariante di secondo grado. Essa è chiaramente una mappa non degenere e la sua inversa
E−1 , usualmente indicata con ω, è dunque un tensore covariante antisimmetrico, che individua
pertanto una due-forma ω = 21 ωIJ dxI ∧ dxJ = dqi ∧ dpi . Confrontando con la sezione 4.4.6,
vediamo allora che ω = −dϑ, dove ϑ è la uno-forma canonica su T ∗ M .
Possiamo quindi concludere che la meccanica Hamiltoniana dal punto di vista geometrico è
descritta in modo naturale sul fibrato cotangente ed è essenzialmente specificata da due ingredienti fondamentali: una funzione Hamiltoniana H : T ∗ M → R e la forma canonica ϑ su T ∗ M .
Il differenziale della forma canonica definisce una due forma, talvolta chiamata la seconda forma
canonica, che ha la proprietà di essere non degenere. Il differenziale di H definisce invece un
campo covettoriale su T ∗ M che viene trasformato in un campo vettoriale dall’inversa della seconda forma canonica, ω −1 = −E. Diciamo XH := E(dH) (campo hamiltoniano). Le equazioni
di Hamilton sono infine le equazioni che determinano le curve x(t) su T ∗ M con la proprietà di
essere in ogni punto tangenti al campo vettoriale XH . Una tale equazione si chiama equazione
di flusso per il campo XH .13
Associate al moto delle particelle possono esserci delle osservabili fisiche, che saranno delle
funzioni reali delle coordinate q e p delle particelle, come ad esempio potrebbe essere la loro
energia. Tali osservabili fisiche F (q, p) varieranno nel tempo seguendo l’evoluzione (q(t), p(t))
determinata dalle equazioni di Hamilton. Derivando rispetto al tempo si ottiene
dF
= {F , H} ,
dt
dove
X ∂F ∂H
∂F ∂H
{F , H} =
−
i ∂p
∂q
∂pi ∂q i
i
i
sono le parentesi di Poisson. Come si vede immediatamente esse possono essere scritte nella
forma {F , H} = ω(XF , XH ), che mette in evidenza il ruolo della seconda forma canonica
nell’evoluzione temporale.
E’ possibile a questo punto riformulare quanto esposto in questo paragrafo nel linguaggio
rigoroso della geometria differenziale.
4.5.3 Formulazione geometrica della meccanica Hamiltoniana. Sia M una varietà
differenziabile reale n−dimensionale di classe C ∞ sia T ∗ M il corrispondente fibrato cotangente.
Quest ultimo è naturalmente dotato di una 1−forma canonica ϑ, il cui differenziale dà origine
13
Si noti che le equazioni di Newton nella precedente sezione sono anch’esse delle equazioni di flusso per il
campo vettoriale F su T M , essendo appunto γ̇ una curva su T M .
4 GEOMETRIA DIFFERENZIALE
78
ad una 2−forma nondegenere ω = −dϑ. Si dice allora che tale 2−forma provvede T ∗ M di una
struttura simplettica naturale. In particolare essa definisce una mappa
E : T ∗ (T ∗ M ) −→ T (T ∗ M ) ,
ν 7−→ E(ν)
∀ ν ∈ Ω1 (T ∗ M )
secondo la regola
ω(E(ν), X) := ν(X) ,
∀ ν ∈ Ω1 (T ∗ M ) , X ∈ X (T ∗ M ) .
In pratica, in un fissato punto e sistema di coordinate, E è rappresentata dall’inversa trasposta
della matrice ωIJ delle componenti della 2− forma ω.
Sia ora H ∈ C ∞ (T ∗ M, R). Una tale funzione viene detta funzione hamiltoniana. Si chiama
invece campo hamiltoniano associato ad H il campo vettoriale XH := E(dH). E’ molto ineteressante il problema inverso di stabilire se un campo vettoriale X su T ∗ M sia un campo
hamiltoniano, cioè se esiste una funzione hamiltoniana al quale il campo è associato. Si chiama
contrazione del campo X con la 2−forma ω la 1−forma iX ω definita da14
iX (ω)(Y ) := ω(X, Y ) ,
∀ X ∈ X (T ∗ M ) .
Il problema posto equivale allora a chiedersi se esiste una funzione F di tipo hamiltoniano tale
che iX ω = dF . Se F esiste si dice che iX ω è esatta. Evidentemente una condizione necessaria
è che valga d(iX ω) = 0. Se è soddisfatta si dice che iX ω è chiusa: una forma esatta è sempre
anche chiusa. Tuttavia tale condizione non è in generale sufficiente poiché non è detto che una
forma chiusa sia anche esatta. Per fare un esempio di forma chiusa ma non esatta si consideri la
uno forma ν = dφ sul cerchio S 1 , essendo φ la funzione coordinata angolare. E’ facile verificare
che ν è ben definita su tutto il cerchio, mentre la funzione φ non lo è ovviamente. Dunque ν
è chiusa ma non esatta. Tuttavia notiamo che se restringiamo il problema, anzichè su tutto
il cerchio, ad un sottoinsieme aperto proprio di S 1 , allora in tale aperto ν|U è esatta: mentre
non esiste una funzione φ ∈ C ∞ (S 1 , R) tale che ν = dφ, si ha che φ è ben definita su U e si ha
ν|U = dφ|U . Si dice allora che ν è localmente esatta. Si può dimostrare che questo fatto è vero
in generale, cioè ogni forma chiusa è localmente esatta. In altre parole se iX ω è chiusa allora
per ogni punto x ∈ T ∗ M esiste un intorno aperto U ∈ T ∗ M che lo contiene ed una funzione
F ∈ C ∞ (U, R) tale che iX ω|U = dF . In tal caso si dice che il campo è localmente hamiltoniano.
Si chiama sistema hamiltoniano la tripla {M, ω, H}. Ad esso si associa il problema della
determinazione del flusso hamiltoniano. Dato un campo vettoriale Y ∈ X (N ) su una varietà
differenziabile N ed un punto p ∈ N , si vuole determinare una curva γ : (−a, a) ∈ N , con
γ(0) = p e che in ogni punto sia tangente al campo vettoriale dato. Seguendo la notazione del
paragrafo 4.5.1 si deve risolvere dunque il problema di Cauchy
γ̇(t) = Y ◦ γ(t) ,
γ(0) = p .
L’equazione differenziale si chiama equazione di flusso del campo Y . Si chiamano equazioni
di Hamilton associate al dato sistema Hamiltoniano le equazioni di flusso per il campo XH =
14
dovrebbe da qui essere chiaro come si possa definire la contrazione iX ω ∈ Ωn−1 (M ) per ogni ω ∈ Ωn (M ) e
X ∈ X (M ).
4 GEOMETRIA DIFFERENZIALE
79
E(dH). Il problema di Cauchy è localmente ben definito, ma si può in effetti porre il problema
in una forma più debole ma più interessante che presentiamo nel seguente paragrafo.
4.5.4 Flussi ed evoluzione temporale. Si consideri un campo vettoriale V ∈ X (N ) e la
relativa equazione di flusso. In particolare si prenda in considerazione il problema di Cauchy
γ̇ = V ◦ γ ,
γ(0) = p0 ∈ N .
Introducendo una carta locale intorno a p0 non è difficile dimostrare che localmente la soluzione
esiste sempre ed è unica. Essa è detta curva integrale di V passante per p0 . Ancora più
interessante è il fatto che è possibile dimostrare che15 vi è dipendenza continua e differenziabile
dal dato iniziale p0 . Più precisamente esiste un intorno U ∈ N contenente p0 ed > 0 tale che,
detta γ(t; p) la soluzione del problema di Cauchy associato all’equazione di flusso per V con
punto iniziale γ(0) = p ∈ U , allora l’applicazione
ΦVt : U −→ N ,
q 7−→ ΦVt (q) = γ(t; q) ,
è un diffeomorfismo tra U e ΦVt (U ) per ogni fissato t ∈ (−, ). L’applicazione ΦVt , che per
t fissato determina un diffeomorfismo locale mentre per p ∈ U fissato determina una curva
integrale per V , viene detta flusso locale o semplicemente flusso di V .
Se il campo vettoriale è hamiltoniano V = XH , allora si può immaginare che ogni punto p ∈ U
sia una particella la cui evoluzione temporale è descritta da un sistema hamiltoniano. All’istante
t = 0 tutte le particelle riempiranno la regione U dello spazio delle fasi (in tal caso N = T ∗ M
H
per qualche M ). Al variare del tempo esse occuperanno invece la posizione ΦX
t (p). Vediamo
dunque che in tal caso il flusso di XH individua quindi l’evoluzione temporale del sistema. Esso
è detto in tal caso flusso hamiltoniano.
Un altro esempio di origine fisica è quello di immaginare U come una regione attraversata da
un fluido in moto stazionario, di cui V rappresenti il campo di velocità. In tal caso i punti di U
possono essere visti come i punti del fluido all’istante t = 0 che invece occuperanno la posizione
ΦVt (p) all’istante t.
Ritornando al caso di un flusso Hamiltoniano, si noti che esso permette di definire l’evoluzione
H
rappresenterà la
temporale di una osservabile fisica. Se O ∈ C ∞ (M, R) allora Ot = O ◦ ΦX
t
stessa osservabile all’istante t. Si osservi che in particolare il flusso ha le proprietà ΦV0 = id e
ΦVt1 ◦ ΦVt2 = ΦVt1 +t2 .
D’altra parte più in generale una osservabile fisica potrebbe essere un campo vettoriale o
tensoriale.
4.5.5 Pull back. Siano date due varietà differenziabili M ed N ed un’applicazione f :
M → N liscia. Si consideri un campo tensoriale covariante di grado q, V ∈ Γ(N, T ∗ N ⊗q ), di
cui in particolare fanno parte le forme differenziali. Poiché la fibra di T ∗ N ⊗q altro non è che il
duale della fibra di T N ⊗q , è naturale in tal caso introdurre il concetto di pull back di V tramite
15
si assume che sia la varietà che il campo vettoriale sono di classe C ∞
4 GEOMETRIA DIFFERENZIALE
80
l’applicazione liscia f : M → N . Esso trasporta il campo V all’indietro, da N a M , nel campo
tensoriale f ∗ (V) ∈ Γ(N, T ∗ M ⊗q ) definito dalla commutatività del seguente diagramma
T ∗f
T ∗ M ⊗q ←−
f ∗ (V) ↑
M
T ∗ N ⊗q
V↑
f
−→
N
essendo T ∗ f la mappa cotangente di f , cioè la trasposta della mappa tangente:
hT ∗ f (V)(x), T (x)i = hV(f (x)), T f (T )(f (x))i,
∀ x ∈ M, T ∈ Γ(M, T M ⊗q ) ,
mentre h , i è la valutazione dei funzionali sui vettori. Dunque f ∗ (V) = T ∗ f ◦V ◦f . Si noti che in
tale formula non compare l’inversa di f cosicché il pull back è ben definito anche qualora f non
sia un diffeomorfismo, ma semplicemente una applicazione liscia. In particolare, in coordinate
locali il pull back è descritto dalla trasposta della matrice jacobiana composta con f (esercizio).
4.5.6 Push forward. Siano date due varietà differenziabili M ed N ed un’applicazione
f : M → N liscia. Sia poi V ∈ X (M ) un campo vettoriale su M . Si vuole indurre un
campo vettoriale su N tramite f , che verrà denotato con f∗ (V ). A tale scopo consideriamo il
diagramma commutativo
df
T M −→
TN
πM ↓
πN ↓
M
f
−→
N
dal quale si vede che un campo su N può essere ottenuto ponendo f∗ (V ) = df ◦V ◦f −1 , cioè per
y ∈ N si ha f∗ (V )y = (df )x V (x) dove x = f −1 (y). In particolare dunque f∗ (V ) è ben definito
se f è un diffeomorfismo. La mappa f∗ viene detta push forward e vale la commutatività del
diagramma
df
T M −→
TN
V ↑
f∗ (V ) ↑
M
f −1
←−
N
E’ semplice determinare l’espressione per il push forward di V in coordinate locali e lo si lascia
come esercizio (si veda la sezione 4.3.5). In generale, si considera il diagramma precedente con
Tf
T M ⊗p −→
T ↑
M
T N ⊗p
f∗ (T ) ↑
f −1
←−
N
dove: T M ⊗p è il prodotto tensore di T M per sè stesso p volte, cioè un fibrato vettoriale
su M che ha per fibra in x ∈ M lo spazio vettoriale Tx M ⊗p ; T è una sezione del fibrato
tensoriale16 , cioè una applicazione liscia T : M → T ⊗p M tale che π ◦ T = idM , essendo π la
16
si scrive T ∈ Γ(M, T M ⊗p ), in particolare Γ(M, T M ) = X (M )
4 GEOMETRIA DIFFERENZIALE
81
proiezione su M ; T f è l’estensione della mappa df , detta anche mappa tangente, definita da
T f (T M ⊗p ) = (df (T M ))⊗p .
Poiché f è un diffeomorfismo, si può definire anche il push forward di un campo tensoriale
covariante su M tramite f , come il pullback tramite f −1 . Questo permette di estendere il
concetto di push forward al caso di campi tensoriali misti. Le espressioni locali in tal caso
generalizzano i concetti di covarianza e controvarianza introdotti nella sezione 1.217 .
Si noti infine che per un campo scalare S, cioè un campo tensoriale di tipo (0, 0), si ha f∗ S =
S ◦ f −1 .
4.5.7 Derivata di Lie ed evoluzione temporale. Per quanto visto nel paragrafo 4.5.6 e
∞
∗
in 4.5.4, si può scrivere l’evoluzione temporale di una osservabile
scalare S ∈ C (T M, R) come
XH
XH −1
XH
il suo push forward tramite φ−t = (φt ) , cioè St = φ−t ∗ (S). Questa forma può essere
immediatamente generalizzata al caso di osservabili tensoriali O ≡ Oqp ∈ Γ(M, T M ⊗p ⊗ T ∗ M ⊗q )
H
per le quali scriveremo Ot = φX
−t ∗ (O).
Di questa espressione è possibile determinare l’equivalente infinitesimale, che si ottiene derivando rispetto al parametro t e ponendo t = 0. Il risultato ottenuto si chiama derivata di Lie del
campo tensoriale O rispetto al campo vettoriale XH :
H
φX
−t ∗ (O) − O0
.
LXH O = lim
t→0
t
E’ chiaro che in generale si può sostituire a XH un campo vettoriale V qualunque. In tal caso
la derivata di Lie di O rispetto a V si indica con LV O.
Nel caso di un campo scalare S la derivata di Lie coincide con la derivata direzionale e si ha
LV S = hdS, V i. Se invece W è un campo vettoriale allora si trova LV W = [V, W ], coincide
cioè con le parentesi di Lie introdotte in 4.3.11:
LV S := hdS, V i := (dS)(V ) = V (S),
LV W := [V, W ].
Infine per una qualunque k−forma differenziale ω si ha
LV ω = (iV ◦ d(k) + d(k−1) ◦ iV )ω,
(ω ∈ Ωk (M )).
Si lascia come esercizio la dimostrazione di queste ultime due asserzioni.
Consideriamo più in dettaglio il caso di una osservabile scalare S. Allora
dS
= LXH S = hdS, XH i = ω(XS , XH ) ,
dt
in accordo con quanto osservato nella sezione introduttiva 4.5.2.
4.5.8 Derivata di Lie e derivata esterna. La derivata di Lie è permette di determinare
una formula comoda per il calcolo della derivata esterna di una forma differenziale. Sia ω una
1−forma su M e V, W ∈ X (M ) due campi vettoriali. Allora vale la seguente formula di Cartan
(dω)(V, W ) = LV (ω(W )) − LW (ω(V )) − ω([V, W ]) .
17
in tal caso la matrice M di cambiamento di base va identificata con l’nversa trasposta della matrice jacobiana
calcolata nel punto considerato
4 GEOMETRIA DIFFERENZIALE
82
La dimostrazione si ottiene direttamente in carte locale, valutando entrambi i membri e osservando che coincidono. Si noti che se la formula vale per ω = ω1 , ω2 allora vale anche per
ω = ω1 + ω2 , quindi basta verificarla nel caso ω = adxk con a ∈ C ∞ (M ). Lasciamo come
esercizio la determinazione della generalizzazione alle k−forme.
Rimandiamo ad altri testi per ulteriori applicazioni della geometria alla meccanica Hamiltoniana. Volendo invece considerare applicazioni ad altri campi della fisica è conveniente dapprima
sviluppare un po’ di concetti riguardanti la teoria dei gruppi di Lie e delle loro rappresentazioni.
5 GRUPPI E ALGEBRE DI LIE
5
83
Gruppi e algebre di Lie
Testi consigliati: [FH], [DNF1], [DNF2], [Ha], [Wa].
5.1
Gruppi di Lie
5.1.1 Gruppi di Lie. Una varietà G è detta gruppo di Lie se esistono due applicazioni lisce
µ : G × G −→ G,
ν : G −→ G,
e un punto e ∈ G tali che G sia un gruppo con elemento neutro e, prodotto g1 g2 := µ(g1 , g2 ), e
inversa g −1 := ν(g).
Un’applicazione f : H → G tra gruppi di Lie è un omomorfismo di gruppi di Lie se f è
liscia e se f è un omomorfismo di gruppi. Un sottogruppo H ⊂ G di un gruppo di Lie è detto
sottogruppo di Lie se è una sottovarietà di G, in quel caso H è anche un gruppo di Lie.
5.1.2 Sottogruppi di Lie immersi. Un punto delicato è che l’immagine f (H) di un omomorfismo di gruppo di Lie f : H → G non è sempre un sottogruppo di Lie; ovviamente f (H)
è un sottogruppo di G però f (H) non è necessariamente una sottovarietà di G. Un esempio è
(vedi anche 5.1.3) il caso H = R, G = (R/Z)2 (il toro), e l’omomorfismo
f : R −→ (R/Z)2 ,
t 7−→ (t, at),
(a ∈ R, a 6∈ Q).
Si noti che f è iniettiva (si ha (t, at) = (0, 0) se e solo se (t, at) ∈ Z2 ; se t 6= 0 e t, at ∈ Z
allora si ha a = (at)/t ∈ Q in contraddizione con la scelta a 6∈ Q). Per ogni n ∈ Z troviamo
un punto pn := (n, an) = (0, an) ∈ G e i pi sono distinti nello spazio topologico compatto G
e quindi hanno un punto di accumulazione p. Allora è impossibile trovare una carta locale
(U, φ = (x1 , x2 )), con p ∈ U , di G tale che f (H) ∩ U = {q ∈ U : x2 (q) = 0}, che è chiuso in U .
Un sottogruppo di Lie immerso è l’immagine di un omomorfismo di gruppi di Lie iniettivo.
In particolare, f (H) qui sopra è un sottogruppo di Lie immerso di G.
5.1.3 Esempi. Il gruppo additivo (R, +) è un gruppo di Lie perché le applicazioni µ(x, y) = x+
y e ν(x) = −x sono evidentemente lisce. Similmente il gruppo moltiplicativo R∗ := (R − {0}, ·)
è un gruppo di Lie. L’applicazione exp : R → R∗ , exp(x) := ex è un omomorfismo di gruppi di
Lie.
Il gruppo di Lie R/Z può essere definito come la varietà differenziabile S 1 (⊂ R2 ), la
circonferenza, con legge del gruppo indotta dall’addizione degli angoli
µ : S 1 × S 1 −→ S 1 ,
µ((cos φ, sen φ), (cos ψ, sen ψ)) = (cos(φ + ψ), sen (φ + ψ))
e le formule ben note che esprimono cos(φ+ψ), sen (φ+ψ) in termini di cos φ, . . . , sen ψ mostrano
che µ è liscia. Ovviamente anche l’inversa ν(cos φ, sen φ) = (cos φ, −sen φ) è liscia. Per essere
precisi, bisogna identificare t̄ ∈ R/Z con il punto (cos(2πt), sen (2πt)) di S 1 .
5 GRUPPI E ALGEBRE DI LIE
84
Il gruppo GL(n, R) è un gruppo di Lie. Ovviamente GL(n, R) è un gruppo ed è un aperto
dello spazio vettoriale Mn (R) di dimensione n2 , quindi GL(n, R) è una varietà. I coefficienti
di
di A e B ((AB)ij =
P un prodotto AB di due matrici A e B sono polinomi nei coefficienti
−1
= (det A)−1 A] dove A]
k aik bkj ), quindi µ è liscia. L’inversa ν è anch’essa liscia perché A
]
è la ‘matrice dei cofattori’ di A, cioè (A )ij è il determinante, moltiplicato per (−1)i+j , della
matrice (n − 1) × (n − 1) ottenuta da A eliminando la j-esima riga e la i-esima colonna. La
funzione det è data da un polinomio nei coefficienti di una matrice, e quindi è liscia. Poiché
det(A) è liscia e non zero su GL(n, R), anche A 7→ ν(A) = (det A)−1 A] è liscia su GL(n, R).
Ogni sottovarietà di GL(n, R) che è un sottogruppo di GL(n, R) è allora un gruppo di Lie.
Esempi sono SL(n, R) (vedi 4.2.9) e SO(n, R) (vedi 4.2.10).
5.1.4 Rappresentazioni dei gruppi di Lie. Una rappresentazione (reale) di un gruppo di
Lie su uno spazio vettoriale V (reale) di dimensione n è un omomorfismo di gruppi di Lie
ρ : G −→ GL(V ) ∼
= GL(n, R).
Esempi sono l’ inclusione SL(n, R) ,→ GL(n, R), SO(n, R) ,→ GL(n, R), la rappresentazione
controgradiente GL(V ) −→ GL(V ∗ ) (vedi 1.1.12) e gli omomorfismi ρkl : GL(V ) → GL(Tlk (V ))
(vedi 3.1).
5.1.5 La rappresentazione Aggiunta. Sia G un gruppo di Lie e sia g := Te G, lo spazio
tangente di G nell’identità e ∈ G. Per g ∈ G definiamo un automorfismo ig di G per
coniugazione:
ig : G −→ G,
h 7−→ ghg −1
(g, h ∈ G).
Poiché ig è un’applicazione liscia tale che ig (e) = e, si ha un’applicazione lineare, il suo
differenziale, che si chiama Ad(g)
Ad(g) := (dig )e : g = Te G −→ g.
Poiché ig ◦ ig−1 = idG si ha Ad(g)Ad(g −1 ) = idg , quindi Ad(g) ∈ GL(g).
L’applicazione, detta applicazione ‘Aggiunta’,
Ad : G −→ GL(g),
g 7−→ Ad(g)
è una rappresentazione di G perché (g1 g2 )h(g1 g2 )−1 = g1 (g2 hg2−1 )g1−1 implica:
igg0 = ig ◦ ig0
perciò
Ad(gg 0 ) := (digg0 )e = (dig )e ◦ (dig0 )e = Ad(g) ◦ Ad(g 0 ).
5.1.6 La rappresentazione Aggiunta per GL(n). Il gruppo di Lie GL(n, R) è un aperto
2
della varietà Mn (R) ∼
= Rn e quindi TI GL(n, R) ∼
= TI Mn (R) = Mn (R) (vedi 4.3.4 per l’ultima
identificazione). Per calcolare Ad(g)(X), per g ∈ GL(n, R) e X ∈ TI GL(n, R) = Mn (R),
consideriamo un cammino che rappresenta X:
γ : ] − , [ −→ G ⊂ Mn (R),
tale che
γ(0) = I,
γ 0 (0) = X.
5 GRUPPI E ALGEBRE DI LIE
85
Allora, usando una delle definizione di 4.3.5, Ad(g)(X) è definito dal cammino τ 7→ ig (γ(τ )) e
questo cammino corrisponde a
d
d(gγ(τ )g −1 )
Ad(g)(X) =
ig (γ(τ ))
=
= gXg −1
dτ
dτ
|τ =0
|τ =0
come si verifica differenziando ogni coefficiente della matrice gγ(τ )g −1 rispetto τ e ponendo
τ = 0.
5.1.7 La rappresentazione Aggiunta per SL(n). Il gruppo di Lie SL(n, R) = det−1 (1)
è una sottavarietà di GL(n, R) e il suo spazio tangente in g ∈ SL(n, R) è lo spazio vettoriale
(vedi 4.3.8)
Tg SL(n, R) := ker((d det)g : Tg GL(n, R) ∼
= Mn (R) −→ T1 R = R).
Per g = I, da 4.2.9, la matrice (d det)I = JI (det) ha coefficienti (−1)i+j det(Iij ), che sono zero
se i 6= j e 1 se i = j, cioè
(d det)I (X) = x11 + x22 + . . . + xnn =: tr(X)
dove tr(X) è la traccia della matrice X. Perciò:
TI SL(n, R) = {X ∈ Mn (R) : tr(X) := x11 + x22 + . . . + xnn = 0 },
cioè l’algebra di Lie di SL(n, R) sono le matrici di Mn (R) con traccia nulla. Poiché SL(n, R) è
una sottovarietà di GL(n, R), il calcolo fatto qui sopra mostra che Ad(g)(X) = gXg −1 per g ∈
SL(n, R) e X ∈ TI SL(n, R). Si noti che per g ∈ SL(n, R) si ha proprio Ad(g)(TI SL(n, R)) ⊂
TI (SL(n, R)) perché il polinomio caratteristico di X è uguale a quello di gXg −1 e tale polinomio
è pX (λ) = ±(λn − tr(X)λn−1 + . . .).
5.1.8 La rappresentazione Aggiunta per SO(n). Lo spazio tangente TI SO(n, R) del
gruppo di Lie SO(n, R) si determina usando 4.2.10 e, di nuovo, 4.3.8, con A = I:
X 7−→ t X + X,
TI SO(n, R) = ker(JI (F ) : Mn (R) −→ Symn (R)),
cioè
TI SO(n, R) = { X ∈ Mn (R) : t X = −X } = Altn (R),
lo spazio vettoriale delle matrici n × n alternanti. Per g ∈ SO(n, R) la mappa Aggiunta
Ad(g) ∈ End(TI SO(n, R)) è ancora data da Ad(g)(X) 7→ gXg −1 . Si noti che g −1 = t g per
g ∈ SO(n, R) e quindi se X ∈ Altn (R) anche gXg −1 ∈ Altn (R):
t
(gXg −1 ) = t (gX(t g)) = g(t X)(t g) = −gX(t g)
(∈ Altn (R), g ∈ SO(n, R), X ∈ Altn (R)).
Si noti che per il cammino
γ : R −→ SO(2, R),
e che infatti t X = −X.
τ 7−→
cos τ −sen τ
sen τ cos τ
,
0
X := γ (0) =
0 −1
1 0
∈ TI SO(2, R)
5 GRUPPI E ALGEBRE DI LIE
5.2
86
Algebre di Lie
5.2.1 L’algebra di Lie di un gruppo di Lie. Nella sezione 5.1.5 abbiamo definito un
omomorfismo di gruppi di Lie
Ad : G −→ GL(g)
e quindi otteniamo un’applicazione lineare, chiamata applicazione aggiunta,
ad := (dAd)e : Te G = g −→ TI GL(g) ∼
= End(g).
Qui indentifichiamo, come al solito, lo spazio tangente in I all’aperto GL(g) dello spazio
vettoriale End(g) con questo spazio vettoriale stesso.
Per calcolare l’aggiunta per sottogruppi di Lie di GL(n, R) si noti che per un cammino
γ :] − , [→ GL(n, R) e ogni τ ∈] − , [ si ha γ(τ )γ(τ )−1 = I. Quindi, con γ 0 (0) := (dγ/dτ )(0),
abbiamo γ 0 (0)γ −1 (0) + γ(0)(γ −1 )0 (0) = 0. In particolare,
γ(0) = I,
γ 0 (0) = X
(γ −1 )0 (0) = −X.
=⇒
Per X ∈ TI GL(n, R) definito da un cammino γ (quindi con γ(0) = I, γ 0 (0) = X) e Y ∈ g,
l’immagine di Y sotto l’endomorfismo ad(X) di g è:
ad(X)(Y ) :=
=
dAd(γ(τ ))(Y )
dτ
|τ =0
−1
dγ(τ )Y γ(τ )
dτ
|τ =0
= γ 0 (0)Y γ −1 (0) + γ(0)Y (γ −1 )0 (0)
= XY − Y X =: [X, Y ]
dove [X, Y ] è detto il commutatore di X e Y .
In generale, per un gruppo di Lie, per X ∈ Te G si definisce un campo vettoriale X̃ su G per
X̃g := (dLg )e (X) dove
Lg : G −→ G,
Lg (h) := gh.
Poiché Lg Lh = Lgh segue che per ogni g, h ∈ G si ha (dLg )h X̃h = X̃gh , si dice che il campo
vettoriale X̃ è invariante a sinistra. Poi si mostra che le parentesi di Lie per campi vettoriali
(vedi 4.3.11) sono compatibili con la mappa ad nel senso che:
^ ) = [X̃, Ỹ ],
ad(X)(Y
questo ‘giustifica’ la nostra definizione [X, Y ] := ad(X)(Y ) per X, Y ∈ g. Da questa identità
e dall’identità di Jacobi, oppure nel caso di sottogruppi di Lie di GL(n, R), dal semplice fatto
che [X, Y ] = XY − Y X, segue che
[X, Y ] = −[Y, X],
[X, [Y, Z]] = [[X, Y ], Z] + [Y, [X, Z]].
5 GRUPPI E ALGEBRE DI LIE
87
5.2.2 Algebre di Lie. Un’algebra di Lie g è uno spazio vettoriale con un’applicazione bilineare
alternante
g × g −→ g,
(X, Y ) 7−→ [X, Y ]
che soddisfa l’identità di Jacobi (vedi qui sopra).
Esempi di algebre di Lie sono gli spazi tangenti Te G, dove e è l’elemento neutro di un gruppo
di Lie G (vedi 5.2.1) e gli spazi vettoriali X (M ) (di dimensione infinita!) dei campi vettoriali
su una varietà differenziabile (vedi 4.3.11).
5.2.3 Esempio: sl(2) . L’algebra di Lie del gruppo SL(2, R)
sl(2) := {W ∈ M2 (R) : tr(W ) = 0 }
ha una base data da:
H :=
1 0
0 −1
,
X :=
0 1
0 0
,
Y :=
0 0
1 0
,
e un facile calcolo mostra che i commutatori sono dati da:
[X, Y ] = −[Y, X] = H,
[H, X] = −[X, H] = 2X,
[H, Y ] = −[Y, H] = −2Y,
(cioè XY − Y X = H ecc.) e gli altri commutatori sono zero: [X, X] = [Y, Y ] = [H, H] = 0
perché [X, X] = −[X, X] ecc.
5.2.4 Rappresentazioni di algebre di Lie. Una rappresentazione di un’algebra di Lie g in
V , dove V è uno spazio vettoriale di dimensione finita, è un’applicazione lineare
ρ : g −→ End(V )
t.c.
ρ([X, Y ]) = ρ(X) ◦ ρ(Y ) − ρ(Y ) ◦ ρ(X)
dove ◦ indica la composizione di endomorfismi di V , cioè una rappresentazione di un’algebra
di Lie conserva il commutatore.
Una rappresentazione è detta irriducibile se V non ha sottospazi invarianti per g tranne {0}
e V , cioè se W è un sottospazio di V tale che ρ(X)w ∈ W per ogni X ∈ g e ogni w ∈ W allora
W = {0} oppure W = V .
5.2.5 La rappresentazione aggiunta. L’applicazione aggiunta di g in End(g):
ad : g −→ End(g),
X 7−→ [Y −→ ad(X)(Y )]
(X, Y ∈ g).
è una rappresentazione di g perché dall’identità di Jacobi [X, [Y, Z]] = [[X, Y ], Z] + [Y, [X, Z]
segue
ad([X, Y ])(Z) = [[X, Y ], Z] = [X, [Y, Z]] − [Y, [X, Z]] = ad(X)(ad(Y )(Z)) − ad(Y )(ad(X)(Z))
per ogni Z ∈ g, quindi ad([X, Y ]) = ad(X) ◦ ad(Y ) − ad(Y ) ◦ ad(X) in End(g).
5 GRUPPI E ALGEBRE DI LIE
88
Nel caso g = sl(2), la base X, H, Y (in questo ordine), vedi 5.2.3, dà le seguente matrice
per la rappresentazione aggiunta






0 −2 0
2 0 0
0 0 0
ad(X) =  0 0 1  ,
ad(H) =  0 0 0  ,
ad(Y ) =  −1 0 0  .
0 0 0
0 0 −2
0 2 0
(usare che ad(X)(X) = [X, X] = 0, ad(X)(H) = −[H, X] = −2X, ad(X)(Y ) = [X, Y ] = H
ecc.).
5.2.6 Rappresentazioni del gruppo e dell’algebra di Lie. Data una rappresentazione
r : G → GL(V ) otteniamo un’applicazione lineare
d
r(γ(t))v
ρ := (dr)e : g −→ End(V ),
ρ(X)v :=
dt
|t=0
dove γ è un cammino in G che rappresenta X ∈ Te G, cioè con γ(0) = e e γ 0 (0) = X. L’applicazione ρ è una rappresentazione dell’algebra di Lie g in V . Per mostrarlo, osserviamo prima
che, per g, h ∈ G si ha, in GL(V ):
ir(g) (r(h)) = r(g)r(h)r(g)−1 = r(ghg −1 ) = r(ig (h)),
cioè ir(g) ◦ r = r ◦ ig : G → GL(V ).
Il differenziale g → End(V ) di questa mappa G → GL(V ) in e ∈ G è allora
d(ir(g) ◦ r)e = d(ir(g) )I ◦ (dr)e = (dr)e ◦ (dig )e ,
quindi Ad(r(g)) ◦ ρ = ρ ◦ Ad(g).
Adesso prendiamo il differenziale in e ∈ G dell’applicazione
G −→ End(V ),
g 7−→ Ad(r(g)) ◦ ρ = ρ ◦ Ad(g).
Usando un cammino γ in G con γ(0) = e, γ 0 (0) = X, troviamo per ogni Y ∈ g:
d
d
Ad(r(γ(t)))(ρ(Y ))
=
ρ(Ad(γ(t))(Y ))
.
dt
dt
t=0
t=0
Con la definizione di Ad, nel caso G ⊂ GL(n), si ottiene:
d
d
−1
−1
r(γ(t))ρ(Y )r(γ(t) )
=
ρ(γ(t)Y γ(t) )
.
dt
dt
t=0
t=0
Il lato sinistro è [ρ(X), ρ(Y )] e poiché l’applicazione ρ è continua il lato destro è ρ([X, Y ]).
Quindi ρ è una rappresentazione dell’algebra di Lie g:
[ρ(X), ρ(Y )] = ρ([X, Y ]).
5.2.7 L’applicazione esponenziale. Dato un X ∈ g, X 6= 0, si può mostrare che esiste un
unico cammino
γ = γX : R −→ G,
t.c. γ∗ = X,
γ(s + t) = γ(s)γ(t)
(∀s, t ∈ R),
5 GRUPPI E ALGEBRE DI LIE
89
cioè γ è omomorfismo di gruppi di Lie.
L’applicazione esponenziale è definita da:
exp : g −→ G,
exp(tX) := γX (t),
quindi la restrizione di exp alla retta < X >⊂ g è un omomorfismo per ogni X ∈ g. In più si
ha che
(d exp)0 : T0 g = g −→ Te G = g
è l’identità. L’applicazione exp è l’unica applicazione con queste due proprietà. Se G è connesso,
si può mostrare che G è generato da exp(U ), dove U ⊂ g è un intorno aperto di 0 ∈ g.
Se G è un sottogruppo di Lie di GL(n, R), allora g ⊂ M (n, R) e si ha la formula esplicita:
exp tX =
∞ k k
X
t X
k=0
k!
,
(X ∈ M (n, R) = Te GL(n, R)).
Si noti che si ha proprio γ∗ := (d/dt) exp tX)t=0 = X.
In generale non vale exp(X + Y ) = (exp X)(exp Y ) perché XY 6= Y X. La formula di
Campbell-Baker-Haussdorf dà una formula per (exp X)(exp Y ) come exp di una somma di
commutatori tra X e Y :
(exp X)(exp Y ) = exp(X + Y + (1/2)[X, Y ] + (1/12)[X, [X, Y ]] − (1/12)[Y, [X, Y ]] + . . .).
Per calcolare l’exp è spesso utile usare che exp(SXS −1 ) = S(exp(X))S −1 (che segue dalla
serie per exp), quindi la forma di Jordan di X determina essenzialmente exp(X).
Si può mostrare che poiché (d exp)0 è un isomorfismo, l’immagine della mappa esponenziale
contiene un aperto U di G tale che e ∈ U . La formula qui sopra mostra che il prodotto µ in
un tale aperto di G è determinato dal prodotto nell’algebra di Lie g. Questo ci permette di
mostrare che un’algebra di Lie g di dimensione finita determina in modo unico un gruppo di
Lie G che è connesso e semplicemente connesso. Queste condizioni su G sono importanti, per
esempio l’algebra di Lie g = R (con prodotto banale) è l’algebra di Lie di R∗ = R − {0} (non
connesso), di R/Z (connesso ma non semplicemente connesso) e di R (connesso e semplicemente
connesso e l’unico tale G con algebra di Lie g, a meno di isomorfismo di gruppi di Lie).
5.2.8 Esempi dell’applicazione esponenziale. Si ha:
exp(tX) = diag(etλ1 , . . . , etλn ),
se X = diag(λ1 , . . . , λn ) ∈ M (n, R)
perché X k = diag(λk1 , . . . , λkn ).
Se X ∈ M (n, R) è nilpotente, allora X N = 0 per un
X 2 /2! + . . . + X N /N !, una somma finita. Per esempio,



0 1 0
0 0
2



0 0 2 ,
0 0
X=
X =
0 0 0
0 0
certo N e quindi exp(X) = I + X +

2
0 ,
0
X 3 = 0,
5 GRUPPI E ALGEBRE DI LIE
90
quindi si ha:


1 t 2t2
exp(tX) = I + tX + t2 X 2 /2 =  0 1 2t  .
0 0 1
Sia (vedi 5.1.8)
0 −1
X=
∈ TI SO(2, R),
1 0
si noti: X 2 = −I,
X 2k = (−1)k I,
X 2k+1 = (−1)k X.
L’esponenziale di X è allora
exp(tX) =
=
P Xn
n n!
P
∞ (−1)k t2k
k=0 (2k)!
I+
P
∞ (−1)k t2k+1
k=0 (2k+1)!
X
= (cos t)I + (sen t)X


cos t −sen t
.
= 
sen t cos t
5.2.9 Sottogruppi e sottoalgebre di Lie. Sia G ⊂ G0 un sottogruppo di Lie, allora
g = Te G ⊂ Te G0 = g0 è un sottospazio vettoriale. Il prodotto di Lie in g è allora la restrizione
del prodotto di Lie in g0 : visto che ghg −1 ∈ G per ogni g, h ∈ G si ha Ad(g)(Y ) ∈ g per ogni
Y ∈ g e g ∈ G. Questa poi implica che ad(X)(Y ) = [X, Y ] ∈ g per ogni X, Y ∈ g. Si dice che
g è una sottoalgebra di Lie di h.
In particolare, se ρ : G → GL(V ) è una rappresentazione di G, allora ρ(G) è un sottogruppo
di Lie di GL(V ) e Te ρ(G) = (dρ)e g. Quindi (dρ)e g è un sottoalgebra di Lie di End(V).
In generale, una sottoalgebra di Lie h ⊂ g non determina un sottogruppo di Lie H di G.
Si può invece mostrare che h determina sempre un sottogruppo di Lie immerso f (H) ⊂ G
(dove f : H → G è un omomorfismo di gruppi di Lie) tale che l’immagine del differenziale
(df )e : Te H → Te G = g è h ⊂ g. In più, l’iniettività di f implica che (df )e è iniettiva, quindi
Te H ∼
= h.
5.2.10 Sottogruppi normali ed ideali. Supponiamo che H sia un sottogruppo di Lie
normale di G, cioè ghg −1 ∈ H per ogni g ∈ G, h ∈ H. Allora Ad(g)(Y ) ∈ h per ogni g ∈ G,
Y ∈ h e perciò ad(X)(Y ) = [X, Y ] ∈ h per ogni X ∈ g e Y ∈ h (in questo senso h ‘assorbe’ g).
Si dice che h è un ideale di g.
Se G è un gruppo di Lie e H è un sottogruppo di Lie normale chiuso, allora anche G/H
è un gruppo di Lie e lo studio di G equivale a studiare H, G/H e i possibili gruppi di Lie G0
che hanno H come sottogruppo normale e G/H come gruppo quoziente (si dice che G0 è una
estensione di G/H con H).
5 GRUPPI E ALGEBRE DI LIE
5.3
91
Rappresentazioni.
5.3.1 Rappresentazioni in prodotti tensoriali. Siano r : G → GL(V ) e s : G → GL(W )
rappresentazioni di un gruppo di Lie in spazi vettoriali. Allora si ha una rappresentazione di
G nel prodotto tensoriale:
r ⊗ s : G −→ GL(V ⊗ W ),
v ⊗ w 7−→ (r(g)v) ⊗ (s(g)w),
come si verifica facilmente.
La rappresentazione r ⊗ s di G definisce una rappresentazione dell’algebra di Lie g
d(r ⊗ s)e : g −→ End(V ⊗ W ).
Si ha (si veda 5.2.6) usando la regola di Leibnitz:
d
d(r ⊗ s)e (X)(v ⊗ w) =
r(γ(t))v ⊗ s(γ(t))w
= (ρ(X)v) ⊗ w + v ⊗ σ(X)w,
dt
|t=0
dove γ è un cammino in G con γ(0) = e, γ 0 (0) = X e
ρ = (dr)e : g −→ End(V ),
σ = (ds)e : g −→ End(W )
sono le rappresentazioni dell’algebra di Lie di G definite da r, s.
5.3.2 Le rappresentazioni V ⊗ V e V ⊗ V ∗ . La rappresentazione standard r di GL(V ) su
V induce una rappresentazione r2 := r ⊗ r
r2 : GL(V ) −→ GL(V ⊗ V ),
r2 (A)(v ⊗ w) = (Av) ⊗ (Aw).
Sia e1 , . . . , en una base V . Un modo comodo per vedere questa rappresentazione è tramite la
mappa lineare
V ⊗ V −→ Mn (R),
v ⊗ w 7−→ v(t w),
P
P
dove per v =
vi ei , w =
wi ei ∈ V il prodotto v(t w) = (vi wj ) è una matrice n × n. In
particolare otteniamo un isomorfismo di spazi vettoriali V ⊗ V ∼
= Mn (R). Visto che (Av) ⊗
t
t
(Aw) 7→ Av( w)( A) otteniamo che la rappresentazione r può anche essere data da
r2 : GL(V ) −→ GL(Mn (R)),
r2 (A)M = AM (t A).
La rappresentazione ρ2 := (dr2 )e dell’algebra di Lie gl(n) = Mn (R) di GL(V ) è data da
ρ2 := (dr2 )e : gl(n) −→ End(Mn (R)),
ρ2 (X)(M ) = XM + M t X.
Si verifica che il sottospazio delle matrici simmetriche S 2 V di Mn (R) (cioè le M con t M = M )
è un sottospazio invariante (per r2 e per ρ2 ), similmente anche il sottospazio delle matrici
antisimmetriche A2 V di Mn (R) (cioè le M con t M = −M ) è un sottospazio invariante e si ha
Mn (R) = S 2 V ⊕ A2 V .
5 GRUPPI E ALGEBRE DI LIE
92
La rappresentazione standard r di GL(V ) su V induce la rappresentazione controgradiente
(vedi 1.1.12)
s : GL(V ) −→ GL(V ∗ ) ∼
s(A) = t A−1 ,
= GL(n, R),
si verifica che la rappresentazione σ := (dr)e dell’algebra di Lie gl(n) di GL(V ) è data da
σ := (dr)e : gl(n) −→ End(V ) ∼
= Mn (R),
σ(X) = −t X.
Il prodotto tensoriale
r ⊗ s : GL(V ) −→ GL(V ⊗ V ∗ ),
(r ⊗ s)(A)(v ⊗ wl ) = (Av) ⊗ (t A−1 wl ),
P
dove, per l =
li i ∈ V ∗ e i la base duale, wl è il vettore colonna con coefficienti (wl )i = li ,
cioè wl = t l se l è visto come matrice con una sola riga e n colonne. L’identificazione naturale
V ⊗V∗ ∼
= End(V ) (tale che (v ⊗ l)(x) = l(x)v, cioè v ⊗ l 7→ vl = v(t wl ) vedi 1.1.10) seguito
dall’isomorfismo End(V ) ∼
= Mn (R) dà allora (Av) ⊗ (t A−1 wl ) 7→ A(v t wl )A−1 . Otteniamo cosı̀
la descrizione seguente di r ⊗ s:
r ⊗ s : GL(V ) −→ End(V ) ∼
= Mn (R),
(r ⊗ s)(A)(M ) = AM A−1 ,
che è infatti la ben nota formula per M dopo il cambio di base dato da A.
La rappresentazione ρ ⊗ σ := (d(r ⊗ s))e dell’algebra di Lie gl(n) = Mn (R) di GL(V ) è data
da
ρ ⊗ σ := (d(r ⊗ s))e : gl(n) −→ End(Mn (R)),
ρ ⊗ σ(X)(M ) = XM − M X.
Si verifica che il sottospazio delle matrici con traccia zero sl(n) è un sottospazio invariante,
anche il sottospazio delle matrici D = {λI : λ ∈ R} in Mn (R) è un sottospazio invariante e si
ha Mn (R) = sl(n) ⊕ D.
5.3.3 Omomorfismo di rappresentazioni. Un omomorfismo tra due rappresentazioni
ρ : g → End(V ) e σ : g → End(W ) di un’algebra di Lie g è un’applicazione lineare
S : W −→ V
tale che ρ(X)S = Sσ(X)
(∀X ∈ g).
Si verifica facilmente che ker(S) è un sottospazio invariante di W e che im(S) è un sottospazio
invariante di V . Infatti, se w ∈ ker(S) e X ∈ g allora
S(σ(X)w) = ρ(X)(Sw) = ρ(X)0 = 0
quindi anche σ(X)w ∈ ker(S),
e similmente, se v ∈ im(S) allora v = Sw per un w ∈ W e:
ρ(X)v = ρ(X)Sw = S(σ(X)w)
quindi anche ρ(X)v ∈ im(S).
Le due rappresentazioni sono dette isomorfe se esiste un isomorfismo S : W → V tale che
ρ(X) = Sσ(X)S −1 : V −→ V
5 GRUPPI E ALGEBRE DI LIE
93
per ogni X ∈ g. Per esempio, se V = W = Rn , due rappresentazioni sono isomorfe se e solo se
una è ottenuta dall’altra tramite un cambio di base di Rn .
Due rappresentazioni r : G → GL(V ) e s : G → GL(W ) di un gruppo di Lie G sono dette
isomorfe se esiste un isomorfismo S : W → V tale che
r(g) = Ss(g)S −1 : V −→ V
per ogni g ∈ G. Si noti che se r, s sono isomorfe, allora anche le rappresentazioni delle algebre
di Lie che definiscono, (dr)0 e (ds)0 , sono isomorfe.
Una proprietà importante di un omomorfismo S di rappresentazioni è che sia il nucleo
sia l’immagine di S sono sottospazi invarianti. Lo mostriamo per un omomorfismo tra due
rappresentazioni ρ : g → End(V ) e σ : g → End(W ) di un algebra di Lie g, il caso di un
gruppo di Lie G è analogo.
Per mostrare che ker(S) è un sottospazio invariante di W prendiamo un w ∈ ker(S) (cioè
Sw = 0) e un X ∈ g e verifichiamo che anche σ(X)w ∈ ker(S):
S(σ(X)w) = ρ(X)Sw = ρ(X)0 = 0,
quindi σ(X)w ∈ ker(S) come desiderato. Similmente, per mostrare che im(S) è un sottospazio
invariante di V prendiamo un v ∈ im(S) (cioè v = Sw per un certo w ∈ W ) e un X ∈ g e
verifichiamo che anche ρ(X)v ∈ im(S):
ρ(X)v = ρ(X)Sw = S(σ(X)v),
quindi ρ(X)v ∈ im(S) come desiderato.
5.3.4 Esempio: una rappresentazione di SL(2, R). Consideriamo la rappresentazione r,
di dimensione infinita, di SL(2, R) sullo spazio C ∞ (R2 ) delle funzioni lisce su R2 data da
r : SL(2, R) −→ Aut(C ∞ (R2 )),
(r (A) F )(v) := F (t Av)
(v ∈ R2 ).
Si noti che:
(r(A)(r(B)F )))(v) = (r(B)F )(t Av) = F (t B(t Av)) = F (t (AB)v) = (r(AB)F )(v),
quindi r è una rappresentazione.
La rappresentazione dell’algebra di Lie associata è:
ρ : sl(2) −→ End(C ∞ (R2 )),
(ρ(Z)F )(v) :=
d
(r(t γ(t))F )(v)|t=0
dt
(Z ∈ sl(2)),
dove γ è un cammino in SL(2, R) con γ(0) = I, γ 0 (0) = Z. In particolare, con la base X, Y, H
di sl(2) come in 5.2.3, si possono prendere i cammini γ(t) = exp(tX) ecc:
t
1 t
1 0
e
0
exp(tX) =
,
exp(tY ) =
,
exp(tH) =
.
0 1
t 1
0 e−t
5 GRUPPI E ALGEBRE DI LIE
94
Allora troviamo, con v = (x, y):
(ρ(X)F )(v) =
d
(F (x, tx + y))|t=0 = (x∂y )F (v),
dt
(ρ(Y )F )(v) =
d
(F (x + ty, y))|t=0 = (y∂x F )(v),
dt
d
(F (et x, e−t y))|t=0 = ((x∂x − y∂y )F )(v).
dt
L’algebra di Lie di sl(2) ha dunque una rappresentazione nei campi vettoriali su R2 . Lasciamo
al lettore la verifica che vale proprio [X, Y ] = [y∂x , x∂y ] = x∂x − y∂y = H ecc.
(ρ(H)F )(v) =
5.3.5 La rappresentazione V (n) di sl(2). Sia F un polinomio omogeneo di grado n, cioè
F (λx, λy) = λn F (x, y) per ogni λ ∈ R. Allora si verifica che anche r(A)F è un polinomio
omogeneo di grado n. Perciò
R[x, y]n := {F ∈ R[x, y] : F (λx, λy) = λn F (x, y) ∀λ ∈ R }
è un sottospazio vettoriale di C ∞ (R2 ) che è invariante sotto r(SL(2, R)) e perciò è anche
invariante sotto ρ(sl(2)).
La restrizione di ρ a questo sottospazio dà una rappresentazione
ρn : sl(2) −→ End(R[x, y]n ),
Z 7−→ ρn (Z) = ρ(Z)|R[x,y]n .
Una base di R[x, y]n è data dai monomi
xn , xn−1 y, . . . xn−a y a , . . . y n ,
quindi
dim R[x, y]n = n + 1.
Si noti che:
ρn (H)(xn−a y a ) = (x∂x − y∂y )(xn−a y a ) = (n − a)xn−a y a − axn−a y a = (n − 2a)xn−a y a ,
quindi xn−a y a ∈ V (n)n−2a , e in modo simile:
ρn (X)(xn−a y a ) = x∂y (xn−a y a ) =
axn−a+1 y a−1 ,
ρn (Y )(xn−a y a ) = y∂x (xn−a y a ) = (n − a)xn−a−1 y a+1 .
In particolare, ogni vettore della base è un autovettore per ρn (H), con autovalori n, n − 2, n −
4 . . . , −n, in più ρn (X)(xn ) = 0 e R[x, y]n è generato dalle ρn (Y )a (xn ) = ca xn−a y a con ca =
n(n − 1) . . . (n − a + 1) 6= 0 per a = 1, . . . , n.
5.4
Algebre di Lie semplici
5.4.1 Algebre di Lie semplici e semi-semplici. Un’algebra di Lie g è detta semplice se
dim g > 1 e se g non ha ideali tranne {0} e g. Cioè, se V ⊂ g è un sottospazio vettoriale tale
che [x, v] ∈ V per ogni x ∈ g e v ∈ V allora V = {0} oppure V = g.
5 GRUPPI E ALGEBRE DI LIE
95
Un’algebra di Lie è detta semi-semplice se è somma diretta di algebre di Lie semplici.
5.4.2 Esempio. L’algebra di Lie del gruppo SL(n, R)
sl(n) := {W ∈ Mn (R) : tr(W ) = 0 }
è semplice per ogni n ≥ 2, qui lo dimostriamo per n = 2.
Con la base X, Y, H di sl(2) come in 5.2.3, i commutatori sono dati da:
[X, Y ] = −[Y, X] = H,
[H, X] = −[X, H] = 2X,
[H, Y ] = −[Y, H] = −2Y,
e gli altri commutatori sono zero: [X, X] = [Y, Y ] = [H, H] = 0.
Sia W ∈ sl(2) la matrice
a b
W = aH + bX + cY =
(∈ sl(2)).
c −a
Allora si verifica:
[X, W ] =
0 1
0 0
a b
c −a
−
a b
c −a
0 1
0 0
=
c −2a
0 −c
,
e quindi, come sopra, ma con [X, W ] invece di W :
0 −2c
[X, [X, W ]] =
.
0 0
Sia adesso V ⊂ sl(2), V 6= 0, uno sottospazio vettoriale tale che [Z, W ] ∈ V per ogni
Z ∈ sl(2) e W ∈ V , mostriamo che V = sl2 e quindi sl2 è semplice.
Sia W ∈ V , W = aH + bX + cY 6= 0 come sopra, quindi uno dei coefficienti a, b, c è non
zero.
Se c 6= 0, abbiamo [X, W ] ∈ V , e poi [X, [X, W ]] ∈ V . Perciò −2cX ∈ V e quindi X ∈ V .
Inoltre [Y, X] = −H ∈ V , e poi [Y, H] = 2Y ∈ V . Ma allora V contiene una base di sl2 e perciò
V = sl2 .
Nel caso c = 0, a 6= 0 si ha [X, Z] = −2aX ∈ V e quindi X ∈ V , come sopra si deduce che
V = sl(2). Infine, se c = a = 0, b 6= 0 si ha Z = bX ∈ V e, ancora una volta, V = sl(2).
Ne concludiamo che V = sl2 se V 6= 0 e quindi sl2 è un’algebra di Lie semplice.
5.4.3 Irriducibilità della rappresentazione aggiunta. Si ad la rappresentazione aggiunta
di g in End(g) (vedi 5.2.5):
ad : g −→ End(g),
X 7−→ [Y −→ ad(X)(Y )]
(X, Y ∈ g).
Se g è semplice (vedi 5.4.1) allora ad è una rappresentazione irriducibile. Infatti, se W ⊂ g
è un sottospazio invariante, allora ad(X)(Y ) ∈ W per ogni X ∈ g e Y ∈ W implica che W è
un ideale di g. Poiché g è semplice si ha allora W = {0} oppure W = g.
5 GRUPPI E ALGEBRE DI LIE
96
5.4.4 Il nucleo di una rappresentazione. Sia ρ : g → End(V ) una rappresentazione di
un’algebra di Lie. Il nucleo ker(ρ) è un’ideale di g perché se X ∈ g e Y ∈ ker(ρ) si ha
ρ([X, Y ]) = ρ(X)ρ(Y ) − ρ(Y )ρ(X) = ρ(X) ◦ 0 − 0 ◦ ρ(X) = 0,
quindi [X, Y ] ∈ ker(ρ). In particolare, se g è semplice, allora ogni rappresentazione di g è 0
(cioè ρ(X) = 0 per ogni X ∈ g) oppure ρ è iniettiva.
5.4.5 La decomposizione di Jordan. Per studiare le rappresentazioni di un’algebra di
Lie g si usano gli autospazi di endomorfismi ρ(X) per X ∈ g. In generale, se V è uno spazio
vettoriale complesso di dimensione finita e X ∈ End(V ), lo spazio V non è la somma diretta
degli autospazi di X. Per esempio, la matrice X di 5.4.2 ha autovalore 0 (con moltiplicità 2),
ma l’autospazio corrispondente, generato da (1, 0), ha soltanto dimensione 1.
Un endomorfismo ha una decomposizione di Jordan, cioè esiste una base di V tale che la
matrice A dell’endomorfismo è una matrice ‘triangolare superiore’. Si può fare tale decomposizione in modo che la matrice A sia la somma di una matrice diagonale As e una matrice
strettemente triangolare superiore An (cioè (An )kl = 0 se k ≤ l, in particolare XnN = 0 per
N ≥ dim V ) e:
A = As + An ,
As An = An As .
Un risultato fondamentale è che se g è un algebra di Lie semi-semplice e X ∈ g allora ci
sono (unici) Xs , Xn ∈ g tali che
X = Xs + Xn
e tali che ρ(X)s = ρ(Xs ),
ρ(X)n = ρ(Xn )
per ogni rappresentazione ρ : g → End(V ) su uno spazio vettoriale V di dimensione finita.
In particolare, sia g è semplice e ρ una rappresentazione non-banale. Se H ∈ g è tale che
ρ(H) è diagonalizzabile, allora ρ(H)s = ρ(H) e ρ(H)n = 0. Poiché ρ è iniettiva, si ha allora che
H = Hs e Hn = 0. Perciò in ogni rappresentazione σ di g si ha che σ(H) è diagonalizzabile.
Per esempio, l’inclusione sl(2) ⊂ M2 (R) è una rappresentazione di sl(2) nella quale H
è diagonale, quindi H = Hs . Dal risultato citato si ha allora che in ogni rappresentazione
ρ di sl(2) in uno spazio vettoriale complesso V di dimensione finita, l’endomorfismo ρ(H) è
diagonalizzabile, cioè:
V = ⊕λ∈C Vλ ,
Vλ = {v ∈ V : ρ(H)v = λv }.
Similmente, X = Xn e quindi esiste un N (che dipende dalla rappresentazione!) tale che
ρ(X)N = 0.
5.4.6 Completa riducibilità di rappresentazioni. Sia ρ : g → End(V ) una rappresentazione di un’algebra di Lie in uno spazio vettoriale V . La rappresentazione ρ è detta
completamente riducibile se
V = ⊕i∈I Wi
dove ogni Wi è una sottorappresentazione irriducibile.
5 GRUPPI E ALGEBRE DI LIE
97
Un risultato fondamentale di H. Weyl dice che se g è semi-semplice, allora ogni rappresentazione di g in uno spazio vettoriale di dimensione finita è completamente riducibile.
le
PIn più,
sottorappresentazioni irriducibili sono determinate in modo unico, cioè se ⊕Wi ∼
Wj0 dove
=
0
.
gli Wi , Wj0 sono irriducibili, allora esiste una permutazione σ degli indici tale che Wi ∼
= Wσ(j)
Questo risultato implica anche che se W ⊂ V è una sottorappresentazione irriducibile, allora
W ∼
= Wi per un certo i.
5.5
Le rappresentazioni irriducibili dell’algebra di Lie sl(2)
5.5.1 Le rappresentazioni di sl(2). Si studi una rappresentazione qualunque di sl(2) in
uno spazio vettoriale V . Da questo studio è facile ottenere tutte le rappresentazioni irriducibili
di sl(2). Esse sono parametrizzate da un intero n ∈ Z≥0 , detto il peso più alto della rappresentazione. La rappresentazione ρn con peso più alto n è in uno spazio vettoriale V (n) di
dimensione n + 1.
5.5.2 Rappresentazioni di sl(2). Sia ρ : sl(2) → End(V ) una rappresentazione dell’algebra
di Lie sl(2) in uno spazio vettoriale di dimensione finita. Sia X, Y, H la base di sl(2) data in
5.4.2. Poiché ρ è una rappresentazione abbiamo (in End(V ))
[ρ(X), ρ(Y )] = ρ(H),
[ρ(H), ρ(X)] = 2ρ(X),
[ρ(H), ρ(Y )] = −2ρ(Y ).
In particolare, vale ρ(H)ρ(X) = ρ(X)ρ(H) + ρ([H, X]) = ρ(X)ρ(H) + 2ρ(X) ecc.
5.5.3 Pesi e spazi di peso di una rappresentazione di sl(2). Consideriamo gli autovalori (detti pesi di ρ) e autospazi (detti spazi di pesi, (ingl: weight spaces)) dell’applicazione
lineare ρ(H) : V → V . Mostreremo che questi autovalori sono interi, ma per adesso consideriamo un autovalore qualunque λ ∈ C di ρ(H). Nella complessificazione VC di V consideriamo
l’autospazio corrispondente
Vλ := {v ∈ VC : ρ(H)v = λv },
Per adesso non sfruttiamo il risultato generale sulla forme di Jordan di ρ(H) di 5.4.5.
5.5.4 L’azione di X e Y su Vλ . Un primo risultato è che gli endomorfismi ρ(X), ρ(Y ) di V
trasformano un autospazio di ρ(H) in un altro:
ρ(X)Vλ ⊂ Vλ+2 ,
ρ(Y )Vλ ⊂ Vλ−2 ,
cioè ρ(X) alza il peso di 2 mentre ρ(Y ) l’abbassa di 2. Questo segue dal calcolo seguente: per
v ∈ Vλ si ha
ρ(H)(ρ(X)v) = (ρ(X)ρ(H))v + ρ([H, X])v = ρ(X)(λv) + 2ρ(X)v = (λ + 2)ρ(X)v,
e similmente ρ(H)(ρ(Y )v) = (λ − 2)ρ(Y )v.
5 GRUPPI E ALGEBRE DI LIE
98
5.5.5 Vettori massimali. Sia v ∈ Vλ , v 6= 0. Allora ρ(X)k v è un autovettore di ρ(H) con
autovalore λ + 2k. Poiché V ha dimensione finita e i numeri complessi λ, λ + 2, λ + 4, . . . sono
distinti, esiste un k tale che ρ(X)k v 6= 0, ρ(X)k+1 v = 0.
Un vettore v ∈ V è detto vettore massimale (per la rappresentazione ρ) se v è un autovettore
di ρ(H) e se ρ(X)v = 0.
Come visto, ogni autovettore v, v 6= 0, di ρ(H) dà un vettore massimale, non zero, di V .
In particolare, ogni rappresentazione V di sl(2) (più preciso: ogni rappresentazione ρ : sl(2) →
End(V )) ha vettori massimali.
5.5.6 Vettori massimali e sottorappresentazioni di V . Dato un vettore massimale
v ∈ Vλ , v 6= 0, mostriamo che il sottospazio
W := hv, ρ(Y )v, ρ(Y )2 v, . . . i
(⊂ V )
è invariante per sl(2), quindi W è una sottorappresentazione di V .
Per costruzione si ha ρ(Y )w ∈ W , per ogni w ∈ W . Poi ρ(H)w ∈ W per ogni w ∈ W perché
ρ(H)(ρ(Y )l v) = (λ − 2l)(ρ(Y )l v) ∈ W . Poiché v è massimale, ρ(X)v = 0. Usando [X, Y ] = H
si ha
ρ(X)(ρ(Y )v) = ρ(Y )(ρ(X)v) + ρ(H)v = 0 + λv ∈ W.
Per induzione su k, supponendo che ρ(X)(ρ(Y )k−1 v) ∈ W , troviamo allora:
ρ(X)(ρ(Y )k v) = ρ(Y )(ρ(X)ρ(Y )k−1 v) + ρ(H)(ρ(Y )k−1 v) ∈ W,
perché sia ρ(X)ρ(Y )k−1 v che ρ(H)(ρ(Y )k−1 v) stanno in W . Quindi W è invariante per
ρ(Y ), ρ(H) e ρ(X) e perciò è invariante per sl(2).
Dato un vettore massimale v di una rappresentazione ρ : sl(2) → End(W ) abbiamo quindi
costruito un sottospazio W di V con v ∈ W tale che la rappresentazione ρ definisce una
rappresentazione sl(2) → End(W ) (per essere precisi: l’immagine di w ∈ W sotto M ∈ sl(2) è
ρ(M )w). Si dice che W è la sottorappresentazione di V generata dal vettore massimale v.
5.5.7 La sottorappresentazione W . Sia W la sottorappresentazione di V generata da un
vettore massimale v ∈ Vλ (vedi 5.5.6). Se dim W = n + 1, una base di W è data dalle ρ(Y )k v,
con k = 0, 1, . . . , n (questi vettori sono indipendenti perché ρ(H)ρ(Y )k v = (λ − 2k)ρ(Y )k v). In
particolare, ρ(Y )n v 6= 0 e ρ(Y )n+1 v = 0.
L’azione di ρ(Y ) e ρ(H) su questa base sono semplici da descrivere:
ρ(Y )k+1 v
k < n,
k
k
k
ρ(H)ρ(Y ) v = (λ − 2k)ρ(Y ) v,
ρ(Y )ρ(Y ) v =
0 se k = n.
Adesso mostriamo che
k
ρ(X)ρ(Y ) v =
k−1
ck ρ(Y )
0
se k = 0,
v 1 ≤ k ≤ n,
dove ck = kλ − k(k − 1).
Abbiamo già visto i casi k = 0, 1:
ρ(X)v = 0,
ρ(X)(ρ(Y )v) = ρ(Y )(ρ(X)v) + ρ(H)v = λv.
5 GRUPPI E ALGEBRE DI LIE
99
Usando questo, troviamo:
ρ(X)(ρ(Y )2 v) = ρ(Y )(ρ(X)ρ(Y )v) + ρ(H)(ρ(Y )v)
= ρ(Y )(λv) + (λ − 2)(ρ(Y )v)
= (λ + (λ − 2))(ρ(Y )v),
quindi c2 = 2λ − 2. Poiché ρ(X)(ρ(Y )k v) = ρ(Y )(ρ(X)ρ(Y )k−1 v) + ρ(H)(ρ(Y )k−1 v) troviamo
in generale:
ρ(X)(ρ(Y )k v) = (λ + (λ − 2) + . . . + (λ − 2(k − 1)))ρ(Y )k−1 v
= (kλ − 2(1 + 2 + . . . + (k − 1)))ρ(Y )k−1 v
= (kλ − k(k − 1))ρ(Y )k−1 v.
In particolare, le matrici di ρ(H), ρ(Y ) e ρ(X) rispetto alla base v, ρ(Y )v, . . . , ρ(Y )n v di W
sono determinate in modo unico dal peso λ di v e dalla dimensione n + 1 di W .
5.5.8 I pesi sono interi. Mostriamo che il peso λ del vettore massimale v è un intero:
λ ∈ Z≥0 ,
in più
dim W = λ + 1,
in particolare, ogni autovalore λ − 2k di ρ(H) su W è un intero.
Poiché ρ(Y )n+1 v = 0 otteniamo:
0 = ρ(X)ρ(Y )n+1 v = cn+1 ρ(Y )n v.
Dato che ρ(Y )n v 6= 0 si ha cn+1 = 0:
0 = cn+1 = (n + 1)λ − (n + 1)n
=⇒
λ = n.
Gli n + 1 autovalori, i pesi, di ρ(H) sullo spazio n + 1-dimensionale W sono allora gli interi
n, n − 2, n − 4, . . . , n − 2n = −n, ognuno con molteplicità 1:
W = ⊕nk=0 Wn−2k ,
Wµ := {w ∈ W : ρ(H)w = µw }
dim Wµ = 1.
Una base di Wn−2k è data da ρ(Y )k v, quindi ρ(Y ) : Wn−2k → Wn−2(k+1) è un isomorfismo,
tranne se k = n (in quel caso Wn−2(k+1) = 0). In più, abbiamo visto che per k = 1, . . . , n
ρ(X)(ρ(Y )k v) = ck ρ(Y )k−1 v
con ck 6= 0
(k = 1, . . . , n)
quindi in questi casi ρ(X) : Wn−2k → Wn−2(k−1) è un isomorfismo e ρ(X)Wn = 0 perché v ∈ Wn
è un vettore massimale. Segue che ker ρ(X) = Wn . In particolare, ogni vettore massimale in
W è un moltiplo di v.
Adesso non è difficile verificare che le matrici che abbiamo trovato per ρ(X), ρ(Y ) e ρ(H)
rispetto alla base ρ(Y )k v, k = 0, . . . , n, di W , definiscono una rappresentazione di sl(2). In
5.3.5 si darà un’altra dimostrazione.
5 GRUPPI E ALGEBRE DI LIE
100
5.5.9 La sottorappresentazione W è irriducibile. Sia W 0 ⊂ W un sottospazio sl(2)invariante con W 0 6= 0. Prendiamo un w ∈ W 0 , w 6= 0. Allora esiste un l ≥ 0 tale che
ρ(X)l w 6= 0 ma ρ(X)l+1 w = 0. Per quanto visto prima, si ha allora ρ(X)l w = cv, dove v è
il vettore massimale e c ∈ C, c 6= 0. Poichè W 0 è sl(2)-invariante, si ha allora v ∈ W 0 e poi
ρ(Y )k v ∈ W 0 per ogni k ≥ 0, quindi W 0 = W . In questo modo abbiamo mostrato che gli unici
sottospazi sl(2)-invarianti in W sono {0} e W , e quindi la rappresentazione di sl(2) in End(W )
è irriducibile.
5.5.10 La rappresentazione irriducibile V (n) di sl(2). Sia adesso V una rappresentazione irriducibile di sl(2). La scelta di un vettore massimale non-zero v ∈ V definisce una
sottorappresentazione non-banale W di V . Poiché V è irriducibile, V = W (ed il vettore
massimale è quindi unico a meno di moltiplicazione per uno scalare non nullo).
Poiché W ha una base data dalle vk := ρ(Y )k v, 0 ≤ k ≤ n dove ρ(H)v = nv, e poiché le
applicazioni ρ(Y ), ρ(H) e ρ(X) rispetto a questa base sono state determinate in modo unico,
tale rappresentazione è unica. Si può verificare che queste applicazioni definiscono davvero una
rappresentazione (oppure vedi 5.3.5). Quindi esiste un’unica rappresentazione irriducibile di
dimensione n + 1 di sl(2), scritto V (n), e anche:
ρn : sl(2) −→ End(V (n)).
La rappresentazione V (n) ha allora pesi λ = n, n − 2, . . . , −n, il peso più alto è n e ogni
spazio di peso V (n)λ ha dimensione 1.
5.6
Rappresentazioni di sl(2).
5.6.1 Esempi. La rappresentazione ρ0 è quella banale: ρ(Z) = 0 per ogni Z ∈ sl(2).
La rappresentazione ‘identità’ è ρ1 : sl(2) ,→ M2 (R) e si noti che gli autovalori di ρ1 (H) = H
sono proprio 1 e 1 − 2 = −1.
Poi c’è la rappresentazione aggiunta ad : sl(2) → End(sl(2)) ∼
= M3 (R) (vedi anche 5.2.5).
Poiché X, H, Y sono una base di sl(2) e poiché
ad(H)(X) = [H, X] = 2X,
ad(H)(H) = [H, H] = 0,
ad(H)(Y ) = [H, Y ] = −2Y
si ha ad(H) = diag(2, 0, −2), in particolare, ad(H) ha autovalori 2, 2 − 2 = 0, 2 − 4 = −2.
Inoltre, sl(2) ha base di autovettori
X,
ad(Y )(X) = [Y, X] = −H,
ad(Y )2 (X) = [Y, [Y, X]] = [Y, −H] = 2Y
e la dimensione della rappresentazione irriducibile ad è 2 + 1 = 3.
5.6.2 La formula di Clebsch-Gordan. Studiamo ora la decomposizione del prodotto
tensoriale di due rappresentazioni irriducibili di sl(2). Per la classificazione ottenuta in 5.5.10,
dobbiamo considerare la rappresentazione
ρ : sl(2) −→ V (n) ⊗ V (m),
ρ(Z)(v ⊗ w) = (ρn (Z)v) ⊗ w + w ⊗ (ρm (Z)w)
5 GRUPPI E ALGEBRE DI LIE
101
dove Z ∈ sl(2) e con n, m ∈ Z≥0 di dimensione (n + 1)(m + 1). La rappresentazione ρ si decompone, in modo unico, (vedi 5.4.6) in rappresentazioni irriducibili. Poiché le rappresentazioni
irriducibili sono determinate dai loro pesi, basta considerare questi.
Se v ∈ V (n) e w ∈ V (m) sono autovettori di ρn (H) e ρm (H), con autovalori λ, µ
rispettivamente, allora (vedi 5.3.1):
ρ(H)(v ⊗ w) = (ρn (H)v) ⊗ w + v ⊗ (ρm (H)w) = λ(v ⊗ w) + µ(v ⊗ w) = (λ + µ)(v ⊗ w).
Quindi il prodotto tensoriale di due autovettori è un autovettore. Poiché V (n) e V (m) sono
somma diretta di spazi peso troviamo allora che gli spazi pesi di V (n) ⊗ V (m) sono:
(V (n) ⊗ V (m))ν = ⊕λ+µ=ν V (n)λ ⊗ V (m)µ .
Poiché i pesi di V (n) e V (m) sono n, n − 2, . . . , n − 2k, . . . , −n e m, m − 2, . . . , m − 2l, . . . , −m
i pesi di V (n) ⊗ V (m) sono allora gli (n + 1)(m + 1) interi nella tabella n + 1 × m + 1 qui sotto:
n+m
(n − 2) + m
..
.
n + (m − 2)
(n − 2) + (m − 2)
..
.
...
...
n + (m − 2l)
(n − 2) + (m − 2l)
..
.
...
...
n−m
(n − 2) − m
..
.
(n − 2k) + m (n − 2k) + (m − 2) . . . (n − 2k) + (m − 2l) . . . (n − 2k) − m
..
..
..
..
.
.
.
.
−n − m
−n + (m − 2)
...
−n + (m − 2l)
...
−n − m
In particolare, n + m è il peso più alto di V (n) ⊗ V (m) e perciò la rappresentazione irriducibile
V (n + m) è una sottorappresentazione di V (n) ⊗ V (m), con moltiplicità uno. Poiché i pesi di
V (n + m) sono gli n + m − 2r, r = 0, . . . , n + m, gli altri pesi di V (n) ⊗ V (m) sono quelli che
rimangono togliendo la prima riga e l’ultima colonna della tabella. Il peso più alto rimasto è
allora (n−2)+m = n+m−2 e quindi V (n+m−2) è una sottorappresentazione di V (n)⊗V (m),
con moltiplicità uno. Poi togliamo la prima riga e l’ultima colonna della tabella che era rimasta
e troviamo che V (n + m − 4) è una sottorappresentazione di V (n) ⊗ V (m), con moltiplicità
uno, ecc. Conclusione:
V (n) ⊗ V (m) ∼
= V (n + m) ⊕ V (n + m − 2) ⊕ . . . ⊕ V (|n − m|),
questa formula si chiama formula di Clebsch-Gordan.
5.6.3 Esempio. La formula di Clebsch-Gordan dà:
V (1) ⊗ V (1) ∼
= V (2) ⊕ V (0) ∼
= Sym2 (R2 ) ⊕ R
dove la rappresentazione di sl(2) su R è quella banale. Questa si verifica facilmente, la
rappresentazione V (1) ⊗ V (1) è ottenuta dalla rappresentazione di SL(2) su M2 (R) per
r(g)(M ) = gM t g (vedi 5.3.2), ovviamente Sym2 (R2 ) e Alt2 (R2 ) sono sottospazi invarianti,
e abbiamo visto in 5.3.5 che Sym2 (R2 ) ∼
= V (2) e Alt2 (R2 ) ha dimensione uno, quindi è la
rappresentazione banale dell’algebra di Lie semplice sl(2) (vedi 5.4.4).
5 GRUPPI E ALGEBRE DI LIE
102
5.6.4 La decomposizione di prodotti tensoriali. Un modo comodo per trovare esplicitamente la decomposizione di un prodotto tensoriale di rappresentazioni irriducibili di sl(2) dato
dalla formula di Clebsch-Gordan è il seguente.
Consideriamo V (n) = R[x, y]n e V (m) = R[u, v]m (vedi 5.3.5), prendiamo altre variabili per
ottenere la decomposizione di
V (n) ⊗ V (m) = R[x, y]n ⊗ R[u, v]m
in modo più semplice. Da 5.3.1 e 5.3.5 otteniamo:
ρn (X) ⊗ ρm (X) = x∂y + u∂v ,
ρn (H) ⊗ ρm (H) = x∂x − y∂y + u∂u − v∂v .
Con questi operatori si ottiene:
(ρn (X) ⊗ ρm (X))(xv − yu) =
(x∂y + u∂v )(xv − yu)
= 0,
(ρn (H) ⊗ ρm (H))(xv − yu) = (x∂x − y∂y + u∂u − v∂v )(xv − yu) = 0.
Quindi anche (xv − yu)k 7→ 0 applicando questi operatori.
Per ottenere la decomposizione di una rappresentazione di sl(2) dobbiamo trovare i vettori
massimali, cioè i polinomi f ∈ R[x, y]n ⊗ R[u, v]m tali che (ρn (X) ⊗ ρm (X))(f ) = 0 e tali che
(ρn (H) ⊗ ρm (H))(f ) = kf , allora k ≥ 0 e f genera una coppia di V (k).
Poiché gli operatori lineari considerati sono derivazioni, troviamo:
(ρn (X) ⊗ ρm (X))(xa ub (xv − yu)c ) = ub (xv − yu)c (ρn (X) ⊗ ρm (X))(xa ) + . . .
= axa−1 ub (xv − yu)c (x∂y + u∂v )(x) + . . .
= 0 + 0 + 0 = 0,
e, similmente,
(ρn (H) ⊗ ρm (H))(xa ub (xv − yu)c ) = (a + b + 0)xa ub (xv − yu)c = (a + b)xa ub (xv − yu)c .
Quindi xa ub (xv − yu)c è un vettore massimale, di peso a + b, per ogni a, b, c ∈ Z≥0 tale che
xa ub (xv − yu)c ∈ R[x, y]n ⊗ R[u, v]m , cioè tale che a + c = n, b + c = m. Supponiamo ora che
n ≥ m, allora c = 0, 1, . . . , m poi b = m − c, a = n − c e il peso massimale corrispondente è
a + b = n + m − 2c. Quindi troviamo che R[x, y]n ⊗ R[u, v]m ha sottorappresentazioni isomorfe
a V (n + m), V (n + m − 2), . . . , V (n − m). Secondo Clebsch e Gordan queste sono tutte le
sottorappresentazioni irriducibili di R[x, y]n ⊗ R[u, v]m .
Nel caso n = m, lo scambio di variabili x ↔ u, y ↔ v dà una decomposizione in autospazi:
V (n) ⊗ V (n) = Sym2 (V (n)) ⊕ Alt2 (V (n)).
Si noti che il vettore massimale della sottorappresentazione V (n − 2k) di V (n) ⊗ V (n) è
xn−k un−k (xv − yu)k , che è simmetrico se k è pari ed alternante se k è dispari. Quindi si
ha:
Sym2 (V (n)) = V (2n) ⊕ V (2n − 4) ⊕ . . . ⊕ V (2n − 4k) . . . ,
Alt2 (V (n)) = V (2n − 2) ⊕ V (2n − 6) ⊕ . . . ⊕ V (2n − 4k − 2) . . . .
6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3)
6
103
Le rappresentazioni dell’algebra di Lie sl(3)
Testi consigliati: [FH], [Ha], [Hu].
6.1
L’algebra di Lie sl(3).
6.1.1 Introduzione. In questo capitolo daremo la classificazione delle rappresentazioni
irriducibili delle algebre di Lie sl(3) e su(3).
Il risultato è che le rappresentazioni irriducibili di sl(3) sono classificate da una coppia di
interi positivi, o meglio, da ‘un peso dominante’. In 6.5.9 mostriamo che c’è una biiezione tra le
rappresentazioni irriducibili di sl(3) e quelle di su(3). Quest’ultime sono di grande importanza
per il modello standard delle particelle elementari, si veda il capitolo 14.
6.1.2 L’algebra di Lie sl(3). L’algebra di Lie sl(3) del gruppo di Lie SL(3) è data da:
sl(3) = { X ∈ M3 (C) : T r(X) := X11 + X22 + X33 = 0 }
(vedi 5.1.7), in particolare, sl(3) è uno spazio vettoriale complesso di dim sl(n) = 32 − 1 = 8.
Sia h il sottospazio di sl(3) delle matrici diagonali:
h = {H = diag(t1 , t2 , t3 ) ∈ M3 (C) : t1 + t2 + t3 = 0 },
si noti che dim h = 2. Se H1 , H2 ∈ h, allora H1 H2 = H2 H1 perché H1 , H2 sono matrici diagonali,
quindi si ha [H1 , H2 ] = 0. Perciò h è una sottoalgebra abeliana di sl(3).
Ogni H ∈ h definisce una mappa lineare
ad(H) : sl(3) −→ sl(3),
X 7−→ ad(H)(X) := [H, X] (= HX − XH).
Un X ∈ sl(3) è un autovettore, con autovalore λ ∈ C, di ad(H) se ad(H)(X) = λX. Dato
che ad(H)(H1 ) = 0 per ogni H1 ∈ h, ogni elemento nel sottospazio h è un autovettore di ad(H)
con autovalore λ = 0, e questo per ogni H ∈ h.
Per trovare gli altri autovettori di ad(H) calcoliamo in modo esplicito questa mappa:


 

t1 0 0
x11 x12 x13
t1 x11 t1 x12 t1 x13
HX =  0 t2 0   x21 x22 x23  =  t2 x21 t2 x22 t2 x23  ,
0 0 t3
x31 x32 x33
t3 x31 t3 x32 t3 x33
e similmente


 

x11 x12 x13
t1 0 0
t1 x11 t2 x12 t3 x13
XH =  x21 x22 x23   0 t2 0  =  t1 x21 t2 x22 t3 x23  .
x31 x32 x33
0 0 t3
t1 x31 t2 x32 t3 x33
6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3)
104
Quindi si ha


0
(t1 − t2 )x12 (t1 − t3 )x13
0
(t2 − t3 )x23  .
ad(H)(X) = [H, X] = HX − XH =  (t2 − t1 )x21
(t3 − t1 )x31 (t3 − t2 )x32
0
(1)
Si noti che una matrice X = (xij ) che ha tutti i coefficienti xij = 0, tranne x12 6= 0, è un
autovettore con autovalore t1 − t2 . Similmente per le altre coppie i, j con i 6= j.
Quindi conviene introdurre una base di sl(3) di ‘matrici elementari’. Sia Ei,j la matrice
‘elementare’:
Ei,j ∈ Mn (C),
(Ei,j )kl = δik δjl
dove δab è la delta di Kronecker: δab = 1 se a = b e zero altrimenti. In particolare, tutti i
coefficienti di Ei,j sono zero tranne il coefficiente nella i-esima riga e j-esima colonna che è
(Ei,j )ij = 1. Per esempio






1 0 0
0 1 0
0 0 0
E1,1 =  0 0 0  ,
E1,2 =  0 0 0  , E2,1 =  1 0 0  .
0 0 0
0 0 0
0 0 0
La matrice Ei,i 6∈ sl(3) (perché T r(Ei,i ) = 1 6= 0), ma per esempio le due matrici H12 , H23
definite da
H12 := E1,1 − E2,2 ,
H23 := E2,2 − E3,3
sono in sl(3) ed insieme sono una base di h. Una base di sl(3) è allora data da H12 , H23 e le sei
matrici Ei,j con 1 ≤ i, j ≤ 3 e i 6= j.
Il calcolo esplicito di ad(H)(X) (vedi equazione 1) mostra allora che ognuno di questi 8
vettori di base di sl(3) è un autovettore di ad(H) e l’autovalore di Ei,j è ti − tj :
ad(H)(Ei,j ) = [H, Ei,j ] = (ti − tj )Ei,j .
In particolare, sulla base H12 , H23 , E1,2 , E2,3 , E1,3 , E2,1 , E3,2 , E3,1 di sl(3) la matrice di ad(H) è
data da una matrice 8 × 8 diagonale:
ad(H) = diag(0, 0, t1 − t2 , t2 − t3 , t1 − t3 , t2 − t1 , t3 − t2 , t3 − t1 ),
H = diag(t1 , t2 , t3 ). (2)
6.1.3 L’algebra di Cartan h. Ogni matrice H ∈ h è diagonale. Secondo un teorema (vedi
5.4.5), in ogni rappresentazione ρ di sl(3), la matrice ρ(H) può allora essere diagonalizzata per
ogni H ∈ h.
L’algebra h è abeliana. Se X ∈ sl(3) e X 6∈ h, allora almeno un coefficiente xij di X con i 6= j
è non-zero. Questo implica, usando l’equazione (1), che [H, X] 6= 0 se H = diag(t1 , t2 , t3 ) ∈ h
e ti 6= tj . Quindi non esiste una sottoalgebra h0 ⊂ sl(3), più grande di h (cioè h ⊂ h0 ) tale che
h0 sia abeliana. In generale una tale algebra è detta algebra di Cartan:
6.1.4 Definizione. Sia g un’algebra di Lie complessa semplice. Una sottoalgebra di Lie h ⊂ g
è detta un’algebra di Cartan se h è abeliana, se ogni elemento di h è diagonalizzabile (in una
6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3)
105
e quindi in ogni rappresentazione di g, vedi 5.4.5) e se h è massimale rispetto a tale proprietà
(vedi [FH], Definition D.2).
Si può mostrare che se h, h0 sono due algebre di Cartan di g, allora esiste un automorfismo
g → g0 che manda h in h0 , quindi h è essenzialmente unica (vedi [FH] D.3).
Il rango l di g è la dimensione di un’algebra di Cartan di g:
l = rango(g) := dimC h.
In particolare, il rango di sl(3) è l = 2.
6.1.5 I pesi delle rappresentazioni di sl(3). Sia h l’algebra di Cartan di sl(3) come in
6.1.2, sia V uno spazio vettoriale complesso e sia
ρ : g −→ End(V )
una rappresentazione di g.
Poiché ρ(H) è diagonalizzabile per ogni H ∈ h, si può decomporre V in autospazi per
ρ(H12 ). Sia Vλ ⊂ V l’autospazio di ρ(H12 ) con autovalore λ. La mappa lineare ρ(H23 ) induce
una mappa lineare Vλ → Vλ , cioè ρ(H23 )Vλ ⊂ Vλ , perché:
ρ(H12 )(ρ(H23 )v) = ρ(H23 )(ρ(H12 )v) = ρ(H23 )(λv) = λ(ρ(H23 )v),
(v ∈ Vλ ).
Poiché anche ρ(H23 ) è diagonalizzabile, il sottospazio Vλ ammette una decomposizione in
autospazi per H23 . Per λ, µ ∈ C definiamo un sottospazio Vλ,µ di Vλ (e quindi di V ) tramite
Vλ,µ = {v ∈ V, : ρ(H12 )v = λv,
ρ(H23 )v = µv },
cioè il sottospazio di V di autovettori di ρ(H12 ) con autovalore λ e di autovettori di ρ(H23 ) con
autovalore µ. Allora Vλ = ⊕µ Vλ,µ e V = ⊕(λ,µ) Vλ,µ .
Adesso consideriamo gli autovalori di ρ(H) per un elemento generico H ∈ h. Tale H ∈ h si
scrive, in modo unico, come H = aH12 + bH23 per certi a, b ∈ C. Poiché ρ è lineare si ha per
v ∈ Vλ,µ :
ρ(H)v =
aρ(H12 ) + bρ(H23 ) v = (aλ + bµ)v
(v ∈ Vλ,µ ).
Quindi ρ(H) ha l’autovalore aλ + bµ su Vλ,µ , si noti che l’autovalore dipende in modo lineare
dagli elementi di H. Un autospazio Vλ,µ definisce allora una mappa lineare (un ‘peso’)
L : h −→ C,
H = aH12 + bH23 7−→ aλ + bµ,
tale che ρ(H)v = L(H)v
per ogni v ∈ Vλ,µ . Si scrive VL := Vλ,µ e VL è detto uno spazio peso (invece di autospazio per
tutti gli elementi di h) con peso L ∈ h∗ , lo spazio duale di h.
In particolare, ogni rappresentazione V ammette una decomposizione in spazi peso:
V = ⊕L∈h∗ VL ,
ρ(H)v = L(H)v
(∀v ∈ VL ).
Poiché dim V è finita, VL = 0 tranne che per un numero finito di L ∈ h∗ , questi L sono detti i
pesi della rappresentazione ρ. La molteplicità di un peso L è per definizione la dimensione di
VL .
6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3)
106
6.1.6 La rappresentazione aggiunta di sl(3). La rappresentazione aggiunta dell’algebra
di Lie sl(3) è (vedi 5.2.5 e 6.1.2):
ad : g −→ End(g),
X 7−→ (ad(X) : Y 7→ [X, Y ]).
Abbiamo visto che rispetto a una base opportuna di sl(3) si ha (vedi equazione 2 di 6.1.2):
ad(diag(t1 , t2 , t3 )) = diag(0, 0, t1 − t2 , t2 − t3 , t1 − t3 , t2 − t1 , t3 − t2 , t3 − t1 ).
Definiamo Li ∈ h∗ con:
Li : h −→ C,
Poiché
P
Li (diag(t1 , t2 , t3 )) = ti .
ti = 0 gli Li ∈ h∗ non sono indipendenti in h∗ ma si ha:
L1 + L2 + L3 = 0 ∈ h∗ ,
In particolare, Li e Li − c(L1 + L2 + L3 ) sono la stessa mappa lineare su h per ogni c ∈ C. Una
base dello spazio due dimensionale h∗ è L1 − L2 , L2 − L3 .
Visto che (Li − Lj )(H) = ti − tj otteniamo allora che i pesi della rappresentazione aggiunta
di sl(3) sono L = 0 e
α1 := L1 − L2 ,
α2 := L2 − L3 ,
L1 − L3 ,
L2 − L1 ,
L3 − L2 ,
L3 − L1 ,
questi sei pesi hanno molteplicità uno, il peso 0 ha molteplicità 2. In particolare, l’algebra di
Lie sl(3) ha la decomposizione in spazi peso:
sl(3) = h ⊕ (⊕α∈h∗ −{0} gα )
dove il sottospazio gα è definito da:
gα := {X ∈ sl(3) : [H, X] = α(H)X },
se α = Li − Lj allora gα = CEi,j , in particolare ogni gα è uno dimensionale.
6.1.7 Le radici di sl(3). Un elemento α ∈ h∗ è detto una radice (inglese: root) di g = sl(3)
se α 6= 0 e gα 6= 0. L’insieme delle radici è indicato con R, quindi R = {±(Li − Lj ) : i 6= j}.
Lo spazio radice (inglese root space) è l’autospazio gα di g, dove α ∈ R.
Una radice α = Li − Lj è detta positiva se i < j, l’insieme delle tre radici positive lo si
indica con R+ .
Per una radice α = Li − Lj positiva si definisce
Hα := Ei,i − Ej,j ,
Xα := Ei,j ,
X−α := Ej,i ,
si noti che Hα ∈ h, Xα ∈ gα e X−α ∈ g−α . Nel caso α = L1 − L2 si ha H12 = Hα ecc. Il
sottospazio tridimensionale di g generato da Hα , Xα , X−α è una sottoalgebra di Lie di g isomorfa
a sl(2), infatti si verifica che:
[Hα , Xα ] = 2Xα ,
[Hα , X−α ] = −2X−α ,
[Xα , X−α ] = Hα ,
6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3)
107
che coincide con i commutatori di sl(2) (vedi 5.4.2).
6.1.8 Il sistema delle radici di sl(3). Per visualizzare le radici di sl(3), che sono vettori
in h∗ ∼
= C2 , conviene anzitutto osservare che le sei radici generano un sottospazio reale di
dimensione due, indicato con h∗R ,
h∗R := Rα ⊕ Rα2 ,
α := L1 − L2 , α2 := L2 − L3 .
P
P
Come abbiamo visto in 6.1.6 le mappe lineari i ai Li e i ai Li −c(L1 +L2 +L3 ) sono uguali su
h∗ .PConvieneP
normalizzare il modo di scrivere un peso nel modo seguente: la normalizzazione
di i ai Li è i ai Li − c(L1 + L2 + L3 ) con c = (a1 + a2 + a3 )/3; con questa normalizzazione si
ha
X
X
X
X
X
bi Li :=
ai Li − 31 (
ai )(L1 + L2 + L3 ), con b1 + b2 + b3 = (
ai ) − 3 13 (
ai ) = 0.
i
i
i
i
i
Usando questa normalizzazione, si può definire un prodotto scalare (−, −) su h∗R nel modo
seguente:
X
X
X
X
(
ai Li ,
bi Li ) = a1 b1 + a2 b2 + a3 b3 ,
(
ai =
bi = 0).
P
P
E’ importante la normalizzazione
ai =
bi = 0, per esempio, senza questa, (L1 , L1 ) = 1
mentre in realtà:
(L1 , L1 ) = ((2L1 − L2 − L3 )/3, (2L1 − L2 − L3 )/3) = (4 + 1 + 1)/9 = 2/3.
Le radici α1 = L1 − L2 , α2 = L2 − L3 sono già normalizzate e si ha
(α1 , α1 ) = (α2 , α2 ) = 2,
(α1 , α2 ) = −1.
-
α2
-
In 6.6 si dà un modo meno ad-hoc per costruire il prodotto scalare su h∗ .
Un disegno del sistema di radici è allora:
α1 + α2
α1
α1 = L 1 − L 2 ,
α2 = L 2 − L 3 ,

α1 + α2 = L 1 − L 3 .
-


6.1.9 Il gruppo di Weyl. Per una radice α, denotiamo con α⊥ l’iperpiano perpendicolare
ad α:
α⊥ := {x ∈ h∗R : (x, α) = 0 }
(⊂ h∗R ).
6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3)
108
Sia sα la riflessione in α⊥ :
sα : h∗R −→ h∗R ,
x 7−→ x − 2
(x, α)
α = x − (x, α)α,
(α, α)
(l’ultima ugualianza vale perché (α, α) = 2 per ogni radice di sl(3)), per verificare la formula
basta notare la linearità, che sα (x) = x se x ∈ α⊥ , cioè se (x, α) = 0, e che sα (λα) = −λα per
α ∈ R. Si noti che sα = s−α per ogni α.
Il sottogruppo del gruppo ortogonale di h∗R generato dalle sα , α ∈ R è il gruppo di Weyl di
g, denotato
W = W (g) := h sα : α ∈ R i
(⊂ O(h∗R )).
Dal diagramma in 6.1.8 si vede (e si verifca facilmente) che, con α1 = L1 − L2 , α2 = L2 − L3 ,
si ha
α1 7−→ −α1 ,
α1 7−→ α1 + α2 ,
α1 7−→ −α2 ,
sα1 :
sα2 :
sα1 +α2 :
α2 7−→ α1 + α2 ,
α2 7−→ −α2 ,
α2 7−→ −α1 .
L’insieme delle sei radici R rimane quindi invariante sotto W . Si noti che sα1 permuta L1 , L2
e fissa L3 , sα2 permuta L2 , L3 e fissa L1 mentre sα1 +α2 permuta L1 , L3 e fissa L2 , per esempio
sα1 +α2 (α1 ) = sα1 +α2 (L1 − L2 ) = L3 − L2 = −(L2 − L3 ) = −α2 .
E’ facile vedere che il gruppo di Weyl di sl(3) è isomorfo al gruppo simmetrico S3 per esempio
perché permuta le Li .
6.1.10 Pesi e prodotto scalare. Sia α = Li − Lj ∈ R+ eP
sia Hα = Ei,i − Ej,j l’elemento
di
h
nella
copia
di
sl(2)
definito
da
α
(vedi
6.1.7).
Sia
λ
=
ai Li ∈ h∗ , normalizzata, cioè
P
ai = 0. Allora
X
λ(Hα ) = (
ai Li )(Ei,i − Ej,j ) = ai − aj .
D’altra parte, poiché λ e Li − Lj sono normalizzati, anche:
X
(λ, α) = (
ai Li , Li − Lj ) = ai − aj .
Quindi otteniamo l’identità, per ogni λ ∈ h∗ e ogni α ∈ R:
λ(Hα ) = (λ, α).
6.1.11 Commutatori e radici in sl(3).
commutatori:
[gα , gβ ] ⊆ gα+β
(3)
Mostriamo che le radici determinano vari
(α, β ∈ R),
in particolare [gα , gβ ] = 0 se α + β 6∈ R. La dimostrazione è facile, sia Xα ∈ gα , Xβ ∈ gβ , allora
[H, [Xα , Xβ ]] = [[H, Xα ], Xβ ] + [Xα , [H, Xβ ]]
= α(H)[Xα , Xβ ] + β(H)[Xα , Xβ ]
= (α + β)(H)[Xα , Xβ ]
6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3)
109
e perciò [Xα , Xβ ] ∈ gα+β , dove abbiamo usato l’identità di Jacobi come in 5.2.5. Si può mostrare
che [gα , gβ ] = gα+β se α + β ∈ R.
6.2
Pesi: integralità e simmetria
6.2.1 I pesi di una rappresentazione. In 6.1.5 abbiamo visto che ogni rappresentazione
ρ : sl(3) −→ End(V )
dà una decomposizione di V in spazi peso (autospazi per gli elementi dell’algebra di Cartan h):
V = ⊕λ V λ ,
ρ(H)v = λ(H)v
(∀H ∈ h, v ∈ Vλ )
dove λ : h → C è un’applicazione lineare. L’insieme delle λ ∈ h∗ per le quali Vλ 6= 0 è detto
l’insieme dei pesi di ρ.
Per esempio, i pesi della rappresentazione aggiunta di g sono le radici e λ = 0 (vedi 7.1.5)
sl(3) = h ⊕ (⊕α∈R gα ).
Un altro esempio è V = C3 , la rappresentazione standard di g = sl(3).
diag(t1 , t2 , t3 ) ∈ h è già diagonale sulla base standard ei di V , si ha:
V = C3 = VL1 ⊕ VL2 ⊕ VL3 ,
VLi = Cei ,
Poiché H =
perché Hei = ti ei = Li (H)ei .
6.2.2 Integralità e reticolo dei pesi ΛW . L’algebra di Cartan h è generata su C da
H12 = Hα1 e H23 = Hα2 .
Dato un Hα , ci sono X±α ∈ g tali che < Hα , Xα , X−α > sia una sottoalgebra di Lie di
g isomorfa a sl(2) e tale che [Hα , X±α ] = ±2X±α (vedi 6.1.7). In particolare, la restrizione
della rappresentazione ρ a questa sl(2) è una rappresentazione di sl(2) e quindi gli autovalori
di ρ(Hα ) su V sono interi (vedi 5.5.8).
Perciò, per ogni peso λ di V e per ogni α ∈ R si ha:
λ(Hα ) ∈ Z
Questo è equivalente a (vedi 6.1.10):
(λ, α) ∈ Z
(∀α ∈ R).
Quindi un peso di una rappresentazione di sl(3) è contenuto nell’insieme:
ΛW := {λ ∈ h∗R : (λ, α) ∈ Z ∀α ∈ R }.
Ognuna delle sei radici ±α1 , ±α2 , ±(α1 + α2 ) di sl(3) si scrive come aα1 + bα2 , con a, b ∈ Z.
Quindi (λ, γ) ∈ Z per ogni γ ∈ R se e solo se (λ, αi ) ∈ Z per i = 1, 2.
6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3)
110
I pesi fondamentali di sl(3) sono gli elementi λ1 , λ2 ∈ h∗R definiti da
(λ1 , α1 ) = 1,
(λ2 , α1 ) = 0,
,
(λ1 , α2 ) = 0,
(λ2 , α2 ) = 1,
dove α1 = L1 − L2 , α2 = L2 − L3 è la base ‘standard’ di h∗ . Poiché (−, −) è un prodotto scalare
su h∗R segue che anche λ1 , λ2 è una base di h∗R e per definizione λ1 , λ2 ∈ ΛW .
In più, si ha
X
X
(
ai λi , α1 ) ∈ Z ⇐⇒ a1 ∈ Z,
(
ai λi , α2 ) ∈ Z ⇐⇒ a2 ∈ Z.
Quindi otteniamo che:
ΛW = Zλ1 ⊕ Zλ2 .
L’insieme ΛW è quindi un sottogruppo abeliano di rango 2 di h∗R e genera questo spazio. Esso
si chiama il reticolo dei pesi (weight lattice) di sl(3).
Un semplice calcolo mostra che
λ1 = L1 = (2L1 − L2 − L3 )/3
c
c
c
c
c
α2
c
c
c
c
c
c
c
λ2
α1
c
sc
sc
sc
c
c
cλ1
c
c
c
c
c
c
sc
sc
c
c
c
c
c
c
c
c
c
c
c
c
c
c
c
c
c
c
c
c
c
c
λ2 = L1 + L2 = (L1 + L2 − 2L3 )/3.
0
c
c
c
c
c
c
c
c
c
c
c
c
c
c
c
c
c
c
c
c
c
c
sc
sc
c
c
c
c
c
c
c
c
Pesi fondamentali e radici di sl(3)
c
6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3)
111
6.2.3 Il reticolo delle radici di sl(3). Il reticolo delle radici di sl(3) è il gruppo:
α1 = L1 − L2 , α2 = L2 − L3 .
ΛR := Zα1 + Zα2
Poiché ogni radice è una combinazione lineare con coefficienti interi delle radici semplici α1 , α2 ,
si ha R ⊂ ΛR . Inoltre, ogni radice è un peso della rappresentazione aggiunta e quindi ΛR ⊂ ΛW .
In modo esplicito:
α1 = L1 − L2 = 2λ1 − λ2 ,
α2 = L2 − L3 = −λ1 + 2λ2 .
Il gruppo quoziente ΛW /ΛR risulta essere un gruppo finito con tre elementi e ha (più precisamente, il suo ‘duale’) un’interpretazione in termini del gruppo di Lie SL(3, C), vedi [FH]
p.372-374.
6.2.4 Radici e pesi. L’algebra di Lie sl(3) ammette la decomposizione in spazi peso per la
rappresentazione aggiunta:
sl(3) = h ⊕ (⊕α∈R gα ).
Mostriamo che l’azione di un ρ(Xα ), con Xα ∈ gα , manda Vλ in Vλ+α ,
ρ(Xα ) : Vλ −→ Vλ+α
(Xα ∈ gα ).
Per verificare ciò, sia v ∈ Vλ :
ρ(H)(ρ(Xα )v) =
=
=
=
(ρ([H, Xα ]) + ρ(Xα )ρ(H))v
(ρ(α(H)Xα ) + ρ(Xα )ρ(H))v
(α(H) + λ(H))(ρ(Xα )v)
(λ + α)(H)(ρ(Xα )v),
quindi ρ(Xα )v ∈ Vλ+α .
6.2.5 Il gruppo di Weyl e i pesi. Mostriamo che per α ∈ R+ e λ un peso di V , anche
sα (λ) è un peso di V , cioè l’insieme dei pesi di una rappresentazione è invariante per l’azione
del gruppo di Weyl su h∗R . In più dim Vλ = dim Vsα (λ) , cioè, i pesi nella stessa orbita del gruppo
di Weyl hanno la stessa molteplicità.
Anzitutto si ha:
sα (λ) = λ − (λ, α)α = λ − λ(Hα )α.
Consideriamo la restrizione di ρ : sl(3) → End(V ) a sl(2) :=< Hα , Xα , X−α > (vedi 6.1.7).
Visto che ρ(Hα )v = λ(Hα )v per ogni v ∈ Vλ , lo spazio Vλ è uno spazio peso per sl(2) con peso
k := λ(Hα ) e molteplicità dim Vλ . Come visto in 6.2.4, ρ(X±α )Vλ ⊂ Vλ±α . Quindi otteniamo
una rappresentazione di sl(2) sul sottospazio V[λ] di V definita da:
V[λ] := ⊕n∈Z Vλ+nα
(⊂ V ).
Il sottospazio Vλ+nα è uno spazio peso per Hα ∈ sl(2) con peso (λ + nα)(Hα ) = λ(Hα ) + 2n
perché α(Hα ) = (α, α) = 2.
6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3)
112
Dalla teoria delle rappresentazioni di sl(2) segue che se k è un peso di una rappresentazione
di sl(2), allora anche −k è un peso con la stessa molteplicità e che ρ(X±α )k è un isomorfismo
tra questi due spazi pesi (con segno − se k > 0). Per k > 0 si ha allora ρ(X−α )k (Vλ ) = Vλ−kα
e k = λ(Hα ), e perciò:
∼
=
ρ(X−α )k : Vλ −→ Vλ−λ(Hα )α = Vsα (λ) .
Quindi anche Vsα (λ) è uno spazio peso e dim Vsα (λ) = dim Vλ .
6.3
Il peso massimale di una rappresentazione irriducibile
6.3.1 La camera di Weyl. Poiché il gruppo di Weyl W permuta i pesi di ogni rappresentazione di g, è interessante avere un modo di determinare un unico elemento (almeno, quasi
sempre) in ogni orbita di W , dove l’orbita di un peso λ sotto W è l’insieme delle w(λ) dove w
percorre W . Visto che W ∼
= S3 permuta le Li , l’orbita di λ1 = (2L1 − L2 − L3 )/3 è
{(2L1 − L2 − L3 )/3 = λ1 , (−L1 + 2L2 − L3 )/3 = −λ1 + λ2 , (−L1 − L2 + 2L3 )/3 = −λ2 }
(si noti che sα2 fissa λ1 ), mentre l’orbita di α1 = L1 − L2 è R, l’insieme delle radici.
La camera di Weyl fondamentale (chiusa) è il sottoinsieme di h∗R dato da:
C = {x ∈ h∗R : (x, αi ) ≥ 0,
i = 1, 2 } = {a1 L1 + a2 L2 + a3 L3 : a1 ≥ a2 ≥ a3 }.
Nel diagramma in 6.2.2, i bordi di C, detti pareti della camera di Weyl fondamentale, sono le
due semirette indicate; la parte triangolare che essi definiscono è C.
Poiché W permuta gli Li è facile vedere che per ogni x ∈ h∗R esiste un w ∈ W tale che
w(x) ∈ C. Questo w è unico tranne se w(x) è su una delle due pareti di C, nel qual caso la
riflessione in quella parete fissa w(x) (vedi [FH], Lemma D.31).
6.3.2 I pesi dominanti. Un peso λ ∈ ΛW è detto dominante se λ ∈ ΛW ∩ C. L’insieme dei
pesi dominanti è indicato con
nX
o
Λ+
:=
Λ
∩
C
=
m
λ
:
m
∈
Z
,
W
i i
i
≥0
W
l’ultima ugualianza segue dal fatto che (
P
mi λi , αj ) = mj .
6.3.3 Vettori massimali e pesi massimali. Sia ρ : sl(3) → End(V ) una rappresentazione
di sl(3). Un peso λ di ρ è detto massimale se esiste v ∈ Vλ , v 6= 0, tale che ρ(Xα )v = 0 per
ogni α ∈ R+ . Il vettore v ∈ Vλ è detto vettore massimale di ρ.
Ciò generalizza il concetto di vettore massimale per una rappresentazione di sl(2), vedi 5.5.5.
Nel caso g = sl(2) i pesi massimali (in quel caso, interi n ∈ Z≥0 ) classificano le rappresentazioni
irriducibili di g (vedi 5.5.10).
Visto che R+ = {α1 , α2 , α1 + α2 } e Xα1 +α2 = [Xα1 , Xα2 ], si ha:
ρ(Xα1 +α2 ) = ρ(Xα1 )ρ(Xα2 ) − ρ(Xα2 )ρ(Xα1 ),
6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3)
113
quindi un vettore v ∈ Vλ è massimale se e solo se ρ(Xαi )v = 0 per i = 1, 2.
Se λ è un peso tale che Vλ+α1 = Vλ+α2 = 0, allora, poiché ρ(Xα )(Vλ ) ⊂ Vλ+α , ogni v ∈ Vλ ,
v 6= 0, è un vettore massimale di ρ.
6.3.4 I pesi massimali sono dominanti. Mostriamo che un peso massimale è un peso
dominante. Sia λ un peso massimale e sia v ∈ Vλ un vettore massimale. Sia hHα , X±α i ⊂ sl(3)
la copia di sl(2) definita da α, allora il vettore massimale v ∈ Vλ è un vettore massimale per
questa sl(2). Perciò ρ(Hα )v = λ(Hα )v con λ(Hα ) ≥ 0. Per le radici α1 , α2 ∈ R+ si ha allora
0 ≤ λ(Hαi ) = (λ, αi ), quindi λ è dominante.
6.3.5 Esistenza di un vettore massimale. L’insieme dei pesi di una rappresentazione ρ di
sl(3) è un insieme finito, quindi esiste un peso λ tale che Vλ 6= 0 ma Vλ+α = 0 per ogni α ∈ R+ .
Quindi λ è un peso massimale di ρ e ogni v ∈ Vλ , v 6= 0 è un vettore massimale di ρ.
6.3.6 Esempio. Consideriamo la rappresentazione aggiunta V = sl(3) di sl(3). I suoi pesi
sono lo 0 e gli Li −Lj con i 6= j. Tra questi, i pesi dominanti sono 0 e L1 −L3 = α1 +α2 = λ1 +λ2 .
Quindi se v ∈ V è un vettore massimale, si ha v ∈ V0 = h oppure v ∈ VL1 −L3 = CE1,3 .
Un vettore v ∈ V0 si scrive come v = aH12 + bH23 = aHα1 + bHα2 per certi a, b ∈ C. Poi v
è massimale sse ρ(Xαi )v = 0 per i = 1, 2. Si ricordi che [Hα , Xβ ] = β(Hα )Xβ = (β, α)Xβ , cosı̀
ρ(Xα1 )v = [Xα1 , aHα1 + bHα2 ] = −aα1 (Hα1 ) − bα1 (Hα2 ) Xα1 = (−2a + b)Xα1 ,
quindi se v è massimale si ha b = 2a. In modo simile, ρ(Xα2 )v = (a − 2b)Xα2 , quindi se v è
massimale anche a − 2b = 0 cioè a − 4a = 0 e perciò a = b = 0. La conclusione è che non ci
sono vettori massimali in V0 .
In 6.3.5 abbiamo visto che V dovrebbe avere un vettore massimale, e quindi ci deve essere
un vettore massimale in VL1 −L3 . Poiché dim VL1 −L3 = 1, ogni vettore non-zero in VL1 −L3 è
massimale. Si noti anche che VL1 −L3 = Vα1 +α2 e che α1 + α2 + αi non è un peso di V per
i = 1, 2; questo implica che ogni vettore in Vα1 +α2 è massimale.
6.3.7 La rappresentazione irriducibile generata da un vettore massimale. Sia v ∈ Vλ
un vettore massimale. Sia W il sottospazio generato dalle immagini di v mediante successive
applicazioni di elementi di gβ con β ∈ R− .
Mostriamo che W è una sottorappresentazione di g := sl(3). Sia R− = {β1 = L2 − L1 , β2 =
L3 − L2 , β3 = L3 − L1 },
Wn := h ρ(Xβi1 ) . . . ρ(Xβik )v : βij ∈ R− , 0 ≤ k ≤ n i,
W = ∪∞
n=0 Wn .
Poiché ρ : g → End(V ) è lineare, basta mostrare che ρ(X)x ∈ W per ogni x ∈ W e X =
H, Xβ , Xα con H ∈ h, β ∈ R− e α ∈ R+ .
Sia x = ρ(Xβi1 ) . . . ρ(Xβik )v ∈ Wn con k ≤ n. Allora ρ(H)x = µ(H)x con µ = λ + βi1 +
. . . + βik (vedi 8.1.6), quindi ρ(H)x ∈ W e, in più, x ∈ Vµ . In particolare,
ρ(h)Wn ⊂ Wn
(∀n ∈ Z≥0 ),
6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3)
114
e segue che ρ(H)W ⊂ W per ogni H ∈ h. L’unico vettore (a meno di moltiplicazione per uno
scalare) in W con peso λ è v:
Wλ = Cv,
e ogni altro peso di W si scrive come µ = λ + βi1 + . . . + βik con k ≥ 1 e βij ∈ R− , cioè
µ = λ − kα − lα2 con k, l ∈ Z≥0 dove α1 = L1 − L2 , α2 = L2 − L3 .
La definizione di Wn mostra che per x ∈ Wn e β ∈ R− si ha ρ(Xβ )x ∈ Wn+1 . Segue che
ρ(Xβ )W ⊂ W per ogni β ∈ R− .
Infine, mostriamo per induzione su n che
ρ(Xα )Wn ⊂ Wn
∀Xα ∈ gα , ∀α ∈ R+ ;
da ciò segue che ρ(Xα )W ⊂ W per ogni α ∈ R+ . Se n = 0, si ha W0 = Cv e ρ(Xα )v = 0 perché
v è un vettore massimale. Se x ∈ Wn e n > 0, allora x = ρ(Xβ )y con y ∈ Wn−1 e β ∈ R− ,
quindi
ρ(Xα )x = ρ(Xα )ρ(Xβ )y
= ρ(Xβ )ρ(Xα )y + ρ([Xα , Xβ ])y.
Si noti che Y := [Xα , Xβ ] ∈ gα+β . Se α + β 6∈ R ∪ {0}, gα+β = 0 e quindi Y = 0. Se
α + β = 0, Y ∈ h e quindi ρ(Y )y ∈ Wn . Se α + β ∈ R− allora ρ(Y )y ∈ Wn perché y ∈ Wn−1 .
Se α + β ∈ R+ si ha ρ(Y )y ∈ Wn−1 per l’ipotesi di induzione. Quindi in ogni caso si ha
ρ([Xα , Xβ ])y ∈ Wn . Sempre per l’ipotesi di induzione, per y ∈ Wn−1 si ha ρ(Xα )y ∈ Wn−1 , e
perciò ρ(Xβ )ρ(Xα )y ∈ Wn . Allora anche ρ(Xβ )ρ(Xα )y + ρ([Xα , Xβ ])y ∈ Wn e concludiamo che
ρ(Xα )x ∈ Wn .
6.3.8 La rappresentazione W è irriducibile. Mostriamo che la rappresentazione W di
g generata dal vettore massimale v è irriducibile. Sia W = W 0 ⊕ W 00 , dove W 0 , W 00 sono
sottorappresentazioni. Decomponendo ciascuna in spazi peso, lo spazio peso Wλ = Cv, che ha
dimensione uno, è contenuto in W 0 oppure W 00 . Poiché la rappresentazione di g generata da v
è W si ha W 0 = W oppure W 00 = W , quindi W è irriducibile.
6.3.9 Il vettore massimale è unico. Mostriamo che v è l’unico vettore massimale (a meno
di moltiplicazione per uno scalare) nella rappresentazione W . Sia v 0 ∈ W , v 0 (6= 0) un vettore
massimale. Allora v 0 genera una sottorappresentazione W 0 ⊂ W . Dato che W è irriducibile e
W 0 6= 0, si ha allora W 0 = W . Sia µ ∈ ΛW il peso di v 0 , allora µ = λ − nα1 − mα2 per certi
n, m ∈ Z≥0 e α1 = L1 − L2 , α2 = L2 − L3 .
Ogni altro peso di W 0 si scrive come τ = µ − kα1 − lα2 per certi k, l ∈ Z≥0 . Dato che v ∈ W 0
e il peso di v è λ segue allora che λ = µ − kα1 − lα2 = λ − (k + n)α1 − (l + m)α2 e quindi
k + n = l + n = 0 ma poiché k, l, m, n ≥ 0 segue allora n = m = 0 e perciò µ = λ. Dato che
Wλ = Cv, segue v 0 ∈ Cv. In particolare, una rappresentazione irriducibile ha un unico vettore
massimale, a meno di moltiplicazione per uno scalare.
6.3.10 Conclusione. Data una rappresentazione ρ : g → End(V ), il teorema di Weyl (vedi
5.4.6) afferma che V = V1 ⊕ V2 ⊕ . . . ⊕ Vk , dove ogni Vi è una rappresentazione irriducibile.
I risultati appena ottenuti mostrano che ogni Vi ha un vettore massimale vi e che il vettore
6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3)
115
massimale vi genera una sottorappresentazione irriducibile di Vi , che è quindi Vi . In particolare,
la dimensione dello spazio generato dai vettori massimali è k.
Se la rappresentazione ρ è irriducibile, allora ha un unico vettore massimale (a meno di
moltiplicazione per uno scalare). Il peso λ = λρ del vettore massimale è allora determinato
in modo unico dalla rappresentazione. Questo peso λ è massimale (per definizione) e abbiamo
mostrato che è quindi dominante (si veda 6.3.4).
Nell’ esempio 6.3.6 abbiamo visto che la rappresentazione aggiunta ad ha un unico vettore
massimale, quindi ad è irriducibile. In più si ha λad = λ1 + λ2 .
Mostriamo che il peso λ determina in modo unico (a meno di isomorfismi) la rappresentazione irriducibile W generata dal vettore massimale. Questa rappresentazione irriducibile
verrà indicata con V (λ).
Poi c’è da stabilire se un peso dominante λ determini una rappresentazione irriducibile il
cui vettore massimale abbia peso λ (si veda 6.4.2).
6.3.11 Unicità della rappresentazione irriducibile. Due rappresentazioni irriducibili
ρV , ρW di g su spazi vettoriali V, W rispettivamente, con vettori massimali v ∈ V e w ∈ W e
lo stesso peso λ ∈ Λ+
W sono isomorfe. Per vedere questo, si consideri la somma diretta V ⊕ W ,
che è una rappresentazione di g con
ρ : g −→ End(V ⊕ W ),
ρ(X)(x, y) := (ρV (X)x, ρW (X)y).
Sia U ⊂ V ⊕ W la sottorappresentazione generata da (v, w). Allora U è irriducibile perché
(v, w) è un vettore massimale in V ⊕ W . La proiezione
πV : U −→ V,
(x, y) 7−→ x,
soddisfa πV ρ(X) = ρV (X)πV
per ogni X ∈ g come si verifica facilmente. Quindi πV è un omomorfismo di rappresentazioni e
perciò ker(πV ) e im(πV ) sono sottospazi invarianti (vedi 5.3.3). Poiché (v, w) ∈ U e πV (v, w) =
v ∈ V , si ha ker(πV ) 6= U e im(πV ) 6= 0. Dato che U e V sono irriducibili, si ha allora
ker(πV ) = 0 e im(πV ) = V , quindi πV è un isomorfismo. Similmente, usando πW , si trova che
U∼
= W , quindi V ∼
= W.
6.4
Le rappresentazioni irriducibili di sl(3)
6.4.1 Classificazione. In 6.3.10 abbiamo visto che una rappresentazione irriducibile
ρ : sl(3) −→ End(V )
ha un unico vettore massimale (a meno di moltiplicazione per uno scalare) vρ e che vρ sta in
uno spazio peso Vλ di V . Il peso λ = λρ è allora l’unico peso massimale di V . In più λ è sempre
un peso dominante. In 6.3.11 abbiamo visto che il peso λ determina ρ in modo unico.
Mostriamo che viceversa ogni peso dominante λ definisce una rappresentazione irriducibile
di sl(3), denotata V (λ), tale che l’unico vettore massimale di V (λ) ha peso λ.
6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3)
116
Fatto questo, segue che le rappresentazioni irriducibili di sl(3) sono classificate dal loro peso
massimale e c’è una biiezione tra l’insieme dei pesi dominanti Λ+
W e l’insieme delle rappresentazioni irriducibili di sl(3) data da λ 7→ V (λ) con inversa ρ 7→ λρ , l’unico peso massimale di
ρ.
bi
Λ+
W = { m1 λ1 + m2 λ2 : mi ∈ Z≥0 } ←→ { rappr. irrid. di sl(3) },
λ 7−→ V (λ).
6.4.2 Le rappresentazioni irriducibili fondamentali. Per costruire la rappresentazione
V (λ), con λ dominante, mostriamo prima che le rappresentazioni V (λ1 ) e V (λ2 ) sono la
rappresentazione standard di sl(3) e il suo duale. Le rappresentazioni V (λi ) si chiamano
rappresentazioni fondamentali di sl(3).
Si ricordi che i pesi della rappresentazione standard C3 di sl(3) sono L1 , L2 , L3 (vedi 6.1.5),
è facile verificare che L1 è l’unico peso dominante di C3 . Quindi L1 è l’unico peso massimale
e poiché dimVL1 = 1 la rappresentazione C3 è irriducibile, con peso massimale L1 . Visto che
L1 = (2L1 − L2 − L3 )/3 = λ1 (vedi 6.2.2), C3 è allora la rappresentazione irriducibile che
corrisponde al peso dominante λ1 :
V (λ1 ) = C3 .
Si ricordi che l’azione di A ∈ SL(3, C) sullo spazio duale è data dalla matrice t A−1 (vedi
1.1.12). Per l’algebra di Lie questo implica (si usi un cammino γ(t) con γ(0) = I e γ 0 (0) = X)
che l’azione di X ∈ sl(3) sullo spazio duale è data da −t X. In particolare, se H = diag(t1 , t2 , t3 )
allora rispetto alla base duale di V (λ1 ) = C3 l’azione di H è diag(−t1 , −t2 , −t3 ). Perciò i pesi
della rappresentazione duale V (λ1 )∗ sono −L1 , −L2 , −L3 . Si verifica che l’unico peso dominante
di V (λ1 )∗ è il peso
−L3 = L1 + L2 = (L1 + L2 − 2L3 )/3 = λ2 ,
quindi V (λ2 ) = V (λ1 )∗ .
Per mostrare che una rappresentazione con peso massimale λ = m1 λ1 + m2 λ2 e mi ≥ 0
esiste, consideriamo prodotti tensoriali di V (λ1 ) e V (λ2 ).
6.4.3 Prodotti tensoriali e pesi. Il prodotto tensoriale di rappresentazioni ρV , ρW di
un’algebra di Lie g è definito da
ρV ⊗W (X)(v ⊗ w) = (ρ(X)v) ⊗ w + v ⊗ (ρW (X)w).
In particolare, se X = H ∈ g e
ρV (H)v = µ1 (H)v,
ρW (H)w = µ2 (H)w
=⇒
ρV ⊗W (H)(v ⊗ w) = (µ1 + µ2 )(H)(v ⊗ w).
Quindi se Vµ1 e Wµ2 sono spazi peso di V e W , il loro prodotto tensoriale è contenuto in uno
spazio peso di V ⊗ W :
Vµ1 ⊗ Wµ2 ⊂ (V ⊗ W )µ1 +µ2 .
In generale si ha Vµ1 ⊗ . . . ⊗ Vµk ⊂ Vµ1 +...+µk .
6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3)
117
6.4.4 Costruzione delle V (λ). Sia λ = m1 λ1 + m2 λ2 , mi ∈ Z≥0 un peso dominante.
Consideriamo il prodotto tensoriale
V := V (λ1 ) ⊗ . . . ⊗ V (λ1 ) ⊗ V (λ2 ) ⊗ . . . ⊗ V (λ2 ) =: V (λ1 )⊗m1 ⊗ V (λ2 )⊗m2 .
|
{z
} |
{z
}
m1
m2
Sia vi ∈ V (λi ) un vettore massimale e sia
v := v1 ⊗ . . . ⊗ v1 ⊗ v2 ⊗ . . . ⊗ v2
|
{z
} |
{z
}
m1
(∈ V ).
m2
Dato che vi ∈ V (λi ) è un vettore massimale, cioè ρi (Xα )vi = 0 per ogni αi ∈ R+ , si ha
ρ(Xα )v = ρ1 (Xα )v1 ⊗ v1 . . . ⊗ v2 + . . . + v1 ⊗ v1 . . . ⊗ ρ2 (Xα )v2 = 0 + . . . + 0 = 0.
Quindi v è un vettore massimale in V con peso (massimale e quindi dominante):
ρ(H)v = (m1 λ1 + m2 λ2 )(H)v = λ(H)v.
Perciò v genera una rappresentazione irriducibile W ⊂ V con (un unico) peso massimale λ (vedi
6.3.7). Questa rappresentazione W è l’unica rappresentazione irriducibile con peso massimale
λ (vedi 6.3.11) ed è la rappresentazione indicata con V (λ), cioè V (λ) := W .
In questo modo si conclude la classificazione delle rappresentazioni irriducibili di sl(3). Però
per determinare la dimensione (vedi 8.2.14 per una formula esplicita) o per poter decomporrere
prodotti tensoriali di rappresentazioni di sl(3) ci vuole uno studio più approfondito, vedi 6.5.
Il legame con le rappresentazioni di su(3) è dato in 6.5.9.
6.5
Le rappresentazioni irriducibili di sl(3)
6.5.1 Il prodotto simmetrico della rappresentazione standard. Mostriamo che la
rappresentazione V (kλ1 ) (per k ≥ 0) di sl(3) è la rappresentazione S k V (λ1 ), il k-esimo prodotto
simmetrico della rappresentazione standard V = V (λ1 ). In più determiniamo gli spazi peso e
mostriamo che ogni spazio peso ha dimensione 1.
Consideriamo (si veda anche 5.3.4 per il caso n = 2) la rappresentazione del gruppo di Lie
SL(3, R) su C ∞ (R3 ) definita da:
r : SL(3, R) −→ Aut(C ∞ (R3 )),
(r (A) F )(v) := F (t Av)
(v ∈ R3 ).
Sia ρ := (dr)I : sl(3, R) → End(C ∞ (R3 )) la rappresentazione dell’algebra di Lie associata. Si
mostra facilmente che, per i 6= j,
ρ(Ei,j ) = xi
∂
,
∂xj
ρ(t1 E1,1 + t2 E2,2 + t3 E3,3 ) = t1 x1
∂
∂
∂
+ t2 x2
+ t3 x3
.
∂x1
∂x2
∂x3
6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3)
118
Sia C[x1 , x2 , x3 ]m lo spazio vettoriale dei polinomi omogenei di grado m. Una base di
C[x1 , x2 , x3 ]m è data dai monomi
xa11 xa22 xa33 ,
a1 + a2 + a3 = m.
E’ facile verificare che C[x1 , x2 , x3 ]m è un sottospazio sl(3, R)-invariante che è anche sl(3) =
sl(3, R) ⊗R C invariante. La complessificazione di ρ dà allora le rappresentazioni
ρm : sl(3) −→ End(C[x1 , x2 , x3 ]m ).
Un vettore massimale di ρm è un F ∈ C[x1 , x2 , x3 ]m tale che ρm (Xα )F = 0 per ogni α ∈ R+ .
Allora α = Li − Lj con i < j, ρm (Xα ) = xi ∂/∂xj e F soddisfa:
x1
∂F
= 0
∂x2
e x2
∂F
= 0.
∂x3
In particolare, ∂F/∂xj = 0 per j = 2, 3 quindi F = cxm
1 per uno scalare c ∈ C. Quindi ρm ha un
unico vettore massimale (a meno di moltiplicazione per uno scalare) e perciò ρm è irriducibile.
Il peso del vettore massimale è:
ρm (H)(xm
1 ) = (t1 x1
∂
∂
∂
m
m
+ t2 x2
+ t3 x3
)(xm
1 ) = mt1 x1 = mL1 (H) x1 ,
∂x1
∂x2
∂x3
quindi il peso massimale è mL1 . Dato che λ1 = L1 , questo mostra che
V (mλ1 ) ∼
= C[x1 , x2 , x3 ]m = S m V,
detto l’m-esimo prodotto simmetrico della rappresentazione standard V . Si verifica che ogni
monomio è un vettore peso:
ρm (H)(xa11 xa22 xa33 ) = (a1 L1 + a2 L2 + a3 L3 )(H)xa11 xa22 xa33 .
P
I pesi sono quindi della forma a1 L1 + a2 L2 + a3 L3 con ai ≥ 0 e
ai = m. Questi pesi sono
distinti tra di loro, perciò ogni spazio peso ha dimensione uno cioè ogni peso ha moltiplicità
uno.
Nel diagramma qui sotto sono indicati i pesi e i monomi di S 3 V = C[x, y, z]3 . Il diagramma
dei vettori peso di S m V è un triangolo con vertici mL1 , mL2 e mL3 , ogni peso nell’interno del
6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3)
119
triangolo (inclusi quelli sul bordo) è un peso di S m V e ha molteplicità uno.
3L2
L1 + 2L2
t
y
t
3
xy
2L1 + L2
3L1
2
x3
t
2
2L2 + L3
xy
L1 + L2 + L3
t
xyz
t
y2z
L2 + 2L3
L1 + 2L2
t
x2 z
L1 + 2L3
t
yz
t
t
2
xz 2
3L3
t
z3
6.5.2 Il duale del prodotto simmetrico. Si ricordi che l’azione di A ∈ GL(n, C) sullo
spazio duale è data dalla matrice t A−1 (vedi 1.1.12). Per l’algebra di Lie questo implica (si usi
un cammino γ(t) con γ(0) = I e γ 0 (0) = X) che l’azione di X ∈ g sullo spazio duale è data
da −t X. In particolare, se V è una rappresentazione di g con pesi λ1 , . . . , λr , i pesi di V ∗ sono
−λ1 , . . . , −λr .
m
Poiché
a1 L1 + a2 L2 + a3 L3 con ai ∈
P i pesi della rappresentazione S V sono della forma
m
∗
Z≥0 e
ai = m, i pesi della rappresentazione duale (S V ) = S m (V ∗ ) sono della forma
−(a1 L1 + a2 L2 + a3 L3 ). In particolare, −mL3 = m(L1 + L2 ) è un peso dominante di questa
rappresentazione. Poiché per α ∈ R+ , m(L1 + L2 + Ln ) + α non è un peso, m(L1 + L2 ) è un
peso massimale di S m (V ∗ ). Visto che S m V è irriducibile, anche il suo duale è irriducible (un
sottospazio invariante W ⊂ S m V ∗ definisce un sottospazio W ⊥ = {x ∈ S n V : w(x) = 0 ∀w ∈
S m V ∗ } che è anch’esso invariante). Quindi
S m V ∗ = V (mλ2 )
dove λ2 = L1 + L2 = −L3 .
6.5.3 I pesi del prodotto tensoriale di S m V e S n V ∗ . Sia λ = mλ1 + nλ2 un
peso dominante di sl(3), cioè m, n ∈ Z≥0 . La rappresentazione irriducibile V (λ) è una
sottorappresentazione di
V (λ) = V (mλ1 + nλ2 ) ,→ V (mλ1 ) ⊗ V (nλ2 ) = (S m V ) ⊗ (S n V ∗ ),
V = C3 .
6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3)
120
Per trovare la decomposizione di (S m V ) ⊗ (S n V ∗ ) in rappresentazioni irriducibili, determiniamo i pesi di questa rappresentazione e la loro molteplicità. Poi troviamo i pesi, con le loro
molteplicità, di ogni rappresentazione irriducibile V (λ) di sl(3), vedi 6.5.6.
Consideriamo prima un esempio, con m = m1 = 3, n = m2 = 2. Nel prossimo diagramma
sono riportati i pesi della rappresentazione (S 3 V ) ⊗ (S 2 V ∗ ). Si noti che i pesi sull’esagono H0 ,
che è il bordo del diagramma, sono somma di un peso di S 3 V e un peso di S 2 V ∗ in modo unico,
quindi la molteplicità di un peso in H0 è uno.
Nel triangolo interiore T , con vertici 3L1 − 2L1 = L1 , L2 , L3 , ogni peso è la somma di un
peso di S 3 VPe un peso di S 2 V ∗ in 6 modi diversi. Infatti, µ = Li + (b1 L1 + b2 L2 + b3 L3 ), con
bi ∈ Z≥0 e
bi = 2, è sempre un peso di S 3 V , e ρ = −(b1 L1 + b2 L2 + b3 L3 ) è un peso di S 2 V ∗ .
Quindi per ognuno dei sei pesi ρ di S 2 V ∗ esiste un peso µ di S 3 V tale che Li = µ + ρ.
Non è difficile vedere che un peso sull’esagono H1 , in mezzo tra H0 e T e indicato con le
linee tratteggiate, è la somma di un peso di S 3 V e un peso di S 2 V ∗ in 3 modi diversi. Per
esempio,
2L1 − L3 = 3L1 − (L1 + L3 ) = (2L1 + L2 ) − (L2 + L3 ) = (2L1 + L3 ) − 2L3 ,
si noti che si usano soltanto i 3 pesi di S 2 V ∗ nel triangolino formato dalle prime due righe.
3L2 − 2L3
−2L3
3L2
s
s
s
s
s
s
s
s
s
s
s
3L1
s
+
s
−2L1
s
s
s
s
3L2 − 2L1
s
=
s
s
s
s
s
s
s
s
L1
s
s
s 3L1 − 2L3
s
s
s
s
s
s3L1 − 2L2
s
−2L2
s
3L3
3L3 − 2L1
s
s
s
s
s
s
3L3 − 2L2
Si noti inoltre che ci sono 15 pesi su H0 , 9 su H1 e 3 in T con molteplicità 1, 3 e 6 rispettivamente,
e questo quadra con:
dim (S 3 V ) ⊗ (S 2 V ∗ ) = 10 · 6 = 60 = 15 + 27 + 18 = 15 · 1 + 9 · 3 + 3 · 6.
Nel caso m ≥ n il diagramma dei pesi di (S m V ) ⊗ (S n V ∗ ) è una unione di esagoni
H0 , H1 , . . . Hm−n e un triangolo pieno T con vertici (m − n)L1 , (m − n)L2 , (m − n)L1 .
La molteplicità di un peso in Hi è (i + 1)(i + 2)/2, per esempio se un peso λ ∈ Hi è sul
lato superiore dell’esagono, λ = µ + ρ con ρ nel triangolino superiore del diagramma dei pesi di
S n V ∗ formato dalle prime i + 1 righe e µ un peso opportuno di S m V . Poiché questo triangolino
ha (i + 1)(i + 2)/2 pesi, segue la molteplicità di λ.
6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3)
121
Se λ ∈ T , allora per ogni peso ρ di S n V ∗ c’è un peso µ di S n V tale che λ = µ + ρ, quindi
la molteplicità di un tale peso è dim S n V ∗ = (n + 1)(nP+ 2)/2. (Per vedere questo, si noti che
si può scrivere λ = c1 L1 + c2 L2 + c3 L3 con ci ∈ Z≥0 e i ci = m − n, come
P nel diagramma dei
m−n
pesi di S
V . Allora µ = λ + (b1 L1 + b2 L2 + b3 L3 ), con bi ∈ Z≥0 e
bi = n, è sempre un
peso di S m V . Poiché ρ = −(b1 L1 + b2 L2 + b3 L3 ) è un peso di S n V ∗ , si ha λ = µ + ρ per ogni
peso ρ di S n V ∗ .)
In conclusione, per un peso λ di (S m V ) ⊗ (S n V ∗ ) si ha:
(i + 1)(i + 2)/2
se
λ ∈ Hi ,
i = 0, 1, . . . n − 1,
m
n ∗
dim (S V ⊗ S V )λ =
(n + 1)(n + 2)/2
se
λ ∈ T.
6.5.4 La decomposizione di (S m V ) ⊗ (S n V ∗ ). Un peso massimale di (S m V ) ⊗ (S n V ∗ ) è
λ = mL1 − nL3 = (m + n)L1 + nL2 = mλ1 + nλ2
perché λ + α non è un peso per α ∈ R+ (questi pesi sono o a destra (se α = α1 ) o sopra
(se α = α2 , α1 + α2 ) a λ nel diagramma dei pesi e non ci sono tali pesi). Poiché λ ∈ H0 ha
molteplicità uno, lo spazio peso ((S m V ) ⊗ (S n V ∗ ))λ ha dimensione uno. Perciò la sottorappresentazione generata da un vettore non-zero vλ in questo spazio genera una sottorappresentazione irriducibile di (S m V ) ⊗ (S n V ∗ ) isomorfa a Vλ . Per la teoria generale, esiste allora una
sottorappresentazione W1 di (S m V ) ⊗ (S n V ∗ ) tale che
(S m V ) ⊗ (S n V ∗ ) = V (mλ1 + nλ2 ) ⊕ W 0 .
Per trovare la decomposizione di W 0 , dobbiamo trovare gli altri pesi massimali di (S m V ) ⊗
(S V ∗ ). Mostriamo che i soli pesi massimali in W1 sono
n
µi = (m−i)L1 −(n−i)L3 = (m+n−2i)L1 +(n−i)L2 = (m−i)λ1 +(n−i)λ2
(i = 1, . . . , n),
e che ogni (W 0 )µi contiene un unico, a meno di moltiplicazione per uno scalare, vettore
massimale. Da qui segue che, per m ≥ n,
(S m V ) ⊗ (S n V ∗ ) = V (mλ1 + nλ2 ) ⊕ V ((m − 1)λ1 + (n − 1)λ2 ) ⊕ . . . ⊕ V ((m − n)λ1 ).
6.5.5 Dimostrazione di 6.5.4. Per mostrare l’affermazione sui pesi massimali, consideriamo
prima un peso µ ∈ Hi , µ 6= µi . Usando il gruppo di Weyl, possiamo assumere che µ = µi − kα1
oppure µ = µi − kα2 con k > 0.
µi − 2α1s
µ
si
µi −s α1
µi − α 2
s
µi −s α1
s
s
µi − 2α2
s
µi − 2α1s
µ
si
µi − (α1 + α2 )
µi − 2(α1 + α2 )
6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3)
122
Consideriamo la copia di sl(2) generata da Hα1 , X±α1 . Sia W1 la sottorappresentazione di
questo sl(2) generato dai vettori in Vµi . Si ha
µi (Hα1 ) = ((m − i)L1 − (n − i)L3 )(diag(1, −1, 0)) = m − i,
quindi Vµi = (W1 )m−i , è uno spazio peso di questo sl(2). Dalla teoria delle rappresentazioni di
sl(2) segue che
ρ(X−α1 )k : (W1 )m−i → (W1 )m−i−2k
è iniettiva, per k = 0, 1, . . . , m − i, con inversa ρ(Xα1 )k . Si noti che ρ(X−α1 )k Vµi = Vµi −kα1 ,
quindi (W1 )m−i−2k ⊂ Vµi −kα1 . Per k = 0, 1, . . . , m − i, i pesi µi − kα1 sono esattamente i pesi
(m − i − k)L1 + kL2 − (n − i)L3 sul lato superiore dell’esagono Hi . Poiché la molteplicità di
un peso è costante sull’esagono, si ha dim Vµi = dim Vµi −kα1 , e quindi ρ(X−α1 )k : Vµi → Vµi −kα1
è un isomorfismo con inversa ρ(Xα1 )k . Perciò ρ(Xα1 ) : Vµi −kα1 → Vµi −(k−1)α1 è un isomorfismo
per k = 0, 1, . . . , m − i, k 6= 0, in particolare, non ci sono vettori massimali in Vµi −kα1 per k 6= 0.
In modo simile, usando la copia di sl(2) generata da Hα2 , X±α2 si vede che non ci sono
vettori massimali in Vµi −lα2 con µi − lα2 ∈ Hi e l 6= 0. Poi, ancora in modo simile, si mostra
che non ci sono vettori massimali in Vµ per µ in un triangolo, tranne al più in Vµm−n con
µm−n = (m − n)L1 .
Adesso mostriamo che c’è un unico vettore massimale, a meno di moltiplicazione per uno
scalare, in ogni Vµi . Considerando il triangolo formato dalle prime i righe del diagramma dei
pesi di S n V ∗ , si vede che se µi = λ + ρ con λ, ρ pesi di S m V , S n V ∗ rispettivamente, allora
µi = µ + ρ,
con cj ∈ Z≥0
µ = (m − i)L1 + (c1 L1 + c2 L2 + c3 L3 )
ρ = −(n − i)L3 − (c1 L1 + c2 L2 + c3 L3 ),
P
e
cj = i. Il vettore peso corrispondente a questa decomposizione è
1 ,c2 ,n−i+c3 )
vc := e(m−i+c1 ,c2 ,c3 ) ⊗ e(c
,
∗
dove
ed = e(d1 ,d2 ,d3 ) := (e1 )d1 (e2 )d2 (e3 )d3 ,
ed∗ = e∗(d1 ,d2 ,d3 ) := (e∗1 )d1 (e∗2 )d2 (e∗3 )d3 ,
dove e∗1 , e∗2 , e∗3 sono i vettori della base duale. Definiamo ed = 0, ed∗ = 0 se una delle di è negativa.
Si noti che ed corrisponde al monomio xd1 y d2 z d3 .
Adesso calcoliamo l’azione di Xα1 = E1,2 su vc , si ricordi che E1,2 e1 = 0, E1,2 e2 = e1 , E1,2 e3 =
0, e nella rappresentazione duale l’azione è data da −t E1,2 = −E2,1 quindi e∗1 7→ −e∗2 e e∗2 , e∗3 7→ 0.
Perciò si ha:
(m−i+c +1,c −1,c )
1
2
3
1 ,c2 ,n−i+c3 )
ρ(Xα1 )vc = c2 e1
⊗ e(c
− c1 e(m−i+c1 −1,c2 +1,c3 ) ⊗ (e∗ )(c1 −1,c2 +1,n−i+c3 )
∗
P
Sia v = c xc vc ∈ Vµi , con xc ∈ C, allora
X
v=
xc vc ∈ ker ρ(Xα1 ) =⇒ c2 cv = (c1 + 1)c(c1 +1,c2 −1,c3 ) .
c
6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3)
In modo simile, si trova
X
v=
xc vc ∈ ker ρ(Xα2 )
=⇒
123
c3 xc = (c2 + 1)x(c1 ,c2 +1,c3 −1) .
c
L’ultima formula implica che se c(0,0,i) = 1, allora c(0,1,i−1) = i, poi c(0,2,i−2) = i(i − 1)/2 ecc. Si
usa poi la prima formula per determinare
c(p,q,r) per ogni p, q, r ∈ Z≥0 , p + q + r = i. Il risultato
P
è che v è un multiplo del vettore c (c1 !c2 !c3 !)−1 vc . Quindi c’è un unico vettore massimale in
(S m V ⊗ S n V ∗ )µi .
6.5.6 I pesi di V (mλ1 + nλ2 ). Adesso siamo in grado di determinare i pesi della rappresentazione irriducibile V (mλ1 + nλ2 ) e le loro molteplicità. Per il caso n = 0, V (mλ1 ) = S m V
si veda 6.5.1. Nel caso n = 1, si noti che
(S m V ) ⊗ V ∗ = V (mλ1 + λ2 ) ⊕ S m V.
Il diagramma dei pesi di (S m V ) ⊗ V ∗ è un esagono H0 con vertici mL1 − L3 = (m + 1)L1 + L2
e le sue orbite attraverso il gruppo di Weyl e il triangolo T (bordo e interno) con vertici mLi ,
i = 1, 2, 3. I pesi su H0 e T hanno molteplicità 1 e 3 rispettivamente, vedi 6.5.3. I pesi di S m V
sono i punti del triangolo, ognuno ha molteplicità uno. Quindi i pesi di V (mλ1 + λ2 ) sono i
pesi in H0 , con molteplicità 1 − 0 = 1 e i pesi di T , con molteplicità 3 − 1 = 2.
Per m ≥ n generale, si noti che
(S m V ) ⊗ (S n V ∗ ) = V (mλ1 + nλ2 ) ⊕ V ((m − 1)λ1 + (n − 1)λ2 ) ⊕ . . . ⊕ V ((m − n)λ1 )
= V (mλ1 + nλ2 ) ⊕ (S m−1 V ) ⊗ (S n−1 V ∗ ).
Quindi un peso λ di V (mλ1 + nλ2 ) ha molteplicità
dim (V (mλ1 + nλ2 ))λ = dim((S m V ) ⊗ (S n V ∗ ))λ − dim((S m−1 V ) ⊗ (S n−1 V ∗ ))λ .
Usando il risultato di 6.5.3 e (i + 1)(i + 2)/2 − i(i + 1)/2 = i + 1, troviamo:
i+1
se
λ ∈ Hi ,
i = 0, . . . , n − 1,
dim (V (mλ1 + nλ2 ))λ =
n+1
se
λ ∈ T.
6.5.7 Esempio: S m V ⊗V . Determiniamo la decomposizione della rappresentazione S m V ⊗V
di sl(3), dove V P
= C3 è la rappresentazione standard. I pesi di S m V sono gli a1 L1 + a2 L2 + a3 L3
con ai ∈ Z≥0 e
ai = m, in particolare, i pesi di V sono L1 , L2 , L3 , vedi 6.5.1. Ogni peso ha
molteplicità uno.
P
I pesi di S m V ⊗V si scrivono allora tutti come c1 L1 +c2 L2 +c3 L3 con ci ∈ Z≥0 e ci = m+1.
Si noti che questi sono anche i pesi di S m+1 V e il diagramma dei pesi è un triangolo con vertici
(m + 1)Li . La molteplicità dei pesi (m + 1)Li , i = 1, 2, 3, è uno, perché l’unico modo di ottenere
(m + 1)Li come somma di pesi di S m V e V è (m + 1)Li = mLi + Li . Se esattamente uno delle
cj = 0, diciamo c3 = 0, allora ci sono due modi di ottenere c1 L1 + c2 L2 come somma:
c1 L1 + c2 L2 = (c1 − 1)L1 + c2 L2 = c1 L1 + (c2 − 1)L2
6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3)
124
quindi la molteplicità di ogni peso sul bordo del triangolo, che non sia un vertice, è due. Poi
ogni peso nell’interno del triangolo ha ci ≥ 1 per ogni i e quindi ha molteplicità tre:
c1 L1 + c2 L2 + c3 L3 = ((c1 − 1)L1 + c2 L2 + c3 L3 ) + L1 = . . . = (c1 L1 + c2 L2 + (c3 − 1)L3 ) + L3 .
Nel diagramma qui sotto i pesi sull’esagono indicato hanno molteplicità due, il vertice (m+1)L1
del diagramma ha molteplicità uno e i pesi nell’interno dell’esagono hanno molteplicità 3.
(m − 1)L1 + 2L2
s
mL1 s+ L2
s
s
s
mLs1
s
(m + 1)L1
s
mL1 + L3
mL1 + 2L3
Il peso (m + 1)L1 è massimale perché (m + 1)L1 + (Li − Lj ) non è un peso se i > j. La sua
molteplicità è uno, quindi V ((m + 1)L1 ) = S m+1 V compare con molteplicità uno in S m V ⊗ V .
Togliendo i pesi di S m+1 V , si vede che rimane un diagramma esagonale, con vertici
mL1 + L2 = (m − 1)λ1 + λ2
e la sua immagine per il gruppo di Weyl (che permuta gli Li ). I pesi sul bordo dell’esagono hanno
molteplicità 2 − 1 = 1, i pesi nell’interno, che è un triangolo con vertici mL1 , mL2 , mL3 hanno
molteplicità 3 − 1 = 2. Questi sono esattamente i pesi, con molteplicità, della rappresentazione
irriducibile V ((m − 1)λ1 + λ2 ). Quindi si ha:
S m V ⊗ V = S m+1 V ⊕ V ((m − 1)λ1 + λ2 ).
Si noti che il nucleo dell’applicazione suriettiva
S m V ⊗ V −→ S m+1 V,
F ⊗ G 7−→ F G
è allora V ((m − 1)λ1 + λ2 ).
6.5.8 Esempio: V ⊗ V ⊗ V . I pesi della rappresentazione standard V = C3 di sl(3)
sono L1 , L2 , L3 ; siano e1 , e2 , e3 i vettori peso: Hei = Li (H)ei . Allora la rappresentazione
W := V ⊗ V ⊗ V , di dimensione 33 = 27, ha una base di vettori peso data dalle ei ⊗ ej ⊗ ek (con
peso Li + Lj + Lk ). In particolare, i pesi di W sono aL1 + bL2 + cL3 = (a − c)L1 + (b − c)L2 ,
con a + b + c = 3 e a, b, c ≥ 0.
Per decomporre W in rappresentazioni irriducibili, determiniamo le molteplicità dei pesi
dominanti, cioè dei pesi aL1 + bL2 + cL3 = (a − c)L1 + (b − c)L2 con a − c ≥ b − c ≥ 0, cioè
6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3)
125
a ≥ b ≥ c (vedi 8.3.1). Quindi questi pesi sono 3L1 , 2L1 + L2 , L1 + L2 + L3 . Segue già che se Vλ
è una componente irriducibile di W , allora λ è uno di questi tre pesi. La molteplicità dei pesi
di W è:
peso dominante molteplicità
3L1 = 3λ1
1
2L1 + L2 = λ1 + λ2
3 e1 ⊗ e1 ⊗ e2 , e1 ⊗ e2 ⊗ e1 ,
L1 + L2 + L3 = 0
6 e1 ⊗ e2 ⊗ e3 , e1 ⊗ e3 ⊗ e2 ,
e2 ⊗ e3 ⊗ e1 , e3 ⊗ e1 ⊗ e2 ,
vettori peso
e1 ⊗ e1 ⊗ e1
e2 ⊗ e1 ⊗ e1
e2 ⊗ e1 ⊗ e3
e3 ⊗ e2 ⊗ e1
Poiché 3L1 è un peso massimale (3L1 + α non è un peso di W per nessuna radice α > 0, cioè
per α = L1 − L2 , L1 − L3 , L2 − L3 ), ed ha molteplicità uno. Quindi V (3λ1 ) è una componente
irriducibile di W e compare una volta sola in W . Il diagramma dei pesi di V (3λ1 ) è un triangolo
(infatti V (3λ1 ) ∼
= Sym3 (V ), vedi 6.5.1) e quindi ogni peso di V (3λ1 ) ha molteplicità uno (vedi
6.5.6). Perciò W = V (3λ1 ) ⊕ W 0 e i pesi dominanti di W 0 sono
2L1 + L2 = λ1 + λ2
L1 + L2 + L3 =
0
con molteplicità 3 − 1 = 2,
,,
,,
6 − 1 = 5.
Si noti che 2L1 +L2 è un peso massimale di W 0 e ha molteplicità due, quindi W 0 = V (λ1 + λ2 )2 ⊕
W 00 . Il peso L1 + L2 + L3 di V (λ1 + λ2 ) ha molteplicità 2 (il diagramma dei pesi di V (λ1 + λ2 )
è un esagono H0 e un triangolo T ridotto ad un solo punto 0 = L1 + L2 + L3 , poi si usi 6.5.6).
Quindi W 00 ha un unico peso dominante, L1 + L2 + L3 = 0, con molteplicità 5 − 2 · 2 = 1, perciò
W 00 = V (0) ∼
= C, è la rappresentazione banale di sl(3). In conclusione:
V ⊗ V ⊗ V = V (3λ1 ) ⊕ V (λ1 + λ2 )2 ⊕ V (0).
Si verifica anche facilmente che dim V (3λ1 ) = 10, dim V (λ1 + λ2 ) = 8 e che 27 = 10 + 2 · 8 + 1,
come dovrebbe essere. Questa decomposizione si ottiene anche con i funtori di Schur (si veda
8.3.2 e Teorema 3.2.6):
2
V ⊗ V ⊗ V = T 3 V = V(3) ⊕ V(2,1)
⊕ V(1,1,1) .
6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3)
L1 + 2L2
3L2
1j
2L1 + L2
3j
c
2L2 + L3
3L1
3j
1j
c
L2
c
3j
c
L2 + 2L3
c
cL1
2L1 + L3
6j
c
126
L1 + L2 + L3
3j
c
c
c
L3
3j
3j
L1 + 2L3
c
1j
3L3
6.5.9 Le algebre di Lie su(n) e sl(n)C . Una rappresentazione ρ : sl(n)C → End(V ) dell’algebra di Lie complessa sl(n)C su uno spazio vettoriale complesso V definisce, per restrizione,
una rappresentazione dell’algebra di Lie su(n) ⊂ sl(n)C . Si può mostrare che in questo modo
si ottiene una biiezione tra le rappresentazioni irriducibile di sl(n)C (di dimensione finita) e le
rappresentazioni di su(n). Data una rappresentazione σ : su(n) → End(V ), in particolare σ è
R-lineare, la rappresentazione di sl(n)C = su(n) ⊗R C corrispondente è l’estensione C-lineare
σC di σ: σC (X ⊗ z) := zσ(X) per X ∈ su(n) e z ∈ C.
L’algebra di Lie su(n) è lo spazio vettoriale reale definito da
su(n) = {X ∈ Mn (C) : t X + X = 0,
tr(X) = 0 }
(si noti che X ∈ su(n) e X 6= 0 allora iX 6∈ su(n)).
P In particolare, una matrice diagonale
H = diag(t1 , . . . , tn ) ∈ su(n) se e solo se ti = −ti e
ti = 0. In più, se X ∈ su(n) allora anche
X ∈ su(n).
Data una rappresentazione ρ di sl(n)C , il suo duale ρ∗ è dato da ρ∗ : X 7→ −t ρ(X) (perché
per il gruppo di Lie la rappresentazione duale è data da A 7→ t A−1 (si veda 1.1.12), quindi si
prenda la derivata in A = I). Quindi se λ è un peso con molteplicità k per ρ, allora −λ è un
peso con molteplicità k per ρ∗ . Data una rappresentazione σ : su(n) → End(V ) si definisce
una rappresentazione dell’algebra di Lie reale su(n), detta la sua coniugata complessa, con
σ : su(n) −→ End(V ),
X 7−→ σ(X).
6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3)
127
Poiché X = −t X per X ∈ su(n), se λ è un peso con molteplicità k per σ, allora −λ è un peso
con molteplicità k per σ. In particolare, se σ è la restrizione della rappresentazione ρ di sl(n)
a su(n), allora σ è la restrizione della rappresentazione duale ρ∗ .
Di solito i fisici indicano le rappresentazioni di su(n) (e di tutti le altre algebre di Lie)
con la loro dimensione, eventualmente con qualche indice per distinguere rappresentazioni non
equivalenti con la stessa dimensione. Per esempio, qui sotto diamo un dizionario che dà il
legame tra le rappresentazioni di sl(3)C e di su(3):
V0 ←→ 1,
VL1 ←→ 3,
VL1 +L2 = VL∗1 ←→ 3,
V2L1 +L2 ←→ 8,
V3L1 ←→ 10.
I prodotti tensoriali sono tipicamente indicati con un × invece di un ⊗, e analogamente
invece di ⊕ scrivono +, per esempio:
VL1 ⊗ VL1 +L2 = V2L1 +L2 ⊕ V0
2
VL1 ⊗ VL1 ⊗ VL1 = V3L1 ⊕ V2L
⊕ V0
1 +L2
6.6
←→
←→
3 × 3 = 8 + 1,
3 × 3 × 3 = 10 + 8 + 8 + 1.
La forma di Killing per sl(3).
6.6.1 In questa sezione definiamo la forma di Killing per l’algebra di Lie sl(3) e mostriamo
che dalla forma di Killing si ottiene in modo naturale il prodotto scalare su h∗ introdotto in
6.1.8, a meno di uno scalare.
6.6.2 Una forma bilineare su End(V ). Sia V uno spazio vettoriale complesso. Lo spazio
vettoriale complesso End(V ) ha una forma bilineare ‘naturale’ data da BV (X, Y ) := Tr(XY )
dove Tr(Z) è la traccia dell’endomorfismo Z di V . Scegliendo una base di V , cioè un isomorfismo
V ∼
= Cn , si può esplicitare tale forma bilineare e si ottiene:
Bn : Mn (C) × Mn (C) −→ C,
n X
n
X
Bn (X, Y ) = Tr(XY ) =
(
Xlk Ykl ),
l=1 k=1
P
dove Tr(Z) = l Zll è la traccia della matrice Z. La formula per Bn mostra che Tr(XY ) =
Tr(Y X), quindi B è simmetrico: B(X, Y ) = B(Y, X) per ogni X, Y ∈ End(V ). Poiché la
traccia è lineare, Tr(λX + µY ) = λTr(X) + µTr(Y ), si ha T r([X, Y ]) = T r(XY − Y X) = 0.
Un’altra proprietà importante della forma di Killing è:
B([X, Y ], Z) = B(X, [Y, Z])
(∀X, Y, Z ∈ Mn (C)),
cioè, che vale Tr((XY − Y X)Z) = Tr(X(Y Z − ZY )). Per mostrarlo si consideri la differenza
tra i due lati e si usi:
Tr((XY − Y X)Z − X(Y Z − ZY )) = Tr(XZY − Y XZ) = Tr([XZ, Y ]) = 0,
come appena visto.
6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3)
128
La rappresentazione aggiunta di un’algebra di Lie semplice g dà una inclusione ad : g ,→
End(g) ∼
= Mn (C) dove n = dim g. Quindi otteniamo una forma bilineare su g, detta forma di
Killing, definita da
B : g × g −→ C,
B(X, Y ) := Bg (ad(X), ad(Y ))
e, come appena visto, questa forma bilineare soddisfa B([X, Y ], Z) = B(X, [Y, Z]).
Una proprietà importante della forma di Killing è che è nondegenere, cioè, per ogni X ∈ g,
X 6= 0, esiste uno Z ∈ g tale che B(X, Z) 6= 0.
6.6.3 La forma di Killing su h. L’algebra di Cartan h ha dimensione 2 e ha C-base H12 =
diag(1, −1, 0), H23 = diag(0, 1, −1). Mostriamo che la restrizione di B ad h è non-degenere con
un calcolo esplicito. Dall’ equazione 2 di 6.1.2 si ha:
ad(H12 ) = diag(0, 0, 2, −1, −1, −2, −1, −1)
ad(H23 ) = diag(0, 0, −1, 2, 1, 1, −2, −1)
quindi:
ad(H12 )ad(H12 ) = diag(0, 0, 4, 1, 1, 4, 1, 1)
ad(H23 )ad(H23 ) = diag(0, 0, 1, 4, 1, 1, 4, 1)
ad(H12 )ad(H23 ) = diag(0, 0, −2, −2, 1, −2, −2, 1)
T r(ad(H12 )ad(H12 )) = 12,
T r(ad(H23 )ad(H23 )) = 12,
T r(ad(H12 )ad(H23 )) = −6,
e, per simmetria di B, allora anche B(H23 , H12 ) = −6. Segue che
2 −1
y1
B(x1 H12 +x2 H23 , y1 H12 +y2 H23 ) = 6(x1 x2 )
= 6(2x1 y1 −x1 y2 −x2 y1 +2x2 y2 ).
−1 2
y2
Poiché la matrice (2−1−12 ) ha determinante 6= 0, la forma di Killing ristretta ad h è non-degenere.
Questo implica che B definisce una dualità, sempre indicata con B, cioè un isomorfismo:
∼
=
B : h∗ −→ h,
α 7−→ Tα
se α(H) = B(Tα , H)
per ogni H ∈ h, cioè le forme lineari α e B(Tα , −) sono la stessa su h. Tramite questo
isomorfismo si definisce un prodotto scalare su h∗R nel modo seguente:
(α, β)B := (Tα , Tβ )
(α, β ∈ h∗R ).
Per calcolare il prodotto scalare in modo esplicito determiniamo Ti := Tαi ∈ h per i = 1, 2.
Si noti che α1 (H) = t1 − t2 se H = diag(t1 , t2 , t3 ) ∈ h. D’altre parte, T1 = x1 H12 + x2 H23 per
certe xi ∈ C e, poiché t1 + t2 + t3 = 0, H = diag(t1 , t2 , t3 ) = t1 H12 + (t1 + t2 )H23 , quindi
B(Tα , H) = B(x1 H12 + x2 H23 , t1 H12 + (t1 + t2 )H23 )
= 6 2x1 t1 − x1 (t1 + t2 ) − x2 t1 + 2x2 (t1 + t2 )
= 6(x1 + x2 )t1 + 6(−x1 + 2x2 )t2
6 LE RAPPRESENTAZIONI DELL’ALGEBRA DI LIE SL(3)
129
perciò si ha: α1 (H) = B(T1 , H) per ogni H ∈ h se e solo se 6(x1 + x2 ) = 1, 6(−x1 + 2x2 ) = −1;
quindi x1 = 1/6, x2 = 0 e perciò T1 = H12 /6. In modo simile si ha T2 = H23 /6. Allora
(α1 , α2 )B = (H12 /6, H23 /6) = −1/6,
(α1 , α1 )B = (α2 , α2 )B = 2/6,
e questo è, a meno di una fattore 1/6, il prodotto scalare (−, −) su h∗R . Si noti che
Hα1 := H12 =
2
T1 ,
B(T1 , T1 )
(si veda 7.1.11 per il caso generale).
Hα2 := H23 =
2
T2
B(T2 , T2 )
7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI
7
130
La classificazione delle algebre di Lie semisemplici
Testi consigliati: [FH], [Ha], [Hu].
7.1
L’algebra di Cartan e i pesi.
7.1.1 Introduzione. In questo capitolo daremo la classificazione delle algebre di Lie complesse
semplici.
Il risultato è che ci sono quattro famiglie, parametrizzate da interi positivi, di algebre di Lie
complesse semplici g e poi ci sono 5 casi ‘eccezionali’, si veda 7.3.3. La classificazione sfrutta
l’azione di una sottoalgebra ‘di Cartan’ h di g nella rappresentazione aggiunta su g. Risulta
che nello spazio vettoriale duale h∗ è definito un sottospazio reale h∗R generato da certi vettori,
chiamati radici di g. L’insieme delle radici di g è un sistema di radici, questo concetto è definito
in 7.2.2. Si mostra che esiste una biiezione tra sistemi di radici ‘irriducibili’ e algebre di Lie
complesse semplici. Poi si dà la classificazione dei sistemi di radici.
7.1.2 L’algebra di Cartan. Sia g un’algebra di Lie complessa semplice. Una sottoalgebra di
Lie h ⊂ g è detta un’algebra di Cartan se h è abeliana, se ogni elemento di h è diagonalizzabile
(in una e quindi in ogni rappresentazione di g, vedi 5.4.5) e se h è massimale rispetto a tale
proprietà (vedi [FH], Definition D.2).
Si può mostrare che se h, h0 sono due algebre di Cartan di g, allora esiste un automorfismo
g → g0 che manda h in h0 , quindi h è essenzialmente unica (vedi [FH] D.3).
Il rango l di g è la dimensione di un’algebra di Cartan di g:
l = rango(g) := dimC h.
7.1.3 Pesi delle rappresentazioni. Sia h un’algebra di Cartan di g e sia
ρ : g −→ End(V )
una rappresentazione di g.
Poiché ρ(H) per ogni H ∈ h è diagonalizzabile, si può decomporre V in autospazi per ρ(H).
Se H, H 0 ∈ h e Vλ ⊂ V è l’autospazio di ρ(H) con autovalore λ, allora ρ(H 0 )Vλ ⊂ Vλ perché:
ρ(H)(ρ(H 0 )X) = ρ(H 0 )(ρ(H)X) = ρ(H 0 )(λX) = λ(ρ(H 0 )X),
(X ∈ Vλ ).
Quindi Vλ ha una decomposizione in autospazi per H 0 . Procedendo in questo modo, usando
una base H1 , . . . , Hl di h, si trova una decomposizione
P V = ⊕Vλ1 ,...,λl tale
Pche Hi v = λi v per
v ∈ Vλ1 ,...,λl . Poiché ogni H ∈ h si scrive come H =
xi Hi , si ha Hv = ( λi xi )v. Quindi un
autospazio Vλ1 ,...,λl definisce una mappa lineare (un ‘peso’)
L : h −→ C,
H=
l
X
i=1
xi Hi 7−→
l
X
i=1
λ i xi ,
tale che ρ(H)v = L(H)v
7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI
131
per ogni v ∈ Vλ1 ,...,λl . Si scrive VL := Vλ1 ,...,λl e VL è detto uno spazio peso (invece di autospazio per tutti gli elementi di h) con peso L ∈ h∗ , lo spazio duale di h. In particolare, ogni
rappresentazione V di g ha una decomposizione in spazi peso:
V = ⊕L∈h∗ VL ,
ρ(H)v = L(H)v
(∀v ∈ VL ).
Poiché dim V è finita, VL = 0 tranne che per un numero finito di L ∈ h∗ , questi L sono detti i
pesi della rappresentazione ρ e la moltiplicità di un peso L è la dimensione di VL .
7.1.4 La rappresentazione aggiunta. La rappresentazione aggiunta di un’algebra di Lie g
è (vedi 5.2.5):
ad : g −→ End(g),
X−
7 → (ad(X) : Y 7→ [X, Y ]).
Poiché h è abeliana, si ha [H, H 0 ] = 0 · H 0 = 0 per ogni H, H 0 ∈ h e quindi h è contenuta nell’autospazio g0 con peso 0. Si può mostrare che ogni elemento in questo autospazio è
diagonalizzabile e quindi sta in h, perciò g0 = h.
Otteniamo allora la decomposizione in autospazi (spazi peso) per l’algebra di Cartan:
g = h ⊕ (⊕α∈h∗ −{0} gα ),
dove il sottospazio gα è definito da:
gα := {X ∈ g : [H, X] = α(H)X }.
7.1.5 Le radici di un’algebra di Lie semisemplice. Un elemento α ∈ h∗ è detto una
radice (inglese: root) di g se α 6= 0 e gα 6= 0. Poiché dim g è finita, ci sono soltanto un numero
finito di radici. L’insieme delle radici è indicato con R.
Lo spazio radice (inglese root space) è l’autospazio gα di g, dove α ∈ R.
7.1.6 Le radici di sl(n). L’algebra di Lie sl(n) del gruppo di Lie SL(n) è data da:
sl(n) = { X ∈ Mn (C) : T r(X) := X11 + . . . + Xnn = 0 }
(vedi 5.1.7), in particolare, dim sl(n) = n2 − 1. Sia h il sottospazio di sl(n) delle matrici
diagonali:
h = {H ∈ sl(n) : Hij = 0 se i 6= j } = {diag(t1 , . . . , tn ) ∈ Mn (C) : t1 + . . . + tn = 0 }.
Poiché H1 H2 = H2 H1 se H1 , H2 sono matrici diagonali, si ha [H1 , H2 ] = 0 per ogni H1 , H2 ∈ h
e quindi h è abeliana e diagonalizzabile (perché già diagonalizzata!).
Si noti che se H = diag(t1 , . . . , tn ) e X = (Xij ) ∈ Mn (C) allora (HX)ij = ti Xij , cioè la
i-esima riga di HX è quella di X, moltiplicata per ti . Similmente, (XH)ij = tj Xij , cioè la
j-esima colonna di (HX) è quella di X, moltiplicata per tj . Perciò, [H, X] è la matrice con
coefficienti dati da
[H, X]ij = (ti − tj )Xij ,
H = diag(t1 , . . . , tn ).
7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI
132
A questo punto è facile trovare gli spazi radice. Sia Ei,j la matrice ‘elementare’:
Ei,j ∈ Mn (C),
(Ei,j )kl = δik δjl
dove δab è il delta di Kronecker: δab = 1 se a = b e zero altrimenti. In particolare, tutti i
coefficienti di Ei,j sono zero tranne (Ei,j )ij = 1. Allora
[H, Ei,j ] = (ti − tj )Ei,j .
Poiché gli Ei,j sono una base di Mn (C), l’insieme delle radici di sl(n) è:
R = {αij := Li − Lj ∈ h∗ : 1 ≤ i, j ≤ n, i 6= j },
dove
Li : h −→ C,
Poiché
P
Li (diag(t1 , . . . , tn )) = ti .
ti = 0 gli Li ∈ h∗ non sono indipendenti in h∗ ma si ha:
L1 + . . . + Ln = 0 ∈ h∗ .
Una base di gαij è data dalla matrice ‘elementare’ Ei,j :
gαij = CEi,j .
Si noti che ogni spazio radice è proprio unidimensionale.
Per essere concreti, nel caso n = 3 si ha:


 

t1 0 0
x11 x12 x13
t1 x11 t1 x12 t1 x13
HX =  0 t2 0   x21 x22 x23  =  t2 x21 t2 x22 t2 x23  ,
0 0 t3
x31 x32 x33
t3 x31 t3 x32 t3 x33
e poi:
 

t1 x11 t1 x12 t1 x13
t1 x11 t2 x12 t3 x13
[H, X] = HX − XH =  t2 x21 t2 x22 t2 x23  −  t1 x21 t2 x22 t3 x23 
t3 x31 t3 x32 t3 x33
t1 x31 t2 x32 t3 x33



0
(t1 − t2 )x12 (t1 − t3 )x13
0
(t2 − t3 )x23  .
=  (t2 − t1 )x21
(t3 − t1 )x31 (t3 − t2 )x32
0
Quindi gli autovalori non nulli di ad(H) sono: ±(t1 − t2 ), ±(t1 − t3 ), ±(t2 − t3 ). Perciò sl(3) ha
sei radici: R = {±(L1 − L2 ), ±(L1 − L3 ), ±(L2 − L3 )}.
7.1.7 Commutatori e radici. L’insieme delle radici R ⊂ h∗ determina l’algebra di Lie
semplice g. Un primo passo per capire come mai ciò capita è la proprietà:
[gα , gβ ] ⊆ gα+β
(α, β ∈ R),
7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI
133
in particolare [gα , gβ ] = 0 se α + β 6∈ R. La dimostrazione è facile, sia Xα ∈ gα , Xβ ∈ gβ , allora
[H, [Xα , Xβ ]] = [[H, Xα ], Xβ ] + [Xα , [H, Xβ ]]
= α(H)[Xα , Xβ ] + β(H)[Xα , Xβ ]
= (α + β)(H)[Xα , Xβ ]
e perciò [Xα , Xβ ] ∈ gα+β , dove abbiamo usato l’identità di Jacobi come in 5.2.5. Si può mostrare
che [gα , gβ ] = gα+β se α + β ∈ R.
7.1.8 La forma di Killing. Sia V uno spazio vettoriale complesso. Lo spazio vettoriale
complesso End(V ) ha una forma bilineare ‘naturale’ data da BV (X, Y ) := Tr(XY ) dove Tr(Z)
è la traccia dell’endomorfismo Z di V . Scegliendo una base di V , cioè un isomorfismo V ∼
= Cn ,
si può esplicitare tale forma bilineare e si ottiene:
Bn : Mn (C) × Mn (C) −→ C,
n X
n
X
Bn (X, Y ) = Tr(XY ) =
(
Xlk Ykl ),
l=1 k=1
P
dove Tr(Z) = l Zll è la traccia della matrice Z. La formula per Bn mostra che Tr(XY ) =
Tr(Y X), quindi B è simmetrico: B(X, Y ) = B(Y, X) per ogni X, Y ∈ End(V ). Poiché la
traccia è lineare, Tr(λX + µY ) = λTr(X) + µTr(Y ), si ha T r([X, Y ]) = T r(XY − Y X) = 0.
Un’altra proprietà importante della forma di Killing è:
B([X, Y ], Z) = B(X, [Y, Z])
(∀X, Y, Z ∈ Mn (C)),
cioè, che vale Tr((XY − Y X)Z) = Tr(X(Y Z − ZY )). Per mostrarlo si considera la differenza
tra i due lati e si usa:
Tr((XY − Y X)Z − X(Y Z − ZY )) = Tr(XZY − Y XZ) = Tr([XZ, Y ]) = 0,
come appena visto.
La rappresentazione aggiunta di un’algebra di Lie semplice g dà una inclusione ad : g ,→
End(g) ∼
= Mn (C) dove n = dim g. Quindi otteniamo una forma bilineare su g, detta forma di
Killing, definita da
B : g × g −→ C,
B(X, Y ) := Bg (ad(X), ad(Y ))
e, come appena visto, questa forma bilineare soddisfa B([X, Y ], Z) = B(X, [Y, Z]).
La forma di Killing è nondegenere, cioè, per ogni X ∈ g, X 6= 0, esiste uno Z ∈ g tale che
B(X, Z) 6= 0. Per mostrare ciò, si definisce il nucleo di B:
ker(B) := {X ∈ g : B(X, Z) = 0 ∀Z ∈ g}
e si mostra che ker(B) = 0. Si noti che ker(B) è un sottospazio lineare di g. In più, se X, Y ∈ g
sono tali che B(X, Z) = B(Y, Z) = 0 per ogni Z ∈ g allora anche B([X, Y ], Z) = B(X, [Y, Z]) =
7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI
134
B(X, Z 0 ) = 0. Quindi ker(B) è un ideale di g e, poiché g è semplice, ker(B) = {0} oppure
ker(B) = g. Poi si dimostra che ker(B) 6= g, per esempio usando un risultato di Cartan.
7.1.9 La simmetria R = −R. Siano α, β ∈ h∗ e Xα ∈ gα , Xβ ∈ gβ . Se α + β 6= 0 ∈ h∗ ,
allora esiste un H ∈ h tale che (α + β)(H) 6= 0. Si ha:
α(H)B(Xα , Xβ ) = B([H, Xα ], Xβ ) = −B([Xα , H], Xβ ) = −B(Xα , [H, Xβ ]) = −β(H)B(Xα , Xβ ),
perciò (α + β)(H)B(Xα , Xβ ) = 0 e quindi B(Xα , Xβ ) = 0. In particolare, gli autospazi gα e gβ
sono perpendicolari se α + β 6= 0:
gα ⊥B gβ
se α + β 6= 0.
Sia adesso α ∈ R e Xα ∈ gα , Xα 6= 0. Supponiamo che g−α = 0. Allora B(Xα , Xβ ) = 0 per ogni
Xβ ∈ gβ e per ogni β ∈ h∗ . Ma allora B(Xα , X) = 0 per ogni X ∈ g = ⊕gβ , in contraddizione
con il fatto che B è nondegenere su g. Quindi g−α 6= 0 se gα 6= 0.
7.1.10 La forma di Killing e l’algebra di Cartan. La restrizione della forma di Killing
ad h è nondegenere
perché se H ∈ h allora esiste un X ∈ g tale che B(H, X) 6= 0. Allora
P
X = X0 + α Xα con X0 ∈ h e Xα ∈ gα . Se α ∈ R, α 6= 0 e quindi α + 0 6= 0 e in 7.1.9
abbiamo visto che ciò implica B(H, Xα ) = 0. Quindi B(H, X0 ) 6= 0 e poiché X0 ∈ g0 = h segue
che B non è degenere su h.
Poiché B è nondegenere su h, B definisce una dualità, sempre indicata con B, cioè un
isomorfismo:
∼
=
B : h∗ −→ h, α 7−→ Tα
se α(H) = B(Tα , H)
per ogni H ∈ h. Si noti che α(Tα ) = B(Tα , Tα ).
7.1.11 Copie di sl(2) in g. Sia α ∈ R, quindi anche −α ∈ R e [gα , g−α ] ⊂ g0 = h. Mostriamo
che
[Xα , X−α ] = B(Xα , X−α )Tα
se Xα ∈ gα , X−α ∈ g−α ,
dove Tα ∈ h è definito in 7.1.10. Da questo segue che [gα , g−α ] = CTα perché ci sono Xα , X−α
tale che B(Xα , X−α ) 6= 0 (vedi 7.1.9).
Sia H ∈ h, allora si ha:
B(H, [Xα , X−α ]) =
=
=
=
B([H, Xα ], X−α )
α(H)B(Xα , X−α )
B(H, Tα )B(Xα , X−α )
B(H, B(Xα , X−α )Tα ),
quindi ogni H ∈ h è perpendicolare a [Xα , X−α ] − B(Xα , X−α )Tα . Poiché B è nondegenere su
h segue [Xα , X−α ] = B(Xα , X−α )Tα , come volevasi dimostrare.
Si ricordi che l’algebra di Lie sl(2) ha una base H, X, Y con H = [X, Y ] e [H, X] = 2X (si
veda 5.4.2). Si può mostrare che B(Tα , Tα ) 6= 0 e quindi si può definire l’elemento
Hα :=
2
Tα
B(Tα , Tα )
(∈ h),
allora α(Hα ) = B(Tα , Hα ) = 2.
7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI
135
Visto che CHα = CTα = [gα , g−α ], ci sono Xα ∈ gα , X−α ∈ g−α tali che [Xα , X−α ] = Hα e
poiché α(Hα ) = 2 si ha anche [Hα , Xα ] = α(Hα )Xα = 2Xα . Il sottospazio tre dimensionale
generato da Xα , X−α e Hα è allora una sottoalgebra di Lie di g isomorfa a sl(2):
[Xα , X−α ] = Hα ,
[Hα , Xα ] = 2Xα ,
[Hα , X−α ] = −2X−α .
In particolare, ogni radice definisce una copia di sl(2).
L’inclusione di algebre di Lie sl(2) ,→ g composta con la rappresentazione aggiunta di g
definisce una rappresentazione dell’algebra sl(2) su g. In particolare, gli autovalori di ad(Hα )
sono interi(!) (vedi 5.5.8). Poiché
ad(Hα )(Xβ ) = [Hα , Xβ ] =
si ha allora che
2β(Tα )
2
[Tα , Xβ ] =
Xβ
B(Tα , Tα )
B(Tα , Tα )
2β(Tα )
∈ Z
B(Tα , Tα )
(∀α, β ∈ R).
Lo studio dell’azione di sl(2) su g permette inoltre di mostrare che:
dim gα = 1
se α ∈ R
e anche che se α ∈ R allora λα ∈ R se e solo se λ = ±1.
7.1.12 Lo spazio h∗R . Per ogni α ∈ R è stato definito un elemento Hα ∈ h (vedi 7.1.11).
Si può mostrare che il sottospazio vettoriale complesso di h generato dalle Hα è h. Usando
l’isomorfismo h∗ ∼
= h definito da B, si può definire una forma bilineare (·, ·) su h∗ nel modo
seguente:
(α, β) := B(Tα , Tβ )
(∀α, β ∈ h∗ ).
Il sottospazio vettoriale reale di h generato dalle Hα , scritto hR , è uno spazio reale di
dimensione l = dimC h, il rango di g:
l = dimC h = dimR hR .
La forma bilineare (·, ·) definisce un prodotto scalare sullo spazio vettoriale reale h∗R .
Si noti che in 7.1.11 abbiamo mostrato che
2
(β, α)
2β(Tα )
=
(α, α)
B(Tα , Tα )
è un intero.
7.1.13 Il gruppo di Weyl. L’insieme delle radici R di un’algebra di Lie complessa semplice
è un sottoinsieme finito che genera uno spazio vettoriale reale h∗R con un prodotto scalare (·, ·),
vedi 7.1.12.
7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI
136
Per una radice α, scriviamo α⊥ per l’iperpiano perpendicolare a α:
α⊥ := {x ∈ h∗R : (x, α) = 0 }
(⊂ h∗R ).
Sia sα la riflessione in α⊥ :
sα : h∗R −→ h∗R ,
x 7−→ x − 2
(x, α)
α,
(α, α)
per verificare la formula basta notare la linearità, che sα (x) = x se x ∈ α⊥ , cioè se (x, α) = 0,
e che sα (λα) = −λα per α ∈ R. Il sottogruppo del gruppo ortogonale di h∗R generato dalle sα ,
α ∈ R è il gruppo di Weyl di g, scritto
W = W (g) := h sα : α ∈ R i
(⊂ O(h∗R )).
7.1.14 L’invarianza di R sotto W . L’insieme delle radici R è invariante per l’azione di
W , cioè per w ∈ W e β ∈ R anche w(β) ∈ R. Per mostrare questo, dobbiamo verificare che se
α, β ∈ R anche
sα (β) = β − 2
B(Tβ , Tα )
β(Tα )
(β, α)
α=β−2
α=β−2
α = β − β(Hα )α
(α, α)
B(Tα , Tα )
B(Tα , Tα )
∈ R.
La copia di sl(2) ⊂ g generata da Hα , Xα , X−α agisce su g via la rappresentazione aggiunta. Il
sottospazio V[β] ⊂ g definito da
V[β] := ⊕n∈Z gnα+β ,
è una sottorappresentazione di sl(2) in g perché:
ad(Hα )Xnα+β = (nα + β)(Hα )Xnα+β ,
ad(X±α )Xnα+β = [X±α , Xnα+β ] ∈ g(n±1)α+β .
Ogni gnα+β è uno spazio peso delle rappresentazioni di sl(2) su V[β] con peso l’intero (nα +
β)(Hα ) = 2n + β(Hα ). Poiché ogni gnα+β ha dimensione al più uno, segue che V[β] è una
rappresentazione irriducibile di sl(2) (vedi 5.5.10). Da ciò segue che i pesi di V[β] sono m, m −
2, . . . , −(m − 2), −m per un certo m ∈ Z≥0 .
Dato che β(Hα ) è un peso, anche −β(Hα ) deve essere un peso di V[β] . Quindi esiste un
intero n tale che −β(Hα ) = (nα + β)(Hα ). Dato che α(Hα ) = 2 si ha n = −β(Hα ). Perciò
−β(Hα )α + β è una radice di g, come desiderato.
7.1.15 Esempio: l’algebra di Cartan di sl(n). Consideriamo il caso g = sl(n). Sia
αij = Li − Lj ∈ R (vedi 7.1.6), si ricordi che gαij = CEi,j . Definiamo, per i, j ∈ {1, . . . , n},
i 6= j, l’elemento
Hij = [Ei,j , Ej,i ] = Ei,i − Ej,j
(∈ [gαij , g−αij ] ⊂ h),
la matrice diagonale con tutti i coefficienti uguale a zero tranne un 1 in posizione ii e un −1
in posizione jj. In particolare, Hji = −Hij . Per esempio, se n = 3, H12 = diag(1, −1, 0) e
H23 = diag(0, 1, −1). Si verifica che
[Hij , Ei,j ] = 2Ei,j
quindi Hij = Hαij ,
7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI
137
l’unico elemento in [gαij , g−αij ] con questo autovalore su gαij .
Le radici di sl(n) sono gli αkl = Lk − Ll con αkl (diag(t1 , . . . , tn )) = tk − tl , quindi si ha

 2 se k = i, l = j,
1 se k = i, l 6= j,
αkl (Hij ) =

0 se {k, l} ∩ {i, j} = ∅,
e ovviamente αkl (Hlk ) = −2, αkl (Hik ) = αkl (−Hki ) = −1 se i 6= l.
L’azione del gruppo di Weyl è dato da sα (β) = β − β(Hα )α (vedi 7.1.13) quindi

 αij − 2αij = −αij se k = i, l = j,
αil − αij =
αjl se k = i, l 6= j,
sαij (αkl ) =

αkl se {k, l} ∩ {i, j} = ∅,
(si noti: αil − αij = (Li − Ll ) − (Li − Lj ) = Lj − Ll = αjl ). Usando sα (−β) = −sα (β) e
sα = s−α , troviamo che
dove σ = (ij) ∈ Sn ,
sαij (αkl ) = ασ(k)σ(l) ,
W (sl(n)) ∼
= Sn ,
cioè il gruppo di Weyl del sistema di radici di sl(n) è il gruppo simmetrico Sn .
Si noti che non abbiamo usato il prodotto scalare su h∗R in modo esplicito. Poiché le riflessioni
sα sono applicazioni ortogonali, possiamo comunque determinare questo prodotto scalare, a
meno di moltiplicazione per una constante non-zero, da questo risultato (per calcoli ‘diretti’
vedi [FH], 15.1). Anzitutto, date due radici αij , αkl , esiste un σ ∈ W (sl(n)) = Sn tale che
σ(αij ) = αkl . Quindi (α, α) non dipende dalla scelta di α ∈ R. Scegliamo lo scalare col quale
moltiplichiamo il prodotto scalare su h∗R in modo tale che (α, α) = 2 e scriviamo ancora (·, ·)
per questo prodotto scalare. Poiché
β(Hα ) = 2
(α, β)
= (α, β)
(α, α)
troviamo, usando la formula per sαij qui sopra, che
(αij , αij ) = 2,
(αij , αil ) = 1,
(αij , αkl ) = 0
se i, j, k, l sono distinti tra di loro. Questa mostra che si ha una isometria
h∗R = (⊕ni=1 RLi ) /hL1 + . . . + Ln i −→ E := {(x1 , . . . , xn ) ∈ Rn : x1 + . . . + xn = 0},
data da:
Li 7−→ ei − (e1 + . . . + en )/n,
quindi αij = Li − Lj 7−→ ei − ej ,
(αij , αkl ) = (ei − ej , ek − el ).
dove il prodotto
scalare su E è P
quello indotto dal prodotto scalare euclideo standard su Rn :
P
(x, y) = xi yi . In particolare, ( ni=1 ai Li , Lk − Ll ) = ak − al .
7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI
7.2
138
Sistemi di radici e diagrammi di Dynkin
7.2.1 Sistemi di radici. Sia g un’algebra di Lie semplice (complessa) con algebra di Cartan
h. La rappresentazione aggiunta di g individua un insieme finito R ⊂ h∗ , cioè un insieme di
mappe lineari h → C. Un α ∈ h∗ sta in R se e solo α 6= 0 e se esiste un X ∈ g tale che
ad(H)(X) = α(H)X per ogni H ∈ h (vedi 7.1.5). Il sottospazio reale di h∗ generato dalle radici
si scrive h∗R , la sua dimensione è uguale al rango di g, cioè l = dimC h = dimR h∗R .
La forma di Killing B su g induce un prodotto scalare sullo spazio reale h∗R , scritto semplicemente (·, ·). Il gruppo di Weyl W di g è il sottogruppo del gruppo ortogonale di (h∗R , (·, ·))
generato dalle riflessioni rispetto agli iperpiani perpendicolari alle radici. L’insieme delle radici
R è invariante per l’azione di W , cioè ogni w ∈ W permuta le radici.
Adesso definiamo, in astratto, un sistema di radici. Mostriamo che gli insiemi di radici
R ⊂ h∗R sono sistemi di radici. Poi daremo brevemente i risultati principali che servono per
classificare i sistemi di radici e per mostrare che c’è una biiezione tra algebre di Lie complesse
semplice e sistemi di radici.
7.2.2 Definizione. Sia E uno spazio vettoriale euclideo, cioè E è uno spazio vettoriale reale
con prodotto scalare, scritto (·, ·). Un sistemo di radici in E è un sottoinsieme R ⊂ E tale che
valgano le seguenti quattro condizioni:
R1 R è un insieme finito, R genera E e 0 6∈ R.
R2 Sia α ∈ R, allora λα ∈ R se e solo se λ = ±1.
R3 Per α ∈ R, la riflessione sα rispetto all’iperpiano α⊥ manda R in se stesso.
R4 Per α, β ∈ R il numero reale
nβα := 2
(β, α)
(α, α)
è un intero.
Un elemento di R è detto
` radice, il rango di R è la dimensione di E. Un sistema di radici è detto
irriducibile se R 6= R1 R2 in modo tale che ogni α ∈ R1 è perpendicolare con ogni β ∈ R2 .
7.2.3 Un’algebra di Lie dà un sistema di radici. Sia g un’algebra di Lie complessa
semplice e sia h un’algebra di Cartan di g. Allora R = Rg ⊂ h∗R è un sistema di radici
irriducibile (vedi [FH], 21.1), vedi anche 7.1.11, 7.1.12.
7.2.4 Un sistema di radici dà un’algebra di Lie. Sia R ⊂ E un sistema di radici
irriducibile. Si può definire un’algebra di Lie complessa g = gR , che risulta essere semplice e
tale che il sistema di radici Rg di g è proprio R stessa. In più, se R = Rg , il sistema di radici
di un’algebra di Lie complessa semplice, allora gR = g.
In combinazione con il fatto, vedi 7.2.3, che ogni algebra di Lie semplice complessa determina un sistema di radici irriducibile, si conclude che si ha una biiezione tra le algebre di Lie
7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI
139
semisemplici complesse e i sistemi di radici irriducibili. Per la classificazione dei sistemi di
radici irriducibili, tramite diagrammi di Dynkin, si veda 7.3.
Per costruire l’algebra di Lie gR si può usare una variante della costruzione di Serre (vedi
[FH], p.337). Siano α1 , . . . , αn le radici semplici di g che corrisponderanno ai vertici del diagramma di Dynkin, definito qui sotto e sia nij = 2(αi , αj )/(αj , αj ). Si consideri l’algebra di Lie
complessa generata da elementi Hi , Xi , Yi , 1 ≤ i ≤ n, cioè un elemento di questa algebra di Lie
è una combinazione lineare di [Z1 [Z2 , [Z3 , . . . Zk ]] . . .] con Zj ∈ {H1 , . . . , Yn }. Poi si prenda il
quoziente per le seguenti relazioni
[Hi , Hj ] = 0,
[Xi , Xi ] = Hi ,
[Xk , Yl ] = 0,
[Hi , Xj ] = nji Xj ,
[Hi , Yj ] = −nji Yj
per ogni i, j e k 6= l, poi per i 6= j si impone anche:
[Xi , Xj ] = 0,
[Xi , [Xi , Xj ]] = 0,
[Xi , [Xi , [Xi , Xj ]]] = 0,
[Xi , [Xi , [Xi , [Xi , Xj ]]]] = 0,
[Yi , Yj ] = 0
[Yi , [Yi , Yj ]] = 0,
[Yi [Yi , [Yi , Yj ]]] = 0
[Yi , [Yi [Yi , [Yi , Yj ]]]] = 0
se nij
se nij
se nij
se nij
= 0,
= −1,
= −2,
= −3.
L’algebra di Lie quoziente si indica con gR . Si mostra che gR è semplice, di rango n, con algebra
di Cartan h =< H1 , . . . , Hn > e il sistema di radici di gR è R.
7.3
Diagrammi di Dynkin
7.3.1 Radici positive e radici semplici. Le condizioni R1, . . . , R4 sono molto restrittive.
Per esempio, se φ è l’angolo tra due radici α, β, allora una formula ben nota per il prodotto
scalare dà:
(α, β)2
=⇒
nαβ nβα = 4 cos2 φ.
cos2 φ =
(α, α)(β, β)
Poiché gli nαβ sono interi per R4 e 0 ≤ cos2 φ ≤ 1 ci sono poche possibilità per gli nαβ (vedi
[FH], Table 21.4 e 7.3.3). In particolare, non è difficile classificare tutti i sistemi di radici di
rango 1 (è facile vedere che è unico) e 2 (ce ne sono 4, i tre sistemi irriducibili sono disegnati
in 7.3.3).
Per classificare i sistemi di radici in generale, si usa una qualsiasi applicazione lineare l :
E → R tale che l(α) 6= 0 per ogni α ∈ R. Poiché R è finito, tale l esiste ed è detta mappa
regolare. Allora, poiché l(α) 6= 0, l(−α) = −l(α) e R = −R (per R2), si ottiene una partizione
dell’insieme R
a
R = R+
R−
R+ := {α ∈ R : l(α) > 0}, R− = −R+ .
L’insieme R+ è detto l’insieme delle radici positive mentre R− è l’insieme delle radici negative. Una radice positiva α (∈ R+ ) è detta semplice se non è la somma di due altre radici
positive.
7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI
140
Si mostra poi che l’insieme delle radici semplice è una base di E, che ogni radice positiva
è una combinazione lineare delle radici positive con coefficienti che sono interi positivi e che
(α, β) ≤ 0 per radici semplici α, β. Questo implica che 90◦ ≤ φ < 180◦ .
7.3.2 Esempio. Sia R il sistema di radici di sl(n), vedi 7.1.6:
X
X
ai = 0,
R = {Li − Lj : i 6= j} ⊂ E = h∗R = {
ai Li ∈ h∗C :
ai ∈ R ∀i }.
i
Si scelga l : E −→ R tale che
X
X
l(
ai Li ) =
li ai ,
con li > li+1 > 0,
i
allora l(Li − Lj ) = li − lj 6= 0 se i 6= j, quindi l è una mappa regolare. Una scelta conveniente,
anche per il sistema di radici Bn qui sotto in 7.3.5, è di definire:
l : ⊕ni=1 RLi −→ R,
l(Li ) = n + 1 − i,
quindi l(Li − Lj ) = j − i (∈ Z).
Poiché li − lj > 0 se e solo se i < j si ha:
R+ = { Li − Lj : i < j }.
Sia αi := Li − Li+1
(∈ R+ )
per i = 1, . . . , n−1. Si noti che l(α) ∈ Z>0 per ogni α ∈ R+ e l(α) = 1 se e solo se α = αi per un
certo i. Allora segue che ogni αi è semplice perché se αi = β +γ con β, γ ∈ R+ allora 1 = l(αi ) =
l(β) + l(γ) ≥ 2, una contraddizione. Invece, per k ≥ 2, Li − Li+k = (Li − Li+1 ) + (Li+1 − Li+k )
quindi le altre radici positive non sono semplici.
P
P
Gli αi sono una base di E (si ricordi che
ai = 0 se
ai Li ∈ E). In più, se a ∈ R+ si ha
α = Li − Lj con i < j e:
Li − Lj = (Li − Li+1 ) + (Li+1 − Li+2 ) + . . . + (Lj−1 − Lj ) = αi + αi+1 + . . . + αj−1
quindi ogni radice positiva è combinazione lineare delle radici positive con coefficienti che sono
interi positivi (infatti, i coefficienti sono in {0, 1}). Infine,
(αi , αi+1 ) = (Li − Li+1 , Li+1 − Li+2 ) = −1,
(αi , αj ) = 0 se |i − j| > 1.
7.3.3 Diagrammi di Dynkin. Se α1 , . . . , αn e α10 , . . . , αn0 sono radici semplici (per scelte di
mappe regolari l, l0 : E → R), allora si mostra che esistono un w ∈ W (R) e una permutazione
0
0
0
σ di 1, . . . , n tale che w(αi ) = ασ(i)
. Quindi gli n2 prodotti scalari (αi , αj ) = (ασ(i)
, ασ(j)
) sono
determinati in modo unico (a meno di permutazioni) da R.
Il diagramma di Dynkin di un sistema di radici è definito nel modo seguente. Per ogni
radice semplice si ha un vertice, e due vertici sono connessi da k segmenti, k ∈ {0, 1, 2, 3}, se
4(αi , αj )2
= 4 cos2 φ = k
(αi , αi )(αj , αj )
7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI
141
dove φ è l’angolo tra le due radici corrispondenti. Se α, β hanno lunghezza diversa, mettiamo
il segno < (o >) sui segmenti tra i vertici corrispondenti, indicando in tal modo quale è più
lungo dell’altro.
Se due radici semplici α e β non sono perpendicolari, (α, β) < 0. Allora k = 4 cos2 φ è 1, 2, 3,
e l’angolo φ tra di loro è 120◦ , 135◦ , 150◦ rispettivamente. Si ricordi che nβα = 2(β, α)/(α, α) e
nβα sono interi per R4, ora negativi, con prodotto nβα nαβ = k, quindi nαβ , nβα ∈ {−1, −2, −3}.
Supponiamo ora nαβ ≤ nβα , poiché (α, α)/(β, β) = nαβ /nβα si ha:
Se k = 1, si ha nαβ = nβα = −1, quindi (α, α) = (β, β).
Se k = 2, si ha nαβ = −2, nβα = −1, quindi (α, α) = 2(β, β).
Se k = 3, si ha nαβ = −3, nβα = −1, quindi (α, α) = 3(β, β).
Nel diagramma di Dynkin si trovano allora soltanto le seguenti connessioni tra due vertici:
β
α
e
β
α
e
e
e
(α, α) = 2(β,
√ β)
cos φ = − 2/2
φ = 135◦
(α, α) = (β, β)
cos φ = −1/2
φ = 120◦
β
α
e
>
e
>
(α, α) = 3(β,
√ β)
cos φ = − 3/2
φ = 150◦
β -
-
α
-
α
-
-
-
β
β
-
I tre casi considerati qui sopra sono tutti i tre sistemi di radici di rango 2, si chiamano A2 , B2
e G2 rispettivamente. Questi sistemi di radici sono quindi i seguenti:
6
-
-
α
-
-
?
Dato il diagramma di Dynkin di R, si può ricostruire R (a meno di moltiplicazione per
uno scalare e una isometria) nel modo seguente. Si enumerino i vertici del diagramma di
Dynkin. Si prenda α1 = e1 ∈ E = Rn , con prodotto scalare standard. Supponiamo che
α1 , . . . , αi−1 ∈ Ri−1 ⊂ Rn siano stati determinati. Dal diagramma si trova la lunghezza di αi .
Si trova anche i prodotti scalari (αj , αi ) (≤ 0) per j = 1, . . . , i − 1, questi determinano una retta
(affine) in Ri su cui giace αi . Ci sono adesso due scelte per αi (scambiate tramite la riflessione
rispetto all’iperpiano Ri−1 ⊂ Ri ). In questo modo si determina α1 , . . . , αn ∈ Rn , unico a meno
di una isometria. Sia si la riflessione rispetto all’iperpiano perpendicolare a αi e sia W il gruppo
generato dalle si . Si mostra che l’unione delle orbite delle αi è un sistema di radici, che è R, a
meno di moltiplicazione per uno scalare (per aggiustare la lunghezza di α1 ) e una isometria:
R ∼
= { w(αi ) : w ∈ W, i = 1, . . . , n }.
7.3.4 Esempio: sl(n) e An−1 . Per esempio, sia R = {Li − Lj : i 6= j, 1 ≤ i, j ≤ n} e
αi = Li − Li+1 per i = 1, . . . , n − 1 il sistema di radici di sl(n) (con la scelta di radici positive
7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI
142
come in 7.3.2). Le radici hanno la stessa lunghezza e il diagramma di Dynkin è:
α1
c
α2
c
α3
α4
c
c
αn−2
c
αn−1
c
,
questa sistema di radici è chiamato An−1 .
7.3.5 Esempio: il sistema di radici Bn . Il sistema di radici Bn è il sottoinsieme di Rn ,
con prodotto scalare standard, dato dai vettori α ∈ Rn con (α, α) ∈ {1, 2}, cioè:
Bn = { ±Li , ±(Li ± Lj ),
i, j ∈ {1, . . . , n}, i 6= j }
dove gli Li sono la base standard di Rn . Poiché le riflessioni sα sono applicazioni ortogonali, è
ovvio che sα (Bn ) = Bn . Si noti che sα permuta Li e Lj se α = Li − Lj , manda Li 7→ −Lj e
Lj 7→ −Li se α = Li + Lj e manda Li 7→ −Li se α = Li . Infine sα fissa gli altri Lk .
La mappa l : Rn → R di 7.3.2 è regolare anche per Bn . Le radici positive sono gli Li e gli
Li ± Lj con i < j, le radici semplici sono i α ∈ R con l(α) = 1:
α1 = L1 − L2 , . . . αn−1 = Ln−1 − Ln ,
αn = Ln .
Il diagramma di Dynkin Bn contiene quello di An−1 , poi l’ultima radice semplice αn è
perpendicolare a tutte le altre tranne αn−1 e
4 cos2 φ = 4
(αn−1 , αn )2
= 4(−1)2 /(2 · 1) = 2
(αn−1 , αn−1 )(αn , αn )
quindi ci sono due segmenti tra αn−1 e αn . Poiché (αn−1 , αn−1 ) > (αn , αn ) mettiamo il segno
‘>’ nel diagramma tra i vertice corrispondenti:
α1
e
α2
e
α3
e
αn−2 αn−1
e
e
αn
> e
7.3.6 Classificazione dei diagrammi di Dynkin. Si arriva cosı̀ a classificare tutti i
diagrammi di Dynkin:
7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI
α2
α1
α2
α3
αn−2 αn−1
α1
α2
α3
αn−2 αn−1
α1
α2
c
c
e
α4
c
e
e
c
α3
αn−1
α1
c
c
e
e
α3
c
c
e
e
c
αn
e
e
αn−3
c
αn−2
c
e
143
An , n ≥ 1,
sl(n + 1),
αn
> e
Bn , n ≥ 2,
so(2n + 1),
αn
< e
Cn , n ≥ 3,
sp(2n),
Dn , n ≥ 4,
so(2n),
αn−1
c
c
αn
α2
c
α3
α4
c
c
α5
c
αn−1
c
αn
c
En , n = 6, 7, 8,
c
α1
α1
e
α2
e
>
α3
e
e
F4 ,
αe
β
< e
G2 .
Si noti che E5 corrisponderebbe à D5 , D3 a A3 , D2 a due copie di A1 , e C2 a B2 , mentre
D1 = C1 = B1 = A1 , quindi le restrizioni su n sono fatte in modo tale da avere ogni diagramma
di Dynkin una sola volta. Per i diagrammi di Dynkin delle algebre di Lie complesse semplici
sl(n + 1), so(2n) e so(2n + 1) vedi 7.3.4, 9.4.2 e 9.5.2.
I sistemi di radici En , F4 , G2 corrispondono ai ‘gruppi di Lie eccezionali’, si veda [FH] Lecture
22, per maggiori dettagli su di essi. In particolare, E8 e G2 godono di un interesse particolare
per i fisici.
7.3.7 Il sistema di radici duali. Sia R ⊂ E un sistema di radici. Per α ∈ R definiamo
α̌ :=
2
α (∈ E),
(α, α)
Ř := { α̌ : α ∈ R } (⊂ E).
Si può verificare che anche Ř ⊂ E è un sistema di radici, detto sistema di radici duali di R. In
più se α1 , . . . , αn sono le radici semplici di R (per una scelta di una mappa regolare l), allora
α̌1 , . . . , α̌n sono radici semplici di Ř.
Nel caso in cui (α, α) è lo stesso intero per tutti gli α ∈ R, allora ovviamente R e Ř
coincidono (a meno di moltiplicazione per uno scalare). Queste è il caso per An , Dn e En . Se
invece ci sono due lunghezze di radici, potrebbe essere che R e Ř sono isomorfe (succede nel caso
B2 = C2 , F4 e G2 ) oppure che non sono isomorfe, questo succede soltanto nel caso R = Bn , Cn
con n > 2, in quel caso B̌n = Cn , e Čn = Bn per n > 2.
Nel caso di Bn , vedi 7.3.5, le radici sono
α = ±Li
⇒ α̌ = 2Li ,
α = ±(Li ± Lj )
⇒ α̌ = ±(Li ± Lj ) (i 6= j).
7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI
144
In particolare, (α, α) ∈ {1, 2} mentre (α̌, α̌) ∈ {2, 4}. Usando la solita mappa regolare l di
7.3.1, si verifica che
α̌1 = L1 − L2 , . . . , α̌n−1 = Ln−1 − Ln ,
αn = 2Ln
sono le radici semplici e che il diagramma di Dynkin di B̌n è quello di Cn . Viceversa, Čn = Bn .
7.4
Algebre di Lie semplici reali
7.4.1 Coniugazioni su uno spazio vettoriale complesso. Sia V uno spazio vettoriale
complesso di dimensione finita. Una coniugazione su V è un’involuzione C-antilineare
σ : V −→ V,
σ(z1 v1 + z2 v2 ) = z̄1 v1 + z̄2 v2 ,
σ(σ(v)) = v,
per v, v1 , v2 ∈ V e z1 , z2 ∈ C. Il sottospazio (reale) dei vettori σ-invarianti è:
V σ := {v ∈ V : σ(v) = v },
si ha V = V σ ⊕ iV σ ,
perché la R-linearità di σ e σ 2 = I dà la decomposizione in autospazi (reali) V = V σ ⊕ V− dove
v ∈ V− se σ(v) = −v. Se v ∈ V σ si ha σ(iv) = −iσ(v) = −iv, quindi iV σ ⊂ V− . Viceversa, se
σ(v) = −v allora σ(−iv) = iσ(v) = −iv, quindi −iv = w ∈ V σ e v = iw ∈ iV σ , perciò anche
V− ⊂ iV σ .
Un esempio di coniugazione è
σ : Cn −→ Cn ,
(z1 , . . . , zn ) 7−→ (z̄1 , . . . , z̄n ),
in questo caso ovviamente (Cn )σ = Rn , i vettori con z1 , . . . , zn ∈ R. Ogni base di uno spazio vettoriale complesso definisce in questo modo una coniugazione, data dalla coniugazione complessa
delle coordinate di un vettore.
Se τ è un’altra coniugazione su Cn , allora τ σ : Cn → Cn è C-lineare ed invertibile (si noti
che (τ σ)−1 = στ ), quindi τ (σw) = Aw per un A ∈ GL(n, C) e ogni w ∈ V . Sia v = σ(w)
allora otteniamo τ (v) = Aσ(v), quindi data una coniugazione σ, tutti le altre si ottengono
componendo σ con un’applicazione C-lineare invertibile opportuna.
Per esempio, l’applicazione τ : C → C, z 7→ az̄ è una coniugazione su V = C se e solo se
τ 2 = I, cioè a(az̄) = z per ogni z ∈ C, quindi se e solo se aā = 1. Per esempio, se a = −1
allora Cτ = iR.
7.4.2 Forme reali di algebre di Lie complesse. Sia g un’algebra di Lie complessa. Una
forma reale di g è un sottospazio reale g0 di g, che è un’algebra di Lie (reale) e tale che
g = g0 ⊕ ig0 (equivalente: g0 ⊗R C ∼
= g tramite il prodotto X ⊗ z 7→ zX) (vedi [FH], Lecture
26).
Una forma reale di g determina quindi una coniugazione σ su g con gσ = g0 . In generale
però, per una coniugazione τ su g qualsiasi, lo spazio vettoriale gτ non è un’algebra di Lie.
7 LA CLASSIFICAZIONE DELLE ALGEBRE DI LIE SEMISEMPLICI
145
7.4.3 Le forme reali di sl(n). L’algebra di Lie
sl(n)R := {X ∈ Mn (R) : tr(X) = 0 }
,→ sl(n) = {Y ∈ Mn (C) : tr(Y ) = 0 }
è una forma reale di sl(n) perché Y ∈ sl(n) si scrive in modo unico come Y = Y1 + iY2 con
Y1 , Y2 ∈ sl(n)R (usare tr(Y1 + iY2 ) = tr(Y1 ) + itr(Y2 )).
Sia Q = diag(1 , . . . , n ) ∈ Mn (C) con i ∈ {±1}. Allora Q2 = I, cioè Q = Q−1 e Q = Q.
L’applicazione X 7→ −Q−1 (t X)Q è C-lineare, e quindi
τ : sl(n) −→ sl(n),
X 7−→ −Q−1 (t X)Q
è C-antilineare, e in più è un’involuzione:
τ (τ (X)) = Q−1t Q−1 (t X Q = Q−1 t QXQ−1 Q = X.
I punti fissi di τ sono
su(Q) := sl(n)τ = {X ∈ sl(n) : QX + t XQ = 0 }
che è l’algebra di Lie del gruppo unitario SU (Q) definito da
SU (Q) = {A ∈ GL(n, C) : t AQA = Q, }.
Se Q = Ip,q , la matrice con 1 = . . . = p = 1, p+1 = . . . = n = −1, quindi In = I, il gruppo
unitario si scrive SU (p, q) (oppure SU (n) se q = 0) e l’algebra di Lie si scrive su(p, q) oppure
su(n). Si può anche mostrare in modo diretto che su(n) è una forma reale di sl(n), poiché
X ∈ su(n) se e solo se X = −X e tr(X) = 0, in particolare X è una matrice antihermitiana, e
ogni Y ∈ sl(n) si scrive come
Y + tY ,
con Y − t Y , −i(Y + t Y ) ∈ su(n).
Y = 21 Y − t Y + i −i
2
Il risultato fondamentale è che ogni forma reale di sl(n) è isomorfa a sl(n)R , su(n) oppure
su(p, q) con 1 ≤ p ≤ q ≤ n, p + q = n.
7.4.4 La forma compatta. Il gruppo di Lie SU (n) è compatto. La sua algebra di Lie su(n)
è una forma reale di sl(n). L’algebra di Cartan h di sl(n) da una sottoalgebra h ∩ su(n) di
su(n):
P
h ∩ su(n) = {diag(t1 , . . . , tn ) : P
ti = 0} ∩ {X : t X = −X }
= {diag(is1 , . . . , isn ) :
si = 0, sj ∈ R }.
Gli autovalori di ad(H) per H ∈ h ∩ su(n) nella rappresentazione aggiunta sono isa − isb =
i(sa − sb ), in particolare, sono puramente immaginari. Poiché exp(H) = diag(et1 , . . . , etn ), e
ex+iy = ex (cos x + isen y), si ha che exp(h ∩ su(n)) è un sottogruppo compatto.
In generale, sia g0 una forma reale di un’algebra di Lie complessa semplice g. Allora g0
è l’algebra di Lie di un gruppo di Lie reale compatto se e solo se ogni radice di g ha valori
puramente immaginari su h ∩ g0 , dove h è un’algebra di Cartan di g (vedi [FH], Proposition
26.4)
8 RAPPRESENTAZIONI DI ALGEBRE DI LIE SEMPLICI
8
146
Rappresentazioni di algebre di Lie semplici
Testi consigliati: [FH], [Ha], [Hu].
8.1
Pesi: integralità e simmetria
8.1.1 I pesi di una rappresentazione. Sia g un’algebra di Lie semplice e sia
ρ : g −→ End(V )
una rappresentazione di g su uno spazio vettoriale complesso V di dimensione finita. Sia h ⊂ g
un’algebra di Cartan. In 7.1.3 abbiamo visto che V si decompone in spazi pesi (autospazi per
h):
V = ⊕λ V λ ,
ρ(H)v = λ(H)v
(∀H ∈ h, v ∈ Vλ )
dove λ : h → C è un’applicazione lineare. L’insieme delle λ ∈ h∗ per i quali Vλ 6= 0 è detto
l’insieme dei pesi di ρ.
In particolare, i pesi della rappresentazione aggiunta di g sono le radici e λ = 0 (vedi 7.1.5).
8.1.2 Esempio. Sia V = Cn , la rappresentazione standard di g = sl(n). Poiché H =
diag(t1 , . . . , tn ) ∈ h è già diagonale sulla base standard ei di V , si ha:
V = Cn = ⊕Li VLi ,
VLi = Cei ,
perché Hei = ti ei = Li (H)ei .
8.1.3 Integralità dei pesi. L’algebra di Cartan h è generata su C dagli Hα dove α è una
radice di g. Dato un Hα , ci sono X±α ∈ g± tali che < Hα , Xα , X−α > è una sottoalgebra di
Lie di g che è isomorfa a sl(2) e tale che [Hα , X±α ] = ±2X±α (vedi 7.1.11). In particolare, la
restrizione della rappresentazione ρ a questa sl(2) è una rappresentazione di sl(2) e quindi gli
autovalori di Hα su V sono interi. Perciò, per ogni peso λ di una rappresentazione di g e per
ogni α ∈ R si ha:
λ(Hα ) ∈ Z
Questo è equivalente a, come già visto, < λ, α >∈ Z:
< λ, α >:= 2
2
(λ, α)
=
B(Tλ , Tα ) = B(Tλ , Hα ) = λ(Hα ) ∈ Z,
(α, α)
(α, α)
vedi 7.1.10 per la definizione di Tλ , 7.1.11 per la definizione di Hα e 7.1.12 per la definizione di
(·, ·).
8.1.4 Il reticolo dei pesi ΛW . Quindi un peso di una rappresentazione di g è contenuto
nell’insieme:
ΛW := {λ ∈ h∗R : < λ, α >∈ Z ∀α ∈ R }.
8 RAPPRESENTAZIONI DI ALGEBRE DI LIE SEMPLICI
147
`
Scelta una decomposizione R = R+ R− , sia ∆ = {α1 , . . . , αn } ⊂ R+ l’insieme delle radici
semplici. I pesi fondamentali di g (rispetto a ∆) sono gli elementi λi ∈ h∗R definiti da
< λi , αi >= 1,
< λi , αj >= 0
(i 6= j).
Allora si ha:
ΛW = Zλ1 ⊕ Zλ2 ⊕ . . . ⊕ Zλn .
Infatti, per λ ∈ ΛW sia mi =< λ, αi >. Allora mi ∈ Z e
X
X
<λ−
mi λi , αj >=< λ, αj > −
< mi λi , αj >= mj − mj = 0
i
(∀ αj ).
i
∗
∗
Dal
P fatto che (·, ·) è un prodotto scalare su hR e gli αi sono una base di hR , segue che λ −
i mi λi = 0, cioè:
X
λ=
mi λi ,
dove mi =< λ, αi >∈ Z
i
che mostra ‘⊂’. Per ‘⊃’, si noti che < λ, α > è lineare in λ, quindi basta verificare che
< λi , α >∈ Z per i = 1, . . . , n. Si ricordi da 7.3.7 che α̌ = (2/(α, α))α ∈ Ř è una radice del
sistema di radici duali. Visto che < λi , α >= (λ, α̌) dobbiamo quindi mostrare che (λi , α̌) ∈ Z
per ogni α̌ ∈ Ř. Gli α̌i sono un base di radici semplici di Ř e quindi ogni α̌ è una combinazione
con coefficienti interi di questi α̌i . Poiché (λi , α̌) è lineare in α̌ basta allora verificare che
(λi , α̌j ) ∈ Z per ogni i, j. Ma (λi , α̌j ) =< λi , αj >= δij , per definizione di λi , e abbiamo
mostrato ‘⊃’.
L’insieme ΛW è un sottogruppo abeliano di rango n di h∗R e genera questo spazio. Si chiama
il reticolo dei pesi (weight lattice) di g.
8.1.5 Il reticolo delle radici. Il reticolo delle radici è il gruppo:
ΛR := Zα1 + . . . + Zαn .
Poiché ogni radice è una combinazione lineare con coefficienti interi delle radici semplici
α1 , . . . , αn , R ⊂ ΛR . Inoltre, dato che nβα = 2(β, α)/(α, α) =< α, β >∈ Z ogni radice è
un peso e quindi ΛR ⊂ ΛW . Il gruppo quoziente ΛW /ΛR risulta essere un gruppo finito e ha
(più precisamente, il suo ‘duale’) un’interpretazione in termine di gruppi di Lie complessi con
algebra di Lie g, vedi [FH] p.372-374.
8.1.6 Radici e pesi. Nel capitolo 7 abbiamo introdotto e studiato la decomposizione
dell’algebra di Lie in spazi peso per la rappresentazione aggiunta:
g = h ⊕ (⊕α∈R gα ).
L’azione di un ρ(Xα ), con Xα ∈ gα , manda Vλ in Vλ+α ,
ρ(Xα ) : Vλ −→ Vλ+α
(Xα ∈ gα )
8 RAPPRESENTAZIONI DI ALGEBRE DI LIE SEMPLICI
148
perché, per v ∈ Vλ :
ρ(H)(ρ(Xα )v) =
=
=
=
(ρ([H, Xα ]) + ρ(Xα )ρ(H))v
(ρ(α(H)Xα ) + ρ(Xα )ρ(H))v
(α(H) + λ(H))(ρ(Xα )v)
(λ + α)(H)(ρ(Xα )v).
8.1.7 Il gruppo di Weyl e i pesi. Mostriamo che per α ∈ R e λ un peso di V , anche sα (λ)
è un peso di V , cioè l’insieme dei pesi di una rappresentazione è invariante per l’azione del
gruppo di Weyl su h∗R . In più dim Vλ = dim Vsα (λ) , cioè, i pesi nella stessa orbita del gruppo di
Weyl hanno la stessa molteplicità.
La dimostrazione è analoga a quella di 7.1.14. Anzitutto si ha:
sα (λ) = λ− < λ, α > α = λ − λ(Hα )α.
Se Vλ 6= 0, allora Vλ è uno spazio peso per sl(2) con peso k := λ(Hα ) e molteplicità dim Vλ .
Sia < Hα , Xα , X−α > la copia di sl(2) ⊂ g associata a α. Il sottospazio
V[λ] := ⊕n∈Z Vλ+nα
(⊂ V = ⊕λ Vλ )
è allora invariante per ρ(sl(2)), quindi è una rappresentazione di sl(2). Si noti che Vλ+nα è uno
spazio peso per Hα ∈ sl(2) con peso (λ + nα)(Hα ) = λ(Hα ) + 2n perché α(Hα ) = 2.
Dalla teoria delle rappresentazioni di sl(2) segue che se k è un peso di una rappresentazione
di sl(2), allora anche −k è un peso con la stessa molteplicità e che ρ(X±α )k : V[β],k → V[β],−k è
un isomorfismo (con segno − se k > 0). Poiché
−k = −λ(Hα ) = λ(Hα ) − 2λ(Hα ) = (λ − λ(Hα )α)(Hα )
il sottospazio di V[λ] con peso −λ(Hα ) per sl(2) è Vλ−λ(Hα )α = Vsα (λ) .
8.2
Il peso massimale di una rappresentazione irriducibile
8.2.1 La camera di Weyl. Poiché il gruppo di Weyl W permuta i pesi di ogni rappresentazione di g, è interessante avere un modo di determinare un unico elemento (almeno, quasi
sempre) in ogni orbita di W .
Sia ∆ = {α1 , . . . , αn } ⊂ R l’insieme delle radici semplici (per una scelta di mappa regolare
l). La camera di Weyl fondamentale (chiusa) è il sottoinsieme di h∗R dato da:
C = C(∆) = {x ∈ h∗R : (x, α) ≥ 0 ∀α ∈ ∆ }.
Allora si può mostrare che per ogni x ∈ h∗R esiste un w ∈ W tale che w(x) ∈ C. Questo w è
unico tranne se (w(x), α) = 0 per un α ∈ ∆, nel qual caso anche (sα w)(x) = w(x) ∈ C quindi
w non è unico (vedi [FH], Lemma D.31). L’insieme α⊥ delle x ∈ C con (x, α) = 0 per un α ∈ ∆
è detto una parete della camera di Weyl.
8 RAPPRESENTAZIONI DI ALGEBRE DI LIE SEMPLICI
149
8.2.2 I pesi dominanti. Un peso λ ∈ ΛW è detto dominante se λ ∈ ΛW ∩ C. L’insieme dei
pesi dominanti è indicato con
nX
o
+
ΛW := ΛW ∩ C =
mi λi : mi ∈ Z≥0 ,
l’ultima ugualianza segue dal fatto che <
P
mi λi , αj >= mj .
8.2.3 Vettori massimali e pesi massimali. Sia ρ : g → End(V ) una rappresentazione
di g. Un peso λ di ρ è detto massimale se esiste v ∈ Vλ , v 6= 0, tale che ρ(Xα )v = 0 per ogni
α ∈ R+ . Il vettore v ∈ Vλ è detto vettore massimale di ρ.
Ciò generalizza il concetto di vettore massimale per una rappresentazione di sl(2), vedi 5.5.5.
Nel caso g = sl(2) i pesi massimali (in quel caso, interi n ∈ Z≥0 ) classificano le rappresentazioni
irriducibili di g (vedi 5.5.10).
Ogni α ∈ R+ è una combinazione, con coefficienti interi non-negativi, di radici semplici.
Poiché gα+β = [gα , gβ ] se α + β è una radice, si può mostrare che Xα è un prodotto (per il
prodotto di Lie in g) delle Xαi . Quindi ρ(Xα ) è un prodotto delle ρ(Xαi ). Perciò un vettore
v ∈ Vλ è massimale se e solo se ρ(Xαi )v = 0 per ogni radice semplice αi .
Se λ è un peso tale che Vλ+αi = 0 per ogni radice semplice, allora, poiché ρ(Xα )(Vλ ) ⊂ Vλ+α ,
ogni v ∈ Vλ , v 6= 0, è un vettore massimale di ρ.
8.2.4 Pesi massimali sono dominanti. Mostriamo che un peso massimale è un peso
dominante. Sia λ un peso massimale, e sia v ∈ Vλ un vettore massimale. Se hHα , X±α i ⊂ g è
la copia di sl(2) definita da α ∈ R+ , allora il vettore massimale v è un vettore massimale per
questa sl(2). Perciò ρ(Hα )v = λ(Hα )v con λ(Hα ) ≥ 0. Per ogni radice semplice αi ∈ R+ si ha
allora 0 ≤ λ(Hαi ) =< λ, αi >, quindi λ è dominante.
8.2.5 Esistenza di un vettore massimale. L’insieme dei pesi di una rappresentazione ρ di
g è un insieme finito, quindi esiste un peso λ con l(λ) ≥ l(µ) per ogni peso µ di ρ. Poiché l è
lineare e l(α) > 0 per ogni α ∈ R+ si ha l(λ + α) > l(λ) e quindi Vλ+α = 0 per ogni α ∈ R.
Quindi λ è un peso massimale di ρ e ogni v ∈ Vλ , v 6= 0 è un vettore massimale di ρ.
8.2.6 La rappresentazione irriducibile generata da un vettore massimale. Sia v ∈ Vλ
un vettore massimale. Sia W il sottospazio generato dalle immagini di v mediante successive
applicazioni di elementi di gβ con β ∈ R− .
Mostriamo che W è una sottorappresentazione di g. Sia R− = {β1 , . . . , βN },
Wn := h ρ(Xβi1 ) . . . ρ(Xβik )v : βij ∈ R− , 0 ≤ k ≤ n i,
W = ∪∞
n=0 Wn .
Poiché ρ : g → End(V ) è lineare, basta mostrare che ρ(X)x ∈ W per ogni x ∈ W e X =
H, Xβ , Xα con H ∈ h, β ∈ R− e α ∈ R+ .
Sia x = ρ(Xβi1 ) . . . ρ(Xβik )v ∈ Wn con k ≤ n. Allora ρ(H)x = µ(H)x con µ = λ + βi1 +
. . . + βik (vedi 8.1.6), quindi ρ(H)x ∈ W e, in più, x ∈ Vµ . In particolare,
ρ(h)Wn ⊂ Wn
(∀n ∈ Z≥0 ),
8 RAPPRESENTAZIONI DI ALGEBRE DI LIE SEMPLICI
150
e segue che ρ(H)W ⊂ W per ogni H ∈ h. L’unico vettore (a meno di moltiplicazione per uno
scalare) in W con peso λ è v:
Wλ = Cv,
e ogni altro peso di W si scrive come µ = λ + βi1 + . . . + βik con k ≥ 1 e βij ∈ R− .
La definizione di Wn mostra che per x ∈ Wn e β ∈ R− si ha ρ(Xβ )x ∈ Wn+1 . Segue che
ρ(Xβ )W ⊂ W per ogni β ∈ R− .
In fine, mostriamo per induzione su n che
ρ(Xα )Wn ⊂ Wn
∀Xα ∈ gα , ∀α ∈ R+ ;
da ciò segue che ρ(Xα )W ⊂ W per ogni α ∈ R+ . Se n = 0, si ha W0 = Cv e ρ(Xα )v = 0 perché
v è un vettore massimale. Se x ∈ Wn e n > 0, allora x = ρ(Xβ )y con y ∈ Wn−1 e β ∈ R− ,
quindi
ρ(Xα )x = ρ(Xα )ρ(Xβ )y
= ρ(Xβ )ρ(Xα )y + ρ([Xα , Xβ ])y.
Si noti che Y := [Xα , Xβ ] ∈ gα+β . Se α + β 6∈ R ∪ {0}, gα+β = 0 e quindi Y = 0. Se
α + β = 0, Y ∈ h e quindi ρ(Y )y ∈ Wn . Se α + β ∈ R− allora ρ(Y )y ∈ Wn perché y ∈ Wn−1 .
Se α + β ∈ R+ si ha ρ(Y )y ∈ Wn−1 per l’ipotesi di induzione. Quindi in ogni caso si ha
ρ([Xα , Xβ ])y ∈ Wn . Sempre per l’ipotesi di induzione, per y ∈ Wn−1 si ha ρ(Xα )y ∈ Wn−1 , e
perciò ρ(Xβ )ρ(Xα )y ∈ Wn . Allora anche ρ(Xβ )ρ(Xα )y + ρ([Xα , Xβ ])y ∈ Wn e concludiamo che
ρ(Xα )x ∈ Wn .
8.2.7 La rappresentazione W è irriducibile. Mostriamo che la rappresentazione W di
g generata dal vettore massimale v è irriducibile. Sia W = W 0 ⊕ W 00 , dove W 0 , W 00 sono
sottorappresentazioni. Decomponendo ciascuna in spazi peso, lo spazio peso Wλ = Cv, che ha
dimensione uno, è contenuto in W 0 oppure W 00 . Poiché la rappresentazione di g generata da v
è W si ha W 0 = W oppure W 00 = W , quindi W è irriducibile.
8.2.8 Il vettore massimale è unico. Mostriamo che v è l’unico vettore massimale (a meno
di moltiplicazione per uno scalare) nella rappresentazione W . Sia v 0 ∈ W , v 0 (6= 0) un vettore
massimale. Allora v 0 genera una sottorappresentazione W 0 ⊂ W . Dato che W è irriducibile e
W 0 6= 0, si ha allora W 0 = W . Sia µ ∈ ΛW il peso di v 0 , allora µ = λ + βi1 + . . . + βik per certi
βir ∈ R− . Sia l : h∗R → R una mappa regolare lineare tale che l(β) < 0 per ogni β ∈ R− , allora
l(µ) ≤ l(λ) e si ha l(µ) = l(λ) se e solo se µ = λ.
Ogni altro peso di W 0 si scrive come τ = µ + βj1 + . . . + βjl per certi βjs ∈ R− , in particolare
l(τ ) ≤ l(µ). Dato che v ∈ W 0 e il peso di v è λ segue allora che l(λ) ≤ l(µ).
Quindi l(µ) = l(λ) e perciò µ = λ. Dato che Wλ = Cv, segue v 0 ∈ Cv. In particolare, una
rappresentazione irriducibile ha un unico vettore massimale, a meno di moltiplicazione per uno
scalare.
8.2.9 Conclusione. Data una rappresentazione ρ : g → End(V ), il teorema di Weyl (vedi
5.4.6) afferma che V = V1 ⊕ V2 ⊕ . . . ⊕ Vk , dove ogni Vi è una rappresentazione irriducibile.
I risultati appena ottenuti mostrano che ogni Vi ha un vettore massimale vi e che il vettore
8 RAPPRESENTAZIONI DI ALGEBRE DI LIE SEMPLICI
151
massimale vi genera una sottorappresentazione irriducibile di Vi , che è quindi Vi . In particolare,
la dimensione dello spazio generato dai vettori massimali è k.
Se la rappresentazione ρ è irriducibile, allora ha un unico vettore massimale (a meno di
moltiplicazione per uno scalare). Il peso λ = λρ del vettore massimale è allora determinato
in modo unico dalla rappresentazione. Questo peso λ è massimale (per definizione) e abbiamo
mostrato che è quindi dominante (si veda 8.2.4).
Mostriamo che il peso λ determina in modo unico (a meno di isomorfismi) la rappresentazione irriducibile W generata dal vettore massimale. Questa rappresentazione irriducibile
verrà indicata con V (λ).
Poi c’è da stabilire se un peso dominante λ determini una rappresentazione irriducibile il
cui vettore massimale abbia peso λ (si vedano 8.2.12 e 8.2.13).
8.2.10 Unicità della rappresentazione irriducibile. Due rappresentazioni irriducibili
ρV , ρW di g su spazi vettoriali V, W rispettivamente, con vettori massimali v ∈ V e w ∈ W e
lo stesso peso λ ∈ Λ+
W sono isomorfe. Per vedere questo, si consideri la somma diretta V ⊕ W ,
che è una rappresentazione di g con
ρ : g −→ End(V ⊕ W ),
ρ(X)(x, y) := (ρV (X)x, ρW (X)y).
Sia U ⊂ V ⊕ W la sottorappresentazione generata da (v, w). Allora U è irriducibile perché
(v, w) è un vettore massimale in V ⊕ W . La proiezione
πV : U −→ V,
(x, y) 7−→ x,
soddisfa πV ρ(X) = ρV (X)πV
per ogni X ∈ g come si verifica facilmente. Quindi πV è un omomorfismo di rappresentazioni e
perciò ker(πV ) e im(πV ) sono sottospazi invarianti (vedi 5.3.3). Poiché (v, w) ∈ U e πV (v, w) =
v ∈ V , si ha ker(πV ) 6= U e im(πV ) 6= 0. Dato che U e V sono irriducibili, si ha allora
ker(πV ) = 0 e im(πV ) = V , quindi πV è un isomorfismo. Similmente, usando πW , si trova che
U∼
= W , quindi V ∼
= W.
8.2.11 Prodotti tensoriali e pesi. Il prodotto tensoriale di rappresentazioni ρV , ρW di
un’algebra di Lie g è definito da
ρV ⊗W (X)(v ⊗ w) = (ρ(X)v) ⊗ w + v ⊗ (ρW (X)w).
In particolare, se X = H ∈ g e
ρV (H)v = µ1 (H)v,
ρW (H)w = µ2 (H)w
=⇒
ρV ⊗W (H)(v ⊗ w) = (µ1 + µ2 )(H)(v ⊗ w).
Quindi se Vµ1 e Wµ2 sono spazi peso di V e W , il loro prodotto tensoriale è contenuto in uno
spazio peso di V ⊗ W :
Vµ1 ⊗ Wµ2 ⊂ (V ⊗ W )µ1 +µ2 .
In generale si ha Vµ1 ⊗ . . . ⊗ Vµk ⊂ Vµ1 +...+µk .
8.2.12 Le rappresentazioni irriducibili fondamentali. I pesi fondamentali λ1 , . . . , λn ,
definiti da < λi , αj >= δij (vedi 8.1.4), sono in particolare pesi dominanti (vedi 8.2.2). Un
8 RAPPRESENTAZIONI DI ALGEBRE DI LIE SEMPLICI
152
teorema fondamentale mostra che esistono rappresentazioni irriducibili V (λi ) di g con peso
massimale λi , cioè
ρi : g −→ End(V (λi )),
ρi (H)vi = λi (H)vi ,
ρi (Xα )vi = 0,
per ogni α ∈ R+ , dove vi ∈ V (λi ) è un vettore massimale (che è unico a meno di moltiplicazione
per una costante). Queste rappresentazioni si chiamano rappresentazioni fondamentali di g.
8.2.13 La classificazione di rappresentazioni irriducibili. Ogni peso dominantePλ è una
combinazione lineare con coefficienti interi non-negativi dei pesi fondamentali. Sia λ = i mi λi ,
mi ∈ Z≥0 . Consideriamo il prodotto tensoriale
V := V (λ1 ) ⊗ . . . ⊗ V (λ1 ) ⊗ V (λ2 ) ⊗ . . . ⊗ V (λ2 ) ⊗ . . . ⊗ V (λn ) ⊗ . . . ⊗ V (λn ) .
|
{z
} |
{z
}
|
{z
}
m1
m2
mn
Sia vi ∈ V (λi ) un vettore massimale e sia
v := v1 ⊗ . . . ⊗ v1 ⊗ v2 ⊗ . . . ⊗ v2 ⊗ . . . ⊗ vn ⊗ . . . ⊗ vn
{z
} |
{z
}
|
{z
}
|
m1
m2
(∈ V ).
mn
Dato che vi ∈ V (λi ) è un vettore massimale, cioè ρi (Xα )vi = 0 per ogni αi ∈ R+ , si ha
ρ(Xα )v = ρ1 (Xα )v1 ⊗ v1 . . . ⊗ vn + . . . + v1 ⊗ v1 . . . ⊗ ρn (Xα )vn = 0 + . . . + 0 = 0.
Quindi v è un vettore massimale in V con peso (massimale e quindi dominante):
ρ(H)v = (m1 λ1 + m2 λ2 + . . . + mn λn )(H)v = λ(H)v.
Perciò v genera una rappresentazione irriducibile W ⊂ V con (unico) peso massimale λ (vedi
8.2.6). Questa rappresentazione W è l’unica rappresentazione irriducibile con peso massimale
λ (vedi 8.2.10) ed è indicata con V (λ) := W .
In questo modo si conclude la classificazione delle rappresentazioni irriducibili di un’algebra di Lie complessa semplice: esse corrispondono ai pesi dominanti. In particolare sono
parametrizate da n-tuple di interi (m1 , . . . , mn ) dove n è il rango
P dell’algebra di Lie, e ogni
mi ∈ Z≥0 . La rappresentazione corrispondente è V (λ) con λ =
mi λi .
8.2.14 Formula per la dimensione di V (λ). La dimensione della rappresentazione V (λ)
corrispondente al peso dominante λ è ([FH], Cor. 24.6):
Q
X
α∈R+ (λ + δ, α)
α.
dim V (λ) = Q
,
dove δ = 12
α∈R+ (δ, α)
+
α∈R
Un esempio: se g = sl(3), si ha R+ = {L1 − L2 , L2 − L3 , L1 − L3 } e quindi
Y
δ = L1 − L3 ,
(δ, α) = 1 · 1 · 2 = 2.
α∈R+
8 RAPPRESENTAZIONI DI ALGEBRE DI LIE SEMPLICI
153
Se λ = m1 λ1 + m2 λ2 = a1 L1 + a2 L2 , con a1 = m1 + m2 , m2 = a2 , allora
Y
(λ + δ, α) = (m1 + 1)(m2 + 1)(m1 + m2 + 2) = (a1 − a2 + 1)(a2 + 1)(a1 + 2),
α∈R+
quindi la dimensione di V (λ) è:
dim V (m1 λ1 + m2 λ2 ) = (m1 + 1)(m2 + 1)(m1 + m2 + 2)/2 = (a1 − a2 + 1)(a2 + 1)(a1 + 2)/2.
8.3
Le rappresentazioni irriducibili di sl(n)
8.3.1 I pesi fondamentali di sl(n). Un insieme di radici semplici del sistema di radici R di
sl(n), indicato con An−1 , è dato dalle αi = Li − Li+1 ∈ Rn /hL1 + . . . + Ln i, con 1 ≤ i ≤ n − 1.
Si noti che, con
λ1 = L1 ,
λ2 = L1 + L2 , . . . , λn−1 = L1 + L2 + . . . + Ln−1 = −Ln
si ha
< λi , αj >= δij ,
dove il prodotto scalare (·, ·) viene calcolato tramite l’isometria di h∗R con E in 7.1.15. In
particolare, (α, α) = 2 per ogni radice α e perciò < λ, α >= (λ, α). Quindi questi λi sono i pesi
fondamentali.
I pesi dominanti di sl(n) sono allora
Pn−1
Λ+
W = {
i=1 mi λi : mi ∈ Z≥0 }
= {(m1 + . . . + mn−1 )L1 + (m2 + . . . + mn−1 )L2 + . . . + mn−1 Ln−1 : mi ∈ Z≥0 }
P
cioè un peso n−1
i=0 ai Li è dominante se a1 ≥ a2 . . . ≥ an−1 (e poi an−1 = mn−1 , an−2 − an−1 =
mn−2 ecc.).
Nella rappresentazione
standard Cn di sl(n), l’algebra di Cartan è data dalle H =
P
diag(t1 , . . . , tn ) con
ti = 0 e Li (H) = ti . In particolare si ha la decomposizione in spazi
peso:
Cn = ⊕ni=1 Cei ,
Hei = Li (H)ei
(1 ≤ i ≤ n)
e ei è l’i-esimo vettore della base standard di Cn . L’unico peso dominante in {L1 , . . . , Ln } è
L1 = λ1 quindi si ha:
V (λ1 ) = Cn .
Si noti anche che Xα , per α ∈ R+ , è una matrice triangolare superiore con zeri sulla diagonale,
quindi Xα e1 = 0, che verifica che e1 ∈ (Cn )λ1 è un vettore massimale.
La rappresentazione di sl(n) su ∧k Cn (⊂ (Cn )⊗k ), per k < n, ha la seguente decomposizione
in spazi peso:
∧k Cn = ⊕(∧k Cn )λ ,
λ = Li1 + Li2 + . . . + Lik ,
Vλ = C ei1 ∧ ei2 ∧ . . . ∧ eik ,
dove i1 < . . . < ik . L’unico peso dominante tra le Li1 + Li2 + . . . + Lik , con indici distinti, è
L1 +L2 +. . .+Lk = λk (bisogna ricordare Ln = −(L1 +. . .+Ln−1 )). Quindi la rappresentazione
8 RAPPRESENTAZIONI DI ALGEBRE DI LIE SEMPLICI
154
è irriducibile perché ogni sottorappresentazione non banale avrebbe un peso dominante. Perciò
abbiamo trovato le rappresentazioni irriducibili fondamentali, esse sono i
V (λk ) = ∧k Cn .
Il prodotto wedge
∧k Cn × ∧n−k Cn −→ ∧n Cn ∼
= C,
(ω, θ) 7−→ ω ∧ θ = cω,θ e1 ∧ . . . ∧ en
dà una dualità ∧k Cn ∼
= (∧n−k Cn )∗ . Quindi le rappresentazioni V (λk ) e V (λn−k ) di sl(n) sono
rappresentazioni duali:
V (λk ) ∼
= (V (λn−k ))∗ .
8.3.2
Rappresentazioni di sl(n) e funtori di Schur. La rappresentazione Vλ , con λ =
P
mi λi , è una sottorappresentazione di un prodotto tensoriale:
V (λ) ,→ ⊗k (∧k V )⊗mk ⊂ V ⊗
Pn−1
k=1
kmk
,
V = Cn .
La decomposizione del prodotto tensoriale V ⊗m in rappresentazioni irriducibili di GL(V )
è data nel Teorema 3.2.6. Mostriamo che la restrizione a SL(V ) di una rappresentazione
irriducibile ρ di GL(V ) su uno spaziop
vettoriale W rimane irriducibile. Ogni A ∈ GL(V )
n
si scrive come A = (tI)B con t = ( det(A))−1 , n = dim V , e B ∈ SL(V ). Poiché tI
commuta con tutti gli elementi di GL(V ), anche ρ(tI) commuta con tutto ρ(GL(V )), e quindi,
per il Lemma di Schur 2.1.7, ρ(tI) = sIW per un s = s(t) ∈ C. Se W = W1 ⊕ W2 è una
decomposizione di W in sottospazi invarianti per ρ(SL(V )), allora, poiché sIW (Wi ) ⊂ Wi ,
questi sottospazi sono invarianti anche per ρ(GL(V )), quindi uno dei due è {0} e l’altro W .
Segue che ρ : SL(V ) → GL(W ) è irriducibile.
In particolare, nella decomposizione del Teorema 3.2.6:
X
T m V = ⊕p (Sp V )mp ,
con p = (p1 , . . . , pr ), pi ≥ pi−1 > 0,
pi = m
i
in rappresentazioni irriducibili per GL(V ), parametrizzate dalle partizioni p di m, ogni Sp V è
una rappresentazione irriducibile di SL(V ) = SL(n, C) e quindi di sl(n). Il peso dominante
che corrisponde alla rappresentazione irriducibile di Sp V è:
Sp V ∼
= V (p1 L1 + p2 L2 + . . . + pr Lr ).
Poiché L1 + . . . + Ln−1 + Ln = 0, le rappresentazioni definite da p = (p1 , . . . , pr ) e pa =
(p1 + a, . . . , pr + a, a, . . . , a), partizioni di m e m + na rispettivamente, sono isomorfe.
Per mostrare che Sp V ∼
= V (p1 L1 + p2 L2 + . . . + pr Lr ), basta trovare un peso massimale in
Sp V , che è unico perché Sp V è irriducibile, e verificare che è uguale a p1 L1 + p2 L2 + . . . + pr Lr .
Si ricordi che Sp V = ap bp T m V e
bp V ⊗m ⊂ (∧µ1 V ) ⊗ . . . ⊗ (∧µs V ),
8 RAPPRESENTAZIONI DI ALGEBRE DI LIE SEMPLICI
155
dove µi è il numero dei quadrati nella i-esima colonna del diagramma di Young di p (vedi
3.2.11). In particolare, s = p1 , il numero delle colonne è uguale al numero dei quadrati nella
prima riga. Un vettore massimale del lato a destra è
v = (e1 ∧ e2 ∧ . . . ∧ eµ1 ) ⊗ . . . ⊗ (e1 ∧ e2 ∧ . . . ∧ eµs ),
Hv = (p1 L1 + . . . + pr Lr )(H)v,
perché Hei = Li (H)ei e e1 compare s = p1 volte in v e ha peso L1 , poi ci sono p2 colonne
con almeno due quadrati e perciò e2 compare p2 volte, ecc. Il vettore v è massimale perché un
Xα , per α ∈ R+ è dato da un Ei,j , con i < j, che manda ej 7→ ei e ek 7→ 0 se k 6= j, quindi
v 7→ 0. Applicando ap a v otteniamo un vettore di Sp V e poiché ap v è una simmetrizzazione
parziale di v il peso di ap v ∈ Sp V è uguale al peso di v. Da ciò segue l’isomorfismo Sp V ∼
=
V (p1 L1 + p2 L2 + . . . + pr Lr ).
Nel caso n = 3 verifichiamo esplicitamente che la dimensione di S(a1 ,a2 ) V , calcolato usando
3.2.10 è uguale alla dimensione di V (a1 L1 + a2 L2 ), calcolata con 8.2.14. Il diagramma di Young
della partizione m = a1 + a2 è:
...
...
a1 +1
a1
a2
a2 −1
...
a1 −a2
a1 −a2
+2
...
...
2
1
,
1
dove abbiamo indicato gli hooklength hij nei quadrati. Allora si ha, per n = 3,
! a
!
a1
2
Yn−i+j
Y
Y
a1 − a2 + 1
dim S(a1 ,a2 ) V =
=
(2 + j)
(1 + j)
hij
(a1 + 1)! a2 !
i,j
j=1
j=1
quindi dim S(a1 ,a2 ) V = (a1 + 2)(a2 + 1)(a1 − a2 + 1)/2 che è proprio la formula di 8.2.14 per
dim V (a1 L1 + a2 L2 ).
8.3.3 Il prodotto simmetrico della rappresentazione standard. Mostriamo che la
rappresentazione V (kλ1 ) (per k ≥ 0) di sl(n) è la rappresentazione S k V (λ1 ), il k-esimo prodotto
simmetrico della rappresentazione standard V = V (λ1 ). In più determiniamo gli spazi peso e
mostriamo che ogni spazio peso ha dimensione 1.
Consideriamo (si veda anche 5.3.4 per il caso n = 2) la rappresentazione del gruppo di Lie
SL(n, R) su C ∞ (Rn ) definita da:
r : SL(n, R) −→ Aut(C ∞ (Rn )),
(r (A) F )(v) := F (t Av)
(v ∈ Rn ).
Sia ρ := (dr)I : sl(n, R) → End(C ∞ (Rn )) la rappresentazione dell’algebra di Lie associata. Si
mostra facilmente che, per i 6= j,
ρ(Ei,j ) = xi
∂
,
∂xj
ρ(t1 E1,1 + . . . + tn En,n ) = t1 x1
∂
∂
+ . . . + tn xn
.
∂x1
∂xn
Sia C[x1 , . . . , xn ]m lo spazio vettoriale dei polinomi omogenei di grado m. Una base di
C[x1 , . . . , xn ]m è data dai monomi
xa11 xa22 . . . xann ,
a1 + a2 + . . . + an = m.
8 RAPPRESENTAZIONI DI ALGEBRE DI LIE SEMPLICI
156
E’ facile verificare che C[x1 , . . . , xn ]m è un sottospazio sl(n, R)-invariante che è anche sl(n) =
sl(n, R) ⊗R C invariante. La complessificazione di ρ dà allora le rappresentazioni
ρm : sl(n) −→ End(C[x1 , . . . , xn ]m ).
Un vettore massimale di ρm è un F ∈ C[x1 , . . . , xn ]m tale che ρm (Xα )F = 0 per ogni α ∈ R+ .
Allora α = Li − Lj con i < j, ρm (Xα ) = xi ∂/∂xj e F soddisfa:
xi
∂F
= 0
∂xj
1 ≤ i < j ≤ n.
In particolare, ∂F/∂xj = 0 per j = 2, . . . , n quindi F = cxm
1 per uno scalare c ∈ C. Quindi
ρm ha un unico vettore massimale (a meno di moltiplicazione per uno scalare) e perciò ρm è
irriducibile. Il peso del vettore massimale è:
ρm (H)(xm
1 ) = (t1 x1
∂
∂
m
+ . . . + tn xn
)(xm ) = mt1 xm
1 = mL1 (H) x1 ,
∂x1
∂xn 1
quindi il peso massimale è mL1 . Dato che λ1 = L1 , questo mostra che
V (mλ1 ) ∼
= C[x1 , . . . , xn ]m = S m V,
detto l’m-esimo prodotto simmetrico della rappresentazione standard V . Si verifica che ogni
monomio è un vettore peso:
ρm (H)(xa11 xa22 . . . xann ) = (a1 L1 + a2 L2 + . . . + an Ln )(H)xa11 xa22 . . . xann .
P
I pesi sono quindi della forma a1 L1 + a2 L2 + . . . + an Ln con ai ≥ 0 e ai = m. Questi pesi sono
distinti tra di loro, perciò ogni spazio peso ha dimensione uno cioè ogni peso ha moltiplicità
uno.
9 GRUPPI ORTOGONALI
9
157
Gruppi ortogonali
Testi consigliati: [FH].
9.1
Forme bilineari simmetriche e forme quadratiche
9.1.1 Forme bilineari simmetriche. Sia V uno spazio vettoriale su un campo K (K = R
oppure C) di dimensione n. Sia
B : V × V −→ K
una forma bilineare simmetrica. Sia ei una base di V , allora B è definita da una matrice
simmetrica
A := (B(ei , ej ))1≤i,j≤n = t A,
B(x, y) = t xAy.
Per S ∈ GL(n, K) si ha allora
B(Sx, Sy) = t x(t SAS)y.
Due matrici simmetriche A, A0 sono dette congruenti se A = t SAS per un S ∈ GL(n, K). Una
forma bilineare simmetrica ψ definisce quindi una classe di congruenza di matrici simmetriche.
Data una matrice simmetrica A, esiste una matrice S ∈ GL(n, K) tale che
t
SAS = diag(1, . . . , 1, −1, . . . , −1, 0, . . . , 0),
| {z } | {z } | {z }
p
q
p + q + r = n = dim V.
r
(si veda [A], 7.2, Teorema 2.9). Nel caso K = C si può sempre trovare una S tale che q = 0 (se
B(x, x) = −1 allora B(ix, ix) = i2 B(x, x) = +1).
9.1.2 Legge di Sylvester. ([A], Capitolo 7, Teorema 2.11) I numeri p, q, r che compaiono
nella matrice diagonale qui sopra sono determinati univocamente dalla classe di congruenza di
A, cioè dalla forma bilineare B.
9.1.3 Forme bilineari simmetriche nondegeneri. Una forma bilineare B è detta nondegenere se per ogni v ∈ V , v 6= 0, esiste un w ∈ V tale che B(v, w) 6= 0. Equivalentemente, se
A è una matrice simmetrica che definisce B, allora det A 6= 0, oppure nella forma standard di
A qui sopra si ha r = 0.
Una forma bilineare simmetrica nondegenere è quindi determinata, a meno di isomorfismi
di V , da due interi non-negativi p, q con p + q = n e la matrice simmetrica in forma standard
corrispondente è indicata con:
Ip,q := diag(1, . . . , 1, −1, . . . , −1),
| {z } | {z }
p
p + q = n.
q
9.1.4 Forme quadratiche. Una forma quadratica Q su V è un’applicazione
Q : V −→ K,
tale che Q(x) = B(x, x)
9 GRUPPI ORTOGONALI
158
per una certa forma bilineare simmetrica B. Si noti che, rispetto ad una base dove B è data
dalla matrice simmetrica A, si ha:
Q(x + y) = t (x + y)A(x + y) = t xAx + t xAy + t yAx + t yAy = Q(x) + Q(y) + 2B(x, y),
dove t xAy = B(x, y) = B(y, x) = t yAx, quindi Q determina B in modo unico: B(x, y) =
(Q(x + y) − Q(x) − Q(y))/2. (Equivalentemente, si definisce una forma quadratica richiedendo
che (x, y) 7→ Q(x + y) − Q(x) − Q(y) sia un’applicazione bilineare). Si dice che Q è nondegenere
se B lo è.
Siano K = R e Q nondegenere. Allora esiste una base di V e ci sono p, q con p + q = n tali
che
Q(x) = t xIp,q x = x21 + . . . + x2p − (x2p+1 + . . . + x2n ).
Nel caso K = C e Q nondegenere, esiste una base tale che
Q(x) = t xIn,0 x = x21 + . . . + x2n .
In questo caso conviene spesso scegliere un’altra base di V . Nel caso n = 2m quella per cui le
coordinate sono:
m
m
X
X
2
2
yj = xj + ixm+j , yj+m = xj − ixm+j ,
quindi Q(x) =
(xj + xj+m ) =
yj yj+m ,
j=1
j=1
Pm
2
.
nel caso n = 2m + 1 dispari, si prende y2m+1 = x2m+1 quindi Q(x) = ( j=1 yj yj+m ) + y2m+1
Il gruppo ortogonale O(Q) di una forma quadratica è il sottogruppo di GL(V ) definito da
O(Q) = {S ∈ GL(V ) : Q(Sx) = Q(x) } = {S ∈ GL(V ) : B(Sx, Sy) = B(x, y) ∀x, y ∈ V },
l’ultima ugualianza segue da 2B(x, y) = Q(x + y) − Q(x) − Q(y).
Nel caso K = R i gruppi ortogonali sono indicati con
O(p, q) := O(Ip,q ),
O(n, R) := O(In,0 )
dove si scrive il campo R in modo esplicito per non confondersi con
O(n) = O(In ) = O(n, C)
per il gruppo ortogonale complesso. Visto che il gruppo ortogonale O(p, q) è isomorfo a O(q, p)
(basta moltiplicare la matrice Ip,q con −1 e permutare i vettori di base), consideriamo soltanto
il caso p ≥ q nella sezione seguente.
9.1.5 Componenti connesse dei gruppi ortogonali. I gruppi ortogonali O(n, R) e O(n)
hanno due componenti connesse, la componente connessa contenente l’identità I è SO(n, R)
rispettivamente SO(n). I gruppi O(p, q) con pq 6= 0 hanno quattro compomenti connesse.
Mostriamo che O(p, q) ha almeno 4 componenti connesse. Scriviamo una matrice M ∈
O(p, q) nel modo seguente
A B
M=
,
A ∈ Mp (R), B ∈ Mp,q (R), C ∈ Mq,p (R), D ∈ Mq (R).
C D
9 GRUPPI ORTOGONALI
159
Allora A è invertibile: se Ax = 0 per x ∈ Rp allora
A B
x
0
=
,
y = Cx ∈ Rq ,
C D
0
y
P 2
P
e quindi Qp,q ((x, 0)) =
xi ≥ 0 e Qp,q (M (x, 0)) = Q((0, y)) = − yj2 ≤ 0. Poiché M ∈
O(p, q) si ha x = y = 0 e quindi A è invertibile. In particolare, l’applicazione
δ : O(p, q) −→ R − {0},
M 7−→ det(A)
è ben definita e continua. Adesso consideriamo l’applicazione continua:
(det, δ) : O(p, q) −→ (R − {0})2 ,
M 7−→ (det(M ), δ(M )).
Sia M la matrice diagonale con M11 = b, Mnn = ab e Mii = 1 per i 6= 1, n. Allora per
a, b ∈ {±1} si ha M ∈ O(p, q) e (det(M ), δ(M )) = (ab2 , b) = (a, b). Poiché (R − {0})2 ha
quattro componenti connesse, concludiamo che anche O(p, q) ha almeno quattro componenti
connesse.
9.2
Esempi di gruppi ortogonali
9.2.1 Il gruppo ortogonale O(2, R). Il gruppo O(2, R) è il
ortogonali di GL(2, R). Si ha A ∈ O(2, R) ⇔ t AA = I che dà
coefficienti di A:
2
a c
a b
a + c2 ab + cd
=
=
b d
c d
ab + cd b2 + d2
sottogruppo delle matrici
le condizioni seguenti sui
1 0
0 1
.
Poiché ab + cd = 0 e (a, c), (b, d) 6= (0, 0) esiste un λ ∈ R, λ 6= 0, tale che (b, d) = (−λc, λa).
L’equazione 1 = b2 + d2 = λ2 (a2 + c2 ) = λ2 mostra che λ = ±1.
Nel caso λ = 1, si ha (b, d) = (−c, a). Poiché a2 + c2 = 1, il punto (a, c) ∈ R2 sta sulla
circonferenza con raggio 1 e quindi esiste un φ ∈ R tale che a = d = cos φ, c = −b = sen φ e
quindi
cos φ −sen φ
Aφ =
,
Aφ Aψ = Aφ+ψ
sen φ cos φ
che è la matrice di una rotazione per φ con centro (0, 0). Si noti che det A = 1. Per verificare
che Aφ Aψ = Aφ+ψ , cioè che φ 7→ Aφ è un omomorfismo di gruppi di Lie R → SO(2, R), si usano
le ben note formule che seguono da eiφ eiψ = ei(φ+ψ) , cioè
(cos φ + isen φ)(cos ψ + isen ψ) = cos(φ + ψ) + isen (φ + ψ).
Si noti che Aφ = exp(φX) dove X è un generatore di Lie(SO(2, R)), si veda 5.2.8.
Nel caso λ = −1 si ha (b, d) = (c, −a) e det A = a(−a) − b2 = −(a2 + b2 ) = −1. Segue
che O(2, R) ha due componenti connesse, ciascuna omeomorfa alla circonferenza S 1 . Come
9 GRUPPI ORTOGONALI
160
prima, si ha (a, c) = (cos φ, sen φ). Sia ψ = φ/2, allora (si usi per esempio (eiψ )2 = e2iψ cioè
(cos ψ + isen ψ)2 = cos 2ψ + isen 2ψ):
a = −d = cos φ = cos 2ψ = cos2 ψ − sen 2 ψ,
b = c = sen φ = sen 2ψ = 2 cos ψsen ψ.
Si verifica che A è la matrice della riflessione rispetto all’iperpiano v ⊥ definito da v =
(−sen ψ, cos ψ), cioè Ax = x − 2(x, v)v.
Il prodotto di due riflessioni è in SO(2, R) e quindi è una rotazione. Ogni rotazione è il
prodotto di due riflessioni, per esempio, A, B qui sotto sono riflessioni e
cos φ sen φ
1 0
cos φ −sen φ
A=
,
B=
,
AB =
sen φ − cos φ
0 −1
sen φ cos φ
è la rotazione per φ.
9.2.2 Il gruppo di Lorentz O(1, 1). Il gruppo O(1, 1) è il sottogruppo delle matrici di
GL(2, R) che soddisfano t AI1,1 A = I1,1 , cioè:
2
a c
1 0
a b
a − c2 ab − cd
1 0
=
=
.
ab − cd b2 − d2
0 −1
b d
0 −1
c d
Poiché ab − cd = 0 esiste un λ ∈ R tale che (b, d) = (λc, λa), L’equazione 1 = b2 − d2 =
λ2 (a2 − c2 ) = λ2 mostra che λ = ±1.
Per parametrizzare le soluzioni dell’equazione a2 − c2 = 1, poniamo u = a + c. Poiché
(a + c)(a − c) = 1, si ha u−1 = a − c, in particolare u 6= 0, cioè u ∈ R>0 oppure u ∈ R<0 .
Dunque
a = (u + u−1 )/2,
c = (u − u−1 )/2,
con u = a + c,
u−1 = a − c.
Si noti che O(1, 1) ha quattro componenti connesse, in corrispondenza con il segno di λ e di
u = a + b, ciascuno di queste componenti è omeomorfa con R>0 . Poiché det A = ad − bc =
a(λa) − (λc)c = λ(a2 − c2 ) = λ, la componente connessa di O(1, 1) che contiene l’identità I è:
a b
(u + u−1 )/2 (u − u−1 )/2
o
SO(1, 1) =
=
: u ∈ R>0 .
c d
(u − u−1 )/2 (u + u−1 )/2
Ci sono altre due parametrizzazioni di SO(1, 1)o che sono ben note. Una viene dalla teoria
della relatività speciale. Poiché u ∈ R>0 , l’applicazione u 7→ u2 è una biiezione. Si definisce
√
1+v
1+v
1+v
u2 − 1
2
,
con inversa: u =
, u= √
=√
.
v= 2
u +1
1−v
1−v
1 − v2
Quindi i coefficienti delle matrici sono
√
√
1+v 1 1−v
1
−1
a = (u + u )/2 = ( √
+ √
)= √
,
1−v 2 1+v
1 − v2
b = (u − u−1 )/2 = √
v
.
1 − v2
9 GRUPPI ORTOGONALI
161
Gli elementi di O(1, 1)o sono quindi le ben note trasformazioni di Lorentz (con velocità della
luce c = 1, quindi v = v/c = β):
!
Av :=
e
√ 1
1−v 2
√ v
1−v 2
√ v
1−v 2
√ 1
1−v 2
,
si verifica Av Aw = A v+w ,
1+vw
v+w
1+vw
è la somma ‘relativistica’ delle velocità.
Un’altra parametrizzazione è data dalla mappa esponenziale (si veda 5.2.7 exp :
T0 SO(1, 1)o = R → SO(1, 1)o . Poiché SO(1, 1)o è uno dimensionale e u 7→ γ(u), con γ(u)
la matrice con a = (u + u−1 )/2 ecc., è un cammino con γ(1) = I, e X := γ 0 (1) è dato da
d
(u + u−1 )/2 (u − u−1 )/2
0 1
=
,
Lie(SO(1, 1)o ) = RX
X=
1 0
du (u − u−1 )/2 (u + u−1 )/2 |u=1
Per calcolare exp(tX) si noti che X 2 = I e quindi
!
!
t
∞
∞
X
X
t2k
t2k+1
(e + e−t )/2 (et − e−t )/2
exp(tX) =
I+
X=
.
(et − e−t )/2 (et + e−t )/2
(2k)!
(2k
+
1)!
k=0
k=0
Poiché exp(tX)exp(sX) = exp((s + t)X), otteniamo un isomorfismo exp : R → SO(1, 1)o ,
t 7→ exp(tX) (suriettivo perché per ogni u ∈ R>0 esiste un t ∈ R tale u = et e iniettivo perché
(et + e−t )/2 = 1 se e solo se t = 0). Spesso si usa la notazione:
cosh t := (et + e−t )/2,
sinh t := (et − e−t )/2.
9.2.3 Il gruppo O(2, 1). Consideriamo lo spazio vettoriale V delle matrici 2 × 2 con traccia
zero, che è anche l’algebra di Lie sl(2):
y1 y2
3
V = sl(2) = M =
: (y1 , y2 , y3 ) ∈ R .
y3 −y1
Per A ∈ SL(2, R) la rappresentazione aggiunta Ad : SL(2, R) → GL(V ) è data da
Ad(A) : V −→ V,
Ad(A)(M ) = AM A−1 .
Poiché det(A) = 1,
det(M ) = −y12 − y2 y3 ,
det(AM A−1 ) = det(A) det(M ) det(A)−1 = det(M ),
l’applicazione Q : M 7→ det(M ) è una forma quadratrica su V e Ad(A) ∈ O(Q) per ogni
A ∈ SL(2, R). Cambiando coordinate in V , y1 = x1 , y2 = x2 − x3 , y3 = x2 + x3 otteniamo
Q(M ) = −x21 − x22 + x23 , quindi Q è equivalente a Q1,2 e perciò O(Q) ∼
= O(1, 2) ∼
= O(2, 1). Perciò
Ad : SL(2, R) −→ SO(2, 1)o ,
A 7−→ Ad(A)
9 GRUPPI ORTOGONALI
162
è un omomorfismo di gruppi di Lie e si può verificare che ρ è suriettivo con nucleo ±I.
9.2.4 Il gruppo O(2, 2). Consideriamo lo spazio vettoriale V delle matrici 2 × 2:
y1 y3
4
V = M =
: (y1 , y2 , y3 , y4 ) ∈ R .
y4 y2
Per A, B ∈ SL(2, R) definiamo un’applicazione lineare
r(A, B) : V −→ V,
r(A)(M ) = AM t B.
Poiché det(A) = det(B) = 1,
det(M ) = y1 y2 − y3 y4 ,
det(AM t B) = det(A) det(M ) det(B) = det(M ),
l’applicazione Q : M 7→ det(M ) è una forma quadratrica su V e r(A) ∈ O(Q) per ogni
A, B ∈ SL(2, R). Cambiando coordinate in V , y1 = x1 + x3 , y2 = x1 − x3 , y3 = x2 + x4 ,
y4 = x2 − x4 , otteniamo Q(M ) = x21 + x22 − x23 − x24 , quindi Q è equivalente a Q2,2 e perciò
O(Q) ∼
= O(2, 2). L’applicazione
r : SL(2, R) × SL(2, R) −→ SO(2, 2)o ,
(A, B) 7−→ r(A, B)
è un omomorfismo di gruppi di Lie e si può verificare che r è suriettiva con nucleo ±I.
9.2.5 Il gruppo O(3, 1). Consideriamo lo spazio vettoriale V delle matrici 2 × 2 Hermitiane
(cioè t M = M ): :
y1
y3 + iy4
4
: (y1 , y2 , y3 , y4 ) ∈ R .
V = M =
y3 − iy4
y2
Per A ∈ SL(2, C) definiamo un’applicazione R-lineare
r(A) : V −→ V,
r(A)(M ) = AM t A.
Poiché det(A) = 1,
det(M ) = y1 y2 − y32 − y42 ,
det(AM t A) = det(A) det(M )det(A) = det(M ),
l’applicazione Q : M 7→ det(M ) è una forma quadratrica su V e r(A) ∈ O(Q) per ogni
A ∈ SL(2, C). Cambiando coordinate in V , y1 = x1 + x2 , y2 = x1 − x2 , y3 = x3 , y4 = x4 ,
otteniamo
Q(M ) = x21 − x22 − x23 − x24 ,
quindi Q è equivalente a Q1,3 e perciò O(Q) ∼
= O(1, 3) ∼
= O(3, 1). L’applicazione
r : SL(2, C) −→ SO(3, 1)o ,
A 7−→ r(A)
è un omomorfismo di gruppi di Lie e si può verificare che r è suriettivo con nucleo ±I.
9 GRUPPI ORTOGONALI
9.3
163
Quaternioni.
9.3.1 Quaternioni, Sp(1) e SU (2). I quaternioni sono una generalizzazione dei numeri
complessi, come i numeri complessi sono una generalizzazione dei numeri reali. Un quaternione
è formalmente una coppia di numeri complessi, ma è più comodo scriverlo nella forma
h = z + wj,
dove si ha
j 2 = −1,
jz = z̄j
(z, w ∈ C).
Si noti che il prodotto non è commutativo. L’addizione è data da:
(z + wj) + (z 0 + w0 j) = (z + z 0 ) + (w + w0 )j.
Il prodotto è dato da:
(z + wj)(z 0 + w0 j) = zz 0 + zw0 j + wjz 0 + wjw0 j
= zz 0 + zw0 j + wz 0 j + ww0 j 2
= (zz 0 − ww0 ) + (zw0 + wz 0 )j.
So può verificare che valgono le proprietà di associatività per l’addizione e moltiplicazione e la
distributività. Se z = a + bi, w = c + di con a, . . . , d ∈ R, un quaternione si scrive:
h = z + wj = (a + bi) + (c + di)j = a + bi + cj + dk,
k := ij = −ji
(a, . . . , d ∈ R).
Si verifica facilmente che anche k 2 = −1. L’algebra dei quaternioni si indica con H.
Una proprietà importante dei quaternioni è che ogni elemento non-zero ha un inverso
moltiplicativo, si dice che H è un corpo. Definiamo prima il coniugato di un quarternione
h per:
h = z + wj = z̄ − wj = a − bi − cj − dk,
si ha hh0 = h0 h.
Si verifica che
hh̄ = z z̄ + ww̄ = a2 + b2 + c2 + d2
(∈ R≥0 ),
quindi hh̄ è sempre reale ed è zero soltanto se h = 0. Perciò, se h 6= 0, h−1 := (hh̄)−1 h̄ è
l’inverso di h. La norma di un quaternione è
p
|h| = hh̄
∈ (R≥0 ).
La norma è un omomorfismo di gruppi moltiplicativi H∗ := H − {0} → R∗>0 perché
|hh0 |2 = (hh0 )hh0 = h(h0 h0 )h = (hh)(h0 h0 ) = |h|2 |h0 |2
dove abbiamo usato che il numero reale h0 h0 commuta con ogni quaternione, in particolare con
h̄. Il nucleo della norma:
Sp(1) := {h ∈ H∗ : |h| = 1 } = {a + bi + cj + dk ∈ H : a2 + b2 + c2 + d2 = 1 }
9 GRUPPI ORTOGONALI
164
è allora un sottogruppo moltiplicativo. Poiché S 3 è una varietà (una sottovarietà di R4 ) si
verifica facilmente che Sp(1) è un gruppo di Lie. E’ noto che S n è un gruppo di Lie soltanto se
n = 1, 3.
L’algebra dei quaternioni è isomorfa a una sottoalgebra dall’algebra delle matrici M2 (C):
z w
X : H −→ M2 (C),
h = z + wj 7−→ Xh =
,
−w̄ z̄
quindi X è iniettiva e per h, h0 ∈ H si ha:
Xh+h0 = Xh + Xh0 ,
Xhh0 = Xh Xh0 ;
in più |h|2 = det(Xh ),
come si verifica facilmente. I quaternioni i, j, k corrispondono alle matrici di Pauli:
i 0
0 1
0 i
Xi =
= σ1 ,
Xj =
= σ2 ,
Xk =
= σ3 .
0 −i
−1 0
i 0
Tramite la mappa X si ottiene un isomorfismo di gruppi di Lie (si veda Esercizio 9.3.3):
X : Sp(1) −→ SU (2) = {A ∈ GL(2, C) : t AA = I, det(A) = 1 },
dove SU (2) è il gruppo unitario speciale in dimensione 2.
9.3.2 Esercizio. Sia x = x0 + x1 i + x2 j + x3 k un quaternione, definiamo ~x = (x1 , x2 , x3 ) ∈ R3 .
Verificare che
z0 = x0 y0 − (~x, ~y ),
xy = z0 + z1 i + z2 j + z3 k,
con
~z = x0 ~y + y0~x + ~x × ~y .
9.3.3 Esercizio. Sia
A=
Mostrare che A ∈ U (2) = {B

 z̄z + ūu
w̄w + v̄v

z̄w + ūv
z w
u v
∈ M2 (C).
∈ GL(2, C) : t BB = I} se e solo se
= 1,
= 1,
= 0,
se e solo se
u = −w̄,
v = z̄.
9.3.4 SO(3, R) e la rappresentazione Aggiunta per SU (2). Sia G = SU (2), usando
per esempio il diffeomorfismo SU (2) ∼
= S 3 (si veda 9.3.1) si ottiene:
su(2) := TI SU (2) ∼
= {X ∈ M2 (C) : t X̄ + X = 0, tr(X) = 0 }






ix1
x2 + ix3
 : (x1 , x2 , x3 ) ∈ R3
=
M= 


−x2 + ix3
−ix1
∼
= R3 .
9 GRUPPI ORTOGONALI
165
La rappresentazione Aggiunta di SU (2) è allora un omomorfismo di gruppi di Lie:
Ad : SU (2) −→ GL(3, R) ∼
= GL(su(2)),
Ad(A)(M ) = AM A−1 .
Poiché det(A) = 1,
det(M ) = x21 + x22 + x23 ,
det(AM A−1 ) = det(A) det(M ) det(A)−1 = det(M ),
l’applicazione Q : M 7→ det(M ) è una forma quadratrica su V e Ad(A) ∈ O(Q) ∼
= O(3, R) per
3
∼
ogni A ∈ SL(2, C). Poiché SU (2) = S è connesso e Ad(1) = I allora Ad(SU (2)) ⊂ SO(3, R).
Si può verificare che
Ad(SU (2)) = SO(3, R),
ker(Ad) = {±1}.
9.3.5 Il gruppo ortogonale SO(4, R). Consideriamo lo spazio vettoriale reale quattro
dimensionale H, equivalentemente, lo spazio delle matrici 2 × 2 seguenti (si veda 9.3.1): :
x
+
ix
x
+
ix
0
1
2
3
4
H ∼
: (x0 , x1 , x2 , x3 ) ∈ R .
= M =
−x2 + ix3 x0 − ix1
Per A, B ∈ SU (2) ⊂ H× definiamo un’applicazione lineare
r(A, B) : H −→ H,
r(A, B)(M ) = AM B −1 ,
(A, B, M ‘sono’ quaternioni, quindi anche AM B −1 ‘è’ un quaternione!). Poiché det(A) =
det(B) = 1,
det(M ) = x20 + x21 + x22 + x23 ,
det(AM B −1 ) = det(A) det(M ) det(B)−1 = det(M ),
l’applicazione Q : M 7→ det(M ) è una forma quadratrica su V e r(A, B) ∈ O(Q) ∼
= O(4, R) per
ogni A, B ∈ SU (2). Poiché SU (2) è connessa otteniamo un’applicazione
r : SU (2) × SU (2) −→ SO(4, R),
A 7−→ r(A, B)
che è un omomorfismo di gruppi di Lie e si può verificare che r è suriettivo con nucleo
(I, I), (−I, −I).
9.4
Il gruppo ortogonale SO(2m)
9.4.1 L’algebra di Lie so(2m). Per determinare un’algebra di Cartan dell’algebra di Lie
so(2m) scegliamo una base di C2m tale che la forma quadratica sia data da
0 I
t
x1 xm+1 + . . . + xm x2m = xQx/2,
Q=
,
I 0
9 GRUPPI ORTOGONALI
166
dove la matrice simmetrica Q è divisa in blocchi m × m. L’algebra di Lie so(2m) ⊂ M2m (C) è
data dalle matrici X ∈ M2m (C) tali che
A B
t
XQ + QX = 0,
sia X =
.
C D
Allora l’equazione per X diventa:
t
t
0 I
0 I
A B
C
A tC
+
= t
t
t
D
B D
I 0
I 0
C D
t
A
t
B
+
C D
A B
=
0 0
0 0
,
quindi otteniamo le equazioni seguenti per le matrici m × m in X:
t
t
A = −D,
B = −B,
t
C = −C.
Verifichiamo che la dimensione di so(2m) è (2m)(2m − 1)/2 = 2m2 − m. Poiché A ∈ Mm (C),
che ha dimensione m2 , e B, C ∈ Mm (C) sono antisimmetriche, si trova infatti dim so(2m) =
m2 + 2m(m − 1)/2 = 2m2 − m.
9.4.2 Le radici di so(2m). Si noti che la seguente sottoalgebra di matrici diagonali sta in
so(2m):
h = { H = diag(t1 , . . . , tm , −t1 , . . . , −tm ) : ti ∈ C },
sia Hi = Ei,i − Ei+m,i+m ∈ h.
Consideriamo gli autospazi in so(2m), per la rappresentazione aggiunta, di questa sottoalgebra.
Una base di so(2m) è data dalle Hi e le
Ei,j − Ej+m,i+m ,
Ek,l+m − El,k+m ,
Ek+m,l − El+m,k ,
dove 1 ≤ i, j, k, l ≤ m, i 6= j e k < l. Le prime matrici hanno A = −t D e B = C = 0, poi
ci sono quelle con A = C = 0 e B = −t B e infine ci sono quelle con A = B = 0 e t C = −C.
Poiché [diag(t1 , . . . , t2m ), Ea,b ] = (ta − tb )Ea,b e ora ti+m = −ti si ha:
[H, Ei,j − Ej+m,i+m ] =
(ti − tj )(Ei,j − Ej+m,i+m ),
[H, Ek,l+m − El,k+m ] =
(tk + tl )(Ek,l+m − El,k+m ),
[H, Ek+m,l − El+m,k ] = −(tk + tl )(Ek+m,l − El+m,k ).
Questo implica che se X ∈ so(2m), X 6∈ h allora [H, X] 6= 0 per un certo H ∈ h. Quindi h è
una sottoalgebra commutativa massimale, e perciò h è un’algebra di Cartan di so(2m). In più
abbiamo trovato la decomposizione di so(2m) in spazi peso per la rappresentazione aggiunta.
Le radici di so(2m) sono:
Li − Lj ,
±(Lk + Ll ),
1 ≤ i, j, k, l ≤ m, i 6= j, k < l.
P
P
Ogni applicazione l : h∗R = Rn = ⊕RLi → R, l( ai Li ) = li ai con li > li+1 > 0 è regolare (si
veda 7.3.1). Le radici positive sono gli Li − Lj con i < j e gli Lk + Ll con k < l.
9 GRUPPI ORTOGONALI
167
Si può verificare, similmente al caso di sl(n), si veda 7.1.15, che il gruppo di Weyl agisce
nel modo seguente. Se α = Li − Lj la riflessione sα permuta Li e Lj e fissa gli altri radici. Se
α = Lk + Ll ,
Lk 7→ −Ll ,
sα :
Ll 7→ −Lk ,
Li 7→ Li
i 6= k, l).
(α = Lk + Ll ,
Il prodotto scalare su h∗R definito dalla forma di Killing su h è invariante per il gruppo di Weyl
e perciò è uguale, a meno di moltipicazione per uno scalare, al prodotto scalare standard dato
da (Li , Lj ) = δij . Si ha (α, α) = 2 per ogni radice α e perciò < λ, α >= 2(λ, α)/(α, α) = (λ, α)
per ogni λ ∈ h∗R .
Le radici semplici sono
α1 = L1 − L2 ,
α2 = L2 − L3 , . . . , αm−1 = Lm−1 − Lm ,
Il loro diagramma di Dynkin è il seguente:
αn−2
α1
α2
α3 αn−3
c
c
c
c
c
αm = Lm−1 + Lm .
αn−1
c
Dn
c
αn
9.4.3 Le rappresentazioni fondamentali di so(2m). I pesi fondamentali λi , i = 1, . . . , m,
di so(2m), definiti da < λi , αj >= (λi , αj ) = δij (si veda 8.1.4). Poiché (α, α) = 2 per ogni
α ∈ R si ha < λi , αj >:= 2(λi , αj )/(αj , αj ) = (λi , αj ), quindi:
λ1 = L1 ,
λ2 = L1 + L2 , . . . ,
L1 + L2 + . . . + Lm−1 − Lm
,
2
I pesi dominanti di so(2m) sono allora:
λm−1 =
λm−2 = L1 + L2 + . . . + Lm−2 ,
λm =
Pm
Λ+
mi λi : mi ∈ Z≥0 }
W = {
n i=1
= (m1 + . . . + mm−2 + (mm−12+mm ) L1 + . . . +
L1 + L2 + . . . + Lm−1 + Lm
.
2
(mm−1 +mm )
Lm−1
2
+
(−mm−1 +mm )
Lm
2
o
.
P
Quindi un peso λ = m
i=1 ai Li è dominante se a1 ≥ a2 ≥ . . . ≥ am−1 ≥ |am | (e poi mm =
am−1 + am , mm−1 = am−1 − am , mm−2 = am−2 − am−1 , . . ., m1 = a1 − a2 ).
Nella rappresentazione standard di so(2m) su V := C2m , l’algebra di Cartan è data dalle
H = diag(t1 , . . . , tm , −t1 , . . . , −tm ) e Li (H) = ti per i = 1, . . . , m. Quindi i pesi di V sono gli
±Li e l’unico peso dominante tra di loro è L1 . Perciò si ha:
V (λ1 ) = V,
V = C2m .
Si può mostrare (si veda [FH], Thm 19.2) che
V (λk ) = ∧k V,
k = 1, 2, . . . , m − 2.
9 GRUPPI ORTOGONALI
168
Un vettore con peso massimale in V (λk ) = ∧k V è ovviamente e1 ∧ e2 ∧ . . . ∧ ek . Anche la
rappresentazione ∧m−1 V è irriducibile, ma il suo peso massimale è L1 +. . .+Lm−1 = λm−1 +λm ,
che non è un peso fondomentale. La rappresentazione ∧m V è riducibile.
Poiché le rappresentazioni V (λm−1 ), V (λm ) hanno pesi con coefficienti che non sono interi rispetto alla base L1 , . . . , Lm di h∗R , non è possibile trovarli nei prodotti tensoriali delle
V (λ1 ), . . . , V (λm−2 ) (che poi sono tutti contenuti nei prodotti tensoriali di V = V (λ1 )), perché
ogni peso in una tale rappresentazione è una combinazione con coeficienti interi di L1 , . . . , Lm .
I pesi di V (λm−1 ), la rappresentazione
irriducibile generata da un vettore massimale con
Pm
peso λm−1 , sono del tipo λm−1 − i=1 ni αi con ni ≥ 0 (si veda 8.2.6). Nessuno di questi pesi
è dominante, tranne λm−1 stesso. Poiché ogni peso è nell’orbita di un peso dominante per il
gruppo di Weyl, ogni peso di V (λm−1 ) è nell’orbita di λm−1 . Perciò ogni spazio peso di V (λm−1 )
è isomorfo allo spazio del peso massimale, in particolare, è unidimensionale. Il gruppo di Weyl
agisce per permutazioni delle Li e cambiamenti di un numero pari di segni, quindi i pesi di
V (λm−1 ) sono:
(1 L1 + 2 L2 + . . . + m Lm )/2,
i ∈ {+1, −1},
1 2 · · · m = −1.
i ∈ {+1, −1},
1 2 · · · m = +1.
In modo simile, i pesi di V (λm ) sono:
(1 L1 + 2 L2 + . . . + m Lm )/2,
Ogni peso di V (λm−1 ) e di V (λm ) ha moltiplicità uno e ogni rappresentazione ne ha 2m−1 ,
quindi:
dim V (λm−1 ) = 2m−1 ,
dim V (λm ) = 2m−1 .
Le rappresentazioni fondamentali V (λm−1 ) e V (λm ) si chiamano rappresentazioni spinoriali
(Inglese: (half) spin representations). Costruiremo queste rappresentazioni di so(2m) in 10.3.5.
9.4.4 Il caso so(4). Nel caso m = 2, l’algebra di Lie so(4) è data da:
so(4) = h H1 −H2 , E1,2 −E4,3 , E2,1 −E3,4 i ⊕ h H1 +H2 , E1,4 −E2,3 , E3,2 −E4,1 i ∼
= sl(2) ⊕ sl(2),
l’isomorfismo manda i tre generatori di ogni coppia nei generatori standard di sl(2). La rappresentazione standard C4 di so(4) ha pesi λ = L1 , L2 , −L1 , −L2 . Si ha λ(H1 − H2 ) = 1, −1, −1, 1
e λ(H1 + H2 ) = 1, 1, −1, −1, quindi C4 è isomorfa a due copie della rappresentazione standard
due dimensionale di ognuna delle due copie di sl(2). Da qui segue che C4 ∼
= W1 ⊗ W2 dove
W1 , W2 sone le rappresentazioni standard delle due copie di SL(2).
Le rappresentazioni due dimensionali di so(4) ottenute come la composizione
πi
ρi : so(4) ∼
= sl(2) ⊕ sl(2) −→ sl(2) ,→ End(C2 )
sono rappresentazioni due dimensionali, irriducibili, di so(4). Poiché ρ1 (H1 −H2 ) = diag(1, −1),
ρ1 (H1 + H2 ) = 0, i pesi di ρ1 sono aL1 + bL2 con a − b = ±1 e a + b = 0, quindi ±(L1 − L2 )/2.
Perciò ρ1 è una delle due rappresentazioni spinoriali di so(4). In modo simile si trova che i pesi
di ρ2 sono ±(L1 + L2 )/2 e quindi anche ρ2 è una rappresentazione spinoriale.
9 GRUPPI ORTOGONALI
9.5
169
Il gruppo ortogonale SO(2m + 1)
9.5.1 L’algebra di Lie so(2m + 1). Per determinare un’algebra di Cartan dell’algebra di
Lie so(2m + 1) scegliamo una base di C2m+1 tale che la forma quadratica sia dato da


I 0 0
x1 xm+1 + . . . + xm x2m + x22m+1 = t xQx,
Q =  0 I 0 ,
0 0 1
dove la matrice simmetrica Q è divisa in quattro blocchi m × m, due blocchi 1 × m, due blocchi
m × 1 e un blocco 1 × 1. L’algebra di Lie so(2m + 1) ⊂ M2m+1 (C) è data dalle le matrici
X ∈ M2m+1 (C) tali che



 t
A B a
A tC c
t
XQ + QX = 0,
sia X =  C D b  , quindi t X =  t B t D d 
t
t
a tb e
c td e
con A, B, C, D ∈ Mm (C), a, b, c, d, ∈ Cm e e ∈ C. Allora le equazioni per X diventano:
 

 t
 
C D b
0 0 0
C tA c
 tD tB d  +  A B a  =  0 0 0  ,
t
t
c td e
0 0 0
b ta e
quindi otteniamo le equazioni seguenti per i blocchi di X:
t
A = −D,
t
B = −B,
t
C = −C,
d = −a,
c = −b,
e = 0.
Verifichiamo che la dimensione di so(2m+1) è (2m+1)(2m)/2 = 2m2 +m. Poiché A ∈ Mm (C),
che ha dimensione m2 , e B, C ∈ Mm (C) sono antisimmetriche e a, b ∈ Cm , si trova infatti
dim so(2m) = m2 + 2m(m − 1)/2 + 2m = 2m2 + m.
9.5.2 Le radici di so(2m + 1). Si noti che la seguente sottoalgebra di matrici diagonali sta
in so(2m + 1):
h = { H = diag(t1 , . . . , tm , −t1 , . . . , −tm , 0) : ti ∈ C },
sia Hi = Ei,i − Ei+m,i+m ∈ h.
Consideriamo gli autospazi in so(2m + 1), per la rappresentazione aggiunta, di questa sottoalgebra. Una base di so(2m + 1) è dato dalle Hi e le matrici indicate qui sotto. Poiché
[diag(t1 , . . . , t2m , t2m+1 ), Ea,b ] = (ta − tb )Ea,b e adesso ti+m = −ti , t2m+1 = 0 si ha:
[H, Ei,j − Ej+m,i+m ]
[H, Ek,l+m − El,k+m ]
[H, Ek,l+m − El,k+m ]
[H, Ek+m,l − El+m,k ]
[H, Ep,2m+1 − E2m+1,p+m ]
[H, Ep+m,2m+1 − E2m+1,p ]
=
(ti − tj )(Ei,j − Ej+m,i+m ),
=
(ti − tj )(Ei,j − Ej+m,i+m ),
=
(tk + tl )(Ek,l+m − El,k+m ),
= −(tk + tl )(Ek+m,l − El+m,k ),
=
tp (Ep,2m+1 − E2m+1,p+m ),
= −tp (Ep+m,2m+1 − E2m+1,p ),
1 ≤ i, j ≤ m, i 6= j,
1 ≤ i, j ≤ m, i 6= j,
1 ≤ k < l ≤ m,
1 ≤ k < l ≤ m,
1 ≤ p ≤ m,
1 ≤ p ≤ m.
9 GRUPPI ORTOGONALI
170
Questo implica che se X ∈ so(2m + 1), X 6∈ h allora [H, X] 6= 0 per un certo H ∈ h. Quindi h
è una sottoalgebra commutativa massimale, e perciò h è un’algebra di Cartan di so(2m + 1).
In più abbiamo trovato la decomposizione di so(2m + 1) in spazi peso per la rappresentazione
aggiunta. Le radici di so(2m + 1) sono:
Li − Lj ,
±(Lk + Ll ),
1 ≤ i, j, k, l, p ≤ m, i 6= j, k < l.
P
P
Ogni applicazione l : h∗R = Rn = ⊕RLi → R, l( ai Li ) =
li ai con li > li+1 > 0 è regolare
(si veda 7.3.1). Le radici positive sono gli Li − Lj con i < j, gli Lk + Ll con k 6= l e gli Lp ,
1 ≤ p ≤ m.
Si può verificare, similmente al caso di sl(n), si veda 7.1.15, che il gruppo di Weyl agisce
nel modo seguente. Se α = Li − Lj la riflessione sα permuta Li e Lj e fissa le altre radici. Se
α = Lk + Ll ,
Lk 7→ −Ll ,
sα :
, ±Lp
Ll 7→ −Lk ,
Li 7→ Li
i 6= k, l)
(α = Lk + Ll ,
e sLp manda Lp 7→ −Lp e fissa gli altri Lq .
Il prodotto scalare su h∗R definito dalla forma di Killing su h è invariante sotto il gruppo di
Weyl e perciò è uguale, a meno di moltiplicazione per uno scalare, al prodotto scalare standard
dato da (Li , Lj ) = δij . Si noti che le radici di so(2m + 1) sono esattamente i vettori α con
(α, α) = 1, 2, quindi il sistema di radici è Bn (si veda 7.3.5).
Le radici semplici sono
α1 = L1 − L2 ,
α2 = L2 − L3 , . . . , αm−1 = Lm − Lm−1 ,
Il loro diagramma di Dynkin è il seguente:
α1
α2
α3
e
e
e
αn−2 αn−1
e
e
αn
> e
αm = Lm .
Bn
9.5.3 Le rappresentazioni fondamentali di so(2m + 1). I pesi fondamentali λi , i =
1, . . . , m, di so(2m), definiti da
< λi , αj >= 2(λi , αj )/(αi , αi ) = δij
(si veda 8.1.4) sono:
λ1 = L1 ,
λ2 = L1 + L2 , . . . ,
λm−1 = L1 + L2 + . . . + Lm−1 ,
L1 + L2 + . . . + Lm−1 + Lm
.
2
I pesi dominanti di so(2m) sono allora:
λm =
Pm
Λ+
W = {
i=1 mi λi : mi ∈ Z≥0 }
= (m1 + . . . + mm−1 + m2m )L1 + . . . + (mm−1 +
mm
)Lm−1
2
+
mm
Lm
2
.
9 GRUPPI ORTOGONALI
171
P
Quindi un peso λ = m
i=1 ai Li è dominante se a1 ≥ a2 ≥ . . . ≥ am−1 ≥ am ≥ 0 (e dunque
mm = 2am , mm−1 = am−1 − 2am , mm−2 = am−2 − am−1 , . . ., m1 = a1 − a2 ).
Nella rappresentazione standard di so(2m + 1) su V := C2m+1 , l’algebra di Cartan è data
dalle H = diag(t1 , . . . , tm , −t1 , . . . , −tm , 0) e Li (H) = ti per i = 1, . . . , m. Quindi i pesi di V
sono ±Li e 0. Si può mostrare (si veda [FH], Thm 19.14) che
V (λk ) = ∧k V,
k = 1, 2, . . . , m − 1.
Un vettore con peso massimale in Vλk = ∧k V è ovviamente e1 ∧e2 ∧. . .∧ek . La rappresentazione
∧m V è anche irriducibile, ma il suo peso massimale è L1 + . . . + Lm = 2λm , che non è un peso
fondamentale.
Poiché la rappresentazione V (λm ) ha pesi con coefficienti che non sono interi rispetto alla
base L1 , . . . , Lm di h∗R , non è possibile trovarli nei prodotti tensoriali delle V (λ1 ), . . . , V (λm−1 )
(che poi sono tutti contenuti nei prodotti tensoriali di V = V (λ1 )).
I pesi di V (λm ), la rappresentazione
irriducibile generata da un vettore massimale con peso
Pm
λm , sono del tipo λm − i=1 ni αi con ni ≥ 0. Nessuno di questi pesi è dominante, tranne λm
stesso. Poiché ogni peso è nell’orbita di un peso dominante per il gruppo di Weyl, ogni peso
di V (λm ) deve essere nell’orbita di λm . In più, ogni spazio peso è isomorfo allo spazio del peso
più alto, in particolare, è unidimensionale. Il gruppo di Weyl agisce per permutazioni delle Li
e cambiamenti di segno, quindi i pesi di V (λm ) sono i:
(1 L1 + 2 L2 + . . . + m Lm )/2,
i ∈ {+1, −1}.
Ogni peso di V (λm ) ha moltiplicità uno e la rappresentazione ne ha 2m , quindi:
dim V (λm ) = 2m .
La rappresentazione fondamentale V (λm ) si chiama rappresentazione spinoriale (Inglese: spin
representation). Costruiremo questa rappresentazione di so(2m + 1) in 10.3.6.
9.5.4 Il caso so(3). Nel caso m = 1, l’algebra di Lie so(3) ha base H1 , E1,3 − E3,2 , E2,3 − E3,1
ed è isomorfo con sl(2). La rappresentazione standard C3 di so(3) ha peso dominante L1 = 2λ1 ,
e la rappresentazione con peso dominante λ1 è la rappresentazione standard C2 di sl(2). La
rappresentazione C3 è S 2 (C2 ) di sl(2), che è anche la rappresentazione aggiunta. Vedi 9.2.3 per
il legame tra i gruppi di Lie nel caso K = R (che si generalizza al caso K = C).
10 RAPPRESENTAZIONI DI SPIN
10
172
Rappresentazioni di Spin
Testi consigliati: [FH].
10.1
L’algebra di Clifford
10.1.1 Definizione. L’algebra di Clifford di una forma quadratica generalizza l’algebra dei
quaternioni e permette di definire le rappresentazioni spinoriali dei gruppi ortogonali.
Sia V uno spazio vettoriale su un campo K, con K = R oppure K = C e sia Q : V → K
una forma quadratica definita da una forma bilineare B, Q(v) = B(v, v) e poi (si veda 9.1.4):
Q(v + w) − Q(v) − Q(w) = 2B(v, w)
(v, w ∈ V ).
L’algebra di Clifford di (V, Q), indicata con C(Q), è una K-algebra che contiene K e V , in più,
il prodotto di un v ∈ V ⊂ C(Q) con se stesso è tale che v 2 = Q(v)(!).
Per costruire C(Q) consideriamo l’ideale bilaterale IQ dell’algebra tensoriale T (V ) = ⊕k V ⊗k
(si veda 1.3.3) generato dagli elementi
v ⊗ v − Q(v)
∈ T (V )
(v ∈ V ).
Quindi un elemento di IQ è una combinazione lineare di elementi del tipo x ⊗ (v ⊗ v − Q(v)) ⊗ y
con x, y ∈ T (V ) e v ∈ V . Nel caso Q = 0, si ottiene l’ideale I di 1.3.3 e T (V )/I è l’algebra
esterna. In generale, l’algebra che si ottiene è per definizione l’algebra di Clifford (di Q):
C(Q) := T (V )/IQ = ⊕V ⊗k /IQ .
Ci sono testi in cui si usa −Q per definire C(Q), cioè si usa l’ideale generato dalle x ⊗ x + Q(x)
invece di IQ . I gruppi ortogonali di Q e −Q sono ovviamente uguali e si può mostrare che
il gruppo Spin e le rappresentazioni spinoriali di so(Q) non cambiano. Usiamo le seguente
notazioni (si veda 9.1.4):
C(p, q) := C(Ip,q ),
se K = R;
C(n) = C(In ) se K = C.
π
Ci sono le applicazioni lineari V ⊗k ,→ T (V ) → C(Q) dove π è la mappa canonica che manda
x 7→ x + IQ . Queste applicazioni sono iniettive se k = 0, 1 (si veda 10.1.4). Per λ ∈ K = V ⊗0
o v ∈ V = V ⊗1 scriviamo semplicemente λ e v per l’immagine di λ e v in C(Q). Allora si ha:
v 2 = Q(v),
vw + wv = 2B(v, w)
(v, w ∈ V ⊂ C(Q)),
la prima relazione segue dal fatto che v ⊗ v − Q(v) ∈ IQ quindi v 2 − Q(v) = 0 in C(Q), la
seconda segue da Q(v + w) − Q(v) − Q(w) = 2B(v, w) e:
Q(v + w) = (v + w)2 = v 2 + w2 + vw + vw = Q(v) + Q(w) + vw + wv.
Sia ei , 1 ≤ i ≤ n = dim V , una K-base di V . Usando queste regole, l’immagine di un tensore
ei1 ⊗ . . . ⊗ eik ∈ V ⊗k si scrive come combinazione lineare di prodotti ej1 . . . ejl con l ≤ n e indici
10 RAPPRESENTAZIONI DI SPIN
173
distinti (eja = ejb solo se a = b). In particolare, dim C(Q) ≤ 2n . Si può dimostrare (si veda
10.1.4, [FH], Lemma 20.3) che C(Q) ha una base data dalle eI ,
C(Q) = ⊕I KeI ;
eI = ei1 ei2 . . . eik
se I = {i1 , . . . , ik },
1 ≤ i1 < i2 < . . . < ik ≤ n,
dove I percorre tutti gli insiemi ordinati con al più n elementi, e e∅ = 1. In particolare,
dim C(Q) = 2n .
10.1.2 Esempi. Sia V = R2 con base e1 , e2 . Sia Q = I2 , quindi Q(v1 e1 + v2 e2 ) = v12 + v22 .
Allora in C(Q) = C(2, 0) si ha
e21 = e22 = 1,
e1 e2 + e2 e1 = 0 quindi e1 e2 = −e2 e1 .
In più il quadrato di e1 e2 è:
(e1 e2 )2 = e1 e2 e1 e2 = e1 (−e1 e2 )e2 = −1 · 1 = −1.
Un semplice calcolo mostra che l’applicazione
F : C(2, 0) −→ M2 (R),
a + be1 + ce2 + de1 e2 7−→
a+b c−d
c+d a−b
è un isomorfismo di algebre (cioè F è R-lineare, F (x + y) = F (x) + F (y) e F (xy) = F (x)F (y)).
Sia V come sopra e sia Q = −I2 , allora in C(Q) = C(0, 2) si ha:
e21 = e22 = −1,
e1 e2 = −e2 e1 ,
(e1 e2 )2 = e1 (−e1 e2 )e2 = −1.
Un semplice calcolo mostra che l’applicazione
G : C(0, 2) −→ H,
a + be1 + ce2 + de1 e2 7−→ a + bi + cj + dk
è un isomorfismo di algebre, dove H è l’algebra di quaternioni (si veda 9.3.1).
Sia V come sopra e sia Q = I1,1 , allora in C(Q) = C(1, 1) si ha:
e21 = 1,
e22 = −1,
e1 e2 = −e2 e1 ,
(e1 e2 )2 = e1 (−e1 e2 )e2 = 1.
Un semplice calcolo mostra che l’applicazione
H : C(1, 1) −→ M2 (R),
a + be1 + ce2 + de1 e2 7−→
a+b c+d
−c + d a − b
è un isomorfismo di algebre.
Nel caso K = C e Q = I2 si ha C(Q) = C(2) ∼
= M2 (C).
10.1.3 Le proprietà universale dell’algebra di Clifford. L’algebra di Clifford C(Q) gode
delle seguente proprietà, che è molto conveniente per definire automorfismi di C(Q).
10 RAPPRESENTAZIONI DI SPIN
174
Sia E una K-algebra (associativa) con elemento unità 1 ∈ E e sia data un’applicazione
lineare
j : V −→ E,
tale che j(v)2 = Q(v)
per ogni v ∈ V , allora esiste un unico omomorfismo di K-algebre J che estende j:
J : C(Q) −→ E,
(v ∈ V ⊂ C(Q)).
tale che J(v) = j(v)
Per definire J, si definisce prima, per ogni k, un’applicazione multilineare V × . . . × V → E per
(v1 , v2 , . . . , vk ) 7→ j(v1 )j(v2 ) . . . j(vk ). Queste applicazioni definiscono delle mappe lineari Jk :
V ⊗k → E (si veda 1.1.8) che sono componenti di un omomorfismo di K-algebre J : T (V ) → E,
cioè J = Jk su V ⊗k . Se t ∈ IQ , t è combinazione lineare di x ⊗ (v ⊗ v − Q(v)) ⊗ y e
J(x ⊗ (v ⊗ v − Q(v)) ⊗ y) = J(x)J(v ⊗ v − Q(v))J(y) = J(x)(J(v)J(v) − Q(v))J(y) = 0
perché J(v) = j(v) e j(v)2 = Q(v). Quindi J definisce un’omomorfismo di K-algebre C(Q) =
T (V )/IQ → E. L’unicità segue dal fatto che le proprietà J(v) = j(v) e J(x ⊗ y) = J(x)J(y)
determinano l’immagine di ogni tensore in T (V ) mediante J.
10.1.4 La dimensione di C(Q). Si ricordi che C(Qp,q ) ,→ M2 (C) se p + q = 2, per esempio
C0,2 ∼
= H ,→ M2 (C), si veda 9.3.1. Dato un omomorfismo iniettivo φ : C(Qp,q ) ,→ MN (C), sia
Mi ∈ MN (C) l’immagine di ei ∈ Rn . In particolare, si ha
(x1 M1 + . . . + xn Mn )2 = (x21 + . . . + x2p ) − (x2p+1 + . . . + x2n )IN = Qp,q (x)IN ,
equivalentamente, gli Mi soddisfano:
Mi Mj + Mj Mi = 0,
Mi2
= i IN ,
i =
1 se 1 ≤ i ≤ p,
−1 se p + 1 ≤ i ≤ n,
Sia Q = Qp+1,q oppure Qp,q+1 , quindi Q(en+1 ) = 1 oppure −1. Definiamo un’applicazione
lineare
0 Mi
0 η
n+1
0
0
R
−→ M2N (C),
ei 7−→ Mi :=
, en+1 7−→ Mn+1 =
,
Mi 0
−η 0
dove η = i se Q(en+1 ) = +1 e η = 1 se Q(en+1 ) = −1. Allora si verifica facilmente che gli Mi0
soddisfano le stesse relazioni degli Mi e in più
0
(Mn+1
)2 = Q(en+1 ),
0
0
Mi0 Mn+1
+ Mn+1
Mi0 = 0,
quindi si ha:
n+1
X
!2
xi Mi0
= Q(
i=1
n+1
X
xi ei ).
i=1
Perciò la proprietà universale di C(Q) dà un omomorfismo di R-algebre
φ̃ : C(Q) −→ M2N (C),
ei 7−→ Mi0 .
10 RAPPRESENTAZIONI DI SPIN
175
Poiché φ : C(Qp,q ) ,→ MN (C) è definito da ei 7→ Mi , 1 ≤ i ≤ n, anche φ̃ è iniettivo su C(Qp,q ),
φ̃ : Cp,q ,→ M2N (C). Ogni elemento di C(Q) si scrive come x+yen+1 con x, y ∈ C(Qp,q ) ⊂ C(Q)
e adesso è facile vedere che φ̃ è iniettivo. Si noti che se dim C(Qp,q ) = K, allora dim φ̃(C(Q)) =
2K. Per induzione su n = p + q si conclude che dim C(Q) = 2n se n = dim V e che gli eI sono
una base di C(Q).
10.2
L’algebra di Clifford e il gruppo spinoriale.
10.2.1 L’algebra di Clifford e il gruppo ortogonale. L’inclusione V ,→ E = C(Q) è
K-lineare e soddisfa v 2 = Q(v) per costruzione. Per ogni A ∈ O(Q), il gruppo ortogonale di Q,
anche l’applicazione lineare
jA : V −→ E = C(Q),
v 7−→ Av
(A ∈ O(Q), v ∈ V )
soddisfa jA (v)2 = (Av)2 = Q(Av) = Q(v). In particolare, esiste un’omomorfismo di K-algebre
JA : C(Q) −→ C(Q)
tale che JA (v) = Av
(A ∈ O(Q), v ∈ V ⊂ C(Q)).
Consideriamo il caso di un prodotto AB ∈ O(Q) con A, B ∈ O(Q). Allora JAB v = ABv e
JAB è l’unico omomorfismo con questa proprietà. Poiché anche JA ◦ JB è un omomorfismo con
JA (JB (v)) = JA (Bv) = ABv si ha
JAB = JA JB ,
in particolare: JIV = IC(Q) ,
con IV l’identità su V e JIV = IC(Q) l’identità su C(Q). Perciò l’applicazione
J : O(Q) −→ Aut(C(Q)),
A 7−→ JA
è un omomorfismo di gruppi, iniettivo perché JA v = Av per v ∈ V ⊂ C(Q).
10.2.2 L’algebra di Clifford pari e l’automorfismo α. Un caso particolare di A ∈ O(Q)
è A = −IV = −I. Si indica
α := J−I : C(Q) −→ C(Q),
α2 = IC(Q)
perché (−IV )2 = IV . La decomposizione di C(Q) in autospazi è indicata con
C(Q) = C(Q)+ ⊕ C(Q)− ,
C(Q)± = {x ∈ C(Q) : α(x) = ±x }.
Dato che α è K-lineare e α(xy) = α(x)α(y) è facile verificare che C(Q)+ è una sottoalgebra di
C(Q).
Per un elemento di base eI di C(Q), si veda 10.1.1 con ]I = k, si ha α(eI ) = (−1)k eI , quindi
C(Q)+ = ⊕I KeI ,
]I ∈ {0, 2, . . .},
quindi
dim C(Q)+ = 2n−1 .
10 RAPPRESENTAZIONI DI SPIN
176
Per λ ∈ C× , le algebre C(Q) e C(λQ) sono isomorfe, perché λ = µ2 per un µ ∈ C× e
l’applicazione lineare
jµ : V −→ C(λQ),
v 7−→ µ−1 v
soddisfa jµ (v)2 = (µ−1 v)2 = µ−2 v 2 = µ−2 λQ(v) = Q(v) in C(λQ), quindi jµ si estende a
un omomorfismo di C-algebre Jµ : C(Q) −→ C(λQ). Per simmetria, si ha un omomorfismo
Jµ−1 : C(λQ) −→ C(Q) e Jµ−1 è l’inverso di Jµ (perché Jµ−1 (Jµ (v)) = v per ogni v ∈ V
e quindi sia Jµ−1 ◦ Jµ , sia 1C(Q) , è l’unica estensione di 1V . Negli esempi 10.1.2 si vede che
C(Q) ∼
6= C(−Q) nel caso K = R.
Invece per ogni λ ∈ R× si ha C(Q)+ ∼
= C(λQ)+ perché se ei è una R-base di V (e quindi
è una C-base della complessificazione VC ) l’omomorfismo Jµ : C(Q)C → C(λQ)C manda eI =
ei1 . . . ei2k ∈ C(Q)+ ⊂ C(Q)C in µ−2k eI = λ−k eI ∈ C(λQ)+ ⊂ C(λQ)C . Quindi Jµ induce un
isomorfismo tra le sottoalgebre reali C(Q)+ ⊂ C(Q)C e C ( λQ)+ ⊂ C(λQ)C :
∼
=
Jµ : C(Q)C −→ C(λQ)C
∼
=
induce C(Q)+ −→ C(λQ)+ .
10.2.3 Esempi di algebre di Clifford pari. Nel caso V abbia base e1 , e2 , come negli esempi
10.1.2, l’algebra di Clifford pari è
C + (Q) = K ⊕ Ke1 e2 .
Nel caso K = R, nelle algebre C(2, 0) e C(0, 2) si ha (e1 e2 )2 = −1. In tali casi C + (Q) ∼
=C
2
tramite a+be1 e2 7→ a+bi. Nell’algebra C(1, 1) si ha (e1 e2 ) = 1 che implica (1+e1 e2 )(1−e1 e2 ) =
0, (1 ± e1 e2 )2 = 2(1 ± e1 e2 ). Sia
π± := (1 ± e1 e2 )/2,
allora 1 = π+ + π− ,
π+ π− = 0 = π− π+ ,
2
π±
= π± ,
come si verifica facilmente. In particolare, per x ∈ C + (1, 1) si ha x = x1 = (xπ+ ) + (xπ− ) =
x+ + x− e il prodotto è dato da (x+ + x− )(y+ + y− ) = (x+ y+ ) + (x− y− ). Poiché (a + be1 e2 )π± =
(a ± b)π± , si ottiene un isomorfismo di algebre:
∼
=
C(1, 1)+ −→ R × R,
x = a + be1 e2 7−→ (a + b, a − b),
con π+ 7→ (1, 0), π− 7→ (0, 1).
L’algebra C + (0, 3)+ ha dimensione 4 e base 1, e1 e2 , e1 e3 , e1 e3 . Poiché e2i = −1, i = 1, 2, 3, e
ei ej = ei ej in C(0, 3), si ha, se i, j, k sono distinti:
(ei ej )2 = ei ej ei ej = −e2i e2j = −1,
(ei ej )(ei ek ) = −e2i ej ek = ej ek = −(ei ek )(ei ej ).
Segue che l’algebra C(0, 3)+ è isomorfa all’algebra dei quaternioni:
∼
=
C(0, 3)+ −→ H,
a + be1 e2 + ce1 e3 + de2 e3 7−→ a + bi + cj + dk.
Nell’algebra C(0, 3) si ha:
ei ω = ωei ,
dove ω := e1 e2 e3 ∈ C(0, 3)
10 RAPPRESENTAZIONI DI SPIN
177
e, in più,
ω 2 = (e1 e2 e3 )(e1 e2 e3 ) = e21 e2 e3 e2 e3 = −(−1)e22 e33 = +1.
quindi, come prima, gli elementi π± := (1 ± ω)/2 sono idempotenti centrali (cioè commutano
con ogni x ∈ C(0, 3)), e perciò C(0, 3) ∼
= (π+ C(0, 3)) × (π− C(0, 3)). E’ facile vedere che
C(0, 3)+ −→ π± C(0, 3),
x 7−→ π± x
è un’omomorfismo di algebre iniettivo. Quindi dim π± C(0, 3) ≥ 4, poiché dim C(0, 3) = 8 si ha
allora dim π± C(0, 3) = 4 e π± C(0, 3) ∼
= H. Perciò:
∼
=
C(0, 3) −→ H × H.
10.2.4 Riflessioni e l’algebra di Clifford. In 10.2.1 abbiamo costruito un omomorfismo
iniettivo O(Q) → Aut(C(Q)), A 7→ JA . Ora studiamo quest’azione di O(Q) su C(Q), prima
per le riflessioni in O(Q).
Sia v ∈ V tale che Q(v) 6= 0. Poiché v 2 = Q(v) si ha v −1 = Q(v)−1 v in C(Q). Consideriamo
l’applicazione
ρ(v) : C(Q) −→ C(Q),
x 7−→ −vxv −1 .
Si consideri il caso in cui x ∈ V , e si ricordi che vx = −xv + 2B(x, v) e Q(x) = B(x, x):
ρ(v)(x) =
−vxv
xv 2 − 2B(x, v)v
xQ(v) − 2B(x, v)v
B(x, v)
=
=
=x−2
v
Q(v)
Q(v)
Q(v)
B(v, v)
che mostra che, se K = R e B è un prodotto scalare, ρ(x) coincide su V ⊂ C(Q) con la
riflessione Rv rispetto all’iperpiano v ⊥ (si veda 7.1.13). In generale, si verifica che ρ(v) ∈ O(Q)
e quest’applicazione è detta riflessione.
Si noti che ρ(v) non è un automorfismo di C(Q), per esempio ρ(v)(1) = −v1v −1 = −1
mentre un K-algebra automorfismo manda 1 in 1. Gli automorfismi JA , per A ∈ O(Q) si
possono ottenere nel modo seguente. Prima si osservi che per w ∈ V si ha α(w) = −w e quindi
ρ(v)(w) = −vwv −1 = v(−w)v −1 = vα(w)v −1
(v, w ∈ V, B(v) 6= 0).
Per v ∈ V con Q(v) 6= 0 il sollevamento della riflessione Rv ∈ O(Q) è dato da:
JRv : C(Q) −→ C(Q)
x 7−→ vα(x)v −1 .
Si verifica facilmente che JRv è un automorfismo, per esempio vα(xy)v −1 = vα(x)α(y)v −1 =
(vα(x)v −1 )(vα(y)v −1 ). In più, JRv coincide con Rv su V ⊂ C(Q) e, per l’unicità di un tale
automorfismo, si ha quindi JRv (x) = vα(x)v −1 .
Nel caso B sia nondegenere, un teorema di Cartan e Dieudonné afferma che ogni A ∈ O(Q) è
un prodotto di riflessioni Rv . Quindi JA è un prodotto di tali JRv . In particolare, sia A ∈ SO(n),
10 RAPPRESENTAZIONI DI SPIN
178
allora A = Rv1 . . . Rv2k per certe vi ∈ V . Poiché α2 = IC(Q) , α(xy) = α(x)α(y) e α(v) = −v per
v ∈ V , si ha, per ogni x ∈ C(Q):
JA (x) = JRv1 . . . JRv2k (x) =
=
=
=
=
−1
JRv1 . . . JRv2k−1 (v2k α(x)v2k
)
−1 −1
JRv1 . . . JRv2k−2 (v2k−1 α(v2k α(x)v2k
)v2k−1 )
−1 −1
JRv1 . . . JRv2k−2 (v2k−1 v2k xv2k v2k−1 )
...
v1 . . . v2k x(v1 . . . v2k )−1 .
Quindi per A ∈ SO(Q), l’automorfismo JA di C(Q) è dato dalla coniugazione con v1 . . . v2k ∈
C(Q)+ .
10.2.5 Il gruppo moltiplicativo di C(Q). Si potrebbe tentare di definire un omomorfismo
di gruppi O(Q) → C(Q)× , il gruppo moltiplicativo dato dagli elementi invertibili in C(Q), in
modo tale che Rv 7→ v, allora si avrebbe
?
A 7−→ x = v1 . . . v2k ,
se JA (w) = xwx−1 .
La formula per Rv mostra però che Rv = Rλv per ogni non nullo λ ∈ K. Quindi non c’è una
scelta canonica per l’immagine di Rv in C(Q)× .
Visto che per definire Rv si dovrebbe avere Q(v) 6= 0, e Q(λv) = λ2 Q(v), è ragionevole
scegliere λ ∈ K tale che λ2 Q(v) = 1 (oppure λ2 Q(v) = −1 se K = R e Q(v) < 0). Quindi ci
sono due scelte ‘naturali’ per λ.
Come già visto, un tale omomorfismo non esiste sempre, si veda 9.3.4. In quel caso Q = I3,0 e
C(Q)+ ∼
= H (si veda 10.2.3) e c’è un sottogruppo SU (2) ⊂ H× con un omomorfismo
= C(−Q)+ ∼
suriettivo SU (2) → SO(3, R) con nucleo {±I}. Questo si può generalizare, si veda Proposizione
10.2.8: esiste un sottogruppo Spin(Q) di (C(Q)+ )× che è un rivestimento doppio di SO(Q).
10.2.6 Le antiinvoluzioni τ e ∗ di C(Q). L’algebra T (V ) = ⊕k V ⊗k ha un’antiinvoluzione
τ data da
τ : v1 ⊗ v2 ⊗ . . . ⊗ vk 7−→ vk ⊗ vk−1 ⊗ . . . ⊗ v1 ,
τ (x ⊗ y) = τ (y) ⊗ τ (x).
Pochè τ (v ⊗ v − Q(v)) = v ⊗ v − Q(v), τ preserva l’ideale τ (IQ ) = IQ , segue che τ induce
un’antiinvoluzione, ancora indicata con τ :
τ : C(Q) −→ C(Q),
τ (v1 v2 . . . vk ) = vk . . . v2 v1 ,
τ (xy) = τ (y)τ (x).
Si noti che se Q(vi ) = ±1, allora vi2 = ±1 e v1 v2 . . . vk τ (v1 v2 . . . vk ) = v1 v2 . . . vk vk . . . v2 v1 = ±1.
La composizione di τ e α è l’antiinvoluzione chiamata la coniugazione su C(Q) e si scrive:
τ α : C(Q) −→ C(Q),
x 7−→ x∗ ,
(v1 v2 . . . vk )∗ = (−1)k vk . . . v2 v1 .
10.2.7 Il gruppo Spin(Q). Ora si può dare una definizone del gruppo Spin che non sfrutta
in modo esplicito le reflessioni:
±1 se K = R,
+
∗
−1
Spin(Q) := { x ∈ C(Q) : xx = , xV x ⊂ V },
=
1 se K = C.
10 RAPPRESENTAZIONI DI SPIN
179
Il gruppo Spin(Q) è un sottogruppo di (C(Q)+ )× (x−1 = x∗ per x ∈ Spin(Q)) e si può mostrare
che è un gruppo di Lie. Nel caso K = R, Spin(Q) non è connessa se ci sono x ∈ Spin(Q)
con xx∗ = −1. Questo occorre soltanto se esiste una base di V tale che Q è dato da Ip,q con
p, q ≥ 1.
Per la definizione di Spin(Q), si ha un omomorfismo
ρ : Spin(Q) −→ GL(V ),
ρ(x)(w) := xwx−1
(w ∈ V )
10.2.8 Proposizione. Sia B una forma bilineare nondegenere su uno spazio vettoriale V sul
campo K = R o C e sia Q(x) := B(x, x). Allora ρ(Spin(Q)) = SO(Q) e ker(ρ) = {±1}.
Dimostrazione. Per la dimostrazione abbiamo bisogno delle riflessioni. Quindi definiamo
P in(Q) := { x ∈ C(Q) : xx∗ = ±1,
α(x)V x−1 ⊂ V },
si noti che Spin(Q) ⊂ P in(Q). Si definisce un’estensione dell’omomorfismo ρ come
ρ : P in(Q) −→ GL(V ),
ρ(x)(w) = α(x)wx−1 .
Per x ∈ Spin(Q) ⊂ C + si ha α(x) = x e quindi ρ(x)(w) = xwx−1 come prima in 10.2.7.
Mostriamo che ρ(P in(Q)) = O(Q). Si ha ‘⊂’, perché se x ∈ P in(Q) e w ∈ V si ha
ρ(x)(w) ∈ V quindi (ρ(x)(w))∗ = −ρ(x)(w):
Q(ρ(x)w) =
=
=
=
=
=
=
=
=
(ρ(x)w)2
−ρ(x)(w)(ρ(x)(w))∗
−(α(x)wx−1 )(α(x)wx−1 )∗
−α(x)wx−1 (x−1 )∗ w∗ α(x)∗
∓α(x)ww∗ α(x)∗
±α(x)w2 α(x)∗
±Q(w)α(x)α(x)∗
±Q(w)α(xx∗ )
Q(w).
(xx−1 = 1 ⇒ (x−1 )∗ x∗ = 1 ⇒ (x−1 )∗ = (x∗ )−1 )
(w∗ = −w)
(w2 = Q(w))
(xx∗ = ±1 ⇒ α(xx∗ ) = ±1)
L’inclusione ‘⊃’ segue dal fatto che se v ∈ V e Q(v) 6= 0 esiste λ ∈ K tale che Q(λv) = ±1.
Sia x = λv, allora Rv = Rx e x∗ = −x. Perciò xx∗ = −x2 = ∓1 e xwx−1 = −Rx (w) ∈ V
se w ∈ W , quindi x ∈ P in(Q). Ora si ha ρ(x) = Rx come visto in 10.2.4. Perciò ρ(P in(Q))
contiene tutte le riflessioni e dal teorema di Cartan e Dieudonné segue che ρ(P in(Q)) ⊃ O(Q).
Adesso mostriamo che ρ(Spin(Q)) = SO(Q). Come visto in 10.2.4, dato A ∈ SO(n), ci sono
vi ∈ V tali che A = Rv1 . . . Rv2k e inoltre si ha JA (w) = xwx−1 dove x = v1 . . . v2k ∈ C(Q)+ .
Normalizzando i vi in modo tale che Q(vi ) = ±1 se K = R e Q(vi ) = 1 se K = C si vede che
xx∗ = (v1 . . . v2k ) · (−1)2k (v2k . . . v1 ) = (v1 . . . v2k−1 )Q(v2k )(v2k−1 . . . v1 ) = . . . = Q(v1 ) . . . Q(v2k ),
che è 1 se K = C e ±1 se K = R, quindi x ∈ Spin(Q) e ρ(x) = A come desiderato.
10 RAPPRESENTAZIONI DI SPIN
180
Determiniamo il nucleo di ρ : P in(Q) → O(Q). Sia x ∈ ker(ρ), cioè, α(x)v = vx per ogni
v ∈ V . Scriviamo x = x+ + x− con x± ∈ C(Q)± , allora segue che
x = x+ + x− ∈ ker(ρ) =⇒
x+ v = vx+ ,
−x− v = vx− .
Sia ei una base ortogonale per V , quindi ei ej = −ej ei se i 6= j e e2i ∈ K − {0}. Adesso
−
+
+ −
−
scriviamo x+ = x+
1 + e1 y1 dove x1 ∈ C(Q) , y1 ∈ C(Q) sono combinazioni lineari degli eI
−
k
con 1 6∈ I, cioè e1 non compare in x+
1 e y1 . In particolare eI e1 = (−1) e1 eI dove k = ]I. Allora
+
+
se scegliamo v = e1 , l’equazione x v = vx dà
2 −
+
−
e1 x+
1 + e 1 y 1 = x1 e 1 + e 1 y 1 e 1
2 −
+
2 −
cioè e1 x+
1 + e1 y1 = e1 x1 − e1 y1 ,
perciò y1− = 0, quindi e1 non compare in x+ . Procedendo in questo modo si ottiene che x+ non
+
−
− +
+
contiene nessun ei quindi x+ ∈ K. Poi scriviamo x− = x−
1 +e1 y1 dove x1 ∈ C(Q) , y1 ∈ C(Q)
−
+
e e1 non compare in x1 e y1 . Con v = e1 otteniamo
2 +
−
+
−(e1 x−
1 + e1 y1 ) = x1 e1 + e1 y1 e1
cioè
2 +
−
2 +
− e1 x−
1 − e1 y1 = −e1 x1 + e1 y1
quindi y1+ = 0 e perciò x− non contiene e1 , quindi nessun ei , perciò x− = 0, perché x− ∈ C(Q)− .
La conclusione è che x = x+ ∈ K.
Adesso consideriamo ker(ρ : Spin(Q) → SO(Q)), quindi imponiamo la condizione xx∗ = 1
se K = C e xx∗ = se K = R. Poiché x∗ = x per x ∈ K e x2 = 1 implica x = ±1, segue che
ker(ρ) = {±1}.
2
10.3
Le rappresentazioni spinoriali di so(n).
10.3.1 L’inclusione so(Q) ,→ C(Q)+ . L’omomorfismo di gruppi di Lie ρ : Spin(Q) →
SO(Q) induce un isomorfismo di algebre di Lie
(dρ)1 : T1 Spin(Q) = Lie(Spin(Q)) −→ TI SO(Q) = so(Q).
Poiché Spin(Q) ⊂ (C(Q)+ )× , il gruppo dei elementi invertibili in C(Q)+ , e C(Q)+ è uno spazio
vettoriale, si ha Lie(Spin(Q)) ⊂ C(Q)+ .
In più, è facile verificare (come già fatto nel caso analogo di GL(n, R) = Mn (R)× ⊂ Mn (R),
si veda 5.2.1) che le parentesi di Lie su Lie(Spin(Q)) sono date da [X, Y ] = XY − Y X dove
XY è il prodotto di X, Y ∈ Lie(Spin(Q)) ⊂ C(Q)+ in C(Q)+ :
so(Q) ∼
= T1 Spin(Q) ,→ C(Q)+ ,
[X, Y ] = XY − Y X
(X, Y ∈ so(Q) ⊂ C(Q)+ ).
Si noti che ora abbiamo trovato una rappresentazione dell’algebra di Lie so(Q) sullo spazio
vettoriale C(Q)+ :
so(Q) −→ End(C(Q)+ ),
X 7−→ [x 7→ Xx].
Cioè, X ∈ so(Q) ⊂ C(Q)+ agisce per moltipicazione e poiché [X, Y ]x = (XY − Y X)x =
X(Y x) − Y (Xx) si ha proprio una rappresentazione.
10 RAPPRESENTAZIONI DI SPIN
181
Questa rappresentazione non è irriducibile in generale, perché dato un qualunque z ∈ C(Q)+
si ha (Xx)z = X(xz) e quindi l’applicazione lineare C(Q)+ → C(Q)+ , x 7→ xz, commuta con
la rappresentazione di so(n).
Nel caso K = C la decomposizione della rappresentazione di so(Q) = so(n) in rappresentazioni irriducibili è data in 10.3.5 e 10.3.6. Per questo si usa l’algebra di Cartan di so(n), vista
come sottospazio di C(Q)+ .
In generale, si può mostrare che Lie(Spin(Q)) = so(Q) ⊂ C(Q)+ è generata dagli elementi
vw − B(v, w) ∈ C(Q)+ , dove v, w variano in V (si veda [FH] 20.1). Si può anche verificare
direttamente che:
Lie(Spin(Q)) := {x ∈ C(Q)+ : x + x∗ = 0,
xv + vx∗ ∈ V
∀v ∈ V }.
E’ facile verificare che vw − B(v, w) ∈ Lie(Spin(Q)). Poiché dim Spin(Q) = dim SO(Q), segue
che dim Lie(Spin(Q)) = n(n − 1)/2 dove n = dim V e che gli ei ej − B(ei , ej ), dove ei è una
base di V e i < j, sono una base di Lie(Spin(Q)).
In 10.3.3 determiniamo in modo esplicito la base Hi dell’algebra di Cartan h di so(n), vista
come sottospazio di C(Q)+ .
10.3.2 L’algebra di Clifford di Q. D’ora in avanti consideriamo sempre la forma quadratica
Q su Cn data da
Q(x) = x1 xm + . . . + xm x2m
oppure Q(x) = x1 xm + . . . + xm x2m + x22m+1
se n = 2m è pari oppure n = 2m + 1 è dispari. La forma bilineare B tale che Q(x) = B(x, x)
(e quindi 2B(x, y) = Q(x + y) − Q(x) − Q(y) è data da:
B(x, y) = 21 (x1 y2 + x2 y1 + . . . + xm y2m + x2m ym )
oppure da
B(x, y) = 12 (x1 y2 + x2 y1 + . . . + xm y2m + x2m ym ) + x2m+1 y2m+1 .
In C(Q) si ha quindi:
e2i = 0,
1 ≤ i ≤ 2m,
ej ej+m + ej ej+m = 1,
ea eb + eb ea = 0,
(|a − b| =
6 m)
dove 1 ≤ i, a, b ≤ 2m e 1 ≤ j ≤ m. In più e2m+1 anticommuta con questi ei e e22m+1 = 1.
10.3.3 L’algebra di Cartan. L’algebra di Cartan di so(n) = so(Q) è generata dalle Hi ,
1 ≤ i ≤ m dove n = 2m o n = 2m + 1, con
Hi ej = 0,
se j 6= i, i + m,
Hi ei = ei ,
Hi ei+m = −ei+m .
Quindi Hi = γ∗ := (d/dt)γ(t)|t=0 dove γ(t) ∈ SO(n) è dato da
γ : C∗ −→ SO(n),
γ(t)ei = tei ,
γ(t)ei+m = t−1 ei+m
γ(t)ei = 1 se j 6= i, i + m.
10 RAPPRESENTAZIONI DI SPIN
182
Si noti che sullo spazio due dimensionale W con base ei , ei+m si ha
Q(x1 ei + x2 ei+m ) = x1 x2 ,
B(x1 ei + x2 ei+m , y1 ei + y2 ei+m ) = 12 (x1 y2 + x2 y1 ),
e γ(t) induce l’applicazione lineare seguente su W , dove scegliamo un s ∈ C∗ con s2 = t:
−1 2
1
s
0 −1
0 −s−2
s
0
2
,
= Rv Rw , v =
, w=
=
γ(s ) =
s
−s2
0
1
−1 0
0 s−2
dove t = s2 e si ha Q(v) = Q(w) = 1, come si verifica facilmente. Su W ⊥ sia γ(t) sia Rv Rw
sono l’identità, quindi si ha x(t) = Rv Rw su V = Cn . Poiché x∗ = −x per x ∈ V si ha
(vw)∗ = (−w)(−v) = wv e (vw)(vw)∗ = vwwv = vQ(w)v = Q(w)Q(v) = 1, quindi
vw = (ei + ei+m )(s−1 ei + sei+m ) = s−1 ei ei+m + sei+m si = s−1 + (s − s−1 )ei ei+m ∈ Spin(Q),
qui abbiamo usato e2i = e2i+m = 0 e ei ei+m + ei+m ei = 2B(ei , ei+m ) = 1.
Definiamo un cammino
γ̃ : C∗ −→ Spin(n),
γ̃(s) = s−1 + (s − s−1 )ei ei+m .
Allora si ha:
2
ρ(γ̃(s)) = Rv Rw = γ(s ),
∗
C
γ̃ % Spin(n)
↓ρ
γ & SO(n),
quindi γ̃ è un sollevamento del cammino γ a Spin(n). Si noti che ρ è 2:1 su γ̃(C∗ ) ma che C∗
è connesso, quindi anche Spin(n) è connesso.
L’inclusione so(n) ⊂ C(Q)+ è definita tramite l’inverso dell’omomorfismo (dρ)1 :
T1 Spin(n) → so(n). In particolare, X ∈ T1 Spin(n) corrisponde con Hi ∈ so(n) se e solo
se (dρ)1 (X) = Hi .
Un cammino γ definisce un vettore tangente γ∗ (si veda 4.3.3) e si ha (si veda 4.3.5)
(dρ)1 (γ̃∗ ) = (ρ ◦ γ̃)∗ = γ∗ .
In particolare,
γ̃∗ = (d/ds)γ̃(s)|s=1 = −1 + 2ei ei+m
(∈ so(n) ⊂ C(Q)+ )
e la sua immagine mediante (dρ)1 in so(n) è:
(dρ)1 (γ̃∗ ) = (d/ds)γ(s2 )|s=1 = 2(d/dt)γ(t)|t=1 = 2Hi
quindi si ha
Hi = 21 γ̃∗ = − 12 + ei ei+m
(∈ so(n) ⊂ C(Q)+ ).
10.3.4 Vettori peso in C(Q). Adesso determiniamo alcuni vettori peso in CQ) per h ⊂
C(Q)+ . Per i ≤ m si ha in C(Q) (si veda 10.3.2):
(ei ei+m )ei = ei (−ei ei+m + 1) = ei ,
(ei ei+m )ej = ej (ei ei+m )
(j 6= i, i + m).
10 RAPPRESENTAZIONI DI SPIN
183
Usando ciò si trova in C(Q), per ogni i, 1 ≤ i ≤ m:
Hi (e1 e2 . . . em ) = (− 12 + ei ei+m )(e1 e2 . . . em ) = − 12 (e1 e2 . . . em ) + e1 e2 . . . em = 21 e1 e2 . . . em .
I pesi Li : h∗ → C soddisfano Li (Hj ) = δij . Quindi e1 e2 . . . em è un vettore peso per h:
H(e1 e2 . . . em−1 em ) = λm (H)e1 e2 . . . em−1 em ,
λm = 21 (L1 + . . . + Lm ).
In modo simile, si verifica:
H(e1 e2 . . . em−1 e2m ) = 21 (L1 + . . . + Lm−1 − Lm )(H)(e1 e2 . . . em−1 e2m ).
Per ogni z ∈ C(Q), si trova nello stesso modo:
H(e1 . . . em z) = 12 (L1 + . . . + Lm )(H)e1 . . . em z,
e similmente
H(e1 . . . em−1 e2m z) = 12 (L1 + . . . + Lm−1 − Lm )(H)e1 . . . em−1 e2m z.
10.3.5 Le rappresentazioni spinoriali di so(2m). Si ricordi che le rappresentazioni
spinoriali di so(2m) sono le rappresentazioni irriducibili con peso dominante
λm−1 = 21 (L1 + . . . + Lm−1 − Lm ),
λm = 12 (L1 + . . . + Lm ),
si veda 9.4.3.
Consideriamo la rappresentazione di so(2m) ⊂ C(Q)+ su C + (Q) di 10.3.1. Supponiamo
prima che m sia pari. In questo caso
x = e1 . . . em ,
y = e1 . . . em−1 e2m
sono in C(Q)+ e sono vettori pesi con peso λm e λm−1 rispettivamente. Per
J ⊂ {m + 1, . . . , 2m},
K ⊂ {m, m + 1, . . . , 2m − 1} con ]J, ]K ≡ 0 mod 2,
i vettori xeJ e yeK sono vettori peso indipendenti in C + (Q) con lo stesso peso λm e λm−1
rispettivamente. Quindi la moltiplicità di questi pesi è almeno:
+
m−1
.
dim C(Q)+
λm−1 , dim C(Q)λm ≥ 2
Ogni peso λ nell’orbita di λm−1 o λm sotto il gruppo di Weyl ha la stessa moltiplicità, e ci sono
2m−1 pesi in ognuna delle due orbite (si veda 9.4.3). Quindi ognuno dei 2m−1 + 2m−1 = 2m pesi
nell’unione delle orbite di λm−1 e λm ha moltiplicità almeno 2m−1 . La somma diretta di questi
spazi peso ha allora dimensione almeno 2m 2m−1 = 22m−1 = dim C(Q)+ . In particolare, ogni
peso di h su C + (Q) è nell’orbita di Weyl di λm−1 o λm e perciò
2m−1
C(Q)+ ∼
.
= (V (λm−1 ) ⊕ V (λm ))
10 RAPPRESENTAZIONI DI SPIN
184
Lo stesso isomorfismo vale se m è dispari. In tal caso x, y ∈ C(Q)− , però per ogni J, K come
come sopra, con ]J, ]K ≡ 1 mod 2, i vettori xeJ e yeK sono vettori peso in C(Q)+ . Quindi
+
troviamo ancora almeno 2m−1 vettori pesi indipendenti in C(Q)+
λm−1 e C(Q)λm e si ottiene
l’isomorfismo desiderato.
10.3.6 La rappresentazione spinoriale di so(2m + 1). Si ricordi che la rappresentazione
spinoriale di so(2m + 1) è la rappresentazione irriducibile con peso dominante
λm = 21 (L1 + . . . + Lm ),
si veda 9.5.3. Se m è pari allora per ogni J ⊂ {m + 1, . . . , 2m + 1} con ]J pari, il vettore
e1 . . . em eJ sta in C(Q)+ e ha peso λm . Se invece m è dispari, il vettore e1 . . . em eJ con ]J
dispari sta in C(Q)+ . In entrambi i casi troviamo che
m
dim C(Q)+
λm ≥ 2 .
Poiché ogni peso nell’orbita del gruppo di Weyl di λm ha la stessa moltiplicità, e ce ne sono 2m
di tali pesi (si veda 9.5.3), la somma diretta di questi spazi ha dimensione almeno 2m 2m = 22m .
Poiché dim C(Q)+ = 2n−1 = 22m concludiamo
2m
C(Q)+ ∼
= (V (λm )) .
10.3.7
Isomorfismi di algebre.
m−1
(V (λm−1 ) ⊕ V (λm ))2
implica che
Nel caso n
=
2m, l’isomorfismo C(Q)+
∼
=
Homso(2m) (C(Q)+ , C(Q)+ ) ∼
= M2m−1 (C) × M2m−1 (C).
Si noti che dim Homso(2m) (C(Q)+ , C(Q)+ ) = 2 · 22(m−1) = 22m−1 .
D’altra parte, per ogni z ∈ C + (Q) l’applicazione lineare C(Q)+ → C(Q)+ , y 7→ yz sta in
Homso(2m) (C(Q)+ , C(Q)+ ) (perché x ∈ so(n) ⊂ C(Q)+ agisce per y 7→ xy). Per ottenere un
omomorfismo di algebre, definiamo
φ : C(Q)+ −→ Homso(2m) (C(Q)+ , C(Q)+ ),
z 7−→ [x 7→ xz ∗ ]
allora φ(yz)(x) = x(yz)∗ = (xz ∗ )y ∗ = (φ(y) ◦ φ(z))(x), quindi φ è un omomorfismo di algebre.
Visto che 1 ∈ C(Q)+ e 1z = z, φ è iniettiva. Dato che dim C(Q)+ = 2n−1 = 22m−1 concludiamo
C(Q)+ ∼
= M2m−1 (C) × M2m−1 (C)
In modo simile si trova
C(Q)+ ∼
= M2m (C),
(n = 2m).
(n = 2m + 1).
Si noti che Spin(Q) ⊂ (C(Q)+ )× = M2m (C)× = GL(2m , C) e questa inclusione è una
m
rappresentazione di Spin(Q) su C2 , che induce la rappresentazione spinoriale di so(2m + 1)
m
su C2 ∼
= V (λm ). In modo simile si ottengono le rappresentazioni spinoriali di so(2m).
10 RAPPRESENTAZIONI DI SPIN
185
10.4 Spinori
Vediamo ora alcune definizioni di uso comune nel linguaggio fisico.
10.4.1 Spinori di Dirac. Sia Q una forma quadratica non-degenere su Cn . In 10.3.7 abbiamo
trovato gli isomorfismi di algebre complesse C(Q)+ ∼
= M2m−1 (C) × M2m−1 (C) se n = 2m e
+ ∼
C(Q) = M2m (C) se n = 2m + 1. In particolare, se n = 2m o 2m + 1, l’algebra di Clifford
m
pari agisce su C2 e questo induce le rappresentazioni spinoriali di so(2m) e so(2m + 1).
m
Gli elementi dello spazio C2 sono detti spinori di Dirac. Il gruppo Spin(Q) ⊂ (C(Q)+ )∗
agisce sugli spinori di Dirac.
10.4.2 Spinori di Weyl. Nel caso che n = 2m sia pari, gli elementi dei due sottospazi, di
dimensione 2m−1 invarianti per C(Q)+ ∼
= M2m−1 (C) × M2m−1 (C) si chiamano spinori di Weyl.
In particolare, in questo caso ogni spinore di Dirac è una coppia di spinori di Weyl.
10.4.3 Spinori di Majorana. La forma quadratica Qr,s , con r + s = n, su Rn , definisce una
forma quadratica non-degenere Q su Cn (data dallo stesso polinomio x21 + . . . + x2p − (x2p+1 +
. . . + x2n )). Quindi si ha C(r, s)+ := C(Qr,s )+ ,→ C(Q)+ . In generale però non è vero che
C(r, s)+ ∼
= M2m−1 (R) × M2m−1 (R) se n = 2m e C(Q)+ ∼
= M2m (R) se n = 2m + 1. Per esempio,
+ ∼
+ ∼
C(0, 3) = H, un corpo (si veda 10.2.3) e C(1, 3) = M2 (C).
m
Nel caso in qui esista un sottospazio reale V , di dimensione reale 2m , di C2 che sia invariante
per l’azione di C(r, s)+ si dice che gli elementi di V sono spinori di Majorana. Per esempio
C(1, 3)+ ∼
= M2 (C) e in questo caso esiste un tale V : si noti che A + Bi ∈ M2 (C), con A, B ∈
M2 (R) agisce su R4 nel modo seguente
A B
M2 (C) ,→ M4 (R),
A + Bi 7−→
.
−B A
10.4.4 Spinori di Majorana-Weyl. Nel caso n = 2m, e se esiste anche uno spazio vettoriale
V di spinori di Majorana ci si può inoltre chiedere se esistano due sottospazi reale V+ , V− di V ,
di dimensione reale 2m−1 , che siano invarianti per l’azione di C(r, s)+ . nel caso affermativo gli
elementi di V+ e V− sono detti spinori di Majorana-Weyl.
10.4.5 Esistenza di spinori dei vari tipi per C(1, s)+ . Nella tabella qui sotto si dà
l’esistenza o meno di spinori dei vari tipi per C(1, s)+ (∼
= C(s, 1)+ , si veda 10.2.2). Il risultato
dipende soltanto da n = 1 + s mod 8.
n mod 8
0
1 2
Majorana
sı̀ sı̀ sı̀
Majorana-Weyl no no sı̀
Naturalmente gli spinori di Dirac esistono sempre.
3
4
5
6
7
sı̀ sı̀ no no no
no no no no no
11 STRUTTURE GEOMETRICHE
11
186
Strutture geometriche
Testi consigliati: [dC], [D], [DNF1], [DNF2], [KN], [N1], [N2] [T], [Wa].
11.1
Fibrati
Nel capitolo 4 è stato introdotto il concetto di fibrato tangente che è poi stato generalizzato ad
alcuni altri casi quali il fibrato cotangente o i fibrati ottenuti dai prodotti tensori o dai prodotti
esterni. Tali concetti possono essere ulteriormente generalizzati per permettere la considerazione di situazioni più generali che risultano frequenti anche nelle applicazioni fisiche. Infatti
abbiamo finora visto i campi vettoriali su una varietà M come sezioni del fibrato tangente,
ovvero come mappe verticali V : M → T M , πM ◦ V := idM . Tuttavia è possibile pensare a
campi che in ogni punto hanno valori in spazi più generali, che possono essere spazi vettoriali,
reali o complessi, algebre di Lie ma anche gruppi o varietà differenziali. I concetti fondamentali per la costruzione dei fibrati generali sono tutti contenuti nelle proprietà fondamentali del
fibrato tangente.
π
11.1.1 Fibrati vettoriali. Un fibrato vettoriale si indica con E −→ M e consiste dei seguenti
ingredienti
• una varietà differenziale n−dimensionale M , provvista di un atlante A = {Uα , φα }α∈A ;
• uno spazio vettoriale su campo K m dimensionale, detto fibra di riferimento;
• una varietà differenziale (n + m)-dimensionale E, detta lo spazio totale del fibrato;
• una mappa differenziabile suriettiva πM : E → M detta proiezione;
−1
−1
• una famiglia di omeomorfismi locali Φα : πM
(Uα ) → Uα ×F tale che Φα (πM
(x)) = {x}×F
per ogni x ∈ Uα ,
i quali devono soddisfare
−1
• per ogni x ∈ M l’insieme Ex = πM
(x) deve essere uno spazio vettoriale isomorfo a F . Ex
si chiama fibra su x. Un punto di E sarà quindi localmente individuato da una coppia
(x, v), x ∈ M e v ∈ F ;
• se Uαβ := Uα ∩ Uβ 6= ∅ allora le mappe
Φβ ◦ Φ−1
α : Uαβ × F → Uαβ × F ,
(x, v) 7→ (x, gαβ (x)v) ,
dove gαβ : Uαβ → GL(F ) sono mappe differenziabili dette funzioni di incollamento.
La dimensione della fibra è detta anche rango del fibrato. Il fatto che le funzioni di incollamento
si riducano essenzialmente all’azione del gruppo GL(F ) sulle fibre, può essere interpretato come
se l’incollamento degli intorni locali avvenisse attaccando assieme le fibre comuni, cioè se i due
intorni Uα e Uβ hanno intersezione non vuota Uαβ allora si incolla la fibra {x} × F ⊂ Uα × F
11 STRUTTURE GEOMETRICHE
187
con la fibra {x} × F ⊂ Uβ × F al variare di x ∈ Uαβ , dopo averle identificate a meno di
una trasformazione lineare in G := GL(F ). In questo senso la struttura del fibrato dipende
essenzialmente dall’azione del gruppo G nell’incollamento delle fibre e per tale motivo esso viene
chiamato il gruppo di struttura del fibrato. Talvolta scriveremo (E, π, M, G, F ) per mettere in
evidenza anche il gruppo di struttura.
Più in generale, dato un atlante per M e uno spazio vettoriale F , si chiamano funzioni di
incollamento una famiglia di applicazioni
gαβ : Uαβ −→ GL(F ) ,
tali che
gαβ (x) = gβα (x)−1 ,
e
gαβ (x)gβγ (x)gγα (x) = I ∈ GL(F ) ,
per ogni α, β, γ tale che Uαβγ := Uα ∩ Uβ ∩ Uγ 6= ∅. Nella seconda condizione naturalmente le
mappe si intendono tutte ristrette a Uαβγ . Essa viene detta anche relazione di cociclo. Dalle
mappe di incollamento possiamo quindi ricostruire il fibrato vettoriale tramite la relazione
!
a
E=
(Uα × F ) / ∼ ,
α
dove (x, v) ∈ Uα × F e (y, w) ∈ Uβ × F sono equivalenti se
x = y ∈ Uαβ
e
w = gαβ v .
11.1.2 Esempio. Un esempio di fibrato vettoriale è il fibrato tangente con E = T M , F = Rn
e G = GL(n, R). Vediamo allora che l’elemento gαβ nel caso del fibrato tangente non è altro
che la matrice jacobiana J ∈ GL(n, R) della mappa φβ ◦ φ−1
α indotta dalle carte locali (Uα , φα ) e
(Uβ , φβ ). Confrontando con quanto visto in 3.1 ed utilizzando le convenzioni introdotte in 1.2.4
si può dunque interpretare l’inversa di J come la matrice di cambiamento di riferimento nella
fibra fissata (che dunque agisce a destra), cosicché le componenti (controvarianti) del vettore
v ∈ Rn trasformano appunto con la matrice J. In altre parole, nel linguaggio del paragrafo
1.2.6, il gruppo di struttura individua il gruppo rispetto al quale i vettori (e più in generale i
tensori) si comportano come tali.
11.1.3 Esempio. Il fibrato banale. Un fibrato vettoriale si dice banale se E = M × F . In
tal caso la proiezione sul fibrato coincide con la proiezione sul primo fattore.
11.1.4 Il punto di vista fisico. La proprietà di incollamento è particolarmente importante
nelle applicazioni fisiche. Nelle trattazioni più elementari di fisica un campo vettoriale in una
certa regione U viene trattato semplicemente come una mappa V : U → Rn . Il grafico di tale
mappa è l’insieme delle coppie (x, V (x)) ∈ U × Rn sicché possiamo rivedere il campo come
11 STRUTTURE GEOMETRICHE
188
un’applicazione V : U → U × Rn che composta con la proiezione sul primo elemento si riduce
all’identità. Tale descrizione è dunque rigorosa finché ci si riduce ad una regione limitata (cioè
una descrizione locale) in quanto T M |U ' U × Rn , ma non è più corretta per una definizione
del campo vettoriale su tutta la varietà M , a meno che non si abbia T M ' M × Rn . Un fibrato
siffatto si dice banalizzabile e la mappa che realizza tale isomorfismo si dice banalizzazione del
fibrato. Il fatto che in generale i fibrati siano non banali dimostra la loro importanza in fisica.
Per esempio si dimostra che per le sfere si ha T S n ' S n × Rn solamente per n = 1, 3, 7.
D’altra parte la descrizione locale continua ad essere indispensabile in quanto la descrizione
fisica sperimentale non può avvenire altrimenti. L’apparato sperimentale e l’interpretazione
relativa dei dati per la definizione fisica del campo richiede essenzialmente l’dentificazione locale
del fibrato con un prodotto cartesiano: nella regione U in cui si effettuano le misure, i vettori
misurati vengono tutti individuati con elementi di un unico spazio vettoriale Rn e non di un
differente spazio vettoriale (fibra) per ogni punto. Dal punto di vista fisico quindi il fibrato
viene costruito necessariamente a pezzi, che vanno poi incollati per costruire il fibrato completo
(e dunque la teoria generale). Tale ruolo viene svolto dalle funzioni di incollamento.
π
i
M , i = 1, 2 si dicono isomorfi
11.1.5 Isomorfismo tra fibrati. Due fibrati vettoriali Ei −→
se esiste un diffeomorfismo f : E1 −→ E2 che ristretto alle fibre si riduce ad un isomorfismo tra
spazi vettoriali e che sottende l’identità sulla base, cioè π2 ◦ f = π1 . In altre parole una fibra
sul punto x viene mandata nella fibra sullo stesso punto.
Un fibrato si dice banalizzabile se è isomorfo ad un fibrato banale.
11.1.6 Esempi. Un esempio di fibrato banale è il cilindro, visto come fibrato di rette sul
cerchio S 1 situato nell’origine delle rette stesse. Un fibrato banalizzabile, come visto nel capitolo
4, è il fibrato tangente sul cerchio S 1 . Un fibrato non banalizzabile è invece il nastro di Möbius
anch’esso visto come fibrato vettoriale su S 1 . Dato un fibrato, la sua restrizione ad una carta
locale opportuna è per definizione un fibrato banalizzabile e si dimostra in realtà che è banale,
cioè tutti i possibili isomorfismi sono equivalenti.
π
11.1.7 Sezioni di un fibrato. Dato un fibrato E −→ M si chiamano sezioni o sezioni
trasversali del fibrato le mappe differenziabili
ψ : M −→ E ,
che soddisfano π ◦ ψ = idM . Si scrive ψ ∈ Γ(M, E). In particolare si dice che ψ è una sezione
globale se è definita su tutto M . Si dice invece che è locale se è definita solamente su un intorno
aperto U in M e si scrive ψ ∈ Γ(U, E).
Queste definizioni sono vere anche per fibrati più generali di quelli vettoriali (si veda più avanti).
11.1.8 Criterio di banalizzabilità. Non è difficile dimostrare che un fibrato vettoriale con
fibra m−dimensionale è banalizzabile se e soltanto se ammette l’esistenza di m sezioni globali
ovunque linearmente indipendenti (esercizio). In pratica la scelta di un riferimento di sezioni
globali idividua un isomorfismo con il fibrato M × F . Tuttavia, dati due riferimenti, non è
11 STRUTTURE GEOMETRICHE
189
detto che sia possibile deformare l’uno nell’altro con continuità tramite una famiglia continua
di riferimenti.
π
1
11.1.9 Prodotto fibrato e prodotto tensoriale di fibrati vettoriali. Siano E1 −→
Me
π2
E2 −→
M due fibrati vettoriali su M con fibre F1 ed F2 . Si costruisce allora il prodotto fibrato
π×
E1 ×M E2 −→ M su M , con fibra F1 × F2 dove lo spazio totale è
E1 ×M E2 := {(ξ1 , ξ2 ) ∈ E1 × E2 | π1 ξ1 = π2 ξ2 } .
π⊗
In modo del tutto analogo si costruisce il prodotto tensore E1 ⊗M E2 −→ M su M , con fibra
F1 ⊗ F2 dove lo spazio totale è
E1 ⊗M E2 := {ξ1 ⊗ ξ2 |(ξ1 , ξ2 ) ∈ E1 × E2 e π1 ξ1 = π2 ξ2 } .
Un modo più semplice di definire tali fibrati è attraverso le funzioni di incollamento. Indichiamo
(i)
con gαβ : Uαβ −→ GL(Fi ), i = 1, 2 le funzioni di incollamento dei due fibrati. Per il prodotto
fibrato, di fibra F1 ⊕ F2 , avremo
!
a
E1 ×M E2 =
Uα × (F1 ⊕ F2 ) / ∼ ,
α
dove la relazione di equivalenza è
(1)
(2)
(x, (v, w)) ∼ (x, (gαβ (x)v, gαβ (x)w)) ,
∀x ∈ Uαβ , v ∈ F1 , w ∈ F2 .
Analogamente per il prodotto tensore, di fibra F1 ⊗ F2 , avremo
!
a
E1 ⊗M E2 =
Uα × (F1 ⊗ F2 ) / ∼ ,
α
dove la relazione di equivalenza è l’estensione lineare di
(1)
(2)
(x, v ⊗ w) ∼ (x, gαβ (x)v ⊗ gαβ (x)w) ,
∀x ∈ Uαβ , v ∈ F1 , w ∈ F2 .
È ovvio come tali definizioni si estendano al caso di un numero arbitrario di fibrati.
π
11.1.10 Duale di un fibrato vettoriale. Dato un fibrato vettoriale E −→ M di fibra F
si può costruire il suo duale E ∗ semplicemente sostituendo ogni fibra Ex ' F con il suo duale
Ex∗ . Usando le funzioni di struttura come sopra, vediamo che
!
a
E∗ =
Uα × (F ∗ ) /∼∗ ,
α
dove ∼∗ è definita dalla rappresentazione controgradiente di GL(F ) su F ∗ .
11 STRUTTURE GEOMETRICHE
190
11.1.11 Fibrati principali. Finora abbiamo individuato il gruppo di struttura di un fibrato vettoriale con fibra F con il gruppo GL(F ). Tuttavia più in generale può accadere che
le funzioni di incollamento abbiano valori in un sottogruppo G ⊂ GL(F ). L’importanza del
ruolo del gruppo di struttura G nella costruzione dei fibrati vettoriali suggerisce di introdurre
il seguente concetto.
Un fibrato principale con gruppo di struttura G è una quadrupla {P, πM , M, G} (che in generale
πM
indicheremo semplicemente con P o con P −→
M ) dove P ed M sono due varietà differenziabili, πM : P → M un’applicazione differenziabile suriettiva, G un gruppo di Lie che agisce
−1
liberamente a destra su P, preservando ciascuna fibra Px := πM
(x) e l’azione è transitiva sulle
fibre. Infine si richiede che esistano degli omeomorfismi locali che banalizzino localmente il
fibrato e che siano compatibili con l’azione di G:
−1
Φα : πM
(Uα ) −→ Uα × G
tale che Φα (Px ) = {x} × G,
Φα (pg) = Φα (p)g
dove (x, h)g := (x, hg) per x ∈ Uα e g, h ∈ G.
In particolare dunque Px ' G e (Φβ Φ−1
α )(x, h) = (x, gαβ (x)h) per una mappa differenziabile
gαβ : Uαβ → G. Poiché tali funzioni devono chiaramente soddisfare le relazioni di cociclo
(si veda 11.1.1) come vedremo da un fibrato principale si può sempre costruire un fibrato
vettoriale. Si noti che la richiesta che le Φα rispettino l’azione a destra impone che esso definisca
essenzialmente un’azione a sinistra sulle fibre. In sostanza possiamo scrivere
!
a
P=
Uα × G / ∼ ,
α
dove
(x, h) ∼ (x, gαβ (x)h) ,
∀x ∈ Uαβ , h ∈ G .
Un esempio di fibrato principale, di particolare importanza in relatività generale, è il fibrato
dei riferimenti.
Nota. Una sezione di un fibrato principale si dice globale se è ovunque ben definita. Allora un
fibrato principale è banalizzabile se e solo se ammette almeno una sezione globale.
11.1.12 Il fibrato dei riferimenti. Il fibrato dei riferimenti può essere definito per ogni
fibrato vettoriale. Tuttavia, per motivi di definitezza e per il significato che assume in relatività
generale, ci concentriamo qui nel caso del fibrato tangente. Sia
πM : T M −→ M
il fibrato tangente a M . Ad ogni x ∈ M , anziché uno spazio vettoriale Tx M , si associ l’insieme
dei riferimenti18 in Tx M , che denoteremo con Rx M . Rx M non è uno spazio vettoriale ma è
2
un sottoinsieme aperto di Rn e quindi una varietà dfferenziale n2 −dimensionale. Su di essa
vi è un’azione19 libera e transitiva di GL(n, R) il quale risulta perciò isomorfo (come varietà)
18
19
cioè n-uple di vettori linearmente indipendenti, n = dimM , cioè una base ordinata
a destra secondo le convenzioni in 1.2.4
11 STRUTTURE GEOMETRICHE
191
alla fibra stessa, una volta che si sia identificato un punto e ∈ Rx M con l’elemento neutro
I ∈ GL(n, R). Sull’insieme
a
RM :=
Rp M ,
p∈M
`
e le sue restrizioni RM |Uα := p∈Uα Rp M agli intorni delle carte locali (Uα , φα ), si vede che la
precedente identificazione individua degli omeomorfismi locali
−1
Ψα : πM
(Uα ) ≡ RM |Uα −→ Uα × GL(n, R) ,
i quali danno a RM la struttura di una varietà differenziale ((n2 + n)−dimensionale). Qui πM
è la proiezione naturale che associa x ∈ M ad ogni fibra Rx M .
L’oggetto cosı̀ costruito si chiama il fibrato dei riferimenti su M . Esso è costituito da
una quadrupla {RM, πM , M, GL(n, R)} dove RM ed M sono due varietà differenziabili,
πM : RM → M un’applicazione differenziabile suriettiva e il gruppo di Lie GL(n, R) agisce
liberamente e transitivamente a destra su RM preservando le fibre.
11.1.13 Fibrati vettoriali associati ad un fibrato principale. Sia P un fibrato principale
di gruppo G e (ρ, F ) una rappresentazione di G sullo spazio vettoriale F (finito-dimensionale).
Si può costruire un fibrato vettoriale
π
E
E = P ×G F −→
M
con gruppo di struttura G ponendo
E = P ×ρ F := (P × F )/∼ρ ,
dove la relazione di equivalenza è data da
(p, h) ∼ρ (pg, ρ(g −1 )v) ,
∀p ∈ P, g ∈ G, v ∈ F .
Se con ∼P indichiamo la relazione di equivalenza che definisce P, abbiamo
!
!
a
E=
Uα × G / ∼P ×ρ F .
α
Dunque se (x, h, v)((x, h), v) è un rappresentante di un punto di E e se gαβ sono le funzioni di
transizione di P, si ha
(x, h, v) ∼ρ (x, e, ρ(h)v) ∼P (x, gαβ (x), ρ(h)v) ∼ρ (x, e, ρ(gαβ (x))ρ(h)v) ,
dove e è l’identità del gruppo. Poiché la mappa v 7−→ (e, v) definisce un isomorfismo tra G ×ρ V
e V , possiamo scrivere la catena di equivalenze nella forma (dove in questo caso particolare
w ' (e, w) ' (h, v))
(x, w) ∼E (x, ρ(gαβ (x))w) ,
11 STRUTTURE GEOMETRICHE
192
cosicché
!
E=
a
Uα × F
/ ∼E .
α
In altre parole, se gαβ sono le funzioni di transizione di P, allora le funzioni di transizione del
fibrato vettoriale associato sono le ρ(gαβ ).
11.1.14 Esempio. Il fibrato tangente. Il fibrato tangente è il fibrato vettoriale associato
al fibrato dei riferimenti, dove V = Rn (n = dim(M )) e se A è una matrice di GL(n, R) allora
ρ(A) agisce su Rn semplicemente con l’usuale prodotto riga per colonna della matrice A per i
vettori colonna di Rn . Infatti possiamo costruire esplicitamente la mappa che lega il fibrato dei
riferimenti al fibrato tangente
n
Φ : R × R −→ T M , (r, v) 7−→
n
X
fi ai ∈ Tx M ,
i=1
dove r = (f1 (x), . . . , fn (x)) ∈ Rx è un riferimento in x e v = (a1 , . . . , an ) ∈ Rn una n-upla
reale. Il gruppo GL(n, R) agisce a destra sui riferimenti in modo che se A ∈ GL(n, R), allora
RA r = r̃ = (f˜1 , . . . , f˜n ) ,
f˜i =
n
X
fj Aji .
j=1
Allora ρ(A−1 ) è la matrice inversa di A che agisce a destra nella trasformazione dei riferimenti,
cioè
n
X
−1
1
n
i
ρ(A )v = ṽ = (ã , . . . , ã ), ã =
(A−1 )ij aj .
j=1
Infatti in tal modo gli elementi (r, v) e (r̃, ṽ), che sono ρ equivalenti, vengono mappati nello
stesso elemento di T M :
Φ(r̃, ṽ) =
n X
n X
n
X
i=1 j=1 k=1
fi Aij (A−1 )jk ak =
n X
n
X
i=1 k=1
fi δik ak =
n
X
fi ai = Φ(r, v) .
i=1
Questo, oltre a mostrare esplicitamente come il fibrato vettoriale venga realizzato tramite le
classi di equivalenza, mette in evidenza come in pratica la relazione tra fibrato principale e fibrato vettoriale sia una generalizzazione della relazione tra vettori, componenti e basi descritta
nel capitolo 1.
Il fibrato cotangente si ottiene allo stesso modo sostituendo a ρ la sua rappresentazione
controgradiente. Più in generale si può usare 3.1 per definire i fibrati tensoriali.
11.1.15 Osservazioni. Si può generalizzare ulteriormente il concetto di fibrato. Ciò che
occorre sono
• tre varietà differenziabili E, M, F con dim(E) = dim(M )+dim(F ), dette rispettivamente
spazio totale, base e fibra di riferimento;
11 STRUTTURE GEOMETRICHE
193
E
• una mappa differenziabile suriettiva πM
: E → M;
• associata ad un atlante {(Uα , φα )}α∈A di M , una famiglia di omeomorfismi locali ΨE
α :
E −1
(πM ) (Uα ) → Uα × F ;
E −1
• un gruppo di struttura G che agisce su F e tale cioè che ΨE
β ◦ (Ψα ) ((p, f )) = (p, gαβ f )
se p ∈ Uα ∩ Uβ e f ∈ F mentre gαβ ∈ G.
Si definisce cosı̀ un fibrato differenziale E su M con fibra F e gruppo di struttura G.
Si noti ancora una volta che le funzioni di incollamento gαβ devono soddisfare le condizioni di
cociclo
−1
gαβ
= gβα ,
gαβ gβγ gγα = idUαβγ ,
essendo Uαβγ = Uα ∩ Uβ ∩ Uγ .
Tutte le precedenti definizioni sono casi particolari di questa, dove in particolare F = G nel
caso di un fibrato principale.
Si vede inoltre facilmente che ogni fibrato sottende sempre un fibrato principale. Nella
costruzione di tutti i possibili fibrati, la fibra non ha quindi particolare importanza dato che
tutti i fibrati possono essere ricondotti al fibrato principale sotteso. Di qui la particolare importanza dei fibrati principali: per classificare tutti i fibrati differenziali su una varietà è sufficiente
classificarne i possibili fibrati principali.
11.1.16 Esempio: fibrati sulla sfera. Se consideriamo M = S n , la sfera n-dimensionale
con l’usuale struttura differenziale individuata ad esempio dall’immersione in Rn+1 , come noto
si può utilizzare un atlante costituito da due sole carte locali, diciamo una che copre l’emisfero
boreale
S+ = {x = (x0 , . . . , xn ) ∈ Rn+1 |x · x = 1, x0 > −} ,
e l’altra che copre l’emisfero australe
S− = {x = (x0 , . . . , xn ) ∈ Rn+1 |x · x = 1, x0 < } ,
che si intersecano in un intorno (piccolo a piacere) della sfera equatoriale Se = S+ ∩ S− = S n−1 .
Ogni fibrato sulla sfera è quindi individuato da una sola funzione di transizione, essenzialmente
ge : Se −→ GL(n, R). Per classificare tutti i fibrati (o meglio le loro classi di equivalenza) sulla
sfera S n , occorre classificare le mappe S n−1 −→ GL(n, R) (o meglio le loro classi di omotopia).
11.1.17 Osservazione. Notiamo infine che può essere utile talvolta utilizzare la seguente
11 STRUTTURE GEOMETRICHE
194
π
raffigurazione pittorica per un fibrato E :−→ M con fibra F
Fibrato differenziale
E
F
ξ s
ψ
s
I
v = ψ(ξ)
Ex
π
H
s
M
x = π(ξ)
11.2
Geometria e gruppi di Lie
Vediamo alcuni aspetti della geometria dei gruppi di Lie dal punto di vista delle varietà
differenziali. Sia dunque G un gruppo di Lie n−dimensionale.
11.2.1 La 1−forma di Cartan. Come si è visto in 5.2.1 su G è definita una mappa Lg di
traslazione a sinistra, che permette di definire l’algebra di Lie associata al gruppo come l’algebra
dei campi vettoriali invarianti a sinistra ed identificarla con lo spazio tangente all’identità. Una
base di campi vettoriali invarianti a sinistra è data da {χi }ni=1 dove χi |g = Lg ∗ τi , essendo τi gli
elementi di una base di Te G. Similmente se µj individuano la base duale di Te∗ G, µi (τj ) = δji ,
allora la base delle 1−forme invarianti a sinistra (canonicamente duale a quella dei campi) è
data da J i |g = L∗g−1 (µi ). Si definisce allora la forma di Cartan J := τi J i , che per costruzione è
dunque una 1−forma a valori nell’algebra di Lie che risulta essere invariante a sinistra. Poiché
i τ si possono identificare con χi si vede che la forma di Cartan agisce come l’identità sui campi
invarianti a sinistra. In particolare dunque J è indipendente dalla scelta della base τi . Infine è
un utile esercizio la dimostrazione della importante proprietà Rg∗ J = Ad(g −1 ) ◦ J.
11.2.2 La forma di Killing. Sull’algebra di Lie g si definisce una forma bilineare K :
g × g → C, detta forma di Killing, tramite la relazione K(a, b) = T r(ad(a)ad(b)) per ogni
a, b ∈ g, dove T r indica la traccia. Essa soddisfa le proprietà di simmetria K(a, b) = K(b, a) e
di ad-invarianza K([a, b], c) = K(a, [b, c]), che segue facilmente dalle identità di Jacobi. Posto
11 STRUTTURE GEOMETRICHE
195
Kij = K(τi , τj ) si può scrivere K = Kij µi ⊗ µj . La forma di Killing si estende facilmente ad
una forma bilineare simmetrica ad-invariante
KG ∈ T ∗ G ⊗S T ∗ G
:= Sym2 (T ∗ G)
tramite pull-back: KG |g = L∗g−1 K. Dunque KG = T r(ad(J) ⊗ ad(J)) = Kij J i ⊗ J j è invariante
a sinistra.
Si noti che scelta una base τj dell’algebra, con costanti di struttura cjk l e con base duale µj , si
ha
Kij = T r(ad(τi ) ◦ ad(τj )) =
n
X
l
µ ((ad(τi ) ◦ ad(τj ))(τl )) =
l=1
=
n
X
n
X
µl ([τi , cjl k τk ])
l,k=1
cil k cjks µl (τs ) ,
l,k,s=1
sicché, adottando la convenzione di Einstein, Kij = cil k cjkl . Inoltre la condizione di adinvarianza assume la forma cij l Klk = −cik l Klj che equivale a dire che i coefficienti cijk := cij l Klk
sono completamente antisimmetrici negli indici.
11.2.3 L’equazione di Maurer-Cartan. Vogliamo calcolare d1 J ovvero d1 J i . Poiché le
J i sono invarianti a sinistra e, come si dimostra facilmente, l’operatore di derivazione esterna
commuta con il pull-back, le due forme d1 J i saranno anch’esse invarianti a sinistra. Per determinarle è dunque sufficiente valutarle sulla base χj di campi invarianti a sinistra. Utilizzando
la formula di Cartan in 4.5.8 e il fatto che J i (χj ) = δji , si ottiene
dJ i (χj , χk ) = −J i ([χj , χk ]) = −cjkl J i (χk ) = −cjki ,
essendo cjkl le costanti di struttura dell’algebra nella data base: [τj , τk ] = cjk l τl . Segue che
dJ = 21 J j ∧ J k cjk l τl , che si trova talvolta scritta nella forma
1
dJ + [J, J] = 0
2
dove si intende convenzionalmente che per due 1-forme J, K a valori in un’algebra di Lie
[J, K](χ, ξ) := [J(χ), K(ξ)] − [J(ξ), K(χ)] ,
cosicché [J, J] := [τi , τj ]J i ∧ J j .
11.2.4 Forma di Killing per gruppi semisemplici. Si dimostra che K è non degenere se
e soltanto se l’algebra g è semisemplice. Ricordiamo che nondegenere significa che K(a, b) = 0
∀b ∈ g implica a = 0 (l’analogo scambiando a con b segue dalla simmetria), che equivale a
det Kij 6= 0.
Dimostriamo che se K non è degenere allora g è semisemplice. Per assurdo sia I ⊂ g un ideale
11 STRUTTURE GEOMETRICHE
196
abeliano non banale. Allora K(I, g) = 0 cioè K(i, a) = 0 per ogni i ∈ I,P
a ∈ g. Infatti, scelta
j
la base τi di g e la sua duale µ , sia ha K(i, a) = T r(ad(i) ◦ ad(a)) = nl=1 µl ([i, [a, τl ]]). Se
s = dim(I) allora scegliamo la base τi in modo che i primi elementi generino I. Perciò
K(i, a) =
s
X
l
µ ([i, [a, τl ]]) +
l=1
n
X
µl ([i, [a, τl ]]) = 0 ,
l=s+1
dato che nella prima sommatoria [a, τl ] ∈ I ha parentesi nulle con i (essendo I abeliano) mentre
nella seconda sommatoria µl è valutato su I, ma l > s.
In particolare dunque KG è nondegenere per i gruppi semisemplici. Se l’algebra di Lie è reale,
allora K definisce una metrica con segnatura, che è euclidea nel caso si tratti di una forma
compatta. Una metrica invariante a sinistra sul gruppo è perciò ds2 = κKG , essendo κ una
costante di normalizzazione.
11.2.5 Esempio. Il caso dei gruppi matriciali. Consideriamo il caso in cui G sia un
sottogruppo di Lie di GL(N, C). Sia (U, ψ) una carta locale contenente l’identità e = ψ −1 (0).
Posto V := ψ(U ) ∈ Rn , dove n = dim(G), indichiamo con g(x) = ψ −1 (x) il generico punto di U
e sia θ(x) := g(x)−1 dg. Si tratta di una 1−forma su V con le seguenti proprietà di immediata
verifica:
• θ(0) : T0 V → Te G ' g;
• se hg(x) ∈ U allora (Lh ◦ ψ −1 )∗ θ = θ;
• θ(0)(∂/∂xj ) = ψ∗−1 (∂/∂xj ).
Ne segue che φ := ψ ∗ θ è una 1−forma U con le proprietà
• φ(e) : Te U → Te G ' g;
• se hg ∈ U allora (Lh )∗ φ = φ, cioè è invariante a sinistra;
• φ(e)(τi ) = θ(0)(ψ∗ (τi )) = τi ,
cosicché φ = J|θ è la restrizione a U della forma di Cartan. Per i gruppi matriciali si ha quindi
una costruzione semplice della forma di Cartan che si indica semplicemente con J = g −1 dg. Essa
permette anche una deduzione elementare dell’equazione di Maurer-Cartan. Poiché g −1 · g = e,
si trova che dg −1 = −g −1 · dg · g −1 , da cui segue immediatamente che dJ = −J ∧ J. D’altra
parte, posto J = J i τi , usando l’antisimmetria del prodotto esterno, si ha J ∧ J = τi τj J i ∧ J j =
1
[τ τ − τj τi ]J i ∧ J j = 21 [τi , τj ]J i ∧ J j , che porta all’equazione di Maurer-Cartan.
2 i j
11.2.6 Esempio. SU (2). È il gruppo delle matrici 2 × 2 unitarie, U U † = U † U = 1,
con det U = 1. Il differenziale di queste relazioni mostra che l’algebra consiste delle matrici
antihermitiane di traccia nulla. Una base conveniente è data dalle τi = −iσi , i = 1, 2, 3 con
0 1
0 −i
1 0
σ1 =
, σ2 =
, σ3 =
.
1 0
i 0
0 −1
11 STRUTTURE GEOMETRICHE
197
Le costanti di struttura sono cij l = 2ijl , cioè due volte il tensore di Levi-Civita. La metrica
di Killing è perciò Kij = cik l cil k = −8δij . È definita negativa ed in particolare nondegenere,
conseguenza della semplicità di su(2).
Per individuare l’elemento generico di SU (2) si può adoperare la parametrizzazione di Eulero
g(φ, θ, ψ) = eφσ3 eθσ2 eψσ3 dove φ ∈ [0, π[, θ ∈ [0, π/2[, ψ ∈ [0, 2π[. Allora si trova per la forma
di Cartan20
J = g −1 dg = [− cos(2ψ) sin(2θ)dφ + sin(2ψ)dθ]σ1 + [sin(2ψ) sin(2θ)dφ + cos(2ψ)dθ]σ2
+[dψ + cos(2θ)dφ]σ3 ,
e quindi per la forma di Killing sul gruppo21
KG = −8[dφ2 + dθ2 + dψ 2 + 2 cos(2θ)dφdψ] .
11.2.7 Misura invariante su gruppi semisemplici. In Rn si può definire una misura di
Lebesgue dµ(x) = dx1 · . . . · dxn . Sia (M, γ) una varietà dotata di una metrica γ. Scegliamo
una carta locale (U, φ) con coordinate x. Si definisce allora una misura τ su U nel seguente
modo: poiché φ è un omeomorfismo, allora V ⊂ U sarà misurabile se lo è φ(V ) e poniamo
Z
p
| det γ̃|dµφ (x) ,
τ (V ) =
φ(V )
p
∗
. Essa è ben definito poiché | det γ̃|dµφ (x) non dipende dalla scelta delle
dove γ̃ := φ−1p
coordinate22 e | det γ̃| è strettamente positivo su φ(U ). Inoltre può essere estesa a tutta M
tramite una partizione dell’unità.
Consideriamo allora il caso di un gruppo semisemplice reale. Su di esso la metrica invariante
dà origine ad una misura invariante. Infatti sia V ⊂ Z e Lg V ⊂ U , dove (Z, ψ) è una seconda
carta locale di coordinate y. Allora
Z
Z
q
q
∗
| det φ−1 (KG )|dµφ (x) =
| det ψ −1 ∗ ◦ L∗g−1 (KG )|dµψ (y)
τ (Lg V ) =
ψ(V )
φ(Lg V )
Z
q
=
| det ψ −1 ∗ (KG )|dµψ (y) = τ (V ) .
ψ(V )
Giustificazione della misura: in un dato punto è sempre possibile scegliere delle coordinate
ortogonali per le quali cioè il tensore metrico γ = gij dxi dxj è diagonale. Se in tale sistema
consideriamo le curve coordinate infinitesime δxi , ciascuna ottenuta variando di p
∆xi la corrispondente coordinata, esse individuano un cubetto i cui lati sono lunghi |δxi | = |gii |∆xi e
20
come d’uso omettiamo di mettere in evidenza il fatto che in realtà stiamo esprimendo le seguenti quantità
in coordinate locali
21
usiamo la notazione dx2 := dx ⊗ dx e dxdy := dx ⊗S dy = 12 (dx ⊗ dy + dy ⊗ dx)
22
verificare!
11 STRUTTURE GEOMETRICHE
198
p
Q
che ha dunque volume | det g| ni=1 ∆xi .
Se sul gruppo usiamo la metrica γ = κKG , allora si ha
gij dxi dxj = κKij J i ⊗ J j = κKlm Jil Jjm dxi dxj ,
p
p
da cui |detgij | = |κ det Kij || det Jji |. La determinazione della misura invariante sul gruppo
si riduce allora essenzialmente al calcolo del determinante della matrice Jji .
11.2.8 Esempio. La misura invariante per SU (2). La matrice associata alla forma di
Cartan è


− cos(2ψ) sin(2θ) sin(2ψ) 0
Jli =  sin(2ψ) sin(2θ) cos(2ψ) 0  ,
cos(2θ)
0
1
e quindi | det Jli | = sin(2θ), che determina l’intera misura se scegliamo ad esempio κ = − 81 .
Si noti che in questo caso il calcolo della misura si poteva fare direttamente partendo da KG .
Tuttavia nel caso generale le difficoltà tecniche diventano tali che il calcolo di KG è praticamente
impossibile mentre il calcolo di J e del suo determinante sono ancora fattibili.
11.3
Connessioni
Dato un fibrato differenziale (E, π, M, G, F ) ha senso introdurre il concetto di campi su M a
valori nello spazio vettoriale F . Si tratterà delle sezioni ψ ∈ Γ(M ; E), cioè le mappe
ψ : M −→ E ,
π ◦ ψ = idM .
Nasce allora la necessità di introdurre il concetto di derivazione di un tale campo, che estenda
quello delle usuali funzioni, e che ammetta però l’interpretazione di confronto tra i valori del
campo in punti vicini. La difficoltà principale è insita nel fatto che ψ(x) ∈ π −1 (x) e ψ(y) ∈
π −1 (y) per x 6= y appartengono a due spazi vettoriali isomorfi ma distinti e perciò la loro
differenza non ha alcun significato. Per poter confrontare i due vettori ψ(x) e ψ(y) occorre in
qualche modo trovare il modo di trasportare uno dei due vettori nello spazio vettoriale dell’altro.
Bisogna perciò in qualche modo connettere i due spazi vettoriali e una volta che si sia stabilita
una tale connessione si può pensare di trasportare uno dei due vettori da uno spazio vettoriale
all’altro. Un tale trasporto viene detto anche trasporto parallelo.
11.3.1 Esempio. Spazi affini.
Consideriamo il caso in cui M sia uno spazio affine
n−dimensionale reale. Come varietà differenziale M ' Rn . Consideriamo un campo vettoriale
ψ ∈ X (M ) = Γ(M, T M ). In questo caso si ha T M ' M × Rn ' R2n . Fissato un punto
x ∈ M , si ha l’isomorfismo naturale TxM ' Rn . In pratica, possiamo pensare pittoricamente
a Tx M come all’insieme dei vettori che spiccano da x e terminano nei punti y di M . Usando
le proprietà dello spazio affine, dati i punti x, y ∈ M c’è un modo naturale di trasportare il
vettore ψ(y) in x. Infatti se ψ(y) = z − y per qualche z ∈ M , sia w = x + (z − y). In
pratica x, y, z, w sono i vertici di un parallelogramma. Possiamo allora pensare a w − x come
al trasporto parallelo di ψ(y) in x.
11 STRUTTURE GEOMETRICHE
199
Conviene vedere la regola di trasporto che abbiamo assegnato dal punto di vista del fibrato.
Scriviamo T M ' Rn(1) × Rn(2) e vediamo i due fattori del prodotto come se fossero ascisse ed
ordinate: le ascisse individuano i punti di M ' Rn(1) . L’iperpiano individuato da un fissato
valore delle ascisse rappresenta la fibra nel dato punto. Posto ψ(y) = (y, v) il suo trasporto in
x è semplicemente (x, v). In altre parole la regola stabilita è la seguente: quando ci si sposta
da y in x, lungo una qualche curva γ (γ(0) = y, γ(1) = x), corrispondentemente il punto in
T M si sposta nell’iperpiano (Rn(1) , v) lungo la curva (γ, v).
Questo modo di eseguire il trasporto è banale, ma è reso possibile dal fatto che il fibrato è
banale. Poiché T M ' M × Rn possiamo trasformare una curva γ in M in una curva γ̃ = (γ, v)
in T M ed usarla per eseguire il trasporto: il punto iniziale è quello da trasportare mentre quello
finale è il risultato del trasporto lungo la curva.
Per fibrati non banali non è possibile associare alla curva γ ∈ M una curva γ̃ ∈ T M che
determini il trasporto, in modo altrettanto naturale. Osserviamo inoltre che per Rn la curva
non sembra giocare in realtà nessun ruolo, mentre si vede facilmente che il trasporto dipende
decisamente dalla curva nei casi non banali.
11.3.2 Esempio. Connessioni metriche su S 2 .
Naturalmente possiamo pensare S 2
immerso in R3 per cui T S 2 ⊂ R3 × R3 , dove R3 è dotato della metrica euclidea. Questa metrica
induce una metrica su S 2 , con la quale si possono misurare le lunghezze e gli angoli tra i vettori
tangenti in un punto della sfera. Un trasporto parallelo che conserva tali angoli si dice essere
indotto da una connessione metrica. Comunque una volta fissata una metrica la connessione
metrica non è univoca poiché occorre caratterizzare anche le curve rispetto alle quali l’angolo
viene conservato. Per chiarire questo punto nel caso di una sfera esiste una rappresentazione
pittorica.
Connessione di Levi-Civita
Sia v ∈ Tp S 2 il vettore da trasportare sulla sfera. Possiamo supporre che p sia il polo sud e
Tp S 2 sia un piano sul quale la sfera è appoggiata. Identificando il piano con lo spazio affine
R2 possiamo spostare parallelamente il vettore v ovunque e quindi immaginare che in ogni suo
punto vi sia un vettore parallelo a v.
Supponiamo di far rotolare la sfera sul piano. La regola è che non ruoti mai su sè stessa attorno
al punto d’appoggio. Allora man mano che rotola il punto d’appoggio traccia sulla sfera un
arco diametrale che mantiene sempre lo stesso angolo rispetto ai vettori fissati sul piano. Se
la fermiamo, essa si appoggerà nel punto q (sull’arco massimo) e possiamo identificare il piano
con Tq S 2 . Il vettore in q parallelo a v (sul piano!) può allora essere identificato con il trasporto
parallelo di v in q. Si noti che il vettore unitario tangente alla curva in ogni punto coincide con
il trasporto parallelo del vettore unitario tangente in p lungo la curva. Si dice che tale curva è
autoparallela.
Se vogliamo trasportare lo stesso vettore v lungo una curva arbitraria sulla sfera, potremo disegnare la curva sulla sfera, e farla rotolare in modo che poggi sul piano sempre con i punti segnati
dalla curva senza mai ruotare rispetto all’asse verticale. Il vettore unitario tangente alla sfera
lungo la curva arbitraria non coincide con il trasporto parallelo del vettore unitario tangente
alla curva in p. Se introduciamo delle coordinate locali xα e se nel punto fissato consideriamo
uno spostamento cosı̀ breve da essere considerato rettilineo, allora nello spostamento lungo il
11 STRUTTURE GEOMETRICHE
200
trattino di curva dγ, il vettore v = v α ∂x∂α resterà invariato e, se l è la lunghezza d’arco che
α
parametrizza la curva, avremo dvdl = o(dl), cioè si annulla a meno di termini di ordine (dl)2 ,
essendo dl la lunghezza infinitesima del trattino.
Connessione metrica con torsione
Possiamo usare la stessa rappresentazione per introdurre un trasporto parallelo più complicato.
Si faccia rotolare la sfera accompagnando il suo movimento con una leggera rotazione attorno
al punto d’appoggio, proporzionale di volta in volta allo spostamento (vettoriale) infinitesimo
della sfera, in particolare se è ferma non ruota su sè stessa, ed eventualmente dipendente dal
punto di appoggio. Se in tali circostanze si vuole che il vettore tangente alla sfera sia trasportato
parallelamente, otterremo una curva in generale diversa da una curva diametrale. Sicché anche
questo trasporto è indotto da una connessione metrica, tuttavia è differente dal precedente
poiché si distingue per le curve autoparallele.
α
Lungo una curva arbitraria, con le stesse convenzioni del caso precedente, avremo dvdl =
dγ β Kβαγ v γ + o(dl), dove δRα γ = dγ β Kβαγ è la matrice di rotazione infinitesima secondo la
suddetta regola. Nel dato punto, l’oggetto a tre indici Kβαγ , che ovviamente dipende dal punto e che in funzione della direzione β fornisce la velocità di rotazione della sfera rispetto alla
lunghezza d’arco di spostamento, definisce dunque un tensore detto contorsione. In questo caso
si parla di trasporto parallelo indotto da una connessione metrica con torsione.
Da questi esempi si vede che per determinare un trasporto parallelo occorre assegnare una
α
regola che esprima dvdl in funzione di v stesso e della curva considerata. Come osservato in
11.3.1 in effetti il problema di determinare il trasporto parallelo può essere tradotto in quello di
associare opportunamente alla curva γ una curva γ̃(l) = (γ(l), v(l)) ∈ T M . Il vettore tangente
∈ Tγ̃ (T M ). Ora il vettore da trasportare giace sulla
a tale curva in ogni punto sarà allora dγ̃
dl
fibra Tγ(l) M e quindi, essendo Tγ̃(l) (Tγ(l) M ) naturalmente contenuto come sottospazio vettoriale
in Tγ̃ (T M ), euristicamente possiamo dire che la velocità di variazione del vettore nel trasporto,
dv
non è altro che la proiezione di dγ̃
sul sottospazio Tγ̃(l) (Tγ(l) M ). Si dice anche che ne è la
dl
dl
componente verticale.
Spazi orizzontali
E
H0
H
F
0
N
Ṽ
l
l
l
l ξ
l
l s
I
l
% l
l V ∈ Tξ E
Ṽ ≡ 0
l
l
l
l
Ex
π
H
s
x = π(ξ)
M
11 STRUTTURE GEOMETRICHE
201
Tuttavia, come si vede dal disegno, questa interpretazione diventa significativa solamente
se è possibile la determinazione anche di una componente orizzontale che in pratica fornisce
l’immersione di Tγ M in Tγ̃ (T M ) come spazio degli spostamenti da una fibra all’altra, che
non è affatto naturale. In altre parole è necessario assegnare ad ogni punto ξ ∈ T M una
spazio orizzontale n−dimensionale Hξ che determini una decomposizione diretta Tξ (T M ) '
TπM (ξ) M ⊕ Hξ . Si noti infatti che l’individuazione di un sottospazio vettoriale di uno spazio V
non è sufficiente a determinare una decomposizione diretta. Nel disegno vediamo che fissato
un vettore V ∈ Tξ E, la sua componente verticale Ṽ lungo la fibra Ex non è determinata
univocamente dalla conoscenza di Tξ Ex . Occorre specificare anche lo spazio orizzontale! Se
scegiamo H come spazio orizzontale allora in particolare V è orizzontale e la sua componente
lungo lo spazio tangente alla fibra è nulla. Se invece scegliamo H0 allora V non è più orizzontale
ed ha una componente verticale non nulla. Si noti inoltre che invece che per un vettore, come
ad esempio Ṽ 0 , la caratteristica di essere verticale, cioè tale che π∗ Ṽ 0 = 0, non dipende dalla
scelta di uno spazio orizzontale.
11.3.3 Distribuzioni involutive [KN]. Data una varietà M di dimensione n, si chiama
distribuzione d-dimensionale Σ su M l’assegnazione di un sottospazio d-dimensionale Σx ⊂ Tx M
ad ogni punto x ∈ M . Si dice che Σ è differenziabile se per ogni x esiste un intorno aperto
U ⊂ M di x e d campi vettoriali differenziabili ξi ∈ X (U ), i = 1, . . . , d tali che {ξi (y)}di=1 siano
una base di Σy per ogni y ∈ U . Dato un campo vettoriale ξ ∈ X , si dice che ξ appartiene a Σ
se ξ(x) ∈ Σx per ogni x ∈ M . Infine si dice che Σ è una distribuzione involutiva se la parentesi
di Lie di due campi in Σ è ancora in Σ.
Sia dunque M dotato di una distribuzione Σ e sia S una sottovarietà connessa di M e i : S ,→ M
la sua immersione in M . Si dice che S è una varietà integrale per Σ se i∗ (Tx S) = Σx per ogni
x ∈ S. Si dice che S è massimale se non ci sono varietà integrali per Σ che la contengono.
L’esistenza di una varietà integrale massimale è sempre garantita per distribuzioni differenziabili
involutive, si veda 11.5.1.
E
11.3.4 Connessione su un fibrato differenziale. Sia (E, πM
, M, F, G) un fibrato differenziale su una varietà n−dimensionale M e fibra F . Si chiama connessione una distribuzione
differenziabile su E che assegni ad ogni punto ξ ∈ E un sottospazio orizzontale n−dimensionale
Hξ di Tξ E, dove per orizzontale si intende trasversale alla fibra (che per convenzione si dice
essere verticale) cioè tale per cui
E (ξ) ⊕ Hξ .
Tξ E ' Tξ FπM
E
In pratica significa che la proiezione di πM
: E → M induce un isomorfismo tra Hξ e Tx M ,
E
dove x = πM (ξ).
11.3.5 Trasporto parallelo. Una connessione determina allora un trasporto parallelo locale
E
nel seguente modo: sia ξ0 ∈ Ep (con p = πM
(ξ0 )) il punto della fibra da trasportare lungo
11 STRUTTURE GEOMETRICHE
202
la curva γ : R → M , γ(0) = p. Sia poi > 0 sufficientemente piccolo perché la curva
E −1
ristretta a I := (−, ) non si autointersechi. Allora ∆ = πM
(γ(I ) definisce un fibrato
su δ := γ(I ), con le stesse fibre di E. In particolare Tξ ∆ ⊂ Tξ E è un sottospazio lineare
per il quale la decomposizione stabilita dalla connessione induce una analoga decomposizione
E (ξ) ⊕hξ , dove hξ è un sottospazio unidimensionale ∀ξ ∈ ∆. Dunque hξ individua un
Tξ ∆ ' Tξ FπM
campo di direzioni preferenziali in T ∆. Esiste quindi un’unica curva γ̃ : I −→ ∆, univocamente
determinata dalla curva integrale definita dal campo di direzioni e passante per ξ0 (si veda 4.5.4).
Il fatto che il trasporto ottenuto sia solamente locale è dovuto al fatto che si tratta di un
problema di Cauchy di cui è garantita solamente l’esistenza e unicità locale, mentre può capitare che nel prolungamento la curva γ̃ vada all’infinito lungo le fibre23 .
I casi interessanti sono quelli in cui è garantita l’esistenza globale. La curva γ̃ cosı̀ univocamente
determinata si chiama sollevamento orizzontale di γ e definisce il trasporto parallelo del vettore
in modo ovvio: γ̃(1) ∈ Tγ(1) M è il trasporto parallelo di γ̃(0) = ξ0 ∈ Fp in Tγ(1) M lungo il
cammino γ.
Se il cammino è chiuso allora γ(1) = γ(0), ma in generale γ̃(1) 6= γ̃(0). Il trasporto parallelo lungo i cammini chiusi definisce un automorfismo della fibra. Se tale automorfismo individua sempre un elemento del gruppo di trasformazioni G, si parla di G−connessione. Le G−connessioni
hanno il vantaggio di poter essere definite passando attraverso il fibrato principale e sono sempre
buone nel senso che garantiscono l’esistenza globale dei sollevamenti orizzontali.
11.3.6 Campi verticali e campi fondamentali. Sia E lo spazio totale di un fibrato
π
E → M . Una sezione ψ ∈ X (E) si dice campo verticale se (dπ)(ψ) = 0. Se si tratta di un
fibrato principale E = P, allora si ha un’azione libera, e transitiva sulle fibre, R : G × P −→ P.
Fissato p ∈ P, introduciamo l’applicazione
fp : G −→ P ,
g 7−→ R(g, p) .
Il differenziale di fp è una mappa che ad ogni elemento X ∈ Lie(G) associa un vettore verticale
ξp (X) ∈ Tp P:
(dfp )e : Te G = Lie(G) → Tp P
X−
7 → ξp (X).
Il campo ξ(X) ∈ X (P) cosı̀ ottenuto si chiama campo fondamentale associato a X. Il fatto
che l’azione di G sia libera e transitiva implica il fatto importante che ad ogni vettore verticale
χ ∈ Tp P corrisponde un unico X ∈ Lie(G) tale che ξp (X) = χ. In generale dunque parlando
di campi verticali su un fibrato principale intenderemo i campi fondamentali associati.
11.3.7 Connessione infinitesima. L’idea di come costruire una connessione su un fibrato
vettoriale π : E −→ M è piuttosto semplice. Dato un vettore ψ ∈ Tξ E, si può stabilire in modo
naturale se sia verticale, ovvero se ‘giace lungo le fibre’: ciò avviene se π∗ ψ = 0. Tuttavia in
generale non è possibile scomporre il vettore ψ in componente orizzontale e componente verticale, a meno che in ogni punto ξ ∈ E non sia assegnata una scomposizione Tξ E ' Tξ F ⊕ Hξ .
Questo è infatti il ruolo della connessione.
23
il problema non si pone nel caso di fibre compatte per cui il teorema di esistenza e unicità è garantito
globalmente
11 STRUTTURE GEOMETRICHE
203
D’altra parte una tale scomposizione definisce un operatore lineare ωξ : Tξ E → Tξ F che altro
non è che il proiettore sulla Tξ F e che di ogni vettore ψ ∈ Tξ E ci dà la sua componente verticale. Se Hξ è una distribuzione differenziabile allora ωξ definisce una uno forma su E a valori
in F ' Tξ F .
Viceversa sia ωξ : Tξ E −→ Tξ F una mappa lineare suriettiva. Essa definisce allora una
scomposizione
Tξ E ' Tξ F ⊕ ker(ωξ ) .
Se ωξ dipende in modo liscio da ξ allora otteniamo una connessione ponendo Hξ := ker(ωξ ). Si
dice allora che ω è una connessione infinitesima su E.
Data una connessione infinitesima ωE , il sollevamento orizzontale per ξ di una curva γ : R → M
˙
è la curva γ̃ : R → E che risolve l’equazione differenziale ωE (γ̃(t))[γ̃(t)]
= 0, con γ̃(0) = ξ. Vale
allora il seguente teorema.
11.3.8 Teorema. Sia π : E −→ M un fibrato vettoriale sul quale sia definita una connessione
infinitesima ωE . Allora ωE definisce il trasporto parallelo delle fibre lungo ogni curva γ :
[−, ] → M .
11.3.9 Connessione sui fibrati prodotto. Siano E1 ed E2 due fibrati vettoriali su M ,
ciascuno dotato di una connessione ci : T Ei −→ Hi Ei , i = 1, 2 dove Hi,ξ Ei è il sottospazio
orizzontale di Tξ Ei , ξ ∈ Ei . Sia poi E = E1 ⊗M E2 il loro prodotto tensore. Allora le
connessioni ci inducono una connessione c = c1 ⊗ c2 su E. Basta infatti osservare (esercizio)
che T E ' T E1 ⊗T M T E2 , cosicché basta scegliere Hξ E := H1,ξ1 E1 ⊗T M H2,ξ2 E2 , cioè lo spazio
orizzontale del prodotto tensore è il prodotto fibrato degli spazi orizzontali.
11.3.10 Connessione sul fibrato duale. In modo analogo la connessione c su un fibrato
vettoriale E individua una connessione c∗ sul fibrato duale E ∗ : gli spazi orizzontali di T E ∗ sono
semplicemente i duali degli spazi orizzontali di T E. È una buona definizione grazie al fatto che
T E ∗ ' (T E)∗ (verificare).
11.3.11 G-connessioni sui fibrati principali. Spesso è conveniente considerare le connesπM
sioni sui fibrati principali. Sia P −→
M un fibrato principale con gruppo G. Una connessione
su P assegna in ogni punto ξ ∈ P una decomposizione Tξ P ' Tξ Px ⊕ Hξ ed una proiezione
π : Tξ P → Tξ Px , π(Hξ ) = 0 dove si è posto x = πM (ξ). Si dice che è una G−connessione
se la distribuzione di direzioni orizzontali è invariante a destra, cioè se Rg∗ (Hξ ) = HRg ξ . In
particolare dunque Rg∗ commuta con la proiezione π.
11.3.12 Connessione infinitesima su un fibrato principale. Analogamente al caso dei
fibrati vettoriali, si può costruire anche su P una connessione infinitesima. Si otterrà allora una
uno forma su P che ad ogni campo χ ∈ X (P) associa la sua proiezione verticale. Dato che i
campi verticali si identificano con quelli fondamentali, avremo allora che per ogni p ∈ P
ωp : Tp P −→ Lie(G) .
11 STRUTTURE GEOMETRICHE
204
In altre parole se χ è un campo verticale allora ωp (χp ) = X, l’unico elemento di Lie(G) individuato dal campo fondamentale corrispondente. In più se la connessione su P è una G-connessione
allora lasciamo come esercizio la verifica del fatto che Rg∗ ω = Ad(g −1 )(ω) per ogni g ∈ G, dove
Rg come al solito indica l’azione a destra di G su P. Chiameremo questa una G-connessione
infinitesima.
In particolare possiamo dire che essenzialmente la restrizione di ω alle fibre si identifica
con la forma di Cartan J su G. Si ricordi infatti che ogni fibra è isomorfa a G e le proprietà
di J descritte in 11.2.1. In conclusione si chiama G-connessione infinitesima una 1−forma
ω ∈ Ω(P) ⊗ Lie(G) con le proprietà
1. ω|Px = ψ ∗ J per ogni x ∈ M , e per ogni isomorfismo ψ : Px −→ G indotto da una
banalizzazione locale. Ovviamente J è la forma di Cartan sul gruppo;
2. Rg∗ ω = Ad(g −1 )(ω) per ogni g ∈ G.
Abbiamo dunque visto che una G−connessione definisce una connessione infinitesima. Ma è
vero anche il contrario, dato che una connessione infinitesima ω grazie alla proprietà 1) individua
una famiglia di direzioni orizzontali Hξ in ogni punto, che risulta essere invariante a destra in
conseguenza alla proprietà 2). Non è difficile dimostrare che su ogni fibrato principale è sempre
possibile determinare una connessione infinitesima ω e quindi una G−connessione. In sostanza
è sufficiente costruirla su ogni banalizzazione locale di P e poi definirla su tutto P tramite una
partizione dell’unità. Data ω, il sollevamento orizzontale per ξ di una curva γ : R → M è la
˙
curva γ̃ : R → P che risolve l’equazione differenziale ω(γ̃(t))[γ̃(t)]
= 0, con γ̃(0) = ξ.
11.3.13 Teorema. Sia π : P −→ M un fibrato principale su M dotato di una connessione
infinitesima ω. Allora ω definisce il trasporto parallelo delle fibre lungo ogni curva γ : [a, b] →
M.
11.3.14 Connessioni infinitesime e fibrati associati. Vediamo infine il legame tra le
connessioni infinitesime sui fibrati vettoriali e quelle sui fibrati principali. Ricordiamo che il
legame tra un fibrato principale e quello vettoriale associato è E = P ×ρ F . Allora avremo
T E = T P ×ρ∗ T F , sicché per un vettore nel punto [p, v] di E (con le parentesi quadre indichiamo
la classe di equivalenza)
(χp , wv ) ∼ ((Rg∗ (χ))Rg (p) , (ρ(g)∗ w)ρ(g)v ) ,
∀χp ∈ Tp P , wv ∈ Tv F .
Si noti che qui con ρ∗ non si intende la rappresentazione dell’algebra di Lie del gruppo di
struttura, ma piuttosto l’azione di G su T F ottenuta differenziando la mappa
ρg : F −→ F ,
v 7−→ ρ(g)v .
Si noti inoltre che come sopra χ si identifica con un elemento di Lie(G) (si veda 11.3.6), come
sottintenderemo qui di seguito.
Sia ora ω una connessione infinitesima su P. Fissiamo un punto ξ ∈ E. In termini del fibrato
principale potremo scrivere ξ = [p, v]. Un vettore Vξ ∈ Tξ E sarà allora individuato da una
11 STRUTTURE GEOMETRICHE
205
coppia (χp , wv ), che come sopra definisce una classe di equivalenza Vξ = [χp , wv ]. Infine si usi ρ̂
per indicare la rappresentazione di Lie(G) indotta da ρ. Allora ω induce su E la connessione
infinitesima
ωE |ξ ((χp , wv )) = ρ∗ (ωp (χp ))wv ∈ Tv F ,
cioè è definita dall’azione dell’elemento ωp (χp ) ∈ Lie(G) su T F .
Per vedere che essa è ben definita occorre verificare che non dipende dalla scelta dei
rappresentanti delle classi di equivalenza, cioè deve essere ρ∗ equivariante. Infatti se
(χ0 , w0 ) = ((Rg∗ (χ))Rg (p) , (ρ(g)∗ w)ρ(g)v )
è un altro rappresentante in ξ = (Rg (p), ρ(g)v) ωE deve far corrispondere il vettore
ρ(g)∗ ωE |ξ ((χp , wv )) ∈ Tρ(g)v F.
Per capire meglio questo fatto, si osservi che la connessione infinitesima su E deve avere valore
in Tξ F . Nella descrizione di E in termini di P ed F , si ha che i suoi punti sono determinati dalle
coppie (p, v), cosicché Tξ F è descritto da Tv F . Tuttavia, per la precisione con Tξ F si intende la
parte verticale di Tξ E, la quale dipende solamente da ξ e non dal rappresentante. Se cambiamo
rappresentante per ξ, passando al rappresentante (p0 , v 0 ) = (pg, ρ(g)v), allora Tξ F sarà ora
identificato con Tv0 F e la relazioni di equivalenza introdotte sopra richiedono l’dentificazione
Tv0 F = ρ(g)∗ Tv F , che significa che i vettori w ∈ Tv F e ρ(g)∗ ∈ Tv0 F vanno identificati in Tξ F .
Lasciamo come esercizio al lettore la dimostrazione del fatto che dunque ωE è ben definita se e
solo se ω è una G-connessione.
Viceversa, data una connessione su E si può determinare la connessione sul fibrato principale
sottostante, imponendo la stessa relazione di cui sopra tra ωE ed ω. Si ottiene allora una
G-connessione.
11.3.15 Osservazione. La costruzione testè data per la connessione infinitesima su E può
sembrare piuttosto involuta. Infatti le notazioni e la definizione stessa di connessione infinitesima su E potrebbero essere alleggerite sfruttando l’isomorfismo naturale tra Tξ F ed F . Tuttavia,
senza tali restrizioni, il formalismo qui utilizzato può resta valido per estensioni a fibrati più
generali dei fibrati vettoriali. Si noti infatti che per un fibrato differenziale differenziale (in cui
F è una varietà che ammette un’azione ρ di G) allora Tξ F è pur sempre uno spazio vettoriale
(non più identificabile con F ) su cui G agisce tramite ρ∗ .
11.4
Derivate covarianti (connessioni di Koszul)
Torniamo ora sul problema della definizione di una derivata covariante.
11.4.1 Derivata covariante (connessione di Koszul). Sia π : E → M un fibrato Kvettoriale su una varietà M . Sia Γ(M, E) il C ∞ (M )-modulo delle sezione globali di E (si
ricodi che per s ∈ Γ(M, E) e f ∈ C ∞ (M ) la sezione globale f s ∈ Γ(M, E) è definita da
(f s)(x) := f (x)s(x) ∈ Ex per x ∈ X). Sia
Ωp (M, E) := Γ(M, (∧p M ) ⊗ E),
11 STRUTTURE GEOMETRICHE
206
il C ∞ -modulo delle p-forme differenziali a valori in E, cioè le sezioni globali del fibrato vettoriale
(∧p M ) ⊗ E dove ∧p M è il fibrato delle p-forme su M . In particolare, Ω0 (M, E) = Γ(M, E).
Una derivata covariante o conessione di Koszul su E è un’applicazione K-lineare
∇ : Γ(M, E) −→ Ω1 (M, E) = Γ(M, T ∗ M ⊗ E),
con la proprietà (regola di Leibnitz)
∇(f ψ) = df ⊗ ψ + f ∇ψ,
per ogni f ∈ C ∞ (M, K) e ψ ∈ Γ(M, E). In pratica, la derivata covariante ad ogni sezione del
fibrato vettoriale associa una 1-forma a valori nello stesso fibrato.
La valutazione della 1-forma ∇ψ su un campo vettoriale ξ ∈ X (M ) definisce la derivata
covariante direzionale associata a ∇.
11.4.2 Motivazione. Sia π : E → M un fibrato vettoriale. Dato un campo di vettori X su
M e una sezione liscia s : M → E del fibrato, vogliamo cercare di definire una derivata Xs di
s tale che anche Xs sia una sezione del fibrato E. Si noti che per x ∈ M il differenziale
(ds)x : Tx M −→ Ts(x) E
permette di definere (ds)x (X(x)) ∈ Ts(x) E, mentre noi ora vogliamo ottenere un elemento di
Ex .
Se possibile, questo è collegato alla definizione di un trasporto parallello: dato un x ∈ M e un
v ∈ Ex := π −1 (x), il suo trasporto parallelo sarà dato da una sezione s del fibrato in un intorno
di x tale che s(x) = v e Xs = 0.
Facciamo subito un primo tentativo: sia U ⊂ M un intorno di coordinate tale che il fibrato,
indicato ancora con π,
π : EU := π −1 U −→ U ,
sia banale
∼
=
Ψ : EU −→ U × Rn
con Ψ un isomorfismo di fibrati. Allora le sezioni lisce s : U → EU corrisponderanno alle mappe
lisce e : U → Rn nel modo seguente:
(Ψ ◦ s)(x) = (x, e(x))
(∈ U × Rn ).
P
Un campo di vettori X su U si scrive come X = i ai (∂/∂xi ) dove le xi sono le coordinate su
U e ai ∈ C ∞ (U ). Allora si potrebbe definire una sezione
Xs : U −→ EU ,
(Xs)(x) := Ψ−1 (x, (Xe)(x)),
dove e = (e1 , . . . , en ) con ei ∈ C ∞ (U ) e X(e) = (X(e1 ), . . . , X(en )). Un problema di questa
definizione è che X(s) dipende in modo essenziale dall’isomorfismo Ψ. Considerando un isomorfismo Ψ2 : EU → U × Rn si ha (Ψ2 Ψ−1 )(x, e(x)) = (x, g(x)e(x)) per un’applicazione liscia
11 STRUTTURE GEOMETRICHE
207
g : U → GLn (R), e la regola di Leibnitz applicata a X(ge) mostra che in generale non vale la
relazione X(ge)(x) = g(x)(Xe)(x). Quindi questa definizione di Xs dipende dalla scelta di Ψ.
È meglio dunque definire in modo globale tali ‘derivate di sezioni’ e poi studiare come si
può calcolarle localmente.
11.4.3 Derivata covariante direzionale. Sia ∇ una connessione di Koszul su E e sia
X ∈ X (M ) un campo di vettori su M . Allora definiamo un’applicazione, detta derivata
covariante direzionale,
∇X : Γ(M, E) −→ Γ(M, E),
ψ 7−→ ∇(ψ)(X),
cioè si usa la contrazione Ω1 (M ) = Γ(M, ∧1 M ) → C ∞ (M ) data da ω 7→ ω(X), per passare da
∇(ψ) ∈ Γ(M, (∧1 M ) ⊗ E) a ∇(ψ)(X) ∈ Γ(M, E).
La derivata direzionale ha le seguenti proprietà:
∇X (f ψ) = (f ∇(ψ) + (df ) ⊗ ψ)(X) = f ∇X ψ + X(f )ψ,
detta regola di Leibnitz. In più si ha
∇f X+gY (ψ) = f ∇X (ψ) + g∇Y (ψ)
per ψ ∈ Γ(M, E), X, Y ∈ X (M ) e f, g ∈ C ∞ (M ) perché se ω è una 1-forma, si ha ω(f X) =
f ω(X) e quindi ∇f X+gY (ψ) := ∇(ψ)(f X + gY ) = f ∇(ψ)(X) + g∇(ψ)(Y ).
11.4.4 Simboli di Christoffel. Sia π : E → M un fibrato vettoriale di rango n, sia
U ⊂ M un aperto coordinato, con coordinate x1 , . . . , xm : U → R (dove m = dim M ), e sia
Ψ : EU → U × Rn una banalizazzione. Siano ē1 , . . . , ēn i vettori di una base standard di Rn e
−1
siano ei : U → EU le sezioni
Allora ogni sezione ψ : U → EU
P corrispondenti, ei (x) := Ψ (x, ēi ).
si scrive come ψ(x) = ψi (x)ei (x) per certe funzione ψi ∈ C ∞ (U ).
Sia ∇ una derivata covariante su un fibrato π : E → M , allora si ha:
n
n
X
X
∇(ψ) = ∇(
ψi ei ) =
ψk ∇(ek ) + (dψk ) ⊗ ek .
i=1
i=k
P
Poiché ogni una forma ω su U si scrive come ω = aj dxj per certe funzioni aj ∈ C ∞ (U ), ogni
uno forma ωE su U con valori in E si scriverà come
ωE =
n
X
i=1
ei ⊗ ωi =
n X
m
X
(∈ Ω1 (U, E))
aij ei ⊗ dxj
i=1 j=1
per certe aij ∈ C ∞ (U ). Quindi per ogni k, k = 1, . . . , n, la uno forma ∇(ek ) con valori in E si
scrive come:
n X
m
m
X
X
i
∇(ek ) =
Γkj ei ⊗ dxj =
ωki ei ,
i=1 j=1
j=1
11 STRUTTURE GEOMETRICHE
208
per certe funzioni Γikj ∈ C ∞ (U ), dette i simboli di Christoffel, e la matrice n × n con coefficienti
in Ω1 (U )
m
X
ω = (ωki )1≤i,k≤n (∈ Mn (Ω1 (U )),
ωki =
Γikj dxj
j=1
è detta matrice di uno forme della connessione di Koszul ∇ (su U , rispetto a Ψ). Con queste
definizioni, si ha ∇(ek ) = ωek .
P
Ogni campo vettoriale X su U si scrive localmente come X = l al (∂/∂xl ) con al ∈ C ∞ (U ),
l = 1, . . . , m. Poiché dxj (∂/∂xl ) = δjl , si ha
!
n X
m
n
X
X
i
∇(∂/∂xl ) (ek ) := ∇(ek )(∂/∂xl ) =
Γkj ei ⊗ dxj (∂/∂xl ) =
Γikl ei .
i=1 j=1
i=1
Per X generale, si ha allora
∇X (ek ) = ∇
P
al (∂/∂xl ) (ek )
=
m X
n
X
al Γikl ei .
l=1 i=1
Non è difficile rendersi conto del fatto che i coefficienti di Christoffel non individuano dei tensori,
cioè sezioni del fibrato T ∗ M ⊗ T ∗ M ⊗ T M . Rimandiamo comunque tale questione a 11.6.17.
Vediamo invece un primo legame tra connessione infinitesima e la derivata covariante.
11.4.5 Connessione infinitesima e derivata covariante direzionale. Sia Xp ∈ Tp M e
πE
ψ ∈ Γ(M ; E) una sezione di un fibrato E →
M su M . Sia poi γ : [0, 1] → M una curva in
M tale che γ(0) = p e γ̇(0) = Xp . Sia infine cγ il trasporto parallelo lungo γ indotto da una
connessione infinitesima ω su E. Otteniamo una derivata covariante di ψ lungo il vettore Xp
nel punto p tramite
1
∇ωXp ψ(p) := lim {c−1
γ(h) (ψ(γ(h))) − ψ(p)} .
h→0 h
In pratica si confrontano i valori di σ in due punti distinti trasportando il secondo nella stessa
fibra del primo. È un esercizio dimostrare che infatti ∇ωXp ψ(p) esiste sempre e non dipende da
γ ma solamente da p e Xp e dalla connessione ω. In particolare se Xp = X(p) è il valore in p di
un campo vettoriale X ∈ Γ(M, T M ), allora l’assegnazione x 7−→ ∇ωX ψ(x) definisce una sezione
liscia del fibrato E, che chiameremo ∇ωX ψ.
Si lascia come esercizio la verifica del fatto che ∇ωX ha le proprietà una derivata covariante
direzionale. Per l’arbitrarietà di X, una connessione ω su un fibrato vettoriale definisce dunque
una derivata covariante ∇ω . Vedremo più avanti che in effetti vale anche il discorso inverso.
11.4.6 Derivata covariante, prodotto tensore e duale. Siano E1 ed E2 due fibrati
vettoriali dotati di derivate covarianti ∇i , i = 1, 2. Si ottiene una derivata covariante sul
prodotto tensore dei fibrati ponendo
∇ = ∇1 ⊗ idΓ2 + idΓ1 ⊗ ∇2 ,
11 STRUTTURE GEOMETRICHE
209
dove Γi := Γ(M, Ei ).
Analogamente si determina la derivata covariante sul duale E ∗ di un fibrato vettoriale E. Se
ψ ∈ Γ(M, E) e λ ∈ Γ(M, E ∗ ) si impone la relazione d(λ(ψ))[ξ] = (∇∗ξ λ)[ψ] + λ(∇ξ ψ).
11.4.7 Esercizio. Si dimostri che si ottengono le stesse relazioni utilizzando la connessione
prodotto 11.3.9, la connessione duale 11.3.10 e la relazione in 11.4.5.
11.4.8 Derivata covariante e sollevamento orizzontale. Indichiamo con ∇ω la derivata
covariante associata alla connessione infinitesima ω. Sia poi γ̃ il sollevamento orizzontale in E
di una curva γ : [0, 1] → M , costruito a partire da ω.
Posto Γ = γ([0, 1]) l’immagine di γ in M , supponiamo per semplicità che Γ individui una sottovarietà monodimensionale di M . Per ogni sezione liscia ψ ∈ Γ(Γ, E) è quindi ben definita
la derivata covariante ottenuta per restrizione a Γ di ∇ω e la conseguente derivata direzionale
lungo i vettori tangenti a Γ. In altre parole è ben definita la derivata ∇ωγ̇ (ψ ◦ γ) =: ∇γ̇ (ψ)(γ(t)).
In particolare essa risulta ben definita su γ̃ e dalla definizione data in 11.4.3 si ottiene immediatamente ∇γ̇ γ̃ = 0.
Questo suggerisce come, viceversa, si possa costruire una connessione ω ∇ partendo da una
derivata covariante ∇, definendo i sollevamenti orizzontali mediante le soluzioni dell’equazione
∇γ̇ γ̃ = 0. Lasciamo come esercizio i dettagli di una tale costruzione. Vogliamo ora approfondire
il legame tra ω e ∇.
11.4.9 Sezioni e funzioni equivarianti. Allo scopo di determinare una relazione più esplicita tra derivata covariante e connessione è conveniente analizzare più a fondo la corrispondenza
tra il fibrato principale P e il fibrato vettoriale associato E di fibra V . Ricordiamo che quest
ultimo è costruito a partire dalle classi di equivalenza [p, v] = [Rg p, ρ(g −1 )(v)] dove ρ(g) è l’elemento di Aut(V ) individuato dalla rappresentazione ρ del gruppo di struttura G su V . Sia
ψ ∈ Γ(M, E) una sezione liscia. Allora potremo scrivere ψ(x) = [p(x), v(x)], dove p(x) ∈ Px
e v(x) ∈ V . Ricordando che l’azione di G su ogni fibra Px è libera e transitiva, possiamo
allora associare alla sezione ψ una applicazione αψ : P −→ V , tale che ψ(x) = [p, αψ (p)]. Per
consistenza deve accadere che
[Rg p, αψ (Rg p)] = [p, αψ (p)] = [Rg p, ρ(g −1 )ψ(p)] ,
e quindi Rg∗ αψ = ρ(g −1 ) ◦ αψ . Diremo che αψ è G−equivariante e scriveremo αψ ∈ M ap(P, V )G .
Si verifica allora facilmente che l’applicazione
ΦG : Γ(M, E) −→ M ap(P, V )G ,
ψ 7−→ αψ ,
è un isomorfismo di K−spazi vettoriali.
11.4.10 Forme tensoriali. Più in generale questa corrispondenza si estende dalle sezioni
allo spazio delle forme tensoriali Ωk (M, E), le k−forme a valore nel fibrato. Se ξi ∈ Tx M ,
i = 1, . . . , k, allora sian ξ˜i i rispettivi sollevamenti orizzontali. Allora, per ogni λ ∈ Ωk (M, E)
si ottiene una unica forma orizzontale ΦG (λ) ∈ Ωk (P, V ) equivariante tale che
λ(ξ1 , . . . , ξk ) = [p, ΦG (λ)(ξ˜1 , . . . , ξ˜k )] ,
11 STRUTTURE GEOMETRICHE
210
dove orizzontale significa iχ ΦG (λ) = 0 per ogni campo verticale χ. Naturalmente ΦG (λ) deve
essere G−equivariante (par.11.4.9) affinché la mappa sia ben definita. In particolare è un
isomorfismo. Scriveremo ΦG : Ωk (M, E) −→ ΩG
H (P, V ).
Questo ci permette di estendere la connessione di Koszul alle forme tensoriali
∇ : Ωk (M, E) −→ Ωk+1 (M, E) .
Localmente Ωk (U, E) sarà generato da forme del tipo λ = σ ⊗ψ dove ψ ∈ Γ(U, E) e σ ∈ Ωk (M ),
cosicché
∇λ = dσ ⊗ ψ + (−1)k σ ∧ ∇ψ .
11.4.11 Derivata covariante e connessione infinitesima. Vogliamo ora determinare
una corrispondenza esplicita tra la derivata covariante e la connessione infinitesima sul fibrato
principale.
Utilizziamo la mappa ΦG per calcolare il limite in 11.4.3. Posto che y ∈ P tale che π(y) = p ∈ M
sia γ̃ il sollevamento orizzontale di γ in P, passante per y. Allora avremo che ψ(p) = [y, αψ (y)]
−1
ψ
e ψ(γ(h)) = [γ̃(h), αψ (γ̃(h))]. Infine cE
γ(h) (ψ(γ(h))) = [y, α (γ̃(h))], sicché
1
−1
∇ξ ψ(p) = lim {cE
γ(h) (ψ(γ(h))) − ψ(p)}
h→0 h
1
= lim {[y, αψ (γ̃(h))] − [y, αψ (y)]}
h→0 h
= [y, dαψ (p)[ξ H ]] ,
dove ξ H è il sollevamento orizzontale di ξ H in P. Dunque possiamo scrivere ΦG ∇ξ ψ = ξ H · αψ .
Ora osserviamo che la rappresentazione ρ di G su V induce una rappresentazione ρ∗ di Lie(G) su
V , ottenuta differenziando ρ nell’identità di G. La relazione di G−equivarianza per αψ assume
allora la forma ξ a · αψ + ρ∗ (a) ◦ αψ = 0, dove ξ a è il campo verticale generato dall’elemento
a ∈ Lie(G). Utilizzando questa relazione otteniamo dαψ (ξ H ) = (d + ρ∗ (ω))αψ (ξ) e quindi
ΦG ∇ξ ψ = (d + ρ∗ (ω))αψ (ξ) .
Questa formula rappresenta la relazione cercata ed ha una semplice interpretazione: αψ è in
pratica la componente lungo la fibra del campo vettoriale. Per garantire la covarianza della
derivata occorre correggere il differenziale tramite la trasformazione infinitesima associata allo
spostamento infinitesimo degli spazi vettoriali da confrontare. Tale trasformazione è descritta
dall’elemento ω dell’algebra, che agisce sulla fibra tramite la rappresentazione ρ̃.
Viceversa tale formula permette di definire e calcolare in modo pratico la derivata covariante
su un fibrato vettoriale. Infatti si noti che
d + ρ∗ (ω) : Ω0H (P, V ) −→ Ω1H (P, V ) .
Un ragionamento analogo, più semplice, può essere fatto per trovare il legame tra la
connessione infinitesima ωE su E e la derivata covariante. Lo lasciamo come esercizio.
11 STRUTTURE GEOMETRICHE
11.5
211
Curvature
Una volta definita una connessione su un fibrato, è naturale introdurre il concetto di curvatura.
Infatti la connessione individua in ogni punto ξ dello spazio totale E una separazione Tξ E '
Tξ F ⊕ Hξ . La scelta di Hξ definisce una distribuzione differenziabile (si veda 11.3.3). Ci si può
chiedere allora se tale distribuzione sia integrabile, cioè se essenzialmente sia possibile costruire
il sollevamento orizzontale dell’intera varietà M in E. In altre parole ciò accade se per ogni
ξ ∈ E esiste un’immersione regolare di i : M ,→ E, tale che i∗ T M ∈ H, vale a dire che in
ogni punto i vettori tangenti all’immagine dell’immersione sono orizzontali e che ξ appartenga
all’immagine di i. Questo implica che le parentesi di Lie tra due campi orizzontali debbano
dare sempre un campo orizzontale (verificare). Nel linguaggio di 11.3.3 ciò significa che H
è una distribuzione involutiva e che M H (ξ) := i(M ) è una varietà integrale per H, passante
per ξ. Ricordiamo che essa si dice massimale se non esistono superfici integrali per H che la
contengano propriamente. Enunciamo senza dimostrarlo il seguente importante risultato.
11.5.1 Teorema di Frobenius. Sia H una distribuzione differenziabile involutiva su E.
Allora, per ogni ξ ∈ E esiste una unica varietà integrale massimale M H (ξ) di H.
A commento di questo teorema osserviamo il suo significato intuitivo: se ξ è un vettore
orizzontale in i(x), allora la sua curva integrale in E deve giacere nell’immagine di i e tutti
i suoi vettori tangenti devono essere orizzontali. Questo deve essere vero per ogni vettore
orizzontale di un intorno di x. Dunque la proprietà appena vista deve essere vera per il flusso
locale. Dato che il flusso locale determina la derivata di Lie e a sua volta le parentesi di Lie,
si vede che la involutività è una condizione necessaria. Non è molto difficile vedere che è anche
localmente sufficiente.
11.5.2 Forma di curvatura. L’involutività di H è dunque una condizione necessaria e
sufficiente per la sua integrabilità. Siano X e Y due campi orizzontali secondo la connessione
infinitesima ω su E. Chiaramente [X, Y ] è orizzontale se e solo se ω([X, Y ]) = 0. Perciò la
quantità ω([X, Y ]) determina l’ostruzione all’integrabilità di H.
Ovviamente la decomposizione Tp E ' Tp F ⊕ Hp definisce un proiettore
π H : Tp E −→ Hp ,
per ogni p ∈ E che indicheremo con XpH = π H (Xp ) per ogni Xp ∈ Tp E.
Data una p−forma λ ∈ Ωp (E), si chiama parte orizzontale di λ la p−forma Hλ definita da
H
Hλ(Ψ1 , . . . , Ψp ) := λ(ΨH
1 , . . . , Ψp ) per ogni p−upla di campi vettoriali su E, Ψi ∈ X (E).
Si chiama forma di curvatura la due forma ΩE := H(dω) ∈ Ω2 (M, E). Cioè per ogni coppia
X, Y ∈ X (E) si ha
ΩE (X, Y ) = dω(X H , Y H ) ,
dove, come sopra, X H e Y H sono le parti orizzontali dei campi X e Y . Utilizzando la formula
di Cartan si trova
ΩE (X, Y ) = X H (ω(Y H )) − Y H (ω(X H )) − ω([X H , Y H ]) = ω([χH , ξ H ]) ,
11 STRUTTURE GEOMETRICHE
212
cioè la curvatura misura proprio l’ostruzione all’integrabilità di H. Esattamente come in
precedenza in generale è sufficiente considerare la curvatura sul fibrato principale.
11.5.3 Proposizione. Equazione di struttura. Sia π : P −→ M un fibrato principale con
gruppo di struttura G, dotato di una G-connessione infinitesima ω. La connessione infinitesima
ω sul fibrato principale P e la relativa curvatura Ω soddifano l’equazione
1
Ω = dω + [ω, ω] .
2
Dimostrazione. Sia X un campo verticale associato all’elemento A dell’algebra Lie(G).
Allora ω(X) = A. Inoltre, se g = exp(tA), la G−equivarianza di ω può essere scritta nella
forma infinitesima LX ω + [A, ω] = 0. Usiamo questa relazione per dimostrare dapprima che,
come Ω, anche Ω̃ := dω + 21 [ω, ω] è orizzontale. Infatti
1
iX (dω + [ω, ω]) = LX − d ◦ iX (ω) + [A, ω] = 0 ,
2
per la suddetta relazione e poiché diX (ω) = dA = 0.
Basta allora valutare Ω̃ su una coppia di vettori orizzontali Yp e Zp , per vedere che coincide con
Ω.
2
Un corollario immediato è il seguente risultato, di cui si lascia la dimostrazione come esercizio.
11.5.4 Proposizione. Identità di Bianchi. La forma di curvatura Ω sul fibrato principale
P dotato di una G-connessione ω soddisfa le seguenti identità:
dΩ = −[ω, Ω] ,
ovvero HdΩ = 0 .
11.5.5 Tensore di curvatura. Sia E il fibrato vettoriale associato a P tramite la rappresentazione (ρ, F ). Supponiamo di dotare P di una G-connessione infinitesima ω. Sia poi Ω la
forma di curvatura associata alla connessione ω su P. Dunque Ω è una due forma orizzontale
su P a valori in Lie(G), che soddisfa Rg∗ Ω = Adg−1 Ω. Siano X, Y ∈ Tp P e ξ = [p, v] ∈ Eπ(p) un
vettore della fibra in x. Allora è ben definita l’applicazione lineare
T X,Y : Ex −→ Ex ,
[p, v] 7→ [p, ρ̃(Ω(X, Y ))(v)] ,
endomorfismo della fibra Ex ,dove ρ̃ è la rappresentazione di Lie(G) su V indotta da ρ. Si noti
in particolare che, dati X, Y ∈ X (P) la mappa
AX,Y (v) : P −→ V ;
p 7−→ ρ̃(Ω(X, Y ))(v) ,
è equivariante. Ciò permette, tramite l’isomorfismo ΦG , di definire sulla base M del fibrato
una due forma Ω∇ a valori in End(E) che, ad ogni sezione ψ ∈ Γ(M, E) e per ogni coppia di
campi ξ, χ ∈ X (M ), associ la sezione
˜ χ̃))(αψ (p))] ,
Ω∇ (ξ, χ)ψ(x) = [p, ρ̃(Ω(ξ,
11 STRUTTURE GEOMETRICHE
213
dove ξ˜ e χ̃ sono i sollevamenti orizzontali di ξ e χ in P nel punto p su x. Evidentemente
Ω∇ (ξ, χ)ψ ∈ Γ(M, E). La forma Ω∇ si chiama tensore di curvatura e definisce una sezione di
(T ∗ M ∧ T ∗ M ) ⊗ (E ∗ ⊗ E).
11.5.6 Proposizione. Il tensore di curvatura Ω∇ è legato all’operatore di derivazione
covariante dalla relazione
Ω∇ (ξ, χ)ψ = [∇ξ , ∇χ ]ψ − ∇[ξ,χ] ψ ,
in cui le parentesi tra le derivate covarianti sono il commutatore, mentre quelle tra i campi sono
le parentesi di Lie
Dimostrazione. Anzitutto abbiamo24
]
˜ ψ − [ξ,
˜ χ̃]αψ − []
˜ χ̃]αψ ,
ΦG ([∇ξ , ∇χ ]ψ − ∇[ξ,χ] ψ) = ξ˜χ̃αψ − χ̃ξα
χ]αψ = [ξ,
ξ,
dove abbiamo usato il fatto che i campi verticali sono un ideale nell’algebra dei campi. Posto
˜ χ̃] ∈ X (E) abbiamo perciò che
Z := [ξ,
ΦG ([∇ξ , ∇χ ]ψ − ∇[ξ,χ] ψ) = Z V αψ = iZ V dαψ = LZ V αψ ,
dove Z V è la parte verticale di Z. Ma la G−invarianza di αψ , se A ∈ Lie(G) è il generatore di
Z V , in forma infinitesima si scrive LZ V (αψ ) = −ρ̃(A)αψ . Poiché infine A = ω(Z V ), otteniamo
˜ χ̃]))αψ = ΦG (Ω∇ (ξ, χ)ψ) ,
ΦG ([∇ξ , ∇χ ]ψ − ∇[ξ,χ] ψ) = ρ̃(ω([ξ,
che implica la tesi, essendo ΦG un isomorfismo.
2
11.5.7 Proposizione. Il tensore di curvatura è legato alla derivata covariante dalla relazione
Ω∇ = ∇2 .
Dimostrazione. Basta mostrare che per ogni coppia di campi ξ, χ ∈ X (M ) e sezione ψ ∈
Γ(M, E) si ha iξ iχ ∇2 ψ = [∇χ , ∇ξ ]ψ − ∇[χ,ξ] ψ. Poiché ∇ψ ∈ Ω1 (M, E), localmente esisteranno
delle 1−forme λk e delle sezioni φj di E tali che ∇ψ = λj φj . Allora
∇∇ψ = dλj φj − λj ∧ ∇φj .
Basta allora applicarlo a (χ, ξ) utilizzando la formula di Cartan per dλj (χ, ξ) e confrontare con
il calolo diretto di [∇χ , ∇ξ ]ψ − ∇[χ,ξ] ψ. I dettagli sono lasciati come esercizio.
2
11.6
Strutture Riemanniane
11.6.1 Esempio: fibrato tangente. Un esempio particolarmente interessante è quello del
fibrato tangente. In tal caso il fibrato principale è il fibrato dei riferimenti R e il gruppo
di struttura è GL(n, R), essendo n la dimensione della base M . Un riferimento in x ∈ M
24
ovunque adoperando il tilde per indicare il sollevamento orizzontale
11 STRUTTURE GEOMETRICHE
214
è individuato da n vettori {v1 , . . . , vn } linearmente indipendenti in Tx M . Su di essa M ij ∈
GL(n, R) agisce come {vj } 7→ {vi M ij }. Se xµ sono delle coordinate locali su M allora vj = vjµ ∂x∂ µ
e {xµ , vjν } sono coordinate locali per R (che è infatti una varietà (n2 + n)−dimensionale).
Assumiamo infine che su R sia data una connessione ω. Infine, data l’ovvia azione di GL(n, R)
e della sua algebra di Lie su Rn , indicheremo semplicemente con gX e AX tali azioni, dove
g ∈ GL(n, R), A ∈ gl(n, R) e X ∈ Rn .
11.6.2 Campo orizzontale canonico e forma orizzontale canonica. Un riferimento
può essere visto come una mappa lineare bijettiva v : Rn −→ Tx M , che associa il vettore vi
π
all’elemento ei della base canonica di Rn . Se R −→ M è il fibrato dei riferimenti, dotato di una
connessione infinitesima ω, per ogni X ∈ Rn si definisce il campo orizzontale canonico C(X),
tale che se p ∈ R allora C(X)p ∈ Tp R è l’unico vettore orizzontale che soddisfa π∗ C(X)p = v(X).
Si chiama forma orizzontale canonica il suo duale θ = v −1 ◦ π∗ . Si ha evidentemente
θ(C(X)) = X.
Si noti che il campo orizzontale canonico non è in realtà canonico su un fibrato dei riferimenti,
ma piuttosto sul fibrato dei riferimenti con una connessione. La forma canonica invece è veramente canonica, nel senso che non richiede una specificazione di una connessione per essere
π
definita. Sia infatti R −→ M un fibrato dei riferimenti e sia ξ ∈ Tp R, p ∈ R. Allora p individua un riferimento in Tx M , x = π(p), che definisce un isomorfismo v : Rn −→ Tx M . Pertanto
si può definire θ(ξ) = v −1 π∗ ξ. Si tratta evidentemente di una forma orizzontale, dato che si
annulla sui vettori verticali.
11.6.3 Forma di torsione.
definita da
Si chiama forma di torsione la 2−forma su R a valori in Rn
T := Hdθ ,
dove ricordiamo che Hdθ indica la parte orizzontale di dθ, cioè, se X, Y ∈ T R allora
Hdθ(X, Y ) = dθ(X H , Y H ) .
Come si verifica facilmente si tratta di una forma orizzontale equivariante e quindi vi corrisponde
un tensore di curvatura T tale che ΦG (T ) = T che risulta essere una sezione di (T ∗ M ∧ T ∗ M ) ⊗
T M . In maniera del tutto analoga a 11.5.7 si dimostra la seguente proposizione.
11.6.4 Proposizione. Il tensore di torsione soddisfa la relazione
T (χ, ξ) = ∇χ ξ − ∇ξ χ − [χ, ξ] ,
(∈ X (M ))
per ogni coppia di campi χ, ξ ∈ X (M ).
11.6.5 Proposizione. I equazione di struttura. La forma di torsione soddisfa l’equazione
T = (d + ω)θ, dove ω è la connessione su R.
Dimostrazione. Prima di tutto vediamo che, come T , (d + ω)θ è orizzontale. Infatti, se ξ(A)
è il campo fondamentale associato ad A ∈ gl(n, R), si ha
iξ(A) (d + ω)θ = Lξ(A) θ − d(iξ(A) θ) + (iξ(A) ω)θ − ωiξ(A) θ = Lξ(A) θ + Aθ = 0 ,
11 STRUTTURE GEOMETRICHE
215
dove abbiamo usato il fatto che θ è orizzontale e, nell’ultimo passaggio, l’equivarianza di θ.
Dopodiché per verificare l’uguaglianza basta applicare entrambi i membri ad una coppia di
vettori orizzontali.
2
Nota. L’equazione di struttura che coinvolge la curvatura viene anche detta II equazione di
struttura. Differenziando la prima equazione di struttura si ottiene inoltre la seguente identità.
11.6.6 I identità di Bianchi. Vale
dT + ω ∧ T = Ω ∧ θ .
L’identità di Bianchi che coinvolge dΩ in 11.5.4 si chiama anche II identità di Bianchi.
11.6.7 Connessione metrica e di Levi-Civita. Si dice che su M è definita una struttura
Riemanniana se è assegnata una sezione g ∈ Γ(M, T ∗ M ⊗ T ∗ M ) simmetrica e definita positiva.
In particolare per ogni x ∈ M , g(x) ∈ Tx∗ M ⊗ Tx∗ M è un prodotto scalare su Tx M . Scelta una
base per Tx M , g(x) sarà individuato da una matrice simmetrica con autovalori tutti positivi.
Si dice che la struttura è pseudo-Riemanniana se g è simmetrica e non degenere. Si chiama
segnatura s la differenza tra il numero di autovalori positivi e il numero di autovalori negativi.
Si dice che la struttura è Lorentziana se |s| = n − 2, essendo n la dimensione di M . Mentre
è sempre possibile assegnare una struttura Riemanniana ad una varietà liscia, ciò non è vero
in generale per le strutture pseudo-Riemanniane. In senso improprio g viene chiamata metrica
anche nel caso pseudo-Riemanniano.
Sia ω una connessione sul fibrato principale R. Si dice che ω è una connessione metrica se g è
parallela, cioè se
∇ω g = 0 .
Dato che per ogni X, Y, Z ∈ X (M ) si ha (si veda 11.4.6)
iZ d(g(X, Y )) = (∇Z g)(X, Y ) + g(∇Z X, Y ) + g(X, ∇Z Y ) ,
la condizione di metricità equivale a
Z · g(X, Y ) = g(∇Z X, Y ) + g(X, ∇Z Y ) ,
∀X, Y, Z ∈ X (M ) .
La metricità della connessione non determina univocamente la connessione stessa. È però
fatto ben noto che la connessione è univocamente determinata se oltre alla metricità si richiede
l’annullamento della torsione. In tal caso la connessione è detta di Levi − Civita. Vale il
seguente importante teorema.
11.6.8 Teorema. Sia (M, g) una varietà pseudo-Riemanniana. Allora esiste una unica
derivata covariante ∇L−C tale che ∇L−C g = 0 e T =0.
Dimostrazione. Dati i campi X, Y, Z ∈ X (M ), usiamo ripetutamente le relazioni
Z · g(X, Y ) = g(∇Z X, Y ) + g(X, ∇Z Y ) , metricità della connessione
∇Z X − ∇X Z = [Z, X] , torsione nulla
11 STRUTTURE GEOMETRICHE
216
con le varie permutazioni degli indici:
Zg(X, Y ) = g(∇Z X, Y ) + g(X, ∇Z Y )
= g(∇X Z, Y ) + g(X, ∇Y Z) + g([Z, X], Y ) + g(X, [Z, Y ])
= Xg(Z, Y ) − g(Z, ∇X Y ) + Y g(X, Z) − g(∇Y X, Z) + g([Z, X], Y ) + g(X, [Z, Y ])
= −2g(Z, ∇X Y ) + Xg(Z, Y ) + Y g(X, Z) − g([Y, X], Z) + g([Z, X], Y ) + g(X, [Z, Y ]) ,
da cui
2g(Z, ∇X Y ) = Xg(Z, Y ) + Y g(X, Z) − g([Y, X], Z) + g([Z, X], Y ) + g(X, [Z, Y ]) − Z · g(X, Y ) .
Poiché questa uguaglianza vale per ogni scelta dei campi e dato che g è nondegenere, ∇X Y e
quindi ∇ sono univocamente determinate da questa espressione.
2
Lasciamo invece come esercizio la verifica del fatto che una connessione è metrica se e
soltanto se è una connessione sul fibrato O dei riferimenti ortonormali.
11.6.9 Tensore di Riemann, di Ricci e curvatura scalare. Abbiamo definito il tensore
di curvatura Ω∇ come una due forma a valori in End(E). Nel nostro caso E = T M . Si chiama
campo tensoriale di Riemann R, o semplicemente Tensore di Riemann, il campo tensoriale
covariante di grado 4 definito da
R(X, Y, W, Z) := g(Ω∇ (W, Z)Y, X) ,
∀X, Y, W, Z ∈ X (M ) .
Sia {ei }ni=1 una base ortonormale per T U , U essendo un aperto di una carta locale per M
(dunque con M banalizzabile). Si definisce allora il tensore di Ricci S come il tensore covariante
di grado due
S(X, Y ) := R(ei , X, ej , Y )η ij ,
∀X, Y ∈ X (M ) .
Qui η è l’usuale metrica (pseudo)euclidea. È facile verificare che S non dipende dalla scelta
della base ortonormale.
Infine si definisce lo scalare di curvatura Ric tramite
Ric := S(ei , ej )η ij .
Di nuovo si verifica l’indipendenza dalla scelta della base.
Si chiama tensore di Einstein G la particolare combinazione
G := S −
Ric
g.
2
11.6.10 Nota. Soprattutto in fisica è d’uso indicare le componenti del tensore di Riemann
rispetto ad un sistema di coordinate con Rµνσρ , quelle del tensore di Ricci con Rµν e lo scalare
di curvatura con R.
11.6.11 Simmetrie dei tensori di curvatura e curvatura sezionale. Il tensore di
Riemann gode delle tre seguenti proprietà di simmetria, di cui lasciamo al lettore i dettagli
della deduzione
11 STRUTTURE GEOMETRICHE
217
• R(X, Y, W, Z) = −R(X, Y, Z, W ), che segue dal fatto che ovviamente Ω∇ (W, Z) =
−Ω∇ (Z, W );
• R(X, Y, W, Z) = −R(Y, X, W, Z). Questa è invece conseguenza del fatto che la connessione è metrica. Uno dei modi per verificarlo è infatti osservando che se la connessione è
metrica, essa è definita su O e quindi la curvatura Ωω ha valori in nell’algebra di Lie del
gruppo ortogonale, che si identifica con le matrici Mi j che soddisfano Mij = −Mji , dove
Mij := Mi k ηkj . Dopodiché basta sfruttare i legami tra Ωω ed Ω∇ e tra Ω∇ ed R;
• R(X, Y, W, Z) + R(X, W, Z, Y ) + R(X, Z, Y, W ) = 0. Questa è conseguenza della torsione
nulla. Essa segue dalla I identità di Bianchi, con T = 0, in modo analogo al punto
precedente.
Si dimostra facilmente che da queste tre proprietà ne segue una quarta:
R(X, Y, W, Z) = R(W, Z, X, Y ) .
Sia ora Πx un piano bidimensionale in Tx M . Sia poi e1 , e2 ∈ Tx P una base ortonormale per
Πx . Si chiama curvatura sezionale relativa al piano Πx il numero reale
κ(Πx ) = R(e1 , e2 , e1 , e2 ) .
È un semplice esercizio verificare che κ(Πx ) non dipende dalla scelta della base ortonormale. L’importanza della curvatura sezionale è dovuta alle due seguenti proposizioni, la cui
dimostrazione è lasciata come esercizio.
11.6.12 Proposizione. Sia T un tensore covariante di grado 4 che gode delle stesse proprietà
di simmetria del tensore di Riemann. Se
T(X, Y, X, Y ) = R(X, Y, X, Y )
∀X, Y ∈ Tx M, x ∈ M ,
allora T = R.
11.6.13 Proposizione. Se X e Y sono due vettori che formano una base per Πx , allora
κ(Πx ) =
R(X, Y, X, Y )
.
g(X, X)g(Y, Y ) − g(X, Y )2
11.6.14 Osservazioni pratiche. Per rendere operativa la teoria sviluppata, almeno nel caso
del fibrato tangente (il caso generale sarà considerato nel prossimo capitolo) consideriamo le cose
da un punto di vista fisico. Per misurare ad esempio i vettori velocità in ogni punto della varietà
è necessario introdurre in ciascun punto un sistema di riferimento, in modo che il passaggio da
un sistema all’altro sia differenziabile. Dal punto di vista matematico ciò significa considerare
una sezione locale εα : Uα −→ R. In generale una tale sezione non esisterà globalmente, a meno
che T M sia banalizzabile. Definiamo allora la 1−forma locale eα ∈ Ω1 (Uα ) tramite eα := ε∗α (θ),
11 STRUTTURE GEOMETRICHE
218
essendo θ la forma orizzontale canonica definita in 11.6.2. Allora, se ξ ∈ X (Uα ) e x ∈ Uα ,
poiché π ◦ εα = idM si ha
eα (ξ)x = ε∗α (θ)(ξ) = v −1 ◦ dπ(εα∗ (ξx )) = v −1 (ξ) ,
dove vx : Rn −→ Tx M è la mappa indotta dal riferimento vx = vepsα (x) (e che chiamiamo con
lo stesso nome). In pratica dunque, scelte delle coordinate locali xµ su Uα , potremo scrivere
eiα = eiµ (x)dxµ e ξ = ξ µ (x) ∂x∂ µ , cosicché eα (ξ)i = eiµ (x)ξ µ . In altre parole ∂x∂ µ = eiµ vi , cioè eiµ
sono le componenti di ∂x∂ µ rispetto al riferimento {vi }.
In particolare se su M è definito un campo tensoriale metrico g ∈ Γ(M, T ∗ M ⊗S T ∗ M ), allora
∂
∂
gµν := g
= eiµ ejν g(vi , vj ) .
,
∂xµ ∂xν
Si dice che il riferimento locale è ortonormale se g(vi , vj ) = ηij , la metrica di Minkowski su Rn .
La 1−forma locale eα viene allora detta vielbein.
Considerando la I equazione di struttura si ha
deα = dε∗α (θ) = ε∗α (dθ) = ε∗α (−ω ∧ θ + T ) .
Posto ωα := ε∗α (ω), l’espressione locale della connessione infinitesima, abbiamo perciò deα +ωα ∧
eα = ε∗α (T ). Lasciamo come esercizio la dimostrazione della seguente semplice proposizione.
11.6.15 Proposizione. Si ha ε∗α (T ) = v −1 (T ), dove T è il tensore di torsione.
In altre parole possiamo scrivere25 dei + ω i j ∧ ej = T i , dove T i = eiµ T µ .
11.6.16 Osservazioni. Questa formula, valida localmente, risulta essere estremamente pratica
nelle applicazioni concrete. Si consideri ad esempio di aver a che fare con una varietà pseudoeuclidea {M, g} e si supponga di voler determinare la connessione di Levi-Civita. Allora dovrà
anzitutto essere T = 0. D’altra parte la condizione di metricità ∇ω g = 0 (par. 11.6.7) assume
la forma ηik ω k j + ηkj ω k i = 0 in termini di un determinato vielbein ei (verificare!). Ciò significa
semplicemente che ω ha valori nell’algebra delle isometrie della metrica piatta η. Posto ωij :=
ηik ω k j , possiamo allora scrivere le equazioni per la connessione nella forma
dei + ω i j ∧ ej = 0 ,
ωij = −ωji .
Poiché si tratta di n(n − 1)/2 equazioni lineari indipendenti per altrettante incognite (le ωij ),
la connessione risulta essere completamente determinata in funzione del vielbein.
Si può determinare una formula altrettanto pratica per il calcolo del tensore di curvatura.
Infatti, similmente a prima, dalla II equazione di struttura e tenendo conto del fatto che nel
caso del fibrato dei riferimenti si ha evidentemente 12 [ω, ω] = ω ∧ ω, si ricava immediatamente
dωα + ωα ∧ ωα = ε∗α (Ω) .
25
omettiamo il pedice α relativo alla carta locale per evitare confusione con il pedice µ referentesi alla
componente µ−esima nelle coordinate locali
11 STRUTTURE GEOMETRICHE
219
Similmente a prima si ottiene allora che in componenti, rispetto ad una scelta delle coordinate locali, si ha (si veda 11.6.21) ε∗α (Ω)i j = eiµ eνj 12 Rµ νρσ dxρ ∧ dxσ , dove eµi sono le
componenti di vi rispetto alla base coordinata (ovvero è l’inversa della matrice di coefficienti
eiµ ). Queste formule forniscono un metodo relativamente rapido per il calcolo del tensore di
curvatura. Ribadiamo però il fatto che la loro origine è nelle equazioni di struttura che sono
equazioni sul fibrato principale, mentre i tensori di curvatura e di torsione sono sulla varietà M .
11.6.17 Cambio di carta. Vogliamo confrontare le espressioni locali di una data connessione
infinitesima rispetto a due riferimenti locali sulla stessa carta. Siano ε = {vi } e ε̃ = {ṽj } due
sezioni locali rispetto alle quali la connessione infinitesima ω ammette le espressioni locali
˜ = ε̃∗ ω. Sia ξ ∈ X . Usando il linguaggio in 11.4.9, potremo scrivere, sulla data
ω̂ = ε∗ ω e ω̂
carta locale,
ξ(x) = [vi (x), ξ i (x)] = [ṽi (x), ξ˜i (x)] ,
e similmente
˜ i ξ˜j (x)] ,
∇ξ(x) = [vi (x), dξ i (x) + ω̂(x)i j ξ j (x)] = [ṽi (x), dξ˜i (x) + ω̂(x)
j
essendo x appartenente all’intorno locale U considerato. D’altra parte deve esistere una funzione
continua h : U −→ G tale che ε̃ = Rg ε̃, dove G = GL(n, R) (oppure un gruppo ortogonale
se ci si restringe a riferimenti ortonormali) in modo che ṽi (x) = vj (x)hj i (x) per ogni x ∈ U .
Dall’equivarianza di d + ω e dalle relazioni appena scritte segue allora
˜
ω̂(x)
= h−1 (x)ω(x)h(x) + h−1 (x)dh(x) .
Questa relazione è il caso particolare di una proprietà molto generale che verrà considerata nel
capitolo successivo.
11.6.18 Ancora sui simboli di Christoffel. Ulteriori espressioni pratiche le otteniamo in
base alle seguenti osservazioni. Se anziché scegliere una base ortonormale si decide di utilizzare la base coordinata, allora la forma locale eα avrà componenti26 eνµ = δµν . In tal caso le
componenti del’espressione locale di ω vengono tradizionalmente indicate con la lettera Γ:
ω µ ν = Γµσν dxσ
µ
e la I equazione di struttura assume la forma Γµσν dxσ ∧ dxν = T µ = 21 Tσν
dxσ ∧ dxν ovvero
µ
Tσν
= Γµσν − Γµνσ .
In particolare nel caso di torsione nulla i coefficienti Γµσν sono simmetrici nei due indici σ e ν.
La matrice di componenti eiµ rappresenta la matrice h di trasformazione tra la base vi e la base
coordinata: ∂x∂ µ = vi eiµ , perciò si trova
Γµνρ dxν = eµj dejρ + eµj ω̂ij eiρ ,
26
conviene in tal caso usare la lettera greca anche per l’indice relativo alla base vν =
∂
∂xν
11 STRUTTURE GEOMETRICHE
220
Si noti che in particolare si ha ∇ ∂x∂ µ = Γν µ ∂x∂ ν , dove Γν µ := Γνσµ dxσ . Se allora ξ ∈ X (M ) in
coordinate locali avremo ξ = ξ µ ∂x∂ µ e quindi
∇ξ = (dξ µ + ξ α Γµ α )
∂
.
∂xµ
La condizione di metricità permette allora di determinare i coefficienti Γ in funzione della
metrica e del tensore di torsione. Nel caso di torsione nulla e connessione metrica, si ottiene la
ben nota espressione
1 ∂gνρ ∂gνσ ∂gσρ
µ
+
−
.
gνµ Γσρ =
2 ∂xσ
∂xρ
∂xν
Osserviamo inoltre che per una base coordinata si ha [∂xµ , ∂xν ] = 0 e quindi posto (si veda
11.6.9)
Ω∇ (∂µ , ∂ν )(∂σ ) = Rρ σµν ∂ρ ,
usando 11.5.6 e le proprietà di ∇, si ottiene
Rρ σµν ∂ρ = ∇∂µ (Γτσν ∂τ ) − ∇∂ν (Γτσµ ∂τ ) = ∂µ Γρσν ∂ρ + Γτσν ∇∂µ (∂τ ) − ∂ν Γρσµ ∂ρ − Γτσµ ∇∂ν (∂τ ) ,
da cui
Rρ σµν = ∂µ Γρσν − ∂ν Γρσµ + Γτσν Γρτµ − Γτσµ Γρτν .
11.6.19 Nota. Nell’intorno di un punto O si possono scegliere delle coordinate locali, dette
coordinate normali, per le quali gµν (O) = ηµν , la metrica di Minkowski o euclidea, e Γµνρ (O) = 0.
Si può verificare allora che (si veda 12.4.4)
1
gµν (x) = ηµν + Rαµβν (O)xα xβ + O(|xσ |3 ) .
3
Questo risultato mostra come la curvatura individui la deformazione rispetto alla geometria
euclidea.
11.6.20 Esercizio. Si usi la suddetta espressione approssimata, in coordinate normali, per la
metrica in un intorno U nel quale le correzioni di ordine superiore al secondo siano trascurabili,
per calcolare i simboli di Christoffel nel dato intorno. Si calcoli il trasporo infinitesimo di un
vettore tangente in O lungo un cammino rettangolare chiuso tutto contenuto in O. Si dimostri
che, se il parallelogramma è generato dai vettori y µ e z ν e se v µ è il vettore da trasportare,
allora si ottiene per il vettore trasportato
1
ṽ µ = Σαβ Rµ γαβ v γ ,
2
dove si è posto Σαβ = y α z β − z α y β .
Poiché nel punto dato la metrica è (pseudo-)euclidea le componenti del tensore di Riemann
possono essere identificate con quelle della forma di curvatura Ω (in pratica le componenti del
11 STRUTTURE GEOMETRICHE
221
vielbein sono eiµ = δµi ) e quindi questo esercizio mette in evidenza un’interessante proprietà
geometrica del tensore di curvatura, che permette di interpretare l’azione di Ω visto come
operatore lineare sullo spazio tangente. Esso individua la ‘rotazione’ subita dal vettore quando
viene trasportato lungo il cammino chiuso.
11.6.21 Esercizio. Si dimostri che, posto (nelle notazioni di 11.6.16)
1 i k
Ω jkl e ∧ el = dω i j + ω i k ∧ ω k j ,
2
si ottiene
Rρ σµν = eρi ejµ Ωi jkl ekµ elν ,
dove si ricordi che eρi indica la matrice inversa della eiρ .
11.6.22 Un esempio fisico. Il sistema di riferimento ruotante. Sebbene rimandiamo
al capitolo successivo le applicazioni (e le motivazioni) fisiche, vediamo qui un esempio particolarmente interessante che mette in evidenza alcuni degli aspetti finora considerati. Vogliamo
cioè considerare, nell’ambito della relatività, il confronto tra due osservatori O e Oω , il primo
inerziale ed il secondo che ruota uniformemente con velocità angolare ω rispetto al primo. Nasce
anzitutto il problema di definire esattamente ciò che si intende.
Per quanto riguarda l’osservatore inerziale O, sappiamo che egli è in grado di costruire globalmente un sistema di riferimento inerziale, disponendo ovunque di orologi che sincronizzerà
lanciando e ricevendo raggi luminosi, secondo la ben nota procedura che non andremo qui
dunque a ripetere. Chiamiamo perciò K il sistema di riferimento inerziale di cui O rappresenta
l’origine.
La situazione diventa un pò più complicata per l’osservatore Oω . Supponiamo che possieda
degli orologi del tutto identici a quelli di O. Li disporrà ovunque in modo che gli appaiano
sempre immobili. Esattamente come fa O, anche Oω vuol utilizzare il proprio orologio per
individuare la coordinata temporale degli eventi contemporanei. Deve dunque sincronizzare gli
orologi. Anzitutto, il suo orologio può essere sincronizzato a quello di O, poiché sono in ogni
istante spazialmente coincidenti. Per sincronizzare gli orologi restanti egli può usare lo stesso
metodo di O, mandando raggi luminosi che gli vengono poi riflessi da ciascun orologio. Benché
il raggio luminoso non percorrerà (secondo Oω ) un cammino rettilineo da Oω all’orologio P ,
nè si muoverà alla velocità c, un semplice argomento di simmetria (che lasciamo svolgere come
esercizio) mostra che i tempi di andata e di ritorno del raggio luminoso devono coincidere. Egli
direbbe allora che l’orologio P è sincronizzato con il proprio se nel momento in cui riceve il
segnale, P indica l’ora tp = (t1 − t0 )/2 se t0 è l’ora segnata da Oω nel momento in cui lancia il
segnale e t1 è l’istante in cui Oω riceve il segnale di risposta.
Tuttavia tale procedura non è ancora sufficente. La sua costruzione richiede infatti che l’orologio di P cammini alla stessa frequenza del suo. Ma pur essendo identici per costruzione, una
volta posto nella sua posizione P indicherà il suo tempo proprio. Dal punto di vista di O, P
si muove p
lungo un orbita circolare di raggio r alla velocità rω. Il suo tempo proprio è perciò
τ = τ0 + 1 − ω 2 r2 /c2 t, cosicché P cammina più lentamente di O e quindi di Oω . Se O a un
dato istante pensa di aver sincronizzato il suo orologio con P , dopo un po’ si accorge che si
11 STRUTTURE GEOMETRICHE
222
desincronizzano.
Per assegnare una coordinata temporale sincrona a P , Oω è perciò costretto a fornire P di un
orologio diverso da Oω , costruito in modo che una volta posto in P appaia camminare alla
stessa frequenza di O.27 Assegnata tale coordinata temporale a P , è evidente che le coodinate
temporali costruite da O e Oω sono legate dalla relazione t(P ) = tω (P ). Due eventi sono contemporanei per O se e soltanto se lo sono anche per Oω !
Dato che O e Oω concordano sulla contemporaneità, concordano anche sulle misure di lunghezza gicché misurare la lunghezza di un segmento equivale a registrarne la posizione simultanea
degli estremi. Se quindi i due osservatori dispongono di due regoli identici, essi appariranno
entrambi di pari lunghezza ad ognuno dei due osservatori indipendentemente dalla posizione e
dall’orientamento dei regoli (ciascuno fermo nel proprio sistema di riferimento).
In conclusione dunque Oω con il suo regolo può costruire un sistema di coordinate spaziali
cilindriche (rω , φω , zω ) che saranno legate alle coordinate cilindriche di O dalla relazione28

tω = t ,



rω = r ,
φω = φ − ωt ,



zω = z .
La metrica. La metrica minkowskiana nelle coordinate ruotanti assume la forma
ω 2 r2 2 2
2
c dtω − drω2 − 2rω2 ωdφω dtω − rω2 dφ2ω − dzω2 .
ds = 1 − 2
c
Come esercizio verifichiamolo nei dettagli. Le coordinate cartesiane inerziali sono per definizione
coordinate (t, x, y, z) per le quali
ds2 = c2 dt2 − dx2 − dy 2 − dz 2 .
Prima di tutto introduciamo delle coordinate cilindriche (t, r, φ, z) tali che x = r cos φ e y =
r sin φ. Differenziando si ha
dx = cos φdr − r sin φdφ ,
dy = sin φdr + r cos φdφ
e ricordando che, ad esempio, dx2 := dx dx, si ha
dx2 + dy 2 = (cos2 φdr2 + r2 sin2 φdφ2 − 2r cos φ sin φdr dφ)
+(sin2 φdr2 + r2 cos2 φdφ2 + 2r cos φ sin φdr dφ)
= dr2 + r2 dφ2 ,
e quindi la metrica di Minkowski assume la forma
ds2 = c2 dt2 − dr2 − r2 dφ2 − dz 2 .
27
Equivalentemente Oω potrebbe mandare a P un impulso al secondo, dicendogli di usare quegli impulsi come
orologio, identificando il primo impulso con tP = (t0 + t1 )/2. In altre parole Oω usa esclusivamente il proprio
orologio per attribuire la coordinata temporale agli eventi.
28
lasciamo come esercizio i dettagli della deduzione
11 STRUTTURE GEOMETRICHE
223
Per esprimerla in termini delle coordinate ruotranti occorre invertire la trasformazione di
coordinate che lega le coordinate cilindriche a quelle ruotanti:

t = tω ,



r = rω ,
φ = φω + ωtω ,



z = zω ,
dopodiché, differenziando




dt = dtω ,
dr = drω ,
dφ = dφω + ωdtω ,



dz = dzω ,
e sostituendo nella metrica di Minkowski, si ottiene
ds2 = c2 dt2 − dr2 − r2 dφ2 − dz 2
= c2 dt2ω − drω2 − (dφω + ωdtω )2 − dzω2 ,
che coincide con la tesi.
Come si vede le coordinate di Oω sono limitate alla regione rω < c/ω. Si noti che il tempo proprio
p di un orologio di posizione spaziale fissa rispetto ad Oω fornito dalla metrica è
dτ = 1 − rω2 ω 2 /c2 dtω , coincidente con la relazione dedotta da O utilizzando la dilatazione
relativistica. Mentre O interpreta il rallentamento dell’orologio P come un effetto cinematico,
Oω lo vede come conseguenza del campo gravitazionale individuato dal potenziale V = gctt2 − 1
(che in pratica rappresenta il potenziale centrifugo). Ciò che è fondamentale non è decidere
quale sia la giusta interpretazione, ma piuttosto che entrambi arrivino alla stessa conclusione:
gli orologi rallentano! Questa è un’espressione del principio di equivalenza.
Base ortonormale, connessione di spin e connessione di Levi-Civita.
Una possibile tetrade associata alla metrica è data dalle 1−forme (e0 , e1 , e2 , e3 ) dove
e0 = cdt = cdtω ,
e1 = dr = drω ,
e2 = rdφ = rω (dφω + ωdtω ) ,
e3 = dz = dzω .
Questa tetrade individua in ogni punto dello spazio-tempo un sistema di riferimento ortonormale
fisso rispetto a quello di O. Si rammenti che non si tratta di un sistema di coordinate ma di
un riferimento per lo spazio tangente nel punto dato. La connessione di spin riemanniana è
determinata dalle equazioni
dei = −ω i j ∧ ej ,
Si trova immediatamente che gli unici termini non

0 0
0
e2
 0 0
r
ω=
 0 − e2 0
r
0 0
0
ωij = −ωji .
nulli sono ω 1 2 = −ω 2 1 =

0
0 
 .
0 
0
e2
r
o anche
11 STRUTTURE GEOMETRICHE
224
Utilizzando le relazioni in 11.6.14 si ottiene per i simboli di Christoffel nelle coordinate di Oω 29
sono date dalle 1−forme Γµ ν := Γµσν dxσω , dove x0ω = tω , x1ω = rω , x2ω = φω , x3ω = zω e


0
0
0
0
 −ω 2 rω dtω − ωrω dφω
0
−rω dφω − ωrω dtω 0 
 .
Γ=
ω
1
1
ω

drω
dtω + rω dφω
drω
0 
rω
rω
rω
0
0
0
0
Mentre sappiamo quale sia il significato geometrico di Γ, è interessante studiarne l’interpretazione fisica. Supponiamo che Oω osservi il punto P di coordinate (ctω , rω , φω , zω ), fisso nel suo
riferimento. Le componenti della quadrivelocità di P calcolata rispetto al tempo misurato dal
proprio orologio sono uµ = (1, 0, 0, 0) in ogni istante. Tuttavia per confrontare uµ (tω + δtω ) con
uµ (tω ) egli deve portarlo in tale punto tramite Γ. Lo spostamento infinitesimo è rappresentato
dal vettore δ := −δtω ∂t∂ω sicché
uµ (tω + δtω ) 7−→ uµ (tω + δtω ) + Γ(δ)µ ν uν (tω + δtω )
ed essendo

0
 ω 2 rω δtω
Γ(δ) = 

0
0
0
0
0
ωrω δtω
ω
dtω
0
rω
0
0

0
0 
 ,
0 
0
ovvero δuµ = (0, ω 2 rω δtω , 0, 0). Il punto P appare dunque soggetto ad una accelerazione radiale
ω 2 rω , l’accelerazione centrifuga, che Oω potrebbe interpretare come un campo di forze gravitazionali. Se in P vi fosse situata una masserella m, essa dovrebbe perciò essere trattenuta da
P con una forza −mδur /δτ , essendo τ il tempo proprio misurato da P , cioè
ω 2 rω
f~ = −m q
ûr ,
ω2 r2
1 − c2
essendo ûr il versore radiale. In particolare tale forza diverge all’avvicinarsi di rω al suo valore
limite c/ω, rendendo evidente la difficoltà di una realizzazione fisica del sistema ruotante. Simili
analisi possono essere fatte per interpretare le restanti componenti di Γ.
11.6.23 Sistemi inerziali comoventi e la precessione di Thomas. Vogliamo ora considerare il punto di vista di O mentre osserva il suddetto punto P fermo nel sistema di Oω . Poiché
O è inerziale, ha una predilezione per i sistemi inerziali cosicché, nel considerare il moto di P ,
lo confronta istante per istante con il sistema inerziale comovente con P . Ricordiamo che O
già disponeva di una tetrade di riferimenti ei , che però non sono comoventi con P ma piuttosto
con O. Da questa si ottiene la tetrade dei sistemi comoventi semplicemente con un boost (in
1
ogni punto) in direzione ûφ di velocità v = ωr. Posto γ = (1 − ω 2 r2 )− 2 ,30 il boost è generato
29
30
ovviamente sono nulli nelle coordinate di O
in questa ultima parte scegliamo le unità in cui c = 1 per alleggerire le formule
11 STRUTTURE GEOMETRICHE
225
dalla matrice Λ ∈ G = SO(1, 3)

γ
 0
Λ=
 −ωrγ
0

0 −ωrγ 0
1
0
0 
 ,
0
γ
0 
0
0
1
cosicché, usando le osservazioni in 11.6.14 si ha
ẽ0 = γ(e0 − ωre2 ) ,
e
ẽ1 = e1 ,
ẽ2 γ(e2 − ωre0 ) ,

0
γωe2 −γ 2 ωe1
γ 2
2
 γωe
0
e
r
ω̃ = Λ−1 ωΛ + Λ−1 dΛ = 
 −γ 2 ωe1 − γ e2
0
r
0
0
0
ẽ3 = e3

0
0 
 .
0 
0
La particella P porta con sè il sistema di riferimento individuato in ogni punto dai vettori ∂t∂ω ,
∂
, ∂ , ∂ le cui componenti rispetto al sistema ortonormale di vettori duali alle tetradi ei e
∂rω ∂φω ∂zω
ẽi sono dati dai coefficienti eiµ e ẽiµ rispettivamente, cioè



1
0



∂
∂
0 
1
≡
≡
,



rω
0
∂tω
∂rω
0
0


0
0




, ∂ ≡  0 , ∂ ≡  0
 ∂φω  r  ∂zω  0
0
1




,

rispetto ad ei e
 ωr2 γ

0
− c





∂
∂
∂
1 
0 
0
≡
,
≡
,
≡





0
0
rγ
∂tω
∂rω
∂φω
0
0
0

1
γ





0

 
, ∂ ≡  0 ,
 ∂zω  0 
1
rispetto a ẽi . Questi vettori rappresentano il sistema di riferimento associato alla particella dalle
coordinate ruotanti, visti da O e dalla famiglia di sistemi inerziali comoventi rispettivamente.
Nello spostamento di P lungo il tratto δ = (δt, 0, ωδt, 0) dell’orbita, secondo O31 le componenti
v i di un vettore nel dato punto subiranno una variazione −ω(δ)i j v j rispetto al riferimento nel
medesimo punto. Dunque secondo O






 
0
0
0
0
 −ω 2 rδt 
 0 
 −ωrδt 
 0 
∂
∂
∂
∂
, δ
, δ
, δ
δ
≡
≡
≡
≡  .


0
0
∂tω 
∂rω  ωδt 
∂φω 
∂zω  0 
0
0
0
0
31
ripetendo il ragionamento precedentemente fatto con Γ, ma questa volta utilizzando ω
11 STRUTTURE GEOMETRICHE
226
Un osservatore comovente registrerà invece la variazione





0
0
−ω 2 γrδt
ω
2





∂
∂
−ω rδt 
0
 , δ ∂ ≡  − γ rδt
δ
≡
≡
, δ



0
γωδt 
0
∂tω
∂rω
∂φω 
0
0
0
Per confrontare con le sue misure O deve applicare il boost inverso





0
0
0
 −ω 2 rδt 
 0 
 − ω rδt
∂
∂
∂
 , δ̃
≡
≡  ω  , δ̃
≡ γ
δ̃

0
0
∂tω 
∂rω  γ δt 
∂φω 
0
0
0


,



0
 0 
∂
.
≡
δ
∂zω  0 
0
Λ−1 , ottenendo



,


0
 0 
∂
.
δ̃
≡
∂zω  0 
0
Come si vede dunque O vede una discrepanza tra la sua misura e quella fatta da O, che
corrisponde ad una rotazione degli assi ûrω e ûφω attorno all’asse ûz di un angolo
1
− 1 dt = ω(1 − γ)dτ .
δθ = ω
γ
In altre parole secondo O la particella P nel muoversi subisce rispetto ai sistemi comoventi un
movimento di precessione lungo l’asse z, con velocità di precessione ωp = ω(1 − γ) rispetto al
tempo proprio. Tale fenomeno relativistico è noto come precessione di Thomas. Alcuni autori
attribuiscono tale fenomeno al fatto che nel moto accelerato della particella vengono a mancare
le proprietà pseudoeuclidee dello spazio-tempo. Tuttavia abbiamo visto invece che si tratta di
un fenomeno relativo da attribuire alle differenti descrizioni della connessione metrica euclidea
secondo le differenti scelte fatte sul fibrato dei riferimenti dello spazio piatto di Minkowski.
In particolare non abbiamo affatto dovuto modificare la metrica di Minkowski, ma solamente
esprimerla in coordinate differenti e utilizzare in maniera adeguata la descrizione sul fibrato dei
riferimenti. Tuttalpiù può essere attribuito al fatto che lo spazio delle velocità non è euclideo,
ma è piuttosto uno spazio di Lobachewski.
12 TEORIA DINAMICA DELLE SIMMETRIE.
12
227
Teoria dinamica delle simmetrie.
Testi consigliati: [CDF], [N1], [N2].
Vogliamo ora considerare un’interpretazione fisica dei concetti introdotti nel capitolo 11.
Questo verrà fatto da un punto di vista classico o tuttalpiù in prima quantizzazione, dove tutti
i campi in gioco sono comunque classici. Assumeremo inoltre che i gruppi in gioco siano sempre
dei gruppi di Lie.
12.1
Campi di materia.
Cominciamo a descrivere una certa classe di campi che chiameremo campi di materia.
12.1.1 Simmetrie esterne ed interne. Su una varietà M si consideri un campo, termine
con il quale intenderemo qui la funzione d’onda che descrive un qualche tipo di particella.
La natura esatta del campo (scalare, vettoriale,. . .) dipenderà dal gruppo di struttura e dalla
rispettiva rappresentazione. Si può ad esempio pensare che si tratti della funzione d’onda di
una particella su M . Qui M può essere lo spazio-tempo (in una teoria relativistica ad esempio)
o solamente lo spazio (nel caso non relativistico).
Dal punto di vista pratico un campo di materia è semplicemente una mappa da un certo intorno
locale a valori in uno spazio vettoriale:
ψ : U −→ V ,
ad esempio V = C se si tratta del campo di Schrödinger di una particella senza spin. Dal
punto di vista matematico si tratta della sezione di qualche fibrato vettoriale: ψ ∈ Γ(M, ξ),
ξ = (E, π, M, G, (ρ, V )). La descrizione locale del campo può essere fatta scegliendo una carta
locale (U, φ) nell’atlante di M . Allora esisterà una mappa Φ : π −1 (U ) −→ φ(U ) × V , con
φ = π1 ◦ Φ32 , tramite la quale si ottiene la descrizione locale ψU : O −→ V , dove abbiamo posto
O := φ(U ) ⊂ Rn e ψU = π2 ◦ Φ ◦ ψ ◦ φ−1 . Tale descrizione semplificata del campo ci permette
di introdurre in forma elementare il seguente problema.
Nel descrivere una situazione fisica si ricorre spesso al concetto di simmetria. Vediamo cosa si
intende nel caso semplice in cui il campo sia la mappa
ψU : O −→ V .
Supponiamo che un osservatore stia descrivendo un certo sistema fisico in una regione O attorno
a lui, tramite il campo ψU . Il modo più semplice in cui può manifestarsi una simmetria è tramite
il fatto che la sua descrizione non dipenda sempre dal modo in cui lui osserva il sistema.
Per esempio potrebbe accadere che guardandosi attorno, senza alzare o abbassare lo sguardo,
la descrizione del mondo circostante rimanga sempre la stessa. Egli dirà che tale mondo è
simmetrico per rotazione attorno al proprio asse. Naturalmente la conclusione non dipende dal
fatto che sia lui a ruotare su sè stesso o sia il sistema a ruotare attorno a lui. Il primo è detto
punto di vista passivo, mentre il secondo è il punto di vista attivo. Il punto di vista attivo mette
32
π1 e π2 sono le due proiezioni naturali sul primo e secondo fattore del prodotto cartesiano.
12 TEORIA DINAMICA DELLE SIMMETRIE.
228
in evidenza il fatto che la rotazione debba mandare O in sè stesso. L’osservatore dirà allora che
le rotazioni sono trasformazioni di simmetria. Resta da specificare cosa si intenda dicendo che
la descrizione resta la stessa. Dato che l’unico modo di testare il mondo fisico è tramite delle
misure, la trasformazione deve lasciare invariate le quantità misurabili. Se ad esempio ψU (x) è
osservabile e R : O −→ O è una trasformazione di simmetria, dovrà aversi ψU (x) = ψU (R(x)).
Chiaramente se due trasformazioni sono trasformazioni di simmetria, anche la loro composizione
lo è e dunque l’insieme di tutte le trasformazioni di simmetria formano un gruppo, detto gruppo
di simmetria.
Esiste tuttavia un secondo tipo di trasformazioni di simmetria, che lasciano cioè invariate le
osservabili fisiche. Si tratta delle trasformazioni di V , cioè T : V −→ V . Per esempio se ψU
è una funzione d’onda per una particella scalare non relativistica, allora la trasformazione di
fase ψU (x) 7→ eiα ψU (x) è una tale simmetria. In particolare diremo che è locale o globale a
seconda che α dipenda o meno dal punto x. Queste trasformazioni si dicono interne, dato che
non sono associate direttamente ad una trasformazione geometrica dello spazio osservabile O,
ma piuttosto allo spazio astratto V sul quale l’osservatore non può agire direttamente. V è
talvolta detto spazio interno per ψU . Per contro il primo tipo di simmetrie si dicono esterne.
Più in generale le trasformazioni esterne si mischieranno con quelle interne.
π
12.1.2 Trasformazioni. Sia E −→ M un fibrato su M . Chiamiamo trasformazione del
fibrato un diffeomorfismo T : E −→ E che rispetti la struttura delle fibre, cioè tale che
• τ := π ◦ T ◦ π −1 : M −→ M è un diffeomorfismo;
• T |Ex : Ex −→ Eτ (x) è un isomorfismo tra le fibre.33
Diremo che la trasformazione è interna se τ è l’identità (cioè se T è un isomorfismo di fibrati).
Una trasformazione dei fibrati induce una trasformazione dei campi associati, T : Γ(M, E) −→
Γ(M, E), definita da T ψ = T ◦ ψ ◦ τ −1 per ogni ψ ∈ Γ(M, E). Si chiama trasformazione esterna
del campo ψ la trasformazione ψ 7→ τ∗ ψ, indotta da un diffeomorfismo τ : M −→ M . È chiaro
che ogni trasformazione può allora essere decomposta in trasformazioni interne ed esterne.
12.1.3 Osservazione. La definizione precedente può essere indebolita osservando che nella
descrizione fisica non è a priori necessario fissare un determinato fibrato: un altro fibrato
isomorfo andrebbe altrettanto bene. Perciò una trasformazione può essere definita come un
diffeomorfismo T : E −→ Ẽ tra due fibrati isomorfi. In questo senso è naturale pensare alle
trasformazioni come simmetrie del sistema, nel senso che mandano un fibrato in un altro,
potenzialmente equivalente per descrivere la fisica. Il ’potenzialmente’ sottolinea il fatto che
l’equivalenza non è ancora garantita. Infatti la fisica non è descritta solamente dagli oggetti
(i campi e i fibrati), ma anche dalle relative equazioni del moto che caratterizzano il sistema.
Una simmetria deve quindi rispettare anche le equazioni del moto.
33
Un isomorfismo lineare se il fibrato è vettoriale, di gruppi se è un fibrato principale e cosı̀ via.
12 TEORIA DINAMICA DELLE SIMMETRIE.
229
'
12.1.4 Significato. In una descrizione locale Φ : π −1 (U ) −→ U × V , una trasformazione
interna sarà determinata da una funzione locale
f : U × V −→ V ,
in modo che la trasformazione sarà descritta dall’applicazione
(x, v) 7→ (x, f (x, v)) .
Tale applicazione deve agire linearmente sulla fibra,34 e poichè le trasformazioni formano un
gruppo, la funzione f si riduce a sua volta ad un’applicazione
T : U −→ Aut(V ) ,
a valori negli automorfismi di V cosicché
f (x, v) = T (x)v .
Il sottogruppo di Aut(V ) generato dalle trasformazioni T (x) , x ∈ U realizza un gruppo U, in
generale diverso dal gruppo di struttura G. Possiamo sempre pensare a questo come alla rappresentazione di U sulla fibra Ex ' V . Viceversa dato un gruppo U e una sua rappresentazione
su V , possiamo costruire un gruppo di trasformazioni con la procedura inversa. Data cioè una
mappa
f : U −→ U ,
la trasformazione sarà descritta dall’applicazione
(x, v) 7→ (x, ρ(f (x))(v)) .
Per capire ancora meglio il significato delle trasformazioni, supponiamo supponiamo che V ' R3
e U sia il gruppo delle rotazioni. Sia poi R la rappresentazione di U su V . La trasformazione
(x, v) 7→ (x, R(f (x))(v)) ,
corrisponde allora a far ruotare V tramite una rotazione R(f (x)). Poiché tale rotazione dipende
dal punto x dobbiamo pensare che per ogni x lo spazio V subisca una rotazione diversa per
ogni punto. Questo giustifica il fatto che sia conveniente pensare alla trasformazone agente
su una copia`
diversa Ex ' V di V per ogni punto e ai campi come a delle funzioni a valori
in U × V = x∈U Ex anziché in V . La struttura di fibrato è dunque quella più naturale per
descrivere le trasformazioni.
Osserviamo che comunque, a differenza del gruppo di struttura G, il gruppo di trasformazioni
U non lascia invariati i vettori di E nè tantomeno le sue sezioni. Il fibrato che occorre costruire
per poter descrivere dei campi di E soggetti a trasformazioni non è dunque in generale lo stesso
di E. Sia allora Υ il fibrato principale con gruppo U. Possiamo procedere in due modi. Se P è
il fibrato principale con gruppo G sotteso da E, si può costruire il fibrato principale P ⊗ Υ su
34
consideriamo campi vettoriali
12 TEORIA DINAMICA DELLE SIMMETRIE.
230
cui agiscono sia G che U , e quindi ricostruire il fibrato Ẽ con la struttura arricchita. Tuttavia
dal punto di vista fisico, dovendo distinguere tra i campi vettoriali rispetto alla struttura G e
le U−trasformazioni, conviene adottare la corrispondenza individuata nella sezione 11.4.9.
12.1.5 Campi di materia e trasformazioni di gauge. Chiamiamo campo di materia
calibrabile o gauge covariante su E una mappa equivariante φ : Υ −→ E, tale che πE ◦ φ = πΥ .
Equivariante significa che è equivariante su ogni fibra.
Lasciamo come utile esercizio la verifica del fatto che una trasformazione interna di un campo
di materia su E è allora indotta da una trasformazione di Υ. A tale scopo si introduca una
descrizione locale di E e Υ indotta da una carta locale (U, φ) dell’atlante di M e si descriva la
trasformazione interna di un campo osservando che l’azione di U sulle fibre di Υ è transitiva.
Si chiama scelta del gauge o calibrazione la scelta di una sezione σ ∈ Γ(M, Υ). In tal caso si
dice che la sezione φσ := φ ◦ σ ∈ Γ(M, E) rappresenta il campo φ nel gauge fissato. La trasformazione che corrisponde al passaggio da una sezione σ ad una seconda sezione σ̃ si chiama
trasformazione di gauge o ricalibrazione.
In una descrizione locale σ è individuata da una funzione (che continuiamo a chiamare)
σ : U −→ U, cosicché esisterà una funzione f : U −→ U tale che σ̃(x) = σ(x)f (x)−1 per
ogni x ∈ U . Allora, sempre nella descrizione locale, avremo φσ̃ = (ρ ◦ f )(φσ ).
Come abbiamo osservato in precedenza, le trasformazioni di gauge vengono promosse a simmetrie di gauge se sono delle simmetrie, ed in particolare se lasciano invariate (o covarianti)
le equazioni del moto. Si noti che la seconda condizione è in generale più debole della prima:
essa significa che la trasformazione di gauge manda una soluzione delle equazioni del moto in
un’altra soluzione, ma non è detto che la nuova soluzione abbia lo stesso significato fisico della
vecchia, come invece pretende una simmetria. Se la soluzione è una nuova soluzione fisica si
dice che la trasformazione è una dualità.
Nelle teorie di gauge comunque si assume come principio che le trasformazioni di gauge siano
simmetrie, cosicché solo alle quantità invarianti per trasformazioni di gauge, detti gli invarianti
di gauge, viene attribuito un significato fisico.
12.2
Campi di gauge.
Le equazioni del moto per i campi di materia in una teoria di gauge devono essere scritte in
forma covariante. Un modo naturale per farlo è di scriverle in termini di derivate covarianti,
come mostrato nel capitolo 11. Tuttavia, prima di procedere in via sistematica, vogliamo
illustrare il punto di vista euristico dei fisici.
12.2.1 Costruzione euristica dei campi di gauge. Consideriamo dapprima un esempio
particolarmente semplice. Sia M = R3,1 lo spazio-tempo di Minkowski e φ : M −→ C un
campo scalare, al quale non diamo alcun significato particolare, ma semplicemente assumiamo
che tutte le quantità misurabili siano funzioni di φ(x)∗ φ(x) = |φ(x)|2 e delle quantità conservate
associate all’azione
Z
S[φ] =
η µν ∂µ φ∗ (x)∂ν φ(x)d4 x .
M
12 TEORIA DINAMICA DELLE SIMMETRIE.
231
Si osservi che allora l’azione è invariante per trasformazioni di fase costante
φ 7→ eiα φ
dove α : M −→ R è una mappa costante.
Usando il teorema di Noether35 si trova la corrente conservata jµ (x) = i(φ(x)∗ ∂µ φ(x) −
φ(x)∂µ φ(x)∗ ) che infatti, per ogni φ che risolve le equazioni del moto, soddisfa ∂µ j µ = 0. Fissato
un sistema di riferimento (ct, x1 , x2 , x3 ) e una fissata regione spaziale V di bordo S = ∂V fissa
nel dato riferimento si ha perciò
Z
Z
I
Z
∂ 0
d
0
3
3
l 3
j (x)d x =
j (x)d x = −c
∂l j d x = −c jl (x)nl (x)dσ,
dt V
∂t
V
V
S
in cui abbiamo dapprima utilizzato l’equazione di continuità ∂µ j µ = 0 e poi il teorema di
Stocks. In particolare l si somma da 1 a 3 e R~n è il versore normale alla superficie e sσ l’elemento
di superficie. Dunque la quantità Q := V j 0 d3 x si conserva nel tempo se non vi è flusso
di ~j attraverso la superficie. Si noti che, come doveva essere, anche la corrente conservata è
invariante per la trasformazione di fase costante.
Vogliamo ora chiederci cosa accade se facciamo una trasformazione di fase dipendente dal punto,
in cui cioè α ∈ C ∞ (M ) non sia più costante. In primo luogo non è più conveniente pensare al
campo come ad una funzione a valori complessi, ma piuttosto come una sezione
φ : M −→ M × C , tale che π1 ◦ φ = idM .
`
In questo modo, posto Cx := π1−1 (x) ' C, avremo M × C := x∈M Cx e potremo pensare
alla trasformazione di fase φ 7→ eiα φ come associata ad una diversa rotazione di fase di angolo
α(x) per ciascun piano complesso Cx . Questo mette in luce la struttura di fibrato necessaria.
Tuttavia la trasformazione ottenuta non è una simmetria poiché non lascia invariata nè l’azione
nè le equazioni del moto. Per vedere come modificare la teoria per renderla una teoria di
gauge analizziamo in che modo risulta violata l’invarianza e come possa essere ripristinata. Per
farlo, generalizziamo un po’ l’esempio, assumendo che φ abbia valore in Cn e che la simmetria
originale sia φ 7→ gφ, dove g : M −→ G è una funzione costante a valori nel sottogruppo G
di U (n, C)36 . Per rendere locale la simmetria assumiamo dunque che g non sia più costante.
L’azione sia semplicemente
Z
S[φ] =
η µν h∂µ φ(x), ∂ν φ(x)id4 x ,
M
scritta in termini del prodotto hermitiano in Cn . Vediamo subito che l’invarianza dell’azione
cade a causa del semplice fatto che
∂µ (g(x)φ(x)) 6= g(x)∂µ φ(x) .
35
o direttamente dalle equazioni del moto
η µν ∂µ ∂ν φ = 0
36
l’esempio originale si riottiene allora per n = 1
12 TEORIA DINAMICA DELLE SIMMETRIE.
232
Per ripristinare la simmetria occorre ripristinare tale proprietà. Bisogna cioè covariantizzare la
derivata. A ∂µ bisogna sostituire una nuova derivata Dµ covariante. Nel linguaggio di 12.1.5
diremo che se φ̃(x) = g(x)φ(x) rappresenta la trasformazione di gauge, allora anche la derivata
Dµ deve trasformarsi in D̃µ in modo che valga
D̃µ φ̃(x) = g(x)Dµ φ(x) ,
cioè la derivata (trasformata) del trasformato deve essere pari al trasformato della derivata. In
altre parole, esattamente come avviene per φ, Dµ sarà solo l’espressione nel gauge fissato della
derivata. Se la condizione suddetta è soddisfatta, otteniamo una teoria di gauge semplicemente
sostituendo Dµ a ∂µ .
Cerchiamo ora di capire come debba essere fatta l’espressione locale (cioè nel dato gauge) della
derivata Dµ . Possiamo scrivere Dµ = ∂µ + Aµ (x), dove
Aµ (x) : Cn −→ Cn
sarà un qualche operatore lineare che deve agire sul campo φ. Nel nuovo gauge avremo invece
D̃µ = ∂µ + õ (x). Imponendo la suddetta condizione di covarianza otteniamo che deve essere
õ (x) = g(x)Aµ (x)g(x)−1 − g(x)−1 ∂µ g(x) .
Questa relazione ci dice come deve essere fatto l’operatore Aµ (x). Se U è il gruppo di trasformazioni allora g(x)−1 ∂µ g(x) ∈ Lie(ρ(U))37 e quindi Aµ è localmente un campo a valori in
Lie(U), ed agisce sul campo φ tramite la rappresentazione di Lie(U) indotta da ρ. Tuttavia
Aµ non è un campo di materia, poiché sotto trasformazioni di gauge non trasforma come una
sezione, a causa del termine additivo g(x)−1 ∂µ g(x). Per tale motivo Aµ viene invece chiamato
campo di gauge.
12.2.2 Osservazione. Nel caso in cui il gruppo di gauge sia U (1) allora iAµ avrà valori in R e
alla trasformazione di fase con angolo α corrisponde la trasformazione di gauge iõ = iAµ +∂µ α.
Dunque iAµ si comporta esattamente come il quadripotenziale del campo elettromagnetico!
Questa affermazione induce a dare proprio tale interpretazione ad Aµ . In tal caso sappiamo
rendere dinamico Aµ associandovi il campo di forze Fµν = ∂µ Aν − ∂ν Aµ e la relativa azione
Z
S[A] = κ
Fµν F µν d4 x .
M
Da questo punto di vista possiamo dire che i campi di gauge e i relativi campi di forze sono
conseguenza del fatto che si siano rese locale delle simmetrie globali. In un certo senso sono il
manifestarsi di una simmetria che per qualche motivo non può essere globale. Si osservi anche
che Fµν in questo caso è invariante di gauge e quindi è osservabile, a differenza di Aµ .
Prima di considerare il caso di un gruppo generico, torniamo all’interpretazione geometrica
rigorosa.
37
dove ρ è la rappresentazione di U su V
12 TEORIA DINAMICA DELLE SIMMETRIE.
233
12.2.3 Connessione e campi di gauge. Consideriamo il fibrato principale delle trasformazioni di gauge Υ. Sia T : Υ −→ Υ una trasformazione di gauge, cioè un automorfismo di
Υ che induce l’identità su M . Per descrivere tale trasformazione osserviamo che T determina
univocamente una funzione equivariante αT : Υ −→ G, cioè tale che
αT (ξg) = Adg−1 (αT (ξ))
per ogni ξ ∈ Υ e g ∈ G. Infatti, per definizione, T manda ogni fibra in sè, sicché se ξ ∈ Υx
allora si ha T (ξ) ∈ Υx . D’altra parte G agisce transitivamente e liberamente su ogni fibra, e
quindi deve esistere un unico g ∈ G tale che T (ξ) = ξg. Tale g è univocamente determinato da
ξ e T e quindi possiamo definire αT (ξ) := ξg, cioè
ξαT (ξ) =: T (ξ) .
D’altra parte la trasformazione deve essere compatibile con l’azione a destra, cioè T (ξh) = T (ξ)h
per ogni h ∈ G. Da ciò segue che αT è equivariante:
(ξh)αT (ξh) = (ξαT (ξ))h =⇒ αT (ξh) = h−1 αT (ξ)h .
Viceversa, una mappa equivariante α : Υ −→ G determina univocamente una trasformazione
Tα : Υ −→ Υ. Basta porre Tα (ξ) = ξα(ξ).
Su Υ possiamo introdurre una connessione infinitesima ω con la quale definire una derivata
covariante ∇ω che agisca sui campi di materia, come introdotto in 11.3.12 e 11.4.11. Vogliamo
innanzitutto vedere quale sia l’effetto di una trasformazione T sulla connessione.
12.2.4 Proposizione. La 1−forma T ∗ ω è ancora una connessione infinitesima su Υ e si ha
T ∗ (ω)ξ = AdαT (ξ)−1 (ωT (ξ) ) + dLα−1 (ξ) ) ◦ dαT (ξ) .
T
Qui abbiamo usato il pedice ξ per indicare la valutazione nel punto ξ ∈ Υ.
Dimostrazione. Diamo una traccia della dimostrazione.
Per verificare la formula per T ∗ (ω)ξ basta applicare T ∗ (ω)ξ ad un campo vettoriale Ψ su Υ
usando T ∗ (ω)ξ (Ψ(ξ)) = ωξ (T∗ (Ψ)(ξ)) e T (ξ) = ξαT (ξ) per calcolare il push forward, dove
usiamo ξg per Rg (ξ).
Una volta verificata la formula, si verifichi che l’espressione nel membro di destra soddisfa le
proprietà di una connessione infinitesima.
2
La mappa
dLα−1 (ξ) ◦ dαT (ξ) : Tξ Υ −→ Lie(G)
T
viene usualmente indicata con αT (ξ)−1 dαT (ξ) e chiamata derivata logaritmica di αT .
Naturalmente
dLα−1 (ξ) : TαT (ξ) U −→ Te G
T
è l’azione a sinistra su T G (ristretta ad αT (ξ)) indotta dalla moltiplicazione a sinistra sul
gruppo.
12 TEORIA DINAMICA DELLE SIMMETRIE.
234
Sia (U, φ) una carta locale. Supponiamo ora di fissare un gauge σ ∈ Γ(U, Υ). Questa è
un’operazione che può essere fatta solo localmente. Il motivo è che in generale un fibrato
principale è banale se e solo se ammette una sezione globale38 . Dunque non esistono sezioni
globali se il fibrato non è banale. Detto ciò, potremo definire la connessione locale nel gauge
fissato come A := ω ◦ σ. Si tratta di una 1-forma a valori in Lie(G). Cosa accade se cambiamo
gauge, cioè se passiamo da σ a σ̃ ∈ Γ(U, Υ)? Il cambiamento può evidentemente essere visto
come indotto da una trasformazione del fibrato Υ|U e quindi sarà descritto allora da una
mappa equivariante αT cioè σ̃(x) := T σ(x) = σ(x)αT (σ(x)) =: σ(x)g(x). Nel nuovo gauge la
connessione locale à sarà allora legata ad A dalla relazione A = T ∗ à ed applicando la regola
di trasformazione della proposizione otteniamo
A(x) = g(x)−1 Ã(x)g(x) − g(x)−1 dg(x) ,
che è proprio la formula dedotta euristicamente dal punto di vista fisico. Basta inoltre applicare
11.4.11 per verificare che la derivata covariante Dµ è semplicemente l’espressione locale della
derivata covariante geometrica ∇ω sui campi di materia.
Si noti in particolare che il campo A visto come un campo su M è ben definito solo localmente,
mentre l’oggetto globale è ω che vive su Υ. Questo mostra l’importanza del concetto di fibrato
nella costruzione delle teorie di gauge.
12.2.5 Curvatura e campo di forze. Data la connessione infinitesima ω su Υ, possiamo
anche considerarne la forma di curvatura Ω = H(dω). L’equazione di struttura (sezione 11.5.3)
ci dice allora che Ω = dω + 21 [ω, ω]. Scelto un gauge locale σ possiamo introdurre il concetto di
curvatura locale F := Ωσ = Ω ◦ σ. Allora F = dA + 21 [A, A] è una 2-forma a valori in Lie(G). In
particolare se G = U (1) allora F = dA è il tensore di Faraday. Dunque la forma di curvatura
rappresenta il campo di forze o fieldstrength associato al campo di gauge.
È un semplice esercizio verificare che in una trasformazione di gauge il campo di forze trasforma
secondo la rappresentazione aggiunta: se σ̃(x) = σ(x)g(x) allora F̃ (x) = dAdg(x) (F (x)).39 In
effetti si tratta dell’espressione locale della seguente proposizione di facile dimostrazione.
12.2.6 Proposizione. Sia T : Υ −→ Υ una trasformazione di gauge. Se Ω è la forma di
curvatura associata ad ω allora T ∗ Ω è la forma di curvatura associata a T ∗ ω e si ha
T ∗ Ωξ = dAdαT (ξ)−1 ◦ ΩT (ξ) .
12.3
Teorie di Yang-Mills.
Riassumendo, il campo di gauge è geometricamente individuato dalla connessione infinitesima
sul fibrato principale, mentre il campo di forze è individuato dalla forma di curvatura. L’interazione di tali campi con i campi di materia avviene tramite l’azione della derivata covariante ∇ω
e del corrispondente campo di curvatura Ω∇ sui campi di materia. Si noti che in un particolare
gauge avremo ad esempio ∇µ φ(x) = ∂µ φ + ρ(A(x))φ(x), dove ρ è la rappresentazione di Lie(G)
38
39
la dimostrazione è un esercizio
ovviamente dAdg è l’azione aggiunta del gruppo sull’algebra ottenuta differenziando Adg : U −→ U
12 TEORIA DINAMICA DELLE SIMMETRIE.
235
su V . Se inoltre fissiamo una base {τa }na=1 dell’algebra di Lie di G, con costanti di struttura
cbc a , allora A = Aa τa , F = F a τa e
a
Fµν
= ∂µ Aaν − ∂ν Aaµ + cbc a Abµ Acν .
Ovviamente dal punto di vista fisico è conveniente identificare il campo di forze con Ω∇ che vive
su M , anziché con Ωω che vive su Υ.40 . In tal senso il campo di forze è globalmente definito
su M , a differenza del campo di gauge. In questo senso il campo di forze appare più fisico
del campo di gauge che rappresenta piuttosto un ’potenziale’ per il campo di forze. Tuttavia
possiamo notare che solamente se il gruppo di gauge è abeliano il campo di forze è invariante
di gauge. Nel caso non abeliano F trasforma con l’aggiunta e non è direttamente osservabile.
Lo saranno piuttosto le quantità invarianti che si possono costruire a partire da F .
12.3.1 Interazioni di gauge.
L’accoppiamento tra connessione e campi di materia ha come effetto secondario un’interazione tra i campi di materia mediata dai campi di gauge, detta anche interazione di gauge.
Per esempio nel caso eletromagnetico possiamo dire che l’interazione elettromagnetica tra campi
carichi41 è mediata dal quadripotenziale Aµ . Abbiamo visto come nel caso abeliano sia possibile rendere
R dinamico il campo di gauge introducendo un’azione quadratica nel campo di forze:
S[A] = κ Fµν F µν d4 x. Nel caso nonabeliano tale espressione non è invariante di gauge, ma lo
è la sua traccia. Dunque su una varietà (pseudo-)metrica ha senso definire almeno localmente
Z
p
SU [A] = κ T r{Fµν (x)F µν (x)} g(x)d4 x ,
U
dove g(x) è il modulo del determinante della matrice metrica, (U, φ) una carta locale e la
traccia è presa nella rappresentazione aggiunta (composta con la rappresentazione ρ). Se Ũ è
un secondo aperto locale che ha intersezione non vuota con U allora sull’intersezione F ed F̃
differiranno per una trasformazione di coordinate composta con una trasformazione di gauge.
Chiaramente l’integrale con la misura indotta dalla metrica non dipende dalla scelta delle
coordinate. Poiché la trasformazione di gauge corrisponde all’azione aggiunta del gruppo su F
e dato che la traccia è invariante sotto tale azione, si ha allora
SŨ [Ã]|U ∩Ũ = SU [A]|U ∩Ũ .
Quindi le due azioni locali sono compatibili ed è possibile determinare una partizione dell’unità
associata all’atlante di M e definire quindi SM [A]. In assenza di altri termini, le equazioni del
moto conseguenti sono dunque42
0=
40
p
δSM
= −4κKab ∂ν ( g(x)F bνµ (x)) ,
a
δAµ (x)
sappiamo però che sono equivalenti
diremo che un campo di materia è carico se trasforma in maniera non banale sotto trasformazioni di gauge
42
calcolata ad esempio scegliendo una variazione δAaµ a supporto compatto in U
41
12 TEORIA DINAMICA DELLE SIMMETRIE.
236
dove Kab = T r(τa τb ) è la metrica di Killing sull’algebra di Lie del gruppo di gauge. Inoltre F
deve soddisfare le identità di Bianchi 11.5.4 che assumono la forma43
Dµa Fνρ (x) + Dρa Fµν (x) + Dνa Fρµ (x) = 0 ,
dove si è posto
c
a
(x) + cbc a Abµ (x)Fνρ
(x) .
Dµa Fνρ (x) := ∂µ Fνρ
Le teorie di gauge la cui dinamica viene definita dall’azione quadratica testé definita si chiamano
teorie di Yang-Mills. Se il gruppo di gauge è abeliano si riducono essenzialmente alla teoria
del campo elettromagnetico, per cui ci si riferisce al caso non-abeliano quando si parla di teorie
di Yang-Mills. Si noti che in tal caso l’azione SM [Aa ] non è quadratica nei campi ma contiene
anche termini cubici e quartici.44 Dal punto di vista fisico questo significa che nemmeno in
assenza di sorgenti i campi di gauge non-abeliani soddisfano il principio di sovrapposizione, a
causa dei termini cubici e quartici che si interpretano allora come termini di autointerazione.
Questa interprtazione è chiara dal punto di vista perturbativo in cui i termini non lineari nelle
a
:= ∂µ Aaν −∂ν Aaµ ,
equazioni del moto vengono considerati perturbativamente. Posto allora F(0),µν
aµν
le equazioni del moto assumono la forma ∂µ F(0)
= j aν , dove j aν contengono termini quadratici
a
e cubici nei campi di gauge e a livello perturbativo definiscono la sorgente per il campo F(0),µν
.
È interessante comunque osservare che esistono tecniche per determinare e descrivere soluzioni
esatte di queste equazioni che, oltre a permettere di descrivere fenomeni non perturbativi in
fisica, introducono una più profonda interazione tra fisica e matematica. Ci limiteremo invece
a concludere le nostre considerazioni sulle teorie di Yang-Mills con alcune osservazioni.
12.3.2 Osservazioni. Scelta una base τa dell’algebra di Lie asociata al gruppo di gauge,
anziché parlare di campo di gauge Aµ , in fisica si preferisce parlare di campi di gauge Aaµ . Ad
esempio se il gruppo di gauge è SU (n), ci saranno n2 − 1 campi di gauge. Un solo campo per
U (1) (il fotone), tre per SU (2) (la luce pesante Z, W ± ), otto per SU (3) (i gluoni). Ad ogni
campo di gauge è associata una carica, che chiameremo carica di gauge in generale ma che
assume il nome specifico di carica elettrica, elettrodebole e di colore nei casi sopra citati.
Consideriamo un campo di materia φ su cui agisca un gruppo compatto K (di Lie) come gruppo
di gauge, in qualche rappresentazione ρ. Se il gruppo è compatto
allora si può sempre scrivere
P
a
localmente la trasformazione di gauge nella forma φ̃(x) = e a qa α (x)τa φ(x). Le costanti qa sono
appunto le cariche del campo, che determinano come il campo si trasforma sotto l’azione del
gruppo. In particolare la connessione infinitesima sarà ragionevolmente scritta, dal punto di
vista fisico, nella forma
X
ω ◦ σ(x) =
qa τa Aa ,
a
dove σ è il gauge fissato. Si noti che alcune delle cariche possono essere nulle, tuttavia quelle
non nulle devono corrispondere ad una sottoalgebra dell’algebra di Lie. In tal caso la teoria
di gauge si riduce al sottogruppo corrispondente. In ogni caso possiamo pensare alle cariche
43
44
verificare!
si scriva esplicitamente SM [A] in termini di Aaµ
12 TEORIA DINAMICA DELLE SIMMETRIE.
237
come dei parametri che determinano la rappresentazione con la quale la connessione (che ha
valori nell’algebra del gruppo di gauge) agisce sul campo di materia. Tali cariche dipendono
comunque dal campo di materia e non dal campo di gauge la cui natura è fissata.
Infine osserviamo che finora abbiamo parlato di gruppo di gauge riferendoci al gruppo di Lie
compatto indotto su ogni fibra. Tuttavia più propriamente il gruppo di gauge è il gruppo delle
trasformazioni del fibrato principale e si tratta dunque di un gruppo di Lie infinito dimensionale,
ben più complicato dei gruppi di Lie da noi considerati.
12.4
Simmetrie esterne e relatività.
Finora abbiamo considerato le simmetrie che riguardano le trasformazioni dello spazio interno,
che costituisce parte della definizione dei campi. Tuttavia un ruolo non meno importante ce
l’hanno le trasformazioni esterne, che riguardano cioè lo spazio-tempo. Esse infatti sono determinanti nella costruzione stessa dei campi e non solo nella loro dinamica e sono ovviamente i
fondamenti delle teorie relativistiche. Nel capitolo 13 vedremo ad esempio il ruolo della relatività ristretta nella determinazione dei campi fondamenteli e delle relative equazioni del moto
che trovano posto nel modello standard delle particelle elementari, il cui contenuto geometrico
verrà illustrato nel capitolo 14. In questa sezione ci occuperemo invece di alcuni aspetti della
relatività generale.
12.4.1 Relatività generale e leggi fisiche. Mentre in relatività ristretta si privilegiano
i sistemi di riferimento inerziali, nella relatività generale non viene privilegiato alcun sistema
di riferimento. Poiché costruire un sistema di riferimento in una regione dello spaziotempo
corrisponde a introdurvi un sistema di coordinate locali, le equazioni fisiche devono essere nella
loro essenza indipendenti dalla scelta delle coordinate. In altri termini le equazioni fisiche vanno
scritte in forma tensoriale (covariante o controvariante) nelle coordinate locali. Gli argomenti
considerati nei precedenti capitoli ci portano a pensare che lo spazio-tempo debba essere allora
considerato come una varietà differenziale. Le leggi fisiche andranno allora scritte in termini di
sezioni di fibrati associati al fibrato dei riferimenti. In questo modo le equazioni risulteranno
indipendenti dalla scelta delle coordinate, ovvero trasformeranno in maniera covariante rispetto
a cambiamenti di coordinate.
Da questo punto di vista dunque una scelta di coordinate locali è equivalente a una scelta di
gauge nelle teorie di gauge. Tuttavia in questo caso la questione è un po’ più delicata, poiché
non possiamo dire a priori che solo le quantità indipendenti dalla scelta delle coordinate sono
osservabili. I fenomeni relativistici sono appunto quelli in cui i risultati delle misure dipendono
dalle coordinate (cioè dal sistema di riferimento). Nella maggior parte dei casi sono proprio
le componenti dei tensori ad essere misurabili, sebbene dipendano ovviamente dal riferimento.
Tuttavia è evidente che le quantità invarianti avranno un significato più profondo.
12.4.2 Il principio di equivalenza e la geometria dello spazio-tempo. Il principio di
equivalenza può essere espresso nei seguenti due punti
• si consideri una particella in caduta libera (cioè muoventesi in assenza di forze differenti
da quella gravitazionale). Allora la sua traiettoria non dipende dalla composizione e dalla
12 TEORIA DINAMICA DELLE SIMMETRIE.
238
struttura interna della particella; (principio di equivalenza debole)
• esperimenti locali eseguiti in riferimenti in caduta libera danno risultati indipendenti
dalla velocità del riferimento considerato, dal’istante e dal luogo dell’universo in cui essi
vengono eseguiti.
Il primo punto era già rispettato dalla teoria della gravitazione di Newton. Il secondo punto,
aggiunto al primo, definisce il principio di equivalenza forte. Esso afferma che nell’intorno di
ogni punto si può costruire un laboratorio abbastanza piccolo in cui gli effetti gravitazionali
risultino completamente trascurabili ed inavvertibili, almeno per tempi piccoli, per cui la fisica
sarà descritta (all’interno di tale laboratorio) dalla fisica dei sistemi inerziali. Nella teoria della
relatività generale si assume usualmente che questa sia la fisica Minkowskiana. Ciò non significa
che il campo gravitazionale non sia misurabile dato che gli osservatori potranno determinare le
forze di marea, come vedremo più avanti.
Si consideri ad esempio una particella massiva in caduta libera. In un laboratorio localmente
inerziale il suo moto sarà descritto, nelle fissate coordinate, dall’equazione del moto libero
d2 x µ
=0,
dτ 2
dove τ è il tempo proprio. Questo è certamente vero in un intorno del punto xµ0 := xµ (0), il
nostro laboratorio. Questa piccola regione dello spaziotempo verrà descritta con una metrica
Minkowskiana ηµν . Consideriamo ora un secondo sistema di riferimento arbitrario, rispetto al
quale il moto della particella sarà descritto da coordinate x̃ = x̃(x). Gli osservatori Õ di questo
laboratorio vedranno allora le correlazioni spaziotemporali descritte dall’osservatore inerziale
α ∂xβ
. Applicando la trasformazione di coordinate
O, in termini di una metrica gµν (x̃) = ηαβ ∂x
∂ x̃µ ∂ x̃ν
all’equazione del moto si ottiene l’equazione che secondo Õ descrive il moto della particella:
α
β
d2 x̃µ
µ dx̃ dx̃
+
Γ
=0,
αβ
dτ 2
dτ dτ
in cui Γµαβ sono proprio i simboli di Christoffel determinati dalla metrica gµν . Questa è l’equazione di una curva autoparallela su una varietà di metrica gµν dotata della connessione di
Levi-Civita. Questa osservazione, unita con la terza parte del principio di equivalenza, suggerisce che lo spazio-tempo debba essere identificato con una varietà differenziale dotata di una
metrica di segnatura Minkowskiana, in cui le equazioni che descrivono quei fenomeni localmente non gravitazionali vengano ottenute semplicemente covariantizzando le corrispondenti
equazioni note nel limite inerziale. Questo a livello pratico significherebbe sostituire la metrica generica gµν in luogo di quella di Minkowski e la derivata covariante in luogo di quella
ordinaria. In ogni dato punto si potranno sempre scegliere delle coordinate locali per le quali
la matrice metrica sarà proprio ηµν . Tuttavia non è vero che questo sia possibile farlo in tutto l’intorno dato: questo dipende da quale sia realmente la metrica sullo spazio tempo. Tale
eventuale impossibilità sarà allora la manifestazione delle forze gravitazionali e la loro intensità determinerà l’ampiezza della regione dello spazio-tempo in cui il limite minkowskiano sarà
approssimativamente valido.
12 TEORIA DINAMICA DELLE SIMMETRIE.
239
Il principio di equivalenza può essere indebolito, richiedendo che nel secondo punto solo gli
esperimenti locali non gravitazionali eseguiti in riferimenti in caduta libera diano risultati indipendenti dalla velocità del riferimento considerato, dal’istante e dal luogo dell’universo in
cui essi vengono eseguiti. Questo viene chiamato anche principio di equivalenza di Einstein.
Distinguendo gli esperimenti gravitazionali da quelli non gravitazionali tale principio in realtà
è più debole ed è quindi soddisfatto da una classe più ampia di teorie rispetto a quelle che
soddisfano il principio di equivalenza forte. In particolare la teoria della relatività generale è
l’unica finora nota che soddisfi il principio di equivalenza forte. Perciò chiameremo il principio
di equivalenza forte principio di relatività generale.
12.4.3 Relatività generale e geometria. Quanto osservato finora richiede alcuni ulteriori
commenti. Quando si covariantizza, non vi è un’unica possibilità di scegliere la derivata covariante. Dato il ruolo attribuito alla metrica, è chiaro che la connessione dovrà essere metrica.
Tuttavia questa condizione non è sufficiente a determinare univocamente la connessione, che
può ancora dipendere dalla scelta di una torsione. L’equazione sopra determinata per il moto
della particella, non è ancora sufficiente a decidere che la connessione debba essere proprio
quella di Levi-Civita. Dapprima osserviamo che in questa equazione non può esservi torsione.
Si faccia infatti l’esercizio di dimostrare che se esistono delle coordinate per le quali in un
punto dato la metrica è quella di Minkowski e Γµαβ = 0 (un’arbitraria connessione metrica),
allora necessariamente in quel punto la torsione è nulla. Il principio di equivalenza richiede
che questo debba valere ovunque e sempre, per cui in questa equazione si deve usare la connessione di Levi-Civita. Questa è una manifestazione dell’equivalenza tra massa inerziale e massa
gravitazionale. Non sarebbe però strano che la torsione comparisse in altre equazioni. Questa
particolare equazione sarebbe significativa su una varietà metrica a prescindere dalla presenza
o meno di una torsione. Semplicemente non sarebbe più l’equazione di una curva autoparallela, continuerebbe ad essere l’equazione di una curva geodetica, che rende cioè stazionario il
funzionale lunghezza d’arco
Z
S[γ] = −mc ds ,
γ
dove ds = cdτ è il tempo proprio (e c la velocità della luce, m la massa della particella). Mentre
lasciamo come esercizio la verifica di tale fatto, possiamo commentare che dunque le particelle
si devono muovere di moto geodetico e questo non è affatto incompatibile con la presenza di
una eventuale torsione. L’unica condizione di compatibilità richiesta è che la connessione sia
metrica. Tuttavia il punto è che il principio di equivalenza deve valere per tutte le equazioni
che riguardano i fenomeni localizzati. Questo significa che nel dato punto la torsione, nelle
date coordinate, deve scomparire da tutte le equazioni, per cui ovunque bisogna utilizzare la
connessione metrica. Il principio di relatività generale quindi richiede che lo spazio-tempo debba
essere una varietà di Levi-Civita.
Accertato questo fatto, occorre determinare delle equazioni che stabiliscano quale debba essere
la metrica sullo spaziotempo che determina gli effetti gravitazionali. Queste saranno appunto
le equazioni di Einstein. Vi sono diversi modi di introdurre le equazioni di Einstein. Per essere
12 TEORIA DINAMICA DELLE SIMMETRIE.
240
brevi adotteremo un approccio che, sebbene non sia necessariamente quello preferibile dal punto
di vista fisico, mette in luce gli aspetti geometrici.
Il principio di equivalenza di Einstein, come lo abbiamo scritto sopra, permette invece
l’esistenza di campi diversi dal campo gravitazionale, come generatori delle interazioni gravitazionali. Per esempio diventa ammissibile una torsione (gravità con torsione) non nulla oppure la presenza di ulteriori campi, oltre al campo metrico, come responsabili delle interazioni
gravitazionali.
12.4.4 Esercizio. Si supponga di introdurre nell’intorno di un punto O delle coordinate
localmente inerziali, per le quali gµν (O) = ηµν e Γµνρ (O) = 0. Si dimostri che (se le coordinate
di O sono nulle) allora
1
gµν (x) = ηµν + Rαµβν (O)xα xβ + O(|xσ |3 ) .
3
Come si vede dall’esercizio il campo gravitazionale si manifesta attraverso il tensore di Riemann.
Nello stesso limite ad esempio l’equazione geodetica assume la forma
2
ẍµ + Rµ 00σ (O)xσ = 0 ,
3
dove abbiamo ipotizzato una particella inizialmente in quiete. In particolare quindi l’osservatore
O vedrà le particelle a lui molto vicine subire delle quadriforze f µ = − 23 mRµ 00σ (O)xσ , nelle
varie direzioni, che interpreterà come forze di marea e che potrà misurare per determinare la
presenza del campo gravitazionale.
12.4.5 Il principio d’azione: equazioni di Einstein. In questa sezione accenneremo ad
un metodo geometrico di costruzione dell’azione di gravità, evidenziando le idee principali e
lasciando i dettagli come esercizio [CDF]. Poiché il ’campo di gauge’ in questo caso è la metrica,
vogliamo costruire un’azione per il campo gravitazionale, che sia invariante per trasformazioni
generali, che manifesti l’invarianza locale di Lorentz e le cui equazioni del moto contengano
derivate di ordine non superiore al secondo. Nella costruzione del principio di azione vi è un
punto delicato che riguarda i termini di bordo e che va considerato con cautela nei casi in cui
si debbano considerare particolari condizioni di bordo. Qui non tratteremo tali questioni (che
escono dai nostri scopi) ipotizzando che i termini di bordo non diano mai problemi.
Anzitutto, cominciamo con l’osservare che, a differenza delle teorie di Yang-Mills, non è possibile a priori scegliere la varietà M che individua lo spazio-tempo. Infatti, mentre a priori
qualunque varietà ammette almeno una metrica Riemanniana, non tutte le varietà ammettono metrica Lorentziana. Probabilmente non è nemmeno nota una classificazione delle varietà
che ammettono una metrica con segnatura Minkowskiana. Questo significa che in realtà le
equazioni di Einstein devono determinare non solo la metrica, ma anche la varietà (o meglio
la classe di isomorfismo) su cui tale metrica è definita. Una possibilità è quella di costruire
l’azione e le relative equazioni del moto solo localmente, ed ottenere poi le soluzioni globali
incollando le carte locali e facendo uso di qualche principio di completezza, che comunque qui
12 TEORIA DINAMICA DELLE SIMMETRIE.
241
non considereremo.
Invece di procedere in questo modo, costruiamo un’azione globale in cui sia la metrica che
la varietà siano incognite. Sia M una varietà, ipotetica soluzione delle equazioni di Einstein.
Sappiamo che una teoria indipendente dai sistemi di riferimento può essere costruita passando
attraverso il fibrato principale dei riferimenti R associato a T M . Possiamo allora pensare di
definire un’azione parziale iniziale su R. Ammettere che su M possa essere definita una metrica
lorentziana equivale ad ammettere che il fibrato dei riferimenti possa essere allora ridotto ai
sistemi di riferimento ortonormali (nel senso lorentziano), il fibrato che chiameremo O. Tutte
le quantità costruite sul fibrato R possono essere naturalmente costruite sul fibrato O. In particolare la connessione infinitesima e la forma di curvatura avranno valori in so(1, 3) (si veda
il capitolo 9). Si noti che il gruppo di struttura in generale non sarà ridotto a SO(1, 3) ma a
O(1, 3). Si verifichi che la riduzione a SO(1, 3) può essere fatta solamente se M è orientabile.
Indichiamo sempre con θ la forma orizzontale canonica su O. Non solo è una uno-forma a valori
in R4 : su R4 è definito un prodotto scalare Minkowskiano η, tale che
g(π(ξ))(π∗ (X), π∗ (Y )) = η(θξ (X), θξ (Y ) ,
ξ ∈ O , X, Y ∈ Tξ O .
Questa, che lasciamo verificare come esercizio, non è altro che la relazione che lega il vielbein
alla metrica.
L’idea è quella di usare solo questi ingredienti per costruire un’azione su O, invariante sotto
l’azione del gruppo di struttura, quindi per trasformazioni di gauge, oltre che per diffeomorfismi.
L’invarianza sotto l’azione del gruppo di struttura permette quindi di ridurre l’integrazione sul
quoziente O/G ' M . Poiché non si hanno ulteriori strutture, l’azione deve essere costruita
integrando delle quattro-forme su O/G, costruite a partire dalle forme su O, che sono θ, la
connessione infinitesima ω e la forma di curvature Ω. L’invarianza di gauge richiede che la
dipendenza da ω possa avvenire solamente attraverso Ω. La richiesta che le equazioni del moto
siano al più del secondo ordine equivale a dire che l’azione deve dipendere al più linearmente
da Ω. Infine l’azione deve avere la giusta parità. Per capire quest ultimo punto, osserviamo che
un possibile esempio di termine da considerare sarebbe
Z
S1 =
η(θ, Ω · θ) ,
O/G
dove il punto indica l’azione di so(1, 3) su R4 . Naturalmente, poichè gli argomenti del prodotto
scalare sono forme a valore vettoriale e il prodotto va inteso sulla valutazione delle forme,
l’integranda
è una quattroforma a valori reali. Approfittiamone per specificare cosa si intende
R
con O/G , G essendo il gruppo di struttura. Poiché assumiamo che M sia paracompatto,
ammetterà un atlante al più numerabile al quale sia associata una partizione dell’unità. Questo
ci permette di definire l’integrale localmente, cioè su Ũ := π −1 (U )/G, se U è un intorno locale.
A questo punto, basta scegliere una qualunque sezione locale σ ∈ Γ(U, O). Detta Λ la quattroforma invariante da integrare, allora
Z
Z
Λ :=
σ∗Λ ,
Ũ
U
12 TEORIA DINAMICA DELLE SIMMETRIE.
242
non dipende dalla scelta di σ, data l’invarianza. D’altra parte σ ∗ θ è il vierbein ea (in termini
della base canonica di R4 ). Come esercizio si verifichi che allora
Z
p
Rabcd εabcd | det g|d4 x .
S1 |Ũ ∝
U
Questo definisce la densità lagrangiana L1 tramite
Z
Z
p
p
4
Rabcd εabcd | det g|d4 x ,
L1 | det g|d x :=
U
U
dove L1 non è realmente una funzione scalare, dato che si comporta come tale solo per trasformazioni che conservano l’orientamento (lo si verifichi!). In questo senso diciamo che S1 non ha
la giusta parità.
In conclusione dopo aver elencato tutti i possibili termini lineari in Ω, si ottiene che solo due
soddisfano i requisiti richiesti:
• il primo termine, per a ∈ R, è
Z
θ∧θ∧θ∧θ ;
Sa = a
O/G
• il secondo termine si costruisce tramite il seguente automorfismo : so(1, 3) −→ so(1, 3)
per il quale aa b 7→ 21 εa bcd acd . Per b reale sia allora
Z
Sb = b
η(θ, (Ω) · θ) .
O/G
L’azione gravitazionale assume quindi la forma Sa,b = Sa + Sb .
12.4.6 Esercizio. Si dimostri che l’espressione locale dei due termini dell’azione è
Z
√
Sa = κ
Λ gd4 x ,
ZM
√
Sb = κ
R(x) gd4 x ,
M
dove R è lo scalare di curvatua, κ una costante proporzionale a b e Λ una seconda costante
proporzionale ad a/b.
Per concludere la nostra deduzione dell’azione gravitazionale osserviamo che se Λ 6= 0 allora la
metrica di Minkowski non è ammessa in assenza di materia. Questo contrasta con il principio di
equivalenza forte, almeno nella versione cosı̀ forte in cui è enunciato. In conclusione l’azione di
Einstein-Hilbert Sb è l’unica compatibile con il principio di equivalenza forte unito alla richiesta
di equazioni del moto di ordine al più quadratico.
12.4.7 Osservazione. La costante Λ è la costante cosmologica. In una teoria strettamente
fedele al principio di equivalenza forte essa può comparire come termine efficace proveniente
12 TEORIA DINAMICA DELLE SIMMETRIE.
243
dall’azione che contiene i campi di materia (ad esempio le fluttuazioni di vuoto quantistico).
Alternativamente potrebbe in realtà accadere che il gruppo relativistico in assenza di materia
sia piuttosto un gruppo di de Sitter. In tal caso si dimostra che l’azione più generale compatibile
con tale gruppo sarebbe proprio Sa,b con a e b entrambi non nulli.
12.4.8 Osservazione. Nel costruire Sa , avremmo potuto considerare a non costante, sotto
il segno di integrale. In tal caso l’unica scelta possibile sarebbe stata a = α + βρ, con α e
β costanti e ρ una funzione scalare espressa come funzione lineare della curvatura. Il termine
lineare in β sarebbe allora della stessa forma di Sb , per cui non si è persa alcuna generalità
nell’assumere a costante.
13 CAMPI SCALARI E SPINORIALI.
13
244
Campi scalari e spinoriali.
Testi consigliati: [We], [N1], [N2].
Nel capitolo 12 abbiamo visto come possano essere costruite le teorie di gauge nello spaziotempo di Minkowski. Si è anche accennato al fatto che esse si accoppiano in modo semplice
ai campi di materia: basta covariantizzare le equazioni del moto tramite la connessione del
campo di gauge, che agisce sui campi tramite una data rappresentazione. In questo capitolo
vogliamo vedere quali siano appunto tali equazioni del moto, limitandoci ai casi interessanti
per l’applicazione al modello standard delle particelle.
13.1
Le particelle e il gruppo di Poincaré.
Lo studio delle rappresentazioni del gruppo di poincaré e la connessione con le particelle elementari richiederebbe un capitolo a sè stante. Per motivi di spazio accenneremo qui solamente
l’idea, rimandando gli approfondimenti a [We].
13.1.1 Algebra di Poincaré. La relatività ristretta identifica lo spazio-tempo con lo spazio
di Minkowski. Come ben noto si tratta di uno spazio isotropo ed omogeneo, il cui gruppo di simmetria (le trasformazioni isometriche) è il gruppo di Poincaré P , costituito dalle trasformazioni
di Lorentz, composte con le traslazioni spazio-temporali:
xµ −→ Λµ ν xν + bµ ,
Λ ∈ O(1, 3) ,
b ∈ R4 .
Un campo di materia sarà caratterizzato da come si comporta sotto trasformazioni di Poincaré.
Se pensiamo a ψ come la funzione d’onda di una singola particella, essa individuerà un elemento
di uno spazio di Hilbert H, sul quale la trasformazione dovrà agire unitariamente:
ψ −→ U (Λ, b)ψ .
La mappa U : P −→ U (H), essendo una rappresentazione unitaria di P su H, deve soddisfare
la regola di composizione
U (Λ1 , b1 )U (Λ2 , b2 ) = U (Λ1 Λ2 , b1 + Λ1 b2 ) .
Il problema diventa quello di classificare le rappresentazioni di questo tipo (infinito dimensionali!). A tale scopo conviene sfruttare la mappa esponenziale riducendosi dunque allo studio
dell’algebra. Non entreremo nei dettagli, non avendo considerato gruppi di Lie infinito dimensionali. L’algebra di Lie di U (H) è l’algebra degli operatori antiautoaggiunti su H (non ci
preoccupiamo qui delle questioni di dominio!). D’altra parte l’algebra di Poincaré è generata
dalle matrici aµ ν con aµν := ηµρ arho ν antisimmetrica e dalle traslazioni stesse individuate dai
vettori εµ . Possiamo usare {aµν , εµ } come coordinate locali dell’algebra. Nell’intorno dello zero
esse diventano coordinate locali anche per il gruppo, per cui potremo scrivere
i
U (a, ε) = exp( aµν M µν − iεµ P µ ) ,
2
13 CAMPI SCALARI E SPINORIALI.
245
dove M µν = −M νµ e P µ sono operatori hermitiani su H. In particolare nelle date coordinate
avremo Λµ ν = δ µ ν + aµ ν + . . .. Applicando la regola di composizione a U (Λ, a)U (Λ̃, b)U (Λ, a)−1
per due arbitrarie trasformazioni infinitesime si trova allora
[M µν , M ρσ ] = i(M µρ η νσ + M νσ η µρ − M µσ η νρ − M νρ η µσ ) ,
[M µν , P σ ] = i(η µσ P ν − η νσ P µ ) ,
[P µ , P ν ] = 0 .
H := P 0 è il generatore delle traslazioni temporali e può essere identificato con l’operatore
hamiltoniano. I generatori che commutano con H sono P i e J i con i = 1, 2, 3 e J 1 = M 2,3 ,
J 2 = M 3,1 e J 3 = M 1,2 . P i sono gli operatori di quantità di moto e J i quelli di momento
angolare. Infine K i := M i,0 generano i boost.
13.1.2 Rappresentazioni e piccolo gruppo. Poiché gli operatori P µ commutano tra loro
si possono considerarne gli autostati (in senso generalizzato):
P µ ψkµ ,α = k µ ψkµ ,α ,
dove α è un indice di degenerazione. Su tali stati una pura traslazione U (1, b) agirà come
U (1, b)ψkµ ,α = e−ik
µb
µ
ψkµ ,α .
Fissata la segnatura {−.+, +, +} per η, le rappresentazioni fisicamente significative sono quelle
per le quali k 2 := kµ k µ ≤ 0 e k 0 > 0.
Una trasformazione di Lorentz U (Λ, 0) agirà mandando un autostato ψkµ ,α in un altro autostato
di P µ con autovalore Λµ ν k ν , come segue dalla regola di composizione. Quindi
X
L(Λ, k)αβ ψ(Λk)µ ,β .
[U (Λ, 0)ψ]kµ ,α =
β
La trasformazione L agisce dunque sugli indici di degenerazione. Essa dovrà a sua volta rappresentare il gruppo delle trasformazioni di Lorentz ed in realtà il sottogruppo che lascia invariato
k µ . Tale gruppo si chiama il piccolo gruppo. L’idea è dunuque quella di caratterizzare il campo
secondo le rappresentazioni del piccolo gruppo. Rimandando i dettagli a [We], ci accontentiamo
di osservare che vi sono due caratterizzazioni del piccolo gruppo che inducono rappresentazioni
unitarie di interesse fisico:
• se k 2 < 0 e k 0 > 0, il piccolo gruppo è isomorfo al sottogruppo del gruppo di Lorentz che
lascia invariato il vettore (m, 0, 0, 0). m > 0 è la massa e il piccolo gruppo è SO(3);
• se k 2 = 0 e k 0 := ν, si ha la rappresentazione a massa nulla e il piccolo gruppo è isomorfo
al gruppo che lascia invariato il vettore (ν, ν, 0, 0). È isomorfo al gruppo ISO(2, R) delle
rototraslazioni di un piano euclideo.
Prima di concludere le nostre osservazioni, aggiungiamo un ulteriore commento di tipo generale
sulle rappresentazioni.
13 CAMPI SCALARI E SPINORIALI.
246
13.1.3 Rappresentazioni proiettive e gruppo di ricoprimento. Nelle teorie quantistiche
gli stati sono raggi in uno spazio di Hilbert, dunque risultano definiti a meno di una fase complessa. Ciò significa in sostanza che in luogo di rappresentazioni lineari nella fisica quantistica
è più opportuno considerare rappresentazioni proiettive. Supponiamo cioè di considerare un
gruppo G del quale vogliamo una rappresentazione unitaria su uno spazio di Hilbert H. Poiché
ogni stato è definito a meno di una fase, anziché l’usuale regola di composizione, più in generale
potremo richiedere che Uα : G −→ U (H) soddisfi
U (g1 g2 ) = eiα(g1 ,g2 ) U (g1 )U (g2 ) ,
g1 , g2 ∈ G ,
dove α : G × G −→ R è una funzione che determina la fase. Se si impone l’associatività si
ottiene che la funzione di fase deve soddiafare la relazione
α(g1 , g2 ) + α(g1 g2 , g3 ) = α(g2 , g3 ) + α(g1 , g2 g3 ) .
Questa viene detta relazione di cociclo ed una sua soluzione si chiama un 2-cociclo chiuso. Ogni
rappresentazione proiettiva è caratterizzata dunque da un cociclo chiuso. Di questa equazione
esiste sempre una classe di soluzioni, dette cocicli banali o esatti e sono determinati dalle funzioni
f : G −→ R, secondo la relazione
α(g1 , g2 ) = f (g1 g2 ) − f (g1 ) − f (g2 ) ,
e si scrive α = δf . Si dicono banali perché se α = δf allora la rappresentazione proiettiva
può essere ridotta ad una lineare (cioè senza fase) tramite la mappa Uα 7→ Ũ , dove Ũ (g) :=
eif (g) Uα (g). Se invece un cociclo chiuso non è banale, la rappresentazione è intrinsecamente
proiettiva.
Si noti che la moltiplicazione per una fase è essa stessa un operatore unitario su H, che possiamo
scrivere nella forma eiαI , dove I : H −→ H è l’operatore identità. Questo ci permette di dire
che dal punto di vista algebrico è come aggiungere all’algebra dei generatori del gruppo U (G)
l’operatore I, che commuta con tutti i generatori in modo che se l’algebra originale era della
forma
[Ja , Jb ] = cab c Jc ,
l’algebra estesa assumerà ora la forma
[Ja , Jb ] = cab c Jc + cab I ,
[I, Ja ] = 0 .
La nuova algebra si chiama l’ estensione centrale della vecchia. Le costanti Cab si chiamano
cariche centrali. L’equivalente della condizione di cociclo a livello algebrico è l’identità di Jacobi,
che in particolare implica
cad cd bc + cbd cd ca + ccd cd ab = 0 .
Questa può essere vista come un’equazione per le costanti cab .
Dato che l’algebra di partenza soddisfa di per sè le identità di Jacobi, una soluzione banale è
data da
cab = λd cd ab
13 CAMPI SCALARI E SPINORIALI.
247
con λd costanti (e sottintendendo la somma su d). Di nuovo questa è detta banale poiché in tal
caso è sufficiente ridefinire i generatori J˜a := Ja + λa I, per eliminare le cariche centrali. Diremo
allora che l’estensione centrale in questo caso è banale. Vale la seguente proposizione.
13.1.4
banali.
Proposizione. Le algebre semisemplici ammettono solamente estensioni centrali
Dimostrazione. Si consideri l’equazione
cad cd bc + cbd cd ca + ccd cd ab = 0 ,
di cui si supponga di aver determinato una qualunque soluzione cab . Poiché l’algebra è semisemplice, la forma di Killing di componenti Kab = cac d cbd c è non degenere e può essere adoperata per
alzare ed abbassare gli indici delle costanti di struttura. Come al solito K ab indica la matrice
inversa di Kab , mentra Kba = δba . Posto allora
cab c = K ad K bf Kcl cdf l ,
si ha
cd bc cbc a = δad ,
dove si è usato anche il fatto che cabc è completamente antisimmetrico a conseguenza della
ad-invarianza. Contraendo allora l’equazione di partenza con cbc e , otteniamo
cae = cbd cd ca cbc e + ccd cd ab cbc e = cbd (cd ca cbc e + cd ac ccb e ) = 2cbd cd ca cbc e ,
dove abbiamo ribattezzato gli indici muti (cioè quelli sommati secondo la convenzione di Einstein) e usato le proprietà di simmetria. A questo punto usiamo l’identità di Jacobi nella
forma
cd ca cbc e = −cdc b ce c a − cd ce ca cb
per ottenere
cbd cd ca cbc e = cbd (cdbc ce c a + cd ce cbc a ) ,
e, poiché45
cbd cd ce cbc a = −cbd cd ca cbc e ,
da cui infine
cae = cbd cdbc ce c a = cae c (cbd cbd c ) = cae c λc ,
con λc = cbd cbd c . Quindi, se esiste una soluzione, è necessariamente banale, ovvero tutte le
soluzioni sono banali.
2
13.1.5 Esercizio. Si estenda tale proposizione all’algebra di Poincarè e alle rototraslazioni.
13.1.6 Ostruzioni topologiche. Ne concludiamo che nei casi che ci interessano, a livello algebrico esistono solo estensioni centrali banali. Questo non basta a impedire l’esistenza
45
si usi ad esempio cbd = −cdb e si ribattezzino poi opportunamente gli indici muti
13 CAMPI SCALARI E SPINORIALI.
248
di rappresentazioni intrinsecamente proiettive, dato che le questioni algebriche sono locali e
riguardano l’intorno dell’identità (o un qualunque intorno locale per traslazione). Ci possono
ancora essere questioni globali, di natura topologica. Vale il seguente teorema.
13.1.7 Teorema. Sia G un gruppo di Lie finito dimensionale la cui algebra di Lie ammetta
solamente estensioni centrali banali. Allora la rispettiva equazione di cociclo ammette solo
soluzioni non banali se e soltanto se G non è semplicemente connesso.
Dimostrazione. Si veda [We].
2
I gruppi ortogonali, euclidei o con segnatura, non sono semplicemente connessi, dato che
contengono cammini noncontraibili. Dunque, benché semplici, ammettono rappresentazioni
proiettive intrinseche, cioè rappresentazioni per le quali non si può ridefinire la fase con una
ridefinizione. Tuttavia ogni tale gruppo ammette un unico ricoprimento universale (a meno di
isomorfismi), cioè un gruppo semplicemente connesso G̃ che ammette un diffeomorfismo locale
e suriettivo
Φ : G̃ −→ G .
Le rapprsentazioni di G̃ sono quindi solamente lineari. Per i gruppi semplici Ker(Φ) è sempre un gruppo puntuale finito. Per i gruppi ortogonali speciali il gruppo di ricoprimento è il
gruppo di spin. In particolare SU (2) è il ricoprimento di SO(3) e SL(2, C) è il ricoprimento di
SO(1, 3). In ogni caso KerΦ = Z2 =: {e, −e}.46 Ne segue immediatamente che ogni rappresentazione proiettiva di G proviene da una rappresentazione lineare di G̃. In particolare, dato che
le uniche possibilità sono U (−e) = I oppure U (−e) = −I, è evidente che le rappresentazioni
intrinsecamente proiettive sono quelle per cui U (−e) = −I. In altre parole sono proprio le rappresentazioni di spin dei gruppi ortogonali che devono comparire nella descrizione quantistica
del mondo. Questo spiega ad esempio perché nella teoria generale del momento angolare compare l’intero gruppo SU (2) in luogo di SO(3). In particolare le particelle di spin semidispari (i
fermioni) corrispondono alle rappresentazioni intrinsecamente proiettive di SO(3).
13.1.8 Conclusione. Tornando alle rappresentazioni del piccolo gruppo, si vede dunque
che le rappresentazioni massive, oltre che dal valore della massa m, sono individuate dalle
rappresentazioni spinoriali di SO(3). Possiamo dire che le particelle massive, dal punto di
vista delle simmetrie esterne, sono classificate dalla massa e dallo spin. Naturalmente ulteriori
sottoclassificazioni possono essere indotte dalle simmetrie interne.
Per quanto riguarda invece le particelle di massa nulla occorre considerare le rappresentazioni
di ISO(2). Nel caso in cui si fissi k µ = (ν, 0, 0, ν) i generatori infinitesimi son J 3 , A :=
K 1 + J 2 e B := K 2 − J 1 . Di nuovo non entriamo qui nel dettaglio di come si costruiscono
le rappresentazioni irriducibili, ma ci accontentiamo di enunciare che quelle di interesse fisico
sono classificate dall’autovalore dell’operatore J 3 , che rappresenta la proiezione del momento
angolare lungo la direzione spaziale della quantità di moto. Tale numero quantico si chiama
elicità. Come lo spin, è vincolata ad assumere valori seminteri, ma questa volta per motivi
topologici anziché algebrici. Nuovamente rimandiamo a [We] per i dettagli.
Osserviamo infine che il gruppo di Lorentz proprio SO(1, 3) non è connesso, la sua componente
46
indichiamo cioè con −e il generatore di Z2
13 CAMPI SCALARI E SPINORIALI.
249
connessa essendo il sottogruppo che preserva l’ordinamento temporale, detto gruppo di Lorentz
proprio ed ortocrono.
13.2
Equazione di Klein-Gordon.
Sia M lo spazio-tempo di Minkowski d + 1 dimensionale. I campi scalari sono i campi
che trasformano in maniera banale sotto trasformazioni del gruppo di Lorentz proprio ed
ortocrono. Saranno perciò sezioni di un fibrato vettoriale (E, π, M, SO(1, d), (ρ0 , V )), dove
ρ0 : SO(1, d) −→ Aut(V ) è la rappresentazione banale SO(1, d) 7→ I, I essendo l’applicazione
identica. In generale tuttavia su V potrà agire la rappresentazione non banale di un gruppo
di gauge. Nel caso di particelle libere qualunque interazione, compresa quella di gauge, deve
essere trascurata. In particolare questo ci porta a richiedere che le equazioni del campo libero
debbano essere lineari.
13.2.1 Particelle scalari libere. Si noti anche che il fibrato dei riferimenti inerziali su M
è in questo caso banale, cosicché, finché non intervengono le interazioni di gauge, possiamo in
questo caso considerare i campi scalari come funzioni φ : M −→ V . In fisica si parla allora di
un multipletto di campi scalari di dimensione n pari alla dimensione di V . Possiamo pertanto
assumere semplicemente V = R: il caso generale lo si otterrà moltiplicando tensorialmente per
V il campo scalare. Del gruppo di Poincaré (proprio ed ortocrono) sui campi scalari solamente il
sottogruppo delle traslazioni può agire in maniera non banale. In particolare, dato il loro ruolo
nella determinazione della classificazione dei campi, vogliamo ammettere che gli autostati di P µ
siano essi stessi soluzioni (in senso generalizzato) delle equazioni del moto. Ne concludiamo che
l’equazione per φ deve essere determinata esclusivamente in termini di m e dell’operatore P µ .
Essendo P µ il generatore delle traslazioni, esso agirà sui campi scalari con la rappresentazione
Pµ = −i∂µ , come si può verificare facilmente.
13.2.2 Esercizio. Si dimostri che sui campi scalari l’azione delle trasformazioni infinitesime
aµν è generata dagli operatori M̂ µν := xµ P ν − xν P µ .
La richiesta che le autofunzioni di P µ siano soluzioni impedisce la comparsa degli operatori
M̂ µν se si vuole che le equazioni differenziali non superino il secondo ordine. In ogni caso M̂ µν
non son caratterizzanti della rappresentazione, dato che non forniscono una rappresentazione
irriducibile del piccolo gruppo. Ne segue che l’unica equazione compatibile con le richieste fatte
è P µ Pµ φ = −m2 φ, ovvero (nelle opportune unità di misura)
(−2 + m2 )φ = 0 ,
dove 2 := η µν ∂µ ∂ν è l’operatore quadratello. Questa equazione è nota come equazione di
Klein-Gordon.
13.2.3 Osservazione importante. Abbiamo dedotto l’equazione di Klein-Gordon come
l’equazione per i campi scalari. Tuttavia supponiamo ora di considerare un campo qualunque
ψα , dove l’indice interno α individua la rappresentazione non banale del gruppo di Lorentz sullo
spazio interno e che caratterizza il tipo di particella (scalare, spinore,. . .). Essendo naturale
13 CAMPI SCALARI E SPINORIALI.
250
chiedere che gli stati ψkµ ,α che supportano la rappresentazione costituiscano il campo, poiché
P µ Pµ ψkµ ,α = −m2 ψkµ ,α , ne segue che deve valere
(−2 + m2 )ψα = 0
ovvero le singole componenti di un qualunque campo devono soddisfare l’equazione di KleinGordon.
Tuttavia, mentre per i campi scalari questa è l’unica equazione (libera) ammessa di ordine
inferiore al terzo, per i restanti campi vi saranno altre equazioni caratterizzanti.
13.2.4 Accoppiamento con il campo di gauge. Supponiamo ora di avere un multipletto
di campi scalari accoppiato con una simmetria di gauge. Ciò significa che il campo avrà valore
in uno spazio vettoriale V , sul quale agisce un gruppo G tramite una rappresentazione non
banale ρ. Sia dunque φ : M −→ V il campo scalare. Sappiamo che possiamo accoppiare questo
campo con un campo di gauge, introducendo un fibrato principale con gruppo di struttura G
sul quale è definita la connessione che individua il campo di gauge. Se per brevità chiamiamo ρ
anche la rappresentazione di Lie(G) su V , indotta dalla rappresentazione ρ di G su V , allora, in
un fissato gauge locale su un aperto U , avremo che il campo di gauge sarà individuato da una
uno-forma A a valori in ρ(Lie(G)). Scelta una base {σa }na=1 dell’algebra, poniamo iτa := ρ(σa ).
Qui stiamo ammettendo che la rappresentazione sia unitaria, cosicché l’unità immaginaria rende
hermitiani i generatori τa . Fissiamo inoltre una base {ei }m
i=1 di V in modo da rendere matriciale
la rappresentazione. Il multipletto scalare sarà perciò individuato da m campi scalari φi che
si accoppiano con il campo di gauge tramite la covariantizzazione ∂µ → ∂µ + iAaµ τa ovvero
dovranno risolvere l’equazione
i
−η µν (δ i j ∂µ + iAaµ τaj
)(δ j k ∂ν + iAbν τbj k )φk + m2 φi = 0 .
Come si vede, a causa della connessione, i vari campi φi non sono più disaccoppiati. Essi
interagiscono tramite il campo di gauge, cioè sono carichi rispetto al campo di gauge.
13.2.5 Esercizio. Si scriva un’azione Sφ per l’equazione di Klein-Gordon
accoppiata con il
R
campo di gauge. Si aggiunga a questa l’azione di Yang-Mills SY M = κ M T r[Fµν F µν ]d4 x e si
ricavino le equazioni complete del moto, per A e φ.
13.2.6 Particelle scalari con potenziale. Nel caso dei campi scalare è interessante considerare il caso in cui il campo sia anche direttamente autointeragente. Ciò significa che le
equazioni del moto non saranno più lineari neppure in assenza di campi esterni. L’azione che
genera le equazioni del moto (se ammettiamo che ammettano principio variazionale) non è più
vincolata a contenere termini quadratici nei campi. Se L0 è la densità che definisce l’azione
libera, l’azione del campo autointeragente può essere ottenuta aggiungendo un potenziale alla
lagrangiana:
Z
S[φ] =
(L0 − Φ(φ))d4 x .
M
Naturalmente il potenziale Φ(φ) dovrà essere invariante sotto l’azione del gruppo di gauge G. Se
ad esempio il gruppo di gauge agisce unitariamente sullo spazio V in cui il campo assume valore,
13 CAMPI SCALARI E SPINORIALI.
251
allora V sarà ovviamente dotato di un prodotto scalare (, ) : V ×V −→ C, rispetto al quale ρ(g)
è unitario, se g ∈ G. In tal caso si potrà considerare come potenziale Φ(φ(x)) = f ((φ(x), φ(x))),
dove f è un’opportuna funzione a valori reali. Un tipico esempio è f (x) = (x − v)2 , per un
fissato parametro v ∈ R.
13.3
Equazione di Dirac.
Vogliamo ora considerare il caso di particelle spinoriali. Naturalmente siamo interessati al
caso di uno spazio-tempo quadridimensionale, tuttavia vale la pena nuovamente prendere in
considerazione il caso di uno spazio d + 1 dimensionale, come si è fatto per il campo scalare,
giacché in teorie moderne vengono presi in considerazione spazi-tempo di dimensione maggiore.
Comunque accade in generale che per campi non scalari si ha una forte dipendenza dalla dimensione.
Per esempio basti osservare che nel caso generale, per particelle massive il piccolo gruppo è
SO(d), e dunque la classificazione delle particelle è individuata dalle rappresentazioni spinoriali irriducibili di SO(d), che dipendono da d. In generale il caso a massa nulla richiederebbe
un’analisi a sè stante, tuttavia otterremo le equazioni a massa nulla considerando a partire
dal limite per m → 0 delle equazioni massive. Per semplicità chiameremo elettrone il campo
spinoriale massivo. Con campo spinoriale intenderemo naturalmente la sezione di un opportuno fibrato. Dedicandoci per ora al caso puramente Minkowskiano, rimandiamo più avanti le
specificazioni relative alla struttura di tale fibrato.
13.3.1 L’elettrone e le algebre di Clifford. Vogliamo costruire il campo di spin come
una funzione a valori in una rappresentazione del gruppo di spin associato al gruppo di Lorentz
m
SO(d, 1). Se d = 2m o d = 2m − 1, le rappresentazioni di spin possono essere costruite su C2 ,
che può infatti essere esteso ad un modulo sinistro sull’algebra di Clifford (complessificata)
Cl(d, 1) ⊗R C. Questo definisce un accoppiamento (pairing)
m
m
· : C(d, 1) × C2 −→ C2 ,
(γ, z) 7→ γ · z .
Come sappiamo l’algebra di Clifford è essenziale nella realizzazione del gruppo di spin. Ricordiamo che nel nostro caso lo spazio di partenza è lo spaziotempo di Minkowski M = Rd,1 ,
provvisto della forma quadratica η. Il punto essenziale è che nell’algebra di Clifford è contenuto
M come sottospazio vettoriale, cosicchè il suddetto pairing induce il pairing
m
m
· : M × C2 −→ C2 .
In realtà, nel caso d = 2m − 1 in cui lo spazio-tempo ha dimensione pari, come mostrato in
10.2.2, l’algebra di Clifford possiede un automorfismo α che la separa negli autospazi positivo
e negativo: C(η) = C(η)+ ⊕ C(η)− . Ad esso corrisponde una decomposizione dello spazio di
m
m−1
m−1
rappresentazione S := C2 nella somma diretta S = S + ⊕S − = C2
⊕C2 , che individuano
due sottospazi per rappresentazioni irriducibili per il gruppo di spin. Tuttavia il suddetto
pairing, che risulterà essenziale nella determinazione delle equazioni del moto, tiene in gioco
13 CAMPI SCALARI E SPINORIALI.
252
entrambe le rappresentazioni, dato che si ha
· : M × S + −→ S − ,
· : M × S − −→ S + .
Il secondo punto fondamentale è la proposizione 10.2.8 riguardante l’omomorfismo ρ. Sia σ la
rappresentazione di spin del gruppo si Lorentz su S.47 Dati s ∈ S, x ∈ M e Λ un elemento del
gruppo di Lorentz, vale la proprietà notevole
σ(Λ)(x · s) = (ρ(σ(Λ))x) · (σ(s)) .
La proposizione ci dice dunque che ρ(σ) è una rappresentazione del gruppo di Lorentz su M ,
cioè proprio la rappresentazione fondamentale.
Consideriamo ora un campo spinoriale massivo, cioè una mappa equivariante
ψ : M −→ S ,
che trasforma cioè secondo la rappresentazione di spin σ sotto trasformazioni di Lorentz. Alternativamente diremo che ψ ∈ Γ(M, SM ), dove SM ' M × S è detto il fibrato di spin. (si
veda 13.6.2). La scelta di un sistema di coordinate inerziali su M , corrisponde ad aver definito
48
su T M delle sezioni {ei }d+1
In particolare, se
i=1 ⊂ X (M ) tali che η(ei , ej ) = ηij e [ei , ej ] = 0.
∂
i
∇ è la derivata covariante di Levi-Civita, si avrà ∇ei ψ = ∂xi ψ, se x sono le relative coordinate
inerziali. Una trasformazione di Lorentz Λ agirà tramite σ su S e tramite σρ := ρ ◦ σ sulle
coordinate in modo che49
j
σ(λ)(∂i ψ) = σρ (Λ−1 )i ∂j σ(ψ) .
Ora ricordiamo che lo scopo è quello di determinare la più semplice equazione che contenga P j ed
m. Nel caso del campo scalare l’unico ingrediente aggiuntivo era la metrica η, che ci costringeva
a scrivere un’equazione di secondo ordine, in questo caso disponiamo di un ingrediente in più:
l’algebra di Clifford. Se γ : M ,→ C(d, 1) è l’inclusione di M nell’algebradi Clifford allora
poniamo γi := ei . In particolare γi · γj + γj · γi = 2ηij . Costruiamo quindi l’operatore
D : Γ(M, SM ) −→ Γ(M, SM ) ,
ψ 7→ Dψ := η ij ei · ∂j ψ .
L’operatore D è detto operatore di Dirac. Lasciamo come esercizio la verifica dei seguenti due
punti
• l’operatore di Dirac non dipende dalla scelta della base ortonormale;
• l’operatore di Dirac è covariante sotto trasformazioni di Lorentz su M: σ(Λ)(DΨ) =
D(σ(Λ)ψ).
47
dunque nel prodotto diretto di due rappresentazioni irriducibili nel caso di dimensione pari
si noti che ciò è possibile poiché T M è banale
49
cioè xi 7→ σρ (Λ)i j xj
48
13 CAMPI SCALARI E SPINORIALI.
253
La seconda proprietà segue dalla prima e dalla suddetta proprietà notevole. In fisica si preferisce
al solito usare Pi = −i∂i , cosicché si costruisce l’operatore P
/ := −iD. L’equazione cercata
deve quindi avere la forma (P
/ + f (m))ψ = 0. Applicando l’operatore P
/ − f (m) ed usando
l’osservazione 13.2.3 si ottiene che deve essere f (m) = ±m. Otteniamo finalmente l’equazione
di Dirac
(P
/ − m)ψ = 0 .
13.3.2 Dimensione pari e chiralità. Consideriamo ora in particolare il caso di spazitempo di dimensione pari. In tal caso un campo di Dirac ψ è una sezione del fibrato SM =
S + M ⊕ S − M . Il campo si decompone allora nella somma diretta ψ = ψ + + ψ − , dove ψ ± è una
sezione di S ± M e sono dette componenti chirali del campo (positiva e negativa). Benché S ± sono
sottospazi irriducibili per la rappresentazione del gruppo di spin, l’equazione di Dirac mischia le
diverse componenti chirali, dato che evidentemente D : Γ(M, S ± M ) −→ Γ(M, S ∓ M ), mentre
la moltiplicazione per la massa agisce in modo banale. In un campo massivo necessariamente
compaiono entrambe le chiralità. Le cose cambiano tuttavia per i campi di massa nulla.
13.3.3 Campi chirali: il neutrino. Nel caso di massa nulla ha senso considerare campi
che siano sezioni di S + M o di S − M . Essi vengono detti campi chirali, sinistrorso e destrosro
rispettivamente (left e right). Assumiamo che le loro equazioni del moto siano quelle ottenute
dall’equazione di Dirac per m = 0. In questo caso esse non mischiano più componenti left con
componenti right ed ha perciò senso considerare separatamente campi left o campi right. Si
parla allora di campi chirali. In senso stretto si parla di teoria chirale quando si ha a che fare
con una teoria che coinvolge solamente campi di una determinata chiralità. Più in generale
può accadere che entrambi i tipi di campi compaiano, ma che giuochino un ruolo differente.
Cosı̀ ad esempio nella teoria elettrodebole compaiono elettroni e neutrini e le corrispondenti
antiparticelle. Il campo elettronico contiene entrambe le componenti chirali del campo, mentre
i neutrini sono campi chirali left, che si accoppiano (debolmente) solamente con la componente
left dell’elettrone (si veda il capitolo successivo). A questa asimmetria tra campi left e right
corrisponde una violazione della simmetria di parità spaziale, come accenneremo nell’ esempio
13.3.8.
13.3.4 Accoppiamento con i campi di gauge. Come prima l’accoppiamento con il campo
di gauge lo si ottiene introducendo una connessione sul fibrato principale in cui viene definito
il gruppo di gauge. L’azione del gruppo di gauge sul campo di spin può avvenire diretta
mente tramite una rappresentazione sullo stesso spazio S, (ad esempio una simmetria U (1)) o
eventualmente su una sua estensione tramite uno spazio di rappresentazione V , come nel caso
del campo scalare. In tal caso potremo parlare di un multipletto di campi spinoriali. Lasciamo
i dettagli come esercizio. Procedendo come in 13.2.4 si ottiene
γ µ · (−iδ j k ∂ν + Abν τbj k )ψ k + mψ j = 0 .
13.3.5 Esempio. L’elettrone in 4D. Consideriamo il caso di uno spazio-tempo
minkowskiano quadridimensionale. In tal caso il campo di Dirac, in un dato riferimento in-
13 CAMPI SCALARI E SPINORIALI.
254
erziale, sarà descritto da una funzione ψ : M −→ C4 . Se eµ := ∂µ definisce il riferimento
ortogonale e γµ = γ(eµ ), l’azione di γµ su S = C4 puó essere realizzata in termini matriciali. Si possono cioè determinare delle matrici Γµ ∈ GL(C4 ) tali che Γµ Γν + Γν Γµ = 2ηµν I e
(γµ · s)α = Γµ α β sβ , dove α = 1, . . . , 4 indica la componente in C4 . Le matrici Γµ si chiamano
matrici di Dirac. Ricordiamo che esse non sono univocamente determinate, dato che su C4 si
può agire con una trasformazione di spin. Essa corrisponde ad un cambiamento di riferimento
nello spazio interno. Esiste una scelta standard di riferimento rispetto alla quale le matrici di
Dirac assumono la seguente forma
I O
0 σ1
O σ2
O σ3
Γ0 =
, Γ1 =
, Γ2 =
, Γ3 =
,
O −I
−σ1 0
−σ2 O
−σ3 O
dove σi , i = 1, 2, 3 sono le matrici di Pauli
0 1
0 −i
σ1 =
, σ2 =
,
1 0
i 0
σ3 =
1 0
0 −1
.
Questo riferimento è noto come rappresentazione di Dirac. La struttura a blocchi suggerisce di
scrivere il campo di Dirac nella forma
↑
ψ (x)
ψ(x) =
,
ψ ↓ (x)
dove ψ ↑ e ψ ↓ hanno valori in C2 .
Vogliamo considerare il caso in cui l’elettrone si accoppi con un campo elettromagnetico. Dal
punto di vista delle teorie di gauge ciò significa che c’è una simmetria U (1) locale, ψ(x) 7→
eiqα(x) ψ(x). Il parametro q rappresenta la carica del campo rispetto al gruppo di gauge50 .
L’equazione di Dirac assume pertanto la forma
η µν Γν (Pµ + qAµ )ψ − mψ = 0 .
Per chiarire il significato fisico è opportuno introdurre le unità di misura che mettano in evidenza
i parametri fisici: la costante di Planck ~ e la velocità della luce c.51 Inoltre conviene scrivere
le equazioni in termini dei campi ψ ↑ e ψ ↓
i~∂t ψ ↑ = mc2 ψ ↑ + c
3
X
i=1
i~∂t ψ ↓ = −mc2 ψ ↓ + c
q
q
σi (−i~∂i + Ai )ψ ↓ + A0 ψ ↑ ,
c
c
3
X
i=1
q
q
σi (−i~∂i + Ai )ψ ↑ + A0 ψ ↓ .
c
c
2
2
Nel limite non
dominano
i termini in mc2 e si ha ψ ↑ ≈ e−imc t/~ u± , ψ ↓ ≈ eimc t/~ u± ,
relativistico
1
0
dove u+ =
e u− =
. Si noti che in particolare ψ ↓ corrisponde a stati ad energia
0
1
50
se q = 0 allora il campo trasforma banalmente per trasformazioni di gauge. In tal caso si dice che il campoè
neutro
51
in particolare x0 = ct
13 CAMPI SCALARI E SPINORIALI.
255
negativa. Per interpretare fisicamente il campo di Dirac nel limite relativistico, cerchiamo
soluzioni a energia positiva, imponendo la dipendenza temporale in tale limite nella forma
2
2
ψ ↑ = e−imc t/~ φ e ψ ↓ = eimc t/~ χ. Dalla seconda equazione (trascurando i termini in ∂t χ e in
A0 ) si ricava allora χ in funzione di φ, che sostituito nella prima fornisce
3
i~∂t φ = Ĥφ ,
3
1 X i q 2
q ~X
Ĥ =
σi Bi + qV ,
P̂ + Âi +
2m i=1
c
mc 2 i=1
Questa è l’equazione di Schrödinger per un elettrone in un campo elettromagnetico con
~ = rotA,
~ se m è la massa sell’elettrone e q = −e la sua
quadripotenziale Aµ , A0 = cV , B
carica.
13.3.6 Esercizio. Si consideri l’equazione di Dirac per un campo massivo ψ (in 4D). Si
dimostri che ρ = ψ † ψ = hψ, ψi (il prodotto hermitiano in C4 ) definisce la densità di una quantità
conservata. In particolare si verifichi che la corrente spaziale associata è j i = ψ † Γ0 Γi ψ.
13.3.7 Principio d’azione per il campo di Dirac. Come al solito è conveniente disporre
di un principio d’azione, ad esempio per includere il campo di Dirac in teorie contenenti altri
campi. L’esercizio precedente suggerisce immediatamente quale debba essere l’azione per il
campo di Dirac: posto ψ̄ := ψ † Γ0 , si dimostri che l’azione
Z
ψ̄(P
/ − m)ψd4 x ,
SD [ψ] = k
M
fornisce un principio variazionale per l’equazione di Dirac. Qui si usi P
/ = Γµ ∂µ . È ovviamente
0
importante il fatto che nella rappresentazione di Dirac Γ sia hermitiana mentre Γi sono antihermitiane rispetto al prodotto scalare di C4 . Per definire l’azione nel caso generale occorre
mostrare che esistono sempre delle matrici di Dirac in qualunque dimensione. Questo lo si fa
facilmente per induzione. Sia d la dimensione dello spaziotempo.
m
Consideriamo dapprima il caso d = 2m. I campi di Dirac (massivi) avranno perciò valori in C2 .
m
Supponiamo di conoscere una rappresentazione di Dirac: le matrici di Dirac, Γµ ∈ GL(C2 ),
µ = 0, i e i = 1, . . . , d − 1 soddisferanno {Γµ , Γν } = ηµν e saranno antihermitiane se i = µ,
mentre Γ0 sarà hermitiana.
m
Vogliamo allora costruire le matrici di Dirac Γ̃N ∈ GL(C2 ), N = 0, . . . , d nello spaziotempo
di dimensione d + 1 = 2m + 1. Si verifica immediatamente che basta porre
Γ̃µ := Γµ ,
µ = 0, . . . , d − 1 ,
d−1
Y
Γ̃d :=
Γµ .
µ=0
m
Viceversa, supponiamo d = 2m+1 e siano note le matrici di Dirac Γµ ∈ GL(C2 ), µ = 0, . . . , d−
m+1
1, con le proprietá richieste. Costruiamo allora le matrici Γ̃M ∈ GL(C2 ), M = 0, . . . , d, nel
13 CAMPI SCALARI E SPINORIALI.
256
seguente modo
Γ̃0 :=
Γ̃i :=
Γ̃d :=
I O
O −I
O Γi
Γi O
,
O iΓ0
iΓ0 O
i = 1, . . . , d − 1 ,
,
.
13.3.8 Esempio. Chiralità e parità. Tornando al caso d = 4, si introduca la matrice
Γ5 := iΓ0 Γ1 Γ2 Γ3 . Essa è hermitiana e anticommuta con le matrici di Dirac. Inoltre si tratta di
una matrice a traccia nulla il cui quadrato è l’identità. Consideriamo la trasformazione di spin
ψ 7→ Γ5 ψ. Ad essa corrisponde la trasformazione Γµ 7→ −Γµ = α(Γµ ), dove α è l’automorfismo
dell’algebra di Clifford che definisce la chiralità.
Si consideri ora trasformazione di inversione spaziale, che cambia segno alle coordinate spaziali,
lasciando invariata quella temporale. Essa sarà rappresentata da qualche operatore P si sui
campi di spin, tale che P Γi P −1 = −Γi se i = 1, 2, 3, mentre P commuta con Γ0 . Ne segue che
in particolare P Γ5 P −1 = −Γ5 . Questo significa che l’operatore di parità scambia tra di loro gli
stati di chiralità opposta. Una teoria che privilegia in modo differente stati di diversa chiralità
non può perciò essere simmetrica per inversione spaziale. D’altra parte è noto che la parità è
violata in natura.
13.4
Il gruppo SO(1, 3)
Vale la pena approfondire l’analisi delle rappresentazioni di Spin del gruppo di Lorentz, come
applicazione della teoria sviluppata nel capitolo 10.
13.4.1 Matrici Γ. Come in 13.3.5 consideriamo le seguenti 4 matrici Γ0 , . . . , Γ3 ∈ M4 (C):
O σ2
O σ3
I O
O σ1
,
Γ0 =
, Γ1 =
, Γ2 =
, Γ3 =
−σ3 O
−σ2 O
O −I
−σ1 O
dove σi , i = 1, 2, 3 sono le matrici di Pauli
0 1
0 −i
σ1 =
, σ2 =
,
1 0
i 0
σ3 =
1 0
0 −1
.
Si notino in particolare le proprietà seguenti:
σ1 σ2 = −σ2 σ1 = iσ3 ,
σ1 σ3 = −σ3 σ1 = −iσ2 ,
σ2 σ3 = −σ2 σ3 = iσ1 ,
che sono utili per mostrare che
Γ20 = I,
Γ2i = −I,
(i = 1, 2, 3),
Γi Γj = −Γj Γi
(i, j = 0, 1, 2, 4).
13 CAMPI SCALARI E SPINORIALI.
257
Ne segue che l’applicazione lineare
j : R4 −→ M4 (C),
j((x0 , . . . , x3 )) = x0 Γ0 + . . . + x3 Γ3
(cioè j(ei ) = Γi ) soddisfa:
j(x)2 = (x0 Γ0 + . . . + x3 Γ3 )2 = (x20 − x21 − x22 − x23 )I.
La proprietà universale dell’algebra di Clifford dà allora un omomorfismo di R-algebre:
J : C(1, 3) := C(Q1,3 ) −→ M4 (C)
tale che J(v) = j(v)
per ogni v ∈ R4 ⊂ C(1, 3).
Poiché vogliamo descrivere il gruppo di spin
Spin(1, 3) := { x ∈ C(1, 3)+ : xx∗ = ±1,
xV x−1 ⊂ V },
cominciamo anzitutto a caratterizzare l’algebra di Clifford pari.
13.4.2 L’algebra di Clifford pari. L’algebra di Clifford pari C + (1, 3) ha dimensione 8 (su R)
ed ha una base data da 1, ei ej , e1 e2 e3 e4 dove gli ei sono i vettori base di R4 . Quindi J(C + (1, 3))
è generato dalle matrici I, Γ0 Γj (j = 1, 2, 3), Γj Γk (1 ≤ j < k ≤ 3) e Γ5 := Γ0 Γ1 Γ2 Γ3 . Si ha:
0 σj
−σj σk
0
±iσl
0
0 −iI
Γ0 Γj =
, Γj Γk =
=
, Γ5 =
,
σj 0
0
−σj σk
0
±iσl
−iI 0
dove {j, k, l} = {1, 2, 3}. La proprietà Γi Γj = −Γj Γi per i 6= j implica che per ogni j:
Γ5 Γj = −Γj Γ5
quindi Γ5 (Γj Γk ) = (Γj Γk )Γ5
qundi Γ5 commuta con ogni elemento dell’algebra di Clifford pari C + (1, 3). Segue che ogni
autospazio di Γ5 è invariante per C + (1, 3).
Consideriamo l’applicazione C-lineare
α+,− : C2 −→ C4 ,
α+ (z1 , z2 ) = (z1 , z2 , −z1 , −z2 ),
α− (z1 , z2 ) = (z1 , z2 , z1 , z2 ),
cioè, in blocchi, si ha α+ (z) = (z, −z) e α− (z) = (z, z). Allora α± (C2 ) sono i due autospazi di
Γ5 con autovalori ±i:
0 −iI
z
−iz
Γ5 α− (z) = −iα− (z),
perché
=
−iI 0
z
−iz
e similmente Γ5 α+ (z) = +iα+ (z). Poiché α± sono C-lineari si ha Γ5 α± (z) = α± (±iz).
Come si è detto prima, questi autospazi sono invarianti per C + (1, 3). In particolare, per
ogni Γ ∈ J(C + (1, 3)) esiste un AΓ ∈ End(C2 ) = M2 (C) tale che
Γα− (z) = α− (AΓ z)
per ogni z ∈ C2 .
13 CAMPI SCALARI E SPINORIALI.
258
Si verifica facilmente che si ha:
Γ0 Γj α− (z) = α− (σj z),
Γj Γk α− (z) = α− (±iσl z).
In questo modo otteniamo un omomorfismo di algebre:
J(C(1, 3)+ ) −→ End(C2 ) = M2 (C),
Γ 7−→ AΓ
e si ha:
AI4 = I2 ,
AΓ0 Γj = σj ,
AΓj Γk = ±iσl ,
AΓ5 = iI2 .
Ora è facile vedere che questo omomorfismo è suriettivo. Poiché dimR C + (1, 3) = 23 = 8 =
dimR M2 (C) si hanno allora gli isomorfismi:
∼
=
∼
=
C(1, 3)+ −→ J(C + (1, 3)) −→ M2 (C),
c 7−→ J(c) = Γ 7−→ AΓ .
13.4.3 Il gruppo Spin(1, 3). Da 10.2.7 si ha la definizione
Spin(1, 3) := { x ∈ C(1, 3)+ : xx∗ = ±1,
xV x−1 ⊂ V },
dove, per x = x1 . . . x2k ∈ C + (1, 3) si ha x∗ = x2k . . . x1 . Come appena visto in 13.4.2,
C + (1, 3) ∼
= J(C + (1, 3)) ⊂ M4 (C) e J(C + (1, 3)) ∼
= M2 (C).
+
+
L’antiinvoluzione ∗ : C (1, 3) → C (1, 3) induce allora un’antiinvoluzione, indicata ancora
con ∗, su M2 (C) nel modo seguente:
∗ : M2 (C) −→ M2 (C),
A = AJ(x) 7−→ A∗ := AJ(x∗ ) .
Se j 6= k, si ha Γj Γk = −Γk Γj . Quindi
σj = AΓ0 Γj 7−→ σj∗ = AΓj Γ0 = A−Γ0 Γj = −σj ,
±iσl = AΓj Γk 7−→ A−Γj Γk = ∓iσl ,
e si noti che
Γ∗5 = (Γ0 Γ1 Γ2 Γ3 )∗ = Γ3 Γ2 Γ1 Γ0 = Γ0 Γ1 Γ2 Γ3 = Γ5 ,
quindi iI = AΓ5 7−→ AΓ∗5 = iI.
Perciò l’antiinvoluzione ∗ manda la base I, iI, σj , iσj (j = 1, 2, 3) di M2 (C) nella base
I, iI, −σj , −iσj . Cioè, ∗ fissa le matrici diagonali e cambia il segno alle matrici con traccia
zero:
a+b
c
a − b −c
∗
X=
7−→ X :=
.
d
a−b
−d a + b
Gli elementi x ∈ C + (1, 3) con xx∗ = ±1 corrispondono alle matrici X ∈ M2 (C) tale che
XX ∗ = ±I, cioè:
2
a+b
c
a − b −c
a − b2 − cd
0
1 0
∗
XX =
=
=
,
d
a−b
−d a + b
0
a2 − b2 − cd
0 1
13 CAMPI SCALARI E SPINORIALI.
259
poiché det X = a2 − b2 − cd, troviamo allora
{x ∈ C + (1, 3) : xx∗ = 1 } ∼
= SL(2, C).
Dato che SL(2, C) è connesso, la componente connessa Spin(1, 3)o di Spin(1, 3) che contiene
l’identità è contenuta in SL(2, C). Visto che SL(2, C) ha dimensione complessa 3 e quindi
dimR SL(2, C) = 6 = dim SO(1, 3) = dim Spin(1, 3), concludiamo che
Spin(1, 3)o ∼
= SL(2, C),
un risultato che abbiamo già ottenuto ‘ad hoc’ in 9.2.5 (si noti che O(1, 3) ∼
= O(3, 1)).
13.4.4 Spinori di Majorana. Esiste un sottospazio reale V ⊂ C4 , con dimR V = 4, tale che
J(x)v ⊂ v,
∀ x ∈ C + (1, 3), v ∈ V
e t.c. C4 = V ⊕ iV ∼
= V ⊗R C.
Gli elementi di V sono detti spinori di Majorana (vedi 10.4.3). Si noti che tale V non è unico:
per ogni t ∈ C anche il sottospazio reale tV = {tv : v ∈ V } soddisfa le stesse condizioni.
L’algebra reale J(C + (1, 3)) ∼
= C + (1, 3) ha R-base I, Γ0 Γi , Γj Γk , Γ5 = Γ1 . . . Γ4 con i = 1, 2, 3
e 1 ≤ j < k ≤ 3. Poiché Γj Γk = −Γ0 Γj Γ0 Γk , basta trovare un sottospazio reale V tale che
Γ0 Γi v ∈ V per ogni v ∈ V , i = 1, 2, 3 e tale che C4 = V ⊕ iV .
Per trovare tale V osserviamo che l’azione di x ∈ C + (1, 3) su α− (C2 ) è data da AJ(x) (vedi
13.4.2). In maniera simile, sia BJ(x) ∈ M2 (C) definito da
J(x)α+ (z) = α+ (BJ(x) z)
(∀z ∈ C2 );
si ha Γ0 Γi α+ (z) = α+ (−σj z)
come si verifica facilmente. Si ricordi che C4 = α+ (C2 )⊕α− (C2 ) (la decomposizione in autospazi
per Γ5 ), e quindi si ha
Γ(α+ (z) + α− (w)) = α+ (BΓ z) + α− (AΓ w)
(∀Γ ∈ J(C + (1, 3), ∀z, w ∈ C2 ).
Le matrici AΓ e BΓ non sono ‘indipendenti’, infatti si verifica facilmente che:
0 1
−σi S = Sσi ,
(i = 1, 2, 3) con S =
−1 0
(si noti che il complesso coniugato σi di σi è σi stesso se i = 1, 3 e −σ2 se i = 2). Questo implica
che −σi = Sσi S −1 e poiché (−σi , σi ) = (BΓ0 Γi , AΓ0 Γi ) otteniamo
BΓ0 Γi = SAΓ0 Γi S −1 .
Poiché AΓΓ0 = AΓ AΓ0 per ogni Γ, Γ0 ∈ J(C + (1, 3)) e similmente per B, com’è facile verificare,
otteniamo:
BΓj Γk = −BΓ0 Γj BΓ0 Γk = −SAΓ0 Γj S −1 SAΓ0 Γk S −1 = −SAΓ0 Γj AΓ0 Γk S −1 = SAΓj Γk S −1 ,
13 CAMPI SCALARI E SPINORIALI.
260
e analogamente BΓ5 = SAΓ5 S −1 . Quindi per ogni Γ ∈ J(C + (1, 3)), cioè una combinazione
lineare con coefficienti reali di prodotti Γ0 Γi , si ha
∀ Γ ∈ J(C + (1, 3)).
BΓ S = SAΓ ,
Come già osservato, rispetto alla decomposizione C4 = α+ (C2 ) ⊕ α− (C2 ), l’azione di Γ ∈
J(C + (1, 3)) è data da (BΓ , AΓ ) = (SAΓ S −1 , AΓ ). Adesso è facile vedere che il sottospazio reale
V
:= {α+ (Sz) + α− (z) ∈ C4 : z ∈ C2 }
= {(z¯2 , −z¯1 , −z¯2 , z¯1 ) + (z1 , z2 , z1 , z2 ) ∈ C4 : z1 , z2 ∈ C }
è invariante per l’azione di J(C + (1, 3)):
Γ(α+ (Sz) + α− (z)) =
=
=
=
α+ (BΓ Sz) + α− (AΓ z)
α+ (SAΓ (z)) + α− (AΓ z)
α+ (SAΓ z)) + α− (AΓ z)
α+ (Sw) + α− (w) ∈ V,
dove w := AΓ z ∈ C2 . Una R-base di V è data dai quattro vettori
f1 = (1, −1, 1, 1),
f2 = (i, i, i, −i),
f3 = (1, 1, −1, 1),
f4 = (−i, i, i, i)
(si noti che f1 = α+ (S(1, 0)) + α− ((1, 0)), f1 = α+ (S(i, 0)) + α− ((i, 0)) ecc.). L’azione dei
generatori Γ0 Γi di J(C + (1, 3)) su questa base è data da
Γ0 Γ1
Γ0 Γ2
Γ0 Γ3
f1 f2
f3
f4
f3 f4
f1
f2
f2 −f1 −f3 −f4
f1 f2 −f3 −f4 ,
e si noti che i coefficienti delle matrici di Γ0 Γi rispetto a questa base sono proprio reali. E’ facile
vedere che C4 = V ⊕ iV (si considerino f1 ± f3 , f2 ± f4 ), quindi abbiamo trovato ‘gli spinori di
Majorana’.
13.4.5 L’operatore di coniugazione di carica C. Alla luce di quanto appena visto, si
consideri l’operatore
C : C4 −→ C4 , α+ (z) + α− (w) 7→ α+ (S w̄) + α− (−S z̄) .
Esso è detto operatore coniugazione di carica per il motivo che vedremo in 13.4.7. E’ evidente
che se V è lo spazio reale che individua gli spinori di Majorana allora
C|V = idV
ed inoltre è antilineare e involutivo (si ricordi che S 2 è l’identità). Dunque possiamo dire che
gli spinori di Majorana sono gli spinori reali rispetto alla coniugazione C.
13 CAMPI SCALARI E SPINORIALI.
261
13.4.6 Esercizio. Si dimostri che
C = −iΓ2 ∗ ,
dove ∗ è l’usuale coniugazione complessa in C4 .
13.4.7 Esempio. Il positrone e le antiparticelle. Sia ψ la funzione d’onda di un elettrone,
che quindi soddisfa l’equazione di Dirac
η µν Γν (Pµ + qAµ )ψ − mψ = 0 .
Notando che Γ2 Γi Γ2 = −Γ∗i (il complesso coniugato della matrice Γi ), posto
ψ C := Cψ ,
si ottiene immediatamente che ψ C è soluzione dell’equazione
η µν Γν (Pµ − qAµ )ψ C − mψ C = 0 ,
cioè la stessa dell’elettrone, ma con carica opposta. La particella descritta da ψ C si chiama
il positrone. Tale risultato è valido per qualunque particella di spin 12 , sia che sia carica o
meno, sia che sia massiva o meno. In ogni caso ψ C descrive l’antiparticella corrispondente alla
particella descritta da ψ. Per esempio per il neutrino chirale a massa nulla, l’antineutrino ha
chiralità opposta.
Tale proprietà, che ad ogni particella corrisponde un’antiparticella, è vera per qualunque tipo
di particella, a prescindere dallo spin.52
13.4.8 Esercizio. Si consideri una particella scalare carica descritta da un campo di KleinGordon massivo. Si dimostri che a meno della moltiplicazione per un fattore di fase, l’operatore
di coniugazione di carica è dato semplicemente dalla coniugazione complessa.
13.4.9 La complessificazione di Lie(SO(1, 3)). La rappresentazione di SO(1, 3)o ∼
=
2
2
SL(2, C) su C induce una rappresentazione dell’algebra di Lie Lie(SO(1, 3)) su C )
ρR : Lie(SO(1, 3)) −→ End(C2 ).
L’algebra di Lie Lie(SO(1, 3)) è un algebra di Lie reale (perché SO(1, 3) è un gruppo di Lie
reale), anche se, per ‘un miracolo’,
Lie(SO(1, 3)) ∼
= Lie(SL(2, C)) ∼
= M2 (C)o ) := {X ∈ M2 (C) : tr(X) = 0 },
le matrici con traccia nulla, formano già uno spazio vettoriale complesso di dimensione tre.
Per ottenere il legame con la teoria delle rappresentazioni di algebre di Lie complesse semplici, dobbiamo allora considerare la complessificazione dell’algebra di Lie Lie(SO(1, 3)) che ha
una rappresentazione sulla complessificazione di C2 , cioè, la rappresentazione
ρ : Lie(SO(1, 3))C := Lie(SO(1, 3)) ⊗R C −→ End(C2 ) ⊗R C,
52
X ⊗ z 7−→ ρR (X) ⊗ z,
Eventualmente l’antiparticella coincide con la particella, come accade ad esempio per il fotone.
13 CAMPI SCALARI E SPINORIALI.
262
per X ∈ Lie(SO(1, 3)) e z ∈ C.
Nel caso in cui uno spazio vettoriale V abbia già una struttura di spazio vettoriale complesso,
la sua complessificazione VC := V ⊗R C ha una decomposizione canonica (cioè intrinseca), data
dai due autospazi per l’azione di C su V . Quindi si considera l’aplicazione R-lineare
J : V −→ V,
Jv := iv.
Gli autovalori di J sono i, −i ∈ C (si usi J 2 = −I) e VC è la somma diretta degli autospazi di
J:
VC = Vi ⊕ V−i ,
V±i := {w ∈ VC : (i ⊗ 1)w = (1 ⊗ (±i))w }.
Si noti che questa decomposizione gode della proprietà seguente: se
v 7−→ (v+ , v− ) ∈ Vi ⊕ V−i
allora ((a + bi)v) ⊗ z 7−→ ((a + bi)zv+ , (a − bi)zv− )
per v ∈ V , a + bi, z ∈ C con a, b ∈ R.
In particolare, otteniamo
Lie(SO(1, 3)C ∼
= End(C2 )oC ∼
= End(C2 )o ⊕ End(C2 )o ,
e, poiché Lie(SO(1, 3)C ∼
= Lie(SO(4)) = so(4), questo è l’isomorfismo di algebre di Lie so(4) ∼
=
sl(2) × sl(2) che abbiamo già osservato in 9.4.4. La rappresentazione ρ, che è C-lineare, è la
somma diretta delle due rappresentazioni spinoriali di so(4):
ρ : Lie(SO(1, 3))C ∼
= Endo (C) ⊕ Endo (C) −→ End(C2 )C = End(C2 ) ⊕ End(C2 ),
la C-linearità di ρR : Lie(SO(1, 3)) = End(C2 )o → End(C2 ) garantisce infatti che ρ mandi gli
autospazi della moltiplicazione con i⊗1 su End(C2 )o negli autospazi corrispondenti in End(C2 ).
13.5
Campi di spin 1.
Benché la costruzione delle equazioni del moto per i campi di spin 1 richiederebbe un’analisi
ulteriore, usiamo un punto di vista semplificativo per i nostri scopi. Da 13.3.7 e l’esercizio
precedente, segue facilmente che da un campo di Dirac massivo ψ si può ottenere un campo
vettoriale definendo V µ := ψ̄Γµ ψ. Oltre all’equazione di Klein-Gordon esso soddisfa l’equazione
∂µ V µ = 0. Assumeremo entrambe come equazioni definitorie per un campo vettoriale.
13.6
Campi e gravità (cenni).
Vogliamo ora considerare molto brevemente alcune questioni riguardanti l’accoppiamento dei
campi di materia con il campo gravitazionale.
13.6.1 Esercizio. Equazioni covarianti. Si è mostrato che un modo di introdurre l’accoppiamento con il campo gravitazionale è quello di covariantizzare le equazioni, introducendo
13 CAMPI SCALARI E SPINORIALI.
263
una metrica e la derivata covariante di Levi-Civita. Consideriamo ad esempio un campo di
Klein-Gordon (2 + m2 )φ = 0. Allora la covariantizzazione ci porta all’equazione
(g µν ∇µ ∂ν + m2 )φ = 0 .
Tuttavia notiamo che esiste un secondo modo di scrivere l’equazione di Klein-Gordon nello
spazio di Minkowski. Posto d† := − ∗ d∗, dove ∗ è il duale di Hodge, allora si ha (sulla 0−forma
φ) 2 = 12 (d† d + dd† ). Nel caso di un manifold arbitrario con metrica gµν il duale di Hodge si
costruisce come in 1.3.7, utilizzando un vielbein. Si usi
1 †
(d d + dd† )φ + m2 φ = 0
2
per definire l’equazione di Klein-Gordon su uno spazio curvo. La si esprima esplicitamente in
termini della derivata covariante e si confronti il risultato con l’equazione precedente.
13.6.2 Fibrati spinoriali. L’equazione di Dirac può essere definita su varietà che ammettano
la struttura di fibrato spinoriale. Per definire una tale struttura occorre poter restringere
il gruppo di struttura dal gruppo lineare generale al gruppo di spin. Poiché d’altra parte
quest ultimo è il ricoprimento del gruppo speciale ortogonale, deve accadere anzitutto che M
sia una varietà orientabile. Data una famiglia di banalizzazioni locali del fibrato tangente,
come mostrato in 11.1, il fibrato sarà caratterizzato da una famiglia di mappe di transizione
−1
gαβ : Uα ∩ Uβ −→ SO(p, q).53 Esse devono soddisfare ovviamente le condizioni gβα = gαβ
e gαβ gβγ gγα = 1. Nella seconda relazione ovviamente le funzioni si intendono ristrette su
Uα ∩ Uβ ∩ Uγ . Il punto è che per generare un fibrato di spin bisogna poter sollevare le funzioni
di struttura a funzioni a valori nel gruppo di spin, cioè γαβ : Uα ∩Uβ −→ Spin(p, q), con le stesse
suddette proprietà. Si fissi un sollevamento qualunque (per ogni Uα ∩Uβ ). Da 10.2.8 vediamo che
deve essere ργαβ = gαβ e, poiché Ker(ρ) = ±1, ne segue che γαβ γβγ γγα = ±1. Si dimostri che si
può ottenere il sollevamento cercato se esiste una famiglia di funzioni σαβ : Uα ∩Uβ −→ {1, −1},
tale che σαβ σβγ σγα = γαβ γβγ γγα . Questa è detta condizione di cociclo e se σ esiste, si dice che
la mappa w : Uα ∩ Uβ ∩ Uγ −→ γαβ γβγ γγα è un cociclo banale. La banalità di w è una proprietà
topologica della varietà di base M . Se M ha una tale proprietà diremo che è una varietà di
spin.
Sia dunque M una varietà di spin. Possiamo quindi costruire il fibrato di spin SM . Fissato
localmente un vielbein ei ed una connessione ∇ su SM , è be definito l’operatore di Dirac
D : Γ(M, SM ) −→ Γ(M, SM ) tramite Dψ := η ij ei · ∇ej ψ, dove il punto indica il pairing
· : T M × SM −→ SM indotto dal prodotto di Clifford, come in precedenza. In particolare
se ω è la connessione infinitesima sul fibrato dei riferimenti,54 si ottiene la derivata covariante
sui campi spinoriali tramite ∇µ ψ := (eµi ∂µ + 21 ωµ ij Γij )ψ, dove Γij := 12 [Γi , Γj ]. Segue infatti da
10.3.1 che Γij , 0 ≤ i < j ≤ d − 1 (dove d = dim(M )) sono i generatori di una rappresentazione
spinoriale di so(p, q). Chiameremo questa la connessione di spin.
13.6.3 Esercizio. Su una varietà di spin M , si consideri l’equazione di Dirac costruita con
la connessione di spin: (−iD − m)ψ = 0. Si ricavi l’equazione del secondo ordine ottenuta
53
54
dove p, q individuano la segnatura
dunque una 1−forma a valori in so(p, q)
13 CAMPI SCALARI E SPINORIALI.
264
moltiplicando per l’operatore −iD + m. Si discuta il risultato alla luce del precedente esercizio
e delle osservazioni fatte in 13.2.3.
14 GEOMETRIA DEL MODELLO STANDARD E GUT.
14
265
Geometria del Modello Standard e GUT.
Testi consigliati: [CL], [CL2].
Poiché una ricostruzione del modello standard delle particelle richiederebbe ovviamente
molto spazio, ci accontentiamo di un’esposizione rapida che porti direttamente ad evidenziarne
il contenuto geometrico. Ovunque in questo capitolo adotteremo il formalismo dei fisici, valido
in coordinate locali o in un fissato gauge, lasciando come esercizio la formulazione rigorosa
nei termini matematici introdotti nei capitoli precedenti. La sezione seguente è puramente
descrittiva.
14.1
I campi del modello standard.
Vediamo anzitutto quali sono i campi che intervengono nella fisica delle particelle elementari.
14.1.1 I leptoni. Vi sono due classi evidenti di particelle costituenti la materia. La prima
classe consiste di particelle elementari leggere: i leptoni. Si tratta di particelle di spin 1/2,
suddivise in tre famiglie.
• La prima famiglia è costituita dall’elettrone e− , il neutrino elettronico νe e le rispettive
antiparticelle, il positrone e+ e l’antineutrino elettronico. L’elettrone e il positrone sono
carichi, mentre i rispettivi neutrini sono neutri e la loro massa è talmente piccola da
potersi considerare in prima approssimazione nulla55 .
• La seconda famiglia è costituita dal muone µ− , il neutrino muonico νµ e le rispettive
antiparticelle. Mentre le cariche sono le stesse, il muone è molto più pesante dell’elettrone.
• La terza famiglia è costituita dal tauone τ − , il neutrino tauonico ντ e le rispettive
antiparticelle. Il tauone è il più pesante dei leptoni.
Le particelle cariche ovviamente interagiscono elettromagneticamente. Tutti i leptoni comunque
interagiscono anche in un secondo modo, cioè mediante interazione debole. Essa è responsabile
ad esempio del decadimento del muone che si trasforma in elettrone emettendo un neutrino
muonico ed un antineutrino elettronico. L’interazione debole vede in effetti ogni neutrino con
il corrispondente leptone carico, come le due componenti di un doppietto isotopico, sul quale
agisce una simmetria SU (2). Alcuni esperimenti mostrano inoltre che l’interazione debole
viola la parità spaziale. In effetti si trova che tali esperimenti sono ben descritti dalla teoria
se si assume che i neutrini siano chirali con chiralità left. Essi interagiscono solamente con le
componenti left dei leptoni carichi negativamente. Le componenti right di questi ultimi saranno
dunque descritte da singoletti di SU (2).56
14.1.2 Gli adroni e l’ottuplice via. Gli adroni costituiscono una vastissima collezione di
particelle che si suddividono in due principali famiglie: i mesoni e i barioni. Tutte queste particelle sono composte e interagiscono sia elettromagneticamente, sia debolmente e sia fortemente.
55
56
la questione sulla massa dei neutrini non verrà qui considerata e in ogni caso assumiamo che sia trascurabile
per le antiparticelle i termini left e right vanno interscambiati
14 GEOMETRIA DEL MODELLO STANDARD E GUT.
266
L’interazione forte è responsabile ad esempio dell’attrazione tra nucleoni o di decadimenti molto
veloci (con tempi di decadimento dell’ordine di 10−23 secondi). I mesoni sono particelle con spin
intero, dunque bosoni, e quelli instabili possono decadere lasciando solamente leptoni o fotoni
come prodotti di decadimento. I barioni, che comprendono protoni e neutroni, sono invece
particelle di spin semidispari, dunque fermioni, e quelli instabili decadono lasciando comunque
barioni come prodotti di reazione.
Come si è detto gli adroni non sono particelle elementari, ma sono composte. I mattoni costituenti sono i quark, che sono particelle di spin 1/2 e carica frazionaria. I mesoni sono costituiti
ad esempio da coppie di quark ed antiquark, mentre i barioni sono costituiti da un numero da
tre quarks (o tre antiquarks). Consistentemente ad ogni quark si associa numero barionico 1/3
(con il segno meno per gli antiquarks). Il decadimento del neutrone, che si trasforma in un
protone emettendo un elettrone ed un antineutrino elettronico, oltre a mostrare che i quark
come i leptoni possono interagire anche debolmente, suggerisce appunto che i quark compaiano
in doppietti isotopici, proprio perché se non differissero per la carica, neutrone e protone compaiono in maniera simmetrica nelle interazioni nucleari. Originariamente si pensava dunque a
due quarks: l’up e il down costituenti il doppietto
u
.
d
Poiché a neutrone e protone si associava spin isotopico 1/2, con terza componente +1/2 per
il protone e −1/2 per il neutrone, si faceva l’identificazione p = uud e n = ddu. Le cariche
elettriche dei quark devono essere dunque 2/3 per u e −1/3 per d. Oggi si sa che i quark, come
i leptoni, sono suddivisi in tre famiglie (con i corrispondenti antiquarks)57 , di masse via via
crescenti:
• i quarks up (u) e down (d) con terza componente dello spin isotopico T3 =
rispettivamente e cariche q = 32 e q = − 13 ;
1
, − 12
2
• il quark charm (c al quale è associato il numero quantico di incanto c = 1) con T3 = 12 ,
q = 23 e il quark strange (s avente stranezza s = 1) con T3 = − 12 , q = − 13 ;
• il quark top (t al quale è associato il numero quantico t = 1) con T3 = 12 , q =
beauty (o bottom) (b avente bellezza b = 1) con T3 = − 12 , q = − 13 .
2
3
e il quark
Come prima, i doppietti riguardano le componenti left responsabili delle interazioni deboli,
mentre le componenti right sono disposte in singoletti. È comunque interessante osservare
che, dato che i quarks c, b, t sono molto pesanti, furono scoperte dapprima quelle particelle
costituite dai quark up, down e strange. In particolare vi erano alcuni decadimenti che dovevano
essere attribuiti a interazioni forti (dato che non coinvolgevano nè fotoni nè neutrini), ma
ciononostante avvenivano in tempi molto più lunghi di quelli tipici delle interazioni forti. Le
particelle che decadono in questo modo vennero perciò battezzate strane e il fenomeno fu
attribuito alla tendenza a conservare un nuovo tipo di numero quantico, detto appunto la
stranezza.
57
più precisamente la quantizzazione risulta consistente solamente se il numero di famiglie di quarks è uguale
al numero di famiglie leptoniche
14 GEOMETRIA DEL MODELLO STANDARD E GUT.
267
Y
Y
α2
c
c
sc
T
T
c
c
T
T
c
T
T
s
Tscd¯
ū c
s̄
c
c
c
c
α2
Q = −1/3
c
c
c
c
α1
c
T3
c
c
cs
scu
T
T
c
T
T
c
c
T
T sc
T
c
0
Σ0ss
cΛ
c
scp (uud)
T
T
c
T
T
c
T
T
TscΣ+ (uus)
T3
c
c
sc 0
K 0 (ds̄)
Q=0
sc
c
π − (dū) cs
T
T
c
T
T
c
T
T
Tsc
−
c
K
(sū)
Q = −1
Q=1
Decupletto dei Barioni
Q = −1
∆− (ddd)
c
Ottetto dei Mesoni
Ξ (uss)
Q = −1
T3
Y
n (ddu)
(dss)
c
Q = 1/3
Y
Ξ
α1
c
c
Ottetto dei Barioni
cs
c
c
Σ− (dds) s
c
T
T
c
T
T
c
T
T
Tsc
−
c
s
c
Q = −2/3
c
c
d
c
Q = 2/3
Q=0
Y
Q=1
∆0 (ddu)
∆+ (uud)
Q=2
∆++ (uuu)
s
cs
sc
s
T
T
c
c
c
T
T
c
c
T
T
Σ∗0 (dus)
∗+
Σ∗− (dds)Tcs
sc
scΣ (uus)
T
T3
T
c
c
T
T
c
c
c
T
T
Tsc
sc
Ξ∗0 (uss)
Ξ∗− (dss) T
T
c
T
T
T
T Ts
Ω− (sss)
c
η π0
c
ss
c
scK + (us̄)
T
T
c
T
T
c
T
T
¯
Tcsπ+ (ud)
T3
c
c
sc 0 ¯
K̄ (sd)
Q=0
Q=1
14 GEOMETRIA DEL MODELLO STANDARD E GUT.
268
Le particelle potevano quindi essere classificate riunendole in schemi, secondo la loro stranezza (disposta in maniera crescente dal basso verso l’alto) e alla loro carica (crescente nella direzione obliqua SO-NE), come mostrato nella pagina precedente. Gli ottetti e il decupletto in
effetti ricordavano i pesi delle rappresentazioni irriducibili di su(3) mentre gli schemi associati
alle rappresentazioni fondamentali non comparivano. Nonostante ciò, era naturale ipotizzare
l’esistenza di tre particelle (e le loro antiparticelle) corrispondenti a tali rappresentazioni, e che
dovessero costituire i mattoni fondamentali della materia. Essi furono chiamati quark.58 Il fatto
che tuttora non si riescano a vedere i quark liberi, cioè non in stati legati come nei multipletti,
è attribuito ad un meccanismo che impedisce ai quarks di muoversi liberamente, almeno alle
energie finora disponibili: il meccanismo del confinamento. In particolare si noti che tutti gli
stati legati che compaiono, hanno carica elettrica intera. Il meccanismo del confinamento è un
mistero che a tuttoggi attende una spiegazione soddisfacente. La ricerca di stati con carica
frazionaria, o dei quark isolati ha comunque fino ad ora dato esito negativo.
Se assumiamo che i quark up, down e strange siano i tre stati della rappresentazione fondamentale e gli antiquark quelli della coniugata, allora lo schema dei mesoni rientra in modo
naturale nella rappresentazione 3 ⊗ 3∗ = 8 ⊕ 1, mentre gli schemi dei barioni sono individuati
dalla rappresentazione 3 ⊗ 3 ⊗ 3 = 10 ⊕ 8 ⊕ 8 ⊕ 1. Questa simmetria SU (3), viene detta simmetria di sapore59 . Tale simmetria non è esatta, cosa che si manifesta nel fatto che le masse
dei quark (e delle particelle nei multipletti) sono diverse. La scoperta degli altri quark porta
inoltre ad allargare la simmetria dei sapori a SU (6), con schemi molto complicati, ma molto
meno evidenti, a causa delle notevoli differenze di massa dei rimanenti quark. Il punto interessante nell’individuazione di tali schemi non è comunque nell’aver individuato il manifestarsi
di una simmetria (non esatta) di sapore. Si consideri il decupletto dei barioni. Inizialmente
esso non era completo, poiché mancava in realtà uno dei vertici (le particelle Ω). Ciò non era
sorprendente, poiché avendo i quark spin 12 la funzione d’onda che descrive lo stato composto
da tre quark deve essere antisimmetrica nello scambio qualunque di due di essi. Nel caso delle
particelle ai vertici del diagramma, in cui i quark hanno esattamente gli stessi numeri quantici,
sarebbero dunque permessi solamente stati con configurazioni spaziali di momento angolare
superiore, difficili da realizzare (tenendo conto anche dell’elevata massa delle particelle). Tuttavia quando la particella Ω fu scoperta, venne prodotta nello stato fondamentale con momento
angolare nullo.
14.1.3 I quark e i colori. Sia ψ s (α; x) la funzione d’onda a valori complessi che descrive
un quark strange con numeri quantici α. Se i numeri quantici sono la carica, lo spin il sapore
e lo spin isotopico, poiché lo spin ha solamente due valori mentre i restanti numeri quantici
sono completamente fissati, è impossibile costruire, dal prodotto tensore di tre di tali funzioni,
una funzione d’onda a tre particelle completamente antisimmetrica nello scambio dei quark,
con tutti e tre i quark nello stato corrispondente a momento angolare nullo. Lo stato a energia
più bassa dovrebbe corrispondere al momento angolare ~ (con due quark di momento nullo
e uno di momento ~). L’analisi dello spettro di energia degli stati eccitati della particella Ω
58
Suggerito da Gell-Mann, ispirandosi a una frase del romanzo ‘Finnegans wake’ di J.A.A. Joyce. Quark in
tedesco e in inglese significa ‘ricotta’.
59
i numeri quantici u, d, s, c, b e t vengono infatti detti sapori
14 GEOMETRIA DEL MODELLO STANDARD E GUT.
269
evidenzia invece che lo stato a energia più bassa ha momento angolare nullo e deve dunque
corrispondere al caso in cui tutti e tre i quark hanno momento nullo. Ciò è vietato dal principio
di esclusione di Pauli, a meno che non esista un nuovo numero quantico che per ogni quark
possa assumere tre distinti valori. Tale numero quantico viene detto colore e i tre possibili
valori vengono indicati con rosso, blu e verde per i quark e antirosso, antiblu e antiverde per gli
antiquark. Sullo spazio dei colori agisce il gruppo di simmetria SU (3)C (cioè SU (3) di colore)
ritenuto responsabile delle interazioni forti. A differenza delle simmetrie di sapore, si ritiene
che la simmetria di colore sia esatta.
14.1.4 I campi di gauge. Assumendo che le interazioni tra le particelle siano mediate da
dei campi di gauge, tramite la manifestazione di simmetrie locali come descritto nei precedenti
capitoli, si può pensare che mentre l’interazione elettromagnetica è associata ad un gruppo di
gauge U (1), le interazioni debole e forte siano associate ai gruppi SU (2)L e SU (3)C . Il gruppo
di gauge del modello standard è identificato con
GM S = U (1)Y ⊗ SU (2)L ⊗ SU (3)C .
Il gruppo di gauge U (1)Y viene detto gruppo di ipercarica e non coincide con il gruppo U (1)em
responsabile dell’interazione elettromagnetica. La carica associata ad U (1)Y viene detta ipercarica. Poiché U (1)Y commuta co SU (2)L , le componenti di un fissato doppietto di SU (2)L
devono avere la stessa ipercarica, cosa che non avviene invece per la carica elettrica. Ad esempio neutrino elettronico ed elettrone devono avere la stessa ipercarica ma l’elettrone è carico
mentre il neutrino no. D’altra parte se si assume che T1 , T2 , T3 siano i tre generatori infinitesimi
di SU (2)L e che T3 sia diagonale, allora per ogni doppietto leptonico o dei quark, cosı̀ come
per i singoletti, si ottiene che q − t3 (t3 essendo l’autovalore di T3 ) è costante e può essere
identificato con l’ipercarica a meno di una costante moltiplicativa. è convenzionale scegliere la
normalizzazione in modo tale che Q = T3 + Y2 .
Il gruppo U (1)em è quindi una combinazione dei gruppi U (1)Y e del sottogruppo U (1) di SU (2)
generato da T3 . Al gruppo U (1)Y si associa un campo di gauge abeliano AY , come nell’elettromagnetismo. Al gruppo SU (2)L invece corrisponde un campo di gauge a valori in su(2) ovvero
±
−
3
tre campi di gauge: AL = A+
L T+ + AL T− + AL T3 , di cui AL individuano due campi di gauge che
±
3
risultano essere carichi elettricamente (W ), mentre AL si combina con AY per dare origine al
campo di gauge elettromagnetico Aem ed un altro campo neutro (Z 0 ). Aem rappresenta i fotoni,
mentre gli altri campi vengono anche detti luce pesante. Infine il gruppo SU (3)C definisce 8
campi di gauge colorati AC = AαC λα , dove λα sono i generatori della rappresentazione aggiunta
di SU (3). Questi campi, che trasportano carica frazionaria e carica di colore si chiamano i
gluoni.
14.1.5 Il bosone di Higgs. Oltre ai campi finora discussi nel modello standard compare
un campo scalare complesso: il bosone di Higgs. Il punto è che, come abbiamo visto, la teoria
elettrodebole è basata su una simmetria chirale, e pertanto richiede l’annullarsi delle masse
in gioco. È un fatto sperimentale evidente che invece solamente il fotone e (forse) i neutrini
hanno massa nulla. Ciò significa che la simmetria debole deve essere rotta in qualche modo.
Poiché la massa di un campo compare nella lagrangiana tramite un termine quadratico nel
14 GEOMETRIA DEL MODELLO STANDARD E GUT.
270
campo, si potrebbero aggiungere tali termini a mano. Questo metodo esplicito di rompere la
simmetria fin dall’inizio è però troppo brutale e rende più difficoltosa la quantizzazione della
teoria. Un metodo più sottile consiste invece nell’aggiungere un campo scalare opportunamente
accoppiato con gli altri campi e descritto da un potenziale che rispetta tutte le simmetrie del
modello. Il trucco sta nel scegliere un potenziale per il quale le configurazioni di minima
energia non rispettino la simmetria, cosicché per una fissata soluzione delle equazioni del moto
la simmetria si rompe e vengono generati i termini di massa. Questo è detto meccanismo di
Higgs e si parla allora di rottura spontanea della simmetria. Del bosone di Higgs non vi è tuttora
alcuna evidenza sperimentale.
14.2
Costruzione del Modello Standard.
Una volta stabiliti gli ingredienti principali del modello standard, si può procedere nella sua
costruzione.
14.2.1 Il modello elettrodebole. Consideriamo per prima la parte di interazione elettrodebole. A tale scopo trascureremo momentaneamente l’interazione forte che verrà aggiunta
successivamente covariantizzando rispetto al gruppo SU (3)C .
I campi di gauge.
Il gruppo di gauge elettrodebole è U (1)Y × SU (2)L . Il campo di gauge U (1)Y è AY µ con campo
di forze FY µν = ∂µ AY ν − ∂ν AY µ .PPer SU (2)L avremo invece tre campi Aiµ , i = 1, 2, 3 con campi
i
= ∂µ Aiν − ∂ν Aiµ + g j,k ijk Ajµ Akν , dove g è la costante di accoppiamento. L’azione
di forze Fµν
di Yang-Mills elettrodebole è quindi
Z
X
1
i
ed
[FY µν FYµν +
Fµν
F iµν ]d4 x .
SY M = −
4
i
I campi di materia.
Consideriamo una famiglia di campi di materia. Essa consiste di:
• un doppietto di isospin contenente quark left,
ψL : M −→ C2 ⊗ C4
dove M è lo spazio-tempo di Minkowski, il fattore C2 è lo spazio di supporto per la
rappresentazione fondamentale di SU (2) e C4 lo è per la rappresentazione spinoriale del
gruppo di spin di SO(1, 3). Tipicamente si scrive
UL
ψL =
DL
dove UL e DL hanno valori in C4 . A tali campi si associa ipercarica Y = 31 . La notazione
adottata è la seguente: se ψ U è la funzione d’onda (di Dirac) per il quark di tipo up (ad
esempio u), allora
1 − Γ5 U
1 + Γ5 U
UL =
ψ , UR =
ψ ,
2
2
14 GEOMETRIA DEL MODELLO STANDARD E GUT.
271
e cosı̀ via. Alternativamente scriveremo ad esempio
ψL =
1 − Γ5
ψ,
2
dove ψ ha valori in C2 ⊗ C4 e le matrici gamma agiscono come l’identità su C2 ;
• un doppietto di isospin con i leploni left,
V`L
`−
L
di ipercarica Y = −1;
• un singoletto con il quark UR di ipercarica Y =
4
3
e chiralità negativa;
• un singoletto con il quark DR di ipercarica Y = − 32 e chiralità negativa;
• un singoletto con il leptone `−
R di ipercarica Y = −2 e chiralità negativa.
Rammentando che ogni quark ha tre stati di colore, si tratta in tutto di 15 stati chirali, ai quali
si aggiungono i quindici stati di antiparticella. Utilizzando il metodo di covariantizzazione
illustrato ad esempio nel capitolo 13 è semplice costruire la lagrangiana relativa ai campi di
materia. Per ottenere una scrittura compatta introduciamo le notazioni seguenti
V U ψ
ψ
e
Q
, ψ :=
ψ :=
ψ`
ψD
in modo che ad esempio
1 − Γ5 Q
ψ =
2
UL
DL
,
1 + Γ5 e
ψ =
2
0
`−
R
,
e
ψ̄ Q = (ψ̄ U , ψ̄ D ) .
Indichiamo con Y l’operatore di ipercarica e con τi , i = 1, 2, 3 gli operatori di isospin. Essi
agiranno come lo zero sui singoletti e come τi = 12 σi sui doppietti, σi essendo le matrici di
Pauli. Le matrici di Pauli agiscono come l’identità sul fattore C4 , mentre agiscono in maniera
non banale su C2 . Ad esempio
−ψ V
e
Yψ =
−ψ ` − `−
R
e
1 1 − Γ5 Q
τi ψ Q = σi
ψ .
2
2
In altre parole le matrici Γ agiscono sulle singole componenti del doppietto, mentre le matrici
di Pauli agiscono sull’indice di doppietto, cioè ad esempio
U U D ψ
Γµ ψ U
ψ
ψ
Γµ
=
, σ1
=
.
ψD
Γµ ψ D
ψD
ψU
14 GEOMETRIA DEL MODELLO STANDARD E GUT.
272
Ciò significa semplicemente che ψ Q ha valore nello spazio di supporto delle rappresentazione
prodotto ρSU (2) ⊗ ρSpin(1,3) , ρSU (2) essendo la rappresentazione fondamentale. Con queste
notazioni l’azione per il modello elettrodebole è
Z
ed
Smat = (iψ̄ Q Γµ Dµ ΨQ + iψ̄ e Γµ Dµ Ψe ) ,
dove
ged i 1 − Γ5
Y
Dµ = ∂µ − i Aµ σi
− igY AY µ .
2
2
2
Il meccanismo di Higgs.
Nell’azione finora costruita la chiralità dell’interazione debole ha forzato a considerare solamente campi di massa nulla. Vediamo molto brevemente come si possa generare una massa
accoppiando il sistema con un campo scalare. Si consideri un campo scalare complesso costituito
da un doppietto di isospin con ipercarica Y = 1
+ H
2
.
H : M −→ C ,
H=
H0
Diciamo che H è un doppietto scalare, poiché il gruppo di Lorentz agisce banalmente su di
esso. In altre parole H assume valori in C2 ≡ C2 ⊗ C0 , supporto per la rappresentazione
ρSU (2) ⊗ 1SO(1,3) . Assumiamo dunque per tale campo l’azione di Klein-Gordon covariantizzata
Z
SH = [(Dµ H)† Dµ H − V (H)]d4 x ,
con derivata covariante
1
ged i
Dµ H = ∂µ − i Aµ σi − igY AY µ H
2
2
e potenziale a fondo di bottiglia
1
1
V (H) = − m2H H † H + λH (H † H)2 .
2
2
√
√
Posto come d’uso v := mH / λH ∈ R, tale potenziale ha minimo per |H| = v/ 2. A meno di
una trasformazione di gauge globale U (1)Y × SU (2)L , sullo stato di vuoto il campo assumerà
dunque valore di aspettazione
0
hHi =
∈ C2 .
√v
2
Le fluttuazioni attorno a tale configurazione di vuoto si possono parametrizzare nella forma
!
0
iξ i τi
H(x) = e
,
v+η(x)
√
2
14 GEOMETRIA DEL MODELLO STANDARD E GUT.
273
dove η e ξ sono campi con valore di aspettazione nullo sul vuoto. La fase ξ a può essere eliminata
con una trasformazione di gauge locale SU (2)L , sotto la quale trasformeranno anche i campi
left e il campo di gauge A, mentre resteranno invariati i campi right e AY . Prima di farlo si
consideri l’interazione tra il campo scalare e quelli di materia
Z i
Q
−
e
∗
κe ψ̄L H`R + ψ̄L κD HDR + κU σ2 H UR d4 x + h.c. ,
Smassa =
2
dove h.c. significa hermitiano coniugato.
14.2.2 Esercizio. Si esegua la suddetta trasformazione di gauge e si dimostri che
1. nell’azione Smassa compaiono i termini di massa per i campi `− , U e D, con masse
κ` v
m` = √ ,
2
κU v
mU = √ ,
2
κD v
mD = √ ;
2
2. in SH rimane il campo dinamico η con massa mH (il campo di Higgs fisico);
3. se Ãiµ è il campo elettrodebole trasformato, allora in SH compaiono dei termini di massa
per i campi di gauge nella forma
Z 2 2
2 2
ged
v + gY2 v 2 0 0µ 4
ged v
+
−µ
Wµ W +
Zµ Z
dx,
4
8
dove
W ± :=
sono campi di massa mW =
ged v
,
2
Ã1µ ± iÃ2µ
√
2
mentre
Zµ0 = cos θW Ã3µ − sin θW AY µ ,
Aµ = sin θW Ã3µ + cos θW AY µ ,
in cui θW è detto angolo di Weinberg e soddisfa tan θW =
massa nulla mentre Zµ0 ha massa mZ = mW / cos θW ;
gY
,
ged
cosicché Aµ ha ancora
4. mentre la simmetria SU (2)L è rotta, si verifichi che sopravvive ancora una simmetria
U (1)em generata da τ3 + Y2 , sotto cui Aµ trasforma come campo di gauge e Wµ± hanno
carica ±1 mentre Zµ0 e Aµ sono scarichi. Dunque Aµ può essere identificato con il campo
elettromagnetico. I restanti campi di gauge diventano massivi e sono anche chiamati luce
pesante;
5. in particolare si verifichi che i campi neutri si accoppiano alle correnti attraverso i termini
ejemµ Aµ +
dove sin2 θW jewµ = jµ3 − jµ0 e e = g sin θW ;
g
j 0 Z 0µ ,
cos θW µ
14 GEOMETRIA DEL MODELLO STANDARD E GUT.
274
6. si verifichi che la condizione Y = 1 per il campo di Higgs (cioè una delle componenti ha
carica nulla) è necessaria a garantire la sopravvivenza di un gruppo non rotto U (1)em .
Il meccanismo di Higgs dunque realizza la rottura di simmetria
U (1)Y × SU (2)L −→ U (1)em .
Le particelle W ± e Z 0 sono in effetti state rilevate al CERN, mentre manca tuttora evidenza
dell’esistenza del bosone di Higgs, che confermi la realtà del meccanismo di Higgs.
14.2.3 L’angolo di Cabibbo e la matrice di Kobaiashi-Maskawa. Il punto è che non c’è
un’unica famiglia di leptoni, ma ne sono note tre. Se alle funzioni d’onda assegnamo un indice
di famiglia ψ a , a = 1, 2, 3 per le famiglie contenenti l’elettrone, il muone e il tauone, mentre
l’azione per i campi fermionici sarà la somma delle azioni delle singole particelle, l’interazione
tra il campo di Higgs e le famiglie potrà avvenire attraverso matrici κA,ab dove A = e, U, D.
Utilizzando questo nell’azione Smassa si ottiene allora che i termini di massa potranno essere
rappresentati da matrici
v
MA,ab = √ κA,ab ,
2
che in generale non saranno diagonali. In altre parole gli autostati di gauge non coincidono con
gli autostati di massa. Se le matrici di massa fossero hermitiane, le si potrebbe diagonalizzare
con una rotazione unitaria. Si potrebbe cioè scrivere
MA = UA† M̃A UA ,
con MA diagonale e UA unitaria. Tuttavia tali matrici non sono necessariamente unitarie
cosicché per diagonalizzarle non basta una sola matrice UA (per ogni A), ma è necessario
utilizzare una coppia di matrici unitarie XA,ab e VA,ab (definite a meno di matrici diagonali
unitarie), in modo che
MA = XA† M̃A VA ,
essendo M̃A matrici diagonali. I termini di massa per i fermioni assumono perciò la forma
¯ M̃ ψ̃ ,
ψ̄L,a Mab ψR,b = ψ̃
L,a ab R,b
dove abbiamo omesso l’indice di famiglia per semplicità e introdotto gli autostati di massa
ψ̃L = X † ψL ,
ψ̃R = V † ψR .
14.2.4 Esercizio. Si considerino tali trasformazioni nell’azione SD . Si dimostri che
• i bosoni carichi W ± si accoppiano alle correnti cariche
jµ±
=
¯ A U ψ̃ B ± h.c.
ψ̃
L AB L
,
1
1
2i 2 ∓ 2
dove A e B assumono i possibili calori A = U e B = D oppure A = B = `, mentre
UAB = XA VB† e come al solito h.c. indica l’hermitiano coniugato dell’espressione ad esso
precedente; le matrici UAB si dicono matrici di mixing;
14 GEOMETRIA DEL MODELLO STANDARD E GUT.
275
• si verifichi che se i neutrini hanno massa nulla, la matrice di mixing leptonico U`` è
ininfluente; si verifichi che le interazioni neutre, definite dai termini contenenti Zµ0 o il
fotone, non contengono la matrice di mixing.
Da questo esercizio segue che anzitutto i leptoni non risentono del mixing delle famiglie. Per
quanto riguarda i quark ciò è vero solamente per le correnti neutre, che in termini degli autostati
di massa si ottengono da quelle di partenza sostituendo ψ̃ a ψ. L’unica matrice di mixing influente è dunque UKM := UU D , nota come matrice di Kobaiashi-Maskawa. Nelle interazioni che
coinvolgono i bosoni W ± , dette appunto interazioni cariche, i quark si mischiano comparendo
nell’azione del modello standard attraverso le funzioni d’onda
u c t ψ̃L
ψ̃L
ψ̃L
,
,
,
ψ̃Ld0
ψ̃Ls0
ψ̃Lb0
dove

 d 
ψ̃Ld0
ψ̃L
 ψ̃Ls0  := UKM  ψ̃Ls  .
ψ̃Lb0
ψ̃Lb

Poiché le particelle sono identificate dagli autostati di massa, sono le funzioni ψ̃ quelle che
descrivono gli stati associati alle singole particelle. Dunque, mentre le interazioni neutre conservano i sapori delle famiglie, le interazioni deboli cariche cariche mischiano le famiglie. In un
prima approssimazione si ha


cos θc sin θc 0
UKM ∼  − sin θc cos θc 0  ,
0
0
1
dove θc è detto angolo di Cabibbo. Ciò significa che ad esempio uno stato ψ u può decadere
debolmente, tramite un’interazione carica, in uno stato cos θc ψ d + sin θc ψ s , dando origine a
interazioni che per una frazione sin2 θc violano la stranezza. Queste violazioni furono quelle
che portarono Cabibbo a introdurre il suo famoso angolo, in un momento in cui in realtà esso
non aveva alcuna interpretazione ovvia, dato che ancora non vi era neppure alcuna ipotesi
sull’esistenza dei quark c, b, t.
14.2.5 Nota. I valori sperimentali degli angoli di Weinberg e di Cabibbo sono sin θW ≈ 0.23120
e sin θc ≈ 0.225, tuttavia tale vicinanza dei valori è del tutto accidentale. Infine osserviamo
senza ulteriori analisi che l’ambiguità di fase nelle matrici di rotazione è collegata al fenomeno
della violazione di CP , cioè della rottura della simmetria di parità e coniugazione di carica.
14.2.6 La cromodinamica (cenni). Per completare il modello standard ci rimane da
considerara l’interazione di gauge SU (3)C . Tale interazione di gauge viene descritta dalla
connessione di colore ACµ = 12 AaCµ λa dove λa , a = 1, . . . , 8 sono le matrici di Gell-Mann






0 1 0
0 −i 0
1 0 0
λ1 =  1 0 0  , λ2 =  i 0 0  , λ3 =  0 −1 0  ,
0 0 0
0 0 0
0 0 0
14 GEOMETRIA DEL MODELLO STANDARD E GUT.



0 0 1
0 0
λ4 =  0 0 0  , λ 5 =  0 0
1 0 0
i 0



0 0 0
1
λ7 =  0 0 −i  , λ8 = √ 
3
0 i 0

−i
0  ,
0
276


0 0 0
λ6 =  0 0 1  ,
0 1 0

1 0 0
0 1 0  .
0 0 −2
Si noti che λ3 e λ8 generano la sottoalgebra di Cartan. Gli 8 campi AaCµ , a = 1, . . . , 8 sono
i campi di gluoni e hanno sia cariche di colore che cariche elettriche frazionarie. Poiché fino
ad ora tale tipo di cariche non è stato visto, i gluoni come i quark compaiono solo in stati
fortemente legati ed è ragionevole ritenere che l’interazione forte debba essere responsabile
del confinamento. L’azione della cromodinamica si ottiene dunque aggiungendo il termine di
Yang-Mills ottenuto con i campi di forze gluonici FCµν := ∂µACν − ∂νACµ − igF [ACµ , ACν ]
Z
1
crom
T r[FCµν FCµν ]d4 x ,
SY M = −
2
e covariantizzando, rispetto alla connessione gluonica, le derivate parziali che agiscono sui quark:
∂µ ψ Q 7−→ (∂µ − igF ACµ )ψ Q .
Non ci occuperemo di analizzare oltre gli aspetti della cromodinamica.
14.2.7 Esercizio. Si scriva l’azione completa per il modello standard.
14.3
La massa dei neutrini.
Mentre nel modello standard si assume che la massa dei neutrini sia nulla, è piuttosto recente
la conferma del fatto che in realtà tra le famiglie di neutrini ci siano delle differenze di massa.
Se infatti i diversi neutrini avessero masse diverse, similmente a quanto avviene per esempio
nel caso dei quark vi sarebbe la possibilità che gli autostati di massa e quelli di sapore fossero
differenti. In altre parole i termini quadratici che determinano le masse dei neutrini nell’azione
possono in generale avere la forma
X
Lmassa =
ν̄i Mij νj ,
ij
dove la matrice dei coefficienti non è diagonale e i, j assumono i valori simbolici e, µ, τ . Se gli
autostati di massa, cioè gli stati che diagonalizzano la matrice M , sono differenti da quelli di
sapore,cioè dal vettore (νe , νµ , ντ ), allora ci sarà una matrice analoga alla matrice di KobaiashiMaskawa che collega le due basi:

 


νe
φ11 φ12 φ13
f1
 νµ  =  φ21 φ22 φ23   f2  ,
ντ
φ31 φ32 φ33
f3
14 GEOMETRIA DEL MODELLO STANDARD E GUT.
277
dove abbiamo indicato con fa , a = 1, 2, 3 gli autostati di massa.
Sebbene la prima evidenza della massa del neutrino fu annunciata solo i primi di giugno del
199860 alla ’XVIIIth International Conference on Neutrino Physics and Astrophysics’ tenutasi
a Takayama, in Giappone, come risultato dell’esperimento ’superKamiokande’, tale possibilità
fu già proposta dal fisico italiano (ma che all’epoca si era da poco trasferito definitivamente
in Russia) Bruno Pontecorvo61 nel 1957. Il punto è che un neutrino, diciamo ad esempio un
νµ , prodotto in una determinata regione dello spazio, si muoverà come sovrapposizione degli
autostati di massa che infatti soddisferanno tre distinte equazioni di Dirac (lo si verifichi come
esercizio!) e si propagheranno perciò in maniera indipendente. Un rivelatore del neutrino a
grandi distanze vedrà perciò in generale una diversa sovrapposizione di stati, che al tempo t
giungeranno al rivelatore con fasi differenti. Pertanto, riespresso in termini degli autostati di
sapore,62 lo stato che descriverà il neutrino sarà in generale diverso da quello iniziale e apparirà
come combinazione lineare degli autostati di sapore. La probabilità di rilevare il neutrino come
un neutrino elettronico oppure tauonico sarà perciò diversa da zero e dipenderà dal tragitto
percorso.
Le oscillazioni dei neutrini implicano dunque delle differenze di massa tra i diversi tipi di
neutrini, tuttavia non permettono una misura diretta delle masse, che tra l’altro risultano
essere troppo piccole per essere misurate senza difficoltà, ed è stato finora possibile dare delle
stime per i limiti superiori delle masse. In particolare non è detto che tutti i tipi di neutrino
(noti) abbiano massa differente da zero. Il fatto che le masse dei neutrini siano molto piccole
pone un problema nuovo: se il meccanismo con cui i neutrini acquistano massa fosse lo stesso
che nel caso dei quark, sarebbe naturale aspettarsi per i neutrini una massa dello stesso ordine
di grandezza delle masse dei quark. A questo punto è interessante notare che, se i neutrini
fossero di Majorana, allora vi è una possibile meccanismo diverso di assegnare la massa ai
neutrini, che ora descriveremo brevemente.
14.3.1
Il meccanismo dell’altalena (Seesaw mechanism).
Nel modello standard il numero leptonico è conservato. Se i neutrini hanno massa, devono
comparire dei termini quadratici nei campi dei neutrini. Tuttavia è facile vedere che termini
di questo tipo che non violino il numero leptonico non possono esserci in assenza di neutrini di
tipo right. Devono allora esistere dei neutrini righta, che si indicano tipicamente con NiR , che
si accoppiano con i neutrini left in termini della forma mD (ν̄N R + N̄ R ν). Il coefficiente mD ,
che più in generale sarà una matrice, si chiama termine di massa di Dirac e come suddetto ci si
aspetta che sia dell’ordine della scala di energia tipica del modello elettrodebole. Se il numero
leptonico è effettivamente conservato, allora qui finisce la storia.
Se però ad esempio almeno i neutrini right fossero di Majorana, allora essi violerebbero certamente il numero leptonico, dato che un neutrino, essendo reale, può trasformarsi nel proprio
antineutrino (essendo coincidenti). Ciò permetterebbe di aggiungere allora termini di massa
60
ma il risultato definitivo delle misura delle oscillazioni dei neutrini è stato pubblicato su Physical Review
D solamente nell’ottobre 2006!
61
fratello del regista Gillo
62
gli esperimenti che rivelano i neutrini sono basati sui processi nei quali si osservano i sapori leptonici!
14 GEOMETRIA DEL MODELLO STANDARD E GUT.
278
diagonali. Nella base ordinata (νi , NiR ) la matrice di massa può allora assumere la forma
0 mD
M=
.
mD mM
La matrice mM è la matrice di massa di Majorana. Poiché i campi right sono per il resto
completamente disaccoppiati da tutti gli altri campi, non vi è alcun meccanismo (simmetrie) che
prevenga gli autovalori di mM dall’essere arbitrariamente elevati, ad esempio alle scale di energia
in cui si verifichi una eventuale grande unificazione (si noti che nelle teorie di grande unificazione
tipicamente il numero leptonico non si conserva, si vedano i paragrafi successivi). Gli autostati
di massa dei neutrini si determinano allora diagonalizzando la matrice M . Nell’approssimazione
in cui mM mD indicando sempre con le stesse lettere gli ordini di grandezza degli autovalori
delle matrici date, avremo che i neutrini right avranno massa mR ≈ mM , mentre i neutrini left
avranno massa
m2
mL ≈ D ,
mM
che giustificherebbe le piccolissime masse dei neutrini osservati. Le masse dei neutrini right
saranno invece notevolmente elevate, rendendoli pertanto non osservabili.
14.4
Teorie GUT (cenni).
Il modello standard e il meccanismo di rottura spontanea suggeriscono l’idea di una possibile
unificazione delle forze. Nel modello elettrodebole il gruppo U (1)em emerge dalla rottura di
simmetria. La struttura in prodotti U (1)Y ×SU (2)L ×SU (3)C del gruppo del modello standard
potrebbe in modo simile essere conseguenza di una rottura spontanea di simmetria da un unico
gruppo G che per mezzo di un meccanismo analogo a quello di Higgs porta alla rottura
G −→ U (1)Y × SU (2)L × SU (3)C −→ U (1)em × SU (3)C .
Il gruppo G si chiama allora il gruppo di grande unificazione e la teoria relativa è detta GUT
(Grand Unification Theory). Ciò che alletta nella ricerca di una teoria GUT non è solamente
l’idea di unificare le forze, ma la spiegazione della quantizzazione della carica. Nel modello
standard infatti la carica Q = τ3 + Y2 non è automaticamente quantizzata. Ciò avviene per il
fatto che a differenza di τ3 che assume solo valori discreti, Y essendo associato a un gruppo U (1)
non semplice, può assumere qualunque valore e i valori discreti gli vengono imposti in seguito alle
osservazioni sperimentali. Se invece U (1)Y , come avviene per il sottogruppo U (1) generato da
τ3 , fosse un sottogruppo di un gruppo compatto e semplice, allora sarebbe anch’egli quantizzato
in modo naturale, e ciò potrebbe fornire una giustificazione teorica della quantizzazione della
carica.
14.4.1 Il modello SU (5). Il più semplice modello di GUT è quello con gruppo G = SU (5),
benché non sia storicamente il primo. Anzitutto SU (5) contiene il gruppo SU (2) × SU (3) come
matrici diagonali a blocchi. Sappiamo anche dalla teoria che SU (5) ammette quattro rappresentazioni fondamentali, due di dimensione 5 e due di dimensione 10. In fisica è usuale chiamare
14 GEOMETRIA DEL MODELLO STANDARD E GUT.
279
fondamentale solamente la rappresentazione di dimensione 5 associata al peso massimale L1 .
Essa viene indicata con 5. La sua coniugata, associata al peso massimale L1 +L2 +L3 +L4 , viene
indicata con 5∗ . La rappresentazione di dimensione 10 associata al peso L1 + L2 e che si ottiene
dal prodotto esterno 5 ∧ 5 viene indicata con 10 e la sua coniugata con 10∗ . In particolare
la 10 viene realizzata sullo spazio delle matrici antisimmetriche. Tipicamente si fissa una base
per l’algebra di SU (5) data da matrici {− 2i µi }15
i=1 , dove µi sono matrici hermitiane a traccia
nulla, normalizzate con la regola T rµi µj = 2δij (che ovviamente non identifica univocamente
la base). Esse possono essere costruite ad esempio sulla falsa riga delle matrici di Gell-Mann.
Per fissare le idee scegliamo la base
λi 0
µi =
, per i = 1, . . . , 8
0 0
0 0
µi =
, per i = 9, . . . , 11
0 σi−8
1
µ12 = √ diag{2, 2, 2, −3, −3} ,
15
dove λi e σj sono ovviamente le matrici di Gell-Mann e di Pauli mentre le restanti 12 matrici
hanno elementi di matrice non nulli
{µ13 }1,4
{µ16 }2,4
{µ19 }1,5
{µ22 }2,5
= {µ13 }4,1 = 1 ,
= −{µ16 }4,2 = −i
= {µ19 }5,1 = 1 ,
= −{µ22 }5,2 = −i
{µ14 }1,4 = −{µ14 }4,1 = −i
, {µ17 }3,4 = {µ17 }4,3 = 1
{µ20 }1,5 = −{µ20 }5,1 = −i
, {µ23 }3,5 = {µ23 }5,3 = 1
,
,
,
,
{µ15 }2,4
{µ18 }3,4
{µ21 }2,5
{µ24 }3,5
= {µ15 }4,2 = 1 ,
= −{µ18 }4,3 = −i ,
= {µ21 }5,2 = 1 ,
= −{µ24 }5,3 = −i .
Tra le quattro matrici diagonali, oltre alle due di SU (3) e a quella di SU (2), compare µ12 . Essa
commuta con le prime 11 matrici, ovvero con SU (2) × SU (3) e può perciò essere identificata,
a meno di un fattore costante, con l’operatore Y .
14.4.2 Le particelle in SU (5). Ricordando che ci sono 30 stati in una famiglia del modello
standard (includendo le antiparticelle), 15 potranno comparire nelle 5 e 10, e 15 nelle coniugate.
Per poter inserire le particelle in SU (5), occorre analizzare come si comportano rispetto al
sottogruppo SU (2) × SU (3) di SU (5), la qual cosa ci viene rivelata dal modello standard.
Come usuale indicheremo con una coppia di numeri tale comportamento, dove il primo numero
si riferisce alla sottorappresentazione SU (2) e il secondo alla sottorappresentazione SU (3). Ad
esempio scriveremo per i quark up e down
(uαL , dαL ) ∈ (2, 3) ,
per intendere che essi trasformano come un doppietto per SU (2) e nella fondamentale 3 per
quanto riguarda l’indice di colore α. In pratica (a, b) è una notazione per individuare la
rappresentazione prodotto tensore [a] ⊗ [b] dove con [a] indichiamo una rappresentazione di
SU (2) di dimensione a e con [b] una rappresentazione di SU (3) di dimensione b. Perciò la
dimensione di (a, b) è ab. I restanti 9 stati di particella sono
−
uαR ∈ (1, 3) , dαR ∈ (1, 3) , (νeL , e−
L ) ∈ (2, 1) , eR ∈ (1, 1) ,
14 GEOMETRIA DEL MODELLO STANDARD E GUT.
280
ed ovviamente le antiparticelle. Naturalmente abbiamo
(1, 3) + (2, 1) = 5 ,
(1, 3∗ ) + (2∗ , 1) = 5∗ .
Per quanto riguarda la 10 osserviamo che
10 = 5 ∧ 5 = ((1, 3) + (2, 1)) ∧ ((1, 3) + (2, 1)) = (1, 1) + (2, 3) + (1, 3∗ ) .
Una realizzazione esplicita di tale struttura la si ottiene (si veda [CL] capitolo 14) identificando
gli stati della 5 con
ψR = (d1R , d2R , d3R , e+
R , −ν̄eR ) ,
dove il numero è l’indice di colore, e quelli della 10 con

0
ū3L −ū2L u1L
 −ū3L
0
ū1L
u2L
1 
ū2L
ū1L
0
u3L
ψij = −ψji = √ 
2
3
2
1
 −uL −uL −uL
0
1
2
3
−dL −dL −dL −e+
L
d1L
d2L
d3L
e+
L
0



 ,


dove si è usata la barra per indicare l’antiparticella, tranne che per il positrone. Come prima
il numero rappresenta l’indice di colore. La carica delle particelle è allora Q = τ3 + Y2 dove
r
1
5
µ12 .
τ3 = µ11 , Y = −
2
3
14.4.3 I campi di gauge. In modo simile si ottiene l’analisi dei campi di gauge. La
rappresentazione aggiunta di SU (5) ha dimensione 24 e si ottiene dalla decomposizione
5 ⊗ 5∗ = 24 ⊕ 1 ,
da cui si ottiene immediatamente
24 = (1, 8) + (3, 1) + (1, 1) + (2, 3) + (2, 3∗ ) .
La (1, 8) è l’aggiunta di SU (3) e corrisponde ai gluoni. La (2, 1) è l’aggiunta di SU (2) e
individua i bosoni vettori della teoria debole. (1, 1) è il campo di gauge U (1)Y dell’ipercarica.
I rimanenti sono invece dei bosoni non contenuti nel modello standard, detti campi X e Y .
Naturalmente ci si aspetta che il gruppo di unificazione sia spontaneamente rotto e che il
meccanismo di rottura doti i campi X e Y di una massa estremamente elevata, ben superiore
a quelle dei bosoni pesanti W ± e Z 0 . Il problema del perché le rotture di simmetria
SU (5) −→ U (1)Y × SU (2)L × SU (3)C
e
U (1)Y × SU (2)L −→ U (1)em
14 GEOMETRIA DEL MODELLO STANDARD E GUT.
281
debbano avvenire a scale di energia molto differenti viene indicato come il problema della
gerarchia.
I campi X e Y , sono responsabili delle interazioni miste tra quark e leptoni (gli stati detti
di lepto-quark) o tra quark e antiquark (i diquark). Di conseguenza essi sono responsabili di
fenomeni che violano il numero barionico, quali il decadimento del protone in stati leptonici.
L’osservata stabilità del protone (se decade deve farlo con una vita media di almeno 1035 anni)
pone forti costrizioni alla teoria GUT. Non considereremo qui ulteriori dettagli (si veda [CL]
capitolo 14).
14.4.4 Il modello SO(10). Storicamente il primo modello di teoria GUT fu realizzato con
il gruppo di gauge SO(10). Il punto era che SO(10) ammette una rappresentazione spinoriale
chirale Spin(10)+ di dimensione 16, che poteva quindi accomodare i 15 stati del modello standard, mentre gli altri 15 venivano inseriti nella rappresentazione Spin(10)− . Lo stato in più era
attribuito al neutrino right e veniva abilmente fatto scomparire nella costruzione del modello.
Per vedere come si possa costruire un modello GUT con gruppo SO(10), procediamo invece
all’inverso osservando anzitutto che SU (5) può essere visto come sottogruppo di SO(10). Se
scriviamo la generica matrice M dell’algebra so(10) in blocchi 5×5 (che indicheremo con lettere
greche), allora si ha
α β
A=
−β γ
dove α, β, γ ∈ M (5, R) e α e γ sono antisimmetriche. Tali blocchi corrispondono alla
decomposizione
R10 = R5 ⊕ R5 = {(x, y) ∈ R5 × R5 } .
La sottoalgebra delle matrici di so(10) per le quali γ = α mentre β è simmetrica a traccia
nulla, si identificano con su(5) tramite la mappa A 7→ A − iB agenti su C5 generato dai vettori
z = x + iy.
Si può perciò passare attraverso su(5) per individuare i campi del modello standard in so(10).
Si ricordi che i pesi di spin(10)+ sono
1
= (±L1 ± L2 ± L3 ± L4 ± L5 )
2
per tutte le possibili combinazioni di segni che abbiano numero pari di segni −. Si osservi anche
che le radici positive di so(10) sono
Li ± Lj ,
1≤i<j≤5,
dunque 20, mentre quelle di su(5) sono
Li − Lj ,
1≤i<j≤5.
Le sottorappresentazioni di su(5) in so(10) si ottengono quindi guardando come le radici di
su(5) agiscono sui vettori peso di spin(10)+ . Addizionando e sottraendo le radici di su(5) ai
pesi di spin(10)+ si vede che devono agire sui vettori peso conservando il numero di segni −.
Si hanno perciò tre sottospazi invarianti per su(5):
14 GEOMETRIA DEL MODELLO STANDARD E GUT.
282
• un sottospazio unidimensionale corrispondente al peso massimo 12 (L1 +L2 +L3 +L4 +L5 ) ≡
0, dato che per su(5) si ha L1 + L2 + L3 + L4 + L5 ≡ 0;
• un sottospazio 5−dimensionale corrispondente ai 5 pesi con 4 segni −. Il peso massimo
rispetto a su(5) è 21 (L1 − L2 − L3 − L4 − L5 ) ≡ L1 ;
• un sottospazio 10−dimensionale corrispondente ai 10 pesi con 2 segni meno. In questo
caso il peso massimo è evidentemente 12 (L1 + L2 + L3 − L4 − L5 ) ≡ L1 + L2 + L3 .
Quindi possiamo dire che spin(10)+ si decompone in 1 + 5 + 10∗ secondo le rappresentazioni
di SU (5). Questo metodo può essere ulteriormente applicato a SU (5) per decomporlo secondo
SU (2) × SU (3) (in alternativa al metodo adottato nella sezione 14.4.2). Poiché una volta
individuata la decomposizione, la costruzione delle funzioni d’onda è la stessa come in 14.4.2
(con l’accortezza di aggiungere il neutrino right nel singoletto), non consideriamo qui ulteriori
dettagli. Si veda eventualmente [CL2], capitolo 14.
14.4.5 Esercizio. Si costruisca l’analoga decomposizione della rappresentazione aggiunta 45
di SO(10) rispetto a SU (5).
RIFERIMENTI BIBLIOGRAFICI
283
Riferimenti bibliografici
[A]
M. Artin, Algebra, Bollati Boringhieri 1997.
[CDF] L. Castellani, R. D’Auria, P. Fré, Supergravity and Superstrings, Vol. 1, parte I, World
Scientific 1991.
[CL] T.-P. Cheng, L.-F. Li, Gauge theory of elementary particle physics, Oxford University
Press, 2004.
[CL2] T.-P. Cheng, L.-F. Li, Gauge theory of elementary particle physics: Problems and
solutions, Oxford University Press, 2000.
[dC] M.P. do Carmo, Riemannian geometry, Birkhäuser Boston, 1992.
[D]
R.W.R. Darling, Differential forms and connections, Cambridge University Press, 1994.
[DNF1] B.A. Dubrovin, S.P. Novikov, A.T. Fomenko, Geometria delle superfici, dei gruppi di
trasformazioni e dei campi, Editori Riuniti 1987.
[DNF2] B.A. Dubrovin, S.P. Novikov, A.T. Fomenko, Geometria e topologia delle varietà,
Editori Riuniti 1988.
[FH] W. Fulton, J. Harris, Representation Theory, GTM 129, Springer 1991.
[Ha] B.C. Hall, Lie groups, Lie algebras, and representations, GTM 222, Springer 2003.
[Hu] J.E. Humphreys, Introduction to Lie algebras and representation theory, GTM 9, Springer
1978.
[KN] S. Kobayashi, K. Nomizu, Foundations of differential geometry, Vol. I. Wiley Classics
Library. A Wiley-Interscience Publication. John Wiley & Sons, Inc., 1996
[Lie] Sito: http://www-math.univ-poitiers.fr/ maavl/
[MB] S. Mac Lane, G. Birkhoff, Algebra, Mursia.
[N1] G.L. Naber, Topology, geometry, and gauge fields, Foundations, TAM 25, Springer 1997.
[N2] G.L. Naber, Topology, geometry, and gauge fields. Interactions, AMS 141. Springer 2000.
[S]
J-P. Serre, Linear representations of finite groups, GTM 42, Springer 1977.
[T]
W. Thirring, Classical mathematical physics. Dynamical systems and field theories,
Springer 1997.
[We] S. Weinberg, The Quantum Theory of Fields, Vol. 1, Cambridge University Press.
[Wa] F.W. Warner, Foundations of differentiable manifolds and Lie groups, GTM 94, Springer
1983.
Indice analitico
Adroni, 265
Aggiunta, Ad, 84
aggiunta, ad, 86
Algebra
di Clifford
ed elettrone, 251
di Poincaré, 244
Algebra di Lie, 87
Algebra di Lie semplice, 94
Angolo di Cabibbo, 275
Angolo di Weinberg, 273
Antiparticella, 261
Applicazione liscia, 59
Atlante, 58
Azione
per l’equazione di Dirac, 255
Barioni, 266
Bellezza, 266
Bosone di Higgs, 269
Calibrazione, 230
Camera di Weyl, 148
Camera di Weyl di sl(3), 112
Cammino, 64
Campbell-Baker-Hausdorff, 89
Campi di gauge
costruzione euristica, 230
Campi di materia, 227
calibrabili o gauge covarianti, 230
Campo
orizzontale, 214
vettoriale
fondamentale, 202
verticale, 202
Campo di gauge, 230, 232
Campo hamiltoniano, 78
Campo scalare, 249
carico, 250
con potenziale, 250
libero, 249
Campo spinoriale, 251
Campo vettoriale
di Spin 1, 262
Carattere, 30
Carta locale, 58
Chiralità, 253
e parità, 256
Ciclo, 37
Classe di coniugio, 37
Colori, 268
Complessificazione
di SO(1, 3), 261
Confinamento, 268
Connessione, 198
G-connessione, 203
di Koszul, 205
di Levi-Civita, 215
e vielbein, 218
in coordinate locali, 220
di Spin, 263
e cambiamento di carta locale, 219
e campi di gauge, 233
metrica, 215
su spazi affini, 198
su un fibrato differenziale, 201
Connessione infinitesima
G-connessione infinitesima, 204
e derivata covariante, 208
su un fibrato principale, 203
su un fibrato vettoriale, 202
sul fibrato duale, 203
sul fibrato prodotto, 203
coordinate normali, 220
Costante cosmologica, 242
Cromodinamica, 275
Curvatura, 211
e campo di forze, 234
forma di, 211
rispetto a un sistema di coordinate, 220
rispetto a un vielbein, 218
284
INDICE ANALITICO
scalare, 216
sezionale, 217
tensore di, 212
Decadimento del protone, 281
Decomposizione di Jordan, 96
Derivata covariante, 205
sul prodotto di fibrati, 208
direzionale, 207
e connessione infinitesima, 210
e trasporto parallelo, 209
sul fibrato duale, 209
Derivata di Lie, 81
Derivata esterna, 69
Derivazione, 63
Diagramma di Dynkin, 140
Diagramma di Young, 41
Diffeomorfismo, 58
Differenziale di un’applicazione liscia, 64
Differenziale di una funzione liscia, 65
Diquark, 281
Distribuzione, 201
differenziale, 201
involutiva, 201
Doppietto isotopico, 265
Dualità, 230
Elettrone, 253
Elicità, 248
Equazione
di Dirac, 253
di Klein-Gordon, 249
di Maurer-Cartan, 195
di struttura, 212
I, 214
II, 212
Equazione di Newton, 74
Equazioni di Einstein, 240
Equazioni di Hamilton, 78
Esponenziale, 89
Estensione centrale, 246
Famiglie leptoniche, 265
Fibrato, 186
285
associato, 191
banale, 187
dei riferimenti, 190
differenziale, 192
duale, 189
principale, 190
prodotto, 189
spinoriale, 263
sulla sfera, 193
vettoriale, 186
Fibrato tangente, 65
Flusso di un campo vettoriale, 79
Forma
di Cartan, 194
di curvatura, 211
di torsione, 214
orizzontale canonica, 214
tensoriale, 209
Forma canonica (sul fibrato cotangente), 73
Forma di Killing, 194
per gruppi semisemplici, 195
Forma differenziale, 69
Forma quadratica, 157
Formula di Cartan, 81
Forze di marea, 240
Funzione hamiltoniana, 78
Funzione liscia, 59
Funzioni equivarianti, 209
Geometria
dei gruppi di Lie, 194
Germe, 63
Groupring, 36
Gruppo
di Lorentz
proprio ed ortocrono, 249
di Spin
Spin(1, 3), 258
Gruppo di Lie, 83
Gruppo di simmetria, 228
Gruppo di Weyl di sl(3), 107
Gruppo ortogonale, 62, 158
Gruppo speciale, 61
INDICE ANALITICO
GUT, 278
modello SO(10), 281
modello SU (5), 278
Hooklength, 43
Ideale, 90
Idempotente, 31
Identità di Bianchi, 212
I, 215
II, 212
Identità di Jacobi, 68
Incanto, 266
Interazioni di gauge, 235
Invarianti di gauge, 230
Ipercarica, 269
Legge di Sylvester, 157
Lemma di Schur, 29
Lepto-quark, 281
Leptoni, 265
Luce pesante, 269
W ± , Z 0 , 273
Mappa regolare, 139
Massa dei neutrini, 276
Matrice di Kobaiashi-Maskawa, 275
Matrice jacobiana, 58
Matrici
Γ, 256
di Dirac, 254, 256
di Gell-Mann, 275
di Pauli, 254, 256
Meccanica Hamiltoniana, 77
Meccanismo
di Higgs, 272
Mesoni, 266
Misura invariante, 197
per SU (2), 198
Modello
elettrodebole, 270
standard, 270
Neutrino, 253
Nondegenere, 157
286
O(1,1), 160
Omomorfismo di gruppi di Lie, 83
Operatore
coniugazione di carica, 260
di Dirac, 252
Oscillazioni dei neutrini, 277
Parentesi di Lie, 68
Partizione, 37
Peso dominante, 149
Peso massimale, 149
Piccolo gruppo, 245
Positrone, 261
Precessione di Thomas, 224
Principio di equivalenza, 237
debole, 238
forte, 238
Principio di relatività generale, 239
Problema della gerarchia, 281
Proiettore, 31
Pull-back (di forme differenziali), 70
Pullback, 79
Pushforward, 80
Quark
beauty, 266
charm, 266
down, 266
strange, 266
top, 266
up, 266
Radice semplice, 139
Radici positive, 139
Rango di un fibrato, 186
Rango di una mappa liscia, 60
Rappresentazione
di Dirac, 254
di Spin
di SO(1, 3), 256
intrinsecamente proiettiva, 246
proiettiva, 246
Rappresentazione di un algebra di Lie, 87
Rappresentazione di un gruppo di Lie, 84
INDICE ANALITICO
Rappresentazione fondamentale, 152
Rappresentazione regolare, 34
Relazione di cociclo
per rappresentazioni proiettive, 246
Reticolo dei pesi, 146
Reticolo delle radici, 147
Ricoprimento universale, 248
Scalare di curvatura, 216
Seesaw mechanism, 277
Sezione
di un fibrato, 188
e funzioni equivarianti, 209
globale, 188
locale, 188
Simboli di Christoffel, 207, 219
Simmetrie
esterne, 227
interne, 227
Simmetrie di gauge, 230
Simmetrie interne
e relatività, 237
Simmetrizzatore di Young, 42
Sistema delle radici di sl(3), 107
Sistema di radici duali, 143
Sistema di riferimento ruotante, 221
Sommersioni, 60
Sottogruppo di Lie, 83
Sottogruppo di Lie immerso, 83
Sottospazio
orizzontale, 201
Sottovarietà, 60
Spazio cotangente, 65
Spazio degli invarianti, 31
Spazio tangente, 63
Spinori
di Majorana, 259
Stranezza, 266
Struttura Riemanniana, 215
Struttura simplettica, 78
Strutture geometriche, 186
Riemanniane, 213, 215
Tensore
287
di curvatura, 212
simmetrie, 216
di Einstein, 216
di Ricci, 216
di Riemann, 216
di torsione, 214
Teorema
di Frobenius, 211
Teorie di grande unificazione, 278
Teorie di Yang-Mills, 234
Torsione
forma di, 214
rispetto a un sistema di coordinate, 219
rispetto a un vielbein, 218
tensore di, 214
Trasformazione di gauge
della connessione, 233
della curvatura, 234
Trasformazioni, 228
di gauge, 230
esterne, 228
interne, 228
Trasformazioni di simmetria, 228
Trasporto parallelo, 198, 201
su spazi affini, 198
sulla sfera S 2 , 199
Varietà differenziabile, 59
Vettore tangente, 63
Vielbein, 218
e connessione di Levi-Civita, 218
e curvatura, 218
e tensore di torsione, 218