Elementi Calcolo Tensoriale Spazi Vettoriali

'
Elementi
$
di
Calcolo Tensoriale
su
&
Spazi Vettoriali
Sergio Benenti
20 giugno 2012
%
Indice
Palinsesto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1 Spazi vettoriali puri
iii
1
1.1 Richiami e notazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1.2 Forme lineari e spazi duali . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.3 Forme bilineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
1.4 Forme bilineari simmetriche . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
1.5 Forme quadratiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
1.6 Endomorfismi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.7 Determinante e traccia di un endomorfismo . . . . . . . . . . . . . . . . . . 14
1.8 Polinomio caratteristico di un endomorfismo . . . . . . . . . . . . . . . . . . 16
1.9 Autovalori e autovettori di un endomorfismo . . . . . . . . . . . . . . . . . . 18
1.10 Il teorema di Hamilton-Cayley . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.11 Tensori
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.12 Somma tensoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.13 Prodotto tensoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.14 Basi tensoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.15 Contrazione o saturazione di due indici . . . . . . . . . . . . . . . . . . . . . 28
1.16 Tensori antisimmetrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.17 Antisimmetrizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.18 Prodotto esterno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.19 Algebra esterna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.20 Il simbolo di Levi-Civita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2 Spazi vettoriali con struttura
39
2.1 Spazi vettoriali euclidei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.2 Endomorfismi in spazi euclidei . . . . . . . . . . . . . . . . . . . . . . . . . 44
i
ii
2.3 Endomorfismi ortogonali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.3.1
Rappresentazione mediante simmetrie . . . . . . . . . . . . . . . . . 52
2.3.2
Decomposizione simmetrica delle isometrie . . . . . . . . . . . . . . 53
2.3.3
Rappresentazione esponenziale . . . . . . . . . . . . . . . . . . . . . 53
2.3.4
Rappresentazione di Cayley . . . . . . . . . . . . . . . . . . . . . . . 54
2.3.5
Rappresentazione quaternionale . . . . . . . . . . . . . . . . . . . . . 55
2.4 Lo spazio vettoriale euclideo tridimensionale . . . . . . . . . . . . . . . . . . 56
2.4.1
La forma volume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.4.2
Aggiunzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.4.3
Prodotto vettoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.4.4
Endomorfismi assiali . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.4.5
Rotazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
2.5 Spazi vettoriali iperbolici . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
iii
Palinsesto
Argomenti trattati in questa dispensa.


Puri, senza strutture addizionali



















euclidea










Su spazi vettoriali

 pseudo-euclidea, iperbolica







Con struttura








simplettica














altre













puri










 euclidei (1)


 Su spazi affini
Calcolo

semi-euclidei (2)


tensoriale 







pseudo-euclidei (3)














Pure
















con connessione

















riemanniana (4)




Su varietà differenziabili







Con struttura pseudo-riemanniana (5)
















 simplettica (6)













altre
Applicazioni:
(1) Meccanica razionale.
(2) Spazio-tempo newtoniano.
(3) Spazio-tempo di Minkowski: relatività ristretta.
(4) Meccanica lagrangiana.
(5) Relatività generale.
(6) Meccanica hamiltoniana.
Capitolo 1
Spazi vettoriali puri
1.1
Richiami e notazioni
Un insieme E è uno spazio vettoriale o spazio lineare sopra un corpo commutativo K
se:
1. è definita un’operazione binaria interna su E, + : E × E → E, detta somma, soddisfacente agli assiomi di gruppo commutativo:

u + v = v + u,
∀ u, v ∈ E,





 (u + v) + w = u + (v + w),
∀ u, v, w ∈ E,

∃ 0 ∈ E | u + 0 = u, ∀ u ∈ E,





∀ u ∈ E, ∃ v ∈ E | u + v = 0.
2. è definita un’operazione K × E → E, detta prodotto per uno scalare, tale da
soddisfare alle seguenti condizioni:

a (u + v) = a u + a v,
∀ a ∈ K, u ∈ E, v ∈ E,





 (a + b)u = a u + b u,
∀ a, b ∈ K, u ∈ E,

(ab) u = a(b u),
∀ a, b ∈ K, u ∈ E,





1 u = u,
1 = unità in K, ∀u ∈ E.
Gli elementi di E si dicono vettori, gli elementi di K scalari. Denotiamo i vettori, salvo
l’elemento neutro 0 ∈ E (zero o vettore nullo), con lettere grassetto (quasi sempre
minuscole). Con lo stesso simbolo 0 denotiamo anche lo zero del campo K. Per ogni
vettore u si ha 0u = 0. Si denota con − u il vettore opposto a u, cioè il vettore per
cui u + (−u) = 0. Scriviamo v − u al posto di v + (−u). Il vettore nullo e l’opposto di
un qualunque vettore sono unici (perché unici sono, in un qualunque gruppo, l’elemento
neutro e il reciproco di un qualunque elemento).
1
2
Capitolo 1. Spazi vettoriali puri
Tra gli spazi vettoriali sopra un assegnato campo K ritroviamo il campo stesso e tutte le
sue potenze cartesiane Kn , cioè l’insieme delle n-ple di elementi del campo.
Un sottoinsieme S ⊂ E è un sottospazio se le proprietà (i) e (ii) valide in E valgono
anche per tutti gli elementi di S. Se K e L sono due sottospazi, denotiamo con K + L
la loro somma, cioè l’insieme dei vettori di E costituito da tutte le possibili somme di
elementi di K e di L. La somma K + L e l’intersezione K ∩ L di due sottospazi vettoriali
sono a loro volta dei sottospazi. Denotiamo con E ⊕ F la somma diretta di due spazi
vettoriali (sul medesimo corpo K): è il prodotto cartesiano E × F dotato della naturale
struttura di spazio vettoriale definita dalle operazioni (u, w) + (u0 , w0 ) = (u + u0 , w + w 0 )
e a(u, w) = (au, aw). Denoteremo anche con u ⊕ w un generico elemento di E ⊕ F . Si
dice anche che uno spazio vettoriale E è la somma diretta di due suoi sottospazi K e
L se E = K + L e se K ∩ L = {0}. In tal caso ogni vettore è la somma di due vettori
univocamente determinati di K e L. E risulta pertanto identificabile con K ⊕ L.
Una scrittura del tipo
1
2
k
a v 2 + a v 2 + . . . + a vk =
k
X
ai vi
i=1
prende il nome di combinazione lineare dei vettori v i con coefficienti ai ∈ K. Due o
più vettori si dicono indipendenti se la sola combinazione lineare che fornisce il vettore
nullo è quella a coefficienti tutti nulli:
k
X
ai vi = 0
=⇒
ai = 0.
i=1
Uno spazio vettoriale è detto a dimensione finita se ammette una base costituita da
un numero finito n di vettori, cioè un insieme di n vettori indipendenti che generano
tutto E tramite tutte le loro possibili combinazioni lineari. Il numero n coincide col
massimo numero di vettori indipendenti in un qualunque insieme di vettori. Esso prende
il nome di dimensione dello spazio. Scriveremo En oppure dim(E) = n per indicare che
la dimensione dello spazio vettoriale E è n. Una generica base di E sarà denotata con
(e1 , e2 , . . . , en ) o brevemente con (ei ), dove l’indice i sarà inteso variare da 1 a n. La
scrittura
n
X
1
2
n
v = v e2 + v e2 + . . . + v en =
v i ei
i=1
è la rappresentazione di un generico vettore v ∈ E secondo la base (ei ). I coefficienti
di questa combinazione lineare sono le componenti del vettore v. Le componenti di un
vettore, fissata la base, sono univocamente determinate. Si noti la diversa posizione degli
indici riservata alle componenti (v i ), in alto anziché in basso. Si conviene tuttavia di
omettere il simbolo di sommatoria per indici ripetuti in alto e in basso (convenzione di
Einstein). Allora la rappresentazione precedente si scrive più semplicemente
v = v i ei .
3
1.1. Richiami e notazioni
Si noti che non ha importanza la scelta dell’indice, purché la lettera usata appartenga
ad un insieme precedentemente convenuto (per esempio, lettere latine minuscole, lettere
greche, lettere latine maiuscole dopo la I, e cosı̀ via). Se per esempio conveniamo che le
lettere latine minuscole a partire dalla h varino da 1 a n, la precedente scrittura è del tutto
equivalente alle seguenti:
v = v h eh ,
v = v j ej ,
v = v k ek ,
...
La diversa collocazione degli indici e la sommatoria sottintesa per indici ripetuti in alto
e in basso sono convenzioni tipiche del calcolo tensoriale, i cui primi elementi saranno
illustrati in questo capitolo. Il formalismo che ne deriva è agevole e sintetico.
Le formule riguardanti il calcolo vettoriale o tensoriale sono in genere di tre tipi. Una formula è di tipo intrinseco o assoluto se essa coinvolge vettori o tensori ed operazioni definite
su questi senza l’intervento di basi. Ad una formula di tipo intrinseco corrisponde sempre
una formula con indici o in componenti, conseguente alla scelta di una base generica. Vi
sono infine formule, con indici, valide soltanto per una base particolare o per una classe
particolare di basi. Per sottolineare questa circostanza useremo sovente un’uguaglianza
∗
con asterisco: =.
Per quel che riguarda il concetto di dimensione è opportuno ricordare che per due sottospazi di uno spazio vettoriale E vale la formula di Grassmann (Hermann Günther
Grassmann, 1809-1877)
dim(K + L) + dim(K ∩ L) = dim(K) + dim(L).
Un’applicazione A : E → F da uno spazio vettoriale E ad uno spazio vettoriale F si dice
lineare se
A(a u + b v) = a A(u) + b A(v)
(∀u, v ∈ E, ∀a, b ∈ K).
Si dice anche che A è un omomorfismo lineare. Denoteremo in genere gli omomorfismi
lineari con lettere maiuscole in grassetto. Denoteremo con
Hom(E; F )
o semplicemente con
L(E; F )
l’insieme delle applicazioni lineari da E a F . Quest’insieme ha una naturale struttura di
spazio vettoriale, con la somma A + B e il prodotto a A per un elemento a ∈ K definiti
da
(A + B)(v) = A(v) + B(v),
(a A)(v) = a A(v).
Più in generale, se (E1 , E2 , . . ., Ep, F ) sono spazi vettoriali, un’applicazione
A : E1 × E2 × . . . × Ep → F
4
Capitolo 1. Spazi vettoriali puri
è detta p-lineare (genericamente multilineare) se è lineare su ogni argomento. Ad
esempio l’applicazione R2 → R : (x, y) 7→ xy è bilineare (l’insieme dei numeri reali R ha
un’ovvia struttura di spazio vettoriale su se stesso, di dimensione 1). Denoteremo con
L(E1, E2 , . . . , Ep; F )
l’insieme delle applicazioni multilineari da E1 × E2 × . . . × Ep a F . Anch’esso è dotato di
una struttura naturale di spazio vettoriale.
In queste lezioni ci limiteremo a considerare solo spazi vettoriali reali (cioè sul campo dei
reali, K = R) e a dimensione finita.
Eesamineremo i seguenti spazi di applicazioni:
L(E; F ) = Hom(E, F )
L(E; R) = E
∗
applicazioni lineari
spazio duale di E
L(E; E) = End(E)
endomorfismi lineari su E
L(E, E; R) = T2 (E)
forme bilineari su E
L(E ∗, . . . , E ∗, E, . . ., E ; R) = Tqp (E)
| {z } | {z }
p volte
1.2
tensori di tipo (p, q).
q volte
Forme lineari e spazi duali
Un’applicazione lineare α : E → R da uno spazio vettorale E allo spazio R dei numeri
reali è detta forma lineare su E o covettore. Lo spazio L(E; R) delle forme lineari è
più semplicemente denotato con E ∗ ed è chiamato spazio duale di E.
Al posto di α(v) useremo il simbolo
hv, αi
per denotare il valore del covettore α sul vettore v. Diremo che hv, αi è la valutazione
di α su v o, viceversa, di v su α. Ponendo F = R in quanto si è detto nel paragrafo
precedente, si vede in particolare che
dim(E ∗ ) = dim(E).
Esiste un’isomorfismo canonico ι : E → E ∗∗ tra lo spazio biduale E ∗∗ = L(E ∗ ; R) e lo
spazio E stesso, definito dall’uguaglianza
hα, ι(v)i = hv, αi.
(1.1)
Gli elementi di E ∗∗ saranno di seguito sempre identificati con i vettori di E.
Ad ogni sottospazio K ⊂ E associamo un sottospazio K ◦ ⊂ E ∗ , detto polare di K,
costituito da tutti i covettori che annullano tutti gli elementi di K:
K ◦ = {α ∈ E ∗ | hu, αi = 0, ∀u ∈ K}.
(1.2)
5
1.2. Forme lineari e spazi duali
Sussistono le seguenti proprietà, qualunque siano i sottospazi K e L di E:

dim(K) + dim(K ◦ ) = dim(E),






K ◦◦ = K,



K ◦ ⊂ L◦ ⇐⇒ L ⊂ K,




(K + L)◦ = K ◦ ∩ L◦ ,




 ◦
K + L◦ = (K ∩ L)◦ .
(1.3)
La loro dimostrazione è lasciata come esercizio. Si noti che la seconda di queste uguaglianze
sottintende l’intervento dell’isomorfismo canonico tra lo spazio e il suo biduale e che inoltre,
in virtù di questo isomorfismo, le ultime due uguaglianze (1.3) esprimono la medesima
proprietà.
Ad ogni base (ei ) di E corrisponde un base duale in E ∗ , che denotiamo con (εi ), definita
implicitamente dall’uguaglianza:
hej , εi i = δji
(1.4)
dove δji è il simbolo di Kronecker (Leopold Kronecker, 1823-1851):
δji
=
(
1
se
i=j
0
se
i 6= j
Per ogni v ∈ E e α ∈ E ∗ valgono le relazioni:
v = v i ei
⇐⇒
v i = hv, εi i
(1.5)
α = αi εi
⇐⇒
αi = hei , αi
(1.6)
hv, αi = αi v i
(1.7)
La loro dimostrazione è lasciata come esercizio. Si osservi la diversa posizione degli indici
delle componenti di un covettore (in basso, anziché in alto come per le componenti dei
vettori) e la simmetria formale di queste uguaglianze. L’equivalenza (1.5) mostra che
le componenti di un vettore sono ottenute valutando sul vettore gli elementi della base
duale. Analogamente la (1.6) mostra che le componenti di un covettore coincidono con le
valutazioni di questo sugli elementi della base di E. Infine la (1.7) mostra che la valutazione
tra un vettore ed un covettore è data dalla somma dei prodotti delle componenti omologhe.
Osservazione 1.2.1 – Rappresentazione geometrica dei covettori. Ad ogni covettore α ∈
E ∗ si possono far corrispondere due sottoinsiemi di E:
A0 = {x ∈ E |hx, αi = 0},
A1 = {x ∈ E |hx, αi = 1}.
6
Capitolo 1. Spazi vettoriali puri
A0 è un sottospazio di codimensione 1, A1 è un suo laterale. La conoscenza di questi due
sottoinsiemi (in effetti basterebbe la conoscenza del secondo) determina completamente α.
Infatti, dato un vettore v ∈ E, o è v ∈ A0 , e allora poniamo hv, αi = 0, oppure è v = λ x
con x ∈ A1 , e allora poniamo hv, αi = λ. Si osservi che, denotate con (xi ) le componenti
di un generico vettore x, i due sottoinsiemi A0 e A1 sono rispettivamente definiti dalle
equazioni
αi xi = 0,
αi xi = 1.
Si tratta di una coppia di iperpiani paralleli, il primo passante per l’origine. •
Rappresentazione geometrica dei
covettori.
1.3
Forme bilineari
Una forma bilineare su di uno spazio vettoriale E è un’applicazione bilineare di E × E
in R. Lo spazio delle forme bilineari1 è denotato con L(E, E; R).
Assegnata una base (ei ) di E, i numeri
ϕij = ϕ(ei , ej )
(1.8)
si chiamano componenti della forma bilineare secondo la base. Per ogni coppia di vettori
di E si ha:
ϕ(u, v) = ϕij ui v j
(1.9)
Le componenti [ϕij ] formano una matrice quadrata n × n. Conveniamo che il primo indice
sia indice di riga, il secondo di colonna. Si chiama rango della forma ϕ il rango della
matrice [ϕij ].2
1
In accordo con quanto detto all’inizio di questo capitolo.
Naturalmente, affinché questa definizione abbia senso, occorre dimostrare che il rango della matrice
delle componenti non dipende dalla scelta della base di E.
2
7
1.3. Forme bilineari
Una forma bilineare si dice regolare o non degenere se vale la condizione
ϕ(u, v) = 0, ∀v ∈ E
=⇒
u=0
(1.10)
=⇒
v = 0.
(1.11)
oppure la condizione equivalente
ϕ(u, v) = 0, ∀u ∈ E
Entrambe sono equivalenti alla condizione
det[ϕij ] 6= 0.
(1.12)
Dunque una forma bilineare è regolare se e solo se ha rango massimo (= n).
Che la (1.12) sia equivalente alla (1.10) segue dal fatto che, in componenti, l’implicazione
(1.11) si scrive:
ϕij ui v j = 0, ∀(v i ) ∈ Rn =⇒ ui = 0.
Questa si semplifica in
ϕij ui = 0
=⇒
ui = 0,
ed esprime la circostanza che il sistema lineare omogeneo (di n equazioni in n incognite)
ϕij ui = 0 ammette solo la soluzione nulla.
Definizione 1.3.1 – La trasposta di una forma bilineare ϕ è la forma bilineare ϕT
definita da
ϕT (u, v) = ϕ(v, u)
•
(1.13)
Si ha ovviamente ϕTT = ϕ.
Definizione 1.3.2 – Una forma bilineare si dice simmetrica (rispettivamente, antisimmetrica) se
ϕT = ϕ
(risp. ϕT = − ϕ),
(1.14)
cioè se
ϕ(u, v) = ϕ(v, u),
(risp. ϕ(u, v) = − ϕ(v, u)).
•
(1.15)
Questa condizione si esprime, qualunque sia la base scelta, nella simmetria (risp. nella
antisimmetria) della matrice delle componenti (basta porre (u, v) = (ei , ej ) nella (1.13)):
ϕij = ϕji ,
(risp. ϕij = − ϕji ).
(1.16)
Una forma bilineare ϕ è decomponibile nella somma della sua parte simmetrica ϕS e
della sua parte antisimmetrica ϕA . Vale cioè l’uguaglianza
ϕ = ϕS + ϕA
posto
ϕS = 12 (ϕ + ϕT ),
ϕA = 12 (ϕ − ϕT )
(1.17)
8
Capitolo 1. Spazi vettoriali puri
Osservazione 1.3.1 – Un esempio elementare ma importante di forma bilineare è dato dal prodotto tensoriale α ⊗ β di due forme lineari α, β ∈ E ∗ . Esso è definito
dall’uguaglianza
(α ⊗ β) (u, v) = hu, αihv, βi
(1.18)
Se (εi ) è la base duale di una base (ei ) di E allora gli n2 prodotti εi ⊗ εj formano una base
di L(E, E; R). Cosı̀ una qualunque forma bilineare ϕ può esprimersi come combinazione
lineare di questi:3
ϕ = ϕij εi ⊗ εj
(1.19)
dove le ϕij sono proprio le componenti definite dalla (1.8). •
1.4
Forme bilineari simmetriche
Sia ϕ una forma bilineare simmetrica. Due vettori si dicono coniugati (o anche ortogonali) rispetto a ϕ se ϕ(u, v) = 0. In particolare un vettore si dice isotropo se è coniugato
con se stesso, ϕ(u, u) = 0, unitario se invece ϕ(u, u) = ±1.
Due sono i concetti fondamentali associati ad una forma bilineare simmetrica: quello di
base canonica e quello di segnatura.
Una base (ei ) di E si dice canonica (sempre rispetto a ϕ) se tutti i suoi vettori sono
unitari o isotropi e fra loro coniugati, cioè se, dopo un eventuale riordinamento della base,
la matrice della componenti assume la forma:


1p
0
0





(1.20)
[ϕij ] = 
 0 −1q 0 


0
0
0
dove 1p e 1q denotano le matrici unitarie di ordine p e q rispettivamente. In una base
canonica si ha quindi (si confronti con la (1.9):
ϕ(u, v) =
p
X
a=1
a
a
u v −
p+q
X
ub v b .
(1.21)
b=p+1
Si dimostra4 che esistono basi canoniche e inoltre che in ogni base canonica la matrice
delle componenti è sempre del tipo (1.20), vale a dire che gli interi p e q sono invarianti
rispetto alla scelta di basi canoniche. Questa notevole proprietà è nota come teorema
di Sylvester o legge di inerzia delle forme quadratiche (James Joseph Sylvester,
1814-1897). Alla coppia di interi non negativi (p, q) si dà il nome di segnatura della
forma bilineare simmetrica ϕ.
3
4
Sul prodotto ⊗ torneremo più avanti.
La dimostrazione è in appendice al paragrafo.
9
1.5. Forme quadratiche
Si osserva dalla (1.20) che la somma p + q è uguale al rango di ϕ.
Per calcolare la segnatura di una forma bilineare simmetrica ϕ basterebbe determinare
una base canonica (o almeno una base di vettori fra loro ortogonali) (ei ) e valutare quindi
i segni dei numeri ϕ(ei , ei ), la qual cosa può rivelarsi in pratica piuttosto difficoltosa. Si
può allora fare ricorso ad un metodo assai rapido, illustrato nel seguente teorema:5
Teorema 1.4.1 – Sia [ϕij ] la matrice delle componenti di una forma bilineare simmetrica
ϕ relativa ad una base qualsiasi. Si consideri una qualunque successione di sottomatrici
quadrate principali, di ordine crescente da 1 a n, ciascuna contenuta nella successiva:
M1 ,
M2 ,
...
, Mn = [ϕij ].
Allora l’intero q della segnatura (p, q) è uguale al numero delle variazioni di segno della
successione di numeri
1,
M1 ,
det M2 ,
...
det Mn = det[ϕij ],
dalla quale siano stati eliminati gli eventuali zeri.
Calcolato l’intero q, l’intero p viene poi calcolato conoscendo il rango r della matrice:
p = r − q. Si noti bene che questo metodo per il calcolo della segnatura lascia piena libertà
di scelta della base e delle sottomatrici della successione.
1.5
Forme quadratiche
Data un’applicazione Φ : E → R, si dice sua polarizzazione l’applicazione
δΦ : E × E → R
definita da
δΦ(u, v) =
1
2
h
i
Φ(u + v) − Φ(u) − Φ(v)
(1.22)
Una forma quadratica su di uno spazio vettoriale E è un’applicazione Φ : E → R la cui
polarizzazione δΦ è una forma bilineare (ovviamente simmetrica).
Pertanto, per la sua stessa definizione, ad una forma quadratica corrisponde una forma
bilineare simmetrica. Viceversa, se ϕ è una forma bilineare simmetrica allora l’applicazione
Φ : E → R definita da
Φ(u) = ϕ(u, u) = ϕij ui uj
5
(1.23)
Una dimostrazione si trova in F.G. Tricomi, Lezioni di Analisi Matematica I (CEDAM, Padova).
10
Capitolo 1. Spazi vettoriali puri
è una forma quadratica tale che δΦ = ϕ. Infatti:
δΦ(u, v) =
=
=
1
2
1
2
1
2
Φ(u + v) − Φ(u) − Φ(v)
ϕ(u + v, u + v) − ϕ(u, u) − ϕ(v, v)
ϕ(u, u) + ϕ(v, v) + 2 ϕ(u, v) − ϕ(u, u) − ϕ(v, v)
= ϕ(u, v).
Vi è dunque una corrispondenza biunivoca fra forme quadratiche e forme bilineari simmetriche. Stante questa corrispondenza tutte le definizioni e le proprietà stabilite per le
forme bilineari si trasferiscono alle forme quadratiche, e viceversa.
Esempio 1.5.1 – Consideriamo E = R2 e la funzione
Φ : R2 → R : (x, y) 7→ x y.
Calcoliamone la polarizzazione seguendo la definizione (1.22) con u = (x1 , y1 ) e v =
(x2 , y2 ):
h
i
δΦ ((x1 , y1 ), (x2 , y2 )) = 12 (x1 + x2 )(y1 + y2 ) − x1 y1 − x2 y2
=
=
1
2
1
2
(x1 y1 + x1 y2 + x2 y1 + x2 y2 − x1 y1 − x2 y2 )
(x1 y2 + x2 y1 ) .
Se si fissa il vettore v = (x2 , y2 ), quest’ultima espressione è un binomio lineare in (x1 , y1 );
similmente, se si fissa il vettore u = (x1 , y1 ), essa è lineare in (x2 , y2 ). Pertanto la mappa
δΦ : R2 × R2 → R : ((x1 , y1 ), (x2 , y2 )) 7→
1
2
(x1 y2 + x2 y1 )
è bilineare e quindi Φ: R2 → R : (x, y) 7→ x y è una forma quadratica. •
Definizione 1.5.1 – Una forma quadratica Φ si dice semi-definita positiva (rispettivamente, semi-definita negativa) se
Φ(u) ≥ 0
(risp. Φ(u) ≤ 0)
∀u ∈ E.
In particolare si dice definita positiva (risp. definita negativa) se essa si annulla solo
sul vettore nullo, cioè se oltre alla condizione precedente vale l’implicazione
Φ(u) = 0
⇒
u = 0.
Si dice non definita o indefinita in tutti gli altri casi. •
In una base canonica si ha (si veda la (1.21))
Φ(u) =
p
p+q
X
X
(ua )2 −
(ub )2 .
a=1
b=p+1
(1.24)
11
1.5. Forme quadratiche
Di qui si osserva che: (a) una forma quadratica è semidefinita positiva se q = 0; (b) è
definita positiva se p = n. Analogamente per il caso negativo.
Per una forma bilineare simmetrica semi-definita positiva (o negativa) vale la disuguaglianza di Schwarz (Hermann Schwarz, 1843-1921)
ϕ(u, v)
2
≤ Φ(u)Φ(v),
∀ u, v ∈ E
(1.25)
Se in particolare ϕ è definita positiva (o negativa), allora si ha l’uguaglianza se e solo se
u e v sono dipendenti.
***
Dimostrazione dell’esistenza di basi canoniche. Basta dimostrare l’esistenza di basi ortogonali, per cui cioè ϕ(ei , ej ) = 0 per i 6= j. Se ϕ = 0 ogni base è ortogonale. Supponiamo
ϕ 6= 0 e procediamo per induzione sull’intero n = dim(E). Per n = 1 ogni vettore non nullo e ∈ E è una base ortogonale per qualunque forma bilineare simmetrica su E. Sia allora
n > 1 e si supponga che ogni forma bilineare simmetrica su di uno spazio di dimensione
< n ammetta una base ortogonale. Posto che ϕ 6= 0, esiste almeno un vettore u ∈ E per
cui ϕ(u, u) = Φ(u) 6= 0. Si consideri allora il sottospazio U = {v ∈ E | ϕ(u, v) = 0} dei
vettori ortogonali a u. Siccome u ∈
/ U , abbiamo m = dim(U ) ≤ n − 1. Per la restrizione
a U × U di ϕ esiste allora una base ortogonale (e1 , . . . , em ). D’altra parte, posto per ogni
v∈E
ϕ(u, v)
,
vn =
ϕ(u, u)
si vede che ϕ(u, v − v n u) = 0. Dunque v − v n u ∈ U e quindi
n
v =v u+
m
X
v i ei .
i=1
Ciò mostra che i vettori indipendenti (e1 , . . . , em , u) formano una base ortogonale di E (e
quindi anche che m = n − 1). 2
***
Dimostrazione del Teorema di Sylvester. Siano (ei ) e (ei0 ) due basi canoniche per la forma
bilineare simmetrica ϕ. Per la (1.24) si ha, per ogni u ∈ E, l’uguaglianza
Φ(u) =
p
X
a=1
a 2
(u ) −
p+q
X
b=p+1
0
b 2
(u ) =
p
X
a0 =1
a0 2
(u ) −
0 +q 0
pX
0
(ub )2 .
(1.26)
b0 =p0 +1
Si ha certamente p0 + q 0 = p + q = rank(ϕ). Occorre dimostrare che p0 = p. Si supponga
0
per assurdo p0 > p (e quindi q 0 < q). Considerata la relazione lineare ei = Eii ei0 tra le
due basi, si scriva il sistema lineare omogeneo
p+q
X
b=p+1
0
Ebb xb = 0,
b0 = p0 + 1, . . . , p0 + q 0 .
(1.27)
12
Capitolo 1. Spazi vettoriali puri
Si tratta di q 0 equazioni nelle q incognite (xp+1 , . . . , xp+q ). Siccome q 0 < q, questo sistema
ammette certamente una soluzione non nulla (up+1 , . . . , up+q ). Sia u ∈ E il vettore che
ha tutte le altre componenti nulle: u1 = . . . = up = up+q+1 = . . . = un = 0. Per la prima
parte della (1.26) si ha sicuramente Φ(u) < 0. Con una tale scelta si ha d’altra parte
0
0
ub = Eib ui =
p+q
X
0
Ebb ub = 0
b=p+1
perché (up+1 , . . . , up+q ) è una soluzione del sistema (1.27). Dalla seconda della (1.26) segue
allora Φ(u) ≥ 0: assurdo. Per simmetria l’ipotesi p0 < p conduce pure ad un assurdo.
Dunque p0 = p. 2
Dimostrazione della disuguaglianza di Schwarz. Fissati i vettori u e v, qualunque sia
x ∈ R, si ha Φ(u + x v) ≥ 0 perché Φ è semidefinita positiva. Questa disuguaglianza si
traduce in
T (x) ≡ x2 Φ(v) + 2 x ϕ(u, v) + Φ(u) ≥ 0,
(1.28)
2
dove Φ(v) ≥ 0. Se Φ(v) > 0, il discriminante ∆ = ϕ(u, v) − Φ(u)Φ(v) del trinomio
T (x) non può essere positivo, altrimenti T (x) avrebbe due radici reali e distinte e la (1.28)
sarebbe violata. Da ∆ ≤ 0 segue la disuguaglianza (1.25). Se Φ(v) = 0, perché la (1.28) sia
sempre soddisfatta deve essere necessariamente ϕ(u, v) = 0. La (1.25) è allora soddisfatta
come uguaglianza. Se u è proporzionale a v (in particolare nullo), si verifica subito che
vale l’uguaglianza nella (1.25). Viceversa, se vale l’uguaglianza risulta ∆ = 0 e pertanto
il trinomio T (x) ammette una radice doppia x0 tale che Φ(u + x0 v) = 0. Se Φ è definita
positiva deve necessariamente essere u + x0 v = 0. 2
Osservazione 1.5.1 – Le considerazioni qui svolte sulle forme quadratiche trovano applicazione nella teoria dei massimi e minimi di una funzione a più variabili e nella classificazione delle coniche, quadriche e iperquadriche. •
1.6
Endomorfismi lineari
Denotiamo con End(E) lo spazio delle applicazioni lineari L(E; E) di uno spazio vettoriale
E in se stesso, cioè lo spazio degli endomorfismi lineari di E. Denotiamo semplicemente
con BA la composizione di due endomorfismi B ◦ A. L’operazione di composizione degli
endomorfismi conferisce allo spazio End(E) la struttura di algebra associativa con unità;
l’unità è l’applicazione identica di E in se stesso, che denotiamo con idE o con 1E o
semplicemente con 1. Denotiamo con 0 : E → E l’applicazione che manda tutti i vettori
di E nello zero.
Gli endomorfismi invertibili sono detti automorfismi o trasformazioni lineari di E.
Formano un gruppo che denotiamo con Aut(E). Si denota con A−1 l’inverso di un
automorfismo A.
Scelta una base (ei ) dello spazio E, ad ogni endomorfismo A ∈ End(E) risulta associata
una matrice quadrata [Aji ]n×n , detta matrice delle componenti di A nella base (ei )
13
1.6. Endomorfismi lineari
e definita dall’uguaglianza
A(ei ) = Aji ej
(1.29)
Di conseguenza, l’uguaglianza v = A(u) si traduce, in componenti, nell’uguaglianza
v j = Aji ui
(1.30)
Infatti, posto che u = ui ei e v = v i ei , per la linearità di A e per la definizione (1.29),
si ha successivamente:
A(u) = A(ui ei ) = ui A(ei ) = ui Aji ej
da cui segue che ui Aji coincide con la componente v j di v.
Osservazione 1.6.1 – La matrice delle componenti dell’identità 1 è, qualunque sia la
base scelta, la matrice unitaria. Vale a dire:
(1)ij = δji . •
Osservazione 1.6.2 – Applicando ad entrambi i membri della definizione (1.29) un covettore εk della base duale di (ei ) si trova l’uguaglianza
Aki = hA(ei ), εk i
(1.31)
che fornisce le componenti di A in maniera ‘esplicita’.6 •
Osservazione 1.6.3 – La matrice delle componenti di un prodotto di endomorfismi è il
prodotto delle due rispettive matrici:
(AB)ji = Ajk Bik
(1.32)
Si ha infatti, applicando la (1.31) e la (1.29):
j
(AB)i
= hA(B(ei )), εj i = hA(Bik ek ), εj i
= Bik hA(ek ), εj i = Bik Ajk .
Si noti che se si conviene che l’indice in basso sia indice di colonna, il prodotto matriciale
nella (1.32) è righe per colonne: righe della prima matrice (Bik ) per le colonne della seconda
matrice (Ajk ). Si noti bene però che la scrittura Ajk Bik a secondo membro della (1.32) è
del tutto equivalente a Bik Ajk . •
6
La (1.29) le fornisce in maniera ‘implicita’.
14
Capitolo 1. Spazi vettoriali puri
Osservazione 1.6.4 – Gli automorfismi sono caratterizzati dalla risolubilità del sistema
lineare (1.30) rispetto alle (uj ), quindi dalla condizione
det[Aij ] 6= 0.
La matrice delle componenti di A−1 è l’inversa della matrice [Aij ]. •
***
Commutatore di due endomorfismi. Le due operazioni binarie interne fondamentali nello spazio degli endomorfismi End(E), consentono di definire una terza operazione binaria interna, il commutatore. Il commutatore di due endomorfismi A e B è
l’endomorfismo
[A, B] = AB − BA.
(1.33)
Si ha [A, B] = 0 se e solo se i due endomorfismi commutano. Il commutatore [·, ·] gode
delle seguenti proprietà:


[A, B] = − [B, A] ,




[aA + bB, C] = a [A, C] + b [B, C] ,
(1.34)




 [A, [B, C]] + [B, [C, A]] + [C, [A, B]] = 0.
Le prime due, di verifica immediata, mostrano che il commutatore è antisimmetrico e bilineare. La terza, la cui verifica richiede un semplice calcolo, prende il nome di identità
di Jacobi (Carl Gustav Jacob Jacobi, 1804-1851). Uno spazio vettoriale dotato di un’operazione binaria interna soddisfacente a queste tre proprietà prende il nome di algebra
di Lie (Marius Sophus Lie, 1842-1899). Dunque End(E) è un algebra di Lie. Vedremo
nel corso di queste lezioni altri esempi di algebre di Lie.
Nelle (1.34) la prima proprietà, cioè la proprietà anticommutativa, può essere sostituita
da
[A, A] = 0.
(1.35)
è infatti ovvio che la (1.34)1 implica la (1.35). Viceversa, se vale la (1.35) si ha successivamente:
0 = [A + B, A + B] = [A, A] + [B, B] + [A, B] + [B, A]
= [A, B] + [B, A] .
Di qui la (1.34)1.
1.7
Determinante e traccia di un endomorfismo
Sebbene la matrice delle componenti di un endomorfismo cambi al cambiare della base –
fanno eccezione l’endomorfismo nullo e quello identico – vi sono delle grandezze ad essa
15
1.7. Determinante e traccia di un endomorfismo
associate che invece non risentono di questo cambiamento. Queste grandezze si chiamano
invarianti dell’endomorfismo: pur essendo calcolate attraverso le componenti, non dipendono dalla scelta della base e sono quindi intrinsecamente legate all’endomorfismo. Il
seguente teorema mette in evidenza i primi due invarianti fondamentali.7
Teorema 1.7.1 – Il determinante det[Aij ] e la traccia Aii (cioè la somma degli elementi della diagonale principale) della matrice delle componenti di un endomorfismo non
dipendono dalla scelta della base.
Dimostrazione. Siano (ei ) e (ei0 ) due basi di E. Sussistono i legami8
0
ei = Eii ei0
ei0 = Eii0 ei
⇐⇒
(1.36)
0
dove (Eii ) e (Eii0 ) sono matrici regolari una inversa dell’altra, cioè tali che
0
Eii Eij0 = δij ,
0
Eii0 Eij = δij0 .
0
(1.37)
0
Siano (Aji ) e (Aji0 ) le matrici delle componenti di un endomorfismo A rispetto alle due
basi date. Secondo la definizione (1.29) abbiamo
j
A(ei ) = Ai ej ,
j0
A(ei0 ) = Ai0 ej 0 .
Facendo intervenire le relazioni (1.36) si ha successivamente:
0 0
0
0
0
0
Aji ej = A(ei ) = A Eii ei0 = Eii A (ei0 ) = Eii Aji0 ej 0 = Eii Aji0 Ejj0 ej
Si ottiene quindi l’uguaglianza
0
Aji = Eii Aji0 Ejj0
0
(1.38)
che esprime la legge di trasformazione delle componenti di un endomorfismo al
variare della base. La (1.38), essendo presenti a secondo membro le sommatorie sugli
0
j
j0
indici ripetuti i0 e j 0 , mostra che la matrice [Ai ] è il prodotto delle tre matrici [Eii ], [Ai0 ]
e [Ejj0 ]. Siccome il determinante del prodotto di matrici è uguale ai prodotti dei rispettivi
determinanti, risulta
0
0
det[Aji ] = det[Eii ] det[Aji0 ] det[Ejj0 ]
Ma
det[Eii ] det[Ejj0 ] = 1
0
7
8
Presto ne definiremo altri.
0
Se (εi ) e (εi ) sono le corrispondenti basi duali, allora sussistono i legami
0
0
εi = Eii εi
⇐⇒
0
εi = Eii0 εi
16
Capitolo 1. Spazi vettoriali puri
perché le due matrici coinvolte sono l’una inversa dell’altra. Segue
0
det[Aji ] = det[Aji0 ]
e la prima tesi del teorema è dimostrata. Ritorno ora alla (1.38) e vi pongo j = i
sottintendendo al solito la somma sull’indice ripetuto i:
0
Aii = Eii Aji0 Eji0 .
0
A primo membro ho la traccia della matrice [Aji ]. A secondo membro tengo ancora conto
della sommatoria su i e osservo che
0
0
Eii Eji0 = δji 0
essendo le due matrici coinvolte una inversa dell’altra. Ottengo dunque, per la proprietà
di δ,
0
j0 0
Aii = Ai0 δji 0 = Aii0 .
Anche la seconda parte della tesi è dimostrata. 2
Dopo questo teorema è lecito introdurre la seguente definizione:
Definizione 1.7.1 – Il determinante e la traccia di un endomorfismo A ∈ End(E)
sono i numeri
det A = det[Aij ],
trA = Aii ,
dove [Aij ] è la matrice delle componenti di A rispetto ad una qualunque base di E. •
Osservazione 1.7.1 – Si dimostra che per la traccia ed il determinante di un endomorfismo valgono le seguenti proprietà:

tr(A + B) = tr(A) + tr(B),






tr(a A) = a tr(A),






tr(AB) = tr(BA),



tr(1) = n,
(1.39)




det(AB) = det(A) det(B),






det(a A) = an det(A),





det(1) = 1. •
1.8
Polinomio caratteristico di un endomorfismo
Introduciamo ora un altro concetto fondamentale nella teoria degli endomorfismi lineari,
che come prima cosa ci consentirà di definire ulteriori invarianti.
17
1.8. Polinomio caratteristico di un endomorfismo
Definizione 1.8.1 – Dicesi polinomio caratteristico di un endomorfismo A ∈ End(E)
il polinomio di grado n = dim(E) nell’indeterminata x definito da:
P (A, x) = (−1)n det(A − x 1).
•
(1.40)
Essendo definito da un determinante, il polinomio caratteristico è un invariante, non
dipende cioè dalla scelta della base. Si ha pertanto, comunque si scelga la base
P (A, x) = (−1)n det(Aij − x δji )





n
= (−1) det 




A11 − x
A12
A21
...
An1
A22 − x . . .
An2
..
.
..
.
A1n
A2n
..
.
..
.
. . . Ann − x










(1.41)
Il segnante (−1)n che interviene in questa definizione ha il compito di rendere uguale
a 1 il coefficiente di xn . Infatti, guardando il determinante nella formula precedente si
vede che la potenza massima (n-esima) di x viene fuori dall prodotto degli elementi della
diagonale principale, e risulta essere (−x)n cioè (−1)n xn . Moltiplicando quindi il suddetto
determinante per (−1)n , come indicato nella (1.41), il coefficiente di xn si riduce a 1, come
asserito.
Ciò detto, è conveniente scrivere per esteso il polinomio caratteristico nella forma seguente:
P (A, x) =
Pn
k=0 (−1)
k I (A) xn−k
k
(1.42)
= xn − I1 (A) xn−1 + I2 (A) xn−2 − . . . + (−1)n In (A).
Siccome questo polinomio è invariante, sono invarianti tutti i suoi n coefficienti Ik (A)
(k = 1, . . ., n). Essi prendono il nome di invarianti principali di A.
Osservo subito che per x = 0 dalla (1.41) ottengo P (A, 0) = (−1)n det A, e dalla (1.42)
P (A, 0) = (−1)n In (A). Quindi, sempre grazie all presenza del segnate, trovo che
In (A) = det A
(1.43)
cioè che l’n-esimo invariante principale di A è proprio uguale al determinante di A.
Per quel riguarda gli altri invarianti, sviluppando il determinante nella (1.41) si arriva
a dimostrare il teorema seguente:
Teorema 1.8.1 – L’invariante principale Ik (A) è dato dalla somma dei minori principali
di ordine k della matrice [Aij ].
18
Capitolo 1. Spazi vettoriali puri
Ricordiamo che un minore principale è il determinante di una sottomatrice quadrata principale e che una sottomatrice quadrata si dice principale se la sua diagonale
principale è formata da elementi della diagonale principale della matrice che la contiene.
Applicando questo teorema per k = n si ritrova In (A) = det A, mentre per k = 1 si trova
I1 (A) = trA
(1.44)
Dunque tra gli invarianti principali ritroviamo non solo il determinante ma anche la traccia.
1.9
Autovalori e autovettori di un endomorfismo
Un sottospazio S ⊂ E si dice invariante rispetto ad un endomorfismo A se A(S) ⊂ S.
Un vettore v ∈ E non nullo si dice autovettore di A se esiste un numero reale λ tale da
aversi
A(v) = λ v.
(1.45)
Un autovettore genera un sottospazio di autovettori (se si include lo zero), di dimensione
1 e invariante, che prende il nome di autodirezione.
L’equazione (1.45) può anche scriversi
(A − λ 1)(v) = 0.
(1.46)
Scelta comunque una base di E, la (1.46) si traduce in un sistema di n equazioni lineari
omogenee nelle incognite (v i), componenti dell’autovettore v:
(Aji − λ δij ) v i = 0.
(1.47)
Tale sistema ammette soluzioni non banali se e solo se λ annulla il determinante della
matrice dei coefficienti, cioè, vista la definizione (1.40), se e solo se λ è radice del polinomio
caratteristico di A. Le radici del polinomio caratteristico, cioè le soluzioni dell’equazione
caratteristica, algebrica di grado n,
P (A, x) = 0,
prendono il nome di autovalori di A. Il loro insieme {λ1 , λ2, . . . , λn} prende il nome di
spettro di A.
Gli autovalori sono invarianti, nel senso sopra detto. Vista la forma (1.41) con cui si scrive
il polinomio caratteristico, dai noti teoremi sulle radici delle equazioni algebriche segue
che l’invariante principale Ik (A) è la somma di tutti i possibili prodotti di k autovalori.
Risulta in particolare:
I1 (A) = tr A = λ1 + λ2 + . . . + λn ,
(1.48)
In (A) = det A = λ1 λ2 . . . λn .
19
1.9. Autovalori e autovettori di un endomorfismo
Chiamiamo molteplicità algebrica di un autovalore λ, e la denotiamo con ma(λ), la sua
molteplicità come radice del polinomio caratteristico.
Gli autovalori possono essere reali o complessi.
Consideriamo il caso reale.
Ad ogni autovalore reale λ corrisponde un sottospazio Kλ ⊂ E di autovettori ad esso
associati, soluzioni cioè dell’equazione (1.45). Chiamiamo molteplicità geometrica di
λ la dimensione del sottospazio invariante associato Kλ , e la denotiamo con mg(λ). Si
dimostra (la dimostrazione è in appendice al paragrafo) che è sempre
ma(λ) ≥ mg(λ)
(1.49)
Tuttavia, per alcuni tipi di endomorfismi vale sempre l’uguaglianza, per esempio per gli
endomorfismi simmetrici in spazi strettamente euclidei, che esamineremo più avanti. Osserviamo che sottospazi invarianti Kλ1 e Kλ2 corrispondenti ad autovalori distinti hanno
intersezione nulla:
λ1 6= λ2
=⇒
Kλ1 ∩ Kλ2 = 0
(1.50)
***
Dimostrazione della disuguaglianza (1.49). Sia λ un autovalore reale di un endomorfismo
A. L’equazione caratteristica di A può ovviamente anche scriversi
h
i
det (A − λ1) − (x − λ) 1 = 0,
cioè
(x − λ)n − I1 (A − λ1)(x − λ)n−1 + . . . + (−1)n In (A − λ1) = 0, ¶[†
facendo intervenire gli invarianti principali dell’endomorfismo A − λ1. Osserviamo ora che
lo spazio invariante Kλ degli autovettori associati a λ è il nucleo di questo endomorfismo,
e quindi
mg(λ) = n − rank(A − λ 1) = n − r.
Il rango r dell’endomorfismo (A − λ 1) coincide con il rango della matrice (Aji − λ δij ),
comunque si scelga la base. Segue che gli invarianti
In (A − λ 1), . . . , Ir+1 (A − λ 1),
sono tutti nulli perché somma di minori principali di ordine maggiore di r della matrice
[Aji − λ δij ]. Pertanto l’equazione caratteristica † si riduce in effetti all’equazione
(x − λ)n − I1 (A − λ 1)(x − λ)n−1 + . . . + (−1)r Ir (A − λ 1)(x − λ)n−r = 0.
Di qui si vede che λ è una radice di ordine n − r almeno, perché, pur essendo per ipotesi i
minori di ordine r non tutti nulli, non si può escludere che la somma di quelli principali,
20
Capitolo 1. Spazi vettoriali puri
vale a dire l’invariante Ir (A − λ1), non si annulli. Dunque: ma(λ) ≥ n − r. Questa dimostrazione vale anche nel caso in cui λ è complesso, perché anche in questo caso
mg(λ) = n − r dove r è il rango della matrice (Aji − λ δij ). 2
***
Se λ è un autovalore complesso allora gli autovettori associati sono complessi: il sistema
(1.46) fornisce soluzioni complesse v i = ui + i w i.
Si è cosı̀ condotti a considerare la complessificazione dello spazio E, cioè lo spazio C(E)
delle combinazioni v = u + i w, con u, w ∈ E, per le quali si definiscono le due operazioni
di somma e di prodotto per un numero complesso in maniera formalmente analoga a quella
della somma e del prodotto di numeri complessi.
Poiché l’equazione caratteristica ha coefficienti reali, ad ogni autovalore complesso λ =
a + ib corrisponde un autovalore coniugato λ̄ = a − ib avente la stessa molteplicità. Si
osserva inoltre che se v = u + i w è autovettore associato a λ, allora il vettore coniugato
v̄ = u − i w è autovettore associato a λ̄, e che ogni altro vettore complesso ottenuto
moltiplicando v per un numero complesso qualunque è ancora autovettore associato a λ.
Osservazione 1.9.1 – Se v = u + i w è un autovettore associato ad un autovalore strettamente complesso λ = a + ib (cioè tale che b 6= 0), allora i vettori reali componenti (u, w)
sono indipendenti. In caso contrario infatti, da una relazione del tipo u = cw seguirebbe
v = (c + i)w e quindi dalla (1.45), dividendo per c + i, A(w) = λ w con λ solo elemento complesso: assurdo. Decomposta allora la (1.45) nella sua parte reale e immaginaria,
risulta
A(u) = au − bw,
A(w) = aw + bu.
(1.51)
Di qui si osserva che il sottospazio generato dai vettori indipendenti (u, w) è invariante
in A. Sia Π questo sottospazio (bidimensionale) e si Π0 il sottospazio invariante corrispondente ad un secondo vettore complesso v0 = u0 + iw0 sempre associato a λ. Non può
che essere Π = Π0 oppure Π ∩ Π0 = 0. Infatti, se un vettore non nullo x appartenesse
all’intersezione, con opportuna moltiplicazione degli autovettori per un numero complesso,
ci si può ricondurre al caso in cui u = u0 = x. Dalla prima delle (1.51) seguirebbe
A(x) = ax − bw,
A(x) = aw + bx,
da cui b(w − w 0 ) = 0, quindi w = w0 . Ciò significa che v = v0 e quindi che Π = Π0 .
Da queste proprietà si deduce che ogni autovalore complesso λ individua un sottospazio
invariante Kλ che è somma diretta di sottospazi invarianti bidimensionali. La sua dimensione è quindi pari e inoltre Kλ = Kλ̄ . In questo caso per molteplicità geometrica di λ
s’intende la metà della dimensione di Kλ . Vale ancora la disuguaglianza (??), mentre la
(1.50) va sostituita dalla più generale
λ1 6= λ2 , λ1 6= λ̄2
=⇒
Kλ1 ∩ Kλ2 = 0
•
(1.52)
21
1.10. Il teorema di Hamilton-Cayley
1.10
Il teorema di Hamilton-Cayley
Dato un endomorfismo A, se ne possono considerare le potenze:
A0 = 1,
A1 = A,
A2 = A A,
...
Ak = A
. . . A},
| A{z
...
k volte
Quindi ad ogni polinomio di grado k
Pk (x) = a0 xk + a1 xk−1 + . . . + ak
si può associare l’endomorfismo
Pk (A) = a0 Ak + a1 Ak−1 + . . . + ak 1.
Un polinomio Pk (x) si dice annichilante di A se Pk (A) si annulla identicamente.
Sussiste a questo proposito il notevole teorema di Hamilton-Cayley (William Rowan
Hamilton, 1805-1865; Arthur Cayley, 1821-1895):
Teorema 1.10.1 – Il polinomio caratteristico di un endomorfismo è annichilante:
An − I1 (A) An−1 + I2 (A) An−2 − . . . + (−1)n In (A) 1 = 0.
Una prima importante conseguenza di questo teorema è che la potenza n-sima di un
endomorfismo risulta essere una combinazione lineare delle precedenti, inclusa A0 = 1.
Cosı̀ dicasi delle potenze An+1 e successive. Pertanto: tutte le potenze di un endomorfismo
A formano un sottospazio di End(E) al più di dimensione n, generato dall’identità 1 e
dalle prime n − 1 potenze di A.9
***
Dimostrazione del teorema di Hamilton-Cayley. Basiamo la dimostrazione sull’osservazione seguente. Se sussite un’uguaglianza del tipo
C(x) (A − x 1) = Pk (x) 1
(1.53)
dove Pk (x) è un polinomio di grado k e dove C(x) è un polinomio di grado k − 1 in x a
coefficienti in End(E), cioè del tipo
C(x) = xk−1 C 1 + xk−2 C 2 + . . . + x C k−1 + C k ,
allora Pk (A) = 0 cioè Pk (x) è annichilante di A. Infatti, esplicitata questa uguaglianza
xk−1 C 1 + xn−2 C 2 + . . . + x C n−1 + C n A − x 1
9
= a0 xk + a1 xk−1 + . . . + ak 1
Al più, perché non è escluso che l’identità 1 e le prime n − 1 potenze di A siano linearmente dipendenti.
22
Capitolo 1. Spazi vettoriali puri
ed uguagliati i coefficienti delle varie potenze di x, si trova che

− C 1 = a0 1,






C A − C 2 = a2 1,


 1
···




C k−1 A − C k = ak−1 1,





C k A = ak 1.
Moltiplicando a destra rispettivamente per Ak , Ak−1 , . . . , A le prime k di queste uguaglianze, e sommando poi membro a membro si trova 0 = Pk (A), come asserito. Ciò posto,
si tiene conto del fatto, dimostrato più avanti (§ 1.19), che per ogni endomorfismo B esiste
e l’endomorfismo complementare, per cui
sempre un endomorfismo B,
e B = det(B) 1.
B
Se ora si prende l’endomorfismo B = A − x 1, con indeterminata x, per la definizione di
polinomio caratteristico l’uguaglianza precedente diventa
e (A − x 1) = P (A, x) 1.
(−1)n B
e perché l’endomorfismo
Questa è del tipo (1.53), con k = n e C(x) = (−1)n B,
e
complementare B ha come componenti dei determinanti di ordine n − 1 della matrice
[Bji ] = [Aij − x δji ], ed è quindi un polinomio di grado n − 1 in x. Pertanto P (A, A) = 0. 2
1.11
Tensori
La nozione di “tensore” ha avuto origine dalla teoria dell’elasticità. Si è successivamente
sviluppata nell’ambito dell’algebra lineare e della geometria differenziale, trovando notevoli
applicazioni in vari rami della fisica-matematica.
Per arrivare a comprendere questa nozione partiamo da questa osservazione: abbiamo già
esaminato la nozione di forma bilineare e di endomorfismo su di uno spazio vettoriale E.
Assegnata una base di E le componenti di una forma bilineare e di un endomomorfismo
formano due matrici quadrate n × n, dove n = dim E:
[ϕij ]
e [Aji ].
Quindi l’analisi e l’applicazione di queste due nozioni deve ricorrere al calcolo delle matrici
(quadrate). Questo è una circostanza che le accomuna, pur essendo due nozioni ben distinte. Ma, come vedremo, un altro fatto le accomuna: le forme bilineari e gli endomorfismi
possono essere visti come “tensori”.
Una generale definizione di tensore è la seguente:
23
1.11. Tensori
Definizione 1.11.1 – Un tensore di tipo (p, q) sopra uno spazio vettoriale E è un’applicazione multilineare del prodotto
(E ∗)p × E q = |E ∗ × E ∗ {z
× . . . × E}∗ × |E × E ×
{z. . . × E}
p volte
q volte
in R. Un tensore di tipo (0, 0) è per definizione un numero reale. Denotiamo con Tqp(E)
lo spazio tensoriale di tipo (p, q) su E, cioè lo spazio
Tqp (E) = L(E ∗ , E ∗, . . . , E ∗, E, E, . . ., E ; R),
|
{z
} |
{z
}
p volte
q volte
ponendo inoltre, per (p, q) = (0, 0),
T00 (E) = R.
•
p
Vediamo che cosa è lo spazio Tq (E) per i primi valori della coppia di interi (p, q) non
entambi nulli. Innanzitutto:
T01 (E) = L(E ∗; R) = E ∗∗ = E,
T10 (E) = L(E; R) = E ∗ ,
T20 (E) = L(E, E; R) (forme bilineari su E),
(1.54)
T02 (E) = L(E ∗, E ∗; R) (forme bilineari su E ∗ ).
Poi:
T11 (E) = L(E ∗, E; R) = End(E)
(1.55)
Quest’ultima uguaglianza segue dall’esistenza di un isomorfismo canonico tra lo spazio
L(E ∗ , E; R) e lo spazio degli endomorfismi su E, definito dall’uguaglianza
A(α, v) = hA(v), αi,
∀α ∈ E ∗, v ∈ E.
(1.56)
A sinistra A è interpretato come elemento di L(E ∗, E; R), a destra come endomorfismo
lineare. In componenti abbiamo:
A(α, v) = Aji αj v i .
Definizione 1.11.2 – Sia (ei ) una base di E e (εi ) la sua duale in E ∗ . Diciamo
componenti di un tensore K ∈ Tqp (E) secondo la base (ei ) gli np+q numeri
i ...i
Kj11...jpq = K(εi1 , . . . , εip , ej1 , . . . ejq )
•
(1.57)
24
Capitolo 1. Spazi vettoriali puri
Per esempio, le componenti di untensore K ∈ T21 (E) sono gli n3 numeri10
i
Kjh
= K(εi , ej , eh ).
(1.58)
Si osservi la corrispondenza nella posizione degli indici a primo e a secondo membro di
queste uguaglianze.
Le componenti servono, innanzitutto, a calcolare il valore del tensore sui vettori e covettori.
Prendendo ad esempio il caso precedente, risulta:
i
K(α, u, v) = Kjh
αi uj v h .
(1.59)
Inoltre, al variare della base secondo le formule (1.36) e in analogia alla (1.38), le componenti di un tensore di tipo (1,2) variano secondo la legge
i
Kji0 h0 = Eii Ejj0 Ehh0 Kjh
.
0
0
(1.60)
Questa formula si deduce direttamente dalla definizione (1.58) scritta per la base “accentata”, tenendo conto quindi delle relazioni fra le basi, ed è facilmente estendibile al caso di
un tensore di tipo qualunque, tenendo conto del formalismo degli indici ripetuti in alto e in
basso. A questo proposito osserviamo che per passare dalla base (ei ) alla base “accentata”
(ei0 ) viene usata la matrice (Eii0 ), con l’accento in basso. Gli indici in basso non accentati
delle componenti vengono trasformati in indici accentati (sempre in basso) con la stessa
matrice. Per questo gli indici in basso delle componenti vengono detti indici covarianti.
Quelli in alto, invece, vengono detti indici contravarianti, perché nel trasformarsi fanno
intervenire la matrice inversa. Pertanto, un tensore di tipo (p, q) viene anche detto tensore
a p indici di contravarianza e q indici di covarianza. Un tensore di tipo (p, 0) viene detto tensore contravariante di ordine p, un tensore di tipo (0, q) tensore covariante
di ordine q. Denoteremo gli spazi tensoriali T0p (E) e Tq0 (E) semplicemente con T p (E) e
Tq (E).
1.12
Somma tensoriale
Sui tensori possono definirsi varie operazioni che nel loro insieme costituiscono il cosiddetto
calcolo tensoriale.
Innanzitutto vediamo la somma di due tensori. Essa può eseguirsi, a prima vista, solo fra tensori dello stesso tipo. Tuttavia in molte circostanze, come questa, torna utile
considerare la somma diretta di tutti gli spazi tensoriali, di tutti i tipi, ordinati come
segue:
T (E) = T00 (E) ⊕ T01 (E) ⊕ T10 (E) ⊕ T02 (E) ⊕ T11 (E) ⊕ T20 (E) ⊕ T03 (E) ⊕ . . .
= R ⊕ E ⊕ E ∗ ⊕ T02 (E) ⊕ T11 (E) ⊕ T20 (E) ⊕ T03 (E) ⊕ . . .
10
(1.61)
Se si vuole, si può dire che le componenti di un tensore di questo tipo formano una “matrice cubica”
di lato n.
25
1.13. Prodotto tensoriale
Questo è lo spazio tensoriale su E.11 Un tensore K di tipo (p, q) può essere inteso come
elemento di T (E): lo si identifica con la successione costituita da tutti zeri e con K al
posto (p, q). Per esempio, se A ∈ T11 (E), allora si può intendere
A = 0⊕0⊕0⊕0⊕A⊕0⊕···
dove a secondo membro A è al quinto posto nella successione (1.61). Un siffatto elemento
di T (E) viene detto omogeneo. Pertanto ogni spazio tensoriale di tipo (p, q) può essere
inteso come sottospazio di T (E).
Su T (E) si introduce l’operazione di somma diretta ⊕, definita sommando le singole
componenti omogenee.
1.13
Prodotto tensoriale
Dati due tensori, di tipo qualsiasi, K ∈ Tqp(E) e L ∈ Tsr (E), il loro prodotto tensoriale12
K ⊗L
p+r
è per definizione un tensore di tipo (p + r, q + s): K ⊗ L ∈ Tq+s
. Dunque, secondo la
definizione generale di tensore, è innanzitutto un’applicazione multilineare
∗
∗
K ⊗ L: E
× . . . × E }∗ × |E × E ×
| × E {z
{z. . . × E} → R.
p+r volte
q+r volte
Quando K ⊗ L viene applicato ad una successione di p + r covettori
α1 , α2 , . . ., αp , β1 , β2 , . . . , βr ,
(1.62)
a1 , a2 , . . . , aq , b1 , b2 , . . . , bs ,
(1.63)
e di q + s vettori,
il primo fattore K si prende i primi p covettori ed i primi q vettori e fornisce il numero
K(α1 , α2 , . . ., αp ; a1 , a2 , . . . , aq ).
Il secondo fattore L prende quel che resta e fornisce il numero
L(β1 , β2 , . . . , βr ; b1 , b2 , . . . , bs ).
Allora, il valore di K ⊗ L sulle due successioni (1.62) e (1.63) è per definizione il prodotto
di questi due numeri.
Per esempio, se K ∈ T21 (E) e L ∈ T11 (E), K ⊗ L è il tensore di tipo (2, 3) tale che
(K ⊗ L)(α, β, u, v, w) = K(α, u, v) · L(β, w),
per ogni α, β ∈ E ∗ , u, v, w ∈ E.
11
12
è uno spazio vettoriale di dimensione infinita.
Si legge K tensore L.
(1.64)
26
Capitolo 1. Spazi vettoriali puri
Osservazione 1.13.1 – Il prodotto tensoriale non è commutativo: K ⊗ L è in generale
diverso da L ⊗ K. Due tensori possono commutare in casi speciali, per esempio se K è
un tensore covariante e L un tensore contravariante. •
Osservazione 1.13.2 – Il prodotto tensoriale di due tensori si estende per linearità agli
elementi non omogenei della somma diretta T (E). Il prodotto tensoriale è associativo:
K ⊗ (L ⊗ M ) = (K ⊗ L) ⊗ M .
Se uno dei due tensori è di tipo (0, 0), cioè un numero reale, il prodotto tensoriale è
l’ordinario prodotto per uno scalare a ∈ R:
a ⊗ K = K ⊗ a = a K.
(1.65)
Con le due operazioni di somma ⊕ e prodotto ⊗ lo spazio T (E) assume la struttura di
algebra associativa: è l’algebra tensoriale su E. •
Osservazione 1.13.3 – La comprensione del concetto di prodotto tensoriale è facilitata
dal fatto che, come si riconosce facilmente, le componenti del prodotto tensoriale K ⊗ L
sono il prodotto delle componenti di K e L rispettivamente. Per esempio, se K ∈ T21 (E)
e L ∈ T11 (E), allora
j
i
(K ⊗ L)ij
(1.66)
hkl = Khk Ll . •
Vediamo ora alcuni casi particolari ma fondamentali di prodotto tensoriale.
1 Prodotto tensoriale a ⊗ b di due vettori a, b ∈ E. È l’applicazione bilineare
a ⊗ b: E ∗ × E ∗ → R
definita da
(a ⊗ b) (α, β) = ha, αi hb, βi.
(1.67)
2 Prodotto tensoriale α ⊗ β di due covettori α, β ∈ E ∗ è l’applicazione bilineare
α ⊗ β: E × E → R
definita da
(α ⊗ β) (a, b) = ha, αi hb, βi.
(1.68)
3 Prodotto tensoriale a ⊗ α di un vettore per un covettore: è l’applicazione
bilineare
a ⊗ α : E∗ × E → R
tale che
(a ⊗ α) (β, b) = ha, βi hb, αi.
In questo caso il prodotto è commutativo: a ⊗ α = α ⊗ a.
(1.69)
27
1.14. Basi tensoriali
1.14
Basi tensoriali
L’assegnazione di una base (ei ) dello spazio vettoriale E genera automaticamente una base
per ogni spazio tensoriale Tqp (E). Sia εi ) la base duale su E ∗ . Partiamo, come al solito,
dai casi più semplici.
1 I prodotti ei ⊗ ej formano una base di T20 (E), cioè delle forme bilineari su E ∗ , sicché
per ogni forma bilineare
K : E∗ × E∗ → R
(1.70)
vale la rappresentazione13
K = K ij ei ⊗ ej
(1.71)
K ij = K(εi , εj )
(1.72)
con le componenti K ij definite da
Infatti per ogni coppia di covettori α, β ∈ E ∗ per la (1.70) e per la definizione di prodotto
tensoriale si ha
K(α, β) = K ij ei ⊗ ej (α, β) = K ij αi βj .
D’altra parte, per la (1.71) e per la bilinearità risulta
K ij αi βj = K(εi , εj ) αi βj = K(αi εi , βj εj ) = K(α, β),
ed il ciclo si chiude.
2 I prodotti εi ⊗ εj formano una base di T02 (E), cioè delle forme bilineari su E
K : E × E → R,
(1.73)
e valgono contemporaneamente le formule, analoghe alle (1.71) e (1.72),
K = Kij εi ⊗ εj
(1.74)
Kij = K(ei , ej )
(1.75)
3 I prodotti tensoriali ei ⊗ εj formano una base dello spazio tensoriale
T11 (E) = L(E ∗, E; R) = End(E)
degli endomorfismi lineari su E. Per ogni endomorfismo K valgono le formule
K = Kij ej ⊗ εi
13
Si sottintende sempre la somma sugli indici ripetuti in alto e in basso.
(1.76)
28
Capitolo 1. Spazi vettoriali puri
con le componendi Aji definite come nella formula (1.31):
Kij = hK(ei ), εj i
(1.77)
Da questi esempi traiamo la regola generale: i prodotti tensoriali
ei1 ⊗ ei2 ⊗ . . . ⊗ eip ⊗ εj1 ⊗ εj2 ⊗ . . . ⊗ εjq
(1.78)
costituiscono una base di Tqp(E) e per ogni K ∈ Tqp (E) vale la rappresentazione
i i ...i
K = Kj11j22 ...jpq ei1 ⊗ ei2 ⊗ . . . ⊗ eip ⊗ εj1 ⊗ εj2 ⊗ . . . ⊗ εjq
(1.79)
i i ...i
dove le componenti Kj11j22 ...jpq sono definite come nella (1.57).
Gli elementi della base (1.78) sono in numero pari alle disposizioni con ripetizione di p + q
oggetti, cioè np+q . Pertanto,
dim(Tqp(E)) = np+q .
(1.80)
1.15
Contrazione o saturazione di due indici
Vi è una terza operazione importante eseguibile su di un tensore. Dato un tensore K di
tipo qualsiasi (p, q), purché con p e q non entrambi nulli, di componenti
i i ...i
p
Kj11,j22 ,...,j
q
si può prendere uno degli indici contravarianti (in alto) e porlo uguale ad uno degli indici
covarianti (in basso) ed intendere di eseguire la sommatoria su questi, secondo la convenzione degli indici ripetuti. Si dimostra che, cosı̀ facendo, si ottiene un tensore di tipo
(p − 1, q − 1).14 Una tale operazione prende il nome di contrazione o saturazione.
i , ho due possibilità di saturazione:
Per esempio, se K ∈ T21 (E) ha componenti Khj
i
Uj = Kij
,
i
Vh = Khi
.
In entrambi i casi si ottiene un covettore. Questi però sono in generale diversi. Altri due
esempi:
1. Se A ∈ T11 (E) = End(E), con componenti Aij , allora la saturazione dei suoi due indici
fornisce la traccia dell’endomorfismo A: Aii = tr(A).
2. Il vettore u = A(v), immagine del vettore v secondo un endomorfismo A, può essere
anche interpretato come contrazione del prodotto tensoriale A ⊗ v, perché quest’ultimo
j
j
ha componenti Ai v k e le componenti di u sono uj = Ai v i.
14
La dimostrazione si basa sull’equazione di trasformazione delle componenti di un tensore al variare
della base.
29
1.16. Tensori antisimmetrici
1.16
Tensori antisimmetrici
Definizione 1.16.1 – Un tensore A ∈ Tp0 (E) si dice antisimmetrico se per ogni scambio di due suoi qualunque argomenti il suo valore cambia di segno:
A(. . . , u, . . . , v, . . .) = − A(. . . , v, . . . , u, . . .).
Cosı̀ dicasi per un tensore A ∈ T0p (E). I vettori, i covettori e gli scalari, che sono di
tipo (0, 1), (1, 0) e (0, 0) rispettivamente, sono per definizione antisimmetrici. L’intero p
prende il nome di grado del tensore antisimmetrico. •
I tensori antisimmetrici svolgono un ruolo importante nelle applicazioni del calcolo tensoriale. Si dimostra che i tensori antisimmetrici contenuti in Tp0 (E) (rispettivamente, in
T0p (E)) ne formano un sottospazio che denotiamo con Φp(E) (rispettivamente, con V p (E)).
Il teorema seguente fornisce una definizione equivalente di antisimmetria:
Teorema 1.16.1 – Un tensore A ∈ Tp0 (E) è antisimmetrico se e solo se esso si annulla
quando due dei suoi argomenti coincidono. Lo stesso dicasi per A ∈ T0p (E).
Dimostrazione. È sufficiente dimostrare questo teorema nel caso p = 2. Da A(u, v) =
− A(v, u) segue ovviamente A(u, u) = 0. Viceversa se A(v, v) = 0 per ogni v, allora si
ha, ponendo v = v 1 + v2 ,
0 = A(v1 + v2 , v1 + v 2 )
= A(v1 , v1 ) + A(v1 , v2 ) + A(v2 , v1 ) + A(v2 , v2 )
= A(v1 , v2 ) + A(v2 , v1 ),
vale a dire
A(v1 , v2 ) = − A(v2 , v1 ). 2
Due implicazioni notevoli:
Teorema 1.16.2 – 1. Un tensore antisimmetrico si annulla quando i suoi argomenti
sono linearmente dipendenti. 2. Un tensore antisimmetrico con p > n è nullo.
Dimostrazione. 1. Se A ∈ Φp(E) e se uno dei suoi argomenti (v1 , v2 , . . . , vp ), per
esempio v1 è combinazione lineare dei rimanenti, allora A(v1 , v2 , . . . , vp) si decompone
nella combinazione lineare di numeri del tipo A(v∗ , v2 , . . . , vp ) dove v∗ è via via uguale
a v 2 , . . ., v p , i quali numeri, per via del Teorema 1.16.1, sono tutti nulli. 2. Se p > n i
vettori (v1 , v2 , . . . , vp) sono sempre dipendenti. 2
Osservazione 1.16.1 – Di conseguenza, gli spazi V p (E) e Φp (E) per p > n si riducono
ad un solo elemento: lo zero. •
30
Capitolo 1. Spazi vettoriali puri
Esempio 1.16.1 – Sia E lo spazio vettoriale euclideo tridimensionale. Ponendo
η(u, v, w) = u · v × w
(prodotto misto).
si definisce un tensore covariante antisimmetrico η di ordine 3 detto forma volume.15 •
Esempio 1.16.2 – Sia E = Rn : un vettore è una n-pla di numeri reali v = (v 1 , v 2, . . . , v n).
Una n-pla di vettori (vi ) = (vi1 , vi2, . . . , vin) dà luogo ad una matrice quadrata [vij ]n×n .
Ponendo
A(v1 , v2 , . . . , vn ) = det[vij ]
si definisce un tensore covariante antisimmetrico di ordine n sopra Rn . •
Dal Teorema 1.16.1 si può dedurre un’ulteriore caratterizzazione (o definizione equivalente)
di antisimmetria.
Per ogni intero p > 1 denotiamo con Gp il gruppo delle permutazioni di
p elementi, detto gruppo simmetrico di ordine p. Denotiamo con εσ il
segno di una permutazione σ ∈ Gp: uguale a +1 o −1 a seconda che σ
sia pari o dispari, vale a dire composta da un numero pari o dispari di
scambi. Ricordiamo che Gp è costituito da p! elementi.
Teorema 1.16.3 – Un tensore covariante A ∈ Tp0 (E) è antisimmetrico se e solo vale
l’uguaglianza
A(v1 , . . . , vp ) = εσ A σ(v1 , . . . , vp ) ,
∀ v 1 , . . . , vp ∈ E,
(1.81)
ovvero
A = εσ A ◦ σ,
(1.82)
per ogni σ ∈ Gp . Analogamente per un tensore contravariante A ∈
1.17
T0p(E).
Antisimmetrizzazione
Per studiare meglio i tensori antisimmetrici è opportuno introdurre il concetto di “antismmetrizzazione”.
Definizione 1.17.1 – Per ogni p > 1 si introduce l’applicazione lineare
A : Tp0 (E) → Φp (E) : T 7→ A(T )
chiamata operatore di antisimmetrizzazione e definita da
A(T ) =
15
Vedi § 2.4.1.
1 P
σ∈Gp εσ T
p!
◦
σ
(1.83)
31
1.18. Prodotto esterno
cioè da
A(T )(v1 , . . . , vp) =
per ogni v 1 , . . . , vp ∈ E. •
1 P
σ∈Gp εσ T σ(v1 , . . . , v p )
p!
(1.84)
Per rendere effettiva questa definizione dobbiamo verificare che il tensore T A è antisimmetrico. Volendo applicare il Teorema 1.16.3, osserviamo che per qualunque τ ∈ Gp si ha
successivamente:
ετ A(T ) ◦ τ
1 P
σ∈Gp ετ εσ T ◦ σ ◦ τ
p!
1 P
=
σ∈Gp εσ·τ T ◦ σ ◦ τ
p!
1 P
=
σ·τ ∈Gp εσ·τ T ◦ (σ ◦ τ ) = A(T ),
p!
=
tenuto conto che εσ·τ = ετ εσ e inoltre che, mentre σ varia in tutto Gp , anche σ ◦ τ varia
in tutto Gp.
Tutto quanto precede si riferisce a tensori covarianti (indici in basso) ma si può ripetere
per i tensori contravarianti (indici in alto), per i quali l’operatore di antisimmetrizzazione
è l’applicazione lineare
A : T0p (E) → V p (E) : T 7→ A(T )
definita come nella (1.83).
1.18
Prodotto esterno
Definizione 1.18.1 – Il prodotto esterno di due covettori α e β, denotato con α∧β,
è il tensore antisimmetrico covariante di grado 2 definito da
α∧β =
ovvero da
(α ∧ β) (v1 , v2 ) =
1
2
1
2
(α ⊗ β − β ⊗ α)
(1.85)
hv1 , αi hv2 , βi − hv1 , βi hv2 , αi
(1.86)
Analogamente, il prodotto esterno di due vettori a e b, denotato con a ∧ b, è il tensore
antisimmetrico contravariante di grado 2 definito da
a∧b=
ovvero da
(a ∧ b) (α1 , α2 ) =
1
2
1
2
(a ⊗ b − b ⊗ a)
ha, α1 i hb, α2 i − ha, α2 i hb, α1 i
(1.87)
•
(1.88)
32
Capitolo 1. Spazi vettoriali puri
Osserviamo che facendo intervenire l’operatore di antisimmetrizzazione si hanno le definizioni equivalenti:
α ∧ β = A(α ⊗ β)
(1.89)
a ∧ b = A(a ⊗ b)
(1.90)
Infatti, se applichiamo la definizione (1.84), osservato che in questo caso p = 2 e che G2 è
costituito da soli due elementi, l’identità e lo scambio, troviamo
P
A(α ⊗ β)(v1 , v2 ) = 12
ε
(α
⊗
β)
σ(v
,
v
)
σ
1
2
σ∈G2
=
1
2
(α ⊗ β) (v1 , v2 ) −
1
2
(α ⊗ β) (v2 , v1 )
=
1
2
(α ⊗ β) (v1 , v2 ) −
1
2
(β ⊗ α) (v1 , v2 )
=
1
2
(α ⊗ β − β ⊗ α) (v1 , v2 ).
Analogamente per il caso a ∧ b.
Le formule (1.89) e (1.90) suggeriscono una naturale estensione del prodotto esterno al
caso di più di due vettori o covettori:
Definizione 1.18.2 – Il prodotto esterno di p covettori α1 , . . . , αp e di p vettori
a1 , . . . , ap è definito dalle formule
α1 ∧ . . . ∧ αp = A(α1 ⊗ . . . ⊗ αp)
(1.91)
a1 ∧ . . . ∧ ap = A(a1 ⊗ . . . ⊗ ap )
(1.92)
ovvero, vista la (1.84), dalle formule
(α1 ∧ . . . ∧ αp ) (v1 , . . . , vp) =
1 P
σ∈Gp εσ (α1 ⊗ . . . ⊗ αp ) σ(v 1 , . . . , vp )
p!
(a1 ∧ . . . ∧ ap ) (α1 , . . . , αp) =
1 P
σ∈Gp εσ (a1 ⊗ . . . ⊗ ap ) σ(α1 , . . . , αp )
p!
•
(1.93)
(1.94)
Per esempio, per p = 3 dalla definizione (1.83) risulta:
α1 ∧ α2 ∧ α3 =
1
6
h
α1 ⊗ α2 ⊗ α3 + α2 ⊗ α3 ⊗ α1 + α3 ⊗ α1 ⊗ α2
i
− α2 ⊗ α1 ⊗ α3 + α1 ⊗ α3 ⊗ α2 + α3 ⊗ α2 ⊗ α1
(1.95)
33
1.19. Algebra esterna
Nella prima riga abbiamo le permutazioni cicliche, quindi pari, dei tre indici (1, 2, 3). Nella
seconda riga, col segno −, abbiamo quelle dispari.
Analogamente per il prodotto esterno di tre vettori.
Osservazione 1.18.1 – Il prodotto esterno di p covettori (o vettori) cambia di segno
quando si scambiano fra loro due elementi. Per esempio:
α2 ∧ α1 ∧ α3 = − α1 ∧ α2 ∧ α3 ,
α3 ∧ α2 ∧ α1 = − α1 ∧ α2 ∧ α3 . •
1.19
Algebra esterna
Il prodotto esterno che abbiamo definito nel paragrafo precedente è alla
base di un tipo di calcolo che trova svariate utili applicazioni: l’algebra
esterna.
Questo calcolo si basa sulle seguenti circostanze.
1 Per ogni intero p > 0 i prodotti esterni
α1 ∧ . . . ∧ αp ,
α∗ ∈ E ∗
(1.96)
a1 ∧ . . . ∧ ap ,
a∗ ∈ E
(1.97)
prendono rispettivamente il nome di p-forme elementari e p-vettori elementari. le
loro combinazioni lineari generano rispettivamente lo spazio Φp (E) delle p-forme e lo
spazio V p (E) dei p-vettori.
2 Date due forme elementari α = α1 ∧ . . . ∧ αp e β = β1 ∧ . . . ∧ β q , di grado p e q
rispettivamente, il loro prodotto esterno α∧β è definito semplicemente dalla frapposizione
del simbolo ∧ fra α e β:
α ∧ β = α1 ∧ . . . ∧ αp ∧ β 1 ∧ . . . ∧ β q .
Il risultato è pertanto una (p + q)-forma elementare. Il prodotto esterno cosı̀ definito è
anticommutativo graduato, nel senso che
α ∧ β = (−1)pq β ∧ α
Osserviamo infatti che nel passare da
α ∧ β = α1 ∧ . . . ∧ αp ∧ β 1 ∧ . . . ∧ βq
(1.98)
34
Capitolo 1. Spazi vettoriali puri
a
β ∧ α = β 1 ∧ . . . ∧ βq ∧ α1 ∧ . . . ∧ αp
si devono eseguire un numero di scambi pari a pq, il che comporta pq cambiamenti di
segno. Nel caso in cui una delle due forme elementari sia di grado 0, sia cioè uno scalare, il
prodotto ∧ si identifica con l’ordinario prodotto di un tensore per un numero. Per esempio,
se p = 0 cioè se α ∈ Φ0 (E) = R, allora
α ∧ β = α β1 ∧ . . . ∧ β q .
3 Il prodotto esterno è bilineare:
(a1 α1 + a2 α2 ) ∧ β = a1 α1 ∧ β + a2 α2 ∧ β
(1.99)
α ∧ (b1 β 1 + b2 β 2 ) = b1 α ∧ β1 + b2 α ∧ β 2
(1.100)
4 Siccome il prodotto esterno fra forme elementari è bilineare e siccome una p-forma,cioè
un elemento di Φp(E) è combinazione lineare di p-forme elementari, il prodotto esterno si
estende per linearità a forme di grado qualsiasi. Vale ancora l’anticommutatività graduata
(1.98). Per questa via il prodotto esterno si estende anche a più di due forme. Vale la
proprietà associativa:
α ∧ β ∧ γ = (α ∧ β) ∧ γ = α ∧ (β ∧ γ)
(1.101)
5 Consideriamo infine la somma diretta di tutti gli spazi Φp (E),
Φ(E) =
+∞
M
Φp (E).
p=0
Sappiamo che per p > n = dim(E) gli spazi Φp (E) si riducono allo zero. Sappiamo inoltre
che Φ0 (E) = R e Φ1 (E) = E ∗. Di conseguenza la somma diretta Φ(E) risulta essere
Φ(E) = R ⊕ E ∗ ⊕ Φ2 (E) ⊕ . . . ⊕ Φn (E) ⊕ 0 ⊕ 0 ⊕ . . .
(1.102)
Questo è uno spazio vettoriale, detto spazio delle forme esterne su E, rispetto all’ordinaria somma + tra tensori. Il prodotto esterno, definito per due forme “omogeneee”, si
estende per linearità a due qualunque elementi di questa somma diretta. Il risultato è che
Φ(E), con le due operazioni + e ∧ diventa un’algebra, detta appunto algebra esterna
su E.
Si dimostra che
e
n
n!
dim Φp(E) =
=
p
p! (n − p)!
(1.103)
dim Φ(E) = 2n .
(1.104)
1.20. Il simbolo di Levi-Civita
Tutto quanto sin qui visto si ripete pari pari per gli spazi
dei p-vettori
V p (E)
35
e si conclude con la costruzione della somma diretta
V (E) = R ⊕ E ⊕ V 2 (E) ⊕ . . . ⊕ V n (E) ⊕ 0 ⊕ 0 ⊕ . . .
che assume anch’essa la struttura di algebra.
1.20
Il simbolo di Levi-Civita
Il simbolo di Levi-Civita (Tullio Levi-Civita, 1873-1941) con n indici variabili da 1
a n,
εi1 i2 ...in
vale +1 o −1 a seconda che la successione degli indici (i1 , i2 , . . . , in) sia una permutazione
pari o dispari della succesione fondamentale (1, 2, . . ., n); vale zero in tutti gli altri casi,
cioè quando almeno due indici coincidono. Il simbolo di Levi-Civita è antisimmetrico:
scambiando fra loro due indici, cambia di segno.
Il simbolo di Levi-Civita, che può comparire anche con gli indici in alto,16
εi1 i2 ...in ,
consente di esprimere in forma sintetica svariate formule di calcolo delle matrici e di calcolo
tensoriale. Vediamo alcuni esempi.
1 L’ordinaria definizione di determinante di una matrice quadrata [Aij ]n×n può porsi nella
forma sintetica
det[Aij ] = εi1 i2 ...in Ai11 Ai22 . . . Ainn
(1.105)
sottintendendo sempre la sommatoria sugli indici ripetuti in alto e in basso. Verifichiamolo
nel caso n = 3:
εhij Ah1 Ai2 Aj3 = ε1ij A11 Ai2 Aj3 + ε2ij A21 Ai2 Aj3 + ε3ij A31 Ai2 Aj3 = . . .
Ho eseguito la somma sul primo indice h; nell’eseguire la somma sull’indice i tengo conto
che con un indice ripetuto il simbolo si annulla, dunque:
. . . = ε12j A11 A22 Aj3 + ε13j A11 A32 Aj3
+ε21j A21 A12 Aj3 + ε23j A21 A32 Aj3
+ε31j A31 A12 Aj3 + ε32j A31 A22 Aj3 = . . .
16
La definizione è la medesima.
36
Capitolo 1. Spazi vettoriali puri
Sommando infine sull’indice j rimangono soltanto sei termini:
. . . = ε123 A11 A22 A33 + ε132 A11 A32 A23
+ε213 A21 A12 A33 + ε231 A21 A32 A13
+ε312 A31 A12 A23 + ε321 A31 A22 A13 = . . .
Adesso traduco i simboli in +1 e −1 a seconda della parità della permutazione degli indici
rispetto alla permutazione fondamentale (1, 2, 3),
. . . = A11 A22 A33 − A11 A32 A23
−A21 A12 A33 + A21 A32 A13
+A31 A12 A23 − A31 A22 A13
e ritrovo lo sviluppo del determinante di ordine 3.
2 Dati n vettori (ei ) di E, n = dim(E), anche non indipendenti, per la proprietà
anticommutativa del prodotto esterno vale l’uguaglianza
ei1 ∧ ei2 ∧ . . . ∧ ein = εi1 i2 ...in e1 ∧ e2 ∧ . . . ∧ en
(1.106)
e1 ∧ e2 ∧ . . . ∧ en = εi1 i2 ...in ei1 ∧ ei2 ∧ . . . ∧ ein
(1.107)
o, inversamente,
qualunque sia la permutazione degli indici (i1 , i2 , . . . , in). Si noti bene che a secondo
membro di quest’ultima formula non è intesa la sommatoria sugli indici, che sono ripetuti
ma entambi in basso. Analoghe formule valgono ovviamente per una qualunque n-pla (εi )
di covettori in E ∗ .
3 Il determinante di un endomorfismo A può essere definito come quel numero det(A)
per cui vale l’uguaglianza
A(v1 ) ∧ A(v 2 ) ∧ . . . ∧ A(vn ) = det(A) v 1 ∧ v2 ∧ . . . ∧ vn
(1.108)
per qualunque n-pla di vettori v i ∈ E. Per riconoscerlo, nella (1.108), al posto dei vettori
v ∗ si sostituiscano i vettori di una base (ei ) qualsiasi di E. Si ottiene
A(e1 ) ∧ A(e2 ) ∧ . . . ∧ A(en ) = Ai11 Ai22 . . . Ainn ei1 ∧ ei2 ∧ . . . ∧ ein
= Ai11 Ai22 . . . Ainn εi1 i2 ...in e1 ∧ e2 ∧ . . . ∧ e3
applicando la (1.106) nel secondo passaggio. Ma, come abbiamo già visto, il termine
Ai11 Ai22 . . . Ainn εi1 i2 ...in è proprio uguale a det[Aij ]. Si conclude quindi che la (1.108) vale
per un qualunque sistema di vettori indipendenti. Essa vale ovviamente anche quando i
vettori sono dipendenti, nel qual caso sono nulli ambo i membri.
37
1.20. Il simbolo di Levi-Civita
4 Dalle (1.108) e (1.105) si possono dedurre agevolmente le proprietà fondamentali dei
determinanti. Per esempio, dalla (1.108) si vede che
det(A B) = det(A) det(B).
Si ha infatti successivamente:
det(AB) v1 ∧ . . . ∧ vn = (AB)(v1 ) ∧ . . . ∧ (AB)(vn )
= A B(v1 ) ∧ . . . ∧ A B(v n )
= det(A) B(v 1 ) ∧ . . . ∧ B(vn )
= det(A) det(B) v 1 ∧ . . . ∧ v n .
5 Dalla (1.105) segue la regola dello sviluppo del determinante rispetto ad una linea.
Posto infatti
e1 = εi i ...i Ai2 . . . Ain ,
A
(1.109)
i1
n
n
1 2
2
la (1.105) diventa
e1 .
det[Aij ] = Ai11 A
i1
(1.110)
Si riconosce allora nella (1.109), stante la definizione del simbolo di Levi-Civita e la sua
antisimmetria, l’epressione del complemento algebrico del termine Ai11 della prima
riga della matrice [Aij ] (conveniamo che gli indici in basso siano indici di riga) cioè del
determinante della matrice quadrata di ordine n − 1 ottenuta sopprimendo la riga 1 e la
colonna i1 , preceduto dal segno (−1)1+i1 . La (1.110) rappresenta allora lo sviluppo del
determinante rispetto alla prima riga. Analogamente si procede per lo sviluppo rispetto
ad un’altra riga, o ad una colonna.
6 Dalla (1.109), stante l’antisimmetria del simbolo di Levi-Civita, segue inoltre
e1i = εi i ...in Ai1 Ai2 . . . Ainn = 0.
Ai21 A
1 2
2 2
1
Quindi: la somma dei prodotti degli elementi di una riga per i complementi algebrici di
una riga diversa è nulla. Dalla (1.109) si osserva ancora che
e1i = ∂ det(Aij ).
A
1
∂Ai11
Da queste considerazioni, particolarizzate al caso di una riga (la prima), si trae la formula
generale, valida per ogni endomorfismo lineare A,
dove
ej Ai = det(A) δ j
A
k
i
k
ej = ∂ det(A)
A
i
∂Aij
(1.111)
(1.112)
38
Capitolo 1. Spazi vettoriali puri
è il complemento algebrico dell’elemento Aij , vale a dire il determinante della matrice
quadrata di ordine n − 1 ottenuta cancellando la j-esima riga e la i-esima colonna della
matrice delle componenti di A, preceduta dal segno (−1)j+i .
ej ) dei complementi algebrici definisce un endomorfismo A
e che chiamiamo
La matrice (A
i
endomorfismo complementare di A. Cambiando base, si ha infatti per la (1.112):
0
ej
A
i
∂Aij 0
∂
∂
=
det(A)
=
det(A)
0
∂Aij
∂Aij
∂Aij 0
ej00 ∂ E h0 E i0 Ak
=A
j
k
h
i
i
∂Aj
ej00 E j0 E i0 .
=A
i
i
j
ej ) cambiano secondo la legge di trasformazione delle componenti di un
Dunque le (A
i
endomorfismo. La (1.111) rappresenta allora, in componenti, l’uguaglianza
e A = det(A) 1
A
(1.113)
Di qui, nel caso di un automorfismo, cioè per det(A) 6= 0, segue la formula
A−1 =
1
e
A
det(A)
che fornisce l’inverso di un endomorfismo invertibile.
(1.114)
Capitolo 2
Spazi vettoriali con struttura
2.1
Spazi vettoriali euclidei
Uno spazio vettoriale euclideo è una coppia (E, g) costituita da uno spazio vettoriale
E e da un tensore metrico g su E. Un tensore metrico (detto anche metrica) è per
definizione una forma bilineare g su E simmetrica e regolare, cioè tale da soddisfare alle
condizioni:
(
g(u, v) = g(v, u),
(2.1)
g(u, v) = 0 ∀v ∈ E =⇒ u = 0.
La forma bilineare simmetrica g è anche detta prodotto scalare. Per il prodotto scalare
si usa comunemente la notazione u · v, poniamo cioè1
u · v = g(u, v).
(2.2)
Uno spazio vettoriale euclideo è quindi uno spazio vettoriale dotato di un prodotto scalare.
Chiamiamo norma e la denotiamo con k · k : E → R la forma quadratica corrispondente
al tensore metrico
kvk = v · v = g(v, v).
(2.3)
Chiamiamo invece modulo di un vettore il numero positivo
|v| =
p
|v · v|.
2
(2.4)
Due vettori sono detti ortogonali se u · v = 0. Diciamo che un vettore u è unitario se
kuk = ±1. Diciamo che u è il versore del vettore v se u è unitario e se v = k u con
k > 0.
1
In molti testi il prodotto scalare è denotato con u × v, simbolo che noi invece riserveremo al prodotto
vettoriale nello spazio euclideo tridimensionale.
2
La norma k · k qui definita non è una norma nel senso usuale dell’Analisi. Lo è invece il modulo | · |,
che però viene in genere considerato solo nel caso in cui la forma quadratica g è definita positiva.
39
40
Capitolo 2. Spazi vettoriali con struttura
Seguendo una terminologia tipica della teoria della Relatività Ristretta si dice che un
vettore v è del genere spazio, luce, tempo se la sua norma è rispettivamente positiva,
nulla, negativa:

kvk > 0,
genere spazio



v∈E
genere luce
kvk = 0,



genere tempo
kvk < 0.
Un vettore del genere luce è anche detto isotropo. Un vettore isotropo è ortogonale a se
stesso.
Una base canonica di uno spazio euclideo (E, g) è una base canonica rispetto alla forma
bilineare simmetrica g, quindi una base costituita da vettori unitari fra loro ortogonali.
Sappiamo dalla teoria delle forme quadratiche che due basi canoniche sono sempre formate
da un egual numero p di vettori del genere spazio e quindi da un egual numero q di vettori
del genere tempo. Siccome il tensore metrico è non degenere si ha sempre p + q = n =
dim(E). La coppia di interi (p, q) è detta segnatura dello spazio euclideo. Si usa anche
dire che lo spazio ha segnatura
. . −} .
. . +} |− .{z
|+ .{z
p volte
q volte
Molti autori riservano il nome di spazio euclideo al caso in cui la metrica è definita positiva,
cioè di segnatura (n, 0). Per mettere in evidenza questa condizione noi useremo il termine
spazio strettamente euclideo, riservando il termine di spazio pseudo-euclideo o
semi-euclideo al caso di una metrica indefinita.
Osservazione 2.1.1 – In uno spazio strettamente euclideo la norma è sempre positiva
(salvo che per il vettore nullo) e vale la disuguaglianza di Schwarz (§ 1.5)
(u · v)2 ≤ kuk kvk,
(2.5)
dove l’uguaglianza sussiste se e solo se i vettori sono dipendenti. Utilizzando il modulo
(2.4), che ora è semplicemente definito da
√
|v| = v · v,
la disuguaglianza di Schwarz diventa
|u · v| ≤ |u| |v|.
(2.6)
Se nessuno dei due vettori è nullo si ha
|u · v|
≤ 1.
|u| |v|
Diciamo allora angolo dei due vettori il numero ϑ compreso tra 0 e π tale che
cos ϑ =
u·v
.
|u| |v|
(2.7)
41
2.1. Spazi vettoriali euclidei
Vale infine la disuguaglianza triangolare
|u + v| ≤ |u| + |v|,
(2.8)
conseguenza della disuguaglianza di Schwarz:
|u + v|2 = ku + vk = kuk + kvk + 2 u · v
≤ |u|2 + |v|2 + 2 |u · v|
≤ |u|2 + |v|2 + 2 |u| |v|
2
= |u| + |v| . •
Considerata una base (ei ) dello spazio euclideo (E, g), le componenti del tensore metrico
gij = g(ei , ej ) = ei · ej
(2.9)
formano una matrice, detta matrice metrica, simmetrica e regolare:
gij = gji ,
det[gij ] 6= 0.
(2.10)
Queste condizioni sono in effetti equivalenti alle (2.1). Accanto alla matrice metrica
(gij ) torna utile considerare la matrice inversa, che denotiamo con (g ij ). Essa è definita
dall’uguaglianza
gij g jk = δik .
(2.11)
In una base canonica, detta anche ortonormale, la matrice metrica è


1p
0
.
[gij ] = 
0 −1q
(2.12)
Questa matrice coincide con la sua inversa. Mentre in generale si ha
u · v = gij ui v j ,
(2.13)
in una base canonica risulta
u·v=
p
X
a=1
quindi
kuk =
p
X
a=1
a
a
u v −
a 2
(u ) −
n
X
ub v b ,
(2.14)
(ub )2 .
(2.15)
b=p+1
n
X
b=p+1
La presenza del tensore metrico consente di definire su di uno spazio euclideo, oltre al
prodotto scalare, alcune altre fondamentali operazioni e precisamente:
(I) un isomorfismo canonico tra E e il suo duale E ∗ ;
42
Capitolo 2. Spazi vettoriali con struttura
(II) un operatore ortogonale sui sottospazi di E;
(III) un operatore di trasposizione sugli endomorfismi di E;
(IV) un isomorfismo canonico tra lo spazio degli endomorfismi su E e lo spazio delle forme
bilineari su E.
Tratteremo i primi due argomenti in questo paragrafo, gli altri due nel prossimo.
L’applicazione lineare [ : E → E ∗ : v 7→ v[ definita dall’uguaglianza
hu, v[i = u · v
(2.16)
è un isomorfismo, stante la regolarità del tensore metrico g. Questo isomorfismo fa sı̀ che
uno spazio vettoriale euclideo possa essere identificato con il suo duale. Denotiamo con
] : E ∗ → E : α 7→ α] l’inversa dell’applicazione [.
Introdotta una base di E, posto v = v i ei , si denotano con vi le componenti del covettore
v [ , si pone cioè v[ = vi εi . Allora la (2.16), scritta in componenti, diventa
ui vi = gij ui v j .
(2.17)
Valendo questa per ogni (ui) ∈ Rn si trae
vi = gij v j
(2.18)
Questa è la definizione in componenti dell’applicazione [. Si osserva quindi che le componenti del covettore v [ si ottengono per abbassamento degli indici delle componenti (v i)
di v mediante la matrice metrica. L’applicazione inversa è definita dalle relazioni inverse
delle (2.18):
v i = g ij vj
(2.19)
Essa consiste quindi nell’innalzamento degli indici tramite l’inversa della matrice metrica.
Osservazione 2.1.2 – Le (g ij ) prendono il nome di componenti contravarianti del
tensore metrico, mentre alle (gij ) si dà il nome di componenti covarianti. Similmente, alle componenti (vi ) di v[ si dà il nome di componenti covarianti del vettore v,
riservando alle (v i ) il nome di componenti contravarianti. L’operazione di innalzamento e di abbassamento degli indici si può applicare anche ai tensori. Si possono cosı̀
stabilire diversi isomorfismi fra spazi tensoriali aventi la stessa somma di indici covarianti
e contravarianti, per esempio tra T11 (E) e T2 (E), come sarà visto nel prossimo paragrafo.
•
Osservazione 2.1.3 – Si è visto (§ 1.2) che un covettore α è geometricamente rappresentato da una coppia di iperpiani paralleli (A0 , A1 ). Nell’identificazione ora vista di E
con E ∗ , ad α, cioè a questa coppia di piani, corrisponde il vettore v = α] che è ortogonale
43
2.1. Spazi vettoriali euclidei
al sottospazio A0 e il cui prodotto scalare con i vettori del laterale A1 vale 1. Se quindi
denotiamo con u il vettore ortogonale ad A0 appartenente ad A1 , si ha
v=
u
. •
kuk
Osservazione 2.1.4 – Ad ogni base (ei ) di E si fa corrispondere un’altra base, detta base
reciproca o base coniugata (e a volte, impropriamente, anche base duale), denotata con
(ei ) e definita implicitamente dalle relazioni
ei · ej = δji .
(2.20)
Si verifica che
ei = g ij ej ,
ei = gij ej ,
(2.21)
e che
ei = (εi )].
(2.22)
La figura che segue mostra per esempio il caso dello spazio euclideo bidimensionale. Assunta (c1 , c2 ) come base canonica, le basi (e1 , e2 ) e (e1 , e2 ) sono basi una reciproca dell’altra,
essendo e1 · e1 = e2 · e2 = 1, e1 · e2 = e2 · e1 = 0. In uno spazio strettamente euclideo,
∗
se (ei ) è una base canonica, allora ei = ei : la base coincide con la sua reciproca. Se
lo spazio è pseudoeuclideo, di segnatura (p, q), quest’uguaglianza vale solo per gli indici
∗
i ≤ p. Per i rimanenti si ha ei = − ei . •
Basi reciproche.
Ad ogni sottospazio K ⊂ E associamo il sottospazio
K ⊥ = {u ∈ E | u · v = 0, ∀v ∈ K},
(2.23)
detto spazio ortogonale a K. Confrontando questa definizione con quella del polare K ◦
data al § 1.2 e tenuto conto della definizione (2.16), si vede che
K ⊥ = (K ◦ )].
(2.24)
44
Capitolo 2. Spazi vettoriali con struttura
Pertanto dalle proprietà (1.3) del § 1.2 seguono immediatamente analoghe proprietà per
l’operatore ortogonale ⊥:

dim(K) + dim(K ⊥ ) = dim(E),






 K ⊥⊥ = K,


K ⊥ ⊂ L⊥ ⇐⇒ L ⊂ K,
(2.25)




(K + L)⊥ = K ⊥ ∩ L⊥ ,




 ⊥
K + L⊥ = (K ∩ L)⊥ .
Osservazione 2.1.5 – Un sottospazio K si dice isotropo se K ⊂ K ⊥ . Un sottospazio
è isotropo se e solo se (a) tutti i suoi vettori sono isotropi, ovvero se e solo se (b) tutti i
suoi vettori sono fra loro ortogonali (dimostrarlo). •
Osservazione 2.1.6 – Si può dimostrare che la massima dimensione dei sottospazi isotropi è il minimo dei due numeri (p, q) della segnatura. •
Osservazione 2.1.7 – Un sottospazio K si dice euclideo o non degenere se la restrizione del tensore metrico a K è ancora regolare (vale cioè la (2.1)2 ristretta a K). Un
sottospazio è non degenere se e solo se K ∩ K ⊥ = 0 (dimostrarlo). •
Osservazione 2.1.8 – Il prodotto scalare si può estendere, in maniera naturale, ai vettori
complessi. Il prodotto scalare dei vettori v = u+i w e v0 = u0 +i w0 è il numero complesso
v · v0 = u · u0 − w · w0 + i (u · w0 + u0 · w). La norma di un vettore è il numero complesso
kvk = kuk − kwk + 2i u · w. •
2.2
Endomorfismi in spazi euclidei
Sia (E, g) uno spazio euclideo (di segnatura qualsiasi). Ad ogni endomorfismo A su E si
associa un altro endomorfismo AT di E, detto endomorfismo trasposto di A, definito
dall’uguaglianza
AT (u) · v = u · A(v)
Per l’operatore di trasposizione T valgono le seguenti proprietà:
 T
1 = 1,






ATT = A,





 (A + B)T = AT + B T ,

(AB)T = B T AT ,




T
k



Ak = AT
(k ∈ N),




T
T
T
[A, B] = [B , A ].
(2.26)
(2.27)
45
2.2. Endomorfismi in spazi euclidei
Se in particolare A è un automorfismo:
(A−1 )T = (AT )−1 .
(2.28)
Le componenti dell’endomorfismo trasposto sono date da
(AT )ij = gjh g ik Ahk
(2.29)
Occorre infatti ricordare la definizione di componenti di un endomorfismo e quanto visto
al § precedente (in particolare la (2.22), per dedurre successivamente:
(AT )ij = hAT (ej ), εi i = AT (ej ) · ei = A(ei ) · ej
= g ik gjh A(ek ) · eh = g ik gjh hA(ek ), εh i
= g ik gjh Ahk .
Osservazione 2.2.1 – Se lo spazio è strettamente euclideo (la metrica è definita positiva)
e se la base scelta è canonica, allora gij = δij e quindi
∗
(AT )ij = Aji .
(2.30)
Ciò significa che la matrice delle componenti dell’endomorfismo trasposto AT coincide con
la trasposta della matrice delle componenti di A (si scambiano cioè righe con colonne).
Questa proprietà è valida solo in questo caso. Se la metrica non è definita positiva e la
base è canonica allora la (2.30) è verificata a meno del segno per certe coppie di indici
(quali ?). •
Osservazione 2.2.2 – Dalla (2.29) deduciamo che
det(AT ) = det(A),
tr(AT ) = tr(A).
(2.31)
Dalla prima di queste segue
det(A − x1) = det(A − x1)T = det(AT − x1).
Dunque i polinomi caratteristici di A e AT coincidono, e quindi coincidono anche tutti gli
invarianti principali
Ik (AT ) = Ik (A),
(2.32)
nonché gli spettri. •
Definizione 2.2.1 – Diciamo che un endomorfismo è simmetrico se AT = A, che è
antisimmetrico se AT = −A. Ciò significa che si ha, rispettivamente:
A(u) · v = A(v) · u,
per ogni coppia di vettori (u, v). •
A(u) · v = −A(v) · u,
46
Capitolo 2. Spazi vettoriali con struttura
Ogni endomorfismo è decomponibile nella somma della sua parte simmetrica e della sua
parte antisimmetrica:
)
AS = 12 (A + AT )
(2.33)
A = AS + AA .
A
1
T
A = 2 (A − A )
Segue che
AT = AS − AA .
(2.34)
Alcune proprietà da ricordare:
(I) La potenza k-esima di un endomorfismo simmetrico è sempre simmetrica, qualunque
T
k
sia k. Da AT = A segue infatti per la (2.27)4 Ak = AT = Ak .
(II) La potenza k-esima di un endomorfismo antisimmetrico è simmetrica o antisimmetrica
T
k
a seconda che k sia pari o dispari. Da AT = − A segue infatti Ak = AT = (−A)k =
(−1)k Ak .
(III) La traccia di un endomorfismo antisimmetrico è nulla. Infatti tr(A) = tr(−AT ) =
− tr(AT ) = − tr(A).
(IV) Il determinante di un endomorfismo antisimmetrico è nullo se la dimensione n dello
spazio è dispari. Infatti det(A) = det(AT ) = det(−A) = (−1)n det(A).
(V) La traccia del prodotto di un endomorfismo simmetrico per uno antisimmetrico è
nulla. Infatti se A e simmetrico e B antisimmetrico, tr(A B) = tr(−A B) = − tr(A B).
(VI) Il commutatore di due endomorfismi simmetrici, oppure di due endomorfismi antisimmetrici, è antisimmetrico. Questo segue dall’ultima delle (2.27) e dall’anticommutatività
del commutatore. Da quest’ultima proprietà segue che gli endomorfismi antisimmetrici
formano una sottoalgebra di Lie di End(E).
Osservazione 2.2.3 – È importante sottolineare che le precedenti definizioni fanno intervenire in maniera essenziale la metrica g. Esse sono del tutto analoghe a quelle viste per
le forme bilineari, dove però la nozione di trasposizione e quelle conseguenti di simmetria
e di antisimmetria non richiedono la presenza sullo spazio vettoriale di alcuna struttura
aggiuntiva. L’analogia risulta ulteriormente confermata nelle considerazioni seguenti. •
Ad ogni endomorfismo A possiamo far corrispondere una forma bilineare, che denotiamo
ancora con A, ponendo:
A(u, v) = A(u) · v
(2.35)
Denotate con (Aij ) le componenti della forma bilineare A, risulta
Aij = gjk Aki
Infatti:
Aij = A(ei , ej ) = A(ei ) · ej = Aki ek · ej = gjk Aki .
(2.36)
47
2.2. Endomorfismi in spazi euclidei
Si osservi che, anche in questo caso, è presente un’operazione di abbassamento di indice.
La relazione inversa delle (2.36) è:
Aki = g jk Aij .
(2.37)
L’operazione ora definita è un isomorfismo tra End(E) e T2 (E). Si osservi che accanto
alla (2.35) sussiste una definizione alternativa analoga, che genera un altro isomorfismo:
A(u, v) = u · A(v). Si osservi inoltre che A è un endomorfismo simmetrico (rispettivamente, antisimmetrico) se e solo se la corrispondente forma bilineare è simmetrica (risp.
antisimmetrica).
Osservazione 2.2.4 – Il tensore metrico, come forma bilineare, corrisponde all’endomorfismo identico. •
Osservazione 2.2.5 – Si consideri il prodotto tensoriale di due vettori A = a ⊗ b. Si
tratta di un tensore doppio contravariante. Le sue componenti in una base qualsiasi sono
Aij = ai bj . A questo tensore si fa corrispondere un endomorfismo, denotato ancora con
A e detto diade, ponendo
A(u) = (a · u) b,
(2.38)
e quindi ancora una forma bilineare ponendo
A(u, v) = (a · u) (b · v).
(2.39)
Le componenti di quest’endomorfismo e di questa forma bilineare sono rispettivamente
Aji = ai bj ,
Aij = ai bj .
(2.40)
Più in generale ad ogni tensore doppio contravariante A, di componenti (Aij ), per quanto
visto al paragrafo precedente, corrisponde un endomorfismo ed una forma bilineare (che
denotiamo sempre con A) le cui componenti si ottengono con l’abbassamento degli indici:
Aji = Akj gki ,
Aij = Ahk ghi gkj .
•
(2.41)
Passiamo ora a considerare alcune fondamentali proprietà degli autovalori degli endomorfismi simmetrici e antisimmetrici, nell’ipotesi però che lo spazio E sia strettamente euclideo,
cioè a metrica definita positiva (fatta eccezione per il primo teorema che segue, valido anche nel caso di uno spazio non strettamente euclideo). Cominciamo dagli endomorfismi
simmetrici.
Teorema 2.2.1 – Gli autovettori di un endomorfismo simmetrico corrispondenti ad autovalori distinti sono ortogonali.
Dimostrazione. Sia A un endomorfismo simmetrico. Sia A(v1) = λ1 v 1 e A(v2) =
λ2 v 2 . Moltiplicando scalarmente la prima uguaglianza per v 2 , la seconda per v1 , sottraendo poi membro a membro e tenendo conto della simmetria di A si deduce 0 =
(λ1 − λ2 ) v1 · v 2 . Da λ1 6= λ2 segue v1 · v2 = 0. 2
48
Capitolo 2. Spazi vettoriali con struttura
Teorema 2.2.2 – Gli autovalori di un endomorfismo simmetrico in uno spazio strettamente euclideo sono reali.
Dimostrazione. Sia A(v) = λ v, con λ complesso e quindi v complesso: v = u + i w.
Moltiplicando scalarmente membro a membro per v̄ = u − i w,
v̄ · A(v) = λ (u − i w) · (u + i w),
si trova, considerando A come forma bilineare simmetrica:
A(u, u) + A(w, w) = λ (kuk + kwk).
Essendo lo spazio strettamente euclideo è sicuramente kuk + kwk > 0 (a meno che non
sia v = 0, caso a priori escluso). L’equazione precedente determina quindi l’autovalore λ
attraverso un quoziente di numeri reali. 2
Teorema 2.2.3 – Per un endomorfismo simmetrico in uno spazio strettamente euclideo
la molteplicità geometrica degli autovalori coincide con la molteplicità algebrica.
Dimostrazione. Si consideri l’insieme degli autovalori distinti
(λ1 , λ2, . . . , λl ),
l ≤ n,
nonché la successione delle rispettive molteplicità
(m1 , m2 , . . . , ml )
e dei rispettivi spazi invarianti
(K1 , K2 , . . . , Kl ).
Con riferimento alle notazioni del § 1.9 abbiamo mi = mλi e Ki = Kλi . Per il Teorema
2.2.1 questi sottospazi sono mutuamente ortogonali. Consideriamo il sottospazio V ⊂ E
dei vettori ortogonali a tutti i Ki. Questo è un sottospazio invariante di A; infatti per ogni
v ∈ V e per ogni vi ∈ Ki si ha A(vi ) · v = 0 perché A(Ki) ⊂ Ki . Per la simmetria di A di
qui segue A(v) · vi = 0, il che significa appunto A(v) ∈ V . Allora la restrizione di A a V
darebbe luogo ad ulteriori autovettori da aggiungersi alla lista già fatta: assurdo, a meno
che non sia V = {0}. Abbiamo dunque che lo spazio E è somma diretta dei sottospazi
mutuamente ortogonali associati agli autovalori:
E = K1 ⊕ K2 ⊕ . . . ⊕ Kl .
Pertanto
dim(E) = n = dim(K1 ) + dim(K2 ) + . . . + dim(Kl )
= mg(λ1 ) + mg(λ2 ) + . . . + mg(λl ).
(2.42)
49
2.2. Endomorfismi in spazi euclidei
D’altra parte, per il teorema fondamentale dell’algebra:
n = m1 + m2 + . . . + ml
= ma(λ1 ) + ma(λ2 ) + . . . + ma(λl ).
In generale, come si è detto al § 1.9, vale la disuguaglianza ma(λi ) ≥ mg(λi). Se vi fosse
una sola disuguaglianza forte, stante le due uguaglianze sopra stabilite, si cadrebbe in un
assurdo. 2
Osservazione 2.2.6 – Se gli autovalori di A sono tutti distinti, allora ognuno dei sottospazi invarianti Ki è unidimensionale e univocamente determinato. •
Teorema 2.2.4 – Ogni endomorfismo simmetrico in uno spazio strettamente euclideo
ammette una rappresentazione del tipo
A=
n
X
α=1
λα cα ⊗ cα
(2.43)
dove (cα ) è una base canonica di autovettori di A e dove (λα) sono i corrispondenti
autovalori.
Per questa rappresentazione si deve tener conto dell’Oss. 6, cioè della corrispondenza tra
tensori doppi contravarianti, endomorfismi e forme bilineari. Segue subito dalla scrittura
(2.43) che i (cα ) sono autovettori ed i (λα) sono autovalori. Infatti – si veda la (2.38):
A(cβ ) =
n
X
λα(cα · cβ ) cα =
α=1
n
X
λα δαβ cα = λβ cβ .
α=1
Per ogni vettore v si ha quindi
∗
A(v) =
n
X
λα vα cα
(2.44)
α=1
essendo le (vα) le sue componenti rispetto alla base canonica.
Dimostrazione. Si consideri la decomposizione (2.42) in sottospazi invarianti. Se
v 1 ∈ K1 e |v1 | = 1, allora
A(v1 , v1 ) = A(v1 ) · v 1 = λ1 v 1 · v 1 = λ1 .
Analogamente, tenuto conto del Teorema 2.2.1, se v2 ∈ K2 allora
A(v1 , v2 ) = A(v1 ) · v 2 = λ1 v1 · v2 = 0.
50
Capitolo 2. Spazi vettoriali con struttura
Pertanto, scegliendo in ogni sottospazio K1 , K2, . . . , Kl una base canonica si determina
una base canonica (cα ) di tutto E per la quale vale la rappresentazione (2.43). 2
Si osservi che dalla (2.43) segue che nella base canonica (cα) le componenti Aαβ =
A(cα , cβ ) della forma bilineare A sono tutte nulle salvo quelle della diagonale principale,
che coincidono con gli autovalori:
Aαβ = δαβ λα.
In forma matriciale:




[Aαβ ] = 



(2.45)
λ1 1m1
0
...
0
0
λ2 1m2
...
0
..
.
..
.
..
..
.
0
0
. . . λl 1ml
.








(2.46)
Questa base canonica (cα) si trasforma in una base canonica (c0α ) rispetto alla forma
bilineare simmetrica A ponendo
1
c0α = p
cα
|λα|
se λα 6= 0, oppure c0α = cα se λα = 0. Si vede cosı̀ che le componenti positive (risp.
negative) della forma bilineare A in questa base sono tante quante gli autovalori positivi
(risp. negativi) dell’endomorfismo A. Si è pertanto dimostrato che
Teorema 2.2.5 – Se un endomorfismo simmetrico in uno spazio strettamente euclideo
ha, contati con la dovuta molteplicità, p autovalori positivi e q autovalori negativi, allora
la corrispondente forma bilineare simmetrica ha segnatura (p, q).
Tenuto conto che il tensore metrico è una forma bilineare simmetrica definita positiva, dalla
dimostrazione di quest’ultima proprietà si deduce anche l’enunciato generale seguente:
Teorema 2.2.6 – Due forme bilineari simmetriche, di cui una definita positiva, possono
contemporaneamente porsi in forma diagonale, ammettono cioè basi ortogonali comuni.
Passiamo infine ad esaminare brevemente il caso antisimmetrico.
Teorema 2.2.7 – Gli autovalori di un endomorfismo antisimmetrico in uno spazio strettamente euclideo sono nulli o immaginari puri.
Dimostrazione. La dimostrazione è analoga a quella del Teorem 2.2.2. Sia A(v) = λ v,
con λ complesso e quindi v complesso: v = u + i w. Moltiplicando scalarmente membro a
membro per v̄ = u − i w, si trova, considerando A come forma bilineare antisimmetrica:
i 2 A(w, u) = λ (kuk + kwk).
Essendo lo spazio strettamente euclideo quest’equazione determina l’autovalore λ come
quoziente di un numero immaginario puro per un numero reale. 2
51
2.3. Endomorfismi ortogonali
2.3
Endomorfismi ortogonali
Un endomorfismo ortogonale o isometria è un endomorfismo Q su di uno spazio
euclideo o pseudoeuclideo (E, g) conservante il prodotto scalare, cioè tale che
Q(u) · Q(v) = u · v
∀u, v ∈ E
(2.47)
∀u ∈ E
(2.48)
Va osservato che questa definizione equivale a
Q(u) · Q(u) = u · u
è infatti ovvio che la (2.47) implica la (2.48). Viceversa, se vale la (2.48) risulta
Q(u + v) · Q(u + v) = (u + v) · (u + v)
(∀u, v ∈ E).
Sviluppando ambo i membri di quest’uguaglianza e riutilizzando la(2.48) si trova l’uguaglianza (2.47).
Dalla (2.47), per il fatto che la metrica non è degenere, segue che Ker(Q) = 0. Di
conseguenza Q(E) = E. Ne deduciamo che un endomorfismo ortogonale è un isomorfismo.
Per definizione di endomorfismo trasposto la (2.47) equivale a
QT Q(u) · v = u · v,
e quindi, per l’arbitrarietà dei vettori, alla condizione
QT Q = 1
(2.49)
QT = Q−1
(2.50)
ovvero
Dunque le formule (2.47), (2.48), (2.49) e (2.50) sono tutte definizioni equivalenti di
endomorfismo ortogonale.
Poiché det(QT ) = det(Q), la (2.49) implica (det(Q))2 = 1 cioè
det(Q) = ±1.
(2.51)
Gli endomorfismi ortogonali il cui determinante vale +1 sono chiamati rotazioni; quelle
con determinante −1 rotazioni improprie. L’identità 1 è ovviamente una rotazione. Il
prodotto di due (o più) rotazioni è una rotazione. Il prodotto di due rotazioni improprie
è una rotazione. Il prodotto di una rotazione per una rotazione impropria è una rotazione
impropria.
L’insieme di tutti gli endomorfismi ortogonali sopra uno spazio (E, g) è un gruppo rispetto all’ordinaria composizione degli endomorfismi, cioè un sottogruppo di Aut(E), detto
52
Capitolo 2. Spazi vettoriali con struttura
gruppo ortogonale di (E, g). Lo denotiamo con O(E, g). Le rotazioni formano un sottogruppo, detto gruppo ortogonale speciale, che denotiamo con SO(E, g). Le rotazioni
improprie non formano ovviamente sottogruppo. Se due spazi vettoriali hanno uguale
dimensione e segnatura, allora i rispettivi gruppi ortogonali sono isomorfi.
Passando alle componenti, osserviamo che un endomorfismo Q è ortogonale se e solo se le
sue componenti (Qji ) rispetto ad una base generica verificano le uguaglianze
gij Qih Qjk = ghk
(2.52)
che sono in tutto 12 n(n + 1). Queste si ottengono dalla (2.47) scritta per una generica
coppia (eh , ek ) di vettori della base.
Se lo spazio è strettamente euclideo e se la base scelta è canonica, allora le (2.52) diventano
n
X
∗
Qih Qik = δhk
(2.53)
i=1
Ciò significa che il prodotto della matrice (Qij ) per la sua trasposta è la matrice unitaria.
Le matrici soddisfacenti a questa proprietà sono dette matrici ortogonali.
Se la base è canonica ma lo spazio non è strettamente euclideo la formula (2.53) non è più
valida. In ogni caso, le matrici delle componenti in una base canonica degli endomorfismi
ortogonali (o delle rotazioni) di uno spazio di segnatura (p, q) formano un gruppo denotato
con O(p, q) (oppure SO(p, q)). Si denotano in particolare con O(n) e SO(n) i gruppi delle
matrici n×n ortogonali, cioè soddisfacenti alla (2.53), e di quelle ortogonali a determinante
unitario. La scelta di una base canonica stabilisce un isomorfismo tra O(E, g) e O(p, q).
Osservazione 2.3.1 – Gli autovalori, complessi o reali, di un endomorfismo ortogonale in
uno spazio strettamente euclideo sono unitari: |λ| = 1. Infatti, dall’equazione Q(v) = λv
segue, applicando la coniugazione, l’equazione Q(v̄) = λ̄v̄. Moltiplicando scalarmente
membro a membro queste due uguaglianze si ottiene Q(v) · Q(v̄) = λλ̄v · v̄. Poiché Q è
ortogonale si ha anche Q(v) · Q(v̄) = v · v̄. Di qui segue λλ̄ = 1, come asserito. •
Vediamo ora alcuni esempi di rappresentazione delle rotazioni, che suggeriscono alcuni
esercizi e ulteriori approfondimenti.
2.3.1
Rappresentazione mediante simmetrie
Sia a ∈ E un vettore non isotropo. Si consideri l’endomorfismo S a definito da
S a (v) = v − 2
a·v
a.
a·a
(2.54)
Esso è una simmetria rispetto al piano ortogonale ad a, nel senso che, come si verifica
immediatamente,
S a (a) = −a,
S a (v) = v
53
2.3. Endomorfismi ortogonali
per ogni vettore v ortogonale ad a. Di conseguenza, S a è un’isometria. Più precisamente
è una rotazione impropria. Infatti a è un autovettore di autovalore −1 mentre ogni vettore
ortogonale ad a è autovettore di autovalore +1, sicché lo spettro è (−1, 1, . . ., 1) e quindi
det(S a ) = −1. Si può dimostrare, ma la dimostrazione non è semplice, che ogni isometria
è il prodotto di simmetrie. è invece più facile dimostrare (e la dimostrazione è lasciata
come esercizio) che due simmetrie S a e S b commutano se e solo se i corrispondenti vettori
a e b sono dipendenti (allora le simmetrie coincidono) oppure sono ortogonali.
2.3.2
Decomposizione simmetrica delle isometrie
Decomponiamo un endomorfismo Q nelle sue parti simmetrica e antisimmetrica:
Q = QS + QA ,
QS =
1
2
(Q + QT ),
QA =
1
2
(Q − QT ).
(2.55)
Segue che
QQT = (QS + QA )(QS − QA ) = (QS )2 − (QA )2 + QA QS − QS QA ,
QT Q = (QS − QA )(QS + QA ) = (QS )2 − (QA )2 − QA QS + QS QA .
Se Q è un’isometria, allora entrambe queste espressioni devono valere 1, sicché sottraendo
membro a membro segue subito
QA QS − QS QA = [QA , QS ] = 0
(2.56)
(QS )2 − (QA )2 = 1.
(2.57)
e quindi
Viceversa, se valgono entrambe queste condizioni allora le predette espressioni valgono 1.
è cosı̀ dimostrato che le condizioni (2.56) e (2.57) sono necessarie e sufficienti affinché un
endomorfismo Q sia ortogonale. Dalla (2.57) si deduce in particolare che un endomorfismo
ortogonale Q è simmetrico se e solo se esso è involutorio, cioè se Q2 = 1. Lo si riconosce
comunque anche dal fatto che, valendo la (30 ), la condizione QQ = 1 è equivalente a
Q = QT . Osserviamo infine che se l’endomorfismo ortogonale Q è simmetrico allora,
qualunque sia il vettore v, il vettore v ± Q(v) è autovettore di Q con autovalore ±1.
Infatti:
Q(v ± Q(v)) = Q(v) ± Q2 (v) = Q(v) ± v = ±(v ± Q(v)).
2.3.3
Rappresentazione esponenziale
Dato un endomorfismo A, consideriamone tutte le sue potenze {Ak ; k ∈ N} e quindi la
serie
∞
X
1 k
A
e =
A ,
(2.58)
k!
k=0
54
Capitolo 2. Spazi vettoriali con struttura
detta esponenziale di A. Questa è convergente, nel senso che qualunque sia A e comunque si fissi una base di E, le n2 serie di numeri reali date dalle componenti di eA sono tutte
convergenti (anzi, assolutamente convergenti) o, se si vuole, che tale è la serie vettoriale
∞
X
1 k
A (v),
k!
k=0
qualunque sia il vettore v. Omettiamo la discussione sulla convergenza di questa serie e
su serie analoghe costruibili a partire da funzioni analitiche. Ci limitiamo qui ad osservare
che se (λ1 , . . . , λn) è lo spettro di A allora lo spettro di eA è (eλ1 , . . . , eλn ). Infatti da
A(v) = λv segue Ak (v) = λk v e quindi
eA (v) =
∞
∞
X
X
1 k
1 k
A (v) =
λ v = eλ v.
k!
k!
k=0
k=0
L’esponenziale di un endomorfismo non gode di tutte le proprietá della corrispondente
funzione analitica. Per esempio l’uguaglianza
eA+B = eA eB
non è più vera in generale. Lo è se i due endomorfismi A e B commutano (col che
commutano anche gli esponenziali). Vale comunque la proprietà
T
(eA)T = eA .
Di qui segue che: se A è antisimmetrico allora eA è una rotazione. Infatti:
T
eA (eA )T = eA eA = eA e−A = e(A−A) = 1.
Inoltre la condizione det(eA ) = 1 segue dal fatto che nello spettro di un endomorfismo
antisimmetrico gli autovalori non nulli si distribuiscono in coppie di segno opposto, sicché
la loro somma è uguale a zero. Allora, per quanto sopra detto,
det(eA ) =
n
Y
Pn
eλi = e
i=1
λi
= e0 = 1.
i=1
2.3.4
Rappresentazione di Cayley
Se A è un endomorfismo antisimmetrico tale che A − 1 è invertibile allora l’endomorfismo
Q = (1 + A)(1 − A)−1
(2.59)
è ortogonale. Si verifica infatti facilmente, utilizzando le ben note proprietà della trasposizione e il fatto che i due endomorfismi 1 ± A commutano, che QQT = 1. Un po’
meno immediata è la verifica del fatto che det(Q) = 1 (essa è lasciata come esercizio).
Si ottiene quindi un’ulteriore rappresentazione delle rotazioni in termini di endomorfismi
antisimmetrici. Si osservi che la condizione det(1 − A) 6= 0, richiesta per la validità della
scrittura (2.59), è sempre soddisfatta in uno spazio strettamente euclideo. Infatti, questa
equivale alla condizione che 1 sia un autovalore di A, cosa impossibile perché in tali spazi
gli autovalori non nulli di un endomorfismo antisimmetrico sono immaginari puri.
55
2.3. Endomorfismi ortogonali
2.3.5
Rappresentazione quaternionale
Veniamo infine ad una interessante rappresentazione delle rotazioni nello spazio euclideo
tridimensionale E3 . Si consideri nella somma diretta di spazi vettoriali R ⊕ E3 il prodotto
(interno) definito da
(a, u)(b, v) = (ab − u · v, av + bu + u × v)
(2.60)
nonché il prodotto scalare definito da
(a, u) · (b, v) = ab + u · v.
(2.61)
L’elemento inverso è definito da
(a, u)−1 =
(a, −u)
k(a, u)k
(2.62)
dove si è posto
k(a, u)k = (a, u) · (a, u) = a2 + u2 .
Quindi tutti gli elementi sono invertibili, fuorché quello nullo (0, 0). Si ottiene un’algebra
associativa, non commutativa, con unità (1, 0). Si pone per comodità (a, 0) = a e (0, v) =
v. Il prodotto scalare è conservato dal prodotto interno, nel senso che
k(a, u)(b, v)k = k(a, u)k k(b, v)k.
(2.63)
Da questa proprietà segue per esempio che gli elementi unitari, cioè quelli per cui k(a, u)k =
1, formano un sottogruppo del gruppo degli elementi non nulli.
Un modo conveniente per rappresentare quest’algebra, e quindi riconoscerne facilmente
le proprietà fondamentali, consiste nella scelta di una base canonica (i, j, k) dello spazio
vettoriale e nella rappresentazione di un generico elemento (a, u = b i + c j + d k) nella
somma formale
a + b i + c j + d k,
(2.64)
detta quaternione. Il prodotto di due quaternioni, in conformità alla definizione (2.60),
è l’estensione lineare dei seguenti prodotti fondamentali:
i2 = j 2 = k 2 = −1,
i j = k,
j k = i,
k i = j.
(2.65)
Definita quest’algebra, ad ogni suo elemento non nullo (a, u) si associa un’applicazione
Q : E3 → E3 definita da
Q(v) = (a, u)v(a, u)−1 .
(2.66)
Lasciamo come esercizio di dimostrare che: (i) il secondo membro definisce effettivamente
un vettore; (ii) che l’applicazione cosı̀ definita è un endomorfismo ortogonale, anzi una
rotazione; (iii) che l’applicazione
f : (R × E3 )\{0} → SO(E3 )
56
Capitolo 2. Spazi vettoriali con struttura
definita dalla (2.66) è un omomorfismo di gruppi.
In particolare possiamo restringere quest’applicazione agli elementi unitari di R × E3 .
Osserviamo allora che, scegliendo una base canonica nello spazio euclideo, questi elementi
sono caratterizzati dall’equazione (si veda la (2.64))
a2 + b2 + c2 + d2 = 1,
e quindi descrivono tutta la sfera unitaria S3 ⊂ R4 . Risulta pertanto che: (i) la sfera S3
ha una struttura di gruppo; (ii) esiste un omomorfismo di gruppi
ϕ : S3 → SO(3)
che costituisce un ricoprimento universale del gruppo delle rotazioni dello spazio euclideo
tridimensionale (questo termine è proprio della teoria dei gruppi di Lie, argomento di
corsi superiori). Si osservi che ogni elemento di SO(3) ha come controimmagine due punti
opposti di S3 .
Sulla rappresentazione delle rotazioni nello spazio tridimensionale euclideo si ritornerà più
avanti (§ 2.4.5).
2.4
Lo spazio vettoriale euclideo tridimensionale
In questo paragrafo esamineremo le proprietà fondamentali di uno spazio vettoriale sul
campo reale, tridimensionale, dotato di un tensore metrico, cioè di un prodotto scalare,
definito positivo. Lo denotiamo semplicemente con E3 . Adotteremo tutte le definizioni e
notazioni già introdotte al § 2.1. Siccome dovremo distinguere tra basi generiche e basi
canoniche, una base canonica sarà denotata con (cα) (α = 1, 2, 3), una base generica con
(ei ) (i = 1, 2, 3). Le componenti relative a una base canonica saranno quindi contrassegnate con indici greci, quelle relative ad una base generica con indici latini. Quando non
occorrono notazioni con indici, una base canonica sarà denotata con (i, j, k). Una base
canonica è anche detta ortonormale.
2.4.1
La forma volume
Due basi ordinate di uno spazio vettoriale (ci riferiamo ad uno spazio vettoriale di dimensione n qualsiasi) si dicono concordi o equiorientate se la matrice della trasformazione
da una base all’altra ha determinante positivo. Si stabilisce in questo modo una relazione
di equivalenza nell’insieme delle basi ordinate. Le classi di equivalenza sono due e prendono
il nome di orientamenti. Quando si sceglie una base e la si ordina, come si fa usualmente,
corredandone gli elementi con un indice che va da 1 a n, si sceglie automaticamente un
orientamento dello spazio. Se si scambiano fra di loro due vettori della base, oppure se si
cambia verso ad un numero dispari di vettori della base, si cambia orientamento.
Consideriamo ora lo spazio vettoriale euclideo tridimensionale E3 , pur avvertendo che le
considerazioni svolte in questo sottoparagrafo si estendono a spazi euclidei di dimensione
57
2.4. Lo spazio vettoriale euclideo tridimensionale
superiore. Fissata una base canonica (cα ) = (c1 , c2 , c3 ), col che risulta anche fissato un
orientamento, definiamo una 3-forma η : E3 × E3 × E3 → R ponendo


u1 u2 u3




1
2
3

η(u, v, w) = det  v
v
v 
(2.67)



w1 w2 w3
Che l’applicazione η cosı̀ definita sia multilineare e antisimmetrica segue immediatamente
dalle proprietà del determinante.
È importante la circostanza che la definizione (2.67) di η non dipende dalla scelta della
base canonica, purché questa appartenga all’orientamento prefissato. Per riconoscerlo
basta osservare che, ricordata la definizione di determinante, la definizione (2.67) si può
porre in forma sintetica utilizzando il simbolo di Levi-Civita3 a tre indici:
η(u, v, w) = εαβγ uα v β w γ
(2.68)
Il simbolo εαβγ vale +1 se la successione di indici (α, β, γ) è una permutazione pari della
disposizione fondamentale (1, 2, 3), −1 se è invece una permutazione dispari, 0 in tutti gli
altri casi, cioè quando almeno due degli indici sono uguali. La (2.68) mostra subito che
le componenti del tensore η nella base canonica (cα ) coincidono proprio con il simbolo di
Levi-Civita:
∗
ηαβγ = εαβγ .
(2.69)
Quest’ultima proprietà è manifestamente indipendente dalla base canonica di partenza:
se si ripetesse la definizione (2.67) scegliendo un’altra base canonica si giungerebbe al
medesimo risultato (2.69). Pertanto la definizione di η data dalla (2.67) è invariante
rispetto alla scelta della base canonica.
Il significato di η è notevole: il determinante nella definizione (2.67) rappresenta il volume
del parallelepipedo individuato dai vettori (u, v, w), più precisamente il volume con segno:
positivo se questi vettori formano, nell’ordine, una base concorde con quella canonica
prefissata, negativo in caso contrario; nullo se i vettori sono dipendenti.
Per riconoscerlo si può scegliere una base canonica (cα ) tale che c1 sia parallelo ad u e il
sottospazio individuato da (c1 , c2 ) contenga il vettore v (vedi figura). Allora:
u = u1 c1 ,
v = v 1 c1 + v 2 c2 ,
w = w 1 c1 + w 2 c2 + w 3 c3
e la definizione (2.67) fornisce

3
Vedi § 1.20.
u1
0
0

 1
η(u, v, w) = det 
v2 0
 v

w1 w2 w3



 = u1 v 2 w 3 .


(2.70)
58
Capitolo 2. Spazi vettoriali con struttura
Si riconosce, sempre guardando la figura, che quest’ultimo prodotto è proprio il volume
del parallelepipedo individuato dai vettori (u, v, w).
'
$
&
%
La forma volume.
Per quanto ora visto il tensore antisimmetrico covariante η prende il nome di forma volume. La sua definizione si estende facilmente a spazi euclidei di dimensione qualsiasi. Si
osservi che di forme volume ne esistono due, una opposta all’altra, una per ogni orientamento. L’orientamento che di solito si assume nello spazio euclideo tridimensionale è quello
della mano destra: i vettori di una base canonica ordinata (c1 , c2 , c3 ) = (i, j, k) sono
rispettivamente orientati come indice-medio-pollice (o pollice-indice-medio) della mano
destra.
La forma volume è un ente fondamentale nello spazio euclideo. Per suo tramite, come si vedrà nei prossimi paragrafi, si possono definire due operazioni fondamentali: l’aggiunzione
e il prodotto vettoriale.
Teorema 2.4.1 – Le componenti della forma-volume η rispetto ad una qualunque base
(ei ), legata ad una base canonica (cα ) dalle uguaglianze ei = Eiα cα, sono date da
ηhij = J εhij ,
J = det[Eiα]
(2.71)
dove εhij è il simbolo di Levi-Civita, oppure da
√
ηhij = ± g εhij ,
g = det[gij ],
gij = ei · ej
col segno + se la base (ei ) è concorde con la base fondamentale (cα ).
(2.72)
59
2.4. Lo spazio vettoriale euclideo tridimensionale
Dimostrazione. Posto che le due basi sono legate da relazioni del tipo ei = Eiα cα, e
posto che la base (cα) è canonica e quindi che le componenti del tensore metrico rispetto
a questa coincidono col simbolo di Kronecker, risulta
gij = Eiα Ejβ δαβ ,
per cui
det[gij ] = (det[Eiα])2 .
(2.73)
D’altra parte, per la legge di trasformazione delle componenti di un tensore, si ha anche,
stante la (2.69),
β γ
ηhij = Ehα Ei Ej εαβγ .
Scelto per esempio (h, i, j) = (1, 2, 3) e ricordata la definizione di determinante, si vede
che quest’ultima formula implica
η123 = E1α E2β E3γ εαβγ = det[Eiα].
Se invece (h, i, j) = (2, 1, 3), allora
η213 = − det[Eiα].
Si riconosce cosı̀ che vale la formula generale (2.71). Dalla (2.71) segue poi la (2.72) in
virtù della (2.73).
Osservazione 2.4.1 – Data una base canonica (cα ) e denotata con (γ α) la sua duale, la
forma volume risulta essere anche definita da
η = γ1 ∧ γ2 ∧ γ3
(2.74)
Infatti, richiamata e adattata al caso n = 3 la formula generale analoga alla (1.107) per i
covettori, possiamo scrivere
γ 1 ∧ γ 2 ∧ γ 3 = εαβγ γ α ⊗ γ β ⊗ γ γ .
Per cui
(γ 1 ∧ γ 2 ∧ γ 3 )(u, v, w) = εαβγ (γ α ⊗ γ β ⊗ γ γ )(u, v, w)
= εαβγ uα v β w γ ,
come nella (2.68). Dunque la forma volume ammette la definizione equivalente (2.74). •
2.4.2
Aggiunzione
Introdotta la forma volume, ad ogni vettore u ∈ E3 si fa corrispondere una forma bilineare antisimmetrica, sempre su E3 , chiamata aggiunta di u, denotata con ∗u e definita
dall’uguaglianza
(∗u)(v, w) = η(u, v, w)
(2.75)
60
Capitolo 2. Spazi vettoriali con struttura
Posto
ϕ = ∗u,
si ha successivamente:
ϕij
= ϕ(ei , ej ) = (∗u)(ei , ej )
= η(u, ei , ej ) = uh η(eh , ei , ej ) = uh ηhij .
Quindi le componenti ϕij della forma aggiunta, in una base generica dell’orientamento
scelto, sono date da
ϕij = ηhij uh
(2.76)
Se in particolare la base è canonica
∗
ϕαβ = εγαβ uγ
vale a dire:
La corrispondenza

0
(2.77)
u3
−u2


3
[ϕαβ ] = 
0
 −u

u2 −u1
u
1
0






(2.78)
∗ : E3 → Φ2 (E3 ) : u 7→ ∗u
che cosı̀ si genera è un isomorfismo. Con lo stesso simbolo denotiamo la corrispondenza
inversa, denotiamo cioè con ∗ϕ il vettore aggiunto della 2-forma ϕ. In questo modo si
ha ∗∗ u = u e ∗∗ ϕ = ϕ. Dalla (2.78) si vede che
ϕ23 = u1 ,
ϕ31 = u2 ,
ϕ12 = u3 ,
(2.79)
cioè che la relazione inversa della (2.77) può essere scritta, considerando il simbolo di
Levi-Civita con gli indici in alto,
∗ 1
2
uα =
εαβγ ϕβγ
(2.80)
In una base qualsiasi, sempre nell’orientamento scelto, risulta
ui =
1
2
η ijh ϕjh
(2.81)
dove le (η ijh ) sono le componenti contravarianti della forma volume:
η ijh = g ik g jl g hm ηklm .
(2.82)
61
2.4. Lo spazio vettoriale euclideo tridimensionale
Queste si possono a loro volta esprimere mediante il simbolo di Levi-Civita:
1
η ijh = √ εijh .
g
(2.83)
Infatti dalla (2.82) si trae:
η ijh =
√
g g ik g jl g hm εklm =
√
1
g εijh det[g rs] = √ εijh ,
g
poiché det[g rs] = g −1 .
La forma volume permette anche di stabilire un isomorfismo fra R = Λ0 (E3 ) e Λ3 (E3 ),
che chiamiamo ancora aggiunzione e che denotiamo ancora con ∗. Ad un numero reale a
corrisponde la 3-forma
∗a = aη
(2.84)
e, viceversa, ad una 3-forma ϕ corrisponde il numero reale
∗ϕ=
1 hij
∗ 1
η ϕhij = εαβγ ϕαβγ
3!
3!
(2.85)
Per riconoscere la coerenza tra la (2.84) e la (2.85), cioè che ∗∗ a = a, occorre osservare
che per il simbolo di Levi-Civita vale l’uguaglianza
εαβγ εαβγ = 3!
(2.86)
Accanto a questa valgono anche le seguenti, la cui verifica è lasciata come esercizio:
εαβγ εµβγ = 2 δµα,
2.4.3
εαβγ εµνγ = δµα δνβ − δνα δµβ .
(2.87)
Prodotto vettoriale
Per mezzo della forma volume definiamo un’operazione binaria interna su E3 , detta prodotto vettoriale e denotata con ×, ponendo
u × v · w = η(u, v, w)
(2.88)
Si tenga presente che il prodotto vettoriale è in alcuni testi denotato con ∧ ed è anche chiamato prodotto esterno. Tuttavia il simbolo ∧ è oggi universalmente usato per il prodotto
esterno di forme antisimmetriche (§ 1.18).
Segue subito dalla definizione (2.88) che il prodotto vettoriale u × v è ortogonale ai due
fattori:
u × v · u = 0, u × v · v = 0.
(2.89)
62
Capitolo 2. Spazi vettoriali con struttura
Segue inoltre che, se si prendono i tre vettori di una base canonica appartenente all’orientamento scelto, si ha
c1 × c2 = c3 ,
c2 × c3 = c1 ,
c3 × c1 = c2 .
(2.90)
Il prodotto vettoriale è anticommutativo, bilineare e soddisfa all’identità di Jacobi:

u × v = − v × u,



(a u + b v) × w = a u × w + b v × w,
(2.91)



u × (v × w) + v × (w × u) + w × (u × v) = 0.
Pertanto il prodotto vettoriale istituisce sullo spazio euclideo tridimensionale una struttura
di algebra di Lie. Le prime due proprietà sono di immediata verifica. La terza si può
far seguire, con qualche calcolo, dalla formula del doppio prodotto vettoriale
u × (v × w) = u · w v − u · v w
(2.92)
(u × v) × w = u · w v − v · w u
(2.93)
che è equivalente a
Per dimostrare la (2.92) si osserva che il primo membro è un vettore ortogonale a v × w
e quindi, essendo questo prodotto ortogonale a v e w, appartenente allo spazio generato
dai vettori (v, w). Si può allora scrivere
u × (v × w) = a v + b w.
Moltiplicando scalarmente per u si trova
0 = a v · u + b w · u.
Possiamo pertanto scrivere
a = ρ w · u,
b = − ρ v · u,
con ρ costante indeterminata. Segue allora:
u × (v × w) = ρ (w · u) v − (v · u) w .
Per come è definito il prodotto vettoriale il primo membro è lineare rispetto ad ogni
fattore. Cosı̀ dicasi della quantità tra parentesi a secondo membro. Allora il fattore ρ
deve essere un numero indipendente dai vettori (u, v, w) che compaiono nell’uguaglianza.
Se si considera per esempio una base canonica appartenente all’orientamento scelto e si
prende (u, v, w) = (c1 , c1 , c2 ), posto che – si veda la (2.90) – c1 × c2 = c3 e c1 × c3 = − c2 ,
risulta l’uguaglianza − c3 = ρ (− c3 ). Deve quindi essere ρ = 1 e la (2.92) è dimostrata.
63
2.4. Lo spazio vettoriale euclideo tridimensionale
Ponendo w = ei nella (2.88) si trovano le componenti covarianti del prodotto vettoriale
in una base generica:
(u × v)i = ηihj uh v j .
(2.94)
Le componenti contravarianti sono di conseguenza
(u × v)i = η ihj uh vj .
(2.95)
In una base canonica (cα ), tenendo presente che non vi è più differenza numerica tra
componenti covarianti e contravarianti, si ha
(u × v)α = εαβγ uβ v γ
(2.96)
(u × v)α = εαβγ uβ vγ .
(2.97)
ovvero anche
Di qui la possibilità di esprimere il prodotto vettoriale mediante un determinante formale:

c1
c2
c3



 1

2
3

u × v = det  u u u 



1
2
3
v v v
(2.98)
Tenuto conto delle (2.96) e (2.97), nonché della seconda delle (2.87), si può ridimostrare
la formula (2.92) del doppio prodotto vettoriale alla maniera seguente:
u × (v × w) α = εαβγ uβ (v × w)γ = εαβγ uβ εγµν vµ wν
= εαβγ εµνγ uβ vµ wν = uβ wβ vα − uβ vβ wα.
Osservazione 2.4.2 – Partendo dalla definizione (2.88) si dimostra che se ϑ è l’angolo
compreso tra i vettori non nulli u e v (valutato tra 0 e π) allora
|u × v| = |u| |v| sin ϑ
(2.99)
Infatti, per le proprietà già viste:
|u × v|2 = (u × v) · (u × v) = (u × v) × u · v
= (u · u v − u · v u) · v = |u|2 |v|2 − (u · v)2
(u · v)2
2
2
= |u| |v| 1 −
= |u|2 |v|2 (1 − cos2 ϑ). •
|u|2 |v|2
Osservazione 2.4.3 – L’operazione combinata di prodotto vettoriale e prodotto scalare, u × v · w, è chiamata prodotto misto. Dalla definizione (2.88) seguono subito,
64
Capitolo 2. Spazi vettoriali con struttura
stante l’antisimmetria di η, la proprietà anticommutativa, la proprietà ciclica e la
proprietà di scambio del prodotto misto:

u × v · w = − v × u · w, u × v · w = − u × w · v, . . .



u × v · w = v × w · u = w × u · v,
(2.100)



u × v · w = u · v × w. •
2.4.4
Endomorfismi assiali
Ad ogni vettore a ∈ E3 corrisponde per aggiunzione una forma bilineare antisimmetrica
∗a. Interpretata questa come endomorfismo (antisimmetrico), vale la formula
∗ a(v) = a × v
(2.101)
Infatti, in virtù delle definizioni sopra date, si ha successivamente
∗a(v) · u = ∗a(v, u) = η(a, v, u) = a × v · u,
per cui, stante l’arbitarietà del vettore u, segue la (2.101). Siccome l’aggiunzione è una corrispondenza biunivoca fra vettori e forme bilineari antisimmetriche, e quindi endomorfismi
antisimmetrici, concludiamo che nello spazio euclideo tridimensionale ogni endomorfismo
antisimmetrico è del tipo (2.101), cioè del tipo a×, con a ∈ E3 . Si noti che il vettore a
è un autovettore di ∗a, corrispondente all’autovalore nullo; infatti ∗a(a) = a × a = 0.
Per questo motivo gli endomorfismi antisimmetrici sono anche chiamati endomorfismi
assiali.
La corrispondenza biunivoca cosı̀ stabilita tra i vettori e gli endomorfismi antisimmetrici
è un isomorfismo d’algebre di Lie (si ricordi che, proprietà (VI) al § 2.2, in ogni spazio
euclideo gli endomorfismi antisimmetrici formano, con il commutatore, un’algebra di Lie).
Sussiste infatti l’uguaglianza
∗ [A, B] = (∗A) × (∗B)
(2.102)
[∗a, ∗b] = ∗(a × b)
(2.103)
ovvero l’uguaglianza equivalente
Infatti, posto ∗a = A e ∗b = B, si ha
A B(u) = a × (b × u)
e quindi, utilizzando l’identità di Jacobi per il doppio prodotto vettoriale,
[A, B](u) = a × (b × u) − b × (a × u)
= a × (b × u) + b × (u × a)
= − u × (a × b) = (a × b) × u = ∗(a × b)(u).
65
2.4. Lo spazio vettoriale euclideo tridimensionale
Osservazione 2.4.4 – Sappiamo che in E3 , come in ogni spazio euclideo, esiste una corrispondenza biunivoca fra vettori e covettori (§ 2.1). Al § 1.18 abbiamo definito il prodotto
esterno di due covettori. Il legame tra questo prodotto esterno e il prodotto vettoriale è
espresso dall’uguaglianza
∗ (u × v) = u[ ∧ v[
(2.104)
Infatti, tenuto conto della formula (2.93) sul doppio prodotto vettoriale, si ha successivamente:
∗(a × b)(u, v) = η(a × b, u, v) = (a × b) × u · v
=a·ub·v−a·v b·u
= hu, a[ ihv, b[ i − hv, a[ ihu, b[ i = a[ ∧ b[ (u, v). •
2.4.5
Rotazioni
Consideriamo le rotazioni dello spazio E3 . Ricordiamo, dalla teoria generale svolta al § 2.3,
che una rotazione è una isometria con determinante uguale a +1 e che i suoi autovalori,
se lo spazio è strettamente euclideo, sono unitari, quindi del tipo eiϑ = cos ϑ + i sin ϑ.
Per n = 3 gli autovalori sono radici di un polinomio di terzo grado a coefficienti reali.
Quindi almeno uno di essi è reale, gli altri due complessi coniugati o reali. Imponendo la
condizione che il prodotto di tutti e tre gli autovalori sia uguale a 1 = det(Q) si trova che
l’unico spettro possibile di una rotazione è del tipo
(1, eiϑ, e−iϑ ).
(2.105)
Ciò premesso, se escludiamo il caso Q = 1, il cui spettro è (1, 1, 1), l’autovalore 1 determina un sottospazio unidimensionale di autovettori K1 ⊂ E3 che chiamiamo asse della
rotazione. Il numero ϑ che compare nella (2.105), determinato a meno del segno e di
multipli di 2π, prende il nome di angolo della rotazione.
'
$
&
%
Versore-angolo di una rotazione.
66
Capitolo 2. Spazi vettoriali con struttura
Si può rappresentare la rotazione Q mediante una coppia (u, ϑ) dove u è un versore
dell’asse e ϑ è l’angolo della rotazione, orientato in maniera tale che per ogni vettore c
ortogonale a u il passaggio da c a Q(c) secondo il verso di ϑ sia tale da produrre un
“avvitamento” nel verso di u (è sottintesa la scelta del solito orientamento dello spazio,
secondo la regola della mano destra). Si dice allora che (u, ϑ) sono versore e angolo
della rotazione Q o anche che u è il versore dell’angolo ϑ.
Si osservi che le coppie (u, ϑ) e (−u, −ϑ) dànno luogo alla stessa rotazione come anche,
in particolare, le coppie (u, π) e (u, −π). Se si sceglie una base canonica (cα ) tale che
c3 = u, allora la matrice delle componenti della rotazione Q generata dalla coppia (u, ϑ),
con u versore di ϑ, ha la forma seguente:


cos ϑ sin ϑ 0




β

(2.106)
[Qα] =  − sin ϑ cos ϑ 0 
.


0
0
1
Infatti, tenuto presente che in una base canonica
∗
Qβα = Qαβ = Q(cα ) · cβ ,
si vede con l’aiuto della figura che Q11 = Q(c1 ) · c1 = cos ϑ, Q12 = Q(c1 ) · c2 = sin ϑ, e
cosı̀ via.
Oltre alla coppia versore-angolo vi sono varie altre rappresentazioni della rotazioni, per
esempio quella esponenziale e quella quaternionale, già esaminate ai §§ 2.3.3 e 2.3.5. Oltre
a queste è da prendersi in considerazione quella fornita dagli angoli di Eulero (Leonhard
Euler, 1707-1783), basata sulla relazione fra una terna ortonormale di vettori, detta terna
fissa, e la terna ruotata: la prima è una base canonica (cα ) = (i, j, k); la seconda è la
terna (Q(cα )) = (i0 , j 0 , k0 ). Gli angoli di Euler (θ, φ, ψ), detti rispettivamente angolo di
nutazione, di rotazione propria, di precessione e soddisfacenti alle limitazioni

0 < θ < π,



0 ≤ φ < 2π,
(2.107)



0 ≤ ψ < 2π,
sono definiti, nell’ipotesi che k0 = Q(c3 ) sia distinto da k = c3 , come segue (si guardi la
figura).
(I) L’angolo di nutazione θ è l’angolo compreso tra k e k 0 .
(II) Si consideri l’intersezione fra il piano (i0 , j 0 ) e il piano (i, j): è una retta detta linea
dei nodi. Questa è individuata dal versore del prodotto vettoriale k × k0 che denotiamo
con N (infatti la retta in questione è ortogonale sia a k che a k0 ).
(III) L’angolo di rotazione propria φ è l’angolo formato da (N , i0 ) di versore k0 e l’angolo di
precessione ψ è l’angolo formato da (i, N) di versore k. Da questa definizione discende che
assegnati comunque tre angoli soddisfacenti alle limitazioni (2.107) risulta univocamente
definita la terna ruotata (si veda anche l’Esercizio 2 seguente).
2.4. Lo spazio vettoriale euclideo tridimensionale
'
$
&
%
Gli angoli di Euler
67
***
Esempio 2.4.1 – Poniamoci il problema di:
(I) determinare la coppia (u, ϑ) a partire dalla rotazione Q e, viceversa,
(II) di determinare la rotazione Q a partire dalla coppia (u, ϑ).
Osserviamo innanzitutto che, data Q, il versore u è un autovettore associato all’autovalore
1, quindi determinabile risolvendo un sistema di equazioni lineari. Tuttavia, è più semplice
la sua determinazione attraverso la parte antisimmetrica di Q, almeno quando questa non
è nulla, perché si ha
sin ϑ u = ∗QA .
(2.108)
Se infatti si guarda alla matrice (2.106), che è ottenuta scegliendo opportunamente una
base canonica, e si ricorda la relazione tra le componenti di una forma bilineare antisimmetrica e quelle del vettore aggiunto, data per esempio dalla (2.78), si trova l’uguaglianza

 

0
a3 −a2
0
sin ϑ 0

 


 

β
3
1 


[Aα] =  −a
0
a  =  − sin ϑ
0
0 
,

 

2
1
a
−a
0
0
0
0
posto A = QA e a = ∗A. Di qui la (2.108). La formula (2.108), fissata una delle due
possibili scelte del versore u, determina solamente sin ϑ e non ϑ. Occorre quindi, per
eliminare questa indeterminazione, estrarre qualche altra informazione da Q. Si può per
esempio calcolare cos ϑ attraverso la formula (che lasciamo da dimostrare)
1 + 2 cos ϑ = I2 (Q) = tr(Q).
(2.109)
68
Capitolo 2. Spazi vettoriali con struttura
Questa ci consente fra l’altro di osservare che l’invariante primo (la traccia) e l’invariante secondo di una rotazione coincidono. Il problema inverso (II) può essere risolto con
l’uso della rappresentazione esponenziale. Infatti, data una qualunque coppia (u, ϑ), e
introdotto l’endomorfismo aggiunto U = ∗u, la rotazione
Q = eϑU
(2.110)
è proprio la rotazione di versore-angolo (u, ϑ). Per riconoscerlo ominciamo con l’osservare
che:
U (v) = (∗U ) × v = u × v,
U 2 (v) = u × U (v) = u × (u × v) = u · v u − v,
U 3 (v) = u × U 2 (v) = − u × v = − U (v),
quindi che
U 2n+2 = (−1)n U 2 ,
U 2n+1 = (−1)n U .
Si ha allora successivamente:
eϑU
1
1 2n 2n P∞
ϑ U + n=0
ϑ2n+1 U 2n+1
2n!
(2n + 1)!
P∞
P∞ (−1)n−1 2n
(−1)n
2
2n+1
=1+
ϑ
U
+
ϑ
U,
n=1
n=0
2n!
(2n + 1)!
=
P∞
n=0
vale a dire
Q = eϑU = 1 + sin ϑ U + (1 − cos ϑ)U 2 .
(2.111)
Questa formula è in accordo con le precedenti (2.108) e (2.109) perché implica
∗QA = sin ϑ ∗ U = sin ϑ u,
e
tr(Q) = 3 + (1 − cos ϑ)tr(U 2 ) = 2 cos ϑ + 1,
valendo la formula generale, la cui verifica è immediata,
tr(U 2 ) = −2 kuk,
(2.112)
che quindi in questo caso produce tr(U 2 ) = −2. La formula (2.111), tenuto conto delle
espressioni U (v) e U 2 (v) sopra scritte, consente anche di esprimere il generico vettore
Q(v) mediante la coppia (u, ϑ):
Q(v) = cos ϑ v + (1 − cos ϑ) u · v u + sin ϑ u × v. •
(2.113)
69
2.4. Lo spazio vettoriale euclideo tridimensionale
Esempio 2.4.2 – La matrice delle componenti della rotazione Q determinata dagli angoli
di Euler (θ, φ, ψ) è:

cos φ cos ψ − sin φ sin ψ cos θ
cos φ sin ψ + sin φ cos ψ cos θ


[Qβα] = 
− sin φ sin ψ + cos φ cos ψ cos θ
 − sin φ cos ψ − cos φ sin ψ cos θ

sin φ sin θ
− cos ψ sin θ
sin ψ sin θ



cos φ sin θ 
.

cos θ
(2.114)
Per giungere alla (2.114) si può osservare che la rotazione Q è composta da tre rotazioni
successive Φ, Θ, Ψ, caratterizzate dalle seguenti coppie versore-angolo:
Φ = (k, φ),
Θ = (i, θ),
Ψ = (k, ψ).
Le matrici delle componenti sono rispettivamente:


cos φ sin φ 0


β
,
[Φα] = 
−
sin
φ
cos
φ
0


0
0
1


1
0
0


β

[Θα] = 
 0 cos θ sin θ  ,
0 − sin θ cos θ


cos ψ sin ψ 0


β

[Ψα] = 
 − sin ψ cos ψ 0  .
0
0
1
Si deve quindi eseguire il prodotto matriciale
Qβα = Φρα Θσρ Ψβσ .
Eseguendo il prodotto (righe per colonne, secondo le convenzioni adottate) delle prime
due matrici si ottiene


cos φ sin φ cos θ sin φ sin θ


.
[Φρα Θσρ ] = 
−
sin
φ
cos
φ
cos
θ
cos
φ
sin
θ


0
− sin θ
cos θ
Moltiplicando questa per la terza si ottiene la (2.114). •
70
2.5
Capitolo 2. Spazi vettoriali con struttura
Spazi vettoriali iperbolici
Uno spazio vettoriale iperbolico è uno spazio vettoriale pseudoeuclideo (Hn , g) di
segnatura (n − 1, 1). Ciò significa (si veda il § 2.1) che in ogni base canonica (ci ) un
vettore ha norma negativa (si dice che è del genere tempo) e gli altri n − 1 hanno norma
positiva (si dicono del genere spazio). Conveniamo che gli indici latini varino da 0 a n − 1,
che in una base canonica (ci ) il vettore del genere tempo sia c0 , che i rimanenti vettori
del genere spazio siano denotati con (cα ), e che gli indici greci varino quindi da 1 a n − 1.
La matrice metrica in una base canonica avrà pertanto la forma


−1 0 . . . 0


 0 1 ... 0 



[gij ] = 
(2.115)
 ..
.. . .
.. 
 .
. . 
.


0 0 ... 1
Lo spazio iperbolico di dimensione 4 prende il nome di spazio vettoriale di Minkowski
(Hermann Minkowski, 1864-1909). Questo spazio è di fondamentale importanza per la
teoria della Relatività Ristretta. Ricordiamo ancora che un vettore ortogonale a se stesso
è detto isotropo o del genere luce.
Ci limitiamo in questo paragrafo ad esaminare alcune proprietà fondamentali degli spazi
iperbolici in generale e, in particolare, dello spazio iperbolico bidimensionale. Si tenga
presente che per spazio iperbolico alcuni autori intendono uno spazio di dimensione pari
2n e segnatura (n, n).
Teorema 2.5.1 – Un vettore (non nullo) ortogonale ad un vettore del genere tempo è un
vettore del genere spazio. Il sottospazio ortogonale ad un vettore del genere tempo è uno
spazio strettamente euclideo (di dimensione n − 1).
Dimostrazione. Sia v un vettore del genere tempo. Si consideri il sottospazio unidimensionale K generato da v e il suo ortogonale K ⊥ . Non può essere v ∈ K ⊥ perché v
sarebbe anche ortogonale a se stesso, quindi isotropo. Dunque K ∩ K ⊥ = 0 e il sottospazio
K ⊥ è a metrica non degenere (si veda l’Oss. 2.1.6). Si può quindi determinare su K ⊥ , che
è di dimensione n − 1, una base canonica (cα ). Se consideriamo anche il versore c0 di v,
otteniamo una base canonica. Siccome c0 è del genere tempo tutti gli altri vettori della
base sono del genere spazio, altrimenti si violerebbe il teorema di Sylvester, posto che la
segnatura è (n − 1, 1). Dunque tutti i vettori di K ⊥ sono del genere spazio e questo è
strettamente euclideo. 2
In maniera analoga si dimostra che
Teorema 2.5.2 – Il sottospazio ortogonale ad un vettore del genere spazio è uno spazio
iperbolico se n > 2 o del genere tempo se n = 2.
71
2.5. Spazi vettoriali iperbolici
Dal Teorema 2.5.1 segue che i sottospazi del genere tempo hanno dimensione 1. Segue anche che, fissato un sottospazio K ⊂ H del genere tempo, risulta definita una
decomposizione spazio-temporale dello spazio iperbolico H nella somma diretta
H = K ⊕ S,
dove S è il sottospazio strettamente euclideo ortogonale a K (S = K ⊥ ).
Teorema 2.5.3 – Il sottospazio ortogonale ad un vettore (non nullo) del genere luce è a
metrica degenere contenente il vettore stesso. Tutti i vettori del sottospazio indipendenti
da questo sono del genere spazio.
Dimostrazione. Sia v un vettore isotropo, K il sottospazio da esso generato. Siccome
v è ortogonale a se stesso per definizione, risulta K ⊂ K ⊥ . Quindi K ∩ K ⊥ 6= 0 e il
sottospazio K ⊥ è a metrica degenere. Se in esso vi fosse un vettore del genere tempo, si
contrasterebbe con la Proposizione 1, che implica v del genere spazio. Se vi fossero due
vettori indipendenti del genere luce, si contrasterebbe con il teorema seguente. 2
Teorema 2.5.4 – Due vettori del genere luce e ortogonali sono dipendenti (cioè paralleli).
Dimostrazione. Un generico vettore isotropo v 6= 0 può sempre mettersi nella forma
v = a(u + c0 ), dove u è un vettore unitario, del genere spazio, ortogonale a c0 , generico
vettore unitario del genere tempo; basta infatti porre u = a1 v − c0 con a = −v · c0 (si
osservi che la condizione v · c0 = 0 violerebbe la Proposizione 1). Se v0 = a0 (u0 + c0 ) è
un altro vettore isotropo decomposto allo stesso modo, dalla condizione v · v 0 = 0 segue
u · u0 − 1 = 0. Ma due vettori unitari del genere spazio hanno prodotto scalare uguale a
1 se e solo se sono uguali. Da u = u0 segue che v e v0 sono dipendenti. 2
Dal teorema precedente segue che i sottospazi isotropi hanno dimensione 1, a conferma
della proprietà generale messa in evidenza nell’Oss. 2.1.6.
Definizione 2.5.1 – Denotiamo con T il sottoinsieme dei vettori del genere tempo. Diciamo che due vettori u, v ∈ T sono ortocroni se u · v < 0. •
Teorema 2.5.5 – La relazione di ortocronismo è una relazione di equivalenza che divide
T in due classi.
Dimostrazione. La relazione di ortocronismo è riflessiva perché si ha v · v = kvk < 0
per ogni vettore del genere tempo (per definizione). è ovviamente simmetrica, perché è
simmetrico il prodotto scalare. Per dimostrare la proprietà transitiva dobbiamo dimostrare
l’implicazione
u · v < 0, v · w < 0 =⇒ u · w < 0.
(2.116)
72
Capitolo 2. Spazi vettoriali con struttura
Per dimostrare che le classi di equivalenza sono due dobbiamo dimostrare l’mplicazione
u · v > 0,
v·w>0
=⇒
u · w < 0.
(2.117)
Per questo scopo, supposto senza ledere la generalità che il vettore v sia unitario, si scelga
una base canonica tale da aversi c0 = v. Si ha allora:
u·w=
n−1
X
α=1
uα w α − u0 w 0 ,
u · v = g00 u0 = − u0 ,
w · v = − w0 .
Le condizioni u ∈ T e w ∈ T sono equivalenti alle disuguaglianze
n−1
X
α=1
(uα)2 − (u0 )2 < 0,
n−1
X
(w α )2 − (w 0 )2 < 0.
α=1
Per la disuguaglianza di Schwarz, valida nello spazio strettamente euclideo ortogonale a
c0 e generato dai vettori (cα), si ha anche
n−1
X
α=1
uα w α
!2
≤
n−1
X
(uα )2
α=1
n−1
X
(w α)2 < (u0 w 0 )2 .
α=1
Abbiamo allora le seguenti implicazioni : (u · v < 0, v · w < 0) ⇐⇒ (u0 > 0, w 0 > 0) =⇒
u0 w 0 > 0 =⇒ u · w < 0. Quindi l’implicazione (2.116) è dimostrata. Analogamente si ha:
(u · v > 0, v · w > 0) ⇐⇒ (u0 < 0, w 0 < 0) =⇒ u0 w 0 > 0 =⇒ u · w < 0. Quindi anche
l’implicazione (2.117) è dimostrata. 2
Denotiamo con T + e T − le due classi di equivalenza in cui è diviso l’insieme T dei vettori
del genere tempo; essi si chiamano rispettivamente futuro e passato. Denotiamo con
L l’insieme dei vettori del genere luce. Essi formano il cosiddetto cono di luce. Se
infatti denotiamo con x = xi ci il generico vettore dello spazio e se imponiamo che esso
sia isotropo, cioè che x · x = 0, troviamo la condizione
n−1
X
α=1
(xα)2 − (x0 )2 = 0.
(2.118)
Questa è l’equazione di un cono di centro l’origine (vettore nullo). Il cono di luce è diviso
in due falde, L+ e L− , ciascuna delle quali separa dai vettori del genere spazio i vettori
delle classi T + e T − rispettivamente, i quali stanno all’interno di ciascuna falda (vedi
figura).
2.5. Spazi vettoriali iperbolici
'
$
&
%
Il cono di luce.
73
I vettori unitari del genere spazio sono caratterizzati dall’equazione
n−1
X
α=1
(xα)2 − (x0 )2 = 1.
(2.119)
Si tratta di un iperboloide a una falda. I vettori unitari del genere tempo sono invece
caratterizzati dall’equazione
n−1
X
(xα )2 − (x0 )2 = −1.
(2.120)
α=1
Si tratta di un iperboloide a due falde. Va inoltre tenuto presente che
Teorema 2.5.6 – La somma di due o più vettori di T + (risp. di T − ) è ancora un vettore
di T + (risp. di T − ).
Dimostrazione. Siano u, v ∈ T + . Ciò significa che kuk < 0, kvk < 0, u · v < 0. Di
qui segue ku + vk = kuk + kvk + 2 u · v < 0; quindi la somma u + v è del genere tempo.
Inoltre: u · (u + v) = u · u + u · v < 0. Dunque u e la somma u + v sono ortocroni. 2
Osservazione 2.5.1 – (I) Si verifichi che nello spazio End(E) degli endomorfismi sopra
uno spazio vettoriale E si definisce un prodotto scalare ponendo
A · B = tr(AB).
(2.121)
74
Capitolo 2. Spazi vettoriali con struttura
(II) Si dimostri che, nel caso n = 2, la segnatura del tensore metrico cosı̀ definito è (3,1).
Lo spazio H4 = End(E2 ) degli endomorfismi su di uno spazio bidimensionale è quindi uno
spazio di Minkowski.
(III) Si dimostri che l’assegnazione di un tensore metrico definito positivo su E2 implica
la definizione di una decomposizione spazio-temporale di H4 .
(IV) Si estendano queste considerazioni al caso dello spazio Hn2 = End(En ), dimostrando
che la segnatura del prodotto scalare definito dalla (2.121) è
n(n + 1) n(n − 1)
,
. •
2
2
Esaminiamo ora, per meglio comprendere la struttura di uno spazio iperbolico, il caso più
semplice dello spazio iperbolico bidimensionale H2 .
Fissata una base canonica (c0 , c1 ), con c0 del genere tempo, osserviamo innanzitutto che
il cono di luce, insieme dei vettori isotropi, ha ora equazione
(x1 )2 − (x0 )2 = 0,
e si riduce pertanto alle rette isotrope di equazione x1 − x0 = 0 e x1 + x0 = 0, che sono
le bisettrici dei quadranti individuati dai vettori della base. Volendo raffigurare su di un
piano i vettori (c0 , c1 ), unitari e ortogonali fra loro, dobbiamo tener presente che il foglio
su cui riportiamo la figura che segue, fissato un punto corrispondente al vettore nullo,
è la rappresentazione intuitiva dello spazio bidimensionale strettamente euclideo, non di
quello iperbolico. Per esempio, contrariamente al nostro senso euclideo, i vettori che si
trovano sulle bisettrici hanno lunghezza nulla. Cosı̀, i vettori unitari del genere tempo
sono caratterizzati dall’equazione
(x0 )2 − (x1 )2 = 1,
e descrivono quindi un’iperbole di vertici i punti (±1, 0) e asintoti le rette isotrope, mentre
i vettori unitari del genere spazio sono caratterizzati dall’equazione
(x1 )2 − (x0 )2 = 1,
e descrivono pertanto l’iperbole di vertici i punti (0, ±1) con gli stessi asintoti. Se ora
prendiamo un vettore u unitario del genere tempo, la retta descritta dai vettori ortogonali
a questo ha equazione
u1 x1 − u0 x0 = 0.
Si consideri quindi uno dei due vettori v unitari e ortogonali a u; sappiamo che questi
sono del genere spazio. Allora
ku − vk = kuk + kvk + 2 u · v = −1 + 1 + 0 = 0.
Ciò significa che il vettore differenza u − v è isotropo, quindi giacente su una delle due
bisettrici (asintoti). Concludiamo che, nella rappresentazione euclidea, due vettori del
piano iperbolico non isotropi, unitari e ortogonali, stanno in posizione simmetrica rispetto
ad una delle due bisettrici (vedi figura).
2.5. Spazi vettoriali iperbolici
'
$
&
%
Ortogonalità dei vettori nel piano iperbolico.
75
Si osservi ancora, guardando dinuovo la figura, che per un “osservatore iperbolico” la coppia (u, v) è una base canonica, quindi del tutto equivalente alla coppia (c0 , c1 ), ottenibile
da questa mediante una rotazione, cioè mediante un elemento di SO(1, 1). Siamo quindi
condotti ad esaminare il gruppo delle isometrie sullo spazio iperbolico bidimensionale. Ci
limitiamo a quelle di determinante +1, cioè alle rotazioni. Ricordiamo inanzitutto che le
componenti Qji di un qualunque endomorfismo Q sono legate alle componenti (Qij ) della
forma bilineare corrispondente dalle equazioni Qij = gjk Qki . Pertanto, essendo nel caso
presente
g00 = −1, g11 = 1, g01 = g10 = 0,
risulta:
Posto inoltre
Q00 = − Q00 ,
Q01 = Q10 ,
Q(c0 ) = a c0 + b c1 ,
cioè
[Qji ]
=
Q10 = − Q01 ,
Q11 = Q11 .
Q(c1 ) = c c0 + d c1 ,
"
a b
c d
#
,
dalle condizioni Q(ci ) · Q(cj ) = ci · cj e det(Qji ) = 1, caratteristiche di una rotazione,
seguono le uguaglianze:
a2 − b2 = 1,
d2 − c2 = 1,
bd − ac = 0,
ad − bc = 1.
Dalle ultime due si trae a = d e b = c. Dalla prima segue a2 ≥ 1. Possiamo allora porre
a = cosh χ,
b = sinh χ,
(2.122)
76
Capitolo 2. Spazi vettoriali con struttura
oppure
a = − cosh χ,
b = sinh χ.
(2.123)
Poiché a = − Q(c0 ) · c0 , nel primo caso abbiamo a > 0, quindi una rotazione ortocrona,
conservante cioè la classe di ogni vettore del genere tempo. La matrice delle componenti
di una rotazione ortocrona ha quindi la forma:
#
"
cosh χ sinh χ
j
[Qi ] =
.
(2.124)
sinh χ cosh χ
Nel secondo caso si ha una rotazione non ortocrona e la matrice corrispondente è:
"
#
− cosh χ
sinh χ
j
[Qi ] =
.
(2.125)
sinh χ
− cosh χ
Il parametro χ che interviene in queste due rappresentazioni prende il nome di pseudoangolo della rotazione. Esso può variare da −∞ a +∞, ricoprendo tutte le rotazioni
ortocrone. Per χ = 0 si ha ovviamente Q = 1. La composizione di due rotazioni di
pseudoangolo χ1 e χ2 è la rotazione di pseudoangolo χ1 + χ2 : lo si desume dalla (2.124)
utilizzando le proprietà elementari delle funzioni trigonometriche iperboliche. Sempre in
base a tali proprietà, si osserva che si può scegliere come parametro rappresentativo la
tangente iperbolica dello pseudoangolo,
β = tanh χ =
sinh χ
,
cosh χ
variabile nell’intervallo aperto (−1, 1). La (2.124) diventa allora
"
#
1
β
1
[Qji ] = p
.
1 − β2
β 1
(2.126)