Complementi di Algebra lineare

annuncio pubblicitario
3
Forme bilineari e forme sesquilineari
3.1
Definizioni
Sia V uno spazio vettoriale su K .
Definizione 3.1 Un’applicazione B : V × V → K si dice bilineare se
1. B(v + w, z) = B(v, z) + B(w, z)
2. B(kv, w) = kB(v, w)
3. B(v, w + z) = B(v, w) + B(v, z)
4. B(v, kw) = kB(v, w)
La forma si dice inoltre simmetrica se B(v, w) = B(w, v) e antisimmetrica ( o
alternante) se B(v, w) = −B(w, v).
Sia V uno spazio vettoriale su C .
Definizione 3.2 Un’applicazione H : V × V → C si dice sesquilineare se
1. H(v + w, z) = H(v, z) + H(w, z)
2. H(kv, w) = kH(v, w)
3. H(v, w + z) = H(v, w) + H(v, z)
4. H(v, kw) = k̄H(v, w)
La forma si dice inoltre hermitiana se H(v, w) = H(w, v) e antihermitiana se
H(v, w) = −H(w, v)
Le proprietà 1 e 2 segnalano che B (H) è lineare nella prima variabile, le
proprietà 3 e 4 segnalano che B è lineare (H antilineare) nella seconda variabile.
Proposizione 3.1 Ogni forma bilineare (sesquilineare) è somma di una forma
simmetrica e una antisimmetrica (hermitiana e antihermitiana).
Dim.
B(v, w) + B(w, v) B(v, w) − B(w, v)
+
(19)
2
2
Il primo addendo è una forma bilineare simmetrica, S(B), il secondo è una forma
bilineare antisimmtrica, A(B).
B(v, w) =
H(v, w) =
H(v, w) + H(w, v) H(v, w) − H(w, v)
+
2
2
(20)
Il primo addendo è una forma hermitiana il secondo è una forma antihermitiana.
35
A ogni forma bilineare B(v, w) si può associare una forma quadratica Q :
V → K, definita da
Q(v) = B(v, v).
Per ogni forma quadratica vale
Q(kv) = k 2 Q(v)
Q(v + w) = Q(v) + Q(w) + B(v, w) + B(w, v).
Se la forma è simmetrica allora
Q(v + w) − Q(v) − Q(w)
.
(21)
2
Molte forme bilineari definiscono la stessa forma quadratica ma fra di loro ve
ne è una sola simmetrica; infatti B e S(B) generano la stessa forma quadratica,
il che garantisce che nell’insieme delle forme bilineari che generano la stessa
forma quadratica ve ne è una simmetrica, e d’altra parte per la (21) questa è
univocamente determinata da Q.
In modo analogo a quanto visto sopra, a una forma sesquilineare H(v, w) si
associa la forma H-quadratica QH : V → C, definita da
B(v, w) =
QH (v) = H(v, v).
Per ogni forma H-quadratica vale
2
QH (kv) = |k| QH (v)
QH (v + w) = QH (v) + QH (w) + H(v, w) + H(w, v),
da cui se la forma H è hermitiana si ha
H(v, w) = ReH(v, w) + iImH(v, w) =
QH (v + iw) − QH (v) − QH (w)
QH (v + w) − QH (v) − QH (w)
+i
.
(22)
2
2
Osserviamo che la forma H-quadratica associata a una forma hermitiana
è reale, nel senso che assume solo valori reali, infatti h(v, v) = h(v, v) ∈ R.
(Analogamente la forma H-quadratica associata a una forma antihermitiana è
immaginaria pura.)
Vi è corrispondenza biunivoca fra le forme hermitiane e le forme H-quadratiche
reali, infatti dalla (20) segue che fra tutte le forme sesquilineari che definiscono
una forma H-quadratica reale ve ne è una hermitiana e d’altra parte una forma
hermitiana che definisce una forma H-quadratica reale QH può essere ricostruita
a partire da QH , per la (22), ed è quindi univocamente determinata.
Esempio 3.1 Sia A ∈ Mnn (K) l’applicazione
B : Kn × Kn
(x, y)
→
K
7→ xt Ay
è una forma bilineare in Kn . La forma B è simmetrica se e solo se A è simmetrica.
36
Definizione 3.3 Una matrice A ∈ Mnn (C) si dice hermitiana se A = Āt .
Esempio 3.2 Sia A ∈ Mnn (C), l’applicazione
H : C n × Cn
(x, y)
→
C
7→ xt Aȳ
è una forma sesquilineare in Cn . La forma H è hermitiana se e solo se A è
hermitiana.
3.2
Matrici associate a forme bilineari e sesquilineari
Sia B : V × V → K una forma bilineare e sia H : V × V → C una forma
sesquilineare; (si intende che nel primo caso V è uno spazio vettoriale su K , nel
secondo uno spazio vettoriale su C .) Sia V = {v1 , . . . , vn } una base di V .
Definiamo
MV (B) := (B(vi , vj ))1 ≤ i ≤ n
MV (H) := (H(vi , vj ))1 ≤ i ≤ n .
1 ≤ j ≤ n
1 ≤ j ≤ n
Siamo in grado, adesso,Pdi rappresentarePin coordinate la forma bilineare
n
n
(sesquilineare). Siano v = i=1 xi vi e w = j=1 yj vj ,


n
n
X
X
B(v, w) = B 
xi vi ,
yj vj  =
i=1
n
X
xi yj B(vi , vj ) =
i,j=1
n
X
j=1
xi yj MV (B)ij = xt MV (B)y.
i,j=1
t
dove x = (x1 , . . . , xn ) e y = (y1 , . . . , yn )t . Similmente


n
n
X
X
H(v, w) = H 
xi vi ,
yj vj  =
i=1
n
X
i,j=1
xi ȳj H(vi , vj ) =
n
X
j=1
xi ȳj MV (H)ij = xt MV (H)ȳ.
i,j=1
La rappresentazione in coordinate rispetto alla base V della forma quadratica
Q associata alla forma bilineare B è il seguente polinomio omogeneo di secondo
grado, nelle coordinate x1 , . . . , xn del vettore v:
Q(v) = B(v, v) = xt MV (B)x =
n X
n
X
xi xj B(vi , vj ),
i=1 j=1
e nel caso in cui la forma bilineare B sia la forma bilineare simmetrica associata
alla forma quadratica Q, posso scrivere
37
Q(v) =
n
X
Q(vi )x2i
+2
i=1
n
n
X
X
B(vi , vj )xi xj .
i=1 j=i+1
Per cui, se il polinomio omogeneo di secondo grado
n
X
aii x2i +
n
n
X
X
i=1
aij xi xj
i=1 j=i+1
rappresenta la forma quadratica Q, rispetto la base V, la matrice che rappresenta
la forma bilineare simmetrica24 B associata alla forma quadratica Q, rispetto
la stessa base, è


a11 a212 . . . a21n
a
a
2n 
 12 a22 . . .
2
 2

MV (B) = 
.
.
.
 ... ...
. ... 
a1n
a2n
. . . ann
2
2
Nel caso di una forma hermitiana H la rappresentazione in coordinate della
forma H-quadratica associata è data da
QH (v) =
n
n X
X
i=1 j=1
xi xj H(vi , vj ) =
n
X
QH (vi )|xi |2 +2
n
n
X
X
Re(H(vi , vj )xi x̄j ).
i=1 j=i+1
i=1
La matrice associata a una forma bilineare (sesquilineare) dipende dalla base.
Vediamo le relazioni che sussistono fra due matrici associate alla stessa forma
rispetto due basi diverse. Sia V 0 = {v10 , . . . ,P
vn0 } un’altra base P
di V . Nella nuova
n
n
base i vettori v, w si rappresentano v = i=1 x0i vi0 e w = j=1 yj0 vj0 . Dalle
formule di cambiamento di coordinate abbiamo
x = MVV 0 (id)x0
y = MVV 0 (id)y0
Da cui
B(v, w) = xt MV (B)y =
(MVV 0 (id)x0 )t MV (B)MVV 0 (id)y0 =
t
0
x0t MVV
0 (id)MV (B)MVV 0 (id)y
d’altra parte
B(v, w) = x0t MV 0 (B)y0
pertanto
t
0
x0t MV 0 (B)y0 = x0t MVV
0 (id)MV (B)MVV 0 (id)y
che, valendo per ogni x0 e y0 , implica
t
MV 0 (B) = MVV
0 (id)MV (B)MVV 0 (id).
24 in
qualche libro tale forma si chiama forma polare associata alla forma quadratica
38
Analogamente, nel caso sesquilineare, otteniamo
t
MV 0 (H) = MVV
0 (id)MV (H)MVV 0 (id).
Definizione 3.4 Due matrici A, B ∈ Mnn (K) si dicono congruenti se esiste
una matrice M ∈ GLn (K) tale che
A = M t BM.
Definizione 3.5 Due matrici A, B ∈ Mnn (C) si dicono H-congruenti se esiste
una matrice M ∈ GLn (C) tale che
A = M t B M̄ .
Le relazioni di congruenza e H-congruenza sono di equivalenza. Verifica per
esercizio.
Abbiamo dunque provato che
Proposizione 3.2 Le matrici associate alla stessa forma bilineare (sesquilineare) rispetto a due basi diverse sono congruenti (H-congruenti).
La definizione di H-congruenza (3.5) è spesso presentata con la condizione
A = M̄ t BM , che è del tutto equivalente, perché se M soddisfa la condizione
della (3.5), allora M̄ soddisfa la variante su esposta.
Proposizione 3.3 Il rango della matrice associata a una forma bilineare (sesquilineare) non dipende dalla base scelta.
Dim. Moltiplicando una matrice per una matrice invertibile non si altera il
rango e del resto il rango non viene alterato dalle operazioni di trasposizione e
di coniugio di una matrice.
Proposizione 3.4 Il determinante di una matrice associata a una forma hermitiana è reale.
Dim. La matrice associata a una forma hermitiana è una matrice hermitiana,
cioè A = Āt . Da cui
det(A) = det(Āt ) = det(At ) = det(A).
Definizione 3.6 Se il rango di una forma bilineare (o sesquilineare) è minore
della dimesione di V allora la forma si dice degenere.
Proposizione 3.5 Una forma bilineare B è non degenere se e solo se
∀v 6= 0
∃w
B(v, w) 6= 0
(o, equivalentemente, ∀w 6= 0 ∃v B(v, w) 6= 0.
Stessa cosa per una forma sesquilineare H.
39
(23)
Dim. La forma B in coordinate, rispetto a una base V, si rappresenta xt Ay,
dove x e y sono vettori colonna che rappresentano le coordinate di v e w ed
A = MV (B). B è non degenere se e solo se det(A) 6= 0.
• B non degenere ⇒ (23)
Da v 6= 0 segue x 6= 0 e questo implica rk(xt ) = 1; poiché il prodotto per
una matrice invertibile non altera il rango, abbiamo rk(xt A) = 1; quindi
(xt A) non è il vettore riga nullo e avrà una sua componente diversa da
zero. Sia per semplicità la prima componente diversa da zero, allora il
vettore y che ha la prima componente uguale a 1 e tutte le altre nulle è
tale che xtAy 6= 0. Posto w = Vy, abbiamo B(v, w) 6= 0.
• (23) ⇒ B non degenere
Se vale la (23), allora per ogni x 6= 0, esiste y tale che xt Ay 6= 0; pertanto,
per ogni x 6= 0, xt A 6= 0 ed trasponendo per ogni x 6= 0, At x 6= 0 . Il
che significa che il sistema At x = 0 ha solo la soluzione banale e questo è
possibile se e solo se det(A) 6= 0. Dunque B è non degenere.
3.3
Forme bilineari simmetriche e forme hermitiane
Le definizione che seguono vengono enunciate per una forma bilineare simmetrica, ma valgono, sostituendo H a B, anche per una forma hermitiana.
La scelta di una forma bilineare simmetrica B (hermitiana H) permette di
introdurre la nozione di perpendicolarità nello spazio vettoriale V .
Definizione 3.7 Siano v, w ∈ V . v si dice ortogonale a w (si scrive v ⊥ w),
se B(v, w) = 0.
Definizione 3.8 Sia S ⊂ V un sottoinsieme. Si definisce
S ⊥ := {v ∈ V |B(v, w) = 0, ∀w ∈ S}.
É facile verificare che S ⊥ è un sottospazio vettoriale.
Definizione 3.9 Siano U, W, ⊂ V sottospazi. Si dice che U è perpendicolare a
W ( U ⊥ W ) se U ⊂ W ⊥ .
É immediato verificare che U ⊥ W ⇔ W ⊥ U . Il vettore nullo è ortogonale
a ogni vettore dello spazio e se la forma è non degenere esso è l’unico vettore
ortogonale a tutti i vettori di V .
Definizione 3.10 Un vettore v ∈ V si dice isotropo se B(v, v) = Q(v) = 0
(H(v, v) = QH (v) = 0).
40
Il vettore nullo è un vettore isotropo e se la forma è degenere ci sono molti vettori
isotropi, ma anche nel caso di forme bilineari non degeneri possono esistere
vettori isotropi. Per esempio, per
B : C×C
(x, y)
il vettore
1
i
è isotropo. Ed anche per
B : R×R
(x, y)
il vettore
1
0
→ C
7
→
xt y
→
R 0 1
7→ xt
y
1 0
è isotropo.
Definizione 3.11 Sia v non isotropo. Si definisce il coefficiente di Fourier di
w rispetto v, lo scalare
B(w, v)
,
av (w) :=
B(v, v)
analoga definizione per una forma hermitiana H
av (w) :=
H(w, v)
.
H(v, v)
Si ha
B(v, w − av (w)v) = B(v, w) −
B(w, v)
B(v, v) = 0.
B(v, v)
Analogamente per una forma hermitiana
H(v, w − av (w)v) = H(v, w) −
H(w, v)
H(v, v)
H(v, v) = 0.
Da cui, sia nel caso bilineare simmetrico sia nel caso hermitiano, w − av (w)v ∈
{v}⊥ . Poiché , w = av (w)v + (w − av (w)v), e i soli vettori che appartengono
al proprio ortogonale sono i vettori isotropi, possiamo concludere che, se v è un
vettore non isotropo,
V = span{v} ⊕ v⊥ .
(24)
Definizione 3.12 Una base {v1 , . . . , vn } si dice ortogonale se B(vi , vj ) = 0,
(H(vi , vj ) = 0) ogni qual volta i 6= j.
Ne segue che la matrice associata a una forma bilineare (hermitiana) rispetto
una base ortogonale è diagonale.
Prima di provare che esistono basi ortogonali, dimostriamo il seguente
Lemma Ogni forma bilineare B (hermitiana H) non nulla ha almeno un vettore
non isotropo.
41
Dim. Poiché B (H) è non nulla, esistono v, w ∈ V , tali che B(v, w) 6= 0
(H(v, w) 6= 0). Nel caso bilineare simmetrico per la (21) possiamo concludere
che almeno uno fra i tre vettori v, w, v+w, è non isotropo. Nel caso hermitiano
per la (22) possiamo concludere che almeno uno fra i quattro vettori v, w, v+w,
v + iw è non isotropo.
Proposizione 3.6 Sia B (H) una forma bilineare simmetrica (hermitiana).
Esiste una base ortogonale.
Dim. La dimostrazione per induzione non presenta differenze fra il caso simmetrico da quello hermitiano.
Se B è la forma nulla allora ogni base è ortogonale. Se B non è identicamente nulla, procediamo per induzione sulla dimensione di V . Se dim V = 1 la
proposizione è banale.
Assumiamo l’esistenza di una base ortogonale per ogni spazio vettoriale V
di dimensione n − 1. Sia v1 un vettore non isotropo(esiste per il lemma). Per
la (24)
V = span{v1 } ⊕ v1⊥ .
ovviamente B|v1⊥ è ancora bilineare simmetrica. Sia {v2 , . . . , vn } una base ortogonale di v1⊥ ; essa esiste perché dim(v1⊥ ) = n − 1. È facile verificare che
{v1 , v2 , . . . , vn } è una base ortogonnale di V .
Il teorema precedente mostra che per una forma bilineare o hermitiana,
esiste sempre una base rispetto la quale la matrice associata è diagonale. Ci
domandiamo se non sia possibile migliorare ulteriormente il risultato.
Trattiamo prima il caso di una forma B bilineare simmetrica sul campo C.
Proposizione 3.7 Sia B una forma bilineare simmetrica su uno spazio vettoriale complesso V di rango r. Esiste una base V, tale che
Ir 0
MV (B) =
0 0
Dim. Per la proposizione (3.6) sia V 0 = {v10 , . . . , vn0 } una base tale che la
matrice associata MV (B) sia diagonale. Poiché il rango è r, salvo un cambiamento dell’ordine dei vettori della base, posso supporre che i primi r elementi
della diagonale a11 , . . . , arr siano non nulli, mentre tutti gli altri sono 0. Abbiamo dunque che
B(v10 , v10 ) = a11 , . . . , B(vr0 , vr0 ) = arr ,
0
0
B(vr+1
, vr+1
) = 0, . . . , B(vn0 , vn0 ) = 0,
B(vi0 , vj0 ) = 0
42
per i 6= j
Se poniamo
vi =
√1 v0
aii i
vi0
1≤i≤r
r+1≤i≤n
√
dove aii è una delle due radici quadrate di aii , abbiamo che V = {v1 , . . . , vn }
è una base, perché ottenuta da V 0 tramite una matrice invertibile, e che MV (B)
è diagonale con
B(v1 , v1 ) = 1, . . . , B(vr , vr ) = 1, B(vr+1 , vr+1 ) = 0, . . . , B(vn , vn ) = 0.
Poiché sappiamo che il rango è un invariante delle forme bilineari simmetriche, seguendo gli stessi ragionamenti fatti per gli operatori, possiamo concludere
che due forme bilineari simmetriche complesse sono equivalenti, a meno di automorfismi di V, se e solo se hanno lo stesso rango e che quindi il rango classifica
le forme bilineari simmetriche complesse25 .
Poiché due matrici simmetriche complesse, rappresentano la stessa forma
bilineare rispetto basi diverse se e solo se sono congruenti, possimao concludere
che due matrici simmetriche complesse sono congruenti, se e solo se hanno lo
stesso rango.
Nel caso di una forma bilineare simmetrica reale, non possiamo arrivare allo
stesso risultato perché non sempre esiste la radice quadrata di un numero reale.
Abbiamo comunque l’importante
Proposizione 3.8 (Teorema di Sylvester)
Sia B una forma bilineare simmetrica su uno spazio vettoriale reale V di rango
r. Esistono numeri interi p, q, con p + q = r, e una base V, tale che


Ip
0
0
MV (B) =  0 −Iq 0 
0
0
0
Inoltre i numeri p, q, non dipendono dalla base, ma solo dalla forma.
Dim. Anche questa volta dalla proposizione (3.6), e salvo un riordinamento
dell’ordine dei vettori, sappiamo che esiste una base V 0 = {v10 , . . . , vn0 } tale che
la matrice associata MV (B) è diagonale, con i primi p termini della diagonale,
a11 , . . . , app , positivi, i secondi q termini, ap+1 p+1 , . . . , arr , negativi e i restanti
nulli. Abbiamo dunque che
B(v10 , v10 ) = a11 , . . . , B(vr0 , vr0 ) = arr ,
0
0
B(vr+1
, vr+1
) = 0, . . . , B(vn0 , vn0 ) = 0,
B(vi0 , vj0 ) = 0
25 ed
anche le forme quadratiche complesse
43
per i 6= j.
Se poniamo
vi =



√1 v0
aii i
√ 1
v0
−aii i
0
vi
1≤i≤p
p+1≤i≤r
r+1≤i≤n
abbiamo che V = {v1 , . . . , vn } è una base, perché ottenuta da V 0 tramite una
matrice invertibile, e che MV (B) è diagonale con
B(v1 , v1 ) = 1, . . . , B(vp , vp ) = 1
B(vp+1 , vp+1 ) = −1, . . . , B(vr , vr ) = −1
B(vr+1 , vr+1 ) = 0, . . . , B(vn , vn ) = 0.
Resta da provare che la coppia p, q non dipende dalla base. Sia pertanto V 00 =
{v100 , . . . , vn00 } un’altra base tale che
B(v100 , v100 ) = 1, . . . , B(vt00 , vt00 ) = 1
00
00
B(vt+1
, vt+1
) = −1, . . . , B(vr00 , vr00 ) = −1
00
00
B(vr+1
, vr+1
) = 0, . . . , B(vn00 , vn00 ) = 0
00
con p 6= t e supponiamo che t < p. Sia U = span{v1 , . . . vp } e W = span{vt+1
, . . . vn00 }.
Dal teorema di Grassmann abbiamo
dim U + dim W = dim(U ∩ W ) + dim(U + W )
p + (n − t) = dim(U ∩ W ) + dim(U + W ) ≤ dim(U ∩ W ) + n
1 ≤ p − t ≤ dim(U ∩ W ).
Per cui esiste un vettore non nullo v ∈ U ∩ W . Poiché v ∈ U ,
v = a1 v1 + . . . + ap vp ,
con a1 , . . . , ap non tutti nulli; e poiché v ∈ W ,
00
v = bt+1 vt+1
+ . . . + bn vn00 .
Dalla prima abbiamo
B(v, v) = a21 B(v1 , v1 ) + . . . + a2p B(vp , vp ) = a21 + . . . + a2p > 0
Mentre dalla seconda
B(v, v) = b2t+1 B(vt+1 , vt+1 ) + . . . + b2n B(vn , vn ) = −b2t+1 − . . . − b2t+r ≤ 0.
questo è assurdo e l’assurdo nasce dall’aver supposto t ≤ p.
44
Nel caso hermitiano abbiamo un teorema perfettamente analogo al teorema
di Sylvester. Anche la dimostrazione è identica, perché gli elementi della diagonale di una matrice hermitiana sono tutti reali.
Definizione 3.13 Si dice segnatura della forma bilineare simmetrica B (o della
forma hermitiana H) la coppia (p, q), corrispondente al numero dei termini
positivi e negativi che si trovano sulla diagonale di una matrice associata a B
(H), rispetto una base ortogonale.
La segnatura è dunque un invariante della forma bilineare simmetrica (hermitiana) e da una parte classifica le forme simmetriche reali (hermitiane) a meno
di automorfismi di V, e dall’altra classifica le matrici simmetriche reali (hermitiane) rispetto la relazione di congruenza (H-congruenza), nel senso che due
matrici sono congruenti (H-congruenti) se e solo se hanno la stessa segnatura.
Più spesso si parla di segnatura di una forma quadratica, riferendosi alla
segnatura della forma bilineare simmetrica associata.
Definizione 3.14 Una forma quadratica (hermitiana) di rango r su uno spazio
vettoriale V di dimensione n prende il seguente nome a seconda della segnatura
(n, 0)
definita positiva
(0, n)
definita negativa
(r, 0) con r < n
semidefinita positiva
(0, r) con r < n
semidefinita negativa
(p, q) con p > 0 e q > 0 indefinita
La ragione dei nomi delle forme quadratiche è dovuta al fatto che una forma
Q è definita positiva se e solo se Q(v) ≥ 0 e Q(v) = 0 ⇔ v = 0.
3.4
Prodotti scalari e prodotti hermitiani
Definizione 3.15 Una forma bilineare simmetrica con forma quadratica associata definita positiva su uno spazio vettoriale reale V si dice un prodotto scalare.
Definizione 3.16 Una forma hermitiana definita positiva su uno spazio vettoriale complesso V si dice un prodotto hermitano.
Supporremo nel seguito sempre definito un prodotto scalare o un prodotto hermitiano, che indicheremo, per ricordarci che è definito positivo, con
< v, w > .
Definizione 3.17 Si dice modulo (o norma) di un vettore v il numero
√
kvk := < v, v >
Proposizione 3.9 (Disuguaglianza di Schwartz)
| < v, w > | ≤ kvkkwk
e vale l’uguaglianza se e solo se v e w sono linearmente dipendenti.
45
Dim. Diamo la dimostrazione nel caso del prodotto hermitiano che presenta
qualche maggiore difficoltà. Se w = 0 il teorema è banale. Per ogni a, b ∈ C,
abbiamo
0 ≤ < av + bw, av + bw >= aākvk2 + bb̄kwk2 + 2Re(ab̄ < v, w >),
(25)
se poniamo a = kwk2 e b = − < v, w >, otteniamo
0 ≤ kwk4 kvk2 + | < v, w > |2 kwk2 + 2Re(−kwk2 | < v, w > |2 ) =
kwk4 kvk2 − | < v, w > |2 kwk2
da cui, dividendo per kwk2 e passando alla radice quadrata, otteniamo la disuguaglianza.
Infine se vale l’uguale ho che
0 =< kwk2 v− < v, w > w, kwk2 v− < v, w > w >
da cui, essendo il prodotto definito positivo, segue che kwk2 v− < v, w > w
è una combinazione lineare nulla non banale di v e w, quindi v e w sono
linearmente dipendenti. Viceversa, se v e w sono uno un multiplo dell’altro,
l’uguaglianza è di immediata verifica.
Dalla disuguaglianza di Schwartz, tanto nel caso reale quanto in quello hermitiano, seguono le seguenti proprietà
1. kvk ≥ 0,
kvk = 0 ⇐⇒ v = 0
2. kkvk = |k|kvk
3. kv + wk ≤ kvk + kwk
La dimostrazione delle prime due è banale, la terza nel caso hermitiano segue
da
kv + wk2 = kvk2 + 2Re < v, w > +kwk2 ≤
kvk2 + 2| < v, w > | + kwk2 ≤
kvk2 + 2kvkkwk + kwk2 =
(kvk + kwk)2 ,
e in maniera simile nel caso reale.
Uno spazio vettoriale dove vi sia una funzione norma, kvk, che soddisfi le tre
proprietà di cui sopra, si dice spazio normato. In uno spazio normato è possibile
definire una funzione distanza d, tramite
d(v, w) := kv − wk;
in effetti d soddisfa le proprietà
46
1. d(v, w) ≥ 0 e d(v, w) = 0 ⇐⇒ v = w
2. d(v, w) = d(w, v)
3. d(v, w) ≤ d(v, z) + d(z, w).
Pertanto, l’introduzione di un prodotto scalare o hermitiano in uno spazio vettoriale arricchisce la sua struttura facendolo diventare anche uno spazio
metrico.
3.5
Operatori ortogonali e unitari
Sia V uno spazio vettoriale di dimensione finita su C (su R) dove sia definita
un prodotto hermitiano (un prodotto scalare) .
Definizione 3.18 Un operatore T : V → V si dice unitario (ortogonale) se
< T (v), T (w) >=< v, w > .
Nelle proposizioni che seguono si faranno le dimostrazioni per il caso unitario,
ottenedosi le dimostrazioni del caso ortogonale in maniera del tutto simile, il
più delle volte , semplicemente omettendo il simbolo del coniugio.
Definizione 3.19 Una matrice A ∈ Mnn (C) si dice unitaria se At Ā = I ( o
equivalentemente AĀt = I)
Proposizione 3.10 Un operatore unitario (ortogonale) gode delle seguenti proprietà
1. conserva il modulo di un vettore
2. conserva la distanza di due vettori
3. trasforma basi ortonormali in basi ortonormali
4. è invertibile
5. la matrice associata all’operatore, rispetto a una base ortonormale, è ortogonale se l’operatore è ortogonale e unitaria se l’operatore è unitario.
Dim. Le proprietà 1), 2) e 3) sono immediata conseguenza della definizione. T
è invertibile perché è iniettivo, infatti T (v) = 0 implica
0 =< T (v), T (v) >=< v, v >
e questo implica v = 0. Infine proviamo l’ultima
Pn proprietà. Sia V = {v1 , . . . , vn }
una base ortonormale di V . Sia T (vi ) = k=1 aki vk , per cui la matrice associata a T , rispetto la base V, è
MV (T ) = (aki ) 1 ≤ k ≤ n .
1 ≤ i ≤ n
47
Abbiamo
δij =< vi , vj >=< T (vi ), T (vj ) >=
n
n
X
X
<
aki vk ,
ahj vh >=
k=1
n
X
k=1
aki
h=1
n
X
āhj < vk , vh >=
h=1
n
X
aki
k=1
n
X
n
X
aki ākj =
k=1
āhj δkh =
h=1
n
X
atik ākj
k=1
dove atik sono gli elementi della matrice trasposta (MV (T ))t ; pertanto
(MV (T ))t (MV (T )) = I,
cioè MV (T ) è una matrice unitaria.
Proposizione 3.11 Se λ è autovalore di un operatore unitario T (ortogonale),
allora |λ| = 1 (λ = ±1).
Dim. Sia v un autovettore relativo all’autovalore λ, abbiamo
< v, v >=< T (v), T (v) >=< λv, λv >= λλ̄ < v, v >,
da cui, essendo v 6= 0, segue la tesi.
Proposizione 3.12 Autovettori relativi a autovalori distinti di un operatore
unitario T (ortogonale) sono ortogonali fra loro
Dim. Siano v e w due autovettori relativi agli autovalori λ e µ, con λ 6= µ.
Abbiamo
< v, w >=< T (v), T (w) >=< λv, µw >= λµ̄ < v, w > .
Da cui, o λµ̄ = 1 o < v, w >= 0. Poiché, per la proposizione precedente,
µµ̄ = 1, non può essere anche λµ̄ = 1, altrimenti λ = µ. Dunque < v, w >= 0.
La seguente proposizione è vera per gli operatori unitari, ma non per gli
operatori ortogonali.
48
Proposizione 3.13 Sia T un operatore unitario. Esiste una base ortonormale
che diagonalizza T .
Dim. Dobbiamo determinare l’esistenza di una base ortonormale di autovettori.
La dimostrazione è per induzione sulla dimensione di V . Se dim V = 1 , il fatto
è banale. Supponiamo di averlo provato per gli spazi vettoriali di dimensione
n − 1 e apprestiamoci a dimostrarlo per gli spazi vettoriali di dimensione n.
Sia λ un autovalore di T ; esso esiste perché siamo sul campo C. Sia v1 un
autovettore unitario, relativo a λ.
Sia w ∈ v1⊥ , abbiamo
0 =< v1 , w >=< T (v1 ), T (w) >=< λv1 , T (w) >= λ < v1 , T (w) >= 0,
da cui, essendo λ 6= 0, segue che < v1 , T (w) >= 0. Dunque T (v1⊥ ) ⊆ v1⊥ .
Naturalmente
T|v1⊥ : v1⊥ → v1⊥
è ancora unitario e opera su uno spazio di dimensione n − 1: Per l’ipotesi
induttiva, esiste una base ortonormale di autovettori per T|v1⊥ , {v2 , . . . , vn }.
Risulta dunque che {v1 , v2 , . . . , vn } è una base ortonormale di autovettori di T .
3.6
Operatori simmetrici, teorema spettrale
Sia V uno spazio vettoriale di dimensione finita su R (su C) dove sia definito
un prodotto scalare (prodotto hermitiano) .
Definizione 3.20 Un operatore T : V → V si dice simmetrico (hermitiano)26
se
< T (v), w >=< v, T (w) >
Proposizione 3.14 La matrice associata a un operatore simmetrico (hermitiano), rispetto a una base ortogonale, è simmetrica (hermitiana).
Dim. Dimostrazione per un operatore
Pn hermitiano. Sia V = {v1 , . . . , vn } una
base ortonormale di V . Sia T (vi ) = k=1 aki vk , per cui la matrice associata a
T , rispetto la base V è
MV (T ) = (aki ) 1 ≤ k ≤ n .
1 ≤ i ≤ n
Abbiamo
< T (vi ), vj >=<
n
X
k=1
aki vk , vj >=
n
X
aki < vk , vj >=
k=1
n
X
aki δkj = aji ,
k=1
26 tali operatori vengono anche chiamati autoaggiunti, infatti si definisce aggiunto di un
operatore T un operatore G tale che
< T (v), w >=< v, G(w) >;
la teoria mostra che per ogni operatore T esiste uno e un solo aggiunto G.
49
similmente
< vi , T (vj ) >=< vi ,
n
X
akj vk >=
k=1
n
X
ākj < vi , vk >=
k=1
n
X
ākj δik = āij .
k=1
Poiché < T (vi ), vj >=< vi , T (vj ) >, abbiamo che aji = āij , da cui MV (T ) =
MV (T )t . Per un operatore simmetrico stessa prova senza il coniugio.
Premettiamo il seguente lemma alla dimostrazione del teorema spettrale.
Lemma Lo spettro di un operatore simmetrico (hermitiano) è totalmente reale;
ovvero il polinomio caratteristico dell’operatore si decompone nel prodotto di n
fattori lineari reali.
Dim. Esprimiamo l’operatore in termini di coordinate rispetto una base ortonormale. Sia V = {v1 , . . . , vn } una base ortonormale di V e sia MV (T ) la
matrice associata. Sia λ un autovalore complesso di MV (T ) e x un corrispondente autovettore27 di Cn . Abbiamo
MV (T )x = λx,
(26)
e, coniugando ambo i membri,
MV (T )x̄ = λ̄x̄.
Utilizzando ora la condizione che, MV (T ) è reale simmetrica nel caso dell’operatore
simmetrico, ovvero che MV (T ) è hermitiana nel caso di un operatore hermitiano,
otteniamo in ogni caso
MV (T )t x̄ = λ̄x̄,
quindi, moltiplicando a sinistra per xt
xt MV (T )t x̄ = xt λ̄x̄,
da cui,posto x = (x1 , . . . , xn ), utilizzando la (26), otteniamo
λ̄
n
X
x̄i xi = λ̄xt x̄ = xt MV (T )t x̄ = (MV (T )x)t x̄ = (λx)t x̄ = λ
i=1
n
X
x̄i xi .
i=1
Pn
Essendo x 6= 0, abbiamo i=1 x̄i xi 6= 0 e quindi λ = λ̄, cioè λ ∈ R. Pertanto
ogni autovalore di MV (T ) complesso è reale e dunque il polinomio caratteristico di MV (T ), che è uguale al polinomio caratteristico di T , si decompone nel
prodotto di fattori lineari reali.
Si osservi che di conseguenza il polinomio caratteristico di un operatore
hermitiano è reale.
27 nel caso T sia un operatore simmetrico, x rappresenta le componenti rispetto la base V,
di un autovettore relativo a λ dell’operatore complessificato TC .
50
Siamo ora in grado di dimostrare il teorema più importante di questo capitolo.
Proposizione 3.15 (Teorema spettrale — versione per gli operatori) Sia T un
operatore simmetrico (o hermitiano). Esiste una base ortonormale che diagonalizza T .
Dim. Dobbiamo determinare l’esistenza di una base ortonormale di autovettori.
La dimostrazione è per induzione sulla dimensione di V . Se dim V = 1 , il fatto
è banale. Supponiamo di aver provato il teorema per gli spazi di dimensione
n − 1 e apprestiamoci a dimostrarlo per gli spazi di dimensione n. Sia λ un
autovalore di T ; esso esiste per il lemma. Sia v1 un suo autovettore unitario.
Sia w ∈ v1⊥ , abbiamo
< v1 , T (w) >=< T (v1 ), w >=< λv1 , w >= λ < v1 , w >= 0.
Pertanto T (v1⊥ ) ⊆ v1⊥ . Naturalmente T|v1⊥ : v1⊥ → v1⊥ è ancora simmetrico
(hermitiano) e opera su uno spazio di dimensione n − 1. Per l’ipotesi induttiva, esiste una base ortonormale di autovettori per T|v1⊥ , {v2 , . . . , vn }. Risulta
dunque che {v1 , v2 , . . . , vn } è una base ortonormale di autovettori di T .
Il teorema spettrale ammette anche diverse letture se lo si esprime in termini
di matrici o in termini di forme bilineari. La versione per le matrici si ottiene
considerando che ogni matrice simmetrica A (hermitiana) definisce un’operatore
simmetrico (hermitiano) T : Rn → Rn (T : Cn → Cn ): l’operatore che mappa
x in Ax.
Proposizione 3.16 (Teorema spettrale — versione per le matrici) Sia A una
matrice simmetrica ( hermitiana). Esiste una matrice M ortogonale (unitaria)
che diagonalizza A, cioè tale che M −1 AM è diagonale.
Se M è ortogonale e M −1 AM è diagonale, allora anche M t AM è diagonale,
quindi la matrice simmetrica A non solo è simile ma è anche congruente a
una matrice diagonale. Se M è hermitiana e M −1 AM è diagonale, abbiamo
che M̄ t AM è diagonale, e ponendo N = M̄ , abbiamo che N t AN̄ è diagonale;
quindi la matrice hermitiana A non solo è simile ma è anche H-congruente a
una matrice diagonale.
Come conseguenza della osservazione precedente otteniamo che se (p, q) è
la segnatura di una matrice simmetrica (hermitiana), allora p rappresenta il
numero degli autovalori positivi e q rappresenta il numero degli autovalori negativi, contati entrambi con la dovuta molteplicità. Dalla stessa osservazione
segue anche la versione del teorema spettrale per le forme bilineari.
Proposizione 3.17 (Teorema spettrale — versione per le forme bilineari) Sia
B una forma bilinerare simmetrica (H una forma hermitiana). Esiste una base
ortonormale che diagonalizza B (H).
51
Quest’ultimo enuciato può essre cosı̀ riletto: se su uno spazio vettoriale V
sono date due forme bilinerai simmetriche (hermitiane) di cui una sia definita
positiva, allora esiste una base che diagonalizza entrambe.
52
Scarica