Matrici complesse e prodotti Hermitiani

Matrici complesse e prodotti Hermitiani
28 ottobre 2009
Richiami sui numeri complessi
In questo paragrafo richiamiamo alcune proprietà del campo dei numeri
complessi C.
1. Ogni numero complesso
√ z si può scrivere in modo unico come z = z0 +i z1 ,
ove z0 , z1 ∈ R e i = −1; l’elemento z0 = <z è detto parte reale di z,
mentre z1 = =z viene chiamato parte immaginaria.
2. Il coniugio · : C → C è la funzione che associa a z = z0 + i z1 il numero
complesso
z = z0 − i z1 .
3. Il coniugio è un automorfismo del campo C: in particolare, per ogni
a, b, c ∈ C:
a + bc = a + bc.
4. L’insieme degli elementi x ∈ C per cui x = x coincide con R.
5. Per ogni z = z0 + i z1 ∈ C, il numero zz = z20 + z21 è reale e positivo. Si
definisce la norma di z come
√
|z| = zz.
6. La norma di un numero reale coincide col suo valore assoluto.
7. In generale, |z + w| ≤ |z| + |w|.
8. La traccia di z ∈ C è il numero reale
z + z = 2z0 .
1
9. In generale
1
<z = (z + z);
2
i
=z = (z − z).
2
10. Ogni numero complesso può rappresentarsi in forma polare come
z = a(cos θ + i sin θ) = a eiθ ,
ove a, θ ∈ R, a ≥ 0 mentre −π < θ ≤ π. Se z 6= 0 tale rappresentazione
è unica. Il numero a = |z| il modulo di z, mentre θ è detto argomento.
11. Il campo complesso è algebricamente chiuso. In particolare, ogni polinomio p(x) ∈ C[x] di grado almeno 1 a coefficienti in C ammette sempre
almeno una soluzione x
^ ∈ C.
12. Conseguentemente, un polinomio di grado n in C ammette sempre
esattamente n soluzioni complesse, contate con la debita molteplicità.
13. Applicando il teorema di Ruffini si ha che per ogni p(x) ∈ C[x] di grado
n esistono λ1 , . . . , λn (non necessariamente tutti distinti) tali che
p(x) = (x − λ1 )(x − λ2 ) · · · (x − λn ).
In altre parole, si dice che p(x) si spezza in fattori lineari (i.e. di primo
grado) su C.
Prodotti Hermitiani
Vogliamo definire un prodotto fra vettori di uno spazio vettoriale V sul campo
complesso C che subordini una norma su V. In particolare, si desidera ∀x ∈ V,
0 ≤ hx, xi ∈ R.
È chiaro che h·, ·i non potrà essere una forma bilineare ψ, in quanto, anche se
per qualche vettore x ∈ V, si ha ψ(x, x) ∈ R, comunque
ψ((1 + i)x, (1 + i)x) = 2iψ(x, x) 6∈ R
Definizione 1. Sia V uno spazio vettoriale sul campo C. Si dice forma
sesquilineare su V ogni applicazione φ : V × V → C tale che, per ogni x, y, z ∈
V e λ ∈ C:
1. φ è lineare nella prima componente, cioè
φ(x + λy, z) = φ(x, z) + λφ(y, z);
2
2. φ è antilineare nella seconda componente, cioè
φ(z, x + λy) = φ(z, x) + λφ(z, y).
Se vale inoltre la condizione
φ(x, y) = φ(y, x),
allora φ è detta simmetrica.
Data una forma sesquilineare simmetrica φ abbiamo
φ(x, x) = φ(x, x),
da cui segue φ(x, x) ∈ R.
Definizione 2. Sia M ∈ Matn (C). Indichiamo con il simbolo M? la matrice
aggiunta Hermitiana di M, ottenuta coniugando la trasposta di M. In simboli
T
M? = MT = M .
Definizione 3. Una matrice H ∈ Matn (C) è detta Hermitiana se H∗ = H.
Teorema 1. Una forma φ : Cn × Cn → C è sesquilineare simmetrica se, e
solamente se, esiste una matrice Hermitiana H tale che
φ(x, y) = xT Hy.
Dimostrazione. Innanzi tutto verifichiamo che, data una matrice H con H? =
H, l’applicazione θH (x, y) = xT Hy è sesquilineare simmetrica. Infatti, per
ogni x, y, z ∈ Cn e λ ∈ C si ha
1. θ(x + λz, y) = (x + λz)T Hy = xT Hy + λzT Hy = θ(x, y) + λθ(z, y).
2. θ(x, y) = xT Hy = x? Hy = yT H? x = θ(y, x).
Viceversa, sia φ una forma sesquilineare simmetrica e fissiamo una base di
Cn
B = {b1 , b2 , . . . , bn }.
Consideriamo la matrice H = (hij ) le cui entrate sono
hij = φ(bi , bj ).
Per la simmetria di φ, abbiamo che hij = hji , cioè H? = H. Inoltre, scrivendo i
vettori x e y in componenti rispetto B,
φ(x, y) =
n X
n
X
xi yj φ(bi , bj ) =
n X
n
X
i=1 j=1
i=1 j=1
La tesi segue.
3
xi yj hij = xT Hy.
Definizione 4. Sia φ : V × V → C una forma sesquilineare simmetrica.
L’applicazione h : V → R descritta da
h(x) = φ(x, x)
è detta forma Hermitiana associata a φ.
Definizione 5. Una forma Hermitiana h su V è detta definita positiva se, per
ogni x ∈ V si ha h(x) = φ(x, x) ≥ 0 e h(x) = 0 se, e solamente se x = 0. In tale
caso la forma sesquilineare φ che induce h sarà detta prodotto Hermitiano.
Una matrice Hermitiana H è definita positiva se, e solamente se, la forma
Hermitiana
h(x) = xT Hx
ad essa associata è definita positiva.
Osserviamo che poiché h(x) ∈ R per ogni x ∈ V e HT = H,
h(x) = h(x) = x? Hx = x? HT x.
definita positiva associata ad una
Teorema 2. Sia h una forma Hermitiana
p
forma sesquilineare φ. Allora, ||x|| = h(x) è una norma su V.
Dimostrazione. Rammentiamo
che il modulo di un numero complesso λ è il
√
numero reale |λ| = λλ. Innanzi tutto osserviamo che
||λx||2 = λλ||x||2 = |λ|2 ||x||2 .
Dobbiamo verificare ora la disuguaglianza triangolare, cioè (elevando tutto
al quadrato)
h(x + y) ≤ h(x) + h(y).
Dimostriamo dapprima che la disuguaglianza di Schwartz vale anche nel
caso di forme sesquilineari. Poiché φ è definita positiva abbiamo, per ogni
α∈C
φ(x + αy, x + αy) = φ(x, x) + |α|2 φ(y, y) + αφ(x, y) + αφ(x, y) ≥ 0
In particolare, ponendo α = − φ(x,y)
otteniamo
φ(y,y)
φ(x, x) +
|φ(x, y)|2
|φ(x, y)|2
−2
≥0
φ(y, y)
φ(y, y)
4
da cui si deduce
|φ(x, y)|2 ≤ φ(x, x)φ(y, y),
cioè
|φ(x, y)| ≤ ||x|| ||y||.
D’altro canto,
||x + y||2 = h(x + y) = φ(x + y, x + y) =
h(x) + φ(x, y) + φ(x, y) + h(y) ≤ |h(x) + φ(x, y) + φ(x, y) + h(y)| ≤
h(x) + |φ(x, y)| + |φ(x, y)| + h(y) = h(x) + 2|φ(x, y)| + h(y) ≤
||x||2 + 2||x|| ||y|| + ||y||2 .
Quindi,
||x + y|| ≤ ||x|| + ||y||
e la dimostrazione è conclusa.
Sia x un vettore colonna di V = Cn . Il prodotto Hermitiano standard su V
è definito come
hx, yi = xT y.
Pertanto, la forma Hermitiana standard su V risulta
h(x) = xT x.
Tenuto conto che h(x) ∈ R si vede che
h(x) = h(x) = xT x = x? x.
Pertanto, tale forma associa al vettore x = (x1 , x2 , . . . , xn )T il numero reale
X
X
h(x) =
xi xi =
|xi |2 ;
i
i
ed essa risulta definita positiva. La norma indotta da h verrà indicata col
simbolo
p
||x||2 = h(x).
Osserviamo che, se x ∈ Rn , tale norma coincide esattamente con la || · ||2
precedentemente introdotta. Similmente, ristretto a vettori x, y ∈ Rn un
qualsiasi prodotto Hermitiano si comporta come un prodotto scalare.
Diremo che due vettori x, y ∈ Cn sono ortogonali se, e solamente se,
hx, yi = 0,
5
ove h·, ·i denota il prodotto Hermitiano standard.
Sia ora M ∈ Matn,m (C) una matrice qualsiasi. Osserviamo che M induce
in modo naturale un omomorfismo fra gli spazi vettoriali W = Cm e V = Cn .
Prendiamo x ∈ Cn e y ∈ Cm . Inoltre,
T
hx, Myi = xT My = xT MT y = xT (M? )T y = hM? x, yi .
Teorema 3 (Teorema di rappresentazione). Sia V uno spazio vettoriale su C
di dimensione finita, e V ∗ il suo duale. Per ogni ϕ ∈ V ∗ esiste un vettore y ∈ V
tale che, per ogni x ∈ V,
ϕ(x) = hx, yi .
Dimostrazione. Per definizione di forma sesquilineare, l’applicazione h·, yi è
un elemento del duale V ∗ per ogni possibile scelta del vettore y. Fissiamo
una base ortonormale per V
E = {e1 , e2 , . . . , en }
e siano αi = ϕ(ei ) per i = 1, . . . n. Poniamo
y=
n
X
αi ei .
i=1
Allora,
hei , yi =
n
X
hei , αi ei i = αi hei , ei i = αi .
i=1
Poiché le due forme lineari ϕ e h·, yi coincidono su di una base di V, esse sono
la stessa.
Osserviamo che, esattamente come nel caso del prodotto scalare per spazi
vettoriali reali, si che, per ogni y ∈ Cn , l’insieme
y⊥ = {x ∈ Cn : hx, yi = 0}
è un sottospazio vettoriale di Cn avente dimensione n se y = 0 e n − 1 se
y 6= 0, in quanto nucleo di una forma lineare ϕ ∈ V ∗ .
Matrici normali e teorema spettrale
Definizione 6. Una matrice M ∈ Matn (C) si dice
Hermitiana
Unitaria
Normale
se
se
se
6
M? = M
MM? = I
M? M = MM?
Osserviamo che matrici Hermitiane e Unitarie sono sempre normali. Per
matrici reali R ∈ Matn (R) vale la condizione R? = RT , pertanto vigono le le
seguenti implicazioni:
R Ortogonale ⇔
R Simmetrica ⇔
R Unitaria
R Hermitiana
Osserviamo che se U è una matrice unitaria e x ∈ Cn :
||Ux||22 = xT UT Ux = xT UT Ux = x? U? Ux = x? x = xT x = ||x||22 ,
cioè le matrici unitarie corrispondono a trasformazioni lineari dello spazio
vettoriale che conservano la || · ||2 dei vettori. Vedremo in seguito, nel Teorema
14, che vale anche il viceversa.
Dimostriamo ora un risultato che riguarda tutte le matrici a coefficienti
in C.
Teorema 4 (Schur). Sia M ∈ Matn (C). Allora, esiste una matrice unitaria U
tale che U? MU sia triangolare superiore.
Dimostrazione. Procediamo per induzione sull’ordine n della matrice.
• Per n = 1, il teorema è banale.
• Supponiamo che il teorema valga per tutte le matrici di ordine (n − 1) ×
(n−1). Poiché C è algebricamente chiuso, la matrice M ammette almeno
un autovalore λ. Sia x un autovettore associato a λ. È possibile supporre
senza perdere in generalità ||x||2 = 1. Costruiamo una base ortonormale
di Cn che abbia come primo vettore proprio x e consideriamo la matrice
di cambiamento di base V. Allora, V è unitaria e, posto M1 = V ? MV si
ha
VM1 e1 = MVe1 = Mx = λx = λVe1 ,
dal che, tenuto conto del fatto che V è invertibile, si deduce M1 e1 = λe1 ,
cioè e1 è un autovettore per M1 . Ne segue che
λ ...
M1 =
0 M2
con M2 matrice di ordine (n − 1) × (n − 1). Per ipotesi induttiva esiste
f tale che W
f? M2 W
f sia triangolare superiore.
una matrice unitaria W
Poniamo
1 0
W=
f .
0 W
7
Chiaramente W è unitaria e trasforma in modo unitario M1 in una
matrice triangolare superiore T . Pertanto, posto U = VW si ha
U? MU = W ? (V ? MV)W = W ? M1 W = T.
La tesi segue.
Per le matrici Hermitiane e ortogonali si può stabilire di più.
Teorema 5. Gli autovalori di matrici Hermitiane sono tutti reali.
Dimostrazione. Sia M ∈ Matn (C) una matrice Hermitiana e supponiamo che
λ sia un suo autovalore con autovettore x. Allora, tenuto conto che M? = M,
x? M = λ.
Mx = λ,
Pertanto,
λx? x = x? (Mx) = (x? M)x = λx? x,
da cui
(λ − λ)x? x = 0.
Osserviamo che
?
x x = hx, xi =
n
X
|xi |2 > 0.
i=1
Pertanto, λ = λ e dunque λ ∈ R.
Premettiamo al teorema fondamentale di questo paragrafo alcuni lemmi.
Lemma 6. Sia M ∈ Matn (C) una matrice normale. Allora, per ogni x ∈ Cn
si ha
||Mx||2 = ||M? x||2 .
Dimostrazione. Tenuto conto che la norma è un numero reale positivo,
||Mx||22 = xT MT Mx = xT MT Mx = x? M? Mx =
x? MM? x = x? MM? x = (M? x)T M? x = ||M? x||22 .
Lemma 7. Sia M ∈ Matn (C) una matrice normale e supponiamo che x sia
un suo autovettore di autovalore λ. Allora, x è autovettore di M? di autovalore
λ.
8
Dimostrazione. Verifichiamo dapprima che M − λI è una matrice normale.
Infatti
(M − λI)? (M − λI) = (M? − λI)(M − λI) = M? M − λM? − λM + λλI =
MM? − λM? − λM + λλI = (M − λI)(M − λI)? .
In particolare, se x è autovettore di M si ha
0 = ||(M − λI)x||2 = ||(M? − λI)x||2
da cui si deduce
M? x = λx,
che è la tesi.
Teorema 8 (Teorema Spettrale). Ogni matrice normale M ∈ Matn (C) è
diagonalizzabile mediante matrici unitarie.
Dimostrazione. Ragioniamo per induzione sull’ordine n di M.
• Se n = 1 non vi è nulla da dimostrare e la matrice M = (m11 ) è già
diagonale.
• Supponiamo che ogni matrice normale (n − 1) × (n − 1) sia diagonalizzabile mediante matrici unitarie. Per il Teorema 4 esiste sicuramente
una matrice unitaria V tale che M1 = V ? MV sia triangolare superiore.
In particolare, vi è un λ tale che M1 e1 = λe1 . D’altro canto,
M?1 M1 = (V ? M? V)(V ? MV) = V ? (M? M)V =
V ? (MM? )V = (V ? MV)(V ? )M? V) = M1 M?1 ,
per cui anche M1 è normale. Per il Lemma 7, il vettore e1 è anche
autovettore di M?1 e M?1 e1 = λe1 . Ne segue che M1 è diagonale a blocchi
della forma
λ 0
M1 =
.
0 M2
Tenuto conto del fatto che
λλ
λλ
?
?
= M1 M1 = M1 M1 =
0 M?2 M2
M2 M?2
si vede che M2 è una matrice normale (n − 1) × (n − 1).
• La tesi ora segue dall’ipotesi induttiva.
9
In particolare, assegnata una matrice normale M è sempre possibile
trovare una base ortonormale di Cn formata da autovettori della stessa.
Nel caso di matrici reali simmetriche si può dimostrare che è possibile
costruire una base di autovettori reali.
Teorema 9. Sia M ∈ Matn (R) una matrice simmetrica. Allora, esiste una
matrice ortogonale O ∈ Matn (R) tale che D = OMO−1 è diagonale.
Dimostrazione. Innanzi tutto osserviamo che, per il Teorema 5, tutti gli
autovalori di M sono reali. Procediamo per induzione sull’ordine n di M:
• Se n = 1, M è già diagonale.
• Supponiamo che ogni matrice reale simmetrica di ordine (n − 1) sia
diagonalizzabile mediante trasformazioni lineari. Mostriamo che allora
anche una matrice di ordine n lo è. Sia λ un autovalore di M. Allora,
esiste un vettore x tale che
Mx = λx.
Poiché M = M, abbiamo anche
Mx = λx.
Cio significa che x e x sono entrambi autovettori associati al medesimo
autovalore. Distinguiamo due casi:
1. se x = −x, allora il vettore y = ix è un autovettore reale di
autovalore λ;
2. se x 6= −x, allora il vettore y = x + x è reale, diverso da 0 e
My = M(x + x) = λx + λx = λy.
Pertanto, anche in questo caso abbiamo trovato un autovettore
reale.
Consideriamo ora il vettore y 0 =
che manda y 0 in e1 . Allora,
1
y
||y||2
e sia O1 la matrice ortogonale
0
0
O1 MO−1
1 e1 = O1 My = λO1 y = λe1
10
Cioè e1 è autovettore di O1 MO−1
1 . Esattamente come nella dimostrazione del Teorema 8, vediamo che e1 deve essere anche autovettore di
O1 MT O−1
1 . Pertanto,
λ 0
T
−1
OM O1 =
,
0 M0
ove M 0 è una matrice reale e simmetrica di ordine n − 1
• La tesi segue per induzione.
Una conseguenza del Teorema 9 è la seguente caratterizzazione.
Teorema 10 (Teorema dell’asse principale). Sia M ∈ Matn (R) una matrice
reale. Allora, le seguenti tre condizioni sono equivalenti:
(1) Rn ammette una base ortonormale di autovettori per M;
(2) M è diagonalizzabile mediante una matrice ortogonale;
(3) M è simmetrica.
Dimostrazione. Le condizioni (1) e (2) sono equivalenti, per costruzione di
matrice diagonalizzante. Per il Teorema 9, la condizione (3) implica le prime
due. D’altro canto, se M è diagonalizzabile mediante una matrice ortogonale
O, allora
DT = (OMO−1 )T = (OMT O−1 ),
da cui
M = O−1 (OMO−1 )O = O−1 (OMT O−1 )O = MT ,
cioè M è simmetrica.
Esiste un metodo per calcolare gli autovalori di matrici Hermitiane (e
quindi anche reali simmetriche) in termini del valore minimo che le relative
forme Hermitiane assumono su opportuni insiemi.
Sia H una matrice Hermitiana n × n e indichiamo, come al solito, con
h(x) = x? Hx la forma Hermitiana ad essa associata.
Teorema 11 (Quozienti di Rayleigh). Siano λ1 ≤ λ2 ≤ . . . ≤ λn gli n autovalori di H, posti in ordine crescente e contati con le debite molteplicità.
Allora,
h(x)
λk = min max
= min max h(x).
x∈F
dim F=k x∈F\{0} ||x||2
dim F=k
2
||x|| = 1
2
11
Dimostrazione. Per ogni sottospazio F ≤ Cn poniamo
h(x)
= max{h(x) : x ∈ F, ||x||2 = 1}
x∈F\{0} ||x||2
2
R(F) = max
e sia
B = {b1 , b2 , . . . , bn }
n
una base di autovettori,
Pcon Hbi = λi . Chiaramente, per ogni vettore x ∈ C
possiamo scrivere x = i xi bi e si ottiene
X
h(x) =
λi |xi |2 .
i
Consideriamo ora un generico sottospazio F di Cn con dim F = k e poniamo
Bk = {bk , bk+1 , . . . , bn }. Poiché la dimensione del sottospazio vettoriale Bk
generato da Bk è proprio n−k+1, si ha che esiste almeno un vettore x ∈ F∩Bk
con x 6= 0. In particolare per i < k si ha xi = 0.
h(x) =
n
X
λi |xi | =
2
i=0
n
X
λi |xi | ≥ λk
2
i=k
n
X
|xi |2 = λk ||x||22 .
i=k
Pertanto R(F) ≥ λk e quindi
min R(F) ≥ λk .
dim F=k
D’altro canto, se consideriamo lo spazio vettoriale F 0 generato da {b1 , b2 , . . . , bk }
vediamo che:
1. esso ha dimensione k;
2. per ogni x ∈ F 0 si ha
h(x) =
k
X
|xi | λi ≤ λk
2
i=1
k
X
|xi |2 = λk ||x||22 ;
i=1
pertanto R(F 0 ) ≤ λk . D’altro canto bk ∈ F 0 implica proprio R(F 0 ) = λk .
Ne segue che
min R(F) = λk
dim F=k
che è la tesi.
Teorema 12. Una matrice Hermitiana H è definita positiva se, e solamente
se, tutti i suoi autovalori sono strettamente maggiori di 0.
12
Dimostrazione. Gli autovalori di H coincidono con quelli di HT = H. Supponiamo essi siano tutti strettamente maggiori di 0. Poiché H è Hermitiana,
esiste una matrice U tale che U? DU = H, con D matrice diagonale con
dii = λi > 0 Sia
U = {u1 , u2 , . . . , un }
la base di Cn data dalle colonne di U. Per ogni x ∈ Cn si può scrivere
x = x1 u1 + . . . + xn un
e quindi
h(x) = x? Hx =
n
X
xj u?j Hxi ui =
i,j=1
n
X
|xj |2 λi u?j ui .
i,j=1
Tenuto conto che la base U è ortonormale, si deduce che
n
X
|xj |2 λi u?j ui =
i,j=1
n
X
|xi |2 λi ≥ 0,
i=1
e x? Hx = 0 se, e solamente se, x = 0. Pertanto, H è definita positiva.
Viceversa supponiamo che H sia definita positiva e sia U = {u1 , . . . , un }
una base ortonormale di autovettori, con la condizione Hui = λi ui . Allora,
h(ui ) = uTi Hui = λi uTi ui = λi > 0.
Pertanto tutti gli autovalori di H sono tutti positivi.
Corollario 13. Una matrice Hermitiana H ∈ GLn (C) è definita positiva se, e
solamente se, per ogni x ∈ Cn con x 6= 0 si ha
x? Hx > 0.
Dimostrazione. Osserviamo che H è definita positiva se, e solamente se,
HT = H lo è, ovvero
xT HT x = x? Hx > 0,
per ogni x 6= 0.
Come conseguenza diretta del Teorema 12 osserviamo che se due matrici
Hermitiane H1 e H2 sono simili, allora esse hanno i medesimi autovalori e
sono simili alla stessa matrice diagonale D. Pertanto, una matrice Hermitiana simile ad una matrice Hermitiana definita positiva è a sua volta definita
positiva.
13
Isometrie
Sia V = Cn uno spazio vettoriale su C.
Definizione 7. Una trasformazione lineare M : V → V è detta isometria se,
per ogni x ∈ V:
||Mv||2 = ||v||2 .
Caratterizziamo ora tutte le isometrie di V.
Teorema 14. Le isometrie di V = Cn sono tutti e soli gli endomorfismi indotti
da matrici unitarie; similmente le isometrie di W = Rn sono tutti e soli gli
endomorfismi indotti da matrici ortogonali.
Dimostrazione. Sia x ∈ V e U una matrice unitaria. Allora,
||Ux||22 = hUx, Uxi = x? U? Ux = x? x = hx, xi = ||x||22
Pertanto, ogni matrice unitaria induce una isometria.
Viceversa, supponiamo che M induca una isometria su V; allora
||Mx||22 = hMx, Mxi = hM? Mx, xi = hx, xi = ||x||22 .
In particolare, usando la linearità del prodotto Hermitiano nella prima
componente, abbiamo
h(M? M − I)x, xi = 0.
Ora, la matrice S = M? M − I è normale in quanto Hermitiana (poiché S? = S);
pertanto, per il Teorema 9, essa è diagonalizzabile. Sia ora λ un qualsiasi
autovalore di S? e y 6= 0 un suo autovettore. Si ottiene
0 = hSy, yi = hλy, yi = λ hy, yi = λ||y||22 .
Poiché ||y|| 6= 0, si deduce λ = 0 per tutti gli autovalori di S, da cui S = 0 e
M? M = I, ovvero M è unitaria.
Il caso reale si dimostra esattamente al medesimo modo, tenendo conto
del fatto che una matrice reale unitaria è ortogonale.
Una conseguenza del Teorema 14 è la seguente caratterizzazione degli
autovalori di matrici unitarie.
Teorema 15. Gli autovalori di una matrice unitaria U o di una matrice reale
ortogonale sono numeri complessi di modulo 1.
Dimostrazione. Sia λ un autovalore di U con autovettore x. Allora,
||Ux||2 = |λ|2 ||x||22
Per il Teorema 14, U è una isometria; pertanto |λ| = 1.
14
Decomposizione Polare di una matrice
Come richiamato nel primo paragrafo, ogni numero complesso z può essere
identificato dalla coppia (a, θ) ∈ R+ ×] − π, π] mediante la corrispondenza
z = |a| (cos θ + i sin(θ)) .
Un risultato analogo vale anche per le matrici invertibili. Premettiamo due
lemmi.
Lemma 16. Sia H ∈ GLn (C) una matrice Hermitiana definita positiva.
Allora, anche H−1 è Hermitiana definita positiva.
Dimostrazione. Poiché H è Hermitiana, esiste una matrice unitaria U tale
che
H = U? DU,
con D matrice diagonale definita positiva. Chiaramente, anche D−1 è diagonale e definita positiva. D’altro canto, posto M = U? D−1 U abbiamo
HN = (U? DU)(U? D−1 U) = U? DD−1 U = U? U = I.
Pertanto N = H−1 e la tesi segue.
Lemma 17. Sia H una matrice Hermitiana definita
esiste
√ positiva. Allora,
2
una matrice Hermitiana definita positiva N = H tale che N = H. Tale
matrice è detta radice quadrata di H.
Dimostrazione. Per il Teorema 8, esiste una matrice unitaria U tale che
H = U? DU,
ove D è una matrice diagonale, con tutte le entrate d1 , d2 , . . . , dn sulla
diagonale principale reali e strettamente positive. Sia
√

d1 √


√
d2


D=
.
.
.


.
√
dn
√
2
D = D. Poniamo N = U? DU. Allora,
√
√
√
N2 = (U? DU)((U? DU) = U? ( D)2 U = U? DU = H.
√
Pertanto, N = H è la matrice cercata.
Chiaramente,
√
15
Teorema 18. Sia M ∈ GLn (C). Allora esiste un’unica coppia (H, Q) ove
1. H è una matrice Hermitiana positiva definita;
2. Q è una matrice Unitaria;
tale che M = HQ. Se M ∈ GLn (R), allora H risulta essere una matrice
simmetrica definita positiva e Q una matrice ortogonale.
Dimostrazione. Innanzi tutto osserviamo che la matrice MM? è Hermitiana.
Inoltre, se x 6= 0,
x∗ MM? x = hM? x, M? xi > 0,
per cui MM? è anche definita positiva.
Usando il Lemma 17, poniamo
√
H = MM? ,
Q = H−1 M
Chiaramente, M = HQ. Per costruzione, H è Hermitiana, positiva definita e
√
√
√ 2
H2 = HH? = U? DUU? DU = U? D U = U? DU = MM?
D’altro canto,
Q? Q = M? (H−1 )? H−1 M = M? H−2 M = M? (MM? )−1 M = I,
per cui U è unitaria e si è ottenuta una decomposizione polare per M.
Supponiamo ora che M = H 0 Q 0 sia un’altra decomposizione polare per M.
Allora
N = H−1 H 0 = Q(Q 0 )−1
è ovviamente unitaria; pertanto tutti i suoi autovalori hanno modulo 1. Mostriamo ora che N è anche Hermitiana (rammentiamo che, in generale, il
prodotto di due matrici Hermitiane non è Hermitiano), di modo da poter asserire che tutti i suoi autovalori sono reali. Per il Lemma 16, H−1 è Hermitiana
e definita positiva. Pertanto, a norma del Lemma 17 esiste una matrice S
Hermitiana definita positiva tale che S2 = H−1 . Allora,
S−1 NS = S−1 H−1 H 0 S = S−1 S2 H 0 S = SH 0 S,
per cui N è simile ad P = SH 0 S. D’altro canto, usando l’Hermitianità di H 0 e S
si ha
?
P? = S? H 0 S? = SH 0 S = P,
per cui P è Hermitiana e, conseguentemente, lo è pure N.
16
Mostriamo ora che N è definita positiva. Come sopra, ragioniamo su P.
Osserviamo che S è invertibile, per cui x 6= 0 implica Sx 6= 0, e, chiaramente,
per ogni y ∈ Cn con y 6= 0 si ha yT H 0 y > 0. Da ciò si deduce che
T
xT Px = xT (SH 0 S)x = xT S H 0 Sx = (Sx)T H 0 (Sx) = yT H 0 y ≥ 0
Ne segue che P è definita positiva e dunque anche N lo è. Pertanto, N = I.
Incidentalmente, si noti che dalla dimostrazione dell’unicità della decomposizione polare segue anche che la radice quadrata di una matrice
Hermitiana definita positiva è unica.
Definizione 8. Sia M ∈ GLn (C) e indichiamo con (H, Q) la sua decomposizione polare. Gli autovalori di H (ovvero le radici quadrate degli autovalori
di MM? ) sono detti valori singolari di M.
Decomposizione di Choleski
Definizione 9. Sia M ∈ Matn (C). Si dice minore principale p–esimo di M il
minore ottenuto da M prendendo le prime p–righe e le prime p–colonne. Si
indicherà tale minore con il simbolo M(p) .
Lemma 19. Se una matrice Hermitiana M ∈ Matn (C) è definita positiva
allora anche tutti i suoi minori principali M(p) lo sono. In particolare, per
ogni p = 1, . . . , n,
det M(p) 6= 0.
e ∈ Cp con x
e 6= 0 tale che
Dimostrazione. Se esistesse un vettore x
e? M(p) x
e ≤ 0,
x
allora sarebbe possibile scrivere il vettore x = (e
x1 , e
x2 , . . . , e
xp , 0, . . . 0) ∈ Cn \ {0}
per cui
e? M(p) x
e ≤ 0.
x? Mx = x
Pertanto, affinché M sia definita positiva è necessario che tutti i suoi minori
principali lo siano.
Infine, osserviamo che se una matrice N è singolare, allora esiste un
vettore x ∈ ker N con x 6= 0. Pertanto,
x? Nx = 0,
e N non può essere definita positiva. Da questo deduciamo che tutti i minori
M(p) devono essere non singolari.
17
Teorema 20. Sia M ∈ GLn (C) una matrice Hermitiana definita positiva.
Allora, esiste un’unica matrice triangolare inferiore L ∈ Matn (C) con entrate
sulla diagonale principale reali positive tale che M = LL? . Se M è una matrice
reale simmetrica, allora anche la matrice L ottenuta è reale e M = LLT .
Dimostrazione. Poiché M è definita positiva, tutti i suoi minori principali
sono non singolari. Pertanto esiste una fattorizzazione LU di M del tipo M =
L0 U0 con U0 invertibile. Sia D la diagonale di U0 e poniamo U0 = DU1 , ove
U1 è una matrice triangolare superiore con tutti 1 sulla diagonale principale.
Osserviamo che
M = M? = (LDU1 )? = U?1 D? L? .
Dall’unicità della fattorizzazione LU segue
U1 = L?0 .
?
Pertanto, M = L0 (DL?0 ). Posto P = (L−1
0 ) si ha
x? Dy = x? P? MPy = (Px)? M(Py).
Quindi la matrice D è Hermitiana e, per il Corollario 13, visto che M è
definita positiva, è anche essa definita positiva; in particolare D ammette
radice quadrata. Poiché D è diagonale, tutte le sue entrate non nulle
sono
√
reali positive
e,
conseguentemente,
lo
sono
anche
tutte
quelle
di
D.
Posto
√
ora L = L0 D, si ottiene
√ √
LL? = L0 D( D)? L?0 = L0 DL?0 = M,
come desiderato.
Eè chiaro che è possibile ripetere la stessa costruzione√
per una matrice S
reale simmetrica; in questo caso tutte le matrici (incluse D e L) sono reali,
per cui si ottiene
S = LL? = LLT .
18