Il Teorema Spettrale e le sue conseguenze 1 Applicazioni simmetriche

Il Teorema Spettrale e le sue conseguenze
In questa nota vogliamo esaminare la dimostrazione del Teorema Spettrale e studiare le sue conseguenze per quanto riguarda i prodotti scalari e le
forme quadratiche.
1
Applicazioni simmetriche
Definizione 1.1. Sia T : Rn −→ Rn una applicazione lineare. Diciamo che
T e’ simmetrica se
hT u, vi = hu, T vi
ove h , i denota come sempre il prodotto scalare ordinario (euclideo) in Rn .
Osserviamo che, se fissiamo la base canonica, la matrice A = (aij ) associata a T in tale base e’ una matrice simmetrica. Questo fatto e’ piuttosto
immediato; infatti se C = {e1 , . . . , en } e’ la base canonica di Rn abbiamo:
T (ej ) = aj1 e1 + · · · + ajn en
da cui:
aji = hT (ej ), ei i = hej , T (ei )i = aij
Osservazione 1.2. Si noti che se A e’ una matrice arbitraria e scriviamo i
vettori nelle coordinate della base canonica abbiamo appena dimostrato che:
hA(u)C , (v)C i = h(u)C , At (v)C i
La prossima proposizione e’ fondamentale nella dimostrazione del teorema
spettrale, che vedremo nella prossima sezione.
Proposizione 1.3. Sia T : Rn −→ Rn applicazione lineare simmetrica e sia
B una base ortonormale per Rn . Allora la matrice associata a T nella base
B e’ una matrice simmetrica.
Proof. Sappiamo che per la formula del cambiamento di base:
MB (T ) = P −1 MC (T )P
ove MB (T ) denota la matrice associata a T nella base B (sia nel dominio
che nel codominio), mentre MC (T ) e’ la matrice associata a T nella base
1
canonica. P e’ la matrice del cambiamento di base: le colonne di P sono le
coordinate dei vettori della base B espressi in termini della base canonica.
Abbiamo allora:
MB (T )t = P t MC (T )t (P −1 )t = P −1MC (T )P = MB (T )
(1)
poiche’ P e’ una matrice ortogonale (cioe’ P t = P −1) e MC (T ) e’ simmetrica.
Da questa proposizione possiamo trarre una conseguenza abbastanza immediata: T e’ una applicazione lineare simmetrica se e solo se la matrice
associata a T in una qualsiasi base ortonormale e’ simmetrica. Infatti nella
proposizione abbiamo visto una implicazione (e cioe’ che se T e’ simmetrica
allora MB (T ) e’ simmetrica). Per l’implicazione inversa, basta scambiare i
ruoli di B e C nell’equazione (1).
Concludiamo questa sezione con una osservazione relativa al campo complesso.
In completa analogia con il caso reale possiamo definire un’applicazione
lineare T : Cn −→ Cn hermitiana se
hT u, vih = hu, T vih
ove h , i denota come il prodotto hermitiano ordinario in Cn . La matrice A
associata a T nella base canonica e’ hermitiana.
Possiamo dunque enunciare l’analogo della Proposizione 1.4, la cui dimostrazione e’ uguale a quanto visto per il caso reale.
Proposizione 1.4. Sia T : Cn −→ Cn applicazione lineare hermitiana e sia
B una base ortonormale per Cn . Allora la matrice associata a T nella base
B e’ una matrice hermitiana.
2
Preliminari al Teorema Spettrale
In questa sezione vogliamo enunciare e dimostrare uno dei risultati piu’ importanti dell’algebra lineare: il teorema spettrale. Incominciamo con il caso
di uno spazio vettoriale sul campo reale, per il caso complesso vedremo, con
brevi osservazioni, che la dimostrazione resta praticamente identica. Daremo
2
una versione del teorema spettrale riguardante le matrici simmetriche a coefficienti reali e poi ne daremo una interpretazione in termini di prodotti
scalari.
Cominciamo con il ricordare cosa significa per una matrice reale A essere
simmetrica: significa che A = At , cioe’ A coincide con la sua trasposta. In
pratica, e’ facile verificare, si veda l’Oss. 1.2, che cio’ corrisponde al fatto
che, rispetto al prodotto scalare ordinario (euclideo) in Rn :
hAu, vi = hu, Avi
Notazione: quando scriviamo Au stiamo intendendo il prodotto righe per
colonne della matrice A per la colonna delle coordinate del vettore u rispetto
alla base canonica. A rigore dovremmo scrivere A(u)C , ma preferiamo una
scrittura piu’ semplice, sapendo pero’ che stiamo commettendo un abuso di
notazione.
Analogamente ricordiamo cosa significa per una matrice complessa A essere hermitiana: significa che A = A∗ , cioe’ A coincide con la sua trasposta
complessa coniugata. E’ facile verificare che cio’ corrisponde al fatto che
rispetto al prodotto scalare hermitiano in Cn :
hAu, vih = hu, Avih
Se A e’ una matrice simmetrica reale abbiamo immediatamente che e’
anche una matrice hermitiana, infatti e’ banale che soddisfi la condizione
A = A∗ in quanto il complesso coniugato di un numero reale e’ il numero
reale stesso.
Iniziamo con due lemmi seguiti da alcune osservazioni praticamente immediate. Il primo lemma ci dice che ogni matrice simmetrica ammette almeno
un autovalore reale, il secondo lemma ci dice (in realta’ una sua conseguenza)
che autovettori di autovalori distinti di una matrice simmetrica sono sempre
perpendicolari. Questi sono i passi chiave per la dimostrazione del teorema
spettrale.
Lemma 2.1. Sia A ∈ Mn (R) una matrice simmetrica. Allora A ammette
un autovalore reale.
Proof. A e’ una matrice a coefficienti reali, tuttavia poiche’ i reali sono contenuti nel campo complesso abbiamo anche che A ∈ Mn (C). Il polinomio
3
caratteristico di A: det(A − λI) = 0 ammette almeno una soluzione complessa, λ0 , per il teorema fondamentale dell’algebra. Vogliamo dimostrare
che λ0 e’ reale, cioe’ λ0 = λ0 . Sia u ∈ Cn un autovettore di autovalore
λ0 . Poiche’ A e’ simmetrica e’ anche hermitiana (si vedano le osservazioni
precedenti al lemma), e possiamo dunque scrivere:
hAu, uih = hu, Auih
ove h , ih e’ il prodotto hermitiano standard in Cn . Dunque
λ0 hu, uih = hAu, uih = hu, Auih = λ0 hu, uih
Dunque
(λ0 − λ0 )hu, uih = 0
e poiche’ il prodotto hermitiano standard e’ non degenere, cioe’ hu, uih 6= 0
abbiamo λ0 = λ0 .
Vogliamo ora fare alcuni commenti relativi alla dimostrazione del lemma
che abbiamo appena visto.
Osservazione 2.2.
1. In realta’ la dimostrazione ci dice che ogni autovalore di A e’ reale, cioe’ se λ e’ soluzione del polinomio caratteristico di
A, allora λ e’ reale. Poiche’ il polinomio caratteristico di A e’ di grado
n, questa proposizione dice che A ha n autovalori reali, contati ognuno
con la propria molteplicita’ algebrica. Questo fatto e’ straordinario:
abbiamo infatti visto (ad esempio nel caso delle matrici di rotazione),
che ci sono matrici reali che non ammettono alcun autovalore reale.
2. L’autovettore u nella dimostrazione puo’ essere scelto reale, cioe’ u ∈
Rn . Infatti una volta dimostrato che λ ∈ R, abbiamo che l’autospazio
Vλ = ker(A − λI) ⊂ Rn e’ diverso dal solo vettore nullo e quindi esiste
un autovettore reale di λ.
Questo risultato ci da’ anche immediatamente l’analogo risultato per le
matrici hermitiane.
Corollario 2.3. Sia A una matrice hermitiana. Allora tutti gli autovalori
di A sono reali.
4
Lasciamo al lettore la facile verifica che se λ e’ autovalore di A hermitiana
allora λ = λ: basta fare gli stessi passaggi che abbiamo visto sopra. Gli
autovettori tuttavia in questo caso potranno essere complessi.
Andiamo ora a stabilire un altro risultato che si rivelera’ fondamentale
nella dimostrazione del teorema spettrale.
Lemma 2.4. Sia A una matrice simmetrica, λ un suo autovalore reale e u
un autovettore (reale) corrispondente. Sia w un vettore perpendicolare a u
rispetto all’usuale prodotto scalare. Allora u e’ perpendicolare a Aw.
Proof. Poiche’ u e’ perpendicolare a w abbiamo
0 = λhu, wi = hAu, wi = hu, Awi
e dunque anche Aw e’ perpendicolare a u.
Abbiamo quasi immediatamente un corollario particolarmente importante.
Corollario 2.5. Siano λ e µ autovalori distinti di una matrice simmetrica
A e u, w due autovettori corrispondenti. Allora u e’ perpendicolare a w.
Proof. Dobbiamo mostrare hu, wi = 0. Abbiamo
λhu, wi = hAu, wi = hu, Awi = µhu, wi
Dunque (λ − µ)hu, wi = 0 e poiche’ λ 6= µ otteniamo hu, wi = 0.
Osserviamo che sia il lemma che il corollario precedenti hanno un’ovvia
generalizzazione al caso in cui la matrice A sia hermitiana e il prodotto
considerato sia il prodotto hermitiano in Cn .
3
Il Teorema Spettrale
Possiamo finalmente enunciare il teorema spettrale simultaneamente per le
matrici simmetriche reali e le applicazioni lineari simmetriche.
Teorema 3.1. Sia A una matrice simmetrica reale e T : Rn −→ Rn
l’applicazione lineare simmetrica corrispondente ad A nella base canonica.
• A e’ diagonalizzabile mediante una matrice ortogonale, cioe’ esiste P
ortogonale tale che D = P −1AP sia diagonale.
5
• Esiste una base ortonormale N in cui T ha associata una matrice diagonale.
Prima della dimostrazione osserviamo che le due affermazioni dell’enunciato
sono completamente equivalenti. La base ortonormale che stiamo cercando
al punto (2) e’ una base di autovettori con norma 1 e la matrice diagonale
associata a T nella base N e’ proprio la matrice D del punto (1) e ha sulla
diagonale gli autovalori di A, che sono gli stessi dell’applicazione lineare T
ad essa associata nella base canonica.
Proof. Sia λ un autovalore reale di T e u ∈ Rn un suo autovettore di norma
1. Sappiamo che tali λ e u esistono per il Lemma 2.1. Sia W = span{u}⊥ .
Allora abbiamo Rn = span{u} ⊕ W e possiamo scegliere tramite l’algoritmo
di Gram-Schmidt una base ortonormale B = {u, w1 , . . . wn−1 } con W =
span{w1 , . . . wn−1 }. Per il Lemma 2.4 abbiamo che, poiche’ u ⊥ wi , i =
1...n − 1
hu, T (wi )i = 0
In altre parole T (wi ) espresso nella base B e’ privo
Pertanto la matrice associata a T nella base B e’:


λ
0
...
0
 0 b11 . . . b1,n−1 




AB =  0 b21 . . . b2,n−1  =

 ..
..

.
.
0 bn−1,1 . . . bn−1,n−1
della prima componente.
λ 0 ...
..
.
B
!
(ricordiamo che le colonne della matrice associata a T nella base B sono
le immagini dei vettori di B!). Per la Proposizione 1.4 AB e’ simmetrica
e dunque B = (bij ) e’ simmetrica. Notiamo che A e AB hanno gli stessi
autovalori e sono simili tramite il cambiamento di base B. Dunque se AB
puo’ essere diagonalizzata attraverso una matrice ortogonale anche A avra’
questa proprieta’. Infatti:
AB = PB−1APB
ove PB e’ la matrice ortogonale avente per colonne i vettori di B espressi nella
base canonica. Se D = Q−1 AB Q e’ diagonale, cioe’ AB e’ diagonalizzabile
mediante Q matrice ortogonale, allora
D = Q−1 AB Q = Q−1 PB−1 APB Q = (PB Q)−1 A(PB Q)
6
Possiamo ora ripetere il ragionamento fatto sino a qui per B matrice
simmetrica, che avra’ T |W come sua applicazione lineare simmetrica associata. Possiamo quindi trovare un autovalore λ′ e continuare sino a che non
raggiungiamo una matrice di ordine 1 e la dimostrazione puo’ terminare (in
alternativa si puo’ ragionare piu’ rapidamente per induzione).
Osservazione 3.2. All’interno della dimostrazione precedente, e’ importante osservare che il prodotto scalare ordinario che stiamo utilizzando non
cambia quando cambiamo la base e ragioniamo all’interno di W in quanto
stiamo effettuando un cambio di base in cui la nuova base e’ ortonormale.
Ricordando la formula del cambio di base per i prodotti scalari abbiamo infatti che C ′ = P t CP . In questo caso C = I identita’ ed essendo il cambio di
base una matrice ortogonale abbiamo P t P = I, dunque C ′ = C = I.
Concludiamo questa sezione con qualche osservazione sul caso complesso,
che e’ una generalizzazione immediata di quanto abbiamo visto sino ad ora.
Teorema 3.3. Sia A una matrice hermitiana e T : Cn −→ Cn l’applicazione
lineare hermitiana corrispondente ad A nella base canonica.
• A e’ diagonalizzabile mediante una matrice unitaria, cioe’ esiste P unitaria tale che D = P −1AP = P ∗ AP sia diagonale (e reale!).
• Esiste una base ortonormale (rispetto al prodotto hermitiano standard)
N in cui T ha associata una matrice diagonale (reale!).
Esempio 3.4. Consideriamo la matrice reale


3 −2 4
A = −2 6 2
4
2 3
Gli autovalori sono λ = 7 con molteplicita’ algebrica 2 e λ = −2 con
molteplicita’ algebrica 1. Gli autospazi sono:
V7 = span{v1 = (1, 0, 1), v2 = (−1/2, 1, 0)},
V−2 = span{v3 = (−1, −1/2, 1)}
La matrice Q avente per colonne gli autovettori della base di autovettori
{v1 , v2 , v3 } diagonalizza la matrice A, tuttavia non e’ ortogonale:




7 0 0
1 −1/2 −1
1
−1/2
D = 0 7 0  = Q−1 AQ,
Q = 0
0 0 −2
1
0
1
7
Se vogliamo diagonalizzare A tramite una cambio di base ortogonale, dobbiamo ortogonalizzare con l’algoritmo di Gram Schmidt la base di autovettori
di ciascun autospazio. La matrice ortogonale che stiamo cercando e’:
√
 √

1/ 2 −1/√ 18 −2/3
P =  0√
4/√18 −1/3
1/ 2 1/ 18
2/3
e abbiamo D = P −1 AP .
4
Forme Quadratiche
In questa sezione vogliamo discutere le forme quadratiche e come sia possibile
utilizzare le informazioni che conosciamo sul prodotto scalare per diagonalizzare una forma quadratica e, nel caso di due variabili, disegnare la conica
o quadrica corrispondente nel piano o nello spazio tridimensionale.
Definizione 4.1. Sia V uno spazio vettoriale reale e sia h , i un prodotto
scalare in V . Definiamo una forma quadratica reale q come la funzione q :
V −→ R, q(v) = hv, vi.
Ad esempio in Rn la funzione che associa ad un vettore la sua norma al
quadrato e’ una forma quadratica: q(v) = |v|n .
Osservazione 4.2. Se q e’ una forma quadratica, allora q determina univocamente il prodotto scalare che la definisce. Infatti tale prodotto su due
vettori arbitrari e’ dato da:
hu, vi = (1/2)[q(u + v) − q(u) − q(v)]
Lasciamo al lettore la facile verifica (basta sostituire q(u+v) = hu+v, u+vi
etc. e svolgere i calcoli utilizzando le proprieta’ dei prodotti scalari).
Data una forma quadratica q possiamo dunque sempre associare ad essa
una matrice C in modo da scrivere in coordinate:
q(v) = vt Cv
C e’ la matrice associata al prodotto scalare corrispondente a q.
Vediamo un esempio.
8
Esempio 4.3. Consideriamo q : R3 −→ R, q(x, y, z) = x2 + 2xy + 3zy − 2z 2 .
E’ immediato verificare che si tratta di una forma quadratica. Vogliamo
scrivere la matrice ad essa associata:

 
1
1
0
x
q(x, y, z) = x y z 1 0 3/2 y 
0 3/2 2
z
Lasciamo al lettore la facile verifica dell’uguaglianza che abbiamo scritto.
Il teorema spettrale ha una immediata conseguenza per quanto riguarda
le forme quadratiche.
Corollario 4.4. (Teorema degli Assi Principali). Sia q : Rn −→ R
una forma quadratica associata alla matrice C fissata la base canonica di
Rn . Allora esiste sempre una base ortonormale B di Rn in cui la matrice
associata a q assume la forma diagonale. Possiamo pertanto scrivere:
q(x1 , . . . , xn ) = λ1 x21 + · · · + λn x2n
ove (x1 , . . . , xn ) sono le coordinate nella base B e λ1 , . . . , λn sono gli autovalori della matrice C. (I vettori della base B sono gli autovettori di C).
Come applicazione dei risultati sulle forme quadratiche vogliamo descrivere il luogo dei punti che soddisfano q(x, y) = 1 nel piano. Se q(x, y) =
λ1 x2 + λ2y 2 dalla scuola superiore sappiamo subito come disegnare tale luogo
dei punti.
• λ1 , λ2 > 0 ellisse;
• λ1 > 0, λ2 < 0 (oppure λ1 < 0, λ2 > 0) iperbole;
Nel caso generale e’ sempre possibile ricondurci a queste due figure geometriche grazie al Teorema degli assi principali. Vediamo in un esempio.
Esempio 4.5. Vogliamo disegnare il luogo dei punti: 5x2 − 4xy + 5y 2 = 48.
La matrice associata alla forma quadratica q(x, y) = 5x2 − 4xy + 5y 2 e’:
5 −2
A=
−2 5
Gli autovalori di √
A sono√ 3 e 7, i corrispondenti
√
√ autovettori di lunghezza
unitaria u1 = (1/ 2, 1/ 2), u2 = (−1/ 2, 1/ 2). Nelle coordinate della
base B = {u1 , u2 } abbiamo q(x′ , y ′) = 3(x′ )2 + 7(y ′)2 , pertanto q(x, y) = 48
e’ un’ellisse che possiamo subito disegnare:
9
y
y’
x’
x
Vediamo ora un altro esempio relativo all’iperbole.
Esempio 4.6. Vogliamo disegnare il luogo dei punti: x2 − 8xy − 5y 2 = 16.
La matrice associata alla forma quadratica q(x, y) = x2 − 8xy − 5y 2 e’:
1 −4
A=
−4 −5
Gli autovalori di A
√ autovettori di lunghezza
√ sono√3 e −7, i corrispondenti
√
unitaria u1 = (1/ 3, 2/ 3), u2 = (−2/ 3, 1/ 3). Nelle coordinate della
base B = {u1 , u2 } abbiamo q(x′ , y ′) = 3(x′ )2 − 7(y ′)2 , pertanto q(x, y) = 16
e’ un’ellisse che possiamo subito disegnare analogamente a quanto abbiamo
fatto precedentemente.
E’ chiaro che questi ragionamenti possono estendersi immediatamente al
caso di R3 e ci permettono di ridurre in forma canonica le quadriche e di
poterle classificare e dunque disegnare.
5
Il Teorema di Sylvester
In questa sezione faremo qualche commento sul problema della riduzione in
forma canonica di una forma quadratica reale. Iniziamo con alcune osservazioni.
10
Sia q : Rn −→ R una forma quadratica reale, associata al prodotto
scalare h , iA :
q(u) = h u, uiA = (u)tC A(u)C
ove A e’ una matrice simmetrica e (u)C sono le coordinate del vettore u
rispetto alla base canonica di Rn .
Sappiamo che, grazie al teorema spettrale, possiamo cambiare la base
in Rn in modo che la forma quadratica possa essere scritta in modo piu’
semplice:
q(u) = (u)tC A(u)C = (u)tB P t AP (u)B = λ1 u21 + · · · + λn u2n
ove λi sono gli autovalori di A e P e’ una matrice ortogonale che diagonalizza
A, dunque P −1 = P t . Possiamo pero’ cambiare ulteriormente la base in
modo che la matrice che rappresenta q non sia soltanto diagonale, ma abbia
sulla diagonale ±1 oppure zero. Infatti basta scegliere come matrice del
cambiamento di base
1
1
1
1
Q = diag{ √ , . . . , √ , p
,..., p
, 1 . . . 1}
λ1
λr
−λr+1
−λr+s
ove ipotizziamo (senza perdere di generalita’) che λ1 . . . λr siano positivi,
λr+1 . . . λr+s siano negativi e che λr+s+1 . . . λn siano nulli.
Lasciamo come facile esercizio la verifica che:
q(u) = (u)tC A(u)C = (u)tB P t AP (u)B = (u)tB D(u)B
= (u)tB′ Qt DQ(u)B′ = u21 + · · · + u2r − u2r+1 − · · · − u2r+s
Abbiamo dunque dimostrato la seguente proposizione.
Proposizione 5.1. Sia q : Rn −→ R una forma quadratica reale, associata
al prodotto scalare h , iA . Allora esiste una base V di Rn in cui q assume la
forma:
q(u) = u21 + · · · + u2r − u2r+1 − · · · − u2r+s
(2)
ove u1 , . . . , un sono le coordinate di u rispetto alla base V e r ed s sono
rispettivamente il numero di autovalori positivi e negativi della matrice A.
Definizione 5.2. Definiamo segnatura di q la coppia (r, s).
11
Questa proposizione ha anche un corollario immediato o meglio una sua
riformulazione in termini di prodotti scalari.
Corollario 5.3. Se h , i e’ un prodotto scalare su Rn (non necessariamente
definito positivo) allora esiste una base di Rn ortogonale rispetto al prodotto
scalare dato.
Il Teorema di Sylvester rappresenta un passo ulteriore. Infatti ci dice
che non solo esiste un cambio di base in cui una forma quadratica assume la
forma canonica (2), ma che tale forma canonica e’ unica. In altre parole date
due forme quadratiche, esiste un cambio di base che trasforma una nell’altra
se e solo se hanno la stessa forma canonica, a meno dell’ordine degli elementi
sulla diagonale, in altre parole se hanno la stessa segnatura.
Teorema 5.4. Teorema di Sylvester. Due matrici simmetriche A e B
in Mn (R) sono associate alla stessa forma quadratica (o prodotto scalare) in
basi diverse se e solo se hanno la stessa segnatura (cioe’ lo stesso numero di
autovalori positivi e negativi).
Per la dimostrazione: un verso e’ la Prop. 5.1, l’altra implicazione non la
dimostriamo, inviando il lettore al testo di Lang Sez. 44.
12