Il Teorema Spettrale e le sue conseguenze In questa nota vogliamo esaminare la dimostrazione del Teorema Spettrale e studiare le sue conseguenze per quanto riguarda i prodotti scalari e le forme quadratiche. 1 Applicazioni simmetriche Definizione 1.1. Sia T : Rn −→ Rn una applicazione lineare. Diciamo che T e’ simmetrica se hT u, vi = hu, T vi ove h , i denota come sempre il prodotto scalare ordinario (euclideo) in Rn . Osserviamo che, se fissiamo la base canonica, la matrice A = (aij ) associata a T in tale base e’ una matrice simmetrica. Questo fatto e’ piuttosto immediato; infatti se C = {e1 , . . . , en } e’ la base canonica di Rn abbiamo: T (ej ) = aj1 e1 + · · · + ajn en da cui: aji = hT (ej ), ei i = hej , T (ei )i = aij Osservazione 1.2. Si noti che se A e’ una matrice arbitraria e scriviamo i vettori nelle coordinate della base canonica abbiamo appena dimostrato che: hA(u)C , (v)C i = h(u)C , At (v)C i La prossima proposizione e’ fondamentale nella dimostrazione del teorema spettrale, che vedremo nella prossima sezione. Proposizione 1.3. Sia T : Rn −→ Rn applicazione lineare simmetrica e sia B una base ortonormale per Rn . Allora la matrice associata a T nella base B e’ una matrice simmetrica. Proof. Sappiamo che per la formula del cambiamento di base: MB (T ) = P −1 MC (T )P ove MB (T ) denota la matrice associata a T nella base B (sia nel dominio che nel codominio), mentre MC (T ) e’ la matrice associata a T nella base 1 canonica. P e’ la matrice del cambiamento di base: le colonne di P sono le coordinate dei vettori della base B espressi in termini della base canonica. Abbiamo allora: MB (T )t = P t MC (T )t (P −1 )t = P −1MC (T )P = MB (T ) (1) poiche’ P e’ una matrice ortogonale (cioe’ P t = P −1) e MC (T ) e’ simmetrica. Da questa proposizione possiamo trarre una conseguenza abbastanza immediata: T e’ una applicazione lineare simmetrica se e solo se la matrice associata a T in una qualsiasi base ortonormale e’ simmetrica. Infatti nella proposizione abbiamo visto una implicazione (e cioe’ che se T e’ simmetrica allora MB (T ) e’ simmetrica). Per l’implicazione inversa, basta scambiare i ruoli di B e C nell’equazione (1). Concludiamo questa sezione con una osservazione relativa al campo complesso. In completa analogia con il caso reale possiamo definire un’applicazione lineare T : Cn −→ Cn hermitiana se hT u, vih = hu, T vih ove h , i denota come il prodotto hermitiano ordinario in Cn . La matrice A associata a T nella base canonica e’ hermitiana. Possiamo dunque enunciare l’analogo della Proposizione 1.4, la cui dimostrazione e’ uguale a quanto visto per il caso reale. Proposizione 1.4. Sia T : Cn −→ Cn applicazione lineare hermitiana e sia B una base ortonormale per Cn . Allora la matrice associata a T nella base B e’ una matrice hermitiana. 2 Preliminari al Teorema Spettrale In questa sezione vogliamo enunciare e dimostrare uno dei risultati piu’ importanti dell’algebra lineare: il teorema spettrale. Incominciamo con il caso di uno spazio vettoriale sul campo reale, per il caso complesso vedremo, con brevi osservazioni, che la dimostrazione resta praticamente identica. Daremo 2 una versione del teorema spettrale riguardante le matrici simmetriche a coefficienti reali e poi ne daremo una interpretazione in termini di prodotti scalari. Cominciamo con il ricordare cosa significa per una matrice reale A essere simmetrica: significa che A = At , cioe’ A coincide con la sua trasposta. In pratica, e’ facile verificare, si veda l’Oss. 1.2, che cio’ corrisponde al fatto che, rispetto al prodotto scalare ordinario (euclideo) in Rn : hAu, vi = hu, Avi Notazione: quando scriviamo Au stiamo intendendo il prodotto righe per colonne della matrice A per la colonna delle coordinate del vettore u rispetto alla base canonica. A rigore dovremmo scrivere A(u)C , ma preferiamo una scrittura piu’ semplice, sapendo pero’ che stiamo commettendo un abuso di notazione. Analogamente ricordiamo cosa significa per una matrice complessa A essere hermitiana: significa che A = A∗ , cioe’ A coincide con la sua trasposta complessa coniugata. E’ facile verificare che cio’ corrisponde al fatto che rispetto al prodotto scalare hermitiano in Cn : hAu, vih = hu, Avih Se A e’ una matrice simmetrica reale abbiamo immediatamente che e’ anche una matrice hermitiana, infatti e’ banale che soddisfi la condizione A = A∗ in quanto il complesso coniugato di un numero reale e’ il numero reale stesso. Iniziamo con due lemmi seguiti da alcune osservazioni praticamente immediate. Il primo lemma ci dice che ogni matrice simmetrica ammette almeno un autovalore reale, il secondo lemma ci dice (in realta’ una sua conseguenza) che autovettori di autovalori distinti di una matrice simmetrica sono sempre perpendicolari. Questi sono i passi chiave per la dimostrazione del teorema spettrale. Lemma 2.1. Sia A ∈ Mn (R) una matrice simmetrica. Allora A ammette un autovalore reale. Proof. A e’ una matrice a coefficienti reali, tuttavia poiche’ i reali sono contenuti nel campo complesso abbiamo anche che A ∈ Mn (C). Il polinomio 3 caratteristico di A: det(A − λI) = 0 ammette almeno una soluzione complessa, λ0 , per il teorema fondamentale dell’algebra. Vogliamo dimostrare che λ0 e’ reale, cioe’ λ0 = λ0 . Sia u ∈ Cn un autovettore di autovalore λ0 . Poiche’ A e’ simmetrica e’ anche hermitiana (si vedano le osservazioni precedenti al lemma), e possiamo dunque scrivere: hAu, uih = hu, Auih ove h , ih e’ il prodotto hermitiano standard in Cn . Dunque λ0 hu, uih = hAu, uih = hu, Auih = λ0 hu, uih Dunque (λ0 − λ0 )hu, uih = 0 e poiche’ il prodotto hermitiano standard e’ non degenere, cioe’ hu, uih 6= 0 abbiamo λ0 = λ0 . Vogliamo ora fare alcuni commenti relativi alla dimostrazione del lemma che abbiamo appena visto. Osservazione 2.2. 1. In realta’ la dimostrazione ci dice che ogni autovalore di A e’ reale, cioe’ se λ e’ soluzione del polinomio caratteristico di A, allora λ e’ reale. Poiche’ il polinomio caratteristico di A e’ di grado n, questa proposizione dice che A ha n autovalori reali, contati ognuno con la propria molteplicita’ algebrica. Questo fatto e’ straordinario: abbiamo infatti visto (ad esempio nel caso delle matrici di rotazione), che ci sono matrici reali che non ammettono alcun autovalore reale. 2. L’autovettore u nella dimostrazione puo’ essere scelto reale, cioe’ u ∈ Rn . Infatti una volta dimostrato che λ ∈ R, abbiamo che l’autospazio Vλ = ker(A − λI) ⊂ Rn e’ diverso dal solo vettore nullo e quindi esiste un autovettore reale di λ. Questo risultato ci da’ anche immediatamente l’analogo risultato per le matrici hermitiane. Corollario 2.3. Sia A una matrice hermitiana. Allora tutti gli autovalori di A sono reali. 4 Lasciamo al lettore la facile verifica che se λ e’ autovalore di A hermitiana allora λ = λ: basta fare gli stessi passaggi che abbiamo visto sopra. Gli autovettori tuttavia in questo caso potranno essere complessi. Andiamo ora a stabilire un altro risultato che si rivelera’ fondamentale nella dimostrazione del teorema spettrale. Lemma 2.4. Sia A una matrice simmetrica, λ un suo autovalore reale e u un autovettore (reale) corrispondente. Sia w un vettore perpendicolare a u rispetto all’usuale prodotto scalare. Allora u e’ perpendicolare a Aw. Proof. Poiche’ u e’ perpendicolare a w abbiamo 0 = λhu, wi = hAu, wi = hu, Awi e dunque anche Aw e’ perpendicolare a u. Abbiamo quasi immediatamente un corollario particolarmente importante. Corollario 2.5. Siano λ e µ autovalori distinti di una matrice simmetrica A e u, w due autovettori corrispondenti. Allora u e’ perpendicolare a w. Proof. Dobbiamo mostrare hu, wi = 0. Abbiamo λhu, wi = hAu, wi = hu, Awi = µhu, wi Dunque (λ − µ)hu, wi = 0 e poiche’ λ 6= µ otteniamo hu, wi = 0. Osserviamo che sia il lemma che il corollario precedenti hanno un’ovvia generalizzazione al caso in cui la matrice A sia hermitiana e il prodotto considerato sia il prodotto hermitiano in Cn . 3 Il Teorema Spettrale Possiamo finalmente enunciare il teorema spettrale simultaneamente per le matrici simmetriche reali e le applicazioni lineari simmetriche. Teorema 3.1. Sia A una matrice simmetrica reale e T : Rn −→ Rn l’applicazione lineare simmetrica corrispondente ad A nella base canonica. • A e’ diagonalizzabile mediante una matrice ortogonale, cioe’ esiste P ortogonale tale che D = P −1AP sia diagonale. 5 • Esiste una base ortonormale N in cui T ha associata una matrice diagonale. Prima della dimostrazione osserviamo che le due affermazioni dell’enunciato sono completamente equivalenti. La base ortonormale che stiamo cercando al punto (2) e’ una base di autovettori con norma 1 e la matrice diagonale associata a T nella base N e’ proprio la matrice D del punto (1) e ha sulla diagonale gli autovalori di A, che sono gli stessi dell’applicazione lineare T ad essa associata nella base canonica. Proof. Sia λ un autovalore reale di T e u ∈ Rn un suo autovettore di norma 1. Sappiamo che tali λ e u esistono per il Lemma 2.1. Sia W = span{u}⊥ . Allora abbiamo Rn = span{u} ⊕ W e possiamo scegliere tramite l’algoritmo di Gram-Schmidt una base ortonormale B = {u, w1 , . . . wn−1 } con W = span{w1 , . . . wn−1 }. Per il Lemma 2.4 abbiamo che, poiche’ u ⊥ wi , i = 1...n − 1 hu, T (wi )i = 0 In altre parole T (wi ) espresso nella base B e’ privo Pertanto la matrice associata a T nella base B e’: λ 0 ... 0 0 b11 . . . b1,n−1 AB = 0 b21 . . . b2,n−1 = .. .. . . 0 bn−1,1 . . . bn−1,n−1 della prima componente. λ 0 ... .. . B ! (ricordiamo che le colonne della matrice associata a T nella base B sono le immagini dei vettori di B!). Per la Proposizione 1.4 AB e’ simmetrica e dunque B = (bij ) e’ simmetrica. Notiamo che A e AB hanno gli stessi autovalori e sono simili tramite il cambiamento di base B. Dunque se AB puo’ essere diagonalizzata attraverso una matrice ortogonale anche A avra’ questa proprieta’. Infatti: AB = PB−1APB ove PB e’ la matrice ortogonale avente per colonne i vettori di B espressi nella base canonica. Se D = Q−1 AB Q e’ diagonale, cioe’ AB e’ diagonalizzabile mediante Q matrice ortogonale, allora D = Q−1 AB Q = Q−1 PB−1 APB Q = (PB Q)−1 A(PB Q) 6 Possiamo ora ripetere il ragionamento fatto sino a qui per B matrice simmetrica, che avra’ T |W come sua applicazione lineare simmetrica associata. Possiamo quindi trovare un autovalore λ′ e continuare sino a che non raggiungiamo una matrice di ordine 1 e la dimostrazione puo’ terminare (in alternativa si puo’ ragionare piu’ rapidamente per induzione). Osservazione 3.2. All’interno della dimostrazione precedente, e’ importante osservare che il prodotto scalare ordinario che stiamo utilizzando non cambia quando cambiamo la base e ragioniamo all’interno di W in quanto stiamo effettuando un cambio di base in cui la nuova base e’ ortonormale. Ricordando la formula del cambio di base per i prodotti scalari abbiamo infatti che C ′ = P t CP . In questo caso C = I identita’ ed essendo il cambio di base una matrice ortogonale abbiamo P t P = I, dunque C ′ = C = I. Concludiamo questa sezione con qualche osservazione sul caso complesso, che e’ una generalizzazione immediata di quanto abbiamo visto sino ad ora. Teorema 3.3. Sia A una matrice hermitiana e T : Cn −→ Cn l’applicazione lineare hermitiana corrispondente ad A nella base canonica. • A e’ diagonalizzabile mediante una matrice unitaria, cioe’ esiste P unitaria tale che D = P −1AP = P ∗ AP sia diagonale (e reale!). • Esiste una base ortonormale (rispetto al prodotto hermitiano standard) N in cui T ha associata una matrice diagonale (reale!). Esempio 3.4. Consideriamo la matrice reale 3 −2 4 A = −2 6 2 4 2 3 Gli autovalori sono λ = 7 con molteplicita’ algebrica 2 e λ = −2 con molteplicita’ algebrica 1. Gli autospazi sono: V7 = span{v1 = (1, 0, 1), v2 = (−1/2, 1, 0)}, V−2 = span{v3 = (−1, −1/2, 1)} La matrice Q avente per colonne gli autovettori della base di autovettori {v1 , v2 , v3 } diagonalizza la matrice A, tuttavia non e’ ortogonale: 7 0 0 1 −1/2 −1 1 −1/2 D = 0 7 0 = Q−1 AQ, Q = 0 0 0 −2 1 0 1 7 Se vogliamo diagonalizzare A tramite una cambio di base ortogonale, dobbiamo ortogonalizzare con l’algoritmo di Gram Schmidt la base di autovettori di ciascun autospazio. La matrice ortogonale che stiamo cercando e’: √ √ 1/ 2 −1/√ 18 −2/3 P = 0√ 4/√18 −1/3 1/ 2 1/ 18 2/3 e abbiamo D = P −1 AP . 4 Forme Quadratiche In questa sezione vogliamo discutere le forme quadratiche e come sia possibile utilizzare le informazioni che conosciamo sul prodotto scalare per diagonalizzare una forma quadratica e, nel caso di due variabili, disegnare la conica o quadrica corrispondente nel piano o nello spazio tridimensionale. Definizione 4.1. Sia V uno spazio vettoriale reale e sia h , i un prodotto scalare in V . Definiamo una forma quadratica reale q come la funzione q : V −→ R, q(v) = hv, vi. Ad esempio in Rn la funzione che associa ad un vettore la sua norma al quadrato e’ una forma quadratica: q(v) = |v|n . Osservazione 4.2. Se q e’ una forma quadratica, allora q determina univocamente il prodotto scalare che la definisce. Infatti tale prodotto su due vettori arbitrari e’ dato da: hu, vi = (1/2)[q(u + v) − q(u) − q(v)] Lasciamo al lettore la facile verifica (basta sostituire q(u+v) = hu+v, u+vi etc. e svolgere i calcoli utilizzando le proprieta’ dei prodotti scalari). Data una forma quadratica q possiamo dunque sempre associare ad essa una matrice C in modo da scrivere in coordinate: q(v) = vt Cv C e’ la matrice associata al prodotto scalare corrispondente a q. Vediamo un esempio. 8 Esempio 4.3. Consideriamo q : R3 −→ R, q(x, y, z) = x2 + 2xy + 3zy − 2z 2 . E’ immediato verificare che si tratta di una forma quadratica. Vogliamo scrivere la matrice ad essa associata: 1 1 0 x q(x, y, z) = x y z 1 0 3/2 y 0 3/2 2 z Lasciamo al lettore la facile verifica dell’uguaglianza che abbiamo scritto. Il teorema spettrale ha una immediata conseguenza per quanto riguarda le forme quadratiche. Corollario 4.4. (Teorema degli Assi Principali). Sia q : Rn −→ R una forma quadratica associata alla matrice C fissata la base canonica di Rn . Allora esiste sempre una base ortonormale B di Rn in cui la matrice associata a q assume la forma diagonale. Possiamo pertanto scrivere: q(x1 , . . . , xn ) = λ1 x21 + · · · + λn x2n ove (x1 , . . . , xn ) sono le coordinate nella base B e λ1 , . . . , λn sono gli autovalori della matrice C. (I vettori della base B sono gli autovettori di C). Come applicazione dei risultati sulle forme quadratiche vogliamo descrivere il luogo dei punti che soddisfano q(x, y) = 1 nel piano. Se q(x, y) = λ1 x2 + λ2y 2 dalla scuola superiore sappiamo subito come disegnare tale luogo dei punti. • λ1 , λ2 > 0 ellisse; • λ1 > 0, λ2 < 0 (oppure λ1 < 0, λ2 > 0) iperbole; Nel caso generale e’ sempre possibile ricondurci a queste due figure geometriche grazie al Teorema degli assi principali. Vediamo in un esempio. Esempio 4.5. Vogliamo disegnare il luogo dei punti: 5x2 − 4xy + 5y 2 = 48. La matrice associata alla forma quadratica q(x, y) = 5x2 − 4xy + 5y 2 e’: 5 −2 A= −2 5 Gli autovalori di √ A sono√ 3 e 7, i corrispondenti √ √ autovettori di lunghezza unitaria u1 = (1/ 2, 1/ 2), u2 = (−1/ 2, 1/ 2). Nelle coordinate della base B = {u1 , u2 } abbiamo q(x′ , y ′) = 3(x′ )2 + 7(y ′)2 , pertanto q(x, y) = 48 e’ un’ellisse che possiamo subito disegnare: 9 y y’ x’ x Vediamo ora un altro esempio relativo all’iperbole. Esempio 4.6. Vogliamo disegnare il luogo dei punti: x2 − 8xy − 5y 2 = 16. La matrice associata alla forma quadratica q(x, y) = x2 − 8xy − 5y 2 e’: 1 −4 A= −4 −5 Gli autovalori di A √ autovettori di lunghezza √ sono√3 e −7, i corrispondenti √ unitaria u1 = (1/ 3, 2/ 3), u2 = (−2/ 3, 1/ 3). Nelle coordinate della base B = {u1 , u2 } abbiamo q(x′ , y ′) = 3(x′ )2 − 7(y ′)2 , pertanto q(x, y) = 16 e’ un’ellisse che possiamo subito disegnare analogamente a quanto abbiamo fatto precedentemente. E’ chiaro che questi ragionamenti possono estendersi immediatamente al caso di R3 e ci permettono di ridurre in forma canonica le quadriche e di poterle classificare e dunque disegnare. 5 Il Teorema di Sylvester In questa sezione faremo qualche commento sul problema della riduzione in forma canonica di una forma quadratica reale. Iniziamo con alcune osservazioni. 10 Sia q : Rn −→ R una forma quadratica reale, associata al prodotto scalare h , iA : q(u) = h u, uiA = (u)tC A(u)C ove A e’ una matrice simmetrica e (u)C sono le coordinate del vettore u rispetto alla base canonica di Rn . Sappiamo che, grazie al teorema spettrale, possiamo cambiare la base in Rn in modo che la forma quadratica possa essere scritta in modo piu’ semplice: q(u) = (u)tC A(u)C = (u)tB P t AP (u)B = λ1 u21 + · · · + λn u2n ove λi sono gli autovalori di A e P e’ una matrice ortogonale che diagonalizza A, dunque P −1 = P t . Possiamo pero’ cambiare ulteriormente la base in modo che la matrice che rappresenta q non sia soltanto diagonale, ma abbia sulla diagonale ±1 oppure zero. Infatti basta scegliere come matrice del cambiamento di base 1 1 1 1 Q = diag{ √ , . . . , √ , p ,..., p , 1 . . . 1} λ1 λr −λr+1 −λr+s ove ipotizziamo (senza perdere di generalita’) che λ1 . . . λr siano positivi, λr+1 . . . λr+s siano negativi e che λr+s+1 . . . λn siano nulli. Lasciamo come facile esercizio la verifica che: q(u) = (u)tC A(u)C = (u)tB P t AP (u)B = (u)tB D(u)B = (u)tB′ Qt DQ(u)B′ = u21 + · · · + u2r − u2r+1 − · · · − u2r+s Abbiamo dunque dimostrato la seguente proposizione. Proposizione 5.1. Sia q : Rn −→ R una forma quadratica reale, associata al prodotto scalare h , iA . Allora esiste una base V di Rn in cui q assume la forma: q(u) = u21 + · · · + u2r − u2r+1 − · · · − u2r+s (2) ove u1 , . . . , un sono le coordinate di u rispetto alla base V e r ed s sono rispettivamente il numero di autovalori positivi e negativi della matrice A. Definizione 5.2. Definiamo segnatura di q la coppia (r, s). 11 Questa proposizione ha anche un corollario immediato o meglio una sua riformulazione in termini di prodotti scalari. Corollario 5.3. Se h , i e’ un prodotto scalare su Rn (non necessariamente definito positivo) allora esiste una base di Rn ortogonale rispetto al prodotto scalare dato. Il Teorema di Sylvester rappresenta un passo ulteriore. Infatti ci dice che non solo esiste un cambio di base in cui una forma quadratica assume la forma canonica (2), ma che tale forma canonica e’ unica. In altre parole date due forme quadratiche, esiste un cambio di base che trasforma una nell’altra se e solo se hanno la stessa forma canonica, a meno dell’ordine degli elementi sulla diagonale, in altre parole se hanno la stessa segnatura. Teorema 5.4. Teorema di Sylvester. Due matrici simmetriche A e B in Mn (R) sono associate alla stessa forma quadratica (o prodotto scalare) in basi diverse se e solo se hanno la stessa segnatura (cioe’ lo stesso numero di autovalori positivi e negativi). Per la dimostrazione: un verso e’ la Prop. 5.1, l’altra implicazione non la dimostriamo, inviando il lettore al testo di Lang Sez. 44. 12