Parte 8. Prodotto scalare, teorema spettrale A. Savo − Appunti del Corso di Geometria 2013-14 Indice delle sezioni 1 2 3 4 5 6 7 Prodotto scalare in Rn , 1 Basi ortonormali, 4 Algoritmo di Gram-Schmidt, 7 Matrici ortogonali, 12 Complemento ortogonale di un sottospazio, 13 Endomorfismi simmetrici, 17 Teorema spettrale, 20 1 1.1 Prodotto scalare in Rn Definizione x1 y1 .. .. Dati i vettori u = . e v = . di Rn , definiamo prodotto scalare di u e v il numero xn yn reale: hu, vi = x1 y1 + · · · + xn yn . Il risultato del prodotto scalare è dunque un numero. 2 1 Esempio Se u = 2 e v = −1 allora hu, vi = 3. 1 3 Notiamo che il prodotto scalare di due vettori può risultare nullo anche se nessuno dei due fattori è il vettore nullo. 1 −1 Esempio Se u = 2 e v = −1 allora hu, vi = 0. 3 1 1 • I vettori u e v si dicono ortogonali se il loro prodotto scalare è nullo: hu, vi = 0. Notazione: u ⊥ v. Dunque i vettori dell’esempio precedente sono ortogonali. È evidente che, se O è il vettore nullo, si ha hv, Oi = 0 per ogni v ∈ Rn : dunque il vettore nullo è ortogonale a tutti i vettori. La denominazione di vettori ortogonali legata alla condizione hu, vi = 0 (che è puramente algebrica) sarà giustificata quando studieremo la geometria analitica, e introdurremo i vettori geometrici del piano e dello spazio. Infatti, l’introduzione del prodotto scalare permette di definire, in modo puramente algebrico, la norma di un vettore (che va intepretata come la distanza del vettore stesso dal vettore nullo) e l’angolo fra due vettori non nulli. Per il momento, ci proponiamo di studiare le proprietà algebriche dell’operazione di prodotto scalare. Proposizione Siano u, v, w vettori arbitrari di Rn e sia k ∈ R un qualunque scalare. Allora si hanno le seguenti proprietà. 1) hu, vi = hv, ui. 2) hu + v, wi = hu, wi + hv, wi. 3) hku, vi = khu, vi. 4) hu, ui ≥ 0. 5) hu, ui = 0 se e solo se u = O. La 1) dice che il prodotto scalare è commutativo. Le proprietà 2), 3) esprimono la cosiddetta proprietà di bilinearità. Le proprietà 4) e 5) esprimono il fatto che il prodotto scalare è definito positivo. Dimostrazione. La dimostrazione di 1),2),3) si riduce a una semplice verifica. Osserviamo x1 .. che, se u = . allora xn hu, ui = x21 + · · · + x2n , che è un numero sempre positivo o nullo: questo dimostra la 4). Se hu, ui = 0 evidentemente x1 = · · · = xn = 0, e quindi u = O. Dalle proprietà di bilinearità osserviamo che il prodotto scalare si comporta in modo naturale rispetto alle combinazioni lineari. Per ogni scelta dei vettori v1 , . . . , vk , u, w ∈ Rn e degli scalari a1 , . . . , ak ∈ R si ha: ha1 v1 + · · · + ak vk , wi = a1 hv1 , wi + · · · + ak hvk , wi. 2 Di conseguenza, poiché il prodotto scalare è commutativo, si ha anche hu, a1 v1 + · · · + ak vk i = a1 hu, v1 i + · · · + ak hu, vk i 1.2 Norma e disuguaglianza di Schwarz Per definizione, la norma di un vettore u ∈ Rn è il numero positivo o nullo p kuk = hu, ui. p Esplicitamente kuk = x21 + · · · + x2n ovvero kuk2 = x21 + · · · + x2n . In particolare, kuk ≥ 0 e si ha l’uguaglianza solo quando u = O: la norma di un vettore non nullo è sempre positiva. 1 √ √ 3 allora kuk = 1 + 9 + 4 = 14. Esempio Se u = −2 Teorema (Disuguaglianza di Schwarz). Dati u, v ∈ Rn si ha sempre: |hu, vi| ≤ kukkvk. Inoltre, vale l’uguaglianza se e solo se u e v sono linearmente dipendenti. Dimostrazione. Omessa. Esempio Dati n numeri reali a1 , . . . , an si ha sempre: (a1 + · · · + an )2 ≤ n(a21 + · · · + a2n ). a1 1 .. .. Infatti, basta applicare la disuguaglianza di Schwarz ai vettori u = . e v = . . an 1 Notiamo che si ha l’uguaglianza solo quando a1 , . . . , an sono tutti uguali tra loro. 3 1.3 Angolo tra due vettori Supponiamo che u e v siano due vettori non nulli. Per la disuguaglianza di Schwarz, si ha |hu, vi| ≤ 1, kukkvk dunque esiste un unico valore di θ ∈ [0, π] tale che cos θ = hu, vi . kukkvk Per definizione, θ è detto l’angolo tra u e v. 1 1 2 0 Esempio Dati u = 1 , v = 2 si ha: 0 1 kuk = Dunque cos θ = 2 2.1 1 2 √ 6, kvk = √ 6, hu, vi = 3. cioè θ = π3 . Basi ortonormali Ortogonalità e indipendenza lineare Proposizione Siano v1 , . . . , vk vettori non nulli di Rn , a due a due ortogonali. Allora v1 , . . . , vk sono linearmente indipendenti. In particolare, k ≤ n. Dimostrazione. Supponiamo che a1 v1 + · · · + ak vk = O. (1) Prendendo il prodotto scalare dei due membri della (1) per v1 otteniamo 0 = ha1 v1 + a2 v2 + · · · + ak vk , v1 i = a1 hv1 , v1 i + a2 hv2 , v1 i + · · · + ak hvk , v1 i = a1 kv1 k2 perché per ipotesi hvj , v1 i = 0 per ogni j = 2, . . . , k. Per ipotesi, v1 è non nullo, dunque kv1 k2 > 0 e ne segue che a1 = 0. Prendendo successivamente il prodotto scalare dei due 4 membri della (1), ordinatamente per v2 , . . . , vk , si dimostra in modo analogo che aj = 0 per ogni j. • n vettori non nulli, a due a due ortogonali formano una base di Rn (che sarà chiamata base ortogonale). 1 2 Esempio I vettori v1 = , v2 = formano una base ortogonale di R2 perchè −2 1 hv1 , v2 i = 0. 1 1 1 I vettori w1 = 1 , w2 = −1 , w3 = 1 sono non nulli e a due a due ortogonali: 1 0 −2 hw1 , w2 i = hw1 , w3 i = hw2 , w3 i = 0. Dunque (w1 , w2 , w3 ) è una base ortogonale di R3 . Esempio La matrice 1 1 1 −1 1 1 −1 1 A= 1 −1 1 1 1 −1 −1 −1 ha rango 4. Infatti i suoi vettori colonna sono a due a due ortogonali, e quindi sono linearmente indipendenti. • Il numero massimo di vettori di Rn , non nulli e ortogonali a due a due, è n. In modo analogo, possiamo definire la nozione di base ortogonale di un qualunque sottospazio E di Rn : se dim E = k allora i vettori v1 , . . . , vk formano una base ortogonale di E se sono non nulli e hvi , vj i = 0 per ogni i 6= j. Esempio Il sottospazio E : x + y + z = 0 di R3 ha dimensione 2. I due vettori v1 = 1 1 −1 , v2 = 1 appartengono a E e sono ortogonali tra loro, dunque formano una 0 −2 base ortogonale di E. 2.2 Basi ortonormali Diremo che una base (v1 , . . . , vk ) di un sottospazio E di Rn è una base ortonormale di E se: ( 0 se i 6= j, hvi , vj i = 1 se i = j. 5 Dunque una base ortonormale è formata da vettori a due a due ortogonali, tutti di norma unitaria. Una base ortonormale è, in particolare, anche ortogonale. Esempio La base canonica di Rn è una base ortonormale. Fare i conti con le basi ortonormali è più semplice. Ad esempio, trovare le coordinate di un vettore rispetto a una base implica, normalmente, la risoluzione di un certo numero di sistemi lineari. Se la base è ortonormale, è sufficiente calcolare un certo numero di prodotti scalari. Proposizione Sia B = (v1 , . . . , vk ) una base ortonormale di un sottospazio E di Rn . Allora le coordinate del vettore v ∈ E rispetto a B sono date da hv, v1 i .. . , hv, vk i e sono dette coefficienti di Fourier di v. Dimostrazione. Se v ∈ E possiamo scrivere v = a1 v1 + · · · + ak vk e per definizione le coordinate di v sono a1 , . . . , ak . Ora, prendendo il prodotto scalare dei due membri successivamente per v1 , . . . , vk , otteniamo facilmente aj = hv, vj i per ogni j = 1, . . . , k. Esempio I vettori: 1 1 1 −1 1 −1 1 1 1 1 1 1 , v2 = , v3 = , v4 = , v1 = 2 1 2 −1 2 1 2 1 1 −1 −1 −1 sono a due a due ortogonali e hanno tutti norma 1. Dunque tali vettori formano una 1 2 base ortonormale B di R4 . Calcoliamo le coordinate del vettore v = 3 rispetto a B. I 4 coefficienti di Fourier sono hv, v1 i = 5, hv, v2 i = −2, hv, v3 i = −1, hv, v4 i = 0. 6 Dunque v ha coordinate 5 −2 , −1 0 rispetto a B. In altre parole v = 5v1 − 2v2 − v3 . 3 Algoritmo di Gram-Schmidt Lo scopo di questa sezione è quello di dimostrare che ogni sottospazio di Rn ammette almeno una base ortonormale. 3.1 Vettore normalizzato Proposizione 1) Dato un vettore v e uno scalare a ∈ R si ha: kavk = |a|kvk. 2) Se v 6= O il vettore u= 1 v kvk ha norma 1. Dimostrazione. Si ha, dalle proprietà del prodotto scalare: kavk2 = hav, avi = a2 hv, vi = a2 kvk2 , e la 1) segue prendendo la radice quadrata ad ambo i membri. La 2) segue immediatamente 1 dalla 1) prendendo a = . kvk 1 v si dice normalizzato di v. Normalizzare un vettore significa semplicekvk mente dividere il vettore per la propria norma. 1 √ Esempio Il vettore v = 2 ha norma 14. Il suo normalizzato è dunque 3 Il vettore u = 1 1 1 u= v = √ 2 kvk 14 3 7 e ha norma 1. Corollario Se (v1 , . . . , vk ) è una base ortogonale del sottospazio E, allora i vettori normalizzati 1 1 u1 = v1 , . . . , uk = vk kv1 k kvk k formano una base ortonormale di E. Dimostrazione. I vettori u1 , . . . , uk hanno tutti norma 1, ed evidentemente appartengono a E. Essi sono a due a due ortogonali, poiché hui , uj i = 1 1 hvi , vj i = 0 kvi k kvj k per ogni i 6= j. Esempio Il sottospazio di R3 definito dall’equazione E : x + y + z = 0 ha dimensione 2 e ha una base ortogonale formata dai vettori 1 1 1 . v1 = −1 , v2 = 0 −2 Per ottenere una base ortonormale di E è sufficiente normalizzare i vettori v1 , v2 . Si ottiene la base ortonormale 1 1 1 1 −1 , u2 = √ 1 . u1 = √ 2 6 −2 0 3.2 Procedimento di ortonormalizzazione L’algoritmo di Gram-Schmidt è un procedimento che, applicato ad una base di un sottospazio di Rn , permette di ottenere una base ortogonale del sottospazio stesso; normalizzando i vettori di tale base, otterremo una base ortonormale. Descriviamo l’algoritmo in dettaglio. Sia E un sottospazio di Rn e sia (v1 , . . . , vk ) una sua base. Dunque dim E = k. Notiamo che se k = 1 la base è formata dal solo vettore v1 . È sufficiente dunque normalizzare v1 per ottenere la base ortonormale cercata. 1) Supponiamo che la dimensione di E sia 2, e sia (v1 , v2 ) una base di E. Introduciamo nuovi vettori (w1 , w2 ) nel modo seguente: ( w1 = v 1 w2 = v2 − aw1 8 con a ∈ R da determinare in modo opportuno. Notiamo che i vettori w1 , w2 appartengono a E; inoltre w2 non è nullo (altrimenti v1 e v2 sarebbero linearmente dipendenti ). Ora scegliamo il coefficiente a in modo tale che w2 risulti ortogonale a w1 . È facile vedere che cio’ accade se solo se: hv2 , w1 i a= . hw1 , w1 i Dunque, con tale scelta, otteniamo la base ortogonale (w1 , w2 ) di E. 2) Supponiamo ora che dim E = 3, con base (v1 , v2 , v3 ) e poniamo: w1 = v 1 w2 = v2 − aw1 w3 = v3 − bw1 − cw2 dove a = hv2 , w1 i è stato già determinato, cosicché hw1 , w2 i = 0. Imponendo le condizioni hw1 , w1 i hw3 , w1 i = hw3 , w2 i = 0, otteniamo: b= hv3 , w1 i , hw1 , w1 i c= hv3 , w2 i . hw2 , w2 i Con tali scelte di a, b, c otteniamo quindi la base ortogonale (w1 , w2 , w3 ) di E e quindi, normalizzando, una base ortonormale (notiamo che w3 non è nullo, altrimenti v1 , v2 , v3 sarebbero linearmente dipendenti ). Procedendo per induzione, possiamo enunciare il seguente teorema. Teorema (Algoritmo di Gram-Schmidt) Sia (v1 , . . . , vk ) una base del sottospazio E di Rn . Si introducano i vettori: w1 = v1 w2 = v2 − a21 w1 w3 = v3 − a31 w1 − a32 w2 ... wk = vk − ak1 w1 − ak2 w2 − · · · − ak,k−1 wk−1 dove si è posto: aij = hvi , wj i . hwj , wj i 9 Allora (w1 , . . . , wk ) è una base ortogonale di E, e quindi i vettori normalizzati: u1 = 1 1 w1 , . . . , u k = wk , kw1 k kwk k formano una base ortonormale di E. Esempio Trovare una base ortonormale del sottospazio E di R3 di equazione: E : x − y − 2z = 0. Soluzione. Determiniamo una base di E, e poi applichiamo l’algoritmo di Gram-Schmidt per ottenere una base ortonormale. Base di E: 1 2 v1 = 1 , v2 = 0 . 0 1 L’algoritmo consiste di due passi: ( w1 = v 1 w2 = v2 − a21 w1 . 1 Si ha w1 = 1, dunque: 0 a21 = Allora: hv2 , w1 i 2 = = 1. hw1 , w1 i 2 1 1 w = 1 0 . 2 1 1 0 1 −1 w = − = 2 1 0 1 Si verifica che in effetti hw1 , w2 i = 0. Una base ortonormale di E è dunque: 1 1 1 1 1 , u2 = √ −1 . u1 = √ 2 0 3 1 10 • Ovviamente la base ortonormale ottenuta dipende dalla base di partenza. Per esercizio, vedere quale base ortonormale si ottiene scambiando i vettori della base di partenza. Esempio Trovare una base ortonormale del sottospazio di R4 generato dai vettori: 1 2 1 1 0 3 v1 = 0 , v2 = 1 , v3 = −1 . 0 0 2 Soluzione. I tre vettori formano una base di E. Applichiamo l’algoritmo di Gram-Schmidt alla terna v1 , v2 , v3 : w1 = v1 w2 = v2 − a21 w1 w3 = v3 − a31 w2 − a32 w2 1 1 Abbiamo w1 = 0, e quindi a21 = 1. Dunque 0 2 1 1 0 1 −1 w2 = 1 − 0 = 1 . 0 0 0 Ora: hv3 , w1 i 4 a31 = hw , w i = 2 = 2 1 1 hv , w i −3 a32 = 3 2 = = −1 hw2 , w2 i 3 dunque: 1 1 1 0 3 1 −1 0 w3 = −1 − 2 0 + 1 = 0 . 2 0 0 2 Otteniamo la base ortogonale: 1 1 0 1 −1 0 w1 = 0 , w2 = 1 , w3 = 0 , 0 0 2 11 e, normalizzando, la base ortonormale: 1 1 0 1 1 1 −1 0 . u1 = √ , u2 = √ , u3 = 1 0 2 0 3 0 0 1 4 Matrici ortogonali Abbiamo visto che la matrice M di passaggio fra due basi B, B 0 di uno spazio vettoriale è invertibile. Se le basi B, B 0 sono ortonormali, la matrice di passaggio avrà delle proprietà particolari. Definizione Una matrice quadrata M si dice ortogonale se verifica M M t = I. Quindi una matrice ortogonale M è invertibile e M −1 = M t , cioè l’inversa coincide con la trasposta. 1 −2 √ √ 1 1 −2 5 = 25 Esempio La matrice M = √ è ortogonale. 1 5 2 1 √ √ 5 5 √ √ √ 1/ √2 1/√3 1/√6 Esempio La matrice M = −1/ 2 1/√3 1/ √6 è ortogonale. 0 1/ 3 −2/ 6 In entrambi i casi si verifica infatti che M M t = I. Osserviamo che, se M M t = I allora, prendendo il determinante di ambo i membri e applicando il teorema di Binet, si ha (det M )2 = 1. Dunque • se M è una matrice ortogonale allora det M = 1 oppure det M = −1. Il teorema seguente fornisce le proprietà importanti di una matrice ortogonale. Teorema a) La matrice di passaggio fra due basi ortonormali di Rn (o di un suo sottospazio) è ortogonale. b) Una matrice A ∈ Mat(n × n) è ortogonale se e solo se le colonne di A formano una base ortonormale di Rn . Dimostrazione. La dimostrazione si riduce a una verifica, che omettiamo. 12 Osserviamo che le colonne delle matrici ortogonali dei due esempi precedenti formano, effettivamente, una base ortonormale di R2 (primo esempio), e di R3 (secondo esempio). Dalla parte b) del teorema abbiamo anche • Incolonnando i vettori di una base ortonormale di Rn otteniamo una matrice ortogonale n × n. Infine, si può dimostrare che le matrici ortogonali di R2 sono di due tipi: cos θ − sin θ sin θ cos θ con θ ∈ R, oppure cos α sin α , sin α − cos α con α ∈ R. Le matrici del primo tipo hanno determinante 1, mentre quelle del secondo tipo hanno determinante −1. 5 Complemento ortogonale di un sottospazio Sia u1 un vettore fissato di Rn e si consideri il sottoinsieme E = {v ∈ Rn : hv, u1 i = 0}, formato da tutti i vettori ortogonali a u1 . Per le proprietà di bilinearità del prodotto scalare, E risulta allora un sottospazio di Rn . Più in generale, fissati k vettori di Rn , diciamo u1 , . . . , uk , l’insieme: E = {v ∈ Rn : hv, u1 i = · · · = hv, uk i = 0}, formato dai vettori di Rn ortogonali a u1 , . . . , uk è un sottospazio di Rn . 1 Esempio Sia u1 = 1 . Trovare una base di E = {v ∈ R3 : hv, u1 i = 0}. −1 x Soluzione. Sia v = y il vettore generico di R3 . Imponendo l’ortogonalità al vettore u1 z otteniamo l’unica condizione x + y − z = 0. 13 Dunque il sottospazio delle soluzioni dell’equazione, e una sua base è, ad esempio, Eè 1 0 −1 , 1. E ha dimensione 2. 0 1 1 0 Esempio Dati i vettori u1 = 1 , u2 = 1 si consideri il sottospazio −1 −2 F = {v ∈ R3 : hv, u1 i = hv, u2 i = 0}. a) Trovare una base di F e calcolare la sua dimensione. b) Trovare un vettore di F avente norma 1. x Soluzione. a) Imponendo al vettore generico v = y l’ortogonalità a u1 e u2 vediamo z che F è descritto dalle equazioni ( x+y−z =0 F : . y − 2z = 0 1 1 −1 . Notiamo che La matrice dei coefficienti del sistema che definisce F è A = 0 1 −2 le righe di A sono proprio i vettori u1 , u2 (piú precisamente, ut1 , ut2 ): siccome u1 , u2 sono linearmente indipendenti il rango vale 2 e l’insieme delle soluzioni F ha dimensione: dim F = 3 − rkA = 1. −1 Una base si ottiene risolvendo il sistema. Si ottiene ad esempio la base 2 . 1 b) Un vettore diE di norma 1 si ottiene normalizzando il vettore della base trovata, −1 1 1 1 dunque w = √ 2 . Un altro vettore possibile è −w = √ −2. Verificare che 6 6 −1 1 non ce ne sono altri. Generalizzando, otteniamo il seguente risultato. Proposizione Se i vettori u1 , . . . , uk ∈ Rn sono linearmente indipendenti, allora E = {v ∈ Rn : hv, u1 i = · · · = hv, uk i = 0}, 14 è un sottospazio di Rn di dimensione n − k. Dimostrazione. Abbiamo già osservato che E è un sottospazio. Sia v = (x1 , . . . , xn )t il vettore generico di Rn . Imponendo l’ortogonalità di v a ciascuno dei vettori u1 , . . . , uk otteniamo un sistema lineare omogeneo di k equazioni nelle n incognite x1 , . . . , xn . Dunque E ha dimensione n − rkA, dove A è la matrice dei coefficienti. Ora, si verifica che le righe di A sono i vettori trasposti di u1 , . . . , uk . Poiché per ipotesi u1 , . . . , uk sono linearmente indipendenti il rango di A vale k e dunque dim E = n − k. 5.1 Complemento ortogonale di un sottospazio Sia E un sottospazio di Rn . Definiamo complemento ortogonale di E l’insieme E ⊥ costituito dai vettori di Rn ortogonali a tutti i vettori di E: E ⊥ = {v ∈ Rn : hv, wi = 0 per ogni w ∈ E}. Dalle proprietà del prodotto scalare risulta che E ⊥ è chiuso rispetto alla somma e al prodotto per uno scalare, dunque è un sottospazio di Rn . Risulta che v ∈ E ⊥ se e solo se v è ortogonale a tutti i vettori di una base di E. Infatti: Proposizione Sia (v1 , . . . , vk ) una base di E. Allora v ∈ E ⊥ se e solo se hv, vi i = 0 per ogni i = 1, . . . , k. Dimostrazione. Supponiamo che hv, vi i = 0 per ogni i = 1, . . . , k. Se w è un qualunque vettore di E, allora w è combinazione lineare dei vettori della base: w = a1 v1 + · · · + ak vk . Quindi hv, wi = a1 hv, v1 i + · · · + ah hv, vk i = 0, che dimostra che v è ortogonale a w. Siccome w ∈ E è arbitrario, v ∈ E ⊥ . Il viceversa è immediato. ⊥ Esempio Determinare una ortogonale del sottospazio E di R4 base di E, complemento 1 1 1 0 generato dai vettori v1 = 1 , v2 = 1. 1 0 15 Soluzione. Imponiamo al vettore generico v = (x, y, z, w)t ∈ R4 l’ortogonalità ai vettori della base (v1 , v2 ) di E, ottenendo il sistema omogeneo: ( x+y+z+w =0 . x+z =0 0 1 0 , 1 . Risolvendo il sistema, otteniamo la base di E ⊥ : −1 0 −1 0 Le proprietà importanti del complemento ortogonale sono espresse nel seguente teorema. Teorema Sia E un sottospazio di Rn e E ⊥ il suo complemento ortogonale. Allora a) E ∩ E ⊥ = {O}. b) dim E ⊥ = n − dim E. c) Rn = E ⊕ E ⊥ . Dimostrazione. a) Se v ∈ E ∩E ⊥ allora v è ortogonale a tutti i vettori di E; in particolare v è ortogonale a sé stesso, e dunque hv, vi = 0. Ma l’unico vettore con tale proprietà è il vettore nullo. b) Sia dim E = k e sia (u1 , . . . , uk ) una base di E. Sappiamo che v ∈ E ⊥ se e solo se v è ortogonale ai vettori di una base di E: dunque E ⊥ = {v ∈ Rn : hv, u1 i = · · · = hv, uk i = 0}. Siccome u1 , . . . , uk sono linearmente indipendenti, dalla proposizione del paragrafo precedente otteniamo che dim E ⊥ = n − k = n − dim E. c) Applichiamo la formula di Grassmann ai sottospazi E, E ⊥ : dim(E + E ⊥ ) + dim(E ∩ E ⊥ ) = dim E + dim E ⊥ . Da a) e b) concludiamo che dim(E+E ⊥ ) = n. Dunque E+E ⊥ = Rn . Poiché E∩E ⊥ = {O} la somma è diretta: Rn = E ⊕ E ⊥ . 5.2 Proiezione ortogonale su un sottospazio Dal teorema precedente abbiamo che un vettore v ∈ Rn si spezza, in modo unico, come somma di un vettore w ∈ E e di un vettore w⊥ ∈ E ⊥ : v = w + w⊥ . 16 In particolare, w e w⊥ sono ortogonali. • Il vettore w è detto la proiezione ortogonale di v sul sottospazio E. Denoteremo w con il simbolo PE (v). 3 Esempio È dato il sottospazio di R descritto dall’equazione x + y − 2z = 0. Il vettore 1 v = 2 ∈ R3 si spezza 0 1 1/2 1/2 2 = 3/2 + 1/2 , 0 1 −1 1/2 ⊥ dove il primo vettore appartiene a E e il secondo a E . Quindi PE (v) = 3/2. 1 In generale, se (u1 . . . , uk ) è una base ortonormale di E allora la proiezione ortogonale si calcola con la formula PE (v) = hv, u1 iu1 + · · · + hv, uk iuk . 6 Endomorfismi simmetrici In questa sezione studieremo una classe importante di endomorfismi di Rn : gli endomorfismi detti simmetrici. Tali endomorfismi sono caratterizzati dalla proprietà di ammettere una base ortonormale di autovettori, e sono legati in modo naturale alle matrici simmetriche. In particolare, risulterà che ogni matrice simmetrica è diagonalizzabile. Definizione Un endomorfismo di Rn si dice simmetrico se la sua matrice associata rispetto alla base canonica è simmetrica. x −3x + 3y 2 2 = . La matrice canonica di f Esempio Sia f : R → R definito da f y 3x + 5y è: −3 3 . A= 3 5 Siccome A è simmetrica, f è simmetrico. x x + 2y 1 2 Esempio L’endomorfismo f = ha matrice canonica dunque non y 3y 0 3 è simmetrico. 17 Teorema Le seguenti condizioni sono equivalenti. a) f è un endomorfismo simmetrico di Rn . b) La matrice associata a f rispetto ad una qualunque base ortonormale di Rn è simmetrica. c) Per ogni coppia di vettori u, v ∈ Rn si ha hf (u), vi = hu, f (v)i. Dimostrazione. a) =⇒ b) Supponiamo che f sia simmetrico, e sia A la sua matrice canonica. Per definizione, A è simmetrica. Se B è una base ortonormale di Rn , e A0 è la matrice associata a f rispetto a tale base, allora sappiamo che A0 = M −1 AM, dove M è la matrice di passaggio dalla base canonica BC alla base B. Poichè tali basi sono entrambe ortonormali, si ha che M è ortogonale, quindi M −1 = M t . Dunque A0 = M t AM , ed è sufficiente dimostrare che M t AM è simmetrica. Ma questo è immediato: (M t AM )t = M t A(M t )t = M t AM. b) =⇒ c) Si ha la seguente identità, valida per ogni matrice A e per ogni scelta di u, v, vettori colonna di Rn : hAu, vi = hu, At vi. L’identità si verifica con un calcolo diretto, e fornisce un legame tra il prodotto scalare e la trasposta di una matrice. Supponiamo che la matrice A, associata ad f rispetto alla base canonica, sia simmetrica. Ora sappiamo che f si scrive f (v) = Av. Poichè A è simmetrica, si ha A = At e dall’identità precedente: hf (u), vi = hAu, vi = hu, Avi = hu, f (v)i. c) =⇒ a) Premettiamo che, se A è una matrice n × n e e1 , . . . , en sono i vettori della base canonica di Rn , un calcolo mostra che hAei , ej i = aji , dove aji è l’elemento di posto (j, i) della matrice A. 18 Per ipotesi, si ha la proprietà c). Dunque, se A è la matrice canonica di f , l’identità hAu, vi = hu, Avi risulta vera per ogni scelta dei vettori colonna u, v. Prendendo u = ei e v = ej otteniamo aji = aij per ogni i, j, dunque la matrice canonica di f è simmetrica e f risulta simmetrico. Isoliamo la seguente proprietà degli autospazi di un endomorfismo simmetrico. Proposizione Gli autospazi di un endomorfismo simmetrico sono ortogonali fra loro. In altre parole, se λ1 e λ2 sono autovalori distinti di f , e se u ∈ E(λ1 ) e v ∈ E(λ2 ) allora: hu, vi = 0. Dimostrazione. Per ipotesi f (u) = λ1 u; dunque hf (u), vi = λ1 hu, vi. D’altra parte, per la c) del teorema, poiché f (v) = λ2 v: hf (u), vi = hu, f (v)i = λ2 hu, vi. Uguagliando otteniamo λ1 hu, vi = λ2 hu, vi cioè (λ1 − λ2 )hu, vi = 0, e poiché λ1 − λ2 6= 0 si ha necessariamente hu, vi = 0. x −3x + 3y = . Verifichiamo che gli auy 3x + 5y −3 3 tospazi di f sono ortogonali. Matrice canonica A = con polinomio caratteristico 3 5 x2 − 2x − 24. e abbiamo due autovalori distinti: λ1 = −4 e λ2 = 6 e due autospazi E(−4), E(6), entrambi di dimensione 1. Si trova che E(−4) ha equazione x + 3y = 0 con 3 1 base , e E(6) ha equazione 3x − y = 0 con base . −1 3 3 1 Effettivamente, gli autospazi sono ortogonali tra loro, la coppia , è una base −1 3 ortogonale di autovettori, e la coppia 1 1 3 1 √ ,√ −1 10 10 3 Esempio Sia f : R2 → R2 definito da f 19 è una base ortonormale di R2 formata da autovettori di f . x x + 2y 1 2 Esempio L’endomorfismo f = ha matrice canonica dunque non y 3y 0 3 è simmetrico. Si osserva che f ha autovalori λ1 = 1, λ2 = 3 e autospazi: E(1) : y = 0, E(3) : x − y = 0. Si vede subito che gli autospazi non sono ortogonali. Risulta che f è diagonalizzabile, 1 1 con base di autovettori , ma non è possibile trovare una base ortonormale di 0 1 autovettori (se ortonormalizziamo la base, non otteniamo piú autovettori). Esempio Sia E un sottospazio di Rn . L’endomorfismo PE che associa al vettore v ∈ Rn la sua proiezione ortogonale sul sottospazio E è simmetrico. Infatti, se fissiamo una base ortonormale (u1 . . . , uk ) di E allora la proiezione ortogonale è data da PE (v) = hv, u1 iu1 + · · · + hv, uk iuk . Se w è un secondo vettore di Rn si ha hPE (v), wi = hv, u1 ihu1 , wi + · · · + hv, uk ihuk , wi. Poiché il secondo membro rimane uguale scambiando v con w, si ha hPE (v), wi = hPE (w), vi = hv, PE (w)i e PE è simmetrico. 7 Teorema spettrale Veniamo al seguente importante teorema, di cui omettiamo la dimostrazione. Teorema spettrale. Sia f un endomorfismo simmetrico di Rn . Allora f è diagonalizzabile; inoltre esiste una base ortonormale di Rn costituita da autovettori di f . Anche il viceversa è vero, ed è facile da dimostrare: Teorema Sia f un endomorfismo di Rn , e supponiamo che esista una base ortonormale di Rn formata da autovettori di f . Allora f è simmetrico. Dimostrazione. La matrice associata alla base di autovettori (che è ortonormale per ipotesi) è diagonale, dunque simmetrica, e quindi f è simmetrico per il teorema della sezione precedente. 20 Dunque, la classe degli endomorfismi di Rn che ammettono una base ortonormale di autovettori coincide con la classe degli endomorfismi simmetrici. Notiamo anche il fatto seguente. Corollario Ogni matrice simmetrica è diagonalizzabile, ed è ortogonalmente simile ad una matrice diagonale. Cioè, possiamo trovare una matrice diagonale D e una matrice ortogonale M tali che: D = M −1 AM = M t AM. Dimostrazione. Sia f l’endomorfismo di Rn rappresentato da A rispetto alla base canonica. Poiche’ A è simmetrica, anche f è simmetrico. Per il teorema spettrale, possiamo trovare una base ortonormale B formata da autovettori di f . In questa base, f si rappresenta con una matrice diagonale D; inoltre si ha D = M −1 AM, dove M è la matrice di passaggio dalla base canonica alla base B. Poiche’ tali basi sono entrambe ortonormali, la matrice M è ortogonale, quindi M −1 = M t . Diamo ora il procedimento per determinare una base ortonormale di autovettori di un endomorfismo simmetrico. 1. Calcoliamo il polinomio caratteristico e quindi troviamo gli autovalori di f , diciamo λ1 , . . . , λ k . 2. Con l’algoritmo di Gram-Schmidt, troviamo una base ortonormale di ciascun autospazio, diciamo B1 , . . . , Bk . 3. Uniamo le basi ortonormali cosi’ trovate per ottenere la base B = B1 ∪ · · · ∪ Bk di Rn . L’insieme di vettori cosi’ ottenuto formera’ una base ortonormale di autovettori. Infatti, ogni vettore di B ha chiaramente norma 1. Inoltre, se prendiamo due vettori appartenenti alla stessa base Bi questi sono ortogonali per costruzione; se prendiamo due vettori appartenenti a basi diverse, questi appartengono ad autospazi diversi e quindi sono ortogonali grazie alla proposizione della sezione precedente. I vettori di B sono a due a due ortogonali e di norma 1, dunque B è una base ortonormale. Infine, per diagonalizzare una matrice simmetrica A, procediamo cosi’: 1. Troviamo una base ortonormale B formata da autovettori dell’endomorfismo di Rn rappresentato da A rispetto alla base canonica. 2. Incolonniamo la base B per ottenere una matrice ortogonale M . 3. Scriviamo la matrice diagonale D, i cui elementi diagonali sono gli autovalori di f , presi nello stesso ordine dei corrispondenti autovettori di B. 4. Risultera’ allora D = M t AM . 21 7.1 Esempio −3 3 rispetto alla base canonica. Abbiamo 3 5 già trovato una base ortonormale di autovettori: 1 1 3 1 √ ,√ , 10 −1 10 3 Sia f l’operatore di R2 rappresentato da associati rispettivamente a −4 e 6. Quindi se prendiamo 1 3 1 −4 0 , D= . M=√ 0 6 10 −1 3 si avrà D = M t AM . 7.2 Esempio 1 1 1 Sia f l’operatore di R3 rappresentato da 1 1 1 rispetto alla base canonica. f è 1 1 1 3 + 3x2 e gli autovalori sono 0, 3. E(0) è simmetrico. Il polinomio caratteristico è −x 1 1 il nucleo, di equazione x + y + z = 0 e base −1 , 0 . Applicando l’algoritmo di 0 −1 Gram-Schmidt, otteniamo la base ortonormale di E(0): 1 1 1 1 √ √ −1 1 . w1 = , w2 = 2 6 0 −2 1 E(3) ha base 1; si osserva che E(3) è ortogonale a E(0). Otteniamo la base ortonormale 1 di E(3): 1 1 1 . w3 = √ 3 1 Ne segue che una base ortonormale di autovettori è (w1 , w2 , w3 ) cioè: 1 1 1 1 1 1 √ −1 , √ 1 ,√ 1 . 2 6 −2 3 1 0 22 Ponendo 1 √ 2 1 M = − √ 2 0 1 √ 6 1 √ 6 2 −√ 6 1 √ 3 1 √ , 3 1 √ 3 0 0 0 D = 0 0 0 , 0 0 3 si ha D = M t AM . 7.3 Esempio Sia f l’endomorfismo di R4 rappresentato, rispetto alla base canonica, dalla matrice 2 0 1 0 0 2 0 −1 A= 1 0 2 0 . 0 −1 0 2 Poiché A è simmetrica, f è un endomorfismo simmetrico. Un calcolo mostra che pA (x) = (x − 1)2 (x − 3)2 , dunque f ammette due autovalori distinti: λ1 = 1 e λ2 = 3, entrambi di molteplicità algebrica 2. Già sappiamo che f è diagonalizzabile, dunque la molteplicità geometrica di entrambi gli autovalorisarà 2. 1 0 1 0 0 1 0 −1 Descriviamo gli autospazi. A − I = 1 0 1 0 dunque E(1) ha equazioni: 0 −1 0 1 ( x1 + x3 = 0 x2 − x4 = 0 e quindi t s 4 E(1) = { −t ∈ R : t, s ∈ R}. s Procedendo in modo analogo, si ha: t0 s0 4 0 0 E(3) = { t0 ∈ R : t , s ∈ R}. −s0 23 Osserviamo che i due autospazi sono fra loro ortogonali, nel senso che: 0 t t s s0 0 0 0 0 h −t , t0 i = tt + ss − tt − ss = 0 s −s0 per ogni t, s, t0 , s0 ∈ R. Passiamo ora a costruire una base ortonormale di autovettori di f . Una base di E(1) è data dalla coppia ((1, 0, −1, 0)t , (0, 1, 0, 1)t ): i due vettori sono ortogonali, dunque una base ortonormale di V (1) è: 1 0 1 1 1 0 , w2 = √ , w1 = √ 2 −1 2 0 0 1 In modo analogo, dalla base ((1, 0, 1, 0)t , (0, 1, 0, −1)t ) di E(3) otteniamo la base ortonormale di E(3): 1 0 1 1 1 0 , w4 = √ w3 = √ 2 1 2 0 0 −1 Dunque B = B1 ∪ B2 = (w1 , w2 , w3 , w4 ) è una base ortonormale di R4 , costituita da autovettori di f . La matrice A è diagonalizzabile; se M è la matrice ottenuta incolonnando la base ortonormale di autovettori descritta in precedenza, cioè 1 0 1 0 1 0 1 0 1 M=√ 2 −1 0 1 0 0 1 0 −1 allora M è una matrice ortogonale che diagonalizza A, nel senso che 1 0 0 0 0 1 0 0 M t AM = 0 0 3 0 . 0 0 0 3 24