CAPITOLO VIII SPAZI VETTORIALI EUCLIDEI E DIAGONALIZZAZIONE ORTOGONALE 1. PRODOTTI SCALARI EUCLIDEI Sia V uno spazio vettoriale sul campo reale R . Un prodotto scalare euclideo in V è un’applicazione s : V × V → R che verifica le seguenti proprietà : ∀ v , w, z ∈ V e ∀ h, k ∈ R (1.1) s(v, w) = s(w, v), (1.2) s(h v + k w, z) = h s(v, z) + k s(w, z) , s(v, h w + k z ) = h s(v, w ) + k s(v, z) . (1.3) ∀ v ∈ V, s(v, v) ≥ 0 e s(v, v) = 0 ⇔ v = 0. Le proprietà (1.1), (1.2), (1.3) si possono esprimere dicendo che s è simmetrica, bilineare e definita positiva. ESEMPI 1.1. L’applicazione • : R n × R n → R definita ponendo (x1, x2, . . . , xn) • ( y1, y2, . . .,yn) = x1y1 + x2y2 +. . . + xnyn è un prodotto scalare euclideo in R n (prodotto scalare standard (cfr. Cap. I, Par. 3)). " x1 % $ ' $ x2 ' Osserviamo che, ponendo X = $ . ' e Y = $ ' $$ . '' # xn & " y1 % $ ' $ y2 ' $ . ' e identificando la matrice Xt Y con $ ' $$ . '' # yn & l’unico elemento da cui è costituita, si può scrivere (x1, x2, . . . , xn) • ( y1, y2, . . .,yn) = Xt Y. 1.2. ! ! Il prodotto scalare standard (associato ad una fissata unità u) nello spazio vettoriale dei vettori geometrici (cfr. Cap. VII, Par. 2) è un prodotto scalare euclideo. 180 1.3. Consideriamo le seguenti due applicazioni : f : ( (x, y), (x', y') ) ∈ R 2 × R 2 → 2xx' + 4yy' ∈ R g : ( (x, y), (x', y') ) ∈ R 2 × R 2 → xx' – yy' ∈ R. Si verifica facilmente che f e g sono entrambe bilineari e simmetriche. La f è anche definita positiva in quanto, per ogni (x, y) in R 2, risulta f((x, y), (x, y)) = 2x2 + 4y2 ≥ 0, ∀ (x, y) ∈ R 2 e 2x2 + 4y2 = 0 se, e solo se, (x, y) = (0, 0). Poiché invece g((x, y), (x, y)) = x2 – y2 e x2 – y2 < 0, ∀ x, y con |x| < |y|, allora la g non è definita positiva. Possiamo dire allora che f è un prodotto scalare euclideo in R 2 mentre g non lo è. 1.4. L’applicazione s R di [x] 2 s(ax2+bx+c, a'x2+b'x+c') = aa'+ bb'+ cc' × R [x] 2 in R definita ponendo è, come si verifica facilmente, un prodotto scalare euclideo nello spazio vettoriale R 2[x] . Analogamente si definisce un prodotto scalare euclideo in R n[x]. 1.5. L’applicazione s di R 2,2 × R 2,2 "" a b% " a' b'%% in R definita ponendo s $$ ',$ '' = ## c d& # c' d'&& 1 aa'+bb'+cc'+3dd' è un prodotto scalare euclideo in R 2,2. 2 ! ! 1.6. Sia A ∈ R n,n. Si definisce traccia di A, e si indica con trA, la somma degli elementi della diagonale principale di A; si pone cioè trA = a11 + a22 + .... + ann. E’ facile verificare che tr AB = tr BA, trA = trAt, tr(A+B) = trA + trB, tr(hA) = h trA e tr(At B) = (a1 • b1) + (a2 • b2) + ...+ ( an • bn), per ogni A, B ∈ R n,n e per ogni h ∈ R . Consideriamo ora l’applicazione s : (A, B) ∈ R n,n × R n,n → tr(At B) ∈ R. n Poiché tr(At B) =(a1 • b1) + (a2 • b2) + ...+ ( an • bn) = "a b ij ij = (a11, a12, ..., a1n, a21, a22, i, j = 1 ..., a2n, ..., an1, an2, ..., ann) • (b11, b12, ..., b1n, b21, b22, ..., b2n, ..., bn1, bn2, ..., bnn), dalle proprietà del prodotto scalare standard in R ! euclideo in R n,n. n2 segue che s è un prodotto scalare ! 181 Sia V uno spazio vettoriale sul campo reale. Se s : V × V → R è un prodotto scalare euclideo in V, la coppia (V, s) è detta spazio vettoriale euclideo e, per ogni v, w ∈ V, il numero reale s(v, w) è detto prodotto scalare dei vettori v e w. Osserviamo che, se W è un sottospazio di V, la restrizione di s a W × W è un prodotto scalare euclideo in W; con tale restrizione, W è esso stesso uno spazio vettoriale euclideo. Chiudiamo questo paragrafo osservando che dalla bilinearità di s segue subito che (1.4) s(h1v1+ h2v2+…+ htvt, w) = h1 s(v1, w) + h2 s(v2, w) +....+ ht s(vt, w), ∀ h1, h2, …, ht ∈ R e ∀ v1, v2, …, vt, w ∈ V. 2. PROPRIETA’ DI UNO SPAZIO VETTORIALE EUCLIDEO Sia (V, s) uno spazio vettoriale euclideo. Proviamo subito che (2.1) ∀ v ∈ V, s(v, 0 ) = 0 = s (0, v). Per la simmetria e la bilinearità di s, si ha infatti che s(0, v) = s(v, 0 ) = s(v, 0v) = 0 s(v, v) = 0 . Sia v ∈ V. Per la (1.3), s(v, v) ≥ 0; il numero reale s(v, v) sarà detto modulo (o lunghezza) di v e sarà indicato con il simbolo |v|. Ovviamente, |v| ≥ 0; inoltre |v| = 0 se, e solo se, v = 0. E’ anche immediato verificare che : ∀ h ∈ R , | hv | = |h| |v|. ! Diremo versore un vettore di lunghezza 1. Se v è un vettore non nullo, il vettore v è, come subito si verifica, un versore. |v| ! Proposizione 2.1. Per ogni v, w ∈ V, (i) |s(v, w)| ≤ |v| |w| (disuguaglianza di Cauchy-Schwarz); (ii) |v + w| ≤ |v| + |w| (disuguaglianza triangolare). 182 Dimostrazione. Se almeno uno tra i due vettori v e w è nullo, le disuguaglianze sono banalmente verificate. Supponiamo dunque, v, w ≠ 0. (i) Essendo s definito positivo, è s(v+tw, v+tw) ≥ 0, ∀t ∈ R . Per la bilinearità di s, la disuguaglianza precedente si può scrivere così : s(w, w) t2 + 2s(v, w) t + s(v, v) ≥ 0. Poiché il trinomio di secondo grado in t su scritto, se non si annulla, assume sempre lo stesso segno, allora il suo discriminante è minore o uguale a zero, e dunque (s(v, w))2 ≤ s(v, v) s(w, w) = |v|2 |w|2, da cui segue la (i). (ii) Si ha : |v + w| 2 = s(v+w, v+w) = s(v, v) + 2s(v, w) + s(w, w) = |v|2+ 2s(v, w) + |w|2 ≤ (per la (i)) |v|2+ 2|v| |w| + |w|2= (|v| + |w|)2 , da cui segue la (ii). Dati due vettori non nulli v e w, dalla disuguaglianza di Cauchy-Schwarz segue | s(v, w) | s(v, w) ≤ 1, cioè -1 ≤ ≤ 1. Si definisce angolo tra i due vettori v e w, e |v| |w| |v| |w| si indica con vˆw, l’unico numero reale θ ∈ [0, π] tale che cosθ = ! s(v, w) . Si ha |v| |w| allora vˆw = π/2! se, e solo se, cos vˆw = 0, cioè s(v, w) = 0. ! allora naturale definire ortogonali due vettori v e w tali che s(v, w) = 0. Dalla E’ ! (2.1) segue che il vettore nullo è ortogonale ad ogni vettore. Per indicare che v e w ! ! sono ortogonali useremo il simbolo v ⊥ w. Un sistema di vettori a due a due ortogonali si dice ortogonale. Proviamo che: Proposizione 2.2. Sia S = { v1, v2, …, vt } un sistema ortogonale di vettori di V. (i) ∀ h1, h2, …, ht ∈ R , il sistema S' = { h1v1, h2v2,…, htvt } è ortogonale; (ii) se vi ≠ 0 per ogni i ∈ { 1, 2, ...., t }, il sistema S è indipendente. Dimostrazione. (i) Siano i, j ∈ {1, 2, ...., t}, con i≠j. Dalla bilinearità di s segue che s(hivi, hjvj) = hihj s(vi, vj) = 0. Il sistema S' è dunque ortogonale. (ii) Sia h1v1+ h2v2+…+ htvt = 0. Per ogni i ∈ { 1, 2, ...., t }, s(h1v1+ h2v2+…+ htvt, vi) = s(0, vi) = 0. Per la (1.4) si ha allora che h1 s(v1, vi) + .....+ hi s(vi, vi) +.... + ht s(vt, vi) = 0. Essendo il sistema S ortogonale, s(vi, vj) = 0 per ogni i≠j e dunque la precedente uguaglianza diventa hi s(vi, vi) = 0. Ne segue hi = 0, essendo s(vi, vi) ≠ 0 in quanto per ipotesi è vi ≠ 0. Si è così provato che hi = 0 per ogni i ∈ { 1, 2, ...., t }; dunque S è indipendente. 183 Proposizione 2.3 (ortogonalizzazione di Gram-Schmidt). Sia W un sottospazio di V. Se W ha dimensione finita t > 0, esiste in W una base ortogonale. Dimostrazione. Sia B = {v1, v2, v3,…, vt} una base di W. Utilizzando B, costruiremo una base ortogonale di W. Poniamo w1 = v1 ed osserviamo che, per ogni h ∈ R , il vettore v2 – hw1 è non nullo (in quanto v2 e v1 = w1 sono indipendenti) ed appartiene a W. Proviamo ora che esiste un valore di h per cui v2 – hw1 è ortogonale a w1. Poiché s(v2 – hw1, w1) = s(v2, w1) – h s(w1 , w1) ed s(w1, w1) ≠ 0 (in quanto w1 = v1 è non nullo), allora s(v2 – hw1, w1) = 0 se, e solo se, h = s(v2, w1) / s(w1, w1). Il vettore w2 = v2 – s(v 2 , w1 ) w1 s(w1,w1 ) è dunque un vettore di W non nullo ed ortogonale a v1. Consideriamo ora il vettore v3 ed osserviamo che, per ogni h1, h2 ∈ R , il vettore ! v3 – h1w1 – h2w2 è non nullo (in quanto v3 ∉ L(v1, v2) = L (w1, w2) ) ed appartiene a W. Poiché s(v3 – h1w1 – h2w2, w1) = s(v3, w1) – h1s(w1, w1) – h2 s(w2, w1) = s(v3, w1) – h1s(w1 , w1) ed s(w1, w1) ≠ 0, allora s(v3 – h1w1 – h2w2, w1) = 0 se, e solo se, h1 = s(v3, w1) / s(w1, w1). Analogamente, s(v3 – h1w1 – h2w2, w2) = 0 se, e solo se, h2 = s(v3, w2) / s(w2, w2). Ne segue che il vettore w3 = v3 – s(v 3 , w1 ) s(v 3 , w2 ) w1 – w2 s(w1,w1 ) s(w2 ,w2 ) è un vettore di W non nullo ed ortogonale sia a w1 che a w2. Così continuando si riesce a determinare in W un sistema B' = {w1, w2, w3,…, wt} ! ! di t vettori non nulli a due a due ortogonali : w1 = v1, w2 = v2 – s(v 2 , w1 ) w1, s(w1,w1 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . .. w !t = vt – s(v t , w1 ) s(v t , w2 ) s(v t , wt -1 ) w1 – w2 – . . . . – wt-1. s(w1,w1 ) s(w2 ,w2 ) s(wt -1,wt -1 ) Per la (ii) della Proposizione 2.2, B' è una base ortogonale di W. L’asserto è così provato. ! ! ! Un sistema di vettori S = {v1, v2,…, vt} di V è detto ortonormale se è costituito da versori a due a due ortogonali, cioè se #1 , se i = j s(vi, vj) = $ . %0 , se i " j 184 ! Proposizione 2.4. Sia W un sottospazio di V. Se W ha dimensione finita t > 0, esiste in W una base ortonormale. Dimostrazione. Per la Proposizione 2.3 esiste in W una base ortogonale B = {w1, w2,…, wt}. Dividendo ogni vettore di B per il suo modulo, si ottiene, per la (i) della Proposizione 2.2, una base ortonormale di W. ESEMPI 2.1. La base naturale di R n è una base ortonormale rispetto al prodotto scalare standard in R n. La base naturale di R n[x] è una base ortonormale rispetto al prodotto scalare euclideo definito nell’Esempio 1.4. Analogamente, la base naturale di R n,n è una base ortonormale rispetto al prodotto scalare euclideo definito nell’Esempio 1.6. 2.2. Nello spazio vettoriale euclideo R 4 con il prodotto scalare standard, troviamo una base ortonormale del sottospazio W = L((1, 1, 0, 2), (2, 0, 0, 2), (-2, 3, 1, 0)). Applicando il procedimento di Gram-Schmidt alla base {v1 = (1, 1, 0, 2), v2 = (2, 0, 0, 2), v3 = (-2, 3, 1, 0)} di W, si ha : w1 = (1, 1, 0, 2); w2 = v2 – s(v 2 , w1 ) w1 s(w1,w1 ) = (2, 0, 0, 2) – (2, 0, 0, 2) • (1, 1, 0, 2) (1, 1, 0, 2) = (1, 1, 0, 2) • (1, 1, 0, 2) (1, -1, 0, 0); w!3 = s(v 3 , w1 ) w1! – s(w1,w1 ) v3 – s(v 3 , w2 ) w2 s(w2 ,w2 ) (-2, 3, 1, 0) • (1, 1, 0,2) (1, 1, 0, 2) – (1, 1, 0, 2) • (1, 1, 0, 2) ! ! (1/3, 1/3, 1, - 1/3). = (-2, 3, 1, 0) – (-2, 3, 1, 0) • (1,-1, 0, 0) (1,-1, 0, 0) • (1,-1, 0, 0) (1, -1, 0, 0) = La base B = {(1, 1, 0, 2), (1, -1, 0, 0), (1/3, 1/3, 1, - 1/3)} di W così determinata è ! ortogonale. Calcoliamo ora la lunghezza di ciascuno dei vettori di B. Si ha : ! |(1, 1, 0, 2)| = 6 ; |(1, -1, 0, 0)| = 2 ; |(1/3, 1/3, 1, - 1/3)| = 4/3 . Dividendo ogni vettore di B per la sua lunghezza, si ottiene la base ortonormale B' = {(1/ 6 , 1/ 6 , 0, 2/ 6 ), (1/ 2 , -1/ 2 , 0, 0), (1/ 12 , 1/ 12 , 3/ 12 , -1/ 12 )} di ! ! ! W. ! ! ! ! ! ! ! ! ! 185 2.3. Nello spazio vettoriale euclideo R 3 con il prodotto scalare standard, troviamo una base ortogonale contenente il vettore v = (2, 1, -3). Metodo 1. Si completa {v} in una base di R 3 e poi si applica il procedimento di Gram-Schmidt. Metodo 2. Si determina un vettore w ≠ 0 ortogonale a v e successivamente un vettore z ≠ 0 ortogonale sia a v che a w : Un vettore (x, y, z) è ortogonale a v se, e solo se, (x, y, z) • (2, 1, -3) = 2x + y – 3z = 0. Scegliamo w = (1, -2, 0). Un vettore (x, y, z) è ortogonale sia a v che a w se, e solo se, (x, y, z) • (2, 1, -3) = 2x + y – 3z = 0 e (x, y, z) • (1, -2, 0) = x – 2y = 0 cioè se, e solo se, esso è soluzione del sistema "2x + y - 3z = 0 . Scelto z = (6, 3, 5), otteniamo la base ortogonale # $ x - 2y = 0 {(2, 1, -3), (1, -2, 0), (6, 3, 5)}. ! 2.4. Nello spazio vettoriale euclideo (R 3, s), con s definito ponendo s((x, y, z), (x', y', z')) = xx'+ 2yy'+ 4zz'+ 2yz'+ 2zy', determiniamo una base ortonormale del sottospazio W = { (x, y, z) ∈ R 3 : x – y + z = 0 }. Poiché W ha dimensione 2, basta trovare in W due versori ortogonali. Scegliamo in W un vettore non nullo, ad esempio w = (1, 1, 0). Determiniamo ora in W un vettore z ≠ 0 ortogonale a w. Un vettore (x, y, z) appartiene a W se, e solo se, x – y + z = 0 ed è ortogonale a w se, e solo se, s((x, y, z), (1, 1, 0)) = x + 2y + 2z = 0; ne segue che i vettori di W "x - y + z = 0 ortogonali a w sono tutte e sole le soluzioni del sistema # . Scelto z $ x + 2y + 2z = 0 = (4, 1, -3), otteniamo la base ortogonale {(1, 1, 0), (4, 1, -3)} di W. Poiché |(1, 1, 0)| 3 e |(4, 1, -3)| = s((4, 1, - 3), (4, 1, - 3)) = 42 , ! allora {(1/ 3 , 1/ 3 , 0), (4/ 42 , 1/ 42 , -3/ 42 )} è una base ortonormale di W. = s((1, 1, 0), (1, 1, 0)) = ! ! ! ! 2.5. Nello spazio vettoriale euclideo (R 2[x], s), dove s è definito ponendo ! ! ! ! ! 2 2 s(ax +bx+c, a'x +b'x+c') = aa'+bb'+cc' (cfr. Esempio 1.4), si determini una base ortogonale contenente il vettore p1(x) = 1+x. 186 Poichè dim(R 2[x]) = 3, basta determinare due vettori non nulli p2(x) e p3(x) ortogonali tra loro ed entrambi ortogonali a p1(x). Un vettore a+bx+cx2 è ortogonale a p1(x) se, e solo se, s(a+bx+cx2, 1+x) = a+b = 0. Scegliamo p2(x) = 1-x. Poiché un vettore a+bx+cx2 è ortogonale a p1(x) se, e solo se, a+b = 0 ed è ortogonale a p2(x) se, e solo se, s(a+bx+cx2, 1-x) = a-b = 0, allora un vettore a+bx+cx2 è ortogonale ad entrambi i "a + b = 0 vettori p1(x) e p2(x) se, e solo se, (a, b, c) è soluzione del sistema # . Scelto $a - b = 0 p3(x) = x2, otteniamo la base ortogonale {1+x, 1-x, x2}. ! 3. RIFERIMENTI ORTONORMALI E MATRICI ORTOGONALI Sia (Vn, s) uno spazio vettoriale euclideo di dimensione n > 0. Considerato un riferimento R = ( e1, e2, . .., en), la matrice simmetrica di ordine n "s(e1, e1 ) s(e1, e 2 ) . . . s(e1, e n ) % $ ' s(e 2 , e1 ) s(e 2 , e 2 ) . . . s(e 2 , e n ) ' $ G = (s(ei, ej) ) = $. . . . . . ' $ ' #s(e n , e1 ) s(e n , e 2 ) . . . s(e n , e n )& è detta matrice di Gram associata ad s nel riferimento R. ! ESEMPI 3.1. Determiniamo la matrice di Gram associata, nel riferimento naturale di R 2, al prodotto scalare euclideo s definito ponendo s((x, y), (x', y')) = 2xx' + 4yy'. "s((1,0),(1,0)) s((1.0),(0,1))% "2 0 % Si ha : G = $ ' =$ '. #s((0,1),(1,0)) s((0,1),(0,1)) & #0 4 & 3.2. Determiniamo la matrice di Gram associata, nel riferimento naturale di R 3, al ! ! prodotto scalare euclideo s definito ponendo s((x, y, z), (x', y', z')) = xx'+ 2yy’+ 4zz'+ 2yz'+ 2zy'. 187 "1 0 0 % $ ' Si ha : G = $0 2 2 ' . $ ' #0 2 4 & Siano v, w ∈ Vn. Dette (x1, x2, . . . , xn) e ( y1, y2, . . .,yn) le n-uple delle componenti ! di v e w in R, si ha s(v, w) = s(x1e1+ x2e2+…+ xnen, y1e1+ y2e2+…+ ynen) = (per la bilinearità di s) x1y1 s(e1, e1) + x1y2 s(e1, e2) +.....+ x1yn s(e1, en) + x2y1 s(e2, e1) + ......+ xnyn s(en, en). E’ dunque n (3.1) "x y s(v, w) = i j s(e i ,e j ) = Xt G Y, i, j = 1 " x1 % $ ' $ x2 ' ! essendo X = $ . ' e Y = $ ' $$ . '' # xn & " y1 % $ ' $ y2 ' $. '. $ ' $$ . '' # yn & Per la Proposizione 2.4 esistono in Vn riferimenti ortonormali. In questo paragrafo vedremo l’utilità di tali riferimenti. ! ! Proposizione 3.1. Sia R = (e1, e2, ..., en ) un riferimento ortonormale di Vn. Si ha : (i) per ogni vettore v di Vn, le componenti di v in R sono i numeri reali s(v, e1), s(v, e2), ..., s(v, en) (detti coefficienti di Fourier di v in R); (ii) per ogni v, w ∈ Vn, s(v, w) coincide con il prodotto scalare standard delle n-uple delle loro componenti in R. Dimostrazione. (i) Sia v = x1e1+ x2e2+…+ xnen. Per ogni i = 1, 2, ..., n, s(v, ei) = s(x1e1+ x2e2+…+ xnen, ei) = x1 s(e1, ei) + .... + xi s(ei, ei) +.....+ xn s(en, ei) = xi (essendo R ortonormale). (ii) Siano v = x1e1+ x2e2+…+ xnen e w = y1e1+ y2e2+…+ ynen. Per la (3.1) s(v, w) = n n "x y i j s(e i ,e j ) = (essendo R ortonormale) "x y i i e l’asserto è così provato. i=1 i, j = 1 La (ii) si poteva anche provare osservando che, essendo R ortonormale, la matrice di ! Gram associata ad s in R coincide con la matrice identica In e dunque, per la (3.1), ! n t s(v, w) = X Y = "x y i i . i=1 188 ! Introduciamo ora le matrici ortogonali, strettamente legate ai riferimenti ortonormali. Una matrice quadrata A è detta ortogonale se è invertibile e la sua inversa coincide con la sua trasposta. Proposizione 3.2. Sia A una matrice quadrata reale di ordine n. Le seguenti affermazioni sono equivalenti : (i) A è ortogonale; (ii) A At = In ; (iii) At A = In ; (iv) le righe di A costituiscono una base ortonormale di R n con il prodotto scalare standard; (v) le colonne di A costituiscono una base ortonormale di R n con il prodotto scalare standard. Dimostrazione. Dalla (i) segue la (ii) per definizione di matrice ortogonale. Per la Proposizione 4.2 del Cap. III, dalla (ii) segue che A è invertibile ed A-1 = At, cioè la (i). La (i) e la (ii) sono dunque equivalenti. In modo analogo si prova l’equivalenza delle (i) e (iii). Proviamo ora che (ii) e (iv) sono equivalenti. Poiché le colonne di At coincidono con le righe di A, l’elemento di posto (i, j) di A At è ai • aj. L’uguaglianza A At = In equivale dunque a dire che ai • aj = 1 se i = j ed ai • aj = 0 se i ≠ j, cioè la (iv). In modo analogo si prova l’equivalenza delle (iii) e (v). L’asserto è così completamente provato. Proposizione 3.3. Sia A una matrice ortogonale. Si ha | A | = ± 1. Dimostrazione. Poiché A At = In allora |A At| = | In| = 1. Poiché il determinante di un prodotto è uguale al prodotto dei determinanti, e |A| = | At |, dall’uguaglianza ! precedente si ottiene |A| 2 = 1, da cui l’asserto. ESEMPI 3.3. Per ogni intero positivo n, la matrice identica In è una matrice ortogonale. 189 "0 -1% 3.4. E’ facile verificare che le matrici A = $ ' , #1 0 & "0 0 -1 % $ ' C = $1 0 0' sono ortogonali. $ ' #0 -1 0 & ! B = " $ $ $ $ # 2 2 2 2 - 2% ' 2 ' 2' ' 2 & e ! ! # cos" sen" & 3.5. E’ facile verificare che le matrici del tipo % ( , con ϑ ∈ [ 0, π] sono $-sen" cos" ' ortogonali. ! Proviamo ora la seguente Proposizione 3.4. La matrice di passaggio tra due riferimenti ortonormali è ortogonale. Dimostrazione. Siano R = (e1, e2, . .., en) ed R’ = (e1’, e2’, . .., en’) due riferimenti "b11 $ b 21 ortonormali di Vn e sia B = $ $. . $ #b n1 b12 . . . b1n % ' b 22 . . . b 2n ' la matrice di passaggio da R ad R’. Per ' . . ' b n2 . . . b nn & provare che B è una matrice ortogonale, basta provare (per la (v) della Proposizione 3.2) che le colonne di B costituiscono un riferimento ortonormale di R n rispetto al ! prodotto scalare standard. Consideriamo allora bi • bj. Poiché, per ogni i = 1,..., n, la colonna bi = (b1i, b2i, ..., bni) è la n-upla delle componenti di ei nel riferimento R’, allora, per la (ii) della Proposizione 3.1, è bi • bj = s(ei, ej) = (essendo R ortonormale) #1 , se i = j . Si ha così l’asserto. $ %0 , se i " j ! 4. GRUPPO ORTOGONALE E AUTOMORFISMI ORTOGONALI Sia (S, ⊥) un gruppo ed S' un sottoinsieme non vuoto di S. Si dice che S' è un sottogruppo di S se S' è stabile rispetto all’operazione ⊥ (cioè è tale che, ∀ a, b ∈ S', 190 a ⊥ b ∈ S') ed (S', ⊥) è un gruppo, dove ora ⊥ indica l’operazione che ad ogni elemento (a, b) ∈ S' x S' associa a ⊥ b ∈ S'. E’ immediato verificare che condizione necessaria e sufficiente affinchè S' sia un sottogruppo di S è che siano verificate le seguenti condizioni : i) S' è stabile rispetto a ⊥; ii) l’elemento neutro di (S, ⊥) appartiene ad S'; iii) ∀ a ∈ S', il simmetrico di a rispetto a ⊥ appartiene ad S'. Indichiamo con O(n, R ) l’insieme delle matrici ortogonali di ordine n sul campo reale, poniamo cioè O(n, R ) = {A ∈ GL(n, R ) : A-1 = At }. Proviamo che : Proposizione 4.1. O(n, R ) è un sottogruppo di GL(n, R ). Dimostrazione. Proviamo innanzitutto che, considerate A, B ∈ O(n, R ), risulta AB ∈ O(n, R ). La matrice AB è invertibile, essendo prodotto di matrici invertibili, e inoltre (AB)-1 = (AB)t, dato che (AB) (AB)t = (AB) (Bt At) = A(B Bt) At = A At = In (cfr. Cap. III, Proposizione 4.2). O(n, R) è dunque stabile rispetto al prodotto righe per colonne. Inoltre In ∈ O(n, R ) e ∀A ∈ O(n, R ) si ha che A-1∈ O(n, R), essendo (A-1)-1= A e (A-1)t = (At)t = A. Il gruppo O(n, R ) è detto gruppo ortogonale di ordine n. L’insieme SO(n, R ) = {A ∈ O(n, R ) : | A | = 1} è stabile rispetto al prodotto ed è, come si vede facilmente, un sottogruppo di O(n, R ), che viene detto gruppo ortogonale speciale. Sia (Vn, s) uno spazio vettoriale euclideo. Un’applicazione f : Vn → Vn è detta ortogonale se verifica la seguente proprietà : (4.1) ∀ v, w ∈ Vn, s(v, w) = s(f(v), f(w)). La proprietà (4.1) è molto forte; ogni applicazione ortogonale di uno spazio euclideo in sé è infatti lineare e biettiva, come mostra la seguente 191 Proposizione 4.2. Sia f una applicazione ortogonale di Vn. Si ha che : (i) f è lineare; (ii) f è iniettiva (e quindi biettiva). Dimostrazione. (i) Per provare che f è lineare, si deve provare che, ∀ v, w ∈ Vn e ∀ h ∈ R , f(v + w) = f(v) + f(w) e f(hv) = h f(v). Proviamo la seconda delle due uguaglianze (per l’altra si procede in modo analogo). Si ha : s(f(hv) – h f(v), f(hv) – h f(v)) = (per la bilinearità di s) = s(f(hv), f(hv)) – h s(f(hv), f(v)) – h s(f(v), f(hv)) + h2 s(f(v), f(v)) = (essendo f ortogonale) s(hv, hv) – h s(hv, v) – h s(v, hv) + h2 s(v, v) = h2 s(v, v) – 2 h2 s(v, v) + h2 s(v, v) = 0. Essendo s definito positivo, da s(f(hv) – h f(v), f(hv) – h f(v)) = 0 segue che f(hv) – h f(v) = 0, cioè f(hv) = h f(v). (ii) Siano v e w due vettori distinti. Si deve provare che f(v) ≠ f(w). Si ha s(f(v) – f(w), f(v) – f(w)) = (essendo f lineare per la (i)) s(f(v – w), f(v – w)) = (essendo f ortogonale) s(v – w, v – w). Poiché v – w ≠ 0, allora s(v – w, v – w) ≠ 0 essendo s definito positivo. Da s(f(v) – f(w), f(v) – f(w)) ≠ 0 segue, essendo s definito positivo, che f(v) – f(w) ≠ 0. L’asserto è così completamente provato. La proposizione seguente caratterizza gli automorfismi ortogonali di Vn. Proposizione 4.3. Sia f un endomorfismo di Vn e sia R un riferimento ortonormale. L’endomorfismo f è ortogonale se, e solo se, la matrice associata ad f in R è una matrice ortogonale. Dimostrazione. Sia A la matrice associata ad f in R. Proviamo la prima implicazione. Sia f ortogonale. Per provare che A è una matrice ortogonale, proveremo che le sue colonne costituiscono una base ortonormale di R n con il prodotto scalare standard (cfr. Proposizione 3.2, (v)). Si ha infatti : ai • aj = (cfr. Capitolo IV, Paragrafo 4) cR(f(ei)) • cR(f(ej)) = (per la (ii) della Proposizione 2.1, essendo R ortonormale) s(f(ei), f(ej)) = (essendo f ortogonale) s(ei, ej) = #1 , se i = j . $ %0 , se i " j ! 192 Viceversa, sia A ∈ O(n, R ). Presi due vettori v, w di Vn, siano rispettivamente X = " x1 % " y1 % $ ' $ ' $ x2 ' $ y2 ' $ . ' ed Y = $ . ' le componenti in R di v e w. Si avrà allora (cfr. Proposizione 4.2 $ ' $ ' $$ . '' $$ . '' # xn & # yn & del Capitolo IV) che cR(f(v)) = AX e cR(f(w)) = AY. Risulta quindi s(f(v), f(w)) = ! (essendo R ortonormale) cR(f(v)) • cR(f(w)) = (AX)t (AY) = (Xt At) (AY) = ! Xt (At A)Y = Xt In Y = Xt Y = cR(v) • cR(w) = s(v, w), e dunque f è ortogonale. Sia f : Vn → Vn un’applicazione ortogonale. Valgono per f le seguenti proprietà (di immediata verifica) : 1. ∀ v ∈ Vn, | v | = | f(v) |. 2. ∀ v, w ∈ Vn, | v – w | = | f(v) – f(w) |. 3. f trasforma riferimenti ortonormali in riferimenti ortonormali. Osserviamo che dalla Proposizione 4.3 segue che, se A ∈ O(n, R ), l’endomorfismo FA : X ∈ R n → AX ∈ R n è un automorfismo ortogonale di R n (infatti la matrice ad esso associata nel riferimento naturale, che è un riferimento ortonormale, è proprio la matrice ortogonale A). Indichiamo con Aut⊥(Vn) l’insieme degli automorfismi ortogonali dello spazio vettoriale Vn. E’ immediato verificare che, rispetto alla composizione tra applicazioni, Aut⊥(Vn) è un gruppo, sottogruppo di Aut(Vn) e che, se R è un riferimento ortonormale di Vn, allora l’applicazione φR : f ∈ Aut⊥(Vn) → MR(f) ∈ O(n, R ) è un isomorfismo tra il gruppo Aut⊥(Vn) e il gruppo ortogonale O(n, R ). 5. COMPLEMENTO ORTOGONALE Sia (V, s) uno spazio vettoriale euclideo. Per ogni sottoinsieme non vuoto X di V, poniamo X " = {v ∈ V : v ⊥ w , ∀ w ∈ X}. Il sottoinsieme X " è detto complemento ortogonale di X. ! ! 193 Proviamo che Proposizione 5.1. (i) Per ogni sottoinsieme non vuoto X di V, X " è un sottospazio; (ii) se W è un sottospazio, W∩ W " = { 0}; " " (iii) se W è un sottospazio ed {e1, e2, ..., et } è una sua ! base, W ={ e1, e2, ..., et } . Dimostrazione. (i) Cominciamo con l’osservare che X " è non vuoto in quanto ad ! esso appartiene almeno il vettore nullo. Siano u, !v ∈ X " . Poiché, per ogni w ∈ X, ! s(u+v, w) = s(u, w) + s(v, w) = 0, allora u+v è ortogonale a w e dunque appartiene ! ad X " . Sia ora h ∈ R e v ∈ X " . Poiché, per!ogni w ∈ X, s(hv, w) = h s(v, w) = 0, allora il vettore hv ∈ X " . Abbiamo così provato che X " è un sottospazio. ! (ii) Sia v ∈ W∩ W "!. Poiché v ∈ W " , v è ortogonale ad ogni vettore di W e dunque anche a se stesso. Essendo s definito positivo, ! ! da s(v, v) = 0 segue che v = 0. " " W "!⊆ { e1, e2, ..., et } . Sia ora v ∈ { e1, e2, ..., et } e w ∈ W. (iii) Evidentemente, ! Essendo {e1, e2, ..., et } una base di W, risulta w = h1e1 + h2e2 + ... + htet per opportuni scalari h1, ! h2, ... , ht. Poiché s(v, w) = s(v, h1e1 + h2e2 + ... + htet) = h1 s(v, e1) + ! ! h2 (v, e2) + ... + ht s(v, et) = 0, allora v è ortogonale a w. Si ha così che v ∈ W " e " quindi { e1, e2, ..., et } ⊆ W " . Dalla doppia inclusione segue l’asserto. ! Proposizione 5.2.!Sia (Vn , s) uno spazio vettoriale euclideo di dimensione n e sia W ! un suo sottospazio. Il sottospazio W e il suo complemento ortogonale sono supplementari, cioè Vn = W ⊕ W " . Dimostrazione. L’asserto è ovvio se W = {0} o W = Vn. Sia ora W non banale e sia t la sua dimensione. Per ! la Proposizione 2.3, esiste in W una base ortogonale BW = {e1, e2, ..., et }. Completiamo BW in una base ortogonale B = {e1, e2, ..., et , et+1, ..., en} di Vn (cfr. Proposizione 5.6 del Cap. II e la dimostrazione della Proposizione 2.3). Proviamo che {et+1, ..., en} è una base di W " . Cominciamo ad osservare che ciascuno dei vettori et+1, ..., en è ortogonale a tutti i vettori e1, e2, ..., et e quindi, per la (iii) della W " . Sia ora v ∈ W " . Essendo v in Vn, è v = h1e1 + Proposizione 5.1, appartiene a ! ... + htet + ht+1et+1+ ... + hnen per opportuni scalari h1, h2, ... , hn. Consideriamo il prodotto scalare di v per e1. Si ha che 0 = s(v, e1) = s(h1e1 + ...+ htet + ht+1et+1+ ... + ! ! hnen , e1) = h1 s(e1, e1) + ... + ht s(et, e1) + ht+1 s(et+1, e1) +. ... + hn s(en, e1) = (essendo B ortogonale) h1 s(e1, e1). Ne segue h1 = 0, essendo s(e1, e1) ≠ 0. Analogamente si prova 194 che anche gli scalari h2, ..., ht sono uguali a 0 e quindi il vettore v risulta combinazione lineare di et+1, ..., en . Il sistema {et+1, ..., en} è dunque un sistema di generatori di W " ; poiché ovviamente è costituito da vettori indipendenti, esso è una sua base. Essendo B una base di Vn, allora W + W " = Vn; dalla (ii) della Proposizione 5.1 segue l’asserto. ! ! Osserviamo esplicitamente che dalla Proposizione 5.2 segue che dim W " = n – dim W. ESEMPI ! 5.1. Nello spazio vettoriale euclideo costituito da R 3 con il prodotto scalare standard, determiniamo il complemento ortogonale del sottospazio W = L ((2, -1, 0), (0, 0, 1)). Si ha : W " = {(x, y, z) ∈ R 3 : (x, y, z ) • (2, -1, 0) = 0 = (x, y, z ) • (0, 0, 1)} = {(x, y, z) ∈ R 3 : 2x – y = 0 = z} = {(x, 2x, 0), x ∈ R } = L((1, 2, 0)). ! 5.2. Nello spazio vettoriale euclideo (R 3, s), con s definito ponendo s((x, y, z), (x', y', z')) = xx'+ 2yy'+ 4zz'+ 2yz'+ 2zy' (cfr. Esempio 2.4), determiniamo il complemento ortogonale del sottospazio W = L (1, 2, -1)). Si ha : W " = {(x, y, z) ∈ R 3 : s((x, y, z ), (1, 2, -1)) = x + 4y – 4z – 2y + 4z = 0 } = {(-2y, y, z), y, z ∈ R } = L ((-2, 1, 0), (0, 0, 1)). ! 6. ENDOMORFISMI SIMMETRICI E LORO DIAGONALIZZAZIONE ORTOGONALE Sia (Vn, s) uno spazio vettoriale euclideo di dimensione n > 0. Un endomorfismo f di Vn si dice ortogonalmente diagonalizzabile se esiste un riferimento ortonormale R tale che la matrice associata ad f in R è diagonale, cioè se esiste un riferimento ortonormale formato da autovettori di f (cfr. Capitolo VI). In questo paragrafo caratterizzeremo tali endomorfismi. A tale scopo introduciamo gli endomorfismi simmetrici. Un endomorfismo f di Vn si dice simmetrico se (6.1) ∀ v, w ∈ V, s(v, f(w)) = s(f(v), w). 195 Proposizione 6.1. Sia f un endomorfismo di Vn . (i) Se f è simmetrico ed R è un riferimento ortonormale di Vn, la matrice MR(f) associata ad f in R è simmetrica; (ii) se esiste un riferimento ortonormale R di Vn tale che la matrice MR(f) associata ad f in R è simmetrica, f è simmetrico. Dimostrazione. (i) Sia R = (e1, e2, ..., en). Poniamo MR(f) = A = (aij). Ricordiamo (cfr. Cap. V, Par. 4) che, per ogni i, j = 1, ..., n, aij è la componente di posto i di f(ej) nel riferimento R. Poiché R è ortonormale, dalla (i) della Proposizione 3.1 segue che aij = s(f(ej), ei). Per la simmetria di f, è allora aij = s(f(ej), ei) = s(ej, f(ei)) = aji e quindi A è simmetrica. (ii) Sia R = (e1, e2, ..., en ). Poniamo MR(f) = A = (aij). Se v e w sono due vettori e X ed Y sono rispettivamente i vettori colonna delle loro componenti in R, allora AX e AY sono rispettivamente i vettori colonna delle componenti in R di f(v) ed f(w) ( cfr. Cap.V, Proposizione 4.2). Per la (ii) della Proposizione 3.1, si ha s(v, f(w)) = Xt (AY) = (Xt A)Y = (essendo A simmetrica) (XtAt)Y = (AX)t Y = s(f(v), w) e quindi f è simmetrico. Si prova che Proposizione 6.2. Se f è un endomorfismo simmetrico di Vn, il suo polinomio caratteristico ammette n radici reali. Proposizione 6.3. Un endomorfismo f di Vn è ortogonalmente diagonalizzabile se, e solo se, è simmetrico. Dimostrazione. Sia f ortogonalmente diagonalizzabile e sia R un riferimento ortonormale tale che la matrice associata ad f in R è una matrice diagonale. Poiché una matrice diagonale è anche simmetrica, dalla (ii) della Proposizione 6.1 segue che f è simmetrico. Viceversa, sia f simmetrico. Per provare che esiste in Vn un riferimento ortonormale formato da autovettori di f, ragioneremo per induzione sulla dimensione n di Vn. Cominciamo a provare l’asserto per n = 1. Sia v ≠ 0 un vettore di V1. Poiché {v} è una base di V1 ed f(v) ∈ V1, allora f(v) = hv per un opportuno h ∈ R ; ne segue che v 196 " v % $ ' è un riferimento ortonormale di autovettori di # | v |& è un autovettore di f e dunque V1. Supponiamo ora vero l’asserto per la dimensione n–1 (n ≥ 2) e lo proviamo per la ! dimensione n. Sia dunque f un endomorfismo simmetrico di Vn e sia h un suo autovalore, che esiste per la Proposizione 6.2. Detto w un autovettore di autovalore h, sia W = L(w). Proviamo ora che f ( W " ) ⊆ W " . Sia v ∈ W " . Poiché s(w, f(v)) = (essendo f simmetrico) s(f(w), v) = s(hw, v) = hs(w, v) = 0, allora f(v) è ortogonale a w e dunque appartiene a W!" , per la!(ii) della Proposizione 5.1. L’applicazione, che ! qui indichiamo con fW " , che a v ∈ W " associa f(v) ∈ W " è ovviamente lineare e dunque è un endomorfismo di W " . Poiché evidentemente fW " è anche simmetrico, ! ! ! W " che, per la Proposizione possiamo applicare l’ipotesi!di induzione al sottospazio ! 5.2 , ha dimensione n–1. ortonormale (e1, e2, ..., en-1) di ! Esiste dunque un riferimento ! W " formato da autovettori di fW " . Poiché ogni autovettore di fW " è ovviamente ! w anche autovettore di f, allora, per la Proposizione 5.2, ( , e1, e2, ..., en-1) è un |w| ! di V formato da autovettori ! di f. L’asserto è così riferimento ortonormale n completamente provato. ! La proposizione precedente ci assicura che un endomorfismo simmetrico f di Vn è ortogonalmente diagonalizzabile. Allo scopo di determinare un riferimento ortonormale di autovettori di f, cominciamo a provare la seguente Proposizione 6.4. Sia f un endomorfismo simmetrico di Vn. Se v e w sono autovettori relativi a due autovalori distinti h e k, allora v e w sono ortogonali. Dimostrazione. Poiché s(v, f(w)) = s(v, kw) = k s(v, w) ed s(f(v), w) = s(hv, w) = h s(v, w), dalla simmetria di f segue che k s(v, w) = h s(v, w) , da cui (k – h) s(v, w) = 0. Essendo h ≠ k, risulta allora s(v, w) = 0, cioè v e w sono ortogonali. Diamo ora un metodo per determinare una base ortonormale formata da autovettori di un endomorfismo simmetrico f di Vn: 197 Indichiamo con h1, h2, ..., ht gli autovalori distinti di f e con V(h1), V(h2), ..., V(ht) i relativi autospazi. Per la Proposizione 2.3, è possibile determinare in ciascun autospazio V(hi) una base ortonormale Bi. Per il Teorema 2.11 del Cap. VI, B1 ∪ B2 ∪ ... ∪ Bt è una base di Vn formata da autovettori; tale base è ortonormale per la Proposizione 6.4. ESEMPI 6.1. Sia f l’endomorfismo dello spazio vettoriale euclideo R 2 (con il prodotto scalare standard) definito ponendo f(x, y) = (x+2y, 2x+4y). (a) Verifichiamo che f è simmetrico; (b) determiniamo una base ortonormale di R 2 formata da autovettori di f. (a) Metodo 1. Siano (x, y), (x', y') ∈ R 2. Si ha : (x, y) • f(x', y') = (x, y) • (x'+2y', 2x'+ 4y') = x(x'+2y') + y(2x'+4y') = x' (x+2y) + y' (2x+4y) = f(x, y) • (x', y'), e dunque f è simmetrico. Metodo 2. Poiché il riferimento naturale di R 2 è ortonormale rispetto al prodotto scalare standard, per la (ii) della Proposizione 6.1 basta verificare che la matrice A "1 2 % associata ad f in tale riferimento è simmetrica. Si ha A = $ ' , che è ovviamente #2 4 & simmetrica. (b) Il polinomio caratteristico di f è p(t) = t2 – 5t , le cui radici sono 0 e 5. Una base ! ortonormale dell’autospazio V(0) è {(-2/ 5 , 1/ 5 )} e una base ortonormale dell’autospazio V(5) è {(1/ 5 , 2/ 5 )}. Ne segue che {(-2/ 5 , 1/ 5 ), (1/ 5 , 2/ 5 )} è una base ortonormale R 2 formata da autovettori di f. ! di ! ! ! ! ! 6.2. Sia f l’endomorfismo dello spazio vettoriale euclideo R ! scalare standard) definito ponendo f(x, y, z) = (3x+z, 2y, x+3z). 3 ! (con il prodotto (a) Verifichiamo che f è simmetrico; (b) determiniamo una base ortonormale di R 3 formata da autovettori di f. " 3 0 1% $ ' (a) La matrice associata ad f nel riferimento naturale è $0 2 0' ; essendo tale $ ' #1 0 3 & matrice simmetrica, f è simmetrico. ! 198 (b) Il polinomio caratteristico di f è p(t) = (2 – t) (t2 –6t + 8), le cui radici sono 2, con molteplicità algebrica 2, e 4 con molteplicità algebrica 1. Una base ortonormale di {(0, 1, 0), (1/ 2 , 0, V(2) è -1/ 2 )} e una base ortonormale di V(4) è {(1/ 2 , 0, 1/ 2 )}. Ne segue che {(0, 1, 0), (1/ 2 , 0, -1/ 2 ), (1/ 2 , 0, 1/ 2 )} è 3 una base ortonormale da autovettori di f. ! di R formata ! ! ! ! ! ! ! 7. DIAGONALIZZAZIONE ORTOGONALE DI UNA MATRICE SIMMETRICA REALE Una matrice quadrata A di ordine n sul campo reale R è detta ortogonalmente diagonalizzabile se esiste una matrice ortogonale P tale che PtAP ( = P-1AP) è una matrice diagonale. Una matrice A ortogonalmente diagonalizzabile è dunque una matrice diagonalizzabile mediante una matrice ortogonale P (matrice che diagonalizza A). Così come nel Paragrafo 3 del Cap. VI, una matrice quadrata reale A di ordine n sarà vista come matrice associata all’ endomorfismo FA : X ∈ R n → AX ∈ R n nel riferimento naturale R di R n; inoltre si penserà R n dotato del prodotto scalare standard. Proposizione 7.1. Una matrice simmetrica reale è ortogonalmente diagonalizzabile. Dimostrazione. Sia A una matrice simmetrica reale di ordine n. Poiché A è la matrice associata all’endomorfismo FA nel riferimento naturale R e tale riferimento è ortonormale, dalla (ii) della Proposizione 6.1 segue che FA è un endomorfismo simmetrico. Per la Proposizione 6.3, esiste un riferimento ortonormale R' di R n formato da autovettori di FA. Diciamo D la matrice (diagonale) associata ad FA in R'. Per la Proposizione 4.8 del Cap. V, D = P-1AP, dove P è la matrice di passaggio da R' a R. Poiché, per la Proposizione 3.4, P è una matrice ortogonale, allora D = P-1AP = PtAP e l’asserto è provato. Si prova che il risultato espresso dalla Proposizione 7.1 si può invertire. Vale pertanto la seguente 199 Proposizione 7.2. Una matrice quadrata sul campo reale è ortogonalmente diagonalizzabile se, e solo se, essa è simmetrica. ESEMPI "5 3 % 7.1. Assegnata la matrice simmetrica reale A = $ ' , determiniamo una matrice # 3 5& diagonale simile ad A e una matrice ortogonale che diagonalizzi A. Il polinomio caratteristico di A è p(t) = t2 – 10t + 16, le cui radici sono 2 ed 8, ! entrambe con molteplicità algebrica 1. Una base ortonormale di V(2) è {(1/ 2 , –1/ 2 )} e una base ortonormale di V(8) è {(1/ 2 , 1/ 2 )}. Ne segue che {(1/ 2 , –1/ 2 ), (1/ 2 , 1/ 2 )} è una base ortonormale di R 2 formata da autovettori " $ $ di ! A e quindi!la matrice P = ! $$ # ! ! ! 1 2 1 2 1 % ! ! ' 2' è una matrice ortogonale che diagonalizza 1 ' ' 2 & "2 0% A. Una matrice diagonale simile ad A è dunque la matrice D = PtAP = $ '. #0 8& ! 7.2. Assegnata la matrice simmetrica reale A = "1 0 0% !' $ 0 -1 2 $ ' , determiniamo una $ ' #0 2 -1 & matrice diagonale simile ad A e una matrice ortogonale che diagonalizzi A. Il polinomio caratteristico di A è p(t) = (1 – t) (t2 + 2t – 3), le cui radici sono 1, con ! molteplicità algebrica 2, e –3 con molteplicità algebrica 1. Una base ortonormale di V(1) è {(1, 0, 0), (0, 1/ 2 , 1/ 2 )}, e una base ortonormale di V(–3) è {(0, –1/ 2 , 1/ 2 )}. Ne segue che {(1, 0, 0), (0, 1/ 2 , 1/ 2 ), (0, –1/ 2 , 1/ 2 )} è una base ortonormale di!R ! ! ! 3 formata da autovettori di A e quindi la matrice ! ! ! ! 200 " $1 $ P = $0 $ $ $0 # ! 0 1 2 1 2 % 0 ' ' 1 ' è una matrice ortogonale che diagonalizza A. Una matrice 2' ' 1 ' 2& "1 0 0 % $ ' diagonale simile ad A è dunque la matrice D = PtAP = $0 1 0' . $ ' #0 0 - 3& ! 201