180 CAPITOLO VIII SPAZI VETTORIALI EUCLIDEI E

annuncio pubblicitario
CAPITOLO VIII
SPAZI VETTORIALI EUCLIDEI E DIAGONALIZZAZIONE ORTOGONALE
1. PRODOTTI SCALARI EUCLIDEI
Sia V uno spazio vettoriale sul campo reale R . Un prodotto scalare euclideo in V è
un’applicazione s : V × V → R che verifica le seguenti proprietà :
∀ v , w, z ∈ V e ∀ h, k ∈ R
(1.1) s(v, w) = s(w, v),
(1.2) s(h v + k w, z) = h s(v, z) + k s(w, z) ,
s(v, h w + k z ) = h s(v, w ) + k s(v, z) .
(1.3) ∀ v ∈ V, s(v, v) ≥ 0
e
s(v, v) = 0
⇔
v = 0.
Le proprietà (1.1), (1.2), (1.3) si possono esprimere dicendo che s è simmetrica,
bilineare e definita positiva.
ESEMPI
1.1.
L’applicazione
• : R
n
× R
n
→ R
definita ponendo
(x1, x2, . . . , xn) • ( y1, y2, . . .,yn) = x1y1 + x2y2 +. . . + xnyn
è un prodotto scalare euclideo in R n (prodotto scalare standard (cfr. Cap. I, Par. 3)).
" x1 %
$ '
$ x2 '
Osserviamo che, ponendo X = $ . ' e Y =
$ '
$$ . ''
# xn &
" y1 %
$ '
$ y2 '
$ . ' e identificando la matrice Xt Y con
$ '
$$ . ''
# yn &
l’unico elemento da cui è costituita, si può scrivere (x1, x2, . . . , xn) • ( y1, y2, . . .,yn)
= Xt Y.
1.2.
!
!
Il prodotto scalare standard (associato ad una fissata unità u) nello spazio
vettoriale dei vettori geometrici (cfr. Cap. VII, Par. 2) è un prodotto scalare euclideo.
180
1.3.
Consideriamo le seguenti due applicazioni :
f : ( (x, y), (x', y') ) ∈ R 2 × R 2 → 2xx' + 4yy' ∈ R
g : ( (x, y), (x', y') ) ∈ R 2 × R 2 → xx' – yy' ∈ R.
Si verifica facilmente che f e g sono entrambe bilineari e simmetriche. La f è anche
definita positiva in quanto, per ogni (x, y) in R 2, risulta f((x, y), (x, y)) = 2x2 + 4y2
≥ 0, ∀ (x, y) ∈ R 2 e 2x2 + 4y2 = 0 se, e solo se, (x, y) = (0, 0).
Poiché invece g((x, y), (x, y)) = x2 – y2 e x2 – y2 < 0, ∀ x, y con |x| < |y|, allora la g
non è definita positiva.
Possiamo dire allora che f è un prodotto scalare euclideo in R 2 mentre g non lo è.
1.4.
L’applicazione
s
R
di
[x]
2
s(ax2+bx+c, a'x2+b'x+c') = aa'+ bb'+ cc'
×
R
[x]
2
in
R definita ponendo
è, come si verifica facilmente, un prodotto
scalare euclideo nello spazio vettoriale R 2[x] .
Analogamente si definisce un prodotto scalare euclideo in R n[x].
1.5. L’applicazione s di R
2,2
× R
2,2
"" a b% " a' b'%%
in R definita ponendo s $$
',$
'' =
## c d& # c' d'&&
1
aa'+bb'+cc'+3dd' è un prodotto scalare euclideo in R 2,2.
2
!
!
1.6.
Sia A ∈ R n,n. Si definisce traccia di A, e si indica con trA, la somma degli
elementi della diagonale principale di A; si pone cioè trA = a11 + a22 + .... + ann. E’
facile verificare che tr AB = tr BA, trA = trAt, tr(A+B) = trA + trB, tr(hA) = h trA e
tr(At B) = (a1 • b1) + (a2 • b2) + ...+ ( an • bn), per ogni A, B ∈ R n,n e per ogni h ∈ R .
Consideriamo ora l’applicazione
s : (A, B) ∈ R n,n × R n,n → tr(At B) ∈ R.
n
Poiché tr(At B) =(a1 • b1) + (a2 • b2) + ...+ ( an • bn) =
"a b
ij ij
= (a11, a12, ..., a1n, a21, a22,
i, j = 1
..., a2n, ..., an1, an2, ..., ann) • (b11, b12, ..., b1n, b21, b22, ..., b2n, ..., bn1, bn2, ..., bnn), dalle
proprietà del prodotto scalare standard in R
!
euclideo in R n,n.
n2
segue che s è un prodotto scalare
!
181
Sia V uno spazio vettoriale sul campo reale. Se s : V × V → R è un prodotto
scalare euclideo in V, la coppia (V, s) è detta spazio vettoriale euclideo e, per ogni
v, w ∈ V,
il numero reale s(v, w) è detto prodotto scalare dei vettori v e w.
Osserviamo che, se W è un sottospazio di V, la restrizione di s a W × W è un
prodotto scalare euclideo in W; con tale restrizione, W è esso stesso uno spazio
vettoriale euclideo.
Chiudiamo questo paragrafo osservando che dalla bilinearità di s segue subito che
(1.4)
s(h1v1+ h2v2+…+ htvt, w) = h1 s(v1, w) + h2 s(v2, w) +....+ ht s(vt, w),
∀ h1, h2, …, ht ∈ R
e ∀ v1, v2, …, vt, w ∈ V.
2. PROPRIETA’ DI UNO SPAZIO VETTORIALE EUCLIDEO
Sia (V, s) uno spazio vettoriale euclideo. Proviamo subito che
(2.1)
∀ v ∈ V, s(v, 0 ) = 0 = s (0, v).
Per la simmetria e la bilinearità di s, si ha infatti che s(0, v) = s(v, 0 ) = s(v, 0v) =
0 s(v, v) = 0 .
Sia v ∈ V. Per la (1.3), s(v, v) ≥ 0; il numero reale
s(v, v) sarà detto modulo (o
lunghezza) di v e sarà indicato con il simbolo |v|. Ovviamente, |v| ≥ 0; inoltre |v| = 0
se, e solo se, v = 0. E’ anche immediato verificare che : ∀ h ∈ R , | hv | = |h| |v|.
!
Diremo versore un vettore di lunghezza 1. Se v è un vettore non nullo, il vettore
v
è, come subito si verifica, un versore.
|v|
!
Proposizione 2.1. Per ogni v, w ∈ V,
(i)
|s(v, w)| ≤ |v| |w| (disuguaglianza di Cauchy-Schwarz);
(ii) |v + w| ≤ |v| + |w| (disuguaglianza triangolare).
182
Dimostrazione. Se almeno uno tra i due vettori v e w è nullo, le disuguaglianze sono
banalmente verificate. Supponiamo dunque, v, w ≠ 0.
(i) Essendo s definito positivo, è s(v+tw, v+tw) ≥ 0, ∀t ∈ R . Per la bilinearità di s,
la disuguaglianza precedente si può scrivere così : s(w, w) t2 + 2s(v, w) t + s(v, v) ≥ 0.
Poiché il trinomio di secondo grado in t su scritto, se non si annulla, assume sempre lo
stesso segno, allora il suo discriminante è minore o uguale a zero, e dunque
(s(v, w))2 ≤ s(v, v) s(w, w) = |v|2 |w|2, da cui segue la (i).
(ii) Si ha : |v + w| 2 = s(v+w, v+w) = s(v, v) + 2s(v, w) + s(w, w) = |v|2+ 2s(v, w) +
|w|2 ≤ (per la (i)) |v|2+ 2|v| |w| + |w|2= (|v| + |w|)2 , da cui segue la (ii).
Dati due vettori non nulli v e w, dalla disuguaglianza di Cauchy-Schwarz segue
| s(v, w) |
s(v, w)
≤ 1, cioè -1 ≤
≤ 1. Si definisce angolo tra i due vettori v e w, e
|v| |w|
|v| |w|
si indica con vˆw, l’unico numero reale θ ∈ [0, π] tale che cosθ =
!
s(v, w)
. Si ha
|v| |w|
allora vˆw = π/2! se, e solo se, cos vˆw = 0, cioè s(v, w) = 0.
! allora naturale definire ortogonali due vettori v e w tali che s(v, w) = 0. Dalla
E’
!
(2.1) segue che il vettore nullo è ortogonale ad ogni vettore. Per indicare che v e w
!
!
sono ortogonali useremo il simbolo v ⊥ w.
Un sistema di vettori a due a due ortogonali si dice ortogonale. Proviamo che:
Proposizione 2.2. Sia S = { v1, v2, …, vt } un sistema ortogonale di vettori di V.
(i) ∀ h1, h2, …, ht ∈ R , il sistema S' = { h1v1, h2v2,…, htvt } è ortogonale;
(ii) se vi ≠ 0 per ogni i ∈ { 1, 2, ...., t }, il sistema S è indipendente.
Dimostrazione. (i) Siano i, j ∈ {1, 2, ...., t}, con i≠j. Dalla bilinearità di s segue che
s(hivi, hjvj) = hihj s(vi, vj) = 0. Il sistema S' è dunque ortogonale.
(ii) Sia h1v1+ h2v2+…+ htvt = 0. Per ogni i ∈ { 1, 2, ...., t }, s(h1v1+ h2v2+…+ htvt, vi)
= s(0, vi) = 0. Per la (1.4) si ha allora che
h1 s(v1, vi) + .....+ hi s(vi, vi) +....
+ ht s(vt, vi) = 0. Essendo il sistema S ortogonale, s(vi, vj) = 0 per ogni i≠j e dunque la
precedente uguaglianza diventa hi s(vi, vi) = 0. Ne segue hi = 0, essendo s(vi, vi) ≠ 0
in quanto per ipotesi è vi ≠ 0. Si è così provato che hi = 0 per ogni i ∈ { 1, 2, ...., t };
dunque S è indipendente.
183
Proposizione 2.3 (ortogonalizzazione di Gram-Schmidt). Sia W un sottospazio di V.
Se W ha dimensione finita t > 0, esiste in W una base ortogonale.
Dimostrazione. Sia B = {v1, v2, v3,…, vt} una base di W. Utilizzando B, costruiremo
una base ortogonale di W. Poniamo w1 = v1 ed osserviamo che, per ogni h ∈ R , il
vettore v2 – hw1 è non nullo (in quanto v2 e v1 = w1 sono indipendenti) ed appartiene
a W. Proviamo ora che esiste un valore di h per cui v2 – hw1 è ortogonale a w1.
Poiché s(v2 – hw1, w1) = s(v2, w1) – h s(w1 , w1) ed s(w1, w1) ≠ 0 (in quanto w1 = v1 è
non nullo), allora s(v2 – hw1, w1) = 0 se, e solo se, h = s(v2, w1) / s(w1, w1). Il vettore
w2 = v2 –
s(v 2 , w1 )
w1
s(w1,w1 )
è dunque un vettore di W non nullo ed ortogonale a v1.
Consideriamo ora il vettore v3 ed osserviamo che, per ogni h1, h2 ∈ R , il vettore
!
v3 – h1w1 – h2w2 è non nullo (in quanto v3 ∉ L(v1, v2) = L (w1, w2) ) ed appartiene a
W. Poiché s(v3 – h1w1 – h2w2, w1) = s(v3, w1) – h1s(w1, w1) – h2 s(w2, w1) =
s(v3, w1) – h1s(w1 , w1) ed s(w1, w1) ≠ 0, allora s(v3 – h1w1 – h2w2, w1) = 0 se, e solo
se, h1 = s(v3, w1) / s(w1, w1). Analogamente, s(v3 – h1w1 – h2w2, w2) = 0 se, e solo se,
h2 = s(v3, w2) / s(w2, w2). Ne segue che il vettore
w3 = v3 –
s(v 3 , w1 )
s(v 3 , w2 )
w1 –
w2
s(w1,w1 )
s(w2 ,w2 )
è un vettore di W non nullo ed ortogonale sia a w1 che a w2.
Così continuando si riesce a determinare in W un sistema B' = {w1, w2, w3,…, wt}
!
!
di t vettori non nulli a due a due ortogonali :
w1 = v1,
w2 = v2 –
s(v 2 , w1 )
w1,
s(w1,w1 )
. . . . . . . . . . . . . . . . . . . . . . . . . . . ..
w
!t = vt –
s(v t , w1 )
s(v t , w2 )
s(v t , wt -1 )
w1 –
w2 – . . . . –
wt-1.
s(w1,w1 )
s(w2 ,w2 )
s(wt -1,wt -1 )
Per la (ii) della Proposizione 2.2, B' è una base ortogonale di W. L’asserto è così
provato.
!
!
!
Un sistema di vettori S = {v1, v2,…, vt} di V è detto ortonormale se è costituito da
versori a due a due ortogonali, cioè se
#1 , se i = j
s(vi, vj) = $
.
%0 , se i " j
184
!
Proposizione 2.4. Sia W un sottospazio di V. Se W ha dimensione finita t > 0, esiste
in W una base ortonormale.
Dimostrazione. Per la Proposizione 2.3 esiste in W una base ortogonale B =
{w1, w2,…, wt}. Dividendo ogni vettore di B per il suo modulo, si ottiene, per la (i)
della Proposizione 2.2, una base ortonormale di W.
ESEMPI
2.1. La base naturale di R
n
è una base ortonormale rispetto al prodotto scalare
standard in R n. La base naturale di R n[x] è una base ortonormale rispetto al prodotto
scalare euclideo definito nell’Esempio 1.4. Analogamente, la base naturale di R n,n è
una base ortonormale rispetto al prodotto scalare euclideo definito nell’Esempio 1.6.
2.2. Nello spazio vettoriale euclideo R 4 con il prodotto scalare standard, troviamo
una base ortonormale del sottospazio
W =
L((1, 1, 0, 2), (2, 0, 0, 2),
(-2, 3, 1, 0)).
Applicando il procedimento di Gram-Schmidt alla base
{v1 = (1, 1, 0, 2),
v2 = (2, 0, 0, 2), v3 = (-2, 3, 1, 0)} di W, si ha :
w1 = (1, 1, 0, 2);
w2 = v2 –
s(v 2 , w1 )
w1
s(w1,w1 )
=
(2, 0, 0, 2) –
(2, 0, 0, 2) • (1, 1, 0, 2)
(1, 1, 0, 2) =
(1, 1, 0, 2) • (1, 1, 0, 2)
(1, -1, 0, 0);
w!3
=
s(v 3 , w1 )
w1! –
s(w1,w1 )
v3 –
s(v 3 , w2 )
w2
s(w2 ,w2 )
(-2, 3, 1, 0) • (1, 1, 0,2)
(1, 1, 0, 2) –
(1, 1, 0, 2) • (1, 1, 0, 2)
!
!
(1/3, 1/3, 1, - 1/3).
=
(-2, 3, 1, 0) –
(-2, 3, 1, 0) • (1,-1, 0, 0)
(1,-1, 0, 0) • (1,-1, 0, 0)
(1, -1, 0, 0) =
La base B = {(1, 1, 0, 2), (1, -1, 0, 0), (1/3, 1/3, 1, - 1/3)} di W così determinata è
!
ortogonale. Calcoliamo ora la lunghezza di ciascuno dei vettori di B. Si ha :
!
|(1, 1, 0, 2)| =
6 ; |(1, -1, 0, 0)| =
2 ; |(1/3, 1/3, 1, - 1/3)| =
4/3 . Dividendo ogni
vettore di B per la sua lunghezza, si ottiene la base ortonormale
B' =
{(1/ 6 , 1/ 6 , 0, 2/ 6 ), (1/ 2 , -1/ 2 , 0, 0), (1/ 12 , 1/ 12 , 3/ 12 , -1/ 12 )} di
!
!
!
W.
!
!
!
!
!
!
!
!
!
185
2.3. Nello spazio vettoriale euclideo R 3 con il prodotto scalare standard, troviamo una
base ortogonale contenente il vettore v = (2, 1, -3).
Metodo 1. Si completa {v} in una base di R
3
e poi si applica il procedimento di
Gram-Schmidt.
Metodo 2. Si determina un vettore w ≠ 0 ortogonale a v e successivamente un vettore
z ≠ 0 ortogonale sia a v che a w :
Un vettore (x, y, z) è ortogonale a v se, e solo se, (x, y, z) • (2, 1, -3) =
2x + y – 3z = 0. Scegliamo w = (1, -2, 0).
Un vettore (x, y, z) è ortogonale sia a v che a w se, e solo se, (x, y, z) • (2, 1, -3) =
2x + y – 3z = 0 e (x, y, z) • (1, -2, 0) = x – 2y = 0 cioè se, e solo se, esso è soluzione
del sistema
"2x + y - 3z = 0
. Scelto z = (6, 3, 5), otteniamo la base ortogonale
#
$ x - 2y = 0
{(2, 1, -3), (1, -2, 0), (6, 3, 5)}.
!
2.4. Nello spazio vettoriale euclideo (R 3, s), con s definito ponendo s((x, y, z),
(x', y', z')) = xx'+ 2yy'+ 4zz'+ 2yz'+ 2zy', determiniamo una base ortonormale del
sottospazio W = { (x, y, z) ∈ R 3 : x – y + z = 0 }.
Poiché W ha dimensione 2, basta trovare in W due versori ortogonali. Scegliamo in
W un vettore non nullo, ad esempio w = (1, 1, 0). Determiniamo ora in W un vettore z
≠ 0 ortogonale a w.
Un vettore (x, y, z) appartiene a W se, e solo se, x – y + z = 0 ed è ortogonale a w
se, e solo se, s((x, y, z), (1, 1, 0)) = x + 2y + 2z = 0; ne segue che i vettori di W
"x - y + z = 0
ortogonali a w sono tutte e sole le soluzioni del sistema #
. Scelto z
$ x + 2y + 2z = 0
= (4, 1, -3), otteniamo la base ortogonale {(1, 1, 0), (4, 1, -3)} di W. Poiché |(1, 1, 0)|
3 e |(4, 1, -3)| = s((4, 1, - 3), (4, 1, - 3)) = 42 ,
!
allora {(1/ 3 , 1/ 3 , 0), (4/ 42 , 1/ 42 , -3/ 42 )} è una base ortonormale di W.
= s((1, 1, 0), (1, 1, 0)) =
!
!
!
!
2.5. Nello spazio vettoriale euclideo (R 2[x], s), dove s è definito ponendo
!
!
!
!
!
2
2
s(ax +bx+c, a'x +b'x+c') = aa'+bb'+cc' (cfr. Esempio 1.4), si determini una base
ortogonale contenente il vettore p1(x) = 1+x.
186
Poichè dim(R 2[x]) = 3, basta determinare due vettori non nulli p2(x) e p3(x) ortogonali
tra loro ed entrambi ortogonali a p1(x). Un vettore a+bx+cx2 è ortogonale a p1(x) se,
e solo se, s(a+bx+cx2, 1+x) = a+b = 0. Scegliamo p2(x) = 1-x. Poiché un vettore
a+bx+cx2 è ortogonale a p1(x) se, e solo se, a+b = 0 ed è ortogonale a p2(x) se, e solo
se, s(a+bx+cx2, 1-x) = a-b = 0, allora un vettore a+bx+cx2 è ortogonale ad entrambi i
"a + b = 0
vettori p1(x) e p2(x) se, e solo se, (a, b, c) è soluzione del sistema #
. Scelto
$a - b = 0
p3(x) = x2, otteniamo la base ortogonale {1+x, 1-x, x2}.
!
3. RIFERIMENTI ORTONORMALI E MATRICI ORTOGONALI
Sia (Vn, s) uno spazio vettoriale euclideo di dimensione n > 0. Considerato un
riferimento R = ( e1, e2, . .., en), la matrice simmetrica di ordine n
"s(e1, e1 ) s(e1, e 2 ) . . . s(e1, e n ) %
$
'
s(e 2 , e1 ) s(e 2 , e 2 ) . . . s(e 2 , e n ) '
$
G = (s(ei, ej) ) =
$. . . . . .
'
$
'
#s(e n , e1 ) s(e n , e 2 ) . . . s(e n , e n )&
è detta matrice di Gram associata ad s nel riferimento R.
!
ESEMPI
3.1. Determiniamo la matrice di Gram associata, nel riferimento naturale di
R 2, al
prodotto
scalare
euclideo
s definito ponendo
s((x, y), (x', y')) =
2xx' + 4yy'.
"s((1,0),(1,0)) s((1.0),(0,1))% "2 0 %
Si ha : G = $
' =$
'.
#s((0,1),(1,0)) s((0,1),(0,1)) & #0 4 &
3.2. Determiniamo la matrice di Gram associata, nel riferimento naturale di R 3, al
!
!
prodotto scalare euclideo s definito ponendo
s((x, y, z), (x', y', z')) =
xx'+ 2yy’+ 4zz'+ 2yz'+ 2zy'.
187
"1 0 0 %
$
'
Si ha : G = $0 2 2 ' .
$
'
#0 2 4 &
Siano v, w ∈ Vn. Dette (x1, x2, . . . , xn) e ( y1, y2, . . .,yn) le n-uple delle componenti
!
di v e w in R, si ha s(v, w) = s(x1e1+ x2e2+…+ xnen, y1e1+ y2e2+…+ ynen) = (per la
bilinearità di s) x1y1 s(e1, e1) + x1y2 s(e1, e2) +.....+ x1yn s(e1, en) + x2y1 s(e2, e1) +
......+ xnyn s(en, en). E’ dunque
n
(3.1)
"x y
s(v, w) =
i
j
s(e i ,e j ) = Xt G Y,
i, j = 1
" x1 %
$ '
$ x2 '
!
essendo X = $ . ' e Y =
$ '
$$ . ''
# xn &
" y1 %
$ '
$ y2 '
$. '.
$ '
$$ . ''
# yn &
Per la Proposizione 2.4 esistono in Vn riferimenti ortonormali. In questo paragrafo
vedremo l’utilità di tali riferimenti.
!
!
Proposizione 3.1. Sia R = (e1, e2, ..., en ) un riferimento ortonormale di Vn. Si ha :
(i) per ogni vettore v di Vn, le componenti di v in R sono i numeri reali s(v, e1),
s(v, e2), ..., s(v, en) (detti coefficienti di Fourier di v in R);
(ii) per ogni v, w ∈ Vn, s(v, w) coincide con il prodotto scalare standard delle n-uple
delle loro componenti in R.
Dimostrazione. (i) Sia v = x1e1+ x2e2+…+ xnen. Per ogni i = 1, 2, ..., n, s(v, ei) =
s(x1e1+ x2e2+…+ xnen, ei) = x1 s(e1, ei) + .... + xi s(ei, ei) +.....+ xn s(en, ei) = xi (essendo
R ortonormale).
(ii) Siano v = x1e1+ x2e2+…+ xnen e w = y1e1+ y2e2+…+ ynen. Per la (3.1) s(v, w) =
n
n
"x y
i
j
s(e i ,e j ) = (essendo R ortonormale)
"x y
i
i
e l’asserto è così provato.
i=1
i, j = 1
La (ii) si poteva anche provare osservando che, essendo R ortonormale, la matrice di
!
Gram associata ad s in R coincide con la matrice identica In e dunque, per la (3.1),
!
n
t
s(v, w) = X Y =
"x y
i
i
.
i=1
188
!
Introduciamo ora le matrici ortogonali, strettamente legate ai riferimenti
ortonormali. Una matrice quadrata A è detta ortogonale se è invertibile e la sua
inversa coincide con la sua trasposta.
Proposizione 3.2. Sia A una matrice quadrata reale di ordine n. Le seguenti
affermazioni sono equivalenti :
(i) A è ortogonale;
(ii) A At = In ;
(iii) At A = In ;
(iv) le righe di A costituiscono una base ortonormale di R n con il prodotto scalare
standard;
(v) le colonne di A costituiscono una base ortonormale di R n con il prodotto scalare
standard.
Dimostrazione. Dalla (i) segue la (ii) per definizione di matrice ortogonale. Per la
Proposizione 4.2 del Cap. III, dalla (ii) segue che A è invertibile ed A-1 = At, cioè la
(i). La (i) e la (ii) sono dunque equivalenti. In modo analogo si prova l’equivalenza
delle (i) e (iii).
Proviamo ora che (ii) e (iv) sono equivalenti. Poiché le colonne di At coincidono con
le righe di A, l’elemento di posto (i, j) di A At è ai • aj. L’uguaglianza A At = In
equivale dunque a dire che ai • aj = 1 se i = j ed ai • aj = 0 se i ≠ j, cioè la (iv).
In modo analogo si prova l’equivalenza delle (iii) e (v).
L’asserto è così completamente provato.
Proposizione 3.3. Sia A una matrice ortogonale. Si ha | A | = ± 1.
Dimostrazione. Poiché A At = In allora |A At| = | In| = 1. Poiché il determinante di
un prodotto è uguale al prodotto dei determinanti, e |A| = | At |, dall’uguaglianza
!
precedente si ottiene |A| 2 = 1, da cui l’asserto.
ESEMPI
3.3. Per ogni intero positivo n, la matrice identica In è una matrice ortogonale.
189
"0 -1%
3.4. E’ facile verificare che le matrici A = $
' ,
#1 0 &
"0 0 -1 %
$
'
C = $1 0 0' sono ortogonali.
$
'
#0 -1 0 &
!
B =
"
$
$
$
$
#
2
2
2
2
-
2%
'
2 '
2'
'
2 &
e
!
!
# cos" sen" &
3.5. E’ facile verificare che le matrici del tipo %
( , con ϑ ∈ [ 0, π] sono
$-sen" cos" '
ortogonali.
!
Proviamo ora la seguente
Proposizione 3.4. La matrice di passaggio tra due riferimenti ortonormali è
ortogonale.
Dimostrazione. Siano R = (e1, e2, . .., en) ed R’ = (e1’, e2’, . .., en’) due riferimenti
"b11
$
b 21
ortonormali di Vn e sia B = $
$. .
$
#b n1
b12 . . . b1n %
'
b 22 . . . b 2n '
la matrice di passaggio da R ad R’. Per
'
. .
'
b n2 . . . b nn &
provare che B è una matrice ortogonale, basta provare (per la (v) della Proposizione
3.2) che le colonne di B costituiscono un riferimento ortonormale di R n rispetto al
!
prodotto scalare standard. Consideriamo allora bi • bj. Poiché, per ogni i = 1,..., n, la
colonna bi = (b1i, b2i, ..., bni) è la n-upla delle componenti di ei nel riferimento R’,
allora, per la (ii) della Proposizione 3.1, è bi • bj = s(ei, ej) = (essendo R ortonormale)
#1 , se i = j
. Si ha così l’asserto.
$
%0 , se i " j
!
4. GRUPPO ORTOGONALE E AUTOMORFISMI ORTOGONALI
Sia (S, ⊥) un gruppo ed S' un sottoinsieme non vuoto di S. Si dice che S' è un
sottogruppo di S se S' è stabile rispetto all’operazione ⊥ (cioè è tale che, ∀ a, b ∈ S',
190
a ⊥ b ∈ S') ed (S', ⊥) è un gruppo, dove ora ⊥ indica l’operazione che ad ogni
elemento (a, b) ∈ S' x S' associa a ⊥ b ∈ S'. E’ immediato verificare che condizione
necessaria e sufficiente affinchè S' sia un sottogruppo di S è che siano verificate le
seguenti condizioni :
i) S' è stabile rispetto a ⊥;
ii) l’elemento neutro di (S, ⊥) appartiene ad S';
iii) ∀ a ∈ S', il simmetrico di a rispetto a ⊥ appartiene ad S'.
Indichiamo con O(n, R ) l’insieme delle matrici ortogonali di ordine n sul
campo reale, poniamo cioè O(n, R ) = {A ∈ GL(n, R ) : A-1 = At }.
Proviamo che :
Proposizione 4.1. O(n, R ) è un sottogruppo di GL(n, R ).
Dimostrazione. Proviamo innanzitutto che, considerate A, B ∈ O(n, R ), risulta
AB ∈ O(n, R ). La matrice AB è invertibile, essendo prodotto di matrici invertibili, e
inoltre (AB)-1 = (AB)t, dato che (AB) (AB)t = (AB) (Bt At) = A(B Bt) At = A At = In
(cfr. Cap. III, Proposizione 4.2). O(n, R) è dunque stabile rispetto al prodotto righe per
colonne. Inoltre In ∈ O(n, R ) e ∀A ∈ O(n, R ) si ha che A-1∈ O(n, R), essendo
(A-1)-1= A e (A-1)t = (At)t = A.
Il gruppo O(n, R ) è detto gruppo ortogonale di ordine n.
L’insieme SO(n, R ) = {A ∈ O(n, R ) : | A | = 1} è stabile rispetto al prodotto
ed è, come si vede facilmente, un sottogruppo di O(n, R ), che viene detto gruppo
ortogonale speciale.
Sia (Vn, s) uno spazio vettoriale euclideo. Un’applicazione f : Vn → Vn è
detta ortogonale se verifica la seguente proprietà :
(4.1)
∀ v, w ∈ Vn, s(v, w) = s(f(v), f(w)).
La proprietà (4.1) è molto forte; ogni applicazione ortogonale di uno spazio
euclideo in sé è infatti lineare e biettiva, come mostra la seguente
191
Proposizione 4.2. Sia f una applicazione ortogonale di Vn. Si ha che :
(i) f è lineare;
(ii) f è iniettiva (e quindi biettiva).
Dimostrazione. (i) Per provare che f è lineare, si deve provare che, ∀ v, w ∈ Vn e
∀ h ∈ R , f(v + w) = f(v) + f(w) e f(hv) = h f(v). Proviamo la seconda delle due
uguaglianze (per l’altra si procede in modo analogo). Si ha :
s(f(hv) – h f(v), f(hv) – h f(v)) = (per la bilinearità di s)
= s(f(hv), f(hv)) – h s(f(hv), f(v)) – h s(f(v), f(hv)) + h2 s(f(v), f(v)) =
(essendo f ortogonale) s(hv, hv) –
h s(hv, v) – h s(v, hv) +
h2 s(v, v) =
h2 s(v, v) – 2 h2 s(v, v) + h2 s(v, v) = 0.
Essendo s definito positivo, da s(f(hv) – h f(v), f(hv) – h f(v)) = 0 segue che
f(hv) – h f(v) = 0, cioè f(hv) = h f(v).
(ii) Siano v e w due vettori distinti. Si deve provare che f(v) ≠ f(w). Si ha
s(f(v) – f(w), f(v) – f(w)) = (essendo f lineare per la (i)) s(f(v – w), f(v – w)) =
(essendo f ortogonale) s(v – w, v – w). Poiché v – w ≠ 0, allora s(v – w, v – w) ≠ 0
essendo s definito positivo. Da s(f(v) – f(w), f(v) – f(w)) ≠ 0 segue, essendo s
definito positivo, che f(v) – f(w) ≠ 0. L’asserto è così completamente provato.
La proposizione seguente caratterizza gli automorfismi ortogonali di Vn.
Proposizione 4.3. Sia f un endomorfismo di Vn e sia R un riferimento ortonormale.
L’endomorfismo f è ortogonale se, e solo se, la matrice associata ad f in R è una
matrice ortogonale.
Dimostrazione. Sia A la matrice associata ad f in R.
Proviamo la prima implicazione. Sia f ortogonale. Per provare che A è una matrice
ortogonale, proveremo che le sue colonne costituiscono una base ortonormale di R n
con il prodotto scalare standard (cfr. Proposizione 3.2, (v)). Si ha infatti : ai • aj =
(cfr. Capitolo IV, Paragrafo 4) cR(f(ei)) • cR(f(ej)) = (per la (ii) della Proposizione 2.1,
essendo R ortonormale) s(f(ei), f(ej))
=
(essendo f ortogonale) s(ei, ej) =
#1 , se i = j
.
$
%0 , se i " j
!
192
Viceversa, sia A ∈ O(n, R ). Presi due vettori v, w di Vn, siano rispettivamente X =
" x1 %
" y1 %
$ '
$ '
$ x2 '
$ y2 '
$ . ' ed Y = $ . ' le componenti in R di v e w. Si avrà allora (cfr. Proposizione 4.2
$ '
$ '
$$ . ''
$$ . ''
# xn &
# yn &
del Capitolo IV) che cR(f(v)) = AX e cR(f(w)) = AY. Risulta quindi s(f(v), f(w)) =
!
(essendo R ortonormale) cR(f(v)) • cR(f(w)) = (AX)t (AY) = (Xt At) (AY) =
!
Xt (At A)Y = Xt In Y = Xt Y = cR(v) • cR(w) = s(v, w), e dunque f è ortogonale.
Sia f : Vn → Vn un’applicazione ortogonale. Valgono per f le seguenti proprietà
(di immediata verifica) :
1. ∀ v ∈ Vn, | v | = | f(v) |.
2. ∀ v, w ∈ Vn, | v – w | = | f(v) – f(w) |.
3. f trasforma riferimenti ortonormali in riferimenti ortonormali.
Osserviamo che dalla Proposizione 4.3 segue che, se A ∈ O(n, R ),
l’endomorfismo FA : X ∈ R n → AX ∈ R n è un automorfismo ortogonale di R n
(infatti la matrice ad esso associata nel riferimento naturale, che è un riferimento
ortonormale, è proprio la matrice ortogonale A).
Indichiamo con Aut⊥(Vn) l’insieme degli automorfismi ortogonali dello spazio
vettoriale Vn. E’ immediato verificare che, rispetto alla composizione tra applicazioni,
Aut⊥(Vn) è un gruppo, sottogruppo di Aut(Vn) e che, se R è un riferimento
ortonormale di Vn, allora l’applicazione
φR : f ∈ Aut⊥(Vn) → MR(f) ∈ O(n, R )
è un isomorfismo tra il gruppo Aut⊥(Vn) e il gruppo ortogonale O(n, R ).
5. COMPLEMENTO ORTOGONALE
Sia (V, s) uno spazio vettoriale euclideo. Per ogni sottoinsieme non vuoto X di
V, poniamo X " = {v ∈ V : v ⊥ w , ∀ w ∈ X}. Il sottoinsieme X " è detto
complemento ortogonale di X.
!
!
193
Proviamo che
Proposizione 5.1. (i) Per ogni sottoinsieme non vuoto X di V, X " è un sottospazio;
(ii) se W è un sottospazio, W∩ W " = { 0};
"
"
(iii) se W è un sottospazio ed {e1, e2, ..., et } è una sua
! base, W ={ e1, e2, ..., et } .
Dimostrazione. (i) Cominciamo
con l’osservare che X " è non vuoto in quanto ad
!
esso appartiene almeno il vettore nullo. Siano u, !v ∈ X " . Poiché, per ogni w ∈ X,
!
s(u+v, w) = s(u, w) + s(v, w) = 0, allora u+v
è
ortogonale
a
w
e
dunque
appartiene
!
ad X " . Sia ora h ∈ R e v ∈ X " . Poiché, per!ogni w ∈ X, s(hv, w) = h s(v, w) = 0,
allora il vettore hv ∈ X " . Abbiamo così provato che X " è un sottospazio.
!
(ii) Sia v ∈ W∩ W "!. Poiché v ∈ W " , v è ortogonale ad ogni vettore di W e dunque
anche a se stesso.
Essendo s definito positivo,
!
! da s(v, v) = 0 segue che v = 0.
"
"
W "!⊆ { e1, e2, ..., et } . Sia ora v ∈ { e1, e2, ..., et } e w ∈ W.
(iii) Evidentemente,
!
Essendo {e1, e2, ..., et } una base di W, risulta w = h1e1 + h2e2 + ... + htet per opportuni
scalari h1, !
h2, ... , ht. Poiché s(v, w) = s(v, h1e1 + h2e2 + ... + htet) = h1 s(v, e1) +
!
!
h2 (v, e2) + ... + ht s(v, et) = 0, allora v è ortogonale a w. Si ha così che v ∈ W " e
"
quindi { e1, e2, ..., et } ⊆ W " . Dalla doppia inclusione segue l’asserto.
!
Proposizione 5.2.!Sia (Vn , s) uno spazio vettoriale euclideo di dimensione n e sia W
!
un suo sottospazio. Il sottospazio W e il suo complemento ortogonale sono
supplementari, cioè Vn = W ⊕ W " .
Dimostrazione. L’asserto è ovvio se W = {0} o W = Vn. Sia ora W non banale e sia t
la sua dimensione. Per
! la Proposizione 2.3, esiste in W una base ortogonale BW =
{e1, e2, ..., et }. Completiamo BW in una base ortogonale B = {e1, e2, ..., et , et+1, ..., en}
di Vn (cfr. Proposizione 5.6 del Cap. II e la dimostrazione della Proposizione 2.3).
Proviamo che {et+1, ..., en} è una base di W " . Cominciamo ad osservare che ciascuno
dei vettori et+1, ..., en è ortogonale a tutti i vettori e1, e2, ..., et e quindi, per la (iii) della
W " . Sia ora v ∈ W " . Essendo v in Vn, è v = h1e1 +
Proposizione 5.1, appartiene a !
... + htet + ht+1et+1+ ... + hnen per opportuni scalari h1, h2, ... , hn. Consideriamo il
prodotto scalare di v per e1. Si ha che 0 = s(v, e1) = s(h1e1 + ...+ htet + ht+1et+1+ ... +
!
!
hnen , e1) = h1 s(e1, e1) + ... + ht s(et, e1) + ht+1 s(et+1, e1) +. ... + hn s(en, e1) = (essendo B
ortogonale) h1 s(e1, e1). Ne segue h1 = 0, essendo s(e1, e1) ≠ 0. Analogamente si prova
194
che anche gli scalari h2, ..., ht sono uguali a 0 e quindi il vettore v risulta
combinazione lineare di et+1, ..., en . Il sistema {et+1, ..., en} è dunque un sistema di
generatori di W " ; poiché ovviamente è costituito da vettori indipendenti, esso è una
sua base. Essendo B una base di Vn, allora W + W " = Vn; dalla (ii) della Proposizione
5.1 segue l’asserto.
!
!
Osserviamo esplicitamente che dalla
Proposizione 5.2
segue che
dim W " = n – dim W.
ESEMPI
!
5.1. Nello spazio vettoriale euclideo costituito da R 3 con il prodotto scalare standard,
determiniamo il complemento ortogonale del sottospazio W = L ((2, -1, 0), (0, 0, 1)).
Si ha : W " = {(x, y, z) ∈ R 3 : (x, y, z ) • (2, -1, 0) = 0 = (x, y, z ) • (0, 0, 1)} =
{(x, y, z) ∈ R 3 : 2x – y = 0 = z} = {(x, 2x, 0), x ∈ R } = L((1, 2, 0)).
!
5.2. Nello spazio vettoriale euclideo (R 3, s), con s definito ponendo s((x, y, z),
(x', y', z')) = xx'+ 2yy'+ 4zz'+ 2yz'+ 2zy' (cfr. Esempio 2.4),
determiniamo il
complemento ortogonale del sottospazio W = L (1, 2, -1)).
Si ha : W " = {(x, y, z) ∈ R 3 : s((x, y, z ), (1, 2, -1)) = x + 4y – 4z – 2y + 4z =
0 } = {(-2y, y, z), y, z ∈ R } = L ((-2, 1, 0), (0, 0, 1)).
!
6.
ENDOMORFISMI
SIMMETRICI
E
LORO
DIAGONALIZZAZIONE
ORTOGONALE
Sia (Vn, s) uno spazio vettoriale euclideo di dimensione n > 0. Un
endomorfismo f di Vn si dice
ortogonalmente diagonalizzabile se esiste un
riferimento ortonormale R tale che la matrice associata ad f in R è diagonale, cioè se
esiste un riferimento ortonormale formato da autovettori di f (cfr. Capitolo VI). In
questo paragrafo caratterizzeremo tali endomorfismi. A tale scopo introduciamo gli
endomorfismi simmetrici. Un endomorfismo f di Vn si dice simmetrico se
(6.1)
∀ v, w ∈ V, s(v, f(w)) = s(f(v), w).
195
Proposizione 6.1. Sia f un endomorfismo di Vn .
(i) Se f è simmetrico ed R è un riferimento ortonormale di Vn, la matrice MR(f)
associata ad f in R è simmetrica;
(ii) se esiste un riferimento ortonormale R di Vn tale che la matrice MR(f) associata ad
f in R è simmetrica, f è simmetrico.
Dimostrazione. (i) Sia R = (e1, e2, ..., en). Poniamo MR(f) = A = (aij). Ricordiamo (cfr.
Cap. V, Par. 4) che, per ogni i, j = 1, ..., n, aij è la componente di posto i di f(ej) nel
riferimento R. Poiché R è ortonormale, dalla (i) della Proposizione 3.1 segue che aij =
s(f(ej), ei). Per la simmetria di f, è allora aij = s(f(ej), ei) = s(ej, f(ei)) = aji e quindi A è
simmetrica.
(ii) Sia R = (e1, e2, ..., en ). Poniamo MR(f) = A = (aij). Se v e w sono due vettori e X ed
Y sono rispettivamente i vettori colonna delle loro componenti in R, allora AX e AY
sono rispettivamente i vettori colonna delle componenti in R di f(v) ed f(w) ( cfr.
Cap.V, Proposizione 4.2). Per la (ii) della Proposizione 3.1, si ha s(v, f(w)) = Xt (AY)
= (Xt A)Y = (essendo A simmetrica) (XtAt)Y = (AX)t Y = s(f(v), w) e quindi f è
simmetrico.
Si prova che
Proposizione 6.2. Se f è un endomorfismo simmetrico di Vn, il suo polinomio
caratteristico ammette n radici reali.
Proposizione 6.3. Un endomorfismo f di Vn è ortogonalmente diagonalizzabile se, e
solo se, è simmetrico.
Dimostrazione. Sia f ortogonalmente diagonalizzabile e sia R un riferimento
ortonormale tale che la matrice associata ad f in R è una matrice diagonale. Poiché
una matrice diagonale è anche simmetrica, dalla (ii) della Proposizione 6.1 segue che
f è simmetrico.
Viceversa, sia f simmetrico. Per provare che esiste in Vn un riferimento ortonormale
formato da autovettori di f, ragioneremo per induzione sulla dimensione n di Vn.
Cominciamo a provare l’asserto per n = 1. Sia v ≠ 0 un vettore di V1. Poiché {v} è
una base di V1 ed f(v) ∈ V1, allora f(v) = hv per un opportuno h ∈ R ; ne segue che v
196
" v %
$ ' è un riferimento ortonormale di autovettori di
# | v |&
è un autovettore di f e dunque
V1.
Supponiamo ora vero l’asserto per la dimensione n–1 (n ≥ 2) e lo proviamo per la
!
dimensione n. Sia dunque f un endomorfismo simmetrico di Vn e sia h un suo
autovalore, che esiste per la Proposizione 6.2. Detto w un autovettore di autovalore h,
sia W = L(w). Proviamo ora che f ( W " ) ⊆ W " . Sia v ∈ W " . Poiché s(w, f(v)) =
(essendo f simmetrico) s(f(w), v) = s(hw, v) = hs(w, v) = 0, allora f(v) è ortogonale a
w e dunque appartiene a W!" , per la!(ii) della Proposizione
5.1. L’applicazione, che
!
qui indichiamo con fW " , che a v ∈ W " associa f(v) ∈ W " è ovviamente lineare e
dunque è un endomorfismo
di W " . Poiché evidentemente fW " è anche simmetrico,
!
!
!
W " che, per la Proposizione
possiamo applicare
l’ipotesi!di induzione al sottospazio
!
5.2 , ha dimensione n–1.
ortonormale (e1, e2, ..., en-1) di
! Esiste dunque un riferimento
!
W " formato da autovettori di fW " . Poiché ogni autovettore di fW " è ovviamente
!
w
anche autovettore di f, allora, per la Proposizione 5.2, (
, e1, e2, ..., en-1) è un
|w|
! di V formato da autovettori
! di f. L’asserto è così
riferimento ortonormale
n
completamente provato.
!
La proposizione precedente ci assicura che un endomorfismo simmetrico f di
Vn è ortogonalmente diagonalizzabile. Allo scopo di determinare un riferimento
ortonormale di autovettori di f, cominciamo a provare la seguente
Proposizione 6.4. Sia f un endomorfismo simmetrico di Vn. Se v e w sono autovettori
relativi a due autovalori distinti h e k, allora v e w sono ortogonali.
Dimostrazione. Poiché s(v, f(w)) = s(v, kw) = k s(v, w) ed s(f(v), w) = s(hv, w) = h
s(v, w), dalla simmetria di f segue che k s(v, w) = h s(v, w) , da cui (k – h) s(v, w) = 0.
Essendo h ≠ k, risulta allora s(v, w) = 0, cioè v e w sono ortogonali.
Diamo ora un
metodo per determinare una base ortonormale formata da autovettori di un
endomorfismo simmetrico f di Vn:
197
Indichiamo con h1, h2, ..., ht gli autovalori distinti di f e con V(h1), V(h2), ..., V(ht) i
relativi autospazi. Per la Proposizione 2.3, è possibile determinare in ciascun
autospazio V(hi) una base ortonormale Bi. Per il Teorema 2.11 del Cap. VI,
B1 ∪ B2 ∪ ... ∪ Bt è una base di Vn formata da autovettori; tale base è ortonormale
per la Proposizione 6.4.
ESEMPI
6.1. Sia f l’endomorfismo dello spazio vettoriale euclideo R
2
(con il prodotto
scalare standard) definito ponendo f(x, y) = (x+2y, 2x+4y).
(a) Verifichiamo che f è simmetrico;
(b) determiniamo una base ortonormale di R 2 formata da autovettori di f.
(a) Metodo 1. Siano (x, y), (x', y') ∈ R 2. Si ha : (x, y) • f(x', y') = (x, y) • (x'+2y',
2x'+ 4y') = x(x'+2y') + y(2x'+4y') = x' (x+2y) + y' (2x+4y) = f(x, y) • (x', y'), e
dunque f è simmetrico.
Metodo 2. Poiché il riferimento naturale di R
2
è ortonormale rispetto al prodotto
scalare standard, per la (ii) della Proposizione 6.1 basta verificare che la matrice A
"1 2 %
associata ad f in tale riferimento è simmetrica. Si ha A = $
' , che è ovviamente
#2 4 &
simmetrica.
(b) Il polinomio caratteristico di f è p(t) = t2 – 5t , le cui radici sono 0 e 5. Una base
!
ortonormale dell’autospazio V(0) è {(-2/ 5 , 1/ 5 )} e una base ortonormale
dell’autospazio
V(5) è
{(1/ 5 , 2/ 5 )}.
Ne segue che {(-2/ 5 , 1/ 5 ),
(1/ 5 , 2/ 5 )} è una base ortonormale
R 2 formata da autovettori di f.
! di !
!
!
!
!
6.2. Sia f l’endomorfismo dello spazio vettoriale euclideo R
!
scalare standard) definito ponendo f(x, y, z) = (3x+z, 2y, x+3z).
3
!
(con il prodotto
(a) Verifichiamo che f è simmetrico;
(b) determiniamo una base ortonormale di R 3 formata da autovettori di f.
" 3 0 1%
$
'
(a) La matrice associata ad f nel riferimento naturale è $0 2 0' ; essendo tale
$
'
#1 0 3 &
matrice simmetrica, f è simmetrico.
!
198
(b) Il polinomio caratteristico di f è p(t) = (2 – t) (t2 –6t + 8), le cui radici sono 2, con
molteplicità algebrica 2, e 4 con molteplicità algebrica 1. Una base ortonormale di
{(0, 1, 0), (1/ 2 , 0,
V(2) è
-1/ 2 )} e una base ortonormale di V(4) è
{(1/ 2 , 0, 1/ 2 )}. Ne segue che {(0, 1, 0), (1/ 2 , 0, -1/ 2 ), (1/ 2 , 0, 1/ 2 )} è
3
una base ortonormale
da autovettori di f.
! di R formata
!
!
!
!
!
!
!
7. DIAGONALIZZAZIONE ORTOGONALE DI UNA MATRICE SIMMETRICA
REALE
Una matrice quadrata A di ordine n sul campo reale R
è detta
ortogonalmente diagonalizzabile se esiste una matrice ortogonale P tale che PtAP
( = P-1AP) è una matrice diagonale. Una matrice A ortogonalmente diagonalizzabile è
dunque una matrice diagonalizzabile mediante una matrice ortogonale P (matrice che
diagonalizza A).
Così come nel Paragrafo 3 del Cap. VI, una matrice quadrata reale A di ordine
n sarà vista come matrice associata all’ endomorfismo FA : X ∈ R n → AX ∈ R n nel
riferimento naturale R di R n; inoltre si penserà R
n
dotato del prodotto scalare
standard.
Proposizione 7.1. Una matrice simmetrica reale è ortogonalmente diagonalizzabile.
Dimostrazione. Sia A una matrice simmetrica reale di ordine n. Poiché A è la matrice
associata all’endomorfismo FA nel riferimento naturale R e tale riferimento è
ortonormale, dalla (ii) della Proposizione 6.1 segue che FA è un endomorfismo
simmetrico. Per la Proposizione 6.3, esiste un riferimento ortonormale R' di R
n
formato da autovettori di FA. Diciamo D la matrice (diagonale) associata ad FA in R'.
Per la Proposizione 4.8 del Cap. V, D = P-1AP, dove P è la matrice di passaggio da R'
a R. Poiché, per la Proposizione 3.4, P è una matrice ortogonale, allora D = P-1AP =
PtAP e l’asserto è provato.
Si prova che il risultato espresso dalla Proposizione 7.1 si può invertire. Vale
pertanto la seguente
199
Proposizione 7.2. Una matrice quadrata sul campo reale è ortogonalmente
diagonalizzabile se, e solo se, essa è simmetrica.
ESEMPI
"5 3 %
7.1. Assegnata la matrice simmetrica reale A = $
' , determiniamo una matrice
# 3 5&
diagonale simile ad A e una matrice ortogonale che diagonalizzi A.
Il polinomio caratteristico di A è p(t) = t2 – 10t + 16, le cui radici sono 2 ed 8,
!
entrambe con molteplicità algebrica 1. Una base ortonormale di V(2) è
{(1/ 2 , –1/ 2 )} e una base ortonormale di V(8) è {(1/ 2 , 1/ 2 )}. Ne segue che
{(1/ 2 , –1/ 2 ), (1/ 2 , 1/ 2 )} è una base ortonormale di R 2 formata da autovettori
"
$
$
di !
A e quindi!la matrice
P
=
!
$$
#
!
!
!
1
2
1
2
1 %
!
!
'
2'
è una matrice ortogonale che diagonalizza
1 '
'
2 &
"2 0%
A. Una matrice diagonale simile ad A è dunque la matrice D = PtAP = $
'.
#0 8&
!
7.2. Assegnata la matrice simmetrica reale A =
"1 0 0%
!'
$
0
-1
2
$
' , determiniamo una
$
'
#0 2 -1 &
matrice diagonale simile ad A e una matrice ortogonale che diagonalizzi A.
Il polinomio caratteristico di A è p(t) = (1 – t) (t2 + 2t – 3), le cui radici sono 1, con
!
molteplicità algebrica 2, e –3 con molteplicità algebrica 1. Una base ortonormale di
V(1) è
{(1, 0, 0), (0, 1/ 2 , 1/ 2 )}, e una base ortonormale di V(–3) è
{(0, –1/ 2 , 1/ 2 )}. Ne segue che {(1, 0, 0), (0, 1/ 2 , 1/ 2 ), (0, –1/ 2 , 1/ 2 )}
è una base ortonormale
di!R
!
!
!
3
formata da autovettori di A e quindi la matrice
!
!
!
!
200
"
$1
$
P = $0
$
$
$0
#
!
0
1
2
1
2
%
0 '
'
1 '
è una matrice ortogonale che diagonalizza A. Una matrice
2'
'
1 '
2&
"1 0 0 %
$
'
diagonale simile ad A è dunque la matrice D = PtAP = $0 1 0' .
$
'
#0 0 - 3&
!
201
Scarica