Parte8

annuncio pubblicitario
Parte 8. Prodotto scalare, teorema spettrale
A. Savo − Appunti del Corso di Geometria 2013-14
Indice delle sezioni
1
2
3
4
5
6
7
Prodotto scalare in Rn , 1
Basi ortonormali, 4
Algoritmo di Gram-Schmidt, 7
Matrici ortogonali, 12
Complemento ortogonale di un sottospazio, 13
Endomorfismi simmetrici, 17
Teorema spettrale, 20
1
1.1
Prodotto scalare in Rn
Definizione


 
x1
y1
 .. 
 .. 
Dati i vettori u =  .  e v =  .  di Rn , definiamo prodotto scalare di u e v il numero
xn
yn
reale:
hu, vi = x1 y1 + · · · + xn yn .
Il risultato del prodotto scalare è dunque un numero.
 
 
2
1
Esempio Se u = 2 e v = −1 allora hu, vi = 3.
1
3
Notiamo che il prodotto scalare di due vettori può risultare nullo anche se nessuno dei due
fattori è il vettore nullo.
 
 
1
−1



Esempio Se u = 2 e v = −1 allora hu, vi = 0.
3
1
1
• I vettori u e v si dicono ortogonali se il loro prodotto scalare è nullo: hu, vi = 0.
Notazione:
u ⊥ v.
Dunque i vettori dell’esempio precedente sono ortogonali. È evidente che, se O è il vettore
nullo, si ha hv, Oi = 0 per ogni v ∈ Rn : dunque il vettore nullo è ortogonale a tutti i
vettori.
La denominazione di vettori ortogonali legata alla condizione hu, vi = 0 (che è puramente
algebrica) sarà giustificata quando studieremo la geometria analitica, e introdurremo i
vettori geometrici del piano e dello spazio. Infatti, l’introduzione del prodotto scalare permette di definire, in modo puramente algebrico, la norma di un vettore (che va intepretata
come la distanza del vettore stesso dal vettore nullo) e l’angolo fra due vettori non nulli.
Per il momento, ci proponiamo di studiare le proprietà algebriche dell’operazione di
prodotto scalare.
Proposizione Siano u, v, w vettori arbitrari di Rn e sia k ∈ R un qualunque scalare.
Allora si hanno le seguenti proprietà.
1) hu, vi = hv, ui.
2) hu + v, wi = hu, wi + hv, wi.
3) hku, vi = khu, vi.
4) hu, ui ≥ 0.
5) hu, ui = 0 se e solo se u = O.
La 1) dice che il prodotto scalare è commutativo. Le proprietà 2), 3) esprimono la
cosiddetta proprietà di bilinearità. Le proprietà 4) e 5) esprimono il fatto che il prodotto
scalare è definito positivo.
Dimostrazione.
 La
 dimostrazione di 1),2),3) si riduce a una semplice verifica. Osserviamo
x1
 .. 
che, se u =  .  allora
xn
hu, ui = x21 + · · · + x2n ,
che è un numero sempre positivo o nullo: questo dimostra la 4). Se hu, ui = 0 evidentemente x1 = · · · = xn = 0, e quindi u = O. Dalle proprietà di bilinearità osserviamo che il prodotto scalare si comporta in modo
naturale rispetto alle combinazioni lineari. Per ogni scelta dei vettori v1 , . . . , vk , u, w ∈ Rn
e degli scalari a1 , . . . , ak ∈ R si ha:
ha1 v1 + · · · + ak vk , wi = a1 hv1 , wi + · · · + ak hvk , wi.
2
Di conseguenza, poiché il prodotto scalare è commutativo, si ha anche
hu, a1 v1 + · · · + ak vk i = a1 hu, v1 i + · · · + ak hu, vk i
1.2
Norma e disuguaglianza di Schwarz
Per definizione, la norma di un vettore u ∈ Rn è il numero positivo o nullo
p
kuk = hu, ui.
p
Esplicitamente kuk = x21 + · · · + x2n ovvero
kuk2 = x21 + · · · + x2n .
In particolare, kuk ≥ 0 e si ha l’uguaglianza solo quando u = O: la norma di un vettore
non nullo è sempre positiva.
 
1
√
√

3  allora kuk = 1 + 9 + 4 = 14.
Esempio Se u =
−2
Teorema (Disuguaglianza di Schwarz). Dati u, v ∈ Rn si ha sempre:
|hu, vi| ≤ kukkvk.
Inoltre, vale l’uguaglianza se e solo se u e v sono linearmente dipendenti.
Dimostrazione. Omessa. Esempio Dati n numeri reali a1 , . . . , an si ha sempre:
(a1 + · · · + an )2 ≤ n(a21 + · · · + a2n ).


 
a1
1
 .. 
 .. 
Infatti, basta applicare la disuguaglianza di Schwarz ai vettori u =  .  e v =  . .
an
1
Notiamo che si ha l’uguaglianza solo quando a1 , . . . , an sono tutti uguali tra loro.
3
1.3
Angolo tra due vettori
Supponiamo che u e v siano due vettori non nulli. Per la disuguaglianza di Schwarz, si ha
|hu, vi|
≤ 1,
kukkvk
dunque esiste un unico valore di θ ∈ [0, π] tale che
cos θ =
hu, vi
.
kukkvk
Per definizione, θ è detto l’angolo tra u e v.
 
 
1
1
2
0

 
Esempio Dati u = 
1 , v = 2 si ha:
0
1
kuk =
Dunque cos θ =
2
2.1
1
2
√
6,
kvk =
√
6,
hu, vi = 3.
cioè θ = π3 .
Basi ortonormali
Ortogonalità e indipendenza lineare
Proposizione Siano v1 , . . . , vk vettori non nulli di Rn , a due a due ortogonali. Allora
v1 , . . . , vk sono linearmente indipendenti. In particolare, k ≤ n.
Dimostrazione. Supponiamo che
a1 v1 + · · · + ak vk = O.
(1)
Prendendo il prodotto scalare dei due membri della (1) per v1 otteniamo
0 = ha1 v1 + a2 v2 + · · · + ak vk , v1 i
= a1 hv1 , v1 i + a2 hv2 , v1 i + · · · + ak hvk , v1 i
= a1 kv1 k2
perché per ipotesi hvj , v1 i = 0 per ogni j = 2, . . . , k. Per ipotesi, v1 è non nullo, dunque
kv1 k2 > 0 e ne segue che a1 = 0. Prendendo successivamente il prodotto scalare dei due
4
membri della (1), ordinatamente per v2 , . . . , vk , si dimostra in modo analogo che aj = 0
per ogni j. • n vettori non nulli, a due a due ortogonali formano una base di Rn (che sarà chiamata
base ortogonale).
1
2
Esempio I vettori v1 =
, v2 =
formano una base ortogonale di R2 perchè
−2
1
hv1 , v2 i = 0.
 
 
 
1
1
1
I vettori w1 = 1 , w2 = −1 , w3 =  1  sono non nulli e a due a due ortogonali:
1
0
−2
hw1 , w2 i = hw1 , w3 i = hw2 , w3 i = 0.
Dunque (w1 , w2 , w3 ) è una base ortogonale di R3 .
Esempio La matrice

1 1
1 −1
1 1 −1 1 

A=
1 −1 1
1
1 −1 −1 −1

ha rango 4. Infatti i suoi vettori colonna sono a due a due ortogonali, e quindi sono
linearmente indipendenti.
• Il numero massimo di vettori di Rn , non nulli e ortogonali a due a due, è n.
In modo analogo, possiamo definire la nozione di base ortogonale di un qualunque sottospazio E di Rn : se dim E = k allora i vettori v1 , . . . , vk formano una base ortogonale di
E se sono non nulli e hvi , vj i = 0 per ogni i 6= j.
Esempio
Il sottospazio
E : x + y + z = 0 di R3 ha dimensione 2. I due vettori v1 =
 
 
1
1
−1 , v2 =  1  appartengono a E e sono ortogonali tra loro, dunque formano una
0
−2
base ortogonale di E.
2.2
Basi ortonormali
Diremo che una base (v1 , . . . , vk ) di un sottospazio E di Rn è una base ortonormale di E
se:
(
0 se i 6= j,
hvi , vj i =
1 se i = j.
5
Dunque una base ortonormale è formata da vettori a due a due ortogonali, tutti di norma
unitaria. Una base ortonormale è, in particolare, anche ortogonale.
Esempio La base canonica di Rn è una base ortonormale.
Fare i conti con le basi ortonormali è più semplice. Ad esempio, trovare le coordinate di
un vettore rispetto a una base implica, normalmente, la risoluzione di un certo numero di
sistemi lineari. Se la base è ortonormale, è sufficiente calcolare un certo numero di prodotti
scalari.
Proposizione Sia B = (v1 , . . . , vk ) una base ortonormale di un sottospazio E di Rn .
Allora le coordinate del vettore v ∈ E rispetto a B sono date da


hv, v1 i
 .. 
 . ,
hv, vk i
e sono dette coefficienti di Fourier di v.
Dimostrazione. Se v ∈ E possiamo scrivere
v = a1 v1 + · · · + ak vk
e per definizione le coordinate di v sono a1 , . . . , ak . Ora, prendendo il prodotto scalare dei
due membri successivamente per v1 , . . . , vk , otteniamo facilmente
aj = hv, vj i
per ogni j = 1, . . . , k. Esempio I vettori:
 
 
 
 
1
1
1
−1

1
−1
1
1
1
1
1
1
 , v2 =   , v3 =   , v4 =   ,
v1 = 
2 1
2 −1
2 1 
2 1 
1
−1
−1
−1
sono a due a due ortogonali e hanno tutti norma 1. Dunque tali vettori
  formano una
1

2

base ortonormale B di R4 . Calcoliamo le coordinate del vettore v = 
3 rispetto a B. I
4
coefficienti di Fourier sono
hv, v1 i = 5, hv, v2 i = −2, hv, v3 i = −1, hv, v4 i = 0.
6
Dunque v ha coordinate

5
−2
 ,
−1
0

rispetto a B. In altre parole v = 5v1 − 2v2 − v3 . 3
Algoritmo di Gram-Schmidt
Lo scopo di questa sezione è quello di dimostrare che ogni sottospazio di Rn ammette
almeno una base ortonormale.
3.1
Vettore normalizzato
Proposizione 1) Dato un vettore v e uno scalare a ∈ R si ha: kavk = |a|kvk.
2) Se v 6= O il vettore
u=
1
v
kvk
ha norma 1.
Dimostrazione. Si ha, dalle proprietà del prodotto scalare:
kavk2 = hav, avi = a2 hv, vi = a2 kvk2 ,
e la 1) segue prendendo la radice quadrata ad ambo i membri. La 2) segue immediatamente
1
dalla 1) prendendo a =
. kvk
1
v si dice normalizzato di v. Normalizzare un vettore significa semplicekvk
mente dividere il vettore per la propria norma.
 
1
√

Esempio Il vettore v = 2 ha norma 14. Il suo normalizzato è dunque
3
Il vettore u =
 
1
1
1
u=
v = √ 2
kvk
14 3
7
e ha norma 1.
Corollario Se (v1 , . . . , vk ) è una base ortogonale del sottospazio E, allora i vettori normalizzati
1
1
u1 =
v1 , . . . , uk =
vk
kv1 k
kvk k
formano una base ortonormale di E.
Dimostrazione. I vettori u1 , . . . , uk hanno tutti norma 1, ed evidentemente appartengono
a E. Essi sono a due a due ortogonali, poiché
hui , uj i =
1
1
hvi , vj i = 0
kvi k kvj k
per ogni i 6= j. Esempio Il sottospazio di R3 definito dall’equazione E : x + y + z = 0 ha dimensione 2 e
ha una base ortogonale formata dai vettori
 
 
1
1



1 .
v1 = −1 , v2 =
0
−2
Per ottenere una base ortonormale di E è sufficiente normalizzare i vettori v1 , v2 . Si ottiene
la base ortonormale
 
 
1
1
1  
1  
−1 , u2 = √
1 .
u1 = √
2
6 −2
0
3.2
Procedimento di ortonormalizzazione
L’algoritmo di Gram-Schmidt è un procedimento che, applicato ad una base di un sottospazio di Rn , permette di ottenere una base ortogonale del sottospazio stesso; normalizzando i vettori di tale base, otterremo una base ortonormale. Descriviamo l’algoritmo
in dettaglio.
Sia E un sottospazio di Rn e sia (v1 , . . . , vk ) una sua base. Dunque dim E = k.
Notiamo che se k = 1 la base è formata dal solo vettore v1 . È sufficiente dunque normalizzare v1 per ottenere la base ortonormale cercata.
1) Supponiamo che la dimensione di E sia 2, e sia (v1 , v2 ) una base di E. Introduciamo
nuovi vettori (w1 , w2 ) nel modo seguente:
(
w1 = v 1
w2 = v2 − aw1
8
con a ∈ R da determinare in modo opportuno. Notiamo che i vettori w1 , w2 appartengono
a E; inoltre w2 non è nullo (altrimenti v1 e v2 sarebbero linearmente dipendenti ). Ora
scegliamo il coefficiente a in modo tale che w2 risulti ortogonale a w1 . È facile vedere che
cio’ accade se solo se:
hv2 , w1 i
a=
.
hw1 , w1 i
Dunque, con tale scelta, otteniamo la base ortogonale (w1 , w2 ) di E.
2) Supponiamo ora che dim E = 3, con base (v1 , v2 , v3 ) e poniamo:


 w1 = v 1
w2 = v2 − aw1


w3 = v3 − bw1 − cw2
dove a =
hv2 , w1 i
è stato già determinato, cosicché hw1 , w2 i = 0. Imponendo le condizioni
hw1 , w1 i
hw3 , w1 i = hw3 , w2 i = 0,
otteniamo:
b=
hv3 , w1 i
,
hw1 , w1 i
c=
hv3 , w2 i
.
hw2 , w2 i
Con tali scelte di a, b, c otteniamo quindi la base ortogonale (w1 , w2 , w3 ) di E e quindi,
normalizzando, una base ortonormale (notiamo che w3 non è nullo, altrimenti v1 , v2 , v3
sarebbero linearmente dipendenti ).
Procedendo per induzione, possiamo enunciare il seguente teorema.
Teorema (Algoritmo di Gram-Schmidt) Sia (v1 , . . . , vk ) una base del sottospazio E di
Rn . Si introducano i vettori:

w1 = v1






 w2 = v2 − a21 w1
w3 = v3 − a31 w1 − a32 w2







...
wk = vk − ak1 w1 − ak2 w2 − · · · − ak,k−1 wk−1
dove si è posto:
aij =
hvi , wj i
.
hwj , wj i
9
Allora (w1 , . . . , wk ) è una base ortogonale di E, e quindi i vettori normalizzati:
u1 =
1
1
w1 , . . . , u k =
wk ,
kw1 k
kwk k
formano una base ortonormale di E.
Esempio Trovare una base ortonormale del sottospazio E di R3 di equazione:
E : x − y − 2z = 0.
Soluzione. Determiniamo una base di E, e poi applichiamo l’algoritmo di Gram-Schmidt
per ottenere una base ortonormale. Base di E:
 
 
1
2



v1 = 1 , v2 = 0 .
0
1
L’algoritmo consiste di due passi:
(
w1 = v 1
w2 = v2 − a21 w1
.
 
1
Si ha w1 = 1, dunque:
0
a21 =
Allora:
hv2 , w1 i
2
= = 1.
hw1 , w1 i
2

 
1






1
w
=
1



0
     .

2
1
1










0
1
−1
w
=
−
=

 2

1
0
1
Si verifica che in effetti hw1 , w2 i = 0. Una base ortonormale di E è dunque:
 
 
1
1
1  
1  
1 , u2 = √
−1 .
u1 = √
2 0
3
1
10
• Ovviamente la base ortonormale ottenuta dipende dalla base di partenza. Per esercizio, vedere quale base ortonormale si ottiene scambiando i vettori della base di partenza.
Esempio Trovare una base ortonormale del sottospazio di R4 generato dai vettori:
 
 
 
1
2
1
1
0
3

 
 
v1 = 
0 , v2 = 1 , v3 = −1 .
0
0
2
Soluzione. I tre vettori formano una base di E. Applichiamo l’algoritmo di Gram-Schmidt
alla terna v1 , v2 , v3 :


 w1 = v1
w2 = v2 − a21 w1


w3 = v3 − a31 w2 − a32 w2
 
1
1

Abbiamo w1 = 
0, e quindi a21 = 1. Dunque
0
     
2
1
1
0 1 −1
    
w2 = 
1 − 0 =  1  .
0
0
0
Ora:

hv3 , w1 i
4


 a31 = hw , w i = 2 = 2
1
1

hv , w i
−3

 a32 = 3 2 =
= −1
hw2 , w2 i
3
dunque:


     
1
1
1
0
3
1 −1 0

     
w3 = 
−1 − 2 0 +  1  = 0 .
2
0
0
2
Otteniamo la base ortogonale:
 
 
 
1
1
0
1
−1
0

 
 
w1 = 
0 , w2 =  1  , w3 = 0 ,
0
0
2
11
e, normalizzando, la base ortonormale:
 
 
 
1
1
0





1
1
1
−1
0
.
u1 = √ 
, u2 = √ 
, u3 = 





1
0
2 0
3
0
0
1
4
Matrici ortogonali
Abbiamo visto che la matrice M di passaggio fra due basi B, B 0 di uno spazio vettoriale è
invertibile. Se le basi B, B 0 sono ortonormali, la matrice di passaggio avrà delle proprietà
particolari.
Definizione Una matrice quadrata M si dice ortogonale se verifica M M t = I. Quindi
una matrice ortogonale M è invertibile e
M −1 = M t ,
cioè l’inversa coincide con la trasposta.
 1
−2 
√
√
1 1 −2

5
=  25
Esempio La matrice M = √
 è ortogonale.
1
5 2 1
√
√
5
5
√
√ 
 √
1/ √2 1/√3 1/√6
Esempio La matrice M = −1/ 2 1/√3 1/ √6  è ortogonale.
0
1/ 3 −2/ 6
In entrambi i casi si verifica infatti che M M t = I.
Osserviamo che, se M M t = I allora, prendendo il determinante di ambo i membri e
applicando il teorema di Binet, si ha (det M )2 = 1. Dunque
• se M è una matrice ortogonale allora det M = 1 oppure det M = −1.
Il teorema seguente fornisce le proprietà importanti di una matrice ortogonale.
Teorema a) La matrice di passaggio fra due basi ortonormali di Rn (o di un suo sottospazio) è ortogonale.
b) Una matrice A ∈ Mat(n × n) è ortogonale se e solo se le colonne di A formano una
base ortonormale di Rn .
Dimostrazione. La dimostrazione si riduce a una verifica, che omettiamo. 12
Osserviamo che le colonne delle matrici ortogonali dei due esempi precedenti formano,
effettivamente, una base ortonormale di R2 (primo esempio), e di R3 (secondo esempio).
Dalla parte b) del teorema abbiamo anche
• Incolonnando i vettori di una base ortonormale di Rn otteniamo una matrice ortogonale n × n.
Infine, si può dimostrare che le matrici ortogonali di R2 sono di due tipi:
cos θ − sin θ
sin θ cos θ
con θ ∈ R, oppure
cos α sin α
,
sin α − cos α
con α ∈ R. Le matrici del primo tipo hanno determinante 1, mentre quelle del secondo
tipo hanno determinante −1.
5
Complemento ortogonale di un sottospazio
Sia u1 un vettore fissato di Rn e si consideri il sottoinsieme
E = {v ∈ Rn : hv, u1 i = 0},
formato da tutti i vettori ortogonali a u1 . Per le proprietà di bilinearità del prodotto
scalare, E risulta allora un sottospazio di Rn . Più in generale, fissati k vettori di Rn ,
diciamo u1 , . . . , uk , l’insieme:
E = {v ∈ Rn : hv, u1 i = · · · = hv, uk i = 0},
formato dai vettori di Rn ortogonali a u1 , . . . , uk è un sottospazio di Rn .
 
1
Esempio Sia u1 =  1 . Trovare una base di E = {v ∈ R3 : hv, u1 i = 0}.
−1
 
x

Soluzione. Sia v = y  il vettore generico di R3 . Imponendo l’ortogonalità al vettore u1
z
otteniamo l’unica condizione
x + y − z = 0.
13
Dunque
il 
sottospazio delle soluzioni dell’equazione, e una sua base è, ad esempio,
 Eè 
1
0
−1 , 1. E ha dimensione 2. 0
1


 
1
0
Esempio Dati i vettori u1 =  1  , u2 =  1  si consideri il sottospazio
−1
−2
F = {v ∈ R3 : hv, u1 i = hv, u2 i = 0}.
a) Trovare una base di F e calcolare la sua dimensione.
b) Trovare un vettore di F avente norma 1.
 
x

Soluzione. a) Imponendo al vettore generico v = y  l’ortogonalità a u1 e u2 vediamo
z
che F è descritto dalle equazioni
(
x+y−z =0
F :
.
y − 2z = 0
1 1 −1
. Notiamo che
La matrice dei coefficienti del sistema che definisce F è A =
0 1 −2
le righe di A sono proprio i vettori u1 , u2 (piú precisamente, ut1 , ut2 ): siccome u1 , u2 sono
linearmente indipendenti il rango vale 2 e l’insieme delle soluzioni F ha dimensione:
dim F = 3 − rkA = 1.
 
−1
Una base si ottiene risolvendo il sistema. Si ottiene ad esempio la base  2 .
1
b) Un vettore diE di
 norma 1 si ottiene normalizzando il vettore
 della
 base trovata,
−1
1
1
1
dunque w = √  2 . Un altro vettore possibile è −w = √ −2. Verificare che
6
6 −1
1
non ce ne sono altri. Generalizzando, otteniamo il seguente risultato.
Proposizione Se i vettori u1 , . . . , uk ∈ Rn sono linearmente indipendenti, allora
E = {v ∈ Rn : hv, u1 i = · · · = hv, uk i = 0},
14
è un sottospazio di Rn di dimensione n − k.
Dimostrazione. Abbiamo già osservato che E è un sottospazio. Sia v = (x1 , . . . , xn )t il
vettore generico di Rn . Imponendo l’ortogonalità di v a ciascuno dei vettori u1 , . . . , uk
otteniamo un sistema lineare omogeneo di k equazioni nelle n incognite x1 , . . . , xn . Dunque
E ha dimensione n − rkA, dove A è la matrice dei coefficienti. Ora, si verifica che le righe
di A sono i vettori trasposti di u1 , . . . , uk . Poiché per ipotesi u1 , . . . , uk sono linearmente
indipendenti il rango di A vale k e dunque
dim E = n − k.
5.1
Complemento ortogonale di un sottospazio
Sia E un sottospazio di Rn . Definiamo complemento ortogonale di E l’insieme E ⊥ costituito dai vettori di Rn ortogonali a tutti i vettori di E:
E ⊥ = {v ∈ Rn : hv, wi = 0
per ogni w ∈ E}.
Dalle proprietà del prodotto scalare risulta che E ⊥ è chiuso rispetto alla somma e al
prodotto per uno scalare, dunque è un sottospazio di Rn .
Risulta che v ∈ E ⊥ se e solo se v è ortogonale a tutti i vettori di una base di E. Infatti:
Proposizione Sia (v1 , . . . , vk ) una base di E. Allora v ∈ E ⊥ se e solo se hv, vi i = 0 per
ogni i = 1, . . . , k.
Dimostrazione. Supponiamo che hv, vi i = 0 per ogni i = 1, . . . , k. Se w è un qualunque
vettore di E, allora w è combinazione lineare dei vettori della base: w = a1 v1 + · · · + ak vk .
Quindi
hv, wi = a1 hv, v1 i + · · · + ah hv, vk i = 0,
che dimostra che v è ortogonale a w. Siccome w ∈ E è arbitrario, v ∈ E ⊥ . Il viceversa è
immediato. ⊥
Esempio Determinare una
ortogonale del sottospazio E di R4
 base
 di E, complemento

1
1
1
0

 
generato dai vettori v1 = 
1 , v2 = 1.
1
0
15
Soluzione. Imponiamo al vettore generico v = (x, y, z, w)t ∈ R4 l’ortogonalità ai vettori
della base (v1 , v2 ) di E, ottenendo il sistema omogeneo:
(
x+y+z+w =0
.
x+z =0
  
0
1




0
 ,  1 . Risolvendo il sistema, otteniamo la base di E ⊥ : 
−1  0 
−1
0

Le proprietà importanti del complemento ortogonale sono espresse nel seguente teorema.
Teorema Sia E un sottospazio di Rn e E ⊥ il suo complemento ortogonale. Allora
a) E ∩ E ⊥ = {O}.
b) dim E ⊥ = n − dim E.
c) Rn = E ⊕ E ⊥ .
Dimostrazione. a) Se v ∈ E ∩E ⊥ allora v è ortogonale a tutti i vettori di E; in particolare
v è ortogonale a sé stesso, e dunque hv, vi = 0. Ma l’unico vettore con tale proprietà è il
vettore nullo.
b) Sia dim E = k e sia (u1 , . . . , uk ) una base di E. Sappiamo che v ∈ E ⊥ se e solo se v è
ortogonale ai vettori di una base di E: dunque
E ⊥ = {v ∈ Rn : hv, u1 i = · · · = hv, uk i = 0}.
Siccome u1 , . . . , uk sono linearmente indipendenti, dalla proposizione del paragrafo precedente otteniamo che dim E ⊥ = n − k = n − dim E.
c) Applichiamo la formula di Grassmann ai sottospazi E, E ⊥ :
dim(E + E ⊥ ) + dim(E ∩ E ⊥ ) = dim E + dim E ⊥ .
Da a) e b) concludiamo che dim(E+E ⊥ ) = n. Dunque E+E ⊥ = Rn . Poiché E∩E ⊥ = {O}
la somma è diretta: Rn = E ⊕ E ⊥ . 5.2
Proiezione ortogonale su un sottospazio
Dal teorema precedente abbiamo che un vettore v ∈ Rn si spezza, in modo unico, come
somma di un vettore w ∈ E e di un vettore w⊥ ∈ E ⊥ :
v = w + w⊥ .
16
In particolare, w e w⊥ sono ortogonali.
• Il vettore w è detto la proiezione ortogonale di v sul sottospazio E. Denoteremo w
con il simbolo PE (v).
3
Esempio
  È dato il sottospazio di R descritto dall’equazione x + y − 2z = 0. Il vettore
1
v = 2 ∈ R3 si spezza
0
  
  
1
1/2
1/2
2 = 3/2 + 1/2 ,
0
1
−1
 
1/2
⊥

dove il primo vettore appartiene a E e il secondo a E . Quindi PE (v) = 3/2.
1
In generale, se (u1 . . . , uk ) è una base ortonormale di E allora la proiezione ortogonale si
calcola con la formula
PE (v) = hv, u1 iu1 + · · · + hv, uk iuk .
6
Endomorfismi simmetrici
In questa sezione studieremo una classe importante di endomorfismi di Rn : gli endomorfismi detti simmetrici. Tali endomorfismi sono caratterizzati dalla proprietà di ammettere
una base ortonormale di autovettori, e sono legati in modo naturale alle matrici simmetriche. In particolare, risulterà che ogni matrice simmetrica è diagonalizzabile.
Definizione Un endomorfismo di Rn si dice simmetrico se la sua matrice associata
rispetto alla base canonica è simmetrica.
x
−3x + 3y
2
2
=
. La matrice canonica di f
Esempio Sia f : R → R definito da f
y
3x + 5y
è:
−3 3
.
A=
3 5
Siccome A è simmetrica, f è simmetrico.
x
x + 2y
1 2
Esempio L’endomorfismo f
=
ha matrice canonica
dunque non
y
3y
0 3
è simmetrico.
17
Teorema Le seguenti condizioni sono equivalenti.
a) f è un endomorfismo simmetrico di Rn .
b) La matrice associata a f rispetto ad una qualunque base ortonormale di Rn è simmetrica.
c) Per ogni coppia di vettori u, v ∈ Rn si ha
hf (u), vi = hu, f (v)i.
Dimostrazione. a) =⇒ b) Supponiamo che f sia simmetrico, e sia A la sua matrice
canonica. Per definizione, A è simmetrica. Se B è una base ortonormale di Rn , e A0 è la
matrice associata a f rispetto a tale base, allora sappiamo che
A0 = M −1 AM,
dove M è la matrice di passaggio dalla base canonica BC alla base B. Poichè tali basi sono
entrambe ortonormali, si ha che M è ortogonale, quindi M −1 = M t . Dunque A0 = M t AM ,
ed è sufficiente dimostrare che M t AM è simmetrica. Ma questo è immediato:
(M t AM )t = M t A(M t )t = M t AM.
b) =⇒ c) Si ha la seguente identità, valida per ogni matrice A e per ogni scelta di u, v,
vettori colonna di Rn :
hAu, vi = hu, At vi.
L’identità si verifica con un calcolo diretto, e fornisce un legame tra il prodotto scalare e
la trasposta di una matrice. Supponiamo che la matrice A, associata ad f rispetto alla
base canonica, sia simmetrica. Ora sappiamo che f si scrive
f (v) = Av.
Poichè A è simmetrica, si ha A = At e dall’identità precedente:
hf (u), vi = hAu, vi = hu, Avi = hu, f (v)i.
c) =⇒ a) Premettiamo che, se A è una matrice n × n e e1 , . . . , en sono i vettori della
base canonica di Rn , un calcolo mostra che
hAei , ej i = aji ,
dove aji è l’elemento di posto (j, i) della matrice A.
18
Per ipotesi, si ha la proprietà c). Dunque, se A è la matrice canonica di f , l’identità
hAu, vi = hu, Avi
risulta vera per ogni scelta dei vettori colonna u, v. Prendendo u = ei e v = ej otteniamo
aji = aij
per ogni i, j, dunque la matrice canonica di f è simmetrica e f risulta simmetrico. Isoliamo la seguente proprietà degli autospazi di un endomorfismo simmetrico.
Proposizione Gli autospazi di un endomorfismo simmetrico sono ortogonali fra loro. In
altre parole, se λ1 e λ2 sono autovalori distinti di f , e se u ∈ E(λ1 ) e v ∈ E(λ2 ) allora:
hu, vi = 0.
Dimostrazione. Per ipotesi f (u) = λ1 u; dunque
hf (u), vi = λ1 hu, vi.
D’altra parte, per la c) del teorema, poiché f (v) = λ2 v:
hf (u), vi = hu, f (v)i = λ2 hu, vi.
Uguagliando otteniamo λ1 hu, vi = λ2 hu, vi cioè
(λ1 − λ2 )hu, vi = 0,
e poiché λ1 − λ2 6= 0 si ha necessariamente hu, vi = 0. x
−3x + 3y
=
. Verifichiamo che gli auy
3x + 5y
−3 3
tospazi di f sono ortogonali. Matrice canonica A =
con polinomio caratteristico
3 5
x2 − 2x − 24. e abbiamo due autovalori distinti: λ1 = −4 e λ2 = 6 e due autospazi
E(−4),
E(6),
entrambi di dimensione 1. Si trova che E(−4)
ha equazione x + 3y = 0 con
3
1
base
, e E(6) ha equazione 3x − y = 0 con base
.
−1
3
3
1
Effettivamente, gli autospazi sono ortogonali tra loro, la coppia
,
è una base
−1
3
ortogonale di autovettori, e la coppia
1
1
3
1
√
,√
−1
10
10 3
Esempio Sia f : R2 → R2 definito da f
19
è una base ortonormale di R2 formata da autovettori di f . x
x + 2y
1 2
Esempio L’endomorfismo f
=
ha matrice canonica
dunque non
y
3y
0 3
è simmetrico. Si osserva che f ha autovalori λ1 = 1, λ2 = 3 e autospazi:
E(1) : y = 0,
E(3) : x − y = 0.
Si vede subito che gli autospazi
non sono ortogonali. Risulta che f è diagonalizzabile,
1
1
con base di autovettori
,
ma non è possibile trovare una base ortonormale di
0
1
autovettori (se ortonormalizziamo la base, non otteniamo piú autovettori).
Esempio Sia E un sottospazio di Rn . L’endomorfismo PE che associa al vettore v ∈ Rn
la sua proiezione ortogonale sul sottospazio E è simmetrico.
Infatti, se fissiamo una base ortonormale (u1 . . . , uk ) di E allora la proiezione ortogonale
è data da
PE (v) = hv, u1 iu1 + · · · + hv, uk iuk .
Se w è un secondo vettore di Rn si ha
hPE (v), wi = hv, u1 ihu1 , wi + · · · + hv, uk ihuk , wi.
Poiché il secondo membro rimane uguale scambiando v con w, si ha hPE (v), wi = hPE (w), vi =
hv, PE (w)i e PE è simmetrico.
7
Teorema spettrale
Veniamo al seguente importante teorema, di cui omettiamo la dimostrazione.
Teorema spettrale. Sia f un endomorfismo simmetrico di Rn . Allora f è diagonalizzabile; inoltre esiste una base ortonormale di Rn costituita da autovettori di f .
Anche il viceversa è vero, ed è facile da dimostrare:
Teorema Sia f un endomorfismo di Rn , e supponiamo che esista una base ortonormale
di Rn formata da autovettori di f . Allora f è simmetrico.
Dimostrazione. La matrice associata alla base di autovettori (che è ortonormale per ipotesi)
è diagonale, dunque simmetrica, e quindi f è simmetrico per il teorema della sezione precedente. 20
Dunque, la classe degli endomorfismi di Rn che ammettono una base ortonormale di
autovettori coincide con la classe degli endomorfismi simmetrici.
Notiamo anche il fatto seguente.
Corollario Ogni matrice simmetrica è diagonalizzabile, ed è ortogonalmente simile ad
una matrice diagonale. Cioè, possiamo trovare una matrice diagonale D e una matrice
ortogonale M tali che:
D = M −1 AM = M t AM.
Dimostrazione. Sia f l’endomorfismo di Rn rappresentato da A rispetto alla base canonica.
Poiche’ A è simmetrica, anche f è simmetrico. Per il teorema spettrale, possiamo trovare
una base ortonormale B formata da autovettori di f . In questa base, f si rappresenta con
una matrice diagonale D; inoltre si ha
D = M −1 AM,
dove M è la matrice di passaggio dalla base canonica alla base B. Poiche’ tali basi sono
entrambe ortonormali, la matrice M è ortogonale, quindi M −1 = M t . Diamo ora il procedimento per determinare una base ortonormale di autovettori di un
endomorfismo simmetrico.
1. Calcoliamo il polinomio caratteristico e quindi troviamo gli autovalori di f , diciamo
λ1 , . . . , λ k .
2. Con l’algoritmo di Gram-Schmidt, troviamo una base ortonormale di ciascun autospazio, diciamo B1 , . . . , Bk .
3. Uniamo le basi ortonormali cosi’ trovate per ottenere la base B = B1 ∪ · · · ∪ Bk di Rn .
L’insieme di vettori cosi’ ottenuto formera’ una base ortonormale di autovettori.
Infatti, ogni vettore di B ha chiaramente norma 1. Inoltre, se prendiamo due vettori
appartenenti alla stessa base Bi questi sono ortogonali per costruzione; se prendiamo due
vettori appartenenti a basi diverse, questi appartengono ad autospazi diversi e quindi sono
ortogonali grazie alla proposizione della sezione precedente. I vettori di B sono a due a
due ortogonali e di norma 1, dunque B è una base ortonormale.
Infine, per diagonalizzare una matrice simmetrica A, procediamo cosi’:
1. Troviamo una base ortonormale B formata da autovettori dell’endomorfismo di Rn
rappresentato da A rispetto alla base canonica.
2. Incolonniamo la base B per ottenere una matrice ortogonale M .
3. Scriviamo la matrice diagonale D, i cui elementi diagonali sono gli autovalori di f ,
presi nello stesso ordine dei corrispondenti autovettori di B.
4. Risultera’ allora D = M t AM .
21
7.1
Esempio
−3 3
rispetto alla base canonica. Abbiamo
3 5
già trovato una base ortonormale di autovettori:
1
1
3
1
√
,√
,
10 −1
10 3
Sia f l’operatore di R2 rappresentato da
associati rispettivamente a −4 e 6. Quindi se prendiamo
1
3 1
−4 0
, D=
.
M=√
0 6
10 −1 3
si avrà D = M t AM .
7.2
Esempio


1 1 1
Sia f l’operatore di R3 rappresentato da 1 1 1 rispetto alla base canonica. f è
1 1 1
3 + 3x2 e gli autovalori sono 0, 3. E(0) è
simmetrico. Il polinomio caratteristico è −x
  
1
1
il nucleo, di equazione x + y + z = 0 e base −1 ,  0 . Applicando l’algoritmo di
0
−1
Gram-Schmidt, otteniamo la base ortonormale di E(0):
 
 
1
1
1  
1  
√
√
−1
1 .
w1 =
, w2 =
2
6
0
−2
 
1
E(3) ha base 1; si osserva che E(3) è ortogonale a E(0). Otteniamo la base ortonormale
1
di E(3):
 
1
1  
1 .
w3 = √
3 1
Ne segue che una base ortonormale di autovettori è (w1 , w2 , w3 ) cioè:
 
 
 
1
1
1
1   1   1  
√
−1 , √
1 ,√
1 .
2
6 −2
3 1
0
22
Ponendo
1
√
 2
 1

M = − √

2

0

1
√
6
1
√
6
2
−√
6

1
√
3
1 
√ 
,
3
1 
√
3


0 0 0
D = 0 0 0 ,
0 0 3
si ha D = M t AM .
7.3
Esempio
Sia f l’endomorfismo di R4 rappresentato, rispetto alla base canonica, dalla matrice


2 0 1 0
0 2 0 −1

A=
1 0 2 0  .
0 −1 0 2
Poiché A è simmetrica, f è un endomorfismo simmetrico. Un calcolo mostra che pA (x) =
(x − 1)2 (x − 3)2 , dunque f ammette due autovalori distinti: λ1 = 1 e λ2 = 3, entrambi
di molteplicità algebrica 2. Già sappiamo che f è diagonalizzabile, dunque la molteplicità
geometrica di entrambi gli autovalorisarà 2.

1 0 1 0
0 1 0 −1

Descriviamo gli autospazi. A − I = 
1 0 1 0  dunque E(1) ha equazioni:
0 −1 0 1
(
x1 + x3 = 0
x2 − x4 = 0
e quindi

t
s
4

E(1) = {
−t ∈ R : t, s ∈ R}.
s

Procedendo in modo analogo, si ha:

t0
 s0 
4
0 0

E(3) = {
 t0  ∈ R : t , s ∈ R}.
−s0

23
Osserviamo che i due autospazi sono fra loro ortogonali, nel senso che:
   0 
t
t
 s   s0 
0
0
0
0
 

h
−t ,  t0 i = tt + ss − tt − ss = 0
s
−s0
per ogni t, s, t0 , s0 ∈ R.
Passiamo ora a costruire una base ortonormale di autovettori di f . Una base di E(1)
è data dalla coppia ((1, 0, −1, 0)t , (0, 1, 0, 1)t ): i due vettori sono ortogonali, dunque una
base ortonormale di V (1) è:
 
 
1
0

1
1 
1
0
 , w2 = √   ,
w1 = √ 
2 −1
2 0
0
1
In modo analogo, dalla base ((1, 0, 1, 0)t , (0, 1, 0, −1)t ) di E(3) otteniamo la base ortonormale di E(3):
 
 
1
0

1
1
1 
0
 , w4 = √  
w3 = √ 
2 1
2 0 
0
−1
Dunque
B = B1 ∪ B2 = (w1 , w2 , w3 , w4 )
è una base ortonormale di R4 , costituita da autovettori di f .
La matrice A è diagonalizzabile; se M è la matrice ottenuta incolonnando la base ortonormale di autovettori descritta in precedenza, cioè


1 0 1 0
1 0 1 0 1

M=√ 
2 −1 0 1 0 
0 1 0 −1
allora M è una matrice ortogonale che diagonalizza A, nel senso che


1 0 0 0
0 1 0 0

M t AM = 
0 0 3 0 .
0 0 0 3
24
Scarica