CORSO di ALGEBRA LINEARE Appunti su PROIEZIONI E MIGLIOR APPROSSIMAZIONE Sia (V, h·, ·i) uno spazio vettoriale sul campo R, munito di prodotto interno h·, ·i : V × V −→ R. E’ noto che, per mezzo della norma k · k indotta da h·, ·i, è possibile definire una distanza su V. Assegnato uno sottospazio S di V, ha senso allora porre il seguente problema, che sorge stimolato da questioni di interesse geometrico e statistico: Problema Dato il sottospazio S ⊆ V di dimensione finita e dato un vettore u ∈ V, determinare un elemento di S la cui distanza da u sia minima rispetto a quella degli altri elementi di S. Formulato in altri termini, il problema consiste nella ricerca di un punto di minimo della funzione d(x, u) = kx − uk sull’insieme S, ovvero min ku − sk. s∈S Si tratta pertanto di un problema di minimo vincolato, detto problema della miglior approssimazione. L’analisi geometrica di questo problema in qualche caso particolare (ad esempio, il calcolo della distanza di un punto di un piano da una retta assegnata, o della distanza di un punto dello spazio tridimensionale da un piano assegnato) suggerisce che un metodo di risoluzione possa proficuamente valersi della nozione di ortogonalità. Definizione Sia S un sottoinsieme non vuoto di uno spazio (V, h·, ·i) munito di prodotto interno. Un elemento v ∈ V è detto ortogonale ad S se hv, si = 0, ∀s ∈ S. L’insieme S ⊥ = {v ∈ V : v è ortogonale a S} è detto l’ ortogonale di S. Quando S è un sottospazio di V, S ⊥ è detto complemento ortogonale di S. ⊲ Esempio Nello spazio R2 , munito del prodotto interno euclideo, il vettore v = (3, 0) è ortogonale all’insieme S = span ({(0, −2)}). Si ha S ⊥ = span ({(1, 0)}). ⊲ Esempio Nello spazio P2 [R] munito del prodotto interno hp, qi = Z 1 p(t)q(t)dt, −1 sia S = {p ∈ P2 [R] : p(t) = a1 t2 + a0 , a1 , a0 ∈ R}. Si verifica facilmente che il vettore q(t) = t è ortogonale ad S. Risulta S ⊥ = span ({q}). Proposizione Sia S un sottoinsieme non vuoto dello spazio (V, h·, ·i). S ⊥ è un sottospazio di V. 1 Dimostrazione Siano u e v arbitrari elementi di S ⊥ e siano λ, µ ∈ R. Usando note proprietà del prodotto interno, si trova hλu + µv, si = λhu, si + µhv, si = λ0 + µ0 = 0, ∀s ∈ S. Ciò mostra che ogni combinazione lineare di elementi di S ⊥ appartiene anch’essa a S ⊥ e quindi, in base a quanto è noto sui sottospazi vettoriali, dimostra l’asserto. ⊲ Osservazione Per ogni sottospazio vettoriale S ⊆ V, risulta S ∩ S ⊥ = {0}. Infatti, se v ∈ S ∩ S ⊥ , si ha kvk2 = hv, vi = 0 e ciò, com’è noto, è vero soltanto se v = 0. Teorema (della decomposizione ortogonale) Sia S un sottospazio di dimensione finita di uno spazio munito di prodotto interno (V, h·, ·i). Ogni elemento v ∈ V ammette la seguente rappresentazione (detta decomposizione ortogonale) v = s + s⊥ , dove s ∈ S e s⊥ ∈ S ⊥ . Tale rappresentazione è unica. Inoltre, vale la seguente uguaglianza kvk2 = ksk2 + ks⊥ k2 . Dimostrazione (Esistenza della decomposizione) Posto n = dim S, sia B = {e1 , . . . , en } una base di S. Senza perdita di generalità si può assumere che B sia una base ortonormale di S (altrimenti si sottopongono i suoi vettori al processo di ortonormalizzazzione). Fissato un arbitrario v ∈ V, si definisca s̄ = n X i=1 hv, ei iei e s⊥ = v − s̄. E’ immediato notare che effettivamente risulta s̄ + s⊥ = v. Poiché s̄ si esprime come combinazione lineare di elementi di S, è s̄ ∈ S. Per mostrare che s̄ e s⊥ forniscono la rappresentazione voluta, resta da provare che s⊥ ∈ S ⊥ . Sia s un arbitrario elemento di S. Poiché B è una base di S, esistono opportuni scalari α1 , . . . αn ∈ R tali che s = α1 e1 + . . . + αn en . Ricordando le proprietà di una base ortonormale, si trova + * n n n n X X X X j ⊥ i i j αj hv, e i − αj hv, ei i hei , ej i hs , si = hv − s̄, si = v − hv, e ie , αj e = | {z } i=1 = n X j=1 αj hv, ej i − n X j=1 j=1 αj hv, ej i = 0. Si conclude pertanto che s⊥ ∈ S ⊥ . 2 j=1 i,j=1 δij (Unicità della rappresentazione) Si supponga che sussistano entrambe le seguenti rappresentazioni v = s̄ + s⊥ v = t̄ + t⊥ , e con s̄, t̄ ∈ S e s⊥ , t⊥ ∈ S ⊥ . Dovendo allora essere s̄ + s⊥ = v = t̄ + t⊥ , si ottiene s̄ − t̄ = t⊥ − s⊥ . Poiché S e S ⊥ sono sottospazi vettoriali, s̄ − t̄ ∈ S e t⊥ − s⊥ ∈ S ⊥ e dunque s̄ − t̄ ∈ S ∩ S ⊥ = {0}. Di conseguenza s̄ = t̄ e quindi anche s⊥ = t⊥ . Infine si ha kvk2 = hv, vi = hs̄ + s⊥ , s̄ + s⊥ i = hs̄, s̄i + 2hs̄, s⊥ i + hs⊥ , s⊥ i = ks̄k2 + ks⊥ k2 . Questo completa la dimostrazione. Definizione Sia S un sottospazio vettoriale di dimensione finita di uno spazio (V, h·, ·i) e sia B = {e1 . . . , en } una base ortonormale per S. Dato un vettore v ∈ V, l’elemento s̄ = n X i=1 hv, ei iei è detto proiezione di v su S. Il seguente risultato rivela che il concetto di proiezione di un vettore su un sottospazio permette di risolvere il problema della miglior approssimazione. Più precisamente, esso stabilisce che tale problema ammette un’unica soluzione e fornisce un procedimento per la sua determinazione. Teorema (della miglior approssimazione) Nello spazio vettoriale munito di prodotto interno (V, h·, ·i) siano dati un sottospazio S di dimensione finita ed un vettore u ∈ V. Allora, detta s̄ la proiezione di u su S si ha ku − s̄k < ku − sk, ∀s ∈ S\{s̄}. Dimostrazione In virtù del teorema di decomposizione ortogonale, sussiste la seguente unica rappresentazione di u: u = s̄ + s⊥ , dove s̄ denota la proeizione di u sul sottospazio S. Per ogni s ∈ S, si ha (∗) u − s = (u − s̄) + (s̄ − s). Si noti che, poiché s̄ − s ∈ S e u − s̄ = s⊥ ∈ S ⊥ , la (∗) fornisce l’unica decomposizione ortogonale esistente del vettore u − s. Sempre in virtù del teorema di decomposizione ortogonale si ha (∗∗) ku − sk2 = ku − s̄k2 + ks̄ − sk2 . 3 Essendo ks̄ − sk2 ≥ 0 e, precisamente ks − s̄k2 = 0 sse s = s̄, dall’uguaglianza (∗∗) discende che ku − sk2 > ku − s̄k2 , ∀s ∈ S\{s̄}. L’asserto è in tal modo dimostrato. Definizione In uno spazio vettoriale (V, h·, ·i), sia S ⊆ V un sottospazio di dimensione finita e sia u ∈ V. Detta s̄ la proiezione di u su S, il numero (non negativo) ku − s̄k è detto distanza di u da S. ⊲ Esempio Si consideri lo spazio vettoriale C([−1, 1]) munito del seguente prodotto interno hf, gi = Z 1 f (t)g(t)dt. −1 Si consideri il sottoinsieme di C([−1, 1]) dato da S = {f : [−1, 1] −→ R : f (t) = α + βt5 , α, β ∈ R}. Si voglia determinare l’elemento di S che meglio approssima il vettore h(t) = 3t2 + t5 , rispetto alla distanza indotta dal prodotto interno di cui sopra. Si noti che S è un sottospazio vettoriale di C([−1, 1]) di dimensione finita, in quanto S = span ({1, t5 }). I due elementi 1 e t5 di S costituiscono una sua base. Da essa, con il procedimento di ortonormalizzazione di Gram-Schmidt, si ricava la base ortonormale ) ( r 11 5 1 t . B= √ , 2 2 Si tratta ora di costruire la proiezione dell’elemento h sul sottospazio S. Si trova Z 1 √ 1 1 hh, √ i = (3t2 + t5 ) √ dt = 2 2 2 −1 e hh, r 11 5 t i= 2 Z 1 2 5 r (3t + t ) −1 11 5 t dt = 2 r 2 . 11 Di conseguenza, la proiezione di h su S è data dall’elemento r r 11 5 11 5 1 1 s̄ = hh, √ i · √ + hh, t i· t = 1 + t5 . 2 2 2 2 Il teorema della miglior approssimazione garantisce che s̄ = 1 + t5 è l’elemento in S la cui distanza da h (indotta dal prodotto interno) sia minima. La distanza di h da S risulta pertanto kh − s̄k = Z 1 −1 2 2 (3t − 1) dt 4 1/2 = r 8 . 5