RENATO LEONI Note aggiuntive di Algebra lineare per le applicazioni statistiche Università di Firenze Dipartimento di Statistica, Informatica, Applicazioni "Giuseppe Parenti" (DiSIA) Firenze, 2013 Questo lavoro è destinato a un uso personale e ne è vietata la commercializzazione. PREFAZIONE 3 PREFAZIONE In questo lavoro, ci proponiamo di fornire alcune integrazioni agli argomenti esposti nel volume Algebra lineare per le applicazioni statistiche (citato nel seguito con la dizione Algebra lineare). Nel presentare tali integrazioni si daranno ovviamente per acquisiti i concetti espressi nel suddetto volume. In qualche caso, le integrazioni servono a introdurre nuovi argomenti; in altri, consistono in un approfondimento o anche in una diversa presentazione di argomenti sostanzialmente noti. Nell'una e nell'altra circostanza, si sono tenute presenti, implicitamente o esplicitamente, le applicazioni di carattere statistico di cui il volume citato dovrebbe costituire il supporto (*). (*) Si avverte che uno stesso simbolo può denotare oggetti diversi a seconda del capitolo nel quale viene utilizzato. 4 PREFAZIONE INDICE 5 INDICE pag. Cap. 1 SISTEMI DI EQUAZIONI LINEARI 1.1 Introduzione 7 1.2 Sottospazi fondamentali associati a una matrice 8 1.3 Sistemi lineari non omogenei compatibili 14 1.4 Sistemi lineari non omogenei incompatibili 19 APPENDICE Cap. 2 21 FATTORIZZAZIONE MEDIANTE VALORI SINGOLARI DI UNA MATRICE E PSEUDOINVERSA Cap. 3 2.1 Introduzione 23 2.2 Fattorizzazione mediante valori singolari 23 2.3 Pseudoinversa 28 FATTORIZZAZIONE QR DI UNA MATRICE E MINIMI QUADRATI Cap. 4 3.1 Introduzione 31 3.2 Fattorizzazione QR 31 3.3 Minimi quadrati 34 SPAZIO DUALE DI Rp 4.1 Introduzione 37 4.2 Forme lineari e basi 38 6 INDICE pag. 4.3 4.4 Base duale 41 p Isomorfismo canonico tra R e il suo duale 44 SISTEMI DI EQUAZIONI LINEARI 7 Cap. 1 SISTEMI DI EQUAZIONI LINEARI 1.1 INTRODUZIONE Come è noto, un sistema di n equazioni lineari in p incognite è un oggetto del tipo x 1 1 a 1 + ... + x 1 p a p = y 1 ................................... x n 1 a 1 + ... + x n p a p = y n (1) in cui a 1 , ... , a p rappresentano le incognite, mentre x 1 1 , ... , x n p e y 1 , ... , y n denotano numeri reali assegnati che ricevono la denominazione, rispettivamente, di coefficienti e termini noti del sistema. Posto x1 1 x1 p X= , a= xn 1 a1 ap xn p , y= y1 yn il sistema di cui sopra si può scrivere, più compattamente, nella forma (1') Xa = y . Qualora sia y ≠ 0 − nel caso, cioè, in cui i termini noti non siano tutti nulli − il sistema è detto non omogeneo; altrimenti, è detto omogeneo. Si dice poi vettore soluzione (o, più semplicemente, soluzione) del sistema ogni vettore a = a j (p , 1) tale che X a = y . 8 Cap. 1 Il sistema è compatibile se esiste almeno un vettore soluzione; incompatibile nel caso contrario. In questo capitolo, ci occuperemo di varie questioni riguardanti i sistemi lineari non omogenei siano essi compatibili o incompatibili. Prima di ciò, conviene tuttavia esporre alcuni concetti i quali − oltre a rivestire un interesse di carattere generale − risultano rilevanti ai fini di una trattazione sufficientemente dettagliata delle specifiche questioni che intendiamo discutere. 1.2 SOTTOSPAZI FONDAMENTALI ASSOCIATI A UNA MATRICE Consideriamo anzitutto la matrice X scritta nella forma X = x1 xp dove x 1 , ... , x p denotano i p vettori colonna che compongono X. Supposto per concretezza che sia 0 < r(X) = r < p ≤ n, a tale matrice possiamo associare due sottospazi: . il sottospazio N (X) di R , costituito dalle soluzioni del sistema lineare p omogeneo Xa = 0, di dimensione (nullità) p− r; . il sottospazio R (X) di R , generato da x , ... , x , di dimensione r. n 1 p Consideriamo poi la matrice X scritta nella forma z 1' X= z n' dove z 1' , ... , z n' indicano gli n vettori riga che compongono X, e la matrice X' = z 1 zn ottenuta dalla precedente per trasposizione. Poiché 0 < r(X ') = r < p ≤ n, a quest'ultima matrice possiamo associare SISTEMI DI EQUAZIONI LINEARI 9 due sottospazi: . il sottospazio N (X') di R , costituito dalle soluzioni del sistema lineare n omogeneo X'c = 0 (1), di dimensione (nullità) n− r; . il sottospazio R (X') di R , generato da z , ... , z , di dimensione r. p 1 n Ciò premesso, supposto che Rn e Rp siano dotati della metrica standard, vogliamo esaminare le relazioni che sussistono tra i sottospazi sopra definiti. (a) Si considerino dapprima i sottospazi N (X) e R (X') di Rp. Poiché N (X) − sottospazio di Rp costituito dalle soluzioni del sistema lineare omogeneo Xa = 0 − ha dimensione p− r, N (X) possiede una base formata da p− r vettori a 1 , ... , a p - r . Pertanto, posto A= a1 a p-r , risulta (O: matrice nulla di ordine (n , p− r)) (2) XA=O. A sua volta, poiché R (X') − sottospazio di Rp generato dagli n vettori z 1 , ... , z n − ha dimensione r, R (X') possiede una base formata da r vettori z p - r+1 , ... , z p . Posto Z = z p - r+1 zp , possiamo dunque scrivere (Cfr. il punto 3 dei Complementi al Cap. IV di Algebra lineare) (3) X' = ZK (1) Per semplicità, conveniamo di usare lo stesso simbolo per indicare sia il vettore nullo di ordine n sia il vettore nullo di ordine p. 10 Cap. 1 dove K è una matrice di ordine (r,n) e rango r. Ma, tenuto conto della (3) e del fatto che KK' è invertibile, si ha (4) { X A = O}⇔{ K' Z' A = O}⇔{ KK' Z' A = O}⇔{ Z' A = O} e ciò significa intanto che N (X) e R (X') sono sottospazi ortogonali di Rp (Cfr. il Teorema 3 del Cap. VII di Algebra lineare). Di più, poiché la dimensione di N (X) è p− r e quella di R (X') è r, N (X) e R (X') sono complementi ortogonali in Rp. In definitiva, si ha che (N (X) = R (X ')⊥ ) Rp = R (X')⊕ N (X) = R (X ')⊕ R (X')⊥ . (5) Quanto ora detto si può riassumere nel modo indicato in Fig. 1. Fig.1 Rp R (X') = N (X) ⊥ N (X) = R (X') ⊥ In Matlab, la matrice A i cui vettori colonna formano una base di N (X) si può determinare attraverso la funzione NB, mentre la matrice Z i cui vettori colonna costituiscono una base di R (X') si può calcolare mediante la funzione CB. Tali funzioni sono riportate in Appendice al presente capitolo. O SSERVAZIONE 1. Una volta scelta la matrice Z che entra nella fattorizzazione X' = ZK, si può determinare K mediante l'espressione O SSERVAZIONE 2. SISTEMI DI EQUAZIONI LINEARI 11 K = (Z' Z)- 1 Z' X' . ESEMPIO 1. Considerate le matrici 1 X= 0 1 0 2 1 0 1 3 1 1 1 1 0 1 0 , X' = 2 1 0 1 3 1 1 1 di rango pari a 2, una base di N (X) è fornita dal vettore −1 a 1 = −1 1 e una base di R (X') è costituita dai vettori 1 z2 = 2 3 0 , z3 = 1 . 1 (b) Si considerino adesso i sottospazi N (X') e R (X) di Rn. Poiché N (X') − sottospazio di Rn costituito dalle soluzioni del sistema lineare omogeneo X'c = 0 − ha dimensione n− r, N (X') possiede una base formata da n− r vettori c 1 , ... , c n - r . Pertanto, posto C = c1 cn - r , risulta (O: matrice nulla di ordine (p , n− r)) (6) X' C = O . A sua volta, poiché R (X) − sottospazio di Rn generato dai p vettori x 1 , ... , x p − ha dimensione r, R (X) possiede una base formata da r vettori x n - r+1 , ... , x n . 12 Cap. 1 Posto X = x n - r+1 xn possiamo dunque scrivere (Cfr. il punto 3 dei Complementi al Cap. IV di Algebra lineare) X = XH (7) dove H è una matrice di ordine (r,p) e rango r. Ma, tenuto conto della (7) e del fatto che H H ' è invertibile, si ha (8) { X' C = O}⇔{ H ' X' C = O}⇔{ H H ' X' C = O}⇔{ X' C = O} e ciò mostra che N (X') e R (X) sono sottospazi ortogonali di Rn (Cfr. il Teorema 3 del Cap. VII di Algebra lineare). Inoltre, poiché la dimensione di N (X') è n− r e quella di R (X) è r, N (X') e R (X) sono complementi ortogonali in Rn e possiamo, quindi, concludere che (N (X') = R (X)⊥) Rn = R (X)⊕ N (X') = R (X)⊕ R (X)⊥ . (9) Quanto ora detto si può riassumere nel modo indicato in Fig. 2. Fig.2 Rn N (X') = R (X) ⊥ R (X) = N (X') ⊥ SISTEMI DI EQUAZIONI LINEARI 13 Una volta scelta la matrice X che entra nella fattorizzazione X = X H , si può procedere al calcolo di H attraverso l'espressione O SSERVAZIONE 3. H = (X' X)- 1 X' X . Considerate nuovamente le matrici di cui all'Esempio 1, una base di N (X') è formata dai vettori E SEMPIO 2. −1 2 c1 = 1 0 0 − 1 , c2 = 0 1 e una base di R (X) è costituita dai vettori 1 x3 = 0 1 0 2 1 . , x4 = 0 1 (c) A completamento di quanto precede, è opportuno osservare che − poiché (O: matrice nulla di ordine (r , p− r); O: matrice nulla di ordine (r , n− r)) H A = (X' X)- 1 X' X A = O , Z' A = O e KC = (Z' Z)- 1 Z' X' C = O , X' C = O − H ' e K' sono matrici i cui vettori colonna formano, rispettivamente, una ⊥ nuova base di R (X'), ovvero di N (X) , e una nuova base di R (X), ovvero ⊥ di N (X') . Si noti anche che, indicando con F e G le matrici di passaggio dalle vecchie alle nuove basi (H ' = ZF , K' = X G), risulta F = (Z' Z)- 1 Z' H ' , G = (X ' X)- 1 X ' K' . 14 Cap. 1 Quanto detto circa i quattro sottospazi fondamentali presi in esame e le matrici i cui vettori colonna costituiscono le rispettive basi è parzialmente riassunto nella Tav. 1. Tav. 1 - Sottospazi fondamentali e matrici i cui vettori colonna formano basi Sottospazi Matrici N (X) = R (X ')⊥ A R (X') = N (X)⊥ ESEMPIO 3. Z oppure H' N (X') = R (X)⊥ C R (X) = N (X ')⊥ X oppure K' Considerati nuovamente gli Esempi 1 e 2, si ha 1 Z= 2 3 0 1 1 1 , X= 0 1 0 2 1 0 1 da cui H= 1 0 1 0 1 1 1.3 , K= 1 0 1 0 . 0 1−2 1 SISTEMI LINEARI NON OMOGENEI COMPATIBILI Supponiamo che il sistema lineare non omogeneo Xa = y sia compatibile e che, come in precedenza, sia 0 < r(X) = r < p ≤ n (2). In tal caso, il sistema ammette infinite soluzioni tra le quali ci proponiamo di selezionarne una che soddisfi uno specifico criterio di scelta. Poiché abbiamo supposto Rp munito della metrica standard, diviene naturale scegliere tra le infinite soluzioni del sistema quella di minima norma. (2) Dato che R (X) = N (X ')⊥ , dire che y ∈ R (X), e cioè che il sistema X a = y è compatibile, equivale ad affermare che y ∈ N (X ')⊥ (alternativa di Fredholm). SISTEMI DI EQUAZIONI LINEARI 15 Allo scopo di individuare tale soluzione, osserviamo intanto che ogni vettore a, soluzione del sistema in oggetto, può essere scomposto univo⊥ camente nella somma dei vettori a ∈ N (X) e a ∈ N (X) . Ma, risultando (10) y = X a = X ( a + a) = X a + X a = X a , si riconosce subito che a costituisce a sua volta una soluzione del sistema. D'altro canto, a può essere visto come la proiezione ortogonale di a su N (X) e, quindi, a = a − a è di minima norma (Cfr. il Teorema 10 del Cap. VII di Algebra lineare). Rispetto alla base naturale di Rp, quanto ora detto ammette un'ovvia interpretazione geometrica, riassunta schematicamente in Fig. 3. Fig.3 N (X) Rp ⊥ a N (X) a a a Ci proponiamo adesso di esporre un procedimento che consente di determinare a in funzione delle matrici X e H e del vettore y. Essenzialmente, il procedimento in questione si risolve nell'esprimere y in due modi diversi ed eguagliare i risultati. ⊥ Il primo modo consiste nell'osservare anzitutto che − poiché a ∈ N (X) e N (X)⊥ = R (X ') − si ha che a ∈ R (X'). Tenuto conto che i vettori colonna di H ' formano una base di R (X'), ne consegue che a si può scrivere nella forma 16 Cap. 1 a = H'b (11) per qualche b di ordine r, da cui (12) y = X a = XH a = XH H' b . Il secondo modo di esprimere y consiste semplicemente nel considerare l'identità (13) y = X (X' X)- 1 X' y . Eguagliando la (12) e la (13) si ottiene X H H ' b = X (X' X)- 1 X' y da cui, dopo alcuni passaggi, si ha che b = (H H ')- 1 (X' X)- 1 X' y . Inserita questa espressione di b nella (11), risulta dunque (14) a = H ' (H H ')- 1 (X' X)- 1 X' y che, posto (15) X + = H ' (H H ')- 1 (X' X)- 1 X' , possiamo anche scrivere nel seguente modo (14') a = X+y . La matrice X + di ordine (p,n) di cui sopra è detta pseudoinversa d i Moore-Penrose o, più semplicemente, pseudoinversa di X e ricopre lo stesso ufficio rivestito dalla matrice X -1 nel caso che X sia non singolare (3). (3) La definizione di pseudoinversa ora data differisce da quella esposta al punto 5 dei Complementi al Cap. VII di Algebra lineare. Sull'argomento avremo tuttavia modo di tornare nel capitolo successivo. SISTEMI DI EQUAZIONI LINEARI ESEMPIO 4. 17 Si consideri il sistema lineare non omogeneo 1 0 1 0 2 1 0 1 3 1 a= 1 1 6 2 . 2 2 Come è subito visto, il suddetto sistema è compatibile. Inoltre, tenuto conto di quanto risulta dall'Esempio 3, la matrice X dei coefficienti di tale sistema può essere fattorizzata nel prodotto delle matrici 1 X= 0 1 0 2 1 0 1 , H= 1 0 1 . 0 1 1 Pertanto, in applicazione della (14'), si ha 0.083 −0.250 0.583 −0.250 a = 0.083 0.250 −0.416 0.250 0.166 0 0.166 0 6 0.666 2 = 0.666 . 2 1.333 2 La pseudoinversa di X gode di alcune importanti proprietà che vogliamo adesso mettere in evidenza. P 1. Gli elementi che intervengono nella definizione di pseudoinversa sono le matrici X,H che provengono dalla fattorizzazione X = X H . Benché tale fattorizzazione non sia unica − nel senso che postmoltiplicando X per una matrice invertibile B e premoltiplicando H per l'inversa di B si ottiene ancora una fattorizzazione di X (Cfr. il punto 3 dei Complementi al Cap. IV di Algebra lineare) − si può facilmente verificare che X + è unica. P 2. Allo stesso modo con cui, rispetto alle basi naturali di Rp e Rn, X si può interpretare come la matrice di una trasformazione lineare di Rp in Rn, X + può esser vista come la matrice di una trasformazione lineare di Rn in Rp. 18 Cap. 1 P 3. X X + = X (X' X)- 1 X' è la matrice rappresentativa, rispetto alla base ⊥ naturale di Rn, del proiettore ortogonale su R (X) = N (X ') . P 4. X + X = H ' (H H ')- 1 H è la matrice rappresentativa, rispetto alla base ⊥ naturale di Rp, del proiettore ortogonale su R (X') = N (X) . P 5. I − X X + = I − X (X' X)- 1 X' (I : matrice unità di ordine (n,n)) è la matrice rappresentativa, rispetto alla base naturale di Rn, del proiettore ortogo⊥ nale su N (X') = R (X) . P 6. I − X + X = I − H ' (H H ')- 1 H (I : matrice unità di ordine (p,p)) è la matrice rappresentativa, rispetto alla base naturale di Rp, del proiettore ortogonale su N (X) = R (X ')⊥ . O SSERVAZIONE 4. Tenuto ( I − X + X) h ∈ N (X). conto della P 6, qualunque sia h ∈Rp, risulta che ⊥ A sua volta, a = X + y ∈ N (X) e, dunque, ciascuna soluzione del sistema lineare non omogeneo compatibile Xa = y è della forma a = X + y + (I − X + X) h . Nella esposizione precedente abbiamo supposto, per motivi di concretezza, che fosse 0 < r(X) = r < p ≤ n. I ragionamenti svolti, tuttavia, possono facilmente adattarsi a comprendere i casi seguenti. O SSERVAZIONE 5. . Se 0 < r(X) = r = p ≤ n, cioè se X è una matrice di pieno rango per colonne, vale la fattorizzazione X = X I . Dunque, poiché X e I sostituiscono rispettivamente X e H nella (7), ri-1 sulta X + = (X ' X) X'. . Se 0 < r(X) = r = n ≤ p, cioè se X è una matrice di pieno rango per righe, vale la fattorizzazione X = IX. Quindi, poiché I e X sostituiscono rispettivamente X e H nella (7), risulta X + = X' (X X')- 1 . SISTEMI DI EQUAZIONI LINEARI 19 Si noti esplicitmente che, in luogo delle matrici X e H che compaiono nella (15), avremmo potuto usare le matrici K' e Z', ottenendo l'espressione OSSERVAZIONE 6. X + = Z(Z' Z)- 1 (K K')- 1 K . 1.4 SISTEMI LINEARI NON OMOGENEI INCOMPATIBILI Supponiamo adesso di trovarsi di fronte a un sistema lineare non omogeneo incompatibile, cioè tale che y ∉ R (X). In questo caso, il procedimento a cui usualmente si ricorre consiste nel ricercare soluzioni approssimate, nel senso dei minimi quadrati, del vettore incognito a. Formalmente, si tratta di trovare (16) min (Xa − y)'(Xa − y) = min (a' X'Xa − 2 y' Xa + y' y) a ∈Rp a ∈Rp e ciò, come è noto, conduce al sistema di equazioni normali (17) X' Xa = X 'y in cui X' X rappresenta la matrice dei coefficienti e X'y è il vettore dei termini noti. Vogliamo anzitutto dimostrare che il sistema (17) è equivalente al sistema (18) Xa = y nel quale y rappresenta la proiezione ortogonale di y su R (X). A questo fine, si osservi intanto che, poiché y ∈ R (X), il vettore y può essere espresso come combinazione lineare dei vettori colonna di X e ciò significa che esiste (almeno) un vettore a tale che il sistema (18) risulti compatibile. Ma, ogni soluzione del sistema (18) è anche una soluzione del sistema 20 Cap. 1 ⊥ (17) in quanto, posto y = y + (y − y) dove (y − y) ∈ R (X) , si ha {X a = y} ⇒ {X' X a = X ' y} ⇔ {X' X a = X ' y − X' (y − y)} ⇔ {X' X a = X ' y} . Ora, l'insieme S delle soluzioni del sistema (18) costituisce una varietà lineare di traslazione a e direzione N (X) (Cfr. il punto 4 dei Complementi al Cap. IV di Algebra lineare), ovvero S = a + N (X). Analogamente, l'insieme S delle soluzioni del sistema (17) forma una varietà lineare di traslazione a e direzione N (X' X), ovvero S = a + N (X ' X). D'altra parte, risultando N (X) = N (X ' X) (Cfr. quanto detto nel corso della dimostrazione del Teorema 6 del Cap. IV di Algebra lineare), si conclude subito che S = S e cioè che i sistemi (17) e (18) sono equivalenti. A questo punto, concentriamo l'attenzione sul sistema (18). Supposto come in precedenza che sia 0 < r(X) = r < p ≤ n, tale sistema − e altrettanto accade per il sistema (17) − ammette infinite soluzioni ciascuna delle quali dà luogo a un minimo globale per la funzione obiettivo che compare nella (16). Tra queste infinite soluzioni possiamo scegliere quella di minima norma. Per determinare tale soluzione basta applicare la (14') al sistema (18) ottenendo (19) a = H ' (H H ')- 1 (X' X)- 1 X' y -1 -1 -1 = H ' (H H ') (X' X) X' X (X' X) X' y = H ' (H H ')- 1 (X' X)- 1 X' y = X+y . Si noti che la soluzione ora indicata è formalmente identica a quella individuata nel caso di un sistema lineare non omogeneo compatibile (Cfr. la (14')) in cui a denotava la soluzione di minima norma. Nel caso che stiamo considerando, invece, a esprime la soluzione di minima norma nell'insieme delle soluzioni dei minimi quadrati. APPENDICE 21 Cap. 1 APPENDICE % A è una matrice di ordine (m,q). % NB(A) produce una matrice N le cui colonne formano % una base del nucleo di A. % function N = nb(A) [R,jb] = rref(A); [m,q] = size(A); r = length(jb); qmr = q - r; c = 1:q; c(jb) = zeros(1,length(jb)); N = zeros(q,qmr); c = 1:q; c(jb) = zeros(1,length(jb)); kb = c(find(c)); for j = 1:qmr N(kb(j),j) = 1; N(jb,j) = -R(1:r,kb(j)); end % A è una matrice di ordine (m,q). % CB(A) produce una matrice C le cui colonne formano % una base dello spazio generato dai vettori colonna % di A. % function C = cb(A) [R,jb] = rref(A); C = A(:,jb); 22 Cap. 1 FATTORIZZAZIONE MEDIANTE VALORI SINGOLARI DI UNA MATRICE E PSEUDOINVERSA 23 Cap. 2 FATTORIZZAZIONE MEDIANTE VALORI SINGOLARI DI UNA MATRICE E PSEUDOIVERSA 2.1 INTRODUZIONE Data una matrice X di ordine (n,p) e supposto per concretezza che sia 0 < r(X) = r < p ≤ n, nel Cap. 1 ci siamo ampiamente avvalsi della possibilità di scomporre tale matrice nel prodotto di due matrici: X (di ordine (n,r) e rango r) e H (di ordine (r,p) e rango r). Una scomposizione di questo tipo è anche detta fattorizzazione di pieno rango di X. Essa non è tuttavia l'unica disponibile e, in questo capitolo, ci proponiamo di esporre un altro metodo di scomposizione, mostrandone la rilevanza ai fini di una definizione di pseudoinversa alternativa a quella introdotta nel Cap. 1. 2.2 FATTORIZZAZIONE MEDIANTE VALORI SINGOLARI Data la matrice X sopra indicata e qualora Rn e Rp siano dotati della metrica standard (1), il procedimento di scomposizione di X che ci apprestiamo a presentare è sostanzialmente noto (Cfr. il punto 4 dei Complementi al Cap. VII di Algebra lineare) ma, per ragioni di completezza, conviene qui riproporlo nelle sue linee essenziali. (a1) Si consideri anzitutto la matrice (simmetrica) X'X. (1) In realtà, quanto diremo vale qualunque siano la matrice X e la metrica (euclidea) adottata. 24 Cap. 2 Chiaramente, rispetto alla base naturale di Rp, X'X si può interpretare come la matrice di una forma bilineare simmetrica tale che la forma quadratica a essa associata è semidefinita positiva (Cfr. il punto 3 (i) dei Complementi al Cap. VI di Algebra lineare). Pertanto, definita la trasformazione autoaggiunta T1 di Rp la cui matrice, rispetto alla suddetta base di Rp, è X'X, T1 ammette (Cfr. il paragrafo 8 del Cap. VII di Algebra lineare): . r autovalori positivi λ , ... ,λ 1 r ai quali possiamo associare r autovettori ortonormali a 1 , ... ,a r ; . un autovalore nullo di molteplicità p− r a cui possiamo associare p− r autovettori ortonormali a r+ 1 , ... , a p tali che a r+ h ⊥a k per tutti gli h = 1, ... , p e k = 1, ... , r. Posto D 1 = diag(λ 1 , ... , λ r ) , A 1 = a 1 ar , A 2 = a r+ 1 ap risulta dunque (1) X'XA1 = A 1 D1 , A1' A1 = I (r, r) e anche (2) X'XA2 = O (p -r, p -r) , A 2' A2 = I (p -r, p -r) . Inoltre, dalla prima delle eguaglianze in (2), premoltiplicando ambo i membri per A2' , si ottiene A2' X'XA2 = O (p -r, p -r) da cui (3) XA2 = O (n , p -r) . (a2) Si consideri adesso la matrice (simmetrica) XX'. FATTORIZZAZIONE MEDIANTE VALORI SINGOLARI DI UNA MATRICE E PSEUDOINVERSA 25 Ovviamente, rispetto alla base naturale di Rn, XX' si può interpretare come la matrice di una forma bilineare simmetrica tale che la forma quadratica a essa associata è semidefinita positiva (Cfr. il punto 3 (ii) dei Complementi al Cap. VI di Algebra lineare). Quindi, definita la trasformazione autoaggiunta T2 di Rn la cui matrice, rispetto alla suddetta base di Rn, è XX', T2 ammette (Cfr. il paragrafo 8 del Cap. VII di Algebra lineare): . r autovalori positivi μ , ... ,μ 1 r ai quali possiamo associare r autovettori ortonormali b1 , ... ,br ; . un autovalore nullo di molteplicità n− r a cui possiamo associare n− r autovettori ortonormali br+ 1 , ... , bn tali che br+ j ⊥bh per ogni j = 1, ... , n e k = 1, ... , r. Osservato che T1 e T2 hanno i medesimi autovalori positivi (Cfr. il punto 4 dei Complementi al Cap. V di Algebra lineare) e posto B 1 = b1 br , B 2 = br+ 1 bn risulta dunque (4) XX'B 1 = B 1 D1 , B1' B 1 = I (r, r) e anche (5) XX'B 2 = O (n -r, n -r) , B '2 B 2 = I (n -r, n -r) . Inoltre, dalla prima delle eguaglianze in (5), premoltiplicando ambo i membri per B 2' , si ottiene B 2' XX'B 2 = O (n -r, n -r) . da cui (6) X'B 2 = O (p , n -r) . 26 Cap. 2 (a3) A parziale completamento di quanto fin qui detto, vogliamo anzitutto dimostrare che tra le matrici A1 e B 1 sopra definite sussistono le relazioni B 1 = XA1 D -1 1 (7) 2 2 , A 1 = X'B 1 D -1 . 1 Infatti, poiché X'XA1 = A 1 D 1 , 2 premoltiplicando ambo i membri per X e postmoltiplicando per D -1 , si ha 1 2 2 2 XX'(X A1D -1 ) = X A1D 1D -1 = (X A1D -1 ) D1 1 1 1 e la prima delle relazioni in (7) risulta dimostrata. Analogamente, poiché XX'B 1 = B 1 D 1 , 2 premoltiplicando ambo i membri per X' e postmoltiplicando per D -1 , si ha 1 2 2 2 X'X(X 'B 1D -1 ) = X 'B 1D 1D -1 = (X 'B 1D -1 ) D1 1 1 1 e anche la seconda delle relazioni in (7) è dimostrata. Infine, considerata nuovamente la prima delle relazioni in (7) e la (1), risulta (8) 2 2 2 B 1' XA1 = D -1 A1' X'XA1 = D -1 A1' A1 D 1 = D -1 D 1 = D 11 2 . 1 1 1 (a4) Tenuto conto di quanto precede, siamo adesso in grado di pervenire rapidamente alla desiderata scomposizione della matrice X. In effetti, posto 1 1 1 2 S = diag( s 1 , ... , s r ) = diag (λ 1 2 , ... , λ r 2) = D 1 dove s 1 , ... , s r indicano i cosiddetti valori singolari di X e FATTORIZZAZIONE MEDIANTE VALORI SINGOLARI DI UNA MATRICE E PSEUDOINVERSA 27 A = [ A1 A2 ] , B = [ B 1 B 2 ] si verifica immediatamente che (9) B' X A = B '1 X A1 A2 = B 1' X A1 B '2 B 2' X A1 B 1' X A2 = S O (r, p -r) O (n -r, r) O (n -r, p -r) B 2' X A2 da cui, essendo B' = B -1 e A' = A- 1, si ottiene (10) O (r, p -r) A' X=B S O (n -r, r) O (n -r, p -r) e anche (11) X = B 1 S A1' . La (10) e la (11) sono dette, rispettivamente, fattorizzazione piena e ridotta di X mediante valori singolari. Si noti che, mentre i valori singolari s 1 , ... , s r di X sono univocamente determinati, ciò non accade per i vettori colonna delle matrici A e B sopra definite. In effetti, autovettori associati ad autovalori semplici sono univocamente determinati a meno del segno, mentre autovettori associati a un autovalore di molteplicità maggiore di uno sono determinati a meno di postmoltiplicazione per una matrice ortogonale (Cfr. l'Osservazione 6 del Cap. VII di Algebra lineare). O SSERVAZIONE 1. In Matlab, la funzione SVD (acronimo di Singular Value Decomposition), con le sue varie opzioni, consente di ottenere la fattorizzazione di una matrice mediante valori singolari (2). O SSERVAZIONE 2. (2) Si avverte tuttavia che la simbologia usata in Matlab differisce da quella che abbiamo introdotto. 28 Cap. 2 E SEMPIO 1. Considerata la matrice 1 X= 0 1 0 2 1 0 1 3 1 1 1 di rango pari a 2, risulta S = 4.3264 0 0 1.1323 0.2563 −0.7752 | 0.5774 A = 0.5432 0.6096 | 0.5774 0.7995 −0.1657 | −0.5774 2.3 0.8648 −0.0469 | 0.4714 −0.1667 0.3104 0.3920 | −0.7071 −0.5000 . ,B= 0.2440 −0.8309 | −0.4714 0.1667 0.3104 0.3920 | −0.2357 0.8333 PSEUDOINVERSA Le utilizzazioni del procedimento di fattorizzazione di una matrice X mediante valori singolari sono pressoché innumerevoli. Una di queste riguarda la definizione di pseudoinversa di X, alternativa a quella presentata nel Cap. 1, con una immediata ricaduta sulla questione della ricerca delle soluzioni di un sistema di equazioni lineari, sia esso compatibile o incompatibile. Prima di affrontare l'argomento, conviene tuttavia mostrare, ricollegandosi a quanto detto nel Cap. 1 a proposito dei sottospazi fondamentali R (X'), N (X) , R (X), N (X') associati a X, che i vettori colonna delle matrici A1 , A2 ,B 1 ,B 2 rappresentano basi ortonormali di tali sottospazi. In effetti, è anzitutto evidente, tenuto conto della (3) e della (6), che i vettori colonna di A2 e B 2 costituiscono basi ortonormali, rispettivamente, di N (X) e N (X'). Inoltre, poiché R (X') è formato da tutti i vettori della forma z = X 'a ottenuti facendo variare a in Rn, in considerazione della (11), si riconosce immediatamente che i vettori colonna di A1 costituiscono una base ortonor- FATTORIZZAZIONE MEDIANTE VALORI SINGOLARI DI UNA MATRICE E PSEUDOINVERSA 29 male di R (X'). Infine, essendo R (X) è formato da tutti i vettori della forma y = Xb ottenuti facendo variare b in Rp, sempre per la (11), è subito visto che i vettori colonna di B 1 costituiscono una base ortonormale di R (X). Quanto ora detto è riassunto nella Tav. 1 che segue, analoga alla corrispondente Tav. 1 del Cap. 1. Tav. 1 - Sottospazi fondamentali e matrici i cui vettori colonna formano basi Sottospazi Matrici N (X) = R (X ')⊥ A2 R (X') = N (X)⊥ A1 N (X') = R (X)⊥ B2 R (X) = N (X ')⊥ B1 Ciò premesso, riprendiamo la definizione di pseudoinversa di X data nella (15) del Cap. 1. Posto X = B 1 e H = S A1' , si ha (12) X + = H ' (H H ')- 1 (X' X)- 1 X' = A 1 S (S A1' A1 S) - 1 (B 1' B 1 ) - 1 B 1' = A 1 S S - 2 B '1 = A 1 S - 1 B '1 e questa costituisce una definizione alternativa di pseudoinversa di X ottenuta attraverso la fattorizzazione di X mediante valori singolari. O SSERVAZIONE 3. Un'ovvia variante della (12) è data dall'espressione -1 O (r, n -r) X(p+ , n ) = A S B' . O (p - r, r) O (p - r, n - r) In Matlab, la funzione PINV calcola la pseudoinversa di una matrice attraverso il procedimento ora descritto, ritenuto maggiormente O SSERVAZIONE 4. 30 Cap. 2 affidabile, dal punto di vista numerico, di quello basata sulla fattorizzazione di pieno rango. ESEMPIO 2. Considerato nuovamente l'Esempio 1 − poiché 0.8648 −0.0469 , B 1 = 0.3104 0.3920 0.2440 −0.8309 0.3104 0.3920 0.2563 −0.7752 S = 4.3264 0 , A 1 = 0.5432 0.6096 0 1.1323 0.7995 −0.1657 − in applicazione della (12) si ottiene 0.2563 −0.7752 X + = 0.5432 0.6096 0.7995 −0.1657 -1 4.3264 0 0 1.1323 0.083 −0.250 0.583 −0.250 = 0.083 0.250 −0.416 0.250 . 0.166 0 0.166 0 0.8648 −0.0469 ' 0.3104 0.3920 0.2440 −0.8309 0.3104 0.3920 FATTORIZZAZIONE QR DI UNA MATRICE E MINIMI QUADRATI 31 Cap. 3 FATTORIZZAZIONE QR DI UNA MATRICE E MINIMI QUADRATI 3.1 INTRODUZIONE Data una matrice X di ordine (n,p), supponiamo che questa abbia pieno rango per colonne, ovvero che sia 0 < r(X) = p ≤ n. In questo capitolo, ci proponiamo anzitutto di esporre un procedimento di scomposizione di tale matrice nel prodotto di due matrici, dotate di particolari caratteristiche. Successivamente, vedremo una applicazione del procedimento in questione al problema della determinazione del vettore incognito dei coefficienti di un sistema di equazioni lineari non omogeneo incompatibile attraverso il metodo dei minimi quadrati. 3.2 FATTORIZZAZIONE QR Data la matrice X di cui sopra e posto che Rn sia dotato della metrica standard (1) , possiamo applicare il classico processo di ortonormalizzazione di Gram-Schmidt (Cfr. le sezioni 2.3 e 5.4 del Cap. VII di Algebra lineare) ai vettori colonna x 1 , ... ,x p che compogono X ottenendo i vettori ortonormali q 1 , ... ,q p . Nel dettaglio, il processo in questione conduce a definire i vettori ortogonali (1) In realtà, quanto diremo vale qualunque sia la metrica (euclidea) adottata. 32 Cap. 3 y1 = x1 y 2 = x 2 − x 1 (x 1' x 1 ) -1 x 1' x 2 yp = xp − x1 x p -1 ( x 1 x p -1 ' x 1 x p -1 ) -1 x 1 x p -1 ' x p e da questi i vettori ortonormali q1 = y1 y 1' y 1 , q2 = y2 y 2' y 2 , ... , q p = yp . y p' y p Ciò premesso, indichiamo con Q la matrice di ordine (n,p) i cui vettori colonna sono q 1 , ... ,q p e con R la matrice (invertibile) di ordine (p,p) del passaggio dalla base costituita da x 1 , ... ,x p alla base ortonormale formata da q 1 , ... ,q p . Ovviamente, risulta (1) X = QR . La (1) riceve la denominazione di fattorizzazione QR ridotta di X. Si noti che, essendo (Q' Q = I (p , p )) R = (Q'Q)- 1 Q' X = Q' X , R ha una struttura particolare (triangolare superiore) in quanto, dato che per costruzione q i ⊥x j per ogni i , j = 1, ... , p e i > j, gli elementi al disotto della diagonale principale sono tutti nulli. Si osservi anche che, a meno che sia p = n, Q non è una matrice ortogonale. Supponiamo tuttavia di estendere, in un modo qualsiasi, la base di R (X) formata da x 1 , ... ,x p a una base di Rn costituita da x 1 , ... ,x p ,x p + 1 , ... , x n (Cfr. il Teorema 8 del Cap. I di Algebra lineare). Applicando il suddetto processo di ortonormalizzazione di Gram-Schmidt a x 1 , ... ,x p ,x p + 1 , ... , x n , si ottengono i vettori ortonormali q 1 , ... ,q p , FATTORIZZAZIONE QR DI UNA MATRICE E MINIMI QUADRATI 33 q p + 1 , ... , q n che possiamo scrivere come vettori colonna di una matrice Q ortogonale di ordine (n,n). Posto Q = Q Q1 , R= R O (n -p , p) è chiaro che X = QR . (2) La (2) riceve la denominazione di fattorizzazione QR piena di X. ESEMPIO 1. Si consideri la matrice 1 1 X= 1 0 1 1 di rango pari a 2. Applicando il processo di ortonormalizzazione di Gram-Schimidt ai due vettori colonna x 1 ,x 2 che compongono X, si verifica facilmente che 1 y1 = 1 1 1 3 , y2 = − 2 3 1 3 , q1 = 1 3 1 3 1 3 1 6 2 , q2 = − 6 1 6 e, quindi, le matrici che entrano nella fattorizzazione QR ridotta di X sono Q= 1 1 3 6 1 − 2 3 6 1 1 3 6 1 1 3 , R= 3 1 − 2 6 6 1 3 1 6 1 1 1 0 = 1 1 3 0 2 3 2 3 . 34 Cap. 3 Aggiungendo poi ai due vettori colonna x 1 ,x 2 della matrice X di cui sopra un terzo vettore colonna 0 x3 = 1 1 in modo da ottenere una base di R3, ripetendo il processo di ortonormalizzazione di Gram-Schimidt ai tre vettori colonna x 1 ,x 2 ,x 3 che compongono la nuova matrice X x 3 si perviene alle matrici Q= 1 1 2 2 3 6 1 − 2 0 3 6 1 1 − 2 3 6 2 3 , R= 0 0 2 3 2 3 0 che entrano nella fattorizzazione QR piena di X. 3.3 MINIMI QUADRATI Supponiamo adesso di trovarsi di fronte a un sistema di equazioni lineari non omogeneo incompatibile. In questo caso, il procedimento a cui usualmente si ricorre consiste nel ricercare soluzioni approssimate, nel senso dei minimi quadrati, del vettore incognito dei coefficienti. Con le notazioni introdotte nel Cap. 1 e sempre nell'ipotesi che Rn sia dotato della metrica standard, si tratta di trovare (3) min (Xa − y)'(Xa − y) = min (a' X'Xa − 2 y' Xa + y' y) a ∈Rp a ∈Rp e ciò, come è noto, conduce al sistema di equazioni normali (4) X' Xa = X 'y FATTORIZZAZIONE QR DI UNA MATRICE E MINIMI QUADRATI 35 in cui X' X rappresenta la matrice dei coefficienti e X'y è il vettore dei termini noti. Poiché abbiamo supposto che X sia di pieno rango per colonne, il sistema (4) ammette una soluzione (unica) data da a = (X ' X) -1 X'y . (5) Senonché, l'inversione della matrice X' X può essere assai onerosa dal punto di vista computazionale (2). Nell'intento di far fronte alla difficoltà ora accennata o quantomeno di alleviarne l'impatto, si può ricorrere al procedimento di fattorizzazione QR ridotta della matrice X. In tal caso, tenuta presente la (1), si riconosce subito che -1 a = R Q' y (5') dove la matrice R, essendo triangolare superiore, risulta più facilmente invertibile. ESEMPIO 2. Riprendendo l'Esempio 1 e posto 3 y= 1 , 2 risulta a= 3 0 2 3 2 3 -1 1 1 ' 3 6 3 1 − 2 1 = 3 6 2 1 1 3 6 1 − 2 3 3 3 0 2 1 1 3 3 1 − 2 6 6 1 3 1 6 1 3 = . 1 3 2 2 (2) Inoltre, se si lavora con un numero finito di decimali, sussiste il pericolo di introdurre errori che falsino il risultato. 36 Cap. 3 SPAZIO DUALE DI R p 37 Cap. 4 SPAZIO DUALE DI Rp 4.1 INTRODUZIONE Riguardato R come uno spazio vettoriale su se stesso (di dimensione pari a 1), ha senso considerare lo spazio vettoriale costituito dalle trasformazioni lineari di Rp in R. Questo spazio vettoriale − vale a dire, Hom(R p, R) − riceve la denominazione spazio duale di Rp, e risulta (Cfr. il punto 6 dei Complementi al Cap. V di Algebra lineare) dim(Hom(R p, R)) = 1.p = p = dim(R p) . Lo spazio duale di Rp è solitamente indicato con Rp * e i suoi elementi sono detti forme (funzionali) lineari su Rp. Quindi, una forma lineare su Rp è una funzione f che associa a ciascun vettore x∈Rp un numero reale f(x) − chiamato immagine di x − in modo tale che siano soddisfatte le proprietà seguenti (x 1 ,x 2 ∈Rp; a∈R): (i) f (x 1 + x 2 ) = f (x 1) + f (x 2 ) (ii) f ( ax 1 ) ESEMPIO 1. = a f(x 1 ) . La funzione f definita ponendo, per ogni x ∈ R2, f(x) = 1 2 x1 x2 è, come subito si verifica, una forma lineare su R2. 38 Cap. 4 Dati t vettori x 1 , ... , x t appartenenti a Rp e t numeri reali a 1 , ... , a t , qualunque sia la forma lineare f su Rp, risulta O SSERVAZIONE 1. f( a 1 x 1 + ... + a t x t) = a 1 f(x 1 ) + ... + a t f(x t) . Qualunque sia la forma lineare f su Rp, l'immagine del vettore nullo di Rp è il numero reale 0. OSSERVAZIONE 2. La funzione che associa a ogni x∈Rp il numero reale 0 è una forma lineare su Rp (forma lineare nulla). O SSERVAZIONE 3. 4.2 FORME LINEARI E BASI 4.2.1 Supponiamo che le basi prescelte di Rp e R siano formate, rispettivamente, da p vettori x 1 , ... , x p e dal numero 1 (base naturale di R). Data una forma lineare f su Rp, sia f(x 1 ) f (x p ) = t 1 tp = t' il vettore riga costituito dalle immagini di x 1 , ... , x p mediante f. Allora, per ogni x = a 1 x 1 + ... + a p x p = x 1 a1 xp ap = Xa ∈Rp , tenuto conto dell'Osservazione 1, si ha che (1) f(x) = f ( a 1 x 1 + ... + a p x p ) = a 1 f(x 1 ) + ... + a p f(x p ) a1 a1 = f(x 1 ) f (x p ) = t1 tp = t'a . ap ap Per mezzo della (1), l'immagine f(x) di x risulta dunque espressa in funzione del vettore coordinato a di x e del vettore riga t '. Quest'ultimo vettore riga, univocamente associato alla forma lineare f su SPAZIO DUALE DI R p 39 Rp e alle suddette basi di Rp e R, riceve la denominazione di vettore riga rappresentativo di f rispetto a tali basi. Rispetto alle basi naturali di R2 e R, il vettore riga rappresentativo della forma lineare f su R2 di cui all'Esempio 1 è E SEMPIO 2. t' = 1 2 . Invece, rispetto alla base di R2 formata dai vettori x1 = 1 1 , x2 = 2 1 e alla base naturale di R − risultando f(x 1) = 3 , f (x 2) = 4 − il vettore riga rappresentativo della stessa forma lineare f è t' = 3 4 . 4.2.2 Supponiamo, come in precedenza, che le basi prescelte di Rp e R siano formate, rispettivamente, da p vettori x 1 , ... , x p e dal numero 1. Scelto arbitrariamente il vettore riga t1 tp = t' , per ogni x = a 1 x 1 + ... + a p x p = x 1 a1 xp ap = Xa ∈Rp , si definisca la funzione f ponendo a1 (2) f(x) = t 1 = t'a . tp ap 40 Cap. 4 Si riconosce subito che, rispetto alle suddette basi di Rp e R, f è una forma lineare su Rp univocamente associata al vettore riga t ' − tale che f(x 1 ) f (x p ) = t 1 tp = t' − e che il vettore riga rappresentativo di f rispetto a tali basi è t '. Tenuto conto di quanto mostrato in questa e nella sezione precedente, possiamo affermare che esiste una corrispondenza biunivoca, dipendente dalle basi prescelte di Rp e R, tra l'insieme delle forme lineari su Rp e l'insieme dei vettori riga di ordine p. O SSERVAZIONE 4. 4.2.3 Come si è visto − nell'ipotesi che le basi prescelte di Rp e R siano formate, rispettivamente, da p vettori x 1 , ... , x p e dal numero 1 − una forma lineare f su Rp risulta definita ponendo, per ogni x = Xa ∈Rp, f(x) = t ' a . Ferma restando la base di R (1), consideriamo una nuova base di Rp formata da p vettori x 1 , ... , x p . Posto X = x 1 x p = XA, domandiamoci come si trasformano a e t '. Ovviamente, a si trasforma in a = A- 1 a . A sua volta, t ', dovendo sussistere la relazione f(x) = t ' a = t ' A A- 1 a , si trasforma in t ' = t ' A. Si usa esprimere questo diverso comportamento di a e t ', in risposta a un cambiamento della base iniziale di Rp, dicendo che a si trasforma per controvarianza e t ' per covarianza. E SEMPIO 3. Rispetto alla base di R2 formata dai vettori x1 = 1 1 , x2 = 2 1 sia (1) A tale ipotesi ci atterremo anche nel seguito. SPAZIO DUALE DI R p 41 t' = 3 4 il vettore riga rappresentativo di una forma lineare f su R2. Rispetto alla base di R2 formata dai vettori x1 = 3 2 , x2 = 2 1 − risultando A= 1 0 1 1 − il vettore riga rappresentativo della stessa forma lineare f è 1 0 = 7 4 . 1 1 t' = 3 4 4.3 BASE DUALE 4.3.1 Supponiamo, come in precedenza, che X sia la matrice i cui vettori colonna x 1 , ... , x p formano la base prescelta di Rp. Posto t 1' X = -1 , t p' in vista di quanto detto nella sezione 4.2.2, a t '1 , ... , t 'p possiamo univocamente associare le p forme lineari f1 , ... , f p su Rp tali che f1 (x 1 ) f 1 (x p ) = t '1 x 1 xp = 1 0 f p (x 1 ) f p (x p ) = t p' x 1 xp = 0 1 (3) ovvero tali che, per ogni 42 Cap. 4 a1 x = a 1 x 1 + ... + a p x p = x 1 xp ap = Xa ∈Rp , risulta f 1 (x) = t '1 x 1 xp a = 1 0 a = a1 f p (x) = t 'p x 1 xp a = 0 1 a = ap . (4) Ciò premesso, considerata una forma lineare f su Rp definita ponendo, per ogni x = Xa ∈Rp, f(x) = t ' a , possiamo scrivere a1 f(x) = t ' a = t ' (5) f 1 (x) = t' ap . f p (x) In altri termini, f risulta esprimibile in modo univoco come combinazione lineare delle p forme lineari f1 , ... , f p su Rp con coefficienti dati dagli elementi del vettore riga t ' , ossia che f1 f = t' (6) . fp Pertanto, f1 , ... , f p costituiscono una base di Rp * (Cfr. il punto 6 dei Complementi al Cap. V di Algebra lineare), detta base duale della base di Rp formata da x 1 , ... , x p . ESEMPIO 4. Supponiamo che la base di R2 sia formata dai vettori x1 = 1 1 , x2 = 2 . 1 Considerata la matrice X i cui vettori colonna costituiscono la suddetta base di R2, sia SPAZIO DUALE DI R p 43 X -1 = 1 −2 = t 1' . −1 1 t '2 Allora, per ogni x = a1 x1 + a 2 x2 = x1 x2 a1 = Xa ∈R2 , a2 la base duale di x 1 , x 2 è costituita dalle forme lineari f1 , f 2 su R2 definite ponendo f1 (x) = t '1 a = a 1 = a − 2a 1 2 a2 1 −2 f2 (x) = t '2 a = −1 a 1 = −a + a . 1 2 a2 1 4.3.2 Supponiamo che X sia la matrice i cui vettori colonna x 1 , ... , x p formano una nuova base di Rp. Posto t 1' X = -1 , t p' con un ragionamento analogo a quello svolto nella sezione precedente, possiamo univocamente associare a t1 , ... , tp le p forme lineari f 1 , ... , f p le quali costituiscono la base duale della base di Rp formata da x 1 , ... , x p . Si noti adesso che, poiché la relazione che intercorre tra la matrice X i cui vettori colonna formano la base inizialmente prescelta di Rp e la matrice X qui considerata è del tipo X = XA, risulta che X -1 = A -1 X -1 , da cui si deduce subito che 44 Cap. 4 f1 fp 4.4 f1 = A -1 (7) . fp ISOMORFISMO CANONICO TRA Rp E IL SUO DUALE Supponiamo che Rp sia munito della metrica (euclidea) rappresentata, rispetto alla base di Rp formata da p vettori x 1 , ... , x p (vettori colonna di X), da una matrice Q. Fissato il vettore y = Xb ∈Rp, possiamo univocamente associare a b il vettore riga t ' = b'Q, rappresentativo della forma lineare f su Rp definita ponendo, per ogni x = Xa ∈Rp, (8) f(x) = t ' a = b'Qa . Reciprocamente, dato il vettore riga t ', rappresentativo della forma lineare f su Rp definita ponendo, per ogni x = Xa ∈Rp, f(x) = t ' a , possiamo univocamente associare a t ' il vettore b = Q -1 t tale che (9) b'Qa = t ' Q -1 Qa = t ' a = f (x) . Si può facilmente verificare che la corrispondenza biunivoca ora indicata tra vettori appartenenti a Rp e forme lineari su Rp, ottenuta mediante la introduzione di una metrica, non dipende dalla base prescelta di Rp, ovvero costituisce un isomorfismo canonico tra Rp e Rp *.