Note aggiuntive Algebra lineare - UniFI

RENATO LEONI
Note aggiuntive
di
Algebra lineare
per le applicazioni statistiche
Università di Firenze
Dipartimento di Statistica, Informatica, Applicazioni
"Giuseppe Parenti" (DiSIA)
Firenze, 2013
Questo lavoro è destinato a un uso personale e ne è vietata la
commercializzazione.
PREFAZIONE
3
PREFAZIONE
In questo lavoro, ci proponiamo di fornire alcune integrazioni agli argomenti esposti nel volume Algebra lineare per le applicazioni statistiche
(citato nel seguito con la dizione Algebra lineare).
Nel presentare tali integrazioni si daranno ovviamente per acquisiti i concetti espressi nel suddetto volume.
In qualche caso, le integrazioni servono a introdurre nuovi argomenti; in
altri, consistono in un approfondimento o anche in una diversa presentazione
di argomenti sostanzialmente noti.
Nell'una e nell'altra circostanza, si sono tenute presenti, implicitamente o
esplicitamente, le applicazioni di carattere statistico di cui il volume citato
dovrebbe costituire il supporto (*).
(*) Si avverte che uno stesso simbolo può denotare oggetti diversi a seconda del capitolo nel quale
viene utilizzato.
4
PREFAZIONE
INDICE
5
INDICE
pag.
Cap. 1
SISTEMI DI EQUAZIONI LINEARI
1.1
Introduzione
7
1.2
Sottospazi fondamentali associati a una matrice
8
1.3
Sistemi lineari non omogenei compatibili
14
1.4
Sistemi lineari non omogenei incompatibili
19
APPENDICE
Cap. 2
21
FATTORIZZAZIONE MEDIANTE VALORI SINGOLARI
DI UNA MATRICE E PSEUDOINVERSA
Cap. 3
2.1
Introduzione
23
2.2
Fattorizzazione mediante valori singolari
23
2.3
Pseudoinversa
28
FATTORIZZAZIONE QR DI UNA MATRICE
E MINIMI QUADRATI
Cap. 4
3.1
Introduzione
31
3.2
Fattorizzazione QR
31
3.3
Minimi quadrati
34
SPAZIO DUALE DI Rp
4.1
Introduzione
37
4.2
Forme lineari e basi
38
6
INDICE
pag.
4.3
4.4
Base duale
41
p
Isomorfismo canonico tra R e il suo duale
44
SISTEMI DI EQUAZIONI LINEARI
7
Cap. 1
SISTEMI DI EQUAZIONI LINEARI
1.1
INTRODUZIONE
Come è noto, un sistema di n equazioni lineari in p incognite è un
oggetto del tipo
x 1 1 a 1 + ... + x 1 p a p = y 1
...................................
x n 1 a 1 + ... + x n p a p = y n
(1)
in cui a 1 , ... , a p rappresentano le incognite, mentre x 1 1 , ... , x n p e y 1 , ... , y n
denotano numeri reali assegnati che ricevono la denominazione, rispettivamente, di coefficienti e termini noti del sistema.
Posto
x1 1
x1 p
X=
, a=
xn 1
a1
ap
xn p
, y=
y1
yn
il sistema di cui sopra si può scrivere, più compattamente, nella forma
(1')
Xa = y .
Qualora sia y ≠ 0 − nel caso, cioè, in cui i termini noti non siano tutti nulli
− il sistema è detto non omogeneo; altrimenti, è detto omogeneo.
Si dice poi vettore soluzione (o, più semplicemente, soluzione) del sistema ogni vettore a = a j (p , 1) tale che X a = y .
8
Cap. 1
Il sistema è compatibile se esiste almeno un vettore soluzione; incompatibile nel caso contrario.
In questo capitolo, ci occuperemo di varie questioni riguardanti i sistemi
lineari non omogenei siano essi compatibili o incompatibili.
Prima di ciò, conviene tuttavia esporre alcuni concetti i quali − oltre a
rivestire un interesse di carattere generale − risultano rilevanti ai fini di una
trattazione sufficientemente dettagliata delle specifiche questioni che intendiamo discutere.
1.2
SOTTOSPAZI FONDAMENTALI ASSOCIATI A UNA MATRICE
Consideriamo anzitutto la matrice X scritta nella forma
X = x1
xp
dove x 1 , ... , x p denotano i p vettori colonna che compongono X.
Supposto per concretezza che sia 0 < r(X) = r < p ≤ n, a tale matrice possiamo associare due sottospazi:
. il sottospazio N (X) di R , costituito dalle soluzioni del sistema lineare
p
omogeneo Xa = 0, di dimensione (nullità) p− r;
. il sottospazio R (X) di R , generato da x , ... , x , di dimensione r.
n
1
p
Consideriamo poi la matrice X scritta nella forma
z 1'
X=
z n'
dove z 1' , ... , z n' indicano gli n vettori riga che compongono X, e la matrice
X' = z 1
zn
ottenuta dalla precedente per trasposizione.
Poiché 0 < r(X ') = r < p ≤ n, a quest'ultima matrice possiamo associare
SISTEMI DI EQUAZIONI LINEARI
9
due sottospazi:
. il sottospazio N (X') di R , costituito dalle soluzioni del sistema lineare
n
omogeneo X'c = 0 (1), di dimensione (nullità) n− r;
. il sottospazio R (X') di R , generato da z , ... , z , di dimensione r.
p
1
n
Ciò premesso, supposto che Rn e Rp siano dotati della metrica standard,
vogliamo esaminare le relazioni che sussistono tra i sottospazi sopra definiti.
(a) Si considerino dapprima i sottospazi N (X) e R (X') di Rp.
Poiché N (X) − sottospazio di Rp costituito dalle soluzioni del sistema
lineare omogeneo Xa = 0 − ha dimensione p− r, N (X) possiede una base
formata da p− r vettori a 1 , ... , a p - r .
Pertanto, posto
A= a1
a p-r ,
risulta (O: matrice nulla di ordine (n , p− r))
(2)
XA=O.
A sua volta, poiché R (X') − sottospazio di Rp generato dagli n vettori
z 1 , ... , z n − ha dimensione r, R (X') possiede una base formata da r vettori
z p - r+1 , ... , z p .
Posto
Z = z p - r+1
zp ,
possiamo dunque scrivere (Cfr. il punto 3 dei Complementi al Cap. IV di
Algebra lineare)
(3)
X' = ZK
(1) Per semplicità, conveniamo di usare lo stesso simbolo per indicare sia il vettore nullo di ordine
n sia il vettore nullo di ordine p.
10
Cap. 1
dove K è una matrice di ordine (r,n) e rango r.
Ma, tenuto conto della (3) e del fatto che KK' è invertibile, si ha
(4)
{ X A = O}⇔{ K' Z' A = O}⇔{ KK' Z' A = O}⇔{ Z' A = O}
e ciò significa intanto che N (X) e R (X') sono sottospazi ortogonali di Rp
(Cfr. il Teorema 3 del Cap. VII di Algebra lineare).
Di più, poiché la dimensione di N (X) è p− r e quella di R (X') è r, N (X) e
R (X') sono complementi ortogonali in Rp.
In definitiva, si ha che (N (X) = R (X ')⊥ )
Rp = R (X')⊕ N (X) = R (X ')⊕ R (X')⊥ .
(5)
Quanto ora detto si può riassumere nel modo indicato in Fig. 1.
Fig.1
Rp
R (X') = N (X) ⊥
N (X) = R (X') ⊥
In Matlab, la matrice A i cui vettori colonna formano una
base di N (X) si può determinare attraverso la funzione NB, mentre la
matrice Z i cui vettori colonna costituiscono una base di R (X') si può
calcolare mediante la funzione CB.
Tali funzioni sono riportate in Appendice al presente capitolo.
O SSERVAZIONE 1.
Una volta scelta la matrice Z che entra nella fattorizzazione X' = ZK, si può determinare K mediante l'espressione
O SSERVAZIONE 2.
SISTEMI DI EQUAZIONI LINEARI
11
K = (Z' Z)- 1 Z' X' .
ESEMPIO 1.
Considerate le matrici
1
X= 0
1
0
2
1
0
1
3
1
1
1
1 0 1 0
, X' = 2 1 0 1
3 1 1 1
di rango pari a 2, una base di N (X) è fornita dal vettore
−1
a 1 = −1
1
e una base di R (X') è costituita dai vettori
1
z2 = 2
3
0
, z3 = 1 .
1
—
(b) Si considerino adesso i sottospazi N (X') e R (X) di Rn.
Poiché N (X') − sottospazio di Rn costituito dalle soluzioni del sistema
lineare omogeneo X'c = 0 − ha dimensione n− r, N (X') possiede una base
formata da n− r vettori c 1 , ... , c n - r .
Pertanto, posto
C = c1
cn - r ,
risulta (O: matrice nulla di ordine (p , n− r))
(6)
X' C = O .
A sua volta, poiché R (X) − sottospazio di Rn generato dai p vettori
x 1 , ... , x p − ha dimensione r, R (X) possiede una base formata da r vettori
x n - r+1 , ... , x n .
12
Cap. 1
Posto
X = x n - r+1
xn
possiamo dunque scrivere (Cfr. il punto 3 dei Complementi al Cap. IV di
Algebra lineare)
X = XH
(7)
dove H è una matrice di ordine (r,p) e rango r.
Ma, tenuto conto della (7) e del fatto che H H ' è invertibile, si ha
(8)
{ X' C = O}⇔{ H ' X' C = O}⇔{ H H ' X' C = O}⇔{ X' C = O}
e ciò mostra che N (X') e R (X) sono sottospazi ortogonali di Rn (Cfr. il
Teorema 3 del Cap. VII di Algebra lineare).
Inoltre, poiché la dimensione di N (X') è n− r e quella di R (X) è r, N (X')
e R (X) sono complementi ortogonali in Rn e possiamo, quindi, concludere
che (N (X') = R (X)⊥)
Rn = R (X)⊕ N (X') = R (X)⊕ R (X)⊥ .
(9)
Quanto ora detto si può riassumere nel modo indicato in Fig. 2.
Fig.2
Rn
N (X') = R (X) ⊥
R (X) = N (X') ⊥
SISTEMI DI EQUAZIONI LINEARI
13
Una volta scelta la matrice X che entra nella fattorizzazione X = X H , si può procedere al calcolo di H attraverso l'espressione
O SSERVAZIONE 3.
H = (X' X)- 1 X' X .
Considerate nuovamente le matrici di cui all'Esempio 1, una
base di N (X') è formata dai vettori
E SEMPIO 2.
−1
2
c1 =
1
0
0
−
1
, c2 =
0
1
e una base di R (X) è costituita dai vettori
1
x3 = 0
1
0
2
1 .
, x4 =
0
1
—
(c) A completamento di quanto precede, è opportuno osservare che −
poiché (O: matrice nulla di ordine (r , p− r); O: matrice nulla di ordine
(r , n− r))
H A = (X' X)- 1 X' X A = O , Z' A = O
e
KC = (Z' Z)- 1 Z' X' C = O , X' C = O
− H ' e K' sono matrici i cui vettori colonna formano, rispettivamente, una
⊥
nuova base di R (X'), ovvero di N (X) , e una nuova base di R (X), ovvero
⊥
di N (X') .
Si noti anche che, indicando con F e G le matrici di passaggio dalle vecchie alle nuove basi (H ' = ZF , K' = X G), risulta
F = (Z' Z)- 1 Z' H ' , G = (X ' X)- 1 X ' K' .
14
Cap. 1
Quanto detto circa i quattro sottospazi fondamentali presi in esame e le
matrici i cui vettori colonna costituiscono le rispettive basi è parzialmente
riassunto nella Tav. 1.
Tav. 1 - Sottospazi fondamentali e matrici i cui vettori colonna formano basi
Sottospazi
Matrici
N (X) = R (X ')⊥
A
R (X') = N (X)⊥
ESEMPIO 3.
Z
oppure
H'
N (X') = R (X)⊥
C
R (X) = N (X ')⊥
X oppure K'
Considerati nuovamente gli Esempi 1 e 2, si ha
1
Z= 2
3
0
1
1
1
, X= 0
1
0
2
1
0
1
da cui
H= 1 0 1
0 1 1
1.3
, K=
1 0 1 0 .
0 1−2 1
SISTEMI LINEARI NON OMOGENEI COMPATIBILI
Supponiamo che il sistema lineare non omogeneo Xa = y sia compatibile
e che, come in precedenza, sia 0 < r(X) = r < p ≤ n (2).
In tal caso, il sistema ammette infinite soluzioni tra le quali ci proponiamo di selezionarne una che soddisfi uno specifico criterio di scelta.
Poiché abbiamo supposto Rp munito della metrica standard, diviene naturale scegliere tra le infinite soluzioni del sistema quella di minima norma.
(2) Dato che R (X) = N (X ')⊥ , dire che y ∈ R (X), e cioè che il sistema X a = y è compatibile, equivale ad affermare che y ∈ N (X ')⊥ (alternativa di Fredholm).
SISTEMI DI EQUAZIONI LINEARI
15
Allo scopo di individuare tale soluzione, osserviamo intanto che ogni
vettore a, soluzione del sistema in oggetto, può essere scomposto univo⊥
camente nella somma dei vettori a ∈ N (X) e a ∈ N (X) .
Ma, risultando
(10)
y = X a = X ( a + a) = X a + X a = X a ,
si riconosce subito che a costituisce a sua volta una soluzione del sistema.
D'altro canto, a può essere visto come la proiezione ortogonale di a su
N (X) e, quindi, a = a − a è di minima norma (Cfr. il Teorema 10 del Cap.
VII di Algebra lineare).
Rispetto alla base naturale di Rp, quanto ora detto ammette un'ovvia
interpretazione geometrica, riassunta schematicamente in Fig. 3.
Fig.3
N (X)
Rp
⊥
a
N (X)
a a
a
Ci proponiamo adesso di esporre un procedimento che consente di determinare a in funzione delle matrici X e H e del vettore y.
Essenzialmente, il procedimento in questione si risolve nell'esprimere y
in due modi diversi ed eguagliare i risultati.
⊥
Il primo modo consiste nell'osservare anzitutto che − poiché a ∈ N (X) e
N (X)⊥ = R (X ') − si ha che a ∈ R (X').
Tenuto conto che i vettori colonna di H ' formano una base di R (X'), ne
consegue che a si può scrivere nella forma
16
Cap. 1
a = H'b
(11)
per qualche b di ordine r, da cui
(12)
y = X a = XH a = XH H' b .
Il secondo modo di esprimere y consiste semplicemente nel considerare
l'identità
(13)
y = X (X' X)- 1 X' y .
Eguagliando la (12) e la (13) si ottiene
X H H ' b = X (X' X)- 1 X' y
da cui, dopo alcuni passaggi, si ha che
b = (H H ')- 1 (X' X)- 1 X' y .
Inserita questa espressione di b nella (11), risulta dunque
(14)
a = H ' (H H ')- 1 (X' X)- 1 X' y
che, posto
(15)
X + = H ' (H H ')- 1 (X' X)- 1 X' ,
possiamo anche scrivere nel seguente modo
(14')
a = X+y .
La matrice X + di ordine (p,n) di cui sopra è detta pseudoinversa d i
Moore-Penrose o, più semplicemente, pseudoinversa di X e ricopre lo
stesso ufficio rivestito dalla matrice X -1 nel caso che X sia non singolare (3).
(3) La definizione di pseudoinversa ora data differisce da quella esposta al punto 5 dei Complementi
al Cap. VII di Algebra lineare. Sull'argomento avremo tuttavia modo di tornare nel capitolo
successivo.
SISTEMI DI EQUAZIONI LINEARI
ESEMPIO 4.
17
Si consideri il sistema lineare non omogeneo
1
0
1
0
2
1
0
1
3
1
a=
1
1
6
2 .
2
2
Come è subito visto, il suddetto sistema è compatibile.
Inoltre, tenuto conto di quanto risulta dall'Esempio 3, la matrice X dei
coefficienti di tale sistema può essere fattorizzata nel prodotto delle matrici
1
X= 0
1
0
2
1
0
1
, H= 1 0 1 .
0 1 1
Pertanto, in applicazione della (14'), si ha
0.083 −0.250 0.583 −0.250
a = 0.083 0.250 −0.416 0.250
0.166
0 0.166
0
6
0.666
2 =
0.666 .
2
1.333
2
—
La pseudoinversa di X gode di alcune importanti proprietà che vogliamo
adesso mettere in evidenza.
P 1. Gli elementi che intervengono nella definizione di pseudoinversa sono
le matrici X,H che provengono dalla fattorizzazione X = X H .
Benché tale fattorizzazione non sia unica − nel senso che postmoltiplicando X per una matrice invertibile B e premoltiplicando H per l'inversa
di B si ottiene ancora una fattorizzazione di X (Cfr. il punto 3 dei Complementi al Cap. IV di Algebra lineare) − si può facilmente verificare che
X + è unica.
P 2. Allo stesso modo con cui, rispetto alle basi naturali di Rp e Rn, X si può
interpretare come la matrice di una trasformazione lineare di Rp in Rn, X +
può esser vista come la matrice di una trasformazione lineare di Rn in Rp.
18
Cap. 1
P 3. X X + = X (X' X)- 1 X' è la matrice rappresentativa, rispetto alla base
⊥
naturale di Rn, del proiettore ortogonale su R (X) = N (X ') .
P 4. X + X = H ' (H H ')- 1 H è la matrice rappresentativa, rispetto alla base
⊥
naturale di Rp, del proiettore ortogonale su R (X') = N (X) .
P 5. I − X X + = I − X (X' X)- 1 X' (I : matrice unità di ordine (n,n)) è la matrice rappresentativa, rispetto alla base naturale di Rn, del proiettore ortogo⊥
nale su N (X') = R (X) .
P 6. I − X + X = I − H ' (H H ')- 1 H (I : matrice unità di ordine (p,p)) è la
matrice rappresentativa, rispetto alla base naturale di Rp, del proiettore
ortogonale su N (X) = R (X ')⊥ .
O SSERVAZIONE 4. Tenuto
( I − X + X) h ∈ N (X).
conto della P 6, qualunque sia h ∈Rp, risulta che
⊥
A sua volta, a = X + y ∈ N (X) e, dunque, ciascuna soluzione del sistema
lineare non omogeneo compatibile Xa = y è della forma
a = X + y + (I − X + X) h .
Nella esposizione precedente abbiamo supposto, per motivi di concretezza, che fosse 0 < r(X) = r < p ≤ n.
I ragionamenti svolti, tuttavia, possono facilmente adattarsi a comprendere i casi seguenti.
O SSERVAZIONE 5.
. Se 0 < r(X) = r = p ≤ n, cioè se X è una matrice di pieno rango per colonne, vale la fattorizzazione X = X I .
Dunque, poiché X e I sostituiscono rispettivamente X e H nella (7), ri-1
sulta X + = (X ' X) X'.
. Se 0 < r(X) = r = n ≤ p, cioè se X è una matrice di pieno rango per righe,
vale la fattorizzazione X = IX.
Quindi, poiché I e X sostituiscono rispettivamente X e H nella (7), risulta
X + = X' (X X')- 1 .
SISTEMI DI EQUAZIONI LINEARI
19
Si noti esplicitmente che, in luogo delle matrici X e H che
compaiono nella (15), avremmo potuto usare le matrici K' e Z', ottenendo
l'espressione
OSSERVAZIONE 6.
X + = Z(Z' Z)- 1 (K K')- 1 K .
1.4
SISTEMI LINEARI NON OMOGENEI INCOMPATIBILI
Supponiamo adesso di trovarsi di fronte a un sistema lineare non omogeneo incompatibile, cioè tale che y ∉ R (X).
In questo caso, il procedimento a cui usualmente si ricorre consiste nel
ricercare soluzioni approssimate, nel senso dei minimi quadrati, del vettore
incognito a.
Formalmente, si tratta di trovare
(16)
min (Xa − y)'(Xa − y) = min (a' X'Xa − 2 y' Xa + y' y)
a ∈Rp
a ∈Rp
e ciò, come è noto, conduce al sistema di equazioni normali
(17)
X' Xa = X 'y
in cui X' X rappresenta la matrice dei coefficienti e X'y è il vettore dei
termini noti.
Vogliamo anzitutto dimostrare che il sistema (17) è equivalente al sistema
(18)
Xa = y
nel quale y rappresenta la proiezione ortogonale di y su R (X).
A questo fine, si osservi intanto che, poiché y ∈ R (X), il vettore y può
essere espresso come combinazione lineare dei vettori colonna di X e ciò
significa che esiste (almeno) un vettore a tale che il sistema (18) risulti
compatibile.
Ma, ogni soluzione del sistema (18) è anche una soluzione del sistema
20
Cap. 1
⊥
(17) in quanto, posto y = y + (y − y) dove (y − y) ∈ R (X) , si ha
{X a = y}
⇒ {X' X a = X ' y}
⇔ {X' X a = X ' y − X' (y − y)} ⇔ {X' X a = X ' y} .
Ora, l'insieme S delle soluzioni del sistema (18) costituisce una varietà
lineare di traslazione a e direzione N (X) (Cfr. il punto 4 dei Complementi al
Cap. IV di Algebra lineare), ovvero S = a + N (X).
Analogamente, l'insieme S delle soluzioni del sistema (17) forma una varietà lineare di traslazione a e direzione N (X' X), ovvero S = a + N (X ' X).
D'altra parte, risultando N (X) = N (X ' X) (Cfr. quanto detto nel corso
della dimostrazione del Teorema 6 del Cap. IV di Algebra lineare), si
conclude subito che S = S e cioè che i sistemi (17) e (18) sono equivalenti.
A questo punto, concentriamo l'attenzione sul sistema (18).
Supposto come in precedenza che sia 0 < r(X) = r < p ≤ n, tale sistema −
e altrettanto accade per il sistema (17) − ammette infinite soluzioni ciascuna delle quali dà luogo a un minimo globale per la funzione obiettivo che
compare nella (16).
Tra queste infinite soluzioni possiamo scegliere quella di minima norma.
Per determinare tale soluzione basta applicare la (14') al sistema (18)
ottenendo
(19)
a = H ' (H H ')- 1 (X' X)- 1 X' y
-1
-1
-1
= H ' (H H ') (X' X) X' X (X' X) X' y
= H ' (H H ')- 1 (X' X)- 1 X' y
= X+y .
Si noti che la soluzione ora indicata è formalmente identica a quella
individuata nel caso di un sistema lineare non omogeneo compatibile (Cfr. la
(14')) in cui a denotava la soluzione di minima norma.
Nel caso che stiamo considerando, invece, a esprime la soluzione di minima norma nell'insieme delle soluzioni dei minimi quadrati.
APPENDICE
21
Cap. 1
APPENDICE
% A è una matrice di ordine (m,q).
% NB(A) produce una matrice N le cui colonne formano
% una base del nucleo di A.
%
function N = nb(A)
[R,jb] = rref(A);
[m,q] = size(A);
r = length(jb);
qmr = q - r;
c = 1:q;
c(jb) = zeros(1,length(jb));
N = zeros(q,qmr);
c = 1:q;
c(jb) = zeros(1,length(jb));
kb = c(find(c));
for j = 1:qmr
N(kb(j),j) = 1;
N(jb,j) = -R(1:r,kb(j));
end
% A è una matrice di ordine (m,q).
% CB(A) produce una matrice C le cui colonne formano
% una base dello spazio generato dai vettori colonna
% di A.
%
function C = cb(A)
[R,jb] = rref(A);
C = A(:,jb);
22
Cap. 1
FATTORIZZAZIONE MEDIANTE VALORI SINGOLARI DI UNA MATRICE E PSEUDOINVERSA
23
Cap. 2
FATTORIZZAZIONE MEDIANTE VALORI SINGOLARI
DI UNA MATRICE E PSEUDOIVERSA
2.1
INTRODUZIONE
Data una matrice X di ordine (n,p) e supposto per concretezza che sia
0 < r(X) = r < p ≤ n, nel Cap. 1 ci siamo ampiamente avvalsi della possibilità di scomporre tale matrice nel prodotto di due matrici: X (di ordine (n,r) e
rango r) e H (di ordine (r,p) e rango r).
Una scomposizione di questo tipo è anche detta fattorizzazione di pieno
rango di X.
Essa non è tuttavia l'unica disponibile e, in questo capitolo, ci proponiamo
di esporre un altro metodo di scomposizione, mostrandone la rilevanza ai fini
di una definizione di pseudoinversa alternativa a quella introdotta nel Cap. 1.
2.2
FATTORIZZAZIONE MEDIANTE VALORI SINGOLARI
Data la matrice X sopra indicata e qualora Rn e Rp siano dotati della
metrica standard (1), il procedimento di scomposizione di X che ci apprestiamo a presentare è sostanzialmente noto (Cfr. il punto 4 dei Complementi
al Cap. VII di Algebra lineare) ma, per ragioni di completezza, conviene qui
riproporlo nelle sue linee essenziali.
(a1) Si consideri anzitutto la matrice (simmetrica) X'X.
(1) In realtà, quanto diremo vale qualunque siano la matrice X e la metrica (euclidea) adottata.
24
Cap. 2
Chiaramente, rispetto alla base naturale di Rp, X'X si può interpretare
come la matrice di una forma bilineare simmetrica tale che la forma quadratica a essa associata è semidefinita positiva (Cfr. il punto 3 (i) dei Complementi al Cap. VI di Algebra lineare).
Pertanto, definita la trasformazione autoaggiunta T1 di Rp la cui matrice,
rispetto alla suddetta base di Rp, è X'X, T1 ammette (Cfr. il paragrafo 8 del
Cap. VII di Algebra lineare):
. r autovalori positivi λ , ... ,λ
1
r
ai quali possiamo associare r autovettori
ortonormali a 1 , ... ,a r ;
. un autovalore nullo di molteplicità p− r a cui possiamo associare p− r
autovettori ortonormali a r+ 1 , ... , a p tali che a r+ h ⊥a k per tutti gli
h = 1, ... , p e k = 1, ... , r.
Posto
D 1 = diag(λ 1 , ... , λ r ) , A 1 = a 1
ar
, A 2 = a r+ 1
ap
risulta dunque
(1)
X'XA1 = A 1 D1 ,
A1' A1 = I (r, r)
e anche
(2)
X'XA2 = O (p -r, p -r) , A 2' A2 = I (p -r, p -r) .
Inoltre, dalla prima delle eguaglianze in (2), premoltiplicando ambo i
membri per A2' , si ottiene
A2' X'XA2 = O (p -r, p -r)
da cui
(3)
XA2 = O (n , p -r) .
(a2) Si consideri adesso la matrice (simmetrica) XX'.
FATTORIZZAZIONE MEDIANTE VALORI SINGOLARI DI UNA MATRICE E PSEUDOINVERSA
25
Ovviamente, rispetto alla base naturale di Rn, XX' si può interpretare
come la matrice di una forma bilineare simmetrica tale che la forma quadratica a essa associata è semidefinita positiva (Cfr. il punto 3 (ii) dei Complementi al Cap. VI di Algebra lineare).
Quindi, definita la trasformazione autoaggiunta T2 di Rn la cui matrice,
rispetto alla suddetta base di Rn, è XX', T2 ammette (Cfr. il paragrafo 8 del
Cap. VII di Algebra lineare):
. r autovalori positivi μ , ... ,μ
1
r
ai quali possiamo associare r autovettori
ortonormali b1 , ... ,br ;
. un autovalore nullo di molteplicità n− r a cui possiamo associare n− r
autovettori ortonormali br+ 1 , ... , bn tali che br+ j ⊥bh per ogni j = 1, ... , n
e k = 1, ... , r.
Osservato che T1 e T2 hanno i medesimi autovalori positivi (Cfr. il punto 4
dei Complementi al Cap. V di Algebra lineare) e posto
B 1 = b1
br
, B 2 = br+ 1
bn
risulta dunque
(4)
XX'B 1 = B 1 D1 ,
B1' B 1 = I (r, r)
e anche
(5)
XX'B 2 = O (n -r, n -r) , B '2 B 2 = I (n -r, n -r) .
Inoltre, dalla prima delle eguaglianze in (5), premoltiplicando ambo i
membri per B 2' , si ottiene
B 2' XX'B 2 = O (n -r, n -r) .
da cui
(6)
X'B 2 = O (p , n -r) .
26
Cap. 2
(a3) A parziale completamento di quanto fin qui detto, vogliamo anzitutto
dimostrare che tra le matrici A1 e B 1 sopra definite sussistono le relazioni
B 1 = XA1 D -1
1
(7)
2
2
, A 1 = X'B 1 D -1
.
1
Infatti, poiché
X'XA1 = A 1 D 1 ,
2
premoltiplicando ambo i membri per X e postmoltiplicando per D -1
, si ha
1
2
2
2
XX'(X A1D -1
) = X A1D 1D -1
= (X A1D -1
) D1
1
1
1
e la prima delle relazioni in (7) risulta dimostrata.
Analogamente, poiché
XX'B 1 = B 1 D 1 ,
2
premoltiplicando ambo i membri per X' e postmoltiplicando per D -1
, si ha
1
2
2
2
X'X(X 'B 1D -1
) = X 'B 1D 1D -1
= (X 'B 1D -1
) D1
1
1
1
e anche la seconda delle relazioni in (7) è dimostrata.
Infine, considerata nuovamente la prima delle relazioni in (7) e la (1),
risulta
(8)
2
2
2
B 1' XA1 = D -1
A1' X'XA1 = D -1
A1' A1 D 1 = D -1
D 1 = D 11 2 .
1
1
1
(a4) Tenuto conto di quanto precede, siamo adesso in grado di pervenire
rapidamente alla desiderata scomposizione della matrice X.
In effetti, posto
1
1
1 2
S = diag( s 1 , ... , s r ) = diag (λ 1 2 , ... , λ r 2) = D 1
dove s 1 , ... , s r indicano i cosiddetti valori singolari di X e
FATTORIZZAZIONE MEDIANTE VALORI SINGOLARI DI UNA MATRICE E PSEUDOINVERSA
27
A = [ A1 A2 ] , B = [ B 1 B 2 ]
si verifica immediatamente che
(9) B' X A =
B '1
X A1 A2 = B 1' X A1
B '2
B 2' X A1
B 1' X A2 = S
O (r, p -r)
O (n -r, r) O (n -r, p -r)
B 2' X A2
da cui, essendo B' = B -1 e A' = A- 1, si ottiene
(10)
O (r, p -r) A'
X=B S
O (n -r, r) O (n -r, p -r)
e anche
(11)
X = B 1 S A1' .
La (10) e la (11) sono dette, rispettivamente, fattorizzazione piena e
ridotta di X mediante valori singolari.
Si noti che, mentre i valori singolari s 1 , ... , s r di X sono
univocamente determinati, ciò non accade per i vettori colonna delle matrici
A e B sopra definite.
In effetti, autovettori associati ad autovalori semplici sono univocamente
determinati a meno del segno, mentre autovettori associati a un autovalore
di molteplicità maggiore di uno sono determinati a meno di postmoltiplicazione per una matrice ortogonale (Cfr. l'Osservazione 6 del Cap. VII di
Algebra lineare).
O SSERVAZIONE 1.
In Matlab, la funzione SVD (acronimo di Singular Value
Decomposition), con le sue varie opzioni, consente di ottenere la fattorizzazione di una matrice mediante valori singolari (2).
O SSERVAZIONE 2.
(2) Si avverte tuttavia che la simbologia usata in Matlab differisce da quella che abbiamo
introdotto.
28
Cap. 2
E SEMPIO 1.
Considerata la matrice
1
X= 0
1
0
2
1
0
1
3
1
1
1
di rango pari a 2, risulta
S = 4.3264 0
0
1.1323
0.2563 −0.7752 | 0.5774
A = 0.5432 0.6096 | 0.5774
0.7995 −0.1657 | −0.5774
2.3
0.8648 −0.0469 | 0.4714 −0.1667
0.3104
0.3920 | −0.7071 −0.5000 .
,B=
0.2440 −0.8309 | −0.4714 0.1667
0.3104 0.3920 | −0.2357 0.8333
PSEUDOINVERSA
Le utilizzazioni del procedimento di fattorizzazione di una matrice X
mediante valori singolari sono pressoché innumerevoli.
Una di queste riguarda la definizione di pseudoinversa di X, alternativa a
quella presentata nel Cap. 1, con una immediata ricaduta sulla questione
della ricerca delle soluzioni di un sistema di equazioni lineari, sia esso
compatibile o incompatibile.
Prima di affrontare l'argomento, conviene tuttavia mostrare, ricollegandosi
a quanto detto nel Cap. 1 a proposito dei sottospazi fondamentali R (X'),
N (X) , R (X), N (X') associati a X, che i vettori colonna delle matrici A1 ,
A2 ,B 1 ,B 2 rappresentano basi ortonormali di tali sottospazi.
In effetti, è anzitutto evidente, tenuto conto della (3) e della (6), che i
vettori colonna di A2 e B 2 costituiscono basi ortonormali, rispettivamente, di
N (X) e N (X').
Inoltre, poiché R (X') è formato da tutti i vettori della forma z = X 'a
ottenuti facendo variare a in Rn, in considerazione della (11), si riconosce
immediatamente che i vettori colonna di A1 costituiscono una base ortonor-
FATTORIZZAZIONE MEDIANTE VALORI SINGOLARI DI UNA MATRICE E PSEUDOINVERSA
29
male di R (X').
Infine, essendo R (X) è formato da tutti i vettori della forma y = Xb ottenuti facendo variare b in Rp, sempre per la (11), è subito visto che i vettori
colonna di B 1 costituiscono una base ortonormale di R (X).
Quanto ora detto è riassunto nella Tav. 1 che segue, analoga alla corrispondente Tav. 1 del Cap. 1.
Tav. 1 - Sottospazi fondamentali e matrici i cui vettori colonna formano basi
Sottospazi
Matrici
N (X) = R (X ')⊥
A2
R (X') = N (X)⊥
A1
N (X') = R (X)⊥
B2
R (X) = N (X ')⊥
B1
Ciò premesso, riprendiamo la definizione di pseudoinversa di X data nella
(15) del Cap. 1.
Posto X = B 1 e H = S A1' , si ha
(12)
X + = H ' (H H ')- 1 (X' X)- 1 X'
= A 1 S (S A1' A1 S) - 1 (B 1' B 1 ) - 1 B 1'
= A 1 S S - 2 B '1
= A 1 S - 1 B '1
e questa costituisce una definizione alternativa di pseudoinversa di X ottenuta attraverso la fattorizzazione di X mediante valori singolari.
O SSERVAZIONE 3.
Un'ovvia variante della (12) è data dall'espressione
-1
O (r, n -r)
X(p+ , n ) = A S
B' .
O (p - r, r) O (p - r, n - r)
In Matlab, la funzione PINV calcola la pseudoinversa di
una matrice attraverso il procedimento ora descritto, ritenuto maggiormente
O SSERVAZIONE 4.
30
Cap. 2
affidabile, dal punto di vista numerico, di quello basata sulla fattorizzazione
di pieno rango.
ESEMPIO 2.
Considerato nuovamente l'Esempio 1 − poiché
0.8648 −0.0469
, B 1 = 0.3104 0.3920
0.2440 −0.8309
0.3104 0.3920
0.2563 −0.7752
S = 4.3264 0
, A 1 = 0.5432 0.6096
0
1.1323
0.7995 −0.1657
− in applicazione della (12) si ottiene
0.2563 −0.7752
X + = 0.5432 0.6096
0.7995 −0.1657
-1
4.3264 0
0
1.1323
0.083 −0.250 0.583 −0.250
= 0.083 0.250 −0.416 0.250 .
0.166
0 0.166
0
0.8648 −0.0469 '
0.3104 0.3920
0.2440 −0.8309
0.3104 0.3920
FATTORIZZAZIONE QR DI UNA MATRICE E MINIMI QUADRATI
31
Cap. 3
FATTORIZZAZIONE QR DI UNA MATRICE
E MINIMI QUADRATI
3.1
INTRODUZIONE
Data una matrice X di ordine (n,p), supponiamo che questa abbia pieno
rango per colonne, ovvero che sia 0 < r(X) = p ≤ n.
In questo capitolo, ci proponiamo anzitutto di esporre un procedimento di
scomposizione di tale matrice nel prodotto di due matrici, dotate di particolari caratteristiche.
Successivamente, vedremo una applicazione del procedimento in questione al problema della determinazione del vettore incognito dei coefficienti di
un sistema di equazioni lineari non omogeneo incompatibile attraverso il
metodo dei minimi quadrati.
3.2
FATTORIZZAZIONE QR
Data la matrice X di cui sopra e posto che Rn sia dotato della metrica
standard
(1)
, possiamo applicare il classico processo di ortonormalizzazione
di Gram-Schmidt (Cfr. le sezioni 2.3 e 5.4 del Cap. VII di Algebra lineare)
ai vettori colonna x 1 , ... ,x p che compogono X ottenendo i vettori ortonormali
q 1 , ... ,q p .
Nel dettaglio, il processo in questione conduce a definire i vettori ortogonali
(1) In realtà, quanto diremo vale qualunque sia la metrica (euclidea) adottata.
32
Cap. 3
y1 = x1
y 2 = x 2 − x 1 (x 1' x 1 ) -1 x 1' x 2
yp = xp − x1
x p -1 ( x 1
x p -1 ' x 1
x p -1 ) -1 x 1
x p -1 ' x p
e da questi i vettori ortonormali
q1 =
y1
y 1' y 1
, q2 =
y2
y 2' y 2
, ... , q p =
yp
.
y p' y p
Ciò premesso, indichiamo con Q la matrice di ordine (n,p) i cui vettori
colonna sono q 1 , ... ,q p e con R la matrice (invertibile) di ordine (p,p) del
passaggio dalla base costituita da x 1 , ... ,x p alla base ortonormale formata
da q 1 , ... ,q p .
Ovviamente, risulta
(1)
X = QR .
La (1) riceve la denominazione di fattorizzazione QR ridotta di X.
Si noti che, essendo (Q' Q = I (p , p ))
R = (Q'Q)- 1 Q' X = Q' X ,
R ha una struttura particolare (triangolare superiore) in quanto, dato che
per costruzione q i ⊥x j per ogni i , j = 1, ... , p e i > j, gli elementi al disotto
della diagonale principale sono tutti nulli.
Si osservi anche che, a meno che sia p = n, Q non è una matrice ortogonale.
Supponiamo tuttavia di estendere, in un modo qualsiasi, la base di R (X)
formata da x 1 , ... ,x p a una base di Rn costituita da x 1 , ... ,x p ,x p + 1 , ... , x n (Cfr.
il Teorema 8 del Cap. I di Algebra lineare).
Applicando il suddetto processo di ortonormalizzazione di Gram-Schmidt
a x 1 , ... ,x p ,x p + 1 , ... , x n , si ottengono i vettori ortonormali q 1 , ... ,q p ,
FATTORIZZAZIONE QR DI UNA MATRICE E MINIMI QUADRATI
33
q p + 1 , ... , q n che possiamo scrivere come vettori colonna di una matrice Q
ortogonale di ordine (n,n).
Posto
Q = Q Q1
, R=
R
O (n -p , p)
è chiaro che
X = QR .
(2)
La (2) riceve la denominazione di fattorizzazione QR piena di X.
ESEMPIO 1.
Si consideri la matrice
1 1
X= 1 0
1 1
di rango pari a 2.
Applicando il processo di ortonormalizzazione di Gram-Schimidt ai due
vettori colonna x 1 ,x 2 che compongono X, si verifica facilmente che
1
y1 = 1
1
1
3
, y2 = − 2
3
1
3
, q1 =
1
3
1
3
1
3
1
6
2
, q2 = −
6
1
6
e, quindi, le matrici che entrano nella fattorizzazione QR ridotta di X sono
Q=
1
1
3
6
1 − 2
3
6
1
1
3
6
1
1
3
, R= 3
1 − 2
6
6
1
3
1
6
1 1
1 0 =
1 1
3
0
2
3
2
3
.
34
Cap. 3
Aggiungendo poi ai due vettori colonna x 1 ,x 2 della matrice X di cui sopra
un terzo vettore colonna
0
x3 = 1
1
in modo da ottenere una base di R3, ripetendo il processo di ortonormalizzazione di Gram-Schimidt ai tre vettori colonna x 1 ,x 2 ,x 3 che compongono la nuova matrice X x 3 si perviene alle matrici
Q=
1
1
2
2
3
6
1 − 2
0
3
6
1
1 − 2
3
6 2
3
, R=
0
0
2
3
2
3
0
che entrano nella fattorizzazione QR piena di X.
3.3
MINIMI QUADRATI
Supponiamo adesso di trovarsi di fronte a un sistema di equazioni lineari
non omogeneo incompatibile.
In questo caso, il procedimento a cui usualmente si ricorre consiste nel
ricercare soluzioni approssimate, nel senso dei minimi quadrati, del vettore
incognito dei coefficienti.
Con le notazioni introdotte nel Cap. 1 e sempre nell'ipotesi che Rn sia
dotato della metrica standard, si tratta di trovare
(3)
min (Xa − y)'(Xa − y) = min (a' X'Xa − 2 y' Xa + y' y)
a ∈Rp
a ∈Rp
e ciò, come è noto, conduce al sistema di equazioni normali
(4)
X' Xa = X 'y
FATTORIZZAZIONE QR DI UNA MATRICE E MINIMI QUADRATI
35
in cui X' X rappresenta la matrice dei coefficienti e X'y è il vettore dei
termini noti.
Poiché abbiamo supposto che X sia di pieno rango per colonne, il sistema
(4) ammette una soluzione (unica) data da
a = (X ' X) -1 X'y .
(5)
Senonché, l'inversione della matrice X' X può essere assai onerosa dal
punto di vista computazionale (2).
Nell'intento di far fronte alla difficoltà ora accennata o quantomeno di alleviarne l'impatto, si può ricorrere al procedimento di fattorizzazione QR
ridotta della matrice X.
In tal caso, tenuta presente la (1), si riconosce subito che
-1
a = R Q' y
(5')
dove la matrice R, essendo triangolare superiore, risulta più facilmente invertibile.
ESEMPIO 2.
Riprendendo l'Esempio 1 e posto
3
y= 1 ,
2
risulta
a=
3
0
2
3
2
3
-1
1
1 '
3
6
3
1 − 2
1 =
3
6
2
1
1
3
6
1 − 2
3
3
3
0
2
1
1
3
3
1 − 2
6
6
1
3
1
6
1
3
=
.
1
3
2
2
(2) Inoltre, se si lavora con un numero finito di decimali, sussiste il pericolo di introdurre errori che
falsino il risultato.
36
Cap. 3
SPAZIO DUALE DI R p
37
Cap. 4
SPAZIO DUALE DI Rp
4.1
INTRODUZIONE
Riguardato R come uno spazio vettoriale su se stesso (di dimensione
pari a 1), ha senso considerare lo spazio vettoriale costituito dalle trasformazioni lineari di Rp in R.
Questo spazio vettoriale − vale a dire, Hom(R p, R) − riceve la denominazione spazio duale di Rp, e risulta (Cfr. il punto 6 dei Complementi al
Cap. V di Algebra lineare)
dim(Hom(R p, R)) = 1.p = p = dim(R p) .
Lo spazio duale di Rp è solitamente indicato con Rp * e i suoi elementi
sono detti forme (funzionali) lineari su Rp.
Quindi, una forma lineare su Rp è una funzione f che associa a ciascun
vettore x∈Rp un numero reale f(x) − chiamato immagine di x − in modo tale
che siano soddisfatte le proprietà seguenti (x 1 ,x 2 ∈Rp; a∈R):
(i)
f (x 1 + x 2 ) = f (x 1) + f (x 2 )
(ii) f ( ax 1 )
ESEMPIO 1.
= a f(x 1 ) .
La funzione f definita ponendo, per ogni x ∈ R2,
f(x) = 1 2
x1
x2
è, come subito si verifica, una forma lineare su R2.
38
Cap. 4
Dati t vettori x 1 , ... , x t appartenenti a Rp e t numeri reali
a 1 , ... , a t , qualunque sia la forma lineare f su Rp, risulta
O SSERVAZIONE 1.
f( a 1 x 1 + ... + a t x t) = a 1 f(x 1 ) + ... + a t f(x t) .
Qualunque sia la forma lineare f su Rp, l'immagine del vettore nullo di Rp è il numero reale 0.
OSSERVAZIONE 2.
La funzione che associa a ogni x∈Rp il numero reale 0 è
una forma lineare su Rp (forma lineare nulla).
O SSERVAZIONE 3.
4.2
FORME LINEARI E BASI
4.2.1 Supponiamo che le basi prescelte di Rp e R siano formate, rispettivamente, da p vettori x 1 , ... , x p e dal numero 1 (base naturale di R).
Data una forma lineare f su Rp, sia
f(x 1 )
f (x p ) = t 1
tp = t'
il vettore riga costituito dalle immagini di x 1 , ... , x p mediante f.
Allora, per ogni
x = a 1 x 1 + ... + a p x p = x 1
a1
xp
ap
= Xa ∈Rp ,
tenuto conto dell'Osservazione 1, si ha che
(1)
f(x) = f ( a 1 x 1 + ... + a p x p ) = a 1 f(x 1 ) + ... + a p f(x p )
a1
a1
= f(x 1 )
f (x p )
= t1
tp
= t'a .
ap
ap
Per mezzo della (1), l'immagine f(x) di x risulta dunque espressa in funzione del vettore coordinato a di x e del vettore riga t '.
Quest'ultimo vettore riga, univocamente associato alla forma lineare f su
SPAZIO DUALE DI R p
39
Rp e alle suddette basi di Rp e R, riceve la denominazione di vettore riga
rappresentativo di f rispetto a tali basi.
Rispetto alle basi naturali di R2 e R, il vettore riga rappresentativo della forma lineare f su R2 di cui all'Esempio 1 è
E SEMPIO 2.
t' = 1 2 .
Invece, rispetto alla base di R2 formata dai vettori
x1 = 1
1
, x2 = 2
1
e alla base naturale di R − risultando
f(x 1) = 3 , f (x 2) = 4
− il vettore riga rappresentativo della stessa forma lineare f è
t' = 3 4 .
4.2.2 Supponiamo, come in precedenza, che le basi prescelte di Rp e R
siano formate, rispettivamente, da p vettori x 1 , ... , x p e dal numero 1.
Scelto arbitrariamente il vettore riga
t1
tp = t' ,
per ogni
x = a 1 x 1 + ... + a p x p = x 1
a1
xp
ap
= Xa ∈Rp ,
si definisca la funzione f ponendo
a1
(2)
f(x) = t 1
= t'a .
tp
ap
40
Cap. 4
Si riconosce subito che, rispetto alle suddette basi di Rp e R, f è una forma
lineare su Rp univocamente associata al vettore riga t ' − tale che
f(x 1 )
f (x p ) = t 1
tp = t'
− e che il vettore riga rappresentativo di f rispetto a tali basi è t '.
Tenuto conto di quanto mostrato in questa e nella sezione
precedente, possiamo affermare che esiste una corrispondenza biunivoca,
dipendente dalle basi prescelte di Rp e R, tra l'insieme delle forme lineari su
Rp e l'insieme dei vettori riga di ordine p.
O SSERVAZIONE 4.
4.2.3 Come si è visto − nell'ipotesi che le basi prescelte di Rp e R siano
formate, rispettivamente, da p vettori x 1 , ... , x p e dal numero 1 − una forma
lineare f su Rp risulta definita ponendo, per ogni x = Xa ∈Rp, f(x) = t ' a .
Ferma restando la base di R (1), consideriamo una nuova base di Rp formata da p vettori x 1 , ... , x p .
Posto X = x 1
x p = XA, domandiamoci come si trasformano a e t '.
Ovviamente, a si trasforma in a = A- 1 a .
A sua volta, t ', dovendo sussistere la relazione
f(x) = t ' a = t ' A A- 1 a ,
si trasforma in t ' = t ' A.
Si usa esprimere questo diverso comportamento di a e t ', in risposta a un
cambiamento della base iniziale di Rp, dicendo che a si trasforma per controvarianza e t ' per covarianza.
E SEMPIO 3.
Rispetto alla base di R2 formata dai vettori
x1 = 1
1
, x2 = 2
1
sia
(1) A tale ipotesi ci atterremo anche nel seguito.
SPAZIO DUALE DI R p
41
t' = 3 4
il vettore riga rappresentativo di una forma lineare f su R2.
Rispetto alla base di R2 formata dai vettori
x1 = 3
2
, x2 = 2
1
− risultando
A= 1 0
1 1
− il vettore riga rappresentativo della stessa forma lineare f è
1 0 = 7 4 .
1 1
t' = 3 4
4.3
BASE DUALE
4.3.1 Supponiamo, come in precedenza, che X sia la matrice i cui vettori
colonna x 1 , ... , x p formano la base prescelta di Rp.
Posto
t 1'
X =
-1
,
t p'
in vista di quanto detto nella sezione 4.2.2, a t '1 , ... , t 'p possiamo univocamente associare le p forme lineari f1 , ... , f p su Rp tali che
f1 (x 1 )
f 1 (x p ) = t '1 x 1
xp = 1
0
f p (x 1 )
f p (x p ) = t p' x 1
xp = 0
1
(3)
ovvero tali che, per ogni
42
Cap. 4
a1
x = a 1 x 1 + ... + a p x p = x 1
xp
ap
= Xa ∈Rp ,
risulta
f 1 (x) = t '1 x 1
xp a = 1
0 a = a1
f p (x) = t 'p x 1
xp a = 0
1 a = ap .
(4)
Ciò premesso, considerata una forma lineare f su Rp definita ponendo, per
ogni x = Xa ∈Rp, f(x) = t ' a , possiamo scrivere
a1
f(x) = t ' a = t '
(5)
f 1 (x)
= t'
ap
.
f p (x)
In altri termini, f risulta esprimibile in modo univoco come combinazione
lineare delle p forme lineari f1 , ... , f p su Rp con coefficienti dati dagli elementi
del vettore riga t ' , ossia che
f1
f = t'
(6)
.
fp
Pertanto, f1 , ... , f p costituiscono una base di Rp * (Cfr. il punto 6 dei Complementi al Cap. V di Algebra lineare), detta base duale della base di Rp
formata da x 1 , ... , x p .
ESEMPIO 4.
Supponiamo che la base di R2 sia formata dai vettori
x1 = 1
1
, x2 = 2 .
1
Considerata la matrice X i cui vettori colonna costituiscono la suddetta
base di R2, sia
SPAZIO DUALE DI R p
43
X -1 =
1 −2 = t 1' .
−1 1
t '2
Allora, per ogni
x = a1 x1 + a 2 x2 = x1 x2
a1
= Xa ∈R2 ,
a2
la base duale di x 1 , x 2 è costituita dalle forme lineari f1 , f 2 su R2 definite
ponendo
f1 (x) = t '1 a =
a 1 = a − 2a
1
2
a2
1 −2
f2 (x) = t '2 a = −1
a 1 = −a + a .
1
2
a2
1
4.3.2 Supponiamo che X sia la matrice i cui vettori colonna x 1 , ... , x p formano una nuova base di Rp.
Posto
t 1'
X =
-1
,
t p'
con un ragionamento analogo a quello svolto nella sezione precedente,
possiamo univocamente associare a t1 , ... , tp le p forme lineari f 1 , ... , f p le
quali costituiscono la base duale della base di Rp formata da x 1 , ... , x p .
Si noti adesso che, poiché la relazione che intercorre tra la matrice X i cui
vettori colonna formano la base inizialmente prescelta di Rp e la matrice X
qui considerata è del tipo X = XA, risulta che
X -1 = A -1 X -1 ,
da cui si deduce subito che
44
Cap. 4
f1
fp
4.4
f1
= A -1
(7)
.
fp
ISOMORFISMO CANONICO TRA Rp E IL SUO DUALE
Supponiamo che Rp sia munito della metrica (euclidea) rappresentata,
rispetto alla base di Rp formata da p vettori x 1 , ... , x p (vettori colonna di X),
da una matrice Q.
Fissato il vettore y = Xb ∈Rp, possiamo univocamente associare a b il
vettore riga t ' = b'Q, rappresentativo della forma lineare f su Rp definita
ponendo, per ogni x = Xa ∈Rp,
(8)
f(x) = t ' a = b'Qa .
Reciprocamente, dato il vettore riga t ', rappresentativo della forma lineare
f su Rp definita ponendo, per ogni x = Xa ∈Rp, f(x) = t ' a , possiamo univocamente associare a t ' il vettore b = Q -1 t tale che
(9)
b'Qa = t ' Q -1 Qa = t ' a = f (x) .
Si può facilmente verificare che la corrispondenza biunivoca ora indicata
tra vettori appartenenti a Rp e forme lineari su Rp, ottenuta mediante la
introduzione di una metrica, non dipende dalla base prescelta di Rp, ovvero
costituisce un isomorfismo canonico tra Rp e Rp *.