Metodi Matematici per l’Ingegneria - Prof. M. Caprili
CAPITOLO 0
RICHIAMI DI ALGEBRA LINEARE
E
NOZIONI PRELIMINARI
1
Metodi Matematici per l’Ingegneria - Prof. M. Caprili
Richiami di algebra lineare
Dato un insieme S ed un campo di scalari K, si dice che S è uno spazio vettoriale (o lineare) su K se
in S sono definite due funzioni: una detta addizione che ad ogni (x,y)SS associa un elemento
x+yS e l’altra la moltiplicazione per uno scalare  che ad (,x)KS associa l’elemento xS,
soddisfacenti le proprietà:
xyyx
(x  y)  z  x  (y  z)
0  S: x+ 0=x
, x  S
x -x: x+(-x)= 0
α(βx)=(αβ) x
α(x+y)=αx+ αy
1x=x
,
x  S
Diremo che gli elementi x 1 , x 2 ,..., x n di S sono linearmente indipendenti se
n
 x
i 1
i
i
 0 , i  K ,
implica  1   2 ...   n  0 .
Un insieme {bi} di elementi di S linearmente indipendenti è detto una base di S se ogni xS può
essere rappresentato come
m
x   i bi
i 1
in modo univoco.
La cardinalità dell’insieme {bi} è la dimensione di S, che può essere finita come in Rn ma anche
infinita come nel caso delle funzioni continue in [a,b].
Un insieme Q di elementi di S è un sottospazio se x,yQ  x+yQ e se K  xQ. In altre
parole Q è di per sè uno spazio vettoriale come, ad esempio, il sottoinsieme delle funzioni continue
costituito dall’insieme dei polinomi di grado minore o uguale ad n.
Preso un vettore aS e un sottospazio Q non contenente a, l’insieme {x=a+y, yQ} si dice
sottospazio affine.
Una trasformazione T tra due spazi vettoriali S e V tale che T(x+y)=T(x)+T(y) e T(x)=T(x) è
detta applicazione lineare; se S=V si dice che T è una operatore lineare. Se V=R (numeri reali) T è
un funzionale lineare su S. L’insieme S’ di tutti i funzionali lineari su S è detto spazio duale di S.
Si definisce nucleo di T l’insieme (T)=T-1(0) ossia {xS: T(x)=0} e rango di T la dimensione
dell’immagine di S tramite T, cioè rango(T)=dimT(S).
L’indicazione L (S,V) rappresenta lo spazio vettoriale delle applicazioni lineari da S in V.
Uno spazio vettoriale si dice normato se in esso è definita un’applicazione N da S in R+ detta
norma, di valore x , soddisfacente alle proprietà:
2
Metodi Matematici per l’Ingegneria - Prof. M. Caprili
x  0,
x  0
x 0 
x0
x   x
xy  x  y
.
Ponendo d( x, y)  x  y si introduce in S una metrica, cioè un’applicazione SxS in R,
soddisfacenti le proprietà : d(x,y)=d(y,x), d(x,y)d(x,z)+d(y,z), d(x,y)=0 se e solo se x=y.
Esempi di norme in Rn
1
n
x
2
 (  x 2i ) 2
i 1
n
x 1   xi
i 1
x

 max x i
1 i  n
e in C([a,b]):
y( t )  max y( t )
at b
.
Si dice che la successione {xn} converge ad x se
lim x n  x  0
n
.
In particolare essendo
x  y  xy
segue che
lim x n  x
n
implica
lim x n  x
n 
e quindi la continuità della norma.
Uno spazio vettoriale normato è detto completo se ogni successione di Cauchy è ivi convergente.
Un tale spazio è chiamato di Banach. Quindi in uno spazio di Banach, se
lim x n  p  x n  0
n , p
allora, esiste un xS, tale che
3
Metodi Matematici per l’Ingegneria - Prof. M. Caprili
lim x  x n  0
.
n 
Se S e V sono spazi normati e T una trasformazione lineare da S in V allora, essa è continua se e
solo se è limitata. Un'applicazione è limitata se esiste un M>0 tale che Tx  M x , x  S .
L’insieme delle trasformazioni lineari continue da S in V è uno spazio vettoriale la cui norma è
definita da
T  sup
x 0
Tx
x
V
 sup Tx
S
x 1
V
 sup Tx
x 1
.
V
Questo spazio normato è indicato con L (S,V) ed è uno spazio di Banach se V è uno spazio di
Banach.
Nel caso che V=R allora L (S,R) è lo spazio dei funzionali lineari continui su S detto spazio duale o
coniugato di S.
Prodotto scalare
Sia S uno spazio vettoriale nel campo C (numeri complessi). Un’applicazione f da SS in C è una
forma hermitiana se
f ( x  x' , y )  f ( x , y )  f ( x' , y )
f ( x , y  y' )  f ( x , y )  f ( x , y' )
f ( x , y )   f ( x , y )
f ( x , y )   f ( x , y )
f ( x , y )  f ( y,x )
Considerando uno spazio vettoriale di dimensione finita con base e1, e2,…, en, la forma f è
completamente definita dai valori aij=f(ei , ej ) , i,j=1,2,…,n , ossia dalla matrice hermitiana A={aij }
Infatti, presi
n
x    i ei
i 1
n
y   j e j
j1
si ha
n
 n
 n
f ( x , y )  f   i ei ,   j e j    a iji  j
j1
 i1
 i ,j1
Una forma hermitiana è semidefinita positiva se
f(x,x)0
,
4
 xS
.
Metodi Matematici per l’Ingegneria - Prof. M. Caprili
mentre, è definita positiva se
f(x,x)>0
 xS ,
,
x0
.
Se f è definita positiva valgono la disuguaglianza di Cauchy-Schwartz
f ( x , y )  f ( x ,x ) f ( y, y )
2
e la disuguaglianza di Minkowski
f ( x  y, x  y)  f ( x, x)  f ( y, y) .
Uno spazio vettoriale S in cui esiste una forma hermitiana definita positiva è detto spazio prehilbertiano e f(x,y) è un prodotto scalare, indicato brevemente con il simbolo
(x,y)= f(x,y).
Se (x,y)=0, allora x e y sono detti ortogonali.
Uno spazio pre-hilbertiano può essere normato con
x  ( x, x)
.
Uno spazio pre-hilbertiano che risulti completo rispetto a questa norma è detto spazio di Hilbert.
Esempi di spazi di Hilbert
n
1. Rn : (x,y)=  x i yi
e
x 
i 1
i 1
x
i 1
n
2. Cn : (x,y)=  x i yi
n
e
x 
2
i
n
x
i 1
2
i
b
3. Insieme delle funzioni reali a quadrato integrabili ; cioè l'insieme L2[a, b]  {f :  f (x)2 dx  }
a
dove il prodotto scalare è definito da
b
( f , g)   f ( x)g( x)dx
a
e la norma vale
b
f 
f
2
( x )dx
a
Un insieme di vettori costituisce un sistema ortonormale se sono a due a due ortogonali e di norma
unitaria.
5
Metodi Matematici per l’Ingegneria - Prof. M. Caprili
Uno spazio vettoriale di dimensione finita possiede una base ortonormale {ei} che può essere
generata da una qualunque base {ui} mediante il seguente procedimento di ortonormalizzazione di
Gram-Schmidt
v 1  u1 ,
v1
v1
e1 
i

u i1 ,e j e j
v

u


i 1
 i1
j1


e  v i1 ,
i  1,..., n  1
 i1 v i1
.
Se S è uno spazio di Hilbert e {en} un sistema ortonormale infinito numerabile allora la serie di
Fourier

c
k 1
k
ek
è convergente se e solo se

c
k 1
2
k
 
.
In tal caso, detto x l’elemento a cui la serie converge, i coefficienti ck ovviamente, valgono
c k  ( x, e k )
e sono detti appunto, coefficienti di Fourier.
Polinomi ortogonali
Consideriamo l’insieme delle funzioni f(x) reali e tali che
b
 p( x) f ( x)
2
dx  
a
dove p(x) è una funzione positiva e integrabile su [a,b] detta funzione peso.
Tale insieme indicato con L(2p ) [a, b] è uno spazio di Hilbert con prodotto scalare definito da
b
( f , g)   p( x) f ( x)g( x) dx
a
Esempio Sia [a,b]=[0,2] e p(x)=1.
La famiglia di funzioni
6
.
Metodi Matematici per l’Ingegneria - Prof. M. Caprili
1
1
1
1
1
,
cos t ,
sen t ,
cos 2 t ,
sen 2 t , ...
2




costituisce un sistema ortonormale in L 2 [0,2 ] . Il sistema è completo e quindi ogni funzione in
L 2 [0,2 ] è rappresentabile tramite la serie di Fourier:
(*)
f (t) 

a0
cos nt
sen nt
  (a n
 bn
)
 n 1


dove
an 
1

bn 
1

2
 f t  cos nt  dt ,
n0
0
2
 f t  sen nt  dt
n 1
0
L'uguaglianza (*) non va intesa nel senso puntuale, ossia non è detto che la serie di Fourier converga
puntualmente a f(t). Infatti, la convergenza è nella norma indotta dal prodotto scalare in L2[0,2] ,
cioè si ha:
2
lim 
k 
0
2
k
cos nt
sen nt
f ( t )   (a n
 bn
) dt  0


n0
o come suol dirsi la serie converge in media a f(t).
Tuttavia, se la f(t) è continua in [0,2], f(0)=f(2) e la sua derivata è continua eccetto in un numero
finito di punti allora, la serie di Fourier converge uniformemente a f(t).
Esempio [a,b]=[-1,1], p(x)=1
La famiglia dei polinomi di Legendre definiti per ricorrenza dalle formule
P0 ( x )  1
P1 ( x )  x
Pn 1 ( x ) 
2n  1
n
x Pn ( x ) 
Pn 1 ( x ),
n 1
n 1
costituisce un sistema ortogonale completo in L2 ([-1,1]).
Vale anche
1
dn
2
n
Pn ( x) 
n 
n ( x  1)
n! 2 dx
Esempio [a,b]=[0,+], p(x)=e-x
La famiglia dei polinomi di Laguerre
7
.
n  1, 2 ,...
Metodi Matematici per l’Ingegneria - Prof. M. Caprili
L0 ( x )  1
L1 ( x )   x  1
Ln ( x ) 
2n  x  1
n 1
L n 1 x  
L n 2 x ,
n
n
n  1, 2 ,...
costituisce un sistema ortogonale completo su L(2e ) [0,] .
Vale anche
x
d n x n
n e
L n ( x)  ( 1)

(e x )
n! dx n
x
Esempio [a,b]=(-,+), p(x)= e  x
La famiglia di polinomi di Hermite
2
H0( x )  1
H 1 ( x )  2x
H n ( x )  2x H n 1 ( x )  2( n  1 )H n 2 ( x ),
costituisce un sistema ortogonale completo su L( e
Vale poi
 x2
)
n  1, 2 ,...
( ,) .
d n  x2
H n ( x)  ( 1) e  n e
dx
n
x2
1
2 2
Esempio [a,b]=[-1,1], p(x)= (1  x ) .
La famiglia dei polinomi di Chebyshev
To ( x )  1
T1 ( x )  x
Tn ( x )  2 x Tn 1 x   Tn 2 x ,

n  1, 2 ,...
1
2
è un sistema ortogonale completo su L((21 x) ) [ 11
, ].
Si osservi che Tn(x) è definito anche da
Tn x   cosn arccos x 
ed ha come radici i valori
x k  cos[

(2 k  1)] ,
2n
x   1,1
k=1,2,…,n.
Si dimostra nel capitolo 5 che un polinomio ortogonale di grado j, ha j radici reali e distinte
appartenenti al proprio intervello di ortogonalizzazione.
Ovviamente ogni polinomio
Pn ( x)  a 0  a 1 x  a 2 x 2 ...a n x n
8
Metodi Matematici per l’Ingegneria - Prof. M. Caprili
può essere rappresentato come combinazione lineare di polinomi ortogonali appartenenti ad una
qualunque famiglia dei polinomi ortogonali sopra indicati. Ossia si può scrivere
n
Pn ( x)   c r Q r ( x)
r 1
e i coefficienti cr si possono ottenere applicando il principio di identità dei polinomi, oppure, per
l’ortogonalità
b
 wx  P x  Q x  dx
n
cr 
r
a
b
 wx  Qx  dx
r  1, 2 ,..., n .
,
a
Richiami sui polinomi
Un polinomio di grado n è una funzione complessa di variabile complessa rappresentabile nella
forma
n
Pn ( x)   a i x i
i0
dove ai sono numeri complessi .
L’insieme dei polinomi è uno spazio vettoriale con la somma e il prodotto per uno scalare definiti
nel modo usuale.
Dati due polinomi f(x) e g(x) di grado n ed m rispettivamente il loro prodotto è un polinomio fg di
grado n+m ed inoltre sono univocamente definiti due polinomi q(x) e r(x) tali che
f ( x)  q ( x) g( x)  r ( x)
Se nm, allora q(x) è di grado n-m ed r(x) di grado m-1. Se r(x)=0, f(x) è divisibile per g(x) e g(x)
è un divisore di f(x). Ne segue che f(x) è divisibile per x- se e solo se f()=0.
Se n<m, allora q=0 e r=f.
Se f(x) e g(x) non hanno divisori comuni, eccetto il caso di una costante, allora sono primi tra loro.
Altrimenti il divisore comune di grado massimo è detto massimo comune divisore.
Ogni polinomio ammette una fattorizzazione del tipo
Pn ( x)  a n ( x   1 ) m1 ( x   2 ) m2 ...( x   k ) mk
dove la somma delle molteplicità delle radici vale n.
In particolare le radici dell’equazione algebrica Pn(x)=0 sono tutte semplici se e solo se Pn(x) e
Pn' ( x) sono primi tra loro.
Il M.C.D. tra Pn(x) e Pn' ( x) contiene tutte e solo le radici di Pn(x)=0 di molteplicità maggiore di 1.
Le radici di molteplicità 1 sono quelle del polinomio quoziente tra Pn(x) e il M.C.D. tra Pn(x) e
Pn' ( x) .
Le radici di Pn(x) appartengono tutte al cerchio “complesso”
x  C: x  1  aA
n
9
, A  max a i
1 i  n

.
Metodi Matematici per l’Ingegneria - Prof. M. Caprili
Se Pn(x) è a coefficienti reali e (+i) è radice di molteplicità m allora lo è anche (-i).
Valgono poi le relazioni tra i coefficienti e le radici (formule di Newton)

i1
i2 ...i j   1
j
a n j
an
,
j  1,..., n
dove la somma è estesa a tutte le combinazioni {i 1 , i 2 ,..., i j } degli indici {1,2,...,n} prese j a j.
Per j=1
n

i 1
i

a n1
an
per j=n
n

i 1
i
 ( 1) n
a0
an
La valutazione di un polinomio può essere efficacemente espressa dall’algoritmo di Horner.
Supponiamo che il polinomio sia di grado tre
P3 x   a 0  a 1x  a 2 x 2  a 3 x 3 .
L’algoritmo di Horner propone il polinomio nella forma equivalente
P3 x   a 0  a1  a 2  a 3x  x  x
che è più stabile e riduce sensibilmente il numero delle operazioni necessarie per una sua
valutazione. La ripetizione ciclica delle operazioni tra parentesi favorisce la programmazione come
appresso indicato
px = a(n)
for k = n-1 down to 0
px = a(k) + px x
endfor
La valutazione della derivata si effettua semplicemente cambiando i coefficienti a(k) in ka(k),
k=1,2,…n. Il programma per la sua valutazione, risulta
dp = n  a(n)
for k = n-1 down to 1
dp = k  a(k) + pd  x
endfor
Richiami sulle matrici
10
Metodi Matematici per l’Ingegneria - Prof. M. Caprili
Si chiama rango di A  K m n (K il campo dei reali o dei complessi) il numero massimo di colonne
(o di righe) linearmente indipendenti.
K m n è uno spazio vettoriale con le due operazioni addizione e moltiplicazione per uno scalare così
definite
CAB
c ij  a ij  bij ,
i  1,2,..., m, j  1,2,..., n
E  A
e ij  a ij ,
i  1,2,..., m, j  1,2,..., n.
.
Si definisce matrice trasposta di A la matrice
A T  a ij   a ji ,
T
i  1,2,..., m, j  1,2,..., n.
.
Inoltre, valgono le proprietà
( A T )T  A
A  BT  A T  BT
ABT  BT A T
.
Matrici quadrate. Sia ACnn. Si definisce trasposta coniugata di A la matrice A   (a ij )  (a ji )
Se A   A la matrice A si dice hermitiana, se invece è A   A si dice antihermitiana. Nel primo
caso gli elementi diagonali sono reali, nel secondo caso sono immaginari o nulli.
Nel caso in cui gli elementi di A siano reali, la matrice si dice simmetrica se A  A T , oppure,
antisimmetrica se A  A T .
Ogni matrice ACnn è sempre scomponibile nella somma di una matrice hermitiana e di una
antihermitiana:
1
1
A  (A  A  )  (A  A  ) ;
2
2
1
1
(A  A T )  (A  A T ) .
2
2


Si può provare facilmente che le matrici ( AA ) e ( A A ) sono hermitiane e semidefinitwe positive (
definite positive se A è non degenere).
In generale AA   A  A , qualora AA  = A  A la matrice A è detta normale..
Una matrice P è di permutazione se è ottenuta dalla matrice identità scambiando le righe. La
premoltiplicazione PA produce su A lo stesso scambio di righe operato su I per definire P. Se invece
si postmoltiplica A per P, ossia AP, si ottiene su A uno scambio di colonne come quello operato si I
per dare P.
Una matrice è detta triangolare superiore se sono nulli gli elementi sotto la diagonale principale.
Analogamente è detta triangolare inferiore se sono nulli gli elementi sopra la diagonale principale.
Una matrice A è a banda di larghezza 2m+1 se aij=0 per i  j  m . Se m=1 è tridiagonale, se m=2 è
pentadiagonale.
Una matrice è ripartita a blocchi se i suoi elementi sono matrici. Per le matrici quadrate di solito i
blocchi diagonali sono matrici quadrate.
Si chiama matrice aggiunta di A la matrice adjA=bij ove b ij  (1) i  j A ji con A ji il cofattore di aji.
Nel caso in cui la matrice sia ad elementi reali, ovviamente si ha A 
Se A è non degenere
11
Metodi Matematici per l’Ingegneria - Prof. M. Caprili
A 1 
1
adjA
det A
.
Si ha anche
1
det A
1 
(A )  (A  ) 1
det A 1 
(AB) 1  B 1A 1
se A e B sono non singolari.
Se A   A 1 , ovvero AA*=A* A=I, la matrice è detta unitaria e nel caso reale in cui gli elementi di
A sono reali è detta ortogonale.
Se A è una matrice rettangolare mxn ad elementi complessi, i valori singolari di A, risultano
k = (k)1/2,
K=1,2,…
dove k sono gli autovalori di A*A i quali, per essere A*A una matrice hemitiana e semidefinita
positiva, risultano reali e non negativi.
Ovviamente,
1  A 2
Gli autoalori di A*A coincidono con quelli di AA*. Pertanto, se A è quadrata e non degenere, riesce
A 1  A 1 * A 1   AA *  
1
2
1
n
e quindi
 2 A  
1
.
n
Vale anche
det A  12 ...n
Infatti, tenendo conto che il determinante di una matrice è uguale al prodotto dei suoi autovalori,
viene
det A * A   det A * det A  det A  1 2     n
2
det A  1 2     n
Una matrice elementare è della forma
H(,u,v) = I -  u v*
12
Metodi Matematici per l’Ingegneria - Prof. M. Caprili
dove u,vCn e  un numero reale o complesso, La matrice uv* è rango 1.
Il prodotto di due matrici elementari è ancora una matrice elementare; cioè
H( ,u,v) H( ,u,v) = H( ,u,v)
dove  vale
 =  +  -  v*u.
Se, =0, ovvero


,
 v* u  1
la matrice H( ,u,v) è l’inversa di H( ,u,v) Ovviamente, se v*u è non nullo e uguale a 1/, allora
H( ,u,v) è degenere.
Se, ad esempio, una matrice A è perturbata da una matrice uv*, ossia
B = A – uv* = A(I – A-1 uv*) = A H(1,A-1 u,v*)
la sua inversa, diviene
1
1


B1   I 
A 1uv * A 1  A 1 
A 1uv * A 1 .
1
1
v
*
A
u

1
v
*
A
u

1


Tale formula di Sherman-Morrison indica la perturbazione indotta sull’inversa di A.
Se U è una matrice unitaria (oppure ortogonale se gli elementi di U sono reali), cioè U*U=UU*=I,
allora detU=1, gli autovalori valgono in modulo uguale ad 1 e l’applicazione y=Ux è un
isomorfismo isometrico.
Infatti, risulta
det(U*U) = detU* detU = detU2= 1
e quindi
detU =1.
Inoltre, valogono l’equazioni
13
Metodi Matematici per l’Ingegneria - Prof. M. Caprili
Ux  x
x   U* x
1
U* x  x

x * Ux

2
x2
1 x* U* x

2

x
2
1



x * Ux
x
2
2
per cui

1


ossia
 1.
Infine, diviene
Ux  x
Ux   x  x .
Teorema
Siano A e E due matrici quadrate di ordine n ad elementi reali, e 1  2  ...  n  0 i valori singolari di A.
Allora,
(i)
se A+E è una matrice singolare ne segue che E 2   n ;
(ii)
esiste una matrice E con E 2  n tale che A+E è singolare. Cioè E è la più “piccola”
matrice che rende A+E singolare; indica quindi la “distanza” di A dalla più “vicina”
matrice singolare.
Dimostrazione.
Consideriamo il punto (i). Se A+E è singolare esiste un vettore x non nullo, tale che
(A+E) x = 0.
Ma allora, essendo
 n  min
Ax
x 0
2
x
2
14
Metodi Matematici per l’Ingegneria - Prof. M. Caprili
risulta
n x 2  Ax
  Ex
2
2
 E2 x
da cui
n  E 2 .
Passiamo adesso al punto (ii). Se n  0 , allora A è già singolare. Se invece n > 0. si può scrivere
AT A x   n x
x T A T Ax   n x T x
n 
2
Ax
x
2
2
2
Ponendo u=x/ x ed estraendo la radice quadrata, ne viene l’esistenza di un vettore u di norma
che
Au 2   n
e, ovviamente, si può definire anche il vettore
v
1
Au
n
di norma, chiaramente unitaria.
Posto,
E   n v u *
ne segue
A  Eu  Au  Eu  n v  n v  0
ossia, A+E è una matrica singolare.
Inoltre,risulta
E 2  max
x 2 0
Ex
x
2
2
 max
x 2 0
  n vu * x
x
2
2
  n max
u* x v
x 2 0
x
15
2
2
  n max
x 2 0
u
2
x
x
2
2
 n
unitaria, tale
Metodi Matematici per l’Ingegneria - Prof. M. Caprili
dove si è tenuto conto che u e v sono vettori con norma euclidea unitaria.
L’uguale, ossia il massimo, si ottiene per x=u, e quindi
E 2  n. .
Matrice inversa generalizzata
Come è noto, una matrice A rettangolare o degenere non ammette l’inversa in senso classico.
Tuttavia, si osserva che, se A è invertibile allora AA 1A  A , per analogia, se ACmn , la matrice
Ag è detta inversa generalizzata di A, se AA g A  A . Si osserva, che tale inversa, se esiste, non è
unica.
Infatti, se
a 0
A

0 0
la matrice
 1a b
A 

0 0 
g
è un’inversa generalizzata di A qualunque sia b.
Ponendo questa ulteriore condizione A g AA g  A g , analoga alla A 1AA 1  A 1 , l’unicità non è
ancora garantita. Questa è invece raggiunta se oltre alle condizioni su indicate, si verificano anche le
seguenti
(AA g )   AA g
(A g A )   A g A .
.
Se ciò accade l'inversa generalizzata di A è detta pseudoinversa , e si indica con Ap.
Nell’esempio precedente la pseudoinversa di A si ottiene ponendo b=0, ossia
 1a 0
A 
,
0 0
p
che soddisfa le quattro condizioni indicate.
Se ACmn , con n<m, ed ha rango massimo, ossia uguale ad n, allora la pseudoinversa risulta
A p  (A  A) 1 A  .
In particolare vale
A pA  I .
Se invece, ACmn, con n>m, ed ha rango massimo, ovviamente uguale ad m, risulta
A p  A(AA ) 1
16
Metodi Matematici per l’Ingegneria - Prof. M. Caprili
In paricolare vale
AAp=I.
Sistemi lineari
Se S e V sono due spazi vettoriali di dimensione n ed m rispettivamente, lo spazio delle applicazioni
lineari L (S,V) e lo spazio delle matrici Cmn sono isomorfi, cioè esiste una corrispondenza
biunivoca tra essi.
Infatti, ad un’applicazione lineare lL (S,V) corrisponde la matrice ACmn i cui elementi {aij}sono
definiti da
m
l(e j )   a ij u i
j  1,..., n ,
,
i 1
dove e1 , e 2 ,..., e n è una base di S e u 1 , u 2 ,..., u m una base di V.
Viceversa, una matrice ACmn definisce un'applicazione lineare di S in V operando, come di
consueto, sulle componenti dei vettori
n
x   x i ei
i 1
m
y  yj uj
j1
Data un'applicazione lineare l L(S,V) l'equazione
l(x)=b
n
m
i 1
j1
dove x   x i e i , b   b j u j è equivalente al sistema lineare di m equazioni in n incognite
n
a x
j1
ij
j
 bi
, i=1,2,…,m ,
overo
Ax=b
.
Se Ag è una inversa generalizzata di A soddisfacente le condizioni AAg A=A e Ag AAg =Ag , allora
il nucleo di A è
(A)  x  R n:x  (I  A g A)y, y  R n
Infatti, si ha
AA g A  A
A  AA g A  0
A (I  A g A )  0
Applicando tale matrice ad un yS, risulta
A(I  A g A) y  0y  0
17
.
Metodi Matematici per l’Ingegneria - Prof. M. Caprili
Quindi gli elementi
x  I  A g A y ,
y  R n ,
sono il nucleo di A.
Posto allora, il sistema Ax=b, nella forma
A g Ax  A g b
essendo Ag un’inversa generalizzata, una soluzione generalizzata è x  A g b , analogamente al caso
classico A 1Ax  A 1b con soluzione x  A 1b .
Infatti, sostituendo, viene
A g A( A g b )  A g b .
.
Se in particolare A Cmxn , con n<m, ed A ha rango massimo, ovviamente uguale ad n, si può
scrivere
A Ax  A b
e quindi, per essere A*A non degenere, la soluzione generalizzata risulta
x=(A*A)-1 A*b
dove (A*A-1 )A* è un'inversa generalizzata di A che per essere in questo caso unica è una
pseudoinversa, ossia
Ap=(A*A)-1 A*.
Il nucleo di A è costituito dal solo elemento nullo in quanto I-Ap A=0. Cosicchè la soluzione
generalizzata è unica.
Se invece, n>m, ed A ha rango massimo, uguale ad m, una soluzione del sistema Ax=b, risulta
x=A*(AA*)-1 b
e l’insieme di tutte le soluzioni del sistema Ax=b, divengono
{x= A*(AA*)-1 b + (I- A*(AA*)-1 A)y , yRn}.
In generale l'insieme delle soluzioni generalizzate di Ax=b è rappresentato da
{x=Ag b+(I-AgA)y , y R n } .
Autovalori e autovettori
18
Metodi Matematici per l’Ingegneria - Prof. M. Caprili
Data ACnn , un vettore xCn con x0 è un autovettore di A se esiste uno scalare C tale che
Ax=x; in tale caso  si dice autovalore di A.
Se  è un autovalore di A il sistema lineare
( A  I ) x  0
ammette soluzioni non nulle e perciò A-I è singolare, ossia
det(A  I)  0
.
Ovviamente, ogni radice di questa equazione, detta equazione caratteristica di A, è un autovalore di
A.
Vale la rappresentazione dell’equazione caratteristica
(1)
PA λ   det (A  λI)  (  1) n[λ n  σ1λ n 1  σ 2 λ n 2  σ 3λ n 3  ...(  1) n σ n ]  0
dove i (i=1,2,…,n) sono la somma dei minori principali di ordine i=1,2,…,n estratti da A.
In particolare
n
 1  tr (A )   a ii
,
i 1
 n  det(A ) .
L’insieme degli autovalori è detto spettro di A e
  max  i
1 i  n
è detto raggio spettrale di A. La molteplicità  di un autovalore è detta molteplicità algebrica, e il
numero  di autovettori associati è sempre  , ossia
 (  )  (  )
.
Inoltre
n
tr (A )    i
,
i 1
n
det(A )    i
.
i 1
Dalla (1) segue che A è singolare se e solo se =0 è un suo autovalore.
Dalla relazione
Ax=x
segue
x  Ax
 
x x
19
Metodi Matematici per l’Ingegneria - Prof. M. Caprili
e pertanto se A è hermitiana, e quindi ( x  Ax)   x  Ax , i suoi autovalori sono reali. Inoltre, gli
autovalori di A  sono i complessi coniugati degli autovalori di A; mentre gli autovalori di A T sono
gli stessi di A.
Supponiamo adesso, per semplicità, che la matrice A sia reale.
Se  e y soddisfano l’equazione
A T y  y
allora  e y T soddisfano quest’altra equazione
y T A  y T
.
Per questo, gli autovettori di A T , sono spesso chiamati autovettori sinistri di A; per contro i vettori
x per cui Ax=x sono detti autovettori destri.
È facile verificare che autovettori destri e sinistri di A corrispondenti ad autovalori distinti sono
ortogonali.
In particolare se A è simmetrica gli autovettori destri e sinistri coincidono.
Se A possiede n autovalori distinti  1 ,  2 ,...,  n gli insiemi di autovettori destri x (1) , x ( 2) ,..., x ( n ) e di
T
autovettori sinistri y(1) , y( 2) ,..., y( n ) formano un sistema biortogonale: y( i ) x ( j )  0, i  j .
T
Imponendo che i due sistemi soddisfino le condizioni y( i ) x ( j )  1, i  1,2,..., n , ne viene che ogni
vettore vRn si può rappresentare nelle forme
n
n
i 1
j1
v   v i x ( i )   w j y ( j)
con
vi  y(i )T v e w j  x ( j)T v , i, j  1,2,..., n
Inoltre le matrici X  ( x (1) x ( 2)  x ( n ) ) e Y  ( y(1) y ( 2)  y ( n ) ) sono tali che
YT X  XT Y  I
ossia
X1  YT , Y-1=XT
,
e dalle equazioni
Ax (i )  x (i ) , i  1,2,..., n ,
che in forma matriciali, si scrivono
AX  X diag ( 1 , 2 ,..., n )
si trae
20
.
Metodi Matematici per l’Ingegneria - Prof. M. Caprili
X 1AX  Y T AX  diag( 1 ,  2 ,...,  n )
che è una trasformazione di similitudine di A.
In generale A e B sono simili se esiste una matrice non singolare T tale che
B  T 1AT
Questa relazione di similitudine è una relazione di equivalenza, in quanto, è riflessiva, simmetrica e
transitiva.
Matrici simili hanno gli stessi autovalori per essere det(B-I)=det(A-I) e hanno autovettori legati
dalla relazione x B  T 1 x A o anche x A  Tx B .
Data una matrice ACnn esiste sempre una matrice non singolare T tale che la matrice
B  T 1AT
è triangolare superiore.
Diremo poi che una matrice è a predominanza diagonale forte se
n
a ii   a ij
, i  1,..., n ,
j1
j i
mentre è a predominanza diagonale debole se
n
a ii   a ij
, i  1,..., n ,
j1
j i
e per almeno un i vale il maggiore.
Una matrice A è detta riducibile se esiste una matrice di permutazione P tale che la matrice P T AP ,
simile ad A, è della forma
A 11
B  P T AP  
A 21
0 
A 22 
con le sottomatrici A 11 , A 22 quadrate.
Il grafo di A è ottenuto fissando n punti nel piano, diciamo P1 , P2 ,..., Pn e collegando con un arco
Pi e Pj solo se a ij  0 orientandolo con una freccia da Pi a Pj; nel caso sia anche a ji  0 si traccia un
altro arco da Pj verso Pi, con freccia verso Pi.
Una volta completato il grafo, consideriamo tutti gli elementi di A nulli. Se accade che in
corrispondenza di ogni elemento nullo di A, di indici h,k, cioè a hk  0 , esiste un cammino orientato
che da Ph va a Pk, diremo il grafo di A fortemente connesso.
Si può dimostrare che A è irriducibile, cioè non riducibile, se e solo se il suo grafo è fortemente
connesso.
Una matrice è detta convergente se
lim A k  0
k 
Si dimostra che A è convergente se e solo se (A)<1.
21
Metodi Matematici per l’Ingegneria - Prof. M. Caprili
Dato lo spazio lineare delle matrici quadrate di ordine n sul campo reale o complesso ed assegnata
una norma vettoriale, allora si può definire la norma matriciale indotta dalla norma vettoriale
ponendo
A  sup
x0
Ax
 max Ax
x 1
x
Tale norma indotta è detta naturale.
Le norme vettoriali già viste inducono la norme matriciali
n
A 1  max  a jk
k
j 1
A 2  (AA  )
n
A

 max  a jk
j
.
k 1
Se A è hermitiana A 2  (A) .
Una norma matriciale si dice compatibile con una norma vettoriale se
Ax  A x
la norma indotta è senz’altro compatibile.
Vale anche il teorema di Hirsch: ogni norma naturale di A limita il suo raggio spettrale
(A)  A
Infatti da
Ax=x
segue
 x  A x
ed essendo x  0 segue l’asserto.
Vale anche
(A)  A
per qualunque norma di A.
Infatti, se  è autovalore e x autovettore associato, definita la matrice B  ( x 0 0) , si ha
AB=B
e anche
 B  A B
ma B  0 , in quanto x0, e quindi
22
Metodi Matematici per l’Ingegneria - Prof. M. Caprili
 A
,  autovalore di A .
Viceversa, fissato un >0 arbitrario esiste una norma naturale tale che
A  (A)  
.
Condizione necessaria e sufficiente affinchè A sia convergente è che esista una norma naturale per
cui
lim A k  0
k 
Condizione sufficiente perché A sia convergente è che esista una norma <1.
Data la serie
I  A  A 2 ...A n ...
essa è convergente se e solo se A è convergente e in tal caso la serie converge alla matrice
(I  A) 1
.
Se poi per una norma naturale vale A  1 , si hanno le disuguaglianze
1
1
 (I  A) 1 
1 A
1 A
Ovviamente, le disuguaglianze, valgono anche cambiando A con -A
Dimostrazione. Per la disuguaglianza di destra, si ha
1  (I  A) 1(I  A)  (I  A) 1 I  A  (I  A) 1 (1  A )
da cui
1
 (I  A) 1
1 A
Si noti che per ogni norma matriciale naturale vale sempre I  1 ; inoltre, se A  1 , allora I  A è
non degenere.
Per la disuguaglianza di sinistra, viene
I  (I  A)(I  A) 1  (I  A) 1  A(I  A) 1
I  A(I  A) 1  (I  A) 1
(I  A) 1  1  A  (I  A) 1
da cui
(I  A) 1 
Se P(A) è un polinomio nella variabile A cioè
23
1
1 A
.
Metodi Matematici per l’Ingegneria - Prof. M. Caprili
P(A)  a n A n  a n1A n1 ..a 0 I
allora, se  è un autovalore di A, P() è un autovalore della matrice P(A).
Data una matrice A esiste il teorema di Cayley-Hamilton che afferma: ogni matrice è radice della
propria equazione caratteristica.
Localizzazione degli autovalori di A nel piano complesso
In virtù del teorema di Hirsch tutti gli autovalori appartengono al cerchio nel piano complesso di
centro l’origine e raggio A .
Una regione più precisa del piano complesso è definita dal teorema di Gershgorin: gli autovalori di
A appartengono alla regione
n
   ci
i 1
n
dove ci sono i cerchi z  a ii   i con  i   a ij
, i  1,..., n .
j1
j i
Infatti, se  è autovalore di A e x un suo autovettore e x r  x  , allora la r-esima equazione del
sistema Ax=x è
n
x r   a rj x j
j1
o anche
n
(   a rr ) x r   a rj x j
.
j1
j r
Passando ai moduli si ha
n
  a rr x r   a rj x j  x r
j1
j r
n
a
j1
j r
rj
ed essendo x r  0 viene
n
  a rr   a rj
.
j 1
j r
Da questo teorema segue subito che se A è a predominanza diagonale forte, allora è non degenere.
Il secondo teorema di Gershgorin afferma: se A è irriducibile e  appartiene alla frontiera
dell’unione dei cerchi allora appartiene alla frontiera di ciascun cerchio.
Dimostrazione. Infatti sia x l’autovettore associato a  e x  x . L’autovalore  , per il
p

precedente teorema di Gershgorin appartiene al cerchio cp di centro app e raggio p, ma per l’ipotesi
fatta appartiene alla frontiera di tale cerchio, cioè dovrà essere
24
Metodi Matematici per l’Ingegneria - Prof. M. Caprili
n
  a pp   a pj
.
j 1
j p
Ma essendo
n
  a pp x p   a pj x j
j1
j p
o anche
n
xj
j1
j p
xp
  a pp   a pj
n
  a pj
j1
j p
per l’uguaglianza di cui sopra, deve valere l’uguale. Anzi se apj0 per qualche j ne segue x j  x p ,
in quanto
xj
xp
1 .
Per l’ipotesi di irriducibilità di A, ossia grafo di A fortemente connesso, esiste senz’altro almeno un
elemento apr0 con rp e quindi x r  x  . Pertanto, ripetendo quanto sopra fatto,  dovrà
appartenere anche alla frontiera del cerchio cr. Iterando il procedimento, si considerano man mano
tutti gli indici, in quanto, per essere il grafo di A fortemente connesso, esiste un cammino orientato
che tocca tutti i nodi del grafo, ossia tutti i centri dei cerchi.
Da questo teorema segue che una matrice a predominanza diagonale debole e grafo fortemente
connesso è non singolare.
Tenendo poi conto che la trasposta di A ha gli stessi autovalori diA, si può ripetere tutto quanto per
la matrice AT e determinare una regione T che contiene tutti gli autovalori. Ne segue che gli
autovalori di A appartengono anche a T.
Riportiamo infine, senza dimostrazione, il terzo teorema di Gershgorin: ad ogni unione connessa di
cerchi ci appartengono tanti autovalori quanti sono i cerchi. Oppure, se l’ insieme di k cerchi è
disgiunto dall’insieme costituito dai restanti n-k cerchi, allora k autovalori appartengono al primo
insieme e n-k all’altro.
Infine, tenendo conto che l’equazione
n
Pn ( x)   a i x i  0
an  0
i0
può equivalentemente essere intesa come l’equazione caratteristica della matrice di ordine n del tipo
di Frobenius:
 aan 1
 n
 1
A 0

 
 0


a n2
an
0
1

0
  a 1n
 0
 0
 
 1
a
25
 a 0n 

0 
0 


0 
a
Metodi Matematici per l’Ingegneria - Prof. M. Caprili
è possibile localizzare le sue radici nel piano complesso facendo uso dei teoremi di Gerchgorini. Ad
esempio, tutte le radici di Pn(x)=0 sono interne al cerchio del piano complesso
n 1
ai
i 0
an
{z  C : z  max( 1, 
Il cerchio di centro z c  
ai
an
)} .
e raggio 1, cioè
|z – zc|  1
è interno al cerchio di centro l’origine e raggio 1 + |zc| , cioè al cerchio di equazione
|z|  1 + |zc| .
Infatti, se z appartiene al cerchio di centro zc e raggio 1, si ha:
|z| = |z – zc+ zc|  |z – zc| + |zc|  1 + |zc| ,
e quindi z appartiene al cerchio di centro l’origine e raggio 1+zc.
La matrice A è detta compagna dell’equazione algebrica
n
Pn ( x )  
i 0
26
ai i
x .
an