RELAZIONI, GRUPPI E CAMPI

annuncio pubblicitario
RELAZIONI, GRUPPI E CAMPI
I) RELAZIONI
DEFINIZIONE,
RELAZIONE BINARIA. Dato un insieme non vuoto G , si dice che a  G è in relazione binaria
con b  G , e si scrive a  b , se la coppia ordinata a, b soddisfa una fissata proprietà.
DEFINIZIONE,
RELAZIONE BINARIA DI EQUIVALENZA. La relazione binaria introdotta sopra si dice di
equivalenza se soddisfa le proprietà seguenti:
1) proprietà riflessiva: a  a, a  G
2) proprietà simmetrica: a  b  b  a, a, b  G
a  b
3) proprietà transitiva: 
 a  c, a, b, c  G
b  c
DEFINIZIONE,
CLASSE DI EQUIVALENZA. Diciamo classe di equivalenza di a  G l’insieme di tutti gli
elementi di G i quali soddisfano con a  G la relazione di equivalenza. Indichiamo tale insieme
con la simbologia a  .
Due elementi appartenenti ad una stessa classe di equivalenza si dicono equivalenti.
DEFINIZIONE,
RELAZIONE BINARIA D’ORDINE. Una relazine binaria si dice d’ordine se soddisfa le
seguenti proprietà:
1) proprietà riflessiva: a  a, a  G
a  b
2) proprietà antisimmetrica: 
 a  b, a, b  G
b  a
a  b
3) proprietà transitiva: 
 a  c, a, b, c  G
b  c
DEDUZIONE,
SULLE CLASSI DI EQUIVALENZA. Se risulta che b  a allora si ha b  a . Se inoltre
due classi di equivalenza hanno un elemento in comune, allora esse coincidono.
II) GRUPPI
DEFINIZIONE,
OPERAZIONE INTERNA BINARIA. Si dice operazione interna binaria di un insieme G una
legge che ad ogni coppia ordinata g1 , g 2  di elementi di G associa uno ed un solo elemento g 3 di
G.
1
DEFINIZIONE,
PRODOTTO. Se indichiamo l’operazione interna binaria con il segno  allora essa prende il nome
di prodotto, l’elemento g 3 si scrive g1  g 2 e l’insieme G provvisto di tale operazione si indica
G .
DEFINIZIONE,
SOMMA. Se indichiamo l’operazione interna binaria con il segno  allora essa prende il nome di
somma, l’elemento g 3 si scrive g1  g2 e l’insieme G provvisto di tale operazione si indica G  .
DEFINIZIONE,
GRUPPO. Si dice gruppo ogni insieme non vuoto in cui sia definita una operazione interna binaria
per la quale valgano le proprietà seguenti:
1) proprietà associativa: a  b  c  a  b  c
2) esistenza dell’elemento neutro: e  G | a  e  a, a  G
3) esistenza dell’elemento simmetrico: g  G, g |  G | g  g |  e
DEFINIZIONE,
ELEMENTO NULLO ED ELEMENTO OPPOSTO. Nella operazione di somma l’elemento
neutro è detto elemento nullo. Inoltre in tale operazione l’elemento simmetrico è detto elelmento
opposto.
DEFINIZIONE,
ELEMENTO UNITA’ E ELEMENTO INVERSO. Nella operazione di prodotto l’elemento
neutro è detto elelmento unità. Inoltre in tale operazione l’elemento simmetrico è detto elemento
inverso.
DEFINIZIONE,
GRUPPO COMMUTATIVO (O ABELIANO). Un gruppo G è detto commutativo o abeliano
se soddisfa la seguente proprietà:
4) proprietà commutativa: a  b  b  a, a, b  G
DEFINIZIONE,
GRUPPO FINITO. Un gruppo è detto finito se contiene un numero limitato di elementi.
DEDUZIONE,
SUGLI ELEMENTI SIMMETRICO E NEUTRO. In G l’elemento neutro è unico.
L’elemento simmetrico è unico per ogni elemento di G .
III) CAMPI
DEFINIZIONE,
CAMPO. Diciamo campo un insieme non vuoto C in cui sono definite due operazioni interne
binarie, dette somma e prodotto. Tale insieme si indica C  . La definizione di campo richiede
inoltre che
1) C  risulti un gruppo commutativo rispetto all’operazione di somma,
2
2) C  privato dell’elemento nullo, cioè dell’elemento neutro rispetto alla operazione di somma,
deve risultare un gruppo commutativo rispetto alla operazione di prodotto.
Deve inoltre valere la seguente proprietà
3) proprietà distributiva del prodotto rispetto alla somma:
a  b  c   a  b  a  c,
a, b, c  C  
Dunque la definizione completa di campo si può riscrivere nella maniera seguente. Un insieme non
nullo C  si dice campo se valgono le seguenti proprietà:
1) proprietà associativa della somma: a  b  c  a  b  c, a, b, c  C 
2) esistenza dell’elemento nullo: 0  C  | a  0  a, a  C 
3) esistenza dell’elemento opposto: a  C ,   a  C  | a   a   0
4) proprietà commutativa della somma: a  b  b  a, a, b  C 
5) proprietà associativa del prodotto: a  b  c  a  b  c, a, b, c  C 
6) esistenza dell’elemento unità: 1  C  | a  1  a, a  C 
1
1
7) esistenza dell’elemento inverso: a  C   \ 0,   C   | a   1
a
a
8) proprietà commutativa del prodotto: a  b  b  a, a, b  C 
a  b  c   a  b  a  c,
9) proprietà distributiva del prodotto rispetto alla somma:
a, b, c  C  
SPAZI VETTORIALI E SOTTOSPAZI VETTORIALI
DEFINIZIONE,
SPAZIO VETTORIALE REALE. uno spazio vettoriale reale V è un insieme non vuoto, i cui
elementi sono detti vettori, nel quale siano definite una operazione di somma fra i suoi elementi ed
una operazione di prodotto fra un suo elemento ed uno scalare reale, per il quale valgano le seguenti
8 proprietà:

 

1) proprietà associativa della somma di vettori: v1  v2  v3  v1  v2  v3 , v1 , v2 , v3 V
2) esistenza dell’elemento nullo: 0  V | v  0  v, v  V
 
3) esistenza dell’elemento opposto: v  V ,   v  V | v   v  0
4) proprietà commutativa: v1  v 2  v 2  v1 , v1 , v 2 V
5) proprietà associativa del prodotto con scalari:
 v    v 
 ,   R, v V
v       v   v
6) proprietà distributiva rispetto alla somma di scalari:
 ,   R, v V
7) proprietà distributiva rispetto alla somma di vettori:


 v1  v2   v1   v2
  R, v1 , v2  V
8) proprietà della moltiplicazione per uno: 1v  v, v V
3
Si osserva che, in base alle prime quattro proprietà, uno spazio vettoriale è anche un gruppo
commutativo rispetto alla operazione interna di somma.
DEDUZIONE,
VETTORE NULLO. L’elemento neutro rispetto alla somma, cioè il vettore nullo, è unico.
|
DIMOSTRAZIONE. Supponiamo che esistano due vettori nulli 0, 0 . Allora si ha per definizione
stessa di elemento neutro rispetto alla somma
v  0  v
|
0 0

|
v  0  v
v V
DEDUZIONE,
VETTORE OPPOSTO. L’elemento simmetrico rispetto alla somma, cioè il vettore opposto, è
unico.
DIMOSTRAZIONE. Supponiamo che esistano due vettori opposti del vettore v , che chiamiamo
|
||
v , v . Allora si ha per definizione stessa di elemento simmetrico rispetto alla somma
 
 
v  v ||  0
|
||
|
|
|
||
|
|
|
||
vv vv v vv v vv  v v v  v v v 

|
v  v  0
|
v v
||
DEDUZIONE,
NONA PROPRIETA’. Risulta  v  0    0 oppure v  0 .
DIMOSTRAZIONE. 1)Vediamo la condizione necessaria. Se   0 si ha
  0   v  0v  0  0v  0v  0v
cioè
v  v  v
per cui  v risulterebbe elemento neutro rispetto alla somma ovvero elemento nullo. Ma siccome
l’elemento nullo è unico, allora si conclude che  v  0 . Se invece v  0 si ha


v  0  v  0   0  0  0  0
cioè ancora
v  v  v
e si ragiona come sopra.
4
2)Vediamo la condizione sufficiente. Se  v  0 allora, considerando che (per quanto visto al punto
uno)  0  0 , si ha
 v  0   v  0
allora se   0 , dividendo ambo i membri per  , abbiamo v  0 , cioè la tesi. Altrimenti abbiamo
  0 , cioè ancora la tesi.
DEDUZIONE,
DECIMA PROPRIETA’. Si ha
 1v  v, v V
DIMOSTRAZIONE. Applicando le proprietà del prodotto di vettore per uno scalare si ha
v  1v  v   1v  1  1v  0v
In base a quanto visto nel precedente teorema si ha allora
v  1v  0
per cui il vettore  1v risulta essere il simmetrico, cioè l’opposto, del vettore v , da cui la tesi.
DEFINIZIONE,
SOTTOSPAZI VETTORIALI. Dato uno spazio vettoriale V qualunque suo sottoinsieme W il
quale goda delle otto proprietà degli spazi vettoriali, si dice sottospazio vettoriale di V.
DEDUZIONE,
CONDIZIONI. Dato uno spazio vettoriale V, un suo sottoinsieme W risulta essere un sottospazio
vettoriale di V, se e solo se risultano verificate le due condizioni
1)
2)
w1  w2  W
w1 , w2  W
 w W
  R, w  W
DIMOSTRAZIONE. Poiché W è un sottoinsieme di V, le due condizioni di cui sopra comportano
che le proprietà 1,2,5,6,7,8 degli spazi vettoriali sono soddisfatte per W. La proprietà dell’esistenza
dell’elemento neutro si verifica tenendo presente che

 w W
 0 w W  0 W


  R, w W
Per qunto riguarda la proprietà dell’esistenza dell’elemento opposto si osserva che
5

 w W
 1w W   w W





R
,

w

W

DIPENDENZA E INDIPENDENZA LINEARE
DEFINIZIONE,
LINEARE DIPENDENZA. Dati i vettori v1 , v 2 ,..., v p V essi si dicono linearmente dipendenti
(L.D.) se risulta che
1 v1  2 v 2  ...   p v p  0
per valori non tutti nulli dei coefficienti.
DEFINIZIONE,
LINEARE INDIPENDENZA. Dati i vettori v1 , v 2 ,..., v p V
indipendenti (L.I.) se risulta che
essi si dicono linearmente
1 v1  2 v 2  ...   p v p  0
solo se i coefficienti sono tutti nulli.
DEFINIZIONE,
SISTEMA DI GENERATORI. Si definisce sistema di generatori di uno spazio vettoriale V un
insieme finito di elementi di V tale che ogni elemento di V possa scriversi come combinazione
lineare di tali elementi. Allora V si dirà generato da tali vettori. Se indico
v , v ,..., v 
1
2
q
un sistema di generatori di V, allora si scrive


v  LR v1 , v 2 ,..., v q , v V
il che sta ad indicare appunto che ogni elemento di V può essere scritto come combinazione lineare
degli elementi del sistema di generatori.
DEDUZIONE,
UN SOTTOSPAZIO VETTORIALE. Assegnati i p vettori L.I. v1 , v 2 ,..., v p V allora l’insieme


W  LR v1 , v 2 ,..., v p è un sottospazio vettoriale di V.
DIMOSTRAZIONE. La dimostrazione si basa nel provare che per W valgano le due proprietà
1)
w1  w2  W
w1 , w2  W
6
 w W
2)
  R, w  W
Si osserva che assegnate comunque le due serie di p numeri
 1 ,  2 ,... p
 1 ,  2 ,... p
allora si hanno i due elementi di W seguenti
w1   1 v1   2 v 2  ...   p v p
w2   1 v1   2 v 2  ...   p v p
Tuttavia è immediato constatare che anche il vettore
w1  w2  1   1 v1   2   2 v 2  ...   p   p v p
appartiene a W. Assegnato poi comunque lo scalare  si osserva infine che anche il vettore
w   w1   1 v1   2  v 2  ...   p  v p
appartiene a W.
DEDUZIONE,
PROPRIETA’ DEI SISTEMI DI GENERATORI. Siano dati i due insiemi di vettori
w , w ,...w V
v , v ,...v V
1
1
2
2
n
m
Se risulta che

v i  L w1 , w 2 ,...w n
i  1,2,3...n

allora si ha

 
L v 1 , v 2 ,...v n  L w1 , w 2 ,...w n



DIMOSTRAZIONE. Prendiamo un generico vettore v  L v 1 , v 2 ,...v n dato da
v  1 v1   2 v 2  ...   n v n
Risulta
7




v   1  11 w1   21 w2  ...   m1 wm   2  12 w1   22 w2  ...   m 2 wm  ...


  n  1n w1   2 n w2  ...   mn wm v n 
  1  11   2  12  ...   n  1n w1   1  21   2  22  ...   n  2 n w2  ...

  1  31   2  32  ...   n  3n wm  L w1 , w 2 ,...w n

Cioè la tesi.
DEDUZIONE,
PROPRIETA’ DEI SISTEMI DI GENERATORI. Se risulta v  L w1 , w 2 ,...w n ne segue che


 
L v, w1 , w 2 ,...w n  L w1 , w 2 ,...w n


DIMOSTRAZIONE. Dal precedente teorema si deduce immediatamente che

 
L v, w1 , w 2 ,...w n  L w1 , w 2 ,...w n



essendo per ipotesi v  L w1 , w 2 ,...w n ed essendo poi
w1  w1  0w 2 ,...  0w n
e così via. D’altra parte si ha anche immediatamente che

w i  L v, w1 , w 2 ,...w n
i  1,2,3...n

da cui, per il precedente teorema, segue

 
L v, w1 , w 2 ,...w n  L w1 , w 2 ,...w n

Ne segue la tesi.
DEDUZIONE,
PROPRIETA’ DEI SISTEMI DI GENERATORI. Dati i p vettori L.I. v1 , v 2 ,..., v p . Se v è un


vettore che non appartiene a L v 1 , v 2 ,...v p allora i vettori v, v1 , v 2 ,..., v p sono L.I..
DIMOSTRAZIONE. Per assurdo ammettiamo che i p+1 vettori v, v1 , v 2 ,..., v p siano L.D.. Allora
deve risultare
 0 v   1 v1   2 v 2  ...   p v p  0
per coefficienti non tutti nulli. Necessariamente deve essere  0  0 perché altrimeti verrebbe meno
l’ipotesi di lineare indipendenza dei p vettori v, v1 , v 2 ,..., v p . Si divide allora per  0  0 e si ha
8


1

v1  2 v2  ...  p v p  v
0
0
0


Ma allora v appartiene a L v 1 , v 2 ,...v p il che contraddice l’ipotesi. Da cu la tesi.
BASI DI UNO SPAZIO VETTORIALE
DEFINIZIONE,
BASE DI UNO SPAZIO VETTORIALE. Si definisce base di uno spazio vettoriale V un suo
qualunque sistema di generatori L.I..
DEDUZIONE,
CONDIZIONE NECESSARIA E SUFFICIENTE. Gli n vettori v, v1 , v 2 ,..., v n dello spazio
vettoriale V ne costituiscono una base se e solo se ogni vettore v di V può scriversi in modo unico
come loro combinazione lineare.
DIMOSTRAZIONE. 1) Dimostro che se gli n vettori v, v1 , v 2 ,..., v n sono una base di V allora
preso comunque un vettore v di V, esso si scrive in modo unico come combinazione lineare dei
vettori della base. Ragiono per assurdo e dico che il vettore v possa essere scritto in due modi come
combinazione lineare dei vettori v, v1 , v 2 ,..., v n e cioè che si possa scrivere
v   1 v1   2 v 2  ...   n v n
v   1 v1   2 v 2  ...   n v n
Ne segue che
 1 v1   2 v 2  ...   n v n   1 v1   2 v 2  ...   n v n 
  1   1 v1   2   2 v 2  ...   n   n v n  0
Ora si vede che gli n vettori risulterebbero L.D., il che è assurdo. Pertanto la scrittura del generico
vettore di V come loro combinazione lineare risulta unica.
2) Ora dimostro che se la scrittura è unica allora gli n vettori sono una base. Intanto saranno un
sistema di generatori. Dunque si deve provare che sono L.I.. A tale proposito si osserva che di certo
il vettore nullo può scriversi nella forma
0  0v1  0v 2  ...  0v n
Ma dovendo essere questa l’unica combinazione lineare che dia il vettore nullo allora gli n vettori
debbono essere L.I. e dunque costituiscono una base di V.
DEFINIZIONE,
COORDINATE DI UN VETTORE. Dato il vettore v V e una base B  v1
allora i coefficineti della combinazione lineare

v2

... v n di V,
9
v  1 v1  2 v 2  ...  n v n
sono detti coordinate del vettore v V rispetto alla base B.
DEDUZIONE,
ALMENO UNA BASE. Ogni spazio vettoriale che non coincida con l’elemento nullo ha almeno
una base.
DIMOSTRAZIONE. Consideriamo un sistema di generatori del generico spazio vettoriale V. Sia

V  L v1 , v 2 ,..., v n

Ora se gli n vettori del sistema di generatori sono L.I. essi sono una base di V, per definizione.
Altrimenti consideriamo che uno dei vettori del sistema di generatori deve essere non nullo, perche
V non coincide con il solo vettore nullo. Per comodità simbolica diciamo che il vettore non nullo sia
il primo. Si osserva ora che se gli altri vettori del sistema di generatori sono suoi multipli ne segue,
per un teorema precedente, che

  
V  L v1 , v 2 ,..., v n  L v1
per cui abbiamo trovato la base cercata (quella costituita dal solo vettore v 1 ). Se invece solo uno
degli altri vettori del sistema di generatori, sia v i , non è multiplo di v 1 , allora abbiamo

 
V  L v1 , v 2 ,..., vi 1 , vi 1 ,..., v n  L v1 , vi

e abbiamo trovato una base di due vettori. Ma se i vettori che non sono multipli di v 1 sono più di
uno allora si procede prendendone uno, poi prendendone uno che non sia combinazione lineare dei
due, poi uno che non sia combinazione lineare dei tre, e così via, fino a che non rimangano nel
sistema di generatori originale solo vettori che siano combinazione lineare del nuovo insieme di
vettroi. Si può vedere che si è ottenuto cosiì un nuovo insieme di generatori di V, i quali sono
inoltre L.I. e dunque ne costituiscono una base.
DIMENSIONE DI UNO SPAZIO VETTORIALE
DEDUZIONE,
PROPRIETA’ DELLA BASE. Si consideri lo spazio vettoriale V. Sia B  v1

sua base e S  w1
w2


v2

... v n una
... wm un suo sottoinsieme di vettori L.I.. Allora risulta sempre m  n .
DIMOSTRAZIONE. Intanto è possibile scrivere
w1  a1 v1  a 2 v 2  ...  a n v n
Ora se è vero che il vettore w1 non può essere nullo, altrimenti i vettori di S non sarebbero L.I., ne
segue che i coefficineti di cui sopra non sono tutti nulli per cui ve ne sarà uno, diciamo l’iesimo,
diverso da zero. Allo scriviamo
10
a v
a v
w 1 a 1 v1 a 2 v 2
w 1 a 1 v1 a 2 v 2


 ...  v i  ... n n  v i 


 ...  n n
ai
ai
ai
ai
ai
ai
ai
ai
Ma allora abbiamo una nuova base per V data dai vettori v1 , v 2 ,...vi 1 , w1 , vi 1 ,..., v n . Se iterassi
questo procedimento e se fosse m  n , potrei avere una base di V costituita da n vettori di S. Ma
allora gli m-n vettori restanti di S dovrebbero essere esprimibili come combinazione lineare di
questa nuova base e ciò è assurdo in quanto invece, per ipotesi, i vettori di S sono L.I.. Dunque deve
essere m  n .
DEDUZIONE,
PROPRIETA’ DELLA BASE. Tutte le basi di un dato spazio vettoriale contengono lo stesso
numero di vettori.
DIMOSTRAZIONE. Siano date due basi dello stesso spazio vettoriale V. Siano

 w
B  v1
B
|
1
... v n

... w m

In base al precedente teorema deve essere sia m  n che m  n . Dunque la tesi.
DEFINIZIONE,
DIMENSIONE DI UNO SPAZIO VETTORIALE. Si definisce dimensione di uno spazio
vettoriale il numero di elementi di ciascuna sua base.
INTERSEZIONE E SOMMA DI SOTTOSPAZI
VETTORIALI
DEFINIZIONE,
INTERSEZIONE E SOMMA. Dati i due sottospazi vettoriali U e W dello spazio vettoeiale V, si
definiscono i due insiemi

Intersezione: U  W  v V v  U , v  W

Somma: U  W  u  w u  U , w  W


DEFINIZIONE,
SOMMA DIRETTA. Se risulta che

U W  0
allora si dice che l’insieme somma U  W costituisce una somma diretta e si scrive
U  W  U W
DEFINIZIONE,
INSIEMI SUPPLEMENTARI. Se risulta che U  W  V allora si dice che U,W costituiscono
due insiemi supplementari.
11
DEDUZIONE,
SOTTOSPAZIO VETTORIALE. L’insieme intersezione è un sottospazio vettoriale.
DIMOSTRAZIONE. Abbiamo lo spazio vettoriale V e i due sottospazi vettoriali U e W. Si deve
dimostrare che
1)
2)
w1  w2 U  W
w1 , w2 U  W
 w U  W
  R, w  U  W
Ma essendo U e W entrambi sottospazi vettoriali di V, per ipotesi, abbiamo che
1) w1 , w2 U  W  w1  w2 U
2)   R, w U  W   w U
e w1  w2 W  w1  w2 U  W
e  w W   w U  W
DEDUZIONE,
SOTTOSPAZIO VETTORIALE. L’insieme somma è un sottospazio vettoriale.
DIMOSTRAZIONE. Abbiamo lo spazio vettoriale V e i due sottospazi vettoriali U e W. Si deve
dimostrare che
1)
2)
v1  v 2  U  W
v 1 , v 2  U  W
 v U  W
  R, v  U  W
dove
v 1  u 1  w1
u 1 U , w 1 W
vuw
u U , w W
Pertanto si ha
1)
2)

 
 
 

v1  v 2  u1  w1  u 2  w2  u1  u 2  w1  w2 U  W
v 1 , v 2  U  W


 v   u  w   u   w U  W
  R, v U  W
12
DEDUZIONE,
RELAZIONE DI GRASSMANN. Se U e W sono due sottospazi vettoriali di V si ha che
dim U  dim W  dim U  W   dim U  W 
DIMOSTRAZIONE OMESSA.
DEDUZIONE,
SOMMA DIRETTA. Condizione necessaria e sufficinte affinché i due sottospazi vettoriali U e W
di V siano in somma diretta è che ogni vettore t appartenente alla loro somma T  U  W si possa
esprimere in modo unico nella forma
t uw
u U , w W
DIMOSTRAZIONE. 1) Dimostriamo che se U e W sono in somma diretta, cioè hanno per
intersezione il vettore nullo, allora t deve esprimersi in modo unico come somma di un vettore di U
e di uno di W. Ragioniamo per assurdo e dicimo che si possa scrivere
t  u 1  w1

t  u 2  w 2
u 1 U , w1 W

con u 2 U , w 2 W

u 1  u 2 , w1  w 2
Ma allora si ha
u 2  w 2  u1  w1  u 2  u1  w1  w 2
cioè

u 2  u 1 U  w 1  w 2 W  U  W  0
E ciò è in contrasto con l’ipotesi, per cui la scrittura del vettore t risulta unica.
2) Dimostriamo che se la scrittura del vettore t risulta unica allora U e W hanno come intersezione
solo il vettore nullo. Si ragiona per assurdo e si afferma che U e W hanno per intersezione un
vettore v non nullo. Allora la scrittura unica di t data da
t uw
u U , w W
può scriversi anche

 

|
t uwvv uv  wv u w
|
|
|
u U , w W
13
Si ottiene così una scrittura alternativa di t , contro l’ipotesi. Dunque la somma di U e W deve essre
diretta.
DEDUZIONE,
SOMMA DIRETTA. Dato lo spazio vettoriale V e i sottospazii vettoriali U di base
B  u1 ... u n e W di base B |  w1 ... wm , allora U e W sono in somma diretta se e solo se






la loro somma T  U  W ha coma base B  u1 ... un
||
w1 ... wm .
DIMOSTRAZIONE. 1) Diciamo U e W sono in somma diretta e dimostriamo che B || sia una base
di T. Intanto essa costituisce un sistema di generatori di T, evidentemente. Basta allora dimostrare
che i suoi elementi siano L.I.. Procediamo per assurdo e diciamo che non lo siano. Allora potremo
ad esempio scrivere

 
u1  a 2 u2  a 3 u3  ...  a n un  b1 w1  b2 w2  ...  bm wm

Si osservi che nella prima parentesi abbiamo un vettore u di U mentre nella seconda abbiamo un
vettore w di W. Questo vuol dire che
u1  u  w  U  W
e non si tratta di un vettore nullo, in quanto facente parte della base di U. Ciò è assurdo poiché
contraddice l’ipotesi che U e W siani in somma diretta. Per cui B || è una base di T.
2) Assumiamo ora che B || sia una base di T e dimostriamo che U e W siano in somma diretta.
Ragioniamo per assurdo e ammettiamo che esista u  0 U  W . Allora si ha

u  a1 u1  a 2 u 2  ...  a n u n
 a1 u1  a 2 u 2  ...  a n u n  b1 w1  b2 w2  ...  bm wm


u

b
w

b
w

...

b
w
1 1
2
2
m
m

Ora poiché u  0 esiste tanto un coefficiente a quanto un coefficiente b non nulli. Per comodità
diciamo che il primo coefficiente a è non nullo. Allora si ha
u1  
a
b
a2
b
b
u 2  ...  n u n  1 w1  2 w2  ...  m wm
a1
a1
a1
a1
a1
Da quanto sopra si evince che i vettori di B || sono L.D., il che è assurdo, essendo B || una base. Ne
discende che l’intersezione fra U e W è il solo vettore nullo.
MATRICI
I) LO SPAZIO VETTORIALE DELLE MATRICI
DEFINIZIONE,
INSIEME DI MATRICI. Consideriamo l’insieme delle matrici reali di m righe e n colonne il cui
generico elemento è
14
Am,n 
 a11

a
 aij    21
...

 am1
a12
a22
am 2
... a1n 

... a2 n 


... amn 
indichiamo tale insieme con la scrittura M m,n  R  .
DEFINIZIONE,
SOTTOMATRICE. Data una matrice Am ,n   aij  si considerino p sue righe e q sue colonne. La
matrice determinata dagli elementi intersezione di tali righe e colonne prende il nome di
sottomatrice di Am ,n   aij  di tipo pxq. Se, per semplicità di notazione, si suppone che le p righe
siano le prime p, mentre le q colonne siano le prime q, allora tale sottomatrice si indica
Ai1i2i3 ... i p , j1 j2 j3 ... jq
DEFINIZIONE,
SOTTOMATRICE QUADRATA. Una sottomatrice di Am ,n   aij  che abbia p righe e p colonne
è detta sottomatrice quadrata di ordine p.
DEFINIZIONE,
MINORE. Il determinante di una sottomatrice quadrata pxp è definito minore di ordine p. Se, per
semplicità di notazione, consideriamo la sottomatrice quadrata di Am ,n   aij  data da
Ai1i2i3 ... i p , j1 j2 j3 ... j p
allora il corrispondente minore viene comunemente indicato
ai1i2i3 ... i p , j1 j2 j3 ... j p
DEFINIZIONE,
MINORE PRINCIPALE. Nel caso in cui la sottomatrice quadrata ha gli indici delle righe uguali e
nello stesso ordine di quelli delle colonne, allora il suo determinante è detto minore principale della
matrice A.
DEFINIZIONE,
SOTTOMATRICE COMPLEMENTARE. Data una matrice
Am ,n   aij  definisco sua
sottomatrice complementare dell’elemento aij  quella matrice di m-1 righe e n-1 colonne che si
ottiene togliendo alla matrice data la riga i-ma e la colonna j-ma. Tale matrice è una particolare
sottomatrice di Am ,n   aij  e si indica brevemente Aij .
DEFINIZIONE,
COMPLEMENTO ALGEBRICO. Data una matrice Am ,n  definisco complemento algebrico
dell’elemento aij  lo scalare seguente
15

a ij  1
i  j 
det Aij
DEFINIZIONE,
SOMMA DI MATRICI. Dati due elementi Am ,n   aij  e Bm ,n   bij  di M m,n  R  si definisce
somma delle matrici date quella matrice C m ,n   cij  che ha come termine ij-mo la somma dei due
termini i,j-mi di aij  e bij  . Si osserva che trattasi di una operazione binaria interna all’insieme
M m,n  R  .
DEFINIZIONE,
PRODOTTO DI UNA MATRICE PER UNO SCALARE. Si definisce prodotto della matrice
Am ,n   aij  per lo sclare λ la matrice C m ,n   cij  la quale ha come termine ij-mo il prodotto del
termine ij-mo della matrice Am ,n   aij  per lo scalare λ. Si osserva che trattasi di una operazione
interna non binaria, infatti λ non appartiene all’insieme M m,n  R  .
DEDUZIONE,
SPAZIO VETTORIALE DELLE MATRICI. L’insieme M m,n  R  munito delle operazioni di
somma fra matrici e di prodotto di matrici per scalari è uno spazio vettoriale. Dunque è anche un
gruppo commutativo rispetto alla operazione binaria interna di somma di matrici.
II) PRODOTTO FRA MATRICI
DEFINIZIONE,
PRODOTTO RIGA PER COLONNA. Si definisce matrice prodotto righe per colonne della
matrice Am ,n   aij  per la matrice Bn , p   bij  la matrice
 n

Cm, p   cij     aik bkj 
 k 1

DEDUZIONE,
PROPRIETA’ DEL PRODOTTO RIGA PER COLONNA FRA MATRICI. Si dimostrano le
seguenti proprietà:
1) proprietà associativa: Am,n  Bn , p C p ,q    Am,n  Bn , p  C p ,q 
2) proprietà distributiva a destra: Am,n  Bn , p   Cn , p    Am,n  Bn , p   Am,n Cn , p 
3) proprietà distributiva a sinistra: Am ,n   Bm ,n  Cn , p   Am ,n Cn , p   Bm ,n Cn , p 
4) proprietà di omogeneità:  Am ,n  Bn , p    Am ,n  Bn , p   Am ,n  Bn , p  
5) trasposta del prodotto:
T
A
m ,n 
Bn , p   Bn , p   Am,n  
T
T
6) inversa del prodotto: An ,n  Bn ,n    Bn ,n   An ,n  
1
1
1
7) determinante del prodotto: det An ,n  Bn ,n    det An ,n  det Bn ,n 
III) POTENZA DI MATRICI QUADRATE
16
DEFINIZIONE,
POTENZA DI MATRICI QUADRATE. Data la matrice A  M n  R  definisco potenza k- ma di
tale matrice, con k intero positivo, la matrice

Ak  
AA
...
A

k
volte
Si definisce inoltre la potenza di esponente zero come la matrice identità I  M n  R  , si pone cioè

A0  I
Nel caso particolare in cui la matrice A  M n  R  sia invertibile definisco la potenza diesponente
intero negativo nel modo seguente

1 1
Ak  
A
A ...
A1

k
volte
DEDUZIONE,
POTENZA DI UNA MATRICE DIAGONALE. E’ possibile dimostrare che nel caso di matrici
diagonali si ha
 1k
 1 0 ... 0 



0

...
0
 0


2
Dk  


...
 ...


 0
 0 0 ... n 

k
0
2 k
0
0 

... 0 


k
... n 
...
IV) TRASPOSIZIONE DI MATRICI
DEFINIZIONE,
TRASPOSIZIONE DI MATRICE. Definisco trasposta della matrice Am ,n  , e la indico T Am,n  , la
matrice che ha come prima riga la prima colonna di Am ,n  , come seconda riga la seconda colonna di
Am ,n  ecc.
DEFINIZIONE,
MATRICE SIMMETRICA. Una matrice quadrata An  si definisce simmetrica se risulta
T
An   An 
DEFINIZIONE,
MATRICE ANTISIMMETRICA. Una matrice quadrata An  si definisce antisimmetrica se risulta
T
An    An 
17
DEDUZIONE,
SCOMPOSIZIONE DI UNA MATRICE. Ogni matrice An   M n  R  si scrive in modo unico
come somma di una matrice simmetrica e di una antisimmetrica. Tale modo è il seguente
T
An  
An   An 
2

An   T An 
2
DEDUZIONE,
PROPRIETA’ DELLA TRASPOSIZIONE DI MATRICI. Si dimostrano le seguenti proprietà:
A
T
1) trasposta della somma:
m ,n 
 Bm,n  T Am,n   T Bm,n 
2) trasposta del prodotto di una matrice per uno scalare:
3) trasposta della trasposta:
T
4) trasposta del prodotto:

T T
A
Am,n    Am,n 
m ,n 
T
A    A
T
m ,n
m ,n 
Bn , p  T Bn , p  T Am,n 
5) determinante della trasposta: det T Am,n   det Am,n 
6) trasposta dell’inversa:
T
A
m,n 
1
 
T
Am,n  
1
V) INVERSIONE DI MATRICI
DEFINIZIONE,
INVERSIONE DI MATRICE. Si dice che una matrice quadrata An  è invertibile se esiste una
matrice quadrata dello stesso ordine Bn  tale che risulti An  Bn   I n  .
DEDUZIONE,
PROPRIETA’ DELLA INVERSIONE. Sulla inversione di matrice si dimostrano le seguenti
proprietà:
1) commutatività: se risulta An  Bn   I n  allora si ha anche Bn  An   I n 
2) unicità: se la matrice An  ammette inversa allora la sua inversa è unica e si indica An 
3) inversa della trasposta:

T

An    An 
1
T
1

4) inversa del prodotto: An  Bn    Bn  An 
1
1
1
1
5) regolarità: la matrice An  ammette inversa se e solo se il suo determinante è non nullo
1
6) determinante dell’inversa: det An   1 det An 
DEDUZIONE,
CALCOLO DELLA INVERSA. Si dimostra che l’inversa di una matrice regolare An   aij  è la
matrice data da
  1i  j  det Aij 

 


det
A
n 


T
An 
1
18
DEDUZIONE,
GRUPPO DELLE MATRICI INVERTIBILI. Si verifica che il sottoinsieme di M n  R  delle
matrici invertibili, munito della operazione di prodotto fra matrici, costituisce un gruppo non
commutativo rispetto a tale operazione interna binaria. Tale gruppo si indica solitamente GLn, R  .
VI) MATRICI ORTOGONALI
DEFINIZIONE,
MATRICE ORTOGONALE. La matrice An   M n  R  si dice ortogonale nel caso in cui
T
An   An 
1
DEDUZIONE,
PROPRIETA’ DELLE MATRICI ORTOGONALI. Sulla ortogonalità si dimostrano le seguenti
proprietà:
1) se An  è ortogonale allora det An   1
2) se B, B | sono due basi ortonormali e se B|  PB , allora P è una matrice ortogonale
DEDUZIONE,
GRUPPO DELLE MATRICI ORTOGONALI. Si verifica che il sottoinsieme di M n  R  delle
matrici ortogonali, munito della operazione di prodotto fra matrici, costituisce un gruppo non
commutativo rispetto a tale operazione interna binaria. Tale gruppo si indica solitamente GOn, R  .
VII) MATRICI SIMILI
DEFINIZIONE,
|
MATRICI SIMILI. Le matrici An  , An   M n  R  si dicono simili se esiste una matrice
Pn   M n  R  tale che risulti
1
An   Pn  An  Pn 
|
DEDUZIONE,
PROPRIETA’ DELLE MATRICI SIMILI. Sulla similitudine tra matrici si dimostrano le
seguenti proprietà:
1) matrici simili hanno stesso determinante
2) matrici simili hanno stesso rango
3) la relazione di similitudine fra matrici è una relazione di equivalenza
VIII) MATRICI DIAGONALIZZABILI
DEFINIZIONE,
MATRICI DIAGONALIZZABILI. La matrice An   M n  R  si dice diagonalizzabile se esiste
una matrice ad essa simile che sia diagonale.
19
IX) ESPONENZIALE DI MATRICE QUADRATA
DEFINIZIONE,
ESPONENZIALE DI MATRICE. Data una matrice A quadrata di ordine n e uno scalare t, non
negativo, definisco la funzione esponenziale di matrice t  ponendo
t   e

At
1
A2 t 2 A3t 3
i
   At   I n  At 

 ...
2!
3!
i 0 i!
la quale estende la definizione di esponenziale di uno scalare.
DEDUZIONE,
PROPRIETA’ DELL’ESPONENZIALE. L’esponenziale di matrice verifica le seguenti
proprietà:
1) istante iniziale: e A0  I
d At
e   Ae At
dt
3) esponenziale della somma di matrici: A1 A2  A2 A1  e  A1  A2 t  e A1t e A2t
2) derivata dell’esponenziale:
 e 1t
 1 0 ... 0 



 0
 0 2 ... 0 
t
4) esponenziale di matrice diagonale:   
e 

...
...




 0 0 ... n 
 0
 A1

0
0
e 2
0
0 

0 


... e n 
...
...
0
t
A2 
 e A1 0 

 
A2 
0
e


1
At
1 At
6) esponenziale di matrici simili: A  T AT  e  T e T
5) esponenziale di matrice a blocchi: e
X) RANGO DI MATRICE
DEFINIZIONE,
SPAZIO DELLE RIGHE E SPAZIO DELLE COLONNE. Prendiamo una matrice Am ,n  . Il
sottospazio vettoriale di R n dato da L A1 , A2 ,... Am  si dice spazio delle righe della matrice A. Il
sottospazio vettoriale di R m dato da LA1 , A2 ,... An  si dice spazio delle colonne di A. Si pone

R A  L A1 , A2 ,... Am 
C A  LA1 , A 2 ,... A n 

DEDUZIONE,
DIMENSIONE. La dimensione dello spazio delle riche e di quello delle colonne di una data
matrice è la medesima.
DIMOSTRAZIONE. Consideriamo una matrice Am ,n  . Se è matrice nulla allora
20

 0 dim C
R A  0  dim R A  0
CA
A
0
e il teorema è dimostrato. Se invece la matrice presenta qualche elemento non nullo allora lo spazio
delle colonne avrà una base di diciamo r  n colonne e lo spazio delle righe avrà una base di s  m
righe.
Se diciamo che le colonne L.I., quelle costituenti la base, siano, per comodità, le prime r, allora la
colonna j-ma la possiamo scrivere come
A j  h1 j A1  h2 j A2  ...  hrj Ar
In forma estesa si ha
a1 j  h1 j a11  h2 j a12  ...  h rj a1r
a 2 j  h1 j a 21  h2 j a 22  ...  h rj a 2 r
...
a mj  h1 j a m1  h2 j a m 2  ...  h rj a mr
Quindi il generico elemento della matrice si scrive
a ij  h1 j a i1  h2 j a i 2  ...  hrj a ir
A questo punto la riga i-ma della matrice si scrive
a i1  h11a i1  h21a i 2  ...  hr1 a ir
a i 2  h12 a i1  h22 a i 2  ...  h r 2 a ir
...
a in  h1n a i1  h2 n a i 2  ...  hrn a ir
ovvero
 h11 
 h21 
 h r1 
 
 
 
 h12 
 h22 
h 
Ai   a i1   a i 2  ...   r 2 a ir
...
...
...
 
 
 
 h1n 
 h2 n 
 hrn 
Da questo si deduce la dimensione dello spazio delle righe deve essere inferiore o uguale ad r, cioè
che s  r . Partendo dalle righe e procedendo come sopra si prova poi che r  s . Per cui si conclude
che s  r , ovvero la tesi.
DEFINIZIONE,
RANGO. Si dice rango di una matrice Am ,n  e si ndica r A la dimensione del suo spazio delle
righe e delle colonne.
21
X) METODO DI RIDUZIONE DI GAUSS
DEFINIZIONE,
MATRICI EQUIVALENTI PER RIGHE. Due matrici Am ,n  e Bm ,n  si dicono equivalenti per
righe quando sono ottenibili l’una dall’altra attraverso le operazioni seguenti
1) scambio di due righe,
2) moltiplicazione di una riga per uno scalare,
3) sostituzione di una riga con la somma di essa e di un’altra riga.
Le operazioni di cui sopra sono dette operazioni elementari sulle righe.
DEDUZIONE,
SPAZIO DELLE RIGHE. Due matrici Am ,n  e Bm ,n  equivalenti per righe hanno lo stesso spazio
delle righe.
DIMOSTRAZIONE. In base alla descrizione delle trasformazioni elementari sulle righe risulta che
ogni riga di Am ,n  si può esprimere come combinazione lineare delle righe di Bm ,n  , dunque
R A  RB
D’altra parte ogni riga di Bm ,n  può ottenersi come combinazione lineare delle righe di Am ,n  e
dunque
RB  R A
Segue la tesi.
DEDUZIONE,
COROLLARIO. Due matrici equivalenti per righe hanno lo stesso rango.
DIMOSTRAZIONE. Due matrici equivalenti per righe hanno lo stesso spazio delle righe, come
appena dimostrato. Poiché il rango coincide con la dimensione dello spazio delle righe, per
definizione, segue la tesi.
DEFINIZIONE,
MATRICE A SCALINI PER RIGHE. La matrice Am ,n  risulta a scalini per righe se soddisfa le
seguenti proprietà:
1) se gli elementi di una riga sono tutti nulli allora lo sono anche quelli di tutte le righe sottostanti;
2) data una riga non nulla il suo primo elemento non nulo si trova in una colonna successiva a
quella del primo elemento non nullo della riga superiore.
In pratica sono esempi di matrici a scalino le matrici seguenti.
22
0

0
0

0
1
0
0
0
5
2
0
0
3

5
4

0 
1
 5 6 1 

 0
 0 0 9 
 0 0 0  0

 0

4
0
0
0
2
0
0
0
6

0
0

0 
DEDUZIONE,
BASE DELLO SPAZIO DELLE RIGHE. In una matrice a scalini i vettori riga non nulli sono
L.I. e costituiscono dunque una base dello spazio delle righe.
DIMOSTRAZIONE OMESSA.
DEDUZIONE,
METODO DI RIDUZIONE DI GAUSS. Ogni matrice Am ,n  è equivalente per righe ad una
matrice a scalini.
DIMOSTRAZIONE. Invece di dimostrare il teorema in generale lo verifichiamo in un caso
particolare, trasformando la seguente matrice in una matrice a scalini attraverso trasformazioni sulle
righe.
1 1 1 1 


A   2  1 1  1
 1  2 2  2


1 1  1 1 
A2  A2  2 A1


A  B   0  3 3  3
1  2 2  2


1 1  1 1 
A3  A3  A1


B  C   0  3 3  3
 0  3 3  3


A3  A3  A2
C

1 1  1 1 


D   0  3 3  3
0 0
0
0 

Dunque la matrice A è equivalente per righe alla matrice a scalini D.
DEDUZIONE,
RANGO. Il rango di una matrice Am ,n  è dato dal numero di righe non nulle della matrice a scalini
ad essa equivalente per righe.
DIMOSTRAZIONE. Sappiamo che due matrici equivalenti per righe hanno lo stesso rango.
Dunque il rango della matrice Am ,n  è pari a quello della sua matrice a scalini equivalente. D’altra
parte il rango di una matrice a scalini è pari al numero di righe non nulle. Dunque la tesi.
23
XI) PERMUTAZIONI
DEFINIZIONE,
PERMUTAZIONI. Ogni insieme formato dai primi n numeri naturali si dice permutazione degli n
numeri dati. In particolare l’insieme 1,2,3…n si dice permutazione fondamentale.
DEFINIZIONE,
INVERSIONE. Data la generica permutazione i1 , i 2 ,...i n dei primi n numeri naturali si dice che i
due elementi ih , ik presentano una inversione rispetto alla permutazione fondamentale se risulta
ih  ik
hk
Il numero totale di inversioni di una permutazione rispetto alla permutazione fondamentale si
ottiene sommando le inversioni che ciascun numero presenta rispetto a tutti quelli che lo seguono.
Se per esempio considero la permutazione 4,2,3,1,5 si contano la permutazione del 4 rispetto al 2,
rispetto al 3, rispetto a 1 e la permutazione del 3 rispetto a 1; per un totale di 4 permutazioni.
DEFINIZIONE,
CLASSE. Una permutazione si dice di classe pari o dispari a seconda che il numero di inversioni
sia pari oppure dispari.
DEDUZIONE,
CAMBIO DI CLASSE. Se si cambiano di posto due elementi di una permutazione questa cambia
di classe.
DIMOSTRAZIONE OMESSA.
DEFINIZIONE,
SOSTITUZIONE. Siano date le due permutazioni
P : i1 , i 2 ,...i n
P | : j1 , j 2 ,... j n
L’insieme delle operazioni che permettoni di ottenere la seconda dalla prima prendono il nome di
sostituzione e sono indicate col simbolo
 i1 i2 ... in 

S  
 j1 j 2 ... jn 
Due sostituzioni sono uguali quando operano gli stessi cambi sugli elementi della prima riga, senza
produrre necessariamente la stessa permutazione nella seconda riga. In pratica le due seguenti
sostituzioni risultano uguali.
 4 2 3 1
S  

 4 1 2 3
1 3 4 2 
S |  

 3 2 4 1
24
In pratica queste due sostituzioni coincidono e sono in genere scritte mettendo nella prima riga la
permutazione fondamentale
1 2 3 4 
S  

 3 1 2 4
XII) DETERMINANTE DI UNA MATRICE QUADRATA
DEFINIZIONE,
PRODOTTO ASSOCIATO. Sia data una matrice quadrata A di ordine n. Siano date due
permutazioni dei numeri 1,2,3…n che indichiamo
P : i1 , i 2 ,...i n
P | : j1 , j 2 ,... j n
Allora chiamo prodotto associato alla matrice A il prodotto
 1i j ai j ai j ...ai j
1 1
2 2
n n
dove i è il numero di inversioni della prima permutazione e j è quello della seconda permutazione.
Due prodotti associati della matrice A sono detti distinti quando hanno almeno un elemento diverso.
DEDUZIONE,
PRODOTTO ASSOCIATO. Il prodotto associato di una data matrice quadrata non presenta mai
come termini due elementi della stessa colonna o della stessa riga. Presenta invece un elemento per
ciascuna colonna e un elemento per ciscuna riga.
DIMOSTRAZIONE. Nessun elemento presente nel prodotto ha lo stesso primo pedice né lo stesso
secondo pedice poiché questi sono definiti da due permutazioni dei numeri 1,2,3,…n. D’altra parte i
termini sono in tutto n+n e dunque ve ne deve essere uno per ogni riga e uno per ogni colonna.
DEDUZIONE,
PRODOTTO ASSOCIATO. Il segno del prodotto associato non dipende dall’ordine dei sui
termini.
DIMOSTRAZIONE. Intanto il segno di  1 è positivo quando entrambe le permutazioni sono
di classe pari o entrambe sono di classe dispari. E’ negativo quando una è di classe dispari e una è
di classe pari. In pratica tale segno è positivo se le due permutazioni hanno la stessa classe, è
negativo in caso contrario.
Se cambio ordine ai termini del prodotto associato introduco un cambiamento di classe in entrambe
i j
le permutazioni e dunque il segno di  1 resta lo stesso.
i j
DEFINIZIONE,
DETERMINANTE. In una matrice quadrata di ordine uno definisco determinante il suo unico
elemento. Nel caso di una matrice quadrata di ordine n  2 definisco determinate la somma di tutti
i prodotti associati diversi fra loro. Il determinante della matrice
25
 a11 a12 ... a1n 


 a21 a22 ... a2 n 
A

...


 an1 an1 ... ann 
si indica
a11 a12 ... a1n
a 21 a 22 ... a 2 n
...
a n1 an1 ... ann
det A oppure
Per ottenere tutti i prodotti associati alla matrice A è sufficiente tenere fissa una delle due
permutazioni degli indici e far variare l’altra. Se teniamo fissa la permutazione del primo indice,
allora il detreminante della matrice A può scriversi
det A 
  1
ai1 j1 ai2 j2 ...ain jn   1
i j
i
j1 , j2 ... jn
  1 a
j
i1 j1
ai2 j2 ...ain jn
j1 , j2 ... jn
anche se questa simbologia non rende molto l’idea.
permutazione fondamentale allora i  0 e dunque si ha
det A 
  1 a
j
1 j1
Se poi prendiamo per i primi indici la
a2 j2 ...anjn
j1 , j2 ... jn
DEDUZIONE,
PROPRIETA’ DEI DETERMINANTI. Si dimostrano le seguenti proprietà:
1) det An ,n  Bn ,n    det An ,n  det Bn ,n 
2) det An,n    n det An,n 
1
3) det An   1 det An 
4) det T An   det An 
5) il deteminante di matrici diagonali e triangolari (superiori e inferiori) è pari al prodotto degli
elementi sulla diagonale principale.
6) determinante della matrice identità: det I  1
A




7) det  0 0 ... 0   0


B


 0 


 0 
8) det  A B   0
...


 0 
26
A
A
A












9) det  ai1  bi1  ai 2  bi 2  ... an  bin   det  ai1 ai 2 ... an   det  bi1 bi 2 ... bn 






B
B
B






A
A








10) det  ai1 ai 2 ... an    det  ai1 ai 2 ... an 




B
B




A
A








 a h1 a h 2 ... a hn 
 a k 1 a k 2 ... a kn 
   det 

11) det 
B
B




 a k 1 a k 2 ... a kn 
 a h1 a h 2 ... a hn 




C
C




A




 ai1 ai 2 ... ain 
0
12) det 
B


 ai1 ai 2 ... ain 


C


a

a


1j
1j


a2 j
a 2 j


13) det  A
B
C  0
...
...




a

a
nj
nj


14) Se ad una riga di An  aggiungo una combinazione lineare delle altre righe il determinante non
cambia.
15) Se ad una colonna di An  aggiungo una combinazione lineare delle altre colonne il
determinante non cambia.
1
...
1 
 1


a 2 ... an 
 a1
2
2
2
16) det  a1
a2
... a n    a j  ai 

 j i
 ...

 a n 1 a n 1 ... a n 1 
2
n
 1

XIII)
SOTTOMATRICE,
ALGEBRICO
MINORE
E
COMPLEMENTO
DEFINIZIONE,
SOTTOMATRICE. Data una matrice Am ,n   aij  si considerino p sue righe di indici
i1  i 2  ...  i p ; si considerino poi q sue colonne di indici j1  j 2  ...  j p . La matrice determinata
dagli elementi intersezione di tali righe e colonne prende il nome di sottomatrice di Am ,n   aij  di
tipo pxq. Si pone allora
27
Ai1i2 i3 ... i p , j1 j2 j3 ... jq
 ai1 j1

 ai2 j1

 ai3 j1

 ...
a
 i p j1
ai1 j1
ai2 j2
ai3 j2
...
ai p j2
ai1 j3
ai2 j3
ai3 j2
...
ai p j3
...
...
...
...
...
ai1 jq 

ai2 jq 
ai3 jq 

... 
ai p jq 
DEFINIZIONE,
SOTTOMATRICE QUADRATA. Una sottomatrice di Am ,n   aij  che abbia p righe e p colonne
è detta sottomatrice quadrata di ordine p.
DEFINIZIONE,
MINORE. Il determinante di una sottomatrice quadrata pxp è definito minore di ordine p. Se
consideriamo la sottomatrice quadrata di Am ,n   aij  data da
Ai1i2i3 ... i p , j1 j2 j3 ... j p
allora il corrispondente minore viene comunemente indicato
ai1i2i3 ... i p , j1 j2 j3 ... j p
ai1 j1
ai2 j1

 ai3 j1
...
ai p j1
ai1 j1
ai2 j2
ai3 j2
...
ai p j2
ai1 j3
ai2 j3
ai3 j2
...
ai p j3
...
...
...
...
...
ai1 j p
ai2 j p
ai3 j p
...
ai p j p
DEFINIZIONE,
COMPLEMENTO ALGEBRICO. Definisco complemento algebrico dell’elemento a ij di una
matrice A di ordine n, il determinante della matrice che si ottiene da A sopprimendo la riga i-ma e
i j
la colonna j-ma, moltiplicato per  1 . Indichiamo il complemento algebrico di a ij col simbolo
|
aij .
XIV) TEOREMI DI LAPLACE
DEDUZIONE,
LEMMA. Fissato un elemento a ij di una matrice A di ordine n allora la somma dei termini del
determinante di A che contengono tale elemento è pari al prodotto di a ij per il suo complemento
algebrico.
DIMOSTRAZIONE. Dimostro l’enunciato solo nel caso dell’elemento a11 . Intanto il prodotto di
tale elemento per il suo complemento algebrico si scrive
28
a22
a
a11 32
...
an 2
a 23
a33
...
an 3
... a2 n
... a3n
r
 a11  1  a2 r2 a3r3 ...anrn
... ...
... a nn
dove r è il numero di inversioni della permutazione r2 , r3 ,...rn rispetto alla permutazione
fondamentale 2,3,…n. D’altra parte i prodotti associati alla matrice A che contengono l’elemento
a11 si scriveranno
 1r a11a2 r a3r ...anr
2
3
n
Per cui la loro somma sarà
 1r a11  a2r a3r ...anr
2
3
n
dove si dovranno permutare in tutti i modi possibili gli n-1 indici r2 , r3 ,...rn . Dunque la tesi è
dimostrata.
DEDUZIONE,
PRIMO TEOREMA DI LAPLACE. Il determinante di una matrice quadrata è dato dalla somma
dal prodotto di ogni elemento di una riga (o di una colonna) per il proprio complemento algebrico.
DIMOSTRAZIONE. Si considera intantoche gli addendi del determinante di una matrice A di
ordine n sono n! . Questo lo si deduce faciolmente scrivendo il determinante nella forma
det A 
  1 a
j
1 j1
a2 j2 ...anjn
j1 , j2 ... jn
dove si vede che i prodotti associati addendi sono tanti quanto tutte le possibili permutazioni della
permutazione fondamentale dei primi n numeri 1,2,3…n. Tali permutazioni sono appunto n! .
Ora, presa la prima riga della matrice A, ci chiediamo quanti sono i prodotti associati che
contengono l’elemento a11 . Poiché tali prodotti associati possono scriversi
 1r a11a2 r a3r ...anr
2
3
n
essi saranno tanti quante le possibili permutazioni degli n-1 numeri 2,3,...n , le quali ammontano a
n  1!. Poiché tale discorso può farsi per tutti gli altri elementi della prima riga, sommando i
prodotti associati che contengono il primo elemento a quelli che contengono il secondo,…, a quelli
che contengono l’n-mo, arriviamo ad avere una somma di nn  1!  n! prodotti associati, ovvero
otteniamo il determinante della matrice stessa. Ma per il lemma la somma dei prodotti associati che
|
contengono a11 è pari al prodotto di a11 per il suo complemento algebrico a11 , la somma dei
prodotti associati che contengono a12 è pari al prodotto di a12 per il suo complemento algebrico
|
a12 , e così di seguito, fino all’elemento a1n . Dunque la tesi è dimostrata per la prima riga. Con uno
sforzo in più è possibile dimostrarla per la riga generica, e per la generica colonna.
29
DEDUZIONE,
SECONDO TEOREMA DI LAPLACE. In una matrice quadrata la somma degli elementi di una
riga (colonna) per i complementi algebrici dei rispettivi elementi di un’altra riga (colonna) è pari a
zero.
DIMOSTRAZIONE. Si deve dimostrare che
ai1a j1  ai 2 a j 2  ai 3a j 3  ...  ain a jn  0
|
|
|
|
dove i termini della riga i-ma sono moltiplicati per quelli della riga j-ma. Ma si osserva che questa
somma corrisponde al determinante di una matrice uguale alla matrice di partenza se non fosse che
la riga j-ma risulta uguale alla riga i-ma. Si tratta di una matrice con due righe uguali la quale
dunque ha determinante nullo.
XIV) RANGO E MINORI
DEDUZIONE,
RANGO E MINORI. Il rango di una matrice Am ,n  coincide con l’ordine massimo dei minori non
nulli della matrice stessa.
DIMOSTRAZIONE. Ricordo che il rango di una matrice è la dimensione dello spazio delle
colonne della matrice stessa (che poi coincide con la dimensione dello spazio delle righe). Allora sia
p l’ordine massimo dei minori non nulli di Am ,n  . Poi diciamo che, per comodità di notazione, abbia
minore non nullo proprio la sottomatrice individuata dalle prime p righe e le prime p colonne di
Am ,n  . Cioè diciamo che sia
a11
a12
... a1 p
a21
...
a p1
a22 ... a2 p
 0
... ... ...
a p 2 ... anp
Se dimostro che le prime p colonne generano tutte le colonne di Am ,n  , essendo queste L.I., esse
costituiscono una base per lo spazio delle colonne, il quale avrà dunque dimensione p. Essendo p la
dimensione dello spazio delle colonne, allora p sarà il rango della matrice Am ,n  .
Procediamo considerando la matrice
 a11 a12

 a21 a22
 ... ...

 a p1 a p 2
a
 h1 a h 2
... a1 p
... a2 p
...
...
... a pp
... ahp
a1k 

a2 k 
...  con

ank 
ahk 
1  h  n

p  k  n
Si osserva che il suo determinante è sempre nullo, infatti
1) se 1  h  p abbiamo una matrice con due righe uguali;
30
2) se p  h  n il determinante corrisponde ad un minore di Am ,n  di ordine p+1 che dunque vale
zero per ipotesi.
Sviluppando tale determinante rispetto all’ultima riga si ha allora
a11
a21
a12
a22
... a1 p
... a2 p
a1k
a2 k
...
...
...
a p1
a p2
... a pp
...  ah1ah1|  ah 2 ah 2 |  ...  ahp ahp|  ahk  0, h  1,2,3... p
ank
ah1
ah 2
... ahp
ahk
...
Si ha così una relazione vettoriale che dividendo per  si scrive
 a11 
a 
 a1 p 
a 
  |  12  |

 |  1k 
 a21  ah1  a22  ah 2
 a2 p  ahp  a2 k 


...

 ...    ...  
 ...     ...   0, k  p, p  1, p  2,...n
 






a 
a 
a 
a 
 p1 
 p2 
 pp 
 pk 
che si traduce in
  a11   a12 
 a1k 
 a1 p  
  





  a 21   a 22 
 a2k 
 a2 p  
 ...   L  ...   ...  ...  ...  
  





a 
 a 
  a p1   a p 2 
pk
pp





  
k  p, p  1, p  2,...n
Dunque abbiamo un insieme di generatori dello spazio delle colonne costituito da p colonne L.I.. Se
ne deduce che lo spazio delle colonne ha dimensione p, ovvero che il rango della matrice Am ,n  è
proprio p.
XV) MATRICE AGGIUNTA E MATRICE INVERSA
DEFINIZIONE,
MATRICE AGGIUNTA. Data una matrice quadrata A di ordine n, definisco sua matrice aggiunta
la trasposta della matrice il cui elemento i,j-mo è dato dal complemento algebrico dell’elemento i,jmo della matrice A. Simbolicamente si pone
 a11|
 |

a   a 21
A 
 ...
a |
 n1
T
|
|
 a11|
a12 ... a1n 

 |
|
|
a 22 ... a 2 n 
 a12
 
... ... ... 
 ...
|
|
a |
a n 2 ... a nn 
 1n
|
|
a 21 ... a n1 

|
|
a 22 ... a n 2 

... ... ... 
|
|
a 2 n ... a nn 
31
DEFINIZIONE,
MATRICE INVERSA. Data una matrice A di ordine n, definisco sua matrice inversa, e la indico
A1 , ogni matrice di ordine n che verifichi la condizione
AA1  A1 A  I
DEDUZIONE,
UNICITA’. Se la matrice quadrata A ammette matrice inversa, allora tale matrice è unica.
DIMOSTRAZIONE. Siano B e C due matrici inverse di A. Si ha
BA  I  BAC  IC  B AC   C  BI  CI  B  C
DEDUZIONE,
CONDIZIONE NECESSARIA E SUFFICIENTE. Condizione neccessaria e sufficiente affinchè
la matrice quadrata A ammetta inversa è che il suo determinante non sia nullo.
DIMOSTRAZIONE. Se A ammette inversa allora si ha
AA1  I  det AA1   det I  1  det A det A1  1  det A  0
Ora invece partiamo dalla ipotesi che det A  0 . In questo caso ha senso considerare la matrice data
da
 a11|
 |
A a 
1  a12

det A det A  ...

a |
 1n
|
... a n1 

|
... a n 2 

... ... 
|
... a nn 
|
a 21
|
a 22
...
|
a2n
Se proviamo che questa matrice è l’inversa della matrice A allora la tesi è dimostrata. Si ha
 a11 a12

a 
A
1  a 21 a 22
A

det A det A  ... ...

 a n1 a n 2
 n
|
  a1 j a1 j
 j 1
 n
1   a 2 j a1 j |

det A  j 1
 n ...
 a a |
  nj 1 j
 j 1
... a1n  a11|

... a 2 n  a12|
... ...  ...

... a nn  a1n |
n
 a1 j a2 j
|
j 1
n
a
j 1
n
2j
|
...
a
j 1
a2 j
nj
a2 j
|
|
|
a 21 ... a n1 

|
|
a 22 ... a n 2 

... ... ... 
|
|
a 2 n ... a nn 
|
a nj 
j 1

n
|
...  a 2 j a nj 
j 1

...
...

n
| 
...  a nj a nj 
j 1

n
...
a
1j
Se si osserva l’elemento di indice 1,1 si trova lo sviluppo del determinante di A secondo la prima
riga. Allo stesso stesso modo si trovano sulla diagonale principale gli sviluppi del determinante di A
secondo righe via via successive. Se si osserva l’elemento di indici 1,2 si trova lo sviluppo secondo
32
la seconda riga di una matrice uguale alla matrice A se non fosse che la seconda riga presenta gli
stessi elementi della prima. Tale determinante è pertanto nullo in quanto è relativo ad una matrice
con due righe uguali. Stesso discorso vale per ogni elemento che non si trovi sulla diagonale
principale. Si ha allora
0
 det A

det A
A
1  0
A

...
det A det A  ...

0
 0
...
0 

...
0 
=I
...
... 

... det A 
a 
E la tesi è dimostrata.
DEDUZIONE,
MATRICE INVERSA. La matrice inversa della matrice invertibile A è data dalla matrice
 a11|
 |
A a 
1  a12
1
A 

det A det A  ...

a |
 1n
|
a 21
|
a 22
...
|
a2n
|
... a n1 

|
... a n 2 

... ... 
|
... a nn 
XVI) CAMBIAMENTO DI BASE IN UNO SPAZIO VETTORIALE
DEDUZIONE,
MATRICE DEL CAMBIAMENTO DI BASE. Si consideri lo spazio vettoriale V di dimensione
n e due sue basi

 v
B  v1
B|
v2
|
1
v2
... v n
|

... v n
|

Se la matrice A, di ordine n, ha come colonne le coordinate dei vettori di B rispetto alla base B | ,
allora posto
 x1 
 
x 
X  2
...
 
 xn 
il vettore delle coordinate del generico vettore v V rispetto alla base B , e posto
 x1| 
 |
x 
X|  2 
 ... 
x |
 n
il vettore delle coordinate del generico vettore v V rispetto alla base B | , si ha
33
X  AX |
DIMOSTRAZIONE. Si ha

v  v1

v  v1
|
v2
 x1 
 
x 
... v n  2 
...
 
 xn 
v2
 x1| 
 |
| x 
... v n  2 
 ... 
x |
 n

|

Dunque
v
1
v2
 x1 
 
x 
|
... v n  2   v 1
...
 
 xn 


v2
|
 x1| 
 |
|  x2 
... v n  
 ... 
x |
 n

E con una notazione più semplice
BX  B | X |
Essendo poi
v
1
v2
 
... v n  v 1
|
v2
|
  a11 
 
|   a 21 
... v n   
...
 

 a 
  n1 

 a12 
 a1n  
 
 
 a 22 
 a2n  
 ...  ...  ...  
 
  

 an 2 
 a nn  
che con una notazione più semplice si scrive
B  B | A1
A2 ... An   B  B| A
abbiamo
BX  B | X |  B | AX  B | X |
Siccome le coordinate rispetto ad una base sono univocamente determinate allora da quanto sopra si
deduce
AX  X |
cioè la tesi.
34
SISTEMI LINEARI
I) COMPATIBILITA’
DEFINIZIONE,
SISTEMA LINEARE. Diciamo sistema linerae ogni sistema del tipo
 a11 x1  a12 x2  ...  a1m xm  b1
a x  a x  ...  a x  b
 21 1
22 2
2m m
2

...

a n1 x1  an 2 x2  ...  anm xm  bn
ovvero del tipo
An ,m  X m,1  Bn ,1
La matrice An ,m  è detta matrice dei coefficienti del sistema o matrice incompleta, mentre la
matrice Bn ,1 è detta matrice dei termini noti. La matrice A B è detta matrice completa del sistema.
La matrice X m ,1 è in fine la matrice delle incognite.
DEFINIZIONE,
COMPATIBILITA’ E INCOMPATIBILITA’. Un sistema si dice compatibile se ammette
almeno una soluzione; si dice incompatibile se non ne ammatte nessuna.
DEFINIZIONE,
SISTEMA NORMALE. Un sistema si dice normale se il rango della sua matrice dei coefficienti è
pari al numero di equazioni. In caso contrario si dice non normale.
DEFINIZIONE,
SISTEMA OMOGENEO. Un sistema si dice omogeneo se i suoi termini noti sono tutti nulli.
DEFINIZIONE,
SISTEMI EQUIVALENTI. Due sistemi linerai , | compatibili si dicono equivalenti se
presentano la medesima soluzione.
DEDUZIONE,
SISTEMI EQUIVALENTI. Due sistemi lineari , | risultano equivalenti se verificano una delle
condizioni seguenti:
1) le equazioni dell’uno sono proporzionali a quelle dell’altro;
2)  | si ottiene da  aggiungendo una equazione che sia combinazione lineare delle altre;
3)  | si ottiene da  aggiungendo ad una sua equazione una combinazione lineare delle altre;
35
DEDUZIONE,
LEMMA. Condizione necessaria e sufficiente affinchè il sistema lineare An ,m  X m,1  Bn ,1
ammetta almeno una soluzione è che il vettore dei termini noti appartenga allo spazio delle colonne
della matrice dei coefficienti.
DIMOSTRAZIONE. Se il vettore dei termini noti appartiene allo spazio delle colonne della
matrice dei coefficienti allora esso è esprimibile come combinazione lineare delle colonne stesse e
si ha
B  1 A1  2 A2  ...  m Am
ovvero
 1 
 
 
A 2   B
...
 
 m 
ed il sistema ammette dunque almeno una soluzione. Viceversa se il sistema ammette almeno una
soluzione allora si ha
 x1 
 
x 
B  A 2   x1 A1  x2 A2  ...  xm Am
...
 
 xm 
ed il vettroe B è combinazione lineare delle colonne di A, ovvero appartiene allo spazio delle
colonne di A.
DEDUZIONE,
TEOREMA DI ROUCHE’-CAPELLI. Condizione necessaria e sufficiente affinchè il sistema
An ,m  X m,1  Bn ,1 sia compatibile è che la matrice completa sia dello stesso rango della matrice
completa.
DIMOSTRAZIONE. Se matrice completa e matrice incompleta hanno lo stesso rango allora B
deve essere combinazione lineare delle colonne di A. Infatti se così non fosse il rango della matrice
completa sarebbe maggiore di uno rispetto a quello della matrice incompleta. Ma se B è
combinazione lineare delle colonne di A allora, per il lemma, il sistema è compatibile.
Se viceversa il sistema è compatibile, allora per il lemma il vettore B deve essere combinazione
lineare delle colonne della matrice incompleta e quindi il rango della matrice completa è pari a
quello della matrice incompleta.
DEDUZIONE,
SISTEMA NORMALE. Un sistema normale è sempre compatibile.
36
DIMOSTRAZIONE. In un sistema normale necessariamente la matrice completa e quella
incompleta hanno lo stesso rango. Dunque, per il teorema di Rouché-Capelli, il sistema è
compatibile.
II) SISTEMI NORMALI
DEDUZIONE,
TEOREMA DI CRAMER. Il sistema lineare An ,n  X n ,1  Bn ,1 con det An ,n   0 ammette una ed
una sola soluzione. Tale soluzione è data da
1
X n ,1  An ,n  Bn ,1
DIMOSTRAZIONE. Diciamo che sia det An ,n   0 . Allora il rango della matrice dei coefficienti è
n, pari al numero delle righe, e dunque il sistema è normale. In quanto tale ammette almeno una
soluzione. Considerando che la matrice dei coefficienti ammette inversa, si ha poi
An,n  X n,1  Bn,1  A1n,n  An,n  X n,1  A1n,n  Bn,1  X n,1  A1n,n  Bn,1
DEDUZIONE,
SISTEMI NORMALI CON NUMERO DI COLONNE MAGGIORE DEL RANGO.
Consideriamo il sistema lineare
 a11 x1  a12 x2  ...  a1m xm  b1
a x  a x  ...  a x  b
 21 1
22 2
2m m
2

...

a n1 x1  an 2 x2  ...  anm xm  bn
Diciamo che il suo rango sia pari a n e che sia m  n . In questo caso abbiamo un sistema normale
ma non è possibile applicare il teorema di Cramer essendo la matrice dei coefficienti non quadrata.
Si procede allora individuando m  n colonne che siano combinazione lineare delle altre e siportano
a destra dei segni di uguale. Se diciamo che tali colonne siano le ultime m  n , ci troviamo nella
situazione seguente:
 a11 x1  a12 x2  ...  a1n xn
 a x  a x  ...  a x
 21 1
22 2
2n n


an1 x1  an 2 x2  ...  ann xn
 b1  a1,n 1 xn 1  ...  a1,m xm
 b2  a2,n 1 xn 1  ...  a2,m xm
...
 bn  an ,n 1 xn 1  ...  an ,m xm
Se ora introduciamo gli m  n parametri seguenti



1  xn 1 2  xn 2 ... mn  xm
otteniamo il sistema
37
 a11 x1  a12 x 2  ...  a1n x n
 a x  a x  ...  a x
 21 1
22 2
2n n


a n1 x1  a n 2 x 2  ...  a nn x n
 b1  a1,n 11  ...  a1,m m n
 b2  a 2,n 11  ...  a 2,m m n
...
 bn  a n ,n 11  ...  a n ,m m n
Si tratta di un sistema con matrice dei coefficienti a determinanate non nullo. Dunque si ricade nelle
ipotesi del teorema di Cramer. Pertanto la soluzione
è una ed una sola, apparentemente. Infatti, per via
dei parametri, le soluzioni sono  mn .
DEDUZIONE,
ALGORITMO RISOLUTIVO. Il risultato
precedente e altri risultati portano a comporre il
seguente algoritmo risolutivo per sistemi lineari
generici. Si specifica che
* le n  p equazioni debbono essere eliminate in
modo che la matrice dei coefficienti abbia ancora
rango p
** le m  n colonne portate a destra debbono essere
tali che la matrice dei coefficienti abbia ancora
rango p
III) SISTEMI LINEARI OMOGENEI
DEFINIZIONE,
SISTEMA LINEARE OMOGENEO. Un sistema lineare si definisce omogeneo nel caso in cui il
vettore dei termini noti è il vettore nullo.
DEFINIZIONE,
SISTEMA OMOGENEO ASSOCIATO. Dato il generico sistema lineare
An ,m  X m,1  Bn ,1
diciamo suo sistema omogeneo associato il sistema lineare
An ,m  X m,1  On ,1
DEFINIZIONE,
AUTOSOLUZIONI. Dato un sistema omogeneo linerae diciamo sue autosoluzioni ciascuna delle
sue soluzioni che non siano la soluzione nulla.
DEDUZIONE,
COMPATIBILITA’. Un sistema lineare omogeneo è sempre compatibile.
DIMOSTRAZIONE. In un sistema lineare omogeneo il rango della matrice completa è sempre
uguale a quello della matrice completa. Dunque, per il teorema di Rouché-Capelli un sistema
omogeneo è sempre compatibile.
38
DEDUZIONE,
AUTOSOLUZIONI. Condizione necessaria e sufficiente affinchè un sistema omogeneo ammetta
autosoluzioni è che il rango della matrice dei coefficienti sia minore del numero delle incognite.
DIMOSTRAZIONE. Se il sistema omogeneo An ,m  X m,1  On ,1 ammette autosoluzioni allora
abbiamo
A11  A2 2  ...  Am m  O
per valori non tutti nulli dei parametri. Dunque le colonne della matrice dei coefficienti sono L.D..
Ciò significa che la dimensione dello spazio delle colonne è minore del numero delle colonne
stesse, ovvero che il rango della matrice dei coefficienti è minore del numero di incognite.
D’altra parte se il rango della matrice dei coefficienti è minore del numero di incognite, allora le
colonne della matrice dei coefficienti sono L.D., ovvero esiste almeno una emmupla 1 , 2 ,...m per
cui risulti
A11  A2 2  ...  Am m  O
Questa emmupla è appunto una soluzione del sistema.
DEDUZIONE,
INSIEME DELLE SOLUZIONI. L’insieme delle soluzioni di un sistema lineare omogeneo in n
incognite è un sottospazio vettoriale di R n .
DIMOSTRAZIONE. Se X | , X || sono due generiche soluzioni del sistema lineare omogeneo
Am,n  X n ,1  Om,1 , si deve dimostrare che
aX |  bX ||
è ancora una soluzione del sistema dato, dove a e b sono due reali qualunque. Si ha
AaX |  bX ||   aAX |  bAX ||  aO  bO  O
DEDUZIONE,
OMOGENEO ASSOCIATO. Dato un sistema lineare compatibile AX  B si ha che l’insieme
delle sue soluzioni è dato da
X  Y Y W 
dove X è una soluzione particolare del sistema dato e Y è una qualunque soluzione del sisteam
omogeneo associato.
DIMOSTRAZIONE. Intanto ogni elemento dell’insieme X  Y Y  W è sempre una soluzione


del sistema lineare non omogeneo, infatti


A X  Y  A X  AY  B  O  B
39
Poi la generica soluzione
X
del sistema non omogeneo appartiene sempre all’insieme
X  Y Y W , in quanto può scriversi


X  X  X  X  X  X  X , dove Y  X  X è una
soluzione del sistema omogeneo associato, essendo


A X  X  AX  AX  B  B  O
APPLICAZIONI LINEARI
I) INNIETTIVITA’ E SURRIETTIVITA’
DEFINIZIONE,
IMMAGINE DI UNA APPLICAZIONE. L’immagine della applicazione f : S  T è l’insieme
Im f  t  T : s  S f s   t
DEFINIZIONE,
APPLICAZIONE INIETTIVA. La applicazione f : S  T si dice iniettiva se
s1  s2  F s1   F s2 
DEFINIZIONE,
APPLICAZIONE SURIETTIVA. La applicazione f : S  T si dice suriettiva se
Im f  T
DEFINIZIONE,
APPLICAZIONE BIGETTIVA. Un’applicazione iniettiva e suriettiva si dice bigettiva .
II) APPLICAZIONE LINEARE O OMOMORFISMO
DEFINIZIONE,
APPLICAZIONE LINEARE. Una applicazione F : V  W tra due spazi vettoriali V,W si dice
lineare se


 
 
F a v1  bv2  aF v1  bF v2
v1 , v 2  V
a, b  R
DEDUZIONE,
ESISTENZA ED UNICITA’. Siano dati due spazi vettoriali V, di dimensione n, e W, di
dimensione m. Sia B  v1 v2 ... vn una base di W e siano w1 , w2 , ... wn n vettroi arbitrari
di W. Allora esiste una ed una sola applicazione lineare F : V  W tale che

 
 

 
F v1  w1 , F v 2  w 2 ,...F v n  w n
40
DIMOSTRAZIONE. Si consideri l’applicazione


F v  x1 v1  x2 v2  ...  xn vn  x1 w1  x2 w2  ...  xn wn
Intanto vediamo se tale applicazione è lineare.


 
 F ax  bx v  ax  bx v  ...  ax  bx v  
 ax  bx w  ax  bx w  ...  ax  bx w 
 a x w  x w  ...  x w   bx w  x w  ...  x w  
 aF v   bF v 
|

F a v  bv  a x1 v1  x2 v2  ...  xn vn  b x1 v1  x2 v2  ...  xn vn 
|
|
1
1
|
1
1
1
1
|
|
1
2
|
2
2
n
n
|
1
2
2
2
n
|
2
n
|
2
n
|
1
n
n
|
1
2
n
|
2
n
n
|
La linearità è provata. Ora vediamo se questa applicazione verifica la proprietà richiesta. Si ha

F v
...
F v

 ...  0v   0w  1w
 ...  1v   0w  0w
F v 1  1v1  0v2  ...  0vn  1w1  0w2  ...  0wn  w1
2
 0v1  1v2
1
 0v1  0v2
n
1
2
 ...  0wn  w2
n
1
2
 ...  1wn  wn
Dobbiamo infine provare che questa sia l’unica applicazione lineare a verificare questa coindizione.
Se ve ne fosse un’altra, diciamo G : V  W , si avrebbe
 
F v   w
 
 G v ,
F v 1  w1  G v 1 ,
2
...
2
2
 
 
F v n  wn  G v n
e dunque


   
 x F v   x F v   ...  x F v   F v , v  V
 
G v  x1 v1  x2 v2  ...  xn vn  x1G v1  x2 G v2  ...  xn G vn 
1
1
2
2
n
n
III) IMMAGINE E NUCLEO
DEDUZIONE,
IMMAGINE. L’immagine della applicazione lineare F : V  W è un sottospazio vettoriale di W.
DIMOSTRAZIONE. Si deve dimostrare che
 
 
aF v1  bF v 2  F V 
v1 , v 2  V
a, b  R
Si ha infatti, per la linearità di F, che
41
 
 


aF v1  bF v 2  F a v 1  bv 2  F V 
DEDUZIONE,
IMMAGINE. Data la applicazione F : V  W , se v1 v2 ... vn
F v  F v 
1
2

  è un insieme di generatori di F V  .

è una base di V, allora
... F vn
DIMOSTRAZIONE. La linearità della applicazione porge


 
 
 
F v  x1 v1  x2 v2  ...  xn vn  x1 F v1  x2 F v2  ...  xn F vn
   F v 
Dunque F v1
  è un insieme di generatori dell’immagine di F.
... F vn
2
DEFINIZIONE,
NUCLEO. Data un’applicazione lineare F : V  W si dice nucleo l’insieme

 
KerF  v  V : F v  0  V
DEDUZIONE,
NUCLEO. Il nucleo di una applicazione lineare F : V  W è un sottospazio vettoriale di V.
DIMOSTRAZIONE. Si deve dimostrare che
v1 , v 2  KerF  a v1  bv 2  KerF
Si osservi allora che
 
 


 
 
F v1  F v 2  0  F a v1  bv 2  aF v1  bF v 2  a 0  b0
da cui la tesi.
DEDUZIONE,
INIETTIVITA’. Condizione necessaria
F : V  W sia iniettiva è che KerF  0 .

e
sufficiente
affinchè
un’applicazione
lineare
DIMOSTRAZIONE. Se l’applicazione è iniettiva un solo vettore può avere come immagine il
vettore nullo. E tale vettore è il vettore nullo, infatti

    
 
KerF  0, allora l’applicazione deve essere iniettiva, infatti se, per assurdo, si
F 0  0v1  0v2  ...  0vn  0F v1  0F v2  ...  0F vn  0
Viceversa, se
avesse per v1  v 2
 
 
F v1  F v 2
allora
   


F v1  F v 2  0  F v1  v 2  0
42

e dunque KerF  0 , ciò che contraddice l’ipotesi.
IV) MATRICE ASSOCIATA
DEFINIZIONE,
MATRICE ASSOCIATA AD UNA APPLICAZIONE LINEARE. Si consideri l’applicazione
F : V  W . Sia B  v1 v 2 ... v n una base di V e C  w1 w2 ... wm una base di W.
Allora si dice matrice associata alla applicazione F : V  W , rispetto ale basi B di V e C di W, la
matrice la cui colonna i-ma fornisce le coordinate di F v i rispetto alla base C. Simbolicamente




 
 
Am,n  F v i  CAi
DEDUZIONE,
MATRICE ASSOCIATA. Considerando gli elementi introdotti nella definizione precedente,
allora si ha
Ym ,1  Am ,n  X n ,1

dove Y è la colonna delle coordinate di F v rispetto alla base C (con v vettore generico di V), e X
è la colonna delle coordinate di v rispetto alla base B di V.
DIMOSTRAZIONE. Per definizione di matrice associata si ha
 
F v   a
F v1  a11 w1  a 21 w 2  ...  a m1 w m
2
...
12
w1  a 22 w 2  ...  a m 2 w m
 
F v n  a1n w1  a 2 n w 2  ...  a mn w m
Considerato allora il generico vettore v V , di coordinate x1 , x2 ,... xn , allora si ha

 x a
 
 
 


F v  x1 F v1  x2 F v 2  ...  xn F v n  x1 a11 w1  a21 w 2  ...  am1 w m 
2
12



w1  a22 w 2  ...  am 2 w m  ...  xn a1n w1  a2 n w 2  ...  amn w m 
 w1 a11 x1  a12 x2  ...  a1n xn   w 2 a21 x1  a22 x2  ...  a2 n xn   ...  w m am1 x1  am 2 x2  ...  amn xn 

Dette poi y1 , y 2 ,... y n le coordinate di F v rispetto alla base C, abbiamo

F v  y1 w1  y2 w2  ...  ym wm
E dunque, confrontando, si ha
43
 y1  a11 x1  a12 x2  ...  a1n xn
 y  a x  a x  ...  a x
 2
21 1
22 2
2n n

...
 y m  am1 x1  am 2 x2  ...  amn xn
Che in forma matriciale si scrive appunto
Ym ,1  Am ,n  X n ,1
DEDUZIONE,
MATRICE ASSOCIATA E CAMBIAMENTO DI BASI. Si considerino gli elementi del
precedente teorema. Si consideri ora la nuova base B | di V le coordinate dei cui elementi rispetto
alla base B siano sulle colonne rispettive della matrice Tn ,n  . Siano X | le coordinate del generico
vettore v V rispetto tale base. Si consideri inoltre la nuova base C | di W le coordinate dei cui
elementi rispetto alla base C siano date dalle colonne rispettive della matrice S m ,m  . Siano Y | le

coordinate di F v rispetto alla base C | . Allora la matrice associata alla applicazione F : V  W ,
rispetto alle basi B | di V e C | di W, è data da A|  S 1 AT .
DIMOSTRAZIONE. Per quanto riguarda le basi abbiamo intanto
B |  BT
C |  CS
Per le coordinate si ha dunque
BX  B | X |  BTX |  X  TX |
CY  C |Y |  CSY |  Y  SY |
Per la matrice si ha infine
Y  AX  SY |  ATX |  Y |  S 1 AT X |  A|  S 1 AT
IV) RANGO E NULLITA’
DEFINIZIONE,
RANGO E NULLITA’ DI UNA APPLICAZIONE LINEARE. Il rango di una applicazione
lineare è la dimensione della sua immagine. La nullità è invece la dimensione del suo nucleo.
rango  dim Im F
nullità  dim KerF
DEDUZIONE,
TEOREMA DELLA DIMENSIONE. Data l’applicazione F : V  W si ha che
dim V  dim KerF  dim Im F
44
DIMOSTRAZIONE. Diciamo che A sia la matrice associata all’applicazione data rispetto una
qualche coppia di basi. Si ha intanto che
Y  AX  dim Im F  r A
Inoltre si ha che la nullità è pari alla dimensione dello spazio delle soluzioni del sistema omogeneo
AX  O
che è data da n  r A . Per cui si ha
dim Im F  r  A
 n  dim Im F  KerF

 KerF  n  r  A
V) ISOMORFISMI
DEFINIZIONE,
ISOMORFISMO. Una applicazione lineare F : V  W bigettiva si definisce isomorfismo e i due
spazi vettoriali W e V si dicono isomorfi.
DEDUZIONE,
INIETTIVITA’ E SURIETTIVITA’. Una applicazione lineare F : V  W risulta
1) iniettiva se e solo se r A  dim V
2) suriettiva se e solo se r A  dim W
DIMOSTRAZIONE. 1) Diciamo che l’applicazione sia iniettiva. Allora si ha
X 1  X 2  AX1  AX 2  A X 1  X 2   O
Cioè il sistema omogeneo AX  O non ammette autosoluzioni per cui le colonne di A sono tante
quanto il suo rango, ovvero n  r A . Ma essendo n  dim V si ha appunto r A  dim V .
Ora invece partiamo dalla ipotesi che sia r A  dim V . Allora la matrice associata ha rango n e
dunque il sistema omogeneo AX  O ammette solo la soluzione nulla per cui
X 1  X 2  A X 1  X 2   O  AX1  AX 2
e l’applicazione è iniettiva.
2) Diciamo che l’applicazione sia suriettiva. Allora Im F  W  dim Im F  dim W 
r A  dim W .
Adesso ammetiamo invece che r A  dim W  dim Im F  dim W . Ma essendo ImF un
sottospazio vettoriale di W, segue che Im F  W . Dunque l’applicazione è suriettiva.
DEDUZIONE,
CONDIZIONE NECESSARIA E SUFFICIENTE. Condizione necessaria e sufficiente affinchè
due spazi vettoriali V e W siano isomorfi è che abbiano la stessa dimensione.
DIMOSTRAZIONE. I due spazi siano isomorfi. Allora, per il teorema precedente si ha
45
dim V  r A  dim W
e dunque i due spazi hanno la stessa dimensione.
Adesso ammettiamo che i due spazi abbiano la stessa dimensione. Siano poi B  v1

una base di V e C  w1
che
 


v2
... v n

w2 ... wn una base di W. Consideriamo l’applicazione F : V  W tale
 
F v i  F wi
Si vede immediatamente che essa è lineare. Dobbiamo provare che è anche isomorfa. Essendo

F v  x1 w1  x2 w 2  ...  xn w n
v  x1 v 1  x2 v 2  ...  xn v n
si deduce che la matrice associata a questa applicazione, rispetto alle due basi date, è la matrice
identità di ordine n. Dunque il suo rango è proprio n, che poi è la dimensione sia di V che di W.
Quindi, per il precedente teorema, l’applicazione è tanto iniettiva che suriettiva, cioè è bigettiva.
V) ENDOMORFISMI
DEFINIZIONE,
ENDOMORFISMO O OPERATORE. Si dice endomorfismo di V o operatore su V ogni
applicazione lineare del tipo F : V  V .
DEFINIZIONE,
AUTOMORFISMO. Un endomorfismo che sia un isomorfismo è detto automorfismo.
DEDUZIONE,
CAMBIO DI BASE. Sia dato l’endomorfismo su V F : V  V . Siano B  v1 v2 ... vn e

B |  v1

|
v2
|
... vn
|

 due basi di V. Se A è la matrice associata all’endomorfismo rispetto alla
base B e A| è la matrice associata all’emdomorfismo rispetto alla base B | , allora risulta
A|  C 1 AC
essendo B |  CB .
DIMOSTRAZIONE. Se si riprende il teorema analogo sugli omomorfismi e si sostituisce C a T ed
S, si ha la tesi.
DEFINIZIONE,
|
MATRICI SIMILI. Le matrici An  , An   M n  R  si dicono simili se esiste una matrice regolare
Pn   M n  R  tale che risulti
1
An   Pn  An  Pn 
|
46
DEDUZIONE,
PROPRIETA’ DELLE MATRICI SIMILI. Sulla similitudine tra matrici si dimostrano le
seguenti proprietà:
1) matrici simili hanno stesso determinante
2) matrici simili hanno stesso rango
DIMOSTRAZIONE. 1) Per il teorema di Binet si ha
A|  P 1 AP  det A|  det P 1 AP   det P 1 det  AP  
 det P 1 det A det P  det P 1 det P det A  det A
2) Dato l’endomorfismo F : V  V , sia A la matrice ad esso associata rispetto alla base B e sia A|
la matrice ad esso associata rispetto alla base B | . Si ha
dim Im F  r  A
 r  A  r A| 

|
dim Im F  r A 
DEDUZIONE,
INIETTIVITA’ E SURIETTIVITA’. Un endomorfismo F : V  V risulta un automorfismo (cioè
un endomorfismo isomorfismo) se e solo se una matrice ad esso associata è regolare.
DIMOSTRAZIONE. Dal teorema anlogo sul generico isomorfismo si ha che
1) F : V  V è iniettiva se e solo se r A  dim V
2) F : V  V è suriettiva se e solo se r A  dim V
Da cui la tesi.
AUTOVALORI E AUTOVETTORI
I) DEFINIZIONI E PROPRIETA’
DEFINIZIONE,
AUTOVETTORI E AUTOVALORI. Dato un endomorfismo F : V  V si dice che il vettore
v V è un autovettore dell’endomorfismo stesso se risulta che
v  0

 F v   v

Lo scalare λ è detto autovalore dell’autovettore v  R n .
DEFINIZIONE,
AUTOSPAZIO. Si definisce autospazio dell’operatore F : V  V relativo all’autovalore λ
l’insieme degli autovettori relativi a λ più il vettore nullo, e si scrive
47


E    v  V : F v   v

DEDUZIONE,
AUTOSPAZIO. Ciascun autospazio dell’endomorfismo F : V  V è un sottospazio vettoriale di
V.
DIMOSTRAZIONE. Si deve dimostrare che l’autospazio è chiuso rispetto alle operazioni di
somma di vettori e di prodotto di un vettore per uno scalare. Si ha

v1  E  
 F a v1  bv2  aF v1  bF v2  a v1  b v2   a v1  bv2


v2  E  


 
 


DEDUZIONE,
AUTOSPAZIO. Autovettori di autospazi diversi di F : V  V sono linearmente indipendenti.


DIMOSTRAZIONE. Diciamo di avere gli n autovettori v1 v2 ... vn relativi rispettivamente
agli n autovalori distinti 1 , 2 ,..., n . Dobbiamo dimostrare che gli vettori sono L.I.. A tale scopo
procediamo per induzione diretta. Verifichiamo intanto che per n=1 la tesi sia verificata. Ed in
effetti in tal caso abbiamo un solo autovettore che, essendo non nullo, è L.I.. Ora ammettiamo vera
l’ipotesi per i e verifichiamola per i+1. Allora gli i autovettori
v1 v2 ... vi
sono L.I.. ragionando per assurdo diciamo che gli i+1 autovettori
v1 , v2 , ... vi ,
v i 1
non sono L.I.. In tal caso esisteranno dei coefficienti che ci permettano di scrivere
vi 1  a1 v1  a2 v 2  ...  ai vi
da ciò si deduce
v   F a v  a v  ...  a v   
  a v  a v  ...  a v    a v
i 1
1 1
i 1
1 1
2
2
2
2
i
i
i
i
i 1
1 1 1
v i 1  1a1 v1  2 a2 v 2  ...  i ai v i 
 2 a 2 v 2  ...  i ai v i 
 a1 v1 i 1  1   a 2 v 2 i 1  2   ...  ai v i i 1  i   0
Si ottiene che gli i autovettori non sono L.I., il che è in contraddizione con l’ipotesi. Dunque gli i+1
autovettori sono L.I..
DEDUZIONE,
SOMMA DIRETTA. Autospazi di autovalori distinti sono in somma diretta.
DIMOSTRAZIONE OMESSA.
48
DEDUZIONE,
NUMERO DI AUTOVALORI. Un endomorfismo F : V  V dove la dimensione di V è n ha al
massimo n autovalori distinti.
DIMOSTRAZIONE. Poiché gli autovettori di autovalori distinti sono L.I., se vi fossero più di n
autovalori distinti allora si avrebbero più di n vettori di V L.I., il che contraddice l’ipotesi che V
abbia dimensione n.
II) RICERCA DI AUTOVALORI ED AUTOVETTORI
DEFINIZIONE,
EQUAZIONE CARATTERISTICA. Sia dato un endomorfismo F : V  V di matrice An ,n 
rispetto alla base B di R n . Diciamo allora equazione caratteristica di tale endomorfismo
l’equazione
det An ,n   I n ,n    0
DEFINIZIONE,
POLINOMIO CARATTERISTICO. Nelle ipotesi di cui sopra si dice polinomio caratteristico
dell’endomorfismo il polinomio
det An ,n   I n ,n  
DEDUZIONE,
POLINOMIO CARATTERISTICO. Matrici simili hanno lo stesso polinomio caratteristico.
DIMOSTRAZIONE. Consideriamo le due matrici simili A, A|  C 1 AC , dove C è una matrice
regolare. Allora il polinomio caratteristico di A| è dato da
det A|  I   det C 1 AC  I   det C 1 AC  C 1C   det C 1  AC  C  
 det C 1  A  I C   det C 1 det  A  I  det C  det  A  I 
DEFINIZIONE,
MOLTEPLICITA’ ALGEBRICA. Si dice molteplicità algebrica dell’autovalore λ, e la si indica
ma  , la molteplicità della soluzione λ nella equazione caratteristica.
DEFINIZIONE,
MOLTEPLICITA’ GEOMETRICA. Si definisce molteplicità geometrica dell’autovalore λ, e la
si indica mg  , la dimensione del corrispondente autospazio E   .
DEDUZIONE,
MOLTEPLICITA’ ALGEBRICA E MOLTEPLICITA’ GEOMETRICA. Sussiste sempre la
relazione
ma   mg 
DIMOSTRAZIONE OMESSA.
49
DEDUZIONE,
CALCOLO DEGLI AUTOVALORI E DEGLI AUTOVETTORI. Abbiamo un endomorfismo
F : V  V di matrice An ,n  rispetto alla base B. Ne voliamo calcolare gli autovalori e gli
autovettori. Si procede allora come di seguito indicato:
1) si risolve l’equazione caratteristica det An ,n   I n ,n    0 determinando le p soluzioni
1 ,  2 ,... p le cui molteplicità algebriche soddisfano la relazione
ma1   ma 2   ...  ma p   n ;
2) dato l’autovalore i si calcola il rispettivo autospazio E i  risolvendo il sistema lineare
omogeneo
A
n ,n 
 I n ,n  X n ,1  O n ,1
il quale fornisce gli autovettori rispetto alla base B.
III) ENDOMORFISMI DIAGONALIZZABILI
DEFINIZIONE,
DIAGONALIZZAZIONE DI UN ENDOMORFISMO. Un endomorfismo si dice
diagonalizzabile se esiste una base rispetto alla quale la matrice ad esso associata è diagonale.
DEDUZIONE,
DIAGONALIZZAZIONE. Si dimostra che un endomorfismo F di V è diagonalizzabile se e solo
se esiste una base di V formata da autovettori dell’endomorfismo.


DIMOSTRAZIONE.1) Diciamo che esista una base B  v1 v2 ... vn di V formata da
autovettori di F. Ricordiamo che la matrice associata all’endomorfismo è quella matrice la cui i-ma
colonna è data dalle coordinate del vettore F v i rispetto alla base di V. Ma d’altra parte si ha
 
 
F v i  i v i
i  1,2..., n
Dunque una matrice associata all’endomorfismo si scrive
 1 0

 0 2
 ...

0 0
0

0


... n 
...
...
Essa è diagonale e dunque l’endomorfismo è diagonalizzabile.
2) Ora invece diciamo che una matrice associata all’endomorfismo rispetto alla base
B  v1 v2 ... vn sia la matrice diagonale su indicata.Si comme la colonna i-ma della matrice è


 


data dalle coordinate del vettore F v i rispetto alla base B  v1 v2 ... vn , allora si ha che
50
 
F v i  i v i
i  1,2..., n
e dunque la base B è una base di autovettori.
DEDUZIONE,
DIAGONALIZZAZIONE. Un endomorfismo è diagonalizzabile se e solo se
1) il polinomio caratteristico ammette solo radici reali;
2) per ogni autovalore  risulta ma   mg  .
DIMOSTRAZIONE OMESSA.
DEDUZIONE,
COROLLARIO. Se un endomorfismo F di V ammette un numero di autovalori distinti pari alla
dimensione di V, allora F è diagonalizzabile.
IV) MATRICI DIAGONALIZZABILI
DEFINIZIONE,
DIAGONALIZZAZIONE DI UNA MATRICE. Una matrice quadrata
An ,n 
si dice
diagonalizzabile se l’endomorfismo F : R  R , di cui essa può essere considerata la matrice
rispetto alla base canonica di R n , è diagonalizzabile. Autovettori, autovalori e polinomio
caratteristico di F sono detti autovettori, autovalori e polinomio caratteristico di A.
n
n
DEDUZIONE,
DIAGONALIZZAZIONE. Una matrice A è diagonalizzabile se e solo se è simile ad una matrice
diagonale. Ovvero se e solo se esiste una matrice C regolare, tale che C 1 AC è una matrice
diagonale.
La matrice C di cui sopra è la matrice le cui colonne sono le coordinate dei vettori della base di
autovettori di A, rispetto alla base canonica di R n .
SPAZI VETTORIALI EUCLIDEI
I) PRODOTTO SCALARE EUCLIDEO
DEFINIZIONE,
PRODOTTO SCALARE EUCLIDEO. Si dice prodotto scalare euclideo una applicazione
f : VxV  R la quale ad ogni coppia di vettori v1 e v 2 dello spazio vettoriale V associa un
numero reale indicato
v1  v2
che goda delle seguenti proprietà:
1) proprietà commutativa:
51
v1  v2  v2  v1 v1 , v2 V
2) proprietà distributiva a destra rispetto alla somma di vettori:


v1  v2  v3  v1  v2  v1  v3 v1 , v2 , v3 V
3) linearità rispetto al prodotto di un vettore per uno scalare
av  v
1
2

 a v1  v2

v1 , v2 V
a  R
4) positività
v  v  0 v V
e v  v  0  v 0
DEDUZIONE,
PROPRIETA’ DERIVATE. Dalle proprietà indicate nella definizione del prodotto scalare
euclideo discendono le seguenti proprietà:
5) proprietà di stributiva a sinistra rispetto alla somma di vettori
v
1

 v2  v3  v1  v3  v2  v3 v1 , v2 , v3 V
6) linearità rispetto al prodotto di un vettore per uno scalare
  
v1  av2  a v1  v2

v1 , v2 V
a  R
7) proprietà di non degenerazione
v1  v2  0 v2 V
 v1  0
DEFINIZIONE,
SPAZIO VETTORIALE EUCLIDEO. Si dice spazio vettoriale euclideo, e lo si indica E, uno
spazio vettoriale in cui sia introdotto il prodotto scalare euclideo.
DEFINIZIONE,
PRODOTTO SCALARE CANONICO. Si definisce prodotto scalare canonico l’applicazione che
ai due vettori
v1  x1
x2 ... xn   R n
v2   y1
y2 ...
T
T
yn   R n
associa il numero reale
v1  v2  x1 y1  x2 y2  ...  xn yn
Si dimostra che questa operazione è un prodotto scalare euclideo.
52
II) MATRICE
EUCLIDEO
ASSOCIATA
AL
PRODOTTO
SCALARE
DEFINIZIONE,
MATRICE ASSOCIATA AL PRODOTTO SCALARE EUCLIDEO. Siano v1 e v 2 due vettori
di uno spazio vettoriale euclideo E. Sia
v1  BX
v2  BY
con

B  u1 u2 ... un

base dello spazio vettoriale E. Allora diciamo matrice associata al prodotto scalare euclideo rispetto
alla base B la matrice simmetrica
 u1  u1 u1  u2 ... u1  un 


 u2  u1 u2  u2 ... u2  un 
A  aij   ui  u j  

...


 un  u1 un  u2 ... un  un 




DEDUZIONE,
PRODOTTO SCALARE E MATRICE ASSOCIATA. Considerando gli enti introdotti nella
precedente definizione si trova
v1  v2 T XAY
DEDUZIONE,
CAMBIAMENTO DI BASE. Siano v1 e v 2 due vettori di uno spazio vettoriale euclideo E. Sia
v1  BX  B | X |
v2  BY  B |Y |
con
B e B|
basi dello spazio vettoriale E. Sia inoltre C la matrice le cui colonne sono le coordinate dei vettori di
B | nella base B, sia cioè B |  BC . Allora si ha che la matrice associata al prodotto scalare rispetto
alla base B | è data da
A|  C T AC
essendo A la matrice associata al prodotto scalare rispetto alla base B.
53
III) NORME DI VETTORI E RELAZIONI
DEFINIZIONE,
NORMA. Sia E uno spazio vettoriale euclideo. Dato un vettore v  E si definisce norma del
vettore stesso lo scalare

v  vv
Nel caso di prodotto sclare canonico si ha dunque
v  x1  x2  ...  xn
2
2
2
Altrimenti si ha

v 
T
XAX
DEFINIZIONE,
VERSORE. Sia E uno spazio vettoriale euclideo. Dato un vettore v  E si definisce versore del
vettore stesso il vettore

versv 
v
v
DEFINIZIONE,
COSENO. Sia E uno spazio vettoriale euclideo. Dati i vettori non nulli v1 , v2  E si definisce
coseno dell’angolo fra i due vettori stessi lo scalare


cos v1 v 2 
v1 v 2
v1 v 2
che, per la diseguaglianza di Cauchy-Schwartz, risulta compreso fra -1 ed 1, estremi compresi.
DEDUZIONE,
PROPRIETA’ DELLE NORME DI VETTORI. Si dimostrano le seguenti proprietà:
1) definita positività
v 0
v  E
v 0
v  E \ 0
v 0
v0
2) linearità rispetto al prodotto per uno scalare
cv  c v
v  E
54
3) diseguaglianza di Cauchy-Schwartz
vw  v w
v, w  E
vw  v w
 v, w sono L. I .
4) diseguaglianza triangolare
v  w  vw
v, w  E
5) teorema di Carnot
v1  v 2
2
 v1
2
 v2
2
 2v 1  v 2
v, w  E
6) prima identità di polarizzazione
v1  v 2 

1
v1  v 2
2
2
 v1
2
 v2
2

v, w  E
7) seconda identità di polarizzazione
v1  v 2 

1
v1  v 2
4
2
 v1  v 2
2

v, w  E
IV) ORTOGONALITA’ E COMPLEMENTO ORTOGONALE
DEFINIZIONE,
ORTOGONALITA’. Dato uno spazio vettoriale euclideo E, due vettori v1 , v2  E si definiscono
ortogonali fra loro quando
v1  v2  0
e si scrive v1  v2 .
DEDUZIONE,
LINEARE INDIPENDENZA. Siano dati gli m vettori non nulli v1 , v 2 ,..., v m  E . Se essi sono a
due a due ortogonali, allora sono m vettori L.I..
DIMOSTRAZIONE. Per assurdo i vettori dati siano L.D., allora esiste una m-pla di coefficienti
non tutti nulli per i quali sia
a1 v1  a2 v 2  ...  ai v i  am v m  0
Moltiplicando ambo i membri per l’i-mo vettore della m-pla si ha


v i  a1 v1  a2 v 2  ...  ai v i  am v m  0  ai v i  0
55
Ora, dato che i coefficienti non sono tutti nulli, almeno un vettore della m-pla deve essere il vettore
nullo. Ma questo contraddice l’ipotesi della non nullità di tali vettori. Essi dunque devono essere
L.I..
DEFINIZIONE,
COMPLEMENTO ORTOGONALE. Dato uno spazio vettoriale euclideo E sia U un suo
sottospazio vettoriale. Allora definiamo complemento ortogonale di U qualunque insieme di vettori
di E i quali siano tutti ortogonali a tutti i vettori di U. Il complemento ortogonale di U si indica U  .
Simbolicamente si ha

U   v  E v  u  0, u  U

DEDUZIONE,
SOTTOSPAZIO VETTORIALE. Il complemento ortogonale U  di U è un sottospazio vettoriale
di E.
DIMOSTRAZIONE. Dobbiamo provare che U  è chiuso rispetto alle operazioni di somma di
vettori e di prodotto di vettore per scalare. Cioè dobbiamo provare che
a v1  bv 2  U  , a, b  E; v1 , v 2  U 
Preso un qualunque vettore u U troviamo che
av
1


 

 bv 2  u  a v1  u  b v 2  u  a 0  b0  0  0  0
Dunque la tesi è dimostrata.
DEDUZIONE,
COMPLEMENTO ORTOGONALE E BASE. Consideriamo lo spazio vettoriale euclideo E. Sia
U un suo sottospazio e B  u1 u2 ... un una sua base. Sia U  il complemento ortogonale di



U. Allora U coincide con l’insieme W dei vettori di E che sono ortogonali a ciascun vettore di B.
DIMOSTRAZIONE. Intanto U   W in quanto ogni elemento di U  è in particolare ortogonale
ad ogni vettore di B. Inoltre se w è un generico elemento di W e u  x1 u1  x2 u 2  ...  xn u n è un
generico elemento di U, si ha che
w  u  x1 w  u1  x2 w  u 2  ...  xn w  u n  x1 0  x2 0  ...  xn 0  0
e dunque è anche vero che W  U  . Se ne deduce allora che W  U  , cioè la tesi.
DEDUZIONE,
SOMMA DIRETTA. Dato uno spazio vettoriale euclideo E, sia U un suo sottospazio. Allora si
prova che

U U   0
E  U U 
56
V) BASI ORTONORMALI
DEFINIZIONE,
BASE ORTONORMALE. Una base di uno spazio vettoriale euclideo è definita ortonormale se
1) i suoi vettori sono a due a due ortogonali;
2) i suoi vettori hanno norma unitaria.
DEDUZIONE,
METODO DI GRAM-SCHMIDT. Ogni spazio vettoriale euclideo ammette almeno una base
ortogonale.
DIMOSTRAZIONE. Sia E uno spazio vettoriale euclideo di dimensione n e sia
B  u1 u2 ... un una sua generica base. Dimostriamo come costruire, a partire da essa, una
base ortonormale di E.


1)Come primo vettore di questa base prendiamo il vettore
e1 
u1
u1
2)Ora consideriamo il vettore
v 2  l e1  u 2
v 2  e1
Ricaviamo il parametro. Si ha
v 2  e1  l e1  e1  u 2  e1  l  u 2  e1  l  v 2  e1  u 2  e1  u 2  e1
Sostituendo si ha dunque


v 2   u 2  e1 e1  u 2
Questo vettore è non nullo poiché è combinazione lineare di due vettori non nulli e L.I.. Inoltre è
L.I. con il vettore e1 . Poniamo allora
e2 
v2
v2
3)Ora consideriamo il vettore
v 3  l e1  h e 2  u 3
v 3  e1
v 3  e2
Ricaviamo i parametri. Si ha
57
v 3  e1  l e1  e1  he 2  e1  u 3  e1  l  u 3  e1  0  l  u 3  e1
v 3  e 2  l e1  e 2  he 2  e 2  u 3  e 2  h  u 3  e 2  0  h  u 3  e 2
Si ottiene il vettore




v 3   u 3  e1 e1   u 3  e 2 e 2  u 3
Si verifica che questo vettore costituisce un insieme di tre vettori L.I. con e1 , e 2 ed è ortogonale ad
entrambi per costruzione. Poniamo allora
e3 
v3
v3
e otteniamo un insieme di tre vettori L.I. e reciprocamente ortonormali.
4)Procedendo in questo modo fino ad ottenere n vettori, finiamo per ottenere una base ortonormale
di E.
VI) MATRICI ORTOGONALI
DEFINIZIONE,
MATRICE ORTOGONALE. La matrice An   M n  R  si dice ortogonale nel caso in cui
T
An   An 
1
DEDUZIONE,
DETERMINANTE. Il determinante di una matrice ortogonale è pari a  1 .
DIMOSTRAZIONE. In generale si ha
det A  det AT  det AAT   det A det AT  det A
2
Nel caso di matrici ortogonali si ha poi
det AAT   det AA1   det I  1
Confrontando si ha la tesi.
Si prova anche che se A e B sono due matrici ortogonali allora
1) AB è una matrice ortogonale;
2) A1 è una matrice ortogonale;
3) AT è una matrice ortogonale.
DEDUZIONE,
LEMMA. Sia E uno spazio vettoriale euclideo. La matrice associata al prodotto scalare fra i suoi
vettori relativa ad una base ortonormale di E è la matrice identità.
58
DIMOSTRAZIONE IMMEDIATA.
DEDUZIONE,
PASSAGGIO DI BASE ORTONORMALE. Sia E uno spazio vettoriale euclideo. Siano B, B |
due sue basi ortonormali. Allora la matrice T le cui colonne sono i vettori di B | rispetto alla base B,
risulta una matrici ortogonale.
DIMOSTRAZIONE. Per ipotesi B |  TB . Dunque X  TX | , dove X sono le coordinate del
generico vettore di E rispetto ala base B e X | sono le coordinate dello stesso vettore rispetto alla
base B | . Allora sia A la matrice del prodotto scalare associata alla base B e A| quella associata alla
base B | . Sappiamo già che fra le due matrici sussiste la relazione
A|  T T AT
D’altra parte le due matrici sono entrambe relative a basi ortonormali e dunque risulta entrambe
matrici identità. Dunque si ha
A|  T T AT  I  T T T  T T  T 1
E la tesi è dimostrata.
ENDOMORFISMI SIMMETRICI
I) DEFINIZIONI E PROPRIETA’
DEFINIZIONE,
ENDOMORFISMO SIMMETRICO. Sia E uno spazio vettoriale euclideo. Consideriamo
l’endomorfismo F : E  E . Esso si dice simmetrico se risulta
 
 
F v1  v 2  v1  F v 2
v1 , v 2  E
DEDUZIONE,
MATRICE ASSOCIATA. Nelle ipotesi di cui sopra ogni matrice associata all’endomorfismo,
rispetto ad una base ortonormale, è una matrice simmetrica.


DIMOSTRAZIONE. Sia B  u1 u2 ... un una base ortonormale di E. Allora la matrice A di
F associata a tale base, lo ricordiamo, è tale che i suoi elementi soddisfano la relazione
 
F u j  a1 j u1  a2 j u 2  ...  anj u n
per j=1,2,…,n. Ma se l’endomorfismo è simmetrico si ha in particolare che
 
 
ui  F u j  F ui  u j
Poi, ricordando l’ortonormalità della base, si ha
59
 
F u   u  a
u i  F u j  aij
i
j
ji
Per cui, sostituendo le due ultime relazioni nella precedente, si ha
aij  a ji
Cioè la tesi.
DEDUZIONE,
AUTOVALORI. Ogni endomorfismo simmetrico ha autovalori reali.
DIMOSTRAZIONE. Dato lo spazio euclideo E, consideriamo l’endomorfismo F : E  E , di
matrice associata A, rispetto ad una base ortonormale B di E. Sia v  BX un autovettore di A, il cui
autovalore sia l. A priori l’autovalore appartiene al campo complesso. Si osservi ora che

 AX  lX  AX  lX  A X  l X  A X  l X

T
T
T
T

 AX  lX  X  AX   X lX  X A X  l X X  A X
 
 
T
T
X  lX X
Sostituendo la prima nella seconda si ha
l X 
T
T
T
T
X  lX X  lX X  lX X
T
Si consideri ora che la sommatoria X X è fatta di addendi non negativi (perché prodotti di numeri
complessi coniugati) e non tutti nulli essendo i due vettori colonna non nulli (perché coordinate di
autovettori). Dunque si possono dividere ambo i membri della uguaglianza per tale somma,
ottenendo l  l , ovvero che l è reale.
DEDUZIONE,
AUTOVETTORI. Se un endomorfismo simmetrico ammette due autovalori distinti allora i relativi
autovettori sono ortogonali fra loro.
DIMOSTRAZIONE. Siano l ed m due autovalori distinti dell’endomorfismo F : E  E . Allora
detti v1 , v 2 due rispettivi autovalori, abbiamo
 
 
 
 F v1  l v1

 v1  m v 2  v 2  l v 1  m v 1  v 2  l v 1  v 2  m  l v 1  v 2  0  v 1  v 2  0
 F v 2  mv 2

v 1  F v 2  v 2  F v 1
 
Ma essendo i due autovettori non nulli, ne segue che essi debbono essere ortogonali.
DEDUZIONE,
PROPRIETA’. Sia v un autovettore di un endomorfismo simmetrico F. Allora se un vettore u
risulta ortogonale a v , ne segue che anche il vettore F u è ortogonale a v .

60
DIMOSTRAZIONE. Per la ipotesi di simmetria dell’endomorfismo F si ha


vF u  uF v
D’altra parte se  è l’autovalore dell’autovettore v , si deve avere che

F v  v
Confrontando si trova dunque

v  F u  u  v
Ma essendo poi u  v  0 , segue la tesi.
II) DIAGONALIZZAZIONE
DEDUZIONE,
LEMMA. Un endomorfismo simmetrico ammette sempre una base ortonormale di autovettori.
DIMOSTRAZIONE OMESSA.
DEDUZIONE,
DIAGONALIZZAZIONE. Un endomorfismo simmetrico è diagonalizzabile.
DIMOSTRAZIONE OVVIA.
DEDUZIONE,
COROLLARIO. Ogni matrice simmetrica A ammette matrice simile diagonale
A|  C 1 AC  C T AC
con C matrice ortogonale.
DIMOSTRAZIONE. Consideriamo l’endomorfismo simmetrico F : E  E , con E spazio
vettoriale euclideo. Siano B, B | due basi ortonormali di E, siano A, A| le matrici associate ad F
rispettive, sia inoltre C la matrice le cui colonne sono le coordinate dei vettori di B | rispetto alla
base B.
Allora intanto la matrice C è una matrice ortogonale, cioè di passaggio fra due basi ortogonali, e
dunque C 1  C T . Inoltre A|  C 1 AC . Ora se B | è una matrice ortonormale di autovettori
dell’endomorfismo (un endomorfismo simmetrico ammette sempre una base di autovettori
ortogonale) allora la matrice A| è diagonale. Dunque si ha
A|  C 1 AC  C T AC
con A| diagonale.
61
Scarica