Facoltá di Scienze Matematiche, Fisiche e Naturali
Appunti di
Geometria 1
Guido Cioni
2
Versione del 25 maggio 2012
Indice
1 Nozioni Insiemistiche
1.1 Numeri complessi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Polinomi in K . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 Relazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
8
9
10
2 Spazi vettoriali
2.1 Esempi di spazi vettoriali . . . . . . .
2.1.1 Spazi di polinomi . . . . . . . .
2.1.2 Spazi di funzioni . . . . . . . .
2.2 Matrici . . . . . . . . . . . . . . . . . .
2.3 Sottospazi vettoriali . . . . . . . . . .
2.3.1 Esempi di sottospazi vettoriali
2.4 Operazioni con sottospazi . . . . . . .
13
14
14
14
15
16
18
19
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3 Applicazioni Lineari
21
3.0.1 Esempi di applicazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4 Sistemi Lineari
27
4.1 Sistema lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.2 Matrici a scalini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.3 Algoritmo di Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
5 Basi e dimensione
35
5.1 Applicazioni lineari e basi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
5.2 Proprietá delle basi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
6 Basi e applicazioni lineari
41
7 Rango
7.1 Rango . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.2 Come trovare una base dello spazio delle soluzioni di Ax = 0
7.3 Matrici invertibili e gruppo lineare . . . . . . . . . . . . . . .
7.4 Calcolo dell’inversa . . . . . . . . . . . . . . . . . . . . . . . .
7.5 Rappresentazione matriciale di una applicazione lineare . . .
7.6 Matrice del cambiamento di base . . . . . . . . . . . . . . . .
7.7 Ulteriore caratterizzazione del rango . . . . . . . . . . . . . .
45
45
47
47
50
50
52
53
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
INDICE
8 Determinante
8.1 Esistenza ed unicitá del determinante . .
8.1.1 Dimostrazione del teorema (8.1.1)
8.2 Proprietá aggiuntive del determinante . .
8.2.1 Calcolo dell’inversa . . . . . . . . .
8.3 Risoluzione di sistemi . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
55
55
56
57
58
59
9 Endomorfismi
61
9.1 Calcolo di autovalori e autospazi . . . . . . . . . . . . . . . . . . . . . . . . . . 63
9.2 Conseguenze del teorema di diagonalizzazione . . . . . . . . . . . . . . . . . . . 66
10 Forme Bilineari
10.1 Cambiamenti di base . . . . . . . . .
10.2 Prodotti scalari . . . . . . . . . . . .
10.3 Diagonalizzazione di prodotti scalari
10.4 Forme quadratiche reali . . . . . . .
10.5 Calcolo della segnatura . . . . . . . .
10.6 Spazi euclidei . . . . . . . . . . . . .
10.6.1 Ricerca di basi ortonormali .
10.7 Matrici ortogonali . . . . . . . . . .
10.7.1 Teorema spettrale . . . . . .
10.8 Applicazioni ortogonali . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
71
72
73
78
80
82
83
85
86
87
88
Capitolo 1
Nozioni Insiemistiche
Gli insiemi sono gli oggetti base con cui lavoreremo. Sono scontate le notazioni a ∈ A , a ∈
/ A.
Sono quindi immediate le seguenti proprietá
1. A ⊂ B : ∀a ∈ A , a ∈ B ;
2. A = B ⇔ A ⊂ B, B ⊂ A.
Osservazione 1.
1. N denota l’insieme dei numeri naturali
2. N ⊂ Z denota l’insieme dei numeri interi
3. Z ⊂ Q denota l’insieme dei numeri razionali
4. Q ⊂ R denota l’insieme dei numeri reali.
Osservazione 2.
Un insieme si puó definire esplicitando una proprietá rispettata da tutti gli elementi contenuti
nello stesso.
{x ∈ A : proprietá}
(1.1)
Definizione 1.1 (Insiemi composti). Ci sono un insieme di operazioni che , a partire da
insiemi, producono nuovi insiemi.
A ∪ B = {x : x ∈ A ∨ x ∈ B}
(1.2)
A ∩ B = {x : x ∈ A ∧ x ∈ B}
(1.3)
A − B = {x ∈ A : x ∈
/ B}
(1.4)
Un importante definizione utile é data dalla seguente
Definizione 1.2 (Prodotto cartesiano).
A × B = {(a, b) : a ∈ A, b ∈ B}
(1.5)
Ovvero definiamo come prodotto cartesiano l’insieme formato dalle coppie ordinate di A e B.
Si ponga attenzione alla differenza tra un normale insieme che contiene gli elementi 1,2 e il
prodotto cartesiano tra i due. Infatti
(1, 2) 6= (2, 1) = {1, 2} = {2, 1}
.
5
6
CAPITOLO 1. NOZIONI INSIEMISTICHE
Definizione 1.3 (Sottoinsieme proprio). L’insieme A ⊂ B é sottoinsieme proprio se A 6= B ,
ossia ∃b ∈ B : b ∈
/ A . Dunque esiste almeno un elemento che sta in B , che peró non sta in A.
A questo punto definiamo gli altri fondamentali oggetti necessari per la nostra trattazione.
Definizione 1.4 (Applicazione). Una applicazione é una terna di oggetti : dominio , codominio ed una legge tali che A → B , e la freccia sta per la legge. Questo significa che
∀a ∈ A → f (a) ∈ B. L’applicazione associa quindi uno ed un solo elemento nel codominio :
non ci deve essere ambiguitá nella definizione di f (a) !
Definizione 1.5 (Immagine). Denoteremo con
Immf = f (A) = {b ∈ B : a ∈ A : b = f (a)}
(1.6)
Seguono quindi una serie di definizioni che riguardano le applicazioni.
Definizione 1.6 (Surgettivitá). f : A → B si dice surgettiva se Immf = B ovvero Immf ⊂ B
e B ⊂ Immf . Si noti che la prima inclusione é ovvia visto che il codominio di f é proprio B.
La proprietá si puó quindi esplicitare come
∀b ∈ B, ∃a ∈ A tale che f (a) = b
(1.7)
Definizione 1.7 (Iniettivitá). f si dice iniettiva se ∀(x, y) ∈ A con x 6= y ⇒ f (x) 6= f (y). Si
noti che, se f (x) = f (y) ⇒ x = y
Osservazione 3.
Prendiamo la funzione f : R → R definita da x → x2 . Tale funzione non é iniettiva perché
f (1) = f (−1). Inoltre non é surgettiva perché −1 ∈
/ Immf ⇒ Immf 6= R
Definizione 1.8 (bigettiva). La funzione f : A → B si dice bigettiva se é sia iniettiva che
surgettiva.
Definizione 1.9 (Restrizione di f ). Supponiamo di prendere f : A → B e Z ⊂ A. L’insieme
f (Z) é definita da
f (Z) = {b ∈ B : ∃x ∈ Z tale che b = f (x)}
(1.8)
La restrizione di f a Z é l’applicazione definita da
f |Z : Z → B
(1.9)
Questa é definita da ∀x ∈ Z, f |Z (x) = f (x)
Osservazione 4.
Si noti che
Imm(f |Z ) = {b ∈ B : ∃x ∈ Z : b = f (x)} = f (Z)
(1.10)
Definizione 1.10 (Controimmagine). Data f : A → B , prendiamo W ⊂ B. Definiamo la
controimmagine
f −1 (W ) = {x ∈ A : f (x) ∈ W }
(1.11)
Osservazione 5.
Prendiamo l’applicazione giá considerata definita da f (x) = x2 . Allora
√
√
f −1 ([3, 4]) = x ∈ R : x2 ∈ [3, 4] = [ 3, 2] ∪ [−2, − 3]
(1.12)
7
Definizione 1.11 (Composizione di applicazioni). Supponiamo di avere f : A → B , g : B →
C. Si denota con (g ◦ f ) una applicazione
(g ◦ f ) : A → C
definita da
∀a ∈ A, (g ◦ f )(a) ≡ g(f (a))
Definizione 1.12 (Uguaglianza tra funzioni). Prendiamo f, g : A → B . Diciamo che f = g
se ∀a ∈ A allora f (a) = g(a).
Osservazione 6.
Si noti che g ◦ f 6= f ◦ g in generale.
Definizione 1.13 (Identitá). Dato un insieme A si definisce l’applicazione identitá come
idA : A → A
,
x→x
(1.13)
Definizione 1.14 (Applicazione invertibile). Una applicazione f : A → B si dice invertibile
se ∃g : B → A tale che g ◦ f = idA e f ◦ g = idB .
Osservazione 7.
Condizione necessaria e sufficiente affinché una applicazione sia invertibile é che questa sia
bigettiva. Ovvero f é invertibile ⇔ f é bigettiva.
Osservazione 8.
Siano f : A → B , g : B → C . Si ha che
Imm(g ◦ f ) = Imm g
Immf
(1.14)
Definizione 1.15 (Operazioni su insiemi). Un’operazione su A é un’applicazione A × A → A
Osservazione 9.
R é un insieme ordinato perché ∀a, b ∈ R si puó dire che a < b , a = b o a > b. Lo stesso
insieme é dotato inoltre di una somma e di un prodotto.
In particolare considerando le applicazioni somma , + , e prodotto , · , si possono definire
nuovi oggetti , i campi.
Definizione 1.16 (Campo). Si dice campo una terna (K, +, ·) , dove K é un insieme non
vuoto e + : K × K → K , · : K × K → K e valgono le seguenti
1 : Associativitá della somma : ∀a, b, c ∈ K allora (a + b) + c = a + (b + c).
2 : Esistenza dell’elemento neutro per la somma : ∃ un elemento di K detto zero e
denotato con 0 , tale che ∀a ∈ K , a + 0 = 0 + a = a.
3 : Esistenza dell’inverso per la somma : ∀a ∈ K, ∃a0 ∈ K tale che a + a0 = a0 + a = 0.
Tale elemento é detto opposto di a e si denota con −a.
4 : Commutativitá : ∀a, b ∈ K allora a + b = b + a.
5 : Associativitá : ∀a, b, c ∈ K allora (a · b) · c = a · (b · c).
8
CAPITOLO 1. NOZIONI INSIEMISTICHE
6 : Esistenza dell’elemento neutro : ∃ un elemento di K detto unitá e denotato 1 , tale
che ∀a ∈ K , a · 1 = 1 · a = a.
7 : Distributivitá : ∀a, b, c ∈ K allora a·(b+c) = ab+ac o , analogamente (a+b)·c = ac+bc.
8 : Commutativitá del prodotto : ∀a, b ∈ K allora ab = ba.
9 : Esistenza dell’inverso per il prodotto : ∀a ∈ K , con a 6= 0 , ∃a0 ∈ K tale che
aa0 = a0 a = 1. Tale elemento é detto inverso di a e si indica con a−1 .
Osservazione 10.
Q é un campo; R é un campo ; Z non é un campo.
Definizione 1.17 (Anello/Anello commutativo). Definiamo un oggetto che verifica le proprietá (1)-(7) precedenti ANELLO. Se viene verificata anche al (8) allora viene detto ANELLO
COMMUTATIVO.
Osservazione 11.
(Z, +, ·) é un anello commutativo.
1.1
Numeri complessi
Sia i tale che i2 = −1 . Definiamo lo spazio dei numeri complessi C = {a + ib : a, b ∈ R}.
Quindi se z ∈ C allora z = a + ib con a = <(z) e b = =(z).
Definizione 1.18 (Relazione di uguaglianza tra complessi).
a + ib = c + id ⇔ a = c ∧ b = d
Osservazione 12.
Definiamo un’applicazione ϕ : C → R2 definita da z = a + ib → (a, b) che associa ad ogni
numero complesso la coppia di numeri a, b. Si noti che ϕ é iniettiva e surgettiva perché
∀(a, b) ∈ R2 , ∃z ∈ C tale che ϕ(z) = (a, b).
Definizione 1.19 (Operazioni su numeri complessi). Definiamo una somma su C ,
+:C×C→C
definita da
(z, w) → z + w ≡ (a + c) + i(b + d)
con z = a + ib e w = c + id. Definiamo inoltre un prodotto
·:C×C→C
definito da
(z, w) → (ac − bd) + i(ad + bc)
Definizione 1.20 (Coniugio). L’applicazione coniugio ¯: C → C é definita da z = a + ib →
z̄ = a − ib . Si osservi che z ∈ R ⇔ z = z̄ e che z z̄ = |z|2 .
1.2. POLINOMI IN K
1.2
9
Polinomi in K
Definiamo lo spazio dei polinomi nel campo K .
K[x] = { polinomi in x a coefficienti in K}
Ovvero
K[x] 3 p(x) = a0 + a1 x + . . . + an xn =
n
X
ai xi
(1.15)
(1.16)
i=0
Definizione 1.21 (Grado di p). Sia p(x) ∈ K[x] , p(x) 6= 0. Definiremo il grado di p come
deg(p(x)) = max {k ∈ N : ak 6= 0}
(1.17)
Con questa definizione risulta immediato osservare che
deg(0) = −1(oppure − ∞)
;
deg(p(x)) ≤ n
(1.18)
Definizione 1.22 (Somma su polinomi). Definiamo una somma + : K[x] × K[x] → K[x] che
associa ad una coppia di polinomi (p, q) la loro somma p + q. Questa si puó definire come
(
P
n
X
p(x) = ni=0 ai xi
(p
+
q)(x)
=
(ai + bi )xi
(1.19)
Pn
i
q(x) = i=0 bi x
i=0
Definizione 1.23 (Prodotto su polinomi). Analogamente si definisce un prodotto · : K[x] ×
K[x] → K[x] che associa ad ogni coppia di polinomi (p, q) il suo prodotto pq. Per trovare la
definizione formale possiamo pensare al prodotto usuale tra polinomi , ricordando peró che
stiamo definendo il prodotto in questo modo ( non é detto che sia l’unico!).
(
P
n+k
i
X
X
p = ni=0 ai xi
i
⇒ (pq)(x) =
ci x
dove ci =
aj bi−j
(1.20)
P
q = ki=0 bi xi
i=0
j=0
Osservazione 13.
Supponiamo di voler trovare l’inverso del polinomio x . Bisogna quindi trovare q(x) tale che
xq(x) = 1 , ma deg(xq(x)) ≥ 1 . Si nota quindi che gli unici polinomi invertibili sono quelli di
grado 0, altrimenti la relazione scritta prima non é verificata. Dunque (K[x], +, ·) é un anello
commutativo.
Definizione 1.24 (Radice di un polinomio). Si dice che a é radice di p(x) ⇔ p(a) = 0
Teorema 1.2.1 (di divisione ).
∀a, b ∈ K[x], b 6= 0 , ∃no unici q(quoziente),r(resto)∈ K[x] tali che
(
a = bq + r
deg r < deg b
Osservazione 14.
Se r = 0 allora b|a , ovvero b divide a.
Teorema 1.2.2 (di Ruffini).
p(x) ∈ K[x] , α ∈ K. Se p(α) = 0 allora (x − α)|p , ovvero (x − α) divide p.
(1.21)
10
CAPITOLO 1. NOZIONI INSIEMISTICHE
Dimostrazione. Per il teorema di divisione esistono q, r ∈ K[x] tali che
(
p(x) = (x − α)q(x) + r(x)
deg r(x) < 1 = deg(x − α) ⇒ r(x) é costante
(1.22)
Resta quindi da dimostrare che r = 0. Utilizzo il fatto che α é radice , quindi p(α) =
(α − α) · q(x) + r = 0 + r ⇒ r = 0
Proposizione 1.2.3. Se p(α) = 0 , ∃m ∈ N tale che p(x) = (x − α)m q(x) con q(α) 6= 0.
Definizione 1.25 (Molteplicitá algebrica). L’intero m é detto molteplicitá algebrica (µa )
della radice α.
Osservazione 15.
Se p(x) = (x − α)2 q(x) allora µa (α) ≥ 2
Osservazione 16.
I polinomi
possono
essere scomposti in polinomi di grado minore , ad esempio (x2 − 2) =
√
√
(x + 2)(x − 2). Ovviamente la nozione di scomposizione dipende dal campo su cui si fanno
i calcoli : la scomposizione precedente ha senso solo su R e non su Q. Dunque
ˆ x2 − 2 é irriducibile in Q.
ˆ x2 + 1 é irriducibile in R.
Osservazione 17.
1. I polinomi di grado 1 sono irriducibili.
2. ax2 + bx + c ∈ R[x] é irriducibile in R ⇔ b2 − 4ac < 0.
Teorema 1.2.4 (fondamentale dell’algebra). Ogni polinomio in C[x] non costante ha almeno
una radice.
1.3
Relazioni
Definizione 1.26 (Relazioni). Una relazione su A é un sottoinsieme , R , di A × A. Se
(a, b) ∈ R scrivo aRb , ovvero a é in relazione con b.
Osservazione 18.
Prendiamo come A = {rette del piano } e r, s ∈ A . Una relazione possibile puó essere il
parallelismo visto che rRs ⇔ r k s.
Definizione 1.27 (Relazione di equivalenza). Una relazione R si dice relazione di equivalenza
se
Proprietá riflessiva : ∀a ∈ A , aRa.
Proprietá simmetrica : aRb ⇒ bRa.
Proprietá transitiva : aRb, bRc ⇒ aRc
Osservazione 19.
Il parallelismo é una relazione di equivalenza.
1.3. RELAZIONI
11
Definizione 1.28 (Classe e rappresentante). Sia R relazione di equivalenza. ∀a ∈ A , [a] =
{b ∈ A : bRa} é detta classe di a. Ogni b ∈ [a] si dice rappresentante di [a].
Definizione 1.29 (Insieme quoziente). Viene definito come insieme quoziente l’insieme
A/R = {[a] : a ∈ A}
(1.23)
dove R é una relazione.
Definizione 1.30 (Proiezione sull’insieme quoziente). Possiamo definire un’applicazione proiezione
al quoziente π : A → A/R che agisce come a → [a] ed é surgettiva perché a ∈ [a] ma in generale
non é iniettiva.
Proposizione 1.3.1.
1. [a] = [b] ⇔ aRb
2. Se [a] 6= [b] ⇒ [a] ∩ [b] = ∅
Dimostrazione. (1) (⇒)a ∈ [a] = [b] , quindi a ∈ [b] e quindi aRb. (⇐) Devo provare che
entrambi gli insiemi sono contenuti nell’altro. Provo che [a] ⊂ [b] , cioé che ∀x ∈ [a] , x ∈ [b].
Ma se x ∈ [a] allora xRa e per ipotesi aRb , dunque per la transitivitá xRb , x ∈ [b] . L’altra
inclusione é analoga.
(2) Per assurdo supponiamo che esista x ∈ [a] ∩ [b], cioé xRa , xRb , ovvero aRb che significa
, per il punto (1) , [a] = [b] , che contraddice la tesi.
Definizione 1.31 (Unione). ∀a ∈ A , a ∈ [a] , A = ∪a∈A [a]. Inoltre , per la proposizione
precedente , le classi di equivalenza o coincidono o sono completamente disgiunte.
12
CAPITOLO 1. NOZIONI INSIEMISTICHE
Capitolo 2
Spazi vettoriali
Definizione 2.1 (Prodotto cartesiano di campi). Se K campo definiamo con la notazione
Kn = {(x1 , . . . , xn ) : xi ∈ K} il prodotto cartesiano di n campi K.
Cerchiamo di definire anche una somma su Kn .
Definizione 2.2 (Somma su campi).
+ : Kn × Kn → Kn
, (x1 , . . . , xn ) + (y1 , . . . , yn ) ≡ (x1 + y1 , . . . , xn + yn )
(2.1)
Definiamo anche un
Definizione 2.3 (Prodotto per scalari su campi).
· : K × Kn → Kn
, ∀α ∈ K, ∀(x1 , . . . , xn ) ∈ Kn , α(x1 , . . . , xn ) ≡ (αx1 , . . . , αxn )
(2.2)
Le proprietá viste prima ci permettono di definire una nuova struttura
Definizione 2.4 (Campo vettoriale). Si dice campo vettoriale un insieme V con (V, +, ·, K)
,V 6= ∅, su un campo K se valgono le proprietá seguenti. Sia x ≡ (x1 , . . . , xn ) :
1. Associativitá della somma
2. Esistenza elemento neutro per la somma
3. Esistenza inverso per la somma
4. Commutativitá per la somma
5. ∀α, β ∈ K , ∀x ∈ Kn allora (αβ)x = α(βx)
6. ∀α, β ∈ K, ∀x ∈ Kn , (α + β)x = αx + βx
7. ∀α ∈ K , ∀x, y ∈ Kn allora α(x + y) = αx + αy
8. ∀x ∈ Kn allora 1 · x = x.
Osservazione 20.
(C, +, ·, C) é uno spazio vettoriale.
(C, +, ·, R) é uno spazio vettoriale diverso dal precedente.
13
14
CAPITOLO 2. SPAZI VETTORIALI
2.1
Esempi di spazi vettoriali
2.1.1
Spazi di polinomi
Prendiamo K campo e K[x] = {polinomi a coefficienti in K}. Abbiamo giá visto che su questo
insieme é definita la somma ed il prodotto per scalari. Questo é uno spazio vettoriale.
2.1.2
Spazi di funzioni
Supponiamo V spazio vettoriale e A insieme. Definiamo
F = {f : A → V }
(2.3)
tutte le funzioni da A a V . Definiamo la somma
+:F ×F →F
(f, g) → f + g : A → V
(2.4)
Dobbiamo anche definire l’operazione di valutazione sulla somma
(f + g)(a) ≡ f (a) + g(a), ∀a ∈ A
(2.5)
che é lecita visto che f (a) e g(a) sono elementi di V . Devo definire il prodotto per scalare
·:K×F →F
∀α ∈ K, ∀f ∈ F , αf : A → V
(2.6)
e l’operazione di valutazione sul prodotto per scalari
∀a ∈ A(αf )(a) ≡ α · f (a)
(2.7)
Si puó verificare ora che (F , +, ·, K) é uno spazio vettoriale. Valgono le proprietá seguenti
ˆ ∀f, g, h ∈ F mi chiedo se (f + g) + h = f + (g + h) , cioé ∀a ∈ A , [(f + g) + h](a) =
[f + (g + h)](a)é un’uguaglianza in V .
[(f + g) + h](a) = (f + g)(a) + h(a) = (f (a) + g(a)) + h(a) =
f (a) + (g(a) + h(a)) = f (a) + (g + h)(a) = [f + (g + h)](a)
(2.8)
dove abbiamo usato la definizione di somma tra funzioni e l’associativitá su V .
ˆ ∀f ∈ F , f + 0 = f , dove 0 é l’applicazione nulla 0 : A → V definita da ∀a ∈ A, 0(a) ≡
0V . Inoltre vale che
∀a ∈ A, (f + 0)(a) = f (a)
infatti
(f + 0)(a) = f (a) + 0(a) = f (a) + 0V = f (a)
2.2. MATRICI
2.2
15
Matrici
La matrice é una tabella di numeri organizzata in righe e colonne. Denotiamo con M (p, q, K) =
{matrici p × q a coefficienti in K}
Definizione 2.5. Sia A ∈ M (p, q, K). Allora Ai =riga i−esima ; Ai =colonna i−esima.
[A]ij =elemento di posto ij.
Devo definire una somma ed un prodotto per scalare
Definizione 2.6 (Somma tra matrici).
+ : M (p, q) × M (p, q) → M (p, q)
;
(A, B) → A + B
(2.9)
definita da
∀i = 1, . . . , p; ∀j = 1, . . . , q, [A + B]ij ≡ [A]ij + [B]ij
(2.10)
Definizione 2.7 (Prodotto per scalari).
· : K × M (p, q) → M (p, q)
;
(α, A) → αA
(2.11)
definito da
α[A]ij ≡ [αA]ij
Introduciamo il concetto di
Definizione 2.8 (Uguaglianza tra matrici). Diciamo che A = B se
∀i, j
[A]ij = [B]ij
e verifichiamo se lo spazio delle matrici é uno spazio vettoriale.
ˆ 0 ∈ M (p, q) é definita da , ∀i, j : [0]ij = 0.
ˆ ∀A ∈ M (p, q) bisogna verificare che A + 0 = A . Ma
[A + 0]ij = [A]ij + [0]ij = [A]ij + 0K = [A]ij
Osservazione 21.
Sia
2
vO
= { vettori del piano applicati in O}
(2.12)
2 ×
Su questo insieme si puó definire una somma (regola del parallelogramma) data da + : vO
2 → v 2 che somma OP
~ + OQ
~ = OR.
~ Analogamente si puó definire un prodotto · : R × v 2 →
vO
O
O
2
~ ) → αOP
~ . Lo spazio v 2 , dotato di questo prodotto e di questa somma
vO che produce (α, OP
O
é uno spazio vettoriale.
Definizione 2.9 (Vettori colonna). Si consideri l’insieme delle matrici p × q , M (p, q, K). Lo
spazio dei vettori colonna é definito da





 x1

 .. 
M (p, 1, K) =  .  : xi ∈ K
(2.13)




xp
16
CAPITOLO 2. SPAZI VETTORIALI
Osservazione 22.
L’applicazione Kp → M (p, 1) é biunivoca , quindi si possono usare entrambe le notazioni


x1


(2.14)
(x1 , . . . , xp ) →  ... 
xp
Osservazione 23.
~ su v 2 si definisce come τ ~ : R2 → R2 e porta il punto Q in R con la
La traslazione di OP
O
OP
~ = OP
~ + OQ.
~
condizione che OR
Proposizione 2.2.1. Per gli spazi vettoriali valgono le seguenti proprietá.
1. Il vettore ~0 é unico.
2. ∀x ∈ V , 0 · x = 0.
3. ∀x ∈ V , ∃! opposto.
4. ∀α ∈ K, α · ~0 = ~0
5. Se αx = 0 allora α = 0 oppure x = 0.
6. ∀x ∈ V , (−1)x = (−x)
Dimostrazione. (1) Supponiamo per assurdo che esistano 01 , 02 elementi neutri per la somma
+. Visto che 02 é neutro per la somma si avrá che 01 = 01 + 02 . Ma , per ipotesi, anche 01 é
elemento neutro per la somma. Quindi 01 + 02 = 02 = 01 , dunque 01 = 02 e si trova l’assurdo
qundi l’elemento neutro é unico.
(6) Osserviamo che
(−1)x + x = x(1 − 1) = 0 · x = 0
Definizione 2.10 (Tipi di matrici). Presentiamo le diverse classi di matrici
Matrici diagonali Sono il sottospazio D(n) ⊂ M (n, n, K) , tali che [A]ij = 0, ∀i 6= j.
Matrici triangolari Sono il sottospazio T (n) ⊂ M (n, n, K) tali che [A]ij = 0, ∀i > j
(triangolari superiori).
Matrici simmetriche Sono il sottospazio S(n) ⊂ M (n, n, K) tali che [A]ij = [A]ji , ∀i, j
Matrici antisimmetriche Sono il sottospazio A(n) ⊂ M (n, n, K) tali che [A]ij = −[A]ji , ∀i, j.
2.3
Sottospazi vettoriali
Definizione 2.11 (Sottospazio vettoriale). Sia V un K-spazio vettoriale. W ⊂ V si dice
sottospazio vettoriale di V se1
1. 0V ∈ W , ovvero W é non vuoto .
1
Con la notazione 0V si intende lo zero relativo allo spazio vettoriale V , diverso dall’elemento neutro per la
somma!
2.3. SOTTOSPAZI VETTORIALI
17
2. ∀x, y ∈ W , x + y ∈ W ovvero si definisce +|W ×W : W × W → W .
3. ∀α ∈ K , ∀x ∈ W, αx ∈ W ovvero si definisce ·|K×W : K × W → W .
Quindi se W é ssv di V , W con l’operazione si somma e prodotto ristretti é uno spazio
vettoriale indicato dalla terna
(+|W ×W , ·|K×W , W )
Osservazione 24.
Gli spazi definiti prima sono tutti sottospazi vettoriali. Controlliamo la chiusura per somma
nel caso delle matrici simmetriche. Prendiamo quindi A, B ∈ S(n) , per cui vale [A]ij = [A]ji
e [B]ij = [B]ji , ∀i, j. Bisogna verificare
[A + B]ij = [A]ij + [B]ij = [A]ji + [B]ji = [A + B]ji
(2.15)
Osservazione 25.
1. {0} e V sono sottospazi vettoriali di V .
2. Nel caso V = R2 :
(a) Le rette per l’origine sono sottospazi vettoriali di R2 .
(b) L’unione dei semipiani {x ≥ 0, y ≥ 0} ∪ {x ≤ 0, y ≤ 0} non é un sottospazio vettoriale.
(c) L’unione di due rette per l’origine non é uno sottospazio vettoriale.
3. K[x] , Km [x] = {p ∈ K[x] : deg p ≤ m, m ∈ N} é un sottospazio vettoriale. Infatti ∀p, q ∈
Km [x] ⇒ p + q ∈ Km [x].
Definizione 2.12 (Combinazione lineare). Siano v1 . . . vn ∈ V e a1 , . . . , an ∈ K con V ssv.
n
X
ai vi = a1 v1 + . . . + an vn ∈ V
(2.16)
i=1
si dice combinazione lineare dei vi a coefficienti ai . Denotiamo con Span(v1 . . . vn ) l’insieme
di tutte le combinazioni lineari dei vettori v1 . . . vn .
Span(v1 , . . . , vn ) = {a1 v1 + . . . + an vn : ai ∈ K}
Proposizione 2.3.1. Span(v1 , . . . , vn ) é un ssv di V che contiene v1 , . . . , vn ed in particolare
é il piú piccolo ssv di V che contiene v1 , . . . , vn .
Dimostrazione. Iniziamo col mostrare che é un sottospazio vettoriale.
1. 0 ∈ Span(v1 , . . . , vn ) , infatti basta scegliere a1 = a2 = . . . = an = 0.
2. ∀x, y ∈ Span(v1 , . . . , vn ) devo mostrare che x + y ∈ Span(v1 , . . . , vn ) . Poiché x ∈
Span(v1 , . . . , vn ) , esistono a1 , . . . , an ∈ K tali che x = a1 v1 + . . . + an vn . Inoltre y ∈
Span(v1 , . . . , vn ) quindi esistono b1 , . . . , bn ∈ K tali che y = b1 v1 + . . . + bn vn . Quindi
(x + y) = (a1 + b1 )v1 + . . . + (an + bn )vn ≡ α1 v1 + . . . + αn vn ∈ V
18
CAPITOLO 2. SPAZI VETTORIALI
3. La stessa cosa vale per il prodotto per scalari.
Il sottospazio contiene v1 , . . . , vn infatti vi ∈ Span(v1 , . . . , vn ) in quanto basta prendere aj =
0, ∀j 6= i. Per dimostrare l’ultima parte della proposizione bisogna dimostrare che , se Z é
un ssv di V che contiene v1 , . . . , vn allora Z ⊃ Span(v1 , . . . , vn ). Devo mostrare quindi che
∀x ∈ Span(v1 , . . . , vn ) allora x ∈ Z. Ma se x ∈ Span(v1 , . . . , vn ) esistono a1 , . . . , an tali che
x = a1 v1 + . . . + aP
n vn . D’altra parte a1 v1 ∈ Z visto che Z é un ssv : questo vale ∀i quindi
ai vi ∈ Z , ovvero i ai vi ∈ Z , ⇒ x ∈ Z .
Definizione 2.13 (Generatori). Denotiamo con Span(v1 , . . . , vn ) il sottospazio generato da
v1 , . . . , vn . I vettori v1 , . . . , vn sono i generatori del sottospazio.
Osservazione 26.
Il sottospazio generato da Spanv1 = {av1 , a ∈ R} é una retta. Dunque Span(v1 , v2 ) ⊆ R2
Definizione 2.14 (Span per insiemi). Sia A ⊂ V , allora
SpanA = {comb. lineari finite dei vettori diA}
(2.17)
Teorema 2.3.2. Span{v1 , . . . , vk } coincide con Span{v2 , . . . , vk } ⇔ v1 é combinazione lineare
dei (v2 , . . . , vk ).
Dimostrazione. (⇒) Supponiamo che Span{v1 , . . . , vk } = Span{v2 , . . . , vk }. Ma allora v1 ∈
Span{v2 , . . . , vk } perché i due spazi sono uguali, quindi v1 si scrive come combinazione lineare
dei v2 , . . . , vk .
(⇐) Prendo un elemento che sta in Span{v
che sta in Span{v2 , . . . , vk }.
P1k, . . . , vk } e voglio dimostrare
Pk
Prendo v ∈ Span{v1 , . . . , vk } ⇒ v =
α
v
=
α
v
+
α
v
.
Ma v1 per ipotesi é
1 1
i=1 i i
i=2 i i
combinazione lineare dei v2 , . . . , vk , quindi


k
k
X
X
v = α1 
β j vj  +
αi vi
j=2
i=2
che é una combinazione lineare dei v2 , . . . , vk , quindi sta anche in Span{v2 , . . . , vk }.
2.3.1
Esempi di sottospazi vettoriali
Osservazione
27.
Sia E = (x, x2 ), x ∈ R ⊂ R2 , ovvero E rappresenta i punti della parabola nel piano. Si
noti che
ˆ 0 sta in questo spazio.
ˆ La somma di due vettori che stanno sulla parabola esce dalla stessa : non é chiuso
rispetto alla somma. Per dimostrarlo prendo un elemento (x, x2 ) ∈ E, (x1 , x21 ) ∈ E.
Deve verificarsi (x, x2 ) + (x1 , x21 ) ∈ E ovvero (x + x1 , x2 + x21 ) ∈ E ⇒ x2 + x21 =
(x + x1 )2 = x2 + x21 + 2xx1 , quindi é un sottospazio vettoriale se e solo se xx1 = 0 . Ma
si puó sicuramente trovare un contro esempio per cui xx1 6= 0 (ad esempio x = 2, x1 = 3
). Dnque E non un sottospazio vettoriale.
2.4. OPERAZIONI CON SOTTOSPAZI
19
Osservazione 28.
v1 =
Si noti che
1 2
0 3
, v2 =
1 0
2 1
2 1
0 5
, v3 =
1 3
0 7
(2.18)
∈
/ Span{v1 , v2 , v3 }
(2.19)
visto che non puó essere scritto come combinazione lineare degli altri 3.
ˆ E = {p(t) ∈ R[t] : p(1) = 2} non é un ssv perché il polinomio nullo non é contenuto.
Diventa sottospazio se si modifica la condizione di appartenenza all’insieme come p(1) =
0. In questo caso
– 0∈E
– p1 ∈ E, p2 ∈ E allora deve essere p1 + p2 ∈ E . Ma (p1 + p2 )(1) = p1 (1) + p2 (1) =
0 ∈ E.
ˆ E = {p(t) ∈ Rr [t] : p(2) = 0} é sicuramente un ssv. Il teorema di Ruffini ci dice
che possiamo scomporre p(t) = (t − 2)q(t) con deg q < r. Prendiamo un’applicazione
h : Rr [t] ⊃ E → Rr−1 [t] definita da p(t) = (t − 2)q(t) → q(t). Tale applicazione é
ben definita perché Ruffini garantisce che q sia unica. É iniettiva perché se prendiamo
p1 → (t − 2)q1 , p2 → (t − 2)q2 ⇒ p1 = p2 ⇔ q1 = q2 . É anche surgettiva.
ˆ Prendiamo
e
Si noti che
  

−1 
 3
A = Span  1  ,  −1 


0
0
(2.20)
  
  
1 
−1
 3
B = Span  1  ,  −1  ,  0 


0
0
0
(2.21)



 

1
3
−1
 0  = 1  1  + 1  −1 
2
2
0
0
0
(2.22)
quindi , i due span coincidono.
2.4
Operazioni con sottospazi
Proposizione 2.4.1. Siano A, B ssv di V
1. A ∩ B é un ssv di V .
2. A ∪ B non é in generale un ssv di V .
Dimostrazione. (1) Prendiamo x, y ∈ A ∩ B ,dobbiamo mostrare che x + y ∈ A ∩ B. Ma
x + y ∈ A visto che x ∈ A , y ∈ A e A é ssv di V . Lo stesso vale per x + y ∈ B.
(2) Basta prendere l’unione di due rette distinte per l’origine.
20
CAPITOLO 2. SPAZI VETTORIALI
Definizione 2.15 (Somma di sottospazi). Siano A, B ssv di V . Si definisce il sottospazio
somma
A + B = {v ∈ V : ∃a ∈ A, ∃b ∈ B : v = a + b}
(2.23)
Si noti che
1. A ⊂ A + B, infatti ∀a ∈ A, a = a + 0, 0 ∈ B
2. B ⊂ A + B
Proposizione 2.4.2. A + B é ssv di V , contiene A e B ed é il piú piccolo ssv di V che
contiene A e B.
Definizione 2.16 (Somma diretta). Se A ∩ B = {0}, il sottospazio A + B viene denotato con
A ⊕ B e viene definito come somma diretta.
Osservazione 29.
Prendiamo un piano A e una retta B che si incontrano solo nello zero. Si noti che A ⊕ B = R3
perché é il piú piccolo ssv che contiene entrambi.
Proposizione 2.4.3 (Unicitá della presentazione). Ogni vettore v ∈ A ⊕ B si scrive in modo
unico come v = a + b con a ∈ A, b ∈ B.
Dimostrazione. Devo dimostrare che , se ci fossero due modi di scrivere v , allora questi
coinciderebbero. Supponiamo quindi che v = a1 + b1 = a2 + b2 con a1 , a2 ∈ A e b1 , b2 ∈ B.
Devo provare che a1 = a2 , b1 = b2 . Si ha che a1 −a2 = b2 −b1 : ma a1 −a2 ∈ A visto che é somma
di vettori di un ssv; lo stesso vale per b2 − b1 ∈ B. Dunque a1 − a2 = b2 − b1 ∈ A ∩ B = {0}
per l’ipotesi di somma diretta. Dunque a1 = a2 e b1 = b2 .
Corollario 2.4.4. Se V = A ⊕ B allora ∀v ∈ V , ∃!a ∈ A, ∃!b ∈ B tale che v = a + b.
Definizione 2.17 (Proiezione). Posso definire una proiezione su A , prA : V → A che manda
v → a e una proiezione in B , prB : V → B che manda v → b.
Osservazione 30.
Si noti che le proiezioni sono ben definite solo perché A e B sono in somma diretta altrimenti
ci sarebbe ambiguitá nella definizione.
Definizione 2.18 (Supplementare). Sia U un ssv di V . Un sottospazio W di V si dice
supplementare di U se V = U ⊕ W .
Osservazione 31.
Se V = R2 e prendo U come retta per l’origine possiamo prendere come supplementare un’altra
retta che passa per l’origine. Questi due sottospazi hanno intersezione solo nello 0 quindi sono
supplementari. La somma fa tutto R2 . Si noti che in questo caso il supplementare non é unico!
Osservazione 32.
M (n) = S(n) ⊕ A(n)
Capitolo 3
Applicazioni Lineari
Definizione 3.1 (Applicazioni lineari). Siano V, W K−spazi vettoriali. Un’applicazione f :
V → W é detta lineare se
1. ∀x, y ∈ V , f (x + y) = f (x) + f (y).
2. ∀α ∈ K, ∀x ∈ V , f (αx) = αf (x).
ovvero f (λx + µy) = λf (x) + µf (y).
Osservazione 33.
Se f é lineare allora f (0) = 0, infatti
f (0) = f (0 + 0) = f (0) + f (0) ⇒ f (0) = 0
3.0.1
Esempi di applicazioni
1. 0 : V → W é l’applicazione nulla ed é lineare.
2. id : V → V é l’identitá ed é lineare.
3.
t
: M (p, q) → M (q, p) che manda A →
trasposta ed é lineare. Infatti
ˆ
ˆ
t
A , dove [ t A]ij = [A]ji , é l’applicazione
t [A
+ B]ij = [A + B]ji = [A]ji + [B]ji = t A + t B
t [αA] = α t A
Osservazione 34.
∀A ∈ M (n, n, K) , A + t A é simmetrica e A − t A é antisimmetrica. Inoltre ogni matrice
A si puó scrivere come somma di una matrice simmetrica ed antisimmetrica , infatti
1
1
(A + t A) + (A − t A) = 2A ⇒ A = (A + t A) + (A − t A)
(3.1)
2
2
Questo prova anche che M (n) = S(n) ⊕ A(n) visto che un elemento di M (n) si scrive in
modo unico come somma di due elementi dei sottospazi in somma diretta. Verifichiamo
che le due scomposizioni di A sono simmetriche ed antisimmetriche.
1
1 t
1
[ (A + t A)] =
(A + t A) = ( t A + A)
2
2
2
(3.2)
1 t
1
1
1
(A − t A) = ( t A − A) = − (A − t A)
[ (A − t A)] =
2
2
2
2
(3.3)
t
Mentre
t
21
22
CAPITOLO 3. APPLICAZIONI LINEARI
4. Tr : M (n) → K é l’applicazione traccia che manda
A → TrA =
n
X
[A]ii
i=1
é lineare, infatti
Tr(A + B) =
n
X
i=1
5.
d
dx
[A + B]ii =
n
X
([A]ii + [B]ii ) =
i=1
n
X
[A]ii +
i=1
: K[x] → K[x] é l’applicazione derivata che manda p(x) →
n
X
[B]ii = TrA + TrB
i=1
d
dx p(x)
é lineare.
6. a ∈ K , f : K[x] → K che manda p(x) → p(a) é l’applicazione di valutazione ed é lineare.
7. f : C → C che manda z → z̄ é l’applicazione di coniugio che non é lineare.
ˆ f (z + w) = z + w = z̄ + w̄ = f (z) + f (w)
ˆ f (αz) = αz = ᾱz̄ = ᾱf (z) Dato che questa non vale ∀α ∈ C l’applicazione non é
lineare.
Osservazione 35.
Ogni matrice A ∈ M (p, q, K) definisce in modo naturale una applicazione lineare A : Kq → Kp
nel modo seguente.
Prima ci servono alcune definizioni di base.
Definizione 3.2. Prodotto tra vettori colonna


b1


(a1 , . . . , aq )  ...  ≡ a1 b1 + . . . + aq bq
(3.4)
bq
Definizione 3.3. Se A ∈ M (p, q, K) e x ∈ Kq = M (q, 1) poniamo

  

. . . A1 . . .
A1 x

..
..   x  =  ..  ∈ Kp
Ax =  ...
 . 
.
. 
. . . Ap . . .
Ap x
(3.5)
Osservazione 36.
Ax = x1 A1 + . . . + xq Aq , ovvero il prodotto Ax puó essere visto come combinazione lineare
delle colonne di A. Infatti

 

A1 x
a11 x1 + . . . + a1q xq

 

..
1
q
Ax =  ...  = 
(3.6)
 = x1 A + . . . + xq A
.
Ap x
ap1 x1 + . . . + apq xq
per la definizione della somma tra matrici e del prodotto tra vettori colonna.
Proposizione 3.0.5. Se A ∈ M (p, q, K) l’applicazione A : Kq → Kp che manda x → Ax é
lineare.
23
Dimostrazione. Infatti ∀x, y ∈ Kq , A(x + y) = Ax + Ay . Inoltre ∀α ∈ K, ∀x ∈ Kq , A(αx) =
α(Ax).
Osservazione 37.
Data una matrice A si definisce immediatamente un’applicazione lineare. Dunque l’immagine
di A sará l’immagine dell’applicazione lineare associata ad A.
Osservazione 38.
L’uguaglianza Ax = x1 A1 + . . . + xq Aq confronta un vettore dell’immagine , Ax , ed una
combinazione lineare (span) delle colonne di A. Vogliamo quindi provare che ImmA =
Span(A1 , . . . , Aq )
Dimostrazione. (⊂) Infatti Ax = x1 A1 + . . . + xq Aq quindi un vettore dell’immagine Ax si
puó scrivere come combinazione lineare delle colonne di A, ovvero sta nello span.
(⊃) Se un vettore sta nello span allora é del tipo α1 A1 + . . . αq Aq . Ma questo vettore é
immagine del vettore α ≡ (α1 , . . . , αq ) , ovvero Aα.
Dunque é vero che
ImmA = Span(A1 , . . . , Aq ) ≡ C (A)
(3.7)
Osservazione 39.
Posto




e1 ≡ 



1
0
..
.
..
.
0




 ∈ Kq







eq ≡ 



...
0
..
.
..
.
0
1




 ∈ Kq



(3.8)
si ha che




A(e1 ) = A 



1
0
..
.
..
.
0

0
..
.
..
.
0
1




 = A1



(3.9)
...




A(eq ) = A 






 = Aq



(3.10)
Quindi
A=
!
Ae1 . . . Aeq =
!
A1 . . . Aq
(3.11)
Teorema 3.0.6. Tutte le applicazioni lineari Kq → Kp sono indotte da una matrice, ossia
∀g : Kq → Kp lineare esiste una ed una sola matrice A ∈ M (p, q, K) tale che g(x) = Ax, ∀x ∈
Kq .
24
CAPITOLO 3. APPLICAZIONI LINEARI
Dimostrazione. L’unico modo possibile per soddisfare l’uguaglianza g(x) = Ax é che le colonne
delle matrici siano uguali, ovvero che le due immagini coincidano. Ma le colonne di A sono
immagini dei vettori e1 , . . . , eq , quindi
!
A = g(e1 ) . . . g(eq )
(3.12)
Verifichiamo che con tale scelta g(x) = Ax, ∀x. Infatti ∀x ∈ Kq ,
Ax = x1 g(e1 ) + . . . + xq g(eq ) = g(x1 e1 ) + . . . + g(xq eq ) =
= g(x1 e1 + . . . + xq eq ) = g(x1 , . . . , xq ) = g(x)
(3.13)
per la linearitá di g.
Osservazione 40.
Sia g : R2 → R3 definita da (x, y) → (2x, x − y, x + 4y). Questa applicazione é indotta dalla
matrice
!  2 0 
A = g(e1 )g(e2 ) =  1 −1 
(3.14)
1 4
Osservazione 41.
hom (V, W ) = {f : V → W : f lineare } é un sottospazio vettoriale di {f : V → W }.
ˆ 0 é lineare dunque 0 ∈ hom (V, W )
ˆ Prese f, g ∈ hom (V, W ) deve essere (f + g) ∈ hom (V, W ). Si deve quindi verificare
(f + g)(x + y) = f (x + y) + g(x + y) = f (x) + f (y) + g(x) + g(y)
= (f + g)(x) + (f + g)(y)
(3.15)
Definizione 3.4 (Nucleo di f ). Sia f : V → W lineare. Si definisce
ker f = {x ∈ V : f (x) = 0}
come nucleo di f .
Osservazione 42.
Si noti che
ˆ il nucleo non puó essere mai vuoto perché , per la linearitá di f , f (0) = 0.
ˆ ker f ⊂ V
Proposizione 3.0.7. Se f : V → W é lineare allora
1. ker f é un ssv di V .
2. Immf é un ssv di W .
3. f é iniettiva se e solo se ker f = {0}
Dimostrazione. .
(3.16)
25
1. Mostriamo le tre proprietá
ˆ 0 ∈ ker(f ) poiché f (0) = 0
ˆ ∀x, y ∈ ker(f ) ⇒ (x + y) ∈ ker(f ) infatti f (x + y) = f (x) + f (y) = 0 + 0 = 0.
ˆ ∀x ∈ ker(f ), ∀α ∈ K ⇒ αx ∈ ker(f ) infatti f (αx) = αf (x) = α0 = 0.
2. Mostriamo le tre proprietá
ˆ 0 ∈ Imm(f ) poiché f (0) = 0.
ˆ ∀z, w ∈ Imm(f )∃x, y ∈ V tale che z = f (x), w = f (y) ⇒ z + w = f (x) + f (y) ⇒
f (x + y) = z + w ⇒ z + w ∈ Imm(f ).
ˆ ∀z ∈ Imm(f )
Imm(f ).
∃x ∈ V tale che z = f (x) ⇒ ∀α ∈ K, αz = αf (x) = f (αx) ⇒ αz ∈
3. (⇒) Prendiamo una x ∈ ker f allora f (x) = 0 = f (0) dunque per l’iniettivitá x = 0.
(⇐) Se f (x) = f (y) allora devo dimostrare x = y . Ma f (x) = f (y) ⇒ f (x) − f (y) =
0 ⇒ f (x − y) = 0 ⇒ (x − y) ∈ ker f . Ma poiché ker f = {0} ⇒ x − y = 0 ⇒ x = y
26
CAPITOLO 3. APPLICAZIONI LINEARI
Capitolo 4
Sistemi Lineari
4.1
Sistema lineare
Definizione 4.1 (Sistema Lineare). Un sistema lineare in p equazioni ed n incognite é dato
da

a11 x1 + . . . + a1n xn = b1




a21 x1 + . . . + a2n xn = b2


.
..
..
..
..
..
(4.1)
.
.
.
.


.
.
.
.
.

..
..
..
..
..





ap1 x1 + . . . + apn xn = bp
É utile compattare questo sistema in una notazione diversa , utilizzando le





a11 . . . a1n
x1

..  ∈ M (p, n, K) ; X =  ..  ∈ Kn ; B = 
..
A =  ...
 . 

.
. 
ap1 . . . apn
xn
matrici.

b1
..  ∈ Kp
. 
bp
(4.2)
Con questa notazione si nota subito che il sistema si puó scrivere semplicemente con la formula
AX = B
(4.3)
con la nozione di prodotto tra matrici e vettori colonna giá data. Dunque ogni volta che
dovremo analizzare un sistema ci ridurremo semplicemente alle matrici associate a questo
sistema.
Definizione 4.2 (Matrice completa del sistema). La matrice A0 = (A|B), ottenuta aggiungendo alla matrice A la colonna dei termini noti del sistema , é detta matrice completa del
sistema.
Osservazione 43.
La n-upla Y = (y1 , . . . , yn ) ∈ Kn é soluzione del sistema AX = B ⇔ AY = B. Ma sappiamo che la matrice A induce un’applicazione lineare A : Kn → Kp che porta x → Ax.
Dunque il sistema é risolubile se e solo se , dato un fissato B questo appartiene all’immagine
dell’applicazione A. Le soluzioni del sistema sono invece la controimmagine del vettore B in
Kn .
27
28
CAPITOLO 4. SISTEMI LINEARI
Definizione 4.3. L’insieme delle soluzioni di un qualsiasi sistema si puó scrivere come
SB = {x ∈ Kn : Ax = B}
(4.4)
Il sistema con B = 0 é detto sistema omogeneo ed il suo insieme di soluzioni é dato da
S0 = {x ∈ Kn : Ax = 0}
(4.5)
Osservazione 44.
Si noti che S0 é un ssv di Kn , infatti
1. {0} ∈ S0 visto che lo 0 é soluzione del sistema omogeneo
2. Dati x, y ∈ S0 ⇒ Ax = 0, Ay = 0 ⇒ A(x + y) = Ax + Ay = 0 ⇒ x + y ∈ S0
3. λ ∈ K, x ∈ S0 ⇒ Ax = 0 ⇒ A(λx) = λAx = 0
Osservazione 45.
Se B 6= 0 , SB non é un sottospazio vettoriale ( basti controllare che non contiene lo 0).
Definizione 4.4 (Sistemi equivalenti). Due sistemi lineari si dicono equivalenti se hanno lo
stesso insieme di soluzioni
4.2
Matrici a scalini
Definizione 4.5 (Matrice a scalini). Una

0 0
 0 0

S= 0 0

.. ..
. .
matrice siffatta
| ∗ ∗ ∗ ∗ ∗
0 0 | ∗ ∗ ∗
0 0 0 ∗ ∗ ∗
.. .. .. .. .. ..
. . . . . .





(4.6)
é detta a scalini. Piú precisamente S ∈ M (p, k) si dice a scalini se ∀i = 1, . . . , p − 1 tutti gli
elementi [S]ij = 0, ∀j = 1, . . . , k ⇒ [S]i+1,h = 0, h = 1, . . . , k + 1.
Osservazione 46.
La matrice


2 1 2 −1 | 3
S =  0 0 1 5 | −2 
0 0 0 0 | 0
(4.7)
é a scalini ed ha 2 pivots 1 . Possiamo risolvere il sistema riducendosi alle equazioni che lo
definiscono
(
(
x3 = −5x4 − 2
x3 = −5x4 − 2
(4.8)
⇒
7
2x1 + x2 + 2x3 − x4 = 3
x1 = − 12 x2 + 11
2 x4 + 2
Il sistema delle soluzioni é quindi dato da
 1
 
7 
− 2 x2 + 11



2 x4 + 2



 


x
2
 : x2 , x4 ∈ R = 
SB = 


−5x4 − 2






 

x4
1
Primo elemento non nullo di una riga a partire da sinistra.






11/2
7/2
−1/2



 0 
 1 
0 
 : x2 , x4 ∈ R
 + x4 
 + x2 
 −5 
 0 
−2 



0
1
0
(4.9)
4.2. MATRICI A SCALINI
29
Ovvero l’insieme delle soluzioni del sistema si presenta come la somma di una soluzione
particolare e dello span dei vettori di S0 , dato da

 



11/2
−1/2






 0 
 1 




: x , x ∈ R = Span(y1 , y2 )
(4.10)
+ x4 
x2 
−5  2 4
0 






1
0
con y1 , y2 ∈ S0 .
Proposizione 4.2.1. Sia S0 = {x : Ax = 0} , SB = {x : Ax = B}. Sia inoltre y0 una
soluzione del sistema Ax = B. Si ha che SB = y0 + S0 , dove con la somma si intende che
l’insieme y0 + S0 é dato da {y0 + x : x ∈ S0 } , ovvero si somma ad y0 tutti i vettori di S0 ,
ottenendo un nuovo spazio. Tale insieme ottenuto é il traslato di S0 e viene detto sottospazio
affine.
Dimostrazione. Proviamo solo l’implicazione SB ⊃ y0 + S0 . Un qualsiasi vettore∈ y0 + S0
si scrive come y0 + x , con x ∈ S0 . Devo far vedere che y0 + x é soluzione del sistema non
omogeneo : A(y0 + x) = Ay0 + Ax = B + 0 = B
Proposizione 4.2.2 (Operazioni elementari). Questa serie di operazioni non cambiano le
soluzioni di un sistema.
1. Scambio di due equazioni
2. Moltiplicazione di una equazione per α 6= 0 , α ∈ K
3. Somma di un multiplo di un’equazione ad un’altra
Dimostrazione. Proviamo solo la (3) delle precedenti. Prendiamo il sistema
(
a11 x1 + . . . + a1n xn = b1
a21 x1 + . . . + a2n xn = b2
(4.11)
e supponiamo che abbia come soluzione (y1 , . . . , yn ). Preso h ∈ K, sommo h volte la prima
equazione alla seconda ottenendo il sistema
(
a11 x1 + . . . + a1n xn = b1
(4.12)
a21 x1 + . . . + a2n xn + h(a11 x1 + . . . + a1n xn ) = b2 + hb1
Se si sostituisce (y1 , . . . , yn ) nel sistema si trova che questo vettore é soluzione anche del
sistema modificato. Questo é facile da verificare nella prima equazione, mentre nella seconda
si ha
a21 y1 + . . . + a2n yn +h (a11 y1 + . . . + a1n yn ) = b2 + hb1
|
{z
}
|
{z
}
b2
b1
che é verificato sempre ∀h.
Le operazioni elementari possono essere scritte anche per matrici (data l’equivalenza giá
vista tra sistemi e matrici ) , basta sostituire al posto di equazione il termine riga. Presentiamo
ora , con un esempio, uno degli algoritmi piú conosciuti per ridurre una qualsiasi matrice a
scalini.
30
CAPITOLO 4. SISTEMI LINEARI
Osservazione 47.
Prendiamo il sistema


x − y + 2z − t = 1
2x − 2y + 5z + t = 3


4x − 4y + 9z − t = 5
Scriviamo la

1 −1
2 −2
4 −4
(4.13)
matrice dei coefficienti





2 −1 | 1
1 −1 2 −1 | 1
1 −1 2 −1 | 1
5 1 | 3 → 0 0 1 3 | 1 → 0 0 1 3 | 1
9 −1 | 5
0 0 1 3 | 4
0 0 0 0 | 3
(4.14)
dove sono state fatte rispettivamente le seguenti operazioni elementari (Ri sta per la riga
i-esima) :
1. R2 7−→ R2 − 2R1
2. R3 7−→ R3 − 4R1
3. R3 7−→ R3 − R2
Si osservi che si deve utilizzare sempre la riga con il pivot che viene considerato di volta in
volta!
4.3
Algoritmo di Gauss
Proposizione 4.3.1 (Algoritmo di Gauss). Si consideri la matrice completa del sistema
(A|B) = D. Le operazioni da fare sono
1. Prendo la prima colonna da sinistra non nulla in D. Dunque ∃j1 tale che [D]j1 ,j2 6= 0
2. A meno di scambiare le righe posso supporre i = 1
3. ∀i = 2, . . . , p sommando a Di un opportuno multiplo di D1 , posso far si che l’elemento
di posto (i, j1 ) sia 0.
4. Itero sulla sottomatrice ottenuta dimenticando la prima riga e la j1 -colonna.
Teorema 4.3.2 (di Gauss).
1. Ogni matrice puó essere trasformata in una matrice a scalini attraverso un numero finito di operazioni elementari per riga.
2. Ogni sistema lineare é equivalente ad un sistema a scalini.
Proposizione 4.3.3. Un sistema Ax = B é risolubile ⇔ il numero di pivots di S é uguale al
numero dei pivots di (S|C) dove quest’ultima é una ridotta a scalini della matrice completa
del sistema.
Osservazione 48.
Prendiamo il sistema
(
ax + . . .
(a + 1)x + . . .
⇒A=
a
... | ...
a + 1 ... | ...
(4.15)
4.3. ALGORITMO DI GAUSS
31
Per lo studio del numero di pivots si dovrebbero innazitutto distinguere i casi in cui a = 0 (
1 pivot) oppure a 6= 0. Tale distinzione risulta fastidiosa quando si ha a che fare con matrici
molto piú grandi. Si puó invece notare che a + 1 − a non dipende da a , quindi conviene
sostituire alla seconda riga la differenza tra le due righe in modo da eliminare la dipendenza
da a su almeno 1 pivot.
Osservazione 49.
Abbiamo giá visto che le rette per l’origine sono sottospazi vettoriali. In particolare una retta
r si puó scrivere come

  

 a
(4.16)
r = Span(v) = t  b  : t ∈ R


c
Si voglia ora verificare se un punto (x, y, z) ∈ R3 si trova sulla retta. Si dovrá trovare se ∃t ∈ R
tale che


x = ta
(4.17)
y = tb


z = tc
Questo sistema rappresenta un nuovo modo di scrivere una retta in R3 , detta forma paramterica. In questo caso la retta stessa é l’immagine dell’applicazione ϕ : R → R3 che trasforma
t → (ta, tb, tc) , ovvero
 
 
a
ta
 b  t =  tb 
(4.18)
c
tc
La matrice associata al sistema (4.17) si scrive come


a | x
b | y
c | z
(4.19)
Dunque (x, y, z) ∈ r ⇔ il sistema é risolubile. Posso quindi ridurre a scalini ,supponendo
a, b, c 6= 0 ( altrimenti la soluzione avrebbe poco senso!) , ottenendo


? |
∗
0 | p(x, y, z)
(4.20)
0 | q(x, y, z)
dove p, q sono generici polinomi di x, y, z. Perché il sistema sia risolubile non ci devono quindi
essere pivots , ovvero p(x, y, z) = q(x, y, z) = 0 , cioé
(
p(x, y, z) = 0
(4.21)
q(x, y, z) = 0
ovvero la retta é l’intersezione di due piani , cioé il nucleo di una applicazione lineare.
Osservazione 50.
Prendiamo un piano per l’origine in R3 . Sia
      
 

 

0   1
0
t
 1
 

H = Span 1 , 1 = t 1 + s 1 : t, s ∈ R =  t + s  : t, s ∈ R = Immϕ

 
 

3
2
3
2
3t + 2s
(4.22)
32
CAPITOLO 4. SISTEMI LINEARI
dove ϕ : R2 → R3 é l’applicazione definita da

 

t
1 0
t
t




t+s
→
= 1 1 ·
s
s
3t + 2s
3 2
(4.23)
Dunque (x, y, z) ∈ H ⇔ ∃t, s tali che

  
t
x
 t + s  = y 
3t + 2s
z
Utilizziamo la riduzione

1 0 |
1 1 |
3 2 |
a scalini





x
1 0 |
x
1 0 |
x
y  → 0 1 | y − x  → 0 1 |
y−x 
z
0 2 | z − 3x
0 0 | z − x − 2y
(4.24)
(4.25)
che risolubile⇔ z − x − 2y = 0 che é l’equazione cartesiana di un piano.
Osservazione 51 (equazioni cartesiane).
Sia Z il sottospazio generato da


α1 − α2 + α3


α2




α1
2α1 − α2
α1 , α2 , α3 ∈ R
Per trovare le equazioni cartesiane che defniscono Z
ciata

1 −1
0 1
A=
1 0
2 −1
innanzitutto costruiamo la matrice asso
1
0

0
0
che definisce un’applicazione
A
Voglio una condizione per cui


1 −1 1 | x
0 1 0 | y 


1 0 0 | z 
2 1 0 | t

1
0

0
0
R3 −
→ R4
 
 
α1
α1
(4.26)
α2  → A α2 
α3
α3
 
α1
v ∈ Imm(A) ⇒ v = A α2  Risolviamo quindi il sistema
α3



−1 1 |
x
1 −1 1 |
x
0 1

1
0 |
y 
0 |
y



0 0 −1 | z − x − y  (4.27)
1 −1 | z − x 
1 −2 | t − 2x
0 0
0 | t − 2z + y
Dunque l’equazione cartesiana che definisce lo spazio é
t + y − 2z = 0
4.3. ALGORITMO DI GAUSS
33
Osservazione 52 (Linearitá delle composizioni).
V, W, Z , K-spazi vettoriali. Siano f : V → W e g : W → Z , applicazioni lineari. Ha senso
considerare (g ◦ f ) : V → Z : vogliamo mostare che anche questa é lineare.
ˆ ∀x, y ∈ V : (g ◦ f )(x + y) = g(f (x + y)) = g(f (x) + f (y)) = g(f (x)) + g(f (y)) =
(g ◦ f )(x) + (g ◦ f )(y)
Osservazione 53 (Matrice associata alla composizione).
f
g
Supponiamo adesso di avere due applicazioni Kn −
→ Kp →
− Kq . So quindi che
ˆ ∃A ∈ M (p, n, K) tale che f (x) = Ax, ∀x ∈ Kn
ˆ ∃B ∈ M (q, p, K) tale che g(y) = By, ∀y ∈ Kp
Dato che g ◦ f é lineare , esisterá una matrice C ∈ M (q, n, K) tale che (g ◦ f )(x) = Cx ,
∀x ∈ Kn . La matrice C sará legata in qualche modo alle matrici A e B. Per trovare la formula
esplicita basta fare il calcolo con le sommatorie.
[Ax]i1 = Ai x =
n
X
[A]ij [x]j1
j=1
[By]h1 = Bh y =
p
X
[B]hk [y]k1
k=1
Si ha quindi
(g ◦ f )(x) = g(f (x)) = g(Ax) = B(Ax) = Cx
dunque
[(g ◦ f )(x)]h1 = [B(Ax)]h1 =
p
X
[B]hk [Ax]k1
k=1
=
p
X
k=1

[B]hk 
n
X

[A]kj [x]j1  =
j=1
p
n
X
X
j=1
(4.28)
!
[B]hk [A]kj
[x]j1
k=1
Stiamo cercando una relazione tra la matrice C e il vettore x : [(g ◦ f )(x)]h1 = Ch x. Dunque
per l’equazione (4.28) si ha che
[C]hj =
p
X
[B]hk [A]kj = Bh Aj
(4.29)
k=1
che é la formula per il prodotto di matrici e rappresenta la caratterizzazione della matrice
associata alla composizione delle due funzioni : C ≡ BA.
Definizione 4.6 (Matrice prodotto). Sia A ∈ M (p, n) , B ∈ M (q, p). BA é la matrice
prodotto (q × n) definita da
[BA]ji ≡ Bj Ai
(4.30)
Si noti che
ˆ La moltiplicazione tra due matrici ha senso solo se il numero di righe di A é uguale al
numero di colonne di B, altrimenti non é definita.
34
CAPITOLO 4. SISTEMI LINEARI
ˆ Non vale la proprietá commutativa , AB 6= BA.
Osservazione 54.
M (n, K, +,prodotto righe×colonne) é un anello NON commutativo. ∀A, B, C ∈ M (n) valgono
le proprietá
ˆ ABC = A(BC)
ˆ A(B + C) = AB + AC
ˆ (A + B)C = AC + BC
L’elemento neutro per il prodotto tra matrici é la matrice identitá.


1 ... 0


idM =  ... . . . ... 
0 ... 1
(4.31)
Osservazione 55.
A differenza di quanto succede nei campi come R moltiplicando due elementi non nulli in
M (n, K, +,prodotto righe×colonne) si puó ottenere la matrice nulla.
0 0
3 4
0 1
(4.32)
=
0 0
0 0
0 0
Esistono anche matrici che moltiplicate per se stesse danno la matrice nulla.
0 0
0 1
0 1
=
0 0
0 0
0 0
(4.33)
Definizione 4.7 (Matrice nilpotente). Una matrice A si dice nilpotente se ∃m ∈ N tale che
Am = 0. Il piú piccolo intero m per cui questo succede é detto indice di nilpotenza.
Definizione 4.8 (Isomorfismo). f : V → W lineare si dice isomorfismo se f é bigettiva.
Definizione 4.9 (Spazi isomorfi). Due spazi V , W si dicono isomorfi se esiste un isomorfismo
tra di essi.
Osservazione 56.
Ogni punto appartente al piano R2 si puó scrivere come combinazione lineare dei vettori (0, 1)
, (1, 0) , infatti ogni vettore si scrive tramite 2 coordinate v = (x, y) = x(1, 0) + y(0, 1). I
vettori (0, 1) , (1, 0) generano tutto lo spazio , come é facile verificare.
Capitolo 5
Basi e dimensione
5.1
Applicazioni lineari e basi
Definizione 5.1 (Spazio finitamente generato). Uno spazio vettoriale V si dice finitamente
generato se esistono v1 , . . . , vn ∈ V tali che ∀v ∈ V , ∃α1 , . . . , αn ∈ K : v = α1 v1 + . . . + αn vn
, ossia Span(v1 , . . . , vn ) = V . In tal caso v1 , . . . , vn sono detti generatori di V .
Osservazione 57.
e1 = (1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1) generano Kn .
Osservazione 58.
K[x] non é finitamente generato. Infatti se lo fosse dovrebbero esistere un numero finito di
polinomi con i quali si genera ogni polinomio. Questo insieme di polinomi generatori avranno
un grado massimo , che denotiamo con m. Una combinazione lineare di questi polinomi potrá
avere al piú grado m , dunque si vede subito che non é possibile rappresentare polinomi di
grado superiore ad m, ovvero K[x] non é finitamente generato.
Definizione 5.2 (Vettori linearmente indipendenti). v1 , . . . , vn ∈ V sono detti linearmente
indipendenti se a1 v1 + . . . + an vn = 0 ⇒ a1 = a2 = . . . = an = 0. Altrimenti sono detti
dipendenti.
Osservazione 59.
e1 , . . . , en ∈ Kn sono linearmente indipendenti.
Osservazione 60.
v ∈ V é linearmente indipendente ⇔ v 6= 0. Infatti av = 0 ⇔ a = 0 ∨ v = 0 . Se v = 0 , a 6= 0
allora v é dipendente, altrimenti v 6= 0, a = 0 e v é indipendente.
Osservazione 61.
Se uno tra i vettori v1 , . . . , vn é nullo allora v1 , . . . , vn sono linearmente dipendenti. Infatti se
v1 = 0 allora v1 + 0 · v2 + . . . + 0 · vn = 0.
Proposizione 5.1.1. Sia n ≥ 2 . I vettori v1 , . . . , vn sono linearmente dipendenti ⇔ almeno
uno di essi si puó scrivere come combinazione degli altri.
Dimostrazione. (⇒) : Per ipotesi ∃a1 , . . . , an non tutti nulli tali che a1 v1 + . . . + an vn = 0. Se
−1
−1
−1
a1 6= 0 posso moltiplicare per a−1
1 ottenendo a1 v1 a1 + . . . + an vn a1 = 0 ⇒ v1 = −a1 a2 v2 −
−1
. . . − a1 an vn . Segue la tesi.
(⇐) : Se v1 = a2 v2 + . . . + an vn allora v1 − a2 v2 − . . . − an vn = 0 e non tutti i coefficienti sono
nulli , ovvero i vettori sono linearmente dipendenti.
35
36
CAPITOLO 5. BASI E DIMENSIONE
Osservazione 62.
Se v1 , . . . , vk sono linearmente indipendenti e m ≤ k allora v1 , . . . , vm sono linearmente
indipendenti.
Osservazione 63.
Se vm ∈ Span(v1 , . . . , vm−1 ) , allora
Span(v1 , . . . , vm−1 , vm ) = Span(v1 , . . . , vm−1 )
(5.1)
Definizione 5.3 (Base). Un insieme ordinato {v1 , . . . , vn } di vettori di V é detto base di V
se v1 , . . . , vn sono linearmente indipendenti e generano V .
Osservazione 64.
{e1 , . . . , en } sono una base di Kn , detta base canonica.
Proposizione 5.1.2. Se B = {v1 , . . . , vn } é una base di V , allora ogni v ∈ V puó essere scritto
in modo unico come combinazione lineare dei v1 , . . . , vn . I coefficienti di questa combinazione
lineare sono dette coordinate di v rispetto alla base B e vengono denotati con [v]B .
Dimostrazione. Supponiamo per assurdo che un vettore si scriva in due modi diversi
(
v = a1 v1 + . . . + an vn
⇒ (a1 − b1 )v1 + . . . + (an − bn )vn = 0
v = b1 v1 + . . . + bn vn
(5.2)
Dato che v1 , . . . , vn sono linearmente indipendenti ⇒ a1 − b1 = . . . = an − bn = 0 ⇒ a1 = b1 =
. . . = an = bn .
Fissare una base determina quindi una corrispondenza BIUNIVOCA [·]B : V → Kn , che
manda v → [v]B . L’applicazione [·]B é lineare e dunque un isomorfismo.
Osservazione 65.
Sia S = {(1, 0), (1, 1)} una base di R2 . Per trovare le coordinate di un vettore in questa base
bisogna trovare due numeri a, b tali che
(
a+b=x
(x, y) = a(1, 0) + b(1, 1) ⇒
(5.3)
b=y
Ovvero bisogna risolvere un sistema lineare che ha come soluzioni le coordinate del vettore.
x−y
[(x, y)]S =
(5.4)
y
Corollario 5.1.3. Se V é un K-spazio vettoriale che ammette una base formata da n vettori
allora V é isomorfo a Kn .
Teorema 5.1.4. Siano {v1 , . . . , vn } base di V , w1 , . . . , wk vettori di V . Se k > n allora
w1 , . . . , wk sono linearmente dipendenti.
Dimostrazione. Si ha
w1 = a11 v1 + . . . + a1n vn
....
..
wk = ak1 v1 + . . . + akn vn
(5.5)
5.2. PROPRIETÁ DELLE BASI
37
Prendiamo una combinazione α1 w1 + . . . + αk wk = 0 sostituendo si ha
α1 (a11 v1 + . . . + a1n vn ) + . . . + αk (ak1 v1 + . . . + akn vn ) = 0
ossia
(a11 α1 + . . . + ak1 αk )v1 + . . . + (a1n α1 + . . . + akn αk )vn = 0
che é una combinazione lineare nulla dei vi , allora


a11 α1 + . . . + ak1 αk = 0




.
..
...




a α + . . . + a α = 0
1n 1
kn k
(5.6)
che é un sistema lineare omogeneo di n equazioni in k incognite. Poiché k > n il sistema ha
soluzioni non nulle.
Corollario 5.1.5. Se {v1 , . . . , vn } e {w1 , . . . , wk } sono basi di V , allora n = k.
Definizione 5.4 (Dimensione). Se V possiede una base finita {v1 , . . . , vn } diciamo che V ha
dimensione n. Se V = {0} poniamo dim V = 0.
5.2
Proprietá delle basi
Proposizione 5.2.1 (Algoritmo per l’estrazione di una base). Supponiamo V 6= {0} . Da
ogni insieme finito di generatori di V si puó estrarre una base di V .
Dimostrazione. Siano v1 , . . . , vk generatori di V . Posso supporre vi 6= 0, ∀i. Allora v1 é
linearmente indipendente. Passo a controllare la lista {v1 , v2 }. Si presentano vari casi
1. Se v1 , v2 sono linearmente indipendenti posso tenerli.
2. Altrimenti v2 ∈ Span(v1 ) quindi posso toglierlo dalla lista, ovvero Span(v1 , v2 , . . . , vk ) =
Span(v1 , v3 . . . , vk ). Questi vettori continuano ad essere un insieme di generatori.
Ripeto il ragionamento partendo dall’inizio. Continuo cosı́ fino a quando ho esaminato tutti
i vettori della lista.
Corollario 5.2.2. Sia dim V = n. Se v1 , . . . , vk sono generatori di V allora k ≥ n
Osservazione 66.
Se v1 , . . . , vk sono linearmente indipendenti e v ∈
/ Span(v1 , . . . , vk ) allora v1 , . . . , vk , v sono
linearmente indipendenti.
Dimostrazione. Sia a1 v1 +. . .+ak vk +av = 0 . Deve essere a = 0 altrimenti v ∈ Span(v1 , . . . , vk ).
Quindi a1 v1 + . . . + ak vk = 0 ⇒ a1 = . . . = ak = 0 , ovvero i vettori sono linearmente
indipendenti.
Lemma 5.2.3. Sia dim V = n. Se v1 , . . . , vn sono linearmente indipendenti allora sono una
base per V .
38
CAPITOLO 5. BASI E DIMENSIONE
Dimostrazione. Basta provare che questi generano V . Se , per assurdo, non generassero V
, esisterebbe v ∈
/ Span(v1 , . . . , vn ) ma con v ∈ V . Dunque v1 , . . . , vn , v sarebbero n + 1
vettori linearmente indipendenti, ma dato che dim V = n questi vettori non possono essere
linearmente indipendenti, dunque é assurdo dire che v non sta in Span(v1 , . . . , vn ).
Teorema 5.2.4 (Completamento a base). Sia dim V = n . Se v1 , . . . , vk sono linearmente
indipendenti , allora k ≤ n ed esistono vk+1 , . . . , vn tali che {v1 , . . . , vk , vk+1 , . . . , vn } é una
base di V .
Dimostrazione. Se k = n , per il lemma {v1 , . . . , vk } é una base. Se k < n i v1 , . . . , vk
non possono essere generatori . Ci sará quindi un vettore che esce dallo span , ovvero
∃vk+1 ∈
/ Span(v1 , . . . , vk ). Dunque la lista v1 , . . . , vk , vk+1 é una lista di vettori linearmente
indipendenti. Dunque
1. Se k + 1 = n per il lemma v1 , . . . , vk+1 sono una base.
2. Se k + 1 < n continuo come sopra.
Dopo n − k passi trovo n vettori linearmente indipendenti in uno spazio di dimensione n e
dunque , una base.
Osservazione 67.
Sia {v1 , . . . , vn } una lista di vettori. Se i vi sono a due a due linearmente indipendenti ;
{v1 , . . . , vn } linearmente indipendenti. Basta prendere , ad esempio
     
1
1
0
1 1 0
(5.7)
0
0
0
Osservazione 68.
Sia U = Span(v1 , . . . , vk ) , W = Span(vk+1 , . . . , vn ) ⇒ U ∩ W = {0}. Infatti se x ∈ U ∩ W
allora
∃α1 , . . . , αk ∈ K : x = α1 v1 + . . . + αk vk (x ∈ U )
∃βk+1 , . . . , βn ∈ K : x = βk+1 vk+1 + . . . + βn vn
(x ∈ W )
Facendo la differenza si ottiene
α1 v1 + . . . + αk vk − βk+1 vk+1 − . . . − βn vn = 0
Dato che questi vettori sono linearmente indipendenti , α1 = . . . = αk = βk+1 = . . . = βn =
0 ⇒ x = 0 . Visto che U ∩ W = {0} ⇒ ∃U ⊕ W ssv di V e inoltre U ⊕ W = V .
Corollario 5.2.5. Ogni ssv di uno spazio vettoriale V di dimensione finita ammette un
supplementare.
Osservazione 69.
Sia dim V = n. Se v1 , . . . , vk sono linearmente indipendenti allora ∃vk+1 , . . . , vn ∈ V tali che
{v1 , . . . , vk , vk+1 , . . . , vn } sono una base di V .
Dimostrazione. Supponiamo di conoscere {w1 , . . . , wn } base di V . Dunque {v1 , . . . , vk , w1 , . . . , wn }
generano V . Utilizziamo l’algoritmo di estrazione di una base.
1. v1 é indipendente per ipotesi;
5.2. PROPRIETÁ DELLE BASI
39
2. v1 , v2 sono indipendenti visto che é un sottoinsieme di un insieme indipendente ;
3. Continuo il ragionamento fino a vk
4. In seguito si esaminano i vettori w1 , . . . , wn e si scelgono (n − k) vettori linearmente
indipendenti wj k+1 , . . . , wj n per il completamento a base.
Proposizione 5.2.6. V sp. vettoriale finitamente generato. Allora ogni sottospazio W di V
é finitamente generato e dim W ≤ dim V . Inoltre W = V ⇔ dim W = dim V .
Dimostrazione. Devo far vedere inizialmente che W é finitamente generato. Se dei vettori
di W sono linearmente indipendenti quei vettori sono linearmente indipendenti anche in V
. Sia dim V = n. Se W = {0} allora la tesi é vera visto che W é finitamente generato e
dim{0} = 0 ≤ dim V = n ⇒ 0 ≤ n che é sempre vero ∀n. Supponiamo quindi W 6= {0}
. Allora ∃w1 ∈ W, w1 6= 0. Se W = Span{w1 } allora dim W = 1. Resta da dimostrare che
dim V ≥ dim W = 1 ma questo é ovvio perché w1 é linearmente indipendente in V ⇒ dim V ≥
1. Se invece W 6= Span(w1 ) , ∃w2 ∈ W −Spanw1 . Allora w1 , w2 sono linearmente indipendenti
(in W e in V ). Ho quindi trovato 2 vettori linearmente indipendenti : se W = Span{w1 , w2 }
allora dim W = 2 e dim V ≥ 2 , altrimenti continuo. Dopo al piú n passi il procedimento
termina altrimenti troverei (n + 1) vettori linearmente indipendenti in V , che é assurdo.
Rimane da dimostrare che W = V ⇔ dim W = dim V . Supponiamo che dim W = dim V = n.
Quindi posso prendere {w1 , . . . , wn } base di W . w1 , . . . wn sono indipendenti in W e quindi
anche in V . Dato che sono n vettori indipendenti in V , sono anche una base di V . Dunque
V = Span{w1 , . . . , wn } = W
Proposizione 5.2.7 (Formula di Grassmann). U, W sottospazi vettoriali di dimensione finita
di V . Allora
dim(U + W ) = dim U + dim W − dim(U ∩ W )
(5.8)
Dimostrazione. Sia dim U = h , dim W = k , dim(U ∩ W ) = s. Sia {z1 , . . . , zs } una base di
U ∩ W . Utilizzo l’algoritmo di completamento a base : ∃u1 , . . . , uh−s ∈ U, ∃w1 , . . . , wk−s ∈ W
tali che
{z1 , . . . , zs , u1 , . . . , uh−s } é base di U
{z1 , . . . , zs , w1 , . . . , wk−s }
é base diW
Per provare il teorema basta provare che {z1 , . . . , zs , u1 , . . . , uh−s , w1 , . . . , wk−s } é una base di
U + W . Infatti avrei che dim(U + W ) = h + k − s e visto che questi vettori sono una base per
U + W allora seguirebbe la tesi. Passiamo quindi a dimostrare che
Sono generatori : Ogni vettore del sottospazio U + W si scrive, per definizione di somma
, come u + w dove u ∈ U, w ∈ W . Allora u = Span(u1 , . . . , uh−s , z1 , . . . , zs ), w =
Span(w1 , . . . , wk−s , z1 , . . . , zs ) ⇒ u + w = Span(u1 , . . . , uh−s , w1 , . . . , wk−s , z1 , . . . , zs ).
40
CAPITOLO 5. BASI E DIMENSIONE
Sono linearmente indipendenti : Sia
a1 z1 + . . . + as zs + b1 u1 + . . . + bh−s uh−s + c1 w1 + . . . + ck−s wk−s = 0
{z
} |
|
{z
} |
{z
}
z
u
w
dunque z + u + w = 0 ⇒ z + u = −w. Si noti che z ∈ U ∩ W , u ∈ U , w ∈ W
. Visto che deve valere l’uguaglianza deve valere −w ∈ U ∩ W . Posso quindi scrivere
w = α1 z1 + . . . + αs zs , per cui ho
a1 z1 + . . . + as zs + b1 u1 + . . . + bh−s uh−s + α1 z1 + . . . + αs zs = 0
Questa é una combinazione lineare dei vettori della lista {z1 , . . . , zs , u1 , . . . , uh−s } che
sappiamo essere una base di U dunque vettori linearmente indipendenti :
b1 = . . . = bh−s = 0
Dunque la combinazione lineare iniziale si puó scrivere come
a1 z1 + . . . + as zs + c1 w1 + . . . + ck−s wk−s = 0
che é una combinazione lineare nulla della lista {z1 , . . . , zs , w1 , . . . , wk−s } che é una base
, quindi a1 = . . . = as = c1 = . . . = ck−s = 0.
Capitolo 6
Basi e applicazioni lineari
Proposizione 6.0.8. Sia f : V → W lineare.
1. Se v1 , . . . , vm sono linearmente indipendenti e f é iniettiva allora f (v1 ), . . . , f (vm ) sono
linearmente indipendenti.
2. Se v1 , . . . , vm generano V , allora f (v1 ), . . . , f (vm ) generano Immf .
Dimostrazione.
1. Sia a1 f (v1 ) + . . . + am f (vm ) = 0 ⇒ a1 v1 + . . . + am vm ∈ ker f = {0} ⇒
a1 = . . . = am = 0 per la lineare indipendenza.
2. Devo mostrare che ogni vettore dell’immagine puó essere scritto come combinazione
lineare dei f (v1 ), . . . , f (vm ). Sia y = f (x) ∈ Immf, x ∈ V . Dunque x = a1 v1 + . . . + an vn
con a1 , . . . , an ∈ K. Dunque
!
m
m
X
X
y = f (x) = f
ai vi =
ai f (vi )
(6.1)
i=1
i=1
Corollario 6.0.9. Se f : V → W é isomorfismo , f trasforma ogni base di V in una base di
W.
Teorema 6.0.10 (Formula delle dimensioni). V spazio vettoriale finitamente generato. f :
V → W lineare. Allora
dim V = dim ker f + dim Immf
(6.2)
Dimostrazione. Sia dim V = n , dim ker f = k.
Sia {v1 , . . . , vk } una base di ker f . La completo a base di V, {v1 , . . . , vk , . . . , vn }. Per le proprietá delle applicazioni lineari si ha che f (v1 ), . . . , f (vn ) generano Immf , ossia f (vk+1 ), . . . , f (vn )
generano Immf . Dimostraimo che f (vk+1 ), . . . , f (vn ) sono anche linearmente
indipendenti.
P
Sia ak+1 f (vk+1 ) + . . . + an f (vn ) = 0 ⇒ f (ak+1 vk+1 + . . . + an vn ) = 0 ⇒ ni=k+1 ai vi ∈ ker f ⇒
∃a1 , . . . , ak ∈ K tali che
n
X
ai vi = a1 v1 + . . . + ak vk ⇒ a1 v1 + . . . + ak vk − ak+1 vk+1 − . . . − an vn = 0
i=k+1
che é una combinazione lineare nulla dei vettori v1 , . . . , vk , . . . , vn ⇒ ai = 0, ∀i = 1, . . . , n
. Dunque {f (vk+1 ), . . . , f (vn )} é una base di Immf cioé dim Immf = n − k = dim V −
dim ker f .
41
42
CAPITOLO 6. BASI E APPLICAZIONI LINEARI
Osservazione 70.
Abbiamo provato che f |Span{vk+1 ,...,vn } é iniettiva.
Corollario 6.0.11. f : V → W lineare . Se dim V = dim W allora f é iniettiva ⇔ f é
surgettiva. Dunque se f : V → V , f iniettiva ⇔ f surgettiva.
Dimostrazione. f é iniettiva⇔ ker f = {0} ⇔ dim V = dim Immf ⇔ dim W = dim Immf ⇔
Immf = W ⇔ f é surgettiva.
Corollario 6.0.12. V e W sono isomorfi ⇔ dim V = dim W .
Dimostrazione. (⇐) Se dim V = dim W = n allora1 V ' Kn ' W .
(⇒) Se ∃f : V → W isomorfismo basta usare la formula delle dimensioni.
Osservazione 71.
Sia f : V → W isomorfismo. L’applicazione inversa f −1 : W → V tale che f (x) = y é lineare.
Infatti
ˆ ∀y1 , y2 ∈ W siano x1 = f −1 (y1 ) , x2 = f −1 (y2 ) , cioé f (x1 ) = y1 , f (x2 ) = y2 . Dunque
f −1 (y1 + y2 ) = f −1 (f (x1 ) + f (x2 )) = f −1 (f (x1 + x2 )) = x1 + x2 = f −1 (y1 ) + f −1 (y2 )
come volevasi dimostrare.
ˆ Sia λ ∈ K, y ∈ W . Dobbiamo dimostrare che f −1 (λy) = λf −1 (y). Sia x = f −1 (y) , cioé
f (x) = y . Allora
f −1 (λy) = f −1 (λf (x)) = f −1 (f (λx)) = λx = λf −1 (y)
Definizione 6.1 (Gruppo lineare). Si definisce
GL(V ) = {f ∈ hom(V, W ) : f isomorfismo}
(6.3)
Osservazione 72.
Considero la composizione ◦ su GL(V ) , ovvero l’operazione definita da ◦ : GL(V )×GL(V ) →
GL(V ) che agisce su (f, g) → g ◦ f . Si noti che
1. idV é un isomorfismo ⇒ idV ∈ GL(V )
2. ∀f, g, h ∈ GL(V ) ⇒ h ◦ (g ◦ f ) = (h ◦ g) ◦ f
3. ∀f ∈ GL(V ) , ∃f −1 ∈ GL(V ) tale che f ◦ f −1 = f −1 ◦ f = idV
Osservazione 73.
∀f ∈ GL(V ) , f ◦ idV = idV ◦ f = f . La proprietá (3) dell’osservazione precedente diventa
quindi la proprietá di esistenza dell’elemento inverso per GL(V ).
Definizione 6.2 (Gruppo). Sia G 6= ∅ un insieme con l’operazione ∗ : G × G → G. (G, ∗) si
dice gruppo se
1. ∀g1 , g2 , g3 ∈ G si ha g1 ∗ (g2 ∗ g3 ) = (g1 ∗ g2 ) ∗ g3 .
2. ∃e ∈ G tale che ∀g ∈ G, g ∗ e = e ∗ g = g.
1
Il simbolo ' sta per isomorfismo.
43
3. ∀g ∈ G, ∃g −1 ∈ G tale che g ∗ g −1 = g −1 ∗ g = e
4. ∀g, h ∈ G, g ∗ h = h ∗ g
La proprietá (4) é aggiuntiva : se questa viene rispettata si parla di gruppo Abeliano. Dunque
(GL(V ), ◦) é un gruppo, detto gruppo lineare.
Definizione 6.3 (Isomorfia). Siano V, W K-spazi vettoriali finitamente generati. Dico che
V RW ⇔ V e W sono isomorfi. Si noti che R é una relazione di equivalenza! Si puó quindi
definire una classe di equivalenza
[V ] = {W, K-spazi vettoriali isomorfi a V }
Proposizione 6.0.13. V RW ⇔ dim V = dim W . Ovvero la dimensione é un invariante per
R.
Dimostrazione. (⇒) : Se ϕ : V → W isomorfismo allora dim V = dim ker ϕ + dim Immϕ.
| {z } | {z }
0
(⇐) : Viceversa se dim V = dim W = n allora V ' Kn ' W ⇒ V RW .
dim W
Teorema 6.0.14. V, W , K-spazi vettoriali , dim V = n.
Sia {v1 , . . . , vn } base di V e w1 , . . . , wn vettori di W . Allora esiste una ed una sola f : V → W
lineare tale che f (v1 ) = w1 , . . . , f (vn ) = wn .
Dimostrazione. Si deve dimostrare l’esistenza e l’unicitá della f .
Esistenza : Sia v ∈ V . Allora esistono unici a1 , . . . , an ∈ K tali che v = a1 v1 + . . . + an vn .
Poniamo quindi f (v) = a1 w1 +. . .+an wn . Devo controllare che questa definizione sia ben
posta e che la funzione sia lineare. Si ha f (vi ) = wi , ∀i = 1, . . . , n quindi l’applicazione
é ben definita. Inoltre f é lineare ,infatti se v = a1 v1 + . . . + an vn , z = b1 v1 + . . . + bn vn
allora
v + z = (a1 + b1 )v1 + . . . + (an + bn )vn ⇒ f (v + z) = (a1 + b1 )w1 + . . . + (an + bn )wn
ovvero
f (v + z) = a1 w1 + . . . + an wn + b1 w1 + . . . + bn wn = f (v) + f (z)
|
{z
} |
{z
}
f (v)
f (z)
Analogamente si prova che f (λv) = λf (v), ∀λ ∈ K, ∀v ∈ V .
Unicitá : Se f é lineare e f (vi ) = wi allora
!
n
n
n
X
X
X
f (v) = f
ai vi =
ai f (vi ) =
ai wi = a1 w1 + . . . + an wn
i=1
i=1
(6.4)
i=1
Ovvero questo é l’unico modo di scrivere l’applicazione di cui si é dimostrata l’esistenza.
In altre parole, provando a definire questa applicazione in un altro modo si nota che
le due definizioni devono coincidere per le proprietá dell’applicazione stessa, dunque
l’applicazione é unica.
Proposizione 6.0.15. f : V → W ; g : W → Z lineari. Allora
44
CAPITOLO 6. BASI E APPLICAZIONI LINEARI
1. dim Imm(g ◦ f ) ≤ min{dim Immf, dim Immg}
2. Se f é isomorfismo allora dim Imm(g ◦ f ) = dim Immg.
3. Se g é isomorfismo allora dim Imm(g ◦ f ) = dim Immf .
Dimostrazione. Dividiamo le tre dimostrazioni
1. Scriviamo l’uguaglianza Imm(g ◦ f ) = Imm (g|Immf ) per l’osservazione 8. Si tratta
quindi di calcolare la dimensione dell’immagine associata ad una sola applicazione , che
é lineare. Applichiamo quindi la formula delle dimensioni
dim(Imm(g ◦ f )) = dim Imm(g|Immf ) = dim(Immf ) − dim ker(g|Immf ) ≤ dim(Immf )
|
{z
}
≥0
Inoltre Imm(g ◦ f ) ⊂ Immg ⇒ dim Imm(g ◦ f ) ≤ dim Immg.
2. Se f é isomorfismo allora f (V ) = W quindi Imm(g ◦ f ) = Immg.
3. Se g é isomorfismo allora ker g = {0} quindi dim Imm(g ◦ f ) = dim Immf .
Capitolo 7
Rango
7.1
Rango
Definizione 7.1 (Rango). Sia f : V → W lineare. Poniamo rk(f ) = dim Immf , rango di f .
In particolare se A ∈ M (p, n, K), e dunque A : Kn → Kp , x → Ax , rk(A) = dim ImmA =
dim C(A).
Vogliamo poter calcolare il rango di una applicazione f e trovare una base dell’immagine
di f . Cominciamo dal caso , relativamente piú semplice, delle matrici. Sia A ∈ M (p, n, K) e
poniamo R(A) = Span(A1 , . . . , Ap ).
Proposizione 7.1.1. Sia S una ridotta a scalini di A. Allora
1. R(A) = R(S).
2. dim C(A) = dim C(S).
Dimostrazione.
1. Dato che S ha come righe le combinazioni lineari delle righe di A allora
gli spazi generati dalle due matrici sono uguali.
2. I sistemi Ax = 0 e Sx = 0 sono equivalenti , quindi ker A = ker S. Per la formula delle
dimensioni allora dim ImmA = dim ImmS ⇒ rk(A) = rk(S).
Proposizione 7.1.2. Sia S una matrice a scalini con r pivots nelle colonne S j1 , . . . , S jr .
Allora
1. {S1 , . . . , Sr } é una base di R(S).
2. {S j1 , . . . , S jr } é una base di C(S) e dunque rkS = r.
Dimostrazione.
1. S1 , . . . , Sr ovviamente generano R(S). Inoltre S1 , . . . , Sr sono linearmente indipendenti : prendendo una combinazione lineare a1 S 1 + . . . + ar S r = 0 dalla
prima somma si ottiene un vettore. Consideriamo l’ultima componente non nulla di tale
vettore ( che otteniamo dalla sola colonna S r ) : ar pr . Affinché sia uguale a 0 , poiché
pr 6= 0 per ipotesi si ottiene ar = 0. Si itera il procedimento, considerando che ora
l’ultima componente non nulla é data dalla colonna S r−1 .
45
46
CAPITOLO 7. RANGO
2. La dimostrazione che S j1 , . . . , S jr sono linearmente indipendenti é analoga al caso precedente : bisogna solo ragionare per colonne invece che per righe. Per vedere che S j1 , . . . , S jr
generano C(S) = Span{S 1 , . . . , S r } basta far vedere che ∀i 6= j1 , . . . , jr ( ovvero per le
colonne non selezionate ) S i ∈ Span(S j1 , . . . , S jr ) , ovvero un elemento fuori dalla lista
dei generatori prescelti si puó scrivere come combinazione lineare degli elementi stessi.
Voglio quindi mostrare che esistono α1 , . . . , αr ∈ K tali che S i = α1 S j1 + . . . + αr S jr ,
cioé che il sistema
   
α1
 
S j1 . . . S jr  ...  = S i 
(7.1)
αr
ha soluzione. Dato che il sistema é giá ridotto a scalini si nota subito che i pivots sono
r quindi basta cercare i casi per i quali , aggiungendo la colonna dei termini noti ,S i ,
non cambiano il numero di pivots. Perché questo succeda occorre che dalla posizione
(r + 1)-esima di S i gli elementi siano nulli. Ma questo é sicuramente verificato perché
S i é stata ricavata dalla matrice completa del sistema , quindi sotto la posizione r ha
tutti elementi nulli.
Corollario 7.1.3. Il numero di pivots di una ridotta a scalini S di A non dipende dalle
operazioni elementari per riga eseguite.
Dimostrazione. numero di pivots= rk(S) = rk(A).
Corollario 7.1.4. Per ogni matrice A , dim R(A) = dim C(A) ovvero il rango per righe é
equivalente al rango per colonne.
Dimostrazione. Sia S una ridotta a scala di A con r pivots . Allora
dim R(A) = dim R(S) = r = dim C(S) = dim C(A)
Corollario 7.1.5. Per ogni matrice A , rk( t A) = rk(A)
Dimostrazione.
rk( t A) = dim C( t A) = dim R(A) = dim C(A) = rk(A)
Teorema 7.1.6 (di Rouché-Capelli). Il sistema lineare Ax = B é risolubile ⇔ rk(A) =
rk(A|B).
Dimostrazione. Per l’algoritmo di Gauss Ax = B é equivalente a Sx = T con (S|T ) scalini ed
é risolubile ⇔ rk(S) = rk(S|T ). Ma rk(A) = rk(S) e rk(A|B) = rk(S|T ).
7.2. COME TROVARE UNA BASE DELLO SPAZIO DELLE SOLUZIONI DI AX = 0 47
7.2
Come trovare una base dello spazio delle soluzioni di Ax =
0
Sia A ∈ M (p, n, K). Sappiamo che S0 = {x ∈ Kn : Ax = 0} = ker A. Sia r = rkA , questo
sará il numero di pivots di una qualsiasi ridotta a scalini di A. Dalla formula delle dimensioni
ottengo che
dim S0 = dim ker A = n − dim ImmA = n − r
Per calcolare una base di S0 basta trovare n − r vettori che generano lo spazio S0 . Sia S una
ridotta a scala di A : S ha r pivots. Supponiamo che questi stiano nelle colonne S 1 , . . . , S r
. Allora il sistema Ax = 0 é equivalente a Sx = 0 : in seguito si ricavano le variabili
corrispondenti alle colonne contenenti i pivots in funzione delle altre :


s11 x1 + . . . + s1r xr = −s1,r+1 xr+1 − . . . − s1n xn


s22 x2 + . . . + s2r xr = −s2,r+1 xr+1 − . . . − s2n xn
..
..
..
..


.
.
.
.



srr xr = . . .
(7.2)
con sij 6= 0 per i = j. Se fisso i valori dei parametri xr+1 , . . . , xn la colonna dei termini noti
diventa un vettore numerico. Dunque quando ricavo x1 , . . . , xr trovo una soluzione numerica
ed unica. La soluzione sará del tipo
Y r+1 = (. . . , 1, 0, . . . , 0)
Y r+2 = (. . . , 0, 1, 0, . . . , 0)
..
..
..
.
.
.
(7.3)
Y n = (. . . , 0, 0, . . . , 1)
Questi vettori sono ovviamente linearmente indipendenti e sono n − r dunque formano una
base di S0 .
7.3
Matrici invertibili e gruppo lineare
Abbiamo giá detto che M (n, K) é un anello ma non un campo.
Definizione 7.2 (Matrice invertibile). A ∈ M (n, K) si dice invertibile se ∃B ∈ M (n, K) tale
che AB = BA = I dove I é l’elemento neutro nell’anello per il prodotto. Se B esiste é unica e
viene detta inversa di A, B = A−1 .
Osservazione 74.
0 1
0 0
(7.4)
0 1
x y
1 0
6=
, ∀x, y, z, t
0 0
z t
0 1
(7.5)
non é invertibile perché
48
CAPITOLO 7. RANGO
Definizione 7.3 (Gruppo lineare). Denotiamo con
GL(n, K) = {A ∈ M (n, K) : A é invertibile}
Osservazione 75.
Se A, B ∈ GL(n, K) ⇒ AB ∈ GL(n, K). Infatti A, B ∈ GL(n, K) ⇒ ∃A−1 , B −1 ⇒ (AB)(B −1 A−1 ) =
A(BB −1 )A−1 = AIA−1 = I e dunque (AB)−1 = B −1 A−1
Osservazione 76.
A ∈ GL(n) ⇒ A−1 é invertibile e (A−1 )−1 = A. Infatti (A−1 )A = AA−1 = I.
Osservazione 77.
(GL(n, K), ·) é un gruppo , detto gruppo lineare, infatti
ˆ vale la proprietá associativa per il prodotto
ˆ I é l’elemento neutro e∈ GL(n, K) . I−1 = I.
ˆ Ogni elemento dell’insieme possiede un inverso per quanto detto prima.
Osservazione 78.
A ∈ GL(n) , A−1 A = I posso interpretarla in termini di applicazioni lineari :
A
A−1
Kn −
→ Kn −−→ Kn
Questo é equivalente a dire che A é bigettiva , ossia é un isomorfismo. Le matrici invertibili
sono dunque isomorfismi in Kn .
Proposizione 7.3.1. Sono fatti equivalenti
1. A invertibile⇒ A ∈ GL(n, K)
2. A isomorfismo
3. dim ImmA = n = rkA.
Osservazione 79.
v1 , . . . , vk ∈ Rn . La dimensione di Span(v1 , . . . , vk ) si puó calcolare utilizzando gli ultimi
metodi studiati. Costruisco quindi la matrice
A = v1 . . . vk
(7.6)
Poiché Span(v1 , . . . , vk ) = C(A) si tratta di calcolare rkA.
Osservazione 80.
Se S é una ridotta a scalini di A allora dim C(A) = dim C(S) ma C(A) 6= C(S) in generale. Per
trovare una base non conviene quindi ridurre a scalini.
Definizione 7.4 (Matrice elementare). Si chiama matrice elementare ogni matrice che si ottiene dalla matrice identitá con un’operazione elementare per righe. I tipi di matrici elementari
sono principalmente 3 :
1. Eij ottenuta scambiando Ii , Ij
2. Ei (α) ottenuta moltiplicando Ii per α 6= 0.
7.3. MATRICI INVERTIBILI E GRUPPO LINEARE
49
3. Eij (α) sommando a Ii α volte Ij .
Osservazione 81.
Se B é la matrice ottenuta da A con una operazione elementare per riga , allora B coincide
con la matrice ottenuta moltiplicando A a sinistra per la matric elementare corrispondente a
quella operazione elementare.
Osservazione 82.
(Eij )−1 = Eij
;
(Ei (α))−1 = Ei (α−1 )
;
(Eij (α))−1 = Eij (−α)
Osservazione 83.
f : V → W isomorfismo , B = {v1 , . . . , vn } base di V . Dunque f (v1 ), . . . , f (vn ) sono linearmente indipendenti e sono generatori dell’immagine ⇒ {f (v1 ), . . . , f (vn )} é una base di W .
Dunque un isomorfismo trasforma basi in basi.
Osservazione 84.
L’algoritmo di Gauss puó essere rivisto con questi ultimi risultati. In effetti questo puó essere
interpretato come una moltiplicazione a sinistra per un numero n di matrici elementari.
A
E1 A
E2 E1 A . . .
En . . . E1 A = S
| {z }
M
M é invertibile perché é il prodotto di matrici invertibili. Dunque se M é invertibile allora é
un isomorfismo da Kp a Kp . Dato che M A = S allora
rkS = dim ImmS = dim Imm(M A) = dim ImmA = rkA
Inoltre ImmS = M (ImmA) . Ma noi conosciamo una base di ImmS che sono le colonne
contenenti i pivots della matrice S ⇒ {S j1 , . . . , S jr } é una base di ImmS. Dato che M
é un isomorfismo trasforma basi in basi , una base di ImmA é data da M −1 ImmS ⇒
{M −1 (S j1 ), . . . , M −1 (S jr )} é una base di ImmA. Ma osservando la moltiplicazione M −1 S
si nota che M −1 (S j1 ) = Aj1 dunque una base di ImmA é data da
{M −1 (S j1 ) = Aj1 , . . . , M −1 (S jr ) = Ajr }
Proposizione 7.3.2. Se {S j1 , . . . , S jr } sono le colonne che contengono i pivots di una ridotta
a scala di A ,allora {Aj1 , . . . , Ajr } sono una base di ImmA.
Osservazione 85.
Sia v1 , . . . , vm un insieme indipendente di Kn . Per completarlo a base costruisco A = v1 . . . vm e1 . . . en .
Riducendo a scalini troveró n pivots :i primi m nelle prime m colonne. Prendo le colonne che
contengono i pivots.
Osservazione 86.
Dati dei vettori v1 , . . . , vk ∈ Kn trovare una base dello spazio che essi generano. Sia
A = v1 . . . vk
allora Span(v1 , . . . , vk ) = C(A). Riduciamo a scalini A , trovando la matrice S. Se S j1 , . . . , S jr
sono le colonne contenenti i pivots , allora {vj1 , . . . , vjr } sono una base di Span(v1 , . . . , vk ).
50
7.4
CAPITOLO 7. RANGO
Calcolo dell’inversa
Sia A ∈ M (n, K). So che A é invertibile⇔ rk(A) = n. Cerchiamo prima un’inversa destra,
ovvero una matrice x ∈ M (n) tale che Ax = I , ossia
A x1 . . . xn = I ⇒ Ax1 Ax2 . . . Axn = I1 . . . In
(7.7)
Per imporre l’uguaglianza tra questi matrici bisogna imporre

1
1

Ax = I

..
..
.
.


Axn = In
(7.8)
che sono sistemi lineari n × n. Si noti , peró , che la matrice dei coefficienti é A , per ogni
sistema ; le uniche cose che cambiano sono la colonna delle incognite e la colonna dei termini
noti. Dunque le operazioni elementari necessarie per trasformare la matrice A in una matrice
a scalini sono le stesse per ogni sistema visto che la matrice A é sempre
la stessa. Posso quindi
ridurre a scalini direttamente la matrice completa del sistema AI . Dopo aver ridotto a
scala A si potrá controllare se i pivots sono n , cioé se A é invertibile : ma si puó fare anche
di piú! In effetti si puó continuare la riduzione a scala applicando l’algoritmo di Gauss al
contrario in modo da ottenere una matrice diagonale. In seguito si puó moltiplicare ogni
pivots della matrice A diagonalizzata per il suo inverso (operazione
dato che ci troviamo
lecita
in un anello ) ottenendo l’identitá da A. Si otterrá quindi IB . Le colonne di B cosı́
ottenute rappresentano quindi le soluzioni x1 , . . . , xn visto che Ix1 = x1 , . . . , Ixn = xn ⇒ B =
(x1 , . . . , xn ) =inversa destra. Resta da vedere se questa inversa coincide anche con l’inversa
sinistra. Poiché sono passato da (A|I) a (I|B) con operazioni elementari per riga , allora
IB = M AI = M AM
Se deve valere l’uguaglianza tra due matrici allora M A = I ; M = B e quindi BA = I.
Vogliamo ora generalizzare questo metodo a spazi qualsiasi, ad esempio lo spazio dei polinomi.
7.5
Rappresentazione matriciale di una applicazione lineare
Sia f : V → W lineare . Siano inoltre S = {v1 , . . . , vn } base di V e R = {w1 , . . . , wm } base di
W . La matrice di M (m, n, K)
!
(7.9)
A ≡ m(f )S,R = [f (v1 )]R . . . [f (vn )]R
si chiama matrice associata ad f rispetto alla base S ed R. Vediamo perché questa definizione
risulta utile. Sia v ∈ V ⇒ v = x1 v1 + . . . + xn vn ⇒ f (v) = x1 f (v1 ) + . . . + xn f (vn ) =
x1 (a11 w1 + . . . + am1 wm ) + . . . + xn (a1n w1 + . . . + amn wm ) = (a11 x1 + . . . + a1n xn )w1 + . . . +
(am1 x1 + . . . + amn xn )wm ovvero


 
x1
a11 x1 + . . . + a1n xn


 .. 
.
.
[f (v)]R = 
(7.10)
 = A  .  = A[v]S
.
am1 x1 + . . . + amn xn
xn
7.5. RAPPRESENTAZIONE MATRICIALE DI UNA APPLICAZIONE LINEARE
51
Ovvero
[f (v)]R = A[v]S
Dunque A é univocamente fissata da questa relazione.
Teorema 7.5.1. dim V = n, dim W = m. Sia S = {v1 , . . . , vn } base di V e R base di
W . Allora l’applicazione mS,R : hom(V, W ) → M (m, n, K) definita da f → m(f )S,R é un
isomorfismo.
Dimostrazione.
ˆ Si verifica facilmente che é lineare, infatti bisogna far vedere che ∀f, g ∈
hom(V, W ) allora m(f + g)S,R = m(f )S,R + m(g)S,R
ˆ mS,R é iniettiva : infatti se f ∈ ker(mS,R ) , ossia mS,R (f ) = 0 , allora f (v1 ) = . . . =
f (vn ) = 0 ⇒ f (v) = 0 allora mS,R é iniettiva perché l’unica applicazione che sta nel
nucleo é l’applicazione nulla.
ˆ mS,R é surgettiva : ∀A ∈ M (m, n), ∃!f : V → W lineare tale che [f (v1 )]R = A1 , . . . , [f (vn )]R =
An . Allora m(f )S,R = A.
Corollario 7.5.2.
dim hom(V, W ) = n · m
Dimostrazione. Siccome é un isomorfismo allora dim ker(mS,R ) = 0 ⇒ dim hom(V, W ) =
dim(M (m, n)) = m · n.
Proposizione 7.5.3 (Matrice della composizione).
f
g
US −
→ VT →
− WR
Se m(f )S,T = A e m(g)T ,R = B allora m(g ◦ f )S,R = BA.
Dimostrazione. ∀u ∈ U si ha [(g ◦ f )(u)]R = [g(f (u))]R = B[f (u)]T = BA[u]S
Proposizione 7.5.4. f : V → W lineare , A = m(f )S,T . Allora rkf = rkA.
Dimostrazione. Sia S = {v1 , . . . , vn }. Allora Immf = Span(f (v1 ), . . . , f (vn )). Inoltre [f (v1 )]T =
A1 , . . . , [f (vn )]T = An . Se ϕ = [·]T : W → Km é l’isomorfismo indotto dalla base T , allora
ϕ(Immf ) = C(A) = ImmA per cui dim Immf = dim ImmA, ovvero rkf = rkA.
Corollario 7.5.5. Se {Aj1 , . . . , Ajr } sono una base di ImmA , allora {f (vj1 ), . . . , f (vjr )} sono
una base di Immf .
Corollario 7.5.6. f : V → W lineare , dim V = dim W = n. Allora f é un isomorfismo⇔
A = m(f )S,T é invertibile⇔ rk(A) = n.
Dimostrazione. Si noti che f é isomorfismo⇔ rk(f ) = n ⇔ rk(A) = n ⇔ A é invertibile.
52
CAPITOLO 7. RANGO
7.6
Matrice del cambiamento di base
id
Prendiamo VS −→ VT . Allora ∀v ∈ V ⇒ [Iv]T = [v]T = N [v]S quindi N é la matrice che lega
N
le coordinate di V rispetto a basi diverse. N é la matrice del cambiamento di base.
Osservazione 87.
Se N é la matrice del cambiamento di base da S a T , la matrice del cambiamento di base a
T a S é N −1 . Infatti
id
id
N
M
VS −→ VT −→ VS
Osservazione 88.
f
f
Prendiamo VS −
→ WT e VS 0 −→
WT 0 .
0
A
A
M N = I ⇒ M = N −1
,
Ci chiediamo che legame sussiste tra A ed A0 .
Consideriamo il diagramma commutativo
f
VS −−−−→ WT
A
x



N id
M yid
(7.11)
f
VS 0 −−−−
→ WT 0
0
A
allora
A0 = M AN
.
Definizione 7.5 (SD-equivalenza). Siano A, B ∈ M (p, n). Diciamo che A e B sono SDequivalenti ( e scriviamo A ≡ B) ⇔ ∃M ∈ GL(p), ∃N ∈ GL(n) tali che B = M AN .
Osservazione 89.
1. ≡ é una relazione di equivalenza.
2. Se A ≡ B ⇒ rk(A) = rk(B).
3. Interpretando M ed N come matrici di cambiamento di base , A ≡ B ⇔ A, B rappresentano la stessa applicazione rispetto a basi diverse.
Proposizione 7.6.1. f : V → W lineare , dim V = n , dim W = p. Allora esiste una base S
di V ed esiste una base T di W tali che


Ir 0

mS,T (f ) = 
(7.12)
0 0
dove r = dim Immf .
Dimostrazione. dim ker f = n−r. Sia {vr+1 , . . . , vn } una base di ker f . Sia S = {v1 , . . . , vr , vr+1 , . . . , vn }
una base di V che contiene i vettori {vr+1 , . . . , vn }. Data la forma della matrice associata ad
f il primo vettore della base sará
 
1
0
 
f (v1 ) =  . 
 .. 
0
7.7. ULTERIORE CARATTERIZZAZIONE DEL RANGO
53
Quindi {f (v1 ), . . . , f (vr )} sono generatori di Immf . Inoltre sono una base perché la lineare
indipendenza é garantita dal fatto che dim Immf = r. Posso completare questo insieme a
T = {f (v1 ), . . . , f (vr ), wr+1 , . . . , wp } base di W . Allora S, T verificano la tesi.
Corollario 7.6.2. Se rkA = r allora

A≡
Ir
0
0
0


(7.13)
Teorema 7.6.3. A ≡ B ⇔ rkA = rkB ovvero il rango é un invariante completo per SDequivalenza.
Dimostrazione. (⇒) : giá visto
(⇐) : Se rk(A) = rk(B) = r allora

A≡
7.7
Ir
0
0
0

≡B
Ulteriore caratterizzazione del rango
Se A ∈ M (p, n) denotiamo con (Ai1 , . . . , Aim |Aj1 , . . . , Ajq ) la sottomatrice ottenuta da A
scegliendo gli elementi sulle righe Ai1 , . . . , Aim e nelle colonne Aj1 , . . . , Ajq .
Definizione 7.6 (Minori). Le sottomatrici quadrate sono dette minori.
Proposizione 7.7.1. Sia A ∈ M (p, n) e sia B un minore di A di ordine q , invertibile. Allora
le righe ( e le colonne ) che concorrono a formare B, ovvero le righe della matrice originaria
da cui si estratto il minore , sono linearmente indipendenti.
Dimostrazione. Sia B = (Ai1 , . . . , Aiq |Aj1 , . . . , Ajq ) . Bisogna mostrare che Ai1 , . . . , Aiq sono
linearmente indipendenti. α1 Ai1 + . . . + αq Aiq = 0 , anche α1 B1 + . . . + αq Bq = 0. Ma le righe
di B sono linearmente indipendenti perché rk(B) = q. Dunque α1 = . . . = αq = 0.
Teorema 7.7.2. Il rango di una matrice é uguale al massimo degli ordini dei suoi minori
invertibili.
Dimostrazione. Sia A ∈ M (p, n). Sia ρ il massimo degli ordini dei minori invertibili di A. Sia
r = rk(A). Vogliamo provare che ρ = r. Sia B un minore di A di ordine ρ invertibile. Allora,
per la proposizione (7.7.1) , esistono in A ρ righe indipendenti , quindi rk(A) ≥ ρ ossia r ≥ ρ.
Siano Ai1 , . . . , Air , r righe indipendenti di A. Allora la sottomatrice r × n data da B =
(Ai1 , . . . , Air |A1 , . . . , An ) ha rango (per righe) r. Ma allora anche il rango per colonne é r ,
ovvero esistono in B , r colonne B j1 , . . . , B jr linearmente indipendenti. Allora la sottomatrice (B1 , . . . , Br |B j1 , . . . , B jr ) ha rango r visto che B j1 , . . . , B jr sono linearmente indipendenti. Questa matrice é un minore di A ed ha rango r, dunque ρ ≥ r. Quindi deve valere
contemporaneamente ρ ≥ r e ρ ≤ r ovvero ρ = r , come volevasi dimostrare.
54
CAPITOLO 7. RANGO
Capitolo 8
Determinante
8.1
Esistenza ed unicitá del determinante
Teorema 8.1.1. ∀n ≥ 1, ∃! funzione D : M (n, K) → K tale che
1. D é lineare in ogni riga , cioé ∀i = 1, . . . , n
D(A1 , . . . , λB + µC, . . . , An ) = λD(A1 , . . . , B, . . . , An ) + µD(A1 , . . . , C, . . . , An )
2. Se A ha due righe uguali , D(A) = 0.
3. D(In ) = 1.
Vediamo che nel caso n = 2 una funzione siffatta si puó definire semplicemente come
D : M (2, 2) → K
a11 a12
→ a11 a22 − a12 a21
a21 a22
Vediamo che sono verificate le tre proprietá
1. D é lineare nella prima riga ( e seconda riga ) , ovvero
λB + µC
b1 b2
c1 c2
D
= λD
+ µD
a21
a22
a21 a22
a21 a22
(8.1)
con B = (b1 , b2 ) C = (c1 , c2 ). Verifichiamo quindi la proprietá
λb1 + µc1 λb2 + µc2
D
=
a21
a22
= a22 (λb1 + µc1 ) − a21 (λb2 + µc2 ) = λ(b1 a22 − a21 b2 ) + µ(c1 a22 − c2 a21 )
b1 b2
c1 c2
= λD
+ µD
a21 a22
a21 a22
a
a
1
3. D
0
2. D
b
b
0
1
= ab − ba = 0
=1
55
(8.2)
56
CAPITOLO 8. DETERMINANTE
8.1.1
Dimostrazione del teorema (8.1.1)
Unicitá Vogliamo verificare che se c’é una funzione che rispetta le proprietá enunciate nel
teorema (8.1.1) allora essa soddisfa anche altre proprietá deducibili da queste tre , che
ora elenchiamo.
1. Se A ha una riga nulla allora D(A) = 0.
Dim: Se Ai = 0 allora A = (A1 , . . . , 0 · B, . . . , An ) dove B é una qualsiasi riga
possibile. Utilizzando ora la (1) del (8.1.1) segue la tesi
2. D(. . . , Ai , . . . , Aj , . . .) = −D(. . . , Aj , . . . , Ai , . . .) Dim: 0 = D(. . . , Ai +Aj , . . . , Ai +
Aj , . . .) = D(. . . , Ai , . . . , Ai , . . .) + D(. . . , Ai , . . . , Aj , . . .) + D(. . . , Aj , . . . , Ai , . . .) +
D(. . . , Aj , . . . , Aj , . . .) = D(. . . , Ai , . . . , Aj , . . .) + D(. . . , Aj , . . . , Ai , . . .) = 0 dove le
uguaglianze derivano tutte dalle proprietá del teorema (8.1.1).
3. Se B é ottenuta da A sommando ad una riga una combinazione
Plineare delle altre
righe allora D(B) = D(A). Dim: Supponiamo che B1 = A1 + ni=2 αi Ai . Allora
D(B) = D(A1 +
n
X
αi Ai , A2 , . . . , An ) = D(A) +
2
n
X
αi D(Ai , A2 , . . . , An )
i=2
∀i in questa matrice ci sono due righe uguali dunque D(B) = D(A).
4. Se le righe di A sono linearmente dipendenti allora D(A)
Pn = 0. Dim: Esiste almeno
una riga, ad esempio A1 , che si puó scrivere come i=2 αi Ai . Allora
n
n
X
X
D(A) = D(
αi Ai , A2 , . . . , An ) =
αi D(Ai , A2 , . . . , An ) = 0
2
i=2
5. Se A é diagonale con [A]ii = ai , ∀i = 1, . . . , n allora D(A) = a1 · . . . · an . Dim:
D(A) = D(a1 (1, . . . , 0) + a2 (0, 1, 0, . . . , 0) + . . .) = a1 · . . . · an · D(In ) = a1 · . . . · an .
Supponiamo che D sia una funzione con le proprietá del teorema (8.1.1) . Vediamo che
allora D é univocamente individuata e quindi che al massimo esiste una tale funzione.
Sia S una matrice a scalini ottenuta da A attraverso operazioni del primo e del terzo
tipo. Abbiamo visto che le prime cambiano il segno di D mentre le seconde lo lasciano
inalterato. Quindi
D(A) = (−1)m D(S)
dove m é il numero di scambi di riga eseguiti. Dimostriamo che quest’ultima formula
soddisfa le proprietá del teorema (8.1.1). Ci sono due casi
1. S ha una riga nulla, quindi D(S) = 0 e anche D(A) = 0.
2. S ha n pivots p1 , . . . , pn . Con sole operazioni del terzo tipo per riga ( che non
alterano D ) riportiamo S alla forma diagonale su cui D vale p1 · . . . · pn . Allora
D(A) = (−1)m p1 · . . . pn .
Quindi la funzione assume solo dei valori fissati ed é quindi univocamente determinata
: abbiamo provato l’unicitá di D.
Corollario 8.1.2. Se D é una funzione che verifica le proprietá del teorema (8.1.1)
allora D(A) = 0 ⇔ le righe di A sono linearmente dipendenti.
8.2. PROPRIETÁ AGGIUNTIVE DEL DETERMINANTE
57
Dimostrazione. (⇐) : é stato giá provato
(⇒) : Se le righe
Q di A fossero indipendenti ogni ridotta a scalini di S avrebbe n pivots
quindi D(S) = i pi 6= 0 e dunque D(A) 6= 0.
Esistenza Si consideri la funzione Dn : M (n, K) → K definita da
ˆ n = 1 : D1 (a) = a.
a b
= ad − bc .
ˆ n = 2 : D2
c d
ˆ n≥2:
Dn (A) =
n
X
(−1)i+1 [A]i1 Dn−1 (Ai1 )
(8.3)
i=1
dove Ai1 é la sottomatrice di A ottenuta da A cancellando la riga Ai e la colonna
A1 .
É una funzione definita ricorsivamente. L’espressione Dn (A) é detto sviluppo di Laplace
secondo la prima colonna. Si dovrebbe ora verificare che la funzione cosı́ definita soddisfa
gli assioni del teorema (8.1.1).
8.2
Proprietá aggiuntive del determinante
Osservazione 90.
Anche lo sviluppo di Laplace secondo una colonna Aj verifica le proprietá del teorema (8.1.1).
Dato che la funzione é unica allora il determinante é uguale, ovvero lo sviluppo di Laplace su
qualsiasi colonna é lo stesso in virtú dell’unicitá .
Osservazione 91.
In generale det(A + B) 6= det(A) + det(B) quindi det : M (n, K) → K non é lineare. Inoltre
dalla definizione segue det(λA) = λn det(A).
Teorema 8.2.1 (di Binet). ∀A, B ∈ M (n, K) ⇒ det(AB) = det(A) · det(B)
Dimostrazione. Dividiamo la dimostrazione in due casi:
ˆ Se det B = 0 ⇒ rk(A · B) ≤ rk(B) < n e dunque A · B non é invertibile, ovvero
det(AB) = 0.
ˆ Se det B 6= 0 consideriamo la funzione f : M (n, K) → K definita da f (A) = det(AB)
det(B) e
verifichiamo che questa soddisfa le proprietá del teorema (8.1.1) : questo ci garantirá
che é l’unica e che quindi é la funzione cercata , ovvero det(A).
1. f é lineare nelle righe, infatti se una riga di A é combinazione lineare di due righe
lo stesso vale anche per A · B e quindi basta sfruttare che det é lineare nelle righe
di A · B.
2. Se A ha due righe uguali , anche A · B ce le ha e quindi det(AB) = 0.
3. f (I) =
det(B)
det(B)
= 1.
58
CAPITOLO 8. DETERMINANTE
Corollario 8.2.2. Se A é invertibile allora
det(A · A−1 ) = det I = det(A) · det(A−1 ) ⇒ det A−1 =
1
det(A)
Osservazione 92.
Consideriamo lo sviluppo di Laplace secondo la prima riga di A.
n
X
(−1)i+1 [A]1i det(A1i ) =
i=1
=
n
X
i=1
n
X
(−1)i+1 [ t A]i1 det( t (A1i ))
(8.4)
i+1 t
(−1)
t
t
[ A]i1 det( Ai1 ) = det( A) = det(A)
i=1
Se si considera poi la rige i-esima, invece della prima, si conclude che si puó fare lo sviluppo
di Laplace sulla riga che si preferisce.
Proposizione 8.2.3 (Regola di Cramer). Ax = B sistema lineare quadrato con det(A) 6= 0.
Allora la sua unica soluzione é (y1 , . . . , yn ) dove
yi =
det B(i)
det A
con B(i) = (A1 , . . . ,
B
|{z}
, . . . , An )
postoiesimo
Dimostrazione. (y1 , . . . , yn ) é soluzione di Ax = B ⇔ y1 A1 + . . . + yn An = B. Allora


n
n
X
X
det B(i) = det A1 , . . . ,
yj Aj , . . . , An  =
yj det(A1 , . . . , Aj , . . . , An ) = yi det(A)
j=1
j=1
(8.5)
poiché det(A) 6= 0 ⇒ yi =
8.2.1
det B(i)
det A
Calcolo dell’inversa
Se A é invertibile allora la matrice B definita da
[B]ij = (−1)i+j
det Aji
det A
é l’inversa di A.
Dimostrazione. Verifichiamo che AB = I.
n
n
X
X
det Aki
[AB]hk =
[A]hi [B]ik =
[A]hi (−1)i+k
det A
i=1
(8.6)
i=1
ˆ Se h = k allora
n
[AB]hh =
1 X
det A
[A]hi (−1)i+h det(Ahi ) =
=1
det A
det A
i=1
Infatti la formula precedente é lo sviluppo di Laplace secondo la riga h-esima , quindi é
uguale a det A.
ˆ Se h 6= k il numeratore é lo sviluppo secondo la riga k-esima di una matrice ottenuta da
A sostituendo ad Ak la riga Ah e che quindi ha due righe uguali , quindi det A0 = 0 ⇒
[AB]hk = 0 per h 6= k.
Inoltre BA = A−1 ABA = A−1 A = I.
8.3. RISOLUZIONE DI SISTEMI
8.3
59
Risoluzione di sistemi
Consideriamo il sistema lineare Ax = B, A ∈ M (p, n). Questo sistema é risolubile ⇔
rk(A) = rk(A|B). Posso controllare la risolubilitá utilizzando il determinante. Supponiamo che rk(A) = r = rk(A|B). Se rk(A) = r esiste nella matrice A un minore M , r × r
, invertibile. Allora le equazioni che entrano in M , ovvero le righe della matrice completa
che formano M sono linearmente indipendenti. Lo spazio generato dalle righe di (A|B) ha
dimensione r : prendendo quindi una riga esterna ad M questa sará combinazione lineare delle
righe che concorrono a formare M . Il sistema Ax = B é allora equivalente al sistema ottenuto
eliminando le righe di (A|B) che non concorrono a formare M . Si ottiene quindi una matrice
rettangolare che ha minore M : posso portare gli altri minori che non formano M nel termine
noto. In questo modo la matrice dei coefficienti del sistema diviene M ed abbiamo ottenuto
un sistema quadrato dove si puó applicare Cramer.
Definizione 8.1 (Minori orlati). Si ottengono aggiungendo ad un minore di una matrice una
riga ed una colonna qualsiasi della matrice.
Proposizione 8.3.1 (Criterio dei minori orlati). Sia B un minore di ordine r di A con
det B 6= 0. Se tutti i minori orlati di B hanno determinante nullo allora rk(A) = r.
60
CAPITOLO 8. DETERMINANTE
Capitolo 9
Endomorfismi
Definizione 9.1 (Endomorfismi). Si definisce endomorfismo End(V ) = hom(V, V ). Sia S
base di V , A = mS (f ). Se T é un’altra base e M = mT ,S (id) allora M −1 = mS,T (id).
Dunque
mT (f ) = M −1 AM
Definizione 9.2 (f diagonalizzabile). f é detta diagonalizzabile ⇔ ∃ base B tale che mB (f )
é diagonale.
Definizione 9.3 (Autovettore ed autovalore).
1. v ∈ V si dice autovettore per f se v 6= 0 e ∃λ ∈ K tale che f (v) = λv.
2. λ ∈ K si dice autovalore per f se ∃v 6= 0 tale che f (v) = λv.
Se B = {v1 , . . . , vn } é una base di

λ1
0

mB (f ) =  .
 ..
0
autovettori ,
0
λ2
..
.
...
...
..
.
0
0
..
.



 ⇔ f (vi ) = λi vi , ∀i

(9.1)
. . . . . . λn
Osservazione 93.
Se v é autovettore per f , f (Span(v)) ⊂ Span(v)
ˆ Se λ 6= 0 , f (Span(v)) = Span(v).
ˆ Se λ = 0 , f (Span(v)) = {0}.
Osservazione 94.
L’autovalore relativo ad un autovettore é univocamente determinato. Infatti se fosse , per
assurdo , che f (v) = λv = µv allora sarebbe (λ − µ)v = 0 e per la definizione di autovettore
seguirebbe λ = µ che é assurdo.
Osservazione 95.
v é autovettore relativo a 0 ⇔ v ∈ ker f , quindi 0 é autovalore ⇔ f non é iniettiva.
Definizione 9.4 (Autospazio). Poniamo V (λ) = {v ∈ V : f (v) = λv}. Allora
1. V (λ) = ker(f − λ id) ⇒ V (λ) é sottospazio perché f − λ id é lineare.
61
62
CAPITOLO 9. ENDOMORFISMI
2. λ é autovalore ⇔ dim V (λ) ≥ 1. In tal caso V (λ) = {0} ∪ { autovettori relativi a λ}. e
V (λ) é detto autospazio relativo a λ.
Osservazione 96.
Le nozioni precedenti si applicano anche a A : Kn → Kn , x → Ax dove A ∈ M (n, K).
Ricordiamo che mT (A) = A. Quindi A é diagonalizzabile ⇔ ∃ base B tale che mB (A) = D
ossia ⇔ M −1 AM = D con M = mB,T (id).
Definizione 9.5 (Matrici simili). A, B ∈ M (n, K) si dicono simili se ∃M ∈ GL(n, K) tale che
B = M −1 AM ( e si scrive A ∼ B).Dunque una matrice é diagonalizzabile se é simile ad una
matrice diagonale.
Osservazione 97.
1. La similitudine é una relazione di equivalenza.
2. A ∼ B ⇒ A ≡ B e quindi rk(A) = rk(B) e M é isomorfismo.
3. A ∼ B ⇒ det(A) = det(B). Infatti det B = det(M −1 ) det A det M = det A.
Dunque rango e determinante sono invarianti di similitudine ma NON un sistema completo
di invarianti.
Proposizione 9.0.2. Sia A ∼ B e sia λ autovalore per A. Allora
1. λ é autovalore per B
2. dim V (λ, A) = dim V (λ, B)
Dimostrazione. Per ipotesi ∃M ∈ GL(n, K) tale che B = M −1 AM ed ∃x 6= 0 tale che Ax = λx
. Devo provare che BY = λY . Sia Y = M −1 x. Allora Y 6= 0 (infatti M é isomorfismo ,
quindi M −1 é isomorfismo e quindi manda x 6= 0 in M −1 x 6= 0) e
BY = M −1 AM M −1 x = M −1 Ax = λM −1 x = λY
Inoltre ∀x ∈ V (λ, A), M −1 x ∈ V (λ, B) ovvero M −1 (V (λ, A)) ⊂ V (λ, B) e quindi V (λ, A) ⊂
M (V (λ, B)). Analogamente si vede che M (V (λ, B)) ⊂ V (λ, A). Ma quindi deve valere
che M (V (λ, B)) = V (λ, A) , ovvero M trasforma gli autospazi del primo endomorfismo
in autospazi del secondo endomorfismo. Visto che M é un isomorfismo segue subito che
dim V (λ, B) = dim V (λ, A).
Osservazione 98.
Dunque gli autovalori e le dimensioni degli autospazi sono altri invarianti per similitudine.
Proposizione 9.0.3. Sia f ∼ g. Allora1
1. Se λ é autovalore per f , λ é autovalore per g.
2. dim Vλ (f ) = dim Vλ (g)
Dimostrazione. Sia B base di V , A = mB (f ), B = mB (g). Allora A ∼ B. Dunque λ
autovalore per f ⇒ λ autovalore per A ⇒ λ autovalore per B ⇒ λ autovalore per g. Inoltre
dim Vλ (f ) = dim Vλ (A) = dim Vλ (B) = dim Vλ (g)
per la proposizione (9.0.2).
1
Da ora in avanti si utilizzerá anche la notazione equivalente V (λ, f ) = Vλ (f ).
9.1. CALCOLO DI AUTOVALORI E AUTOSPAZI
9.1
63
Calcolo di autovalori e autospazi
Osservazione 99.
λ é autovalore per A ⇔ ∃x 6= 0 tale che Ax = λx ⇔ ∃x 6= 0 tale che (A − λI)x = 0 ⇔ x ∈
ker(A − λI ⇔ det(A − λI) = 0
Definizione 9.6 (Polinomio Caratteristico). Il polinomio pA (t) = det(A − tI) é detto polinomio caratteristico di A. Dunque λ é autovalore per A ⇔ pA (λ) = 0
Proposizione 9.1.1. Se A ∼ B allora pA (t) = pB (t)
Dimostrazione. Se A ∼ B ⇒ B = M −1 AM , quindi pB (t) = det(B − tI) = det(M −1 AM −
tI) = det(M −1 (A − tI)M ) = det(A − tI) = pA (t) per Binet.
Osservazione 100.
Sia f ∈ End(V ). Allora pf (t) = det(A − tI) , dove A é una qualsiasi matrice associata ad f .
Proposizione 9.1.2. Il polinomio caratteristico é un invariante di similitudine in End(V ).
Dimostrazione. Se f ∼ g e B é una base di V allora mB (f ) ∼ mB (g) e quindi pf (t) = pg (t)
per la proposizione precedente.
Osservazione 101.
Se due matrici hanno lo stesso polinomio caratteristico pA (t) = pB (t) allora
1. hanno gli stessi autovalori
2. det(A) = det(B) perché il determinante é il termine noto del polinomio caratteristico.
Inoltre le colonne di A e B generano spazi di dimensione uguale, ovvero rk(A) = rk(B). Infatti
rk(A) = dim Imm(A) = n − dim ker(A) = n − dim V0 (A). Quindi gli invarianti di similitudine
sono
ˆ polinomio caratteristico
ˆ dimensione degli autospazi
Definizione 9.7 (Molteplicitá algebrica e geometrica). Sia λ autovalore per f
1. Si chiama molteplicitá algebrica di λ la sua molteplicitá µa (λ) come radice del polinomio
caratteristico pf (t).
2. Si chiama molteplicitá geometrica di λ la dimensione dell’autospazio , ovvero µg (λ) =
dim Vλ (f ) = n − rk(A − λI).
Osservazione 102.
Il determinante delle matrici triangolari a blocchi si puó calcolare semplicemente come


A B
 = det A · det C
det 
(9.2)
0 C
con A e C quadrate.
Proposizione 9.1.3.
dim Vλ (f ) = µg (λ) ≤ µa (λ)
64
CAPITOLO 9. ENDOMORFISMI
Dimostrazione. Sia d = dim Vλ (f ) , sia A = mB (f ). Sia {v1 , . . . , vd } una base di Vλ (f ) che
completiamo ad una base B di V . La matrice associata ad f nella base B sará quindi del tipo


λI M


(9.3)
0 N
Allora

pA (t) = det 
(λ − t)I
M
0
N −t

 = (λ − t)d · det(N − tI)
(9.4)
Da cui
pf (t) = det(A − tI) = (λ − t)d pN (t) ⇒ µa (λ) ≥ d
(9.5)
Definizione 9.8. A ∈ M (n, K) si dice diagonalizzabile se A é simile ad una matrice diagonale.
Osservazione 103.
f ∈ End(V ) , B base di V . Allora f é diagonalizzabile ⇔ mB (f ) é diagonalizzabile.
Proposizione 9.1.4. f ∈ End(V ) , v1 , . . . , vk autovettori relativi agli autovalori λ1 , . . . , λk .
Se i λi sono a due a due distinti allora v1 , . . . , vk sono linearmente indipendenti.
Dimostrazione. Si prova per induzione su k.
ˆ Se k = 1 abbiamo un solo autovettore relativo ad un solo autovalore che é ovviamente
linearmente indipendente visto che é diverso da 0.
ˆ Sia k ≥ 2. Prendo
c1 v1 + . . . + ck vk = 0
(9.6)
se due vettori sono uguali lo sono anche le loro immagini tramite f . Applico quindi f
ottenenendo
c1 λ1 v1 + . . . + ck λk vk = 0
. Moltiplicando la 9.6 per λ1 si ottiene
c1 λ1 v1 + . . . + ck λ1 vk = 0
(9.7)
Sottraendo queste ultime due equazioni si ottiene
c2 (λ2 − λ1 )v1 + . . . + ck (λk − λ1 )vk = 0
Per induzione c2 (λ2 − λ1 ) = . . . = ck (λk − λ1 ) = 0. Ma i λi sono distinti, quindi
λi − λ1 6= 0. Quindi segue che c2 = c3 = . . . = ck = 0 ⇒ c1 = 0.
Teorema 9.1.5 (di diagonalizzazione). f é diagonalizzabile se e solo se
1. µa (λ1 ) + . . . + µa (λk ) = n = dim V
2. ∀λi autovalore µg (λi ) = µa (λi ).
9.1. CALCOLO DI AUTOVALORI E AUTOSPAZI
65
Dimostrazione. (⇒) : Suppongo f diagonalizzabile e B una base di autovettori. Allora


λ1 Id1
0
... ...
0

.. 
 0
λ2 Id2 0 . . .
. 



.. 
..

.
. 
mB (f ) =  0
(9.8)

 ..

.
.
..
.. 
 .


..
.
. . . . . . . . . λk Idk
Quindi pf (t) = (λ1 − t)d1 . . . (λk − t)dk , ovvero µa (λ1 ) = d1 , . . . , µa (λk ) = dk .Poiché d1 + . . . +
dk = n la prima parte é provata. Inoltre dato che in B ci sono almeno di autovettori relativi a
λi , si ha dim Vλi ≥ di = µa (λi ). Poiché in generale dim Vλi ≤ µa (λi ) allora anche la seconda
parte é provata.
S
(⇐): Sia di = dim Vλi e sia Bi = {vi,1 , . . . , vi,di } una base di Vλi . Sia inoltre B = ki=1 Bi . In
totale B contiene d1 + . . . + dk = n vettori. Per dimostare che questi formano una base basta
verificare la lineare indipendenza.
c11 v11 + . . . + c1d1 v1d1 + . . . + ck1 vk1 + . . . + ckdk vkdk = 0
{z
}
|
{z
}
|
z1
(9.9)
zk
L’equazione precedente diviene
z1 + z2 . . . + zk = 0
Dato che z1 é combinazione lineare dei vettori v1 , . . . , v1d1 , che stavano in un sottospazio,
allora z1 ∈ Vλ1 e quindi zi ∈ Vλi , ∀i = 1, . . . , k. Riguardo a z1 posso notare che é o 0 o un
autovettore. In particolare se z1 6= 0 sará autovettore e lo stesso vale per gli altri. Ma allora
questa relazione sarebbe una combinazione lineare di vettori nulla. Ma questo é assurdo poiché
troverei una relazione di dipendenza lineare mentre in realtá si tratta di vettori linearmente
indipendenti. Quindi l’unico modo per non incorrere in un assurdo é che
zi = 0, ∀i = 1, . . . , n ⇒ z1 = 0 ⇒ c11 v11 + . . . + c1d1 v1d1 = 0
|{z}
|{z}
6=0
6=0
ovvero c11 = cidi = . . . = 0, ∀i.
Proposizione 9.1.6. f ∈ End(V ) , S base di V , A = mS (f ). Allora
1. f é diagonalizzabile ⇔ A é diagonalizzabile.
2. λ é autovalore per f ⇔ λ é autovalore per A.
3. v é autovettore per f ⇔ x = [v]S é autovettore per A.
4. Se ϕ : V → Kn isomorfismo indotto da S allora ϕ(V (λ, f )) = V (λ, A).
Dimostrazione.
1. f é diagonalizzabile ⇔ ∃ base B di autovettori ⇔ mB (f ) = D ⇔
M −1 AM = D con M matrice del cambiamento di base da B a S ⇔ A é diagonalizzabile.
2. ∃v 6= 0 tale che f (v) = λv ⇔ ∃v 6= 0 tale che Av = λv.
3. Per la definizione di endomorfismo.
66
CAPITOLO 9. ENDOMORFISMI
4. [f (v)]S = λ[v]S ⇔ x = [v]S 6= 0 é tale che Ax = λx. Dunque per decidere se f
Osservazione 104.
f ∈ End(V ) , B base di V , A = mB (f ). Sia ϕ : V → Kn l’applicazione tale che v → [v]B .
Se {v1 , . . . , vn } é una base di Kn di autovettori per A allora {ϕ−1 (v1 ), . . . , ϕ−1 (vn )} sono una
base di autovettori per f .
9.2
Conseguenze del teorema di diagonalizzazione
Osservazione 105.
Se K = C il polinomio caratteristico ha coefficienti complessi. Per il teorema fondamentale
dell’algebra la seconda condizione del teorema (9.1.5) é sempre verificata. Non é detto che lo
sia anche la seconda.
Nel caso K = R invece puó mancare giá la prima condizione : ad esempio
0 1
se si prende
il polinomio caratteristico associato é pA (t) = t2 + 1 che non ammette
−1 0
soluzioni in R. Infatti la matrice A rappresenta una rotazione di 90°che non ha sicuramente
autovettori. La diagonalizzabilitá é verificata solo in C dove si trovano gli autovalori
λ = ±i
i 0
.
distinti. Nella base degli autovettori la matrice si scriverá quindi come
0 −i
Osservazione 106.
Se λ é un autovalore semplice , ovvero con µa (λ) = 1 , allora µg (λ) ≤ µa (λ) = 1. D’altra
parte µg (λ) ≥ 1 altrimenti λ non sarebbe autovalore relativo ad un autovettore visto che
l’autospazio relativo avrebbe dimensione 0. Se ne deduce quindi che µg (λ) = µa (λ) = 1.
Osservazione 107.
S
Se Bi é una base di V (λi ) = ker(A − λi I) la lista ki Bi é formata da vettori indipendenti.
Osservazione 108.
Se λ é autovalore per A , allora ∀s ∈ N , λs é autovalore per As .
Dimostrazione. Se λ é autovalore per A , ∃x ∈ Kn , x 6= 0tale che Ax = λx. Ma
As x = As−1 Ax = As−1 λx = λ(As−1 x) = λ(As−2 Ax) = . . . = λs x
Ovvero x é autovettore per As relativo all’autovalore λs .
Corollario 9.2.1. Se A é nilpotente , allora A ha solo l’autovalore nullo. Infatti ∃m ∈ N tale
che Am = 0 ⇒ λm = 0 ⇒ λ = 0
Osservazione 109.
Se A é simile a B , allora ∀s ∈ N , As ∼ B s .
Dimostrazione. Infatti se A ∼ B allora ∃M ∈ GL(n) tale che B = M −1 AM . Ma
−1
Bs = B
. . M −1 AM} = M −1 AM · M −1 AM . . . M −1 AM = M −1 As M
| · B{z. . . B} = |M AM .{z
s
ovvero B s ∼ As .
s
9.2. CONSEGUENZE DEL TEOREMA DI DIAGONALIZZAZIONE
67
Corollario 9.2.2. Se A é diagonalizzabile , cioé A ∼ D diagonale , allora ∀s ∈ N, As ∼
Ds . Infatti Ds é sempre una matrice diagonale⇒ As é simile ad una matrice diagonale⇒
As é diagonalizzabile. Non vale il viceversa perché ad esempio la rotazione di 90 °non é
diagonalizzabile , mentre se si compone 2 o 4 volte, ottenendo 180°o 360°si ottiene una matrice
diagonalizzabile.
Osservazione 110 (Invarianti di similitudine).
Gli invarianti di similitudine esaminati fin’ora risultano essere
1. rango
2. determinante
3. polinomio caratteristico
4. autovalori
5. dimensione autospazi
Notiamo peró che (3) ⇒ (4), (3) ⇒ (2), (5) ⇒ (1) , quindi basta controllare la (3) e la (5). Si
vede peró che il sistema di invarianti cosı́ costruito non é completo , infatti basta prendere un
controesempio che presentiamo di seguito.




0 1 0 0
0 1 0 0
0 0 0 0
0 0 1 0



A=
(9.10)
0 0 0 1 , B = 0 0 0 0
0 0 0 0
0 0 0 0
Si noti che pA (t) = pB (t) = t4 . Inoltre dim V (0, A) = dim V (0, B) = 2 visto che rk(B) =
rk(A) = 2 , quindi le matrici sono entrambe non diagonalizzabili. Abbiamo quindi trovato
due matrici non diagonalizzabili che soddisfano le proprietá precedenti : per dimostrare che
non sono simili utilizzamo una dimosrrazione per assurdo. Se A fosse simile a B allora A2
sarebbe simile a B 2 . Ma A2 = 0 e la matrice B 2 ha almeno un elemento [B]13 6= 0. Dato che
l’unica matrice simile alla matrice nulla é se stessa segue l’assurdo, ovvero A non é simile a B.
Definizione
9.9. Sia f ∈ End(V ). W ssv. di V si dice f -invariante se f (W ) ⊂ W , ossia
f : W → W é un endomorfismo.
W
Definizione 9.10. Siano W1 , . . L
. , Wm sottospazi vettoriali di V . Si dice che V é somma
diretta dei Wi , e si scrive V = i Wi , se ∀v ∈ V , v si puó scrivere in modo unico come
v = w1 + . . . + wm , con wi ∈ Wi , ∀i. In particolare, allora,
V = W1 + . . . + Wm
Proposizione 9.2.3. V =
base di V .
Lm
i=1 Wi
⇔ prese B1 , . . . , Bm basi di W1 , . . . , Wm allora
Sm
i=1 Bi
é
Dimostrazione.
.
S
L
(⇒) : m
B
é
certamente un insieme di generatori di V : infatti l’ipotesi é che V = i Wi
i
i=1
quindi v = w1 + . . . + wm , ∀v ∈ V dove w1 = SpanB1 , . . . , wm = SpanBm . Inoltre questi vettori
sono linearmente indipendenti , infatti presa una combinazione lineare nulla
comb.lineare dei vettori di B1 + . . . + comb.lineare dei vettori di Bm = 0
|
{z
}
|
{z
}
w1
wm
(9.11)
68
CAPITOLO 9. ENDOMORFISMI
abbiamo scritto 0 come somma di elementi che stanno in W1 , W2 , . . . , Wm . Dato che 0 =
0 + 0 + . . . + 0 , per l’unicitá della presentazione ( dovuta all’ipotesi della somma diretta) si
ottiene necessariamente w1 = 0, . . . , wm = 0. Ma wi , ∀i é una combinazione
lineare di vettori
S
indipendenti dunque segue che tutti i coefficienti sono nulli e quindi m
B
i=1 i é una base di V .
(⇐) : Supponiamo per assurdo che
0
v = w1 + . . . + wm = w10 + . . . + wm
con wi 6= wi0 , ∀i
ovvero che la presentazione NON sia unica. Dunque
0
(w1 − w10 ) + . . . + (wm − wm
)=0
Ma (w1 − w10 ) ∈ W1 quindi puó essere scritto come combinazione lineare dei vettori di B1 .
Lo stesso S
vale per gli altri vettori : ottengo quindi una combinazione lineare dei vettori che
stanno in m
i=1 Bi . Dato che questa somma deve essere nulla i coefficienti della combinazione
lineare sono tutti nulli , infatti per l’ipotesi questi vettori formano una base. Ne segue che
0 = 0 , ovvero w = w 0 , da cui l’assurdo.
w1 − w10 = 0 = . . . = wm − wm
i
i
Proposizione 9.2.4. Sia V = A ⊕ B , f ∈ End(V ) tale che f (A) ⊂ A , f (B) ⊂ B. Allora f
é diagonalizzabile ⇔ f A , f B lo sono.
Dimostrazione. (⇐) : É ovvia perché f A , f B sono diagonalizzabili dunque posso trovare una
base di autovettori per f in questi sottospazi. Una base di autovettori per V si ottiene unendo
queste due basi.
(⇒): Per ipotesi esiste una lista di autovettori per f , {v1 , . . . , vn } , base di V tali che f (vi ) =
λi vi , ∀i = 1, . . . , n. Bisogna cercare una base di autovettori in A ed in B , avendo una base
di V . Questa si puó ottenere proiettando i vettori di V nei due sottospazi in somma direta.
Consideriamo quindi le applicazioni di proiezione
prA : V → A
prB : V → B
Per l’unicitá della presentazione , dovuta al fatto che A e B stanno in somma diretta , allora
∀v ∈ V, ∃!a ∈ A, ∃!b ∈ B tali che v = a+b , ovvero prA (v) = a, prB (v) = b. Quindi ∀vi = ai +bi
posso considerare la lista dei vettori {a1 , . . . , an } ottenuta proiettando i vettori della base di
autovettori per f in V su A e la lista {b1 , . . . , bn } ottenuta proiettando i vi su B. Si ha che
f (vi ) = λi vi = λi ai + λi bi
d’altra parte
f (vi ) = f (ai + bi ) = f (ai ) + f (bi )
ovvero
f (ai ) + f (bi ) = λi ai + λi bi
(9.12)
Ma f (ai ) ∈ A perché A per ipotesi é f -invariante ; la stessa cosa vale anche per f (bi ) ∈ B.
Dato che nelle somme dirette un vettore si scrive in modo unico, si ottiene
(
f (ai ) = λi ai
(9.13)
f (bi ) = λi bi
9.2. CONSEGUENZE DEL TEOREMA DI DIAGONALIZZAZIONE
69
Ci sono due possibilitá : o ai ( e analogamente bi ) é nullo per qualche i , o é autovettore.
Dunque la lista {a1 , . . . , an } contiene certamente una base di A , a patto che questi vettori generino A. Ma {a1 , . . . , an } erano le proiezioni su A dei vettori {v1 , . . . , vn } ⇒ a1 =
prA (v1 ), . . . , an = prA (vn ). Sappiamo quindi che a1 , . . . , an generano Imm(prA ) : per dire che
generano anche Imm(A) basterá che l’applicazione sia surgettiva : ma questo é garantito dalla
proprietá della proiezione. Dunque
si puó estrarre dagli insiemi {a1 , . . . , an } , {b1 , . . . , bn } una
base di autovettori per f A , f B , ovvero queste restrizioni sono diagonalizzabili.
Proposizione 9.2.5. Se f é diagonalizzabile e W é f -invariante , allora f W é diagonalizzabile.
Dimostrazione. Se trovo un ssv. Z di V tale che V = W ⊕ Z e che f (Z) ⊂ Z allora posso
applicare la proposizione (9.2.4) e dimostrare quest’ultima. Per ipotesi f é diagonalizzabile ,
dunque ∃{v1 , . . . , vn } base di autovettori in V per f .Sia {w1 , . . . , wk } una base qualunque di
W . Posso completarla a base di V scegliendo i vettori aggiuntivi dalla base di V ottenendo la
lista {w1 , . . . , wk , v1 , . . . , vn }. I primi k vettori sono sicuramente linearmente indipendenti , fra
gli altri n l’algoritmo di estrazione di una base selezionerá i vettori indipendenti ottenendo la
lista {w1 , . . . , wk , vj1 , . . . , vjn−k }. Basta quindi prendere come Z lo spazio generato dai vettori
{vj1 , . . . , vjn−k } : questi vanno in se stessi tramite f per l’ipotesi iniziale di diagonalizzabilitá ,
quindi Z é f -invariante ed é il complementare di V , ovvero é il candidato adatto per utilizzare
la proposizione (9.2.4).
Corollario 9.2.6. f ∈ End(V ) é diagonalizzabile ⇔ V = Vλ1 (f ) ⊕ . . . ⊕ Vλn (f ) ⇔ V é somma
diretta di sottospazi invarianti , su ciascuno dei quali f = λi I.
70
CAPITOLO 9. ENDOMORFISMI
Capitolo 10
Forme Bilineari
Definizione 10.1. V K-spazio vettoriale.
φ : V × V → K é detta applicazione ( o forma ) bilineare se
1. ∀x, y, z ∈ V : φ(x + y, z) = φ(x, z) + φ(y, z)
2. ∀x, y, z ∈ V : φ(x, y + z) = φ(x, y) + φ(x, z)
3. ∀x, y, z ∈ V, ∀α ∈ K : φ(αx, y) = αφ(x, y) = φ(x, αy).
In generale φ : V × V . . . × V → K é detta multilineare se é lineare in ogni variabile.
Osservazione 111. Presentiamo alcuni esempi di forme bilineari
1. φ ≡ 0 é una forma bilineare , come é semplice verificare.
2. Il prodotto scalare standard su Rn , φ : Rn × Rn → R . É definito da1
φ(x, y) = t xy =
n
X
x i yi
i=1
3. A ∈ M (n, K) , in generale si puó dare la seguente definizione di prodotto scalare
φ : Kn × Kn → K
(x, y) → t xAy
(10.1)
4. Il determinante é multilineare nelle righe.
5. M (n, K)
:
φ(A, B) = Tr(t AB),
φ(A, B) = Tr(AB) sono bilineari.
6. Fissato a1 , . . . , an ∈ K si considera
φ : Kn [x] × Kn [x] → K
n
X
φ(p(x), q(x)) =
p(ai )q(ai )
(10.2)
i=1
1
Nel seguito, per non creare fraintendimenti, si indicherá con x un vettore e con xi la sua componente. La
lettera maiuscola sará riservata, come fatto fino ad ora, alle sole matrici.
71
72
CAPITOLO 10. FORME BILINEARI
7. É di grande importanza il prodotto scalare nella metrica di Minkowski per la relativitá
ristretta. Si definisce su R4 il prodotto scalare
φ((x1 , . . . , x4 ), (y1 , . . . , y4 )) = x1 y1 + x2 y2 + x3 y3 − x4 y4
Osservazione 112.
Bil(V ) = {φ : V × V → φ é bilineare }
é un K-spazio vettoriale.
Definizione 10.2 (Matrice associata alla forma bilineare). φ ∈ Bil(V ), B = {v1 , . . . , vn } base
di V . Si chiama matrice associata a φ rispetto a B la matrice mB (φ) ∈ M (n, K) definita da
[mB (φ)]ij = φ(vi , vj )
Proposizione 10.0.7. Se mB (φ) = A allora ∀v, w ∈ V
φ(v, w) = t [v]B A[w]B
(10.3)
Dimostrazione. Calcoliamo direttamente


n
n
n X
n
X
X
X
φ(v, w) = φ 
xi vi ,
yj v j  =
xi yj φ(vi , vj )
i=1
=
n X
n
X
i=1 j=1
j=1
i=1 j=1
xi yj [A]ij =
n X
n
X
(10.4)
[ t x]i [y]j [A]ij =t xAy = t [v]B A[w]B
i=1 j=1
Proposizione 10.0.8. B base di V . L’applicazione
mB : Bil(V ) → M (n, K)
φ → mB (φ)
(10.5)
é un isomorfismo di spazi vettoriali. In particolare dim(Bil(V )) = n2 .
10.1
Cambiamenti di base
Sia φ ∈ Bil(V ) , B, B 0 due basi di V . Poniamo A = mB (φ), A0 = mB0 (φ). Vogliamo determinare
la relazione tra A ed A0 . Sia M la matrice del cambiamento di base da B 0 a B , per cui
[v]B = M [v]B0 , ∀v ∈ V
Allora
φ(u, v) = t [u]B A[v]B = t (M [u]B0 )A(M [v]B0 )
= t [u]Bt0 M AM [v]B0
(10.6)
Ma vale anche
φ(u, v) = t [u]B0 A0 [v]B0
(10.7)
10.2. PRODOTTI SCALARI
73
Dunque per ogni scelta di vettori u, v ∈ V si ottiene
t
[u]B0 A0 [v]B0 = t [u]Bt0 M AM [v]B0 ⇒ t M AM = A0
(10.8)
Questo non segue semplificando i fattori comuni perché nell’anello delle matrici un prodotto
puó essere nullo anche se tutti i fattori sono non nulli. Piuttosto questo segue dal fatto che la
relazione deve valere per ogni u, v ∈ V , quindi posso scegliere, in particolare, u = e1 , v = e1 .
In questo caso applicando la formula (10.8) si ottiene [A0 ]11 = [ t M AM ]11 . Prendendo quindi
u = ei , v = ej allora si ottiene che [A0 ]ij = [ t M AM ]ij ⇒ t M AM = A0 .
Definizione 10.3 (Congruenza). A, B ∈ M (n, K) si dicono congruenti se esiste M ∈ GL(n, K)
tali che B = t M AM .
Osservazione 113.
La congruenza é una relazione di equivalenza. Il rango é quindi un invariante di congruenza.
Definizione 10.4 (rango di un prodotto scalare). rk(φ) = rkmB (φ) e questa definizione non
dipende dalla scelta della base visto che le matrici associate a φ sono congruenti, dunque
questa definizione é ben posta.
10.2
Prodotti scalari
Definizione 10.5 (Prodotto scalare). Sia φ : V × V → K bilineare. φ si dice applicazione
bilineare simmetrica ( o prodotto scalare ) se
φ(v, w) = φ(w, v),
∀v, w ∈ V
Osservazione 114.
Sia B base di V , φ ∈ Bil(V ). Allora φ é prodotto scalare ⇔ mB (φ) é simmetrica.
Dimostrazione. (⇒) : Se φ é un prodotto scalare [mB (φ)]ij = φ(vi , vj ) , ma [mB (φ)]ji =
φ(vj , vi ). Ma per l’ipotesi di prodotto scalare φ(vi , vj ) = φ(vj , vi ) quindi la matrice é simmetrica.
(⇐) : Se mB (φ) é simmetrica allora [mB (φ)]ij = [mB (φ)]ji ⇒ φ(vi , vj ) = φ(vj , vi ) che é la
proprietá caratteristica di un prodotto scalare.
Osservazione 115.
Se B = t M AM allora A simmetrica ⇒ B simmetrica. Infatti
M AM = B = t B
t ( t M AM )
=
t
M t AM =
t
Definizione 10.6 (forma quadratica). Se φ : V ×V → K é bilineare , l’applicazione q : V → K
definita da q(v) = φ(v, v), ∀v ∈ V si dice forma quadratica indotta da φ.
Definizione 10.7 (Caratteristica). Un campo K ha caratteristica 0 se ∀n ∈ N, n ≥ 1.
n · 1 = |1 + 1 +
{z. . . + 1} 6= 0
n volte
Altrimenti char(K) é il minimo intero positivo n tale che n · 1 = 0.
Osservazione 116.
R, C, Q hanno caratteristica 0. charZ2 = 2.
Da ora in poi supporremo char(K) 6= 2.
74
CAPITOLO 10. FORME BILINEARI
Proposizione 10.2.1. q forma quadatica su V . Allora esiste uno ed un solo prodotto scalare
che induce q.
Dimostrazione. Per definizione ∃φ ∈ Bil(V ) tale che q(v) = φ(v, v), ∀v. Definisco
φ0 (u, v) =
φ(u, v) + φ(v, u)
2
Questa forma bilineare é simmetrica e induce q , infatti φ0 (v, v) = φ(v,v)+φ(v,v)
= φ(v, v).
2
Dobbiamo provare l’unicitá. Se trovo un prodotto scalare che induce q e riesco a scriverlo
in termini della stessa q allora questo sará unico. Supponiamo quindi che φ sia un prodotto
scalare che induce q. Calcoliamo
q(u + v) − q(u) − q(v) = φ(u + v, u + v) − φ(u, u) − φ(v, v) =
= φ(u, u) + φ(v, v) + φ(u, v) + φ(v, u) − φ(u, u) − φ(v, v) = 2φ(u, v)
q(u + v) − q(u) − q(v)
⇒ φ(u, v) =
2
(10.9)
L’ultima relazione della (10.9) é detta formula di polarizzazione. Ho scritto quindi φ , che
definisce il prodotto scalare, in funzione di q , quindi segue l’unicitá di φ.
Definizione 10.8 (prodotto scalare non degenere). Sia φ prodotto scalare. φ si dice non
degenere se
φ(v, w) = 0, ∀w ∈ V ⇒ v = 0
Teorema 10.2.2. φ prodotto scalare. Sono fatti equivalenti
1. rk(φ) = n con n = dim(V ).
2. φ é non degenere
Dimostrazione. Sia B una base di V . A = mB (φ).
(1 ⇒ 2) : Per ipotesi det A 6= 0. Sia v ∈ V tale che φ(v, w) = 0, ∀w. Se denoto x = [v]B e
y = [w]B allora φ(v, w) = t xAy = 0, ∀y. Dunque t xA é una riga che moltiplicata per una
colonna fa 0 , ovvero puó essere solo la riga nulla : t xA = 0 ⇒ t ( t xA) = t Ax = Ax = 0.
Poiché A é invertibile deduco che x = 0 , ovvero v = 0 e φ é non degenere.
(2 ⇒ 1) : Supponiamo per assurdo che det A = 0. Allora ∃x 6= 0 tale che Ax = 0 , ossia
t xA = 0. Ma allora t xAy = 0, ∀y che é assurdo perché troverei un vettore diverso da 0 che
rende nullo questo prodotto.
Definizione 10.9 (vettori ortogonali). φ prodotto scalare. I vettori u, v ∈ V si dicono
ortogonali rispetto a φ se φ(u, v) = 0.
Definizione 10.10 (sottoinsieme ortogonale). S sottoinsieme di V . Denotiamo con
S ⊥ = {v ∈ V : φ(v, s) = 0, ∀s ∈ S}
il sottoinsieme ortogonale di V .
Proposizione 10.2.3. Presentiamo alcune proprietá del sottoinsieme ortogonale.
1. S ⊥ é un ssv. di V , detto ortogonale di S.
10.2. PRODOTTI SCALARI
75
2. S ⊂ T ⇒ T ⊥ ⊂ S ⊥ . Infatti se prendo t ∈ T ⊥ allora t é ortogonale a tutti i vettori di T .
Ma dato che S ⊂ T sará ortogonale anche a tutti i vettori di S, dunque T ⊥ ⊂ S ⊥ .
3. S ⊥ = (SpanS)⊥
4. S ⊂ S ⊥
⊥
Definizione 10.11 (radicale). In particolare V ⊥ = {v ∈ V : φ(v, w) = 0, ∀w ∈ V }. V ⊥ é
detto il radicale di V rispetto a φ. Abbiamo provato che φ é non degenere ⇔ V ⊥ = {0}.
Proposizione 10.2.4.
dim V ⊥ = n − rk(φ)
Dimostrazione. v ∈ V ⊥ ⇔ φ(v, w) = 0, ∀w ∈ V . Se B é una base di V , A = mB (φ) , x =
[v]B , y = [w]B allora v ∈ V ⊥ ⇔ φ(v, w) = 0 ⇔ t xAy = 0, ∀y ∈ Kn ⇔ t xA = 0 ⇒ Ax = 0.
Quindi le coordinate dei vettori che stanno nel radicale soddisfano il sistema lineare Ax = 0.
Dunque
v ∈ V ⊥ ⇔ x = [v]B ∈ { Soluzioni Ax = 0} = S0
. Poiché il passaggio in coordinate é un isomorfismo si ha
dim V ⊥ = dim S0 = n − rk(A) = n − rk(φ)
Osservazione 117. Osserviamo che le le proposizioni φ non degenere e
0 1
non sono collegate tra di loro. Infatti prendiamo ad esempio
é
1 0
1
φSpan(e1 ) = 0 che é degenere. Per l’implicazione inversa basta prendere
0
é non degenere mentre φ é degenere perché det mB (φ) = 0
φW non degenere
non degenere. Ma
0
. Ma φSpan(e1 )
0
Proposizione 10.2.5. φ prodotto scalare su V , dim V = n. W sottospazio vettoriale di V .
Allora
1. dim W ⊥ ≥ n − dim W
2. Se φ é non degenere, allora dim W ⊥ = n − dim W ma in generale V 6= W ⊕ W ⊥ .
3. Se φW é non degenere , allora V = W ⊕ W ⊥ e quindi in particolare dim W ⊥ = n −
dim W .
Dimostrazione. .
1. Sia {w1 , . . . , wp } una base di W , cioé dim W = p. Completiamo a base B = {w1 , . . . , wp , vp+1 , . . . , vn }
di V . Sia ora mB (φ) = A. Si ha che
W ⊥ = {v ∈ V : φ(w, v) = 0, ∀w ∈ W } = {v ∈ V : φ(w1 , v) = φ(w2 , v) = . . . = φ(wp , v) = 0}
76
CAPITOLO 10. FORME BILINEARI
per la bilinearitá. Quindi


φ(w1 , v) = (1, 0, . . . , 0) Ax


{z
}
|



t [w ]

1 B



...
..


.





φ(wp , v) = (0, . . . , 0, 1, 0, . . . , 0) Ax


{z
}
|


(10.10)
t [w ]
p B
come giá fatto nella dimostrazione del teorema (10.2.2) e della proposizione (10.2.4).
Quindi gli elementi di W ⊥ sono dati dalle soluzioni del sistema lineare
Ip 0 A x = 0 ⇒ Bx = 0
(10.11)
| {z }
B
Devo dimostrare quindi che dim(spazio soluzioni Bx = 0) = dim W ⊥ = n − rk(B). Ma
rk(B) ≤ min{rk(Ip ), rk(A)} ⇒ rk(B) ≤ p , allora dim W ⊥ ≥ n − p.
2. Se φ é non degenere allora A ha rango massimo, det(A) 6= 0 , quindi rk(B) = rk(Ip ) = p
dato che A ha rango massimo , quindi dim W ⊥ = n − p.


F G
 con F = mB (φ ) ; infatti i primi p vettori di
3. Se φW é non degenere A = 
W
H L
B sono base di W . Dunque det F 6= 0 , quindi


F
G
 = F G
B = Ip 0 
H L
Ma dato che F ha rango p allora rk(B) = p e dunque dim W ⊥ = n−p.
In piú W ∩W ⊥ =
⊥
{0} perché se v ∈ W ∩ W allora v sta nello spazio nullo di φ W che é {0}. Infatti v
dovrebbe appartenere sia a W che a W ⊥ quindi, in particolare, φ(v, v) = 0 , ma questo
assurdo visto che la restrizione del prodotto scalare non degenere quindi deve essere
necessariamente v = 0.
Osservazione 118.
⊥
1. Se φ é non degenere , allora W = W ⊥ .
2. W ⊥ ∩ U ⊥ = (W + U )⊥
3. (W ∩ U )⊥ ⊃ W ⊥ + U ⊥
4. Se φ é non degenere allora (W ∩ U )⊥ = W ⊥ + U ⊥ .
Definizione 10.12. Se V = W1 ⊕ W2 e ∀x ∈ W1 , ∀y ∈ W2 : φ(x, y) = 0 si scrive anche
⊥
V = W1 ⊥ W2 , oppure V = W1 ⊕ W2
10.2. PRODOTTI SCALARI
77
Definizione 10.13 (proiezione ortogonale). Se V = W ⊕ W ⊥ , la proiezione prW : V → W
é detta proiezione ortogonale : ∀v ∈ V , v − prW (v) ∈ W ⊥ . Quindi
v = prW (v) + prW ⊥ (v)
Definizione 10.14 (vettori isotropi). v ∈ V si dice isotropo se φ(v, v) = 0.
Osservazione 119.
Prendiamo la matrice
1 0
0 −1
φ(x, y) = t xAy
;
Quindi
x
2
2
vettori isotropi =
: x − y = 0 = bisettrici dei quadranti
y
In generale l’insieme dei vettori isotropi non é un sottospazio di V , come si vede da questo
esempio.
Osservazione 120.
Se ogni v ∈ V é isotropo allora φ = 0. Infatti
φ(u, v) =
−φ(u, u) − φ(v, v) + φ(u + v, u + v)
=0
2
per la formula di polarizzazione
Osservazione 121.
Se v non é isotropo φSpan(v) é non degenere , dunque V = Span(v) ⊕ (Span(v))⊥ . Infatti la
matrice associata al prodotto scalare nella base B = {v, . . .} ha un elemento non nullo nel
6= 0 ovvero é non degenere. In questo caso é quindi definita la sua
posto 11 , quindi φ
Span(v)
proiezione ortogonale su Span(v).
Proposizione 10.2.6. Sia v ∈ V non isotropo. ∀w ∈ V . Sia
c=
φ(v, w)
φ(v, v)
detto coefficiente di Fourier di w rispetto a v. Allora w − cv ∈ (Span(v))⊥ , quindi é la
proiezione ortogonale.
Dimostrazione. Basta osservare che
φ(v, w − cv) = φ(v, w) − cφ(v, v) = φ(v, w) − φ(v, w) = 0
Quindi w − cv é ortogonale a v.
Dunque ∀w ∈ V, w = cv + (w − cv) , cv ∈ Span(v), (w − cv) ∈ (Span(v))⊥ e quindi
prSpan(v) (w) =
φ(v, w)
v
φ(v, v)
78
CAPITOLO 10. FORME BILINEARI
10.3
Diagonalizzazione di prodotti scalari
Definizione 10.15 (base ortogonale). Sia φ un prodotto scalare su V , dim V = n. Una base
B = {v1 , . . . , vn } di V si dice ortogonale se φ(vi , vj ) = 0, ∀i 6= j.
Osservazione 122.
B ortogonale ⇔ mB (φ) é diagonale.
Teorema 10.3.1. Per ogni prodotto scalare φ , esiste una base di V , ortogonale rispetto a
φ.
Dimostrazione. Presentiamo due dimostrazioni alternative.
Dimostrazione 1 Proviamo il teorema per induzione su n = dim V . Per n = 1 é sicuramente
vero perché una matrice 1 × 1 é sempre diagonale. Supponiamola vera quindi per n − 1
e proviamo la tesi per n. Sia dim V = n > 1. Distinguiamo due casi
ˆ ∀v ∈ V, φ(v, v) = 0. Dunque il prodotto scalare é quello nullo. Quindi ogni base é
ortogonale.
ˆ ∃v1 6= 0 tale che φ(v1 , v1 ) 6= 0. In questo caso abbiamo provato che
V = Span(v1 ) ⊕ (Span(v1 ))⊥ ⇒ dim(Span(v1 ))⊥ = n − 1
Per ipotesi induttiva dunque φSpan(v1 )⊥ ammette come base ortogonale {v2 , . . . , vn } ⊂
(Span(v1 ))⊥ . Si puó quindi completare a base di V aggiungendo v1 : {v1 , . . . , vn }.
Questi vettori sono indipendenti e sono anche ortogonali : infatti v1 ∈ Span(v1 ) e
v2 , . . . , vn ∈ (Span(v1 ))⊥ dunque sono sicuramente ortogonali.
Dimostrazione 2 Sia {v1 , . . . , vn } una base qualsiasi di V . Sia A = (aij ) la matrice associata al prodotto scalare in tale base. Si procede secondo il seguente algoritmo per
ortogonalizzare la base : si presentano due scelte
Trasformazioni di base Si applica se φ(v1 , v1 ) = a11 6= 0 , ovvero se v1 é non isotropo.
In questo caso consideriamo i vettori
v10 = v1
v20 = v2 −
φ(v2 , v1 )
v1
φ(v1 , v1 )
..
.
vn0 = vn −
(10.12)
φ(vn , v1 )
v1
φ(v1 , v1 )
Questa é sicuramente una base di V . Si noti infatti che si tratta di una lista
composta da n vettori in uno spazio dove si conosce giá la base {v1 , . . . , vn }. Dunque
la nuova lista di vettori é composta da vettori indipendenti solo se i vettori delle
coordinate rispetto ai vettori di B sono indipendenti. La matrice costruita con
10.3. DIAGONALIZZAZIONE DI PRODOTTI SCALARI
queste coordinate é del tipo

1

0

0

 ..
.
0
φ(v2 ,v1 )
φ(v1 ,v1 )
1
...
..
.
...
... ...
∗
∗
1
∗
.. . .
.
.
... ...
79

φ(vn ,v1 )
φ(v1 ,v1 ) 
∗
...
..
.






(10.13)
1
quindi il rango é massimo ed i vettori sono linearmente indipendenti. Questa base
é anche ortogonale , infatti ha la proprietá che
φ(v10 , vj0 ) = 0 , ∀j = 2, . . . , n
Quindi la matrice associata a φ diventa


a11 0


0 B
(10.14)
e posso iterare il procedimento sulla matrice B.
Trasformazioni ausiliarie Si applicano nel caso che a11 = 0. Ci sono due casi
Prime trasformazioni ausiliarie : Se aii = 0 ed ∃i tale che aii 6= 0 si permutano
i vettori della base {v1 , . . . , vn } per portare vi al primo posto e poi si usa la
trasformazione di base.
Seconde trasformazioni ausialiarie : Si applica quando aii = 0, ∀i ma A 6= 0.
Allora ∃i, ∃j tali che aij 6= 0 ( e quindi aji 6= 0) . Si puó prendere quindi la
combinazione
φ(vi +vj , vi +vj ) = φ(vi , vi )+φ(vj , vj )+φ(vi , vj )+φ(vj , vi ) = 0+2aij +0 = 2aij 6= 0
Basta allora prendere una base di cui vi + vj é il primo vettore.
Corollario 10.3.2. Ogni matrice simmetrica é congruente ad una matrice diagonale.
Osservazione 123.
Sia B = {v1 , . . . , vn } una base ortogonale di V . Quindi v = α1 v1 + . . . + αn vn . Se v1 non é
isotropo allora φ(v, v1 ) = α1 φ(v1 , v1 ) per l’ipotesi di ortogonalitá della base B. Quindi
α1 =
φ(v, v1 )
= coeff. di Fourier di v rispetto a v1
φ(v1 , v1 )
Teorema 10.3.3 (di Sylvester complesso). Sia K = C. Sia inoltre V un C-spazio vettoriale
e h, i un prodotto scalare. Allora esiste una base di V in cui la matrice associata a h, i é


Ir 0

D=
(10.15)
0 0
dove r é il rango di h, i.
80
CAPITOLO 10. FORME BILINEARI
Dimostrazione. Sappiamo che ∃ una base {v1 , . . . , vn }
associata é del tipo

a11 0 . . . . . . . . .
..

. 0
 0
 .
..
 .
.
 .
 .
 .
arr
 .
 .
 .
0
 .
 .
 ..

..
. ... ... ... ...
ortogonale per hi. Quindi la matrice

... 0
.. 
.
.. 

.
.. 

.
.. 

.
. . .. 
. .

(10.16)
0
Per far comparire degli 1 sulla diagonale basta normalizzare i vettori di base , ovvero prendere
la base
vr
v1
√ , . . . , √ , vr+1 , . . . , vn
a11
arr
che ha le proprietá richieste.
Corollario 10.3.4. Due matrici simmetriche complesse sono congruenti ⇔ hanno lo stesso
rango.
10.4
Forme quadratiche reali
Teorema 10.4.1 (di Sylvester reale). Sia V , R-spazio vettoriale , hi prodotto scalare su V .
Sia r il rango di hi. Allora esiste un numero intero non negativo p ≤ r , dipendente solo da
hi, e una base di V in cui la matrice associata a hi é


Ip
0
0
 0 −Ir−p 0
(10.17)
0
0
0
Dimostrazione. In una base ortogonale a {v1 , . . . , vn } la matrice é uguale alla (10.16). Riordinando la base si puó supporre che
ˆ aii > 0 , 1 ≤ i ≤ p.
ˆ aii < 0 , p + 1 ≤ i ≤ r.
Allora , rispetto alla base
vp
vp+1
v1
vr
√
,
v
,
.
.
.
,
v
,
.
.
.
,
,
,
.
.
.
,
√
√
√
r+1
n = {z1 , . . . , zp , zp+1 , . . . , zr , . . . , zn }
a11
app
−ap+1,p+1
−arr
la matrice é del tipo voluto. Resta da dimostrare che p non dipende dalla base scelta ma solo
dal prodotto scalare. Per fare ció esprimo p in modo indipendente dalla base, come quantitá
intrinseca. Sia pφ = { massima dimensione di un sottospazio vettoriale W di V su cui φW é
definito positivo, ossia2 ∀w ∈ W, w 6= 0, φ(w, w) > 0}. Basta allora provare che p = pφ .
v
1. poiché su Span √va111 , . . . , √appp , φ é definito positivo allora pφ ≥ p.
2
Conviene considerare questa proprietá solo nei prodotti scalari definiti su campi con ordinamento.
10.4. FORME QUADRATICHE REALI
81
2. Sia W un sottospazio vettoriale di V tale che φW é definito positivo e dim W = pφ . Sia
ora
Z = Span(zp+1 , . . . , zr , . . . zn )
Dico che W ∩ Z = {0} , infatti se per assurdo esistesse v 6= 0, v ∈ W ∩ Z allora
v ∈ W ⇒ φ(v, v) > 0 visto che il prodotto scalare é definito positivo. Ma se v ∈ Z
allora v = cp+1 zp+1 + . . . + cn zn ⇒ φ(v, v) = c2p+1 φ(zp+1 , zp+1 ) + . . . + c2n φ(zn , zn ) ≤ 0
visto che φ(zi , zj ) ≤ 0, ∀i, j. Ma questo é assurdo , quindi deve valere necessariamente
W ∩ Z = {0} dunque W ⊕ Z ⊂ V e quindi n ≥ pφ + n − p da cui p ≥ pφ .
Facciamo un riassunto delle nozioni scoperte fino ad ora.
Riassunto
Sia V, K-spazio vettoriale ; φ prodotto scalare su V .
1. ∃B base di V tale che mB (φ) é diagonale , infatti basta prendere vettori ortogonali in φ.
2. Se K = C , rk(φ) = r , ∃
Ir 0
B tale che mB (φ) =
0 0


Ip
0
0
3. Se K = R , ∃p ∈ N , dipendente solo da φ , ∃B base tale che mB (φ) =  0 Ir−p 0
0
0
0
Versione matriciale
A ∈ M (n, K) simmetrica associata al prodotto scalare (x, y) → t xAy
1. A é congruente ad una matrice diagonale visto che si puó prendere una base ortogonale
e diagonalizzare il prodotto scalare.
Ir 0
2. Se K = C, A é congruente alla matrice
. Quindi nella classe di congruenza di
0 0
A c’é sempre questo rappresentante. Dunque A e B sono congruenti
⇔ rk(A) = rk(B)
Ir 0
visto che devono essere entrambe congruenti alla matrice
.
0 0
3. Se K = R , A é congruente ad una matrice del tipo


Ip
0
0
 0 Ir−p 0
0
0
0
Questo rappresentante della classe di congruenza é unico perché p dipende solo dal
prodotto scalare
82
CAPITOLO 10. FORME BILINEARI
10.5
Calcolo della segnatura
Definizione 10.16 (Segnatura). Denoteremo con
ˆ i+ (φ) = p = massima dimensione dei sottospazi W di V sui quali φW é definita
positiva=indice di positivitá di φ.
ˆ i− (φ) = r − p =indice di negativitá
ˆ i0 (φ) = n − r = dim V ⊥ =indice di nullitá
La terna σ(φ) = (i+ , i− , i0 ) é detta segnatura di φ.
Osservazione 124.
ˆ i+ + i− + i0 = n = dim V
ˆ i+ + i− = rk(φ) = r
Osservazione 125.
A e B sono congruenti ⇔ A e B hanno la stessa segnatura con A e B matrici simmetriche
reali. Dunque la segnatura é un invariante completa per congruenza se K = R.
Osservazione 126.
Se K = R c’é un altro invariante. Supponiamo che B = t M AM
, M ∈ GL(n). Dunque
det(B) = det(A) · det(M )2
per Binet. Quindi sgn(det B) = sgn(det A) , ovvero il segno del determinante é un invariante
di congruenza per K = R.
Osservazione 127.
φ definito positivo ⇒ φ non degenere. Infatti se v ∈ V ⊥ ⇒ φ(v, w) = 0, ∀w ∈ V, v 6= 0. Quindi
in particolare φ(v, v) = 0 che contrasta con l’ipotesi di prodotto scalare definito positivo.
Osservazione 128.
Se φ é definito positivo allora ∀W sottospazio vettoriale di V φW é definito positivo. Infatti
dovrei mostrare che ∀w ∈ W, w 6= 0 ⇒ φ(w, w) > 0. Ma w ∈ V per la definizione
di inclusione
tra insiemi e quindi se φ é definito positivo su V allora φ(w, w) > 0 ⇒ φW é definito positivo.
Osservazione 129.
Vediamo un esercizio per illustrare la procedura
per
calcolare la segnatura di un prodotto
a b
scalare. Prendiamo la matrice A = mB (φ) =
: questa rappresenta un prodotto scalare
b c
su R2 . Dato che a = φ(e1 , e1 ) allora per avere un prodotto scalare definito positivo deve essere
φ(e1 , e1 ) > 0 . Analogamente quindi c = φ(e2 , e2 ) > 0. Questa é una condizione necessaria
ma non sufficiente , quindi vediamo se esistono altre proprietá interessanti. Si osservi che se
il prodotto
scalare
fosse definito positivo allora la matrice mB (φ) sarebbe congruente ad una
1 0
del tipo
dato che la segnatura é (2,0,0). Dato che si deve conservare il segno del
0 1
determinante deve essere necessariamente ac − b2 > 0 ⇒ b2 < ac. Abbiamo quindi trovato le
condizioni


φ(e1 , e1 ) > 0
⇐ φ definito positivo
(10.18)
b2 < ac


φ(e2 , e2 ) > 0
10.6. SPAZI EUCLIDEI
83
Vediamo se vale anche il viceversa, ovvero se queste condizioni
si possono considerare suf 2
ficienti. Poiché ac − b 6= 0 ⇒ i0 = 0. Inoltre a = m φ Span(e1 ) ⇒ φSpan(e1 ) é definito
positivo⇒ i+ (φ) ≥ 1. Le possibilitá per scegliere i+ (dopo questa scelta i− é univocamente
determinato ) sono
quindi i+ (φ) = 1, 2. Se fosse i+ (φ) = 1 , A sarebbe congruente ad una
1 0
matrice del tipo
che ha determinante negativo. Se invece i+ (φ) = 2, A sarebbe
0 −1
1 0
congruente ad una matrice
che ha determinante positivo. Ma dato che det(A) > 0
0 1
deve valere necessariamente i+ (φ) = 2 e quindi σ(φ) = (2, 0, 0).
Definizione 10.17. A ∈ M (n, R) si dice definita positiva se il prodotto scalare su Rn ,
(x, y) → t xAy é definito positivo.
Proposizione 10.5.1. Sono fatti equivalenti
1. A é definita positiva
2. ∃N ∈ GL(n, R) tale che A = t N N
3. ∀i = 1, . . . , n, Di > 0 dove Di é il determinante di Mi ed Mi sono i minori principali di
A costruiti scegliendo le prime i righe e i colonne.
Dimostrazione. .
(1) ⇒ (2) infatti se A é definita positiva allora i+ (φ) = n, i− (φ) = i0 (φ) = 0. Dunque A é
congruente all’identitá che é la tesi contenuta nella (2).
(1) ⇒ (3) : devo dimostrare che det(Mi ) > 0 ∀i. Si ha det(M1 ) = φSpan(e1 ) > 0 . Inoltre
det(Mn ) = det(A) > 0 visto che A é definita positiva. Ma allora anche det(Mi ) > 0 , infatti le
matrici Mi rappresentano le restrizioni a qualsiasi sottospazio del prodotto scalare φ e queste
continuano ad essere non degeneri (vedi osservazione 127 ) , quindi Di > 0, ∀i.
10.6
Spazi euclidei
Definizione 10.18. Si chiama spazio euclideo ogni sottospazio vettoriale reale dotato di un
prodotto scalare definito positivo.
Definizione 10.19 (norma). Sia (V, φ) euclideo. La funzione
||.|| : V → R
v → ||v|| =
p
φ(v, v)
é detta norma.
Proposizione 10.6.1. Valgono le proprietá
1. ||v|| ≥ 0, ∀v ∈ V e ||v|| = 0 ⇔ v = 0
2. λ ∈ R, ∀v ∈ V, ||λv|| = |λ| · ||v||
3. ∀v, w ∈ V
|φ(v, w) ≤ ||v|| · ||w|| : diseguaglianza di Schwarz
4. ∀v, w ∈ V
||v + w|| ≤ ||v|| + ||w|| : diseguaglianza triangolare
(10.19)
84
CAPITOLO 10. FORME BILINEARI
Dimostrazione. La prima e la seconda sono ovvie
(3) : Se v = 0 o w = 0 vale. Se invece v 6= 0 o w 6= 0 allora
φ(tv + w, tv + w) ≥ 0 ⇒ t2 φ(v, v) + 2tφ(v, w) + φ(w, w) ≥ 0∀t
Quindi il discriminante di questa equazione deve essere non positivo
∆
= φ(v, w)2 − φ(v, v)φ(w, w) ≤ 0 ⇒ φ(v, w)2 ≤ ||v||2 · ||w||2
4
che é la tesi al quadrato.
(4) : segue dalla (3)
Definizione 10.20 (distanza). Sia
d:V ×V →R
(x, y) → ||x − y||
(10.20)
La funzione d é detta distanza ed ha le proprietá
1. d(x, y) ≥ 0, ∀x, y e d(x, y) = 0 ⇔ x = y
2. d(x, y) = d(y, x)
3. d(x, z) ≤ d(x, y) + d(y, z), ∀x, y, z ∈ V
Osservazione 130.
1. In uno spazio euclideo non esistono vettori isotropi e non nulli.
2. prodotto scalare definito positivo implica prodotto scalare non degenere
3. Se φ é definito positivo , ∀ sottospazio W , φW é definito positivo. Ma allora W ⊕ W ⊥
ed esistono le proiezioni ortogonali
prW : V → W
prW ⊥ : V → W ⊥
Se {w1 , . . . , wk } é base ortogonale di W ,{wk+1 , . . . , wn } é base ortogonale di W ⊥ , allora
{w1 , . . . , wk , . . . , wn }
é base ortogonale di V . Dunque ∀v ∈ V si ha
v=
φ(v, w1 )
φ(v, wn )
w1 + . . . +
wn
φ(w1 , w1 )
φ(wn , wn )
e dunque
prW (v) =
φ(v, w1 )
φ(v, wk )
w1 + . . . +
wk
φ(w1 , w1 )
φ(wk , wk )
Definizione 10.21 (ortonormale). Una base {v1 , . . . , vn } si dice ortonormale ( rispetto a φ )
se é ortogonale e φ(vi , vi ) = 1, ∀i = 1, . . . , n.
Osservazione 131.
Ogni spazio euclideo ammette almeno una base ortonormale (basta normalizzare i vettori di
una base ortogonale, che esiste sempre per le proprietá degli spazi euclidei).
Osservazione 132.
Se B é ortonormale , allora mB (φ) = I , dunque ∀v, w ∈ V si ha
φ(v, w) = t [v]B I[w]B = xy
10.6. SPAZI EUCLIDEI
10.6.1
85
Ricerca di basi ortonormali
Sia {v1 , . . . , vn } una base di V . Presentiamo un algoritmo per trovare una base {v10 , . . . , vn0 }
ortonormale.
ˆ Poniamo v10 = v1
ˆ Prendiamo
v20 = v2 −
φ(v2 , v10 ) 0
v
φ(v10 , v10 ) 1
Questo vettore é ortogonale a v10 e inoltre Span(v1 , v2 ) = Span(v10 , v20 ) quindi sono vettori
linearmente indipendenti : infatti v10 , v20 ∈ Span(v1 , v2 ).
ˆ Cerco ora un v3 tale che
– Span(v10 , v20 , v30 ) = Span(v1 , v2 , v3 )
– {v10 , v20 , v30 } é base ortogonale di Span(v1 , v2 , v3 )
Basta sottrarre a v3 la sua proiezione ortogonale su Span(v10 , v20 ) = V20 . Poiché v10 , v20 sono
ortogonali conosciamo l’espressione analitica della proiezione ortogonale su V20 . Infatti
prV20 : V → V20
x→
φ(x, v10 ) 0
φ(x, v20 ) 0
v
+
v
1
φ(v10 , v10 )
φ(v20 , v20 ) 2
(10.21)
Dunque basta porre
v30 = v3 −
φ(v3 , v20 ) 0
φ(v3 , v10 ) 0
v
−
v
φ(v10 , v10 ) 1 φ(v20 , v20 ) 2
Si osserva che v30 ∈ Span(v10 , v20 , v30 ) = Span(v1 , v2 , v3 ). Inoltre la matrice che contiene le
coordinate di {v10 , v20 , v30 } rispetto alla base {v1 , v2 , v3 } é triangolare superiore dunque i
vettori sono indipendenti , ovvero {v10 , v20 , v30 } é una base ortogonale di Span(v1 , v2 , v3 ).
ˆ Itero il procedimento ponendo , ∀j
vj0
= vj −
j−1
X
φ(vj , v 0 )
i
i=1
φ(vi0 , vi0 )
vi0
(10.22)
ˆ Alla fine ottengo una base ortogonale {v10 , . . . , vn0 }
ˆ Basta normalizzare ponendo wi =
vi0
||vi0 ||
Il risultato é quindi il seguente
Teorema 10.6.2 (di ortonormalizzazione di Gram-Schmidt). Sia (V, φ) spazio euclideo. {v1 , . . . , vn }
base di V . Allora ∃ una base ortonormale {w1 , . . . , wn } di V tale che Span(w1 , . . . , wj ) =
Span(v1 , . . . , vj ), ∀j = 1, . . . , n.
86
CAPITOLO 10. FORME BILINEARI
10.7
Matrici ortogonali
tM M
Definizione 10.22. M ∈ M (n, R) si dice ortogonale se
= M t M = I. Denotiamo con
O(n) = {M ∈ M (n, R) : M é ortogonale}
Osservazione 133.
1. M ∈ O(n) ⇒ M ∈ GL(n) e M −1 =
det2 M 6= 0
t
M , infatti det(I) = 1 = det( t M ) det(M ) =
2. M ∈ O(n) ⇒ le righe e le colonne di M formano una base ortonormale su Rn .
3. O(n) dotato del prodotto é un gruppo , detto gruppo ortogonale.
4. Se A ∈ O(n) , det(A) = ±1.
SO(n) = {A ∈ O(n) : det A = 1}
é un gruppo , detto gruppo ortogonale speciale.
Osservazione 134.
[ cos α sin α
cos α − sin α
:α∈R
:α∈R
O(2) =
sin α − cos α
sin α cos α
(10.23)
Proposizione 10.7.1. (V, φ) spazio euclideo. Siano B = {v1 , . . . , vn } base ortonormale e
B 0 = {w1 , . . . , wn } base di V . Se M é la matrice del cambiamento di base da B 0 a B allora B 0
é ortonormale ⇔ M é ortogonale.
id
Dimostrazione. M é la matrice associata a VB0 −
→ VB per la quale [wi ]B = M i . Allora , dato
che I é la matrice associata nella base B si ha
φ(wi , wj ) = t [wi ]B I[wj ]B = t (M i )M j = ( t M )i M j = [ t M M ]ij
Quindi se B 0 é ortonormale
(
1
φ(wi , wj ) =
0
che é la definizione della matrice identitá quindi
ortogonalitá.
,i = j
, i 6= j
tM M
= I che coincide con la definizione di
Definizione 10.23 (endormorfismi simmetrici). (V, φ) spazio euclideo. f ∈ End(V ) si dice
simmetrico ( o autoaggiunto) se φ(f (x), y) = φ(x, f (y))∀x, y ∈ V .
Proposizione 10.7.2. Sia B base ortonormale di V e sia A = mB (f ). Allora f é simmetrica
⇔ A é simmetrica.
Dimostrazione. Si ha
φ(f (x), y) = t [f (x)]B I[y]B = t (A[x]B )[y]B = t [x]Bt A[y]B
D’altra parte
φ(x, f (y)) = t [x]B I[f (y)]B = t [x]B A[y]B
Bisogna verificare quindi che t [x]B A[y]B = t [x]Bt A[y]B , ∀x, y. Dato che l’uguaglianza deve
valere ∀x, y si puó concludere che deve valere t A = A , che conclude la dimostrazione.
10.7. MATRICI ORTOGONALI
10.7.1
87
Teorema spettrale
Risulta quindi naturale chiedersi quando esiste una base di V ortonormale per φ e di autovettori di f (base spettrale). Infatti in questo caso la matrice associata sarebbe diagonale e l’endomorfismo f sarebbe simmetrico.Presentiamo prima un lemma che ci permetterá di capire
l’appartenenza degli autovalori al campo reale o complesso , oltre a dimostrare il teorema
spettrale.
Lemma 10.7.3. A ∈ M (n, R) simmetrica. Allora tutti gli autovalori di A sono reali.
A
Dimostrazione. Sia A : Cn → Cn con x −
→ Ax. Sia λ ∈ C autovalore di A : allora esiste
x ∈ Cn , x 6= 0 tale che Ax = λx ⇒ Ax = λx ⇒ Ax = λx Calcoliamo
(
t x̄Ax = t x̄(Ax) = t x̄λx
⇒ (λ − λ̄) t x̄x = 0
(10.24)
( t x̄A)x = t (Ax̄)x = λ̄ t x̄x
Ma t x̄x = x̄1 x1 +. . .+ x̄n xn = |x1 |2 +. . .+|xn |2 ∈ R Dunque |x1 |2 +. . .+|xn |2 = 0 ⇔ x = 0 che
no é possibile per l’ipotesi. Quindi l’unica possibilitá é che sia λ− λ̄ = 0 ⇒ λ = λ̄ ⇒ λ ∈ R.
Teorema 10.7.4 (spettrale). Sia (V, φ) spazio euclideo di dimensione finita , dim V = n. Sia
f ∈ End(V ) simmetrico. Allora ∃ base di V ortonormale e di autovettori per f
Dimostrazione. Per induzione su dim V = n. Per n = 1 é ovvio , infatti basta prendere
qualsiasi base ortonormale che é una base di autovettori per f . Supponiamo ora n ≥ 2 :
dobbiamo provare che (n − 1) ⇒ (n). Sia S una base ortonormale di V ⇒ A = mS (f ) é
simmetrica. Per il lemma esiste λ autovalore reale di A ( e quindi di f ). Sia v1 6= 0 con
v1 ∈ V (λ, f ) , cioé f (v1 ) = λv1 ; supponiamo ||v1 || = 1. Sia V1 = Span(v1 ) che é ovviamente
un sottospazio f −invariante. φV1 é definito positivo e quindi non degenere , quindi é possibile
fare lo spezzamento
M
V = V1
V1⊥
Sappiamo che f V1 é un endomorfismo visto che V1 é f -invariante , quindi f V1 : V1 → V1 .
Se riuscissimo a provare che anche f V ⊥ é un endomorfismo , ovvero che V1⊥ é f -invariante e
1
quindi f ⊥ : V ⊥ → V ⊥ , potremmo costruire in modo naturale una base di autovettori per f
V1
1
1
unendo le due basi di V1 e V1⊥ e ortonormalizzando. Voglio quindi provare che f (V1⊥ ) ⊂ V1⊥ ,
ovvero che ∀x ∈ V1⊥ , f (x) ∈ V1⊥ . Per verificare questo dobbiamo mostrare che φ(f (x), v1 ) = 0.
Calcoliamo quindi
φ(f (x), v1 ) = φ(x, f (v1 )) = φ(x, λv1 ) = λφ(x, v1 ) = 0
Dove abbiamo usato rispettivamente
di simmetria su f e il fatto che x ∈ V1⊥
la condizione
nell’ultima uguaglianza. Dunque f V ⊥ : V1⊥ → V1⊥ é un endomorfismo , quindi posso applicare
1
l’ipotesi induttiva a V1⊥ , φV ⊥ , f V ⊥ : infatti dim V1⊥ = n − 1 , φV ⊥ é definito positivo perché
1
1
1
lo era su V e f V ⊥ é un endomorfismo per quanto visto prima. Dunque esiste sicuramente
1
una base {v2 , . . . , vn } di V ⊥ ortonormale per φ e di autovettori per f ⊥ , e quindi anche
1
V1
per f . La base di V é data quindi da {v1 , . . . , vn } : si deve verificare se questa é una base
ortonormale. I vettori sono linearmente indipendenti visto che appartengono a sottospazi in
somma diretta , inoltre sono ortogonali perché provengono da sottospazi ortogonali. Inoltre
sono autovettori per f visto che , per ipotesi , f (v1 ) = λv1 mentre {v2 , . . . , vn } sono una base
di V1⊥ .
88
CAPITOLO 10. FORME BILINEARI
Osservazione 135.
Se f simmetrica e H é un sottospazio di V f -invariante allora H ⊥ é f -invariante.
Dimostrazione. Provo che f (H ⊥ ) ⊂ H ⊥ , ovvero ∀x ∈ H ⊥ , f (x) ⊂ H ⊥ . Devo quindi mostrare
che f (x) é ortogonale a tutti i vettori di H , ovvero che ∀x ∈ H ⊥ , ∀y ∈ H ⇒ φ(f (x), y) = 0.
Ma
φ(f (x), y) = φ(x, f (y)) = 0 visto che x ∈ H ⊥ , f (y) ∈ H
Osservazione 136.
Sia A ∈ M (n, R) simmetrica , A : Rn → Rn . Per il teorema spettrale esiste una base S
ortonormale di autovettori per A. Definiamo mC (A) = A, mS (A) = D diagonale. Sia M la
matrice del cambiamento di base da C ad S , dunque M −1 AM = D . Ma M ∈ O(n) quindi
M −1 = t M e dunque M −1 AM = t M AM = D diagonale.
Teorema 10.7.5. ∀A ∈ M (n, R) simmetrica esiste M ∈ O(n) tale che M −1 AM = t M AM =
D diagonale= mS (b)
Corollario 10.7.6. Si ha che
ˆ i+ (A) =numero autovalori positivi di A
ˆ i− (A) =numero autovalori negativi di A
ˆ i0 (A) =numero autovalori nulli di A
Proposizione 10.7.7. A ∈ M (n, R) simmetrica. Siano λ, µ due autovalori di A distinti.
Allora V (λ), V (µ) sono sottospazi ortogonali.
Dimostrazione. Quindi ∀x ∈ V (λ), ∀y ∈ V (µ) deve essere φ(x, y) = 0. Calcoliamo (moltiplicando per λ)
λφ(x, y) = φ(λx, y) = φ(Ax, y) = φ(x, Ay) = φ(x, µy) = µφ(x, y) ⇒ (λ − µ)φ(x, y) = 0
Ma , dato che λ e µ sono distinti λ 6= µ ⇒ φ(x, y) = 0
10.8
Applicazioni ortogonali
Sia ora (V, φ) spazio euclideo.
Definizione 10.24 (applicazione ortogonale). f ∈ End(V ) si dice applicazione ortogonale (
o isometria ) se φ(f (x), f (y)) = φ(x, y), ∀x, y ∈ V
Osservazione 137.
f ortogonale ⇒ f isomorfismo. Infatti basta provare che f é iniettiva. Se per assurdo esistesse
x ∈ ker(f ) con x 6= 0 allora 0 = φ(f (x), f (x)) = φ(x, x) per la definizione di applicazione
ortogonale, il che assurdo quindi deve essere necessariamente ker(f ) = {0} che é la definizione
di applicazione iniettiva, ovvero di isomorfismo.
Osservazione 138.
Sia B base ortonormale e sia A = mB (f ). Allora f é una applicazione ortogonale ⇔ A ∈ O(n)
10.8. APPLICAZIONI ORTOGONALI
89
Dimostrazione. Vale che
φ(f (x), f (y)) = t [f (x)]B I[f (y)]B = t [x]Bt AA[y]B
D’altra parte
φ(x, y) = t [x]B [y]B
Quindi f é ortogonale ⇔ t [x]B [y]B = t [x]Bt AA[y]B ⇔ t AA = I , ovvero ⇔ A ∈ O(n).
Osservazione 139.
Se A ∈ O(n), A : Rn → Rn é una isometria.
Osservazione 140.
O(V ) = {f ∈ End(V ) : f ortogonale}
Allora f ∈ O(V ) ⇒ φ(f (x), f (x)) = φ(x, x) ⇒ ||f (x)||2 = ||x||2 quindi ∀x ∈ V, ||f (x)|| = ||x||,
ovvero le applicazioni ortogonali conservano la norma.
Proposizione 10.8.1. Sono fatti equivalenti
1. f ortogonale
2. ||f (x)|| = ||x||, ∀x ∈ V
3. Se B é una base ortonormale allora f (B) é una base ortonormale.
Dimostrazione. .
(1) ⇒ (2) : visto sopra.
(1) ⇒ (3) : Prendo B = {v1 , . . . , vn } base ortonormale. {f (v1 ), . . . , f (vn )} é una base perché f
é un isomorfismo. Questi vettori sono anche ortogonali perché φ(f (vi ), f (vj )) = φ(vi , vj ) = 0
per ipotesi. Inoltre questi vettori si possono normalizzare quindi sono la base cercata.
(2) ⇒ (1) : Sappiamo che la proprietá é vera per x = y. Per provarla anche nel caso x 6= y si
puó usare la formula di polarizzazione prendendo
φ(x, y) =
φ(x + y, x + y) − φ(x, x) − φ(y, y)
2
Per ipotesi questa é uguale a
φ(f (x + y), f (x + y)) − φ(f (x), f (x)) − φ(f (y), f (y))
2
φ(f (x) + f (y), f (x) + f (y)) − φ(f (x), f (x)) − φ(f (y), f (y))
=
2
φ(f (x), f (x)) + φ(f (y), f (y)) + 2φ(f (x), f (y)) − φ(f (x), f (x)) − φ(f (y), f (y))
=
2
= φ(f (x), f (y))
(10.25)
φ(x, y) =
(3) ⇒ (1) : Sia B = {v1 , . . . , vn } base ortonormale. Voglio provare che ∀x, y : φ(x, y) =
φ(f (x), f (y)). Scriviamo
X
X
x=
αi vi y =
βi vi
i
i
90
CAPITOLO 10. FORME BILINEARI
Dunque


X
X
X
φ(x, y) = φ 
αi vi ,
β j vj  =
αi βi
i
j
i
infatti φ(vi , vj ) = 0 ⇔ i 6= j e φ(vi , vj ) = 1 per i = j. D’altra parte




! 
X
X
X
X
φ(f (x), f (y)) = φ f
βj vj  = φ 
αi vi , f 
αi f (vi ),
βj f (vj )
i
=
X
j
αi βj φ(f (vi ), f (vj )) =
i,j
i
X
j
(10.26)
αi βi
i
infatti anche f (B) é una base ortonormale per ipotesi.
Osservazione 141.
Sia f ∈ O(V ) e H un sottospazio vettoriale di V , f -invariante. Allora H ⊥ é f -invariante.
Dimostrazione. Provo che f (H ⊥ ) ⊂ H ⊥ , ovvero ∀x ∈ H ⊥ , f (x) ∈ H ⊥ , cioé ∀x ∈ H ⊥ , ∀y ∈ H
devo mostrare che φ(f (x), y) = 0. Ma y ∈ Imm(f ) perché f é un isomorfismo. Quindi ∃z ∈ V
tale che y = f (z). Dato che f (H) ⊂ H ed f é isomorfismo allora deve essere necessariamente
f (H) = H. Quindi f (z) ∈ H ⇒ z ∈ H. Dunque φ(f (x), y) = φ(f (x), f (z)) con z ∈ H.
Dunque per l’ipotesi di ortogonalitá su f si ha che
φ(f (x), f (z)) = φ(x, z) = 0
visto che x ∈ H ⊥ , z ∈ H.