Algebra Lineare I1
8 giugno 2017
This book is the result of a collaborative effort of a community of people
like you, who believe that knowledge only grows if shared.
We are waiting for you!
Get in touch with the rest of the team by visiting http://join.wikitolearn.org
You are free to copy, share, remix and reproduce this book, provided that you properly give
credit to original authors and you give readers the same freedom you enjoy.
Read the full terms at https://creativecommons.org/licenses/by-sa/3.0/
Indice
1 Concetti introduttivi
1.1
1.2
1.3
1.4
1
Ripasso di insiemistica . . . . . . . . . . . . . . . . . . . . . . . . .
1
1.1.1
Definizione di insieme . . . . . . . . . . . . . . . . . . . . .
1
1.1.2
Descrizione di alcuni insiemi numerici . . . . . . . . . . . .
1
1.1.3
Altre notazioni . . . . . . . . . . . . . . . . . . . . . . . . .
2
1.1.4
Unione e intersezione . . . . . . . . . . . . . . . . . . . . . .
2
1.1.5
Differenza e differenza simmetrica e prodotto cartesiano . .
3
Relazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.2.1
Corrispondenze e relazioni . . . . . . . . . . . . . . . . . . .
4
1.2.2
Proprietà delle relazioni . . . . . . . . . . . . . . . . . . . .
4
1.2.3
Insieme quoziente . . . . . . . . . . . . . . . . . . . . . . . .
7
1.2.4
Relazioni d’ordine . . . . . . . . . . . . . . . . . . . . . . .
9
Funzioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.1
Definizioni di base . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.2
Funzioni iniettive e suriettive . . . . . . . . . . . . . . . . . 11
Operazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.1
Definizione ed esempi . . . . . . . . . . . . . . . . . . . . . 11
1.4.2
Composizione di funzioni . . . . . . . . . . . . . . . . . . . 12
1.4.3
Insiemi di funzioni . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.4
Gruppo simmetrico . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.5
Somma NIM . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4.6
Alcuni esempi . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4.7
Elementi neutri e opposti . . . . . . . . . . . . . . . . . . . 17
1.4.8
Gerarchia di strutture algebriche . . . . . . . . . . . . . . . 18
1.4.9
L’inverso è unico? . . . . . . . . . . . . . . . . . . . . . . . 18
1.4.10 Tavole di moltiplicazione . . . . . . . . . . . . . . . . . . . . 19
1.4.11 Anello . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.4.12 Relazioni compatibili con un’operazione . . . . . . . . . . . 21
Indice
3 / 258
1.5
Principio di induzione . . . . . . . . . . . . . . . . . . . . . . . . . 21
2 Lo spazio R2
23
2.1
Proprietà generali dello spazio Rn . . . . . . . . . . . . . . . . . . . 23
2.2
operazioni in Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3
2.2.1
somma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2.2
prodotto scalare per vettore . . . . . . . . . . . . . . . . . . 25
L’insieme R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3.1
Vettori linearmente dipendenti . . . . . . . . . . . . . . . . 26
2.3.2
criterio numerico . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3.3
Retta e parametrizzazioni . . . . . . . . . . . . . . . . . . . 28
2.3.4
equazioni cartesiane . . . . . . . . . . . . . . . . . . . . . . 30
2.3.5
Retta per due punti . . . . . . . . . . . . . . . . . . . . . . 30
2.3.6
Coordinate . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.3.7
Basi di R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3 Lo spazio R3
3.1
Lo spazio R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.1.1
3.2
3.3
3.4
35
Prodotto vettoriale in R 3 . . . . . . . . . . . . . . . . . . . 35
La retta in R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.1
vettori linearmente dipendenti
. . . . . . . . . . . . . . . . 36
3.2.2
Definizione ed esempi sulla retta . . . . . . . . . . . . . . . 37
3.2.3
Dalle equazioni parametriche alle cartesiane . . . . . . . . . 38
3.2.4
Dalle equazioni cartesiane alle parametriche . . . . . . . . . 39
Piani in R 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.3.1
Prodotto scalare standard . . . . . . . . . . . . . . . . . . . 40
3.3.2
Piano in R 3 . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.3.3
Osservazione sulla combinazione lineare . . . . . . . . . . . 42
3.3.4
Dall’equazione parametrica alla cartesiana . . . . . . . . . . 43
3.3.5
Dall’equazione cartesiana alla parametrica . . . . . . . . . . 44
basi ordinate in R 3 . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.4.1
Vettori linearmente dipendenti . . . . . . . . . . . . . . . . 44
3.4.2
Definizione di base . . . . . . . . . . . . . . . . . . . . . . . 45
3.4.3
La base canonica . . . . . . . . . . . . . . . . . . . . . . . . 46
3.4.4
esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4 Norme e distanze
49
Indice
4 / 258
4.1
Norme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.1.1
4.2
Proprietà generali della norma euclidea . . . . . . . . . . . 49
Norma euclidea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.2.1
disuguaglianza di Cauchy-Schwarz . . . . . . . . . . . . . . 50
4.2.2
Disuguaglianza triangolare . . . . . . . . . . . . . . . . . . . 52
4.2.3
Distanza euclidea . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2.4
Interpretazione geometrica di Cauchy Schwarz . . . . . . . 54
4.2.5
Caso particolare vettori unitari . . . . . . . . . . . . . . . . 54
4.2.6
vettori perpendicolari . . . . . . . . . . . . . . . . . . . . . 55
4.3
Distanza punto - retta . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.4
Distanza punto - piano . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.5
Distanza retta - retta . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5 Spazi vettoriali
5.1
5.2
5.3
5.4
5.5
63
Concetti introduttivi . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.1.1
Definizioni di spazi vettoriali . . . . . . . . . . . . . . . . . 63
5.1.2
proprieta’ della somma . . . . . . . . . . . . . . . . . . . . . 63
5.1.3
Proprietà della moltiplicazione . . . . . . . . . . . . . . . . 64
Esempi di spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . 65
5.2.1
Spazio delle funzioni . . . . . . . . . . . . . . . . . . . . . . 65
5.2.2
Polinomi reali . . . . . . . . . . . . . . . . . . . . . . . . . . 66
sottospazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.3.1
Definizione . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.3.2
Lemma sugli spazi vettoriali . . . . . . . . . . . . . . . . . . 68
5.3.3
classificazione i sottospazi vettoriali di R^2 . . . . . . . . . 69
Combinazione lineare di un insieme di vettori . . . . . . . . . . . . 70
5.4.1
Definizione di span . . . . . . . . . . . . . . . . . . . . . . . 70
5.4.2
Span come sottospazio vettoriale . . . . . . . . . . . . . . . 71
5.4.3
classificazione dei sottospazi vettoriali di R3 . . . . . . . . . 73
5.4.4
condizioni equivalenti . . . . . . . . . . . . . . . . . . . . . 73
5.4.5
Vettori linarmente indipendenti . . . . . . . . . . . . . . . . 74
5.4.6
Basi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
5.4.7
Sistema di generatori . . . . . . . . . . . . . . . . . . . . . . 76
5.4.8
coordinate . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
Teoremi sulle basi . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
5.5.1
Basi e vettori linearmente indipendenti . . . . . . . . . . . . 77
Indice
5 / 258
5.5.2
Basi e cardinalita’ . . . . . . . . . . . . . . . . . . . . . . . 79
6 Spazi vettoriali somma prodotto e intersezione
6.1
6.2
6.3
Dimensione di spazi vettoriali . . . . . . . . . . . . . . . . . . . . . 80
6.1.1
Definizione e osservazioni introduttive . . . . . . . . . . . . 80
6.1.2
Spazio vettoriale finitamente generato . . . . . . . . . . . . 80
6.1.3
dimensione di sottospazi vettoriali . . . . . . . . . . . . . . 81
6.1.4
Esercizio determinazione della dimensione di uno spazio
vettoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
spazio vettoriale prodotto . . . . . . . . . . . . . . . . . . . . . . . 83
6.2.1
dimensione dello spazio vettoriale prodotto . . . . . . . . . 83
6.2.2
Teorema della base incompleta . . . . . . . . . . . . . . . . 85
spazio vettoriale intersezione . . . . . . . . . . . . . . . . . . . . . . 85
6.3.1
6.4
6.5
proprietà generali . . . . . . . . . . . . . . . . . . . . . . . . 85
Spazio vettoriale somma . . . . . . . . . . . . . . . . . . . . . . . . 88
6.4.1
Proprietà generali . . . . . . . . . . . . . . . . . . . . . . . 88
6.4.2
Teorema sullo spazio somma . . . . . . . . . . . . . . . . . 88
Formula di Grasman . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6.5.1
Caso 1 A sottoinsieme di B . . . . . . . . . . . . . . . . . . 89
6.5.2
Caso 2 somma diretta . . . . . . . . . . . . . . . . . . . . . 90
6.5.3
Caso 3 dimensione dell’intersezione non nulla . . . . . . . . 91
7 Matrici e spazi vettoriali
7.1
80
93
Nozioni elementari sulle matrici . . . . . . . . . . . . . . . . . . . . 93
7.1.1
Definizione di matrice . . . . . . . . . . . . . . . . . . . . . 93
7.1.2
Operazioni per riga . . . . . . . . . . . . . . . . . . . . . . . 94
7.1.3
Matrici a scala . . . . . . . . . . . . . . . . . . . . . . . . . 96
7.1.4
Complemento ortogonale
7.1.5
Procedimento alternativo per il completamento della base . 100
8 Spazio vettoriale quoziente
. . . . . . . . . . . . . . . . . . . 99
105
8.1
classe di equivalenza . . . . . . . . . . . . . . . . . . . . . . . . . . 105
8.2
Sottospazio affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
8.3
Operazioni nello spazio quoziente . . . . . . . . . . . . . . . . . . . 106
8.4
8.3.1
somma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
8.3.2
prodotto per uno scalare . . . . . . . . . . . . . . . . . . . . 108
dimensione dello spazio quoziente . . . . . . . . . . . . . . . . . . . 108
Indice
6 / 258
8.4.1
Caso 1 W=V . . . . . . . . . . . . . . . . . . . . . . . . . . 108
8.4.2
Caso 2 W consiste del solo vettore nullo . . . . . . . . . . . 108
8.4.3
Caso generale . . . . . . . . . . . . . . . . . . . . . . . . . . 109
9 Applicazioni lineari
9.1
9.2
9.3
9.4
9.5
9.6
111
Nozioni di base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
9.1.1
Definizione di applicazione lineare . . . . . . . . . . . . . . 111
9.1.2
Applicazione lineare: R → V . . . . . . . . . . . . . . . . . 111
9.1.3
Applicazioni lineari colon R2 → R2 . . . . . . . . . . . . . . 112
9.1.4
Applicazioni lineari sul quoziente . . . . . . . . . . . . . . . 112
Nucleo e spazio immagine . . . . . . . . . . . . . . . . . . . . . . . 113
9.2.1
Definizione di nucleo ed esempi . . . . . . . . . . . . . . . . 113
9.2.2
Nucleo come sottospazio vettoriale . . . . . . . . . . . . . . 114
9.2.3
Definizione di spazio immagine ed esempi . . . . . . . . . . 114
9.2.4
Immagine come sottospazio vettoriale . . . . . . . . . . . . 115
9.2.5
Applicazione iniettiva . . . . . . . . . . . . . . . . . . . . . 115
Rango di un’applicazione
. . . . . . . . . . . . . . . . . . . . . . . 116
9.3.1
Definizione e osservazioni sul rango . . . . . . . . . . . . . . 116
9.3.2
Teorema del rango . . . . . . . . . . . . . . . . . . . . . . . 117
9.3.3
Applicazioni del teorema del rango . . . . . . . . . . . . . . 118
Controimmagine di un vettore . . . . . . . . . . . . . . . . . . . . . 120
9.4.1
Struttura della controimmagine . . . . . . . . . . . . . . . . 120
9.4.2
Definizioni ed esempi sulla controimmagine . . . . . . . . . 121
Applicazioni lineari tra due spazi vettoriali . . . . . . . . . . . . . . 123
9.5.1
Applicazioni coincidenti . . . . . . . . . . . . . . . . . . . . 123
9.5.2
Unicità dell’applicazione lineare da V in W . . . . . . . . . 124
9.5.3
Esistenza di un’applicazione suriettiva . . . . . . . . . . . . 125
9.5.4
Esistenza di un’applicazione iniettiva . . . . . . . . . . . . . 125
9.5.5
Esistenza di un’applicazione biunivoca . . . . . . . . . . . . 125
Isomorfismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
10 Prodotto tra matrici
128
10.1 Applicazioni lineari tra spazi euclidei . . . . . . . . . . . . . . . . . 128
10.1.1 Prodotto matrice per vettore . . . . . . . . . . . . . . . . . 128
10.1.2 Corrispondenza biunivoca tra applicazioni lineari e matrici 128
10.1.3 Nucleo immagine e controimmagine . . . . . . . . . . . . . 129
10.2 composizione di applicazioni lineari . . . . . . . . . . . . . . . . . . 130
Indice
7 / 258
10.2.1 Linearità della composizione . . . . . . . . . . . . . . . . . . 130
10.2.2 composizione di applicazioni lineari e matrici . . . . . . . . 130
10.2.3 Matrice associata alla composizione
. . . . . . . . . . . . . 130
10.2.4 prodotto tra matrici . . . . . . . . . . . . . . . . . . . . . . 131
10.2.5 associativita’ del prodotto tra matrici . . . . . . . . . . . . 133
10.3 Invertibilità di matrici . . . . . . . . . . . . . . . . . . . . . . . . . 133
10.3.1 matrici quadrate . . . . . . . . . . . . . . . . . . . . . . . . 133
10.3.2 Matrice diagonale
. . . . . . . . . . . . . . . . . . . . . . . 134
10.3.3 Matrice invertibile . . . . . . . . . . . . . . . . . . . . . . . 134
10.3.4 Rango della matrice composta . . . . . . . . . . . . . . . . 134
10.3.5 Invertibilita’ di matrici quadrate . . . . . . . . . . . . . . . 135
10.3.6 unicita’ della matrice inversa . . . . . . . . . . . . . . . . . 135
10.3.7 Relazione tra iniettivita’ e matrice inversa . . . . . . . . . . 136
10.3.8 Suriettivita’ e invertibilita’ . . . . . . . . . . . . . . . . . . 136
10.3.9 Inversa destra e inversa sinistra . . . . . . . . . . . . . . . . 137
10.3.10 condizioni equivalenti . . . . . . . . . . . . . . . . . . . . . 137
10.4 Calcolo della matrice inversa . . . . . . . . . . . . . . . . . . . . . 138
10.4.1 Condizione per l’invertibilità . . . . . . . . . . . . . . . . . 138
10.4.2 Considerazioni generali invertibilita’ del prodotto . . . . . . 141
10.5 Matrice trasposta . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
10.5.1 Definizione . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
10.5.2 Prodotto fra trasposte . . . . . . . . . . . . . . . . . . . . . 142
10.5.3 Trasposta dell’inversa . . . . . . . . . . . . . . . . . . . . . 143
10.5.4 Complemento ortogonale
11 Matrici e basi
. . . . . . . . . . . . . . . . . . . 143
144
11.1 Basi di partenza e di arrivo . . . . . . . . . . . . . . . . . . . . . . 144
11.1.1 Ipotesi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
11.1.2 Coordinate nella base d’arrivo . . . . . . . . . . . . . . . . . 144
11.1.3 Teorema sulle coordinate . . . . . . . . . . . . . . . . . . . 146
11.1.4 Conclusione . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
11.1.5 teorema sul nucleo . . . . . . . . . . . . . . . . . . . . . . . 148
11.1.6 Teorema sull’immagine . . . . . . . . . . . . . . . . . . . . . 149
11.2 composizione e prodotti di matrici . . . . . . . . . . . . . . . . . . 154
11.2.1 Teorema C=BA . . . . . . . . . . . . . . . . . . . . . . . . 154
11.2.2 Relazione tra due basi diverse di uno spazio . . . . . . . . . 156
Indice
8 / 258
11.3 Applicazione lineare dello spazio quoziente . . . . . . . . . . . . . . 158
11.4 Applicazioni tra due spazi vettoriali con basi diverse . . . . . . . . 159
11.4.1 Caso generale . . . . . . . . . . . . . . . . . . . . . . . . . . 159
11.4.2 Caso particolare endomorfismo . . . . . . . . . . . . . . . . 160
12 Matrici simili
163
12.1 Matrici simili in uno spazio vettoriale . . . . . . . . . . . . . . . . . 163
12.1.1 Teorema sulla similitudine . . . . . . . . . . . . . . . . . . . 163
12.1.2 Caso particolare del teorema sulla similitudine . . . . . . . 164
12.2 condizioni necessarie per la similitudine . . . . . . . . . . . . . . . 165
12.2.1 Rango uguale . . . . . . . . . . . . . . . . . . . . . . . . . . 165
12.2.2 Matrici diverse dall’identita’ . . . . . . . . . . . . . . . . . . 165
12.2.3 Traccia uguale . . . . . . . . . . . . . . . . . . . . . . . . . 166
12.2.4 Determinante uguale . . . . . . . . . . . . . . . . . . . . . . 167
12.2.5 conclusione . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
12.3 Precisazione sulle matrici simili . . . . . . . . . . . . . . . . . . . . 168
13 Determinanti
169
13.1 Definizioni preliminari . . . . . . . . . . . . . . . . . . . . . . . . . 169
13.1.1 Funzione multilineare . . . . . . . . . . . . . . . . . . . . . 169
13.1.2 Funzione alternante . . . . . . . . . . . . . . . . . . . . . . 170
13.1.3 Multilinearita’ e antisimmetricita’ . . . . . . . . . . . . . . 171
13.2 Definizione di determinante ed esempi . . . . . . . . . . . . . . . . 172
13.2.1 Teorema di Bine’ . . . . . . . . . . . . . . . . . . . . . . . . 173
13.3 Calcolo del determinante . . . . . . . . . . . . . . . . . . . . . . . . 174
13.3.1 Sviluppo di Laplace . . . . . . . . . . . . . . . . . . . . . . 175
14 Spazio duale
177
14.1 omomorfismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
14.1.1 Lo spazio V W . . . . . . . . . . . . . . . . . . . . . . . . . 177
14.1.2 Lo spazio delle matrici cXd . . . . . . . . . . . . . . . . . . 178
14.1.3 Dimensione di V W . . . . . . . . . . . . . . . . . . . . . . 180
14.2 Spazio duale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
14.2.1 Spazio duale e funzionali . . . . . . . . . . . . . . . . . . . . 181
14.2.2 Base dello spazio duale . . . . . . . . . . . . . . . . . . . . . 181
14.2.3 Considerazioni sulla base duale alla base canonica . . . . . 182
14.3 Sottospazi annullatori . . . . . . . . . . . . . . . . . . . . . . . . . 183
Indice
9 / 258
14.3.1 Definizione ed esempi . . . . . . . . . . . . . . . . . . . . . 183
14.3.2 Dimensione dell’annullatore . . . . . . . . . . . . . . . . . . 184
14.3.3 Base dell’annullatore . . . . . . . . . . . . . . . . . . . . . . 187
14.4 Osservazioni sulla traccia . . . . . . . . . . . . . . . . . . . . . . . 187
14.5 Relazione tra sottospazi annullatori . . . . . . . . . . . . . . . . . . 188
14.5.1 Inclusione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
14.5.2 Annullatore dell’intersezione . . . . . . . . . . . . . . . . . . 188
14.5.3 Annullatore della somma . . . . . . . . . . . . . . . . . . . 189
14.5.4 Uguaglianza tra annullatori . . . . . . . . . . . . . . . . . . 190
15 Prodotti scalari
192
15.1 Definizione ed esempi di prodotti scalari . . . . . . . . . . . . . . . 192
15.1.1 Forme bilineari . . . . . . . . . . . . . . . . . . . . . . . . . 192
15.1.2 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
15.1.3 Prodotto scalare non degenere . . . . . . . . . . . . . . . . 193
15.2 Forme bilineari e prodotti scalari su spazi euclidei . . . . . . . . . . 193
15.2.1 Prodotti scalari e matrici . . . . . . . . . . . . . . . . . . . 193
15.2.2 Unicita’ della matrice C . . . . . . . . . . . . . . . . . . . . 194
15.2.3 Corrispondenza biunivoca tra prodotti scalari e matrici simmetriche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
15.3 Spazio nullo di un prodotto scalare . . . . . . . . . . . . . . . . . . 196
15.3.1 Caso particolare V= R^n . . . . . . . . . . . . . . . . . . . 197
15.4 Complemento ortogonale . . . . . . . . . . . . . . . . . . . . . . . . 198
15.4.1 Prodotto scalare definito positivo . . . . . . . . . . . . . . . 199
15.4.2 relazione tra prodotti degeneri e positivi . . . . . . . . . . . 199
15.5 Matrici e prodotti scalari in spazi generici . . . . . . . . . . . . . . 200
15.5.1 Matrici e forme bilineari . . . . . . . . . . . . . . . . . . . . 200
15.5.2 Spazio nullo . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
15.6 Dipendenza della matrice M B da B . . . . . . . . . . . . . . . . . 203
15.7 Spazio vettoriale euclideo . . . . . . . . . . . . . . . . . . . . . . . 207
15.7.1 Disuguaglianza di Cauchy-Schwarz . . . . . . . . . . . . . . 207
16 Basi ortogonali
16.1 Definizione ed esempi
208
. . . . . . . . . . . . . . . . . . . . . . . . . 208
16.2 Esistenza della base ortogonale . . . . . . . . . . . . . . . . . . . . 208
16.2.1 Enunciato . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
16.2.2 Osservazione sul complemento ortogonale . . . . . . . . . . 209
Indice
10 / 258
16.2.3 Funzione quadratica . . . . . . . . . . . . . . . . . . . . . . 210
16.2.4 Identita’ di polarizzazione . . . . . . . . . . . . . . . . . . . 211
16.2.5 Dimostrazione del teorema enunciato . . . . . . . . . . . . . 211
16.3 Considerazioni generali . . . . . . . . . . . . . . . . . . . . . . . . . 212
16.3.1 Span contenuto nello spazio nullo . . . . . . . . . . . . . . . 212
16.3.2 Spazio nullo contenuto nello span . . . . . . . . . . . . . . . 213
16.3.3 Caso particolare K= C
. . . . . . . . . . . . . . . . . . . . 214
16.4 Teorema di Sylvester . . . . . . . . . . . . . . . . . . . . . . . . . . 215
16.4.1 Indici di nullita’ positivita’ e negativita’ . . . . . . . . . . . 215
16.4.2 Dimostrazione del teorema di Sylvester
. . . . . . . . . . . 216
16.5 Complemento ortogonale . . . . . . . . . . . . . . . . . . . . . . . . 219
16.5.1 Dimensione del complemento ortogonale . . . . . . . . . . . 219
16.6 L’applicazione Lv . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
16.6.1 Matrice di L . . . . . . . . . . . . . . . . . . . . . . . . . . 220
16.6.2 Dimostrazione del teorema sul complemento ortogonale . . 221
16.7 criterio dei minori incapsulati . . . . . . . . . . . . . . . . . . . . . 222
17 Autovalori e autovettori
225
17.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
17.1.1 Applicazioni lineari . . . . . . . . . . . . . . . . . . . . . . . 225
17.1.2 Prodotti scalari . . . . . . . . . . . . . . . . . . . . . . . . . 226
17.2 Concetti principali . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
17.2.1 Autovalori . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
17.2.2 Autovettori . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
17.2.3 Applicazione diagonalizzabile . . . . . . . . . . . . . . . . . 227
17.2.4 Matrice diagonalizzabile . . . . . . . . . . . . . . . . . . . . 228
17.3 Relazione tra matrici e applicazioni diagonalizzabili . . . . . . . . . 228
17.4 Autovalori di un endomorfismo . . . . . . . . . . . . . . . . . . . . 229
17.4.1 Polinomio caratteristico . . . . . . . . . . . . . . . . . . . . 230
17.5 Molteplicità algebrica e geometrica . . . . . . . . . . . . . . . . . . 233
17.6 Osservazioni generali . . . . . . . . . . . . . . . . . . . . . . . . . . 235
17.6.1 condizioni necessarie per la diagonalizzabilità . . . . . . . . 236
17.6.2 Lineare indipendenza di autovalori distinti . . . . . . . . . . 237
17.6.3 Condizioni sufficienti per la diagonalizzabilità . . . . . . . . 238
17.6.4 Valori di molteplicità algebrica e geometrica . . . . . . . . . 239
18 Teorema spettrale
241
Indice
11 / 258
18.1 Diagonalizzabilità negli spazi vettoriali euclidei . . . . . . . . . . . 241
18.1.1 Applicazione simmetrica o autoaggiunta . . . . . . . . . . . 241
18.1.2 Base ortogonale . . . . . . . . . . . . . . . . . . . . . . . . . 242
18.2 Teorema spettrale
. . . . . . . . . . . . . . . . . . . . . . . . . . . 242
18.2.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . 242
18.2.2 Conseguenze del teorema . . . . . . . . . . . . . . . . . . . 244
18.2.3 La matrice speciale . . . . . . . . . . . . . . . . . . . . . . . 244
18.2.4 Matrice ortogonale . . . . . . . . . . . . . . . . . . . . . . . 244
18.3 Teorema spettrale nello studio dei prodotti scalari . . . . . . . . . 246
18.3.1 Secondo teorema spettrale . . . . . . . . . . . . . . . . . . . 247
18.4 Dimostrazione del teorema spettrale . . . . . . . . . . . . . . . . . 249
19 Fonti per testo e immagini; autori; licenze
253
19.1 Testo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
19.2 Immagini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
19.3 Licenza dell’opera
. . . . . . . . . . . . . . . . . . . . . . . . . . . 258
Capitolo 1. Concetti introduttivi
1 / 258
Capitolo 1
Concetti introduttivi
1.1 Ripasso di insiemistica
1.1.1 Definizione di insieme
Sia X un insieme. Per descrivere X ci sono due alternative:
1. descrivere tutti e soli gli elementi di X
2. scrivere una proprietà valida soltanto per gli elementi di X .
Esempio 1.1
L’insieme delle vocali della parola “musica” si scrive come
X = {u, i, a}
oppure
X = {vocali della parola musica}
1.1.2 Descrizione di alcuni insiemi numerici
1. Insieme dei numeri naturali:
N = {0, 1, 2, 3, 4, 5, . . . }
2. insieme dei numeri interi:
Z = {0, 1, −1, 2, −2, 3, −3, 4, −4, . . . }
3. insieme dei numeri razionali
Q = {n/m, n, m ∈ Z, m ̸= 0}
Capitolo 1. Concetti introduttivi
2 / 258
1.1.3 Altre notazioni
Sia X un insieme, scriveremo x ∈ X per indicare che x è un elemento di X .
Diremo che Y ⊂ X e scriveremo y ⊂ X se ogni elemento di Y è un elemento di
X .
Diremo che due insiemi X e Y sono uguali ( X = Y ) se X ⊂ Y e Y ⊂ X .
L’insieme vuoto si denota con ∅ ed è l’insieme che non contiene nessun elemento.
Osservazione 1.1
Sia X un insieme. Allora ∅ ⊂ X . Non si può scrivere ∅ ∈ X .
Definizione 1.1
Sia X un insieme, l’insieme delle parti di X è l’insieme dei sottoinsiemi di X e si
denota con P . In simboli
P = {Y ⊂ X}
allora Y ∈ P .
Esempio 1.2
Se X = {1, 2, 3} , allora
P = {∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, X}
Se X = ∅ , P è l’insieme che contiene l’insieme vuoto.
1.1.4 Unione e intersezione
Definizione 1.2
Sia X un insieme e siano A e B sottoinsiemi di X . L’unione A ∪ B è l’insieme
degli elementi di X per cui x ∈ A oppure x ∈ B , mentre
A ∩ B = {x ∈ X t.c. x ∈ A ∧ x ∈ B}.
Esercizio 1.1
Sia X = N , siano a e b interi e
A = {x ∈ N t.c. x = ay, per qualche y ∈ N}
B = {x ∈ N t.c. x = by, per qualche y ∈ N}
Sia c = m.c.m.(a, b) . Allora
Capitolo 1. Concetti introduttivi
3 / 258
C = {x ∈ N, t.c. x = cy}
Dimostrare che A ∩ B è l’insieme dei multipli di c .
Prima inclusione: A ∩ B ⊂ C . Sia x ∈ A ∩ B , allora x ∈ A , quindi x = ay per
qualche y ∈ N e x = bz per qualche z ∈ N . Allora si ha l’equazione x = ay = bz .
Ma se x = ay , allora a | x , se x = bz , allora b | x , allora anche m.c.m.(a, b) | x
e quindi c | x , allora x = ct con t ∈ Z quindi x ∈ C , e siccome questo vale per
ogni x , A ∩ B ⊂ C .
Inclusione 2: C ⊂ A ∩ B . Sia x ∈ C , allora x = cy per qualche y ∈ N . Per
definizione a | c e b | c , quindi a | x e b | x , allora x ∈ A e x ∈ B , quindi
x∈A∩B .
Queste sono alcune proprietà di unione e intersezione:
1. Proprietà commutative: A ∪ B = B ∪ A , e analogamente A ∩ B = B ∩ A .
2. Proprietà associative: dati tre insiemi, A, B, C , allora
(A ∪ B) ∪ C = A ∪ (B ∪ C)
(A ∩ B) ∩ C = A ∩ (B ∩ C)
L’ordine in cui si intersecano gli insiemi è irrilevante.
3. Proprietà distributive: Considero A, B, C sottoinsiemi di X , allora
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
In questo caso non c’è analogia con le operazioni tra numeri interi, perché
la distributività rispetto all’unione (somma) non vale, infatti
2 + 3 ∗ 5 ̸= 2 ∗ 3 + 2 ∗ 5
1.1.5 Differenza e differenza simmetrica e prodotto cartesiano
Definizione 1.3
Siano A e B sottoinsiemi di X , allora la differenza A∖B è l’insieme degli elementi
di A che non stanno in B .
L’insieme differenza simmetrica è AδB = (A ∪ B) ∖ (A ∩ B) .
Definizione 1.4
Siano A e B insiemi, il prodotto cartesiano C = A × B è l’insieme costituito dalle
coppie (a, b) con a ∈ A e b ∈ B .
Esempio 1.3
Capitolo 1. Concetti introduttivi
4 / 258
Se A = {1, 2} e B = {3, 7, 8} il prodotto cartesiano è costituito dalle coppie
(1, 3), (1, 7), (1, 8), (2, 3), (2, 7), (2, 8).
Si osserva che A × B ̸= B × A .
Esercizio 1.2
Dimostrare che |A × B| = |A| ∗ |B| se A e B sono insiemi finiti. Soluzione: A e B
hanno un numero finito di elementi, supponiamo che A = {x1 , . . . , xn } abbia n
elementi e B = {y1 , . . . , ym } abbia m elementi. Allora per ogni xi ∈ A il prodotto
cartesiano A × B contiene le coppie (xi , y1 ) , (xi , y2 ) , . . . , (xi , ym ) . Siccome gli
xi sono n , il prodotto cartesiano ha n ∗ m elementi. cvd
Se |A × B| è infinito, allora |B| o |A| è infinita. Il viceversa non è vero, infatti se
|A| = ∞ e |B| = ∅ , allora |A × B| = 0 .
1.2 Relazioni
1.2.1 Corrispondenze e relazioni
Definizione 1.5
Siano X e Y insiemi, una corrispondenza R tra X e Y è un sottoinsieme del
prodotto cartesiano X × Y . Se (x, y) ∈ R , con x ∈ X e y ∈ Y , diremo che y è
in corrispondenza biunivoca con x oppure xRy .
Definizione 1.6
Se X = Y diremo che R è una relazione su X .
Sia f : X → Y una funzione, se considero il suo grafico ovvero le coppie (x, f (x))
, questa è una corrispondenza.
Esempio 1.4
√
Sia X = R+ e Y = R− , e R = {(x, − x)} con x ∈ X . R è una corrispondenza
√
con f (x) = − x .
Sia X = {1, 2} e Y = {3, 4, 5} e sia R = {(1, 3), (1, 4), (2, 5)} . R è una corrispondenza in X × Y ma non è il grafico di una funzione da X in Y , perché
all’elemento 1 ∈ X vengono associati due elementi di Y .
1.2.2 Proprietà delle relazioni
1. Una relazione si dice riflessiva se ogni x ∈ X è in relazione con se stesso,
cioè se xRx .
2. Una relazione si dice simmetrica se, dati x, y ∈ X , xRy implica yRx .
3. Una relazione si dice transitiva se xRy e yRz implicano xRz .
Capitolo 1. Concetti introduttivi
5 / 258
4. Una relazione si dice antisimmetrica se xRy implica yRx se e solo se x = y
.
L’unica relazione che è contemporaneamente riflessiva, simmetrica, transitiva e
antisimmetrica è l’uguaglianza R sull’insieme X tale che ogni elemento è associato
a se stesso.
Definizione 1.7
Una relazione riflessiva, simmetrica e transitiva si dice relazione di equivalenza.
Esempio 1.5
Se X è l’insieme delle rette nel piano, la relazione che associa due rette se sono
parallele è una relazione di equivalenza.
Esercizio 1.3
Sia A un insieme finito e sia X = P . Dimostrare che la relazione R tale che BRC
se BδC ha cardinalità pari è una relazione di equivalenza. Soluzione:
1. R è riflessiva, perché la differenza simmetrica di un insieme con se stesso è
sempre uguale all’insieme vuoto, che ha cardinalità 0 che è pari.
2. R è simmetrica, infatti se BRC , |BδC| è pari, ma BδC = CδB , quindi
anche |CδB| è pari e quindi CRB .
3. R è transitiva. Considero tre sottoinsiemi di A , B, C, D . Se BRC , allora
BδC ha cardinalità pari, e se CδD , allora CδD ha cardinalità pari.Scrivo
B, C, D come insiemi disgiunti.
B = [B∖(C ∪D)]∪[(B∩C)∖(B∩C ∩D)]∪[B∩D)∖(B∩C ∩D)]∪[B∩C ∩D]
quindi chiamo
|B ∖ (C ∪ D)| = a
|(B ∩ C) ∖ (B ∩ C ∩ D)| = b
|(B ∩ D) ∖ (B ∩ C ∩ D)| = c
|B ∩ C ∩ D| = d
quindi
|B| = a + b + c + d
C = [C ∖(B∪D)]∪[(C ∩B)∖(B∩C ∩D)]∪[(C ∩D)∖(B∩C ∩D)]∪[B∩C ∩D]
e chiamo
|C ∖ (B ∪ D)| = e
|(B ∩ C) ∖ | = b
|(C ∩ D) ∩ (C ∩ B ∩ D)| = f
|B ∩ C ∩ D| = d
Capitolo 1. Concetti introduttivi
6 / 258
quindi
|C| = e + b + f + d
D = [D∖(B∪C)]∪[(D∩C)∖(B∩C∩D)]∪[(D∩B)∖(B∩C∩D)]∪[B∩C∩D]
|D ∖ (B ∪ C)| = g
|(C ∩ D) ∖ (B ∩ C ∩ D)| = f
|(B ∩ D) ∖ (B ∩ C ∩ D)| = c
|B ∩ C ∩ D| = d
quindi
|D| = g + c + f + d
Allora siccome BδC = (B ∪ C) ∖ (B ∩ C) , si ha che |BδC| è la somma delle
cardinalità degli insiemi che costituiscono B e C ma che non sono comuni
ai due insiemi.
|BδC| = a + c + e + f
( d e b che compaiono sia in |C| che in |B| non vanno contate).
|CδD| = b + e + c + g
allora, siccome per ipotesi |BδC| e |CδD| sono pari, si ha che la loro somma
è pari:
|BδC| + |CδD| = (a + c + f + e) + (b + c + e + g) = a + b + f + g + 2c + 2e
e siccome 2c + 2e è pari, anche a + b + f + g è pari, e si ha che
a + b + f + g = |BδD|
cioè |BδD| è pari.
cvd
Esercizio 1.4
Sia X = N e R la relazione tale che xRy se x − y è pari. Dimostrare che R è una
relazione di equivalenza.
1. R è riflessiva perché x − x = 0 che è pari.
2. R è simmetrica perché xRy implica x − y pari, allora
x − y = −y + x = −(y − x)
quindi se x − y è pari, anche il suo opposto y − x è pari, quindi yRx .
3. R è transitiva, infatti xRy implica x − y è pari, yRz implica y − z è pari,
allora
x − z = (x − y) + (y − z)
è pari perché somma di numeri pari.
Capitolo 1. Concetti introduttivi
7 / 258
Se R è tale che xRy se x − y è dispari, allora R non è una relazione di equivalenza
perché non è riflessiva.
Esempio 1.6
Sia X = {1, 2, 3} e sia
R = {(1, 2), (2, 1)}
R non è una relazione di equivalenza perché non è riflessiva. Se aggiungo a R le
coppie (1, 1) e (2, 2) , la relazione non è riflessiva perché manca la coppia (3, 3) .
Definizione 1.8
Sia X un insieme e sia R una relazione su X , cioè R ⊂ X × X . Dico che R
è di equivalenza se e solo se il grafo è unione di grafi completi. Un grafo si dice
completo se per ogni a, b ∈ X , la coppia (a, b) ∈ R .
Esempio 1.7
Sia X = {1, 2, 3, 4} . Sia
R = {(1, 1), (2, 2), (3, 3), (4, 4), (1, 2), (2, 1), (1, 3), (3, 1)(2, 3), (3, 2)}.
La relazione è riflessiva perché ci sono frecce entranti e uscenti dallo stesso vertice,
inoltre è simmetrica perché si può andare da un vertice all’altro e poi tornare
indietro, ed è transitiva.
1.2.3 Insieme quoziente
Definizione 1.9
Sia X un insieme e sia R una relazione di equivalenza su X , e sia x ∈ X . La
classe di equivalenza di x per la relazione R è l’insieme
[x]R = {y ∈ X t.c. (x, y) ∈ R}.
Sono tutti e soli gli elementi in relazione con x . Un elemento y nella classe [x] si
dice rappresentante della classe di equivalenza.
Esempio 1.8
Sia R = {(x, x), x ∈ X} la relazione di uguaglianza, allora [x]R = {x} .
Esempio 1.9
Sia X = Z , allora a e b sono equivalenti se a − b è pari. Allora [0]R è l’insieme di
tutti i numeri pari.
Capitolo 1. Concetti introduttivi
8 / 258
Esempio 1.10
Sia X = P , e considero la relazione tale che A ∼ B se e solo se |AδB| è pari.
Allora [∅]R è l’insieme degli insiemi con cardinalità pari.
Definizione 1.10
L’insieme quoziente X/R è l’insieme costituito dalle classi di equivalenza [x]R al
variare di x ∈ X .
Proposizione 1.1
Valgono le seguenti proprietà:
1. La classe di equivalenza di un elemento non è mai vuota perché un elemento
sta sempre nella sua classe di equivalenza per la riflessività.
2. Siano x, y ∈ X , allora o [x] = [y] o [x] ∩ [y] = ∅ .Dim. Supponiamo che
[x] e [y] non siano disgiunte, allora esiste z ∈ [x] ∩ [y] ; prendo t ∈ [x] ,
allora (x, t) ∈ R , e per simmetria (t, x) ∈ R . Per transitività, siccome
(t, x) ∈ R e (x, z) ∈ R per ipotesi, allora (t, z) ∈ R . Inoltre, (y, z) ∈ R
, allora (z, y) ∈ R per simmetria, ma allora per transitività (t, z) ∈ R e
(z, y) ∈ R implica (t, y) ∈ R . Quindi t ∈ [y] e [x] ⊂ [y] . Per simmetria
anche [y] ⊂ [x] , cioè [x] = [y] .
Esempio 1.11
Data la relazione tale che x ∼ y se x − y è pari, segue che [−2]R è la classe dei
numeri pari.
La classe di equivalenza di 1 è formata dai numeri dispari. Queste sono le uniche
due classi di equivalenza di questa relazione.
L’insieme X è unione delle classi di equivalenza di R , che costituiscono una
partizione di X e sono quindi disgiunte.
L’insieme quoziente NON è l’unione insiemistica delle classi di equivalenza, come
mostrano i seguenti esempi:
Esempio 1.12
Nella relazione in cui x ∼ y se x − y è pari, si hanno le classi [0] (dei pari) e [1]
(dei dispari). L’insieme quoziente è
X/R = {[0], [1]}
ed è un insieme di due elementi. Invece
X = [0]R ∪ [1]R = Z
Esempio 1.13
Capitolo 1. Concetti introduttivi
9 / 258
Nella relazione di uguaglianza ( R è costituito da coppie di coordinate uguali),
[x] = {x} , e in questo caso
∪
X=
[x]
x∈X
cioè X è unione delle sue classi di equivalenza. L’insieme quoziente è
X/R =
∪
{x}
x∈X
1.2.4 Relazioni d’ordine
Definizione 1.11
Sia X un insieme e R una relazione su X , R è una relazione d’ordine se è riflessiva,
transitiva e antisimmetrica.
Esempio 1.14
Sia X = N , e sia d ∈ N . R è data dalle coppie (x, y) tali che x − y è divisibile
per d , cioè se y − x = dz per qualche z ∈ N . Questa è una relazione d’ordine,
infatti:
1. è riflessiva, perché x − x = d ∗ 0 .
2. è transitiva, infatti date coppie (a, b) ∈ R e (b, c) ∈ R , allora dimostro che
(a, c) ∈ R . b − a = dz1 con z1 ∈ N , c − b = dz2 con z2 ∈ N . Allora
sommando le equazioni:
c − a = (c − b) + (b − a) = dz1 + dz2 = d(z1 + z2 ), z1 + z2 ∈ N
allora c − a è divisibile per d .
3. supponiamo che (x, y) ∈ R e che (y, x) ∈ R . Allora x − y = dz, z ∈ N e
y − x = dz ′ , z ′ ∈ N , quindi
x − y + y − x = 0 = d(z + z ′ )
allora ci sono due possibilità, o d = 0 , o z + z ′ = 0 . Ma se d = 0 ,
la relazione diventa la relazione di uguaglianza e quindi è antisimmetrica.
Invece, se z + z ′ = 0 , con z, z ′ ∈ N , segue che z = z ′ = 0 , e quindi si
ottiene x − y = 0 e quindi x = y .
Se X = Z e R è la relazione tale che x ∼ y se x − y è divisibile per d , R di
equivalenza è d’ordine solo se d = 0 e R diventa la relazione di uguaglianza.
La relazione d’ordine ≤ sui numeri reali, oltre alle tre proprietà richieste, ha un’altra proprietà: dati due numeri a, b , o a ≤ b oppure b ≤ a (non possono avvenire
entrambe le cose contemporaneamente oppure nessuna delle due). Questo non
avviene nella relazione di divisibilità, infatti, nella relazione precedente, ponendo
Capitolo 1. Concetti introduttivi
10 / 258
d = 2 , x = 3 e y = 4 , si ha che rispetto a questa relazione d’ordine, x non è
in relazione con y e non vale nemmeno il viceversa. Per questa relazione d’ordine
due elementi possono essere incomparabili.
Altre relazioni in cui gli elementi sono incomparabili sono l’uguaglianza, oppure
la relazione di inclusione tra insiemi, tale che X = P e B, C ⊂ A sono in relazione
se B ⊂ C .
1.3 Funzioni
1.3.1 Definizioni di base
Definizione 1.12
Siano A, B insiemi, una funzione f : A → B è una legge tale che ad ogni a ∈ A è
associato un unico b ∈ B chiamato f (a) . Allora:
Definizione 1.13
1. l’insieme A si dice dominio e B si dice codominio.
2. L’immagine di f è l’insieme f (A) = {f (a), a ∈ A} .
3. Sia b ∈ B , allora la controimmagine f −1 (b) = {a ∈ A t.c. f (a) = b} .
Osservazione 1.2
La controimmagine può essere il vuoto, infatti posso considerare ad esempio la
funzione f : Z → Z tale che f (a) = 2a , e si ha
f −1 (1) = ∅
cioè f −1 (b) = ∅ se b ∈
/ f (A) .
Se C ⊂ B , si ha che
f −1 (C) = {a ∈ A t.c. f (a) ∈ C}
Definizione 1.14
Il grafico di f è l’insieme
gf = {(a, f (a)), a ∈ A}.
In particolare gf è una corrispondenza. Si nota che gf ha la proprietà che per
ogni a ∈ A , esiste un unico b ∈ B tale che (a, b) ∈ gf .
Capitolo 1. Concetti introduttivi
11 / 258
1.3.2 Funzioni iniettive e suriettive
Definizione 1.15
1. f è iniettiva, se presi a1 , a2 ∈ A tali che f (a1 ) = f (a2 ) allora a1 = a2 .
2. f è suriettiva se per ogni b ∈ B , esiste a ∈ A tale che b = f (a) .
3. f è biettiva se è sia iniettiva che suriettiva.
Esempio 1.15
La funzione f : Z → Z tale che f (a) = 2a è iniettiva ma non suriettiva.
Cambiando il dominio e ponendo f : R → R , la stessa funzione è
anche suriettiva.
1.4 Operazioni
1.4.1 Definizione ed esempi
Definizione 1.16
Sia A un insieme, un’operazione ∗ è una funzione : A × A → A .
Esempio 1.16
La somma + : N × N → N è un’operazione. La differenza sugli interi non è un’operazione, e non lo è nemmeno la divisione sugli interi o sui reali. L’unione,
l’intersezione e la differenza simmetrica su P sono operazioni.
Definizione 1.17
L’operazione ∗ si dice associativa se per ogni a, b, c ∈ A ,
(a ∗ b) ∗ c = a ∗ (b ∗ c)
mentre si dice commutativa se
a ∗ b = b ∗ a, ∀a, b ∈ A.
Esempio 1.17
Non tutte le operazioni sono associative, ad esempio ∗ : N × N → N tale che
(a, b) 7→ ab non è commutativa, infatti per a = 2, b = 3 , si ha
23 = 8, ̸= 32 = 9.
Capitolo 1. Concetti introduttivi
12 / 258
Definizione 1.18
Un elemento e ∈ A si dice un elemento neutro di ∗ se,
e ∗ a = a ∗ e = a, ∀a ∈ A.
Esempio 1.18
Sia A = P , allora l’intersezione ha elemento neutro B e l’unione ha elemento
neutro ∅ . Per l’operazione differenza simmetrica, se A = P e E è l’elemento
neutro, si deve avere
EδC = C∀C ∈ P,
allora l’elemento neutro è l’insieme vuoto.
Esempio 1.19
Sia ∗ : N × N → N tale che (a, b) 7→ ab . Allora cerco se esiste e tale che
e ∗ a = a ∗ e∀a ∈ N.
ea = ae = a, ∀a
ae = a∀a −→ e = 1
ma 1a = a non è sempre verificata, quindi non esiste elemento neutro.
1.4.2 Composizione di funzioni
Definizione 1.19
Siano f : A → B e g : B → C funzioni. Allora si può costruire la funzione
g ◦ f : A → C tale che
g ◦ f (a) = g(f (a))
Esempio 1.20
Data f = x2 e g = x + 1 , si ha
g ◦ f = x2 + 1.
f ◦ g = (x + 1)2
Esercizio 1.5
Dimostrare che
Capitolo 1. Concetti introduttivi
13 / 258
1. date due funzioni f, g iniettive, allora g ◦ f è iniettiva.
2. f, g suriettive implica g ◦ f suriettiva.
3. g, f biettive implica g ◦ f biettiva.
Soluzione:
1. g ◦ f è iniettiva se e solo se, dati x1 , x2 ∈ X , segue che
g ◦ f (x1 ) = g ◦ f (x2 )
se e solo se x1 = x2 .Siccome g è iniettiva, g(f (x1 )) = g(f (x2 )) se e solo se
f (x1 ) = f (x2 ) , ma siccome anche f è iniettiva, f (x1 ) = f (x2 ) se e solo se
x1 = x2 , quindi si ottiene che g(f (x1 )) = g(f (x2 )) se e solo se x1 = x2 ,
cioè la composizione di funzioni iniettive è iniettiva.
2. g ◦ f è suriettiva se e solo se per ogni x ∈ X esiste c tale che g ◦ f (c) = x .
Siccome g è suriettiva, per ogni x ∈ X esiste d ∈ X tale che g(d) = x . Ma
siccome anche f è suriettiva, per ogni d ∈ X esiste c ∈ X tale che f (e) = d
, quindi sostituendo d con f (c) ottengo che g(f (c)) = x , e quindi g ◦ f è
suriettiva.
3. Il fatto che la composizione di funzioni biunivoche è biunivoca segue dai
punti precedenti.
cvd
1.4.3 Insiemi di funzioni
Definizione 1.20
Sia X un insieme, con X X si denota l’insieme di tutte le funzioni f : X → X .
Se X = {1} , ho un’unica funzione. Se X = {1, 2} , X X ha 4 elementi:
1. f t.c. f (1) = 1, f (2) = 1
2. f t.c. f (1) = 1, f (2) = 2
3. f t.c. f (1) = 2, f (2) = 1
4. f t.c. f (1) = 2, f (2) = 2.
Se X ha tre elementi, X X ha 33 elementi.
Esempio 1.21
Non è una funzione la legge che a un elemento x ∈ R+ associa un elemento y tale
che y 2 = x .
Definizione 1.21
Capitolo 1. Concetti introduttivi
14 / 258
La composizione di funzioni è un’operazione ◦ : X X ×X X → X X tale che (f, g) 7→
f ◦g .
Sia
A = {f : N → Z}
B = {f : Z → N}
non si può definire un’operazione che prese f, g associa la composizione f ◦ g con
f ∈ A e g ∈ B , perché un’operazione dev’essere definita da A × A ad A .
Date una funzione f : A → B e g : C → B , allora f ◦ g è definita se f (A) ⊂ C .
Proposizione 1.2
La funzione identità è l’elemento neutro per la composizione.
Dimostrazione 1.1
Sia f ∈ X X , f ◦ I(x) = f (I(x)) = f (x) , allora f ◦ I = f . Analogamente
I ◦ f (x) = I(f (x)) = f (x)
quindi I ◦ f = f . cvd
Esercizio 1.6
Dimostrare che I è l’unico elemento neutro per la composizione. Soluzione: Supponiamo che esistano due elementi neutri, I1 e I2 , allora siccome I2 è un elemento
neutro, per ogni f si ha f ◦ I2 = f , allora per f = I1 si deve avere I1 ◦ I2 = I1
. Tuttavia anche I1 è un elemento neutro, quindi I1 ◦ f = f per ogni f , quindi
per f = I2 si deve avere I1 ◦ I2 = I2 . Allora ho ottenuto:
I1 ◦ I2 = I1 = I2
allora I1 = I2 e l’elemento neutro è unico. cvd
Proposizione 1.3
La composizione di funzioni ◦ è associativa.
Dimostrazione 1.2
Considero f, g, h ∈ X X , e confronto
f ◦ (g ◦ h)
(f ◦ g) ◦ h
Sia x ∈ X , allora
Capitolo 1. Concetti introduttivi
15 / 258
f ◦ (g ◦ h)(x) = f (g ◦ h(x)) = f (g(h(x)))
(f ◦ g) ◦ h(x) = (f ◦ g)(h(x)) = f (g(h(x)))
allora vale la proprietà associativa.
cvd
Proposizione 1.4
Se X ha almeno 2 elementi, allora ◦ : X X × X X → X X non è commutativa.
Dimostrazione 1.3
Basta trovare due funzioni f, g tali che f ◦ g ̸= g ◦ f . Siano a, b ∈ X due punti
distinti. Sia f : X × X → X tale che f (x) = a, ∀x ∈ X , e g(x) = b, ∀x ∈ X .
Allora
f ◦ g(x) = f (g(x)) = f (b) = a
g ◦ f (x) = g(f (x)) = g(a) = b
quindi la composizione non è commutativa. (in questo caso si ha anche f ◦ g = f
e g◦f =g )
cvd
1.4.4 Gruppo simmetrico
Considero funzioni in X X . Denotiamo con SX l’insieme delle funzioni : X → X
tali che f sia biettiva. Si nota che ◦ : SX × SX → SX tale che (f, g) 7→ f ◦ g è
un’operazione (ricordare che la composizione di funzioni biettive è biettiva).
Quest’operazione ha come elemento neutro sempre l’identità che è un elemento
di SX .
Esercizio 1.7
Dimostrare che l’operazione ◦ : SX × SX → SX non è commutativa se X ha
almeno tre elementi. Soluzione: Sia X = {1, 2, 3} e considero f, g ∈ SX tale che:
f (1) = 1, f (2) = 3, f (3) = 2
g(1) = 2, g(2) = 1, g(3) = 3
Allora ad esempio si ha
g ◦ f (1) = g(f (1)) = g(1) = 2
f ◦ g(1) = f (g(1)) = f (2) = 3
allora f ◦ g ̸= g ◦ f . cvd
Capitolo 1. Concetti introduttivi
16 / 258
1.4.5 Somma NIM
Dimostrazione 1.4
La somma NIM di due numeri si denota con ⊕ : N × N → N . Per fare la somma
NIM tra due numeri, devo scrivere ognuno dei due numeri come somma di potenze
di 2. Poi, per fare la somma, scrivo solo le potenze di 2 che compaiono nei due
numeri e non sono comuni a entrambi.
Esempio 1.22
Eseguo l’operazione 7 ⊕ 28 . Per scrivere un numero come somma di potenze di
2, cerco prima la massima potenza p di 2 che è contenuta nel numero, poi la
sottraggo p al numero e ripeto la stessa operazione sulla differenza ottenuta:
7 = 22 + 2 + 2 0 = 4 + 2 + 1
28 = 24 + 23 + 22 = 16 + 8 + 4
Ora eseguo la somma e riscrivo le potenze di 2 che compaiono nei due numeri e
che non sono comuni a entrambi
7 ⊕ 28 = 1 + 2 + 8 + 16 = 27
(in questo caso non riscrivo 22 = 4 )
Esempio 1.23
Eseguire la somma:
9 ⊕ 30 =
9 = 23 + 20 = 8 + 1
30 = 16 + 8 + 4 + 2 = 24 + 23 + 22 + 2
30 ⊕ 9 = 16 + 4 + 2 + 1 = 23
(non riscrivo 8 ).
La somma NIM di un numero con se stesso è sempre nulla.
La somma NIM è commutativa, associativa, ha elemento neutro.
1.4.6 Alcuni esempi
Esempio 1.24
Considero l’insieme dei punti del piano, e definisco la relazione tale che due punti
sono equivalenti se hanno la stessa ordinata. Questa relazione è di equivalenza.
Le classi di equivalenza di questa relazione sono le rette orizzontali, e l’insieme
quoziente è l’insieme di tutte le rette orizzontali.
Capitolo 1. Concetti introduttivi
17 / 258
Esempio 1.25
Sia
A = {(x, y) ∈ Z × Z t.c. 3x + 2y = 1}
B = {(1 + 2h, −1 − 3h), h ∈ Z}
Mostro che A = B :
1. B ⊂ A : considero un elemento (1 + 2h, −1 − 3h) ∈ B con h intero. Verifico
che l’elemento sta in A : 1 +2h, −1− 3h sono coordinate intere, e soddisfano
l’equazione 3x + 2y = 1 , infatti:
3(1 + 2h) + 2(−1 − 3h) = 1
3 + 6h − 2 − 6h = 1, −→ 3 − 2 = 1
e l’uguaglianza è verificata, quindi ogni elemento di B sta in A .
2. A ⊂ B : prendo (x, y) ∈ B , allora
3x + 2y = 1
2y = 1 − 3x
e siccome il membro di sinistra è pari e intero, anche 1−3x dev’essere intero
e pari, allora x dev’essere dispari, quindi x = 1 + 2h con h intero (è 1 a
cui sommo un numero pari).Sostituendo 1 + 2h nell’equazione al posto di x
ottengo
3(1 + 2h) + 2y = 1
e isolando y :
2y = −2 − 6h
y = −1 − 3h
Quindi (x, y) = (1 + 2h, −1 − 3h) ∈ B .
1.4.7 Elementi neutri e opposti
Proposizione 1.5
Sia A un insieme e ∗ : A × A → A un’operazione. Siano E, E ′ due elementi neutri
di ∗ . Allora E = E ′ .
Dimostrazione 1.5
Affinché E sia un elemento neutro, si deve avere
E ∗ x = x ∗ E = x∀x ∈ A
ma siccome anche E ′ è un elemento neutro:
Capitolo 1. Concetti introduttivi
18 / 258
E ′ ∗ x = x ∗ E ′ = x∀x ∈ A
Considerando E ∗E ′ , si ha che per il fatto che E è un elemento neutro, E ∗E ′ = E ′
, ma siccome anche E ′ è un elemento neutro, E ∗ E ′ = E , quindi E = E ′ . cvd
Definizione 1.22
Sia E l’elemento neutro di ∗ , e sia x ∈ A . Il reciproco / opposto / inverso di x
, se esiste, è un elemento x′ di A con x ∗ x′ = x′ ∗ x = E .
L’elemento neutro ha come inverso se stesso.
Esempio 1.26
Data l’operazione di unione su X = P , l’elemento neutro è l’insieme vuoto,
allora, l’opposto B ′ di B ∈ X , se esiste, dev’essere tale che B ∪ B ′ = ∅ . Allora
un elemento B ′ con questa proprietà può esistere solo se B = ∅ .
Considerando invece l’operazione di intersezione, il suo elemento neutro è l’insieme A . Allora l’opposto B ′ di B esiste solo se B ∩ B ′ = A e quindi anche in
questo caso l’unico elemento che ammette opposto è l’elemento neutro.
Esempio 1.27
Nella somma NIM definita sui naturali, con elemento neutro 0, ogni elemento x
ha come inverso se stesso.
1.4.8 Gerarchia di strutture algebriche
Definizione 1.23
La coppia (A, ∗) si dice struttura algebrica.
1. la coppia (A, ∗) è un semigruppo se ∗ è associativa.
2. (A, ∗) è un monoide se è un semigruppo, e ha elemento neutro.
3. (A, ∗) è un gruppo se è un monoide e ogni elemento ha inverso.Ad esempio,
i numeri interi con l’operazione di somma sono un gruppo. I razionali con
l’operazione di prodotto non sono un gruppo perché lo zero non ha inverso.
Invece Q ∖ 0 con l’operazione di prodotto è un gruppo. I naturali con la
somma NIM sono un gruppo.
1.4.9 L’inverso è unico?
Proposizione 1.6
Se ∗ è associativa, l’inverso, se esiste, è unico.
Dimostrazione 1.6
Capitolo 1. Concetti introduttivi
19 / 258
Sia a ∈ A , e siano a1 , a2 inversi di a . Mostriamo che a1 = a2 .
Osservo che
a ∗ a1 = E
con E elemento neutro. Moltiplicando a sinistra entrambi i membri per a2 :
a2 ∗ a ∗ a1 = a2 ∗ E
ma a2 ∗ E = a2 , e riscrivo il primo membro usando l’associatività:
(a2 ∗ a) ∗ a1 = a2
ma a2 ∗ a = E , quindi ottengo E ∗ a1 = a2 cioè a1 = a2 . cvd
1.4.10 Tavole di moltiplicazione
Sia A = {a1 , a2 , a3 , . . . , an } , e considero la tabella chiamata tavola di moltiplicazione che ha n righe (chiamate a1 , a2 , . . . , an ) e n colonne con i nomi degli
elementi di A nello stesso ordine delle righe. In ciascuna casella della griglia scrivo
l’elemento ai ∗ aj .
a1
a2
a1 a1 ∗ a1 a1 ∗ a2
a2 a2 ∗ a1 a2 ∗ a2
...
...
...
an an ∗ a1 an ∗ a2
...
an
. . . a1 ∗ a n
. . . a2 ∗ a n
...
...
. . . an ∗ an
Dalla tavola si possono dedurre alcune proprietà dell’operazione secondo le seguenti regole:
1. se l’operazione è commutativa la tabella è una matrice simmetrica.
2. se l’operazione ha un elemento neutro Ai = E , allora ogni elemento Ai,j
della riga corrispondente è ilnome della colonna j-esima, e ogni elemento
Aj,i della colonna corrispondente sarà il nome della j-esima riga.
3. Un elemento è invertibile se sulla riga che ha il nome di quell’elemento
compare una E e lo stesso vale per la colonna.
4. l’associatività non si deduce facilmente dalla tabella. Però, in generale, se
(X, ∗) è una struttura algebrica e se R è una relazione di equivalenza compatibile con ∗ , se ∗ è associativa, anche ∗R è associativa. Quindi, se riconosco
che una certa operazione è uguale a un’operazione sul quoziente, allora
l’operazione è associativa.
Esempio 1.28
Capitolo 1. Concetti introduttivi
20 / 258
Supponiamo che
E = {e, a, b}
e considero la tabella di moltiplicazione:
e a b
e e a b
a a e e
b b e e
Quest’operazione ha un elemento neutro e , e ogni elemento è invertibile, gli
elementi a e b hanno addirittura due inversi. Questo significa che l’operazione
non è associativa, e lo si dimostra facilmente:
(a ∗ b) ∗ b = e ∗ b = b
a ∗ (b ∗ b) = a ∗ e = a
e si ottengono valori diversi.
1.4.11 Anello
Definizione 1.24
Sia A un insieme con operazioni ∗ e ◦ . Allora (A, ∗, ◦) è un anello se:
1. (A, ∗) è un gruppo commutativo con elemento neutro 0.
2. (A, ◦) è un semigruppo
3. valgono le proprietà distributive:
a ◦ (b ∗ c) = (a ◦ b) ∗ (a ◦ c)
(b ∗ c) ◦ a = (b ◦ a) ∗ (c ◦ a)
Un esempio è l’insieme dei razionali con operazioni di somma e prodotto.
Definizione 1.25
L’insieme (A, ∗, ◦) è un campo se è un anello e se l’operazione ◦ ha elemento
neutro 1 e se (A ∖ 0, ◦) è un gruppo commutativo.
Ad esempio: (Q, +, ∗) è un campo.
Capitolo 1. Concetti introduttivi
21 / 258
1.4.12 Relazioni compatibili con un’operazione
Definizione 1.26
Sia (A, ∗) una struttura algebrica, una relazione R su A si dice compatibile con
∗ se dati a, b, c, d ∈ A , se a ∼ b e c ∼ d , allora
a∗c∼b∗d
Esempio 1.29
Sia A = Z , ∗ l’operazione di somma e R tale che x ∼ y se x − y è divisibile per
2. R è compatibile con la somma.
Dimostrazione 1.7
Considero a, b, c, d interi. Per ipotesi a ∼ b e c ∼ d , vogliamo dedurre che a ∗ c =
a + c è in relazione con b ∗ d = b + d .
aRb significa che a − b è divisibile per 2, c ∼ d implica che c − d è divisibile per
2. Ci chiediamo se a + c − b − d è divisibile per 2. Questo è vero perché è somma
di numeri pari a − c e b − d .
Assumiamo che R sia relazione di equivalenza. L’operazione ∗ definita su A determina senza ambiguità un’operazione nell’insieme quoziente A/R , definita in
questo modo: ∗R : A/R × A/R → A/R tale che [x]R ∗R [y]R = [x ∗ y]R . L’operazione non è definita in modo ambiguo perché prendendo due qualsiasi elementi
nelle classi di equivalenza [x]R e [y]R il risultato è sempre lo stesso.
Esempio 1.30
Con R come prima ( x ∼ y se x − y è pari), Z/R consiste delle due classi di
equivalenza: [0]R (i numeri pari) e [1]R (numeri dispari). Per eseguire la somma
[0]R + [0]R si ha [0 + 0]R = [0]R . Scegliendo altri due elementi nella classe di [0]R
, ad esempio 28, −32 , si ha
[0]R + [0]R = [28]R + [−32]R = [28 − 32]R = [−4]R = [0]R
Scrivendo la tavola della somma di questo insieme quoziente si ha:
1.5 Principio di induzione
Assioma (Assioma del buon ordinamento):
Sia S ⊂ N , con 0 ∈ S , e tale che se s ∈ S , allora anche s + 1 ∈ S . Allora s = N
.
Assioma (Principio di induzione):
Sia Pn una proposizione che abbia senso enunciare per ogni n ∈ N con n ≥ n0
dove n0 è un fissato intero. Per ogni n ≥ n0 , supponendo che Pn sia vera, si
Capitolo 1. Concetti introduttivi
22 / 258
dimostra Pn+1 . Allora Pn è vera per ogni n .
Esempio 1.31
Sia X un insieme finito, allora il numero di elementi delle parti di X è esattamente
2|X| .
Dim. Se |X| = 0 , allora X = ∅ , P = {∅} ha 1 = 20 elementi.
Supponiamo il risultato vero per insiemi di cardinalità n e lo dimostriamo per un
insieme X di cardinalità n + 1 .
Sia x ∈ X , allora divido P in due blocchi: il blocco dei sottoinsiemi di X che
contengono x (che chiamo B1 ) e il blocco di quelli che non contengono x . Questi
due sottoinsiemi sono disgiunti, allora |P| = |B1 | + |B2 | . Gli elementi di B2 sono
tutti e soli i sottoinsiemi di X ∖ x , e siccome X ∖ x ha n elementi, per l’ipotesi
induttiva P = 2|X∖x| = 2n . Gli insiemi di B1 sono i complementari di quelli di
B2 , e siccome c’è una corrispondenza biunivoca che associa un insieme al suo
complementare, anche B1 ha 2n elementi, quindi
|P| = 2n + 2n = 2 ∗ 2n = 2n+1 = 2|X|
Capitolo 2. Lo spazio R2
23 / 258
Capitolo 2
Lo spazio R2
2.1 Proprietà generali dello spazio Rn
Gli elementi di RN sono vettori applicati nell’origine della forma (x1 , x2 , . . . , xn )
con xi ∈ R per i = 1, . . . , n e si possono scrivere come vettori colonna, ovvero
come una stringa verticale.
Definizione 2.1
Se x = (x1 , . . . , xn ) è un elemento di Rn , xj si dice la j -esima componente di x
rispetto alla base standard.
2.2 operazioni in Rn
2.2.1 somma
Definizione 2.2
Su RN l’operazione somma e’ un’applicazione che ha come dominio il prodotto
cartesiano di RN per se’ stesso e come codominio RN .
L’operazione somma prende due vettori X = (x1 , . . . , xn ) e Y = (y1 , . . . , yn ) .
L’immagine mediante l’applicazione della coppia (X, Y ) e’ (x1 , . . . , xn )+(y1 , . . . , yn )
, e’ il vetore di RN che ottengo sommando componente per componente: (x1 +
y1 , . . . , xn + yn ) .
Esempio 2.1
Considerato (1, 3) e (0, −4) vettori in R2 , la somma e’ (1, −1) .
Proposizione 2.1
La somma e’ un’operazione associativa: per ogni scelta di tre vettori X, Y, Z allora
X + (Y + Z) = (X + Y ) + Z
Dimostrazione 2.1
Capitolo 2. Lo spazio R2
24 / 258
Questo vale perche’ se considero tre vettori X = (x1 , . . . , xn ) e Y = (y1 , . . . , yn )
e Z = (z1 , . . . , zn ) , allora
X + (Y + Z) = (x1 , . . . , xn ) + [(y1 , . . . , yn ) + (z1 , . . . , zn )] =
(x1 , . . . , xn ) + (y1 + z1 , . . . , yn + zn ) =
(x1 + y1 + z1 , . . . , xn + yn + zn ) =
e per l’associatività dei numeri reali
(x1 + y1 , . . . , xn + yn ) + (z1 , . . . , zn ) =
(X + Y ) + Z
cvd
Proposizione 2.2
Si verifica allo stesso modo che la somma di vettori e’ un’operazione commutativa.
∀X, Y ∈ RN , X + Y = Y + X
Uso la corrispondente
(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )
ma per la commutatività in R :
(y1 + x1 , . . . , yn + xn )
(y1 , . . . , yn ) + (x1 , . . . , xn ) = Y + X
Proposizione 2.3
N tale che ∀x ∈ RN , segue che x + 0
Esiste un vettore nullo 0N
RN = x =
R ∈ R
0RN + x . Il vettore nullo ha tutte le componenti uguali a 0.
Teorema 2.1
l’elemento nullo è unico.
Dimostrazione 2.2
Sia 0′ ∈ Rn un elemento con le stesse proprietà dell’elemento neutro, allora, per
le proprietà di 0 , 0 + 0′ = 0′ , ma per le proprietà di 0′ , 0′ + 0 = 0 , quindi 0 = 0′
e l’elemento neutro è unico. cvd
Proposizione 2.4
Capitolo 2. Lo spazio R2
25 / 258
∀XinRN , esiste un vettore x′ ∈ RN tale che x + x′ = 0RN . In particolare, se
x = (x1 , . . . , xn ) , allora x′ = (−x1 , . . . , −xn ) .
Teorema 2.2
l’opposto di un elemento è unico.
Dimostrazione 2.3
Sia x′′ ∈ RN un elemento che gode della stessa proprieta’ di x′ , cioè x + x′′ = 0
. Usando la proprieta’ associativa si ha
x′′ = x′′ + (x + x′ ) = (x′′ + x) + x′
e siccome anche x′′ soddisfa la proprietà il secondo membro è uguale a 0 + x′
quindi eguagliando primo e ultimo membro si ha x′ = x′′ . cvd
2.2.2 prodotto scalare per vettore
Il prodotto scalare per vettore definito su R×RN ha come codominio RN . Prende
una coppia (λ, x) dove λ e’ uno scalare in R , λ ∗ (x1 , xn ) e’ il prodotto di λ per
ogni componente.
λ ∗ (x1 , x2 , . . . , xn ) = (λx1 , λx2 , . . . , λxn )
Esempio 2.2
5 · (1, 2) = (5, 10)
Proposizione 2.5
Il prodotto scalare per vettore gode della proprieta’ distributiva rispetto alla
somma di vettori. Per ogni scelta di λ e di X, Y ∈ Rn , allora λ ∗ (X + Y ) =
λ∗X +λ∗Y
Dimostrazione 2.4
Se X = (x1 , . . . , xn ) e Y = (y1 , . . . , yn ) , segue che
λ + λ = (λ, . . . , λ)
Uso la proprieta’ distributiva di R .
= (λ ∗ x1 + λ ∗ y1 , . . . , λ ∗ xn + λ ∗ yn )
Per la definizione di somma di vettori,
(λ ∗ x1 , . . . , λ ∗ xn ) + (λ ∗ y1 , . . . , λ ∗ yn )
Capitolo 2. Lo spazio R2
26 / 258
λ+λ=λ+λ
cvd
Esercizio 2.1
Dimostrare la distributivita’ rispetto alla somma di scalari, cioe’
∀λ, η ∈ R, ∀X ∈ RN , (λ + η) ∗ X = λ ∗ X + η ∗ X.
Soluzione: Sia X = (x1 , x2 , . . . , xn ) . Allora
(λ + η)(x1 , x2 , . . . , xn ) =
(λ + η)x1 + (λ + η)x2 + · · · + (λ + η)xn ) =
λ ∗ x1 + λ ∗ x2 + · · · + λ ∗ xn + η ∗ x1 + η ∗ x2 + · · · + η ∗ xn =
λ + η(x1 + x2 + · · · + xn )
λ∗X +η∗Y
Esercizio 2.2
dimostrare la forma di associativita’ per ogni scelta di scalari λ e η e per ogni
scelta di X in RN , allora (λ ∗ η) ∗ X = (η ∗ x) ∗ λ
Soluzione:
(η ∗ X) ∗ λ = [(x1 , x2 , xn ) ∗ η] ∗ λ
[(x1 ∗ η, x2 ∗ η, xn ∗ η)∗] ∗ λ
applico la definizione di prodotto scalare.
(x1 ∗ η ∗ λ, x2 ∗ η ∗ λ, xn ∗ η) ∗ λ =
η ∗ λ ∗ (x1 , x2 , x3 ) = (η, λ) ∗ X
Proposizione 2.6
Per ogni x ∈ RN , 1 ∗ x = x
2.3 L’insieme R2
2.3.1 Vettori linearmente dipendenti
Definizione 2.3
Capitolo 2. Lo spazio R2
27 / 258
Siano v1 = (x1 , y1 ) , v2 = (x2 , y2 ) , elementi in R2 , allora v1 e v2 sono linearmente
indipendenti se nessuno dei due e’ un multiplo scalare dell’altro. Non esiste un
λt.c.X = λ∗Y . In caso contrario diremo che v1 e v2 sono linearmente dipendenti.
Osservazione 2.1
Se v1 e v2 sono linearmente indipendenti, allora v1 ̸= 0 e v2 ̸= 0 .
Dimostrazione 2.5
Se fosse v1 = 0 , avremmo v1 = 0 ∗ v2 , cioè λ = 0 .
Esercizio 2.3
Dimostrare che v1 e v2 sono linearmente indipendenti se e solo se v1 ̸= 0R2 e v2
non e’ multiplo scalare di v1 , cioè dimostrare che non esiste λ numero reale tale
che v2 = λv1 .
Soluzione: Se per assurdo v1 = 0 , allora per λ = 0 , 0 ∗ v2 = v1 quindi i vettori
sono linearmente dipendenti.
Se per assurdo v2 e’ multiplo scalare di v1 , allora esisterebbe λt.c.v1 = λ ∗ v2 ,
quindi i vettori sarebbero linearmente dipendenti.
Esempio 2.3
v1 = (1, 0) e v2 = (0, 1) sono linearmente indipendenti. v1 = (1, 0) e v3 = (x, y)
sono linearmente dipendenti se e solo se y = 0 , infatti (x, 0) = x ∗ (1, 0) quindi
λ = x soddisfa la definizione di vettori linearmente dipendenti.
2.3.2 criterio numerico
Questo Criterio numerico permette di stabilire se due vettori in R2 sono linearmente dipendenti
Lemma 2.1
Se ho due vettori (a, b) e (c, d) appartenenti a R2 , essi sono linearmente dipendenti
se e solo se ad − bc = 0
Dimostrazione 2.6
1 −→ 2 : Se i due vettori sono linearmente dipendenti, allora (c, d) e’ multiplo
scalare di (a, b) e quindi (c, d) = λ(a, b) per qualche λ ∈ R , e si ha
c = λ ∗ a; d = λ ∗ b
Allora
ad − bc = a ∗ b ∗ λ − a ∗ b ∗ λ = 0.
Capitolo 2. Lo spazio R2
28 / 258
2 −→ 1 : Supponiamo viceversa che ad − bc sia uguale a 0 Se (a, b) e’ il vetore
nullo, i vettori sono linearmente indipendenti. Supponiamo (a, b) ̸= 0 allora a ̸= 0
o b ̸= 0 .
Nel caso a ̸= 0 , allora
ad − bc = 0 −→ ad = bc
e posso dividere l’ultima uguaglianza per a :
d = (bc)/a
c = c/a ∗ aidentita’
d = c/a ∗ b
Allora (a, b) = c/a(a, b) , quindi il secondo vettore e’ un multiplo scalare del
primo con λ = c/a .
cvd
Esercizio 2.4
trovare un’equazione cartesiana per il luogo L di tutti i vettori della
forma (x, 2x) al variare di x in R .
L è il luogo di tutti i multipli scalari di v = (1, 2) . E’ la retta che congiunge
l’origine con (1, 2) . In altre parole L è l’insieme di tutti i vettori (x, y) in R2 tali
che (x, y) e (1, 2) sono linearmente dipendenti. Allora deve valere
ad − bc = 0, −→ y − 2x = 0 −→ y = 2x
2.3.3 Retta e parametrizzazioni
Definizione 2.4
Siano p0 (a, b) un punto nel piano e sia v(v1 , v2 ) un vettore con v ̸= 0 . Allora
la retta con punto di passaggio p0 e vettore direzione v e’ il luogo di R2 definito
{p0 + t ∗ v} al variare di t numero reale.
L = {a, b + t ∗ (v1 , v2 ), t ∈ R}
L = {x ∈ R2 : x = (a + tv1 , b + tv2 )}
Quindi una retta e’ un sottoinsieme di R2 .
L’applicazione γ : R → R2 definita da γ = p0 + tv si dice una parametrizzazione
della retta L e ha come immagine L .
Osservazione 2.2
La parametrizzazione determina L ma non viceversa. Considero ad esempio le
parametrizzazioni γ = {P0 + tv} e γ ′ = {P1 + sw} con w = 1/3v e p1 = p0 + 2v
Capitolo 2. Lo spazio R2
29 / 258
(nella seconda parametrizzazione cambio punto di passaggio e sostituisco il vettore
direzione con una lunghezza pari a un terzo del vettore di partenza). Considerata
la parametrizzazione della seconda retta γ ′ si ha
γ ′ (s) = p1 + sw
e sostituendo le espressioni di p1 e di w :
γ ′ (s) = p0 + 2v + s(1/3)v = p0 + (2 + s/3) ∗ v
e i punti che ottengo con γ e γ ′ , cioè la retta immagine L , è la stessa, anche se
le parametrizzazioni sono diverse.
In generale, se prendo un qualsiasi punto p0 in Rn e un vettore v ∈ Rn con v ̸= 0Rn
la retta in Rn passante per p0 con vettore direzione v e’ sempre definita in modo
analogo:
L = {p0 + t ∗ v : t ∈ R}
con parametrizzazione
γ : R → Rn , t.c. γ = p0 + tv
In conclusione, una parametrizzazione definisce in modo univoco una retta, perche’ la retta e’ l’immagine di una funzione. La stessa retta però puo’ essere definita
con tante parametrizzazioni diverse.
Esercizio 2.5
Siano p0 , p1 punti di Rn e v, w vettori in Rn diversi da 0. Siano γ, η le funzioni
da R in Rn date da γ = p0 + t ∗ v e η(t) = p1 + t ∗ w . Dimostrare che queste
parametrizzazioni determinano la stessa retta in RN , ossia γ = η(R) se e solo se
valgono le seguenti condizioni:
• p0 − p1 e’ un multiplo scalare di v ;
• w e’ un multiplo scalare di v .
Se p0 −p1 e’ un multiplo scalare di v , allora p0 −p1 = λv con λ ∈ R e p1 +λv = p0
Se w e’ multiplo scalare di v , allora w = µv per un certo µ ∈ R . Sostituisco
nella parametrizzazione η le espressioni di w e p1 :
η(t) = p1 + tw = p0 − λv + tµv = p1 + (tµ − λ)v
e la parametrizzazione η definisce la stessa retta definita da γ , perché entrambe
hanno lo stesso punto di passaggio e lo stesso vettore direzione.
Capitolo 2. Lo spazio R2
30 / 258
2.3.4 equazioni cartesiane
Definizione 2.5
Dare equazioni cartesiane per una retta L in Rn significa esprimere L come il
luogo delle soluzioni di un sistema lineare in n incognite (x1 , . . . , xn ) . Nessuna
equazione dev’essere combinazione lineare delle altre.
Per definire una retta in Rn bastano n − 1 equazioni.
Esempio 2.4
sia r la retta con punto di passaggio P (1, 2) e vettore direzione (−1, 3) . La sua
parametrizzazione e’:
γ = {(1, 2) + t(−1, 3), t ∈ R}.
Un punto (x, y) in R2 appartiene a r se e solo se esiste un t0 numero reale tale
che (x, y) = (1, 2) + t0 ∗ (−1, 3) , cioè
∃t0 ∈ R t.c. (x, y) − (1, 2) = (x − 1, y − 2) = t0 ∗ (−1, 3)
cioè (x, y) appartiene alla retta se i vettori (a, b) = (−1, 3) e (c, d) = (x − 1, y − 2)
sono linearmente dipendenti. Quindi applico il criterio secondo cui due vettori
colonna (a, b), (c, d) sono linearmente dipendenti se ad − bc = 0 .
ad − bc = (−1)(y − 2) − (x − 1) ∗ 3 = 0
−y + 2 − 3x + 3 = 0
−3x − y + 5 = 0
e tutti i punti (x, y) che appartengono alla retta devono soddisfare quest’equazione.
Regola generale: a questo punto ho ottenuto un sistema non omogeneo (il termine
noto e’ diverso da 0). Il vettore direzione della retta di partenza deve soddisfare il
corrispondente sistema lineare omogeneo 3x+y = 0 , mentre il punto di passaggio
deve soddisfare l’equazione lineare non omogenea.
2.3.5 Retta per due punti
Per due punti passa una e una sola retta, che ha come punto di passaggio p1 e
come vettore direzione p2 − p1 ed è quindi univocamente determinata.
Esercizio 2.6
Trovare parametrizzazione e equazione cartesiana per la retta L in R2 congiungente i punti P1 (−1, 4) e p2 (1, 2) .
Prendo uno qualsiasi dei due punti come punto di passaggio. il vettore direzione
e’ la differenza tra p1 e p2 .
Capitolo 2. Lo spazio R2
31 / 258
v = (1, 2) − (−1, 4) = (1, 2) + (1, −4) = (2, −2) = 2 ∗ (1, −1)
Posso considerare v = (1, −1) perché moltiplicando un vettore per uno scalare la
direzione rimane la stessa.
La retta si parametrizza come L = {(−1, 4) + t ∗ (1, −1)} al variare di t in R .
L = {(−1 + t, 4 − t), t ∈ R}
Per trovare le equazioni cartesiane osservo che (x, y) ∈ L se e solo se il vettore
direzione della retta e la differenza fra le coordinate (x, y) e quelle del punto di
passaggio sono linearmente dipendenti.
(1, −1) e (x + 1, y − 4) sono linearmente dipendenti se e solo se:
ad − bc = y − 4 + x + 1 = 0
x + y + 3 = 0,
equazione cartesiana
Il punto di passaggio e il vettore soddisfano la condizione indicata prima.
Dati due vettori distinti p0 e p1 , la parametrizzazione γ = p0 + t ∗ (p1 − p0 ) ,
determina una retta. Inoltre per t = 0 γ = p0 e per t = 1 ottengo γ = p0 + 1(p1 −
p0 ) = p1 .
Viceversa, sia data un’equazione lineare in x e y , della forma ax + by = c , con
a, b, c numeri reali e a e b non entrambi nulli. Allora sia L l’insieme dei punti
(x, y) che soddisfano l’equazione.
Sia per esempio a ̸= 0 . Allora (x, y) ∈ L se e solo se ax + by = c = 0 e se e solo
se x = (c − by) ∗ 1/a . Allora
L = {P = (1/a ∗ (−by + c), y), a ∈ R}.
Dato y , x e’ univocamente determinato. Allora L = {P = (c/a − b/a ∗ y, y)} al
variare di y ∈ R .
L = {(c/a, 0) + y ∗ (−b/a, 1), y ∈ R.
Il secondo vettore e’ diverso da 0.
La retta ha punto di passaggio (c/a, 0) e vettore direzione (−b/a, 1) .
Esempio 2.5
Sia L il luogo dei punti
{(x, y) ∈ R2 , t.c. x − 3y = 4}.
L = {(3y + 4, y), y ∈ R}
L = {(4, 0) + y(3, 1), y ∈ R}
questa e’ la retta parametrizzata con punto di passaggio P (4, 0) e vettore direzione
(3, 1) .
Capitolo 2. Lo spazio R2
32 / 258
2.3.6 Coordinate
A livello notazionale, indico con |(a, b), (c, d)| la quantità ad−bc , dove (a, b), (v, f )
cono vettori colonna. Siano A = (a1 , a2 ) e B = (b1 , b2 ) vettori colonna in R2
linearmente indipendenti, allora per il criterio numerico:
|(a1 , a2 ), (b1 , b2 )| = a1 b2 − a2 b1 ̸= 0
Prendo un qualsiasi vettore (x, y) ∈ R2 . Definiamo
α = |(x, y); (b1 , b2 )| = b2 ∗ x − a2 ∗ y ̸= 0
β = |(a1 , a2 ), (x, y)| = a1 ∗ y − a2 ∗ x
(x, y) = α ∗ A + β ∗ B
Calcolo il quoziente
α/(a1 ∗ b2 − a2 ∗ b1 ) ∗ (a1 , a2 ) + β/(a1 ∗ b2 − a2 ∗ b1 ) ∗ (b1 , b2 )
x ∗ b2 − y ∗ b1
a1 ∗ y − a2 ∗ x
∗ (a1 , a2 ) +
∗ (b1 , b2 )
(a1 ∗ b2 − a2 ∗ b1 )
(a1 ∗ b2 − a2 ∗ b1 )
(a1 ∗ x ∗ b2 − a1 ∗ y ∗ b1 , a2 ∗ x ∗ b2 − a2 ∗ y ∗ b1 ) + (b1 ∗ a1 ∗ y − b1 ∗ a2 ∗ x, b2 ∗ a1 ∗ y − b2 ∗ a2 ∗ x)
=
(a1 ∗ b2 − a2 ∗ b1 )
x[a1 ∗ b2 + a2 ∗ b2 − b1 ∗ a2 − b2 ∗ a2 ], y[−a1 ∗ b1 − a2 ∗ b1 + b1 ∗ a1 + b2 ∗ a1 ]
(a1 ∗ b2 − a2 ∗ b1 )
(
x[a1 ∗ b2 − b1 ∗ a2 ] y[−a2 ∗ b1 + b2 ∗ a1 ]
,
)=
a1 b2 − a2 b1
(a1 ∗ b2 − a2 ∗ b1 )
Semplificando numeratore e denominatore rimane
= (x, y)
In conclusione, abbiamo dimostrato che se A e B in R2 sono linearmente indipendenti, allora per ogni scelta di (x, y) in R2 esistono numeri reali α e β tali che
(x, y) = α ∗ A + β ∗ B , con:
α=
|(x, y), (a1 , b2 )|
|(a1 , a2 ), (b1 , b2 )|
β=
|(b1 , a2 ), (x, y)|
|(a1 , a2 ), (b1 , b2 )|
Lemma 2.2
Se A e B in R2 sono linearmente indipendenti, allora per ogni scelta di un vettore
colonna (x, y) in R2 esistono e sono unici scalari in R tali che (x, y) = r ∗ A + s ∗ B
.
Capitolo 2. Lo spazio R2
33 / 258
Dimostrazione 2.7
Per dimostrare l’unicità, siano r, s e r′ , s′ in R due coppie di vettori con la stessa
proprieta’. Allora
(x, y) = r′ ∗ A + s′ ∗ B = r ∗ A + s ∗ B.
allora eguagliando i coefficienti che moltiplicano A e B nelle due scritture di (x, y)
si ha necessariamente r = r′ e s = s′ .
cvd
Osservazione 2.3
se ho un qualsiasi vettore v in RN e uno scalare λ diverso da 0, allora
per associatività:
λ ∗ v ∗ 1/λ = v.
2.3.7 Basi di R2
Definizione 2.6
una base B di R2 e’ una coppia ordinata (A, B) di elementi di R2 linearmente
indipendenti (e’ un elemento del prodotto cartesiano R2 × R2 ).
In particolare, se A e B sono linearmente indipendenti, le coppie ordinate (A, B)
e (B, A) sono basi distinte di R2 . L’ordine e’ cruciale.
Sia B = (A, B) una base: allora per ogni (x, y) ∈ R2 esistono e sono unici r, s in
R tali che /x, y) = r ∗ A + s ∗ B .
Definizione 2.7
Diremo che il vettore colonna (r, s) in R2 e’ il vettore delle coordinate di (x, y)
nella base B e lo indicheremo con B .
Esempio 2.6
C2 e’ la coppia ordinata dei due vettori colonna (1, 0) e (0, 1) linearmente indipendenti. E’ definita base canonica o standard di R2 . Allora preso un qualsiasi (x, y)
in R2 , vale che (x, y) = (x, 0) + (0, y) , ma (x, 0) = x(1, 0) , e (0, y) = y(0, 1) ,
quindi
(x, y) = x ∗ (1, 0) + y ∗ (0, 1)
allora le coordinate di (x, y) ∈ C2 coincidono con il vettore stesso (x, y) .
Definita la base B data dai stessi vettori di C2 nell’ordine inverso, ottengo (x, y) =
y(0, 1) + x(1, 0) , e il vettore colonna delle coordinate nella base B è (y, x) .
Capitolo 2. Lo spazio R2
34 / 258
Esempio 2.7
Preso C = {(2, 0), (1, −1)} , cerco r e s tali che (x, y = r(2, 0) + s(1, −1) .
Sommando le componenti ottengo:
(x, y = (2r + s, −s)
Ottengo quindi: Le coordinate del vettore colonna (x, y) sono, per ogni scelta di
(x, y) ∈ R2 , MB (x, y) = ((x + y)/2, −y) .
In generale, se A e B sono linearmente indipendenti: e considero la base B =
{(a1 , a2 ), (b1 , b2 )} , allora per ogni (x, y) in R2 il vettore delle coordinate di (x, y)
nella base B è dato da:
x ∗ b2 − y ∗ b1
a1 b2 − a2 b1
a1 y − a2 x
s=
a1 b2 − a2 b1
r=
Esempio 2.8
Stabilire se B = {(1, 3), (1, 2)} e’ una base e in caso affermativo trovare
MB (x, y) per ogni (x, y) in R2 . Verifico che i vettori dati siano linearmente
indipendenti:
|(1, 3), (1, 2)| ̸= 0
1 ∗ 2 − 3 ∗ 1 = −1, ̸= 0
Allora B e’ una base di R2 .
Per ogni vettore (x, y) allora determino r, s tali che MB = (r, s) .
Applico la formula, tengo conto del fatto che a1 ∗ b2 − a2 ∗ b1 = −1 come calcolato
prima:
r = 1/(−1) ∗ |(x, y), (1, 2)| = −(2x − y) = −2x + y
s = 1/(−1) ∗ |(1, 3), (x, y)| = −(y − 3x) = −y + 3x
Risolvo quindi il sistema Le coordinate del vettore delle coordinate sono (−2x +
y, 3x − y) .
Verifica conclusiva: Verifico se A ∗ r + B ∗ s = (x, y) .
(−2x + y) ∗ (1, 3) + (3x − y)(1, 2) =
(−2x + y + 3x − y, −6x + 3y + 6x − 2y) = (x, y)
Ottengo proprio il vettore colonna (x, y) .
Capitolo 3. Lo spazio R3
35 / 258
Capitolo 3
Lo spazio R3
3.1 Lo spazio R3
Definizione 3.1
R3 e’ l’insieme dei vettori colonna (x, y, z) al variare di x, y, z ∈ R .
3.1.1 Prodotto vettoriale in R 3
Considero il prodotto vettoriale definito su R3 × R3 a valori in R3 , che porta
una coppia di vettori (A, B) nel vettore A × B (oppure A ∗ B ) definito come
segue: dati A = (a1 , a2 , a3 ) e B = (b1 , b2 , b3 ) il prodotto ha componenti (c1 , c2 , c3 )
definite come
c1 = |(a2 , a3 ), (b2 , b3 )| = a2 b3 − a3 b2
c2 = −|(a1 , a3 ), (b1 , b3 )| = −(a1 b3 − a3 b1 ) = a3 b1 − a1 b3
C3 = |(a1 , a2 ), (b1 , b2 )| = a1 b2 − a2 b1
A ∗ B si dice il prodotto vettore di A e B .
Osservazione 3.1
Se faccio il prodotto vettore di un qualsiasi vettore per se stesso, ottengo il vettore
nullo per ogni scelta di A in R3 . Inoltre A ∗ B = −B ∗ A per ogni A e B in R3 .
E’ un’operazione anticommutativa.
Osservazione 3.2
Il prodotto vettore non e’ associativo, infatti, prendo ad esempio i vettori A(0, 0, 1)
, B(0, 1, 0) , C(0, 0, 1) . e non è vero che
A ∗ (B ∗ C) = (A ∗ C) ∗ B.
Infatti A ∗ C = 0 (e’ un prodotto moltiplicato per se stesso)
Capitolo 3. Lo spazio R3
36 / 258
B ∗ (A ∗ C) = B ∗ 0 = (0, 1, 0)(0, 0, 0) = 0
Invece
B ∗ C = (1, 0, 0)
A ∗ (B ∗ C) = A ∗ (1, 0, 0) = (0, −1, 0) ̸= 0
(A ∗ C) ∗ B ̸= A ∗ (B ∗ C)
Ho trovato un controesempio, l’operazione non e’ associativa.
Osservazione 3.3
Per ogni scalare λ in R e per ogni scelta di vettori A e B in R3 , segue che
(λ ∗ A) ∗ B = λ ∗ (A ∗ B) = A ∗ (λ ∗ B).
3.2 La retta in R3
3.2.1 vettori linearmente dipendenti
Vale la seguente caratterizzazione analoga a quella presente in R2 : Siano A e B
in R3 , allora A e B sono linearmente dipendenti se e solo se il prodotto vettore
di A e B e’ uguale a 0.
Dimostrazione 3.1
1 −→ 2 : Suppongo che un vettore sia multiplo scalare dell’altro. Sia per esempio
A = λ ∗ B per qualche λ ∈ R , allora
A ∗ B = (λ ∗ B) ∗ B = λ ∗ (B ∗ B) = λ ∗ 0 = 0
2 −→ 1 : Viceversa supponiamo che il prodotto vettore A ∗ B sia uguale a 0,
e devo dimostrare che i vettori sono dipendenti. se A = 0 , non c’e’ niente da
dimostrare. Sia A ̸= 0 . Per esempio sia a1 ̸= 0 .
A ∗ B = 0 implica che tutte le componenti del prodotto vettoriale sono nulle,
quindi, in particolare
a1 b3 − a3 b1 = 0
e
a1 b2 − a2 b1 = 0.
se a1 e’ diverso da 0, allora dividendo per a1 ricavo:
Capitolo 3. Lo spazio R3
37 / 258
b3 = b1 /a1 ∗ a3 .
b2 = b1 /a1 ∗ a2
Allora confronto
b = (b1 , b2 , b3 ) = (b1 /a1 ∗ a1 , b1 /a1 ∗ a2 , b1 /a1 ∗ a3 )
= b1 /a1 (a1 , a2 , a3 ) = b1 /a1 ∗ A
Allora i vettori sono linearmente dipendenti con λ = b1 /a1 .
cvd
3.2.2 Definizione ed esempi sulla retta
Definizione 3.2
Se ho un punto p0 = (x0 , y0 , z0 ) in R3 e e v = (v1 , v2 , v3 ) in R3 , con v ̸= 0 ,
definisco la retta r con punto di passaggio p0 e vettore direzione v come
L = {p0 + t ∗ v, t ∈ R}
Trovare equazioni cartesiane per r , significa esprimere r come il luogo delle
soluzioni di un sistema lineare in x, y, z .
Allora (x, y, z) appartiene a r per definizione se e solo se esiste un t0 numero reale
tale che
(x, y, z) = (x0 , y0 , z0 ) + t(v1 , v2 , v3 )
e quindi se e solo se
(x, y, z) − (x0 , y0 , z0 ) = t0 (v1 , v2 , v3 )
per qualche t0 numero reale. Alloora (v1 , v2 , v3 ) e (x − x0 , y − y0 , z − z0 ) devono
essere linearmente dipendenti.
Allora il prodotto vettore di (v1 , v2 , v3 ) e (x − x0 , y − y0 , z − z0 ) deve dare il
vettore nullo.
Quindi r e’ il luogo delle soluzioni delle seguenti equazioni (pongo le componenti
del prodotto vettore uguali a 0):
Risolvo il sistema: e faccio le seguenti operazioni.
v1 ∗ E 1 + v3 ∗ E 3 = 0
= v1 v2 ∗ (z − z0 ) − v1 v3 (y − y0 ) + v3 v1 (y − y0 ) − v3 v2 (x − x0 ) = 0
I termini centrali si annullano e rimane
Capitolo 3. Lo spazio R3
38 / 258
= v1 v2 ∗ (z − z0 ) − v3 v2 (x − x0 ) = 0
e semplificando per v2 ottengo E2 , in particolare ho dimostrato che
v1 ∗ E1 + v3 ∗ E3 = v2 ∗ E2
Analogamente si dimostra che
−v1 ∗ E1 + v2 ∗ E2 = v3 ∗ E3
v2 ∗ E2 − v3 ∗ E3 = v1 ∗ E1
Quindi, ogni equazione del sistema si puo’ scrivere come combinazione lineare
delle altre e quindi un’equazione è ridondante. Pertanto ogni retta puo’ essere
definita da un sistema lineare di due equazioni nelle tre incognite (x, y, z) .
Per esempio, se v1 ̸= 0 , uso le due equazioni in cui compare v1 , cioè la seconda
e la terza equazione.
−v3 x + v1 z + v1 x0 − v3 z0 = 0
v1 y − v2 x − v2 x0 + v1 y0 = 0
Analogamente negli altri casi, v2 ̸= 0 e v3 ̸= 0 .
3.2.3 Dalle equazioni parametriche alle cartesiane
Esempio 3.1
Sia L = {(1, −1, 2) + t(1, 1, 1), t ∈ R} al variare di t in R , e voglio scriverne le
equazioni cartesiane.
(x, y, z) ∈ L se e solo se (x − 1, y + 1, z) e (1, 1, 1) sono linearmente indipendenti.
Ricavo due equazioni che non siano una multiplo dell’altra. riordino Le equazioni
sono indipendenti perche’ la x in una equazione compare e nell’altra no. Questo
e’ un sistema di equazioni carteisane della retta.
verifica: come nel caso di R2 , il vettore direzione dev’essere una soluzione del
sistema omogeneo, e il punto di passaggio deve risolvere il sistema non omogeneo
(con termine noto).
Esempio 3.2
Trovare rappresentazione parametrica ed equazioni cartesiane per la retta congiungente v1 = (1, −1, 2) e v2 = (3, −2, 1) .
Parametrizzazione della retta:
L = {(x, y, z) ∈ R : (x − 1, y + 1, z − 2) + t(2, −1, −1) = 0}
Capitolo 3. Lo spazio R3
39 / 258
I due vettori (x−1, y+1, z−2) e (2, −1, −1) devono essere linearmente dipendenti,
quindi il prodotto dev’essere 0.
Terza componente: −(x − 1) − 2(y + 1) = 0
Seconda componente: −(x − 1) − 2(z − 2) = 0 Equazioni cartesiane:
3.2.4 Dalle equazioni cartesiane alle parametriche
Viceversa: se L e’ il luogo delle soluzioni di un sistema lineare di due equazioni
indipendenti in (x, y, z) , allora L e’ una retta, come mostra il seguente esempio:
Esempio 3.3
Supponiamo di avere il sistema Eseguo l’operazione E2 − 2E1 .
5y − 8z = −10
y − 8/5z = −2, −→ y = −2 + 8/5z
Inoltre, dalla prima equazione ricavo
x = 5 − 3z + 2y
e sostituendo l’espressione di y ricavata si ha:
x = 1 + 1/5z
Complessivamente ottengo:
L = {(x, y, z) : x = 1 + 1/5z, y = −2 + 8/5z, z ∈ R}
= {(1 + 1/5z, −2 + 8/5z, z), z ∈ R}
L = {(1, −2, 0) + z ∗ (1/5, 8/5, 1), z ∈ R}
L = {(1, −2, 0) + t(1, 8, 5), t ∈ R}
Ho posto t = 5z Il vettore direzione è v = (1, 8, 5) e il punto di passaggio è
P = (1, −2, 0) .
Caso generale: Supponiamo che L sia il luogo delle soluzioni di un sistema lineare
della forma: Con i vettori (a, b, c) e (a′ , b′ , c′ ) linearmente indipendenti.
Se per esempio a ̸= 0 , L e’ il luogo delle soluzioni del sistema seguente: (rispetto
al sistema di partenza, al posto della seconda equazione inserisco E2 − a′ /a ∗ E1
). Dividendo la prima equazione per a e moltiplicando per a la seconda ottengo: I
coefficienti non possono essere uguali a 0 altrimenti i due vettori iniziali sarebbero
linearmente dipendenti.
Divido allora la seconda equazione per ab′ −a′ b : Riscrivo questo sistema cambiando i nomi ai coefficienti: Sottraggo alla prima equazione la seconda moltiplicata
per B , in modo da annullare il termine in y :
Capitolo 3. Lo spazio R3
40 / 258
x + (C − BC ′ )z = D − B ′ D
Pongo ora −C + BC ′ = C1 , D − BD′ = d1 , C ′ = c2 , D′ = −d2 . Quindi
x = D1 + C1 z , mentre y = d2 + d1 z .
L = {(x, y, z) t.c. x = d1 + c1 z, y = d2 + c2 z, z ∈ R}
= {(x, y, z) ∈ R3 t.c. (c1 , c2 , 1) ∗ z + (d1 , d2 , 0)}
Il punto di passaggio è (d1 , d2 , 0) e il vettore direzione è (c1 , c2 , 1) .
Si puo’ descrivere una retta partendo da una parametrizzazione.
3.3 Piani in R 3
3.3.1 Prodotto scalare standard
Definizione 3.3
Il prodotto scalare standard su RN e’ la funzione ϕst : RN × RN → R che prende
una coppia ordinata di vettori (X, Y ) con X = (x1 , . . . , xn ) e Y = (y1 , . . . , yn ) e
la porta in
n
∑
xi ∗ yi = (x1 y1 ) + · · · +
i=1
Si indica con X · Y .
Esempio 3.4
In R2 , (−1, 2)·(3, 0) = 1∗3−2∗0 = 3 . In R3 , (1, 1, 1)·(−2, 1, 0) = −2+1+0 = −1
.
Osservazione 3.4
Per ogni X e Y in RN , X · Y = Y · X , cioè il prodotto scalare e’ una funzione
simmetrica.
Proposizione 3.1
Se prendo x, x′ , y vettori arbitrari e λ e λ′ scalari arbitrari, allora
(λ ∗ x + λ′ ∗ x′ ) · y = λ + λ′ (x′ · y)
(bilinearità)
Dimostrazione 3.2
Supponiamo x = (x1 , . . . , xn ) , x′ = (x′1 , . . . , x′n ) , y = (y1 , . . . , yn ) . Allora
Capitolo 3. Lo spazio R3
41 / 258
λ ∗ x + λ′ x′ = (λ ∗ x1 + λ′ x′1 , . . . , λ ∗ xn + λ′ ∗ x′n )
allora
(λ ∗ x + λ′ x′ ) · y = (λ ∗ x1 + λ′ x′1 ) ∗ y1 + · · · + yn )
Raccolgo λ e λ′ :
= λ + λ′ (x. · y)
cvd
Osservazione 3.5
Per ogni scelta di vettori X e Y in R3 , segue che
X ·X ×Y =0
Dimostrazione 3.3
X × Y = (x1 , x2 , x3 ) · [(x2 y3 − x3 y2 ), −(x1 y3 − x3 y1 ), (x1 y2 − x2 y1 )]
allora
X · (X × Y ) = x1 x2 y3 − x1 x3 y2 − x2 x1 y3 + x2 x3 y1 + x3 x1 y2 − x3 x2 y1 = 0
Gli addendi opposti si eliminano e rimane 0.
cvd
3.3.2 Piano in R 3
Definizione 3.4
Supponiamo di avere due vettori A e B in R3 . Diremo che C in R3 e’ una
combinazione lineare di A e B se esistono scalari α e β numeri reali t.c. C =
α∗A+β∗B .
Definizione 3.5
Sia P0 ∈ R3 e siano A e B in R3 linearmente indipendenti, quindi tali che A×B ̸=
0 . Allora il piano (affine) passante per P0 e con vettori direzione A e B e’ il luogo
π di tutti i punti della forma: p0 + α ∗ a + β ∗ b al variare di α e β numeri reali.
Se consideriamo l’applicazione g : R2 → R3 che porta A e B nel punto P0 + α ∗
A + β ∗ B , il piano π e’ l’immagine g(R2 ) . g si dice una parametrizzazione di π .
La parametrizzazione determina il piano, ma a un piano corrispondono varie
parametrizzazioni.
Capitolo 3. Lo spazio R3
42 / 258
3.3.3 Osservazione sulla combinazione lineare
Proposizione 3.2
Siano A e B in R3 linearmente indipendenti (il prodotto vettore A ∗ B e’ diverso
da 0). Allora C ∈ R3 e’ combinazione lineare di A e B se e solo se C.(A ∗ B) = 0
.
Dimostrazione 3.4
1 −→ 2 : Se il vettore C = (c1 , c2 , c3 ) e’ una combinazione lineare di A e B per
certi α e β , con A e B vettori linearmente indipendenti in R3 , allora segue che
C · A × B = (α ∗ A + β ∗ B) · (AB)
= α ∗ A · (A ∗ B) + β ∗ B · (A ∗ B) = 0
per dimostrazione precedente.
2 −→ 1 : Supponiamo viceversa che
C ·A×B =0
allora dev’essere
(c1 , c2 , c3 ) · (a2 b3 − a3 b2 , −a1 b3 + a3 b1 , a1 b2 − a2 b1 ) = 0
c1 (a2 b3 − a3 b2 ) − c2 (a1 b3 − a3 b1 ) + c3 (a1 b2 − a2 b1 ) = 0
Almeno una delle tre componenti di A × B dev’essere diversa da 0 perché i vettori
sono linearmente indipendenti. Supponiamo che la seconda componente sia non
nulla, allora posso dividere l’ultima equazione per a1 b3 − a3 b1 :
c2 =
c1 ∗ (a2 b3 − a3 b2 ) c3 ∗ (a1 b2 − a2 b1 )
+
(a1 b3 − a3 b1 )
(a1 b3 − a3 b1 )
c2 =
c1 ∗ (a2 b3 − a3 b2 ) + c3 ∗ (a1 b2 − a2 b1 )
a1 b3 − a3 b1
isolo a2 e b1
c2 =
a2 (c1 ∗ b3 − b1 ∗ c3 ) + b2 (a1 ∗ c3 − a3 ∗ c1 )
a1 b3 − a3 b1
Chiamo α il coefficiente di a2 e β il coefficiente di b2 , qundi
c2 =
αb1 + βb2
a1 b3 − a3 b1
c1 =
αa1 + βb1
a1b3 − a3 b1
Inoltre si ha
Capitolo 3. Lo spazio R3
43 / 258
infatti sostituendo le espressioni di α e β ottengo:
c1 =
a1 c1 b3 − a1 c3 b1 + b1 c3 a1 − b1 c1 a3
a1 b3 − a3 b1
e semplificando i termini opposti
c1 =
a1 c1 b3 − b1 c1 a3
a1 b3 − a3 b1
raccogliendo c1 ottengo l’identità:
c1 = c1 (a1 b3 − a3 b1 )/(a1 b3 − a3 b1 )
quindi la condizione è verificata.
Inoltre analogamente c3 =
αa3 +βb3
a1 b3 −a3 b1
.
Concludo che
C = α + β,
allora C e’ una combinazione lineare di A e B .
cvd
Corollario 3.1
Il punto (x, y, z) appartiene al piano π se e solo se (x−x0 , y−y0 , z−z0 ).(A∗B) = 0
(questo infatti implica che il vettore differenza tra il punto e il punto di passaggio
è combinazione lineare dei vettori direzione).
Per definire un piano in R3 basta un’equazione cartesiana.
3.3.4 Dall’equazione parametrica alla cartesiana
Esercizio 3.1
Trovare un’equazione cartesiana per il piano π ∈ R3 passante per (1, 2, −1) e
avente vettori direzione (1, −1, 1) e (2, 1, 1) .
I vettori direzione sono linearmente indipendenti, infatti
v1 ∗ v2 = (1, −1, 1) ∗ (2, 1, 1) = (−2, −(1 − 2), 3) = (−2, 1, 3)
Allora impongo che
(x − x0 , y − y0 , z − z0 ) · v1 × v2 = 0
= (x − 1, y − 2, z + 1) · (−2, 1, 3) = 0
−2x + 2 + y − 2 + 3z + 3 = 0
Capitolo 3. Lo spazio R3
44 / 258
−2x + y + 3z + 3 = 0
π = {(x, y, z) ∈ R3 t.c. 2x − y − 3z = 3}
In questo modo esprimo π come soluzione di un sistema lineare in tre incognite.
I vettori direzione soddisfano l’equazione omogenea. Il punto di passaggio deve
soddisfare quella non omogenea.
3.3.5 Dall’equazione cartesiana alla parametrica
viceversa, supponiamo di avere un’equazione cartesiana, ovvero il luogo delle soluzioni di un’equazione lineare nelle incognite x, y, z e cerchiamo di risalire alla
parametrizzazione.
Esercizio 3.2
Trovare l’equazione parametrica del piano
π(x, y, z) : x − 3y + 2z = 5.
Esplicitando la x otteng:
x = 3y − 2z + 5
Quindi
π = {P = (3y − 2z + 5, y, z), y, z ∈ R}
π = {(5, 0, 0) + y(3, 1, 0) + z(−2, 0, 1), y, z ∈ R}
Ottengo il piano con punto di passaggio P (5, 0, 0) e vettori direzione (3, 1, 0) e
(−2, 0, 1) .
In generale, dato il luogo delle soluzioni di un’equazione lineare ax + by + cz = d
, con a, b, c non tutti nulli, se supponiamo a ̸= 0 , allora
x = −(b/a)y − (c/a)z + d/a, y, z ∈ R
π = {(d/a, 0, 0) + y(−b/a, 1, 0) + z(−c/a, 0, 1), y, z ∈ R}
e questa e’ il Piano con punto di passaggio (d/a, 0, 0) e vettori direzione (−b/a, 1, 0)
e (−c/a, 0, 1) .
3.4 basi ordinate in R 3
3.4.1 Vettori linearmente dipendenti
Definizione 3.6
Capitolo 3. Lo spazio R3
45 / 258
Siano v1 , v2 , v3 vettori in R3 . Diremo che v1 , v2 , v3 sono linearmente indipendenti
se nessuno di essi e’ combinazione lineare dei restanti, quindi se non esistono α e
β numeri reali tali che v1 = α∗v2 +β ∗v3 , o v2 = α∗v1 +β ∗v3 o v3 = α∗v1 +β ∗v2
.
Osservazione 3.6
Equivalentemente, se α, β, γ sono numeri reali tali che la combinazione lineare
α ∗ v1 + β ∗ v2 + γ ∗ v3 = 0 , allora se i vettori sono linearmente indipendenti,
α, β, γ sono necessariamente nulli.
Dimostrazione 3.5
1 −→ 2 : se vale la definizione di lineare dipendenza, e quindi se ad esempio
v1 = α ∗ v2 + β ∗ v3 , si ha
v1 + (−α ∗ v2 ) + (−β ∗ v3 ) = 0
e quindi si pone γ = 1 .
2 −→ 1 : Viceversa, se α, β, γ ∈ R3 sono tali che α ∗ v1 + β ∗ v2 + γ ∗ v3 e’ il vettore
nullo e per esempio α ̸= 0 , allora
v1 = −β/α ∗ v2 − γ/α ∗ v3
cioè v1 e’ combinazione lineare degli altri due.
cvd
Proposizione 3.3
Siano v1 , v2 , v3 ∈ R3 . Allora v1 , v2 , v3 sono linearmente indipendenti se e solo se
valgono le seguenti condizioni:
1. v1 ̸= 0
2. v2 non e’ multiplo scalare di v1 , ( v1 e v2 sono linearmente indipendenti)
3. v3 non e’ combinazione lineare di v1 e v2 .
Corollario 3.2
v1 , v2 , v3 sono linearmente indipendenti se e solo se v1 ̸= 0 e v1 × v2 ̸= 0 ( v1 non
e’ multiplo scalare di v2 ) e v3 · (v1 × v2 ) ̸= 0 ( v3 non e’ combinazione lineare
degli altri due).
3.4.2 Definizione di base
Definizione 3.7
Capitolo 3. Lo spazio R3
46 / 258
Una base di R3 e’ una terna ordinata (v1 , v2 , v3 ) ∈ R3 × R3 × R3 , di vettori
linearmente indipendenti.
L’ordine è cruciale, e B = (v1 , v2 , v3 ) e B ′ = (v2 , v1 , v3 ) sono basi diverse.
Osservazione 3.7
v1 , v2 , v3 e’ una base se e solo se (v1 × v2 ) · v3 ̸= 0 .
Teorema 3.1
Sia B = (v1 , v2 , v3 ) una base di R3 . Allora per ogni vettore X = (x, y, z) ∈ R3
, esistono e sono unici scalari α, β, γ in R tali per cui il vettore X e’ uguale alla
combinazione lineare αv1 + βv2 + γv3 .
Dimostrazione 3.6
Gli scalari cercati sono
α=
(X × v2 ) · v3
(v1 × v2 ) · v3
β=
(v1 × X) · v3
(v1 × v2 ) · v3
γ=
(v1 × v2 ) · X
(v1 × v2 ) · v3
Il denominatore e’ diverso da 0 per ipotesi.
Si verifica immediatamente che X = α ∗ v1 + β ∗ v2 + γ ∗ v3 .
Devo dimostrare anche l’unicita’ Se α′ , β ′ , γ ′ ∈ R sono altri scalari tali che X =
α′ ∗ v1 + β ′ ∗ v2 + γ ′ ∗ v3 , eguagliando le due espressioni di X si ha:
(α′ − α) ∗ v1 + (β ′ − β) ∗ v2 + (γ ′ − γ) ∗ v3 = 0
e in questa combinazione lineare i coefficienti devono essere uguali a 0 perche’ i
vettori sono linearmente indipendenti.
quindi α = α′ , β = β ′ e γ = γ ′ .
cvd
3.4.3 La base canonica
Ad esempio, sia C3 la terna di vettori (1, 0, 0), (0, 1, 0), (0, 0, 1) . Essa e’ chiamata
base standard o canonica di R3 .
Per ogni vettore (x, y, z) ∈ R3 , allora
x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1) = 0.
Definizione 3.8
Capitolo 3. Lo spazio R3
47 / 258
Sia B = (v1 , v2 , v3 ) una base di R3 . Se X ∈ R3 , siano α, β, γ in R gli unici scalari
tali che X = α ∗ v1 + β ∗ v2 + γ ∗ v3 . Allora il vettore colonna (α, β, γ) in R3 si
chiama il vettore delle coordinate di X nella base B e si denota con MB .
Ad esempio, nel caso della base canonica, per ogni X ∈ R3 , MC3 (X) = X .
Se D = (e2 , e1 , −e3 ) , si ha:
x ∗ e1 + y ∗ e2 + z ∗ e3 = 0
y ∗ e2 + x ∗ e1 + (z ∗ (−e3 )) = 0
La colonna delle coordinate e’ (y, x, −z) .
3.4.4 esempi
Esempio 3.5
Siano a, b, c scalari diversi da 0. Considero
B = {(a, 0, 0), (0, b, 0), (0, 0, c)}.
Questa e’ una base, perche’ ax + by + c = 0 e’ la combinazione lineare ed e’ uguale
a 0 se e solo se sono nulli x, y, z .
Vogliamo determinare il vettore MB tale che
(x, y, z) = αv1 + βv2 + γv3 .
(x, y, z) = α ∗ (a, 0, 0) + β ∗ (0, b, 0) + γ ∗ (0, 0, c)
Allora pongo α = x/a, β = y/b, γ = z/c .
Per trovare i coefficienti α, β, γ posso anche applicare le formule viste prima, ad
esempio:
α=
X × v2 · v3
v1 × v2 · v3
v1 × v2 = (a, 0, 0) × (0, b, 0) = (0, 0, ab)
v1 × v2 · v3 = (0, 0, ab) · (0, 0, c) = 0 + 0 + abc
X × v2 = (x, y, z) × (0, b, 0) = (0 − zb, 0, xb)
X × v2 · v3 = (0 − zb, 0, xb) · (0, 0, c) = xbc
Quindi
α = (xb ∗ c)/(abc) = x/a
Analogamente
Capitolo 3. Lo spazio R3
48 / 258
β=
β=
(v1 × y) · v3
=
(v1 × v2 ) · v3
((a, 0, 0) × (x, y, z)) · (0, 0, c)
=
(0, b, 0 × (a, 0, 0) · (0, 0, c)
β=
(0, −az, ay) · (0, 0, c)
=
(0, 0, ab) · (0, 0, c)
β=
(0 + 0 + ayc
= y/b
0 + 0 + abc
Invece
(a, 0, 0) × (0, b, 0) · X
=
abc
(0, 0, ab) · (x, y, z)
γ=
=
abc
0 + 0 + abz
γ=
= z/c
abc
γ=
La regola e’ un criterio numerico utile ma non e’ sempre il piu’ efficiente.
Esempio 3.6
Dato l’insieme
B = {(1, 1, 1), (1, −1, 0), (0, 2, −1)}
Verificare se questa e’ una base e nel caso trovare il vettore colonna delle coordinate di X al variare di X .
B e’ una base se e solo se l’equazione in α, β, γ
α ∗ (1, 1, 1) + β + γ = 0
ha come unica soluzione α = β = γ = 0 . In quest’ultimo caso, MB = (α, β, γ) e’
l’unica soluzione dell’equazione sopra. Considerando singolarmente le componenti
della combinazione lineare, e ponendole uguali a 0, si ha il sistema: Sottraggo
membro a membro
4β = 3x − y − 2z
β = 3/4x − 1/4y − 2/4z
α = 1/4x + 1/4y + 2/4z
γ = 1/4x + 1/4y − 2/4z
Quindi
MB = 1/4(x + y + z, 3x − y − 2z, x + y − 2z)
Capitolo 4. Norme e distanze
49 / 258
Capitolo 4
Norme e distanze
4.1 Norme
4.1.1 Proprietà generali della norma euclidea
Definizione 4.1
Il prodotto scalare standard pst e’ un’applicazione definita da Rn × Rn a valori in
R e porta una coppia ordinata di vettori X, Y nel loro prodotto scalare standard
X ·Y =
n
∑
xi ∗ yi
i=1
Questa operazione e’ simmetrica e bilineare.
Proposizione 4.1
pst e’ definito positivo e questo significa che il prodotto scalare standard di un
vettore con se stesso, X · X , e’ sempre maggiore di 0 ed e’ uguale a 0 se e solo
se X e’ il vettore nullo di RN .
Dimostrazione 4.1
X = (x1 , . . . , xn ) −→ X · X =
n
∑
(xi )2
i=1
cioè il prodotto scalare e’ la somma dei quadrati delle componenti. Il prodotto
scalare di un vettore per se stesso e’ uguale a 0, se e solo se xi = 0 per ogni i ,
cioè se e solo se X e’ il vettore nullo di RN .
cvd
4.2 Norma euclidea
Definizione 4.2
Capitolo 4. Norme e distanze
50 / 258
La norma euclidea standard su RN e’ la funzione | . . . | : RN → R che porta
un vettore colonna X nella sua norma |X| definita come la radice quadrata del
prodotto scalare standard di X con se stesso.
v
u n
u∑
x2
|X| = t
i
i=1
Proposizione 4.2
La norma ha le seguenti proprietà:
1. |X| ≥ 0∀X ∈ Rn .
2. |X| = 0 se e solo se X è il vettore nullo
3. Per ogni X ∈ Rn e per ogni numero reale λ ,
|λ ∗ X| = |λ| ∗ |X|.
Dim.
v
u n
√
u∑
|λ ∗ X| = t
λ2 ∗ (xi )2 = |λ| ∗ (xi )2 = |λ| ∗ |X|
i=1
4.2.1 disuguaglianza di Cauchy-Schwarz
Teorema 4.1
Per ogni coppia di vettori X, Y ∈ Rn , si ha:
|X · Y | ≤ |X| ∗ |Y |
Inoltre vale l’uguale se e solo se X e Y sono linearmente dipendenti.
Dimostrazione 4.2
Supponiamo che i due vettori siano linearmente dipendenti. Supponiamo per
esempio che Y = λX per qualche λ ∈ R Allora
|X · Y | = |X · λ ∗ X| = |λ ∗ X · X| = |λ| ∗ (|X|)2
ma
λ ∗ |X| ∗ |X| = |λX| ∗ |X| = |Y | ∗ |X|
allora vale l’uguaglianza.
Possiamo supporre ora che X e Y siano diversi dal vettore nullo e siano linearmente indipendenti. In particolare |X| > 0 e |Y | > 0 . Consideriamo il vettore
vλ = λ ∗ X + Y , con λ numero reale.
Capitolo 4. Norme e distanze
51 / 258
allora (|vλ |)2 ≥ 0 per ogni λ ∈ R
(|vλ |)2 = (λ ∗ X + Y ) · (λ ∗ X + Y ) =
= λ ∗ X · λ ∗ X + λ ∗ X · Y + λ ∗ X · Y + Y · Y = λ ∗ X · (λ ∗ X + Y ) + Y · (λ ∗ X + Y )
Uso la bilinearita’ sulla prima componente
λ ∗ (X · λ ∗ X + X · Y ) + Y · (λ ∗ X + Y )
λ ∗ (X · λ ∗ X) + λ ∗ X · Y + λ ∗ X · Y + y · Y
λ2 (X · X) + λ + λ + (Y · Y )
λ2 ∗ (|X|)2 + 2λ(X · Y ) + (|Y |)2
Raccolgo |X|
(|X|)2 ∗ [λ2 +
2λ ∗ (X · Y ) (|Y |)2
+
]≥0
(|X|)2
(|X|)2
|X| > 0 e la quantita’ fra parentesi e’ maggiore di 0.
aggiungo e tolgo
(X·Y )2
(|X|)4
λ2 +
.
2λ ∗ (X · Y ) (|Y |)2
(X · Y )2 (X · Y )2
+
+
−
2
2
(|X|)
(|X|)
(|X|)4
(|X|)4
Ho un quadrato perfetto, infatti vale l’uguaglianza
(λ +
X ·Y 2
2λ
(X · Y )2
2
)
=
λ
+
+
(|X|)2
(|X|)2
(|X|)4
e sostituendo nella disuguaglianza
[λ +
X · Y 2 (|Y |)2
(X · Y )2
]
+
−
(|X|)2
(|X|)2
(|X|)4
Cerco il minimo comun denominatore tra gli ultimi due addendi:
[λ +
X · Y 2 ((|Y |)2 )(|X|)2 − (X · Y )2
] +
(|X|)2
(|X|)4
X·Y
In particolare se λ = − (|X|)
2 , il primo addendo e’ 0, e rimane
0+
((|Y |)2 )(|X|)2 − (X · Y )2
≥0
(|X|)4
quindi
(|Y |)2 ∗ (|X|)2 ≥ (X · Y )2
Capitolo 4. Norme e distanze
52 / 258
quindi, se X e Y sono linearmente indipendenti, concludo che necessariamente
(|X|)2 ∗ (|Y |)2 ≥ (X · Y )2 .
Allora sotto radice quadrata ottengo proprio la disuguaglianza
|X| ∗ |Y | ≥ |X · Y |
cvd
4.2.2 Disuguaglianza triangolare
Come corollario della disuguaglianza di Cauchy-schwartz possiamo dedurre la
disuguaglianza triangolare.
Corollario 4.1
Per ogni coppia di vettori X, Y ∈ Rn , si ha che
|X + Y | ≤ |X| + |Y |
Dimostrazione 4.3
Parto dalla disuguaglianza da dimostrare, e siccome sto confrontando due addendi
maggiori o uguali di 0, allora posso elevare al quadrato e dimostrare l’equazione
(|X + Y |)2 ≤ (|X|)2 + (|X|)2 + 2|X| ∗ |Y |, formula 1
Sappiamo che vale anche
|X + Y | ∗ |X + Y | ≥ (|X| + |Y |)2 ,
formula 2
Esplicitando il prodotto al primo membro nella formula 2:
X · X + Y · Y + X · Y + y · X ≥ (|X| + |Y |)2
Osservo che
X · X = (|X|)2
X · Y + Y · X = 2X · Y
Y · Y = (|Y |)2
quindi, sostituendo al primo membro:
(|X|)2 + 2X · Y + (|Y |)2 ≥ (|X| + |Y |)2
Ora applico la disuguaglianza di Cauchy-Schwartz:
Capitolo 4. Norme e distanze
53 / 258
2X · Y ≤ 2|X| ∗ |Y |
e sostituendo ottengo:
(|X|)2 + 2|X| ∗ |Y | + (|Y |)2 ≥ (|X| + |Y |)2
e quindi ho dimostrato la formula 1.
cvd
Osservazione 4.1
La relazione
|X + Y | = |X| + |Y |
vale quando X e Y sono linearmente dipendenti e hanno un coefficiente positivo,
cioè se e solo se
1. X · Y ≥ 0
2. vale l’uguaglianza in Cauchy-Schwarz ( X e Y linearmente dipendenti)
4.2.3 Distanza euclidea
Definizione 4.3
La funzione distanza euclidea rispetto al prodotto scalare standard e’ la funzione
d : RN × RN → R e associa alla coppia (X, Y ) la norma della differenza tra i due
vettori.
Proposizione 4.3
La distanza euclidea ha le seguenti proprieta’:
• d(X, Y ) ≥ 0 per ogni X, Y ∈ Rn .
• d(X, Y ) = 0 se e solo se X = Y
• d(X, Y ) = d(Y, X) perche’ |X − Y = |Y − X|
• Per ogni scelta di X, Y, Z ∈ Rn , la distanza tra X e Z e’ sempre minore o
uguale di d(X, Y ) + d(Y, Z) .
Dimostrazione 4.4
|X − Y | + |Z − X| ≥ |X − Y + Y − Z| = |X − Z| = d(X, Z)
Osservazione 4.2
Capitolo 4. Norme e distanze
54 / 258
Le terne di vettori X, Y, Z tali per cui
d8x, y) = d(x, z) + d(z, y)
sono quelle tali per cui vale l’ ”uguaglianza triangolare”
|X − Y | = |(X − Z) + (Z − Y )| = |x − z| + |z − y|
cioè sono le terne di punti allineati, dove i vettori X −Z e Z −Y sono linearmente
dipendenti.
4.2.4 Interpretazione geometrica di Cauchy Schwarz
Per ogni coppia (X, Y ) di vettori in RN , allora |X · Y | ≤ |X| ∗ |Y | In particolare,
se X e Y sono entrambi diversi da 0, posso dividere per |X| ∗ |Y | e ricavo che
X ·Y
≤1
|X| ∗ |Y |
Il denominatore e’ una quantita’ positiva. Osservo che il rapporto vale esattamente ±1 se i vettori sono linearmente dipendenti e Y = λX , infatti si
ottiene:
λ∗X ·X
=
|X| ∗ |λX|
λ ∗ X2
=
|λ ∗ X 2 |
λ
= sgnλ
|λ|
Il segno di λ e’ −1 se λ e’ negativo e 1 se e’ positivo.
4.2.5 Caso particolare vettori unitari
Il rapporto non cambia se X e Y vengono entrambi moltiplicati per uno scalare
positivo.
X
Allora sostituisco X con |X|
= Xu e Y con
unitarizzati perché hanno norma 1.
Y
|Y |
= Yu . Xu e Yu sono detti vettori
In R2 posso considerare due vettori X, Y di norma 1, che stanno sul cerchio
unitario con centro nell’origine. Chiamo θ1 e θ2 gli angoli formati da X e Y con
l’asse delle ascisse. Quindi si può scrivere
X · Y = (cos θ1 , sin θ1 ) · (cos θ2 , sin θ2 )
X · Y = cos θ1 ∗ cos θ2 + sin θ1 ∗ sin θ2
X · Y = cos(θ1 − θ2 )
Capitolo 4. Norme e distanze
55 / 258
In generale se X e Y sono vettori non nulli in Rn , l’angolo 0 < θ < π compreso
tra X e Y e’ l’angolo determinato dalla condizione
cos(θX,Y ) =
X ·Y
|X| ∗ |Y |
In particolare, diremo che X e Y sono perpendicolari se l’angolo e’ di π/2 e quindi
se cos θX,Y = X · Y = 0 .
4.2.6 vettori perpendicolari
Notazione generalizzata: Due vettori X e Y in RN anche nulli si diranno perpendicolari se il prodotto scalare standard dei due e’ 0. Di conseguenza, il vettore
nullo e’ perpendicolare a ogni vettore.
Teorema 4.2
Due vettori X e Y sono perpendicolari in Rn se e solo se vale la proprietà
(|X + Y |)2 = (|X|)2 + (|Y |)2
Dimostrazione 4.5
1 −→ 2 : X e Y perpendicolari implica X · Y = 0 . Considero quindi che:
(|X + Y |)2 = (X + Y ) · (X + Y ) =
Uso la simmetria.
= X · X + 2X · Y + Y · Y =
ma X · Y per ipotesi e’ uguale a 0, quindi
= X · X + Y · Y = (|X|)2 + (|Y |)2 .
2 −→ 1 : Viceversa, se impongo che (|X|)2 + (|Y |)2 = (|X + Y |)2 , allora X · Y = 0
, per i passaggi precedenti.
cvd
Osservazione 4.3
Se X e Y sono perpendicolari, anche X e −Y sono perpendicolari e si ha
(|X − Y |)2 = (|X|)2 + (|(−Y )|)2
Esempio 4.1
Capitolo 4. Norme e distanze
56 / 258
Sia L in RN una retta con punto di passaggio P0 e vettore direzione v ( P0 e v
sono elementi di Rn e v ̸= 0 ). Quindi L e’ l’insieme {P0 + tv, t ∈ R} .
Prendo un punto Q di Rn . Allora, esiste ed e’ unico un punto P1 appartenente
alla retta tale che P1 − Q e’ perpendicolare al vettore direzione v . Impongo la
condizione algebricamente
(P1 − Q) · v = 0
e siccome P1 = P0 + tv , cerco t ∈ R tali che:
(P0 + t ∗ v − Q) · v = 0
P0 · v + t ∗ v · v − Q · v = 0
Osservo che v · v = (|v|)2 ̸= 0 , perche’ il vettore direzione non e’ nullo, allora
dividendo per v · v :
t1 =
(Q − P0 ) · v
(|v|)2
e il punto cercato è
P1 = P0 + t1 ∗ v = P0 +
(Q − P0 ) · v
∗v
(|v|)2
Sia P ∈ L un qualsiasi punto. Allora posso scrivere la retta come P1 + sv al
variare di s ∈ R .
Allora esiste ed e’ unico s ∈ R tale che P = P1 + s ∗ v . Segue che
(|P − Q|)2 = (|(P1 + sv) − Q|)2
= (|(P1 − Q) + sv|)2 =
Siccome P1 −Q e’ perpendicolare a v , e’ anche perpendicolare a qualsiasi multiplo
scalare di v , allora la norma quadra della somma e’ la somma delle norme quadre
per il teorema enunciato sopra.
= (|P1 − Q|)2 + s2 (|v|)2 ≥ (|P1 − Q|)2
Vale l’uguale quando s2 ∗ |v| = 0 , e quindi quando s = 0 , Quindi se e solo se
P = P1 .
Prendendo le radici quadrate, per ogni punto P ̸= P1 sulla retta, si ha
|P − Q| ≥ |P1 − Q|
Vale l’uguale se e solo se P = P1 .
Capitolo 4. Norme e distanze
57 / 258
4.3 Distanza punto - retta
In termine della funzione distanza
d(P, Q) ≥ d(P1 , Q)
abbiamo dimostrato che esiste ed e’ unico un punto P1 sulla retta che e’ ha
distanza minima da Q .
Per ogni retta L in RN e per ogni punto Q in RN , esiste ed e’ unico un punto
P1 = P1 (Q) in L tale che la distanza fra P1 e Q e’ esattamente il minimo delle
distanze tra P e Q al variare di P sulla retta. Tale minimo si chiama distanza
della retta dal punto.
Se Q e’ un punto sulla retta, la distanza e’ 0.
Esempio 4.2
Se L e’ la retta congiungente p1 = (1, 0, 1) e p2 = (−1, 1, 2) , trovare la distanza
di L da Q = (0, 1, 0) .
L = {p1 + (p2 − p1 )v}
L = {(1, 0, 1) + t(2, −1, −1), t ∈ R}
Se chiamo p p(t) il punto parametrizzato (1, 0, 1) + t(2, −1, −1) impongo la
condizione che p(t) − (0, 1, 0) sia perpendicolare al vettore direzione (2, −1, −1) .
p(t) = 1 + 2t, −t, 1 − t
p(t) − q = (1 + 2t, −t − 1, 1 − t)
allora impongo
(p(t) − q) · (2, −1, −1) = 0
(1 + 2t, −t − 1, 1 − t) · (2, −1, −1) = 2 + 4t + t + 1 − 1 + t = 6t + 2
t = −1/3
p(−1/3) − q = (1 − 2/3, 1/3 − 1, 1 + 1/3) = (1/3, −2/3, 4/3) = 1/3(1, −2, 4)
Allora la distanza della retta da q e’
(|p(−1/3) − q|)2 =
√
x2 + y 2 + z 2 = 1/3(1 + 4 + 16) = 1/3 ∗
Procedimento generale (distanza punto - retta):
1. cerco un’equazione parametrica della retta data;
2. calcolo il prodotto scalare tra p(t) − q e il vettore direzione;
3. trovo t ∈ R tale che il prodotto scalare sia uguale a 0;
√
21
Capitolo 4. Norme e distanze
58 / 258
4. sostituisco t nell’espressione di p(t) − q
5. la distanza e’ la norma di p(t) − q
4.4 Distanza punto - piano
Sia π un piano tale che π = {P0 + a ∗ v1 + b ∗ v2 }, ab ∈ R , ove P0 , v1 , v2 sono
fissati in R3 e v1 ev2 sono linearmente indipendenti.
Posso dare un’equazione cartesiana del piano: se P0 = (x0 , y0 , z0 ) , allora
π = {(x, y, z) : α + β + γ = 0},
ove α, β, γ sono le componenti del prodotto vettore v1 × v2 .
Cerco la distanza dal piano π al punto Q ∈ R3 .
La retta L passante per Q e con vettore direzione perpendicolare al piano è
L = {Q + s(α, β, γ), s ∈ R}
allora L interseca π in un unico punto.
Se Q = (x1 , y1 , z1 ) allora definisco
Q(s) = Q + sw = (x1 + sα, y1 + sβ, z1 + sγ).
dove w = (α, β, γ) .
π = {(x, y, z) = α ∗ (x − x0 ) + β + γ}
La retta e il piano sono perpendicolari, quindi il prodotto scalare tra il vettore
direzione della retta e il piano devono essere uguali a 0.
w · [(x, y, z) − P0 ] = w · (X − P0 ) = 0
Per cercare il punto di intersezione tra retta e piano impongo che Q(s) ∈ π e
questo avviene se e solo se w · (Q(s) − P0 ) = 0 ma Q(s) − P0 = Q + sw − P0 ,
quindi impongo
w · (Q + sw − P0 ) = 0
s ∗ w · w + w · (Q − P0 ) = 0
s ∗ (|w|)2 = (P0 − Q) · w
e dividendo per (|w|)2 ottengo l’unica soluzione:
s1 =
(P0 − Q) · w
(|w|)2
Capitolo 4. Norme e distanze
59 / 258
Quindi l’unico punto di intersezione tra la retta e il piano è Q(s1 ) .
Si dimostra che data la retta perpendicolare al piano e passante per Q , il punto di
intersezione tra retta e piano e’ l’unico punto del piano che minimizza la distanza
di π da Q . Preso un qualsiasi altro punto la distanza del piano da Q sara’
strettamente maggiore.
Osservazione 4.4
Sia π = {P0 +sA+tB, s, t ∈ R} , e sia P0 un punto di R3 , siano A e B linearmente
indipendenti ( A ∗ B ̸= 0 ). Dato un punto Q di R3 , sia L la retta con punto di
passaggio Q e vettore direzione v con v perpendicolare ad A e B e diverso da 0,
allora L ∩ π consiste di un unico punto. Mostro Q1 = P (0, 0) e’ l’unico punto che
minimizza la distanza di Q da π .
Dimostrazione 4.6
Uso Q1 come punto di passaggio per π . Allora
π = {Q1 + sA + tB, s, t, ∈ R}.
Allora il generico punto del piano è P (s, t) = Q1 + sA + tB . allora
d(P (s, t), Q)2 = (|Q1 + sA + tB − Q|)2 = (|(Q1 − Q) + (sA + tB)|)2
Ho scelto Q1 come unico vettore tale che Q − Q1 e’ perpendicolare ad A e B ,
allora
(Q1 − Q) · A = 0
(Q1 − Q) · B = 0
allora (Q1 − Q) · (sA + tB) = 0 . La norma quadra della somma e’ la somma delle
norme quadre, perche’ i vettori sono perpendicolari.
d(p(s, t), q) = (|Q1 − Q|)2 + (|sA + tB|)2
Vale l’uguale ( d(P (s, t), Q) = d(Q, Q1 ) ) se e solo se la norma quadra di sA + tB
è nulla, quindi se e solo se sA + tB e’ il vettore nullo. Ma questa combinazione
lineare e’ 0 se e solo se s = t = 0 , quindi se e solo se P (st) = P (0, 0) = Q1 .
cvd
Esempio 4.3
Preso π : {(x, y, z)t.c. 2x − 3y + z = 1} , trovare la distanza di π da Q = (0, 1, 0) .
1. verifico se il punto Q appartiene al piano sostituendo le sue coordinate nell’equazione che definisce π :Ottengo 0 − 3 + 0 = 1 . Il punto
non appartiene al piano
Capitolo 4. Norme e distanze
60 / 258
2. se il punto non appartiene, considero la retta con punto di passaggio Q e vettore direzione (a, b, c) dove a, b, c sono i coefficienti
che compaiono nell’equazione del piano, e tutti i punti del piano
sono quindi perpendicolari ad (a, b, c) .In questo caso P = (0, 1, 0) e
(a, b, c) = (2, −3, 1) .Quindi il generico punto della retta è
P = (2t, 1 − 3t, t) t ∈ R
3. Cerco il punto di intersezione tra la retta e il piano.La reta interseca
il piano se e solo se (2t, 1 − 3t, t) ∈ π , quindi se e solo se il generico punto della retta soddisfa l’equazione del piano.Nell’equazione del piano,
sostituisco x, y, z con le coordinate del generico punto della retta.
2 ∗ 2t − 3(1 − 3t) + t = 1
4t + 9t + t − 3 = 1
14t = 4, −→ t = 2/7
4. Il punto di intersezione si ottiene sostituendo il valore di t trovato
nella retta.
P = (2 ∗ 2/7, 1 − 3 ∗ 2/7, 2/7)
5. calcolo la distanza tra P e Q .
d(p(2/7), (0, 1, 0)) = |(2 ∗ 2/7, −3 ∗ 2/7, 2/7)| = 2/7|(2, −3, 1)| = 2/7 ∗
√
14
4.5 Distanza retta - retta
Per fissare le idee siano L1 , L2 ∈ R3 due rette che suppongo non parallele. Questo
significa che se L1 = {p1 + t ∗ v1 , t ∈ R} e L2 = {p2 + s ∗ v2 , s ∈ R} , allora v1 e
v2 sono linearmente indipendenti.
Lemma 4.1
Esiste ed e’ unica una coppia di punti (p, q) ∈ L1 × L2 tali che p − q e’ perpendicolare a v1 e v2 . ossia (p − q) · v1 = (p − q) · v2 = 0 .
Dimostrazione 4.7
Definisco p(t) = p1 +t∗v1 generico punto di L1 al variare di t ∈ R , e q(s) = p2 +sv2
generico punto di L2 , al variare di s ∈ R . Impongo la condizione che p(t) − q(s)
sia perpendicolare a vj per j = 1, 2 . So che
p(t) − q(s) = p1 + tv1 − (p2 + sv2 ) = p1 − p2 + tv1 − sv2 .
Se impongo le due condizioni di perpendicolarità ottengo:
[p(t) − q(s)] · v1 = (p1 − p2 ) · v1 + t ∗ (|v1 |)2 − sv2 · v1
[p(t) − q(s)] · v2 = (p1 − p2 ) · v2 + t(v1 · v2 ) − s(|v2 |)2
Capitolo 4. Norme e distanze
61 / 258
La condizione [p(t) − q(s)] · vj = 0 per j, 1, 2 equivale al sistema lineare delle due
equazioni: scrivendo in forma vettoriale ottengo (i vettori in realtà sono vettori
colonna):
t ∗ ((|v1 |)2 , (−v1 · v2 )) + s ∗ ((−v1 · v2 , (|v2 |)2 ) = ((p2 − p1 ) · v1 , (p1 − p2 ) · v2 )
La soluzione esiste ed e’ unica. Considero la coppia di vettori:
A = ((|v1 |)2 , −v1 · v2 )
B = (−v1 · v2 , (|v2 |)2 )
I vettori sono linearmente indipendenti se vale ad − bc ̸= 0 .
ad − bc = (|v1 |)2 ∗ (|v2 |)2 − (v1 · v2 )2 ̸= 0
Il prodotto dei quadrati delle norme e’ maggiore dei prodotti scalari quindi l’espressione per Cauchy - Schwarz e’ positiva. v1 e v2 sono supposti linearmente
indipendenti, quindi non vale l’ugualenella relazione e la condizione di lineare
indipendenza di A e B è soddisfatta. Allora A e B costituiscono una base in R2
, quindi la soluzione s, t del sistema è unica, ed esistono e sono unici i punti p e
q cercati.
cvd
Teorema 4.3
Siano p, q ∈ L1 × L2 tali che p − q è perpendicolare a v1 e p − q è perpendicolare
a v2 . Allora per ogni p′ e q ′ in L1 × L2 , si ha che
d(p′ , q ′ ) ≥ d(p, q)
e vale l’uguale se e solo se p = p′ e q = q ′ .
Dimostrazione 4.8
Prendo p come punto di passaggio per L1 e q come punto di passaggio per L2 .
Allora posso scrivere che L1 = {p+a∗v1 } al variare di a ∈ R e L2 = {q +b∗v2 , b ∈
R} .
Quindi ra = p + a ∗ v1 è il generico punto di L1 , e sb = q + b ∗ v2 è il generico
punto di L2 .
Calcolo la distanza al quadrato fra i due generici punti.
d(ra , sb )2 = (|ra − sb |)2 = (|(p + av1 ) − (q + bv2 )|)2
Evidenzio la perpendicolarita’ e uso Pitagora:
(|(p − q) + (av1 − bv2 )|)2 =
Capitolo 4. Norme e distanze
62 / 258
p − q per costruzione e’ perpendicolare a v1 e v2 , e quindi a av1 − bv2 , allora
siccome i due vettori sono perpendicolari, il quadrato della norma della somma è
la somma del quadrato delle norme:
= (|p − q|)2 + (|av1 − bv2 |)2
e questa quantità e’ maggiore o uguale della norma quadra di p − q e vale l’uguale
se e solo se (|av1 − bv2 |)2 = 0 . Siccome le due rette sono non parallele e v1 e
v2 sono non paralleli, allora la condizione è verificata solo se a = b = 0 , cioè
d(p, q) = d(ra , sb ) solo se a = b = 0 e quindi se ra = p e sb = q .
Quindi i due punti p, q sono gli unici che minimizzano la distanza delle due coppie
di punti sulla retta.
cvd
Definizione 4.4
Se L1 e L2 sono rette non parallele, e se p, q ∈ L1 × L2 e’ l’unica coppia di punti
tali che p − q e’ perpendicolare a entrambe le rette, allora definiamo distanza di
L1 da L2 come |p − q| . La distanza di L1 da L2 e’ inf{d(p′ , q ′ )} , al variare di
p′ ∈ L1 e q ′ ∈ L2 , e l’inf è uguale a d(p, q) con p e q definiti come prima.
Osservazione 4.5
Supponiamo che L1 e L2 siano parallele. Allora per ogni coppia (p, p′ ) in L1 la
distanza di p da L2 e’ uguale alla distanza di p′ da L2 . Equivalentemente, per
ogni coppia q, q ′ di L2 la distanza di L1 da q e’ uguale alla distanza di L1 da q ′ .
Capitolo 5. Spazi vettoriali
63 / 258
Capitolo 5
Spazi vettoriali
5.1 Concetti introduttivi
5.1.1 Definizioni di spazi vettoriali
Definizione 5.1
Uno spazio vettoriale reale sul campo reale e’ una terna (V, +, ∗) , ove V e’ un
insieme non vuoto, +, ∗ sono funzioni tali che:
• + : V × V → V è l’operazione che associa alla coppia v, w la somma v + w
;
• ∗ : R× V → V è l’operazione che associa alla coppia (λ, v) il prodotto λ ∗ v
.
5.1.2 proprieta’ della somma
1. L’addizione e’ commutativa, cioe’ v + w = w + v per ogni coppia (v, w) ∈ V
.
2. L’addizione e’ associativa, cioe’ (v + w) + u = v + (w + u), ∀v, w, u ∈ V .
3. Vale l’esistenza dell’elemento neutro rispetto alla somma:
∃ 0 ∈ V t.c. v + 0 = 0 + v = v∀v ∈ V
0V si dice elemento neutro. L’elemento neutro, se esiste, e’ necessariamente
unico.Infatti se esistesse (0′ )V con le stesse proprieta’ di 0V , allora 0V +
(0′ )V = (0′ )V per le proprieta’ di 0V , ma anche (0′ )V ha le stesse proprieta’,
quindi (0′ )V = (0′ )V + 0V = 0V .
4. vale l’esistenza dell’opposto:
∀v ∈ V, ∃ − v ∈ V t.c.v + (−v) = −v + v = 0V .
L’opposto di ogni v ∈ V , se esiste, e’ necessariamente unico. Stesso ragionamento applicato per RN .Infatti, se esiste v ′′ con la stessa proprieta’,
Capitolo 5. Spazi vettoriali
64 / 258
v + v ′ = 0V , v ′′ = 0V + v ′′ per le proprietà dello zero, quindi sostituendo il
valore di zero trovato, v ′′ = v + v ′ + v ′′ , ma siccome v ′′ gode della stessa
proprieta’ di v ′ , allora v ′′ = (v + v ′′ ) + v ′ = 0V + v ′ , quindi v ′′ = v ′
5.1.3 Proprietà della moltiplicazione
Proposizione 5.1
1. La moltiplicazione e’ distributiva rispetto alla somma di vettori.
λ = λv1 + λv2 , ∀λ ∈ R, ∀v1 , v2 ∈ V
2. La motliplicazione e’ distributiva rispetto alla somma di scalari:
(λ1 + λ2 )v = λ1 v + λ2 v, ∀λ1 , λ2 ∈ R, ∀v ∈ V
3. La moltiplicazione e’ associativa.
(λ ∗ η)v = λ(ηv)
4. Si puo’ anche scrivere 1 ∗ v = v∀v ∈ V (normalizzazione).
5. 0 ∗ v = 0V , ∀v ∈ V ( 0V e’ l’elemento neutro)
Dimostrazione 5.1
Usando la distributivita’ rispetto alla somma di scalari:
0 ∗ v = (0 + 0) ∗ v
Sommo a 0 ∗ v il suo opposto, e sostituisco l’espressione di 0 ∗ v appena ricavata:
0V = −0 ∗ v + 0 ∗ v = −0 ∗ v + (0 + 0) ∗ v =
Uso l’associativita’.
0V = (−0 ∗ v + 0 ∗ v) + 0 ∗ v = 0V + 0 ∗ v = 0 ∗ v
cioè il vettore nullo e’ ugale a 0 ∗ v .
cvd
Osservazione 5.1
L’opposto di un vettore v può essere scritto come −1 ∗ v , infatti
−1 ∗ v + v = −1 ∗ v + 1 ∗ v = (−1 + 1) ∗ v
ma −1 + 1 = 0 per le proprietà della somma di numeri reali, e 0 ∗ v = 0V .
Capitolo 5. Spazi vettoriali
65 / 258
Per l’unicita’ dell’opposto −1 ∗ v = −v, ∀v ∈ V .
In generale: u + (−v) = u − v = u + (−1 ∗ v)
Osservazione 5.2
Abbiamo definito spazi vettoriali sul campo R . In realtà si puo’ definire uno spazio
vettoriale su un campo qualsiasi. Tutte le proprieta’ algebriche si generalizzano,
tranne quelle che sono in relazione con la metrica.
5.2 Esempi di spazi vettoriali
RN con le operazioni definite e’ il modello su cui abbiamo costruito la nozione di
spazio vettoriale.
5.2.1 Spazio delle funzioni
Esempio 5.1
Se X e’ un insieme, sia RX l’isnieme di tutte le funzioni f : X → R . Allora
1. Se f e g sono elementi di RX , definisco la somma di f e g come (f +g)(x) =
f (x) + g(x), ∀x ∈ X .(Il segno + al secondo membro indica la somma di
numeri reali. Quello al primo membro indica cio’ che sto definendo)
2. se λ ∈ R e f ∈ RX , definisco il prodotto (λ ∗ f )(x) = λ ∗ f (x) .
Affermo che RX e’ uno spazio vettoriale su R .
Verifico le proprieta’ tipiche dello spazio vettoriale in RX .
1. Verifico l’associativita’: Se f, g, h sono elementi di RX , affermo che
(f + g) + h = f + (g + h) . Devo dimostrare che ∀x ∈ X , le due funzioni
sono uguali.Applicando due volte la definizione di somma:
[(f + g) + h](x) = (f + g)(x) + h(x) = (f (x) + g(x)) + h(x)
A questo punto applico l’associativita’ in R perche’ ho la somma di numeri
reali
= f (x) + [g(x) + h(x)] =
riscrivo il secondo termine usando la definizione di somma a ritroso:
[f (x) + (g + h)(x)] = f + [g + h]
quindi ho verificato che (f + g) + h = f + (g + h) .
2. Verifico la distributivita’ rispetto alla somma di funzioni.Se λ ∈ R
e f, g sono elementi di RX , allora per definizione di somma:
λ == λ ∗ [f (x) + g(x)]
Capitolo 5. Spazi vettoriali
66 / 258
Uso le proprieta’ dei numeri reali:
= λ ∗ f (x) + λ ∗ g(x)
Usando la definizione di prodotto a ritroso:
= [λ ∗ f ](x) + [λ ∗ g](x)
= [λ ∗ f + λ ∗ g](x)
Concludo che per ogni x ∈ X , λ ∗ (f + g) = λ ∗ f + λ ∗ g .
3. Verifico la proprieta’ commutativa.Per definzione di somma:
(f + g)(x) = f (x) + g(x)
per commutatività in R :
= g(x) + f (x)
e per definizione di somma a ritroso:
= (g + f )(x)
Si verificano analogamente le altre proprietà. Quest’esempio si generalizza a K X
, dato dalle funzioni f : X → K , dove K e’ un campo arbitrario.
5.2.2 Polinomi reali
Esempio 5.2
Se d ≥ 0 ∈ N , definisco Rd [x] come l’insieme dei polinomi in x di grado minore
o uguale di d . E’ l’insieme .
La terna (Rd [x], +, ∗) e’ uno spazio vettoriale su R quando +, ∗ sono definiti come
segue:
1. Dati i polinomi per la somma si ha
p(x) + q(x) = p0 + q0 + (p1 + q1 ) ∗ x + · · · + ∗xd =
d
∑
(pi + qi ) ∗ xi .
i=0
2. Definiamo il prodotto:
λ ∗ p(x) = λ ∗ p0 + λ ∗ p1 ∗ x + · · · + λ ∗ pd ∗ x =
d
d
∑
i=0
Esercizio 5.1
Verificare che R[x](x) e’ uno spazio vettoriale su R con +, · .
Si può verificare che valgono le proprieta’ dello spazio vettoriale.
λ ∗ pi ∗ xi
Capitolo 5. Spazi vettoriali
67 / 258
In generale, posso anche considerare lo spazio dei polinomi reali di grado qualsiasi:
Per avere uno spazio vettoriale su R , posso imporre che pk = 0 se k e’ molto
grande, oppure impongo che pk = 0 per quasi ogni k , questo significa che solo
un numero finito di pi puo’ essere diverso da 0. Allora, detto Ri [x] l’insieme dei
polinomi di grado i , si ha:
R0 [x] ⊂ R1 [x] ⊂ R2 [x] ⊂ . . .
e l’unione di tutti questi insiemi per i → ∞ e’ l’insieme di tutti i polinomi.
5.3 sottospazi vettoriali
5.3.1 Definizione
Definizione 5.2
Sia (V, +, ∗) uno spazio vettoriale su R o su un campo K generico, indicato per
semplicita’ con V . Un sottospazio vettoriale di V e’ un sottoinsieme U (V ) che
soddisfa le seguenti proprieta’:
1. U ̸= ∅
2. per ogni coppia u1 , u2 ∈ U , si ha u1 + u2 ∈ U ;
3. per ogni scelta di λ umero reale e per ogni scelta di u ∈ U , si ha λ ∗ u ∈ U
.
Le proprieta’ 2 e 3 si possono riassumere con la proprieta’ seguente:
∀λ1 , λ2 ∈ R, ∀u1 , u2 ∈ U, λ1 ∗ u1 + λ2 ∗ u2 ∈ U.
Esempio 5.3
Prendo lo spazio vettoriale R2 e considero il quadrante positivo
U = {(x, y) t.c. x > 0, y > 0}.
Questo non e’ un sottospazio vettoriale, perche’ le proprietà 1 e 2 sono verificate,
ma la proprietà 3 non è soddisfatta: infatti, ad esempio (1, 1) ∈ U ma −1∗(1, 1) =
(−1, −1) non appartiene a U .
Esempio 5.4
Considero l’unione dei due assi coordinati U = U1 ∪ U2 con U1 = {(x, 0), x ∈ R}
e U2 = {(0, y), y ∈ R} . La proprieta’ 2 non e’ soddisfatta, quindi non ho un
sottospazio vettoriale.
Esempio 5.5
Capitolo 5. Spazi vettoriali
68 / 258
Se prendo una retta L passante per l’origine con vettore direzione v , i suoi
elementi si scrivono come 0R2 + tv = tv con t ∈ R . Questa retta è un sottospazio
vettoriale di R2 , infatti, presi due elementi t1 ∗ v e t2 ∗ v , la somma t1 ∗ v + t2 ∗ v =
(t1 + t2 ) ∗ v sta in L .
Inoltre, preso un generico λ in R e t∗v ∈ L , allora λ∗tv per proprieta’ associativa
e’ uguale a (λ ∗ t) ∗ v, ∈ L , cioè i multipli scalari di v appartengono a L . Quindi
questo e’ un sottospazio vettoriale.
5.3.2 Lemma sugli spazi vettoriali
Lemma 5.1
Se U ⊂ V e’ un sottospazio vettoriale, allora certamente il vettore nullo di V
appartiene a U . Se U e’ un qualsiasi sottoinsieme di V e non contiene il vettore
nullo, allora U non puo’ essere un sottospazio vettoriale.
Dimostrazione 5.2
Se vale la proprieta’ 1 della definizione di sottospazi vettoriali, U ̸= ∅ ed esiste
un u ∈ U . Se vale 3, con λ = 0 , ricavo 0 ∗ u ∈ U . 0 ∗ u = 0U , di conseguenza il
vettore nullo deve appartenere a U .
cvd
Esercizio 5.2
Siano a, b ∈ L non entrambi nulli e c un qualsiasi numero reale. Per quali valori
di c il luogo U = {(x, y) ∈ R2 , t.c. ax + by = c} e’ un sottospazio vettoriale di R3
?
Verifico le proprietà della definizione:
1. l’origine deve appartenere a U , altrimenti non ho un sottospazio vettoriale.Se x = y = 0 sostituendo nell’equazione ottengo a ∗ 0 + b ∗ 0 = c , e questo
è vero se e solo se c = 0 .Se c ̸= 0 , l’origine di R2 non soddisfa l’equazione
che definisce U quindi U non puo’ essere un sottospazio vettoriale.Se c = 0
, abbiamo il luogo
U0 = {(x, y) t.c.ax + by = 0}
Verifico quindi su U0 le proprietà 1 e 2.
2. se (x1 , y1 ) e (x2 , y2 ) ∈ U0 , allora ax1 + by1 = 0 , ax2 + by2 = 0 , e quindi
anche a(x1 + x2 ) + b(y1 + y2 ) = 0 , cioè (x1 + x2 , y1 + y2 ) appartiene a U0 .
3. Allo stesso modo, se λ ∈ R e (x1 , y1 ) ∈ U0 , allora ax1 + by1 = 0 e
moltiplicando per λ ottengo
a ∗ λ ∗ x1 + b ∗ λ ∗ y1 = 0.
Allora il vettore λ appartiene a U0 .
Capitolo 5. Spazi vettoriali
69 / 258
Allora U e’ un sottospazio vettoriale se c = 0 .
altro procedimento: Alternativamente, noto che U0 = {(x, y)t.c.ax + by = 0} si
puo’ scrivere in un altro modo. Infatti, se a ̸= 0 , x = −b/a ∗ y , quindi U0 è
l’insieme dei multipli scalari di (−b/a, 1) , e, moltiplicando per a , U0 e’ l’insieme di
multipli scalari di (−b, a) . Equivalentemente, U0 e’ la retta passante per l’origine
con vettore direzione −b, a) , e come dimostrato precedentemente, le rette per
l’origine sono sottospazi vettoriali.
5.3.3 classificazione i sottospazi vettoriali di R^2
Osservazione 5.3
Se V e’ un qualsiasi spazio vettoriale, il sottoinsieme di V che consiste del solo
vettore nullo e’ un sottospazio vettoriale di V . Infatti e’ non vuoto, la somma di
due qualsiasi elementi e il prodotto per uno scalare sono sempre uguali al vettore
nullo. Questo insieme si definisce sottospazio nullo.
Anche V e’ sottospazio vettoriale di se stesso.
I due sottospazi, il piu’ piccolo possibile e il piu’ grande possibile, sono detti
sottospazi banali.
Se v ̸= 0 , la retta Lv che consiste di tutti i multipli scalari di v e passa per
l’origine è un sottospazio vettoriale di R2 .
Più precisamente, sia U un sottospazio vettoriale di R2 , se U = {0} ho il sottospazio nullo, altrimenti esiste v ̸= 0, u ∈ U . Allora certamente tutti i multipli
scalari di v sono contenuti in U per la proprietà 3, quindi t∗ v ∈ U ∀t ∈ R . Questo
significa che U contiene la retta Lv , con punto di passaggio nell’origine e vettore
direzione v . Quindi, si può avere U = Lv (e quindi U è già stato elencato tra i
sottospazi vettoriali di V ), oppure U ̸= Lv .
Se U contiene propriamente Lv , allora esiste w ∈ U , con w ∈
/ Lv , allora w non
e’ un multiplo scalare di v . v ̸= 0 e w non e’ multiplo scalare di v , allora, v e w
sono linearmente indipendenti in R2 e sono una base di R2 . Allora per ogni scelta
di (x, y) in R2 , esistono e sono unici scalari a, b in R tali che (x, y) = av + bw .
Per la proprieta’ equivalente a 2 e 3, (x, y) e’ un elemento di U . Concludo che
U = R2 .
Riassumendo, i sottospazi vettoriali di R2 sono il vettore nullo, l’insieme delle
rette passanti per l’origine, R2 stesso.
Esempio 5.6
Se considero lo spazio vettoriale RX , con f : X → RN , allora considero il
sottoinsieme Y ⊂ X . Definisco
IY = {f ∈ RX t.c.f (y) = 0∀y ∈ Y }.
IY e’ un sottospazio vettoriale?
Capitolo 5. Spazi vettoriali
70 / 258
1. l’origine appartiene a IY , infatti 0RX e’ la funzione identicamente nulla, tale
che f (x) = 0∀x ∈ X , e quindi è nulla anche per ogni y ∈ Y e appartiene a
IY .
2. Se prendo due elementi f, g ∈ IY , cioè tali che f (y) = 0, g(y) = 0∀y ∈ Y ,
allora la funzione somma e’ (f + g)(y) = f (y) + g(y) = 0 + 0 = 0∀y ∈ Y ,
cioè f + g ∈ IY .
3. se f ∈ YY e λ ∈ R , allora f (y) = 0∀y ∈ Y . Allora (λ ∗ f )(y) = λ ∗ f (y) =
λ ∗ 0 = 0∀y ∈ Y Quindi λ ∗ f ∈ IY per ogni λ ∈ R e f ∈ Y
Allora IY e’ un sottospazio vettoriale di RX
Se definisco invece
(I ′ )Y = {f ∈ RX t.c. f (y) = 1∀y ∈ Y }
questo non e’ uno spazio vettoriale perche’ non contiene l’elemento neutro.
Esempio 5.7
Preso l’insieme dei polinomi reali di grado minore o uguale di d , e considero
λ0 ∈ R , sia J(λ0 ) l’insieme dei polinomi in Rd [x] che hanno λ0 come radice, cioè
tali che p(λ0 ) = 0 . Se , allora , e p ∈ J(λ0 ) solo se p(λ0 ) = 0 .
J(λ0 ) contenuto in Rd [x] e’ un suo sottospazio vettoriale, infatti:
1. lo zero di Rd [x] , che è il polinomio identicamente nullo, è nullo anche se
valutato in λ0 , quindi J(λ0 ) contiene l’origine.
2. Se p, q ∈ J(λ0 ) , allora
(p + q)(x) = p(x) + q(x)
quindi
(p + q)(λ0 ) = p(λ0 ) + q(λ0 ) = +0+ = 0
cioè λ0 è radice della somma p + q e quindi p + q ∈ J(λ0 ) .
3. preso uno scalare µ ∈ R si ha che (µ ∗ p)(x) = µ ∗ p(x) , quindi (µ ∗ p)(λ0 ) =
µ ∗ p(λ0 ) = µ ∗ 0 = 0 , quindi λ0 è radice di µ ∗ p e µ ∗ p appartiene a J(λ0 ) .
5.4 Combinazione lineare di un insieme di vettori
5.4.1 Definizione di span
Definizione 5.3
Se V e’ uno spazio vettoriale su K , e scegliamo vettori v1 , . . . vk ∈ V e scalari
λ1 , . . . , λk ∈ R la combinazione lineare di v1 , . . . vk con coefficienti λ1 , . . . , λk e’ il
vettore
Capitolo 5. Spazi vettoriali
71 / 258
λ1 ∗ v1 + λ2 ∗ v2 + · · · + λk ∗ vk =
k
∑
λi ∗ vi .
i=1
La scrittura non e’ ambigua, perche’ in virtu’ dell’associativita’, l’ordine con cui
sommo gli elementi non cambia.
Definizione 5.4
Sia V uno spazio vettoriale su R e siano v1 , . . . , vk ∈ V . Definiamo
span{v1 , . . . , vk } = {λ1 ∗ v1 + · · · + λk ∗ vk , λi ∈ R}
k
∑
={
λi ∗ vi , λi ∈ R}
i=1
Lo span di un insieme di vettori è l’insieme di tutte le combinazioni lineari di tali
vettori.
Esempio 5.8
Se v ∈ Rd , v ̸= 0 , il suo span e’ l’insieme dei multipli scalari della forma {λ∗v, λ ∈
R} . E’ la retta passante per l’origine e con direzione v , ossia congiungente
l’origine e v stesso.
Esempio 5.9
Se prendo v, w ∈ R3 linearmente indipendenti e non nulli, allora
span{v, w} = {λ ∗ v + µ ∗ w, λ, µ ∈ R}.
E’ il piano passante per l’origine con vettori direzione v e w .
Esempio 5.10
In R5 [x] , i polinomi di grado minore o uguale a 5 , considero
span{1, x, x2 } = {λ1 + µ ∗ x + γ ∗ x2 , λ, µ, γ ∈ R}.
E’ l’insieme dei polinomi di grado minore o uguale a 2.
5.4.2 Span come sottospazio vettoriale
Osservazione 5.4
Se U e’ un sottospazio vettoriale di V , e u1 , . . . , ur ∈ U , λ1 , . . . , λr ∈ R , allora
sicuramente λ1 ∗ u1 + · · · + λr ∗ ur ∈ U .
Dimostrazione 5.3
Capitolo 5. Spazi vettoriali
72 / 258
Per r = 1, r = 2 , questa e’ una definizione. Se r = 3 , allora posso scrivere
(λ1 ∗ u1 + λ2 ∗ u2 ) + λ3 ∗ u3 per l’associativita’. Ma il primo termine tra parentesi
e’ un elemento di U per il caso r = 2 , il secondo e’ un elemento di U per il caso
r = 1 , allora la somma appartiene a U .
Ipotesi induttiva: Per induzione, questo e’ vero per un certo R ≥ 2 . Passo a r + 1
, e scrivo (λ1 ∗ u1 + · · · + λr ∗ ur ) + λr+1 ∗ ur+1 . Il primo termine appartiene
a U per ipotesi induttiva e il secondo per il primo caso. Allora anche la somma
appartiene.
Proposizione 5.2
Sia V uno spazio vettoriale su K . siano v1 , . . . , vk ∈ V . Allora lo span{v1 , . . . , vk }
e’ un sottospazio vettoriale di V . Piu’ precisamente, span{v1 , . . . , vk } e’ il piu’
piccolo sottospazio vettoriale di V contenente i vettori v1 , . . . , vk . Tutti i sottospazi vettoriali di V che contengono v1 , . . . , vk contengono lo span di v1 , . . . , vk
.
Dimostrazione 5.4
Dimostro che lo span è un sottospazio vettoriale:
1. Posso scrivere lo 0v come 0 ∗ v1 + · · · + 0 ∗ vk e appartiene allo span di
v1 , . . . , vk . Allora lo span contiene l’origine ed e’ non vuoto.
2. Siano v e v ′ appartenenti allo span di v1 , . . . , vk . Siano λ, λ′ ∈ R . Per
definizione, esistono α1 , . . . , αk e β1 , . . . , βk ∈ R tali che
v = α1 ∗ v 1 + · · · + αk ∗ v k
v ′ = β1 ∗ v1 + · · · + βk ∗ vk
Se considero la combinazione lineare λ ∗ v + λ′ v ′ , essa e’ uguale a
λ + λ′ (β1 ∗ v1 + · · · + βk ∗ vk )
Per distributivita’
λ ∗ α1 ∗ v1 + · · · + λ ∗ αk ∗ vk + λ′ ∗ β1 ∗ v1 + · · · + λ′ ∗ βk ∗ vk
Uso la commutativita’
λ ∗ α1 ∗ v1 + λ′ ∗ β1 ∗ v1 + · · · + λ ∗ αk ∗ vk + λ′ ∗ βk ∗ vk
Uso la distributivita’ rispetto alla somma di scalari
(λα1 + λ ∗ β1 ) ∗ v1 + (λ′ ∗ β1 + λ′ ∗ βk ) ∗ vk
k
∑
(λ ∗ αj + λ′ ∗ βj ) ∗ vj , j = 1, . . . , k
i=1
E’ ancora una combinazione lineare dei vettori.
Dimostro che lo span è il più piccolo spazio vettoriale che contiene i
vettori: se U in V e’ un qualsiasi sottospazio vettoriale, che contiene v1 , . . . , vk
allora U contiene anche λ1 ∗ v1 + · · · + λk ∗ vk , la combinazione lineare di vi con i
coefficienti λi per ogni scelta di λ1 , . . . , λk ∈ R . Quindi U contiene ogni elemento
di span{v1 , . . . , vk } . Quindi U contiene lo span.
Capitolo 5. Spazi vettoriali
73 / 258
5.4.3 classificazione dei sottospazi vettoriali di R3
Sia U in R3 un sottospazio vettoriale. Allora l’elemento neutro appartiene a U .
Se U consiste del solo elemento neutro, allora e’ lo spazio nullo. Altrimenti esiste
v ∈ U ̸= 0 .
Allora U contiene lo span di v , che e’ l’insieme dei multipli scalari di v , indicati
con tv al variare di t ∈ R . Lo span di v e’ la retta passante per l’origine e con
vettore direzione v .
Se U = span{v} allora U e’ una retta per l’origine. Altrimenti esiste un vettore
w che appartiene a U ∖ {span{v}} . Quindi w non e’ un multiplo scalare di v ,
allora v e w sono linearmente indipendenti.
U contiene sia v che w , quindi contiene span{v, w} , che e’ il piano passante per
l’origine con vettori direzione v e w .
Se U = span{v, w} allora e’ un sottospazio vettoriale. Altrimenti, esiste un vettore
u che appartiene a U ∖ {span{v, w}} . Allora concludiamo che v ̸= 0 , w non e’
multiplo scalare di v , u non e’ una combinazione lineare di v e w (non appartiene
allo span). Allora concludiamo che v, w, u sono linearmente indipendenti, e questa
terna e’ una base di R3 . Allora per ogni (x, y, z) ∈ R3 , esistono e sono unici
α, β, γ ∈ R tali per cui (x, y, z) = α ∗ v + β ∗ w + γ ∗ u . ma questo e’ un elemento
dello span perche’ e’ combinazione lineare di elementi di U . Allora concludo che
U = R3 .
I sottospazi vettoriali di R3 sono lo spazio nullo, le rette per l’origine, i piani per
l’origine, lo spazio R3 .
5.4.4 condizioni equivalenti
Lemma 5.2
Se V e’ uno spazio vettoriale, siano v1 , . . . , vk elementi di V . Allora le seguenti
condizioni sono equivalenti:
• qualcuno dei vj puo’ essere espresso come una combinazione lineare di tutti
gli altri, cioe’ esistono α1 , . . . , αj−1 , αj+1 , . . . , αk tali che
αj ∗ vj = α1 ∗ v1 + · · · + αj−1 ∗ vj−1 + αj+1 ∗ vj+1 + · · · + αk ∗ vk
• esistono λ1, . . . , λk ∈ R non tutti nulli t.c. la combinazione lineare dei vi
con coefficienti λ1 , . . . , λk e’ il vettore nullo di V .
Dimostrazione 5.5
1 −→ 2 : Se vale 1, per qualche j , vj = α1 ∗ v1 + · · · + αk ∗ vk , allora ricavo
che il vettore nullo di V e’ Questa e’ una combinazione lineare dei vi che mi dà
il vettore nullo. Il coefficiente di vj e’ uguale a −1 , e’ diverso da 0.
Se uno dei vj e’ combinazione lineare dei restanti trovo una combinazione lineare
di vi con un coefficiente diverso da 0.
Capitolo 5. Spazi vettoriali
74 / 258
2 −→ 1 : Siano λ1 , . . . , λk numeri reali tali che λ1 ∗ v1 + · · · + λk ∗ vk e’ uguale al
vettore nullo e per esempio sia per qualche j , λj diverso da 0, per 1 < j < k .
Allora concludo che
λj ∗ vj = −λ1 ∗ v1 + · · · + +(−λ ∗ vj+1 ) + · · · + =
k
∑
−λi ∗ vi .
i̸=j,i=1
Allora siccome λj ̸= 0 , ricavo che vj e’
vj =
λj−1
λj+1
λk
−λ1
∗ v1 −
∗ vj−1 + · · · −
∗ vj+1 −
∗ vk =
λj
λj
λj
λj
vj =
k
∑
−λi
∗ vi
λj
i̸=j,i=1
cvd
5.4.5 Vettori linarmente indipendenti
Definizione 5.5
Se v1 . . . , vk soddisfano una qualsiasi delle due condizioni precedenti, diremo che
v1 , . . . , vk sono linearmente dipendenti. altrimenti diremo che sono linearmente
indipendenti.
Quindi v1 , . . . , vk sono linearmente indipendenti se e solo se nessuno dei vj e’
combinazione lineare dei restanti vi , o equivalentemente se ho una combinazione
lineare λ1 ∗ v1 + · · · + λk ∗ vk = 0 solo quando tutti i λi sono nulli.
Esempio 5.11
Un singolo vettore è sempre linearmente indipendente quando è diverso dal vettore
nullo.
se v1 , . . . , vk sono linearmente indipendenti, allora necessariamente vj e’ diverso
dal vettore nullo per 1 < j < k . Infatti, se ad esempio vj = 0 , potrei scriverlo
come combinazione degli altri j − 1 vettori prendendo gli scalari tutti nulli.
Proposizione 5.3
Se V e’ uno spazio vettoriale e v1 , . . . , vk sono elementi di V , allora v1 , . . . , vk
sono linearmente indipendenti se e solo se valgono le seguenti condizioni:
1. v1 ̸= 0V
2. se j ≥ 2 , allora vj non e’ combinazione lineare di v1 , vj−1 , vj+1 , vk
Dimostrazione 5.6
Capitolo 5. Spazi vettoriali
75 / 258
Supponiamo che valgano le due condizioni e che per assurdo siano v1 , . . . , vk
linearmente dipendenti. Allora esistono α1 , . . . , αk ∈ R non tutti nulli tali che
α1 ∗ v1 + · · · + αk ∗ vk = 0 . Sia j il piu’ grande indice tale che αj ̸= 0 . as = 0 se
s > j . Alora sicuramente 1 < j < k .
Se j = 1 ,
α1 ∗ v 1 + 0 ∗ v 2 + · · · + 0 ∗ v k = 0 = α1 ∗ v 1 .
Quindi v1 = 0 . Questo e’ assurdo perche’ contraddice l’ipotesi 1. Se j ≥ 1 , allora
α1 ∗ v 1 + · · · + αj ∗ v j + · · · = 0
Se αj ̸= 0 ., ricavo che
vj = −
αj−1
α1
∗ v1 −
∗ vj−1 + . . .
aj
aj
Allora vj e’ combinazione lineare dei precedenti vettori. Questo e’ assurdo perche’
contraddice 2.
cvd
5.4.6 Basi
Definizione 5.6
Sia V uno spazio vettoriale su K . Una k-upla ordinata (sequenza ordinata di k)
v1 , . . . , vk si dice una base di V se valgono le due seguenti proprieta’:
1. V e’ generato da v1 , . . . , vk , ossia ogni vettore di V si puo’ esprimere come
combinazione lineare di v1 , . . . , vk ;(lo span e’ l’insieme delle combinazioni
lineari
∑ di v1 , . . . , vk ). Per ogni v ∈ V esistono λ1 , . . . , λk ∈ R tali che
v = ki=1 λi ∗ vi .
2. i vettori v1 , . . . , vk sono linearmente indipendenti.
Osservazione 5.5
Se v1 , . . . , vk e’ una base di V , qualsiasi riordinamento dei vi e’ ancora una base
di V , ma una base diversa.
Esempio 5.12
C2 = {(1, 0), (0, 1)} e’ una base di R2
C3 = {(1, 0, 0)(0, 1, 0)(0, 0, 1)} e’ la base canonica di R3 In generale
Ck = {(1, 0, 0, . . . ), . . . , (. . . 0, 0, 1)}
Capitolo 5. Spazi vettoriali
76 / 258
e’ una base di Rk .
Esempio 5.13
Se prendo Rd [X] insieme dei polinomi di grado minore o uguale di d , se prendo
un polinomio per certi vi numeri reali, v1 , . . . , vk sono un sistema di generatori di
V .
{1, x, . . . , xd } sono un sistema di generatori e sono indipendenti e sono una base
per lo spazio.
5.4.7 Sistema di generatori
Definizione 5.7
Se V e’ uno spazio vettoriale, un sistema di generatori per V e’ una famiglia vi
di vettori {v1 , . . . , vk } tali che V e’ lo span di v1 , . . . , vk .
v1 , . . . , vk sono un sistema di generatori per U se U = span{v1 , . . . , vk } .
Lemma 5.3
Sia V uno spazio vettoriale e sia {v1 , . . . , vk } una base di V . Allora i vi sono un
sistema di generatori per V e sono linearmente indipendenti. Per ogni scelta di
v ∈ V esisono e sono unici λ1 , . . . , λk ∈ R tali che
v = λ1 ∗ v1 + · · · + λk ∗ vk =
k
∑
λi ∗ vi .
i=1
Dimostrazione 5.7
L’esistenza degli scalari si ha per definizione, perche’ vi sono un sistema di
generatori per V .
Dimostro l’unicità. Siano λ1 , . . . , λk e η1 , . . . , ηk in R tali che v = λ1 ∗ v1 + · · · +
λk ∗ vk ma v e’ anche uguale a η1 ∗ v1 + ηk ∗ vk . Eguaglio le due condizioni.
(λ1 − η1 )v1 + (λk − ηk ))vk = 0
ma vi sono linearmente indipendenti quindi tutti i coefficienti devono essere uguali
a 0, cioè λi − ηi = 0 per ogni i .
cvd
5.4.8 coordinate
Definizione 5.8
Sia v = (v1 , . . . , vk ) una∑base di V . Se v ∈ V , siano λ1 , . . . , λk ∈ R gli unici
scalari tali per cui v = ki=1 λi ∗ vi . Allora il vettore colonna dato dalla k-upla
Capitolo 5. Spazi vettoriali
77 / 258
si chiama vettore delle coordinate di v nella base B . Allora il vettore MB (v) =
(λ1 , . . . , λi , . . . , λk ) si dice vettore delle coordinate di v rispetto alla base B .
Ogni base B definisce un’applicazione biunivoca MB : V → Rk , che porta un
vettore v nella corrispondete colonna delle coordinate nella base.
Esempio 5.14
Se chiamo B = {1, x, . . . , xd } la base di Rd [x] , la colonna delle coordinate del
polinomio rispetto alla base e’ la colonna dei coefficienti p0 , p1 , . . . , pd .
5.5 Teoremi sulle basi
5.5.1 Basi e vettori linearmente indipendenti
Teorema 5.1
Sia V uno spazio vettoriale su R e sia (v1 , . . . , vk ) una base di V . Siano w1 , . . . , wl
vettori appartenenti a V linearmente indipendenti. Allora certamente l e’ minore
o uguale di k .
In altri termini, se l > k , allora v1 , . . . , vl sono linearmente dipendenti. Equivalentemente, se ho una base di k vettori, allora k e’ il numero massimo di vettori
linearmente indipendenti che si possono trovare nello spazio V .
Dimostrazione 5.8
Dimostriamo che se l > k allora i wi sono linearmente dipendenti.
Sia l = k + r, r ≥ 1 . Allora se w1 , . . . , wk sono linearmente dipendenti, non c’e’
niente da dimostrare.
Supponiamo quindi che w1 , . . . , wk siano linearmente indipendenti, e sono quindi
non nulli.
Passo 1: in particolare w1 ̸= 0 . Siccome i vi sono una base, possiamo esprimere
w1 come combinazione lineare dei vi . Esistono e sono unici α1 , . . . , αk numeri
reali tali che w1 = α1 ∗ v1 + · · · + αk ∗ vk .
Certamente qualche αi ̸= 0 . altrimenti w1 = 0 . Suppongo che sia α1 ̸= 0 senza
perdita di generalita’, eventualmente riordinando i vi . Se α1 ̸= 0 , allora posso
risolvere per v1 . Ottengo che
v1 =
1
−α2
αk
∗ w1 +
∗ v2 − · · · −
∗ vk
α1
α1
α1
e rinominando gli scalari
v1 = λ1 ∗ w1 + η2 ∗ v2 + · · · + ηk ∗ vk
Sia v ∈ V . Allora sappiamo che esistono e sono unici β1 , . . . , βk in R tali per cui
v = β1 ∗ v1 + · · · + βk ∗ vk , perche’ vi sono una base. Sostituisco l’espressione di
v1 nel passaggio precedente
Capitolo 5. Spazi vettoriali
78 / 258
v = β1 ∗ [λ1 ∗ w1 + η2 ∗ v2 + · · · + ηk ∗ vk ] + · · · + βk ∗ vk
v = β1 ∗ λ1 ∗ w1 + β1 ∗ η2 ∗ v2 + β1 ∗ ηk ∗ vk + · · · + βk ∗ vk
raccolgo
v = β1 ∗ λ1 ∗ w1 + β1 ∗ η2 ∗ v2 + (β1 ∗ ηk + βk ) ∗ vk
ho dimostrato che per ogni v ∈ V esistono scalari chiamati β1′ , . . . , βk′ tali che
v = β1′ ∗ w1 + β2′ ∗ v2 + · · · + βk′ ∗ vk
quindi ho dimostrato che
V = span{w1 , v2 , vk }
Ho trovato un sistema di generatori in cui v1 e’ stato sostituito con w1 .
Passo 2: In particolare w2 e’ combinazione lineare dei w1 , v2 , . . . , vk quindi esistono
scalari x1 , y2 , . . . , yk tali che
Se yi = 0 per ogni i , allora avremmo che w2 = x1 ∗ w1 . Questo e’ assurdo perche’
per ipotesi w1 e w2 sono linearmente indipendenti.
Allora qualche yi ̸= 0 . Possiamo supporre senza perdita di generalita’ che sia
y2 ̸= 0 .
Risolvo per v2 e ricavo che:
v2 = −
1
y3
yk
x1
∗ w1 +
∗ w2 −
∗ v3 + · · · −
∗ vk
y2
y2
y2
y2
Ho scritto v2 nella forma Allora sia v ∈ V . siccome w1 , v2 , . . . , vk generano V ,
esistono scalari a1 , b2 , . . . , bk ∈ R tali che Sostituisco l’espressione di v2 in questo
passaggio.
v = a1 ∗ w1 + b2 ∗ t1 ∗ w1 + b2 ∗ t2 ∗ w2 + b2 ∗ t3 ∗ v3 + n2 ∗ tk ∗ vk + bk ∗ vk
v = (a1 + b2 ∗ t1 ) ∗ w1 + (b2 ∗ t2 ) ∗ w2 + b2 ∗ t3 ∗ v3 + · · · + ∗vk
Ho dimostrato che:
V = span{w1 , w2 , v3 , . . . , vk }.
Passo generico: Se 1 < j < k , supponiamo di sapere eventualmente riordinando
i vi che {w1 , . . . , wj , vj+1 , . . . , vk } sono un sistema di generatori per V . Allora in
particolare esistono α1 , . . . , αj , βj+1 , . . . , βk ∈ R tali che
wj+1 = α1 ∗ w1 + · · · + αj ∗ wj + βj+1 ∗ vj+1 + · · · + βk ∗ vk
Capitolo 5. Spazi vettoriali
79 / 258
Se tutti i βi fossero nulli, allowa wj+1 sarebbe combinazione lineare di w1 , . . . , wj , wj+1
con j + 1 ≤ k , ma questo e’ assurdo perche’ supponevo w1 , . . . , wk linearmente
indipendenti.
Allora dev’essere βr ̸= 0 per qualche j + 1 < r < k ,
Riordinando i vi possiamo supporre senza perdita di generalita’ che sia βj+1 ̸= 0
Allora risolvendo per vj+1 ricavo che
vj+1 = −
1
βk
α1
∗ w1 +
∗ wj+1 −
∗ vk
βj+1
βj+1
βj+1
cioè vj+1 si puo’ scrivere come
Se v e’ un elemento arbitrario di V , esistono r1 , . . . , rj , rj+1 , . . . , rk ∈ R tali che
Sostituisco a vj+1 l’espressione ricavata prima: Raccolgo. per certi scalari ottengo
Ricavo che
V = span{w1 , wj+1 , . . . , vj+2 , vk }
Procedo induttivamente fino a sostituire tutti i vi con i wj , fino al k -esimo passo.
Passo k +1 : {w1 , . . . , wk } sono un sistema di generatori per V , pertanto esistono
α1 , . . . , αk ∈ R tali che
wk+1 = α1 ∗ w1 + · · · + αk ∗ wk .
Allora w1 , . . . , wl sono linearmente dipendenti
Conclusione: Se v1 , . . . , vk e’ una base di V e w1 , . . . , wl sono linearmente indipendenti, allora necessariamente l ≤ k .
cvd
5.5.2 Basi e cardinalita’
Corollario 5.1
Tutte le basi di V hanno la stessa cardinalita’, cioe’, se {v1 , . . . , vk } e {v1′ , . . . , vl′ }
sono basi di V , allora necessariamente k = l .
Dimostrazione 5.9
Siccome {v1 , . . . , vk } e’ una base di V , e {v1′ , . . . , vl′ } sono linearmente indipendenti, in base al teorema dimostrato precedentemente l ≤ k .
Scambiando i ruoli delle due basi nel ragionamento, {v1′ , . . . , vl′ } e’ una base di V
e {v1 , . . . , vk } sono linearmente indipendenti, allora k ≤ l .
Se l ≤ k, k ≤ l , allora k = l
cvd
Capitolo 6. Spazi vettoriali somma prodotto e intersezione
80 / 258
Capitolo 6
Spazi vettoriali somma
prodotto e intersezione
6.1 Dimensione di spazi vettoriali
6.1.1 Definizione e osservazioni introduttive
Definizione 6.1
Sia V uno spazio vettoriale e sia d un intero maggiore o uguale di 1. Diremo che
V ha dimensione d se V possiede una base di cardinalita’ d , quindi se ogni base
di V ha cardinalita’ d .
In altre parole, la dimensione di uno spazio vettoriale e’ il numero di vettori in
una base.
Osservazione 6.1
Se V e’ lo spazio nullo, diremo che la dimensione di V e’ 0.
Osservazione 6.2
Se d e’ la dimensione di V , d e’ il massimo numero di vettori linearmente indipendenti che possiamo trovare in V . d e’ la lunghezza massima di una stringa di
vettori linearmente indipendenti in V .
6.1.2 Spazio vettoriale finitamente generato
Definizione 6.2
Uno spazio vettoriale V si dice finitamente generato se ammette un sistema finito
di generatori, ossia se esistono v1 , . . . , vr per qualche intero r , tali che V =
span{v1 , . . . , vr } .
In ogni spazio di dimensione finita una base e’ un sistema finito di generatori.
Capitolo 6. Spazi vettoriali somma prodotto e intersezione
81 / 258
Proposizione 6.1
Se V e’ uno spazio vettoriale finitamente generato, allora V ammette una base.
Dimostrazione 6.1
E’ immediata dalla caratterizzazione delle basi. Sia v1 , . . . , vr un sistema finito di
generatori ordinati. Scartiamo tutti i vj = 0 e tutti i vj che sono combinazioni
lineari dei precedenti, allora lo l’insieme dei vettori rimanenti {v1′ , . . . , vs′ } con
s′ ≤ r , e’ ancora un sistema lineare di generatori.
Ho una stringa di vettori di cui il primo e’ non nullo e ho un sistema di generatori
di vettori linearmente indipendenti, quindi e’ una base.
cvd
6.1.3 dimensione di sottospazi vettoriali
Teorema 6.1
Sia V uno spazio vettoriale di dimensione finita d . Sia U in V un sottospazio
vettoriale. Allora certamente la dimensione di U non puo’ eccedere quella di V (
D(U ) ≤ D(V ) ) e vale l’uguale se e solo se U = V .
Dimostrazione 6.2
Se prendo un numero qualsiasi di vettori in U , allora {u1 , . . . , uk } sono linearmente dipendenti / indipendenti in U se e solo se sono linearmente dipendenti
/ indipendenti in V , perche’ le operazioni di spazio vettoriale in U sono quelle
di V ristrette a U . Quindi siccome in V non possiamo trovare piu’ di k vettori
linearmente indipendenti, lo stesso dev’essere vero in U . Pertanto la dimensione
di U e’ certamente minore o uguale di quella di V .
Sia d la dimensione di U uguale alla dimensione di V e supponiamo per assurdo
che U non sia un sottospazio massimo di V . Prendo d vettori u1 , . . . , ud tali che
U = span{u1 , . . . , ud } . Siccome U per ipotesi assurda non coincide con V , allora
esiste v ∈ V, v ∈
/ U tale che v ∈
/ span{u1 , . . . , ud } . Allora se considero la stringa
{u1 , . . . , ud , v} , sicuramente u1 ̸= 0 , v non e’ combinazione lineare dei precedenti
perche’ non appartiene a U . Questo significa che ho trovato d + 1 vettori in V
linearmente indipendenti e il che e’ assurdo, perche’ V per ipotesi ha dimensione
d . Allora U coincide con V .
cvd
Sia V uno spazio vettoriale di dimensione d finita ( d ≥ 1 ). Allora se v1 , . . . , vd
sono elementi di V che generano V , allora la sequenza ordinata dei vj e’ una
base di V .
Capitolo 6. Spazi vettoriali somma prodotto e intersezione
82 / 258
6.1.4 Esercizio determinazione della dimensione di uno spazio
vettoriale
Esempio 6.1
Consideriamo V insieme dei vettori colonna (x1 , . . . , xd ) ∈ Rd tali che
per opportuni ai . Fisso aj ̸= 0 per qualche j .
∑
ai ∗xi = 0
• Dimostrare che V in Rd e’ un sottospazio vettoriale.
• trovare la dimensione di V
V spazio vettoriale: Verifico le proprietà della definizione:
1. Il vettore nullo appartiene a V , perche’ e questo soddisfa l’equazione
2. Se considero due vettori colonna (x1 , . . . , xd ) e (y1 , . . . , yd ) in V , allora
∑
∑
ai xi = 0,
ai yi = 0
i
i
per definizione.Facendo la combinazione lineare con opportuni scalari ottengo
α ∗ (x1 , . . . , xd ) + β = (α ∗ x1 + βy1 , . . . , α ∗ xd + β ∗ yd )
Allora si ha che anche αX + βY ∈ V , infatti
∑
=
ai (αxi + βyi )
i
∑
α∗
∑
i
αai xi +
i
ai xi + β ∗
∑
∑
βai yi
i
a i yi = α ∗ 0 + β ∗ 0 = 0
i
Dimensione: Supponiamo per esempio che sia a1 ̸= 0 . Allora V e’ l’insieme dei
vettori colonna (x1 , . . . , xd ) che hanno come prima componente x1 = −a2 /a1 ∗
x2 − · · · − ad /a1 ∗ xd , al variare di x2 , . . . , xd ∈ R .
Un sisema di generatori per lo spazio V è dato da:
v2 = x2 ∗ (−a2 /a1 ) ∗ (1, 0, 0, 0, . . . )
V3 = x3 ∗ (−a3 /a1 )(0, 1, 0, 0, . . . )
...
vd = −xd ∗ (ad /a1 )(0, 0, 0, . . . , 1)
Ho d − 1 generatori (parto da v2 ), quindi la dimensione dello spazio e’ minore
uguale di d − 1 e vale l’uguale se e solo se i vettori sono tutti linearmente indipendenti, e questo è vero perché sono vettori della base canonica moltiplicati per
uno scalare.
Capitolo 6. Spazi vettoriali somma prodotto e intersezione
83 / 258
6.2 spazio vettoriale prodotto
Definizione 6.3
Siano V1 , V2 spazi vettoriali su K e sia V1 × V2 il loro prodotto cartesiano ovvero
l’insieme {(v1 , v2 ), vj ∈ VJ } .
Definiamo le operazioni in V1 × V2 come segue:
somma (v1 , v2 ) + (u1 , u2 ) = (v1 + u1 , v2 + u2 ) per ogni scelta di (v1 , v2 ) e di
(u1 , u2 ) ∈ V1 × V2 .
prodotto se λ ∈ R , allora λ ∗ (v1 , v2 ) = (λ ∗ v1 , λ ∗ v2 ) per ogni λ ∈ R e per ogni
scelta di (v1 , v2 ) ∈ V1 × V2
Con queste operazioni il prodotto cartesiano V1 × V2 e’ uno spazio vettoriale e si
chiama spazio vettoriale prodotto.
6.2.1 dimensione dello spazio vettoriale prodotto
Problema: Ci si chiede quale sia la dimensione di V1 × V2 supposte note la
dimensione di V1 e quella di V2 . Chiamo d1 la dimensione di V1 e d2 la dimensione
di V2 . Entrambe sono maggiori di 0 e minori di +∞ .
Determinazione del sistema di generatori: Possiamo trovare B1 = {r1 , . . . , rd1 }
base di V1 (la base ha la cardinalita’ della dimensione dello spazio). Analogamente
esiste la base B2 = (s1 , . . . , sd2 ) .
Sia (A, B) un elemento di V1 × V2 , A ∈ V1 , B ∑
∈ V2 . Esistono e∑sono unici
2
1
βj ∗ sj
aj ∗ rj e B = dj=1
α1 , . . . , αd1 e β1 , . . . , βd2 numeri reali tali che A = dj=1
. La coppia ordinata (A, B) si puo’ scrivere come
(A, 0V2 ) + (0V1 , B) =
(α1 ∗ r1 + · · · + αd1 ∗ rd1 , 0V2 ) + (0V1 , β1 ∗ s1 + · · · + βd2 ∗ sd2 ) =
Scompongo ulteriormente
[(α1 ∗ r1 , 0V2 ) + · · · + +(0V1 , β1 ∗ s1 ) + (0V1 , βd2 ∗ sd2 )]
= [α1 (r1 , 0V2 ) + · · · + αd1 ∗ (rd1 , 0V2 ) + β1 ∗ (0V1 , s1 ) + βd2 (0V1 , sd2 )]
Questa e’ una combinazione lineare, appartiene a
span{(r1 , 0V2 ), . . . , (rd1 , 0V2 ), (uv1 , s1 ), . . . , (0V1 , sd2 )}
Questo vale per un qualsiasi elemento (A, B) ∈ V1 × V2 .
Quindi i vettori (r1 , 0V2 ) , . . . , (rd1 , 0V2 ) , (0V1 , s1 ) , . . . , (0V1 , sd2 ) costituiscono
un sistema di generatori per lo spazio vettoriale prodotto V1 × V2 .
Capitolo 6. Spazi vettoriali somma prodotto e intersezione
84 / 258
Possiamo dire che la dimensione e’ sicuramente minore o uguale della cardinalita’
del sistema di generatori e vale l’uguale se e solo se tutti i vettori sono linearmente
indipendenti.
Dimostrazione della lineare indipendenza: Supponiamo di avere scalari
α1 , . . . , αd1 , β1 , . . . , βd2 tali che
α1 ∗ (r1 , 0V2 ) + · · · + αd1 ∗ (rd1 , 0V2 ) + β1 ∗ (0V1 , s1 ) + · · · + βd2 ∗ (0V1 , sd2 ) = 0
Gli scalari devono essere tali che la loro combinazione con i vettori dello span sia
uguale al vettore nullo.
Il vettore nullo di V1 × V2 e’ il vettore (0V1 , 0V2 ) , allora separando le componenti
ottengo:
α1 ∗ r1 + · · · + βd1 ∗ rd1 = 0V1
β1 ∗ s1 + · · · + βd2 ∗ sd2 = 0V2
Ma l’unico modo in cui questo avviene e’ quando tutti gli scalari sono uguali a 0
Quindi i vettori sono linearmente indipendenti.
Conclusione: La dimensione di V1 × V2 e’ uguale alla somma delle dimensioni
d1 + d2 e inoltre se li prendo nell’ordine
(r1 , 0V2 )
...
(rd1 , 0v2 )
(0V1 , s1 )
...
(0V2 , sd2 )
e’ una base di V1 × V2 .
Esempio 6.2
Considero Rd [X] , l’insieme dei polinomi reali di grado minore o uguale di d .
Allora {1, x, . . . , xd } presa nell’ordine e’ una base. La dimensione di questo spazio
e’ precisamente d + 1
Chiamo Z1 l’insieme dei polinomi in Rd [X] con la proprieta’ che p(1) = 0 (sono
i polinomi divisibili per x − 1 , cioè tali che x − 1 | p(x) ). In altre parole Z1 e’
l’insieme dei polinomi della forma (x − 1) ∗ q(x) , dove q(x) ha grado al massimo
d − 1 e quindi questi polinomi appartengono a Rd [X] . Allora
Z1 = span{x − 1, (x − 1) ∗ x, . . . , (x − 1) ∗ xd−1 }
Questi vettori costituiscono una base„ quindi la dimensione di Z1 è d .
Capitolo 6. Spazi vettoriali somma prodotto e intersezione
85 / 258
6.2.2 Teorema della base incompleta
Teorema 6.2
Sia V uno spazio vettoriale finito dimensionale. Sia d ≥ 1 la sua dimensione.
Siano v1 , . . . , vk ∈ V linearmente indipendenti. Sappiamo che k ≤ d e se k = d
, allora v1 , . . . , vk e’ una base di V . Se 1 ≤ k < d questa non e’ una base, ma
esistono vk+1 , . . . , vd ∈ V tali che la sequenza ordinata {v1 , . . . , vk , vk+1 , . . . , vd }
sia una base. In altre parole, qualsiasi stringa ordinata di vettori linearmente
indipendenti puo’ essere completata a una base dello spazio.
Dimostrazione 6.3
Dimostro per induzione su c = d−k , dove c e’ il numero dei vettori da aggiungere
alla base affinche’ d = k .
1. Se c = 0 , d = k siamo nel caso appena discusso, i vi sono gia’ una base.
2. Se c = 1 , allora ho d − 1 vettori linearmente indipendenti.Lo span U
dei vettori e’ un sottospazio vettoriale di V e la sua dimensione e’ d − 1 ,
perche’ {v1 , . . . , vd−1 } e’ una base di U . d−1 < d allora U e’ un sottospazio
proprio, cioe’ esiste un vettore che chiamo v e apppartiene a V ∖ U .Allora
per definizione v non e’ combinazione lineare di v1 , . . . , vd−1 , perche’ se
lo fosse sarebbe un elemento di U .Pertanto {v1 , . . . , vd−1 , v} è una base
per V , infatti v1 e’ non nullo, nessun vettore e’ combinazione lineare dei
precedenti quindi sono linearmente indipendenti. Quindi completo la base
di partenza ponendo vd = v .
3. Passo induttivo: Sia d ≥ 2 e supponiamo vero l’asserto per tutti i valori con
c < n .Supponiamo che v1 , . . . , vd−n ∈ V siano linearmente indipendenti
(c = n) .Siccome d − n < d , se dico U = span{v1 , . . . , vd−n } allora U e’
un sottospazio vettoriale di V e la sua dimensione e’ uguale a d − n < d
. U e’ un sottospazio vettoriale proprio di V quindi esiste v ∈ V ∖ {U }
, v non e’ combinazione lineare di v1 , . . . , vd−n per costruzione altrimenti
apparterrebbe a U ..Pertanto, se prendo la sequenza ordinata v1 , . . . , vd−n , v
essa e’ un insieme di vettori linearmente indipendenti.Pongo vd−n+1 = v Ora
c = n − 1 , e per l’ipotesi induttiva esistono vd−n+2 , . . . , vd ∈ V tali che la
stringa {v1 , . . . , vd−n , vd−n+1 , . . . , vd } e’ una base di V .
cvd
6.3 spazio vettoriale intersezione
6.3.1 proprietà generali
Teorema 6.3
Sia V uno spazio vettoriale su R e siano A, B ∈ V sottospazi vettoriali. Allora
anche l’intersezione e’ un sottospazio vettoriale di V .
Capitolo 6. Spazi vettoriali somma prodotto e intersezione
86 / 258
Dimostrazione 6.4
L’elemento neutro di V appartiene ad A e a B perche’ sono entrambi sottospazi
vettoriali. Qualsiasi sottospazio vettoriale contiene 0. Quindi l’elemento neutro
appartiene ad A ∩ B che pertanto e’ diverso dall’insieme vuoto.
Siano poi v1 , v2 ∈ A∩B e λ1 , λ2 ∈ R . Allora v1 , v2 ∈ A implica che λ1 ∗v1 +λ2 ∗v2 ∈
A , perche’ A e’ un sottospazio vettoriale chiuso rispetto alla combinazione lineare.
Per la stessa ragione, siccome v1 , v2 ∈ A ∩ B , essi appartengono anche a B ,
quindi λ1 ∗ v1 + λ2 ∗ v2 ∈ B perche’ B e’ un sottospazio vettoriale.
Allora siccome λ1 ∗ v1 + λ2 ∗ v2 appartiene sia ad A che a B , appartiene anche
all’intersezione.
cvd
Esempio 6.3
In generale se abbiamo scalari aij , i = 1, . . . , k e j = 1, 2 consideriamo il sistema lineare omogeneo: Se chiamo A l’insieme dei vettori colonna che soddisfano
la prima equazione e B l’insieme dei vettori colonna che soddisfano la seconda
equazione, allora A e B sono sottospazi vettoriali. Se a1j ̸= 0 per qualche j e
a2j ̸= 0 per qualche j, allora dimA = dimB = d − 1 (uno dei vettori puo’ essere
espresso come combinazione lineare degli altri). Allora lo spazio delle soluzioni del
sistema lineare omogeneo e’ A ∩ B , perche’ e’ l’insieme dei punti che soddisfano
entrambe le equazioni.
Se S e’ lo spazio delle soluzioni del sistema lineare omogeneo, allora S = A ∩ B ,
quindi e’ un sottospazio vettoriale.
Proposizione 6.2
Se A1 , . . . , Ar ∈ V sono sottospazi vettoriali, allora l’intersezione A1 ∩ · · · ∩ Ar e’
a sua volta un sottospazio vettoriale.
Dimostrazione 6.5
Procedo induttivamente:
1. Se r = 2 , A1 ∩ A2 e’ un sottospazio vettoriale per il teorema dimostrato
precedentemente.
2. Se r = 3 , considero lo spazio A1 ∩ A2 ∩ A3 .Applicando la proprieta’
associativa ottengo:
(A1 ∩ A2 ) ∩ A3
(A1 ∩ A2 ) = I e’ un sottospazio vettoriale per il caso r = 2 . I ∩ A3 e’ a sua
volta un sottospazio vettoriale per il caso r = 2 .
3. Passo induttivo: Suppongo che l’ipotesi sia vera per r e lo dimostro per
r + 1 .Se considero A1 ∩ · · · ∩ Ar+1 essa e’ uguale a (A1 ∩ · · · ∩ Ar ) ∩ Ar+1 .
(A1 ∩· · ·∩Ar ) = I e’ un sottospazio vettoriale per ipotesi induttiva. I ∩Ar+1
e’ un sottospazio vettoriale per il caso r = 2
Capitolo 6. Spazi vettoriali somma prodotto e intersezione
87 / 258
cvd
Corollario 6.1
In generale se prendo un qualsiasi sistema lineare omogeneo, dati scalari aij ∈ R
con i = 1, . . . , k , j = 1, . . . , d , sia S in Rd il luogo delle soluzioni del sistema
lineare omogeneo di k equazioni con d incognite: Sia Ui l’insieme dei vettori
colonna che soddisfano la i-esima equazione ai1 ∗ x1 + aid ∗ xd = 0 .
Ciascuno dei sottospazi che soddisfa l’equazione omogenea si chiama iperpiano,
se tutti gli aij sono diversi da 0.
L’intersezione degli iperpiani U1 ∩ · · · ∩ Uk e’ l’insieme delle soluzioni del sistema
ed e’ un sottospazio vettoriale.
Esempio 6.4
In R3 qualsiasi retta e’ il luogo delle soluzioni di un sistema lineare omogeneo
perche’ e’ data dall’intersezione tra due piani.
Esempio 6.5
Consideriamo lo spazio dei polinomi di grado minore o uguale di d , e consideriamo
lo spazio
Z1,2 = {p(x) ∈ Rd [X], t.c. p(1) = p(2) = 0}.
Questo spazio e’ dato dall’intersezione tra l’insieme dei polinomi che si annullano
in 1 e quelli che si annullano in 2 . Quindi Z1,2 = Z1 ∩ Z2 .
Z1,2 è un sottospazio vettoriale, infatti:
1. Il vettore nullo appartiene a Z1,2 . Se p(x), q(x) ∈ Z1 e p(x), q(x) ∈ Z2 ,
allora (λ ∗ p + µ ∗ q)(1) = λ ∗ 0 + µ ∗ 0 = 0 ,inoltre (λ ∗ p + µ ∗ q)(2) = 0 ,
cioè λ ∗ p + µ ∗ q ∈ Z1,2 .
Inoltre Z1,2 ha dimensione d − 1 e ha come base:
B = {(x − 1)(x − 2) ∗ 1, (x − 1)(x − 2) ∗ x, . . . , (x − 1)(x − 2) ∗ xd−2 }.
Esempio 6.6
Sia X un insieme e prendiamo l’insieme di tutte le funzioni f : X → R , che
chiamo Rx ed e’ uno spazio vettoriale. Sia IY l’insieme di tutte le funzioni f ∈ RX
la cui restrizione a Y e’ identicamente nulla. IY ∈ RX e’ un sottospazio vettoriale
per ogni sottoinsieme Y ⊂ X .
Se Y1 , Y2 sono due sottoinsiemi di X , allora l’intersezione IY1 ∩ IY2 e’ l’insieme
delle funzioni che si annullano su Y1 ∪ Y2 .
Osservazione 6.3
Sia IY1 ∩ IY2 uguale allo spazio nullo. Allora Y1 ∪ Y2 = X .
Capitolo 6. Spazi vettoriali somma prodotto e intersezione
88 / 258
6.4 Spazio vettoriale somma
6.4.1 Proprietà generali
Definizione 6.4
Sia V uno spazio vettoriale su R . Siano A e B sottospazi vettoriali di V . La
somma di A e B e’ il sottoinsieme di V così definito:
A + B = {(a + b), a ∈ A, b ∈ B}
( a e b sono vettori).
Esempio 6.7
Se V e’ uguale a R3 , prendo A = span{e1 } , insieme dei vettori della forma
(λ, 0, 0), λ ∈ R . Prendo B = span{e2 } insieme dei vettori della forma (0, µ, 0), µ ∈
R.
A + B = (λ, 0, 0) + (0, µ, 0) = (λ, µ, , 0)
Allora
span{e1 } + span{e2 } = span{e1 , e2 } == {(x, y, 0), x, y ∈ R}.
Esempio 6.8
Sia X un insieme. Siano Y e Z due sottoinsiemi di X . Prendiamo lo spazio IY
delle funzioni che si annullano su Y , e lo spazio IZ delle funzioni che si annullano
su Z .. Sia f : Y → R ∈ IY , g : Z → R ∈ IZ . Allora f + g = 0 . Sicuramente la
somma e’ contenuta in IY ∩IZ , e in realtà si può dimostrare che IY ∩IZ = IY +IZ
.
6.4.2 Teorema sullo spazio somma
Teorema 6.4
Sia V uno spazio vettoriale, siano A e B in V sottospazi vettoriali, allora
1. A + B e’ un sottospazio vettoriale (che si dice lo spazio somma di A e B );
2. A + B e’ il piu’ piccolo sottospazio vettoriale di V contenente A ∪ B .
Dimostrazione 6.6
Unione contenuta nella somma: Lo spazio A + B contiene il vettore nullo,
che puo’ essere scritto come 0V + 0V con 0V ∈ A e 0V ∈ B . Quindi A + B ̸= ∅ .
Capitolo 6. Spazi vettoriali somma prodotto e intersezione
89 / 258
Per ogni a ∈ A , a = a + 0V con 0V ∈ B , quindi a appartiene a A + B . Quindi
A e’ contenuto in A + B .
Allo stesso modo per ogni b ∈ B , b = 0V + b , quindi b ∈ A + B essendo somma
di un elemento di A e uno di B .
Allora A + B contiene l’unione insiemistica A ∪ B .
Somma come spazio vettoriale: Supponiamo di avere elementi v1 , v2 ∈ A + B
e λ1 , λ2 ∈ R . Per definizione esistono a1 ∈ A, b1 ∈ B tali che v1 = a1 + b1 .
Analogamente esistono a2 ∈ A, b2 ∈ B tali che v2 = a2 + b2 .
Se considero la combinazione lineare di v1 , v2
λ1 ∗ v1 + λ2 ∗ v2 =
λ1 (a1 + b1 ) + λ2 (a2 + b2 ) =
(λ1 ∗ a1 + λ2 ∗ a2 ) + (λ1 ∗ b1 + λ2 ∗ b2 ) = 0
E’ ancora la somma di un elemento di A e un elemento di B . Quindi anche
la combinazione lineare di elementi di A e B e’ un elemento di A + B . Segue
che A + B e’ un sottospazio vettoriale perche’ e’ non vuoto e chiuso rispetto a
combinazioni lineari.
Dimostrazione della minimalità: Sia C ⊂ V sottospazio vettoriale tale che
C contiene A ∪ B . Allora per ogni a ∈ A , per ogni b ∈ B si ha: a ∈ C, b ∈ C ,
quindi siccome C e’ sottospazio vettoriale allora a + b ∈ C . Quindi C contiene
l’insieme {a + b, a ∈ A, b ∈ B} , cioè contiene lo spazio somma A + B .
cvd
6.5 Formula di Grasman
Teorema 6.5
Siano A e B due sottospazi di V finitodimensionali. Allora possiamo dire che:
dim(A + B) = dim + dim − dim.
6.5.1 Caso 1 A sottoinsieme di B
Dimostro prima l’asserto nel caso particolare in cui B ⊂ A .
Dimostrazione 6.7
Se A contiene B , allora A + B = A , A ∩ B = B . Di conseguenza dim dev’essere
uguale a dim . Vale la formula perché
dim = dim + dim − dim = dim + dim − dim = dim.
cvd
Capitolo 6. Spazi vettoriali somma prodotto e intersezione
90 / 258
6.5.2 Caso 2 somma diretta
Definizione 6.5
Supponiamo che A ∩ B sia il vettore nullo. In questo caso diremo che A e B sono
in somma diretta e lo spazio somma si può indicare con A ⊕ B .
Dimostro l’asserto nel caso in cui i due spazi sono in somma diretta.
Dimostrazione 6.8
Sia d la dimensione di A e c la dimensione di B . Sia BA = {a1 , . . . , ad } una base
di A e sia analogamente BB = {b1 , . . . , bc } una base di B ..
Sia v in A + B . Allora esistono a ∈ A, b ∈ B tali che v = a + b . Quindi esistono
α1 , . . . , αd , β1 , . . . , βc ∈ R tali che a = α1 ∗a1 +· · ·+αd ∗ad , e b = β1 ∗b1 +· · ·+βc ∗bc
, allora posso scrivere:
v = α1 ∗ a1 + · · · + αd ∗ ad + β1 ∗ b1 + + · · · + βc ∗ bc ,
che appartiene a span{a1 , . . . , ad , b1 , . . . , bc } .
Allora
A + B = span{a1 , . . . , ad , b1 , . . . , bc }.
Questo vale sempre, anche se i due spazi non sono in somma diretta. La dimensione di A + B e’ sempre minore o uguale della somma delle dimensioni.
Se suppongo che i due spazi sono in somma diretta, affermo che la stringa ordinata
{a1 , . . . , ad , b1 , . . . , bc } e’ una base di A + B (se l’intersezione e’ il vettore nullo).
Infatti dimostro che, dati α1 , . . . , αd , β1 , . . . , βc ∈ R tali che
α1 ∗ a1 + · · · + αd ∗ ad + β1 ∗ b1 + · · · + βc ∗ bc = 0V
allora tutti i coefficienti sono uguali a 0.
Portando a secondo membro i bj , ottengo
α1 ∗ a1 + · · · + αd ∗ ad = −β1 ∗ b1 − · · · − βc ∗ bc
e chiamo r il vettore che copare al primo e al secondo membro.
Si ha quindi r = α1 ∗ a1 + · · · + αd ∗ ad e quindi r ∈ A . Però si ha anche
r = −b1 ∗ b1 − · · · − βc ∗ bc e quindi r ∈ B . ma siccome sto supponendo che
A ∩ B = 0 , segue necessariamente r = 0 .
r = 0 significa che α1 ∗ a1 + · · · + αd ∗ ad = 0 , quindi tutti gli αj sono nulli,
perche’ gli aj costituiscono una base di A .
Anche β1 ∗b1 +· · ·+βc ∗bc = 0 , quindi tutti i βj sono nulli, perche’ i bj costituiscono
una base di B .
Allora quella che sto considerando e’ una base dello spazio somma.
Capitolo 6. Spazi vettoriali somma prodotto e intersezione
91 / 258
Quindi la dimensione di A + B e’ uguale a c + d se A ∩ B = 0 . Questo coincide
con quanto afferma la formula di Grasman:
dim(A + B) = dimA + dimB − dim(A ∩ B) = d + c − 0 = d + c.
6.5.3 Caso 3 dimensione dell’intersezione non nulla
Dimostro l’asserto nel caso generale.
Dimostrazione 6.9
Possiamo supporre che la dimensione dell’intersezione sia positiva e sia minore di
min{dim, dim} . Chiamo e la dimensione dell’intersezione, d la dimensione di A
e C la dimensione di B .
Sia (v1 , . . . , ve ) una base di A ∩ B . Questo e’ un sottospazio vettoriale. Allora
per il teorema della base incompleta esistono certamente a1 , . . . , ad−e ∈ A tali
che {a1 , . . . , ad−e , v1 . . . ve } sia una base di A .
Analogamente esistono b1 , . . . , bc−e ∈ B tali che {b1 , . . . , bc−e , v1 , . . . , ve } sia una
base di B .
Affermo che B∗ = {a1 , . . . , ad−e , v1 , . . . , ve , b1 , . . . , bc−e } e’ una base di A + B . Se
cio’ e’ vero la dimensione di A + B risulta essere uguale a d − e + e + c − e =
d + c − e = dim + dim − dim e quindi la formula di Grasman vale.
Dimostro che B∗ è una base di A + B . Mostro che
• B∗ e0 un sistema di generatori per A + B
Sia v ∈ A + B , quindi per definizione esistono a ∈ A, b ∈ B tali che v =
a + b . Siccome {a1 , . . . , ad−e , v1 , . . . , ve } e’ una base di A , esistono e sono unici
x1 , . . . , xd−e , y1 , . . . , ye tali che Allo stesso modo siccome {v1 , . . . , ve , b1 , . . . , bc−e }
e’ una base di B , esistono e sono unici r1 , . . . , re , s1 , . . . , sc−e ∈ R tali per cui
Ne segue che Quindi v ∈ span{a1 , . . . , ad−e , v1 , . . . , ve , b1 , . . . , bc−e } e A + B è
contenuto in questo span.
L’inclusione opposta è ovvia quindi A + B è proprio uguale allo span dei vettori
sopra elencati.
• Devo dimostrare che a1 , . . . ad−e , v1 , . . . , ve , b1 , . . . , bc−e sono linearmente indipendenti.
Supponiamo di avere una combinazione lineare che da’ 0 e mostriamo che gli
scalari sono nulli.
Dati numeri reali x1 , . . . , xd−e , y1 , . . . , ye , z1 , . . . , zc−e considero la combinazione
lineare:
d−e
∑
j=1
x j ∗ aj +
e
∑
j=1
yj ∗ v j +
c−e
∑
j=1
zj ∗ bj = 0.
Capitolo 6. Spazi vettoriali somma prodotto e intersezione
92 / 258
Porto i bj al secondo membro:
∑
xj ∗ aj +
∑
yj ∗ vj =
∑
−zj ∗ bj
Chiamo R il vettore che puo’ essere espresso come primo o secondo membro.
Il primo membro e’ un elemento di A mentre il secondo e’ un elemento di B ,
quindi R appartiene a A ∩ B .
∑
Esistono t1 , . . . , te ∈ R tali che R =
tj ∗ vj , perche’ v1 , . . . , ve e’ una base di
A∩B .
∑
∑
Allora se uso la seconda
identita’
tj ∗ vj =
−zj ∗ bj .
∑
∑ per R , ricavo che
Quindi ricavo che
yj ∗ vj + zj ∗ bj = 0
v1 , . . . , ve , b1 , . . . , bc−e e’ una base di B quindi i vettori sono linearmente indipendenti. Quindi ricavo che tj = 0zl = 0 per j = 1, . . . , e e l = 1, . . . , c − e
.
∑
∑
Ricavo che
xj ∗ aj + yj ∗ vj = 0 (ho gia’ dimostrato che il terzo termine e’
0).
Anche gli aj e i vj formano una base di A , allora sono linearmente indipendenti
e tutti i coefficienti della combinazione lineare sono necessariamente uguali a 0.
Quindi xj = 0, yl = 0 per j = 1, . . . , d − e e l = 1, . . . , e .
cvd
Esercizio 6.1
Siano A e B sottospazi di V in somma diretta. Dimostrare che per ogni vettore
in A ⊕ B esistono e sono unici a ∈ A, b ∈ B tali che v = a + b .
Dim. L’esistenza degli elementi a e bdipende dalla definizione di spazio somma,
infatti un elemento appartenente allo spazio somma e’ un elemento che si puo’
scrivere come a + b con a ∈ A, b ∈ B .
Dimostro l’unicita’. Per assurdo suppongo che esistono due elementi a′ , b′ , tali
che v = a + b = a′ + b′ con a, a′ ∈ A , b, b′ ∈ B . Se i due spazi sono in somma
diretta la loro intersezione e’ il vettore nullo. Se a + b = a′ + b′ , posso anche
scrivere che a − a′ = b′ − b . Allora a − a′ ∈ A , analogamente b′ − b ∈ B .
Siccome l’unico elemento in A ∩ B e’ l’elemento neutro, possiamo scrivere che
a − a′ = b − b′ = O , quindi necessariamente a = a′ e b = b′ , e la scrittura di
v ∈ A ⊕ B è unica.
Capitolo 7. Matrici e spazi vettoriali
93 / 258
Capitolo 7
Matrici e spazi vettoriali
7.1 Nozioni elementari sulle matrici
Osservazione 7.1
Se U ∈ Rk e’ generato da vettori u1 , . . . , ul , U = span{u1 , . . . , ul } , allora ci
chiediamo
1. come calcolare la dimensione di U ;
2. come trovare equazioni cartesiane per U .
Scriviamo u1 , . . . , ul come una matrice k × l .
7.1.1 Definizione di matrice
Definizione 7.1
Una matrice k × l e’ un ordinamento di numeri aij disposti in k righe e l colonne.
Esempio 7.1
Se A e’ una matrice 2 × 2 essa e’ della forma
a b
c d
Un esempio di matrice A 3 × 2 è il seguente:
1 5
3 6
1 6
Un vettore colonna e’ una matrice n × 1 , mentre un vettore riga e’ una matrice
1×n .
Capitolo 7. Matrici e spazi vettoriali
94 / 258
Data una matrice A = k × l della forma:
a11 a12
a21 a22
... ...
ak1 ak2
...
...
...
...
a1l
a2l
...
akl
Aj e’ la j-esima colonna di A , cioe’ e’ il vettore colonna
a1j
a2j
...
akj
che e’ un vettore in Rk per j = 1, . . . , l .
Invece ai sara’ la i-esima riga. E’ un vettore riga (ai1 , . . . , ail ) per i = 1, . . . , k .
Definizione 7.2
Sia A una matrice k × l , allora il rango per colonne di A e’ la dimensione dello
span delle colonne di A , dove span{a1 , . . . , al } e’ un sottospazio vettoriale di Rk
Analogamente, il rango per righe e’ la dimensione dello span delle righe quando
le traspongo.
Il problema di calcolare la dimensione di un sottospazio vettoriale U ∈ Rk , noti
dei generatori, equivale quindi al problema di calcolare il rango di una matrice
avente per colonne tali generatori.
7.1.2 Operazioni per riga
Definizione 7.3
Le operazioni elementari per righe su una matrice k × l sono le seguenti:
1. scambio di due righe: Questa operazione porta la matrice A in una matrice
A′ che e’ uguale ad A , ma in cui la i-esima riga viene scambiata con la
j-esima.
2. moltiplicare una riga per uno scalare diverso da 0: Questa operazione porta
la matrice A in una matrice A′ dove tutte le righe di A rimangono invariate
ma al posto della j-esima riga ho questa riga moltiplicata per uno scalare.
aj viene sostituita con λ ∗ aj , λ ∈ R, λ ̸= 0 ;
3. sommare a una riga un multiplo scalare di un’altra riga Nella matrice A′ la jesima riga della matrice A viene sostituita con la i-esima riga sommata a un
multiplo scalare della j-esima. Ad esempio aj viene sostituita con aj + λ ∗ ai
, con i ̸= j, λinR
Definizione 7.4
Capitolo 7. Matrici e spazi vettoriali
95 / 258
Due matrici sono equivalenti per operazioni per righe se una matrice si puo’
ottenere dall’altra attraverso una sequenza di operazioni.
Teorema 7.1
le operazioni elementari per righe non cambiano il rango di una matrice.
Esempio 7.2
Supponiamo di avere un sottospazio V generato dai vettori: v1 (1, 6, 0, 1), v2 (4, 0, 0, 2), v3 (6, 5, 3, 1)
. Determinarne il rango.
Considero la matrice che ha per colonne i vettori dati.
L’obiettivo è quello di calcolare il rango di A .
Come risultato del teorema precedente, mediante operazioni elementari per righe
cerco di ridurre la matrice A in una forma nella quale il rango sia in qualche modo
evidente. In particolare, riduco la matrice in forma triangolare superiore
(con zeri sotto la diagonale) azzerando una sottocolonna alla volta e tengo traccia
delle operazioni fatte.
1
6
0
1
4
0
0
2
6
5
3
1
Chiamo le righe a1 , a2 , a3 , a4 .
1. Per azzerare la prima colonna, a1 rimane invariata (non devono esserci zeri
su questa riga), sostituisco a2 con a2 −6∗a1 in modo da annullarne la prima
entrata. Sostituisco a4 con a4 − a1
1
4
6
0 −24 −31
0
0
3
0 −2 −5
2. Per azzerare la seconda sottocolonna:
a4 = a4 ∗ 12
1
4
6
0 −24 −31
0
0
3
0 −24 −60
a4 = a4 − a2
1
4
6
0 −24 −31
0
0
3
0
0
−29
Capitolo 7. Matrici e spazi vettoriali
96 / 258
3. Per azzerare la terza sottocolonna
a4 = a4 ∗ 3
1
4
6
0 −24 −31
0
0
3
0
0
−87
a4 = a4 + a3 ∗ 29
1
4
6
0 −24 −31
0
0
3
0
0
0
Il rango della matrice ottenuta è 3 (i vettori sono linearmente indipendenti perché
hanno zeri in posizioni diverse), quindi la dimensione dello span dei vettori di
partenza è 3.
A priori, so che la dimensione dello span di tre vettori e’ minore o uguale a 3
e vale l’uguale se e solo se le colonne della matrice ottenuta alla fine (e quindi
anche i vettori iniziali) sono linearmente indipendenti.
7.1.3 Matrici a scala
Questo procedimento si sceglie per il fatto che una classe di matrici per cui il
rango e’ evidente sono le matrici a scala.
Piu’ precisamente, data una qualsiasi matrice k × l con la i-esima riga ai =
(a1i , . . . , ali ) , il textit o textit della i-esima riga e’ la prima entrata diversa da 0
che si incontra lungo tale riga andando da sinistra a destra.
Una textit si dice textit se soddisfa queste due condizioni:
1. il gradino della i-esima riga e’ a sinistra del gradino della i + 1− esima riga.
2. le eventuali righe nulle sono in fondo.
In particolare, il rango di una matrice a scala e’ il numero dei gradini, usando
la definizione di linear indipendenza. Una colonna senza gradino e’ combinazione
lineare delle colonne precedenti.
Qualsiasi matrice puo’ essere portata in forma a scala mediante un’opportuna
sequenza finita di operazioni elementari per riga. Quindi possiamo trovare la
dimensione di qualsiasi sottospazio.
Esempio 7.3
Considero il sottospazio U generato dai vettori v1 (1, 0, 1, 2) , v2 (3, −1, 0, 1) ,
v3 (2, −1, −1, −1) , v4 (5, −2, −1, 0) . Trovare la dimensione di U e una sua base.
Scrivo la matrice che ha come colonna i vettori.
Capitolo 7. Matrici e spazi vettoriali
97 / 258
1 3
2
5
0 −1 −1 −2
1 0 −1 −1
2 1 −1 0
Per azzerare la prima colonna:
a3 = a3 − a1 , a4 = a4 − 2 ∗ a3
1 3
2
5
0 −1 −1 −2
0 −3 −3 −6
0 1
1
2
Per azzerare la seconda sottocolonna, lascio invariate prima e seconda riga ed
eseguo
a3 = a3 − 3 ∗ a2 ; a4 = a4 + a2
1 3
2
5
0 −1 −1 −2
0 −0 −0 0
0 0
0
0
Ora la matrice e’ in forma a scala Ho due gradini, perche’ le altre due righe sono
fatte solo da 0.
La dimensione di U e’ il rango della matrice A , quindi è 2.
Per trovare una base scelgo due dei vettori dati inizialmente che non siano linearmente indipendenti. In particolare per trovare la base basta prendere i
vettori della base di partenza che corrispondono ai gradini nella matrice
di arrivo.
Le colonne che corrispondono ai gradini sono la prima e la seconda. Allora una
Base per lo spazio è
B = {v1 = (1, 0, 1, 2), v2 = (3, −1, 0, 1)}
Esempio 7.4
Considero il sottospazio vettoriale W di R4 :
W = span{(1, 0, 2, −1), (−2, 0, −4, 2), (1, 1, 0, 1), (2, 1, 2, 0)}
E’ richiesto di trovare la dimensione di W , una base di W e le sue equazioni
cartesiane.
La dimensione di W e’ il rango della matrice A che ha per colonne i
generatori.
Un vettore appartiene a W se e solo se e’ combinazione lineare di a1 , a2 , a3 a4 .
Capitolo 7. Matrici e spazi vettoriali
98 / 258
Per trovare equazioni cartesiane si fanno operazioni sulla matrice estesa, che comprende anche la colonna (x, y, z, t) oltre ai generatori. Poi le equzioni cartesiane
si ottengono imponendo che il rango della matrice estesa sia uguale a
quello della matrice che ha come colonne solo i generatori.
Eliminazione gaussiana sulla matrice estesa:
1 −2 1 2 x
0
0 1 1 y
2 −4 0 2 z
−1 2 1 0 t
Per azzerare la prima sottocolonna, a1 , a2 rimangono invariate.
a3 = a3 − 2 ∗ a1 , a4 = a1 + a4
1 −2 1
2
x
0 0
1
1
y
0 0 −2 −2 z − 2x
0 0
2
2
x+t
Per azzerare la terza sottocolonna:
a3 = a3 + a2 ∗ 2, a4 = a3
1 −2 1 2
x
0 0 1 1
y
0 0 0 0 z − 2x + 2y
0 0 0 0 −x + t + z
La dimensione di W e’ il rango della matrice dei generatori (in questo caso 2).
Come base di W prendo il primo e il terzo vettore della stringa dei generatori,
perche’ i gradini corrispondono alla prima e alla terza colonna.
B = {(1, 0, 2, −1), (1, 1, 0, 1)}
Per trovare le equazioni cartesiane impongo che la matrice estesa abbia il rango
della matrice originaria, e quindi annullo le condizioni corrispondenti alle
righe di zeri.
(x, y, z, t) ∈ W se e solo se valgono queste due condizioni:
Esempio 7.5
Trovare una base di R4 che estende una base di W , dove W è come nell’esercizio
precedente.
Parto dalla base che ho trovato nell’esercizio precedente:
B = {(1, 0, 2, −1), (1, 1, 0, 1)}
Capitolo 7. Matrici e spazi vettoriali
99 / 258
Per completare la base, riduco a scala la matrice che ha come colonna la base di W e la base standard di R4 : i vettori da aggiungere
corrispondono ai gradini della matrice finale.
1
0
A=
2
−1
1
1
0
1
1
0
0
0
0
1
0
0
0
0
1
0
0
0
0
1
a3 = a3 − 2 ∗ a1 , a4 = a4 + a1
1 1
1 0
0 1
0 1
0 −2 −2 0
0 2
1 0
0
0
1
0
0
0
0
1
a3 = a3 + 2a2 , a4 = a4 − 2 ∗ a2
1
0
0
0
1 1
0
1 0
1
0 −2 2
0 1 −2
0
0
1
0
0
0
0
1
a4 = 2 ∗ a4 + a3
1
0
0
0
1 1
0
1 0
1
0 −2 2
0 0 −2
0
0
1
1
0
0
0
2
I gradini corrispondono alla prima, seconda, terza e quarta colonna. La base e’
costituita dai due vettori dati e dai vettori A(1, 0, 0, 0), B(0, 1, 0, 0) .
7.1.4 Complemento ortogonale
Definizione 7.5
Se W in Rk e’ un sottospazio vettoriale, diciamo complemento ortogonale di W
il sottospazio cosi’ definito:
{v ∈ Rk t.c.v · w = 0, w ∈ W }
Lemma 7.1
Il complemento ortogonale di W (indicato con W⊥ ) in Rk e’ un sottospazio
vettoriale.
Dimostrazione 7.1
0Rk ∈ W⊥ , perche’ qualsiasi vettore moltiplicato per 0 e’ 0.
Se ho v1 , v2 ∈ W⊥ e λ1 , λ2 ∈ R allora ∀w ∈ W⊥ si ha che
Capitolo 7. Matrici e spazi vettoriali
100 / 258
(λ1 ∗ v1 + λ2 ∗ v2 ) · w =
= λ1 ∗ v1 · w + λ2 ∗ v2 · w = 0
perché v1 · w, v2 · w = 0 .
Pertanto siccome questo vale per ogni w ∈ W , allora W⊥ è chiuso rispetto a
combinazione lineare ed è un sottospazio vettoriale.
cvd
Osservazione 7.2
Se W ∈ Rk e’ un sottospazio vettoriale e W⊥ ∈ Rk e’ il complemento ortogonale
di W rispetto al prodotto scalare standard, allora W ∩ W⊥ e’ il vettore nullo di
Rk , cioe’ W, W⊥ sono in somma diretta.
Dimostrazione 7.2
Sia v ∈ W ∩ W⊥ . Allora v · v = 0 , perche’ v ha prodotto scalare nullo con ogni
elemento di W e v e’ a sua volta un elemento di W . Allora
v · v = (|v|)2 = 0
quindi v dev’essere il vettore nullo, allora W ∩ W⊥ = {0} .
cvd
Quindi W + W⊥ si puo’ scrivere come somma diretta e la sua dimensione e’
dimw + dimW⊥ .
In particolare, la dimensione del complemento ortogonale e’ k − dimW . (da
dimostrare in seguito) e Rk = W + W⊥ .
Supponiamo l = dimW e 1 ≤ l < k . Allora se B = {w1 , . . . , wl } e’ una base di
W e B′ = {w1′ , w2′ , . . . , wk−l } e’ una base di W⊥ allora siccome Rk = W + W⊥
l’unione delle due basi e’ un sistema di generatori per Rk .
Rk = span{w1 , . . . , wl , w′1 , . . . , w′k−l }
′ }
I generatori sono sicuramente linearmente indipendenti. Concludo che {w1 , . . . , wl , w1′ , . . . , wk−l
e’ una base di Rk che estende una base di W .
7.1.5 Procedimento alternativo per il completamento della base
Se considero la base di W, B = {v1 = (1, 0, 2, −1), v2 = (1, 1, 0, 1)} posso
estenderla a una base di R4 .
La dimensione di W⊥ e’ uguale a 4 − 2
Impongo che il prodotto scalare di (x, y, z, t) con i vettori della base sia
0, in questo modo automaticamente anche il prodotto con tutti gli altri vettori
di W e’ 0. Dal sistema che ottengo ricavo un sistema di generatori per
W⊥ che completano la base di W già trovata.
Capitolo 7. Matrici e spazi vettoriali
101 / 258
(x, y, z, t) ∈ W⊥ se e solo se (x, y, z, t) · v1 = 0 e (x, y, z, t) · v2 = 0 .
Calcolo i prodotti scalari:
v1 · (x, y, z, t) = (1, 0, 2, −1) = x + 2z − t = 0
v2 · (x, y, z, t) = x + y + t = 0
Per risolvere un sistema lineare conviene scrivere una matrice estesa dove le righe
sono i coefficienti delle due equazioni.
Lo spazio delle soluzioni non cambia se faccio operazioni per riga
1 0 2 −1
1 1 0 1
a2 = a2 − a1
1 0 2 −1
0 1 −2 2
Le colonne corrispondenti ai gradini sono le variabili dipendenti, le altre sono
variabili indipendenti.
t, z sono parametri indipendenti, mentre x, y sono parametri dipendenti.
(x, y, z, t) ∈ W⊥ se e solo se x = −2z +t, y = 2z −2t (ho espresso x e y in funzione
di z e t leggendo la soluzione dalle righe della matrice).
W⊥ = {(−2z + t, 2z − 2t, z, t), z, t ∈ R}
W⊥ = {z(−2, 2, 1, 0) + t(1, −2, 0, 1), z, t, ∈ R}
W⊥ = span{(−2, 2, 1, 0), (1, −2, 0, 1)}
I vettori presi nell’ordine sono una base, per W⊥ perche’ sono linearmente indipendenti. Prendo la base di R4 che ha come primi vettori v1 (1, 0, 2, −1) e v2 (1, 1, 0, 1)
a cui aggiungo i vettori trovati v3 (−2, 2, 1, 0) e v4 (1, −2, 0, 1) .
Esempio 7.6
Consideriamo U = span{(1, 1, −2, 1), (0, 2, −1, 2)} e W = span{(1, 3, −3, 3), (2, 1, 0, 1)}
in R4 . Trovare basi e dimensione ed equazioni cartesiane per U , W , U ∩ W
, U +W .
Spazio U :
1. dimensione di U = 2
2. La base di U e’ costituita dai due vettori dati
3. Per trovare equazioni cartesiane per U scrivo la matrice estesa e la riduco
a scala:
1
0 x
1
2 y
−2 −1 z
1
2 t
Capitolo 7. Matrici e spazi vettoriali
102 / 258
a2 = a2 − a1
a3 = a3 + 2a1
a4 = a4 − a1
1 0
x
0 2
y−x
0 −1 z + 2x
0 2
t−x
a3 = 2 ∗ a3 + a2
a4 = a4 − a2
1
0
0
0
0
x
2
y−x
0 2z + 3x + y
0
t−y
Prendendo le condizioni corrispondenti alle righe di zeri, (x, y, z, t) ∈ U se
e solo se sono soddisfatte le due equazioni
Spazio W :
1. Dimensione = 2
2. base costituita dai due vettori dati.
3. Per trovare le equazioni cartesiane scrivo la matrice estesa
1
3
−3
3
2 x
1 y
0 z
1 t
a2 = a2 − a1 ∗ 3
a3 = a3 + a1 ∗ 3
a4 = a4 − 3 ∗ a1
1 2
x
0 −5 y − 3x
0 6 z + 3x
0 −5 t − 3x
a3 = a3 + 6 ∗ 5 ∗ a2
a4 = a4 − a2
1 2
x
0 −5
y − 3x
0 0 z + 6/5y − 3/5x
0 0
t−y
Quindi le equazioni cartesiane per U sono date da:
Spazio V ∩ W :
Capitolo 7. Matrici e spazi vettoriali
103 / 258
1. L’intersezione U ∩ W è l’insieme dei vettori che soddisfano le equazioni
cartesiane di U e quelle di W contemporaneamente, quindi è il sistema:
Risolvo il sistema: utilizzando il metodo di riduzione a scala della matrice:
3 −6 5 0
0 −1 0 1
3 1 2 0
0 −1 0 1
fare operazioni per righe sulla matrice non cambia lo spazio delle soluzioni.
a4 = a4 − a2
a3 = a3 − a1
3 −6 5 0
0 −1 0 1
0 7 −3 0
0 −0 0 0
3 −6 5 0
0 −1 0 1
0 0 −3 7
0 0
0 0
Uso x, y, z come variabili dipendenti e t come variabile indipendente, cioè
esprimo x, y, z in funzione di t . Sottraggo membro a membro le due equazioni:
−7t − 7z = 0, −→ z = −t
Sostituendo z con −t nella prima equazione del sistema sopra ottengo:
3x − 6t + 5t = 0 −→ x = t/3
Risultato:
U ∩ W = {(t/3, −t, −t, t), t ∈ R} = span{1, −3, −3, 3}
2. la base di U ∩ W è data dal vettore (1, 3, −3, 3)
3. Di conseguenza, dim(U ∩ W ) = 1
Spazio U + W
1. Dimensione di U + W : dimU + dimW − dim(U ∩ W ) = 2 + 2 − 1 = 3
(formula di Grasman)
2. Scrivo la matrice per trovare base con equazioni cartesiane per U + w
1
0
1 2 x
1
2
3 1 y
−2 −1 −3 0 z
1
2
3 1 t
a2 = a2 − a1
Capitolo 7. Matrici e spazi vettoriali
104 / 258
a2 = a2 + 2 ∗ a1
a4 = a4 − a1
1 0
1
2
x
0 2
2 −1 y − x
0 −1 −1 4 z + x
0 2
2 −1 t − x
a3 = 2a3 + a2
a4 = a4 − a2
1
0
0
0
0
2
0
0
1 2
x
2 −1
y−x
0 7 2z + x + y
0 0
t−y
Ho tre gradini.Lo spazio ha dimensione 3.La base e’ data dai vettori u1 , u2 , w2
sulle colonne corrispondenti ai gradini.
3. L’equazione cartesiana è t − y = 0 .
Trovare basi di R4 che estende una base di U + W e di U rispettivamente.
Spazio U + W : U + W ha dimensione 3 Basta trovare un vettore di R4 che non
sta in W , cioè che non soddisfi l’equazione y = t . Uno qualsiasi dei vettori della
base canonica può completare la base.
Spazio U : Scrivo la matrice che ha per colonne i vettori della base di U e quelli
della base canonica.
1
0 1
1
2 0
−2 −1 0
1
2 0
1 0
1
0 2 −1
0 −1 2
0 2 −1
1
0
0
0
0
1
0
0
0
0
1
0
1
0
0
1
0
1
0
0
0 1
0 −1
1 2
0 0
0 1
0
2 −1 1
0 3
1
0 0 −1
0 1
0 −1
2 3
0 1
Completo la base con il primo vettore della base canonica.
Capitolo 8. Spazio vettoriale quoziente
105 / 258
Capitolo 8
Spazio vettoriale quoziente
8.1 classe di equivalenza
Sia V uno spazio vettoriale e sia W in V un sottospazio vettoriale. Sia R(V, W ) la
relazione su V data dalle coppie (v, v ′ ) ∈ V × V con la proprieta’ che v − v ′ ∈ W
.
Posso osservare che:
1. ∀v ∈ V , v − v = 0V che e’ un elemento di W perche’ W e’ sottospazio
vettoriale.Quindi (v, v) ∈ R quindi R e’ riflessiva.
2. Per ogni coppia (v, v ′ ) in R , l’elemento v ′ − v = −1 ∗ (v − v ′ ) appartiene a
W , perche’ W e’ un sottospazio vettoriale ed e’ chiuso rispetto al prodotto
per uno scalare.Quindi (v ′ , v) appartiene a R e R e’ simmetrica.
3. per ogni scelta di coppie ordinate (v, v ′ ) e (v, v ′′ ) in W, v −v ′ ∈ W, (v −v ′′ ) ∈
W . L’elemento v − v ′′ − v + v ′ = v ′ − v ′′ e’ la somma di due elementi di W
, siccome W e’ un sottospazio vettoriale anche la somma appartiene a W
.Pertanto R e’ transitiva.
La relazione R e’ una relazione di equivalenza.
Se prendo un v ∈ W , la classe di equivalenza di v indicata con [v] e’ intesa come
sottoinsieme di V .
[v] = {v ′ ∈ V t.c. (v ′ , v) ∈ R}
Si scrive v ′ ∼ v
[v] = {v ∈ V t.c. v ′ − v ∈ W }
[v] = {v ′ ∈ V t.c. ∃w ∈ W t.c.v ′ = v + w}
Si puo’ scrivere che la classe di equivalenza e’ l’insieme di tutti i traslati v + w al
variare di w ∈ W .
Capitolo 8. Spazio vettoriale quoziente
106 / 258
8.2 Sottospazio affine
Definizione 8.1
Se W in V e’ un sottospazio vettoriale e v ∈ V e’ un elemento dato qualsiasi, il
traslato di W per l’elemento v e’ v + W definito come l’insieme di tutte le somme
v + w al variare di w ∈ W .
Esempio 8.1
Se in R2 ho una retta che passa per l’origine, prendo come traslato la retta
parallela.
Osservazione 8.1
Le seguenti condizioni sono equivalenti:
1. v + W e’ un sottospazio vettoriale;
2. lo 0V appartiene a v + W ;
3. v appartiene a W .
Dimostrazione 8.1
Se v + W e’ un sottospazio vettoriale, deve avere le seguenti proprieta’:
• deve contenere l’elemento neutro, quindi questa condizione e’ equivalente
al fatto che v + W sia un sottospazio vettoriale;
• dev’essere chiuso rispetto alla somma, quindi se w + v appartiene a W ,
necessariamente anche v appartiene a W .
cvd
Definizione 8.2
Un sottospazio affine di V e’ un traslato v + W di un sottospazio vettoriale W in
V. in questo caso il sottospazio di W si dice la giacitura del sottospazio affine.
Osservazione 8.2
In generale v + W = v ′ + W se e solo se v − v ′ ∈ W , cioè se le classi di equivalenza
dei due sono uguali. due elementi sono in relazione se e solo se la loro classe di
equivalenza appartiene a W .
8.3 Operazioni nello spazio quoziente
Considero quindi la relazione tale che la classe di equivalenza di v e’ l’insieme dei
traslati v + w, w ∈ W . Denotiamo con V /W (anziche’ V /R ) l’insieme quoziente
Capitolo 8. Spazio vettoriale quoziente
107 / 258
di tale relazione di equivalenza (insieme di tutte le classi di equivalenza).
Affermo che sull’insieme quoziente esiste una struttura naturale di spazio vettoriale: descriviamo le operazioni.
8.3.1 somma
Siano X e Y elementi dell’insieme quoziente. Si ha che X = [v], Y = [u] per
certi v, u ∈ V . Definisco l’operazione somma da V /W × V /W a valori in V /W
ponendo X + Y = [u] + [w] = [u + w] .
Problema: La somma tale che (X, Y ) 7→ X + Y deve dipendere solo da X e Y ,
e non dalla scelta di particolari v ∈ X, u ∈ Y con X = [v], Y = [u] .
Dobbiamo quindi verificare che la classe di equivalenza di w +u non dipende dalla
scelta di v ∈ X e w ∈ Y .
Sia quindi v ′ ∈ X e u′ ∈ Y . Ci chiediamo se la classe di equivalenza di v + u e’
uguale alla classe di equivalenza di v ′ + u′ .
(v, v ′ ) e (u, u′ ) ∈ R , perche’ sono coppie ordinate con due vettori appartenenti
alla stessa classe di equivalenza, allora v − v ′ ∈ W , u − u′ ∈ W . Pertanto la
somma (v − v ′ ) + (u − u′ ) appartiene a W essendo differenza di due elementi di
W .
La coppia ordinata (v + 0, v ′ + u′ ) ∈ R , quindi [v + u] = [v ′ + u′ ]
L’operazione + e’ ben definita come funzione, perche’ non dipende dalla scelta
dei v e u , ma da X e Y .
La somma soddisfa tutte le proprieta’ usuali.
Esercizio 8.1
Verificare tutte le proprieta’ della somma.
associativita’ Se ho X = [v], Y = [u], Z = [t] , (X + Y ) + Z = ([v] + [u]] + [t] .
Uso la definizione: [v]+[u] = [v +u] . [v +u]+[t] = [(v +u)+t] . Quello che e’
dentro la parentesi quadra e’ appartenenete allo spazio vettoriale. [v+(u+t)]
. Uso la definizione di somma in v + W . [v] + [u + t] = [v] + ([u] + [t]) .
Questo equivale a X + (Y + Z)
elemento neutro Lo zero di V /W e’ la classe di equivalenza di 0 e di qualsiasi
elemento di W .
opposto −[v] = [−v]
commutativita’ Se ho due elementi X = [v] e Y = [w] , X + Y = [v] + [w] . Per
la definizione di somma X + Y = [v + w] . Per la definizione di somma in
v + W si ha che X + Y = [w + v] e quindi usando la definizione di somma
nello spazio quoziente a ritroso ottengo che X + Y = [w] + [v] = Y + X .
Capitolo 8. Spazio vettoriale quoziente
108 / 258
8.3.2 prodotto per uno scalare
Se λ ∈ R, X = [v] ∈ V /W definiamo λ ∗ X = [λ ∗ v] . Questa e’ un’applicazione
da R × V /W a valori in V /W . Se X = [v] = [v ′ ] , questo significa che v − v ′ ∈ W
, quindi λ ∈ W allora la coppia (λ ∗ v, λ ∗ v ′ ) ∈ R e segue che [λ ∗ v] = [λ ∗ v ′ ] .
Quindi l’operazione e’ ben definita.
Per quest’operazione valgono tutte le proprietà consuete.
8.4 dimensione dello spazio quoziente
Sia V uno spazio vettoriale finitodimensionale su K . Diciamo d la dimensione
di V . Sia W in V un sottospazio vettoriale. Se pongo k = dimW , allora k e’
sicuramente minore o uguale di d e vale l’uguale se e solo se W = V .
Ci chiediamo quale sia la dimensione del sottospazio vettoriale V /W .
Valuto i due casi particolari seguenti.
8.4.1 Caso 1 W=V
In questo caso due qualsiasi vettori sono sempre equivalenti.
In particolare qualsiasi vettore e’ equivalente al vettore nullo, perche’ v − 0V ∈ W
poiché v ∈ W ∀v . Allora [v] = [0] per ogni v . Quindi V /W e’ lo spazio nullo e
comprende solo la classe [0] .
8.4.2 Caso 2 W consiste del solo vettore nullo
Partiamo da una base di V B = {v1 , . . . , vd } . Siano [v1 ], . . . , [vd ] le classi di
equivalenza dei vettori della base.
Sia X un qualsiasi elemento di V /W . Allora esiste v ∈ V tale che X = [v] .
Posso scrivere v come combinazione lineare dei vi . Esistono α1 , . . . , αi tali che
α1 ∗ [v1 ] + · · · + αd ∗ [vd ] ∈ V /W.
Osservo che
α1 ∗ [v1 ] + · · · + αd ∗ [vd ]
appartiene a span{[v1 ], . . . , [vd ]} .
Mostro che [v1 ], . . . , [vd ] sono linearmente indipendenti: siano α1 , . . . , αd ∈ R tali
che
α1 ∗ [v1 ] + · · · + αd ∗ [vd ] = 0V /W
Usando la definizione di somma a ritroso si ha
=
∑
αi ∗ [vi ] = 0V /W
Capitolo 8. Spazio vettoriale quoziente
Allora
∑d
i=1 αi ∗vi −0V
∑
109 / 258
appartiene a W , Ma W consiste del solo elemento neutro.
Questo vuol dire che vi ∗αi = 0 , ma siccome i vi sono per ipotesi una base di V
, allora sono linearmente indipendenti e gli scalari α1 , . . . αd sono necessariamente
tutti nulli.
Quindi anche [v1 ], . . . , [vd ] sono linearmente indipendenti.
Pertanto se W e’ 0, allora dim(V /W ) = dimV .
8.4.3 Caso generale
In generale vale il seguente teorema:
Teorema 8.1
Nelle ipotesi precedenti ( V finitodimensionale, W ⊂ V sottospazio vettoriale)
segue che dimV /W = dimV − dimW .
Dimostrazione 8.2
Sia d la dimensione di V e k la dimensione di W .
Eliminando i casi già dimostrati, possiamo supporre 1 ≤ k < d .
Sia B = {w1 , . . . , wk } una base di W . Per il teorema della base incompleta,
esistono v1 , . . . , vd−k ∈ V tali che {w1 , . . . , wk , v1 , . . . , vd−k } e’ una base di V .
Sia X un qualsiasi elemento di V /W e sia v ∈ V t.c. X = [v] .
Esistono e sono unici α1 , . . . , αk , β1 , . . . , βd−k ∈ R tali che
v=
k
∑
α i ∗ wi +
∑
i = 1d−k βi ∗ vi
i=1
Allora
X=
k
∑
αi ∗ [wi ] +
∑
i = 1d−k βi ∗ [vi ]
i=1
Si ha quindi
d
∑
αi [wi ] = 0V /W
i=1
Si ha allora
X=
d−k
∑
βi ∗ [vi ] ∈ span{[v1 ], . . . , [vd−k ]}.
i=1
Quindi V /W ha un sistema di d − k generatori, e dimV /W = d − k se e solo se
{v1 , . . . , vd−k } sono linearmente indipendenti.
Capitolo 8. Spazio vettoriale quoziente
110 / 258
Siano β1 , . . . , β ∈ R tali che
β1 ∗ [v1 ] + · · · + βd−k ∗ [vd−k ] = 0V /W ,
relazione ∗
Usando la definizione di somma riscrivo la relazione:
∑
[
βi vi ] = 0V /W
i
e questo implica che
∑
∈ W , allora esistono α1 , . . . , αk ∈ R tali che
i βi vi
d−k
∑
βi ∗ vi =
i=1
k
∑
α i ∗ wi .
i=1
Questo implica che
k
∑
i=1
−αi ∗ wi +
d−k
∑
βi ∗ vi = 0
i=1
I vettori w1 , . . . , wk , v1 , . . . , vd−k son una base di V , quindi gli scalari sono tutti
nulli. concludo che {[v1 ], . . . [vd−k ]} e’ una base di V /W perché la relazione ∗ vale
solo se gli scalari sono nulli e quindi i vettori sono linearmente indipendenti, e
quindi dimV /W = d − k = dimV − dimW .
cvd
Capitolo 9. Applicazioni lineari
111 / 258
Capitolo 9
Applicazioni lineari
9.1 Nozioni di base
9.1.1 Definizione di applicazione lineare
Definizione 9.1
Siano V e W spazi vettoriali su K . La funzione f : V → W si dice lineare o
anche di V e W se
∀v, v ′ ∈ V, ∀λ, λ′ , ∈ K
vale che
f (λ ∗ v + λ′ ∗ v ′ ) = λ ∗ f (v) + λ′ ∗ f (v ′ ),
cioe’ f rispetta le combinazioni lineari.
Questa singola condizione e’ equivalente alle due seguenti
• f (v) + f (v ′ ) = f (v + v ′ )∀v, v ′ ∈ V
• f (λ ∗ v) = λ ∗ f (v), ∀λ ∈ R
9.1.2 Applicazione lineare: R → V
Sia V uno spazio vettoriale reale arbitrario e supponiamo di avere una funzione
f : R → V lineare. Allora per ogni λ ∈ R si deve avere f (λ) = λ ∗ f (1) . Quindi
se f (1) = v , f ha la forma f (λ) = λ ∗ v .
Viceversa se v e’ un qualsiasi elemento fissato dello spazio vettoriale, definiamo
fv ponendo fv (λ) = λ ∗ v, λ ∈ R .
Verifichiamo se l’applicazione fv soddisfa le due proprieta’.
1.
f (λ1 + λ2 ) = (λ1 + λ2 ) ∗ v = λ1 ∗ v + λ2 ∗ v = f (λ1) + f (λ2)
Capitolo 9. Applicazioni lineari
112 / 258
2. Per l’associatività del prodotto per scalari:
f (λ ∗ η) = λ ∗ η ∗ v = λ ∗ (η ∗ v) = λ ∗ f (η)
L’applicazione soddisfa le due proprietà, quindi f (R → V ) e’ lineare.
In generale, le applicazioni lineari da R in V sono tutte e sole quelle della forma
f (λ) = λ ∗ v al variare di λ ∈ R per v ∈ V , fissato, con v = f (1) .
Le applicazioni lineari da R in V sono in corrispondenza biunivoca con gli elementi
di V .
9.1.3 Applicazioni lineari colon R2 → R2
Descriviamo le applicazioni lineari : R2 → R2 . Consideriamo la base canonica di
R2 , B = {e1 , e2 } , e poniamo v1 = f (e1 ), v2 = f (e2 ) .
Allora per ogni (x, y) ∈ R2 si ha che
f ((x, y)) = f (x ∗ e1 + y ∗ e2 ) = x ∗ f (e1 ) + y ∗ f (e2 ) = x ∗ v1 + y ∗ v2
Viceversa siano dati v1 , v2 ∈ R2 e definiamo un’applicazione f : R2 → R2 ponendo
f (x, y) = x ∗ v1 + y ∗ v2 . Allora quest’applicazione è lineare, infatti
f [(x, y) + (x′ , y ′ )] = f (x + x′ , y + y ′ ) = (x + x′ ) ∗ v1 + (y + y ′ ) ∗ v2
= (x ∗ v1 + y ∗ v2 ) + (x′ ∗ v1 + y ′ ∗ v2 )
= f (x, y) + f (x′ + y ′ ).
Allo stesso modo
f (λ) = f (λ ∗ x, λ ∗ y) = λ ∗ x ∗ v1 + λ ∗ y ∗ v2
Per associatività ottengo:
= λ ∗ x ∗ v1 + λ ∗ y ∗ v2
Per distributività:
=λ
Concludo che tutte le applicazioni lineari di R2 sono della forma f ((x, y)) =
x ∗ v1 + y ∗ v2 con v1 = f (e1 ) e v2 = f (e2 ) .
9.1.4 Applicazioni lineari sul quoziente
Sia V uno spazio vettoriale e sia W in V un sottospazio vettoriale. Sia V /W lo
spazio vettoriale quoziente in base alla relazione R tale che v ∼ v ′ ⇐⇒ v−v ′ ∈ W
.
Capitolo 9. Applicazioni lineari
113 / 258
Sia π : V → V /W la funzione che associa a v la sua classe di equivalenza.
π(λv1 + λ′ ∗ v2 ) =
Per la definizione di somma di classi di equivalenza si ha che
= [λ ∗ v1 + λ′ ∗ v2 ] = [λ ∗ v1] + [λ′ ∗ v2 ] =
= λ ∗ [v1 ] + λ′ ∗ [v2 ] = λ ∗ π(v1 ) + λ′ ∗ π(v2 )
quindi π(V → V /W ) e’ un’applicazione lineare.
Osservazione 9.1
Sia F : V → W lineare. Allora f (0) e’ necessariamente il vettore nullo di W .
9.2 Nucleo e spazio immagine
9.2.1 Definizione di nucleo ed esempi
Definizione 9.2
Siano V , W spazi vettoriali su K . Sia f : V → W un’applicazione lineare. Allora
il nucleo (o kernel) di f (indicato con ker f ) è il sottoinsieme di V così definito: è
l’insieme di tutti i vettori nel dominio che hanno come immagine il vettore nullo
dello spazio di arrivo. È la controimmagine del vettore nullo in V .
Esempio 9.1
Se considero l’applicazione f : R → V tale che f (λ) = λ ∗ v per un certo v ∈ V
fissato, il nucleo di f e’ l’insieme dei λ tali per cui λ ∗ v = 0 . In questo caso il
nucleo e’ 0R se v ̸= 0 , e’ tutto R se v = 0 .
Esempio 9.2
Prendo f : R2 → R2 data da f (x, y) = x ∗ v1 + y ∗ v2 .
Se v1 , v2 sono linearmente indipendenti, il nucleo e’ il vettore nullo di R2 .
Se v1 = v2 = 0 il nucleo e’ R2 .
Supponiamo che v1 , v2 non siano entrambi uguali a 0. Sia v1 ̸= 0, v1 = λ ∗ v2 .
Allora
f (x, y) = x ∗ v1 + y ∗ v2 = x ∗ λ ∗ v2 + y ∗ v2 = (x ∗ λ + y) ∗ v2
Allora
ker(f ) = {(x, y), t.c. y = −λ ∗ x}
= {(x, −λ ∗ x), x ∈ R} = span{(1, −λ)}
Capitolo 9. Applicazioni lineari
114 / 258
Esempio 9.3
Nel caso della mappa quoziente π : V → V /W il nucleo di π e’ l’insieme dei v ∈ V
tali che [v] = 0V /W .’E’ l’insieme dei vettori v ∼ 0V , e quindi coincide con W .
9.2.2 Nucleo come sottospazio vettoriale
Proposizione 9.1
Sia f : V → W un’applicazione lineare fra spazi vettoriali. Allora ker(f ) e’ un
sottospazio vettoriale di V .
Dimostrazione 9.1
f (0V ) = 0W , quindi certamente 0V appartiene al nucleo di f che e’ non vuoto.
Inoltre per ogni v1 , v2 ∈ ker(f ) e per ogni λ1 , λ2 ∈ R segue che
f (λ1 ∗ v1 + λ2 ∗ v2 ) = λ1 ∗ f (v1 ) + λ2 ∗ f (v2 )
per definizione di applicazione lineare, ma se v1 e’ nel nucleo f (v1 ) e’ 0, e lo stesso
vale per v2 , quindi
= λ1 ∗ 0W + λ2 ∗ 0W = 0W
e λ1 ∗ v1 + λ2 ∗ v2 e’ anch’esso un elemento del nucleo.
Q.E.D
9.2.3 Definizione di spazio immagine ed esempi
L’altro spazio associato a un’applicazione lineare e’ lo spazio immagine, ovvero
l’insieme dei trasformati dei vettori di V .
Definizione 9.3
Se f : V → W e’ un’applicazione lineare, lo spazio immagine e’ l’insieme di f (v)
al variare di v ∈ V .
Esempio 9.4
Se F : R → V e’ data da f (λ) = λ ∗ v, λ ∈ R e v fissato, allora lo spazio immagine
e’ l’insieme dei vettori λ ∗ v al variare di λinR , cioè l’immagine è lo span di v .
E’ il sottospazio nullo se v = 0 e un sottospazio di dimensione 1 se v ̸= 0 .
Esempio 9.5
Se v1 , v2 sono in R2 fissati e f : R2 → R2 e’ un’applicazione tale che f ((x, y)) =
x ∗ v1 + y ∗ v2 , lo spazio immagine e’ la collezione delle combinazioni lineari di
v1 e v2 , quindi e’ span{v1 , v2 } .
Capitolo 9. Applicazioni lineari
115 / 258
Se v1 e v2 sono linearmente indipendenti, ker(f ) = 0 , l’immagine e’ tutto R2 .
se v1 = v2 = 0 allora il nucleo e’ tutto R2 , lo spazio immagine e’ il vettore nullo.
Se v2 ̸= 0 e v1 = λ ∗ v2 , il nucleo e’ span{(1, −λ)} e lo spazio immagine e’
(x ∗ λ + y) ∗ v2 . E’ l’insieme dei multipli scalari di v2 , quindi e’ span{v2 } .
Osservazione 9.2
Gli esempi mostrano che la dimensione di uno spazio vettoriale e’ pari alla somma
della dimensione del nucleo e di quella dello spazio immagine. All’aumentare della
dimensione del nucleo diminuisce quella dello spazio immagine e viceversa.
Esempio 9.6
Se prendiamo π : V → V /W , π porta ogni elemento nella sua classe di equivalenza, quindi lo spazio immagine e’ l’insieme delle classi di equivalenza ed e’ tutto
V /W .
9.2.4 Immagine come sottospazio vettoriale
Proposizione 9.2
Sia f : V → W un’applicazione lineare di spazi vettoriali, allora lo spazio
immagine di f e’ in realta’ un sottospazio vettoriale.
Dimostrazione 9.2
f (0V ) = 0W , quindi 0W appartiene allo spazio immagine che e’ non vuoto.
Se w1 , w2 appartengono allo spazio immagine e λ1 , λ2 sono numeri reali, allora per
definizione di spazio immagine esistono v1 , v2 ∈ V tali che w1 = f (v1 ), w2 = f (v2 )
.
Allora la combinazione lineare
λ1 ∗ w1 + λ2 ∗ w2 = λ1 ∗ f (v1 ) + λ2 ∗ f (v2 ) = f (λ1 ∗ v1 + λ2 ∗ v2 )
perché f e’ un’applicazione lineare quindi λ1 ∗ w1 + λ2 ∗ w2 appartiene allo spazio
immagine perche’ e’ il trasformato di qualche vettore di V .
Q.E.D
9.2.5 Applicazione iniettiva
Lemma 9.1
Sia f : V → W lineare. Allora f e’ iniettiva se e solo se il nucleo di f consiste del
solo vettore nullo di V .
Dimostrazione 9.3
Capitolo 9. Applicazioni lineari
116 / 258
1 −→ 2 : Se f e’ iniettiva, dato che f (0V ) = 0W , il nucleo di f essendo la
controimmagine di 0W non può contenere altri vettori a parte 0V , quindi ker(f ) =
0V .
2 −→ 1 : Viceversa supponiamo che ker(f ) consista del solo vettore nullo. Siano
v, v ′ ∈ V tali che f (v) = f (v ′ ) . Allora f (v) − f (v ′ ) = 0W Questo si può scrivere
f (v + (−1) ∗ v ′ ) = 0W
f (v − v ′ ) = 0W
quindi v − v ′ appartiene al nucleo di f , che per ipotesi consiste del solo vettore
nullo, allora v − v ′ = 0V quindi v = v ′ .
Q.E.D
9.3 Rango di un’applicazione
9.3.1 Definizione e osservazioni sul rango
Definizione 9.4
Siano V e W spazi vettoriali finito-dimensionali. Sia f : V → W un’applicazione
lineare, allora il rango di f ( rg ) è la dimensione dello spazio immagine di f .
Lo spazio immagine e’ un sottospazio di W , quindi la dimensione dello spazio
immagine e’ sicuramente minore o uguale di quella di W e vale l’uguale se e solo
se f e’ suriettiva.
Se inoltre d e’ la dimensione di V , si può considerare la base di V B = {v1 , . . . , vd }
.
Lo spazio immagine di f è l’insieme di tutti i trasformati {f (v), v ∈ V } . D’altra
parte v e’ combinazione lineare dei vettori della base quindi posso scrivere:
∑
f (v) = f (
j = 1d αj ∗ vj )
al variare degli αj in R .
Siccome f è lineare:
f (v) =
d
∑
αj ∗ f (vj )
j=1
Quindi lo spazio immagine di f e’ span{f(v1 ), . . . , f(vd )} .
Concludo che la dimensione dello spazio immagine di f è minore o uguale della
dimensione di V , in ogni caso il rango di f è sempre minore o uguale del minimo
tra la dimensione del dominio e la dimensione del codominio.
Osservazione 9.3
Capitolo 9. Applicazioni lineari
117 / 258
Il rango di f e’ uguale alla dimensione di V quando l’applicazione e’ iniettiva.
Dimostrazione 9.4
rg = dimV se e solo se f (v1 ), . . . , f (vd ) sono linearmente indipendenti, quindi se
e solo se vale l’implicazione seguente:
x1 ∗ f (v1 ) + xd ∗ f (f vd ) = 0W
se e solo se gli xi sono tutti nulli.
Siccome x1 ∗ f (v1 ) + xd ∗ f (vd ) = f (x1 ∗ v1 + xd ∗ vd ) = f (v) , segue che f (v) = 0W
solo se gli scalari sono tutti nulli, quindi solo se v = 0 , e quindi solo se il nucleo
è ridotto al vettore nullo e f è iniettiva.
Q.E.D
9.3.2 Teorema del rango
Teorema 9.1
In generale, siano V e W spazi vettoriali finito-dimensionali. Sia f : V → W
un’applicazione lineare. Allora la somma della dimensione dello spazio immagine
di f e della dimensione del ker di f è uguale alla dimensione dello spazio di
partenza.
Osservazione 9.4
Verifichiamo il teorema in due casi particolari.
1. se ker(f ) = 0V in effetti la dimensione di Im e’ uguale alla dimensione di
V .
2. Se dim(ker(f )) = dim si ha ker(f ) = V , quindi f è l’applicazione identicamente nulla. f (v) = 0W ∀v ∈ V . Quindi lo spazio immagine di f è uguale
al vettore nullo. La dimensione dello spazio immagine di f è uguale a 0.
Dimostrazione 9.5
Verifichiamo il teorema nei casi intermedi, cioè 1 ≤ dim ker f ≤ d con d = dimV
.
Sia c la dimensione del ker e sia B = {u1 , . . . , uc } una base di ker(F ) .
Per il teorema della base incompleta esistono v1 , . . . , vd−c ∈ V tali che B =
{u1 , . . . , uc , v1 , . . . , vd−c } e’ una base di V . Allora lo spazio immagine di f e’
generato dai trasformati f (v) (questo vale per qualsiasi base).
Im = span{f(u1 ), . . . , f(uc ), f(v1 ), . . . , f(vd−c )}
Capitolo 9. Applicazioni lineari
118 / 258
Allora f (u1 ), . . . , f (uc ) sono uguali a 0W perché sono una base del ker . Concludo che l’immagine di f e’ uguale a span{f(v1 ), . . . , f(vd−c )} (i vettori nulli non
contano).
La dimensione dell’immagine di f e’ minore o uguale di d − c , quindi minore o
uguale di dim(Imf )−dim e vale l’uguale se i vettori f (v1 ), . . . , f (vd−c sono linearmente indipendenti (si potrebbe pensare che applicando f a vettori linearmente
indipendenti la lineare indipendenza venga persa).
Siano quindi α1 , . . . , αd−c scalari tali che α1 ∗ f (v1 ) + · · · + αd−c ∗ f (vd−c ) = 0W
. Siccome f e’ lineare,
Questi implica che
∑
d−c
∑
αi f (vi ) = f (
vi ∗ αi ) = 0W
i
i=1
∑d−c
i=1
αi ∗ vi appartengono al ker di f .
Esistono β1 , βc ∈ R tali che
d−c
∑
i=1
∑
αi ∗ vi =
c
∑
βi ∗ vi
i=1
∑
Quindi
−βi ∗ ui + αi ∗ vi = 0V ma questi vettori presi insieme formano una
base di V , quindi se una combinazione lineare di vettori linearmente indipendenti
è uguale il vettore nullo, significa che tutti gli scalari sono nulli.
Quindi la stringa ordinata f (v1 ), . . . , f (vd−c ) e’ una base di Im(f ) e la dimensione
dell’immagine di f è dim(V ) − dim(ker f ) .
cvd
9.3.3 Applicazioni del teorema del rango
Esempio 9.7
Sia V uno spazio vettoriale finitodimensionale e sia W un sottospazio vettoriale di
V . Consideriamo la proiezione da V al quoziente V /W . Questa e’ un’applicazione
lineare, suriettiva, e il suo nucleo e’ tutto W .
Applicando il teorema la dimensione dello spazio immagine V /W e’ data da
dim − dim . Ma il ker e’ W , quindi otteniamo dimV /W = dimV − dimW , cioè il
teorema del rango conferma quanto già dimostrato in precedenza relativamente
alla dimensione dello spazio quoziente.
Esempio 9.8
Siano a1 , . . . , ad in R non tutti nulli. Consideriamo l’applicazione f : Rd , R tale
che
f (X) = f ((x1 , . . . , xd )) = a1 ∗ x1 + ad ∗ xd = (a1 , . . . , ad ) · X.
Capitolo 9. Applicazioni lineari
119 / 258
Questa applicazione è lineare infatti
f (λ + η(y1 , . . . , yd )) =
λ ∗ x1 ∗ α1 + · · · + λ ∗ xd ∗ αd + η ∗ y1 ∗ α1 + · · · + η ∗ yd ∗ αd =
Raccolgo λ e η
λ ∗ (x1 ∗ α1 + xd ∗ αd ) + η ∗ (y1 ∗ α1 + yd ∗ αd ) =
e applicando a ritroso la definizione di f ottengo:
λ ∗ f (x1 , . . . , xd ) + η ∗ f (y1 , . . . , yd ) =
f è suriettiva, infatti sia per esempio αj ̸= 0 . Allora applicando f al vettore
con tutte le coordinate nulle tranne la j-esima che e’ λ , si ha
a1 ∗ 0 + a2 ∗ 0 + aj ∗ λ = aj λ ∈ R
Qualsiasi numero reale appartiene all’immagine, quindi Im e’ tutto R .
Allora
ker(f ) = {(x1 , . . . , xd ) t.c.
∑
ai ∗ xi = 0}
i
(iperpiano o complemento ortogonale del vettore A ).
In base al teorema del rango
dim ker f = dimRd − dimImf = dimRd − dimR = d − 1
come gia’ calcolato.
Esempio 9.9
Sia f : Rd [x] → R tale che f (p(x)) = p(λ) per λ ∈ R fissato. Il polinomio
p(x) = p0 + p1 ∗ x + pd ∗dx viene mappato da f in p0 + p1 (λ) + pd ∗ λd .
f e’ lineare infatti
f (p(x) + q(x)) = f (p0 + p1 ∗ x + pd ∗ xd + q0 + q1 ∗ x + qd ∗ xd ) =
f (p(x) + q(x)) = f ((p0 + q0 ) + (p1 + q1 ) ∗ x + · · · + ∗xd ) =
f (p(x) + q(x)) = p0 + q0 + (p1 + q1 ) ∗ λ + · · · + ∗λd
f (p(x) + q(x)) = p0 + λ ∗ p1 + · · · + λ ∗ pd + q0 + λ ∗ q1 + · · · + λd ∗ qd
f (p(x) + q(x)) = f (p(x)) + f (q(x)) prima proprieta’ verificata
µ ∗ f (p(x)) = µ ∗ f (p0 + p1 ∗ x + pd ∗ xd )
µ ∗ f (p(x)) = µ ∗ (p0 + p1 ∗ λ + pd ∗ λd )
Capitolo 9. Applicazioni lineari
120 / 258
µ ∗ f (p(x)) = µ ∗ p0 + µ ∗ p1 ∗ λ + · · · + µ ∗ pd ∗ λd
µ ∗ f (p(x)) = f (µ ∗ p(x)) seconda proprieta’ verificata
Il nucleo è dato da
ker f = {p(x) t.c.p(λ) = 0}
cioè è l’insieme dei polinomi di cui λ e’ una radice.
Prendo p0 ∈ R e considerato come un polinomio di grado 0: se applico f (λ) a p0
ottengo p0 stesso, quindi l’applicazione è suriettiva, perché ogni numero reale può
essere considerato come un polinomio di grado 0 e rientra quindi nell’immagine.
Applicando il teorema del rango, per l’insieme Iλ dei polinomi che hanno come
radice λ , che coincide con il nucleo, si ha
dimIλ = dim ker f = dimRd [x] − dim = d + 1 − 1 = d
Questo era gia’ stato dimostrato precedentemente, quando era stato stabilito che
una base di Iλ e’ data dai vettori (x − λ), x(x − λ), . . . , xd−1 ∗ (x − λ) .
9.4 Controimmagine di un vettore
9.4.1 Struttura della controimmagine
Supponiamo di avere un’applicazione lineare f : V → W . Vogliamo indagare
la struttura delle controimmagini dell’insieme costituito da solo w , scritta come
f −1 (w) al variare di w ∈ W .
NotaIl simbolo f −1 (x) rappresenta la controimmagine, non sto supponendo che
la mappa sia invertibile.
Osservazione 9.5
Se w e’ il vettore nullo, la controimmagine di w e’ precisamente il nucleo di f per
definizione.
Osservazione 9.6
Se w non appartiene allo spazio immagine, la sua controimmagine e’ l’insieme
vuoto.
Bisogna capire com’e’ fatta la controimmagine di w se w appartiene allo spazio
immagine ed e’ diverso dal vettore nullo.
Teorema 9.2
Se la controimmagine di w e’ non vuota, allora per qualsiasi v0 ∈ f −1 w fissato si
ha che la controimmagine di w e’ il traslato del ker per v0 , cioè
f −1 (w) = {v0 + v, v ∈ ker(f )}.
Capitolo 9. Applicazioni lineari
121 / 258
Dimostrazione 9.6
Inclusione 1: Sia w un elemento dello spazio immagine, quindi la controimmagine di w e’ non vuota, ossia esiste v0 ∈ V t.c.f (v0 ) = w . Allora se v e’ un generico
elemento del nucleo di f , si ha f (v + v0 ) = f (v) + f (v0 ) , ma f (v) = 0W , quindi
rimane f (v + v0 ) = f (v0 ) = w .
In altre parole, se v0 appartiene alla controimmagine di w , allora anche v0 + v
appartiene alla controimmagine di w per ogni v nel nucleo di f , cioe’ il traslato
del nucleo di f mediante v0 e’ contenuto nella controimmagine di w .
Inclusione 2: Viceversa, per ogni v nella controimmagine di w , si ha f (v) =
w = f (v0 ) . Quindi f (v0 ) − f (v) = f (v0 − v) .
f (v0 ) − f (v) = w − w = 0W = f (v0 − v)
Pertanto v0 − v appartiene al nucleo di f .
v = v0 + v − v0 e’ un elemento del ker quindi v appartiene al traslato v0 + ker f ,
quindi Imf ⊂ v0 + ker f .
Avendo dimostrato le due inclusioni segue che la controimmagine di w e’ proprio
uguale a v0 + ker f , cioe’ al traslato del nucleo mediante v .
cvd
9.4.2 Definizioni ed esempi sulla controimmagine
Definizione 9.5
Data f : V → W lineare, la controimmagine di w ∈ W e’ il sottospazio affine con
giacitura ker(f ) con punto di passaggio v0 tale che f (v0 ) = w .
La controimmagine di w e’ l’insieme delle soluzioni dell’equazione lineare f (v) =
w.
v0 e’ una soluzione particolare di quest’equazione mentre ker(f ) e’ l’insieme delle
soluzioni dell’equazione lineare omogenea f (v) = 0W .
In altre parole, la soluzione generale dell’equazione lineare f (v) = w supposta
compatibile (la controimmagine di w e’ non vuota per ipotesi) e’ data dalla somma
di una soluzione particolare dell’equazione datapiu’ la soluzione generale della
corrispondente equazione lineare omogenea.
Esercizio 9.1
Consideriamo f : R2 → R2 e poniamo determinare la controimmagine f −1 (w) al
variare di w ∈ W .
Struttura dell’immagine: f si può riscrivere come
f (x, y) = x ∗ (1, −2) + y(2, −4)
se pongo x = f (e1 ) e y = f (e2 ) si ha:
Capitolo 9. Applicazioni lineari
122 / 258
f (x, y) = f (e1 ) ∗ (1, −2) + f (e2 ) ∗ (2, −4)
Lo spazio immagine e’ lo span dei due vettori, ma siccome sono linearmente
dipendenti e’ lo span di (1, −2) . Il rango di f e’ 1 .
Caso 1: Se poniamo (a, b) non appartenente allo span di (1, −2) , la controimmagine di (a, b) mediante f e’ l’insieme vuoto. La dimensione del ker e’ 2 − rg(f) = 1
per il teorema. Conta solo la prima equazione, perche’ hanno le stesse soluzioni.
x = −2y
Il nucleo e’ span{(−2, 1)} .
Caso 2: Supponiamo (a, b) appartenente all’immagine di f . Allora (a, b) =
λ ∗ (1, −2) , quindi (a, b) = (λ, −2λ) per qualche λ ∈ R .
La controimmagine di (a, b) e’ non vuota e dev’essere un traslato del ker, è data
dalle soluzioni del sistema La seconda equazione e’ la prima moltiplicata per −2
, quindi hanno le stesse soluzioni.
f −1 (a, b) = {(x, y) t.c.x = λ − 2y}
La controimmagine e’ {(λ − 2y, y)} , al variare di y ∈ R .
f −1 ((a, b)) = {(λ, 0) + y(−2, 1), y ∈ R}
E’ la retta con punto di passaggio (λ, 0) e vettore direzione (−2, 1) . Quindi
f −1 ((a, b)) è il traslato di span{(−2, 1)} mediante il vettore (λ, 0) .
f −1 ((a, b)) = (λ, 0) + ker(f )
(λ, 0) e’ una soluzione particolare di f (v) = (a, b) .
Esercizio 9.2
Prendo f : R3 → R2 , e definisco Determinare le controimmagini di v al variare
di v ∈ R2 .
Immagine di f :
f (x, y, z) = {(x, y, z) t.c. x(1, 1) + y(−1, 1) + z(1, 2)}.
L’immagine di f e’ tutto R2 , perche’ ho tre vettori linearmente indipendenti in
uno spazio bidimensionale. La dimensione dell’immagine e’ 2, quella del ker e’ 1.
Determinazione delle controimmagini: La controimmagine di un generico (a, b) in R2 e’ l’insieme: Risolvo il sistema lineare utilizzando la matrice
corrispondente e il metodo dell’eliminazione di Gauss.
1 −1 1 a
1 1 2 b
Capitolo 9. Applicazioni lineari
123 / 258
a2 = a2 − a1
1 −1 1
a
0 2 1 b−a
z e’ una variabile indipendente. Pongo z = t
I vettori della controimmagine sono quelli della forma:
{(x, y, z) t.c. x = y − t − a, 2y = −t − b + a, z = t}
{(x, y, z) t.c. x = y − t − a, y = −t/2 − b/2 + a/2, z = t}
{(x, y, z) t.c. x = −t/2 − b/2 + a/2 − t − a, y = −t/2 − b/2 + a/2, z = t}
{(x, y, z) t.c. x = −3t/2 − b/2 − a/2, y = −t/2 − b/2 + a/2, z = t}
{(−(a + b)/2, (a − b)/2, 0) + t(−3/2, −1/2, 1)}
Per trovare il ker pongo a = 0, b = 0 . Ottengo che il ker e’ lo span del vettore
(−3, −1, 2) . Quindi le controimmagini sono rette con un certo punto di passaggio
e con vettore direzione (−3, −1, 2) .
9.5 Applicazioni lineari tra due spazi vettoriali
9.5.1 Applicazioni coincidenti
Teorema 9.3
Sia V finitodimensionale. Siano V , W spazi vettoriali e sia d la dimensione di V
. Sia B = {v1 , . . . , vd } una base e siano f e g da V in W lineari. Allora f = g se
e solo se f (vi ) = g(vi ) per ogni i = 1, . . . , d .
Dimostrazione 9.7
Se v e’ un generico elemento
di V , siano α1 , . . . , αd ∈ R le sue coordinate nella
∑
base B . Allora v = di=1 αi ∗ vi , quindi
f (v) =
d
∑
αi ∗ f (vi )
i=1
ma f (vi ) = g(vi ) quindi
f (v) =
d
∑
αi ∗ g(vi )
i=1
Uso la linearita’ nella direzione opposta
d
∑
f (v) = g(
αi ∗ vi ) = g(v)
i=1
Capitolo 9. Applicazioni lineari
124 / 258
Conclusione: g(v) = f (v) per ogni v ∈ V .
cvd
In altre parole, Due applicazioni lineari coincidono se e solo se coincidono sui
vettori di una base.
9.5.2 Unicità dell’applicazione lineare da V in W
Siano B = (v1 , . . . , vd ) una base di V e siano w1 , . . . , w∑
d ∈ W vettori arbitrari.
Il generico elemento v ∈ V si puo’ esprimere come v = di=1 αi ∗ vi . Definiamo
∑
f (v) = di=1 αi ∗ wi = w .
f : V → W e’ un’applicazione ben definita, perche’ a ogni elemento di V associa
uno e un solo elemento di W .
Osserviamo che in particolare f (0V ) = 0W , perche’ le coordinate sono tutte
nulle.
Verifico che l’applicazione f è lineare: Siano v, v ′ ∈ V e siano α = (α1 , . . . , αd )
e α′ = (α1′ , . . . , αd′ ) rispettivamente i vettori colonna di v e v ′ nella base B .
Allora per ogni scelta di λ, λ′ ∈ R
λ ∗ v + λ′ ∗ v ′ = λ ∗
∑
αi ∗ v i + λ ′ ∗
∑
αi′ ∗ vi
Il coefficiente di ogni vi e’ λ ∗ αi + λ′ ∗ αi′ .
f (λ ∗ v + λ′ ∗ v ′ ) = (
∑
λ ∗ αi + λ′ ∗ αi′ ) ∗ wi = λ ∗
∑
α i ∗ wi + λ ′ ∗
∑
αi′ ∗ wi
f (λ ∗ v + λ′ ∗ v ′ ) = λ ∗ f (v) + λ′ (f (v ′ )
Pertanto vale il seguente
Teorema 9.4
Sia V uno spazio vettoriale d -dimensionale con d finito e almeno 1. Sia B =
{v1 , . . . , vd } una base di V , Allora per ogni spazio vettoriale W e per ogni scelta
di w1 , . . . , wd elementi di W , esiste ed e’ unica un’applicazione lineare f : V → W
tale per cui f (vi ) = wi ∀i = 1, . . . , d .
Dimostrazione 9.8
∑d
∑
Poniamo f (v) =
αi ∗ vi . Gli αi sono univocamente
i=1 αi ∗ wi se v =
determinati. Come dimostrato sopra f e’ ben definita e lineare.
Per dimostrare l’unicita’ di f , se f e g da V in W sono lineari, soddisfano la stessa
condizione, sono t.c. f (vi ) = g(vi ) = wi per i = 1, . . . , d . Ma questo implica che
f = g perche’ le due applicazioni sono uguali sui vettori di una base.
cvd
Capitolo 9. Applicazioni lineari
125 / 258
9.5.3 Esistenza di un’applicazione suriettiva
Proposizione 9.3
Sia V uno spazio vettoriale d -dimensionale e sia c ≥ d . Allora esiste f : Rc → V
suriettiva.
Dimostrazione 9.9
Sia {v1 , . . . , vd } una base di V . Consideriamo la base canonica di Rc , {e1 , . . . , ec }
. Sia per esempio f : Rc → V l’unica applicazione lineare tale che
f (e1 ) = v1
...
f (ed ) = vd
f (ej ) = 0V , ⇐⇒ j > d
Allora questa e’ l’unica applicazione lineare tale che l’immagine di f e’ span{v1 , . . . , vd }
.
{v1 , . . . , vd } per ipotesi e’ una base di V , quindi lo span di questi vettori e’ tutto
V e f è suriettiva.
cvd
9.5.4 Esistenza di un’applicazione iniettiva
Proposizione 9.4
Siano V e W spazi vettoriali finitodimensionali. Supponiamo che dimV ≤ dimW
. Allora esiste f : V → W lineare e iniettiva.
Dimostrazione 9.10
Sia d la dimensione di V , c la dimensione di W . Allora d ≤ c . Sia Bd =
{v1 , . . . , vd } una base di V . Siccome d ≤ c esistono w1 , . . . , wd ∈ W linearmente
indipendenti. Sia f : V → W l’unica applicazione lineare tale che f (vi ) = wi ∀i =
1, . . . , d . Allora l’immagine di f e’ lo span dei trasformati dei vettori di una base
dello spazio di partenza, quindi e’ span{f(v1 ), . . . , f(vd )} .
La dimensione di Im(f ) e’ uguale a d , perche’ i vettori sono linearmente indipendenti. Allora per il teorema del rango la dimensione del nucleo e’ necessariamente
0 quindi la funzione e’ iniettiva.
cvd
9.5.5 Esistenza di un’applicazione biunivoca
In particolare, se c = d l’applicazione lineare appena costruita non e’ solo iniettiva,
ma anche suriettiva, quindi e’ biunivoca, perche’ {w1 , . . . , wd } e’ una base di W .
Capitolo 9. Applicazioni lineari
126 / 258
Teorema 9.5
Se V e W sono spazi vettoriali finitodimensionali, allora dimV = dimW se e solo
se esiste un’applicazione lineare f : V → W biunivoca.
Corollario 9.1
Siano V e W spazi vettoriali finitodimensionali e supponiamo che dimV = dimW
. Allora se f : V → W e’ lineare si ha che f e’ biunivoca se e solo se vale una
delle due condizioni: f e’ iniettiva o f e’ suriettiva.
Dimostrazione 9.11
Per l’ipotesi e per il teorema del rango:
dim(ker f ) + dim = dimV = dimW
Dimostro che f è iniettiva se e solo se f è suriettiva.
f e’ iniettiva se e solo se la dimensione del ker e’ 0, questo equivale a dire che
dim(Imf ) = dimV = dimW , quindi ImF = W . Quindi f e’ anche suriettiva.
cvd
9.6 Isomorfismo
Definizione 9.6
Se f : V → W e’ lineare e biunivoca, diremo che f e’ un isomorfismo tra V e W
e V e’ isomorfo a W . (se V e’ isomorfo a W , allora W e’ isomorfo a V )
Teorema 9.6
Sia f : V → W un isomorfismo lineare (di conseguenza f e’ biunivoca quindi
ammette un’applicazione inversa). Allora l’applicazione inversa f −1 : W → V e’
anch’essa un’applicazione lineare.
Dimostrazione 9.12
Dobbiamo verificare che per ogni scelta di w, w′ ∈ W e di λ, λ′ ∈ R si ha che
f −1 (λ ∗ w + λ′ ∗ w′ ) = λ ∗ f −1 (w) + λ′ ∗ f −1 (w′ )
Applicando f al secondo membro:
f (λ ∗ f −1 (w) + λ′ ∗ f −1 (w′ )) = λ ∗ f ◦ f −1 (w) + λ′ ∗ f ◦ f −1 (w′ )
Si ha che f ◦ f −1 (w) = id(w) e f ◦ f −1 (w′ ) = id(w′ ) . quindi ottengo:
Capitolo 9. Applicazioni lineari
127 / 258
f (λ ∗ f −1 (w) + λ′ ∗ f −1 (w′ )) = λ ∗ w + λ′ ∗ w′
Concludo che λ ∗ f −1 (w) + λ′ ∗ f −1 (w′ ) e’ la controimmagine di λ ∗ w + λ′ ∗ w′ .
Questo vale per ogni w, w′ ∈ W, λ, λ′ ∈ R , quindi f −1 e’ lineare.
cvd
Capitolo 10. Prodotto tra matrici
128 / 258
Capitolo 10
Prodotto tra matrici
10.1 Applicazioni lineari tra spazi euclidei
10.1.1 Prodotto matrice per vettore
Sia Ck = {e1 , . . . , ek } la base canonica di Rk . Siano A1 , . . . , Ak elementi di Rl ,
della forma Aj = (aj1 , aj2 , . . . , ajl ) .
Sia f : Rk → Rl l’unica applicazione lineare t.c. f (ej ) = Aj . Esplicitamente,
Scritto come un unico vettore:
Definizione 10.1
Sia A una matrice l × k e sia X = (x1 , . . . , xk ) un vettore colonna in Rk . Il
prodotto matrice per vettore A · X ∈ RL ha come risultato il seguente vettore
colonna:
Quindi possiamo riscrivere f : Rk → Rl lineare come f (X) = A ∗ X , con
X = (x1 , . . . , xk ) (vettore colonna) dove A e’ la matrice che ha per colonne
A1 , . . . , Ak .
Definizione 10.2
Lo spazio delle matrici l × k a coefficienti in R si indica con la notazione Ml,k (R)
.
10.1.2 Corrispondenza biunivoca tra applicazioni lineari e matrici
Le applicazioni lineari f : Rk → Rl sono tutte e sole quelle della forma: f (X) =
A ∗ X per qualche matrice l × k .
In particolare data una qualsiasi A in Ml,k (R) l’applicazione lineare corrispondente che porta X in Rk nel prodotto A ∗ X ∈ Rl e’ l’unica applicazione che
porta un vettore della base canonica nella corrispondente colonna della matrice.
E’ l’unica tale che f (e1 ) = A1 , . . . , fa (ek ) = Ak dove gli ej costituiscono la base
canonica di Rk .
Capitolo 10. Prodotto tra matrici
129 / 258
C’e’ una corrispondenza biunivoca tra le applicazioni lineari f : Rk → Rl e lo
spazio Ml,k (R) .
10.1.3 Nucleo immagine e controimmagine
Osservazione 10.1
Se A = [A1 , . . . , Ak ] sta in Ml,k (R) e LA e’ la corrispondente applicazione lineare
tale che X 7→ A ∗ X , allora lo spazio immagine di LA e’ span{LA (e1 ), . . . , LA (ek )}
dove LA (e1 ) e’ la prima colonna di A e così via. In altre parole lo spazio immagine
e’ lo span delle colonne della matrice.
Ricaviamo che il rango di LA e’ la dimensione dello span delle colonne, e quindi
è il rango della matrice A associata.
Osservazione 10.2
Il nucleo di LA e’
{X ∈ Rk t.c. A ∗ X = 0Rl }.
Quindi ker LA e’ precisamente lo spazio delle soluzioni del sistema lineare omogeneo di l equazioni in k incognite:
Il teorema del rango si puo’ riesprimere in questo caso: la dimensione dello spazio
delle soluzioni del sistema lineare omogeneo definito da A sommato al rango per
colonne di A e’ uguale a k (numero delle colonne) se A e’ una matrice l × k .
Osservazione 10.3
Se prendo v = (v1 , . . . , vl ) ∈ Rl , la controimmagine di v e’ il vuoto se v non
appartiene allo span delle colonne di A . Se v appartiene allo span delle colonne
di A , allora la controimmagine di v e’ l’insieme di X ∈ Rk t.c.LA (X) = v cioè
tali che A ∗ X = v , quindi e’ l’insieme
La controimmagine di v e’ lo spazio delle soluzioni del sistema lineare non omogeneo di l equazioni in k incognite.
Ricaviamo che dato un sistema lineare di l equazioni in k incognite della forma
il sistema e’ compatibile (ammette soluzioni) se e solo se il vettore v appartiene
allo span delle colonne della matrice che definisce il sistema.
a11 . . . a1k
... ... ...
al1 . . . alk
e in tal caso Lo spazio delle soluzioni e’ un traslato dello spazio delle soluzioni del
sistema lineare omogeneo (con vi = 0 per ogni i ), che e’ il nucleo dell’applicazione
lineare.
La soluzione generale del sistema non omogeneo e’ la soluzione particolare sommata alla soluzione generale del sistema lineare omogeneo.
Capitolo 10. Prodotto tra matrici
130 / 258
10.2 composizione di applicazioni lineari
10.2.1 Linearità della composizione
Teorema 10.1
Siano V , W , T spazi vettoriali e siano f : V → W e g : W → T applicazioni
lineari. Allora la composizione g ◦ f : V → T e’ ancora lineare.
Dimostrazione 10.1
Siano v1 , v2 elementi di V e λ1 , λ2 elementi di K . Allora
(g ◦ f )(λ1 ∗ v1 + λ2 ∗ v2 ) = g(f (λ1 ∗ v1 + λ2 ∗ v2 ))
ma siccome f e’ lineare,
= g[λ1 ∗ f (v1 ) + λ2 ∗ f (v2 )]
Sfruttando la linearita’ di g ottengo
= λ1 ∗ g(f (v1 )) + λ2 (g(f (v2 ))
λ1 ∗ (g ◦ f )(v1 ) + λ2 ∗ (g ◦ f )(v2 )
quindi g ◦ f è lineare.
cvd
10.2.2 composizione di applicazioni lineari e matrici
Sia V = Rk , W = Rl , T = Rp . L’applicazione f : Rk → RL lineare corrisponde
a una matrice l × k , in altre parole esiste un’unica matrice B ∈ Ml,k (R) tale che
f = LB ossia f (x) = B ∗ X per ogni X ∈ Rk .
Allo stesso modo data g : Rl → Rp , esiste ed e’ unica una matrice A ∈ Mp,l (R)
tale che g = LA , ossia g(Y ) = A ∗ Y al variare di Y ∈ Rl .
Siccome (g ◦ f ) : Rk → Rp e’ lineare, allora esiste ed e’ unica una matrice C ∈
Mp,k (R) tale che g ◦ f = LC , ossia g ◦ f (X) = C ∗ X al variare di X ∈ Rk .
10.2.3 Matrice associata alla composizione
Descriviamo esplicitamente C in funzione di A e B .
Se g ◦ f = LC significa che la i-esima componente di g ◦ f (X) e’ la i -esima
componente del prodotto CX , quindi
(g ◦ f )(X)i =
k
∑
j=1
Cij ∗ xj
Capitolo 10. Prodotto tra matrici
131 / 258
C e’ univocamente determinata da tale proprieta’.
Inoltre, g ◦ f (X) = g(f (X)) quindi la i-esima componente di (g ◦ f )(X) si può
anche scrivere come:
(g ◦ f )(X)i = g(f (x))i =
l
∑
air ∗ f (x)r
r=1
In termini di B si ha
f (X)r =
k
∑
brj xj
j=1
e sostituendo nella formula sopra l’espressione di f (X)r :
(g ◦ f )(X)i = g(f (x))i =
l
∑
air ∗
r=1
k
∑
arj ∗ xj
j=1
Ho due somme finite e posso unirle.
(g ◦ f )(X)r =
l ∑
k
∑
air ∗ brj ∗ xj
r=1 j=1
allora confrontando queste due uguaglianze, siccome C e’ univocamente determinata, ricaviamo che i coefficienti cij sono dati da questa relazione:
cij =
l
∑
air ∗ brj
r=1
Riassumendo,
Teorema 10.2
Se B e’ una matrice l × k e A e’ una matrice p × l , e LA : Rl → Rp , LB : Rk → Rl
sono le corrispondenti applicazioni lineari, allora la composizione LA ◦ LB : Rk →
Rp e’ data dall’applicazione LC ove C ∈ Mp,k (R) ha entrate:
cij =
l
∑
air ∗ brj , i = 1, . . . , p, j = 1, . . . , k
r=1
10.2.4 prodotto tra matrici
Definizione 10.3
Supponiamo di avere matrici A ∈ Mp,l (R) e B ∈ Ml,k (R) (Il numero di colonne
della prima matrice e’ uguale al numero di righe della seconda, perche’ lo spazio
Capitolo 10. Prodotto tra matrici
132 / 258
di partenza della seconda applicazione e quello di arrivo della prima dev’essere lo
stesso.) Il prodotto A × B = A ∗ B e’ la matrice p × k (ha il numero di righe di
A e il numero di colonne di B ) avente entrate
(AB)ij =
l
∑
air ∗ brj , i = 1, . . . , p, j = 1, . . . , k
r=1
Si ha quindi che nelle stesse ipotesi la composizione LA ◦ LB e’ ben definita ed e’
uguale a LAB .
Esempio 10.1
Considero
1 −2
A= 1 0
1 2
B=
1 −1
0 1
Prodotto: siano a1 , a2 , a3 i vettori riga di A e b1 , b2 i vettori colonna di B . La
matrice 3 × 2 che ottengo e’
a1 · b1 a1 · b2
a2 · b1 a2 · b2
a3 · b1 a3 · b2
Matrice
1 3
A = 1 −1
1 1
Osservazione 10.4
Se moltiplico una matrice 1 × d (una riga di numeri a1 , . . . ad ) e una matrice
d × 1 (una colonna), ottengo una matrice 1 × 1 , ovvero un numero (corrisponde
al prodotto scalare).
se invece ho una matrice d × 1 e faccio il prodotto con una matrice 1 × d ottengo
una matrice d × d della forma:
b1 ∗ a1 . . . b1 ∗ ad
...
...
...
d
d
b ∗ a1 . . . b ∗ ad
Capitolo 10. Prodotto tra matrici
133 / 258
10.2.5 associativita’ del prodotto tra matrici
Il prodotto di matrici e’ associativo.
Supponiamo di avere A ∈ Ml,k , B ∈ Mk,p , C ∈ Mp,l . Allora A ∗ B ∈ Ml,p puo’
essere moltiplicata a sua volta per C e si ottiene una matrice l × l .
si puo’ anche eseguire il prodotto B∗C che e’ una matrice k×l , e poi moltiplicarlo
a sinistra per A che e’ una matrice l × k e si ottiene la matrice l × l .
L’associativita’ vale per il seguente motivo: consideriamo le corrispondenti applicazioni lineari LC : Rk → Rp , LB : Rp → Rl , LA : Rl → Rk . Il prodotto di
applicazioni lineari è associativo, quindi
(LA ◦ LB ) ◦ LC = LA ◦ (LB ◦ LC )
Siccome matrici e applicazioni lineari si corrispondono biunivocamente segue che:
A ∗ (BC) = (AB) ∗ C
10.3 Invertibilità di matrici
10.3.1 matrici quadrate
Definizione 10.4
Una matrice si dice quadrata se il numero delle righe e’ uguale al numero delle
colonne e lo spazio delle matrici quadrate k × k si denota con Mk (R) .
Osservazione 10.5
Se prendiamo matrici quadrate A e B , anche A ∗ B e B ∗ A sono elementi di
Mk (R) . Quindi il prodotto di matrici diventa un’operazione associativa definita
da Mk (R) × Mk (R) a valori in Mk (R) .
Se k = 1 ottengo l’ordinario prodotto di numeri reali che è commutativo, ma per
k > 1 questo prodotto non è comutativo, infatti posso considerare le matrici:
Se prendo le matrici
A=
1 0
0 0
B=
0 0
1 0
e
Allora
AB =
0 0
0 0
Capitolo 10. Prodotto tra matrici
134 / 258
BA =
0 0
1 0
e i risultati sono diversi.
10.3.2 Matrice diagonale
Definizione 10.5
Una matrice si dice diagonale se e solo se tutte le sue entrate tranne quelle della
diagonale sono uguali a 0.
Definizione 10.6
Per ogni d ≥ 1 intero, la matrice identica d × d e’ la matrice che ha come colonne
i valori della base canonica di Rd . E’ la matrice diagonale con tutte le entrate
diagonali uguali a 1.
Questa matrice si chiama identica perché corrisponde all’applicazione lineare
identica, infatti il prodotto di questa matrice per un vettore colonna X ha come
risultato il vettore stesso.
10.3.3 Matrice invertibile
Definizione 10.7
Una matrice quadrata A ∈ Md (R) si dice invertibile se esiste una matrice quadrata
B ∈ Md (R) tale che A∗B = B ∗A e questo prodotto deve dare la matrice identica.
10.3.4 Rango della matrice composta
Osservazione 10.6
Supponiamo che V , W , U siano spazi finitodimensionali. Allora rg e’ la dimensione dello spazio immagine. Siccome f (v) e’ contenuto nello spazio W ,
segue che rg ≤ dim = rg(g) . E’ anche vero che rgg ◦ f(v) = dimg(f(v)) quindi
rg ≤ dimf(v) = dim(Imf) = rgf Riassumendo
rg ≤ min{rgg, rgf}.
Per esempio, si avra’ rg = rg se e solo se g ◦ f : V → U e’ iniettiva. Questo vuol
dire che ker g(f (v)) e’ 0, cioè ker g ∩ Imf = 0W .
In generale, Se ho un’applicazione lineare H : A → B e suppongo che C sia un
sottospazio di A , se considero la restrizione f : C → B essa e’ lineare. Il ker e’
l’intersezione C ∩ ker h .
Osservazione 10.7
Capitolo 10. Prodotto tra matrici
135 / 258
Se Ik e’ la matrice identica k × k con le entrate diagonali uguali a 1, allora per
ogni matrice B ∈ Mk (R) si ha che B ∗ I = I ∗ B = B . Ik e’ l’unita’ della
moltiplicazione. Il prodotto B ∗ I e’ uguale a
k
∑
Bir ∗ Irj
r=1
L’entrata rj della matrice identita’ e’ il δrj , e’ uguale a 1 se i = j e uguale a 0
se i ̸= j . Quindi calcolando il prodotto rimane Bij .
I e’ la matrice che corrisponde all’identita’, quindi la matrice I ∗ B corrisponde
a LI ◦ LB = LB .
10.3.5 Invertibilita’ di matrici quadrate
Non tutte le matrici sono invertibili, come mstra il seguente esempio.
Considero matrici A, B, ̸= 0 tali che A ∗ B e’ la matrice nulla.
Se A fosse una matrice invertibile, esisterebbe una matrice A′ ∈ Mk (R) tale che
AA′ e’ uguale alla matrice identica k × k , allora A′ ∗ (AB) e’ A′ per la matrice
nulla quindi a sua volta il risultato e’ una matrice nulla.
Ma il prodotto e’ associativo, quindi A′ (AB) = (A′ A)B , dove A ∗ A′ e’ la matrice
identica perche’ A e’ invertibile, quindi ottengo che l’uguaglianza
A′ ∗ (AB) = (A′ A)B
corrisponde a
0=I ∗B
Ma questo e’ assurdo perche’ A, B sono diverse da 0. Quindi non tutte le matrici
sono invertibili.
10.3.6 unicita’ della matrice inversa
Osservazione 10.8
Sia A una matrice k × k e supponiamo che esistano A′ e A′′ matrici k × k inverse
sinistra e destra di A tali che A′ ∗ A′′ = I Allora certamente A′ = A′′ , infatti si
ha
A′ = A′ ∗ I = A′ ∗ (AA′′ ) = (A′ A)A′′ = I ∗ A′′ = A′′
Quindi se una matrice ammette un’inversa destra e un’inversa sinistra le due
matrici sono uguali.
Capitolo 10. Prodotto tra matrici
136 / 258
10.3.7 Relazione tra iniettivita’ e matrice inversa
Teorema 10.3
Siano V e W spazi vetoriali finitodimensionali su K . Sia F : V → W lineare.
Allora le seguenti condizioni sono equivalenti:
• f e’ iniettiva, cioe’ il suo ker e’ 0;
• esiste g : W → V lineare tale che g ◦ f = I(V )
Dimostrazione 10.2
La condizione 2 implica 1, perche’ esiste una funzione con questa proprieta’ se e
solo se f e’ iniettiva (visto parlando di insiemistica).
La condizione 1 implica 2. Sia B = (v1 , . . . , vd ) una base di V . Siano d la dimensione di V , c la dimensione di W . Allora d ≤ c e f e’ iniettiva se e solo se il rango di
f e’ uguale alla dimensione di V , quindi rg = d , quindi dimspan{v1 , . . . , vd } = d
, quindi f (v1 ), . . . , f (vd ) sono una base dello spazio immagine.
Per il teorema della base incompleta supponiamo per comodita’ c > d , esistono
w1 , . . . , wc−d ∈ W tali che f (v1 ), . . . , f (vd ), w1 , . . . , wc−d e’ una base di W .
Sia g l’unica applicazione lineare da W in V tale che g(f (vi )) = vi per i < d e
g(f (vj )) = 0 ⇐⇒ j > d . Allora per costruzione g ◦ f (vk ) = g(f (vk ) = vk , ∀k =
1, . . . , d . Siccome coincide con i vettori della base, g ◦ f = id(v) .
cvd
10.3.8 Suriettivita’ e invertibilita’
Teorema 10.4
Siano V e W spazi vettoriali finitodimensionali e sia f : V → W lineare, allora le
seguenti condizioni sono equivalenti:
• f : V → W e’ suriettiva;
• esiste g : W → V lineare tale che f ◦ g(w) = id(w)
Dimostrazione 10.3
Dimostro che 2 implica 1. Abbiamo dimostrato parlando di insiemistica che esiste
una funzione g : W → V tale che LA ◦ g = id(w) se e solo se la funzione e’
suriettiva.
Dimostro che 1 implica 2. Se LA e’ surettiva, allora la dimensione di W e’ uguale alla dimensione dell’immagine. Sia d la dimensione dell’immagine e sia B =
(w1 , . . . , wd ) una base di W . La dimensione di W e’ sicuramente minore o uguale
Capitolo 10. Prodotto tra matrici
137 / 258
di quella di V . Allora esiste una funzione g tale che g(w1 ) = v1 , . . . , g(wd ) = vd
. Allora si ha che f (g(w1 )) = f (v1 ) = w1 , . . . , f (g(vd )) = wd .
cvd
10.3.9 Inversa destra e inversa sinistra
Una matrice A ∈ Mk (R) ammette un’inversa sinistra se e solo se esiste una
matrice A′ ∈ MK (R) tale che A′ A = I , quindi se e solo se esiste una matrice
A′ ∈ MK (R) tale che l’applicazione A′ ◦ A e’ l’applicazione identica.
Quindi se e solo se esiste una matrice A′ ∈ mk (R) tale che L′A ◦ LA e’ uguale
all’identita’.
Quindi se e solo se esiste g : Rk → Rk lineare tale che g ◦ LA = I . Per il teorema
dimostrato questo equivale a dire che LA e’ un’applicazione lineare iniettiva.
Se A e’ una matrice ∈ Mk (R) allora esiste una matrice A′ ∈ Mk (R) tale che
A′ A = I se e solo se LA : Rk → Rk e’ iniettiva e quindi se e solo se il nucleo di A
e’ uguale al vettore nullo di Rk .
Questo equivale a dire che LA : Rk → Rk e’ suriettiva (se il nucleo e’ nullo la
dimensione di V e’ uguale a quella dell’immagine e quindi a quella di W ). Quindi
LA e’ un isomorfismo Rk → Rk , quindi un automorfismo di Rk .
Allo stesso modo, sia A una matrice in Mk (R) . Allora A ammette inversa destra,
ossia esiste A′′ ∈ Mk tale che AA′′ e’ la matrice identita’ se e solo se esiste
g : Rk → Rk lineare tale che LA ◦ g = id(Rk ) . Questo equivale a dire che LA
e’ suriettiva Data una matrice A ∈ Mk (R) esiste A′′ ∈ Mk (R) tale che AA′′ e’
identita’ se e solo se LA e’ suriettiva. Questo equivale a dire che LA e’ anche
iniettiva, quindi se e solo se esiste A′ in Mk (R) tale che A′ A = I .
10.3.10 condizioni equivalenti
Riassumendo:
Teorema 10.5
Sia A una matrice k × k allora le seguenti condizioni sono equivalenti:
1. A e’ invertibile, cioe’ ammette un’inversa bilatera, quindi esiste una matrice
A−1 tale che A−1 A = AA−1 = Ik
2. A e’ invertibile a sinistra, cioe’ esiste A’ in mKxK tale che A′ A = Ik
3. A e’ invertibile a destra, quindi esiste A tale che AA′′ = Ik
4. LA : Rk → Rk e’ iniettiva;
5. LA : Rk → Rk e’ suriettiva;
6. LA : Rk → Rk e’ un automorfismo, cioe’ e’ un isomorfismo di lk con se
stesso;
7. il rango di A e’ necessariamente k.
Capitolo 10. Prodotto tra matrici
138 / 258
8. le colonne (A1 , . . . , Ak ) costituiscono una base di Rk , quindi Aj e’ la j-esima
colonna di A.
10.4 Calcolo della matrice inversa
10.4.1 Condizione per l’invertibilità
La matrice 2 × 2
a b
c d
e’ invertibile se e solo se le colonne sono linearmente indipendenti, e quindi se e
solo se ad − bc ̸= 0 .
Allo stesso modo se prendo una matrice 3 × 3 con colonne a1 , a2 , a3 questa sara’
una matrice invertibile se e solo se il rango della matrice e’ uguale a 3 e quindi
se e solo se A1 , A2 , A3 e’ una base di Rk e quindi se e solo se A1 · (A2 ∗ A3 ) ̸= 0 .
Supponiamo di avere una matrice k × k . A e’ invertibile se e solo se il suo
rango e’ uguale a k , quindi se e solo se la matrice ridotta in forma a scala ha
solo k gradini, quindi se le entrate della diagonale nella matrice ottenuta dopo
l’eliminazione gaussiana sono diverse da 0. Non si ha perdita di generalita’ nel
dire che tutte le entrate diagonali della matrice ridotta a scala siano uguali a 1,
infatti posso dividere ogni riga per un certo coefficiente in modo che tale entrata
sia uguale a 1. Dopo ulteriori operazioni per righe posso pervenire alla matrice
identita’
Concludo che A e’ invertibile se e solo se posso trasformarla nell’identita’ mediante
una opportuna sequenza di operazioni elementari per righe.
Eseguire un’operazione elementare per righe su una matrice k × k equivale a moltiplicarla a sinistra per un’opportuna matrice Ei (corrispondente all’operazione
i-esima), dove E e’ la matrice che si ottiene eseguendo la stessa operazione su I .
Supponiamo che dopo r operazioni elementari per righe su A si ottenga l’identità.
Per l’associativita’ posso scrivere
(Er ∗ Er−1 ∗ Er−2 ∗ · · · ∗ E1 ∗ A = I,
allora l’inversa di A e’ A−1 = (Er ∗ Er−1 ∗ · · · ∗ E1 )−1 .
A−1 e’ la matrice che si ottiene a partire dalla matrice identita’ facendo su di essa
le stesse operazioni fatte prima su A per arrivare a I .
Riassumendo,
Teorema 10.6
A ∈ Mk (R) e’ invertibile se e solo se esiste una sequenza finita di operazioni
elementari per righe che porta A nell’identità I . In tal caso la matrice inversa di
A e’ la matrice che si ottiene da I con la stessa sequenza di operazioni elementari
per righe.
Capitolo 10. Prodotto tra matrici
139 / 258
Esempio 10.2
Calcolare l’inversa della matrice:
1 2
−1 1
le colonne sono linearmente indipendenti, quindi la matrice e’ invertibile. scrivo
di fianco la matrice identita’, separandola dalla matrice di partenza con una riga
verticale. Faccio operazioni per righe in modo che la matrice di partenza sia
uguale alla matrice identita’. Faccio le stesse operazioni anche sulla matrice a
destra. Quando la matrice a sinistra dopo r operazioni per righe e’ diventata la
matrice identita’, la matrice che ottengo a destra e’ l’inversa di quella di partenza.
1 2 1 0
−1 1 0 1
a2 = a2 + a1
1 2 1 0
0 3 1 1
a2 = a2 ∗ 1/3
0
1 2 1
0 1 1/3 1/3
a1 = a1 − 2 ∗ a2
1 0 1/3 −2/3
0 1 1/3 1/3
La matrice inversa e’
A−1 =
1/3 −2/3
1/3 1/3
Verifica: moltiplico la matrice A per la matrice originaria.
AA−1 =
1 0
0 1
Esempio 10.3
Determinare se f : R2 → R2 data da f (x, y) = (2 + xy, −x + y) e’ invertibile e
nel caso trovarne l’inversa.
Cerco la funzione f −1 (x, y) = (A, B) che moltiplicata per la funzione data mi da’
la funzione identita’ I = (x, y) . Uguagliando le singole componenti:
(2 + xy) ∗ A = x, −→ A =
x
2 + xy
Capitolo 10. Prodotto tra matrici
140 / 258
(−x + y)B = y, −→ B =
y
−x + y
Esempio 10.4
Considero la matrice
A=
1 2 1
0 1 1
−1 0 −1
Stabilire se il sistema lineare AX = b con X = (x1 , x2 , x3 ) e b = (b1 , b2 , b3 )
ammette un’unica soluzione per ogni b ∈ R3 e nel caso trovarla.
Il sistema ha un’unica soluzione se e solo se LA e’ biunivoca, quindi se e solo se
A e’ invertibile. In tal caso AX = b se e solo se A−1 (AX) = A−1 (b) (se A e’
invertibile anche l’inversa e’ invertibile), quindi se e solo se X = A−1 ∗ b .
Cerco l’inversa della matrice.
1 2 1 1 0 0
0 1 1 0 1 0
−1 0 −1 0 0 1
1 2 1 1 0 0
0 1 1 0 1 0
0 2 0 1 0 1
1 2 1 1 0 0
0 2 0 1 0 1
0 1 1 0 1 0
1 2 1 1 0 0
0 2 0 1 0 1
0 0 2 −1 2 −1
1 0 1
0
0 −1
0 1 0 1/2 0 1/2
0 0 1 −1/2 1 −1/2
1 0 0 1/2 −1 −1/2
0 1 0 1/2
0
1/2
0 0 1 −1/2 1 −1/2
Matrice inversa:
A−1 =
1/2 −1 −1/2
1/2
0
1/2
−1/2 1 −1/2
A−1 = 1/2 ∗
1 −2 −1
1
0
1
−1 2 −1
Capitolo 10. Prodotto tra matrici
141 / 258
Per ogni v(v1 , v2 , v3 ) vettore colonna in R3 la soluzione del sistema lineare AX = b
dove X = (x, y, z) e’ data da A−1 ∗ b e’
A−1 b =
1/2(x − 2y − z)
1/2(x + z)
1/2(−x + 2y − z)
10.4.2 Considerazioni generali invertibilita’ del prodotto
Proposizione 10.1
Se A e B sono matrici k × k invertibili, allora tale e’ anche A ∗ B e (A ∗ B)−1 =
B −1 ∗ A−1 , in altre parole l’inverso del prodotto e’ il prodotto degli inversi ma
nell’ordine inverso.
Dim. Verifica dell’invertibilità: L’applicazione associata alla composizione di
matrici è:
lAB = LA ◦ LB : Rk → Rk
A e B sono invertibili quindi LA e LB sono biunivoche.
Quindi anche LAB e’ biunivoca, e’ un automorfismo di Rk , questo implica che
AB e’ invertibile.
Prodotto degli inversi: Se calcolo (AB)(B −1 ∗ A−1 ) siccome il prodotto e’
associativo, posso riscriverlo come:
ABB −1 ∗ A−1
Siccome B e’ invertibile si ha che
ABB −1 ∗ A−1 = A ∗ I ∗ A−1 = AA−1
Ma anche A e’ invertibile quindi il tutto e’ uguale a I .
cvd
Proposizione 10.2
Viceversa, se AB e’ invertibile, segue che A, B ∈ Mk (R) sono invertibili.
Dimostrazione 10.4
La composizione di applicazioni lineari ha sempre un rango uguale al minimo
delle due. Sfruttando la corrispondenza tra matrici e applicazioni lineari:
rg ≤ min{rg(A), rg}
AB e’ invertibile se e solo se rg = rg . Quindi AB invertibile implica che rgA = rgB = k
, e segue che A e B sono invertibili.
Capitolo 10. Prodotto tra matrici
142 / 258
cvd
10.5 Matrice trasposta
10.5.1 Definizione
Definizione 10.8
Sia A una matrice k ×l . La textit di A e’ la matrice indicata con At appartenente
a Ml,k che si ottiene scambiando le righe con le colonne, quindi definita ponendo
Atij = Aji per i = 1, . . . , l e j = 1, . . . , k .
Esempio 10.5
Il trasposto di un vettore riga e’ un vettore colonna.
Nel caso di una matrice quadrata la trasposizione corrisponde a una riflessione
lungo la diagonale
Se traspongo una matrice e poi traspongo la matrice trasposta otengo nuovamente
la matrice di partenza.
10.5.2 Prodotto fra trasposte
Proposizione 10.3
Siano A ∈ Mk,l (R) , e B ∈ Ml,r (R) . Allora (A ∗ B)t = B t ∗ At
Dimostrazione 10.5
Per definizione di matrice trasposta:
(AB)tij = (AB)ji =
e il prodotto si esplicita come
l
∑
Ajs ∗ Bsi =
s=1
Passo alla trasposta
l
∑
s=1
cvd
(At )sj ∗ (B t )is =
l
∑
s=1
(B t )is ∗ (At )sj = (B t ∗ At )ij
Capitolo 10. Prodotto tra matrici
143 / 258
10.5.3 Trasposta dell’inversa
Proposizione 10.4
Se A ∈ Mk (R) e’ invertibile, allora anche At e’ invertibile e (At )−1 = (A−1 )t .
Dimostrazione 10.6
Il risultato si ricava subito applicando il teorema sulla trasposizione del prodotto,
infatti:
At ∗ (A−1 )t = (A−1 ∗ A)t = I t = I
cvd
10.5.4 Complemento ortogonale
Osservazione 10.9
Sia A matrice appartenente a Ml,k (R) . Allora se la funzione LA : Rk → Rl manda
X nel prodotto AX , si ha che esiste At ∈ Mk,l (R) e la funzione LAt : Rl → Rk
manda Y in At ∗ Y .
Osservo che Y ∈ ker LAT se e solo se At ∗Y = 0Rk , quindi se e solo se X ·At ∗Y = 0
per ogni X ∈ Rk , quindi se e solo se X t ∗ At ∗ Y = 0 per ogni X ∈ Rk . Per
il teorma sulla trasposiione del prodotto la condizione è verificata se e solo se
(AX)T ∗ Y = 0 , cioè se e solo se (AX) · Y = 0 (e’ il prodotto scalare standard in
Rl ) per ogni X appartenente a Rk . quindi se e solo se Y sta nel complemento
ortogonale dell’immagine di LA .
Lemma 10.1
L’immagine di LA e’ contenuta in Rl e anche l’ortogonale dell’immagine di LA e’
contenuta in Rl
Se A ∈ Ml,k (R) allora ker(At ) = ker lAt = (ImLA )⊥ .
Quindi il rango di LAt definita da Rl in Rk e’ uguale alla dimensione dello spazio
di partenza a cui sottraggo la dimensione del ker di At . Questo equivale a
l − dim(ImLA )⊥ = L − [L − dim(ImLA )) = dim = rgA
Corollario 10.1
Se A ∈ Mk,l (R) allora rgA = rg(At ) .
Capitolo 11. Matrici e basi
144 / 258
Capitolo 11
Matrici e basi
11.1 Basi di partenza e di arrivo
11.1.1 Ipotesi
Siano V e W spazi vettoriali, sia d la dimensione di V e c la dimensione di W .
Siano Bv = {v1 , . . . , vd } la base di V e Bw = {e1 , . . . , ec } la base di W . Supponiamo data un’applicazione lineare f : V → W . Allora per ogni j = 1, . . . , d
esistono e sono unici scalari in R o in K per i = 1, . . . , c tali per cui
f (vj ) =
c
∑
aij ∗ wi ,
formula 1
i=1
Se aj e’ il vettore in Rc con coordinate (a1j , . . . , acj ) , abbiamo definito matrice
di f rispetto alla base βBv di partenza e βBw di arrivo come
βBv
MβB
(f ) = [a1 , . . . , ad ]
w
che corrisponde alla matrice ctimesd :
a11 . . . ac1
... ... ...
a1d . . . acd
11.1.2 Coordinate nella base d’arrivo
Ci si chiede che relazione c’e’ tra il vettore delle coordinate di un dato v nella
base Bv e il vettore delle coordinate del suo trasformato nella base Bw , se v e’
un generico elemento di V .
Sia X = ∑
(x1 , . . . , xd ) la colonna delle coordinate del vettore v in V . Cio’ significa
che v e’ dj=1 xj ∗ vj , quindi applicando f ricaviamo che
Capitolo 11. Matrici e basi
145 / 258
f (v) = f (
d
∑
xj ∗ vj ),
j=1
ma siccome f e’ lineare ottengo
d
∑
xj ∗ f (vj )
j=1
Sostituisco a f (vj ) la sua espressione in funzione dei wj (formula 1):
f (v) =
∑
∑
j = 1d xj ∗ [
i = 1c aij ∗ wi ]
Posso cambiare l’ordine di sommatoria
c ∑
∑
j = 1d (aij ∗ xj ) ∗ wi
i=1
Se chiamiamo Y il vettore colonna (y1 , . . . , yc ) esso e’ il vettore colonna delle
coordinate del trasformato f (v) nella base di W . Allora
f (v) =
c
∑
y i ∗ wi .
i=1
Bw e’ una base di W quindi le sue coordinate sono univocamente determinate,
allora eguagliando i coefficienti di f (v) nelle due diverse espressioni ottengo:
yi =
d
∑
aij ∗ xj .
j=1
In forma matriciale questo si puo’ scrivere come
∑d
j=1 a1j
Y =
∗ xj
...
j=1 acj ∗ xj
∑d
Questo e’ il prodotto della matrice
a11 a12 . . . a1d
... ... ... ...
ac1 ac2 . . . acd
per il vettore X .
Riassumendo, si ha che
d
∑
j=1
aij ∗ xj
Capitolo 11. Matrici e basi
146 / 258
e’ la colonna delle coordinate di f (v) nella base Bw ed e’ il prodotto della matrice
associata ad f con base di partenza Bv e base di arrivo Bw e le coordinate di v
rispetto alla base di partenza.
11.1.3 Teorema sulle coordinate
Vale quindi il seguente teorema:
Teorema 11.1
Siano V e W spazi vettoriali finitodimensionali sul corpo K . Siano Bv , Bw basi
di V e W rispettivamente.
Supponiamo di avere un’applicazione lineare f : V → W , allora per ogni v in
V si ha che la colonna delle coordinate nella base di arrivo del trasformato di v
si ottiene facendo il prodotto della matrice f nelle due basi e del vettore delle
coordinate di v nella base di partenza. Questa e’ una matrice c × d .
Esempio 11.1
Sia f una funzione : R3 [x] → R2 [x] tale che
f (p(x)) = x ∗ p′′ (x) + x2 ∗ p(1) + p′ (x)
(Ottengo un polinomio di grado al piu’ 2.)
Prendiamo le basi B1 = {1, x, x2 , x3 } e B2 = {1, x, x2 } . La matrice corrispondente
all’applicazione e’ del tipo 3 × 4 .
Applico f ai polinomi della base di partenza e scrivo le coordinate del trasformato
rispetto alla base di arrivo.
f (p(x)) = x ∗ p′′ (x) + x2 ∗ p(1) + p′ (x)
f
trasformato
coordinate
f (1)
0 + x2 + 0
(0, 0, 1)
2
2
f (x)
0+x +1=1+x
(1, 0, 1)
f (x2 ) 2x + x2 + 2x = 4x + x2
(0, 4, 1)
f (x3 ) 6x2 + x2 + 3x2 = 10x2
(0, 0, 10)
Se parto da un polinomio della forma
p0 + p1 ∗ x + p2 ∗ x2 + p3 ∗ x3
in R3 [x] la matrice nella base B2 di f (px ) e’ la matrice che ha per colonne i
vettori trovati prima, che sono i trasformati mediante f dei polinomi della base
di partenza rispetto alla base di arrivo.
0 1 0 0
0 0 4 0
1 1 1 10
Capitolo 11. Matrici e basi
147 / 258
Per ottenere le coordinate di f (v) nella base di arrivo, dove v e’ un polinomio
con coefficienti p0 , p1 , p2 , p3 , moltiplico la matrice per il polinomio v e ottengo la
soluzione:
p1
4p2
p0 + p1 + p2 + 10p3
Verifica: Calcolo f applicata al polinomio di partenza.
x ∗ p′′ (x) = 2p2 ∗ x + 6x2 ∗ p3
x2 ∗ p(1) = x2 ∗ (p0 + p1 + p2 + p3 )
p′ (x) = p1 + 2x ∗ p2 + 3x2 ∗ p3
f (px ) = 2p2 ∗ x + 6x2 ∗ p3 + x2 ∗ (p0 + p1 + p2 + p3 ) + p1 + 2x ∗ p2 + 3x2 ∗ p3
f (px ) = p1 + (2p2 + 2p2 ) ∗ x + x2 ∗ (6p3 + p0 + p1 + p2 + p3 + 3p3 )
f (px ) = p1 + (4p2 ) ∗ x + x2 ∗ (p0 + p1 + p2 + 10p3 )
Le coordinate sono le stesse che ho trovato sopra leggendo la soluzione dalla
matrice.
11.1.4 Conclusione
Abbiamo dimostrato che per ogni v in V nelle ipotesi precedenti la colonna delle
coordinate di f (v) nella base Bw e’ uguale al prodotto della matrice da Bv a Bw
per la colonna delle coordinate di v nella base Bv .
MBw (w) = MBBwv (f ) ∗ MBv (v)
Fissiamo A la matrice dalla base Bv a Bw . A e’ una matrice c × d .
Abbiamo osservato che MB (v) : V → Rd e MB (w) : W → Rc sono isomorfismi di
spazi vettoriali.
L’applicazione LA : Rd → Rc corrisponde alla matrice c × d . Allora possiamo
riscriverla come
MBw ◦ f (v) = [LA ◦ MBv ](v)
Questo vale per ogni v in V , pertanto
MBw ◦ f = LA ◦ MBv
Il diagramma e’ commutativo, infatti v viene mandato tramite f in w , e w viene
mandato tramite MBw in Rc . Viceversa v viene mandato da MBv in Rd , e tramite
LA viene mandato da Rd a Rc .
Inoltre, possiamo esprimere f come
Capitolo 11. Matrici e basi
148 / 258
MB−1
◦ LA ◦ MBv
w
MBw e’ un isomorfismo, quindi posso prenderne l’inversa.
Fissiamo basi di partenza e di arrivo e mettiamo in relazione l’applicazione lineare
con la matrice.
11.1.5 teorema sul nucleo
Osservazione 11.1
v appartiene al nucleo di f se e solo se f (v) = 0W .
Questo equivale a dire che le coordinate di f (v) sono uguali a 0, quindi se MBw =
0Rc , quindi v appartiene al nucleo se e solo se LA ◦MBv e’ uguale a 0 ∈ Rc (infatti
per il teorema precedente le coordinate di f (v) nella base di arrivo sono date dal
prodotto LA ∗ MBv ).
Quindi v appartiene al nucleo se e solo se MBv (v) appartiene al nucleo della
matrice A , dove A e’ la matrice da Bv a Bw .
Teorema 11.2
Siano V e W spazi vettoriali finitodimensionali. Siano Bv e Bw basi di V e W
rispettivamente. Sia d la dimensione di V e c la dimensione di W . Sia f : V → W
lineare e sia A la matrice che rappresenta f rispetto a queste due basi. Allora
il nucleo di f si ottiene dal nucleo della matrice A facendone la controimmagine
mediante l’isomorfismo MBv .
Esempio 11.2
Sia f : R3 [x] → R2 [x] come nell’esempio precedente. La matrice di f tra b3 e b2
e’
0 1 0 0
0 0 4 0
1 1 1 10
Studio il nucleo di f .
Il rango della matrice e’ 3 quindi il nucleo ha dimensione 1.
A si puo’ riscrivere scambiando le righe
1 1 1 10
0 1 0 0
0 0 4 0
Pongo t = α e leggo la soluzione dalla matrice.
t = α,
4z = 0,
y = 0,
x + 10α = 0
Capitolo 11. Matrici e basi
149 / 258
Il ker e’ lo span del vettore (−10, 0, 0, 1) , che nello spazio dei polinomi corrisponde
a −10 + x3 .
Applico f al polinomio ottenuto ( f e’ come nell’esempio precedente).
f = x ∗ p′′ (x) + x2 ∗ p(1) + p′ (x) =
f (−10 + x3 ) = 6x2 − 9x2 + 3x2 = 0
(ho verificato che il polinomio appartiene al nucleo, perche’ la sua immagine
mediante f e’ 0)
11.1.6 Teorema sull’immagine
Lo stesso discorso vale per l’immagine.
Nelle ipotesi precedenti, ovvero MBw ◦ f = LA ◦ MBv , se considero lo spazio
immagine di f in W , l’immagine mediante MBw e’ contenuto in Rc .
Allora MBw dello spazio immagine di f e’ l’insieme di tutti i vettori della forma
MBw (v) , al variare di v in V . Quindi e’ l’insieme di tutti i vettori (MBw ◦ f )(v)
Ma MBw ◦ f = LA ◦ MBv . Quindi vale il seguente teorema:
Teorema 11.3
Nelle ipotesi precedenti, abbiamo che Im si ottiene dall’immagine di LA facendone
la controimmagine in MBw .
Im(f ) = (MBw )−1 (ImLA )
Esempio 11.3
Sia f : R2 [X] → R3 [X] tale che f (p) = x2 ∗ p′ (x) + x3 ∗ p′′ (x) + x ∗ p(1) + p(0) .
Questa e’ un’applicazione lineare e ben definita.
Sia B2 = {1, x, x2 } la base di partenza e B3 = {1, x, x2 , x3 } la base di arrivo.
Calcolare il nucleo di LA
La matrice che rappresenta f rispetto alle basi B2 di partenza e B3 di arrivo sara’
la matrice 4 × 3 .
Applico f alla base di partenza e calcolo le coordinate di f (v) nella base di arrivo.
f (1) = 0 + 0 + x + 1 = (1, 1, 0, 0)
f (x) = x2 + x + 0 = (0, 1, 1, 0)
f (x2 ) = 2x3 + 2x3 + x + 0 = (0, 1, 0, 4)
Ottengo la matrice
Capitolo 11. Matrici e basi
150 / 258
1
1
0
0
0
1
1
0
0
1
0
4
Faccio l’eliminazione gaussiana:
1
0
0
0
0 0
1 1
0 −1
0 0
Il rango di un’applicazione lineare e’ la dimensione dello spazio immagine.
La dimensione dello spazio immagine e’ uguale al rango della matrice A che lo
rappresenta, quindi rg = 3 .
Concludiamo che il nucleo di f e’ 0.
Cercare una base dello spazio immagine.
Per trovare una base dello spazio immagine, siccome f e’ iniettiva posso prendere i
trasformati della base B2 . I trasformati dei vettori della base di partenza (calcolati
prima) sono una base dello spazio immagine (infatti V e l’immagine hanno la
stessa dimensione per l’iniettivita’ di LA ).
Base dell’immagine: {1 + x, x + x2 , x + 4x3 } .
Cercare le equazioni cartesiane per lo spazio immagine nelle coordinate rispetto
alla base B3
Scrivo la matrice che ha per colonne i trasformati dello spazio immagine e affianco
il vettore delle coordinate.
1
1
0
0
0
1
1
0
0
1
0
4
p0
p1
p2
p3
Impongo che il rango della matrice estesa sia uguale al rango della matrice ridotta.
1
0
0
1
1
0
0
0
1
0
0
0
0
1
0
0
0
1
0
1
0
1
0
1
0
0
4
1
p0
p2
p3
p1
0
p0
0
p2
4
p3
1 p1 − p0
0
p0
0
p2
4
p3
1 p1 − p0 − p2
Capitolo 11. Matrici e basi
151 / 258
1
0
0
0
0
1
0
0
0
p0
0
p2
1
p3 /4
0 p1 − p0 − p2 − p3 /4
Il polinomio p(x) = p0 + p1 ∗ x + p2 ∗ x2 + p3 ∗ x3 appartiene allo spazio immagine
se e solo se p0 − p1 + p2 + (p3 )/4 = 0 . E’ un’equazione cartesiana sui coefficienti
del polinomio.
Cercare una base di R3 [x] che estende una base dello spazio immagine.
Aggiungo alla base dello spazio immagine un qualsiasi polinomio che non soddisfa
l’equazione, ad esempio p(x) = 1 , dove p0 = 1 e tutti gli altri coefficienti sono
nulli. Questo polinomio non soddisfa l’equazione dello spazio immagine calcolata
prima
Base completata: 1 + x x + x2 x + 4x3 1
Determinare la controimmagine di p(x) al variare di p(x) in R3 [x]
Se p0 − p1 + p2 + (p3 )/4 ̸= 0 , allora p(x) non appartiene allo spazio immagine e
quindi la controimmagine di p(x) e’ l’insieme vuoto.
Se p0 − p1 + p2 + (p3 )/4 = 0 la controimmagine e’ un sottospazio affine che
si ottiene traslando il ker. siccome il ker e’ uguale a 0, le controimmagini sono
semplicemente dei polinomi.
Risolvo il sistema lineare sapendo che l’ultimo termine e’ uguale a 0. La controimmagine di p0 + p1 ∗ x + p2 ∗ x2 + p3 ∗ x3 se p(x) appartiene all’immagine e’
della forma: q0 + q1 ∗ x + q2 ∗ x2 Per trovare q0 , q1 , q2 leggo le equazioni cartesiane
corrispondenti alle prime tre righe della matrice risolta sopra.
q0 = p 0
q1 = p 2
q2 = p3 /4
Per verificare se la controimmagine e’ corretta applico f alla controimmagine e
devo ottenere p(x) .
f (p0 + p2 ∗ x + p3 /4 ∗ x2 ) =
x2 ∗ (p2 + p3 /4 ∗ 2x) + 2 ∗ p3 /4 ∗ x3 + x ∗ (p0 + p2 ∗ p3 /4) + p0
(p2 )x2 + 4 ∗ p3 /4 ∗ x3 + x ∗ (p0 + p2 ∗ p3 /4) + p0
Dall’equazione cartesiana dell’immagine ricavo che p0 + p2 + p3 /4 = p1 . quindi
verifico che se applico f all’immagine ottengo proprio il polinomio p(x)
Esempio 11.4
Considero la matrice 3 × 3 e l’applicazione lineare f : R3 → R3 associata.
1 0 1
2 −1 1
1 −1 0
Capitolo 11. Matrici e basi
152 / 258
Siano a e b parametri reali e definiamo Wa,b l’insieme di tutti gli (x, y, z) ∈ R3
tali che x − ay + bz = 0 .
Per ogni scelta di a e b numeri reali Wa,b e’ l’iperpiano definito dall’equazione
x = ay − bz .
Calcolare il rango di LA = f ristretto al sottospazio al variare di a e b numeri
reali. Trovare equazioni cartesiane per lo spazio immagine.
Wa,b = {(ay + bz, y, z), a, b ∈ R}
Wa,b = span{(a, 1, 0), (b, 0, 1)}
I due vettori presi nell’ordine sono una base di Wa,b
La matrice rispetto alla base mobile di partenza e alla base canonica come base
d’arrivo e’ f ristretto a Wa,b . Applico f ai due vettori, cioe’ moltiplico la matrice
a destra per i due vettori.
f (v1 ) = f (a, 1, 0) = (a, 2a − 1, a − 1)
f (v2 ) = f (b, 0, 1) = (b + 1, 2b + 1, b)
Scrivo la matrice che ha per colonne i trasformati di v1 e v2 .
a
b+1
2a − 1 2b + 1
a−1
b
a b+1
−1 −1
a b+1
a b+1
−1 −1
0
0
−1 −1
a b+1
0
0
−1
−1
0 b+1−a
0
0
Il rango di fa,b e’:
1. 2 se b − a + 1 ̸= 0
2. 1 se b − a + 1 = 0
Calcolare il nucleo dell’applicazione ristretta a Wa,b
Se b − a + 1 ̸= 0 , allora ker fa,b = 0w a, b (per il teorema del rango).
Capitolo 11. Matrici e basi
153 / 258
Se a = b + 1 allora il nucleo ha dimensione 1.
ker(fa,b ) = ker(f ) ∩ Wa,b
suppongo a = b + 1 , quindi l’equazione di Wa,b diventa:
x = ay + bz
x = (b + 1)y + bz
(c’e’ un errore di segno)
WA,B = span{(b + 1)y + bz, y, z}
Impongo che un vettore di questa forma stia nel nucleo, quindi faccio il prodotto
della matrice originaria per questo vettore e impongo il risultato uguale a 0.
(b + 1)y + (b + 1)z = 0
X ∗ A = 2(b + 1)y + 2bz − y + z = 0
(b + 1)y + bz − y = 0
(b + 1)(y + z) = 0
(2b + 1)(y + z) = 0
b(y + z) = 0
Le tre equazioni sono uguali a 0 se e solo se y + z = 0 Il ker e’ lo span di
((b + 1)y + bz, y, z) tali che la loro immagine sia uguale a 0, quindi tali che z = −y
. Quindi e’ lo span di (by + y − by, y, −y) cioè span .
Nota: In generale, se ho un’applicazione lineare f : V → W e prendo un sottospazio vettoriale A di V , chiamo fA la restrizione di f ad A , anch’essa e’ lineare. Il
nucleo di fA e’ l’insieme dei vettori v in A tali che f (v) = 0w , quindi e’ l’insieme
dei v ∈ A che appartengono al nucleo di f . Quindi e’ l’intersezione di A con il
nucleo di f .
Calcolare equazioni cartesiane per lo spazio immagine di fa,b
Lo spazio immagine e’ lo span dei due vettori v1 = (a, 2a − 1, a − 1), v2 = (b +
1, 2b + 1, b)
(x, y, z) appartiene allo spazio immagine se il rango della matrice estesa e’ uguale
a quello della matrice originaria.
a
b+1 x
2a − 1 2b + 1 y
a−1
b
z
a b+1
x
−1 −1
y − 2x
a b + 1 z − y + 2x
Capitolo 11. Matrici e basi
154 / 258
−1
−1
y − 2x
0 b + 1 − a x + ay − 2ax
0
0
z−y+x
equazioni cartesiane: Se a−b+1 ̸= 0 lo spazio immagine e’ l’insieme degli (x, y, z)
tali che −x + y + z = 0 . LA ha rango 2, quindi lo spazio immagine e’ costante e
non dipende dal parametro. par Se a − b + 1 = 0 , lo spazio immagine di fa,b ha
dimensione 1 ed e’ una retta per l’origine
Le sue equazioni sono −x + y − z = 0 e (1 − a)x + az = 0
Calcolare Una base dello spazio immagine al variare dei parametri.
se −a + b + 1 ̸= 0 una base dello spazio immagine e’ data dai due vettori f (v1 ) e
f (v2 ) .
Se −a + b + 1 = 0 la base dello spazio immagine che ha dimensione 1 e’ il vettore
che soddisfa anche quest’equazione.
Trovare una base di R3 che estenda una base dello spazio immagine.
Per estendere la base dello spazio immagine aggiungo ai due vettori dello spazio immagine con a − b − 1 ̸= 0 aggiungo (1, 0, 0) che non soddisfa l’equazione
cartesiana.
Si puo’ fare lo stesso esercizio con il complemento ortogonale o accostando la base
canonica. Ad esempio impongo che
(x, y, z) · f (v1 ) = 0
(x, y, z) · f (v2 ) = 0
(a, 2a − 1, a − 1) · (x, y, z) = 0
(b + 1, 2b + 1, b) · (x, y, z) = 0
ax + 2ay − y + az − z = 0
bx + x + 2by + y + bz = 0
Risolvendo il sistema si trovano le coordinate del terzo vettore della base, poi si
esprimono i parametri x e y in funzione di z .
11.2 composizione e prodotti di matrici
11.2.1 Teorema C=BA
lAB = LA ◦ lB
Supponiamo di avere V, W e U spazi vettoriali finitodimensionali di dimensioni d
, c , r , non nulle.
Siano Bv = {v1 , . . . , vd } una base di V , sia Bw = (w1 , . . . , wc ) una base di W e
Bu = (u1 , . . . , ur ) una base di U .
Capitolo 11. Matrici e basi
155 / 258
Supponiamo di avere applicazioni lineari f : V → W e g : W → U . Allora la
composizione g ◦ f e’ anch’essa lineare.
v
Chiamo B la matrice mB
Bw associata a f . E’ una matrice c × d .
w
Chiamo A la matrice mB
Bu associata a g , che e’ una matrice r × c . Analogamente
posso chiamare C la matrice MBBuv della composizione g ◦ f che e’ una matrice
r × d (anche il prodotto AB e’ di dimensione r × d )
Conto esplicito:
La matrice B ha entrate bij , per i = 1, . . . , c, j = 1, . . . , d . Le entrate sono univocamente determinate dalla proprieta’ che la colonna (b1j , b2j , . . . , bcj ) rappresenta
la colonna delle coordinate di f (vj ) nella base dei wj .
∑
Condizione: f (vj ) = ci=1 bij ∗ wi , j = 1, . . . , d
Analogamente, le entrate aki di A con k = 1, . . . , r, i = 1, . . . , c , matrice r × c
sono univocamente determinate dalla condizione:
g(wi ) =
r
∑
aki ∗ uk .
k=1
(a1i , a2i , . . . , ari ) e’ la colonna delle coordinate di g(wi ) nella base degli ui . Ho
usato la definizione di matrice di applicazione lineare rispetto alle basi.
Allo stesso modo le entrate ckj con k = 1, . . . , r e j = 1, . . . , d matrice r × d sono
univocamente determinate dalla condizione che la j-esima colonna della matrice
C , crj e’ la colonna delle coordinate di g ◦ f (vj ) nella base dei vi .
r
∑
g ◦ f (vj ) =
ckj ∗ uk
k=1
Uso la linearita’.
(g ◦ f )(vj ) = g ◦ f (vj )
quindi applicando g a f (vj ) ottengo
c
∑
g(
bij ∗ wi )
i=1
e per linearità
=
c
∑
bij ∗ g(wi )
i=1
=
c
∑
i=1
r
∑
bij ∗ [
aki ∗ uk ]
k=1
(ho sostituito a g(vj ) la sua espressione)
Capitolo 11. Matrici e basi
156 / 258
=
r ∑
c
∑
bij ∗ aki ∗ uk
k=1 i=1
il prodotto e’ associativo, quindi
r
c
∑
∑
=
∗
(bij ∗ aki ) ∗ uk
k=1
i=1
Uso la distributivita’ del prodotto scalare per vettore rispetto alla somma.
∑r
k=1 aki ∗ bij e’ l’entrata kj del prodotto AB . L’entrata kj di C è univocamente
determinata. Quindi concludo che
ckj = ABkj , k = 1, . . . , r, j = 1, . . . , d,
quindi C e’ il prodotto AB .
Teorema 11.4
Siano V , W , U spazi vettoriali finitodimensionali non banali. Siano f : V → W e
g : W → U applicazioni lineari. Allora per ogni scelta di basi Bv , Bw e Bu di V , W
, U rispettivamente, si ha che la matrice associata all’applicazione g ◦ f : Bu → Bv
e’ uguale alla matrice del prodotto intermedio AB . (da base di partenza a base
intermedia * base intermedia a base di arrivo)
Osservazione 11.2
Nel caso particolare in cui V = Rd , W = Rc , U = Rl Se g = LA f = LB allora
sappiamo che A è la matrice di g che ha base in partenza Cl e in arrivo Cc ( Cl e
Cc sono le basi canoniche).
Analogamente la matrice B ha come base di partenza Cc e base d’arrivo Cd .
Troviamo che l’applicazione dalla base Cd alla base Cl , che chiamo LA ◦LB = g ◦f
è associata alla matrice AB .
11.2.2 Relazione tra due basi diverse di uno spazio
Supponiamo di avere uno spazio vettoriale V .
Siano B = {v1 , . . . , vd } e B ′ = {v1′ , . . . , vd′ } basi di V spazio vettoriale d dimensionale, d ≥ 1 .
Consideriamo un vettore v ∈ V . Allora
sia nella base B
∑v ∈ V si puo’ esprimere
∑
che nella base B′ , e quindi si ha: v = dj=1 xj ∗ vj e v = dj=1 x′j ∗ vj′ .
Ci si chiede che relazione c’e’ tra le due colonne delle coordinate nelle due basi
diverse.
Consideriamo l’applicazione identita’ che porta v in se stesso. Per quanto visto,
la colonna delle coordinate nella base B di v e’ la colonna delle coordinate nella
base B ′ dell’identita’ di v applicata a v .
Capitolo 11. Matrici e basi
157 / 258
Per il teorema dimostrato precedentemente, la colonna delle coordinate dell’identita’ nella base B ′ e’ la matrice dalla base B a B ′ dell’identita’ per la colonna delle
coordinate di v nella vecchia base.
Esempio 11.5
Supponiamo sia B′ la base {(1, 2), (−1, 1)} di R2 e B la base canonica di R2 .
Allora la colonna delle coordinate nella nuova base di un vettore (x, y) e’ data dal
prodotto tra la matrice da B a B ′ dell’identita’ per la colonna delle coordinate
nella base B di (x, y) , quindi siccome B e’ la base canonica le coordinate del
vettore rispetto a tale base sono (x, y) .
Invece per trovare la matrice da B a B ′ dell’identita’, applico l’identita’ ai vettori
di B ′ . Devo trovare l’inversa della matrice.
Corollario 11.1
Sia V uno spazio vettoriale d -dimensionale, con d finito e maggiore o uguale di
1. Siano B e B ′ basi di V . Allora la matrice dell’identita’ di v da B a B ′ e’ uguale
alla matrice da B ′ a B inversa.
Dimostrazione 11.1
Consideriamo l’identita’ composta con se stessa.
I = I(v) ◦ I(v)
Quando compongo l’identita’ con se stessa, pur considerando basi diverse, ottengo
ancora l’identita’ Prendo la base B , nel passo intermedio prendo la base B ′ ,
nell’ultimo passo prendo la base B .
Per il teorema dimostrato precedentemente ricaviamo che la matrice identica
d × d e’ uguale alla matrice con base B in arrivo e in partenza. Questa e’ una
composizione, quindi diventa la matrice da B ′ a B dell’identita’ per la matrice da
B a B ′ dell’identita’.
La matrice da B ′ a B e’ invertibile a destra e a sinistra, quindi e’ l’inversa bilatera.
cvd
Esempio 11.6
Completando l’esempio precedente scrivo la matrice che ha per colonne i vettori
di B ′ (e’ la matrice dell’identita’ da B′ alla base canonica) e ne calcolo l’inversa.
1 −1 1 0
2 1 0 1
a2 = a2 − 2 ∗ a1
1 −1 1 0
0 3 −2 1
a2 = a2 /3
Capitolo 11. Matrici e basi
158 / 258
a1 = a1 + a2
1 0 1/3 1/3
0 1 −2/3 1/3
L’inversa e’
(M −1 )B
B′ =
1/3 1/3
−2/3 1/3
Ora per trovare le coordinate del vettore (x, y) rispetto a B ′ moltiplico a sinisstra
(x, y) per la matrice trovata.
1/3 ∗ (x, y) ∗
M X = 1/3
1 1
−2 1
x+y
−2x + y
Verifica: faccio la combinazione lineare dei vettori della base con le coordinate
trovate.
1/3(x + y) ∗ (1, 2) + 1/3 ∗ (−2x + y) ∗ (−1, 1) = (x, y)
Separo le componenti Ottengo l’identita’ 0 = 0 quindi significa che il risultato e’
giusto.
Osservazione 11.3
Nelle ipotesi precedenti per ogni v in V la colonna delle coordinate di v nella
base B ′ in B e’ la matrice dalla base B a B ′ dell’identita’ per la colonna delle
coordinate nella base B . Inoltre la matrice dell’identita’ dalla base B a B ′ e’
uguale alla matrice inversa dalla base B ′ a B .
11.3 Applicazione lineare dello spazio quoziente
Supponiamo di avere un’applicazione lineare tra spazi vettoriali V e W .
Sia ker(f ) il suo nucleo e Imf in W lo spazio immagine. Allora l’applicazione da
V a ImW e’ suriettiva.
Definiamo un’applicazione [f ] :
V
ker f
→ W ponendo:
[f ]([v]) = f (v)
L’applicazione associa alla classe di equivalenza di un vettore v l’immagine f (v)
Chiamo π la mappa quoziente.
Dimostro che l’applicazione e’ ben definita. Siano v e v ′ in V tali che [v] = [v ′ ]
V
′
nello spazio ker
f . Cio’ significa che se faccio la differenza v − v essa sta in ker f
. Applicando f a v − v ′ ottengo 0W , quindi f (v) − f (v ′ ) = 0W per la linearita’
di f , quindi f (v) = f (v ′ ) .
Capitolo 11. Matrici e basi
159 / 258
V
Concludo che risulta ben definita un’applicazione [f ] : ker
f → W se v in V e’ un
qualsiasi vettore tale che x = [v] (l’immagine non dipende dalla scelta di v con
questa proprieta’).
Se x = [v] e x′ = [v ′ ] sono due elementi nello spazio quoziente, e λ, λ′ sono numeri
reali segue che
f (λ ∗ x + λ′ ∗ x′ ) = [f ](λ + λ′ [v ′ ])
Ma per definizione di spazio quoziente
λ ∗ [v] + λ′ ∗ [v ′ ] = [λ ∗ v + λ′ ∗ v ′ ]
quindi
f ([λ ∗ v + λ′ ∗ v ′ ]) =
λ ∗ f (v) + λ′ ∗ f (v ′ ) = λ ∗ [f ](x) + λ′ ∗ [f ](x′ )
L’applicazione [f ] e’ lineare e il suo nucleo e’ l’insieme delle classi di equivalenza
x = [v] con la proprieta’ che [f ](x) = 0W , quindi f (v) = 0 e’ l’insieme degli
x = [v] tali che v appartiene al nucleo di f .
L’unica classe di equivalenza che sta nel nucleo e’ la classe di equivalenza di 0, e’
lo 0 dello spazio quoziente, quindi l’applicazione lineare [f ] e’ iniettiva. Ricaviamo
V
quindi che vista come applicazione lineare da ker
f a valori nello spazio immagine
di f , [f ] e’ un isomorfismo.
Pertanto data una qualsiasi applicazione lineare f : V → W esiste un isomorfismo
V
naturale (che dipende solo da f ) dallo spazio quoziente ker
f allo spazio immagine.
Sappiamo a priori per il teorema del rango che i due spazi hanno la stessa dimensione: infatti lo spazio quoziente di partenza ha dimensione dimV − dim ker f che
per il teorema del rango e’ uguale a dim , cioe’ alla dimensione dello spazio di
arrivo.
Cio’ che scopriamo e’ che l’isomorfismo non dipende da scelte di basi.
11.4 Applicazioni tra due spazi vettoriali con basi
diverse
11.4.1 Caso generale
Supponiamo di avere V e W spazi vettoriali finitodimensionali e sia f : V → W
lineare. Allora se ho una base A di V e una base B di W , la matrice con base A
di partenza e B di arrivo di f e’ la matrice c × d se dimV = d e dimW = c .
Questa matrice dipende dalla scelta delle basi.
Supponiamo di avere una base A′ di V e B′ di W . Se lavoriamo rispetto alle due
basi avremo analogamente una matrice dalla base A′ alla base B ′ di f , che e’
una base c × d .
Capitolo 11. Matrici e basi
160 / 258
Ci chiediamo che relazione esiste fra queste due matrici.
f : V → W puo’ essere composta a sinistra con l’identita’ di W e a destra con
l’identita’ di V e non cambia nulla. Alla composizione
id(W ) ◦ f ◦ id(V )
corrisponde il passaggio tra le basi
A′ → A → B → B ′
Possiamo scrivere che la matrice dalla base A′ alla base B ′ di f e’ uguale a:
(id(W ) ◦ f ) ◦ id(V ) =
′
A
= MBB′ (id(w)) ∗ MBA f ∗ MA
id(v)
′
′
A
(MBB id(w))−1 ∗ MBA f ∗ MA
id(v)
La prima matrice ha dimensione c × c , la seconda c × d e la terza d × d .
Vale quindi il seguente
Teorema 11.5
Siano V e W spazi vettoriali finitodimensionali. Sia f : V → W lineare. Siano
′
A, A′ basi di V , e B e B ′ basi di W . Allora la matrice MBA′ (f ) si ottiene facendo
il prodotto
′
A
MBB′ id(w) ∗ MBA g ∗ MA
Id(v)
′
′
A
= (MBB id(w))−1 ∗ MBA (f ) ∗ MA
id(v)
11.4.2 Caso particolare endomorfismo
Caso particolare: Consideriamo il caso in cui V = W finitodimensionale.
Allora f : V → V e’ un endomorfismo lineare (applicazione lineare di uno spazio
in se’ stesso). Supponiamo di avere due basi di V B e B ′ . Vogliamo confrontare
le matrici di f da B a B (stessa base in partenza e in arrivo) e la matrice di f
dalla base B ′ a B ′ .
Applichiamo il teorema valido nel caso generale. Ricaviamo che la matrice dalla
base B ′ alla base B ′ di f e’ la matrice
′
MBB′ id(v) ∗ MBB f ∗ MBB id(v)
Questo equivale a
′
(MBB id(v))−1 ∗ MBB f ∗ MBB′ id(v)
Capitolo 11. Matrici e basi
161 / 258
Corollario 11.2
Sia V uno spazio vettoriale finitodimensionale. Siano B e B ′ basi di V . Allora
per ogni endomorfismo lineare di V in se’ stesso si ha che
′
′
′
MBB′ f = (MBB id(v))−1 ∗ MBB f ∗ MBB id(v)
Esempio 11.7
Si consideri l’applicazione LA : R2 → R2 con
1 −1
2 2
A=
textit.
Applicando il teorema la matrice da B a B di LA e’ la matrice:
(MCB2 (idLA ))−1 ∗ MCC22 LA ∗ MCB2 id(LA )
La seconda matrice e’ la matrice data. La terza matrice e’ quella che ha per
colonne i vettori della base B . La prima matrice e’ l’inversa della terza.
Calcoliamo l’inversa della matrice A .
1 2 1 0
1 1 0 1
1 2
1 0
0| −1 −1 1
1 0 −1 2
0 1 1 −1
(MCB2 id)−1 =
−1 2
1 −1
Faccio il prodotto della matrice inversa per la matrice di partenza.
M1 =
−1 2
1 −1
M2 =
1 −1
2 2
M1 ∗ M2 =
M3 =
3
5
−1 −3
1 2
1 1
Capitolo 11. Matrici e basi
162 / 258
M1 ∗ M2 ∗ M3 =
8 11
−4 −5
Verifica: Applico f al primo vettore nella nuova base, cioe’ (1, 1) = (0, 1) + (1, 0)
(ho scritto il vettore come somma di due vettori della base canonica).
f (1, 1) = LA (1, 1)
Sommo le due colonne della matrice A .
f (1, 1) = f (0, 1) + f (1, 0) = (1 − 1, 2 + 2) = (0, 4)
Queste sono le coordinate del trasformato del primo vettore nella nuova base.
Considero la matrice che ho trovato e scrivo la combinazione lineare dei vettori
della base B con le coordinate del primo vettore, che corrispondono alla prima
colonna della matrice trovata. Se l’esercizio e’ giusto devo ottenere le coordinate
del trasformato nella base B , ovvero (0, 4) .
8 ∗ (1, 1) − 4 ∗ (2, 1) = (8 − 8, 8 − 4) = (0, 4) verificato
Faccio lo stesso procedimento con il secondo vettore.
f (2, 1) = f ((1, 0)) + f ((1, 0)) + f ((0, 1)) = (1, 2) + (1, 2) + (−1, 2) = (1, 6)
11 ∗ (1, 1) − 5 ∗ (2, 1) = (11 − 10, 11 − 5) = (1, 6), verificato
Capitolo 12. Matrici simili
163 / 258
Capitolo 12
Matrici simili
12.1 Matrici simili in uno spazio vettoriale
Definizione 12.1
Siano A e A′ matrici reali d × d . Diremo che A e A′ sono simili se esiste una
matrice C d × d invertibile tale che A′ = C −1 ∗ AC .
12.1.1 Teorema sulla similitudine
Teorema 12.1
Dato V d -dimensionale, allora A e B matrici d×d sono simili se e solo se esistono
′
f : V → V lineare e basi B e B ′ di V tali che A = MBB (f ) e B = MBB′ (f ) .
Dimostrazione 12.1
2 −→ 1 , infatti le matrici di f rispetto alle basi B e B ′ ( A e B rispettivamente)
′
sono simili, infatti B = C −1 AC con C = MBB che e’ invertibile.
2 −→ 1 : Viceversa, siano A e B matrici d × d simili e sia C invertibile tale che
B = C −1 AC . Sia A la matrice dell’applicazione lineare d × d rispetto alla base
B . Prima di procedere è necessario il seguente lemma.
Lemma 12.1
Sia B = {v1 , . . . , vd } una base di V . Affermo che esiste ed e’ unica f : V → V
lineare tale che A e’ la matrice di f rispetto alla base B .
Dimostrazione 12.2
Se A ha entrate aij e se f : V → V lineare e’ tale che la matrice di f nella base
B e’ A , deve essere
Capitolo 12. Matrici simili
164 / 258
f (vj ) =
d
∑
aij ∗ vi .
i=1
La j-esima colonna della matrice e’ la colonna delle coordinate di f (vj ) nella base
B.
Se esiste f e’ unica. D’altra parte sappiamo che un’applicazione lineare si puo’
definire in modo arbitrario sui vettori di una base.
Allora esiste un’applicazione f : V → V lineare tale che
∑
f (vj ) =
aij ∗ vi
i
.
Quindi la matrice di f rispetto alla base B e’ proprio A .
cvd
Riprendendo con la dimostrazione del teorema, consideriamo l’unica applicazione
lineare g : V → V tale che
g(vj ) =
d
∑
cij ∗ vi ,
i=1
dove cij sono le entrate della matrice invertibile che realizza la similitudine tra
A e B . La matrice che rappresenta l’applicazione lineare g dalla base B ′ a B
e’ la matrice C . Per ipotesi C e’ invertibile, quindi l’applicazione lineare g e’
invertibile. Allora e’ un automorfismo di V e pertanto se chiamo B′ la sequenza
ordinata g(v1 ), . . . , g(vd ) essa e’ un’altra base di V .
Dimostrazione 12.3
Per semplicita’ scriviamo wj = g(vj ) =
∑d
i=1 cij
∗ vi . Allora B ′ = {w1 , . . . , wd } .
La matrice dell’identita’ di V da B ′ a B e’ la matrice che esprime i vettori della
base B ′ in termini della base B .
Scrivo wj in termini di vi , quindi ottengo la matrice C stessa per costruzione.
Allora dalla relazione tra matrici rispetto a basi diverse si ha:
′
′
′
MBB′ (f ) = MBB (I −1 (V )) ∗ MBB (f ) ∗ MBB (I(V )) = C −1 ∗ A ∗ C
′
ma C −1 AC = B , si ha MBB′ (f ) = B .
cvd
12.1.2 Caso particolare del teorema sulla similitudine
Caso particolare: Nelle ipotesi precedenti siano A , B e C come sopra ( B =
C −1 ∗ AC ). Se consideriamo LA : Rd → Rd , cioe’ V = Rd e una delle due basi
e’ la base canonica, allora la matrice nella base Cd di LA (che porta un vettore X
Capitolo 12. Matrici simili
165 / 258
in AX ) e’ la matrice A stessa. Esiste una base rispetto alla quale la matrice di
LA e’ B .
C e’ invertibile, quindi la sequenza ordinata delle colonne di C {c1 , . . . , cd } e’
base di Rd . La matrice da B a Cd dell’identita’ di Rd e’ la matrice che esprime
ogni colonna in funzione della base canonica, ma le coordinate di cj nella base
canonica sono le colonne stesse, quindi ottengo la matrice C .
Se calcolo la matrice rappresentativa di LA ho
MCBd (I −1 V ) ∗ MCCdd (LA ) ∗ MCBd (I),
quindi ottengo C −1 AC = B . La matrice che rappresenta LA nella nuova base e’
quella che ha per colonne cj
12.2 condizioni necessarie per la similitudine
12.2.1 Rango uguale
Se A e B sono matrici d × d simili, allora rappresentano la stessa f , quindi hanno
lo stesso rango: rg(A) = rg = rg , dove ad esempio f = LA . Infatti sia A che B
rappresentano f rispetto a basi opportune. Quindi per esempio sicuramente la
matrice
A=
1
0
e la matrice
B=
2 1
0 1
non sono simili, perche’ rg = 1 mentre rg = 2 .
12.2.2 Matrici diverse dall’identita’
Pur avendo lo stesso rango, le matrici
A=
B=
2 0
0 2
−2 1
0 1
non sono simili.
Infatti A è un multiplo dell’identità, e, in generale se considero una matrice
invertibile d × d che chiamo C e faccio il prodotto C −1 ∗ λ ∗ I ∗ C , ottengo
λ ∗ C −1 ∗ I ∗ C = λ ∗ C −1 ∗ C = λ ∗ I . Una matrice multiplo dell’identita’ e’ simile
solo a se stessa.
Capitolo 12. Matrici simili
166 / 258
12.2.3 Traccia uguale
Ciononostante, pur avendo lo stesso rango e non essendo multipli dell’identita’,
le matrici
A=
2 0
0 1
B=
1 1
0 3
non sono simili.
Definizione 12.2
Sia A una matrice d × d . La traccia di A e’ il numero
reale ( tr ) dato dalla
∑
somma delle entrate diagonali della matrice, cioe’, dk=1 akk .
Per esempio, la traccia della matrice identica d × d e’ sempre uguale a d .
Date queste matrici:
2 0
0 1
A=
tr = 3
B=
1 1
1 −1
tr = 0
Vale il seguente lemma:
Proposizione 12.1
Siano A e B matrici quadrate d × d . Allora i prodotti AB e BA sono ancora
matrici d × d , e tr = tr .
Dimostrazione 12.4
Conto esplicito:
tr =
d
∑
(AB)kk
k=1
Inoltre
(AB)kk =
d
∑
i=1
Sostituisco nell’espressione della traccia:
aki ∗ bik
Capitolo 12. Matrici simili
167 / 258
tr =
d ∑
d
∑
aki bik
k=1 i=1
Inverto le sommatorie:
tr =
d ∑
d
∑
bik ∗ aki
i=1 k=1
tr =
d
∑
(BA)ii
i=1
Questa e’ la traccia di BA .
cvd
Corollario 12.1
Se A e B sono matrici d × d simili, allora la traccia di A e’ uguale alla traccia di
B.
Dimostrazione 12.5
Sia C matrice d × d invertibile tale che B = C −1 ∗ AC . Allora tr = tr (proprieta’
associativa)
Uso la proprieta’ dimostrata
= tr
tr(A ∗ (CC−1 )) = tr(A ∗ id) = tr
cvd
Nota: Il prodotto di matrici NON e’ commutativo, ma siccome ho dimostrato che
AB e BA hanno hanno la stessa traccia posso fare queste operazioni.
Le due matrici dell’esempio non sono simili, perche’ non hanno la stessa traccia.
Il corollario permette di dire quando due matrici non sono simili, ma non vale il
viceversa.
12.2.4 Determinante uguale
Consideriamo il caso
2 0
0 1
2 1
1 1
Capitolo 12. Matrici simili
168 / 258
il rango e’ uguale, la traccia e’ uguale, ma le matrici non sono simili. Infatti il determinante e’ diverso, e matrici simili hanno necessariamente lo stesso
determinante.
Avere lo stesso determinante e’ condizione necessaria, ma non sufficiente, per la
similitudine.
12.2.5 conclusione
In realta’, se si considerano due matrici
A=
1 0
0 1
B=
1 1
1 0
entrambe hanno rango 2, traccia 2, determinante 1, ma non sono simili, perche’
la matrice identica e’ simile solo a se stessa.
Per capire quando due matrici sono simili serve solo la formula canonica di Jordan.
12.3 Precisazione sulle matrici simili
Due matrici d × d simili hanno stessa traccia e stesso determinante. Se f : V → V
′
e’ lineare e B e B′ sono basi di V , allora MBB (f ) e MBB′ (f ) sono simili e quindi
hanno la stessa traccia e lo stesso determinante.
′
B
trMB
B (f) = trMB′ (f)
′
det MBB (f ) = det MBB′ (f )
Sia V uno spazio vettoriale finitodimensionale e sia f : V → V lineare. Definiremo
B
traccia di f come trMB
B (f) e il determinante di f come det MB (f ) per una qualsiasi
scelta di una base di V .
Allora la definizione non dipende da tale scelta della base B ma solo da f .
Capitolo 13. Determinanti
169 / 258
Capitolo 13
Determinanti
13.1 Definizioni preliminari
13.1.1 Funzione multilineare
Definizione 13.1
Una funzione f dallo spazio delle matrici d × d a coefficienti in R si dice multilineare se essa e’ lineare, separatamente in ciascuna colonna dell’argomento
A . Questo significa che f e’ multilineare se per ogni j = 1, . . . , d e per ogni
scelta di A1 , . . . , Aj−1 , Aj+1 , . . . , Ad la funzione parziale che porta X ∈ Rd in
f (A1 , A2 , . . . , Aj−1 , X, Aj+1 , . . . , Ad ) e’ una funzione lineare f : Rd → R .
Nota: una funzione parziale e’ una funzione in cui alcuni argomenti sono fissati e
altri sono lasciati liberi
Esempio 13.1
Definisco f : M2 (R) → R tale che la matrice
a b
c d
viene mandata nel prodotto scalare standard delle due colonne ab + cd .
La funzione e’ bilineare nelle due colonne per la linearita’ del prodotto scalare
standard.
Esempio 13.2
Considero d : M2 (R) → R tale che se
A=
a b
c d
allora d(A) = ad−bc . Anche d è multilineare, infatti, fissata ad esempio la seconda
colonna ottengo la funzione d(x, y) = xd − yb che e’ un polinomio omogeneo di
Capitolo 13. Determinanti
170 / 258
grado 1 in x e y .
Esempio 13.3
Considero l’applicazione tale che
h(
a b
) = ac + bd
c d
(prodotto scalare delle righe)
Allora se faccio variare la prima colonna (x, y) e fisso la seconda ottengo la funzione h(x, y) = xy + bd . Questa funzione non e’ multilineare per colonne perche’
ha un termine quadratico.
Esempio 13.4
Considero f : M3 (R) → R tale che
f (A1 , A2 , A3 ) = (A2 ∗ A3 ) · A1
Se fisso la prima colonna ottengo la funzione d(x) = x ∗ A2 · A3 , che è lineare.
Se invece fisso la prima e la terza colonna e lascio libera la seconda, ottengo la
funzione d(x) = A1 · (x ∗ A3 ) che è lineare per la linearità del prodotto vettoriale.
Esempio 13.5
Se considero la traccia come una funzione : Md (R) → R , essa non e’ lineare in ogni
componente. Infatti, fissata la prima colonna, ottengo la funzione tr(x, y) = a + y
, che non è un polinomio omogeneo; tuttavia la traccia è lineare se considerata
come funzione definita sullo spazio delle matrici.
Esempio 13.6
Se definisco f (A) = a11 ∗ a22 ∗ · · · ∗ add (dove gli aii sono le entrate sulla diagonale
della matrice), essa e’ multilineare, perche’ se fisso tutte le colonne tranne la
j-esima, ottengo f (x) = (a11 ∗ a22 ∗ · · · ∗ xj ∗ aj+1,j+1 ∗ · · · ∗ add che e’ lineare.
13.1.2 Funzione alternante
Definizione 13.2
Una funzione multilineare f : Md (R) → R si dice alternante o antisimmetrica se
cambia di segno quando vengono scambiate tra loro due colonne dell’argomento
A ∈ Md (R) tutte le altre rimanendo invariate.
Esempio 13.7
Se considero f : M2 (R) → R tale che
Capitolo 13. Determinanti
171 / 258
(
)
a b
) = ab + cd
f(
c d
essa è simmetrica per l’analoga proprietà del prodotto scalare.
Esempio 13.8
Invece considero d : M2 (R) → R tale che su una matrice
(
a b
c d
)
vale ad − bc , questa e’ antisimmetrica.
Infatti se scambio le colonne ottengo f (A) = bd − ac e il segno dell’immagine
cambia.
13.1.3 Multilinearita’ e antisimmetricita’
Lemma 13.1
Sia f : Md (R) → R multilineare. Allora f e’ alternante se e solo se f (A) = 0 per
ogni matrice A con due colonne uguali.
Dimostrazione 13.1
1 −→ 2 : Sia f alternante. Sia A una matrice con due colonne uguali. Supponiamo
per esempio che Aj = Ak per j < k . Dimostriamo che f (A) = 0 . Sia v = Aj = Ak
. Allora
f (A) = f (A1 , . . . , Aj−1 , v, . . . , ak−1 , v, . . . ).
Se scambio tra loro la j-esima e la k-esima colonna ottengo
−f A) = f (A1 , . . . , Aj−1 , v, . . . , Ak−1 , v, . . . )
perche’ la matrice e’ antisimmetrica. Poiché il secondo membro delle ultime due
relazioni coincide si ha −f (A) = f (A) ovvero f (A) = 0 .
2 −→ 1 : Viceversa, sia f (A) = 0 per ogni A con due colonne uguali. Per ogni B
matrice dxd con colonne B 1 , . . . , B d e per j < k , valuto f sulla matrice B ′ con
colonne B 1 , . . . , B j−1 , B j + B k , B j+1 , . . . , B k−1 , B j + B k , B d . Poiché B ′ ha due
colonne uguali, f (B ′ ) = 0 per ipotesi e ottengo
f (B 1 , . . . , B j−1 , B j + B k , . . . K k−1 , B j + B k , . . . , B d ) =
Prima spezzo la prima componente
= f (B 1 , . . . , B j , . . . B j + B k , . . . , B d ) + f (B 1 , . . . , B k , . . . , B j + B k , . . . , B d ) =
Capitolo 13. Determinanti
172 / 258
Ora spezzo la seconda componente in entrambi gli addendi.
f (. . . , B j , . . . B j , . . . )+f (. . . , B j , . . . B k , . . . )+f (. . . , B k , . . . B j , . . . )+f (. . . , B k , . . . B k , . . . )
Stiamo supponendo che ogni volta che ho una matrice C con due colonne uguali
f (C) = 0 quindi il primo e l’ultimo addendo sono uguali a 0 e rimane
= f (. . . , B k , . . . , B j , . . . ) + f (. . . , B j , . . . , B k , . . . )
ovvero
f (. . . , B k , . . . , B j , . . . ) = −f (. . . , B j , . . . , B k , . . . )
Quindi f e’ antisimmetrica. cvd
Esempio 13.9
Sia d : M3 (R) → R tale che, data una matrice A con colonne A1 , A2 , A3 si abbia
d(A) = A1 · (A2 ∗ A3 ) , e si verifica che se A ha due colonne uguali, d(A) = 0 , di
conseguenza, per il lemma precedente, d è alternante oltre ad essere multilineare
come mostrato nel lemma precedente.
13.2 Definizione di determinante ed esempi
Teorema 13.1
Per ogni d ≥ 1 , esiste ed e’ unica una funzione f : Md (R) → R che e’ multilineare,
alternante, e tale che f (id) = 1 . Tale funzione si dice determinante e si scrive:
det(A) oppure |A| (la seconda scrittura e’ ambigua).
Esempio 13.10
L’applicazione che porta una matrice
A=
a b
c d
in f (A) = ad − bc e’ multilineare e alternante. se la applico alla matrice identita’ ottengo 1, quindi essa è il determinante per matrici 2x2 di cui il teorema
precedente afferma l’unicità.
Esempio 13.11
Considero
d : M3 (R) → R t.c. d(A1 , A2 , A3 ) = A1 · (A2 ∗ A3 )
Capitolo 13. Determinanti
173 / 258
con A1 , A2 , A3 colonne di una matrice A . Per quanto detto in precedenza, essa è
multilineare e alternante. Applico f alla matrice identica:
f (id) = (1, 0, 0) · [(0, 1, 0) ∗ (0, 0, 1)] = (1, 0, 0) · (1, 0, 0) = 1
quindi d è il determinante di una matrice 3x3 .
13.2.1 Teorema di Bine’
Teorema 13.2
Siano A e B matrici dxd . Allora il determinante del prodotto e’ il prodotto dei
determinanti, ovvero
det(AB) = det A ∗ det B.
Corollario 13.1
Se C e’ una matrice dxd invertibile, allora det C ̸= 0 e il determinante della
matrice inversa e’ l’inverso del determinante di C , ovvero det C −1 = det1 C .
Dimostrazione 13.2
Per definizione di matrice inversa, C ∗ C −1 = Id , allora
det(CC −1 ) = det Id = 1
e per il teorema di Binet:
det C ∗ det C −1 = 1
quindi det C ̸= 0 e det C −1 =
1
det C
. cvd
Teorema 13.3
Se A appartenente a Md (R) allora A e’ invertibile se e solo se det A ̸= 0 .
Corollario 13.2
Se v1 , . . . , vd sono vettori in Rd , allora {v1 , . . . , vd } e’ una base di Rd se e solo se il
determinante della matrice che ha per colonne questi vettori è non nullo. Inoltre
una matrice e’ invertibile se e solo se i vettori sono linearmente indipendenti).
Corollario 13.3
se A, B ∈ Md (R) sono simili, allora det A = det B .
Capitolo 13. Determinanti
174 / 258
Dimostrazione 13.3
Sia C ∈ Md (R) invertibile tale che B = C −1 ∗ A ∗ C . Allora per il teorema di
Binet
det B = det(C −1 ∗ A ∗ C) = det C −1 ∗ det A ∗ det C
e poiché det C −1 =
1
det C
, si ha
det B =
1
∗ det A ∗ det C = det A.
det C
cvd
Osservazione 13.1
Se A e B sono simili, allora rgA = rgB , trA = trB , det A = det B .
Non vale viceversa, infatti le matrici
A=
1 0
0 1
B=
1 1
0 1
hanno traccia, rango e determinante uguali ma non sono simili.
Corollario 13.4
det(AB) = det(BA) (segue dalla commutatività del prodotto in R , i determinanti
sono numeri!)
13.3 Calcolo del determinante
Teorema 13.4
Se A e’ una matrice n × n , allora det A = det At .
Dimostrazione 13.4
Le righe di A sono le colonne di At .
Definizione 13.3
Una matrice A in Mn (R) si dice triangolare superiore se i termini sotto la diagonale sono tutti nulli, ovvero A e’ triangolare superiore se e solo se aij = 0∀i >
j
Osservazione 13.2
Capitolo 13. Determinanti
175 / 258
Se M di entrate aij e’ triangolare superiore, allora det M = a11 ∗ a22 ∗ · · · ∗ ann
, ovvero il determinante di una matrice triangolare superiore è il prodotto delle
entrate sulla diagonale.
Esempio 13.12
Calcoliamo il determinante della matrice
2 1 2
A = 0 3 −1
4 1 1
Applico la regola:
det A = (A1 ∗ A2 ) · A3 =
(2, 0, 4) ∗ (1, 3, 1) · (2, −1, 1)
(−12, 2, 6) · (2, −1, 1) = −24 − 2 + 6 = −20
In base alla regola scritta prima, posso calcolare il determinante di una matrice
3 × 3 anche riducendola a scala e poi moltiplicando gli elementi sulla diagonale.
Se durante l’eliminazione di Gauss scambio due righe, il determinante cambia di
segno.
Esempio 13.13
Calcolo il determinante di
3 −1 5
B = −1 2 1
−2 4 3
Scambio la prima e la seconda riga (il determinante avra’ sengo opposto)
B=
B=
−1 2 1
3 −1 5
−2 4 3
−1 2 1
0 5 2
0 0 5
det B = −(−1 ∗ 5) = 5
13.3.1 Sviluppo di Laplace
Definizione 13.4
Sia M una matrice n × n . Si pone Mij la matrice (n − 1)x(n − 1) ottenuta
togliendo la i-esima riga e la j-esima colonna alla matrice di partenza.
Capitolo 13. Determinanti
176 / 258
Proposizione 13.1
Se A e’ una matrice n × n di entrate aij , allora
det A = (−1)i+1 ∗ ai1 ∗ det Ai1 + · · · + (−1)i+n ∗ ain ∗ det(Ain )
Esempio 13.14
Applichiamo questa formula per calcolare il determinante della matrice:
2 1 2
0 3 −1
4 1 1
Sviluppo secondo la prima colonna
det A = 2 ∗ det(
3 −1
1 2
) + 4 ∗ det(
)+
1 1
3 −1
det A = 2 ∗ 4 − 4 ∗ 7 = −20
Lo stesso risultato si ottiene facendo l’eliminazione di Gauss.
2 1 2
0 3 −1
4 1 1
Posso sottrarre alla terza riga un multiplo della prima, cioe’ la prima per 2.
2 1
2
0 3 −1
0 −1 −3
Ricordare: non posso moltiplicare la terza riga per 3 e poi sottrarle la seconda, posso pero’ dividere la seconda riga per 3 e poi sottrarla alla terza oppure
scambiare le due righe, ricordando di cambiare segno al determinante.
2 1
2
0 −1 −3
0 3 −1
Ora sommo alla terza riga la seconda moltiplicata per 3.
2 1
2
0 −1 −3
0 0 −10
det A = −a11 ∗ a22 ∗ a33 = −2 ∗ (−1) ∗ (−10) = −20
Capitolo 14. Spazio duale
177 / 258
Capitolo 14
Spazio duale
14.1 omomorfismo
14.1.1 Lo spazio V W
Definizione 14.1
Si definisce homV,W l’insieme delle funzioni lineari f : V → W , con V e W spazi
vettoriali.
Osservazione 14.1
homV,W ̸= ∅ perche’ 0homV,W : V → W e’ definito ponendo 0homV,W (v) = 0w . per
ogni v ∈ V e’ lineare. (almeno l’elemento banale esiste sempre)
Se dimV = d e dimW = c , con c, d compresi tra 1 e +∞ , e se B = {v1 , . . . , vd } e’
una base fissata di V , allora per ogni (w1 , w2 , . . . , wd ) ∈ W × · · · × · · · × W (W d )
sappiamo che esiste unica f ∈ homV,W tale che f (vj ) = wj , per ogni j = 1, . . . , d
.
Quindi se fissiamo una base B = {v1 , . . . , vd } di V , allora esiste una corrispondenza biunivoca naturale da homV,W in W d che manda B in (f (v1 ), . . . , f (vd ))
.
Definiamo le operazioni su homV,W , in particolare, definiamo la somma + :
homV,W × homV,W → homV,W e il prodotto ·R × homV,W → homV,W ponendo
(f1 + f2 )(v) := f1 (v) + f2 (v)
(λ ∗ f )(v) := λ ∗ f (v)
per ogni f1 , f2 , f ∈ homV,W e ∀λ ∈ R .
Verifichiamo che le definizioni siano ben poste, e quindi che f1 + f2 e λ ∗ f siano
lineari da V in W , e quindi appartengano ancora a homV,W :
Dimostrazione 14.1
Capitolo 14. Spazio duale
178 / 258
1. f1 + f2 ∈ homV,W : siano f1 , f2 ∈ homV,W e siano v, v ′ ∈ V e λ, λ′ ∈ R
.Allora
(f1 + f2 )(λ ∗ v + λ′ ∗ v ′ ) = f1 (λ ∗ v + λ′ v ′ ) + f2 (λ ∗ v + λ′ ∗ v ′ ) =
per la linearità di f1 e f2 :
[λ ∗ f1 (v) + λ′ ∗ f1 (v ′ )] + [λ ∗ f2 (v) + λ′ ∗ f2 (v ′ )]
= λ ∗ (f1 (v) + f2 (v)) + λ′ ∗ (f1 (v ′ ) + f2 (v ′ )) =
Uso la definizione di somma:
= λ ∗ (f1 + f2 )(v) + λ′ (f1 + f2 )(v ′ )
per ogni v1 , v2 ∈ V e λ, λ′ ∈ R .Allora f1 + f2 ∈ homV,W , essendo lineare,
e in modo analogo si dimostra che anche λ ∗ f ∈ homV,W . cvd
2. λ ∗ f ∈ homV,W : sia f ∈ homV,W allora
λ ∗ f (µ ∗ v + µ′ ∗ v ′ ) =
e sfruttando la linearità di f :
λ ∗ µ ∗ f (v) + λ ∗ µ′ ∗ f (v ′ ) =
Uso la definizione di prodotto.
µ ∗ f (λ ∗ v) + µ′ ∗ f (λ ∗ v ′ ) =
Quindi anche λ ∗ f e’ lineare.
cvd
Si può verificare che homV,W è uno spazio vettoriale.
14.1.2 Lo spazio delle matrici cXd
Per determinare la dimensione di homV,W è necessario introdurre lo spazio delle
matrici c × d e definire alcune operazioni su di esso.
Siano A = [Aij ] (la matrice con componenti Aij ) e B = [Bij ] appartenenti a
M atc,d (R) con 1 ≤ i ≤ c e 1 ≤ j ≤ d . Definiamo
1. la somma A + B := [Aij + Bij] ; in particolare la somma tra matrici e’
commutativa e associativa, ha lo zero come elemento neutro e l’opposto di
una matrice A = [Ai,j ] è −A = [−Ai,j ] ;
2. dato λ ∈ R , definisco la moltiplicazione per uno scalare ponendo λ ∗ A :=
[λ ∗ Aij ]
Capitolo 14. Spazio duale
179 / 258
Osserviamo in particolare che vale la distributivita’ rispetto agli scalari:
(λ + η) ∗ A = [(λ + η) ∗ Aij ] = [λ ∗ Aij + η ∗ Aij ] = [λ ∗ Aij ] + [η ∗ Ao j] = λ ∗ A + η ∗ A
Lo spazio Matc,d (R) ha dimensione c × d , infatti una base di questo spazio puo’
essere costituita da tutte le matrici ei,j , per i = 1, . . . , c e j = 1, . . . , d , dove ei,j
ha tutte le componenti nulle tranne Aij = 1 .
Per ogni k, l con 1 ≤ k ≤ c e 1 ≤ l ≤ d una matrice ekl appartenente a M atc,d (R)
definita ponendo:
(ekl )ij = δki ∗ δlj = {
1 sei = k, j = l
}
0
altrimenti
Mostriamo che {ei,j , 1 ≤ i ≤ c, 1 ≤ j ≤ d} è una base di
Consideriamo il caso in cui c = d = 2 , e sia
A=
M atc,d (R) .
A11 A12
A21 A22
Posso esprimerla come la somma di quattro matrici:
A11 0
0 A12
+
0 0
0 0
+
0 0
0 0
+
A21 0
0 A22
Porto fuori A11 , A12 , A21 , A22 :
A11 ∗
1 0
0 1
+ A12 ∗
0 0
0 0
+A21 ∗
0 0
0 0
+ A22 ∗
1 0
0 1
e quindi ogni matrice A può essere scritta come combinazione degli elementi della
base {e11 , e12 , e21 , e22 } .
In generale, se A = [Aij ] ∈ M atc,d (R) per lo stesso argomento
A=
c ∑
d
∑
Aij ∗ eij .
i=1 j=1
allora
∗ = {e1,1 , e1,2 , . . . e1,d , . . . , ec,1 , ec,2 , . . . , ec,d }
e’ un sistema di generatori per M atc,d (R) . Quindi ∗ e’ una base. Pertanto la
dimensione dello spazio delle matrici M atc,d (R) e’ c ∗ d .
Capitolo 14. Spazio duale
180 / 258
14.1.3 Dimensione di V W
Siano V e W spazi vettoriali con dimV = d e dimW = c . Sia βBV = {v1 , . . . , vd }
una base di V e sia βBW = {w1 , . . . , wc } una base di W . Per ogni f appartenente
βBV
a homV,W la matrice MβB
(f ) appartiene a M atc,d (R) . Abbiamo quindi una
W
V
funzione MBBW
: homV,W → M atc,d (R) dipendente da BV e BW che manda un
omomorfismo nella matrice che lo rappresenta rispetto alle basi scelte per V e W
.
Teorema 14.1
V
La funzione MBBW
e’ un isomorfismo di spazi vettoriali.
Dimostrazione 14.2
V
1. Si può dimostrare facilmente che MBBW
è lineare.
V
2. Dimostro l’iniettività, e cioè che ker MBBW
= 0 dove 0 indica lo ∑
zero dello
spazio delle matrici s×r dove r = dimV e s = dimW .Sia f (vj ) = si=1 cij ∗
V
, allora cij = 0∀i, j perché C dev’essere
la
wi ; se suppongo f ∈ ker MBBW
∑r
matrice nulla.Applico f a un generico vettore della forma v = j=1 xj ∗ vj
e ottengo
r
∑
f (v) =
xj ∗ f (vj )
j=1
ma f (vj ) = 0W per quanto detto prima, cioè f è l’applicazione nulla e il
ker è banale.
3. Dimostro la suriettività. Per ogni p1 , . . . , p∑
r ∈ W esiste un’unica f :
V → W tale che f (vj ) = pj . Definiamo pj = si=1 Aij ∗ wi , dove le Aij
V
sono le entrate di una matrice A ∈ M ats,r (R) . Allora MBBW
(f ) = A e
l’applicazione è suriettiva.
cvd
Corollario 14.1
La dimensione di homV,W e’ dimV ∗ dimW = c ∗ d .
V
Se poi fij : V → W lineare e’ tale che MBBW
(fij ) = eij , allora
{f1,1 , f1,2 , . . . , f1,d , . . . , fc,1 , fc,2 , . . . fc,d }
e’ una base di homV,W .
fij : V → W e’ l’unica applicazione lineare tale che Fk,l (vj ) = δj,l (wk ) .
Esempio 14.1
Sia H : R3 → R2 tale che
Capitolo 14. Spazio duale
181 / 258
H(x, y, z) = (x + y − 1, x + z)
Scrivo la matrice associata a f :
1 1 −1
1 0 1
H si puo’ scrivere come combinazione degli eij
H = e1,1 + e1,2 − e1,3 + e2,1 + e2,3
14.2 Spazio duale
14.2.1 Spazio duale e funzionali
Se considero il caso particolare W = R , la sua base e’ BR = 1 e homV,R e’
l’insieme delle funzioni lineari f : V → R , che vengono dette funzionali su V
. homV,R si dice lo spazio duale di V e si denota in generale come V ∗ . La
dimensione di V ∗ e’ dimV ∗ dimR = dimV .
14.2.2 Base dello spazio duale
Fissiamo BV = {v1 , . . . , vd } e definiamo i vettori della base dello spazio duale
{v1∗ , . . . , vd∗ } ponendo
{
vj∗ = f1,j (vk ) = δjk =
1
0
⇐⇒ j = k
altrimenti
Se BV = {v1 , . . . , vd } e’ una base di V , la base B ∗ = {v1∗ , . . . , vd∗ } costruita come
sopra, si dice la base di V ∗ duale alla base BV .
Verifichiamo esplicitamente che {v1∗ , . . . , vd∗ } è una base:
Lineare indipendenza: Siano α1 , . . . , αd numeri reali tali che
α1 ∗ v1∗ + · · · + αd ∗ vd∗ = 0V ∗
dove 0v∗ e’ l’elemento neutro dello spazio duale, cioe’ il funzionale identicamente
nullo, che vale 0 su tutti i vettori: per ogni k = 1, . . . , d si ha
d
∑
[αj ∗ vj∗ ](vk ) = 0
j=1
Per come abbiamo definito le operazioni nello spazio, l’espressione sopra equivale
a:
Capitolo 14. Spazio duale
182 / 258
d
∑
αj ∗ vj∗ (vk ) = 0
j=1
e per la definizione dei vj∗ :
d
∑
αj ∗ δjk = 0 −→ αj = 0
j=1
perché l’unico addendo che contribuisce e’ quello con j = k . Allora αk = 0∀k =
1, . . . , d ∑
, pertanto abbiamo concluso che i vj∗ sono linearmente indipendenti,
essendo
αj ∗ vj∗ = 0V ∗ solo se gli scalari sono uguali a 0.
Sistema di generatori: dimostriamo che un qualsiasi funzionale su V puo’ essere
scritto come combinazione dei vj∗ .
Sia f un qualsiasi elemento del duale. Osservo che, poiché vj∗ (vk ) = δjk :
d
∑
f (vj ) ∗ vj∗ (vk ) =
j=1
d
∑
f (vj )δik = f (vk )
j=1
cioè f (vk ) è combinazione lineare dei vj∗ .
14.2.3 Considerazioni sulla base duale alla base canonica
Prendo la base canonica di R2 , cioè C2 = {(1, 0), (0, 1)} = {e1 , e2 } , e pongo
C2∗ = {e∗1 , e∗2 } . Applicando il primo vettore al vettore colonna (x, y) si ha:
e∗1 (x, y) = e∗1 (e1 ∗ x + e2 ∗ y) = e∗1 (e1 ∗ x) + e∗1 (e2 ∗ y) = x
(infatti e∗1 (ek ) e’ uguale a 1 solo se j = k quindi e∗1 (e1 ) = 1 mentre e∗1 (e2 ) = 0 )
Si osserva che e∗1 e’ l’applicazione lineare che a ogni vettore di R2 associa la prima
componente. Allo stesso modo, se applico il secondo vettore della base duale al
vettore (x, y) , ottengo la seconda componente.
Inoltre, se prendo un generico elemento del duale, f (x, y) = ax + by per certi
a, b ∈ R , le sue coordinate nella base duale sono date dai valori assunti da f su
e1 , e2 , cioe’, f (e1 ) = a ∗ 1 + b ∗ 0 = a e f (e2 ) = a ∗ 0 + b ∗ 1 = b .
In generale, se Cd e’ la base canonica di Rd e Cd∗ e’ la base duale ad essa, allora
e∗j (x1 , . . . , xd ) = e∗j (
d
∑
x k ∗ ek )
k=1
=
d
∑
xk ∗ e∗j (ek ) = xj
k=1
e quindi e∗j e’ il funzionale lineare che manda un vettore nella sua j -esima
componente. Inoltre, se f e’ un qualsiasi elemento del duale su Rd , esistono
Capitolo 14. Spazio duale
183 / 258
a1 , . . . , ad ∈ R tali che per ogni (x1 , . . . , xd ) ∈ Rd . Allora le coordinate di f nella
base C ∗ sono date da a1 , . . . , ad .
Questo ragionamento vale anche se la base considerata non è quella canonica.
Esempio 14.2
Sia f : Rd [x] → R , dove f (p(x)) = p′ (1) − p(0) . Prendo la base B = {1, x, x2 , x3 }
e la base B ∗ duale ad essa. Verifico come agisce la funzione f sui vettori della
base B :
f (1) = −1;
f (x) = 1;
f (x2 ) = 2;
f (x3 ) = 3
Quindi le coordinate di f nella base duale sono (−1, 1, 2, 3) e si può scrivere:
−1 + x∗ + 2(x2 )∗ + 3(x3 )∗ .
14.3 Sottospazi annullatori
14.3.1 Definizione ed esempi
Definizione 14.2
Sia V uno spazio vettoriale e W un suo sottospazio. Il sottospazio annullatore di
W e’ l’insieme di tutti i funzionali lineari su V che sono identicamente nulli su W
. L’annullatore si indica con il simbolo W0 e si puo’ definire nei seguenti modi:
W0 = {f ∈ V ∗ t.c.f (W ) = 0}
W0 = {f ∈ V ∗ t.c.f (w) = 0∀w ∈ W }
W0 = {f ∈ V ∗ t.c. W ⊆ ker(f )}
Prendo un generico (a, b) ∈ R2 e diciamo W = span{(a, b)} . Se (a, b) ̸= 0 W e’
la retta che congiunge l’origine con a (a, b) . Allora W0 e’ l’insieme dei funzionali
lineari x ∗ e∗1 + y ∗ e∗2 tali che sono nulli su (a, b) , e quindi su W (ho scritto
i funzionali come combinazione degli elementi della base dello spazio duale). In
particolare:
1. se (a, b) e’ il vettore nullo, la condizione x ∗ a + y ∗ b = 0 e’ soddisfatta per
ogni scelta di (x, y) . In questo caso W0 = (R2 )∗
2. Se (a, b) ̸= 0 , (x, y) soddisfa la condizione x ∗ a + y ∗ b = 0 se e solo se (x, y)
e’ perpendicolare ad (a, b) .Abbiamo che (x, y) = λ ∗ (−b, a) per qualche
λ ∈ R , quindi
W0 = span{(−b ∗ e∗2 , a ∗ e∗1 )}
ed e’ un sottospazio di dimensione 1 nello spazio di dimensione 2.
Capitolo 14. Spazio duale
184 / 258
Osservazione 14.2
W0 e’ un sottospazio vettoriale di V ∗ .
Osservazione 14.3
1. L’elemento neutro di V ∗ e’ una funzione lineare identicamente nulla. E’ una
funzione ϕ tale che ∀v ∈ V ϕ(v) = 0Rk In particolare, 0V ∗ = 0w ∀v ∈ W ,
quindi 0V ∗ ∈ W0 .
2. Siano v1 , v2 elementi di W0 e λ1 , λ2 ∈ R . Allora per ogni w ∈ W si ha
(λ1 ∗ ϕ1 + λ2 ∗ ϕ2 )(w) = λ1 ∗ ϕ1 (w) + λ2 ∗ ϕ2 (w) per linearita’
= λ1 ∗ 0 + λ2 ∗ 0 = 0
infatti ϕ1 (w) = ϕ2 (w) = 0 essendo ϕ1 e ϕ2 in W0 e w ∈ W .Siccome questo
vale per ogni w ∈ W , allora λ1 ∗ ϕ1 + λ2 ∗ ϕ2 ∈ W0 per ogni scelta di ϕ1 , ϕ2
in W0 .Quindi la combinazione lineare di due elementi dell’annullatore vi
appartiene.
cvd
14.3.2 Dimensione dell’annullatore
Se W = V , l’annullatore di W si riduce a 0V ∗ . Viceversa se W e’ lo spazio nullo,
allora W0 = V ∗ .
Se (a, b) ∈ R2 \ {0} , e W = span{a, b} , allora il sottospazio annullatore di W e’
span{−b ∗ e∗1 + a ∗ e∗2 }
Teorema 14.2
Sia V uno spazio vettoriale finitodimensionale e sia W in V un sottospazio
vettoriale. Allora dimW0 = dimV − dimW .
Dimostrazione 14.3
Notiamo che nei due casi banali esposti sopra la relazione è soddisfatta. Possiamo
allora supporre che dimW ≥ 1 e dimW < dimV . Sia d = dimV e c = dimW .
Sia BW = {w1 , . . . , wc } una base di W . Per il teorema della base estesa, esistono
v1 , . . . , vd−c ∈ V t.c.BV = {w1 , . . . , wc , v1 , . . . , vd−c } sia una base di V .
∗ } la base di V ∗
Consideriamo la base duale. Sia B∗ = {w1∗ , . . . , wc∗ , v1∗ , . . . , vd−c
∗
∗
duale a BV . Allora wj ∈ V e’ univocamente determinato dalle condizioni:
wj∗ (wk ) = δjk per j = 1, . . . , d, k = 1, . . . , c ; in particolare, wj∗ (vi ) = 0 per
ogni i = 1, . . . , d − c .
Analogamente, vl∗ in V ∗ e’ univocamente determinato dalle condizioni: vl∗ (wj ) =
0, ∀l = 1, . . . , d − c, j = 1, . . . c e vl∗ (vj ) = 0 per j = 1, . . . c e vl ∗ (vr ) = δl,r per
r = 1, . . . , d − c .
Capitolo 14. Spazio duale
185 / 258
Allora per ogni ϕ in V ∗ esistono e sono unici α1 , . . . , αc , β1 , . . . , βd−c ∈ R tali che
ϕ=
c
∑
αi ∗
wi∗
+
i=1
d−c
∑
βi ∗ vj∗
i=1
ϕ ∈ W0 se e solo se ϕ(w) = 0 per ogni w ∈ W e quindi per ogni combinazione
lineare dei wj .
∑
Sia w = cj=1 λj wj allora
c
∑
ϕ(w) = 0 −→ ϕ(
λj ∗ wj ) = 0∀λ1 , . . . , λc ∈ R
j=1
−→
∑
λj ∗ ϕ(wj ) = 0
j
per linearita’.
Quindi questo equivale a dire che ϕ(wj ) = 0 per ogni j, cioè un funzionale si
annulla su W se si annulla su tutti gli elementi di una base di W .
Se αi , βi sono come prima, imponiamo che
ϕ(wj ) =
c
∑
αi ∗ wi∗ (wj ) +
i=1
d−c
∑
βi ∗ vi∗ (wj ) = 0, relazione ∗
i=1
Il secondo addendo è nullo, mentre il primo e’ δij , quindi l’unico termine con
un contributo non nullo e’ quello con i = j . Pertanto ϕ ∈ W0 se e solo se
α1 = · · · = αc = 0 , cioè se e solo se ϕ appartiene a span{v∗1 , . . . , v∗d−c } . I vettori
vi∗ , i = 1, . . . , d − c sono linearmente indipendenti perche’ sono parte della base
duale, quindi ricavo che la dimensione di W0 e’ d − c , cioe’ dimV − dimW .
cvd
Esempio 14.3
Siano a1 , . . . , ad ∈ R non tutti nulli. Sia La dimensione dell’iperpiano W e’ d − 1
, quindi W0 ha dimensione 1.
Osserviamo che, in termini dello spazio duale, W e’ il ker di .
Esempio 14.4
Prendo L = span{(1, 2, 3)} in R3 .
Trovare una base di L0 .
L ha dimensione 1 quindi L0 ha dimensione 2.
Devo trovare due funzionali lineari linearmente indipendenti che si annullino su
L , e quindi che si annullino su (1, 2, 3) .
(x, y, z) ∈ L se e solo se la matrice con colonne (1, 2, 3) e (x, y, z) ha rango 1.
Quindi riduco a scala la matrice:
Capitolo 14. Spazio duale
186 / 258
1 x
2 y
3 z
1
x
0 y − 2x
0 z − 3x
Imponendo uguali a 0 le quantità corrispondenti agli ultimi due gradini, la matrice
ha rango 1 e si hanno le due equazioni linearmente indipendenti: y − 2x = 0 e
z − 3x = 0 . Quindi L = ker(2 ∗ e1 ∗ −e2 ∗) ∩ ker(3 ∗ e1 ∗ −e3 ∗) pertanto
L0 = span{(2 ∗ e1 ∗ −e2 ∗) (3 ∗ e1 ∗ −e3 ∗)}
e ho quindi trovato una base di L0 .
Esempio 14.5
Sia W = span{(1, 1, −1, 0) (1, 2, 0, 1)} . Trovare una base dell’annullatore e la
sua dimensione.
W ha dimensione 2 essendo generato da due vettori linearmente indipendenti.
Quindi W0 ha dimensione 4 − 2 = 2 . Per trovare una base di W0 cerco due
funzionali lineari che si annullano su W .
(x, y, z, t) ∈ W se e solo se il rango della matrice con colonne (1, 1, −10), (1, 2, 0, 1), (x, y, z, t)
e’ 2.
Faccio operazioni per riga sulla matrice:
1
1
−1
0
1
0
0
0
1
0
0
0
1 x
2 y
0 z
1 t
1
x
1
y−x
1
z+x
0 t−z−x
1
x
1
y−x
0 z + 2x − y
0 t−z−x
Ottengo le equazioni: z + 2x − y = 0 e t − y − x = 0 .
W = ker(2 ∗ e1 ∗ −e2 ∗ +e3 ∗) ∩ ker(e1 ∗ −e2 ∗ −e4 ∗)
I due funzionali lineari sono linearmente indipendenti, quindi
W0 = span{(2e1 ∗ −e2 ∗ +e3 ∗) (e1 ∗ −e2 ∗ +e4 ∗)}
Capitolo 14. Spazio duale
187 / 258
14.3.3 Base dell’annullatore
In generale, supponiamo che V = Rd e che W ∈ Rd sia un sottospazio vettoriale
c -dimensionale. Supponiamo di aver concluso che W abbia equazioni cartesiane
espresso in un sistema lineare di d − c equazioni omogenee in d incognite.
Equivalentemente questo significa che W e’ il ker di f dove f : Rd → Rd−c e’
l’applicazione che porta (x1 , . . . , xd ) in
Se il nucleo ha dimensione c , rgf = d − dim ker f = d − c con ker(f ) = W . Allora f e’ suriettiva e inoltre le d − c righe della matrice che rappresenta f sono
linearmente indipendenti, inquanto l’applicazione ha rango d − c .
Questo significa che sono tutti linearmente indipendenti. e naturalmente ϕj appartiene a W0 per ogni j = 1, . . . , d − c poiché ogni ϕj si annulla su W .
Allora ϕ1 , . . . , ϕd−c e’ una base di W0 .
Procedimento: Per trovare una base di W0 cerco equazioni carteisane di W , siano
esse e in esse sostituisco (x1 , . . . , xd ) con v1∗ , . . . , vd∗ rispettivamente.
14.4 Osservazioni sulla traccia
La traccia e’ un’applicazione che associa a ogni matrice la somma degli elementi
sulla diagonale.
Osservazione 14.4
La traccia e’ un elemento del duale di M atd (R) .
Infatti, data una matrice A con entrate Aij e una matrice B con entrate Bij e
presi λ, η ∈ R , allora
tr =
d
∑
(λ ∗ Aii ) + (η ∗ bii ) =
i=1
d
∑
λ ∗ Aii + η ∗ bii = λ ∗
∑
Aii + η ∗
∑
bii = λ ∗ trA + η ∗ trB
i=1
Quindi la traccia e’ lineare.
Se considero la base {e11 , . . . , e1d , . . . , ed1 , . . . , edd } su M atd (R) , segue che
{
treij =
1 ⇐⇒ i = j
0 altrove
infatti solo se i = j l’elemento eij e’ sulla diagonale. Quindi, in termini dei vettori
della base duale:
trA = 1 ∗ e∗11 + · · · + 0 ∗ e∗1d + · · · + 0 ∗ e∗d1 + · · · + 1 ∗ e∗dd
La dimensione del nucleo della traccia, che chiamo T e’ d2 − 1 , perche’ l’applicazione e’ suriettiva ed e’ definita in uno spazio di dimensione d ∗ d = d2
.
Capitolo 14. Spazio duale
188 / 258
L’annullatore di T e’ lo span della traccia, basta quindi scegliere come generatore
un funzionale lineare che si abbia traccia nulla.
Esempio 14.6
Sia
W = {p(x) ∈ R3 [x] t.c. p(1) = 0 p′ (2) = 0},
definisco f : R3 [x] → R2 tale che f (p(x)) = (p(1), p′ (2)) , e sia W = ker f .
Poniamo f1 = p(1) e f2 = p′ (2) allora W = ker f1 ∩ ker f2 .
Data la base {1, x, x2 , x3 } , f1 ed f2 agiscono sui vettori nel modo seguente:
f1 (1) = 1, f1 (x) = 1, f (x2 ) = 1, f1 (x3 ) = 1
−→ f1 = 1∗ + x∗ + (x2 )∗ + (x3 )∗
f2 (1) = 0, f2 (x) = 1, f2 (x2 ) = 4, f2 (x3 ) = 3 ∗ 4 = 12
−→ f2 = x∗ + 4(x2 )∗ + 12(x3 )∗
f1 , f2 sono linearmente indipendenti. Allora l’applicazione lineare che essi definiscono ha rango 2, e quindi W = 4 − rgf = 2 . Inoltre, W0 = span{f1 , f2 } = 2
.
La matrice di f rispetto alla base di partenza e alla base canonica di R2 in arrivo
e’ una matrice 2 × 4 e ha come righe le coordinate dei due funzionali rispetto alla
base duale.
1 1 1 1
0 1 4 12
14.5 Relazione tra sottospazi annullatori
Sia V uno spazio vettoriale e supponiamo di avere due sottospazi A e B in V tali
che A ⊆ B . Ci si chiede quale sia la relazione tra i sottospazi annullatori A0 e
B0 .
14.5.1 Inclusione
Osservazione 14.5
Se ϕ ∈ B0 , allora ϕ(B) = 0 ma siccome A ⊆ B , ϕ(a) = 0∀a ∈ A . Quindi ϕ ∈ A0
. In formule A ⊂ B implica B0 ⊂ A0 .
14.5.2 Annullatore dell’intersezione
Osservazione 14.6
Capitolo 14. Spazio duale
189 / 258
Considero l’intersezione A ∩ B , e il suo annullatore (A ∩ B)0 .
Sia ϕ ∈ A0 + B0 allora ϕ = ϕ1 + ϕ2 , con ϕ1 ∈ A0 e ϕ2 ∈ B0 . Dato v ∈ A ∩ B
, ϕ(v) = ϕ1 (v) + ϕ2 (v) , ma v ∈ A , quindi ϕ1 (v) = 0 , inoltre v ∈ B quindi
ϕ2 (v) = 0 , pertanto ϕ(v) = 0∀v ∈ A + B .
Abbiamo concluso che A0 + B0 e’ sicuramente contenuto nell’annullatore di
(A ∩ B)0 . Ci si chiede se vale l’uguale.
Sia {v1 , . . . , vc } una base di A∩B . Allora possiamo trovare vettori a1 , . . . , ar ∈ A
che, aggiunti ai vj , costituiscono una base di A , e anche vettori b1 , . . . , bs tali che,
aggiunti ai vj , costituiscano una base di B . Quindi la sequenza {v1 , . . . , vc , a1 , . . . , ar , b1 , . . . , bs }
è una base di A + B : tale base si può estendere ulteriormente ad una base di V
aggiungendo vettori w1 , . . . , wk .
Una base dell’annullatore dell’intersezione è data dai vettori stellati (della base duale) corrispondenti ai vettori che ho aggiunto a v1 , . . . , vc per ottenere
una base di V , ossia (A ∩ B)0 = span{a∗1 , . . . , ar ∗, b1 ∗, . . . , bs ∗, w1 ∗, . . . , wk ∗}
. Equivalentemente si può scrivere
(A ∩ B)0 = span{a∗1 , . . . , a∗r , w∗1 , . . . , w∗k } + span{b∗1 , . . . , b∗s , w∗1 , . . . , w∗k }
Il primo addendo è lo span di tutti i vettori eccetto quelli che stanno nella base
del duale di B , e quindi è B0 , analogamente il secondo addendo è A0 . Quindi,
l’annullatore dell’intersezione e’ la somma degli annullatori.
NotaLa relazione dimW0 = dimV − dimW segue anche dal fatto che gli stellati
dei vettori che servono per estendere una base di W a una base di V costituiscono
una base dell’annullatore.
14.5.3 Annullatore della somma
Osservazione 14.7
Se ϕ ∈ A0 ∩ B0 , allora ϕ(a) = 0 ∀a ∈ A, ϕ(b) = 0 ∀b ∈ B . In particolare
ϕ(a + b) = ϕ(a) + ϕ(b) = 0 + 0 = 0∀a + b ∈ A + B
Quindi l’intersezione degli annullatori e’ contenuta nell’annullatore della somma
(A + B)0 .
In realtà, i due spazi sono uguali, e per dimostrarlo basta mostrare che hanno la
stessa dimensione:
Dimostrazione 14.4
Calcolo la dimensione dell’annullatore della somma:
dim(A + B)0 = dimV − dim(A + B)
Ma dim(A + B) = dimA + dimB − dimA ∩ B per la formula di Grasman, quindi
Capitolo 14. Spazio duale
190 / 258
dim(A + B)0 = dimV − dimA − dimB + dimA ∩ B, relazione 1
Considero ora l’intersezione degli annullatori: per la formula di Grasman
dim(A0 ∩ B0 ) = dimA0 + dimB0 − dim(A0 + B0 )
Ma
dimA0 = dimV − dimA
dimB0 = dimV − dimB
dim(A0 + B0 ) = dim(A ∩ B)0 = dimV − dim(A ∩ B)
quindi, sostituendo:
dim(A + B)0 = dimV )dimA + dimV − dimB − dimV + dim(A ∩ B)
Elimino i termini opposti.
dim(A + B)0 = dimV − dimA − dimB + dim(A ∩ B) = dim(A0 ∩ B0 )
dove l’ultimo passaggio vale per la relazione 1. cvd
In conclusione si ricavano le due regole generali:
(A + B)0 = A0 ∩ B0
(A ∩ B)0 = A0 + B0
14.5.4 Uguaglianza tra annullatori
Osservazione 14.8
Se V e’ uno spazio vettoriale di dimensione d < ∞ , e U e W in V sono sottospazi
vettoriali, allora U = W se e solo se i corrispondenti annullatori sono uguali.
Dimostrazione 14.5
Sia c la dimensione di W . Allora sappiamo che dimW0 = d − c . Sia poi
{ϕ1 , . . . , ϕd−c } una base di W0 con ϕj : V → R funzionali lineari e linearmente
indipendenti, e si può considerare l’applicazione lineare ϕ : V → Rd−c tale che
ϕ = (ϕ1 , . . . , ϕd−c )
Sia B = {v1 , . . . , vd } una base di V e prendo la base duale ad essa B ∗ =
{v1∗ , . . . , vd∗ } . Supponiamo che, per ogni i , per certi coefficienti Aji .
I vettori riga (Ai1 , . . . , Aid ) sono linearmente indipendenti.
Applico ϕ ai vettori della base e ottengo:
Capitolo 14. Spazio duale
191 / 258
ϕ(v1 ) = (ϕ1 (v1 ), . . . , ϕd−c (v1 )) = (A1,1 , . . . Ad−c,1 )
Infatti quando applico ϕ1 rimane il termine A1,1 , quando applico ϕ2 ottengo il
termine A2,1 e cosi’ via. In generale
ϕ(vj ) = (A1,j , . . . , Ad−c,j )
La matrice che rappresenta ϕ dalla base B alla base canonica di Rd−c e’ la matrice
che ha come j-esima colonna le coordinate rispetto alla base d’arrivo di ϕ(vj ) ,
ed e’ la matrice:
A1,1
A1,2
A2,1
A2,2
...
...
Ad−c,1 Ad−c,2
. . . A1,d
. . . A2,d
...
...
. . . Ad−c,d
Il rango di una matrice e’ il minimo tra il numero di righe e quello delle colonne,
quindi rgϕ = d − c . Per il teorema del rango, la dimensione del nucleo di ϕ e’
d − (d − c) = c .
Dato w ∈ W , allora ϕ(w) = (ϕ1 (w), . . . , ϕd−c (w)) = 0Rd−c , perche’ i ϕi sono
nell’annullatore di W , quindi W e’ contenuto nel nucleo di ϕ , ma poiché i due
spazi hanno la stessa dimensione, segue che W = ker ϕ . In particolare, se ho due
sottospazi che hanno lo stesso annullatore, sono entrambi uguali al nucleo di ϕ ,
e quindi sono uguali tra loro.
cvd
Viceversa, sia L un sottospazio vettoriale, d − c -dimensionale contenuto in V ∗ ,
costruisco una base di L , {ϕ1 , . . . , ϕd−c } e costruisco ϕ esattamente come prima.
Se W = ker ϕ , allora W ha dimensione c . Sicuramente L ⊆ W0 quindi i ϕi stanno
nell’annullatore di W . Ma anche W0 ha dimensione d − c . Quindi L = W0 .
Il passaggio da un sottospazio al suo annullatore da’ una corrispondenza biunivoca
tra i sottospazi di V e i sottospazi del duale, che porta W nel suo annullatore.
Capitolo 15. Prodotti scalari
192 / 258
Capitolo 15
Prodotti scalari
15.1 Definizione ed esempi di prodotti scalari
15.1.1 Forme bilineari
Definizione 15.1
Sia V uno spazio vettoriale. Una forma bilineare su V e’ un’applicazione ϕ :
V × V → R che e’ lineare separatamente su qualsiasi componente. In altre parole,
e’ tale che per ogni v1 , v2 , v3 ∈ V e λ1 , λ2 , λ3 ∈ R , si ha
ϕ(v3 , λ1 ∗ v1 + λ2 ∗ v2 ) = λ1 ϕ(v3 , v1 ) + λ2 ϕ(v3 , v2 )
Definizione 15.2
Una forma bilineare ϕ : V × V → R si dice simmetrica se ϕ(v, w) = ϕ(w, v) per
ogni v, w ∈ V .
Esempio 15.1
L’applicazione
ϕ((x, y), (x′ , y ′ )) = x ∗ y ′ − y ∗ x′
e’ bilineare e non simmetrica. Il prodotto scalare standard è bilineare e simmetrico.
Definizione 15.3
Un prodotto scalare su V e’ una forma bilineare, simmetrica su V . (non esiste
solo il prodotto scalare standard, ma anche altri tipi di prodotti scalari)
Capitolo 15. Prodotti scalari
193 / 258
15.1.2 Esempi
Esempio 15.2
Sia ϕ : R2 × R2 → R , con
ϕ((x, y), (x′ , y ′ )) = (x + y) ∗ (x′ + y ′ ) = x ∗ x′ + y ∗ x′ + x ∗ y ′ + y ∗ y ′
ϕ e’ bilineare perche’ e’ omogenea di grado 1 in ogni componente.
Osservo che se considero (x, y) = (1, −1) ricaviamo che
ϕ((x, y), (1, −1)) = 0 ∀(x, y)
Esempio 15.3
Sia f : R3 [x]×R3 [x] → R tale che f (p, q) = p(0)∗q(0) . f e’ bilineare e simmetrica.
Inoltre, osservo che se q(x) = x , f (p(x) ∗ x) = 0∀p ∈ R3 [x] .
15.1.3 Prodotto scalare non degenere
Definizione 15.4
Un prodotto scalare si dice non degenere se per ogni v ∈ V con v ̸= 0
esiste un v ′ ∈ V tale che ϕ(v, v ′ ) ̸= 0 .
Esempio 15.4
l prodotto scalare standard pst : Rd × Rd → R tale che pst (x, y) = x · y e’ non
degenere, perche’ ϕ(x, x) = ∥x∥2 ed e’ diverso da 0 per ogni x ∈ R2 , x ̸= 0 .
Il prodotto dell’esempio 1 è degenere perché il prodotto scalare tra un generico
(x, y) e il vettore (1, −1) è sempre nullo.
15.2 Forme bilineari e prodotti scalari su spazi euclidei
15.2.1 Prodotti scalari e matrici
Considero una forma bilineare, non necessariamente simmetrica, che chiamo ϕ :
Rd × Rd → R .
Siano x = (x1 , . . . , xd ) e y = (y1 , . . . , yd ) elementi di Rd e sia Cd la base canonica.
∑
∑
Possiamo scrivere che x = di=1 xi ∗ ei e y = dj=1 yj ∗ ej , allora
Capitolo 15. Prodotti scalari
194 / 258
d
d
∑
∑
ϕ(x, y) = ϕ(
x i ∗ ei ,
y j ∗ ej )
i=1
j=1
Uso la linearita’ sulla prima componente e lascio la seconda fissata: porto fuori
gli scalari.
ϕ(x, y) =
d
∑
xi ∗ ϕ(ei ,
j
∑
i=1
y j ∗ ej )
i=1
Uso la linearita’ sulla seconda componente:
d
∑
xi ∗ yj ∗ ϕ(ei , ej )
i,j=1
Se considero La matrice C con entrate cij = ϕ(ei , ej ) posso riscrivere l’espressione
come
ϕ(x, y) =
d
∑
xi ∗
i=1
Ma
∑
j cij
d
∑
(cij ∗ yj )
j=1
∗ yj e’ l’entrata i-esima del prodotto Cy quindi:
ϕ(x, y) =
d
∑
xt ∗ Cy
i=1
Dal prodotto xt ∗ Cy si ottiene come risultato uno scalare, perche’ y e’ un vettore
colonna e y t e’ un vettore riga.
15.2.2 Unicita’ della matrice C
Sia D ∈ M atd (R) un’altra matrice d × d tale che
ϕ(x, y) = xt ∗ Dy
per ogni x, y ∈ Rd .
Se x = ei , y = ej (vettori della base canonica) si ottiene:
ϕ(ei , ej ) = eti Cej = eti cj = cij
( cj è la j-esima colonna della matrice)
Analogamente, se considero allora la matrice D con entrate dij si ha
ϕ(ei , ej ) = eti Dej = eti dj = dij
Capitolo 15. Prodotti scalari
195 / 258
Allora le due matrici sono necessariamente uguali.
ConclusioneOgni forma bilineare su Rd , cioe’ ogni ϕ : Rd × Rd → R bilineare
puo’ essere scritta nella forma:
ϕ(x, y) = xT ∗ C ∗ y
al variare di x, y ∈ Rd per un’unica matrice C d × d e precisamente cij = ϕ(ei , ej )
. Quindi si può scrivere
ϕ(x, y) =
d
∑
Cij ∗ xi ∗ yj
i,j=1
al variare di x, y ∈ Rd .
Viceversa se partiamo da una matrice C di dimensione d × d , l’applicazione
ϕC : Rd × Rd → R definita ponendo
ϕ(x, y) = xt ∗ Cy = x · Cy =
∑
Cij ∗ xi ∗ yj
i,j
e’ bilineare.
Abbiamo stabilito che esiste una corrispondenza biunivoca fra le forme bilineari
su Rd e le matrici d × d .
Esempio 15.5
Il prodotto scalare standard tale che ei · ej = δij corrisponde alla matrice identità.
Esempio 15.6
Prendo
ϕ((x, y), (x′ , y ′ )) = (x + y)(x′ + y ′ )
Se prendo un qualsiasi vettore della base canonica, x + y = 1 e x′ + y ′ = 1 . La
matrice in questione e’
(
1 1
1 1
)
Esempio 15.7
∑
∑
Analogamente se considero ϕ : Rd × Rd → R che ϕ(x, y) = ( i xi ) ∗ ( j yj ) ,
poiché per qualsiasi vettore della base canonica la somma delle componenti e’
uguale a 1, la matrice C ha tutte le entrate uguali a 1.
Esempio 15.8
Se considero
Capitolo 15. Prodotti scalari
196 / 258
ϕ : R2 × R2 → R t.c. ϕ((x, y), (x′ , y ′ )) = xy ′ − x′ ∗ y
(è la formula del determinante di una matrice 2 × 2 ) ottengo che ϕe1 , e2 =
c1,1 = 0;
c1,2 = xy ′ = 1;
c2,1 = −yx′ = −1;
e2,2 = 0
Quindi
(
C=
0 1
−1 0
)
15.2.3 Corrispondenza biunivoca tra prodotti scalari e matrici
simmetriche
Se le forme bilineari sono in corrispondenza biunivoca con le matrici d × d , i
prodotti scalari (forme bilineari e simmetriche) sono in corrispondenza biunivoca
con le matrici simmetriche.
Definizione 15.5
Una matrice C si dice textit se è uguale alla sua trasposta, cioè se per ogni i, j ,
si ha cij = cji .
Supponiamo che ϕ : Rn × Rn → R sia un prodotto scalare. allora la matrice
corrispondente C soddisfa la condizione cij = ϕ(ei , ej ) . Poiché ϕ e’ simmetrica,
cij = ϕ(ei , ej ) = ϕ(ej , ei ) = cji per ogni i = 1, . . . , n e j = 1, . . . , n , ovvero C è
simmetrica.
Viceversa, sia C una matrice simmetrica e definiamo la corrispondente forma
bilineare ϕ : Rn × Rn → R , allora ϕ(x, y) = xt Cy , in particolare, poiché xT Cy
è uno scalare coincide con il suo trasposto e si può scrivere ϕ(x, y) = (xt Cy)t .
Usando la formula (AB)t = B t ∗ At , si può scrivere
ϕ(x, y) = y t ∗ C t ∗ x = y t ∗ Cx = ϕ(y, x)
(sto supponendo che C sia simmetrica, quindi C t = C ). Quindi, ∀x, y ∈ Rn ,
ϕ(x, y) = ϕ(y, x) cioè ϕ è simmetrica.
textit.
15.3 Spazio nullo di un prodotto scalare
Definizione 15.6
Sia V uno spazio vettoriale su R . Sia ϕ : V × V → R un prodotto
scalare. Lo textit di ϕ indicato con ϕ⊥ e’ l’insieme di tutti i v ∈ V con
la proprieta’ che ϕ(v, v ′ ) = 0 per ogni v ′ ∈ V .
Capitolo 15. Prodotti scalari
197 / 258
Teorema 15.1
Lo spazio nullo di un prodotto scalare è uno spazio vettoriale.
Dimostrazione 15.1
ϕ(0V , v ′ ) = 0 per ogni v ′ ∈ V , quindi il vettore nullo appartiene allo spazio nullo
del prodotto scalare, che di conseguenza e’ non vuoto.
Se v1 , v2 sono elementi dello spazio nullo del prodotto scalare e λ1 , λ2 sono scalari,
per ogni v ∈ V si ha che, per la linearità di ϕ nella prima componente,
ϕ((λ1 ∗ v1 + λ2 ∗ v2 ), v ′ ) = λ1 ∗ ϕ(v1 , v ′ ) + λ2 ∗ ϕ(v2 , v ′ )
siccome v1 e v2 stanno nello spazio nullo ottengo che ϕ(v1 , v ′ ) = ϕ(v2 , v ′ ) = 0 per
ogni scelta di v ′ , e quindi anche λ1 v1 + λ2 v2 appartiene allo spazio nullo.
cvd
15.3.1 Caso particolare V= R^n
Sia V = Rn . Sia C una matrice simmetrica nxn e consideriamo il corrispondente
prodotto scalare
ϕC : R n × R n → R
t.c. ϕ(x, y) = xt ∗ C ∗ y
Determiniamo lo spazio nullo di questo prodotto scalare.
y appartiene allo spazio nullo di ϕ se e solo se ϕ(x, y) = 0 per ogni x , quindi y
appartiene allo spazio nullo se e solo se xt Cy = 0 per ogni x ∈ Rn , oppure se e
solo se x · Cy = 0 per ogni x che appartiene a Rn .
Il prodotto scalare standard e’ non degenere, quindi affinché la condizione sia
vera Cy dev’essere necessariamente il vettore nullo di Rn . Di conseguenza y
appartiene allo spazio nullo se e solo se y ∈ ker C .
In conclusione, lo spazio nullo di ϕC prodotto scalare su Rn e’ il nucleo della
matrice C .
Abbiamo una corrispondenza biunivoca tra l’insieme di tutti i prodotti scalari
non degeneri ϕ : Rn × Rn → R e le matrici simmetriche invertibili (infatti se una
matrice è invertibile, il suo nucleo, e quindi il suo spazio nullo, è ridotto al solo
zero e quindi il prodotto scalare è non degenere).
Esempio 15.9
La matrice
C=
0 1
1 0
e’ una matrice simmetrica e definisce un prodotto scalare dato da
Capitolo 15. Prodotti scalari
198 / 258
ϕ(x, y) = x2 ∗ y1 + x1 ∗ y2
ϕ e’ un prodotto scalare non degenere perche’ C e’ invertibile.
Esempio 15.10
Data la matrice
C=
1 1
1 1
il prodotto scalare ad essa associato è
ϕ = x1 ∗ y1 + x1 ∗ y2 + x2 ∗ y1 + x2 ∗ y2 = (x1 + x2 )(y1 + y2 )
quindi ϕ e’ degenere perche’ la matrice non e’ invertibile.
Lo spazio nullo del prodotto scalare e’ il nucleo della matrice, e quindi e’ span{(1, −1)}
.
15.4 Complemento ortogonale
Definizione 15.7
Sia V uno spazio vettoriale su R . Sia W ∈ V un sottospazio vettoriale, sia
ϕ : V × V → R un prodotto scalare. Il complemento ortogonale di W rispetto a ϕ
(dipende da W e da ϕ ) e’ l’insieme dei vettori di V che hanno prodotto scalare
nullo con qualsiasi vettore di W , ovvero
W ⊥ = {v ∈ V t.c.ϕ(v, w) = 0∀w ∈ W }
Esempio 15.11
Sia ϕ : R2 × R2 → R il prodotto scalare alla matrice
C=
0 1
1 0
Considero W = span{e1 } .
Ddeterminare il complemento ortogonale dello span rispetto a ϕ
ϕ(e1 , e1 ) = c11 = 0
quindi sicuramente e1 e λ∗e1 appartengono al complemento ortogonale dello span
di e1 .
Ottengo che il complemento ortoonale dello span di e1 contiene lo span di e1 ,
ovvero span{e1 } ⊆ (span{e1 })⊥ .
Capitolo 15. Prodotti scalari
199 / 258
Notiamo che il prodotto scalare considerato è non degenere. (x, y) ∈ (span{e1 })⊥
se e solo se ϕ((x, y), e1 ) = 0 , quindi se e solo se (x, y)T ∗ C ∗ e1 = 0 , quindi se
e solo se (x, y) appartiene allo span di e1 (infatti c11 è l’unica entrata uguale a 0
che coinvolge e1 ).
In generale, anche se il prodotto scalare ϕ : V × V → R e’ non degenere, puo’
avvenire che per qualche sottospazio vettoriale W , W ∩ W ⊥ ̸= 0 . Vedremo che
questo avviene solo quando il prodotto scalare e’ definito positivo.
15.4.1 Prodotto scalare definito positivo
Definizione 15.8
Sia V uno spazio vettoriale reale e sia ϕ : V × V → R un prodotto scalare. ϕ si
dice definito positivo se per ogni v ∈ V con v ̸= 0 , si ha che ϕ(v, v) e’ un numero
positivo.
Ad esempio, il prodotto scalare standard su Rn e’ definito positivo.
Un altro esempio di prodotto scalare definito positivo e’ il seguente.
Esempio 15.12
Sia V lo spazio dei polinomi di grado minore o uguale di d nell’indeterminata x .
Definiamo ϕ : Rd [x] × Rd [x] → R tale che
∫
1
p(x)q8x) dx
ϕ(p(x), q(x)) =
0
Si può dimostrare che ϕ e’ un prodotto scalare usando le usuali proprieta’ degli
integrali.
Se p(x) = p1 (x) + p2 (x) , ottengo
Se calcolo ϕ(p(x), p(x)) ottengo
∫
1
(p(x))2
dx ≥ 0∀p(x) ̸= 0
0
Allora ϕ e’ necessariamente positivo.
15.4.2 relazione tra prodotti degeneri e positivi
Osservazione 15.1
Se ϕ : V × V → R e’ definito positivo, allora ϕ e’ non degenere.
Infatti, se prendo v nello spazio nullo, si ha ϕ(v, v ′ ) = 0 per ogni v ′ ∈ V e quindi
anche per v ′ = v , ma siccome per ipotesi il prodotto scalare e’ definito positivo,
allora v e’ il vettore nullo, di conseguenza ϕ e’ non degenere perché il suo spazio
nullo si riduce al solo zero.
Capitolo 15. Prodotti scalari
200 / 258
Non vale viceversa, infatti presa la matrice
0 1
1 0
il prodotto ad essa associato e’ non degenere, ma non e’ definito positivo.
15.5 Matrici e prodotti scalari in spazi generici
15.5.1 Matrici e forme bilineari
Sia V uno spazio vettoriale d-dimensionale su R , con d ≥ 1 . Sia ϕ : V × V → R
un prodotto scalare e sia B = {v1 , . . . , vd } una base di V .
Siano v, u ∈ V , e poniamo X = (x1 , . . . , xd ) e Y = (y1 , . . . , yd ) le colonne delle
coordinate di v e u rispettivamente nella base B , in modo che
v=
d
∑
xi ∗ vi ;
u=
i=1
d
∑
yj ∗ v j
j=1
Allora
d
d
∑
∑
ϕ(v, u) = ϕ(
xi ∗ vi ,
yj ∗ v j )
i=1
j=1
Uso la linearita’ sulla prima componente.
ϕ(v, u) =
d
∑
xi ∗ ϕ(vi ,
i=1
d
∑
yj ∗ v j )
j=1
Uso la linearita’ di ϕ sulla seconda componente
ϕ(v, u) =
d
∑
xi ∗ yj ∗ ϕ(vi , vj )
i,j=1
Supponiamo Cij = ϕ(vi , vj ) , allora
ϕ(v, u) =
d
∑
xi yj ∗ cij = X T ∗ C ∗ Y
i,j=1
Definizione 15.9
Se ϕ : V × V → R e’ un prodotto scalare o piu’ in generale una forma bilineare,
e se B = {v1 , . . . , vd } e’ una base di V , la matrice di ϕ rispetto alla base B e’
la matrice C = MB (ϕ) di entrate cij = ϕ(vi , vj ) . In particolare vale la relazione
ϕ(u, v) = MBt CMB , ∀u, v ∈ V .
Capitolo 15. Prodotti scalari
201 / 258
Se ϕ e’ un prodotto scalare, allora
cij = ϕ(vi , vj ) = ϕ(vj , vi ) = cji , ∀i, j = 1, . . . , d
quindi anche la matrice C e’ simmetrica.
Viceversa, se C e’ una matrice simmetrica d × d , tale che C = C t , definisco la
forma bilineare ϕ tale che
ϕ(v, u) = (MB (v))t ∗ C ∗ MB (u), v, u ∈ V
Poiché ϕ(u, v)t = ϕ(v, u) (è un numero), traspongo il prodotto di matrici e ottengo
ϕ(v, u) = (MB (u))t ∗ C t ∗ MB (v)
ma C t = C , quindi
ϕ(v, u) = (MB (u))t ∗ C ∗ MB (v) = ϕ(u, v).
pertanto ϕ è anche simmetrica.
15.5.2 Spazio nullo
Nelle ipotesi precedenti, lo spazio nullo di ϕ e’
{v ∈ V t.c. ϕ(v, u) = 0 ∀u ∈ V }
= {v ∈ V t.c. (MB (u))t ∗ C ∗ MB (v) = 0∀u ∈ V }
= {v ∈ V t.c. xt ∗ C ∗ MB (v) = 0 ∀x ∈ Rd }
= {v ∈ V t.c. x · C ∗ MB (v) = 0∀x ∈ Rd }
Questo vuol dire che siccome il prodotto scalare standard e’ non degenere, allora
la condizione è soddisfatta quando CMB (v) = 0 . Quindi v appartiene allo spazio
nullo se e solo se MB (v) ∈ ker C , cioè lo spazio nullo e’ la controimmagine del
nucleo di C mediante MB (v) .
Ricavo che la dimensione dello spazio nullo e’ uguale alla dimensione del nucleo
di C , perche’ MB (v) e’ un isomorfismo.
Riassumendo,
Proposizione 15.1
Sia V uno spazio vettoriale d-finitodimensionale. Sia B una base di V e sia ϕ :
V × V → R un prodotto scalare. Diciamo C la matrice del prodotto scalare nella
base data. Allora lo spazio nullo di ϕ e’ la controimmagine mediante MB del
nucleo di C .
In particolare, la dimensione di tale spazio nullo e’ uguale alla dimensione del
nucleo di C , quindi si ricava il seguente corollario.
Capitolo 15. Prodotti scalari
202 / 258
Corollario 15.1
ϕ e’ non degenere se e solo se lo spazio nullo e’ ridotto al solo 0, quindi se e solo
se C e’ una matrice invertibile ovvero il nucleo di C e’ 0.
Esempio 15.13
Sia B = {(1, 1), (1, 2)} la base di R2 e sia ϕ il prodotto scalare standard.
La matrice del prodotto scalare standard in questa base si ottiene facendo il
prodotto scalare tra tutte le combinazioni possibili di vettori. In particolare
a11 = v1 · v1 = (1, 1) · (1, 1) = 2
a12 = a21 = v1 · v2 = (1, 1) · (1, 2) = 3
a22 = v2 · v2 = (1, 2) · (1, 2) = 5
quindi
2 3
3 5
C=
Esempio 15.14
Prendiamo V = R3 [x] spazio dei polinomi di grado ≤ 3 , e sia
∫
1
p(t) ∗ q(t) dt
ϕ(p, q) =
−1
ϕ e’ un prodotto scalare definito positivo, infatti p(t) ∗ p(t) puo’ essere uguale a
0 se e solo se p(t) = 0∀t , e questo non è possibile perché un polinomio di grado
≤ 3 non nullo ha al più tre radici.
Prendo la base {1, x, x2 , x3 } e calcolo la matrice di questo prodotto nella base: si
sfrutterà più volte il fatto che l’integrale di una funzione dispari su un dominio
simmetrico è sempre nullo.
∫
a11 =
1
1 dt = 2
−1
∫
a12 = a21 =
∫
a22 =
1
t dt = 0
∫
t dt = 2 ∗
−1
1
2
−1
t2 dt = [t3 /3]10 = 2/3
∫
a13 = a31 =
0
1
−1
∫
a23 = a32 =
1
1 ∗ t2 dt = 2/3
1
−1
t ∗ t2 dt = 0
Capitolo 15. Prodotti scalari
203 / 258
∫
a33 =
∫
1
−1
1
t4 dt = 2 ∗
t4 dt = [2/5 ∗ t5 ]10 = 2/5
0
∫
a14 = a41 =
∫
1
∫
t ∗ t dt =
−1
a34 = a43 =
∫
−1
1 ∗ t3 dt = 0
1
3
a24 = a42 =
a44 =
1
1
−1
∫
t4 dt = 2/5
−1
1
t5 dt = 0
−1
t6 dt = [2/7 ∗ t7 ]10 = 2/7
La matrice che ottengo e’
2
0 2/3 0
0 2/3 0 2/5
C=
2/3 0 2/5 0
0 2/5 0 2/7
Tutte le entrate diagonali sono positive, infatti il prodotto e’ positivo.
Osservazione 15.2
Nelle ipotesi precedenti, V spazio vettoriale, ϕ prodotto scalare, ϕ e’ definito
positivo se e solo se ϕ(v, v) ≥ 0 per ogni v ̸= 0 , e quindi se e solo se (MB (v))t ∗
ϕ ∗ MB (v) ≥ 0 con v ̸= 0 , e quindi se e solo se xt ∗ C ∗ x ≥ 0, ∀x ∈ Rd , x ̸= 0Rd
. La condizione è soddisfatta se C è invertibile e soddisfa il criterio dei minori
incapsulati.
15.6 Dipendenza della matrice M B da B
Nelle ipotesi precedenti ( V spazio vettoriale, B una base e ϕ un prodotto scalare)
sia MB (ϕ) la matrice simmetrica dxd che rappresenta ϕ rispetto alla base B ; essa
e’ l’unica matrice dxd tale per cui per ogni v, u ∈ V si ha
ϕ(v, u) = (MB (v))t ∗ C ∗ MB
Ci si chiede se MB (ϕ) dipende da B . Equivalentemente, date due basi B e A di
V , ci si chiede che relazione c’e’ tra MB (ϕ) e MA (ϕ) .
Per ogni v, u ∈ V , lavorando con la base B si ha
ϕ(v, u) = (MB (v))t ∗ MB (ϕ) ∗ MB (u)
invece lavorando nella base A ottengo
ϕ(v, u) = (MA )t ∗ MA (ϕ) ∗ MA (u)
Capitolo 15. Prodotti scalari
204 / 258
Per ogni v ∈ V si ha che la colonna delle coordinate di v nella base B si ottiene
moltiplicando MBA (id) per la colonna delle coordinate di v nella base A .
Si ottiene per ogni v, u ∈ V , in termini della base B
ϕ(v, u) = (MBA (id) ∗ MA (v))t ∗ MB (ϕ) ∗ MBA (id) ∗ MA (u)
il trasposto di un prodotto e’ il prodotto dei trasposti nell’ordine inverso, quindi
ϕ(v, u) = (MA (v))t ∗ (MBA )t ∗ MB (ϕ) ∗ MBA (id) ∗ MA (u)
Uso l’associativita’:
ϕ(v, u) = (MA (v))t ∗ {MBA ∗ MB (ϕ) ∗ MBA (id)} ∗ MA (u)
Ricaviamo che MA (ϕ) = (MBA (id))t ∗ MB (ϕ) ∗ MBA (id) .
Proposizione 15.2
Sia V uno spazio vettoriale finitodimensionale e sia ϕ : V × V → R un prodotto
scalare o una forma bilineare (non si usa la simmetria di ϕ ).
Siano A e B basi di V , allora, la matrice di ϕ nella base A e’ legata alla matrice
nella base B dalla formula:
MA (ϕ) = (MBA (id))t ∗ MB ϕ ∗ MBA (id)
Esempio 15.15
Prendo ϕ = pst e B = {(1, 1), (1, 2)} .
La matrice del prodotto scalare standard in questa base, che abbiamo calcolato
precedentemente, e’
C=
2 3
365
Questa matrice si puo’ ricavare anche con la formula seguente:
(MCB id(R2 ))t ∗ MC pst ∗ MCB id(R2 )
Si ha che MC pst e’ la matrice identita’, mentre MCB id(R2 ) e’ la matrice che ha
come colonne i vettori della base data, cioè
MCB id(R2 ) =
1 1
1 2
La sua trasposta ha come righe i vettori ed e’ la matrice:
(MCB id)t =
1 1
1 2
Capitolo 15. Prodotti scalari
205 / 258
Faccio il prodotto tra queste tre matrici:
(MCB id(R2 ))t ∗ MC (pst ) =
1 1
1 2
MC (pst ) ∗ MCB (id(R2 )) =
2 3
3 5
Esempio 15.16
Sia
C=
0 1
1 0
e chiamo ϕ = ϕC l’applicazione ad essa associata, cioè ϕ((x, y), (x′ , y ′ )) = xy ′ +yx′
( C rappresenta ϕ rispetto alla base canonica). ϕ e’ non degenere e non e’ definito
positivo.
Sia B = {(1, 1), (1, −1)} una base di R2 : la matrice di ϕ in questa base e’ il
prodotto tra queste tre matrici:
(MCB id(R2 ))t =
MC ϕ =
1 1
1 −1
0 1
1 0
MCB id(R2 ) =
1 1
1 −1
e svolgendo il prodotto si ottiene
MB ϕ =
2 0
0 −2
Per controllare se i conti sono giusti posso fare una verifica esplicita:
ϕ(v1 , v1 ) = ϕ((1, 1), (1, 1)) = 2 = c11
ϕ(v1 , v2 ) = ϕ((1, 1), (1, −1)) = 0 = c21 = c12
ϕ(v2 , v2 ) = ϕ((1, −1), (1, −1)) = −2 = c22
Esempio 15.17
Sia A = {(1, 3), (−1, 2)} una base. Trovare la matrice di ϕC ((x, y), (x′ , y ′ )) =
xy ′ + x′ y e di ϕ = pst nella base A , sia usando la formula che calcolando entrata
per entrata.
Caso 1: ϕ = pst : MA (pst ) e’ data dal prodotto tra queste tre matrici:
Capitolo 15. Prodotti scalari
206 / 258
(MCA id(R2 ))t =
1 3
−1 2
1 0
0 1
MC pst =
1 −1
3 2
MCA id(R2 ) =
e svolgendo i calcoli si ha:
10 5
5 5
(MA pst =
Verifica esplicita:
a11 = v1 · v1 = (1, 3) · (1, 3) = 10
a21 = a12 = v1 · v2 = (1, 3) · (−1, 2) = 5
a22 = v2 · v2 = (−1, 2) · (−1, 2) = 5
Caso 2: ϕ = ϕC . MA (ϕC ) e’ il prodotto delle tre matrici
(MCA id(R2 ))t =
1 3
−1 2
0 1
1 0
MC (ϕC ) =
MCA id(R2 ) =
1 −1
3 2
e svolgendo il prodotto si ottiene:
MA (ϕC ) =
6 −1
−1 −4
Verifica esplicita:
a11 = ϕ(v1 , v1 ) = ϕ((1, 3), (1, 3)) = 6
a21 = a12 = ϕ(v1 , v2 ) = ϕ((1, 3), (−1, 2)) = −1
a22 = ϕ(v2 , v2 ) = ϕ((−1, 2), (−1, 2)) = −4
Capitolo 15. Prodotti scalari
207 / 258
15.7 Spazio vettoriale euclideo
Definizione 15.10
Sia V uno spazio vettoriale finitodimensionale e sia ϕ : V × V → R un prodotto
scalare definito positivo (nello spazio reale). La coppia (V, ϕ) si dice uno spazio
vettoriale euclideo.
Esempio 15.18
Lo spazio dei polinomi con il prodotto dell’esempio precedente o Rk con il prodotto
scalare standard sono spazi vettoriali euclidei.
15.7.1 Disuguaglianza di Cauchy-Schwarz
Teorema 15.2
Nelle ipotesi precedenti, ( (V, ϕ) spazio vettoriale euclideo), per ogni v, w ∈ V si
ha:
|ϕ(v, w)| ≤
√
ϕ(v, v) ∗
√
ϕ(w, w)
e vale l’uguale se e solo se v e w sono linearmente dipendenti.
Definizione 15.11
Se (V, ϕ) e’ uno spazio vettoriale euclideo, la norma rispetto a ϕ e’ la funzione:
∥ . . . ∥ϕ : V → R , data da
∥v∥ =
√
ϕ(v, v)
Capitolo 16. Basi ortogonali
208 / 258
Capitolo 16
Basi ortogonali
16.1 Definizione ed esempi
Definizione 16.1
Sia V uno spazio vettoriale d -dimensionale su K . Sia ϕ : V ×V → K un prodotto
scalare e sia B = (v1 , . . . vd ) una base di V . Diremo che questa base e’ ortogonale
per ϕ se ϕ(vi , vj ) = 0 per ogni i ̸= j .
Quindi equivalentemente la base e’ ortogonale se e solo se la matrice che rappresenta ϕ nella base data e’ una matrice diagonale (solo le entrate con i = j sono
diverse da 0).
Esempio 16.1
1. se ϕ = pst : Rd × Rd → R , allora la base canonica C = {e1 , . . . , ed } e’
ortogonale.
2. Se ϕ = ϕC : R2 × R2 → R con
C=
0 1
1 0
cioè ϕ(x, y) = xT ∗ Cy , la base canonica non e’ ortogonale per ϕ , ma se
consideriamo la base {(1, 1), (1, −1)} , allora la matrice di ϕ in questa base
ha entrate diagonali, quindi questa base e’ ortogonale per ϕ .
16.2 Esistenza della base ortogonale
16.2.1 Enunciato
Un prodotto scalare e’ piu’ facile da studiare quando si puo’ rappresentare su una
matrice diagonale.
Problema: Dato un prodotto scalare qualsiasi, ϕ : V × V → K , ci si chiede se
esiste sempre una base di V ortogonale per ϕ . La risposta e’ affermativa.
Capitolo 16. Basi ortogonali
209 / 258
Teorema 16.1
Sia V uno spazio vettoriale finitodimensionale su K e sia ϕ : V × V → K . Allora
esiste una base B di V ortogonale per ϕ , cioe’ tale che ϕ(vi , vj ) ̸= 0 se e solo se
i = j , e quindi tale che la matrice di ϕ nella base B sia una matrice diagonale
con entrate λi = ϕ(vi , vi ), ∀i = 1, . . . , n .
Corollario 16.1
Sia C una qualsiasi matrice simmetrica sul campo K . Allora C definisce un
prodotto scalare ϕc : K d × K d → K dato da ϕ(x, y) = xt ∗ Cy , dove C e’ la
matrice nella base canonica di ϕ . Allora per il teorema precedente esiste una
base B di K d tale che la matrice del medesimo prodotto scalare e’ diagonale.
Corollario 16.2
Sia C una matrice simmetrica a coefficienti in K . Allora esiste una matrice
A ∈ Md (K) invertibile tale che At ∗ CA e’ diagonale.
Per poter dimostrare il teorema sull’esistenza di una base ortogonale enunciato
all’inizio di questo paragrafo sono necessarie alcune osservazioni preliminari.
16.2.2 Osservazione sul complemento ortogonale
Osservazione 16.1
Nelle ipotesi precedenti, sia v ∈ V un qualsiasi elemento tale che ϕ(v, v) ̸= 0 .
Allora per ogni w ∈ W possiamo scrivere:
w =w−(
ϕ(v, w)
ϕ(v, w)
)∗v+(
)∗v
ϕ(v, v)
ϕ(v, v)
Preso il primo termine, se ne faccio il prodotto scalare con v ottengo
]
ϕ(v, w)
ϕ w−v
,v =
ϕ(v, v)
[
[
]
w ∗ ϕ(v, v) − vϕ(v, w)
ϕ
,v =
ϕ(v, v)
ϕ(w, v) ∗ ϕ(v, v) − ϕ(v, v)ϕ(v, w)
] = 0 per simmetria di ϕ
ϕ(v, v)
Concludo che w − v ∗ ϕ(v,w)
ϕ(v,v) appartiene al complemento ortogonale dello span di
V , perche’ il suo prodotto scalare con v e’ 0.
Inoltre il complemento ortogonale di un sottospazio vettoriale W di V e’ un
sottospazio vettoriale di V .
Ricaviamo che ogni elemento di V e’ la somma di un vettore in (span{v})⊥ e di
un vettore in span{v} .
Capitolo 16. Basi ortogonali
210 / 258
Quindi se ϕ(v, v) ̸= 0 , allora sicuramente V e’ la somma dello span di v e del suo
complemento ortogonale.
Supponiamo di avere un vettore u ∈ span{v} ∩ (span{v})⊥ . Siccome u ∈ span{v}
esiste λ in K tale che u = λ ∗ v . Ma u appartiene anche a (span{v})⊥ quindi
ϕ(u, v) = 0 . Ma questo implica che ϕ(u, v) = ϕ(λ ∗ v, v) = λ ∗ ϕ(v, v) = 0 : poiché
per ipotesi ϕ(v, v) ̸= 0 , segue che λ = 0 e l’intersezione si riduce al vettore nullo.
Riassumendo: se ϕ(v, v) ̸= 0 , allora V = (span{v})⊥ + span{v} e i due spazi
sono in somma diretta, perche’ la loro intersezione e’ vuota.
Abbiamo dimostrato pertanto il seguente lemma:
Lemma 16.1
Se ϕ : V × V → K) e’ un prodotto scalare e v ∈ V soddisfa ϕ(v, v) ̸= 0 , allora V
e’ la somma diretta del complemento ortogonale dello span di v e dello span di v
stesso.
In particolare, se V ha dimensione d allora nelle stesse ipotesi la dimensione del
complemento ortogonale dello span e’ la differenza della dimensione di V e di
quella dello span di v , quindi e’ d − 1 .
16.2.3 Funzione quadratica
Osservazione 16.2
Sia ϕ : V × V → K) un prodotto scalare e definiamo qϕ : V → K la funzione
quadratica associata a v , tale che qϕ (v) = ϕ(v, v) .
Ad esempio, presa la matrice
C=
0 1
1 0
e il prodotto scalare ad essa associato ϕC : R2 → R , accade che qϕ (e1 ) = et1 Ce1 =
qϕ (e2 ) = 0 , mentre qϕ (e1 + e2 ) = 2 e qϕ (e1 − e2 ) = −2 .
qϕ e’ un polinomio quadratico omogeneo su Rd .
In generale, se C e’ una qualsiasi matrice simmetrica su Md (R) e considero ϕC :
K d × K d → K , allora
ϕ(x, y) = xt Cy =
∑
cij ∗ xi ∗ yj
i
quindi
qϕ (x) = ϕ(x, x) =
∑
i
ed è un polinomio quadratico.
cij ∗ xi ∗ xj
Capitolo 16. Basi ortogonali
211 / 258
In generale qϕ (λ ∗ v) = ϕ(λ ∗ v, λ ∗ v) = λ2 ∗ ϕ(v, v) = λ2 ∗ qϕ (v) quindi qϕ si dice
forma quadratica associata al prodotto scalare.
16.2.4 Identita’ di polarizzazione
Se ϕ = 0 , cioe’ ϕ(v, w) = 0 per ogni scelta di v, w ∈ V , allora ϕ(v, v) = 0 per
ogni scelta di v e quindi qϕ = 0 .
Ci si chiede se vale anche viceversa e quindi se qϕ = 0 implica ϕ = 0 .
Consideriamo la seguente quantità:
ϕ(v + w, v + w) − ϕ(v, v) − ϕ(w, w) =
per la linearita’ sulla prima componente:
= ϕ(v, v + w) + ϕ(w, v + w) − ϕ(v, v) − ϕ(w, w) =
e per la linearita’ sulla seconda componente:
= ϕ(v, v) + ϕ(w, w) + ϕ(w, v) + ϕ(w, w) − ϕ(v, v) − ϕ(w, w)
= ϕ(w, v) + ϕ(w, v) = 2ϕ(v, w) per simmetria.
Abbiamo dimostrato il seguente lemma:
Lemma 16.2
Se ϕ : V × V → K e’ un prodotto scalare, allora per ogni v, w ∈ V si ha
ϕ(v, w) = 1/2 ∗ [qϕ (v + w) − qϕ (v) − qϕ (w)]identita’ di polarizzazione
Corollario 16.3
ϕ = 0 se e solo se qϕ = 0 .
Se ϕ : V × V → K e’ un prodotto scalare diverso da 0, cioe’ se esistono v, w ∈ V
tali che ϕ(v, w) ̸= 0 , allora esiste un v ∈ V tale che ϕ(v, v) ̸= 0 . In particolare,
Per tale v si ha allora
V = (span{v})⊥ + span{v}
(vale anche per spazi non finitodimensionali).
16.2.5 Dimostrazione del teorema enunciato
Ora possiamo dimostrare il teorema enunciato precedentemente sull’esistenza
della base ortogonale:
Dimostrazione 16.1
Capitolo 16. Basi ortogonali
212 / 258
Procediamo per induzione sulla dimensione di V , che chiamiamo d .
Se d = 1 , ogni base di V e’ ortogonale per ϕ (ogni matrice unita’ e’ una matrice
diagonale).
Sia allora d ≥ 2 e supponiamo vero l’asserto su tutti gli spazi vettoriali su K
di dimensione minore di d . Allora se ϕ : V × V → K e’ il prodotto scalare
identicamente nullo, ogni base e’ ancora ortogonale (ovviamente per ogni base B
di V la matrice di ϕ nella base e’ la matrice nulla ed e’ diagonale).
Possiamo quindi supporre che ϕ ̸= 0 , allora per l’osservazione 2 esiste v ∈ V tale
che qϕ (v) ̸= 0 , pertanto V = span{v} + (span{v})⊥ e (span{v})⊥ ha dimensione
d−1 .
Sia ϕ′ la restrizione di ϕ al complemento ortogonale dello span di v .
Anche la restrizione ϕ′ e’ bilineare e simmetrica, quindi e’ un prodotto scalare,
ma su uno spazio di dimensione inferiore. Per l’ipotesi induttiva esiste una base
bB = {v1 , . . . , vd−1 } per (span{v})⊥ che e’ ortogonale per ϕ′ , quindi ϕ′ (vi , vj ) ̸= 0
per i, j ∈ (1, . . . , d − 1) e i ̸= j .
Definiamo una nuova base B , data dalla sequenza ordinata v1 , . . . , vd−1 , vd dove
poniamo vd = v ( v e’ il vettore di partenza scelto con la proprieta’ che ϕ(v, v) ̸= 0
).
I vettori sono linearmente indipendenti, perche’ v non e’ combinazione lineare dei
precedenti e v1 , . . . , vd−1 sono una base quindi B e’ una base di V .
Per i = 1, . . . , d − 1 , ϕ(vi , vj ) = 0 per j = 1, . . . , d − 1 e si ha anche ϕ(vi , vd ) = 0
perche’ vi appartiene a (span{v})⊥ e vd = v per costruzione.
Concludo che questa e’ una base ortogonale, e quindi l’asserto vale.
cvd
16.3 Considerazioni generali
16.3.1 Span contenuto nello spazio nullo
Dati V e ϕ come sopra, sia B = {v1 , . . . , vd } una base di V ortogonale per ϕ , di
cui il teorema precedente garantisce l’esistenza; allora ϕ(vk , vl ) = 0 per k ̸= l, 1 <
k < l < d e quindi la matrice associata al prodotto scalare e’ la matrice diagonale
con entrate λ1 , . . . , λd con λk := ϕ(vk , vk ) .
ϕ e’ non degenere se e solo se la matrice associata e’ invertibile (il suo ker e’
0), quindi λ1 , . . . , λd ̸= 0 , perche’ il determinante della matrice, dato dalla
moltiplicazione dei λj , dev’essere diverso da 0.
Supponiamo che ϕ sia degenere allora λj = 0 per qualche j . Possiamo supporre
che λj = 0 se 1 < j < r e λj ̸= 0 se r + 1 < j < d (anche se riordino i vettori la
base e’ comunque ortogonale).
Osservazione 16.3
Sia v appartenente a span{v1 , . . . , vr } , allora esistono scalari tali che
Capitolo 16. Basi ortogonali
213 / 258
v=
r
∑
αj ∗ vj .
j=1
Per ogni k ∈ {1, . . . , d} abbiamo allora
r
∑
ϕ(v, vk ) = ϕ(
α j ∗ v j , vk )
j=1
Uso la linearita’:
ϕ(v, vk ) =
r
∑
αj ∗ ϕ(vj , vk )
j=1
Ma ϕ(vj , vk ) = 0 infatti se k ̸= j e’ uguale da 0 per definizione, mentre se k = j
e’ uguale a 0 per costruzione, perche’ j < r .
Ma se ϕ(vj , vk ) = 0∀j anche ϕ(v, vk ) = 0, ∀k = 1, . . . , d . Inoltre ogni vettore di V
può essere scritto come combinazione lineare dei vettori della base, cioè esistono
β1 , . . . , βd in K tali che
u=
d
∑
βk ∗ vk
k=1
quindi si può scrivere:
ϕ(v, u) =
d
∑
βk ∗ ϕ(v, vk )
k=1
ma ϕ(v, vk ) = 0 per quanto detto prima, quindi ϕ(v, u) = 0∀u cioè v appartiene
allo spazio nullo di V .
Concludiamo che span{v1 , . . . , vr } e’ contenuto nello spazio nullo di ϕ .
16.3.2 Spazio nullo contenuto nello span
Sia viceversa v un elemento dello spazio nullo del prodotto scalare. Allora esistono
β1 , . . . , βd tali per cui
v=
d
∑
βk ∗ vk
k=1
allora se r + 1 ≤ j ≤ d sappiamo che ϕ(v, vj ) = 0 perche’ v appartiene allo spazio
nullo del prodotto scalare.
Se uso la linearita’ sulla prima componente ottengo
Capitolo 16. Basi ortogonali
214 / 258
ϕ(v, vj ) =
d
∑
βk ∗ ϕ(vk , vj ) = 0
k=1
ma ϕ(vk , vj ) = 0 per ogni k ̸= j , rimane solo βj ∗ λj = 0 ma λj ̸= 0 per j ≥ r + 1
. Concludo che βj = 0 per j ≥ r + 1 e βj ̸= 0 per 1 < j < r .
Concludiamo che se v appartiene allo spazio nullo del prodotto scalare, allora
v = β1 ∗ v1 + · · · + βr ∗ vr
quindi v ∈ span{v1 , . . . , vr } .
Dalle due implicazioni segue che span{v1 , . . . , vr } e lo spazio nullo del prodotto
scalare coincidono.
Abbiamo quindi dimostrato il seguente:
Teorema 16.2
Sia V uno spazio vettoriale su K finitodimensionale, di dimensione d ≥ 1 . Sia
ϕ : V × V → K un prodotto scalare e sia B = {v1 , . . . , vd } una base ortogonale
per ϕ , cioe’ ϕ(vk , vl ) ̸= 0∀k ̸= l .
Allora
1. ϕ e’ non degenere se e solo se ϕ(vk , vk ) ̸= 0 per ogni k ∈ {1, . . . , l} ;
2. se ϕ e’ degenere (cioe’ se lo spazio nullo e’ diverso da 0 e quindi se ϕ(vk , vk ) =
0 per almeno un k) allora lo spazio nullo e’ lo span dei vj che corrispondono
alle entrate diagonali uguali a 0, cioe’ e’ lo span dei vj tali che ϕ(vj , vj ) = 0
16.3.3 Caso particolare K= C
Nelle ipotesi precedenti ( ϕ prodotto scalare, B = {v1 , . . . , vd } base di V ortogonale per ϕ ), supponiamo che ϕ(vj , vj ) = 0 per j = 1, . . . , r e ϕ(vj , vj ) ̸= 0 se
r+1≤j ≤d .
Allora definisco una nuova sequenza di vettori B′ = {v1′ , . . . , vd′ } come segue:
{
vj′ =
vj
1
ηj
∗ vj
se j = 1, . . . , r
se j = r + 1, . . . , d
ove (ηj )2 = λj = ϕ(vj , vj ) .
Si noti che è possibile fare quest’operazione solo se K = C perché C è l’unico
campo in cui ogni elemento ha una radice e in cui si è certi dell’esistenza di ηj .
Si noti che i vj′ sono ancora una base ortogonale, perche’ rimangono linearmente
indipendenti e ortogonali tra loro.
Se k ≤ r allora ϕ(vk′ , vk′ ) = 0 . Invece, se k = r + 1, . . . , d , si ha
Capitolo 16. Basi ortogonali
215 / 258
ϕ(vk′ , vk′ ) =
1
1
∗ ϕ(vk , vk ) =
∗ λk = 1
2
(ηk )
(ηk )2
Teorema 16.3
Se V e’ uno spazio vettoriale su C di dimensione finita d e se ϕ : V × V → C
e’ è un prodotto scalare, allora esiste una base B di V ortogonale per ϕ tale che
ϕ(vk , vk ) ∈ {0, 1} per ogni k = 1, . . . , d (cioe’ le entrate diagonali sono uguali a 0
o a 1).
Quindi se C e’ una matrice complessa, simmetrica d×d , allora esiste una matrice
A d×d invertibile tale che At CA e’ la matrice con tutte le entrate diagonali uguali
a 1.
In generale, se C ha rango s ≤ d , allora esiste A invertibile d × d tale che At CA
e’ una
16.4 Teorema di Sylvester
Teorema 16.4
Sia V uno spazio vettoriale di dimensione d finita. Sia ϕ : V × V → R un prodotto
scalare. Allora esistono interi z(ϕ), p(ϕ) ≥ 0 con la seguente proprieta’: per ogni
scelta di una base B = {v1 , . . . , vd } di V ortogonale per ϕ , si ha
p(ϕ) = #{j t.c. ϕ(vj , vj ) > 0}
z(ϕ) = #{j t.c. ϕ(vj , vj ) = 0}.
(il simbolo # significa “il numero di”)
In forma sintetica: prese due basi ortogonali B e B ′ , se calcolo le matrici rispetto
alle basi, il numero di entrate positive e’ lo stesso in entrambe le matrici.
16.4.1 Indici di nullita’ positivita’ e negativita’
z(ϕ) e p(ϕ) sono invarianti del prodotto scalare, non dipendono cioe’ dalla particolare base ortogonale B scelta.
Definizione 16.2
z(ϕ) si definisce indice di nullita’ di ϕ ed e’ la dimensione dello spazio nullo (ed
è quindi invariante per il prodotto scalare). p(ϕ) si chiama indice di positivita di
ϕ . La differenza d − p(ϕ) − z(ϕ) e’ il numero di j per cui ϕ(vj , vj ) < 0 e
si chiama indice di negativita di ϕ .
ϕ e’ non degenere se e solo se z(ϕ) = 0 e quindi se e solo se d = p(ϕ) + n(ϕ) .
Teorema 16.5
Capitolo 16. Basi ortogonali
216 / 258
ϕ e’ definito positivo se e solo se d = p(ϕ) .
Dimostrazione 16.2
Supponiamo vero il teorema di Sylvester.
1 −→ 2 : Sia ϕ definito positivo e sia B = {v1 , . . . , vd } una base ortogonale per ϕ
. Allora MB (ϕ) e’ una matrice con entrate diagonali λj > 0 , quindi il numero di
entrate positive e’ uguale a d .
2 −→ 1 : Viceversa, sia p(ϕ) = d e sia B una base ortogonale per ϕ .
Allora MB ha entrate diagonali tutte positive.
∑
Sia v = di=1 xi ∗ vj , allora possiamo scrivere
d
d
∑
∑
ϕ(u, v) = ϕ(
xk ∗ vk ,
x l ∗ vl )
k=1
l=1
allora
ϕ(v, u) =
d
∑
xk ∗ xl ∗ ϕ(vk , vl )
k,l=1
La base e’ ortogonale e sopravvivono solo i termini con k = l , quindi rimane
ϕ(u, v) =
d
∑
(xk )2 ∗ ϕ(vk , vk ) =
∑
(xk )2 ∗ λk .
k
k=1
Se λ = minj λj , esso e’ positivo perche’ tutti i λj lo sono, quindi, se v ̸= 0 ,
ϕ(v, v) ≥ λ
d
∑
x2k ≥ 0,
k=1
quindi ϕ e’ definito positivo.
cvd
16.4.2 Dimostrazione del teorema di Sylvester
Possiamo ora dimostrare il teorema di Sylvester enunciato precedentemente:
Dimostrazione 16.3
Siano B1 = {v1 , . . . , vd } e Bw = {w1 , . . . , wd } basi di V ortogonali per ϕ .
Siano z1 = #{j t.c. ϕ(vj , vj ) = 0} e z2 = #{j t.c. ϕ(wj , ej ) = 0} .
Sappiamo che lo spazio nullo è lo span dei vj tali che ϕ(vj , vj ) = 0 ma è anche lo
span dei wj tali che ϕ(wj , wj ) = 0 .
Presi in qualche ordine, gli insiemi di generatori sono basi del medesimo sottospazio vettoriale di V e quindi ricaviamo che z1 = z2 perché entrambi sono uguali
Capitolo 16. Basi ortogonali
217 / 258
alla dimensione dello spazio nullo.
Siano ora p1 = {j t.c. ϕ(vj , vj ) > 0} e p2 = {j t.c. ϕ(wj , wj ) > 0} . Dobbiamo
dimostrare che p1 = p2 .
Dopo aver eventualmente riordinato le basi B1 e B2 possiamo supporre senza
perdita di generalità che B1 = {v1 , . . . , vz , v1′ , . . . , vp′ 1 , v1′′ , . . . , vn′′1 } , dove n1 =
d − (z + p1 ) , dove i vettori del primo gruppo hanno prodotto scalare nullo con
sé stessi, quelli del secondo gruppo hanno prodotto scalare positivo con sé stessi
e quelli del terzo hanno prodotto scalare con sé stessi negativo.
Analogamente, supponiamo che B2 = {w1 , . . . , wz , w1′ , . . . , wp′ 2 , w1′′ , . . . , wn′′2 } .
Supponiamo per assurdo che z +p1 > z +p2 . Allora concludo necessariamente che
n2 = d−(z+p2 ) > n1 . Se considero la stringa di vettori v1 , . . . , vz , v1′ , . . . , vp′ 1 , w1′′ , . . . , wn′′2
il loro numero è z + p1 + n1 > z + p2 + n2 = d .
Siccome abbiamo più di d vettori in uno spazio di dimensione d , allora tali vettori
sono linearmente dipendenti ed esistono scalari α1 , . . . , αz , β1 , . . . , βp2 , γ1 , . . . , γn2
non tutti nulli tali per cui
z
∑
αj ∗ v j +
j=1
p1
∑
αj ∗ vj′ +
j=1
n2
∑
γj ∗ wj′′ = 0V , relazione ∗
j=1
Quindi portando i wj′′ si ricava
z
∑
αj ∗ vj +
j=1
p1
∑
αj ∗
vj′
=−
j=1
n2
∑
αj ∗ wj′′
j=1
Chiamo R il vettore che compare a primo e a secondo membro e si ha R ̸= 0 .
Calcoliamo ϕ(R, R) in due modi. Da un lato si ha
ϕ(R, R) = ϕ{
z
∑
α1 ∗ vj +
j=1
p1
∑
βi ∗ vi ,
i=1
z
∑
αk ∗ v k +
k=1
p1
∑
βl ∗ vl′ }
l=1
uso la linearità:
ϕ(R, R) =
z ∑
z
∑
αj ∗ ak ∗ ϕ(vj , vk )
j=1 k=1
+
p1
z ∑
∑
aj ∗ bl ∗ ϕ(vj , vl′ )
j=1 l=1
+
p1 ∑
z
∑
ak ∗ bi ∗ ϕ(vi′ , vk )
i=1 k=1
+
p1 ∑
p1
∑
bi ∗ al ϕ(vl′ , vi′ )
l=1 i=1
I termini del primo addendo scompaiono perché sto considerando vettori che
hanno prodotto scalare nullo anche con sé stessi; i termini del secondo e terzo
Capitolo 16. Basi ortogonali
218 / 258
addendo scompaiono perché considero prodotti scalari di vettori appartenenti a
gruppi diversi; nell’ultimo addendo sopravvive il termine con i = l quindi si ha
ϕ(R, R) =
p1
∑
(βi )2 ∗ ϕ(vi′ , vi′ )
i=1
allora ϕ(R, R) ≥ 0 ed e’ uguale a 0 se e solo se βi = 0 , per ogni i = 1, . . . , p1 .
∑ 2
Usando invece l’espressione R = − nj=1
γj ∗ wj′′ ricaviamo
n2
∑
ϕ(R, R) = ϕ(−
γj ∗ wj′′ , −
j=1
n2
∑
γl ∗ wl′′ )
l=1
uso la bilinearità e ottengo
=
n2
∑
γj ∗ γl ∗ ϕ(wj′′ , wl′′ )
j,l=1
La base di W è ortogonale, quindi:
n2
∑
ϕ(R, R) =
(γj )2 ∗ ϕ(wj′′ , wj′′ ) < 0
j=1
perché sto considerando vettori appartenenti al gruppo di quelli che hanno prodotto scalare negativo con se stessi. Si ha ϕ(R, R) = 0 se e solo se γj = 0 per ogni
j = 1, . . . , n2 .
Allora ϕ(R, R) ≥ 0 nel primo caso, ϕ(R, R) ≤ 0 nel secondo caso e si conclude
che ϕ(R, R) = 0 e quindi γj = 0 per ogni j = 1, . .∑
. , n2 , allora R stesso è uguale
2
γj ∗ wj e’ il vettore nullo.
a 0 se considero la seconda espressione, quindi − nj=1
Allora, tornando alla relazione ∗ , ricaviamo che
z
∑
αj ∗ v j +
j=1
p2
∑
βj ∗ vj′ = 0
j=1
ma siccome questi vettori sono linearmente indipendenti, essendo parte di una
base, tutti gli scalari sono nulli. Questo è assurdo, perché avevamo supposto che
qualche scalare fosse diverso da 0.
L’unico modo per evitare l’assurdo è supporre che p1 non possa essere maggiore
di p2 , quindi p1 ≤ p2 e scambiando i ruoli delle basi, p2 ≤ p1 per un ragionamento
analogo e quindi p1 = p2 per ogni scelta di basi di V ortogonali.
cvd
Esempio 16.2
Sia ϕ(x, y) = xt ∗ A ∗ y e definisco
A=
0 1
1 0
Capitolo 16. Basi ortogonali
219 / 258
Trovare z(ϕ) e p(ϕ)
Z(ϕ) e’ la dimensione dello spazio nullo, e quindi del ker di A che in questo caso
è 0.
Se p(ϕ) fosse 2, il prodotto scalare sarebbe definito positivo e questo non avviene,
perché le entrate sulla diagonale sono uguali a 0. Se p(ϕ) fosse 0, il prodotto
sarebbe definito negativo, ma questo non avviene: infatti considero la base di R2
ortogonale per ϕ data da {e1 + e2 , e1 − e2 } : la matrice che rappresenta ϕ in
questa base, ovvero la matrice con entrate ai,j = ϕ(vi , vj ) , è
2 0
0 −2
che ha un’entrata positiva sulla diagonale. Allora il prodotto scalare non è definito
negativo e p(ϕ) = 1 .
Esempio 16.3
Considero la matrice
1 1
1 1
z(ϕ) = 1 perché la dimensione del nucleo della matrice è 1.
p(ϕ) può essere 0 o 1. Se fosse 0, il prodotto sarebbe semidefinito negativo. Questo
non può avvenire, perché ad esempio ϕ(e1 , e1 ) = 0 . Allora necessariamente p(ϕ) =
1.
Definizione 16.3
Un prodotto scalare ϕ : V × V → R sullo spazio vettoriale reale si dice positivo
semidefinito se ϕ(v, v) ≥ 0 per ogni v ∈ V .
Analogamente, ϕ è negativo semidefinito se ϕ(v, v) ≤ 0 per ogni v ∈ V .
16.5 Complemento ortogonale
Definizione 16.4
Sia ϕ : V × V → K un prodotto scalare e sia W un sottospazio vettoriale di V .
Un complemento ortogonale di W rispetto a ϕ indicato con (W ⊥)ϕ è l’insieme
dei v ∈ V tali che ϕ(w, v) = 0 per ogni w ∈ W .
Il complemento ortogonale è un sottospazio vettoriale.
16.5.1 Dimensione del complemento ortogonale
Ci si chiede quale sia la dimensione del complemento ortogonale.
Sia W lo spazio nullo, cioè
Capitolo 16. Basi ortogonali
220 / 258
W = {v ′ t.c. ϕ(v, v ′ ) = 0∀v ∈ V }.
Allora W ⊥ = {v ∈ V t.c.ϕ(v, v ′ ) = 0, ∀v ′ ∈ W } e coincide con V .
Allora non è vero che la dimensione del complemento ortogonale di W è la
differenza delle dimensioni di V e di W .
Se ϕ : V × V → R è non nullo e prendiamo un vettore di V tale che ϕ(v, v) ̸= 0
, allora span{v}⊥ ha dimensione dimV − 1 perché V è somma diretta dello span
di V e del complemento dello span, anche se ϕ è non degenere.
Teorema 16.6
Se ϕ è non degenere e V ha dimensione finita d , allora per ogni spazio vettoriale
W di V si ha che dimW ⊥ = dimV − dimW .
16.6 L’applicazione Lv
Definizione 16.5
Per ogni v ∈ V consideriamo la funzione parziale Lv := ϕ(x, v) : V → K .
Per ogni u1 , u2 ∈ V e λ1 , λ2 ∈ K , si ha
Lv (λ1 ∗ u1 + λ2 ∗ u2 ) = ϕ(λ1 ∗ u1 + λ2 ∗ u2 , v) =
λ1 ∗ ϕ(u1 , v) + λ2 ∗ ϕ(u2 , v) = λ1 ∗ Lv (u1 ) + λ2 ∗ Lv (u2 )
.
Questo significa che Lv : V → K è lineare, ossia Lv è un elemento dello spazio
duale, quindi esiste un’applicazione L : V → V ∗ che manda v in Lv .
Lemma 16.3
L è lineare, pertanto appartiene allo spazio degli omomorfismi da V in V ∗ .
Dimostrazione 16.4
Per ogni v1 , v2 , u ∈ V e per ogni λ1 , λ2 ∈ K si ha
Lλ1 ∗v1 +λ2 ∗v2 (u) = λ1 ∗ϕ(v1 , u)+λ2 (ϕ(v2 , u)) = λ1 ∗Lv1 (u)+λ2 ∗Lv2 (u) = (λ1 ∗Lv1 +λ2 ∗Lv2 )(u)
quindi L(λ1 ∗ v1 + λ2 ∗ v2 ) = λ1 ∗ L(v1 ) + λ2 ∗ L(v2 ) .
cvd
16.6.1 Matrice di L
Fissiamo una base B = {v1 , . . . , vd } di V e sia C la matrice di ϕ rispetto a questa
base, tale che Cij = ϕ(vi , vj ) con j = 1, . . . , d . Considero poi la base duale
Capitolo 16. Basi ortogonali
221 / 258
B∗ = {v1∗ , . . . , v2∗ } che è la base di V ∗ duale a B , cioè tale che vi∗ (vj ) = δij .
Ci si chiede che forma ha la matrice A da B a B∗ dell’applicazione L .
La matrice A è una matrice d × d ed è tale che Aj è la colonna delle coordinate
di Lvj nella base B ∗ .
Ma per ogni f in V ∗ la colonna delle coordinate di f (v) nella base B ∗ è data da
f (v1 ), f (v2 ), . . . f (vd ) , allora
Aj = (Lvj (v1 ), . . . , Lvj (vd )) = (ϕ(vj , v1 ), . . . , ϕ(vj , vd )).
Ma ϕ(v1 , vj ) = c1j , allora Aj è uguale alla j-esima colonna di C e le due matrici
coincidono.
Concludiamo che la matrice che rappresenta L rispetto alle basi B e B ∗ coincide
con la matrice C del prodotto scalare ϕ nella base B .
In particolare ϕ è non degenere se e solo se C è invertibile, e quindi se e solo se L
è un isomorfismo di spazi vettoriali, pertanto un prodotto scalare non degenere
definisce un isomorfismo tra V e V ∗ .
16.6.2 Dimostrazione del teorema sul complemento ortogonale
Osservazione 16.4
Sia W un sottospazio vettoriale di V . Se v ∈ V , allora v ∈ W ⊥ se e solo se
ϕ(w, v) = 0 ∀w ∈ W . Allora Lv (w) = 0∀w ∈ W . Quindi v ∈ W ⊥ se e solo
se Lv appartiene all’annullatore di W , che è un sottospazio vettoriale del duale.
Allora il complemento ortogonale di W mediante ϕ è la controimmagine di L (che
dipende da ϕ ) del sottospazio annullatore di W . (questo è sempre vero, anche
se ϕ è degenere).
Se ora suppongo che ϕ sia non degenere, L è un isomorfismo e quindi per ogni
sottospazio vettoriale la dimensione del complemento ortogonale è uguale alla
dimensione della controimmagine di W e quindi alla differenza dimV − dimW .
Corollario 16.4
Sia K = R e sia (V, ϕ) uno spazio vettoriale euclideo finitodimensionale, cioè
ϕ : V × V → R è un prodotto scalare definito positivo. Allora per ogni W in V
sottospazio vettoriale si ha che V è la somma diretta di W e del complemento
ortogonale mediante ϕ (somma diretta ortogonale).
Dimostrazione 16.5
Se v ∈ W ∩ W ⊥ si ha ϕ(v, v) ≥ 0 , perché v ∈ W e per le proprietà di ϕ e
ϕ(v, v) = 0 perché v ∈ W ⊥ . ϕ è definito positivo, quindi (|v|)ϕ ≥ 0 ed è uguale
a 0 solo se v è il vettore nullo.
Quindi l’intersezione tra i due spazi è il vettore nullo.
cvd
Capitolo 16. Basi ortogonali
222 / 258
16.7 criterio dei minori incapsulati
Prima di tutto enunciamo un criterio utile per determinare se un prodotto scalare
è definito positivo oppure no.
Proposizione 16.1
Sia ϕ : Rd × Rd → R un prodotto scalare e considero la matrice C che lo
rappresenta rispetto ad una base. Allora:
Caso 1 d = 2 . Valgono le seguenti affermazioni:
1. se c11 > 0 ma det C < 0 , ϕ è definito negativo;
2. se c11 > 0 e det C > 0 ϕ è definito positivo.
Caso 2 d = 3 . Valgono le seguenti affermazioni:
1. se c11 > 0 e det C > 0 , ma il determinante della sottomatrice 2 × 2 in alto
a sinistra è negativo, ϕ è definito negativo;
2. se c11 > 0 e det C > 0 e anche il determinante della sottomatrice 2 × 2 in
alto a sinistra è positivo, allora ϕ è definito positivo.
Esempio 16.4
Sia C la matrice
1 2
2 1
e considero ϕ = ϕC : K 2 × K 2 → K stabilire per quali v ∈ K 2 si ha K 2 =
span{v} + span{v}⊥ .
Questo è vero se e solo se ϕ(v, v) ̸= 0 .
Se v = (x, y) , allora ϕ((x, y), (x, y)) = x2 + 2xy + 2yx + y 2 = (x + y)2 + 2(xy)
quindi basta imporre (x + y)2 + 2xy ̸= 0 .
Esempio 16.5
Parte 1: Sia
1 1 1
C= 1 0 2
1 2 0
Questa matrice è simmetrica e definisce un prodotto scalare ϕ : K 3 × K 3 → K .
Stabilire se ϕ è degenere e trovare lo spazio nullo.
Calcolo il rango della matrice facendo l’eliminazione gaussiana:
Capitolo 16. Basi ortogonali
223 / 258
1 1 1
1 0 2
1 2 0
1 1
1
0 −1 1
0 1 −1
1 1 1
0 −1 1
0 0 0
1 0 2
0 1 −1
0 0 0
rg = 2 , ϕ è degenere e la dimensione dello spazio nullo è la dimensione del nucleo
di C e quindi è 1.
z=α
y−z =0
z=α
y=α
x + 2z = 0
x = −2α
ker C = {(x, y, z) ∈ R t.c. y = z, y = −2z}
3
e quindi lo spazio nullo è lo span di (−2, 1, 1) .
Parte 2: Diciamo W = {(x, y, z) t.c.x − 2y + az = 0} dove a è un parametro.
Stabilire per quali a ∈ K la restrizione di ϕ a W è non degenere.
Il prodotto globale è degenere, ma la sua restrizione a W potrebbe essere non
degenere. Scrivo le equazioni parametriche di W :
x − 2y + az = 0
y = t, z = s, x = 2t − as
Allora W = span{(2, 1, 0) (−a, 0, 1)} .
Una base di W è B = {(2, 1, 0), (−a, 0, 1)} .
Allora chiamo ϕW la restrizione di ϕ a W .
Prendo C ′ la matrice rispetto alla base Bw di ϕw .
c′1,1 = ϕ(v1 , v1 ) = (2, 1, 0)t ∗ C ∗ (2, 1, 0) = (3, 2, 4) ∗ (2, 1, 0) = 8
c′2,1 = ϕ(v2 , v1 ) = (−a, 0, 1)t ∗C∗(2, 1, 0) = (−a+1, −a+2, −a)∗(2, 1, 0) = −2a+2−a+2 = −3a+4
c′2,2 = (−a, 0, 1)t ∗C∗(−a, 0, 1) = (−a+1, −a+2, −a)∗(−a, 0, 1) = a2 −a−a = a2 −2a
Allora la matrice C ′ è
8
−3a + 4
4 − 3a a2 − 2a
Capitolo 16. Basi ortogonali
224 / 258
Segue che W è non degenere se e solo se det C ′ ̸= 0 quindi se e solo se
8 ∗ (a2 − 2a) − (4 − 3a)2 = 8a2 − 16a − 16 − 9a2 + 24a = −a2 + 8a − 16 ̸= 0
a2 − 8a + 16 = (a − 4)2 ̸= 0
Il prodotto è non degenere se e solo se a ̸= 4
Parte 3: Se k = R , trovare z(ϕ) , p(ϕ) al variare di a ∈ R .
Se a = 4 , otteniamo la matrice
C=
8 −8
−8 8
C=8
1 −1
−1 1
z(ϕ) è la dimensione dello spazio nullo, quindi è la dimensione del nucleo della
matrice (1).
Invece p(ϕ) può essere 0 o 1. Se fosse 0, in una base diagonale dovrei avere
un’entrata negativa e una nulla, ma in questo modo il prodotto scalare sarebbe
semidefinito negativo ma questo non può accadere, perché .ì ϕ(e1 , e1 ) = 8 . Allora
p(ϕ) = 1 e ϕ è semidefinito positivo non degenere.
Se a ̸= 4 , allora il determinante di C ′ è −(a − 4)2 ed è negativo e il criterio dei
minori incapsulati non è soddisfatto, quindi il prodotto non è definito positivo.
Se avessi entrambe le entrate negative, il prodotto scalare sarebbe negativo definito e questo non può essere. Allora in questo caso z(ϕ) = 0 e p(ϕ) = 1
.
Capitolo 17. Autovalori e autovettori
225 / 258
Capitolo 17
Autovalori e autovettori
17.1 Introduzione
17.1.1 Applicazioni lineari
Sia V uno spazio vettoriale sul campo K . Sia f : V → V un’applicazione lineare
e supponiamo di avere una base B1 di V con la proprietà che la matrice che
rappresenta f rispetto a questa base è una matrice diagonale.
Siano λi ∈ K , per i = 1, . . . , n le entrate diagonali di MBB .
Quindi
f (v1 ) = λ1 ∗ v1 + 0 ∗ v2 + 0 ∗ v3 + · · · = λ1 ∗ v1
f (v2 ) = 0 ∗ v1 + λ2 ∗ v2 + 0 ∗ v3 + · · · = λ2 ∗ v2
··· = ......
f (vd ) = · · · = λd ∗ vd
Se v = x1 ∗ v1 + · · · + xd ∗ vd allora
f (v) = x1 ∗ f (v1 ) + · · · + xd ∗ f (vd ) = x1 ∗ λ1 ∗ v1 + · · · + xd ∗ λd ∗ vd
Allora f (v) = 0 se e solo se xj ∗ λj = 0, ∀j = 1, . . . , d e quindi se e solo se
xj = 0, ∀j = 1, . . . , d t.c.λj ̸= 0 , quindi se e solo se v appartiene allo span dei
vj tali per cui λj = 0 (e quindi gli unici vj che contribuiscono alla combinazione
lineare sono quelli con λj = 0 perché per gli altri xj = 0 ).
Il nucleo di f è lo span dei vettori con λj = 0
Invece Imf = {x1 ∗ λ1 ∗ v1 + · · · + xd ∗ λd ∗ vd : xi , λi ∈ R} , è lo span di λ1 ∗v1 , . . . , λd ∗
vd e quindi lo span di f (v1 ), . . . , f (vd ) .
Quindi è lo span dei vj tali che λj ̸= 0 .
Esercizio 17.1
Se considero la matrice A in M4 (R) tale che A = diag(1, 0, −5/2, 0) , allora
ker f = span{v2 , v4 } . Invece Imf = span{v1 , v3 } .
Capitolo 17. Autovalori e autovettori
226 / 258
Sotto le ipotesi MBB (f ) diagonale si ricava che V è la somma diretta di nucleo e
immagine.
Questo non vale in generale.
Il fatto che i due spazi sono in somma diretta non vale per ogni applicazione
lineare, ma solo nelle ipotesi precedenti. Se infatti considero LA = AX con
A=
0 1
0 0
allora l’immagine di lA e’ lo span dei vettori corrispondenti ai gradini, e quindi è
span{e1 } . Anche il ker è lo span di e1 , quindi R2 non può essere somma diretta
di questi due sottospazi.
Non esiste C ∈ M2 (R) invertibile tale che C −1 ∗ AC è diagonale.
Le applicazioni lineari rappresentabili in qualche base da matrici diagonali sono
particolarmente semplici da esaminare.
17.1.2 Prodotti scalari
Un discorso analogo vale per i prodotti scalari. Sia ϕ : V × V → K un prodotto
scalare e sia B una base ortogonale per ϕ allora la matrice del prodotto scalare
nella base B ha entrate λ1 , . . . , λd e lo spazio nullo è lo span dei vj tali che λj = 0
.
C’è una differenza tra prodotti scalari e applicazioni lineari. Qualsiasi prodotto
scalare ammette una base ortogonale e quindi si può sempre trovare una base
ortogonale per cui il prodotto può essere rappresentato da una matrice diagonale.
Questo non vale sempre per le applicazioni.
17.2 Concetti principali
17.2.1 Autovalori
Definizione 17.1
Sia V uno spazio vettoriale su K . Sia f : V → V lineare. Un autovalore di f è
uno scalare λk tale che esiste un vettore v ∈ V con v ̸= 0 per il quale f (v) = λ ∗ v
.
λ è un autovalore di f se e solo se esiste v ∈ V non nullo, con f (v) − λ ∗ v = 0 e
quindi se e solo se esiste v ∈ V \ {0V } con f (v) − λ ∗ id(v) = 0 , quindi se e solo
se ker[f − λ ∗ id] ̸= 0
17.2.2 Autovettori
Definizione 17.2
Capitolo 17. Autovalori e autovettori
227 / 258
Sia f : V → V lineare e sia λ ∈ K un autovalore di f . Un autovettore di f
relativo all’autovalore λ è un vettore v ∈ V con v ̸= 0 tale che f (v) = λ ∗ v , ossia
v ∈ ker(f − λ ∗ id) privato del vettore nullo.
Osservazione 17.1
Se B = {v1 , . . . , vd } è una base di V e la matrice di f è la matrice diagonale con
entrate λ1 , . . . , λd , allora f (vj ) = λj ∗vj , ∀j = 1, . . . , d , e vj ̸= 0 essendo elementi
di una base, allora λ1 , . . . , λd sono autovalori di f e per ogni j vj è autovettore di
f relativo a λj .
Esempio 17.1
Se prendo LA : R2 → R2 con righe
A=
0 1
0 0
allora
LA (e1 ) = 0R2 = 0 ∗ e1
cioè 0 è autovalore di LA e e1 è autovettore di LA relativo all’autovalore 0.
17.2.3 Applicazione diagonalizzabile
Definizione 17.3
Sia f : V → V lineare e sia V finitodimensionale. Diremo che f è diagonalizzabile
se e solo se esiste una base B = {v1 , . . . , vd } di V composta da autovettori di f .
Osservazione 17.2
Se v ∈ V , v ̸= 0 è autovettore di f, allora lo è rispetto a un unico autovalore.
Se infatti v fosse autovettore di f relativo a λ e η , avremo f (v) = λ ∗ v = η ∗ v
, allora λ ∗ v − η ∗ v = 0 e quindi per distributività (λ − η) ∗ v = 0 ma siccome
v ̸= 0 questo implica che λ = η .
Lemma 17.1
Sia d = dimV , f : V → V lineare e sia B = {v1 , . . . , vd } una base di V . Allora
le seguenti condizioni sono equivalenti:
1. B è composta solo da autovettori di f , cioè ogni vj è autovettore di f ;
2. la matrice di f rispetto a questa base è una matrice diagonale.
Dimostrazione 17.1
Capitolo 17. Autovalori e autovettori
228 / 258
2 → 1 , infatti se MBB (f ) è diagonale, allora la colonna delle coordinate di f (vj ) =
(0, . . . , λj , . . . , 0) e quindi f (vj ) = 0 ∗ v1 + 0 ∗ v2 + · · · + λj ∗ vj + · · · + 0 ∗ vd = λj ∗ vj
quindi la base è composta solo da autovettori.
Quindi vj è autovettore relativo a λj .
Viceversa se suppongo che vj è un autovettore di f relativo a qualche autovalore λj univocamente determinato, allora f (vj ) = λj ∗ vj quindi la colonna delle
coordinate di f (vj ) nella base B è (0, . . . , 0, λj , 0, . . . , 0) . Quindi la matrice è
diagonale.
cvd
17.2.4 Matrice diagonalizzabile
Definizione 17.4
Una matrice dxd si dice diagonalizzabile se è simile a una matrice B diagonale,
ossia se esiste A dxd invertibile tale che A−1 BA è diagonale.
17.3 Relazione tra matrici e applicazioni diagonalizzabili
Tra le due definizioni di diagonalizzabilità valgono le seguenti relazioni:
Dimostrazione 17.2
1. sia f : V → V diagonalizzabile e sia B una base qualsiasi di V . Allora la matrice rispetto a questa base non è necessariamente diagonale.Per
ipotesi esiste D base di V composta da autovettori di f , ossia tale che
la matrice di f rispetto a questa base è una matrice diagonale.Sappiamo
che (MBD id(v))−1 ∗ MBB f ∗ MBD id(v) = MDD (f ) allora MBB (f ) è simile a
una matrice diagonale. Pertanto f diagonalizzabile implica che MBB (f ) è
diagonalizzabile nel senso delle matrici, per qualsiasi base B .
2. Supponiamo viceversa che MBB (f ) sia diagonalizzabile, cioè sia simile a una
matrice diagonale. Allora esiste B invertibile dxd tale che B −1 ∗MBB (f )∗B =
j
D con D matrice diagonale con
∑d entrate λ1 , . . . , λdj .Diciamo B la j-esima
colonna di B e diciamo wj = i=1 bij ∗vi , allora B = MB (wj ) . B coincide
′
con la matrice del cambiamento di base MBB id(V ) dove B′ = {w1 , . . . , wd }
.Allora la matrice che rappresenta f rispetto a B ′ è data da
′
′
(MBB id)−1 ∗ MBB f ∗ MBB id(v) = B −1 ∗ MBB (f ) ∗ B = Dmatrice diagonale
Quindi nella base B ′ f è rappresentata da una matrice diagonale, allora B ′
è una base di V costituita da autovettori di f , cioè f (wj ) = wj ∗ λj e f è
diagonalizzabile.cvd
Riassumendo: abbiamo dimostrato
Capitolo 17. Autovalori e autovettori
229 / 258
Teorema 17.1
Sia d < ∞ la dimensione di V e sia f : V → V lineare allora le seguenti condizioni
sono equivalenti:
1. f è diagonalizzabile nel senso delle applicazioni lineari;
2. per ogni B base di V , la matrice MBB di f è diagonalizzabile nel senso delle
matrici
3. esiste B base di V tale che la matrice MBB (f ) sia diagonale.
17.4 Autovalori di un endomorfismo
Ci si pone il problema di trovare autovalori e autovettori di un dato f endomorfismo di V .
Sia f : V → V lineare, allora λk è autovalore di f se e solo se il nucleo di
f − λ ∗ id(v) è diverso dallo spazio nullo, cioè se e solo se f − λ ∗ id(v) non è un
isomorfismo.
Prendo una qualsiasi base B = {v1 , . . . , vd } di V . Sia A la matrice di f in questa
base. Allora la matrice nella base B di f − λ ∗ id(v) è MBB (f ) − λ ∗ MBB id(v) che
equivale a A − λ ∗ id(v) .
λ ∈ K è un autovalore di f se e solo se la matrice A − λ ∗ id(v) non è invertibile
e quindi se e solo se det[A − λ ∗ id(v)] = 0 .
Osservazione 17.3
′
Siano B e B ′ basi di V , e siano A = MBB (f ) e A′ = MBB′ f . Se chiamo R = MBB′ (id)
so che è invertibile e che vale la relazione A′ = R−1 ∗ A ∗ R .
Per ogni λ ∈ K , si ha (A′ − λ ∗ id(v)) = R−1 ∗ (A − λ ∗ id(v)) ∗ R allora
det(λ ∗ id − A′ ) = det(R−1 ∗ (λ ∗ id(v) − A) ∗ R) = det(λid − A)
dove l’ultimo passaggio vale perché Matrici simili hanno lo stesso determinante.
In conclusione, la funzione che porta λ ∈ K nel determinante di λ ∗ id − A ,
con A = MBB (f ) , dipende solo da f e non dalla base B scelta quindi la chiamo
df : K → K .
Se d = 1 , allora df (λ) = λ − a , la matrice è un numero.
Caso particolare: Se d = 2 , e f (x) = AX , supponiamo che la matrice di f nella
base B sia
a11 a12
a21 a22
allora
Capitolo 17. Autovalori e autovettori
λ ∗ id − A =
230 / 258
λ 0
a
a
− 11 12
0 λ
a21 a22
quindi
λ ∗ id − A =
λ − a11
a12
a21
λ − a22
det(λ∗id−A) = ad−bc = (λ−a11 )∗(λ−a22 )−a12 ∗a21 = λ2 −λ∗a11 −λ∗a22 +a11 ∗a22 −a21 ∗a12 = λ2 −λ∗tr
17.4.1 Polinomio caratteristico
In generale, il determinante di λ ∗ id − A , se A è una matrice dxd è un polinomio
monico (di grado 1) in λ della forma
det(λ ∗ id − A)) = λd − tr ∗ λd−1 + · · · + (−1)d ∗ det A
o equivalentemente è dove i dj sono invarianti per similitudine, perché la loro
espressioni non cambia per matrici simili, ovvero dj (A) = dj (A′ ) se A e A′ sono
simili. In forma sintetica
det(λ ∗ id − A) =
d
∑
λd−j ∗ dj (A),
j=0
dove d0 (A) = 1 , d1 (A) = −trA , dd (A) = (−1)n ∗ det A (i termini in mezzo sono
più complicati da scrivere)
Definizione 17.5
Il polinomio caratteristico di una matrice A dxd è il polinomio monico di grado
d tale che pA (x) = det(x ∗ id − A) .
Se f : V → V è lineare e dimV = d , il polinomio caratteristico di f è pf (x) =
det[x ∗ id − MBB f ] per una qualsiasi scelta di base B di V . E’ il polinoio caratteristico della matrice che rappresenta l’applicazione lineare in una qualsiasi
base.
Allora gli autovalori di f sono tutti e soli le radici del polinomio caratteristico.
Sia V spazio vettoriale su K finitodimensionale e sia f : V → V lineare. Allora
λ ∈ K è autovalore di f se e solo se λ è una radice del polinomio caratteristico
di f , cioè tale che p(λ) = 0 .
Definizione 17.6
Se λ è un autovalore di f : V → V l’autospazio corrispondente Vλ è il nucleo di
f − λ ∗ id(v) . Questo è non nullo perché λ è un autovalore.
Esempio 17.2
Sia LA : R3 → R3 dove A ha tutte le entrate uguali a 1.
Capitolo 17. Autovalori e autovettori
231 / 258
Determinare se l’applicazione lineare è diagonalizzabile e nel caso determinare
una base di autovettori
Calcolo il polinomio caratteristico, che è il determinante di x ∗ id − A .
x − 1 −1
−1
x ∗ id − A = −1 x − 1 −1
−1
−1 x − 1
det(A − λid) = (a1 ∗ a2 ) · a3 =
[(x − 1, −1, −1) ∗ (−1, x − 1, −1)] · (−1, −1, x − 1) =
(x, x, x2 − 2x) · (−1, −1, x − 1) = −2x + (x2 − 2x)(x − 1) =
−2x + x3 − x2 − 2x2 + 2x = x3 − 3x2 = x2 (x − 3) polinomio caratteristico
Gli autovalori di LA sono λ1 = 0 e λ2 = 3 .
Diremo che λ1 ha molteplicità algebrica 2 perché compare con l’esponente 2.
λ2 = 3 ha molteplicità algebrica 1 perché ha esponente 1.
Calcoliamo gli autospazi.
Quindi nel caso di λ1 = 0 l’autospazio è il nucleo della matrice LA , che è
span{(−1, 0, 1), (−1, 1, 0)} .
L’autospazio relativo all’autovalore 3 è ker(3 ∗ id − LA ) .
2 −1 −1
3 ∗ id − A = −1 2 −1
−1 −1 2
2 −1 −1
3 ∗ id − A = 0 3 −3
0 −3 3
2 −1 −1
3 ∗ id − A = 0 3 −3
0 0
0
y = α/3
2x − α/3 − α/3 = 0
x = α/3
L’autospazio relativo all’autovalore 3 è lo span di (1, 1, 1)
Se prendo i tre vettori e li metto in colonna, ottengo la matrice
−1 −1 1
1
0 1
0
1 1
−1 −1 1
0 −1 2
0
0 3
Capitolo 17. Autovalori e autovettori
232 / 258
che ha rango 3 quindi ho una base di R3 , data da B = {(−1, 1, 0), (−1, 0, 1), (1, 1, 1)}
. Di conseguenza la matrice di LA in questa base è la matrice diagonale che ha
come entrate diagonali gli autovalori associati agli autovettori. Le prime due
corrispondono all’autovalore 0 e l’ultima all’autovalore 3.
Verificare facendo i calcoli che
MBB (LA ) = C −1 AC
dove C è la matrice che ha per colonne i tre vettori
Esempio 17.3
Prendo
1 1 1
A= 0 1 2
0 0 2
PLA (x) = det(x ∗ id − A)
det = (
x − 1 −1
−1
0
x − 1 −2 )
0
0
x−2
det(λid − A) = −1 ∗ (x − 1) ∗ (x − 2)
(il determinante di una matrice triangolare superiore è il prodotto delle entrate
sulla diagonale.) λ1 = 1 con molteplicità algebrica 1.
Calcolo autospazi e autovettori
vλ1 = ker(A − 1) =
0 1 1
A= 0 0 2
0 0 0
x=α
y+z =0
y=0
La matrice ha rango 2 e il nucleo ha dimensione 1 e coincide con lo span di e1 .
vλ2 = A − 2 ∗ i
A=
Il kehr ha dimensione 1.
−1 1 1
0 −1 2
0
0 0
Capitolo 17. Autovalori e autovettori
A=
233 / 258
−1 0 3
0 −1 2
0
0 0
anche questo autospazio ha dimensione 1.
(x, y, z)t.c. x = 3z, y = 2z, z
vλ2 = span{(3, 2, 1)}
Possiamo trovare solo due autovettori linearmente indipendenti, e quindi non
possiamo trovare una base di R3 composta da autovettori.
Gli autovettori di LA sono multipli scalari di (1, 0, 0) o di (3, 2, 1) diversi da 0.
Quindi non è possibile trovare una base di R3 composta da autovettori.
17.5 Molteplicità algebrica e geometrica
Definizione 17.7
Sia f : V → V lineare con dimV < ∞ . Sia pf (x) il polinomio caratteristico di
f . Sia λ ∈ K un autovalore di f così che Pf (λ) = 0 e quindi x − λ divide il
polinomio caratteristico di f per il teorema di Ruffini.
Allora la molteplicità algebrica di λ come autovalore di f è il massimo intero
k ≥ 1 tale per cui (x − λ)k divide Pf (x) . La denoteremo con aλ .
Allora pf (x) = (x − λ)aλ ∗ q(x) dove q(x) è un polinomio tale che q(x) ̸= 0 .
Definizione 17.8
Nelle stesse ipotesi, la molteplicità geometrica di λ inquanto autovalore di f è la
dimensione dell’autospazio corrispondente a λ , quindi la dimensione del nucleo
di f − λ ∗ id(v) . Anche gλ ≥ 1 , perché siccome λ è autovalore, esiste almeno un
autovettore corrispondente.
Teorema 17.2
Sia f : V → V lineare e sia V finitodimensionale. Sia λ ∈ K autovalore di f ,
allora la molteplicità geometrica di λ è sempre minore o uguale della molteplicità
algebrica (lo si verifica anche negli esempi precedenti).
Teorema 17.3
Sia {v1 , . . . , vgλ } una base dell’autospazio di λ . Estendo questa base con il teorema della base estesa: esistono vgλ +1 , . . . , vd tali che v1 , . . . , vgλ , vgλ +1 , . . . , vd sia
una base di V .
Per j = 1, . . . , gλ , si ha f (vj ) = λ ∗ vj , quindi la matrice di f nella base
dell’autospazio ha tutte le entrate uguali a 0 tranne ajj = λ per j = 1, . . . , gλ .
Capitolo 17. Autovalori e autovettori
234 / 258
Allora la matrice con B in partenza e in arrivo ha intorno alla diagonale due
blocchi: un blocco di dimensioni gλ × gλ che è una matrice diagonale, e un blocco
di dimensioni (d − gλ ) × (d − gλ ) .
Il polinomio caratteristico di f è il determinante di λ ∗ id − MBB (f ) , e siccome ho
una matrice a blocchi quadrati, il suo determinante è il prodotto dei determinanti
dei due blocchi quadrati attorno alla diagonale. Allora ho (x − λ)gλ ∗ px polinomio
caratteristico della matrice x.
Allora (x−λ)gλ divide il polinomio caratteristico della matrice di partenza, quindi
gλ è sicuramente minore di Aλ e vale l’uguale se e solo se x − λ non divide anche
px .
cvd
Esempio 17.4
Considero la matrice
A=
0 1
−1 0
Il polinomio caratteristico di LA è il polinomio della matrice x ∗ id − A
x ∗ id − A =
x −1
1 x
det(x ∗ id − A) = x2 + 1
Nel caso K = R non ho autovalori, perché il polinomio è maggiore o uguale di 1
per ogni λ in R . e non ha radici.
Quindi non posso trovare nemmeno un autovettore.
Se invece K = C , P (LA )(x) = (x − i)(x + i)
Ho due autovalori λ1 = i , λ2 = −i
I corrispondenti autospazi sono
vλ1 = ker(i ∗ id − A)
x ∗ id − A =
i −1
1 i
Moltiplico per i la prima riga.
x ∗ id − A =
−1 −i
1
i
x ∗ id − A =
−1 −i
0
0
y = α, −x − iα = 0, x = −iα
Ho lo span di (−i, 1)
Capitolo 17. Autovalori e autovettori
235 / 258
Nel caso in cui λ2 = −i
x ∗ id − A =
−i −1
1 −i
x ∗ id − A =
1 −i
1 −i
x ∗ id − A =
1 −i
0 −0
x = i ∗ α, y = α
Allora è lo span di (i, 1) . Moltiplicando per i ottengo che I = (1, i), (1, −i) è una
base di c2 composta da autovettori di LA . la matrice da B in B di LA in questa
base ha entrate i , −i .
17.6 Osservazioni generali
Osservazione 17.4
Sia dimV = d e supponiamo di avere f : V → V lineare e diagonalizzabile. Per
definizione esiste una base B = {v1 , . . . , vd } composta da autovettori di f .
Allora se η1 , . . . , ηk sono gli autovalori distinti di f , possiamo supporre eventualmente dopo aver riordinato i vj che v1 , . . . , vg1 (relativi all’autovalore η1 ),
vg1 +1 , . . . , vg1 +g2 (relativi a η2 ), . . . , vgk−1 +1 , . . . , vk (relativi a ηk ) nell’insieme
siano una base di V .
La matrice di f in questa nuova base è una matrice diagonale con g1 entrate
uguali a η1 , . . . , gk entrate uguali a ηk .
Il polinomio caratteristico è
Pf = (x − η1 )
g1
∗ (x − η2 )
g2
∗ · · · ∗ (x − ηk )
gk
=
k
∏
(x − ηj )gj
j=1
Siccome gli x − ηj sono tutti distinti, allora gj è la molteplicità algebrica dell’autovalore ηj . Inoltre, siccome il grado del polinomio caratteristico è d , allora la
∑
∏
produttoria kj=1 (x − ηj )gj ha grado d ovvero kj=1 gj = d .
Sia v ∈ V , sia x = (x1 , . . . , xd ) la sua colonna delle coordinate nella base B
, allora v appartiene all’autospazio relativo all’autovalore η1 , cioè al nucleo di
η1 ∗ id(v) − f se e solo se x ∈ ker(η1 ∗ id − A) , dove A è la matrice di f nella base
B . η1 ∗ id − A è la matrice che sulla diagonale ha 0 per g1 volte, η1 − η2 per g2
volte . . . , e η1 − ηk per gk volte. Queste entrate sono tutte diverse da 0, poiché
ηr ̸= ηs se r ̸= s per ipotesi.
v sta nel ker di η1 ∗ id − A se e solo se il prodotto tra quest’ultima matrice
e (x1 , . . . , xd ) dev’essere il vettore nullo di Rd , ma siccome i coefficienti della
matrice sono diversi da 0, questo avviene se e solo se xj = 0∀j > g1 . Quindi nella
Capitolo 17. Autovalori e autovettori
236 / 258
combinazione lineare che esprime v in funzione dei vettori della base compaiono
solo i primi g1 vettori e quindi v ∈ span{v1 , . . . , vg1 } .
Concludo che l’autospazio relativo a η1 coincide con span{v1 , . . . , vg1 } e pertanto
g1 è anche la molteplicità geometrica di η1 .
Lo stesso vale per ogni ηj con j = 1, . . . , k , quindi se f è diagonalizzabile si ha
che Vηj = span{vgj−1 +1 , . . . , vgj−1 +gj } quindi gj è la molteplicità geometrica di ηj .
17.6.1 condizioni necessarie per la diagonalizzabilità
Riassumendo: Se f : V → V è diagonalizzabile e η1 , . . . , ηk sono gli autovalori
distinti di f con molteplicità algebriche Aηj e geometriche Gηj allora
1.
∑k
j=1 Aηj
= d con d = dimV ; (condizione 1)
2. la molteplicità geometrica e quella algebrica di ogni autovalore sono uguali,
per ogni j = 1, . . . , k (condizione 2).
Queste condizioni sono necessarie per la diagonalizzabilità, come mostra questi
esempi.
Esempio 17.5
Sia data la matrice
0 1
−1 0
il cui polinomio caratteristico è Pa (x) = x2 + 1 . Non ci sono radici reali, quindi
f non è diagonalizzabile.
Esempio 17.6
Data LB : R3 → R3 con
0 1 1
B = −1 0 −2
0 0 1
cerco il polinomio caratteristico.
λ −1 −1
2
λ ∗ id − A = 1 λ
0 0 λ−1
Calcolo il determinante di questa matrice usando lo sviluppo secondo Laplace per
la terza riga
Pf (λ) = (x − 1) ∗ (x2 + 1)
Capitolo 17. Autovalori e autovettori
237 / 258
η1 = 1 è l’unico autovalore ma Aη1 < 3 quindi la molteplicità algebrica è minore
della dimensione di V e la matrice non è diagonalizzabile sui reali.
Sul campo C , il polinomio caratteristico si scompone come (x − i)(x + i)(x − 1)
e ho tre autovalori η1 = 1, η2 = i, η3 = −i con molteplicità algebrica 1. Anche la
molteplicità geometrica è uguale a 1 quindi LB è diagonalizzabile su C .
La condizione 1 per la diagonalizzabilità non è sempre soddisfatta su R , ma è
sempre soddisfatta su C perché il campo complesso è algebricamente chiuso e
qualsiasi polinomio si può fattorizzare in polinomi di grado 1.
Esempio 17.7
Questo esempio mostra che la condizione 1 non è sufficiente per la diagonalizzabilità. Sia infatti
A=
0 1
0 0
Il polinomio caratteristico di questa matrice è P (x) = x2 . L’unico autovalore è 0
con molteplicità algebrica 2, la molteplicità geometrica è la dimensione del nucleo
di A che coincide con span{e1 } e quindi ha dimensione 1; allora la condizione 2
non è soddisfatta poiché Gη < Aη . La matrice non è diagonalizzabile perché,
se lo fosse, sarebbe simile a una matrice diagonale, ma questo non può avvenire
perché A ha entrate nulle sulla diagonale, e l’unica matrice diagonale che soddisfa
questa condizione è la matrice nulla che è simile solo a se stessa.
Ci si chiede se vale viceversa, e se le condizioni 1 e 2 sono anche sufficienti per la
diagonalizzabilità.
17.6.2 Lineare indipendenza di autovalori distinti
Teorema 17.4
Sia f : V → V lineare e siano η1 , . . . , ηk autovalori distinti di f . Siano v1 , . . . , vk
autovettori relativi a η1 , . . . , ηk rispettivamente, cioè tali che vj ̸= 0∀j = 1, . . . , k
, f (vj ) = λj ∗ vj . Allora v1 , . . . , vk sono linearmente indipendenti.
Dimostrazione 17.3
• Se k = 1 un autovettore diverso da 0 è linearmente indipendente.
• Se k = 2 siano α, β ∈ K non entrambi nulli tali che α ∗ v1 + β ∗ v2 = 0 ,
quindi se v1 ̸= 0 si può scrivere v1 = −β
α ∗ v2 pertanto
η1 ∗ v1 = f (v1 ) = f (−β/α ∗ v2 ) = −β/α ∗ η2 ∗ v2 = η2 ∗ v1
allora η2 ∗ v1 = η1 ∗ v1 e usando la distributività si ha che (η1 − η2 ) ∗ v1 = 0 ma
η1 − η2 ̸= 0 quindi v1 = 0 e questo è assurdo.
• Sia vero l’asserto per η1 , . . . , ηl e v1 , . . . , vl se l < k (ipotesi induttiva).
Capitolo 17. Autovalori e autovettori
238 / 258
Supponiamo per assurdo che esistano α1 , . . . , αk ∈ K tali che α1 ∗v1 +· · ·+αk ∗vk =
0 . Voglio dimostrare che gli scalari sono tutti uguali a 0.
Moltiplicando per η1 ottengo
η1 ∗ α1 ∗ v1 + · · · + η1 ∗ αk ∗ vk = 0
D’altra parte anche f (α1 ∗ v1 + · · · + αk ∗ vk ) = 0 quindi per linearità è
α1 ∗ f (v1 ) + · · · + αk ∗ f (vk ) = 0
ma f (vj ) = ηj ∗ vj quindi ottengo
α1 ∗ η1 ∗ v1 + · · · + αk ∗ ηk ∗ vk = 0
abbiamo ricavato le due relazioni seguenti
η1 ∗ α1 ∗ v1 + η1 ∗ α2 ∗ v2 + · · · + η1 ∗ αk ∗ vk = 0, relazione 1
η1 ∗ α1 ∗ v1 + η2 ∗ α2 ∗ v2 + · · · + ηk ∗ αk ∗ vk = 0, relazione 2
Sottraendo 1 a 2 ottengo
η1 ∗ α1 ∗ v1 − η1 ∗ α1 ∗ v1 + η1 ∗ α2 ∗ v2 − η2 ∗ α2 ∗ v2 + · · · + η1 ∗ αk ∗ vk − ηk ∗ αk ∗ vk = 0
Il primo termine si annulla e rimane
(η1 − η2 ) ∗ α2 ∗ v2 + · · · + ∗αk ∗ vk = 0
ho una combinazione lineare di k − 1 autovettori relativi ad autovalori distinti. Per l’ipotesi induttiva v2 , . . . , vk sono linearmente indipendenti; siccome la
combinazione lineare è nulla tutti i coefficienti devono essere uguali a 0, quindi
η1 − η2 = 0, . . . , η1 − ηk = 0 , ma gli autovalori sonodistinti, quindi questo è
assurdo e segue che α2 = · · · = αk = 0 . Allora nella combinazione lineare di
partenza rimane solo α1 ∗ v1 = 0 e siccome per ipotesi v1 ̸= 0 allora α1 = 0 .
Questo completa il passo induttivo. cvd
17.6.3 Condizioni sufficienti per la diagonalizzabilità
Dimostriamo che le condizioni 1 e 2 sono sufficienti per la diagonalizzabilità.
Supponiamo che valgano le condizioni 1 e 2. Sia V d-dimensionale con 1 < d <
+∞ . Sia f : V → V lineare e siano η1 , . . . , ηk gli autovalori distinti di f .
Supponiamo che la somma delle molteplicità algebriche degli ηj per j = 1, . . . , k
sia uguale a d e che la molteplicità algebrica e quella geometrica di ogni ηj siano
uguali.
Capitolo 17. Autovalori e autovettori
239 / 258
Per j = 1, . . . , k , sia {v1j , . . . , vgjj } una base dell’autospazio Vηj . Affermo che
v11 , . . . , vg11 , v12 , . . . , vg22 , . . . , v1k , . . . , vgkk sono linearmente indipendenti (da dimo∑k
strare), e, se questo avviene, dato che d =
j=1 gηj per ipotesi, essi formano
nell’ordine una base di V composta da autovettori di f per costruzione, ovvero f
è diagonalizzabile.
Mostriamo allora l’indipendenza degli autovettori: supponiamo per assurdo che
esistano scalari non tutti nulli tali che
α11 ∗ v11 + · · · + αg11 ∗ vg11 + · · · + α1k ∗ v1k + · · · + αgkk ∗ vgkk = 0.
Per ogni j = 1, . . . , k chiamo vj = α1j ∗ v1j + · · · + αgj j ∗ vgjj quindi vj = 0 solo
se αij = 0∀i . Osservo inoltre che i vj soddisfano la condizione f (vj ) = ηj ∗ vj e
quindi sono autovettori per gli autovalori ηj .
Possiamo supporre senza perdita di generalità che siano v1 , . . . , vs ̸= 0 per qualche
s ≥ 1 e vs′ = 0 se s′ ≥ s . Ricavo che ma v1 , . . . , vs ̸= 0 per costruzione perché
sono autovettori di f relativi a η1 , . . . , ηs . Inoltre per il teorema del paragrafo
precedente, i vj sono indipendenti essendo relativi ad autovalori distinti, e quindi
gli scalari che compaiono nelle combinazioni lineari sono tutti nulli, contro l’ipotesi
assurda.
Riassumendo, abbiamo dimostrato il seguente teorema:
Teorema 17.5
Sia V uno spazio vettoriale su K , di dimensione d con 1 < d < +∞ . Sia f :
V → V lineare e siano η1 , . . . , ηk ∈ K gli autovalori distinti di f con molteplicità
algebriche e geometriche Aηj e Gηj . Allora le seguenti condizioni sono equivalenti:
1. f è diagonalizzabile;
∑k
2.
j=1 Aηj = d e Aηj = Gηj per j = 1, . . . , k
3.
∑k
j=1 Gηj
=d
Dimostrazione 17.4
Rimane da mostrare che 2 −→ 3 . Supponiamo per assurdo che per un certo j ,
Aηj > Gηj , allora la somma delle molteplicità algebriche è maggiore di d che è il
grado del polinomio caratteristico, e questo non può avvenire. cvd
17.6.4 Valori di molteplicità algebrica e geometrica
Osservazione 17.5
Se η è un autovalore di f con molteplicità algebrica Aη , sappiamo che Gη soddisfa
1 ≤ Gη ≤ Aη , e si possono facilmente costruire gli esempi in cui Gη assume i
valori intermedi.
Capitolo 17. Autovalori e autovettori
240 / 258
Esempio 17.8
Sia V = R3 e suppongo che f : R3 → R3 bbiaa polinomio caratteristico x3 , allora
A0 = 3 .
• se f = LA con A uguale alla matrice nulla, allora A0 = G0 = 3 .
• Se A ha invece una riga diversa da 0, A0 = 3 e G0 = 2 , perché il rango
dell’autospazio diminuisce.
• data la matrice
0 1 0
0 0 1
0 0 0
allora A0 = 3 e G0 = 1
Corollario 17.1
Sia V uno spazio vettoriale su K d-dimensionale. Sia f : V∑→ V lineare e supponiamo che f abbia D autovalori distinti, ovvero pf (x) = dj=1 (x − ηj ), ηj ̸= ηk
se j ̸= K . Allora f è diagonalizzabile.
Dimostrazione 17.5
Tutte le molteplicità sono uguali a 1, quindi
∑
j
Aηj = d e vale la condizione 1.
Per ogni j = 1, . . . , d , Gηj è almeno 1, ma siccome è sempre minore o uguale
della molteplicità algebrica e ogni Aηj = 1 , segue che Aηj = Gηj , ovvero vale la
condizione 2, ed entrambe le condizioni sufficienti per la diagonalizzabilità sono
soddisfatte. cvd
Esempio 17.9
Considero una matrice triangolare superiore con entrate diagonali 1, 2, 3 . Allora
essa ha tre autovalori distinti quindi la matrice è diagonalizzabile per il corollario
precedente.
Capitolo 18. Teorema spettrale
241 / 258
Capitolo 18
Teorema spettrale
18.1 Diagonalizzabilità negli spazi vettoriali euclidei
18.1.1 Applicazione simmetrica o autoaggiunta
Uno spazio vettoriale euclideo (V, ϕ) è dato da V spazio vettoriale reale e da
ϕ : V × V → R prodotto scalare definito positivo.
Definizione 18.1
Se (V, ϕ) è uno spazio vettoriale euclideo e f : V → V è lineare, diremo che F è
simmetrica o autoaggiunta rispetto a ϕ se per ogni v, w ∈ V , si ha ϕ(f (v), w) =
ϕ(v, f (w)) .
Esempio 18.1
Sia V = Rd e ϕ = pst , quindi ϕ(X, Y ) = X T ∗ id ∗ Y F = LA per qualche A
matrice dxd
ϕ(AX, Y ) = (AX)t ∗ Y = X t ∗ At ∗ Y
ϕ(X, f (Y )) = X · AY = X t ∗ AY
Quindi f = LA è simmetrica o autoaggiunta rispetto al prodotto scalare standard
se e solo se ϕ(X, AY ) = ϕ(AX, Y ) quindi se e solo se X t ∗ At ∗ Y = X t ∗ AY ,
quindi se e solo se At ∗ Y = AY per ogni Y ∈ Rd , quindi se e solo se At = A e
quindi A è simmetrica.
In generale, sia B = {v1 , . . . , vd } una base di V . Siano C la matrice del prodotto
scalare rispetto a tale base (quindi C è simmetrica e non degenere). Chiamiamo A
la matrice nella base B di f . Allora se v, w sono elementi di V , siano X = MB (v)
e Y = MB (w) , allora, ϕ(v, w) = X t ∗ C ∗ Y .
Se introduco f
ϕ(f (v), w) = (MB f (v))t ∗ C ∗ M B(w) = (AX)t ∗ C ∗ Y = X t ∗ At ∗ C ∗ Y
Capitolo 18. Teorema spettrale
242 / 258
ϕ(v, f (w)) = (MB )t ∗ C ∗ MB = X t ∗ C ∗ AY
Quindi f è simmetrica o autoaggiunta rispetto a ϕ se e solo se ∀X, Y ∈ Rd , X t ∗
At ∗ CY = X t ∗ CAY Quindi se e solo se At ∗ C = CA .
18.1.2 Base ortogonale
Se (V, ϕ) è uno spazio vettoriale euclideo, allora una base B = {v1 , . . . , vd } si dice
ortogonale per ϕ se ϕ(vk , vl ) = 0 per k ̸= l ossia se la matrice che rappresenta ϕ
in questa base è diagonale. Invece B si dice ortonormale se ϕ(vk , vl ) = δkl ossia la
matrice che rappresenta ϕ in questa base è la matrice identità.
Se B = {v1 , . . . , vd } è ortogonale, allora B′ = {v1 ∗ √
1
, . . . , vd
ϕ(v1 ,v1 )
∗√
1
}
ϕ(vd ,vd )
è
una base ortonormale.
In particolare, se la base {v1 , . . . , vd } è una base ortonormale per ϕ (la matrice
che rappresenta ϕ è l’identità), la condizione per avere una matrice autoaggiunta
diventa At = A .
Riassumendo, vale il seguente
Teorema 18.1
Nelle ipotesi precedenti le seguenti condizioni sono equivalenti
1. f è autoaggiunta per ϕ ;
2. per ogni scelta di una base B si ha At ∗ C = CA
3. per ogni base ortonormale B di (V, ϕ) si ha At = A
18.2 Teorema spettrale
18.2.1 Introduzione
Se (V, ϕ) è uno spazio vettoriale euclideo e f : V → V è lineare, f si dice
simmetrica o autoaggiunta rispetto a ϕ se ϕ(f (v), w) = ϕ(v, f (w)) ∀v, w ∈ V
.
L’importanza degli operatori autoaggiunti è legata al teorema spettrale.
Lo spettro di un operatore è l’insieme degli autovalori di un operatore.
Teorema 18.2
Sia (V, ϕ) uno spazio vettoriale euclideo d-dimensionale, 1 < d < +∞ . Sia
F : V → V lineare e autoaggiunta rispetto a ϕ . Allora esiste una base B =
{v1 , . . . , vd } che soddisfa le seguenti condizioni:
1. B è ortonormale per ϕ , cioè ϕ(vk , vl ) = δkl
2. B è composta da autovettori di f .
Capitolo 18. Teorema spettrale
243 / 258
Se f è simmetrica o autoaggiunta rispetto a ϕ , allora non solo f è diagonalizzabile,
ma la si può diagonalizzare su una base di V ortonormale.
Se f è simmetrica o autoaggiunta rispetto a ϕ , allora non solo f è diagonalizzabile,
ma la si può diagonalizzare su una base di V ortonormale.
Esempio 18.2
Sia LA : R2 → R2 associata alla matrice
0 2
2 0
La matrice di LA è simmetrica, e la base canonica è ortonormale per il prodotto
scalare standard. (infatti f è simmetrica per ϕ se la matrice che la rappresenta è
simmetrica)
Il polinomio caratteristico è
|
x −2
|
−2 x
pf (x) = x2 − 4 = (x + 2)(x − 2)
2Id − A =
2Id − A =
2 −2
−2 2
2 −2
0 0
ker A = {(x, y) t.c.2x − 2y = 0}
v2 = ker A = span{(1, 1)}
−2Id − A =
−2 −2
−2 −2
−2Id − A =
−2 −2
0
0
V−2 = {(x, y) t.c. − 2x − 2y = 0} = span{(1, −1)}
Questa è una base di R2 composta da autovettori di f. E’ una base ortogonale ma
non ortonormale.
Per trovare una base ortonormale divido i vettori per la rispettiva norma.
√
√
v1 = 1/ 2(1, 1), v2 = 1/ 2(1, −1)
Questa è una base ortonormale composta da autovettori.
Capitolo 18. Teorema spettrale
244 / 258
18.2.2 Conseguenze del teorema
In generale, se A è una matrice simmetrica dxd , allora LA : Rd → Rd è autoaggiunta e simmetrica per il prodotto scalare standard, e quindi per il teorema
spettrale esiste una base {v1 , . . . , vd } ortonormale per il prodotto scalare standard
tale che (Xk )t ∗ Xl = δkl e tale che AXj = Xj ∗ λj per certi λ ∈ R .
In particolare qualsiasi matrice A simmetrica è diagonalizzabile.
18.2.3 La matrice speciale
Chiamiamo R la matrice da B alla base canonica dell’identità, che ha per colonne
X1 , . . . , Xd . Allora R−1 AR è diagonale e ha entrate λ1 , . . . , λd perché è la matrice
di LA nella base B fatta di autovettori. Nell’esempio precedente,
√
√
1/ √2 1/√2
R=
−1/ 2 1/ 2
In realtà R è una matrice invertibile di un tipo speciale. Le sue colonne non
sono solo linearmente indipendenti, ma sono anche una base ortonormale per il
prodotto scalare standard.
Siccome X1 , . . . , Xd è una base ortonormale per il prodotto scalare standard,
calcolando MB (ϕ) ottengo la matrice identità. Inoltre
MBB (id) = MB (ϕ) = (MBBc (id))t ∗ MBBcc pst ∗ MBBc (id)
Allora ottengo Rt ∗ A ∗ R = Rt ∗ id ∗ R = RT ∗ R .
Quindi come corollario del teorema spettrale abbiamo: Corollario 18.1
Sia A una matrice dxd reale e simmetrica. Allora esiste una matrice R invertibile
tale che R−1 AR è diagonale e in secondo luogo tale che Rt ∗ R è l’identità, cioè
l’inverso di R è la trasposta di R .
18.2.4 Matrice ortogonale
Definizione 18.2
Una matrice reale dxd si dice ortogonale (o unitaria reale) se Rt ∗ R = id , cioè
R è invertibile e R−1 = Rt .
Osservazione 18.1
Per le considerazioni precedenti, R è ortogonale se e solo se le colonne di R ,
R1 , . . . , Rd sono una base dello spazio Rd ortonormale per il prodotto scalare
standard.
Capitolo 18. Teorema spettrale
245 / 258
Definizione 18.3
Diremo Od l’insieme di tutte le matrici ortogonali dxd .
L’identità appartiene a Od .
Se R appartiene a Od allora Rt ∗ R = R ∗ Rt = id e quindi Rt ∈ O(d) .
Se A e B sono matrici ortogonali,
(AB)t ∗ AB = B t ∗ At ∗ AB = B t ∗ (At ∗ A)B = B t ∗ id ∗ B = B t ∗ B = id,
quindi anche AB appartengono a SOd .
Se R è una matrice ortogonale, allora Rt ∗ R = id , e quindi det R = ±1 . Infatti,
per il teorema di Binet si ha 1 = det(R ∗ Rt ) = det(Rt ) ∗ det R , ma siccome
det R = det(Rt ) segue che (det R)2 = 1 e det R = ±1 .
Esempio 18.3
1. O1 = {±1} (sono le uniche basi ortonormali di R1 ).
2. O2 è dato da tutte le matrici le cui colonne sono una base ortonormale del
prodotto scalare standard. Queste sono di due tipi: quelle della forma
(− sin θ) cos θ
cos θ
sin θ
con 0 < θ < 2π oppure quelle della forma:
cos θ sin θ
− sin θ cos θ
Geometricamente queste matrici portano la base canonica in una rotazione
dell’angolo θ .
A simmetrica implica che esiste R ∈ Od tale che R−1 AR è diagonale ed è uguale
a Rt ∗ AR .
Se B = {v1 , . . . , vd } è una base ortogonale del prodotto scalare standard, anche
{−v1 , v2 , . . . , vd } è una base e cambia il segno del determinante.
Viceversa si ha una matrice dxd reale tale che R−1 AR è diagonale per qualche R
ortogonale. Questo significa che esiste una base di Rd ortonormale per il prodotto
scalare standard e composta da autovettori di A .
Concludiamo che se D è la matrice diagonale tale che R−1 AR = D , allora
se risolvo per A ottengo A = RDR−1 = R ∗ DRt . Allora At = (RDRt )t =
(Rt )t ∗ Dt ∗ Rt = RDRt = A (si usa il fatto che una matrice diagonale trasposta
è uguale a sé stessa).
Questo risultato vale solo per matrici simmetriche: infatti, se B è una matrice non
simmetrica reale dxd , non è necessariamente diagonalizzabile. In secondo luogo,
anche se lo fosse, non lo è comunque mai su una base ortonormale, cioè non può
Capitolo 18. Teorema spettrale
246 / 258
ammettere una base di autovettori ortogonali per il prodotto scalare standard,
quindi R non è nemmeno ortogonale.
Esempio 18.4
Consideriamo la matrice non simmetrica
B=
0 1
4 0
Il suo polinomio caratteristico è x2 − 4 = (x − 2)(x + 2) .
L’autospazio relativo all’autovalore λ = 2 è dato da:
V2 = ker(
2 −1
)
−4 2
Riducendo a scala la matrice ottengo:
2 −1
0 0
V2 = span{(1, 2)}
Invece l’autospazio relativo all’autovalore −2 è il ker della matrice
−2 −1
−4 −2
V−2 = span{(1, −2)}
Allora B = {(1, 2), (1, −2)} è una base di R2 composta da autovettori, ma non è
ortogonale per il prodotto scalare standard perché la matrice non è simmetrica.
18.3 Teorema spettrale nello studio dei prodotti scalari
Supponiamo di avere un prodotto scalare ψ su Rd e prendiamo la matrice di
ψ nella base canonica, che è una matrice dxd simmetrica. Allora ψ è tale che
ψ(X, Y ) = X t ∗ AY .
Siccome A è simmetrica, per il corollario del teorema spettrale esiste R ortogonale
tale che R−1 AR sia diagonale. Quindi le colonne di R costituiscono una base B
di Rd ortonormale per il prodotto scalare standard e composta da autovettori di
ψ = LA : Rd → Rd .
Sia D = R−1 AR = diag(λ1 , . . . , λd ) , con λ1 , . . . , λd autovalori di A non necessariamente distinti.
Osservazione 18.2
Capitolo 18. Teorema spettrale
247 / 258
Abbiamo che D = R−1 AR = Rt ∗ AR perché R è ortogonale. Non solo si ha che
D è la matrice con base B in partenza e in arrivo di LA ( B è costituita dalle
colonne di R ), ma è anche la matrice nella base B di A rispetto a ψ . Pertanto la
base B non è solo una base di Rd ortonormale per il prodotto scalare standard,
ma è anche una base di Rd ortogonale per ψ .
Quindi ricaviamo che z(ϕ) si determina prendendo una base ortogonale del prodotto scalare e contando le entrate nulle sulla diagonale, che corrisponde alla
dimensione del nucleo dell’autovalore 0.
18.3.1 Secondo teorema spettrale
Teorema 18.3
Sia A una matrice dxd reale simmetrica. Siano LA : Rd → Rd l’applicazione che
porta X in AX e ϕA : Rd → R tale che ϕA (X, Y ) = X t ∗AY (ovvero LA e ϕA sono
rispettivamente l’applicazione lineare e il prodotto scalare definiti da A rispetto
alla base canonica). Allora esiste una base B = {v1 , . . . , vd } di Rd che soddisfa le
seguenti condizioni:
1. B è ortonormale per il prodotto scalare standard su Rd ;
2. B è composta da autovettori di LA , tali che A ∗ vj = λj ∗ vj , j = 1, . . . , d
3. B è ortogonale per ϕA , cioè ϕA (vk , vl ) = 0 se k ̸= l
In particolare, in tale base avremo che la matrice dell’applicazione lineare LA è
anche la matrice del prodotto scalare diagonale e quindi l’indice di positività è il
numero dei λj tali che λj > 0 .
Esempio 18.5
Sia
1 0
1
A = 0 2 −2
1 −2 3
Determinare p(ϕ) e z(ϕ) .
Calcolo il polinomio caratteristico di A :
λ ∗ id − A =
λ−1
0
−1
0
λ−2
2
−1
2
λ−3
Scambio la prima e la terza riga
p(λ) = −|
−1
2
λ−3
0
λ−2
2 |
λ−1
0
−1
Capitolo 18. Teorema spettrale
248 / 258
−1
2
λ−3
λ−2
2
p(λ) = −| 0
|
0 2λ − 2 −1 + (λ − 3)(λ − 1)
p(λ) = |
λ−2
2
|
2
2λ − 2 λ − 4λ + 2
p(λ) = (λ − 2) ∗ (λ2 − 4λ + 2) − 2(2λ − 2)
p(λ) = λ3 − 2λ2 − 4λ2 + 8λ + 2λ − 4 − 4λ + 4
p(λ) = λ3 − 6λ2 + 6λ
p(λ) = λ
Scompongo il secondo fattore:
√
36 − 24
λ1,2 =
2
√
6±2 3
λ1,2 =
2
√
λ1,2 = 3 ± 3
√
√
λ1 = 0, λ2 = 3 + 3 λ3 = 3 − 3
6±
Allora z(ϕ) = 1 e p(ϕ) = 2
Trovare esplicitamente una base B come nel teorema spettrale nella seconda
formulazione.
Procedimento: Calcolare gli autospazi dei tre autovalori e prenderne i generatori,
che saranno ortogonali tra loro.
Per trovare la base ortonormale si divide ogni vettore per la sua norma.
Esempio 18.6
Considero la matrice A con tutte le entrate uguali a 1, e considero il prodotto
scalare e l’applicazione lineare ad essa associati.
Il rango di A è 2, quindi z(ϕ) = 2 . Se p(ϕ) fosse uguale a 0, il prodotto sarebbe
semidefinito negativo ma questo non può essere, perché, ad esempio, ϕ(e1 , e1 ) > 0
.
Il polinomio caratteristico della matrice è x2 (x−3) . Ci si aspetta che l’autovalore
0 abbia molteplicità 2 perché z(ϕ) = 2 . Inoltre p(ϕ) = 1 perché ho un solo
autovalore positivo.
L’autospazio relativo all’autovalore 0 è dato da:
V0 = {(x, y, z) t.c. (x + y + z) = 0} = span{(−1, 1, 0), (−1, 0, 1)}
Invece V3 = span{(1, 1, 1)} .
La base di autovettori cercata è B = {(−1, 1, 0), (−1, 0, 1), (1, 1, 1)} , ma non è
ortonormale infatti il prodotto scalare tra i primi due vettori è 1. Per renderla
ortogonale applico Gram-Schmidt ai primi due vettori.
Capitolo 18. Teorema spettrale
249 / 258
v1′ = v1 = (−1, 1, 0)
v2′ = v2 −
ϕ(v2 , v1 )
∗v1 = (−1, 0, 1)−1 = (−1, 0, 1)+(1/2, −1/2, 0) = (−1/2, −1/2, 1)
ϕ(v1 , v1 )
Ora la base {(−1, 1, 0), (−1, 1, 2), (1, 1, 1)} è ortogonale per il prodotto scalare
standard ed è composta da autovettori di LA .
Per ricavare una base ortonormale divido ogni vettore per la sua norma.
Considero quindi la base
√
√
√
{1/ 2(−1, 1, 0), 1/ 6(−1, 1, 2), 1/ 3(1, 1, 1)}
Trovare una matrice R ortogonale tale per cui R−1 AR sia diagonale.
Basta prendere la matrice che ha per colonne i tre vettori della base ortonormale:
in questo modo Rt AR è la matrice diagonale che ha come entrate gli autovalori.
Osservazione 18.3
Sia (V, ϕ) uno spazio vettoriale euclideo, non necessariamente finitodimensionale.
Supponiamo di avere f simmetrica per ϕ . Siano η1 , . . . , ηk ∈ R autovalori distinti
di f e siano v1 , . . . , vk ∈ V autovettori di f relativi a η1 , . . . , ηk rispettivamente.
vj ̸= 0 e f (vj ) = ηj ∗ vj per j = 1, . . . , k . Allora v1 , . . . , vr sono a due a due
ortogonali per ϕ , ovvero ϕ(vk , vl ) = 0 se k ̸= l .
Dimostrazione 18.1
Sia k ̸= l con 1 < k < l < r . Allora poiché f è autoaggiunta:
ϕ(f (vk ), vl ) = ϕ(f (vl ), vk ) = ϕ(ηk ∗ vk , vl ) = ηk ϕ(vk , vl ).
Invece ϕ(vk , f (vl )) = ηl ∗ ϕ(vk , vl ) . Le due espressioni devono essere uguali, allora
(ηk −ηl )∗ϕ(vk , vl ) = 0 ma poiché ηk −ηl ̸= 0 dev’essere necessariamente ϕ(vk , vl ) ̸=
0 . cvd
Nell’esempio precedente, anche se non tutti i vettori erano una base ortogonale,
gli autovettori relativi a un autovalore erano ortogonali a quelli relativi agli altri
autovalori.
18.4 Dimostrazione del teorema spettrale
Lemma 18.1
Sia (V, ϕ) uno spazio vettoriale euclideo. Sia f : V → V lineare e autoaggiunta per
ϕ . Sia W in V un sottospazio vettoriale invariante per f , ossia f (W ) ⊆ W . Sia
Wϕ⊥ il complemento ortogonale di W rispetto a ϕ (siccome ϕ è definito positivo,
allora ). Allora anche W ⊥ è invariante per f , cioè f (Wϕ⊥ ) ⊆ W ⊥ .
Capitolo 18. Teorema spettrale
250 / 258
Dimostrazione 18.2
Dobbiamo dimostrare che per ogni v ∈ W ⊥ anche f (v) ∈ W ⊥ , ossia che
ϕ(f (v), w) = 0∀w ∈ W .
Sia quindi v ∈ Wϕ⊥ così che ϕ(v, w) = 0 ∀w ∈ W . Allora ∀w ∈ W si ha
ϕ(w, f (v)) = ϕ(v, f (w)) = 0 . Ma anche f (w) ∈ W perché W è invariante per f
. Segue la tesi. cvd
Enunciato: Sia (V, ϕ) uno spazio vettoriale euclideo, di dimensione d , e sia f :
V → V simmetrica o autoaggiunta per ϕ . Allora esiste una base {v1 , . . . , vd } che
è ortonormale per ϕ e composta da autovettori di f .
Dimostrazione 18.3
Bisogna prima dimostrare che il polinomio caratteristico di f ha d radici reali
contate con la rispettiva molteplicità algebrica, ovvero che
Pf (x) =
r
∏
(x − ηj )Aηj
j=1
con
∑
A ηj = d
j
e dove gli ηj sono numeri reali (questo nel campo complesso è sempre vero).
Sia B una qualsiasi base di V , ortonormale per ϕ . Allora sia A la matrice di f
in questa base. Siccome la base è ortonormale per ϕ e f è autoaggiunta, allora A
è una matrice simmetrica.
Il polinomio caratteristico di f è il polinomio caratteristico di A , perché si può
prendere la matrice che rappresenta f in qualsiasi base.
Sia η ∈ C una qualsiasi radice complessa di PA (x) . Dimostro che in realtà η è
una radice reale.
Per ipotesi esiste LA : Cd → Cd ed esiste X ∈ Cd ∖ {0} tale che AX = η ∗ X .
Quindi passando ai coniugati ottengo Ā ∗ X̄ = η̄ ∗ X̄ ma siccome A è reale A = Ā
quindi ottengo A ∗ x̄ = η̄ ∗ X̄ .
Se calcolo
ϕ(f (X), X̄) = (AX)t ∗ X̄ = η ∗ X t ∗ X̄
Ma si ha anche
ϕ(X, f (X̄)) = X t ∗ A ∗ X̄ = X t ∗ (A ∗ X̄) = X t ∗ η̄ ∗ X̄ = η̄ ∗ X t ∗ X̄
= η̄ ∗ (|x1 |2 + |x2 |2 + · · · + |xd |2 )
Poiché f è autoaggiunta, i primi membri di queste ultime due relazioni sono
uguali, quindi si ha (η − η̄) ∗ [|x1 |2 + · · · + |xd |2 )] = 0 , ma siccome la somma dei
Capitolo 18. Teorema spettrale
251 / 258
moduli è diversa da 0, allora η = η̄ , ossia η è un numero reale perché è uguale al
suo coniugato.
Concludiamo che tutte le radici complesse di Pf (x) sono in realtà numeri reali.
Dimostrazione 18.4
Osserviamo che il teorema spettrale è ovvio se d = 1 .
Supponiamo d ≥ 2 e che l’asserto sia vero in dimensioni minori di d .
Sia f : V → V come sopra, simmetrica per ϕ . Allora per quanto visto tutte le
radici del polinomio caratteristico di f sono reali. In particolare esiste η ∈ R tale
che pf (η) = 0 e quindi η è un autovalore di f . Allora sia v ∈ V un autovettore
corrispondente a η , con
η ∗ v . Allora senza perdita di generalità,
√ v ̸= 0 e f (v) =
1
∗ v possiamo supporre senzaperdita di
sostituendo v con 1/ ϕ(v, v) ∗ v = |v|
ϕ
generalità che ϕ(v, v) = 1 . Infatti, se così non fosse, sostituisco v con
Chiamo W lo span di v . Allora se v ′ ∈ W , v ′ = λ ∗ v , allora
v
|ϕ(v,v)|
.
f (v ′ ) = f (λ ∗ v) = λ ∗ f (v) = λ ∗ η ∗ v ∈ W
perché W è invariante per f .
Consideriamo il complemento ortogonale per questo sottospazio, che chiamo W ′
. Per quanto visto, dato v ′ ∈ W ⊥ , f (v ′ ) ∈ W ′ perché W ′ è invariante per f .
D’altra parte, se consideriamo ϕ′ : W ′ × W ′ → R la restrizione di ϕ a V ′ , allora
ϕ′ è ancora un prodotto scalare (bilineare e simmetrico) definito positivo. Infatti
se prendo un qualsiasi elemento non nullo, v ′ ̸= 0 , allora ϕ(v ′ , v ′ ) = ϕ(v, v) > 0 .
ϕ′ è definito positivo, pertanto la coppia (W ′ , ϕ′ ) è uno spazio euclideo di dimensione d − 1 ( V ′ è il complemento ortogonale di uno spazio di dimensione
1).
Siccome f (v ′ ) ∈ W ′ f definisce per restrizione una funzione f ′ : W ′ → W ′ lineare.
Segue che
ϕ′ (f ′ (v1 ), v2 ) = ϕ(f (v1 ), v2 ) = ϕ(v1 , f (v2 )) = ϕ′ (v1 , f ′ (v2 ))
quindi f ′ : W ′ → W ′ è simmetrica rispetto a (V ′ , ϕ′ ) .
Allora per l’ipotesi induttiva applicata allo spazio vettoriale euclideo di dimensione d − 1 , esiste una base B ′ = {v1 , . . . , vd−1 } di W ′ che è ortonormale per ϕ′
, e composta da autovettori di f ′ , ovvero ϕ′ (vk , vl ) = δ e f ′ (vk ) = λk ∗ vk , k ∈
(1, d − 1) per certi λk ∈ R .
Se ora poniamo vd = v (dove v è il vettore di norma 1 considerato prima), ricaviamo la base B = {v1 , . . . , vd−1 , vd } , infatti i vettori sono linearmente indipendenti
perché i due sottospazi sono in somma diretta.
Inoltre, abbiamo che ϕ(vk , vl ) = δkl per k ∈ (1, d−1) e ϕ(vi , vd ) = 0∀i = 1, . . . , d−
1 per definizione di complemento ortogonale e ϕ(vd , vd ) = 1 per supposizione.
Quindi ϕ(vk , vl ) = δkl , k, l ∈ (1, d) quindi B è una base di V ortonormale per ϕ .
Infine, f (vj ) = f ′ (vj ) = λ ∗ vj per j ∈ (1, . . . , d − 1) e f (vd ) = η ∗ vd per la scelta
di vd e quindi la base è composta da autovettori di f . Questo completa il passo
Capitolo 18. Teorema spettrale
induttivo e anche il corso di algebra lineare!
252 / 258
Capitolo 19. Fonti per testo e immagini; autori; licenze
253 / 258
Capitolo 19
Fonti per testo e immagini;
autori; licenze
19.1 Testo
• Corso:Algebra Lineare I1/Concetti introduttivi/Ripasso di insiemistica Fonte:
https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Concetti_introduttivi/Ripasso_
di_insiemistica?oldid=42416 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Concetti introduttivi/Relazioni Fonte: https://it.wikitolearn.
org/Corso%3AAlgebra_Lineare_I1/Concetti_introduttivi/Relazioni?oldid=42418 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Concetti introduttivi/Funzioni Fonte: https://it.wikitolearn.
org/Corso%3AAlgebra_Lineare_I1/Concetti_introduttivi/Funzioni?oldid=42420 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Concetti introduttivi/Operazioni Fonte: https://it.wikitolearn.
org/Corso%3AAlgebra_Lineare_I1/Concetti_introduttivi/Operazioni?oldid=42422 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Concetti introduttivi/Principio di induzione Fonte:
https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Concetti_introduttivi/Principio_
di_induzione?oldid=42424 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Lo spazio R2/Proprietà generali dello spazio Rn Fonte:
https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Lo_spazio_R2/Propriet%C3%A0_
generali_dello_spazio_Rn?oldid=42429 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Lo spazio R2/operazioni in Rn Fonte: https://it.wikitolearn.
org/Corso%3AAlgebra_Lineare_I1/Lo_spazio_R2/operazioni_in_Rn?oldid=42431 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Lo spazio R2/L’insieme R2 Fonte: https://it.wikitolearn.
org/Corso%3AAlgebra_Lineare_I1/Lo_spazio_R2/L’insieme_R2?oldid=42433 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Lo spazio R3/Lo spazio R3 Fonte: https://it.wikitolearn.
org/Corso%3AAlgebra_Lineare_I1/Lo_spazio_R3/Lo_spazio_R3?oldid=42438 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Lo spazio R3/La retta in R3 Fonte: https://it.wikitolearn.
org/Corso%3AAlgebra_Lineare_I1/Lo_spazio_R3/La_retta_in_R3?oldid=42440 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Lo spazio R3/Piani in R 3 Fonte: https://it.wikitolearn.
org/Corso%3AAlgebra_Lineare_I1/Lo_spazio_R3/Piani_in_R_3?oldid=42442 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Lo spazio R3/basi ordinate in R 3 Fonte: https://it.
wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Lo_spazio_R3/basi_ordinate_in_R_3?oldid=
42444 Contributori: Ale e Mmontrasio
Capitolo 19. Fonti per testo e immagini; autori; licenze
254 / 258
• Corso:Algebra Lineare I1/Norme e distanze/Norme Fonte: https://it.wikitolearn.
org/Corso%3AAlgebra_Lineare_I1/Norme_e_distanze/Norme?oldid=42449 Contributori:
Ale e Mmontrasio
• Corso:Algebra Lineare I1/Norme e distanze/Norma euclidea Fonte: https://it.
wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Norme_e_distanze/Norma_euclidea?oldid=
43467 Contributori: Ale, Mmontrasio e Denvit
• Corso:Algebra Lineare I1/Norme e distanze/Distanza punto - retta Fonte: https:
//it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Norme_e_distanze/Distanza_punto_
-_retta?oldid=43469 Contributori: Ale, Mmontrasio e Denvit
• Corso:Algebra Lineare I1/Norme e distanze/Distanza punto - piano Fonte: https:
//it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Norme_e_distanze/Distanza_punto_
-_piano?oldid=43476 Contributori: Ale, Mmontrasio e Denvit
• Corso:Algebra Lineare I1/Norme e distanze/Distanza retta - retta Fonte: https://
it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Norme_e_distanze/Distanza_retta_-_
retta?oldid=43473 Contributori: Ale, Mmontrasio e Denvit
• Corso:Algebra Lineare I1/Spazi vettoriali/Concetti introduttivi Fonte: https://it.
wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Spazi_vettoriali/Concetti_introduttivi?oldid=
42462 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Spazi vettoriali/Esempi di spazi vettoriali Fonte: https:
//it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Spazi_vettoriali/Esempi_di_spazi_vettoriali?
oldid=42464 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Spazi vettoriali/sottospazi vettoriali Fonte: https://it.
wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Spazi_vettoriali/sottospazi_vettoriali?oldid=
42466 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Spazi vettoriali/Combinazione lineare di un insieme di vettori Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Spazi_
vettoriali/Combinazione_lineare_di_un_insieme_di_vettori?oldid=42468 Contributori: Ale
e Mmontrasio
• Corso:Algebra Lineare I1/Spazi vettoriali/Teoremi sulle basi Fonte: https://it.
wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Spazi_vettoriali/Teoremi_sulle_basi?oldid=
42470 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Spazi vettoriali somma prodotto e intersezione/Dimensione di spazi vettoriali Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_
I1/Spazi_vettoriali_somma_prodotto_e_intersezione/Dimensione_di_spazi_vettoriali?oldid=
42475 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Spazi vettoriali somma prodotto e intersezione/spazio vettoriale prodotto Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_
I1/Spazi_vettoriali_somma_prodotto_e_intersezione/spazio_vettoriale_prodotto?oldid=
42477 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Spazi vettoriali somma prodotto e intersezione/spazio
vettoriale intersezione Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/
Spazi_vettoriali_somma_prodotto_e_intersezione/spazio_vettoriale_intersezione?oldid=
42479 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Spazi vettoriali somma prodotto e intersezione/Spazio vettoriale somma Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/
Spazi_vettoriali_somma_prodotto_e_intersezione/Spazio_vettoriale_somma?oldid=42481
Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Spazi vettoriali somma prodotto e intersezione/Formula di Grasman Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Spazi_
vettoriali_somma_prodotto_e_intersezione/Formula_di_Grasman?oldid=42483 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Matrici e spazi vettoriali/Nozioni elementari sulle matrici Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Matrici_e_
spazi_vettoriali/Nozioni_elementari_sulle_matrici?oldid=43450 Contributori: Ale, Mmontrasio e Denvit
Capitolo 19. Fonti per testo e immagini; autori; licenze
255 / 258
• Corso:Algebra Lineare I1/Spazio vettoriale quoziente/classe di equivalenza Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Spazio_vettoriale_quoziente/
classe_di_equivalenza?oldid=42493 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Spazio vettoriale quoziente/Sottospazio affine Fonte:
https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Spazio_vettoriale_quoziente/Sottospazio_
affine?oldid=42495 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Spazio vettoriale quoziente/Operazioni nello spazio
quoziente Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Spazio_vettoriale_
quoziente/Operazioni_nello_spazio_quoziente?oldid=42497 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Spazio vettoriale quoziente/dimensione dello spazio
quoziente Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Spazio_vettoriale_
quoziente/dimensione_dello_spazio_quoziente?oldid=42499 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Applicazioni lineari/Nozioni di base Fonte: https://it.
wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Applicazioni_lineari/Nozioni_di_base?oldid=
43454 Contributori: Ale, Mmontrasio e Denvit
• Corso:Algebra Lineare I1/Applicazioni lineari/Nucleo e spazio immagine Fonte:
https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Applicazioni_lineari/Nucleo_e_
spazio_immagine?oldid=43459 Contributori: Ale, Mmontrasio e Denvit
• Corso:Algebra Lineare I1/Applicazioni lineari/Rango di un’applicazione Fonte:
https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Applicazioni_lineari/Rango_di_
un’applicazione?oldid=43461 Contributori: Ale, Mmontrasio e Denvit
• Corso:Algebra Lineare I1/Applicazioni lineari/Controimmagine di un vettore Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Applicazioni_lineari/
Controimmagine_di_un_vettore?oldid=42510 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Applicazioni lineari/Applicazioni lineari tra due spazi
vettoriali Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Applicazioni_
lineari/Applicazioni_lineari_tra_due_spazi_vettoriali?oldid=43463 Contributori: Ale, Mmontrasio e Denvit
• Corso:Algebra Lineare I1/Applicazioni lineari/Isomorfismo Fonte: https://it.wikitolearn.
org/Corso%3AAlgebra_Lineare_I1/Applicazioni_lineari/Isomorfismo?oldid=42514 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Prodotto tra matrici/Applicazioni lineari tra spazi
euclidei Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Prodotto_tra_
matrici/Applicazioni_lineari_tra_spazi_euclidei?oldid=42519 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Prodotto tra matrici/composizione di applicazioni lineari Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Prodotto_tra_matrici/
composizione_di_applicazioni_lineari?oldid=42521 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Prodotto tra matrici/Invertibilità di matrici Fonte:
https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Prodotto_tra_matrici/Invertibilit%
C3%A0_di_matrici?oldid=42523 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Prodotto tra matrici/Calcolo della matrice inversa
Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Prodotto_tra_matrici/Calcolo_
della_matrice_inversa?oldid=42525 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Prodotto tra matrici/Matrice trasposta Fonte: https://
it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Prodotto_tra_matrici/Matrice_trasposta?
oldid=42527 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Matrici e basi/Basi di partenza e di arrivo Fonte: https:
//it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Matrici_e_basi/Basi_di_partenza_e_
di_arrivo?oldid=42532 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Matrici e basi/composizione e prodotti di matrici Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Matrici_e_basi/composizione_
e_prodotti_di_matrici?oldid=42534 Contributori: Ale e Mmontrasio
Capitolo 19. Fonti per testo e immagini; autori; licenze
256 / 258
• Corso:Algebra Lineare I1/Matrici e basi/Applicazione lineare dello spazio quoziente Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Matrici_e_basi/
Applicazione_lineare_dello_spazio_quoziente?oldid=42536 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Matrici e basi/Applicazioni tra due spazi vettoriali
con basi diverse Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Matrici_
e_basi/Applicazioni_tra_due_spazi_vettoriali_con_basi_diverse?oldid=42538 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Matrici simili/Matrici simili in uno spazio vettoriale
Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Matrici_simili/Matrici_
simili_in_uno_spazio_vettoriale?oldid=42543 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Matrici simili/condizioni necessarie per la similitudine Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Matrici_simili/condizioni_
necessarie_per_la_similitudine?oldid=42545 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Matrici simili/Precisazione sulle matrici simili Fonte:
https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Matrici_simili/Precisazione_sulle_
matrici_simili?oldid=42547 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Determinanti/Definizioni preliminari Fonte: https://it.
wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Determinanti/Definizioni_preliminari?oldid=
42552 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Determinanti/Definizione di determinante ed esempi
Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Determinanti/Definizione_
di_determinante_ed_esempi?oldid=42554 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Determinanti/Calcolo del determinante Fonte: https://
it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Determinanti/Calcolo_del_determinante?
oldid=42556 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Spazio duale/omomorfismo Fonte: https://it.wikitolearn.
org/Corso%3AAlgebra_Lineare_I1/Spazio_duale/omomorfismo?oldid=42561 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Spazio duale/Spazio duale Fonte: https://it.wikitolearn.
org/Corso%3AAlgebra_Lineare_I1/Spazio_duale/Spazio_duale?oldid=42563 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Spazio duale/Sottospazi annullatori Fonte: https://it.
wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Spazio_duale/Sottospazi_annullatori?oldid=
42565 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Spazio duale/Osservazioni sulla traccia Fonte: https://
it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Spazio_duale/Osservazioni_sulla_traccia?
oldid=42567 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Spazio duale/Relazione tra sottospazi annullatori Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Spazio_duale/Relazione_tra_
sottospazi_annullatori?oldid=42569 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Prodotti scalari/Definizione ed esempi di prodotti
scalari Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Prodotti_scalari/
Definizione_ed_esempi_di_prodotti_scalari?oldid=42574 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Prodotti scalari/Forme bilineari e prodotti scalari su
spazi euclidei Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Prodotti_
scalari/Forme_bilineari_e_prodotti_scalari_su_spazi_euclidei?oldid=42576 Contributori: Valsdav, Ale e Mmontrasio
• Corso:Algebra Lineare I1/Prodotti scalari/Spazio nullo di un prodotto scalare
Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Prodotti_scalari/Spazio_
nullo_di_un_prodotto_scalare?oldid=42578 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Prodotti scalari/Complemento ortogonale Fonte: https:
//it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Prodotti_scalari/Complemento_ortogonale?
oldid=42580 Contributori: Ale e Mmontrasio
Capitolo 19. Fonti per testo e immagini; autori; licenze
257 / 258
• Corso:Algebra Lineare I1/Prodotti scalari/Matrici e prodotti scalari in spazi generici Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Prodotti_scalari/
Matrici_e_prodotti_scalari_in_spazi_generici?oldid=42582 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Prodotti scalari/Dipendenza della matrice M B da B
Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Prodotti_scalari/Dipendenza_
della_matrice_M_B_da_B?oldid=42584 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Prodotti scalari/Spazio vettoriale euclideo Fonte: https:
//it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Prodotti_scalari/Spazio_vettoriale_euclideo?
oldid=42586 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Basi ortogonali/Definizione ed esempi Fonte: https://it.
wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Basi_ortogonali/Definizione_ed_esempi?oldid=
42591 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Basi ortogonali/Esistenza della base ortogonale Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Basi_ortogonali/Esistenza_
della_base_ortogonale?oldid=42593 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Basi ortogonali/Considerazioni generali Fonte: https://
it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Basi_ortogonali/Considerazioni_generali?
oldid=42595 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Basi ortogonali/Teorema di Sylvester Fonte: https://it.
wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Basi_ortogonali/Teorema_di_Sylvester?oldid=
42597 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Basi ortogonali/Complemento ortogonale Fonte: https:
//it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Basi_ortogonali/Complemento_ortogonale?
oldid=42599 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Basi ortogonali/L’applicazione Lv Fonte: https://it.wikitolearn.
org/Corso%3AAlgebra_Lineare_I1/Basi_ortogonali/L’applicazione_Lv?oldid=42601 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Basi ortogonali/criterio dei minori incapsulati Fonte:
https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Basi_ortogonali/criterio_dei_minori_
incapsulati?oldid=42603 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Autovalori e autovettori/Introduzione Fonte: https://it.
wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Autovalori_e_autovettori/Introduzione?oldid=
42608 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Autovalori e autovettori/Concetti principali Fonte:
https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Autovalori_e_autovettori/Concetti_
principali?oldid=42610 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Autovalori e autovettori/Relazione tra matrici e applicazioni diagonalizzabili Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_
I1/Autovalori_e_autovettori/Relazione_tra_matrici_e_applicazioni_diagonalizzabili?oldid=
42612 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Autovalori e autovettori/Autovalori di un endomorfismo Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Autovalori_e_autovettori/
Autovalori_di_un_endomorfismo?oldid=42614 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Autovalori e autovettori/Molteplicità algebrica e geometrica Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Autovalori_e_
autovettori/Molteplicit%C3%A0_algebrica_e_geometrica?oldid=42616 Contributori: Ale
e Mmontrasio
• Corso:Algebra Lineare I1/Autovalori e autovettori/Osservazioni generali Fonte:
https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Autovalori_e_autovettori/Osservazioni_
generali?oldid=42618 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Teorema spettrale/Diagonalizzabilità negli spazi vettoriali euclidei Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Teorema_
spettrale/Diagonalizzabilit%C3%A0_negli_spazi_vettoriali_euclidei?oldid=42623 Contributori: Ale e Mmontrasio
Capitolo 19. Fonti per testo e immagini; autori; licenze
258 / 258
• Corso:Algebra Lineare I1/Teorema spettrale/Teorema spettrale Fonte: https://it.
wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Teorema_spettrale/Teorema_spettrale?oldid=
42625 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Teorema spettrale/Teorema spettrale nello studio dei
prodotti scalari Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Teorema_
spettrale/Teorema_spettrale_nello_studio_dei_prodotti_scalari?oldid=42627 Contributori: Ale e Mmontrasio
• Corso:Algebra Lineare I1/Teorema spettrale/Dimostrazione del teorema spettrale Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Teorema_spettrale/
Dimostrazione_del_teorema_spettrale?oldid=42629 Contributori: Ale e Mmontrasio
19.2 Immagini
19.3 Licenza dell’opera
• [Project:Copyright Creative Commons Attribution Share Alike 3.0 & GNU FDL]
• Creative Commons Attribution-Share Alike 3.0