Algebra Lineare I1 8 giugno 2017 This book is the result of a collaborative effort of a community of people like you, who believe that knowledge only grows if shared. We are waiting for you! Get in touch with the rest of the team by visiting http://join.wikitolearn.org You are free to copy, share, remix and reproduce this book, provided that you properly give credit to original authors and you give readers the same freedom you enjoy. Read the full terms at https://creativecommons.org/licenses/by-sa/3.0/ Indice 1 Concetti introduttivi 1.1 1.2 1.3 1.4 1 Ripasso di insiemistica . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.1.1 Definizione di insieme . . . . . . . . . . . . . . . . . . . . . 1 1.1.2 Descrizione di alcuni insiemi numerici . . . . . . . . . . . . 1 1.1.3 Altre notazioni . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.1.4 Unione e intersezione . . . . . . . . . . . . . . . . . . . . . . 2 1.1.5 Differenza e differenza simmetrica e prodotto cartesiano . . 3 Relazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.2.1 Corrispondenze e relazioni . . . . . . . . . . . . . . . . . . . 4 1.2.2 Proprietà delle relazioni . . . . . . . . . . . . . . . . . . . . 4 1.2.3 Insieme quoziente . . . . . . . . . . . . . . . . . . . . . . . . 7 1.2.4 Relazioni d’ordine . . . . . . . . . . . . . . . . . . . . . . . 9 Funzioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.3.1 Definizioni di base . . . . . . . . . . . . . . . . . . . . . . . 10 1.3.2 Funzioni iniettive e suriettive . . . . . . . . . . . . . . . . . 11 Operazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.4.1 Definizione ed esempi . . . . . . . . . . . . . . . . . . . . . 11 1.4.2 Composizione di funzioni . . . . . . . . . . . . . . . . . . . 12 1.4.3 Insiemi di funzioni . . . . . . . . . . . . . . . . . . . . . . . 13 1.4.4 Gruppo simmetrico . . . . . . . . . . . . . . . . . . . . . . . 15 1.4.5 Somma NIM . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.4.6 Alcuni esempi . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.4.7 Elementi neutri e opposti . . . . . . . . . . . . . . . . . . . 17 1.4.8 Gerarchia di strutture algebriche . . . . . . . . . . . . . . . 18 1.4.9 L’inverso è unico? . . . . . . . . . . . . . . . . . . . . . . . 18 1.4.10 Tavole di moltiplicazione . . . . . . . . . . . . . . . . . . . . 19 1.4.11 Anello . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 1.4.12 Relazioni compatibili con un’operazione . . . . . . . . . . . 21 Indice 3 / 258 1.5 Principio di induzione . . . . . . . . . . . . . . . . . . . . . . . . . 21 2 Lo spazio R2 23 2.1 Proprietà generali dello spazio Rn . . . . . . . . . . . . . . . . . . . 23 2.2 operazioni in Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.3 2.2.1 somma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.2.2 prodotto scalare per vettore . . . . . . . . . . . . . . . . . . 25 L’insieme R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 2.3.1 Vettori linearmente dipendenti . . . . . . . . . . . . . . . . 26 2.3.2 criterio numerico . . . . . . . . . . . . . . . . . . . . . . . . 27 2.3.3 Retta e parametrizzazioni . . . . . . . . . . . . . . . . . . . 28 2.3.4 equazioni cartesiane . . . . . . . . . . . . . . . . . . . . . . 30 2.3.5 Retta per due punti . . . . . . . . . . . . . . . . . . . . . . 30 2.3.6 Coordinate . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 2.3.7 Basi di R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 3 Lo spazio R3 3.1 Lo spazio R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 3.1.1 3.2 3.3 3.4 35 Prodotto vettoriale in R 3 . . . . . . . . . . . . . . . . . . . 35 La retta in R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 3.2.1 vettori linearmente dipendenti . . . . . . . . . . . . . . . . 36 3.2.2 Definizione ed esempi sulla retta . . . . . . . . . . . . . . . 37 3.2.3 Dalle equazioni parametriche alle cartesiane . . . . . . . . . 38 3.2.4 Dalle equazioni cartesiane alle parametriche . . . . . . . . . 39 Piani in R 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 3.3.1 Prodotto scalare standard . . . . . . . . . . . . . . . . . . . 40 3.3.2 Piano in R 3 . . . . . . . . . . . . . . . . . . . . . . . . . . 41 3.3.3 Osservazione sulla combinazione lineare . . . . . . . . . . . 42 3.3.4 Dall’equazione parametrica alla cartesiana . . . . . . . . . . 43 3.3.5 Dall’equazione cartesiana alla parametrica . . . . . . . . . . 44 basi ordinate in R 3 . . . . . . . . . . . . . . . . . . . . . . . . . . 44 3.4.1 Vettori linearmente dipendenti . . . . . . . . . . . . . . . . 44 3.4.2 Definizione di base . . . . . . . . . . . . . . . . . . . . . . . 45 3.4.3 La base canonica . . . . . . . . . . . . . . . . . . . . . . . . 46 3.4.4 esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 4 Norme e distanze 49 Indice 4 / 258 4.1 Norme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 4.1.1 4.2 Proprietà generali della norma euclidea . . . . . . . . . . . 49 Norma euclidea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 4.2.1 disuguaglianza di Cauchy-Schwarz . . . . . . . . . . . . . . 50 4.2.2 Disuguaglianza triangolare . . . . . . . . . . . . . . . . . . . 52 4.2.3 Distanza euclidea . . . . . . . . . . . . . . . . . . . . . . . . 53 4.2.4 Interpretazione geometrica di Cauchy Schwarz . . . . . . . 54 4.2.5 Caso particolare vettori unitari . . . . . . . . . . . . . . . . 54 4.2.6 vettori perpendicolari . . . . . . . . . . . . . . . . . . . . . 55 4.3 Distanza punto - retta . . . . . . . . . . . . . . . . . . . . . . . . . 57 4.4 Distanza punto - piano . . . . . . . . . . . . . . . . . . . . . . . . . 58 4.5 Distanza retta - retta . . . . . . . . . . . . . . . . . . . . . . . . . . 60 5 Spazi vettoriali 5.1 5.2 5.3 5.4 5.5 63 Concetti introduttivi . . . . . . . . . . . . . . . . . . . . . . . . . . 63 5.1.1 Definizioni di spazi vettoriali . . . . . . . . . . . . . . . . . 63 5.1.2 proprieta’ della somma . . . . . . . . . . . . . . . . . . . . . 63 5.1.3 Proprietà della moltiplicazione . . . . . . . . . . . . . . . . 64 Esempi di spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . 65 5.2.1 Spazio delle funzioni . . . . . . . . . . . . . . . . . . . . . . 65 5.2.2 Polinomi reali . . . . . . . . . . . . . . . . . . . . . . . . . . 66 sottospazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 5.3.1 Definizione . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 5.3.2 Lemma sugli spazi vettoriali . . . . . . . . . . . . . . . . . . 68 5.3.3 classificazione i sottospazi vettoriali di R^2 . . . . . . . . . 69 Combinazione lineare di un insieme di vettori . . . . . . . . . . . . 70 5.4.1 Definizione di span . . . . . . . . . . . . . . . . . . . . . . . 70 5.4.2 Span come sottospazio vettoriale . . . . . . . . . . . . . . . 71 5.4.3 classificazione dei sottospazi vettoriali di R3 . . . . . . . . . 73 5.4.4 condizioni equivalenti . . . . . . . . . . . . . . . . . . . . . 73 5.4.5 Vettori linarmente indipendenti . . . . . . . . . . . . . . . . 74 5.4.6 Basi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 5.4.7 Sistema di generatori . . . . . . . . . . . . . . . . . . . . . . 76 5.4.8 coordinate . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 Teoremi sulle basi . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 5.5.1 Basi e vettori linearmente indipendenti . . . . . . . . . . . . 77 Indice 5 / 258 5.5.2 Basi e cardinalita’ . . . . . . . . . . . . . . . . . . . . . . . 79 6 Spazi vettoriali somma prodotto e intersezione 6.1 6.2 6.3 Dimensione di spazi vettoriali . . . . . . . . . . . . . . . . . . . . . 80 6.1.1 Definizione e osservazioni introduttive . . . . . . . . . . . . 80 6.1.2 Spazio vettoriale finitamente generato . . . . . . . . . . . . 80 6.1.3 dimensione di sottospazi vettoriali . . . . . . . . . . . . . . 81 6.1.4 Esercizio determinazione della dimensione di uno spazio vettoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 spazio vettoriale prodotto . . . . . . . . . . . . . . . . . . . . . . . 83 6.2.1 dimensione dello spazio vettoriale prodotto . . . . . . . . . 83 6.2.2 Teorema della base incompleta . . . . . . . . . . . . . . . . 85 spazio vettoriale intersezione . . . . . . . . . . . . . . . . . . . . . . 85 6.3.1 6.4 6.5 proprietà generali . . . . . . . . . . . . . . . . . . . . . . . . 85 Spazio vettoriale somma . . . . . . . . . . . . . . . . . . . . . . . . 88 6.4.1 Proprietà generali . . . . . . . . . . . . . . . . . . . . . . . 88 6.4.2 Teorema sullo spazio somma . . . . . . . . . . . . . . . . . 88 Formula di Grasman . . . . . . . . . . . . . . . . . . . . . . . . . . 89 6.5.1 Caso 1 A sottoinsieme di B . . . . . . . . . . . . . . . . . . 89 6.5.2 Caso 2 somma diretta . . . . . . . . . . . . . . . . . . . . . 90 6.5.3 Caso 3 dimensione dell’intersezione non nulla . . . . . . . . 91 7 Matrici e spazi vettoriali 7.1 80 93 Nozioni elementari sulle matrici . . . . . . . . . . . . . . . . . . . . 93 7.1.1 Definizione di matrice . . . . . . . . . . . . . . . . . . . . . 93 7.1.2 Operazioni per riga . . . . . . . . . . . . . . . . . . . . . . . 94 7.1.3 Matrici a scala . . . . . . . . . . . . . . . . . . . . . . . . . 96 7.1.4 Complemento ortogonale 7.1.5 Procedimento alternativo per il completamento della base . 100 8 Spazio vettoriale quoziente . . . . . . . . . . . . . . . . . . . 99 105 8.1 classe di equivalenza . . . . . . . . . . . . . . . . . . . . . . . . . . 105 8.2 Sottospazio affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 8.3 Operazioni nello spazio quoziente . . . . . . . . . . . . . . . . . . . 106 8.4 8.3.1 somma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 8.3.2 prodotto per uno scalare . . . . . . . . . . . . . . . . . . . . 108 dimensione dello spazio quoziente . . . . . . . . . . . . . . . . . . . 108 Indice 6 / 258 8.4.1 Caso 1 W=V . . . . . . . . . . . . . . . . . . . . . . . . . . 108 8.4.2 Caso 2 W consiste del solo vettore nullo . . . . . . . . . . . 108 8.4.3 Caso generale . . . . . . . . . . . . . . . . . . . . . . . . . . 109 9 Applicazioni lineari 9.1 9.2 9.3 9.4 9.5 9.6 111 Nozioni di base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 9.1.1 Definizione di applicazione lineare . . . . . . . . . . . . . . 111 9.1.2 Applicazione lineare: R → V . . . . . . . . . . . . . . . . . 111 9.1.3 Applicazioni lineari colon R2 → R2 . . . . . . . . . . . . . . 112 9.1.4 Applicazioni lineari sul quoziente . . . . . . . . . . . . . . . 112 Nucleo e spazio immagine . . . . . . . . . . . . . . . . . . . . . . . 113 9.2.1 Definizione di nucleo ed esempi . . . . . . . . . . . . . . . . 113 9.2.2 Nucleo come sottospazio vettoriale . . . . . . . . . . . . . . 114 9.2.3 Definizione di spazio immagine ed esempi . . . . . . . . . . 114 9.2.4 Immagine come sottospazio vettoriale . . . . . . . . . . . . 115 9.2.5 Applicazione iniettiva . . . . . . . . . . . . . . . . . . . . . 115 Rango di un’applicazione . . . . . . . . . . . . . . . . . . . . . . . 116 9.3.1 Definizione e osservazioni sul rango . . . . . . . . . . . . . . 116 9.3.2 Teorema del rango . . . . . . . . . . . . . . . . . . . . . . . 117 9.3.3 Applicazioni del teorema del rango . . . . . . . . . . . . . . 118 Controimmagine di un vettore . . . . . . . . . . . . . . . . . . . . . 120 9.4.1 Struttura della controimmagine . . . . . . . . . . . . . . . . 120 9.4.2 Definizioni ed esempi sulla controimmagine . . . . . . . . . 121 Applicazioni lineari tra due spazi vettoriali . . . . . . . . . . . . . . 123 9.5.1 Applicazioni coincidenti . . . . . . . . . . . . . . . . . . . . 123 9.5.2 Unicità dell’applicazione lineare da V in W . . . . . . . . . 124 9.5.3 Esistenza di un’applicazione suriettiva . . . . . . . . . . . . 125 9.5.4 Esistenza di un’applicazione iniettiva . . . . . . . . . . . . . 125 9.5.5 Esistenza di un’applicazione biunivoca . . . . . . . . . . . . 125 Isomorfismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 10 Prodotto tra matrici 128 10.1 Applicazioni lineari tra spazi euclidei . . . . . . . . . . . . . . . . . 128 10.1.1 Prodotto matrice per vettore . . . . . . . . . . . . . . . . . 128 10.1.2 Corrispondenza biunivoca tra applicazioni lineari e matrici 128 10.1.3 Nucleo immagine e controimmagine . . . . . . . . . . . . . 129 10.2 composizione di applicazioni lineari . . . . . . . . . . . . . . . . . . 130 Indice 7 / 258 10.2.1 Linearità della composizione . . . . . . . . . . . . . . . . . . 130 10.2.2 composizione di applicazioni lineari e matrici . . . . . . . . 130 10.2.3 Matrice associata alla composizione . . . . . . . . . . . . . 130 10.2.4 prodotto tra matrici . . . . . . . . . . . . . . . . . . . . . . 131 10.2.5 associativita’ del prodotto tra matrici . . . . . . . . . . . . 133 10.3 Invertibilità di matrici . . . . . . . . . . . . . . . . . . . . . . . . . 133 10.3.1 matrici quadrate . . . . . . . . . . . . . . . . . . . . . . . . 133 10.3.2 Matrice diagonale . . . . . . . . . . . . . . . . . . . . . . . 134 10.3.3 Matrice invertibile . . . . . . . . . . . . . . . . . . . . . . . 134 10.3.4 Rango della matrice composta . . . . . . . . . . . . . . . . 134 10.3.5 Invertibilita’ di matrici quadrate . . . . . . . . . . . . . . . 135 10.3.6 unicita’ della matrice inversa . . . . . . . . . . . . . . . . . 135 10.3.7 Relazione tra iniettivita’ e matrice inversa . . . . . . . . . . 136 10.3.8 Suriettivita’ e invertibilita’ . . . . . . . . . . . . . . . . . . 136 10.3.9 Inversa destra e inversa sinistra . . . . . . . . . . . . . . . . 137 10.3.10 condizioni equivalenti . . . . . . . . . . . . . . . . . . . . . 137 10.4 Calcolo della matrice inversa . . . . . . . . . . . . . . . . . . . . . 138 10.4.1 Condizione per l’invertibilità . . . . . . . . . . . . . . . . . 138 10.4.2 Considerazioni generali invertibilita’ del prodotto . . . . . . 141 10.5 Matrice trasposta . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 10.5.1 Definizione . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 10.5.2 Prodotto fra trasposte . . . . . . . . . . . . . . . . . . . . . 142 10.5.3 Trasposta dell’inversa . . . . . . . . . . . . . . . . . . . . . 143 10.5.4 Complemento ortogonale 11 Matrici e basi . . . . . . . . . . . . . . . . . . . 143 144 11.1 Basi di partenza e di arrivo . . . . . . . . . . . . . . . . . . . . . . 144 11.1.1 Ipotesi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 11.1.2 Coordinate nella base d’arrivo . . . . . . . . . . . . . . . . . 144 11.1.3 Teorema sulle coordinate . . . . . . . . . . . . . . . . . . . 146 11.1.4 Conclusione . . . . . . . . . . . . . . . . . . . . . . . . . . . 147 11.1.5 teorema sul nucleo . . . . . . . . . . . . . . . . . . . . . . . 148 11.1.6 Teorema sull’immagine . . . . . . . . . . . . . . . . . . . . . 149 11.2 composizione e prodotti di matrici . . . . . . . . . . . . . . . . . . 154 11.2.1 Teorema C=BA . . . . . . . . . . . . . . . . . . . . . . . . 154 11.2.2 Relazione tra due basi diverse di uno spazio . . . . . . . . . 156 Indice 8 / 258 11.3 Applicazione lineare dello spazio quoziente . . . . . . . . . . . . . . 158 11.4 Applicazioni tra due spazi vettoriali con basi diverse . . . . . . . . 159 11.4.1 Caso generale . . . . . . . . . . . . . . . . . . . . . . . . . . 159 11.4.2 Caso particolare endomorfismo . . . . . . . . . . . . . . . . 160 12 Matrici simili 163 12.1 Matrici simili in uno spazio vettoriale . . . . . . . . . . . . . . . . . 163 12.1.1 Teorema sulla similitudine . . . . . . . . . . . . . . . . . . . 163 12.1.2 Caso particolare del teorema sulla similitudine . . . . . . . 164 12.2 condizioni necessarie per la similitudine . . . . . . . . . . . . . . . 165 12.2.1 Rango uguale . . . . . . . . . . . . . . . . . . . . . . . . . . 165 12.2.2 Matrici diverse dall’identita’ . . . . . . . . . . . . . . . . . . 165 12.2.3 Traccia uguale . . . . . . . . . . . . . . . . . . . . . . . . . 166 12.2.4 Determinante uguale . . . . . . . . . . . . . . . . . . . . . . 167 12.2.5 conclusione . . . . . . . . . . . . . . . . . . . . . . . . . . . 168 12.3 Precisazione sulle matrici simili . . . . . . . . . . . . . . . . . . . . 168 13 Determinanti 169 13.1 Definizioni preliminari . . . . . . . . . . . . . . . . . . . . . . . . . 169 13.1.1 Funzione multilineare . . . . . . . . . . . . . . . . . . . . . 169 13.1.2 Funzione alternante . . . . . . . . . . . . . . . . . . . . . . 170 13.1.3 Multilinearita’ e antisimmetricita’ . . . . . . . . . . . . . . 171 13.2 Definizione di determinante ed esempi . . . . . . . . . . . . . . . . 172 13.2.1 Teorema di Bine’ . . . . . . . . . . . . . . . . . . . . . . . . 173 13.3 Calcolo del determinante . . . . . . . . . . . . . . . . . . . . . . . . 174 13.3.1 Sviluppo di Laplace . . . . . . . . . . . . . . . . . . . . . . 175 14 Spazio duale 177 14.1 omomorfismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177 14.1.1 Lo spazio V W . . . . . . . . . . . . . . . . . . . . . . . . . 177 14.1.2 Lo spazio delle matrici cXd . . . . . . . . . . . . . . . . . . 178 14.1.3 Dimensione di V W . . . . . . . . . . . . . . . . . . . . . . 180 14.2 Spazio duale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 14.2.1 Spazio duale e funzionali . . . . . . . . . . . . . . . . . . . . 181 14.2.2 Base dello spazio duale . . . . . . . . . . . . . . . . . . . . . 181 14.2.3 Considerazioni sulla base duale alla base canonica . . . . . 182 14.3 Sottospazi annullatori . . . . . . . . . . . . . . . . . . . . . . . . . 183 Indice 9 / 258 14.3.1 Definizione ed esempi . . . . . . . . . . . . . . . . . . . . . 183 14.3.2 Dimensione dell’annullatore . . . . . . . . . . . . . . . . . . 184 14.3.3 Base dell’annullatore . . . . . . . . . . . . . . . . . . . . . . 187 14.4 Osservazioni sulla traccia . . . . . . . . . . . . . . . . . . . . . . . 187 14.5 Relazione tra sottospazi annullatori . . . . . . . . . . . . . . . . . . 188 14.5.1 Inclusione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188 14.5.2 Annullatore dell’intersezione . . . . . . . . . . . . . . . . . . 188 14.5.3 Annullatore della somma . . . . . . . . . . . . . . . . . . . 189 14.5.4 Uguaglianza tra annullatori . . . . . . . . . . . . . . . . . . 190 15 Prodotti scalari 192 15.1 Definizione ed esempi di prodotti scalari . . . . . . . . . . . . . . . 192 15.1.1 Forme bilineari . . . . . . . . . . . . . . . . . . . . . . . . . 192 15.1.2 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 15.1.3 Prodotto scalare non degenere . . . . . . . . . . . . . . . . 193 15.2 Forme bilineari e prodotti scalari su spazi euclidei . . . . . . . . . . 193 15.2.1 Prodotti scalari e matrici . . . . . . . . . . . . . . . . . . . 193 15.2.2 Unicita’ della matrice C . . . . . . . . . . . . . . . . . . . . 194 15.2.3 Corrispondenza biunivoca tra prodotti scalari e matrici simmetriche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196 15.3 Spazio nullo di un prodotto scalare . . . . . . . . . . . . . . . . . . 196 15.3.1 Caso particolare V= R^n . . . . . . . . . . . . . . . . . . . 197 15.4 Complemento ortogonale . . . . . . . . . . . . . . . . . . . . . . . . 198 15.4.1 Prodotto scalare definito positivo . . . . . . . . . . . . . . . 199 15.4.2 relazione tra prodotti degeneri e positivi . . . . . . . . . . . 199 15.5 Matrici e prodotti scalari in spazi generici . . . . . . . . . . . . . . 200 15.5.1 Matrici e forme bilineari . . . . . . . . . . . . . . . . . . . . 200 15.5.2 Spazio nullo . . . . . . . . . . . . . . . . . . . . . . . . . . . 201 15.6 Dipendenza della matrice M B da B . . . . . . . . . . . . . . . . . 203 15.7 Spazio vettoriale euclideo . . . . . . . . . . . . . . . . . . . . . . . 207 15.7.1 Disuguaglianza di Cauchy-Schwarz . . . . . . . . . . . . . . 207 16 Basi ortogonali 16.1 Definizione ed esempi 208 . . . . . . . . . . . . . . . . . . . . . . . . . 208 16.2 Esistenza della base ortogonale . . . . . . . . . . . . . . . . . . . . 208 16.2.1 Enunciato . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208 16.2.2 Osservazione sul complemento ortogonale . . . . . . . . . . 209 Indice 10 / 258 16.2.3 Funzione quadratica . . . . . . . . . . . . . . . . . . . . . . 210 16.2.4 Identita’ di polarizzazione . . . . . . . . . . . . . . . . . . . 211 16.2.5 Dimostrazione del teorema enunciato . . . . . . . . . . . . . 211 16.3 Considerazioni generali . . . . . . . . . . . . . . . . . . . . . . . . . 212 16.3.1 Span contenuto nello spazio nullo . . . . . . . . . . . . . . . 212 16.3.2 Spazio nullo contenuto nello span . . . . . . . . . . . . . . . 213 16.3.3 Caso particolare K= C . . . . . . . . . . . . . . . . . . . . 214 16.4 Teorema di Sylvester . . . . . . . . . . . . . . . . . . . . . . . . . . 215 16.4.1 Indici di nullita’ positivita’ e negativita’ . . . . . . . . . . . 215 16.4.2 Dimostrazione del teorema di Sylvester . . . . . . . . . . . 216 16.5 Complemento ortogonale . . . . . . . . . . . . . . . . . . . . . . . . 219 16.5.1 Dimensione del complemento ortogonale . . . . . . . . . . . 219 16.6 L’applicazione Lv . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220 16.6.1 Matrice di L . . . . . . . . . . . . . . . . . . . . . . . . . . 220 16.6.2 Dimostrazione del teorema sul complemento ortogonale . . 221 16.7 criterio dei minori incapsulati . . . . . . . . . . . . . . . . . . . . . 222 17 Autovalori e autovettori 225 17.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225 17.1.1 Applicazioni lineari . . . . . . . . . . . . . . . . . . . . . . . 225 17.1.2 Prodotti scalari . . . . . . . . . . . . . . . . . . . . . . . . . 226 17.2 Concetti principali . . . . . . . . . . . . . . . . . . . . . . . . . . . 226 17.2.1 Autovalori . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226 17.2.2 Autovettori . . . . . . . . . . . . . . . . . . . . . . . . . . . 226 17.2.3 Applicazione diagonalizzabile . . . . . . . . . . . . . . . . . 227 17.2.4 Matrice diagonalizzabile . . . . . . . . . . . . . . . . . . . . 228 17.3 Relazione tra matrici e applicazioni diagonalizzabili . . . . . . . . . 228 17.4 Autovalori di un endomorfismo . . . . . . . . . . . . . . . . . . . . 229 17.4.1 Polinomio caratteristico . . . . . . . . . . . . . . . . . . . . 230 17.5 Molteplicità algebrica e geometrica . . . . . . . . . . . . . . . . . . 233 17.6 Osservazioni generali . . . . . . . . . . . . . . . . . . . . . . . . . . 235 17.6.1 condizioni necessarie per la diagonalizzabilità . . . . . . . . 236 17.6.2 Lineare indipendenza di autovalori distinti . . . . . . . . . . 237 17.6.3 Condizioni sufficienti per la diagonalizzabilità . . . . . . . . 238 17.6.4 Valori di molteplicità algebrica e geometrica . . . . . . . . . 239 18 Teorema spettrale 241 Indice 11 / 258 18.1 Diagonalizzabilità negli spazi vettoriali euclidei . . . . . . . . . . . 241 18.1.1 Applicazione simmetrica o autoaggiunta . . . . . . . . . . . 241 18.1.2 Base ortogonale . . . . . . . . . . . . . . . . . . . . . . . . . 242 18.2 Teorema spettrale . . . . . . . . . . . . . . . . . . . . . . . . . . . 242 18.2.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . 242 18.2.2 Conseguenze del teorema . . . . . . . . . . . . . . . . . . . 244 18.2.3 La matrice speciale . . . . . . . . . . . . . . . . . . . . . . . 244 18.2.4 Matrice ortogonale . . . . . . . . . . . . . . . . . . . . . . . 244 18.3 Teorema spettrale nello studio dei prodotti scalari . . . . . . . . . 246 18.3.1 Secondo teorema spettrale . . . . . . . . . . . . . . . . . . . 247 18.4 Dimostrazione del teorema spettrale . . . . . . . . . . . . . . . . . 249 19 Fonti per testo e immagini; autori; licenze 253 19.1 Testo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253 19.2 Immagini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258 19.3 Licenza dell’opera . . . . . . . . . . . . . . . . . . . . . . . . . . . 258 Capitolo 1. Concetti introduttivi 1 / 258 Capitolo 1 Concetti introduttivi 1.1 Ripasso di insiemistica 1.1.1 Definizione di insieme Sia X un insieme. Per descrivere X ci sono due alternative: 1. descrivere tutti e soli gli elementi di X 2. scrivere una proprietà valida soltanto per gli elementi di X . Esempio 1.1 L’insieme delle vocali della parola “musica” si scrive come X = {u, i, a} oppure X = {vocali della parola musica} 1.1.2 Descrizione di alcuni insiemi numerici 1. Insieme dei numeri naturali: N = {0, 1, 2, 3, 4, 5, . . . } 2. insieme dei numeri interi: Z = {0, 1, −1, 2, −2, 3, −3, 4, −4, . . . } 3. insieme dei numeri razionali Q = {n/m, n, m ∈ Z, m ̸= 0} Capitolo 1. Concetti introduttivi 2 / 258 1.1.3 Altre notazioni Sia X un insieme, scriveremo x ∈ X per indicare che x è un elemento di X . Diremo che Y ⊂ X e scriveremo y ⊂ X se ogni elemento di Y è un elemento di X . Diremo che due insiemi X e Y sono uguali ( X = Y ) se X ⊂ Y e Y ⊂ X . L’insieme vuoto si denota con ∅ ed è l’insieme che non contiene nessun elemento. Osservazione 1.1 Sia X un insieme. Allora ∅ ⊂ X . Non si può scrivere ∅ ∈ X . Definizione 1.1 Sia X un insieme, l’insieme delle parti di X è l’insieme dei sottoinsiemi di X e si denota con P . In simboli P = {Y ⊂ X} allora Y ∈ P . Esempio 1.2 Se X = {1, 2, 3} , allora P = {∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, X} Se X = ∅ , P è l’insieme che contiene l’insieme vuoto. 1.1.4 Unione e intersezione Definizione 1.2 Sia X un insieme e siano A e B sottoinsiemi di X . L’unione A ∪ B è l’insieme degli elementi di X per cui x ∈ A oppure x ∈ B , mentre A ∩ B = {x ∈ X t.c. x ∈ A ∧ x ∈ B}. Esercizio 1.1 Sia X = N , siano a e b interi e A = {x ∈ N t.c. x = ay, per qualche y ∈ N} B = {x ∈ N t.c. x = by, per qualche y ∈ N} Sia c = m.c.m.(a, b) . Allora Capitolo 1. Concetti introduttivi 3 / 258 C = {x ∈ N, t.c. x = cy} Dimostrare che A ∩ B è l’insieme dei multipli di c . Prima inclusione: A ∩ B ⊂ C . Sia x ∈ A ∩ B , allora x ∈ A , quindi x = ay per qualche y ∈ N e x = bz per qualche z ∈ N . Allora si ha l’equazione x = ay = bz . Ma se x = ay , allora a | x , se x = bz , allora b | x , allora anche m.c.m.(a, b) | x e quindi c | x , allora x = ct con t ∈ Z quindi x ∈ C , e siccome questo vale per ogni x , A ∩ B ⊂ C . Inclusione 2: C ⊂ A ∩ B . Sia x ∈ C , allora x = cy per qualche y ∈ N . Per definizione a | c e b | c , quindi a | x e b | x , allora x ∈ A e x ∈ B , quindi x∈A∩B . Queste sono alcune proprietà di unione e intersezione: 1. Proprietà commutative: A ∪ B = B ∪ A , e analogamente A ∩ B = B ∩ A . 2. Proprietà associative: dati tre insiemi, A, B, C , allora (A ∪ B) ∪ C = A ∪ (B ∪ C) (A ∩ B) ∩ C = A ∩ (B ∩ C) L’ordine in cui si intersecano gli insiemi è irrilevante. 3. Proprietà distributive: Considero A, B, C sottoinsiemi di X , allora A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) In questo caso non c’è analogia con le operazioni tra numeri interi, perché la distributività rispetto all’unione (somma) non vale, infatti 2 + 3 ∗ 5 ̸= 2 ∗ 3 + 2 ∗ 5 1.1.5 Differenza e differenza simmetrica e prodotto cartesiano Definizione 1.3 Siano A e B sottoinsiemi di X , allora la differenza A∖B è l’insieme degli elementi di A che non stanno in B . L’insieme differenza simmetrica è AδB = (A ∪ B) ∖ (A ∩ B) . Definizione 1.4 Siano A e B insiemi, il prodotto cartesiano C = A × B è l’insieme costituito dalle coppie (a, b) con a ∈ A e b ∈ B . Esempio 1.3 Capitolo 1. Concetti introduttivi 4 / 258 Se A = {1, 2} e B = {3, 7, 8} il prodotto cartesiano è costituito dalle coppie (1, 3), (1, 7), (1, 8), (2, 3), (2, 7), (2, 8). Si osserva che A × B ̸= B × A . Esercizio 1.2 Dimostrare che |A × B| = |A| ∗ |B| se A e B sono insiemi finiti. Soluzione: A e B hanno un numero finito di elementi, supponiamo che A = {x1 , . . . , xn } abbia n elementi e B = {y1 , . . . , ym } abbia m elementi. Allora per ogni xi ∈ A il prodotto cartesiano A × B contiene le coppie (xi , y1 ) , (xi , y2 ) , . . . , (xi , ym ) . Siccome gli xi sono n , il prodotto cartesiano ha n ∗ m elementi. cvd Se |A × B| è infinito, allora |B| o |A| è infinita. Il viceversa non è vero, infatti se |A| = ∞ e |B| = ∅ , allora |A × B| = 0 . 1.2 Relazioni 1.2.1 Corrispondenze e relazioni Definizione 1.5 Siano X e Y insiemi, una corrispondenza R tra X e Y è un sottoinsieme del prodotto cartesiano X × Y . Se (x, y) ∈ R , con x ∈ X e y ∈ Y , diremo che y è in corrispondenza biunivoca con x oppure xRy . Definizione 1.6 Se X = Y diremo che R è una relazione su X . Sia f : X → Y una funzione, se considero il suo grafico ovvero le coppie (x, f (x)) , questa è una corrispondenza. Esempio 1.4 √ Sia X = R+ e Y = R− , e R = {(x, − x)} con x ∈ X . R è una corrispondenza √ con f (x) = − x . Sia X = {1, 2} e Y = {3, 4, 5} e sia R = {(1, 3), (1, 4), (2, 5)} . R è una corrispondenza in X × Y ma non è il grafico di una funzione da X in Y , perché all’elemento 1 ∈ X vengono associati due elementi di Y . 1.2.2 Proprietà delle relazioni 1. Una relazione si dice riflessiva se ogni x ∈ X è in relazione con se stesso, cioè se xRx . 2. Una relazione si dice simmetrica se, dati x, y ∈ X , xRy implica yRx . 3. Una relazione si dice transitiva se xRy e yRz implicano xRz . Capitolo 1. Concetti introduttivi 5 / 258 4. Una relazione si dice antisimmetrica se xRy implica yRx se e solo se x = y . L’unica relazione che è contemporaneamente riflessiva, simmetrica, transitiva e antisimmetrica è l’uguaglianza R sull’insieme X tale che ogni elemento è associato a se stesso. Definizione 1.7 Una relazione riflessiva, simmetrica e transitiva si dice relazione di equivalenza. Esempio 1.5 Se X è l’insieme delle rette nel piano, la relazione che associa due rette se sono parallele è una relazione di equivalenza. Esercizio 1.3 Sia A un insieme finito e sia X = P . Dimostrare che la relazione R tale che BRC se BδC ha cardinalità pari è una relazione di equivalenza. Soluzione: 1. R è riflessiva, perché la differenza simmetrica di un insieme con se stesso è sempre uguale all’insieme vuoto, che ha cardinalità 0 che è pari. 2. R è simmetrica, infatti se BRC , |BδC| è pari, ma BδC = CδB , quindi anche |CδB| è pari e quindi CRB . 3. R è transitiva. Considero tre sottoinsiemi di A , B, C, D . Se BRC , allora BδC ha cardinalità pari, e se CδD , allora CδD ha cardinalità pari.Scrivo B, C, D come insiemi disgiunti. B = [B∖(C ∪D)]∪[(B∩C)∖(B∩C ∩D)]∪[B∩D)∖(B∩C ∩D)]∪[B∩C ∩D] quindi chiamo |B ∖ (C ∪ D)| = a |(B ∩ C) ∖ (B ∩ C ∩ D)| = b |(B ∩ D) ∖ (B ∩ C ∩ D)| = c |B ∩ C ∩ D| = d quindi |B| = a + b + c + d C = [C ∖(B∪D)]∪[(C ∩B)∖(B∩C ∩D)]∪[(C ∩D)∖(B∩C ∩D)]∪[B∩C ∩D] e chiamo |C ∖ (B ∪ D)| = e |(B ∩ C) ∖ | = b |(C ∩ D) ∩ (C ∩ B ∩ D)| = f |B ∩ C ∩ D| = d Capitolo 1. Concetti introduttivi 6 / 258 quindi |C| = e + b + f + d D = [D∖(B∪C)]∪[(D∩C)∖(B∩C∩D)]∪[(D∩B)∖(B∩C∩D)]∪[B∩C∩D] |D ∖ (B ∪ C)| = g |(C ∩ D) ∖ (B ∩ C ∩ D)| = f |(B ∩ D) ∖ (B ∩ C ∩ D)| = c |B ∩ C ∩ D| = d quindi |D| = g + c + f + d Allora siccome BδC = (B ∪ C) ∖ (B ∩ C) , si ha che |BδC| è la somma delle cardinalità degli insiemi che costituiscono B e C ma che non sono comuni ai due insiemi. |BδC| = a + c + e + f ( d e b che compaiono sia in |C| che in |B| non vanno contate). |CδD| = b + e + c + g allora, siccome per ipotesi |BδC| e |CδD| sono pari, si ha che la loro somma è pari: |BδC| + |CδD| = (a + c + f + e) + (b + c + e + g) = a + b + f + g + 2c + 2e e siccome 2c + 2e è pari, anche a + b + f + g è pari, e si ha che a + b + f + g = |BδD| cioè |BδD| è pari. cvd Esercizio 1.4 Sia X = N e R la relazione tale che xRy se x − y è pari. Dimostrare che R è una relazione di equivalenza. 1. R è riflessiva perché x − x = 0 che è pari. 2. R è simmetrica perché xRy implica x − y pari, allora x − y = −y + x = −(y − x) quindi se x − y è pari, anche il suo opposto y − x è pari, quindi yRx . 3. R è transitiva, infatti xRy implica x − y è pari, yRz implica y − z è pari, allora x − z = (x − y) + (y − z) è pari perché somma di numeri pari. Capitolo 1. Concetti introduttivi 7 / 258 Se R è tale che xRy se x − y è dispari, allora R non è una relazione di equivalenza perché non è riflessiva. Esempio 1.6 Sia X = {1, 2, 3} e sia R = {(1, 2), (2, 1)} R non è una relazione di equivalenza perché non è riflessiva. Se aggiungo a R le coppie (1, 1) e (2, 2) , la relazione non è riflessiva perché manca la coppia (3, 3) . Definizione 1.8 Sia X un insieme e sia R una relazione su X , cioè R ⊂ X × X . Dico che R è di equivalenza se e solo se il grafo è unione di grafi completi. Un grafo si dice completo se per ogni a, b ∈ X , la coppia (a, b) ∈ R . Esempio 1.7 Sia X = {1, 2, 3, 4} . Sia R = {(1, 1), (2, 2), (3, 3), (4, 4), (1, 2), (2, 1), (1, 3), (3, 1)(2, 3), (3, 2)}. La relazione è riflessiva perché ci sono frecce entranti e uscenti dallo stesso vertice, inoltre è simmetrica perché si può andare da un vertice all’altro e poi tornare indietro, ed è transitiva. 1.2.3 Insieme quoziente Definizione 1.9 Sia X un insieme e sia R una relazione di equivalenza su X , e sia x ∈ X . La classe di equivalenza di x per la relazione R è l’insieme [x]R = {y ∈ X t.c. (x, y) ∈ R}. Sono tutti e soli gli elementi in relazione con x . Un elemento y nella classe [x] si dice rappresentante della classe di equivalenza. Esempio 1.8 Sia R = {(x, x), x ∈ X} la relazione di uguaglianza, allora [x]R = {x} . Esempio 1.9 Sia X = Z , allora a e b sono equivalenti se a − b è pari. Allora [0]R è l’insieme di tutti i numeri pari. Capitolo 1. Concetti introduttivi 8 / 258 Esempio 1.10 Sia X = P , e considero la relazione tale che A ∼ B se e solo se |AδB| è pari. Allora [∅]R è l’insieme degli insiemi con cardinalità pari. Definizione 1.10 L’insieme quoziente X/R è l’insieme costituito dalle classi di equivalenza [x]R al variare di x ∈ X . Proposizione 1.1 Valgono le seguenti proprietà: 1. La classe di equivalenza di un elemento non è mai vuota perché un elemento sta sempre nella sua classe di equivalenza per la riflessività. 2. Siano x, y ∈ X , allora o [x] = [y] o [x] ∩ [y] = ∅ .Dim. Supponiamo che [x] e [y] non siano disgiunte, allora esiste z ∈ [x] ∩ [y] ; prendo t ∈ [x] , allora (x, t) ∈ R , e per simmetria (t, x) ∈ R . Per transitività, siccome (t, x) ∈ R e (x, z) ∈ R per ipotesi, allora (t, z) ∈ R . Inoltre, (y, z) ∈ R , allora (z, y) ∈ R per simmetria, ma allora per transitività (t, z) ∈ R e (z, y) ∈ R implica (t, y) ∈ R . Quindi t ∈ [y] e [x] ⊂ [y] . Per simmetria anche [y] ⊂ [x] , cioè [x] = [y] . Esempio 1.11 Data la relazione tale che x ∼ y se x − y è pari, segue che [−2]R è la classe dei numeri pari. La classe di equivalenza di 1 è formata dai numeri dispari. Queste sono le uniche due classi di equivalenza di questa relazione. L’insieme X è unione delle classi di equivalenza di R , che costituiscono una partizione di X e sono quindi disgiunte. L’insieme quoziente NON è l’unione insiemistica delle classi di equivalenza, come mostrano i seguenti esempi: Esempio 1.12 Nella relazione in cui x ∼ y se x − y è pari, si hanno le classi [0] (dei pari) e [1] (dei dispari). L’insieme quoziente è X/R = {[0], [1]} ed è un insieme di due elementi. Invece X = [0]R ∪ [1]R = Z Esempio 1.13 Capitolo 1. Concetti introduttivi 9 / 258 Nella relazione di uguaglianza ( R è costituito da coppie di coordinate uguali), [x] = {x} , e in questo caso ∪ X= [x] x∈X cioè X è unione delle sue classi di equivalenza. L’insieme quoziente è X/R = ∪ {x} x∈X 1.2.4 Relazioni d’ordine Definizione 1.11 Sia X un insieme e R una relazione su X , R è una relazione d’ordine se è riflessiva, transitiva e antisimmetrica. Esempio 1.14 Sia X = N , e sia d ∈ N . R è data dalle coppie (x, y) tali che x − y è divisibile per d , cioè se y − x = dz per qualche z ∈ N . Questa è una relazione d’ordine, infatti: 1. è riflessiva, perché x − x = d ∗ 0 . 2. è transitiva, infatti date coppie (a, b) ∈ R e (b, c) ∈ R , allora dimostro che (a, c) ∈ R . b − a = dz1 con z1 ∈ N , c − b = dz2 con z2 ∈ N . Allora sommando le equazioni: c − a = (c − b) + (b − a) = dz1 + dz2 = d(z1 + z2 ), z1 + z2 ∈ N allora c − a è divisibile per d . 3. supponiamo che (x, y) ∈ R e che (y, x) ∈ R . Allora x − y = dz, z ∈ N e y − x = dz ′ , z ′ ∈ N , quindi x − y + y − x = 0 = d(z + z ′ ) allora ci sono due possibilità, o d = 0 , o z + z ′ = 0 . Ma se d = 0 , la relazione diventa la relazione di uguaglianza e quindi è antisimmetrica. Invece, se z + z ′ = 0 , con z, z ′ ∈ N , segue che z = z ′ = 0 , e quindi si ottiene x − y = 0 e quindi x = y . Se X = Z e R è la relazione tale che x ∼ y se x − y è divisibile per d , R di equivalenza è d’ordine solo se d = 0 e R diventa la relazione di uguaglianza. La relazione d’ordine ≤ sui numeri reali, oltre alle tre proprietà richieste, ha un’altra proprietà: dati due numeri a, b , o a ≤ b oppure b ≤ a (non possono avvenire entrambe le cose contemporaneamente oppure nessuna delle due). Questo non avviene nella relazione di divisibilità, infatti, nella relazione precedente, ponendo Capitolo 1. Concetti introduttivi 10 / 258 d = 2 , x = 3 e y = 4 , si ha che rispetto a questa relazione d’ordine, x non è in relazione con y e non vale nemmeno il viceversa. Per questa relazione d’ordine due elementi possono essere incomparabili. Altre relazioni in cui gli elementi sono incomparabili sono l’uguaglianza, oppure la relazione di inclusione tra insiemi, tale che X = P e B, C ⊂ A sono in relazione se B ⊂ C . 1.3 Funzioni 1.3.1 Definizioni di base Definizione 1.12 Siano A, B insiemi, una funzione f : A → B è una legge tale che ad ogni a ∈ A è associato un unico b ∈ B chiamato f (a) . Allora: Definizione 1.13 1. l’insieme A si dice dominio e B si dice codominio. 2. L’immagine di f è l’insieme f (A) = {f (a), a ∈ A} . 3. Sia b ∈ B , allora la controimmagine f −1 (b) = {a ∈ A t.c. f (a) = b} . Osservazione 1.2 La controimmagine può essere il vuoto, infatti posso considerare ad esempio la funzione f : Z → Z tale che f (a) = 2a , e si ha f −1 (1) = ∅ cioè f −1 (b) = ∅ se b ∈ / f (A) . Se C ⊂ B , si ha che f −1 (C) = {a ∈ A t.c. f (a) ∈ C} Definizione 1.14 Il grafico di f è l’insieme gf = {(a, f (a)), a ∈ A}. In particolare gf è una corrispondenza. Si nota che gf ha la proprietà che per ogni a ∈ A , esiste un unico b ∈ B tale che (a, b) ∈ gf . Capitolo 1. Concetti introduttivi 11 / 258 1.3.2 Funzioni iniettive e suriettive Definizione 1.15 1. f è iniettiva, se presi a1 , a2 ∈ A tali che f (a1 ) = f (a2 ) allora a1 = a2 . 2. f è suriettiva se per ogni b ∈ B , esiste a ∈ A tale che b = f (a) . 3. f è biettiva se è sia iniettiva che suriettiva. Esempio 1.15 La funzione f : Z → Z tale che f (a) = 2a è iniettiva ma non suriettiva. Cambiando il dominio e ponendo f : R → R , la stessa funzione è anche suriettiva. 1.4 Operazioni 1.4.1 Definizione ed esempi Definizione 1.16 Sia A un insieme, un’operazione ∗ è una funzione : A × A → A . Esempio 1.16 La somma + : N × N → N è un’operazione. La differenza sugli interi non è un’operazione, e non lo è nemmeno la divisione sugli interi o sui reali. L’unione, l’intersezione e la differenza simmetrica su P sono operazioni. Definizione 1.17 L’operazione ∗ si dice associativa se per ogni a, b, c ∈ A , (a ∗ b) ∗ c = a ∗ (b ∗ c) mentre si dice commutativa se a ∗ b = b ∗ a, ∀a, b ∈ A. Esempio 1.17 Non tutte le operazioni sono associative, ad esempio ∗ : N × N → N tale che (a, b) 7→ ab non è commutativa, infatti per a = 2, b = 3 , si ha 23 = 8, ̸= 32 = 9. Capitolo 1. Concetti introduttivi 12 / 258 Definizione 1.18 Un elemento e ∈ A si dice un elemento neutro di ∗ se, e ∗ a = a ∗ e = a, ∀a ∈ A. Esempio 1.18 Sia A = P , allora l’intersezione ha elemento neutro B e l’unione ha elemento neutro ∅ . Per l’operazione differenza simmetrica, se A = P e E è l’elemento neutro, si deve avere EδC = C∀C ∈ P, allora l’elemento neutro è l’insieme vuoto. Esempio 1.19 Sia ∗ : N × N → N tale che (a, b) 7→ ab . Allora cerco se esiste e tale che e ∗ a = a ∗ e∀a ∈ N. ea = ae = a, ∀a ae = a∀a −→ e = 1 ma 1a = a non è sempre verificata, quindi non esiste elemento neutro. 1.4.2 Composizione di funzioni Definizione 1.19 Siano f : A → B e g : B → C funzioni. Allora si può costruire la funzione g ◦ f : A → C tale che g ◦ f (a) = g(f (a)) Esempio 1.20 Data f = x2 e g = x + 1 , si ha g ◦ f = x2 + 1. f ◦ g = (x + 1)2 Esercizio 1.5 Dimostrare che Capitolo 1. Concetti introduttivi 13 / 258 1. date due funzioni f, g iniettive, allora g ◦ f è iniettiva. 2. f, g suriettive implica g ◦ f suriettiva. 3. g, f biettive implica g ◦ f biettiva. Soluzione: 1. g ◦ f è iniettiva se e solo se, dati x1 , x2 ∈ X , segue che g ◦ f (x1 ) = g ◦ f (x2 ) se e solo se x1 = x2 .Siccome g è iniettiva, g(f (x1 )) = g(f (x2 )) se e solo se f (x1 ) = f (x2 ) , ma siccome anche f è iniettiva, f (x1 ) = f (x2 ) se e solo se x1 = x2 , quindi si ottiene che g(f (x1 )) = g(f (x2 )) se e solo se x1 = x2 , cioè la composizione di funzioni iniettive è iniettiva. 2. g ◦ f è suriettiva se e solo se per ogni x ∈ X esiste c tale che g ◦ f (c) = x . Siccome g è suriettiva, per ogni x ∈ X esiste d ∈ X tale che g(d) = x . Ma siccome anche f è suriettiva, per ogni d ∈ X esiste c ∈ X tale che f (e) = d , quindi sostituendo d con f (c) ottengo che g(f (c)) = x , e quindi g ◦ f è suriettiva. 3. Il fatto che la composizione di funzioni biunivoche è biunivoca segue dai punti precedenti. cvd 1.4.3 Insiemi di funzioni Definizione 1.20 Sia X un insieme, con X X si denota l’insieme di tutte le funzioni f : X → X . Se X = {1} , ho un’unica funzione. Se X = {1, 2} , X X ha 4 elementi: 1. f t.c. f (1) = 1, f (2) = 1 2. f t.c. f (1) = 1, f (2) = 2 3. f t.c. f (1) = 2, f (2) = 1 4. f t.c. f (1) = 2, f (2) = 2. Se X ha tre elementi, X X ha 33 elementi. Esempio 1.21 Non è una funzione la legge che a un elemento x ∈ R+ associa un elemento y tale che y 2 = x . Definizione 1.21 Capitolo 1. Concetti introduttivi 14 / 258 La composizione di funzioni è un’operazione ◦ : X X ×X X → X X tale che (f, g) 7→ f ◦g . Sia A = {f : N → Z} B = {f : Z → N} non si può definire un’operazione che prese f, g associa la composizione f ◦ g con f ∈ A e g ∈ B , perché un’operazione dev’essere definita da A × A ad A . Date una funzione f : A → B e g : C → B , allora f ◦ g è definita se f (A) ⊂ C . Proposizione 1.2 La funzione identità è l’elemento neutro per la composizione. Dimostrazione 1.1 Sia f ∈ X X , f ◦ I(x) = f (I(x)) = f (x) , allora f ◦ I = f . Analogamente I ◦ f (x) = I(f (x)) = f (x) quindi I ◦ f = f . cvd Esercizio 1.6 Dimostrare che I è l’unico elemento neutro per la composizione. Soluzione: Supponiamo che esistano due elementi neutri, I1 e I2 , allora siccome I2 è un elemento neutro, per ogni f si ha f ◦ I2 = f , allora per f = I1 si deve avere I1 ◦ I2 = I1 . Tuttavia anche I1 è un elemento neutro, quindi I1 ◦ f = f per ogni f , quindi per f = I2 si deve avere I1 ◦ I2 = I2 . Allora ho ottenuto: I1 ◦ I2 = I1 = I2 allora I1 = I2 e l’elemento neutro è unico. cvd Proposizione 1.3 La composizione di funzioni ◦ è associativa. Dimostrazione 1.2 Considero f, g, h ∈ X X , e confronto f ◦ (g ◦ h) (f ◦ g) ◦ h Sia x ∈ X , allora Capitolo 1. Concetti introduttivi 15 / 258 f ◦ (g ◦ h)(x) = f (g ◦ h(x)) = f (g(h(x))) (f ◦ g) ◦ h(x) = (f ◦ g)(h(x)) = f (g(h(x))) allora vale la proprietà associativa. cvd Proposizione 1.4 Se X ha almeno 2 elementi, allora ◦ : X X × X X → X X non è commutativa. Dimostrazione 1.3 Basta trovare due funzioni f, g tali che f ◦ g ̸= g ◦ f . Siano a, b ∈ X due punti distinti. Sia f : X × X → X tale che f (x) = a, ∀x ∈ X , e g(x) = b, ∀x ∈ X . Allora f ◦ g(x) = f (g(x)) = f (b) = a g ◦ f (x) = g(f (x)) = g(a) = b quindi la composizione non è commutativa. (in questo caso si ha anche f ◦ g = f e g◦f =g ) cvd 1.4.4 Gruppo simmetrico Considero funzioni in X X . Denotiamo con SX l’insieme delle funzioni : X → X tali che f sia biettiva. Si nota che ◦ : SX × SX → SX tale che (f, g) 7→ f ◦ g è un’operazione (ricordare che la composizione di funzioni biettive è biettiva). Quest’operazione ha come elemento neutro sempre l’identità che è un elemento di SX . Esercizio 1.7 Dimostrare che l’operazione ◦ : SX × SX → SX non è commutativa se X ha almeno tre elementi. Soluzione: Sia X = {1, 2, 3} e considero f, g ∈ SX tale che: f (1) = 1, f (2) = 3, f (3) = 2 g(1) = 2, g(2) = 1, g(3) = 3 Allora ad esempio si ha g ◦ f (1) = g(f (1)) = g(1) = 2 f ◦ g(1) = f (g(1)) = f (2) = 3 allora f ◦ g ̸= g ◦ f . cvd Capitolo 1. Concetti introduttivi 16 / 258 1.4.5 Somma NIM Dimostrazione 1.4 La somma NIM di due numeri si denota con ⊕ : N × N → N . Per fare la somma NIM tra due numeri, devo scrivere ognuno dei due numeri come somma di potenze di 2. Poi, per fare la somma, scrivo solo le potenze di 2 che compaiono nei due numeri e non sono comuni a entrambi. Esempio 1.22 Eseguo l’operazione 7 ⊕ 28 . Per scrivere un numero come somma di potenze di 2, cerco prima la massima potenza p di 2 che è contenuta nel numero, poi la sottraggo p al numero e ripeto la stessa operazione sulla differenza ottenuta: 7 = 22 + 2 + 2 0 = 4 + 2 + 1 28 = 24 + 23 + 22 = 16 + 8 + 4 Ora eseguo la somma e riscrivo le potenze di 2 che compaiono nei due numeri e che non sono comuni a entrambi 7 ⊕ 28 = 1 + 2 + 8 + 16 = 27 (in questo caso non riscrivo 22 = 4 ) Esempio 1.23 Eseguire la somma: 9 ⊕ 30 = 9 = 23 + 20 = 8 + 1 30 = 16 + 8 + 4 + 2 = 24 + 23 + 22 + 2 30 ⊕ 9 = 16 + 4 + 2 + 1 = 23 (non riscrivo 8 ). La somma NIM di un numero con se stesso è sempre nulla. La somma NIM è commutativa, associativa, ha elemento neutro. 1.4.6 Alcuni esempi Esempio 1.24 Considero l’insieme dei punti del piano, e definisco la relazione tale che due punti sono equivalenti se hanno la stessa ordinata. Questa relazione è di equivalenza. Le classi di equivalenza di questa relazione sono le rette orizzontali, e l’insieme quoziente è l’insieme di tutte le rette orizzontali. Capitolo 1. Concetti introduttivi 17 / 258 Esempio 1.25 Sia A = {(x, y) ∈ Z × Z t.c. 3x + 2y = 1} B = {(1 + 2h, −1 − 3h), h ∈ Z} Mostro che A = B : 1. B ⊂ A : considero un elemento (1 + 2h, −1 − 3h) ∈ B con h intero. Verifico che l’elemento sta in A : 1 +2h, −1− 3h sono coordinate intere, e soddisfano l’equazione 3x + 2y = 1 , infatti: 3(1 + 2h) + 2(−1 − 3h) = 1 3 + 6h − 2 − 6h = 1, −→ 3 − 2 = 1 e l’uguaglianza è verificata, quindi ogni elemento di B sta in A . 2. A ⊂ B : prendo (x, y) ∈ B , allora 3x + 2y = 1 2y = 1 − 3x e siccome il membro di sinistra è pari e intero, anche 1−3x dev’essere intero e pari, allora x dev’essere dispari, quindi x = 1 + 2h con h intero (è 1 a cui sommo un numero pari).Sostituendo 1 + 2h nell’equazione al posto di x ottengo 3(1 + 2h) + 2y = 1 e isolando y : 2y = −2 − 6h y = −1 − 3h Quindi (x, y) = (1 + 2h, −1 − 3h) ∈ B . 1.4.7 Elementi neutri e opposti Proposizione 1.5 Sia A un insieme e ∗ : A × A → A un’operazione. Siano E, E ′ due elementi neutri di ∗ . Allora E = E ′ . Dimostrazione 1.5 Affinché E sia un elemento neutro, si deve avere E ∗ x = x ∗ E = x∀x ∈ A ma siccome anche E ′ è un elemento neutro: Capitolo 1. Concetti introduttivi 18 / 258 E ′ ∗ x = x ∗ E ′ = x∀x ∈ A Considerando E ∗E ′ , si ha che per il fatto che E è un elemento neutro, E ∗E ′ = E ′ , ma siccome anche E ′ è un elemento neutro, E ∗ E ′ = E , quindi E = E ′ . cvd Definizione 1.22 Sia E l’elemento neutro di ∗ , e sia x ∈ A . Il reciproco / opposto / inverso di x , se esiste, è un elemento x′ di A con x ∗ x′ = x′ ∗ x = E . L’elemento neutro ha come inverso se stesso. Esempio 1.26 Data l’operazione di unione su X = P , l’elemento neutro è l’insieme vuoto, allora, l’opposto B ′ di B ∈ X , se esiste, dev’essere tale che B ∪ B ′ = ∅ . Allora un elemento B ′ con questa proprietà può esistere solo se B = ∅ . Considerando invece l’operazione di intersezione, il suo elemento neutro è l’insieme A . Allora l’opposto B ′ di B esiste solo se B ∩ B ′ = A e quindi anche in questo caso l’unico elemento che ammette opposto è l’elemento neutro. Esempio 1.27 Nella somma NIM definita sui naturali, con elemento neutro 0, ogni elemento x ha come inverso se stesso. 1.4.8 Gerarchia di strutture algebriche Definizione 1.23 La coppia (A, ∗) si dice struttura algebrica. 1. la coppia (A, ∗) è un semigruppo se ∗ è associativa. 2. (A, ∗) è un monoide se è un semigruppo, e ha elemento neutro. 3. (A, ∗) è un gruppo se è un monoide e ogni elemento ha inverso.Ad esempio, i numeri interi con l’operazione di somma sono un gruppo. I razionali con l’operazione di prodotto non sono un gruppo perché lo zero non ha inverso. Invece Q ∖ 0 con l’operazione di prodotto è un gruppo. I naturali con la somma NIM sono un gruppo. 1.4.9 L’inverso è unico? Proposizione 1.6 Se ∗ è associativa, l’inverso, se esiste, è unico. Dimostrazione 1.6 Capitolo 1. Concetti introduttivi 19 / 258 Sia a ∈ A , e siano a1 , a2 inversi di a . Mostriamo che a1 = a2 . Osservo che a ∗ a1 = E con E elemento neutro. Moltiplicando a sinistra entrambi i membri per a2 : a2 ∗ a ∗ a1 = a2 ∗ E ma a2 ∗ E = a2 , e riscrivo il primo membro usando l’associatività: (a2 ∗ a) ∗ a1 = a2 ma a2 ∗ a = E , quindi ottengo E ∗ a1 = a2 cioè a1 = a2 . cvd 1.4.10 Tavole di moltiplicazione Sia A = {a1 , a2 , a3 , . . . , an } , e considero la tabella chiamata tavola di moltiplicazione che ha n righe (chiamate a1 , a2 , . . . , an ) e n colonne con i nomi degli elementi di A nello stesso ordine delle righe. In ciascuna casella della griglia scrivo l’elemento ai ∗ aj . a1 a2 a1 a1 ∗ a1 a1 ∗ a2 a2 a2 ∗ a1 a2 ∗ a2 ... ... ... an an ∗ a1 an ∗ a2 ... an . . . a1 ∗ a n . . . a2 ∗ a n ... ... . . . an ∗ an Dalla tavola si possono dedurre alcune proprietà dell’operazione secondo le seguenti regole: 1. se l’operazione è commutativa la tabella è una matrice simmetrica. 2. se l’operazione ha un elemento neutro Ai = E , allora ogni elemento Ai,j della riga corrispondente è ilnome della colonna j-esima, e ogni elemento Aj,i della colonna corrispondente sarà il nome della j-esima riga. 3. Un elemento è invertibile se sulla riga che ha il nome di quell’elemento compare una E e lo stesso vale per la colonna. 4. l’associatività non si deduce facilmente dalla tabella. Però, in generale, se (X, ∗) è una struttura algebrica e se R è una relazione di equivalenza compatibile con ∗ , se ∗ è associativa, anche ∗R è associativa. Quindi, se riconosco che una certa operazione è uguale a un’operazione sul quoziente, allora l’operazione è associativa. Esempio 1.28 Capitolo 1. Concetti introduttivi 20 / 258 Supponiamo che E = {e, a, b} e considero la tabella di moltiplicazione: e a b e e a b a a e e b b e e Quest’operazione ha un elemento neutro e , e ogni elemento è invertibile, gli elementi a e b hanno addirittura due inversi. Questo significa che l’operazione non è associativa, e lo si dimostra facilmente: (a ∗ b) ∗ b = e ∗ b = b a ∗ (b ∗ b) = a ∗ e = a e si ottengono valori diversi. 1.4.11 Anello Definizione 1.24 Sia A un insieme con operazioni ∗ e ◦ . Allora (A, ∗, ◦) è un anello se: 1. (A, ∗) è un gruppo commutativo con elemento neutro 0. 2. (A, ◦) è un semigruppo 3. valgono le proprietà distributive: a ◦ (b ∗ c) = (a ◦ b) ∗ (a ◦ c) (b ∗ c) ◦ a = (b ◦ a) ∗ (c ◦ a) Un esempio è l’insieme dei razionali con operazioni di somma e prodotto. Definizione 1.25 L’insieme (A, ∗, ◦) è un campo se è un anello e se l’operazione ◦ ha elemento neutro 1 e se (A ∖ 0, ◦) è un gruppo commutativo. Ad esempio: (Q, +, ∗) è un campo. Capitolo 1. Concetti introduttivi 21 / 258 1.4.12 Relazioni compatibili con un’operazione Definizione 1.26 Sia (A, ∗) una struttura algebrica, una relazione R su A si dice compatibile con ∗ se dati a, b, c, d ∈ A , se a ∼ b e c ∼ d , allora a∗c∼b∗d Esempio 1.29 Sia A = Z , ∗ l’operazione di somma e R tale che x ∼ y se x − y è divisibile per 2. R è compatibile con la somma. Dimostrazione 1.7 Considero a, b, c, d interi. Per ipotesi a ∼ b e c ∼ d , vogliamo dedurre che a ∗ c = a + c è in relazione con b ∗ d = b + d . aRb significa che a − b è divisibile per 2, c ∼ d implica che c − d è divisibile per 2. Ci chiediamo se a + c − b − d è divisibile per 2. Questo è vero perché è somma di numeri pari a − c e b − d . Assumiamo che R sia relazione di equivalenza. L’operazione ∗ definita su A determina senza ambiguità un’operazione nell’insieme quoziente A/R , definita in questo modo: ∗R : A/R × A/R → A/R tale che [x]R ∗R [y]R = [x ∗ y]R . L’operazione non è definita in modo ambiguo perché prendendo due qualsiasi elementi nelle classi di equivalenza [x]R e [y]R il risultato è sempre lo stesso. Esempio 1.30 Con R come prima ( x ∼ y se x − y è pari), Z/R consiste delle due classi di equivalenza: [0]R (i numeri pari) e [1]R (numeri dispari). Per eseguire la somma [0]R + [0]R si ha [0 + 0]R = [0]R . Scegliendo altri due elementi nella classe di [0]R , ad esempio 28, −32 , si ha [0]R + [0]R = [28]R + [−32]R = [28 − 32]R = [−4]R = [0]R Scrivendo la tavola della somma di questo insieme quoziente si ha: 1.5 Principio di induzione Assioma (Assioma del buon ordinamento): Sia S ⊂ N , con 0 ∈ S , e tale che se s ∈ S , allora anche s + 1 ∈ S . Allora s = N . Assioma (Principio di induzione): Sia Pn una proposizione che abbia senso enunciare per ogni n ∈ N con n ≥ n0 dove n0 è un fissato intero. Per ogni n ≥ n0 , supponendo che Pn sia vera, si Capitolo 1. Concetti introduttivi 22 / 258 dimostra Pn+1 . Allora Pn è vera per ogni n . Esempio 1.31 Sia X un insieme finito, allora il numero di elementi delle parti di X è esattamente 2|X| . Dim. Se |X| = 0 , allora X = ∅ , P = {∅} ha 1 = 20 elementi. Supponiamo il risultato vero per insiemi di cardinalità n e lo dimostriamo per un insieme X di cardinalità n + 1 . Sia x ∈ X , allora divido P in due blocchi: il blocco dei sottoinsiemi di X che contengono x (che chiamo B1 ) e il blocco di quelli che non contengono x . Questi due sottoinsiemi sono disgiunti, allora |P| = |B1 | + |B2 | . Gli elementi di B2 sono tutti e soli i sottoinsiemi di X ∖ x , e siccome X ∖ x ha n elementi, per l’ipotesi induttiva P = 2|X∖x| = 2n . Gli insiemi di B1 sono i complementari di quelli di B2 , e siccome c’è una corrispondenza biunivoca che associa un insieme al suo complementare, anche B1 ha 2n elementi, quindi |P| = 2n + 2n = 2 ∗ 2n = 2n+1 = 2|X| Capitolo 2. Lo spazio R2 23 / 258 Capitolo 2 Lo spazio R2 2.1 Proprietà generali dello spazio Rn Gli elementi di RN sono vettori applicati nell’origine della forma (x1 , x2 , . . . , xn ) con xi ∈ R per i = 1, . . . , n e si possono scrivere come vettori colonna, ovvero come una stringa verticale. Definizione 2.1 Se x = (x1 , . . . , xn ) è un elemento di Rn , xj si dice la j -esima componente di x rispetto alla base standard. 2.2 operazioni in Rn 2.2.1 somma Definizione 2.2 Su RN l’operazione somma e’ un’applicazione che ha come dominio il prodotto cartesiano di RN per se’ stesso e come codominio RN . L’operazione somma prende due vettori X = (x1 , . . . , xn ) e Y = (y1 , . . . , yn ) . L’immagine mediante l’applicazione della coppia (X, Y ) e’ (x1 , . . . , xn )+(y1 , . . . , yn ) , e’ il vetore di RN che ottengo sommando componente per componente: (x1 + y1 , . . . , xn + yn ) . Esempio 2.1 Considerato (1, 3) e (0, −4) vettori in R2 , la somma e’ (1, −1) . Proposizione 2.1 La somma e’ un’operazione associativa: per ogni scelta di tre vettori X, Y, Z allora X + (Y + Z) = (X + Y ) + Z Dimostrazione 2.1 Capitolo 2. Lo spazio R2 24 / 258 Questo vale perche’ se considero tre vettori X = (x1 , . . . , xn ) e Y = (y1 , . . . , yn ) e Z = (z1 , . . . , zn ) , allora X + (Y + Z) = (x1 , . . . , xn ) + [(y1 , . . . , yn ) + (z1 , . . . , zn )] = (x1 , . . . , xn ) + (y1 + z1 , . . . , yn + zn ) = (x1 + y1 + z1 , . . . , xn + yn + zn ) = e per l’associatività dei numeri reali (x1 + y1 , . . . , xn + yn ) + (z1 , . . . , zn ) = (X + Y ) + Z cvd Proposizione 2.2 Si verifica allo stesso modo che la somma di vettori e’ un’operazione commutativa. ∀X, Y ∈ RN , X + Y = Y + X Uso la corrispondente (x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn ) ma per la commutatività in R : (y1 + x1 , . . . , yn + xn ) (y1 , . . . , yn ) + (x1 , . . . , xn ) = Y + X Proposizione 2.3 N tale che ∀x ∈ RN , segue che x + 0 Esiste un vettore nullo 0N RN = x = R ∈ R 0RN + x . Il vettore nullo ha tutte le componenti uguali a 0. Teorema 2.1 l’elemento nullo è unico. Dimostrazione 2.2 Sia 0′ ∈ Rn un elemento con le stesse proprietà dell’elemento neutro, allora, per le proprietà di 0 , 0 + 0′ = 0′ , ma per le proprietà di 0′ , 0′ + 0 = 0 , quindi 0 = 0′ e l’elemento neutro è unico. cvd Proposizione 2.4 Capitolo 2. Lo spazio R2 25 / 258 ∀XinRN , esiste un vettore x′ ∈ RN tale che x + x′ = 0RN . In particolare, se x = (x1 , . . . , xn ) , allora x′ = (−x1 , . . . , −xn ) . Teorema 2.2 l’opposto di un elemento è unico. Dimostrazione 2.3 Sia x′′ ∈ RN un elemento che gode della stessa proprieta’ di x′ , cioè x + x′′ = 0 . Usando la proprieta’ associativa si ha x′′ = x′′ + (x + x′ ) = (x′′ + x) + x′ e siccome anche x′′ soddisfa la proprietà il secondo membro è uguale a 0 + x′ quindi eguagliando primo e ultimo membro si ha x′ = x′′ . cvd 2.2.2 prodotto scalare per vettore Il prodotto scalare per vettore definito su R×RN ha come codominio RN . Prende una coppia (λ, x) dove λ e’ uno scalare in R , λ ∗ (x1 , xn ) e’ il prodotto di λ per ogni componente. λ ∗ (x1 , x2 , . . . , xn ) = (λx1 , λx2 , . . . , λxn ) Esempio 2.2 5 · (1, 2) = (5, 10) Proposizione 2.5 Il prodotto scalare per vettore gode della proprieta’ distributiva rispetto alla somma di vettori. Per ogni scelta di λ e di X, Y ∈ Rn , allora λ ∗ (X + Y ) = λ∗X +λ∗Y Dimostrazione 2.4 Se X = (x1 , . . . , xn ) e Y = (y1 , . . . , yn ) , segue che λ + λ = (λ, . . . , λ) Uso la proprieta’ distributiva di R . = (λ ∗ x1 + λ ∗ y1 , . . . , λ ∗ xn + λ ∗ yn ) Per la definizione di somma di vettori, (λ ∗ x1 , . . . , λ ∗ xn ) + (λ ∗ y1 , . . . , λ ∗ yn ) Capitolo 2. Lo spazio R2 26 / 258 λ+λ=λ+λ cvd Esercizio 2.1 Dimostrare la distributivita’ rispetto alla somma di scalari, cioe’ ∀λ, η ∈ R, ∀X ∈ RN , (λ + η) ∗ X = λ ∗ X + η ∗ X. Soluzione: Sia X = (x1 , x2 , . . . , xn ) . Allora (λ + η)(x1 , x2 , . . . , xn ) = (λ + η)x1 + (λ + η)x2 + · · · + (λ + η)xn ) = λ ∗ x1 + λ ∗ x2 + · · · + λ ∗ xn + η ∗ x1 + η ∗ x2 + · · · + η ∗ xn = λ + η(x1 + x2 + · · · + xn ) λ∗X +η∗Y Esercizio 2.2 dimostrare la forma di associativita’ per ogni scelta di scalari λ e η e per ogni scelta di X in RN , allora (λ ∗ η) ∗ X = (η ∗ x) ∗ λ Soluzione: (η ∗ X) ∗ λ = [(x1 , x2 , xn ) ∗ η] ∗ λ [(x1 ∗ η, x2 ∗ η, xn ∗ η)∗] ∗ λ applico la definizione di prodotto scalare. (x1 ∗ η ∗ λ, x2 ∗ η ∗ λ, xn ∗ η) ∗ λ = η ∗ λ ∗ (x1 , x2 , x3 ) = (η, λ) ∗ X Proposizione 2.6 Per ogni x ∈ RN , 1 ∗ x = x 2.3 L’insieme R2 2.3.1 Vettori linearmente dipendenti Definizione 2.3 Capitolo 2. Lo spazio R2 27 / 258 Siano v1 = (x1 , y1 ) , v2 = (x2 , y2 ) , elementi in R2 , allora v1 e v2 sono linearmente indipendenti se nessuno dei due e’ un multiplo scalare dell’altro. Non esiste un λt.c.X = λ∗Y . In caso contrario diremo che v1 e v2 sono linearmente dipendenti. Osservazione 2.1 Se v1 e v2 sono linearmente indipendenti, allora v1 ̸= 0 e v2 ̸= 0 . Dimostrazione 2.5 Se fosse v1 = 0 , avremmo v1 = 0 ∗ v2 , cioè λ = 0 . Esercizio 2.3 Dimostrare che v1 e v2 sono linearmente indipendenti se e solo se v1 ̸= 0R2 e v2 non e’ multiplo scalare di v1 , cioè dimostrare che non esiste λ numero reale tale che v2 = λv1 . Soluzione: Se per assurdo v1 = 0 , allora per λ = 0 , 0 ∗ v2 = v1 quindi i vettori sono linearmente dipendenti. Se per assurdo v2 e’ multiplo scalare di v1 , allora esisterebbe λt.c.v1 = λ ∗ v2 , quindi i vettori sarebbero linearmente dipendenti. Esempio 2.3 v1 = (1, 0) e v2 = (0, 1) sono linearmente indipendenti. v1 = (1, 0) e v3 = (x, y) sono linearmente dipendenti se e solo se y = 0 , infatti (x, 0) = x ∗ (1, 0) quindi λ = x soddisfa la definizione di vettori linearmente dipendenti. 2.3.2 criterio numerico Questo Criterio numerico permette di stabilire se due vettori in R2 sono linearmente dipendenti Lemma 2.1 Se ho due vettori (a, b) e (c, d) appartenenti a R2 , essi sono linearmente dipendenti se e solo se ad − bc = 0 Dimostrazione 2.6 1 −→ 2 : Se i due vettori sono linearmente dipendenti, allora (c, d) e’ multiplo scalare di (a, b) e quindi (c, d) = λ(a, b) per qualche λ ∈ R , e si ha c = λ ∗ a; d = λ ∗ b Allora ad − bc = a ∗ b ∗ λ − a ∗ b ∗ λ = 0. Capitolo 2. Lo spazio R2 28 / 258 2 −→ 1 : Supponiamo viceversa che ad − bc sia uguale a 0 Se (a, b) e’ il vetore nullo, i vettori sono linearmente indipendenti. Supponiamo (a, b) ̸= 0 allora a ̸= 0 o b ̸= 0 . Nel caso a ̸= 0 , allora ad − bc = 0 −→ ad = bc e posso dividere l’ultima uguaglianza per a : d = (bc)/a c = c/a ∗ aidentita’ d = c/a ∗ b Allora (a, b) = c/a(a, b) , quindi il secondo vettore e’ un multiplo scalare del primo con λ = c/a . cvd Esercizio 2.4 trovare un’equazione cartesiana per il luogo L di tutti i vettori della forma (x, 2x) al variare di x in R . L è il luogo di tutti i multipli scalari di v = (1, 2) . E’ la retta che congiunge l’origine con (1, 2) . In altre parole L è l’insieme di tutti i vettori (x, y) in R2 tali che (x, y) e (1, 2) sono linearmente dipendenti. Allora deve valere ad − bc = 0, −→ y − 2x = 0 −→ y = 2x 2.3.3 Retta e parametrizzazioni Definizione 2.4 Siano p0 (a, b) un punto nel piano e sia v(v1 , v2 ) un vettore con v ̸= 0 . Allora la retta con punto di passaggio p0 e vettore direzione v e’ il luogo di R2 definito {p0 + t ∗ v} al variare di t numero reale. L = {a, b + t ∗ (v1 , v2 ), t ∈ R} L = {x ∈ R2 : x = (a + tv1 , b + tv2 )} Quindi una retta e’ un sottoinsieme di R2 . L’applicazione γ : R → R2 definita da γ = p0 + tv si dice una parametrizzazione della retta L e ha come immagine L . Osservazione 2.2 La parametrizzazione determina L ma non viceversa. Considero ad esempio le parametrizzazioni γ = {P0 + tv} e γ ′ = {P1 + sw} con w = 1/3v e p1 = p0 + 2v Capitolo 2. Lo spazio R2 29 / 258 (nella seconda parametrizzazione cambio punto di passaggio e sostituisco il vettore direzione con una lunghezza pari a un terzo del vettore di partenza). Considerata la parametrizzazione della seconda retta γ ′ si ha γ ′ (s) = p1 + sw e sostituendo le espressioni di p1 e di w : γ ′ (s) = p0 + 2v + s(1/3)v = p0 + (2 + s/3) ∗ v e i punti che ottengo con γ e γ ′ , cioè la retta immagine L , è la stessa, anche se le parametrizzazioni sono diverse. In generale, se prendo un qualsiasi punto p0 in Rn e un vettore v ∈ Rn con v ̸= 0Rn la retta in Rn passante per p0 con vettore direzione v e’ sempre definita in modo analogo: L = {p0 + t ∗ v : t ∈ R} con parametrizzazione γ : R → Rn , t.c. γ = p0 + tv In conclusione, una parametrizzazione definisce in modo univoco una retta, perche’ la retta e’ l’immagine di una funzione. La stessa retta però puo’ essere definita con tante parametrizzazioni diverse. Esercizio 2.5 Siano p0 , p1 punti di Rn e v, w vettori in Rn diversi da 0. Siano γ, η le funzioni da R in Rn date da γ = p0 + t ∗ v e η(t) = p1 + t ∗ w . Dimostrare che queste parametrizzazioni determinano la stessa retta in RN , ossia γ = η(R) se e solo se valgono le seguenti condizioni: • p0 − p1 e’ un multiplo scalare di v ; • w e’ un multiplo scalare di v . Se p0 −p1 e’ un multiplo scalare di v , allora p0 −p1 = λv con λ ∈ R e p1 +λv = p0 Se w e’ multiplo scalare di v , allora w = µv per un certo µ ∈ R . Sostituisco nella parametrizzazione η le espressioni di w e p1 : η(t) = p1 + tw = p0 − λv + tµv = p1 + (tµ − λ)v e la parametrizzazione η definisce la stessa retta definita da γ , perché entrambe hanno lo stesso punto di passaggio e lo stesso vettore direzione. Capitolo 2. Lo spazio R2 30 / 258 2.3.4 equazioni cartesiane Definizione 2.5 Dare equazioni cartesiane per una retta L in Rn significa esprimere L come il luogo delle soluzioni di un sistema lineare in n incognite (x1 , . . . , xn ) . Nessuna equazione dev’essere combinazione lineare delle altre. Per definire una retta in Rn bastano n − 1 equazioni. Esempio 2.4 sia r la retta con punto di passaggio P (1, 2) e vettore direzione (−1, 3) . La sua parametrizzazione e’: γ = {(1, 2) + t(−1, 3), t ∈ R}. Un punto (x, y) in R2 appartiene a r se e solo se esiste un t0 numero reale tale che (x, y) = (1, 2) + t0 ∗ (−1, 3) , cioè ∃t0 ∈ R t.c. (x, y) − (1, 2) = (x − 1, y − 2) = t0 ∗ (−1, 3) cioè (x, y) appartiene alla retta se i vettori (a, b) = (−1, 3) e (c, d) = (x − 1, y − 2) sono linearmente dipendenti. Quindi applico il criterio secondo cui due vettori colonna (a, b), (c, d) sono linearmente dipendenti se ad − bc = 0 . ad − bc = (−1)(y − 2) − (x − 1) ∗ 3 = 0 −y + 2 − 3x + 3 = 0 −3x − y + 5 = 0 e tutti i punti (x, y) che appartengono alla retta devono soddisfare quest’equazione. Regola generale: a questo punto ho ottenuto un sistema non omogeneo (il termine noto e’ diverso da 0). Il vettore direzione della retta di partenza deve soddisfare il corrispondente sistema lineare omogeneo 3x+y = 0 , mentre il punto di passaggio deve soddisfare l’equazione lineare non omogenea. 2.3.5 Retta per due punti Per due punti passa una e una sola retta, che ha come punto di passaggio p1 e come vettore direzione p2 − p1 ed è quindi univocamente determinata. Esercizio 2.6 Trovare parametrizzazione e equazione cartesiana per la retta L in R2 congiungente i punti P1 (−1, 4) e p2 (1, 2) . Prendo uno qualsiasi dei due punti come punto di passaggio. il vettore direzione e’ la differenza tra p1 e p2 . Capitolo 2. Lo spazio R2 31 / 258 v = (1, 2) − (−1, 4) = (1, 2) + (1, −4) = (2, −2) = 2 ∗ (1, −1) Posso considerare v = (1, −1) perché moltiplicando un vettore per uno scalare la direzione rimane la stessa. La retta si parametrizza come L = {(−1, 4) + t ∗ (1, −1)} al variare di t in R . L = {(−1 + t, 4 − t), t ∈ R} Per trovare le equazioni cartesiane osservo che (x, y) ∈ L se e solo se il vettore direzione della retta e la differenza fra le coordinate (x, y) e quelle del punto di passaggio sono linearmente dipendenti. (1, −1) e (x + 1, y − 4) sono linearmente dipendenti se e solo se: ad − bc = y − 4 + x + 1 = 0 x + y + 3 = 0, equazione cartesiana Il punto di passaggio e il vettore soddisfano la condizione indicata prima. Dati due vettori distinti p0 e p1 , la parametrizzazione γ = p0 + t ∗ (p1 − p0 ) , determina una retta. Inoltre per t = 0 γ = p0 e per t = 1 ottengo γ = p0 + 1(p1 − p0 ) = p1 . Viceversa, sia data un’equazione lineare in x e y , della forma ax + by = c , con a, b, c numeri reali e a e b non entrambi nulli. Allora sia L l’insieme dei punti (x, y) che soddisfano l’equazione. Sia per esempio a ̸= 0 . Allora (x, y) ∈ L se e solo se ax + by = c = 0 e se e solo se x = (c − by) ∗ 1/a . Allora L = {P = (1/a ∗ (−by + c), y), a ∈ R}. Dato y , x e’ univocamente determinato. Allora L = {P = (c/a − b/a ∗ y, y)} al variare di y ∈ R . L = {(c/a, 0) + y ∗ (−b/a, 1), y ∈ R. Il secondo vettore e’ diverso da 0. La retta ha punto di passaggio (c/a, 0) e vettore direzione (−b/a, 1) . Esempio 2.5 Sia L il luogo dei punti {(x, y) ∈ R2 , t.c. x − 3y = 4}. L = {(3y + 4, y), y ∈ R} L = {(4, 0) + y(3, 1), y ∈ R} questa e’ la retta parametrizzata con punto di passaggio P (4, 0) e vettore direzione (3, 1) . Capitolo 2. Lo spazio R2 32 / 258 2.3.6 Coordinate A livello notazionale, indico con |(a, b), (c, d)| la quantità ad−bc , dove (a, b), (v, f ) cono vettori colonna. Siano A = (a1 , a2 ) e B = (b1 , b2 ) vettori colonna in R2 linearmente indipendenti, allora per il criterio numerico: |(a1 , a2 ), (b1 , b2 )| = a1 b2 − a2 b1 ̸= 0 Prendo un qualsiasi vettore (x, y) ∈ R2 . Definiamo α = |(x, y); (b1 , b2 )| = b2 ∗ x − a2 ∗ y ̸= 0 β = |(a1 , a2 ), (x, y)| = a1 ∗ y − a2 ∗ x (x, y) = α ∗ A + β ∗ B Calcolo il quoziente α/(a1 ∗ b2 − a2 ∗ b1 ) ∗ (a1 , a2 ) + β/(a1 ∗ b2 − a2 ∗ b1 ) ∗ (b1 , b2 ) x ∗ b2 − y ∗ b1 a1 ∗ y − a2 ∗ x ∗ (a1 , a2 ) + ∗ (b1 , b2 ) (a1 ∗ b2 − a2 ∗ b1 ) (a1 ∗ b2 − a2 ∗ b1 ) (a1 ∗ x ∗ b2 − a1 ∗ y ∗ b1 , a2 ∗ x ∗ b2 − a2 ∗ y ∗ b1 ) + (b1 ∗ a1 ∗ y − b1 ∗ a2 ∗ x, b2 ∗ a1 ∗ y − b2 ∗ a2 ∗ x) = (a1 ∗ b2 − a2 ∗ b1 ) x[a1 ∗ b2 + a2 ∗ b2 − b1 ∗ a2 − b2 ∗ a2 ], y[−a1 ∗ b1 − a2 ∗ b1 + b1 ∗ a1 + b2 ∗ a1 ] (a1 ∗ b2 − a2 ∗ b1 ) ( x[a1 ∗ b2 − b1 ∗ a2 ] y[−a2 ∗ b1 + b2 ∗ a1 ] , )= a1 b2 − a2 b1 (a1 ∗ b2 − a2 ∗ b1 ) Semplificando numeratore e denominatore rimane = (x, y) In conclusione, abbiamo dimostrato che se A e B in R2 sono linearmente indipendenti, allora per ogni scelta di (x, y) in R2 esistono numeri reali α e β tali che (x, y) = α ∗ A + β ∗ B , con: α= |(x, y), (a1 , b2 )| |(a1 , a2 ), (b1 , b2 )| β= |(b1 , a2 ), (x, y)| |(a1 , a2 ), (b1 , b2 )| Lemma 2.2 Se A e B in R2 sono linearmente indipendenti, allora per ogni scelta di un vettore colonna (x, y) in R2 esistono e sono unici scalari in R tali che (x, y) = r ∗ A + s ∗ B . Capitolo 2. Lo spazio R2 33 / 258 Dimostrazione 2.7 Per dimostrare l’unicità, siano r, s e r′ , s′ in R due coppie di vettori con la stessa proprieta’. Allora (x, y) = r′ ∗ A + s′ ∗ B = r ∗ A + s ∗ B. allora eguagliando i coefficienti che moltiplicano A e B nelle due scritture di (x, y) si ha necessariamente r = r′ e s = s′ . cvd Osservazione 2.3 se ho un qualsiasi vettore v in RN e uno scalare λ diverso da 0, allora per associatività: λ ∗ v ∗ 1/λ = v. 2.3.7 Basi di R2 Definizione 2.6 una base B di R2 e’ una coppia ordinata (A, B) di elementi di R2 linearmente indipendenti (e’ un elemento del prodotto cartesiano R2 × R2 ). In particolare, se A e B sono linearmente indipendenti, le coppie ordinate (A, B) e (B, A) sono basi distinte di R2 . L’ordine e’ cruciale. Sia B = (A, B) una base: allora per ogni (x, y) ∈ R2 esistono e sono unici r, s in R tali che /x, y) = r ∗ A + s ∗ B . Definizione 2.7 Diremo che il vettore colonna (r, s) in R2 e’ il vettore delle coordinate di (x, y) nella base B e lo indicheremo con B . Esempio 2.6 C2 e’ la coppia ordinata dei due vettori colonna (1, 0) e (0, 1) linearmente indipendenti. E’ definita base canonica o standard di R2 . Allora preso un qualsiasi (x, y) in R2 , vale che (x, y) = (x, 0) + (0, y) , ma (x, 0) = x(1, 0) , e (0, y) = y(0, 1) , quindi (x, y) = x ∗ (1, 0) + y ∗ (0, 1) allora le coordinate di (x, y) ∈ C2 coincidono con il vettore stesso (x, y) . Definita la base B data dai stessi vettori di C2 nell’ordine inverso, ottengo (x, y) = y(0, 1) + x(1, 0) , e il vettore colonna delle coordinate nella base B è (y, x) . Capitolo 2. Lo spazio R2 34 / 258 Esempio 2.7 Preso C = {(2, 0), (1, −1)} , cerco r e s tali che (x, y = r(2, 0) + s(1, −1) . Sommando le componenti ottengo: (x, y = (2r + s, −s) Ottengo quindi: Le coordinate del vettore colonna (x, y) sono, per ogni scelta di (x, y) ∈ R2 , MB (x, y) = ((x + y)/2, −y) . In generale, se A e B sono linearmente indipendenti: e considero la base B = {(a1 , a2 ), (b1 , b2 )} , allora per ogni (x, y) in R2 il vettore delle coordinate di (x, y) nella base B è dato da: x ∗ b2 − y ∗ b1 a1 b2 − a2 b1 a1 y − a2 x s= a1 b2 − a2 b1 r= Esempio 2.8 Stabilire se B = {(1, 3), (1, 2)} e’ una base e in caso affermativo trovare MB (x, y) per ogni (x, y) in R2 . Verifico che i vettori dati siano linearmente indipendenti: |(1, 3), (1, 2)| ̸= 0 1 ∗ 2 − 3 ∗ 1 = −1, ̸= 0 Allora B e’ una base di R2 . Per ogni vettore (x, y) allora determino r, s tali che MB = (r, s) . Applico la formula, tengo conto del fatto che a1 ∗ b2 − a2 ∗ b1 = −1 come calcolato prima: r = 1/(−1) ∗ |(x, y), (1, 2)| = −(2x − y) = −2x + y s = 1/(−1) ∗ |(1, 3), (x, y)| = −(y − 3x) = −y + 3x Risolvo quindi il sistema Le coordinate del vettore delle coordinate sono (−2x + y, 3x − y) . Verifica conclusiva: Verifico se A ∗ r + B ∗ s = (x, y) . (−2x + y) ∗ (1, 3) + (3x − y)(1, 2) = (−2x + y + 3x − y, −6x + 3y + 6x − 2y) = (x, y) Ottengo proprio il vettore colonna (x, y) . Capitolo 3. Lo spazio R3 35 / 258 Capitolo 3 Lo spazio R3 3.1 Lo spazio R3 Definizione 3.1 R3 e’ l’insieme dei vettori colonna (x, y, z) al variare di x, y, z ∈ R . 3.1.1 Prodotto vettoriale in R 3 Considero il prodotto vettoriale definito su R3 × R3 a valori in R3 , che porta una coppia di vettori (A, B) nel vettore A × B (oppure A ∗ B ) definito come segue: dati A = (a1 , a2 , a3 ) e B = (b1 , b2 , b3 ) il prodotto ha componenti (c1 , c2 , c3 ) definite come c1 = |(a2 , a3 ), (b2 , b3 )| = a2 b3 − a3 b2 c2 = −|(a1 , a3 ), (b1 , b3 )| = −(a1 b3 − a3 b1 ) = a3 b1 − a1 b3 C3 = |(a1 , a2 ), (b1 , b2 )| = a1 b2 − a2 b1 A ∗ B si dice il prodotto vettore di A e B . Osservazione 3.1 Se faccio il prodotto vettore di un qualsiasi vettore per se stesso, ottengo il vettore nullo per ogni scelta di A in R3 . Inoltre A ∗ B = −B ∗ A per ogni A e B in R3 . E’ un’operazione anticommutativa. Osservazione 3.2 Il prodotto vettore non e’ associativo, infatti, prendo ad esempio i vettori A(0, 0, 1) , B(0, 1, 0) , C(0, 0, 1) . e non è vero che A ∗ (B ∗ C) = (A ∗ C) ∗ B. Infatti A ∗ C = 0 (e’ un prodotto moltiplicato per se stesso) Capitolo 3. Lo spazio R3 36 / 258 B ∗ (A ∗ C) = B ∗ 0 = (0, 1, 0)(0, 0, 0) = 0 Invece B ∗ C = (1, 0, 0) A ∗ (B ∗ C) = A ∗ (1, 0, 0) = (0, −1, 0) ̸= 0 (A ∗ C) ∗ B ̸= A ∗ (B ∗ C) Ho trovato un controesempio, l’operazione non e’ associativa. Osservazione 3.3 Per ogni scalare λ in R e per ogni scelta di vettori A e B in R3 , segue che (λ ∗ A) ∗ B = λ ∗ (A ∗ B) = A ∗ (λ ∗ B). 3.2 La retta in R3 3.2.1 vettori linearmente dipendenti Vale la seguente caratterizzazione analoga a quella presente in R2 : Siano A e B in R3 , allora A e B sono linearmente dipendenti se e solo se il prodotto vettore di A e B e’ uguale a 0. Dimostrazione 3.1 1 −→ 2 : Suppongo che un vettore sia multiplo scalare dell’altro. Sia per esempio A = λ ∗ B per qualche λ ∈ R , allora A ∗ B = (λ ∗ B) ∗ B = λ ∗ (B ∗ B) = λ ∗ 0 = 0 2 −→ 1 : Viceversa supponiamo che il prodotto vettore A ∗ B sia uguale a 0, e devo dimostrare che i vettori sono dipendenti. se A = 0 , non c’e’ niente da dimostrare. Sia A ̸= 0 . Per esempio sia a1 ̸= 0 . A ∗ B = 0 implica che tutte le componenti del prodotto vettoriale sono nulle, quindi, in particolare a1 b3 − a3 b1 = 0 e a1 b2 − a2 b1 = 0. se a1 e’ diverso da 0, allora dividendo per a1 ricavo: Capitolo 3. Lo spazio R3 37 / 258 b3 = b1 /a1 ∗ a3 . b2 = b1 /a1 ∗ a2 Allora confronto b = (b1 , b2 , b3 ) = (b1 /a1 ∗ a1 , b1 /a1 ∗ a2 , b1 /a1 ∗ a3 ) = b1 /a1 (a1 , a2 , a3 ) = b1 /a1 ∗ A Allora i vettori sono linearmente dipendenti con λ = b1 /a1 . cvd 3.2.2 Definizione ed esempi sulla retta Definizione 3.2 Se ho un punto p0 = (x0 , y0 , z0 ) in R3 e e v = (v1 , v2 , v3 ) in R3 , con v ̸= 0 , definisco la retta r con punto di passaggio p0 e vettore direzione v come L = {p0 + t ∗ v, t ∈ R} Trovare equazioni cartesiane per r , significa esprimere r come il luogo delle soluzioni di un sistema lineare in x, y, z . Allora (x, y, z) appartiene a r per definizione se e solo se esiste un t0 numero reale tale che (x, y, z) = (x0 , y0 , z0 ) + t(v1 , v2 , v3 ) e quindi se e solo se (x, y, z) − (x0 , y0 , z0 ) = t0 (v1 , v2 , v3 ) per qualche t0 numero reale. Alloora (v1 , v2 , v3 ) e (x − x0 , y − y0 , z − z0 ) devono essere linearmente dipendenti. Allora il prodotto vettore di (v1 , v2 , v3 ) e (x − x0 , y − y0 , z − z0 ) deve dare il vettore nullo. Quindi r e’ il luogo delle soluzioni delle seguenti equazioni (pongo le componenti del prodotto vettore uguali a 0): Risolvo il sistema: e faccio le seguenti operazioni. v1 ∗ E 1 + v3 ∗ E 3 = 0 = v1 v2 ∗ (z − z0 ) − v1 v3 (y − y0 ) + v3 v1 (y − y0 ) − v3 v2 (x − x0 ) = 0 I termini centrali si annullano e rimane Capitolo 3. Lo spazio R3 38 / 258 = v1 v2 ∗ (z − z0 ) − v3 v2 (x − x0 ) = 0 e semplificando per v2 ottengo E2 , in particolare ho dimostrato che v1 ∗ E1 + v3 ∗ E3 = v2 ∗ E2 Analogamente si dimostra che −v1 ∗ E1 + v2 ∗ E2 = v3 ∗ E3 v2 ∗ E2 − v3 ∗ E3 = v1 ∗ E1 Quindi, ogni equazione del sistema si puo’ scrivere come combinazione lineare delle altre e quindi un’equazione è ridondante. Pertanto ogni retta puo’ essere definita da un sistema lineare di due equazioni nelle tre incognite (x, y, z) . Per esempio, se v1 ̸= 0 , uso le due equazioni in cui compare v1 , cioè la seconda e la terza equazione. −v3 x + v1 z + v1 x0 − v3 z0 = 0 v1 y − v2 x − v2 x0 + v1 y0 = 0 Analogamente negli altri casi, v2 ̸= 0 e v3 ̸= 0 . 3.2.3 Dalle equazioni parametriche alle cartesiane Esempio 3.1 Sia L = {(1, −1, 2) + t(1, 1, 1), t ∈ R} al variare di t in R , e voglio scriverne le equazioni cartesiane. (x, y, z) ∈ L se e solo se (x − 1, y + 1, z) e (1, 1, 1) sono linearmente indipendenti. Ricavo due equazioni che non siano una multiplo dell’altra. riordino Le equazioni sono indipendenti perche’ la x in una equazione compare e nell’altra no. Questo e’ un sistema di equazioni carteisane della retta. verifica: come nel caso di R2 , il vettore direzione dev’essere una soluzione del sistema omogeneo, e il punto di passaggio deve risolvere il sistema non omogeneo (con termine noto). Esempio 3.2 Trovare rappresentazione parametrica ed equazioni cartesiane per la retta congiungente v1 = (1, −1, 2) e v2 = (3, −2, 1) . Parametrizzazione della retta: L = {(x, y, z) ∈ R : (x − 1, y + 1, z − 2) + t(2, −1, −1) = 0} Capitolo 3. Lo spazio R3 39 / 258 I due vettori (x−1, y+1, z−2) e (2, −1, −1) devono essere linearmente dipendenti, quindi il prodotto dev’essere 0. Terza componente: −(x − 1) − 2(y + 1) = 0 Seconda componente: −(x − 1) − 2(z − 2) = 0 Equazioni cartesiane: 3.2.4 Dalle equazioni cartesiane alle parametriche Viceversa: se L e’ il luogo delle soluzioni di un sistema lineare di due equazioni indipendenti in (x, y, z) , allora L e’ una retta, come mostra il seguente esempio: Esempio 3.3 Supponiamo di avere il sistema Eseguo l’operazione E2 − 2E1 . 5y − 8z = −10 y − 8/5z = −2, −→ y = −2 + 8/5z Inoltre, dalla prima equazione ricavo x = 5 − 3z + 2y e sostituendo l’espressione di y ricavata si ha: x = 1 + 1/5z Complessivamente ottengo: L = {(x, y, z) : x = 1 + 1/5z, y = −2 + 8/5z, z ∈ R} = {(1 + 1/5z, −2 + 8/5z, z), z ∈ R} L = {(1, −2, 0) + z ∗ (1/5, 8/5, 1), z ∈ R} L = {(1, −2, 0) + t(1, 8, 5), t ∈ R} Ho posto t = 5z Il vettore direzione è v = (1, 8, 5) e il punto di passaggio è P = (1, −2, 0) . Caso generale: Supponiamo che L sia il luogo delle soluzioni di un sistema lineare della forma: Con i vettori (a, b, c) e (a′ , b′ , c′ ) linearmente indipendenti. Se per esempio a ̸= 0 , L e’ il luogo delle soluzioni del sistema seguente: (rispetto al sistema di partenza, al posto della seconda equazione inserisco E2 − a′ /a ∗ E1 ). Dividendo la prima equazione per a e moltiplicando per a la seconda ottengo: I coefficienti non possono essere uguali a 0 altrimenti i due vettori iniziali sarebbero linearmente dipendenti. Divido allora la seconda equazione per ab′ −a′ b : Riscrivo questo sistema cambiando i nomi ai coefficienti: Sottraggo alla prima equazione la seconda moltiplicata per B , in modo da annullare il termine in y : Capitolo 3. Lo spazio R3 40 / 258 x + (C − BC ′ )z = D − B ′ D Pongo ora −C + BC ′ = C1 , D − BD′ = d1 , C ′ = c2 , D′ = −d2 . Quindi x = D1 + C1 z , mentre y = d2 + d1 z . L = {(x, y, z) t.c. x = d1 + c1 z, y = d2 + c2 z, z ∈ R} = {(x, y, z) ∈ R3 t.c. (c1 , c2 , 1) ∗ z + (d1 , d2 , 0)} Il punto di passaggio è (d1 , d2 , 0) e il vettore direzione è (c1 , c2 , 1) . Si puo’ descrivere una retta partendo da una parametrizzazione. 3.3 Piani in R 3 3.3.1 Prodotto scalare standard Definizione 3.3 Il prodotto scalare standard su RN e’ la funzione ϕst : RN × RN → R che prende una coppia ordinata di vettori (X, Y ) con X = (x1 , . . . , xn ) e Y = (y1 , . . . , yn ) e la porta in n ∑ xi ∗ yi = (x1 y1 ) + · · · + i=1 Si indica con X · Y . Esempio 3.4 In R2 , (−1, 2)·(3, 0) = 1∗3−2∗0 = 3 . In R3 , (1, 1, 1)·(−2, 1, 0) = −2+1+0 = −1 . Osservazione 3.4 Per ogni X e Y in RN , X · Y = Y · X , cioè il prodotto scalare e’ una funzione simmetrica. Proposizione 3.1 Se prendo x, x′ , y vettori arbitrari e λ e λ′ scalari arbitrari, allora (λ ∗ x + λ′ ∗ x′ ) · y = λ + λ′ (x′ · y) (bilinearità) Dimostrazione 3.2 Supponiamo x = (x1 , . . . , xn ) , x′ = (x′1 , . . . , x′n ) , y = (y1 , . . . , yn ) . Allora Capitolo 3. Lo spazio R3 41 / 258 λ ∗ x + λ′ x′ = (λ ∗ x1 + λ′ x′1 , . . . , λ ∗ xn + λ′ ∗ x′n ) allora (λ ∗ x + λ′ x′ ) · y = (λ ∗ x1 + λ′ x′1 ) ∗ y1 + · · · + yn ) Raccolgo λ e λ′ : = λ + λ′ (x. · y) cvd Osservazione 3.5 Per ogni scelta di vettori X e Y in R3 , segue che X ·X ×Y =0 Dimostrazione 3.3 X × Y = (x1 , x2 , x3 ) · [(x2 y3 − x3 y2 ), −(x1 y3 − x3 y1 ), (x1 y2 − x2 y1 )] allora X · (X × Y ) = x1 x2 y3 − x1 x3 y2 − x2 x1 y3 + x2 x3 y1 + x3 x1 y2 − x3 x2 y1 = 0 Gli addendi opposti si eliminano e rimane 0. cvd 3.3.2 Piano in R 3 Definizione 3.4 Supponiamo di avere due vettori A e B in R3 . Diremo che C in R3 e’ una combinazione lineare di A e B se esistono scalari α e β numeri reali t.c. C = α∗A+β∗B . Definizione 3.5 Sia P0 ∈ R3 e siano A e B in R3 linearmente indipendenti, quindi tali che A×B ̸= 0 . Allora il piano (affine) passante per P0 e con vettori direzione A e B e’ il luogo π di tutti i punti della forma: p0 + α ∗ a + β ∗ b al variare di α e β numeri reali. Se consideriamo l’applicazione g : R2 → R3 che porta A e B nel punto P0 + α ∗ A + β ∗ B , il piano π e’ l’immagine g(R2 ) . g si dice una parametrizzazione di π . La parametrizzazione determina il piano, ma a un piano corrispondono varie parametrizzazioni. Capitolo 3. Lo spazio R3 42 / 258 3.3.3 Osservazione sulla combinazione lineare Proposizione 3.2 Siano A e B in R3 linearmente indipendenti (il prodotto vettore A ∗ B e’ diverso da 0). Allora C ∈ R3 e’ combinazione lineare di A e B se e solo se C.(A ∗ B) = 0 . Dimostrazione 3.4 1 −→ 2 : Se il vettore C = (c1 , c2 , c3 ) e’ una combinazione lineare di A e B per certi α e β , con A e B vettori linearmente indipendenti in R3 , allora segue che C · A × B = (α ∗ A + β ∗ B) · (AB) = α ∗ A · (A ∗ B) + β ∗ B · (A ∗ B) = 0 per dimostrazione precedente. 2 −→ 1 : Supponiamo viceversa che C ·A×B =0 allora dev’essere (c1 , c2 , c3 ) · (a2 b3 − a3 b2 , −a1 b3 + a3 b1 , a1 b2 − a2 b1 ) = 0 c1 (a2 b3 − a3 b2 ) − c2 (a1 b3 − a3 b1 ) + c3 (a1 b2 − a2 b1 ) = 0 Almeno una delle tre componenti di A × B dev’essere diversa da 0 perché i vettori sono linearmente indipendenti. Supponiamo che la seconda componente sia non nulla, allora posso dividere l’ultima equazione per a1 b3 − a3 b1 : c2 = c1 ∗ (a2 b3 − a3 b2 ) c3 ∗ (a1 b2 − a2 b1 ) + (a1 b3 − a3 b1 ) (a1 b3 − a3 b1 ) c2 = c1 ∗ (a2 b3 − a3 b2 ) + c3 ∗ (a1 b2 − a2 b1 ) a1 b3 − a3 b1 isolo a2 e b1 c2 = a2 (c1 ∗ b3 − b1 ∗ c3 ) + b2 (a1 ∗ c3 − a3 ∗ c1 ) a1 b3 − a3 b1 Chiamo α il coefficiente di a2 e β il coefficiente di b2 , qundi c2 = αb1 + βb2 a1 b3 − a3 b1 c1 = αa1 + βb1 a1b3 − a3 b1 Inoltre si ha Capitolo 3. Lo spazio R3 43 / 258 infatti sostituendo le espressioni di α e β ottengo: c1 = a1 c1 b3 − a1 c3 b1 + b1 c3 a1 − b1 c1 a3 a1 b3 − a3 b1 e semplificando i termini opposti c1 = a1 c1 b3 − b1 c1 a3 a1 b3 − a3 b1 raccogliendo c1 ottengo l’identità: c1 = c1 (a1 b3 − a3 b1 )/(a1 b3 − a3 b1 ) quindi la condizione è verificata. Inoltre analogamente c3 = αa3 +βb3 a1 b3 −a3 b1 . Concludo che C = α + β, allora C e’ una combinazione lineare di A e B . cvd Corollario 3.1 Il punto (x, y, z) appartiene al piano π se e solo se (x−x0 , y−y0 , z−z0 ).(A∗B) = 0 (questo infatti implica che il vettore differenza tra il punto e il punto di passaggio è combinazione lineare dei vettori direzione). Per definire un piano in R3 basta un’equazione cartesiana. 3.3.4 Dall’equazione parametrica alla cartesiana Esercizio 3.1 Trovare un’equazione cartesiana per il piano π ∈ R3 passante per (1, 2, −1) e avente vettori direzione (1, −1, 1) e (2, 1, 1) . I vettori direzione sono linearmente indipendenti, infatti v1 ∗ v2 = (1, −1, 1) ∗ (2, 1, 1) = (−2, −(1 − 2), 3) = (−2, 1, 3) Allora impongo che (x − x0 , y − y0 , z − z0 ) · v1 × v2 = 0 = (x − 1, y − 2, z + 1) · (−2, 1, 3) = 0 −2x + 2 + y − 2 + 3z + 3 = 0 Capitolo 3. Lo spazio R3 44 / 258 −2x + y + 3z + 3 = 0 π = {(x, y, z) ∈ R3 t.c. 2x − y − 3z = 3} In questo modo esprimo π come soluzione di un sistema lineare in tre incognite. I vettori direzione soddisfano l’equazione omogenea. Il punto di passaggio deve soddisfare quella non omogenea. 3.3.5 Dall’equazione cartesiana alla parametrica viceversa, supponiamo di avere un’equazione cartesiana, ovvero il luogo delle soluzioni di un’equazione lineare nelle incognite x, y, z e cerchiamo di risalire alla parametrizzazione. Esercizio 3.2 Trovare l’equazione parametrica del piano π(x, y, z) : x − 3y + 2z = 5. Esplicitando la x otteng: x = 3y − 2z + 5 Quindi π = {P = (3y − 2z + 5, y, z), y, z ∈ R} π = {(5, 0, 0) + y(3, 1, 0) + z(−2, 0, 1), y, z ∈ R} Ottengo il piano con punto di passaggio P (5, 0, 0) e vettori direzione (3, 1, 0) e (−2, 0, 1) . In generale, dato il luogo delle soluzioni di un’equazione lineare ax + by + cz = d , con a, b, c non tutti nulli, se supponiamo a ̸= 0 , allora x = −(b/a)y − (c/a)z + d/a, y, z ∈ R π = {(d/a, 0, 0) + y(−b/a, 1, 0) + z(−c/a, 0, 1), y, z ∈ R} e questa e’ il Piano con punto di passaggio (d/a, 0, 0) e vettori direzione (−b/a, 1, 0) e (−c/a, 0, 1) . 3.4 basi ordinate in R 3 3.4.1 Vettori linearmente dipendenti Definizione 3.6 Capitolo 3. Lo spazio R3 45 / 258 Siano v1 , v2 , v3 vettori in R3 . Diremo che v1 , v2 , v3 sono linearmente indipendenti se nessuno di essi e’ combinazione lineare dei restanti, quindi se non esistono α e β numeri reali tali che v1 = α∗v2 +β ∗v3 , o v2 = α∗v1 +β ∗v3 o v3 = α∗v1 +β ∗v2 . Osservazione 3.6 Equivalentemente, se α, β, γ sono numeri reali tali che la combinazione lineare α ∗ v1 + β ∗ v2 + γ ∗ v3 = 0 , allora se i vettori sono linearmente indipendenti, α, β, γ sono necessariamente nulli. Dimostrazione 3.5 1 −→ 2 : se vale la definizione di lineare dipendenza, e quindi se ad esempio v1 = α ∗ v2 + β ∗ v3 , si ha v1 + (−α ∗ v2 ) + (−β ∗ v3 ) = 0 e quindi si pone γ = 1 . 2 −→ 1 : Viceversa, se α, β, γ ∈ R3 sono tali che α ∗ v1 + β ∗ v2 + γ ∗ v3 e’ il vettore nullo e per esempio α ̸= 0 , allora v1 = −β/α ∗ v2 − γ/α ∗ v3 cioè v1 e’ combinazione lineare degli altri due. cvd Proposizione 3.3 Siano v1 , v2 , v3 ∈ R3 . Allora v1 , v2 , v3 sono linearmente indipendenti se e solo se valgono le seguenti condizioni: 1. v1 ̸= 0 2. v2 non e’ multiplo scalare di v1 , ( v1 e v2 sono linearmente indipendenti) 3. v3 non e’ combinazione lineare di v1 e v2 . Corollario 3.2 v1 , v2 , v3 sono linearmente indipendenti se e solo se v1 ̸= 0 e v1 × v2 ̸= 0 ( v1 non e’ multiplo scalare di v2 ) e v3 · (v1 × v2 ) ̸= 0 ( v3 non e’ combinazione lineare degli altri due). 3.4.2 Definizione di base Definizione 3.7 Capitolo 3. Lo spazio R3 46 / 258 Una base di R3 e’ una terna ordinata (v1 , v2 , v3 ) ∈ R3 × R3 × R3 , di vettori linearmente indipendenti. L’ordine è cruciale, e B = (v1 , v2 , v3 ) e B ′ = (v2 , v1 , v3 ) sono basi diverse. Osservazione 3.7 v1 , v2 , v3 e’ una base se e solo se (v1 × v2 ) · v3 ̸= 0 . Teorema 3.1 Sia B = (v1 , v2 , v3 ) una base di R3 . Allora per ogni vettore X = (x, y, z) ∈ R3 , esistono e sono unici scalari α, β, γ in R tali per cui il vettore X e’ uguale alla combinazione lineare αv1 + βv2 + γv3 . Dimostrazione 3.6 Gli scalari cercati sono α= (X × v2 ) · v3 (v1 × v2 ) · v3 β= (v1 × X) · v3 (v1 × v2 ) · v3 γ= (v1 × v2 ) · X (v1 × v2 ) · v3 Il denominatore e’ diverso da 0 per ipotesi. Si verifica immediatamente che X = α ∗ v1 + β ∗ v2 + γ ∗ v3 . Devo dimostrare anche l’unicita’ Se α′ , β ′ , γ ′ ∈ R sono altri scalari tali che X = α′ ∗ v1 + β ′ ∗ v2 + γ ′ ∗ v3 , eguagliando le due espressioni di X si ha: (α′ − α) ∗ v1 + (β ′ − β) ∗ v2 + (γ ′ − γ) ∗ v3 = 0 e in questa combinazione lineare i coefficienti devono essere uguali a 0 perche’ i vettori sono linearmente indipendenti. quindi α = α′ , β = β ′ e γ = γ ′ . cvd 3.4.3 La base canonica Ad esempio, sia C3 la terna di vettori (1, 0, 0), (0, 1, 0), (0, 0, 1) . Essa e’ chiamata base standard o canonica di R3 . Per ogni vettore (x, y, z) ∈ R3 , allora x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1) = 0. Definizione 3.8 Capitolo 3. Lo spazio R3 47 / 258 Sia B = (v1 , v2 , v3 ) una base di R3 . Se X ∈ R3 , siano α, β, γ in R gli unici scalari tali che X = α ∗ v1 + β ∗ v2 + γ ∗ v3 . Allora il vettore colonna (α, β, γ) in R3 si chiama il vettore delle coordinate di X nella base B e si denota con MB . Ad esempio, nel caso della base canonica, per ogni X ∈ R3 , MC3 (X) = X . Se D = (e2 , e1 , −e3 ) , si ha: x ∗ e1 + y ∗ e2 + z ∗ e3 = 0 y ∗ e2 + x ∗ e1 + (z ∗ (−e3 )) = 0 La colonna delle coordinate e’ (y, x, −z) . 3.4.4 esempi Esempio 3.5 Siano a, b, c scalari diversi da 0. Considero B = {(a, 0, 0), (0, b, 0), (0, 0, c)}. Questa e’ una base, perche’ ax + by + c = 0 e’ la combinazione lineare ed e’ uguale a 0 se e solo se sono nulli x, y, z . Vogliamo determinare il vettore MB tale che (x, y, z) = αv1 + βv2 + γv3 . (x, y, z) = α ∗ (a, 0, 0) + β ∗ (0, b, 0) + γ ∗ (0, 0, c) Allora pongo α = x/a, β = y/b, γ = z/c . Per trovare i coefficienti α, β, γ posso anche applicare le formule viste prima, ad esempio: α= X × v2 · v3 v1 × v2 · v3 v1 × v2 = (a, 0, 0) × (0, b, 0) = (0, 0, ab) v1 × v2 · v3 = (0, 0, ab) · (0, 0, c) = 0 + 0 + abc X × v2 = (x, y, z) × (0, b, 0) = (0 − zb, 0, xb) X × v2 · v3 = (0 − zb, 0, xb) · (0, 0, c) = xbc Quindi α = (xb ∗ c)/(abc) = x/a Analogamente Capitolo 3. Lo spazio R3 48 / 258 β= β= (v1 × y) · v3 = (v1 × v2 ) · v3 ((a, 0, 0) × (x, y, z)) · (0, 0, c) = (0, b, 0 × (a, 0, 0) · (0, 0, c) β= (0, −az, ay) · (0, 0, c) = (0, 0, ab) · (0, 0, c) β= (0 + 0 + ayc = y/b 0 + 0 + abc Invece (a, 0, 0) × (0, b, 0) · X = abc (0, 0, ab) · (x, y, z) γ= = abc 0 + 0 + abz γ= = z/c abc γ= La regola e’ un criterio numerico utile ma non e’ sempre il piu’ efficiente. Esempio 3.6 Dato l’insieme B = {(1, 1, 1), (1, −1, 0), (0, 2, −1)} Verificare se questa e’ una base e nel caso trovare il vettore colonna delle coordinate di X al variare di X . B e’ una base se e solo se l’equazione in α, β, γ α ∗ (1, 1, 1) + β + γ = 0 ha come unica soluzione α = β = γ = 0 . In quest’ultimo caso, MB = (α, β, γ) e’ l’unica soluzione dell’equazione sopra. Considerando singolarmente le componenti della combinazione lineare, e ponendole uguali a 0, si ha il sistema: Sottraggo membro a membro 4β = 3x − y − 2z β = 3/4x − 1/4y − 2/4z α = 1/4x + 1/4y + 2/4z γ = 1/4x + 1/4y − 2/4z Quindi MB = 1/4(x + y + z, 3x − y − 2z, x + y − 2z) Capitolo 4. Norme e distanze 49 / 258 Capitolo 4 Norme e distanze 4.1 Norme 4.1.1 Proprietà generali della norma euclidea Definizione 4.1 Il prodotto scalare standard pst e’ un’applicazione definita da Rn × Rn a valori in R e porta una coppia ordinata di vettori X, Y nel loro prodotto scalare standard X ·Y = n ∑ xi ∗ yi i=1 Questa operazione e’ simmetrica e bilineare. Proposizione 4.1 pst e’ definito positivo e questo significa che il prodotto scalare standard di un vettore con se stesso, X · X , e’ sempre maggiore di 0 ed e’ uguale a 0 se e solo se X e’ il vettore nullo di RN . Dimostrazione 4.1 X = (x1 , . . . , xn ) −→ X · X = n ∑ (xi )2 i=1 cioè il prodotto scalare e’ la somma dei quadrati delle componenti. Il prodotto scalare di un vettore per se stesso e’ uguale a 0, se e solo se xi = 0 per ogni i , cioè se e solo se X e’ il vettore nullo di RN . cvd 4.2 Norma euclidea Definizione 4.2 Capitolo 4. Norme e distanze 50 / 258 La norma euclidea standard su RN e’ la funzione | . . . | : RN → R che porta un vettore colonna X nella sua norma |X| definita come la radice quadrata del prodotto scalare standard di X con se stesso. v u n u∑ x2 |X| = t i i=1 Proposizione 4.2 La norma ha le seguenti proprietà: 1. |X| ≥ 0∀X ∈ Rn . 2. |X| = 0 se e solo se X è il vettore nullo 3. Per ogni X ∈ Rn e per ogni numero reale λ , |λ ∗ X| = |λ| ∗ |X|. Dim. v u n √ u∑ |λ ∗ X| = t λ2 ∗ (xi )2 = |λ| ∗ (xi )2 = |λ| ∗ |X| i=1 4.2.1 disuguaglianza di Cauchy-Schwarz Teorema 4.1 Per ogni coppia di vettori X, Y ∈ Rn , si ha: |X · Y | ≤ |X| ∗ |Y | Inoltre vale l’uguale se e solo se X e Y sono linearmente dipendenti. Dimostrazione 4.2 Supponiamo che i due vettori siano linearmente dipendenti. Supponiamo per esempio che Y = λX per qualche λ ∈ R Allora |X · Y | = |X · λ ∗ X| = |λ ∗ X · X| = |λ| ∗ (|X|)2 ma λ ∗ |X| ∗ |X| = |λX| ∗ |X| = |Y | ∗ |X| allora vale l’uguaglianza. Possiamo supporre ora che X e Y siano diversi dal vettore nullo e siano linearmente indipendenti. In particolare |X| > 0 e |Y | > 0 . Consideriamo il vettore vλ = λ ∗ X + Y , con λ numero reale. Capitolo 4. Norme e distanze 51 / 258 allora (|vλ |)2 ≥ 0 per ogni λ ∈ R (|vλ |)2 = (λ ∗ X + Y ) · (λ ∗ X + Y ) = = λ ∗ X · λ ∗ X + λ ∗ X · Y + λ ∗ X · Y + Y · Y = λ ∗ X · (λ ∗ X + Y ) + Y · (λ ∗ X + Y ) Uso la bilinearita’ sulla prima componente λ ∗ (X · λ ∗ X + X · Y ) + Y · (λ ∗ X + Y ) λ ∗ (X · λ ∗ X) + λ ∗ X · Y + λ ∗ X · Y + y · Y λ2 (X · X) + λ + λ + (Y · Y ) λ2 ∗ (|X|)2 + 2λ(X · Y ) + (|Y |)2 Raccolgo |X| (|X|)2 ∗ [λ2 + 2λ ∗ (X · Y ) (|Y |)2 + ]≥0 (|X|)2 (|X|)2 |X| > 0 e la quantita’ fra parentesi e’ maggiore di 0. aggiungo e tolgo (X·Y )2 (|X|)4 λ2 + . 2λ ∗ (X · Y ) (|Y |)2 (X · Y )2 (X · Y )2 + + − 2 2 (|X|) (|X|) (|X|)4 (|X|)4 Ho un quadrato perfetto, infatti vale l’uguaglianza (λ + X ·Y 2 2λ (X · Y )2 2 ) = λ + + (|X|)2 (|X|)2 (|X|)4 e sostituendo nella disuguaglianza [λ + X · Y 2 (|Y |)2 (X · Y )2 ] + − (|X|)2 (|X|)2 (|X|)4 Cerco il minimo comun denominatore tra gli ultimi due addendi: [λ + X · Y 2 ((|Y |)2 )(|X|)2 − (X · Y )2 ] + (|X|)2 (|X|)4 X·Y In particolare se λ = − (|X|) 2 , il primo addendo e’ 0, e rimane 0+ ((|Y |)2 )(|X|)2 − (X · Y )2 ≥0 (|X|)4 quindi (|Y |)2 ∗ (|X|)2 ≥ (X · Y )2 Capitolo 4. Norme e distanze 52 / 258 quindi, se X e Y sono linearmente indipendenti, concludo che necessariamente (|X|)2 ∗ (|Y |)2 ≥ (X · Y )2 . Allora sotto radice quadrata ottengo proprio la disuguaglianza |X| ∗ |Y | ≥ |X · Y | cvd 4.2.2 Disuguaglianza triangolare Come corollario della disuguaglianza di Cauchy-schwartz possiamo dedurre la disuguaglianza triangolare. Corollario 4.1 Per ogni coppia di vettori X, Y ∈ Rn , si ha che |X + Y | ≤ |X| + |Y | Dimostrazione 4.3 Parto dalla disuguaglianza da dimostrare, e siccome sto confrontando due addendi maggiori o uguali di 0, allora posso elevare al quadrato e dimostrare l’equazione (|X + Y |)2 ≤ (|X|)2 + (|X|)2 + 2|X| ∗ |Y |, formula 1 Sappiamo che vale anche |X + Y | ∗ |X + Y | ≥ (|X| + |Y |)2 , formula 2 Esplicitando il prodotto al primo membro nella formula 2: X · X + Y · Y + X · Y + y · X ≥ (|X| + |Y |)2 Osservo che X · X = (|X|)2 X · Y + Y · X = 2X · Y Y · Y = (|Y |)2 quindi, sostituendo al primo membro: (|X|)2 + 2X · Y + (|Y |)2 ≥ (|X| + |Y |)2 Ora applico la disuguaglianza di Cauchy-Schwartz: Capitolo 4. Norme e distanze 53 / 258 2X · Y ≤ 2|X| ∗ |Y | e sostituendo ottengo: (|X|)2 + 2|X| ∗ |Y | + (|Y |)2 ≥ (|X| + |Y |)2 e quindi ho dimostrato la formula 1. cvd Osservazione 4.1 La relazione |X + Y | = |X| + |Y | vale quando X e Y sono linearmente dipendenti e hanno un coefficiente positivo, cioè se e solo se 1. X · Y ≥ 0 2. vale l’uguaglianza in Cauchy-Schwarz ( X e Y linearmente dipendenti) 4.2.3 Distanza euclidea Definizione 4.3 La funzione distanza euclidea rispetto al prodotto scalare standard e’ la funzione d : RN × RN → R e associa alla coppia (X, Y ) la norma della differenza tra i due vettori. Proposizione 4.3 La distanza euclidea ha le seguenti proprieta’: • d(X, Y ) ≥ 0 per ogni X, Y ∈ Rn . • d(X, Y ) = 0 se e solo se X = Y • d(X, Y ) = d(Y, X) perche’ |X − Y = |Y − X| • Per ogni scelta di X, Y, Z ∈ Rn , la distanza tra X e Z e’ sempre minore o uguale di d(X, Y ) + d(Y, Z) . Dimostrazione 4.4 |X − Y | + |Z − X| ≥ |X − Y + Y − Z| = |X − Z| = d(X, Z) Osservazione 4.2 Capitolo 4. Norme e distanze 54 / 258 Le terne di vettori X, Y, Z tali per cui d8x, y) = d(x, z) + d(z, y) sono quelle tali per cui vale l’ ”uguaglianza triangolare” |X − Y | = |(X − Z) + (Z − Y )| = |x − z| + |z − y| cioè sono le terne di punti allineati, dove i vettori X −Z e Z −Y sono linearmente dipendenti. 4.2.4 Interpretazione geometrica di Cauchy Schwarz Per ogni coppia (X, Y ) di vettori in RN , allora |X · Y | ≤ |X| ∗ |Y | In particolare, se X e Y sono entrambi diversi da 0, posso dividere per |X| ∗ |Y | e ricavo che X ·Y ≤1 |X| ∗ |Y | Il denominatore e’ una quantita’ positiva. Osservo che il rapporto vale esattamente ±1 se i vettori sono linearmente dipendenti e Y = λX , infatti si ottiene: λ∗X ·X = |X| ∗ |λX| λ ∗ X2 = |λ ∗ X 2 | λ = sgnλ |λ| Il segno di λ e’ −1 se λ e’ negativo e 1 se e’ positivo. 4.2.5 Caso particolare vettori unitari Il rapporto non cambia se X e Y vengono entrambi moltiplicati per uno scalare positivo. X Allora sostituisco X con |X| = Xu e Y con unitarizzati perché hanno norma 1. Y |Y | = Yu . Xu e Yu sono detti vettori In R2 posso considerare due vettori X, Y di norma 1, che stanno sul cerchio unitario con centro nell’origine. Chiamo θ1 e θ2 gli angoli formati da X e Y con l’asse delle ascisse. Quindi si può scrivere X · Y = (cos θ1 , sin θ1 ) · (cos θ2 , sin θ2 ) X · Y = cos θ1 ∗ cos θ2 + sin θ1 ∗ sin θ2 X · Y = cos(θ1 − θ2 ) Capitolo 4. Norme e distanze 55 / 258 In generale se X e Y sono vettori non nulli in Rn , l’angolo 0 < θ < π compreso tra X e Y e’ l’angolo determinato dalla condizione cos(θX,Y ) = X ·Y |X| ∗ |Y | In particolare, diremo che X e Y sono perpendicolari se l’angolo e’ di π/2 e quindi se cos θX,Y = X · Y = 0 . 4.2.6 vettori perpendicolari Notazione generalizzata: Due vettori X e Y in RN anche nulli si diranno perpendicolari se il prodotto scalare standard dei due e’ 0. Di conseguenza, il vettore nullo e’ perpendicolare a ogni vettore. Teorema 4.2 Due vettori X e Y sono perpendicolari in Rn se e solo se vale la proprietà (|X + Y |)2 = (|X|)2 + (|Y |)2 Dimostrazione 4.5 1 −→ 2 : X e Y perpendicolari implica X · Y = 0 . Considero quindi che: (|X + Y |)2 = (X + Y ) · (X + Y ) = Uso la simmetria. = X · X + 2X · Y + Y · Y = ma X · Y per ipotesi e’ uguale a 0, quindi = X · X + Y · Y = (|X|)2 + (|Y |)2 . 2 −→ 1 : Viceversa, se impongo che (|X|)2 + (|Y |)2 = (|X + Y |)2 , allora X · Y = 0 , per i passaggi precedenti. cvd Osservazione 4.3 Se X e Y sono perpendicolari, anche X e −Y sono perpendicolari e si ha (|X − Y |)2 = (|X|)2 + (|(−Y )|)2 Esempio 4.1 Capitolo 4. Norme e distanze 56 / 258 Sia L in RN una retta con punto di passaggio P0 e vettore direzione v ( P0 e v sono elementi di Rn e v ̸= 0 ). Quindi L e’ l’insieme {P0 + tv, t ∈ R} . Prendo un punto Q di Rn . Allora, esiste ed e’ unico un punto P1 appartenente alla retta tale che P1 − Q e’ perpendicolare al vettore direzione v . Impongo la condizione algebricamente (P1 − Q) · v = 0 e siccome P1 = P0 + tv , cerco t ∈ R tali che: (P0 + t ∗ v − Q) · v = 0 P0 · v + t ∗ v · v − Q · v = 0 Osservo che v · v = (|v|)2 ̸= 0 , perche’ il vettore direzione non e’ nullo, allora dividendo per v · v : t1 = (Q − P0 ) · v (|v|)2 e il punto cercato è P1 = P0 + t1 ∗ v = P0 + (Q − P0 ) · v ∗v (|v|)2 Sia P ∈ L un qualsiasi punto. Allora posso scrivere la retta come P1 + sv al variare di s ∈ R . Allora esiste ed e’ unico s ∈ R tale che P = P1 + s ∗ v . Segue che (|P − Q|)2 = (|(P1 + sv) − Q|)2 = (|(P1 − Q) + sv|)2 = Siccome P1 −Q e’ perpendicolare a v , e’ anche perpendicolare a qualsiasi multiplo scalare di v , allora la norma quadra della somma e’ la somma delle norme quadre per il teorema enunciato sopra. = (|P1 − Q|)2 + s2 (|v|)2 ≥ (|P1 − Q|)2 Vale l’uguale quando s2 ∗ |v| = 0 , e quindi quando s = 0 , Quindi se e solo se P = P1 . Prendendo le radici quadrate, per ogni punto P ̸= P1 sulla retta, si ha |P − Q| ≥ |P1 − Q| Vale l’uguale se e solo se P = P1 . Capitolo 4. Norme e distanze 57 / 258 4.3 Distanza punto - retta In termine della funzione distanza d(P, Q) ≥ d(P1 , Q) abbiamo dimostrato che esiste ed e’ unico un punto P1 sulla retta che e’ ha distanza minima da Q . Per ogni retta L in RN e per ogni punto Q in RN , esiste ed e’ unico un punto P1 = P1 (Q) in L tale che la distanza fra P1 e Q e’ esattamente il minimo delle distanze tra P e Q al variare di P sulla retta. Tale minimo si chiama distanza della retta dal punto. Se Q e’ un punto sulla retta, la distanza e’ 0. Esempio 4.2 Se L e’ la retta congiungente p1 = (1, 0, 1) e p2 = (−1, 1, 2) , trovare la distanza di L da Q = (0, 1, 0) . L = {p1 + (p2 − p1 )v} L = {(1, 0, 1) + t(2, −1, −1), t ∈ R} Se chiamo p p(t) il punto parametrizzato (1, 0, 1) + t(2, −1, −1) impongo la condizione che p(t) − (0, 1, 0) sia perpendicolare al vettore direzione (2, −1, −1) . p(t) = 1 + 2t, −t, 1 − t p(t) − q = (1 + 2t, −t − 1, 1 − t) allora impongo (p(t) − q) · (2, −1, −1) = 0 (1 + 2t, −t − 1, 1 − t) · (2, −1, −1) = 2 + 4t + t + 1 − 1 + t = 6t + 2 t = −1/3 p(−1/3) − q = (1 − 2/3, 1/3 − 1, 1 + 1/3) = (1/3, −2/3, 4/3) = 1/3(1, −2, 4) Allora la distanza della retta da q e’ (|p(−1/3) − q|)2 = √ x2 + y 2 + z 2 = 1/3(1 + 4 + 16) = 1/3 ∗ Procedimento generale (distanza punto - retta): 1. cerco un’equazione parametrica della retta data; 2. calcolo il prodotto scalare tra p(t) − q e il vettore direzione; 3. trovo t ∈ R tale che il prodotto scalare sia uguale a 0; √ 21 Capitolo 4. Norme e distanze 58 / 258 4. sostituisco t nell’espressione di p(t) − q 5. la distanza e’ la norma di p(t) − q 4.4 Distanza punto - piano Sia π un piano tale che π = {P0 + a ∗ v1 + b ∗ v2 }, ab ∈ R , ove P0 , v1 , v2 sono fissati in R3 e v1 ev2 sono linearmente indipendenti. Posso dare un’equazione cartesiana del piano: se P0 = (x0 , y0 , z0 ) , allora π = {(x, y, z) : α + β + γ = 0}, ove α, β, γ sono le componenti del prodotto vettore v1 × v2 . Cerco la distanza dal piano π al punto Q ∈ R3 . La retta L passante per Q e con vettore direzione perpendicolare al piano è L = {Q + s(α, β, γ), s ∈ R} allora L interseca π in un unico punto. Se Q = (x1 , y1 , z1 ) allora definisco Q(s) = Q + sw = (x1 + sα, y1 + sβ, z1 + sγ). dove w = (α, β, γ) . π = {(x, y, z) = α ∗ (x − x0 ) + β + γ} La retta e il piano sono perpendicolari, quindi il prodotto scalare tra il vettore direzione della retta e il piano devono essere uguali a 0. w · [(x, y, z) − P0 ] = w · (X − P0 ) = 0 Per cercare il punto di intersezione tra retta e piano impongo che Q(s) ∈ π e questo avviene se e solo se w · (Q(s) − P0 ) = 0 ma Q(s) − P0 = Q + sw − P0 , quindi impongo w · (Q + sw − P0 ) = 0 s ∗ w · w + w · (Q − P0 ) = 0 s ∗ (|w|)2 = (P0 − Q) · w e dividendo per (|w|)2 ottengo l’unica soluzione: s1 = (P0 − Q) · w (|w|)2 Capitolo 4. Norme e distanze 59 / 258 Quindi l’unico punto di intersezione tra la retta e il piano è Q(s1 ) . Si dimostra che data la retta perpendicolare al piano e passante per Q , il punto di intersezione tra retta e piano e’ l’unico punto del piano che minimizza la distanza di π da Q . Preso un qualsiasi altro punto la distanza del piano da Q sara’ strettamente maggiore. Osservazione 4.4 Sia π = {P0 +sA+tB, s, t ∈ R} , e sia P0 un punto di R3 , siano A e B linearmente indipendenti ( A ∗ B ̸= 0 ). Dato un punto Q di R3 , sia L la retta con punto di passaggio Q e vettore direzione v con v perpendicolare ad A e B e diverso da 0, allora L ∩ π consiste di un unico punto. Mostro Q1 = P (0, 0) e’ l’unico punto che minimizza la distanza di Q da π . Dimostrazione 4.6 Uso Q1 come punto di passaggio per π . Allora π = {Q1 + sA + tB, s, t, ∈ R}. Allora il generico punto del piano è P (s, t) = Q1 + sA + tB . allora d(P (s, t), Q)2 = (|Q1 + sA + tB − Q|)2 = (|(Q1 − Q) + (sA + tB)|)2 Ho scelto Q1 come unico vettore tale che Q − Q1 e’ perpendicolare ad A e B , allora (Q1 − Q) · A = 0 (Q1 − Q) · B = 0 allora (Q1 − Q) · (sA + tB) = 0 . La norma quadra della somma e’ la somma delle norme quadre, perche’ i vettori sono perpendicolari. d(p(s, t), q) = (|Q1 − Q|)2 + (|sA + tB|)2 Vale l’uguale ( d(P (s, t), Q) = d(Q, Q1 ) ) se e solo se la norma quadra di sA + tB è nulla, quindi se e solo se sA + tB e’ il vettore nullo. Ma questa combinazione lineare e’ 0 se e solo se s = t = 0 , quindi se e solo se P (st) = P (0, 0) = Q1 . cvd Esempio 4.3 Preso π : {(x, y, z)t.c. 2x − 3y + z = 1} , trovare la distanza di π da Q = (0, 1, 0) . 1. verifico se il punto Q appartiene al piano sostituendo le sue coordinate nell’equazione che definisce π :Ottengo 0 − 3 + 0 = 1 . Il punto non appartiene al piano Capitolo 4. Norme e distanze 60 / 258 2. se il punto non appartiene, considero la retta con punto di passaggio Q e vettore direzione (a, b, c) dove a, b, c sono i coefficienti che compaiono nell’equazione del piano, e tutti i punti del piano sono quindi perpendicolari ad (a, b, c) .In questo caso P = (0, 1, 0) e (a, b, c) = (2, −3, 1) .Quindi il generico punto della retta è P = (2t, 1 − 3t, t) t ∈ R 3. Cerco il punto di intersezione tra la retta e il piano.La reta interseca il piano se e solo se (2t, 1 − 3t, t) ∈ π , quindi se e solo se il generico punto della retta soddisfa l’equazione del piano.Nell’equazione del piano, sostituisco x, y, z con le coordinate del generico punto della retta. 2 ∗ 2t − 3(1 − 3t) + t = 1 4t + 9t + t − 3 = 1 14t = 4, −→ t = 2/7 4. Il punto di intersezione si ottiene sostituendo il valore di t trovato nella retta. P = (2 ∗ 2/7, 1 − 3 ∗ 2/7, 2/7) 5. calcolo la distanza tra P e Q . d(p(2/7), (0, 1, 0)) = |(2 ∗ 2/7, −3 ∗ 2/7, 2/7)| = 2/7|(2, −3, 1)| = 2/7 ∗ √ 14 4.5 Distanza retta - retta Per fissare le idee siano L1 , L2 ∈ R3 due rette che suppongo non parallele. Questo significa che se L1 = {p1 + t ∗ v1 , t ∈ R} e L2 = {p2 + s ∗ v2 , s ∈ R} , allora v1 e v2 sono linearmente indipendenti. Lemma 4.1 Esiste ed e’ unica una coppia di punti (p, q) ∈ L1 × L2 tali che p − q e’ perpendicolare a v1 e v2 . ossia (p − q) · v1 = (p − q) · v2 = 0 . Dimostrazione 4.7 Definisco p(t) = p1 +t∗v1 generico punto di L1 al variare di t ∈ R , e q(s) = p2 +sv2 generico punto di L2 , al variare di s ∈ R . Impongo la condizione che p(t) − q(s) sia perpendicolare a vj per j = 1, 2 . So che p(t) − q(s) = p1 + tv1 − (p2 + sv2 ) = p1 − p2 + tv1 − sv2 . Se impongo le due condizioni di perpendicolarità ottengo: [p(t) − q(s)] · v1 = (p1 − p2 ) · v1 + t ∗ (|v1 |)2 − sv2 · v1 [p(t) − q(s)] · v2 = (p1 − p2 ) · v2 + t(v1 · v2 ) − s(|v2 |)2 Capitolo 4. Norme e distanze 61 / 258 La condizione [p(t) − q(s)] · vj = 0 per j, 1, 2 equivale al sistema lineare delle due equazioni: scrivendo in forma vettoriale ottengo (i vettori in realtà sono vettori colonna): t ∗ ((|v1 |)2 , (−v1 · v2 )) + s ∗ ((−v1 · v2 , (|v2 |)2 ) = ((p2 − p1 ) · v1 , (p1 − p2 ) · v2 ) La soluzione esiste ed e’ unica. Considero la coppia di vettori: A = ((|v1 |)2 , −v1 · v2 ) B = (−v1 · v2 , (|v2 |)2 ) I vettori sono linearmente indipendenti se vale ad − bc ̸= 0 . ad − bc = (|v1 |)2 ∗ (|v2 |)2 − (v1 · v2 )2 ̸= 0 Il prodotto dei quadrati delle norme e’ maggiore dei prodotti scalari quindi l’espressione per Cauchy - Schwarz e’ positiva. v1 e v2 sono supposti linearmente indipendenti, quindi non vale l’ugualenella relazione e la condizione di lineare indipendenza di A e B è soddisfatta. Allora A e B costituiscono una base in R2 , quindi la soluzione s, t del sistema è unica, ed esistono e sono unici i punti p e q cercati. cvd Teorema 4.3 Siano p, q ∈ L1 × L2 tali che p − q è perpendicolare a v1 e p − q è perpendicolare a v2 . Allora per ogni p′ e q ′ in L1 × L2 , si ha che d(p′ , q ′ ) ≥ d(p, q) e vale l’uguale se e solo se p = p′ e q = q ′ . Dimostrazione 4.8 Prendo p come punto di passaggio per L1 e q come punto di passaggio per L2 . Allora posso scrivere che L1 = {p+a∗v1 } al variare di a ∈ R e L2 = {q +b∗v2 , b ∈ R} . Quindi ra = p + a ∗ v1 è il generico punto di L1 , e sb = q + b ∗ v2 è il generico punto di L2 . Calcolo la distanza al quadrato fra i due generici punti. d(ra , sb )2 = (|ra − sb |)2 = (|(p + av1 ) − (q + bv2 )|)2 Evidenzio la perpendicolarita’ e uso Pitagora: (|(p − q) + (av1 − bv2 )|)2 = Capitolo 4. Norme e distanze 62 / 258 p − q per costruzione e’ perpendicolare a v1 e v2 , e quindi a av1 − bv2 , allora siccome i due vettori sono perpendicolari, il quadrato della norma della somma è la somma del quadrato delle norme: = (|p − q|)2 + (|av1 − bv2 |)2 e questa quantità e’ maggiore o uguale della norma quadra di p − q e vale l’uguale se e solo se (|av1 − bv2 |)2 = 0 . Siccome le due rette sono non parallele e v1 e v2 sono non paralleli, allora la condizione è verificata solo se a = b = 0 , cioè d(p, q) = d(ra , sb ) solo se a = b = 0 e quindi se ra = p e sb = q . Quindi i due punti p, q sono gli unici che minimizzano la distanza delle due coppie di punti sulla retta. cvd Definizione 4.4 Se L1 e L2 sono rette non parallele, e se p, q ∈ L1 × L2 e’ l’unica coppia di punti tali che p − q e’ perpendicolare a entrambe le rette, allora definiamo distanza di L1 da L2 come |p − q| . La distanza di L1 da L2 e’ inf{d(p′ , q ′ )} , al variare di p′ ∈ L1 e q ′ ∈ L2 , e l’inf è uguale a d(p, q) con p e q definiti come prima. Osservazione 4.5 Supponiamo che L1 e L2 siano parallele. Allora per ogni coppia (p, p′ ) in L1 la distanza di p da L2 e’ uguale alla distanza di p′ da L2 . Equivalentemente, per ogni coppia q, q ′ di L2 la distanza di L1 da q e’ uguale alla distanza di L1 da q ′ . Capitolo 5. Spazi vettoriali 63 / 258 Capitolo 5 Spazi vettoriali 5.1 Concetti introduttivi 5.1.1 Definizioni di spazi vettoriali Definizione 5.1 Uno spazio vettoriale reale sul campo reale e’ una terna (V, +, ∗) , ove V e’ un insieme non vuoto, +, ∗ sono funzioni tali che: • + : V × V → V è l’operazione che associa alla coppia v, w la somma v + w ; • ∗ : R× V → V è l’operazione che associa alla coppia (λ, v) il prodotto λ ∗ v . 5.1.2 proprieta’ della somma 1. L’addizione e’ commutativa, cioe’ v + w = w + v per ogni coppia (v, w) ∈ V . 2. L’addizione e’ associativa, cioe’ (v + w) + u = v + (w + u), ∀v, w, u ∈ V . 3. Vale l’esistenza dell’elemento neutro rispetto alla somma: ∃ 0 ∈ V t.c. v + 0 = 0 + v = v∀v ∈ V 0V si dice elemento neutro. L’elemento neutro, se esiste, e’ necessariamente unico.Infatti se esistesse (0′ )V con le stesse proprieta’ di 0V , allora 0V + (0′ )V = (0′ )V per le proprieta’ di 0V , ma anche (0′ )V ha le stesse proprieta’, quindi (0′ )V = (0′ )V + 0V = 0V . 4. vale l’esistenza dell’opposto: ∀v ∈ V, ∃ − v ∈ V t.c.v + (−v) = −v + v = 0V . L’opposto di ogni v ∈ V , se esiste, e’ necessariamente unico. Stesso ragionamento applicato per RN .Infatti, se esiste v ′′ con la stessa proprieta’, Capitolo 5. Spazi vettoriali 64 / 258 v + v ′ = 0V , v ′′ = 0V + v ′′ per le proprietà dello zero, quindi sostituendo il valore di zero trovato, v ′′ = v + v ′ + v ′′ , ma siccome v ′′ gode della stessa proprieta’ di v ′ , allora v ′′ = (v + v ′′ ) + v ′ = 0V + v ′ , quindi v ′′ = v ′ 5.1.3 Proprietà della moltiplicazione Proposizione 5.1 1. La moltiplicazione e’ distributiva rispetto alla somma di vettori. λ = λv1 + λv2 , ∀λ ∈ R, ∀v1 , v2 ∈ V 2. La motliplicazione e’ distributiva rispetto alla somma di scalari: (λ1 + λ2 )v = λ1 v + λ2 v, ∀λ1 , λ2 ∈ R, ∀v ∈ V 3. La moltiplicazione e’ associativa. (λ ∗ η)v = λ(ηv) 4. Si puo’ anche scrivere 1 ∗ v = v∀v ∈ V (normalizzazione). 5. 0 ∗ v = 0V , ∀v ∈ V ( 0V e’ l’elemento neutro) Dimostrazione 5.1 Usando la distributivita’ rispetto alla somma di scalari: 0 ∗ v = (0 + 0) ∗ v Sommo a 0 ∗ v il suo opposto, e sostituisco l’espressione di 0 ∗ v appena ricavata: 0V = −0 ∗ v + 0 ∗ v = −0 ∗ v + (0 + 0) ∗ v = Uso l’associativita’. 0V = (−0 ∗ v + 0 ∗ v) + 0 ∗ v = 0V + 0 ∗ v = 0 ∗ v cioè il vettore nullo e’ ugale a 0 ∗ v . cvd Osservazione 5.1 L’opposto di un vettore v può essere scritto come −1 ∗ v , infatti −1 ∗ v + v = −1 ∗ v + 1 ∗ v = (−1 + 1) ∗ v ma −1 + 1 = 0 per le proprietà della somma di numeri reali, e 0 ∗ v = 0V . Capitolo 5. Spazi vettoriali 65 / 258 Per l’unicita’ dell’opposto −1 ∗ v = −v, ∀v ∈ V . In generale: u + (−v) = u − v = u + (−1 ∗ v) Osservazione 5.2 Abbiamo definito spazi vettoriali sul campo R . In realtà si puo’ definire uno spazio vettoriale su un campo qualsiasi. Tutte le proprieta’ algebriche si generalizzano, tranne quelle che sono in relazione con la metrica. 5.2 Esempi di spazi vettoriali RN con le operazioni definite e’ il modello su cui abbiamo costruito la nozione di spazio vettoriale. 5.2.1 Spazio delle funzioni Esempio 5.1 Se X e’ un insieme, sia RX l’isnieme di tutte le funzioni f : X → R . Allora 1. Se f e g sono elementi di RX , definisco la somma di f e g come (f +g)(x) = f (x) + g(x), ∀x ∈ X .(Il segno + al secondo membro indica la somma di numeri reali. Quello al primo membro indica cio’ che sto definendo) 2. se λ ∈ R e f ∈ RX , definisco il prodotto (λ ∗ f )(x) = λ ∗ f (x) . Affermo che RX e’ uno spazio vettoriale su R . Verifico le proprieta’ tipiche dello spazio vettoriale in RX . 1. Verifico l’associativita’: Se f, g, h sono elementi di RX , affermo che (f + g) + h = f + (g + h) . Devo dimostrare che ∀x ∈ X , le due funzioni sono uguali.Applicando due volte la definizione di somma: [(f + g) + h](x) = (f + g)(x) + h(x) = (f (x) + g(x)) + h(x) A questo punto applico l’associativita’ in R perche’ ho la somma di numeri reali = f (x) + [g(x) + h(x)] = riscrivo il secondo termine usando la definizione di somma a ritroso: [f (x) + (g + h)(x)] = f + [g + h] quindi ho verificato che (f + g) + h = f + (g + h) . 2. Verifico la distributivita’ rispetto alla somma di funzioni.Se λ ∈ R e f, g sono elementi di RX , allora per definizione di somma: λ == λ ∗ [f (x) + g(x)] Capitolo 5. Spazi vettoriali 66 / 258 Uso le proprieta’ dei numeri reali: = λ ∗ f (x) + λ ∗ g(x) Usando la definizione di prodotto a ritroso: = [λ ∗ f ](x) + [λ ∗ g](x) = [λ ∗ f + λ ∗ g](x) Concludo che per ogni x ∈ X , λ ∗ (f + g) = λ ∗ f + λ ∗ g . 3. Verifico la proprieta’ commutativa.Per definzione di somma: (f + g)(x) = f (x) + g(x) per commutatività in R : = g(x) + f (x) e per definizione di somma a ritroso: = (g + f )(x) Si verificano analogamente le altre proprietà. Quest’esempio si generalizza a K X , dato dalle funzioni f : X → K , dove K e’ un campo arbitrario. 5.2.2 Polinomi reali Esempio 5.2 Se d ≥ 0 ∈ N , definisco Rd [x] come l’insieme dei polinomi in x di grado minore o uguale di d . E’ l’insieme . La terna (Rd [x], +, ∗) e’ uno spazio vettoriale su R quando +, ∗ sono definiti come segue: 1. Dati i polinomi per la somma si ha p(x) + q(x) = p0 + q0 + (p1 + q1 ) ∗ x + · · · + ∗xd = d ∑ (pi + qi ) ∗ xi . i=0 2. Definiamo il prodotto: λ ∗ p(x) = λ ∗ p0 + λ ∗ p1 ∗ x + · · · + λ ∗ pd ∗ x = d d ∑ i=0 Esercizio 5.1 Verificare che R[x](x) e’ uno spazio vettoriale su R con +, · . Si può verificare che valgono le proprieta’ dello spazio vettoriale. λ ∗ pi ∗ xi Capitolo 5. Spazi vettoriali 67 / 258 In generale, posso anche considerare lo spazio dei polinomi reali di grado qualsiasi: Per avere uno spazio vettoriale su R , posso imporre che pk = 0 se k e’ molto grande, oppure impongo che pk = 0 per quasi ogni k , questo significa che solo un numero finito di pi puo’ essere diverso da 0. Allora, detto Ri [x] l’insieme dei polinomi di grado i , si ha: R0 [x] ⊂ R1 [x] ⊂ R2 [x] ⊂ . . . e l’unione di tutti questi insiemi per i → ∞ e’ l’insieme di tutti i polinomi. 5.3 sottospazi vettoriali 5.3.1 Definizione Definizione 5.2 Sia (V, +, ∗) uno spazio vettoriale su R o su un campo K generico, indicato per semplicita’ con V . Un sottospazio vettoriale di V e’ un sottoinsieme U (V ) che soddisfa le seguenti proprieta’: 1. U ̸= ∅ 2. per ogni coppia u1 , u2 ∈ U , si ha u1 + u2 ∈ U ; 3. per ogni scelta di λ umero reale e per ogni scelta di u ∈ U , si ha λ ∗ u ∈ U . Le proprieta’ 2 e 3 si possono riassumere con la proprieta’ seguente: ∀λ1 , λ2 ∈ R, ∀u1 , u2 ∈ U, λ1 ∗ u1 + λ2 ∗ u2 ∈ U. Esempio 5.3 Prendo lo spazio vettoriale R2 e considero il quadrante positivo U = {(x, y) t.c. x > 0, y > 0}. Questo non e’ un sottospazio vettoriale, perche’ le proprietà 1 e 2 sono verificate, ma la proprietà 3 non è soddisfatta: infatti, ad esempio (1, 1) ∈ U ma −1∗(1, 1) = (−1, −1) non appartiene a U . Esempio 5.4 Considero l’unione dei due assi coordinati U = U1 ∪ U2 con U1 = {(x, 0), x ∈ R} e U2 = {(0, y), y ∈ R} . La proprieta’ 2 non e’ soddisfatta, quindi non ho un sottospazio vettoriale. Esempio 5.5 Capitolo 5. Spazi vettoriali 68 / 258 Se prendo una retta L passante per l’origine con vettore direzione v , i suoi elementi si scrivono come 0R2 + tv = tv con t ∈ R . Questa retta è un sottospazio vettoriale di R2 , infatti, presi due elementi t1 ∗ v e t2 ∗ v , la somma t1 ∗ v + t2 ∗ v = (t1 + t2 ) ∗ v sta in L . Inoltre, preso un generico λ in R e t∗v ∈ L , allora λ∗tv per proprieta’ associativa e’ uguale a (λ ∗ t) ∗ v, ∈ L , cioè i multipli scalari di v appartengono a L . Quindi questo e’ un sottospazio vettoriale. 5.3.2 Lemma sugli spazi vettoriali Lemma 5.1 Se U ⊂ V e’ un sottospazio vettoriale, allora certamente il vettore nullo di V appartiene a U . Se U e’ un qualsiasi sottoinsieme di V e non contiene il vettore nullo, allora U non puo’ essere un sottospazio vettoriale. Dimostrazione 5.2 Se vale la proprieta’ 1 della definizione di sottospazi vettoriali, U ̸= ∅ ed esiste un u ∈ U . Se vale 3, con λ = 0 , ricavo 0 ∗ u ∈ U . 0 ∗ u = 0U , di conseguenza il vettore nullo deve appartenere a U . cvd Esercizio 5.2 Siano a, b ∈ L non entrambi nulli e c un qualsiasi numero reale. Per quali valori di c il luogo U = {(x, y) ∈ R2 , t.c. ax + by = c} e’ un sottospazio vettoriale di R3 ? Verifico le proprietà della definizione: 1. l’origine deve appartenere a U , altrimenti non ho un sottospazio vettoriale.Se x = y = 0 sostituendo nell’equazione ottengo a ∗ 0 + b ∗ 0 = c , e questo è vero se e solo se c = 0 .Se c ̸= 0 , l’origine di R2 non soddisfa l’equazione che definisce U quindi U non puo’ essere un sottospazio vettoriale.Se c = 0 , abbiamo il luogo U0 = {(x, y) t.c.ax + by = 0} Verifico quindi su U0 le proprietà 1 e 2. 2. se (x1 , y1 ) e (x2 , y2 ) ∈ U0 , allora ax1 + by1 = 0 , ax2 + by2 = 0 , e quindi anche a(x1 + x2 ) + b(y1 + y2 ) = 0 , cioè (x1 + x2 , y1 + y2 ) appartiene a U0 . 3. Allo stesso modo, se λ ∈ R e (x1 , y1 ) ∈ U0 , allora ax1 + by1 = 0 e moltiplicando per λ ottengo a ∗ λ ∗ x1 + b ∗ λ ∗ y1 = 0. Allora il vettore λ appartiene a U0 . Capitolo 5. Spazi vettoriali 69 / 258 Allora U e’ un sottospazio vettoriale se c = 0 . altro procedimento: Alternativamente, noto che U0 = {(x, y)t.c.ax + by = 0} si puo’ scrivere in un altro modo. Infatti, se a ̸= 0 , x = −b/a ∗ y , quindi U0 è l’insieme dei multipli scalari di (−b/a, 1) , e, moltiplicando per a , U0 e’ l’insieme di multipli scalari di (−b, a) . Equivalentemente, U0 e’ la retta passante per l’origine con vettore direzione −b, a) , e come dimostrato precedentemente, le rette per l’origine sono sottospazi vettoriali. 5.3.3 classificazione i sottospazi vettoriali di R^2 Osservazione 5.3 Se V e’ un qualsiasi spazio vettoriale, il sottoinsieme di V che consiste del solo vettore nullo e’ un sottospazio vettoriale di V . Infatti e’ non vuoto, la somma di due qualsiasi elementi e il prodotto per uno scalare sono sempre uguali al vettore nullo. Questo insieme si definisce sottospazio nullo. Anche V e’ sottospazio vettoriale di se stesso. I due sottospazi, il piu’ piccolo possibile e il piu’ grande possibile, sono detti sottospazi banali. Se v ̸= 0 , la retta Lv che consiste di tutti i multipli scalari di v e passa per l’origine è un sottospazio vettoriale di R2 . Più precisamente, sia U un sottospazio vettoriale di R2 , se U = {0} ho il sottospazio nullo, altrimenti esiste v ̸= 0, u ∈ U . Allora certamente tutti i multipli scalari di v sono contenuti in U per la proprietà 3, quindi t∗ v ∈ U ∀t ∈ R . Questo significa che U contiene la retta Lv , con punto di passaggio nell’origine e vettore direzione v . Quindi, si può avere U = Lv (e quindi U è già stato elencato tra i sottospazi vettoriali di V ), oppure U ̸= Lv . Se U contiene propriamente Lv , allora esiste w ∈ U , con w ∈ / Lv , allora w non e’ un multiplo scalare di v . v ̸= 0 e w non e’ multiplo scalare di v , allora, v e w sono linearmente indipendenti in R2 e sono una base di R2 . Allora per ogni scelta di (x, y) in R2 , esistono e sono unici scalari a, b in R tali che (x, y) = av + bw . Per la proprieta’ equivalente a 2 e 3, (x, y) e’ un elemento di U . Concludo che U = R2 . Riassumendo, i sottospazi vettoriali di R2 sono il vettore nullo, l’insieme delle rette passanti per l’origine, R2 stesso. Esempio 5.6 Se considero lo spazio vettoriale RX , con f : X → RN , allora considero il sottoinsieme Y ⊂ X . Definisco IY = {f ∈ RX t.c.f (y) = 0∀y ∈ Y }. IY e’ un sottospazio vettoriale? Capitolo 5. Spazi vettoriali 70 / 258 1. l’origine appartiene a IY , infatti 0RX e’ la funzione identicamente nulla, tale che f (x) = 0∀x ∈ X , e quindi è nulla anche per ogni y ∈ Y e appartiene a IY . 2. Se prendo due elementi f, g ∈ IY , cioè tali che f (y) = 0, g(y) = 0∀y ∈ Y , allora la funzione somma e’ (f + g)(y) = f (y) + g(y) = 0 + 0 = 0∀y ∈ Y , cioè f + g ∈ IY . 3. se f ∈ YY e λ ∈ R , allora f (y) = 0∀y ∈ Y . Allora (λ ∗ f )(y) = λ ∗ f (y) = λ ∗ 0 = 0∀y ∈ Y Quindi λ ∗ f ∈ IY per ogni λ ∈ R e f ∈ Y Allora IY e’ un sottospazio vettoriale di RX Se definisco invece (I ′ )Y = {f ∈ RX t.c. f (y) = 1∀y ∈ Y } questo non e’ uno spazio vettoriale perche’ non contiene l’elemento neutro. Esempio 5.7 Preso l’insieme dei polinomi reali di grado minore o uguale di d , e considero λ0 ∈ R , sia J(λ0 ) l’insieme dei polinomi in Rd [x] che hanno λ0 come radice, cioè tali che p(λ0 ) = 0 . Se , allora , e p ∈ J(λ0 ) solo se p(λ0 ) = 0 . J(λ0 ) contenuto in Rd [x] e’ un suo sottospazio vettoriale, infatti: 1. lo zero di Rd [x] , che è il polinomio identicamente nullo, è nullo anche se valutato in λ0 , quindi J(λ0 ) contiene l’origine. 2. Se p, q ∈ J(λ0 ) , allora (p + q)(x) = p(x) + q(x) quindi (p + q)(λ0 ) = p(λ0 ) + q(λ0 ) = +0+ = 0 cioè λ0 è radice della somma p + q e quindi p + q ∈ J(λ0 ) . 3. preso uno scalare µ ∈ R si ha che (µ ∗ p)(x) = µ ∗ p(x) , quindi (µ ∗ p)(λ0 ) = µ ∗ p(λ0 ) = µ ∗ 0 = 0 , quindi λ0 è radice di µ ∗ p e µ ∗ p appartiene a J(λ0 ) . 5.4 Combinazione lineare di un insieme di vettori 5.4.1 Definizione di span Definizione 5.3 Se V e’ uno spazio vettoriale su K , e scegliamo vettori v1 , . . . vk ∈ V e scalari λ1 , . . . , λk ∈ R la combinazione lineare di v1 , . . . vk con coefficienti λ1 , . . . , λk e’ il vettore Capitolo 5. Spazi vettoriali 71 / 258 λ1 ∗ v1 + λ2 ∗ v2 + · · · + λk ∗ vk = k ∑ λi ∗ vi . i=1 La scrittura non e’ ambigua, perche’ in virtu’ dell’associativita’, l’ordine con cui sommo gli elementi non cambia. Definizione 5.4 Sia V uno spazio vettoriale su R e siano v1 , . . . , vk ∈ V . Definiamo span{v1 , . . . , vk } = {λ1 ∗ v1 + · · · + λk ∗ vk , λi ∈ R} k ∑ ={ λi ∗ vi , λi ∈ R} i=1 Lo span di un insieme di vettori è l’insieme di tutte le combinazioni lineari di tali vettori. Esempio 5.8 Se v ∈ Rd , v ̸= 0 , il suo span e’ l’insieme dei multipli scalari della forma {λ∗v, λ ∈ R} . E’ la retta passante per l’origine e con direzione v , ossia congiungente l’origine e v stesso. Esempio 5.9 Se prendo v, w ∈ R3 linearmente indipendenti e non nulli, allora span{v, w} = {λ ∗ v + µ ∗ w, λ, µ ∈ R}. E’ il piano passante per l’origine con vettori direzione v e w . Esempio 5.10 In R5 [x] , i polinomi di grado minore o uguale a 5 , considero span{1, x, x2 } = {λ1 + µ ∗ x + γ ∗ x2 , λ, µ, γ ∈ R}. E’ l’insieme dei polinomi di grado minore o uguale a 2. 5.4.2 Span come sottospazio vettoriale Osservazione 5.4 Se U e’ un sottospazio vettoriale di V , e u1 , . . . , ur ∈ U , λ1 , . . . , λr ∈ R , allora sicuramente λ1 ∗ u1 + · · · + λr ∗ ur ∈ U . Dimostrazione 5.3 Capitolo 5. Spazi vettoriali 72 / 258 Per r = 1, r = 2 , questa e’ una definizione. Se r = 3 , allora posso scrivere (λ1 ∗ u1 + λ2 ∗ u2 ) + λ3 ∗ u3 per l’associativita’. Ma il primo termine tra parentesi e’ un elemento di U per il caso r = 2 , il secondo e’ un elemento di U per il caso r = 1 , allora la somma appartiene a U . Ipotesi induttiva: Per induzione, questo e’ vero per un certo R ≥ 2 . Passo a r + 1 , e scrivo (λ1 ∗ u1 + · · · + λr ∗ ur ) + λr+1 ∗ ur+1 . Il primo termine appartiene a U per ipotesi induttiva e il secondo per il primo caso. Allora anche la somma appartiene. Proposizione 5.2 Sia V uno spazio vettoriale su K . siano v1 , . . . , vk ∈ V . Allora lo span{v1 , . . . , vk } e’ un sottospazio vettoriale di V . Piu’ precisamente, span{v1 , . . . , vk } e’ il piu’ piccolo sottospazio vettoriale di V contenente i vettori v1 , . . . , vk . Tutti i sottospazi vettoriali di V che contengono v1 , . . . , vk contengono lo span di v1 , . . . , vk . Dimostrazione 5.4 Dimostro che lo span è un sottospazio vettoriale: 1. Posso scrivere lo 0v come 0 ∗ v1 + · · · + 0 ∗ vk e appartiene allo span di v1 , . . . , vk . Allora lo span contiene l’origine ed e’ non vuoto. 2. Siano v e v ′ appartenenti allo span di v1 , . . . , vk . Siano λ, λ′ ∈ R . Per definizione, esistono α1 , . . . , αk e β1 , . . . , βk ∈ R tali che v = α1 ∗ v 1 + · · · + αk ∗ v k v ′ = β1 ∗ v1 + · · · + βk ∗ vk Se considero la combinazione lineare λ ∗ v + λ′ v ′ , essa e’ uguale a λ + λ′ (β1 ∗ v1 + · · · + βk ∗ vk ) Per distributivita’ λ ∗ α1 ∗ v1 + · · · + λ ∗ αk ∗ vk + λ′ ∗ β1 ∗ v1 + · · · + λ′ ∗ βk ∗ vk Uso la commutativita’ λ ∗ α1 ∗ v1 + λ′ ∗ β1 ∗ v1 + · · · + λ ∗ αk ∗ vk + λ′ ∗ βk ∗ vk Uso la distributivita’ rispetto alla somma di scalari (λα1 + λ ∗ β1 ) ∗ v1 + (λ′ ∗ β1 + λ′ ∗ βk ) ∗ vk k ∑ (λ ∗ αj + λ′ ∗ βj ) ∗ vj , j = 1, . . . , k i=1 E’ ancora una combinazione lineare dei vettori. Dimostro che lo span è il più piccolo spazio vettoriale che contiene i vettori: se U in V e’ un qualsiasi sottospazio vettoriale, che contiene v1 , . . . , vk allora U contiene anche λ1 ∗ v1 + · · · + λk ∗ vk , la combinazione lineare di vi con i coefficienti λi per ogni scelta di λ1 , . . . , λk ∈ R . Quindi U contiene ogni elemento di span{v1 , . . . , vk } . Quindi U contiene lo span. Capitolo 5. Spazi vettoriali 73 / 258 5.4.3 classificazione dei sottospazi vettoriali di R3 Sia U in R3 un sottospazio vettoriale. Allora l’elemento neutro appartiene a U . Se U consiste del solo elemento neutro, allora e’ lo spazio nullo. Altrimenti esiste v ∈ U ̸= 0 . Allora U contiene lo span di v , che e’ l’insieme dei multipli scalari di v , indicati con tv al variare di t ∈ R . Lo span di v e’ la retta passante per l’origine e con vettore direzione v . Se U = span{v} allora U e’ una retta per l’origine. Altrimenti esiste un vettore w che appartiene a U ∖ {span{v}} . Quindi w non e’ un multiplo scalare di v , allora v e w sono linearmente indipendenti. U contiene sia v che w , quindi contiene span{v, w} , che e’ il piano passante per l’origine con vettori direzione v e w . Se U = span{v, w} allora e’ un sottospazio vettoriale. Altrimenti, esiste un vettore u che appartiene a U ∖ {span{v, w}} . Allora concludiamo che v ̸= 0 , w non e’ multiplo scalare di v , u non e’ una combinazione lineare di v e w (non appartiene allo span). Allora concludiamo che v, w, u sono linearmente indipendenti, e questa terna e’ una base di R3 . Allora per ogni (x, y, z) ∈ R3 , esistono e sono unici α, β, γ ∈ R tali per cui (x, y, z) = α ∗ v + β ∗ w + γ ∗ u . ma questo e’ un elemento dello span perche’ e’ combinazione lineare di elementi di U . Allora concludo che U = R3 . I sottospazi vettoriali di R3 sono lo spazio nullo, le rette per l’origine, i piani per l’origine, lo spazio R3 . 5.4.4 condizioni equivalenti Lemma 5.2 Se V e’ uno spazio vettoriale, siano v1 , . . . , vk elementi di V . Allora le seguenti condizioni sono equivalenti: • qualcuno dei vj puo’ essere espresso come una combinazione lineare di tutti gli altri, cioe’ esistono α1 , . . . , αj−1 , αj+1 , . . . , αk tali che αj ∗ vj = α1 ∗ v1 + · · · + αj−1 ∗ vj−1 + αj+1 ∗ vj+1 + · · · + αk ∗ vk • esistono λ1, . . . , λk ∈ R non tutti nulli t.c. la combinazione lineare dei vi con coefficienti λ1 , . . . , λk e’ il vettore nullo di V . Dimostrazione 5.5 1 −→ 2 : Se vale 1, per qualche j , vj = α1 ∗ v1 + · · · + αk ∗ vk , allora ricavo che il vettore nullo di V e’ Questa e’ una combinazione lineare dei vi che mi dà il vettore nullo. Il coefficiente di vj e’ uguale a −1 , e’ diverso da 0. Se uno dei vj e’ combinazione lineare dei restanti trovo una combinazione lineare di vi con un coefficiente diverso da 0. Capitolo 5. Spazi vettoriali 74 / 258 2 −→ 1 : Siano λ1 , . . . , λk numeri reali tali che λ1 ∗ v1 + · · · + λk ∗ vk e’ uguale al vettore nullo e per esempio sia per qualche j , λj diverso da 0, per 1 < j < k . Allora concludo che λj ∗ vj = −λ1 ∗ v1 + · · · + +(−λ ∗ vj+1 ) + · · · + = k ∑ −λi ∗ vi . i̸=j,i=1 Allora siccome λj ̸= 0 , ricavo che vj e’ vj = λj−1 λj+1 λk −λ1 ∗ v1 − ∗ vj−1 + · · · − ∗ vj+1 − ∗ vk = λj λj λj λj vj = k ∑ −λi ∗ vi λj i̸=j,i=1 cvd 5.4.5 Vettori linarmente indipendenti Definizione 5.5 Se v1 . . . , vk soddisfano una qualsiasi delle due condizioni precedenti, diremo che v1 , . . . , vk sono linearmente dipendenti. altrimenti diremo che sono linearmente indipendenti. Quindi v1 , . . . , vk sono linearmente indipendenti se e solo se nessuno dei vj e’ combinazione lineare dei restanti vi , o equivalentemente se ho una combinazione lineare λ1 ∗ v1 + · · · + λk ∗ vk = 0 solo quando tutti i λi sono nulli. Esempio 5.11 Un singolo vettore è sempre linearmente indipendente quando è diverso dal vettore nullo. se v1 , . . . , vk sono linearmente indipendenti, allora necessariamente vj e’ diverso dal vettore nullo per 1 < j < k . Infatti, se ad esempio vj = 0 , potrei scriverlo come combinazione degli altri j − 1 vettori prendendo gli scalari tutti nulli. Proposizione 5.3 Se V e’ uno spazio vettoriale e v1 , . . . , vk sono elementi di V , allora v1 , . . . , vk sono linearmente indipendenti se e solo se valgono le seguenti condizioni: 1. v1 ̸= 0V 2. se j ≥ 2 , allora vj non e’ combinazione lineare di v1 , vj−1 , vj+1 , vk Dimostrazione 5.6 Capitolo 5. Spazi vettoriali 75 / 258 Supponiamo che valgano le due condizioni e che per assurdo siano v1 , . . . , vk linearmente dipendenti. Allora esistono α1 , . . . , αk ∈ R non tutti nulli tali che α1 ∗ v1 + · · · + αk ∗ vk = 0 . Sia j il piu’ grande indice tale che αj ̸= 0 . as = 0 se s > j . Alora sicuramente 1 < j < k . Se j = 1 , α1 ∗ v 1 + 0 ∗ v 2 + · · · + 0 ∗ v k = 0 = α1 ∗ v 1 . Quindi v1 = 0 . Questo e’ assurdo perche’ contraddice l’ipotesi 1. Se j ≥ 1 , allora α1 ∗ v 1 + · · · + αj ∗ v j + · · · = 0 Se αj ̸= 0 ., ricavo che vj = − αj−1 α1 ∗ v1 − ∗ vj−1 + . . . aj aj Allora vj e’ combinazione lineare dei precedenti vettori. Questo e’ assurdo perche’ contraddice 2. cvd 5.4.6 Basi Definizione 5.6 Sia V uno spazio vettoriale su K . Una k-upla ordinata (sequenza ordinata di k) v1 , . . . , vk si dice una base di V se valgono le due seguenti proprieta’: 1. V e’ generato da v1 , . . . , vk , ossia ogni vettore di V si puo’ esprimere come combinazione lineare di v1 , . . . , vk ;(lo span e’ l’insieme delle combinazioni lineari ∑ di v1 , . . . , vk ). Per ogni v ∈ V esistono λ1 , . . . , λk ∈ R tali che v = ki=1 λi ∗ vi . 2. i vettori v1 , . . . , vk sono linearmente indipendenti. Osservazione 5.5 Se v1 , . . . , vk e’ una base di V , qualsiasi riordinamento dei vi e’ ancora una base di V , ma una base diversa. Esempio 5.12 C2 = {(1, 0), (0, 1)} e’ una base di R2 C3 = {(1, 0, 0)(0, 1, 0)(0, 0, 1)} e’ la base canonica di R3 In generale Ck = {(1, 0, 0, . . . ), . . . , (. . . 0, 0, 1)} Capitolo 5. Spazi vettoriali 76 / 258 e’ una base di Rk . Esempio 5.13 Se prendo Rd [X] insieme dei polinomi di grado minore o uguale di d , se prendo un polinomio per certi vi numeri reali, v1 , . . . , vk sono un sistema di generatori di V . {1, x, . . . , xd } sono un sistema di generatori e sono indipendenti e sono una base per lo spazio. 5.4.7 Sistema di generatori Definizione 5.7 Se V e’ uno spazio vettoriale, un sistema di generatori per V e’ una famiglia vi di vettori {v1 , . . . , vk } tali che V e’ lo span di v1 , . . . , vk . v1 , . . . , vk sono un sistema di generatori per U se U = span{v1 , . . . , vk } . Lemma 5.3 Sia V uno spazio vettoriale e sia {v1 , . . . , vk } una base di V . Allora i vi sono un sistema di generatori per V e sono linearmente indipendenti. Per ogni scelta di v ∈ V esisono e sono unici λ1 , . . . , λk ∈ R tali che v = λ1 ∗ v1 + · · · + λk ∗ vk = k ∑ λi ∗ vi . i=1 Dimostrazione 5.7 L’esistenza degli scalari si ha per definizione, perche’ vi sono un sistema di generatori per V . Dimostro l’unicità. Siano λ1 , . . . , λk e η1 , . . . , ηk in R tali che v = λ1 ∗ v1 + · · · + λk ∗ vk ma v e’ anche uguale a η1 ∗ v1 + ηk ∗ vk . Eguaglio le due condizioni. (λ1 − η1 )v1 + (λk − ηk ))vk = 0 ma vi sono linearmente indipendenti quindi tutti i coefficienti devono essere uguali a 0, cioè λi − ηi = 0 per ogni i . cvd 5.4.8 coordinate Definizione 5.8 Sia v = (v1 , . . . , vk ) una∑base di V . Se v ∈ V , siano λ1 , . . . , λk ∈ R gli unici scalari tali per cui v = ki=1 λi ∗ vi . Allora il vettore colonna dato dalla k-upla Capitolo 5. Spazi vettoriali 77 / 258 si chiama vettore delle coordinate di v nella base B . Allora il vettore MB (v) = (λ1 , . . . , λi , . . . , λk ) si dice vettore delle coordinate di v rispetto alla base B . Ogni base B definisce un’applicazione biunivoca MB : V → Rk , che porta un vettore v nella corrispondete colonna delle coordinate nella base. Esempio 5.14 Se chiamo B = {1, x, . . . , xd } la base di Rd [x] , la colonna delle coordinate del polinomio rispetto alla base e’ la colonna dei coefficienti p0 , p1 , . . . , pd . 5.5 Teoremi sulle basi 5.5.1 Basi e vettori linearmente indipendenti Teorema 5.1 Sia V uno spazio vettoriale su R e sia (v1 , . . . , vk ) una base di V . Siano w1 , . . . , wl vettori appartenenti a V linearmente indipendenti. Allora certamente l e’ minore o uguale di k . In altri termini, se l > k , allora v1 , . . . , vl sono linearmente dipendenti. Equivalentemente, se ho una base di k vettori, allora k e’ il numero massimo di vettori linearmente indipendenti che si possono trovare nello spazio V . Dimostrazione 5.8 Dimostriamo che se l > k allora i wi sono linearmente dipendenti. Sia l = k + r, r ≥ 1 . Allora se w1 , . . . , wk sono linearmente dipendenti, non c’e’ niente da dimostrare. Supponiamo quindi che w1 , . . . , wk siano linearmente indipendenti, e sono quindi non nulli. Passo 1: in particolare w1 ̸= 0 . Siccome i vi sono una base, possiamo esprimere w1 come combinazione lineare dei vi . Esistono e sono unici α1 , . . . , αk numeri reali tali che w1 = α1 ∗ v1 + · · · + αk ∗ vk . Certamente qualche αi ̸= 0 . altrimenti w1 = 0 . Suppongo che sia α1 ̸= 0 senza perdita di generalita’, eventualmente riordinando i vi . Se α1 ̸= 0 , allora posso risolvere per v1 . Ottengo che v1 = 1 −α2 αk ∗ w1 + ∗ v2 − · · · − ∗ vk α1 α1 α1 e rinominando gli scalari v1 = λ1 ∗ w1 + η2 ∗ v2 + · · · + ηk ∗ vk Sia v ∈ V . Allora sappiamo che esistono e sono unici β1 , . . . , βk in R tali per cui v = β1 ∗ v1 + · · · + βk ∗ vk , perche’ vi sono una base. Sostituisco l’espressione di v1 nel passaggio precedente Capitolo 5. Spazi vettoriali 78 / 258 v = β1 ∗ [λ1 ∗ w1 + η2 ∗ v2 + · · · + ηk ∗ vk ] + · · · + βk ∗ vk v = β1 ∗ λ1 ∗ w1 + β1 ∗ η2 ∗ v2 + β1 ∗ ηk ∗ vk + · · · + βk ∗ vk raccolgo v = β1 ∗ λ1 ∗ w1 + β1 ∗ η2 ∗ v2 + (β1 ∗ ηk + βk ) ∗ vk ho dimostrato che per ogni v ∈ V esistono scalari chiamati β1′ , . . . , βk′ tali che v = β1′ ∗ w1 + β2′ ∗ v2 + · · · + βk′ ∗ vk quindi ho dimostrato che V = span{w1 , v2 , vk } Ho trovato un sistema di generatori in cui v1 e’ stato sostituito con w1 . Passo 2: In particolare w2 e’ combinazione lineare dei w1 , v2 , . . . , vk quindi esistono scalari x1 , y2 , . . . , yk tali che Se yi = 0 per ogni i , allora avremmo che w2 = x1 ∗ w1 . Questo e’ assurdo perche’ per ipotesi w1 e w2 sono linearmente indipendenti. Allora qualche yi ̸= 0 . Possiamo supporre senza perdita di generalita’ che sia y2 ̸= 0 . Risolvo per v2 e ricavo che: v2 = − 1 y3 yk x1 ∗ w1 + ∗ w2 − ∗ v3 + · · · − ∗ vk y2 y2 y2 y2 Ho scritto v2 nella forma Allora sia v ∈ V . siccome w1 , v2 , . . . , vk generano V , esistono scalari a1 , b2 , . . . , bk ∈ R tali che Sostituisco l’espressione di v2 in questo passaggio. v = a1 ∗ w1 + b2 ∗ t1 ∗ w1 + b2 ∗ t2 ∗ w2 + b2 ∗ t3 ∗ v3 + n2 ∗ tk ∗ vk + bk ∗ vk v = (a1 + b2 ∗ t1 ) ∗ w1 + (b2 ∗ t2 ) ∗ w2 + b2 ∗ t3 ∗ v3 + · · · + ∗vk Ho dimostrato che: V = span{w1 , w2 , v3 , . . . , vk }. Passo generico: Se 1 < j < k , supponiamo di sapere eventualmente riordinando i vi che {w1 , . . . , wj , vj+1 , . . . , vk } sono un sistema di generatori per V . Allora in particolare esistono α1 , . . . , αj , βj+1 , . . . , βk ∈ R tali che wj+1 = α1 ∗ w1 + · · · + αj ∗ wj + βj+1 ∗ vj+1 + · · · + βk ∗ vk Capitolo 5. Spazi vettoriali 79 / 258 Se tutti i βi fossero nulli, allowa wj+1 sarebbe combinazione lineare di w1 , . . . , wj , wj+1 con j + 1 ≤ k , ma questo e’ assurdo perche’ supponevo w1 , . . . , wk linearmente indipendenti. Allora dev’essere βr ̸= 0 per qualche j + 1 < r < k , Riordinando i vi possiamo supporre senza perdita di generalita’ che sia βj+1 ̸= 0 Allora risolvendo per vj+1 ricavo che vj+1 = − 1 βk α1 ∗ w1 + ∗ wj+1 − ∗ vk βj+1 βj+1 βj+1 cioè vj+1 si puo’ scrivere come Se v e’ un elemento arbitrario di V , esistono r1 , . . . , rj , rj+1 , . . . , rk ∈ R tali che Sostituisco a vj+1 l’espressione ricavata prima: Raccolgo. per certi scalari ottengo Ricavo che V = span{w1 , wj+1 , . . . , vj+2 , vk } Procedo induttivamente fino a sostituire tutti i vi con i wj , fino al k -esimo passo. Passo k +1 : {w1 , . . . , wk } sono un sistema di generatori per V , pertanto esistono α1 , . . . , αk ∈ R tali che wk+1 = α1 ∗ w1 + · · · + αk ∗ wk . Allora w1 , . . . , wl sono linearmente dipendenti Conclusione: Se v1 , . . . , vk e’ una base di V e w1 , . . . , wl sono linearmente indipendenti, allora necessariamente l ≤ k . cvd 5.5.2 Basi e cardinalita’ Corollario 5.1 Tutte le basi di V hanno la stessa cardinalita’, cioe’, se {v1 , . . . , vk } e {v1′ , . . . , vl′ } sono basi di V , allora necessariamente k = l . Dimostrazione 5.9 Siccome {v1 , . . . , vk } e’ una base di V , e {v1′ , . . . , vl′ } sono linearmente indipendenti, in base al teorema dimostrato precedentemente l ≤ k . Scambiando i ruoli delle due basi nel ragionamento, {v1′ , . . . , vl′ } e’ una base di V e {v1 , . . . , vk } sono linearmente indipendenti, allora k ≤ l . Se l ≤ k, k ≤ l , allora k = l cvd Capitolo 6. Spazi vettoriali somma prodotto e intersezione 80 / 258 Capitolo 6 Spazi vettoriali somma prodotto e intersezione 6.1 Dimensione di spazi vettoriali 6.1.1 Definizione e osservazioni introduttive Definizione 6.1 Sia V uno spazio vettoriale e sia d un intero maggiore o uguale di 1. Diremo che V ha dimensione d se V possiede una base di cardinalita’ d , quindi se ogni base di V ha cardinalita’ d . In altre parole, la dimensione di uno spazio vettoriale e’ il numero di vettori in una base. Osservazione 6.1 Se V e’ lo spazio nullo, diremo che la dimensione di V e’ 0. Osservazione 6.2 Se d e’ la dimensione di V , d e’ il massimo numero di vettori linearmente indipendenti che possiamo trovare in V . d e’ la lunghezza massima di una stringa di vettori linearmente indipendenti in V . 6.1.2 Spazio vettoriale finitamente generato Definizione 6.2 Uno spazio vettoriale V si dice finitamente generato se ammette un sistema finito di generatori, ossia se esistono v1 , . . . , vr per qualche intero r , tali che V = span{v1 , . . . , vr } . In ogni spazio di dimensione finita una base e’ un sistema finito di generatori. Capitolo 6. Spazi vettoriali somma prodotto e intersezione 81 / 258 Proposizione 6.1 Se V e’ uno spazio vettoriale finitamente generato, allora V ammette una base. Dimostrazione 6.1 E’ immediata dalla caratterizzazione delle basi. Sia v1 , . . . , vr un sistema finito di generatori ordinati. Scartiamo tutti i vj = 0 e tutti i vj che sono combinazioni lineari dei precedenti, allora lo l’insieme dei vettori rimanenti {v1′ , . . . , vs′ } con s′ ≤ r , e’ ancora un sistema lineare di generatori. Ho una stringa di vettori di cui il primo e’ non nullo e ho un sistema di generatori di vettori linearmente indipendenti, quindi e’ una base. cvd 6.1.3 dimensione di sottospazi vettoriali Teorema 6.1 Sia V uno spazio vettoriale di dimensione finita d . Sia U in V un sottospazio vettoriale. Allora certamente la dimensione di U non puo’ eccedere quella di V ( D(U ) ≤ D(V ) ) e vale l’uguale se e solo se U = V . Dimostrazione 6.2 Se prendo un numero qualsiasi di vettori in U , allora {u1 , . . . , uk } sono linearmente dipendenti / indipendenti in U se e solo se sono linearmente dipendenti / indipendenti in V , perche’ le operazioni di spazio vettoriale in U sono quelle di V ristrette a U . Quindi siccome in V non possiamo trovare piu’ di k vettori linearmente indipendenti, lo stesso dev’essere vero in U . Pertanto la dimensione di U e’ certamente minore o uguale di quella di V . Sia d la dimensione di U uguale alla dimensione di V e supponiamo per assurdo che U non sia un sottospazio massimo di V . Prendo d vettori u1 , . . . , ud tali che U = span{u1 , . . . , ud } . Siccome U per ipotesi assurda non coincide con V , allora esiste v ∈ V, v ∈ / U tale che v ∈ / span{u1 , . . . , ud } . Allora se considero la stringa {u1 , . . . , ud , v} , sicuramente u1 ̸= 0 , v non e’ combinazione lineare dei precedenti perche’ non appartiene a U . Questo significa che ho trovato d + 1 vettori in V linearmente indipendenti e il che e’ assurdo, perche’ V per ipotesi ha dimensione d . Allora U coincide con V . cvd Sia V uno spazio vettoriale di dimensione d finita ( d ≥ 1 ). Allora se v1 , . . . , vd sono elementi di V che generano V , allora la sequenza ordinata dei vj e’ una base di V . Capitolo 6. Spazi vettoriali somma prodotto e intersezione 82 / 258 6.1.4 Esercizio determinazione della dimensione di uno spazio vettoriale Esempio 6.1 Consideriamo V insieme dei vettori colonna (x1 , . . . , xd ) ∈ Rd tali che per opportuni ai . Fisso aj ̸= 0 per qualche j . ∑ ai ∗xi = 0 • Dimostrare che V in Rd e’ un sottospazio vettoriale. • trovare la dimensione di V V spazio vettoriale: Verifico le proprietà della definizione: 1. Il vettore nullo appartiene a V , perche’ e questo soddisfa l’equazione 2. Se considero due vettori colonna (x1 , . . . , xd ) e (y1 , . . . , yd ) in V , allora ∑ ∑ ai xi = 0, ai yi = 0 i i per definizione.Facendo la combinazione lineare con opportuni scalari ottengo α ∗ (x1 , . . . , xd ) + β = (α ∗ x1 + βy1 , . . . , α ∗ xd + β ∗ yd ) Allora si ha che anche αX + βY ∈ V , infatti ∑ = ai (αxi + βyi ) i ∑ α∗ ∑ i αai xi + i ai xi + β ∗ ∑ ∑ βai yi i a i yi = α ∗ 0 + β ∗ 0 = 0 i Dimensione: Supponiamo per esempio che sia a1 ̸= 0 . Allora V e’ l’insieme dei vettori colonna (x1 , . . . , xd ) che hanno come prima componente x1 = −a2 /a1 ∗ x2 − · · · − ad /a1 ∗ xd , al variare di x2 , . . . , xd ∈ R . Un sisema di generatori per lo spazio V è dato da: v2 = x2 ∗ (−a2 /a1 ) ∗ (1, 0, 0, 0, . . . ) V3 = x3 ∗ (−a3 /a1 )(0, 1, 0, 0, . . . ) ... vd = −xd ∗ (ad /a1 )(0, 0, 0, . . . , 1) Ho d − 1 generatori (parto da v2 ), quindi la dimensione dello spazio e’ minore uguale di d − 1 e vale l’uguale se e solo se i vettori sono tutti linearmente indipendenti, e questo è vero perché sono vettori della base canonica moltiplicati per uno scalare. Capitolo 6. Spazi vettoriali somma prodotto e intersezione 83 / 258 6.2 spazio vettoriale prodotto Definizione 6.3 Siano V1 , V2 spazi vettoriali su K e sia V1 × V2 il loro prodotto cartesiano ovvero l’insieme {(v1 , v2 ), vj ∈ VJ } . Definiamo le operazioni in V1 × V2 come segue: somma (v1 , v2 ) + (u1 , u2 ) = (v1 + u1 , v2 + u2 ) per ogni scelta di (v1 , v2 ) e di (u1 , u2 ) ∈ V1 × V2 . prodotto se λ ∈ R , allora λ ∗ (v1 , v2 ) = (λ ∗ v1 , λ ∗ v2 ) per ogni λ ∈ R e per ogni scelta di (v1 , v2 ) ∈ V1 × V2 Con queste operazioni il prodotto cartesiano V1 × V2 e’ uno spazio vettoriale e si chiama spazio vettoriale prodotto. 6.2.1 dimensione dello spazio vettoriale prodotto Problema: Ci si chiede quale sia la dimensione di V1 × V2 supposte note la dimensione di V1 e quella di V2 . Chiamo d1 la dimensione di V1 e d2 la dimensione di V2 . Entrambe sono maggiori di 0 e minori di +∞ . Determinazione del sistema di generatori: Possiamo trovare B1 = {r1 , . . . , rd1 } base di V1 (la base ha la cardinalita’ della dimensione dello spazio). Analogamente esiste la base B2 = (s1 , . . . , sd2 ) . Sia (A, B) un elemento di V1 × V2 , A ∈ V1 , B ∑ ∈ V2 . Esistono e∑sono unici 2 1 βj ∗ sj aj ∗ rj e B = dj=1 α1 , . . . , αd1 e β1 , . . . , βd2 numeri reali tali che A = dj=1 . La coppia ordinata (A, B) si puo’ scrivere come (A, 0V2 ) + (0V1 , B) = (α1 ∗ r1 + · · · + αd1 ∗ rd1 , 0V2 ) + (0V1 , β1 ∗ s1 + · · · + βd2 ∗ sd2 ) = Scompongo ulteriormente [(α1 ∗ r1 , 0V2 ) + · · · + +(0V1 , β1 ∗ s1 ) + (0V1 , βd2 ∗ sd2 )] = [α1 (r1 , 0V2 ) + · · · + αd1 ∗ (rd1 , 0V2 ) + β1 ∗ (0V1 , s1 ) + βd2 (0V1 , sd2 )] Questa e’ una combinazione lineare, appartiene a span{(r1 , 0V2 ), . . . , (rd1 , 0V2 ), (uv1 , s1 ), . . . , (0V1 , sd2 )} Questo vale per un qualsiasi elemento (A, B) ∈ V1 × V2 . Quindi i vettori (r1 , 0V2 ) , . . . , (rd1 , 0V2 ) , (0V1 , s1 ) , . . . , (0V1 , sd2 ) costituiscono un sistema di generatori per lo spazio vettoriale prodotto V1 × V2 . Capitolo 6. Spazi vettoriali somma prodotto e intersezione 84 / 258 Possiamo dire che la dimensione e’ sicuramente minore o uguale della cardinalita’ del sistema di generatori e vale l’uguale se e solo se tutti i vettori sono linearmente indipendenti. Dimostrazione della lineare indipendenza: Supponiamo di avere scalari α1 , . . . , αd1 , β1 , . . . , βd2 tali che α1 ∗ (r1 , 0V2 ) + · · · + αd1 ∗ (rd1 , 0V2 ) + β1 ∗ (0V1 , s1 ) + · · · + βd2 ∗ (0V1 , sd2 ) = 0 Gli scalari devono essere tali che la loro combinazione con i vettori dello span sia uguale al vettore nullo. Il vettore nullo di V1 × V2 e’ il vettore (0V1 , 0V2 ) , allora separando le componenti ottengo: α1 ∗ r1 + · · · + βd1 ∗ rd1 = 0V1 β1 ∗ s1 + · · · + βd2 ∗ sd2 = 0V2 Ma l’unico modo in cui questo avviene e’ quando tutti gli scalari sono uguali a 0 Quindi i vettori sono linearmente indipendenti. Conclusione: La dimensione di V1 × V2 e’ uguale alla somma delle dimensioni d1 + d2 e inoltre se li prendo nell’ordine (r1 , 0V2 ) ... (rd1 , 0v2 ) (0V1 , s1 ) ... (0V2 , sd2 ) e’ una base di V1 × V2 . Esempio 6.2 Considero Rd [X] , l’insieme dei polinomi reali di grado minore o uguale di d . Allora {1, x, . . . , xd } presa nell’ordine e’ una base. La dimensione di questo spazio e’ precisamente d + 1 Chiamo Z1 l’insieme dei polinomi in Rd [X] con la proprieta’ che p(1) = 0 (sono i polinomi divisibili per x − 1 , cioè tali che x − 1 | p(x) ). In altre parole Z1 e’ l’insieme dei polinomi della forma (x − 1) ∗ q(x) , dove q(x) ha grado al massimo d − 1 e quindi questi polinomi appartengono a Rd [X] . Allora Z1 = span{x − 1, (x − 1) ∗ x, . . . , (x − 1) ∗ xd−1 } Questi vettori costituiscono una base„ quindi la dimensione di Z1 è d . Capitolo 6. Spazi vettoriali somma prodotto e intersezione 85 / 258 6.2.2 Teorema della base incompleta Teorema 6.2 Sia V uno spazio vettoriale finito dimensionale. Sia d ≥ 1 la sua dimensione. Siano v1 , . . . , vk ∈ V linearmente indipendenti. Sappiamo che k ≤ d e se k = d , allora v1 , . . . , vk e’ una base di V . Se 1 ≤ k < d questa non e’ una base, ma esistono vk+1 , . . . , vd ∈ V tali che la sequenza ordinata {v1 , . . . , vk , vk+1 , . . . , vd } sia una base. In altre parole, qualsiasi stringa ordinata di vettori linearmente indipendenti puo’ essere completata a una base dello spazio. Dimostrazione 6.3 Dimostro per induzione su c = d−k , dove c e’ il numero dei vettori da aggiungere alla base affinche’ d = k . 1. Se c = 0 , d = k siamo nel caso appena discusso, i vi sono gia’ una base. 2. Se c = 1 , allora ho d − 1 vettori linearmente indipendenti.Lo span U dei vettori e’ un sottospazio vettoriale di V e la sua dimensione e’ d − 1 , perche’ {v1 , . . . , vd−1 } e’ una base di U . d−1 < d allora U e’ un sottospazio proprio, cioe’ esiste un vettore che chiamo v e apppartiene a V ∖ U .Allora per definizione v non e’ combinazione lineare di v1 , . . . , vd−1 , perche’ se lo fosse sarebbe un elemento di U .Pertanto {v1 , . . . , vd−1 , v} è una base per V , infatti v1 e’ non nullo, nessun vettore e’ combinazione lineare dei precedenti quindi sono linearmente indipendenti. Quindi completo la base di partenza ponendo vd = v . 3. Passo induttivo: Sia d ≥ 2 e supponiamo vero l’asserto per tutti i valori con c < n .Supponiamo che v1 , . . . , vd−n ∈ V siano linearmente indipendenti (c = n) .Siccome d − n < d , se dico U = span{v1 , . . . , vd−n } allora U e’ un sottospazio vettoriale di V e la sua dimensione e’ uguale a d − n < d . U e’ un sottospazio vettoriale proprio di V quindi esiste v ∈ V ∖ {U } , v non e’ combinazione lineare di v1 , . . . , vd−n per costruzione altrimenti apparterrebbe a U ..Pertanto, se prendo la sequenza ordinata v1 , . . . , vd−n , v essa e’ un insieme di vettori linearmente indipendenti.Pongo vd−n+1 = v Ora c = n − 1 , e per l’ipotesi induttiva esistono vd−n+2 , . . . , vd ∈ V tali che la stringa {v1 , . . . , vd−n , vd−n+1 , . . . , vd } e’ una base di V . cvd 6.3 spazio vettoriale intersezione 6.3.1 proprietà generali Teorema 6.3 Sia V uno spazio vettoriale su R e siano A, B ∈ V sottospazi vettoriali. Allora anche l’intersezione e’ un sottospazio vettoriale di V . Capitolo 6. Spazi vettoriali somma prodotto e intersezione 86 / 258 Dimostrazione 6.4 L’elemento neutro di V appartiene ad A e a B perche’ sono entrambi sottospazi vettoriali. Qualsiasi sottospazio vettoriale contiene 0. Quindi l’elemento neutro appartiene ad A ∩ B che pertanto e’ diverso dall’insieme vuoto. Siano poi v1 , v2 ∈ A∩B e λ1 , λ2 ∈ R . Allora v1 , v2 ∈ A implica che λ1 ∗v1 +λ2 ∗v2 ∈ A , perche’ A e’ un sottospazio vettoriale chiuso rispetto alla combinazione lineare. Per la stessa ragione, siccome v1 , v2 ∈ A ∩ B , essi appartengono anche a B , quindi λ1 ∗ v1 + λ2 ∗ v2 ∈ B perche’ B e’ un sottospazio vettoriale. Allora siccome λ1 ∗ v1 + λ2 ∗ v2 appartiene sia ad A che a B , appartiene anche all’intersezione. cvd Esempio 6.3 In generale se abbiamo scalari aij , i = 1, . . . , k e j = 1, 2 consideriamo il sistema lineare omogeneo: Se chiamo A l’insieme dei vettori colonna che soddisfano la prima equazione e B l’insieme dei vettori colonna che soddisfano la seconda equazione, allora A e B sono sottospazi vettoriali. Se a1j ̸= 0 per qualche j e a2j ̸= 0 per qualche j, allora dimA = dimB = d − 1 (uno dei vettori puo’ essere espresso come combinazione lineare degli altri). Allora lo spazio delle soluzioni del sistema lineare omogeneo e’ A ∩ B , perche’ e’ l’insieme dei punti che soddisfano entrambe le equazioni. Se S e’ lo spazio delle soluzioni del sistema lineare omogeneo, allora S = A ∩ B , quindi e’ un sottospazio vettoriale. Proposizione 6.2 Se A1 , . . . , Ar ∈ V sono sottospazi vettoriali, allora l’intersezione A1 ∩ · · · ∩ Ar e’ a sua volta un sottospazio vettoriale. Dimostrazione 6.5 Procedo induttivamente: 1. Se r = 2 , A1 ∩ A2 e’ un sottospazio vettoriale per il teorema dimostrato precedentemente. 2. Se r = 3 , considero lo spazio A1 ∩ A2 ∩ A3 .Applicando la proprieta’ associativa ottengo: (A1 ∩ A2 ) ∩ A3 (A1 ∩ A2 ) = I e’ un sottospazio vettoriale per il caso r = 2 . I ∩ A3 e’ a sua volta un sottospazio vettoriale per il caso r = 2 . 3. Passo induttivo: Suppongo che l’ipotesi sia vera per r e lo dimostro per r + 1 .Se considero A1 ∩ · · · ∩ Ar+1 essa e’ uguale a (A1 ∩ · · · ∩ Ar ) ∩ Ar+1 . (A1 ∩· · ·∩Ar ) = I e’ un sottospazio vettoriale per ipotesi induttiva. I ∩Ar+1 e’ un sottospazio vettoriale per il caso r = 2 Capitolo 6. Spazi vettoriali somma prodotto e intersezione 87 / 258 cvd Corollario 6.1 In generale se prendo un qualsiasi sistema lineare omogeneo, dati scalari aij ∈ R con i = 1, . . . , k , j = 1, . . . , d , sia S in Rd il luogo delle soluzioni del sistema lineare omogeneo di k equazioni con d incognite: Sia Ui l’insieme dei vettori colonna che soddisfano la i-esima equazione ai1 ∗ x1 + aid ∗ xd = 0 . Ciascuno dei sottospazi che soddisfa l’equazione omogenea si chiama iperpiano, se tutti gli aij sono diversi da 0. L’intersezione degli iperpiani U1 ∩ · · · ∩ Uk e’ l’insieme delle soluzioni del sistema ed e’ un sottospazio vettoriale. Esempio 6.4 In R3 qualsiasi retta e’ il luogo delle soluzioni di un sistema lineare omogeneo perche’ e’ data dall’intersezione tra due piani. Esempio 6.5 Consideriamo lo spazio dei polinomi di grado minore o uguale di d , e consideriamo lo spazio Z1,2 = {p(x) ∈ Rd [X], t.c. p(1) = p(2) = 0}. Questo spazio e’ dato dall’intersezione tra l’insieme dei polinomi che si annullano in 1 e quelli che si annullano in 2 . Quindi Z1,2 = Z1 ∩ Z2 . Z1,2 è un sottospazio vettoriale, infatti: 1. Il vettore nullo appartiene a Z1,2 . Se p(x), q(x) ∈ Z1 e p(x), q(x) ∈ Z2 , allora (λ ∗ p + µ ∗ q)(1) = λ ∗ 0 + µ ∗ 0 = 0 ,inoltre (λ ∗ p + µ ∗ q)(2) = 0 , cioè λ ∗ p + µ ∗ q ∈ Z1,2 . Inoltre Z1,2 ha dimensione d − 1 e ha come base: B = {(x − 1)(x − 2) ∗ 1, (x − 1)(x − 2) ∗ x, . . . , (x − 1)(x − 2) ∗ xd−2 }. Esempio 6.6 Sia X un insieme e prendiamo l’insieme di tutte le funzioni f : X → R , che chiamo Rx ed e’ uno spazio vettoriale. Sia IY l’insieme di tutte le funzioni f ∈ RX la cui restrizione a Y e’ identicamente nulla. IY ∈ RX e’ un sottospazio vettoriale per ogni sottoinsieme Y ⊂ X . Se Y1 , Y2 sono due sottoinsiemi di X , allora l’intersezione IY1 ∩ IY2 e’ l’insieme delle funzioni che si annullano su Y1 ∪ Y2 . Osservazione 6.3 Sia IY1 ∩ IY2 uguale allo spazio nullo. Allora Y1 ∪ Y2 = X . Capitolo 6. Spazi vettoriali somma prodotto e intersezione 88 / 258 6.4 Spazio vettoriale somma 6.4.1 Proprietà generali Definizione 6.4 Sia V uno spazio vettoriale su R . Siano A e B sottospazi vettoriali di V . La somma di A e B e’ il sottoinsieme di V così definito: A + B = {(a + b), a ∈ A, b ∈ B} ( a e b sono vettori). Esempio 6.7 Se V e’ uguale a R3 , prendo A = span{e1 } , insieme dei vettori della forma (λ, 0, 0), λ ∈ R . Prendo B = span{e2 } insieme dei vettori della forma (0, µ, 0), µ ∈ R. A + B = (λ, 0, 0) + (0, µ, 0) = (λ, µ, , 0) Allora span{e1 } + span{e2 } = span{e1 , e2 } == {(x, y, 0), x, y ∈ R}. Esempio 6.8 Sia X un insieme. Siano Y e Z due sottoinsiemi di X . Prendiamo lo spazio IY delle funzioni che si annullano su Y , e lo spazio IZ delle funzioni che si annullano su Z .. Sia f : Y → R ∈ IY , g : Z → R ∈ IZ . Allora f + g = 0 . Sicuramente la somma e’ contenuta in IY ∩IZ , e in realtà si può dimostrare che IY ∩IZ = IY +IZ . 6.4.2 Teorema sullo spazio somma Teorema 6.4 Sia V uno spazio vettoriale, siano A e B in V sottospazi vettoriali, allora 1. A + B e’ un sottospazio vettoriale (che si dice lo spazio somma di A e B ); 2. A + B e’ il piu’ piccolo sottospazio vettoriale di V contenente A ∪ B . Dimostrazione 6.6 Unione contenuta nella somma: Lo spazio A + B contiene il vettore nullo, che puo’ essere scritto come 0V + 0V con 0V ∈ A e 0V ∈ B . Quindi A + B ̸= ∅ . Capitolo 6. Spazi vettoriali somma prodotto e intersezione 89 / 258 Per ogni a ∈ A , a = a + 0V con 0V ∈ B , quindi a appartiene a A + B . Quindi A e’ contenuto in A + B . Allo stesso modo per ogni b ∈ B , b = 0V + b , quindi b ∈ A + B essendo somma di un elemento di A e uno di B . Allora A + B contiene l’unione insiemistica A ∪ B . Somma come spazio vettoriale: Supponiamo di avere elementi v1 , v2 ∈ A + B e λ1 , λ2 ∈ R . Per definizione esistono a1 ∈ A, b1 ∈ B tali che v1 = a1 + b1 . Analogamente esistono a2 ∈ A, b2 ∈ B tali che v2 = a2 + b2 . Se considero la combinazione lineare di v1 , v2 λ1 ∗ v1 + λ2 ∗ v2 = λ1 (a1 + b1 ) + λ2 (a2 + b2 ) = (λ1 ∗ a1 + λ2 ∗ a2 ) + (λ1 ∗ b1 + λ2 ∗ b2 ) = 0 E’ ancora la somma di un elemento di A e un elemento di B . Quindi anche la combinazione lineare di elementi di A e B e’ un elemento di A + B . Segue che A + B e’ un sottospazio vettoriale perche’ e’ non vuoto e chiuso rispetto a combinazioni lineari. Dimostrazione della minimalità: Sia C ⊂ V sottospazio vettoriale tale che C contiene A ∪ B . Allora per ogni a ∈ A , per ogni b ∈ B si ha: a ∈ C, b ∈ C , quindi siccome C e’ sottospazio vettoriale allora a + b ∈ C . Quindi C contiene l’insieme {a + b, a ∈ A, b ∈ B} , cioè contiene lo spazio somma A + B . cvd 6.5 Formula di Grasman Teorema 6.5 Siano A e B due sottospazi di V finitodimensionali. Allora possiamo dire che: dim(A + B) = dim + dim − dim. 6.5.1 Caso 1 A sottoinsieme di B Dimostro prima l’asserto nel caso particolare in cui B ⊂ A . Dimostrazione 6.7 Se A contiene B , allora A + B = A , A ∩ B = B . Di conseguenza dim dev’essere uguale a dim . Vale la formula perché dim = dim + dim − dim = dim + dim − dim = dim. cvd Capitolo 6. Spazi vettoriali somma prodotto e intersezione 90 / 258 6.5.2 Caso 2 somma diretta Definizione 6.5 Supponiamo che A ∩ B sia il vettore nullo. In questo caso diremo che A e B sono in somma diretta e lo spazio somma si può indicare con A ⊕ B . Dimostro l’asserto nel caso in cui i due spazi sono in somma diretta. Dimostrazione 6.8 Sia d la dimensione di A e c la dimensione di B . Sia BA = {a1 , . . . , ad } una base di A e sia analogamente BB = {b1 , . . . , bc } una base di B .. Sia v in A + B . Allora esistono a ∈ A, b ∈ B tali che v = a + b . Quindi esistono α1 , . . . , αd , β1 , . . . , βc ∈ R tali che a = α1 ∗a1 +· · ·+αd ∗ad , e b = β1 ∗b1 +· · ·+βc ∗bc , allora posso scrivere: v = α1 ∗ a1 + · · · + αd ∗ ad + β1 ∗ b1 + + · · · + βc ∗ bc , che appartiene a span{a1 , . . . , ad , b1 , . . . , bc } . Allora A + B = span{a1 , . . . , ad , b1 , . . . , bc }. Questo vale sempre, anche se i due spazi non sono in somma diretta. La dimensione di A + B e’ sempre minore o uguale della somma delle dimensioni. Se suppongo che i due spazi sono in somma diretta, affermo che la stringa ordinata {a1 , . . . , ad , b1 , . . . , bc } e’ una base di A + B (se l’intersezione e’ il vettore nullo). Infatti dimostro che, dati α1 , . . . , αd , β1 , . . . , βc ∈ R tali che α1 ∗ a1 + · · · + αd ∗ ad + β1 ∗ b1 + · · · + βc ∗ bc = 0V allora tutti i coefficienti sono uguali a 0. Portando a secondo membro i bj , ottengo α1 ∗ a1 + · · · + αd ∗ ad = −β1 ∗ b1 − · · · − βc ∗ bc e chiamo r il vettore che copare al primo e al secondo membro. Si ha quindi r = α1 ∗ a1 + · · · + αd ∗ ad e quindi r ∈ A . Però si ha anche r = −b1 ∗ b1 − · · · − βc ∗ bc e quindi r ∈ B . ma siccome sto supponendo che A ∩ B = 0 , segue necessariamente r = 0 . r = 0 significa che α1 ∗ a1 + · · · + αd ∗ ad = 0 , quindi tutti gli αj sono nulli, perche’ gli aj costituiscono una base di A . Anche β1 ∗b1 +· · ·+βc ∗bc = 0 , quindi tutti i βj sono nulli, perche’ i bj costituiscono una base di B . Allora quella che sto considerando e’ una base dello spazio somma. Capitolo 6. Spazi vettoriali somma prodotto e intersezione 91 / 258 Quindi la dimensione di A + B e’ uguale a c + d se A ∩ B = 0 . Questo coincide con quanto afferma la formula di Grasman: dim(A + B) = dimA + dimB − dim(A ∩ B) = d + c − 0 = d + c. 6.5.3 Caso 3 dimensione dell’intersezione non nulla Dimostro l’asserto nel caso generale. Dimostrazione 6.9 Possiamo supporre che la dimensione dell’intersezione sia positiva e sia minore di min{dim, dim} . Chiamo e la dimensione dell’intersezione, d la dimensione di A e C la dimensione di B . Sia (v1 , . . . , ve ) una base di A ∩ B . Questo e’ un sottospazio vettoriale. Allora per il teorema della base incompleta esistono certamente a1 , . . . , ad−e ∈ A tali che {a1 , . . . , ad−e , v1 . . . ve } sia una base di A . Analogamente esistono b1 , . . . , bc−e ∈ B tali che {b1 , . . . , bc−e , v1 , . . . , ve } sia una base di B . Affermo che B∗ = {a1 , . . . , ad−e , v1 , . . . , ve , b1 , . . . , bc−e } e’ una base di A + B . Se cio’ e’ vero la dimensione di A + B risulta essere uguale a d − e + e + c − e = d + c − e = dim + dim − dim e quindi la formula di Grasman vale. Dimostro che B∗ è una base di A + B . Mostro che • B∗ e0 un sistema di generatori per A + B Sia v ∈ A + B , quindi per definizione esistono a ∈ A, b ∈ B tali che v = a + b . Siccome {a1 , . . . , ad−e , v1 , . . . , ve } e’ una base di A , esistono e sono unici x1 , . . . , xd−e , y1 , . . . , ye tali che Allo stesso modo siccome {v1 , . . . , ve , b1 , . . . , bc−e } e’ una base di B , esistono e sono unici r1 , . . . , re , s1 , . . . , sc−e ∈ R tali per cui Ne segue che Quindi v ∈ span{a1 , . . . , ad−e , v1 , . . . , ve , b1 , . . . , bc−e } e A + B è contenuto in questo span. L’inclusione opposta è ovvia quindi A + B è proprio uguale allo span dei vettori sopra elencati. • Devo dimostrare che a1 , . . . ad−e , v1 , . . . , ve , b1 , . . . , bc−e sono linearmente indipendenti. Supponiamo di avere una combinazione lineare che da’ 0 e mostriamo che gli scalari sono nulli. Dati numeri reali x1 , . . . , xd−e , y1 , . . . , ye , z1 , . . . , zc−e considero la combinazione lineare: d−e ∑ j=1 x j ∗ aj + e ∑ j=1 yj ∗ v j + c−e ∑ j=1 zj ∗ bj = 0. Capitolo 6. Spazi vettoriali somma prodotto e intersezione 92 / 258 Porto i bj al secondo membro: ∑ xj ∗ aj + ∑ yj ∗ vj = ∑ −zj ∗ bj Chiamo R il vettore che puo’ essere espresso come primo o secondo membro. Il primo membro e’ un elemento di A mentre il secondo e’ un elemento di B , quindi R appartiene a A ∩ B . ∑ Esistono t1 , . . . , te ∈ R tali che R = tj ∗ vj , perche’ v1 , . . . , ve e’ una base di A∩B . ∑ ∑ Allora se uso la seconda identita’ tj ∗ vj = −zj ∗ bj . ∑ ∑ per R , ricavo che Quindi ricavo che yj ∗ vj + zj ∗ bj = 0 v1 , . . . , ve , b1 , . . . , bc−e e’ una base di B quindi i vettori sono linearmente indipendenti. Quindi ricavo che tj = 0zl = 0 per j = 1, . . . , e e l = 1, . . . , c − e . ∑ ∑ Ricavo che xj ∗ aj + yj ∗ vj = 0 (ho gia’ dimostrato che il terzo termine e’ 0). Anche gli aj e i vj formano una base di A , allora sono linearmente indipendenti e tutti i coefficienti della combinazione lineare sono necessariamente uguali a 0. Quindi xj = 0, yl = 0 per j = 1, . . . , d − e e l = 1, . . . , e . cvd Esercizio 6.1 Siano A e B sottospazi di V in somma diretta. Dimostrare che per ogni vettore in A ⊕ B esistono e sono unici a ∈ A, b ∈ B tali che v = a + b . Dim. L’esistenza degli elementi a e bdipende dalla definizione di spazio somma, infatti un elemento appartenente allo spazio somma e’ un elemento che si puo’ scrivere come a + b con a ∈ A, b ∈ B . Dimostro l’unicita’. Per assurdo suppongo che esistono due elementi a′ , b′ , tali che v = a + b = a′ + b′ con a, a′ ∈ A , b, b′ ∈ B . Se i due spazi sono in somma diretta la loro intersezione e’ il vettore nullo. Se a + b = a′ + b′ , posso anche scrivere che a − a′ = b′ − b . Allora a − a′ ∈ A , analogamente b′ − b ∈ B . Siccome l’unico elemento in A ∩ B e’ l’elemento neutro, possiamo scrivere che a − a′ = b − b′ = O , quindi necessariamente a = a′ e b = b′ , e la scrittura di v ∈ A ⊕ B è unica. Capitolo 7. Matrici e spazi vettoriali 93 / 258 Capitolo 7 Matrici e spazi vettoriali 7.1 Nozioni elementari sulle matrici Osservazione 7.1 Se U ∈ Rk e’ generato da vettori u1 , . . . , ul , U = span{u1 , . . . , ul } , allora ci chiediamo 1. come calcolare la dimensione di U ; 2. come trovare equazioni cartesiane per U . Scriviamo u1 , . . . , ul come una matrice k × l . 7.1.1 Definizione di matrice Definizione 7.1 Una matrice k × l e’ un ordinamento di numeri aij disposti in k righe e l colonne. Esempio 7.1 Se A e’ una matrice 2 × 2 essa e’ della forma a b c d Un esempio di matrice A 3 × 2 è il seguente: 1 5 3 6 1 6 Un vettore colonna e’ una matrice n × 1 , mentre un vettore riga e’ una matrice 1×n . Capitolo 7. Matrici e spazi vettoriali 94 / 258 Data una matrice A = k × l della forma: a11 a12 a21 a22 ... ... ak1 ak2 ... ... ... ... a1l a2l ... akl Aj e’ la j-esima colonna di A , cioe’ e’ il vettore colonna a1j a2j ... akj che e’ un vettore in Rk per j = 1, . . . , l . Invece ai sara’ la i-esima riga. E’ un vettore riga (ai1 , . . . , ail ) per i = 1, . . . , k . Definizione 7.2 Sia A una matrice k × l , allora il rango per colonne di A e’ la dimensione dello span delle colonne di A , dove span{a1 , . . . , al } e’ un sottospazio vettoriale di Rk Analogamente, il rango per righe e’ la dimensione dello span delle righe quando le traspongo. Il problema di calcolare la dimensione di un sottospazio vettoriale U ∈ Rk , noti dei generatori, equivale quindi al problema di calcolare il rango di una matrice avente per colonne tali generatori. 7.1.2 Operazioni per riga Definizione 7.3 Le operazioni elementari per righe su una matrice k × l sono le seguenti: 1. scambio di due righe: Questa operazione porta la matrice A in una matrice A′ che e’ uguale ad A , ma in cui la i-esima riga viene scambiata con la j-esima. 2. moltiplicare una riga per uno scalare diverso da 0: Questa operazione porta la matrice A in una matrice A′ dove tutte le righe di A rimangono invariate ma al posto della j-esima riga ho questa riga moltiplicata per uno scalare. aj viene sostituita con λ ∗ aj , λ ∈ R, λ ̸= 0 ; 3. sommare a una riga un multiplo scalare di un’altra riga Nella matrice A′ la jesima riga della matrice A viene sostituita con la i-esima riga sommata a un multiplo scalare della j-esima. Ad esempio aj viene sostituita con aj + λ ∗ ai , con i ̸= j, λinR Definizione 7.4 Capitolo 7. Matrici e spazi vettoriali 95 / 258 Due matrici sono equivalenti per operazioni per righe se una matrice si puo’ ottenere dall’altra attraverso una sequenza di operazioni. Teorema 7.1 le operazioni elementari per righe non cambiano il rango di una matrice. Esempio 7.2 Supponiamo di avere un sottospazio V generato dai vettori: v1 (1, 6, 0, 1), v2 (4, 0, 0, 2), v3 (6, 5, 3, 1) . Determinarne il rango. Considero la matrice che ha per colonne i vettori dati. L’obiettivo è quello di calcolare il rango di A . Come risultato del teorema precedente, mediante operazioni elementari per righe cerco di ridurre la matrice A in una forma nella quale il rango sia in qualche modo evidente. In particolare, riduco la matrice in forma triangolare superiore (con zeri sotto la diagonale) azzerando una sottocolonna alla volta e tengo traccia delle operazioni fatte. 1 6 0 1 4 0 0 2 6 5 3 1 Chiamo le righe a1 , a2 , a3 , a4 . 1. Per azzerare la prima colonna, a1 rimane invariata (non devono esserci zeri su questa riga), sostituisco a2 con a2 −6∗a1 in modo da annullarne la prima entrata. Sostituisco a4 con a4 − a1 1 4 6 0 −24 −31 0 0 3 0 −2 −5 2. Per azzerare la seconda sottocolonna: a4 = a4 ∗ 12 1 4 6 0 −24 −31 0 0 3 0 −24 −60 a4 = a4 − a2 1 4 6 0 −24 −31 0 0 3 0 0 −29 Capitolo 7. Matrici e spazi vettoriali 96 / 258 3. Per azzerare la terza sottocolonna a4 = a4 ∗ 3 1 4 6 0 −24 −31 0 0 3 0 0 −87 a4 = a4 + a3 ∗ 29 1 4 6 0 −24 −31 0 0 3 0 0 0 Il rango della matrice ottenuta è 3 (i vettori sono linearmente indipendenti perché hanno zeri in posizioni diverse), quindi la dimensione dello span dei vettori di partenza è 3. A priori, so che la dimensione dello span di tre vettori e’ minore o uguale a 3 e vale l’uguale se e solo se le colonne della matrice ottenuta alla fine (e quindi anche i vettori iniziali) sono linearmente indipendenti. 7.1.3 Matrici a scala Questo procedimento si sceglie per il fatto che una classe di matrici per cui il rango e’ evidente sono le matrici a scala. Piu’ precisamente, data una qualsiasi matrice k × l con la i-esima riga ai = (a1i , . . . , ali ) , il textit o textit della i-esima riga e’ la prima entrata diversa da 0 che si incontra lungo tale riga andando da sinistra a destra. Una textit si dice textit se soddisfa queste due condizioni: 1. il gradino della i-esima riga e’ a sinistra del gradino della i + 1− esima riga. 2. le eventuali righe nulle sono in fondo. In particolare, il rango di una matrice a scala e’ il numero dei gradini, usando la definizione di linear indipendenza. Una colonna senza gradino e’ combinazione lineare delle colonne precedenti. Qualsiasi matrice puo’ essere portata in forma a scala mediante un’opportuna sequenza finita di operazioni elementari per riga. Quindi possiamo trovare la dimensione di qualsiasi sottospazio. Esempio 7.3 Considero il sottospazio U generato dai vettori v1 (1, 0, 1, 2) , v2 (3, −1, 0, 1) , v3 (2, −1, −1, −1) , v4 (5, −2, −1, 0) . Trovare la dimensione di U e una sua base. Scrivo la matrice che ha come colonna i vettori. Capitolo 7. Matrici e spazi vettoriali 97 / 258 1 3 2 5 0 −1 −1 −2 1 0 −1 −1 2 1 −1 0 Per azzerare la prima colonna: a3 = a3 − a1 , a4 = a4 − 2 ∗ a3 1 3 2 5 0 −1 −1 −2 0 −3 −3 −6 0 1 1 2 Per azzerare la seconda sottocolonna, lascio invariate prima e seconda riga ed eseguo a3 = a3 − 3 ∗ a2 ; a4 = a4 + a2 1 3 2 5 0 −1 −1 −2 0 −0 −0 0 0 0 0 0 Ora la matrice e’ in forma a scala Ho due gradini, perche’ le altre due righe sono fatte solo da 0. La dimensione di U e’ il rango della matrice A , quindi è 2. Per trovare una base scelgo due dei vettori dati inizialmente che non siano linearmente indipendenti. In particolare per trovare la base basta prendere i vettori della base di partenza che corrispondono ai gradini nella matrice di arrivo. Le colonne che corrispondono ai gradini sono la prima e la seconda. Allora una Base per lo spazio è B = {v1 = (1, 0, 1, 2), v2 = (3, −1, 0, 1)} Esempio 7.4 Considero il sottospazio vettoriale W di R4 : W = span{(1, 0, 2, −1), (−2, 0, −4, 2), (1, 1, 0, 1), (2, 1, 2, 0)} E’ richiesto di trovare la dimensione di W , una base di W e le sue equazioni cartesiane. La dimensione di W e’ il rango della matrice A che ha per colonne i generatori. Un vettore appartiene a W se e solo se e’ combinazione lineare di a1 , a2 , a3 a4 . Capitolo 7. Matrici e spazi vettoriali 98 / 258 Per trovare equazioni cartesiane si fanno operazioni sulla matrice estesa, che comprende anche la colonna (x, y, z, t) oltre ai generatori. Poi le equzioni cartesiane si ottengono imponendo che il rango della matrice estesa sia uguale a quello della matrice che ha come colonne solo i generatori. Eliminazione gaussiana sulla matrice estesa: 1 −2 1 2 x 0 0 1 1 y 2 −4 0 2 z −1 2 1 0 t Per azzerare la prima sottocolonna, a1 , a2 rimangono invariate. a3 = a3 − 2 ∗ a1 , a4 = a1 + a4 1 −2 1 2 x 0 0 1 1 y 0 0 −2 −2 z − 2x 0 0 2 2 x+t Per azzerare la terza sottocolonna: a3 = a3 + a2 ∗ 2, a4 = a3 1 −2 1 2 x 0 0 1 1 y 0 0 0 0 z − 2x + 2y 0 0 0 0 −x + t + z La dimensione di W e’ il rango della matrice dei generatori (in questo caso 2). Come base di W prendo il primo e il terzo vettore della stringa dei generatori, perche’ i gradini corrispondono alla prima e alla terza colonna. B = {(1, 0, 2, −1), (1, 1, 0, 1)} Per trovare le equazioni cartesiane impongo che la matrice estesa abbia il rango della matrice originaria, e quindi annullo le condizioni corrispondenti alle righe di zeri. (x, y, z, t) ∈ W se e solo se valgono queste due condizioni: Esempio 7.5 Trovare una base di R4 che estende una base di W , dove W è come nell’esercizio precedente. Parto dalla base che ho trovato nell’esercizio precedente: B = {(1, 0, 2, −1), (1, 1, 0, 1)} Capitolo 7. Matrici e spazi vettoriali 99 / 258 Per completare la base, riduco a scala la matrice che ha come colonna la base di W e la base standard di R4 : i vettori da aggiungere corrispondono ai gradini della matrice finale. 1 0 A= 2 −1 1 1 0 1 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 a3 = a3 − 2 ∗ a1 , a4 = a4 + a1 1 1 1 0 0 1 0 1 0 −2 −2 0 0 2 1 0 0 0 1 0 0 0 0 1 a3 = a3 + 2a2 , a4 = a4 − 2 ∗ a2 1 0 0 0 1 1 0 1 0 1 0 −2 2 0 1 −2 0 0 1 0 0 0 0 1 a4 = 2 ∗ a4 + a3 1 0 0 0 1 1 0 1 0 1 0 −2 2 0 0 −2 0 0 1 1 0 0 0 2 I gradini corrispondono alla prima, seconda, terza e quarta colonna. La base e’ costituita dai due vettori dati e dai vettori A(1, 0, 0, 0), B(0, 1, 0, 0) . 7.1.4 Complemento ortogonale Definizione 7.5 Se W in Rk e’ un sottospazio vettoriale, diciamo complemento ortogonale di W il sottospazio cosi’ definito: {v ∈ Rk t.c.v · w = 0, w ∈ W } Lemma 7.1 Il complemento ortogonale di W (indicato con W⊥ ) in Rk e’ un sottospazio vettoriale. Dimostrazione 7.1 0Rk ∈ W⊥ , perche’ qualsiasi vettore moltiplicato per 0 e’ 0. Se ho v1 , v2 ∈ W⊥ e λ1 , λ2 ∈ R allora ∀w ∈ W⊥ si ha che Capitolo 7. Matrici e spazi vettoriali 100 / 258 (λ1 ∗ v1 + λ2 ∗ v2 ) · w = = λ1 ∗ v1 · w + λ2 ∗ v2 · w = 0 perché v1 · w, v2 · w = 0 . Pertanto siccome questo vale per ogni w ∈ W , allora W⊥ è chiuso rispetto a combinazione lineare ed è un sottospazio vettoriale. cvd Osservazione 7.2 Se W ∈ Rk e’ un sottospazio vettoriale e W⊥ ∈ Rk e’ il complemento ortogonale di W rispetto al prodotto scalare standard, allora W ∩ W⊥ e’ il vettore nullo di Rk , cioe’ W, W⊥ sono in somma diretta. Dimostrazione 7.2 Sia v ∈ W ∩ W⊥ . Allora v · v = 0 , perche’ v ha prodotto scalare nullo con ogni elemento di W e v e’ a sua volta un elemento di W . Allora v · v = (|v|)2 = 0 quindi v dev’essere il vettore nullo, allora W ∩ W⊥ = {0} . cvd Quindi W + W⊥ si puo’ scrivere come somma diretta e la sua dimensione e’ dimw + dimW⊥ . In particolare, la dimensione del complemento ortogonale e’ k − dimW . (da dimostrare in seguito) e Rk = W + W⊥ . Supponiamo l = dimW e 1 ≤ l < k . Allora se B = {w1 , . . . , wl } e’ una base di W e B′ = {w1′ , w2′ , . . . , wk−l } e’ una base di W⊥ allora siccome Rk = W + W⊥ l’unione delle due basi e’ un sistema di generatori per Rk . Rk = span{w1 , . . . , wl , w′1 , . . . , w′k−l } ′ } I generatori sono sicuramente linearmente indipendenti. Concludo che {w1 , . . . , wl , w1′ , . . . , wk−l e’ una base di Rk che estende una base di W . 7.1.5 Procedimento alternativo per il completamento della base Se considero la base di W, B = {v1 = (1, 0, 2, −1), v2 = (1, 1, 0, 1)} posso estenderla a una base di R4 . La dimensione di W⊥ e’ uguale a 4 − 2 Impongo che il prodotto scalare di (x, y, z, t) con i vettori della base sia 0, in questo modo automaticamente anche il prodotto con tutti gli altri vettori di W e’ 0. Dal sistema che ottengo ricavo un sistema di generatori per W⊥ che completano la base di W già trovata. Capitolo 7. Matrici e spazi vettoriali 101 / 258 (x, y, z, t) ∈ W⊥ se e solo se (x, y, z, t) · v1 = 0 e (x, y, z, t) · v2 = 0 . Calcolo i prodotti scalari: v1 · (x, y, z, t) = (1, 0, 2, −1) = x + 2z − t = 0 v2 · (x, y, z, t) = x + y + t = 0 Per risolvere un sistema lineare conviene scrivere una matrice estesa dove le righe sono i coefficienti delle due equazioni. Lo spazio delle soluzioni non cambia se faccio operazioni per riga 1 0 2 −1 1 1 0 1 a2 = a2 − a1 1 0 2 −1 0 1 −2 2 Le colonne corrispondenti ai gradini sono le variabili dipendenti, le altre sono variabili indipendenti. t, z sono parametri indipendenti, mentre x, y sono parametri dipendenti. (x, y, z, t) ∈ W⊥ se e solo se x = −2z +t, y = 2z −2t (ho espresso x e y in funzione di z e t leggendo la soluzione dalle righe della matrice). W⊥ = {(−2z + t, 2z − 2t, z, t), z, t ∈ R} W⊥ = {z(−2, 2, 1, 0) + t(1, −2, 0, 1), z, t, ∈ R} W⊥ = span{(−2, 2, 1, 0), (1, −2, 0, 1)} I vettori presi nell’ordine sono una base, per W⊥ perche’ sono linearmente indipendenti. Prendo la base di R4 che ha come primi vettori v1 (1, 0, 2, −1) e v2 (1, 1, 0, 1) a cui aggiungo i vettori trovati v3 (−2, 2, 1, 0) e v4 (1, −2, 0, 1) . Esempio 7.6 Consideriamo U = span{(1, 1, −2, 1), (0, 2, −1, 2)} e W = span{(1, 3, −3, 3), (2, 1, 0, 1)} in R4 . Trovare basi e dimensione ed equazioni cartesiane per U , W , U ∩ W , U +W . Spazio U : 1. dimensione di U = 2 2. La base di U e’ costituita dai due vettori dati 3. Per trovare equazioni cartesiane per U scrivo la matrice estesa e la riduco a scala: 1 0 x 1 2 y −2 −1 z 1 2 t Capitolo 7. Matrici e spazi vettoriali 102 / 258 a2 = a2 − a1 a3 = a3 + 2a1 a4 = a4 − a1 1 0 x 0 2 y−x 0 −1 z + 2x 0 2 t−x a3 = 2 ∗ a3 + a2 a4 = a4 − a2 1 0 0 0 0 x 2 y−x 0 2z + 3x + y 0 t−y Prendendo le condizioni corrispondenti alle righe di zeri, (x, y, z, t) ∈ U se e solo se sono soddisfatte le due equazioni Spazio W : 1. Dimensione = 2 2. base costituita dai due vettori dati. 3. Per trovare le equazioni cartesiane scrivo la matrice estesa 1 3 −3 3 2 x 1 y 0 z 1 t a2 = a2 − a1 ∗ 3 a3 = a3 + a1 ∗ 3 a4 = a4 − 3 ∗ a1 1 2 x 0 −5 y − 3x 0 6 z + 3x 0 −5 t − 3x a3 = a3 + 6 ∗ 5 ∗ a2 a4 = a4 − a2 1 2 x 0 −5 y − 3x 0 0 z + 6/5y − 3/5x 0 0 t−y Quindi le equazioni cartesiane per U sono date da: Spazio V ∩ W : Capitolo 7. Matrici e spazi vettoriali 103 / 258 1. L’intersezione U ∩ W è l’insieme dei vettori che soddisfano le equazioni cartesiane di U e quelle di W contemporaneamente, quindi è il sistema: Risolvo il sistema: utilizzando il metodo di riduzione a scala della matrice: 3 −6 5 0 0 −1 0 1 3 1 2 0 0 −1 0 1 fare operazioni per righe sulla matrice non cambia lo spazio delle soluzioni. a4 = a4 − a2 a3 = a3 − a1 3 −6 5 0 0 −1 0 1 0 7 −3 0 0 −0 0 0 3 −6 5 0 0 −1 0 1 0 0 −3 7 0 0 0 0 Uso x, y, z come variabili dipendenti e t come variabile indipendente, cioè esprimo x, y, z in funzione di t . Sottraggo membro a membro le due equazioni: −7t − 7z = 0, −→ z = −t Sostituendo z con −t nella prima equazione del sistema sopra ottengo: 3x − 6t + 5t = 0 −→ x = t/3 Risultato: U ∩ W = {(t/3, −t, −t, t), t ∈ R} = span{1, −3, −3, 3} 2. la base di U ∩ W è data dal vettore (1, 3, −3, 3) 3. Di conseguenza, dim(U ∩ W ) = 1 Spazio U + W 1. Dimensione di U + W : dimU + dimW − dim(U ∩ W ) = 2 + 2 − 1 = 3 (formula di Grasman) 2. Scrivo la matrice per trovare base con equazioni cartesiane per U + w 1 0 1 2 x 1 2 3 1 y −2 −1 −3 0 z 1 2 3 1 t a2 = a2 − a1 Capitolo 7. Matrici e spazi vettoriali 104 / 258 a2 = a2 + 2 ∗ a1 a4 = a4 − a1 1 0 1 2 x 0 2 2 −1 y − x 0 −1 −1 4 z + x 0 2 2 −1 t − x a3 = 2a3 + a2 a4 = a4 − a2 1 0 0 0 0 2 0 0 1 2 x 2 −1 y−x 0 7 2z + x + y 0 0 t−y Ho tre gradini.Lo spazio ha dimensione 3.La base e’ data dai vettori u1 , u2 , w2 sulle colonne corrispondenti ai gradini. 3. L’equazione cartesiana è t − y = 0 . Trovare basi di R4 che estende una base di U + W e di U rispettivamente. Spazio U + W : U + W ha dimensione 3 Basta trovare un vettore di R4 che non sta in W , cioè che non soddisfi l’equazione y = t . Uno qualsiasi dei vettori della base canonica può completare la base. Spazio U : Scrivo la matrice che ha per colonne i vettori della base di U e quelli della base canonica. 1 0 1 1 2 0 −2 −1 0 1 2 0 1 0 1 0 2 −1 0 −1 2 0 2 −1 1 0 0 0 0 1 0 0 0 0 1 0 1 0 0 1 0 1 0 0 0 1 0 −1 1 2 0 0 0 1 0 2 −1 1 0 3 1 0 0 −1 0 1 0 −1 2 3 0 1 Completo la base con il primo vettore della base canonica. Capitolo 8. Spazio vettoriale quoziente 105 / 258 Capitolo 8 Spazio vettoriale quoziente 8.1 classe di equivalenza Sia V uno spazio vettoriale e sia W in V un sottospazio vettoriale. Sia R(V, W ) la relazione su V data dalle coppie (v, v ′ ) ∈ V × V con la proprieta’ che v − v ′ ∈ W . Posso osservare che: 1. ∀v ∈ V , v − v = 0V che e’ un elemento di W perche’ W e’ sottospazio vettoriale.Quindi (v, v) ∈ R quindi R e’ riflessiva. 2. Per ogni coppia (v, v ′ ) in R , l’elemento v ′ − v = −1 ∗ (v − v ′ ) appartiene a W , perche’ W e’ un sottospazio vettoriale ed e’ chiuso rispetto al prodotto per uno scalare.Quindi (v ′ , v) appartiene a R e R e’ simmetrica. 3. per ogni scelta di coppie ordinate (v, v ′ ) e (v, v ′′ ) in W, v −v ′ ∈ W, (v −v ′′ ) ∈ W . L’elemento v − v ′′ − v + v ′ = v ′ − v ′′ e’ la somma di due elementi di W , siccome W e’ un sottospazio vettoriale anche la somma appartiene a W .Pertanto R e’ transitiva. La relazione R e’ una relazione di equivalenza. Se prendo un v ∈ W , la classe di equivalenza di v indicata con [v] e’ intesa come sottoinsieme di V . [v] = {v ′ ∈ V t.c. (v ′ , v) ∈ R} Si scrive v ′ ∼ v [v] = {v ∈ V t.c. v ′ − v ∈ W } [v] = {v ′ ∈ V t.c. ∃w ∈ W t.c.v ′ = v + w} Si puo’ scrivere che la classe di equivalenza e’ l’insieme di tutti i traslati v + w al variare di w ∈ W . Capitolo 8. Spazio vettoriale quoziente 106 / 258 8.2 Sottospazio affine Definizione 8.1 Se W in V e’ un sottospazio vettoriale e v ∈ V e’ un elemento dato qualsiasi, il traslato di W per l’elemento v e’ v + W definito come l’insieme di tutte le somme v + w al variare di w ∈ W . Esempio 8.1 Se in R2 ho una retta che passa per l’origine, prendo come traslato la retta parallela. Osservazione 8.1 Le seguenti condizioni sono equivalenti: 1. v + W e’ un sottospazio vettoriale; 2. lo 0V appartiene a v + W ; 3. v appartiene a W . Dimostrazione 8.1 Se v + W e’ un sottospazio vettoriale, deve avere le seguenti proprieta’: • deve contenere l’elemento neutro, quindi questa condizione e’ equivalente al fatto che v + W sia un sottospazio vettoriale; • dev’essere chiuso rispetto alla somma, quindi se w + v appartiene a W , necessariamente anche v appartiene a W . cvd Definizione 8.2 Un sottospazio affine di V e’ un traslato v + W di un sottospazio vettoriale W in V. in questo caso il sottospazio di W si dice la giacitura del sottospazio affine. Osservazione 8.2 In generale v + W = v ′ + W se e solo se v − v ′ ∈ W , cioè se le classi di equivalenza dei due sono uguali. due elementi sono in relazione se e solo se la loro classe di equivalenza appartiene a W . 8.3 Operazioni nello spazio quoziente Considero quindi la relazione tale che la classe di equivalenza di v e’ l’insieme dei traslati v + w, w ∈ W . Denotiamo con V /W (anziche’ V /R ) l’insieme quoziente Capitolo 8. Spazio vettoriale quoziente 107 / 258 di tale relazione di equivalenza (insieme di tutte le classi di equivalenza). Affermo che sull’insieme quoziente esiste una struttura naturale di spazio vettoriale: descriviamo le operazioni. 8.3.1 somma Siano X e Y elementi dell’insieme quoziente. Si ha che X = [v], Y = [u] per certi v, u ∈ V . Definisco l’operazione somma da V /W × V /W a valori in V /W ponendo X + Y = [u] + [w] = [u + w] . Problema: La somma tale che (X, Y ) 7→ X + Y deve dipendere solo da X e Y , e non dalla scelta di particolari v ∈ X, u ∈ Y con X = [v], Y = [u] . Dobbiamo quindi verificare che la classe di equivalenza di w +u non dipende dalla scelta di v ∈ X e w ∈ Y . Sia quindi v ′ ∈ X e u′ ∈ Y . Ci chiediamo se la classe di equivalenza di v + u e’ uguale alla classe di equivalenza di v ′ + u′ . (v, v ′ ) e (u, u′ ) ∈ R , perche’ sono coppie ordinate con due vettori appartenenti alla stessa classe di equivalenza, allora v − v ′ ∈ W , u − u′ ∈ W . Pertanto la somma (v − v ′ ) + (u − u′ ) appartiene a W essendo differenza di due elementi di W . La coppia ordinata (v + 0, v ′ + u′ ) ∈ R , quindi [v + u] = [v ′ + u′ ] L’operazione + e’ ben definita come funzione, perche’ non dipende dalla scelta dei v e u , ma da X e Y . La somma soddisfa tutte le proprieta’ usuali. Esercizio 8.1 Verificare tutte le proprieta’ della somma. associativita’ Se ho X = [v], Y = [u], Z = [t] , (X + Y ) + Z = ([v] + [u]] + [t] . Uso la definizione: [v]+[u] = [v +u] . [v +u]+[t] = [(v +u)+t] . Quello che e’ dentro la parentesi quadra e’ appartenenete allo spazio vettoriale. [v+(u+t)] . Uso la definizione di somma in v + W . [v] + [u + t] = [v] + ([u] + [t]) . Questo equivale a X + (Y + Z) elemento neutro Lo zero di V /W e’ la classe di equivalenza di 0 e di qualsiasi elemento di W . opposto −[v] = [−v] commutativita’ Se ho due elementi X = [v] e Y = [w] , X + Y = [v] + [w] . Per la definizione di somma X + Y = [v + w] . Per la definizione di somma in v + W si ha che X + Y = [w + v] e quindi usando la definizione di somma nello spazio quoziente a ritroso ottengo che X + Y = [w] + [v] = Y + X . Capitolo 8. Spazio vettoriale quoziente 108 / 258 8.3.2 prodotto per uno scalare Se λ ∈ R, X = [v] ∈ V /W definiamo λ ∗ X = [λ ∗ v] . Questa e’ un’applicazione da R × V /W a valori in V /W . Se X = [v] = [v ′ ] , questo significa che v − v ′ ∈ W , quindi λ ∈ W allora la coppia (λ ∗ v, λ ∗ v ′ ) ∈ R e segue che [λ ∗ v] = [λ ∗ v ′ ] . Quindi l’operazione e’ ben definita. Per quest’operazione valgono tutte le proprietà consuete. 8.4 dimensione dello spazio quoziente Sia V uno spazio vettoriale finitodimensionale su K . Diciamo d la dimensione di V . Sia W in V un sottospazio vettoriale. Se pongo k = dimW , allora k e’ sicuramente minore o uguale di d e vale l’uguale se e solo se W = V . Ci chiediamo quale sia la dimensione del sottospazio vettoriale V /W . Valuto i due casi particolari seguenti. 8.4.1 Caso 1 W=V In questo caso due qualsiasi vettori sono sempre equivalenti. In particolare qualsiasi vettore e’ equivalente al vettore nullo, perche’ v − 0V ∈ W poiché v ∈ W ∀v . Allora [v] = [0] per ogni v . Quindi V /W e’ lo spazio nullo e comprende solo la classe [0] . 8.4.2 Caso 2 W consiste del solo vettore nullo Partiamo da una base di V B = {v1 , . . . , vd } . Siano [v1 ], . . . , [vd ] le classi di equivalenza dei vettori della base. Sia X un qualsiasi elemento di V /W . Allora esiste v ∈ V tale che X = [v] . Posso scrivere v come combinazione lineare dei vi . Esistono α1 , . . . , αi tali che α1 ∗ [v1 ] + · · · + αd ∗ [vd ] ∈ V /W. Osservo che α1 ∗ [v1 ] + · · · + αd ∗ [vd ] appartiene a span{[v1 ], . . . , [vd ]} . Mostro che [v1 ], . . . , [vd ] sono linearmente indipendenti: siano α1 , . . . , αd ∈ R tali che α1 ∗ [v1 ] + · · · + αd ∗ [vd ] = 0V /W Usando la definizione di somma a ritroso si ha = ∑ αi ∗ [vi ] = 0V /W Capitolo 8. Spazio vettoriale quoziente Allora ∑d i=1 αi ∗vi −0V ∑ 109 / 258 appartiene a W , Ma W consiste del solo elemento neutro. Questo vuol dire che vi ∗αi = 0 , ma siccome i vi sono per ipotesi una base di V , allora sono linearmente indipendenti e gli scalari α1 , . . . αd sono necessariamente tutti nulli. Quindi anche [v1 ], . . . , [vd ] sono linearmente indipendenti. Pertanto se W e’ 0, allora dim(V /W ) = dimV . 8.4.3 Caso generale In generale vale il seguente teorema: Teorema 8.1 Nelle ipotesi precedenti ( V finitodimensionale, W ⊂ V sottospazio vettoriale) segue che dimV /W = dimV − dimW . Dimostrazione 8.2 Sia d la dimensione di V e k la dimensione di W . Eliminando i casi già dimostrati, possiamo supporre 1 ≤ k < d . Sia B = {w1 , . . . , wk } una base di W . Per il teorema della base incompleta, esistono v1 , . . . , vd−k ∈ V tali che {w1 , . . . , wk , v1 , . . . , vd−k } e’ una base di V . Sia X un qualsiasi elemento di V /W e sia v ∈ V t.c. X = [v] . Esistono e sono unici α1 , . . . , αk , β1 , . . . , βd−k ∈ R tali che v= k ∑ α i ∗ wi + ∑ i = 1d−k βi ∗ vi i=1 Allora X= k ∑ αi ∗ [wi ] + ∑ i = 1d−k βi ∗ [vi ] i=1 Si ha quindi d ∑ αi [wi ] = 0V /W i=1 Si ha allora X= d−k ∑ βi ∗ [vi ] ∈ span{[v1 ], . . . , [vd−k ]}. i=1 Quindi V /W ha un sistema di d − k generatori, e dimV /W = d − k se e solo se {v1 , . . . , vd−k } sono linearmente indipendenti. Capitolo 8. Spazio vettoriale quoziente 110 / 258 Siano β1 , . . . , β ∈ R tali che β1 ∗ [v1 ] + · · · + βd−k ∗ [vd−k ] = 0V /W , relazione ∗ Usando la definizione di somma riscrivo la relazione: ∑ [ βi vi ] = 0V /W i e questo implica che ∑ ∈ W , allora esistono α1 , . . . , αk ∈ R tali che i βi vi d−k ∑ βi ∗ vi = i=1 k ∑ α i ∗ wi . i=1 Questo implica che k ∑ i=1 −αi ∗ wi + d−k ∑ βi ∗ vi = 0 i=1 I vettori w1 , . . . , wk , v1 , . . . , vd−k son una base di V , quindi gli scalari sono tutti nulli. concludo che {[v1 ], . . . [vd−k ]} e’ una base di V /W perché la relazione ∗ vale solo se gli scalari sono nulli e quindi i vettori sono linearmente indipendenti, e quindi dimV /W = d − k = dimV − dimW . cvd Capitolo 9. Applicazioni lineari 111 / 258 Capitolo 9 Applicazioni lineari 9.1 Nozioni di base 9.1.1 Definizione di applicazione lineare Definizione 9.1 Siano V e W spazi vettoriali su K . La funzione f : V → W si dice lineare o anche di V e W se ∀v, v ′ ∈ V, ∀λ, λ′ , ∈ K vale che f (λ ∗ v + λ′ ∗ v ′ ) = λ ∗ f (v) + λ′ ∗ f (v ′ ), cioe’ f rispetta le combinazioni lineari. Questa singola condizione e’ equivalente alle due seguenti • f (v) + f (v ′ ) = f (v + v ′ )∀v, v ′ ∈ V • f (λ ∗ v) = λ ∗ f (v), ∀λ ∈ R 9.1.2 Applicazione lineare: R → V Sia V uno spazio vettoriale reale arbitrario e supponiamo di avere una funzione f : R → V lineare. Allora per ogni λ ∈ R si deve avere f (λ) = λ ∗ f (1) . Quindi se f (1) = v , f ha la forma f (λ) = λ ∗ v . Viceversa se v e’ un qualsiasi elemento fissato dello spazio vettoriale, definiamo fv ponendo fv (λ) = λ ∗ v, λ ∈ R . Verifichiamo se l’applicazione fv soddisfa le due proprieta’. 1. f (λ1 + λ2 ) = (λ1 + λ2 ) ∗ v = λ1 ∗ v + λ2 ∗ v = f (λ1) + f (λ2) Capitolo 9. Applicazioni lineari 112 / 258 2. Per l’associatività del prodotto per scalari: f (λ ∗ η) = λ ∗ η ∗ v = λ ∗ (η ∗ v) = λ ∗ f (η) L’applicazione soddisfa le due proprietà, quindi f (R → V ) e’ lineare. In generale, le applicazioni lineari da R in V sono tutte e sole quelle della forma f (λ) = λ ∗ v al variare di λ ∈ R per v ∈ V , fissato, con v = f (1) . Le applicazioni lineari da R in V sono in corrispondenza biunivoca con gli elementi di V . 9.1.3 Applicazioni lineari colon R2 → R2 Descriviamo le applicazioni lineari : R2 → R2 . Consideriamo la base canonica di R2 , B = {e1 , e2 } , e poniamo v1 = f (e1 ), v2 = f (e2 ) . Allora per ogni (x, y) ∈ R2 si ha che f ((x, y)) = f (x ∗ e1 + y ∗ e2 ) = x ∗ f (e1 ) + y ∗ f (e2 ) = x ∗ v1 + y ∗ v2 Viceversa siano dati v1 , v2 ∈ R2 e definiamo un’applicazione f : R2 → R2 ponendo f (x, y) = x ∗ v1 + y ∗ v2 . Allora quest’applicazione è lineare, infatti f [(x, y) + (x′ , y ′ )] = f (x + x′ , y + y ′ ) = (x + x′ ) ∗ v1 + (y + y ′ ) ∗ v2 = (x ∗ v1 + y ∗ v2 ) + (x′ ∗ v1 + y ′ ∗ v2 ) = f (x, y) + f (x′ + y ′ ). Allo stesso modo f (λ) = f (λ ∗ x, λ ∗ y) = λ ∗ x ∗ v1 + λ ∗ y ∗ v2 Per associatività ottengo: = λ ∗ x ∗ v1 + λ ∗ y ∗ v2 Per distributività: =λ Concludo che tutte le applicazioni lineari di R2 sono della forma f ((x, y)) = x ∗ v1 + y ∗ v2 con v1 = f (e1 ) e v2 = f (e2 ) . 9.1.4 Applicazioni lineari sul quoziente Sia V uno spazio vettoriale e sia W in V un sottospazio vettoriale. Sia V /W lo spazio vettoriale quoziente in base alla relazione R tale che v ∼ v ′ ⇐⇒ v−v ′ ∈ W . Capitolo 9. Applicazioni lineari 113 / 258 Sia π : V → V /W la funzione che associa a v la sua classe di equivalenza. π(λv1 + λ′ ∗ v2 ) = Per la definizione di somma di classi di equivalenza si ha che = [λ ∗ v1 + λ′ ∗ v2 ] = [λ ∗ v1] + [λ′ ∗ v2 ] = = λ ∗ [v1 ] + λ′ ∗ [v2 ] = λ ∗ π(v1 ) + λ′ ∗ π(v2 ) quindi π(V → V /W ) e’ un’applicazione lineare. Osservazione 9.1 Sia F : V → W lineare. Allora f (0) e’ necessariamente il vettore nullo di W . 9.2 Nucleo e spazio immagine 9.2.1 Definizione di nucleo ed esempi Definizione 9.2 Siano V , W spazi vettoriali su K . Sia f : V → W un’applicazione lineare. Allora il nucleo (o kernel) di f (indicato con ker f ) è il sottoinsieme di V così definito: è l’insieme di tutti i vettori nel dominio che hanno come immagine il vettore nullo dello spazio di arrivo. È la controimmagine del vettore nullo in V . Esempio 9.1 Se considero l’applicazione f : R → V tale che f (λ) = λ ∗ v per un certo v ∈ V fissato, il nucleo di f e’ l’insieme dei λ tali per cui λ ∗ v = 0 . In questo caso il nucleo e’ 0R se v ̸= 0 , e’ tutto R se v = 0 . Esempio 9.2 Prendo f : R2 → R2 data da f (x, y) = x ∗ v1 + y ∗ v2 . Se v1 , v2 sono linearmente indipendenti, il nucleo e’ il vettore nullo di R2 . Se v1 = v2 = 0 il nucleo e’ R2 . Supponiamo che v1 , v2 non siano entrambi uguali a 0. Sia v1 ̸= 0, v1 = λ ∗ v2 . Allora f (x, y) = x ∗ v1 + y ∗ v2 = x ∗ λ ∗ v2 + y ∗ v2 = (x ∗ λ + y) ∗ v2 Allora ker(f ) = {(x, y), t.c. y = −λ ∗ x} = {(x, −λ ∗ x), x ∈ R} = span{(1, −λ)} Capitolo 9. Applicazioni lineari 114 / 258 Esempio 9.3 Nel caso della mappa quoziente π : V → V /W il nucleo di π e’ l’insieme dei v ∈ V tali che [v] = 0V /W .’E’ l’insieme dei vettori v ∼ 0V , e quindi coincide con W . 9.2.2 Nucleo come sottospazio vettoriale Proposizione 9.1 Sia f : V → W un’applicazione lineare fra spazi vettoriali. Allora ker(f ) e’ un sottospazio vettoriale di V . Dimostrazione 9.1 f (0V ) = 0W , quindi certamente 0V appartiene al nucleo di f che e’ non vuoto. Inoltre per ogni v1 , v2 ∈ ker(f ) e per ogni λ1 , λ2 ∈ R segue che f (λ1 ∗ v1 + λ2 ∗ v2 ) = λ1 ∗ f (v1 ) + λ2 ∗ f (v2 ) per definizione di applicazione lineare, ma se v1 e’ nel nucleo f (v1 ) e’ 0, e lo stesso vale per v2 , quindi = λ1 ∗ 0W + λ2 ∗ 0W = 0W e λ1 ∗ v1 + λ2 ∗ v2 e’ anch’esso un elemento del nucleo. Q.E.D 9.2.3 Definizione di spazio immagine ed esempi L’altro spazio associato a un’applicazione lineare e’ lo spazio immagine, ovvero l’insieme dei trasformati dei vettori di V . Definizione 9.3 Se f : V → W e’ un’applicazione lineare, lo spazio immagine e’ l’insieme di f (v) al variare di v ∈ V . Esempio 9.4 Se F : R → V e’ data da f (λ) = λ ∗ v, λ ∈ R e v fissato, allora lo spazio immagine e’ l’insieme dei vettori λ ∗ v al variare di λinR , cioè l’immagine è lo span di v . E’ il sottospazio nullo se v = 0 e un sottospazio di dimensione 1 se v ̸= 0 . Esempio 9.5 Se v1 , v2 sono in R2 fissati e f : R2 → R2 e’ un’applicazione tale che f ((x, y)) = x ∗ v1 + y ∗ v2 , lo spazio immagine e’ la collezione delle combinazioni lineari di v1 e v2 , quindi e’ span{v1 , v2 } . Capitolo 9. Applicazioni lineari 115 / 258 Se v1 e v2 sono linearmente indipendenti, ker(f ) = 0 , l’immagine e’ tutto R2 . se v1 = v2 = 0 allora il nucleo e’ tutto R2 , lo spazio immagine e’ il vettore nullo. Se v2 ̸= 0 e v1 = λ ∗ v2 , il nucleo e’ span{(1, −λ)} e lo spazio immagine e’ (x ∗ λ + y) ∗ v2 . E’ l’insieme dei multipli scalari di v2 , quindi e’ span{v2 } . Osservazione 9.2 Gli esempi mostrano che la dimensione di uno spazio vettoriale e’ pari alla somma della dimensione del nucleo e di quella dello spazio immagine. All’aumentare della dimensione del nucleo diminuisce quella dello spazio immagine e viceversa. Esempio 9.6 Se prendiamo π : V → V /W , π porta ogni elemento nella sua classe di equivalenza, quindi lo spazio immagine e’ l’insieme delle classi di equivalenza ed e’ tutto V /W . 9.2.4 Immagine come sottospazio vettoriale Proposizione 9.2 Sia f : V → W un’applicazione lineare di spazi vettoriali, allora lo spazio immagine di f e’ in realta’ un sottospazio vettoriale. Dimostrazione 9.2 f (0V ) = 0W , quindi 0W appartiene allo spazio immagine che e’ non vuoto. Se w1 , w2 appartengono allo spazio immagine e λ1 , λ2 sono numeri reali, allora per definizione di spazio immagine esistono v1 , v2 ∈ V tali che w1 = f (v1 ), w2 = f (v2 ) . Allora la combinazione lineare λ1 ∗ w1 + λ2 ∗ w2 = λ1 ∗ f (v1 ) + λ2 ∗ f (v2 ) = f (λ1 ∗ v1 + λ2 ∗ v2 ) perché f e’ un’applicazione lineare quindi λ1 ∗ w1 + λ2 ∗ w2 appartiene allo spazio immagine perche’ e’ il trasformato di qualche vettore di V . Q.E.D 9.2.5 Applicazione iniettiva Lemma 9.1 Sia f : V → W lineare. Allora f e’ iniettiva se e solo se il nucleo di f consiste del solo vettore nullo di V . Dimostrazione 9.3 Capitolo 9. Applicazioni lineari 116 / 258 1 −→ 2 : Se f e’ iniettiva, dato che f (0V ) = 0W , il nucleo di f essendo la controimmagine di 0W non può contenere altri vettori a parte 0V , quindi ker(f ) = 0V . 2 −→ 1 : Viceversa supponiamo che ker(f ) consista del solo vettore nullo. Siano v, v ′ ∈ V tali che f (v) = f (v ′ ) . Allora f (v) − f (v ′ ) = 0W Questo si può scrivere f (v + (−1) ∗ v ′ ) = 0W f (v − v ′ ) = 0W quindi v − v ′ appartiene al nucleo di f , che per ipotesi consiste del solo vettore nullo, allora v − v ′ = 0V quindi v = v ′ . Q.E.D 9.3 Rango di un’applicazione 9.3.1 Definizione e osservazioni sul rango Definizione 9.4 Siano V e W spazi vettoriali finito-dimensionali. Sia f : V → W un’applicazione lineare, allora il rango di f ( rg ) è la dimensione dello spazio immagine di f . Lo spazio immagine e’ un sottospazio di W , quindi la dimensione dello spazio immagine e’ sicuramente minore o uguale di quella di W e vale l’uguale se e solo se f e’ suriettiva. Se inoltre d e’ la dimensione di V , si può considerare la base di V B = {v1 , . . . , vd } . Lo spazio immagine di f è l’insieme di tutti i trasformati {f (v), v ∈ V } . D’altra parte v e’ combinazione lineare dei vettori della base quindi posso scrivere: ∑ f (v) = f ( j = 1d αj ∗ vj ) al variare degli αj in R . Siccome f è lineare: f (v) = d ∑ αj ∗ f (vj ) j=1 Quindi lo spazio immagine di f e’ span{f(v1 ), . . . , f(vd )} . Concludo che la dimensione dello spazio immagine di f è minore o uguale della dimensione di V , in ogni caso il rango di f è sempre minore o uguale del minimo tra la dimensione del dominio e la dimensione del codominio. Osservazione 9.3 Capitolo 9. Applicazioni lineari 117 / 258 Il rango di f e’ uguale alla dimensione di V quando l’applicazione e’ iniettiva. Dimostrazione 9.4 rg = dimV se e solo se f (v1 ), . . . , f (vd ) sono linearmente indipendenti, quindi se e solo se vale l’implicazione seguente: x1 ∗ f (v1 ) + xd ∗ f (f vd ) = 0W se e solo se gli xi sono tutti nulli. Siccome x1 ∗ f (v1 ) + xd ∗ f (vd ) = f (x1 ∗ v1 + xd ∗ vd ) = f (v) , segue che f (v) = 0W solo se gli scalari sono tutti nulli, quindi solo se v = 0 , e quindi solo se il nucleo è ridotto al vettore nullo e f è iniettiva. Q.E.D 9.3.2 Teorema del rango Teorema 9.1 In generale, siano V e W spazi vettoriali finito-dimensionali. Sia f : V → W un’applicazione lineare. Allora la somma della dimensione dello spazio immagine di f e della dimensione del ker di f è uguale alla dimensione dello spazio di partenza. Osservazione 9.4 Verifichiamo il teorema in due casi particolari. 1. se ker(f ) = 0V in effetti la dimensione di Im e’ uguale alla dimensione di V . 2. Se dim(ker(f )) = dim si ha ker(f ) = V , quindi f è l’applicazione identicamente nulla. f (v) = 0W ∀v ∈ V . Quindi lo spazio immagine di f è uguale al vettore nullo. La dimensione dello spazio immagine di f è uguale a 0. Dimostrazione 9.5 Verifichiamo il teorema nei casi intermedi, cioè 1 ≤ dim ker f ≤ d con d = dimV . Sia c la dimensione del ker e sia B = {u1 , . . . , uc } una base di ker(F ) . Per il teorema della base incompleta esistono v1 , . . . , vd−c ∈ V tali che B = {u1 , . . . , uc , v1 , . . . , vd−c } e’ una base di V . Allora lo spazio immagine di f e’ generato dai trasformati f (v) (questo vale per qualsiasi base). Im = span{f(u1 ), . . . , f(uc ), f(v1 ), . . . , f(vd−c )} Capitolo 9. Applicazioni lineari 118 / 258 Allora f (u1 ), . . . , f (uc ) sono uguali a 0W perché sono una base del ker . Concludo che l’immagine di f e’ uguale a span{f(v1 ), . . . , f(vd−c )} (i vettori nulli non contano). La dimensione dell’immagine di f e’ minore o uguale di d − c , quindi minore o uguale di dim(Imf )−dim e vale l’uguale se i vettori f (v1 ), . . . , f (vd−c sono linearmente indipendenti (si potrebbe pensare che applicando f a vettori linearmente indipendenti la lineare indipendenza venga persa). Siano quindi α1 , . . . , αd−c scalari tali che α1 ∗ f (v1 ) + · · · + αd−c ∗ f (vd−c ) = 0W . Siccome f e’ lineare, Questi implica che ∑ d−c ∑ αi f (vi ) = f ( vi ∗ αi ) = 0W i i=1 ∑d−c i=1 αi ∗ vi appartengono al ker di f . Esistono β1 , βc ∈ R tali che d−c ∑ i=1 ∑ αi ∗ vi = c ∑ βi ∗ vi i=1 ∑ Quindi −βi ∗ ui + αi ∗ vi = 0V ma questi vettori presi insieme formano una base di V , quindi se una combinazione lineare di vettori linearmente indipendenti è uguale il vettore nullo, significa che tutti gli scalari sono nulli. Quindi la stringa ordinata f (v1 ), . . . , f (vd−c ) e’ una base di Im(f ) e la dimensione dell’immagine di f è dim(V ) − dim(ker f ) . cvd 9.3.3 Applicazioni del teorema del rango Esempio 9.7 Sia V uno spazio vettoriale finitodimensionale e sia W un sottospazio vettoriale di V . Consideriamo la proiezione da V al quoziente V /W . Questa e’ un’applicazione lineare, suriettiva, e il suo nucleo e’ tutto W . Applicando il teorema la dimensione dello spazio immagine V /W e’ data da dim − dim . Ma il ker e’ W , quindi otteniamo dimV /W = dimV − dimW , cioè il teorema del rango conferma quanto già dimostrato in precedenza relativamente alla dimensione dello spazio quoziente. Esempio 9.8 Siano a1 , . . . , ad in R non tutti nulli. Consideriamo l’applicazione f : Rd , R tale che f (X) = f ((x1 , . . . , xd )) = a1 ∗ x1 + ad ∗ xd = (a1 , . . . , ad ) · X. Capitolo 9. Applicazioni lineari 119 / 258 Questa applicazione è lineare infatti f (λ + η(y1 , . . . , yd )) = λ ∗ x1 ∗ α1 + · · · + λ ∗ xd ∗ αd + η ∗ y1 ∗ α1 + · · · + η ∗ yd ∗ αd = Raccolgo λ e η λ ∗ (x1 ∗ α1 + xd ∗ αd ) + η ∗ (y1 ∗ α1 + yd ∗ αd ) = e applicando a ritroso la definizione di f ottengo: λ ∗ f (x1 , . . . , xd ) + η ∗ f (y1 , . . . , yd ) = f è suriettiva, infatti sia per esempio αj ̸= 0 . Allora applicando f al vettore con tutte le coordinate nulle tranne la j-esima che e’ λ , si ha a1 ∗ 0 + a2 ∗ 0 + aj ∗ λ = aj λ ∈ R Qualsiasi numero reale appartiene all’immagine, quindi Im e’ tutto R . Allora ker(f ) = {(x1 , . . . , xd ) t.c. ∑ ai ∗ xi = 0} i (iperpiano o complemento ortogonale del vettore A ). In base al teorema del rango dim ker f = dimRd − dimImf = dimRd − dimR = d − 1 come gia’ calcolato. Esempio 9.9 Sia f : Rd [x] → R tale che f (p(x)) = p(λ) per λ ∈ R fissato. Il polinomio p(x) = p0 + p1 ∗ x + pd ∗dx viene mappato da f in p0 + p1 (λ) + pd ∗ λd . f e’ lineare infatti f (p(x) + q(x)) = f (p0 + p1 ∗ x + pd ∗ xd + q0 + q1 ∗ x + qd ∗ xd ) = f (p(x) + q(x)) = f ((p0 + q0 ) + (p1 + q1 ) ∗ x + · · · + ∗xd ) = f (p(x) + q(x)) = p0 + q0 + (p1 + q1 ) ∗ λ + · · · + ∗λd f (p(x) + q(x)) = p0 + λ ∗ p1 + · · · + λ ∗ pd + q0 + λ ∗ q1 + · · · + λd ∗ qd f (p(x) + q(x)) = f (p(x)) + f (q(x)) prima proprieta’ verificata µ ∗ f (p(x)) = µ ∗ f (p0 + p1 ∗ x + pd ∗ xd ) µ ∗ f (p(x)) = µ ∗ (p0 + p1 ∗ λ + pd ∗ λd ) Capitolo 9. Applicazioni lineari 120 / 258 µ ∗ f (p(x)) = µ ∗ p0 + µ ∗ p1 ∗ λ + · · · + µ ∗ pd ∗ λd µ ∗ f (p(x)) = f (µ ∗ p(x)) seconda proprieta’ verificata Il nucleo è dato da ker f = {p(x) t.c.p(λ) = 0} cioè è l’insieme dei polinomi di cui λ e’ una radice. Prendo p0 ∈ R e considerato come un polinomio di grado 0: se applico f (λ) a p0 ottengo p0 stesso, quindi l’applicazione è suriettiva, perché ogni numero reale può essere considerato come un polinomio di grado 0 e rientra quindi nell’immagine. Applicando il teorema del rango, per l’insieme Iλ dei polinomi che hanno come radice λ , che coincide con il nucleo, si ha dimIλ = dim ker f = dimRd [x] − dim = d + 1 − 1 = d Questo era gia’ stato dimostrato precedentemente, quando era stato stabilito che una base di Iλ e’ data dai vettori (x − λ), x(x − λ), . . . , xd−1 ∗ (x − λ) . 9.4 Controimmagine di un vettore 9.4.1 Struttura della controimmagine Supponiamo di avere un’applicazione lineare f : V → W . Vogliamo indagare la struttura delle controimmagini dell’insieme costituito da solo w , scritta come f −1 (w) al variare di w ∈ W . NotaIl simbolo f −1 (x) rappresenta la controimmagine, non sto supponendo che la mappa sia invertibile. Osservazione 9.5 Se w e’ il vettore nullo, la controimmagine di w e’ precisamente il nucleo di f per definizione. Osservazione 9.6 Se w non appartiene allo spazio immagine, la sua controimmagine e’ l’insieme vuoto. Bisogna capire com’e’ fatta la controimmagine di w se w appartiene allo spazio immagine ed e’ diverso dal vettore nullo. Teorema 9.2 Se la controimmagine di w e’ non vuota, allora per qualsiasi v0 ∈ f −1 w fissato si ha che la controimmagine di w e’ il traslato del ker per v0 , cioè f −1 (w) = {v0 + v, v ∈ ker(f )}. Capitolo 9. Applicazioni lineari 121 / 258 Dimostrazione 9.6 Inclusione 1: Sia w un elemento dello spazio immagine, quindi la controimmagine di w e’ non vuota, ossia esiste v0 ∈ V t.c.f (v0 ) = w . Allora se v e’ un generico elemento del nucleo di f , si ha f (v + v0 ) = f (v) + f (v0 ) , ma f (v) = 0W , quindi rimane f (v + v0 ) = f (v0 ) = w . In altre parole, se v0 appartiene alla controimmagine di w , allora anche v0 + v appartiene alla controimmagine di w per ogni v nel nucleo di f , cioe’ il traslato del nucleo di f mediante v0 e’ contenuto nella controimmagine di w . Inclusione 2: Viceversa, per ogni v nella controimmagine di w , si ha f (v) = w = f (v0 ) . Quindi f (v0 ) − f (v) = f (v0 − v) . f (v0 ) − f (v) = w − w = 0W = f (v0 − v) Pertanto v0 − v appartiene al nucleo di f . v = v0 + v − v0 e’ un elemento del ker quindi v appartiene al traslato v0 + ker f , quindi Imf ⊂ v0 + ker f . Avendo dimostrato le due inclusioni segue che la controimmagine di w e’ proprio uguale a v0 + ker f , cioe’ al traslato del nucleo mediante v . cvd 9.4.2 Definizioni ed esempi sulla controimmagine Definizione 9.5 Data f : V → W lineare, la controimmagine di w ∈ W e’ il sottospazio affine con giacitura ker(f ) con punto di passaggio v0 tale che f (v0 ) = w . La controimmagine di w e’ l’insieme delle soluzioni dell’equazione lineare f (v) = w. v0 e’ una soluzione particolare di quest’equazione mentre ker(f ) e’ l’insieme delle soluzioni dell’equazione lineare omogenea f (v) = 0W . In altre parole, la soluzione generale dell’equazione lineare f (v) = w supposta compatibile (la controimmagine di w e’ non vuota per ipotesi) e’ data dalla somma di una soluzione particolare dell’equazione datapiu’ la soluzione generale della corrispondente equazione lineare omogenea. Esercizio 9.1 Consideriamo f : R2 → R2 e poniamo determinare la controimmagine f −1 (w) al variare di w ∈ W . Struttura dell’immagine: f si può riscrivere come f (x, y) = x ∗ (1, −2) + y(2, −4) se pongo x = f (e1 ) e y = f (e2 ) si ha: Capitolo 9. Applicazioni lineari 122 / 258 f (x, y) = f (e1 ) ∗ (1, −2) + f (e2 ) ∗ (2, −4) Lo spazio immagine e’ lo span dei due vettori, ma siccome sono linearmente dipendenti e’ lo span di (1, −2) . Il rango di f e’ 1 . Caso 1: Se poniamo (a, b) non appartenente allo span di (1, −2) , la controimmagine di (a, b) mediante f e’ l’insieme vuoto. La dimensione del ker e’ 2 − rg(f) = 1 per il teorema. Conta solo la prima equazione, perche’ hanno le stesse soluzioni. x = −2y Il nucleo e’ span{(−2, 1)} . Caso 2: Supponiamo (a, b) appartenente all’immagine di f . Allora (a, b) = λ ∗ (1, −2) , quindi (a, b) = (λ, −2λ) per qualche λ ∈ R . La controimmagine di (a, b) e’ non vuota e dev’essere un traslato del ker, è data dalle soluzioni del sistema La seconda equazione e’ la prima moltiplicata per −2 , quindi hanno le stesse soluzioni. f −1 (a, b) = {(x, y) t.c.x = λ − 2y} La controimmagine e’ {(λ − 2y, y)} , al variare di y ∈ R . f −1 ((a, b)) = {(λ, 0) + y(−2, 1), y ∈ R} E’ la retta con punto di passaggio (λ, 0) e vettore direzione (−2, 1) . Quindi f −1 ((a, b)) è il traslato di span{(−2, 1)} mediante il vettore (λ, 0) . f −1 ((a, b)) = (λ, 0) + ker(f ) (λ, 0) e’ una soluzione particolare di f (v) = (a, b) . Esercizio 9.2 Prendo f : R3 → R2 , e definisco Determinare le controimmagini di v al variare di v ∈ R2 . Immagine di f : f (x, y, z) = {(x, y, z) t.c. x(1, 1) + y(−1, 1) + z(1, 2)}. L’immagine di f e’ tutto R2 , perche’ ho tre vettori linearmente indipendenti in uno spazio bidimensionale. La dimensione dell’immagine e’ 2, quella del ker e’ 1. Determinazione delle controimmagini: La controimmagine di un generico (a, b) in R2 e’ l’insieme: Risolvo il sistema lineare utilizzando la matrice corrispondente e il metodo dell’eliminazione di Gauss. 1 −1 1 a 1 1 2 b Capitolo 9. Applicazioni lineari 123 / 258 a2 = a2 − a1 1 −1 1 a 0 2 1 b−a z e’ una variabile indipendente. Pongo z = t I vettori della controimmagine sono quelli della forma: {(x, y, z) t.c. x = y − t − a, 2y = −t − b + a, z = t} {(x, y, z) t.c. x = y − t − a, y = −t/2 − b/2 + a/2, z = t} {(x, y, z) t.c. x = −t/2 − b/2 + a/2 − t − a, y = −t/2 − b/2 + a/2, z = t} {(x, y, z) t.c. x = −3t/2 − b/2 − a/2, y = −t/2 − b/2 + a/2, z = t} {(−(a + b)/2, (a − b)/2, 0) + t(−3/2, −1/2, 1)} Per trovare il ker pongo a = 0, b = 0 . Ottengo che il ker e’ lo span del vettore (−3, −1, 2) . Quindi le controimmagini sono rette con un certo punto di passaggio e con vettore direzione (−3, −1, 2) . 9.5 Applicazioni lineari tra due spazi vettoriali 9.5.1 Applicazioni coincidenti Teorema 9.3 Sia V finitodimensionale. Siano V , W spazi vettoriali e sia d la dimensione di V . Sia B = {v1 , . . . , vd } una base e siano f e g da V in W lineari. Allora f = g se e solo se f (vi ) = g(vi ) per ogni i = 1, . . . , d . Dimostrazione 9.7 Se v e’ un generico elemento di V , siano α1 , . . . , αd ∈ R le sue coordinate nella ∑ base B . Allora v = di=1 αi ∗ vi , quindi f (v) = d ∑ αi ∗ f (vi ) i=1 ma f (vi ) = g(vi ) quindi f (v) = d ∑ αi ∗ g(vi ) i=1 Uso la linearita’ nella direzione opposta d ∑ f (v) = g( αi ∗ vi ) = g(v) i=1 Capitolo 9. Applicazioni lineari 124 / 258 Conclusione: g(v) = f (v) per ogni v ∈ V . cvd In altre parole, Due applicazioni lineari coincidono se e solo se coincidono sui vettori di una base. 9.5.2 Unicità dell’applicazione lineare da V in W Siano B = (v1 , . . . , vd ) una base di V e siano w1 , . . . , w∑ d ∈ W vettori arbitrari. Il generico elemento v ∈ V si puo’ esprimere come v = di=1 αi ∗ vi . Definiamo ∑ f (v) = di=1 αi ∗ wi = w . f : V → W e’ un’applicazione ben definita, perche’ a ogni elemento di V associa uno e un solo elemento di W . Osserviamo che in particolare f (0V ) = 0W , perche’ le coordinate sono tutte nulle. Verifico che l’applicazione f è lineare: Siano v, v ′ ∈ V e siano α = (α1 , . . . , αd ) e α′ = (α1′ , . . . , αd′ ) rispettivamente i vettori colonna di v e v ′ nella base B . Allora per ogni scelta di λ, λ′ ∈ R λ ∗ v + λ′ ∗ v ′ = λ ∗ ∑ αi ∗ v i + λ ′ ∗ ∑ αi′ ∗ vi Il coefficiente di ogni vi e’ λ ∗ αi + λ′ ∗ αi′ . f (λ ∗ v + λ′ ∗ v ′ ) = ( ∑ λ ∗ αi + λ′ ∗ αi′ ) ∗ wi = λ ∗ ∑ α i ∗ wi + λ ′ ∗ ∑ αi′ ∗ wi f (λ ∗ v + λ′ ∗ v ′ ) = λ ∗ f (v) + λ′ (f (v ′ ) Pertanto vale il seguente Teorema 9.4 Sia V uno spazio vettoriale d -dimensionale con d finito e almeno 1. Sia B = {v1 , . . . , vd } una base di V , Allora per ogni spazio vettoriale W e per ogni scelta di w1 , . . . , wd elementi di W , esiste ed e’ unica un’applicazione lineare f : V → W tale per cui f (vi ) = wi ∀i = 1, . . . , d . Dimostrazione 9.8 ∑d ∑ Poniamo f (v) = αi ∗ vi . Gli αi sono univocamente i=1 αi ∗ wi se v = determinati. Come dimostrato sopra f e’ ben definita e lineare. Per dimostrare l’unicita’ di f , se f e g da V in W sono lineari, soddisfano la stessa condizione, sono t.c. f (vi ) = g(vi ) = wi per i = 1, . . . , d . Ma questo implica che f = g perche’ le due applicazioni sono uguali sui vettori di una base. cvd Capitolo 9. Applicazioni lineari 125 / 258 9.5.3 Esistenza di un’applicazione suriettiva Proposizione 9.3 Sia V uno spazio vettoriale d -dimensionale e sia c ≥ d . Allora esiste f : Rc → V suriettiva. Dimostrazione 9.9 Sia {v1 , . . . , vd } una base di V . Consideriamo la base canonica di Rc , {e1 , . . . , ec } . Sia per esempio f : Rc → V l’unica applicazione lineare tale che f (e1 ) = v1 ... f (ed ) = vd f (ej ) = 0V , ⇐⇒ j > d Allora questa e’ l’unica applicazione lineare tale che l’immagine di f e’ span{v1 , . . . , vd } . {v1 , . . . , vd } per ipotesi e’ una base di V , quindi lo span di questi vettori e’ tutto V e f è suriettiva. cvd 9.5.4 Esistenza di un’applicazione iniettiva Proposizione 9.4 Siano V e W spazi vettoriali finitodimensionali. Supponiamo che dimV ≤ dimW . Allora esiste f : V → W lineare e iniettiva. Dimostrazione 9.10 Sia d la dimensione di V , c la dimensione di W . Allora d ≤ c . Sia Bd = {v1 , . . . , vd } una base di V . Siccome d ≤ c esistono w1 , . . . , wd ∈ W linearmente indipendenti. Sia f : V → W l’unica applicazione lineare tale che f (vi ) = wi ∀i = 1, . . . , d . Allora l’immagine di f e’ lo span dei trasformati dei vettori di una base dello spazio di partenza, quindi e’ span{f(v1 ), . . . , f(vd )} . La dimensione di Im(f ) e’ uguale a d , perche’ i vettori sono linearmente indipendenti. Allora per il teorema del rango la dimensione del nucleo e’ necessariamente 0 quindi la funzione e’ iniettiva. cvd 9.5.5 Esistenza di un’applicazione biunivoca In particolare, se c = d l’applicazione lineare appena costruita non e’ solo iniettiva, ma anche suriettiva, quindi e’ biunivoca, perche’ {w1 , . . . , wd } e’ una base di W . Capitolo 9. Applicazioni lineari 126 / 258 Teorema 9.5 Se V e W sono spazi vettoriali finitodimensionali, allora dimV = dimW se e solo se esiste un’applicazione lineare f : V → W biunivoca. Corollario 9.1 Siano V e W spazi vettoriali finitodimensionali e supponiamo che dimV = dimW . Allora se f : V → W e’ lineare si ha che f e’ biunivoca se e solo se vale una delle due condizioni: f e’ iniettiva o f e’ suriettiva. Dimostrazione 9.11 Per l’ipotesi e per il teorema del rango: dim(ker f ) + dim = dimV = dimW Dimostro che f è iniettiva se e solo se f è suriettiva. f e’ iniettiva se e solo se la dimensione del ker e’ 0, questo equivale a dire che dim(Imf ) = dimV = dimW , quindi ImF = W . Quindi f e’ anche suriettiva. cvd 9.6 Isomorfismo Definizione 9.6 Se f : V → W e’ lineare e biunivoca, diremo che f e’ un isomorfismo tra V e W e V e’ isomorfo a W . (se V e’ isomorfo a W , allora W e’ isomorfo a V ) Teorema 9.6 Sia f : V → W un isomorfismo lineare (di conseguenza f e’ biunivoca quindi ammette un’applicazione inversa). Allora l’applicazione inversa f −1 : W → V e’ anch’essa un’applicazione lineare. Dimostrazione 9.12 Dobbiamo verificare che per ogni scelta di w, w′ ∈ W e di λ, λ′ ∈ R si ha che f −1 (λ ∗ w + λ′ ∗ w′ ) = λ ∗ f −1 (w) + λ′ ∗ f −1 (w′ ) Applicando f al secondo membro: f (λ ∗ f −1 (w) + λ′ ∗ f −1 (w′ )) = λ ∗ f ◦ f −1 (w) + λ′ ∗ f ◦ f −1 (w′ ) Si ha che f ◦ f −1 (w) = id(w) e f ◦ f −1 (w′ ) = id(w′ ) . quindi ottengo: Capitolo 9. Applicazioni lineari 127 / 258 f (λ ∗ f −1 (w) + λ′ ∗ f −1 (w′ )) = λ ∗ w + λ′ ∗ w′ Concludo che λ ∗ f −1 (w) + λ′ ∗ f −1 (w′ ) e’ la controimmagine di λ ∗ w + λ′ ∗ w′ . Questo vale per ogni w, w′ ∈ W, λ, λ′ ∈ R , quindi f −1 e’ lineare. cvd Capitolo 10. Prodotto tra matrici 128 / 258 Capitolo 10 Prodotto tra matrici 10.1 Applicazioni lineari tra spazi euclidei 10.1.1 Prodotto matrice per vettore Sia Ck = {e1 , . . . , ek } la base canonica di Rk . Siano A1 , . . . , Ak elementi di Rl , della forma Aj = (aj1 , aj2 , . . . , ajl ) . Sia f : Rk → Rl l’unica applicazione lineare t.c. f (ej ) = Aj . Esplicitamente, Scritto come un unico vettore: Definizione 10.1 Sia A una matrice l × k e sia X = (x1 , . . . , xk ) un vettore colonna in Rk . Il prodotto matrice per vettore A · X ∈ RL ha come risultato il seguente vettore colonna: Quindi possiamo riscrivere f : Rk → Rl lineare come f (X) = A ∗ X , con X = (x1 , . . . , xk ) (vettore colonna) dove A e’ la matrice che ha per colonne A1 , . . . , Ak . Definizione 10.2 Lo spazio delle matrici l × k a coefficienti in R si indica con la notazione Ml,k (R) . 10.1.2 Corrispondenza biunivoca tra applicazioni lineari e matrici Le applicazioni lineari f : Rk → Rl sono tutte e sole quelle della forma: f (X) = A ∗ X per qualche matrice l × k . In particolare data una qualsiasi A in Ml,k (R) l’applicazione lineare corrispondente che porta X in Rk nel prodotto A ∗ X ∈ Rl e’ l’unica applicazione che porta un vettore della base canonica nella corrispondente colonna della matrice. E’ l’unica tale che f (e1 ) = A1 , . . . , fa (ek ) = Ak dove gli ej costituiscono la base canonica di Rk . Capitolo 10. Prodotto tra matrici 129 / 258 C’e’ una corrispondenza biunivoca tra le applicazioni lineari f : Rk → Rl e lo spazio Ml,k (R) . 10.1.3 Nucleo immagine e controimmagine Osservazione 10.1 Se A = [A1 , . . . , Ak ] sta in Ml,k (R) e LA e’ la corrispondente applicazione lineare tale che X 7→ A ∗ X , allora lo spazio immagine di LA e’ span{LA (e1 ), . . . , LA (ek )} dove LA (e1 ) e’ la prima colonna di A e così via. In altre parole lo spazio immagine e’ lo span delle colonne della matrice. Ricaviamo che il rango di LA e’ la dimensione dello span delle colonne, e quindi è il rango della matrice A associata. Osservazione 10.2 Il nucleo di LA e’ {X ∈ Rk t.c. A ∗ X = 0Rl }. Quindi ker LA e’ precisamente lo spazio delle soluzioni del sistema lineare omogeneo di l equazioni in k incognite: Il teorema del rango si puo’ riesprimere in questo caso: la dimensione dello spazio delle soluzioni del sistema lineare omogeneo definito da A sommato al rango per colonne di A e’ uguale a k (numero delle colonne) se A e’ una matrice l × k . Osservazione 10.3 Se prendo v = (v1 , . . . , vl ) ∈ Rl , la controimmagine di v e’ il vuoto se v non appartiene allo span delle colonne di A . Se v appartiene allo span delle colonne di A , allora la controimmagine di v e’ l’insieme di X ∈ Rk t.c.LA (X) = v cioè tali che A ∗ X = v , quindi e’ l’insieme La controimmagine di v e’ lo spazio delle soluzioni del sistema lineare non omogeneo di l equazioni in k incognite. Ricaviamo che dato un sistema lineare di l equazioni in k incognite della forma il sistema e’ compatibile (ammette soluzioni) se e solo se il vettore v appartiene allo span delle colonne della matrice che definisce il sistema. a11 . . . a1k ... ... ... al1 . . . alk e in tal caso Lo spazio delle soluzioni e’ un traslato dello spazio delle soluzioni del sistema lineare omogeneo (con vi = 0 per ogni i ), che e’ il nucleo dell’applicazione lineare. La soluzione generale del sistema non omogeneo e’ la soluzione particolare sommata alla soluzione generale del sistema lineare omogeneo. Capitolo 10. Prodotto tra matrici 130 / 258 10.2 composizione di applicazioni lineari 10.2.1 Linearità della composizione Teorema 10.1 Siano V , W , T spazi vettoriali e siano f : V → W e g : W → T applicazioni lineari. Allora la composizione g ◦ f : V → T e’ ancora lineare. Dimostrazione 10.1 Siano v1 , v2 elementi di V e λ1 , λ2 elementi di K . Allora (g ◦ f )(λ1 ∗ v1 + λ2 ∗ v2 ) = g(f (λ1 ∗ v1 + λ2 ∗ v2 )) ma siccome f e’ lineare, = g[λ1 ∗ f (v1 ) + λ2 ∗ f (v2 )] Sfruttando la linearita’ di g ottengo = λ1 ∗ g(f (v1 )) + λ2 (g(f (v2 )) λ1 ∗ (g ◦ f )(v1 ) + λ2 ∗ (g ◦ f )(v2 ) quindi g ◦ f è lineare. cvd 10.2.2 composizione di applicazioni lineari e matrici Sia V = Rk , W = Rl , T = Rp . L’applicazione f : Rk → RL lineare corrisponde a una matrice l × k , in altre parole esiste un’unica matrice B ∈ Ml,k (R) tale che f = LB ossia f (x) = B ∗ X per ogni X ∈ Rk . Allo stesso modo data g : Rl → Rp , esiste ed e’ unica una matrice A ∈ Mp,l (R) tale che g = LA , ossia g(Y ) = A ∗ Y al variare di Y ∈ Rl . Siccome (g ◦ f ) : Rk → Rp e’ lineare, allora esiste ed e’ unica una matrice C ∈ Mp,k (R) tale che g ◦ f = LC , ossia g ◦ f (X) = C ∗ X al variare di X ∈ Rk . 10.2.3 Matrice associata alla composizione Descriviamo esplicitamente C in funzione di A e B . Se g ◦ f = LC significa che la i-esima componente di g ◦ f (X) e’ la i -esima componente del prodotto CX , quindi (g ◦ f )(X)i = k ∑ j=1 Cij ∗ xj Capitolo 10. Prodotto tra matrici 131 / 258 C e’ univocamente determinata da tale proprieta’. Inoltre, g ◦ f (X) = g(f (X)) quindi la i-esima componente di (g ◦ f )(X) si può anche scrivere come: (g ◦ f )(X)i = g(f (x))i = l ∑ air ∗ f (x)r r=1 In termini di B si ha f (X)r = k ∑ brj xj j=1 e sostituendo nella formula sopra l’espressione di f (X)r : (g ◦ f )(X)i = g(f (x))i = l ∑ air ∗ r=1 k ∑ arj ∗ xj j=1 Ho due somme finite e posso unirle. (g ◦ f )(X)r = l ∑ k ∑ air ∗ brj ∗ xj r=1 j=1 allora confrontando queste due uguaglianze, siccome C e’ univocamente determinata, ricaviamo che i coefficienti cij sono dati da questa relazione: cij = l ∑ air ∗ brj r=1 Riassumendo, Teorema 10.2 Se B e’ una matrice l × k e A e’ una matrice p × l , e LA : Rl → Rp , LB : Rk → Rl sono le corrispondenti applicazioni lineari, allora la composizione LA ◦ LB : Rk → Rp e’ data dall’applicazione LC ove C ∈ Mp,k (R) ha entrate: cij = l ∑ air ∗ brj , i = 1, . . . , p, j = 1, . . . , k r=1 10.2.4 prodotto tra matrici Definizione 10.3 Supponiamo di avere matrici A ∈ Mp,l (R) e B ∈ Ml,k (R) (Il numero di colonne della prima matrice e’ uguale al numero di righe della seconda, perche’ lo spazio Capitolo 10. Prodotto tra matrici 132 / 258 di partenza della seconda applicazione e quello di arrivo della prima dev’essere lo stesso.) Il prodotto A × B = A ∗ B e’ la matrice p × k (ha il numero di righe di A e il numero di colonne di B ) avente entrate (AB)ij = l ∑ air ∗ brj , i = 1, . . . , p, j = 1, . . . , k r=1 Si ha quindi che nelle stesse ipotesi la composizione LA ◦ LB e’ ben definita ed e’ uguale a LAB . Esempio 10.1 Considero 1 −2 A= 1 0 1 2 B= 1 −1 0 1 Prodotto: siano a1 , a2 , a3 i vettori riga di A e b1 , b2 i vettori colonna di B . La matrice 3 × 2 che ottengo e’ a1 · b1 a1 · b2 a2 · b1 a2 · b2 a3 · b1 a3 · b2 Matrice 1 3 A = 1 −1 1 1 Osservazione 10.4 Se moltiplico una matrice 1 × d (una riga di numeri a1 , . . . ad ) e una matrice d × 1 (una colonna), ottengo una matrice 1 × 1 , ovvero un numero (corrisponde al prodotto scalare). se invece ho una matrice d × 1 e faccio il prodotto con una matrice 1 × d ottengo una matrice d × d della forma: b1 ∗ a1 . . . b1 ∗ ad ... ... ... d d b ∗ a1 . . . b ∗ ad Capitolo 10. Prodotto tra matrici 133 / 258 10.2.5 associativita’ del prodotto tra matrici Il prodotto di matrici e’ associativo. Supponiamo di avere A ∈ Ml,k , B ∈ Mk,p , C ∈ Mp,l . Allora A ∗ B ∈ Ml,p puo’ essere moltiplicata a sua volta per C e si ottiene una matrice l × l . si puo’ anche eseguire il prodotto B∗C che e’ una matrice k×l , e poi moltiplicarlo a sinistra per A che e’ una matrice l × k e si ottiene la matrice l × l . L’associativita’ vale per il seguente motivo: consideriamo le corrispondenti applicazioni lineari LC : Rk → Rp , LB : Rp → Rl , LA : Rl → Rk . Il prodotto di applicazioni lineari è associativo, quindi (LA ◦ LB ) ◦ LC = LA ◦ (LB ◦ LC ) Siccome matrici e applicazioni lineari si corrispondono biunivocamente segue che: A ∗ (BC) = (AB) ∗ C 10.3 Invertibilità di matrici 10.3.1 matrici quadrate Definizione 10.4 Una matrice si dice quadrata se il numero delle righe e’ uguale al numero delle colonne e lo spazio delle matrici quadrate k × k si denota con Mk (R) . Osservazione 10.5 Se prendiamo matrici quadrate A e B , anche A ∗ B e B ∗ A sono elementi di Mk (R) . Quindi il prodotto di matrici diventa un’operazione associativa definita da Mk (R) × Mk (R) a valori in Mk (R) . Se k = 1 ottengo l’ordinario prodotto di numeri reali che è commutativo, ma per k > 1 questo prodotto non è comutativo, infatti posso considerare le matrici: Se prendo le matrici A= 1 0 0 0 B= 0 0 1 0 e Allora AB = 0 0 0 0 Capitolo 10. Prodotto tra matrici 134 / 258 BA = 0 0 1 0 e i risultati sono diversi. 10.3.2 Matrice diagonale Definizione 10.5 Una matrice si dice diagonale se e solo se tutte le sue entrate tranne quelle della diagonale sono uguali a 0. Definizione 10.6 Per ogni d ≥ 1 intero, la matrice identica d × d e’ la matrice che ha come colonne i valori della base canonica di Rd . E’ la matrice diagonale con tutte le entrate diagonali uguali a 1. Questa matrice si chiama identica perché corrisponde all’applicazione lineare identica, infatti il prodotto di questa matrice per un vettore colonna X ha come risultato il vettore stesso. 10.3.3 Matrice invertibile Definizione 10.7 Una matrice quadrata A ∈ Md (R) si dice invertibile se esiste una matrice quadrata B ∈ Md (R) tale che A∗B = B ∗A e questo prodotto deve dare la matrice identica. 10.3.4 Rango della matrice composta Osservazione 10.6 Supponiamo che V , W , U siano spazi finitodimensionali. Allora rg e’ la dimensione dello spazio immagine. Siccome f (v) e’ contenuto nello spazio W , segue che rg ≤ dim = rg(g) . E’ anche vero che rgg ◦ f(v) = dimg(f(v)) quindi rg ≤ dimf(v) = dim(Imf) = rgf Riassumendo rg ≤ min{rgg, rgf}. Per esempio, si avra’ rg = rg se e solo se g ◦ f : V → U e’ iniettiva. Questo vuol dire che ker g(f (v)) e’ 0, cioè ker g ∩ Imf = 0W . In generale, Se ho un’applicazione lineare H : A → B e suppongo che C sia un sottospazio di A , se considero la restrizione f : C → B essa e’ lineare. Il ker e’ l’intersezione C ∩ ker h . Osservazione 10.7 Capitolo 10. Prodotto tra matrici 135 / 258 Se Ik e’ la matrice identica k × k con le entrate diagonali uguali a 1, allora per ogni matrice B ∈ Mk (R) si ha che B ∗ I = I ∗ B = B . Ik e’ l’unita’ della moltiplicazione. Il prodotto B ∗ I e’ uguale a k ∑ Bir ∗ Irj r=1 L’entrata rj della matrice identita’ e’ il δrj , e’ uguale a 1 se i = j e uguale a 0 se i ̸= j . Quindi calcolando il prodotto rimane Bij . I e’ la matrice che corrisponde all’identita’, quindi la matrice I ∗ B corrisponde a LI ◦ LB = LB . 10.3.5 Invertibilita’ di matrici quadrate Non tutte le matrici sono invertibili, come mstra il seguente esempio. Considero matrici A, B, ̸= 0 tali che A ∗ B e’ la matrice nulla. Se A fosse una matrice invertibile, esisterebbe una matrice A′ ∈ Mk (R) tale che AA′ e’ uguale alla matrice identica k × k , allora A′ ∗ (AB) e’ A′ per la matrice nulla quindi a sua volta il risultato e’ una matrice nulla. Ma il prodotto e’ associativo, quindi A′ (AB) = (A′ A)B , dove A ∗ A′ e’ la matrice identica perche’ A e’ invertibile, quindi ottengo che l’uguaglianza A′ ∗ (AB) = (A′ A)B corrisponde a 0=I ∗B Ma questo e’ assurdo perche’ A, B sono diverse da 0. Quindi non tutte le matrici sono invertibili. 10.3.6 unicita’ della matrice inversa Osservazione 10.8 Sia A una matrice k × k e supponiamo che esistano A′ e A′′ matrici k × k inverse sinistra e destra di A tali che A′ ∗ A′′ = I Allora certamente A′ = A′′ , infatti si ha A′ = A′ ∗ I = A′ ∗ (AA′′ ) = (A′ A)A′′ = I ∗ A′′ = A′′ Quindi se una matrice ammette un’inversa destra e un’inversa sinistra le due matrici sono uguali. Capitolo 10. Prodotto tra matrici 136 / 258 10.3.7 Relazione tra iniettivita’ e matrice inversa Teorema 10.3 Siano V e W spazi vetoriali finitodimensionali su K . Sia F : V → W lineare. Allora le seguenti condizioni sono equivalenti: • f e’ iniettiva, cioe’ il suo ker e’ 0; • esiste g : W → V lineare tale che g ◦ f = I(V ) Dimostrazione 10.2 La condizione 2 implica 1, perche’ esiste una funzione con questa proprieta’ se e solo se f e’ iniettiva (visto parlando di insiemistica). La condizione 1 implica 2. Sia B = (v1 , . . . , vd ) una base di V . Siano d la dimensione di V , c la dimensione di W . Allora d ≤ c e f e’ iniettiva se e solo se il rango di f e’ uguale alla dimensione di V , quindi rg = d , quindi dimspan{v1 , . . . , vd } = d , quindi f (v1 ), . . . , f (vd ) sono una base dello spazio immagine. Per il teorema della base incompleta supponiamo per comodita’ c > d , esistono w1 , . . . , wc−d ∈ W tali che f (v1 ), . . . , f (vd ), w1 , . . . , wc−d e’ una base di W . Sia g l’unica applicazione lineare da W in V tale che g(f (vi )) = vi per i < d e g(f (vj )) = 0 ⇐⇒ j > d . Allora per costruzione g ◦ f (vk ) = g(f (vk ) = vk , ∀k = 1, . . . , d . Siccome coincide con i vettori della base, g ◦ f = id(v) . cvd 10.3.8 Suriettivita’ e invertibilita’ Teorema 10.4 Siano V e W spazi vettoriali finitodimensionali e sia f : V → W lineare, allora le seguenti condizioni sono equivalenti: • f : V → W e’ suriettiva; • esiste g : W → V lineare tale che f ◦ g(w) = id(w) Dimostrazione 10.3 Dimostro che 2 implica 1. Abbiamo dimostrato parlando di insiemistica che esiste una funzione g : W → V tale che LA ◦ g = id(w) se e solo se la funzione e’ suriettiva. Dimostro che 1 implica 2. Se LA e’ surettiva, allora la dimensione di W e’ uguale alla dimensione dell’immagine. Sia d la dimensione dell’immagine e sia B = (w1 , . . . , wd ) una base di W . La dimensione di W e’ sicuramente minore o uguale Capitolo 10. Prodotto tra matrici 137 / 258 di quella di V . Allora esiste una funzione g tale che g(w1 ) = v1 , . . . , g(wd ) = vd . Allora si ha che f (g(w1 )) = f (v1 ) = w1 , . . . , f (g(vd )) = wd . cvd 10.3.9 Inversa destra e inversa sinistra Una matrice A ∈ Mk (R) ammette un’inversa sinistra se e solo se esiste una matrice A′ ∈ MK (R) tale che A′ A = I , quindi se e solo se esiste una matrice A′ ∈ MK (R) tale che l’applicazione A′ ◦ A e’ l’applicazione identica. Quindi se e solo se esiste una matrice A′ ∈ mk (R) tale che L′A ◦ LA e’ uguale all’identita’. Quindi se e solo se esiste g : Rk → Rk lineare tale che g ◦ LA = I . Per il teorema dimostrato questo equivale a dire che LA e’ un’applicazione lineare iniettiva. Se A e’ una matrice ∈ Mk (R) allora esiste una matrice A′ ∈ Mk (R) tale che A′ A = I se e solo se LA : Rk → Rk e’ iniettiva e quindi se e solo se il nucleo di A e’ uguale al vettore nullo di Rk . Questo equivale a dire che LA : Rk → Rk e’ suriettiva (se il nucleo e’ nullo la dimensione di V e’ uguale a quella dell’immagine e quindi a quella di W ). Quindi LA e’ un isomorfismo Rk → Rk , quindi un automorfismo di Rk . Allo stesso modo, sia A una matrice in Mk (R) . Allora A ammette inversa destra, ossia esiste A′′ ∈ Mk tale che AA′′ e’ la matrice identita’ se e solo se esiste g : Rk → Rk lineare tale che LA ◦ g = id(Rk ) . Questo equivale a dire che LA e’ suriettiva Data una matrice A ∈ Mk (R) esiste A′′ ∈ Mk (R) tale che AA′′ e’ identita’ se e solo se LA e’ suriettiva. Questo equivale a dire che LA e’ anche iniettiva, quindi se e solo se esiste A′ in Mk (R) tale che A′ A = I . 10.3.10 condizioni equivalenti Riassumendo: Teorema 10.5 Sia A una matrice k × k allora le seguenti condizioni sono equivalenti: 1. A e’ invertibile, cioe’ ammette un’inversa bilatera, quindi esiste una matrice A−1 tale che A−1 A = AA−1 = Ik 2. A e’ invertibile a sinistra, cioe’ esiste A’ in mKxK tale che A′ A = Ik 3. A e’ invertibile a destra, quindi esiste A tale che AA′′ = Ik 4. LA : Rk → Rk e’ iniettiva; 5. LA : Rk → Rk e’ suriettiva; 6. LA : Rk → Rk e’ un automorfismo, cioe’ e’ un isomorfismo di lk con se stesso; 7. il rango di A e’ necessariamente k. Capitolo 10. Prodotto tra matrici 138 / 258 8. le colonne (A1 , . . . , Ak ) costituiscono una base di Rk , quindi Aj e’ la j-esima colonna di A. 10.4 Calcolo della matrice inversa 10.4.1 Condizione per l’invertibilità La matrice 2 × 2 a b c d e’ invertibile se e solo se le colonne sono linearmente indipendenti, e quindi se e solo se ad − bc ̸= 0 . Allo stesso modo se prendo una matrice 3 × 3 con colonne a1 , a2 , a3 questa sara’ una matrice invertibile se e solo se il rango della matrice e’ uguale a 3 e quindi se e solo se A1 , A2 , A3 e’ una base di Rk e quindi se e solo se A1 · (A2 ∗ A3 ) ̸= 0 . Supponiamo di avere una matrice k × k . A e’ invertibile se e solo se il suo rango e’ uguale a k , quindi se e solo se la matrice ridotta in forma a scala ha solo k gradini, quindi se le entrate della diagonale nella matrice ottenuta dopo l’eliminazione gaussiana sono diverse da 0. Non si ha perdita di generalita’ nel dire che tutte le entrate diagonali della matrice ridotta a scala siano uguali a 1, infatti posso dividere ogni riga per un certo coefficiente in modo che tale entrata sia uguale a 1. Dopo ulteriori operazioni per righe posso pervenire alla matrice identita’ Concludo che A e’ invertibile se e solo se posso trasformarla nell’identita’ mediante una opportuna sequenza di operazioni elementari per righe. Eseguire un’operazione elementare per righe su una matrice k × k equivale a moltiplicarla a sinistra per un’opportuna matrice Ei (corrispondente all’operazione i-esima), dove E e’ la matrice che si ottiene eseguendo la stessa operazione su I . Supponiamo che dopo r operazioni elementari per righe su A si ottenga l’identità. Per l’associativita’ posso scrivere (Er ∗ Er−1 ∗ Er−2 ∗ · · · ∗ E1 ∗ A = I, allora l’inversa di A e’ A−1 = (Er ∗ Er−1 ∗ · · · ∗ E1 )−1 . A−1 e’ la matrice che si ottiene a partire dalla matrice identita’ facendo su di essa le stesse operazioni fatte prima su A per arrivare a I . Riassumendo, Teorema 10.6 A ∈ Mk (R) e’ invertibile se e solo se esiste una sequenza finita di operazioni elementari per righe che porta A nell’identità I . In tal caso la matrice inversa di A e’ la matrice che si ottiene da I con la stessa sequenza di operazioni elementari per righe. Capitolo 10. Prodotto tra matrici 139 / 258 Esempio 10.2 Calcolare l’inversa della matrice: 1 2 −1 1 le colonne sono linearmente indipendenti, quindi la matrice e’ invertibile. scrivo di fianco la matrice identita’, separandola dalla matrice di partenza con una riga verticale. Faccio operazioni per righe in modo che la matrice di partenza sia uguale alla matrice identita’. Faccio le stesse operazioni anche sulla matrice a destra. Quando la matrice a sinistra dopo r operazioni per righe e’ diventata la matrice identita’, la matrice che ottengo a destra e’ l’inversa di quella di partenza. 1 2 1 0 −1 1 0 1 a2 = a2 + a1 1 2 1 0 0 3 1 1 a2 = a2 ∗ 1/3 0 1 2 1 0 1 1/3 1/3 a1 = a1 − 2 ∗ a2 1 0 1/3 −2/3 0 1 1/3 1/3 La matrice inversa e’ A−1 = 1/3 −2/3 1/3 1/3 Verifica: moltiplico la matrice A per la matrice originaria. AA−1 = 1 0 0 1 Esempio 10.3 Determinare se f : R2 → R2 data da f (x, y) = (2 + xy, −x + y) e’ invertibile e nel caso trovarne l’inversa. Cerco la funzione f −1 (x, y) = (A, B) che moltiplicata per la funzione data mi da’ la funzione identita’ I = (x, y) . Uguagliando le singole componenti: (2 + xy) ∗ A = x, −→ A = x 2 + xy Capitolo 10. Prodotto tra matrici 140 / 258 (−x + y)B = y, −→ B = y −x + y Esempio 10.4 Considero la matrice A= 1 2 1 0 1 1 −1 0 −1 Stabilire se il sistema lineare AX = b con X = (x1 , x2 , x3 ) e b = (b1 , b2 , b3 ) ammette un’unica soluzione per ogni b ∈ R3 e nel caso trovarla. Il sistema ha un’unica soluzione se e solo se LA e’ biunivoca, quindi se e solo se A e’ invertibile. In tal caso AX = b se e solo se A−1 (AX) = A−1 (b) (se A e’ invertibile anche l’inversa e’ invertibile), quindi se e solo se X = A−1 ∗ b . Cerco l’inversa della matrice. 1 2 1 1 0 0 0 1 1 0 1 0 −1 0 −1 0 0 1 1 2 1 1 0 0 0 1 1 0 1 0 0 2 0 1 0 1 1 2 1 1 0 0 0 2 0 1 0 1 0 1 1 0 1 0 1 2 1 1 0 0 0 2 0 1 0 1 0 0 2 −1 2 −1 1 0 1 0 0 −1 0 1 0 1/2 0 1/2 0 0 1 −1/2 1 −1/2 1 0 0 1/2 −1 −1/2 0 1 0 1/2 0 1/2 0 0 1 −1/2 1 −1/2 Matrice inversa: A−1 = 1/2 −1 −1/2 1/2 0 1/2 −1/2 1 −1/2 A−1 = 1/2 ∗ 1 −2 −1 1 0 1 −1 2 −1 Capitolo 10. Prodotto tra matrici 141 / 258 Per ogni v(v1 , v2 , v3 ) vettore colonna in R3 la soluzione del sistema lineare AX = b dove X = (x, y, z) e’ data da A−1 ∗ b e’ A−1 b = 1/2(x − 2y − z) 1/2(x + z) 1/2(−x + 2y − z) 10.4.2 Considerazioni generali invertibilita’ del prodotto Proposizione 10.1 Se A e B sono matrici k × k invertibili, allora tale e’ anche A ∗ B e (A ∗ B)−1 = B −1 ∗ A−1 , in altre parole l’inverso del prodotto e’ il prodotto degli inversi ma nell’ordine inverso. Dim. Verifica dell’invertibilità: L’applicazione associata alla composizione di matrici è: lAB = LA ◦ LB : Rk → Rk A e B sono invertibili quindi LA e LB sono biunivoche. Quindi anche LAB e’ biunivoca, e’ un automorfismo di Rk , questo implica che AB e’ invertibile. Prodotto degli inversi: Se calcolo (AB)(B −1 ∗ A−1 ) siccome il prodotto e’ associativo, posso riscriverlo come: ABB −1 ∗ A−1 Siccome B e’ invertibile si ha che ABB −1 ∗ A−1 = A ∗ I ∗ A−1 = AA−1 Ma anche A e’ invertibile quindi il tutto e’ uguale a I . cvd Proposizione 10.2 Viceversa, se AB e’ invertibile, segue che A, B ∈ Mk (R) sono invertibili. Dimostrazione 10.4 La composizione di applicazioni lineari ha sempre un rango uguale al minimo delle due. Sfruttando la corrispondenza tra matrici e applicazioni lineari: rg ≤ min{rg(A), rg} AB e’ invertibile se e solo se rg = rg . Quindi AB invertibile implica che rgA = rgB = k , e segue che A e B sono invertibili. Capitolo 10. Prodotto tra matrici 142 / 258 cvd 10.5 Matrice trasposta 10.5.1 Definizione Definizione 10.8 Sia A una matrice k ×l . La textit di A e’ la matrice indicata con At appartenente a Ml,k che si ottiene scambiando le righe con le colonne, quindi definita ponendo Atij = Aji per i = 1, . . . , l e j = 1, . . . , k . Esempio 10.5 Il trasposto di un vettore riga e’ un vettore colonna. Nel caso di una matrice quadrata la trasposizione corrisponde a una riflessione lungo la diagonale Se traspongo una matrice e poi traspongo la matrice trasposta otengo nuovamente la matrice di partenza. 10.5.2 Prodotto fra trasposte Proposizione 10.3 Siano A ∈ Mk,l (R) , e B ∈ Ml,r (R) . Allora (A ∗ B)t = B t ∗ At Dimostrazione 10.5 Per definizione di matrice trasposta: (AB)tij = (AB)ji = e il prodotto si esplicita come l ∑ Ajs ∗ Bsi = s=1 Passo alla trasposta l ∑ s=1 cvd (At )sj ∗ (B t )is = l ∑ s=1 (B t )is ∗ (At )sj = (B t ∗ At )ij Capitolo 10. Prodotto tra matrici 143 / 258 10.5.3 Trasposta dell’inversa Proposizione 10.4 Se A ∈ Mk (R) e’ invertibile, allora anche At e’ invertibile e (At )−1 = (A−1 )t . Dimostrazione 10.6 Il risultato si ricava subito applicando il teorema sulla trasposizione del prodotto, infatti: At ∗ (A−1 )t = (A−1 ∗ A)t = I t = I cvd 10.5.4 Complemento ortogonale Osservazione 10.9 Sia A matrice appartenente a Ml,k (R) . Allora se la funzione LA : Rk → Rl manda X nel prodotto AX , si ha che esiste At ∈ Mk,l (R) e la funzione LAt : Rl → Rk manda Y in At ∗ Y . Osservo che Y ∈ ker LAT se e solo se At ∗Y = 0Rk , quindi se e solo se X ·At ∗Y = 0 per ogni X ∈ Rk , quindi se e solo se X t ∗ At ∗ Y = 0 per ogni X ∈ Rk . Per il teorma sulla trasposiione del prodotto la condizione è verificata se e solo se (AX)T ∗ Y = 0 , cioè se e solo se (AX) · Y = 0 (e’ il prodotto scalare standard in Rl ) per ogni X appartenente a Rk . quindi se e solo se Y sta nel complemento ortogonale dell’immagine di LA . Lemma 10.1 L’immagine di LA e’ contenuta in Rl e anche l’ortogonale dell’immagine di LA e’ contenuta in Rl Se A ∈ Ml,k (R) allora ker(At ) = ker lAt = (ImLA )⊥ . Quindi il rango di LAt definita da Rl in Rk e’ uguale alla dimensione dello spazio di partenza a cui sottraggo la dimensione del ker di At . Questo equivale a l − dim(ImLA )⊥ = L − [L − dim(ImLA )) = dim = rgA Corollario 10.1 Se A ∈ Mk,l (R) allora rgA = rg(At ) . Capitolo 11. Matrici e basi 144 / 258 Capitolo 11 Matrici e basi 11.1 Basi di partenza e di arrivo 11.1.1 Ipotesi Siano V e W spazi vettoriali, sia d la dimensione di V e c la dimensione di W . Siano Bv = {v1 , . . . , vd } la base di V e Bw = {e1 , . . . , ec } la base di W . Supponiamo data un’applicazione lineare f : V → W . Allora per ogni j = 1, . . . , d esistono e sono unici scalari in R o in K per i = 1, . . . , c tali per cui f (vj ) = c ∑ aij ∗ wi , formula 1 i=1 Se aj e’ il vettore in Rc con coordinate (a1j , . . . , acj ) , abbiamo definito matrice di f rispetto alla base βBv di partenza e βBw di arrivo come βBv MβB (f ) = [a1 , . . . , ad ] w che corrisponde alla matrice ctimesd : a11 . . . ac1 ... ... ... a1d . . . acd 11.1.2 Coordinate nella base d’arrivo Ci si chiede che relazione c’e’ tra il vettore delle coordinate di un dato v nella base Bv e il vettore delle coordinate del suo trasformato nella base Bw , se v e’ un generico elemento di V . Sia X = ∑ (x1 , . . . , xd ) la colonna delle coordinate del vettore v in V . Cio’ significa che v e’ dj=1 xj ∗ vj , quindi applicando f ricaviamo che Capitolo 11. Matrici e basi 145 / 258 f (v) = f ( d ∑ xj ∗ vj ), j=1 ma siccome f e’ lineare ottengo d ∑ xj ∗ f (vj ) j=1 Sostituisco a f (vj ) la sua espressione in funzione dei wj (formula 1): f (v) = ∑ ∑ j = 1d xj ∗ [ i = 1c aij ∗ wi ] Posso cambiare l’ordine di sommatoria c ∑ ∑ j = 1d (aij ∗ xj ) ∗ wi i=1 Se chiamiamo Y il vettore colonna (y1 , . . . , yc ) esso e’ il vettore colonna delle coordinate del trasformato f (v) nella base di W . Allora f (v) = c ∑ y i ∗ wi . i=1 Bw e’ una base di W quindi le sue coordinate sono univocamente determinate, allora eguagliando i coefficienti di f (v) nelle due diverse espressioni ottengo: yi = d ∑ aij ∗ xj . j=1 In forma matriciale questo si puo’ scrivere come ∑d j=1 a1j Y = ∗ xj ... j=1 acj ∗ xj ∑d Questo e’ il prodotto della matrice a11 a12 . . . a1d ... ... ... ... ac1 ac2 . . . acd per il vettore X . Riassumendo, si ha che d ∑ j=1 aij ∗ xj Capitolo 11. Matrici e basi 146 / 258 e’ la colonna delle coordinate di f (v) nella base Bw ed e’ il prodotto della matrice associata ad f con base di partenza Bv e base di arrivo Bw e le coordinate di v rispetto alla base di partenza. 11.1.3 Teorema sulle coordinate Vale quindi il seguente teorema: Teorema 11.1 Siano V e W spazi vettoriali finitodimensionali sul corpo K . Siano Bv , Bw basi di V e W rispettivamente. Supponiamo di avere un’applicazione lineare f : V → W , allora per ogni v in V si ha che la colonna delle coordinate nella base di arrivo del trasformato di v si ottiene facendo il prodotto della matrice f nelle due basi e del vettore delle coordinate di v nella base di partenza. Questa e’ una matrice c × d . Esempio 11.1 Sia f una funzione : R3 [x] → R2 [x] tale che f (p(x)) = x ∗ p′′ (x) + x2 ∗ p(1) + p′ (x) (Ottengo un polinomio di grado al piu’ 2.) Prendiamo le basi B1 = {1, x, x2 , x3 } e B2 = {1, x, x2 } . La matrice corrispondente all’applicazione e’ del tipo 3 × 4 . Applico f ai polinomi della base di partenza e scrivo le coordinate del trasformato rispetto alla base di arrivo. f (p(x)) = x ∗ p′′ (x) + x2 ∗ p(1) + p′ (x) f trasformato coordinate f (1) 0 + x2 + 0 (0, 0, 1) 2 2 f (x) 0+x +1=1+x (1, 0, 1) f (x2 ) 2x + x2 + 2x = 4x + x2 (0, 4, 1) f (x3 ) 6x2 + x2 + 3x2 = 10x2 (0, 0, 10) Se parto da un polinomio della forma p0 + p1 ∗ x + p2 ∗ x2 + p3 ∗ x3 in R3 [x] la matrice nella base B2 di f (px ) e’ la matrice che ha per colonne i vettori trovati prima, che sono i trasformati mediante f dei polinomi della base di partenza rispetto alla base di arrivo. 0 1 0 0 0 0 4 0 1 1 1 10 Capitolo 11. Matrici e basi 147 / 258 Per ottenere le coordinate di f (v) nella base di arrivo, dove v e’ un polinomio con coefficienti p0 , p1 , p2 , p3 , moltiplico la matrice per il polinomio v e ottengo la soluzione: p1 4p2 p0 + p1 + p2 + 10p3 Verifica: Calcolo f applicata al polinomio di partenza. x ∗ p′′ (x) = 2p2 ∗ x + 6x2 ∗ p3 x2 ∗ p(1) = x2 ∗ (p0 + p1 + p2 + p3 ) p′ (x) = p1 + 2x ∗ p2 + 3x2 ∗ p3 f (px ) = 2p2 ∗ x + 6x2 ∗ p3 + x2 ∗ (p0 + p1 + p2 + p3 ) + p1 + 2x ∗ p2 + 3x2 ∗ p3 f (px ) = p1 + (2p2 + 2p2 ) ∗ x + x2 ∗ (6p3 + p0 + p1 + p2 + p3 + 3p3 ) f (px ) = p1 + (4p2 ) ∗ x + x2 ∗ (p0 + p1 + p2 + 10p3 ) Le coordinate sono le stesse che ho trovato sopra leggendo la soluzione dalla matrice. 11.1.4 Conclusione Abbiamo dimostrato che per ogni v in V nelle ipotesi precedenti la colonna delle coordinate di f (v) nella base Bw e’ uguale al prodotto della matrice da Bv a Bw per la colonna delle coordinate di v nella base Bv . MBw (w) = MBBwv (f ) ∗ MBv (v) Fissiamo A la matrice dalla base Bv a Bw . A e’ una matrice c × d . Abbiamo osservato che MB (v) : V → Rd e MB (w) : W → Rc sono isomorfismi di spazi vettoriali. L’applicazione LA : Rd → Rc corrisponde alla matrice c × d . Allora possiamo riscriverla come MBw ◦ f (v) = [LA ◦ MBv ](v) Questo vale per ogni v in V , pertanto MBw ◦ f = LA ◦ MBv Il diagramma e’ commutativo, infatti v viene mandato tramite f in w , e w viene mandato tramite MBw in Rc . Viceversa v viene mandato da MBv in Rd , e tramite LA viene mandato da Rd a Rc . Inoltre, possiamo esprimere f come Capitolo 11. Matrici e basi 148 / 258 MB−1 ◦ LA ◦ MBv w MBw e’ un isomorfismo, quindi posso prenderne l’inversa. Fissiamo basi di partenza e di arrivo e mettiamo in relazione l’applicazione lineare con la matrice. 11.1.5 teorema sul nucleo Osservazione 11.1 v appartiene al nucleo di f se e solo se f (v) = 0W . Questo equivale a dire che le coordinate di f (v) sono uguali a 0, quindi se MBw = 0Rc , quindi v appartiene al nucleo se e solo se LA ◦MBv e’ uguale a 0 ∈ Rc (infatti per il teorema precedente le coordinate di f (v) nella base di arrivo sono date dal prodotto LA ∗ MBv ). Quindi v appartiene al nucleo se e solo se MBv (v) appartiene al nucleo della matrice A , dove A e’ la matrice da Bv a Bw . Teorema 11.2 Siano V e W spazi vettoriali finitodimensionali. Siano Bv e Bw basi di V e W rispettivamente. Sia d la dimensione di V e c la dimensione di W . Sia f : V → W lineare e sia A la matrice che rappresenta f rispetto a queste due basi. Allora il nucleo di f si ottiene dal nucleo della matrice A facendone la controimmagine mediante l’isomorfismo MBv . Esempio 11.2 Sia f : R3 [x] → R2 [x] come nell’esempio precedente. La matrice di f tra b3 e b2 e’ 0 1 0 0 0 0 4 0 1 1 1 10 Studio il nucleo di f . Il rango della matrice e’ 3 quindi il nucleo ha dimensione 1. A si puo’ riscrivere scambiando le righe 1 1 1 10 0 1 0 0 0 0 4 0 Pongo t = α e leggo la soluzione dalla matrice. t = α, 4z = 0, y = 0, x + 10α = 0 Capitolo 11. Matrici e basi 149 / 258 Il ker e’ lo span del vettore (−10, 0, 0, 1) , che nello spazio dei polinomi corrisponde a −10 + x3 . Applico f al polinomio ottenuto ( f e’ come nell’esempio precedente). f = x ∗ p′′ (x) + x2 ∗ p(1) + p′ (x) = f (−10 + x3 ) = 6x2 − 9x2 + 3x2 = 0 (ho verificato che il polinomio appartiene al nucleo, perche’ la sua immagine mediante f e’ 0) 11.1.6 Teorema sull’immagine Lo stesso discorso vale per l’immagine. Nelle ipotesi precedenti, ovvero MBw ◦ f = LA ◦ MBv , se considero lo spazio immagine di f in W , l’immagine mediante MBw e’ contenuto in Rc . Allora MBw dello spazio immagine di f e’ l’insieme di tutti i vettori della forma MBw (v) , al variare di v in V . Quindi e’ l’insieme di tutti i vettori (MBw ◦ f )(v) Ma MBw ◦ f = LA ◦ MBv . Quindi vale il seguente teorema: Teorema 11.3 Nelle ipotesi precedenti, abbiamo che Im si ottiene dall’immagine di LA facendone la controimmagine in MBw . Im(f ) = (MBw )−1 (ImLA ) Esempio 11.3 Sia f : R2 [X] → R3 [X] tale che f (p) = x2 ∗ p′ (x) + x3 ∗ p′′ (x) + x ∗ p(1) + p(0) . Questa e’ un’applicazione lineare e ben definita. Sia B2 = {1, x, x2 } la base di partenza e B3 = {1, x, x2 , x3 } la base di arrivo. Calcolare il nucleo di LA La matrice che rappresenta f rispetto alle basi B2 di partenza e B3 di arrivo sara’ la matrice 4 × 3 . Applico f alla base di partenza e calcolo le coordinate di f (v) nella base di arrivo. f (1) = 0 + 0 + x + 1 = (1, 1, 0, 0) f (x) = x2 + x + 0 = (0, 1, 1, 0) f (x2 ) = 2x3 + 2x3 + x + 0 = (0, 1, 0, 4) Ottengo la matrice Capitolo 11. Matrici e basi 150 / 258 1 1 0 0 0 1 1 0 0 1 0 4 Faccio l’eliminazione gaussiana: 1 0 0 0 0 0 1 1 0 −1 0 0 Il rango di un’applicazione lineare e’ la dimensione dello spazio immagine. La dimensione dello spazio immagine e’ uguale al rango della matrice A che lo rappresenta, quindi rg = 3 . Concludiamo che il nucleo di f e’ 0. Cercare una base dello spazio immagine. Per trovare una base dello spazio immagine, siccome f e’ iniettiva posso prendere i trasformati della base B2 . I trasformati dei vettori della base di partenza (calcolati prima) sono una base dello spazio immagine (infatti V e l’immagine hanno la stessa dimensione per l’iniettivita’ di LA ). Base dell’immagine: {1 + x, x + x2 , x + 4x3 } . Cercare le equazioni cartesiane per lo spazio immagine nelle coordinate rispetto alla base B3 Scrivo la matrice che ha per colonne i trasformati dello spazio immagine e affianco il vettore delle coordinate. 1 1 0 0 0 1 1 0 0 1 0 4 p0 p1 p2 p3 Impongo che il rango della matrice estesa sia uguale al rango della matrice ridotta. 1 0 0 1 1 0 0 0 1 0 0 0 0 1 0 0 0 1 0 1 0 1 0 1 0 0 4 1 p0 p2 p3 p1 0 p0 0 p2 4 p3 1 p1 − p0 0 p0 0 p2 4 p3 1 p1 − p0 − p2 Capitolo 11. Matrici e basi 151 / 258 1 0 0 0 0 1 0 0 0 p0 0 p2 1 p3 /4 0 p1 − p0 − p2 − p3 /4 Il polinomio p(x) = p0 + p1 ∗ x + p2 ∗ x2 + p3 ∗ x3 appartiene allo spazio immagine se e solo se p0 − p1 + p2 + (p3 )/4 = 0 . E’ un’equazione cartesiana sui coefficienti del polinomio. Cercare una base di R3 [x] che estende una base dello spazio immagine. Aggiungo alla base dello spazio immagine un qualsiasi polinomio che non soddisfa l’equazione, ad esempio p(x) = 1 , dove p0 = 1 e tutti gli altri coefficienti sono nulli. Questo polinomio non soddisfa l’equazione dello spazio immagine calcolata prima Base completata: 1 + x x + x2 x + 4x3 1 Determinare la controimmagine di p(x) al variare di p(x) in R3 [x] Se p0 − p1 + p2 + (p3 )/4 ̸= 0 , allora p(x) non appartiene allo spazio immagine e quindi la controimmagine di p(x) e’ l’insieme vuoto. Se p0 − p1 + p2 + (p3 )/4 = 0 la controimmagine e’ un sottospazio affine che si ottiene traslando il ker. siccome il ker e’ uguale a 0, le controimmagini sono semplicemente dei polinomi. Risolvo il sistema lineare sapendo che l’ultimo termine e’ uguale a 0. La controimmagine di p0 + p1 ∗ x + p2 ∗ x2 + p3 ∗ x3 se p(x) appartiene all’immagine e’ della forma: q0 + q1 ∗ x + q2 ∗ x2 Per trovare q0 , q1 , q2 leggo le equazioni cartesiane corrispondenti alle prime tre righe della matrice risolta sopra. q0 = p 0 q1 = p 2 q2 = p3 /4 Per verificare se la controimmagine e’ corretta applico f alla controimmagine e devo ottenere p(x) . f (p0 + p2 ∗ x + p3 /4 ∗ x2 ) = x2 ∗ (p2 + p3 /4 ∗ 2x) + 2 ∗ p3 /4 ∗ x3 + x ∗ (p0 + p2 ∗ p3 /4) + p0 (p2 )x2 + 4 ∗ p3 /4 ∗ x3 + x ∗ (p0 + p2 ∗ p3 /4) + p0 Dall’equazione cartesiana dell’immagine ricavo che p0 + p2 + p3 /4 = p1 . quindi verifico che se applico f all’immagine ottengo proprio il polinomio p(x) Esempio 11.4 Considero la matrice 3 × 3 e l’applicazione lineare f : R3 → R3 associata. 1 0 1 2 −1 1 1 −1 0 Capitolo 11. Matrici e basi 152 / 258 Siano a e b parametri reali e definiamo Wa,b l’insieme di tutti gli (x, y, z) ∈ R3 tali che x − ay + bz = 0 . Per ogni scelta di a e b numeri reali Wa,b e’ l’iperpiano definito dall’equazione x = ay − bz . Calcolare il rango di LA = f ristretto al sottospazio al variare di a e b numeri reali. Trovare equazioni cartesiane per lo spazio immagine. Wa,b = {(ay + bz, y, z), a, b ∈ R} Wa,b = span{(a, 1, 0), (b, 0, 1)} I due vettori presi nell’ordine sono una base di Wa,b La matrice rispetto alla base mobile di partenza e alla base canonica come base d’arrivo e’ f ristretto a Wa,b . Applico f ai due vettori, cioe’ moltiplico la matrice a destra per i due vettori. f (v1 ) = f (a, 1, 0) = (a, 2a − 1, a − 1) f (v2 ) = f (b, 0, 1) = (b + 1, 2b + 1, b) Scrivo la matrice che ha per colonne i trasformati di v1 e v2 . a b+1 2a − 1 2b + 1 a−1 b a b+1 −1 −1 a b+1 a b+1 −1 −1 0 0 −1 −1 a b+1 0 0 −1 −1 0 b+1−a 0 0 Il rango di fa,b e’: 1. 2 se b − a + 1 ̸= 0 2. 1 se b − a + 1 = 0 Calcolare il nucleo dell’applicazione ristretta a Wa,b Se b − a + 1 ̸= 0 , allora ker fa,b = 0w a, b (per il teorema del rango). Capitolo 11. Matrici e basi 153 / 258 Se a = b + 1 allora il nucleo ha dimensione 1. ker(fa,b ) = ker(f ) ∩ Wa,b suppongo a = b + 1 , quindi l’equazione di Wa,b diventa: x = ay + bz x = (b + 1)y + bz (c’e’ un errore di segno) WA,B = span{(b + 1)y + bz, y, z} Impongo che un vettore di questa forma stia nel nucleo, quindi faccio il prodotto della matrice originaria per questo vettore e impongo il risultato uguale a 0. (b + 1)y + (b + 1)z = 0 X ∗ A = 2(b + 1)y + 2bz − y + z = 0 (b + 1)y + bz − y = 0 (b + 1)(y + z) = 0 (2b + 1)(y + z) = 0 b(y + z) = 0 Le tre equazioni sono uguali a 0 se e solo se y + z = 0 Il ker e’ lo span di ((b + 1)y + bz, y, z) tali che la loro immagine sia uguale a 0, quindi tali che z = −y . Quindi e’ lo span di (by + y − by, y, −y) cioè span . Nota: In generale, se ho un’applicazione lineare f : V → W e prendo un sottospazio vettoriale A di V , chiamo fA la restrizione di f ad A , anch’essa e’ lineare. Il nucleo di fA e’ l’insieme dei vettori v in A tali che f (v) = 0w , quindi e’ l’insieme dei v ∈ A che appartengono al nucleo di f . Quindi e’ l’intersezione di A con il nucleo di f . Calcolare equazioni cartesiane per lo spazio immagine di fa,b Lo spazio immagine e’ lo span dei due vettori v1 = (a, 2a − 1, a − 1), v2 = (b + 1, 2b + 1, b) (x, y, z) appartiene allo spazio immagine se il rango della matrice estesa e’ uguale a quello della matrice originaria. a b+1 x 2a − 1 2b + 1 y a−1 b z a b+1 x −1 −1 y − 2x a b + 1 z − y + 2x Capitolo 11. Matrici e basi 154 / 258 −1 −1 y − 2x 0 b + 1 − a x + ay − 2ax 0 0 z−y+x equazioni cartesiane: Se a−b+1 ̸= 0 lo spazio immagine e’ l’insieme degli (x, y, z) tali che −x + y + z = 0 . LA ha rango 2, quindi lo spazio immagine e’ costante e non dipende dal parametro. par Se a − b + 1 = 0 , lo spazio immagine di fa,b ha dimensione 1 ed e’ una retta per l’origine Le sue equazioni sono −x + y − z = 0 e (1 − a)x + az = 0 Calcolare Una base dello spazio immagine al variare dei parametri. se −a + b + 1 ̸= 0 una base dello spazio immagine e’ data dai due vettori f (v1 ) e f (v2 ) . Se −a + b + 1 = 0 la base dello spazio immagine che ha dimensione 1 e’ il vettore che soddisfa anche quest’equazione. Trovare una base di R3 che estenda una base dello spazio immagine. Per estendere la base dello spazio immagine aggiungo ai due vettori dello spazio immagine con a − b − 1 ̸= 0 aggiungo (1, 0, 0) che non soddisfa l’equazione cartesiana. Si puo’ fare lo stesso esercizio con il complemento ortogonale o accostando la base canonica. Ad esempio impongo che (x, y, z) · f (v1 ) = 0 (x, y, z) · f (v2 ) = 0 (a, 2a − 1, a − 1) · (x, y, z) = 0 (b + 1, 2b + 1, b) · (x, y, z) = 0 ax + 2ay − y + az − z = 0 bx + x + 2by + y + bz = 0 Risolvendo il sistema si trovano le coordinate del terzo vettore della base, poi si esprimono i parametri x e y in funzione di z . 11.2 composizione e prodotti di matrici 11.2.1 Teorema C=BA lAB = LA ◦ lB Supponiamo di avere V, W e U spazi vettoriali finitodimensionali di dimensioni d , c , r , non nulle. Siano Bv = {v1 , . . . , vd } una base di V , sia Bw = (w1 , . . . , wc ) una base di W e Bu = (u1 , . . . , ur ) una base di U . Capitolo 11. Matrici e basi 155 / 258 Supponiamo di avere applicazioni lineari f : V → W e g : W → U . Allora la composizione g ◦ f e’ anch’essa lineare. v Chiamo B la matrice mB Bw associata a f . E’ una matrice c × d . w Chiamo A la matrice mB Bu associata a g , che e’ una matrice r × c . Analogamente posso chiamare C la matrice MBBuv della composizione g ◦ f che e’ una matrice r × d (anche il prodotto AB e’ di dimensione r × d ) Conto esplicito: La matrice B ha entrate bij , per i = 1, . . . , c, j = 1, . . . , d . Le entrate sono univocamente determinate dalla proprieta’ che la colonna (b1j , b2j , . . . , bcj ) rappresenta la colonna delle coordinate di f (vj ) nella base dei wj . ∑ Condizione: f (vj ) = ci=1 bij ∗ wi , j = 1, . . . , d Analogamente, le entrate aki di A con k = 1, . . . , r, i = 1, . . . , c , matrice r × c sono univocamente determinate dalla condizione: g(wi ) = r ∑ aki ∗ uk . k=1 (a1i , a2i , . . . , ari ) e’ la colonna delle coordinate di g(wi ) nella base degli ui . Ho usato la definizione di matrice di applicazione lineare rispetto alle basi. Allo stesso modo le entrate ckj con k = 1, . . . , r e j = 1, . . . , d matrice r × d sono univocamente determinate dalla condizione che la j-esima colonna della matrice C , crj e’ la colonna delle coordinate di g ◦ f (vj ) nella base dei vi . r ∑ g ◦ f (vj ) = ckj ∗ uk k=1 Uso la linearita’. (g ◦ f )(vj ) = g ◦ f (vj ) quindi applicando g a f (vj ) ottengo c ∑ g( bij ∗ wi ) i=1 e per linearità = c ∑ bij ∗ g(wi ) i=1 = c ∑ i=1 r ∑ bij ∗ [ aki ∗ uk ] k=1 (ho sostituito a g(vj ) la sua espressione) Capitolo 11. Matrici e basi 156 / 258 = r ∑ c ∑ bij ∗ aki ∗ uk k=1 i=1 il prodotto e’ associativo, quindi r c ∑ ∑ = ∗ (bij ∗ aki ) ∗ uk k=1 i=1 Uso la distributivita’ del prodotto scalare per vettore rispetto alla somma. ∑r k=1 aki ∗ bij e’ l’entrata kj del prodotto AB . L’entrata kj di C è univocamente determinata. Quindi concludo che ckj = ABkj , k = 1, . . . , r, j = 1, . . . , d, quindi C e’ il prodotto AB . Teorema 11.4 Siano V , W , U spazi vettoriali finitodimensionali non banali. Siano f : V → W e g : W → U applicazioni lineari. Allora per ogni scelta di basi Bv , Bw e Bu di V , W , U rispettivamente, si ha che la matrice associata all’applicazione g ◦ f : Bu → Bv e’ uguale alla matrice del prodotto intermedio AB . (da base di partenza a base intermedia * base intermedia a base di arrivo) Osservazione 11.2 Nel caso particolare in cui V = Rd , W = Rc , U = Rl Se g = LA f = LB allora sappiamo che A è la matrice di g che ha base in partenza Cl e in arrivo Cc ( Cl e Cc sono le basi canoniche). Analogamente la matrice B ha come base di partenza Cc e base d’arrivo Cd . Troviamo che l’applicazione dalla base Cd alla base Cl , che chiamo LA ◦LB = g ◦f è associata alla matrice AB . 11.2.2 Relazione tra due basi diverse di uno spazio Supponiamo di avere uno spazio vettoriale V . Siano B = {v1 , . . . , vd } e B ′ = {v1′ , . . . , vd′ } basi di V spazio vettoriale d dimensionale, d ≥ 1 . Consideriamo un vettore v ∈ V . Allora sia nella base B ∑v ∈ V si puo’ esprimere ∑ che nella base B′ , e quindi si ha: v = dj=1 xj ∗ vj e v = dj=1 x′j ∗ vj′ . Ci si chiede che relazione c’e’ tra le due colonne delle coordinate nelle due basi diverse. Consideriamo l’applicazione identita’ che porta v in se stesso. Per quanto visto, la colonna delle coordinate nella base B di v e’ la colonna delle coordinate nella base B ′ dell’identita’ di v applicata a v . Capitolo 11. Matrici e basi 157 / 258 Per il teorema dimostrato precedentemente, la colonna delle coordinate dell’identita’ nella base B ′ e’ la matrice dalla base B a B ′ dell’identita’ per la colonna delle coordinate di v nella vecchia base. Esempio 11.5 Supponiamo sia B′ la base {(1, 2), (−1, 1)} di R2 e B la base canonica di R2 . Allora la colonna delle coordinate nella nuova base di un vettore (x, y) e’ data dal prodotto tra la matrice da B a B ′ dell’identita’ per la colonna delle coordinate nella base B di (x, y) , quindi siccome B e’ la base canonica le coordinate del vettore rispetto a tale base sono (x, y) . Invece per trovare la matrice da B a B ′ dell’identita’, applico l’identita’ ai vettori di B ′ . Devo trovare l’inversa della matrice. Corollario 11.1 Sia V uno spazio vettoriale d -dimensionale, con d finito e maggiore o uguale di 1. Siano B e B ′ basi di V . Allora la matrice dell’identita’ di v da B a B ′ e’ uguale alla matrice da B ′ a B inversa. Dimostrazione 11.1 Consideriamo l’identita’ composta con se stessa. I = I(v) ◦ I(v) Quando compongo l’identita’ con se stessa, pur considerando basi diverse, ottengo ancora l’identita’ Prendo la base B , nel passo intermedio prendo la base B ′ , nell’ultimo passo prendo la base B . Per il teorema dimostrato precedentemente ricaviamo che la matrice identica d × d e’ uguale alla matrice con base B in arrivo e in partenza. Questa e’ una composizione, quindi diventa la matrice da B ′ a B dell’identita’ per la matrice da B a B ′ dell’identita’. La matrice da B ′ a B e’ invertibile a destra e a sinistra, quindi e’ l’inversa bilatera. cvd Esempio 11.6 Completando l’esempio precedente scrivo la matrice che ha per colonne i vettori di B ′ (e’ la matrice dell’identita’ da B′ alla base canonica) e ne calcolo l’inversa. 1 −1 1 0 2 1 0 1 a2 = a2 − 2 ∗ a1 1 −1 1 0 0 3 −2 1 a2 = a2 /3 Capitolo 11. Matrici e basi 158 / 258 a1 = a1 + a2 1 0 1/3 1/3 0 1 −2/3 1/3 L’inversa e’ (M −1 )B B′ = 1/3 1/3 −2/3 1/3 Ora per trovare le coordinate del vettore (x, y) rispetto a B ′ moltiplico a sinisstra (x, y) per la matrice trovata. 1/3 ∗ (x, y) ∗ M X = 1/3 1 1 −2 1 x+y −2x + y Verifica: faccio la combinazione lineare dei vettori della base con le coordinate trovate. 1/3(x + y) ∗ (1, 2) + 1/3 ∗ (−2x + y) ∗ (−1, 1) = (x, y) Separo le componenti Ottengo l’identita’ 0 = 0 quindi significa che il risultato e’ giusto. Osservazione 11.3 Nelle ipotesi precedenti per ogni v in V la colonna delle coordinate di v nella base B ′ in B e’ la matrice dalla base B a B ′ dell’identita’ per la colonna delle coordinate nella base B . Inoltre la matrice dell’identita’ dalla base B a B ′ e’ uguale alla matrice inversa dalla base B ′ a B . 11.3 Applicazione lineare dello spazio quoziente Supponiamo di avere un’applicazione lineare tra spazi vettoriali V e W . Sia ker(f ) il suo nucleo e Imf in W lo spazio immagine. Allora l’applicazione da V a ImW e’ suriettiva. Definiamo un’applicazione [f ] : V ker f → W ponendo: [f ]([v]) = f (v) L’applicazione associa alla classe di equivalenza di un vettore v l’immagine f (v) Chiamo π la mappa quoziente. Dimostro che l’applicazione e’ ben definita. Siano v e v ′ in V tali che [v] = [v ′ ] V ′ nello spazio ker f . Cio’ significa che se faccio la differenza v − v essa sta in ker f . Applicando f a v − v ′ ottengo 0W , quindi f (v) − f (v ′ ) = 0W per la linearita’ di f , quindi f (v) = f (v ′ ) . Capitolo 11. Matrici e basi 159 / 258 V Concludo che risulta ben definita un’applicazione [f ] : ker f → W se v in V e’ un qualsiasi vettore tale che x = [v] (l’immagine non dipende dalla scelta di v con questa proprieta’). Se x = [v] e x′ = [v ′ ] sono due elementi nello spazio quoziente, e λ, λ′ sono numeri reali segue che f (λ ∗ x + λ′ ∗ x′ ) = [f ](λ + λ′ [v ′ ]) Ma per definizione di spazio quoziente λ ∗ [v] + λ′ ∗ [v ′ ] = [λ ∗ v + λ′ ∗ v ′ ] quindi f ([λ ∗ v + λ′ ∗ v ′ ]) = λ ∗ f (v) + λ′ ∗ f (v ′ ) = λ ∗ [f ](x) + λ′ ∗ [f ](x′ ) L’applicazione [f ] e’ lineare e il suo nucleo e’ l’insieme delle classi di equivalenza x = [v] con la proprieta’ che [f ](x) = 0W , quindi f (v) = 0 e’ l’insieme degli x = [v] tali che v appartiene al nucleo di f . L’unica classe di equivalenza che sta nel nucleo e’ la classe di equivalenza di 0, e’ lo 0 dello spazio quoziente, quindi l’applicazione lineare [f ] e’ iniettiva. Ricaviamo V quindi che vista come applicazione lineare da ker f a valori nello spazio immagine di f , [f ] e’ un isomorfismo. Pertanto data una qualsiasi applicazione lineare f : V → W esiste un isomorfismo V naturale (che dipende solo da f ) dallo spazio quoziente ker f allo spazio immagine. Sappiamo a priori per il teorema del rango che i due spazi hanno la stessa dimensione: infatti lo spazio quoziente di partenza ha dimensione dimV − dim ker f che per il teorema del rango e’ uguale a dim , cioe’ alla dimensione dello spazio di arrivo. Cio’ che scopriamo e’ che l’isomorfismo non dipende da scelte di basi. 11.4 Applicazioni tra due spazi vettoriali con basi diverse 11.4.1 Caso generale Supponiamo di avere V e W spazi vettoriali finitodimensionali e sia f : V → W lineare. Allora se ho una base A di V e una base B di W , la matrice con base A di partenza e B di arrivo di f e’ la matrice c × d se dimV = d e dimW = c . Questa matrice dipende dalla scelta delle basi. Supponiamo di avere una base A′ di V e B′ di W . Se lavoriamo rispetto alle due basi avremo analogamente una matrice dalla base A′ alla base B ′ di f , che e’ una base c × d . Capitolo 11. Matrici e basi 160 / 258 Ci chiediamo che relazione esiste fra queste due matrici. f : V → W puo’ essere composta a sinistra con l’identita’ di W e a destra con l’identita’ di V e non cambia nulla. Alla composizione id(W ) ◦ f ◦ id(V ) corrisponde il passaggio tra le basi A′ → A → B → B ′ Possiamo scrivere che la matrice dalla base A′ alla base B ′ di f e’ uguale a: (id(W ) ◦ f ) ◦ id(V ) = ′ A = MBB′ (id(w)) ∗ MBA f ∗ MA id(v) ′ ′ A (MBB id(w))−1 ∗ MBA f ∗ MA id(v) La prima matrice ha dimensione c × c , la seconda c × d e la terza d × d . Vale quindi il seguente Teorema 11.5 Siano V e W spazi vettoriali finitodimensionali. Sia f : V → W lineare. Siano ′ A, A′ basi di V , e B e B ′ basi di W . Allora la matrice MBA′ (f ) si ottiene facendo il prodotto ′ A MBB′ id(w) ∗ MBA g ∗ MA Id(v) ′ ′ A = (MBB id(w))−1 ∗ MBA (f ) ∗ MA id(v) 11.4.2 Caso particolare endomorfismo Caso particolare: Consideriamo il caso in cui V = W finitodimensionale. Allora f : V → V e’ un endomorfismo lineare (applicazione lineare di uno spazio in se’ stesso). Supponiamo di avere due basi di V B e B ′ . Vogliamo confrontare le matrici di f da B a B (stessa base in partenza e in arrivo) e la matrice di f dalla base B ′ a B ′ . Applichiamo il teorema valido nel caso generale. Ricaviamo che la matrice dalla base B ′ alla base B ′ di f e’ la matrice ′ MBB′ id(v) ∗ MBB f ∗ MBB id(v) Questo equivale a ′ (MBB id(v))−1 ∗ MBB f ∗ MBB′ id(v) Capitolo 11. Matrici e basi 161 / 258 Corollario 11.2 Sia V uno spazio vettoriale finitodimensionale. Siano B e B ′ basi di V . Allora per ogni endomorfismo lineare di V in se’ stesso si ha che ′ ′ ′ MBB′ f = (MBB id(v))−1 ∗ MBB f ∗ MBB id(v) Esempio 11.7 Si consideri l’applicazione LA : R2 → R2 con 1 −1 2 2 A= textit. Applicando il teorema la matrice da B a B di LA e’ la matrice: (MCB2 (idLA ))−1 ∗ MCC22 LA ∗ MCB2 id(LA ) La seconda matrice e’ la matrice data. La terza matrice e’ quella che ha per colonne i vettori della base B . La prima matrice e’ l’inversa della terza. Calcoliamo l’inversa della matrice A . 1 2 1 0 1 1 0 1 1 2 1 0 0| −1 −1 1 1 0 −1 2 0 1 1 −1 (MCB2 id)−1 = −1 2 1 −1 Faccio il prodotto della matrice inversa per la matrice di partenza. M1 = −1 2 1 −1 M2 = 1 −1 2 2 M1 ∗ M2 = M3 = 3 5 −1 −3 1 2 1 1 Capitolo 11. Matrici e basi 162 / 258 M1 ∗ M2 ∗ M3 = 8 11 −4 −5 Verifica: Applico f al primo vettore nella nuova base, cioe’ (1, 1) = (0, 1) + (1, 0) (ho scritto il vettore come somma di due vettori della base canonica). f (1, 1) = LA (1, 1) Sommo le due colonne della matrice A . f (1, 1) = f (0, 1) + f (1, 0) = (1 − 1, 2 + 2) = (0, 4) Queste sono le coordinate del trasformato del primo vettore nella nuova base. Considero la matrice che ho trovato e scrivo la combinazione lineare dei vettori della base B con le coordinate del primo vettore, che corrispondono alla prima colonna della matrice trovata. Se l’esercizio e’ giusto devo ottenere le coordinate del trasformato nella base B , ovvero (0, 4) . 8 ∗ (1, 1) − 4 ∗ (2, 1) = (8 − 8, 8 − 4) = (0, 4) verificato Faccio lo stesso procedimento con il secondo vettore. f (2, 1) = f ((1, 0)) + f ((1, 0)) + f ((0, 1)) = (1, 2) + (1, 2) + (−1, 2) = (1, 6) 11 ∗ (1, 1) − 5 ∗ (2, 1) = (11 − 10, 11 − 5) = (1, 6), verificato Capitolo 12. Matrici simili 163 / 258 Capitolo 12 Matrici simili 12.1 Matrici simili in uno spazio vettoriale Definizione 12.1 Siano A e A′ matrici reali d × d . Diremo che A e A′ sono simili se esiste una matrice C d × d invertibile tale che A′ = C −1 ∗ AC . 12.1.1 Teorema sulla similitudine Teorema 12.1 Dato V d -dimensionale, allora A e B matrici d×d sono simili se e solo se esistono ′ f : V → V lineare e basi B e B ′ di V tali che A = MBB (f ) e B = MBB′ (f ) . Dimostrazione 12.1 2 −→ 1 , infatti le matrici di f rispetto alle basi B e B ′ ( A e B rispettivamente) ′ sono simili, infatti B = C −1 AC con C = MBB che e’ invertibile. 2 −→ 1 : Viceversa, siano A e B matrici d × d simili e sia C invertibile tale che B = C −1 AC . Sia A la matrice dell’applicazione lineare d × d rispetto alla base B . Prima di procedere è necessario il seguente lemma. Lemma 12.1 Sia B = {v1 , . . . , vd } una base di V . Affermo che esiste ed e’ unica f : V → V lineare tale che A e’ la matrice di f rispetto alla base B . Dimostrazione 12.2 Se A ha entrate aij e se f : V → V lineare e’ tale che la matrice di f nella base B e’ A , deve essere Capitolo 12. Matrici simili 164 / 258 f (vj ) = d ∑ aij ∗ vi . i=1 La j-esima colonna della matrice e’ la colonna delle coordinate di f (vj ) nella base B. Se esiste f e’ unica. D’altra parte sappiamo che un’applicazione lineare si puo’ definire in modo arbitrario sui vettori di una base. Allora esiste un’applicazione f : V → V lineare tale che ∑ f (vj ) = aij ∗ vi i . Quindi la matrice di f rispetto alla base B e’ proprio A . cvd Riprendendo con la dimostrazione del teorema, consideriamo l’unica applicazione lineare g : V → V tale che g(vj ) = d ∑ cij ∗ vi , i=1 dove cij sono le entrate della matrice invertibile che realizza la similitudine tra A e B . La matrice che rappresenta l’applicazione lineare g dalla base B ′ a B e’ la matrice C . Per ipotesi C e’ invertibile, quindi l’applicazione lineare g e’ invertibile. Allora e’ un automorfismo di V e pertanto se chiamo B′ la sequenza ordinata g(v1 ), . . . , g(vd ) essa e’ un’altra base di V . Dimostrazione 12.3 Per semplicita’ scriviamo wj = g(vj ) = ∑d i=1 cij ∗ vi . Allora B ′ = {w1 , . . . , wd } . La matrice dell’identita’ di V da B ′ a B e’ la matrice che esprime i vettori della base B ′ in termini della base B . Scrivo wj in termini di vi , quindi ottengo la matrice C stessa per costruzione. Allora dalla relazione tra matrici rispetto a basi diverse si ha: ′ ′ ′ MBB′ (f ) = MBB (I −1 (V )) ∗ MBB (f ) ∗ MBB (I(V )) = C −1 ∗ A ∗ C ′ ma C −1 AC = B , si ha MBB′ (f ) = B . cvd 12.1.2 Caso particolare del teorema sulla similitudine Caso particolare: Nelle ipotesi precedenti siano A , B e C come sopra ( B = C −1 ∗ AC ). Se consideriamo LA : Rd → Rd , cioe’ V = Rd e una delle due basi e’ la base canonica, allora la matrice nella base Cd di LA (che porta un vettore X Capitolo 12. Matrici simili 165 / 258 in AX ) e’ la matrice A stessa. Esiste una base rispetto alla quale la matrice di LA e’ B . C e’ invertibile, quindi la sequenza ordinata delle colonne di C {c1 , . . . , cd } e’ base di Rd . La matrice da B a Cd dell’identita’ di Rd e’ la matrice che esprime ogni colonna in funzione della base canonica, ma le coordinate di cj nella base canonica sono le colonne stesse, quindi ottengo la matrice C . Se calcolo la matrice rappresentativa di LA ho MCBd (I −1 V ) ∗ MCCdd (LA ) ∗ MCBd (I), quindi ottengo C −1 AC = B . La matrice che rappresenta LA nella nuova base e’ quella che ha per colonne cj 12.2 condizioni necessarie per la similitudine 12.2.1 Rango uguale Se A e B sono matrici d × d simili, allora rappresentano la stessa f , quindi hanno lo stesso rango: rg(A) = rg = rg , dove ad esempio f = LA . Infatti sia A che B rappresentano f rispetto a basi opportune. Quindi per esempio sicuramente la matrice A= 1 0 e la matrice B= 2 1 0 1 non sono simili, perche’ rg = 1 mentre rg = 2 . 12.2.2 Matrici diverse dall’identita’ Pur avendo lo stesso rango, le matrici A= B= 2 0 0 2 −2 1 0 1 non sono simili. Infatti A è un multiplo dell’identità, e, in generale se considero una matrice invertibile d × d che chiamo C e faccio il prodotto C −1 ∗ λ ∗ I ∗ C , ottengo λ ∗ C −1 ∗ I ∗ C = λ ∗ C −1 ∗ C = λ ∗ I . Una matrice multiplo dell’identita’ e’ simile solo a se stessa. Capitolo 12. Matrici simili 166 / 258 12.2.3 Traccia uguale Ciononostante, pur avendo lo stesso rango e non essendo multipli dell’identita’, le matrici A= 2 0 0 1 B= 1 1 0 3 non sono simili. Definizione 12.2 Sia A una matrice d × d . La traccia di A e’ il numero reale ( tr ) dato dalla ∑ somma delle entrate diagonali della matrice, cioe’, dk=1 akk . Per esempio, la traccia della matrice identica d × d e’ sempre uguale a d . Date queste matrici: 2 0 0 1 A= tr = 3 B= 1 1 1 −1 tr = 0 Vale il seguente lemma: Proposizione 12.1 Siano A e B matrici quadrate d × d . Allora i prodotti AB e BA sono ancora matrici d × d , e tr = tr . Dimostrazione 12.4 Conto esplicito: tr = d ∑ (AB)kk k=1 Inoltre (AB)kk = d ∑ i=1 Sostituisco nell’espressione della traccia: aki ∗ bik Capitolo 12. Matrici simili 167 / 258 tr = d ∑ d ∑ aki bik k=1 i=1 Inverto le sommatorie: tr = d ∑ d ∑ bik ∗ aki i=1 k=1 tr = d ∑ (BA)ii i=1 Questa e’ la traccia di BA . cvd Corollario 12.1 Se A e B sono matrici d × d simili, allora la traccia di A e’ uguale alla traccia di B. Dimostrazione 12.5 Sia C matrice d × d invertibile tale che B = C −1 ∗ AC . Allora tr = tr (proprieta’ associativa) Uso la proprieta’ dimostrata = tr tr(A ∗ (CC−1 )) = tr(A ∗ id) = tr cvd Nota: Il prodotto di matrici NON e’ commutativo, ma siccome ho dimostrato che AB e BA hanno hanno la stessa traccia posso fare queste operazioni. Le due matrici dell’esempio non sono simili, perche’ non hanno la stessa traccia. Il corollario permette di dire quando due matrici non sono simili, ma non vale il viceversa. 12.2.4 Determinante uguale Consideriamo il caso 2 0 0 1 2 1 1 1 Capitolo 12. Matrici simili 168 / 258 il rango e’ uguale, la traccia e’ uguale, ma le matrici non sono simili. Infatti il determinante e’ diverso, e matrici simili hanno necessariamente lo stesso determinante. Avere lo stesso determinante e’ condizione necessaria, ma non sufficiente, per la similitudine. 12.2.5 conclusione In realta’, se si considerano due matrici A= 1 0 0 1 B= 1 1 1 0 entrambe hanno rango 2, traccia 2, determinante 1, ma non sono simili, perche’ la matrice identica e’ simile solo a se stessa. Per capire quando due matrici sono simili serve solo la formula canonica di Jordan. 12.3 Precisazione sulle matrici simili Due matrici d × d simili hanno stessa traccia e stesso determinante. Se f : V → V ′ e’ lineare e B e B′ sono basi di V , allora MBB (f ) e MBB′ (f ) sono simili e quindi hanno la stessa traccia e lo stesso determinante. ′ B trMB B (f) = trMB′ (f) ′ det MBB (f ) = det MBB′ (f ) Sia V uno spazio vettoriale finitodimensionale e sia f : V → V lineare. Definiremo B traccia di f come trMB B (f) e il determinante di f come det MB (f ) per una qualsiasi scelta di una base di V . Allora la definizione non dipende da tale scelta della base B ma solo da f . Capitolo 13. Determinanti 169 / 258 Capitolo 13 Determinanti 13.1 Definizioni preliminari 13.1.1 Funzione multilineare Definizione 13.1 Una funzione f dallo spazio delle matrici d × d a coefficienti in R si dice multilineare se essa e’ lineare, separatamente in ciascuna colonna dell’argomento A . Questo significa che f e’ multilineare se per ogni j = 1, . . . , d e per ogni scelta di A1 , . . . , Aj−1 , Aj+1 , . . . , Ad la funzione parziale che porta X ∈ Rd in f (A1 , A2 , . . . , Aj−1 , X, Aj+1 , . . . , Ad ) e’ una funzione lineare f : Rd → R . Nota: una funzione parziale e’ una funzione in cui alcuni argomenti sono fissati e altri sono lasciati liberi Esempio 13.1 Definisco f : M2 (R) → R tale che la matrice a b c d viene mandata nel prodotto scalare standard delle due colonne ab + cd . La funzione e’ bilineare nelle due colonne per la linearita’ del prodotto scalare standard. Esempio 13.2 Considero d : M2 (R) → R tale che se A= a b c d allora d(A) = ad−bc . Anche d è multilineare, infatti, fissata ad esempio la seconda colonna ottengo la funzione d(x, y) = xd − yb che e’ un polinomio omogeneo di Capitolo 13. Determinanti 170 / 258 grado 1 in x e y . Esempio 13.3 Considero l’applicazione tale che h( a b ) = ac + bd c d (prodotto scalare delle righe) Allora se faccio variare la prima colonna (x, y) e fisso la seconda ottengo la funzione h(x, y) = xy + bd . Questa funzione non e’ multilineare per colonne perche’ ha un termine quadratico. Esempio 13.4 Considero f : M3 (R) → R tale che f (A1 , A2 , A3 ) = (A2 ∗ A3 ) · A1 Se fisso la prima colonna ottengo la funzione d(x) = x ∗ A2 · A3 , che è lineare. Se invece fisso la prima e la terza colonna e lascio libera la seconda, ottengo la funzione d(x) = A1 · (x ∗ A3 ) che è lineare per la linearità del prodotto vettoriale. Esempio 13.5 Se considero la traccia come una funzione : Md (R) → R , essa non e’ lineare in ogni componente. Infatti, fissata la prima colonna, ottengo la funzione tr(x, y) = a + y , che non è un polinomio omogeneo; tuttavia la traccia è lineare se considerata come funzione definita sullo spazio delle matrici. Esempio 13.6 Se definisco f (A) = a11 ∗ a22 ∗ · · · ∗ add (dove gli aii sono le entrate sulla diagonale della matrice), essa e’ multilineare, perche’ se fisso tutte le colonne tranne la j-esima, ottengo f (x) = (a11 ∗ a22 ∗ · · · ∗ xj ∗ aj+1,j+1 ∗ · · · ∗ add che e’ lineare. 13.1.2 Funzione alternante Definizione 13.2 Una funzione multilineare f : Md (R) → R si dice alternante o antisimmetrica se cambia di segno quando vengono scambiate tra loro due colonne dell’argomento A ∈ Md (R) tutte le altre rimanendo invariate. Esempio 13.7 Se considero f : M2 (R) → R tale che Capitolo 13. Determinanti 171 / 258 ( ) a b ) = ab + cd f( c d essa è simmetrica per l’analoga proprietà del prodotto scalare. Esempio 13.8 Invece considero d : M2 (R) → R tale che su una matrice ( a b c d ) vale ad − bc , questa e’ antisimmetrica. Infatti se scambio le colonne ottengo f (A) = bd − ac e il segno dell’immagine cambia. 13.1.3 Multilinearita’ e antisimmetricita’ Lemma 13.1 Sia f : Md (R) → R multilineare. Allora f e’ alternante se e solo se f (A) = 0 per ogni matrice A con due colonne uguali. Dimostrazione 13.1 1 −→ 2 : Sia f alternante. Sia A una matrice con due colonne uguali. Supponiamo per esempio che Aj = Ak per j < k . Dimostriamo che f (A) = 0 . Sia v = Aj = Ak . Allora f (A) = f (A1 , . . . , Aj−1 , v, . . . , ak−1 , v, . . . ). Se scambio tra loro la j-esima e la k-esima colonna ottengo −f A) = f (A1 , . . . , Aj−1 , v, . . . , Ak−1 , v, . . . ) perche’ la matrice e’ antisimmetrica. Poiché il secondo membro delle ultime due relazioni coincide si ha −f (A) = f (A) ovvero f (A) = 0 . 2 −→ 1 : Viceversa, sia f (A) = 0 per ogni A con due colonne uguali. Per ogni B matrice dxd con colonne B 1 , . . . , B d e per j < k , valuto f sulla matrice B ′ con colonne B 1 , . . . , B j−1 , B j + B k , B j+1 , . . . , B k−1 , B j + B k , B d . Poiché B ′ ha due colonne uguali, f (B ′ ) = 0 per ipotesi e ottengo f (B 1 , . . . , B j−1 , B j + B k , . . . K k−1 , B j + B k , . . . , B d ) = Prima spezzo la prima componente = f (B 1 , . . . , B j , . . . B j + B k , . . . , B d ) + f (B 1 , . . . , B k , . . . , B j + B k , . . . , B d ) = Capitolo 13. Determinanti 172 / 258 Ora spezzo la seconda componente in entrambi gli addendi. f (. . . , B j , . . . B j , . . . )+f (. . . , B j , . . . B k , . . . )+f (. . . , B k , . . . B j , . . . )+f (. . . , B k , . . . B k , . . . ) Stiamo supponendo che ogni volta che ho una matrice C con due colonne uguali f (C) = 0 quindi il primo e l’ultimo addendo sono uguali a 0 e rimane = f (. . . , B k , . . . , B j , . . . ) + f (. . . , B j , . . . , B k , . . . ) ovvero f (. . . , B k , . . . , B j , . . . ) = −f (. . . , B j , . . . , B k , . . . ) Quindi f e’ antisimmetrica. cvd Esempio 13.9 Sia d : M3 (R) → R tale che, data una matrice A con colonne A1 , A2 , A3 si abbia d(A) = A1 · (A2 ∗ A3 ) , e si verifica che se A ha due colonne uguali, d(A) = 0 , di conseguenza, per il lemma precedente, d è alternante oltre ad essere multilineare come mostrato nel lemma precedente. 13.2 Definizione di determinante ed esempi Teorema 13.1 Per ogni d ≥ 1 , esiste ed e’ unica una funzione f : Md (R) → R che e’ multilineare, alternante, e tale che f (id) = 1 . Tale funzione si dice determinante e si scrive: det(A) oppure |A| (la seconda scrittura e’ ambigua). Esempio 13.10 L’applicazione che porta una matrice A= a b c d in f (A) = ad − bc e’ multilineare e alternante. se la applico alla matrice identita’ ottengo 1, quindi essa è il determinante per matrici 2x2 di cui il teorema precedente afferma l’unicità. Esempio 13.11 Considero d : M3 (R) → R t.c. d(A1 , A2 , A3 ) = A1 · (A2 ∗ A3 ) Capitolo 13. Determinanti 173 / 258 con A1 , A2 , A3 colonne di una matrice A . Per quanto detto in precedenza, essa è multilineare e alternante. Applico f alla matrice identica: f (id) = (1, 0, 0) · [(0, 1, 0) ∗ (0, 0, 1)] = (1, 0, 0) · (1, 0, 0) = 1 quindi d è il determinante di una matrice 3x3 . 13.2.1 Teorema di Bine’ Teorema 13.2 Siano A e B matrici dxd . Allora il determinante del prodotto e’ il prodotto dei determinanti, ovvero det(AB) = det A ∗ det B. Corollario 13.1 Se C e’ una matrice dxd invertibile, allora det C ̸= 0 e il determinante della matrice inversa e’ l’inverso del determinante di C , ovvero det C −1 = det1 C . Dimostrazione 13.2 Per definizione di matrice inversa, C ∗ C −1 = Id , allora det(CC −1 ) = det Id = 1 e per il teorema di Binet: det C ∗ det C −1 = 1 quindi det C ̸= 0 e det C −1 = 1 det C . cvd Teorema 13.3 Se A appartenente a Md (R) allora A e’ invertibile se e solo se det A ̸= 0 . Corollario 13.2 Se v1 , . . . , vd sono vettori in Rd , allora {v1 , . . . , vd } e’ una base di Rd se e solo se il determinante della matrice che ha per colonne questi vettori è non nullo. Inoltre una matrice e’ invertibile se e solo se i vettori sono linearmente indipendenti). Corollario 13.3 se A, B ∈ Md (R) sono simili, allora det A = det B . Capitolo 13. Determinanti 174 / 258 Dimostrazione 13.3 Sia C ∈ Md (R) invertibile tale che B = C −1 ∗ A ∗ C . Allora per il teorema di Binet det B = det(C −1 ∗ A ∗ C) = det C −1 ∗ det A ∗ det C e poiché det C −1 = 1 det C , si ha det B = 1 ∗ det A ∗ det C = det A. det C cvd Osservazione 13.1 Se A e B sono simili, allora rgA = rgB , trA = trB , det A = det B . Non vale viceversa, infatti le matrici A= 1 0 0 1 B= 1 1 0 1 hanno traccia, rango e determinante uguali ma non sono simili. Corollario 13.4 det(AB) = det(BA) (segue dalla commutatività del prodotto in R , i determinanti sono numeri!) 13.3 Calcolo del determinante Teorema 13.4 Se A e’ una matrice n × n , allora det A = det At . Dimostrazione 13.4 Le righe di A sono le colonne di At . Definizione 13.3 Una matrice A in Mn (R) si dice triangolare superiore se i termini sotto la diagonale sono tutti nulli, ovvero A e’ triangolare superiore se e solo se aij = 0∀i > j Osservazione 13.2 Capitolo 13. Determinanti 175 / 258 Se M di entrate aij e’ triangolare superiore, allora det M = a11 ∗ a22 ∗ · · · ∗ ann , ovvero il determinante di una matrice triangolare superiore è il prodotto delle entrate sulla diagonale. Esempio 13.12 Calcoliamo il determinante della matrice 2 1 2 A = 0 3 −1 4 1 1 Applico la regola: det A = (A1 ∗ A2 ) · A3 = (2, 0, 4) ∗ (1, 3, 1) · (2, −1, 1) (−12, 2, 6) · (2, −1, 1) = −24 − 2 + 6 = −20 In base alla regola scritta prima, posso calcolare il determinante di una matrice 3 × 3 anche riducendola a scala e poi moltiplicando gli elementi sulla diagonale. Se durante l’eliminazione di Gauss scambio due righe, il determinante cambia di segno. Esempio 13.13 Calcolo il determinante di 3 −1 5 B = −1 2 1 −2 4 3 Scambio la prima e la seconda riga (il determinante avra’ sengo opposto) B= B= −1 2 1 3 −1 5 −2 4 3 −1 2 1 0 5 2 0 0 5 det B = −(−1 ∗ 5) = 5 13.3.1 Sviluppo di Laplace Definizione 13.4 Sia M una matrice n × n . Si pone Mij la matrice (n − 1)x(n − 1) ottenuta togliendo la i-esima riga e la j-esima colonna alla matrice di partenza. Capitolo 13. Determinanti 176 / 258 Proposizione 13.1 Se A e’ una matrice n × n di entrate aij , allora det A = (−1)i+1 ∗ ai1 ∗ det Ai1 + · · · + (−1)i+n ∗ ain ∗ det(Ain ) Esempio 13.14 Applichiamo questa formula per calcolare il determinante della matrice: 2 1 2 0 3 −1 4 1 1 Sviluppo secondo la prima colonna det A = 2 ∗ det( 3 −1 1 2 ) + 4 ∗ det( )+ 1 1 3 −1 det A = 2 ∗ 4 − 4 ∗ 7 = −20 Lo stesso risultato si ottiene facendo l’eliminazione di Gauss. 2 1 2 0 3 −1 4 1 1 Posso sottrarre alla terza riga un multiplo della prima, cioe’ la prima per 2. 2 1 2 0 3 −1 0 −1 −3 Ricordare: non posso moltiplicare la terza riga per 3 e poi sottrarle la seconda, posso pero’ dividere la seconda riga per 3 e poi sottrarla alla terza oppure scambiare le due righe, ricordando di cambiare segno al determinante. 2 1 2 0 −1 −3 0 3 −1 Ora sommo alla terza riga la seconda moltiplicata per 3. 2 1 2 0 −1 −3 0 0 −10 det A = −a11 ∗ a22 ∗ a33 = −2 ∗ (−1) ∗ (−10) = −20 Capitolo 14. Spazio duale 177 / 258 Capitolo 14 Spazio duale 14.1 omomorfismo 14.1.1 Lo spazio V W Definizione 14.1 Si definisce homV,W l’insieme delle funzioni lineari f : V → W , con V e W spazi vettoriali. Osservazione 14.1 homV,W ̸= ∅ perche’ 0homV,W : V → W e’ definito ponendo 0homV,W (v) = 0w . per ogni v ∈ V e’ lineare. (almeno l’elemento banale esiste sempre) Se dimV = d e dimW = c , con c, d compresi tra 1 e +∞ , e se B = {v1 , . . . , vd } e’ una base fissata di V , allora per ogni (w1 , w2 , . . . , wd ) ∈ W × · · · × · · · × W (W d ) sappiamo che esiste unica f ∈ homV,W tale che f (vj ) = wj , per ogni j = 1, . . . , d . Quindi se fissiamo una base B = {v1 , . . . , vd } di V , allora esiste una corrispondenza biunivoca naturale da homV,W in W d che manda B in (f (v1 ), . . . , f (vd )) . Definiamo le operazioni su homV,W , in particolare, definiamo la somma + : homV,W × homV,W → homV,W e il prodotto ·R × homV,W → homV,W ponendo (f1 + f2 )(v) := f1 (v) + f2 (v) (λ ∗ f )(v) := λ ∗ f (v) per ogni f1 , f2 , f ∈ homV,W e ∀λ ∈ R . Verifichiamo che le definizioni siano ben poste, e quindi che f1 + f2 e λ ∗ f siano lineari da V in W , e quindi appartengano ancora a homV,W : Dimostrazione 14.1 Capitolo 14. Spazio duale 178 / 258 1. f1 + f2 ∈ homV,W : siano f1 , f2 ∈ homV,W e siano v, v ′ ∈ V e λ, λ′ ∈ R .Allora (f1 + f2 )(λ ∗ v + λ′ ∗ v ′ ) = f1 (λ ∗ v + λ′ v ′ ) + f2 (λ ∗ v + λ′ ∗ v ′ ) = per la linearità di f1 e f2 : [λ ∗ f1 (v) + λ′ ∗ f1 (v ′ )] + [λ ∗ f2 (v) + λ′ ∗ f2 (v ′ )] = λ ∗ (f1 (v) + f2 (v)) + λ′ ∗ (f1 (v ′ ) + f2 (v ′ )) = Uso la definizione di somma: = λ ∗ (f1 + f2 )(v) + λ′ (f1 + f2 )(v ′ ) per ogni v1 , v2 ∈ V e λ, λ′ ∈ R .Allora f1 + f2 ∈ homV,W , essendo lineare, e in modo analogo si dimostra che anche λ ∗ f ∈ homV,W . cvd 2. λ ∗ f ∈ homV,W : sia f ∈ homV,W allora λ ∗ f (µ ∗ v + µ′ ∗ v ′ ) = e sfruttando la linearità di f : λ ∗ µ ∗ f (v) + λ ∗ µ′ ∗ f (v ′ ) = Uso la definizione di prodotto. µ ∗ f (λ ∗ v) + µ′ ∗ f (λ ∗ v ′ ) = Quindi anche λ ∗ f e’ lineare. cvd Si può verificare che homV,W è uno spazio vettoriale. 14.1.2 Lo spazio delle matrici cXd Per determinare la dimensione di homV,W è necessario introdurre lo spazio delle matrici c × d e definire alcune operazioni su di esso. Siano A = [Aij ] (la matrice con componenti Aij ) e B = [Bij ] appartenenti a M atc,d (R) con 1 ≤ i ≤ c e 1 ≤ j ≤ d . Definiamo 1. la somma A + B := [Aij + Bij] ; in particolare la somma tra matrici e’ commutativa e associativa, ha lo zero come elemento neutro e l’opposto di una matrice A = [Ai,j ] è −A = [−Ai,j ] ; 2. dato λ ∈ R , definisco la moltiplicazione per uno scalare ponendo λ ∗ A := [λ ∗ Aij ] Capitolo 14. Spazio duale 179 / 258 Osserviamo in particolare che vale la distributivita’ rispetto agli scalari: (λ + η) ∗ A = [(λ + η) ∗ Aij ] = [λ ∗ Aij + η ∗ Aij ] = [λ ∗ Aij ] + [η ∗ Ao j] = λ ∗ A + η ∗ A Lo spazio Matc,d (R) ha dimensione c × d , infatti una base di questo spazio puo’ essere costituita da tutte le matrici ei,j , per i = 1, . . . , c e j = 1, . . . , d , dove ei,j ha tutte le componenti nulle tranne Aij = 1 . Per ogni k, l con 1 ≤ k ≤ c e 1 ≤ l ≤ d una matrice ekl appartenente a M atc,d (R) definita ponendo: (ekl )ij = δki ∗ δlj = { 1 sei = k, j = l } 0 altrimenti Mostriamo che {ei,j , 1 ≤ i ≤ c, 1 ≤ j ≤ d} è una base di Consideriamo il caso in cui c = d = 2 , e sia A= M atc,d (R) . A11 A12 A21 A22 Posso esprimerla come la somma di quattro matrici: A11 0 0 A12 + 0 0 0 0 + 0 0 0 0 + A21 0 0 A22 Porto fuori A11 , A12 , A21 , A22 : A11 ∗ 1 0 0 1 + A12 ∗ 0 0 0 0 +A21 ∗ 0 0 0 0 + A22 ∗ 1 0 0 1 e quindi ogni matrice A può essere scritta come combinazione degli elementi della base {e11 , e12 , e21 , e22 } . In generale, se A = [Aij ] ∈ M atc,d (R) per lo stesso argomento A= c ∑ d ∑ Aij ∗ eij . i=1 j=1 allora ∗ = {e1,1 , e1,2 , . . . e1,d , . . . , ec,1 , ec,2 , . . . , ec,d } e’ un sistema di generatori per M atc,d (R) . Quindi ∗ e’ una base. Pertanto la dimensione dello spazio delle matrici M atc,d (R) e’ c ∗ d . Capitolo 14. Spazio duale 180 / 258 14.1.3 Dimensione di V W Siano V e W spazi vettoriali con dimV = d e dimW = c . Sia βBV = {v1 , . . . , vd } una base di V e sia βBW = {w1 , . . . , wc } una base di W . Per ogni f appartenente βBV a homV,W la matrice MβB (f ) appartiene a M atc,d (R) . Abbiamo quindi una W V funzione MBBW : homV,W → M atc,d (R) dipendente da BV e BW che manda un omomorfismo nella matrice che lo rappresenta rispetto alle basi scelte per V e W . Teorema 14.1 V La funzione MBBW e’ un isomorfismo di spazi vettoriali. Dimostrazione 14.2 V 1. Si può dimostrare facilmente che MBBW è lineare. V 2. Dimostro l’iniettività, e cioè che ker MBBW = 0 dove 0 indica lo ∑ zero dello spazio delle matrici s×r dove r = dimV e s = dimW .Sia f (vj ) = si=1 cij ∗ V , allora cij = 0∀i, j perché C dev’essere la wi ; se suppongo f ∈ ker MBBW ∑r matrice nulla.Applico f a un generico vettore della forma v = j=1 xj ∗ vj e ottengo r ∑ f (v) = xj ∗ f (vj ) j=1 ma f (vj ) = 0W per quanto detto prima, cioè f è l’applicazione nulla e il ker è banale. 3. Dimostro la suriettività. Per ogni p1 , . . . , p∑ r ∈ W esiste un’unica f : V → W tale che f (vj ) = pj . Definiamo pj = si=1 Aij ∗ wi , dove le Aij V sono le entrate di una matrice A ∈ M ats,r (R) . Allora MBBW (f ) = A e l’applicazione è suriettiva. cvd Corollario 14.1 La dimensione di homV,W e’ dimV ∗ dimW = c ∗ d . V Se poi fij : V → W lineare e’ tale che MBBW (fij ) = eij , allora {f1,1 , f1,2 , . . . , f1,d , . . . , fc,1 , fc,2 , . . . fc,d } e’ una base di homV,W . fij : V → W e’ l’unica applicazione lineare tale che Fk,l (vj ) = δj,l (wk ) . Esempio 14.1 Sia H : R3 → R2 tale che Capitolo 14. Spazio duale 181 / 258 H(x, y, z) = (x + y − 1, x + z) Scrivo la matrice associata a f : 1 1 −1 1 0 1 H si puo’ scrivere come combinazione degli eij H = e1,1 + e1,2 − e1,3 + e2,1 + e2,3 14.2 Spazio duale 14.2.1 Spazio duale e funzionali Se considero il caso particolare W = R , la sua base e’ BR = 1 e homV,R e’ l’insieme delle funzioni lineari f : V → R , che vengono dette funzionali su V . homV,R si dice lo spazio duale di V e si denota in generale come V ∗ . La dimensione di V ∗ e’ dimV ∗ dimR = dimV . 14.2.2 Base dello spazio duale Fissiamo BV = {v1 , . . . , vd } e definiamo i vettori della base dello spazio duale {v1∗ , . . . , vd∗ } ponendo { vj∗ = f1,j (vk ) = δjk = 1 0 ⇐⇒ j = k altrimenti Se BV = {v1 , . . . , vd } e’ una base di V , la base B ∗ = {v1∗ , . . . , vd∗ } costruita come sopra, si dice la base di V ∗ duale alla base BV . Verifichiamo esplicitamente che {v1∗ , . . . , vd∗ } è una base: Lineare indipendenza: Siano α1 , . . . , αd numeri reali tali che α1 ∗ v1∗ + · · · + αd ∗ vd∗ = 0V ∗ dove 0v∗ e’ l’elemento neutro dello spazio duale, cioe’ il funzionale identicamente nullo, che vale 0 su tutti i vettori: per ogni k = 1, . . . , d si ha d ∑ [αj ∗ vj∗ ](vk ) = 0 j=1 Per come abbiamo definito le operazioni nello spazio, l’espressione sopra equivale a: Capitolo 14. Spazio duale 182 / 258 d ∑ αj ∗ vj∗ (vk ) = 0 j=1 e per la definizione dei vj∗ : d ∑ αj ∗ δjk = 0 −→ αj = 0 j=1 perché l’unico addendo che contribuisce e’ quello con j = k . Allora αk = 0∀k = 1, . . . , d ∑ , pertanto abbiamo concluso che i vj∗ sono linearmente indipendenti, essendo αj ∗ vj∗ = 0V ∗ solo se gli scalari sono uguali a 0. Sistema di generatori: dimostriamo che un qualsiasi funzionale su V puo’ essere scritto come combinazione dei vj∗ . Sia f un qualsiasi elemento del duale. Osservo che, poiché vj∗ (vk ) = δjk : d ∑ f (vj ) ∗ vj∗ (vk ) = j=1 d ∑ f (vj )δik = f (vk ) j=1 cioè f (vk ) è combinazione lineare dei vj∗ . 14.2.3 Considerazioni sulla base duale alla base canonica Prendo la base canonica di R2 , cioè C2 = {(1, 0), (0, 1)} = {e1 , e2 } , e pongo C2∗ = {e∗1 , e∗2 } . Applicando il primo vettore al vettore colonna (x, y) si ha: e∗1 (x, y) = e∗1 (e1 ∗ x + e2 ∗ y) = e∗1 (e1 ∗ x) + e∗1 (e2 ∗ y) = x (infatti e∗1 (ek ) e’ uguale a 1 solo se j = k quindi e∗1 (e1 ) = 1 mentre e∗1 (e2 ) = 0 ) Si osserva che e∗1 e’ l’applicazione lineare che a ogni vettore di R2 associa la prima componente. Allo stesso modo, se applico il secondo vettore della base duale al vettore (x, y) , ottengo la seconda componente. Inoltre, se prendo un generico elemento del duale, f (x, y) = ax + by per certi a, b ∈ R , le sue coordinate nella base duale sono date dai valori assunti da f su e1 , e2 , cioe’, f (e1 ) = a ∗ 1 + b ∗ 0 = a e f (e2 ) = a ∗ 0 + b ∗ 1 = b . In generale, se Cd e’ la base canonica di Rd e Cd∗ e’ la base duale ad essa, allora e∗j (x1 , . . . , xd ) = e∗j ( d ∑ x k ∗ ek ) k=1 = d ∑ xk ∗ e∗j (ek ) = xj k=1 e quindi e∗j e’ il funzionale lineare che manda un vettore nella sua j -esima componente. Inoltre, se f e’ un qualsiasi elemento del duale su Rd , esistono Capitolo 14. Spazio duale 183 / 258 a1 , . . . , ad ∈ R tali che per ogni (x1 , . . . , xd ) ∈ Rd . Allora le coordinate di f nella base C ∗ sono date da a1 , . . . , ad . Questo ragionamento vale anche se la base considerata non è quella canonica. Esempio 14.2 Sia f : Rd [x] → R , dove f (p(x)) = p′ (1) − p(0) . Prendo la base B = {1, x, x2 , x3 } e la base B ∗ duale ad essa. Verifico come agisce la funzione f sui vettori della base B : f (1) = −1; f (x) = 1; f (x2 ) = 2; f (x3 ) = 3 Quindi le coordinate di f nella base duale sono (−1, 1, 2, 3) e si può scrivere: −1 + x∗ + 2(x2 )∗ + 3(x3 )∗ . 14.3 Sottospazi annullatori 14.3.1 Definizione ed esempi Definizione 14.2 Sia V uno spazio vettoriale e W un suo sottospazio. Il sottospazio annullatore di W e’ l’insieme di tutti i funzionali lineari su V che sono identicamente nulli su W . L’annullatore si indica con il simbolo W0 e si puo’ definire nei seguenti modi: W0 = {f ∈ V ∗ t.c.f (W ) = 0} W0 = {f ∈ V ∗ t.c.f (w) = 0∀w ∈ W } W0 = {f ∈ V ∗ t.c. W ⊆ ker(f )} Prendo un generico (a, b) ∈ R2 e diciamo W = span{(a, b)} . Se (a, b) ̸= 0 W e’ la retta che congiunge l’origine con a (a, b) . Allora W0 e’ l’insieme dei funzionali lineari x ∗ e∗1 + y ∗ e∗2 tali che sono nulli su (a, b) , e quindi su W (ho scritto i funzionali come combinazione degli elementi della base dello spazio duale). In particolare: 1. se (a, b) e’ il vettore nullo, la condizione x ∗ a + y ∗ b = 0 e’ soddisfatta per ogni scelta di (x, y) . In questo caso W0 = (R2 )∗ 2. Se (a, b) ̸= 0 , (x, y) soddisfa la condizione x ∗ a + y ∗ b = 0 se e solo se (x, y) e’ perpendicolare ad (a, b) .Abbiamo che (x, y) = λ ∗ (−b, a) per qualche λ ∈ R , quindi W0 = span{(−b ∗ e∗2 , a ∗ e∗1 )} ed e’ un sottospazio di dimensione 1 nello spazio di dimensione 2. Capitolo 14. Spazio duale 184 / 258 Osservazione 14.2 W0 e’ un sottospazio vettoriale di V ∗ . Osservazione 14.3 1. L’elemento neutro di V ∗ e’ una funzione lineare identicamente nulla. E’ una funzione ϕ tale che ∀v ∈ V ϕ(v) = 0Rk In particolare, 0V ∗ = 0w ∀v ∈ W , quindi 0V ∗ ∈ W0 . 2. Siano v1 , v2 elementi di W0 e λ1 , λ2 ∈ R . Allora per ogni w ∈ W si ha (λ1 ∗ ϕ1 + λ2 ∗ ϕ2 )(w) = λ1 ∗ ϕ1 (w) + λ2 ∗ ϕ2 (w) per linearita’ = λ1 ∗ 0 + λ2 ∗ 0 = 0 infatti ϕ1 (w) = ϕ2 (w) = 0 essendo ϕ1 e ϕ2 in W0 e w ∈ W .Siccome questo vale per ogni w ∈ W , allora λ1 ∗ ϕ1 + λ2 ∗ ϕ2 ∈ W0 per ogni scelta di ϕ1 , ϕ2 in W0 .Quindi la combinazione lineare di due elementi dell’annullatore vi appartiene. cvd 14.3.2 Dimensione dell’annullatore Se W = V , l’annullatore di W si riduce a 0V ∗ . Viceversa se W e’ lo spazio nullo, allora W0 = V ∗ . Se (a, b) ∈ R2 \ {0} , e W = span{a, b} , allora il sottospazio annullatore di W e’ span{−b ∗ e∗1 + a ∗ e∗2 } Teorema 14.2 Sia V uno spazio vettoriale finitodimensionale e sia W in V un sottospazio vettoriale. Allora dimW0 = dimV − dimW . Dimostrazione 14.3 Notiamo che nei due casi banali esposti sopra la relazione è soddisfatta. Possiamo allora supporre che dimW ≥ 1 e dimW < dimV . Sia d = dimV e c = dimW . Sia BW = {w1 , . . . , wc } una base di W . Per il teorema della base estesa, esistono v1 , . . . , vd−c ∈ V t.c.BV = {w1 , . . . , wc , v1 , . . . , vd−c } sia una base di V . ∗ } la base di V ∗ Consideriamo la base duale. Sia B∗ = {w1∗ , . . . , wc∗ , v1∗ , . . . , vd−c ∗ ∗ duale a BV . Allora wj ∈ V e’ univocamente determinato dalle condizioni: wj∗ (wk ) = δjk per j = 1, . . . , d, k = 1, . . . , c ; in particolare, wj∗ (vi ) = 0 per ogni i = 1, . . . , d − c . Analogamente, vl∗ in V ∗ e’ univocamente determinato dalle condizioni: vl∗ (wj ) = 0, ∀l = 1, . . . , d − c, j = 1, . . . c e vl∗ (vj ) = 0 per j = 1, . . . c e vl ∗ (vr ) = δl,r per r = 1, . . . , d − c . Capitolo 14. Spazio duale 185 / 258 Allora per ogni ϕ in V ∗ esistono e sono unici α1 , . . . , αc , β1 , . . . , βd−c ∈ R tali che ϕ= c ∑ αi ∗ wi∗ + i=1 d−c ∑ βi ∗ vj∗ i=1 ϕ ∈ W0 se e solo se ϕ(w) = 0 per ogni w ∈ W e quindi per ogni combinazione lineare dei wj . ∑ Sia w = cj=1 λj wj allora c ∑ ϕ(w) = 0 −→ ϕ( λj ∗ wj ) = 0∀λ1 , . . . , λc ∈ R j=1 −→ ∑ λj ∗ ϕ(wj ) = 0 j per linearita’. Quindi questo equivale a dire che ϕ(wj ) = 0 per ogni j, cioè un funzionale si annulla su W se si annulla su tutti gli elementi di una base di W . Se αi , βi sono come prima, imponiamo che ϕ(wj ) = c ∑ αi ∗ wi∗ (wj ) + i=1 d−c ∑ βi ∗ vi∗ (wj ) = 0, relazione ∗ i=1 Il secondo addendo è nullo, mentre il primo e’ δij , quindi l’unico termine con un contributo non nullo e’ quello con i = j . Pertanto ϕ ∈ W0 se e solo se α1 = · · · = αc = 0 , cioè se e solo se ϕ appartiene a span{v∗1 , . . . , v∗d−c } . I vettori vi∗ , i = 1, . . . , d − c sono linearmente indipendenti perche’ sono parte della base duale, quindi ricavo che la dimensione di W0 e’ d − c , cioe’ dimV − dimW . cvd Esempio 14.3 Siano a1 , . . . , ad ∈ R non tutti nulli. Sia La dimensione dell’iperpiano W e’ d − 1 , quindi W0 ha dimensione 1. Osserviamo che, in termini dello spazio duale, W e’ il ker di . Esempio 14.4 Prendo L = span{(1, 2, 3)} in R3 . Trovare una base di L0 . L ha dimensione 1 quindi L0 ha dimensione 2. Devo trovare due funzionali lineari linearmente indipendenti che si annullino su L , e quindi che si annullino su (1, 2, 3) . (x, y, z) ∈ L se e solo se la matrice con colonne (1, 2, 3) e (x, y, z) ha rango 1. Quindi riduco a scala la matrice: Capitolo 14. Spazio duale 186 / 258 1 x 2 y 3 z 1 x 0 y − 2x 0 z − 3x Imponendo uguali a 0 le quantità corrispondenti agli ultimi due gradini, la matrice ha rango 1 e si hanno le due equazioni linearmente indipendenti: y − 2x = 0 e z − 3x = 0 . Quindi L = ker(2 ∗ e1 ∗ −e2 ∗) ∩ ker(3 ∗ e1 ∗ −e3 ∗) pertanto L0 = span{(2 ∗ e1 ∗ −e2 ∗) (3 ∗ e1 ∗ −e3 ∗)} e ho quindi trovato una base di L0 . Esempio 14.5 Sia W = span{(1, 1, −1, 0) (1, 2, 0, 1)} . Trovare una base dell’annullatore e la sua dimensione. W ha dimensione 2 essendo generato da due vettori linearmente indipendenti. Quindi W0 ha dimensione 4 − 2 = 2 . Per trovare una base di W0 cerco due funzionali lineari che si annullano su W . (x, y, z, t) ∈ W se e solo se il rango della matrice con colonne (1, 1, −10), (1, 2, 0, 1), (x, y, z, t) e’ 2. Faccio operazioni per riga sulla matrice: 1 1 −1 0 1 0 0 0 1 0 0 0 1 x 2 y 0 z 1 t 1 x 1 y−x 1 z+x 0 t−z−x 1 x 1 y−x 0 z + 2x − y 0 t−z−x Ottengo le equazioni: z + 2x − y = 0 e t − y − x = 0 . W = ker(2 ∗ e1 ∗ −e2 ∗ +e3 ∗) ∩ ker(e1 ∗ −e2 ∗ −e4 ∗) I due funzionali lineari sono linearmente indipendenti, quindi W0 = span{(2e1 ∗ −e2 ∗ +e3 ∗) (e1 ∗ −e2 ∗ +e4 ∗)} Capitolo 14. Spazio duale 187 / 258 14.3.3 Base dell’annullatore In generale, supponiamo che V = Rd e che W ∈ Rd sia un sottospazio vettoriale c -dimensionale. Supponiamo di aver concluso che W abbia equazioni cartesiane espresso in un sistema lineare di d − c equazioni omogenee in d incognite. Equivalentemente questo significa che W e’ il ker di f dove f : Rd → Rd−c e’ l’applicazione che porta (x1 , . . . , xd ) in Se il nucleo ha dimensione c , rgf = d − dim ker f = d − c con ker(f ) = W . Allora f e’ suriettiva e inoltre le d − c righe della matrice che rappresenta f sono linearmente indipendenti, inquanto l’applicazione ha rango d − c . Questo significa che sono tutti linearmente indipendenti. e naturalmente ϕj appartiene a W0 per ogni j = 1, . . . , d − c poiché ogni ϕj si annulla su W . Allora ϕ1 , . . . , ϕd−c e’ una base di W0 . Procedimento: Per trovare una base di W0 cerco equazioni carteisane di W , siano esse e in esse sostituisco (x1 , . . . , xd ) con v1∗ , . . . , vd∗ rispettivamente. 14.4 Osservazioni sulla traccia La traccia e’ un’applicazione che associa a ogni matrice la somma degli elementi sulla diagonale. Osservazione 14.4 La traccia e’ un elemento del duale di M atd (R) . Infatti, data una matrice A con entrate Aij e una matrice B con entrate Bij e presi λ, η ∈ R , allora tr = d ∑ (λ ∗ Aii ) + (η ∗ bii ) = i=1 d ∑ λ ∗ Aii + η ∗ bii = λ ∗ ∑ Aii + η ∗ ∑ bii = λ ∗ trA + η ∗ trB i=1 Quindi la traccia e’ lineare. Se considero la base {e11 , . . . , e1d , . . . , ed1 , . . . , edd } su M atd (R) , segue che { treij = 1 ⇐⇒ i = j 0 altrove infatti solo se i = j l’elemento eij e’ sulla diagonale. Quindi, in termini dei vettori della base duale: trA = 1 ∗ e∗11 + · · · + 0 ∗ e∗1d + · · · + 0 ∗ e∗d1 + · · · + 1 ∗ e∗dd La dimensione del nucleo della traccia, che chiamo T e’ d2 − 1 , perche’ l’applicazione e’ suriettiva ed e’ definita in uno spazio di dimensione d ∗ d = d2 . Capitolo 14. Spazio duale 188 / 258 L’annullatore di T e’ lo span della traccia, basta quindi scegliere come generatore un funzionale lineare che si abbia traccia nulla. Esempio 14.6 Sia W = {p(x) ∈ R3 [x] t.c. p(1) = 0 p′ (2) = 0}, definisco f : R3 [x] → R2 tale che f (p(x)) = (p(1), p′ (2)) , e sia W = ker f . Poniamo f1 = p(1) e f2 = p′ (2) allora W = ker f1 ∩ ker f2 . Data la base {1, x, x2 , x3 } , f1 ed f2 agiscono sui vettori nel modo seguente: f1 (1) = 1, f1 (x) = 1, f (x2 ) = 1, f1 (x3 ) = 1 −→ f1 = 1∗ + x∗ + (x2 )∗ + (x3 )∗ f2 (1) = 0, f2 (x) = 1, f2 (x2 ) = 4, f2 (x3 ) = 3 ∗ 4 = 12 −→ f2 = x∗ + 4(x2 )∗ + 12(x3 )∗ f1 , f2 sono linearmente indipendenti. Allora l’applicazione lineare che essi definiscono ha rango 2, e quindi W = 4 − rgf = 2 . Inoltre, W0 = span{f1 , f2 } = 2 . La matrice di f rispetto alla base di partenza e alla base canonica di R2 in arrivo e’ una matrice 2 × 4 e ha come righe le coordinate dei due funzionali rispetto alla base duale. 1 1 1 1 0 1 4 12 14.5 Relazione tra sottospazi annullatori Sia V uno spazio vettoriale e supponiamo di avere due sottospazi A e B in V tali che A ⊆ B . Ci si chiede quale sia la relazione tra i sottospazi annullatori A0 e B0 . 14.5.1 Inclusione Osservazione 14.5 Se ϕ ∈ B0 , allora ϕ(B) = 0 ma siccome A ⊆ B , ϕ(a) = 0∀a ∈ A . Quindi ϕ ∈ A0 . In formule A ⊂ B implica B0 ⊂ A0 . 14.5.2 Annullatore dell’intersezione Osservazione 14.6 Capitolo 14. Spazio duale 189 / 258 Considero l’intersezione A ∩ B , e il suo annullatore (A ∩ B)0 . Sia ϕ ∈ A0 + B0 allora ϕ = ϕ1 + ϕ2 , con ϕ1 ∈ A0 e ϕ2 ∈ B0 . Dato v ∈ A ∩ B , ϕ(v) = ϕ1 (v) + ϕ2 (v) , ma v ∈ A , quindi ϕ1 (v) = 0 , inoltre v ∈ B quindi ϕ2 (v) = 0 , pertanto ϕ(v) = 0∀v ∈ A + B . Abbiamo concluso che A0 + B0 e’ sicuramente contenuto nell’annullatore di (A ∩ B)0 . Ci si chiede se vale l’uguale. Sia {v1 , . . . , vc } una base di A∩B . Allora possiamo trovare vettori a1 , . . . , ar ∈ A che, aggiunti ai vj , costituiscono una base di A , e anche vettori b1 , . . . , bs tali che, aggiunti ai vj , costituiscano una base di B . Quindi la sequenza {v1 , . . . , vc , a1 , . . . , ar , b1 , . . . , bs } è una base di A + B : tale base si può estendere ulteriormente ad una base di V aggiungendo vettori w1 , . . . , wk . Una base dell’annullatore dell’intersezione è data dai vettori stellati (della base duale) corrispondenti ai vettori che ho aggiunto a v1 , . . . , vc per ottenere una base di V , ossia (A ∩ B)0 = span{a∗1 , . . . , ar ∗, b1 ∗, . . . , bs ∗, w1 ∗, . . . , wk ∗} . Equivalentemente si può scrivere (A ∩ B)0 = span{a∗1 , . . . , a∗r , w∗1 , . . . , w∗k } + span{b∗1 , . . . , b∗s , w∗1 , . . . , w∗k } Il primo addendo è lo span di tutti i vettori eccetto quelli che stanno nella base del duale di B , e quindi è B0 , analogamente il secondo addendo è A0 . Quindi, l’annullatore dell’intersezione e’ la somma degli annullatori. NotaLa relazione dimW0 = dimV − dimW segue anche dal fatto che gli stellati dei vettori che servono per estendere una base di W a una base di V costituiscono una base dell’annullatore. 14.5.3 Annullatore della somma Osservazione 14.7 Se ϕ ∈ A0 ∩ B0 , allora ϕ(a) = 0 ∀a ∈ A, ϕ(b) = 0 ∀b ∈ B . In particolare ϕ(a + b) = ϕ(a) + ϕ(b) = 0 + 0 = 0∀a + b ∈ A + B Quindi l’intersezione degli annullatori e’ contenuta nell’annullatore della somma (A + B)0 . In realtà, i due spazi sono uguali, e per dimostrarlo basta mostrare che hanno la stessa dimensione: Dimostrazione 14.4 Calcolo la dimensione dell’annullatore della somma: dim(A + B)0 = dimV − dim(A + B) Ma dim(A + B) = dimA + dimB − dimA ∩ B per la formula di Grasman, quindi Capitolo 14. Spazio duale 190 / 258 dim(A + B)0 = dimV − dimA − dimB + dimA ∩ B, relazione 1 Considero ora l’intersezione degli annullatori: per la formula di Grasman dim(A0 ∩ B0 ) = dimA0 + dimB0 − dim(A0 + B0 ) Ma dimA0 = dimV − dimA dimB0 = dimV − dimB dim(A0 + B0 ) = dim(A ∩ B)0 = dimV − dim(A ∩ B) quindi, sostituendo: dim(A + B)0 = dimV )dimA + dimV − dimB − dimV + dim(A ∩ B) Elimino i termini opposti. dim(A + B)0 = dimV − dimA − dimB + dim(A ∩ B) = dim(A0 ∩ B0 ) dove l’ultimo passaggio vale per la relazione 1. cvd In conclusione si ricavano le due regole generali: (A + B)0 = A0 ∩ B0 (A ∩ B)0 = A0 + B0 14.5.4 Uguaglianza tra annullatori Osservazione 14.8 Se V e’ uno spazio vettoriale di dimensione d < ∞ , e U e W in V sono sottospazi vettoriali, allora U = W se e solo se i corrispondenti annullatori sono uguali. Dimostrazione 14.5 Sia c la dimensione di W . Allora sappiamo che dimW0 = d − c . Sia poi {ϕ1 , . . . , ϕd−c } una base di W0 con ϕj : V → R funzionali lineari e linearmente indipendenti, e si può considerare l’applicazione lineare ϕ : V → Rd−c tale che ϕ = (ϕ1 , . . . , ϕd−c ) Sia B = {v1 , . . . , vd } una base di V e prendo la base duale ad essa B ∗ = {v1∗ , . . . , vd∗ } . Supponiamo che, per ogni i , per certi coefficienti Aji . I vettori riga (Ai1 , . . . , Aid ) sono linearmente indipendenti. Applico ϕ ai vettori della base e ottengo: Capitolo 14. Spazio duale 191 / 258 ϕ(v1 ) = (ϕ1 (v1 ), . . . , ϕd−c (v1 )) = (A1,1 , . . . Ad−c,1 ) Infatti quando applico ϕ1 rimane il termine A1,1 , quando applico ϕ2 ottengo il termine A2,1 e cosi’ via. In generale ϕ(vj ) = (A1,j , . . . , Ad−c,j ) La matrice che rappresenta ϕ dalla base B alla base canonica di Rd−c e’ la matrice che ha come j-esima colonna le coordinate rispetto alla base d’arrivo di ϕ(vj ) , ed e’ la matrice: A1,1 A1,2 A2,1 A2,2 ... ... Ad−c,1 Ad−c,2 . . . A1,d . . . A2,d ... ... . . . Ad−c,d Il rango di una matrice e’ il minimo tra il numero di righe e quello delle colonne, quindi rgϕ = d − c . Per il teorema del rango, la dimensione del nucleo di ϕ e’ d − (d − c) = c . Dato w ∈ W , allora ϕ(w) = (ϕ1 (w), . . . , ϕd−c (w)) = 0Rd−c , perche’ i ϕi sono nell’annullatore di W , quindi W e’ contenuto nel nucleo di ϕ , ma poiché i due spazi hanno la stessa dimensione, segue che W = ker ϕ . In particolare, se ho due sottospazi che hanno lo stesso annullatore, sono entrambi uguali al nucleo di ϕ , e quindi sono uguali tra loro. cvd Viceversa, sia L un sottospazio vettoriale, d − c -dimensionale contenuto in V ∗ , costruisco una base di L , {ϕ1 , . . . , ϕd−c } e costruisco ϕ esattamente come prima. Se W = ker ϕ , allora W ha dimensione c . Sicuramente L ⊆ W0 quindi i ϕi stanno nell’annullatore di W . Ma anche W0 ha dimensione d − c . Quindi L = W0 . Il passaggio da un sottospazio al suo annullatore da’ una corrispondenza biunivoca tra i sottospazi di V e i sottospazi del duale, che porta W nel suo annullatore. Capitolo 15. Prodotti scalari 192 / 258 Capitolo 15 Prodotti scalari 15.1 Definizione ed esempi di prodotti scalari 15.1.1 Forme bilineari Definizione 15.1 Sia V uno spazio vettoriale. Una forma bilineare su V e’ un’applicazione ϕ : V × V → R che e’ lineare separatamente su qualsiasi componente. In altre parole, e’ tale che per ogni v1 , v2 , v3 ∈ V e λ1 , λ2 , λ3 ∈ R , si ha ϕ(v3 , λ1 ∗ v1 + λ2 ∗ v2 ) = λ1 ϕ(v3 , v1 ) + λ2 ϕ(v3 , v2 ) Definizione 15.2 Una forma bilineare ϕ : V × V → R si dice simmetrica se ϕ(v, w) = ϕ(w, v) per ogni v, w ∈ V . Esempio 15.1 L’applicazione ϕ((x, y), (x′ , y ′ )) = x ∗ y ′ − y ∗ x′ e’ bilineare e non simmetrica. Il prodotto scalare standard è bilineare e simmetrico. Definizione 15.3 Un prodotto scalare su V e’ una forma bilineare, simmetrica su V . (non esiste solo il prodotto scalare standard, ma anche altri tipi di prodotti scalari) Capitolo 15. Prodotti scalari 193 / 258 15.1.2 Esempi Esempio 15.2 Sia ϕ : R2 × R2 → R , con ϕ((x, y), (x′ , y ′ )) = (x + y) ∗ (x′ + y ′ ) = x ∗ x′ + y ∗ x′ + x ∗ y ′ + y ∗ y ′ ϕ e’ bilineare perche’ e’ omogenea di grado 1 in ogni componente. Osservo che se considero (x, y) = (1, −1) ricaviamo che ϕ((x, y), (1, −1)) = 0 ∀(x, y) Esempio 15.3 Sia f : R3 [x]×R3 [x] → R tale che f (p, q) = p(0)∗q(0) . f e’ bilineare e simmetrica. Inoltre, osservo che se q(x) = x , f (p(x) ∗ x) = 0∀p ∈ R3 [x] . 15.1.3 Prodotto scalare non degenere Definizione 15.4 Un prodotto scalare si dice non degenere se per ogni v ∈ V con v ̸= 0 esiste un v ′ ∈ V tale che ϕ(v, v ′ ) ̸= 0 . Esempio 15.4 l prodotto scalare standard pst : Rd × Rd → R tale che pst (x, y) = x · y e’ non degenere, perche’ ϕ(x, x) = ∥x∥2 ed e’ diverso da 0 per ogni x ∈ R2 , x ̸= 0 . Il prodotto dell’esempio 1 è degenere perché il prodotto scalare tra un generico (x, y) e il vettore (1, −1) è sempre nullo. 15.2 Forme bilineari e prodotti scalari su spazi euclidei 15.2.1 Prodotti scalari e matrici Considero una forma bilineare, non necessariamente simmetrica, che chiamo ϕ : Rd × Rd → R . Siano x = (x1 , . . . , xd ) e y = (y1 , . . . , yd ) elementi di Rd e sia Cd la base canonica. ∑ ∑ Possiamo scrivere che x = di=1 xi ∗ ei e y = dj=1 yj ∗ ej , allora Capitolo 15. Prodotti scalari 194 / 258 d d ∑ ∑ ϕ(x, y) = ϕ( x i ∗ ei , y j ∗ ej ) i=1 j=1 Uso la linearita’ sulla prima componente e lascio la seconda fissata: porto fuori gli scalari. ϕ(x, y) = d ∑ xi ∗ ϕ(ei , j ∑ i=1 y j ∗ ej ) i=1 Uso la linearita’ sulla seconda componente: d ∑ xi ∗ yj ∗ ϕ(ei , ej ) i,j=1 Se considero La matrice C con entrate cij = ϕ(ei , ej ) posso riscrivere l’espressione come ϕ(x, y) = d ∑ xi ∗ i=1 Ma ∑ j cij d ∑ (cij ∗ yj ) j=1 ∗ yj e’ l’entrata i-esima del prodotto Cy quindi: ϕ(x, y) = d ∑ xt ∗ Cy i=1 Dal prodotto xt ∗ Cy si ottiene come risultato uno scalare, perche’ y e’ un vettore colonna e y t e’ un vettore riga. 15.2.2 Unicita’ della matrice C Sia D ∈ M atd (R) un’altra matrice d × d tale che ϕ(x, y) = xt ∗ Dy per ogni x, y ∈ Rd . Se x = ei , y = ej (vettori della base canonica) si ottiene: ϕ(ei , ej ) = eti Cej = eti cj = cij ( cj è la j-esima colonna della matrice) Analogamente, se considero allora la matrice D con entrate dij si ha ϕ(ei , ej ) = eti Dej = eti dj = dij Capitolo 15. Prodotti scalari 195 / 258 Allora le due matrici sono necessariamente uguali. ConclusioneOgni forma bilineare su Rd , cioe’ ogni ϕ : Rd × Rd → R bilineare puo’ essere scritta nella forma: ϕ(x, y) = xT ∗ C ∗ y al variare di x, y ∈ Rd per un’unica matrice C d × d e precisamente cij = ϕ(ei , ej ) . Quindi si può scrivere ϕ(x, y) = d ∑ Cij ∗ xi ∗ yj i,j=1 al variare di x, y ∈ Rd . Viceversa se partiamo da una matrice C di dimensione d × d , l’applicazione ϕC : Rd × Rd → R definita ponendo ϕ(x, y) = xt ∗ Cy = x · Cy = ∑ Cij ∗ xi ∗ yj i,j e’ bilineare. Abbiamo stabilito che esiste una corrispondenza biunivoca fra le forme bilineari su Rd e le matrici d × d . Esempio 15.5 Il prodotto scalare standard tale che ei · ej = δij corrisponde alla matrice identità. Esempio 15.6 Prendo ϕ((x, y), (x′ , y ′ )) = (x + y)(x′ + y ′ ) Se prendo un qualsiasi vettore della base canonica, x + y = 1 e x′ + y ′ = 1 . La matrice in questione e’ ( 1 1 1 1 ) Esempio 15.7 ∑ ∑ Analogamente se considero ϕ : Rd × Rd → R che ϕ(x, y) = ( i xi ) ∗ ( j yj ) , poiché per qualsiasi vettore della base canonica la somma delle componenti e’ uguale a 1, la matrice C ha tutte le entrate uguali a 1. Esempio 15.8 Se considero Capitolo 15. Prodotti scalari 196 / 258 ϕ : R2 × R2 → R t.c. ϕ((x, y), (x′ , y ′ )) = xy ′ − x′ ∗ y (è la formula del determinante di una matrice 2 × 2 ) ottengo che ϕe1 , e2 = c1,1 = 0; c1,2 = xy ′ = 1; c2,1 = −yx′ = −1; e2,2 = 0 Quindi ( C= 0 1 −1 0 ) 15.2.3 Corrispondenza biunivoca tra prodotti scalari e matrici simmetriche Se le forme bilineari sono in corrispondenza biunivoca con le matrici d × d , i prodotti scalari (forme bilineari e simmetriche) sono in corrispondenza biunivoca con le matrici simmetriche. Definizione 15.5 Una matrice C si dice textit se è uguale alla sua trasposta, cioè se per ogni i, j , si ha cij = cji . Supponiamo che ϕ : Rn × Rn → R sia un prodotto scalare. allora la matrice corrispondente C soddisfa la condizione cij = ϕ(ei , ej ) . Poiché ϕ e’ simmetrica, cij = ϕ(ei , ej ) = ϕ(ej , ei ) = cji per ogni i = 1, . . . , n e j = 1, . . . , n , ovvero C è simmetrica. Viceversa, sia C una matrice simmetrica e definiamo la corrispondente forma bilineare ϕ : Rn × Rn → R , allora ϕ(x, y) = xt Cy , in particolare, poiché xT Cy è uno scalare coincide con il suo trasposto e si può scrivere ϕ(x, y) = (xt Cy)t . Usando la formula (AB)t = B t ∗ At , si può scrivere ϕ(x, y) = y t ∗ C t ∗ x = y t ∗ Cx = ϕ(y, x) (sto supponendo che C sia simmetrica, quindi C t = C ). Quindi, ∀x, y ∈ Rn , ϕ(x, y) = ϕ(y, x) cioè ϕ è simmetrica. textit. 15.3 Spazio nullo di un prodotto scalare Definizione 15.6 Sia V uno spazio vettoriale su R . Sia ϕ : V × V → R un prodotto scalare. Lo textit di ϕ indicato con ϕ⊥ e’ l’insieme di tutti i v ∈ V con la proprieta’ che ϕ(v, v ′ ) = 0 per ogni v ′ ∈ V . Capitolo 15. Prodotti scalari 197 / 258 Teorema 15.1 Lo spazio nullo di un prodotto scalare è uno spazio vettoriale. Dimostrazione 15.1 ϕ(0V , v ′ ) = 0 per ogni v ′ ∈ V , quindi il vettore nullo appartiene allo spazio nullo del prodotto scalare, che di conseguenza e’ non vuoto. Se v1 , v2 sono elementi dello spazio nullo del prodotto scalare e λ1 , λ2 sono scalari, per ogni v ∈ V si ha che, per la linearità di ϕ nella prima componente, ϕ((λ1 ∗ v1 + λ2 ∗ v2 ), v ′ ) = λ1 ∗ ϕ(v1 , v ′ ) + λ2 ∗ ϕ(v2 , v ′ ) siccome v1 e v2 stanno nello spazio nullo ottengo che ϕ(v1 , v ′ ) = ϕ(v2 , v ′ ) = 0 per ogni scelta di v ′ , e quindi anche λ1 v1 + λ2 v2 appartiene allo spazio nullo. cvd 15.3.1 Caso particolare V= R^n Sia V = Rn . Sia C una matrice simmetrica nxn e consideriamo il corrispondente prodotto scalare ϕC : R n × R n → R t.c. ϕ(x, y) = xt ∗ C ∗ y Determiniamo lo spazio nullo di questo prodotto scalare. y appartiene allo spazio nullo di ϕ se e solo se ϕ(x, y) = 0 per ogni x , quindi y appartiene allo spazio nullo se e solo se xt Cy = 0 per ogni x ∈ Rn , oppure se e solo se x · Cy = 0 per ogni x che appartiene a Rn . Il prodotto scalare standard e’ non degenere, quindi affinché la condizione sia vera Cy dev’essere necessariamente il vettore nullo di Rn . Di conseguenza y appartiene allo spazio nullo se e solo se y ∈ ker C . In conclusione, lo spazio nullo di ϕC prodotto scalare su Rn e’ il nucleo della matrice C . Abbiamo una corrispondenza biunivoca tra l’insieme di tutti i prodotti scalari non degeneri ϕ : Rn × Rn → R e le matrici simmetriche invertibili (infatti se una matrice è invertibile, il suo nucleo, e quindi il suo spazio nullo, è ridotto al solo zero e quindi il prodotto scalare è non degenere). Esempio 15.9 La matrice C= 0 1 1 0 e’ una matrice simmetrica e definisce un prodotto scalare dato da Capitolo 15. Prodotti scalari 198 / 258 ϕ(x, y) = x2 ∗ y1 + x1 ∗ y2 ϕ e’ un prodotto scalare non degenere perche’ C e’ invertibile. Esempio 15.10 Data la matrice C= 1 1 1 1 il prodotto scalare ad essa associato è ϕ = x1 ∗ y1 + x1 ∗ y2 + x2 ∗ y1 + x2 ∗ y2 = (x1 + x2 )(y1 + y2 ) quindi ϕ e’ degenere perche’ la matrice non e’ invertibile. Lo spazio nullo del prodotto scalare e’ il nucleo della matrice, e quindi e’ span{(1, −1)} . 15.4 Complemento ortogonale Definizione 15.7 Sia V uno spazio vettoriale su R . Sia W ∈ V un sottospazio vettoriale, sia ϕ : V × V → R un prodotto scalare. Il complemento ortogonale di W rispetto a ϕ (dipende da W e da ϕ ) e’ l’insieme dei vettori di V che hanno prodotto scalare nullo con qualsiasi vettore di W , ovvero W ⊥ = {v ∈ V t.c.ϕ(v, w) = 0∀w ∈ W } Esempio 15.11 Sia ϕ : R2 × R2 → R il prodotto scalare alla matrice C= 0 1 1 0 Considero W = span{e1 } . Ddeterminare il complemento ortogonale dello span rispetto a ϕ ϕ(e1 , e1 ) = c11 = 0 quindi sicuramente e1 e λ∗e1 appartengono al complemento ortogonale dello span di e1 . Ottengo che il complemento ortoonale dello span di e1 contiene lo span di e1 , ovvero span{e1 } ⊆ (span{e1 })⊥ . Capitolo 15. Prodotti scalari 199 / 258 Notiamo che il prodotto scalare considerato è non degenere. (x, y) ∈ (span{e1 })⊥ se e solo se ϕ((x, y), e1 ) = 0 , quindi se e solo se (x, y)T ∗ C ∗ e1 = 0 , quindi se e solo se (x, y) appartiene allo span di e1 (infatti c11 è l’unica entrata uguale a 0 che coinvolge e1 ). In generale, anche se il prodotto scalare ϕ : V × V → R e’ non degenere, puo’ avvenire che per qualche sottospazio vettoriale W , W ∩ W ⊥ ̸= 0 . Vedremo che questo avviene solo quando il prodotto scalare e’ definito positivo. 15.4.1 Prodotto scalare definito positivo Definizione 15.8 Sia V uno spazio vettoriale reale e sia ϕ : V × V → R un prodotto scalare. ϕ si dice definito positivo se per ogni v ∈ V con v ̸= 0 , si ha che ϕ(v, v) e’ un numero positivo. Ad esempio, il prodotto scalare standard su Rn e’ definito positivo. Un altro esempio di prodotto scalare definito positivo e’ il seguente. Esempio 15.12 Sia V lo spazio dei polinomi di grado minore o uguale di d nell’indeterminata x . Definiamo ϕ : Rd [x] × Rd [x] → R tale che ∫ 1 p(x)q8x) dx ϕ(p(x), q(x)) = 0 Si può dimostrare che ϕ e’ un prodotto scalare usando le usuali proprieta’ degli integrali. Se p(x) = p1 (x) + p2 (x) , ottengo Se calcolo ϕ(p(x), p(x)) ottengo ∫ 1 (p(x))2 dx ≥ 0∀p(x) ̸= 0 0 Allora ϕ e’ necessariamente positivo. 15.4.2 relazione tra prodotti degeneri e positivi Osservazione 15.1 Se ϕ : V × V → R e’ definito positivo, allora ϕ e’ non degenere. Infatti, se prendo v nello spazio nullo, si ha ϕ(v, v ′ ) = 0 per ogni v ′ ∈ V e quindi anche per v ′ = v , ma siccome per ipotesi il prodotto scalare e’ definito positivo, allora v e’ il vettore nullo, di conseguenza ϕ e’ non degenere perché il suo spazio nullo si riduce al solo zero. Capitolo 15. Prodotti scalari 200 / 258 Non vale viceversa, infatti presa la matrice 0 1 1 0 il prodotto ad essa associato e’ non degenere, ma non e’ definito positivo. 15.5 Matrici e prodotti scalari in spazi generici 15.5.1 Matrici e forme bilineari Sia V uno spazio vettoriale d-dimensionale su R , con d ≥ 1 . Sia ϕ : V × V → R un prodotto scalare e sia B = {v1 , . . . , vd } una base di V . Siano v, u ∈ V , e poniamo X = (x1 , . . . , xd ) e Y = (y1 , . . . , yd ) le colonne delle coordinate di v e u rispettivamente nella base B , in modo che v= d ∑ xi ∗ vi ; u= i=1 d ∑ yj ∗ v j j=1 Allora d d ∑ ∑ ϕ(v, u) = ϕ( xi ∗ vi , yj ∗ v j ) i=1 j=1 Uso la linearita’ sulla prima componente. ϕ(v, u) = d ∑ xi ∗ ϕ(vi , i=1 d ∑ yj ∗ v j ) j=1 Uso la linearita’ di ϕ sulla seconda componente ϕ(v, u) = d ∑ xi ∗ yj ∗ ϕ(vi , vj ) i,j=1 Supponiamo Cij = ϕ(vi , vj ) , allora ϕ(v, u) = d ∑ xi yj ∗ cij = X T ∗ C ∗ Y i,j=1 Definizione 15.9 Se ϕ : V × V → R e’ un prodotto scalare o piu’ in generale una forma bilineare, e se B = {v1 , . . . , vd } e’ una base di V , la matrice di ϕ rispetto alla base B e’ la matrice C = MB (ϕ) di entrate cij = ϕ(vi , vj ) . In particolare vale la relazione ϕ(u, v) = MBt CMB , ∀u, v ∈ V . Capitolo 15. Prodotti scalari 201 / 258 Se ϕ e’ un prodotto scalare, allora cij = ϕ(vi , vj ) = ϕ(vj , vi ) = cji , ∀i, j = 1, . . . , d quindi anche la matrice C e’ simmetrica. Viceversa, se C e’ una matrice simmetrica d × d , tale che C = C t , definisco la forma bilineare ϕ tale che ϕ(v, u) = (MB (v))t ∗ C ∗ MB (u), v, u ∈ V Poiché ϕ(u, v)t = ϕ(v, u) (è un numero), traspongo il prodotto di matrici e ottengo ϕ(v, u) = (MB (u))t ∗ C t ∗ MB (v) ma C t = C , quindi ϕ(v, u) = (MB (u))t ∗ C ∗ MB (v) = ϕ(u, v). pertanto ϕ è anche simmetrica. 15.5.2 Spazio nullo Nelle ipotesi precedenti, lo spazio nullo di ϕ e’ {v ∈ V t.c. ϕ(v, u) = 0 ∀u ∈ V } = {v ∈ V t.c. (MB (u))t ∗ C ∗ MB (v) = 0∀u ∈ V } = {v ∈ V t.c. xt ∗ C ∗ MB (v) = 0 ∀x ∈ Rd } = {v ∈ V t.c. x · C ∗ MB (v) = 0∀x ∈ Rd } Questo vuol dire che siccome il prodotto scalare standard e’ non degenere, allora la condizione è soddisfatta quando CMB (v) = 0 . Quindi v appartiene allo spazio nullo se e solo se MB (v) ∈ ker C , cioè lo spazio nullo e’ la controimmagine del nucleo di C mediante MB (v) . Ricavo che la dimensione dello spazio nullo e’ uguale alla dimensione del nucleo di C , perche’ MB (v) e’ un isomorfismo. Riassumendo, Proposizione 15.1 Sia V uno spazio vettoriale d-finitodimensionale. Sia B una base di V e sia ϕ : V × V → R un prodotto scalare. Diciamo C la matrice del prodotto scalare nella base data. Allora lo spazio nullo di ϕ e’ la controimmagine mediante MB del nucleo di C . In particolare, la dimensione di tale spazio nullo e’ uguale alla dimensione del nucleo di C , quindi si ricava il seguente corollario. Capitolo 15. Prodotti scalari 202 / 258 Corollario 15.1 ϕ e’ non degenere se e solo se lo spazio nullo e’ ridotto al solo 0, quindi se e solo se C e’ una matrice invertibile ovvero il nucleo di C e’ 0. Esempio 15.13 Sia B = {(1, 1), (1, 2)} la base di R2 e sia ϕ il prodotto scalare standard. La matrice del prodotto scalare standard in questa base si ottiene facendo il prodotto scalare tra tutte le combinazioni possibili di vettori. In particolare a11 = v1 · v1 = (1, 1) · (1, 1) = 2 a12 = a21 = v1 · v2 = (1, 1) · (1, 2) = 3 a22 = v2 · v2 = (1, 2) · (1, 2) = 5 quindi 2 3 3 5 C= Esempio 15.14 Prendiamo V = R3 [x] spazio dei polinomi di grado ≤ 3 , e sia ∫ 1 p(t) ∗ q(t) dt ϕ(p, q) = −1 ϕ e’ un prodotto scalare definito positivo, infatti p(t) ∗ p(t) puo’ essere uguale a 0 se e solo se p(t) = 0∀t , e questo non è possibile perché un polinomio di grado ≤ 3 non nullo ha al più tre radici. Prendo la base {1, x, x2 , x3 } e calcolo la matrice di questo prodotto nella base: si sfrutterà più volte il fatto che l’integrale di una funzione dispari su un dominio simmetrico è sempre nullo. ∫ a11 = 1 1 dt = 2 −1 ∫ a12 = a21 = ∫ a22 = 1 t dt = 0 ∫ t dt = 2 ∗ −1 1 2 −1 t2 dt = [t3 /3]10 = 2/3 ∫ a13 = a31 = 0 1 −1 ∫ a23 = a32 = 1 1 ∗ t2 dt = 2/3 1 −1 t ∗ t2 dt = 0 Capitolo 15. Prodotti scalari 203 / 258 ∫ a33 = ∫ 1 −1 1 t4 dt = 2 ∗ t4 dt = [2/5 ∗ t5 ]10 = 2/5 0 ∫ a14 = a41 = ∫ 1 ∫ t ∗ t dt = −1 a34 = a43 = ∫ −1 1 ∗ t3 dt = 0 1 3 a24 = a42 = a44 = 1 1 −1 ∫ t4 dt = 2/5 −1 1 t5 dt = 0 −1 t6 dt = [2/7 ∗ t7 ]10 = 2/7 La matrice che ottengo e’ 2 0 2/3 0 0 2/3 0 2/5 C= 2/3 0 2/5 0 0 2/5 0 2/7 Tutte le entrate diagonali sono positive, infatti il prodotto e’ positivo. Osservazione 15.2 Nelle ipotesi precedenti, V spazio vettoriale, ϕ prodotto scalare, ϕ e’ definito positivo se e solo se ϕ(v, v) ≥ 0 per ogni v ̸= 0 , e quindi se e solo se (MB (v))t ∗ ϕ ∗ MB (v) ≥ 0 con v ̸= 0 , e quindi se e solo se xt ∗ C ∗ x ≥ 0, ∀x ∈ Rd , x ̸= 0Rd . La condizione è soddisfatta se C è invertibile e soddisfa il criterio dei minori incapsulati. 15.6 Dipendenza della matrice M B da B Nelle ipotesi precedenti ( V spazio vettoriale, B una base e ϕ un prodotto scalare) sia MB (ϕ) la matrice simmetrica dxd che rappresenta ϕ rispetto alla base B ; essa e’ l’unica matrice dxd tale per cui per ogni v, u ∈ V si ha ϕ(v, u) = (MB (v))t ∗ C ∗ MB Ci si chiede se MB (ϕ) dipende da B . Equivalentemente, date due basi B e A di V , ci si chiede che relazione c’e’ tra MB (ϕ) e MA (ϕ) . Per ogni v, u ∈ V , lavorando con la base B si ha ϕ(v, u) = (MB (v))t ∗ MB (ϕ) ∗ MB (u) invece lavorando nella base A ottengo ϕ(v, u) = (MA )t ∗ MA (ϕ) ∗ MA (u) Capitolo 15. Prodotti scalari 204 / 258 Per ogni v ∈ V si ha che la colonna delle coordinate di v nella base B si ottiene moltiplicando MBA (id) per la colonna delle coordinate di v nella base A . Si ottiene per ogni v, u ∈ V , in termini della base B ϕ(v, u) = (MBA (id) ∗ MA (v))t ∗ MB (ϕ) ∗ MBA (id) ∗ MA (u) il trasposto di un prodotto e’ il prodotto dei trasposti nell’ordine inverso, quindi ϕ(v, u) = (MA (v))t ∗ (MBA )t ∗ MB (ϕ) ∗ MBA (id) ∗ MA (u) Uso l’associativita’: ϕ(v, u) = (MA (v))t ∗ {MBA ∗ MB (ϕ) ∗ MBA (id)} ∗ MA (u) Ricaviamo che MA (ϕ) = (MBA (id))t ∗ MB (ϕ) ∗ MBA (id) . Proposizione 15.2 Sia V uno spazio vettoriale finitodimensionale e sia ϕ : V × V → R un prodotto scalare o una forma bilineare (non si usa la simmetria di ϕ ). Siano A e B basi di V , allora, la matrice di ϕ nella base A e’ legata alla matrice nella base B dalla formula: MA (ϕ) = (MBA (id))t ∗ MB ϕ ∗ MBA (id) Esempio 15.15 Prendo ϕ = pst e B = {(1, 1), (1, 2)} . La matrice del prodotto scalare standard in questa base, che abbiamo calcolato precedentemente, e’ C= 2 3 365 Questa matrice si puo’ ricavare anche con la formula seguente: (MCB id(R2 ))t ∗ MC pst ∗ MCB id(R2 ) Si ha che MC pst e’ la matrice identita’, mentre MCB id(R2 ) e’ la matrice che ha come colonne i vettori della base data, cioè MCB id(R2 ) = 1 1 1 2 La sua trasposta ha come righe i vettori ed e’ la matrice: (MCB id)t = 1 1 1 2 Capitolo 15. Prodotti scalari 205 / 258 Faccio il prodotto tra queste tre matrici: (MCB id(R2 ))t ∗ MC (pst ) = 1 1 1 2 MC (pst ) ∗ MCB (id(R2 )) = 2 3 3 5 Esempio 15.16 Sia C= 0 1 1 0 e chiamo ϕ = ϕC l’applicazione ad essa associata, cioè ϕ((x, y), (x′ , y ′ )) = xy ′ +yx′ ( C rappresenta ϕ rispetto alla base canonica). ϕ e’ non degenere e non e’ definito positivo. Sia B = {(1, 1), (1, −1)} una base di R2 : la matrice di ϕ in questa base e’ il prodotto tra queste tre matrici: (MCB id(R2 ))t = MC ϕ = 1 1 1 −1 0 1 1 0 MCB id(R2 ) = 1 1 1 −1 e svolgendo il prodotto si ottiene MB ϕ = 2 0 0 −2 Per controllare se i conti sono giusti posso fare una verifica esplicita: ϕ(v1 , v1 ) = ϕ((1, 1), (1, 1)) = 2 = c11 ϕ(v1 , v2 ) = ϕ((1, 1), (1, −1)) = 0 = c21 = c12 ϕ(v2 , v2 ) = ϕ((1, −1), (1, −1)) = −2 = c22 Esempio 15.17 Sia A = {(1, 3), (−1, 2)} una base. Trovare la matrice di ϕC ((x, y), (x′ , y ′ )) = xy ′ + x′ y e di ϕ = pst nella base A , sia usando la formula che calcolando entrata per entrata. Caso 1: ϕ = pst : MA (pst ) e’ data dal prodotto tra queste tre matrici: Capitolo 15. Prodotti scalari 206 / 258 (MCA id(R2 ))t = 1 3 −1 2 1 0 0 1 MC pst = 1 −1 3 2 MCA id(R2 ) = e svolgendo i calcoli si ha: 10 5 5 5 (MA pst = Verifica esplicita: a11 = v1 · v1 = (1, 3) · (1, 3) = 10 a21 = a12 = v1 · v2 = (1, 3) · (−1, 2) = 5 a22 = v2 · v2 = (−1, 2) · (−1, 2) = 5 Caso 2: ϕ = ϕC . MA (ϕC ) e’ il prodotto delle tre matrici (MCA id(R2 ))t = 1 3 −1 2 0 1 1 0 MC (ϕC ) = MCA id(R2 ) = 1 −1 3 2 e svolgendo il prodotto si ottiene: MA (ϕC ) = 6 −1 −1 −4 Verifica esplicita: a11 = ϕ(v1 , v1 ) = ϕ((1, 3), (1, 3)) = 6 a21 = a12 = ϕ(v1 , v2 ) = ϕ((1, 3), (−1, 2)) = −1 a22 = ϕ(v2 , v2 ) = ϕ((−1, 2), (−1, 2)) = −4 Capitolo 15. Prodotti scalari 207 / 258 15.7 Spazio vettoriale euclideo Definizione 15.10 Sia V uno spazio vettoriale finitodimensionale e sia ϕ : V × V → R un prodotto scalare definito positivo (nello spazio reale). La coppia (V, ϕ) si dice uno spazio vettoriale euclideo. Esempio 15.18 Lo spazio dei polinomi con il prodotto dell’esempio precedente o Rk con il prodotto scalare standard sono spazi vettoriali euclidei. 15.7.1 Disuguaglianza di Cauchy-Schwarz Teorema 15.2 Nelle ipotesi precedenti, ( (V, ϕ) spazio vettoriale euclideo), per ogni v, w ∈ V si ha: |ϕ(v, w)| ≤ √ ϕ(v, v) ∗ √ ϕ(w, w) e vale l’uguale se e solo se v e w sono linearmente dipendenti. Definizione 15.11 Se (V, ϕ) e’ uno spazio vettoriale euclideo, la norma rispetto a ϕ e’ la funzione: ∥ . . . ∥ϕ : V → R , data da ∥v∥ = √ ϕ(v, v) Capitolo 16. Basi ortogonali 208 / 258 Capitolo 16 Basi ortogonali 16.1 Definizione ed esempi Definizione 16.1 Sia V uno spazio vettoriale d -dimensionale su K . Sia ϕ : V ×V → K un prodotto scalare e sia B = (v1 , . . . vd ) una base di V . Diremo che questa base e’ ortogonale per ϕ se ϕ(vi , vj ) = 0 per ogni i ̸= j . Quindi equivalentemente la base e’ ortogonale se e solo se la matrice che rappresenta ϕ nella base data e’ una matrice diagonale (solo le entrate con i = j sono diverse da 0). Esempio 16.1 1. se ϕ = pst : Rd × Rd → R , allora la base canonica C = {e1 , . . . , ed } e’ ortogonale. 2. Se ϕ = ϕC : R2 × R2 → R con C= 0 1 1 0 cioè ϕ(x, y) = xT ∗ Cy , la base canonica non e’ ortogonale per ϕ , ma se consideriamo la base {(1, 1), (1, −1)} , allora la matrice di ϕ in questa base ha entrate diagonali, quindi questa base e’ ortogonale per ϕ . 16.2 Esistenza della base ortogonale 16.2.1 Enunciato Un prodotto scalare e’ piu’ facile da studiare quando si puo’ rappresentare su una matrice diagonale. Problema: Dato un prodotto scalare qualsiasi, ϕ : V × V → K , ci si chiede se esiste sempre una base di V ortogonale per ϕ . La risposta e’ affermativa. Capitolo 16. Basi ortogonali 209 / 258 Teorema 16.1 Sia V uno spazio vettoriale finitodimensionale su K e sia ϕ : V × V → K . Allora esiste una base B di V ortogonale per ϕ , cioe’ tale che ϕ(vi , vj ) ̸= 0 se e solo se i = j , e quindi tale che la matrice di ϕ nella base B sia una matrice diagonale con entrate λi = ϕ(vi , vi ), ∀i = 1, . . . , n . Corollario 16.1 Sia C una qualsiasi matrice simmetrica sul campo K . Allora C definisce un prodotto scalare ϕc : K d × K d → K dato da ϕ(x, y) = xt ∗ Cy , dove C e’ la matrice nella base canonica di ϕ . Allora per il teorema precedente esiste una base B di K d tale che la matrice del medesimo prodotto scalare e’ diagonale. Corollario 16.2 Sia C una matrice simmetrica a coefficienti in K . Allora esiste una matrice A ∈ Md (K) invertibile tale che At ∗ CA e’ diagonale. Per poter dimostrare il teorema sull’esistenza di una base ortogonale enunciato all’inizio di questo paragrafo sono necessarie alcune osservazioni preliminari. 16.2.2 Osservazione sul complemento ortogonale Osservazione 16.1 Nelle ipotesi precedenti, sia v ∈ V un qualsiasi elemento tale che ϕ(v, v) ̸= 0 . Allora per ogni w ∈ W possiamo scrivere: w =w−( ϕ(v, w) ϕ(v, w) )∗v+( )∗v ϕ(v, v) ϕ(v, v) Preso il primo termine, se ne faccio il prodotto scalare con v ottengo ] ϕ(v, w) ϕ w−v ,v = ϕ(v, v) [ [ ] w ∗ ϕ(v, v) − vϕ(v, w) ϕ ,v = ϕ(v, v) ϕ(w, v) ∗ ϕ(v, v) − ϕ(v, v)ϕ(v, w) ] = 0 per simmetria di ϕ ϕ(v, v) Concludo che w − v ∗ ϕ(v,w) ϕ(v,v) appartiene al complemento ortogonale dello span di V , perche’ il suo prodotto scalare con v e’ 0. Inoltre il complemento ortogonale di un sottospazio vettoriale W di V e’ un sottospazio vettoriale di V . Ricaviamo che ogni elemento di V e’ la somma di un vettore in (span{v})⊥ e di un vettore in span{v} . Capitolo 16. Basi ortogonali 210 / 258 Quindi se ϕ(v, v) ̸= 0 , allora sicuramente V e’ la somma dello span di v e del suo complemento ortogonale. Supponiamo di avere un vettore u ∈ span{v} ∩ (span{v})⊥ . Siccome u ∈ span{v} esiste λ in K tale che u = λ ∗ v . Ma u appartiene anche a (span{v})⊥ quindi ϕ(u, v) = 0 . Ma questo implica che ϕ(u, v) = ϕ(λ ∗ v, v) = λ ∗ ϕ(v, v) = 0 : poiché per ipotesi ϕ(v, v) ̸= 0 , segue che λ = 0 e l’intersezione si riduce al vettore nullo. Riassumendo: se ϕ(v, v) ̸= 0 , allora V = (span{v})⊥ + span{v} e i due spazi sono in somma diretta, perche’ la loro intersezione e’ vuota. Abbiamo dimostrato pertanto il seguente lemma: Lemma 16.1 Se ϕ : V × V → K) e’ un prodotto scalare e v ∈ V soddisfa ϕ(v, v) ̸= 0 , allora V e’ la somma diretta del complemento ortogonale dello span di v e dello span di v stesso. In particolare, se V ha dimensione d allora nelle stesse ipotesi la dimensione del complemento ortogonale dello span e’ la differenza della dimensione di V e di quella dello span di v , quindi e’ d − 1 . 16.2.3 Funzione quadratica Osservazione 16.2 Sia ϕ : V × V → K) un prodotto scalare e definiamo qϕ : V → K la funzione quadratica associata a v , tale che qϕ (v) = ϕ(v, v) . Ad esempio, presa la matrice C= 0 1 1 0 e il prodotto scalare ad essa associato ϕC : R2 → R , accade che qϕ (e1 ) = et1 Ce1 = qϕ (e2 ) = 0 , mentre qϕ (e1 + e2 ) = 2 e qϕ (e1 − e2 ) = −2 . qϕ e’ un polinomio quadratico omogeneo su Rd . In generale, se C e’ una qualsiasi matrice simmetrica su Md (R) e considero ϕC : K d × K d → K , allora ϕ(x, y) = xt Cy = ∑ cij ∗ xi ∗ yj i quindi qϕ (x) = ϕ(x, x) = ∑ i ed è un polinomio quadratico. cij ∗ xi ∗ xj Capitolo 16. Basi ortogonali 211 / 258 In generale qϕ (λ ∗ v) = ϕ(λ ∗ v, λ ∗ v) = λ2 ∗ ϕ(v, v) = λ2 ∗ qϕ (v) quindi qϕ si dice forma quadratica associata al prodotto scalare. 16.2.4 Identita’ di polarizzazione Se ϕ = 0 , cioe’ ϕ(v, w) = 0 per ogni scelta di v, w ∈ V , allora ϕ(v, v) = 0 per ogni scelta di v e quindi qϕ = 0 . Ci si chiede se vale anche viceversa e quindi se qϕ = 0 implica ϕ = 0 . Consideriamo la seguente quantità: ϕ(v + w, v + w) − ϕ(v, v) − ϕ(w, w) = per la linearita’ sulla prima componente: = ϕ(v, v + w) + ϕ(w, v + w) − ϕ(v, v) − ϕ(w, w) = e per la linearita’ sulla seconda componente: = ϕ(v, v) + ϕ(w, w) + ϕ(w, v) + ϕ(w, w) − ϕ(v, v) − ϕ(w, w) = ϕ(w, v) + ϕ(w, v) = 2ϕ(v, w) per simmetria. Abbiamo dimostrato il seguente lemma: Lemma 16.2 Se ϕ : V × V → K e’ un prodotto scalare, allora per ogni v, w ∈ V si ha ϕ(v, w) = 1/2 ∗ [qϕ (v + w) − qϕ (v) − qϕ (w)]identita’ di polarizzazione Corollario 16.3 ϕ = 0 se e solo se qϕ = 0 . Se ϕ : V × V → K e’ un prodotto scalare diverso da 0, cioe’ se esistono v, w ∈ V tali che ϕ(v, w) ̸= 0 , allora esiste un v ∈ V tale che ϕ(v, v) ̸= 0 . In particolare, Per tale v si ha allora V = (span{v})⊥ + span{v} (vale anche per spazi non finitodimensionali). 16.2.5 Dimostrazione del teorema enunciato Ora possiamo dimostrare il teorema enunciato precedentemente sull’esistenza della base ortogonale: Dimostrazione 16.1 Capitolo 16. Basi ortogonali 212 / 258 Procediamo per induzione sulla dimensione di V , che chiamiamo d . Se d = 1 , ogni base di V e’ ortogonale per ϕ (ogni matrice unita’ e’ una matrice diagonale). Sia allora d ≥ 2 e supponiamo vero l’asserto su tutti gli spazi vettoriali su K di dimensione minore di d . Allora se ϕ : V × V → K e’ il prodotto scalare identicamente nullo, ogni base e’ ancora ortogonale (ovviamente per ogni base B di V la matrice di ϕ nella base e’ la matrice nulla ed e’ diagonale). Possiamo quindi supporre che ϕ ̸= 0 , allora per l’osservazione 2 esiste v ∈ V tale che qϕ (v) ̸= 0 , pertanto V = span{v} + (span{v})⊥ e (span{v})⊥ ha dimensione d−1 . Sia ϕ′ la restrizione di ϕ al complemento ortogonale dello span di v . Anche la restrizione ϕ′ e’ bilineare e simmetrica, quindi e’ un prodotto scalare, ma su uno spazio di dimensione inferiore. Per l’ipotesi induttiva esiste una base bB = {v1 , . . . , vd−1 } per (span{v})⊥ che e’ ortogonale per ϕ′ , quindi ϕ′ (vi , vj ) ̸= 0 per i, j ∈ (1, . . . , d − 1) e i ̸= j . Definiamo una nuova base B , data dalla sequenza ordinata v1 , . . . , vd−1 , vd dove poniamo vd = v ( v e’ il vettore di partenza scelto con la proprieta’ che ϕ(v, v) ̸= 0 ). I vettori sono linearmente indipendenti, perche’ v non e’ combinazione lineare dei precedenti e v1 , . . . , vd−1 sono una base quindi B e’ una base di V . Per i = 1, . . . , d − 1 , ϕ(vi , vj ) = 0 per j = 1, . . . , d − 1 e si ha anche ϕ(vi , vd ) = 0 perche’ vi appartiene a (span{v})⊥ e vd = v per costruzione. Concludo che questa e’ una base ortogonale, e quindi l’asserto vale. cvd 16.3 Considerazioni generali 16.3.1 Span contenuto nello spazio nullo Dati V e ϕ come sopra, sia B = {v1 , . . . , vd } una base di V ortogonale per ϕ , di cui il teorema precedente garantisce l’esistenza; allora ϕ(vk , vl ) = 0 per k ̸= l, 1 < k < l < d e quindi la matrice associata al prodotto scalare e’ la matrice diagonale con entrate λ1 , . . . , λd con λk := ϕ(vk , vk ) . ϕ e’ non degenere se e solo se la matrice associata e’ invertibile (il suo ker e’ 0), quindi λ1 , . . . , λd ̸= 0 , perche’ il determinante della matrice, dato dalla moltiplicazione dei λj , dev’essere diverso da 0. Supponiamo che ϕ sia degenere allora λj = 0 per qualche j . Possiamo supporre che λj = 0 se 1 < j < r e λj ̸= 0 se r + 1 < j < d (anche se riordino i vettori la base e’ comunque ortogonale). Osservazione 16.3 Sia v appartenente a span{v1 , . . . , vr } , allora esistono scalari tali che Capitolo 16. Basi ortogonali 213 / 258 v= r ∑ αj ∗ vj . j=1 Per ogni k ∈ {1, . . . , d} abbiamo allora r ∑ ϕ(v, vk ) = ϕ( α j ∗ v j , vk ) j=1 Uso la linearita’: ϕ(v, vk ) = r ∑ αj ∗ ϕ(vj , vk ) j=1 Ma ϕ(vj , vk ) = 0 infatti se k ̸= j e’ uguale da 0 per definizione, mentre se k = j e’ uguale a 0 per costruzione, perche’ j < r . Ma se ϕ(vj , vk ) = 0∀j anche ϕ(v, vk ) = 0, ∀k = 1, . . . , d . Inoltre ogni vettore di V può essere scritto come combinazione lineare dei vettori della base, cioè esistono β1 , . . . , βd in K tali che u= d ∑ βk ∗ vk k=1 quindi si può scrivere: ϕ(v, u) = d ∑ βk ∗ ϕ(v, vk ) k=1 ma ϕ(v, vk ) = 0 per quanto detto prima, quindi ϕ(v, u) = 0∀u cioè v appartiene allo spazio nullo di V . Concludiamo che span{v1 , . . . , vr } e’ contenuto nello spazio nullo di ϕ . 16.3.2 Spazio nullo contenuto nello span Sia viceversa v un elemento dello spazio nullo del prodotto scalare. Allora esistono β1 , . . . , βd tali per cui v= d ∑ βk ∗ vk k=1 allora se r + 1 ≤ j ≤ d sappiamo che ϕ(v, vj ) = 0 perche’ v appartiene allo spazio nullo del prodotto scalare. Se uso la linearita’ sulla prima componente ottengo Capitolo 16. Basi ortogonali 214 / 258 ϕ(v, vj ) = d ∑ βk ∗ ϕ(vk , vj ) = 0 k=1 ma ϕ(vk , vj ) = 0 per ogni k ̸= j , rimane solo βj ∗ λj = 0 ma λj ̸= 0 per j ≥ r + 1 . Concludo che βj = 0 per j ≥ r + 1 e βj ̸= 0 per 1 < j < r . Concludiamo che se v appartiene allo spazio nullo del prodotto scalare, allora v = β1 ∗ v1 + · · · + βr ∗ vr quindi v ∈ span{v1 , . . . , vr } . Dalle due implicazioni segue che span{v1 , . . . , vr } e lo spazio nullo del prodotto scalare coincidono. Abbiamo quindi dimostrato il seguente: Teorema 16.2 Sia V uno spazio vettoriale su K finitodimensionale, di dimensione d ≥ 1 . Sia ϕ : V × V → K un prodotto scalare e sia B = {v1 , . . . , vd } una base ortogonale per ϕ , cioe’ ϕ(vk , vl ) ̸= 0∀k ̸= l . Allora 1. ϕ e’ non degenere se e solo se ϕ(vk , vk ) ̸= 0 per ogni k ∈ {1, . . . , l} ; 2. se ϕ e’ degenere (cioe’ se lo spazio nullo e’ diverso da 0 e quindi se ϕ(vk , vk ) = 0 per almeno un k) allora lo spazio nullo e’ lo span dei vj che corrispondono alle entrate diagonali uguali a 0, cioe’ e’ lo span dei vj tali che ϕ(vj , vj ) = 0 16.3.3 Caso particolare K= C Nelle ipotesi precedenti ( ϕ prodotto scalare, B = {v1 , . . . , vd } base di V ortogonale per ϕ ), supponiamo che ϕ(vj , vj ) = 0 per j = 1, . . . , r e ϕ(vj , vj ) ̸= 0 se r+1≤j ≤d . Allora definisco una nuova sequenza di vettori B′ = {v1′ , . . . , vd′ } come segue: { vj′ = vj 1 ηj ∗ vj se j = 1, . . . , r se j = r + 1, . . . , d ove (ηj )2 = λj = ϕ(vj , vj ) . Si noti che è possibile fare quest’operazione solo se K = C perché C è l’unico campo in cui ogni elemento ha una radice e in cui si è certi dell’esistenza di ηj . Si noti che i vj′ sono ancora una base ortogonale, perche’ rimangono linearmente indipendenti e ortogonali tra loro. Se k ≤ r allora ϕ(vk′ , vk′ ) = 0 . Invece, se k = r + 1, . . . , d , si ha Capitolo 16. Basi ortogonali 215 / 258 ϕ(vk′ , vk′ ) = 1 1 ∗ ϕ(vk , vk ) = ∗ λk = 1 2 (ηk ) (ηk )2 Teorema 16.3 Se V e’ uno spazio vettoriale su C di dimensione finita d e se ϕ : V × V → C e’ è un prodotto scalare, allora esiste una base B di V ortogonale per ϕ tale che ϕ(vk , vk ) ∈ {0, 1} per ogni k = 1, . . . , d (cioe’ le entrate diagonali sono uguali a 0 o a 1). Quindi se C e’ una matrice complessa, simmetrica d×d , allora esiste una matrice A d×d invertibile tale che At CA e’ la matrice con tutte le entrate diagonali uguali a 1. In generale, se C ha rango s ≤ d , allora esiste A invertibile d × d tale che At CA e’ una 16.4 Teorema di Sylvester Teorema 16.4 Sia V uno spazio vettoriale di dimensione d finita. Sia ϕ : V × V → R un prodotto scalare. Allora esistono interi z(ϕ), p(ϕ) ≥ 0 con la seguente proprieta’: per ogni scelta di una base B = {v1 , . . . , vd } di V ortogonale per ϕ , si ha p(ϕ) = #{j t.c. ϕ(vj , vj ) > 0} z(ϕ) = #{j t.c. ϕ(vj , vj ) = 0}. (il simbolo # significa “il numero di”) In forma sintetica: prese due basi ortogonali B e B ′ , se calcolo le matrici rispetto alle basi, il numero di entrate positive e’ lo stesso in entrambe le matrici. 16.4.1 Indici di nullita’ positivita’ e negativita’ z(ϕ) e p(ϕ) sono invarianti del prodotto scalare, non dipendono cioe’ dalla particolare base ortogonale B scelta. Definizione 16.2 z(ϕ) si definisce indice di nullita’ di ϕ ed e’ la dimensione dello spazio nullo (ed è quindi invariante per il prodotto scalare). p(ϕ) si chiama indice di positivita di ϕ . La differenza d − p(ϕ) − z(ϕ) e’ il numero di j per cui ϕ(vj , vj ) < 0 e si chiama indice di negativita di ϕ . ϕ e’ non degenere se e solo se z(ϕ) = 0 e quindi se e solo se d = p(ϕ) + n(ϕ) . Teorema 16.5 Capitolo 16. Basi ortogonali 216 / 258 ϕ e’ definito positivo se e solo se d = p(ϕ) . Dimostrazione 16.2 Supponiamo vero il teorema di Sylvester. 1 −→ 2 : Sia ϕ definito positivo e sia B = {v1 , . . . , vd } una base ortogonale per ϕ . Allora MB (ϕ) e’ una matrice con entrate diagonali λj > 0 , quindi il numero di entrate positive e’ uguale a d . 2 −→ 1 : Viceversa, sia p(ϕ) = d e sia B una base ortogonale per ϕ . Allora MB ha entrate diagonali tutte positive. ∑ Sia v = di=1 xi ∗ vj , allora possiamo scrivere d d ∑ ∑ ϕ(u, v) = ϕ( xk ∗ vk , x l ∗ vl ) k=1 l=1 allora ϕ(v, u) = d ∑ xk ∗ xl ∗ ϕ(vk , vl ) k,l=1 La base e’ ortogonale e sopravvivono solo i termini con k = l , quindi rimane ϕ(u, v) = d ∑ (xk )2 ∗ ϕ(vk , vk ) = ∑ (xk )2 ∗ λk . k k=1 Se λ = minj λj , esso e’ positivo perche’ tutti i λj lo sono, quindi, se v ̸= 0 , ϕ(v, v) ≥ λ d ∑ x2k ≥ 0, k=1 quindi ϕ e’ definito positivo. cvd 16.4.2 Dimostrazione del teorema di Sylvester Possiamo ora dimostrare il teorema di Sylvester enunciato precedentemente: Dimostrazione 16.3 Siano B1 = {v1 , . . . , vd } e Bw = {w1 , . . . , wd } basi di V ortogonali per ϕ . Siano z1 = #{j t.c. ϕ(vj , vj ) = 0} e z2 = #{j t.c. ϕ(wj , ej ) = 0} . Sappiamo che lo spazio nullo è lo span dei vj tali che ϕ(vj , vj ) = 0 ma è anche lo span dei wj tali che ϕ(wj , wj ) = 0 . Presi in qualche ordine, gli insiemi di generatori sono basi del medesimo sottospazio vettoriale di V e quindi ricaviamo che z1 = z2 perché entrambi sono uguali Capitolo 16. Basi ortogonali 217 / 258 alla dimensione dello spazio nullo. Siano ora p1 = {j t.c. ϕ(vj , vj ) > 0} e p2 = {j t.c. ϕ(wj , wj ) > 0} . Dobbiamo dimostrare che p1 = p2 . Dopo aver eventualmente riordinato le basi B1 e B2 possiamo supporre senza perdita di generalità che B1 = {v1 , . . . , vz , v1′ , . . . , vp′ 1 , v1′′ , . . . , vn′′1 } , dove n1 = d − (z + p1 ) , dove i vettori del primo gruppo hanno prodotto scalare nullo con sé stessi, quelli del secondo gruppo hanno prodotto scalare positivo con sé stessi e quelli del terzo hanno prodotto scalare con sé stessi negativo. Analogamente, supponiamo che B2 = {w1 , . . . , wz , w1′ , . . . , wp′ 2 , w1′′ , . . . , wn′′2 } . Supponiamo per assurdo che z +p1 > z +p2 . Allora concludo necessariamente che n2 = d−(z+p2 ) > n1 . Se considero la stringa di vettori v1 , . . . , vz , v1′ , . . . , vp′ 1 , w1′′ , . . . , wn′′2 il loro numero è z + p1 + n1 > z + p2 + n2 = d . Siccome abbiamo più di d vettori in uno spazio di dimensione d , allora tali vettori sono linearmente dipendenti ed esistono scalari α1 , . . . , αz , β1 , . . . , βp2 , γ1 , . . . , γn2 non tutti nulli tali per cui z ∑ αj ∗ v j + j=1 p1 ∑ αj ∗ vj′ + j=1 n2 ∑ γj ∗ wj′′ = 0V , relazione ∗ j=1 Quindi portando i wj′′ si ricava z ∑ αj ∗ vj + j=1 p1 ∑ αj ∗ vj′ =− j=1 n2 ∑ αj ∗ wj′′ j=1 Chiamo R il vettore che compare a primo e a secondo membro e si ha R ̸= 0 . Calcoliamo ϕ(R, R) in due modi. Da un lato si ha ϕ(R, R) = ϕ{ z ∑ α1 ∗ vj + j=1 p1 ∑ βi ∗ vi , i=1 z ∑ αk ∗ v k + k=1 p1 ∑ βl ∗ vl′ } l=1 uso la linearità: ϕ(R, R) = z ∑ z ∑ αj ∗ ak ∗ ϕ(vj , vk ) j=1 k=1 + p1 z ∑ ∑ aj ∗ bl ∗ ϕ(vj , vl′ ) j=1 l=1 + p1 ∑ z ∑ ak ∗ bi ∗ ϕ(vi′ , vk ) i=1 k=1 + p1 ∑ p1 ∑ bi ∗ al ϕ(vl′ , vi′ ) l=1 i=1 I termini del primo addendo scompaiono perché sto considerando vettori che hanno prodotto scalare nullo anche con sé stessi; i termini del secondo e terzo Capitolo 16. Basi ortogonali 218 / 258 addendo scompaiono perché considero prodotti scalari di vettori appartenenti a gruppi diversi; nell’ultimo addendo sopravvive il termine con i = l quindi si ha ϕ(R, R) = p1 ∑ (βi )2 ∗ ϕ(vi′ , vi′ ) i=1 allora ϕ(R, R) ≥ 0 ed e’ uguale a 0 se e solo se βi = 0 , per ogni i = 1, . . . , p1 . ∑ 2 Usando invece l’espressione R = − nj=1 γj ∗ wj′′ ricaviamo n2 ∑ ϕ(R, R) = ϕ(− γj ∗ wj′′ , − j=1 n2 ∑ γl ∗ wl′′ ) l=1 uso la bilinearità e ottengo = n2 ∑ γj ∗ γl ∗ ϕ(wj′′ , wl′′ ) j,l=1 La base di W è ortogonale, quindi: n2 ∑ ϕ(R, R) = (γj )2 ∗ ϕ(wj′′ , wj′′ ) < 0 j=1 perché sto considerando vettori appartenenti al gruppo di quelli che hanno prodotto scalare negativo con se stessi. Si ha ϕ(R, R) = 0 se e solo se γj = 0 per ogni j = 1, . . . , n2 . Allora ϕ(R, R) ≥ 0 nel primo caso, ϕ(R, R) ≤ 0 nel secondo caso e si conclude che ϕ(R, R) = 0 e quindi γj = 0 per ogni j = 1, . .∑ . , n2 , allora R stesso è uguale 2 γj ∗ wj e’ il vettore nullo. a 0 se considero la seconda espressione, quindi − nj=1 Allora, tornando alla relazione ∗ , ricaviamo che z ∑ αj ∗ v j + j=1 p2 ∑ βj ∗ vj′ = 0 j=1 ma siccome questi vettori sono linearmente indipendenti, essendo parte di una base, tutti gli scalari sono nulli. Questo è assurdo, perché avevamo supposto che qualche scalare fosse diverso da 0. L’unico modo per evitare l’assurdo è supporre che p1 non possa essere maggiore di p2 , quindi p1 ≤ p2 e scambiando i ruoli delle basi, p2 ≤ p1 per un ragionamento analogo e quindi p1 = p2 per ogni scelta di basi di V ortogonali. cvd Esempio 16.2 Sia ϕ(x, y) = xt ∗ A ∗ y e definisco A= 0 1 1 0 Capitolo 16. Basi ortogonali 219 / 258 Trovare z(ϕ) e p(ϕ) Z(ϕ) e’ la dimensione dello spazio nullo, e quindi del ker di A che in questo caso è 0. Se p(ϕ) fosse 2, il prodotto scalare sarebbe definito positivo e questo non avviene, perché le entrate sulla diagonale sono uguali a 0. Se p(ϕ) fosse 0, il prodotto sarebbe definito negativo, ma questo non avviene: infatti considero la base di R2 ortogonale per ϕ data da {e1 + e2 , e1 − e2 } : la matrice che rappresenta ϕ in questa base, ovvero la matrice con entrate ai,j = ϕ(vi , vj ) , è 2 0 0 −2 che ha un’entrata positiva sulla diagonale. Allora il prodotto scalare non è definito negativo e p(ϕ) = 1 . Esempio 16.3 Considero la matrice 1 1 1 1 z(ϕ) = 1 perché la dimensione del nucleo della matrice è 1. p(ϕ) può essere 0 o 1. Se fosse 0, il prodotto sarebbe semidefinito negativo. Questo non può avvenire, perché ad esempio ϕ(e1 , e1 ) = 0 . Allora necessariamente p(ϕ) = 1. Definizione 16.3 Un prodotto scalare ϕ : V × V → R sullo spazio vettoriale reale si dice positivo semidefinito se ϕ(v, v) ≥ 0 per ogni v ∈ V . Analogamente, ϕ è negativo semidefinito se ϕ(v, v) ≤ 0 per ogni v ∈ V . 16.5 Complemento ortogonale Definizione 16.4 Sia ϕ : V × V → K un prodotto scalare e sia W un sottospazio vettoriale di V . Un complemento ortogonale di W rispetto a ϕ indicato con (W ⊥)ϕ è l’insieme dei v ∈ V tali che ϕ(w, v) = 0 per ogni w ∈ W . Il complemento ortogonale è un sottospazio vettoriale. 16.5.1 Dimensione del complemento ortogonale Ci si chiede quale sia la dimensione del complemento ortogonale. Sia W lo spazio nullo, cioè Capitolo 16. Basi ortogonali 220 / 258 W = {v ′ t.c. ϕ(v, v ′ ) = 0∀v ∈ V }. Allora W ⊥ = {v ∈ V t.c.ϕ(v, v ′ ) = 0, ∀v ′ ∈ W } e coincide con V . Allora non è vero che la dimensione del complemento ortogonale di W è la differenza delle dimensioni di V e di W . Se ϕ : V × V → R è non nullo e prendiamo un vettore di V tale che ϕ(v, v) ̸= 0 , allora span{v}⊥ ha dimensione dimV − 1 perché V è somma diretta dello span di V e del complemento dello span, anche se ϕ è non degenere. Teorema 16.6 Se ϕ è non degenere e V ha dimensione finita d , allora per ogni spazio vettoriale W di V si ha che dimW ⊥ = dimV − dimW . 16.6 L’applicazione Lv Definizione 16.5 Per ogni v ∈ V consideriamo la funzione parziale Lv := ϕ(x, v) : V → K . Per ogni u1 , u2 ∈ V e λ1 , λ2 ∈ K , si ha Lv (λ1 ∗ u1 + λ2 ∗ u2 ) = ϕ(λ1 ∗ u1 + λ2 ∗ u2 , v) = λ1 ∗ ϕ(u1 , v) + λ2 ∗ ϕ(u2 , v) = λ1 ∗ Lv (u1 ) + λ2 ∗ Lv (u2 ) . Questo significa che Lv : V → K è lineare, ossia Lv è un elemento dello spazio duale, quindi esiste un’applicazione L : V → V ∗ che manda v in Lv . Lemma 16.3 L è lineare, pertanto appartiene allo spazio degli omomorfismi da V in V ∗ . Dimostrazione 16.4 Per ogni v1 , v2 , u ∈ V e per ogni λ1 , λ2 ∈ K si ha Lλ1 ∗v1 +λ2 ∗v2 (u) = λ1 ∗ϕ(v1 , u)+λ2 (ϕ(v2 , u)) = λ1 ∗Lv1 (u)+λ2 ∗Lv2 (u) = (λ1 ∗Lv1 +λ2 ∗Lv2 )(u) quindi L(λ1 ∗ v1 + λ2 ∗ v2 ) = λ1 ∗ L(v1 ) + λ2 ∗ L(v2 ) . cvd 16.6.1 Matrice di L Fissiamo una base B = {v1 , . . . , vd } di V e sia C la matrice di ϕ rispetto a questa base, tale che Cij = ϕ(vi , vj ) con j = 1, . . . , d . Considero poi la base duale Capitolo 16. Basi ortogonali 221 / 258 B∗ = {v1∗ , . . . , v2∗ } che è la base di V ∗ duale a B , cioè tale che vi∗ (vj ) = δij . Ci si chiede che forma ha la matrice A da B a B∗ dell’applicazione L . La matrice A è una matrice d × d ed è tale che Aj è la colonna delle coordinate di Lvj nella base B ∗ . Ma per ogni f in V ∗ la colonna delle coordinate di f (v) nella base B ∗ è data da f (v1 ), f (v2 ), . . . f (vd ) , allora Aj = (Lvj (v1 ), . . . , Lvj (vd )) = (ϕ(vj , v1 ), . . . , ϕ(vj , vd )). Ma ϕ(v1 , vj ) = c1j , allora Aj è uguale alla j-esima colonna di C e le due matrici coincidono. Concludiamo che la matrice che rappresenta L rispetto alle basi B e B ∗ coincide con la matrice C del prodotto scalare ϕ nella base B . In particolare ϕ è non degenere se e solo se C è invertibile, e quindi se e solo se L è un isomorfismo di spazi vettoriali, pertanto un prodotto scalare non degenere definisce un isomorfismo tra V e V ∗ . 16.6.2 Dimostrazione del teorema sul complemento ortogonale Osservazione 16.4 Sia W un sottospazio vettoriale di V . Se v ∈ V , allora v ∈ W ⊥ se e solo se ϕ(w, v) = 0 ∀w ∈ W . Allora Lv (w) = 0∀w ∈ W . Quindi v ∈ W ⊥ se e solo se Lv appartiene all’annullatore di W , che è un sottospazio vettoriale del duale. Allora il complemento ortogonale di W mediante ϕ è la controimmagine di L (che dipende da ϕ ) del sottospazio annullatore di W . (questo è sempre vero, anche se ϕ è degenere). Se ora suppongo che ϕ sia non degenere, L è un isomorfismo e quindi per ogni sottospazio vettoriale la dimensione del complemento ortogonale è uguale alla dimensione della controimmagine di W e quindi alla differenza dimV − dimW . Corollario 16.4 Sia K = R e sia (V, ϕ) uno spazio vettoriale euclideo finitodimensionale, cioè ϕ : V × V → R è un prodotto scalare definito positivo. Allora per ogni W in V sottospazio vettoriale si ha che V è la somma diretta di W e del complemento ortogonale mediante ϕ (somma diretta ortogonale). Dimostrazione 16.5 Se v ∈ W ∩ W ⊥ si ha ϕ(v, v) ≥ 0 , perché v ∈ W e per le proprietà di ϕ e ϕ(v, v) = 0 perché v ∈ W ⊥ . ϕ è definito positivo, quindi (|v|)ϕ ≥ 0 ed è uguale a 0 solo se v è il vettore nullo. Quindi l’intersezione tra i due spazi è il vettore nullo. cvd Capitolo 16. Basi ortogonali 222 / 258 16.7 criterio dei minori incapsulati Prima di tutto enunciamo un criterio utile per determinare se un prodotto scalare è definito positivo oppure no. Proposizione 16.1 Sia ϕ : Rd × Rd → R un prodotto scalare e considero la matrice C che lo rappresenta rispetto ad una base. Allora: Caso 1 d = 2 . Valgono le seguenti affermazioni: 1. se c11 > 0 ma det C < 0 , ϕ è definito negativo; 2. se c11 > 0 e det C > 0 ϕ è definito positivo. Caso 2 d = 3 . Valgono le seguenti affermazioni: 1. se c11 > 0 e det C > 0 , ma il determinante della sottomatrice 2 × 2 in alto a sinistra è negativo, ϕ è definito negativo; 2. se c11 > 0 e det C > 0 e anche il determinante della sottomatrice 2 × 2 in alto a sinistra è positivo, allora ϕ è definito positivo. Esempio 16.4 Sia C la matrice 1 2 2 1 e considero ϕ = ϕC : K 2 × K 2 → K stabilire per quali v ∈ K 2 si ha K 2 = span{v} + span{v}⊥ . Questo è vero se e solo se ϕ(v, v) ̸= 0 . Se v = (x, y) , allora ϕ((x, y), (x, y)) = x2 + 2xy + 2yx + y 2 = (x + y)2 + 2(xy) quindi basta imporre (x + y)2 + 2xy ̸= 0 . Esempio 16.5 Parte 1: Sia 1 1 1 C= 1 0 2 1 2 0 Questa matrice è simmetrica e definisce un prodotto scalare ϕ : K 3 × K 3 → K . Stabilire se ϕ è degenere e trovare lo spazio nullo. Calcolo il rango della matrice facendo l’eliminazione gaussiana: Capitolo 16. Basi ortogonali 223 / 258 1 1 1 1 0 2 1 2 0 1 1 1 0 −1 1 0 1 −1 1 1 1 0 −1 1 0 0 0 1 0 2 0 1 −1 0 0 0 rg = 2 , ϕ è degenere e la dimensione dello spazio nullo è la dimensione del nucleo di C e quindi è 1. z=α y−z =0 z=α y=α x + 2z = 0 x = −2α ker C = {(x, y, z) ∈ R t.c. y = z, y = −2z} 3 e quindi lo spazio nullo è lo span di (−2, 1, 1) . Parte 2: Diciamo W = {(x, y, z) t.c.x − 2y + az = 0} dove a è un parametro. Stabilire per quali a ∈ K la restrizione di ϕ a W è non degenere. Il prodotto globale è degenere, ma la sua restrizione a W potrebbe essere non degenere. Scrivo le equazioni parametriche di W : x − 2y + az = 0 y = t, z = s, x = 2t − as Allora W = span{(2, 1, 0) (−a, 0, 1)} . Una base di W è B = {(2, 1, 0), (−a, 0, 1)} . Allora chiamo ϕW la restrizione di ϕ a W . Prendo C ′ la matrice rispetto alla base Bw di ϕw . c′1,1 = ϕ(v1 , v1 ) = (2, 1, 0)t ∗ C ∗ (2, 1, 0) = (3, 2, 4) ∗ (2, 1, 0) = 8 c′2,1 = ϕ(v2 , v1 ) = (−a, 0, 1)t ∗C∗(2, 1, 0) = (−a+1, −a+2, −a)∗(2, 1, 0) = −2a+2−a+2 = −3a+4 c′2,2 = (−a, 0, 1)t ∗C∗(−a, 0, 1) = (−a+1, −a+2, −a)∗(−a, 0, 1) = a2 −a−a = a2 −2a Allora la matrice C ′ è 8 −3a + 4 4 − 3a a2 − 2a Capitolo 16. Basi ortogonali 224 / 258 Segue che W è non degenere se e solo se det C ′ ̸= 0 quindi se e solo se 8 ∗ (a2 − 2a) − (4 − 3a)2 = 8a2 − 16a − 16 − 9a2 + 24a = −a2 + 8a − 16 ̸= 0 a2 − 8a + 16 = (a − 4)2 ̸= 0 Il prodotto è non degenere se e solo se a ̸= 4 Parte 3: Se k = R , trovare z(ϕ) , p(ϕ) al variare di a ∈ R . Se a = 4 , otteniamo la matrice C= 8 −8 −8 8 C=8 1 −1 −1 1 z(ϕ) è la dimensione dello spazio nullo, quindi è la dimensione del nucleo della matrice (1). Invece p(ϕ) può essere 0 o 1. Se fosse 0, in una base diagonale dovrei avere un’entrata negativa e una nulla, ma in questo modo il prodotto scalare sarebbe semidefinito negativo ma questo non può accadere, perché .ì ϕ(e1 , e1 ) = 8 . Allora p(ϕ) = 1 e ϕ è semidefinito positivo non degenere. Se a ̸= 4 , allora il determinante di C ′ è −(a − 4)2 ed è negativo e il criterio dei minori incapsulati non è soddisfatto, quindi il prodotto non è definito positivo. Se avessi entrambe le entrate negative, il prodotto scalare sarebbe negativo definito e questo non può essere. Allora in questo caso z(ϕ) = 0 e p(ϕ) = 1 . Capitolo 17. Autovalori e autovettori 225 / 258 Capitolo 17 Autovalori e autovettori 17.1 Introduzione 17.1.1 Applicazioni lineari Sia V uno spazio vettoriale sul campo K . Sia f : V → V un’applicazione lineare e supponiamo di avere una base B1 di V con la proprietà che la matrice che rappresenta f rispetto a questa base è una matrice diagonale. Siano λi ∈ K , per i = 1, . . . , n le entrate diagonali di MBB . Quindi f (v1 ) = λ1 ∗ v1 + 0 ∗ v2 + 0 ∗ v3 + · · · = λ1 ∗ v1 f (v2 ) = 0 ∗ v1 + λ2 ∗ v2 + 0 ∗ v3 + · · · = λ2 ∗ v2 ··· = ...... f (vd ) = · · · = λd ∗ vd Se v = x1 ∗ v1 + · · · + xd ∗ vd allora f (v) = x1 ∗ f (v1 ) + · · · + xd ∗ f (vd ) = x1 ∗ λ1 ∗ v1 + · · · + xd ∗ λd ∗ vd Allora f (v) = 0 se e solo se xj ∗ λj = 0, ∀j = 1, . . . , d e quindi se e solo se xj = 0, ∀j = 1, . . . , d t.c.λj ̸= 0 , quindi se e solo se v appartiene allo span dei vj tali per cui λj = 0 (e quindi gli unici vj che contribuiscono alla combinazione lineare sono quelli con λj = 0 perché per gli altri xj = 0 ). Il nucleo di f è lo span dei vettori con λj = 0 Invece Imf = {x1 ∗ λ1 ∗ v1 + · · · + xd ∗ λd ∗ vd : xi , λi ∈ R} , è lo span di λ1 ∗v1 , . . . , λd ∗ vd e quindi lo span di f (v1 ), . . . , f (vd ) . Quindi è lo span dei vj tali che λj ̸= 0 . Esercizio 17.1 Se considero la matrice A in M4 (R) tale che A = diag(1, 0, −5/2, 0) , allora ker f = span{v2 , v4 } . Invece Imf = span{v1 , v3 } . Capitolo 17. Autovalori e autovettori 226 / 258 Sotto le ipotesi MBB (f ) diagonale si ricava che V è la somma diretta di nucleo e immagine. Questo non vale in generale. Il fatto che i due spazi sono in somma diretta non vale per ogni applicazione lineare, ma solo nelle ipotesi precedenti. Se infatti considero LA = AX con A= 0 1 0 0 allora l’immagine di lA e’ lo span dei vettori corrispondenti ai gradini, e quindi è span{e1 } . Anche il ker è lo span di e1 , quindi R2 non può essere somma diretta di questi due sottospazi. Non esiste C ∈ M2 (R) invertibile tale che C −1 ∗ AC è diagonale. Le applicazioni lineari rappresentabili in qualche base da matrici diagonali sono particolarmente semplici da esaminare. 17.1.2 Prodotti scalari Un discorso analogo vale per i prodotti scalari. Sia ϕ : V × V → K un prodotto scalare e sia B una base ortogonale per ϕ allora la matrice del prodotto scalare nella base B ha entrate λ1 , . . . , λd e lo spazio nullo è lo span dei vj tali che λj = 0 . C’è una differenza tra prodotti scalari e applicazioni lineari. Qualsiasi prodotto scalare ammette una base ortogonale e quindi si può sempre trovare una base ortogonale per cui il prodotto può essere rappresentato da una matrice diagonale. Questo non vale sempre per le applicazioni. 17.2 Concetti principali 17.2.1 Autovalori Definizione 17.1 Sia V uno spazio vettoriale su K . Sia f : V → V lineare. Un autovalore di f è uno scalare λk tale che esiste un vettore v ∈ V con v ̸= 0 per il quale f (v) = λ ∗ v . λ è un autovalore di f se e solo se esiste v ∈ V non nullo, con f (v) − λ ∗ v = 0 e quindi se e solo se esiste v ∈ V \ {0V } con f (v) − λ ∗ id(v) = 0 , quindi se e solo se ker[f − λ ∗ id] ̸= 0 17.2.2 Autovettori Definizione 17.2 Capitolo 17. Autovalori e autovettori 227 / 258 Sia f : V → V lineare e sia λ ∈ K un autovalore di f . Un autovettore di f relativo all’autovalore λ è un vettore v ∈ V con v ̸= 0 tale che f (v) = λ ∗ v , ossia v ∈ ker(f − λ ∗ id) privato del vettore nullo. Osservazione 17.1 Se B = {v1 , . . . , vd } è una base di V e la matrice di f è la matrice diagonale con entrate λ1 , . . . , λd , allora f (vj ) = λj ∗vj , ∀j = 1, . . . , d , e vj ̸= 0 essendo elementi di una base, allora λ1 , . . . , λd sono autovalori di f e per ogni j vj è autovettore di f relativo a λj . Esempio 17.1 Se prendo LA : R2 → R2 con righe A= 0 1 0 0 allora LA (e1 ) = 0R2 = 0 ∗ e1 cioè 0 è autovalore di LA e e1 è autovettore di LA relativo all’autovalore 0. 17.2.3 Applicazione diagonalizzabile Definizione 17.3 Sia f : V → V lineare e sia V finitodimensionale. Diremo che f è diagonalizzabile se e solo se esiste una base B = {v1 , . . . , vd } di V composta da autovettori di f . Osservazione 17.2 Se v ∈ V , v ̸= 0 è autovettore di f, allora lo è rispetto a un unico autovalore. Se infatti v fosse autovettore di f relativo a λ e η , avremo f (v) = λ ∗ v = η ∗ v , allora λ ∗ v − η ∗ v = 0 e quindi per distributività (λ − η) ∗ v = 0 ma siccome v ̸= 0 questo implica che λ = η . Lemma 17.1 Sia d = dimV , f : V → V lineare e sia B = {v1 , . . . , vd } una base di V . Allora le seguenti condizioni sono equivalenti: 1. B è composta solo da autovettori di f , cioè ogni vj è autovettore di f ; 2. la matrice di f rispetto a questa base è una matrice diagonale. Dimostrazione 17.1 Capitolo 17. Autovalori e autovettori 228 / 258 2 → 1 , infatti se MBB (f ) è diagonale, allora la colonna delle coordinate di f (vj ) = (0, . . . , λj , . . . , 0) e quindi f (vj ) = 0 ∗ v1 + 0 ∗ v2 + · · · + λj ∗ vj + · · · + 0 ∗ vd = λj ∗ vj quindi la base è composta solo da autovettori. Quindi vj è autovettore relativo a λj . Viceversa se suppongo che vj è un autovettore di f relativo a qualche autovalore λj univocamente determinato, allora f (vj ) = λj ∗ vj quindi la colonna delle coordinate di f (vj ) nella base B è (0, . . . , 0, λj , 0, . . . , 0) . Quindi la matrice è diagonale. cvd 17.2.4 Matrice diagonalizzabile Definizione 17.4 Una matrice dxd si dice diagonalizzabile se è simile a una matrice B diagonale, ossia se esiste A dxd invertibile tale che A−1 BA è diagonale. 17.3 Relazione tra matrici e applicazioni diagonalizzabili Tra le due definizioni di diagonalizzabilità valgono le seguenti relazioni: Dimostrazione 17.2 1. sia f : V → V diagonalizzabile e sia B una base qualsiasi di V . Allora la matrice rispetto a questa base non è necessariamente diagonale.Per ipotesi esiste D base di V composta da autovettori di f , ossia tale che la matrice di f rispetto a questa base è una matrice diagonale.Sappiamo che (MBD id(v))−1 ∗ MBB f ∗ MBD id(v) = MDD (f ) allora MBB (f ) è simile a una matrice diagonale. Pertanto f diagonalizzabile implica che MBB (f ) è diagonalizzabile nel senso delle matrici, per qualsiasi base B . 2. Supponiamo viceversa che MBB (f ) sia diagonalizzabile, cioè sia simile a una matrice diagonale. Allora esiste B invertibile dxd tale che B −1 ∗MBB (f )∗B = j D con D matrice diagonale con ∑d entrate λ1 , . . . , λdj .Diciamo B la j-esima colonna di B e diciamo wj = i=1 bij ∗vi , allora B = MB (wj ) . B coincide ′ con la matrice del cambiamento di base MBB id(V ) dove B′ = {w1 , . . . , wd } .Allora la matrice che rappresenta f rispetto a B ′ è data da ′ ′ (MBB id)−1 ∗ MBB f ∗ MBB id(v) = B −1 ∗ MBB (f ) ∗ B = Dmatrice diagonale Quindi nella base B ′ f è rappresentata da una matrice diagonale, allora B ′ è una base di V costituita da autovettori di f , cioè f (wj ) = wj ∗ λj e f è diagonalizzabile.cvd Riassumendo: abbiamo dimostrato Capitolo 17. Autovalori e autovettori 229 / 258 Teorema 17.1 Sia d < ∞ la dimensione di V e sia f : V → V lineare allora le seguenti condizioni sono equivalenti: 1. f è diagonalizzabile nel senso delle applicazioni lineari; 2. per ogni B base di V , la matrice MBB di f è diagonalizzabile nel senso delle matrici 3. esiste B base di V tale che la matrice MBB (f ) sia diagonale. 17.4 Autovalori di un endomorfismo Ci si pone il problema di trovare autovalori e autovettori di un dato f endomorfismo di V . Sia f : V → V lineare, allora λk è autovalore di f se e solo se il nucleo di f − λ ∗ id(v) è diverso dallo spazio nullo, cioè se e solo se f − λ ∗ id(v) non è un isomorfismo. Prendo una qualsiasi base B = {v1 , . . . , vd } di V . Sia A la matrice di f in questa base. Allora la matrice nella base B di f − λ ∗ id(v) è MBB (f ) − λ ∗ MBB id(v) che equivale a A − λ ∗ id(v) . λ ∈ K è un autovalore di f se e solo se la matrice A − λ ∗ id(v) non è invertibile e quindi se e solo se det[A − λ ∗ id(v)] = 0 . Osservazione 17.3 ′ Siano B e B ′ basi di V , e siano A = MBB (f ) e A′ = MBB′ f . Se chiamo R = MBB′ (id) so che è invertibile e che vale la relazione A′ = R−1 ∗ A ∗ R . Per ogni λ ∈ K , si ha (A′ − λ ∗ id(v)) = R−1 ∗ (A − λ ∗ id(v)) ∗ R allora det(λ ∗ id − A′ ) = det(R−1 ∗ (λ ∗ id(v) − A) ∗ R) = det(λid − A) dove l’ultimo passaggio vale perché Matrici simili hanno lo stesso determinante. In conclusione, la funzione che porta λ ∈ K nel determinante di λ ∗ id − A , con A = MBB (f ) , dipende solo da f e non dalla base B scelta quindi la chiamo df : K → K . Se d = 1 , allora df (λ) = λ − a , la matrice è un numero. Caso particolare: Se d = 2 , e f (x) = AX , supponiamo che la matrice di f nella base B sia a11 a12 a21 a22 allora Capitolo 17. Autovalori e autovettori λ ∗ id − A = 230 / 258 λ 0 a a − 11 12 0 λ a21 a22 quindi λ ∗ id − A = λ − a11 a12 a21 λ − a22 det(λ∗id−A) = ad−bc = (λ−a11 )∗(λ−a22 )−a12 ∗a21 = λ2 −λ∗a11 −λ∗a22 +a11 ∗a22 −a21 ∗a12 = λ2 −λ∗tr 17.4.1 Polinomio caratteristico In generale, il determinante di λ ∗ id − A , se A è una matrice dxd è un polinomio monico (di grado 1) in λ della forma det(λ ∗ id − A)) = λd − tr ∗ λd−1 + · · · + (−1)d ∗ det A o equivalentemente è dove i dj sono invarianti per similitudine, perché la loro espressioni non cambia per matrici simili, ovvero dj (A) = dj (A′ ) se A e A′ sono simili. In forma sintetica det(λ ∗ id − A) = d ∑ λd−j ∗ dj (A), j=0 dove d0 (A) = 1 , d1 (A) = −trA , dd (A) = (−1)n ∗ det A (i termini in mezzo sono più complicati da scrivere) Definizione 17.5 Il polinomio caratteristico di una matrice A dxd è il polinomio monico di grado d tale che pA (x) = det(x ∗ id − A) . Se f : V → V è lineare e dimV = d , il polinomio caratteristico di f è pf (x) = det[x ∗ id − MBB f ] per una qualsiasi scelta di base B di V . E’ il polinoio caratteristico della matrice che rappresenta l’applicazione lineare in una qualsiasi base. Allora gli autovalori di f sono tutti e soli le radici del polinomio caratteristico. Sia V spazio vettoriale su K finitodimensionale e sia f : V → V lineare. Allora λ ∈ K è autovalore di f se e solo se λ è una radice del polinomio caratteristico di f , cioè tale che p(λ) = 0 . Definizione 17.6 Se λ è un autovalore di f : V → V l’autospazio corrispondente Vλ è il nucleo di f − λ ∗ id(v) . Questo è non nullo perché λ è un autovalore. Esempio 17.2 Sia LA : R3 → R3 dove A ha tutte le entrate uguali a 1. Capitolo 17. Autovalori e autovettori 231 / 258 Determinare se l’applicazione lineare è diagonalizzabile e nel caso determinare una base di autovettori Calcolo il polinomio caratteristico, che è il determinante di x ∗ id − A . x − 1 −1 −1 x ∗ id − A = −1 x − 1 −1 −1 −1 x − 1 det(A − λid) = (a1 ∗ a2 ) · a3 = [(x − 1, −1, −1) ∗ (−1, x − 1, −1)] · (−1, −1, x − 1) = (x, x, x2 − 2x) · (−1, −1, x − 1) = −2x + (x2 − 2x)(x − 1) = −2x + x3 − x2 − 2x2 + 2x = x3 − 3x2 = x2 (x − 3) polinomio caratteristico Gli autovalori di LA sono λ1 = 0 e λ2 = 3 . Diremo che λ1 ha molteplicità algebrica 2 perché compare con l’esponente 2. λ2 = 3 ha molteplicità algebrica 1 perché ha esponente 1. Calcoliamo gli autospazi. Quindi nel caso di λ1 = 0 l’autospazio è il nucleo della matrice LA , che è span{(−1, 0, 1), (−1, 1, 0)} . L’autospazio relativo all’autovalore 3 è ker(3 ∗ id − LA ) . 2 −1 −1 3 ∗ id − A = −1 2 −1 −1 −1 2 2 −1 −1 3 ∗ id − A = 0 3 −3 0 −3 3 2 −1 −1 3 ∗ id − A = 0 3 −3 0 0 0 y = α/3 2x − α/3 − α/3 = 0 x = α/3 L’autospazio relativo all’autovalore 3 è lo span di (1, 1, 1) Se prendo i tre vettori e li metto in colonna, ottengo la matrice −1 −1 1 1 0 1 0 1 1 −1 −1 1 0 −1 2 0 0 3 Capitolo 17. Autovalori e autovettori 232 / 258 che ha rango 3 quindi ho una base di R3 , data da B = {(−1, 1, 0), (−1, 0, 1), (1, 1, 1)} . Di conseguenza la matrice di LA in questa base è la matrice diagonale che ha come entrate diagonali gli autovalori associati agli autovettori. Le prime due corrispondono all’autovalore 0 e l’ultima all’autovalore 3. Verificare facendo i calcoli che MBB (LA ) = C −1 AC dove C è la matrice che ha per colonne i tre vettori Esempio 17.3 Prendo 1 1 1 A= 0 1 2 0 0 2 PLA (x) = det(x ∗ id − A) det = ( x − 1 −1 −1 0 x − 1 −2 ) 0 0 x−2 det(λid − A) = −1 ∗ (x − 1) ∗ (x − 2) (il determinante di una matrice triangolare superiore è il prodotto delle entrate sulla diagonale.) λ1 = 1 con molteplicità algebrica 1. Calcolo autospazi e autovettori vλ1 = ker(A − 1) = 0 1 1 A= 0 0 2 0 0 0 x=α y+z =0 y=0 La matrice ha rango 2 e il nucleo ha dimensione 1 e coincide con lo span di e1 . vλ2 = A − 2 ∗ i A= Il kehr ha dimensione 1. −1 1 1 0 −1 2 0 0 0 Capitolo 17. Autovalori e autovettori A= 233 / 258 −1 0 3 0 −1 2 0 0 0 anche questo autospazio ha dimensione 1. (x, y, z)t.c. x = 3z, y = 2z, z vλ2 = span{(3, 2, 1)} Possiamo trovare solo due autovettori linearmente indipendenti, e quindi non possiamo trovare una base di R3 composta da autovettori. Gli autovettori di LA sono multipli scalari di (1, 0, 0) o di (3, 2, 1) diversi da 0. Quindi non è possibile trovare una base di R3 composta da autovettori. 17.5 Molteplicità algebrica e geometrica Definizione 17.7 Sia f : V → V lineare con dimV < ∞ . Sia pf (x) il polinomio caratteristico di f . Sia λ ∈ K un autovalore di f così che Pf (λ) = 0 e quindi x − λ divide il polinomio caratteristico di f per il teorema di Ruffini. Allora la molteplicità algebrica di λ come autovalore di f è il massimo intero k ≥ 1 tale per cui (x − λ)k divide Pf (x) . La denoteremo con aλ . Allora pf (x) = (x − λ)aλ ∗ q(x) dove q(x) è un polinomio tale che q(x) ̸= 0 . Definizione 17.8 Nelle stesse ipotesi, la molteplicità geometrica di λ inquanto autovalore di f è la dimensione dell’autospazio corrispondente a λ , quindi la dimensione del nucleo di f − λ ∗ id(v) . Anche gλ ≥ 1 , perché siccome λ è autovalore, esiste almeno un autovettore corrispondente. Teorema 17.2 Sia f : V → V lineare e sia V finitodimensionale. Sia λ ∈ K autovalore di f , allora la molteplicità geometrica di λ è sempre minore o uguale della molteplicità algebrica (lo si verifica anche negli esempi precedenti). Teorema 17.3 Sia {v1 , . . . , vgλ } una base dell’autospazio di λ . Estendo questa base con il teorema della base estesa: esistono vgλ +1 , . . . , vd tali che v1 , . . . , vgλ , vgλ +1 , . . . , vd sia una base di V . Per j = 1, . . . , gλ , si ha f (vj ) = λ ∗ vj , quindi la matrice di f nella base dell’autospazio ha tutte le entrate uguali a 0 tranne ajj = λ per j = 1, . . . , gλ . Capitolo 17. Autovalori e autovettori 234 / 258 Allora la matrice con B in partenza e in arrivo ha intorno alla diagonale due blocchi: un blocco di dimensioni gλ × gλ che è una matrice diagonale, e un blocco di dimensioni (d − gλ ) × (d − gλ ) . Il polinomio caratteristico di f è il determinante di λ ∗ id − MBB (f ) , e siccome ho una matrice a blocchi quadrati, il suo determinante è il prodotto dei determinanti dei due blocchi quadrati attorno alla diagonale. Allora ho (x − λ)gλ ∗ px polinomio caratteristico della matrice x. Allora (x−λ)gλ divide il polinomio caratteristico della matrice di partenza, quindi gλ è sicuramente minore di Aλ e vale l’uguale se e solo se x − λ non divide anche px . cvd Esempio 17.4 Considero la matrice A= 0 1 −1 0 Il polinomio caratteristico di LA è il polinomio della matrice x ∗ id − A x ∗ id − A = x −1 1 x det(x ∗ id − A) = x2 + 1 Nel caso K = R non ho autovalori, perché il polinomio è maggiore o uguale di 1 per ogni λ in R . e non ha radici. Quindi non posso trovare nemmeno un autovettore. Se invece K = C , P (LA )(x) = (x − i)(x + i) Ho due autovalori λ1 = i , λ2 = −i I corrispondenti autospazi sono vλ1 = ker(i ∗ id − A) x ∗ id − A = i −1 1 i Moltiplico per i la prima riga. x ∗ id − A = −1 −i 1 i x ∗ id − A = −1 −i 0 0 y = α, −x − iα = 0, x = −iα Ho lo span di (−i, 1) Capitolo 17. Autovalori e autovettori 235 / 258 Nel caso in cui λ2 = −i x ∗ id − A = −i −1 1 −i x ∗ id − A = 1 −i 1 −i x ∗ id − A = 1 −i 0 −0 x = i ∗ α, y = α Allora è lo span di (i, 1) . Moltiplicando per i ottengo che I = (1, i), (1, −i) è una base di c2 composta da autovettori di LA . la matrice da B in B di LA in questa base ha entrate i , −i . 17.6 Osservazioni generali Osservazione 17.4 Sia dimV = d e supponiamo di avere f : V → V lineare e diagonalizzabile. Per definizione esiste una base B = {v1 , . . . , vd } composta da autovettori di f . Allora se η1 , . . . , ηk sono gli autovalori distinti di f , possiamo supporre eventualmente dopo aver riordinato i vj che v1 , . . . , vg1 (relativi all’autovalore η1 ), vg1 +1 , . . . , vg1 +g2 (relativi a η2 ), . . . , vgk−1 +1 , . . . , vk (relativi a ηk ) nell’insieme siano una base di V . La matrice di f in questa nuova base è una matrice diagonale con g1 entrate uguali a η1 , . . . , gk entrate uguali a ηk . Il polinomio caratteristico è Pf = (x − η1 ) g1 ∗ (x − η2 ) g2 ∗ · · · ∗ (x − ηk ) gk = k ∏ (x − ηj )gj j=1 Siccome gli x − ηj sono tutti distinti, allora gj è la molteplicità algebrica dell’autovalore ηj . Inoltre, siccome il grado del polinomio caratteristico è d , allora la ∑ ∏ produttoria kj=1 (x − ηj )gj ha grado d ovvero kj=1 gj = d . Sia v ∈ V , sia x = (x1 , . . . , xd ) la sua colonna delle coordinate nella base B , allora v appartiene all’autospazio relativo all’autovalore η1 , cioè al nucleo di η1 ∗ id(v) − f se e solo se x ∈ ker(η1 ∗ id − A) , dove A è la matrice di f nella base B . η1 ∗ id − A è la matrice che sulla diagonale ha 0 per g1 volte, η1 − η2 per g2 volte . . . , e η1 − ηk per gk volte. Queste entrate sono tutte diverse da 0, poiché ηr ̸= ηs se r ̸= s per ipotesi. v sta nel ker di η1 ∗ id − A se e solo se il prodotto tra quest’ultima matrice e (x1 , . . . , xd ) dev’essere il vettore nullo di Rd , ma siccome i coefficienti della matrice sono diversi da 0, questo avviene se e solo se xj = 0∀j > g1 . Quindi nella Capitolo 17. Autovalori e autovettori 236 / 258 combinazione lineare che esprime v in funzione dei vettori della base compaiono solo i primi g1 vettori e quindi v ∈ span{v1 , . . . , vg1 } . Concludo che l’autospazio relativo a η1 coincide con span{v1 , . . . , vg1 } e pertanto g1 è anche la molteplicità geometrica di η1 . Lo stesso vale per ogni ηj con j = 1, . . . , k , quindi se f è diagonalizzabile si ha che Vηj = span{vgj−1 +1 , . . . , vgj−1 +gj } quindi gj è la molteplicità geometrica di ηj . 17.6.1 condizioni necessarie per la diagonalizzabilità Riassumendo: Se f : V → V è diagonalizzabile e η1 , . . . , ηk sono gli autovalori distinti di f con molteplicità algebriche Aηj e geometriche Gηj allora 1. ∑k j=1 Aηj = d con d = dimV ; (condizione 1) 2. la molteplicità geometrica e quella algebrica di ogni autovalore sono uguali, per ogni j = 1, . . . , k (condizione 2). Queste condizioni sono necessarie per la diagonalizzabilità, come mostra questi esempi. Esempio 17.5 Sia data la matrice 0 1 −1 0 il cui polinomio caratteristico è Pa (x) = x2 + 1 . Non ci sono radici reali, quindi f non è diagonalizzabile. Esempio 17.6 Data LB : R3 → R3 con 0 1 1 B = −1 0 −2 0 0 1 cerco il polinomio caratteristico. λ −1 −1 2 λ ∗ id − A = 1 λ 0 0 λ−1 Calcolo il determinante di questa matrice usando lo sviluppo secondo Laplace per la terza riga Pf (λ) = (x − 1) ∗ (x2 + 1) Capitolo 17. Autovalori e autovettori 237 / 258 η1 = 1 è l’unico autovalore ma Aη1 < 3 quindi la molteplicità algebrica è minore della dimensione di V e la matrice non è diagonalizzabile sui reali. Sul campo C , il polinomio caratteristico si scompone come (x − i)(x + i)(x − 1) e ho tre autovalori η1 = 1, η2 = i, η3 = −i con molteplicità algebrica 1. Anche la molteplicità geometrica è uguale a 1 quindi LB è diagonalizzabile su C . La condizione 1 per la diagonalizzabilità non è sempre soddisfatta su R , ma è sempre soddisfatta su C perché il campo complesso è algebricamente chiuso e qualsiasi polinomio si può fattorizzare in polinomi di grado 1. Esempio 17.7 Questo esempio mostra che la condizione 1 non è sufficiente per la diagonalizzabilità. Sia infatti A= 0 1 0 0 Il polinomio caratteristico di questa matrice è P (x) = x2 . L’unico autovalore è 0 con molteplicità algebrica 2, la molteplicità geometrica è la dimensione del nucleo di A che coincide con span{e1 } e quindi ha dimensione 1; allora la condizione 2 non è soddisfatta poiché Gη < Aη . La matrice non è diagonalizzabile perché, se lo fosse, sarebbe simile a una matrice diagonale, ma questo non può avvenire perché A ha entrate nulle sulla diagonale, e l’unica matrice diagonale che soddisfa questa condizione è la matrice nulla che è simile solo a se stessa. Ci si chiede se vale viceversa, e se le condizioni 1 e 2 sono anche sufficienti per la diagonalizzabilità. 17.6.2 Lineare indipendenza di autovalori distinti Teorema 17.4 Sia f : V → V lineare e siano η1 , . . . , ηk autovalori distinti di f . Siano v1 , . . . , vk autovettori relativi a η1 , . . . , ηk rispettivamente, cioè tali che vj ̸= 0∀j = 1, . . . , k , f (vj ) = λj ∗ vj . Allora v1 , . . . , vk sono linearmente indipendenti. Dimostrazione 17.3 • Se k = 1 un autovettore diverso da 0 è linearmente indipendente. • Se k = 2 siano α, β ∈ K non entrambi nulli tali che α ∗ v1 + β ∗ v2 = 0 , quindi se v1 ̸= 0 si può scrivere v1 = −β α ∗ v2 pertanto η1 ∗ v1 = f (v1 ) = f (−β/α ∗ v2 ) = −β/α ∗ η2 ∗ v2 = η2 ∗ v1 allora η2 ∗ v1 = η1 ∗ v1 e usando la distributività si ha che (η1 − η2 ) ∗ v1 = 0 ma η1 − η2 ̸= 0 quindi v1 = 0 e questo è assurdo. • Sia vero l’asserto per η1 , . . . , ηl e v1 , . . . , vl se l < k (ipotesi induttiva). Capitolo 17. Autovalori e autovettori 238 / 258 Supponiamo per assurdo che esistano α1 , . . . , αk ∈ K tali che α1 ∗v1 +· · ·+αk ∗vk = 0 . Voglio dimostrare che gli scalari sono tutti uguali a 0. Moltiplicando per η1 ottengo η1 ∗ α1 ∗ v1 + · · · + η1 ∗ αk ∗ vk = 0 D’altra parte anche f (α1 ∗ v1 + · · · + αk ∗ vk ) = 0 quindi per linearità è α1 ∗ f (v1 ) + · · · + αk ∗ f (vk ) = 0 ma f (vj ) = ηj ∗ vj quindi ottengo α1 ∗ η1 ∗ v1 + · · · + αk ∗ ηk ∗ vk = 0 abbiamo ricavato le due relazioni seguenti η1 ∗ α1 ∗ v1 + η1 ∗ α2 ∗ v2 + · · · + η1 ∗ αk ∗ vk = 0, relazione 1 η1 ∗ α1 ∗ v1 + η2 ∗ α2 ∗ v2 + · · · + ηk ∗ αk ∗ vk = 0, relazione 2 Sottraendo 1 a 2 ottengo η1 ∗ α1 ∗ v1 − η1 ∗ α1 ∗ v1 + η1 ∗ α2 ∗ v2 − η2 ∗ α2 ∗ v2 + · · · + η1 ∗ αk ∗ vk − ηk ∗ αk ∗ vk = 0 Il primo termine si annulla e rimane (η1 − η2 ) ∗ α2 ∗ v2 + · · · + ∗αk ∗ vk = 0 ho una combinazione lineare di k − 1 autovettori relativi ad autovalori distinti. Per l’ipotesi induttiva v2 , . . . , vk sono linearmente indipendenti; siccome la combinazione lineare è nulla tutti i coefficienti devono essere uguali a 0, quindi η1 − η2 = 0, . . . , η1 − ηk = 0 , ma gli autovalori sonodistinti, quindi questo è assurdo e segue che α2 = · · · = αk = 0 . Allora nella combinazione lineare di partenza rimane solo α1 ∗ v1 = 0 e siccome per ipotesi v1 ̸= 0 allora α1 = 0 . Questo completa il passo induttivo. cvd 17.6.3 Condizioni sufficienti per la diagonalizzabilità Dimostriamo che le condizioni 1 e 2 sono sufficienti per la diagonalizzabilità. Supponiamo che valgano le condizioni 1 e 2. Sia V d-dimensionale con 1 < d < +∞ . Sia f : V → V lineare e siano η1 , . . . , ηk gli autovalori distinti di f . Supponiamo che la somma delle molteplicità algebriche degli ηj per j = 1, . . . , k sia uguale a d e che la molteplicità algebrica e quella geometrica di ogni ηj siano uguali. Capitolo 17. Autovalori e autovettori 239 / 258 Per j = 1, . . . , k , sia {v1j , . . . , vgjj } una base dell’autospazio Vηj . Affermo che v11 , . . . , vg11 , v12 , . . . , vg22 , . . . , v1k , . . . , vgkk sono linearmente indipendenti (da dimo∑k strare), e, se questo avviene, dato che d = j=1 gηj per ipotesi, essi formano nell’ordine una base di V composta da autovettori di f per costruzione, ovvero f è diagonalizzabile. Mostriamo allora l’indipendenza degli autovettori: supponiamo per assurdo che esistano scalari non tutti nulli tali che α11 ∗ v11 + · · · + αg11 ∗ vg11 + · · · + α1k ∗ v1k + · · · + αgkk ∗ vgkk = 0. Per ogni j = 1, . . . , k chiamo vj = α1j ∗ v1j + · · · + αgj j ∗ vgjj quindi vj = 0 solo se αij = 0∀i . Osservo inoltre che i vj soddisfano la condizione f (vj ) = ηj ∗ vj e quindi sono autovettori per gli autovalori ηj . Possiamo supporre senza perdita di generalità che siano v1 , . . . , vs ̸= 0 per qualche s ≥ 1 e vs′ = 0 se s′ ≥ s . Ricavo che ma v1 , . . . , vs ̸= 0 per costruzione perché sono autovettori di f relativi a η1 , . . . , ηs . Inoltre per il teorema del paragrafo precedente, i vj sono indipendenti essendo relativi ad autovalori distinti, e quindi gli scalari che compaiono nelle combinazioni lineari sono tutti nulli, contro l’ipotesi assurda. Riassumendo, abbiamo dimostrato il seguente teorema: Teorema 17.5 Sia V uno spazio vettoriale su K , di dimensione d con 1 < d < +∞ . Sia f : V → V lineare e siano η1 , . . . , ηk ∈ K gli autovalori distinti di f con molteplicità algebriche e geometriche Aηj e Gηj . Allora le seguenti condizioni sono equivalenti: 1. f è diagonalizzabile; ∑k 2. j=1 Aηj = d e Aηj = Gηj per j = 1, . . . , k 3. ∑k j=1 Gηj =d Dimostrazione 17.4 Rimane da mostrare che 2 −→ 3 . Supponiamo per assurdo che per un certo j , Aηj > Gηj , allora la somma delle molteplicità algebriche è maggiore di d che è il grado del polinomio caratteristico, e questo non può avvenire. cvd 17.6.4 Valori di molteplicità algebrica e geometrica Osservazione 17.5 Se η è un autovalore di f con molteplicità algebrica Aη , sappiamo che Gη soddisfa 1 ≤ Gη ≤ Aη , e si possono facilmente costruire gli esempi in cui Gη assume i valori intermedi. Capitolo 17. Autovalori e autovettori 240 / 258 Esempio 17.8 Sia V = R3 e suppongo che f : R3 → R3 bbiaa polinomio caratteristico x3 , allora A0 = 3 . • se f = LA con A uguale alla matrice nulla, allora A0 = G0 = 3 . • Se A ha invece una riga diversa da 0, A0 = 3 e G0 = 2 , perché il rango dell’autospazio diminuisce. • data la matrice 0 1 0 0 0 1 0 0 0 allora A0 = 3 e G0 = 1 Corollario 17.1 Sia V uno spazio vettoriale su K d-dimensionale. Sia f : V∑→ V lineare e supponiamo che f abbia D autovalori distinti, ovvero pf (x) = dj=1 (x − ηj ), ηj ̸= ηk se j ̸= K . Allora f è diagonalizzabile. Dimostrazione 17.5 Tutte le molteplicità sono uguali a 1, quindi ∑ j Aηj = d e vale la condizione 1. Per ogni j = 1, . . . , d , Gηj è almeno 1, ma siccome è sempre minore o uguale della molteplicità algebrica e ogni Aηj = 1 , segue che Aηj = Gηj , ovvero vale la condizione 2, ed entrambe le condizioni sufficienti per la diagonalizzabilità sono soddisfatte. cvd Esempio 17.9 Considero una matrice triangolare superiore con entrate diagonali 1, 2, 3 . Allora essa ha tre autovalori distinti quindi la matrice è diagonalizzabile per il corollario precedente. Capitolo 18. Teorema spettrale 241 / 258 Capitolo 18 Teorema spettrale 18.1 Diagonalizzabilità negli spazi vettoriali euclidei 18.1.1 Applicazione simmetrica o autoaggiunta Uno spazio vettoriale euclideo (V, ϕ) è dato da V spazio vettoriale reale e da ϕ : V × V → R prodotto scalare definito positivo. Definizione 18.1 Se (V, ϕ) è uno spazio vettoriale euclideo e f : V → V è lineare, diremo che F è simmetrica o autoaggiunta rispetto a ϕ se per ogni v, w ∈ V , si ha ϕ(f (v), w) = ϕ(v, f (w)) . Esempio 18.1 Sia V = Rd e ϕ = pst , quindi ϕ(X, Y ) = X T ∗ id ∗ Y F = LA per qualche A matrice dxd ϕ(AX, Y ) = (AX)t ∗ Y = X t ∗ At ∗ Y ϕ(X, f (Y )) = X · AY = X t ∗ AY Quindi f = LA è simmetrica o autoaggiunta rispetto al prodotto scalare standard se e solo se ϕ(X, AY ) = ϕ(AX, Y ) quindi se e solo se X t ∗ At ∗ Y = X t ∗ AY , quindi se e solo se At ∗ Y = AY per ogni Y ∈ Rd , quindi se e solo se At = A e quindi A è simmetrica. In generale, sia B = {v1 , . . . , vd } una base di V . Siano C la matrice del prodotto scalare rispetto a tale base (quindi C è simmetrica e non degenere). Chiamiamo A la matrice nella base B di f . Allora se v, w sono elementi di V , siano X = MB (v) e Y = MB (w) , allora, ϕ(v, w) = X t ∗ C ∗ Y . Se introduco f ϕ(f (v), w) = (MB f (v))t ∗ C ∗ M B(w) = (AX)t ∗ C ∗ Y = X t ∗ At ∗ C ∗ Y Capitolo 18. Teorema spettrale 242 / 258 ϕ(v, f (w)) = (MB )t ∗ C ∗ MB = X t ∗ C ∗ AY Quindi f è simmetrica o autoaggiunta rispetto a ϕ se e solo se ∀X, Y ∈ Rd , X t ∗ At ∗ CY = X t ∗ CAY Quindi se e solo se At ∗ C = CA . 18.1.2 Base ortogonale Se (V, ϕ) è uno spazio vettoriale euclideo, allora una base B = {v1 , . . . , vd } si dice ortogonale per ϕ se ϕ(vk , vl ) = 0 per k ̸= l ossia se la matrice che rappresenta ϕ in questa base è diagonale. Invece B si dice ortonormale se ϕ(vk , vl ) = δkl ossia la matrice che rappresenta ϕ in questa base è la matrice identità. Se B = {v1 , . . . , vd } è ortogonale, allora B′ = {v1 ∗ √ 1 , . . . , vd ϕ(v1 ,v1 ) ∗√ 1 } ϕ(vd ,vd ) è una base ortonormale. In particolare, se la base {v1 , . . . , vd } è una base ortonormale per ϕ (la matrice che rappresenta ϕ è l’identità), la condizione per avere una matrice autoaggiunta diventa At = A . Riassumendo, vale il seguente Teorema 18.1 Nelle ipotesi precedenti le seguenti condizioni sono equivalenti 1. f è autoaggiunta per ϕ ; 2. per ogni scelta di una base B si ha At ∗ C = CA 3. per ogni base ortonormale B di (V, ϕ) si ha At = A 18.2 Teorema spettrale 18.2.1 Introduzione Se (V, ϕ) è uno spazio vettoriale euclideo e f : V → V è lineare, f si dice simmetrica o autoaggiunta rispetto a ϕ se ϕ(f (v), w) = ϕ(v, f (w)) ∀v, w ∈ V . L’importanza degli operatori autoaggiunti è legata al teorema spettrale. Lo spettro di un operatore è l’insieme degli autovalori di un operatore. Teorema 18.2 Sia (V, ϕ) uno spazio vettoriale euclideo d-dimensionale, 1 < d < +∞ . Sia F : V → V lineare e autoaggiunta rispetto a ϕ . Allora esiste una base B = {v1 , . . . , vd } che soddisfa le seguenti condizioni: 1. B è ortonormale per ϕ , cioè ϕ(vk , vl ) = δkl 2. B è composta da autovettori di f . Capitolo 18. Teorema spettrale 243 / 258 Se f è simmetrica o autoaggiunta rispetto a ϕ , allora non solo f è diagonalizzabile, ma la si può diagonalizzare su una base di V ortonormale. Se f è simmetrica o autoaggiunta rispetto a ϕ , allora non solo f è diagonalizzabile, ma la si può diagonalizzare su una base di V ortonormale. Esempio 18.2 Sia LA : R2 → R2 associata alla matrice 0 2 2 0 La matrice di LA è simmetrica, e la base canonica è ortonormale per il prodotto scalare standard. (infatti f è simmetrica per ϕ se la matrice che la rappresenta è simmetrica) Il polinomio caratteristico è | x −2 | −2 x pf (x) = x2 − 4 = (x + 2)(x − 2) 2Id − A = 2Id − A = 2 −2 −2 2 2 −2 0 0 ker A = {(x, y) t.c.2x − 2y = 0} v2 = ker A = span{(1, 1)} −2Id − A = −2 −2 −2 −2 −2Id − A = −2 −2 0 0 V−2 = {(x, y) t.c. − 2x − 2y = 0} = span{(1, −1)} Questa è una base di R2 composta da autovettori di f. E’ una base ortogonale ma non ortonormale. Per trovare una base ortonormale divido i vettori per la rispettiva norma. √ √ v1 = 1/ 2(1, 1), v2 = 1/ 2(1, −1) Questa è una base ortonormale composta da autovettori. Capitolo 18. Teorema spettrale 244 / 258 18.2.2 Conseguenze del teorema In generale, se A è una matrice simmetrica dxd , allora LA : Rd → Rd è autoaggiunta e simmetrica per il prodotto scalare standard, e quindi per il teorema spettrale esiste una base {v1 , . . . , vd } ortonormale per il prodotto scalare standard tale che (Xk )t ∗ Xl = δkl e tale che AXj = Xj ∗ λj per certi λ ∈ R . In particolare qualsiasi matrice A simmetrica è diagonalizzabile. 18.2.3 La matrice speciale Chiamiamo R la matrice da B alla base canonica dell’identità, che ha per colonne X1 , . . . , Xd . Allora R−1 AR è diagonale e ha entrate λ1 , . . . , λd perché è la matrice di LA nella base B fatta di autovettori. Nell’esempio precedente, √ √ 1/ √2 1/√2 R= −1/ 2 1/ 2 In realtà R è una matrice invertibile di un tipo speciale. Le sue colonne non sono solo linearmente indipendenti, ma sono anche una base ortonormale per il prodotto scalare standard. Siccome X1 , . . . , Xd è una base ortonormale per il prodotto scalare standard, calcolando MB (ϕ) ottengo la matrice identità. Inoltre MBB (id) = MB (ϕ) = (MBBc (id))t ∗ MBBcc pst ∗ MBBc (id) Allora ottengo Rt ∗ A ∗ R = Rt ∗ id ∗ R = RT ∗ R . Quindi come corollario del teorema spettrale abbiamo: Corollario 18.1 Sia A una matrice dxd reale e simmetrica. Allora esiste una matrice R invertibile tale che R−1 AR è diagonale e in secondo luogo tale che Rt ∗ R è l’identità, cioè l’inverso di R è la trasposta di R . 18.2.4 Matrice ortogonale Definizione 18.2 Una matrice reale dxd si dice ortogonale (o unitaria reale) se Rt ∗ R = id , cioè R è invertibile e R−1 = Rt . Osservazione 18.1 Per le considerazioni precedenti, R è ortogonale se e solo se le colonne di R , R1 , . . . , Rd sono una base dello spazio Rd ortonormale per il prodotto scalare standard. Capitolo 18. Teorema spettrale 245 / 258 Definizione 18.3 Diremo Od l’insieme di tutte le matrici ortogonali dxd . L’identità appartiene a Od . Se R appartiene a Od allora Rt ∗ R = R ∗ Rt = id e quindi Rt ∈ O(d) . Se A e B sono matrici ortogonali, (AB)t ∗ AB = B t ∗ At ∗ AB = B t ∗ (At ∗ A)B = B t ∗ id ∗ B = B t ∗ B = id, quindi anche AB appartengono a SOd . Se R è una matrice ortogonale, allora Rt ∗ R = id , e quindi det R = ±1 . Infatti, per il teorema di Binet si ha 1 = det(R ∗ Rt ) = det(Rt ) ∗ det R , ma siccome det R = det(Rt ) segue che (det R)2 = 1 e det R = ±1 . Esempio 18.3 1. O1 = {±1} (sono le uniche basi ortonormali di R1 ). 2. O2 è dato da tutte le matrici le cui colonne sono una base ortonormale del prodotto scalare standard. Queste sono di due tipi: quelle della forma (− sin θ) cos θ cos θ sin θ con 0 < θ < 2π oppure quelle della forma: cos θ sin θ − sin θ cos θ Geometricamente queste matrici portano la base canonica in una rotazione dell’angolo θ . A simmetrica implica che esiste R ∈ Od tale che R−1 AR è diagonale ed è uguale a Rt ∗ AR . Se B = {v1 , . . . , vd } è una base ortogonale del prodotto scalare standard, anche {−v1 , v2 , . . . , vd } è una base e cambia il segno del determinante. Viceversa si ha una matrice dxd reale tale che R−1 AR è diagonale per qualche R ortogonale. Questo significa che esiste una base di Rd ortonormale per il prodotto scalare standard e composta da autovettori di A . Concludiamo che se D è la matrice diagonale tale che R−1 AR = D , allora se risolvo per A ottengo A = RDR−1 = R ∗ DRt . Allora At = (RDRt )t = (Rt )t ∗ Dt ∗ Rt = RDRt = A (si usa il fatto che una matrice diagonale trasposta è uguale a sé stessa). Questo risultato vale solo per matrici simmetriche: infatti, se B è una matrice non simmetrica reale dxd , non è necessariamente diagonalizzabile. In secondo luogo, anche se lo fosse, non lo è comunque mai su una base ortonormale, cioè non può Capitolo 18. Teorema spettrale 246 / 258 ammettere una base di autovettori ortogonali per il prodotto scalare standard, quindi R non è nemmeno ortogonale. Esempio 18.4 Consideriamo la matrice non simmetrica B= 0 1 4 0 Il suo polinomio caratteristico è x2 − 4 = (x − 2)(x + 2) . L’autospazio relativo all’autovalore λ = 2 è dato da: V2 = ker( 2 −1 ) −4 2 Riducendo a scala la matrice ottengo: 2 −1 0 0 V2 = span{(1, 2)} Invece l’autospazio relativo all’autovalore −2 è il ker della matrice −2 −1 −4 −2 V−2 = span{(1, −2)} Allora B = {(1, 2), (1, −2)} è una base di R2 composta da autovettori, ma non è ortogonale per il prodotto scalare standard perché la matrice non è simmetrica. 18.3 Teorema spettrale nello studio dei prodotti scalari Supponiamo di avere un prodotto scalare ψ su Rd e prendiamo la matrice di ψ nella base canonica, che è una matrice dxd simmetrica. Allora ψ è tale che ψ(X, Y ) = X t ∗ AY . Siccome A è simmetrica, per il corollario del teorema spettrale esiste R ortogonale tale che R−1 AR sia diagonale. Quindi le colonne di R costituiscono una base B di Rd ortonormale per il prodotto scalare standard e composta da autovettori di ψ = LA : Rd → Rd . Sia D = R−1 AR = diag(λ1 , . . . , λd ) , con λ1 , . . . , λd autovalori di A non necessariamente distinti. Osservazione 18.2 Capitolo 18. Teorema spettrale 247 / 258 Abbiamo che D = R−1 AR = Rt ∗ AR perché R è ortogonale. Non solo si ha che D è la matrice con base B in partenza e in arrivo di LA ( B è costituita dalle colonne di R ), ma è anche la matrice nella base B di A rispetto a ψ . Pertanto la base B non è solo una base di Rd ortonormale per il prodotto scalare standard, ma è anche una base di Rd ortogonale per ψ . Quindi ricaviamo che z(ϕ) si determina prendendo una base ortogonale del prodotto scalare e contando le entrate nulle sulla diagonale, che corrisponde alla dimensione del nucleo dell’autovalore 0. 18.3.1 Secondo teorema spettrale Teorema 18.3 Sia A una matrice dxd reale simmetrica. Siano LA : Rd → Rd l’applicazione che porta X in AX e ϕA : Rd → R tale che ϕA (X, Y ) = X t ∗AY (ovvero LA e ϕA sono rispettivamente l’applicazione lineare e il prodotto scalare definiti da A rispetto alla base canonica). Allora esiste una base B = {v1 , . . . , vd } di Rd che soddisfa le seguenti condizioni: 1. B è ortonormale per il prodotto scalare standard su Rd ; 2. B è composta da autovettori di LA , tali che A ∗ vj = λj ∗ vj , j = 1, . . . , d 3. B è ortogonale per ϕA , cioè ϕA (vk , vl ) = 0 se k ̸= l In particolare, in tale base avremo che la matrice dell’applicazione lineare LA è anche la matrice del prodotto scalare diagonale e quindi l’indice di positività è il numero dei λj tali che λj > 0 . Esempio 18.5 Sia 1 0 1 A = 0 2 −2 1 −2 3 Determinare p(ϕ) e z(ϕ) . Calcolo il polinomio caratteristico di A : λ ∗ id − A = λ−1 0 −1 0 λ−2 2 −1 2 λ−3 Scambio la prima e la terza riga p(λ) = −| −1 2 λ−3 0 λ−2 2 | λ−1 0 −1 Capitolo 18. Teorema spettrale 248 / 258 −1 2 λ−3 λ−2 2 p(λ) = −| 0 | 0 2λ − 2 −1 + (λ − 3)(λ − 1) p(λ) = | λ−2 2 | 2 2λ − 2 λ − 4λ + 2 p(λ) = (λ − 2) ∗ (λ2 − 4λ + 2) − 2(2λ − 2) p(λ) = λ3 − 2λ2 − 4λ2 + 8λ + 2λ − 4 − 4λ + 4 p(λ) = λ3 − 6λ2 + 6λ p(λ) = λ Scompongo il secondo fattore: √ 36 − 24 λ1,2 = 2 √ 6±2 3 λ1,2 = 2 √ λ1,2 = 3 ± 3 √ √ λ1 = 0, λ2 = 3 + 3 λ3 = 3 − 3 6± Allora z(ϕ) = 1 e p(ϕ) = 2 Trovare esplicitamente una base B come nel teorema spettrale nella seconda formulazione. Procedimento: Calcolare gli autospazi dei tre autovalori e prenderne i generatori, che saranno ortogonali tra loro. Per trovare la base ortonormale si divide ogni vettore per la sua norma. Esempio 18.6 Considero la matrice A con tutte le entrate uguali a 1, e considero il prodotto scalare e l’applicazione lineare ad essa associati. Il rango di A è 2, quindi z(ϕ) = 2 . Se p(ϕ) fosse uguale a 0, il prodotto sarebbe semidefinito negativo ma questo non può essere, perché, ad esempio, ϕ(e1 , e1 ) > 0 . Il polinomio caratteristico della matrice è x2 (x−3) . Ci si aspetta che l’autovalore 0 abbia molteplicità 2 perché z(ϕ) = 2 . Inoltre p(ϕ) = 1 perché ho un solo autovalore positivo. L’autospazio relativo all’autovalore 0 è dato da: V0 = {(x, y, z) t.c. (x + y + z) = 0} = span{(−1, 1, 0), (−1, 0, 1)} Invece V3 = span{(1, 1, 1)} . La base di autovettori cercata è B = {(−1, 1, 0), (−1, 0, 1), (1, 1, 1)} , ma non è ortonormale infatti il prodotto scalare tra i primi due vettori è 1. Per renderla ortogonale applico Gram-Schmidt ai primi due vettori. Capitolo 18. Teorema spettrale 249 / 258 v1′ = v1 = (−1, 1, 0) v2′ = v2 − ϕ(v2 , v1 ) ∗v1 = (−1, 0, 1)−1 = (−1, 0, 1)+(1/2, −1/2, 0) = (−1/2, −1/2, 1) ϕ(v1 , v1 ) Ora la base {(−1, 1, 0), (−1, 1, 2), (1, 1, 1)} è ortogonale per il prodotto scalare standard ed è composta da autovettori di LA . Per ricavare una base ortonormale divido ogni vettore per la sua norma. Considero quindi la base √ √ √ {1/ 2(−1, 1, 0), 1/ 6(−1, 1, 2), 1/ 3(1, 1, 1)} Trovare una matrice R ortogonale tale per cui R−1 AR sia diagonale. Basta prendere la matrice che ha per colonne i tre vettori della base ortonormale: in questo modo Rt AR è la matrice diagonale che ha come entrate gli autovalori. Osservazione 18.3 Sia (V, ϕ) uno spazio vettoriale euclideo, non necessariamente finitodimensionale. Supponiamo di avere f simmetrica per ϕ . Siano η1 , . . . , ηk ∈ R autovalori distinti di f e siano v1 , . . . , vk ∈ V autovettori di f relativi a η1 , . . . , ηk rispettivamente. vj ̸= 0 e f (vj ) = ηj ∗ vj per j = 1, . . . , k . Allora v1 , . . . , vr sono a due a due ortogonali per ϕ , ovvero ϕ(vk , vl ) = 0 se k ̸= l . Dimostrazione 18.1 Sia k ̸= l con 1 < k < l < r . Allora poiché f è autoaggiunta: ϕ(f (vk ), vl ) = ϕ(f (vl ), vk ) = ϕ(ηk ∗ vk , vl ) = ηk ϕ(vk , vl ). Invece ϕ(vk , f (vl )) = ηl ∗ ϕ(vk , vl ) . Le due espressioni devono essere uguali, allora (ηk −ηl )∗ϕ(vk , vl ) = 0 ma poiché ηk −ηl ̸= 0 dev’essere necessariamente ϕ(vk , vl ) ̸= 0 . cvd Nell’esempio precedente, anche se non tutti i vettori erano una base ortogonale, gli autovettori relativi a un autovalore erano ortogonali a quelli relativi agli altri autovalori. 18.4 Dimostrazione del teorema spettrale Lemma 18.1 Sia (V, ϕ) uno spazio vettoriale euclideo. Sia f : V → V lineare e autoaggiunta per ϕ . Sia W in V un sottospazio vettoriale invariante per f , ossia f (W ) ⊆ W . Sia Wϕ⊥ il complemento ortogonale di W rispetto a ϕ (siccome ϕ è definito positivo, allora ). Allora anche W ⊥ è invariante per f , cioè f (Wϕ⊥ ) ⊆ W ⊥ . Capitolo 18. Teorema spettrale 250 / 258 Dimostrazione 18.2 Dobbiamo dimostrare che per ogni v ∈ W ⊥ anche f (v) ∈ W ⊥ , ossia che ϕ(f (v), w) = 0∀w ∈ W . Sia quindi v ∈ Wϕ⊥ così che ϕ(v, w) = 0 ∀w ∈ W . Allora ∀w ∈ W si ha ϕ(w, f (v)) = ϕ(v, f (w)) = 0 . Ma anche f (w) ∈ W perché W è invariante per f . Segue la tesi. cvd Enunciato: Sia (V, ϕ) uno spazio vettoriale euclideo, di dimensione d , e sia f : V → V simmetrica o autoaggiunta per ϕ . Allora esiste una base {v1 , . . . , vd } che è ortonormale per ϕ e composta da autovettori di f . Dimostrazione 18.3 Bisogna prima dimostrare che il polinomio caratteristico di f ha d radici reali contate con la rispettiva molteplicità algebrica, ovvero che Pf (x) = r ∏ (x − ηj )Aηj j=1 con ∑ A ηj = d j e dove gli ηj sono numeri reali (questo nel campo complesso è sempre vero). Sia B una qualsiasi base di V , ortonormale per ϕ . Allora sia A la matrice di f in questa base. Siccome la base è ortonormale per ϕ e f è autoaggiunta, allora A è una matrice simmetrica. Il polinomio caratteristico di f è il polinomio caratteristico di A , perché si può prendere la matrice che rappresenta f in qualsiasi base. Sia η ∈ C una qualsiasi radice complessa di PA (x) . Dimostro che in realtà η è una radice reale. Per ipotesi esiste LA : Cd → Cd ed esiste X ∈ Cd ∖ {0} tale che AX = η ∗ X . Quindi passando ai coniugati ottengo Ā ∗ X̄ = η̄ ∗ X̄ ma siccome A è reale A = Ā quindi ottengo A ∗ x̄ = η̄ ∗ X̄ . Se calcolo ϕ(f (X), X̄) = (AX)t ∗ X̄ = η ∗ X t ∗ X̄ Ma si ha anche ϕ(X, f (X̄)) = X t ∗ A ∗ X̄ = X t ∗ (A ∗ X̄) = X t ∗ η̄ ∗ X̄ = η̄ ∗ X t ∗ X̄ = η̄ ∗ (|x1 |2 + |x2 |2 + · · · + |xd |2 ) Poiché f è autoaggiunta, i primi membri di queste ultime due relazioni sono uguali, quindi si ha (η − η̄) ∗ [|x1 |2 + · · · + |xd |2 )] = 0 , ma siccome la somma dei Capitolo 18. Teorema spettrale 251 / 258 moduli è diversa da 0, allora η = η̄ , ossia η è un numero reale perché è uguale al suo coniugato. Concludiamo che tutte le radici complesse di Pf (x) sono in realtà numeri reali. Dimostrazione 18.4 Osserviamo che il teorema spettrale è ovvio se d = 1 . Supponiamo d ≥ 2 e che l’asserto sia vero in dimensioni minori di d . Sia f : V → V come sopra, simmetrica per ϕ . Allora per quanto visto tutte le radici del polinomio caratteristico di f sono reali. In particolare esiste η ∈ R tale che pf (η) = 0 e quindi η è un autovalore di f . Allora sia v ∈ V un autovettore corrispondente a η , con η ∗ v . Allora senza perdita di generalità, √ v ̸= 0 e f (v) = 1 ∗ v possiamo supporre senzaperdita di sostituendo v con 1/ ϕ(v, v) ∗ v = |v| ϕ generalità che ϕ(v, v) = 1 . Infatti, se così non fosse, sostituisco v con Chiamo W lo span di v . Allora se v ′ ∈ W , v ′ = λ ∗ v , allora v |ϕ(v,v)| . f (v ′ ) = f (λ ∗ v) = λ ∗ f (v) = λ ∗ η ∗ v ∈ W perché W è invariante per f . Consideriamo il complemento ortogonale per questo sottospazio, che chiamo W ′ . Per quanto visto, dato v ′ ∈ W ⊥ , f (v ′ ) ∈ W ′ perché W ′ è invariante per f . D’altra parte, se consideriamo ϕ′ : W ′ × W ′ → R la restrizione di ϕ a V ′ , allora ϕ′ è ancora un prodotto scalare (bilineare e simmetrico) definito positivo. Infatti se prendo un qualsiasi elemento non nullo, v ′ ̸= 0 , allora ϕ(v ′ , v ′ ) = ϕ(v, v) > 0 . ϕ′ è definito positivo, pertanto la coppia (W ′ , ϕ′ ) è uno spazio euclideo di dimensione d − 1 ( V ′ è il complemento ortogonale di uno spazio di dimensione 1). Siccome f (v ′ ) ∈ W ′ f definisce per restrizione una funzione f ′ : W ′ → W ′ lineare. Segue che ϕ′ (f ′ (v1 ), v2 ) = ϕ(f (v1 ), v2 ) = ϕ(v1 , f (v2 )) = ϕ′ (v1 , f ′ (v2 )) quindi f ′ : W ′ → W ′ è simmetrica rispetto a (V ′ , ϕ′ ) . Allora per l’ipotesi induttiva applicata allo spazio vettoriale euclideo di dimensione d − 1 , esiste una base B ′ = {v1 , . . . , vd−1 } di W ′ che è ortonormale per ϕ′ , e composta da autovettori di f ′ , ovvero ϕ′ (vk , vl ) = δ e f ′ (vk ) = λk ∗ vk , k ∈ (1, d − 1) per certi λk ∈ R . Se ora poniamo vd = v (dove v è il vettore di norma 1 considerato prima), ricaviamo la base B = {v1 , . . . , vd−1 , vd } , infatti i vettori sono linearmente indipendenti perché i due sottospazi sono in somma diretta. Inoltre, abbiamo che ϕ(vk , vl ) = δkl per k ∈ (1, d−1) e ϕ(vi , vd ) = 0∀i = 1, . . . , d− 1 per definizione di complemento ortogonale e ϕ(vd , vd ) = 1 per supposizione. Quindi ϕ(vk , vl ) = δkl , k, l ∈ (1, d) quindi B è una base di V ortonormale per ϕ . Infine, f (vj ) = f ′ (vj ) = λ ∗ vj per j ∈ (1, . . . , d − 1) e f (vd ) = η ∗ vd per la scelta di vd e quindi la base è composta da autovettori di f . Questo completa il passo Capitolo 18. Teorema spettrale induttivo e anche il corso di algebra lineare! 252 / 258 Capitolo 19. Fonti per testo e immagini; autori; licenze 253 / 258 Capitolo 19 Fonti per testo e immagini; autori; licenze 19.1 Testo • Corso:Algebra Lineare I1/Concetti introduttivi/Ripasso di insiemistica Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Concetti_introduttivi/Ripasso_ di_insiemistica?oldid=42416 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Concetti introduttivi/Relazioni Fonte: https://it.wikitolearn. org/Corso%3AAlgebra_Lineare_I1/Concetti_introduttivi/Relazioni?oldid=42418 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Concetti introduttivi/Funzioni Fonte: https://it.wikitolearn. org/Corso%3AAlgebra_Lineare_I1/Concetti_introduttivi/Funzioni?oldid=42420 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Concetti introduttivi/Operazioni Fonte: https://it.wikitolearn. org/Corso%3AAlgebra_Lineare_I1/Concetti_introduttivi/Operazioni?oldid=42422 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Concetti introduttivi/Principio di induzione Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Concetti_introduttivi/Principio_ di_induzione?oldid=42424 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Lo spazio R2/Proprietà generali dello spazio Rn Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Lo_spazio_R2/Propriet%C3%A0_ generali_dello_spazio_Rn?oldid=42429 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Lo spazio R2/operazioni in Rn Fonte: https://it.wikitolearn. org/Corso%3AAlgebra_Lineare_I1/Lo_spazio_R2/operazioni_in_Rn?oldid=42431 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Lo spazio R2/L’insieme R2 Fonte: https://it.wikitolearn. org/Corso%3AAlgebra_Lineare_I1/Lo_spazio_R2/L’insieme_R2?oldid=42433 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Lo spazio R3/Lo spazio R3 Fonte: https://it.wikitolearn. org/Corso%3AAlgebra_Lineare_I1/Lo_spazio_R3/Lo_spazio_R3?oldid=42438 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Lo spazio R3/La retta in R3 Fonte: https://it.wikitolearn. org/Corso%3AAlgebra_Lineare_I1/Lo_spazio_R3/La_retta_in_R3?oldid=42440 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Lo spazio R3/Piani in R 3 Fonte: https://it.wikitolearn. org/Corso%3AAlgebra_Lineare_I1/Lo_spazio_R3/Piani_in_R_3?oldid=42442 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Lo spazio R3/basi ordinate in R 3 Fonte: https://it. wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Lo_spazio_R3/basi_ordinate_in_R_3?oldid= 42444 Contributori: Ale e Mmontrasio Capitolo 19. Fonti per testo e immagini; autori; licenze 254 / 258 • Corso:Algebra Lineare I1/Norme e distanze/Norme Fonte: https://it.wikitolearn. org/Corso%3AAlgebra_Lineare_I1/Norme_e_distanze/Norme?oldid=42449 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Norme e distanze/Norma euclidea Fonte: https://it. wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Norme_e_distanze/Norma_euclidea?oldid= 43467 Contributori: Ale, Mmontrasio e Denvit • Corso:Algebra Lineare I1/Norme e distanze/Distanza punto - retta Fonte: https: //it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Norme_e_distanze/Distanza_punto_ -_retta?oldid=43469 Contributori: Ale, Mmontrasio e Denvit • Corso:Algebra Lineare I1/Norme e distanze/Distanza punto - piano Fonte: https: //it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Norme_e_distanze/Distanza_punto_ -_piano?oldid=43476 Contributori: Ale, Mmontrasio e Denvit • Corso:Algebra Lineare I1/Norme e distanze/Distanza retta - retta Fonte: https:// it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Norme_e_distanze/Distanza_retta_-_ retta?oldid=43473 Contributori: Ale, Mmontrasio e Denvit • Corso:Algebra Lineare I1/Spazi vettoriali/Concetti introduttivi Fonte: https://it. wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Spazi_vettoriali/Concetti_introduttivi?oldid= 42462 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Spazi vettoriali/Esempi di spazi vettoriali Fonte: https: //it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Spazi_vettoriali/Esempi_di_spazi_vettoriali? oldid=42464 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Spazi vettoriali/sottospazi vettoriali Fonte: https://it. wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Spazi_vettoriali/sottospazi_vettoriali?oldid= 42466 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Spazi vettoriali/Combinazione lineare di un insieme di vettori Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Spazi_ vettoriali/Combinazione_lineare_di_un_insieme_di_vettori?oldid=42468 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Spazi vettoriali/Teoremi sulle basi Fonte: https://it. wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Spazi_vettoriali/Teoremi_sulle_basi?oldid= 42470 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Spazi vettoriali somma prodotto e intersezione/Dimensione di spazi vettoriali Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_ I1/Spazi_vettoriali_somma_prodotto_e_intersezione/Dimensione_di_spazi_vettoriali?oldid= 42475 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Spazi vettoriali somma prodotto e intersezione/spazio vettoriale prodotto Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_ I1/Spazi_vettoriali_somma_prodotto_e_intersezione/spazio_vettoriale_prodotto?oldid= 42477 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Spazi vettoriali somma prodotto e intersezione/spazio vettoriale intersezione Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/ Spazi_vettoriali_somma_prodotto_e_intersezione/spazio_vettoriale_intersezione?oldid= 42479 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Spazi vettoriali somma prodotto e intersezione/Spazio vettoriale somma Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/ Spazi_vettoriali_somma_prodotto_e_intersezione/Spazio_vettoriale_somma?oldid=42481 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Spazi vettoriali somma prodotto e intersezione/Formula di Grasman Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Spazi_ vettoriali_somma_prodotto_e_intersezione/Formula_di_Grasman?oldid=42483 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Matrici e spazi vettoriali/Nozioni elementari sulle matrici Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Matrici_e_ spazi_vettoriali/Nozioni_elementari_sulle_matrici?oldid=43450 Contributori: Ale, Mmontrasio e Denvit Capitolo 19. Fonti per testo e immagini; autori; licenze 255 / 258 • Corso:Algebra Lineare I1/Spazio vettoriale quoziente/classe di equivalenza Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Spazio_vettoriale_quoziente/ classe_di_equivalenza?oldid=42493 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Spazio vettoriale quoziente/Sottospazio affine Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Spazio_vettoriale_quoziente/Sottospazio_ affine?oldid=42495 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Spazio vettoriale quoziente/Operazioni nello spazio quoziente Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Spazio_vettoriale_ quoziente/Operazioni_nello_spazio_quoziente?oldid=42497 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Spazio vettoriale quoziente/dimensione dello spazio quoziente Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Spazio_vettoriale_ quoziente/dimensione_dello_spazio_quoziente?oldid=42499 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Applicazioni lineari/Nozioni di base Fonte: https://it. wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Applicazioni_lineari/Nozioni_di_base?oldid= 43454 Contributori: Ale, Mmontrasio e Denvit • Corso:Algebra Lineare I1/Applicazioni lineari/Nucleo e spazio immagine Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Applicazioni_lineari/Nucleo_e_ spazio_immagine?oldid=43459 Contributori: Ale, Mmontrasio e Denvit • Corso:Algebra Lineare I1/Applicazioni lineari/Rango di un’applicazione Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Applicazioni_lineari/Rango_di_ un’applicazione?oldid=43461 Contributori: Ale, Mmontrasio e Denvit • Corso:Algebra Lineare I1/Applicazioni lineari/Controimmagine di un vettore Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Applicazioni_lineari/ Controimmagine_di_un_vettore?oldid=42510 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Applicazioni lineari/Applicazioni lineari tra due spazi vettoriali Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Applicazioni_ lineari/Applicazioni_lineari_tra_due_spazi_vettoriali?oldid=43463 Contributori: Ale, Mmontrasio e Denvit • Corso:Algebra Lineare I1/Applicazioni lineari/Isomorfismo Fonte: https://it.wikitolearn. org/Corso%3AAlgebra_Lineare_I1/Applicazioni_lineari/Isomorfismo?oldid=42514 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Prodotto tra matrici/Applicazioni lineari tra spazi euclidei Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Prodotto_tra_ matrici/Applicazioni_lineari_tra_spazi_euclidei?oldid=42519 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Prodotto tra matrici/composizione di applicazioni lineari Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Prodotto_tra_matrici/ composizione_di_applicazioni_lineari?oldid=42521 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Prodotto tra matrici/Invertibilità di matrici Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Prodotto_tra_matrici/Invertibilit% C3%A0_di_matrici?oldid=42523 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Prodotto tra matrici/Calcolo della matrice inversa Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Prodotto_tra_matrici/Calcolo_ della_matrice_inversa?oldid=42525 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Prodotto tra matrici/Matrice trasposta Fonte: https:// it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Prodotto_tra_matrici/Matrice_trasposta? oldid=42527 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Matrici e basi/Basi di partenza e di arrivo Fonte: https: //it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Matrici_e_basi/Basi_di_partenza_e_ di_arrivo?oldid=42532 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Matrici e basi/composizione e prodotti di matrici Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Matrici_e_basi/composizione_ e_prodotti_di_matrici?oldid=42534 Contributori: Ale e Mmontrasio Capitolo 19. Fonti per testo e immagini; autori; licenze 256 / 258 • Corso:Algebra Lineare I1/Matrici e basi/Applicazione lineare dello spazio quoziente Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Matrici_e_basi/ Applicazione_lineare_dello_spazio_quoziente?oldid=42536 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Matrici e basi/Applicazioni tra due spazi vettoriali con basi diverse Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Matrici_ e_basi/Applicazioni_tra_due_spazi_vettoriali_con_basi_diverse?oldid=42538 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Matrici simili/Matrici simili in uno spazio vettoriale Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Matrici_simili/Matrici_ simili_in_uno_spazio_vettoriale?oldid=42543 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Matrici simili/condizioni necessarie per la similitudine Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Matrici_simili/condizioni_ necessarie_per_la_similitudine?oldid=42545 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Matrici simili/Precisazione sulle matrici simili Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Matrici_simili/Precisazione_sulle_ matrici_simili?oldid=42547 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Determinanti/Definizioni preliminari Fonte: https://it. wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Determinanti/Definizioni_preliminari?oldid= 42552 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Determinanti/Definizione di determinante ed esempi Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Determinanti/Definizione_ di_determinante_ed_esempi?oldid=42554 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Determinanti/Calcolo del determinante Fonte: https:// it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Determinanti/Calcolo_del_determinante? oldid=42556 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Spazio duale/omomorfismo Fonte: https://it.wikitolearn. org/Corso%3AAlgebra_Lineare_I1/Spazio_duale/omomorfismo?oldid=42561 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Spazio duale/Spazio duale Fonte: https://it.wikitolearn. org/Corso%3AAlgebra_Lineare_I1/Spazio_duale/Spazio_duale?oldid=42563 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Spazio duale/Sottospazi annullatori Fonte: https://it. wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Spazio_duale/Sottospazi_annullatori?oldid= 42565 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Spazio duale/Osservazioni sulla traccia Fonte: https:// it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Spazio_duale/Osservazioni_sulla_traccia? oldid=42567 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Spazio duale/Relazione tra sottospazi annullatori Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Spazio_duale/Relazione_tra_ sottospazi_annullatori?oldid=42569 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Prodotti scalari/Definizione ed esempi di prodotti scalari Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Prodotti_scalari/ Definizione_ed_esempi_di_prodotti_scalari?oldid=42574 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Prodotti scalari/Forme bilineari e prodotti scalari su spazi euclidei Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Prodotti_ scalari/Forme_bilineari_e_prodotti_scalari_su_spazi_euclidei?oldid=42576 Contributori: Valsdav, Ale e Mmontrasio • Corso:Algebra Lineare I1/Prodotti scalari/Spazio nullo di un prodotto scalare Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Prodotti_scalari/Spazio_ nullo_di_un_prodotto_scalare?oldid=42578 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Prodotti scalari/Complemento ortogonale Fonte: https: //it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Prodotti_scalari/Complemento_ortogonale? oldid=42580 Contributori: Ale e Mmontrasio Capitolo 19. Fonti per testo e immagini; autori; licenze 257 / 258 • Corso:Algebra Lineare I1/Prodotti scalari/Matrici e prodotti scalari in spazi generici Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Prodotti_scalari/ Matrici_e_prodotti_scalari_in_spazi_generici?oldid=42582 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Prodotti scalari/Dipendenza della matrice M B da B Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Prodotti_scalari/Dipendenza_ della_matrice_M_B_da_B?oldid=42584 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Prodotti scalari/Spazio vettoriale euclideo Fonte: https: //it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Prodotti_scalari/Spazio_vettoriale_euclideo? oldid=42586 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Basi ortogonali/Definizione ed esempi Fonte: https://it. wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Basi_ortogonali/Definizione_ed_esempi?oldid= 42591 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Basi ortogonali/Esistenza della base ortogonale Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Basi_ortogonali/Esistenza_ della_base_ortogonale?oldid=42593 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Basi ortogonali/Considerazioni generali Fonte: https:// it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Basi_ortogonali/Considerazioni_generali? oldid=42595 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Basi ortogonali/Teorema di Sylvester Fonte: https://it. wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Basi_ortogonali/Teorema_di_Sylvester?oldid= 42597 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Basi ortogonali/Complemento ortogonale Fonte: https: //it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Basi_ortogonali/Complemento_ortogonale? oldid=42599 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Basi ortogonali/L’applicazione Lv Fonte: https://it.wikitolearn. org/Corso%3AAlgebra_Lineare_I1/Basi_ortogonali/L’applicazione_Lv?oldid=42601 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Basi ortogonali/criterio dei minori incapsulati Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Basi_ortogonali/criterio_dei_minori_ incapsulati?oldid=42603 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Autovalori e autovettori/Introduzione Fonte: https://it. wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Autovalori_e_autovettori/Introduzione?oldid= 42608 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Autovalori e autovettori/Concetti principali Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Autovalori_e_autovettori/Concetti_ principali?oldid=42610 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Autovalori e autovettori/Relazione tra matrici e applicazioni diagonalizzabili Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_ I1/Autovalori_e_autovettori/Relazione_tra_matrici_e_applicazioni_diagonalizzabili?oldid= 42612 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Autovalori e autovettori/Autovalori di un endomorfismo Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Autovalori_e_autovettori/ Autovalori_di_un_endomorfismo?oldid=42614 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Autovalori e autovettori/Molteplicità algebrica e geometrica Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Autovalori_e_ autovettori/Molteplicit%C3%A0_algebrica_e_geometrica?oldid=42616 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Autovalori e autovettori/Osservazioni generali Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Autovalori_e_autovettori/Osservazioni_ generali?oldid=42618 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Teorema spettrale/Diagonalizzabilità negli spazi vettoriali euclidei Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Teorema_ spettrale/Diagonalizzabilit%C3%A0_negli_spazi_vettoriali_euclidei?oldid=42623 Contributori: Ale e Mmontrasio Capitolo 19. Fonti per testo e immagini; autori; licenze 258 / 258 • Corso:Algebra Lineare I1/Teorema spettrale/Teorema spettrale Fonte: https://it. wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Teorema_spettrale/Teorema_spettrale?oldid= 42625 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Teorema spettrale/Teorema spettrale nello studio dei prodotti scalari Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Teorema_ spettrale/Teorema_spettrale_nello_studio_dei_prodotti_scalari?oldid=42627 Contributori: Ale e Mmontrasio • Corso:Algebra Lineare I1/Teorema spettrale/Dimostrazione del teorema spettrale Fonte: https://it.wikitolearn.org/Corso%3AAlgebra_Lineare_I1/Teorema_spettrale/ Dimostrazione_del_teorema_spettrale?oldid=42629 Contributori: Ale e Mmontrasio 19.2 Immagini 19.3 Licenza dell’opera • [Project:Copyright Creative Commons Attribution Share Alike 3.0 & GNU FDL] • Creative Commons Attribution-Share Alike 3.0