RELAZIONI, GRUPPI E CAMPI I) RELAZIONI DEFINIZIONE, RELAZIONE BINARIA. Dato un insieme non vuoto G , si dice che a G è in relazione binaria con b G , e si scrive a b , se la coppia ordinata a, b soddisfa una fissata proprietà. DEFINIZIONE, RELAZIONE BINARIA DI EQUIVALENZA. La relazione binaria introdotta sopra si dice di equivalenza se soddisfa le proprietà seguenti: 1) proprietà riflessiva: a a, a G 2) proprietà simmetrica: a b b a, a, b G a b 3) proprietà transitiva: a c, a, b, c G b c DEFINIZIONE, CLASSE DI EQUIVALENZA. Diciamo classe di equivalenza di a G l’insieme di tutti gli elementi di G i quali soddisfano con a G la relazione di equivalenza. Indichiamo tale insieme con la simbologia a . Due elementi appartenenti ad una stessa classe di equivalenza si dicono equivalenti. DEFINIZIONE, RELAZIONE BINARIA D’ORDINE. Una relazine binaria si dice d’ordine se soddisfa le seguenti proprietà: 1) proprietà riflessiva: a a, a G a b 2) proprietà antisimmetrica: a b, a, b G b a a b 3) proprietà transitiva: a c, a, b, c G b c DEDUZIONE, SULLE CLASSI DI EQUIVALENZA. Se risulta che b a allora si ha b a . Se inoltre due classi di equivalenza hanno un elemento in comune, allora esse coincidono. II) GRUPPI DEFINIZIONE, OPERAZIONE INTERNA BINARIA. Si dice operazione interna binaria di un insieme G una legge che ad ogni coppia ordinata g1 , g 2 di elementi di G associa uno ed un solo elemento g 3 di G. 1 DEFINIZIONE, PRODOTTO. Se indichiamo l’operazione interna binaria con il segno allora essa prende il nome di prodotto, l’elemento g 3 si scrive g1 g 2 e l’insieme G provvisto di tale operazione si indica G . DEFINIZIONE, SOMMA. Se indichiamo l’operazione interna binaria con il segno allora essa prende il nome di somma, l’elemento g 3 si scrive g1 g2 e l’insieme G provvisto di tale operazione si indica G . DEFINIZIONE, GRUPPO. Si dice gruppo ogni insieme non vuoto in cui sia definita una operazione interna binaria per la quale valgano le proprietà seguenti: 1) proprietà associativa: a b c a b c 2) esistenza dell’elemento neutro: e G | a e a, a G 3) esistenza dell’elemento simmetrico: g G, g | G | g g | e DEFINIZIONE, ELEMENTO NULLO ED ELEMENTO OPPOSTO. Nella operazione di somma l’elemento neutro è detto elemento nullo. Inoltre in tale operazione l’elemento simmetrico è detto elelmento opposto. DEFINIZIONE, ELEMENTO UNITA’ E ELEMENTO INVERSO. Nella operazione di prodotto l’elemento neutro è detto elelmento unità. Inoltre in tale operazione l’elemento simmetrico è detto elemento inverso. DEFINIZIONE, GRUPPO COMMUTATIVO (O ABELIANO). Un gruppo G è detto commutativo o abeliano se soddisfa la seguente proprietà: 4) proprietà commutativa: a b b a, a, b G DEFINIZIONE, GRUPPO FINITO. Un gruppo è detto finito se contiene un numero limitato di elementi. DEDUZIONE, SUGLI ELEMENTI SIMMETRICO E NEUTRO. In G l’elemento neutro è unico. L’elemento simmetrico è unico per ogni elemento di G . III) CAMPI DEFINIZIONE, CAMPO. Diciamo campo un insieme non vuoto C in cui sono definite due operazioni interne binarie, dette somma e prodotto. Tale insieme si indica C . La definizione di campo richiede inoltre che 1) C risulti un gruppo commutativo rispetto all’operazione di somma, 2 2) C privato dell’elemento nullo, cioè dell’elemento neutro rispetto alla operazione di somma, deve risultare un gruppo commutativo rispetto alla operazione di prodotto. Deve inoltre valere la seguente proprietà 3) proprietà distributiva del prodotto rispetto alla somma: a b c a b a c, a, b, c C Dunque la definizione completa di campo si può riscrivere nella maniera seguente. Un insieme non nullo C si dice campo se valgono le seguenti proprietà: 1) proprietà associativa della somma: a b c a b c, a, b, c C 2) esistenza dell’elemento nullo: 0 C | a 0 a, a C 3) esistenza dell’elemento opposto: a C , a C | a a 0 4) proprietà commutativa della somma: a b b a, a, b C 5) proprietà associativa del prodotto: a b c a b c, a, b, c C 6) esistenza dell’elemento unità: 1 C | a 1 a, a C 1 1 7) esistenza dell’elemento inverso: a C \ 0, C | a 1 a a 8) proprietà commutativa del prodotto: a b b a, a, b C a b c a b a c, 9) proprietà distributiva del prodotto rispetto alla somma: a, b, c C SPAZI VETTORIALI E SOTTOSPAZI VETTORIALI DEFINIZIONE, SPAZIO VETTORIALE REALE. uno spazio vettoriale reale V è un insieme non vuoto, i cui elementi sono detti vettori, nel quale siano definite una operazione di somma fra i suoi elementi ed una operazione di prodotto fra un suo elemento ed uno scalare reale, per il quale valgano le seguenti 8 proprietà: 1) proprietà associativa della somma di vettori: v1 v2 v3 v1 v2 v3 , v1 , v2 , v3 V 2) esistenza dell’elemento nullo: 0 V | v 0 v, v V 3) esistenza dell’elemento opposto: v V , v V | v v 0 4) proprietà commutativa: v1 v 2 v 2 v1 , v1 , v 2 V 5) proprietà associativa del prodotto con scalari: v v , R, v V v v v 6) proprietà distributiva rispetto alla somma di scalari: , R, v V 7) proprietà distributiva rispetto alla somma di vettori: v1 v2 v1 v2 R, v1 , v2 V 8) proprietà della moltiplicazione per uno: 1v v, v V 3 Si osserva che, in base alle prime quattro proprietà, uno spazio vettoriale è anche un gruppo commutativo rispetto alla operazione interna di somma. DEDUZIONE, VETTORE NULLO. L’elemento neutro rispetto alla somma, cioè il vettore nullo, è unico. | DIMOSTRAZIONE. Supponiamo che esistano due vettori nulli 0, 0 . Allora si ha per definizione stessa di elemento neutro rispetto alla somma v 0 v | 0 0 | v 0 v v V DEDUZIONE, VETTORE OPPOSTO. L’elemento simmetrico rispetto alla somma, cioè il vettore opposto, è unico. DIMOSTRAZIONE. Supponiamo che esistano due vettori opposti del vettore v , che chiamiamo | || v , v . Allora si ha per definizione stessa di elemento simmetrico rispetto alla somma v v || 0 | || | | | || | | | || vv vv v vv v vv v v v v v v | v v 0 | v v || DEDUZIONE, NONA PROPRIETA’. Risulta v 0 0 oppure v 0 . DIMOSTRAZIONE. 1)Vediamo la condizione necessaria. Se 0 si ha 0 v 0v 0 0v 0v 0v cioè v v v per cui v risulterebbe elemento neutro rispetto alla somma ovvero elemento nullo. Ma siccome l’elemento nullo è unico, allora si conclude che v 0 . Se invece v 0 si ha v 0 v 0 0 0 0 0 cioè ancora v v v e si ragiona come sopra. 4 2)Vediamo la condizione sufficiente. Se v 0 allora, considerando che (per quanto visto al punto uno) 0 0 , si ha v 0 v 0 allora se 0 , dividendo ambo i membri per , abbiamo v 0 , cioè la tesi. Altrimenti abbiamo 0 , cioè ancora la tesi. DEDUZIONE, DECIMA PROPRIETA’. Si ha 1v v, v V DIMOSTRAZIONE. Applicando le proprietà del prodotto di vettore per uno scalare si ha v 1v v 1v 1 1v 0v In base a quanto visto nel precedente teorema si ha allora v 1v 0 per cui il vettore 1v risulta essere il simmetrico, cioè l’opposto, del vettore v , da cui la tesi. DEFINIZIONE, SOTTOSPAZI VETTORIALI. Dato uno spazio vettoriale V qualunque suo sottoinsieme W il quale goda delle otto proprietà degli spazi vettoriali, si dice sottospazio vettoriale di V. DEDUZIONE, CONDIZIONI. Dato uno spazio vettoriale V, un suo sottoinsieme W risulta essere un sottospazio vettoriale di V, se e solo se risultano verificate le due condizioni 1) 2) w1 w2 W w1 , w2 W w W R, w W DIMOSTRAZIONE. Poiché W è un sottoinsieme di V, le due condizioni di cui sopra comportano che le proprietà 1,2,5,6,7,8 degli spazi vettoriali sono soddisfatte per W. La proprietà dell’esistenza dell’elemento neutro si verifica tenendo presente che w W 0 w W 0 W R, w W Per qunto riguarda la proprietà dell’esistenza dell’elemento opposto si osserva che 5 w W 1w W w W R , w W DIPENDENZA E INDIPENDENZA LINEARE DEFINIZIONE, LINEARE DIPENDENZA. Dati i vettori v1 , v 2 ,..., v p V essi si dicono linearmente dipendenti (L.D.) se risulta che 1 v1 2 v 2 ... p v p 0 per valori non tutti nulli dei coefficienti. DEFINIZIONE, LINEARE INDIPENDENZA. Dati i vettori v1 , v 2 ,..., v p V indipendenti (L.I.) se risulta che essi si dicono linearmente 1 v1 2 v 2 ... p v p 0 solo se i coefficienti sono tutti nulli. DEFINIZIONE, SISTEMA DI GENERATORI. Si definisce sistema di generatori di uno spazio vettoriale V un insieme finito di elementi di V tale che ogni elemento di V possa scriversi come combinazione lineare di tali elementi. Allora V si dirà generato da tali vettori. Se indico v , v ,..., v 1 2 q un sistema di generatori di V, allora si scrive v LR v1 , v 2 ,..., v q , v V il che sta ad indicare appunto che ogni elemento di V può essere scritto come combinazione lineare degli elementi del sistema di generatori. DEDUZIONE, UN SOTTOSPAZIO VETTORIALE. Assegnati i p vettori L.I. v1 , v 2 ,..., v p V allora l’insieme W LR v1 , v 2 ,..., v p è un sottospazio vettoriale di V. DIMOSTRAZIONE. La dimostrazione si basa nel provare che per W valgano le due proprietà 1) w1 w2 W w1 , w2 W 6 w W 2) R, w W Si osserva che assegnate comunque le due serie di p numeri 1 , 2 ,... p 1 , 2 ,... p allora si hanno i due elementi di W seguenti w1 1 v1 2 v 2 ... p v p w2 1 v1 2 v 2 ... p v p Tuttavia è immediato constatare che anche il vettore w1 w2 1 1 v1 2 2 v 2 ... p p v p appartiene a W. Assegnato poi comunque lo scalare si osserva infine che anche il vettore w w1 1 v1 2 v 2 ... p v p appartiene a W. DEDUZIONE, PROPRIETA’ DEI SISTEMI DI GENERATORI. Siano dati i due insiemi di vettori w , w ,...w V v , v ,...v V 1 1 2 2 n m Se risulta che v i L w1 , w 2 ,...w n i 1,2,3...n allora si ha L v 1 , v 2 ,...v n L w1 , w 2 ,...w n DIMOSTRAZIONE. Prendiamo un generico vettore v L v 1 , v 2 ,...v n dato da v 1 v1 2 v 2 ... n v n Risulta 7 v 1 11 w1 21 w2 ... m1 wm 2 12 w1 22 w2 ... m 2 wm ... n 1n w1 2 n w2 ... mn wm v n 1 11 2 12 ... n 1n w1 1 21 2 22 ... n 2 n w2 ... 1 31 2 32 ... n 3n wm L w1 , w 2 ,...w n Cioè la tesi. DEDUZIONE, PROPRIETA’ DEI SISTEMI DI GENERATORI. Se risulta v L w1 , w 2 ,...w n ne segue che L v, w1 , w 2 ,...w n L w1 , w 2 ,...w n DIMOSTRAZIONE. Dal precedente teorema si deduce immediatamente che L v, w1 , w 2 ,...w n L w1 , w 2 ,...w n essendo per ipotesi v L w1 , w 2 ,...w n ed essendo poi w1 w1 0w 2 ,... 0w n e così via. D’altra parte si ha anche immediatamente che w i L v, w1 , w 2 ,...w n i 1,2,3...n da cui, per il precedente teorema, segue L v, w1 , w 2 ,...w n L w1 , w 2 ,...w n Ne segue la tesi. DEDUZIONE, PROPRIETA’ DEI SISTEMI DI GENERATORI. Dati i p vettori L.I. v1 , v 2 ,..., v p . Se v è un vettore che non appartiene a L v 1 , v 2 ,...v p allora i vettori v, v1 , v 2 ,..., v p sono L.I.. DIMOSTRAZIONE. Per assurdo ammettiamo che i p+1 vettori v, v1 , v 2 ,..., v p siano L.D.. Allora deve risultare 0 v 1 v1 2 v 2 ... p v p 0 per coefficienti non tutti nulli. Necessariamente deve essere 0 0 perché altrimeti verrebbe meno l’ipotesi di lineare indipendenza dei p vettori v, v1 , v 2 ,..., v p . Si divide allora per 0 0 e si ha 8 1 v1 2 v2 ... p v p v 0 0 0 Ma allora v appartiene a L v 1 , v 2 ,...v p il che contraddice l’ipotesi. Da cu la tesi. BASI DI UNO SPAZIO VETTORIALE DEFINIZIONE, BASE DI UNO SPAZIO VETTORIALE. Si definisce base di uno spazio vettoriale V un suo qualunque sistema di generatori L.I.. DEDUZIONE, CONDIZIONE NECESSARIA E SUFFICIENTE. Gli n vettori v, v1 , v 2 ,..., v n dello spazio vettoriale V ne costituiscono una base se e solo se ogni vettore v di V può scriversi in modo unico come loro combinazione lineare. DIMOSTRAZIONE. 1) Dimostro che se gli n vettori v, v1 , v 2 ,..., v n sono una base di V allora preso comunque un vettore v di V, esso si scrive in modo unico come combinazione lineare dei vettori della base. Ragiono per assurdo e dico che il vettore v possa essere scritto in due modi come combinazione lineare dei vettori v, v1 , v 2 ,..., v n e cioè che si possa scrivere v 1 v1 2 v 2 ... n v n v 1 v1 2 v 2 ... n v n Ne segue che 1 v1 2 v 2 ... n v n 1 v1 2 v 2 ... n v n 1 1 v1 2 2 v 2 ... n n v n 0 Ora si vede che gli n vettori risulterebbero L.D., il che è assurdo. Pertanto la scrittura del generico vettore di V come loro combinazione lineare risulta unica. 2) Ora dimostro che se la scrittura è unica allora gli n vettori sono una base. Intanto saranno un sistema di generatori. Dunque si deve provare che sono L.I.. A tale proposito si osserva che di certo il vettore nullo può scriversi nella forma 0 0v1 0v 2 ... 0v n Ma dovendo essere questa l’unica combinazione lineare che dia il vettore nullo allora gli n vettori debbono essere L.I. e dunque costituiscono una base di V. DEFINIZIONE, COORDINATE DI UN VETTORE. Dato il vettore v V e una base B v1 allora i coefficineti della combinazione lineare v2 ... v n di V, 9 v 1 v1 2 v 2 ... n v n sono detti coordinate del vettore v V rispetto alla base B. DEDUZIONE, ALMENO UNA BASE. Ogni spazio vettoriale che non coincida con l’elemento nullo ha almeno una base. DIMOSTRAZIONE. Consideriamo un sistema di generatori del generico spazio vettoriale V. Sia V L v1 , v 2 ,..., v n Ora se gli n vettori del sistema di generatori sono L.I. essi sono una base di V, per definizione. Altrimenti consideriamo che uno dei vettori del sistema di generatori deve essere non nullo, perche V non coincide con il solo vettore nullo. Per comodità simbolica diciamo che il vettore non nullo sia il primo. Si osserva ora che se gli altri vettori del sistema di generatori sono suoi multipli ne segue, per un teorema precedente, che V L v1 , v 2 ,..., v n L v1 per cui abbiamo trovato la base cercata (quella costituita dal solo vettore v 1 ). Se invece solo uno degli altri vettori del sistema di generatori, sia v i , non è multiplo di v 1 , allora abbiamo V L v1 , v 2 ,..., vi 1 , vi 1 ,..., v n L v1 , vi e abbiamo trovato una base di due vettori. Ma se i vettori che non sono multipli di v 1 sono più di uno allora si procede prendendone uno, poi prendendone uno che non sia combinazione lineare dei due, poi uno che non sia combinazione lineare dei tre, e così via, fino a che non rimangano nel sistema di generatori originale solo vettori che siano combinazione lineare del nuovo insieme di vettroi. Si può vedere che si è ottenuto cosiì un nuovo insieme di generatori di V, i quali sono inoltre L.I. e dunque ne costituiscono una base. DIMENSIONE DI UNO SPAZIO VETTORIALE DEDUZIONE, PROPRIETA’ DELLA BASE. Si consideri lo spazio vettoriale V. Sia B v1 sua base e S w1 w2 v2 ... v n una ... wm un suo sottoinsieme di vettori L.I.. Allora risulta sempre m n . DIMOSTRAZIONE. Intanto è possibile scrivere w1 a1 v1 a 2 v 2 ... a n v n Ora se è vero che il vettore w1 non può essere nullo, altrimenti i vettori di S non sarebbero L.I., ne segue che i coefficineti di cui sopra non sono tutti nulli per cui ve ne sarà uno, diciamo l’iesimo, diverso da zero. Allo scriviamo 10 a v a v w 1 a 1 v1 a 2 v 2 w 1 a 1 v1 a 2 v 2 ... v i ... n n v i ... n n ai ai ai ai ai ai ai ai Ma allora abbiamo una nuova base per V data dai vettori v1 , v 2 ,...vi 1 , w1 , vi 1 ,..., v n . Se iterassi questo procedimento e se fosse m n , potrei avere una base di V costituita da n vettori di S. Ma allora gli m-n vettori restanti di S dovrebbero essere esprimibili come combinazione lineare di questa nuova base e ciò è assurdo in quanto invece, per ipotesi, i vettori di S sono L.I.. Dunque deve essere m n . DEDUZIONE, PROPRIETA’ DELLA BASE. Tutte le basi di un dato spazio vettoriale contengono lo stesso numero di vettori. DIMOSTRAZIONE. Siano date due basi dello stesso spazio vettoriale V. Siano w B v1 B | 1 ... v n ... w m In base al precedente teorema deve essere sia m n che m n . Dunque la tesi. DEFINIZIONE, DIMENSIONE DI UNO SPAZIO VETTORIALE. Si definisce dimensione di uno spazio vettoriale il numero di elementi di ciascuna sua base. INTERSEZIONE E SOMMA DI SOTTOSPAZI VETTORIALI DEFINIZIONE, INTERSEZIONE E SOMMA. Dati i due sottospazi vettoriali U e W dello spazio vettoeiale V, si definiscono i due insiemi Intersezione: U W v V v U , v W Somma: U W u w u U , w W DEFINIZIONE, SOMMA DIRETTA. Se risulta che U W 0 allora si dice che l’insieme somma U W costituisce una somma diretta e si scrive U W U W DEFINIZIONE, INSIEMI SUPPLEMENTARI. Se risulta che U W V allora si dice che U,W costituiscono due insiemi supplementari. 11 DEDUZIONE, SOTTOSPAZIO VETTORIALE. L’insieme intersezione è un sottospazio vettoriale. DIMOSTRAZIONE. Abbiamo lo spazio vettoriale V e i due sottospazi vettoriali U e W. Si deve dimostrare che 1) 2) w1 w2 U W w1 , w2 U W w U W R, w U W Ma essendo U e W entrambi sottospazi vettoriali di V, per ipotesi, abbiamo che 1) w1 , w2 U W w1 w2 U 2) R, w U W w U e w1 w2 W w1 w2 U W e w W w U W DEDUZIONE, SOTTOSPAZIO VETTORIALE. L’insieme somma è un sottospazio vettoriale. DIMOSTRAZIONE. Abbiamo lo spazio vettoriale V e i due sottospazi vettoriali U e W. Si deve dimostrare che 1) 2) v1 v 2 U W v 1 , v 2 U W v U W R, v U W dove v 1 u 1 w1 u 1 U , w 1 W vuw u U , w W Pertanto si ha 1) 2) v1 v 2 u1 w1 u 2 w2 u1 u 2 w1 w2 U W v 1 , v 2 U W v u w u w U W R, v U W 12 DEDUZIONE, RELAZIONE DI GRASSMANN. Se U e W sono due sottospazi vettoriali di V si ha che dim U dim W dim U W dim U W DIMOSTRAZIONE OMESSA. DEDUZIONE, SOMMA DIRETTA. Condizione necessaria e sufficinte affinché i due sottospazi vettoriali U e W di V siano in somma diretta è che ogni vettore t appartenente alla loro somma T U W si possa esprimere in modo unico nella forma t uw u U , w W DIMOSTRAZIONE. 1) Dimostriamo che se U e W sono in somma diretta, cioè hanno per intersezione il vettore nullo, allora t deve esprimersi in modo unico come somma di un vettore di U e di uno di W. Ragioniamo per assurdo e dicimo che si possa scrivere t u 1 w1 t u 2 w 2 u 1 U , w1 W con u 2 U , w 2 W u 1 u 2 , w1 w 2 Ma allora si ha u 2 w 2 u1 w1 u 2 u1 w1 w 2 cioè u 2 u 1 U w 1 w 2 W U W 0 E ciò è in contrasto con l’ipotesi, per cui la scrittura del vettore t risulta unica. 2) Dimostriamo che se la scrittura del vettore t risulta unica allora U e W hanno come intersezione solo il vettore nullo. Si ragiona per assurdo e si afferma che U e W hanno per intersezione un vettore v non nullo. Allora la scrittura unica di t data da t uw u U , w W può scriversi anche | t uwvv uv wv u w | | | u U , w W 13 Si ottiene così una scrittura alternativa di t , contro l’ipotesi. Dunque la somma di U e W deve essre diretta. DEDUZIONE, SOMMA DIRETTA. Dato lo spazio vettoriale V e i sottospazii vettoriali U di base B u1 ... u n e W di base B | w1 ... wm , allora U e W sono in somma diretta se e solo se la loro somma T U W ha coma base B u1 ... un || w1 ... wm . DIMOSTRAZIONE. 1) Diciamo U e W sono in somma diretta e dimostriamo che B || sia una base di T. Intanto essa costituisce un sistema di generatori di T, evidentemente. Basta allora dimostrare che i suoi elementi siano L.I.. Procediamo per assurdo e diciamo che non lo siano. Allora potremo ad esempio scrivere u1 a 2 u2 a 3 u3 ... a n un b1 w1 b2 w2 ... bm wm Si osservi che nella prima parentesi abbiamo un vettore u di U mentre nella seconda abbiamo un vettore w di W. Questo vuol dire che u1 u w U W e non si tratta di un vettore nullo, in quanto facente parte della base di U. Ciò è assurdo poiché contraddice l’ipotesi che U e W siani in somma diretta. Per cui B || è una base di T. 2) Assumiamo ora che B || sia una base di T e dimostriamo che U e W siano in somma diretta. Ragioniamo per assurdo e ammettiamo che esista u 0 U W . Allora si ha u a1 u1 a 2 u 2 ... a n u n a1 u1 a 2 u 2 ... a n u n b1 w1 b2 w2 ... bm wm u b w b w ... b w 1 1 2 2 m m Ora poiché u 0 esiste tanto un coefficiente a quanto un coefficiente b non nulli. Per comodità diciamo che il primo coefficiente a è non nullo. Allora si ha u1 a b a2 b b u 2 ... n u n 1 w1 2 w2 ... m wm a1 a1 a1 a1 a1 Da quanto sopra si evince che i vettori di B || sono L.D., il che è assurdo, essendo B || una base. Ne discende che l’intersezione fra U e W è il solo vettore nullo. MATRICI I) LO SPAZIO VETTORIALE DELLE MATRICI DEFINIZIONE, INSIEME DI MATRICI. Consideriamo l’insieme delle matrici reali di m righe e n colonne il cui generico elemento è 14 Am,n a11 a aij 21 ... am1 a12 a22 am 2 ... a1n ... a2 n ... amn indichiamo tale insieme con la scrittura M m,n R . DEFINIZIONE, SOTTOMATRICE. Data una matrice Am ,n aij si considerino p sue righe e q sue colonne. La matrice determinata dagli elementi intersezione di tali righe e colonne prende il nome di sottomatrice di Am ,n aij di tipo pxq. Se, per semplicità di notazione, si suppone che le p righe siano le prime p, mentre le q colonne siano le prime q, allora tale sottomatrice si indica Ai1i2i3 ... i p , j1 j2 j3 ... jq DEFINIZIONE, SOTTOMATRICE QUADRATA. Una sottomatrice di Am ,n aij che abbia p righe e p colonne è detta sottomatrice quadrata di ordine p. DEFINIZIONE, MINORE. Il determinante di una sottomatrice quadrata pxp è definito minore di ordine p. Se, per semplicità di notazione, consideriamo la sottomatrice quadrata di Am ,n aij data da Ai1i2i3 ... i p , j1 j2 j3 ... j p allora il corrispondente minore viene comunemente indicato ai1i2i3 ... i p , j1 j2 j3 ... j p DEFINIZIONE, MINORE PRINCIPALE. Nel caso in cui la sottomatrice quadrata ha gli indici delle righe uguali e nello stesso ordine di quelli delle colonne, allora il suo determinante è detto minore principale della matrice A. DEFINIZIONE, SOTTOMATRICE COMPLEMENTARE. Data una matrice Am ,n aij definisco sua sottomatrice complementare dell’elemento aij quella matrice di m-1 righe e n-1 colonne che si ottiene togliendo alla matrice data la riga i-ma e la colonna j-ma. Tale matrice è una particolare sottomatrice di Am ,n aij e si indica brevemente Aij . DEFINIZIONE, COMPLEMENTO ALGEBRICO. Data una matrice Am ,n definisco complemento algebrico dell’elemento aij lo scalare seguente 15 a ij 1 i j det Aij DEFINIZIONE, SOMMA DI MATRICI. Dati due elementi Am ,n aij e Bm ,n bij di M m,n R si definisce somma delle matrici date quella matrice C m ,n cij che ha come termine ij-mo la somma dei due termini i,j-mi di aij e bij . Si osserva che trattasi di una operazione binaria interna all’insieme M m,n R . DEFINIZIONE, PRODOTTO DI UNA MATRICE PER UNO SCALARE. Si definisce prodotto della matrice Am ,n aij per lo sclare λ la matrice C m ,n cij la quale ha come termine ij-mo il prodotto del termine ij-mo della matrice Am ,n aij per lo scalare λ. Si osserva che trattasi di una operazione interna non binaria, infatti λ non appartiene all’insieme M m,n R . DEDUZIONE, SPAZIO VETTORIALE DELLE MATRICI. L’insieme M m,n R munito delle operazioni di somma fra matrici e di prodotto di matrici per scalari è uno spazio vettoriale. Dunque è anche un gruppo commutativo rispetto alla operazione binaria interna di somma di matrici. II) PRODOTTO FRA MATRICI DEFINIZIONE, PRODOTTO RIGA PER COLONNA. Si definisce matrice prodotto righe per colonne della matrice Am ,n aij per la matrice Bn , p bij la matrice n Cm, p cij aik bkj k 1 DEDUZIONE, PROPRIETA’ DEL PRODOTTO RIGA PER COLONNA FRA MATRICI. Si dimostrano le seguenti proprietà: 1) proprietà associativa: Am,n Bn , p C p ,q Am,n Bn , p C p ,q 2) proprietà distributiva a destra: Am,n Bn , p Cn , p Am,n Bn , p Am,n Cn , p 3) proprietà distributiva a sinistra: Am ,n Bm ,n Cn , p Am ,n Cn , p Bm ,n Cn , p 4) proprietà di omogeneità: Am ,n Bn , p Am ,n Bn , p Am ,n Bn , p 5) trasposta del prodotto: T A m ,n Bn , p Bn , p Am,n T T 6) inversa del prodotto: An ,n Bn ,n Bn ,n An ,n 1 1 1 7) determinante del prodotto: det An ,n Bn ,n det An ,n det Bn ,n III) POTENZA DI MATRICI QUADRATE 16 DEFINIZIONE, POTENZA DI MATRICI QUADRATE. Data la matrice A M n R definisco potenza k- ma di tale matrice, con k intero positivo, la matrice Ak AA ... A k volte Si definisce inoltre la potenza di esponente zero come la matrice identità I M n R , si pone cioè A0 I Nel caso particolare in cui la matrice A M n R sia invertibile definisco la potenza diesponente intero negativo nel modo seguente 1 1 Ak A A ... A1 k volte DEDUZIONE, POTENZA DI UNA MATRICE DIAGONALE. E’ possibile dimostrare che nel caso di matrici diagonali si ha 1k 1 0 ... 0 0 ... 0 0 2 Dk ... ... 0 0 0 ... n k 0 2 k 0 0 ... 0 k ... n ... IV) TRASPOSIZIONE DI MATRICI DEFINIZIONE, TRASPOSIZIONE DI MATRICE. Definisco trasposta della matrice Am ,n , e la indico T Am,n , la matrice che ha come prima riga la prima colonna di Am ,n , come seconda riga la seconda colonna di Am ,n ecc. DEFINIZIONE, MATRICE SIMMETRICA. Una matrice quadrata An si definisce simmetrica se risulta T An An DEFINIZIONE, MATRICE ANTISIMMETRICA. Una matrice quadrata An si definisce antisimmetrica se risulta T An An 17 DEDUZIONE, SCOMPOSIZIONE DI UNA MATRICE. Ogni matrice An M n R si scrive in modo unico come somma di una matrice simmetrica e di una antisimmetrica. Tale modo è il seguente T An An An 2 An T An 2 DEDUZIONE, PROPRIETA’ DELLA TRASPOSIZIONE DI MATRICI. Si dimostrano le seguenti proprietà: A T 1) trasposta della somma: m ,n Bm,n T Am,n T Bm,n 2) trasposta del prodotto di una matrice per uno scalare: 3) trasposta della trasposta: T 4) trasposta del prodotto: T T A Am,n Am,n m ,n T A A T m ,n m ,n Bn , p T Bn , p T Am,n 5) determinante della trasposta: det T Am,n det Am,n 6) trasposta dell’inversa: T A m,n 1 T Am,n 1 V) INVERSIONE DI MATRICI DEFINIZIONE, INVERSIONE DI MATRICE. Si dice che una matrice quadrata An è invertibile se esiste una matrice quadrata dello stesso ordine Bn tale che risulti An Bn I n . DEDUZIONE, PROPRIETA’ DELLA INVERSIONE. Sulla inversione di matrice si dimostrano le seguenti proprietà: 1) commutatività: se risulta An Bn I n allora si ha anche Bn An I n 2) unicità: se la matrice An ammette inversa allora la sua inversa è unica e si indica An 3) inversa della trasposta: T An An 1 T 1 4) inversa del prodotto: An Bn Bn An 1 1 1 1 5) regolarità: la matrice An ammette inversa se e solo se il suo determinante è non nullo 1 6) determinante dell’inversa: det An 1 det An DEDUZIONE, CALCOLO DELLA INVERSA. Si dimostra che l’inversa di una matrice regolare An aij è la matrice data da 1i j det Aij det A n T An 1 18 DEDUZIONE, GRUPPO DELLE MATRICI INVERTIBILI. Si verifica che il sottoinsieme di M n R delle matrici invertibili, munito della operazione di prodotto fra matrici, costituisce un gruppo non commutativo rispetto a tale operazione interna binaria. Tale gruppo si indica solitamente GLn, R . VI) MATRICI ORTOGONALI DEFINIZIONE, MATRICE ORTOGONALE. La matrice An M n R si dice ortogonale nel caso in cui T An An 1 DEDUZIONE, PROPRIETA’ DELLE MATRICI ORTOGONALI. Sulla ortogonalità si dimostrano le seguenti proprietà: 1) se An è ortogonale allora det An 1 2) se B, B | sono due basi ortonormali e se B| PB , allora P è una matrice ortogonale DEDUZIONE, GRUPPO DELLE MATRICI ORTOGONALI. Si verifica che il sottoinsieme di M n R delle matrici ortogonali, munito della operazione di prodotto fra matrici, costituisce un gruppo non commutativo rispetto a tale operazione interna binaria. Tale gruppo si indica solitamente GOn, R . VII) MATRICI SIMILI DEFINIZIONE, | MATRICI SIMILI. Le matrici An , An M n R si dicono simili se esiste una matrice Pn M n R tale che risulti 1 An Pn An Pn | DEDUZIONE, PROPRIETA’ DELLE MATRICI SIMILI. Sulla similitudine tra matrici si dimostrano le seguenti proprietà: 1) matrici simili hanno stesso determinante 2) matrici simili hanno stesso rango 3) la relazione di similitudine fra matrici è una relazione di equivalenza VIII) MATRICI DIAGONALIZZABILI DEFINIZIONE, MATRICI DIAGONALIZZABILI. La matrice An M n R si dice diagonalizzabile se esiste una matrice ad essa simile che sia diagonale. 19 IX) ESPONENZIALE DI MATRICE QUADRATA DEFINIZIONE, ESPONENZIALE DI MATRICE. Data una matrice A quadrata di ordine n e uno scalare t, non negativo, definisco la funzione esponenziale di matrice t ponendo t e At 1 A2 t 2 A3t 3 i At I n At ... 2! 3! i 0 i! la quale estende la definizione di esponenziale di uno scalare. DEDUZIONE, PROPRIETA’ DELL’ESPONENZIALE. L’esponenziale di matrice verifica le seguenti proprietà: 1) istante iniziale: e A0 I d At e Ae At dt 3) esponenziale della somma di matrici: A1 A2 A2 A1 e A1 A2 t e A1t e A2t 2) derivata dell’esponenziale: e 1t 1 0 ... 0 0 0 2 ... 0 t 4) esponenziale di matrice diagonale: e ... ... 0 0 ... n 0 A1 0 0 e 2 0 0 0 ... e n ... ... 0 t A2 e A1 0 A2 0 e 1 At 1 At 6) esponenziale di matrici simili: A T AT e T e T 5) esponenziale di matrice a blocchi: e X) RANGO DI MATRICE DEFINIZIONE, SPAZIO DELLE RIGHE E SPAZIO DELLE COLONNE. Prendiamo una matrice Am ,n . Il sottospazio vettoriale di R n dato da L A1 , A2 ,... Am si dice spazio delle righe della matrice A. Il sottospazio vettoriale di R m dato da LA1 , A2 ,... An si dice spazio delle colonne di A. Si pone R A L A1 , A2 ,... Am C A LA1 , A 2 ,... A n DEDUZIONE, DIMENSIONE. La dimensione dello spazio delle riche e di quello delle colonne di una data matrice è la medesima. DIMOSTRAZIONE. Consideriamo una matrice Am ,n . Se è matrice nulla allora 20 0 dim C R A 0 dim R A 0 CA A 0 e il teorema è dimostrato. Se invece la matrice presenta qualche elemento non nullo allora lo spazio delle colonne avrà una base di diciamo r n colonne e lo spazio delle righe avrà una base di s m righe. Se diciamo che le colonne L.I., quelle costituenti la base, siano, per comodità, le prime r, allora la colonna j-ma la possiamo scrivere come A j h1 j A1 h2 j A2 ... hrj Ar In forma estesa si ha a1 j h1 j a11 h2 j a12 ... h rj a1r a 2 j h1 j a 21 h2 j a 22 ... h rj a 2 r ... a mj h1 j a m1 h2 j a m 2 ... h rj a mr Quindi il generico elemento della matrice si scrive a ij h1 j a i1 h2 j a i 2 ... hrj a ir A questo punto la riga i-ma della matrice si scrive a i1 h11a i1 h21a i 2 ... hr1 a ir a i 2 h12 a i1 h22 a i 2 ... h r 2 a ir ... a in h1n a i1 h2 n a i 2 ... hrn a ir ovvero h11 h21 h r1 h12 h22 h Ai a i1 a i 2 ... r 2 a ir ... ... ... h1n h2 n hrn Da questo si deduce la dimensione dello spazio delle righe deve essere inferiore o uguale ad r, cioè che s r . Partendo dalle righe e procedendo come sopra si prova poi che r s . Per cui si conclude che s r , ovvero la tesi. DEFINIZIONE, RANGO. Si dice rango di una matrice Am ,n e si ndica r A la dimensione del suo spazio delle righe e delle colonne. 21 X) METODO DI RIDUZIONE DI GAUSS DEFINIZIONE, MATRICI EQUIVALENTI PER RIGHE. Due matrici Am ,n e Bm ,n si dicono equivalenti per righe quando sono ottenibili l’una dall’altra attraverso le operazioni seguenti 1) scambio di due righe, 2) moltiplicazione di una riga per uno scalare, 3) sostituzione di una riga con la somma di essa e di un’altra riga. Le operazioni di cui sopra sono dette operazioni elementari sulle righe. DEDUZIONE, SPAZIO DELLE RIGHE. Due matrici Am ,n e Bm ,n equivalenti per righe hanno lo stesso spazio delle righe. DIMOSTRAZIONE. In base alla descrizione delle trasformazioni elementari sulle righe risulta che ogni riga di Am ,n si può esprimere come combinazione lineare delle righe di Bm ,n , dunque R A RB D’altra parte ogni riga di Bm ,n può ottenersi come combinazione lineare delle righe di Am ,n e dunque RB R A Segue la tesi. DEDUZIONE, COROLLARIO. Due matrici equivalenti per righe hanno lo stesso rango. DIMOSTRAZIONE. Due matrici equivalenti per righe hanno lo stesso spazio delle righe, come appena dimostrato. Poiché il rango coincide con la dimensione dello spazio delle righe, per definizione, segue la tesi. DEFINIZIONE, MATRICE A SCALINI PER RIGHE. La matrice Am ,n risulta a scalini per righe se soddisfa le seguenti proprietà: 1) se gli elementi di una riga sono tutti nulli allora lo sono anche quelli di tutte le righe sottostanti; 2) data una riga non nulla il suo primo elemento non nulo si trova in una colonna successiva a quella del primo elemento non nullo della riga superiore. In pratica sono esempi di matrici a scalino le matrici seguenti. 22 0 0 0 0 1 0 0 0 5 2 0 0 3 5 4 0 1 5 6 1 0 0 0 9 0 0 0 0 0 4 0 0 0 2 0 0 0 6 0 0 0 DEDUZIONE, BASE DELLO SPAZIO DELLE RIGHE. In una matrice a scalini i vettori riga non nulli sono L.I. e costituiscono dunque una base dello spazio delle righe. DIMOSTRAZIONE OMESSA. DEDUZIONE, METODO DI RIDUZIONE DI GAUSS. Ogni matrice Am ,n è equivalente per righe ad una matrice a scalini. DIMOSTRAZIONE. Invece di dimostrare il teorema in generale lo verifichiamo in un caso particolare, trasformando la seguente matrice in una matrice a scalini attraverso trasformazioni sulle righe. 1 1 1 1 A 2 1 1 1 1 2 2 2 1 1 1 1 A2 A2 2 A1 A B 0 3 3 3 1 2 2 2 1 1 1 1 A3 A3 A1 B C 0 3 3 3 0 3 3 3 A3 A3 A2 C 1 1 1 1 D 0 3 3 3 0 0 0 0 Dunque la matrice A è equivalente per righe alla matrice a scalini D. DEDUZIONE, RANGO. Il rango di una matrice Am ,n è dato dal numero di righe non nulle della matrice a scalini ad essa equivalente per righe. DIMOSTRAZIONE. Sappiamo che due matrici equivalenti per righe hanno lo stesso rango. Dunque il rango della matrice Am ,n è pari a quello della sua matrice a scalini equivalente. D’altra parte il rango di una matrice a scalini è pari al numero di righe non nulle. Dunque la tesi. 23 XI) PERMUTAZIONI DEFINIZIONE, PERMUTAZIONI. Ogni insieme formato dai primi n numeri naturali si dice permutazione degli n numeri dati. In particolare l’insieme 1,2,3…n si dice permutazione fondamentale. DEFINIZIONE, INVERSIONE. Data la generica permutazione i1 , i 2 ,...i n dei primi n numeri naturali si dice che i due elementi ih , ik presentano una inversione rispetto alla permutazione fondamentale se risulta ih ik hk Il numero totale di inversioni di una permutazione rispetto alla permutazione fondamentale si ottiene sommando le inversioni che ciascun numero presenta rispetto a tutti quelli che lo seguono. Se per esempio considero la permutazione 4,2,3,1,5 si contano la permutazione del 4 rispetto al 2, rispetto al 3, rispetto a 1 e la permutazione del 3 rispetto a 1; per un totale di 4 permutazioni. DEFINIZIONE, CLASSE. Una permutazione si dice di classe pari o dispari a seconda che il numero di inversioni sia pari oppure dispari. DEDUZIONE, CAMBIO DI CLASSE. Se si cambiano di posto due elementi di una permutazione questa cambia di classe. DIMOSTRAZIONE OMESSA. DEFINIZIONE, SOSTITUZIONE. Siano date le due permutazioni P : i1 , i 2 ,...i n P | : j1 , j 2 ,... j n L’insieme delle operazioni che permettoni di ottenere la seconda dalla prima prendono il nome di sostituzione e sono indicate col simbolo i1 i2 ... in S j1 j 2 ... jn Due sostituzioni sono uguali quando operano gli stessi cambi sugli elementi della prima riga, senza produrre necessariamente la stessa permutazione nella seconda riga. In pratica le due seguenti sostituzioni risultano uguali. 4 2 3 1 S 4 1 2 3 1 3 4 2 S | 3 2 4 1 24 In pratica queste due sostituzioni coincidono e sono in genere scritte mettendo nella prima riga la permutazione fondamentale 1 2 3 4 S 3 1 2 4 XII) DETERMINANTE DI UNA MATRICE QUADRATA DEFINIZIONE, PRODOTTO ASSOCIATO. Sia data una matrice quadrata A di ordine n. Siano date due permutazioni dei numeri 1,2,3…n che indichiamo P : i1 , i 2 ,...i n P | : j1 , j 2 ,... j n Allora chiamo prodotto associato alla matrice A il prodotto 1i j ai j ai j ...ai j 1 1 2 2 n n dove i è il numero di inversioni della prima permutazione e j è quello della seconda permutazione. Due prodotti associati della matrice A sono detti distinti quando hanno almeno un elemento diverso. DEDUZIONE, PRODOTTO ASSOCIATO. Il prodotto associato di una data matrice quadrata non presenta mai come termini due elementi della stessa colonna o della stessa riga. Presenta invece un elemento per ciascuna colonna e un elemento per ciscuna riga. DIMOSTRAZIONE. Nessun elemento presente nel prodotto ha lo stesso primo pedice né lo stesso secondo pedice poiché questi sono definiti da due permutazioni dei numeri 1,2,3,…n. D’altra parte i termini sono in tutto n+n e dunque ve ne deve essere uno per ogni riga e uno per ogni colonna. DEDUZIONE, PRODOTTO ASSOCIATO. Il segno del prodotto associato non dipende dall’ordine dei sui termini. DIMOSTRAZIONE. Intanto il segno di 1 è positivo quando entrambe le permutazioni sono di classe pari o entrambe sono di classe dispari. E’ negativo quando una è di classe dispari e una è di classe pari. In pratica tale segno è positivo se le due permutazioni hanno la stessa classe, è negativo in caso contrario. Se cambio ordine ai termini del prodotto associato introduco un cambiamento di classe in entrambe i j le permutazioni e dunque il segno di 1 resta lo stesso. i j DEFINIZIONE, DETERMINANTE. In una matrice quadrata di ordine uno definisco determinante il suo unico elemento. Nel caso di una matrice quadrata di ordine n 2 definisco determinate la somma di tutti i prodotti associati diversi fra loro. Il determinante della matrice 25 a11 a12 ... a1n a21 a22 ... a2 n A ... an1 an1 ... ann si indica a11 a12 ... a1n a 21 a 22 ... a 2 n ... a n1 an1 ... ann det A oppure Per ottenere tutti i prodotti associati alla matrice A è sufficiente tenere fissa una delle due permutazioni degli indici e far variare l’altra. Se teniamo fissa la permutazione del primo indice, allora il detreminante della matrice A può scriversi det A 1 ai1 j1 ai2 j2 ...ain jn 1 i j i j1 , j2 ... jn 1 a j i1 j1 ai2 j2 ...ain jn j1 , j2 ... jn anche se questa simbologia non rende molto l’idea. permutazione fondamentale allora i 0 e dunque si ha det A 1 a j 1 j1 Se poi prendiamo per i primi indici la a2 j2 ...anjn j1 , j2 ... jn DEDUZIONE, PROPRIETA’ DEI DETERMINANTI. Si dimostrano le seguenti proprietà: 1) det An ,n Bn ,n det An ,n det Bn ,n 2) det An,n n det An,n 1 3) det An 1 det An 4) det T An det An 5) il deteminante di matrici diagonali e triangolari (superiori e inferiori) è pari al prodotto degli elementi sulla diagonale principale. 6) determinante della matrice identità: det I 1 A 7) det 0 0 ... 0 0 B 0 0 8) det A B 0 ... 0 26 A A A 9) det ai1 bi1 ai 2 bi 2 ... an bin det ai1 ai 2 ... an det bi1 bi 2 ... bn B B B A A 10) det ai1 ai 2 ... an det ai1 ai 2 ... an B B A A a h1 a h 2 ... a hn a k 1 a k 2 ... a kn det 11) det B B a k 1 a k 2 ... a kn a h1 a h 2 ... a hn C C A ai1 ai 2 ... ain 0 12) det B ai1 ai 2 ... ain C a a 1j 1j a2 j a 2 j 13) det A B C 0 ... ... a a nj nj 14) Se ad una riga di An aggiungo una combinazione lineare delle altre righe il determinante non cambia. 15) Se ad una colonna di An aggiungo una combinazione lineare delle altre colonne il determinante non cambia. 1 ... 1 1 a 2 ... an a1 2 2 2 16) det a1 a2 ... a n a j ai j i ... a n 1 a n 1 ... a n 1 2 n 1 XIII) SOTTOMATRICE, ALGEBRICO MINORE E COMPLEMENTO DEFINIZIONE, SOTTOMATRICE. Data una matrice Am ,n aij si considerino p sue righe di indici i1 i 2 ... i p ; si considerino poi q sue colonne di indici j1 j 2 ... j p . La matrice determinata dagli elementi intersezione di tali righe e colonne prende il nome di sottomatrice di Am ,n aij di tipo pxq. Si pone allora 27 Ai1i2 i3 ... i p , j1 j2 j3 ... jq ai1 j1 ai2 j1 ai3 j1 ... a i p j1 ai1 j1 ai2 j2 ai3 j2 ... ai p j2 ai1 j3 ai2 j3 ai3 j2 ... ai p j3 ... ... ... ... ... ai1 jq ai2 jq ai3 jq ... ai p jq DEFINIZIONE, SOTTOMATRICE QUADRATA. Una sottomatrice di Am ,n aij che abbia p righe e p colonne è detta sottomatrice quadrata di ordine p. DEFINIZIONE, MINORE. Il determinante di una sottomatrice quadrata pxp è definito minore di ordine p. Se consideriamo la sottomatrice quadrata di Am ,n aij data da Ai1i2i3 ... i p , j1 j2 j3 ... j p allora il corrispondente minore viene comunemente indicato ai1i2i3 ... i p , j1 j2 j3 ... j p ai1 j1 ai2 j1 ai3 j1 ... ai p j1 ai1 j1 ai2 j2 ai3 j2 ... ai p j2 ai1 j3 ai2 j3 ai3 j2 ... ai p j3 ... ... ... ... ... ai1 j p ai2 j p ai3 j p ... ai p j p DEFINIZIONE, COMPLEMENTO ALGEBRICO. Definisco complemento algebrico dell’elemento a ij di una matrice A di ordine n, il determinante della matrice che si ottiene da A sopprimendo la riga i-ma e i j la colonna j-ma, moltiplicato per 1 . Indichiamo il complemento algebrico di a ij col simbolo | aij . XIV) TEOREMI DI LAPLACE DEDUZIONE, LEMMA. Fissato un elemento a ij di una matrice A di ordine n allora la somma dei termini del determinante di A che contengono tale elemento è pari al prodotto di a ij per il suo complemento algebrico. DIMOSTRAZIONE. Dimostro l’enunciato solo nel caso dell’elemento a11 . Intanto il prodotto di tale elemento per il suo complemento algebrico si scrive 28 a22 a a11 32 ... an 2 a 23 a33 ... an 3 ... a2 n ... a3n r a11 1 a2 r2 a3r3 ...anrn ... ... ... a nn dove r è il numero di inversioni della permutazione r2 , r3 ,...rn rispetto alla permutazione fondamentale 2,3,…n. D’altra parte i prodotti associati alla matrice A che contengono l’elemento a11 si scriveranno 1r a11a2 r a3r ...anr 2 3 n Per cui la loro somma sarà 1r a11 a2r a3r ...anr 2 3 n dove si dovranno permutare in tutti i modi possibili gli n-1 indici r2 , r3 ,...rn . Dunque la tesi è dimostrata. DEDUZIONE, PRIMO TEOREMA DI LAPLACE. Il determinante di una matrice quadrata è dato dalla somma dal prodotto di ogni elemento di una riga (o di una colonna) per il proprio complemento algebrico. DIMOSTRAZIONE. Si considera intantoche gli addendi del determinante di una matrice A di ordine n sono n! . Questo lo si deduce faciolmente scrivendo il determinante nella forma det A 1 a j 1 j1 a2 j2 ...anjn j1 , j2 ... jn dove si vede che i prodotti associati addendi sono tanti quanto tutte le possibili permutazioni della permutazione fondamentale dei primi n numeri 1,2,3…n. Tali permutazioni sono appunto n! . Ora, presa la prima riga della matrice A, ci chiediamo quanti sono i prodotti associati che contengono l’elemento a11 . Poiché tali prodotti associati possono scriversi 1r a11a2 r a3r ...anr 2 3 n essi saranno tanti quante le possibili permutazioni degli n-1 numeri 2,3,...n , le quali ammontano a n 1!. Poiché tale discorso può farsi per tutti gli altri elementi della prima riga, sommando i prodotti associati che contengono il primo elemento a quelli che contengono il secondo,…, a quelli che contengono l’n-mo, arriviamo ad avere una somma di nn 1! n! prodotti associati, ovvero otteniamo il determinante della matrice stessa. Ma per il lemma la somma dei prodotti associati che | contengono a11 è pari al prodotto di a11 per il suo complemento algebrico a11 , la somma dei prodotti associati che contengono a12 è pari al prodotto di a12 per il suo complemento algebrico | a12 , e così di seguito, fino all’elemento a1n . Dunque la tesi è dimostrata per la prima riga. Con uno sforzo in più è possibile dimostrarla per la riga generica, e per la generica colonna. 29 DEDUZIONE, SECONDO TEOREMA DI LAPLACE. In una matrice quadrata la somma degli elementi di una riga (colonna) per i complementi algebrici dei rispettivi elementi di un’altra riga (colonna) è pari a zero. DIMOSTRAZIONE. Si deve dimostrare che ai1a j1 ai 2 a j 2 ai 3a j 3 ... ain a jn 0 | | | | dove i termini della riga i-ma sono moltiplicati per quelli della riga j-ma. Ma si osserva che questa somma corrisponde al determinante di una matrice uguale alla matrice di partenza se non fosse che la riga j-ma risulta uguale alla riga i-ma. Si tratta di una matrice con due righe uguali la quale dunque ha determinante nullo. XIV) RANGO E MINORI DEDUZIONE, RANGO E MINORI. Il rango di una matrice Am ,n coincide con l’ordine massimo dei minori non nulli della matrice stessa. DIMOSTRAZIONE. Ricordo che il rango di una matrice è la dimensione dello spazio delle colonne della matrice stessa (che poi coincide con la dimensione dello spazio delle righe). Allora sia p l’ordine massimo dei minori non nulli di Am ,n . Poi diciamo che, per comodità di notazione, abbia minore non nullo proprio la sottomatrice individuata dalle prime p righe e le prime p colonne di Am ,n . Cioè diciamo che sia a11 a12 ... a1 p a21 ... a p1 a22 ... a2 p 0 ... ... ... a p 2 ... anp Se dimostro che le prime p colonne generano tutte le colonne di Am ,n , essendo queste L.I., esse costituiscono una base per lo spazio delle colonne, il quale avrà dunque dimensione p. Essendo p la dimensione dello spazio delle colonne, allora p sarà il rango della matrice Am ,n . Procediamo considerando la matrice a11 a12 a21 a22 ... ... a p1 a p 2 a h1 a h 2 ... a1 p ... a2 p ... ... ... a pp ... ahp a1k a2 k ... con ank ahk 1 h n p k n Si osserva che il suo determinante è sempre nullo, infatti 1) se 1 h p abbiamo una matrice con due righe uguali; 30 2) se p h n il determinante corrisponde ad un minore di Am ,n di ordine p+1 che dunque vale zero per ipotesi. Sviluppando tale determinante rispetto all’ultima riga si ha allora a11 a21 a12 a22 ... a1 p ... a2 p a1k a2 k ... ... ... a p1 a p2 ... a pp ... ah1ah1| ah 2 ah 2 | ... ahp ahp| ahk 0, h 1,2,3... p ank ah1 ah 2 ... ahp ahk ... Si ha così una relazione vettoriale che dividendo per si scrive a11 a a1 p a | 12 | | 1k a21 ah1 a22 ah 2 a2 p ahp a2 k ... ... ... ... ... 0, k p, p 1, p 2,...n a a a a p1 p2 pp pk che si traduce in a11 a12 a1k a1 p a 21 a 22 a2k a2 p ... L ... ... ... ... a a a p1 a p 2 pk pp k p, p 1, p 2,...n Dunque abbiamo un insieme di generatori dello spazio delle colonne costituito da p colonne L.I.. Se ne deduce che lo spazio delle colonne ha dimensione p, ovvero che il rango della matrice Am ,n è proprio p. XV) MATRICE AGGIUNTA E MATRICE INVERSA DEFINIZIONE, MATRICE AGGIUNTA. Data una matrice quadrata A di ordine n, definisco sua matrice aggiunta la trasposta della matrice il cui elemento i,j-mo è dato dal complemento algebrico dell’elemento i,jmo della matrice A. Simbolicamente si pone a11| | a a 21 A ... a | n1 T | | a11| a12 ... a1n | | | a 22 ... a 2 n a12 ... ... ... ... | | a | a n 2 ... a nn 1n | | a 21 ... a n1 | | a 22 ... a n 2 ... ... ... | | a 2 n ... a nn 31 DEFINIZIONE, MATRICE INVERSA. Data una matrice A di ordine n, definisco sua matrice inversa, e la indico A1 , ogni matrice di ordine n che verifichi la condizione AA1 A1 A I DEDUZIONE, UNICITA’. Se la matrice quadrata A ammette matrice inversa, allora tale matrice è unica. DIMOSTRAZIONE. Siano B e C due matrici inverse di A. Si ha BA I BAC IC B AC C BI CI B C DEDUZIONE, CONDIZIONE NECESSARIA E SUFFICIENTE. Condizione neccessaria e sufficiente affinchè la matrice quadrata A ammetta inversa è che il suo determinante non sia nullo. DIMOSTRAZIONE. Se A ammette inversa allora si ha AA1 I det AA1 det I 1 det A det A1 1 det A 0 Ora invece partiamo dalla ipotesi che det A 0 . In questo caso ha senso considerare la matrice data da a11| | A a 1 a12 det A det A ... a | 1n | ... a n1 | ... a n 2 ... ... | ... a nn | a 21 | a 22 ... | a2n Se proviamo che questa matrice è l’inversa della matrice A allora la tesi è dimostrata. Si ha a11 a12 a A 1 a 21 a 22 A det A det A ... ... a n1 a n 2 n | a1 j a1 j j 1 n 1 a 2 j a1 j | det A j 1 n ... a a | nj 1 j j 1 ... a1n a11| ... a 2 n a12| ... ... ... ... a nn a1n | n a1 j a2 j | j 1 n a j 1 n 2j | ... a j 1 a2 j nj a2 j | | | a 21 ... a n1 | | a 22 ... a n 2 ... ... ... | | a 2 n ... a nn | a nj j 1 n | ... a 2 j a nj j 1 ... ... n | ... a nj a nj j 1 n ... a 1j Se si osserva l’elemento di indice 1,1 si trova lo sviluppo del determinante di A secondo la prima riga. Allo stesso stesso modo si trovano sulla diagonale principale gli sviluppi del determinante di A secondo righe via via successive. Se si osserva l’elemento di indici 1,2 si trova lo sviluppo secondo 32 la seconda riga di una matrice uguale alla matrice A se non fosse che la seconda riga presenta gli stessi elementi della prima. Tale determinante è pertanto nullo in quanto è relativo ad una matrice con due righe uguali. Stesso discorso vale per ogni elemento che non si trovi sulla diagonale principale. Si ha allora 0 det A det A A 1 0 A ... det A det A ... 0 0 ... 0 ... 0 =I ... ... ... det A a E la tesi è dimostrata. DEDUZIONE, MATRICE INVERSA. La matrice inversa della matrice invertibile A è data dalla matrice a11| | A a 1 a12 1 A det A det A ... a | 1n | a 21 | a 22 ... | a2n | ... a n1 | ... a n 2 ... ... | ... a nn XVI) CAMBIAMENTO DI BASE IN UNO SPAZIO VETTORIALE DEDUZIONE, MATRICE DEL CAMBIAMENTO DI BASE. Si consideri lo spazio vettoriale V di dimensione n e due sue basi v B v1 B| v2 | 1 v2 ... v n | ... v n | Se la matrice A, di ordine n, ha come colonne le coordinate dei vettori di B rispetto alla base B | , allora posto x1 x X 2 ... xn il vettore delle coordinate del generico vettore v V rispetto alla base B , e posto x1| | x X| 2 ... x | n il vettore delle coordinate del generico vettore v V rispetto alla base B | , si ha 33 X AX | DIMOSTRAZIONE. Si ha v v1 v v1 | v2 x1 x ... v n 2 ... xn v2 x1| | | x ... v n 2 ... x | n | Dunque v 1 v2 x1 x | ... v n 2 v 1 ... xn v2 | x1| | | x2 ... v n ... x | n E con una notazione più semplice BX B | X | Essendo poi v 1 v2 ... v n v 1 | v2 | a11 | a 21 ... v n ... a n1 a12 a1n a 22 a2n ... ... ... an 2 a nn che con una notazione più semplice si scrive B B | A1 A2 ... An B B| A abbiamo BX B | X | B | AX B | X | Siccome le coordinate rispetto ad una base sono univocamente determinate allora da quanto sopra si deduce AX X | cioè la tesi. 34 SISTEMI LINEARI I) COMPATIBILITA’ DEFINIZIONE, SISTEMA LINEARE. Diciamo sistema linerae ogni sistema del tipo a11 x1 a12 x2 ... a1m xm b1 a x a x ... a x b 21 1 22 2 2m m 2 ... a n1 x1 an 2 x2 ... anm xm bn ovvero del tipo An ,m X m,1 Bn ,1 La matrice An ,m è detta matrice dei coefficienti del sistema o matrice incompleta, mentre la matrice Bn ,1 è detta matrice dei termini noti. La matrice A B è detta matrice completa del sistema. La matrice X m ,1 è in fine la matrice delle incognite. DEFINIZIONE, COMPATIBILITA’ E INCOMPATIBILITA’. Un sistema si dice compatibile se ammette almeno una soluzione; si dice incompatibile se non ne ammatte nessuna. DEFINIZIONE, SISTEMA NORMALE. Un sistema si dice normale se il rango della sua matrice dei coefficienti è pari al numero di equazioni. In caso contrario si dice non normale. DEFINIZIONE, SISTEMA OMOGENEO. Un sistema si dice omogeneo se i suoi termini noti sono tutti nulli. DEFINIZIONE, SISTEMI EQUIVALENTI. Due sistemi linerai , | compatibili si dicono equivalenti se presentano la medesima soluzione. DEDUZIONE, SISTEMI EQUIVALENTI. Due sistemi lineari , | risultano equivalenti se verificano una delle condizioni seguenti: 1) le equazioni dell’uno sono proporzionali a quelle dell’altro; 2) | si ottiene da aggiungendo una equazione che sia combinazione lineare delle altre; 3) | si ottiene da aggiungendo ad una sua equazione una combinazione lineare delle altre; 35 DEDUZIONE, LEMMA. Condizione necessaria e sufficiente affinchè il sistema lineare An ,m X m,1 Bn ,1 ammetta almeno una soluzione è che il vettore dei termini noti appartenga allo spazio delle colonne della matrice dei coefficienti. DIMOSTRAZIONE. Se il vettore dei termini noti appartiene allo spazio delle colonne della matrice dei coefficienti allora esso è esprimibile come combinazione lineare delle colonne stesse e si ha B 1 A1 2 A2 ... m Am ovvero 1 A 2 B ... m ed il sistema ammette dunque almeno una soluzione. Viceversa se il sistema ammette almeno una soluzione allora si ha x1 x B A 2 x1 A1 x2 A2 ... xm Am ... xm ed il vettroe B è combinazione lineare delle colonne di A, ovvero appartiene allo spazio delle colonne di A. DEDUZIONE, TEOREMA DI ROUCHE’-CAPELLI. Condizione necessaria e sufficiente affinchè il sistema An ,m X m,1 Bn ,1 sia compatibile è che la matrice completa sia dello stesso rango della matrice completa. DIMOSTRAZIONE. Se matrice completa e matrice incompleta hanno lo stesso rango allora B deve essere combinazione lineare delle colonne di A. Infatti se così non fosse il rango della matrice completa sarebbe maggiore di uno rispetto a quello della matrice incompleta. Ma se B è combinazione lineare delle colonne di A allora, per il lemma, il sistema è compatibile. Se viceversa il sistema è compatibile, allora per il lemma il vettore B deve essere combinazione lineare delle colonne della matrice incompleta e quindi il rango della matrice completa è pari a quello della matrice incompleta. DEDUZIONE, SISTEMA NORMALE. Un sistema normale è sempre compatibile. 36 DIMOSTRAZIONE. In un sistema normale necessariamente la matrice completa e quella incompleta hanno lo stesso rango. Dunque, per il teorema di Rouché-Capelli, il sistema è compatibile. II) SISTEMI NORMALI DEDUZIONE, TEOREMA DI CRAMER. Il sistema lineare An ,n X n ,1 Bn ,1 con det An ,n 0 ammette una ed una sola soluzione. Tale soluzione è data da 1 X n ,1 An ,n Bn ,1 DIMOSTRAZIONE. Diciamo che sia det An ,n 0 . Allora il rango della matrice dei coefficienti è n, pari al numero delle righe, e dunque il sistema è normale. In quanto tale ammette almeno una soluzione. Considerando che la matrice dei coefficienti ammette inversa, si ha poi An,n X n,1 Bn,1 A1n,n An,n X n,1 A1n,n Bn,1 X n,1 A1n,n Bn,1 DEDUZIONE, SISTEMI NORMALI CON NUMERO DI COLONNE MAGGIORE DEL RANGO. Consideriamo il sistema lineare a11 x1 a12 x2 ... a1m xm b1 a x a x ... a x b 21 1 22 2 2m m 2 ... a n1 x1 an 2 x2 ... anm xm bn Diciamo che il suo rango sia pari a n e che sia m n . In questo caso abbiamo un sistema normale ma non è possibile applicare il teorema di Cramer essendo la matrice dei coefficienti non quadrata. Si procede allora individuando m n colonne che siano combinazione lineare delle altre e siportano a destra dei segni di uguale. Se diciamo che tali colonne siano le ultime m n , ci troviamo nella situazione seguente: a11 x1 a12 x2 ... a1n xn a x a x ... a x 21 1 22 2 2n n an1 x1 an 2 x2 ... ann xn b1 a1,n 1 xn 1 ... a1,m xm b2 a2,n 1 xn 1 ... a2,m xm ... bn an ,n 1 xn 1 ... an ,m xm Se ora introduciamo gli m n parametri seguenti 1 xn 1 2 xn 2 ... mn xm otteniamo il sistema 37 a11 x1 a12 x 2 ... a1n x n a x a x ... a x 21 1 22 2 2n n a n1 x1 a n 2 x 2 ... a nn x n b1 a1,n 11 ... a1,m m n b2 a 2,n 11 ... a 2,m m n ... bn a n ,n 11 ... a n ,m m n Si tratta di un sistema con matrice dei coefficienti a determinanate non nullo. Dunque si ricade nelle ipotesi del teorema di Cramer. Pertanto la soluzione è una ed una sola, apparentemente. Infatti, per via dei parametri, le soluzioni sono mn . DEDUZIONE, ALGORITMO RISOLUTIVO. Il risultato precedente e altri risultati portano a comporre il seguente algoritmo risolutivo per sistemi lineari generici. Si specifica che * le n p equazioni debbono essere eliminate in modo che la matrice dei coefficienti abbia ancora rango p ** le m n colonne portate a destra debbono essere tali che la matrice dei coefficienti abbia ancora rango p III) SISTEMI LINEARI OMOGENEI DEFINIZIONE, SISTEMA LINEARE OMOGENEO. Un sistema lineare si definisce omogeneo nel caso in cui il vettore dei termini noti è il vettore nullo. DEFINIZIONE, SISTEMA OMOGENEO ASSOCIATO. Dato il generico sistema lineare An ,m X m,1 Bn ,1 diciamo suo sistema omogeneo associato il sistema lineare An ,m X m,1 On ,1 DEFINIZIONE, AUTOSOLUZIONI. Dato un sistema omogeneo linerae diciamo sue autosoluzioni ciascuna delle sue soluzioni che non siano la soluzione nulla. DEDUZIONE, COMPATIBILITA’. Un sistema lineare omogeneo è sempre compatibile. DIMOSTRAZIONE. In un sistema lineare omogeneo il rango della matrice completa è sempre uguale a quello della matrice completa. Dunque, per il teorema di Rouché-Capelli un sistema omogeneo è sempre compatibile. 38 DEDUZIONE, AUTOSOLUZIONI. Condizione necessaria e sufficiente affinchè un sistema omogeneo ammetta autosoluzioni è che il rango della matrice dei coefficienti sia minore del numero delle incognite. DIMOSTRAZIONE. Se il sistema omogeneo An ,m X m,1 On ,1 ammette autosoluzioni allora abbiamo A11 A2 2 ... Am m O per valori non tutti nulli dei parametri. Dunque le colonne della matrice dei coefficienti sono L.D.. Ciò significa che la dimensione dello spazio delle colonne è minore del numero delle colonne stesse, ovvero che il rango della matrice dei coefficienti è minore del numero di incognite. D’altra parte se il rango della matrice dei coefficienti è minore del numero di incognite, allora le colonne della matrice dei coefficienti sono L.D., ovvero esiste almeno una emmupla 1 , 2 ,...m per cui risulti A11 A2 2 ... Am m O Questa emmupla è appunto una soluzione del sistema. DEDUZIONE, INSIEME DELLE SOLUZIONI. L’insieme delle soluzioni di un sistema lineare omogeneo in n incognite è un sottospazio vettoriale di R n . DIMOSTRAZIONE. Se X | , X || sono due generiche soluzioni del sistema lineare omogeneo Am,n X n ,1 Om,1 , si deve dimostrare che aX | bX || è ancora una soluzione del sistema dato, dove a e b sono due reali qualunque. Si ha AaX | bX || aAX | bAX || aO bO O DEDUZIONE, OMOGENEO ASSOCIATO. Dato un sistema lineare compatibile AX B si ha che l’insieme delle sue soluzioni è dato da X Y Y W dove X è una soluzione particolare del sistema dato e Y è una qualunque soluzione del sisteam omogeneo associato. DIMOSTRAZIONE. Intanto ogni elemento dell’insieme X Y Y W è sempre una soluzione del sistema lineare non omogeneo, infatti A X Y A X AY B O B 39 Poi la generica soluzione X del sistema non omogeneo appartiene sempre all’insieme X Y Y W , in quanto può scriversi X X X X X X X , dove Y X X è una soluzione del sistema omogeneo associato, essendo A X X AX AX B B O APPLICAZIONI LINEARI I) INNIETTIVITA’ E SURRIETTIVITA’ DEFINIZIONE, IMMAGINE DI UNA APPLICAZIONE. L’immagine della applicazione f : S T è l’insieme Im f t T : s S f s t DEFINIZIONE, APPLICAZIONE INIETTIVA. La applicazione f : S T si dice iniettiva se s1 s2 F s1 F s2 DEFINIZIONE, APPLICAZIONE SURIETTIVA. La applicazione f : S T si dice suriettiva se Im f T DEFINIZIONE, APPLICAZIONE BIGETTIVA. Un’applicazione iniettiva e suriettiva si dice bigettiva . II) APPLICAZIONE LINEARE O OMOMORFISMO DEFINIZIONE, APPLICAZIONE LINEARE. Una applicazione F : V W tra due spazi vettoriali V,W si dice lineare se F a v1 bv2 aF v1 bF v2 v1 , v 2 V a, b R DEDUZIONE, ESISTENZA ED UNICITA’. Siano dati due spazi vettoriali V, di dimensione n, e W, di dimensione m. Sia B v1 v2 ... vn una base di W e siano w1 , w2 , ... wn n vettroi arbitrari di W. Allora esiste una ed una sola applicazione lineare F : V W tale che F v1 w1 , F v 2 w 2 ,...F v n w n 40 DIMOSTRAZIONE. Si consideri l’applicazione F v x1 v1 x2 v2 ... xn vn x1 w1 x2 w2 ... xn wn Intanto vediamo se tale applicazione è lineare. F ax bx v ax bx v ... ax bx v ax bx w ax bx w ... ax bx w a x w x w ... x w bx w x w ... x w aF v bF v | F a v bv a x1 v1 x2 v2 ... xn vn b x1 v1 x2 v2 ... xn vn | | 1 1 | 1 1 1 1 | | 1 2 | 2 2 n n | 1 2 2 2 n | 2 n | 2 n | 1 n n | 1 2 n | 2 n n | La linearità è provata. Ora vediamo se questa applicazione verifica la proprietà richiesta. Si ha F v ... F v ... 0v 0w 1w ... 1v 0w 0w F v 1 1v1 0v2 ... 0vn 1w1 0w2 ... 0wn w1 2 0v1 1v2 1 0v1 0v2 n 1 2 ... 0wn w2 n 1 2 ... 1wn wn Dobbiamo infine provare che questa sia l’unica applicazione lineare a verificare questa coindizione. Se ve ne fosse un’altra, diciamo G : V W , si avrebbe F v w G v , F v 1 w1 G v 1 , 2 ... 2 2 F v n wn G v n e dunque x F v x F v ... x F v F v , v V G v x1 v1 x2 v2 ... xn vn x1G v1 x2 G v2 ... xn G vn 1 1 2 2 n n III) IMMAGINE E NUCLEO DEDUZIONE, IMMAGINE. L’immagine della applicazione lineare F : V W è un sottospazio vettoriale di W. DIMOSTRAZIONE. Si deve dimostrare che aF v1 bF v 2 F V v1 , v 2 V a, b R Si ha infatti, per la linearità di F, che 41 aF v1 bF v 2 F a v 1 bv 2 F V DEDUZIONE, IMMAGINE. Data la applicazione F : V W , se v1 v2 ... vn F v F v 1 2 è un insieme di generatori di F V . è una base di V, allora ... F vn DIMOSTRAZIONE. La linearità della applicazione porge F v x1 v1 x2 v2 ... xn vn x1 F v1 x2 F v2 ... xn F vn F v Dunque F v1 è un insieme di generatori dell’immagine di F. ... F vn 2 DEFINIZIONE, NUCLEO. Data un’applicazione lineare F : V W si dice nucleo l’insieme KerF v V : F v 0 V DEDUZIONE, NUCLEO. Il nucleo di una applicazione lineare F : V W è un sottospazio vettoriale di V. DIMOSTRAZIONE. Si deve dimostrare che v1 , v 2 KerF a v1 bv 2 KerF Si osservi allora che F v1 F v 2 0 F a v1 bv 2 aF v1 bF v 2 a 0 b0 da cui la tesi. DEDUZIONE, INIETTIVITA’. Condizione necessaria F : V W sia iniettiva è che KerF 0 . e sufficiente affinchè un’applicazione lineare DIMOSTRAZIONE. Se l’applicazione è iniettiva un solo vettore può avere come immagine il vettore nullo. E tale vettore è il vettore nullo, infatti KerF 0, allora l’applicazione deve essere iniettiva, infatti se, per assurdo, si F 0 0v1 0v2 ... 0vn 0F v1 0F v2 ... 0F vn 0 Viceversa, se avesse per v1 v 2 F v1 F v 2 allora F v1 F v 2 0 F v1 v 2 0 42 e dunque KerF 0 , ciò che contraddice l’ipotesi. IV) MATRICE ASSOCIATA DEFINIZIONE, MATRICE ASSOCIATA AD UNA APPLICAZIONE LINEARE. Si consideri l’applicazione F : V W . Sia B v1 v 2 ... v n una base di V e C w1 w2 ... wm una base di W. Allora si dice matrice associata alla applicazione F : V W , rispetto ale basi B di V e C di W, la matrice la cui colonna i-ma fornisce le coordinate di F v i rispetto alla base C. Simbolicamente Am,n F v i CAi DEDUZIONE, MATRICE ASSOCIATA. Considerando gli elementi introdotti nella definizione precedente, allora si ha Ym ,1 Am ,n X n ,1 dove Y è la colonna delle coordinate di F v rispetto alla base C (con v vettore generico di V), e X è la colonna delle coordinate di v rispetto alla base B di V. DIMOSTRAZIONE. Per definizione di matrice associata si ha F v a F v1 a11 w1 a 21 w 2 ... a m1 w m 2 ... 12 w1 a 22 w 2 ... a m 2 w m F v n a1n w1 a 2 n w 2 ... a mn w m Considerato allora il generico vettore v V , di coordinate x1 , x2 ,... xn , allora si ha x a F v x1 F v1 x2 F v 2 ... xn F v n x1 a11 w1 a21 w 2 ... am1 w m 2 12 w1 a22 w 2 ... am 2 w m ... xn a1n w1 a2 n w 2 ... amn w m w1 a11 x1 a12 x2 ... a1n xn w 2 a21 x1 a22 x2 ... a2 n xn ... w m am1 x1 am 2 x2 ... amn xn Dette poi y1 , y 2 ,... y n le coordinate di F v rispetto alla base C, abbiamo F v y1 w1 y2 w2 ... ym wm E dunque, confrontando, si ha 43 y1 a11 x1 a12 x2 ... a1n xn y a x a x ... a x 2 21 1 22 2 2n n ... y m am1 x1 am 2 x2 ... amn xn Che in forma matriciale si scrive appunto Ym ,1 Am ,n X n ,1 DEDUZIONE, MATRICE ASSOCIATA E CAMBIAMENTO DI BASI. Si considerino gli elementi del precedente teorema. Si consideri ora la nuova base B | di V le coordinate dei cui elementi rispetto alla base B siano sulle colonne rispettive della matrice Tn ,n . Siano X | le coordinate del generico vettore v V rispetto tale base. Si consideri inoltre la nuova base C | di W le coordinate dei cui elementi rispetto alla base C siano date dalle colonne rispettive della matrice S m ,m . Siano Y | le coordinate di F v rispetto alla base C | . Allora la matrice associata alla applicazione F : V W , rispetto alle basi B | di V e C | di W, è data da A| S 1 AT . DIMOSTRAZIONE. Per quanto riguarda le basi abbiamo intanto B | BT C | CS Per le coordinate si ha dunque BX B | X | BTX | X TX | CY C |Y | CSY | Y SY | Per la matrice si ha infine Y AX SY | ATX | Y | S 1 AT X | A| S 1 AT IV) RANGO E NULLITA’ DEFINIZIONE, RANGO E NULLITA’ DI UNA APPLICAZIONE LINEARE. Il rango di una applicazione lineare è la dimensione della sua immagine. La nullità è invece la dimensione del suo nucleo. rango dim Im F nullità dim KerF DEDUZIONE, TEOREMA DELLA DIMENSIONE. Data l’applicazione F : V W si ha che dim V dim KerF dim Im F 44 DIMOSTRAZIONE. Diciamo che A sia la matrice associata all’applicazione data rispetto una qualche coppia di basi. Si ha intanto che Y AX dim Im F r A Inoltre si ha che la nullità è pari alla dimensione dello spazio delle soluzioni del sistema omogeneo AX O che è data da n r A . Per cui si ha dim Im F r A n dim Im F KerF KerF n r A V) ISOMORFISMI DEFINIZIONE, ISOMORFISMO. Una applicazione lineare F : V W bigettiva si definisce isomorfismo e i due spazi vettoriali W e V si dicono isomorfi. DEDUZIONE, INIETTIVITA’ E SURIETTIVITA’. Una applicazione lineare F : V W risulta 1) iniettiva se e solo se r A dim V 2) suriettiva se e solo se r A dim W DIMOSTRAZIONE. 1) Diciamo che l’applicazione sia iniettiva. Allora si ha X 1 X 2 AX1 AX 2 A X 1 X 2 O Cioè il sistema omogeneo AX O non ammette autosoluzioni per cui le colonne di A sono tante quanto il suo rango, ovvero n r A . Ma essendo n dim V si ha appunto r A dim V . Ora invece partiamo dalla ipotesi che sia r A dim V . Allora la matrice associata ha rango n e dunque il sistema omogeneo AX O ammette solo la soluzione nulla per cui X 1 X 2 A X 1 X 2 O AX1 AX 2 e l’applicazione è iniettiva. 2) Diciamo che l’applicazione sia suriettiva. Allora Im F W dim Im F dim W r A dim W . Adesso ammetiamo invece che r A dim W dim Im F dim W . Ma essendo ImF un sottospazio vettoriale di W, segue che Im F W . Dunque l’applicazione è suriettiva. DEDUZIONE, CONDIZIONE NECESSARIA E SUFFICIENTE. Condizione necessaria e sufficiente affinchè due spazi vettoriali V e W siano isomorfi è che abbiano la stessa dimensione. DIMOSTRAZIONE. I due spazi siano isomorfi. Allora, per il teorema precedente si ha 45 dim V r A dim W e dunque i due spazi hanno la stessa dimensione. Adesso ammettiamo che i due spazi abbiano la stessa dimensione. Siano poi B v1 una base di V e C w1 che v2 ... v n w2 ... wn una base di W. Consideriamo l’applicazione F : V W tale F v i F wi Si vede immediatamente che essa è lineare. Dobbiamo provare che è anche isomorfa. Essendo F v x1 w1 x2 w 2 ... xn w n v x1 v 1 x2 v 2 ... xn v n si deduce che la matrice associata a questa applicazione, rispetto alle due basi date, è la matrice identità di ordine n. Dunque il suo rango è proprio n, che poi è la dimensione sia di V che di W. Quindi, per il precedente teorema, l’applicazione è tanto iniettiva che suriettiva, cioè è bigettiva. V) ENDOMORFISMI DEFINIZIONE, ENDOMORFISMO O OPERATORE. Si dice endomorfismo di V o operatore su V ogni applicazione lineare del tipo F : V V . DEFINIZIONE, AUTOMORFISMO. Un endomorfismo che sia un isomorfismo è detto automorfismo. DEDUZIONE, CAMBIO DI BASE. Sia dato l’endomorfismo su V F : V V . Siano B v1 v2 ... vn e B | v1 | v2 | ... vn | due basi di V. Se A è la matrice associata all’endomorfismo rispetto alla base B e A| è la matrice associata all’emdomorfismo rispetto alla base B | , allora risulta A| C 1 AC essendo B | CB . DIMOSTRAZIONE. Se si riprende il teorema analogo sugli omomorfismi e si sostituisce C a T ed S, si ha la tesi. DEFINIZIONE, | MATRICI SIMILI. Le matrici An , An M n R si dicono simili se esiste una matrice regolare Pn M n R tale che risulti 1 An Pn An Pn | 46 DEDUZIONE, PROPRIETA’ DELLE MATRICI SIMILI. Sulla similitudine tra matrici si dimostrano le seguenti proprietà: 1) matrici simili hanno stesso determinante 2) matrici simili hanno stesso rango DIMOSTRAZIONE. 1) Per il teorema di Binet si ha A| P 1 AP det A| det P 1 AP det P 1 det AP det P 1 det A det P det P 1 det P det A det A 2) Dato l’endomorfismo F : V V , sia A la matrice ad esso associata rispetto alla base B e sia A| la matrice ad esso associata rispetto alla base B | . Si ha dim Im F r A r A r A| | dim Im F r A DEDUZIONE, INIETTIVITA’ E SURIETTIVITA’. Un endomorfismo F : V V risulta un automorfismo (cioè un endomorfismo isomorfismo) se e solo se una matrice ad esso associata è regolare. DIMOSTRAZIONE. Dal teorema anlogo sul generico isomorfismo si ha che 1) F : V V è iniettiva se e solo se r A dim V 2) F : V V è suriettiva se e solo se r A dim V Da cui la tesi. AUTOVALORI E AUTOVETTORI I) DEFINIZIONI E PROPRIETA’ DEFINIZIONE, AUTOVETTORI E AUTOVALORI. Dato un endomorfismo F : V V si dice che il vettore v V è un autovettore dell’endomorfismo stesso se risulta che v 0 F v v Lo scalare λ è detto autovalore dell’autovettore v R n . DEFINIZIONE, AUTOSPAZIO. Si definisce autospazio dell’operatore F : V V relativo all’autovalore λ l’insieme degli autovettori relativi a λ più il vettore nullo, e si scrive 47 E v V : F v v DEDUZIONE, AUTOSPAZIO. Ciascun autospazio dell’endomorfismo F : V V è un sottospazio vettoriale di V. DIMOSTRAZIONE. Si deve dimostrare che l’autospazio è chiuso rispetto alle operazioni di somma di vettori e di prodotto di un vettore per uno scalare. Si ha v1 E F a v1 bv2 aF v1 bF v2 a v1 b v2 a v1 bv2 v2 E DEDUZIONE, AUTOSPAZIO. Autovettori di autospazi diversi di F : V V sono linearmente indipendenti. DIMOSTRAZIONE. Diciamo di avere gli n autovettori v1 v2 ... vn relativi rispettivamente agli n autovalori distinti 1 , 2 ,..., n . Dobbiamo dimostrare che gli vettori sono L.I.. A tale scopo procediamo per induzione diretta. Verifichiamo intanto che per n=1 la tesi sia verificata. Ed in effetti in tal caso abbiamo un solo autovettore che, essendo non nullo, è L.I.. Ora ammettiamo vera l’ipotesi per i e verifichiamola per i+1. Allora gli i autovettori v1 v2 ... vi sono L.I.. ragionando per assurdo diciamo che gli i+1 autovettori v1 , v2 , ... vi , v i 1 non sono L.I.. In tal caso esisteranno dei coefficienti che ci permettano di scrivere vi 1 a1 v1 a2 v 2 ... ai vi da ciò si deduce v F a v a v ... a v a v a v ... a v a v i 1 1 1 i 1 1 1 2 2 2 2 i i i i i 1 1 1 1 v i 1 1a1 v1 2 a2 v 2 ... i ai v i 2 a 2 v 2 ... i ai v i a1 v1 i 1 1 a 2 v 2 i 1 2 ... ai v i i 1 i 0 Si ottiene che gli i autovettori non sono L.I., il che è in contraddizione con l’ipotesi. Dunque gli i+1 autovettori sono L.I.. DEDUZIONE, SOMMA DIRETTA. Autospazi di autovalori distinti sono in somma diretta. DIMOSTRAZIONE OMESSA. 48 DEDUZIONE, NUMERO DI AUTOVALORI. Un endomorfismo F : V V dove la dimensione di V è n ha al massimo n autovalori distinti. DIMOSTRAZIONE. Poiché gli autovettori di autovalori distinti sono L.I., se vi fossero più di n autovalori distinti allora si avrebbero più di n vettori di V L.I., il che contraddice l’ipotesi che V abbia dimensione n. II) RICERCA DI AUTOVALORI ED AUTOVETTORI DEFINIZIONE, EQUAZIONE CARATTERISTICA. Sia dato un endomorfismo F : V V di matrice An ,n rispetto alla base B di R n . Diciamo allora equazione caratteristica di tale endomorfismo l’equazione det An ,n I n ,n 0 DEFINIZIONE, POLINOMIO CARATTERISTICO. Nelle ipotesi di cui sopra si dice polinomio caratteristico dell’endomorfismo il polinomio det An ,n I n ,n DEDUZIONE, POLINOMIO CARATTERISTICO. Matrici simili hanno lo stesso polinomio caratteristico. DIMOSTRAZIONE. Consideriamo le due matrici simili A, A| C 1 AC , dove C è una matrice regolare. Allora il polinomio caratteristico di A| è dato da det A| I det C 1 AC I det C 1 AC C 1C det C 1 AC C det C 1 A I C det C 1 det A I det C det A I DEFINIZIONE, MOLTEPLICITA’ ALGEBRICA. Si dice molteplicità algebrica dell’autovalore λ, e la si indica ma , la molteplicità della soluzione λ nella equazione caratteristica. DEFINIZIONE, MOLTEPLICITA’ GEOMETRICA. Si definisce molteplicità geometrica dell’autovalore λ, e la si indica mg , la dimensione del corrispondente autospazio E . DEDUZIONE, MOLTEPLICITA’ ALGEBRICA E MOLTEPLICITA’ GEOMETRICA. Sussiste sempre la relazione ma mg DIMOSTRAZIONE OMESSA. 49 DEDUZIONE, CALCOLO DEGLI AUTOVALORI E DEGLI AUTOVETTORI. Abbiamo un endomorfismo F : V V di matrice An ,n rispetto alla base B. Ne voliamo calcolare gli autovalori e gli autovettori. Si procede allora come di seguito indicato: 1) si risolve l’equazione caratteristica det An ,n I n ,n 0 determinando le p soluzioni 1 , 2 ,... p le cui molteplicità algebriche soddisfano la relazione ma1 ma 2 ... ma p n ; 2) dato l’autovalore i si calcola il rispettivo autospazio E i risolvendo il sistema lineare omogeneo A n ,n I n ,n X n ,1 O n ,1 il quale fornisce gli autovettori rispetto alla base B. III) ENDOMORFISMI DIAGONALIZZABILI DEFINIZIONE, DIAGONALIZZAZIONE DI UN ENDOMORFISMO. Un endomorfismo si dice diagonalizzabile se esiste una base rispetto alla quale la matrice ad esso associata è diagonale. DEDUZIONE, DIAGONALIZZAZIONE. Si dimostra che un endomorfismo F di V è diagonalizzabile se e solo se esiste una base di V formata da autovettori dell’endomorfismo. DIMOSTRAZIONE.1) Diciamo che esista una base B v1 v2 ... vn di V formata da autovettori di F. Ricordiamo che la matrice associata all’endomorfismo è quella matrice la cui i-ma colonna è data dalle coordinate del vettore F v i rispetto alla base di V. Ma d’altra parte si ha F v i i v i i 1,2..., n Dunque una matrice associata all’endomorfismo si scrive 1 0 0 2 ... 0 0 0 0 ... n ... ... Essa è diagonale e dunque l’endomorfismo è diagonalizzabile. 2) Ora invece diciamo che una matrice associata all’endomorfismo rispetto alla base B v1 v2 ... vn sia la matrice diagonale su indicata.Si comme la colonna i-ma della matrice è data dalle coordinate del vettore F v i rispetto alla base B v1 v2 ... vn , allora si ha che 50 F v i i v i i 1,2..., n e dunque la base B è una base di autovettori. DEDUZIONE, DIAGONALIZZAZIONE. Un endomorfismo è diagonalizzabile se e solo se 1) il polinomio caratteristico ammette solo radici reali; 2) per ogni autovalore risulta ma mg . DIMOSTRAZIONE OMESSA. DEDUZIONE, COROLLARIO. Se un endomorfismo F di V ammette un numero di autovalori distinti pari alla dimensione di V, allora F è diagonalizzabile. IV) MATRICI DIAGONALIZZABILI DEFINIZIONE, DIAGONALIZZAZIONE DI UNA MATRICE. Una matrice quadrata An ,n si dice diagonalizzabile se l’endomorfismo F : R R , di cui essa può essere considerata la matrice rispetto alla base canonica di R n , è diagonalizzabile. Autovettori, autovalori e polinomio caratteristico di F sono detti autovettori, autovalori e polinomio caratteristico di A. n n DEDUZIONE, DIAGONALIZZAZIONE. Una matrice A è diagonalizzabile se e solo se è simile ad una matrice diagonale. Ovvero se e solo se esiste una matrice C regolare, tale che C 1 AC è una matrice diagonale. La matrice C di cui sopra è la matrice le cui colonne sono le coordinate dei vettori della base di autovettori di A, rispetto alla base canonica di R n . SPAZI VETTORIALI EUCLIDEI I) PRODOTTO SCALARE EUCLIDEO DEFINIZIONE, PRODOTTO SCALARE EUCLIDEO. Si dice prodotto scalare euclideo una applicazione f : VxV R la quale ad ogni coppia di vettori v1 e v 2 dello spazio vettoriale V associa un numero reale indicato v1 v2 che goda delle seguenti proprietà: 1) proprietà commutativa: 51 v1 v2 v2 v1 v1 , v2 V 2) proprietà distributiva a destra rispetto alla somma di vettori: v1 v2 v3 v1 v2 v1 v3 v1 , v2 , v3 V 3) linearità rispetto al prodotto di un vettore per uno scalare av v 1 2 a v1 v2 v1 , v2 V a R 4) positività v v 0 v V e v v 0 v 0 DEDUZIONE, PROPRIETA’ DERIVATE. Dalle proprietà indicate nella definizione del prodotto scalare euclideo discendono le seguenti proprietà: 5) proprietà di stributiva a sinistra rispetto alla somma di vettori v 1 v2 v3 v1 v3 v2 v3 v1 , v2 , v3 V 6) linearità rispetto al prodotto di un vettore per uno scalare v1 av2 a v1 v2 v1 , v2 V a R 7) proprietà di non degenerazione v1 v2 0 v2 V v1 0 DEFINIZIONE, SPAZIO VETTORIALE EUCLIDEO. Si dice spazio vettoriale euclideo, e lo si indica E, uno spazio vettoriale in cui sia introdotto il prodotto scalare euclideo. DEFINIZIONE, PRODOTTO SCALARE CANONICO. Si definisce prodotto scalare canonico l’applicazione che ai due vettori v1 x1 x2 ... xn R n v2 y1 y2 ... T T yn R n associa il numero reale v1 v2 x1 y1 x2 y2 ... xn yn Si dimostra che questa operazione è un prodotto scalare euclideo. 52 II) MATRICE EUCLIDEO ASSOCIATA AL PRODOTTO SCALARE DEFINIZIONE, MATRICE ASSOCIATA AL PRODOTTO SCALARE EUCLIDEO. Siano v1 e v 2 due vettori di uno spazio vettoriale euclideo E. Sia v1 BX v2 BY con B u1 u2 ... un base dello spazio vettoriale E. Allora diciamo matrice associata al prodotto scalare euclideo rispetto alla base B la matrice simmetrica u1 u1 u1 u2 ... u1 un u2 u1 u2 u2 ... u2 un A aij ui u j ... un u1 un u2 ... un un DEDUZIONE, PRODOTTO SCALARE E MATRICE ASSOCIATA. Considerando gli enti introdotti nella precedente definizione si trova v1 v2 T XAY DEDUZIONE, CAMBIAMENTO DI BASE. Siano v1 e v 2 due vettori di uno spazio vettoriale euclideo E. Sia v1 BX B | X | v2 BY B |Y | con B e B| basi dello spazio vettoriale E. Sia inoltre C la matrice le cui colonne sono le coordinate dei vettori di B | nella base B, sia cioè B | BC . Allora si ha che la matrice associata al prodotto scalare rispetto alla base B | è data da A| C T AC essendo A la matrice associata al prodotto scalare rispetto alla base B. 53 III) NORME DI VETTORI E RELAZIONI DEFINIZIONE, NORMA. Sia E uno spazio vettoriale euclideo. Dato un vettore v E si definisce norma del vettore stesso lo scalare v vv Nel caso di prodotto sclare canonico si ha dunque v x1 x2 ... xn 2 2 2 Altrimenti si ha v T XAX DEFINIZIONE, VERSORE. Sia E uno spazio vettoriale euclideo. Dato un vettore v E si definisce versore del vettore stesso il vettore versv v v DEFINIZIONE, COSENO. Sia E uno spazio vettoriale euclideo. Dati i vettori non nulli v1 , v2 E si definisce coseno dell’angolo fra i due vettori stessi lo scalare cos v1 v 2 v1 v 2 v1 v 2 che, per la diseguaglianza di Cauchy-Schwartz, risulta compreso fra -1 ed 1, estremi compresi. DEDUZIONE, PROPRIETA’ DELLE NORME DI VETTORI. Si dimostrano le seguenti proprietà: 1) definita positività v 0 v E v 0 v E \ 0 v 0 v0 2) linearità rispetto al prodotto per uno scalare cv c v v E 54 3) diseguaglianza di Cauchy-Schwartz vw v w v, w E vw v w v, w sono L. I . 4) diseguaglianza triangolare v w vw v, w E 5) teorema di Carnot v1 v 2 2 v1 2 v2 2 2v 1 v 2 v, w E 6) prima identità di polarizzazione v1 v 2 1 v1 v 2 2 2 v1 2 v2 2 v, w E 7) seconda identità di polarizzazione v1 v 2 1 v1 v 2 4 2 v1 v 2 2 v, w E IV) ORTOGONALITA’ E COMPLEMENTO ORTOGONALE DEFINIZIONE, ORTOGONALITA’. Dato uno spazio vettoriale euclideo E, due vettori v1 , v2 E si definiscono ortogonali fra loro quando v1 v2 0 e si scrive v1 v2 . DEDUZIONE, LINEARE INDIPENDENZA. Siano dati gli m vettori non nulli v1 , v 2 ,..., v m E . Se essi sono a due a due ortogonali, allora sono m vettori L.I.. DIMOSTRAZIONE. Per assurdo i vettori dati siano L.D., allora esiste una m-pla di coefficienti non tutti nulli per i quali sia a1 v1 a2 v 2 ... ai v i am v m 0 Moltiplicando ambo i membri per l’i-mo vettore della m-pla si ha v i a1 v1 a2 v 2 ... ai v i am v m 0 ai v i 0 55 Ora, dato che i coefficienti non sono tutti nulli, almeno un vettore della m-pla deve essere il vettore nullo. Ma questo contraddice l’ipotesi della non nullità di tali vettori. Essi dunque devono essere L.I.. DEFINIZIONE, COMPLEMENTO ORTOGONALE. Dato uno spazio vettoriale euclideo E sia U un suo sottospazio vettoriale. Allora definiamo complemento ortogonale di U qualunque insieme di vettori di E i quali siano tutti ortogonali a tutti i vettori di U. Il complemento ortogonale di U si indica U . Simbolicamente si ha U v E v u 0, u U DEDUZIONE, SOTTOSPAZIO VETTORIALE. Il complemento ortogonale U di U è un sottospazio vettoriale di E. DIMOSTRAZIONE. Dobbiamo provare che U è chiuso rispetto alle operazioni di somma di vettori e di prodotto di vettore per scalare. Cioè dobbiamo provare che a v1 bv 2 U , a, b E; v1 , v 2 U Preso un qualunque vettore u U troviamo che av 1 bv 2 u a v1 u b v 2 u a 0 b0 0 0 0 Dunque la tesi è dimostrata. DEDUZIONE, COMPLEMENTO ORTOGONALE E BASE. Consideriamo lo spazio vettoriale euclideo E. Sia U un suo sottospazio e B u1 u2 ... un una sua base. Sia U il complemento ortogonale di U. Allora U coincide con l’insieme W dei vettori di E che sono ortogonali a ciascun vettore di B. DIMOSTRAZIONE. Intanto U W in quanto ogni elemento di U è in particolare ortogonale ad ogni vettore di B. Inoltre se w è un generico elemento di W e u x1 u1 x2 u 2 ... xn u n è un generico elemento di U, si ha che w u x1 w u1 x2 w u 2 ... xn w u n x1 0 x2 0 ... xn 0 0 e dunque è anche vero che W U . Se ne deduce allora che W U , cioè la tesi. DEDUZIONE, SOMMA DIRETTA. Dato uno spazio vettoriale euclideo E, sia U un suo sottospazio. Allora si prova che U U 0 E U U 56 V) BASI ORTONORMALI DEFINIZIONE, BASE ORTONORMALE. Una base di uno spazio vettoriale euclideo è definita ortonormale se 1) i suoi vettori sono a due a due ortogonali; 2) i suoi vettori hanno norma unitaria. DEDUZIONE, METODO DI GRAM-SCHMIDT. Ogni spazio vettoriale euclideo ammette almeno una base ortogonale. DIMOSTRAZIONE. Sia E uno spazio vettoriale euclideo di dimensione n e sia B u1 u2 ... un una sua generica base. Dimostriamo come costruire, a partire da essa, una base ortonormale di E. 1)Come primo vettore di questa base prendiamo il vettore e1 u1 u1 2)Ora consideriamo il vettore v 2 l e1 u 2 v 2 e1 Ricaviamo il parametro. Si ha v 2 e1 l e1 e1 u 2 e1 l u 2 e1 l v 2 e1 u 2 e1 u 2 e1 Sostituendo si ha dunque v 2 u 2 e1 e1 u 2 Questo vettore è non nullo poiché è combinazione lineare di due vettori non nulli e L.I.. Inoltre è L.I. con il vettore e1 . Poniamo allora e2 v2 v2 3)Ora consideriamo il vettore v 3 l e1 h e 2 u 3 v 3 e1 v 3 e2 Ricaviamo i parametri. Si ha 57 v 3 e1 l e1 e1 he 2 e1 u 3 e1 l u 3 e1 0 l u 3 e1 v 3 e 2 l e1 e 2 he 2 e 2 u 3 e 2 h u 3 e 2 0 h u 3 e 2 Si ottiene il vettore v 3 u 3 e1 e1 u 3 e 2 e 2 u 3 Si verifica che questo vettore costituisce un insieme di tre vettori L.I. con e1 , e 2 ed è ortogonale ad entrambi per costruzione. Poniamo allora e3 v3 v3 e otteniamo un insieme di tre vettori L.I. e reciprocamente ortonormali. 4)Procedendo in questo modo fino ad ottenere n vettori, finiamo per ottenere una base ortonormale di E. VI) MATRICI ORTOGONALI DEFINIZIONE, MATRICE ORTOGONALE. La matrice An M n R si dice ortogonale nel caso in cui T An An 1 DEDUZIONE, DETERMINANTE. Il determinante di una matrice ortogonale è pari a 1 . DIMOSTRAZIONE. In generale si ha det A det AT det AAT det A det AT det A 2 Nel caso di matrici ortogonali si ha poi det AAT det AA1 det I 1 Confrontando si ha la tesi. Si prova anche che se A e B sono due matrici ortogonali allora 1) AB è una matrice ortogonale; 2) A1 è una matrice ortogonale; 3) AT è una matrice ortogonale. DEDUZIONE, LEMMA. Sia E uno spazio vettoriale euclideo. La matrice associata al prodotto scalare fra i suoi vettori relativa ad una base ortonormale di E è la matrice identità. 58 DIMOSTRAZIONE IMMEDIATA. DEDUZIONE, PASSAGGIO DI BASE ORTONORMALE. Sia E uno spazio vettoriale euclideo. Siano B, B | due sue basi ortonormali. Allora la matrice T le cui colonne sono i vettori di B | rispetto alla base B, risulta una matrici ortogonale. DIMOSTRAZIONE. Per ipotesi B | TB . Dunque X TX | , dove X sono le coordinate del generico vettore di E rispetto ala base B e X | sono le coordinate dello stesso vettore rispetto alla base B | . Allora sia A la matrice del prodotto scalare associata alla base B e A| quella associata alla base B | . Sappiamo già che fra le due matrici sussiste la relazione A| T T AT D’altra parte le due matrici sono entrambe relative a basi ortonormali e dunque risulta entrambe matrici identità. Dunque si ha A| T T AT I T T T T T T 1 E la tesi è dimostrata. ENDOMORFISMI SIMMETRICI I) DEFINIZIONI E PROPRIETA’ DEFINIZIONE, ENDOMORFISMO SIMMETRICO. Sia E uno spazio vettoriale euclideo. Consideriamo l’endomorfismo F : E E . Esso si dice simmetrico se risulta F v1 v 2 v1 F v 2 v1 , v 2 E DEDUZIONE, MATRICE ASSOCIATA. Nelle ipotesi di cui sopra ogni matrice associata all’endomorfismo, rispetto ad una base ortonormale, è una matrice simmetrica. DIMOSTRAZIONE. Sia B u1 u2 ... un una base ortonormale di E. Allora la matrice A di F associata a tale base, lo ricordiamo, è tale che i suoi elementi soddisfano la relazione F u j a1 j u1 a2 j u 2 ... anj u n per j=1,2,…,n. Ma se l’endomorfismo è simmetrico si ha in particolare che ui F u j F ui u j Poi, ricordando l’ortonormalità della base, si ha 59 F u u a u i F u j aij i j ji Per cui, sostituendo le due ultime relazioni nella precedente, si ha aij a ji Cioè la tesi. DEDUZIONE, AUTOVALORI. Ogni endomorfismo simmetrico ha autovalori reali. DIMOSTRAZIONE. Dato lo spazio euclideo E, consideriamo l’endomorfismo F : E E , di matrice associata A, rispetto ad una base ortonormale B di E. Sia v BX un autovettore di A, il cui autovalore sia l. A priori l’autovalore appartiene al campo complesso. Si osservi ora che AX lX AX lX A X l X A X l X T T T T AX lX X AX X lX X A X l X X A X T T X lX X Sostituendo la prima nella seconda si ha l X T T T T X lX X lX X lX X T Si consideri ora che la sommatoria X X è fatta di addendi non negativi (perché prodotti di numeri complessi coniugati) e non tutti nulli essendo i due vettori colonna non nulli (perché coordinate di autovettori). Dunque si possono dividere ambo i membri della uguaglianza per tale somma, ottenendo l l , ovvero che l è reale. DEDUZIONE, AUTOVETTORI. Se un endomorfismo simmetrico ammette due autovalori distinti allora i relativi autovettori sono ortogonali fra loro. DIMOSTRAZIONE. Siano l ed m due autovalori distinti dell’endomorfismo F : E E . Allora detti v1 , v 2 due rispettivi autovalori, abbiamo F v1 l v1 v1 m v 2 v 2 l v 1 m v 1 v 2 l v 1 v 2 m l v 1 v 2 0 v 1 v 2 0 F v 2 mv 2 v 1 F v 2 v 2 F v 1 Ma essendo i due autovettori non nulli, ne segue che essi debbono essere ortogonali. DEDUZIONE, PROPRIETA’. Sia v un autovettore di un endomorfismo simmetrico F. Allora se un vettore u risulta ortogonale a v , ne segue che anche il vettore F u è ortogonale a v . 60 DIMOSTRAZIONE. Per la ipotesi di simmetria dell’endomorfismo F si ha vF u uF v D’altra parte se è l’autovalore dell’autovettore v , si deve avere che F v v Confrontando si trova dunque v F u u v Ma essendo poi u v 0 , segue la tesi. II) DIAGONALIZZAZIONE DEDUZIONE, LEMMA. Un endomorfismo simmetrico ammette sempre una base ortonormale di autovettori. DIMOSTRAZIONE OMESSA. DEDUZIONE, DIAGONALIZZAZIONE. Un endomorfismo simmetrico è diagonalizzabile. DIMOSTRAZIONE OVVIA. DEDUZIONE, COROLLARIO. Ogni matrice simmetrica A ammette matrice simile diagonale A| C 1 AC C T AC con C matrice ortogonale. DIMOSTRAZIONE. Consideriamo l’endomorfismo simmetrico F : E E , con E spazio vettoriale euclideo. Siano B, B | due basi ortonormali di E, siano A, A| le matrici associate ad F rispettive, sia inoltre C la matrice le cui colonne sono le coordinate dei vettori di B | rispetto alla base B. Allora intanto la matrice C è una matrice ortogonale, cioè di passaggio fra due basi ortogonali, e dunque C 1 C T . Inoltre A| C 1 AC . Ora se B | è una matrice ortonormale di autovettori dell’endomorfismo (un endomorfismo simmetrico ammette sempre una base di autovettori ortogonale) allora la matrice A| è diagonale. Dunque si ha A| C 1 AC C T AC con A| diagonale. 61