Vettori geometrici Fissato su A1 un punto O e un’unità di misura, cioè un segmento OA, otteniamo un applicazione bigettiva fra i punti della retta e i numeri reali; Ciò introduce una somma e un prodotto che lo rendono campo. ๐ฃ๐2 con somma è un gruppo commutativo. È inoltre definito un prodotto per uno scalare. In ๐ฃ๐2 è possibile definire un applicazione bigettiva ๐น๐ : ๐ฃ๐2 → โ2 che associa a ogni vettore una coppia di numeri. Dato che entrambi hanno la sessa struttura algebrica diremo che sono isomorfi e che ๐น๐ è un isomorfismo. L’isomorfismo è un applicazione biunivoca t.c. ๐น๐ ๐ ๐น๐ −1 sono omomorfisti, ossia che conservano le operazioni in esse definite. Riferimento affine L’insieme formato da un punto ๐ ∈ ๐ด2 e da due vettori non proporzionali ๐โ ๐ ๐โ ∈ ๐ฃ๐2 si chiama sistema di riferimento affine RA(๐, ๐โ, ๐โ) del piano. Equazioni di rette e piani โโโโโโ = ๐ก๐๐ โโโโโโโ . Se Se r passa per l’origine per sapere se un punto P appartiene alla retta, basta risolvere l’equazione: ๐๐ la retta r è invece qualunque, prendiamo un punto ๐0 ∈ ๐, e sia r0 la retta parallela ad r passante per O. โโโโโโ = ๐๐ โโโโโโโโ0 + ๐ก๐๐ โโโโโโโ (equazione vettoriale della retta; OQ si chiama vettore direttore) L’equazione sarà dunque ๐๐ โโโโโโโโ1 + ๐ก(๐๐ โโโโโโโโ2 − โโโโโโโโ P appartiene alla retta passante per P1 e P2 se e solo se โโโโโโ ๐๐ = ๐๐ ๐๐1 ) Un punto P appartiene al piano ๐ ⇔ โโโโโโ ๐๐ = โโโโโโโโ ๐๐0 + ๐ ๐โ + ๐ก๐โ (equazione vettoriale del piano; i,j s chiamoano vettori di giacitura del piano) Sia una retta passante per P0 con vettore direttore OQ e r’ con vettore direttore OQ’, le due rette si intersecano โโโโโโโโ′ − ๐๐ โโโโโโโโ, in altre parole se e solo se ๐๐ โโโโโโโโ′ − ๐๐ โโโโโโโโ0 = ๐ก๐๐ โโโโโโโ − ๐ก ′ ๐๐′ โโโโโโโโ0 ne punto X se e solo se esistono t e t’ t.c. ๐๐ 0 0 appartiene al piano generato dai vettori direttori. Equazioni parametriche ๐ฅ0 ๐ฅ ๐ Fissato RA(๐, ๐โ, ๐โ) chiamiamo |๐ฆ | le coordinate del punto P0, | | le coordinate di Q, e |๐ฆ| le coordinate del 0 ๐ punto generico P. ๐ฅ ๐ฅ0 ๐ |๐ฆ| = |๐ฆ | + ๐ก | | quindi il punto p appartienene alla retta se e solo se le sue coordinate sono date da 0 ๐ ๐ฅ = ๐ฅ0 + ๐ก๐ { (equazione parametrica di una retta nel piano) ๐ฆ = ๐ฆ0 + ๐ก๐ ๐ฅ0 |๐ฆ0 | + ๐ก ๐ง0 ๐ฅ = ๐ฅ0 + ๐ก๐ ๐ ๐ | | {๐ฆ = ๐ฆ0 + ๐ก๐ equazione parametrica di una retta nello spazio (p appartiene alla retta se ๐ ๐ง = ๐ง0 + ๐ก๐ e solo se le sue coordinate sono date da questa equazione) ๐ฅ |๐ฆ| = ๐ง ๐ฅ = ๐ฅ0 + +๐ ๐ + ๐ก๐′ ๐ฅ0 ๐ ๐′ ๐ฆ 0 ๐ฆ | | + ๐ |๐| ๐ก |๐′| { = ๐ฆ0 + ๐ ๐ + ๐ก๐′ equazione parametrica di un piano nello spazio (p appartiene ๐ง0 ๐′ ๐ ๐ง = ๐ง0 + ๐ ๐ + ๐ก๐′ allo spazio se e solo se le sue coordinate sono date da questa equazione) ๐ฅ |๐ฆ| = ๐ง ๐ฅ0 Se vogliamo trovare l’intersezione fra due rette con equazioni parametriche una volta fissato RA(๐, ๐โ, ๐โ), P0 |๐ฆ |, 0 ๐ฅ′ ๐๐ก − ๐ ′ ๐ก ′ = ๐ฅ0′ − ๐ฅ0 ๐ ๐0′ | 0′ |, Q | | e Q’ | ๐′ | le rette si intersecheranno se e solo se { , dove t e t’ sono incognite. ๐ฆ0 ๐๐ก − ๐′ ๐ก ′ = ๐ฆ0′ − ๐ฆ0 ๐ ๐′ | ๐ฅ ′ + ๐′ ๐ก0′ ๐ฅ0 + ๐๐ก0 | = | ′0 | ๐ฆ0 + ๐๐ก0 ๐ฆ0 + ๐′ ๐ก0′ L’eliminazione di Gauss Nota: per passare da un sistema con unica a una senza soluzioni(o con infinite soluzioni) si modificano i coefficienti, mentre per passare da un sistema senza soluzioni a uno con infinite si modificano i termini noti! Il numero n delle incognite è detto anche ordine del sistema, un sistema è compatibile se ammette almeno una soluzione. Una soluzione è una n-upla (๐ฃ1 , … , ๐ฃ๐ ) che sostituiti nelle incognite ๐ฅ1 , … ๐ฅ๐ soddisfano il sistema. ๐ด๐๐ dove i indica la riga e j la colonna. A viene detta diagonale se tutti gli elementi al di fuori della diagonale principale sono nulli. Triangolare superiore se gli elementi al di sotto (cioè a sinistra) della diagonale principale sono tutti nulli, Triangolare inferiore se invece sono zero gli elementi al di sopra. Sistemi triangolari superiori Un sistema triangolare superiore ๐ด๐ฅ = ๐ต di n equazioni in n incognite ammette una e una sola soluzione se e solo se tutti gli elementi della diagonale principale di A sono diversi da 0 (si dimostra risolvendo all’indietro). Gauss Due sistemi lineari dello stesso ordine si dicono equivalenti se hanno esattamente le stesse soluzioni. Si chiama combinazioni lineare: โ(๐1 ๐ฅ1 + โฏ + ๐๐ ๐ฅ๐ ) + ๐(๐1 ๐ฅ1 + โฏ + ๐๐ ๐ฅ๐ ) = โ๐ + ๐๐. Facendo combinazioni lineari di equazioni di un sistema le soluzioni non cambiano. Il metodo di gauss consiste in un passo in meno dell’ordine del sistema. Un sistema lineare quadrato ammette un'unica soluzione se e solo se i pivot della sua matrice dei coefficienti sono tutti non nulli. Il prodotto di tutti i pivot è il valore assoluto del determinante della matrice Una matrice quadrata è non singolare se tutti i suoi pivot (rispetto ad una eliminazione) sono non nulli, è singolare altrimenti. Spazio vettoriale Lo spazio vettoriale è un insieme definito con una somma ed un prodotto di un numero per un vettore La somma di due vettori e semplicemete la somma componente per componente. Il prodotto per uno scalare è definito componente per componente Proprietà degli spazi vettoriali: 1. Somma: ๏ท Commutativa ๏ท Esistenza del numero neutro ๏ท Associativa ๏ท Esistenza dello zero ๏ท Esistenza dell’opposto 2. Prodotto: ๏ท Distributiva ๏ท associativa ๏ท Esistenza del numero neutro W è un sottospazio vettoriale se soddisfa le proprietà degli spazi vettoriali, e se e chiuso rispetto alle operazioni di somma e prodotto per scalare, quindi basta dimostrare che somma due elementi, l’elemento risultante rimanga nel sotto insieme, che il vettore risultante da uno scalare per un vettore appartenga al sottoinsieme e l’esistenza dell’elemento nullo. Un sistema lineare della forma ๐ด๐ฅ = 0 è detto omogeneo. Sia ๐ ⊆ โ๐ l’iniseme delle soluzioni del sistema lineare omogeneo in n incognite ๐ด๐ฅ = 0. Allora w è un sottospazio vettoriale di Rn. Se il sistema non era omogeneo w non era sottospazio in quanto non conteneva il vettore nullo. Sia v uno spazio vettoriale; la combinazione lineare di k vettori ๐ฃ1 , … , ๐ฃ๐ con coefficienti (o pesi) ๐ผ1 , … , ๐ผ๐ è il vettore ๐ผ1 ๐ฃ1 + โฏ + ๐ผ๐ ๐ฃ๐ . Lo span dei (o sottospazio generato dai) vettori ๐ฃ1 , … , ๐ฃ๐ è l’insieme di tutte le possibili combinazioni lineari. In simboli ๐ ๐๐๐(v1 , … , v๐ ) = {๐ผ1 ๐ฃ1 + โฏ + ๐ผ๐ ๐ฃ๐ | ๐ผ1 , … , ๐ผ๐ ∈ โ }. Sia V uno spazio vettoriale, e v1 , … , v๐ vettori di V. Allora span(v1 , … , v๐ ) è un sottospazio di V. Dipendenza e indipendenza lineare ๐1 ๐ฃ1 + ๐2 ๐ฃ2 + โฏ + ๐๐ ๐ฃ๐ è una combinazione lineare La combinazione lineare è linearmente indipendente se la combinazione che ha come risultato 0 è soddisfatta ↔ ๐1 = ๐2 = โฏ = ๐๐ = 0 Il sistema ๐ด๐ฅ = 0 in n equazioni ha come unica soluzione (quella banale x=0) se e solo se le colonne ๐ด1 , … , ๐ด๐ (๐ด1 corrisponde alla prima colonna, ecc.) sono linearmente indipendenti Criteri per vedere se una combinazione è linearmente indipendente: 1. 2. 3. ๐ฃโ1 ≠ 0 ๐ฃโ2 non è un multiplo di ๐ฃโ1 ๐ฃโ3 non è combinazione lineare di ๐ฃโ1 e ๐ฃโ2 Generatori: Un insieme di generatori per A se tutti gli elementi di A possono essere ottenuti dagli elementi di S come combinazioni di span A. Sia V uno spazio vettoriale, un insieme B= {๐ฃ1 , … , ๐ฃ๐ } di vettori V è una base di V se: ๏ท ๏ท V span(๐ฃ1 , … , ๐ฃ๐ ), cioè ๐ฃ1 , … , ๐ฃ๐ sono un sistema di generatori di v; ๐ฃ1 , … , ๐ฃ๐ sono linearmente indipendenti cioè se ogni elemento di V si può scrivere come un'unica combinazione lineare. Siano ๐ฃ1 , … , ๐ฃ๐ vettori linearmente indipendenti di uno spazio vettoriale V. Supponiamo che ๐ผ1 , … , ๐ผ๐ , ๐ฝ1 , … , ๐ฝ ∈ โ siano tali che ๐ผ1 ๐ฃ1 + โฏ + ๐ผ๐ ๐ฃ๐ = ๐ฝ1 ๐ฃ1 + โฏ + ๐ฝ๐ ๐ฃ๐ ⇒ ๐ผ๐ = ๐ฝ๐ ๐๐๐ ๐ = 1 … ๐ Sia B= {๐ฃ1 , … , ๐ฃ๐ } una base di V, e v ∈ V. Gli n numeri reali (๐ผ1 , … , ๐ผ๐ ) sono le coordinate di v rispetto a B Sia B= {๐ฃ1 , … , ๐ฃ๐ } una base di uno spazio vettoriale V. allora b è un insieme massimale in V di vettori linearmente indipendenti Sia B un sottoinsieme finito di uno spazio vettoriale V. se span(B) contiene un sistema di generatori di V allora V=span(B), cioè B è un sistema di generatori di V Sia A{๐ฃ1 , … , ๐ฃ๐ } ๐ข๐ ๐ ๐๐ ๐ก๐๐๐ ๐๐ ๐๐๐๐๐๐๐ก๐๐๐ ๐๐ ๐ข๐๐ ๐ ๐๐๐ง๐๐ vettoriale V. Sia ๐ต ⊆ ๐ด un sottoinsieme massimale in A di vettori linearente indipendenti. Allora B è una base di V Ogni spazio vettoriale contenente un sistema finito di generatori ammette una base Teorema di Steinitz e del completamento ๐ฅ1 , ๐ฅ2 , … , ๐ฅ๐ → ๐๐๐๐๐๐๐ก๐๐๐ e ๐ฆ1 , ๐ฆ2 , … , ๐ฆ๐ → ๐๐๐๐๐๐๐๐๐๐ก๐ ๐๐๐๐๐๐๐๐๐๐๐ก๐ ⇒ ๐ ≤ ๐ sia B={๐ฃ1 , … , ๐ฃ๐ } una base di uno spazio vettoriale V, e siano ๐ค1 , … , ๐ค๐ ∈ ๐ (๐๐๐ ๐ ≤ ๐) vettori linearmente indipendenti. Allora esistono n-p vettori di B che insieme a ๐ค1 , … , ๐ค๐ formano una base di V Corollario: Tutte le basi di uno spazio vettoriale hanno lo stesso numero di elementi. Le dimensioni di uno spazio vettoriale è il numero di elementi di una qualsiasi base ๐ = ๐๐๐๐ Dimensione sottospazio: ๐ ⊆ ๐ ⇒ ๐๐๐๐ ≤ ๐๐๐๐ Somma e intersezioni di sottospazi Sia U,W sottospazi dello stesso spazio vettoriale V. Se B è un sistema di generatori di U e C un sistema di generatori di W , allora B U C è un sistema di generatori di U+W Teorema di Grassman: dim(๐ + ๐) + dim(๐ ∩ ๐) = dim ๐ + dim ๐ Due sottospazi U e W di uno spazio vettoriale V si dicono supplementari se ๐ = ๐ ⊕ ๐ (ossia sono somma diretta, cioè la loro intersezione è uguale al vettore nullo) Applicazioni lineari Teorema di struttura: Sia ๐ฃ 0 ∈ โ๐ una soluzione del sistema lineare Ax=B di ordine n. Allora ogni altra soluzione è della forma ๐ฃ = ๐ฃ 0 + ๐ค, dove ๐ค ∈ โ๐ è una soluzione del sistema omogeneo Ax=0. In altra parole se ๐ฟ ⊆ โ๐ è l’insieme delle soluzioni del sistema Ax=B e ๐ ⊆ โ๐ è l’insieme delle soluzioni del sistema omogeneo associato ๐ด๐ฅ = 0, si ha ๐ฟ = ๐ฃ 0 + ๐ = {๐ฃ 0 + ๐ค|๐ค ∈ ๐} in particolare, v0 l’unica soluzione del sistema se e solo se le colonne di A sono linearmente indipendenti Matrici Definita ๐ฟ๐ : โ๐ → โ๐ ๐11 ๐ด=[ โฎ ๐๐1 โฏ โฑ … ๐1๐ โฎ ] matrice con m righe ed n colonne. Se m=n la matrice è quadrata ๐๐๐ Rango ๐๐๐ ๐ (dimensione spazio righe) = ๐๐๐ ๐ (dimensione spazio colonne)= ๐๐๐ ๐ด (dimensione matrice)= ๐๐ ๐ด (rango matrice) ๐๐๐ด ≤ min(๐, ๐) Teorema della dimensione Data ๐น: ๐ → ๐ allora dim ๐ = dim ๐๐๐๐น + ๐๐๐น (๐ ๐ผ๐๐น) Operazioni ammesse su una matrice ๏ท ๏ท ๏ท moltiplicare ogni elemento di una riga per ๐ ≠ 0 scambiare le riga i-esima con la j-esima ๐ ≠ ๐ prendere una riga sommarla con un multiplo di un'altra riga e sostituirla con questa nuova riga Operazioni fra matrici Somma fra matrici ๐11 โฏ ๐1๐ ๐11 โฑ โฎ ]+[ โฎ [ โฎ ๐๐1 … ๐๐๐ ๐๐1 righe e colonne โฏ ๐1๐ ๐11 + ๐11 โฑ โฎ ]=[ โฎ … ๐๐๐ ๐๐1 + ๐๐1 โฏ ๐1๐ + ๐1๐ โฑ โฎ ] A e B devono avere lo stesso numero di … ๐๐๐ + ๐๐๐ Proprietà della somma fra matrici ๏ท ๏ท ๏ท ๏ท commutativa associativa esistenza della matrice nulla esistenza della matrice inversa prodotto di una matrice per un numero ๐11 ๐[ โฎ ๐๐1 โฏ ๐1๐ ๐(๐11 ) โฑ โฎ ]=[ โฎ … ๐๐๐ ๐(๐๐1 ) โฏ ๐(๐1๐ ) โฑ โฎ ] … ๐(๐๐๐ ) prodotto fra matrici ๐ ๐ ๐ด๐ต = [ โฎ โฎ … … ๐ … โฏ โฎ ][ โฎ โฎ … … … ๐ โฏ โฏ ๐๐ + ๐๐ + ๐๐ ๐] = [ โฎ ]=๐ถ โฎ โฎ ๐ โฏ … โฏ il prodotto fra matrici esiste se la matrice A ha numero di elementi su ogni riga quanti B su ogni colonna A B ๐๐ฅ๐ ๐๐ฅ๐ ∃ ๐ถ ⇔ ๐ = ๐ → ๐ถ = ๐๐ฅ๐ (m righe, n colonne) Per le matrici non vale la legge di annullamento del prodotto Se A≠ 0 ๐ ๐ต ≠ 0 può capitare che AB=0 Matrice inversa ๐ด๐ด−1 = ๐ด−1 ๐ด = ๐ผ (๐๐๐๐๐ก๐๐๐) A è invertibile se ∃ ๐ด−1t.c. ๐ด๐ด−1 = ๐ผ Per trovare la matrice inversa : data ๐ด = | ๐ ๐ ๐ ๐ | vogliamo trovare ๐ = | ๐ ๐ ๐ | sapendo che ๐ด โ ๐ = ๐ผ โ ๐๐ + ๐๐ = 1 ๐๐ + ๐โ = 0 1 0 ๐ ๐ ๐ ๐ ๐ด๐ = | || |=| | { dove a,b,c,d sono numeri noti quindi bisogna risolvere i ๐๐ + ๐๐ = 0 0 1 ๐ ๐ ๐ โ ๐๐ + ๐โ = 1 ๐๐ + ๐๐ = 1 ๐๐ + ๐โ = 0 due soli sistemi { e{ ๐๐ + ๐๐ = 0 ๐๐ + ๐โ = 1 data A le seguenti affermazioni sono equivalenti: 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. A è invertibile L’applicazione lineare associata è invertibile L’applicazione lineare associata è iniettiva L’applicazione lineare associata è suriettiva A=n Le colonne di A sono linearmente indipendenti Le righe di A sono linearmente indipendenti Il sistema omogeneo ๐ด๐ฅ = 0 ha come unica soluzione x=0 Per ogni b ∈ โ๐ il sistema ax=B ha come unica soluzione x=๐ด−1 ๐ต I pivot di A, comunque determinati, sono non nulli (cioè A è non singolare) Ossia che il determinante sia diverso da 0 Matrice trasposta ๐ด๐ก si ottiene scambiando le righe con le colonne proprietà delle trasposta: (๐ด + ๐ต)๐ก = ๐ด๐ก + ๐ต๐ก (๐ด๐ต)๐ก = ๐ต๐ก ๐ด๐ก ( non vale la proprietà commutativa per il prodotto fra matrici) (๐๐ด)๐ก = ๐๐ด๐ก Matrice simmetrica Una matrice è simmetrica ⇔ ๐ด = ๐ด๐ก ๐ฅ |๐ ๐ ๐ ๐ฆ ๐ ๐ ๐| ๐ง Matrice antisimmetrica Una matrice è antisimmetrica ⇔ ๐ด = −(๐ด๐ก ) 0 |−๐ −๐ ๐ 0 −๐ ๐ ๐| 0 Matrice ortogonale A quadrata ortogonale : ๐ด๐ก = ๐ด−1 inversa e trasposta coincidono Matrice a coefficienti complessi Sia ๐ด ∈ ๐๐,๐ (โ) una matrice a coefficienti complessi. La matrice coniugata di A è la matrice ๐ด i cui elementi sono i coniugati della matrice A. La matrice trasposta della coniugata (o aggiunta) A H di A è la trasposta della ๐ coniugata in simboli ๐ด๐ป = ๐ด = ๐ด๐ Applicazioni lineari Applicazione=funzione ๐: ๐ → ๐ è un applicazione lineare se soddisfa le seguenti proprietà: ๏ท ๏ท ๏ท ๏ท ๐(๐ฃ + ๐ฃ ′ ) = ๐(๐ฃ) + ๐(๐ฃ ′ ) ๐(๐๐ฃ) = ๐๐(๐ฃ) ๐(0) = 0 ๐(−๐ฃ) = −๐(๐ฃ) Ker il Ker o nucleo è un sottospazio di V formato da tutti gli elementi che si trasformano nel vettore nullo. Se il ker è formato dal solo vettore nullo f è iniettiva ossia elementi distinti del dominio hanno immagini distinte. Per trovare il ker di una applicazione si risolve il sistema omogeneo associato. Im Sia ๐: ๐ → ๐ e {๐ฃ1 , … , ๐ฃ๐ } una base. Allora ๐ผ๐๐ = ๐ ๐๐๐๐(๐(๐ฃ1 ), … ๐(๐ฃ๐ )) o immagine di f è un sottospazio di w formato da tutti gli elementi che sono f di qualcosa. Se Im f=W l’applicazione è suriettiva. Il rango della matrice associata all’applicazione lineare è anche uguale a dim ๐ผ๐ ๐น Isomorfismo Se applicazione e sia iniettiva che suriettiva si chiamo biiettiva o anche isomorfismo. ๐: ๐ → ๐, ๐: ๐ → ๐ (๐ + ๐)(๐ฃ) = ๐(๐ฃ) + ๐(๐ฃ) ๐ผ๐: ๐ฃ = ๐ผ๐(๐ฃ) ๐: ๐ → ๐, ๐: ๐ → ๐ ๐ ๐ ๐ โ ๐ = ๐ฃ ๐(๐ฃ) ๐(๐(๐ฃ)) ossia vado da V ->Z → → Matrici e applicazioni lineari ๐: โ๐ → โ๐ ๐11 ๐ ( 21 โฎ ๐๐1 ๐12 ๐22 โฏ ๐๐2 ๐(๐1 ) ๐(๐2 ) La matrice avrà m righe e n colonne โฏ โฑ โฏ ๐1๐ ๐2๐ ) โฎ ๐๐๐ 1° componente dell’applicazione lineare 2° componente dell’applicazione lineare m-esima componente dell’applicazione lineare ๐(๐๐ ) un polinomio è omogeneo se tutti i termini sono dello stesso grado. F ha m componenti ciascuno dei quali è un polinomio omogeneo di primo grado in x 1,…,xn. Applicazioni iniettive, suriettive, invertibili o biiettive con matrice associata ๐: โ๐ → โ๐ è: 1. iniettiva se: ๐ฃ ≠ ๐ฃ ′ ⇒ ๐(๐ฃ) ≠ ๐(๐ฃ ′ ) โฏ โฏ โฏ ๐๐ = ( โฎ โฑ โฎ ) โฏ โฏ โฏ F(e1) F(en) se il rgMf=n l’applicazione lineare è iniettiva. Se n>m l’applicazione non può essere iniettiva. 2. suriettiva se: ๐ผ๐๐ = โ๐ โฏ โฏ ๐๐ = ( โฎ โฑ โฏ โฏ โฏ โฎ) โฏ F(e1) F(en) ๐(๐ฃ) = ๐๐๐๐ ๐ถ. ๐ฟ. ๐(๐1 ), … , ๐(๐๐ ) ⇐ ๐โ๐ ๐ ๐๐๐ ๐ ๐๐๐๐๐๐๐ก๐๐๐ ๐๐ ๐ผ๐๐ se rgMf=m l’applicazione lineare è suriettiva. Se n<m l’applicazione non può essere suriettiva. 3. invertibile se: sia iniettiva che suriettiva −1 ๐ ๐ −1 ๐ฃ ๐(๐ฃ) = ๐ฃ ′ ๐ ๐ฃ = ๐ −1 (๐ฃ ′ ) → → โฏ โฏ ๐๐ = ( โฎ โฑ โฏ โฏ F(e1) โฏ โฎ) โฏ F(en) ๐๐๐๐ = ๐ = ๐ Matrice associata a una applicazione lineare La matrice A è la matrice associa all’applicazione T rispetto alle basi B e C. La matrice A contiene per colonne le coordinate rispetto alla base di arrivo C dei trasformati secondo T dei vettori della base di partenza. Siano V e W spazi vettoriali sul campo K, con dim ๐ = ๐ e dim ๐ = ๐. Fissiamo una base B di v e una base C di W. Allora Fissiamo una base B di V e una base C di W. Allora l’applicazione ๐ โฆ ๐ด che associa a un’applicazione lineare ๐: ๐ → ๐ la matrice che la rappresenta rispetto alla basi B e C è un isomorfismo fra fra โ(๐, ๐) e ๐๐,๐ (๐). In particolare, dim โ (๐, ๐) = (dim ๐)(dim ๐) Pag 152-154 Applicazione lineare inversa ๐: โ๐ → โ๐ Mf (matrice associata all’applicazione lineare f), Mf -1 è la matrice associata alla applicazione inversa, Mf -1 è uguale a (Mf)-1 Per trovare l’applicazione inversa bisogna, dunque, calcolare la matrice inversa associata all’applicazione. L’applicazione è invertibile se esiste ๐: โ๐ → โ๐ t.c. ๐ โ ๐ = ๐๐๐ e ๐ โ ๐ = ๐๐๐ Un applicazione lineare è invertibile se e solo se è sia iniettiva e suriettiva (Nota: un applicazione è lineare se e solo se ogniuna delle componenti è un polinomio di primo grado privo del termine noto) Composizioni ๐ โ ๐ = ๐๐ โ ๐๐ = ๐๐โ๐ se l’applicazione lineare è foramata da una composizione si fra il prodotto fra le matrici associate alle singole applicazioni Sistemi lineari Per risolvere un sistema lineare AX=B si scrive il sistema sotto forma di matrice completa e si riduce con Gauss. In seguito si sostituisce all’indietro. ๐ด๐ = ๐ต è ๐๐๐ ๐๐๐ข๐๐๐๐ ⇔ ๐๐๐ด = ๐๐(๐ด|๐ต) = ๐ se il sistema è risolvibile vi sono n-p incognite libere. Teorema di Rouchè-Capelli Sistema AX=B in m equazioni in n incognite: ๏ท ๏ท ๐๐๐ด = ๐ ๐๐ (๐ด|๐ต) = ๐ risolubile ⇔ ๐ = ๐, è vi saranno n-p incognite libere, inoltre se esiste la soluzione è unica se e solo se rgA=n Sistemi Omogenei AX=0 Ha sempre almeno una soluzione, cioè quella banale, perché per Rouchè-Capelli per avere soluzione deve avere rgA=rgA|B, ma essendo B composto da soli 0 non cambia il rango è quindi deve avere sempre almeno una soluzione. vi sono sempre n-rgA incognite libere. I sistemi omogenei possono avere 1 (la cui soluzione e per lo meno =0) o infinite soluzioni Data Mf=A kerf sono le soluzioni del sistema omogeneo di A Dim kerf =n-rgA il numero di incognite libere è uguale alla dim kerMf Contro immagine ๐๐๐ก๐ ๐: โ๐ → โ๐ ๐๐ = ๐ด ๐1 ๐ด๐ = ( … ) ๐๐ ๐ −1 (๐1 , … , ๐๐ ) e.s. ๐: โ3 → โ2 = (๐ฅ + ๐ฆ, ๐ฅ − ๐ง) scelto un elemento di โ2 (della destinazione) si eguaglia il vettore alla matrice associata alla funzione quindi (a,b)=f(x,y,z) | 1 1 1 0 0 ๐ | il risultato è la contro immagine di f(x,y,z). (a, b sono numeri è il vettore scelto di r2) −1 ๐ Inversa Per trovare l’inversa si scrive la matrice A e a fianco la matrice Id. In seguito si diagonalizza A fino a far diventare 0 tutti gli elementi di A esclusi quella della diagonale principale. Si divide in fine ogni riga per il valore non nullo di A | ๐ ๐ ๐ 1 | ๐ 0 ๐ฅ 0 ๐ง 0 →| | 0 ๐ฆ ๐ค 1 ๐ 1 →| ๐ 0 ๐ง 0 ๐ฅ | 1 ๐ค ๐ฆ ๐ ๐ฅ ๐ ๐ฆ Determinante Determinante di una matrice quadrata 2x2 ๐11 ๐ด = (๐ 21 ๐12 ๐22 ) ๐๐๐ก๐ด = ๐11 ๐22 − ๐12 ๐21 determinate matrice 3x3 1. 2. 3. 4. ๐11 ๐12 ๐13 ๐22 ๐23 (๐21 ๐22 ๐23 ) ๐11 (๐๐๐ก |๐ |) 32 ๐33 ๐31 ๐32 ๐33 ๐11 ๐12 ๐13 ๐21 ๐23 (๐21 ๐22 ๐23 ) − ๐12 (๐๐๐ก |๐ |) il segno è determinato dalla posizione dell’elemento: se la 31 ๐33 ๐31 ๐32 ๐33 somma della riga e della colonna è dispari si mette un – d’avanti ๐11 ๐12 ๐13 ๐21 ๐22 (๐21 ๐22 ๐23 ) ๐13 (๐๐๐ก |๐ |) 31 ๐32 ๐31 ๐32 ๐33 si sommano gli elementi calcolati precedentemente ๐22 ๐23 ๐21 ๐23 ๐21 ๐22 ๐11 (๐๐๐ก |๐ |) − ๐12 (๐๐๐ก |๐ |) + ๐13 (๐๐๐ก |๐ |) ๐ ๐ 32 33 31 33 31 ๐32 Complemento algebrico e sviluppo di Laplace Il complemento algebrico di un elemento di una matrice è il determinante della matrice che si ottiene cancellando la riga e la colonna che si incrociano in quell’elemento con un segno. Numero riga + numero colonna pari segno + altrimenti segno ๐11 ๐21 ๐ด = ( ๐31 … ๐๐1 ๐12 ๐22 ๐32 … ๐๐2 … ๐1๐ ๐12 … ๐2๐ ๐ 32 … ๐3๐ ) il complemento algebrico di a21 è – ๐๐๐ก ( … … … ๐๐2 … ๐๐๐ … ๐1๐ … ๐3๐ ) … … … ๐๐๐ Sviluppo di Laplace Il determinante di A si ottiene moltiplicando gli elementi di una riga(o colonna) per i loro complementi algebrici e facendo la somma dei risultati. Proprietà dei determinanti: ๏ท ๏ท ๏ท ๏ท ๏ท ๏ท ๏ท ๏ท il determinante è nullo se: una riga è nulla, una colonna è nulla, la riga i-esima è uguale alla j-esima, la colonna iesima è uguale alla j-esima se moltiplico la matrice A per un numero non nullo il determinante è uguale a ๐๐ โ ๐๐๐ก๐ด se moltiplico una sola riga di A il determinante è uguale a ๐ โ ๐๐๐ก๐ด ๐ + ๐11 … ๐1๐ + ๐1๐ se ogni elemento di A è la somma di due elementi ๐ด = 11 il determinante è uguale a … … … ๐ … ๐1๐ ๐ … ๐1๐ det | 11 | + det | 11 | … … … … … … det(๐ด โ ๐ต) = det ๐ด โ det ๐ต (Teorema di Binet) se alla matrice A scambiamo una riga ๐ ๐ ↔ ๐ ๐ ⇒ det ๐ด′ = −det ๐ด se sostituiamo alla i-esima riga la i-esima riga + a volte la j-esima il determinante non cambia. Il prodotto dei pivo di una matrice quadrata è, al meno del segno, il determinante della matrice. ๐1 โ … โ ๐๐ = |det ๐ด| Determinante e invertibilità = 0 ๐ด ๐๐๐ è ๐๐๐ฃ๐๐๐ก๐๐๐๐๐ det ๐ด { ≠ 0 ๐ด è ๐๐๐ฃ๐๐๐ก๐๐๐๐๐ det(๐ด−1 ) = 1 det ๐ด calcolo dell’inversa attraverso il determinante: A-1 è uguale a 1 per la matrice det ๐ด che si ottiene scrivendo al posto degli elementi della matrice i loro complementi algebrici dopo aver scambiato le righe con le colonne ๐ด−1 = ๐11 1 (๐12 … det ๐ด ๐1๐ ๐21 … … .. … ๐๐1 … … … … ) … ๐๐๐ Teorema degli orlati Sia ๐ด ∈ ๐๐,๐ (โ); una sottomatrice quadrata di ordine p di A è una matrice A' ottenuta considerando solo p righe e colonne fissate di A. Se ad A’ aggiungiamo un’altra riga e un'altra colonna di A diremo che stiamo orlando A’ Teorema degli orlati: Sia ๐ด ∈ ๐๐,๐ (โ) una matrice. Allora rgA=r se e solo se esiste una sottomatrice A’ di ordine r di A non singolare, e tutte le sottomatrici di ordine r+1 di A ottenute orlando A’ anno determinante nullo. Matrici simili Due matrici simili hanno lo stesso rango, determinante e traccia. Si dice quindi che rango, determinante e traccia sono invarianti per similitudine. In matematica, si definisce traccia di una matrice quadrata la somma di tutti gli elementi della sua diagonale principale. Regola di Cramer Dato Ax=B, risolubile con rgA=rgA|B, con m equazioni ed n incognite, se vi è una sola soluzione (soluzioni libere date da n-rgA quindi uguale a 0, per cui dovrà anche essere quadrata), con determinanre diverso da 0 (quindi invertibile) si possono trovare le soluzioni attraverso la regola di Cramer. ๐ฅ = ๐ด−1 ๐ต ← ๐ด−1 (๐ด๐ฅ) = ๐ด−1 ๐ต = ๐ผ๐ ๐ฅ = ๐ด−1 ๐ต ๐11 ๐21 1 … ๐ฅ = ๐ด−1 ๐ต = (๐12 … … det ๐ด ๐1๐ . . … ๐๐1 ๐1 … … … … )( โฎ ) ๐๐ … ๐๐๐ più semplicemente si possono usare i determinante per trovare le soluzioni: ๐ฅ1 = ๐1 โฏ det| โฎ โฎ| ๐๐ โฏ cioè si det ๐ด ๐ฅ2 = ๐11 ๐1 det| โฎ โฎ ๐๐1 ๐๐ det ๐ด sostituisce alla colonna dell’incognita che vogliamo trovare la colonna delle soluzioni. โฏ โฎ| โฏ Autovalori e autovettori di un endomorfismo endomorfismo: applicazione lineare โ๐ in se stesso ๐ è un autovalore di f se esiste un vettore non nullo v t.c. si abbia: f(v)= ๐v. (cioè il vettore uscito dall’applicazione lineare risulta essere un multiplo del vettore iniziale stesso!) se una matrice è diagonale trovo come autovalori gli elementi della diagonale stessa Per trovare gli autovalori usiamo il polinomio caratteristico ๐(๐) = 0 che si ottiene sottraendo alla matrice associata all’applicazioni ๐๐ผ๐ ossia ๐(๐) = [det(๐ด − ๐๐ผ๐) = 0] Per trovare gli autospazi la cui dimensione è sempre maggiore di 1 bisogna risolvere il sistema (๐ด − ๐๐ผ๐)๐ = 0 dove al posto di ๐ sostituiremo i valori trovati. Le soluzioni formano il sottospazio vettoraile. L’autospazio corrisponde al ker di ๐ด − ๐๐ผ๐ dim ๐๐ = dim ๐ − ๐๐(๐ด − ๐๐ผ๐) ๐ è un autovalore di molteplicità m e ๐๐ è l’autospazio associato, allora 1 ≤ dim ๐๐ ≤ ๐ Diagonalizzabilità Dati autovalori ๐1 , … , ๐๐ appartenente hai reali, ognuno dei quali di molteplicità ๐1 , … , ๐๐ dove la loro somma è uguale a n ; Dati gli autospazi ๐๐1 , … , ๐๐๐ di dimensione D1,…,Dr che risulta essere uguale alla molteplicità del relativo autovalore ๐ท1 = ๐1 , … , ๐ท๐ = ๐๐ allora f è un endomorfismo semplice. Allora A associata all’endomorfismo f è diagonalizzabile. Criterio sufficiente è che ๐: โ๐ → โ๐ ha esattamente n autovalori distinti (cioè tutti di molteplicità 1) è diagonalizzabile (questò perche la dim dell’autospazio non può essere inferiore ad uno, ma nemmeno suoeriore alla molteplicità, quindi è già dimostrato la regola precedente), cioè esiste P invertibile t.c. ๐ −1 ๐ด๐ è diagonale e P si ottiene mettendo come colonne i vettori di una base di ๐๐1 seguiti da una base di ๐๐2 fino ad esaurire gli autospazi. Teorema spettrale Sia ๐: ๐ → ๐ un endomorfismo simmetrico di uno spazio vettoriale metrico. Allora autovettori di T relativi ad autovalori distinti sono automaticamente ortogonali. Sia ๐: ๐ → ๐ un endomorfismo di uno spazio vettoriale metrico V. Allora esiste una base ortonormale B di V composta da autovettori di T se e solo se T è simmetrico. Cambiamenti di Base Ogni volta che abbiamo due basi B e B’ di uno spazio vettoriale V troviamo una matrice invertibile B che trasforma le coordiante rispetto a b’ nelle coordinate rispetto a B. In concreto, preso un vettore ๐ฃ ∈ ๐ siano ๐ฅ = ๐น๐ต (๐ฃ) ∈ ๐พ ๐ le sue coordinate rispetto a B, e ๐ฅ′ = ๐น๐ต′ (๐ฃ) ∈ ๐พ ๐ le sue coordinate rispetto a B’. allora si ha x=Bx’. La matrice di cambiamento di base si trova mettendo per colonne le coordinate dei vettori della nuova base B’ rispetto alla vecchia base B. La matrice B viene chiamata di cambiamento di base (o di passaggio) da B a B’. Chiaramente, ๐ต−1 è la matrice di cambiamento di base da B’ a B, cioè nella direzione inversa. e.s.: ๐ = โ2 [๐ก], ๐ต = {1, ๐ก, ๐ก 2 } ๐ ๐ต′ = {1, ๐ก − 1,2๐ก 2 + 4๐ก − 6} allora la matrice di cambiamento di base da B A B’ contiene per colonne le coordinate dei polinoimo di B’ rispetto alla base B, cioè: 1 −1 ๐ต = |0 1 0 0 −6 4| 2 quindi in generale bisogna calcolare tutte le coordinate dei vettori di B’ rispetto a B. Possiamo per semplicizzare anche spezzare il cambiamento di base mettendo un passaggio intermedio. Scegliamo una base B0 (che sia semplice da scrivere in base B) e chiamiamo C questa matrice di cambiamento di base da B a B0. Essendo molto più semplice scrivere la matrice di cambiamento di base da B’ a B0 scriviamo questa nuova matrice e poi trovando l’inversa abbiamo trovato la nostra matrice D. B sarà quindi uguale a B=A1 C. Geometria affine Se L è lo spazio delle soluzioni del sistema Ax=B, dove ๐ด ∈ ๐๐,3 (โ) ๐ ๐ต ∈ โ๐ , diremo che Ax=B è un equazione cartesiana per L. La dimensione di L è 3 − ๐๐๐ด, è il sottospazio di giacitura di L è lo spazio V delle soluzioni del sistema omogeneo Ax=0 Il numero minimo di equazioni necessarie per descrivere un sottospazio affine è dato dalla dimensione dello sapzio ambiente meno la dimensione del sottospazio. Equazione cartesiana di un piano nello spazio: Ax+by+cz=d rappresenta l’equazione di un piano in โ3 ammesso che la matrice A=|๐ ๐ ๐ | abbia rango 1. A,b,c si dicono parametri di giacitura del piano, che non sono univocamente determinati; Equazioni di rette e piani Equazione cartesiana di una retta nello spazio: ๐๐ฅ + ๐๐ฆ + ๐๐ง = ๐ ๐ ๐ ๐ { ′ rappresenta l’equazione di un retta in โ3 non appena la matrice A=| | ha rango ๐ ๐ฅ + ๐ ′ ๐ฆ + ๐ ′ ๐ง = ๐′ ๐′ ๐′ ๐′ 2. (in questo modo la retta è rappresentata come l’intersezione di due piani) Equazioni parametriche: se l è l’insieme dei punti ๐ ∈ โ3 della forma P=P0+Bt, al variare di t in โ๐ , dove ๐0 ∈ โ3 ๐ ๐ต ∈ ๐3,๐ (โ), diremo che P=P0+Bt è un equazione parametrica per L. Il sottospazio L ha dimensione rgB, e il sottospazio vettoriale V di giacitura di L ha equazione parametrica P=Bt. Equazioni parametriche di una retta nello spazio: ๐ฅ = ๐ฅ0 + ๐๐ก {๐ฆ = ๐ฆ0 + ๐๐ก ๐ง = ๐ง0 + ๐๐ก ๐ ๐๐๐๐ข๐๐ ๐ = ๐0 + ๐ก |๐| al variare di t in R rappresentano una retta nello spazio, non appena il ๐ ๐ vettore V=|๐| che detto vettore direttore della retta, non è il vettore nullo. L,m,n sono i parametri direttori ๐ della retta. Equazioni parametriche di un piano nello spazio: ๐ฅ = ๐ฅ0 + ๐๐ + ๐′๐ก ๐ ๐′ {๐ฆ = ๐ฆ0 + ๐๐ + ๐′๐ก ๐๐๐๐ข๐๐ ๐ = ๐0 + ๐ |๐ | + ๐ก |๐′| al variare di s,t in R rappresentano un piano nello ๐ ๐′ ๐ง = ๐ง0 + ๐๐ + ๐′๐ก ๐ ๐′ spazio non appena la matrice ๐ต = |๐ ๐′| ha rango due ๐ ๐′ Punti e rette Rette e un punto nel piano Dato un punto P0=(x0,y0), vogliamo tutte le rette passanti per questo punto. Sostituiamo a t 0 Le equazioni parametriche sono: ๐ฅ = ๐ฅ0 + ๐ก๐ { quali che siano ๐, ๐ ∈ โ non tutti nulli ๐ฆ = ๐ฆ0 + ๐ก๐ equazioni cartesiane ๐(๐ฅ − ๐ฅ0 ) + ๐(๐ฆ − ๐ฆ0 ) = 0 L’insieme delle rette del piano passanti per P0 si chiama fascio di rette di centro P0 Rette e un punto nello spazio Dato p0=(x0,y0,z0) ∈ โ3 le eqauzioni parametriche sono: ๐ฅ = ๐ฅ0 + ๐ก๐ {๐ฆ = ๐ฆ0 + ๐ก๐ quali che siano ๐, ๐, ๐ ∈ โ non tutti nulli ๐ง = ๐ง0 + ๐ก๐ le equazioni cartesiane ๐(๐ฅ − ๐ฅ0 ) + ๐(๐ฆ − ๐ฆ0 ) + ๐(๐ง − ๐ง0 ) = 0 { ′ ๐ (๐ฅ − ๐ฅ0 ) + ๐ ′(๐ฆ−๐ฆ0 ) + ๐ ′ (๐ง − ๐ง0 ) = 0 l’insieme delle rette dello spazio passanti per P0 si chiama stelle di rette di centro P0 Una retta e due punti Dati ๐0 = (๐ฅ0 , ๐ฆ0 ) ๐ ๐1 = (๐ฅ1 , ๐ฆ1 ) ∈ โ2 vogliamo la retta passante per questi due punti. Bisonga quindi trovare ๐ฅ = ๐ฅ0 + ๐ก๐ l,m in R t.c. il sistema nell’incognita t { 1 abbia soluzione. Per Rouché-Capelli il sistema ha soluzione ๐ฆ1 = ๐ฆ0 + ๐ก๐ ๐ ๐ฅ1 − ๐ฅ0 ๐ se e solo se 1 = ๐๐ | | = ๐๐ | |, quindi questo accade se e solo se ๐(๐ฆ1 − ๐ฆ0 ) − ๐(๐ฅ1 − ๐ฅ0 ) = 0. ๐ ๐ฆ1 − ๐ฆ0 ๐ Quindi le equazioni parametriche sono: ๐ฅ = ๐ฅ0 + (๐ฅ1 − ๐ฅ0 )๐ก { ๐ฆ = ๐ฆ0 + (๐ฆ1 − ๐ฆ0 )๐ก Le equazioni cartesiane sono: (๐ฆ1 − ๐ฆ0 )(๐ฅ − ๐ฅ0 ) − (๐ฅ1 − ๐ฅ0 )(๐ฆ − ๐ฆ0 ) = 0 Retta passante per due punti nello spazio ๐0 = (๐ฅ0 , ๐ฆ0 , ๐ง0 ) ๐ ๐1 = (๐ฅ1 , ๐ฆ1 , ๐ง1 ) ∈ โ3 le equazioni parametriche sono: ๐ฅ = ๐ฅ0 + (๐ฅ1 − ๐ฅ0 )๐ก {๐ฆ = ๐ฆ0 + (๐ฆ1 − ๐ฆ0 )๐ก ๐ง = ๐ง0 + (๐ง1 − ๐ง0 )๐ก (๐ฆ − ๐ฆ0 )(๐ฅ − ๐ฅ0 ) − (๐ฅ1 − ๐ฅ0 )(๐ฆ − ๐ฆ0 ) = 0 le equazioni cartesiane sono { 1 (๐ง1 − ๐ง0 )(๐ฅ − ๐ฅ0 ) − (๐ฅ1 − ๐ฅ0 )(๐ง − ๐ง0 ) = 0 Punti e piani Un punto e un piano Dato un punto P0=(x0,y0,z0) ∈ โ3 vogliamo tutti i piani che passano per quel punto. Le euqazioni parametriche sono: ๐ฅ = ๐ฅ0 + ๐๐ + ๐′๐ก {๐ฆ = ๐ฆ0 + ๐๐ + ๐′๐ก ๐ง = ๐ง0 + ๐๐ + ๐′๐ก mentre le equazioni cartesiane sono: ๐(๐ฅ − ๐ฅ0 ) + ๐(๐ฆ − ๐ฆ0 ) + ๐(๐ง − ๐ง0 ) = 0 L’insieme dei piani passanti per P0 si chiama stella di piani di centro P0 un piano e due punti dati i punti ๐0 = (๐ฅ0 , ๐ฆ0 , ๐ง0 ) ๐ ๐1 = (๐ฅ1 , ๐ฆ1 , ๐ง1 ) ∈ โ3 ๐๐๐ ๐0 ≠ ๐1 Prodotti scalari Fissato un sistema di riferimento affine RA(0,i,j) con i vettori i,j di lungezza 1 e che formino fra di loro un angolo di ๐ 2 โโโโโโ โ ๐ โ๐ฃ1 โ. โ๐ฃ1 โ viene detto La distanza d(O,P) di P dall’origine è data ๐(๐, ๐) = √๐ฅ12 + ๐ฆ12 e si scrive come โ๐๐ norma. โโโโโโ − โโโโโโโ ๐(๐, ๐) = √(๐ฅ2 − ๐ฅ1 )2 + (๐ฆ2 − ๐ฆ1 )2 = โ๐ฃ2 − ๐ฃ1 โ = โ๐๐ ๐๐ โ ๐ฅ { cos ๐ = โ๐ฃ1โ ๐ฆ 1 sin ๐ = โ๐ฃ1โ 1 { ๐ฅ { cos(๐ + ๐) = โ๐ฃ2โ ๐ฆ 2 sin(๐ + ๐) = โ๐ฃ2 โ cos ๐ cos ๐ − sin ๐ sin ๐ sin ๐๐๐๐ ๐ + cos ๐ sin ๐ che con le formule di addizione trigonometrica si trasformano in 2 ๐ฅ = โ๐ฃ2โ 2 che ๐ฆ = โ๐ฃ2 โ 2 è un sistema nelle incognite cos ๐, sin ๐. cos ๐ = ๐ฅ1 ๐ฅ2 +๐ฆ1 ๐ฆ2 โ๐ฃ1 โโ๐ฃ2 โ 〈๐ฃ ,๐ฃ 〉 viene quindi associato hai vettori ๐ฃ1 ๐ ๐ฃ2 il numero 〈๐ฃ1 , ๐ฃ2 〉 = ๐ฅ1 ๐ฅ2 + ๐ฆ1 ๐ฆ2 da cui si ha che cos ๐ = โ๐ฃ 1โโ๐ฃ2 โ. 1 2 Anche la norma si può definire tramite 〈๐ฃ1 , ๐ฃ2 〉 ๐๐ è ๐ข๐๐ข๐๐๐ ๐ √〈๐ฃ1 , ๐ฃ2 〉 Due vettori sono ortogonali fra di loro se e solo se il coseno vale 0 quindi se e solo se 〈๐ฃ1 , ๐ฃ2 〉 = 0 Il prodotto scalare canonico Il prodotto scalare canonico 〈โ,โ〉: โ๐ × โ๐ → โ ๐ ๐ข โ๐ è la funzione data da 〈๐ฃ, ๐ค 〉 = ๐ฃ1 ๐ค1 + โฏ + ๐ฃ๐ ๐ค๐ = ๐ค ๐ก โ ๐ฃ per ogni ๐ฃ = (๐ฃ1 , … , ๐ฃ๐ )๐ก , ๐ค = (๐ค1 , … , ๐ค๐ )๐ก ∈ โ๐ , dove il prodotto all’ultimo membro è il solito prodotto righe per colonne. La norma associata al prodotto scalare canonico è la funzione โโโ: โ๐ → โ+ data da โ๐ฃโ = √〈๐ฃ, ๐ฃ〉 = 1 (๐ฃ12 + โฏ + ๐ฃ๐2 )2 Proprietà: ๏ท ๏ท ๏ท ๏ท ๏ท È lineare rispetto alla prima variabile È lineare rispetto alla seconda variabile 〈๐ฃ, ๐ค 〉 = 〈๐ค, ๐ฃ 〉 (simmetria) si ha 〈๐ฃ, ๐ค 〉=0 per ogni ๐ค ∈ ๐ se e solo se v=0 (non è degenere) per tutti i ๐ฃ ∈ โ๐ ๐๐๐ ๐ฃ ≠ 0 si ha 〈๐ฃ, ๐ฃ 〉 > 0 (è definito positivo) sia V uno spazio vettoriale su โ. Una forma bilineare su V è un applicazione ๐: ๐ × ๐ → โ t.c. ๐(๐ฃ1 + ๐ฃ2 , ๐ค) = ๐(๐ฃ1 , ๐ค) + ๐(๐ฃ2 , ๐ค), ๐(๐ฃ, ๐ค1 + ๐ค2 ) = ๐(๐ฃ, ๐ค1 ) + ๐(๐ฃ, ๐ค2 ) ๐(๐๐ฃ, ๐ค) = ๐๐(๐ฃ, ๐ค) = ๐(๐ฃ, ๐๐ค) sia 〈โ,โ〉 un prodotto scalare su uno spazio vettoriale V. il nucleo di 〈โ,โ〉 è l’insieme ๐ ⊥ dei vettori v ∈ V t.c. 〈๐ฃ, ๐ค 〉 = 0 per ogni w ∈ V. sia V uno spazio vettoriale su โ. Un prodotto scalare 〈โ,โ〉 su V si dice non degenere se ๐ ⊥ = {0}; degenere altrimenti. Basi ortogonali Sia V uno spazio vettoriale metrico, e v1,…,vk ∈ ๐ vettori non nulli ortogonali a due a due, cioè t.c. ๐ฃ๐ ⊥ ๐ฃ๐ non appena ๐ ≠ ๐. Allora v1,…,vk sono linearmente indipendenti. In particolare, se dimV=n allora n vettri non nulli ortogonali a due e due sono automaticamente una base di V. Una base ortogonale di uno spazio vettoriale metrico V è una base {๐ฃ1 , … , ๐ฃ๐ } di V composta da vettori a due a due ortogonali, ovvero t.c. 〈๐ฃ๐ , ๐ฃ๐ 〉 = 0 per 1 ≤ ๐ ≠ ๐ ≤ ๐ Una base ortonormale di uno spazio vettoriale metrico V è una base ortogonale composta da vettori di lunghezza unitaria (ovvero, composta da versori). 〈๐ฃ,๐ฃ1 〉 ๐ฃ1 1 ,๐ฃ1 〉 Sia {๐ฃ1 , … , ๐ฃ๐ } una base ortogonale di uno spazio vettoriale metrico V. Allora ๐ฃ = 〈๐ฃ 〈๐ฃ,๐ฃ๐ 〉 ๐ฃ๐ ๐ ,๐ฃ๐ 〉 + โฏ + 〈๐ฃ per ogni ๐ฃ ∈ ๐. In particolare se {๐ฃ1 , … , ๐ฃ๐ } è una base ortogonale si ha ∀ ๐ฃ ∈ ๐ ๐ฃ = 〈๐ฃ, ๐ฃ1 〉๐ฃ1 + โฏ + 〈๐ฃ, ๐ฃ๐ 〉๐ฃ๐ Sia {๐ฃ1 , … , ๐ฃ๐ } una base ortogonale di uno spazio vettoriale metrico V. Allora∀ ๐ฃ, ๐ค ∈ ๐ 〈๐ฃ, ๐ค 〉 = โฏ+ 〈๐ฃ,๐ฃ1 〉〈๐ฃ1 ,๐ค〉 〈๐ฃ1 ,๐ฃ1 〉 + 〈๐ฃ,๐ฃ๐ 〉〈๐ฃ๐ ,๐ค〉 e 〈๐ฃ๐ ,๐ฃ๐〉 ∀๐ฃ ∈๐ โ๐ฃ โ2 = |〈๐ฃ,๐ฃ1 〉|2 โ๐ฃ1 โ2 + โฏ+ |〈๐ฃ,๐ฃ๐ 〉|2 โ๐ฃ๐ โ2 , in particolare se {๐ฃ1 , … , ๐ฃ๐ } è una base ortonormale di V si ha che ∀ ๐ฃ, ๐ค ∈ ๐ 〈๐ฃ, ๐ค 〉 = 〈๐ฃ, ๐ฃ1 〉〈๐ฃ1 , ๐ค 〉 + โฏ + 〈๐ฃ, ๐ฃ๐ 〉〈๐ฃ๐ , ๐ค 〉 formula di Parseval e che ∀ ๐ฃ ∈ ๐ |〈๐ฃ, ๐ฃ1 〉|2 + โฏ + |〈๐ฃ, ๐ฃ๐ 〉|2 โ๐ฃ โ2 = teorema di Pitagora sia V uno spazio vettoriale metrico, e ๐ฃ1 , … , ๐ฃ๐ ∈ ๐ linearmente indipendenti. Allora esistono w1,…wr che soddisfano le seguenti proprietà: 1. ๐ ๐๐๐(๐ค1 , … , ๐ค๐ ) = ๐ ๐๐๐(๐ฃ1 , … , ๐ฃ๐ ) ๐๐๐ ๐๐๐๐ ๐ = 1, … ๐ 2. ๐ค๐ è ortogonale a ogni elemento di ๐ ๐๐๐(๐ค1 , … , ๐ค๐−2 ) per ogni j=2,…,r 3. 〈๐ค๐ , ๐ฃ๐ 〉 > 0 per ogni j=1,…,r gli elementi sono univocamente determinati a meno di fattori scalari positivi; in altri termini se ๐ค′1 , … , ๐ค′๐ sono altri elementi di V che soddisvano le proprietà 1-3 allora ๐ค๐′ = ๐ผ๐ ๐ค๐ ๐๐๐ ๐ผ๐ > 0 ๐๐๐ ๐ = 1, … , ๐. Infine, gli ๐−1 〈๐ฃ๐ ,๐คโ〉 ๐คโ , ๐๐๐ โ ,๐คโ〉 elementi ๐ค′1 , … , ๐ค′๐ sono ottenuti ponendo w1=v1 e ๐ค๐ = ๐ฃ๐ − ∑โ=1 〈๐ค ๐ = 2, … , ๐ Sia B={๐ฃ1 , … , ๐ฃ๐ } una base di uno spazio vettoriale metrico V. Allora esiste un’unica base ortonormale B’={u1,…,un} di V t.c. si abbia 〈๐ข๐ , ๐ฃ๐ 〉 > 0 e ๐ ๐๐๐(๐ฃ1 , … , ๐ฃ๐ ) = ๐ ๐๐๐(๐ข1 , … , ๐ข๐ ) ๐๐๐ ๐๐๐๐ ๐ = 1, … ๐ Siano ๐ฃ1 , … , ๐ฃ๐ vettori a due a due ortogonali di uno spazio vettoriale metrico V di dim ๐ ≥ ๐. Allora esistono vettori ๐ค๐+1 , … , ๐ค๐ ∈ ๐ t.c. ๐ต = ๐ฃ1 , … , ๐ฃ๐ + ๐ค๐+1 , … , ๐ค๐ sia una base ortogonale di V. Inoltre, se โ๐ฃ๐ โ = 1 per j=1,…,r, allora ๐ค๐+1 , … , ๐ค๐ possono essere scelti in modo che B sia una base ortonormale di V. Proiezioni ortogonali Sia V uno spazio vettoriale metrico, e U un sottospazio di V. Allora per ovni v0 ∈ ๐ esiste un unico u0 ∈ ๐ t.c. v0u0 sia ortogonale a tutti gli elementi di U. Sia U un sottospazio vettoriale di uno spazio vettoriale metrico V. L’applicazione lineare ๐๐ : ๐ → ๐ appena definita si dice proiezione ortogonale di V su U. Nota che ๐๐ (๐ข) = ๐ข per ogni ๐ข ∈ ๐, e che ๐ผ๐๐๐ = ๐ sia V uno spazio vettoriale equipaggiato con un prodotto scalare 〈โ,โ〉. L’ortogonale di un sottoinsieme ๐ ⊆ ๐ è l’inisieme ๐ ⊥ di tutti gli elementi di V ortogonali a S. Nel caso in cui sia S un sottospazio vettoriale di U di V (e 〈โ,โ〉 sia definito positivo), allora ๐ ⊥ è detto supplemento ortogonale di U. Endomorfismo simmetrici Sia ๐: ๐ → ๐ un endomorfismo di uno spazio vettoriale metrico V. Diremo che T è simmetrico (o autoaggiunto) se 〈๐(๐ฃ1 ), ๐ฃ2 〉 = 〈๐ฃ1 , ๐(๐ฃ2 )〉, ∀๐ฃ1 , ๐ฃ2 ∈ ๐ Sia ๐: ๐ → ๐ un endomorfismo di uno spazio vettoriale metrico V. Diremo che T è un’isomeria (lineare), o endorfismo ortogonale, se 〈๐(๐ฃ1 ), ๐(๐ฃ2 )〉 = 〈๐ฃ1 , ๐ฃ2 〉 ∀ ๐ฃ1 , ๐ฃ2 ∈ ๐. Sia ๐: ๐ → ๐ un endomorfismo di uno spazio vettoriale metrico V. Allora le seguenti affermazioni sono equivalenti: 1. T è un’isomeria 2. Se {v1,…,vn} è una base ortonormale di V, anche {๐(๐ฃ1 ), … , ๐(๐ฃ๐ )} lo è 3. โ๐(๐ฃ)โ = โ๐ฃ โ, ∀ ๐ฃ ∈ ๐ (ed in particolare T è invertibile) Geometria Euclidea Il piano euclideo ๐ 2 e lo spazio euclideo ๐ 3 sono piani o spazi affini in cui sia stata fissata un’unità di misura per le lunghezze. Un sistema di riferimento cartesiano ๐ ๐ถ(๐, ๐ด1 , ๐ด2 , ๐ด3 ) DI ๐ 3 è un sistema di riferimento affine RA(๐, ๐ด1 , ๐ด2 , ๐ด3 ) โโโโโโโโโ1 , ๐โ = ๐๐ด โโโโโโโโโ2 , ๐โโ = ๐๐ด โโโโโโโโโ3 siano di lunghezza unitaria e ortogonali a due a due. tale che i vettori ๐โ = ๐๐ด Una retta orientata è una retta cui sia fissiato un vettore direttore (e quindi una direzione di percorrenza). Due diversi vettori direttori determinano la stessa orientazione se e solo se sono un multiplo positivo dell’altro. In particolare, esiste un unico vettore di lunghezza unitaria che determina l’orientazione scelta: il versore direttore della retta orientata. Se ๐ฃ = ๐ผ๐โ + ๐ฝ๐โ + ๐พ๐โโ è l’espressione del versore direttore v come combinazione lineare della base {๐โ + ๐โ + ๐โโ} di ๐๐3 , ๐๐๐๐๐๐ ๐ผ, ๐ฝ, ๐พ ∈ โ sono detti coseni direttori della retta L’angolo ๐ฬ 0 ๐1 fra due rette orientate r0 ed r1 è l’angolo fra i loro versori direttori due rette r0 ed r1 aventi eq. parametriche ๐ = ๐0 + ๐ก๐ฃ0 e ๐ = ๐1 + ๐ ๐ฃ1 dove ๐ฃ0 = (๐0 , ๐0 , ๐0 )๐ ๐ฃ1 (๐1 , ๐1 ๐1 ) che determinano le orientazioni scelte, allora l’angolo fra le rette è dato da cos ๐ฬ 0 ๐1 ๐0 ๐1 +๐0 ๐1+๐0๐1 √๐02 +๐02+๐02 √๐12 +๐12+๐12 ๐0 ๐1 + ๐0 ๐1 + ๐0 ๐1 = 0 〈๐ฃ ,๐ฃ 〉 = โ๐ฃ 0โโ๐ฃ1 โ = 0 1 , in particolare due rette sono ortogonali se e solo se cos ๐ฬ 0 ๐1 = 0 ossia che