Vettori geometrici Equazioni di rette e piani

Vettori geometrici
Fissato su A1 un punto O e unโ€™unità di misura, cioè un segmento OA, otteniamo un applicazione bigettiva fra i
punti della retta e i numeri reali; Ciò introduce una somma e un prodotto che lo rendono campo. ๐‘ฃ๐‘œ2 con somma
è un gruppo commutativo. È inoltre definito un prodotto per uno scalare. In ๐‘ฃ๐‘œ2 è possibile definire un
applicazione bigettiva ๐น๐‘ : ๐‘ฃ๐‘œ2 โ†’ โ„2 che associa a ogni vettore una coppia di numeri. Dato che entrambi hanno la
sessa struttura algebrica diremo che sono isomorfi e che ๐น๐‘ è un isomorfismo.
Lโ€™isomorfismo è un applicazione biunivoca t.c. ๐น๐‘ ๐‘’ ๐น๐‘ โˆ’1 sono omomorfisti, ossia che conservano le operazioni
in esse definite.
Riferimento affine
Lโ€™insieme formato da un punto ๐‘‚ โˆˆ ๐ด2 e da due vettori non proporzionali ๐‘–โƒ— ๐‘’ ๐‘—โƒ— โˆˆ ๐‘ฃ๐‘œ2 si chiama sistema di
riferimento affine RA(๐‘‚, ๐‘–โƒ—, ๐‘—โƒ—) del piano.
Equazioni di rette e piani
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ— = ๐‘ก๐‘‚๐‘„
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ— . Se
Se r passa per lโ€™origine per sapere se un punto P appartiene alla retta, basta risolvere lโ€™equazione: ๐‘‚๐‘ƒ
la retta r è invece qualunque, prendiamo un punto ๐‘ƒ0 โˆˆ ๐‘Ÿ, e sia r0 la retta parallela ad r passante per O.
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ— = ๐‘‚๐‘ƒ
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—0 + ๐‘ก๐‘‚๐‘„
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ— (equazione vettoriale della retta; OQ si chiama vettore direttore)
Lโ€™equazione sarà dunque ๐‘‚๐‘ƒ
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—1 + ๐‘ก(๐‘‚๐‘ƒ
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—2 โˆ’ โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—
P appartiene alla retta passante per P1 e P2 se e solo se โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—
๐‘‚๐‘ƒ = ๐‘‚๐‘ƒ
๐‘‚๐‘ƒ1 )
Un punto P appartiene al piano ๐œ‹ โ‡” โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—
๐‘‚๐‘ƒ = โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—
๐‘‚๐‘ƒ0 + ๐‘ ๐‘–โƒ— + ๐‘ก๐‘—โƒ— (equazione vettoriale del piano; i,j s chiamoano
vettori di giacitura del piano)
Sia una retta passante per P0 con vettore direttore OQ e rโ€™ con vettore direttore OQโ€™, le due rette si intersecano
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โ€ฒ โˆ’ ๐‘‚๐‘ƒ
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—, in altre parole se e solo se ๐‘‚๐‘ƒ
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โ€ฒ โˆ’ ๐‘‚๐‘ƒ
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—0 = ๐‘ก๐‘‚๐‘„
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ— โˆ’ ๐‘ก โ€ฒ ๐‘‚๐‘„โ€ฒ
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—0
ne punto X se e solo se esistono t e tโ€™ t.c. ๐‘‚๐‘ƒ
0
0
appartiene al piano generato dai vettori direttori.
Equazioni parametriche
๐‘ฅ0
๐‘ฅ
๐‘™
Fissato RA(๐‘‚, ๐‘–โƒ—, ๐‘—โƒ—) chiamiamo |๐‘ฆ | le coordinate del punto P0, | | le coordinate di Q, e |๐‘ฆ| le coordinate del
0
๐‘š
punto generico P.
๐‘ฅ
๐‘ฅ0
๐‘™
|๐‘ฆ| = |๐‘ฆ | + ๐‘ก | | quindi il punto p appartienene alla retta se e solo se le sue coordinate sono date da
0
๐‘š
๐‘ฅ = ๐‘ฅ0 + ๐‘ก๐‘™
{
(equazione parametrica di una retta nel piano)
๐‘ฆ = ๐‘ฆ0 + ๐‘ก๐‘š
๐‘ฅ0
|๐‘ฆ0 | + ๐‘ก
๐‘ง0
๐‘ฅ = ๐‘ฅ0 + ๐‘ก๐‘™
๐‘™
๐‘š
| | {๐‘ฆ = ๐‘ฆ0 + ๐‘ก๐‘š equazione parametrica di una retta nello spazio (p appartiene alla retta se
๐‘›
๐‘ง = ๐‘ง0 + ๐‘ก๐‘›
e solo se le sue coordinate sono date da questa equazione)
๐‘ฅ
|๐‘ฆ| =
๐‘ง
๐‘ฅ = ๐‘ฅ0 + +๐‘ ๐‘™ + ๐‘ก๐‘™โ€ฒ
๐‘ฅ0
๐‘™
๐‘™โ€ฒ
๐‘ฆ
0
๐‘ฆ
| | + ๐‘  |๐‘š| ๐‘ก |๐‘šโ€ฒ| { = ๐‘ฆ0 + ๐‘ ๐‘š + ๐‘ก๐‘šโ€ฒ equazione parametrica di un piano nello spazio (p appartiene
๐‘ง0
๐‘›โ€ฒ
๐‘›
๐‘ง = ๐‘ง0 + ๐‘ ๐‘› + ๐‘ก๐‘›โ€ฒ
allo spazio se e solo se le sue coordinate sono date da questa equazione)
๐‘ฅ
|๐‘ฆ| =
๐‘ง
๐‘ฅ0
Se vogliamo trovare lโ€™intersezione fra due rette con equazioni parametriche una volta fissato RA(๐‘‚, ๐‘–โƒ—, ๐‘—โƒ—), P0 |๐‘ฆ |,
0
๐‘ฅโ€ฒ
๐‘™๐‘ก โˆ’ ๐‘™ โ€ฒ ๐‘ก โ€ฒ = ๐‘ฅ0โ€ฒ โˆ’ ๐‘ฅ0
๐‘™
๐‘ƒ0โ€ฒ | 0โ€ฒ |, Q | | e Qโ€™ | ๐‘™โ€ฒ | le rette si intersecheranno se e solo se {
, dove t e tโ€™ sono incognite.
๐‘ฆ0
๐‘š๐‘ก โˆ’ ๐‘šโ€ฒ ๐‘ก โ€ฒ = ๐‘ฆ0โ€ฒ โˆ’ ๐‘ฆ0
๐‘š
๐‘šโ€ฒ
|
๐‘ฅ โ€ฒ + ๐‘™โ€ฒ ๐‘ก0โ€ฒ
๐‘ฅ0 + ๐‘™๐‘ก0
| = | โ€ฒ0
|
๐‘ฆ0 + ๐‘š๐‘ก0
๐‘ฆ0 + ๐‘šโ€ฒ ๐‘ก0โ€ฒ
Lโ€™eliminazione di Gauss
Nota: per passare da un sistema con unica a una senza soluzioni(o con infinite soluzioni) si modificano i
coefficienti, mentre per passare da un sistema senza soluzioni a uno con infinite si modificano i termini noti!
Il numero n delle incognite è detto anche ordine del sistema, un sistema è compatibile se ammette almeno una
soluzione. Una soluzione è una n-upla (๐‘ฃ1 , โ€ฆ , ๐‘ฃ๐‘› ) che sostituiti nelle incognite ๐‘ฅ1 , โ€ฆ ๐‘ฅ๐‘› soddisfano il sistema.
๐ด๐‘–๐‘— dove i indica la riga e j la colonna. A viene detta diagonale se tutti gli elementi al di fuori della diagonale
principale sono nulli. Triangolare superiore se gli elementi al di sotto (cioè a sinistra) della diagonale principale
sono tutti nulli, Triangolare inferiore se invece sono zero gli elementi al di sopra.
Sistemi triangolari superiori
Un sistema triangolare superiore ๐ด๐‘ฅ = ๐ต di n equazioni in n incognite ammette una e una sola soluzione se e
solo se tutti gli elementi della diagonale principale di A sono diversi da 0 (si dimostra risolvendo allโ€™indietro).
Gauss
Due sistemi lineari dello stesso ordine si dicono equivalenti se hanno esattamente le stesse soluzioni. Si chiama
combinazioni lineare: โ„Ž(๐‘Ž1 ๐‘ฅ1 + โ‹ฏ + ๐‘Ž๐‘› ๐‘ฅ๐‘› ) + ๐‘˜(๐‘1 ๐‘ฅ1 + โ‹ฏ + ๐‘๐‘› ๐‘ฅ๐‘› ) = โ„Ž๐‘Ž + ๐‘˜๐‘. Facendo combinazioni lineari di
equazioni di un sistema le soluzioni non cambiano.
Il metodo di gauss consiste in un passo in meno dellโ€™ordine del sistema.
Un sistema lineare quadrato ammette un'unica soluzione se e solo se i pivot della sua matrice dei coefficienti
sono tutti non nulli.
Il prodotto di tutti i pivot è il valore assoluto del determinante della matrice
Una matrice quadrata è non singolare se tutti i suoi pivot (rispetto ad una eliminazione) sono non nulli, è
singolare altrimenti.
Spazio vettoriale
Lo spazio vettoriale è un insieme definito con una somma ed un prodotto di un numero per un vettore
La somma di due vettori e semplicemete la somma componente per componente. Il prodotto per uno scalare è
definito componente per componente
Proprietà degli spazi vettoriali:
1. Somma:
๏‚ท Commutativa
๏‚ท Esistenza del numero neutro
๏‚ท Associativa
๏‚ท Esistenza dello zero
๏‚ท Esistenza dellโ€™opposto
2. Prodotto:
๏‚ท Distributiva
๏‚ท associativa
๏‚ท Esistenza del numero neutro
W è un sottospazio vettoriale se soddisfa le proprietà degli spazi vettoriali, e se e chiuso rispetto alle operazioni
di somma e prodotto per scalare, quindi basta dimostrare che somma due elementi, lโ€™elemento risultante
rimanga nel sotto insieme, che il vettore risultante da uno scalare per un vettore appartenga al sottoinsieme e
lโ€™esistenza dellโ€™elemento nullo.
Un sistema lineare della forma ๐ด๐‘ฅ = 0 è detto omogeneo.
Sia ๐‘Š โŠ† โ„๐‘› lโ€™iniseme delle soluzioni del sistema lineare omogeneo in n incognite ๐ด๐‘ฅ = 0. Allora w è un
sottospazio vettoriale di Rn. Se il sistema non era omogeneo w non era sottospazio in quanto non conteneva il
vettore nullo.
Sia v uno spazio vettoriale; la combinazione lineare di k vettori ๐‘ฃ1 , โ€ฆ , ๐‘ฃ๐‘˜ con coefficienti (o pesi) ๐›ผ1 , โ€ฆ , ๐›ผ๐‘˜ è il
vettore ๐›ผ1 ๐‘ฃ1 + โ‹ฏ + ๐›ผ๐‘˜ ๐‘ฃ๐‘˜ . Lo span dei (o sottospazio generato dai) vettori ๐‘ฃ1 , โ€ฆ , ๐‘ฃ๐‘˜ è lโ€™insieme di tutte le
possibili combinazioni lineari. In simboli ๐‘ ๐‘๐‘Ž๐‘›(v1 , โ€ฆ , v๐‘˜ ) = {๐›ผ1 ๐‘ฃ1 + โ‹ฏ + ๐›ผ๐‘˜ ๐‘ฃ๐‘˜ | ๐›ผ1 , โ€ฆ , ๐›ผ๐‘˜ โˆˆ โ„ }.
Sia V uno spazio vettoriale, e v1 , โ€ฆ , v๐‘˜ vettori di V. Allora span(v1 , โ€ฆ , v๐‘˜ ) è un sottospazio di V.
Dipendenza e indipendenza lineare
๐‘Ž1 ๐‘ฃ1 + ๐‘Ž2 ๐‘ฃ2 + โ‹ฏ + ๐‘Ž๐‘› ๐‘ฃ๐‘› è una combinazione lineare
La combinazione lineare è linearmente indipendente se la combinazione che ha come risultato 0 è soddisfatta
โ†” ๐‘Ž1 = ๐‘Ž2 = โ‹ฏ = ๐‘Ž๐‘› = 0
Il sistema ๐ด๐‘ฅ = 0 in n equazioni ha come unica soluzione (quella banale x=0) se e solo se le colonne ๐ด1 , โ€ฆ , ๐ด๐‘›
(๐ด1 corrisponde alla prima colonna, ecc.) sono linearmente indipendenti
Criteri per vedere se una combinazione è linearmente indipendente:
1.
2.
3.
๐‘ฃโƒ—1 โ‰  0
๐‘ฃโƒ—2 non è un multiplo di ๐‘ฃโƒ—1
๐‘ฃโƒ—3 non è combinazione lineare di ๐‘ฃโƒ—1 e ๐‘ฃโƒ—2
Generatori:
Un insieme di generatori per A se tutti gli elementi di A possono essere ottenuti dagli elementi di S come
combinazioni di span A.
Sia V uno spazio vettoriale, un insieme B= {๐‘ฃ1 , โ€ฆ , ๐‘ฃ๐‘› } di vettori V è una base di V se:
๏‚ท
๏‚ท
V span(๐‘ฃ1 , โ€ฆ , ๐‘ฃ๐‘› ), cioè ๐‘ฃ1 , โ€ฆ , ๐‘ฃ๐‘› sono un sistema di generatori di v;
๐‘ฃ1 , โ€ฆ , ๐‘ฃ๐‘› sono linearmente indipendenti
cioè se ogni elemento di V si può scrivere come un'unica combinazione lineare.
Siano ๐‘ฃ1 , โ€ฆ , ๐‘ฃ๐‘› vettori linearmente indipendenti di uno spazio vettoriale V. Supponiamo che
๐›ผ1 , โ€ฆ , ๐›ผ๐‘˜ , ๐›ฝ1 , โ€ฆ , ๐›ฝ โˆˆ โ„ siano tali che ๐›ผ1 ๐‘ฃ1 + โ‹ฏ + ๐›ผ๐‘˜ ๐‘ฃ๐‘˜ = ๐›ฝ1 ๐‘ฃ1 + โ‹ฏ + ๐›ฝ๐‘˜ ๐‘ฃ๐‘˜ โ‡’ ๐›ผ๐‘— = ๐›ฝ๐‘— ๐‘๐‘’๐‘Ÿ ๐‘— = 1 โ€ฆ ๐‘˜
Sia B= {๐‘ฃ1 , โ€ฆ , ๐‘ฃ๐‘› } una base di V, e v โˆˆ V. Gli n numeri reali (๐›ผ1 , โ€ฆ , ๐›ผ๐‘› ) sono le coordinate di v rispetto a B
Sia B= {๐‘ฃ1 , โ€ฆ , ๐‘ฃ๐‘› } una base di uno spazio vettoriale V. allora b è un insieme massimale in V di vettori
linearmente indipendenti
Sia B un sottoinsieme finito di uno spazio vettoriale V. se span(B) contiene un sistema di generatori di V allora
V=span(B), cioè B è un sistema di generatori di V
Sia A{๐‘ฃ1 , โ€ฆ , ๐‘ฃ๐‘˜ } ๐‘ข๐‘› ๐‘ ๐‘–๐‘ ๐‘ก๐‘’๐‘š๐‘Ž ๐‘‘๐‘– ๐‘”๐‘’๐‘›๐‘’๐‘Ÿ๐‘Ž๐‘ก๐‘œ๐‘Ÿ๐‘– ๐‘‘๐‘– ๐‘ข๐‘›๐‘œ ๐‘ ๐‘๐‘Ž๐‘ง๐‘–๐‘œ vettoriale V. Sia ๐ต โŠ† ๐ด un sottoinsieme massimale
in A di vettori linearente indipendenti. Allora B è una base di V
Ogni spazio vettoriale contenente un sistema finito di generatori ammette una base
Teorema di Steinitz e del completamento
๐‘ฅ1 , ๐‘ฅ2 , โ€ฆ , ๐‘ฅ๐‘› โ†’ ๐‘”๐‘’๐‘›๐‘’๐‘Ÿ๐‘Ž๐‘ก๐‘œ๐‘Ÿ๐‘– e ๐‘ฆ1 , ๐‘ฆ2 , โ€ฆ , ๐‘ฆ๐‘š โ†’ ๐‘™๐‘–๐‘›๐‘’๐‘Ž๐‘Ÿ๐‘š๐‘’๐‘›๐‘ก๐‘’ ๐‘–๐‘›๐‘‘๐‘–๐‘๐‘’๐‘›๐‘‘๐‘’๐‘›๐‘ก๐‘– โ‡’ ๐‘š โ‰ค ๐‘›
sia B={๐‘ฃ1 , โ€ฆ , ๐‘ฃ๐‘› } una base di uno spazio vettoriale V, e siano ๐‘ค1 , โ€ฆ , ๐‘ค๐‘› โˆˆ ๐‘‰ (๐‘๐‘œ๐‘› ๐‘ โ‰ค ๐‘›) vettori linearmente
indipendenti. Allora esistono n-p vettori di B che insieme a ๐‘ค1 , โ€ฆ , ๐‘ค๐‘› formano una base di V
Corollario:
Tutte le basi di uno spazio vettoriale hanno lo stesso numero di elementi.
Le dimensioni di uno spazio vettoriale è il numero di elementi di una qualsiasi base ๐‘› = ๐‘‘๐‘–๐‘š๐‘‰
Dimensione sottospazio:
๐‘Š โŠ† ๐‘‰ โ‡’ ๐‘‘๐‘–๐‘š๐‘Š โ‰ค ๐‘‘๐‘–๐‘š๐‘‰
Somma e intersezioni di sottospazi
Sia U,W sottospazi dello stesso spazio vettoriale V. Se B è un sistema di generatori di U e C un sistema di
generatori di W , allora B U C è un sistema di generatori di U+W
Teorema di Grassman: dim(๐‘ˆ + ๐‘Š) + dim(๐‘ˆ โˆฉ ๐‘Š) = dim ๐‘ˆ + dim ๐‘Š
Due sottospazi U e W di uno spazio vettoriale V si dicono supplementari se ๐‘‰ = ๐‘ˆ โŠ• ๐‘Š (ossia sono somma
diretta, cioè la loro intersezione è uguale al vettore nullo)
Applicazioni lineari
Teorema di struttura: Sia ๐‘ฃ 0 โˆˆ โ„๐‘› una soluzione del sistema lineare Ax=B di ordine n. Allora ogni altra soluzione
è della forma ๐‘ฃ = ๐‘ฃ 0 + ๐‘ค, dove ๐‘ค โˆˆ โ„๐‘› è una soluzione del sistema omogeneo Ax=0. In altra parole se ๐ฟ โŠ† โ„๐‘›
è lโ€™insieme delle soluzioni del sistema Ax=B e ๐‘Š โŠ† โ„๐‘› è lโ€™insieme delle soluzioni del sistema omogeneo
associato ๐ด๐‘ฅ = 0, si ha ๐ฟ = ๐‘ฃ 0 + ๐‘Š = {๐‘ฃ 0 + ๐‘ค|๐‘ค โˆˆ ๐‘Š} in particolare, v0 lโ€™unica soluzione del sistema se e solo
se le colonne di A sono linearmente indipendenti
Matrici
Definita ๐ฟ๐‘Ž : โ„๐‘› โ†’ โ„๐‘š
๐‘Ž11
๐ด=[ โ‹ฎ
๐‘Ž๐‘š1
โ‹ฏ
โ‹ฑ
โ€ฆ
๐‘Ž1๐‘›
โ‹ฎ ] matrice con m righe ed n colonne. Se m=n la matrice è quadrata
๐‘Ž๐‘š๐‘›
Rango
๐‘‘๐‘–๐‘š ๐‘š (dimensione spazio righe) = ๐‘‘๐‘–๐‘š ๐‘› (dimensione spazio colonne)= ๐‘‘๐‘–๐‘š ๐ด (dimensione matrice)= ๐‘Ÿ๐‘” ๐ด
(rango matrice)
๐‘Ÿ๐‘”๐ด โ‰ค min(๐‘š, ๐‘›)
Teorema della dimensione
Data ๐น: ๐‘‰ โ†’ ๐‘Š allora dim ๐‘‰ = dim ๐‘˜๐‘’๐‘Ÿ๐น + ๐‘Ÿ๐‘”๐น (๐‘œ ๐ผ๐‘š๐น)
Operazioni ammesse su una matrice
๏‚ท
๏‚ท
๏‚ท
moltiplicare ogni elemento di una riga per ๐‘Ž โ‰  0
scambiare le riga i-esima con la j-esima ๐‘– โ‰  ๐‘—
prendere una riga sommarla con un multiplo di un'altra riga e sostituirla con questa nuova riga
Operazioni fra matrici
Somma fra matrici
๐‘Ž11 โ‹ฏ ๐‘Ž1๐‘›
๐‘11
โ‹ฑ
โ‹ฎ ]+[ โ‹ฎ
[ โ‹ฎ
๐‘Ž๐‘š1 โ€ฆ ๐‘Ž๐‘š๐‘›
๐‘๐‘š1
righe e colonne
โ‹ฏ ๐‘1๐‘›
๐‘Ž11 + ๐‘11
โ‹ฑ
โ‹ฎ ]=[
โ‹ฎ
โ€ฆ ๐‘๐‘š๐‘›
๐‘Ž๐‘š1 + ๐‘๐‘š1
โ‹ฏ ๐‘Ž1๐‘› + ๐‘1๐‘›
โ‹ฑ
โ‹ฎ
] A e B devono avere lo stesso numero di
โ€ฆ ๐‘Ž๐‘š๐‘› + ๐‘๐‘š๐‘›
Proprietà della somma fra matrici
๏‚ท
๏‚ท
๏‚ท
๏‚ท
commutativa
associativa
esistenza della matrice nulla
esistenza della matrice inversa
prodotto di una matrice per un numero
๐‘Ž11
๐‘Ž[ โ‹ฎ
๐‘Ž๐‘š1
โ‹ฏ ๐‘Ž1๐‘›
๐‘Ž(๐‘Ž11 )
โ‹ฑ
โ‹ฎ ]=[ โ‹ฎ
โ€ฆ ๐‘Ž๐‘š๐‘›
๐‘Ž(๐‘Ž๐‘š1 )
โ‹ฏ ๐‘Ž(๐‘Ž1๐‘› )
โ‹ฑ
โ‹ฎ ]
โ€ฆ ๐‘Ž(๐‘Ž๐‘š๐‘› )
prodotto fra matrici
๐‘Ž ๐‘
๐ด๐ต = [ โ‹ฎ โ‹ฎ
โ€ฆ โ€ฆ
๐‘ โ€ฆ โ‹ฏ
โ‹ฎ ][ โ‹ฎ โ‹ฎ
โ€ฆ โ€ฆ โ€ฆ
๐‘‘
โ‹ฏ โ‹ฏ ๐‘Ž๐‘‘ + ๐‘๐‘’ + ๐‘๐‘“
๐‘’] = [ โ‹ฎ
]=๐ถ
โ‹ฎ
โ‹ฎ
๐‘“
โ‹ฏ โ€ฆ
โ‹ฏ
il prodotto fra matrici esiste se la matrice A ha numero di elementi su ogni riga quanti B su ogni colonna
A
B
๐‘š๐‘ฅ๐‘
๐‘๐‘ฅ๐‘› โˆƒ ๐ถ โ‡” ๐‘ = ๐‘ โ†’ ๐ถ = ๐‘š๐‘ฅ๐‘› (m righe, n colonne)
Per le matrici non vale la legge di annullamento del prodotto
Se Aโ‰  0 ๐‘’ ๐ต โ‰  0 può capitare che AB=0
Matrice inversa
๐ด๐ดโˆ’1 = ๐ดโˆ’1 ๐ด = ๐ผ (๐‘–๐‘‘๐‘’๐‘›๐‘ก๐‘–๐‘๐‘Ž)
A è invertibile se โˆƒ ๐ดโˆ’1t.c. ๐ด๐ดโˆ’1 = ๐ผ
Per trovare la matrice inversa :
data ๐ด = |
๐‘Ž
๐‘
๐‘’
๐‘
| vogliamo trovare ๐‘‹ = |
๐‘”
๐‘‘
๐‘“
| sapendo che ๐ด โˆ™ ๐‘‹ = ๐ผ
โ„Ž
๐‘Ž๐‘’ + ๐‘๐‘” = 1
๐‘Ž๐‘“ + ๐‘โ„Ž = 0
1 0
๐‘Ž ๐‘ ๐‘’ ๐‘“
๐ด๐‘‹ = |
||
|=|
|
{
dove a,b,c,d sono numeri noti quindi bisogna risolvere i
๐‘๐‘’ + ๐‘‘๐‘” = 0
0 1
๐‘ ๐‘‘ ๐‘” โ„Ž
๐‘๐‘“ + ๐‘‘โ„Ž = 1
๐‘Ž๐‘’ + ๐‘๐‘” = 1 ๐‘Ž๐‘“ + ๐‘โ„Ž = 0
due soli sistemi {
e{
๐‘๐‘’ + ๐‘‘๐‘” = 0 ๐‘๐‘“ + ๐‘‘โ„Ž = 1
data A le seguenti affermazioni sono equivalenti:
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
A è invertibile
Lโ€™applicazione lineare associata è invertibile
Lโ€™applicazione lineare associata è iniettiva
Lโ€™applicazione lineare associata è suriettiva
A=n
Le colonne di A sono linearmente indipendenti
Le righe di A sono linearmente indipendenti
Il sistema omogeneo ๐ด๐‘ฅ = 0 ha come unica soluzione x=0
Per ogni b โˆˆ โ„๐‘› il sistema ax=B ha come unica soluzione x=๐ดโˆ’1 ๐ต
I pivot di A, comunque determinati, sono non nulli (cioè A è non singolare)
Ossia che il determinante sia diverso da 0
Matrice trasposta
๐ด๐‘ก si ottiene scambiando le righe con le colonne
proprietà delle trasposta:
(๐ด + ๐ต)๐‘ก = ๐ด๐‘ก + ๐ต๐‘ก
(๐ด๐ต)๐‘ก = ๐ต๐‘ก ๐ด๐‘ก ( non vale la proprietà commutativa per il prodotto fra matrici)
(๐‘Ž๐ด)๐‘ก = ๐‘Ž๐ด๐‘ก
Matrice simmetrica
Una matrice è simmetrica โ‡” ๐ด =
๐ด๐‘ก
๐‘ฅ
|๐‘Ž
๐‘
๐‘Ž
๐‘ฆ
๐‘
๐‘
๐‘|
๐‘ง
Matrice antisimmetrica
Una matrice è antisimmetrica โ‡” ๐ด = โˆ’(๐ด๐‘ก )
0
|โˆ’๐‘Ž
โˆ’๐‘
๐‘Ž
0
โˆ’๐‘
๐‘
๐‘|
0
Matrice ortogonale
A quadrata ortogonale : ๐ด๐‘ก = ๐ดโˆ’1 inversa e trasposta coincidono
Matrice a coefficienti complessi
Sia ๐ด โˆˆ ๐‘€๐‘š,๐‘› (โ„‚) una matrice a coefficienti complessi. La matrice coniugata di A è la matrice ๐ด i cui elementi
sono i coniugati della matrice A. La matrice trasposta della coniugata (o aggiunta) A H di A è la trasposta della
๐‘‡
coniugata in simboli ๐ด๐ป = ๐ด = ๐ด๐‘‡
Applicazioni lineari
Applicazione=funzione
๐‘“: ๐‘‰ โ†’ ๐‘Š è un applicazione lineare se soddisfa le seguenti proprietà:
๏‚ท
๏‚ท
๏‚ท
๏‚ท
๐‘“(๐‘ฃ + ๐‘ฃ โ€ฒ ) = ๐‘“(๐‘ฃ) + ๐‘“(๐‘ฃ โ€ฒ )
๐‘“(๐‘Ž๐‘ฃ) = ๐‘Ž๐‘“(๐‘ฃ)
๐‘“(0) = 0
๐‘“(โˆ’๐‘ฃ) = โˆ’๐‘“(๐‘ฃ)
Ker
il Ker o nucleo è un sottospazio di V formato da tutti gli elementi che si trasformano nel vettore nullo.
Se il ker è formato dal solo vettore nullo f è iniettiva ossia elementi distinti del dominio hanno immagini distinte.
Per trovare il ker di una applicazione si risolve il sistema omogeneo associato.
Im
Sia ๐‘“: ๐‘‰ โ†’ ๐‘Š e {๐‘ฃ1 , โ€ฆ , ๐‘ฃ๐‘› } una base. Allora ๐ผ๐‘š๐‘“ = ๐‘ ๐‘๐‘Ž๐‘›๐‘“(๐‘“(๐‘ฃ1 ), โ€ฆ ๐‘“(๐‘ฃ๐‘› )) o immagine di f è un sottospazio di
w formato da tutti gli elementi che sono f di qualcosa.
Se Im f=W lโ€™applicazione è suriettiva.
Il rango della matrice associata allโ€™applicazione lineare è anche uguale a dim ๐ผ๐‘š ๐น
Isomorfismo
Se applicazione e sia iniettiva che suriettiva si chiamo biiettiva o anche isomorfismo.
๐‘“: ๐‘‰ โ†’ ๐‘Š, ๐‘”: ๐‘‰ โ†’ ๐‘Š
(๐‘“ + ๐‘”)(๐‘ฃ) = ๐‘“(๐‘ฃ) + ๐‘”(๐‘ฃ)
๐›ผ๐‘“: ๐‘ฃ = ๐›ผ๐‘“(๐‘ฃ)
๐‘“: ๐‘‰ โ†’ ๐‘Š, ๐‘”: ๐‘Š โ†’ ๐‘
๐‘”
๐‘“
๐‘” โˆ˜ ๐‘“ = ๐‘ฃ ๐‘“(๐‘ฃ) ๐‘”(๐‘“(๐‘ฃ)) ossia vado da V ->Z
โ†’
โ†’
Matrici e applicazioni lineari
๐‘“: โ„๐‘› โ†’ โ„๐‘š
๐‘Ž11
๐‘Ž
( 21
โ‹ฎ
๐‘Ž๐‘š1
๐‘Ž12
๐‘Ž22
โ‹ฏ
๐‘Ž๐‘š2
๐‘“(๐‘’1 ) ๐‘“(๐‘’2 )
La matrice avrà m righe e n colonne
โ‹ฏ
โ‹ฑ
โ‹ฏ
๐‘Ž1๐‘›
๐‘Ž2๐‘›
)
โ‹ฎ
๐‘Ž๐‘š๐‘›
1° componente dellโ€™applicazione lineare
2° componente dellโ€™applicazione lineare
m-esima componente dellโ€™applicazione lineare
๐‘“(๐‘’๐‘› )
un polinomio è omogeneo se tutti i termini sono dello stesso grado.
F ha m componenti ciascuno dei quali è un polinomio omogeneo di primo grado in x 1,โ€ฆ,xn.
Applicazioni iniettive, suriettive, invertibili o biiettive con matrice associata
๐‘“: โ„๐‘› โ†’ โ„๐‘š è:
1. iniettiva se:
๐‘ฃ โ‰  ๐‘ฃ โ€ฒ โ‡’ ๐‘“(๐‘ฃ) โ‰  ๐‘“(๐‘ฃ โ€ฒ )
โ‹ฏ โ‹ฏ โ‹ฏ
๐‘€๐‘“ = ( โ‹ฎ โ‹ฑ โ‹ฎ )
โ‹ฏ โ‹ฏ โ‹ฏ
F(e1)
F(en)
se il rgMf=n lโ€™applicazione lineare è iniettiva. Se n>m lโ€™applicazione non può essere iniettiva.
2. suriettiva se:
๐ผ๐‘š๐‘“ = โ„๐‘š
โ‹ฏ โ‹ฏ
๐‘€๐‘“ = ( โ‹ฎ โ‹ฑ
โ‹ฏ โ‹ฏ
โ‹ฏ
โ‹ฎ)
โ‹ฏ
F(e1)
F(en)
๐‘“(๐‘ฃ) = ๐‘Ž๐‘™๐‘™๐‘Ž ๐ถ. ๐ฟ. ๐‘“(๐‘’1 ), โ€ฆ , ๐‘“(๐‘’๐‘› ) โ‡ ๐‘โ„Ž๐‘’ ๐‘ ๐‘œ๐‘›๐‘œ ๐‘– ๐‘”๐‘’๐‘›๐‘’๐‘Ÿ๐‘Ž๐‘ก๐‘œ๐‘Ÿ๐‘– ๐‘‘๐‘– ๐ผ๐‘š๐‘“
se rgMf=m lโ€™applicazione lineare è suriettiva. Se n<m lโ€™applicazione non può essere suriettiva.
3. invertibile se:
sia iniettiva che suriettiva
โˆ’1
๐‘“
๐‘“ โˆ’1 ๐‘ฃ ๐‘“(๐‘ฃ) = ๐‘ฃ โ€ฒ ๐‘“ ๐‘ฃ = ๐‘“ โˆ’1 (๐‘ฃ โ€ฒ )
โ†’
โ†’
โ‹ฏ โ‹ฏ
๐‘€๐‘“ = ( โ‹ฎ โ‹ฑ
โ‹ฏ โ‹ฏ
F(e1)
โ‹ฏ
โ‹ฎ)
โ‹ฏ
F(en)
๐‘Ÿ๐‘”๐‘€๐‘“ = ๐‘š = ๐‘›
Matrice associata a una applicazione lineare
La matrice A è la matrice associa allโ€™applicazione T rispetto alle basi B e C.
La matrice A contiene per colonne le coordinate rispetto alla base di arrivo C dei trasformati secondo T dei
vettori della base di partenza.
Siano V e W spazi vettoriali sul campo K, con dim ๐‘‰ = ๐‘› e dim ๐‘Š = ๐‘š. Fissiamo una base B di v e una base C di
W. Allora Fissiamo una base B di V e una base C di W. Allora lโ€™applicazione ๐‘‡ โ†ฆ ๐ด che associa a unโ€™applicazione
lineare ๐‘‡: ๐‘‰ โ†’ ๐‘Š la matrice che la rappresenta rispetto alla basi B e C è un isomorfismo fra fra โ„’(๐‘‰, ๐‘Š) e
๐‘€๐‘š,๐‘› (๐‘˜). In particolare, dim โ„’ (๐‘‰, ๐‘Š) = (dim ๐‘‰)(dim ๐‘Š) Pag 152-154
Applicazione lineare inversa
๐‘“: โ„๐‘› โ†’ โ„๐‘š
Mf (matrice associata allโ€™applicazione lineare f), Mf -1 è la matrice associata alla applicazione inversa, Mf -1 è
uguale a (Mf)-1
Per trovare lโ€™applicazione inversa bisogna, dunque, calcolare la matrice inversa associata allโ€™applicazione.
Lโ€™applicazione è invertibile se esiste ๐‘‡: โ„๐‘š โ†’ โ„๐‘› t.c. ๐‘“ โˆ˜ ๐‘‡ = ๐‘–๐‘‘๐‘š e ๐‘‡ โˆ˜ ๐‘“ = ๐‘–๐‘‘๐‘›
Un applicazione lineare è invertibile se e solo se è sia iniettiva e suriettiva
(Nota: un applicazione è lineare se e solo se ogniuna delle componenti è un polinomio di primo grado privo del
termine noto)
Composizioni
๐‘” โˆ˜ ๐‘“ = ๐‘€๐‘” โˆ™ ๐‘€๐‘“ = ๐‘€๐‘”โˆ˜๐‘“ se lโ€™applicazione lineare è foramata da una composizione si fra il prodotto fra le
matrici associate alle singole applicazioni
Sistemi lineari
Per risolvere un sistema lineare AX=B si scrive il sistema sotto forma di matrice completa e si riduce con Gauss.
In seguito si sostituisce allโ€™indietro.
๐ด๐‘‹ = ๐ต è ๐‘Ÿ๐‘–๐‘ ๐‘œ๐‘™๐‘ข๐‘๐‘–๐‘™๐‘’ โ‡” ๐‘Ÿ๐‘”๐ด = ๐‘Ÿ๐‘”(๐ด|๐ต) = ๐‘ se il sistema è risolvibile vi sono n-p incognite libere.
Teorema di Rouchè-Capelli
Sistema AX=B in m equazioni in n incognite:
๏‚ท
๏‚ท
๐‘Ÿ๐‘”๐ด = ๐‘
๐‘Ÿ๐‘” (๐ด|๐ต) = ๐‘ž
risolubile โ‡” ๐‘ = ๐‘ž, è vi saranno n-p incognite libere, inoltre se esiste la soluzione è unica se e solo se rgA=n
Sistemi Omogenei
AX=0
Ha sempre almeno una soluzione, cioè quella banale, perché per Rouchè-Capelli per avere soluzione deve avere
rgA=rgA|B, ma essendo B composto da soli 0 non cambia il rango è quindi deve avere sempre almeno una
soluzione.
vi sono sempre n-rgA incognite libere.
I sistemi omogenei possono avere 1 (la cui soluzione e per lo meno =0) o infinite soluzioni
Data Mf=A
kerf sono le soluzioni del sistema omogeneo di A
Dim kerf =n-rgA il numero di incognite libere è uguale alla dim kerMf
Contro immagine
๐‘‘๐‘Ž๐‘ก๐‘Ž
๐‘“: โ„๐‘›
โ†’
โ„๐‘š
๐‘€๐‘“ = ๐ด
๐‘Ž1
๐ด๐‘‹ = ( โ€ฆ )
๐‘Ž๐‘›
๐‘“ โˆ’1 (๐‘Ž1 , โ€ฆ , ๐‘Ž๐‘š )
e.s.
๐‘“: โ„3 โ†’ โ„2 = (๐‘ฅ + ๐‘ฆ, ๐‘ฅ โˆ’ ๐‘ง) scelto un elemento di โ„2 (della destinazione) si eguaglia il vettore alla matrice
associata alla funzione quindi (a,b)=f(x,y,z)
|
1 1
1 0
0 ๐‘Ž
| il risultato è la contro immagine di f(x,y,z). (a, b sono numeri è il vettore scelto di r2)
โˆ’1 ๐‘
Inversa
Per trovare lโ€™inversa si scrive la matrice A e a fianco la matrice Id. In seguito si diagonalizza A fino a far diventare
0 tutti gli elementi di A esclusi quella della diagonale principale. Si divide in fine ogni riga per il valore non nullo
di A
|
๐‘Ž
๐‘
๐‘ 1
|
๐‘‘ 0
๐‘ฅ 0 ๐‘ง
0
โ†’|
|
0 ๐‘ฆ ๐‘ค
1
๐‘˜
1
โ†’|
๐‘—
0
๐‘ง
0 ๐‘ฅ
|
1 ๐‘ค
๐‘ฆ
๐‘˜
๐‘ฅ
๐‘—
๐‘ฆ
Determinante
Determinante di una matrice quadrata 2x2
๐‘Ž11
๐ด = (๐‘Ž
21
๐‘Ž12
๐‘Ž22 )
๐‘‘๐‘’๐‘ก๐ด = ๐‘Ž11 ๐‘Ž22 โˆ’ ๐‘Ž12 ๐‘Ž21
determinate matrice 3x3
1.
2.
3.
4.
๐‘Ž11 ๐‘Ž12 ๐‘Ž13
๐‘Ž22 ๐‘Ž23
(๐‘Ž21 ๐‘Ž22 ๐‘Ž23 )
๐‘Ž11 (๐‘‘๐‘’๐‘ก |๐‘Ž
|)
32 ๐‘Ž33
๐‘Ž31 ๐‘Ž32 ๐‘Ž33
๐‘Ž11 ๐‘Ž12 ๐‘Ž13
๐‘Ž21 ๐‘Ž23
(๐‘Ž21 ๐‘Ž22 ๐‘Ž23 )
โˆ’ ๐‘Ž12 (๐‘‘๐‘’๐‘ก |๐‘Ž
|) il segno è determinato dalla posizione dellโ€™elemento: se la
31 ๐‘Ž33
๐‘Ž31 ๐‘Ž32 ๐‘Ž33
somma della riga e della colonna è dispari si mette un โ€“ dโ€™avanti
๐‘Ž11 ๐‘Ž12 ๐‘Ž13
๐‘Ž21 ๐‘Ž22
(๐‘Ž21 ๐‘Ž22 ๐‘Ž23 )
๐‘Ž13 (๐‘‘๐‘’๐‘ก |๐‘Ž
|)
31 ๐‘Ž32
๐‘Ž31 ๐‘Ž32 ๐‘Ž33
si sommano gli elementi calcolati precedentemente
๐‘Ž22 ๐‘Ž23
๐‘Ž21 ๐‘Ž23
๐‘Ž21 ๐‘Ž22
๐‘Ž11 (๐‘‘๐‘’๐‘ก |๐‘Ž
|) โˆ’ ๐‘Ž12 (๐‘‘๐‘’๐‘ก |๐‘Ž
|) + ๐‘Ž13 (๐‘‘๐‘’๐‘ก |๐‘Ž
|)
๐‘Ž
๐‘Ž
32
33
31
33
31 ๐‘Ž32
Complemento algebrico e sviluppo di Laplace
Il complemento algebrico di un elemento di una matrice è il determinante della matrice che si ottiene
cancellando la riga e la colonna che si incrociano in quellโ€™elemento con un segno. Numero riga + numero
colonna pari segno + altrimenti segno ๐‘Ž11
๐‘Ž21
๐ด = ( ๐‘Ž31
โ€ฆ
๐‘Ž๐‘›1
๐‘Ž12
๐‘Ž22
๐‘Ž32
โ€ฆ
๐‘Ž๐‘›2
โ€ฆ ๐‘Ž1๐‘›
๐‘Ž12
โ€ฆ ๐‘Ž2๐‘›
๐‘Ž
32
โ€ฆ ๐‘Ž3๐‘› ) il complemento algebrico di a21 è โ€“ ๐‘‘๐‘’๐‘ก ( โ€ฆ
โ€ฆ โ€ฆ
๐‘Ž๐‘›2
โ€ฆ ๐‘Ž๐‘›๐‘›
โ€ฆ ๐‘Ž1๐‘›
โ€ฆ ๐‘Ž3๐‘› )
โ€ฆ โ€ฆ
โ€ฆ ๐‘Ž๐‘›๐‘›
Sviluppo di Laplace
Il determinante di A si ottiene moltiplicando gli elementi di una riga(o colonna) per i loro complementi algebrici
e facendo la somma dei risultati.
Proprietà dei determinanti:
๏‚ท
๏‚ท
๏‚ท
๏‚ท
๏‚ท
๏‚ท
๏‚ท
๏‚ท
il determinante è nullo se: una riga è nulla, una colonna è nulla, la riga i-esima è uguale alla j-esima, la colonna iesima è uguale alla j-esima
se moltiplico la matrice A per un numero non nullo il determinante è uguale a ๐‘Ž๐‘› โˆ™ ๐‘‘๐‘’๐‘ก๐ด
se moltiplico una sola riga di A il determinante è uguale a ๐‘Ž โˆ™ ๐‘‘๐‘’๐‘ก๐ด
๐‘Ž + ๐‘11 โ€ฆ ๐‘Ž1๐‘› + ๐‘1๐‘›
se ogni elemento di A è la somma di due elementi ๐ด = 11
il determinante è uguale a
โ€ฆ
โ€ฆ
โ€ฆ
๐‘Ž
โ€ฆ ๐‘Ž1๐‘›
๐‘
โ€ฆ ๐‘1๐‘›
det | 11
| + det | 11
|
โ€ฆ โ€ฆ โ€ฆ
โ€ฆ โ€ฆ โ€ฆ
det(๐ด โˆ™ ๐ต) = det ๐ด โˆ™ det ๐ต (Teorema di Binet)
se alla matrice A scambiamo una riga ๐‘…๐‘– โ†” ๐‘…๐‘— โ‡’ det ๐ดโ€ฒ = โˆ’det ๐ด
se sostituiamo alla i-esima riga la i-esima riga + a volte la j-esima il determinante non cambia.
Il prodotto dei pivo di una matrice quadrata è, al meno del segno, il determinante della matrice. ๐‘1 โˆ™ โ€ฆ โˆ™ ๐‘๐‘› =
|det ๐ด|
Determinante e invertibilità
= 0 ๐ด ๐‘›๐‘œ๐‘› è ๐‘–๐‘›๐‘ฃ๐‘’๐‘Ÿ๐‘ก๐‘–๐‘๐‘–๐‘™๐‘’
det ๐ด {
โ‰  0 ๐ด è ๐‘–๐‘›๐‘ฃ๐‘’๐‘Ÿ๐‘ก๐‘–๐‘๐‘–๐‘™๐‘’
det(๐ดโˆ’1 ) =
1
det ๐ด
calcolo dellโ€™inversa attraverso il determinante:
A-1 è uguale a
1
per la matrice
det ๐ด
che si ottiene scrivendo al posto degli elementi della matrice i loro
complementi algebrici dopo aver scambiato le righe con le colonne
๐ดโˆ’1
=
๐‘Ž11
1
(๐‘Ž12
โ€ฆ
det ๐ด
๐‘Ž1๐‘›
๐‘Ž21
โ€ฆ
โ€ฆ
..
โ€ฆ ๐‘Ž๐‘›1
โ€ฆ โ€ฆ
โ€ฆ โ€ฆ )
โ€ฆ ๐‘Ž๐‘›๐‘›
Teorema degli orlati
Sia ๐ด โˆˆ ๐‘€๐‘š,๐‘› (โ„); una sottomatrice quadrata di ordine p di A è una matrice A' ottenuta considerando solo p
righe e colonne fissate di A. Se ad Aโ€™ aggiungiamo unโ€™altra riga e un'altra colonna di A diremo che stiamo
orlando Aโ€™
Teorema degli orlati: Sia ๐ด โˆˆ ๐‘€๐‘š,๐‘› (โ„) una matrice. Allora rgA=r se e solo se esiste una sottomatrice Aโ€™ di ordine
r di A non singolare, e tutte le sottomatrici di ordine r+1 di A ottenute orlando Aโ€™ anno determinante nullo.
Matrici simili
Due matrici simili hanno lo stesso rango, determinante e traccia. Si dice quindi che rango, determinante e
traccia sono invarianti per similitudine. In matematica, si definisce traccia di una matrice quadrata la somma di
tutti gli elementi della sua diagonale principale.
Regola di Cramer
Dato Ax=B, risolubile con rgA=rgA|B, con m equazioni ed n incognite, se vi è una sola soluzione (soluzioni libere
date da n-rgA quindi uguale a 0, per cui dovrà anche essere quadrata), con determinanre diverso da 0 (quindi
invertibile) si possono trovare le soluzioni attraverso la regola di Cramer.
๐‘ฅ = ๐ดโˆ’1 ๐ต โ† ๐ดโˆ’1 (๐ด๐‘ฅ) = ๐ดโˆ’1 ๐ต = ๐ผ๐‘‘ ๐‘ฅ = ๐ดโˆ’1 ๐ต
๐‘Ž11 ๐‘Ž21
1
โ€ฆ
๐‘ฅ = ๐ดโˆ’1 ๐ต =
(๐‘Ž12
โ€ฆ โ€ฆ
det ๐ด
๐‘Ž1๐‘› . .
โ€ฆ ๐‘Ž๐‘›1
๐‘1
โ€ฆ โ€ฆ
โ€ฆ โ€ฆ )( โ‹ฎ )
๐‘๐‘›
โ€ฆ ๐‘Ž๐‘›๐‘›
più semplicemente si possono usare i determinante per trovare le soluzioni:
๐‘ฅ1 =
๐‘1 โ‹ฏ
det| โ‹ฎ
โ‹ฎ|
๐‘๐‘› โ‹ฏ
cioè si
det ๐ด
๐‘ฅ2 =
๐‘Ž11 ๐‘1
det| โ‹ฎ โ‹ฎ
๐‘Ž๐‘›1 ๐‘๐‘›
det ๐ด
sostituisce alla colonna dellโ€™incognita che vogliamo trovare la colonna delle soluzioni.
โ‹ฏ
โ‹ฎ|
โ‹ฏ
Autovalori e autovettori di un endomorfismo
endomorfismo: applicazione lineare โ„๐‘› in se stesso
๐œ† è un autovalore di f se esiste un vettore non nullo v t.c. si abbia: f(v)= ๐œ†v. (cioè il vettore uscito
dallโ€™applicazione lineare risulta essere un multiplo del vettore iniziale stesso!)
se una matrice è diagonale trovo come autovalori gli elementi della diagonale stessa
Per trovare gli autovalori usiamo il polinomio caratteristico ๐‘ƒ(๐œ†) = 0 che si ottiene sottraendo alla matrice
associata allโ€™applicazioni ๐œ†๐ผ๐‘‘ ossia ๐‘ƒ(๐œ†) = [det(๐ด โˆ’ ๐œ†๐ผ๐‘‘) = 0]
Per trovare gli autospazi la cui dimensione è sempre maggiore di 1 bisogna risolvere il sistema (๐ด โˆ’ ๐œ†๐ผ๐‘‘)๐‘‹ = 0
dove al posto di ๐œ† sostituiremo i valori trovati. Le soluzioni formano il sottospazio vettoraile. Lโ€™autospazio
corrisponde al ker di ๐ด โˆ’ ๐œ†๐ผ๐‘‘
dim ๐‘‰๐œ† = dim ๐‘‰ โˆ’ ๐‘Ÿ๐‘”(๐ด โˆ’ ๐œ†๐ผ๐‘‘)
๐œ† è un autovalore di molteplicità m e ๐‘‰๐œ† è lโ€™autospazio associato, allora 1 โ‰ค dim ๐‘‰๐œ† โ‰ค ๐‘š
Diagonalizzabilità
Dati autovalori ๐œ†1 , โ€ฆ , ๐œ†๐‘Ÿ appartenente hai reali, ognuno dei quali di molteplicità ๐‘š1 , โ€ฆ , ๐‘š๐‘Ÿ dove la loro somma
è uguale a n ; Dati gli autospazi ๐‘‰๐œ†1 , โ€ฆ , ๐‘‰๐œ†๐‘Ÿ di dimensione D1,โ€ฆ,Dr che risulta essere uguale alla molteplicità del
relativo autovalore ๐ท1 = ๐‘š1 , โ€ฆ , ๐ท๐‘Ÿ = ๐‘š๐‘Ÿ allora f è un endomorfismo semplice. Allora A associata
allโ€™endomorfismo f è diagonalizzabile.
Criterio sufficiente è che ๐‘“: โ„๐‘› โ†’ โ„๐‘› ha esattamente n autovalori distinti (cioè tutti di molteplicità 1) è
diagonalizzabile (questò perche la dim dellโ€™autospazio non può essere inferiore ad uno, ma nemmeno suoeriore
alla molteplicità, quindi è già dimostrato la regola precedente), cioè esiste P invertibile t.c. ๐‘ โˆ’1 ๐ด๐‘ƒ è diagonale e
P si ottiene mettendo come colonne i vettori di una base di ๐‘‰๐œ†1 seguiti da una base di ๐‘‰๐œ†2 fino ad esaurire gli
autospazi.
Teorema spettrale
Sia ๐‘‡: ๐‘‰ โ†’ ๐‘‰ un endomorfismo simmetrico di uno spazio vettoriale metrico. Allora autovettori di T relativi ad
autovalori distinti sono automaticamente ortogonali.
Sia ๐‘‡: ๐‘‰ โ†’ ๐‘‰ un endomorfismo di uno spazio vettoriale metrico V. Allora esiste una base ortonormale B di V
composta da autovettori di T se e solo se T è simmetrico.
Cambiamenti di Base
Ogni volta che abbiamo due basi B e Bโ€™ di uno spazio vettoriale V troviamo una matrice invertibile B che
trasforma le coordiante rispetto a bโ€™ nelle coordinate rispetto a B. In concreto, preso un vettore ๐‘ฃ โˆˆ ๐‘‰ siano ๐‘ฅ =
๐น๐ต (๐‘ฃ) โˆˆ ๐พ ๐‘› le sue coordinate rispetto a B, e ๐‘ฅโ€ฒ = ๐น๐ตโ€ฒ (๐‘ฃ) โˆˆ ๐พ ๐‘› le sue coordinate rispetto a Bโ€™. allora si ha x=Bxโ€™.
La matrice di cambiamento di base si trova mettendo per colonne le coordinate dei vettori della nuova base Bโ€™
rispetto alla vecchia base B. La matrice B viene chiamata di cambiamento di base (o di passaggio) da B a Bโ€™.
Chiaramente, ๐ตโˆ’1 è la matrice di cambiamento di base da Bโ€™ a B, cioè nella direzione inversa.
e.s.:
๐‘‰ = โ„2 [๐‘ก], ๐ต = {1, ๐‘ก, ๐‘ก 2 } ๐‘’ ๐ตโ€ฒ = {1, ๐‘ก โˆ’ 1,2๐‘ก 2 + 4๐‘ก โˆ’ 6} allora la matrice di cambiamento di base da B A Bโ€™
contiene per colonne le coordinate dei polinoimo di Bโ€™ rispetto alla base B, cioè:
1 โˆ’1
๐ต = |0 1
0 0
โˆ’6
4|
2
quindi in generale bisogna calcolare tutte le coordinate dei vettori di Bโ€™ rispetto a B.
Possiamo per semplicizzare anche spezzare il cambiamento di base mettendo un passaggio intermedio.
Scegliamo una base B0 (che sia semplice da scrivere in base B) e chiamiamo C questa matrice di cambiamento di
base da B a B0. Essendo molto più semplice scrivere la matrice di cambiamento di base da Bโ€™ a B0 scriviamo
questa nuova matrice e poi trovando lโ€™inversa abbiamo trovato la nostra matrice D. B sarà quindi uguale a B=A1
C.
Geometria affine
Se L è lo spazio delle soluzioni del sistema Ax=B, dove ๐ด โˆˆ ๐‘€๐‘,3 (โ„) ๐‘’ ๐ต โˆˆ โ„๐‘ , diremo che Ax=B è un equazione
cartesiana per L. La dimensione di L è 3 โˆ’ ๐‘Ÿ๐‘”๐ด, è il sottospazio di giacitura di L è lo spazio V delle soluzioni del
sistema omogeneo Ax=0
Il numero minimo di equazioni necessarie per descrivere un sottospazio affine è dato dalla dimensione dello
sapzio ambiente meno la dimensione del sottospazio.
Equazione cartesiana di un piano nello spazio:
Ax+by+cz=d rappresenta lโ€™equazione di un piano in โ„3 ammesso che la matrice A=|๐‘Ž ๐‘ ๐‘ | abbia rango 1.
A,b,c si dicono parametri di giacitura del piano, che non sono univocamente determinati;
Equazioni di rette e piani
Equazione cartesiana di una retta nello spazio:
๐‘Ž๐‘ฅ + ๐‘๐‘ฆ + ๐‘๐‘ง = ๐‘‘
๐‘Ž ๐‘ ๐‘
{ โ€ฒ
rappresenta lโ€™equazione di un retta in โ„3 non appena la matrice A=|
| ha rango
๐‘Ž ๐‘ฅ + ๐‘ โ€ฒ ๐‘ฆ + ๐‘ โ€ฒ ๐‘ง = ๐‘‘โ€ฒ
๐‘Žโ€ฒ ๐‘โ€ฒ ๐‘โ€ฒ
2. (in questo modo la retta è rappresentata come lโ€™intersezione di due piani)
Equazioni parametriche:
se l è lโ€™insieme dei punti ๐‘ƒ โˆˆ โ„3 della forma P=P0+Bt, al variare di t in โ„๐‘ž , dove ๐‘ƒ0 โˆˆ โ„3 ๐‘’ ๐ต โˆˆ ๐‘€3,๐‘ž (โ„), diremo
che P=P0+Bt è un equazione parametrica per L. Il sottospazio L ha dimensione rgB, e il sottospazio vettoriale V di
giacitura di L ha equazione parametrica P=Bt.
Equazioni parametriche di una retta nello spazio:
๐‘ฅ = ๐‘ฅ0 + ๐‘™๐‘ก
{๐‘ฆ = ๐‘ฆ0 + ๐‘š๐‘ก
๐‘ง = ๐‘ง0 + ๐‘›๐‘ก
๐‘™
๐‘œ๐‘๐‘๐‘ข๐‘Ÿ๐‘’ ๐‘ƒ = ๐‘ƒ0 + ๐‘ก |๐‘š| al variare di t in R rappresentano una retta nello spazio, non appena il
๐‘›
๐‘™
vettore V=|๐‘š| che detto vettore direttore della retta, non è il vettore nullo. L,m,n sono i parametri direttori
๐‘›
della retta.
Equazioni parametriche di un piano nello spazio:
๐‘ฅ = ๐‘ฅ0 + ๐‘™๐‘  + ๐‘™โ€ฒ๐‘ก
๐‘™
๐‘™โ€ฒ
{๐‘ฆ = ๐‘ฆ0 + ๐‘š๐‘  + ๐‘šโ€ฒ๐‘ก ๐‘œ๐‘๐‘๐‘ข๐‘Ÿ๐‘’ ๐‘ƒ = ๐‘ƒ0 + ๐‘  |๐‘š | + ๐‘ก |๐‘šโ€ฒ| al variare di s,t in R rappresentano un piano nello
๐‘›
๐‘›โ€ฒ
๐‘ง = ๐‘ง0 + ๐‘›๐‘  + ๐‘›โ€ฒ๐‘ก
๐‘™ ๐‘™โ€ฒ
spazio non appena la matrice ๐ต = |๐‘š ๐‘šโ€ฒ| ha rango due
๐‘› ๐‘›โ€ฒ
Punti e rette
Rette e un punto nel piano
Dato un punto P0=(x0,y0), vogliamo tutte le rette passanti per questo punto. Sostituiamo a t 0
Le equazioni parametriche sono:
๐‘ฅ = ๐‘ฅ0 + ๐‘ก๐‘™
{
quali che siano ๐‘™, ๐‘š โˆˆ โ„ non tutti nulli
๐‘ฆ = ๐‘ฆ0 + ๐‘ก๐‘š
equazioni cartesiane
๐‘Ž(๐‘ฅ โˆ’ ๐‘ฅ0 ) + ๐‘(๐‘ฆ โˆ’ ๐‘ฆ0 ) = 0
Lโ€™insieme delle rette del piano passanti per P0 si chiama fascio di rette di centro P0
Rette e un punto nello spazio
Dato p0=(x0,y0,z0) โˆˆ โ„3 le eqauzioni parametriche sono:
๐‘ฅ = ๐‘ฅ0 + ๐‘ก๐‘™
{๐‘ฆ = ๐‘ฆ0 + ๐‘ก๐‘š quali che siano ๐‘™, ๐‘š, ๐‘› โˆˆ โ„ non tutti nulli
๐‘ง = ๐‘ง0 + ๐‘ก๐‘›
le equazioni cartesiane
๐‘Ž(๐‘ฅ โˆ’ ๐‘ฅ0 ) + ๐‘(๐‘ฆ โˆ’ ๐‘ฆ0 ) + ๐‘(๐‘ง โˆ’ ๐‘ง0 ) = 0
{ โ€ฒ
๐‘Ž (๐‘ฅ โˆ’ ๐‘ฅ0 ) + ๐‘ โ€ฒ(๐‘ฆโˆ’๐‘ฆ0 ) + ๐‘ โ€ฒ (๐‘ง โˆ’ ๐‘ง0 ) = 0
lโ€™insieme delle rette dello spazio passanti per P0 si chiama stelle di rette di centro P0
Una retta e due punti
Dati ๐‘ƒ0 = (๐‘ฅ0 , ๐‘ฆ0 ) ๐‘’ ๐‘ƒ1 = (๐‘ฅ1 , ๐‘ฆ1 ) โˆˆ โ„2 vogliamo la retta passante per questi due punti. Bisonga quindi trovare
๐‘ฅ = ๐‘ฅ0 + ๐‘ก๐‘™
l,m in R t.c. il sistema nellโ€™incognita t { 1
abbia soluzione. Per Rouché-Capelli il sistema ha soluzione
๐‘ฆ1 = ๐‘ฆ0 + ๐‘ก๐‘š
๐‘™ ๐‘ฅ1 โˆ’ ๐‘ฅ0
๐‘™
se e solo se 1 = ๐‘Ÿ๐‘” | | = ๐‘Ÿ๐‘” |
|, quindi questo accade se e solo se ๐‘™(๐‘ฆ1 โˆ’ ๐‘ฆ0 ) โˆ’ ๐‘š(๐‘ฅ1 โˆ’ ๐‘ฅ0 ) = 0.
๐‘š
๐‘ฆ1 โˆ’ ๐‘ฆ0
๐‘š
Quindi le equazioni parametriche sono:
๐‘ฅ = ๐‘ฅ0 + (๐‘ฅ1 โˆ’ ๐‘ฅ0 )๐‘ก
{
๐‘ฆ = ๐‘ฆ0 + (๐‘ฆ1 โˆ’ ๐‘ฆ0 )๐‘ก
Le equazioni cartesiane sono:
(๐‘ฆ1 โˆ’ ๐‘ฆ0 )(๐‘ฅ โˆ’ ๐‘ฅ0 ) โˆ’ (๐‘ฅ1 โˆ’ ๐‘ฅ0 )(๐‘ฆ โˆ’ ๐‘ฆ0 ) = 0
Retta passante per due punti nello spazio
๐‘ƒ0 = (๐‘ฅ0 , ๐‘ฆ0 , ๐‘ง0 ) ๐‘’ ๐‘ƒ1 = (๐‘ฅ1 , ๐‘ฆ1 , ๐‘ง1 ) โˆˆ โ„3 le equazioni parametriche sono:
๐‘ฅ = ๐‘ฅ0 + (๐‘ฅ1 โˆ’ ๐‘ฅ0 )๐‘ก
{๐‘ฆ = ๐‘ฆ0 + (๐‘ฆ1 โˆ’ ๐‘ฆ0 )๐‘ก
๐‘ง = ๐‘ง0 + (๐‘ง1 โˆ’ ๐‘ง0 )๐‘ก
(๐‘ฆ โˆ’ ๐‘ฆ0 )(๐‘ฅ โˆ’ ๐‘ฅ0 ) โˆ’ (๐‘ฅ1 โˆ’ ๐‘ฅ0 )(๐‘ฆ โˆ’ ๐‘ฆ0 ) = 0
le equazioni cartesiane sono { 1
(๐‘ง1 โˆ’ ๐‘ง0 )(๐‘ฅ โˆ’ ๐‘ฅ0 ) โˆ’ (๐‘ฅ1 โˆ’ ๐‘ฅ0 )(๐‘ง โˆ’ ๐‘ง0 ) = 0
Punti e piani
Un punto e un piano
Dato un punto P0=(x0,y0,z0) โˆˆ โ„3 vogliamo tutti i piani che passano per quel punto. Le euqazioni parametriche
sono:
๐‘ฅ = ๐‘ฅ0 + ๐‘™๐‘  + ๐‘™โ€ฒ๐‘ก
{๐‘ฆ = ๐‘ฆ0 + ๐‘š๐‘  + ๐‘šโ€ฒ๐‘ก
๐‘ง = ๐‘ง0 + ๐‘›๐‘  + ๐‘›โ€ฒ๐‘ก
mentre le equazioni cartesiane sono:
๐‘Ž(๐‘ฅ โˆ’ ๐‘ฅ0 ) + ๐‘(๐‘ฆ โˆ’ ๐‘ฆ0 ) + ๐‘(๐‘ง โˆ’ ๐‘ง0 ) = 0
Lโ€™insieme dei piani passanti per P0 si chiama stella di piani di centro P0
un piano e due punti
dati i punti ๐‘ƒ0 = (๐‘ฅ0 , ๐‘ฆ0 , ๐‘ง0 ) ๐‘’ ๐‘ƒ1 = (๐‘ฅ1 , ๐‘ฆ1 , ๐‘ง1 ) โˆˆ โ„3 ๐‘๐‘œ๐‘› ๐‘ƒ0 โ‰  ๐‘ƒ1
Prodotti scalari
Fissato un sistema di riferimento affine RA(0,i,j) con i vettori i,j di lungezza 1 e che formino fra di loro un angolo
di
๐œ‹
2
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ— โ€– ๐‘œ โ€–๐‘ฃ1 โ€–. โ€–๐‘ฃ1 โ€– viene detto
La distanza d(O,P) di P dallโ€™origine è data ๐‘‘(๐‘‚, ๐‘ƒ) = โˆš๐‘ฅ12 + ๐‘ฆ12 e si scrive come โ€–๐‘‚๐‘ƒ
norma.
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ— โˆ’ โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—
๐‘‘(๐‘ƒ, ๐‘„) = โˆš(๐‘ฅ2 โˆ’ ๐‘ฅ1 )2 + (๐‘ฆ2 โˆ’ ๐‘ฆ1 )2 = โ€–๐‘ฃ2 โˆ’ ๐‘ฃ1 โ€– = โ€–๐‘‚๐‘ƒ
๐‘‚๐‘„ โ€–
๐‘ฅ
{
cos ๐œ“ = โ€–๐‘ฃ1โ€–
๐‘ฆ
1
sin ๐œ“ = โ€–๐‘ฃ1โ€–
1
{
๐‘ฅ
{
cos(๐œ“ + ๐œƒ) = โ€–๐‘ฃ2โ€–
๐‘ฆ
2
sin(๐œ“ + ๐œƒ) = โ€–๐‘ฃ2 โ€–
cos ๐œ“ cos ๐œƒ โˆ’ sin ๐œ“ sin ๐œƒ
sin ๐œ“๐‘๐‘œ๐‘ ๐œƒ + cos ๐œ“ sin ๐œƒ
che con le formule di addizione trigonometrica si trasformano in
2
๐‘ฅ
= โ€–๐‘ฃ2โ€–
2
che
๐‘ฆ
= โ€–๐‘ฃ2 โ€–
2
è un sistema nelle incognite cos ๐œƒ, sin ๐œƒ. cos ๐œƒ =
๐‘ฅ1 ๐‘ฅ2 +๐‘ฆ1 ๐‘ฆ2
โ€–๐‘ฃ1 โ€–โ€–๐‘ฃ2 โ€–
โŸจ๐‘ฃ ,๐‘ฃ โŸฉ
viene quindi associato hai vettori ๐‘ฃ1 ๐‘’ ๐‘ฃ2 il numero โŸจ๐‘ฃ1 , ๐‘ฃ2 โŸฉ = ๐‘ฅ1 ๐‘ฅ2 + ๐‘ฆ1 ๐‘ฆ2 da cui si ha che cos ๐œƒ = โ€–๐‘ฃ 1โ€–โ€–๐‘ฃ2 โ€–.
1
2
Anche la norma si può definire tramite โŸจ๐‘ฃ1 , ๐‘ฃ2 โŸฉ ๐‘’๐‘‘ è ๐‘ข๐‘”๐‘ข๐‘Ž๐‘™๐‘’ ๐‘Ž โˆšโŸจ๐‘ฃ1 , ๐‘ฃ2 โŸฉ
Due vettori sono ortogonali fra di loro se e solo se il coseno vale 0 quindi se e solo se โŸจ๐‘ฃ1 , ๐‘ฃ2 โŸฉ = 0
Il prodotto scalare canonico
Il prodotto scalare canonico โŸจโˆ™,โˆ™โŸฉ: โ„๐‘› × โ„๐‘› โ†’ โ„ ๐‘ ๐‘ข โ„๐‘› è la funzione data da โŸจ๐‘ฃ, ๐‘ค โŸฉ = ๐‘ฃ1 ๐‘ค1 + โ‹ฏ + ๐‘ฃ๐‘› ๐‘ค๐‘› = ๐‘ค ๐‘ก โˆ™
๐‘ฃ per ogni ๐‘ฃ = (๐‘ฃ1 , โ€ฆ , ๐‘ฃ๐‘› )๐‘ก , ๐‘ค = (๐‘ค1 , โ€ฆ , ๐‘ค๐‘› )๐‘ก โˆˆ โ„๐‘› , dove il prodotto allโ€™ultimo membro è il solito prodotto
righe per colonne.
La norma associata al prodotto scalare canonico è la funzione โ€–โˆ™โ€–: โ„๐‘› โ†’ โ„+ data da โ€–๐‘ฃโ€– = โˆšโŸจ๐‘ฃ, ๐‘ฃโŸฉ =
1
(๐‘ฃ12 + โ‹ฏ + ๐‘ฃ๐‘›2 )2
Proprietà:
๏‚ท
๏‚ท
๏‚ท
๏‚ท
๏‚ท
È lineare rispetto alla prima variabile
È lineare rispetto alla seconda variabile
โŸจ๐‘ฃ, ๐‘ค โŸฉ = โŸจ๐‘ค, ๐‘ฃ โŸฉ (simmetria)
si ha โŸจ๐‘ฃ, ๐‘ค โŸฉ=0 per ogni ๐‘ค โˆˆ ๐‘‰ se e solo se v=0 (non è degenere)
per tutti i ๐‘ฃ โˆˆ โ„๐‘› ๐‘๐‘œ๐‘› ๐‘ฃ โ‰  0 si ha โŸจ๐‘ฃ, ๐‘ฃ โŸฉ > 0 (è definito positivo)
sia V uno spazio vettoriale su โ„. Una forma bilineare su V è un applicazione ๐‘”: ๐‘‰ × ๐‘‰ โ†’ โ„ t.c. ๐‘”(๐‘ฃ1 + ๐‘ฃ2 , ๐‘ค) =
๐‘”(๐‘ฃ1 , ๐‘ค) + ๐‘”(๐‘ฃ2 , ๐‘ค),
๐‘”(๐‘ฃ, ๐‘ค1 + ๐‘ค2 ) = ๐‘”(๐‘ฃ, ๐‘ค1 ) + ๐‘”(๐‘ฃ, ๐‘ค2 )
๐‘”(๐œ†๐‘ฃ, ๐‘ค) = ๐œ†๐‘”(๐‘ฃ, ๐‘ค) = ๐‘”(๐‘ฃ, ๐œ†๐‘ค)
sia โŸจโˆ™,โˆ™โŸฉ un prodotto scalare su uno spazio vettoriale V. il nucleo di โŸจโˆ™,โˆ™โŸฉ è lโ€™insieme ๐‘‰ โŠฅ dei vettori v โˆˆ V t.c.
โŸจ๐‘ฃ, ๐‘ค โŸฉ = 0 per ogni w โˆˆ V.
sia V uno spazio vettoriale su โ„. Un prodotto scalare โŸจโˆ™,โˆ™โŸฉ su V si dice non degenere se ๐‘‰ โŠฅ = {0}; degenere
altrimenti.
Basi ortogonali
Sia V uno spazio vettoriale metrico, e v1,โ€ฆ,vk โˆˆ ๐‘‰ vettori non nulli ortogonali a due a due, cioè t.c. ๐‘ฃ๐‘– โŠฅ ๐‘ฃ๐‘— non
appena ๐‘– โ‰  ๐‘—. Allora v1,โ€ฆ,vk sono linearmente indipendenti. In particolare, se dimV=n allora n vettri non nulli
ortogonali a due e due sono automaticamente una base di V.
Una base ortogonale di uno spazio vettoriale metrico V è una base {๐‘ฃ1 , โ€ฆ , ๐‘ฃ๐‘› } di V composta da vettori a due a
due ortogonali, ovvero t.c. โŸจ๐‘ฃ๐‘– , ๐‘ฃ๐‘— โŸฉ = 0 per 1 โ‰ค ๐‘– โ‰  ๐‘— โ‰ค ๐‘›
Una base ortonormale di uno spazio vettoriale metrico V è una base ortogonale composta da vettori di
lunghezza unitaria (ovvero, composta da versori).
โŸจ๐‘ฃ,๐‘ฃ1 โŸฉ
๐‘ฃ1
1 ,๐‘ฃ1 โŸฉ
Sia {๐‘ฃ1 , โ€ฆ , ๐‘ฃ๐‘› } una base ortogonale di uno spazio vettoriale metrico V. Allora ๐‘ฃ = โŸจ๐‘ฃ
โŸจ๐‘ฃ,๐‘ฃ๐‘› โŸฉ
๐‘ฃ๐‘›
๐‘› ,๐‘ฃ๐‘› โŸฉ
+ โ‹ฏ + โŸจ๐‘ฃ
per
ogni ๐‘ฃ โˆˆ ๐‘‰. In particolare se {๐‘ฃ1 , โ€ฆ , ๐‘ฃ๐‘› } è una base ortogonale si ha โˆ€ ๐‘ฃ โˆˆ ๐‘‰ ๐‘ฃ = โŸจ๐‘ฃ, ๐‘ฃ1 โŸฉ๐‘ฃ1 + โ‹ฏ + โŸจ๐‘ฃ, ๐‘ฃ๐‘› โŸฉ๐‘ฃ๐‘›
Sia {๐‘ฃ1 , โ€ฆ , ๐‘ฃ๐‘› } una base ortogonale di uno spazio vettoriale metrico V. Alloraโˆ€ ๐‘ฃ, ๐‘ค โˆˆ ๐‘‰ โŸจ๐‘ฃ, ๐‘ค โŸฉ =
โ‹ฏ+
โŸจ๐‘ฃ,๐‘ฃ1 โŸฉโŸจ๐‘ฃ1 ,๐‘คโŸฉ
โŸจ๐‘ฃ1 ,๐‘ฃ1 โŸฉ
+
โŸจ๐‘ฃ,๐‘ฃ๐‘› โŸฉโŸจ๐‘ฃ๐‘› ,๐‘คโŸฉ
e
โŸจ๐‘ฃ๐‘› ,๐‘ฃ๐‘›โŸฉ
โˆ€๐‘ฃ โˆˆ๐‘‰
โ€–๐‘ฃ โ€–2 =
|โŸจ๐‘ฃ,๐‘ฃ1 โŸฉ|2
โ€–๐‘ฃ1 โ€–2
+ โ‹ฏ+
|โŸจ๐‘ฃ,๐‘ฃ๐‘› โŸฉ|2
โ€–๐‘ฃ๐‘› โ€–2
, in particolare se {๐‘ฃ1 , โ€ฆ , ๐‘ฃ๐‘› } è una base ortonormale di V si ha che
โˆ€ ๐‘ฃ, ๐‘ค โˆˆ ๐‘‰ โŸจ๐‘ฃ, ๐‘ค โŸฉ = โŸจ๐‘ฃ, ๐‘ฃ1 โŸฉโŸจ๐‘ฃ1 , ๐‘ค โŸฉ + โ‹ฏ + โŸจ๐‘ฃ, ๐‘ฃ๐‘› โŸฉโŸจ๐‘ฃ๐‘› , ๐‘ค โŸฉ formula di Parseval e che โˆ€ ๐‘ฃ โˆˆ ๐‘‰
|โŸจ๐‘ฃ, ๐‘ฃ1 โŸฉ|2 + โ‹ฏ + |โŸจ๐‘ฃ, ๐‘ฃ๐‘› โŸฉ|2
โ€–๐‘ฃ โ€–2 =
teorema di Pitagora
sia V uno spazio vettoriale metrico, e ๐‘ฃ1 , โ€ฆ , ๐‘ฃ๐‘› โˆˆ ๐‘‰ linearmente indipendenti. Allora esistono w1,โ€ฆwr che
soddisfano le seguenti proprietà:
1. ๐‘ ๐‘๐‘Ž๐‘›(๐‘ค1 , โ€ฆ , ๐‘ค๐‘— ) = ๐‘ ๐‘๐‘Ž๐‘›(๐‘ฃ1 , โ€ฆ , ๐‘ฃ๐‘— ) ๐‘๐‘’๐‘Ÿ ๐‘œ๐‘”๐‘›๐‘– ๐‘— = 1, โ€ฆ ๐‘Ÿ
2. ๐‘ค๐‘— è ortogonale a ogni elemento di ๐‘ ๐‘๐‘Ž๐‘›(๐‘ค1 , โ€ฆ , ๐‘ค๐‘—โˆ’2 ) per ogni j=2,โ€ฆ,r
3. โŸจ๐‘ค๐‘— , ๐‘ฃ๐‘— โŸฉ > 0 per ogni j=1,โ€ฆ,r
gli elementi sono univocamente determinati a meno di fattori scalari positivi; in altri termini se ๐‘คโ€ฒ1 , โ€ฆ , ๐‘คโ€ฒ๐‘Ÿ sono
altri elementi di V che soddisvano le proprietà 1-3 allora ๐‘ค๐‘—โ€ฒ = ๐›ผ๐‘— ๐‘ค๐‘— ๐‘๐‘œ๐‘› ๐›ผ๐‘— > 0 ๐‘๐‘’๐‘Ÿ ๐‘— = 1, โ€ฆ , ๐‘Ÿ. Infine, gli
๐‘—โˆ’1 โŸจ๐‘ฃ๐‘— ,๐‘คโ„ŽโŸฉ
๐‘คโ„Ž , ๐‘๐‘’๐‘Ÿ
โ„Ž ,๐‘คโ„ŽโŸฉ
elementi ๐‘คโ€ฒ1 , โ€ฆ , ๐‘คโ€ฒ๐‘Ÿ sono ottenuti ponendo w1=v1 e ๐‘ค๐‘— = ๐‘ฃ๐‘— โˆ’ โˆ‘โ„Ž=1 โŸจ๐‘ค
๐‘— = 2, โ€ฆ , ๐‘Ÿ
Sia B={๐‘ฃ1 , โ€ฆ , ๐‘ฃ๐‘— } una base di uno spazio vettoriale metrico V. Allora esiste unโ€™unica base ortonormale
Bโ€™={u1,โ€ฆ,un} di V t.c. si abbia โŸจ๐‘ข๐‘— , ๐‘ฃ๐‘— โŸฉ > 0 e ๐‘ ๐‘๐‘Ž๐‘›(๐‘ฃ1 , โ€ฆ , ๐‘ฃ๐‘— ) = ๐‘ ๐‘๐‘Ž๐‘›(๐‘ข1 , โ€ฆ , ๐‘ข๐‘— ) ๐‘๐‘’๐‘Ÿ ๐‘œ๐‘”๐‘›๐‘– ๐‘— = 1, โ€ฆ ๐‘Ÿ
Siano ๐‘ฃ1 , โ€ฆ , ๐‘ฃ๐‘Ÿ vettori a due a due ortogonali di uno spazio vettoriale metrico V di dim ๐‘› โ‰ฅ ๐‘Ÿ. Allora esistono
vettori ๐‘ค๐‘Ÿ+1 , โ€ฆ , ๐‘ค๐‘› โˆˆ ๐‘‰ t.c. ๐ต = ๐‘ฃ1 , โ€ฆ , ๐‘ฃ๐‘Ÿ + ๐‘ค๐‘Ÿ+1 , โ€ฆ , ๐‘ค๐‘› sia una base ortogonale di V. Inoltre, se โ€–๐‘ฃ๐‘— โ€– = 1 per
j=1,โ€ฆ,r, allora ๐‘ค๐‘Ÿ+1 , โ€ฆ , ๐‘ค๐‘› possono essere scelti in modo che B sia una base ortonormale di V.
Proiezioni ortogonali
Sia V uno spazio vettoriale metrico, e U un sottospazio di V. Allora per ovni v0 โˆˆ ๐‘‰ esiste un unico u0 โˆˆ ๐‘ˆ t.c. v0u0 sia ortogonale a tutti gli elementi di U.
Sia U un sottospazio vettoriale di uno spazio vettoriale metrico V. Lโ€™applicazione lineare ๐‘ƒ๐‘ˆ : ๐‘‰ โ†’ ๐‘ appena
definita si dice proiezione ortogonale di V su U. Nota che ๐‘ƒ๐‘ˆ (๐‘ข) = ๐‘ข per ogni ๐‘ข โˆˆ ๐‘, e che ๐ผ๐‘š๐‘ƒ๐‘ˆ = ๐‘ˆ
sia V uno spazio vettoriale equipaggiato con un prodotto scalare โŸจโˆ™,โˆ™โŸฉ. Lโ€™ortogonale di un sottoinsieme ๐‘† โŠ† ๐‘‰ è
lโ€™inisieme ๐‘† โŠฅ di tutti gli elementi di V ortogonali a S. Nel caso in cui sia S un sottospazio vettoriale di U di V (e โŸจโˆ™,โˆ™โŸฉ
sia definito positivo), allora ๐‘ˆ โŠฅ è detto supplemento ortogonale di U.
Endomorfismo simmetrici
Sia ๐‘‡: ๐‘‰ โ†’ ๐‘‰ un endomorfismo di uno spazio vettoriale metrico V. Diremo che T è simmetrico (o autoaggiunto)
se โŸจ๐‘‡(๐‘ฃ1 ), ๐‘ฃ2 โŸฉ = โŸจ๐‘ฃ1 , ๐‘‡(๐‘ฃ2 )โŸฉ, โˆ€๐‘ฃ1 , ๐‘ฃ2 โˆˆ ๐‘‰
Sia ๐‘‡: ๐‘‰ โ†’ ๐‘‰ un endomorfismo di uno spazio vettoriale metrico V. Diremo che T è unโ€™isomeria (lineare), o
endorfismo ortogonale, se โŸจ๐‘‡(๐‘ฃ1 ), ๐‘‡(๐‘ฃ2 )โŸฉ = โŸจ๐‘ฃ1 , ๐‘ฃ2 โŸฉ โˆ€ ๐‘ฃ1 , ๐‘ฃ2 โˆˆ ๐‘‰.
Sia ๐‘‡: ๐‘‰ โ†’ ๐‘‰ un endomorfismo di uno spazio vettoriale metrico V. Allora le seguenti affermazioni sono
equivalenti:
1. T è unโ€™isomeria
2. Se {v1,โ€ฆ,vn} è una base ortonormale di V, anche {๐‘‡(๐‘ฃ1 ), โ€ฆ , ๐‘‡(๐‘ฃ๐‘› )} lo è
3. โ€–๐‘‡(๐‘ฃ)โ€– = โ€–๐‘ฃ โ€–, โˆ€ ๐‘ฃ โˆˆ ๐‘‰ (ed in particolare T è invertibile)
Geometria Euclidea
Il piano euclideo ๐œ€ 2 e lo spazio euclideo ๐œ€ 3 sono piani o spazi affini in cui sia stata fissata unโ€™unità di misura per
le lunghezze.
Un sistema di riferimento cartesiano ๐‘…๐ถ(๐‘‚, ๐ด1 , ๐ด2 , ๐ด3 ) DI ๐œ€ 3 è un sistema di riferimento affine RA(๐‘‚, ๐ด1 , ๐ด2 , ๐ด3 )
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—1 , ๐‘—โƒ— = ๐‘‚๐ด
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—2 , ๐‘˜โƒ—โƒ— = ๐‘‚๐ด
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—3 siano di lunghezza unitaria e ortogonali a due a due.
tale che i vettori ๐‘–โƒ— = ๐‘‚๐ด
Una retta orientata è una retta cui sia fissiato un vettore direttore (e quindi una direzione di percorrenza). Due
diversi vettori direttori determinano la stessa orientazione se e solo se sono un multiplo positivo dellโ€™altro. In
particolare, esiste un unico vettore di lunghezza unitaria che determina lโ€™orientazione scelta: il versore direttore
della retta orientata. Se ๐‘ฃ = ๐›ผ๐‘–โƒ— + ๐›ฝ๐‘—โƒ— + ๐›พ๐‘˜โƒ—โƒ— è lโ€™espressione del versore direttore v come combinazione lineare
della base {๐‘–โƒ— + ๐‘—โƒ— + ๐‘˜โƒ—โƒ—} di ๐‘‰๐‘œ3 , ๐‘Ž๐‘™๐‘™๐‘œ๐‘Ÿ๐‘Ž ๐›ผ, ๐›ฝ, ๐›พ โˆˆ โ„ sono detti coseni direttori della retta
Lโ€™angolo ๐‘Ÿฬ‚
0 ๐‘Ÿ1 fra due rette orientate r0 ed r1 è lโ€™angolo fra i loro versori direttori
due rette r0 ed r1 aventi eq. parametriche ๐‘ƒ = ๐‘ƒ0 + ๐‘ก๐‘ฃ0 e ๐‘ƒ = ๐‘ƒ1 + ๐‘ ๐‘ฃ1 dove ๐‘ฃ0 = (๐‘™0 , ๐‘š0 , ๐‘›0 )๐‘’ ๐‘ฃ1 (๐‘™1 , ๐‘š1 ๐‘›1 )
che determinano le orientazioni scelte, allora lโ€™angolo fra le rette è dato da cos ๐‘Ÿฬ‚
0 ๐‘Ÿ1
๐‘™0 ๐‘™1 +๐‘š0 ๐‘š1+๐‘›0๐‘›1
โˆš๐‘™02 +๐‘š02+๐‘›02 โˆš๐‘™12 +๐‘š12+๐‘›12
๐‘™0 ๐‘™1 + ๐‘š0 ๐‘š1 + ๐‘›0 ๐‘›1 = 0
โŸจ๐‘ฃ ,๐‘ฃ โŸฉ
= โ€–๐‘ฃ 0โ€–โ€–๐‘ฃ1 โ€– =
0
1
, in particolare due rette sono ortogonali se e solo se cos ๐‘Ÿฬ‚
0 ๐‘Ÿ1 = 0 ossia che