Vettori geometrici Equazioni di rette e piani

Vettori geometrici
Fissato su A1 un punto O e un’unità di misura, cioè un segmento OA, otteniamo un applicazione bigettiva fra i
punti della retta e i numeri reali; Ciò introduce una somma e un prodotto che lo rendono campo. ๐‘ฃ๐‘œ2 con somma
è un gruppo commutativo. È inoltre definito un prodotto per uno scalare. In ๐‘ฃ๐‘œ2 è possibile definire un
applicazione bigettiva ๐น๐‘ : ๐‘ฃ๐‘œ2 → โ„2 che associa a ogni vettore una coppia di numeri. Dato che entrambi hanno la
sessa struttura algebrica diremo che sono isomorfi e che ๐น๐‘ è un isomorfismo.
L’isomorfismo è un applicazione biunivoca t.c. ๐น๐‘ ๐‘’ ๐น๐‘ −1 sono omomorfisti, ossia che conservano le operazioni
in esse definite.
Riferimento affine
L’insieme formato da un punto ๐‘‚ ∈ ๐ด2 e da due vettori non proporzionali ๐‘–โƒ— ๐‘’ ๐‘—โƒ— ∈ ๐‘ฃ๐‘œ2 si chiama sistema di
riferimento affine RA(๐‘‚, ๐‘–โƒ—, ๐‘—โƒ—) del piano.
Equazioni di rette e piani
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ— = ๐‘ก๐‘‚๐‘„
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ— . Se
Se r passa per l’origine per sapere se un punto P appartiene alla retta, basta risolvere l’equazione: ๐‘‚๐‘ƒ
la retta r è invece qualunque, prendiamo un punto ๐‘ƒ0 ∈ ๐‘Ÿ, e sia r0 la retta parallela ad r passante per O.
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ— = ๐‘‚๐‘ƒ
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—0 + ๐‘ก๐‘‚๐‘„
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ— (equazione vettoriale della retta; OQ si chiama vettore direttore)
L’equazione sarà dunque ๐‘‚๐‘ƒ
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—1 + ๐‘ก(๐‘‚๐‘ƒ
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—2 − โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—
P appartiene alla retta passante per P1 e P2 se e solo se โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—
๐‘‚๐‘ƒ = ๐‘‚๐‘ƒ
๐‘‚๐‘ƒ1 )
Un punto P appartiene al piano ๐œ‹ ⇔ โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—
๐‘‚๐‘ƒ = โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—
๐‘‚๐‘ƒ0 + ๐‘ ๐‘–โƒ— + ๐‘ก๐‘—โƒ— (equazione vettoriale del piano; i,j s chiamoano
vettori di giacitura del piano)
Sia una retta passante per P0 con vettore direttore OQ e r’ con vettore direttore OQ’, le due rette si intersecano
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—′ − ๐‘‚๐‘ƒ
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—, in altre parole se e solo se ๐‘‚๐‘ƒ
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—′ − ๐‘‚๐‘ƒ
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—0 = ๐‘ก๐‘‚๐‘„
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ— − ๐‘ก ′ ๐‘‚๐‘„′
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—0
ne punto X se e solo se esistono t e t’ t.c. ๐‘‚๐‘ƒ
0
0
appartiene al piano generato dai vettori direttori.
Equazioni parametriche
๐‘ฅ0
๐‘ฅ
๐‘™
Fissato RA(๐‘‚, ๐‘–โƒ—, ๐‘—โƒ—) chiamiamo |๐‘ฆ | le coordinate del punto P0, | | le coordinate di Q, e |๐‘ฆ| le coordinate del
0
๐‘š
punto generico P.
๐‘ฅ
๐‘ฅ0
๐‘™
|๐‘ฆ| = |๐‘ฆ | + ๐‘ก | | quindi il punto p appartienene alla retta se e solo se le sue coordinate sono date da
0
๐‘š
๐‘ฅ = ๐‘ฅ0 + ๐‘ก๐‘™
{
(equazione parametrica di una retta nel piano)
๐‘ฆ = ๐‘ฆ0 + ๐‘ก๐‘š
๐‘ฅ0
|๐‘ฆ0 | + ๐‘ก
๐‘ง0
๐‘ฅ = ๐‘ฅ0 + ๐‘ก๐‘™
๐‘™
๐‘š
| | {๐‘ฆ = ๐‘ฆ0 + ๐‘ก๐‘š equazione parametrica di una retta nello spazio (p appartiene alla retta se
๐‘›
๐‘ง = ๐‘ง0 + ๐‘ก๐‘›
e solo se le sue coordinate sono date da questa equazione)
๐‘ฅ
|๐‘ฆ| =
๐‘ง
๐‘ฅ = ๐‘ฅ0 + +๐‘ ๐‘™ + ๐‘ก๐‘™′
๐‘ฅ0
๐‘™
๐‘™′
๐‘ฆ
0
๐‘ฆ
| | + ๐‘  |๐‘š| ๐‘ก |๐‘š′| { = ๐‘ฆ0 + ๐‘ ๐‘š + ๐‘ก๐‘š′ equazione parametrica di un piano nello spazio (p appartiene
๐‘ง0
๐‘›′
๐‘›
๐‘ง = ๐‘ง0 + ๐‘ ๐‘› + ๐‘ก๐‘›′
allo spazio se e solo se le sue coordinate sono date da questa equazione)
๐‘ฅ
|๐‘ฆ| =
๐‘ง
๐‘ฅ0
Se vogliamo trovare l’intersezione fra due rette con equazioni parametriche una volta fissato RA(๐‘‚, ๐‘–โƒ—, ๐‘—โƒ—), P0 |๐‘ฆ |,
0
๐‘ฅ′
๐‘™๐‘ก − ๐‘™ ′ ๐‘ก ′ = ๐‘ฅ0′ − ๐‘ฅ0
๐‘™
๐‘ƒ0′ | 0′ |, Q | | e Q’ | ๐‘™′ | le rette si intersecheranno se e solo se {
, dove t e t’ sono incognite.
๐‘ฆ0
๐‘š๐‘ก − ๐‘š′ ๐‘ก ′ = ๐‘ฆ0′ − ๐‘ฆ0
๐‘š
๐‘š′
|
๐‘ฅ ′ + ๐‘™′ ๐‘ก0′
๐‘ฅ0 + ๐‘™๐‘ก0
| = | ′0
|
๐‘ฆ0 + ๐‘š๐‘ก0
๐‘ฆ0 + ๐‘š′ ๐‘ก0′
L’eliminazione di Gauss
Nota: per passare da un sistema con unica a una senza soluzioni(o con infinite soluzioni) si modificano i
coefficienti, mentre per passare da un sistema senza soluzioni a uno con infinite si modificano i termini noti!
Il numero n delle incognite è detto anche ordine del sistema, un sistema è compatibile se ammette almeno una
soluzione. Una soluzione è una n-upla (๐‘ฃ1 , … , ๐‘ฃ๐‘› ) che sostituiti nelle incognite ๐‘ฅ1 , … ๐‘ฅ๐‘› soddisfano il sistema.
๐ด๐‘–๐‘— dove i indica la riga e j la colonna. A viene detta diagonale se tutti gli elementi al di fuori della diagonale
principale sono nulli. Triangolare superiore se gli elementi al di sotto (cioè a sinistra) della diagonale principale
sono tutti nulli, Triangolare inferiore se invece sono zero gli elementi al di sopra.
Sistemi triangolari superiori
Un sistema triangolare superiore ๐ด๐‘ฅ = ๐ต di n equazioni in n incognite ammette una e una sola soluzione se e
solo se tutti gli elementi della diagonale principale di A sono diversi da 0 (si dimostra risolvendo all’indietro).
Gauss
Due sistemi lineari dello stesso ordine si dicono equivalenti se hanno esattamente le stesse soluzioni. Si chiama
combinazioni lineare: โ„Ž(๐‘Ž1 ๐‘ฅ1 + โ‹ฏ + ๐‘Ž๐‘› ๐‘ฅ๐‘› ) + ๐‘˜(๐‘1 ๐‘ฅ1 + โ‹ฏ + ๐‘๐‘› ๐‘ฅ๐‘› ) = โ„Ž๐‘Ž + ๐‘˜๐‘. Facendo combinazioni lineari di
equazioni di un sistema le soluzioni non cambiano.
Il metodo di gauss consiste in un passo in meno dell’ordine del sistema.
Un sistema lineare quadrato ammette un'unica soluzione se e solo se i pivot della sua matrice dei coefficienti
sono tutti non nulli.
Il prodotto di tutti i pivot è il valore assoluto del determinante della matrice
Una matrice quadrata è non singolare se tutti i suoi pivot (rispetto ad una eliminazione) sono non nulli, è
singolare altrimenti.
Spazio vettoriale
Lo spazio vettoriale è un insieme definito con una somma ed un prodotto di un numero per un vettore
La somma di due vettori e semplicemete la somma componente per componente. Il prodotto per uno scalare è
definito componente per componente
Proprietà degli spazi vettoriali:
1. Somma:
๏‚ท Commutativa
๏‚ท Esistenza del numero neutro
๏‚ท Associativa
๏‚ท Esistenza dello zero
๏‚ท Esistenza dell’opposto
2. Prodotto:
๏‚ท Distributiva
๏‚ท associativa
๏‚ท Esistenza del numero neutro
W è un sottospazio vettoriale se soddisfa le proprietà degli spazi vettoriali, e se e chiuso rispetto alle operazioni
di somma e prodotto per scalare, quindi basta dimostrare che somma due elementi, l’elemento risultante
rimanga nel sotto insieme, che il vettore risultante da uno scalare per un vettore appartenga al sottoinsieme e
l’esistenza dell’elemento nullo.
Un sistema lineare della forma ๐ด๐‘ฅ = 0 è detto omogeneo.
Sia ๐‘Š ⊆ โ„๐‘› l’iniseme delle soluzioni del sistema lineare omogeneo in n incognite ๐ด๐‘ฅ = 0. Allora w è un
sottospazio vettoriale di Rn. Se il sistema non era omogeneo w non era sottospazio in quanto non conteneva il
vettore nullo.
Sia v uno spazio vettoriale; la combinazione lineare di k vettori ๐‘ฃ1 , … , ๐‘ฃ๐‘˜ con coefficienti (o pesi) ๐›ผ1 , … , ๐›ผ๐‘˜ è il
vettore ๐›ผ1 ๐‘ฃ1 + โ‹ฏ + ๐›ผ๐‘˜ ๐‘ฃ๐‘˜ . Lo span dei (o sottospazio generato dai) vettori ๐‘ฃ1 , … , ๐‘ฃ๐‘˜ è l’insieme di tutte le
possibili combinazioni lineari. In simboli ๐‘ ๐‘๐‘Ž๐‘›(v1 , … , v๐‘˜ ) = {๐›ผ1 ๐‘ฃ1 + โ‹ฏ + ๐›ผ๐‘˜ ๐‘ฃ๐‘˜ | ๐›ผ1 , … , ๐›ผ๐‘˜ ∈ โ„ }.
Sia V uno spazio vettoriale, e v1 , … , v๐‘˜ vettori di V. Allora span(v1 , … , v๐‘˜ ) è un sottospazio di V.
Dipendenza e indipendenza lineare
๐‘Ž1 ๐‘ฃ1 + ๐‘Ž2 ๐‘ฃ2 + โ‹ฏ + ๐‘Ž๐‘› ๐‘ฃ๐‘› è una combinazione lineare
La combinazione lineare è linearmente indipendente se la combinazione che ha come risultato 0 è soddisfatta
↔ ๐‘Ž1 = ๐‘Ž2 = โ‹ฏ = ๐‘Ž๐‘› = 0
Il sistema ๐ด๐‘ฅ = 0 in n equazioni ha come unica soluzione (quella banale x=0) se e solo se le colonne ๐ด1 , … , ๐ด๐‘›
(๐ด1 corrisponde alla prima colonna, ecc.) sono linearmente indipendenti
Criteri per vedere se una combinazione è linearmente indipendente:
1.
2.
3.
๐‘ฃโƒ—1 ≠ 0
๐‘ฃโƒ—2 non è un multiplo di ๐‘ฃโƒ—1
๐‘ฃโƒ—3 non è combinazione lineare di ๐‘ฃโƒ—1 e ๐‘ฃโƒ—2
Generatori:
Un insieme di generatori per A se tutti gli elementi di A possono essere ottenuti dagli elementi di S come
combinazioni di span A.
Sia V uno spazio vettoriale, un insieme B= {๐‘ฃ1 , … , ๐‘ฃ๐‘› } di vettori V è una base di V se:
๏‚ท
๏‚ท
V span(๐‘ฃ1 , … , ๐‘ฃ๐‘› ), cioè ๐‘ฃ1 , … , ๐‘ฃ๐‘› sono un sistema di generatori di v;
๐‘ฃ1 , … , ๐‘ฃ๐‘› sono linearmente indipendenti
cioè se ogni elemento di V si può scrivere come un'unica combinazione lineare.
Siano ๐‘ฃ1 , … , ๐‘ฃ๐‘› vettori linearmente indipendenti di uno spazio vettoriale V. Supponiamo che
๐›ผ1 , … , ๐›ผ๐‘˜ , ๐›ฝ1 , … , ๐›ฝ ∈ โ„ siano tali che ๐›ผ1 ๐‘ฃ1 + โ‹ฏ + ๐›ผ๐‘˜ ๐‘ฃ๐‘˜ = ๐›ฝ1 ๐‘ฃ1 + โ‹ฏ + ๐›ฝ๐‘˜ ๐‘ฃ๐‘˜ ⇒ ๐›ผ๐‘— = ๐›ฝ๐‘— ๐‘๐‘’๐‘Ÿ ๐‘— = 1 … ๐‘˜
Sia B= {๐‘ฃ1 , … , ๐‘ฃ๐‘› } una base di V, e v ∈ V. Gli n numeri reali (๐›ผ1 , … , ๐›ผ๐‘› ) sono le coordinate di v rispetto a B
Sia B= {๐‘ฃ1 , … , ๐‘ฃ๐‘› } una base di uno spazio vettoriale V. allora b è un insieme massimale in V di vettori
linearmente indipendenti
Sia B un sottoinsieme finito di uno spazio vettoriale V. se span(B) contiene un sistema di generatori di V allora
V=span(B), cioè B è un sistema di generatori di V
Sia A{๐‘ฃ1 , … , ๐‘ฃ๐‘˜ } ๐‘ข๐‘› ๐‘ ๐‘–๐‘ ๐‘ก๐‘’๐‘š๐‘Ž ๐‘‘๐‘– ๐‘”๐‘’๐‘›๐‘’๐‘Ÿ๐‘Ž๐‘ก๐‘œ๐‘Ÿ๐‘– ๐‘‘๐‘– ๐‘ข๐‘›๐‘œ ๐‘ ๐‘๐‘Ž๐‘ง๐‘–๐‘œ vettoriale V. Sia ๐ต ⊆ ๐ด un sottoinsieme massimale
in A di vettori linearente indipendenti. Allora B è una base di V
Ogni spazio vettoriale contenente un sistema finito di generatori ammette una base
Teorema di Steinitz e del completamento
๐‘ฅ1 , ๐‘ฅ2 , … , ๐‘ฅ๐‘› → ๐‘”๐‘’๐‘›๐‘’๐‘Ÿ๐‘Ž๐‘ก๐‘œ๐‘Ÿ๐‘– e ๐‘ฆ1 , ๐‘ฆ2 , … , ๐‘ฆ๐‘š → ๐‘™๐‘–๐‘›๐‘’๐‘Ž๐‘Ÿ๐‘š๐‘’๐‘›๐‘ก๐‘’ ๐‘–๐‘›๐‘‘๐‘–๐‘๐‘’๐‘›๐‘‘๐‘’๐‘›๐‘ก๐‘– ⇒ ๐‘š ≤ ๐‘›
sia B={๐‘ฃ1 , … , ๐‘ฃ๐‘› } una base di uno spazio vettoriale V, e siano ๐‘ค1 , … , ๐‘ค๐‘› ∈ ๐‘‰ (๐‘๐‘œ๐‘› ๐‘ ≤ ๐‘›) vettori linearmente
indipendenti. Allora esistono n-p vettori di B che insieme a ๐‘ค1 , … , ๐‘ค๐‘› formano una base di V
Corollario:
Tutte le basi di uno spazio vettoriale hanno lo stesso numero di elementi.
Le dimensioni di uno spazio vettoriale è il numero di elementi di una qualsiasi base ๐‘› = ๐‘‘๐‘–๐‘š๐‘‰
Dimensione sottospazio:
๐‘Š ⊆ ๐‘‰ ⇒ ๐‘‘๐‘–๐‘š๐‘Š ≤ ๐‘‘๐‘–๐‘š๐‘‰
Somma e intersezioni di sottospazi
Sia U,W sottospazi dello stesso spazio vettoriale V. Se B è un sistema di generatori di U e C un sistema di
generatori di W , allora B U C è un sistema di generatori di U+W
Teorema di Grassman: dim(๐‘ˆ + ๐‘Š) + dim(๐‘ˆ ∩ ๐‘Š) = dim ๐‘ˆ + dim ๐‘Š
Due sottospazi U e W di uno spazio vettoriale V si dicono supplementari se ๐‘‰ = ๐‘ˆ ⊕ ๐‘Š (ossia sono somma
diretta, cioè la loro intersezione è uguale al vettore nullo)
Applicazioni lineari
Teorema di struttura: Sia ๐‘ฃ 0 ∈ โ„๐‘› una soluzione del sistema lineare Ax=B di ordine n. Allora ogni altra soluzione
è della forma ๐‘ฃ = ๐‘ฃ 0 + ๐‘ค, dove ๐‘ค ∈ โ„๐‘› è una soluzione del sistema omogeneo Ax=0. In altra parole se ๐ฟ ⊆ โ„๐‘›
è l’insieme delle soluzioni del sistema Ax=B e ๐‘Š ⊆ โ„๐‘› è l’insieme delle soluzioni del sistema omogeneo
associato ๐ด๐‘ฅ = 0, si ha ๐ฟ = ๐‘ฃ 0 + ๐‘Š = {๐‘ฃ 0 + ๐‘ค|๐‘ค ∈ ๐‘Š} in particolare, v0 l’unica soluzione del sistema se e solo
se le colonne di A sono linearmente indipendenti
Matrici
Definita ๐ฟ๐‘Ž : โ„๐‘› → โ„๐‘š
๐‘Ž11
๐ด=[ โ‹ฎ
๐‘Ž๐‘š1
โ‹ฏ
โ‹ฑ
…
๐‘Ž1๐‘›
โ‹ฎ ] matrice con m righe ed n colonne. Se m=n la matrice è quadrata
๐‘Ž๐‘š๐‘›
Rango
๐‘‘๐‘–๐‘š ๐‘š (dimensione spazio righe) = ๐‘‘๐‘–๐‘š ๐‘› (dimensione spazio colonne)= ๐‘‘๐‘–๐‘š ๐ด (dimensione matrice)= ๐‘Ÿ๐‘” ๐ด
(rango matrice)
๐‘Ÿ๐‘”๐ด ≤ min(๐‘š, ๐‘›)
Teorema della dimensione
Data ๐น: ๐‘‰ → ๐‘Š allora dim ๐‘‰ = dim ๐‘˜๐‘’๐‘Ÿ๐น + ๐‘Ÿ๐‘”๐น (๐‘œ ๐ผ๐‘š๐น)
Operazioni ammesse su una matrice
๏‚ท
๏‚ท
๏‚ท
moltiplicare ogni elemento di una riga per ๐‘Ž ≠ 0
scambiare le riga i-esima con la j-esima ๐‘– ≠ ๐‘—
prendere una riga sommarla con un multiplo di un'altra riga e sostituirla con questa nuova riga
Operazioni fra matrici
Somma fra matrici
๐‘Ž11 โ‹ฏ ๐‘Ž1๐‘›
๐‘11
โ‹ฑ
โ‹ฎ ]+[ โ‹ฎ
[ โ‹ฎ
๐‘Ž๐‘š1 … ๐‘Ž๐‘š๐‘›
๐‘๐‘š1
righe e colonne
โ‹ฏ ๐‘1๐‘›
๐‘Ž11 + ๐‘11
โ‹ฑ
โ‹ฎ ]=[
โ‹ฎ
… ๐‘๐‘š๐‘›
๐‘Ž๐‘š1 + ๐‘๐‘š1
โ‹ฏ ๐‘Ž1๐‘› + ๐‘1๐‘›
โ‹ฑ
โ‹ฎ
] A e B devono avere lo stesso numero di
… ๐‘Ž๐‘š๐‘› + ๐‘๐‘š๐‘›
Proprietà della somma fra matrici
๏‚ท
๏‚ท
๏‚ท
๏‚ท
commutativa
associativa
esistenza della matrice nulla
esistenza della matrice inversa
prodotto di una matrice per un numero
๐‘Ž11
๐‘Ž[ โ‹ฎ
๐‘Ž๐‘š1
โ‹ฏ ๐‘Ž1๐‘›
๐‘Ž(๐‘Ž11 )
โ‹ฑ
โ‹ฎ ]=[ โ‹ฎ
… ๐‘Ž๐‘š๐‘›
๐‘Ž(๐‘Ž๐‘š1 )
โ‹ฏ ๐‘Ž(๐‘Ž1๐‘› )
โ‹ฑ
โ‹ฎ ]
… ๐‘Ž(๐‘Ž๐‘š๐‘› )
prodotto fra matrici
๐‘Ž ๐‘
๐ด๐ต = [ โ‹ฎ โ‹ฎ
… …
๐‘ … โ‹ฏ
โ‹ฎ ][ โ‹ฎ โ‹ฎ
… … …
๐‘‘
โ‹ฏ โ‹ฏ ๐‘Ž๐‘‘ + ๐‘๐‘’ + ๐‘๐‘“
๐‘’] = [ โ‹ฎ
]=๐ถ
โ‹ฎ
โ‹ฎ
๐‘“
โ‹ฏ …
โ‹ฏ
il prodotto fra matrici esiste se la matrice A ha numero di elementi su ogni riga quanti B su ogni colonna
A
B
๐‘š๐‘ฅ๐‘
๐‘๐‘ฅ๐‘› ∃ ๐ถ ⇔ ๐‘ = ๐‘ → ๐ถ = ๐‘š๐‘ฅ๐‘› (m righe, n colonne)
Per le matrici non vale la legge di annullamento del prodotto
Se A≠ 0 ๐‘’ ๐ต ≠ 0 può capitare che AB=0
Matrice inversa
๐ด๐ด−1 = ๐ด−1 ๐ด = ๐ผ (๐‘–๐‘‘๐‘’๐‘›๐‘ก๐‘–๐‘๐‘Ž)
A è invertibile se ∃ ๐ด−1t.c. ๐ด๐ด−1 = ๐ผ
Per trovare la matrice inversa :
data ๐ด = |
๐‘Ž
๐‘
๐‘’
๐‘
| vogliamo trovare ๐‘‹ = |
๐‘”
๐‘‘
๐‘“
| sapendo che ๐ด โˆ™ ๐‘‹ = ๐ผ
โ„Ž
๐‘Ž๐‘’ + ๐‘๐‘” = 1
๐‘Ž๐‘“ + ๐‘โ„Ž = 0
1 0
๐‘Ž ๐‘ ๐‘’ ๐‘“
๐ด๐‘‹ = |
||
|=|
|
{
dove a,b,c,d sono numeri noti quindi bisogna risolvere i
๐‘๐‘’ + ๐‘‘๐‘” = 0
0 1
๐‘ ๐‘‘ ๐‘” โ„Ž
๐‘๐‘“ + ๐‘‘โ„Ž = 1
๐‘Ž๐‘’ + ๐‘๐‘” = 1 ๐‘Ž๐‘“ + ๐‘โ„Ž = 0
due soli sistemi {
e{
๐‘๐‘’ + ๐‘‘๐‘” = 0 ๐‘๐‘“ + ๐‘‘โ„Ž = 1
data A le seguenti affermazioni sono equivalenti:
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
A è invertibile
L’applicazione lineare associata è invertibile
L’applicazione lineare associata è iniettiva
L’applicazione lineare associata è suriettiva
A=n
Le colonne di A sono linearmente indipendenti
Le righe di A sono linearmente indipendenti
Il sistema omogeneo ๐ด๐‘ฅ = 0 ha come unica soluzione x=0
Per ogni b ∈ โ„๐‘› il sistema ax=B ha come unica soluzione x=๐ด−1 ๐ต
I pivot di A, comunque determinati, sono non nulli (cioè A è non singolare)
Ossia che il determinante sia diverso da 0
Matrice trasposta
๐ด๐‘ก si ottiene scambiando le righe con le colonne
proprietà delle trasposta:
(๐ด + ๐ต)๐‘ก = ๐ด๐‘ก + ๐ต๐‘ก
(๐ด๐ต)๐‘ก = ๐ต๐‘ก ๐ด๐‘ก ( non vale la proprietà commutativa per il prodotto fra matrici)
(๐‘Ž๐ด)๐‘ก = ๐‘Ž๐ด๐‘ก
Matrice simmetrica
Una matrice è simmetrica ⇔ ๐ด =
๐ด๐‘ก
๐‘ฅ
|๐‘Ž
๐‘
๐‘Ž
๐‘ฆ
๐‘
๐‘
๐‘|
๐‘ง
Matrice antisimmetrica
Una matrice è antisimmetrica ⇔ ๐ด = −(๐ด๐‘ก )
0
|−๐‘Ž
−๐‘
๐‘Ž
0
−๐‘
๐‘
๐‘|
0
Matrice ortogonale
A quadrata ortogonale : ๐ด๐‘ก = ๐ด−1 inversa e trasposta coincidono
Matrice a coefficienti complessi
Sia ๐ด ∈ ๐‘€๐‘š,๐‘› (โ„‚) una matrice a coefficienti complessi. La matrice coniugata di A è la matrice ๐ด i cui elementi
sono i coniugati della matrice A. La matrice trasposta della coniugata (o aggiunta) A H di A è la trasposta della
๐‘‡
coniugata in simboli ๐ด๐ป = ๐ด = ๐ด๐‘‡
Applicazioni lineari
Applicazione=funzione
๐‘“: ๐‘‰ → ๐‘Š è un applicazione lineare se soddisfa le seguenti proprietà:
๏‚ท
๏‚ท
๏‚ท
๏‚ท
๐‘“(๐‘ฃ + ๐‘ฃ ′ ) = ๐‘“(๐‘ฃ) + ๐‘“(๐‘ฃ ′ )
๐‘“(๐‘Ž๐‘ฃ) = ๐‘Ž๐‘“(๐‘ฃ)
๐‘“(0) = 0
๐‘“(−๐‘ฃ) = −๐‘“(๐‘ฃ)
Ker
il Ker o nucleo è un sottospazio di V formato da tutti gli elementi che si trasformano nel vettore nullo.
Se il ker è formato dal solo vettore nullo f è iniettiva ossia elementi distinti del dominio hanno immagini distinte.
Per trovare il ker di una applicazione si risolve il sistema omogeneo associato.
Im
Sia ๐‘“: ๐‘‰ → ๐‘Š e {๐‘ฃ1 , … , ๐‘ฃ๐‘› } una base. Allora ๐ผ๐‘š๐‘“ = ๐‘ ๐‘๐‘Ž๐‘›๐‘“(๐‘“(๐‘ฃ1 ), … ๐‘“(๐‘ฃ๐‘› )) o immagine di f è un sottospazio di
w formato da tutti gli elementi che sono f di qualcosa.
Se Im f=W l’applicazione è suriettiva.
Il rango della matrice associata all’applicazione lineare è anche uguale a dim ๐ผ๐‘š ๐น
Isomorfismo
Se applicazione e sia iniettiva che suriettiva si chiamo biiettiva o anche isomorfismo.
๐‘“: ๐‘‰ → ๐‘Š, ๐‘”: ๐‘‰ → ๐‘Š
(๐‘“ + ๐‘”)(๐‘ฃ) = ๐‘“(๐‘ฃ) + ๐‘”(๐‘ฃ)
๐›ผ๐‘“: ๐‘ฃ = ๐›ผ๐‘“(๐‘ฃ)
๐‘“: ๐‘‰ → ๐‘Š, ๐‘”: ๐‘Š → ๐‘
๐‘”
๐‘“
๐‘” โˆ˜ ๐‘“ = ๐‘ฃ ๐‘“(๐‘ฃ) ๐‘”(๐‘“(๐‘ฃ)) ossia vado da V ->Z
→
→
Matrici e applicazioni lineari
๐‘“: โ„๐‘› → โ„๐‘š
๐‘Ž11
๐‘Ž
( 21
โ‹ฎ
๐‘Ž๐‘š1
๐‘Ž12
๐‘Ž22
โ‹ฏ
๐‘Ž๐‘š2
๐‘“(๐‘’1 ) ๐‘“(๐‘’2 )
La matrice avrà m righe e n colonne
โ‹ฏ
โ‹ฑ
โ‹ฏ
๐‘Ž1๐‘›
๐‘Ž2๐‘›
)
โ‹ฎ
๐‘Ž๐‘š๐‘›
1° componente dell’applicazione lineare
2° componente dell’applicazione lineare
m-esima componente dell’applicazione lineare
๐‘“(๐‘’๐‘› )
un polinomio è omogeneo se tutti i termini sono dello stesso grado.
F ha m componenti ciascuno dei quali è un polinomio omogeneo di primo grado in x 1,…,xn.
Applicazioni iniettive, suriettive, invertibili o biiettive con matrice associata
๐‘“: โ„๐‘› → โ„๐‘š è:
1. iniettiva se:
๐‘ฃ ≠ ๐‘ฃ ′ ⇒ ๐‘“(๐‘ฃ) ≠ ๐‘“(๐‘ฃ ′ )
โ‹ฏ โ‹ฏ โ‹ฏ
๐‘€๐‘“ = ( โ‹ฎ โ‹ฑ โ‹ฎ )
โ‹ฏ โ‹ฏ โ‹ฏ
F(e1)
F(en)
se il rgMf=n l’applicazione lineare è iniettiva. Se n>m l’applicazione non può essere iniettiva.
2. suriettiva se:
๐ผ๐‘š๐‘“ = โ„๐‘š
โ‹ฏ โ‹ฏ
๐‘€๐‘“ = ( โ‹ฎ โ‹ฑ
โ‹ฏ โ‹ฏ
โ‹ฏ
โ‹ฎ)
โ‹ฏ
F(e1)
F(en)
๐‘“(๐‘ฃ) = ๐‘Ž๐‘™๐‘™๐‘Ž ๐ถ. ๐ฟ. ๐‘“(๐‘’1 ), … , ๐‘“(๐‘’๐‘› ) ⇐ ๐‘โ„Ž๐‘’ ๐‘ ๐‘œ๐‘›๐‘œ ๐‘– ๐‘”๐‘’๐‘›๐‘’๐‘Ÿ๐‘Ž๐‘ก๐‘œ๐‘Ÿ๐‘– ๐‘‘๐‘– ๐ผ๐‘š๐‘“
se rgMf=m l’applicazione lineare è suriettiva. Se n<m l’applicazione non può essere suriettiva.
3. invertibile se:
sia iniettiva che suriettiva
−1
๐‘“
๐‘“ −1 ๐‘ฃ ๐‘“(๐‘ฃ) = ๐‘ฃ ′ ๐‘“ ๐‘ฃ = ๐‘“ −1 (๐‘ฃ ′ )
→
→
โ‹ฏ โ‹ฏ
๐‘€๐‘“ = ( โ‹ฎ โ‹ฑ
โ‹ฏ โ‹ฏ
F(e1)
โ‹ฏ
โ‹ฎ)
โ‹ฏ
F(en)
๐‘Ÿ๐‘”๐‘€๐‘“ = ๐‘š = ๐‘›
Matrice associata a una applicazione lineare
La matrice A è la matrice associa all’applicazione T rispetto alle basi B e C.
La matrice A contiene per colonne le coordinate rispetto alla base di arrivo C dei trasformati secondo T dei
vettori della base di partenza.
Siano V e W spazi vettoriali sul campo K, con dim ๐‘‰ = ๐‘› e dim ๐‘Š = ๐‘š. Fissiamo una base B di v e una base C di
W. Allora Fissiamo una base B di V e una base C di W. Allora l’applicazione ๐‘‡ โ†ฆ ๐ด che associa a un’applicazione
lineare ๐‘‡: ๐‘‰ → ๐‘Š la matrice che la rappresenta rispetto alla basi B e C è un isomorfismo fra fra โ„’(๐‘‰, ๐‘Š) e
๐‘€๐‘š,๐‘› (๐‘˜). In particolare, dim โ„’ (๐‘‰, ๐‘Š) = (dim ๐‘‰)(dim ๐‘Š) Pag 152-154
Applicazione lineare inversa
๐‘“: โ„๐‘› → โ„๐‘š
Mf (matrice associata all’applicazione lineare f), Mf -1 è la matrice associata alla applicazione inversa, Mf -1 è
uguale a (Mf)-1
Per trovare l’applicazione inversa bisogna, dunque, calcolare la matrice inversa associata all’applicazione.
L’applicazione è invertibile se esiste ๐‘‡: โ„๐‘š → โ„๐‘› t.c. ๐‘“ โˆ˜ ๐‘‡ = ๐‘–๐‘‘๐‘š e ๐‘‡ โˆ˜ ๐‘“ = ๐‘–๐‘‘๐‘›
Un applicazione lineare è invertibile se e solo se è sia iniettiva e suriettiva
(Nota: un applicazione è lineare se e solo se ogniuna delle componenti è un polinomio di primo grado privo del
termine noto)
Composizioni
๐‘” โˆ˜ ๐‘“ = ๐‘€๐‘” โˆ™ ๐‘€๐‘“ = ๐‘€๐‘”โˆ˜๐‘“ se l’applicazione lineare è foramata da una composizione si fra il prodotto fra le
matrici associate alle singole applicazioni
Sistemi lineari
Per risolvere un sistema lineare AX=B si scrive il sistema sotto forma di matrice completa e si riduce con Gauss.
In seguito si sostituisce all’indietro.
๐ด๐‘‹ = ๐ต è ๐‘Ÿ๐‘–๐‘ ๐‘œ๐‘™๐‘ข๐‘๐‘–๐‘™๐‘’ ⇔ ๐‘Ÿ๐‘”๐ด = ๐‘Ÿ๐‘”(๐ด|๐ต) = ๐‘ se il sistema è risolvibile vi sono n-p incognite libere.
Teorema di Rouchè-Capelli
Sistema AX=B in m equazioni in n incognite:
๏‚ท
๏‚ท
๐‘Ÿ๐‘”๐ด = ๐‘
๐‘Ÿ๐‘” (๐ด|๐ต) = ๐‘ž
risolubile ⇔ ๐‘ = ๐‘ž, è vi saranno n-p incognite libere, inoltre se esiste la soluzione è unica se e solo se rgA=n
Sistemi Omogenei
AX=0
Ha sempre almeno una soluzione, cioè quella banale, perché per Rouchè-Capelli per avere soluzione deve avere
rgA=rgA|B, ma essendo B composto da soli 0 non cambia il rango è quindi deve avere sempre almeno una
soluzione.
vi sono sempre n-rgA incognite libere.
I sistemi omogenei possono avere 1 (la cui soluzione e per lo meno =0) o infinite soluzioni
Data Mf=A
kerf sono le soluzioni del sistema omogeneo di A
Dim kerf =n-rgA il numero di incognite libere è uguale alla dim kerMf
Contro immagine
๐‘‘๐‘Ž๐‘ก๐‘Ž
๐‘“: โ„๐‘›
→
โ„๐‘š
๐‘€๐‘“ = ๐ด
๐‘Ž1
๐ด๐‘‹ = ( … )
๐‘Ž๐‘›
๐‘“ −1 (๐‘Ž1 , … , ๐‘Ž๐‘š )
e.s.
๐‘“: โ„3 → โ„2 = (๐‘ฅ + ๐‘ฆ, ๐‘ฅ − ๐‘ง) scelto un elemento di โ„2 (della destinazione) si eguaglia il vettore alla matrice
associata alla funzione quindi (a,b)=f(x,y,z)
|
1 1
1 0
0 ๐‘Ž
| il risultato è la contro immagine di f(x,y,z). (a, b sono numeri è il vettore scelto di r2)
−1 ๐‘
Inversa
Per trovare l’inversa si scrive la matrice A e a fianco la matrice Id. In seguito si diagonalizza A fino a far diventare
0 tutti gli elementi di A esclusi quella della diagonale principale. Si divide in fine ogni riga per il valore non nullo
di A
|
๐‘Ž
๐‘
๐‘ 1
|
๐‘‘ 0
๐‘ฅ 0 ๐‘ง
0
→|
|
0 ๐‘ฆ ๐‘ค
1
๐‘˜
1
→|
๐‘—
0
๐‘ง
0 ๐‘ฅ
|
1 ๐‘ค
๐‘ฆ
๐‘˜
๐‘ฅ
๐‘—
๐‘ฆ
Determinante
Determinante di una matrice quadrata 2x2
๐‘Ž11
๐ด = (๐‘Ž
21
๐‘Ž12
๐‘Ž22 )
๐‘‘๐‘’๐‘ก๐ด = ๐‘Ž11 ๐‘Ž22 − ๐‘Ž12 ๐‘Ž21
determinate matrice 3x3
1.
2.
3.
4.
๐‘Ž11 ๐‘Ž12 ๐‘Ž13
๐‘Ž22 ๐‘Ž23
(๐‘Ž21 ๐‘Ž22 ๐‘Ž23 )
๐‘Ž11 (๐‘‘๐‘’๐‘ก |๐‘Ž
|)
32 ๐‘Ž33
๐‘Ž31 ๐‘Ž32 ๐‘Ž33
๐‘Ž11 ๐‘Ž12 ๐‘Ž13
๐‘Ž21 ๐‘Ž23
(๐‘Ž21 ๐‘Ž22 ๐‘Ž23 )
− ๐‘Ž12 (๐‘‘๐‘’๐‘ก |๐‘Ž
|) il segno è determinato dalla posizione dell’elemento: se la
31 ๐‘Ž33
๐‘Ž31 ๐‘Ž32 ๐‘Ž33
somma della riga e della colonna è dispari si mette un – d’avanti
๐‘Ž11 ๐‘Ž12 ๐‘Ž13
๐‘Ž21 ๐‘Ž22
(๐‘Ž21 ๐‘Ž22 ๐‘Ž23 )
๐‘Ž13 (๐‘‘๐‘’๐‘ก |๐‘Ž
|)
31 ๐‘Ž32
๐‘Ž31 ๐‘Ž32 ๐‘Ž33
si sommano gli elementi calcolati precedentemente
๐‘Ž22 ๐‘Ž23
๐‘Ž21 ๐‘Ž23
๐‘Ž21 ๐‘Ž22
๐‘Ž11 (๐‘‘๐‘’๐‘ก |๐‘Ž
|) − ๐‘Ž12 (๐‘‘๐‘’๐‘ก |๐‘Ž
|) + ๐‘Ž13 (๐‘‘๐‘’๐‘ก |๐‘Ž
|)
๐‘Ž
๐‘Ž
32
33
31
33
31 ๐‘Ž32
Complemento algebrico e sviluppo di Laplace
Il complemento algebrico di un elemento di una matrice è il determinante della matrice che si ottiene
cancellando la riga e la colonna che si incrociano in quell’elemento con un segno. Numero riga + numero
colonna pari segno + altrimenti segno ๐‘Ž11
๐‘Ž21
๐ด = ( ๐‘Ž31
…
๐‘Ž๐‘›1
๐‘Ž12
๐‘Ž22
๐‘Ž32
…
๐‘Ž๐‘›2
… ๐‘Ž1๐‘›
๐‘Ž12
… ๐‘Ž2๐‘›
๐‘Ž
32
… ๐‘Ž3๐‘› ) il complemento algebrico di a21 è – ๐‘‘๐‘’๐‘ก ( …
… …
๐‘Ž๐‘›2
… ๐‘Ž๐‘›๐‘›
… ๐‘Ž1๐‘›
… ๐‘Ž3๐‘› )
… …
… ๐‘Ž๐‘›๐‘›
Sviluppo di Laplace
Il determinante di A si ottiene moltiplicando gli elementi di una riga(o colonna) per i loro complementi algebrici
e facendo la somma dei risultati.
Proprietà dei determinanti:
๏‚ท
๏‚ท
๏‚ท
๏‚ท
๏‚ท
๏‚ท
๏‚ท
๏‚ท
il determinante è nullo se: una riga è nulla, una colonna è nulla, la riga i-esima è uguale alla j-esima, la colonna iesima è uguale alla j-esima
se moltiplico la matrice A per un numero non nullo il determinante è uguale a ๐‘Ž๐‘› โˆ™ ๐‘‘๐‘’๐‘ก๐ด
se moltiplico una sola riga di A il determinante è uguale a ๐‘Ž โˆ™ ๐‘‘๐‘’๐‘ก๐ด
๐‘Ž + ๐‘11 … ๐‘Ž1๐‘› + ๐‘1๐‘›
se ogni elemento di A è la somma di due elementi ๐ด = 11
il determinante è uguale a
…
…
…
๐‘Ž
… ๐‘Ž1๐‘›
๐‘
… ๐‘1๐‘›
det | 11
| + det | 11
|
… … …
… … …
det(๐ด โˆ™ ๐ต) = det ๐ด โˆ™ det ๐ต (Teorema di Binet)
se alla matrice A scambiamo una riga ๐‘…๐‘– ↔ ๐‘…๐‘— ⇒ det ๐ด′ = −det ๐ด
se sostituiamo alla i-esima riga la i-esima riga + a volte la j-esima il determinante non cambia.
Il prodotto dei pivo di una matrice quadrata è, al meno del segno, il determinante della matrice. ๐‘1 โˆ™ … โˆ™ ๐‘๐‘› =
|det ๐ด|
Determinante e invertibilità
= 0 ๐ด ๐‘›๐‘œ๐‘› è ๐‘–๐‘›๐‘ฃ๐‘’๐‘Ÿ๐‘ก๐‘–๐‘๐‘–๐‘™๐‘’
det ๐ด {
≠ 0 ๐ด è ๐‘–๐‘›๐‘ฃ๐‘’๐‘Ÿ๐‘ก๐‘–๐‘๐‘–๐‘™๐‘’
det(๐ด−1 ) =
1
det ๐ด
calcolo dell’inversa attraverso il determinante:
A-1 è uguale a
1
per la matrice
det ๐ด
che si ottiene scrivendo al posto degli elementi della matrice i loro
complementi algebrici dopo aver scambiato le righe con le colonne
๐ด−1
=
๐‘Ž11
1
(๐‘Ž12
…
det ๐ด
๐‘Ž1๐‘›
๐‘Ž21
…
…
..
… ๐‘Ž๐‘›1
… …
… … )
… ๐‘Ž๐‘›๐‘›
Teorema degli orlati
Sia ๐ด ∈ ๐‘€๐‘š,๐‘› (โ„); una sottomatrice quadrata di ordine p di A è una matrice A' ottenuta considerando solo p
righe e colonne fissate di A. Se ad A’ aggiungiamo un’altra riga e un'altra colonna di A diremo che stiamo
orlando A’
Teorema degli orlati: Sia ๐ด ∈ ๐‘€๐‘š,๐‘› (โ„) una matrice. Allora rgA=r se e solo se esiste una sottomatrice A’ di ordine
r di A non singolare, e tutte le sottomatrici di ordine r+1 di A ottenute orlando A’ anno determinante nullo.
Matrici simili
Due matrici simili hanno lo stesso rango, determinante e traccia. Si dice quindi che rango, determinante e
traccia sono invarianti per similitudine. In matematica, si definisce traccia di una matrice quadrata la somma di
tutti gli elementi della sua diagonale principale.
Regola di Cramer
Dato Ax=B, risolubile con rgA=rgA|B, con m equazioni ed n incognite, se vi è una sola soluzione (soluzioni libere
date da n-rgA quindi uguale a 0, per cui dovrà anche essere quadrata), con determinanre diverso da 0 (quindi
invertibile) si possono trovare le soluzioni attraverso la regola di Cramer.
๐‘ฅ = ๐ด−1 ๐ต ← ๐ด−1 (๐ด๐‘ฅ) = ๐ด−1 ๐ต = ๐ผ๐‘‘ ๐‘ฅ = ๐ด−1 ๐ต
๐‘Ž11 ๐‘Ž21
1
…
๐‘ฅ = ๐ด−1 ๐ต =
(๐‘Ž12
… …
det ๐ด
๐‘Ž1๐‘› . .
… ๐‘Ž๐‘›1
๐‘1
… …
… … )( โ‹ฎ )
๐‘๐‘›
… ๐‘Ž๐‘›๐‘›
più semplicemente si possono usare i determinante per trovare le soluzioni:
๐‘ฅ1 =
๐‘1 โ‹ฏ
det| โ‹ฎ
โ‹ฎ|
๐‘๐‘› โ‹ฏ
cioè si
det ๐ด
๐‘ฅ2 =
๐‘Ž11 ๐‘1
det| โ‹ฎ โ‹ฎ
๐‘Ž๐‘›1 ๐‘๐‘›
det ๐ด
sostituisce alla colonna dell’incognita che vogliamo trovare la colonna delle soluzioni.
โ‹ฏ
โ‹ฎ|
โ‹ฏ
Autovalori e autovettori di un endomorfismo
endomorfismo: applicazione lineare โ„๐‘› in se stesso
๐œ† è un autovalore di f se esiste un vettore non nullo v t.c. si abbia: f(v)= ๐œ†v. (cioè il vettore uscito
dall’applicazione lineare risulta essere un multiplo del vettore iniziale stesso!)
se una matrice è diagonale trovo come autovalori gli elementi della diagonale stessa
Per trovare gli autovalori usiamo il polinomio caratteristico ๐‘ƒ(๐œ†) = 0 che si ottiene sottraendo alla matrice
associata all’applicazioni ๐œ†๐ผ๐‘‘ ossia ๐‘ƒ(๐œ†) = [det(๐ด − ๐œ†๐ผ๐‘‘) = 0]
Per trovare gli autospazi la cui dimensione è sempre maggiore di 1 bisogna risolvere il sistema (๐ด − ๐œ†๐ผ๐‘‘)๐‘‹ = 0
dove al posto di ๐œ† sostituiremo i valori trovati. Le soluzioni formano il sottospazio vettoraile. L’autospazio
corrisponde al ker di ๐ด − ๐œ†๐ผ๐‘‘
dim ๐‘‰๐œ† = dim ๐‘‰ − ๐‘Ÿ๐‘”(๐ด − ๐œ†๐ผ๐‘‘)
๐œ† è un autovalore di molteplicità m e ๐‘‰๐œ† è l’autospazio associato, allora 1 ≤ dim ๐‘‰๐œ† ≤ ๐‘š
Diagonalizzabilità
Dati autovalori ๐œ†1 , … , ๐œ†๐‘Ÿ appartenente hai reali, ognuno dei quali di molteplicità ๐‘š1 , … , ๐‘š๐‘Ÿ dove la loro somma
è uguale a n ; Dati gli autospazi ๐‘‰๐œ†1 , … , ๐‘‰๐œ†๐‘Ÿ di dimensione D1,…,Dr che risulta essere uguale alla molteplicità del
relativo autovalore ๐ท1 = ๐‘š1 , … , ๐ท๐‘Ÿ = ๐‘š๐‘Ÿ allora f è un endomorfismo semplice. Allora A associata
all’endomorfismo f è diagonalizzabile.
Criterio sufficiente è che ๐‘“: โ„๐‘› → โ„๐‘› ha esattamente n autovalori distinti (cioè tutti di molteplicità 1) è
diagonalizzabile (questò perche la dim dell’autospazio non può essere inferiore ad uno, ma nemmeno suoeriore
alla molteplicità, quindi è già dimostrato la regola precedente), cioè esiste P invertibile t.c. ๐‘ −1 ๐ด๐‘ƒ è diagonale e
P si ottiene mettendo come colonne i vettori di una base di ๐‘‰๐œ†1 seguiti da una base di ๐‘‰๐œ†2 fino ad esaurire gli
autospazi.
Teorema spettrale
Sia ๐‘‡: ๐‘‰ → ๐‘‰ un endomorfismo simmetrico di uno spazio vettoriale metrico. Allora autovettori di T relativi ad
autovalori distinti sono automaticamente ortogonali.
Sia ๐‘‡: ๐‘‰ → ๐‘‰ un endomorfismo di uno spazio vettoriale metrico V. Allora esiste una base ortonormale B di V
composta da autovettori di T se e solo se T è simmetrico.
Cambiamenti di Base
Ogni volta che abbiamo due basi B e B’ di uno spazio vettoriale V troviamo una matrice invertibile B che
trasforma le coordiante rispetto a b’ nelle coordinate rispetto a B. In concreto, preso un vettore ๐‘ฃ ∈ ๐‘‰ siano ๐‘ฅ =
๐น๐ต (๐‘ฃ) ∈ ๐พ ๐‘› le sue coordinate rispetto a B, e ๐‘ฅ′ = ๐น๐ต′ (๐‘ฃ) ∈ ๐พ ๐‘› le sue coordinate rispetto a B’. allora si ha x=Bx’.
La matrice di cambiamento di base si trova mettendo per colonne le coordinate dei vettori della nuova base B’
rispetto alla vecchia base B. La matrice B viene chiamata di cambiamento di base (o di passaggio) da B a B’.
Chiaramente, ๐ต−1 è la matrice di cambiamento di base da B’ a B, cioè nella direzione inversa.
e.s.:
๐‘‰ = โ„2 [๐‘ก], ๐ต = {1, ๐‘ก, ๐‘ก 2 } ๐‘’ ๐ต′ = {1, ๐‘ก − 1,2๐‘ก 2 + 4๐‘ก − 6} allora la matrice di cambiamento di base da B A B’
contiene per colonne le coordinate dei polinoimo di B’ rispetto alla base B, cioè:
1 −1
๐ต = |0 1
0 0
−6
4|
2
quindi in generale bisogna calcolare tutte le coordinate dei vettori di B’ rispetto a B.
Possiamo per semplicizzare anche spezzare il cambiamento di base mettendo un passaggio intermedio.
Scegliamo una base B0 (che sia semplice da scrivere in base B) e chiamiamo C questa matrice di cambiamento di
base da B a B0. Essendo molto più semplice scrivere la matrice di cambiamento di base da B’ a B0 scriviamo
questa nuova matrice e poi trovando l’inversa abbiamo trovato la nostra matrice D. B sarà quindi uguale a B=A1
C.
Geometria affine
Se L è lo spazio delle soluzioni del sistema Ax=B, dove ๐ด ∈ ๐‘€๐‘,3 (โ„) ๐‘’ ๐ต ∈ โ„๐‘ , diremo che Ax=B è un equazione
cartesiana per L. La dimensione di L è 3 − ๐‘Ÿ๐‘”๐ด, è il sottospazio di giacitura di L è lo spazio V delle soluzioni del
sistema omogeneo Ax=0
Il numero minimo di equazioni necessarie per descrivere un sottospazio affine è dato dalla dimensione dello
sapzio ambiente meno la dimensione del sottospazio.
Equazione cartesiana di un piano nello spazio:
Ax+by+cz=d rappresenta l’equazione di un piano in โ„3 ammesso che la matrice A=|๐‘Ž ๐‘ ๐‘ | abbia rango 1.
A,b,c si dicono parametri di giacitura del piano, che non sono univocamente determinati;
Equazioni di rette e piani
Equazione cartesiana di una retta nello spazio:
๐‘Ž๐‘ฅ + ๐‘๐‘ฆ + ๐‘๐‘ง = ๐‘‘
๐‘Ž ๐‘ ๐‘
{ ′
rappresenta l’equazione di un retta in โ„3 non appena la matrice A=|
| ha rango
๐‘Ž ๐‘ฅ + ๐‘ ′ ๐‘ฆ + ๐‘ ′ ๐‘ง = ๐‘‘′
๐‘Ž′ ๐‘′ ๐‘′
2. (in questo modo la retta è rappresentata come l’intersezione di due piani)
Equazioni parametriche:
se l è l’insieme dei punti ๐‘ƒ ∈ โ„3 della forma P=P0+Bt, al variare di t in โ„๐‘ž , dove ๐‘ƒ0 ∈ โ„3 ๐‘’ ๐ต ∈ ๐‘€3,๐‘ž (โ„), diremo
che P=P0+Bt è un equazione parametrica per L. Il sottospazio L ha dimensione rgB, e il sottospazio vettoriale V di
giacitura di L ha equazione parametrica P=Bt.
Equazioni parametriche di una retta nello spazio:
๐‘ฅ = ๐‘ฅ0 + ๐‘™๐‘ก
{๐‘ฆ = ๐‘ฆ0 + ๐‘š๐‘ก
๐‘ง = ๐‘ง0 + ๐‘›๐‘ก
๐‘™
๐‘œ๐‘๐‘๐‘ข๐‘Ÿ๐‘’ ๐‘ƒ = ๐‘ƒ0 + ๐‘ก |๐‘š| al variare di t in R rappresentano una retta nello spazio, non appena il
๐‘›
๐‘™
vettore V=|๐‘š| che detto vettore direttore della retta, non è il vettore nullo. L,m,n sono i parametri direttori
๐‘›
della retta.
Equazioni parametriche di un piano nello spazio:
๐‘ฅ = ๐‘ฅ0 + ๐‘™๐‘  + ๐‘™′๐‘ก
๐‘™
๐‘™′
{๐‘ฆ = ๐‘ฆ0 + ๐‘š๐‘  + ๐‘š′๐‘ก ๐‘œ๐‘๐‘๐‘ข๐‘Ÿ๐‘’ ๐‘ƒ = ๐‘ƒ0 + ๐‘  |๐‘š | + ๐‘ก |๐‘š′| al variare di s,t in R rappresentano un piano nello
๐‘›
๐‘›′
๐‘ง = ๐‘ง0 + ๐‘›๐‘  + ๐‘›′๐‘ก
๐‘™ ๐‘™′
spazio non appena la matrice ๐ต = |๐‘š ๐‘š′| ha rango due
๐‘› ๐‘›′
Punti e rette
Rette e un punto nel piano
Dato un punto P0=(x0,y0), vogliamo tutte le rette passanti per questo punto. Sostituiamo a t 0
Le equazioni parametriche sono:
๐‘ฅ = ๐‘ฅ0 + ๐‘ก๐‘™
{
quali che siano ๐‘™, ๐‘š ∈ โ„ non tutti nulli
๐‘ฆ = ๐‘ฆ0 + ๐‘ก๐‘š
equazioni cartesiane
๐‘Ž(๐‘ฅ − ๐‘ฅ0 ) + ๐‘(๐‘ฆ − ๐‘ฆ0 ) = 0
L’insieme delle rette del piano passanti per P0 si chiama fascio di rette di centro P0
Rette e un punto nello spazio
Dato p0=(x0,y0,z0) ∈ โ„3 le eqauzioni parametriche sono:
๐‘ฅ = ๐‘ฅ0 + ๐‘ก๐‘™
{๐‘ฆ = ๐‘ฆ0 + ๐‘ก๐‘š quali che siano ๐‘™, ๐‘š, ๐‘› ∈ โ„ non tutti nulli
๐‘ง = ๐‘ง0 + ๐‘ก๐‘›
le equazioni cartesiane
๐‘Ž(๐‘ฅ − ๐‘ฅ0 ) + ๐‘(๐‘ฆ − ๐‘ฆ0 ) + ๐‘(๐‘ง − ๐‘ง0 ) = 0
{ ′
๐‘Ž (๐‘ฅ − ๐‘ฅ0 ) + ๐‘ ′(๐‘ฆ−๐‘ฆ0 ) + ๐‘ ′ (๐‘ง − ๐‘ง0 ) = 0
l’insieme delle rette dello spazio passanti per P0 si chiama stelle di rette di centro P0
Una retta e due punti
Dati ๐‘ƒ0 = (๐‘ฅ0 , ๐‘ฆ0 ) ๐‘’ ๐‘ƒ1 = (๐‘ฅ1 , ๐‘ฆ1 ) ∈ โ„2 vogliamo la retta passante per questi due punti. Bisonga quindi trovare
๐‘ฅ = ๐‘ฅ0 + ๐‘ก๐‘™
l,m in R t.c. il sistema nell’incognita t { 1
abbia soluzione. Per Rouché-Capelli il sistema ha soluzione
๐‘ฆ1 = ๐‘ฆ0 + ๐‘ก๐‘š
๐‘™ ๐‘ฅ1 − ๐‘ฅ0
๐‘™
se e solo se 1 = ๐‘Ÿ๐‘” | | = ๐‘Ÿ๐‘” |
|, quindi questo accade se e solo se ๐‘™(๐‘ฆ1 − ๐‘ฆ0 ) − ๐‘š(๐‘ฅ1 − ๐‘ฅ0 ) = 0.
๐‘š
๐‘ฆ1 − ๐‘ฆ0
๐‘š
Quindi le equazioni parametriche sono:
๐‘ฅ = ๐‘ฅ0 + (๐‘ฅ1 − ๐‘ฅ0 )๐‘ก
{
๐‘ฆ = ๐‘ฆ0 + (๐‘ฆ1 − ๐‘ฆ0 )๐‘ก
Le equazioni cartesiane sono:
(๐‘ฆ1 − ๐‘ฆ0 )(๐‘ฅ − ๐‘ฅ0 ) − (๐‘ฅ1 − ๐‘ฅ0 )(๐‘ฆ − ๐‘ฆ0 ) = 0
Retta passante per due punti nello spazio
๐‘ƒ0 = (๐‘ฅ0 , ๐‘ฆ0 , ๐‘ง0 ) ๐‘’ ๐‘ƒ1 = (๐‘ฅ1 , ๐‘ฆ1 , ๐‘ง1 ) ∈ โ„3 le equazioni parametriche sono:
๐‘ฅ = ๐‘ฅ0 + (๐‘ฅ1 − ๐‘ฅ0 )๐‘ก
{๐‘ฆ = ๐‘ฆ0 + (๐‘ฆ1 − ๐‘ฆ0 )๐‘ก
๐‘ง = ๐‘ง0 + (๐‘ง1 − ๐‘ง0 )๐‘ก
(๐‘ฆ − ๐‘ฆ0 )(๐‘ฅ − ๐‘ฅ0 ) − (๐‘ฅ1 − ๐‘ฅ0 )(๐‘ฆ − ๐‘ฆ0 ) = 0
le equazioni cartesiane sono { 1
(๐‘ง1 − ๐‘ง0 )(๐‘ฅ − ๐‘ฅ0 ) − (๐‘ฅ1 − ๐‘ฅ0 )(๐‘ง − ๐‘ง0 ) = 0
Punti e piani
Un punto e un piano
Dato un punto P0=(x0,y0,z0) ∈ โ„3 vogliamo tutti i piani che passano per quel punto. Le euqazioni parametriche
sono:
๐‘ฅ = ๐‘ฅ0 + ๐‘™๐‘  + ๐‘™′๐‘ก
{๐‘ฆ = ๐‘ฆ0 + ๐‘š๐‘  + ๐‘š′๐‘ก
๐‘ง = ๐‘ง0 + ๐‘›๐‘  + ๐‘›′๐‘ก
mentre le equazioni cartesiane sono:
๐‘Ž(๐‘ฅ − ๐‘ฅ0 ) + ๐‘(๐‘ฆ − ๐‘ฆ0 ) + ๐‘(๐‘ง − ๐‘ง0 ) = 0
L’insieme dei piani passanti per P0 si chiama stella di piani di centro P0
un piano e due punti
dati i punti ๐‘ƒ0 = (๐‘ฅ0 , ๐‘ฆ0 , ๐‘ง0 ) ๐‘’ ๐‘ƒ1 = (๐‘ฅ1 , ๐‘ฆ1 , ๐‘ง1 ) ∈ โ„3 ๐‘๐‘œ๐‘› ๐‘ƒ0 ≠ ๐‘ƒ1
Prodotti scalari
Fissato un sistema di riferimento affine RA(0,i,j) con i vettori i,j di lungezza 1 e che formino fra di loro un angolo
di
๐œ‹
2
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ— โ€– ๐‘œ โ€–๐‘ฃ1 โ€–. โ€–๐‘ฃ1 โ€– viene detto
La distanza d(O,P) di P dall’origine è data ๐‘‘(๐‘‚, ๐‘ƒ) = √๐‘ฅ12 + ๐‘ฆ12 e si scrive come โ€–๐‘‚๐‘ƒ
norma.
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ— − โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—
๐‘‘(๐‘ƒ, ๐‘„) = √(๐‘ฅ2 − ๐‘ฅ1 )2 + (๐‘ฆ2 − ๐‘ฆ1 )2 = โ€–๐‘ฃ2 − ๐‘ฃ1 โ€– = โ€–๐‘‚๐‘ƒ
๐‘‚๐‘„ โ€–
๐‘ฅ
{
cos ๐œ“ = โ€–๐‘ฃ1โ€–
๐‘ฆ
1
sin ๐œ“ = โ€–๐‘ฃ1โ€–
1
{
๐‘ฅ
{
cos(๐œ“ + ๐œƒ) = โ€–๐‘ฃ2โ€–
๐‘ฆ
2
sin(๐œ“ + ๐œƒ) = โ€–๐‘ฃ2 โ€–
cos ๐œ“ cos ๐œƒ − sin ๐œ“ sin ๐œƒ
sin ๐œ“๐‘๐‘œ๐‘ ๐œƒ + cos ๐œ“ sin ๐œƒ
che con le formule di addizione trigonometrica si trasformano in
2
๐‘ฅ
= โ€–๐‘ฃ2โ€–
2
che
๐‘ฆ
= โ€–๐‘ฃ2 โ€–
2
è un sistema nelle incognite cos ๐œƒ, sin ๐œƒ. cos ๐œƒ =
๐‘ฅ1 ๐‘ฅ2 +๐‘ฆ1 ๐‘ฆ2
โ€–๐‘ฃ1 โ€–โ€–๐‘ฃ2 โ€–
⟨๐‘ฃ ,๐‘ฃ ⟩
viene quindi associato hai vettori ๐‘ฃ1 ๐‘’ ๐‘ฃ2 il numero ⟨๐‘ฃ1 , ๐‘ฃ2 ⟩ = ๐‘ฅ1 ๐‘ฅ2 + ๐‘ฆ1 ๐‘ฆ2 da cui si ha che cos ๐œƒ = โ€–๐‘ฃ 1โ€–โ€–๐‘ฃ2 โ€–.
1
2
Anche la norma si può definire tramite ⟨๐‘ฃ1 , ๐‘ฃ2 ⟩ ๐‘’๐‘‘ è ๐‘ข๐‘”๐‘ข๐‘Ž๐‘™๐‘’ ๐‘Ž √⟨๐‘ฃ1 , ๐‘ฃ2 ⟩
Due vettori sono ortogonali fra di loro se e solo se il coseno vale 0 quindi se e solo se ⟨๐‘ฃ1 , ๐‘ฃ2 ⟩ = 0
Il prodotto scalare canonico
Il prodotto scalare canonico ⟨โˆ™,โˆ™⟩: โ„๐‘› × โ„๐‘› → โ„ ๐‘ ๐‘ข โ„๐‘› è la funzione data da ⟨๐‘ฃ, ๐‘ค ⟩ = ๐‘ฃ1 ๐‘ค1 + โ‹ฏ + ๐‘ฃ๐‘› ๐‘ค๐‘› = ๐‘ค ๐‘ก โˆ™
๐‘ฃ per ogni ๐‘ฃ = (๐‘ฃ1 , … , ๐‘ฃ๐‘› )๐‘ก , ๐‘ค = (๐‘ค1 , … , ๐‘ค๐‘› )๐‘ก ∈ โ„๐‘› , dove il prodotto all’ultimo membro è il solito prodotto
righe per colonne.
La norma associata al prodotto scalare canonico è la funzione โ€–โˆ™โ€–: โ„๐‘› → โ„+ data da โ€–๐‘ฃโ€– = √⟨๐‘ฃ, ๐‘ฃ⟩ =
1
(๐‘ฃ12 + โ‹ฏ + ๐‘ฃ๐‘›2 )2
Proprietà:
๏‚ท
๏‚ท
๏‚ท
๏‚ท
๏‚ท
È lineare rispetto alla prima variabile
È lineare rispetto alla seconda variabile
⟨๐‘ฃ, ๐‘ค ⟩ = ⟨๐‘ค, ๐‘ฃ ⟩ (simmetria)
si ha ⟨๐‘ฃ, ๐‘ค ⟩=0 per ogni ๐‘ค ∈ ๐‘‰ se e solo se v=0 (non è degenere)
per tutti i ๐‘ฃ ∈ โ„๐‘› ๐‘๐‘œ๐‘› ๐‘ฃ ≠ 0 si ha ⟨๐‘ฃ, ๐‘ฃ ⟩ > 0 (è definito positivo)
sia V uno spazio vettoriale su โ„. Una forma bilineare su V è un applicazione ๐‘”: ๐‘‰ × ๐‘‰ → โ„ t.c. ๐‘”(๐‘ฃ1 + ๐‘ฃ2 , ๐‘ค) =
๐‘”(๐‘ฃ1 , ๐‘ค) + ๐‘”(๐‘ฃ2 , ๐‘ค),
๐‘”(๐‘ฃ, ๐‘ค1 + ๐‘ค2 ) = ๐‘”(๐‘ฃ, ๐‘ค1 ) + ๐‘”(๐‘ฃ, ๐‘ค2 )
๐‘”(๐œ†๐‘ฃ, ๐‘ค) = ๐œ†๐‘”(๐‘ฃ, ๐‘ค) = ๐‘”(๐‘ฃ, ๐œ†๐‘ค)
sia ⟨โˆ™,โˆ™⟩ un prodotto scalare su uno spazio vettoriale V. il nucleo di ⟨โˆ™,โˆ™⟩ è l’insieme ๐‘‰ ⊥ dei vettori v ∈ V t.c.
⟨๐‘ฃ, ๐‘ค ⟩ = 0 per ogni w ∈ V.
sia V uno spazio vettoriale su โ„. Un prodotto scalare ⟨โˆ™,โˆ™⟩ su V si dice non degenere se ๐‘‰ ⊥ = {0}; degenere
altrimenti.
Basi ortogonali
Sia V uno spazio vettoriale metrico, e v1,…,vk ∈ ๐‘‰ vettori non nulli ortogonali a due a due, cioè t.c. ๐‘ฃ๐‘– ⊥ ๐‘ฃ๐‘— non
appena ๐‘– ≠ ๐‘—. Allora v1,…,vk sono linearmente indipendenti. In particolare, se dimV=n allora n vettri non nulli
ortogonali a due e due sono automaticamente una base di V.
Una base ortogonale di uno spazio vettoriale metrico V è una base {๐‘ฃ1 , … , ๐‘ฃ๐‘› } di V composta da vettori a due a
due ortogonali, ovvero t.c. ⟨๐‘ฃ๐‘– , ๐‘ฃ๐‘— ⟩ = 0 per 1 ≤ ๐‘– ≠ ๐‘— ≤ ๐‘›
Una base ortonormale di uno spazio vettoriale metrico V è una base ortogonale composta da vettori di
lunghezza unitaria (ovvero, composta da versori).
⟨๐‘ฃ,๐‘ฃ1 ⟩
๐‘ฃ1
1 ,๐‘ฃ1 ⟩
Sia {๐‘ฃ1 , … , ๐‘ฃ๐‘› } una base ortogonale di uno spazio vettoriale metrico V. Allora ๐‘ฃ = ⟨๐‘ฃ
⟨๐‘ฃ,๐‘ฃ๐‘› ⟩
๐‘ฃ๐‘›
๐‘› ,๐‘ฃ๐‘› ⟩
+ โ‹ฏ + ⟨๐‘ฃ
per
ogni ๐‘ฃ ∈ ๐‘‰. In particolare se {๐‘ฃ1 , … , ๐‘ฃ๐‘› } è una base ortogonale si ha ∀ ๐‘ฃ ∈ ๐‘‰ ๐‘ฃ = ⟨๐‘ฃ, ๐‘ฃ1 ⟩๐‘ฃ1 + โ‹ฏ + ⟨๐‘ฃ, ๐‘ฃ๐‘› ⟩๐‘ฃ๐‘›
Sia {๐‘ฃ1 , … , ๐‘ฃ๐‘› } una base ortogonale di uno spazio vettoriale metrico V. Allora∀ ๐‘ฃ, ๐‘ค ∈ ๐‘‰ ⟨๐‘ฃ, ๐‘ค ⟩ =
โ‹ฏ+
⟨๐‘ฃ,๐‘ฃ1 ⟩⟨๐‘ฃ1 ,๐‘ค⟩
⟨๐‘ฃ1 ,๐‘ฃ1 ⟩
+
⟨๐‘ฃ,๐‘ฃ๐‘› ⟩⟨๐‘ฃ๐‘› ,๐‘ค⟩
e
⟨๐‘ฃ๐‘› ,๐‘ฃ๐‘›⟩
∀๐‘ฃ ∈๐‘‰
โ€–๐‘ฃ โ€–2 =
|⟨๐‘ฃ,๐‘ฃ1 ⟩|2
โ€–๐‘ฃ1 โ€–2
+ โ‹ฏ+
|⟨๐‘ฃ,๐‘ฃ๐‘› ⟩|2
โ€–๐‘ฃ๐‘› โ€–2
, in particolare se {๐‘ฃ1 , … , ๐‘ฃ๐‘› } è una base ortonormale di V si ha che
∀ ๐‘ฃ, ๐‘ค ∈ ๐‘‰ ⟨๐‘ฃ, ๐‘ค ⟩ = ⟨๐‘ฃ, ๐‘ฃ1 ⟩⟨๐‘ฃ1 , ๐‘ค ⟩ + โ‹ฏ + ⟨๐‘ฃ, ๐‘ฃ๐‘› ⟩⟨๐‘ฃ๐‘› , ๐‘ค ⟩ formula di Parseval e che ∀ ๐‘ฃ ∈ ๐‘‰
|⟨๐‘ฃ, ๐‘ฃ1 ⟩|2 + โ‹ฏ + |⟨๐‘ฃ, ๐‘ฃ๐‘› ⟩|2
โ€–๐‘ฃ โ€–2 =
teorema di Pitagora
sia V uno spazio vettoriale metrico, e ๐‘ฃ1 , … , ๐‘ฃ๐‘› ∈ ๐‘‰ linearmente indipendenti. Allora esistono w1,…wr che
soddisfano le seguenti proprietà:
1. ๐‘ ๐‘๐‘Ž๐‘›(๐‘ค1 , … , ๐‘ค๐‘— ) = ๐‘ ๐‘๐‘Ž๐‘›(๐‘ฃ1 , … , ๐‘ฃ๐‘— ) ๐‘๐‘’๐‘Ÿ ๐‘œ๐‘”๐‘›๐‘– ๐‘— = 1, … ๐‘Ÿ
2. ๐‘ค๐‘— è ortogonale a ogni elemento di ๐‘ ๐‘๐‘Ž๐‘›(๐‘ค1 , … , ๐‘ค๐‘—−2 ) per ogni j=2,…,r
3. ⟨๐‘ค๐‘— , ๐‘ฃ๐‘— ⟩ > 0 per ogni j=1,…,r
gli elementi sono univocamente determinati a meno di fattori scalari positivi; in altri termini se ๐‘ค′1 , … , ๐‘ค′๐‘Ÿ sono
altri elementi di V che soddisvano le proprietà 1-3 allora ๐‘ค๐‘—′ = ๐›ผ๐‘— ๐‘ค๐‘— ๐‘๐‘œ๐‘› ๐›ผ๐‘— > 0 ๐‘๐‘’๐‘Ÿ ๐‘— = 1, … , ๐‘Ÿ. Infine, gli
๐‘—−1 ⟨๐‘ฃ๐‘— ,๐‘คโ„Ž⟩
๐‘คโ„Ž , ๐‘๐‘’๐‘Ÿ
โ„Ž ,๐‘คโ„Ž⟩
elementi ๐‘ค′1 , … , ๐‘ค′๐‘Ÿ sono ottenuti ponendo w1=v1 e ๐‘ค๐‘— = ๐‘ฃ๐‘— − ∑โ„Ž=1 ⟨๐‘ค
๐‘— = 2, … , ๐‘Ÿ
Sia B={๐‘ฃ1 , … , ๐‘ฃ๐‘— } una base di uno spazio vettoriale metrico V. Allora esiste un’unica base ortonormale
B’={u1,…,un} di V t.c. si abbia ⟨๐‘ข๐‘— , ๐‘ฃ๐‘— ⟩ > 0 e ๐‘ ๐‘๐‘Ž๐‘›(๐‘ฃ1 , … , ๐‘ฃ๐‘— ) = ๐‘ ๐‘๐‘Ž๐‘›(๐‘ข1 , … , ๐‘ข๐‘— ) ๐‘๐‘’๐‘Ÿ ๐‘œ๐‘”๐‘›๐‘– ๐‘— = 1, … ๐‘Ÿ
Siano ๐‘ฃ1 , … , ๐‘ฃ๐‘Ÿ vettori a due a due ortogonali di uno spazio vettoriale metrico V di dim ๐‘› ≥ ๐‘Ÿ. Allora esistono
vettori ๐‘ค๐‘Ÿ+1 , … , ๐‘ค๐‘› ∈ ๐‘‰ t.c. ๐ต = ๐‘ฃ1 , … , ๐‘ฃ๐‘Ÿ + ๐‘ค๐‘Ÿ+1 , … , ๐‘ค๐‘› sia una base ortogonale di V. Inoltre, se โ€–๐‘ฃ๐‘— โ€– = 1 per
j=1,…,r, allora ๐‘ค๐‘Ÿ+1 , … , ๐‘ค๐‘› possono essere scelti in modo che B sia una base ortonormale di V.
Proiezioni ortogonali
Sia V uno spazio vettoriale metrico, e U un sottospazio di V. Allora per ovni v0 ∈ ๐‘‰ esiste un unico u0 ∈ ๐‘ˆ t.c. v0u0 sia ortogonale a tutti gli elementi di U.
Sia U un sottospazio vettoriale di uno spazio vettoriale metrico V. L’applicazione lineare ๐‘ƒ๐‘ˆ : ๐‘‰ → ๐‘ appena
definita si dice proiezione ortogonale di V su U. Nota che ๐‘ƒ๐‘ˆ (๐‘ข) = ๐‘ข per ogni ๐‘ข ∈ ๐‘, e che ๐ผ๐‘š๐‘ƒ๐‘ˆ = ๐‘ˆ
sia V uno spazio vettoriale equipaggiato con un prodotto scalare ⟨โˆ™,โˆ™⟩. L’ortogonale di un sottoinsieme ๐‘† ⊆ ๐‘‰ è
l’inisieme ๐‘† ⊥ di tutti gli elementi di V ortogonali a S. Nel caso in cui sia S un sottospazio vettoriale di U di V (e ⟨โˆ™,โˆ™⟩
sia definito positivo), allora ๐‘ˆ ⊥ è detto supplemento ortogonale di U.
Endomorfismo simmetrici
Sia ๐‘‡: ๐‘‰ → ๐‘‰ un endomorfismo di uno spazio vettoriale metrico V. Diremo che T è simmetrico (o autoaggiunto)
se ⟨๐‘‡(๐‘ฃ1 ), ๐‘ฃ2 ⟩ = ⟨๐‘ฃ1 , ๐‘‡(๐‘ฃ2 )⟩, ∀๐‘ฃ1 , ๐‘ฃ2 ∈ ๐‘‰
Sia ๐‘‡: ๐‘‰ → ๐‘‰ un endomorfismo di uno spazio vettoriale metrico V. Diremo che T è un’isomeria (lineare), o
endorfismo ortogonale, se ⟨๐‘‡(๐‘ฃ1 ), ๐‘‡(๐‘ฃ2 )⟩ = ⟨๐‘ฃ1 , ๐‘ฃ2 ⟩ ∀ ๐‘ฃ1 , ๐‘ฃ2 ∈ ๐‘‰.
Sia ๐‘‡: ๐‘‰ → ๐‘‰ un endomorfismo di uno spazio vettoriale metrico V. Allora le seguenti affermazioni sono
equivalenti:
1. T è un’isomeria
2. Se {v1,…,vn} è una base ortonormale di V, anche {๐‘‡(๐‘ฃ1 ), … , ๐‘‡(๐‘ฃ๐‘› )} lo è
3. โ€–๐‘‡(๐‘ฃ)โ€– = โ€–๐‘ฃ โ€–, ∀ ๐‘ฃ ∈ ๐‘‰ (ed in particolare T è invertibile)
Geometria Euclidea
Il piano euclideo ๐œ€ 2 e lo spazio euclideo ๐œ€ 3 sono piani o spazi affini in cui sia stata fissata un’unità di misura per
le lunghezze.
Un sistema di riferimento cartesiano ๐‘…๐ถ(๐‘‚, ๐ด1 , ๐ด2 , ๐ด3 ) DI ๐œ€ 3 è un sistema di riferimento affine RA(๐‘‚, ๐ด1 , ๐ด2 , ๐ด3 )
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—1 , ๐‘—โƒ— = ๐‘‚๐ด
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—2 , ๐‘˜โƒ—โƒ— = ๐‘‚๐ด
โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—โƒ—3 siano di lunghezza unitaria e ortogonali a due a due.
tale che i vettori ๐‘–โƒ— = ๐‘‚๐ด
Una retta orientata è una retta cui sia fissiato un vettore direttore (e quindi una direzione di percorrenza). Due
diversi vettori direttori determinano la stessa orientazione se e solo se sono un multiplo positivo dell’altro. In
particolare, esiste un unico vettore di lunghezza unitaria che determina l’orientazione scelta: il versore direttore
della retta orientata. Se ๐‘ฃ = ๐›ผ๐‘–โƒ— + ๐›ฝ๐‘—โƒ— + ๐›พ๐‘˜โƒ—โƒ— è l’espressione del versore direttore v come combinazione lineare
della base {๐‘–โƒ— + ๐‘—โƒ— + ๐‘˜โƒ—โƒ—} di ๐‘‰๐‘œ3 , ๐‘Ž๐‘™๐‘™๐‘œ๐‘Ÿ๐‘Ž ๐›ผ, ๐›ฝ, ๐›พ ∈ โ„ sono detti coseni direttori della retta
L’angolo ๐‘Ÿฬ‚
0 ๐‘Ÿ1 fra due rette orientate r0 ed r1 è l’angolo fra i loro versori direttori
due rette r0 ed r1 aventi eq. parametriche ๐‘ƒ = ๐‘ƒ0 + ๐‘ก๐‘ฃ0 e ๐‘ƒ = ๐‘ƒ1 + ๐‘ ๐‘ฃ1 dove ๐‘ฃ0 = (๐‘™0 , ๐‘š0 , ๐‘›0 )๐‘’ ๐‘ฃ1 (๐‘™1 , ๐‘š1 ๐‘›1 )
che determinano le orientazioni scelte, allora l’angolo fra le rette è dato da cos ๐‘Ÿฬ‚
0 ๐‘Ÿ1
๐‘™0 ๐‘™1 +๐‘š0 ๐‘š1+๐‘›0๐‘›1
√๐‘™02 +๐‘š02+๐‘›02 √๐‘™12 +๐‘š12+๐‘›12
๐‘™0 ๐‘™1 + ๐‘š0 ๐‘š1 + ๐‘›0 ๐‘›1 = 0
⟨๐‘ฃ ,๐‘ฃ ⟩
= โ€–๐‘ฃ 0โ€–โ€–๐‘ฃ1 โ€– =
0
1
, in particolare due rette sono ortogonali se e solo se cos ๐‘Ÿฬ‚
0 ๐‘Ÿ1 = 0 ossia che