Vettori geometrici
Fissato su A1 un punto O e un’unità di misura, cioè un segmento OA, otteniamo un applicazione bigettiva fra i
punti della retta e i numeri reali; Ciò introduce una somma e un prodotto che lo rendono campo. ๐ฃ๐2 con somma
è un gruppo commutativo. È inoltre definito un prodotto per uno scalare. In ๐ฃ๐2 è possibile definire un
applicazione bigettiva ๐น๐ : ๐ฃ๐2 → โ2 che associa a ogni vettore una coppia di numeri. Dato che entrambi hanno la
sessa struttura algebrica diremo che sono isomorfi e che ๐น๐ è un isomorfismo.
L’isomorfismo è un applicazione biunivoca t.c. ๐น๐ ๐ ๐น๐ −1 sono omomorfisti, ossia che conservano le operazioni
in esse definite.
Riferimento affine
L’insieme formato da un punto ๐ ∈ ๐ด2 e da due vettori non proporzionali ๐โ ๐ ๐โ ∈ ๐ฃ๐2 si chiama sistema di
riferimento affine RA(๐, ๐โ, ๐โ) del piano.
Equazioni di rette e piani
โโโโโโ = ๐ก๐๐
โโโโโโโ . Se
Se r passa per l’origine per sapere se un punto P appartiene alla retta, basta risolvere l’equazione: ๐๐
la retta r è invece qualunque, prendiamo un punto ๐0 ∈ ๐, e sia r0 la retta parallela ad r passante per O.
โโโโโโ = ๐๐
โโโโโโโโ0 + ๐ก๐๐
โโโโโโโ (equazione vettoriale della retta; OQ si chiama vettore direttore)
L’equazione sarà dunque ๐๐
โโโโโโโโ1 + ๐ก(๐๐
โโโโโโโโ2 − โโโโโโโโ
P appartiene alla retta passante per P1 e P2 se e solo se โโโโโโ
๐๐ = ๐๐
๐๐1 )
Un punto P appartiene al piano ๐ ⇔ โโโโโโ
๐๐ = โโโโโโโโ
๐๐0 + ๐ ๐โ + ๐ก๐โ (equazione vettoriale del piano; i,j s chiamoano
vettori di giacitura del piano)
Sia una retta passante per P0 con vettore direttore OQ e r’ con vettore direttore OQ’, le due rette si intersecano
โโโโโโโโ′ − ๐๐
โโโโโโโโ, in altre parole se e solo se ๐๐
โโโโโโโโ′ − ๐๐
โโโโโโโโ0 = ๐ก๐๐
โโโโโโโ − ๐ก ′ ๐๐′
โโโโโโโโ0
ne punto X se e solo se esistono t e t’ t.c. ๐๐
0
0
appartiene al piano generato dai vettori direttori.
Equazioni parametriche
๐ฅ0
๐ฅ
๐
Fissato RA(๐, ๐โ, ๐โ) chiamiamo |๐ฆ | le coordinate del punto P0, | | le coordinate di Q, e |๐ฆ| le coordinate del
0
๐
punto generico P.
๐ฅ
๐ฅ0
๐
|๐ฆ| = |๐ฆ | + ๐ก | | quindi il punto p appartienene alla retta se e solo se le sue coordinate sono date da
0
๐
๐ฅ = ๐ฅ0 + ๐ก๐
{
(equazione parametrica di una retta nel piano)
๐ฆ = ๐ฆ0 + ๐ก๐
๐ฅ0
|๐ฆ0 | + ๐ก
๐ง0
๐ฅ = ๐ฅ0 + ๐ก๐
๐
๐
| | {๐ฆ = ๐ฆ0 + ๐ก๐ equazione parametrica di una retta nello spazio (p appartiene alla retta se
๐
๐ง = ๐ง0 + ๐ก๐
e solo se le sue coordinate sono date da questa equazione)
๐ฅ
|๐ฆ| =
๐ง
๐ฅ = ๐ฅ0 + +๐ ๐ + ๐ก๐′
๐ฅ0
๐
๐′
๐ฆ
0
๐ฆ
| | + ๐ |๐| ๐ก |๐′| { = ๐ฆ0 + ๐ ๐ + ๐ก๐′ equazione parametrica di un piano nello spazio (p appartiene
๐ง0
๐′
๐
๐ง = ๐ง0 + ๐ ๐ + ๐ก๐′
allo spazio se e solo se le sue coordinate sono date da questa equazione)
๐ฅ
|๐ฆ| =
๐ง
๐ฅ0
Se vogliamo trovare l’intersezione fra due rette con equazioni parametriche una volta fissato RA(๐, ๐โ, ๐โ), P0 |๐ฆ |,
0
๐ฅ′
๐๐ก − ๐ ′ ๐ก ′ = ๐ฅ0′ − ๐ฅ0
๐
๐0′ | 0′ |, Q | | e Q’ | ๐′ | le rette si intersecheranno se e solo se {
, dove t e t’ sono incognite.
๐ฆ0
๐๐ก − ๐′ ๐ก ′ = ๐ฆ0′ − ๐ฆ0
๐
๐′
|
๐ฅ ′ + ๐′ ๐ก0′
๐ฅ0 + ๐๐ก0
| = | ′0
|
๐ฆ0 + ๐๐ก0
๐ฆ0 + ๐′ ๐ก0′
L’eliminazione di Gauss
Nota: per passare da un sistema con unica a una senza soluzioni(o con infinite soluzioni) si modificano i
coefficienti, mentre per passare da un sistema senza soluzioni a uno con infinite si modificano i termini noti!
Il numero n delle incognite è detto anche ordine del sistema, un sistema è compatibile se ammette almeno una
soluzione. Una soluzione è una n-upla (๐ฃ1 , … , ๐ฃ๐ ) che sostituiti nelle incognite ๐ฅ1 , … ๐ฅ๐ soddisfano il sistema.
๐ด๐๐ dove i indica la riga e j la colonna. A viene detta diagonale se tutti gli elementi al di fuori della diagonale
principale sono nulli. Triangolare superiore se gli elementi al di sotto (cioè a sinistra) della diagonale principale
sono tutti nulli, Triangolare inferiore se invece sono zero gli elementi al di sopra.
Sistemi triangolari superiori
Un sistema triangolare superiore ๐ด๐ฅ = ๐ต di n equazioni in n incognite ammette una e una sola soluzione se e
solo se tutti gli elementi della diagonale principale di A sono diversi da 0 (si dimostra risolvendo all’indietro).
Gauss
Due sistemi lineari dello stesso ordine si dicono equivalenti se hanno esattamente le stesse soluzioni. Si chiama
combinazioni lineare: โ(๐1 ๐ฅ1 + โฏ + ๐๐ ๐ฅ๐ ) + ๐(๐1 ๐ฅ1 + โฏ + ๐๐ ๐ฅ๐ ) = โ๐ + ๐๐. Facendo combinazioni lineari di
equazioni di un sistema le soluzioni non cambiano.
Il metodo di gauss consiste in un passo in meno dell’ordine del sistema.
Un sistema lineare quadrato ammette un'unica soluzione se e solo se i pivot della sua matrice dei coefficienti
sono tutti non nulli.
Il prodotto di tutti i pivot è il valore assoluto del determinante della matrice
Una matrice quadrata è non singolare se tutti i suoi pivot (rispetto ad una eliminazione) sono non nulli, è
singolare altrimenti.
Spazio vettoriale
Lo spazio vettoriale è un insieme definito con una somma ed un prodotto di un numero per un vettore
La somma di due vettori e semplicemete la somma componente per componente. Il prodotto per uno scalare è
definito componente per componente
Proprietà degli spazi vettoriali:
1. Somma:
๏ท Commutativa
๏ท Esistenza del numero neutro
๏ท Associativa
๏ท Esistenza dello zero
๏ท Esistenza dell’opposto
2. Prodotto:
๏ท Distributiva
๏ท associativa
๏ท Esistenza del numero neutro
W è un sottospazio vettoriale se soddisfa le proprietà degli spazi vettoriali, e se e chiuso rispetto alle operazioni
di somma e prodotto per scalare, quindi basta dimostrare che somma due elementi, l’elemento risultante
rimanga nel sotto insieme, che il vettore risultante da uno scalare per un vettore appartenga al sottoinsieme e
l’esistenza dell’elemento nullo.
Un sistema lineare della forma ๐ด๐ฅ = 0 è detto omogeneo.
Sia ๐ ⊆ โ๐ l’iniseme delle soluzioni del sistema lineare omogeneo in n incognite ๐ด๐ฅ = 0. Allora w è un
sottospazio vettoriale di Rn. Se il sistema non era omogeneo w non era sottospazio in quanto non conteneva il
vettore nullo.
Sia v uno spazio vettoriale; la combinazione lineare di k vettori ๐ฃ1 , … , ๐ฃ๐ con coefficienti (o pesi) ๐ผ1 , … , ๐ผ๐ è il
vettore ๐ผ1 ๐ฃ1 + โฏ + ๐ผ๐ ๐ฃ๐ . Lo span dei (o sottospazio generato dai) vettori ๐ฃ1 , … , ๐ฃ๐ è l’insieme di tutte le
possibili combinazioni lineari. In simboli ๐ ๐๐๐(v1 , … , v๐ ) = {๐ผ1 ๐ฃ1 + โฏ + ๐ผ๐ ๐ฃ๐ | ๐ผ1 , … , ๐ผ๐ ∈ โ }.
Sia V uno spazio vettoriale, e v1 , … , v๐ vettori di V. Allora span(v1 , … , v๐ ) è un sottospazio di V.
Dipendenza e indipendenza lineare
๐1 ๐ฃ1 + ๐2 ๐ฃ2 + โฏ + ๐๐ ๐ฃ๐ è una combinazione lineare
La combinazione lineare è linearmente indipendente se la combinazione che ha come risultato 0 è soddisfatta
↔ ๐1 = ๐2 = โฏ = ๐๐ = 0
Il sistema ๐ด๐ฅ = 0 in n equazioni ha come unica soluzione (quella banale x=0) se e solo se le colonne ๐ด1 , … , ๐ด๐
(๐ด1 corrisponde alla prima colonna, ecc.) sono linearmente indipendenti
Criteri per vedere se una combinazione è linearmente indipendente:
1.
2.
3.
๐ฃโ1 ≠ 0
๐ฃโ2 non è un multiplo di ๐ฃโ1
๐ฃโ3 non è combinazione lineare di ๐ฃโ1 e ๐ฃโ2
Generatori:
Un insieme di generatori per A se tutti gli elementi di A possono essere ottenuti dagli elementi di S come
combinazioni di span A.
Sia V uno spazio vettoriale, un insieme B= {๐ฃ1 , … , ๐ฃ๐ } di vettori V è una base di V se:
๏ท
๏ท
V span(๐ฃ1 , … , ๐ฃ๐ ), cioè ๐ฃ1 , … , ๐ฃ๐ sono un sistema di generatori di v;
๐ฃ1 , … , ๐ฃ๐ sono linearmente indipendenti
cioè se ogni elemento di V si può scrivere come un'unica combinazione lineare.
Siano ๐ฃ1 , … , ๐ฃ๐ vettori linearmente indipendenti di uno spazio vettoriale V. Supponiamo che
๐ผ1 , … , ๐ผ๐ , ๐ฝ1 , … , ๐ฝ ∈ โ siano tali che ๐ผ1 ๐ฃ1 + โฏ + ๐ผ๐ ๐ฃ๐ = ๐ฝ1 ๐ฃ1 + โฏ + ๐ฝ๐ ๐ฃ๐ ⇒ ๐ผ๐ = ๐ฝ๐ ๐๐๐ ๐ = 1 … ๐
Sia B= {๐ฃ1 , … , ๐ฃ๐ } una base di V, e v ∈ V. Gli n numeri reali (๐ผ1 , … , ๐ผ๐ ) sono le coordinate di v rispetto a B
Sia B= {๐ฃ1 , … , ๐ฃ๐ } una base di uno spazio vettoriale V. allora b è un insieme massimale in V di vettori
linearmente indipendenti
Sia B un sottoinsieme finito di uno spazio vettoriale V. se span(B) contiene un sistema di generatori di V allora
V=span(B), cioè B è un sistema di generatori di V
Sia A{๐ฃ1 , … , ๐ฃ๐ } ๐ข๐ ๐ ๐๐ ๐ก๐๐๐ ๐๐ ๐๐๐๐๐๐๐ก๐๐๐ ๐๐ ๐ข๐๐ ๐ ๐๐๐ง๐๐ vettoriale V. Sia ๐ต ⊆ ๐ด un sottoinsieme massimale
in A di vettori linearente indipendenti. Allora B è una base di V
Ogni spazio vettoriale contenente un sistema finito di generatori ammette una base
Teorema di Steinitz e del completamento
๐ฅ1 , ๐ฅ2 , … , ๐ฅ๐ → ๐๐๐๐๐๐๐ก๐๐๐ e ๐ฆ1 , ๐ฆ2 , … , ๐ฆ๐ → ๐๐๐๐๐๐๐๐๐๐ก๐ ๐๐๐๐๐๐๐๐๐๐๐ก๐ ⇒ ๐ ≤ ๐
sia B={๐ฃ1 , … , ๐ฃ๐ } una base di uno spazio vettoriale V, e siano ๐ค1 , … , ๐ค๐ ∈ ๐ (๐๐๐ ๐ ≤ ๐) vettori linearmente
indipendenti. Allora esistono n-p vettori di B che insieme a ๐ค1 , … , ๐ค๐ formano una base di V
Corollario:
Tutte le basi di uno spazio vettoriale hanno lo stesso numero di elementi.
Le dimensioni di uno spazio vettoriale è il numero di elementi di una qualsiasi base ๐ = ๐๐๐๐
Dimensione sottospazio:
๐ ⊆ ๐ ⇒ ๐๐๐๐ ≤ ๐๐๐๐
Somma e intersezioni di sottospazi
Sia U,W sottospazi dello stesso spazio vettoriale V. Se B è un sistema di generatori di U e C un sistema di
generatori di W , allora B U C è un sistema di generatori di U+W
Teorema di Grassman: dim(๐ + ๐) + dim(๐ ∩ ๐) = dim ๐ + dim ๐
Due sottospazi U e W di uno spazio vettoriale V si dicono supplementari se ๐ = ๐ ⊕ ๐ (ossia sono somma
diretta, cioè la loro intersezione è uguale al vettore nullo)
Applicazioni lineari
Teorema di struttura: Sia ๐ฃ 0 ∈ โ๐ una soluzione del sistema lineare Ax=B di ordine n. Allora ogni altra soluzione
è della forma ๐ฃ = ๐ฃ 0 + ๐ค, dove ๐ค ∈ โ๐ è una soluzione del sistema omogeneo Ax=0. In altra parole se ๐ฟ ⊆ โ๐
è l’insieme delle soluzioni del sistema Ax=B e ๐ ⊆ โ๐ è l’insieme delle soluzioni del sistema omogeneo
associato ๐ด๐ฅ = 0, si ha ๐ฟ = ๐ฃ 0 + ๐ = {๐ฃ 0 + ๐ค|๐ค ∈ ๐} in particolare, v0 l’unica soluzione del sistema se e solo
se le colonne di A sono linearmente indipendenti
Matrici
Definita ๐ฟ๐ : โ๐ → โ๐
๐11
๐ด=[ โฎ
๐๐1
โฏ
โฑ
…
๐1๐
โฎ ] matrice con m righe ed n colonne. Se m=n la matrice è quadrata
๐๐๐
Rango
๐๐๐ ๐ (dimensione spazio righe) = ๐๐๐ ๐ (dimensione spazio colonne)= ๐๐๐ ๐ด (dimensione matrice)= ๐๐ ๐ด
(rango matrice)
๐๐๐ด ≤ min(๐, ๐)
Teorema della dimensione
Data ๐น: ๐ → ๐ allora dim ๐ = dim ๐๐๐๐น + ๐๐๐น (๐ ๐ผ๐๐น)
Operazioni ammesse su una matrice
๏ท
๏ท
๏ท
moltiplicare ogni elemento di una riga per ๐ ≠ 0
scambiare le riga i-esima con la j-esima ๐ ≠ ๐
prendere una riga sommarla con un multiplo di un'altra riga e sostituirla con questa nuova riga
Operazioni fra matrici
Somma fra matrici
๐11 โฏ ๐1๐
๐11
โฑ
โฎ ]+[ โฎ
[ โฎ
๐๐1 … ๐๐๐
๐๐1
righe e colonne
โฏ ๐1๐
๐11 + ๐11
โฑ
โฎ ]=[
โฎ
… ๐๐๐
๐๐1 + ๐๐1
โฏ ๐1๐ + ๐1๐
โฑ
โฎ
] A e B devono avere lo stesso numero di
… ๐๐๐ + ๐๐๐
Proprietà della somma fra matrici
๏ท
๏ท
๏ท
๏ท
commutativa
associativa
esistenza della matrice nulla
esistenza della matrice inversa
prodotto di una matrice per un numero
๐11
๐[ โฎ
๐๐1
โฏ ๐1๐
๐(๐11 )
โฑ
โฎ ]=[ โฎ
… ๐๐๐
๐(๐๐1 )
โฏ ๐(๐1๐ )
โฑ
โฎ ]
… ๐(๐๐๐ )
prodotto fra matrici
๐ ๐
๐ด๐ต = [ โฎ โฎ
… …
๐ … โฏ
โฎ ][ โฎ โฎ
… … …
๐
โฏ โฏ ๐๐ + ๐๐ + ๐๐
๐] = [ โฎ
]=๐ถ
โฎ
โฎ
๐
โฏ …
โฏ
il prodotto fra matrici esiste se la matrice A ha numero di elementi su ogni riga quanti B su ogni colonna
A
B
๐๐ฅ๐
๐๐ฅ๐ ∃ ๐ถ ⇔ ๐ = ๐ → ๐ถ = ๐๐ฅ๐ (m righe, n colonne)
Per le matrici non vale la legge di annullamento del prodotto
Se A≠ 0 ๐ ๐ต ≠ 0 può capitare che AB=0
Matrice inversa
๐ด๐ด−1 = ๐ด−1 ๐ด = ๐ผ (๐๐๐๐๐ก๐๐๐)
A è invertibile se ∃ ๐ด−1t.c. ๐ด๐ด−1 = ๐ผ
Per trovare la matrice inversa :
data ๐ด = |
๐
๐
๐
๐
| vogliamo trovare ๐ = |
๐
๐
๐
| sapendo che ๐ด โ ๐ = ๐ผ
โ
๐๐ + ๐๐ = 1
๐๐ + ๐โ = 0
1 0
๐ ๐ ๐ ๐
๐ด๐ = |
||
|=|
|
{
dove a,b,c,d sono numeri noti quindi bisogna risolvere i
๐๐ + ๐๐ = 0
0 1
๐ ๐ ๐ โ
๐๐ + ๐โ = 1
๐๐ + ๐๐ = 1 ๐๐ + ๐โ = 0
due soli sistemi {
e{
๐๐ + ๐๐ = 0 ๐๐ + ๐โ = 1
data A le seguenti affermazioni sono equivalenti:
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
A è invertibile
L’applicazione lineare associata è invertibile
L’applicazione lineare associata è iniettiva
L’applicazione lineare associata è suriettiva
A=n
Le colonne di A sono linearmente indipendenti
Le righe di A sono linearmente indipendenti
Il sistema omogeneo ๐ด๐ฅ = 0 ha come unica soluzione x=0
Per ogni b ∈ โ๐ il sistema ax=B ha come unica soluzione x=๐ด−1 ๐ต
I pivot di A, comunque determinati, sono non nulli (cioè A è non singolare)
Ossia che il determinante sia diverso da 0
Matrice trasposta
๐ด๐ก si ottiene scambiando le righe con le colonne
proprietà delle trasposta:
(๐ด + ๐ต)๐ก = ๐ด๐ก + ๐ต๐ก
(๐ด๐ต)๐ก = ๐ต๐ก ๐ด๐ก ( non vale la proprietà commutativa per il prodotto fra matrici)
(๐๐ด)๐ก = ๐๐ด๐ก
Matrice simmetrica
Una matrice è simmetrica ⇔ ๐ด =
๐ด๐ก
๐ฅ
|๐
๐
๐
๐ฆ
๐
๐
๐|
๐ง
Matrice antisimmetrica
Una matrice è antisimmetrica ⇔ ๐ด = −(๐ด๐ก )
0
|−๐
−๐
๐
0
−๐
๐
๐|
0
Matrice ortogonale
A quadrata ortogonale : ๐ด๐ก = ๐ด−1 inversa e trasposta coincidono
Matrice a coefficienti complessi
Sia ๐ด ∈ ๐๐,๐ (โ) una matrice a coefficienti complessi. La matrice coniugata di A è la matrice ๐ด i cui elementi
sono i coniugati della matrice A. La matrice trasposta della coniugata (o aggiunta) A H di A è la trasposta della
๐
coniugata in simboli ๐ด๐ป = ๐ด = ๐ด๐
Applicazioni lineari
Applicazione=funzione
๐: ๐ → ๐ è un applicazione lineare se soddisfa le seguenti proprietà:
๏ท
๏ท
๏ท
๏ท
๐(๐ฃ + ๐ฃ ′ ) = ๐(๐ฃ) + ๐(๐ฃ ′ )
๐(๐๐ฃ) = ๐๐(๐ฃ)
๐(0) = 0
๐(−๐ฃ) = −๐(๐ฃ)
Ker
il Ker o nucleo è un sottospazio di V formato da tutti gli elementi che si trasformano nel vettore nullo.
Se il ker è formato dal solo vettore nullo f è iniettiva ossia elementi distinti del dominio hanno immagini distinte.
Per trovare il ker di una applicazione si risolve il sistema omogeneo associato.
Im
Sia ๐: ๐ → ๐ e {๐ฃ1 , … , ๐ฃ๐ } una base. Allora ๐ผ๐๐ = ๐ ๐๐๐๐(๐(๐ฃ1 ), … ๐(๐ฃ๐ )) o immagine di f è un sottospazio di
w formato da tutti gli elementi che sono f di qualcosa.
Se Im f=W l’applicazione è suriettiva.
Il rango della matrice associata all’applicazione lineare è anche uguale a dim ๐ผ๐ ๐น
Isomorfismo
Se applicazione e sia iniettiva che suriettiva si chiamo biiettiva o anche isomorfismo.
๐: ๐ → ๐, ๐: ๐ → ๐
(๐ + ๐)(๐ฃ) = ๐(๐ฃ) + ๐(๐ฃ)
๐ผ๐: ๐ฃ = ๐ผ๐(๐ฃ)
๐: ๐ → ๐, ๐: ๐ → ๐
๐
๐
๐ โ ๐ = ๐ฃ ๐(๐ฃ) ๐(๐(๐ฃ)) ossia vado da V ->Z
→
→
Matrici e applicazioni lineari
๐: โ๐ → โ๐
๐11
๐
( 21
โฎ
๐๐1
๐12
๐22
โฏ
๐๐2
๐(๐1 ) ๐(๐2 )
La matrice avrà m righe e n colonne
โฏ
โฑ
โฏ
๐1๐
๐2๐
)
โฎ
๐๐๐
1° componente dell’applicazione lineare
2° componente dell’applicazione lineare
m-esima componente dell’applicazione lineare
๐(๐๐ )
un polinomio è omogeneo se tutti i termini sono dello stesso grado.
F ha m componenti ciascuno dei quali è un polinomio omogeneo di primo grado in x 1,…,xn.
Applicazioni iniettive, suriettive, invertibili o biiettive con matrice associata
๐: โ๐ → โ๐ è:
1. iniettiva se:
๐ฃ ≠ ๐ฃ ′ ⇒ ๐(๐ฃ) ≠ ๐(๐ฃ ′ )
โฏ โฏ โฏ
๐๐ = ( โฎ โฑ โฎ )
โฏ โฏ โฏ
F(e1)
F(en)
se il rgMf=n l’applicazione lineare è iniettiva. Se n>m l’applicazione non può essere iniettiva.
2. suriettiva se:
๐ผ๐๐ = โ๐
โฏ โฏ
๐๐ = ( โฎ โฑ
โฏ โฏ
โฏ
โฎ)
โฏ
F(e1)
F(en)
๐(๐ฃ) = ๐๐๐๐ ๐ถ. ๐ฟ. ๐(๐1 ), … , ๐(๐๐ ) ⇐ ๐โ๐ ๐ ๐๐๐ ๐ ๐๐๐๐๐๐๐ก๐๐๐ ๐๐ ๐ผ๐๐
se rgMf=m l’applicazione lineare è suriettiva. Se n<m l’applicazione non può essere suriettiva.
3. invertibile se:
sia iniettiva che suriettiva
−1
๐
๐ −1 ๐ฃ ๐(๐ฃ) = ๐ฃ ′ ๐ ๐ฃ = ๐ −1 (๐ฃ ′ )
→
→
โฏ โฏ
๐๐ = ( โฎ โฑ
โฏ โฏ
F(e1)
โฏ
โฎ)
โฏ
F(en)
๐๐๐๐ = ๐ = ๐
Matrice associata a una applicazione lineare
La matrice A è la matrice associa all’applicazione T rispetto alle basi B e C.
La matrice A contiene per colonne le coordinate rispetto alla base di arrivo C dei trasformati secondo T dei
vettori della base di partenza.
Siano V e W spazi vettoriali sul campo K, con dim ๐ = ๐ e dim ๐ = ๐. Fissiamo una base B di v e una base C di
W. Allora Fissiamo una base B di V e una base C di W. Allora l’applicazione ๐ โฆ ๐ด che associa a un’applicazione
lineare ๐: ๐ → ๐ la matrice che la rappresenta rispetto alla basi B e C è un isomorfismo fra fra โ(๐, ๐) e
๐๐,๐ (๐). In particolare, dim โ (๐, ๐) = (dim ๐)(dim ๐) Pag 152-154
Applicazione lineare inversa
๐: โ๐ → โ๐
Mf (matrice associata all’applicazione lineare f), Mf -1 è la matrice associata alla applicazione inversa, Mf -1 è
uguale a (Mf)-1
Per trovare l’applicazione inversa bisogna, dunque, calcolare la matrice inversa associata all’applicazione.
L’applicazione è invertibile se esiste ๐: โ๐ → โ๐ t.c. ๐ โ ๐ = ๐๐๐ e ๐ โ ๐ = ๐๐๐
Un applicazione lineare è invertibile se e solo se è sia iniettiva e suriettiva
(Nota: un applicazione è lineare se e solo se ogniuna delle componenti è un polinomio di primo grado privo del
termine noto)
Composizioni
๐ โ ๐ = ๐๐ โ ๐๐ = ๐๐โ๐ se l’applicazione lineare è foramata da una composizione si fra il prodotto fra le
matrici associate alle singole applicazioni
Sistemi lineari
Per risolvere un sistema lineare AX=B si scrive il sistema sotto forma di matrice completa e si riduce con Gauss.
In seguito si sostituisce all’indietro.
๐ด๐ = ๐ต è ๐๐๐ ๐๐๐ข๐๐๐๐ ⇔ ๐๐๐ด = ๐๐(๐ด|๐ต) = ๐ se il sistema è risolvibile vi sono n-p incognite libere.
Teorema di Rouchè-Capelli
Sistema AX=B in m equazioni in n incognite:
๏ท
๏ท
๐๐๐ด = ๐
๐๐ (๐ด|๐ต) = ๐
risolubile ⇔ ๐ = ๐, è vi saranno n-p incognite libere, inoltre se esiste la soluzione è unica se e solo se rgA=n
Sistemi Omogenei
AX=0
Ha sempre almeno una soluzione, cioè quella banale, perché per Rouchè-Capelli per avere soluzione deve avere
rgA=rgA|B, ma essendo B composto da soli 0 non cambia il rango è quindi deve avere sempre almeno una
soluzione.
vi sono sempre n-rgA incognite libere.
I sistemi omogenei possono avere 1 (la cui soluzione e per lo meno =0) o infinite soluzioni
Data Mf=A
kerf sono le soluzioni del sistema omogeneo di A
Dim kerf =n-rgA il numero di incognite libere è uguale alla dim kerMf
Contro immagine
๐๐๐ก๐
๐: โ๐
→
โ๐
๐๐ = ๐ด
๐1
๐ด๐ = ( … )
๐๐
๐ −1 (๐1 , … , ๐๐ )
e.s.
๐: โ3 → โ2 = (๐ฅ + ๐ฆ, ๐ฅ − ๐ง) scelto un elemento di โ2 (della destinazione) si eguaglia il vettore alla matrice
associata alla funzione quindi (a,b)=f(x,y,z)
|
1 1
1 0
0 ๐
| il risultato è la contro immagine di f(x,y,z). (a, b sono numeri è il vettore scelto di r2)
−1 ๐
Inversa
Per trovare l’inversa si scrive la matrice A e a fianco la matrice Id. In seguito si diagonalizza A fino a far diventare
0 tutti gli elementi di A esclusi quella della diagonale principale. Si divide in fine ogni riga per il valore non nullo
di A
|
๐
๐
๐ 1
|
๐ 0
๐ฅ 0 ๐ง
0
→|
|
0 ๐ฆ ๐ค
1
๐
1
→|
๐
0
๐ง
0 ๐ฅ
|
1 ๐ค
๐ฆ
๐
๐ฅ
๐
๐ฆ
Determinante
Determinante di una matrice quadrata 2x2
๐11
๐ด = (๐
21
๐12
๐22 )
๐๐๐ก๐ด = ๐11 ๐22 − ๐12 ๐21
determinate matrice 3x3
1.
2.
3.
4.
๐11 ๐12 ๐13
๐22 ๐23
(๐21 ๐22 ๐23 )
๐11 (๐๐๐ก |๐
|)
32 ๐33
๐31 ๐32 ๐33
๐11 ๐12 ๐13
๐21 ๐23
(๐21 ๐22 ๐23 )
− ๐12 (๐๐๐ก |๐
|) il segno è determinato dalla posizione dell’elemento: se la
31 ๐33
๐31 ๐32 ๐33
somma della riga e della colonna è dispari si mette un – d’avanti
๐11 ๐12 ๐13
๐21 ๐22
(๐21 ๐22 ๐23 )
๐13 (๐๐๐ก |๐
|)
31 ๐32
๐31 ๐32 ๐33
si sommano gli elementi calcolati precedentemente
๐22 ๐23
๐21 ๐23
๐21 ๐22
๐11 (๐๐๐ก |๐
|) − ๐12 (๐๐๐ก |๐
|) + ๐13 (๐๐๐ก |๐
|)
๐
๐
32
33
31
33
31 ๐32
Complemento algebrico e sviluppo di Laplace
Il complemento algebrico di un elemento di una matrice è il determinante della matrice che si ottiene
cancellando la riga e la colonna che si incrociano in quell’elemento con un segno. Numero riga + numero
colonna pari segno + altrimenti segno ๐11
๐21
๐ด = ( ๐31
…
๐๐1
๐12
๐22
๐32
…
๐๐2
… ๐1๐
๐12
… ๐2๐
๐
32
… ๐3๐ ) il complemento algebrico di a21 è – ๐๐๐ก ( …
… …
๐๐2
… ๐๐๐
… ๐1๐
… ๐3๐ )
… …
… ๐๐๐
Sviluppo di Laplace
Il determinante di A si ottiene moltiplicando gli elementi di una riga(o colonna) per i loro complementi algebrici
e facendo la somma dei risultati.
Proprietà dei determinanti:
๏ท
๏ท
๏ท
๏ท
๏ท
๏ท
๏ท
๏ท
il determinante è nullo se: una riga è nulla, una colonna è nulla, la riga i-esima è uguale alla j-esima, la colonna iesima è uguale alla j-esima
se moltiplico la matrice A per un numero non nullo il determinante è uguale a ๐๐ โ ๐๐๐ก๐ด
se moltiplico una sola riga di A il determinante è uguale a ๐ โ ๐๐๐ก๐ด
๐ + ๐11 … ๐1๐ + ๐1๐
se ogni elemento di A è la somma di due elementi ๐ด = 11
il determinante è uguale a
…
…
…
๐
… ๐1๐
๐
… ๐1๐
det | 11
| + det | 11
|
… … …
… … …
det(๐ด โ ๐ต) = det ๐ด โ det ๐ต (Teorema di Binet)
se alla matrice A scambiamo una riga ๐
๐ ↔ ๐
๐ ⇒ det ๐ด′ = −det ๐ด
se sostituiamo alla i-esima riga la i-esima riga + a volte la j-esima il determinante non cambia.
Il prodotto dei pivo di una matrice quadrata è, al meno del segno, il determinante della matrice. ๐1 โ … โ ๐๐ =
|det ๐ด|
Determinante e invertibilità
= 0 ๐ด ๐๐๐ è ๐๐๐ฃ๐๐๐ก๐๐๐๐๐
det ๐ด {
≠ 0 ๐ด è ๐๐๐ฃ๐๐๐ก๐๐๐๐๐
det(๐ด−1 ) =
1
det ๐ด
calcolo dell’inversa attraverso il determinante:
A-1 è uguale a
1
per la matrice
det ๐ด
che si ottiene scrivendo al posto degli elementi della matrice i loro
complementi algebrici dopo aver scambiato le righe con le colonne
๐ด−1
=
๐11
1
(๐12
…
det ๐ด
๐1๐
๐21
…
…
..
… ๐๐1
… …
… … )
… ๐๐๐
Teorema degli orlati
Sia ๐ด ∈ ๐๐,๐ (โ); una sottomatrice quadrata di ordine p di A è una matrice A' ottenuta considerando solo p
righe e colonne fissate di A. Se ad A’ aggiungiamo un’altra riga e un'altra colonna di A diremo che stiamo
orlando A’
Teorema degli orlati: Sia ๐ด ∈ ๐๐,๐ (โ) una matrice. Allora rgA=r se e solo se esiste una sottomatrice A’ di ordine
r di A non singolare, e tutte le sottomatrici di ordine r+1 di A ottenute orlando A’ anno determinante nullo.
Matrici simili
Due matrici simili hanno lo stesso rango, determinante e traccia. Si dice quindi che rango, determinante e
traccia sono invarianti per similitudine. In matematica, si definisce traccia di una matrice quadrata la somma di
tutti gli elementi della sua diagonale principale.
Regola di Cramer
Dato Ax=B, risolubile con rgA=rgA|B, con m equazioni ed n incognite, se vi è una sola soluzione (soluzioni libere
date da n-rgA quindi uguale a 0, per cui dovrà anche essere quadrata), con determinanre diverso da 0 (quindi
invertibile) si possono trovare le soluzioni attraverso la regola di Cramer.
๐ฅ = ๐ด−1 ๐ต ← ๐ด−1 (๐ด๐ฅ) = ๐ด−1 ๐ต = ๐ผ๐ ๐ฅ = ๐ด−1 ๐ต
๐11 ๐21
1
…
๐ฅ = ๐ด−1 ๐ต =
(๐12
… …
det ๐ด
๐1๐ . .
… ๐๐1
๐1
… …
… … )( โฎ )
๐๐
… ๐๐๐
più semplicemente si possono usare i determinante per trovare le soluzioni:
๐ฅ1 =
๐1 โฏ
det| โฎ
โฎ|
๐๐ โฏ
cioè si
det ๐ด
๐ฅ2 =
๐11 ๐1
det| โฎ โฎ
๐๐1 ๐๐
det ๐ด
sostituisce alla colonna dell’incognita che vogliamo trovare la colonna delle soluzioni.
โฏ
โฎ|
โฏ
Autovalori e autovettori di un endomorfismo
endomorfismo: applicazione lineare โ๐ in se stesso
๐ è un autovalore di f se esiste un vettore non nullo v t.c. si abbia: f(v)= ๐v. (cioè il vettore uscito
dall’applicazione lineare risulta essere un multiplo del vettore iniziale stesso!)
se una matrice è diagonale trovo come autovalori gli elementi della diagonale stessa
Per trovare gli autovalori usiamo il polinomio caratteristico ๐(๐) = 0 che si ottiene sottraendo alla matrice
associata all’applicazioni ๐๐ผ๐ ossia ๐(๐) = [det(๐ด − ๐๐ผ๐) = 0]
Per trovare gli autospazi la cui dimensione è sempre maggiore di 1 bisogna risolvere il sistema (๐ด − ๐๐ผ๐)๐ = 0
dove al posto di ๐ sostituiremo i valori trovati. Le soluzioni formano il sottospazio vettoraile. L’autospazio
corrisponde al ker di ๐ด − ๐๐ผ๐
dim ๐๐ = dim ๐ − ๐๐(๐ด − ๐๐ผ๐)
๐ è un autovalore di molteplicità m e ๐๐ è l’autospazio associato, allora 1 ≤ dim ๐๐ ≤ ๐
Diagonalizzabilità
Dati autovalori ๐1 , … , ๐๐ appartenente hai reali, ognuno dei quali di molteplicità ๐1 , … , ๐๐ dove la loro somma
è uguale a n ; Dati gli autospazi ๐๐1 , … , ๐๐๐ di dimensione D1,…,Dr che risulta essere uguale alla molteplicità del
relativo autovalore ๐ท1 = ๐1 , … , ๐ท๐ = ๐๐ allora f è un endomorfismo semplice. Allora A associata
all’endomorfismo f è diagonalizzabile.
Criterio sufficiente è che ๐: โ๐ → โ๐ ha esattamente n autovalori distinti (cioè tutti di molteplicità 1) è
diagonalizzabile (questò perche la dim dell’autospazio non può essere inferiore ad uno, ma nemmeno suoeriore
alla molteplicità, quindi è già dimostrato la regola precedente), cioè esiste P invertibile t.c. ๐ −1 ๐ด๐ è diagonale e
P si ottiene mettendo come colonne i vettori di una base di ๐๐1 seguiti da una base di ๐๐2 fino ad esaurire gli
autospazi.
Teorema spettrale
Sia ๐: ๐ → ๐ un endomorfismo simmetrico di uno spazio vettoriale metrico. Allora autovettori di T relativi ad
autovalori distinti sono automaticamente ortogonali.
Sia ๐: ๐ → ๐ un endomorfismo di uno spazio vettoriale metrico V. Allora esiste una base ortonormale B di V
composta da autovettori di T se e solo se T è simmetrico.
Cambiamenti di Base
Ogni volta che abbiamo due basi B e B’ di uno spazio vettoriale V troviamo una matrice invertibile B che
trasforma le coordiante rispetto a b’ nelle coordinate rispetto a B. In concreto, preso un vettore ๐ฃ ∈ ๐ siano ๐ฅ =
๐น๐ต (๐ฃ) ∈ ๐พ ๐ le sue coordinate rispetto a B, e ๐ฅ′ = ๐น๐ต′ (๐ฃ) ∈ ๐พ ๐ le sue coordinate rispetto a B’. allora si ha x=Bx’.
La matrice di cambiamento di base si trova mettendo per colonne le coordinate dei vettori della nuova base B’
rispetto alla vecchia base B. La matrice B viene chiamata di cambiamento di base (o di passaggio) da B a B’.
Chiaramente, ๐ต−1 è la matrice di cambiamento di base da B’ a B, cioè nella direzione inversa.
e.s.:
๐ = โ2 [๐ก], ๐ต = {1, ๐ก, ๐ก 2 } ๐ ๐ต′ = {1, ๐ก − 1,2๐ก 2 + 4๐ก − 6} allora la matrice di cambiamento di base da B A B’
contiene per colonne le coordinate dei polinoimo di B’ rispetto alla base B, cioè:
1 −1
๐ต = |0 1
0 0
−6
4|
2
quindi in generale bisogna calcolare tutte le coordinate dei vettori di B’ rispetto a B.
Possiamo per semplicizzare anche spezzare il cambiamento di base mettendo un passaggio intermedio.
Scegliamo una base B0 (che sia semplice da scrivere in base B) e chiamiamo C questa matrice di cambiamento di
base da B a B0. Essendo molto più semplice scrivere la matrice di cambiamento di base da B’ a B0 scriviamo
questa nuova matrice e poi trovando l’inversa abbiamo trovato la nostra matrice D. B sarà quindi uguale a B=A1
C.
Geometria affine
Se L è lo spazio delle soluzioni del sistema Ax=B, dove ๐ด ∈ ๐๐,3 (โ) ๐ ๐ต ∈ โ๐ , diremo che Ax=B è un equazione
cartesiana per L. La dimensione di L è 3 − ๐๐๐ด, è il sottospazio di giacitura di L è lo spazio V delle soluzioni del
sistema omogeneo Ax=0
Il numero minimo di equazioni necessarie per descrivere un sottospazio affine è dato dalla dimensione dello
sapzio ambiente meno la dimensione del sottospazio.
Equazione cartesiana di un piano nello spazio:
Ax+by+cz=d rappresenta l’equazione di un piano in โ3 ammesso che la matrice A=|๐ ๐ ๐ | abbia rango 1.
A,b,c si dicono parametri di giacitura del piano, che non sono univocamente determinati;
Equazioni di rette e piani
Equazione cartesiana di una retta nello spazio:
๐๐ฅ + ๐๐ฆ + ๐๐ง = ๐
๐ ๐ ๐
{ ′
rappresenta l’equazione di un retta in โ3 non appena la matrice A=|
| ha rango
๐ ๐ฅ + ๐ ′ ๐ฆ + ๐ ′ ๐ง = ๐′
๐′ ๐′ ๐′
2. (in questo modo la retta è rappresentata come l’intersezione di due piani)
Equazioni parametriche:
se l è l’insieme dei punti ๐ ∈ โ3 della forma P=P0+Bt, al variare di t in โ๐ , dove ๐0 ∈ โ3 ๐ ๐ต ∈ ๐3,๐ (โ), diremo
che P=P0+Bt è un equazione parametrica per L. Il sottospazio L ha dimensione rgB, e il sottospazio vettoriale V di
giacitura di L ha equazione parametrica P=Bt.
Equazioni parametriche di una retta nello spazio:
๐ฅ = ๐ฅ0 + ๐๐ก
{๐ฆ = ๐ฆ0 + ๐๐ก
๐ง = ๐ง0 + ๐๐ก
๐
๐๐๐๐ข๐๐ ๐ = ๐0 + ๐ก |๐| al variare di t in R rappresentano una retta nello spazio, non appena il
๐
๐
vettore V=|๐| che detto vettore direttore della retta, non è il vettore nullo. L,m,n sono i parametri direttori
๐
della retta.
Equazioni parametriche di un piano nello spazio:
๐ฅ = ๐ฅ0 + ๐๐ + ๐′๐ก
๐
๐′
{๐ฆ = ๐ฆ0 + ๐๐ + ๐′๐ก ๐๐๐๐ข๐๐ ๐ = ๐0 + ๐ |๐ | + ๐ก |๐′| al variare di s,t in R rappresentano un piano nello
๐
๐′
๐ง = ๐ง0 + ๐๐ + ๐′๐ก
๐ ๐′
spazio non appena la matrice ๐ต = |๐ ๐′| ha rango due
๐ ๐′
Punti e rette
Rette e un punto nel piano
Dato un punto P0=(x0,y0), vogliamo tutte le rette passanti per questo punto. Sostituiamo a t 0
Le equazioni parametriche sono:
๐ฅ = ๐ฅ0 + ๐ก๐
{
quali che siano ๐, ๐ ∈ โ non tutti nulli
๐ฆ = ๐ฆ0 + ๐ก๐
equazioni cartesiane
๐(๐ฅ − ๐ฅ0 ) + ๐(๐ฆ − ๐ฆ0 ) = 0
L’insieme delle rette del piano passanti per P0 si chiama fascio di rette di centro P0
Rette e un punto nello spazio
Dato p0=(x0,y0,z0) ∈ โ3 le eqauzioni parametriche sono:
๐ฅ = ๐ฅ0 + ๐ก๐
{๐ฆ = ๐ฆ0 + ๐ก๐ quali che siano ๐, ๐, ๐ ∈ โ non tutti nulli
๐ง = ๐ง0 + ๐ก๐
le equazioni cartesiane
๐(๐ฅ − ๐ฅ0 ) + ๐(๐ฆ − ๐ฆ0 ) + ๐(๐ง − ๐ง0 ) = 0
{ ′
๐ (๐ฅ − ๐ฅ0 ) + ๐ ′(๐ฆ−๐ฆ0 ) + ๐ ′ (๐ง − ๐ง0 ) = 0
l’insieme delle rette dello spazio passanti per P0 si chiama stelle di rette di centro P0
Una retta e due punti
Dati ๐0 = (๐ฅ0 , ๐ฆ0 ) ๐ ๐1 = (๐ฅ1 , ๐ฆ1 ) ∈ โ2 vogliamo la retta passante per questi due punti. Bisonga quindi trovare
๐ฅ = ๐ฅ0 + ๐ก๐
l,m in R t.c. il sistema nell’incognita t { 1
abbia soluzione. Per Rouché-Capelli il sistema ha soluzione
๐ฆ1 = ๐ฆ0 + ๐ก๐
๐ ๐ฅ1 − ๐ฅ0
๐
se e solo se 1 = ๐๐ | | = ๐๐ |
|, quindi questo accade se e solo se ๐(๐ฆ1 − ๐ฆ0 ) − ๐(๐ฅ1 − ๐ฅ0 ) = 0.
๐
๐ฆ1 − ๐ฆ0
๐
Quindi le equazioni parametriche sono:
๐ฅ = ๐ฅ0 + (๐ฅ1 − ๐ฅ0 )๐ก
{
๐ฆ = ๐ฆ0 + (๐ฆ1 − ๐ฆ0 )๐ก
Le equazioni cartesiane sono:
(๐ฆ1 − ๐ฆ0 )(๐ฅ − ๐ฅ0 ) − (๐ฅ1 − ๐ฅ0 )(๐ฆ − ๐ฆ0 ) = 0
Retta passante per due punti nello spazio
๐0 = (๐ฅ0 , ๐ฆ0 , ๐ง0 ) ๐ ๐1 = (๐ฅ1 , ๐ฆ1 , ๐ง1 ) ∈ โ3 le equazioni parametriche sono:
๐ฅ = ๐ฅ0 + (๐ฅ1 − ๐ฅ0 )๐ก
{๐ฆ = ๐ฆ0 + (๐ฆ1 − ๐ฆ0 )๐ก
๐ง = ๐ง0 + (๐ง1 − ๐ง0 )๐ก
(๐ฆ − ๐ฆ0 )(๐ฅ − ๐ฅ0 ) − (๐ฅ1 − ๐ฅ0 )(๐ฆ − ๐ฆ0 ) = 0
le equazioni cartesiane sono { 1
(๐ง1 − ๐ง0 )(๐ฅ − ๐ฅ0 ) − (๐ฅ1 − ๐ฅ0 )(๐ง − ๐ง0 ) = 0
Punti e piani
Un punto e un piano
Dato un punto P0=(x0,y0,z0) ∈ โ3 vogliamo tutti i piani che passano per quel punto. Le euqazioni parametriche
sono:
๐ฅ = ๐ฅ0 + ๐๐ + ๐′๐ก
{๐ฆ = ๐ฆ0 + ๐๐ + ๐′๐ก
๐ง = ๐ง0 + ๐๐ + ๐′๐ก
mentre le equazioni cartesiane sono:
๐(๐ฅ − ๐ฅ0 ) + ๐(๐ฆ − ๐ฆ0 ) + ๐(๐ง − ๐ง0 ) = 0
L’insieme dei piani passanti per P0 si chiama stella di piani di centro P0
un piano e due punti
dati i punti ๐0 = (๐ฅ0 , ๐ฆ0 , ๐ง0 ) ๐ ๐1 = (๐ฅ1 , ๐ฆ1 , ๐ง1 ) ∈ โ3 ๐๐๐ ๐0 ≠ ๐1
Prodotti scalari
Fissato un sistema di riferimento affine RA(0,i,j) con i vettori i,j di lungezza 1 e che formino fra di loro un angolo
di
๐
2
โโโโโโ โ ๐ โ๐ฃ1 โ. โ๐ฃ1 โ viene detto
La distanza d(O,P) di P dall’origine è data ๐(๐, ๐) = √๐ฅ12 + ๐ฆ12 e si scrive come โ๐๐
norma.
โโโโโโ − โโโโโโโ
๐(๐, ๐) = √(๐ฅ2 − ๐ฅ1 )2 + (๐ฆ2 − ๐ฆ1 )2 = โ๐ฃ2 − ๐ฃ1 โ = โ๐๐
๐๐ โ
๐ฅ
{
cos ๐ = โ๐ฃ1โ
๐ฆ
1
sin ๐ = โ๐ฃ1โ
1
{
๐ฅ
{
cos(๐ + ๐) = โ๐ฃ2โ
๐ฆ
2
sin(๐ + ๐) = โ๐ฃ2 โ
cos ๐ cos ๐ − sin ๐ sin ๐
sin ๐๐๐๐ ๐ + cos ๐ sin ๐
che con le formule di addizione trigonometrica si trasformano in
2
๐ฅ
= โ๐ฃ2โ
2
che
๐ฆ
= โ๐ฃ2 โ
2
è un sistema nelle incognite cos ๐, sin ๐. cos ๐ =
๐ฅ1 ๐ฅ2 +๐ฆ1 ๐ฆ2
โ๐ฃ1 โโ๐ฃ2 โ
〈๐ฃ ,๐ฃ 〉
viene quindi associato hai vettori ๐ฃ1 ๐ ๐ฃ2 il numero 〈๐ฃ1 , ๐ฃ2 〉 = ๐ฅ1 ๐ฅ2 + ๐ฆ1 ๐ฆ2 da cui si ha che cos ๐ = โ๐ฃ 1โโ๐ฃ2 โ.
1
2
Anche la norma si può definire tramite 〈๐ฃ1 , ๐ฃ2 〉 ๐๐ è ๐ข๐๐ข๐๐๐ ๐ √〈๐ฃ1 , ๐ฃ2 〉
Due vettori sono ortogonali fra di loro se e solo se il coseno vale 0 quindi se e solo se 〈๐ฃ1 , ๐ฃ2 〉 = 0
Il prodotto scalare canonico
Il prodotto scalare canonico 〈โ,โ〉: โ๐ × โ๐ → โ ๐ ๐ข โ๐ è la funzione data da 〈๐ฃ, ๐ค 〉 = ๐ฃ1 ๐ค1 + โฏ + ๐ฃ๐ ๐ค๐ = ๐ค ๐ก โ
๐ฃ per ogni ๐ฃ = (๐ฃ1 , … , ๐ฃ๐ )๐ก , ๐ค = (๐ค1 , … , ๐ค๐ )๐ก ∈ โ๐ , dove il prodotto all’ultimo membro è il solito prodotto
righe per colonne.
La norma associata al prodotto scalare canonico è la funzione โโโ: โ๐ → โ+ data da โ๐ฃโ = √〈๐ฃ, ๐ฃ〉 =
1
(๐ฃ12 + โฏ + ๐ฃ๐2 )2
Proprietà:
๏ท
๏ท
๏ท
๏ท
๏ท
È lineare rispetto alla prima variabile
È lineare rispetto alla seconda variabile
〈๐ฃ, ๐ค 〉 = 〈๐ค, ๐ฃ 〉 (simmetria)
si ha 〈๐ฃ, ๐ค 〉=0 per ogni ๐ค ∈ ๐ se e solo se v=0 (non è degenere)
per tutti i ๐ฃ ∈ โ๐ ๐๐๐ ๐ฃ ≠ 0 si ha 〈๐ฃ, ๐ฃ 〉 > 0 (è definito positivo)
sia V uno spazio vettoriale su โ. Una forma bilineare su V è un applicazione ๐: ๐ × ๐ → โ t.c. ๐(๐ฃ1 + ๐ฃ2 , ๐ค) =
๐(๐ฃ1 , ๐ค) + ๐(๐ฃ2 , ๐ค),
๐(๐ฃ, ๐ค1 + ๐ค2 ) = ๐(๐ฃ, ๐ค1 ) + ๐(๐ฃ, ๐ค2 )
๐(๐๐ฃ, ๐ค) = ๐๐(๐ฃ, ๐ค) = ๐(๐ฃ, ๐๐ค)
sia 〈โ,โ〉 un prodotto scalare su uno spazio vettoriale V. il nucleo di 〈โ,โ〉 è l’insieme ๐ ⊥ dei vettori v ∈ V t.c.
〈๐ฃ, ๐ค 〉 = 0 per ogni w ∈ V.
sia V uno spazio vettoriale su โ. Un prodotto scalare 〈โ,โ〉 su V si dice non degenere se ๐ ⊥ = {0}; degenere
altrimenti.
Basi ortogonali
Sia V uno spazio vettoriale metrico, e v1,…,vk ∈ ๐ vettori non nulli ortogonali a due a due, cioè t.c. ๐ฃ๐ ⊥ ๐ฃ๐ non
appena ๐ ≠ ๐. Allora v1,…,vk sono linearmente indipendenti. In particolare, se dimV=n allora n vettri non nulli
ortogonali a due e due sono automaticamente una base di V.
Una base ortogonale di uno spazio vettoriale metrico V è una base {๐ฃ1 , … , ๐ฃ๐ } di V composta da vettori a due a
due ortogonali, ovvero t.c. 〈๐ฃ๐ , ๐ฃ๐ 〉 = 0 per 1 ≤ ๐ ≠ ๐ ≤ ๐
Una base ortonormale di uno spazio vettoriale metrico V è una base ortogonale composta da vettori di
lunghezza unitaria (ovvero, composta da versori).
〈๐ฃ,๐ฃ1 〉
๐ฃ1
1 ,๐ฃ1 〉
Sia {๐ฃ1 , … , ๐ฃ๐ } una base ortogonale di uno spazio vettoriale metrico V. Allora ๐ฃ = 〈๐ฃ
〈๐ฃ,๐ฃ๐ 〉
๐ฃ๐
๐ ,๐ฃ๐ 〉
+ โฏ + 〈๐ฃ
per
ogni ๐ฃ ∈ ๐. In particolare se {๐ฃ1 , … , ๐ฃ๐ } è una base ortogonale si ha ∀ ๐ฃ ∈ ๐ ๐ฃ = 〈๐ฃ, ๐ฃ1 〉๐ฃ1 + โฏ + 〈๐ฃ, ๐ฃ๐ 〉๐ฃ๐
Sia {๐ฃ1 , … , ๐ฃ๐ } una base ortogonale di uno spazio vettoriale metrico V. Allora∀ ๐ฃ, ๐ค ∈ ๐ 〈๐ฃ, ๐ค 〉 =
โฏ+
〈๐ฃ,๐ฃ1 〉〈๐ฃ1 ,๐ค〉
〈๐ฃ1 ,๐ฃ1 〉
+
〈๐ฃ,๐ฃ๐ 〉〈๐ฃ๐ ,๐ค〉
e
〈๐ฃ๐ ,๐ฃ๐〉
∀๐ฃ ∈๐
โ๐ฃ โ2 =
|〈๐ฃ,๐ฃ1 〉|2
โ๐ฃ1 โ2
+ โฏ+
|〈๐ฃ,๐ฃ๐ 〉|2
โ๐ฃ๐ โ2
, in particolare se {๐ฃ1 , … , ๐ฃ๐ } è una base ortonormale di V si ha che
∀ ๐ฃ, ๐ค ∈ ๐ 〈๐ฃ, ๐ค 〉 = 〈๐ฃ, ๐ฃ1 〉〈๐ฃ1 , ๐ค 〉 + โฏ + 〈๐ฃ, ๐ฃ๐ 〉〈๐ฃ๐ , ๐ค 〉 formula di Parseval e che ∀ ๐ฃ ∈ ๐
|〈๐ฃ, ๐ฃ1 〉|2 + โฏ + |〈๐ฃ, ๐ฃ๐ 〉|2
โ๐ฃ โ2 =
teorema di Pitagora
sia V uno spazio vettoriale metrico, e ๐ฃ1 , … , ๐ฃ๐ ∈ ๐ linearmente indipendenti. Allora esistono w1,…wr che
soddisfano le seguenti proprietà:
1. ๐ ๐๐๐(๐ค1 , … , ๐ค๐ ) = ๐ ๐๐๐(๐ฃ1 , … , ๐ฃ๐ ) ๐๐๐ ๐๐๐๐ ๐ = 1, … ๐
2. ๐ค๐ è ortogonale a ogni elemento di ๐ ๐๐๐(๐ค1 , … , ๐ค๐−2 ) per ogni j=2,…,r
3. 〈๐ค๐ , ๐ฃ๐ 〉 > 0 per ogni j=1,…,r
gli elementi sono univocamente determinati a meno di fattori scalari positivi; in altri termini se ๐ค′1 , … , ๐ค′๐ sono
altri elementi di V che soddisvano le proprietà 1-3 allora ๐ค๐′ = ๐ผ๐ ๐ค๐ ๐๐๐ ๐ผ๐ > 0 ๐๐๐ ๐ = 1, … , ๐. Infine, gli
๐−1 〈๐ฃ๐ ,๐คโ〉
๐คโ , ๐๐๐
โ ,๐คโ〉
elementi ๐ค′1 , … , ๐ค′๐ sono ottenuti ponendo w1=v1 e ๐ค๐ = ๐ฃ๐ − ∑โ=1 〈๐ค
๐ = 2, … , ๐
Sia B={๐ฃ1 , … , ๐ฃ๐ } una base di uno spazio vettoriale metrico V. Allora esiste un’unica base ortonormale
B’={u1,…,un} di V t.c. si abbia 〈๐ข๐ , ๐ฃ๐ 〉 > 0 e ๐ ๐๐๐(๐ฃ1 , … , ๐ฃ๐ ) = ๐ ๐๐๐(๐ข1 , … , ๐ข๐ ) ๐๐๐ ๐๐๐๐ ๐ = 1, … ๐
Siano ๐ฃ1 , … , ๐ฃ๐ vettori a due a due ortogonali di uno spazio vettoriale metrico V di dim ๐ ≥ ๐. Allora esistono
vettori ๐ค๐+1 , … , ๐ค๐ ∈ ๐ t.c. ๐ต = ๐ฃ1 , … , ๐ฃ๐ + ๐ค๐+1 , … , ๐ค๐ sia una base ortogonale di V. Inoltre, se โ๐ฃ๐ โ = 1 per
j=1,…,r, allora ๐ค๐+1 , … , ๐ค๐ possono essere scelti in modo che B sia una base ortonormale di V.
Proiezioni ortogonali
Sia V uno spazio vettoriale metrico, e U un sottospazio di V. Allora per ovni v0 ∈ ๐ esiste un unico u0 ∈ ๐ t.c. v0u0 sia ortogonale a tutti gli elementi di U.
Sia U un sottospazio vettoriale di uno spazio vettoriale metrico V. L’applicazione lineare ๐๐ : ๐ → ๐ appena
definita si dice proiezione ortogonale di V su U. Nota che ๐๐ (๐ข) = ๐ข per ogni ๐ข ∈ ๐, e che ๐ผ๐๐๐ = ๐
sia V uno spazio vettoriale equipaggiato con un prodotto scalare 〈โ,โ〉. L’ortogonale di un sottoinsieme ๐ ⊆ ๐ è
l’inisieme ๐ ⊥ di tutti gli elementi di V ortogonali a S. Nel caso in cui sia S un sottospazio vettoriale di U di V (e 〈โ,โ〉
sia definito positivo), allora ๐ ⊥ è detto supplemento ortogonale di U.
Endomorfismo simmetrici
Sia ๐: ๐ → ๐ un endomorfismo di uno spazio vettoriale metrico V. Diremo che T è simmetrico (o autoaggiunto)
se 〈๐(๐ฃ1 ), ๐ฃ2 〉 = 〈๐ฃ1 , ๐(๐ฃ2 )〉, ∀๐ฃ1 , ๐ฃ2 ∈ ๐
Sia ๐: ๐ → ๐ un endomorfismo di uno spazio vettoriale metrico V. Diremo che T è un’isomeria (lineare), o
endorfismo ortogonale, se 〈๐(๐ฃ1 ), ๐(๐ฃ2 )〉 = 〈๐ฃ1 , ๐ฃ2 〉 ∀ ๐ฃ1 , ๐ฃ2 ∈ ๐.
Sia ๐: ๐ → ๐ un endomorfismo di uno spazio vettoriale metrico V. Allora le seguenti affermazioni sono
equivalenti:
1. T è un’isomeria
2. Se {v1,…,vn} è una base ortonormale di V, anche {๐(๐ฃ1 ), … , ๐(๐ฃ๐ )} lo è
3. โ๐(๐ฃ)โ = โ๐ฃ โ, ∀ ๐ฃ ∈ ๐ (ed in particolare T è invertibile)
Geometria Euclidea
Il piano euclideo ๐ 2 e lo spazio euclideo ๐ 3 sono piani o spazi affini in cui sia stata fissata un’unità di misura per
le lunghezze.
Un sistema di riferimento cartesiano ๐
๐ถ(๐, ๐ด1 , ๐ด2 , ๐ด3 ) DI ๐ 3 è un sistema di riferimento affine RA(๐, ๐ด1 , ๐ด2 , ๐ด3 )
โโโโโโโโโ1 , ๐โ = ๐๐ด
โโโโโโโโโ2 , ๐โโ = ๐๐ด
โโโโโโโโโ3 siano di lunghezza unitaria e ortogonali a due a due.
tale che i vettori ๐โ = ๐๐ด
Una retta orientata è una retta cui sia fissiato un vettore direttore (e quindi una direzione di percorrenza). Due
diversi vettori direttori determinano la stessa orientazione se e solo se sono un multiplo positivo dell’altro. In
particolare, esiste un unico vettore di lunghezza unitaria che determina l’orientazione scelta: il versore direttore
della retta orientata. Se ๐ฃ = ๐ผ๐โ + ๐ฝ๐โ + ๐พ๐โโ è l’espressione del versore direttore v come combinazione lineare
della base {๐โ + ๐โ + ๐โโ} di ๐๐3 , ๐๐๐๐๐๐ ๐ผ, ๐ฝ, ๐พ ∈ โ sono detti coseni direttori della retta
L’angolo ๐ฬ
0 ๐1 fra due rette orientate r0 ed r1 è l’angolo fra i loro versori direttori
due rette r0 ed r1 aventi eq. parametriche ๐ = ๐0 + ๐ก๐ฃ0 e ๐ = ๐1 + ๐ ๐ฃ1 dove ๐ฃ0 = (๐0 , ๐0 , ๐0 )๐ ๐ฃ1 (๐1 , ๐1 ๐1 )
che determinano le orientazioni scelte, allora l’angolo fra le rette è dato da cos ๐ฬ
0 ๐1
๐0 ๐1 +๐0 ๐1+๐0๐1
√๐02 +๐02+๐02 √๐12 +๐12+๐12
๐0 ๐1 + ๐0 ๐1 + ๐0 ๐1 = 0
〈๐ฃ ,๐ฃ 〉
= โ๐ฃ 0โโ๐ฃ1 โ =
0
1
, in particolare due rette sono ortogonali se e solo se cos ๐ฬ
0 ๐1 = 0 ossia che