UNIVERSITÀ DELLA CALABRIA
ALGEBRA LINEARE E GEOMETRIA
Corso di Laurea in Ingegneria Elettronica
Dott. Gentile Tommaso
A.A. 2013/2014
. . . e com cinco ou seis retas
é fácil fazer um castelo
(Vinicius de Moraes)
Indice
1.
2.
3.
Sistemi di equazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1.1.
Definizioni e notazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1.2.
Il metodo di Gauss-Jordan. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
Spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.
Vettori geometrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2.
Spazi vettoriali, definizioni e proprietà . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.1.
Definizioni e algebra delle matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2.
Rango e determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.
Prodotto scalare Euclideo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
5.
Applicazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
6.
7.
5.1.
Definizione e principali proprietà . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5.2.
Applicazioni lineari e matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
Diagonalizzazione di matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
6.1.
Problema di diagonalizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
6.2.
Caso delle matrici simmetriche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
Spazi affini e spazi Euclidei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
7.1.
Geometria nel piano affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
7.2.
Geometria nello spazio affine di dimensione 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
1
1. Sistemi di equazioni lineari
1.1. Definizioni e notazioni.
In questa prima parte studieremo sistemi di equazioni lineari. Sebbene abbiate già familiarità con alcuni
argomenti di questa sezione, prestate particolare attenzione ai metodi ed alle strumentazioni adottate.
Questo stimolerà l’intuito ed aiuterà la comprensione degli argomenti più astratti che seguiranno.
Fissiamo anzitutto alcune notazioni e convenzioni utilizzate nel resto della sezione. L’insieme numerico
su cui lavoriamo è l’insieme dei numeri reali R. Le prime lettere dell’alfabeto in minuscolo (a, b, c etc.)
denoteranno costanti mentre le ultime lettere dell’alfabeto (x, y, z etc.) saranno usate per rappresentare le
variabili. Quando il numero di incognite è arbitrariamente grande useremo un’unica lettera per designare
tutti i coefficienti ed un’unica lettera per tutte le incognite che distingueremo tra loro attraverso l’uso
di indici. Rappresenteremo inoltre le matrici con le lettere maiuscole, mentre i vettori saranno denotati
con lettere minuscole in grassetto.
Definizione 1.1. Una equazione lineare nelle n variabili x1 , x2 , . . . , xn è un’equazione del tipo
(1)
a1 x1 + a2 x2 + · · · + an xn = b,
dove i coefficienti a1 , a2 , . . . , an ed il termine noto b sono numeri reali. Una soluzione dell’equazione
lineare (1) è una sequenza di n numeri reali (s1 , s2 , . . . , sn ) tali che, sostituiti al posto delle rispettive variabili nell’equazione (1) rendono verificata l’uguaglianza. Risolvere un’equazione equivale a determinarne
l’insieme di tutte le soluzioni.
Nelle equazioni lineari pertanto non compaiono radici o potenze, né tantomeno funzioni trigonometriche,
esponenziali o logaritmiche, né tantomeno prodotti tra variabili e potenze.
Esempio 1.2. Le seguenti equazioni sono lineari:
√
2x − y = 6;
3x1 − πx2 + 23 x4 = 1.
Le seguenti equazioni non sono lineari:
xz − 4y = 3;
cos x1 − 3x2 + x3 − 2 log x4 = 0.
4
Per descrivere l’insieme delle soluzioni di un sistema lineare usualmente utilizziamo una rappresentazione
parametrica, come illustrato nell’esempio seguente.
Esempio 1.3. Risolviamo l’equazione: x1 + 2x2 = 4.
Per trovare l’insieme delle soluzioni la risolviamo in una delle variabili rispetto all’altra variabile. Risolvendola per x1 in termini della x2 otteniamo x1 = 4 − 2x2 . Ora la variabile x2 è “libera”, ovvero
può assumere un qualsiasi valore reale. La variabile x1 non è libera in quanto il suo valore dipende dal
valore assegnato ad x2 . Per rappresentare le infinite soluzioni dell’equazione è conveniente introdurre
una nuova variabile, che denoteremo con la lettera t per esempio, detta parametro. Ponendo x2 = t
possiamo rappresentare le soluzioni nella seguente forma:
(
x1 = 4 − 2t
dove t ∈ R.
x2 = t
2
Per ottenere una soluzione particolare assegniamo un valore al parametro t. Se per esempio t = −1 una
soluzione particolare sarà data da x1 = 6 e x2 = −1.
4
Definizione 1.4. Un sistema di m equazioni lineari nelle n variabili x1 , x2 , . . . , xn (in breve un sistema
lineare) è un insieme di m equazioni, ciascuna delle quali è lineare nelle stesse n variabili.

a11 x1 + a12 x2 + · · · + a1n xn = b1



 a x + a x + ··· + a x = b
21 1
22 2
2n n
2
 ··· ··· ···



am1 x1 + am2 x2 + · · · + amn xn = bm
(2)
dove i coefficienti aij ed i termini noti bi sono numeri reali. Una soluzione del sistema lineare (2) è una
sequenza di n numeri reali s1 , s2 , . . . , sn tali che, sostituiti al posto delle rispettive variabili in ciascuna
delle equazioni le uguaglianze sono verificate. Risolvere un sistema di equazioni equivale a determinarne
l’insieme di tutte le soluzioni.
Consideriamo adesso il ben noto problema di geometria analitica sul piano riguardo l’intersezione di due
rette.
Esempio 1.5. Disegniamo le seguenti coppie di rette:
(1) 2x − y = 0;
(2) 2x + 3y = 0;
(3) x − y = 0;
3x + 2y = 2;
4x + 6y = 0;
−x + y = 1.
(3)
(2)
(1)
2 y
y
y
1
2
1
x
1
−1
1
x
1
2
x
−1
1
−1
−1
Come può essere l’insieme delle soluzioni di un sistema lineare di due equazioni in due incognite? Il
sistema che fornisce l’intersezione delle prime due rette ha una sola soluzione, il secondo sistema ha
infinite soluzioni mentre il terzo non ha soluzioni.
4
L’esempio precedente illustra i tre possibili casi che possono presentarsi quando risolviamo un sistema di
equazioni lineari.
Definizione 1.6. Un sistema lineare è detto compatibile se ammette soluzioni mentre è incompatibile
o impossibile se non ammette soluzioni. Un sistema lineare compatibile è determinato se ammette
una sola soluzione ed è detto indeterminato se ammette infinite soluzioni.
3
1.2. Il metodo di Gauss-Jordan.
Consideriamo i
(3)

 2x1 −
3x1 +


−x1 −
seguenti sistemi lineari.
x2
2x2
5x2
+ 4x3
+ x3
− 3x3
−
+
−
x4
3x4
2x4
= 7
= −1
= 3


 2x1
− 3x2
8x2
+ 2x3
+ x3


−
+
x4
2x4
3x4
= 2
= −1
= 1
Quale sistema è più facile da risolvere algebricamente?
Il sistema a destra è chiaramente il piú facile. Questo sistema ha una forma particolare detta a scala.
Per risolverlo si adotta la procedura nota con il termine “risoluzione all’indietro” illustrata qui di seguito.
Esempio 1.7. Usiamo la risoluzione all’indietro per risolvere il seguente sistema:
(
2x − 3y = 2
5y = −1
Dall’ultima equazione otteniamo y = − 51 . Sostituendo questo valore nella prima equazione si ottiene:
1
13
2x − 3 −
= −2, da cui x = − .
5
10
Il sistema è quindi compatibile e determinato, con soluzione:

13

 x = − 10
.


1
y = −5
Usiamo la risoluzione all’indietro per risolvere il seguente sistema:


 x1 + x2 + x3 − 3x4 + x5
− x3 + x4 + 2x5


2x4 − 4x5
=
=
=
Risolviamo l’ultima equazione rispetto alla variabile x4 , ottenendo x4
espressione nelle precedenti due equazioni. Scriviamo pertanto il sistema


 x1 + x2 + x3 − 3(2x5 + 1) + x5
− x3 + (2x5 + 1) + 2x5


x4
= 2x5
2
−1
2
= 2x5 + 1. Sostituiamo tale
nella seguente forma:
=
=
+
2
−1
1
Portiamo quindi il monomio la cui parte letterale è x5 unitamente alla costante a secondo membro sia
nella prima che nella seconda equazione. Il sistema diventa:


= 5x5 + 1
 x1 + x2 + x3
− x3
= −4x5 − 2


x4 = 2x5 + 1
Dalla seconda equazione risulta x3 = 4x5 +2. Sostituiamo questa espressione ad x3 nella prima equazione.
Il sistema diventa:


= 5x5 + 1
 x1 + x2 + (4x5 + 2)
x3
= 4x5 + 2


x4 = 2x5 + 1
Portiamo ancora l’espressione in x5 con le costanti a secondo membro ottenendo:


= x5 − 1
 x1 + x2
+ x3
= 4x5 + 2


x4 = 2x5 + 1
4
Portiamo x2 a secondo membro nella prima equazione.


= −x2 + x5 − 1
 x1
x3
=
4x5 + 2


x4 =
2x5 + 1
Poniamo quindi x2 e x5 uguali ad altrettanti parametri s e t.
Otteniamo pertanto le soluzioni del sistema lineare espresse in forma parametrica:


x1 = −s + t −1





x
 2= s
dove s, t ∈ R.
x3 =
4t +2



x4 =
2t +1



 x =
t
5
Il sistema è quindi compatibile e indeterminato.
4
Due sistemi lineari sono detti equivalenti se hanno il medesimo insieme di soluzioni. In genere, quando
dobbiamo risolvere un sistema cerchiamo di trasformarlo in un altro equivalente, ma di forma più semplice.
Ma quali operazioni elementari trasformano un sistema in un altro equivalente?
Per quanto concerne le equazioni lineari valgono i Principi di equivalenza per le equazioni lineari, elencati
qui di seguito.
Primo principio di equivalenza - Data un’equazione, aggiungendo ad entrambi i membri uno stesso
numero od una stessa espressione lineare contenente una o più incognite si ottiene un’equazione equivalente.
Secondo principio di equivalenza - Data un’equazione, moltiplicando ambo i membri per un numero
diverso da zero si ottiene un’equazione equivalente.
Per risolvere un’equazione lineare applichiamo opportunatamente tali operazioni in sequenza fino ad
ottenere la soluzione dell’equazione data. Essi costituiscono quindi i passi base di un procedimento
algoritmico.
Consideriamo ora il caso di un sistema di equazioni lineari. Anche in virtù dell’esempio precedente per
risolvere un sistema lineare lo trasformiamo in un altro ad esso equivalente in forma a scala utilizzando
le operazioni qui elencate:
(OE1) - trasporre due equazioni;
(OE2) - moltiplicare un’equazione per una costante diversa da zero;
(OE3) - sommare ad un’equazione un multiplo di un’altra equazione.
Il procedimento è noto come metodo di eliminazione di Gauss, in onore del grande matematico
tedesco Carl Friedrich Gauss (1777-1855).
Valgono i seguenti teoremi di cui omettiamo la dimostrazione.
Teorema 1.8. Applicando una operazione del tipo (OE1), (OE2) o (OE3) ad un sistema di equazioni
lineari si ottiene un sistema equivalente a quello dato.
Teorema 1.9. Ogni sistema di equazioni lineari è equivalente ad un sistema in forma a scala.
Illustriamo ora il metodo di eliminazione di Gauss attraverso un esempio.
5
Esempio 1.10. Risolviamo il seguente sistema:


 x1 − 3x2
2x1 − x2


x1 + 2x2
+ x3
− 2x3
− 3x3
= 1
= 2
= −1
Sommiamo alla seconda equazione l’equazione ottenuta moltiplicando ambo i membri della prima equazione
per −2, ottenendo:


 x1 − 3x2 + x3 = 1
5x2 − 4x3 = 0


x1 + 2x2 − 3x3 = −1
Aggiungendo la prima equazione moltiplicata per −1 alla terza equazione otteniamo una nuova terza
equazione. Il sistema diventa:


 x1 − 3x2 + x3 = 1
5x2 − 4x3 = 0


5x2 − 4x3 = −2
Sottraiamo ora alla terza equazione la seconda equazione.


 x1 − 3x2 + x3
5x2 − 4x3


0
= 1
= 0
= −2
L’ultima equazione è chiaramente impossible. Il sistema è quindi incompatibile.
4
Per risolvere un sistema lineare mediante il procedimento di Gauss è conveniente focalizzare la nostra
attenzione sui coefficienti e sui termini noti. Dato un sistema lineare nella forma (2), introduciamo le
tabelle di numeri


a11 a12 · · · a1n


 a21 a22 · · · a2n 
(4)
A := 
..
.. 
..
 ..

.
 .
.
. 
am1 am2 · · · amn
e


b1


 b2 

(5)
b :=  . 
.
 .. 
bm
Una tabella del tipo (4) è detta matrice di tipo m × n dove m e n indicano rispettivamente il numero
di righe ed il numero di colonne in essa contenute. I numeri aij sono detti elementi o entrate della
matrice. Gli elementi ai1 , ai2 , . . . , ain costituiscono la i-esima riga della matrice A, mentre gli elementi
a1j , a2j , . . . , amj costituiscono la j-esima colonna della matrice A. Ad esempio la tabella (5) è una
matrice di tipo m × 1. Una tale matrice verrà chiamata vettore colonna. La matrice A è detta matrice
dei coefficienti, mentre b è il vettore termine noto. Introduciamo inoltre la matrice completa (o
matrice orlata) associata al sistema lineare (2):

(6)


A := 


C
a11
a21
..
.
am1
a12
a22
..
.
am2
···
···
..
.
···
a1n
a2n
..
.
amn
b1
b2
..
.
bm






6
Esempio 1.11. Consideriamo


 2x1 − x2 + 4x3
3x1 + 2x2 + x3


−x1 − 5x2 − 3x3
i sistemi lineari (3).
−
+
−
Scriviamo le due matrici complete

2 −1

2
 3
−1 −5
x4
3x4
2x4


 2x1
= 7
= −1
= 3
− 3x2
8x2
+ 2x3
+ x3
−
+


x4
2x4
3x4
= 2
= −1
= 1
loro associate:
4
1
−3
−1
3
−2

7

−1 
3

2

 0
0
−3
8
0

2 −1 2

1 2 −1 
0 3
1
4
Notiamo che la seconda matrice ha una particolare configurazione, detta anch’essa a scala. Formalizziamo
meglio tale nozione.
Definizione 1.12. Una matrice è detta in forma a scala se soddisfa le seguenti proprietà:
(1) ogni riga i cui elementi sono tutti nulli si trova nella parte più bassa della matrice;
(2) per due successive righe i cui elementi non sono tutti nulli allora il primo termine non nullo
nella riga posta più in alto è strettamente piă sinistra rispetto a quello della successiva riga.
I primi elementi non nulli di ciascuna riga (le cui entrate non siano tutte uguali a zero) vengono chiamati
pivots (o coefficienti leader). Notiamo che tutti gli elementi sottostanti un pivot sono uguali a zero.
Notiamo che un sistema lineare è in forma a scala se e soltanto se la matrice completa associata al sistema
è ancora a scala.
Nella risoluzione di un sistema di equazioni lineari spesso considereremo le matrici ad esso associate.
Quanto definito per i sistemi lineari ha un corrispettivo nel linguaggio delle matrici. In particolare il
metodo di eliminazione di Gauss permette di ridurre una matrice AC associata ad un sistema lineare ad
una matrice in forma a scala. Le operazioni elementari (OE1), (OE2) e (OE3) diventano:
(OE10 ) - trasporre due righe;
(OE20 ) - moltiplicare tutte le entrate di una riga per una costante diversa da zero;
(OE30 ) - sommare ad una riga un multiplo di un’altra riga (termine a termine).
Dunque per risolvere un sistema lineare noi procederemo come segue:
(1) scriviamo la matrice orlata AC associata al sistema;
(2) usiamo il metodo di eliminazione di Gauss per ridurre AC in una forma ridotta a scala;
(3) scriviamo il sistema corrispondente e lo risolviamo mediante la risoluzione all’indietro.
Esempio 1.13. Risolviamo il seguente sistema lineare:

x2 + x3 −



 x
+ 2x2 − x3
1

2x1 + 4x2 + x3 −



x1 − 4x2 − 7x3 +
3x4
12x4
La matrice completa associata al sistema è

0 1
 1 2


 2 4
1 −4
−3
2
−2
20
1
−1
1
−7
−2
0
−3
12
2x4





= −3
= 2
= −2
= 20
7
Trasponiamo ora le prime due righe:





1
0
2
1
2
1
4
−4
−1
1
1
−7
0
−2
−3
12
2
−3
−2
20





Ora sommiamo alla terza riga la prima riga moltiplicata per −2. Si ottiene:


1 2 −1 0
2
 0 1
1 −2 −3 




 0 0
3 −3 −6 
1 −4 −7 12 20
Sottraiamo la prima riga alla quarta:





1
0
0
0
2
1
0
−6
−1
1
3
−6
0
−2
−3
12
2
−3
−6
18





Abbiamo il nostro primo pivot. Ora sommiamo alla quarta riga la seconda moltiplicata per 6. Otteniamo:


1 2 −1 0
2
 0 1 1 −2 −3 




 0 0 3 −3 −6 
0
0
0
0
0
Abbiamo praticamente finito. La nostra matrice orlata è ridotta in una forma a scala. Moltiplichiamo
comunque la terza riga per lo scalare 31 . Si ottiene cosı̀:


1 2 −1 0
2
 0 1 1 −2 −3 




 0 0 1 −1 −2 
0 0 0
0
0
Il sistema corrispondente è il seguente:


 x1 +
2x2
x2


− x3
+ x3
x3
− 2x4
− x4
= 2
= −3
= −2
dove omettiamo l’identità 0 = 0. Usando la risoluzione all’indietro troviamo


=
2
 x1 + 2x2 − (x4 − 2)
x2 + (x4 − 2) − 2x4 =
−3


x3
= x4 − 2


=
x4
 x1 + 2x2
x2
= x4 − 1


x3 = x4 − 2
Infine:


 x1
+
2(x4 − 1)
x2


x3
=
x4
= x4 − 1
= x4 − 2
=
=
=
−x4 + 2
x4 − 1
x4 − 2
Segue


 x1


+
x2
x3
8
Ponendo x4 = t si ottengono le soluzioni:

x1



 x
2

x
3



x4
= −t + 2
= t−1
= t−2
=
t
dove t ∈ R.
4
Dopo aver ridotto la matrice a scala, è possibile usare una versione dell’algoritmo di Gauss in senso
inverso, cioè dal basso verso l’alto, per ottenere una matrice che in ogni colonna contenente un pivot
abbia solo il pivot come numero non nullo: basta usare ogni riga, partendo dall’ultima, per eliminare tutte
le cifre diverse da zero che stanno sopra al pivot di questa riga usando in genere regole di tipo (OE20 ) e
(OE30 ). Infine, sempre tramite operazioni elementari (moltiplicando righe), possiamo ottenere che ogni
pivot abbia valore 1. La matrice risultante è detta in forma a scala ridotta. L’algoritmo completo di
ambo le parti è detto metodo di Gauss-Jordan.
Esempio 1.14. Ad esempio, consideriamo

1
 0


 0
0
la matrice a scala dell’esempio precedente:

2 −1 0
2
1 1 −2 −3 


0 1 −1 −2 
0
0
0
0
Anziché scrivere ora il sistema lineare associato proseguiamo finché la matrice completa non si presenta
in forma a scala ridotta. Applichiamo pertanto operazioni elementare in modo che gli elementi sopra
alcun pivot siano nulli. Sottraendo la terza riga alla seconda si ottiene:


1 2 −1 0
2
 0 1 0 −1 −1 




 0 0 1 −1 −2 
0
0
0
0
Sommando ora la terza riga alla prima otteniamo:

1 2 0
 0 1 0


 0 0 1
0 0 0
−1
−1
−1
0
0
−1
−2
0
Sommiamo quindi alla prima riga la seconda

1
 0


 0
0
Il sistema associato a quest’ultima matrice è:


 x1
x2


0





moltiplicata per −2:

0 0 1
2
1 0 −1 −1 


0 1 −1 −2 
0
0
0
0
x3
+
−
−
x4
x4
x4
= 2
= −1
= −2
con soluzioni date da:

x1 = −t + 2



 x = t−1
2
 x3 = t − 2



x4 =
t
dove t ∈ R.
9
4
Ora analizziamo un caso molto particolare di sistema lineare, il sistema lineare omogeneo.
Definizione 1.15. Un sistema di equazioni lineari è detto omogeneo se i termini noti sono tutti uguali
a zero.
Consideriamo un sistema lineare omogeneo:

a11 x1 + a12 x2 + · · · + a1n xn = 0



 a x + a x + ··· + a x = 0
21 1
22 2
2n n
(7)

·
·
·
·
·
·
·
·
·



am1 x1 + am2 x2 + · · · + amn xn = 0
Si verifica facilmente che al termine dell’algoritmo di Gauss-Jordan le incognite si separano in due gruppi:
(1) xi1 , xi2 , . . . , xir variabili associate alle colonne dove ci sono i pivots (variabili pivotali );
(2) xj1 , xj2 , . . . , xjn−r variabili associate alle colonne dove non ci sono i pivots (variabili libere).
Il sistema associato alla matrice a

xi1



 x
i2

···



xir
scala ridotta è del tipo
= ci1 ,1 xj1 + ci1 ,2 xj2 + · · · + ci1 ,n−r xjn−r
= ci2 ,1 xj1 + ci1 ,2 xj2 + · · · + ci1 ,n−r xjn−r
··· ···
= ci1 ,1 xj1 + ci1 ,2 xj2 + · · · + ci1 ,n−r xjn−r
dove i ci,j sono numeri reali. Ponendo le variabili xj1 , xj2 , . . . , xjn−r pari ad altrettante variabili libere
(dette altresı̀ parametri) scriviamo le variabili pivotali in funzione delle variabili libere.
Poiché un sistema lineare omogeneo ha sempre la soluzione in cui ciascuna variabile è uguale a zero si
ha che ogni sistema lineare omogeneo è compatibile. Come conseguenza del metodo di Gauss-Jordan
abbiamo il seguente teorema di Steinitz.
Teorema 1.16. (di Steinitz) - Un sistema di equazioni lineari omogeneo dove il numero di incognite
è più alto del numero di equazioni ha sempre una soluzione non banale, ovvero quella in cui tutte le
variabili sono nulle.
Proof. Osserviamo che la matrice a scala ridotta che risulta applicando Gauss-Jordan ha sempre colonne
non pivotali poiché ci sono più incognite che equazioni. Poste le variabili libere uguali ad altrettanti
valori non tutti uguali a zero si ottiene una soluzione non banale del sistema.
10
2. Spazi vettoriali
2.1. Vettori geometrici.
I vettori furono introdotti nel XVI secolo per rispondere all’esigenza di caratterizzare alcune grandezze
fisiche quali velocità, accelerazione, forza, per le quali non era sufficiente una quantità scalare.
In un corso di matematica o fisica elementare un vettore è definito come un segmento orientato. Un
segmento orientato (o vettore applicato) dello spazio ordinario è individuato da un punto iniziale A e da
−−→
un punto finale B. Denotiamo tale segmento orientato con AB. Il punto iniziale A è detto anche punto
di applicazione del segmento orientato dato. Esso viene rappresentato con una freccia che congiunge i
punti A e B come in figura.
B
A
Un segmento orientato è quindi individuato da un punto di applicazione, una direzione ovvero la retta
su cui il vettore applicato giace, un verso ovvero il verso di percorrenza di tale retta da A a B e da un
modulo (detto altresı̀ norma) ovvero la lunghezza del segmento AB misurato mediante una prefissata
unità di misura. Se B ≡ A il vettore applicato corrispondente avrà modulo nullo, verso e direzione
indeterminati.
−−→ −−→
Due vettori applicati AB e CD sono detti equipollenti se giacciono su rette parallele e se, muovendo una
delle due rette parallelamente a sé stessa, è possibile sovrapporre i due segmenti in modo che coincidano
−−→ −−→
−−→ −−→
sia i punti iniziali che i punti finali. Se AB e CD sono equipollenti scriveremo AB ∼ CD.
B
D
A
C
−−→
Dato un vettore applicato AB tale che A 6≡ B ed un punto A0 esiste uno ed un solo punto B 0 tale che
−−→ −−0−→0
AB ∼ A B .
L’equipollenza è una relazione di equivalenza, cioè soddisfa alle proprietà riflessiva, simmetrica e transitiva. In virtù di questo noi considereremo “uguali ” vettori tra loro equipollenti. Useremo il termine
vettore geometrico o brevemente vettore una classe di equipollenza di vettori applicati, ovvero tutti i
vettori equipollenti ad un dato vettore applicato. Il vettore nullo 0 è la classe dei vettori equipollenti
−→
al vettore AA. Le nozioni di modulo, direzione e verso si estendono facilmente ai vettori geometrici. Il
vettore nullo ha quindi modulo nullo, verso e direzione indeterminati.
I vettori verranno denotati con lettere minuscole in grassetto (u, v, w etc.).
Definiamo ora due operazioni sull’insieme dei vettori, la somma e la moltiplicazione per uno scalare.
La somma è una operazione che associa ad una coppia di vettori, un terzo vettore. Per sommare due
vettori si possono usare la regola del parallelogramma o la regola della spezzata.
11
B
D
A
C
La figura qui in alto illustra la regola del parallelogramma. Dati due vettori u e v li consideriamo
applicati in un medesimo punto dello spazio ordinario A. Siano pertanto B e C due ulteriori punti tali
−−→
−→
−−→
che u = AB e v = AC. Il vettore somma u + v è il vettore AD dove D è il quarto vertice che forma con
A, B e C un parallelogramma, da cui il nome.
B
C
A
La precedente figura riguarda invece la regola della spezzata. Dati due vettori u e v siano B e C due
−−→
−−→
−→
ulteriori punti tali che u = AB e v = BC. Il vettore somma u + v è il vettore AC. Il termine spezzata
segue dal fatto che i segmenti AB e BC costituiscono una spezzata.
Si osserva facilmente che per ogni terna di vettori u, v e w valgono le seguenti:
•
•
u+v =v+u
u + (v + w) = (u + v) + w
(proprietà commutativa);
(proprietà associativa).
Dalla seconda di queste proprietà segue che possiamo estendere la somma ad un numero finito arbitario
di vettori e che possiamo omettere le parentesi quando sommiamo tre o più vettori.
Sia ora 0 il vettore nullo e sia v un vettore arbitrario. Denoteremo con −v il vettore avente lo stesso
modulo di v, la stessa direzione di v, ma verso opposto. Sono verificate le identità:
•
•
v+0=v
v + (−v) = 0
(0 elemento neutro della somma);
(esistenza dell’inverso additivo, detto altresı̀ opposto).
Definiamo ora il prodotto di un vettore v per un numero reale k. Il risultato di questa operazione è il
vettore kv che ha la stessa direzione di v, modulo pari a modulo di v moltiplicato |k| e verso concorde
o discorde con v a seconda che k sia positivo o negativo.
L’operazione di moltiplicazione di un vettore geometrico per uno scalare è compatibile con l’operazione
di somma di vettori e con le operazioni di addizione e moltiplicazione in R. Se k, h sono arbitrari scalari
e se u e v sono arbitrari vettori geometrici valgono le seguenti identità:
•
•
•
•
(−1)v = −v
(kh)v = k(hv)
k(u + v) = ku + kv
(k + h)v = kv + hv
(proprietà distributiva rispetto alla somma di vettori);
(proprietà distributiva rispetto alla somma di scalari).
2.2. Spazi vettoriali, definizioni e proprietà.
Le proprietà che i vettori geometrici soddisfano costituiranno gli assiomi nella definizione di un spazio
vettoriale.
12
Definizione 2.1. Uno spazio vettoriale reale è un insieme V non vuoto (i cui elementi saranno
chiamati vettori e saranno denotati con lettere minuscole in grassetto) tale che:
(1) per ogni coppia di vettori v1 , v2 ∈ V esiste un terzo vettore in V , detto somma dei vettori v1 e
v2 e denotato v1 + v2 ;
(2) per ogni vettore v ∈ V ed ogni scalare k ∈ R, esiste un nuovo vettore in V , detto prodotto del
vettore v per lo scalare k e denotato kv.
Queste operazioni devono soddisfare le seguenti proprietà:
(SV1) Proprietà commutativa della somma: per ogni coppia di vettori v1 , v2 ∈ V , v1 + v2 = v2 + v1 ;
(SV2) Proprietà associativa della somma: per ogni terna di vettori v1 , v2 , v3 ∈ V , (v1 + v2 ) + v3 =
v1 + (v2 + v3 );
(SV3) Esistenza dell’elemento neutro per la somma: esiste un vettore 0 ∈ V tale che per ogni altro
vettore v ∈ V , v + 0 = 0 + v = v (il vettore 0 è detto vettore nullo);
(SV4) Esistenza dell’opposto: per ogni vettore v ∈ V , esiste un vettore −v ∈ V tale che v + (−v) = 0;
(SV5) Proprietà distributiva della moltiplicazione per uno scalare rispetto alla somma di vettori: per
ogni scalare k ∈ R ed ogni coppia di vettori v1 , v2 ∈ V , k(v1 + v2 ) = kv1 + kv2 ;
(SV6) Proprietà distributiva della moltiplicazione per uno scalare rispetto alla somma di scalari: per
ogni coppia di scalari k, h ∈ R ed ogni vettore v ∈ V , (k + h)v = kv + hv;
(SV7) per ogni coppia di scalari k, h ∈ R ed ogni vettore v ∈ V , (kh)v = k(hv);
(SV8) per ogni vettore v ∈ V , 1v = v.
Dalla proprietà associativa segue che sommando tre o più vettori di uno spazio vettoriale possiamo
omettere le parentesi. Le seguenti ulteriori proprietà per uno spazio vettoriale possono essere ottenute
dalle proprietà (SV1), . . . , (SV8).
Proposizione 2.2. Sia V uno spazio vettoriale reale. Le seguenti valgono.
(i)
(ii)
(iii)
(iv)
(v)
Se k ∈ R, allora k0 = 0.
Sia k ∈ R \ {0}. Se kv = 0 allora v = 0.
Siano v, w ∈ V . Se v + w = 0 allora w = −v.
Se v ∈ V allora (−1)v = −v.
Se v ∈ V allora 0v = 0.
Esempio 2.3. Le proprietà che abbiamo verificato all’inizio della lezione implicano che l’insieme dei
vettori geometrici del piano e dello spazio ordinario costituiscono altrettanti spazi vettoriali reali.
4
Esempio 2.4. Sia n ≥ 1 e sia V = Rn l’insieme delle n-uple ordinate di numeri reali. Definiamo la
somma di due n-uple (x1 , . . . , xn ), (y1 , . . . , yn ) ∈ V come
(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )
e per ogni k ∈ R, definiamo
k(x1 , . . . , xn ) = (kx1 , . . . , kxn ).
Se v = (x1 , . . . , xn ) ∈ V chiamiamo x1 , . . . , xn componenti o coordinate di v. È immediato verificare
che con queste operazioni Rn soddisfa agli assiomi (SV1), . . . , (SV8). Notiamo che quando n = 1 le
usuali operazioni di addizione e sottrazione definiscono una struttura di spazio vettoriale su sé stesso.
4
13
Esempio 2.5. Sia V = R[x] l’insieme dei polinomi a coefficienti in R nella variabile x. Le usuali
operazioni di somma di polinomi e moltiplicazione per uno scalare definiscono una struttura di spazio
vettoriale reale su R[x].
4
Esempio 2.6. Sia V l’insieme delle funzioni a valori reali definite su un intervallo [a, b] ⊂ R. Definiamo
in V la somma e moltiplicazione per uno scalare nel modo usuale. Si verifica facilmente che V è uno
spazio vettoriale reale.
4
Definizione 2.7. Un sottoinsieme W di uno spazio vettoriale V è detto sottospazio vettoriale di V
se esso soddisfa le due condizioni.
(SSV1) Per ogni coppia di vettori v1 , v2 ∈ W , v1 + v2 ∈ W .
(SSV2) Per ogni vettore v ∈ W ed ogni scalare k ∈ R, kv ∈ W .
Esempio 2.8. Consideriamo un sistema lineare omogeneo in n incognite. Ricordiamo che una soluzione
di tale sistema è una n-upla di numeri reali soddisfacente tutte le equazioni del sistema. Essa è pertanto
un vettore di Rn . Inoltre si vede facilmente che la somma di due soluzioni del sistema ed il prodotto
di una soluzione per uno scalare (somma e moltiplicazione per uno scalare definite come nell’esempio
2.4) costituiscono altrettante soluzioni. Segue quindi che lo spazio delle soluzioni di un sistema lineare
omogeneo in n incognite è un sottospazio vettoriale di Rn .
4
Esempio 2.9. Nello spazio dei polinomi V = R[x], l’insieme dei polinomi aventi grado al più n (per
ogni n fissato) è un sottospazio vettoriale di V .
4
Esempio 2.10. Sia V lo spazio vettoriale definito come nell’esempio 2.6 e sia W ⊂ V l’insieme delle
funzioni a valori reali definite e continue su un intervallo [a, b] ⊂ R. Allora W è un sottospazio vettoriale.
4
È ovvio dalla definizione precedente che se W ⊆ V è un sottospazio vettoriale di V , allora W è esso
stesso uno spazio vettoriale. La seguente proposizione è di verifica immediata.
Proposizione 2.11. Ogni spazio vettoriale V contiene due sottospazi vettoriali, V e l’insieme contenente
il solo vettore nullo 0. Quest’ultimo è detto sottospazio nullo ed è denotato con (0) o semplicemente con
{0}.
Definiamo ora la seguente importante operazione sui sottospazi, la somma.
Definizione 2.12. Sia V uno spazio vettoriale e siano W1 , W2 due sottospazi vettoriali di V . Definiamo
il sottospazio somma di W1 e W2 come:
W1 + W2 := {v ∈ V |∃w1 ∈ W1 , w2 ∈ W2 tale che v = w1 + w2 }.
Se W1 ∩ W2 = {0} allora scriveremo W1 ⊕ W2 al posto di W1 + W2 e chiameremo tale sottospazio somma
diretta di W1 e W2 .
Vale la seguente proposizione.
Proposizione 2.13. Sia V uno spazio vettoriale e siano W1 , W2 due sottospazi vettoriali di V . Allora
W1 ∩ W2 e W1 + W2 sono altrettanti spazi vettoriali di V .
14
Proof. Siano w, w0 ∈ W1 ∩ W2 e sia k ∈ R. Per definizione di intersezione w e w0 appartengono sia a W1
che a W2 . Per definizione di sottospazio allora sia w + w0 che kw appartengono a W1 a W2 e pertanto
alla loro intersezione. Questo prova che W1 ∩ W2 è un sottospazio vettoriale di V .
Siano ora w, w0 ∈ W1 + W2 e sia k ∈ R. Siano x1 , y1 ∈ W1 e x2 , y2 ∈ W2 tali che w = x1 + x2 e
w0 = y1 + y2 . Allora:
w + w0 = x1 + x2 + y1 + y2 = (x1 + y1 ) + (x2 + y2 ) ∈ W1 + W2 .
e
kw = k(x1 + x2 ) = kx1 + kx2 ∈ W1 + W2 .
Segue quindi la tesi.
Consideriamo inoltre il seguente ulteriore risultato
Proposizione 2.14. Sia V uno spazio vettoriale e siano W1 , W2 due sottospazi vettoriali di V tali che
W1 ∩ W2 = (0). Allora ogni vettore in W1 ⊕ W2 ha una unica rappresentazione come somma di un vettore
in W1 ed un vettore in W2 .
Proof. Sia w ∈ W1 ⊕ W2 e siano x1 , y1 ∈ W1 e x2 , y2 ∈ W2 tali che w = x1 + x2 = y1 + y2 . Vogliamo
mostrare che x1 = y1 e x2 = y2 . Abbiamo:
0 = v − v = x1 + x2 = y1 + y2 = (x1 − y1 ) + (x2 − y2 ).
Segue pertanto:
x1 − y1 = −(x2 − y2 ) ∈ W1 ∩ W2 = (0).
Dunque x1 − y1 = x2 − y2 = 0, da cui x1 = y1 e x2 = y2 .
Consideriamo ora l’importante definizione di combinazione lineare.
Definizione 2.15. Sia V uno spazio vettoriale e siano v1 , v2 , . . . , vn vettori in V . Un vettore w è una
combinazione lineare dei precedenti n vettori se esistono scalari k1 , k2 , . . . , kn tali che
w = k1 v1 + k2 v2 + · · · kn vn .
Lo spazio generato dai vettori v1 , v2 , . . . , vn è l’insieme di tutte le combinazioni lineari degli n vettori,
e viene denotato con hv1 , v2 , . . . , vn i. Se V = hv1 , v2 , . . . , vn i diremo che v1 , v2 , . . . , vn generano V .
Esempio 2.16. Siano v1 = (1, 2, 3), v2 = (0, 1, 2) e v3 = (−1, 0, 1) tre vettori di R3 . Verifichiamo che il
vettore w = (1, 1, 1) ∈ R3 si può scrivere come combinazione lineare dei vettori v1 , v2 e v3 . Cerchiamo
pertanto scalari a1 , a2 e a3 tali che:
w = a1 v1 + a2 v2 + a3 v3 ,
cioè
(1, 1, 1) = a1 (1, 2, 3) + a2 (0, 1, 2) + a3 (−1, 0, 1).
Questa equazione “vettoriale” si traduce in un sistema di equazioni lineari nelle variabili a1 , a2 e a3 :


 a1 − a3 = 1
2a1 + a2 = 1


3a1 + 2a2 + a3 = 1
Questo sistema è compatibile e indeterminato con soluzioni:


t+1
 a1 =
dove t ∈ R.
a2 = −2t − 1


a3 =
t
15
Una particolare espressione di w come combinazione lineare di v1 , v2 e v3 si trova ponendo per esempio
t = 1. Allora a1 = 2, a2 = −3 e a3 = 1 e
w = 2v1 + −3v2 + v3 .
4
Si verifica facilmente che lo spazio generato da un insieme di vettori di V è un sottospazio vettoriale.
Definizione 2.17. Sia V uno spazio vettoriale. n vettori v1 , v2 , . . . , vn ∈ V sono detti linearmente
dipendenti (in breve l.d.) se esiste una combinazione lineare di v1 , v2 , . . . , vn uguale a 0 i cui coefficienti
non sono tutti nulli. Essi sono detti linearmente indipendenti (in breve l.i.) se non sono linearmente
dipendenti.
Esempio 2.18. Consideriamo i tre vettori v1 = (1, 2, 3), v2 = (0, 1, 2) e v3 = (−1, 0, 1) in R3 dell’esempio
precedente. Per verificare se i tre vettori v1 , v2 e v3 sono linearmente dipendenti o indipendenti cerchiamo
scalari a1 , a2 e a3 tali che:
0 = a1 v1 + a2 v2 + a3 v3 ,
cioè
(0, 0, 0) = a1 (1, 2, 3) + a2 (0, 1, 2) + a3 (−1, 0, 1).
Come prima risolviamo il sistema di equazioni lineari omogeneo associato nelle variabili a1 , a2 e a3 :


 a1 − a3 = 0
2a1 + a2 = 0


3a1 + 2a2 + a3 = 0
Questo sistema è indeterminato con soluzioni:


t
 a1 =
a2 = −2t


a3 =
t
dove t ∈ R.
Posto t = 1 otteniamo la combinazione lineare non banale:
0 = v1 + −2v2 + v3
che esprime il vettore nullo come combinazione lineare di v1 , v2 e v3 . I tre vettori sono pertanto
linearmente dipendenti.
4
Vale quest’ultima utile riformulazione della definizione di dipendenza lineare.
Proposizione 2.19. n vettori v1 , v2 , . . . , vn ∈ V sono detti linearmente dipendenti se e solo se uno
di loro è una combinazione lineare degli altri.
Proof. Supponiamo
vi = k1 v1 + · · · + ki−1 vi−1 + ki+1 vi+1 + · · · + kn vn .
In tal caso otteniamo k1 v1 + · · · + ki−1 vi−1 − vi + ki+1 vi+1 + · · · + kn vn = 0 e quindi v1 , v2 , . . . , vn
sono linearmente dipendenti. Viceversa supponiamo che esista una combinazione lineare dei vettori
v1 , v2 , . . . , vn con coefficienti non tutti nulli. Supponiamo quindi k1 v1 + k2 v2 + · · · kn vn = 0 con ki 6= 0.
Segue facilmente che vi = (−ki )−1 (k1 v1 + · · · + ki−1 vi−1 + ki+1 vi+1 + · · · + kn vn ) e quindi la tesi. Consideriamo ora la definizione di base di uno spazio vettoriale.
Definizione 2.20. Sia V uno spazio vettoriale. Un sistema di vettori v1 , v2 , . . . , vn ∈ V costituiscono
una base di V se generano V e se in aggiunta sono linearmente indipendenti.
16
Esempio 2.21. Consideriamo lo spazio vettoriale R3 . I vettori e1 = (1, 0, 0), e2 = (0, 1, 0) e e3 = (0, 0, 1)
sono linearmente indipendenti e generano tutto lo spazio. Essi pertanto costituiscono una base di R3 ,
detta base canonica (o base standard o ancora base euclidea). Tale definizione si estende facilmente
ad Rn . La base canonica di Rn è costituita dai vettori e1 , e2 , . . . , en , dove ei , per i = 1, 2, . . . , n, è il
vettore avente tutte le entrate uguali a 0 tranne la i-esima che vale 1.
4
Notiamo che non tutti gli spazi vettoriali possiedono una base fatta in questo modo. L’esistenza di un
numero finito di generatori e quindi di una base finita è propria degli spazi vettoriali finito dimensionali.
Uno spazio vettoriale che non è finito dimensionale è detto infinito dimensionale o equivalentemente
che ha dimensione infinita. D’ora in avanti, salvo avviso contrario quando parleremo di spazi vettoriali
intenderemo sempre spazi vettoriali finito dimensionali.
Teorema 2.22. Sia V uno spazio vettoriale. Siano v1 , v2 , . . . , vn ∈ V linearmente indipendenti e siano
k1 , k2 , . . . , kn e h1 , h2 , . . . , hn scalari tali che
k1 v1 + k2 v2 + · · · kn vn = h1 v1 + h2 v2 + · · · hn vn .
Allora ki = hi per i = 1, . . . , n.
Proof. Sottraendo il membro a destra dal membro a sinistra, abbiamo
(k1 − h1 )v1 + (k2 − h2 )v2 + · · · (kn − hn )vn = 0.
Per definizione di dipendenza lineare abbiamo ki − hi = 0, per ogni i = 1, . . . , n.
Corollario 2.23. Sia V uno spazio vettoriale e sia {v1 , v2 , . . . , vn } una base di V . Allora ogni elemento di V si scrive univocamente come combinazione lineare dei vettori v1 , v2 , . . . , vn . I coefficienti
k1 , k2 , . . . , kn che esprimono un vettore v come combinazione lineare degli elementi della base sono dette
coordinate di v rispetto alla base {v1 , v2 , . . . , vn }.
Teorema 2.24. Sia V uno spazio vettoriale e sia {v1 , v2 , . . . , vn } una base di V . Siano {w1 , w2 , . . . , wm }
vettori di V e assumiamo m > n. Allora w1 , w2 , . . . , wm sono linearmente dipendenti.
Proof. Omessa.
Corollario 2.25. (Teorema della dimensione per spazi vettoriali) Basi diverse di uno stesso
spazio vettoriale finito dimensionale hanno la stessa cardinalità.
Proof. Siano date due basi di uno spazio vettoriale V , una di cardinalità m, una di cardinalità n. In
virtù del teorema precedente applicato alle due basi otteniamo m ≤ n ed allo stesso tempo n ≤ m, da
cui l’uguaglianza.
Teorema 2.26. Sia V uno spazio vettoriale di dimensione n e siano v1 , v2 , . . . , vn vettori linearmente
indipendenti in V . Allora {v1 , v2 , . . . , vn } è una base di V .
Proof. Sia v ∈ V un vettore. I vettori {v, v1 , v2 , . . . , vn } sono linearmente dipendenti per il Teorema
2.24. Esiste pertanto una combinazione lineare dei suddetti vettori a coefficienti non tutti nulli uguale
al vettore nullo 0. Esistono cioè scalari k1 , k2 , . . . , kn , h tali che:
k1 v1 + k2 v2 + · · · kn vn + hv = 0.
Lo scalare h è diverso da zero altrimenti si avrebbe una combinazione lineare di v1 , v2 , . . . , vn a coefficienti non tutti nulli uguale al vettore nullo. Questo è impossibile perché v1 , v2 , . . . , vn sono linearmente
indipendenti. Segue quindi:
1
v = − (k1 v1 + k2 v2 + · · · kn vn + hv) ,
h
17
ovvero v è combinazione lineare di v1 , v2 , . . . , vn . Per l’arbitrarietà di scelta di v in V si ha che
v1 , v2 , . . . , vn generano V e quindi ne costituiscono una base.
Esempio 2.27. Siano v1 = (1, 2, −1), v2 = (0, −1, 2) e v3 = (2, 0, 3) in R3 . Mostriamo che essi sono
linearmente indipendenti, quindi costituiscono una base di R3 . A tal proposito siano a1 , a2 , a3 ∈ R tale
che:
a1 v1 + a2 v2 + a3 v3 = 0.
Questa equazione vettoriale si traduce nel seguente sistema lineare omogeneo:


 a1 + a3 = 0
2a1 − a2 = 0


−a1 + 2a2 + 3a3 = 0
Si verifica facilmente che questo sistema è compatibile e determinato. Esso ammette quindi la sola
soluzione banale a1 = a2 = a3 = 0. I tre vettori sono linearmente indipendenti, quindi in virtù del
Teorema 2.26 costituiscono una base di R3 .
4
Corollario 2.28. Sia V uno spazio vettoriale e sia W un sottospazio. Se dim(W ) = dim(V ) allora
W =V.
Proof. Per il teorema precedente una base di W è anche base di V .
Proposizione 2.29. Sia V uno spazio vettoriale di dimensione n e siano v1 , v2 , . . . , vr r vettori linearmente indipendenti di V , dove r < n. Allora esistono vettori vr+1 , vr+2 , . . . , vn tale che {v1 , v2 , . . . , vn }
è una base di V .
Proof. Omessa.
Chiudiamo questa prima parte sugli spazi vettoriali con la seguente importante proposizione che mette
in relazione le dimensioni degli spazi intersezione e somma di due sottospazi vettoriali di uno spazio
vettoriale fissato V .
Proposizione 2.30. (Grassmann) Siano V uno spazio vettoriale e siano U , W sottospazi vettoriali
di V . Vale la seguente formula, nota come Formula di Grassmann:
dim(U + W ) = dim(U ) + dim(W ) − dim(U ∩ W ).
Proof. Omessa.
Esempio 2.31. Due sottospazi vettoriali 2-dimensionali V, W di R3 hanno intersezione non nulla. Infatti
vale V + W ⊂ R3 e quindi dim(V + W ) ≤ 3. Dalla formula di Grassmann segue:
dim(V ∩ W ) = dim(V ) + dim(W ) − dim(V + W ) ≥ 2 + 2 − 3 = 1,
ovvero che dim(V ∩ W ) 6= {0}.
4
18
3. Matrici
3.1. Definizioni e algebra delle matrici.
Come definito precedentemente chiamiamo matrice di tipo m × n una tabella di numeri reali organizzata
in m righe e n colonne.

(8)


A=


a11
a21
..
.
am1
a12
a22
..
.
am2
···
···
..
.
···
a1n
a2n
..
.
amn






Indicheremo le matrici con lettere latine maiuscole (A, B, C etc.). Talvolta scriveremo una generica
matrice in forma contratta A = (aij ) dove 1 ≤ i ≤ m e 1 ≤ j ≤ n sono detti rispettivamente indice riga
e indice colonna. L’elemento aij sarà allora l’elemento che appartiene alla i-esima riga e alla j-esima
colonna. Se m = n la matrice è detta quadrata di ordine n. Una matrice di tipo 1 × n è detta vettore
riga mentre una matrice di tipo m × 1 è detta vettore colonna. Sia A la matrice (8), la i-esima riga di A
è il vettore riga
Ai = ai1 ai2 · · · ain
mentre la j-esima colonna è il vettore colonna



A =


j
a1j
a2j
..
.
amj



.


Due matrici sono uguali quando sono dello stesso tipo e hanno entrate uguali nelle stesse posizioni, cioè
se A = (aij ) e B = (bij ) sono matrici dello stesso tipo, allora A = B se e solo se aij = bij per ogni i, j.
Se A = (aij ) è una matrice di tipo m×n chiamiamo trasposta di A la matrice tA ottenuta scambiandone
le righe con le colonne, pertanto una matrice B = (bij ) di tipo n × m è la trasposta di A se per ogni
i, j, bij = aji . Ovviamente vale che t (tA) = A. Se A = tA allora A è detta simmetrica, mentre se
A = −tA (dove −A è la matrice ottenuta da A cambiando i segni di tutte le sue entrate) allora A è detta
antisimmetrica (o emisimmetrica). Una matrice simmetrica o antisimmetrica è necessariamente
quadrata.
Sia A = (aij ) una matrice quadrata. Gli elementi aij con i = j sono detti elementi principali. Essi
costituiscono la diagonale principale. In una matrice antisimmetrica gli elementi della diagonale principale
sono tutti uguali a zero. La somma degli elementi della diagonale principale di una matrice quadrata
A = (aij ) è detta traccia della matrice ed è denotata con tr(A).
Definiamo ora alcune importanti operazioni sulle matrici, la somma e la moltiplicazione per uno scalare.
Definiamo la somma di due matrici solo quando esse sono dello stesso tipo, ovvero solo se hanno lo stesso
numero di rige e di colonne. Siano quindi m, n interi positivi fissati e siano A = (aij ), B = (bij ) due
matrici di tipo m × n. Definiamo la matrice somma di A e B una matrice C = (cij ) dello stesso tipo
ponendo cij = aij + bij . Scriveremo in tal caso C = A + B.
19
La somma di matrici gode delle seguenti proprietà. Siano A, B e C tre matrici dello stesso tipo.
•
•
A+B =B+A
A + (B + C) = (A + B) + C
(proprietà commutativa);
(proprietà associativa).
La matrice le cui entrate sono tutte uguali a zero è detta matrice nulla. Denoteremo tale matrice con la
lettera O. Notiamo che comunque fissiamo due interi posivi m, n esiste una matrice nulla di tipo m × n.
Si verifica facilmente che tale matrice è l’elemento neutro rispetto alla somma, ovvero, per ogni matrice
A di tipo m × n,
A + O = O + A = A.
Notiamo infine che data una matrice A di tipo m × n, cambiando di egno a tutte le sue entrate otteniamo
una nuova matrice −A tale che
A + (−A) = O.
Definiamo ora la moltiplicazione di una matrice per uno scalare. Sia A = (aij ) una matrice e sia k ∈ R.
Definiamo il prodotto della matrice A per lo scalare k la matrice C = (cij ) dello stesso tipo di A tale
che cij = kaij . Scriveremo in tal caso C = kA. Siano A, B matrici dello stesso tipo e siano k, h numeri
reali. Le seguenti si verificano facilmente.
•
•
•
•
(−1)A = −A
(kh)A = k(hA)
k(A + B) = kA + kB
(k + h)A = kA + hA
(proprietà distributiva rispetto alla somma di matrici);
(proprietà distributiva rispetto alla somma di scalari).
Segue pertanto che, comunque noi fissiamo interi positivi m, n l’insieme delle matrici di tipo m × n
con le operazioni di somma e di moltiplicazione per uno scalare costituiscono uno spazio vettoriale, che
denoteremo con Mm×n .
Proposizione 3.1. (i) Se A, B sono arbitrarie matrici m × n allora:
t
(A + B) = tA + tB.
(ii) Se A è una matrice arbitraria e k ∈ R, allora
t
kA = k(tA).
(iii) Sia A è una matrice quadrata arbitraria. Allora A + tA è una matrice simmetrica.
(iv) Sia A è una matrice quadrata arbitraria. Allora A − tA è una matrice antisimmetrica.
(v) Ogni matrice quadrata è somma di una matrice simmetrica e di una matrice antisimmetrica.
Proof. Omessa. Lasciata per esercizio.
Definiamo ora una seconda operazione tra matrici, meno intuitiva delle due precedenti. La moltiplicazione tra matrici. Definiamo prima la moltiplicazione tra un vettore riga ed un vettore colonna aventi
il medesimo numero di entrate, ovvero il prodotto tra una matrice A di tipo 1 × n ed una matrice B di
tipo n × 1. Siano quindi


b1


 b2 

A = a1 a2 · · · an
e B= . 
.
 .. 
bn
20
La matrice prodotto C = AB è la matrice di tipo 1 × 1 (avente quindi un’unica entrata)
!
n
X
C = (a1 b1 + a2 b2 + · · · an bn ) =
ai bi .
i=1
Nel seguito identificheremo una matrice con una sola entrata con lo scalare corrispondente.
Estendiamo tale definizione al prodotto di due matrici A, B in cui il numero di colonne della prima
matrice A è uguale al numero di righe della seconda matrice B (se ciò accade A è detta conformabile
con B). Sia pertanto A di tipo m × p e sia B di tipo p × n. La matrice prodotto di A e B è la matrice
C = (cij ) di tipo m × n tale che cij = Ai B j , dove ricordiamo che Ai e B j sono rispettivamente l’i-esimo
vettore riga di A ed il j-esimo vettore colonna di B, che ovviamente hanno lo stesso numero p di elementi.
Esempio 3.2. Siano A e B le seguenti matrici:
!
1 −1
A=
2 3
1
−1
B=
0 3
1 2
!
.
La matrice A, di tipo 2 × 2 è conformabile con B, di tipo 2 × 3. Possiamo eseguire il prodotto di A e B
ed il risultato è il seguente:
!
!
1+1 0−1 3−2
2 −1 1
AB =
=
.
2−3 0+3 6+6
−1 3 12
4
Notiamo che tale operazione non gode della proprietà commutativa.
Esempio 3.3. Siano A e B le matrici:
1
0
A=
0
0
!
1
0
B=
!
.
In questo caso A è conformabile con B ma B non è conformabile con A. Il risultato del prodotto AB è
uguale alla matrice:
!
1
AB =
,
0
mentre non è possibile fare BA.
4
Esempio 3.4. Siano A e B le matrici:
1
0
A=
!
B=
1
1
.
In questo caso è possibile fare entrambi i prodotti AB e BA, ma essi non possono coincidere in quanto
le matrici risultanti non sono dello stesso tipo. Infatti si ha
!
1 1
AB =
BA = 1 .
0 0
mentre non è possibile fare BA.
4
Esempio 3.5. Siano A e B le matrici:
A=
1
0
0
0
!
B=
0
1
0
0
!
.
21
In questo caso è possibile fare entrambi i prodotti AB e BA, queste matrici sono dello stesso tipo ma il
risultato è diverso. Infatti
!
!
0 0
0 0
AB =
BA =
.
0 0
1 0
4
Sia In la matrice quadrata di ordine n in cui tutti gli elementi siti sulla diagonale principale sono uguali
a 1, mentre gli altri sono uguali a 0. Scriveremo semplicemente I quando non vogliamo porre l’attenzione
sull’ordine della matrice. Valgono le seguenti proprietà, elencate nella seguente proposizione.
Proposizione 3.6. (P1) Proprietà associativa: Per ogni terna di matrici A, B, C, dove A è conformabile con B e B è conformabile con C, si ha (AB)C = A(BC).
(P2) Proprietà distributiva della moltiplicazione rispetto alla somma: Per ogni terna di matrici
A, B, C, dove A è conformabile con B e C, e B, C sono dello stesso tipo, si ha A(B + C) =
AB + AC.
(P3) Per ogni coppia di matrici A, B dove A è conformabile con B ed ogni scalare k ∈ R, (kA)B =
k(AB).
(P4) Esistenza dell’elemento neutro: Per ogni matrice quadrata A, AI = IA = A.
(P5) Assorbenza della matrice nulla: Per ogni matrice quadrata A, AO = OA = O.
(P6) t (AB) = tB tA.
Proof. Omessa.
Applicando la definizione di prodotto tra matrici si vede anche che, per esempio, il sistema


 a11 x1 + a12 x2 + · · · + a1n xn = b1

 a x + a x + ··· + a x = b
21 1
22 2
2n n
2

·
·
·
·
·
·
·
·
·



am1 x1 + am2 x2 + · · · + amn xn = bm
si può scrivere nella forma, detta forma matriciale
Ax = b,
dove A è la matrice dei coefficienti, x = t (x1 , x2 , . . . , xn ) è il vettore colonna le cui entrate sono le
variabili e b è il vettore termine noto.
Notiamo che matrici quadrate dello stesso ordine possono essere sempre moltiplicate tra loro. In particolare una matrice quadrata può essere moltiplicata per sé stessa. Possiamo quindi definire la potenza
n-esima di una matrice quadrata nel modo seguente:

se n ≥ 1
· · · A}

 |A A{z
n
An =


I
se n = 0.
Per la potenza di matrici valgono quasi tutte le usuali proprietà delle potenze
Am An = Am+n ;
(Am )n = Amn ;
ma in generale la non commutatività implica che
(AB)n 6= An B n .
Una matrice quadrata A tale che A2 = A è detta idempotente, mentre se An = O per qualche n ≥ 1
A è detta nilpotente.
22
Esempio 3.7. La matrice:
A=
1
0
0
0
!
è idempotente. Infatti si verifica facilmente che A2 = A.
La matrice

0

B= 0
0
2
0
0

1

−1 
0
è nilpotente. Infatti:

0

2
B = 0
0
2
0
0

0
1

−1   0
0
0
2
0
0
 
0
1
 
−1  =  0
0
0
0
0
0

−2

0 ,
0
quindi

0 0

3
2
B =B B= 0 0
0 0

0 2
−2

0  0 0
0 0
0
 
0
1
 
−1  =  0
0
0
0
0
0

0

0 
0
4
Una matrice quadrata A è detta invertibile o non singolare se esiste una matrice B quadrata dello
stesso ordine tale che AB = BA = I. Una matrice è non invertibile o singolare se non è invertibile.
Se A è una matrice invertibile la matrice inversa è unicamente determinata da A. Supponiamo che B e
C siano matrici tali che AB = BA = AC = CA = I. Allora:
B = BI = B(AC) = (BA)C = IC = C.
L’inversa di una matrice A, se essa esiste, è denotata con A−1 .
La seguente proposizione elenca alcune immediate proprietà della matrice inversa.
Proposizione 3.8. Siano A, B matrici invertibili del medesimo ordine, sia n un intero positivo e sia k
uno scalare non nullo. Valgono le seguenti:
(1)
(2)
(3)
(4)
(5)
A−1 è invertibile con inversa (A−1 )−1 = A;
il prodotto AB è invertibile con inversa (AB)−1 = B −1 A−1 ;
la potenza An è invertibile con inversa (An )−1 = (A−1 )n ;
kA è invertibile con inversa (kA)−1 = k1 A−1 ;
t
A è invertibile con inversa (tA)−1 = t (A−1 ).
Studiamo ora un modo per determinare se una data matrice è invertibile e ne calcoliamo l’inversa.
Data una matrice quadrata A = (aij ) di ordine n, introduciamo una matrice quadrata X del medesimo
ordine le cui entrate sono incognite xij . Imponendo l’uguaglianza AX = I otteniamo equazioni lineari
nelle incognite xij aventi coefficienti tra le entrate della matrice A. In particolare tutto si traduce in n
sistemi lineari aventi tutti la stessa matrice dei coefficienti A con vettori dei termini noti ei , i = 1, . . . , n.
Possiamo risolvere simultaneamente tutti gli n sistemi applicando il procedimento di Gauss-Jordan alla
matrice:


a11 a12 · · · a1n | 1 0 · · · 0


 a21 a22 · · · a2n | 0 1 · · · 0 

(A|I) =  .
..
..
.. .. .. . .
. 
..
.
.
. .. 
 ..
.
.
. . .
an1 an2 · · · ann | 0 0 · · · 1
23
Quello che otteremo alla fine è che se la matrice A è invertibile tutti i sistemi saranno compatibili e
determinati, mentre se la matrice A è singolare almeno uno dei sistemi sarà incompatibile. Nel primo
caso la matrice assumerà la seguente forma finale:


1 0 · · · 0 | b11 b12 · · · b1n


 0 1 · · · 0 | b21 b22 · · · b2n 

(I|B) =  . . .
.. ..
..
..
.. 
..
.
.
.
.
.
.
 . .
. .
.
.
. 
0 0 · · · 1 | bn1 bn2 · · · bnn
Le entrate della matrice B costituiscono le soluzioni dei nostri sistemi, e quindi avremo B = A−1 .
Esempio 3.9. Sia A la matrice:

1

 −1
2
Applichiamo il procedimento di Gauss-Jordan alla

1 0

(A|I) =  −1 2
2 1

0 2

2 −1 
1 −1
matrice:

| 1 0 0

| 0 1 0 .
| 0 0 1
2
−1
−1
Otteniamo alla fine la matrice:

1 0 0

(I|B) =  0 1 0
0 0 1
A è invertibile con inversa


B=
1
11
3
11
5
11
|
|
|
2
− 11
5
11
1
11
1
11
3
11
5
11
2
− 11
5
11
1
11
4
11
1
11
2
− 11
4
11
1
11
2
− 11


.


.
4
3.2. Rango e determinante.
Consideriamo nuovamente il procedimento di Gauss. Osserviamo che le tre operazioni elementari sulle
righe di una matrice A:
(OE10 ) - trasporre due righe;
(OE20 ) - moltiplicare tutte le entrate di una riga per una costante diversa da zero;
(OE30 ) - sommare ad una riga un multiplo di un’altra riga (termine a termine).
corrispondono ad altrettante moltiplicazioni per particolari matrici, dette matrici elementari.
Definizione 3.10. Una matrice quadrata di ordine n è detta elementare se può essere ottenuta dalla
matrice idendità In applicando una delle tre operazioni elementari (OE10 ), (OE20 ) e (OE30 ).
Notiamo che le matrici elementari sono invertibili e matrici inverse di matrici elementari sono ancora
matrici elementari.
Una matrice B può quindi essere ottenuta da una matrice A mediante operazioni elementari sulle righe se
e solo se esistono matrici elementari E1 , E2 , · · · , En tali che B = En En−1 · · · E1 A. In tal caso diremo
24
che le matrici A, B sono equivalenti per righe. Osserviamo che tale relazione costituisce una relazione
di equivalenza tra matrici.
Data una matrice A di tipo m × n associamo ad A due sottospazi vettoriali di Rn e Rm rispettivamente,
lo spazio delle righe e lo spazio della colonne.
Definizione 3.11. Sia A una matrice di tipo m × n. con righe A1 , A2 . . . , Am ∈ Rn e colonne
A1 , A2 . . . , An ∈ Rm . Lo spazio delle righe di A è il sottospazio di Rn generato dalle righe della
matrice A. Lo spazio delle colonne di A è il sottospazio di Rm generato dalle colonne della matrice
A.
Vale il seguente teorema:
Teorema 3.12. Siano A, B due matrici sono ottenibili l’una dall’altra mediante operazioni elementari
sulle righe. Allora lo spazio delle righe di A è uguale allo spazio delle righe di B.
Proof. Il fatto che B si possa ottenere da A mediante operazioni elementari sulle righe equivale a dire
che le righe di B sono combinazioni lineari delle righe di A. Vale ovviamente anche il viceversa da cui
segue la tesi.
Questo teorema, unitamente al fatto che ogni matrice può essere ridotta in forma a scala segue che il
procedimento di Gauss ci permette di calcolare la dimensione dello spazio delle righe di una matrice.
Sussiste il seguente fondamentale teorema.
Teorema 3.13. Per ogni matrice A di tipo m × n la dimensione dello spazio delle righe di A è uguale
alla dimensione dello spazio delle colonne. Il valore comune, che denoteremo con rg(A) è detto rango
di A. Risulterà quindi rg(A) < m e rg(A) < n.
Proof. Sia r la dimensione dello spazio delle righe e sia {v1 , v2 , . . . , vr } una base di Rm . Allora per
ogni i ∈ {1, . . . , m}, esistono coefficienti cik tali che
(9)
Ai = ci1 v1 + · · · + cir vr .
Se vk = (xk1 xk2 · · · xkn ) allora le equazioni (9) sono equivalenti a
Aj = x1j w1 + x2j w2 + · · · xrj wr ,
dove wi = (c1i c2i · · · cmi ). Segue quindi che i vettori colonna sono combinazioni lineari degli r vettori
w1 , . . . , wr . Segue pertanto che la dimensione dello spazio delle colonne è minore di r. Considerando
la matrice trasposta tA otteniamo la diseguaglianza opposta. Segue la tesi.
Il seguente corollario fornisce un metodo per il calcolo del rango di una matrice A.
Corollario 3.14. Il rango di una matrice A è il numero delle righe non completamente nulle di una
matrice a scala B, ottenuta da A mediante operazioni elementari sulle righe.
Esempio 3.15. Calcoliamo il rango della matrice

2 0 1

A =  −1 1 0
−4 2 −1

−1

3 .
7
25
Sommando alla prima riga il doppio della seconda e sostituendo il risultato alla seconda, ed allo stesso
tempo sostituire alla terza riga il risultato della somma della stessa con il doppio della prima otteniamo
la matrice:


2 0 1 −1


 0 2 1 5 .
0 2 1 5
e quindi sostituendo alla terza riga la differenza della terza con la seconda abbiamo:


2 0 1 −1


 0 2 1 5 .
0 0 0 0
La matrice A ha pertanto rango 2.
4
Inoltre attraverso un procedimento di Gauss possiamo calcolare la dimensione dello spazio generato da
un sistema di vettori in Rn , di estrarre da un sistema di generatori una base e di estendere un sistema
di vettori linearmente indipendenti ad una base di Rn .
Esempio 3.16. Siano v1 = (2, 0, −1, 3), v2 = (1, 1, −1, 2), v3 = (−1, −2, 3, 4) e v4 = (−3, 0, 3, 2) vettori
in R4 . La dimensione del sottospazio di R4 generato dai vettori v1 , v2 , v3 e v4 equivale al rango della
matrice i cui vettori riga (o colonna) sono proprio i vettori considerati.
Il rango della matrice



A=

2
1
−1
−3
Applicando il metodo di Gauss alla matrice A

2
 0


 0
0
0 −1
1 −1
−2 3
0
3
3
2
4
2



.

è possibile ridurla alla seguente forma a scala:

0 −1 3
2 −1 1 

.
0 3 13 
0
0
0
Segue che V := hv1 , v2 , v3 , v4 i ha dimensione pari a 3. Inoltre una base dello stesso spazio V è costituita
dai vettori w1 = (2, 0, −1, 3), w2 = (0, 2, −1, 1) e w3 = (0, 0, 3, 13).
4
Esempio 3.17. Consideriamo gli stessi vettori dell’esempio percedente. Vogliamo una base dello spazio
V = hv1 , v2 , v3 , v4 i estratta dal sistema di generatori {v1 , v2 , v3 , v4 }. Per far questo occorre ridurre
con il processo algoritmico di Gauss la matrice le cui colonne coincidono con i vettori v1 , v2 , v3 e v4 ,
ovvero la matrice:


2
1 −1 −3
 0
1 −2 0 


B=
.
 −1 −1 3
3 
3
2
È possibile ottenere, da facili calcoli, la matrice ridotta

2 1 −1
 0 1 −2


 0 0 1
0 0 0
4
2
a scala:

−3
0 

.
1 
0
26
I pivot corrispondono alle prime tre colonne. Questo significa che i primi tre vettori v1 , v2 e v3 sono
linearmente indipendenti. Essi pertanto costituiscono una base di V .
4
Esempio 3.18. Sia V = Rn , per qualche n. Consideriamo ora il problema di estendere un sistema di
vettori linearmente indipendenti di V a base. Siano v1 = (2, 3, −1, −2) e v2 = (−1, −3, 2, 1) in R4 . I
vettori v1 , v2 , e1 , e2 , e3 , e4 costutuiscono un sistema di generatori per V . Agendo come nell’esempio
precedente costruiamo la matrice le cui colonne sono proprio questi sei vettori.


2 −1 1 0 0 0
 3
6 0 1 0 0 


C=
.
 −1 −2 0 0 1 0 
−2
−4
Riducendo con Gauss si ottiene la matrice ridotta a

2 −1 1
 0 −5 1


 0 0 0
0 0 0
0
0
0
1
scala:
0 0
0 0
1 3
0 −2
0
1
0
1



.

I pivot si trovano in corrispondenza delle colonne relative ai vettori v1 , v2 , e2 e e3 , che costituiscono
una base cercata.
4
Consideriamo ora il seguente fondamentale teorema che fornisce una condizione necessaria e sufficiente
affinché un sistema lineare sia compatibile.
Teorema 3.19. (di Rouché-Capelli) Un sistema lineare Ax = b è compatibile se e solo se il rango della
matrice A è uguale al rango della matrice completa AC .
Proof. Il sistema Ax = b si traduce nella seguente equazione vettoriale:
A1 x1 + A2 x2 + · · · + An xn = b,
da cui segue che il sistema è compatibile se e solo se il vettore termine noto è combinazione lineare
delle colonne della matrice dei coefficienti A Segue pertanto che lo spazio delle colonne della matrice dei
coefficienti A coincide con lo spazio delle colonne della matrice completa AC . Segue quindi la tesi.
Passiamo ora alla definizione di determinante. Ricordiamo che con Mn denotiamo lo spazio delle matrici
quadrate di ordine n.
Definizione 3.20. Sia n un intero positivo arbitrario. Il determinante è una funzione definita su Mn a
valori reali che denotiamo con det(·) che gode delle seguenti proprietà che lo determinano unicamente:
(D1)
(D2)
(D3)
(D4)
det(I) = 1;
Se B è ottenuta da A mediante trasposizione di due righe, allora det(B) = − det(A);
Se B è ottenuta da A sostituendo ad una riga per una costante k, allora det(B) = k det(A);
Se B è ottenuta da A sommando ad una riga un multiplo di un’altra riga det(B) = det(A).
Dalla definizione seguono importanti proprietà del determinante. In particolare valgono i seguenti teoremi.
Teorema 3.21. Sia A una matrice quadrata. Allora det(A) = det(tA).
27
Teorema 3.22. (di Binet) Siano A, B due matrice quadrate dello stesso ordine. Allora det(AB) =
det(A) det(B).
Dal teorema di Binet segue il seguente corollario.
Corollario 3.23. Sia A una matrice quadrata invertibile con inversa A−1 . Allora det(A−1 ) =
1
det(A) .
Inoltre vale il seguente risultato.
Teorema 3.24. Una matrice A è invertibile se e solo se det(A) 6= 0.
Vediamo ora come calcolare il determinante di una matrice.
Il determinante di matrici 2 ×2 si calcola facendo il cosiddetto prodotto incrociato, ovvero si moltiplicano
le entrate sulla diagonale principale e si sottrae dal risultato il prodotto degli altri due termini.
det
Sia ora
a
c

b
d
a11

A :=  a21
a31
!
= ad − bc.
a12
a22
a32

a13

a23 
a33
una matrice di tipo 3 × 3. Per tali matrici esiste un metodo, noto con il nome di metodo di Sarrus,
per il calcolo del determinante. Esso consiste nell’affiancare alla matrice A le prime due colonne. Poi
si procede moltiplicando le entrate nella diagonale principale e sommando a questo valore i risultati del
prodotto degli elementi delle “parallele” a questa. Infine sottraiamo al risultato ottenuto la somma dei
tre prodotti degli elementi dell’altra diagonale con le due “parallele”.
Questo procedimento non è generalizzabile a matrici di ordine superiore a 3. Descriviamo ora un metodo
più generale, il metodo di Laplace. Prima di descrivere questo procedimento definiamo il cofattore o
complemento algebrico di un elemento di una matrice quadrata. A tal proposito sia A = (aij ) una
matrice quadrata di ordine n e fissiamo i, j ∈ {1, . . . , n}. Il cofattore di aij è il determinante della
sottomatrice Mij (di ordine n − 1) che si ottiene da A cancellando la i-esima riga e la j-esima colonna,
con il proprio segno se i + j è pari, col segno opposto se i + j è dispari, cioè il numero
Aij = (−1)i+j det(Mij ).
Il determinante di A è dato da
det(A) =
n
X
k=1
aik Aik =
n
X
akj Akj ,
k=1
per ogni valore di i, j in {1, . . . , n}, cioè il determinante della matrice A è la somma dei prodotti degli
elementi di una linea di A (riga o colonna) per i rispettivi complementi algebrici. Il secondo membro è
detto sviluppo del determinante rispetto alla i-esima riga, mentre il membro a destra è lo sviluppo del
determinante rispetto alla j-esima colonna.
Data una matrice quadrata A, la matrice le cui entrate sono i cofattori degli elementi aij di A nella
medesima posizione è la matrice dei cofattori di A, mentre la sua trasposta è la matrice aggiunta di A,
che denotiamo con Adj(A). Vale il seguente teorema.
Teorema 3.25. Sia A una matrice quadrata. Allora A è invertibile se e solo se det(A) 6= 0 ed in tal
1
Adj(A).
caso A−1 = det(A)
Proof. Omessa.
28
Dal teorema precedente segue il seguente fondamentale teorema che ci permette di risolvere sistemi
quadrati.
Teorema 3.26. (di Cramer) Sia Ax = b un sistema lineare quadrato. Il sistema è compatibile e
determinato se e solo se det(A) 6= 0. In tal caso la soluzione del sistema è dato da
xi =
det(Ai )
,
det(A)
dove la matrice Ai è la matrice ottenuta sostituendo alla i-esima colonna il vettore termine noto b.
Proof. Poiché A ha determinante diverso da zero, A è invertibile. Segue che il sistema è compatibile e
determinato con soluzione:
1
x = A−1 b =
Adj(A)b.
det(A)
P
n
1
Segue che il valore di xi è dato da xi = det(A)
k=1 Aki bk . Notiamo che questa somma è lo sviluppo di
Laplace del determinante di Ai rispetto alla i-esima colonna. Segue la tesi.
Analizziamo ora più approfonditamente il rapporto che sussiste tra rango e determinante. Abbiamo visto
che se A è una matrice quadrata, il rango di A è massimo (pari all’ordine della matrice se e solo se il
determinante di A è diverso da zero. Vogliamo trovare un risultato più generale. A tal fine consideriamo
la seguente definizione.
Definizione 3.27. Un minore di ordine r di una matrice

a11 a12 · · · a1n

 a21 a22 · · · a2n
A=
..
..
..
 ..
.
 .
.
.
am1 am2 · · · amn






è il determinante di una matrice di ordine r ottenuta da A eliminando simultaneamente m − r righe e
n − r colonne. Qui chiaramente assumiamo r ≤ m e r ≤ n.
Per esempio i minori di ordine 1 corrispondono alle singole entrate della matrice mentre l’unico minore
di ordine n di una matrice quadrata n × n è il daterminante della matrice stessa.
Vale la seguente proposizione.
Proposizione 3.28. Il rango di una matrice A è il massimo ordine dei suoi minori non nulli.
Torniamo ora alla teoria degli spazi vettoriali. Abbiamo visto che le coordinate di un vettore dipendono
dalla base scelta. Esplicitiamo ora meglio questa dipendenza attraverso la teoria delle matrici.
Il teorema delle dimensioni per spazi vettoriali ci dice che basi diverse hanno comunque lo stesso numero
di elementi. Siano quindi B = {e1 , e2 , . . . , en } e B0 = {e01 , e02 , . . . , e0n } due basi di uno spazio vettoriale
finito dimensionale V . Per ogni i ∈ {1, 2, . . . , n} il vettore e0i si può esprimere come combinazione lineare
dei vettori della base B (e viceversa). Esistono quindi scalari c1i , c2i , . . . , c1n tali che
e0i
=
n
X
cki ei .
k=1
Usando una notazione matriciale possiamo scrivere:
( e01
e02
···
e0n ) = ( e1
e2
···
en )C,
dove C = (cij ). Poiché gli e0i cosı̀ come gli ei costituiscono altrettante basi le matrici le cui colonne sono
proprio tali vettori hanno rango massimo, quindi sono invertibili. Pertanto anche C è invertibile.
29
Sia ora v un vettore di V e siano x1 , x2 , . . . , xn e x01 , x02 , . . . , x0n le coordinate di v rispetto alle due
basi. Possiamo scrivere in tal caso:
 0 
 0 


x1
x1
x1
 0 
 0 


 x2 
 x2 
 x2 
0
0
0





v = ( e1 e2 · · · en ) 
 ..  = ( e1 e2 · · · en )  ..  = ( e1 e2 · · · en ) C  ..  ,
 . 
 . 
 . 
x0n
x0n
xn
da cui






x1
x2
..
.
xn






= C 




x01
x02
..
.
x0n






Moltiplicando ambo i membri di quest’ultima equazione per la matrice C −1 a sinistra otteniamo la
relazione inversa:


 0 
x1
x1


 0 
 x2 
 x2 
 .  = C −1  . 
 . 
 . 
 . 
 . 
xn
x0n
La matrice C prende il nome di matrice di cambiamento di base. Essa ha nelle sue colonne le componenti
dei vettori della seconda base rispetto alla prima base.
30
4. Prodotto scalare Euclideo
All’inizio della sezione sugli spazi vettoriali abbiamo analizzato vettori geometrici nel piano e nello spazio
ordinario. È possibile estendere questi concetti a spazi Rn . Consideriamo vettori in Rn come vettori
geometrici applicati all’origine delle coordinate. In questo modo un vettore geometrico nel piano è
identificato da una coppia di numeri reali. La direzione del vettore sarà la retta che lo contiene mentre il
verso dello stesso vettore sarà individuato in modo naturale dalla coppia di numeri reali ad esso associato.
La norma del vettore potrà quindi essere calcolata mediante il teorema di Pitagora. Infatti se v = (x1 , x2 )
p
allora la norma di v sarà kvk = x21 + x22 .
Sia ora v ∈ Rn . Definiamo la norma (o lunghezza) di v = (x1 , x2 , . . . , xn ) la quantità:
q
kvk = x21 + x22 + · · · + x2n .
Notiamo che le seguenti valgono:
(1) Per ogni vettore v ∈ Rn , kvk ≥ 0 e kvk = 0 se e solo se v = 0.
(2) Per ogni vettore v ∈ Rn e scalare k ∈ R, kkvk = |k|kvk.
(3) Per ogni coppia di vettori v, w ∈ Rn , kv + wk ≤ kkvk + kkwk (Diseguaglianza triangolare).
Due vettori non nulli v, w in Rn sono paralleli se hanno la medesima direzione, ovvero esiste uno scalare
non nullo k ∈ R tale che w = kv. Inoltre se k > 0 diremo che v e w hanno lo stesso verso, altrimenti
diremo che hanno verso opposto. Un versore è un vettore di norma pari ad 1. Dato un vettore v ∈ Rn
v
b = kvk
possiamo asso ciare a v un versore ad esso parallelo ed avente lo stesso verso ponendo v
. Tale
b è il normalizzato di v.
processo è noto come normalizzazione di v e v
Definiamo ora una importante operazione tra vettori di Rn , il prodotto scalare euclideo. Dati due vettori
v = (x1 , x2 , . . . , xn ), w = (y1 , y2 , . . . , yn ) in Rn il prodotto scalare tra v e w è il numero
v · w = x1 y1 + x2 y2 + · · · + xn yn .
Notiamo che kvk2 = v · v.
Osserviamo che il prodotto scalare euclideo soddisfa alle proprietà, di verifica immediata, elencate nella
seguente proposizione:
Proposizione 4.1. Per ogni k ∈ R, u, v, w ∈ Rn vale:
(1)
(2)
(3)
(4)
v · v ≥ 0 e v · v = 0 se e solo se v = 0;
v · w = w · v;
u · v + w = u · v + u · w;
(kv) · w = k(v · w) = v · (kw).
Una funzione che ad ogni coppia di vettori in uno spazio vettoriale V associa uno scalare che soddisfa le
quattro proprietà elencate nella proposizione è detto prodotto scalare.
Vale inoltre (per ogni prodotto scalare, in particolare per il prodotto scalare euclideo):
Proposizione 4.2. (Disuguaglianza di Cauchy-Schwarz) - Se v, w sono vettori in Rn allora
|v · w| ≤ kvkkwk.
Proof. Supponiamo dapprima v = 0. In tal caso |v · w| = 0, cosı̀ come kvk = 0 e quindi anche il secondo
membro è uguale a zero. Pertanto in tal caso la diseguaglianza è verificata. Supponiamo ora v 6= 0. Sia
31
x una variabile reale. La disuguaglianza
(xv + w) · (xv + w) ≥ 0,
deve essere soddisfatta per ogni valore di x per la positività del prodotto scalare. Segue
(v · v)x2 + 2(v · w)x + (w · w) ≥ 0
deve essere soddisfatta per ogni valore di x. Questo si ha se e solo se il discriminante del polinomio a
primo membro è minore o uguale a zero, ovvero se e solo se:
∆
≤ 0 =⇒ (v · w)2 − (v · v)(w · w) ≤ 0.
4
Dunque
(v · w)2 ≤ kvk2 kwk2 .
Estraendo la radice quadrata si ottiene la tesi.
Usando come modello R2 guardiamo al suo significato geometrico. Notiamo che la differenza di due vettori
in R2 è il vettore che collega i punti finali dei due vettori. Pertanto avremo che il vettore differenza dei
p
vettori v = (x1 , x2 ) e w = (y1 , y2 ) avrà norma pari a kv − wk = (x1 − y1 )2 + (x2 − y2 )2 . In virtù del
Teorema di Carnot (detto altresı̀ del coseno) si ha che la stessa lunghezza è uguale a:
kv − wk2 = kvk2 + kwk2 − 2kvkkwk cos(d
v w),
d
dove con v
w denotiamo l’angolo compreso tra v e w. Eguagliando le due quantità otteniamo:
(x1 − y1 )2 + (x2 − y2 )2 = x21 + x22 + y12 + y22 − 2kvkkwk cos(d
v w),
e quindi
x1 y1 + x2 y2
v·w
=
.
kvkkwk
kvkkwk
Pertanto il prodotto scalare euclideo fornisce l’angolo minimo compreso tra i due vettori.
cos(d
v w) =
Due vettori R2 sono tra loro ortogonali se e solo se l’angolo tra loro compreso è pari a π2 radianti misurato
in senso orario o antiorario, e quindi in virtù dell’uguaglianza precedente se e solo se v · w = 0. Questi
concetti possono essere generalizzati facilmente al caso di Rn , mantenendo le stesse notazioni. Se due
vettori v, w ∈ Rn sono ortogonali scriveremo v ⊥ w. Se v ∈ Rn e W è un sottospazio vettoriale di Rn
scriveremo ancora v ⊥ W se v è perpendicolare ad ogni vettore di W . Infine se U, W sono sottospazi
vettoriali di Rn , U è ortogonale a W se per ogni u ∈ U e per ogni w ∈ W , u ⊥ w.
Sia ora W ⊂ Rn un sottospazio vettoriale. Poniamo
W ⊥ := {v ∈ Rn : ∀w ∈ W v ⊥ w}.
W ⊥ è detto complemento ortogonale di W . Il complemento ortogonale dello spazio nullo è l’intero
spazio Rn e viceversa. Conoscendo la base di un sottospazio vettoriale W di Rn è possibile trovare lo
spazio complementare. Infatti se BW = {w1 , w2 , . . . , wm } è una base di W , si considera un vettore
incognito x = (x1 , x2 , . . . , xn ). Un tale x è in W ⊥ se e solo se wi · x = 0, per i = 1, 2, . . . , m. Il
complemento ortogonale di W è quindi soluzione di un sistema lineare omogeneo di m equazioni in n
incognite. Notiamo che il rango della matrice dei coefficienti (e quindi quella completa) è uguale a m.
In questo caso necessitiamo di n − m parametri per descrivere lo spazio W ⊥ , ovvero dim(W ⊥ ) = n − m.
Osserviamo inoltre che la proprietà (1) del prodotto scalare implica W ∩ W ⊥ = (0). Segue dalla formula
di Grassmann che W ⊕ W ⊥ = Rn . Una base B di un sottospazio vettoriale W ∈ Rn è detta ortogonale
se ogni coppia di vettori in B è mutuamente ortogonale. In particolare se B = {v1 , v2 , . . . , vm }, allora
vi · vj = 0 se i 6= j, i, j ∈ {1, 2, . . . , m}. Una base ortogonale è detta ortonormale se in aggiunta i
vettori vi sono versori, ovvero se vi · vj = δij se i, j ∈ {1, 2, . . . , m}.
32
Proposizione 4.3. Un sistema di vettori non nulli S ⊂ Rn a due a due ortogonali è linearmente
indipendente.
Proof. Sia S = {v1 , v2 , . . . , vm } un sistema di vettori non nulli a due a due ortogonali e siano k1 , k2 , . . . , km
scalari tali che k1 v1 + k2 v2 + · · · + km vm = 0. Per ogni i = 1, 2, . . . , m, vi · (k1 v1 + k2 v2 + · · · + km vm ) =
0·vi = 0. D’altra parte vi ·(k1 v1 +k2 v2 +· · ·+km vm ) = ki (vi ·vi ). Segue quindi ki = 0 per i = 1, 2, . . . , m,
ovvero la tesi.
Corollario 4.4. Un sistema di n vettori a due a due ortogonali in Rn costituisce una base dello spazio.
Proposizione 4.5. Se B = {v1 , v2 , . . . , vn } è una base ortonormale di Rn allora un vettore w ∈ Rn
ha la seguente rappresentazione come combinazione lineare dei vettori v1 , v2 , . . . , vn :
w = (w · v1 )v1 + (w · v2 )v2 + · · · + (w · vn )vn .
Questa proposizione ci mostra il vantaggio di avere una base ortonormale. Vediamo ora una procedura
che ci permette di costruire una base ortonormale da una base arbitraria di uno spazio vettoriale V dotato
di prodotto scalare. Tale procedimento è noto con il nome di procedimento di ortonormalizzazione
di Gram-Schmidt in onore di Jorgen Pederson Gram e Erhardt Schmidt. Esso consta di due parti:
• costruire una base ortogonale a partire dalla base data;
• normalizzare ciascun vettore della base costruita al punto precedente.
Prima di procedere fornendo i dettagli del processo, consideriamo l’importante concetto di proiezione.
Siano v e w due vettori di Rn , con w 6= 0. La proiezione di v nella direzione di w è il vettore
v·w
w.
projw (v) =
w·w
Si noti che (v − projw (v)) ⊥ w.
Torniamo al procedimento di Gram-Schmidt. Sia B = {v1 , v2 , . . . , vn } una base di Rn . Costruiamo
vettori w1 , w2 , . . . , wn ponendo
w1 := v1
w2 := v2 − projw1 (v2 )
..
.
wn := vn − projw1 (vn ) − projw2 (vn ) − · · · − projwn−1 (vn ).
Si verifica facilmente che i vettori w1 , w2 , . . . , wn sono a due a due ortogonali. Essi sono pertanto
linearmente indipendenti e quindi costituiscono una base di Rn . Infine ponendo
w1
c1
=w
u1 :=
kw1 k
w2
c2
u2 :=
=w
kw2 k
..
.
wn
d
un :=
=w
n,
kwn k
otteniamo una base ortonormale di Rn .
Notiamo che mettendo in colonna i vettori di una base ortogonale formiamo una matrice A tale che
AtA = I. Poichè ogni matrice commuta con l’inversa, abbiamo anche che AAt = I. Segue quindi che
anche le righe della matrice costituiscono una base ortonormale dello stesso spazio.
Consideriamo la seguente definizione:
33
Definizione 4.6. Una matrice è detta matrice ortogonale se AtA = AAt = I.
Le seguenti proprietà per matrici ortogonali sono di verifica immediata.
Proposizione 4.7. Siano A, B due matrici ortogonali. Le seguenti valgono:
(1) tA è ortogonale;
(2) det(A) = ±1;
(3) AB è ortogonale.
34
5. Applicazioni lineari
5.1. Definizione e principali proprietà.
Consideriamo ora funzioni tra spazi vettoriali. Particolarmente importanti per i nostri scopi è di studiare applicazioni ‘compatibili ’ con le strutture di spazio vettoriale. Consideriamo quindi la seguente
definizione.
Definizione 5.1. Siano V, W due spazi vettoriali. Una funzione T : V −→ W è un’applicazione
lineare se ∀v1 , v2 ∈ V e ∀kR,
(AL1) T (v1 + v2 ) = T (v1 ) + T (v2 );
(AL2) T (kv1 ) = kT (v1 ).
V è il dominio, W è il codominio. T è detta iniettiva se per ogni coppia di vettori v1 , v2 ∈ V con
v1 6= v2 , si ha T (v1 ) 6= T (v2 ). T è suriettiva se ogni elemento del codominio ha una controimmagine,
ovvero se per ogni w ∈ W esiste v ∈ V tale che T (v) = w. T è biiettiva se è sia iniettiva che suriettiva.
Esempio 5.2. Sia V uno spazio vettoriale n-dimensionale e sia B = {v1 , v2 , . . . , vn } una base di V .
L’applicazione T : V −→ Rn che associa ad ogni v ∈ V le sue coordinate rispetto alla base B scelta. Si
mostra facilmente che T è un’applicazione lineare, iniettiva e suriettiva, quindi biiettiva.
4
Esempio 5.3. Sia V lo spazio vettoriale delle funzioni infinitamente volte differenziabili, V = C∞ e
consideriamo l’operatore di derivazione D : V −→ V . D è chiaramente un’applicazione lineare. Essa non
è né iniettiva né suriettiva.
4
Definizione 5.4. Sia T : V −→ W una applicazione lineare. Poniamo:
ker(T ) := {v ∈ V : T (v) = 0W }.
Ricordiamo che l’immagine di una applicazione T : V −→ W , e quindi in particolare anche di una
applicazione lineare, è definita ponendo
Im(T ) := {w ∈ W : ∃v ∈ V tale che T (v) = w} = {T (v) : v ∈ V }.
Valgono le seguenti proposizioni:
Proposizione 5.5. Sia T : V −→ W una applicazione lineare. Allora ker(T ) è un sottospazio vettoriale
di V e Im(T ) è un sottospazio vettoriale di W .
Proof. Proviamo che ker(T ) è un’applicazione lineare. Siano v1 , v2 vettori appartenenti al nucleo e sia
k un numero reale. Consideriamo la somma v1 + v2 . Si ha dalla definizione di ker(T ):
T (v1 + v2 ) = T (v1 ) + T (v2 ) = 0W + 0W = 0W ,
cioè v1 + v2 ∈ ker(T ). Inoltre anche kv1 ∈ ker(T ) in quanto:
T (kv1 ) = kT (v1 ) = k0W = 0W .
Segue quindi che ker(T ) è un sottospazio vettoriale di V .
35
Siano ora w1 , w2 vettori appartenenti all’immagine di T e sia k un numero reale. Siano v1 , v2 ∈ V tali
che T (v1 ) = w1 e T (v2 ) = w2 . Allora:
w1 + w2 = T (v1 ) + T (v2 ) = T (v1 + v2 )
e
kw1 = kT (v1 ) = T (kv1 ).
Segue che w1 + w2 e kw1 appartengono all’immagine di T e quindi che Im(T ) è un sottospazio vettoriale
di W .
Proposizione 5.6. Un’applicazione lineare T : V −→ W è iniettiva se e solo se ker(T ) = {0V }.
Proof. Supponiamo T iniettiva e sia v ∈ ker(T ). Poiché T (v) = T (0V = 0W per l’iniettività di T segue
v = 0V .
Supponiamo ora che ker(T ) = {0V } e siano v1 , v2 ∈ V con T (v1 ) = T (v2 ). Allora T (v1 − v2 ) =
T (v1 ) − T (v2 ) = 0W , cioè v1 − v2 ∈ ker(T ). Quindi v1 − v2 = 0V , da cui v1 = v2 , ovvero T è
iniettiva.
Dalla definizione di Im(T ) si ha ovviamente che T è suriettiva se e solo se Im(T ) = W .
Un’applicazione lineare è detta anche omomorfismo. Se essa è iniettiva allora è un monomorfismo, se
suriettiva è un epimorfismo e se biiettiva è un isomorfismo. Un’applicazione lineare di uno spazio in
sé è detta endomorfismo mentre con il termine automorfismo si intende un isomorfismo di uno spazio
vettoriale in sé stesso.
Date due applicazioni lineari T, T 0 : V −→ W , definiamo la somma T + T 0 ponendo, per ogni v ∈ V :
(T + T 0 )(v) := T (v) + T 0 (v).
Si verifica facilmente che T + T 0 è una applicazione lineare. Inoltre se k ∈ R possiamo definire
un’applicazione lineare kT : V −→ W , ponendo, per ogni v ∈ V :
(kT )(v) := k(T (v)).
Proposizione 5.7. Siano V, W due spazi vettoriali. L’insieme
Hom(V, W ) := {T : V −→ W : T è un’applicazione lineare},
con le operazioni di somma e moltiplicazione per uno scalare definite precedentemente e vettore nullo
l’applicazione lineare che associa ad ogni vettore v il vettore nullo in W , è uno spazio vettoriale. Se
W = V scriveremo End(V ) al posto di Hom(V, V ).
Teorema 5.8. Siano V, W spazi vettoriali finito dimensionali e sia T : V −→ W un’applicazione lineare.
Allora
dim(V ) = dim(ker(T )) + dim(Im(T )).
Proof. Se Im(T ) = {0W } allora V = ker(T ) e quindi in tal caso il risultato è ovvio. Sia s = dim(Im(T ))
e sia {w1 , w2 , . . . , ws } una base di Im(T ). Siano v1 , v2 , . . . , vs vettori di V tali che T (vi ) = wi per
ogni i ∈ {1, 2, . . . , s}.
Sia ora q = dim(ker(T )) e {u1 , u2 , . . . , uq } una base di ker(T ).
Dimostriamo che {u1 , u2 , . . . , uq , v1 , v2 , . . . , vs } è una base di V . Dobbiamo quindi mostrare che:
(1) i vettori u1 , u2 , . . . , uq , v1 , v2 , . . . , vs sono linearmente indipendenti;
(2) i vettori u1 , u2 , . . . , uq , v1 , v2 , . . . , vs generano V .
36
Siano a1 , a2 , . . . , aq , b1 , b2 , . . . , bs scalari tali che:
a1 u1 + a2 u2 + · · · + aq uq + b1 v1 + b2 v2 + · · · + bs vs = 0V .
(10)
Poiché {u1 , u2 , . . . , uq } è una base di ker(T ) e T (vi ) = wi per ogni i ∈ {1, 2, . . . , s} vale:
0W = T (0V ) = T (a1 u1 + a2 u2 + · · · + aq uq + b1 v1 + b2 v2 + · · · + bs vs )
= a1 T (u1 ) + a2 T (u2 ) + · · · + aq T (uq ) + b1 T (v1 ) + b2 T (v2 ) + · · · + bs T (vs )
= b1 w1 + b2 w2 + · · · + bs ws .
Essendo i vettori w1 , w2 , . . . , ws linearmente indipendenti (essi formano una base di Im(T )) si ha che
b1 = b2 = · · · = bs = 0. Sostituendo tali valori in (10) otteniamo:
a1 u1 + a2 u2 + · · · + aq uq = 0V .
I vettori u1 , u2 , . . . , uq sono linearmente indipendenti, da cui a1 = a2 = · · · = aq = 0 e quindi i vettori
u1 , u2 , . . . , uq , v1 , v2 , . . . , vs sono linearmente indipendenti.
Dimostriamo ora che gli stessi vettori costituiscono un sistema di generatori di V . Sia v ∈ V . Allora
T (v) ∈ Im(T ). Essendo {w1 , w2 , . . . , ws } una base di Im(T ) esistono coefficienti b1 , b2 , . . . , bs ∈ R tali
che T (v) = b1 w1 + b2 w2 + · · · + bs ws . Ma per ogni i = 1, 2, . . . , s wi = T (vi ). Pertanto:
T (v) = b1 T (v1 ) + b2 T (v2 ) + · · · + bs T (vs ) = T (b1 v1 + b2 v2 + · · · + bs vs ),
da cui
0W = T (v) − T (b1 v1 + b2 v2 + · · · + bs vs ) = T (v − b1 v1 − b2 v2 − · · · − bs vs ).
Quindi v − b1 v1 − b2 v2 − · · · − bs vs ∈ ker(T ) ed esistono pertanto scalari a1 , a2 , . . . , aq tali che:
v − b1 v1 − b2 v2 − · · · − bs vs = a1 u1 + a2 u2 + · · · + aq uq .
Dunque v = a1 u1 + a2 u2 + · · · + aq uq + b1 v1 + b2 v2 + · · · + bs vs . Questo prova la tesi.
Corollario 5.9. Siano V, W spazi vettoriali finito dimensionali tali che dim(V ) = dim(W ) e sia T :
V −→ W un’applicazione lineare. Allora T è iniettiva se e solo se è suriettiva.
Siano U, V, W spazi vettoriali reali e siano T : U −→ V , S : V −→ W due applicazioni lineari. La
composizione di S e T è l’applicazione S ◦ T : U −→ W definita ponendo, al variare di u ∈ U :
S ◦ T (u) = S(T (u)).
L’applicazione S ◦ T è ancora lineare.
Proposizione 5.10. Siano U, V, W spazi vettoriali reali,
T1 , T2 : U −→ V
and
S1 , S2 : V −→ W
applicazioni lineari e k ∈ R. Allora:
• S1◦ (T1 + T2 ) = S1◦ T1 + S1◦ T2 ;
• (S1 + S2 ) ◦ T1 = S1◦ T1 + S2◦ T1 ;
• (kS1 ) ◦ T1 = S1◦ (kT1 ) + k(S1◦ T1 ).
Si noti che se S, T : V −→ V sono due endomorfismi allora esistono S ◦ T e T ◦ S ma in generale
S ◦ T 6= T ◦ S.
Inoltre se T è un endomorfismo allora T si può comporre con sé stesso. Possiamo quindi definire T n
come il risultato della composizione di T con sé stesso n volte:
Tn = T
|
◦
·{z
· · ◦ T}
n
37
Proposizione 5.11. Sia T : V −→ W un’applicazione biettiva. Allora l’applicazione inversa S : V −→
W è lineare.
5.2. Applicazioni lineari e matrici.
Cominciamo questa sezione con un esempio.
Esempio 5.12. Sia



A=


a11
a21
..
.
am1
a12
a22
..
.
am2
···
···
..
.
···
a1n
a2n
..
.
amn






una matrice m × n. Possiamo associare ad A un’applicazione lineare TA : Rn −→ Rm ponendo:


x1


 x2 

TA (x1 , x2 , . . . , xn ) := A  . 
.
 .. 
xn
La linearità di TA segue dalle proprietà del prodotto di matrici.
4
Viceversa siano V, W spazi vettoriali con basi rispettivamente {v1 , v2 , . . . , vn } e {w1 , w2 , . . . , wm } e
sia T : V −→ W una applicazione lineare. Costruiamo la matrice MT associata all’applicazione lineare
T rispetto alle basi scelte nel seguente modo. Al variare di i in {1, 2, . . . , n} la i-esima colonna di MT
è costituita dalle coordinate del vettore vi ∈ W rispetto alla base {w1 , w2 , . . . , wm }.
Per fissare le idee consideriamo il caso in cui V = Rn e W = Rm . Quanto verificheremo per tale
particolare esempio è generalizzabile al caso di generici spazi vettoriali finito dimensionali V e W .
Fissiamo su Rn e Rm le basi canoniche. Sia ora T : Rn −→ Rm un’applicazione lineare, v = (x1 , x2 , . . . , xn ) ∈
Rn e sia w = (y1 , y2 , . . . , ym ) := T (v) ∈ Rm .
Dalle proprietà di linearità di T , segue:






y1
y2
..
.
ym




 = T (v) = x1 T (e1 ) + x2 T (e2 ) + · · · + xn T (en ) = MT







x1
x2
..
.
xn



,


dove MT è la matrice le cui colonne sono i vettori T (e1 ), T (e2 ), . . . , T (en ).
Dall’uguaglianza T (v) = x1 T (e1 )+x2 T (e2 )+· · ·+xn T (en ) notiamo che i vettori T (e1 ), T (e2 ), . . . , T (en )
costituiscono un sistema di generatori per Im(T ). Il nucleo di T è l’insieme dei vettori (x1 , x2 , . . . , xn ) ∈
Rn tali che:
38
 
0
x1
 

 x2   0
 
MT 
 ..  =  ..
 .   .
0
xn
con lo spazio delle soluzioni del sistema lineare omogeneo la




,


cui matrice dei coefficienti è MT .
0
Sia T : V −→ W un’applicazione lineare. Siano {v1 , v2 , . . . , vn }, {v10 , v20 , . . . , vn
} basi di V e
0
0
0
{w1 , w2 , . . . , wm }, {w1 , w2 , . . . , wm } basi di W , con matrici cambio di base C e D rispettivamente.
Siano ancora A, A0 le due matrici associate a T rispetto alle basi {v1 , v2 , . . . , vn }, {w1 , w2 , . . . , wm }
0
0
e {v10 , v20 , . . . , vn
}, {w10 , w20 , . . . , wm
}.
Se v ∈ V ha coordinate (x1 , x2 , . . . , xn ) rispetto alla base {v1 , v2 , . . . , vn } e (x01 , x02 , . . . , x0n ) rispetto
0
alla base {v10 , v20 , . . . , vn
} e T (v) ha coordinate (y1 , y2 , . . . , ym ) rispetto alla base {w1 , w2 , . . . , wm }
0
0
0
0
e (y1 , y2 , . . . , ym ) rispetto alla base {w10 , w20 , . . . , wm
} allora sussistono le seguenti relazioni:


 0 
 0 


x1
y1
x1
y1
 0 
 0 




 x 
 y 
 x2 
 y2 
 .  = A  .  e  .2  = A0  .2  .
 . 
 . 
 . 
 . 
 . 
 . 
 . 
 . 
0
x0n
ym
xn
ym
Inoltre poiché:






x01
x02
..
.
x0n




 = C −1







x1
x2
..
.
xn












e
y10
y20
..
.
0
ym




 = D−1







y1
y2
..
.
ym



,


segue

D
−1





y1
y2
..
.
ym




 = A0 C −1







x1
x2
..
.
xn



,


da cui






y1
y2
..
.
ym




 = DA0 C −1







x1
x2
..
.
xn



.


Pertanto A = DA0 C −1 ed equivalentemente A0 = DAC −1 .
0
Nel caso speciale in cui V e W coincidono, fissate le basi {v1 , v2 , . . . , vn }, {v10 , v20 , . . . , vn
} di V con
matrice di cambio di base C, allorain tal caso:
A0 = C −1 AC.
Definizione 5.13. Due matrici quadrate di ordine n A e A0 sono simili se esiste una matrice invertibile
C tale che A0 = C −1 AC.
Vale il seguente teorema:
Teorema 5.14. La similitudine è una relazione di equivalenza.
Dal teorema di Binet segue il seguente risultato:
Proposizione 5.15. Due matrici simili hanno lo stesso determinante.
39
6. Diagonalizzazione di matrici
6.1. Problema di diagonalizzazione.
Nello studio di un endomorfismo particolarmente interessante è analizzare gli spazi che sono invarianti
rispetto a tale applicazione. Tale analisi prende il nome di teoria spettrale. In questa sezione ne studieremo
alcuni aspetti basilari con particolare riferimento a spazi vettoriali reali di dimensione finita.
Definizione 6.1. Sia V uno spazio vettoriale reale finito dimensionale e sia T : V −→ V un’applicazione
vettoriale di V in sé (endomorfismo). Un autovettore di T è un vettore non nullo v ∈ V \ {0} per cui
esiste uno scalare λ ∈ R tale che:
T (v) = λv.
In tal caso λ è detto autovalore di T relativo all’autovettore v o equivalentemente che v è un autovettore
di T con autovalore λ. L’insieme di tutti gli autovalori di T è detto spettro di T .
Osserviamo che se v è un autovettore di T , il suo autovalore è univocamente determinato: infatti se fosse
T (v) = λ1 v = λ2 v allora 0 = λ1 v −λ2 v = (λ1 −λ2 )v, da cui, poiché v 6= 0, λ1 −λ2 = 0 e quindi λ1 = λ2 .
Inoltre se v è un autovettore di un endomorfismo T con autovalore λ e k ∈ R uno scalare diverso da 0
allora kv è anch’esso un autovettore di T con autovalore λ.
Più in generale vale la seguente:
Proposizione-Definizione 6.2. Sia T : V −→ V un endomorfismo e sia λ ∈ R un autovalore di T .
Poniamo:
Aλ := {v ∈ V : T (v) = λv}.
Allora Aλ è un sottospazio vettoriale di V , detto autospazio di T relativo all’autovalore λ.
Introduciamo anche il seguente risultato.
Proposizione 6.3. Sia T : V −→ V un endomorfismo, v1 , v2 , . . . , vr autovettori di T con distinti
autovalori λ1 , λ2 , . . . , λr . Allora i vettori v1 , v2 , . . . , vr sono linearmente indipendenti.
Proof. Omessa.
Se V è uno spazio vettoriale n-dimensionale su R e {v1 , v2 , . . . , vn } è una base di V , allora esiste
una corrispondenza biunivoca tra endomorfismi di V e matrici ad entrate reali di tipo n × n ottenuta
associando ad ogni endomorfismo la sua matrice associata rispetto alla base {v1 , v2 , . . . , vn } e viceversa
ad ogni matrice A n × n l’applicazione v 7→ Av.
Se T : V −→ V è un endomorfismo di V , con matrice associata A rispetto ad una base fissata
{v1 , v2 , . . . , vn } di V allora uno scalare λ è un autovalore di T se e solo se esiste v ∈ V \ {0} tale
che, se (x1 , x2 , . . . , xn ) sono le coordinate di v rispetto alla base scelta, allora:




x1
x1




 x2 
 x2 



A .  = λ . 
.
 .. 
 .. 
xn
xn
40
In tal caso si ottiene



A


x1
x2
..
.
xn

x1
x2
..
.
xn



x1
x2
..
.
xn




 − λ






 = 0,


da cui



A







 − λI 




x1
x2
..
.
xn





=0


e quindi


(A − λI) 


x1
x2
..
.
xn


 = 0.


Pertanto λ è un autovalore di T se e solo se il sistema lineare omogeneo con matrice dei coefficienti A−λI
è compatibile e indeterminato e questo si verifica se e solo se A − λI è singolare, ovvero det(A − λI) = 0.
Se λ è uno scalare generico, il determinante di A − λI è un polinomio in λ di grado n, detto polinomio
caratteristico di A. L’equazione che si ottiene eguagliando a 0 il determinante di A − λI è detta
equazione caratteristica di T (o di A). La molteplicità di λ come radice dell’equazione caratteristica è
la molteplicità algebrica di λ. La dimensione di Aλ come sottospazio vettoriale di V è la molteplicità
geometrica.
Questa definizione di polinomio caratteristico e quindi di equazione caratteristica è ben posta se matrici
associate al medesimo endomorfismo rispetto a basi differenti hanno lo stesso polinomio caratteristico.
Abbiamo visto alla fine della sezione precedente che due tali matrici sono simili. Siano A e A0 due matrici
simili e sia C una matrice invertibile tale che A0 = C −1 AC. Allora:
det(A0 − λI) = det[C −1 AC − λI] =
= det[C −1 AC − C −1 (λI)C] =
= det[C −1 (A − λI)C] =
= det(A − λI),
ovvero matrici simili hanno lo stesso polinomio caratteristico.
Un minore di ordine k di una matrice quadrata A è detto principale se i termini principali della sottomatrice di A di cui esso è il determinante sono termini principali di A.
Proposizione 6.4. Sia A una matrice di ordine n. Il polinomio caratteristico di A è:
p(λ) = (−1)n λn + c1 λn−1 + · · · + cn−1 λ + cn ,
dove i coefficienti ck sono dati da:
ck = (−1)n−k
X
Mk ,
dove la somma è estesa ai minori principali di A di ordine k. In particolare abbiamo c1 = (−1)n−1 tr(A)
e cn = det(A).
Se una matrice A ha forma diagonale, ovvero gli unici elementi della matrice che possono essere diversi
da 0 sono i suoi elementi principali a11 , a22 , . . . , ann allora tali elementi sono gli autovalori della matrice.
Introduciamo ora il seguente problema noto con il termine: Problema di diagonalizzazione.
41
PROBLEMA DI DIAGONALIZZAZIONE - Data un endomorfismo T di uno spazio vettoriale
finito dimensionale V , esiste una base di V tale che la matrice associata a T rispetto a questa base è
diagonale? Se il problema ha risposta affermativa diremo T diagonalizzabile.
Dal punto di vista delle matrici la questione diventa: data una matrice quadrata A di ordine n, esiste una
matrice invertibile P dello stesso ordine tale che P −1 AP è diagonale? Ancora diremo A diagonalizzabile
se la risposta alla precedente domanda è sı̀.
Il seguente fondamentale teorema fornisce una condizione necessaria e sufficiente affinché una matrice A
(e quindi un endomorfismo) sia diagonalizzabile.
Teorema 6.5. Una matrice quadrata di ordine n A è diagonalizzabile se e solo se esiste una base di Rn
formata da autovettori di A.
Proof. Assumiamo A diagonalizzabile. Allora dalla definizione esiste P matrice invertibile con D =
P −1 AP diagonale. Siano p1 , p2 , . . . , pn le colonne di P e siano λ1 , λ2 , . . . , λn gli elementi sulla diagonale di D. Si noti che P D e AP sono le la matrici n × n le cui colonne sono rispettivamente i vettori λi pi
e Api , i = 1, 2, . . . , n. Ma D = P −1 AP implica P D = AP e quindi i vettori pi sono gli autovettori di A
con autovalori λi . Poiché P è invertibile allora il rango di P è massimo ovvero i vettori p1 , p2 , . . . , pn
sono linearmente indipendenti. Essi pertanto costituiscono una base Rn e la prima implicazione è provata.
Supponiamo ora che {p1 , p2 , . . . , pn } sia una base di Rn costituita da autovettori, con pi autovettore
di A con autovalore λi . Allora si vede facilmente che la matrice P le cui colonne sono proprio i vettori
p1 , p2 , . . . , pn è tale che P −1 AP sia la matrice diagonale


λ1 0 · · · 0


 0 λ2 · · · 0 

D= .
..
.. 
..
.
.
 ..
.
. 
0
0 · · · λn
Questo completa la dimostrazione.
Vale inoltre anche il seguente importante risultato che comunque non dimostriamo.
Teorema 6.6. Sia A una matrice quadrata e λ un autovalore di A. Allora la molteplicità algebrica di λ
è sempre maggiore o uguale della molteplicit à geometrica dello stesso autovalore. Se vale l’uguaglianza
l’autovalore è detto regolare.
Corollario 6.7. Una matrice quadrata di ordine n A è diagonalizzabile (in R) se la somma delle
molteplicità algebriche dei suoi autovalori è n e se tutti i suoi autovalori sono sono regolari.
Proof. Scegliamo una base di ciascun autospazio. In virtù del Teorema 6.6 e della Proposizione 6.3
l’unione delle basi scelte per ogni autospazio costituisce una base di Rn . Il corollario segue pertanto dal
Teorema 6.5.
Corollario 6.8. Ogni autovalore semplice, ovvero la cui molteplicità algebrica è pari ad 1, è regolare.
Proof. Infatti se A è una matrice quadrata e λ è un autovalore semplice di A allora, indicando con
m. a.(λ) e con m. g.(λ) rispettivamente le molteplicità algebrica e geometrica dell’autovalore λ, si ha:
1 ≤ m. g.(λ) ≤ m. a.(λ) = 1,
da cui m. g.(λ) = m. a.(λ) = 1.
Corollario 6.9. Se una matrice quadrata di ordine n A ha n autovalori distinti allora A è diagonalizzabile.
42
Proof. Il risultato segue immediatamente dai due corollari precedenti.
6.2. Caso delle matrici simmetriche.
Ricordiamo che una matrice quadrata è simmetrica se uguale alla sua trasposta, mentre è ortogonale se
la sua inversa è uguale alla sua trasposta. Per tali matrici valgono le seguenti proprietà:
Teorema 6.10. Ogni matrice simmetrica è diagonalizzabile.
Teorema 6.11. Sia A una matrice simmetrica. Se λ1 e λ2 sono distinti autovalori di A, allora autovettori v1 e v2 di A relativi rispettivamente agli autovalori λ1 e λ2 sono ortogonali.
Corollario 6.12. Una matrice simmetrica è diagonalizzabile mediante una matrice ortogonale, ovvero
è ortogonalmente simile ad una matrice diagonale.
Data quindi una matrice A esiste una matrice ortogonale P tale che D = t P AP è diagonale.
Quest’ultimo enunciato si può scrivere nella forma equivalente:
Corollario 6.13. Sia A una matrice simmetrica di ordine n. Allora esiste una base ortogonale di Rn
formata da autovettori di A.
Vale anche il viceversa del Corollario 6.12, ovvero:
Teorema 6.14. Una matrice ortogonalmente simile ad una matrice diagonale reale è simmetrica.
Proof. Sia A una matrice ortogonalmente diagonalizzabile. Siano pertanto D una matrice diagonale e P
una matrice ortogonale tale che:
D = t P AP.
Trasponendo ambo i termini dell’uguaglianza otteniamo:
D = t D = P t At P = P At P,
dove abbiamo utilizzato il fatto che sia A che D sono diagonali. Moltiplicando ora a sinistra per t P e a
destra per P otteniamo t A = A, cioè la tesi.
43
7. Spazi affini e spazi Euclidei
Vogliamo ora applicare le nozioni acquisite di algebra lineare alla geometria euclidea. Introduciamo
pertanto un modello di spazio geometrico che generalizza che generalizza lo spazio reale. Approfondiremo
in seguito il caso dello spazio ordinario.
Definizione 7.1. Sia V uno spazio vettoriale reale. Uno spazio affine su V è un insieme non vuoto
S, i cui elementi si diranno punti, unitamente ad una applicazione
φ : S × S −→ V
−−→
che associa ad ogni coppia di punti (P, Q) ∈ S × S un vettore di φ((P, Q)) = P Q = Q − P ∈ V , detto
vettore di punto inziale P e punto finale Q, che gode delle seguenti proprietà:
−−→
(SA1) per ogni punto P ∈ S e per ogni vettore v ∈ V esiste un unico punto Q ∈ S tale che P Q = v;
(SA2) per ogni terna di punti P, Q, R ∈ S risulta
−→ −−→ −−→
P R = P Q + QR.
−−→
Se (P, Q) ∈ S × S diremo anche che P è il punto di applicazione del vettore P Q.
Dalla proprietà (SA1) segue che, fissato un punto O ∈ S si ottiene in modo naturale una corrispondenza
−−→
biunivoca tra S e V associando ad ogni punto P ∈ S il vettore OP ∈ V . In conseguenza delle propriet‘a
(SA1) e (SA2) seguono la proposizione.
Proposizione 7.2. Sia V uno spazio vettoriale e sia S uno spazio affine su V . Allora, per ogni P, Q ∈ S
−−→
• P Q = 0V se e solo se P = Q;
−−→
−−→
• P Q = −QP .
Esempio 7.3. Sia V uno spazio vettoriale reale. Ponendo
−
→ := w − v
vw
definiamo su V una struttura di spazio affine su sé stesso. Denotiamo V con questa struttura di spazio
affine con Va .
4
Esempio 7.4. Un caso particolare dell’esempio precedente particolarmente interessante è quando V =
Rn per qualche n. Lo spazio affine An := (Rn )a è detto n-spazio affine reale.
4
Definizione 7.5. Sia V uno spazio vettoriale reale di dimensione n e sia S uno spazio affine su V . Un
sistema di riferimento affine è costituito da un punto O ∈ S, detto origine del sistema e da una base
B = {e1 , . . . , en } di V ; esso si indica anche con Oe1 . . . en .
−−→
Sia P ∈ S. Le coordinate del vettore OP rispetto alla base B sono le coordinate affini di P . Se P ha
coordinate a1 , . . . , an scriveremo in breve P (a1 , . . . , an ). Notiamo che se P (a1 , . . . , an ), Q(b1 , . . . , bn ) ∈ S
−−→
il vettore P Q ha (b1 − a1 , . . . , bn − an ) come n-upla di coordinate rispetto alla base B.
Definizione 7.6. Sia S uno spazio affine su uno spazio vettoriale V , con struttura fornita dall’applicazione
φ : S × S −→ V . Un sottoinsieme S0 di S è un sottospazio affine se esiste un sottospazio vettoriale
V 0 tale che la restrizione di φ a S0 × S0 induce su S0 la struttura di spazio affine su V 0 . In tal caso lo
44
spazio vettoriale V 0 è detto spazio direttore o più semplicemente direzione o ancora giacitura del
sottospazio affine S0 .
Sia S uno spazio affine su uno spazio vettoriale V e sia S0 un sottospazio affine di S. Se dim(S0 ) = 0
allora S0 è costituito da un solo punto. Vale anche il viceversa ovvero ogni sottoinsieme di S costiutito
da un solo punto è un sottospazio affine di S 0-dimensionale. Se dim(S0 ) = 1 (dim(S0 ) = 2) allora S0 è
una retta di S (piano di S). Se dim(S0 ) = dim(S) − 1 allora S0 è detto iperpiano di S.
Nota 7.7. Dalla definizione di sottospazio affine notiamo che per dare un sottospazio affine S0 di un
sottospazio affine di S è sufficiente dare un suo punto P0 e la sua giacitura. Infatti i punti di S0 sono
−−→
esattamente i punti P di S tali che il vettore P0 P appartiene alla giacitura di S0 .
Analizziamo ora la posizione reciproca tra due sottospazi affini di uno spazio affine S.
Definizione 7.8. Sia S uno spazio affine su uno spazio vettoriale V e siano S0 , S00 sottospazi affini di S.
• S0 , S00 sono incidenti se S0 ∩ S00 6= ∅.
• S0 , S00 sono paralleli se gli spazi direttori sono uno contenuto nell’altro.
• S0 , S00 sono sghembi se non sono né incidenti né paralleli.
Studiamo ora i due principali modi di rappresentare algebricamente un sottospazio affine.
Sia S uno spazio affine su uno spazio vettoriale V e sia Oe1 . . . en un sistema di riferimento affine su S.
Sia S0 un sottospazio affine m-dimensionale di S con giacitura V 0 e sia P0 un punto arbitrario di S0 . Lo
spazio S0 è il luogo dei punti P di S tali che
(11)
−−→
P0 P ∈ V 0 .
Fissiamo una base B0 = {e01 , . . . , e0m }. Da (11) si ottiene che per ogni P ∈ S0 esistono (e sono unicamente
determinati) scalari t1 , . . . , tm tali che
−−→ −−→
OP = OP0 + t1 e01 + · · · + tm e0m .
Esplicitando le singole coordinate otteniamo una rappresentazione parametrica del sottospazio affine.
Da tali equazioni, “eliminando” i parametri osserviamo che un punto P ∈ S è in S0 se e solo se le sue
coordinate soddisfano un sistema lineare di n − m equazioni in n incognite. Viceversa si vede facilmente
che lo spazio delle soluzioni di un sistema lineare costituisce un sottospazio affine di un dato (Rn )a . Questa
rappresentazione è nota come rappresentazione cartesiana. In particolare notiamo che un iperpiano di
(Rn )a è dato come soluzione di un’unica equazione lineare in n incognite x1 , . . . , xn . In questa ottica
possiamo vedere un sottospazio affine come intersezione di più iperpiani affini.
Quando lo spazio V è dotato di prodotto interno (·, ·) : V × V −→ R (come nel caso di Rn ) lo spazio ad
esso associato Va è detto spazio euclideo. Attraverso il prodotto scalare si definisce quindi una metrica
in Va . Dati due punti P (a1 , . . . , an ) e Q(b1 , . . . , bn ) la distanza tra P e Q è data da:
−−→ −−→
d(P, Q) = (P Q, P Q).
Inoltre attraverso il prodotto scalare è possibile definire l’ortogonalità tra due vettori (vettori geometrici)
e l’angolo tra due vettori.
45
7.1. Geometria nel piano affine.
Studiamo ora più in dettaglio il piano euclideo A2 = (R2 )a . Fissiamo quindi un punto O in R2 e sia
−−→
{e1 , e2 } la base canonica. Un generico vettore v = OP si scriverà:
−−→
v = OP = xe1 + ye2 ,
−−→
dove x, y sono le componenti del vettore OP e simultaneamente le coordinate affini del punto P .
Il punto O è l’origine del sistema di riferimento, le rette per O di giaciture he1 i e he2 i sono gli assi
coordinati (dette altresı̀ ascissa ed ordinata o più semplicemente asse x e asse y).
−−→
Se P (x1 , y1 ) e Q(x2 , y2 ) sono punti nel piano affine, il vettore P Q avrà componenti
(x2 − x1 , y2 − y1 ).
Consideriamo ora una retta nel piano. Per rappresentarlo possiamo utilizzare come usuale la rappresentazione parametrica e la rappresentazione cartesiana.
Sia r una retta nel piano affine, sia v = (l, m) un vettore preso come base dello spazio direttore di r
(detto anche vettore direttore o vettore di direzione) e sia P0 (x0 , y0 ) un punto di r. Un generico punto
P (x, y) si può scrivere in forma vettoriale:
−−→ −−→
r : OP = OP0 + tv
t ∈ R.
Esplicitando le coordinate si ottiene:
(12)
r:


 x = x0 + lt


t ∈ R.
y = y0 + mt
Queste sono le equazioni parametriche della retta r passante per il punto P e avente vettore di
direzione v = (l, m). Al variare di t in R esse forniscono le coordinate di tutti i punti della retta.
Esempio 7.9. Consideriamo il problema di determinare l’equazione in forma parametrica della retta
r passante per due punti distinti P (x1 , y1 ) e Q(x2 , y2 ). Poiché i due punti appartengono alla retta il
−−→
vettore P Q appartiene allo spazio direttore della retta stessa. Essendo i due punti distinti tale vettore
è diverso dal vettore nullo e pertanto costituisce una base dello spazio direttore di r. Ricordiamo che il
−−→
vettore P Q si trova facendo la differenza delle coordinate dei due punti, cioè
−−→
P Q = Q − P = (x2 − x1 , y2 − y1 ).
L’equazione in forma parametrica di r è quindi data da:


 x = x1 + (x2 − x1 )t
r:


y = y1 + (y2 − y1 )t
t ∈ R.
−−→
Per esempio se P (1, 2) e Q(−1, 4) allora la retta r per P e Q ha vettore direttore dato da v = P Q =
Q − P = (−2, 2) e quindi la retta r ha equazione parametrica:


 x = 1 − 2t
r:
t ∈ R.


y = 2 + 2t
4
46
Dalle equazioni (12), “eliminando” il parametro t si ottiene l’equazione lineare:
(13)
m(x − x0 ) = l(y − y0 ).
Ponendo a := m, b := −l e c = −mx0 + ly0 l’equazione assume la forma nota:
r : ax + by + c = 0,
dove a, b non sono entrambi nulli.
Essa viene detta equazione cartesiana (o affine) della retta r. Viceversa data un’equazione lineare del
tipo ax + by + c = 0, nella quale a e b non sono entrambi nulli, è facile verificare che le sue soluzioni sono
date da:

 x = x0 − bt

t ∈ R,


y = y0 + at
dove (x0 , y0 ) corrisponde ad una soluzione particolare dell’equazione. Possiamo quindi interpretare
l’equazione lineare ax + by + c = 0 come l’equazione in forma cartesiana della retta passante per un
punto le cui coordinate (x0 , y0 ) sono una particolare soluzione dell’equazione ed avente come vettore di
direzione il vettore v = (−b, a).
Sussiste quindi una corrispondenza tra equazioni lineari in due variabili e rette nel piano affine (R2 )a .
Vale cioè la:
Proposizione 7.10. In coordinate affini x e y una retta è rappresentata in forma cartesiana da un’equazione
lineare in x e y; viceversa un’equazione lineare rappresenta una retta.
Si noti che tale corrispondenza non è biunivoca. Infatti mentre un’equazione lineare individua una ben
determinata retta, ad una retta del piano possiamo associare più equazioni lineari. Esse comunque devono
essere equivalenti, ovvero devono avere le stesse soluzioni (lo spazio delle soluzioni coincide con l’insieme
dei punti della retta).
Sia r : ax + by + c = 0 l’equazione di una retta. Se b 6= 0 l’equazione di r può scriversi nella forma:
y = mx + q,
dove m = − ab è il coefficiente angolare della retta r. Tale nome è dovuto al fatto che essa fornisce
informazioni sulla misura dell’angolo α che la retta forma con il semiasse positivo delle ascisse. In
particolare vale m = tg(α).
Due rette r e s sono parallele se e solo se esse hanno lo stesso spazio direttore, e qundi se e solo se i loro
vettori di direzione sono tra loro proporzionali. Se le rette sono date attraverso le equazioni cartesiane
r : ax + by + c = 0 e s : a0 x + b0 y + c0 = 0 allora r ed s sono parallele se le coppie (a, b) e (a0 , b0 ) sono
in proporzione ovvero se e solo se esiste k ∈ R \ {0} tale che a0 = ka e b0 = kb. Essendo il coefficiente
angolare di una retta dato dal rapporto tra i coefficienti di x e y (cambiato di segno) si osserva facilmente
che due rette parallele hanno lo stesso coefficiente angolare.
Esempio 7.11. Determiniamo le rette passanti per un punto P (0, −1) e parallele rispettivamente alle
rette di equazioni:


 x=3+t
r:
t∈R


y = −7 + 5t
e
s : 2x − 3y + 1 = 0.
47
Il vettore di direzione della retta r è v = (1, 5). La retta r0 passante per P e parallela a r ha equazione
in forma parametrica data da


 x=t
r0 :
t ∈ R.


y = −1 + 5t
Un’equazione della retta r0 in forma cartesiana si ottiene facilmente sostituendo a t il monomio x nella
seconda equazione. Essa è pertanto:
r0 : 5x − y − 1 = 0.
La retta s0 passante per P e parallela a s ha equazione del tipo:
s0 : 2x − 3y + c0 = 0.
Imponendo che le coordinate di P siano soluzioni dell’equazione (tale condizione è nota come condizione
di passaggio di s0 per P o condizione di appartenenza di P ad s0 ) si ottiene c0 = 2. Quindi s0 ha equazione:
s0 : 2x − 3y + 2 = 0.
Possiamo scrivere immediatamente l’equazione in forma parametrica per s0 osservando che un vettore di
direzione di s è dato da v = (l, m) = (−b, a) = (3, 2). L’equazione di s0 in forma parametrica è quindi
data da:

 x = 3t

s0 :
t ∈ R.


y = −1 + 2t
4
Date due rette distinte nel piano r e r0 queste o sono incidenti, cioè si intersecano in un punto, o sono
parallele. Utilizzando il prodotto interno in R2 possiamo avere informazioni sull’angolo compreso tra le
due rette. Esso coincide con l’angolo che i due vettori di direzione formano tra loro se applicati in un
medesimo punto. Se i due vettori direttori sono rispettivamente (l, m) e (l0 , m0 ) allora il coseno dell’angolo
compreso tra le due rette è dato da:
c0 ) = ±
cos(rr
(l, m) · (l0 , m0 )
.
k(l, m)kk(l0 , m0 )k
Se conosciamo l’equazione cartesiana delle due rette:
r : ax + by + c = 0,
r0 : a0 x + b0 y + c0 = 0,
allora i due vettori direttori saranno rispettivamente (−b, a) e (−b0 , a0 ). Il coseno dell’angolo tra loro
compreso è dato da:
c0 ) = ±
cos(rr
aa0 + bb0
(−b, a) · (−b0 , a0 )
√
= ±√
.
0
0
2
k(−b, a)kk(−b , a )k
a + b2 a02 + b02
Due rette sono perpendicolari quando l’angolo tra loro compreso, misurato in senso orario o antiorario
◦
c0 ) = 0. Quindi r è perpendicolare a r0 se i vettori
misura 90 o meglio π2 radianti, ovvero quando cos(rr
direttori sono ortogonali o equivalentemente, se r : ax + by + c = 0 e r0 : a0 x + b0 y + c0 = 0 sono le
0
equazioni affini delle due rette, la quantità aa0 + bb0 = 0. Se i coefficienti angolari m = − ab e m0 = − ab0
di entrambe le rette sono diversi da zero allora r è perpendicolare a r0 se e solo se:
m=−
1
,
m0
o equivalentemente se un vettore direttore di r0 è dato da:
(l0 , m0 ) = (a, b).
48
Esempio 7.12. Determiniamo le rette passanti per un punto P (2, −3) e perpendicolari rispettivamente
alle rette di equazioni:


 x = 1 + 2t
r:
t∈R


y = −1 + t
e
s : x − 2y + 3 = 0.
L’equazione della retta r0 avrà coefficienti a e b tali che il vettore direzione v = (2, 1) di r sia perpendicolare l vettore direttore di r0 , v 0 = (−b, a). Pertanto possiamo prendere a = 2 e b = 1. La retta r0 avrà
equazione:
2x + y + c = 0.
Imponendo la condizione di passaggio di r0 per P , si ottiene c = −1. L’equazione affine di r0 è quindi
data da:
2x + y + −1 = 0.
L’equazione parametrica di r0 sarà pertanto:


 x=2−t
0
r :


y = −3 + 2t
t ∈ R,
avendo preso come vettore direttore il vettore (−b, a) = (−1, 2).
Il vettore direttore di s0 è invece il vettore (1, −2). Quindi un’equazione in forma parametrica di s0 è
data da:
s0 :


 x=2+t


t ∈ R,
y = −3 − 2t
4
Dati due punti P (x1 , y1 ) e Q(x2 , y2 ) nel piano, la distanza tra i due punti coincide con il modulo del
−−→
vettore P Q di punto iniziale P e punto finale Q. Essa vale quindi:
d(P ; Q) = k(x2 − x1 , y2 − y1 )k =
p
(x2 − x1 )2 + (y2 − y1 )2 .
Vogliamo ora calcolare la distanza di un punto da una retta. In generale la distanza tra due insiemi di
punti (entrambi contenuti in uno stesso spazio metrico) è il valore minimo delle distanze tra due punti
appartenenti rispettivamente ai due insiemi. Nel caso considerato ovvero della distanza di un punto
P (x0 , y0 ) da una retta r di equazione ax + by + c = 0 il valore minimo è ottenuto in corrispondenza del
punto di intersezione H di r con la perpendicolare condotta da P a r stessa.
Potremo trovare la retta s perpendicolare a r passante per P , trovare il punto H di intersezione di s e
r e quindi la distanza tra i due punti P e H. Questo procedimento è troppo lungo. Abbiamo strumenti
matematici adeguati per trovare la distanza cercata in modo più rapido. Prendiamo un punto Q(x1 , y1 )
−−→
appartenente alla retta r e consideriamo il vettore QP = P − Q. Abbiamo visto precedentemente che un
vettore perpendicolare al piano è il vettore n = (a, b). La distanza punto retta è proprio la norma del
−−→
vettore proiezione di QP lungo la direzione individuata da n.
Essa pertanto vale:
−−→
QP · n (x − x , y − y ) · (a, b) |ax + by − ax − by |
|ax0 + by0 + c|
0
1 0
1
0
1
1
=
√
√0
√
(14) d(P ; r) = n = =
,
2
2
2
2
knk2 a +b
a +b
a2 + b2
49
essendo Q(x1 , y1 ) un punto della retta r.
Torniamo per un attimo al semplice problema di determinare la retta per due punti P (x1 , y1 ) e Q(x2 , y2 ).
Ogni equazione lineare che ammette come soluzioni le coppie di numeri reali (x1 , y1 ) e (x2 , y2 ) è un’equazione
affine della retta per P e Q. È pertanto possibile scrivere l’equazione della retta r per P e Q in forma di
determinante, ovvero:

x

r : det  x1
x2
y
y1
y2

1

1  = 0.
1
Infatti l’espressione a primo membro è proprio un’espressione lineare in x e y tale che, sostituendo alle
variabili (x1 , y1 ) o (x2 , y2 ) otteniamo il determinante di una matrice avente due righe uguali, cioè 0.
Determiniamo ora l’area di un triangolo in R2 di estremi P1 (x1 , y1 ), P2 (x2 , y2 ) e P3 (x3 , y3 ). Essa sarà
uguale al semiprodotto della lunghezza di un lato per l’altezza ad esso relativa. Sia pertanto b =
p
d(P2 ; P3 ) = (x3 − x2 )2 + (y3 − y2 )2 . La retta r per P2 e P3 ha equazione in forma di determinante
data da:


x y 1


r : det  x2 y2 1  = 0.
x3 y3 1
Notiamo che in tal caso il coefficiente di x è dato da (y2 −y3 ) mentre il coefficiente di y è dato da (x2 −x3 ).
L’altezza relativa al lato P2 P3 corrisponde alla distanza di P1 dalla retta passante per P2 e P3 . Usando
la formula (14), si ottiene:


x1 y1 1
1


det  x2 y2 1  .
h = d(P1 ; r) = p
2
2
(y3 − y2 ) + (x3 − x2 )
x3 y3 1
Segue quindi che l’area A del triangolo di estremi P1 (x1 , y1 ), P2 (x2 , y2 ) e P3 (x3 , y3 ) è data da:


x1 y1 1
1
1


A = b h = det  x2 y2 1  .
2
2
x3 y3 1
7.2. Geometria nello spazio affine di dimensione 3.
In questa sezione studiamo lo spazio affine A3 = (R3 )a . I suoi sottospazi affini, oltre a sé stesso ed i
suoi punti, sono i piani e le rette. Fissiamo in (R3 )a un sistema di riferimento affine Oe1 e2 e3 dove
−−→
{e1 , e2 , e3 } è una base ortonormale di R3 . Se P è un punto di (R3 )a allora il vettore v = OP si scriverà:
−−→
v = OP = xe1 + ye2 + ze3 ,
−−→
dove x, y, z sono le componenti del vettore OP e simultaneamente le coordinate affini del punto P .
Il punto O è l’origine del sistema di riferimento mentre gli assi coordinati coincidono con le direzioni dei
tre vettori e1 , e2 , e3 e sono detti rispettivamente asse x, asse y e asse z.
−−→
Il vettore P Q individuato dai punti P (x1 , y1 , z1 ) e Q(x2 , y2 , z2 ) avrà componenti
(x2 − x1 , y2 − y1 , z2 − z1 ).
50
Un piano π in A3 passante per un punto P0 (x0 , y0 , z0 ) ha equazione vettoriale
−−→ −−→
π : OP = OP0 + tv + t0 v 0
t, t0 ∈ R.
che si scrive anche in forma scalare come

0 0

 x = x0 + lt + l t
(15)
π:
y = y0 + mt + m0 t0


z = z0 + nt + n0 t0
t, t0 ∈ R,
dove i due vettori v = (l, m, n) e v 0 = (l0 , m0 , n0 ) costiutiscono una base della giacitura V ∈ R3 del piano
considerato. I punti P del piano si ottengono dall’equazione (15) al variare dei parametri t, t0 in R.
I piani individuati dall’origine O(0, 0, 0) e da due vettori presi in {e1 , e2 , e3 } vengono chiamati piani
coordinati. Essi sono il piano xy, il piano yz ed il piano xz.
Esempio 7.13. Consideriamo il problema di determinare l’equazione in forma parametrica del piano π
passante per tre punti non allineati P1 (x1 , y1 ), P2 (x2 , y2 ) e P3 (x3 , y3 ). Poiché i tre punti appartengono
−−−→ −−−→
al piano ma non ad una stessa retta i vettori P1 P2 e P1 P3 (più in generale due vettori congiungenti
coppie distinte di punti presi tra P1 , P2 e P3 ) costituiscono una base dello spazio direttore del piano π.
Pertanto, posto:
−−−→
v := P1 P2 = P2 − P1 = (x2 − x1 , y2 − y1 )
e
−−−→
v 0 := P1 P3 = P3 − P1 = (x3 − x1 , y3 − y1 )
L’equazione in forma parametrica di π è quindi data da:

0

 x = x0 + (x2 − x1 )t + (x3 − x1 )t
π:
y = y0 + (y2 − y1 )t + (y3 − y1 )t0


z = z0 + (z2 − z1 )t + (z3 − z1 )t0
t, t0 ∈ R.
Per esempio se P1 (−1, 0, 2), P2 (3, 1, 0) e P3 (1, −1, 4) allora il piano π per P1 , P2 e P3 ha direzione
−−−→
−−−→
individuata dai vettori v = P1 P2 = P2 − P1 = (4, 1, −2) e v 0 = P1 P3 = P3 − P1 = (2, −1, 2). Il piano π
ha equazione parametrica:

 x = x0 + 4t + 2t0

π:
y = y0 + t − t0
t, t0 ∈ R.


0
z = z0 − 2t + 2t
4
Scriviamo ora l’equazione, in forma affine, del piano π passante per un punto P (x0 , y0 , z0 ) avente giacitura
V = hv, v 0 i dove v = (l, m, n) e v 0 = (l0 , m0 , n0 ). Sia P (x, y, z) un punto del piano π. I vettori
−−→
P0 P = (x − x0 , y − y0 , z − z0 ), v e v 0 appartengono tutti alla giacitura di π, che ha dimensione 2.
Pertanto essi sono linearmente dipendenti. Consideriamo la matrice:


x − x0 y − y0 z − z0


A=
l
m
n
.
0
0
0
l
m
n
−−→
I tre vettori riga di A corrispondono ai vettori P0 P , v e v 0 e quindi A ha rango 2. Il determinante di A
deve pertanto essere uguale a 0. Otteniamo, sviluppando il determinante mediante il metodo do Laplace
rispetto alla prima riga:
(16)
0 = det(A) = (x − x0 )(mn0 − m0 n) + (y − y0 )(−ln0 + l0 n) + (z − z0 )(lm0 − l0 m).
Posto a := (mn0 − m0 n), b := (−ln0 + l0 n), c := (lm0 − l0 m) e d := −x0 (mn0 − m0 n) − y0 (−ln0 + l0 n) −
z0 (lm0 − l0 m) l’equazione 16 è della forma:
(17)
ax + by + cz + d = 0.
51
Viceversa data un’equazione del tipo (17), scritto il suo spazio delle soluzioni utilizzando i parametri,
otteniamo un’espressione del tipo (15).
Essa corrisponde quindi ad un piano affine in A3 .
Come per il caso 2-dimensionale, sussiste quindi una corrispondenza tra equazioni lineari in tre variabili
e piani affini in A3 . Vale cioè la:
Proposizione 7.14. In coordinate affini x, y e z, un piano in A3 è rappresentato in forma cartesiana
da un’equazione lineare in x, y e z; viceversa un’equazione lineare nelle stesse coordinate rappresenta un
determinato piano in A3 .
Si noti che anche in questo caso tale corrispondenza non è biunivoca. Infatti mentre un’equazione lineare
individua un piano, ad un piano nello spazio affine 3-dimensionale possiamo associare più equazioni
lineari. Esse comunque devono essere equivalenti, ovvero devono avere le stesse soluzioni (lo spazio delle
soluzioni coincide con l’insieme dei punti del piano).
Notiamo inoltre che dato un piano attraverso la sua equazione affine ne possiamo trovare una rappresentazione paraetrica “risolvendo” l’equazione ovvero scrivendone lo spazio dele soluzione attraverso due
parametri. Viceversa data la rappresentazione parametrica di un piano, “eliminando” i parametri dal
sistema o attraverso una doppia sostituzione o un procedimento di Gauss otteniamo una rappresetazione
Cartesiana dello stesso piano.
Esempio 7.15. Sia ad esempio π : 3x + 4z − 3 = 0. Risolviamo l’equazione. Poniamo pertanto y uguale
ad un parametro t e z uguale alla quantità 3t0 . Otteniamo pertanto, al variare di t e t0 in R lo spazio
delle soluzioni dell’equazione. L’equazione in forma parametrica di π è quindi data da

0

 x = −4t + 1
π:
y=t
t, t0 ∈ R.


0
z=t
Viceversa, dato il piano α attraverso un’equazione in forma parametrica, ad esempio

0

 x = 2t − t + 1
α:
y = 2t0 − 5
t, t0 ∈ R.


0
z = −3t + 2t − 2
per determinarne un’equazione in forma cartesiana, ne riscriviamo l’equazione parametrica nella forma

0

 2t − t − x = −1
0
α:
2t − y = 5


−3t + 2t0 − z = 2
Abbiamo in un certo senso ‘promosso’ i parametri a variabili.
è la seguente

2 −1 −1 0
0

2
0 −1 0
 0
−3 2
0
0 −1
La matrice completa associata al sistema

−1

5 .
2
Attraverso l’algoritmo di Gauss è possibile ridurre tale matrice nella forma a scala:


2 −1 −1 0
0 −1


 0 1 −3 0 −2 1  .
0 0
6 −1 4
3
L’equazione 6x − 3y + 4 = 3 è l’equazione del piano in forma affine.
4
52
Esempio 7.16. Consideriamo il problema di determinare l’equazione in forma Cartesiana (affine) del
piano π passante per tre punti non allineati P1 (x1 , y1 ), P2 (x2 , y2 ) e P3 (x3 , y3 ). Dall’esempio precedente
−−−→
−−−→
sappiamo che i vettori v := P1 P2 e v 0 := P1 P3 costituiscono una base della giacitura di π. L’equazione
in forma cartesiana del piano π si trova ponendo uguale a zero il determinante della matrice:


x − x1 y − y1 z − z1


(18)
 x2 − x1 y2 − y1 z2 − z1  ,
x3 − x1 y3 − y1 z3 − z1
dove x, y e z sono le coordinate di un generico punto del piano π.
Per esempio se P1 (−1, 0, 2), P2 (3, 1, 0) e P3 (1, −1, 4), come nel precedente esempio, allora l’equazione
cartesiana del piano π per P1 , P2 e P3 ha equazione:


x+1 y z−2


π : det  4
1
−2  = 0,
2
−1
2
ovvero
π : 0(x + 1) − 12y − 6(z − 2) = 0,
che si può scrivere nella forma
π : 2y + z − 2 = 0.
4
Esempio 7.17. Consideriamo ancora la matrice (18) il cui determinante posto uguale a zero è l’equazione
in forma Cartesiana (affine) del piano π passante per tre punti non allineati P1 (x1 , y1 ), P2 (x2 , y2 ) e
P3 (x3 , y3 ). Da semplici calcoli si ottiene che questo determinante è uguale a 0 se e solo se è nullo il
determinante della matrice:


x y z
 x y z 
 1
1
1 
(19)

.
 x2 y2 z2 
x3 y3 z3
Segue il seguente risultato:
Quattro punti P0 (x0 , y0 ), P1 (x1 , y1 ), P2 (x2 , y2 ) e P3 (x3 , y3 ) sono complanari (ovvero appartengono ad
uno stesso piano) se e solo se il determinante della matrice


x0 y0 z0
 x y z 
 1
1
1 


 x2 y2 z2 
x3
y3
z3
è nullo.
4
Esempio 7.18. Osserviamo ora che l’equazione cartesiana di un piano può assumere delle forme particolari in relazione alla sua posizione rispetto al sistema di riferimento scelto.
Se ad esempio i piani passanti per l’origine O sono tutti e soli i piani di equazione:
ax + by + cz = 0,
con a, b e c non tutti nulli.
I piani paralleli ad un asse coordinato sono caratterizzati dal fatto di avere equazione in forma affine
ax + by + cz + d = 0,
53
dove a = 0 o b = 0 o c = 0, ma non vale a = b = c = 0. In particolare se a = 0 allora il piano è parallelo
all’asse x, se b = 0 è parallelo all’asse y, mentre se c = 0 allora il piano è parallelo all’asse z. In tal caso
rispettivamente i vettori e1 , e2 o e3 appartengono alla giacitura del piano.
Se nell’equazione affine del piano “mancano” due variabili anziché una allora il piano è parallelo ad
uno dei piani coordinati. Tali piani hanno pertanto equazione in forma affine del tipo x = costante,
y = costante o z = costante a seconda che il piano sia parallelo rispettivamente al piano yz, xz o xy.
4
Studiamo ora la posizione reciproca tra due piani π : ax + by + cz + d = 0, π 0 : a0 x + b0 y + c0 z + d0 = 0
nello spazio affine A3 . In particolare noi siamo interessati alle possibili intersezioni tra i due piani. A
tale scopo esaminiamo il sistema formato dalle equazioni cartesiane dei due piani:
(
ax + by + cz + d = 0
(20)
a0 x + b0 y + c0 z + d0 = 0
La matrice dei coefficienti A ed il vettore termine noto b sono quindi:
!
!
a b c
−d
A=
b=
.
a0 b0 c0
−d0
Poiché i coefficienti a, b e c non sono tutti nulli (cosı̀ come i coefficienti a0 , b0 e c0 ) il rango della matrice A
e quello della matrice completa AC possono essere uguali a 1 o a 2. Se entrambi sono uguali ad 1, allora
il sistema è compatibile e indeterminato. Necessitiamo in tal caso di due parametri per rappresentarne
lo spazio delle soluzioni. Lo spazio delle soluzioni ha pertanto dimensione (affine) pari a due e quindi
coinciderà con entrambi i piani π e π 0 . I due piani sono quindi coincidenti.
Se rg(A) = 1 e rg(AC ) = 2, allora il sistema è incompatibile. In tal caso i due piani hanno la medesima
giacitura e sono paralleli ma non coincidenti. Notiamo che anche quando i due piani sono coincidenti
essi hanno (ovviamente) la medesima giacitura.
Se invece rg(A) = rg(AC ) = 2, allora il sistema è compatibile e indeterminato con spazio delle soluzioni
avente dimensione affine pari ad 1. Esso coincide pertanto con una retta nello spazio A3 . Notiamo
quindi che a differenza di quello che avviene nel piano affine, per rappresentare una retta occorrono due
equazioni lineari nelle coordinate affini x, y e z. L’equazione (o meglio il sistema di equazioni) (20) dove
il determinante della matrice dei coefficienti A è uguale a due è l’equazione affine di una retta nello
spazio. Notiamo ancora che tale rappresentazione non è univocamente determinata dalla retta stessa.
Ogni sistema lineare di due equazioni nelle coordinate x, y e z equivalente a (20) rappresenta la stessa
retta.
Torniamo al caso di rette tra loro parallele. In tal caso la matrice dei coefficienti A ha rango 1. In tal
caso, moltiplicando al più per una costante non nulla una delle due equazioni (questo non ne modifica
ovviamente lo spazio delle soluzioni), se due piani sono paralleli i primi membri delle loro equazioni si
possono far differire al più per il termine noto.
Esempio 7.19. In virtù di quanto osservato, i piani paralleli al piano π di equazione ax + by + cz + d = 0
sono tutti i piani del tipo:
(21)
ax + by + cz + d0 = 0,
al variare di d0 in R. Se ad esempio vogliamo determinare l’equazione del piano π 0 parallelo al piano π
e passante per il punto P0 (x0 , y0 , z0 ) si procede nel seguente modo. L’equazione di π 0 è del tipo (21)
dove d0 è un opportuno valore reale. Per trovare il valore di d0 imponiamo che le coordinate di P0 sono
soluzioni di (21). Sostituendo x0 , y0 e z0 alle coordinate affini nell’equazione di π 0 si ottiene un’equazione
di primo grado in d0 che risolta ci fornisce il termine noto dell’equazione stessa.
54
Possiamo evitare qualche calcolo osservando che l’equazione:
a(x − x0 ) + b(y − y0 ) + c(z − z0 ) = 0
rappresenta proprio il piano affine parallelo a π e passante per P0 .
Ad esempio il piano π 0 parallelo al piano π : 2x − 3y + 2z + 1 = 0 e passante per il punto P0 (1, 0, −2) ha
equazione:
π 0 : 2(x − 1) − 3(y − 0) + 2(z + 2) = 0,
da cui, eseguendo i calcoli:
π 0 : 2x − 3y + 2z + 2 = 0.
Sappiamo che due piani nello spazio sono paralleli se e solo se hanno la stessa giacitura. Pertanto se
l’equazione di un piano π è data in forma parametrica da:

0 0

 x = x0 + lt + l t
π:
y = y0 + mt + m0 t0
t, t0 ∈ R,


z = z0 + nt + n0 t0
il piano parallelo a π passante per un dato punto P (x1 , y1 , z1 ) ha equazione:

0 0

 x = x1 + lt + l t
π:
y = y1 + mt + m0 t0
t, t0 ∈ R,


0 0
z = z1 + nt + n t
4
Abbiamo visto che una retta ha equazione data n forma cartesiana-affine da equazioni del tipo
(
ax + by + cz + d = 0
a0 x + b0 y + c0 z + d0 = 0
dove la matrice dei coefficienti del sistema ha rango 2. Scriviamone la generica forma parametrica di una
sua equazione. Ricordiamo che una retta è un sottospazio affine di dimensione 1. Consideriamo la retta
in A3 la cui giacitura è generata dal vettore v = (l, m, n) e sia P0 (x0 , y0 , z0 ) un suo punto. L’equazione
di r in forma vettoriale è
−−→ −−→
r : OP = OP0 + tv
t ∈ R.
Esplicitando le coordinate si ottiene:
(22)


 x = x0 + lt
r:
y = y0 + mt


z = z0 + nt
t ∈ R.
Esempio 7.20. Consideriamo il problema di determinare l’equazione in forma parametrica della retta
r passante per due punti distinti P (x1 , y1 , z1 ) e Q(x2 , y2 , z2 ). Poiché i due punti appartengono alla retta
−−→
il vettore P Q appartiene allo spazio direttore della retta stessa. Essendo i due punti distinti tale vettore
è diverso dal vettore nullo e pertanto costituisce una base dello spazio direttore di r. Ricordiamo che il
−−→
vettore P Q si trova facendo la differenza delle coordinate dei due punti, cioè
−−→
P Q = Q − P = (x2 − x1 , y2 − y1 , z2 − z1 ).
L’equazione in forma parametrica di r è quindi data da:


 x = x1 + (x2 − x1 )t
r:
y = y1 + (y2 − y1 )t


z = z1 + (z2 − z1 )t
t ∈ R.
55
Per esempio se P (0, −1, −2) e Q(−1, 2, 3) allora la retta r per P e Q ha vettore direttore dato da
−−→
v = P Q = Q − P = (−1, 3, 5) e quindi la retta r ha equazione parametrica:


 x = −t
r:
y = −1 + 3t
t ∈ R.


z = −2 + 5t
Siano ancora P (x1 , y1 , z1 ) e Q(x2 , y2 , z2 ) due punti distinti generici dello spazio. Notiamo che le tre
equazioni lineari:
(y2 − y1 )(x − x1 ) = (x2 − x1 )(y − y1 ),
(z2 − z1 )(x − x1 ) = (x2 − x1 )(z − z1 ),
(z2 − z1 )(y − y1 ) = (y2 − y1 )(z − z1 )
rappresentano altrettanti piani per P (x1 , y1 , z1 ) e Q(x2 , y2 , z2 ). Tali equazioni sono inoltre indipendenti
ed i piani corrispondenti hanno in comune la retta per P e Q. Pertanto il sistema lineare avente come
equazione due qualsiasi di queste tre equazioni è l’equazione della retta r per P e Q in forma affine.
Ad esempio la retta r per P (−1, 1, 2) e Q(−1, −2, 0) ha equazione in forma affine:
(
−3(x + 1) = 0(y − 1)
r:
−2(y − 1) = −3(z − 2)
cioè
(
r:
x = −1
2y − 3z + 4 = 0
4
Due rette sono parallele quando queste hanno la medesima giacitura. Se pertanto un vettore direttore di
una retta r è il vettore v ed un vettore direttore di una retta s è il vettore w allora r e s sono paralleli
se e solo se v e w sono tra loro proporzionali.
Esempio 7.21. Sia r la retta di equazione


 x = 2t − 1
r:
y = −t + 2


z = −2
t ∈ R.
Vogliamo determinare l’equazione della retta r0 parallela a r passante per il punto P (0, 2, 4). Il vettore di
direzione della retta r è il vettore v = (2, −1, 0). Esso può essere preso come vettore di direzione anche
della retta r0 , che pertanto ha equazione, in forma parametrica, data da


 x = 2t
0
r :
y = −t + 2
t ∈ R.


z=4
Supponiamo ora data la retta s data attraverso l’equazione in forma affine
(
2x + y − z = 0
s:
4x − 5z − 3 = 0
ed il punto P (−2, 1, 1). Siano α : 2x + y − z = 0 e β : 4x − 5z − 3 = 0 i piani le cui equazioni formano
l’equazione di s. La retta s0 è contenuta nei piani α0 e β 0 paralleli rispettivamente ad α e β e passanti
per P . Essa pertanto ha equazione:
(
2(x + 2) + (y − 1) − (z − 1) = 0
s0 :
4(x + 2) − 5(z − 1) = 0
56
Svolgendo i calcoli si ottiene finalmente
(
s0 :
2x + y − z + 4 = 0
4x − 5z + 13 = 0
4
Studiamo ora più in dettaglio la posizione reciproca tra due rette. Due rette r e s dello spazio possono
essere 1) Parallele; 2) Incidenti; 3) Sghembe. Esse sono parallele se hanno la medesima direzione, incidenti
se si intersecano in un punto e sghembe se esse non sono né parallele né incidenti. Se esse sono parallele
o incidenti esse sono complanari, ovvero esiste un piano che le contiene entrambe.
Per studiare in dettaglio la posizione reciproca tra le due rette occorre studiare l’intersezione delle stesse.
A tal proposito siano r e s di equazioni rispettive:
(
(
a00 x + b00 y + c00 z + d00 = 0
ax + by + cz + d = 0
s:
r:
0
0
0
0
a000 x + b000 y + c000 z + d000 = 0
ax+by+cz+d =0
Studiamo quindi le soluzioni del sistema:

ax + by + cz + d = 0



 a0 x + b0 y + c0 z + d0 = 0

a00 x + b00 y + c00 z + d00 = 0


 000
a x + b000 y + c000 z + d000 = 0
Siano A la matrice dei coefficienti, b il vettore termine noto e AC la matrice completa associati al sistema.
Si ha:




−d
a
b
c
 −d0 
 a0
b0
c0 




b
=
A =  00

.

 −d00 
 a
b00 c00 
a000
b000
c000

a
a0
a00
a000
−d000
e pertanto


AC = 

b
b0
b00
b000
c
c0
c00
c000
−d
−d0
−d00
−d000



.

Il rango della matrice A è uguale a 2 o a 3, mentre il rango della matrice orlata AC è pari al rango di A
o a rg(A) + 1. Seguono quindi quattro possibilià:
1 - rg(A) = rg(AC ) = 2 In tal caso, per il teorema di Rouchè-Capelli, il sistema è compatibile con
“∞1 ” soluzioni. In tal caso le due rette sono coincidenti.
2 - rg(A) = 2, rg(AC ) = 3 Il sistema è incompatibile. Le due rette hanno comunque la medesima
direzione, quindi sono parallele.
3 - rg(A) = rg(AC ) = 3 Sistema compatibile e determinato, corrispondente al caso di rette incidenti.
4 - rg(A) = 3, rg(AC ) = 4 Il sistema in questo caso è incompatibile e le due rette non sono parallele.
Esse sono sghembe.
Deduciamo che le due rette sono complanari se e solo se il rango della matrice completa AC è non
massimale, ovvero se e solo se il suo determinante è uguale a 0.
Studiamo ora la posizione reciproca tra una retta ed un piano in A3 , focalizzando la nostra attenzione
alla condizione di parallelismo. Vogliamo studiare l’intersezione del piano π con la retta r, dati attraverso
57
le equazioni in forma affine:
(
π : ax + by + cz + d = 0 r :
a0 x + b0 y + c0 z + d0 = 0
a00 x + b00 y + c00 z + d00 = 0
Ci riconduciamo pertanto a studiare le soluzioni del sistema:


 ax + by + cz + d = 0
a0 x + b0 y + c0 z + d0 = 0

 00
a x + b00 y + c00 z + d00 = 0
Come prima siano rispettivamente A e AC la matrice dei coefficienti e la matrice completa associata al
sistema. Si possono presentare i seguenti casi.
1 - rg(A) = rg(AC ) = 2 In tal caso il sistema è compatibile e indeterminato. La retta r è contenuta
nel piano.
2 - rg(A) = 2, rg(AC ) = 3 Il sistema è incompatibile. In tal caso diremo che la retta r è parallela al
piano e viceversa.
3 - rg(A) = rg(AC ) = 3 Sistema compatibile e determinato, corrispondente al caso di retta e piano tra
loro incidenti.
Sia ora v = (l, m, n) il vettore direttore della retta e sia P (x1 , y1 , z1 ) un punto del piano π. In virtù della
−−→
definizione di spazio affine (proprietà (SA1)), esiste (ed è unico) un punto Q in π tale che v = P Q =
(x2 − x1 , y2 − y1 , z2 − z1 ). Segue:
(23)
al + bm + cn = a(x2 − x1 ) + b(y2 − y1 ) + c(z2 − z1 ) = ax2 + by2 + cz2 − (ax1 + by1 + cz1 ) = 0.
Questa relazione esprime il parallelismo tra la retta r ed il piano π. Utilizzando la notazione del prodotto
scalare, ponendo n = (a, b, c), la retta r avente vettore direttore v è parallela al piano π : ax+by+cz+d =
0 se e solo se n · v = 0, ovvero i due vettori n e v sono ortogonali tra loro.
Notiamo che ogni vettore v = (l, m, n) appartenente alla giacitura del piano π : ax + by + cz + d = 0 è
tale che n · v = 0, dove n = (a, b, c). Il vettore n è quindi perpendicolare al piano π. La sua direzione
è la direzione ortogonale al piano. Segue che una retta r è perpendicolare al piano π se e solo se il suo
vettore direzione è parallelo a (quindi multiplo di) n. Il vettore n è anche detto la normale al piano π.
Esempio 7.22. Consideriamo ora il problema di determinare il piano π perpendicolare ad una data
retta r e passante per un dato punto P . Supponiamo r data attraverso una sua equazione in forma
parametrica:


 x = x0 + lt
r:
y = y0 + mt
t ∈ R.


z = z0 + nt
e sia P il punto di coordinate (x1 , y1 , z1 ). Affinché r sia perpendicolare a π il vettore normale al piano n
deve essere proporzionale al vettore direttore v = (l, m, n) di r. Quindi possiamo porre n = v e quindi
il piano π perpendicolare a r e passante per P ha equazione:
l(x − x1 ) + m(y − y1 ) + n(z − z1 ) = 0.
Siano ad esempio P (1, −1, 3) e


 x = 2 + 5t
r:
y = −t


z = −1 − t
t ∈ R.
Il vettore di direzione di r è il vettore v = (5, −1, −1). Pertanto possiamo porre che il vettore normale
al piano n = (a, b, c) sia proprio uguale a v, da cui a = 5, b = −1 e c = −1. Una rappresentazione affine
58
del piano π è quindi data da:
π : 5(x − 1) − (y + 1) − (z − 3) = 0,
cioè
π : 5x − y − z − 3 = 0.
Similmente la retta perperndicolare al piano π : ax + by + cz + d = 0 e passante per il dato punto
P (x1 , y1 , z1 ) ha come vettore di direzione il vettore v = n = (a, b, c) e quindi ha equazione, in forma
parametrica,


 x = x1 + at
r:
y = y1 + bt
t ∈ R.


z = z1 + ct
Siano per esempio π : 2y + 7z − 11 = 0 e P (2, 1, −3) rispettivamente un piano ed un punto nello spazio
A3 . La retta r perpendicolare a π e passante per P ha come vettore di direzione il vettore v = (0, 2, 7).
La sua equazione è pertanto:


 x=2
r:
y = 1 + 2t
t ∈ R.


z = −3 + 7t
4
Consideriamo ora due piani distinti π e π 0 di equazione:
π : ax + by + cz = 0.
π 0 : a0 x + b0 y + c0 z + d0 = 0.
Il fascio di piani F generato (o individuato) dai piani π e π 0 è l’insieme dei piani aventi equazioni date
da:
(24)
F : λ(ax + by + cz + d) + µ(a0 x + b0 y + c0 z + d0 ) = 0, λ, µ ∈ R,
dove λ e µ sono scalari non entrambi nulli. Si osservi che i piani del fascio solo apparentemente dipendono
da due parametri. Coppie di scalari λ, µ e λ0 , µ0 tra loro proporzionali danno luogo al medesimo piano.
Talvolta si pone k := µλ ed in tal caso l’equazione del fascio diventa:
F : ax + by + cz + d + k(a0 x + b0 y + c0 z + d0 ) = 0,
k ∈ R.
In tal caso comunque si noti che la corrispondenza tra i valori di k ed i piani del fascio non è perfettamente
biunivoca. Il piano π 0 : a0 x + b0 y + c0 z + d0 = 0 non può essere ottenuto per nessun valore di k.
I due piani che determinano il fascio, essendo distinti, sono o incidenti in una retta o paralleli. Nel primo
caso notiamo che la retta r intersezione di π e π 0 , detta asse del fascio, è contenuta in ogni piano del
fascio. Nel secondo caso i piani del fascio sono tutti paralleli tra loro. Nel primo caso chiamiamo F
fascio di piani proprio di asse r (o fascio di piani proprio di centro r), mentre nel secondo fascio di piani
improprio.
Osserviamo che nel caso di un fascio di piani improprio, piani distinti del fascio hanno differenti giaciture
e quindi differenti direzioni ortogonali.
Supponiamo dato un fascio di equazione:
F : a(k)x + b(k)y + c(k)z + d(k) = 0,
k ∈ R.
F è un fascio proprio o improprio a seconda che la direzione del vettore n(k) = a(k), b(k), c(k) vari con
k o no.
59
Esempio 7.23. Sia F il fascio di equazione:
F : (3k − 1)x + (k − 2)y + −kz + k + 11 = 0,
k ∈ R.
Il vettore ortogonale n(k) ha coordinate (3k − 1, k − 2, −k). La sua direzione varia con k. Il fascio di
rette F è quindi un fascio proprio. Per determinarne l’asse, occorre svolgere i prodotti nell’equazione del
fascio e raccogliere k a fattore comune parziale. In dettaglio:
F : 3kx − x + ky − 2y + −kz + k + 11 = 0,
k ∈ R,
F : −x − 2y + 11 + k(3x + y − z + 1) = 0,
k ∈ R.
da cui
L’asse del fascio è la retta r di equazione:
(
r:
−x − 2y + 11 = 0
3x + y − z + 1 = 0
4
Se π : ax + by + cz + d = 0 è un piano fissato nello spazio, il fascio di piani proprio F individuato da π è
l’insieme di tutti i piani paralleli a π. Esso ha equazione:
F : ax + by + cz + k = 0,
k ∈ R.
Un fascio improprio è invece individuato da una coppia di piani incidenti o dall’asse stesso. Noto l’asse
di un fascio è facile scriverne l’equazione. Se infatti r è data in forma cartesiana da:
(
ax + by + cz + d = 0
r:
a0 x + b0 y + c0 z + d0 = 0
il fascio di asse r ha equazione
ax + by + cz + d + k(a0 x + b0 y + c0 z + d0 ) = 0,
k ∈ R.
Esempio 7.24. Consideriamo ora il problema di determinare i piani paralleli ad una data retta r passanti
per un dato punto P . Essi devono tutti contenere la retta r0 parallela a r e passante per P . Tali piani
costituiscono pertanto il fascio di piani proprio di asse r0 .
Sia P (3, −5, 2) un punto ed r la retta di equazione:
(
−x + y + 2z − 4 = 0
r:
3x − z − 6 = 0
La retta r0 parallela a r e passante per P ha equazione:
(
−(x − 3) + (y + 5) + 2(z − 2) = 0
0
r :
3(x − 3) − (z − 2) = 0
cioè
(
0
r :
−x + y + 2z + 4 = 0
3x − z − 7 = 0
Il fascio di piani paralleli a s per P ha quindi equazione:
−x + y + 2z + 4 + k(3x − z − 7) = 0.
Illustriamo qui, mediante un esempio numerico, un metodo differente per determinare l’equazione del
fascio di piani paralleli ad una data retta e passanti per un dato punto. QUesto metodo si presta bene
60
nel caso in cui la retta è data in forma parametrica. A tal proposito sia P (1, 2, −2) e sia r la retta di
equazione:


 x = −2t + 3
r:
y =t+4
t ∈ R.


z = 3t
Affinché un piano generico di equazione ax + by + cz + d = 0 appartenga al fascio esso deve contenere
il punto P ed il suo vettore normale n = (a, b, c) deve essere perpendicolare al vettore di direzione di r,
v = (l, m, n) = (−2, 1, 3). Pertanto si deve avere:
(a, b, c) · (l, m, n) = −2a + b + 3c = 0,
da cui
b = 2a − 3c.
L’equazione del fascio di piani per P paralleli a r ha pertanto equazione:
a(x − 1) + (2a − 3c)(y − 2) + c(z + 2) = 0
a, c ∈ R,
ovvero
a(x + 2y − 5) + c(−3y + z + 8) = 0,
Posto k =
c
a,
a, c ∈ R.
l’equazione del fascio si può scrivere usando un solo parametro essenziale:
x + 2y − 5 + k(−3y + z + 8) = 0,
k ∈ R.
4
Esempio 7.25. Consideriamo il problema di determinare i piani perpendicolari ad una dato piano π
e passanti per un dato punto P . Essi costituiscono il fascio di piani proprio avente per asse la retta r
passante per P e perpendicolare a π.
Siano π : 4x + y + z − 2 = 0 e P (1, 1, −2). La retta r perpendicolare a π per P ha vettore direttore
v = (4, 1, 1). Essa ha quindi equazione:


 x = 4t + 1
r:
y =t+1
t ∈ R.


z =t−2
Dalla terza equazione troviamo t = z + 2. Sostituendo questa quantità nella prima e nella seconda
equazione si ottiene:
(
x − 4z − 9 = 0
r:
y−z−3=0
Il fascio di piani per r ha equazione:
x − 4z − 9 + k(y − z − 3) = 0.
4
Nello spazio affine in tre dimensioni l’insieme delle rette parallele tra loro o tutte passanti per un punto
costituiscono una famiglia di rette nota con il termine stella di rette. Un fascio di rette è un sottoinsieme
di una stella di rette formato da quelle rette che giacciono su uno stesso piano. Un fascio di rette è detto
improprio se i suoi elementi sono paralleli tra loro, proprio se essi passano tutti per uno stesso punto.
Esempio 7.26. L’insieme delle rette parallele ad un piano fissato π e passanti per un punto P costituisce
un fascio di rette proprio F. Tutte tali rette sono contenute nel piano π 0 parallelo a π e passante per P .
Esse possono essere viste come l’intersezione del fascio di piani perpendicolari a π con π 0 .
Siano dati π : x + 2y − z − 1 = 0 e P (−1, 0, 1). Il piano π 0 per P parallelo a π ha equazione:
π 0 : (x + 1) + 2y − (z − 1) = 0,
61
cioè
π 0 : x + 2y − z + 2 = 0.
I piani perpendicolari a π e passanti per P sono i piani i cui vettori normali sono perpendicolari al vettore
n = (1, 2, −1) ortogonale al piano π. Essi sono quindi i piani di equazione
a(x + 1) + by + c(z − 1) = 0,
dove il vettore (a, b, c) é ortogonale al vettore n, cioè tale che:
a + 2b − c = 0.
Dunque c = a + 2b e l’equazione del fascio G dei piani per P e perpendicolari a π è:
G : a(x + 1) + by + (a + 2b)(z − 1) = 0,
a, b ∈ R.
che si può scrivere nella forma:
G : a(x + z) + b(y + 2z − 2) = 0,
a, b ∈ R.
L’equazione del fascio F è pertanto la seguente:
(
x + 2y − z + 2 = 0
F:
a(x + z) + b(y + 2z − 2) = 0
Lo stesso fascio può anche essere trovato, con rappresentazione parametrica stavolta, in un modo differente. Siano π e P come prima. Le rette r per P parallele al piano π hanno vettore direttore v = (l, m, n)
perpendicolare al vettore normale al piano π, cioè al vettore n = (1, 2, −1). Segue quindi:
0 = v · n = l + 2m − n,
da cui
n = l + 2m.
Il fascio F ha pertanto equazione, in forma parametrica, data da:


 x = −1 + lt
F:
y = mt
t ∈ R.


z = 1 + (l + 2m)t
Al variare di l e m in R abbiamo tutte le rette del fascio.
4
Date due rette r e r0 nello spazio affine, siano v = (l, m, n) e v 0 = (l0 , m0 , n0 ) i loro vettori direttori.
Definiamo l’angolo tra le due rette come l’angolo tra i due vettori direttori. Vale quindi:
0
0
0
ll0 + mm0 + nn0
d0 = ± (l, m, n) · (l , m , n ) = ±
c0 := cos vv
.
cos rr
k(l, m, n)kk(l0 , m0 , n0 )k
k(l, m, n)kk(l0 , m0 , n0 )k
Due rette sono quindi ortogonali se e solo se il coseno dell’angolo è uguale a 0, cioè se e solo se ll0 +
mm0 + nn0 = 0.
Esempio 7.27. Le rette perpendicolari ad una data retta r e passanti per un punto dato P costituiscono
un fascio proprio. Tutte le rette del fascio appartengono al piano passante per P e perpendicolare a r.
Sia ad esempio P (4, −2, −1) un punto dello spazio ed r la retta di equazione:


 x = −t + 2
r:
y = 4t
t ∈ R.


z = −2
Il piano π passante per P e perpendicolare a r ha equazione:
π : −(x − 4) + 4(y + 2) = 0,
62
cioè
π : −x + 4y + 12 = 0.
Le rette del fascio F delle rette per P e perpendicolari a r sono tutte e sole le rette ottenute come
intersezione di un piano per P e parallelo ad r con il piano π. Il fascio G dei piani paralleli a r per P è
un fascio proprio avente come asse la retta r0 parallela a r e passante per P . Tale retta ha equazione:


 x = −t + 4
r0 :
y = 4t − 2
t ∈ R.


z = −1
Un’equazione affine di r0 pu‘o essere trovata trovando t nella prima “equazione” e sostituendo tale valore
nella seconda. Si ottiene:
(
4x − y − 18 = 0
0
r :
z+1=0
Il fascio G ha equazione:
G : 4x − y − 18 + k(z + 1) = 0.
Il fascio di rette cercato ha equazione:
(
F:
−x + 4y + 12 = 0
4x − y − 18 + k(z + 1) = 0
Determiniamo ora il fascio F in altro modo. Una retta appartiene ala fascio F se e solo se passa per
il punto P ed ha vettore direttore w = (l, m, n) perpendicolare al vettore direttore v = (−1, 4, 0) di r.
Pertanto vale:
0 = v · w = (−1, 4, 0) · (l, m, n) = −l + 4m,
da cui
l = 4m.
L’equazione di F, in forma parametrica, è data da:


 x = 4 + 4mt
F:
y = −2 + mt


z = −1 + nt
t ∈ R.
Al variare di m e n in R otteniamo tutte le rette del fascio.
4
Dati due punti P (x1 , y1 , z1 ) e Q(x2 , y2 , z2 ) nello spazio, la distanza tra i due punti coincide con il modulo
−−→
del vettore P Q di punto iniziale P e punto finale Q. Essa vale quindi:
d(P ; Q) = k(x2 − x1 , y2 − y1 , z2 − z1 )k =
p
(x2 − x1 )2 + (y2 − y1 )2 + (z2 − z1 )2 .
Per calcolare la distanza tra il punto P (x0 , y0 , z0 ) ed il piano π : ax + by + cz + d = 0 si trova utilizzando
la formula:
|ax0 + by0 + cz0 + d|
√
(25)
d(P ; π) =
.
a2 + b2 + c2
Questa formula si ottiene, come nel caso della distanza punto-retta in A2 calcolando il modulo della
−−→
proiezione del vettore P Q, dove Q è un punto arbitrario nel piano π, lungo la direzione normale al piano,
individuata dal vettore n = (a, b, c).
Esempio 7.28. Siano P (−1, 1, 4) e π : 2x − y − 2z − 3 = 0. La distanza di P dal piano π è quindi
uguale a:
|ax0 + by0 + cz0 + d|
|2(−1) − 1 − 2(4) − 3|
| − 14|
14
√
.
d(P ; π) =
=p
= √
=
2
2
2
2
2
2
3
9
a +b +c
(2) + (−1) + (−2)
63
4
Per il calcolo della distanza di un punto P da una retta r occorre trovare il piano π perpendicolare a r e
passante per P , poi il punto H di intersezione di π e r e quindi la distanza tra i due punti P e H.
Esempio 7.29. Calcoliamo la distanza del punto P (0, 3, −2) dalla retta r di equazione:


 x = −1 − t
r:
y = 2 + 3t
t ∈ R.


z = 6 − 5t
Il vettore direttore di r è il vettore v = (−1, 3, −5). Il piano π passante per P e perpendicolare r ha
quindi equazione:
π : (−1)(x − 0) + 3(y − 3) − 5(z + 2) = 0,
cioè
π : −x + 3y − 5z − 19 = 0
Il punto H, intersezione di r e π, si può calcolare sostituendo le coordinate di un generico punto di
r (date attraverso il parametro t nell’equazione parametrica) all’equazione del piano. Otteniamo cosı̀
un’equazione di primo grado nella variabile t, che risolta ci permette di determinare le coordinate del
punto H. In dettaglio:
−(−1 − t) + 3(2 + 3t) − 5(6 − 5t) − 19 = 0,
da cui
35t − 42 = 0
28
Il punto H ha coordinate H(− 11
5 , 5 , 0). La distanza cercata è quindi uguale a:
r
r
r
√
11 2
28
121
+
169
+
100
390
390
d(P ; r) = d(P ; H) = (− ) + ( − 3)2 + (2)2 =
=
=
.
5
5
25
25
5
e quindi t =
6
5.
4