Base e dimensione

annuncio pubblicitario
Base e dimensione
DIPENDENZA LINEARE
Definizione:
Sia V uno spazio vettoriale. I vettori v1,…, vm V si dicono linearmente
dipendenti , ovvero semplicemente dipendenti, se esistono degli scalari a1, …, am 
K, non tutti nulli tali che
a1v1 + a2v2 + … + amvm =
0
(*)
In caso contrario i vettori si dicono linearmente indipendenti, o semplicemente indipendenti.
Si noti che la (*) sussiste sempre se gli ai sono tutti zero. Se tale relazione vale solo in questo
ultimo caso, cioè se
a1v1 + a2v2 + … + amvm = 0
se e soltanto se
a1 = 0, …,
am = 0,
i vettori sono linearmente indipendenti. D’altro canto se la (*) sussiste anche quando uno degli
a non è zero i vettori sono linearmente dipendenti.
Osserviamo che se 0 è uno dei vettori v1 , … ,vm diciamo v1 = 0, detti vettori debbono essere
dipendenti, perché
1v1 + 0v2 + … + 0vm = 1  0 + 0 + ... + 0 = 0
ed il coefficiente di v1 non è 0. D’altro canto ogni vettore v non zero è di per sé indipendente,
poiché
kv = 0 ,
v  0 implica k = 0
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
Esempio
I vettori u = (1, -1, 0), v = (1,3, -1) e w = (5, 3, -2) sono dipendenti, dato
che per 3u + 2v - w = 0 si ha:
3 (1, -1, 0) + 2 (1,3, -1) - (5, 3, -2) = (0,0,0)
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
Esempio
Dimostriamo che i vettori u = (6,2,3,4), v = (0,5,-3,1) e w = (0,0,7,-2)
sono indipendenti.Supponiamo infatti xu + yv + zw = 0, con x, y, z
incognite scalari. Allora
(0, 0, 0, 0) = x (6,2,3,4) + y (0,5,-3,1) +
z (0,0,7,-2)
= (6 x, 2 x + 5 y , 3 x – 3 y + 7 z , 4 x + y - 2 z)
e così, per uguaglianza delle componenti corrispondenti,
6x
= 0
2x+ 5y
= 0
3x–3y + 7z = 0
4x+y- 2z
= 0
La prima equazione porta x = 0 ; la seconda, con x = 0, ci dà y = 0 ; e la terza,
con x = 0, y = 0, dà z = 0. Così
xu + yv + zw = 0
implica
x = 0, y = 0,
z=0
E di conseguenza u, v, w sono indipendenti.
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
Osserviamo che i vettori dell’esempio precedente formano una matrice a gradini:
4 
6 2 3


0 5  3 1 
 0 0 7  2






Così abbiamo dimostrato che le righe (non zero) della matrice a gradini suddetta sono
indipendenti. Questo risultato resta vero in generale; noi lo proponiamo formalmente come
teorema, dal momento che sarà usato con frequenza.
Teorema : Le righe non zero di una matrice a gradini sono linearmente indipendenti. Il
concetto di dipendenza può essere esteso a più di un vettore in modo equivalente:
I vettori v1, … , vm sono linearmente dipendenti solo ed esclusivamente se uno di essi è una
combinazione lineare degli altri.
Nota 1.
L’insieme (v1 , …, vm ) si chiama insieme dipendente, o indipendente, a seconda
che i vettori v1 , …, vm sono dipendenti o indipendenti. Definiamo inoltre come
indipendente l’insieme vuoto .
Nota 2.
Se due dei vettori v1 , …, vm sono uguali , diciamo v1 = v2 detti vettori sono
dipendenti. Infatti
v1 - v2 + 0 v3 + … + 0 vm
= 0 e il coefficiente di v1 non è
zero.
Nota 3.
Due vettori v1 e v2 sono dipendenti solo ed unicamente se uno di loro è multiplo
dell’altro.
Nota 4.
Un insieme che contenga un sottoinsieme dipendente è esso stesso dipendente.
Perciò qualsiasi sottoinsieme di un insieme indipendente è indipendente.
Nota 5.
Se l’insieme  v1 , …, vm  è indipendente, ogni diversa disposizione dei vettori
 vi1 , vi2 , … , vim  è ancora indipendente.
Nota 6.
Nello spazio reale R3 la dipendenza dei vettori può essere descritta geometricamente
nel modo che segue: due vettori u, v sono dipendenti solo ed esclusivamente se giacciono sulla
stessa retta per l’origine; tre qualsiasi vettori u, v, w sono dipendenti solo ed unicamente se
giacciono sullo stesso piano passante per l’origine:
BASE E DIMENSIONE
Definizione:
Uno spazio vettoriale V si dice di dimensione finita n, ovvero si dice ndimensionale, usando la notazione
dim V
= n, se esistono dei vettori
linearmente indipendenti e1, e2, … en che generano V. La sequenza {e1, e2, …
en } si chiama allora base di V.
Teorema:
Sia V uno spazio vettoriale di dimensioni finite. Allora ogni base di V ha lo
stesso numero di elementi.
Lo spazio vettoriale {0} ha dimensione zero per definizione. Quando uno spazio vettoriale non
è di dimensione finita, viene definito a dimensione infinita.
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
Esempio: Consideriamo lo spazio vettoriale Rn, costituito da tante n-ple di elementi di R.
I vettori
e1 = (1,0,0, …, 0,0)
e2 = (0,1,0, …, 0,0)
………………………………..
en = (0,0,0, …, 0,1)
formano una base, chiamata base usuale, di Rn. Così Rn ha dimensione n.
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
Esempio: Sia U lo spazio vettoriale di tutte matrici 2 x 3. Allora le matrici
1 0 0


 0 0 0




 0 1 0


 0 0 0




0 0 1


 0 0 0




 0 0 0


1 0 0




 0 0 0


 0 1 0




 0 0 0


0 0 1




costituiscono una base di U; quindi dim U = 6. Più generalmente poniamo che sia V lo spazio
vettoriale di tutte le matrici m x n su K, e sia Eij V la matrice che ha 1 come elemento
ij – esimo e zero per il resto. Allora l’insieme  Eij  è una base, detta base usuale, di V; di
conseguenza dim V = mn.
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
Esempio 5.5: Sia W lo spazio vettoriale di polinomi (in t) di grado ≤ n.
L’insieme 1, t, t2, …, tn  è linearmente indipendente, e genera W.
Esso è perciò una base di W, ed è dim W = n + 1.
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
Il precedente, fondamentale teorema sulle dimensioni è conseguenza del seguente importante
“lemma di sostituzione”:
Poniamo ora che S sia un sottoinsieme di uno spazio vettoriale V. Chiameremo v1, … , vm 
sottoinsieme indipendente massimo di S se:
(i)
(ii)
esso è un sottoinsieme indipendente di S; e
v1, … , vm, w  è indipendente per qualsiasi w  S.
Vale il teorema seguente.
Teorema : Poniamo che S generi V e che v1,
… , vm sia un sottoinsieme indipendente
massimo di S. Allora v1, … , vm è una base di V.
La relazione principale tra dimensione di uno spazio vettoriale e i suoi sottoinsiemi
indipendenti è contenuta nel
Teorema: Sia V una dimensione finita di n. Allora:
(i)
ogni insieme di n + 1 o più vettori è linearmente dipendente.
(ii)
Ogni insieme linearmente indipendente è parte di una base, ovvero può essere esteso alla
suddetta.
(iii) Un insieme linearmente indipendente con n elementi è una base.
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
Esempio I quattro vettori in R4
(1,1,1,1),
(0,1,1,1) ,
(0,0,1,1) ,
(0,0,0,1)
sono linearmente indipendenti, dato che costituiscono una matrice a gradini. Inoltre, essendo
dim R4 = 4, essi formano una base di R4 .
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
Esempio: I quattro vettori in R3
(257, -132, 58)
(43, 0, -17), (521, -317, 94),
(328, -512, -731)
debbono essere linearmente dipendenti: essi derivano da uno spazio vettoriale di dimensione 3.
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
Teorema: Sia W un sottospazio dello spazio vettoriale V ad n dimensioni. Allora
dim W ≤
n. Se in particolare è dim W = n, allora W = V.
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
Esempio : Sia per ipotesi W un sottospazio dello spazio reale R3. Ora dim R3 = 3. Quindi per
il teorema precedente la dimensione di W può solo essere 0, 1, 2 o 3.Si possono dare i
seguenti casi:
(i)
dim W = 0
e allora W = 0 , un punto
(ii) dim W = 1
e W è una retta per l’origine;
(iii) dim W = 2
e W è un piano per l’origine;
(iv) dim W = 3
e W è l’intero spazio R3.
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
Teorema: Siano U e W dei sottospazi a dimensioni finite di uno spazio vettoriale V. Allora U
+ W ha dimensione finita, e
dim (U + W) = dim U + dim W - dim (U ∩ W)
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
Esempio Poniamo che U e W siano rispettivamente il piano xy e il piano yz in
R3 : U =  (a,b,0)  , W =  (0,b,c)  . Dato che R3 = U + W, dim (U + W) = 3. Inoltre
dim U = 2 e dim W = 2. Per il teorema precedente,
3= 2 + 2 - dim (U ∩ W) ovvero dim (U ∩ W) = 1
Notare che ciò è in accordo col fatto che U ∩ W è l’asse y, cioè U ∩ W =  (0,b,0) , ed ha
così dimensione 1.
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
APPLICAZIONI
Siano A e B due insiemi arbitrari. Supponiamo che ad ogni a  A venga associato un unico elemento di B; la
relazione che associa agli elementi di A quelli di B è chiamata funzione, o applicazione (o ancora, mappa) da
A in B e si scrive
f: A  B
Scriviamo f(a), leggendo “f di a”, per quell’elemento di B che f assegna ad a  A; esso si
chiama valore di f in a, o immagine di a attraverso f. Se A’ è un qualsiasi sottoinsieme di A,
f(A’) indica l’insieme di immagini di elementi di A’; se B’ è un sottoinsieme di B, f-1 (B’) indica
l’insieme di elementi di A, l’immagine dei quali giace in B’:
f(A’) =  f(a) : a  A’
e
f-1(B’) =  a  A : f(a)  B’
Chiamiamo f(A’) l’immagine di A’, e
f-1 (B’)
l’immagine inversa, di B’. In particolare
l’insieme di tutte le immagini, ovvero f (A), si chiama immagine di f. Inoltre A viene chiamato
dominio dell’applicazione f:A  B; B ne è il codominio.
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
Esempio : Consideriamo la matrice 2 x 3 A =
 1  3 5


 2 4 1  .Se




scriviamo i vettori in R3 e
R2 come vettori colonna, A determina l’applicazione T : R3  R2
v -> Av , ovvero
Così se v =
 3 
 
 1 
  2
 
T(v) = Av ,
, allora T(v) = Av =
definita da
v  R3
 1  3 5  3 

  
 2 4 1 .  1 

   2

  
 10 
 .
 12 
= 
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
Osservazione: Ogni matrice A di ordine m x n determina l’applicazione T : Rn  Rm
definita da v -> Av in cui i vettori Rn e Rm in sono scritti come vettori colonna. Per
convenzione indicheremo abitualmente con A la suddetta applicazione: lo stesso simbolo usato
per la matrice.
OPERATORI LINEARI
Siano U e V degli spazi vettoriali. Un’applicazione F : V  U si chiamerà applicazione
lineare se soddisfa le seguenti due condizioni:
(1) Per ogni v, w  V , F(v + w) = F(v) + F(w)
(2) Per ogni
k  R ed ogni v  V, F(kv) = kF(v)
In altri termini, F : V  U è lineare se “conserva” le due operazioni basilari in uno spazio
vettoriale, addizione vettoriale e moltiplicazione per uno scalare.
Sostituendo k = 0 nella (2) si ottiene F(0) = 0. Come dire che ogni applicazione lineare
riduce il vettore zero al vettore zero.
Ora per qualsiasi scalare a, b  K e vettore v, w  V otteniamo, applicando entrambe le
condizioni di linearità:
F (av + bw) = F (av) + F (bw) = aF (v) + bF (w)
Più in generale, per ogni scalare ai  K e ogni vettore vi  V otteniamo la proprietà
fondamentale delle applicazioni lineari:
F (a1v1 + a2v2+ …+ anvn) = a1F (v1) + a2F (v2) + … + anF (vn)
Osserviamo che la condizione F (av + bw) = aF (v) + bF (w) caratterizza compiutamente
una applicazione lineare, ed è talvolta usata come sua definizione.
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
Esempio: Sia A una matrice m x n su di un campo K. Come osservato in precedenza, con
l’associazione v -> Av.
A determina un’applicazione T : Rn  Rm . T è lineare. Infatti, per le proprietà delle matrici
T(v + w) = A (v + w) = Av + Aw = T(v) + T(w)
e
T(kv) = A(kv) = kAv = kT(v)
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
Esempio: Sia F : R3  R3 l’applicazione “proiezione” nel piano xy: F(x,y,z) = (x,y,0).
Dimostriamo che F è lineare. Sia v = (a,b,c) e w = (a’, b’, c’). Quindi
F (v + w) = F ( a+ a’, b+ b’, c+ c’) =( a+ a’, b+ b’, 0)
= (a,b,0) + (a’, b’, 0) = F (v) + F (w)
e, per ogni k  R,
F(kv) = F(ka, kb, kc) = (ka, kb, 0) = k(a,b,0) = kF(v)
Come dire che F è lineare.
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
Esempio: Sia F : R2  R2 l’applicazione “traslazione” definita da F(x,y) = (x +1, y + 2).
Si noti che F(0) = F(0,0) = (1,2) ≠ 0. Cioè, il vettore zero non viene applicato verso il vettore
zero: F non è lineare.
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
Esempio Sia F : V  U l’applicazione che assegna 0  U ad ogni v  V. Allora per ogni v ,
w  V ed ogni k  R, avremo
F (v + w) =
0 = 0 + 0 = F (v) + F (w)
= 0
=k0=
kF(v)
Così F è lineare. Chiameremo F applicazione zero e la indicheremo abitualmente con lo 0.
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
Esempio Consideriamo l’applicazione identica I : V  V che induce ogni v  V in sé stesso.
Avremo allora per ogni v, w  V ed ogni a, b  K,
I(av + bw) = av + bw = aI(v) + bI(w)
Perciò I è lineare.
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
NUCLEO ED IMMAGINE DI UN’APPLICAZIONE LINEARE
Definizione: Sia F : V  U un’applicazione lineare. L’immagine di F, scritta Im F, è l’insieme
di elementi di U (punti immagine) per cui:
Im F = { u  U : F(v) = u per alcuni v  V}
il nucleo di F, scritto Ker F, è l’insieme di elementi di V che l’applicazione assegna a 0  U:
Ker F = { v  V: F(v) = 0}
Teorema: Sia F : V  U un’applicazione lineare. L’immagine di F è allora un sottospazio di
U, e il suo nucleo un sottospazio di V.
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
Esempio: Sia F
: R3
 R3 la proiezione applicata sul piano xy: F(x,y,z)
Evidentemente immagine di F è l’intero piano xy:
Im F = { (a,b,0) : a, b  R}
= (x,y,0).
Notare che il nucleo di F è l’asse z:
Ker F ={ (0,0,c) :
c  R}
poiché questi punti e solo questi vengono indotti dall’applicazione nel vettore zero 0 = (0,0,0)
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
MATRICI E APPLICAZIONI LINEARI
Consideriamo il caso generale di applicazioni lineari F: V  U con dimV = m, dim U = n.
Siano inoltre { e1, …., em } e { f1 , …., fn } delle basi arbitrarie ma fissate di V ed U
rispettivamente.
Allora i vettori F(e1 ), …., F (e1 ) appartengono ad U e ciascuno è una combinazione degli fi .
F(e1 ) =
a11 f1  a12 f 2    a1n f n
F(e2 ) =
a21 f1  a22 f 2    a2n f n
……
F(em ) =
am1 f1  am 2 f 2    amn f n
La trasposta della matrice dei coefficienti è chiamata la rappresentazione matriciale di F in
relazione alle basi date.
 a11

 a12


a
 1n
a 21
a 22

a2n
 a m1 

 am2 
 

 a mn 
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
Esempio: Trovare la rappresentazione matriciale dell'operatore T(x,y) = (2y,3x-y)
relativamente alla base usuale (1,0), (0,1).
T(1,0)=(0,3)
T(0,1)=(2,-1)
A=
0 2 


 3 1
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
AUTOVALORI E AUTOVETTORI
Sia F: V  V un operatore lineare. Chiediamoci se esistono vettori non nulli che vengono
trasformati in vettori paralleli: F(v) = av. Se questa equazione matriciale ammette soluzione
allora a si chiama autovalore e v autovetture.
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
Esempio: trovare gli autovalori e gli autovettori non nulli della matrice A=
Cerchiamo uno scalare a e un vettore
 x
 
 y
1 2

 .
3 2
tali che AX = aX cioè
1 2


3 2
 x
 
 y
=a
 x
 
 y
Questa equazione è equivalente al sistema
x + 2y = ax
(a-1)x - 2y = 0
3x + 2y = ay
-3x + (t-2) y = 0
Il secondo sistema è omogeneo e ammette una soluzione non nulla se e solo se il determinante
della matrice dei coefficienti è nullo.
a 1  2
 a 2  3a  4  (a  4)( a  1)  0  a  4, a  1
det A =
3 a 2
Se a=4 il sistema si riduce alla equazione 3x-2y=0, Allora ad esempio (2,3) e ogni suo
multiplo è un autovetture. Se invece a=-1 allora il sistema si riduce a x+y=0 e dunque un
autovetture è (1, -1).
▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
Più in generale se A è una matrice quadrata di ordine n
 a11

 a 21


a
 nn
a12
a 22


 a1n 

 a2n 
 

 a nn 
chiamiamo matrice caratteristica di A la matrice tI - A
a12

a1n 
 t  a11


t  a 22  a 2 n 
 a
tI  A   21



 


 a



t

a
nn 
 nn
il suo determinante det(tI-A) si chiama il polinomio caratteristico di A.
Teorema Sia A una matrice quadrata di ordine n. Uno scalare a è un
autovalore di A se e solo se è una radice del polinomio caratteristico.
Nota 1. matrici simili hanno lo stesso polinomio caratteristico.
Nota 2. se le radici del polinomio caratteristico sono tutte reali allora la
matrice è diagonalizzabile.
Scarica