Lorenzo Giudice

annuncio pubblicitario
APPUNTI DI
ALGEBRA LINEARE
( di Lorenzo Giudice – 851032 )
Introduzione:
Questi appunti sono relativi al corso di Algebra Lineare tenuto, dal
professor Alberto Carraro, nell'anno 2014 / 2015 in sede Ca' Foscari
di via Torino – Mestre (VE).
Le pagine indicate, i teoremi, le definizioni, … , fanno riferimento
al libro di testo “ALGEBRA E MATEMATICA DISCRETA” di Alberto Facchini.
ALGEBRA LINEARE
SEMIGRUPPO
Un semigruppo è un insieme S, con un operazione binaria *.
( S , * ) in cui * : S x S → S
Proprietà associativa: ( x∗ y)∗z=x∗( y∗z )
Note: S x S = { (x , y) |
x , y ∈S }
MONOIDE
Un monoide è un semigruppo nel quale troviamo un elemento neutro per l'operazione.
n∈S
tale che
n∗x= x=x∗n
∀ x∈S
Esempi:
( N , • , 1 ) dove N è l'insieme dei numeri naturali.
( N , + , 0 ) dove N è l'insieme dei numeri naturali.
RELAZIONE
Una relazione è un sottoinsieme del prodotto cartesiano A x B
R⊆ A x B
Se A = { a , b } e B = { 0 , 1 }
R1 = { ( a , 0 ) } ;
R2 = { ( a , 0 ), ( b , 0 ) }
FUNZIONE
Una funzione ( elemento di
ad un altro sistema.
B A ) è una relazione f ⊆ A x B che associa elementi di un sistema
f : A → B oppure B A={ f ∣ f : A → B} dove B e A sono insiemi.
Tale che:
∀ x∈ A ,∃ y ∈B ∣ (x , y )∈ f
legge di totalità
∀ x∈ A ,∀ y , z ∈B se (( x , y)∈ f e ( x , z )∈ f )→ y=z legge di determinazione
Esempi:
2
R
R ={ f ∣ f : R → R}
f : ( x )=x
1
f : (x )=
x
∀ x∈R
∀ f ∈R
∀ x∈R0
R
∀ f ∉R
R
A
Approfondimento su B
• se A, B sono insiemi finiti, allora
B
A
è un insieme finito;
A
B è un insieme infinito;
A
• se A è un insieme finito e B è un insieme infinito, allora B è un insieme infinito;
• se A è un insieme infinito e B è un insieme finito, allora
Approfondimento su A
• se A è un insieme indichiamo con
p (A) l'insieme i cui elementi sono tutti e soli i sottoinsiemi di A :
p ( A)={x∣ x⊆ A}
Esempio:
A={0, 1}
p ( A)={∅ , {0}, {1}, A}
SEMIGRUPPO DELLE FUNZIONI
(B A ,∘)
Siano
∘=composizione di funzioni
f , g ∈R R ;
( f ∘ g )( x )= f (g ( x))
∀ x∈R
∀ f , g , h∈B
f ∘ g ∈R R è l'operazione tale che
A
( f ∘ g )∘ h= f ∘(g ∘h)
proprietà associativa
( f ∘(g ∘ h))( x)= f ((g ∘ h)( x ))= f (g (h( x)))
MONOIDE DELLE FUNZIONI SU A ( insieme )
( A A ,∘ ,id A)
id A : A → A
id A : x → x
( f ∘id A)(x )= f (x ) e (id A ∘ f )(x )= f (x )
STRUTTURE ALGEBRICHE DEFINITE DA ASSIOMI
Le istruzioni algebriche che andremo a studiare sono definite da assiomi.
• SOTTOSEMIGRUPPO
Un sottosemigruppo è una struttura che vive sotto le condizioni di un semigruppo.
(T , ♦) È un sottosemigruppo di ( S ,♦ ) se ♦ è la stessa operazione e T ⊆S tale che T
deve essere chiuso rispetto all'operazione ♦ ( cioè che per ogni a , b∈T , a ♦ b∈T ).
Esempi:
- ( Z {0 },•) è sottosemigruppo di ( Z ,•) ;
- Sapendo che
B⊆ A allora ( p ( B) , U ) è sottosemigruppo di ( p ( A) , U )
Sapendo che p (B)⊆ p( A) . Dati x , y ∈ p (B) e quindi
quindi x U y ∈ p( B) .
x , y⊆ B allora x∪ y ⊆B
- ( Interi pari ,•) è sottosemigruppo di ( Z ,•) .
• SOTTOMONOIDE
Dato (T ,•) che è sottosemigruppo di ( M , • ,1) dico che T è sottomonoide qualora
l ' elemento neutro∈T .
( M , ♦ , 1) è monoide e il suo più piccolo sottomonoide è ({1} ,♦ ,1) .
( p ( B) ,∩, B) è sottomonoide di ( p ( A),∩, A) ??? No. Solo se A = B.
Def.: Dato un monoide (M , • ,1) ( dove l'operazione è denotata come moltiplicazione ),
posso definire a n ( per ogni n∈N e a∈M )
{ a 0=1
{ A(n+1)=a • a n=a n • a
Esempi:
Dato a , b∈R , (a •b) n=a n • bn . Domanda: Se ( M , • ,1) è un monoide, è vero che
per ogni a , b∈M , e per ogni n∈ N , vale la regola (a •b) n=a n • bn ?
NO!! NON SEMPRE!! Si, se (M , • ,1) è commutativo.
→ (a b)n=(ab)(ab)=a (b( ab))=a ((ba )b)
→ a n b n=(aa)(bb)=a (a (bb))=a((ab) b)
Note: Per il monoide
( M ,+,0) si ha che n (a+b)=na+nb .
Esempi:
( S ,•)=semigruppo ;(T 1, •) ,(T 2, •)=sottosemigruppi
Se T 1 T 2={t 1 •t 2 :t 1∈T 1, t 2 ∈T 2 } allora (T 1 T 2 , •) è sottosemigruppo di ( S ,•) ?
Non sempre!!
Prendendo due elementi arbitrari di T 1 T 2 , (t 1 • t 2) •(t 11 • t 12)=(t 1 • t 11 )(t 2 • t 12)∈T 1 T 2 .
Note: Se
( S ,♦ ) è commutativo allora (T 1 T 2 , ♦) è sottosemigruppo di S.
Esempi:
Sia S il monoide delle parole su { 0, 1 }:
S =({0,1}* , ♦ , ε ) dove ♦ è l'operazione di concatenazione e {0,1}× è l'insieme di tutte
le sequenze finite dei simboli 0, 1, e ε è la stringa vuota.
01010100010010111∈{0, 1}*
NON E' COMMUTATIVA
Sottogruppi e sottomonoidi
T 1=({0 }* ,♦ , ε)
*
T 2=({1} , ♦ , ε)
Otteniamo che T 1 T 2=0* 1* oppure ({0 n 1 m }, n , m∈N , ♦ , ε ) quindi T 1 T 2 non è
sottosemigruppo di S.
Sia M un monoide. Se T, S sono sottomonoidi di M, allora S ∩T è un sottomonoide di M.
E invece S ∪T ? Non sempre.
Esempi:
Sia M =({0, 1}R , ♦ , ε ) dove ♦ è l'operazione di concatenazione e ε è la stringa vuota.
Siano T =({0n :n⩾0}, ♦ , ε) e S =({1m :m⩾0 }, ♦ , ε ) .
S ∩T =( nel peggiore dei casi )({ε }, ♦ , ε )
S ∪T ={0n : n⩾0}∪{1m :m⩾0 }→ e ad esempiola stringa 10∉S ∪T
Determiniamo quindi [S ∪T ] che è il monoide di M più piccolo che contenga S ∪T , e
allora S ∪T =M .
Sia M un monoide e sia x⊆M , allora [ x] è il più piccolo sottomonoide di M
contenente x, e che chiamiamo sottomonoide generato.
Esempi:
[M ]=M
[∅]={elemento neutro}
Dimostriamo ora che è davvero il più piccolo sottomonoide, utilizzando la chiusura per
intersezione dei sottomonoidi.
Se M è un monoide e {S i }(i ∈ I) sottomonoidi di M allora ∩(i ∈I ) S i è sottomonoide di M.
In poche parole, [ x] è l'intersezione di tutti i sottomonoidi di M che contengono x.
[ x]=∩{S : S sottomonoide di M e S⊇ x }
Esempi:
(N ,+, 0) e X ={3, 2}→ [ x]= infiniti elementi.
Lemma ( caratterizzazione di [ x ]):
[ x]={1n }∪{x1 ♦ x 2 ♦ ... ♦ x n | n>1 e xi ∈ X e ∀ i=1 ... n}
Siano S, T monoide. Definisco il loro prodotto diretto S x T:
(S ,+S ,1 S )
(T ,+T ,1T )
(S×T , +S ×T ,1 S ×T )
(s1 , t 1 )+S ×T (s 2 , t 2)=(s1 +S s 2 ,t 1 +T t 2) in cui
si ∈S (i=1, 2) e t j∈T ( j=1, 2)
L'elemento neutro invece 1S ×T =(1 S , 1T )
e infatti (s , t )+S ×T (1 S ,1T )=(s +S 1 S , t +T 1T )=(s , t )
• OMOMORFISMI
Dati due monoidi ( M , +M , 1 M ) e ( N ,+N ,1 N ) , si definisce omomorfismo una
funzione f : M → N tale che:
f ( x +M y )= f ( x )+N f ( y)
Esempi:
e
loge :( R+ , • , 1) →(R ,+, 0)
loge (x • y )=log e ( x)+log e ( y )
loge (1)=0
f (1 M )=1 N con x , y ∈M
Lemma: Sia f : M → N omomorfismo di monoide.
f ( M )={ f ( x) : x ∈M } è allora un sottomonoide di N.
Dimostrazione: Dati due monoidi ( M , +M , 1 M ) e ( N ,+N ,1 N ) , dimostriamo che:
- 1 N ∈ f (M ): per definizione, f (1 M )=1N quindi 1 N ∈ f ( M ).
- dati due elementi z , y ∈ f (M ) , dimostriamo che z +N y ∈ f (M ) .
Se z , y ∈ f ( M ) , dimostro che esistono due elementi z 1, y 1∈M tali
che z= f ( z 1) e y= f ( y1 ) . Allora:
z +N y= f ( z 1)+N f ( y 1 ) che sappiamo essere uguale a f ( z 1 +M y 1) .
Lemma: Sia f : M → N omomorfismo di monoide.
f 1( N )={x∈M : f (n)∈N } è allora un sottomonoide di M.
Dimostrazione: Dati due monoidi ( M , +M , 1 M ) e ( N ,+N ,1 N ) , dimostriamo che:
- 1M ∈ f 1 ( N ) : per definizione, f 1 (1 N )=1 M quindi 1 M ∈ f 1 ( N ).
- dati due elementi z , y ∈ f 1( N ) , dimostriamo che z +M y ∈ f 1( N ) .
Se z , y ∈ f 1( N ) , dimostro che esistono due elementi z 1, y 1∈N tali
che z= f 1 ( z 1) e y= f 1 ( y 1) . Allora:
z +M y= f 1 ( z 1)+M f 1 ( y 1) che sappiamo essere uguale a f 1 ( z 1 +N y 1) .
• ENDOMORFISMO
E' un omomorfismo di un monoide in se stesso.
f :M →M .
Dato un monoide ( M M ,∘ , id M ) , definiamo l'insieme degli endomorfismi di M.
( End ( M ) ,∘ , id M ) è sottomonoide di
allora f ∘ g ∈End (M ) :
M
M
se, dati
f , g ∈End (M ) ,
- dimostriamo che ( f ∘ g ) è un endomorfismo:
( f ∘ g )( x+M y )= f (g ( x +M y))= f (g ( x)+M g ( y))=( f ∘ g )(x )+M ( f ∘ g )( y) ;
- dimostriamo che ( f ∘ g )(1 M )=1 M →( f ∘ g)(1 M )= f ( g (1M ))= f (1 M )=1M ;
- dimostriamo che id M ( x +M y)=id M ( x)+M id M ( y)= x +M y ;
- dimostriamo che id M (1 M )=1M ;
Esempio: Siano( End ( N ) ,∘ , id N ) (N ,+, 0)
f , g , h∈End (N )
• ISOMORFISMO
E' un omomorfismo biettivo, formato cioè da funzioni biettive.
*Note: una funzione è biettiva quando è sia suriettiva ( f : A → B
se f (x)= f ( y) allora x= y ).
iniettiva ( f : A → B
∀ y ∈B ,∃ x ∈A | f ( x)= y
) che
• AUTOMORFISMO
E' un isomorfismo di un monoide in se stesso.
GRUPPI
Introduzione
Nel caso del monoide (M , +M , 1 M ) , diciamo che un elemento a ∈M è invertibile ( a destra )
se esiste un elemento c ∈M tale che a +m c=1 .
Diciamo poi che è invertibile ( a sinistra ) se esiste un elemento b∈M tale che b+m a=1 .
E' un elemento invertibile se è invertibile sia a destra che a sinistra.
Lemma: sia ( M , • ,1) un monoide, scritto in notazione moltiplicativa, e a ∈M invertibile.
Allora inverso destro e inverso sinistro coincidono, e l'inverso si denoterà
con a1 .
Dimostrazione: sia b inverso sinistro e c inverso destro.
b=b •1=b •(a • c)=(b • a) • c=1• c=c
Se invece utilizzo la notazione additiva ( M ,+, 0) allora l'inverso si denoterà
con a .
Un gruppo è un monoide (M ,+, 0) in cui ogni elemento di M è invertibile. Siccome ogni
elemento ha un inverso, posso pensare allora che un gruppo sia un monoide dotato di una funzione
unaria ( che usa un elemento ) che mappa a →a e che soddisfa la seguente proprietà:
a+(a)=0 e (a )+a=0 ( in cui 0 è l'elemento neutro del monoide ).
Esempi:
(Q{0} ,• ,1) è un gruppo. Difatti
( Z ,+, 0) è un gruppo. Difatti
1
x • =1
x
x+(x)=0
( P (N ),∪,∅) non è un gruppo. Per essere un gruppo, dovrebbe esistere un insieme Y tale
che X ∪Y ( X , Y ∈P (N ))=∅ .
( P (N ) ,∩, N ) non è un gruppo. Per essere un gruppo, dovrebbe esistere un insieme Y
tale che X ∩Y ( X , Y ∈P ( N ))=N .
( End ( M ) ,∘ , id M ) è un monoide, ma non è un gruppo. Per essere invertibile, per ogni
funzione f deve esistere un funzione g tale che f ∘ g =g ∘ f =id M e si indica con g= f 1 .
Una funzione è invertibile se è biettiva.
Sia (G ,• , 0) un gruppo e x ∈G . L'operazione che mappa
l'inverso dell'inverso. (x1)1= x
x →x è un'involuzione cioè
Dimostrazione:
x • x=1 e x • x=1 entrambe vere per definizione.
Sia (G ,• , 0) un gruppo. Allora: (a •b)1≠a1 • b1 ma (a •b)1=b1 • a1
Dimostrazione:
1
1
1
(a •b) ≠a • b
1
1
1
Dimostro poi che: (b a )(a • b) =1 → a (b b) a=1
SOTTOGRUPPO DI UN GRUPPO
Un sottogruppo di un gruppo è un sottomonoide in cui vale lo stesso elemento inverso.
OMOMORFISMO DEL GRUPPO
E' un omomorfismo di monoidi f : G → H (G, H gruppi) in cui
f ( x1)= f ( x)1 .
SOTTOGRUPPO DI UN GRUPPO
Sia G gruppo, H è sottogruppo di G ( H ≤G ) se H è un sottomonoide di G tale che a1∈H per
ogni a ∈ H .
PRODOTTO DIRETTO DI GRUPPI
Siano G, H gruppi.
Il prodotto G x H è un gruppo avente insieme inverso G x H ={(g , h): g ∈G , h∈ H } e avente
operazione: ( g , h)∗( g 1 , h 1)=(g •G g 1 , h• H h 1) .
L'elemento neutro è (1G ,1 H ) .
Esempi:
( N ,+, 0) non è un gruppo.
( Z ,+, 0) È un gruppo.
Per ogni n∈ N con n>1 → nZ={n• q : q∈ Z }
Contiene lo 0
E' chiuso per la somma nq+nq 1=nq ( che è multiplo )
E' chiuso per l'inverso di nq che è n (q)
INSIEME DELLE CLASSI RESTO ( cap. 2.8 )
E' un insieme in cui gli elementi sono insiemi
Z / ( ≡ ) ={[a ](≡ ) : a ∈Z } con n∈N
n
n
≡n è la congruenza modulo n:
a ≡n b a congruo b modulo n se e solo se n divide ( a - b ).
[a]≡ ={b∈ Z : a ≡n b} è la classe di equivalenza di a modulo n ( ogni classe avrà n elementi ).
n
[2]≡ ={2,5, 8,7,4,1}
Esempi:
3
MONOIDE DELLE CLASSI RESTO
( Z / ≡ ,+,[0]≡ ) è un gruppo solo se n è primo.
n
n
[a]+[b ]=[a+b] e [a ]+[0 ]=[a]
Conclusione: la somma è un'operazione compatibile con la congruenza
≡n .
ANELLO ( cap. 4.24 )
Un anello è una struttura con due operazioni e un elemento particolare.
( R ,+, • , 0)
Proprietà:
- ( R ,+, 0) è un gruppo commutativo o abeliano;
- ( R ,•) è un semigruppo;
- in queste strutture vale la distributività dell'operazione del semigruppo:
a (b+c)=ab+ac e (b+c)a=ba+ca per ogni a , b , c ∈R
Esempi:
( Z ,+, • , 0) è un anello.
ANELLO CON IDENTITA'
Un anello con identità è un anello con un elemento neutro del monoide (R ,• , 1) e 0≠1 .
ANELLO COMMUTATIVO
E' un anello ( R ,+, • , 0) tale che ( R ,•) è commutativo.
Lemma ( cap. 24.4 ): Sia R un anello. Allora 0 • a=a • 0=0 .
Dimostrazione:
0 • a=(0+0)• a=0 a+0 a quindi posso sommare o sottrarre e resta uguale. 0 a=0 a+0 a
Decido di sommare 0 a → 0 a0 a=0 a+0 a0 a=0 a e 0 a0 a=0 .
Osservazione: (a)b=a (b)=(a b)
Quindi (a)b+(a b)=0=( a b)+(a) b
a , b∈R
→ (a+a )b=0 b=0
ANELLO COMMUTATIVO CON IDENTITA'
Esempi:
( R ,+, • , 0, 1)
DOMINII DI INTEGRITA'
Un dominio di integrità è un anello commutativo con identità tale che non vi sono divisori dello 0.
Un divisore dello zero è un elemento a ∈R{0} per il quale esiste un b∈ R{0} tale che
a • b=0 ).
CAMPO
Un campo è un anello commutativo con identità in cui ogni elemento non nullo è invertibile.
DIMOSTRAZIONE lemma 24.10 ogni campo è un dominio di integrità
( R{0} ,• ,1) è un gruppo
Esempi:
( Z / ( ≡ ) ,+,• ,[0] ,[1]) è campo solo se n è primo. ( Dimostrazione cap 4.27 VEDERE )
5
L'inverso moltiplicativo di [3] è un [b ] tale che [3]•[b ]=[1] → per esempio [2]
*
[0]
[1]
[2]
[3]
[4]
[0]
[0]
[0]
[0]
[0]
[0]
[1]
[0]
[1]
[2]
[3]
[4]
[2]
[0]
[2]
[4]
[1]
[3]
[3]
[0]
[3]
[1]
[4]
[2]
[4]
[0]
[4]
[3]
[2]
[1]
+
[0]
[1]
[2]
[3]
[4]
[0]
[0]
[1]
[2]
[3]
[4]
[1]
[1]
[2]
[3]
[4]
[0]
[2]
[2]
[3]
[4]
[0]
[1]
[3]
[3]
[4]
[0]
[1]
[2]
[4]
[4]
[0]
[1]
[2]
[3]
ANELLO DI POLINOMI
Un anello di polinomi, è un anello tale che:
n
sia R un anello → R [ x]={∑ a i • x (n)
i : a i ∈R , n≥0} in cui x è indeterminata.
i =1
Esempi:
L'anello R[ x ] ( con R = numeri reali )
3x 2+3x+1∈R[ x ]
in cui 0 è l'elemento neutro per la somma in R[x] e 1 è l'elemento neutro per il prodotto in
R[x].
Se R è campo, allora R[x] è campo a sua volta?
No. Poiché un b tale che (x 2+ x)•(b)=1 non esiste.
ANELLO DELLE MATRICI
Una matrice è una tabella formata ordinata di elementi di n righe e m colonne.
Due casi particolari di matrice, sono il vettore riga ( formato da una sola riga ) e il vettore colonna
( formato da una sola colonna).
Date due matrici A, B, la loro somma è a sua volta una matrice in cui ogni elemento sarà:
A+ B=(a ij +bij )
La somma fra due matrici, non è definita se entrambe le matrici non sono della stessa dimensione.
Il prodotto invece è:
p
A • B=∑ ai bi
i=1
Note: Il prodotto, poi, non è commutativo.
Una matrice n x m ad elementi in R ( anello ) è una matrice nella quale ogni elemento a ij ∈R per
ogni i=1, 2, ... , n e ogni j =1, 2, ... , m .
Il prodotto fra due matrici A( n x p) e B( p x k ) è uguale a:
(a ij ) •(b ij )=(c ij )
(c ij ) è il prodotto fra l'i-esima riga di A( ai1 , a i2 , ... , a ip ) e la j-esima colonna di
B(b 1j , a 2j ,... , b pj ) .
p
A • B=(c 1j )=∑ a ih • b hj
h=1
Se n=m posso definire l'anello delle matrici quadrate di dimensione n sull'anello R:
( M n ( R) ,+,• , 0 ,1)
0=
1=
SPAZIO VETTORIALE
Uno spazio vettoriale è una coppia costituita da un campo ( K ,+K ,• K , 0 K , 1K ) ed un gruppo
abeliano (V ,+V ,0 V ) e un'operazione detta prodotto scalare che è una funzione binaria
f : K x V → V.
Note: Gli elementi del campo sono chiamati coefficienti oppure scalari, mentre gli elementi del gruppo
abeliano sono chiamati vettori.
In uno spazio vettoriale sono dimostrabile tre proprietà:
- Associatività: (a b)v=a (b v) per ogni a ,b ∈K e v∈V
- Distributività: a (v +w )=av+aw e (a+b)v=av+bv per ogni a , n∈K e v , w ∈V
- Identità: 1 K v=v per ogni v ∈V
Esempi:
Sia K un campo. Allora l'insieme K n (n≥1) è uno spazio vettoriale su K.
K n={(a 1 , a2 ,... , a n ):a i ∈ K , i=1, 2, ... , n}
Esempio ( 34.4 ~ gruppo dei polinomi ~ p. 300 ):
Sia K [ x] il gruppo di polinomi a coefficienti in un campo K con x indeterminata.
( K [ x] ,+, 0) è un gruppo abeliano ed è spazio vettoriale su K.
Il prodotto scalare è: (a , p( x )) → q( x) con a ∈ K e p( x ) , q ( x )∈ K [ x ]
n
n
i=0
i=0
p ( x )=∑ bi x i quindi q ( x )=a ( p( x ))=∑ ( a bi ) x i
Poiché le proprietà del prodotto scalare valgono,
K [ x] è spazio vettoriale di K.
Note: Ogni campo è spazio vettoriale su se stesso ( dimostrazione esempio 34.4 ).
Sia V spazio vettoriale su K. Per ogni a in K valgono i seguenti assiomi:
- a⋅0V =0 V ;
- 0 K⋅v=0 V
- (a)⋅v=a⋅(v)=(a⋅v )
- a⋅v =0V ( se e solo se a=0 K oppure v= 0V )
Dimostrazione
a) Supponiamo che a=0 K oppure v=0V :
- se a=0 K → 0 K⋅v=0 V ;
- se v=0V → a⋅0V =0V ;
b) Supponiamo ora che a≠0 K. Allora esiste un a1 tale che:
- v=1 K v=( a1⋅a)⋅v =a1⋅(a⋅v)=a1⋅0 v =0 v
SOTTOSPAZIO VETTORIALE
Sia V uno spazio vettoriale su K.
U ⊆V È un sottospazio vettoriale di V ( su campo K ) se U è sottogruppo di V e U è chiuso per il
prodotto scalare ( ∀ a∈K ∧∀u ∈U ( a⋅u∈U ) ).
Esempi:
Sia K [ x]≤n l'insieme dei polinomi a coefficiente in K e indeterminata x di grado al più n.
n
K [ x]≤n={∑ a i x :a i ∈K per ogni i =1,... , n}
i
i=0
R[ x ]≤2={x 2 , 1+2x 2, x , 0 , 2x , ...}
Allora
K [ x]≤n è sottospazio vettoriale di
K [ x] su campo K.
Al contrario, un gruppo abeliano come ( Z ,+, 0) , dove Z è l'insieme dei numeri interi, è
spazio vettoriale su Z, ma non è spazio vettoriale su R, dove R è l'insieme dei numeri reali.
Infatti il prodotto scalare fra a ∈ R e v ∈ Z mi darebbe come risultato un numero reale
che non è contenuto nel gruppo ( Z ,+, 0) .
SOTTOSPAZIO VETTORIALE GENERATO
Sia V spazio vettoriale su K e X ⊆V .
< X > è il più piccolo sottospazio vettoriale di V su K.
Possiamo descrivere in maniera esplicita < X >.
Sia
X ={v1, … , v m }⊆V
m
< X >={∑ a i⋅v i : a i ∈K e i=1, … , m} quindi < X > è la somma delle
i =1
combinazioni di vettori di X a coefficienti in K.
Per convenzione, stabiliamo che <∅>={0V } .
Esempi:
3
(R ,+, 0) è spazio vettoriale su Z ( numeri interi )
X ={(2, 0 , 0) ,(4,0, 0) , (0,6, 0)}
< X > ={a1⋅v 1+a 2⋅v 2+a 3⋅v 3 :a 1, a 2, a 3 ∈Z }
a 2⋅v 2=a 2⋅(4, 0, 0) →
2⋅a 2⋅(2, 0 , 0)=2⋅a 2⋅v 1
→ < X >={a 1⋅v 1+a3⋅v 3}=<{v 1, v3 }>={(2⋅a 1 , 6⋅a 2 , 0): a 1, a 2∈ Z }
Verifichiamo che sia:
- chiuso per la somma: (2⋅a 1 , 6⋅a 2 , 0)+(2⋅b1 , 6⋅b 2 , 0)=( 2⋅(a 1+b1 ) , 6⋅(a 2+ b2 ) , 0) ;
- chiuso per il prodotto scalare: λ⋅(2⋅a 1 , 6⋅a 2 , 0)=(2⋅(a 1⋅λ) ,6⋅(a2⋅λ) , 0) ;
Se V è spazio vettoriale su K e X ⊆V tale che < X >=V diciamo che X è un insieme di
generatori di V ( cioè V è generato dai vettori di X ).
Esempi:
3
(R ,+, 0) è spazio vettoriale su R ( insieme dei numeri reali )
X ={e 1 , e 2 , e3 }={(1, 0, 0),(0, 1, 0) ,(0, 0, 1)}
< X >={α⋅e 1+ β⋅e 2+γ⋅e 3 : α , β , γ ∈R}=R
α , β , γ ∈R .
3
quindi v=(α , β , γ) con
Sia < X 1 >={α⋅e 1+ β⋅e 2+γ⋅e 3+δ⋅(4, 7,9) :α , β , γ , δ ∈R}=v+δ (4, 7,9)
1
→ < X > ⊆< X >
Conclusione: Se V è spazio vettoriale su K e X ⊆V tale che < X >=V , allora per ogni
Y ⊆V tale che X ⊆Y si ha che <Y >=V .
SPAZIO VETTORIALE DELLE MATRICI
Su un campo K sia
( M m x n ( K ) ,+, 0) dove 0 è la matrice nulla.
Il prodotto scalare è
GENERATORI PER M m x n ( K )
Sia
dove 1 è l'elemento di coordinate (i , j) .
L'insieme
X ={e ij : 1≤ i ≤m ∧ 1≤ j ≤m} è tale che lo spazio generato
Esempi:
Sia
e
allora
perché, sia
allora
< X >=M m x n (K )
Esempi:
Sia ( K [ x] ≤n ,+, 0) spazio vettoriale su K e
X ={0, x , x 1, x 2, ... , x n }
n
< X >=K [ x] ≤n ( preso un polinomio p∈K [ x ] ≤n è per definizione una
∑ α i⋅x i
)
i=0
~•~•~•~•~•~•~•~•~•~•~•~•~•~•~•~•~•~•~•~•~•~•~•~•~
Sia ( K X ,+, 0) dove K X ={ f : X → K } + è l'operazione di K tale che
( f +g )( x )= f ( x )+g ( x) ( x ∈ X e f , g ∈K X ) e 0={ f : x → 0} .
(K X ,+, 0) è spazio vettoriale su K con prodotto scalare (α⋅ f )(x )=α⋅ f (x ) dove • è la
moltiplicazione di K.
LE FUNZIONI LINEARI
Siano U, V due spazi vettoriali su uno stesso campo K.
f : U → V è una funzione lineare se soddisfa le seguenti proprietà:
- f ( x+ y )= f (x )+ f ( y ) per ogni x , y ∈U ;
- f (α x)=α⋅f (x ) per ogni x ∈U e α ∈ K ;
Proprietà che seguono:
- f (O U )=O V ;
- f (u)= f (u) per ogni u∈U ;
Note: Se
f : U → V è una funzione lineare biettiva, prende il nome di isomorfismo lineare.
Esempi:
e
spazi vettoriali su K
f ( x , y , z )=(2x , 3y+z )
Presi u=( x 1 , x 2 , x 3 ) e v=( y 1 , y 2 , y 3)
a) f (u+v)= f ( x1 + y 1 , x 2+ y 2 , x 3+ y 3)=(2( x 1+ y 1) ,3( x 2+ y 2 )+( x 3+ y 3))
f (u)+ f (v )=(2 x 1 , 3 x 2+x 3 )+(2 y 1 , 3 y 2 + y 3)=(2( x 1+ y 1) ,3( x 2+ y 2 )+( x 3+ y 3))
b) α⋅ f (u )=α ( 2 x1 , 3 x 2+x 3 )=(2 α x1 , 3α x 2+α x3 )
f (α u)= f ( α x 1 , α x 2 , α x3 )=(2 α x 1 , 3 α x 2+α x 3)
Lemma: Sia f : U → V funzione lineare tra spazi vettoriali su K.
Se X è sottospazio di U allora f ( X ) è sottospazio di V.
Dimostrazione: Siano f (u) e f (u 1) due elementi di f ( X ) ( u , u 1∈ X )
f (u)+ f (u 1) = f (u+u 1)∈ f ( X )
α⋅f (u )= f (α u)∈ f ( X )
Lemma: Sia f : U → V funzione lineare tra spazi vettoriali su K.
Se Y è sottospazio di V allora f 1( y) è sottospazio di U.
Dimostrazione: Siano f 1( v ) e f 1( v 1) due elementi di f 1( Y ) ( v , v 1∈Y )
1
1
1
1
f ( v )+ f ( v 1) = f ( v+v 1)∈ f (Y )
1
1
1
α⋅ f (v )= f (α v )∈ f (Y )
Approfondimento: f
A
Sia K n spazio vettoriale su K.
( _ , _ , … , _ ) è un elemento di K n
Da una matrice A∈M m x n ( K ) è possibile definire f
A
:
f A: K n → K m
in cui
f A(v)= A⋅v con v ∈ K n ( e vediamo il vettore v come un vettore colonna ).
Proprietà di
f
A
:
- f A (v+u)= f A (v )+ f A (u) per ogni u , v ∈K n ;
- f A ( β v )= β⋅ f A (v ) → A⋅( β v)= β ( A v) per ogni v ∈ K n e β∈K :
Dimostrazione:
A⋅( β v)=ci 1 ∧ β ( A v )=d i 1
Dobbiamo dimostrare che c i 1=d i 1
n
n
h=1
h=1
c i 1=∑ a i h ( β⋅α n)= β⋅∑ a i h α n=d i 1
NUCLEO ( KERNEL )
Sia f : U → V funzione lineare.
ker f ={u∈U : f (u )=OV }
ker f ⊆U
Siano u , u 1∈ f :
- f (u+u 1)= f (u)+ f (u1 )=0V +0 v =0 v ;
- f (α u)=α⋅f (u)=α⋅0V =0V ;
DIPENDENDENZA E INDIPENDENZA
INSIEME DI VETTORI LINEARMENTE INDIPENDENTI E DIPENDENTI
( cap. 6.36 )
Sia V spazio vettoriale su K e siano v 1, … , v m ∈V.
Si dicono linearmente indipendenti se e solo se per ogni combinazione lineare che coinvolge
α 1 v 1+α 2 v 2+...+α m v m =0V abbiamo che α 1=α 2 =α m=0 K .
Si dice invece che sono linearmente dipendenti se e solo se esiste una sequenza α 1, … , α m di
m
scalari non tutti nulli tali che
∑ α i v i =0V .
i=1
Esempi:
Dipendenti
Se α 1=1 , α 2=1 , α 3=0 allora α 1 v 1+α 2 v 2+α 3 v3 =0V
Accorgimenti: se ci sono doppioni fra i vettori ( v, v, u ) oppure se fra i vettori è
presente 0V , allora abbiamo dipendenza.
Indipendenti
Se prendiamo
dove e 1=( 0,… , 1 , … , 0) dove l'uno è in posizione i, abbiamo che
e 1=(1 , 0 ,0) e 2=(0 ,1 , 0) e 3=( 0 ,0 , 1)
3
∑ α i e i=0
allora: α 1 1+α 2 0+α 3 0=α 1 1=0
i=1
α 1 0+α 2 1+α 3 0=α 2 1=0
α 1 0+α 2 0+α 3 1=α 3 1=0
Quindi e 1 , e 2 , e 3 sono linearmente indipendenti.
Proposizione ( 36.4 )
Dei vettori v 1 , … , v m ∈V sono linearmente dipendenti se e solo se uno è combinazione
lineare degli altri.
m
Esiste cioè j∈1 ,… , m e α 1 , … , α j 1 , α j+1 , … , α m tale che v j =∑ α k v k con k ≠ j .
k=1
Dimostrazione:
=> Supponiamo che v 1 , … , v m siano linearmente dipendenti cioè esistono coefficienti
m
α 1 , … , α m ed esiste j tale che α j≠0 , allora
∑ αk v k =0
k =1
m
Portiamo gli addendi a destra isolando α j v j
α j v j =∑ (α k v k )
Trovandoci in un gruppo abeliano, esiste l'inverso di α j
(α )( α j v j )=(α1
j ) ∑ (α k v k )
k=1
m
1
j
k=1
m
Valendo la associatività nel gruppo abeliano
1
(α1
j α j )( v j )=(α j ) ∑ (α k v k )
k=1
m
Infine valendo la commutatività della moltiplicazione
v j =∑ (α k α j )v k
1
k=1
Ottenendo che v j è combinazione lineare degli altri.
m
<= Supponiamo che v j =∑ α k v k con k ≠ j
k=1
m
Portiamo v j
0=v j+∑ α k v k
a destra
k=1
Otteniamo che il membro destro non è altro che una combinazione lineare in cui α j=1 e quindi
α j≠0 .
Quindi v 1 ,… , v m sono linearmente dipendenti.
Proposizione ( 36.8 )
Se <{v 0 , … , v m }> ( insieme di vettori ) genera V.
<{v 0 , … , v m }>=V e v 0 è combinazione lineare di v 1 ,… , v m allora l'insieme
<{v 1 , … , v m }>=V .
Dimostrazione: Supponiamo che <{v 0 , … , v m }> genera V, dimostro che ogni vettore in V è
combinazione lineare di v 1 ,… , v m . Sia u∈V
m
m
m
m
k =0
k=1
k=1
k=1
u=∑ α k v k =( ∑ α k v k )+α 0 ( ∑ β k v k )=∑ ( a k +α 0 β k ) v k
BASE DI UNO SPAZIO VETTORIALE
Sia V spazio vettoriale su K.
Sia B⊆V , dove B è un insieme finito di vettori.
B è base di V se <B>=V e B è linearmente indipendente.
Note: sia X ⊆V . Più grande è X più cose può generare, ma diminuisce la possibilità che sia linearmente
indipendente.
Una base è un insieme massimale di vettori linearmente indipendenti, cioè per ogni B' tale che
B⊂ B' , B' non è linearmente indipendente.
Proposizione ( 36.15 )
Sia B⊆V ( finito ), allora le seguenti affermazioni sono equivalenti:
a) B è base di V;
b) B è un insieme linearmente indipendente massimale;
c) B è un insieme minimale di generatori ( cioè se B è una base che genera V ed esiste un
B' tale che B' ⊂ B , allora <B' >≠V ).
Dimostrazione:
(a ) →(b)
Sia B una base. Per definizione B è linearmente indipendente. Sia B' ⊃ B , dimostro che B' non
è linearmente indipendente.
m
Sia v ∈B – B , allora poiché <B>=V abbiamo che v=∑ α i ui dove B={u 1 , … , um } .
'
i =1
Quindi B è linearmente dipendente visto che v è combinazione lineare degli altri vettori.
'
(b) →(a)
Supponiamo che B sia un insieme lineare indipendente massimale.
B è linearmente indipendente per ipotesi, quindi ci resta da dimostrare che <B>=V.
Siano v ∈V e B={u 1, … , u m }. Abbiamo due casi:
- v ∈B : esiste i ∈{1 ,… , m} tale che u i=v e scelgo α i=1 e α j=0 per ogni
j={1 , … , m}– {i}.
m
v=∑ α j u j
j=1
- v ∉B : B1={v }∪B estende propriamente B quindi B' non è linearmente indipendente a
causa di v e cioè v è combinazione lineare dei vettori di B, quindi v ∈ <B> .
Allora <B>=V .
(a ) →(c )
Suppongo che B sia base di V. Per definizione B è un insieme di generatori. Sia B' ⊂ B . Voglio
dimostrare che <B' >≠V .
Sia v ∈B – B ' . Poiché B genera V, v è combinazione lineare dei vettori di B. Voglio dimostrare che
'
v ∉<B >
Se per assurdo v ∈ <B' > allora anche v ∈ <B – {v }> cioè B non sarebbe linearmente
indipendente.
(c) →(a )
Sia B insieme minimale di generatori di V.
Per ipotesi <B>=B . Ci manca da dimostrare che B è linearmente indipendente.
Per il lemma 36.14, B contiene una base di B e B deve essere quella base, perché è insieme
minimale di generatori.
Lemma 36.14
Se X è un insieme che genera V allora X contiene una base di V.
TEOREMA DI SOSTITUZIONE DELLE BASI ( 36.16 )
Sia V spazio vettoriale su K e sia B={v1 ,… , v n } una base di V.
Siano w 1 , … , wm vettori linearmente indipendenti in V. Allora m≤n e l'insieme
'
B ={w 1 , … , w m , w m+1 , … , v n } è una base di V.
Esempi:
( R3 ,+, 0) e B={e 1 , e 2 , e3 } è base.
w 1=( 0 , 3 , 2)
w 2=(7,1 ,0) → posso sostituirli al posto di due vettori di B.
Corollario 36.17
Tutte le basi di uno spazio vettoriale hanno la stessa cardinalità.
K n ha base B={e 1 , … , e n}
DIMENSIONE DI UNO SPAZIO VETTORIALE
Si indica con Dim (v ) la cardinalità di una base qualsiasi di V se c'è altrimenti Dim (v )=∞ .
Esempi: ( 36.1 )
Q[ x ]≤2
A={2, 1+ x , 1x 2 ,2 xx 2 , x 2 }={q 1 , q 2 , q 3 , q 4 , q 5}
Dimostriamo che <A>=Q[ x ] ≤2 .
Sia
p∈Q [ x] ≤2 dimostro che p è combinazione lineare dei vettori di A.
5
Mostro che esistono α i (i=1,... ,5) tali che
p=∑ αi q i .
i=1
5
2
2
p=a+bx+cx 2 quindi a+bx +cx =∑ α i qi=(2α 1+α 2+α3 )+(α 22 α 4) x+(α 3α 4 +α 5) x
i =1
TEOREMA DI COMPLETAMENTO DELLE BASI
Corollario 36.19
Sia V spazio vettoriale di dimensione finita. Siano w 1 , … , wm vettori di V che sono tra loro
linearmente indipendenti.
Allora esiste una base di V contenente w 1 , … , w m .
Dimostrazione:
Sia dim(V )=n .
w 1 , … , wm sono linearmente indipendenti.
Allora m≤n ed esiste una base {v 1 , … , v n} tale che {v 1 , … , v m , v m +1 ,… , v n }.
Per il teorema di sostituzione delle basi, posso sostituire {w1 ,… , w m , v m+1 ,… , v n } che sarà
base di V.
Proposizione 36.20
Se V è spazio vettoriale di dimensione finita e U è sottospazio di V,
allora dim(U )≤dim(V ).
ESTENSIONE PER LINEARITA' ( cap. 6.38 )
Teorema 38.1
Siano V, W spazi vettoriali su campo K. Sia B={v1 ,… , v n } di V e sia w 1 , … , wm una
n-upla di vettori di W. Allora esiste un'unica applicazione lineare f : V → W tale che
f (v i )=wi per i=1, … , n .
Dimostrazione:
- Esistenza:
Definisco f come segue. Devo definire f (v ) per v ∈V arbitrario.
n
Sia v in V. Siccome B è base, esistono coefficienti α 1 , … , α m tali che v=∑ α i v i .
i =1
n
Quindi: f (v )=∑ α i w i
i=1
Dimostro che f è una funzione lineare:
a) f ( β v)= β f (v )
n
n
f ( β v)= f ( β ∑ α i v i )=∑ ( β α i )wi
i=1
i=1
n
n
i=1
i=1
β f ( v)= β ∑ α i wi =∑ ( β α i )wi
con v , u∈V
b) f (v+u)= f ( v)+ f ( u)
n
n
n
n
f (v+u)= f ( ∑ α i v i+∑ β i v i )= f ( ∑ ( α i+ β i) v i )=∑ (α i+ β i ) wi
i =1
i=1
i=1
n
n
n
i=1
i=1
i=1
i =1
n
n
f (v )+ f (u )= f ( ∑ α i v i )+ f ( ∑ β i v i )=∑ α i w i+∑ β i w i=∑ (α i+ β i )wi
i=1
i=1
Dobbiamo dimostrare che soddisfa f (v )=w.
n
n
i=1
j=1
f (v k )= f (∑ α i v i )=∑ α j w i=w k
con α k =1 e α j=0
- Unicità:
Devo dimostrare che f è l'unica funzione lineare tale che f (v i )=wi
(i=1 , … , n).
Sia g :V → W lineare tale che g (v i)=wi
g deve essere uguale a f .
Sia v ∈V .
n
f (v )=∑ α i w i
i=1
n
n
n
i =1
i=1
i =1
g (v)=∑ g (α i v i )=∑ α i g ( v i)=∑ α i wi
( i=1 ,… , n)
Lemma 38.3
Siano V, W spazi vettoriali su K. Sia B={v1 ,… , v n } base di V.
Allora f è isomorfismo se e solo se { f (v 1) ,… , f ( v n )} è base di W.
Dimostrazione ( => ):
Supponiamo che f sia isomorfismo. Dimostro che { f ( v 1) ,… , f ( v n )} è base di W.
n
Siano α 1 , … , α n coefficienti tale che
∑ α i f (v i )=0 W
.
i=1
n
n
Quindi
∑ α i f (v i )=0 W
diventa
i=1
f ( ∑ α i v i )=0W .
i=1
n
Per iniettività sappiamo che f (0V )=0W quindi
∑ α i v i =0V
, ma allora
i=1
α 1=α 2 =…=α n=0 K e quindi { f ( v 1) ,… , f ( v n )} sono linearmente indipendenti.
Dimostro ora che sono una base.
Sia w ∈W . Per la suriettività, esiste un v ∈V tale che f (v )=w .
n
n
i =1
i=1
Ma v=∑ α i v i quindi f (v )=∑ α i f (v i )=w .
Dimostrazione ( <= ):
Suppongo f ( B) ( { f ( v 1) ,… , f ( v n )} ) base di W. Devo dimostrare che f è iniettiva:
- suriettività:
n
Per ogni w ∈W , esiste una combinazione lineare
∑ α i f (v i )=w
.
i=1
n
Quindi
f ( ∑ α i v i )=w quindi è suriettiva.
i=1
- iniettività: ( una funzione lineare è iniettiva se e solo se ker f ={0V } ) .
Se f (v )= f (u) allora dobbiamo dimostrare che v=u .
Essendo all'interno di un gruppo abeliano, sappiamo che esiste l'opposto di ogni
elemento, quindi:
f (v )= f (u ) →
f ( v)+( f (u))= f (u )+( f (u))
→ f ( v)+ f (u)=0W
→
f (vu)=0 W
Sappiamo che f (0V )=0W quindi v – u=0V → v=u .
Usiamo l'implicazione ker f ={0V }→ f iniettiva.
Prendiamo v ∈V e ipotizziamo che f (v )=0W . Dimostriamo che v=0V .
n
Sappiamo che
∑ α i f (v i )=0 W
.
i=1
Sappiamo anche che gli elementi di f ( B) sono linearmente indipendenti quindi
n
f ( ∑ α i v i )=0W con α 1=α 2 =…=α n=0 K quindi v=0V .
i=1
Quindi abbiamo dimostrato che il ker f ={0V } quindi f è iniettiva.
Teorema 38.4
Sia W spazio vettoriale su K e sia dim(W )=n . Allora W è isomorfo di K^n (
Dimostrazione:
Sia dim(W )=n . Sappiamo che dim( K n )=n perché ha base {e1 , e2 , … , e n }.
W ha base w 1 , … , wn . Allora posso associare e 1 → w1 , e 2 → w 2 , … , e n → wn .
Quindi esiste un'unica funzione lineare f : K n → W tale che
f (e i)=w i per ogni i=1, … , n
e questa f è isomorfismo per il lemma 38.3 precedentemente dimostrato.
Proposizione 38.5
Sia f : V → W funzione lineare e W, V spazi vettoriali su K e sia V di dimensione
finita.
( Sappiamo che f (V ) è sottospazio di W e ker f è sottospazio di V ).
Allora f (V ) ha dimensione finita e dim(V )=dim( ker f )+dim( f ( V )) .
Se f è iniettiva cosa possiamo dire?
Se f è iniettiva, allora ker f ={0 V } e quindi dim( ker f )=0 .
Di conseguenza dim(V )=dim( f (V )) . Allora sono isomorfi (
isomorfismo.
fè
Corollario 38.7
Sia f : V → V quindi endomorfismo lineare e sia V di dimensione finita.
Allora f è suriettiva se e solo se f è iniettiva.
Dimostrazione ( <= ):
Se f è iniettiva, allora ker f ={0 V } quindi dim( ker f )=0 .
Ma se dim(V )=dim( f (V )) allora f (V )=V .
Dimostrazione ( => ):
Supponiamo f suriettiva. Allora dim(V )=dim( f (V )) . Quindi dim( ker f )=0 .
Ne segue che ker f ={0 V } e allora f è iniettiva.
MATRICE ASSOCIATA AD UNA APPLICAZIONE LINEARE
Sia f : V → W con V, W di dimensione finita dim(W )=m con base {w1 ,… , w n } e
dim(V )=n con base {v 1 , … , v n} .
f (v j ) è un vettore di W per ogni j =1 , … , n ed è combinazione lineare di w 1 , … , wm .
m
Per ogni j esistono m coefficienti a 1 j , … , a m j tali che f (v j )=∑ ai j wi .
i=1
Questa matrice descrive completamente la funzione f dove
a 1 j , … , a m j sono i coefficienti che esprimono f (v j )
come combinazione lineare della base di W.
A f è la matrice associata ad f rispetto alle basi considerate v 1 , … , v n e w 1 , … , wm .
A f ∈M m x n ( K )
Come si calcola f (v ) per un qualsiasi v ∈V ?
n
v=∑ a j v j quindi
j=1
m
n
m
j=1
j=1
i=1
n
m
n
m
i=1
j =1
f (v )=∑ a j f ( v j)=∑ a j ( ∑ ai j wi )=∑ ∑ (a i j a j w i)=∑ ( ∑ (a i j a j ))w i
j=1 i=1
Se C v sono i coefficienti di v, i coefficienti con cui esprimere f (v ) come combinazione lineare
di w 1 , … , wm sono:
n
Quindi alla fine: f (v )=∑ β i w i
i=1
Passaggi riassuntivi per calcolare f(v):
n
1) Trovare il vettore colonna dei coefficienti di v tali che v=∑ a j v j ;
j=1
2) Trovare f(v_j) per j= 1 , … , n ;
3) Riempire la matrice A_f;
4) Calcolare il vettore colonna dei coefficienti con cui esprimere f(v);
n
5) Calcolare f (v )=∑ β i w i ;
i=1
Esempio 39.7:
f (e 1)=e1
f (e 2)=e 1+e 2
f (e 3)=e1 – 2⋅e 2
Voglio scrivere la matrice A f rispetto alle forme canoniche:
f (1, 0,0)=(1, 0, 0)
f (0, 1,0)=(1, 1,0)
f (0, 0,1)=(1,2, 0)
Se v=(2, 7,9) allora:
f (2, 7,9)=14⋅e 1+(11)⋅e 2+0⋅e 3
La regola universale sarà:
3
3
i =1
i =1
f ( x , y , z )=∑ β i wi=∑ β i e i=(x+ y +z )⋅e 1+( y2z)⋅e 2=( x+ y+z , y2z , 0)
Lemma: Abbiamo W con base {w1 ,… , w m } e u∈W . Quante m-uple β 1 , … , β m esistono tali
m
che u=∑ β i wi ? Una solamente.
i=1
Sia W spazio vettoriale su K e sia {w1 ,… , w m } una sua base. Allora per ogni u∈W , esiste
m
un'unica m-upla ( β 1 , … , β m ) tale che u=∑ β i wi .
i=1
Dimostrazione:
m
Sia u∈W. Sicuramente esiste una m-upla β 1 , … , β m tale che u=∑ β i wi .
i=1
m
Supponiamo che α 1 , … , α m sia tale che u=∑ α i w i allora
i=1
m
m
i=1
i=1
∑ β i w i= ∑ α i w i
.
Essendo in un gruppo abeliano posso spostare i membri.
Quindi
m
m
i=1
i=1
∑ β i wi ∑ αi w i=0W e
m
∑ ( βi αi ) wi=0W
.
i=1
Per indipendenza lineare di w 1 , … , wm abbiamo che β iα i =0 K quindi β i=α i .
Definizione:
Sia W spazio vettoriale su K e sia {w1 ,… , w m } una sua base. Possiamo definire due
funzioni.
Sia f : W → K n e v ∈W.
m
dove
v=∑ α i wi .
i =1
Sia g : K n → W e v ∈W.
Teorema: Le funzioni f e g sono biettive, lineari e inversa l'una dell'altra.
Quindi W è isomorfo di K m .
SOMMA DI SPAZI VETTORIALI ( pag. 321 )
Sia V spazio vettoriale su K. U , W ⊆V sottospazi. Allora U ∩W è sottospazio di V.
U ⊕ W ={u+w : u ∈U ∧w∈W } è sottospazio di V.
Teorema 37.1 ( formula di Grassman ):
Sia V spazio vettoriale su K. U , W ⊆V Sottospazi di V di dimensione finita.
Allora U ∩W e U ⊕ W hanno dimensione finita e
dim(U )+dim(W )=dim(U ⊕ W )+dim (U ∩W )
Dato uno spazio vettoriale V, esso è oggetto atomico o può essere decomposto in “mattoncini” più
semplici?
Lemma 37.2: Sia V spazio vettoriale su K. U , W ⊆V Sottospazi di V. Allora le due affermazioni
seguenti sono equivalenti:
a) se U ⊕ W =V e U ∩W ={0V } allora dim( V )=dim(U )+dim(W ) ;
b) ogni v in V si scrive come somma di vettori di U, W in maniera unica:
∀ v∈V ∃!u ∈U ∪ ∃!w ∈W : v=u+w
Dimostrazione: ( a => b )
Supponiamo che a valga. Dimostriamo b.
Sia v ∈V . Siccome V =U +W esistono u∈U e w ∈W tali che v=u+w.
Supponiamo che esistano u ' ∈U e w ' ∈W tali che v=u' +w' .
Allora u+w=u' +w' . Trovandoci in un gruppo abeliano u – u ' =w – w ' che sono il
primo in U e il secondo in W.
Poiché U ∩W ={0V } , u – u ' =0V e w ' w=0 V , quindi u=u ' e w=w' .
Dimostrazione: ( b => a )
Supponiamo che b valga. Dimostriamo a.
Allora V ⊆U +W ma U +W ⊆V quindi U +W = V.
Ora sia x ∈U ∩W. Sicuramente 0V =u+w per opportuni u∈U e w ∈W .
Posso scegliere u=0V e w=0V e quindi 0V +0V =0 V.
Oppure posso dire che 0V = x+(– x) . Quindi 0V , x ∈U e 0V ,x ∈W.
Ma per l'unicità dell'ipotesi abbiamo che x=0 V quindi U ∩W ={0V }.
FUNZIONI LINEARI E MATRICI
Siano V, W spazi vettoriali su K con dim(V )=n e dim(W )=m.
L'insieme delle funzioni lineari da V → W ( Hom k (V ,W ) ) è associato all'insieme delle matrici
M m x n ( K ).
M m x n ( K ) e Hom k (V ,W ) sono spazi vettoriali su K e sono isomorfi.
Proposizione 39.8: La funzione µ : Homk (V , W ) → M mx n (K ) , in cui V, W sono spazi vettoriali di
dimensione finita ( dim(W )=m e dim(V )=n ), è un isomorfismo lineare di spazi vettoriali.
∈ Hom k (V , W )
∈M n ( K )
f
A
A
fB
B
f A∘ f B= f
id K
A⋅B
A⋅B
I
n
In cui f A ∘ f B = f
A⋅B
= f I =id K
n
Corollario 39.7: Sia k m spazio vettoriale. Sia A∈M n ( K ) . Allora A⋅B=I se e solo se
B⋅A=I. B si dice matrice inversa di A e quindi possiamo indicarla come A1 .
RANGO DI UNA MATRICE
Sia A∈M m x n ( K ). Il rango è il massimo numero di colonne/righe linearmente indipendenti.
A= A1 | A2 | ...| An con Ai ∈K m
rg ( A)≤m e rg ( A)≤n allora rg ( A)≤min( m , n)
RANGO DI UNA FUNZIONE
Sia f : V → W . Il rango di f è la dimensione dell'immagine di f.
rg ( f )=dim( f (V ))
Proposizione 39.11: Il rango di f è uguale al rango della matrice associata.
rg ( f )=rg ( A f )
Cosa succede se rg ( f )=m ? dim( f ( V ))=m=dim(W ) quindi f (V )=W. Allora la funzione
è suriettiva.
Se invece m≠n , f non è un isomorfismo.
Proposizione 39.12: Sia A∈M n ( K ) . Allora A è invertibile se e solo se rg ( A)=n.
Dimostrazione ( => ): Suppongo che A sia invertibile, dimostro che rg (A)=n .
Sia A∈M n ( K )
A definisce f A : K n → K n
Quindi f A( x)= A⋅x
rg ( f A )=rg ( A) perché applichiamo la proposizione 39.11, sapendo che la matrice
associata a f A , rispetto alle basi canoniche di K n , è A ( [ A f = A] ).
A
Siccome A è invertibile, esiste A1 inversa.
Allora f A è suriettiva perché per ogni y ∈K n
y=I y=( A⋅A1)⋅y= A⋅( A1⋅y )= f A⋅( A1⋅y)
Allora f A è endomorfismo di K n ed è suriettivo, è biettivo, e quindi f
Quindi rg ( A)=rg ( f A)=dim( f A ( K n))=dim ( K n)=n
A
è invertibile.
Dimostrazione ( <= ): Suppongo che rg ( A)=n. Dimostro che A è invertibile.
rg ( f A )=n=dim( f A (K n)) cioè f A( K n )=K n perché f A( K n )⊆K n con dimensione n.
cioè f A è suriettiva e quindi biettiva.
Quindi A è invertibile.
SISTEMI DI EQUAZIONI LINEARI ( cap. 6.41 )
Un sistema di equazioni lineari è una lista di equazioni in cui compaiono delle incognite
x 1 , … , x n , dei coefficienti e dei termini noti, legati da vincoli.
Ogni equazioni è lineare poiché x n è al più al primo grado ed è un sistema perché tutte le
equazioni devono essere verificate simultaneamente.
Possiamo scrivere allora il sistema in forma matriciale:
A∈M m x n ( K ) è la matrice incompleta del sistema.
B∈K n è il vettore colonna dei termini noti.
( A∣B)
( A∣B)∈M m x (n +1 )( K ) è la matrice completa del sistema.
Una soluzione di un sistema è un vettore colonna C ∈ K n tale che sostituendo c i per
x i (i=1,… , n) tutti i vincoli risultano validi.
Sia X un vettore di incognite.
Allora
Il sistema si indica allora con A⋅X =B , quindi una soluzione è un vettore C ∈K n tale che
A⋅C =B .
Sia A⋅X =B un sistema di equazioni lineari di m equazioni e n incognite.
Ad esso è associata una funzione lineare f A : K n → K m tale che
f A( C)= A⋅C
Una soluzione è allora un vettore C ∈ K n tale che f A(C)= B cioè un elemento di f 1
A ( B) .
Dato un sistema AX =B posso avere le seguenti situazioni:
- il sistema è impossibile, cioè f 1
A ( B)=∅ ;
- il sistema è possibile, cioè ha soluzioni.
Se è così, abbiamo due sotto casi:
- il sistema ha una sola soluzione: affinché ci sia una sola soluzione, è necessario che il
ker f A={∅}∈K n , quindi che f A sia iniettiva.
- il sistema ha più soluzioni: sia v ∈ker f A e C una soluzione del sistema.
Allora v+C è soluzione perché:
f A( v+C )= f A (v )+ f A (C)=0+ f A (C )
n
dim( K )=n dove n è il numero delle incognite e f A : K n → K m dove m è il numero delle
equazioni. Se n>m , f A non può essere iniettiva.
TEOREMA DI CRAMER ( 41.1 )
Sia AX =B un sistema in cui
e
A=(a ij )∈M n ( K ) .
Allora il sistema ha un'unica soluzione se e solo se la matrice incompleta A ha rango n se e solo se A
è invertibile ( Possibile se e solo se f A è isomorfismo K n → K n cioè automorfismo di K n ).
In tal caso, la soluzione la possiamo trovare esplicitamente: A1⋅B .
Dimostrazione ( => ) :
Supponiamo ci sia un'unica soluzione.
Allora ker f A={∅} quindi f A : K n → K n .
f A è allora iniettiva e essendo automorfismo è anche biettiva.
Quindi dim( f A (K n ))=n per la suriettività e dim( K n )=n allora, per definizioni, il rango
di f A è n, che è uguale anche al rango della matrice associata:
rg ( f A )=rg ( A)=n
Sempre sotto ipotesi che ci sia una sola soluzione, dimostriamo che essa è A1⋅B .
Sia C una soluzione del sistema. Ma A è invertibile quindi:
A⋅(A1⋅B)=(A⋅A1 )⋅B=I⋅B=B
quindi A1⋅B è l'unica soluzione C.
Dimostrazione ( <= ) :
Supponiamo che rg ( A)=n .
Allora A è invertibile. Esiste allora A1 e A⋅(A1)⋅B=B cioè A1⋅B è soluzione.
Sia C soluzione del sistema. Dimostriamo che C= A1⋅B .
Siccome C è soluzione, A⋅C =B .
1
1
A ⋅( A⋅C )=B⋅A
C=B⋅A1
Cioè B⋅A1 è l'unica soluzione.
IL DETERMINANTE
Il determinante è un elemento del campo dal quale è possibile ricavare i coefficienti della matrice
associata.
Sia A∈M n ( K ) , il determinante si indica con det ( A)∈K.
Fatto: A è invertibile se e solo se det ( A)≠0 K
Data una matrice A( aij ) definiamo la sotto-matrice Aij che si ottiene cancellando da A la riga i e
la colonna j.
Esempio:
FORMULA DI ESPANSIONE PER CO-FATTORI
Questa formula è definita in maniera ricorsiva e serve per determinare il det ( A).
Può essere applicata sia alla riga arbitraria i che alla colonna arbitraria j.
Sia A∈M n ( K ) dove n è la dimensione della matrice.
Caso base: n=1 → det ( A)=a11
n
det ( A)=∑ (1)i+ j⋅a ij⋅det (Aij )
j =1
i è un numero di riga arbitrario mentre j varia sulle colonne della matrice.
Esempio:
i=2
3
det ( A)=∑ (1)2+ j⋅a 2j⋅det( A2j )
j =1
2
det ( A21)=∑ (1)1+ j⋅a 2j⋅det ( A1j )=2
j=1
2
det ( A22)=∑ (1)2+ j⋅a 2j⋅det(( A2j )2j )=2
j=1
det ( A23)=0
det ( A)=(1)2+1⋅0⋅2+(1) 2+2⋅1⋅2+(1)2+3⋅1⋅0=2
CASI PARTICOLARI E REGOLA DI SARRUS ( p.360 )
det ( A)=a11⋅a22a 12⋅a 21
La regola di Sarrus è un altro metodo per ricavare il determinante di una matrice.
det ( A)= a11⋅a 22⋅a 33a 11⋅a 23⋅a 32a 12⋅a 21⋅a 33+a 12⋅a 23⋅a 31+a 13⋅a 21⋅a 32a 13⋅a 22⋅a 31
Conclusioni:
Se A è la matrice di un sistema AX =B , allora:
det ( A)≠0
sse A è invertibile
sse rg (A)=n
sse AX =B ha un unica soluzione
Quindi det ( A)=0 sse esiste una combinazione lineare delle colonne della matrice che da il
vettore nullo utilizzato non tutti i coefficienti nulli ( rg ( A)<n ).
TRASPOSIZIONE DI UNA MATRICE
Data una matrice B∈M m x n (K ) , la sua trasposta è BT ∈M m x n ( K ) .
BT =(B ji )
L'elemento di posizione ij in BT è l'elemento di posizione ji in B.
Esempio:
COME COSTRUIRE LA MATRICE INVERSA
Per poter costruire la matrice inversa A, utile poi a definire la soluzione di un sistema, abbiamo
bisogno di definire la matrice dei suoi complementi algebrici.
Un complemento algebrico di ordine ij è:
C ij=(1)i+ j⋅M ij
Dove M ij è il minore complementare di ordine ij :
M ij =det ( Aij )
Definiamo ora A* come la matrice trasposta della matrice dei complementi algebrici di A.
A*=C T
A questo punto, se voglio calcolare A^{-1}, calcolo il determinante di A e, se det(A)<>0 allora
A1=
1
⋅A*
det ( A)
PROPRIETA' DEL DETERMINANTE
1) Scambiando due colonne di una matrice, il determinante cambia di segno.
2) Se due colonne sono uguali ( linearmente dipendenti ) allora il determinante è 0.
3) Se A=( A1 ... Ai ... An ) con B=α⋅Ai , allora:
det ( A1 ... B ... An )=α⋅det ( A)
4) Se C=( X 1 ... X i ... X n) , A=( X 1 ...Y ... X n ) , B=( X 1 ... Z ... X n ) e X_i = Y + Z allora:
det (C )=det( A)+det ( B)
5) Se una matrice A è triangolare superiore, allora il suo determinate è dato dal prodotto della sulla
diagonale principale.
n
det ( A)=∏ a ii
i=1
METODO DI ELIMINAZIONE DI GAUSS
Sia AX=B sistema.
α Ri=α a i1 x 1+α a i2 x 2+...+α ai n x n =α bi
β R k = β a k1 x 1+ β a k2 x 2+...+ β a kn x n= β bi
Posso applicare l'operazione elementare su righe e sostituirne
una:
Ri=(α a i1 +β a k1 ) x 1+(α ai2 + β a k2 ) x 2+...+(α a ¿+ β a kn ) x n=α b i+ β bk
Esempio:
A|B→
R1 ← R1+R2
M'
M ' rappresenta un sistema equivalente a AX =B.
COME SCEGLIERE LE OPERAZIONI ELEMENTARI IN MANIERA FURBA?
Bisogna cercare di combinare le equazioni del sistema, cercando di ottenere una matrice triangolare
superiore, così da poter ottenere facilmente il suo determinante.
Vediamo ora l'algoritmo che usava Gauss:
1. Se la prima riga ha il primo elemento nullo, scambiarla con una riga con primo elemento non
nullo. Se tutte le righe hanno elemento nullo, vai al punto 3.
2. Per ogni riga Ai con primo elemento non nullo, eccetto la prima ( i>1 ), moltiplica la prima
riga per un coefficiente scelto in maniera tale che la somma tra la prima riga e Ai abbia il primo
elemento nullo. Sostituisci Ai con la somma appena ottenuta.
3. Sulla prima colonna tutte le cifre tranne la prima sono uguali a 0. Ripetere il passo 1 per A11 .
Ci sono due operazioni fondamentali:
- R j =α R j+ β Ri ;
- è possibile scambiare R j e Ri .
REGOLA DI CRAMER ( teorema 43.5 )
Sia AX=B un sistema di equazioni lineari a coefficienti in un campo K e sia A in M_n (K).
Allora il sistema ha unica soluzione sse det ( A)≠0 .
In tal caso, la soluzione si trova come segue.
det ( A'i )
x i=
dove A'i si ottiene sostituendo la colonna i con la colonna dei termini noti:
det ( A)
TEOREMA DI ROUCHE' – CAPELLI ( Teorema 42.1 )
Sia AX =B sistema con m equazioni e n incognite, con coefficienti in K.
Il sistema AX =B ha almeno una soluzione se e solo se la matrice incompleta A e la matrice
completa A | B hanno lo stesso rango.
In tal caso, se C 0 è soluzione del sistema, W è il sottospazio di K n i cui elementi sono
soluzioni del sistema omogeneo ( quando B=0 ) e r è il rango di A , allora le soluzioni
AX =B sono tutte e sole quelle del tipo C 0+H con H ∈W a dimensione nr .
Note: Perché W è sottospazio di K n .
- 0∈W : A0=0 ;
- chiuso per prodotto scalare: sia S ∈W e quindi AS =0.
Allora A( α S )=A( α S )= A( 0)=0 ;
- chiuso per la somma: siano S 1 , S 2 ∈W e quindi AS 1=0∧AS 1=0 .
Allora A(S 1+S 2)=AS 1 +AS 2=0+0=0 ;
AUTOVALORI E AUTOVETTORI ( cap. 6.44 )
Definizione 44.1: Sia V un K spazio vettoriale, e sia f endomorfismo lineare f : V → V .
Un sottospazio W di V si dice f invariante se f (W )⊆W.
Esempio:
Sia f : R 2 → R2 lineare dove R è l'insieme dei numeri reali.
f : (x , y ) →(2x ,2 y )
Sia W ={(x , y)∈R2 | x+ y=0} sottospazio di R2 .
f (W )={ f ( w): w∈W } = {(2x , 2y) :( x , y )∈W }.
W è sicuramente invariante di f.
Siano v≠0 , v ∈V e λ∈ K.
Se f (v )=λv allora diciamo che λ è un autovalore rispetto ad f e v è un autovettore.
Nell'esempio precedente, tutti i vettori di R2 sono autovettori relativi a f, con lo stesso autovalore
2.
Sappiamo che a f è associata un'opportuna matrice.
Sia V un K spazio vettoriale e sia A una matrice quadrata a elementi in K.
Siano v≠0 , v ∈V e λ∈ K.
Se Av= λv allora v è autovettore e λ è un autovalore, relativi ad A.
Fissiamo un autovettore. Quanti autovalori possono essere a lui associati? Uno soltanto.
Siano α, λ autovalori di v relativi ad A.
Allora Av= λv e Av=αv. Quindi λv=αv.
Per commutatività, λvαv=0.
Per distributività, ( λα)v =0. Sapendo che v≠0 , allora ( λα)=0.
Concludendo, λ=α.
Fissando invece un autovalore, possono esserci tanti autovettori associati.
COME SI TROVANO GLI AUTOVETTORI E GLI AUTOVALORI DATA
UNA MATRICE?
Data A, considero Av= λv un equazione a due incognite.
Av= λv → Avλv=0 → ( Aλ) v=0 → ( AλI )v=0.
Faccio finta di conoscere λ e cerco di risolvere rispetto a v.
Affinché ci sia almeno un autovettore, il determinante di A λI =0.
Quindi:
det ( AλI )= polinomio nell'incognita λ ( chiamato Polinomio caratteristico di A )
Quindi devo risolvere l'equazione: p A( λ)=0.
Proposizione 40.8: sia p A( λ) il polinomio caratteristico della matrice An x n .
p A( λ) è un polinomio di grado n.
Supponiamo ora di avere le radici λ1 ,… , λ n di p A( λ).
Per ogni autovalore, risolvo il sistema ( A – λi I ) v=0.
Esercizio 44.5
Sia Q3 un Q spazio vettoriale, dove Q è l'insieme dei numeri razionali.
Sia
Ottengo che: p A (λ)=(1λ)((1λ)21) e risolvendo l'equazione (1λ)((1λ)2 1)=0 ,
ottengo che gli autovalori sono λ1=1 , λ2=0 , λ 3=2 .
Gli autovettori di λ1 sono le soluzione del sistema ( A – λ1 I )v =0 :
Otteniamo che x , z =0 e y qualsiasi, quindi W 1={(0, α , 0) : α∈Q – {0}}
Scarica