PROGRAMMA del corso di GEOMETRIA 1

annuncio pubblicitario
PROGRAMMA del corso di
GEOMETRIA 1 - Algebra Lineare
Laurea Triennale in Matematica
Anno Accademico 2007/08
docente : Bruno Zimmermann
(Il presente programma è stato redatto sulla base degli appunti del corso presi dalla
signorina Laura Franzoi, che qui ringrazio. I vari argomenti sono stati un po’ riordinati secondo un criterio logico, piuttosto di quello “ cronologico ” della lezione in
cui sono stati svolti. Dario Portelli)
1.- Premesse di Algebra.
Definizione di gruppo. Unicità dell’elemento neutro e dell’inverso (con dimostrazione).
Gruppi abeliani. Esempi: determinazione di tutti i gruppi finiti con al più quattro elementi; (Q, ·) e (R, ·) non sono gruppi, mentre lo sono sia (Q − {0}, ·) che
(R − {0}, ·)
Definizione di campo. Esempi: (Q, +, ·) e (R, +, ·); campi finiti Z2 e Z3 .
Costruzione del campo C dei numeri complessi, pensati come coppie ordinate di
numeri reali. Giustificazione euristica geometrica della definizione di prodotto (la
somma è ovvia). Verifica delle varie proprietà formali di un campo.
Modulo di un numero complessso, e sue proprietà. Coniugio complesso.
Teorema Fondamentale dell’Algebra (solo enunciato): ogni polinomio a coefficienti
complessi, non costante, ammette almeno una radice in C .
Teorema di Ruffini (solo enunciato): siano f ∈ K[X] e α ∈ K. Allora f (α) = 0 se e
solo se f = (X − α) g(X) .
Corollario: ogni polinomio a coefficienti complessi, di grado n ≥ 1 , si fattorizza in
un prodotto di n fattori lineari, cioè: di grado 1.
2.- Spazi vettoriali. Sottospazi.
Definizioni di spazio vettoriale su un campo K.
1
Prime conseguenze formali della definizione: λ · 0 = 0 e 0 · v = 0 per ogni λ ∈ K ed
ogni v ∈ V ; λ · v = 0 se e solo se λ = 0 oppure v = 0; infine (−1)v = −v .
Esempi: K n e l’insieme dei polinomi K[X] .
Definizioni di sottospazio vettoriale. Sottospazi banali.
Proposizione: un sottoinsieme W di uno spazio vettoriale V è un sottospazio di
V se e solo se W 6= ∅ ed inoltre, presi comunque λ, µ ∈ K e u, v ∈ W, si ha che
λu + µv ∈ W.
Proposizione: l’intersezione di una famiglia arbitraria di sottospazi di V è ancora
un sottospazio di V.
L’unione di due sottospazi W e W 0 di V non è un sottospazio di V, in generale. Lo
è se e solo se W ⊆ W 0 oppure W 0 ⊆ W.
Combinazioni lineari. Famiglia finita di vettori linearmente indipendenti. Famiglia
arbitraria di vettori linearmente indipendenti. Chiusura lineare di una famiglia di
vettori.
Proposizione: v1 , . . . , vr ∈ V sono linearmente indipendenti se e solo se ogni vettore
appartenente alla chiusura lineare di v1 , . . . , vr si può scrivere in modo unico come
combinazione lineare di v1 , . . . , vr .
Sistema di generatori. Base di uno spazio vettoriale.
Lemma: sia { v1 , . . . , vn } una base di uno spazio vettoriale V, e sia w = λ1 v1 +
. . . + λn vn un vettore di V. Se λk 6= 0 per un fissato k tale che 1 ≤ k ≤ n , allora
{ v1 , . . . , vk−1 , w, vk+1 , . . . , vn } è ancora una base di V.
Teorema (del prolungamento ad una base): sia { v1 , . . . , vn } una base di V, e siano
w1 , . . . , wr vettori di V linearmente indipendenti. Allora r ≤ n , e (dopo aver eventualmente riordinato gli indici 1, . . . , n) { w1 , . . . , wr , vn−r+1 , . . . , vn } è ancora una
base di V.
Corollario: se si può generare V con un numero finito di vettori, allora due basi di
V hanno lo stesso nimero di elementi.
Definizione di dimensione di uno spazio vettoriale.
Esempi: base canonica (o “ standard ”) di K n ; il K-spazio vettoriale K[X] non ha
una base finita.
Proposizione: se v1 , . . . , vn generano V, allora { v1 , . . . , vn } contiene una base di V.
Proposizione: sia W un sottospazio di uno spazio vettoriale V, di dimensione finita.
Allora dim(W ) ≤ dim(V ) . Se le due dimensioni sono uguali, allora W = V.
Insiemi ordinati parzialmente. Elementi massimali, elemento massimo, limitazioni
superiori di un sottoinsieme per un insieme parzialmente ordinato. Lemma di Zorn
(solo enunciato).
Teorema: ogni spazio vettoriale possiede una base.
Somma di sottospazi e somma diretta. Varie caratterizzazioni della somma diretta
di due o più sottospazi.
Teorema (formula di dimensione per sottospazi): sia V uno spazio vettoriale di
dimensione finita. Se U e W sono due sottospazi, allora
dim(U + W ) = dim(U ) + dim(W ) − dim(U ∩ W )
2
3.- Matrici.
Definizione di matrice e relativa nomenclatura. L’insieme di tutte la matrici di tipo
fissato m × n , ad entrate in un campo K, è un K-spazio vettoriale, di dimensione
mn.
Spazio delle righe e spazio delle colonne di una matrice. Ranghi per righe e per
colonne.
Teorema: data una matrice A , il rango per righe di A è uguale al rango per colonne
(tale numero si chiama semplicemente rango di A)
Trasformazioni elementari di matrici (=operazioni elementari sulle loro righe, o sulle
loro colonne). Osservazione che il rango di una matrice rimane invariato per trasformazioni elementari.
Teorema (eliminazione di Gauss, o algoritmo di Gauss): ogni matrice si può trasformare in una matrice a gradini mediante operazioni elementari sulle righe.
Prodotto righe per colonne di matrici. Tale prodotto non è commutativo. Matrici
identità. Varie proprietà formali del prodotto righe per colonne; ad esempio, la sua
distributività (sia a destra che a sinistra) rispetto alla somma di matrici.
Matrici trasposte. Varie proprietà formali del passaggio alla trasposta. Matrici
simmetriche ed antisimmetriche.
Rango per righe e rango per colonne di una matrice.
Teorema: i ranghi per righe e per colonne di una matrice arbitraria sono uguali.
Matrici invertibili. Unicità dell’inversa di una matrice invertibile. Il gruppo GL(n, K) .
Algoritmo per la determinazione effettiva dell’inversa di una matrice (se esiste).
A è invertibile se e solo se tA è invertibile.
4.- Applicazioni lineari.
Definizione di applicazione lineare.
Esempio: l’applicazione LA : K n → K m determinata da una matrice A , di tipo
m × n.
Proposizione: se F : V → W è un’applicazione lineare, allora per ogni sottospazio
V 0 di V si ha che F (V 0 ) è un sottospazio di W. Inoltre, per ogni sottospazio W 0 di
W si ha che F −1 (W 0 ) è un sottospazio di V.
Nucleo Ker(F ) ed immagine Im(F ) di un’applicazione lineare F.
Proposizione: l’applicazione lineare F : V → W è iniettiva se e solo se Ker(F ) =
{0} .
Teorema (di determinazione di un’applicazione lineare sulla base): siano V, W spazi
vettoriali sul campo K, e siano inoltre (vi )i∈I una base di V e (wi )i∈I una famiglia
di vettori di W (si noti che l’insieme degli indici è lo stesso). Allora esiste una ed
una sola applicazione lineare F : V → W tale che F (vi ) = wi per ogni i ∈ I .
Lo spazio vettoriale Hom(V, W ) .
La composizione di due applicazioni lineari è ancora un’applicazione lineare.
3
Lemma: se F : V → W lineare è un isomorfismo, allora anche l’applicazione inversa
F −1 : W → V è lineare, dunque è un isomorfismo.
La composizione di due isomorfismi è ancora un isomorfismo.
Teorema (formula di dimensione per applicazioni lineari): sia F : V → W lineare,
ove V è uno spazio vettoriale di dimensione finita. Allora dim(V ) = dim(Ker(F ))+
dim(Im(F )) . Rango di un’applicazione lineare.
Corollario: se dim(V ) = dim(W ) ed è finita, allora per un’applicazione lineare F
sono equivalenti l’essere iniettiva, suriettiva, un isomorfismo.
Proposizione: ogni spazio vettoriale sul campo K, di dimensione n , è isomorfo a
K n.
Matrice associata ad un’applicazione lineare.
Teorema: dati due spazi vettoriali V e W sul campo K, di dimensione n ed m
rispettivamente, e fissate una base A di V ed una base B di W, si ha un isomorfismo
di spazi vettoriali
MBA : Hom(V, W ) → M (m × n, K)
dato da
F 7→ MBA (F )
Proposizione: siano dati tre spazi vettoriali V, W ed U sul campo K, e due applicazioni lineari F : V → W e G : W → U. Se A , B e C sono basi rispettivamente
di V, W ed U, allora si ha
MCA (G ◦ F ) = MCB (G) MBA (F )
Un’applicazione lineare F è un isomorfismo se e solo se la matrice associata ad F
(rispetto ad un’arbitraria scelta delle basi) è invertibile.
Cambiamento di base: siano A e B basi dello spazio vettoriale V sul campo K. Se
x ∈ K n è il vettore delle coordinate di v ∈ V rispetto alla base A , allora MBA (idV ) x
è il vettore delle coordinate di v rispetto alla base B .
Proposizione: se F : V → W è lineare, e se A , A 0 sono basi di V, e B , B 0 sono
basi di W, allora
MBA0 (F ) = MBB0 (idW ) MBA (F ) MBA (idV )
0
Se F : V → V è un endomorfismo, e se A e B sono basi di V, allora
B = MBB (F ) = MBA (idV ) MAA (F ) MAB (idV ) = SA S −1
Matrici simili. La similitudine tra matrici (quadrate) è una relazione di equivalenza.
Teorema: sia F : V → W un’applicazione lineare tra spazi vettoriali di dimensione
finita, di rango r. Allora esistono una base A di V ed una base B di W tali che
!
I
0
r
MBA (F ) =
0 0
4
Corollario: sia A una matrice di tipo n × m ad entrate nel campo K, di rango r.
Allora esistono S ∈ GL(m, K) e T ∈ GL(n, K) tali che
!
Ir 0
SAT =
0 0
Lemma: se A è una matrice di tipo n × m , prese comunque S ∈ GL(m, K) e
T ∈ GL(n, K) si ha che il rango per righe (risp.: per colonne) di SAT è uguale al
rango per righe (risp.: per colonne) di A .
5.- Sistemi lineari.
Definizione di sistema lineare; incognite, termini noti, matrice dei coefficienti.
Sistemi lineari omogenei. L’insieme delle soluzioni di un sistema lineare omogeneo
è uno spazio vettoriale.
Sistema lineare omogeneo A x = 0 associato ad un sistema lineare generale A x = b .
Teorema: la differenza di due soluzioni qualsiasi (se esistono) di un sistema lineare
generale è sempre una soluzione del sistema lineare omogeneo associato. Se W è
lo spazio delle soluzioni del sistema lineare omogeneo A x = 0 , associato al sistema
lineare generale A x = b , allora l’insieme delle soluzioni del sistema lineare generale
è v0 + W, ove v0 è una qualsiasi soluzione del sistema lineare generale.
Definizione di sottospazio affine di uno spazio vettoriale.
Teorema: il sistema A x = b ha soluzioni se e solo se il rango della matrice A è
uguale al rango di (A, b) .
Teorema (Regola di Cramer): se A è una matrice inveribile n × n , allora il sistema
lineare A x = b ha una ed una sola soluzione data da x = A−1 b .
6.- Determinanti.
Permutazioni; trasposizioni; cicli.
Proposizione: ogni permutazione è prodotto di cicli disgiunti. Ogni ciclo è prodotto
di trasposizioni.
Segno di una permutazione.
Teorema: il segno del prodotto di due permutazioni è il prodotto dei segni.
Gruppo alterno An .
Funzione determinante.
Proposizione: ogni funzione determinante è antisimmetrica. Se il campo su cui si
lavora ha caratteristica diversa da 2, allora ogni funzione multilineare antisimmetrica
è anche alternante.
Proposizione: se D : V × . . . × V → K è una funzione determinante, presi comunque
v1 , . . . , vn ∈ V e σ ∈ Sn si ha
D(vσ(1) , . . . , vσ(n) ) = ε(σ) D(v1 , . . . , vn )
Proposizione: se v1 , . . . , vn sono linearmente dipendenti, allora D(v1 , . . . , vn ) = 0 .
5
Teorema: se V è uno spazio vettoriale di dimensione finita, allora vi è una ed una
sola funzione determinante su V, a meno di moltiplicazione con uno scalare.
Proposizione: sia D : V × . . . × V → K una funzione determinante non banale.
Allora v1 , . . . , vn ∈ V è una base di V se e solo se D(v1 , . . . , vn ) 6= 0 .
Corollario: esiste esattamente una funzione determinante D : K n × . . . × K n → K
tale che D(e1 , . . . , en ) = 1 , ove e1 , . . . , en è la base canonica di K n .
Determinante di una matrice quadrata. Formula di Leibnitz.
Corollario: una matrice A è invertibile se e solo se det(A) 6= 0 .
Proposizione: det(A) = det( tA) .
Lemma: determinante di una matrice triangolare.
Lemma: determinante di una matrice “ triangolare a blocchi ”.
e dei cofattori.
Cofattori e matrice A
eA = A A
e = (det(A)) En .
Teorema: A
Corollario: formula per A−1 con la matrice dei cofattori.
Teorema: la formula di Laplace.
Determinante di un endomorfismo.
Proposizione: det(A) = det(LA ) .
Proposizione: se F, G : V → V sono endomorfismi dello spazio vettoriale V, allora
det(G ◦ F ) = det(G) · det(F ) .
Teorema: se A, B sono matrici n × n allora det(AB) = det(A) det(B) .
Corollario: det : GL(n, K) → ( K ∗ = K − {0}, · ) è un omomorfismo di gruppi. In
particolare, se A è invertibile, allora det(A−1 ) = det(A)−1 .
Corollario: matrici simili hanno lo stesso determinante.
Corollario: Siano V uno spazio vettoriale (di dimensione finita), F : V → V un endomorfismo e B una base di V. Allora F è un automorfismo ⇐⇒ MB (F ) è invertibile
⇐⇒ det(MB (F )) 6= 0 .
Teorema: se v1 , . . . , vn sono n vettori di Rn , allora il volume del parallelepipedo generato da v1 , . . . , vn è | det(v1 , . . . , vn ) | , ove det è la funzione determinante standard
su Rn .
7.- Autovalori e autovettori.
Definizione di autovettore ed autovalore per un endomorfismo e per una matrice
quadrata.
Definizione di endomorfismo (e matrice) diagonalizzabile.
Lemma: se v1 , . . . , vm sono autovettori di un endomorfismo F : V → V, relativi
ad autovalori λ1 , . . . , λm a due a due distinti, allora v1 , . . . , vm sono linearmente
indipendenti.
Autospazi. Ogni autospazio è un sottospazio vettoriale.
Proposizione: λ è un autovalore di F se e solo se det(F − λ idV ) = 0 .
Polinomio caratteristico di una matrice (quadrata) e di un endomorfismo.
6
Proposizione: matrici simili hanno lo stesso polinomio caratteristico.
Proposizione: se una matrice A , di tipo n × n , ha n autovalori distinti, allora A è
diagonalizzabile.
Molteplicità algebrica e geometrica di un autovalore di un endomorfismo.
Proposizione: se λ ∈ K è un autovalore per l’endomorfismo F : V → V, allora
ma (λ) ≥ mg (λ) ≥ 1 .
Teorema: se V è uno spazio vettoriale di dimensione n finita, e F : V → V è un
endomorfismo, allora sono eqivalenti
i) F è diagonalizzabile;
ii) il polinomio caratteristico di F è un prodotto di fattori lineari e ma (λ) = mg (λ)
per ogni autovalore λ di F.
iii) V = Aut(λ1 ) ⊕ Aut(λ2 ) ⊕ . . . ⊕ Aut(λm ) , dove λ1 , λ2 , . . . , λm sono i diversi
autovalori di F.
Endomorfismi e matrici triangolarizzabili.
Teorema: un endomorfismo F : V → V è triangolarizzabile se e solo se il polinomio
caratteristico di F si scompone completamente in un prodotto di fattori lineari.
Corollario: ogni matrice quadrata ad entrate nel campo dei numeri complessi è
triangolarizzabile.
Matrici di Jordan.
Teorema (forma canonica di Jordan; solo enunciato): ogni matrice quadrata ad
entrate in C è simile ad una matrice del tipo


A1


A2




..


.
Ak
ove ciascun blocco Ai è di Jordan.
Ideale di K[X] di tutti i polinomi che annullano un fissato endomorfismo F. Polinomio minimo di F.
Teorema di Cayley-Hamilton: se p è il polinomio caratteristico dell’endomorfismo
F, allora p(F ) = 0 .
Corollario: il polinomio minimo di F divide il polinomio caratteristico di F.
Proposizione: ogni radice del polinomio caratteristico di un endomorfismo F (cioè:
ogni autovalore di F ) è anche radice del polinomio minimo di F.
Corollario: ogni polinomio in K[X] di grado n ≥ 1 è, a meno del segno, il polinomio
caratteristico fi un endomorfismo K n → K n .
7
8.- Dualità.
Definizione di spazio duale dello spazio vettoriale V.
Base duale di una base di uno spazio vettoriale di dimensione finita. Cosa succede
per spazi di dimensione infinita.
Spazio biduale e applicazione lineare canonica τ : V → V ∗∗ . Iniettività di τ .
Sottospazio W 0 ⊆ V ∗ , ortogonale di un sottospazio W ⊆ V.
Teorema: se V è uno spazio vettoriale di dimensione finita, e se W ⊆ V è un
sottospazio, allora dim(W ) + dim(W 0 ) = dim(V ) .
Corollario: W ⊆ (W 0 )0 , e vale l’uguaglianza se V ha dimensione finita.
Proposizione: sia dim(V ) = n finita, e siano ϕ1 , . . . , ϕk ∈ V ∗ tali che h ϕ1 , . . . , ϕk i è
un sottospazio di V ∗ di dimensione r . Allora W := { v ∈ V | ϕ1 (v) = . . . ϕk (v) = 0 }
è un sottospazio di V di dimensione n − r .
Proposizione: sia V uno spazio vettoriale come nella proposizione precedente, e
sia W ⊆ V un sottospazio di dimensione n − m. Allora esistono m forme lineari
ϕ1 , . . . , ϕm ∈ V ∗ tali che W := { v ∈ V | ϕ1 (v) = . . . ϕm (v) = 0 } . Non è possibile
una tale rappresentazione di W con meno di m forme.
9.- Spazi quoziente e teoremi di omomorfismo.
Definizione di spazio vettoriale quoziente V /W.
Proiezione canonica π : V → V /W.
Proposizione: dim(V /W ) = dim(V ) − dim(W ) .
Teorema (Primo Teorema di Isomorfismo): se F : V → U è un epimorfismo (un
omomorfismo), allora esiste una ed una sola applicazione lineare F̄ : V /Ker(F ) → U
tale che F = F̄ ◦ π e F̄ è un isomorfismo (risp.:un monomorfismo).
Teorema (Secondo Teorema di Isomorfismo): se U e W sono arbitrari sottospazi di
V, allora
W
U +W
'
U ∩W
U
Teorema (Terzo Teorema di Isomorfismo): se U ⊆ W ⊆ V sono sottospazi, allora
V
V /U
'
W
W/U
8
Scarica