Note per le esercitazioni di Geometria 1 a.a. 2011/12 A. Lotta Versione del 9/1/2012 1. Metodi per il calcolo del rango di una matrice Sia A ∈ Mm,n (K). Denoteremo con A(i) la riga i-ma di A, i ∈ {1, . . . , m} e con A(j) la j-ma colonna, j ∈ {1, . . . , n}. Ciascuna A(i) è identificabile con un vettore di Kn , mentre A(j) è identificabile con un vettore di Km . Possiamo quindi rappresentare A in modo compatto come segue: (1) A .. A = . = (A(1) · · · A(n) ). A(m) Ricordiamo che il rango di A coincide con la dimensione del sottospazio di Kn generato dalle righe, ovvero con la dimensione del sottospazio di Km generato dalle colonne. In simboli: rg(A) = dimK L(A(1) , . . . , A(m) ) = dimK L(A(1) , . . . , A(m) ). Metodo di riduzione per righe di Gauss-Jordan Sia V uno spazio vettoriale sul campo K e sia v1 , . . . , vm (∗) una sequenza di vettori di V . Definiamo operazioni elementari effettuabili sulla sequenza (*) le seguenti: (I) Scambio di posto di due vettori della sequenza; (II) Sostituzione di un vettore vj con αvj + βvi con α 6= 0, i 6= j. Osserviamo che ciascuna delle operazioni (I) e (II) non altera lo spazio L(v1 , . . . , vn ) generato dai vettori in considerazione, e quindi in particolare la dimensione di tale spazio. Inoltre se v1 , . . . , vn sono linearmente indipendenti, tali sono i vettori v10 , . . . , vn0 ottenuti effettuando una operazione di tipo (I) oppure (II). Esempio 1.1. Mostriamo che, dato uno spazio vettoriale V di dimensione n ≥ 2 ed un sottospazio W ⊂ V diverso da V , esiste sempre una base {v1 , . . . , vn } tale che vi 6∈ W per ogni i = 1, . . . , n. Possiamo supporre k := dim(W ) > 0; allora per il teorema di completamento esiste una base {v1 , . . . , vn } tale che {v1 , . . . , vk } è base di W . In particolare, si ha vi 6∈ W per ogni i ≥ k + 1. Ora, anche i vettori v1 + vn , v2 + vn , . . . , vk + vn , vk+1 , · · · , vn 1 2 sono linearmente indipendenti, in quanto tale sequenza è ottenuta da v1 , . . . , vn applicando k operazioni elementari di tipo (II). Tali vettori costituiscono pertanto una base di V ; essa soddisfa la condizione richiesta: infatti, essendo W un sottospazio, è sempre vero che se w ∈ W e v 6∈ W , allora w + v 6∈ W . Esempio 1.2. Dato uno spazio vettoriale V di dimensione n ≥ 1, e dato un vettore non nullo u ∈ V , esiste una base {v1 , . . . , vn } di V tale che u = v1 + · · · + vn . Infatti, consideriamo una base del tipo {u, u2 , . . . , un } (esiste per il teorema di completamento). Allora anche u − (u2 + · · · + un ), u2 , . . . , un è una base, ottenuta dalla precedente applicando n − 1 operazioni elementari di tipo (II). Essa soddisfa la condizione richiesta. Esempio 1.3. Consideriamo lo spazio M2 (R) delle matrici quadrate di ordine 2. Mostriamo che esso non ammette alcuna base del tipo t {A, A, B, tB} con A, B ∈ M2 (R). Infatti, se una tale base esistesse, anche i vettori t t t A − tA, A, B − B, B sarebbero linearmente indipendenti, ed in particolare tali sarebbero le matrici antisimt metriche A − tA e B − B, il che è impossibile in quanto il sottospazio di M2 (R) costituito dalle matrici antisimmetriche ha dimensione uno. Definizione: Siano A, S ∈ Mm,n (K); diremo che S è ottenuta da A mediante operazioni elementari sulle righe se S è la matrice che si ottiene da A effettuando sulla sequenza A(1) , . . . , A(m) una o più operazioni elementari di tipo (I) oppure una sola operazione elementare di tipo (II) applicata ad una o più righe distinte di A. In tal caso scriveremo A → S. In base a quanto osservato sopra A → S ⇒ rg(A) = rg(S). Notiamo inoltre che se A → S, allora lo spazio vettoriale generato dalle righe di A coincide con quello generato dalle righe di S; lo stesso non può dirsi per quel che concerne le colonne. Definizione: Un elemento aij di A si dice un pivot di A se aij 6= 0 e asj = 0 per ogni s > i. Tale condizione significa che tutti gli elementi “sottostanti” aij sono nulli. A si dice ridotta per righe se ogni riga non nulla contiene un pivot. 3 Le matrici ridotte per righe sono interessanti perchè per esse il calcolo del rango è immediato. Allo scopo di giustificare ciò, proviamo un risultato di carattere generale. Fissato n ≥ 1, denoteremo le componenti di un vettore v ∈ Kn con x1 (v), . . . , xn (v) di modo che v = (x1 (v), . . . , xn (v)). Per come sono definite le operazioni di somma e prodotto per uno scalare nello spazio Kn abbiamo, per ogni fissato j ∈ {1, . . . , n}: xj (v + w) = xj (v) + xj (w), xj (λv) = λxj (v) per ogni j e per ogni v, w ∈ Kn e λ ∈ K. In altri termini, le applicazioni xj : Kn → K sono tutte K-lineari. Proposizione 1.4. Sia v1 , . . . , vr una sequenza di vettori di Kn . Si supponga che per ogni i ∈ {1, . . . , r} esista j ∈ {1, . . . , n} (dipendente da i), tale che xj (vi ) 6= 0, xj (vs ) = 0 per ogni s > i. Allora i vettori v1 , . . . , vr sono linearmente indipendenti. Dimostrazione: Consideriamo una combinazione lineare nulla (1) λ1 v1 + · · · + λr vr = 0. Per l’ipotesi applicata al primo vettore v1 della sequenza, esiste j ∈ {1, . . . , n} tale che xj (v1 ) 6= 0, xj (vs ) = 0 per ogni s > 1. Calcolando allora la coordinata j-ma di ambo i membri di (1) si ottiene λ1 xj (v1 ) = 0 da cui λ1 = 0. Sostituendo nella (1) si perviene quindi a λ2 v2 + · · · + λr vr = 0. Applicando ancora l’ipotesi al vettore v2 e ragionando allo stesso modo si ricava che λ2 = 0 e l’argomento si itera giungendo alla conclusione che λ1 = λ2 = · · · = λr = 0. 2 Esempio 1.5. I vettori 1 1 (3, 5, − , 2), (3, 5, 0, −7), (0, 5, 0, 2), (0, , 0, 0) 2 3 4 sono indipendenti e quindi costituiscono una base di R . Teorema 1.6. Il rango di una matrice ridotta per righe coincide con il numero r delle sue righe non nulle. Siano inoltre A(i1 ) , . . . , A(ir ) le righe non nulle di una matrice ridotta A, i1 < · · · < ir . Scelto su ciascuna riga A(ik ) un pivot occupante la colonna jk , risulta che le colonne corrispondenti A(j1 ) , . . . , A(jr ) sono indipendenti e costituiscono una base di L(A(1) , . . . , A(n) ). 4 Dimostrazione: Per definizione di pivot, per ogni k = 1, . . . , r abbiamo aijkk 6= 0, aijsk = 0 per s > i. (∗) Considerata allora la sequenza A(i1 ) , . . . , A(ir ) di vettori di Kn , la (*) garantisce che ad essa può applicarsi la Proposizione precedente, in quanto per ogni i ∈ {1, . . . , m} e j ∈ {1, . . . , n} si ha aij = xj (A(i) ). Lo stesso può dirsi per la sequenza dei vettori di Km : A(jr ) , . . . , A(j1 ) avendosi anche aij = xi (A(j) ). 2 Teorema 1.7. Ogni matrice A si può trasformare, mediante una sequenza finita di operazioni elementari, in una matrice ridotta per righe. Più precisamente, esiste una sequenza finita di matrici S1 , . . . , Sk in Mm,n (K) tale che A → S1 → S 2 → · · · → S k e Sk è ridotta per righe. Dimostrazione: Descriviamo un algoritmo per ottenere la sequenza S1 , . . . , Sk . Sia la prima riga non nulla di A (se non esiste, A = 0 e quindi A è già ridotta); si scelga un elemento aij11 non nullo di A(i1 ) . Effettuando su ciascuna riga successiva A(s) l’operazione elementare A(i1 ) A(s) → aij11 A(s) − asj1 A(i1 ) si ottiene una nuova matrice S1 = (bij ) tale che bsj1 = 0 per ogni s > i1 . Dunque A → S1 . Ora, se tutte le righe di S1 successive alla i1 -ma sono nulle, S1 è ridotta per righe con pivot bij11 = aij11 sulla riga i1 -ma e colonna j1 -ma. In caso contario, si opera su S1 prendendo in considerazione la prima riga non nulla di indice maggiore di i1 , scegliendo un elemento non nullo di tale riga e ripetendo quanto fatto in precedenza. Si procede finchè vi sono righe non nulle con cui operare. 2 Esempio 1.8. Applicando l’algoritmo descritto nella dimostrazione precedente alla matrice A ∈ M4,5 (R) indicata di seguito si ottiene: 5 1 1 0 1 0 3 3 9 0 3 0 0 1 0 0 0 2 1 2 0 2 1 1 1 2 2 4 5 A 2 1 −2 1 3 0 6 0 S2 1 0 → 0 0 2 −1 → 3 6 0 2 1 3 −2 1 3 1 1 9 0 3 S1 1 0 2 0 3 −2 0 0 3 0 0 0 S3 2 −1 → 2 3 1 2 1 −1 0 3 0 0 Abbiamo cerchiato gli elementi che ad ogni passo vengono scelti per “divenire” pivots. Dunque rg(A) = rg(S3 ) = 3. Notiamo che, utilizzando il risultato precedente, determinando la matrice ridotta Sk si ottiene non solo il rango di A, ma anche una base dello spazio R(A) generato dalle righe: una tale base è costituita dalle righe non nulle di Sk . Il procedimento di riduzione altera invece lo spazio C(A) generato dalle colonne. Dimostreremo però che lo stesso procedimento permette facilmente di determinare una base di C(A), estraendo da {A(1) , . . . , A(n) } una base {A(j1 ) , . . . , A(jr ) } : gli indici colonna j1 , . . . , jr da scegliersi sono quelli delle colonne occupate dai pivots di Sk . Allo scopo di provare quest’affermazione, premettiamo qualche ulteriore osservazione sulle operazioni elementari. Notiamo che l’operazione elementare A(j) → αA(j) + βA(i) , α 6= 0, j 6= i equivale ad effettuare il prodotto ZA dove Z ∈ Mm (K) è la matrice e1 ··· ej−1 . αe + βe Z= j i ej+1 ··· em Tale matrice è quella che si ottiene effettuando la corrispondente operazione elementare e1 sulla matrice identica Im = ... . In particolare, rg(Z) = rg(Im ) = m e pertanto Z è em invertibile. Una giustificazione di ciò può darsi rapidamente ricordando le seguenti proprietà fondamentali del prodotto righe per colonne tra matrici; se A ∈ Mm,n e B ∈ Mn,q sono due 6 matrici moltiplicabili, allora A(1) B AB = ... = (AB(1) ··· AB(q) ). A(m) B Inoltre ei A = A(i) , Aej = A(j) per ogni i = 1, . . . , m, e per ogni j = 1, . . . , n. Anche per quel che concerne lo scambio di due righe vale un principio analogo. Da queste considerazioni segue subito, essendo il prodotto di matrici invertibili anch’esso invertibile, che se A → S, allora esiste una matrice invertibile Z ∈ GL(m, K) tale che S = ZA. Proposizione 1.9. Siano A ∈ Mm,n (K), Z ∈ Mm (K) e si ponga S = ZA. Se S(j1 ) , . . . , S(jp ) sono colonne di S indipendenti, tali sono le colonne corrispondenti A(j1 ) , . . . , A(jp ) di A. Dimostrazione: Supponiamo S(j1 ) , . . . , S(jp ) indipendenti e assumiamo che p X λk A(jk ) = 0. k=1 Moltiplicando per Z ambo i membri si ottiene p X λk ZA(jk ) = 0, k=1 che possiamo riscrivere p X λk (ZA)(jk ) = 0, k=1 ovvero p X λk S(jk ) = 0. k=1 Pertanto λk = 0 per ogni k per l’ipotesi. 2 Corollario 1.10. Sia A ∈ Mm,n (K) e sia assegnata una sequenza di matrici S1 , . . . , Sk tali che A → S1 → S 2 → · · · → S k e S := Sk è ridotta per righe. Si scelga su ciascuna riga non nulla di S un pivot; dette j1 , . . . , jr le colonne occupate da tali pivots, si ha che le colonne corrispondenti A(j1 ) , . . . , A(jr ) di A sono linearmente indipendenti. 7 Dimostrazione: Sappiamo che da A → S1 segue che S1 = Z1 A per un’opportuna Z1 ∈ GL(m, K). Analogamente, Si = Zi Si−1 per i > 1. Dunque S = (Zk · · · Z1 )A. L’asserto segue applicando la proposizione precedente, perchè le colonne S(j1 ) , . . . , S(jr ) sono indipendenti. 2 Esempio 1.11. Facendo riferimento all’Esempio 1.8 otteniamo che una base dello spazio generato dalle colonne di A è costituita da A(1) , A(3) , A(4) . Un’altra base è {A(1) , A(2) , A(3) }. Il metodo degli orlati di Kronecker È noto che il rango di una matrice A coincide anche con il massimo degli ordini dei minori non nulli di A. Discuteremo un risultato che permette di ridurre il più possibile il numero di minori da calcolare per determinare il rango utilizzando tale caratterizzazione. Sia A ∈ Mm,n (K); dati due sottoinsiemi I = {i1 , . . . , ir } ⊂ {1, . . . , m}, J = {j1 , . . . , jq } ⊂ {1, . . . , n}, denoteremo con AIJ la corrispondente sottomatrice di A, avente r righe e q colonne. Nel caso |J| = n (risp. |I| = m) , scriveremo semplicemente AI (risp. AJ ). Ovviamente AIJ = (AI )J = (AJ )I . Cosı̀, ad esempio, se 1 0 A= 0 0 allora 0 0 1 0 2 0 1 0 4 1 0 0 5 0 0 0 1 0 2 4 5 A{1,3,4} = A{4,1,3} = 0 1 1 0 0 . 0 0 0 0 0 2 5 {1,3,4} A{2,5} = (A{1,3,4} ){2,5} = 1 0 . 0 0 Ricordiamo che un minore di A di ordine k ≥ 1 è uno scalare del tipo |AIJ | dove AIJ è una sottomatrice quadrata di A di ordine k. Sia ρ = |AIJ | un minore non nullo di ordine k. Allora le righe di A corripondenti sono linearmente indipendenti e le colonne di A corrispondenti sono linearmente indipendenti. Infatti, le sottomatrici AI e AJ hanno entrambe rango k, essendo ρ anche un minore di esse. Definizione 1.12. Sia ρ = |AIJ | un minore di ordine k ≥ 1 della matrice A ∈ Mm,n (K). 0 Si dice orlato di ρ ogni minore di ordine k + 1 del tipo |AIJ 0 | dove I ⊂ I 0 e J ⊂ J 0 . 8 Teorema 1.13. (Principio degli orlati di Kronecker) Sia A ∈ Mm,n (K) e sia ρ un minore non nullo di A di ordine r. Allora, se tutti gli orlati di ρ sono nulli, rg(A) = r. Dimostrazione: Posto I = {i1 , . . . , ir } e J = {j1 , . . . , jr }, supponiamo che tutti gli orlati di ρ = |AIJ | siano nulli, e per assurdo ammettiamo che rg(A) > r. Allora, poichè le righe A(i1 ) , . . . , A(ir ) sono linearmente indipendenti, deve esistere una riga A(i) di A tale che A(i1 ) , . . . , A(ir ) , A(i) sono ancora indipendenti (si applichi il Teorema di completamento allo spazio vettoriale generato dalle righe di A). Posto I 0 = {i1 , . . . , ir , i}, la sottomatrice 0 0 AI ha pertanto rango r + 1. Poichè ρ è anche un minore non nullo di AI , abbiamo che 0 0 0 I , . . . , AI I I0 le colonne A(j (jr ) di A sono indipendenti. Ancora dal fatto che rg(A ) = r + 1, 1) 0 0 0 0 0 segue che esiste una colonna AI(j) di AI tale che AI(j1 ) , . . . , AI(jr ) , AI(j) sono indipendenti. 0 0 Posto J 0 = {j1 , . . . , jr , j}, consideriamo allora la sottomatrice (AI )J 0 = AIJ 0 ; essa ha rango 0 r + 1 perchè le sue colonne sono indipendenti e pertanto |AIJ 0 | = 6 0, e resta cosı̀ determinato un minore non nullo di ordine r + 1, che per costruzione è un orlato di ρ. Ciò è contro l’ipotesi. 2 Questo risultato fornisce il seguente algoritmo per calcolare il rango di A: si individua un elemento non nullo di A e si esaminano tutti i minori orlati di tale elemento: se sono tutti nulli il rango è 1; in caso contrario, scelto un minore di ordine due ρ2 non nullo, si calcolano gli orlati di ρ2 . Se questi sono tutti nulli, il rango è 2, altrimenti si procede scegliendo un orlato non nullo ρ3 e si itera il procedimento calcolando gli orlati di ρ3 . Si termina quando si individua un minore non nullo ρr di ordine r i cui orlati (se esistono) sono tutti nulli, ricavando che rg(A) = r. 2. Metodi per la risoluzione di un sistema lineare Si consideri un sistema lineare di m equazioni nelle n incognite x1 , . . . , xn : (2) Ax = b dove A ∈ Mm,n (K) e b ∈ Km . Denotiamo con C = (A b) la matrice completa del sistema. Si ricordi che (2) è compatibile se e solo se rg(A) = rg(C) (Teorema di Kronecker-RouchéCapelli). Il sistema in questione può anche riscriversi utilizzando solo la matrice C come segue: x1 .. (3) C . = 0. xr −1 La i-ma equazione può a sua volta riscriversi x (i) C = 0. −1 9 Notiamo che, se (2) è compatibile, fissata una base A(i1 ) , . . . , A(ir ) dello spazio generato dalle righe di A, allora (2) risulta equivalente al sistema che si ottiene scartando le equazioni non coinvolgenti le righe i1 , . . . , ir di C, ovvero A0 x = b0 (4) A(i1 ) bi1 .. .. 0 0 dove A = . e b = . . bir A(ir ) Ciò segue dal fatto che, essendo rg(C) = rg(A) = r, ogni riga di C è combinazione lineare delle righe C (i1 ) , . . . C (ir ) . Nei paragrafi seguenti descriviamo due metodi per discutere e risolvere un sistema. Metodo di riduzione ad un sistema di Cramer Utilizzando il metodo degli orlati, si calcolano il rango r di A e di C e si stabilisce se il sistema è risolubile. Posto r := rg(A), si fissi una sottomatrice non singolare {i ,...,i } M = A{j11 ,...,jrr } di A di ordine r, corrispondente alle righe di indici i1 < · · · < ir ed alle colonne j1 < · · · < jr . Posto inoltre k := n − r, si denotino con p1 < · · · < pk gli indici colonna diversi da j1 , . . . , jr . Allora ogni vettore x ∈ Kn si scrive in modo unico come (5) x = xj1 ej1 + · · · + xjr ejr + λ1 ep1 + . . . λk epk =: x0 + x00 . Poniamo ora bi1 b0 := ... , bir {i ,...,i } Z := A{p11 ,...,prk } . Ad esempio, dato il sistema x + 2y + 3z + 4t = 8 2x + 4y + 6z + 8t = 16 2x + 4y + 5z = 7 si ha rg(A) = rg(C) = 2 e si può scegliere M = 0 b = 16 , 7 {2,3} A{1,3} Z= = 2 6 ; in tal caso 2 5 4 8 . 4 0 10 Ciò premesso, affermiamo che un vettore x = x0 + x00 ∈ Kn è soluzione di (2) se e solo se z = (xj1 , . . . , xjr ) è soluzione del sistema di Cramer λ1 .. 0 (6) M z = ξ, ξ := b − Z . λk di ordine r nelle incognite xj1 , . . . , xjr . Si osservi che, assumendo n > r, le altre incognite xp1 , . . . xpk sono confluite nei termini noti del sistema (6). Nel caso in cui n = r, allora M = A{i1 ,...,in } e (6) è un sistema di Cramer coinvolgente tutte le incognite x1 , . . . , xn . Tornando all’esempio di cui sopra, il sistema (6) è 2x + 6z = 16 − 4λ1 − 8λ2 . 2x + 5z = 7 − 4λ1 Per giustificare l’affermazione di cui sopra, basta ricordare che il nostro sistema è equivalente a (4); ora, x ∈ Kn è soluzione se e solo se A0 x = b0 ovvero A0 x0 = b0 − A0 x00 che può riscriversi λ1 M z = b0 − Z ... . λk Dunque per ogni valore (λ1 , . . . , λn−r ) attribuito alle incognite xp1 , . . . , xpk si ottiene un’unica soluzione z del sistema (6) e quindi una ben determinata soluzione di (2) data da x = x0 + x00 in accordo con la (5), che può calcolarsi con la formula di Cramer. Viceversa, ogni soluzione x di (2) è ottenuta in questo modo in corrispondenza della scelta di un’unica k-pla (λ1 , . . . , λk ). Nell’esempio già esaminato, si ottiene che la generica soluzione del sistema è (−2λ1 + 20λ2 − 19, λ1 , 9 − 8λ2 , λ2 ), al variare di λ1 , λ2 ∈ R. In altri termini, denotato con S ⊂ Kn l’insieme di tutte le soluzioni del sistema (2), assumendo n > r vi è una bigezione Ψ : Kn−r → S data da Ψ(λ1 , . . . , λn−r ) := x0 + x00 dove x0 = xj1 ej1 + · · · + xjr ejr , x00 = λ1 ep1 + · · · + λk epk essendo (xj1 , . . . , xjr ) l’unica soluzione di (6). 11 Diremo quindi che il sistema ammette ∞n−r soluzioni, descritte al variare dei parametri liberi λ1 , . . . , λn−r . Notiamo anche che il sistema ammette un’unica soluzione se e solo se r = n; formalmente, si conviene di far rientrare anche questo caso nella simbologia ∞n−r . Nelle notazioni precedenti, ciò corrisponde a porre K0 = {0} e x00 = 0. Il lettore osservi infine che, nel caso in cui il sistema in esame è omogeneo, allora S è un sottospazio vettoriale di Rn ed inoltre Ψ è lineare. Dunque Ψ è un isomorfismo e la dimensione di S è n − r. Riduzione di un sistema per righe Per stabilire se il sistema (2) ovvero (3) è risolubile, si può procedere col seguente algoritmo: se C contiene almeno una riga del tipo (0 . . . 0 α) con α 6= 0, allora il sistema non ha soluzioni. Altrimenti si considera la prima riga non nulla di C e si procede alla riduzione per righe di C scegliendo ad ogni passo un pivot non appartenente all’ultima colonna. Ogni trasformazione effettuata trasforma il sistema (3) in uno equivalente. Se ad un certo passo non è possibile scegliere un pivot sulle prime n − 1 colonne, il sistema non è compatibile perchè equivalente ad un sistema contenente un’equazione del tipo 0 = α con α 6= 0. Terminata, se possibile, la procedura di riduzione per righe, si perviene ad una matrice ridotta C 0 e quindi ad un sistema equivalente (7) A0 x = b 0 in cui sia A0 che C 0 = (A0 b0 ) sono ridotte per righe e dello stesso rango. Questo sistema è pertanto compatibile e tale è il sistema iniziale (2). Detti j1 , . . . , jr gli indici delle colonne occupate dai pivots di C 0 , il sistema (7) si risolve agevolmente nelle incognite xj1 , . . . , xjr cominciando dall’ultima equazione non banale (cioè non della forma 0 = 0) ricavando l’incognita xjr (l’unica che compare tra le xj1 , . . . , xjr ) in funzione di tutte le altre; si procede quindi a ritroso risolvendo tutte le altre equazioni rispetto alle incognite rimanenti. Le n − r incognite diverse da xj1 , . . . , xjr svolgono quindi il ruolo di parametri liberi al variare dei quali si ottengono ∞n−r soluzioni.