Geometria Un corso gratuito da Wikipedia PDF generato attraverso il toolkit opensource ''mwlib''. Per maggiori informazioni, vedi [[http://code.pediapress.com/ http://code.pediapress.com/]]. PDF generated at: Sat, 26 Mar 2011 09:25:37 UTC Indice Voci Anello (algebra) 1 Corpo (matematica) 6 Matrice 7 Rappresentazione dei numeri complessi 16 Quaternione 18 Spazio vettoriale 26 Copertura lineare 33 Base (algebra lineare) 35 Completamento a base 38 Estrazione di una base 39 Matrice di cambiamento di base 40 Somma diretta 42 Formula di Grassmann 44 Metodo di eliminazione di Gauss 46 Determinante 50 Rango (algebra lineare) 60 Trasformazione lineare 63 Matrice di trasformazione 67 Teorema del rango 70 Autovettore e autovalore 72 Polinomio caratteristico 80 Teorema di Hamilton-Cayley 83 Diagonalizzabilità 85 Forma canonica di Jordan 88 Matrice esponenziale 91 Sistema di equazioni lineari 95 Teorema di Rouché-Capelli 97 Regola di Cramer 99 Spazio affine 104 Sottospazio affine 106 Forma bilineare 110 Spazio euclideo 112 Prodotto scalare 115 Ortogonalizzazione di Gram-Schmidt 122 Base ortonormale 125 Matrice ortogonale 126 Disuguaglianza di Cauchy-Schwarz 130 Teorema di Sylvester 132 Teorema spettrale 133 Gruppo ortogonale 136 Rotazione (matematica) 138 Prodotto vettoriale 140 Regola della mano destra 144 Note Fonti e autori delle voci 147 Fonti, licenze e autori delle immagini 149 Licenze della voce Licenza 150 Anello (algebra) 1 Anello (algebra) In matematica un anello è una struttura algebrica composta da un insieme A su cui sono definite due operazioni binarie, chiamate somma e prodotto, indicate rispettivamente con e , che godono di proprietà simili a quelle verificate dai numeri interi. La parte della matematica che li studia è detta teoria degli anelli. Definizione formale L'insieme A, dotato di due operazioni binarie + e ·, è un anello se valgono i seguenti assiomi: (A, +) è un gruppo abeliano con elemento neutro 0: • • • • (a + b) + c = a + (b + c) a+b=b+a 0+a=a+0=a ∀a ∃(−a) tale che a + −a = −a + a = 0 (A, ·) è un semigruppo: • (a·b)·c = a·(b·c) La moltiplicazione è distributiva rispetto alla somma: • a·(b + c) = (a·b) + (a·c) • (a + b)·c = (a·c) + (b·c) (le relazioni devono valere per ogni a, b e c in A) Come per i numeri, il simbolo · per la moltiplicazione è spesso omesso. Spesso vengono studiati anelli che posseggono ulteriori proprietà: se anche la moltiplicazione è commutativa, A è detto anello commutativo, se ammette un elemento neutro (generalmente indicato con 1; cioè (A, ·) è un monoide) allora l'anello è unitario; se poi l'anello è commutativo e non esistono divisori dello 0 (cioè se ab=0 allora almeno uno tra a e b è 0) si è in presenza di un dominio d'integrità. Un corpo è un anello con unità i cui elementi non nulli hanno inverso moltiplicativo. Un campo è un anello commutativo con unità i cui elementi non nulli hanno inverso moltiplicativo, ossia un corpo commutativo. L'esempio più importante di corpo non commutativo è il corpo dei quaternioni, mentre gli insiemi (numeri razionali), (numeri reali) e (numeri complessi) sono esempi di campi. A volte la definizione di anello è lievemente diversa. La più importante di queste differenze è la richiesta che l'anello possegga anche l'unità: tra i matematici che adottano questa definizione vi sono Bourbaki[1] e Serge Lang[2] . In questo caso, per riferirsi alla struttura qui presentata come anello, viene usato il termine pseudoanello. Altri autori non richiedono l'associatività del prodotto. Esempi L'esempio più basilare della struttura di anello è l'insieme dei numeri interi, dotato delle usuali operazioni di somma e prodotto. Tale anello è commutativo ed è un dominio d'integrità. L'insieme dei numeri naturali non è invece un anello, perché non esistono gli inversi rispetto all'addizione. Allo stesso modo, l'insieme A[x] dei polinomi con variabile x e coefficienti in un anello A formano un anello con le usuali operazioni di somma e prodotto fra polinomi. Tale anello eredita molte proprietà da quelle di A, quali la commutatività e l'assenza di divisori dello 0. Anche l'insieme F(X, A) delle funzioni da un insieme qualsiasi X ad un anello A forma un altro anello con le usuali operazioni di somma e prodotto fra funzioni punto a punto, definite nel modo seguente: Anello (algebra) Un anello non commutativo è invece l'anello delle matrici n x n a valori in un anello A (indicato con M(n, A)), con le operazioni di somma e prodotto fra matrici. Generalmente questo anello possiede anche dei divisori dello zero. Ad esempio, in M(2, R) valgono le relazioni: e Teoremi di base A partire dagli assiomi, si può dedurre immediatamente che per ogni a e b in un anello A: • 0a = a0 = 0, • (−a)b = a(−b) = −(ab). Se poi l'anello A è unitario, allora • • • • l'unità è unica, (−1)a = −a, (ab)−1 = b−1 a−1 se a e b hanno inversi rispetto al prodotto., se 0 = 1 allora l'anello è formato da un solo elemento, Un altro importante teorema, che non richiede l'esistenza dell'unità, è il teorema del binomio: valido per ogni coppia di elementi x e y che commutano (cioè tali che xy = yx). Sottostrutture Un sottoanello di un anello A è un sottogruppo S di (A, +) che sia chiuso rispetto al prodotto. In altre parole, S è un sottoinsieme non vuoto di A, e se a e b sono in S, allora anche e ab sono in S. Poiché gli assiomi elencati sopra continuano a valere per S, anch'esso è un anello rispetto alle operazioni + e · di A. In questo modo costruiamo facilmente altri esempi: • • • • • • I numeri interi divisibili per n sono un sottoanello di Z. I numeri razionali con denominatore dispari sono un sottoanello di Q. L'insieme di tutti i numeri reali della forma a + b√2 con a e b interi è un sottoanello di R. Gli interi gaussiani a + bi in C, dove a e b sono interi, sono un sottoanello di C. I polinomi in A[x] del tipo p(x) = a0 + a1x2 + a2x4 + ... + anx2n sono un sottoanello di A[x]. L'insieme delle frazioni diadiche costituisce un sottoanello dei numeri razionali. Un particolare sottoanello è il centro di un anello A: esso comprende tutti gli elementi che commutano (moltiplicativamente) con qualsiasi elemento di A. Esso coincide con l'intero anello se e solo se A è un anello commutativo. A partire da un sottoanello S di A e da un sottoinsieme X, si può costruire il più piccolo sottoanello contenente S ed X: esso è indicato con S[X], ed è uguale all'insieme delle combinazioni degli elementi di mediante le operazioni di anello. Tale operazione è detta estensione di anelli, ed è "finitamente generata" se X è finito. 2 Anello (algebra) 3 Ideali Spesso tuttavia al posto di questa struttura si preferisce usare quella, più forte, di ideale: esso è definito in un anello commutativo come un particolare sottoanello tale che tutti i prodotti ai, dove a è un elemento dell'anello e i appartiene all'ideale, sono ancora elementi dell'ideale. Se invece l'anello non è commutativo, è necessario distinguere tra ideali destri e sinistri: i primi sono quelli tali che ia appartiene all'ideale per ogni i nell'ideale e a nell'anello, mentre per i secondi, allo stesso modo, ai appartiene all'ideale. Se un ideale è sia destro che sinistro, viene detto bilatero o bilaterale. L'importanza di questa struttura risiede nel fatto che il nucleo di un omomorfismo tra due anelli è sempre un ideale bilatero di A, e che a partire da un ideale bilatero I è possibile costruire l'anello quoziente A/I. Inoltre la presenza di ideali permette di stabilire un'importante proprietà dell'anello: esso è infatti un campo se e solo se è privo di ideali non banali (cioè diversi dall'insieme {0} e dall'anello stesso). A seconda del rapporto di un ideale con il resto dell'anello, sono possibili ulteriori specificazioni: un ideale primo I è un ideale tale che, per ogni prodotto ab che appartiene ad I, almeno uno tra a e b appartiene ad I (il nome deriva dalla similitudine di questa definizione con il lemma di Euclide riguardante i numeri primi); se invece non esistono ideali "intermedi" tra I ed A (cioè se l'unico ideale di A che contiene I è A stesso) si parla di ideale massimale. Questi due tipi di ideali sono particolarmente importanti in relazione ai loro quozienti: in un anello commutativo, infatti, I è primo se e solo se A/I è un dominio d'integrità, mentre se l'anello è anche unitario I è massimale se e solo se A/I è un campo. Questo implica anche che, in un anello commutativo unitario, ogni ideale massimale è primo. Il lemma di Krull (la cui dimostrazione si basa sul lemma di Zorn) afferma che ogni anello unitario possiede almeno un ideale massimale; se esso è unico, l'anello si dice locale. L'insieme degli ideali primi di un anello commutativo A forma il cosiddetto spettro di A. Elementi invertibili Un elemento a di un anello A con unità è invertibile se esiste un b tale che . Gli elementi invertibili di un anello sono spesso chiamati unità. Normalmente è il contesto che chiarisce se si parla di unità intesa come l'elemento neutro moltiplicativo, o di unità intesa come elemento invertibile. L'insieme degli elementi invertibili in A è generalmente descritto come . L'insieme forma un gruppo con l'operazione prodotto, chiamato gruppo moltiplicativo di A. Ad esempio, nei numeri interi il gruppo moltiplicativo è dato dai due elementi . In un corpo o in un campo, il gruppo moltiplicativo coincide con tutto l'anello privato dell'elemento neutro. Omomorfismi Un omomorfismo tra due anelli A e B è una funzione che preserva le operazioni, cioè una funzione f tale che, per ogni coppia di elementi a e b di A, si ha e . Gli omomorfismi quindi preservano in qualche modo la struttura algebrica; particolarmente importanti tra di essi sono gli isomorfismi, ovvero gli omomorfismi biunivochi, che la conservano completamente: due anelli isomorfi possono essere considerati "uguali" per tutte le proprietà algebriche. Ogni omomorfismo mappa lo zero di A nello zero di B, mentre questo non avviene per l'unità, nemmeno se entrambi gli anelli sono unitari: condizioni sufficienti peché questo avvenga è che l'omomorfismo sia suriettivo oppure che nel codominio non esistano divisori dello zero. Il nucleo di un omomorfismo è un ideale bilatero di A, e viceversa ogni ideale è il nucleo di un omomorfismo: invece l'immagine di A è un sottoanello di B. Gli omomorfismi preservano in una certa misura anche le sottostrutture: l'immagine di un sottoanello è un sottoanello, mentre l'immagine di un ideale è un ideale nell'immagine di A, ma non necessariamente in B. Anello (algebra) 4 Una relazione molto importante è il teorema fondamentale di omomorfismo, che permette di trovare degli isomorfismi a partire da degli omomorfismi: se f è un omomorfismo tra A e B e I è il suo nucleo, allora il quoziente A/I è isomorfo all'immagine f(A). Un omomorfismo suriettivo può essere considerato una proiezione di un anello A su un suo quoziente A/I (dove I è il nucleo); un omomorfismo iniettivo, invece, può essere considerato un'inclusione di un anello nell'altro, perché, per il teorema di omomorfismo, esiste nel codominio un'immagine isomorfa ad A, che quindi può essere considerata uguale ad A. Se A è un campo, inoltre, tutti gli omomorfismi non nulli sono iniettivi, in quanto gli unici ideali sono quelli banali. Prodotto diretto Il prodotto diretto di due anelli A e B è il prodotto cartesiano A×B con le operazioni definite termine a termine: (a1, b1) + (a2, b2) = (a1+a2, b1+b2), (a1, b1)(a2, b2) = (a1a2, b1b2). Questo nuovo insieme forma un anello, in cui lo 0 è la coppia . Diverse proprietà di questo nuovo anello possono essere dedotte dalle proprietà degli anelli di partenza: A×B è commutativo se e solo se lo sono entrambi i fattori, mentre se A e B sono unitari allora è l'unità di A×B. Una proprietà che invece non passa al prodotto è l'assenza di divisori degli zeri: infatti il prodotto è sempre uguale a , anche se a e b non sono zeri. Questo implica che il prodotto diretto di campi non è mai un campo, a meno che uno non sia ridotto al solo 0. Questa definizione si può estendere naturalmente al prodotto cartesiano di n anelli. Elementi primi ed irriducibili In un dominio d'integrità è possibile come in studiare la fattorizzazione di un dato elemento (non invertibile). In questo contesto, la definizione di divisibilità si estende naturalmente al caso di qualsiasi dominio: a divide b se esiste un elemento r tale che ar=b. Se r è invertibile, a e b si dicono associati. Due definizioni emergono naturalmente in questo studio: • un elemento a è irriducibile se, ogniqualvolta che a=bc, allora o b o c è invertibile; • un elemento a è primo se, quando a divide il prodotto bc, allora a divide almeno uno tra b e c. In , queste due definizioni sono equivalenti, ma questo non è vero in generale: gli elementi primi sono irriducibili, ma gli irriducibili primo, perché divide il prodotto non sono sempre primi. Ad esempio, nell'anello , 2 è irriducibile ma non , ma non divide né un fattore né l'altro. Questa seconda implicazione è tuttavia verificata negli anelli a fattorizzazione unica, ovvero in quegli anelli in cui, date due fattorizzazioni in irriducibili allora m=n, e ogni è associato ad un . In ogni dominio a fattorizzazione unica esistono il massimo comun divisore e il minimo comune multiplo tra ogni coppia di elementi. Anelli con ancora maggiori proprietà sono gli anelli ad ideali principali e gli anelli euclidei, in cui è possibile effettuare la divisione euclidea come negli interi. A quest'ultima classe appartengono anche gli anelli di polinomi , dove è un campo. Anello (algebra) 5 Voci correlate • • • • • • • • • Storia della teoria degli anelli Teoria degli anelli Ideale Anello commutativo Pseudoanello Semianello Dominio di integrità Campo Struttura algebrica Note [1] (EN) Elements of Mathematics, Vol. II Algebra, Ch. 1, Springer [2] (EN) Algebra, 3rd edition, Springer, ch. II Bibliografia • Giulia Maria Piacentini Cattaneo, Algebra - un approccio algoritmico. Decibel-Zanichelli, Padova 1996, ISBN 978-88-08-16270-0 Collegamenti esterni • (EN) Anello (http://mathworld.wolfram.com/Ring.html) su MathWorld. Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Corpo (matematica) 6 Corpo (matematica) In matematica, un corpo è una particolare struttura algebrica, che può essere considerata come intermedia fra quella di anello e quella di campo. Un corpo è infatti un insieme munito di due operazioni binarie, chiamate somma e prodotto e indicate rispettivamente con e , che abbia tutte le proprietà usuali di un campo, tranne la proprietà commutativa per il prodotto. Equivalentemente, è un anello in cui ogni elemento non nullo ha un inverso moltiplicativo. Definizione Un corpo è un insieme , dotato di due operazioni binarie interne è un gruppo abeliano con elemento neutro e , che soddisfa i seguenti assiomi: : • • • • per ogni esiste un elemento tale che è un gruppo con elemento neutro : • • • per ogni esiste un elemento tale che La moltiplicazione è distributiva rispetto alla somma: • • (le relazioni devono valere per ogni Nella definizione, e in ) . Un corpo in cui la moltiplicazione è commutativa è detto corpo commutativo, e più usualmente campo. Esempi Ogni campo è anche un corpo: sono quindi corpi i campi L'insieme dei quaternioni è un corpo (non commutativo). Proprietà Equazioni In un corpo sono risolubili in modo unico le equazioni , per ogni appartenenti a con diverso da 0. dei numeri razionali, reali e complessi. Corpo (matematica) 7 Spazi vettoriali Un corpo è la struttura su cui si basa la costruzione di spazio vettoriale. In particolare, ogni corpo è uno spazio vettoriale su se stesso. Voci correlate • Anello • Campo Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Matrice In matematica, una matrice è uno schieramento rettangolare di oggetti; le matrici di maggiore interesse sono costituite da numeri come, per esempio, la seguente: Gli elementi di una matrice vengono in genere indicati con una coppia di indici a pedice. Le matrici sono ampiamente usate in matematica e in tutte le scienze per la loro capacità di rappresentare in maniera utile e concisa diversi oggetti matematici, come valori che dipendono da due parametri o anche sistemi lineari, cosa, quest'ultima, che le rende uno strumento centrale dell'algebra lineare. Matrice Storia Tracce dell'utilizzo di matrici risalgono fino ai primi secoli a.C. Nel corso della storia più volte è capitato che matematici vissuti in epoche e luoghi diversi, durante lo studio di sistemi lineari, abbiano disposto i coefficienti del sistema in forma tabellare, fatto che evidenzia come le matrici siano una struttura particolarmente intuitiva e conveniente per questi scopi.[1] Interessanti reperti sono anche i quadrati latini e i quadrati magici. Fu solo a partire dal XVII secolo comunque che l'idea delle matrici fu ripresa e sviluppata, prima con risultati e idee ottenuti in contesti di studio specifici, poi con la loro generalizzazione. Lo sviluppo infine è continuato fino a dare alla teoria delle matrici la forma che oggi conosciamo.[1] I primi a sfruttare le matrici per agevolare i propri calcoli furono i matematici cinesi, proprio nell'affrontare i sistemi lineari. Nel Jiuzhang Suanshu (Nove capitoli sulle arti matematiche), steso durante la dinastia Han, l'ottavo capitolo è interamente dedicato allo svolgimento di un problema matematico formulato sottoforma di sistema lineare. L'autore dispone ingegnosamente i coefficienti di ogni equazione parallelamente in senso verticale, in maniera quindi differente dalla notazione odierna, che li vuole disposti orizzontalmente, per righe: una semplice differenza di notazione.[1] [2] Ai numeri così disposti venivano poi applicate una serie di operazioni portandoli in una forma tale da rendere evidente quale fosse la soluzione del sistema: era stato applicato quello che oggi conosciamo come metodo di eliminazione gaussiana, che sarà scoperto in occidente solo agli inizi del XIX secolo con gli studi del matematico tedesco Carl Friedrich Gauss.[1] All'interno dello stesso Jiuzhang Suanshu comparve anche il concetto di determinante, inteso come metodo per determinare se un sistema lineare ammette un'unica soluzione.[2] Un'idea più moderna di determinante fece la sua comparsa nel 1683, a distanza di poco tempo sia in Giappone, con Kowa Seki (Method of solving the dissimulated problems), che in Europa, con Leibniz. Nella prima metà del XVIII secolo, il matematico scozzese Colin Maclaurin scrisse un'opera, pubblicata postuma solo nel 1748, due anni dopo la sua morte, dal titolo Treatise of Algebra (Trattato di algebra)[3] , nella quale mostrava il calcolo dei determinanti per matrici quadrate di ordine 2 e 3. Successivamente Cramer ampliò quanto scoperto, presentando l'algoritmo per il calcolo del determinante per matrici quadrate di ordine qualunque, oggi noto come regola di Cramer nel 1750 (Introduction à l'analyse des lignes courbes algébriques). Ulteriori sviluppi sul concetto di determinante furono poi apportati dai matematici Étienne Bézout (Sur le degré des équations résultantes de l'évanouissement des inconnues, 1764), Vandermonde (Mémoire sur l'élimination, 1772)[4] , Laplace (1772), Lagrange (1773), Gauss (1801) che introdusse per la prima volta il termine determinante, Cauchy (1812) che usò per la prima volta il determinante nella sua concezione moderna, ottenendo anche importanti risultati sui minori e le matrici aggiunte, e Jacobi.[1] All'inizio del XIX secolo venne usato per la prima volta in occidente il metodo di eliminazione gaussiana da parte di Gauss, per lo studio dell'orbita dell'asteroide Pallas in base alle osservazioni ottenute fra il 1803 ed il 1809.[1] Altri concetti ed idee fondamentali della teoria delle matrici furono poi studiati, sempre in contesti specifici, da Cauchy, Sturm, Jacobi, Kronecker, Weierstrass e Eisenstein. Nel 1848 il matematico e avvocato inglese James Joseph Sylvester introdusse per la prima volta il termine matrice. Il matematico inglese Arthur Cayley, anch'egli avvocato nonché collega di Sylvester, introdusse nel 1853 l'inversa di una matrice.[1] Fu poi lo stesso Cayley nel 1858 a fornire la prima definizione astratta di matrice, in Memoir on the theory of matrices (Memorie sulla teoria delle matrici)[5] , mostrando come tutti gli studi precedenti non fossero altro che casi 8 Matrice 9 specifici del suo concetto generale. All'interno del testo Cayley forniva inoltre un'algebra delle matrici, definendo le operazioni basilari di somma, moltiplicazione tra matrici, moltiplicazione per scalari e inversa di una matrice.[1] Ancora ignaro di tali opere, nel 1878 il matematico tedesco Frobenius pubblicò Ueber lineare Substitutionen und bilineare Formen (Sulle sostituzioni lineari e forme bilineari), nel quale riportava importanti risultati sulle matrici, quale per esempio la definizione di rango.[1] Nel 1888 il geodeta Wilhelm Jordan nella terza edizione del suo Handbuch der Vermessungskunde (Manuale di geodesia) ampliò il metodo di eliminazione di Gauss in quello che oggi è noto come metodo di eliminazione di Gauss-Jordan.[6] Altri contributi importanti furono dati da Maxime Bôcher nel 1907 con Introduction to higher algebra; altri testi di rilievo furono scritti da Herbert Westren Turnbull ed Alexander Craig Aitken negli anni trenta (The Theory of Canonical Matrices e Determinants and Matrices) e da Leon Mirsky nel 1955 (An introduction to linear algebra).[1] A partire dalla seconda metà del XX secolo l'avvento dei computer ha dato un'impressionante accelerazione alla diffusione delle matrici e dei metodi matriciali. Grazie ai computer infatti è stato possibile applicare in maniera efficiente metodi iterativi precedentemente ritenuti troppo onerosi, portando di conseguenza allo sviluppo di nuove tecniche per la risoluzione di importanti problemi dell'algebra lineare, quali il calcolo degli autovettori e autovalori, il calcolo dell'inversa di una matrice e la risoluzione di sistemi lineari.[7] Ciò a sua volta ha permesso l'introduzione delle matrici in altre discipline applicate, come per esempio l'economia e la probabilità, che grazie ad esse hanno potuto rappresentare concetti complessi in maniera più semplice. Altri campi relativamente più recenti, invece, come per esempio la ricerca operativa, hanno basato ampiamente la propria disciplina sull'utilizzo delle matrici.[7] Definizioni e notazioni Righe, colonne, elementi Le righe orizzontali di una matrice sono chiamate righe, mentre quelle verticali sono le colonne. Ad esempio, la matrice mostrata sopra ha due righe e tre colonne. In generale, una matrice è una matrice con righe e colonne, dove e sono interi positivi fissati. Una matrice generica è descritta solitamente nel modo seguente: indicando con l'elemento posizionato alla riga -esima e alla colonna -esima. I vettori possono essere considerati matrici molto semplici, aventi una sola riga o una sola colonna. Più precisamente, una matrice con una sola riga, di dimensione , è detta matrice riga, mentre una matrice con una sola colonna, di dimensione , è detta matrice colonna. Qui sotto sono mostrati in ordine una matrice , una matrice colonna ed una matrice riga. Come mostrato negli esempi, i valori presenti nella matrice possono essere di vario tipo: interi, reali o anche complessi. Generalmente, in algebra lineare si suppone che i valori siano elementi di un campo fissato. Matrice 10 Notazioni Generalmente una matrice è indicata con una lettera dell'alfabeto (spesso maiuscola): L'elemento posizionato nella riga tramite parentesi quadre e nella colonna può essere indicato in vari modi: ad esempio come . Si usa talvolta la notazione per indicare che ,o è una matrice e che i suoi elementi sono denotati con . costituiscono la diagonale principale della matrice. Algebra delle matrici Sulle matrici si possono definire numerose operazioni: due matrici (aventi dei numeri opportuni di righe e colonne) possono essere sommate, sottratte, moltiplicate fra loro, e moltiplicate per un numero (detto scalare). Somma Due matrici e , entrambe di tipo come la matrice , possono essere sommate. La loro somma i cui elementi sono ottenuti sommando i corrispettivi elementi di è definita e . Formalmente: Per esempio Moltiplicazione per uno scalare La moltiplicazione per uno scalare è un'operazione che, data una matrice costruisce una nuova matrice ed un numero (detto scalare), , il cui elemento è ottenuto moltiplicando l'elemento corrispondente di per ; la matrice e lo scalare scelti devono appartenere allo stesso campo. Formalmente: Per esempio: Prodotto La moltiplicazione tra due matrici e è un'operazione più complicata delle precedenti. A differenza della somma, non è definita moltiplicando semplicemente gli elementi aventi lo stesso posto. La definizione di moltiplicazione che segue è motivata dal fatto che una matrice modellizza una applicazione lineare, e in questo modo il prodotto di matrici corrisponde alla composizione di applicazioni lineari. La moltiplicazione è definita soltanto se le matrici parole, il numero di tipo di colonne di e sono rispettivamente di tipo deve coincidere con il numero di righe di e : in altre . Il risultato è una matrice . Esempio: siano e due matrici rispettivamente ed ottenere una matrice , poiché le colonne di e : tra queste si può effettuare la moltiplicazione . Le stesse matrici, però, non possono essere moltiplicate nel modo non sono tante quante le righe di . Matrice 11 Il prodotto di e è la matrice di dimensione , il cui elemento di posizione è dato dalla somma Questo è il prodotto scalare tra la riga di e la colonna di , che hanno lo stesso numero di elementi. Per questo motivo il prodotto è chiamato prodotto riga per colonna. Per esempio: Moltiplicando una matrice per una si ottiene una matrice . 1ª riga: 2ª riga: Risultato : A differenza dell'usuale moltiplicazione fra numeri, questa non è un'operazione commutativa, cioè generale diverso da è in , quando si possono effettuare entrambi questi prodotti. Un caso particolare, ampiamente usato in algebra lineare per rappresentare le trasformazioni lineari (come rotazioni e riflessioni) è il prodotto tra una matrice ed un vettore colonna , che viene chiamato anche prodotto matrice-vettore. Proprietà Le operazioni di somma e prodotto di matrici soddisfano tutte le proprietà usuali della somma e del prodotto di numeri, ad eccezione, nel caso del prodotto di matrici, della proprietà commutativa. Sia la matrice nulla, fatta di soli zeri (e della stessa taglia di moltiplicando per lo scalare ). Sia inoltre . Valgono le relazioni seguenti, per ogni la matrice ottenuta matrici per cui queste operazioni hanno senso. 1. (la matrice nulla è l'elemento neutro della somma) 2. 3. 4. 5. 6. 7. (esistenza di un opposto per la somma) (proprietà associativa della somma) (proprietà commutativa della somma) (proprietà associativa del prodotto) (proprietà distributiva) (proprietà distributiva) Le prime 4 proprietà affermano che le matrici formano un gruppo abeliano rispetto all'operazione di somma. Come mostrato sopra, il prodotto non è commutativo in generale. Matrice 12 Altre operazioni Sulle matrici sono definite numerose altre operazioni. Tra queste: • • • • • • Trasposizione di una matrice Somma diretta Prodotto diretto (o di Kronecker) Esponenziale di una matrice Inversione di una matrice invertibile Diagonalizzazione di una matrice diagonalizzabile Matrici quadrate Fra le matrici, occupano un posto di rilievo le matrici quadrate, cioè le matrici , che hanno lo stesso numero di righe e di colonne. Nozioni di base Una matrice quadrata ha una diagonale principale, quella formata da tutti gli elementi con indici uguali. La somma di questi elementi è chiamata traccia. L'operazione di trasposizione trasforma una matrice quadrata matrice ottenuta scambiando ogni con nella , in altre parole ribaltando la matrice intorno alla sua diagonale principale. Una matrice tale che è una matrice simmetrica. In altre parole, è simmetrica se . Se tutti gli elementi che non stanno nella diagonale principale sono nulli, la matrice è detta diagonale. Prodotto di matrici quadrate La più importante matrice è forse la matrice identità : è una matrice avente 1 su ogni elemento della diagonale e 0 altrove. La matrice è importante perché rappresenta l'elemento neutro rispetto al prodotto: infatti le matrici possono essere moltiplicate fra loro, e vale (oltre a quelle scritte sopra) la proprietà seguente per ogni : (elemento neutro del prodotto) Nello spazio delle matrici sono quindi definiti una somma ed un prodotto, e le proprietà elencate fin qui asseriscono che l'insieme è un anello, simile all'anello dei numeri interi, con l'unica differenza che il prodotto di matrici non è commutativo. Determinante Un' importante quantità definita a partire da una matrice quadrata è il suo determinante. Indicato con , questo numero fornisce molte informazioni essenziali sulla matrice. Ad esempio, determina se la matrice è invertibile, cioè se esiste una matrice tale che Il determinante è l'ingrediente fondamentale della regola di Cramer, utile a risolvere alcuni sistemi lineari. Matrice 13 Polinomio caratteristico, autovettori, diagonalizzabilità La traccia ed il determinante possono essere racchiuse in un oggetto ancora più raffinato, di fondamentale importanza nello studio delle trasformazioni lineari: il polinomio caratteristico. Questo polinomio è importante nello studio delle trasformazioni lineari. Le sue radici sono gli autovalori della matrice, quantità associate ai corrispondenti autovettori. In particolare, questi concetti sono utili a capire se una data matrice è simile ad una matrice diagonale. Applicazioni delle matrici Sistemi lineari Le matrici sono utili soprattutto a rappresentare sistemi di equazioni lineari. Il sistema lineare può essere rappresentato con il suo equivalente matriciale, tramite il prodotto matrice-vettore: Applicazioni lineari Più in generale, le matrici permettono di rappresentare le trasformazioni lineari fra spazi vettoriali. Ogni operatore lineare da uno spazio vettoriale di dimensione a uno spazio vettoriale di dimensione , e per ogni possibile scelta di una coppia di basi matrice e , si associa a la tale che Questa matrice rappresenta l'applicazione : questa rappresentazione dipende però dalle basi scelte. Molte operazioni fra matrici si traducono in operazioni fra applicazioni lineari: • L'immagine di un vettore corrisponde alla moltiplicazione matrice-vettore. • La somma di applicazioni (quando possibile) corrisponde alla somma fra matrici. • La composizione di applicazioni lineari (quando possibile) corrisponde al prodotto fra matrici. Classi di matrici reali e complesse Oltre alle matrici diagonali e simmetriche già introdotte, vi sono altre categorie di matrici importanti. • Le matrici antisimmetriche, in cui i valori nelle caselle in posizioni simmetriche rispetto alla diagonale principale sono opposti: . • Le matrici hermitiane (o auto-aggiunte), in cui i valori nelle caselle di posizioni simmetriche rispetto alla diagonale principale sono complessi coniugati: . • Un quadrato magico è una matrice quadrata in cui la somma dei valori su ogni riga, colonna o diagonale è sempre la stessa. • Le matrici di Toeplitz hanno valori costanti sulle diagonali parallele alla principale: Matrice 14 • Le matrici stocastiche sono matrici quadrate le cui colonne sono vettori di probabilità, cioè sequenze di reali compresi tra 0 e 1 con somma uguale a 1; esse sono usate per definire le catene di Markov. Spazio di matrici Spazio vettoriale Lo spazio di tutte le matrici Mat a valori in un fissato campo è indicato generalmente con o . Per quanto già visto, questo spazio è un gruppo abeliano con la somma. Considerato anche con la moltiplicazione per scalare, l'insieme ha una struttura di spazio vettoriale su . Questo spazio ha una base canonica, composta da tutte le matrici aventi valore 1 sulla casella di posto zero in tutte le altre. La base consta di elementi, e quindi lo spazio e ha dimensione . Algebra su campo Nel caso delle matrici quadrate, è definito anche il prodotto. Con questa ulteriore operazione, lo spazio , generalmente indicato con , eredita una struttura di anello con unità. Tale struttura è compatibile con quella di spazio vettoriale definita sopra, e fornisce quindi un esempio basilare di algebra su campo. Generalizzazioni Una matrice infinita può essere definita come una serie di elementi , indicizzati da coppie di numeri naturali , senza nessun limite superiore per entrambi. Più in generale, una generalizzazione del concetto di matrice è costruita prendendo due insiemi di indici qualsiasi (parametrizzanti le "righe" e le "colonne") e definendo una matrice come un'applicazione a valori in un altro dato insieme . La matrice usuale corrisponde al caso in cui e , e è ad esempio l'insieme dei numeri reali o complessi. Questa definizione generale si serve solo di nozioni insiemistiche e non ricorre a nozioni visive e intuitive come quella di schieramento rettangolare. Consente di trattare casi molto generali: ad esempio matrici le cui righe e colonne sono etichettate da indici in un qualunque sottoinsieme degli interi , matrici etichettate da coppie o in generale da -uple di interi come quelle che si incontrano nella meccanica quantistica o nella chimica molecolare, matrici infinite etichettate con gli insiemi e come quelle che permettono di rappresentare successioni polinomiali o serie formali con due variabili. Per poter definire somma, prodotto e altre operazioni sulle matrici, è opportuno che l'insieme operazioni, ad esempio che sia un anello. sia dotato di tali Matrice 15 Note [1] (EN) Storia dell'uso delle matrici e dei determinanti (http:/ / www-history. mcs. st-andrews. ac. uk/ HistTopics/ Matrices_and_determinants. html) su MacTutor [2] (EN) Il Nove cpitoli sulle arti matematiche (http:/ / www-history. mcs. st-andrews. ac. uk/ HistTopics/ Nine_chapters. html) su MacTutor [3] Il testo è consultabile on-line: Treatise of Algebra (http:/ / books. google. it/ books?id=QoAHAAAAcAAJ& printsec=frontcover& source=gbs_navlinks_s#v=onepage& q=& f=false). [4] (EN) Biografia di Vandermonde (http:/ / www-history. mcs. st-and. ac. uk/ Biographies/ Vandermonde. html) su MacTutor [5] L'abstract del testo è consultabile on-line: Memoir on the theory of matrices in Proceedings of the Royal Society of London, Volume 9 (http:/ / books. google. com/ books?id=xOkAAAAAYAAJ& pg=PA100& ei=A6kkS5v5Lpe6yQS9kMyGCw& hl=it& cd=1#v=onepage& q=& f=false). [6] S. C. Althoen and R. McLaughlin, "Gauss-Jordan Reduction: A Brief History," American Mathematical Monthly, 94:130–142 (1987). [7] Bronson 1989, op. cit., Preface Bibliografia In lingua straniera • Richard Bronson, Schaum's Outline of Theory and Problems of Matrix Operations (in inglese), New York, McGraw-Hill, 1989, 230 pagine.. ISBN 978-0-07-007978-1 • David M. Burton, The History of Mathematics: An Introduction, 6a edizione (in inglese), McGraw-Hill, 2005-12-01. ISBN 978-0-07-110635-1 • Richard W. Jr. Feldmann, Arthur Cayley - Founder of Matrix Theory (in inglese), The Mathematics Teacher, 55, 1962, Pagine 482-484.. • Gene H. Golub; Charles F. Van Loan, Matrix computations, 3a edizione (in inglese), Johns Hopkins University Press, 1996. ISBN 0-8018-5414-8 Voci correlate • • • • • • • • Glossario sulle matrici per una lista dei vari tipi di matrici esistenti. Determinante Autovettore e autovalore Rango Matrice associata ad una trasformazione lineare Norma matriciale Sistema lineare Collegamenti tra combinatoria e matrici Collegamenti esterni • (EN) Calcolatrice per matrici (http://www.webalice.it/simoalessia/SuperiorMath/matrix.html) • (EN) Matrice (http://planetmath.org/encyclopedia/Matrix.html) su PlanetMath • (EN) Storia dell'uso delle matrici e dei determinanti (http://www-history.mcs.st-andrews.ac.uk/HistTopics/ Matrices_and_determinants.html) su MacTutor • (EN) Matrice (http://mathworld.wolfram.com/Matrix.html) su MathWorld • (EN) Matrice (http://planetmath.org/encyclopedia/Matrix.html) su PlanetMath Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Rappresentazione dei numeri complessi 16 Rappresentazione dei numeri complessi I numeri complessi hanno differenti rappresentazioni, tutte equivalenti. Essendo il campo dei numeri complessi isomorfo a , ogni numero complesso è rappresentabile come un vettore nel piano complesso. Si tratta di scegliere il sistema di coordinate. Rappresentazione cartesiana La rappresentazione cartesiana (o rettangolare) è quella più vicina alla definizione dei numeri complessi: Rappresentazione grafica dei numeri complessi. L'asse Y mostra la parte complessa, l'asse X la parte reale del numero. con e l'unità immaginaria. Questa non è altro che una generica combinazione lineare di elementi della base di , e con coefficienti reali a, b. Rappresentazione polare Usare la rappresentazione polare dei numeri complessi significa usare le coordinate polari dove è il modulo (positivo o nullo) del numero complesso, mentre è la fase o argomento. Dato un numero complesso espresso in coordinate cartesiane a+ib, il modulo si ottiene banalmente come: La fase può essere ottenuta a partire dalla funzione trigonometrica di arcotangente come[1] : Ciò si rende necessario per ovviare al fatto che l'arcotangente fornisce valori ristretti a mezzo angolo giro (convenzionalmente nell'intervallo ), il che comporterebbe la perdita dell'informazione relativa al semipiano entro cui si colloca il numero complesso dato. Quando formula: per il rapporto si intende il non è definito. Ciononostante si può attribuire un significato alla precedente . In generale, data la periodicità delle funzioni trigonometriche, non sussiste una corrispondenza biunivoca tra numeri complessi e rappresentazioni polari. È facilmente dimostrabile l'identità tra tutti i numeri espressi nella forma , in virtù della quale lo spazio delle rappresentazioni polari risulta partizionato in classi di equivalenza: queste sono in corrispondenza biunivoca con i numeri complessi, eccezion fatta per lo 0, per il quale non è possibile individuare una rappresentazione univoca (ogni rappresentazione polare con e qualsiasi è Rappresentazione dei numeri complessi 17 una rappresentazione dello 0). Rappresentazione esponenziale Usando la formula di Eulero o equivalentemente la definizione di esponenziale complesso, dalla rappresentazione polare discende direttamente la cosiddetta rappresentazione esponenziale: Questa è la notazione che viene più frequentemente utilizzata nelle applicazioni in cui modulo e fase abbiano un significato preminente rispetto a parte reale ed immaginaria (ad esempio per la descrizione dei fasori), e preferita alla rappresentazione polare per la maggior compattezza e per la maggior praticità nello svolgimento di operazioni di moltiplicazione (e conseguentemente di elevamento a potenza). Rappresentazione matriciale dei numeri complessi Le rappresentazioni alternative del campo dei numeri complessi possono dare una migliore comprensione della loro natura. Una rappresentazione particolarmente elegante interpreta ogni numero complesso come una matrice 2×2 di numeri reali che dilata/contrae e ruota i punti del piano. La matrice ha la forma con a e b numeri reali. La somma ed il prodotto di due tali matrici è ancora di questa forma. Ogni matrice non nulla di questa forma è invertibile ed il relativo inverso è ancora di questa forma. Di conseguenza, le matrici di questa forma sono un campo. Di fatto, questo è esattamente il campo dei numeri complessi. Ciascuna di queste matrici può essere scritta come: questa rappresentazione implica che il numero reale 1 va rappresentato con la matrice identità mentre l'unità immaginaria i si rappresenta con la matrice che rappresenta una rotazione in senso antiorario di 90 gradi. Si noti che il quadrato di questa matrice è effettivamente uguale alla matrice che rappresenta il numero reale -1. Il valore assoluto di un numero complesso espresso come matrice è uguale alla radice quadrata del determinante di quella matrice. Se la matrice è considerata come la trasformazione di un punto nel piano, allora la trasformazione ruota i punti con un angolo uguale al coefficiente direzionale del numero complesso e scala il punto di un fattore uguale al valore assoluto del numero complesso. Il coniugato del numero complesso z corrisponde alla trasformazione che contrae/dilata i punti del piano del medesimo fattore di scala che z (il valore assoluto) e li ruota dello stesso angolo che l'argomento di z, ma nel senso opposto; quest'operazione corrisponde alla trasposta della tabella che rappresenta z. Una notazione analoga si ha per il corpo dei quaternioni. Rappresentazione dei numeri complessi 18 Note [1] Molti linguaggi di programmazione forniscono una funzione apposita corrispondente a questa arcotangente estesa, spesso denominata atan2. Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Quaternione In matematica, i quaternioni sono entità introdotte da William Rowan Hamilton nel 1843 come estensioni dei numeri complessi. L'insieme dei quaternioni è un corpo non commutativo: soddisfa quindi tutte le proprietà usuali dei campi, quali i numeri reali o complessi, tranne la proprietà commutativa del prodotto. I quaternioni contengono i numeri complessi, e, sul campo reale, sono anche uno spazio vettoriale a 4 dimensioni (analogamente ai complessi, che sono uno spazio sui reali a 2 dimensioni). Le due proprietà di corpo e di spazio vettoriale conferiscono ai quaternioni una struttura di algebra di divisione non commutativa. Frattale costruito come insieme di Julia-Menge, definito con i quaternioni. I quaternioni hanno importanti applicazioni nello studio del gruppo delle rotazioni dello spazio tridimensionale, nella fisica (nella teoria della relatività e nella meccanica quantistica). Impieghi "sorprendenti" dei quaternioni sono la robotica, in cui trovano impiego per individuare la posizione spaziale dei bracci meccanici a più snodi, e il controllo d'assetto, in quanto il calcolo tramite quaternioni è più stabile. Quaternione 19 Storia I quaternioni furono scoperti dal matematico irlandese William Rowan Hamilton nel 1843. Hamilton era alla ricerca di un metodo per estendere i numeri complessi (che possono essere visti come punti su un piano) su un numero maggiore di dimensioni spaziali. Dopo aver ricercato invano un'estensione tridimensionale, ne formulò una con 4 dimensioni: i quaternioni. In seguito raccontò di aver fatto questa scoperta nel corso di una passeggiata con sua moglie, quando improvvisamente gli venne in mente la soluzione nella forma dell'equazione Sul Broom Bridge c'è ora una lapide che recita: «Here as he walked byon the 16th of October 1843Sir William Rowan Hamiltonin a flash of genius discoveredthe fundamental formula forquaternion multiplicationi2 = j2 = k2 = i j k = −1& cut it on a stone of this bridge.»(Mentre qui passeggiava, il 16 ottobre 1843 Sir William Rowan Hamilton, in un lampo d'ispirazione scoprì la formula fondamentale per la moltiplicazione dei quaternioni, e la incise su una pietra di questo ponte.) Eccitato dalla scoperta, incise l'equazione sul lato del vicino ponte Brougham (noto ora come Broom Bridge) a Dublino. Questa scoperta necessitava l'abbandono della commutatività della moltiplicazione, una scelta radicale per quel tempo, in cui non erano ancora disponibili l'algebra lineare ed il prodotto fra matrici. Più in generale, Hamilton ha in un certo senso inventato il prodotto vettoriale e il prodotto scalare negli spazi vettoriali. Hamilton descrisse un quaternione come una quadrupla ordinata (4-upla) di numeri reali, dove la prima coordinata è la parte 'scalare', e le rimanenti tre sono la parte 'vettoriale'. Se due quaternioni con parte scalare nulla sono moltiplicati, la parte scalare del prodotto è il prodotto scalare della parte vettoriale cambiato di segno, mentre la parte vettoriale del prodotto è il prodotto vettoriale. Hamilton continuò a rendere popolari i quaternioni con molti libri, l'ultimo dei quali, Elementi sui quaternioni aveva 800 pagine e fu pubblicato poco dopo la sua morte. L'uso dei quaternioni suscitò delle controversie. Alcuni dei sostenitori di Hamilton si opposero veementemente allo studio dei settori emergenti dell'algebra lineare e del calcolo vettoriale (sviluppato fra gli altri da Oliver Heaviside e Willard Gibbs), affermando che i quaternioni offrivano una notazione migliore. Oggi però sappiamo che i quaternioni sono una struttura molto particolare, che non offre molte altre generalizzazioni in altre dimensioni (se si escludono gli ottetti in dimensione otto). Una prima versione delle equazioni di Maxwell utilizzava una notazione basata sui quaternioni. Oggi, i quaternioni vengono utilizzati principalmente nella rappresentazione di rotazioni e direzioni nello spazio tridimensionale. Hanno quindi applicazioni nella grafica computerizzata, nella teoria del controllo, nell'elaborazione dei segnali, nel controllo dell'assetto, in fisica e in astrodinamica. Ad esempio, è comune per i veicoli spaziali un sistema di controllo dell'assetto comandato mediante quaternioni, che sono anche usati per misurare mediante telemetria l'assetto attuale. La ragione è che la combinazione di molte trasformazioni descritte da quaternioni è più stabile numericamente della combinazione di molte trasformazioni matriciali. Quaternione 20 Definizione Un quaternione è un elemento scrivibile come con e numeri reali ed simboli letterali. Somma e prodotto di due quaternioni sono definiti tenendo conto delle relazioni che implicano in particolare le relazioni seguenti: I risultati delle moltiplicazioni fra due di questi elementi sono riassunti nella tabella: La somma ed il prodotto di due quaternioni sono calcolate con gli usuali passaggi algebrici, usando le relazioni di moltiplicazione appena descritte. La somma di due quaternioni è quindi data da: mentre il loro prodotto risulta essere il seguente: I quaternioni contengono in modo naturale i numeri reali (i quaternioni del tipo numeri complessi (i quaternioni del tipo Esempio Due quaternioni: Somma e prodotto sono dati da: , con ). , con ) ed i Quaternione 21 Proprietà basilari I quaternioni hanno molte caratteristiche proprie ai numeri complessi: anche per i quaternioni, in analogia con i complessi, possono essere definiti concetti come norma e coniugato; ogni quaternione, se diverso da zero, possiede un inverso rispetto al prodotto. Si differenziano però dai numeri complessi per il fatto che il loro prodotto può non essere commutativo. Prodotto non commutativo Il prodotto di due quaternioni non è in generale commutativo. Ad esempio, come si è già visto, è diverso da . Coniugato Il coniugato di un quaternione (a volte indicato anche con è il quaternione ). Il coniugato soddisfa le proprietà seguenti: Il coniugato può anche essere espresso da una combinazione lineare di q, con coefficienti contenenti i, j, k, nel seguente modo: Norma La norma di è il numero reale non negativo La norma di è sempre positiva, e nulla soltanto se . Valgono le relazioni seguenti: Inverso Un quaternione diverso da zero ha un inverso per la moltiplicazione, dato da Infatti e similmente . Valgono le proprietà seguenti: Quaternione 22 Struttura algebrica Con le operazioni di somma e prodotto, l'insieme dei quaternioni, indicato a volte con , forma un anello non commutativo, più precisamente un corpo non commutativo. Con le operazioni di somma e di moltiplicazione per un numero reale , data da i quaternioni formano anche uno spazio vettoriale reale di dimensione 4: una base per lo spazio è data dagli elementi . Le due strutture di corpo e di spazio vettoriale sono riassunte dal concetto di algebra di divisione. I quaternioni, i numeri complessi e i numeri reali sono le uniche algebre di divisione associative costruite sui numeri reali aventi dimensione finita. Struttura metrica Usando la funzione distanza i quaternioni formano uno spazio metrico, isometrico allo spazio coordinate la norma di un quaternione 4 dotato della usuale metrica euclidea. Le lo identificano come elemento di , e tramite questa identificazione, è semplicemente la norma euclidea. Con la norma, i quaternioni formano un'algebra di Banach reale. Quaternioni unitari Gruppo di Lie I quaternioni unitari sono i quaternioni di norma 1. Ad esempio, e sono unitari. Nell'identificazione con , i quaternioni unitari formano una ipersfera quadridimensionale. I quaternioni unitari formano un gruppo moltiplicativo rispetto al prodotto. Tale gruppo, a differenza del suo analogo complesso, non è abeliano. Con la struttura di varietà differenziabile data da , esso formano un gruppo di Lie. Gruppo di rotazioni Ogni quaternione unitario definisce una rotazione dello spazio scalare-vettore , e si identifica rotazione determinata da è data dall'operazione di coniugio Si verifica infatti facilmente che se nel modo seguente. Si usa la notazione con l'insieme dei quaternioni ha prima coordinata nulla, anche definita un'azione del gruppo dei quaternioni unitari su con prima coordinata nulla. La ha prima coordinata nulla: è quindi . Ogni mappa definita in questo modo è effettivamente una rotazione, poiché preserva la norma: I quaternioni unitari sono quindi un utile strumento per descrivere sinteticamente le rotazioni in è esprimibile in questo modo, e due quaternioni definiscono la stessa rotazione se e solo se . Ogni rotazione . Quaternione 23 Rivestimenti Associando ad ogni quaternione unitario una rotazione, si è definito una mappa dal gruppo dei quaternioni unitari sul gruppo ortogonale speciale delle rotazioni dello spazio tridimensionale. Per quanto appena detto, la mappa è suriettiva, ma non iniettiva: la controimmagine di un punto è data da due punti opposti . In particolare, tale mappa è un rivestimento di grado 2. Poiché è semplicemente connesso, questo è il rivestimento universale di fondamentale il gruppo ciclico proiettivo , che ha quindi come gruppo con due elementi. Topologicamente, è omeomorfo allo spazio . Sottogruppo finito Il sottogruppo generato dagli elementi è un gruppo finito: ha ordine 8, e viene spesso indicato con . I suoi otto elementi sono Il gruppo è il più piccolo gruppo non abeliano dopo il gruppo di permutazioni , che ha ordine 6. Notazioni e rappresentazioni alternative Notazione scalare/vettore Il quaternione vettore in può essere descritto anche dalla coppia , dove è un . Con questa notazione, somma e prodotto possono essere descritti nel modo seguente: dove si usano il prodotto scalare ed il prodotto vettoriale fra vettori di . Le nozioni di coniugato e norma diventano: usando l'usuale norma di un vettore in . Coppia di numeri complessi Grazie alla relazione , ogni quaternione può essere scritto usando soltanto i simboli e nel modo seguente: Quindi dove e sono due numeri complessi. Le operazioni di somma e prodotto si svolgono in modo usuale, applicando la relazione Per quanto riguarda coniugato e norma, risulta rispettivamente Quaternione 24 Matrici I quaternioni possono essere espressi tramite matrici di numeri complessi, oppure matrici di numeri reali. Matrici Gli elementi complesse sono rappresentati rispettivamente da: Il quaternione è quindi rappresentato da Questa rappresentazione ha diverse interessanti proprietà: • Tutti i numeri complessi (i quaternioni con ) corrispondono a matrici a valori solo reali. • Il quadrato della norma di un quaternione è uguale al determinante della matrice corrispondente. • Il coniugato di un quaternione corrisponde alla coniugata trasposta della matrice corrispondente. • Limitandola ai quaternioni unitari, questa rappresentazione fornisce un isomorfismo di gruppo tra le sfere ed il gruppo unitario speciale SU(2). Questo gruppo è strettamente collegato alle matrici di Pauli, ed è importante nella meccanica quantistica per rappresentare lo spin. Matrici Gli elementi reali antisimmetriche sono rappresentati rispettivamente da: Il quaternione è quindi rappresentato da In questa rappresentazione, il coniugato di un quaternione corrisponde alla trasposta della matrice. Equazioni sui quaternioni La non commutatività della moltiplicazione porta una conseguenza inaspettata: le soluzioni dei polinomi definiti con i quaternioni possono essere più di quelle definite dal grado del polinomio. L'equazione per esempio ha infinite soluzioni nei quaternioni, date da tutti i con . Quaternione 25 Generalizzazioni Se F è un generico campo e a e b sono elementi di F, è possibile definire un'algebra associativa unitaria a quattro dimensioni su F usando due generatori i e j e le relazioni i2 = a, j2 = b e ij = −ji. Queste algebre sono isomorfe all'algebra delle matrici 2×2 su F, e inoltre sono delle algebre di divisione su F. Sono chiamate algebre di quaternioni. Bibliografia • • • • • • • • Hime, Henry William Lovett (1894) The outlines of quaternions [1] Longman Greens. Hamilton, William Rowan (1899) Elements of quaternions (t.1) [2] . Longman Greens. Hamilton, William Rowan (1901) Elements of quaternions (t.2) [3] . Longman Greens. Kelland, Philip and Tait, Peter Guthrie (1882) Introduction to quaternions, with numerous examples [4] McMillan & co. Ltd. Hardy, A. S. (1891) Elements of quaternions [5]. Ginn. MacAulay, Alexander (1893) Utility of Quaternions in Physics [6] Hathaway, Arthur S. (1896) A Primer of Quaternions [7] London, Macmillan & co., ltd. Joly, Charles Japser (1905) A Manual Of Quaternions [8]. McMillan & co. Ltd. • MacFarlane, Alexander (1906) Vector Analysis and Quaternions [9] New York, J. Wiley & Sons. • Kuipers, Jack (2002). Quaternions and Rotation Sequences: A Primer With Applications to Orbits, Aerospace, and Virtual Reality (Reprint edition). Princeton University Press. ISBN 0-691-10298-8 Voci correlate • • • • • • • Numeri complessi Ottonione Sedenione Numero ipercomplesso Algebra di divisione Algebra associativa Teoria dei gruppi Collegamenti esterni • • • • Definizione e riferimenti [10] su mathworld.wolfram.com Doing Physics with Quaternions [11] Quaternion Calculator [12] [Java] The Physical Heritage of Sir W. R. Hamilton [13] (PDF) Portale Fisica Portale Matematica Quaternione Note [1] http:/ / www. archive. org/ details/ outlinesofquater00himeuoft [2] http:/ / www. archive. org/ details/ 117770258_001 [3] http:/ / www. archive. org/ details/ 117770258_002 [4] http:/ / www. archive. org/ details/ introductiontoqu00kelliala [5] http:/ / www. archive. org/ details/ elementsofquater028860mbp [6] http:/ / resolver. library. cornell. edu/ math/ 1849283 [7] http:/ / www. archive. org/ details/ aprimerofquatern09934gut [8] http:/ / www. archive. org/ details/ manualofquaterni028692mbp [9] http:/ / www. archive. org/ details/ vectoranalysisan13609gut [10] http:/ / mathworld. wolfram. com/ Quaternion. html [11] http:/ / world. std. com/ ~sweetser/ quaternions/ qindex/ qindex. html [12] http:/ / theworld. com/ ~sweetser/ java/ qcalc/ qcalc. html [13] http:/ / arxiv. org/ pdf/ math-ph/ 0201058 Spazio vettoriale In matematica, lo spazio vettoriale (chiamato più raramente spazio lineare) è una struttura algebrica di grande importanza. Si tratta di una generalizzazione dell'insieme formato dai vettori del piano cartesiano ordinario (o dello spazio tridimensionale) dotati delle operazioni di somma di vettori e di moltiplicazione di un vettore per un numero reale (cioè dell'ambiente nel quale si studiano i fenomeni della fisica classica, quella sviluppata da personalità quali Galileo, Newton, Lagrange, Laplace, Hamilton, Maxwell). Si incontrano spazi vettoriali in numerosi capitoli della matematica moderna e nelle sue applicazioni: questi servono innanzi tutto per studiare le soluzioni dei sistemi di equazioni lineari e delle equazioni differenziali lineari. Con queste equazioni si trattano moltissime situazioni: quindi si incontrano spazi vettoriali nella statistica, nella scienza delle costruzioni, nella meccanica quantistica, nella biologia molecolare, ecc. Negli spazi vettoriali si studiano anche sistemi di equazioni e disequazioni e in particolare quelli che servono alla programmazione matematica e in genere alla ricerca operativa. Strutture algebriche preliminari agli spazi vettoriali sono quelle di gruppo, anello e campo. Vi sono poi numerose strutture matematiche che generalizzano e arricchiscono quella di spazio vettoriale; alcune sono ricordate nell'ultima parte di questo articolo. 26 Spazio vettoriale 27 Definizione formale La definizione di uno spazio vettoriale richiede di servirsi di un campo: sono interessanti soprattutto il campo dei numeri reali R e quello dei complessi C; molti risultati dell'algebra lineare però si possono sviluppare servendosi del semplice campo dei numeri razionali Q e di notevole interesse sono anche i campi finiti e in particolare i campi delle classi di resto modulo p Fp, per ogni p numero primo. In questa voce denotiamo con K un generico campo e indichiamo rispettivamente con 0 e 1 il suo zero e la sua unità. Si dice che l'insieme V è sostegno di uno spazio vettoriale sul campo K se in V è definita un'operazione binaria interna (+) per la quale (V,+) è un gruppo commutativo (ossia un gruppo abeliano) ed è altresì definita una legge di composizione esterna (*) K×V→V - detta prodotto esterno o moltiplicazione per uno scalare - per la quale valgono le seguenti proprietà: Uno spazio vettoriale è una collezione di oggetti, chiamati "vettori", che possono essere sommati e riscalati. 1. Associatività del prodotto esterno ∀ a,b ∈ K, ∀ v ∈ V: a * (b * v) = (ab) * v. 2. Neutralità di 1 rispetto al prodotto esterno ∀ v ∈ V, 1 * v = v. 3. Distributività del prodotto esterno rispetto all'addizione di vettori ∀ a ∈ K, ∀ u, v ∈ V, a * (u + v) = a * u + a * v. 4. Distributività del prodotto esterno rispetto all'addizione di scalari ∀ a,b ∈ K, ∀ v ∈ V, (a + b) * v = a * v + b * v. La struttura algebrica così definità si simboleggia con (V, K) o semplicemente con V laddove non ci siano equivoci sul campo di definizione. Per uno spazio V sopra un campo K gli elementi di K sono detti scalari o numeri, mentre gli oggetti di V si dicono vettori o punti. I vettori si simboleggiano con caratteri in grassetto, sottolineati o sormontati da una freccia. Tale linguaggio consente di sostituire la dicitura prodotto esterno con prodotto per uno scalare. Poiché la moltiplicazione per uno scalare è una legge di composizione esterna K×V→V si dice che V ha struttura di spazio vettoriale sinistro. Nulla vieta di definire la composizione con uno scalare a destra; in tal caso si parlerà di spazio vettoriale destro. Da queste proprietà, possono essere immediatamente dimostrate le seguenti formule, valide per ogni a in K e ogni v in V: a*0=0*v=0 -(a * v) = (-a) * v = a * (-v) dove 0 è lo zero in K e 0 è lo zero in V. Uno spazio vettoriale reale o complesso è uno spazio vettoriale in cui K è rispettivamente il campo R dei numeri reali o il campo C dei numeri complessi. Spazio vettoriale Primi esempi Di seguito si elencano alcuni importanti esempi di spazi vettoriali; si denotano con m ed n due interi positivi. Spazi Kn L'insieme formato da tutte le sequenze finite e ordinate di elementi di K, con le operazioni di somma e di prodotto per uno scalare definite termine a termine (puntuali), è detto l'n-spazio numerico, spazio delle n-uple o spazio n-dimensionale delle coordinate e può essere considerato il prototipo di spazio vettoriale. Si osserva che gli spazi Rn e Cn posseggono una infinità continua di elementi, mentre Qn ha cardinalità numerabile e per ogni p primo lo spazio Fpn è costituito da un numero finito di vettori, per la precisione pn. Polinomi L'insieme K [x] dei polinomi a coefficienti in K e con variabile x, con le operazioni usuali di somma fra polinomi e prodotto di un polinomio per uno scalare, forma uno spazio vettoriale. Matrici L'insieme delle matrici m×n su K, con le operazioni di somma tra matrici e prodotto di uno scalare per una matrice, forma uno spazio vettoriale. Funzioni L'insieme Fun(X, K) di tutte le funzioni da un fissato insieme X in K, dove: • la somma di due funzioni f e g è definita come la funzione (f + g) che manda x in f(x)+g(x), • il prodotto (λf) di una funzione f per uno scalare λ in K è la funzione che manda x in λf(x) è uno spazio vettoriale. Ad esempio, l'insieme Fun(X, R) di tutte le funzioni da un aperto X dello spazio euclideo Rn in R è uno spazio vettoriale. 28 Spazio vettoriale 29 Nozioni basilari Lo studio della specie di struttura di spazio vettoriale si svolge sviluppando le nozioni di sottospazio vettoriale, di trasformazione lineare (l'omomorfismo per questa specie di struttura), di base e di dimensione. Sottospazi Un sottospazio vettoriale di uno spazio vettoriale è un sottoinsieme che eredita da una struttura di spazio vettoriale. Per ereditare questa struttura, è sufficiente che sia chiuso rispetto alle due operazioni di somma e prodotto per scalare. In particolare, deve contenere lo zero di . Esempi Una retta passante per l'origine è un sottospazio vettoriale del piano cartesiano R2; nello spazio vettoriale R3 tutti i piani e tutte le rette passanti per l'origine sono sottospazi. Gli spazi formati dalle matrici simmetriche o antisimmetriche sono sottospazi vettoriali dell'insieme delle matrici m×n su K. Tre sottospazi distinti di dimensione 2 in : sono piani passanti per l'origine. Due di questi si intersecano in un sottospazio di dimensione 1, cioè una retta passante per l'origine (una di queste è disegnata in blu). Altri importanti sottospazi vettoriali sono quelli di Fun(X, R), quando X è un insieme aperto di Rn: gli insiemi formati dalle funzioni continue, dalle funzioni differenziabili e dalle funzioni misurabili. Generatori e basi Una combinazione lineare di alcuni vettori è una scrittura del tipo Una combinazione lineare è l'operazione più generale che si può realizzare con questi vettori usando le due operazioni di somma e prodotto per scalare. Usando le combinazioni lineari è possibile descrivere un sottospazio (che è generalmente fatto da un insieme infinito di punti[1] ) con un numero finito di dati. Si definisce infatti il sottospazio generato da questi vettori come l'insieme di tutte le loro combinazioni lineari. Un sottospazio può essere generato a partire da diversi insiemi di vettori. Tra i possibili insiemi di generatori alcuni risultano più economici di altri: sono gli insiemi di vettori con la proprietà di essere linearmente indipendenti. Un tale insieme di vettori è detto base del sottospazio. Si dimostra che ogni spazio vettoriale possiede una base; alcuni spazi hanno basi costituite da un numero finito di vettori, altri hanno basi costituenti insiemi infiniti. Per questi ultimi la dimostrazione dell'esistenza di una base deve ricorrere al Lemma di Zorn. Alla nozione di base di uno spazio vettoriale si collega quella di sistema di riferimento di uno spazio affine. Spazio vettoriale Dimensione Si dimostra che tutte le basi di uno spazio vettoriale posseggono la stessa cardinalità (questo risultato è dovuto a Felix Hausdorff). Questa cardinalità viene chiamata dimensione di Hamel dello spazio; questa entità in genere viene chiamata semplicemente dimensione dello spazio. La distinzione più rilevante fra gli spazi vettoriali vede da una parte gli spazi finito-dimensionali e dall'altra quelli di dimensione infinita. Per ogni intero naturale n lo spazio Kn ha dimensione n: in effetti una sua base è costituita dalle n n-uple aventi tutte le componenti nulle ad eccezione di una uguale alla unità del campo. In particolare l'insieme costituito dal solo 0 del campo può considerarsi uno spazio a 0 dimensioni, la retta dotata di un'origine è uno spazio monodimensionale su R, il piano cartesiano è uno spazio di dimensione 2, lo spazio R3 ha dimensione 3. Anche i polinomi con grado al più n formano un sottospazio vettoriale di dimensione n+1, mentre la dimensione dell'insieme delle funzioni Fun(X, K) è pari alla cardinalità di X. Tra gli spazi infinito dimensionali si trovano quelli formati dall'insieme dei polinomi in una variabile o in più variabili e quelli formati da varie collezioni di funzioni ad esempio gli spazi Lp. I vettori di uno spazio di n dimensioni, facendo riferimento ad una base fissata di tale spazio, possono essere rappresentati come n-uple di scalari: queste sono le loro coordinate. Questo fatto consente di affermare che ogni spazio n-dimensionale su K è sostanzialmente identificabile con Kn. Trasformazioni lineari e omomorfismi Una trasformazione lineare fra due spazi vettoriali V e W sullo stesso campo K è una applicazione che manda vettori di V in vettori di W rispettando le combinazioni lineari. Dato che le trasformazioni lineari rispettano le operazioni di somma di vettori e di moltiplicazioni per scalari, esse costituiscono gli omomorfismi per le strutture della specie degli spazi vettoriali. Per denotare l'insieme degli omomorfismi da V in W scriviamo Hom(V, W). Particolarmente importanti sono gli insiemi di endomorfismi; questi hanno la forma Hom(V, V). Si osserva che per le applicazioni lineari di Hom(V, W) si possono definire le somme e le moltiplicazioni per elementi di K, come per tutte le funzioni aventi valori in uno spazio su questo campo. L'insieme Hom(V, W) munito di queste operazioni costituisce a sua volta uno spazio vettoriale su K, di dimensione dim(V)×dim(W). Un caso particolare molto importante è dato dallo spazio duale V * := Hom(V, K); questo spazio ha le stesse dimensioni di V e in effetti i suoi vettori sono strettamente collegati ai vettori di V. Esempi più avanzati Spazio vettoriale libero Un esempio particolare spesso usato in algebra (e una costruzione piuttosto comune in questo campo) è quello di spazio vettoriale libero su un insieme. L'obiettivo è creare uno spazio che abbia gli elementi dell'insieme come base. Ricordando che, dato un generico spazio vettoriale, si dice che un suo sottoinsieme U è una base se gli elementi di U sono linearmente indipendenti e ogni vettore si può scrivere come combinazione lineare finita di elementi di U, la seguente definizione nasce naturalmente: uno spazio vettoriale libero V su B e campo K è l'insieme di tutte le combinazioni lineari formali di un numero finito di elementi di B a coefficienti in K, cioè i vettori di V sono del tipo dove i coefficienti non nulli sono in numero finito, e somma e prodotto sono definite come segue 30 Spazio vettoriale Da tener ben presente che queste somme sono dette formali perché sono da considerarsi appunto dei puri simboli. In pratica gli elementi di B servono solo come "segnaposto" per i coefficienti. Oltre a questa definizione più intuitiva ne esiste una del tutto equivalente in termine di funzioni da B su K con supporto finito (supp f := { b ∈ B | f(b) ≠ 0 }), cioè V ≅ { f: B → K | supp f è finito } dove per il secondo insieme le operazioni di somma e prodotto sono quelle naturali e la corrispondenza è Arricchimenti della struttura di spazio vettoriale La nozione di spazio vettoriale è servita innanzi tutto a puntualizzare proprietà algebriche riguardanti ambienti ed entità geometriche; inoltre essa costituisce la base algebrica per lo studio di questioni di analisi funzionale, che possiamo associare ad una geometrizzazione dello studio di funzioni collegate ad equazioni lineari. La sola struttura di spazio vettoriale risulta comunque povera quando si vogliono affrontare in modo più efficace problemi geometrici e dell'analisi funzionale. Infatti va osservato che con la sola struttura di spazio vettoriale non si possono affrontare questioni riguardanti lunghezze di segmenti, distanze ed angoli (anche se la visione intuitiva degli spazi vettoriali a 2 o 3 dimensioni sembra implicare necessariamente queste nozioni di geometria elementare). Per sviluppare le "potenzialità" della struttura spazio vettoriale risulta necessario arricchirla in molteplici direzioni, sia con ulteriori strumenti algebrici (ad es. proponendo prodotti di vettori), sia con nozioni topologiche, sia con nozioni differenziali. In effetti si può prospettare una sistematica attività di arricchimento degli spazi vettoriali con costruzioni che si aggiungono a quella di combinazione lineare al fine di ottenere strutture di elevata efficacia nei confronti di tanti problemi matematici, computazionali e applicativi. Per essere utili, queste costruzioni devono essere in qualche modo compatibili con la struttura dello spazio vettoriale, e le condizioni di compatibilità variano caso per caso. Spazio normato Uno spazio vettoriale in cui è definita una norma, cioè una lunghezza dei suoi vettori, è chiamato spazio normato. L'importanza degli spazi vettoriali normati dipende dal fatto che a partire dalla norma dei singoli vettori si definisce la distanza fra due vettori come norma della loro differenza e questa nozione consente di definire costruzioni metriche e quindi costruzioni topologiche. Spazio di Banach Uno spazio normato completo rispetto alla metrica indotta è detto spazio di Banach. Spazio di Hilbert Uno spazio vettoriale complesso (risp. reale) in cui è definito un prodotto scalare hermitiano (risp. bilineare) definito positivo, e quindi anche i concetti di angolo e perpendicolarità di vettori, è chiamato spazio prehilbertiano. Uno spazio dotato di prodotto scalare è anche normato, mentre in generale non vale il viceversa. Uno spazio dotato di prodotto scalare che sia completo rispetto alla metrica indotta è detto spazio di Hilbert. Spazio vettoriale topologico Uno spazio vettoriale munito anche di una topologia è chiamato spazio vettoriale topologico. 31 Spazio vettoriale 32 Algebra su campo Uno spazio vettoriale arricchito con un operatore bilineare che definisce una moltiplicazione tra vettori costituisce una cosiddetta algebra su campo. Ad esempio, le matrici quadrate di ordine n munite del prodotto di matrici formano un'algebra. Un'altra algebra su un campo qualsiasi è fornita dai polinomi su tale campo muniti dell'usuale prodotto fra polinomi. Moduli Una generalizzazione del concetto di spazio vettoriale è invece quella di modulo; essa si basa su richieste analoghe a quelle viste, ma per K non si chiede che sia un campo, ma un più generico anello. Note [1] Questo è sempre vero se il campo è infinito, come ad esempio Q, R e C, tranne nel caso in cui il sottospazio sia semplicemente un punto (lo zero). Bibliografia • Marco Abate; Chiara de Fabritiis, Geometria analitica con elementi di algebra lineare, Milano, McGraw-Hill, 2006. ISBN 88-386-6289-4. • Luciano Lomonaco, Un'introduzione all'algebra lineare, Roma, Aracne, 2005. ISBN 88-548-0144-5. • Giulio Campanella, Appunti di algebra, Roma, Nuova Cultura, 2005. ISBN 88-89362-22-7. • Werner Greub, Linear Algebra, 4a ed., New York, Springer, 1995. ISBN 0-387-90110-8. • Steven Roman, Advanced linear algebra, Springer, 1992. ISBN 0-387-97837-2. • Edoardo Sernesi, Geometria 1, 2a ed., Torino, Bollati Boringhieri, 1989. ISBN 88-339-5447-1. • Serge Lang, Linear Algebra, 3a ed., New York, Springer, 1987. ISBN 0-387-96412-6. • Georgi Evgen'evich Shilov, Linear Algebra, Tradotto da Richard Silverman, New York, Dover, 1977. ISBN 0-486-63518-X. • Paul Halmos, Finite-Dimensional Vector Spaces, 2a ed., New York, Springer, 1974. ISBN 0-387-90093-4. • Kenneth Hoffman; Ray Kuze, Linear Algebra, 2a ed., Upper Saddle RIver, N.J., Prentice Hall, 1971. ISBN 0-13-536797-2. • Silvana Abeasis, Elementi di algebra lineare e geometria, Bologna, Zanichelli, 1993. ISBN 88-08-16538-8. Voci correlate • • • • • • • Vettore (matematica) Applicazione lineare Dimensione Sottospazio vettoriale Spazio duale Prodotto scalare Norma Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Copertura lineare 33 Copertura lineare In matematica, e più precisamente in algebra lineare, il sottospazio generato da alcuni vettori (anche indicato come la copertura lineare di tali vettori) è l'insieme costituito da tutte le combinazioni lineari di questi vettori, detti generatori. Il risultato è un sottospazio dello spazio vettoriale di partenza. A volte si usa il termine span lineare. Definizione Sia uno spazio vettoriale su un campo questi vettori è il sottoinsieme di . Siano alcuni vettori di . Il sottospazio generato da formato da tutte le combinazioni lineari di questi vettori. In altre parole: A volte si usa il termine inglese span lineare (da cui segue la notazione appena usata). La definizione data può essere estesa facilmente ad una famiglia qualsiasi di vettori indicizzata da una che varia in un insieme di cardinalità arbitraria (finita, numerabile, ...): una combinazione lineare è semplicemente una combinazione che si serve di un numero finito di questi, ed il sottospazio generato è sempre definito come l'insieme dei risultati di tali composizioni. Proprietà Sottospazio vettoriale Il sottospazio generato è effettivamente un sottospazio vettoriale. Infatti ogni combinazione lineare di combinazioni lineari di dati vettori si può esprimere come una combinazione lineare degli stessi vettori. Insieme di generatori Dati un sottospazio di ed un insieme di vettori , si dice che questi vettori sono dei generatori di se Sottospazio più piccolo Il sottospazio generato è il sottospazio vettoriale più piccolo fra tutti quelli che contengono i vettori , nel senso che è contenuto in ciascun sottospazio contenente questi vettori. Oppure il sottospazio generato si può intendere come l'intersezione di tutti i sottospazi contenenti . Lo stesso risultato vale per un insieme infinito di vettori. Copertura lineare 34 Chiusura La trasformazione di un insieme di vettori di V nel sottospazio da loro generato, cioè la funzione Span, costituisce un esempio di funzione di chiusura. Come per tutte queste funzioni di insieme, vale la seguente proprietà di isotonia: se e sono insiemi di vettori di tali che , allora In particolare, se e è ottenuto da aggiungendo un vettore , il sottospazio generato può restare invariato o diventare più esteso. Come mostra la relazione seguente, il sottospazio resta invariato se e solo se il vettore è già contenuto in questo: Basi e dimensione Un insieme di vettori è una base del sottospazio che genera se e solo se questi sono linearmente indipendenti. Se i vettori non sono indipendenti, esiste un loro sottoinsieme formato da vettori indipendenti: un sottoinsieme di questo tipo può essere trovato tramite l'algoritmo di estrazione di una base. Da quanto appena detto segue quindi che la dimensione di un sottospazio generato da proprio se e solo se questi sono indipendenti. vettori è al più , ed è Esempi Nel piano In , i vettori e sono dipendenti. Il loro span quindi ha dimensione minore di due, e infatti è una retta. Formalmente scriviamo . I vettori indipendenti, e perciò il loro span è uno spazio di dimensione 2 dentro : uno spazio di dimensione stesso come sottospazio di dimensione , e perciò e invece sono ha solo sé . Nello spazio In , i vettori , , sono dipendenti, perché l'ultimo è la differenza dei primi due. Abbiamo quindi , e poiché questi due vettori sono indipendenti, sono una base del loro span che ha dimensione 2, ovvero è un piano. Voci correlate • Insieme di generatori • Combinazione lineare • Base (algebra lineare) Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Base (algebra lineare) Base (algebra lineare) In matematica, e più precisamente in algebra lineare, un insieme di vettori di uno spazio vettoriale è una base se questi vettori sono indipendenti e generano lo spazio vettoriale. La base è un concetto chiave dell'algebra lineare, simile a quello di sistema di riferimento usato in fisica, che permette di definire la dimensione di uno spazio vettoriale. Definizione Sia V uno spazio vettoriale su un campo K. Un insieme ordinato (sequenza) di vettori (v1, ..., vn) è una base per V se valgono entrambe queste proprietà: 1. I vettori v1, ..., vn sono linearmente indipendenti; 2. I vettori v1, ..., vn generano V, cioè V = Span(v1, ..., vn). Proprietà Dimensione Uno spazio vettoriale generalmente non ha una sola base, anzi solitamente ha una infinità di basi molto diverse fra loro; però grazie al teorema della dimensione per spazi vettoriali queste basi hanno tutte la stessa cardinalità, sono formate cioè sempre dallo stesso numero di vettori. Questo numero, che dipende quindi solo da V, è la dimensione di V e permette di definire spazi di dimensione arbitrariamente alta, superando i limiti dell'umana intuizione tridimensionale. La dimensione di V è inoltre pari al massimo numero di vettori indipendenti in V, e al minimo numero di vettori necessari per generare V. Combinazione lineare Un insieme B = (v1, ..., vn) di vettori è una base per V se e solo se ogni elemento v di V si può scrivere in un modo solo come combinazione lineare dei vettori v1, ..., vn. Tale combinazione lineare identifica le coordinate di v rispetto a B. Condizioni sufficienti Le due proprietà seguenti mostrano che, conoscendo già la dimensione dello spazio, per verificare che un insieme del numero giusto di elementi sia una base è sufficiente provare una sola delle due proprietà necessarie: • Un insieme B di n vettori in uno spazio V di dimensione n è una base se e solo se sono indipendenti. • Un insieme B di n vettori in uno spazio V di dimensione n è una base se e solo se generano V. Esistenza Qualsiasi sia lo spazio vettoriale V, possiamo sempre trovare una base. Vediamo il perché (la cosa non è banale, e richiede l'uso del lemma di Zorn nel caso generale). Consideriamo la collezione I(V) dei sottoinsiemi di V linearmente indipendenti. È immediato che l'inclusione ⊂ sia un ordine parziale su I(V), e che per ogni catena {Bi} l'insieme ∪ Bi sia un maggiorante (è linearmente indipendente in quanto unione di elementi di una catena ordinata per inclusione). Applicando il lemma di Zorn sappiamo che esiste un insieme massimale linearmente indipendente B in I(V). Adesso è facile concludere che B è una base, infatti se v ∈ V e v ∉ B, allora per la massimalità di B l'insieme B ∪ {v} deve essere linearmente dipendente, cioè esistono degli scalari a, a1, ..., an non tutti nulli tali che a v + a1 b1 + ... + an bn = 0, b1, ..., bn ∈ B 35 Base (algebra lineare) 36 notiamo che a ≠ 0 (se fosse nulla allora anche gli altri ai dovrebbero esserlo essendo gli elementi di B linearmente indipendenti), ne deriviamo che v può essere scritto come combinazione lineare finita di elementi di B, che quindi, oltre a essere linearmente indipendente, genera V, ovvero è una base. Esempi • I vettori (1,0) e (0,1) sono una base di R2, perché sono indipendenti e generano R2 (infatti ogni altro (a, b) si scrive come (a, b) = a(1,0) + b(0,1)). • In dimensione arbitraria, una base dello spazio vettoriale Rn è data dai vettori e1 = (1, 0, 0, ..., 0), e2 = (0, 1, 0, ...,0), ..., en = (0, ..., 0, 1). Questa base si chiama base canonica di Rn. • La base canonica di Cn, cioè lo spazio vettoriale delle n-uple di numeri complessi, è sempre e1 = (1, 0, 0, ..., 0), e2 = (0, 1, 0, ...,0), ..., en = (0, ..., 0, 1). È facile infatti scrivere un qualsiasi vettore di Cn come combinazione di questi. Ad esempio il vettore (i, 0, 0) si scrive come i * (1 , 0 , 0) = (i , 0 , 0) • I vettori (2,1) e (-1,2) formano una base di R2, diversa da quella canonica: visto che sono 2 vettori in uno spazio che sappiamo già avere dimensione 2, grazie alla proprietà descritta sopra per dimostrare questo fatto ci basta notare che sono indipendenti. Generalizzazioni in dimensione infinita Il concetto di base in spazi di dimensione infinita (in cui cioè esista un insieme infinito di vettori linearmente indipendenti) è più problematico. Per tali spazi esistono due nozioni differenti di base: la prima, detta base di Hamel, è definita algebricamente, mentre la seconda, detta base di Schauder, necessita della presenza di una topologia. Base di Hamel Una base di Hamel per uno spazio vettoriale parametrizzato da un insieme ordinato di vettori linearmente indipendenti[1] , è un insieme di indici, tale che ogni vettore di è combinazione lineare di un insieme finito di questi. Nel caso in cui è un insieme finito, la definizione coincide con quella data precedentemente. Ad esempio, una base di Hamel per lo spazio vettoriale campo formato da tutti i polinomi a coefficienti in un è data dall'insieme di tutti i monomi Infatti ogni polinomio è combinazione lineare di un insieme finito di questi. Ogni spazio vettoriale ha una base di Hamel, grazie al lemma di Zorn (vedi la proprietà di esistenza). Inoltre due basi di Hamel qualsiasi di uno stesso spazio vettoriale hanno la stessa cardinalità, che può dunque essere presa come dimensione (di Hamel) dello spazio vettoriale. Infine, continua a rimanere vero il fatto che ogni vettore dello spazio si scrive in modo unico come combinazione lineare dei vettori di una base di Hamel. Base (algebra lineare) 37 Base di Schauder o topologica Se lo spazio è dotato di una topologia, è possibile estendere la definizione di base in modo diverso, ammettendo somme infinite di vettori. Il senso di queste somme infinite è infatti dato dalle nozioni di limite di una successione e di serie. Se è uno spazio vettoriale topologico, ad esempio uno spazio di Hilbert o di Banach, un insieme ordinato di vettori linearmente indipendenti è una base di Schauder (o topologica) se lo spazio da essi generato è denso in . In altre parole, se ogni vettore di può essere approssimato da somme (finite) di vettori in , e quindi come limite di una somma infinita di questi: dove è un sottoinsieme numerabile. In uno spazio di Hilbert, è di particolare importanza la nozione di base ortonormale. L'esistenza di una base di Schauder in uno spazio di Banach non è, in genere, assicurata. Vedi . L'esistenza di una base di Schauder consente di estendere alcuni teoremi . . Cardinalità Le due nozioni di basi sono generalmente molto differenti, e anche le loro cardinalità possono differire, portando a due concetti diversi di dimensione, chiamati rispettivamente dimensione di Hamel e dimensione di Schauder. La dimensione di Hamel può avere cardinalità superiore a quella di Schauder (pur essendo entrambe infinite). Ad esempio, sia lo spazio delle funzioni continue reali definite sull'intervallo . Questo è uno spazio di Banach con la norma Come conseguenza della teoria delle serie di Fourier, una base di Schauder per è costruita a partire dalle funzioni trigonometriche ed ha cardinalità numerabile. Una base di Hamel ha invece cardinalità non numerabile, ed è molto più difficile da costruire (e scarsamente utilizzata). Note [1] Per definizione, è un insieme di vettori indipendenti se ogni suo sottoinsieme finito è formato da vettori indipendenti. Voci correlate • • • • • • • Base ortonormale Completamento a base Estrazione di una base Formula di Grassmann Matrice di cambiamento di base Span lineare Sottospazio vettoriale Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Completamento a base 38 Completamento a base Il completamento a base è un algoritmo utile in algebra lineare a completare un insieme di vettori linearmente indipendenti in uno spazio vettoriale ad una base. Il teorema Sia uno spazio vettoriale su un campo , di dimensione . Il teorema di completamento a base (o teorema della base incompleta) asserisce che: Se sono vettori linearmente indipendenti in • è minore o uguale a • se , esistono , allora: , vettori tali che l'insieme ordinato è una base. Dimostrazione e algoritmo La dimostrazione fornisce un algoritmo che consente di trovare concretamente i vettori L'algoritmo funziona nel modo seguente: si aggiunga all'insieme spazio (ad esempio, questa può essere la base canonica se . una base nota dello ). Si ottiene quindi l'insieme ordinato . L'insieme genera tutto lo spazio , poiché contiene dei generatori . Si applica quindi ad l'algoritmo di estrazione di una base. Questo algoritmo elimina, partendo da sinistra, quei vettori che sono dipendenti dai vettori precedenti. Poiché i primi sono indipendenti, l'algoritmo eliminerà soltanto alcuni dei vettori : il risultato è quindi una base contenente . Esempio I vettori e in sono indipendenti. Quindi esiste un terzo vettore che forma una base con questi due, e può essere trovato usando l'algoritmo di completamento. Si aggiunge quindi ai due vettori la base canonica: L'algoritmo di estrazione mantiene i primi due vettori, quindi elimina il terzo e il quarto (entrambi generati dai primi due), e tiene di conseguenza il quinto. Si ottiene quindi la base Completamento a base 39 Voci correlate • Estrazione di una base Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Estrazione di una base L'estrazione di una base è un algoritmo utile in algebra lineare ad estrarre una base da un insieme finito di generatori di uno spazio vettoriale Il teorema Sia uno spazio vettoriale su un campo , di dimensione . Il teorema di estrazione di una base asserisce che: Se sono vettori in • è maggiore o uguale a • esistono vettori che generano , allora: , che formano una base di . Dimostrazione e algoritmo La dimostrazione fornisce un algoritmo che consente di trovare concretamente i vettori L'algoritmo funziona nel modo seguente: per ogni . , si controlla se il vettore -esimo è dipendente dai precedenti; questo accade se e solo se In questo caso, si elimina dalla lista; altrimenti, si tiene. Per , non ci sono vettori precedenti e si considera quindi lo span come l'insieme formato dal solo vettore nullo: quindi il primo vettore viene tenuto solo se diverso da zero. Il risultato finale è quindi un insieme di vettori indipendenti che continuano a generare una base di , ossia, per definizione, . Esempio Si estrae una base di dall'insieme Il primo vettore non è nullo e quindi viene tenuto. Il secondo non è multiplo del primo, e quindi viene tenuto. Il terzo è però combinazione dei primi due, infatti Quindi il terzo vettore è eliminato. Il quarto risulta indipendente dagli altri. Si ottiene quindi la base Estrazione di una base 40 Voci correlate • Completamento a base Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Matrice di cambiamento di base In matematica, e più precisamente in algebra lineare, la matrice di cambiamento di base è una matrice quadrata che codifica il cambiamento di una base di uno spazio vettoriale. Definizione Sia uno spazio vettoriale di dimensione finita su un campo cambiamento di base da partenza) e in . Siano e due basi per è la matrice associata alla funzione identità da . La matrice di in sé, rispetto alle basi (in (in arrivo). In altre parole, la matrice di cambiamento di base da -esimo vettore di rispetto a a ha nella -esima colonna le coordinate dell' . Proprietà Cambio di coordinate La matrice di cambiamento di base è utile soprattutto a tradurre le coordinate di un vettore fra due basi diverse. Sia un vettore di , e siano le sue coordinate rispetto alle basi dove e , dove è la matrice di cambiamento di base da è la dimensione di in . Vale allora la relazione e si fa uso del prodotto fra matrici. Composizione La matrice di cambiamento di base serve a codificare la relazione fra basi diverse. Le proprietà seguenti mostrano che questa codifica è compatibile con le operazioni di composizione. Se e Segue che se in sono tre basi per ,e è la matrice di cambiamento di base da è la matrice di cambiamento di base da in , vale la seguente relazione In particolare, la matrice è invertibile e M' è la sua inversa. e a , abbiamo: è la matrice di cambiamento di base da Matrice di cambiamento di base 41 Cambio di matrici associate a endomorfismi Sia un endomorfismo di uno spazio vettoriale base da in . Siano e . Siano e due basi per le matrici associate a ,e la matrice di cambiamento di ottenute usando rispettivamente la base e (in entrambi i casi si usa la stessa base in partenza ed in arrivo). Vale la relazione L'ultima proprietà implica che due matrici che rappresentano lo stesso endomorfismo con basi diverse sono simili. Orientazione Se è il campo dei numeri reali, la matrice di cambiamento di base è utile a verificare se due basi hanno la stessa orientazione: questo accade precisamente quando il determinante della matrice di cambiamento di base che le collega è positivo. Esempi • Nel piano cartesiano, sia la base canonica e . La matrice di cambiamento di base da • Nello spazio euclideo in ottenuta permutando è , la matrice di cambiamento fra le basi viene trovata risolvendo il sistema lineare con 9 equazioni (tre per ogni La matrice ) e 9 incognite . Il risultato è la matrice può quindi essere usata per cambiare le coordinate di un vettore fissato. Ad esempio, il vettore ha coordinate rispetto a Le sue coordinate rispetto a sono quindi calcolate nel modo seguente: Matrice di cambiamento di base 42 Voci correlate • Matrice associata ad una applicazione lineare • Matrici simili Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Somma diretta In matematica, e più precisamente in algebra lineare, la somma diretta indica una particolare proprietà di due o più sottospazi vettoriali. Definizione Due sottospazi e di uno spazio vettoriale , si dice che In questo caso il sottospazio sono in somma diretta se si decompone in somma diretta di è un complementare di e . Inoltre se e si scrive (e viceversa). Dimensioni Per la formula di Grassmann, due spazi sono in somma diretta se e solo se Quando due spazi non sono in somma diretta, il termine a sinistra è strettamente minore di quello a destra. Esempi Lo spazio delle matrici quadrate matrici simmetriche e antisimmetriche: Le dimensioni relative dei sottospazi sono: a coefficienti in un campo si decompone nei sottospazi delle Somma diretta 43 Componenti e proiezione Se dove e sono in somma diretta, ogni elemento e sono elementi rispettivamente di del sottospazio somma e . Gli elementi e si scrive unicamente come sono le componenti di lungo i due sottospazi. Grazie all'unicità di queste, è possibile definire due proiezioni semplicemente ponendo Esempio Ad esempio, nella decomposizione con e descritta sopra, le proiezioni sono le seguenti: Queste proiezioni rappresentano concretamente ogni matrice in una somma di una matrice simmetrica e una antisimmetrica. Difatti, e inoltre mostra che la matrice analogamente che è effettivamente simmetrica (perché uguale alla sua trasposta: si verifica è antisimmetrica). Voci correlate • Proiezione (geometria) • Formula di Grassmann Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Formula di Grassmann 44 Formula di Grassmann In matematica, la formula di Grassmann è una relazione che riguarda le dimensioni dei sottospazi vettoriali di uno spazio vettoriale o dei sottospazi proiettivi di uno spazio proiettivo. Il nome è stato scelto in onore del matematico tedesco Hermann Grassmann (1809-1877). Definizione Sia uno spazio vettoriale su un campo due sottospazi di e con dotato di dimensione finita, cioè dotato di una base finita; siano . Indichiamo con il sottospazio somma di e e , dato da: il loro sottospazio intersezione. La formula di Grassman afferma che: Esempi Spazio tridimensionale Questa formula si visualizza facilmente e significativamente nel caso in cui tridimensionale sui reali sia lo spazio vettoriale ; le possibilità per i sottospazi portano alla seguente casistica: • Uno dei due sottospazi o ha dimensione 0 o 3: in questo caso (a meno di scambiare i nomi dei due sottospazi) abbiamo e e la formula si riduce a una identità. • e sono sottospazi di dimensione 1 (cioè rette passanti per l'origine): • se le rette sono distinte contiene solo il vettore nullo ed ha dimensione 0 e è il piano contenente le due rette, per cui la formula si riduce a 1 + 1 = 2 + 0. • se coincidono e ancora si ha una identità. • è una retta per l'origine e un piano per l'origine: • se la retta non giace nel piano si ha: 1 + 2 = 3 + 0; • se la retta giace nel piano: 1 + 2 = 2 + 1. • e sono piani per l'origine: • se non coincidono la loro intersezione è una retta e si ha: 2 + 2 = 3 + 1; • se coincidono si ha un'identita` che numericamente afferma: 2 + 2 = 2 + 2. Somma diretta Definizione Due sottospazi e sono in somma diretta se . In questo caso la formula di Grassmann asserisce che Se inoltre , si dice che In questo caso il sottospazio si decompone in somma diretta di è un supplementare di (e viceversa). e e si scrive Formula di Grassmann 45 Esempi Lo spazio delle matrici quadrate a coefficienti in un campo si decompone nei sottospazi delle matrici simmetriche e delle antisimmetriche: La formula di Grassmann porta alla uguaglianza concernente le dimensioni dei due sottospazi della forma: Dimostrazione Struttura della dimostrazione La formula si dimostra individuando due basi per e che hanno in comune i vettori che costituiscono una base per la loro intersezione. Più precisamente, si prende una base di , e ad una base di . I vettori in generano lo spazio per , e si completa ad una base , si verifica che sono indipendenti, e quindi sono una base per . Un conteggio degli elementi nelle quattro basi trovate fornisce la formula di Grassmann. Verifica dell'indipendenza lineare L'unico fatto che necessita di una dimostrazione approfondita è l'indipendenza dei vettori in che viene mostrata nel modo seguente: sia Supponiamo l'esistenza di una combinazione lineare nulla In altre parole, raggruppando si ottiene Da questo segue che a . Quindi , e poiché sia appartiene all'intersezione D'altra parte, come elemento di che appartengono a , ne segue che anche appartiene , e si scrive come combinazione lineare di elementi di , è descritto come combinazione lineare di elementi di . : poiché ogni elemento ha un'unica descrizione come combinazione lineare di elementi di una base, ne segue che entrambe queste combinazioni hanno tutti i coefficienti nulli. Quindi Si ottiene quindi sono una base di . Poiché i vettori , sono quindi indipendenti, e ne segue che anche Formula di Grassmann 46 Quindi i coefficienti sono tutti nulli: l'insieme è formato da elementi indipendenti, ed è quindi una base. Conteggio dimensioni Usando le notazioni appena introdotte, il conteggio delle dimensioni dà proprio Proprietà • La formula di Grassmann dice che i sottospazi di uno spazio vettoriale muniti delle operazioni binarie + e costituiscono un reticolo modulare. Voci correlate • base • Teorema della dimensione Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Metodo di eliminazione di Gauss In matematica, il metodo di eliminazione di Gauss, spesso abbreviato in MEG, è un algoritmo, che prende il nome dal matematico tedesco Carl Friedrich Gauss, usato in algebra lineare per determinare le soluzioni di un sistema di equazioni lineari, per calcolare il rango o l'inversa di una matrice. L'algoritmo, attraverso l'applicazione di operazioni elementari dette mosse di Gauss, riduce la matrice in una forma detta a scalini. La matrice così ridotta permette il calcolo del rango della matrice (che sarà pari al numero di scalini/pivot) nonché la risoluzione del sistema lineare ad essa associato. Un'estensione a tale metodo, nota come metodo di eliminazione di Gauss-Jordan, dal matematico tedesco Wilhelm Jordan, riduce ulteriormente la matrice, permettendo di calcolarne anche l'inversa. Nonostante sia attribuito a Gauss e Jordan, il primo matematico ad aver usato questo algoritmo è stato Liu Hui nel 263 a.C. Matrice completa dei coefficienti Un sistema di equazioni lineari può essere descritto tramite una matrice Metodo di eliminazione di Gauss 47 detta matrice completa dei coefficienti del sistema. I coefficienti del sistema lineare (e quindi della matrice) sono elementi di un campo K, quale ad esempio quello dei numeri reali R o complessi C. L'ultima colonna è la colonna dei termini noti. Mosse di Gauss Le mosse di Gauss sono operazioni che modificano una matrice in uno dei modi seguenti: • scambiando due righe; • moltiplicando una riga per un numero diverso da zero; • sommando una riga ad un'altra. Le righe della matrice qui sono intese come vettori dello spazio vettoriale Kn, e quindi si possono moltiplicare per un numero oppure sommare, semplicemente termine a termine. Le mosse di Gauss hanno la seguente importante proprietà: se applicate alla matrice completa dei coefficienti di un sistema lineare, non modificano lo spazio delle soluzioni del sistema. In altre parole, cambia il sistema ma le soluzioni restano invariate: un vettore (x1, ..., xn) è soluzione del vecchio sistema se e solo se lo è del nuovo. D'altra parte è semplice notare che le mosse di Gauss applicate alla matrice completa dei coefficienti corrispondono, nella classica maniera di esprimere un sistema di equazioni (con la parentesi graffa), a nient'altro se non: • scambiare l'ordine di scrittura di due equazioni; • moltiplicare entrambi i membri di un'equazione per un numero diverso da zero; • sommare ad ogni membro di un'equazione la stessa quantità a sinistra e a destra. Matrice a scalini Una matrice a scalini è una matrice A avente la proprietà seguente: il primo elemento diverso da zero di una riga deve essere più a destra del primo elemento diverso da zero della riga precedente. Ad esempio, la matrice è ridotta a scalini, mentre la matrice non lo è. Il primo elemento diverso da zero su ogni riga (quando c'è) è detto pivot. Ad esempio, la matrice a scalini descritta sopra ha tre pivot, contenenti le cifre 3, -1 e 5. Algoritmo di Gauss L'algoritmo di Gauss trasforma una qualsiasi matrice in una matrice a scalini tramite mosse di Gauss. Funziona nel modo seguente: 1. Se la prima riga ha il primo elemento nullo, scambiala con una riga che ha il primo elemento non nullo. Se tutte le righe hanno il primo elemento nullo, vai al punto 3. 2. Per ogni riga con primo elemento non nullo, eccetto la prima ( coefficiente scelto in maniera tale che la somma tra la prima riga e ), moltiplica la prima riga per un abbia il primo elemento nullo (quindi coefficiente = ). Sostituisci con la somma appena ricavata. 3. Adesso sulla prima colonna tutte le cifre, eccetto forse la prima, sono nulle. A questo punto ritorna al punto 1 considerando la sottomatrice che ottieni cancellando la prima riga e la prima colonna. Metodo di eliminazione di Gauss Mostriamo qui un esempio: Dalla matrice di partenza abbiamo moltiplicato la prima riga per -1, sommato la prima riga con la seconda (scrivendo il risultato nella seconda riga in modo da ottenere uno zero in prima posizione), moltiplicato la riga ottenuta per -2 ed infine sommata alla terza riga. NOTA IMPORTANTE: questa procedura, scritta ed utilizzata come sopra, funziona per risolvere un sistema lineare applicando le mosse di Gauss alla matrice completa dei coefficienti del sistema o per capire quale sia il rango di una generica matrice in esame. Nel caso che si voglia sfruttare questa procedura per il calcolo veloce del determinante di una generica matrice quadrata (una volta triangolarizzata si fa il prodotto degli elementi diagonali) si devono fare un numero pari di scambi di righe altrimenti il determinante cambia segno! Ci si deve inoltre limitare a sommare ad una riga un'altra riga eventualmente moltiplicata per un numero diverso da zero, lasciando la seconda riga invariata: nel calcolo del determinante, sfruttando questa procedura, se moltiplicassimo semplicemente una riga per una costante il determinante cambierebbe! Cambierebbe proprio del fattore per cui si moltiplica la riga! Infine applicando la procedura per il calcolo veloce del determinante si può operare anche sulle colonne. Mostriamo qui un esempio per il calcolo del determinante sulla stessa matrice sopra: Dalla matrice di partenza abbiamo sommato alla seconda riga la prima riga moltiplicata per -1 per azzerare il primo elemento (lasciando la prima riga invariata); la terza riga ha già uno zero come primo elemento a sinistra quindi abbiamo sommato alla terza riga la seconda riga moltiplicata per -2 per azzerare il secondo elemento (lasciando la seconda riga invariata). Adesso si può calcolare facilmente il determinante che è il prodotto degli elementi diagonali cioè vale -12 ed è lo stesso determinante di quello della matrice iniziale. Nell'esempio precedente invece si otterrebbe -24 dal prodotto degli elementi diagonali cioè -12 moltiplicato per un fattore 2: questo fattore 2 è proprio il prodotto -1 x -2, i fattori per cui si erano moltiplicate le righe nell'esempio sopra. Il calcolo del determinante tramite questa procedura è il sistema meno impegnativo che si conosca dal punto di vista computazionale (crescita polinomiale invece che fattoriale) ed è l'unico applicabile quando le dimensioni delle matrici diventano grandi. Algoritmo di Jordan-Gauss Dopo aver ridotto la matrice a scalini, è possibile usare una versione dell'algoritmo di Gauss in senso inverso, cioè dal basso verso l'alto, per ottenere una matrice che in ogni colonna contenente un pivot abbia solo il pivot come numero non nullo: basta usare ogni riga, partendo dall'ultima, per eliminare tutte le cifre diverse da zero che stanno sopra al pivot di questa riga. Infine, sempre con mosse di Gauss (moltiplicando righe), possiamo ottenere che ogni pivot abbia valore 1. Ad esempio, portando avanti l'algoritmo descritto sopra otteniamo: 48 Metodo di eliminazione di Gauss 49 Soluzioni del sistema L'algoritmo di Gauss-Jordan trasforma la matrice dei coefficienti di un sistema in una matrice fatta nel modo seguente: le variabili corrispondenti alle colonne che non contengono pivot sono dette libere; ciascuna altra variabile compare in una sola equazione, e quindi può essere espressa in funzione delle variabili libere e dei termini noti. Lo spazio delle soluzioni si ottiene assegnando valori arbitrari alle variabili libere, e calcolando le altre variabili di conseguenza. Se i termini noti bi sono tutti nulli, le soluzioni sono un sottospazio vettoriale di 'Kn. Altrimenti sono ottenute da un sottospazio vettoriale tramite traslazione. Inversa di una matrice L'algoritmo di Gauss-Jordan è anche usato per trovare (quando esiste) l'inversa di una matrice. Funziona nel modo seguente: sia A una matrice invertibile. Costruiamo la matrice B = (A | I) con n righe e 2n colonne, costruita affiancando A e la matrice identità I. A questo punto, dopo aver reso la matrice a scalini con uno o più passi dell'algoritmo di Gauss, applichiamo la variante di Gauss-Jordan alla nuova B per ottenere nella parte sinistra I Poiché A è invertibile, le sue colonne sono indipendenti, e quindi conterranno tutte dei pivot alla fine dell'algoritmo. Quindi il risultato sarà una matrice del tipo (I | C). Ebbene la matrice C è proprio l'inversa di A. L'esempio seguente mostra che l'inversa di è : Nel primo passaggio si è moltiplicata la prima riga per -2, nel secondo si è sommata alla seconda riga la prima, nel terzo si è moltiplicata la seconda riga per -4, nel quarto passaggio si è sommata alla prima riga la seconda e infine nell'ultimo passaggio si è divisa la prima riga per -2 e la seconda per 4. In questo modo si è partiti da una matrice di (A | I) e si è arrivati a (I | C). Si ha che C è l'inversa di A. Proprietà • Il rango di una matrice è pari al numero dei pivot di una qualsiasi matrice a scalini ottenuta da questa tramite mosse di Gauss • Lo spazio delle soluzioni non cambia tramite mosse di Gauss • Per estrarre da un insieme di vettori in Kn un sottoinsieme di vettori indipendenti, dunque anche una base del sottospazio da essi generato basta applicare l'algoritmo di Gauss alla matrice ottenuta affiancando questi vettori, e quindi prendere solo quei vettori iniziali sulla cui colonna compare (alla fine dell'algoritmo) un pivot. Metodo di eliminazione di Gauss 50 Voci correlate • • • • Matrice Determinante Rango Teorema di Rouché-Capelli Collegamenti esterni • • • • • Programma che calcola l'inversa di una matrice [1] Programma interattivo o automatico per utilizzare l'algoritmo di Gauss-Jordan [2] (EN) Eliminazione gaussiana [3] su MathWorld (EN) Eliminazione di Gauss-Jordan [4] MathWorld (EN) Eliminazione gaussiana [5] su PlanetMath Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Note [1] [2] [3] [4] [5] http:/ / evinive. altervista. org http:/ / ww2. unime. it/ weblab/ ita/ Gauss/ http:/ / mathworld. wolfram. com/ GaussianElimination. html http:/ / mathworld. wolfram. com/ Gauss-JordanElimination. html http:/ / planetmath. org/ encyclopedia/ GaussianElimination2. html Determinante In algebra lineare, il determinante è una funzione che associa ad ogni matrice quadrata uno scalare che ne sintetizza alcune proprietà algebriche. Esso viene generalmente indicato con e a volte con , notazione compatta ma ambigua, in quanto utilizzata talvolta per descrivere una norma della matrice.[1] Il determinante è un potente strumento usato in vari settori della matematica: innanzitutto nello studio dei sistemi di equazioni lineari, quindi nel calcolo infinitesimale a più dimensioni (ad esempio nel Jacobiano), nel calcolo tensoriale, nella geometria differenziale, nella teoria combinatoria, etc. Una trasformazione lineare del piano cartesiano è descritta da una matrice quadrata . Il determinante della matrice fornisce delle informazioni sulla trasformazione: il valore assoluto descrive il cambiamento di area, mentre il segno descrive il cambiamento di orientazione. Nell'esempio qui riportato, la matrice ha determinante -1: quindi la trasformazione preserva le aree (un quadrato di area 1 si trasforma in un parallelogramma di area 1) ma inverte l'orientazione del piano. Determinante 51 Il significato geometrico principale del determinante si ottiene interpretando la matrice quadrata di ordine come trasformazione lineare di uno spazio vettoriale a dimensioni: con questa interpretazione, il valore assoluto di è il fattore con cui vengono modificati i volumi degli oggetti contenuti nello spazio. Se è diverso da zero, il segno del determinante indica inoltre se la trasformazione preserva o cambia l'orientazione dello spazio. Definizione Il volume di questo parallelepipedo è il valore assoluto del determinante della matrice formata dai vettori e . Questa relazione fra volume e determinante è valida in qualsiasi dimensione. Definizione Sia V uno spazio vettoriale sul campo C di dimensione n e D una forma n-lineare e alternante e non identicamente nulla da V in C, il determinante di un endomorfismo è definito come: Con una qualsiasi base di V. Definizione tramite assiomi Sia lo spazio vettoriale delle matrici quadrate a valori in un campo (ad esempio, il campo dei numeri reali o complessi). Il determinante è l'unica funzione avente le proprietà seguenti: • • Si comporta nel modo seguente rispetto all'algoritmo di Gauss-Jordan: • se • se • se è ottenuta scambiando due righe o due colonne di , allora , è ottenuta moltiplicando una riga o una colonna di per , allora è ottenuta sommando una riga o una colonna rispettivamente di ad un'altra, allora dove la matrice , è la matrice identità. Le proprietà elencate hanno un significato geometrico: sono le proprietà che deve verificare una funzione il cui valore assoluto è il volume del poliedro individuato dai vettori riga della matrice B e il cui segno è positivo se e solo se tali vettori sono equiorientati alla base canonica. Determinante 52 Definizione costruttiva Il determinante di una matrice Nella formula, può essere definito in un modo più costruttivo, tramite la formula di Leibniz: è l'insieme di tutte le permutazioni il segno della permutazione ( Per esteso: se dell'insieme numerico e denota è una permutazione pari, −1 se è dispari). In particolare: • Se , il determinante di è semplicemente • Se , si ottiene la formula già vista • Se , si ottiene Quest'ultima formula può essere memorizzata tramite la regola di Sarrus (che non è però estendibile ai casi ). La complessità della definizione costruttiva (comprese la generazione delle permutazioni) è elevata: Metodi di calcolo La definizione costruttiva del determinante è spesso complicata da usare per un calcolo concreto, perché si basa su una somma di ben addendi. Esistono altri algoritmi che consentono di calcolare il determinante più facilmente. Ciascun metodo ha una efficienza variabile, dipendente dalla grandezza della matrice e dalla presenza di zeri. Sviluppo di Laplace Lo sviluppo di Laplace è un metodo di calcolo del determinante, che risulta efficiente per matrici non troppo grandi e contenenti un gran numero di zeri. Si procede scegliendo una riga, la -esima, tramite la formula: dove è il complemento algebrico della coppia , cioè minore di ordine ottenuto dalla matrice eliminando la riga Esiste uno sviluppo analogo anche lungo la -esima colonna. è data da -esima e la colonna per il determinante del -esima. Determinante 53 Matrici quadrate di ordine 2 Il determinante di una matrice 2 × 2 è pari a L'area del parallelogramma è il determinante della matrice Il valore assoluto di questa espressione è pari all'area del parallelogramma con vertici in e . Il segno del determinante (se questo è diverso da zero) dipende invece dall'ordine ciclico con cui compaiono i vertici del parallelogramma (il segno è negativo se il parallelogramma è stato "ribaltato", e positivo altrimenti). Come spiegato più sotto, questa proprietà geometrica si estende anche in dimensioni maggiori di 2: il determinante di una matrice è ad esempio il volume del poliedro i cui vertici si ricavano dalle colonne della matrice con lo stesso procedimento visto. Matrici quadrate di ordine 3 Il determinante di una matrice 3 × 3 è pari a Calcolo del determinante di una matrice tramite un metodo equivalente alla regola di Sarrus. Questo metodo non si estende a matrici più grandi. Determinante 54 Un metodo mnemonico per ricordare questa formula, espresso dalla regola di Sarrus (questo metodo non si estende a matrici più grandi), prevede di calcolare i prodotti dei termini sulle diagonali "continue": ripetendo a destra della matrice le sue prime due colonne i prodotti delle componenti sulle 3 "diagonali" che partono dall'alto a sinistra (diagonali principali) sono aei, bfg e cdh, mentre sulle 3 "diagonali" che partono dal basso a sinistra (diagonali secondarie) si trovano gec, hfa, idb. Il determinante della matrice è esattamente la differenza tra la somma dei primi tre termini (aei + bfg + cdh) e la somma degli ultimi tre (gec + hfa + idb). Algoritmo di Gauss La definizione assiomatica fornisce un altro utile strumento di calcolo del determinante, che si basa su questi due principi: • Il determinante di una matrice triangolare è semplicemente il prodotto degli elementi sulla diagonale, cioè . • Usando l'algoritmo di Gauss, è possibile trasformare ogni matrice in una matrice triangolare tramite mosse di Gauss, il cui effetto sul determinante è determinato dagli assiomi. Esempio Supponiamo di voler calcolare il determinante di . Si può procedere direttamente tramite la definizione costruttiva: Alternativamente si può utilizzare lo sviluppo di Laplace secondo una riga o una colonna. Conviene scegliere una riga o una colonna con molti zeri, in modo da ridurre gli addendi dello sviluppo; nel nostro caso sviluppiamo secondo la seconda colonna: Lo sviluppo di Laplace può essere combinato con alcune mosse di Gauss. Ad esempio qui risulta particolarmente vantaggioso sommare la seconda colonna alla prima: Questa mossa non cambia il determinante. Sviluppando lungo la prima colonna si ottiene quindi ancora: Determinante 55 Applicazioni Sistemi lineari Il determinante è utile a calcolare il rango di una matrice e quindi a determinare se un sistema di equazioni lineari ha soluzione, tramite il teorema di Rouché-Capelli. Quando il sistema ha una sola soluzione, questa può essere esplicitata usando il determinante, mediante la regola di Cramer. Matrici e trasformazioni invertibili Una matrice è detta singolare se ha determinante nullo. Una matrice singolare non è mai invertibile, e se è definita su un campo vale anche l'inverso: una matrice non singolare è sempre invertibile. Una trasformazione lineare del piano, dello spazio, o più in generale di uno spazio euclideo o vettoriale (di dimensione finita) è rappresentata (dopo aver scelto una base) da una matrice quadrata dipende dalla base scelta, e quindi solo dalla funzione con . Il determinante è una quantità che non : si può quindi parlare di determinante di , che si indica . Molte affermazioni su sono equivalenti: è una corrispondenza biunivoca è un isomorfismo è iniettiva è suriettiva Quindi ciascuna di queste affermazioni equivalenti è vera se e solo se il determinante non è zero. Autovalori e autovettori Il determinante consente di trovare gli autovalori di una matrice dove è la matrice identità avente stesso numero di righe di mediante il suo polinomio caratteristico . Basi, sistemi di riferimento Dati vettori nello spazio euclideo , sia la matrice avente come colonne questi vettori. Le seguenti affermazioni sono equivalenti: i vettori sono indipendenti Se gli i vettori generano vettori formano una base, allora il segno di i vettori formano una base determina l'orientazione della base: se positivo, la base forma un sistema di riferimento destrorso, mentre se è negativo si parla di sistema di riferimento sinistrorso (in analogia con la regola della mano destra). Determinante 56 Volumi Il valore assoluto del determinante è uguale al volume del parallelepipedo sotteso dai vettori dati dalle colonne di (il parallelepipedo è in realtà un parallelogramma se solido di dimensione , ed un in generale). Più in generale, data una trasformazione lineare Cubo prima della trasformazione, di volume 1. L'immagine del cubo dopo la trasformazione è un parallelepipedo, il cui volume è pari al determinante della trasformazione. rappresentata da una matrice dell'immagine , ed un qualsiasi sottoinsieme misurabile secondo Lebesgue, il volume è dato da Ancora più in generale, se la trasformazione lineare e di è un sottoinsieme di è rappresentata da una matrice misurabile secondo Lebesgue, allora il volume di è dato da di tipo Determinante 57 Proprietà Proprietà elementari Dalle proprietà elencate nella definizione assiomatica, è facile dedurre che: • Se tutti gli elementi di una riga (o colonna) sono nulli, allora . • Se ha due righe (o colonne) eguali, o proporzionali, allora . • Se una riga (o colonna) è combinazione lineare di due o più altre righe (o colonne) a essa parallele, allora . • Se viene modificata tramite mosse di Gauss sulle colonne (invece che sulle righe), l'effetto è sempre quello descritto nella definizione assiomatica. • Se una riga (o una colonna) è somma di due righe (o colonne), è la somma dei due determinanti che si ottengono sostituendo a quella riga (o colonna) rispettivamente le due righe (o colonne) di cui è somma. Moltiplicazione di matrici Il determinante è una funzione moltiplicativa, nel senso che vale il teorema di Binet: Il determinante misura il volume del parallelepipedo generato dai vettori colonna della matrice. Moltiplicando un vettore per due, il volume viene moltiplicato per due (come richiesto dalla definizione assiomatica) Una matrice quadrata con valori in un campo è invertibile se e solo se . In caso affermativo vale l'uguaglianza: Le proprietà appena elencate mostrano che l'applicazione dal gruppo generale lineare negli elementi non nulli di Come conseguenza del teorema di Binet, se verificare che . Quindi: è un omomorfismo di gruppi. è la matrice identità di tipo e uno scalare, è facile Determinante 58 Trasposte, matrici simili Una matrice e la sua trasposta hanno lo stesso determinante: Se e sono simili (cioè esiste una matrice invertibile tale che = ) allora per il teorema di Binet Questo significa che il determinante è un invariante per similitudine. Da questo segue che il determinante di una trasformazione lineare è ben definito (non dipende dalla scelta di una base per lo spazio vettoriale ). D'altra parte, esistono matrici con lo stesso determinante che non sono simili. Autovalori Il determinante di una matrice triangolare è il prodotto degli elementi nella diagonale. Se è di tipo con valori reali o complessi e ha tutti gli autovalori nel campo (contati con molteplicità), allora Questa uguaglianza segue dal fatto che è sempre simile alla sua forma normale di Jordan, che è una matrice triangolare superiore con gli autovalori sulla diagonale principale. Dal collegamento fra determinante e autovalori si può derivare una relazione fra la funzione traccia, la funzione esponenziale e il determinante: Derivata Il determinante può considerarsi una funzione polinomiale quindi essa è differenziabile rispetto ad ogni variabile corrispondente al valore che può assumere in una casella e per qualunque suo valore. Il suo differenziale può essere espresso mediante la formula di Jacobi: dove cofT(A) denota la trasposta della matrice dei cofattori (detta anche dei complementi algebrici) di A, mentre tr(A) ne denota la traccia. In particolare, se A è invertibile abbiamo o, più colloquialmente, se i valori della matrice Il caso particolare di sono sufficientemente piccoli coincidente con la matrice identità comporta Determinante 59 Generalizzazioni Pfaffiano Lo pfaffiano è un analogo del determinante per matrici antisimmetriche di tipo di grado . Si tratta di un polinomio il cui quadrato è uguale al determinante della matrice. Infinite dimensioni Per gli spazi ad infinite dimensioni non si trova alcuna generalizzazione dei determinanti e della nozione di volume. Sono possibili svariati approcci, inclusa la utilizzazione dell'estensione della traccia di una matrice. Note [1] La notazione fu introdotta per la prima volta nel 1841 dal matematico inglese Arthur Cayley ( MacTutor (http:/ / www-history. mcs. st-andrews. ac. uk/ HistTopics/ Matrices_and_determinants. html)). Bibliografia In italiano • Ernesto Pascal I determinanti: teoria ed applicazioni. Con tutte le più recenti ricerche (http://name.umdl.umich. edu/ABZ4755.0001.001) (Milano: U. Hoepli, 1897) • Francesco Calderara Trattato dei determinanti (http://resolver.library.cornell.edu/math/1927647) (Palermo: Virzì, 1913) In lingua straniera • (FR) Francesco Brioschi Théorie des déterminants et leurs principales applications; traduit de l'italien par M. Édouard Combescure (http://gallica.bnf.fr/notice?N=FRBNF30162093) (Parigi : Mallet-Bachelier, 1856) • (FR) R. Baltzer Théorie et applications des déterminants, avec l'indication des sources originales; traduit de l'allemand par J. Hoüel, (http://gallica.bnf.fr/notice?N=FRBNF30050936) (Parigi : Mallet-Bachelier, 1861) • (EN) Lewis Carroll An elementary treatise on determinants, with their application to simultaneous linear equations and algebraical geometry (http://www.archive.org/details/elementarytreati00carrrich) (Oxford: University Press, 1867) • (EN) R. F. Scott e G. B. Matthews The theory of determinants and their applications (http://www.archive.org/ details/theoryofdetermin00scotuoft) (Cambridge: University Press, 1904) • (EN) T. Muir The theory of determinants in the historical order of development (4 vol.) (http://quod.lib.umich. edu/cgi/t/text/text-idx?c=umhistmath&amp;idno=ACM9350) (London: Macmillan and Co., Limited, 1906) • (EN) T. Muir Contributions To The History Of Determinants 1900 1920 (http://www.archive.org/details/ contributionstot032405mbp) (Blackie And Son Limited, 1930) Determinante 60 Voci correlate • • • • • • Storia del determinante Sviluppo di Laplace Algoritmo di Gauss Regola di Sarrus Determinante jacobiano Matrice unimodulare Collegamenti esterni • (EN) Storia dell'uso delle matrici e dei determinanti (http://www-history.mcs.st-andrews.ac.uk/HistTopics/ Matrices_and_determinants.html) su MacTutor Portale Matematica: accedi alle voci di Wikipedia che trattano di Matematica Rango (algebra lineare) Nell'algebra lineare, il rango o caratteristica di una matrice colonne (o righe) linearmente indipendenti in a valori in un certo campo è il massimo numero di . Il rango di una matrice può essere formulato in numerosi modi equivalenti, ed è una quantità fondamentale in algebra lineare, utile per risolvere i sistemi lineari e studiare le applicazioni lineari. È comunemente indicato con rango( ), rg( )o ( ), o con le versioni inglesi rank( ) o rk( ). Definizione Sia • • • • una matrice, a valori in un campo . Le seguenti definizioni di rango di sono tutte equivalenti: Il massimo numero di colonne linearmente indipendenti Il massimo numero di righe linearmente indipendenti La dimensione del sottospazio di generato dalle colonne di La dimensione del sottospazio di generato dalle righe di • La dimensione dell'immagine dell'applicazione lineare da in seguente: • Il massimo ordine di un minore invertibile di Rango di una trasformazione lineare Si può attribuire un rango anche ad una generica applicazione lineare, definendolo come la dimensione dello spazio vettoriale dato dalla sua immagine. In una esposizione con fini tendenzialmente generali una definizione di questo genere ha il vantaggio di essere applicabile senza la necessità di fare riferimento ad alcuna matrice che rappresenti la trasformazione. Quando invece ci si trova in un ambito di applicazioni concrete, il calcolo effettivo del rango di una trasformazione ben raramente si può ottenere evitando di operare su una matrice. Rango (algebra lineare) 61 Proprietà del rango di una matrice In quanto segue, è una matrice su un campo , che descrive una mappa lineare come sopra. Proprietà di base • Solo la matrice nulla ha rango 0. • Il rango di è uguale al rango della sua trasposta. • Il rango di è minore o uguale sia di che di . In altre parole, è minore o uguale del minimo dei due valori Relazioni fra ed • è iniettiva se e solo se ha rango (in questo caso si dice che ha rango per colonne massimo). • è suriettiva se e solo se ha rango (in questo caso si dice che ha rango per righe massimo). • nel caso di una matrice quadrata (cioè, ), allora è invertibile se e solo se ha rango (e si dice che ha rango massimo). Questo accade se e solo se è biettiva. Prodotto fra matrici • Se è una matrice rango di , allora il rango del prodotto è minore o uguale sia del rango di che del . In altre parole: Come esempio del caso "<", si consideri il prodotto Entrambi i fattori hanno rango 1, ma il prodotto ha rango 0. • Se è una matrice • Se è una matrice • Il rango di è uguale a invertibile dove con rango , allora ha lo stesso rango di . con rango , allora ha lo stesso rango di . se e solo se esistono una matrice invertibile ed una matrice tali che denota la matrice identità . • Dall'ultima proprietà si deduce che il rango di una matrice è un invariante completo per matrici equivalenti destra-sinistra. Rango (algebra lineare) 62 Teorema del rango-nullità Il rango di una matrice più la nullità della matrice è uguale al numero di colonne della matrice (questo è il teorema del rango, o "teorema del rango-nullità"). SD-equivalenza Il rango è un invariante completo per la equivalenza sinistra-destra tra matrici: due matrici lo stesso rango se e solo se esistono due matrici invertibili e tali che e hanno . Calcolo Algoritmo di Gauss Il modo più semplice per calcolare il rango di una matrice è dato dall'algoritmo di Gauss. L'algoritmo trasforma la matrice in una matrice a scalini con lo stesso rango, dato dal numero di righe non nulle, o equivalentemente di pivot. Si consideri ad esempio la matrice Vediamo che la seconda colonna è il doppio della prima colonna, e la quarta colonna è uguale alla somma della prima e della terza. La prima e la terza colonna sono linearmente indipendenti, quindi il rango di è due. Questo può essere confermato dall'algoritmo di Gauss, che produce la seguente matrice a scalini : con due righe non nulle. Criterio dei minori Un altro metodo, in alcuni casi più diretto, sfrutta le proprietà del determinante di una matrice quadrata, e in particolare dei determinanti delle sottomatrici quadrate di , dette minori. Si basa sul fatto seguente: • Il rango di è pari al massimo ordine di un minore invertibile di Ad esempio, la matrice i suoi minori . data sopra ha determinante nullo, e quindi può avere rango al massimo 3. Anche tutti hanno determinante nullo, e quindi può avere rango al massimo 2. Infine, esiste almeno un minore invertibile di ordine 2, ad esempio quello in basso a destra che ha determinante . Quindi ha rango esattamente 2. Questo criterio può essere utile ad esempio per verificare rapidamente se il rango di una matrice è superiore o inferiore ad un certo valore. Rango (algebra lineare) 63 Generalizzazioni Esistono diverse generalizzazioni del concetto di rango per matrici su anelli arbitrari. In queste generalizzazioni il rango colonna, il rango riga, dimensione dello spazio colonna, dimensione dello spazio riga di una matrice possono essere diversi l'uno dall'altro o non esistere. Un'altra generalizzazione riguarda le matroidi, entità che generalizzano le matrici. Bibliografia • (EN) Werner Greub (1981): Linear algebra, 4th edition, Springer Verlag • (EN) Roger A. Horn, Charles R. Johnson (1985): Matrix Analysis. Cambridge University Press, ISBN 0-521-38632-2. Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Trasformazione lineare In matematica, più precisamente in algebra lineare, una trasformazione lineare (chiamata anche applicazione lineare o mappa lineare) è una funzione tra due spazi vettoriali che preserva la forma delle operazioni di somma di vettori e di moltiplicazione per scalare. In altre parole, preserva le combinazioni lineari, cioè le composizioni che caratterizzano la specie di struttura spazio vettoriale; quindi nel linguaggio dell'algebra astratta, una trasformazione lineare è un omomorfismo di spazi vettoriali, in quanto conserva la forma di ogni istanza dell'operazione che caratterizza gli spazi vettoriali. Definizione e prime conseguenze Siano e due spazi vettoriali sullo stesso campo . Una funzione è una trasformazione lineare se soddisfa le seguenti proprietà • • per ogni coppia di vettori e in e per ogni scalare in . La prima proprietà è detta additività, la seconda omogeneità di grado 1. Equivalentemente, è lineare se "preserva le combinazioni lineari", ovvero se per ogni intero positivo m e ogni scelta dei vettori Quando e e degli scalari . possono essere considerati come spazi vettoriali su differenti campi (ad esempio sul campo dei reali e sul campo dei complessi), è importante evitare ogni ambiguità e specificare quale campo è stato utilizzato nella definizione di "lineare". Se si fa riferimento al campo K si parla di mappe -lineari. Se e togliendo è una applicazione lineare e da ambo i membri si ottiene . e sono i vettori nulli di e rispettivamente, allora Trasformazione lineare 64 Esempi • La moltiplicazione per una costante fissata in è una trasformazione lineare su qualsiasi spazio vettoriale su . • Una rotazione del piano euclideo rispetto all'origine di un angolo fissato. • Una riflessione del piano euclideo rispetto ad una retta passante per l'origine. • La proiezione di uno spazio vettoriale V decomposto in somma diretta su uno dei due sottospazi U o W. • Una matrice di tipo con valori reali definisce una trasformazione lineare dove è il prodotto di e . Ogni trasformazione lineare tra spazi vettoriali di dimensione finita è essenzialmente di questo tipo: si veda la sezione seguente. • L'integrale di una funzione reale su un intervallo definisce una mappa lineare dallo spazio vettoriale delle funzioni continue definite sull'intervallo nello spazio vettoriale R. • La derivata definisce una mappa lineare dallo spazio vettoriale di tutte le funzioni derivabili in qualche intervallo aperto di R nello spazio di tutte le funzioni. • Lo spazio C dei numeri complessi ha una struttura di spazio vettoriale complesso di dimensione 1, e anche di spazio vettoriale reale di dimensione 2. La coniugazione è una mappa R-lineare ma non C-lineare: infatti la proprietà di omogeneità vale solo per scalari reali. Matrice associata Siano e due spazi vettoriali di dimensione finita. Scelte due basi trasformazione lineare da a e per e , ogni è rappresentabile come una matrice nel modo seguente. Scriviamo nel dettaglio le basi Ogni vettore in Se è univocamente determinato dalle sue coordinate , definite in modo che è una trasformazione lineare, Quindi la funzione è determinata dai vettori Quindi la funzione è interamente determinata dai valori di e Ciascuno di questi è scrivibile come , che formano la matrice associata a nelle basi . La matrice associata è di tipo , e può essere usata agevolmente per calcolare l'immagine vettore di grazie alla relazione seguente: dove e sono le coordinate di e nelle rispettive basi. di ogni Trasformazione lineare 65 Notiamo che la scelta delle basi è essenziale: la stessa matrice, usata su basi diverse, può rappresentare applicazioni lineari diverse. Struttura di spazio vettoriale • La composizione di trasformazioni lineari è anch'essa una trasformazione lineare: se e sono applicazioni lineari, allora lo è anche • Se e sono lineari, allora lo è la loro somma • Se è lineare e è un elemento del campo , definita dalla relazione , allora la mappa , definita da , è anch'essa lineare. Le proprietà precedenti implicano che l'insieme Hom( , ) delle applicazioni lineari da sottospazio vettoriale dello spazio vettoriale formato da tutte le funzioni da in in è un . Nel caso finito-dimensionale, dopo aver fissato delle basi, composizione, somma e prodotto per scalare di mappe lineari corrispondono rispettivamente a moltiplicazione di matrici, somma di matrici e moltiplicazione di matrici per scalare. In altre parole, le basi definiscono un isomorfismo tra gli spazi vettoriali delle applicazioni lineari e delle matrici rispettivamente di e , dove e sono le dimensioni . Nucleo e immagine Se ker( è lineare, si definisce il nucleo (in inglese kernel) e l'immagine di ) è un sottospazio di e Im( ) è un sottospazio di . Se e come hanno dimensione finita, il teorema della dimensione asserisce che: Isomorfismi Se V e W sono due spazi vettoriali su K. Un isomorfismo di V con W è un'applicazione lineare biunivoca f: V→W. Conseguenza immediata di questa definizione è che f è isomorfismo se e solo se Kerf = 0V e Imf= W. Endomorfismi e automorfismi Una trasformazione lineare è un endomorfismo di . L'insieme di tutti gli endomorfismi Endo( ) insieme a addizione, composizione e moltiplicazione per uno scalare come descritti sopra formano un'algebra associativa con unità sul campo : in particolare formano un anello e un spazio vettoriale su . L'elemento identità di questa algebra è la trasformazione identità di Un endomorfismo biiettivo di . viene chiamato automorfismo di nuovo un automorfismo, e l'insieme di tutti gli automorfismi di , chiamato Aut( ) o GL( Se la dimensione di ; la composizione di due automorfismi è di forma un gruppo, il gruppo generale lineare di ). è finita basterà che f sia iniettiva per poter affermare che sia anche suriettiva (per il teorema della dimensione). Inoltre l'isomorfismo Trasformazione lineare 66 fra gli endomorfismi e le matrici quadrate automorfismi di in descritto sopra è un isomorfismo di algebre. Il gruppo degli è isomorfo al gruppo lineare generale GL( , ) di tutte le matrici invertibili a valori . Pull-Back di funzioni ed applicazione trasposta Siano A,B,C degli insiemi ed F ( A, C ), F ( B, C ) le famiglie di funzioni da A in C e da B in C rispettivamente. Ogni φ: A → B determina univocamente una corrispondenza φ*: F ( B, C ) → F ( A, C ), chiamata pull-back tramite φ, che manda f in f φ. Se nello specifico prendiamo A = V, B = W due spazi vettoriali su campo k = C, e anziché prendere gli interi F ( V, k ), F ( W, k ) ci restringiamo agli spazi duali V* e W*, abbiamo che ad ogni trasformazione lineare φ : V → W possiamo associare l'opportuna restrizione del pull-back tramite φ, φ*: W* → V*, che prende il nome di trasposta di φ. Segue direttamente da come sono definite le operazioni in V* e W* che φ* è a sua volta lineare. Con un semplice calcolo si vede che fissate delle basi per V e W, e le rispettive duali in V*, W*, la matrice che rappresenta φ* è la trasposta di quella di φ (o, se rappresentiamo i funzionali come matrici riga e quindi viene tutto trasposto, le due matrici sono uguali). Segue dalla definizione che un funzionale w* ∈ W* viene mandato a 0 se e solo se l'immagine di φ è contenuta nel nucleo di w* cioè, indicando con U⊥ il sottospazio dei funzionali che annullano U ⊂ W, si ha ker φ* = (im φ)⊥. Generalizzazioni Le trasformazioni lineari possono essere definite anche per i moduli, strutture della specie che generalizza quella di spazio vettoriale. Voci correlate • • • • • • Matrice di trasformazione Autovettore e autovalore Trasformazione affine Funzionale lineare Operatore lineare continuo (EN) wikibooks:Linear Algebra/Linear Transformations Collegamenti esterni • (EN) http://www.falstad.com/matrix/ Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Matrice di trasformazione 67 Matrice di trasformazione In matematica, e più precisamente in algebra lineare, per matrice di trasformazione anche matrice associata ad una trasformazione o matrice rappresentativa dell'operatore rispetto alle sue basi si intende una matrice che rappresenta una trasformazione lineare fra spazi vettoriali. Per definire una matrice di trasformazione è necessario scegliere una base per ciascuno degli spazi. Fissata una base per il dominio e una per il codominio, ogni trasformazione lineare è descrivibile agevolmente tramite una matrice nel modo seguente: dove è il vettore colonna delle coordinate di un punto del dominio rispetto alla base del dominio e colonna delle coordinate dell'immagine e il prodotto è il vettore è il prodotto righe per colonne. Definizione Siano e due spazi vettoriali su un campo di dimensione finita, e una applicazione lineare. Siano infine due basi rispettivamente per La matrice associata a del vettore e . nelle basi rispetto alla base e è la matrice avente nella -esima colonna le coordinate . In altre parole, la matrice associata è dove è l'immagine arrivo dell' -esimo vettore della base di partenza . Qui si usa la notazione , letta però in coordinate rispetto alla base di per indicare le coordinate di rispetto alla base scelta. Proprietà Le rappresentazioni di vettori e trasformazioni mediante vettori colonna e matrici consentono di effettuare sistematicamente molte operazioni su queste entità mediante operazioni numeriche che, tra l'altro, possono essere demandate abbastanza facilmente al computer. Ad esempio, le immagini di singoli vettori e le composizioni di trasformazioni vengono rappresentate mediante prodotti fra matrici. Immagine di un vettore Tramite la matrice associata matrice-vettore. Indicando è possibile calcolare l'immagine di un qualsiasi vettore e le coordinate dei vettori in e in facendo uso del prodotto , rispettivamente alle basi e , si ottiene Il prodotto tra la matrice ed il vettore è l'usuale prodotto di una matrice per un vettore colonna. La relazione permette di tradurre trasformazioni lineari in matrici e vettori in vettori numerici di essenziale di questa traduzione è la scelta di basi: scelte diverse portano a matrici e vettori diversi. . Fattore Matrice di trasformazione 68 Composizione di applicazioni lineari Nella rappresentazione di applicazioni come matrici, la composizione si traduce nell'usuale prodotto fra matrici. In verità il prodotto riga-per-colonna tra matrici è così definito proprio per rappresentare le composizioni di funzioni. In altre parole, in presenza di due applicazioni lineari e dopo aver scelto delle basi per i tre spazi, vale la relazione ovvero la matrice associata alla composizione è il prodotto delle matrici associate a ea . Da matrici ad applicazioni Ogni applicazione può essere descritta come matrice. D'altra parte, una matrice descrive una applicazione lineare nel modo seguente: In altre parole, l'immagine è il vettore di le cui coordinate sono date da . La corrispondenza biunivoca così definita fra applicazioni lineari e matrici è in realtà un isomorfismo fra gli spazi vettoriali delle applicazioni lineari da in e delle matrici . Tale isomorfismo dipende fortemente dalle basi scelte inizialmente per entrambi gli spazi. Endomorfismi In presenza di un endomorfismo è naturale scegliere la stessa base arrivo. La matrice associata in partenza ed in è una matrice quadrata . Molte proprietà dell'endomorfismo possono essere più agevolmente lette sulla matrice. Ad esempio: • è l'identità se e solo se è la matrice identica. • è la funzione costantemente nulla se e solo se è la matrice nulla. • è un isomorfismo se e solo se ovvero se ha determinante • è invertibile, diverso da zero. preserva l'orientazione dello spazio se Endomorfismo rappresentato da una matrice. Il determinante della matrice è -1: questo implica che l'endomorfismo è invertibile e inverte l'orientazione del piano. L'angolo orientato infatti viene mandato nell'angolo con orientazione opposta. . La inverte se L'invertibilità di una matrice è verificata usando il determinante. Altre proprietà più complesse come la diagonalizzabilità possono essere più facilmente studiate sulle matrici. Matrice di trasformazione 69 Esempi • Nel piano cartesiano, indicando con (x, y) un punto generico, la trasformazione lineare T(x, y) = (x, y) viene rappresentata rispetto ad una qualsiasi base dalla matrice identità di ordine 2. Una tale trasformazione è conosciuta anche come funzione identità. • Nel piano cartesiano, sia T la riflessione rispetto alla bisettrice del I e III quadrante. Le matrici associate a T usando rispettivamente la base canonica e la base B = ((1, 1), (1, -1)) sono:: • Nel piano la rotazione di un angolo θ in senso antiorario intorno all'origine è lineare e definita da e . In forma matriciale si esprime con: Analogamente per una rotazione in senso orario attorno all'origine la funzione è definita da e ed in forma matriciale è: • La funzione T: R2[x] → R2[x] dallo spazio dei polinomi di grado al più due in sé, che associa ad un polinomio p la sua derivata T(p) = p' è lineare. La matrice associata rispetto alla base B = (1, x, x2) è: Voci correlate • • • • Glossario sulle matrici Algebra lineare Coordinate di un vettore Matrice di cambiamento di base Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Teorema del rango 70 Teorema del rango In matematica, il teorema del rango (detto anche teorema di nullità più rango) dell'algebra lineare, nella sua forma più semplice, mette in relazione il rango e la nullità di una matrice con il numero di colonne della matrice. Nello specifico, se è una matrice allora Nella sua forma più generale, il teorema vale nel contesto delle trasformazioni lineari fra spazi vettoriali. Data una applicazione lineare fra spazi vettoriali, vale la relazione dove e sono rispettivamente l'immagine e il nucleo di e è la dimensione di . Il teorema del rango è a volte chiamato teorema della dimensione ed è un risultato fondamentale in algebra lineare. Enunciato Sia un'applicazione lineare fra due spazi vettoriali, entrambi definiti su un campo dimensione finita Qui . Allora anche l'immagine è il nucleo di . Si suppone che abbia ha dimensione finita e vale la relazione seguente: . Dimostrazione Poiché ha dimensione finita, il sottospazio vettoriale ha anch'esso dimensione finita. Il nucleo ha quindi una base Per il teorema della base incompleta esistono sia una base di . Per concludere è sufficiente mostrare che i vettori formano una base di I primi tali che . L'immagine è generata dai vettori vettori sono però nulli, quindi l'immagine è generata dagli ultimi vettori Resta quindi da verificare che questi vettori siano linearmente indipendenti. Si suppone quindi data una combinazione lineare nulla Per linearità si ottiene . Quindi Teorema del rango 71 Poiché questo vettore sta nel nucleo, è esprimibile come combinazione lineare dei vettori : In altre parole: Poiché è una base di , tutti i coefficienti qui presenti sono nulli. In particolare, . Quindi i vettori per ogni sono effettivamente indipendenti. L'immagine ha quindi dimensione . Pertanto Riformulazioni e generalizzazioni In linguaggio più moderno, il teorema può essere espresso nel seguente modo: se 0→U→V→R→0 è una successione esatta corta di spazi vettoriali, allora dim(U) + dim(R) = dim(V) Qui R gioca il ruolo di im T e U è ker T. Nel caso finito-dimensionale questa formulazione è suscettibile di generalizzazione: se 0 → V1 → V2 → ... → Vr → 0 è una successione esatta di spazi vettoriali a dimensioni finite, allora Il teorema del rango per gli spazi vettoriali a dimensioni finite può anche essere formulato in termini degli indici di una mappa lineare. L'indice di una mappa lineare T : V → W, dove V e W sono a dimensioni finite, è definito da indice T = dim(ker T) - dim(coker T). Intuitivamente, dim(ker T) è il numero di soluzioni indipendenti x dell'equazione Tx = 0, e dim(coker T) è il numero di restrizioni indipendenti che devono essere poste su y per rendere Tx = y risolvibile. Il teorema del rango per gli spazi vettoriali a dimensioni finite è equivalente all'espressione index T = dim(V) - dim(W). Si vede che possiamo facilmente leggere l'indice della mappa lineare T dagli spazi coinvolti, senza la necessità di esaminare T in dettaglio. Questo effetto si trova anche in un risultato molto più profondo: il teorema dell'indice di Atiyah-Singer afferma che l'indice di determinati operatori differenziali può essere letto dalla geometria degli spazi coinvolti. Bibliografia • Philippe Ellia, Appunti di Geometria I, Bologna, Pitagora Editrice, 1997, ISBN 88-3710958-X Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Autovettore e autovalore 72 Autovettore e autovalore In algebra lineare, un autovettore di una trasformazione lineare è un vettore non nullo che non cambia direzione nella trasformazione. Il vettore può cambiare quindi solo per moltiplicazione di uno scalare, chiamato autovalore. L'autospazio è il sottospazio formato da tutti gli autovettori aventi un fissato autovalore, più il vettore nullo. Un esempio è mostrato in Fig.1. In matematica, questi concetti fondamentali sono introdotti basicamente in algebra lineare, ma trovano applicazione in vari settori della matematica e delle sue applicazioni: geometria euclidea, analisi funzionale, meccanica classica, meccanica quantistica, economia, elaborazione digitale delle immagini, ... . In molti contesti, questi concetti si arricchiscono di significati fisici importanti. In meccanica classica gli autovettori delle equazioni che descrivono un sistema fisico corrispondono spesso ai modi di vibrazione di un corpo e gli autovalori alle loro frequenze. In meccanica quantistica, gli operatori corrispondono a variabili osservabili, gli autovettori sono chiamati anche autostati e gli autovalori di un operatore rappresentano quei valori della variabile corrispondente che hanno probabilità non nulla di essere misurati. Fig. 1. In questa trasformazione lineare della Gioconda, l'immagine è modificata ma l'asse centrale verticale rimane fisso. Il vettore blu ha cambiato lievemente direzione, mentre quello rosso no. Quindi il vettore rosso è un autovettore della trasformazione e quello blu no. Inoltre, poiché il vettore rosso non è stato né allungato, né compresso, né ribaltato, il suo autovalore è 1. Tutti i vettori sull'asse verticale sono multipli scalari del vettore rosso, e sono tutti autovettori: assieme all'origine formano l'autospazio relativo all'autovalore 1. Il termine autovettore è stato tradotto dalla parola tedesca Eigenvektor, coniata da Hilbert nel 1904. Eigen significa proprio, caratteristico. Anche nella letteratura italiana troviamo spesso l'autovettore indicato come vettore proprio, vettore caratteristico o vettore latente. Definizione Introduzione informale Il piano cartesiano e lo spazio euclideo sono esempi particolari di spazi vettoriali: ogni punto dello spazio può essere descritto tramite un vettore che collega l'origine al punto. Rotazioni, omotetie e riflessioni sono esempi particolari di trasformazioni lineari dello spazio: ciascuna di queste trasformazioni viene descritta agevolmente dall'effetto che produce sui vettori. In particolare, un autovettore è un vettore moltiplicato per un fattore scalare che nella trasformazione viene . Nel piano o nello spazio cartesiano, questo equivale a dire che il vettore non cambia direzione. Può però cambiare verso se , e modulo per un fattore dato dal valore assoluto : Fig. 2. Una sfera che ruota intorno ad un suo asse. Autovettore e autovalore 73 • se il modulo resta inalterato, • se il modulo cresce, • se il modulo decresce. Il valore è l'autovalore di . Ad esempio, nella rotazione spaziale descritta in Fig. 2 ogni vettore verticale dell'asse resta fisso: in altre parole, è un vettore che non cambia né direzione, né verso, né modulo, ed è quindi un autovettore con autovalore 1. Nella rotazione planare descritta in Fig. 3, ogni vettore ruota in senso antiorario di un certo angolo, e quindi cambia direzione: quindi ogni rotazione piana (di angolo diverso da e ) non possiede autovettori. Fig. 3. Rotazione del piano intorno ad un punto Autovettori e autovalori sono definiti ed usati in matematica e fisica nell'ambito di spazi più complessi e astratti di quello tridimensionale della fisica classica. Questi spazi possono avere dimensione maggiore di 3 o addirittura infinita (ad Fig. 4. Un'onda stazionaria in una corda fissata agli estremi è una esempio, possono essere uno spazio di Hilbert). Ad autofunzione della trasformazione data dallo scorrere del tempo. esempio, le possibili posizioni di una corda vibrante in una chitarra formano uno spazio di questo tipo: una vibrazione della corda è quindi interpretata come trasformazione di questo spazio, e i suoi autovettori (più precisamente, le sue autofunzioni) sono le onde stazionarie, che si ripetono come mostrato in Fig. 4. Definizione formale Dal punto di vista formale, autovettori e autovalori sono definiti come segue: sia campo endomorfismo di Se Poiché e è uno scalare (che può essere nullo) tali che è un autovettore della trasformazione è lineare, se ,e , allora ogni multiplo non-nullo di è anch'esso un . Più in generale, gli autovettori aventi lo stesso fissato autovalore insieme al vettore nullo, generano un sottospazio di solitamente indicato con è il suo autovalore. è un autovettore con autovalore autovettore con lo stesso autovalore Lo spettro di un , cioè una trasformazione lineare è un vettore non nullo in allora uno spazio vettoriale su un , che può essere ad esempio il campo dei numeri reali R o il campo dei complessi C. Sia chiamato l'autospazio relativo all'autovalore , . Viene . è l'insieme dei suoi autovalori. Il raggio spettrale di è l'estremo superiore dei moduli dei suoi sia di dimensione finita, per ogni scelta di basi a è associata univocamente una matrice. Per autovalori. Nel caso in cui questo motivo si parla anche di autovettori e autovalori associati direttamente ad una matrice, rispettivamente come un vettore e uno scalare tali che . Autovettore e autovalore Esempi nel piano e nello spazio Fra le trasformazioni del piano cartesiano R2 possiamo distinguere i seguenti casi speciali: • Rotazione antioraria di angolo θ: se θ non è un multiplo intero di π non esiste alcun autovettore: infatti ogni vettore viene ruotato e cambia di direzione. Nei casi particolari relativi a θ = k π, con k intero dispari, ogni vettore viene trasformato nell'opposto, quindi ogni vettore non nullo è autovettore, con autovalore -1. Se invece k è pari, la trasformazione non è altro che l'identità, per cui ogni vettore non nullo è autovettore, con autovalore +1. • Riflessione rispetto ad una retta r passante per l'origine: i vettori in r restano fermi e sono quindi autovettori con autovalore 1, quelli della retta s perpendicolare a r e passante per l'origine vengono ribaltati, e quindi sono autovettori con autovalore -1. Non esistono altri autovettori. • Omotetia: ogni vettore viene moltiplicato per uno scalare λ e quindi tutti i vettori non nulli sono autovettori con autovalore λ. • Proiezione ortogonale su una retta r passante per l'origine: i vettori su r restano fermi e quindi sono autovettori con autovalore 1, i vettori sulla retta s ortogonale a r e passante per l'origine vanno tutti sull'origine e quindi sono autovettori con autovalore 0. Non ci sono altri autovettori. Gli esempi appena elencati possono essere rappresentati rispettivamente dalle seguenti matrici (per semplicità, la retta r è l'asse orizzontale): • Non tutte le trasformazioni del piano e dello spazio ricadono in uno degli esempi mostrati sopra. In generale, un endomorfismo (cioè una trasformazione) di Rn è rappresentabile tramite una matrice quadrata con n righe. Consideriamo per esempio l'endomorfismo di R3 indotto dalla matrice: Usando la moltiplicazione fra matrice e vettore vediamo che: e quindi l'endomorfismo rappresentato da A ha un autovettore con autovalore 2. Il polinomio caratteristico Un metodo generale per l'individuazione di autovalori e autovettori di un endomorfismo, nel caso in cui lo spazio vettoriale V abbia dimensione finita, è il seguente: 1. Si costruisce una base per V, così da rappresentare l'endomorfismo tramite una matrice quadrata. 2. Dalla matrice si calcola un polinomio, detto polinomio caratteristico, le cui radici (cioè i valori che lo annullano) sono gli autovalori. 3. Per ogni autovalore, si trovano i relativi autovettori con tecniche standard di algebra lineare, tramite risoluzione di un sistema di equazioni lineari. Il polinomio caratteristico p(x), con variabile x, associato ad una matrice quadrata A, è il seguente: dove I è la matrice identità con lo stesso numero di righe di A, e det(A - xI) è il determinante di A - xI. Le radici del polinomio sono proprio gli autovalori di A. Applichiamo quindi il nostro algoritmo all'esempio in R3 descritto sopra. Poiché la trasformazione è già scritta in forma di matrice, saltiamo al punto 2 e calcoliamo il polinomio caratteristico: 74 Autovettore e autovalore quindi gli autovalori di A sono 2, 1 e −1. Nella pratica, gli autovalori di grandi matrici non vengono calcolati usando il polinomio caratteristico: esistono infatti metodi numerici più veloci e sufficientemente stabili. Nel punto 1 dell'algoritmo è richiesta la scelta di una base. Basi diverse danno generalmente matrici diverse. I polinomi caratteristici che ne risultano sono però sempre gli stessi: il polinomio caratteristico dipende quindi soltanto dall'endomorfismo T (da cui l'aggettivo "caratteristico"). La dimostrazione di questo fatto poggia sul teorema di Binet. Proprietà per spazi finito-dimensionali Elenchiamo alcune proprietà importanti degli autovettori, nel caso finito-dimensionale. Indichiamo quindi con T un endomorfismo in uno spazio V di dimensione n su un campo K. Proprietà generali • Se v1, ..., vm sono autovettori con autovalori λ1, ..., λm, a due a due distinti, allora questi sono linearmente indipendenti. Esistenza di autovalori e autovettori • Il polinomio caratteristico di T ha grado n, e quindi ha al più n radici: segue che T ha al più n autovalori distinti. • Se K è algebricamente chiuso (ad esempio se K = C è il campo dei numeri complessi), allora il polinomio caratteristico ha sempre qualche radice: segue che T ha sempre qualche autovalore, e quindi qualche autovettore. Notiamo che questo è falso nel caso reale: le rotazioni descritte sopra non hanno autovettori. • Se la dimensione n di V è dispari, e K = R è il campo dei numeri reali, il polinomio caratteristico ha grado dispari, e quindi ha sempre almeno una radice reale: segue che ogni endomorfismo di R3 ha almeno un autovettore. Diagonalizzabilità Un endomorfismo T è diagonalizzabile se esiste una base di autovettori per T. La matrice associata a T in questa base è diagonale. Le matrici diagonali sono molto più semplici da trattare: questa è una delle motivazioni per lo studio degli autovettori di T. • Se il polinomio caratteristico di T non ha tutte le radici in K, allora T non è diagonalizzabile. Ad esempio, una rotazione ha un polinomio caratteristico di secondo grado con delta negativo e quindi non ha soluzioni reali: quindi non è diagonalizzabile. • Per il teorema spettrale, ogni endomorfismo di Rn dato da una matrice simmetrica è diagonalizzabile, ed ha una base di autovettori ortogonali fra loro. Tra questi rientra l'esempio in R3 mostrato sopra: i tre vettori ortogonali sono Per quanto detto prima, la trasformazione assume una forma molto semplice rispetto a questa base: ogni vettore x in R3 può essere scritto in modo unico come: e quindi abbiamo 75 Autovettore e autovalore • Se il polinomio caratteristico di T ha tutte le radici in K con molteplicità 1, allora T è diagonalizzabile. • Se il polinomio caratteristico di T ha tutte le radici in K, alcune delle quali con molteplicità maggiore di 1, non è necessariamente diagonalizzabile: ad esempio la matrice seguente, che rappresenta la trasformazione della Gioconda in Fig.1, ha come polinomio caratteristico (x-1)2 e non è diagonalizzabile (per ): Spazi di dimensione infinita In uno spazio di dimensione infinita la definizione di autovalore è identica al caso di dimensione finita. Tuttavia, Il polinomio caratteristico non è uno strumento disponibile in questo caso. Per questo ed altri motivi, si definisce come spettro l'insieme di quei valori λ per cui l'inverso dell'operatore (T - λ I) non è limitato; tale insieme è solitamente indicato con σ(T). A differenza del caso finito-dimensionale lo spettro e l'insieme degli autovalori, generalmente detto spettro puntuale, in generale non coincidono. Compito della teoria spettrale è l'estensione delle tecniche valide in dimensione finita nel caso in cui l'operatore T e lo spazio V abbiano delle buone proprietà. Seguono alcuni esempi classici. • Un operatore limitato su uno spazio di Banach V ha spettro compatto e non vuoto. • Un operatore compatto su uno spazio di Banach V ha spettro e spettro puntuale coincidenti a meno dello 0. Gli operatori compatti si comportano in modo molto simile agli operatori con immagine a dimensione finita. • Un operatore autoaggiunto su uno spazio di Hilbert H ha spettro reale. Tali operatori sono fondamentali nella teoria della meccanica quantistica. 76 Autovettore e autovalore 77 Applicazioni Operatori in meccanica quantistica Un esempio di operatore definito su uno spazio infinito-dimensionale è dato dall'operatore hamiltoniano indipendente dal tempo in meccanica quantistica: Fig. 4. Le funzioni d'onda associate agli stati di un elettrone in un atomo d'idrogeno sono gli autovettori sia della Hamiltoniana dell'atomo di idrogeno che del momento angolare. Gli autovalori associati sono interpretati come le loro energie (crescenti dall'alto in basso n=1,2,3,...) e momenti angolari (crescenti da sinistra a destra: s, p, d,...). Sono disegnati qui i quadrati dei valori assoluti delle autofunzioni. Aree più luminose corrispondono a densità di probabilità maggiori per la posizione in una misurazione. Il centro di ogni figura è il nucleo dell'atomo, un protone. dove H è l'operatore che agendo sull'autovettore (o autoket) restituisce l'autovettore moltiplicato per l'autovalore E, che è interpretato come l'energia dello stato. Teniamo presente che H è un operatore hermitiano, per cui i suoi autostati formano una base ortonormale dello spazio degli stati e gli autovalori sono tutti reali. Proiettando sulla base della posizione otteniamo la rappresentazione tramite funzione d'onda: dove stavolta Hx indica l'operatore differenziale che rappresenta l'operatore astratto nella base della posizione mentre la funzione d'onda è l'autofunzione corrispondente all'autovalore E. Dati i postulati della meccanica quantistica gli stati accessibili ad un sistema sono vettori in uno spazio di Hilbert e quindi è definito un prodotto scalare fra di essi del tipo: . dove la stella * indica il passaggio alla complessa coniugata della funzione d'onda. Questo limita la possibilità di scelta dello spazio di Hilbert allo spazio delle funzioni a quadrato integrabile sul dominio scelto D, che può al limite essere tutto . La fig.4 qui a destra mostra le prime autofunzioni della Hamiltoniana dell'atomo di idrogeno. Autovettore e autovalore 78 Teoria dei numeri Lo studio degli autovalori di una matrice ha importanti applicazioni anche nella teoria dei numeri. In particolare, si congettura che alcune statistiche sugli zeri non banali della funzione zeta di Riemann, quali ad esempio quelle sulla distanza tra zeri consecutivi, siano le stesse di quelle relative alle matrici hermitiane aleatorie (rispetto alla Misura di Haar) di dimensione N al tendere di N all'infinito. Inoltre, è stato congetturato che anche la distribuzione dei valori della funzione zeta di Riemann sia ben approssimata, in media, dai valori assunti dal polinomio caratteristico di tali matrici. Analoghe considerazioni si possono fare su altre famiglie di funzioni speciali, quali ad esempio le funzioni L di Dirichlet, coinvolgendo anche altre famiglie di matrici aleatorie, come ad esempio le matrici simplettiche o ortogonali. Dacché un gran numero di statistiche sono molto più facili da calcolare all'interno della teoria delle matrici aleatorie che investigando direttamente queste funzioni speciali, questa connessione ha avuto come risultato un fiorire di una serie di nuove congetture in teoria dei numeri.[1] Autofacce Nella elaborazione digitale delle immagini, l'immagine di una faccia si associa ad un vettore le cui componenti rappresentano la luminosità dei singoli pixel. Gli autovettori di una particolare matrice, detta matrice di covarianza, sono chiamati autofacce. Essi sono molto utili per esprimere ogni faccia come una combinazione lineare di queste autofacce, e sono quindi anche un ottimo strumento di compressione dei dati per memorizzare ed identificare un alto numero di facce. Tensore d'inerzia In meccanica, gli autovettori del tensore di inerzia definiscono gli assi principali di un corpo rigido. Il tensore di inerzia è una quantità chiave, necessaria per determinare la rotazione di un corpo rigido intorno al suo baricentro. Gli autovettori del tensore delle deformazioni definiscono gli assi principali di deformazione di un corpo rigido Fig. 5. Le autofacce sono esempi di autovettori. Note [1] Jon Keating, L-functions and the Characteristic Polynomials of Random Matrices in Francesco Mezzadri e Nina Snaith (a cura di), Recent perspectives in random matrix theory and number theory (in inglese), Cambridge, Cambridge University Press, 2005, pp. 251-278. ISBN 978-0-521-62058-1 Bibliografia • • • • • • Marius Stoka, Corso di geometria, Cedam, ISBN 88-13-19192-8 Serge Lang (2002): Algebra, 3rd edition, Springer, ISBN 0-387-95835-X Serge Lang (2004): Linear Algebra, 3rd edition, Springer, ISBN 0-387-96412-6 Steven Roman (1992): Advanced Linear Algebra, Springer, ISBN 0-387-97837-2 Paul Richard Halmos (1993): Finite-dimensional Vector Spaces, Springer, ISBN 0-387-90093-3 Werner H. Greub (1981): Linear Algebra, Springer, 4th edition, ISBN 0-387-90110-8 • Jim Hefferon (2001): Linear Algebra, Online book (http://joshua.smcvt.edu/linearalgebra/), St Michael's College, Colchester, Vermont, USA Autovettore e autovalore 79 • Gene H. Golub, Charles F. van Loan (1996): Matrix computations, 3rd Edition, Johns Hopkins University Press, ISBN 0-8018-5414-9 • Nelson Dunford, Jacob Schwartz (1958): Linear Operator. Part I General Theory Wiley-Interscience, ISBN 0-471-60848-3 • V. G. Prikazchikov: Eigen values of differential operators, numerical methods accessibile (http://eom.springer. de/E/e035160.htm) in Encyclopaedia of Mathematics • A. B. Bakushinskii: Eigen values of integral operators, numerical methods accessibile (http://eom.springer.de/ E/e035170.htm) in Encyclopaedia of Mathematics • T. S. Pigolkina, V. S. Shul'man: Eigen vector accessibile (http://eom.springer.de/E/e035180.htm) in Encyclopaedia of Mathematics • Leonid Vital'evič Kantorovič, G. P. Akilov (1982): "Functional analysis", Pergamon Press Voci correlate • • • • Autofunzione Autostato Diagonalizzabilità Forma canonica di Jordan • • • • • Polinomio caratteristico Spazio vettoriale Teorema spettrale Teoremi di Gerschgorin Trasformazione lineare Collegamenti esterni • (EN) Eigenvector (http://mathworld.wolfram.com/Eigenvector.html) in MathWorld • (EN) Earliest Known Uses of Some of the Words of Mathematics: E - vedi eigenvector e termini correlati (http:// members.aol.com/jeff570/e.html) • (EN) Numerical solution of eigenvalue problems (http://www.cs.utk.edu/~dongarra/etemplates/index.html) Edited by Zhaojun Bai, James Demmel, Jack Dongarra, Axel Ruhe, Henk van der Vorst Calcolatrici in linea • Calculator for Eigenvalues (http://www.arndt-bruenner.de/mathe/scripts/engl_eigenwert.htm) nel sito di Arndt Brünner • Online Matrix Calculator (http://www.bluebit.gr/matrix-calculator/) presso BlueBit Software • Matrix calculator (http://wims.unice.fr/wims/wims.cgi?session=6S051ABAFA.2&+lang=en&+ module=tool/linear/matrix.en) in WIMS, WWW Interactive Multipurpose Server, presso l'Université Nice Sophia Antipolis Portale Fisica Portale Matematica Polinomio caratteristico 80 Polinomio caratteristico In matematica, e in particolare in algebra lineare, il polinomio caratteristico di una matrice quadrata A su un campo è un polinomio definito a partire da A che ne descrive molte proprietà essenziali. I suoi coefficienti codificano quantità importanti di A, quali la traccia e il determinante, mentre le sue radici sono gli autovalori di A. Il polinomio caratteristico fornisce molte informazioni sulla natura intrinseca delle trasformazioni lineari. Se la matrice A è matrice associata ad un endomorfismo T di uno spazio vettoriale V, il polinomio caratteristico dipende solo dalle proprietà intrinseche di T. I coefficienti del polinomio sono detti invarianti di T. Definizione Sia A una matrice quadrata a valori in un campo K. Il polinomio caratteristico di A nella variabile x è il polinomio definito nel modo seguente: , cioè è il determinante della matrice avente la stessa dimensione di , ottenuta sommando , e quindi e . Qui denota la matrice identità, è la matrice diagonale avente il valore su ciascuna delle n caselle della diagonale principale. Proprietà Sia una matrice quadrata con righe. Grado e coefficienti del polinomio Il polinomio caratteristico di ha grado . Alcuni dei suoi coefficienti sono (a meno di segno) quantità notevoli per la matrice, come la traccia ed il determinante: Ad esempio, se Se è una matrice 2 per 2 abbiamo è una matrice 3 per 3 abbiamo con dove è l'elemento di nella posizione In generale, il coefficiente di minori . del polinomio è la somma moltiplicata per "centrati" sulla diagonale. dei determinanti dei Polinomio caratteristico 81 Autovalori Le radici in K del polinomio caratteristico sono gli autovalori di . Questo si dimostra formalmente nel modo seguente: . Per il teorema di diagonalizzabilità, se ha radici distinte allora è diagonalizzabile. Per quanto detto sopra, in questo caso il determinante è proprio il prodotto degli n autovalori distinti. Va però notato che questa condizione non è necessaria per la diagonalizzabilità. Matrici particolari Se è una matrice triangolare (superiore o inferiore) avente i valori sulla diagonale principale, allora . Quindi il polinomio caratteristico di una matrice triangolare ha radici nel campo, date dai valori nella diagonale principale. In particolare, questo fatto è vero per le matrici diagonali. Invarianza per similitudine Due matrici simili hanno lo stesso polinomio caratteristico. Infatti se per qualche matrice invertibile , si ottiene In tale catena di uguaglianze si fa uso del fatto che la matrice della forma commuta con qualsiasi altra e del teorema di Binet. Poiché due matrici che rappresentano un endomorfismo di uno spazio vettoriale simili, il polinomio caratteristico è una grandezza intrinseca di a dimensione finita sono , che riassume molte delle caratteristiche intrinseche di un endomorfismo: traccia, determinante, autovalori. Invarianza per trasposizione La matrice trasposta ha lo stesso polinomio caratteristico di . Infatti Qui si fa uso del fatto che il determinante è invariante per trasposizione. Applicazioni Il polinomio caratteristico è usato soprattutto per determinare gli autovalori di una matrice. In altri casi, è anche usato come invariante, cioè come oggetto che dipende solo dalla classe di similitudine di una matrice. In questo contesto è utilizzato per determinare la forma canonica di luoghi geometrici esprimibili mediante matrici come coniche e quadriche. Polinomio caratteristico 82 Esempio • Data: allora e quindi Gli autovalori di A sono le radici del polinomio: 4 e 1. • Data: in modo analogo si trova Voci correlate • • • • Polinomio minimo Autovettore e autovalore Determinante Teorema di Hamilton-Cayley Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Teorema di Hamilton-Cayley Teorema di Hamilton-Cayley In matematica, e più precisamente in algebra lineare, il teorema di Hamilton-Cayley (così nominato in onore dei matematici William Hamilton e Arthur Cayley) asserisce che ogni trasformazione lineare di uno spazio vettoriale (o equivalentemente ogni matrice quadrata) è una radice del suo polinomio caratteristico, visto come polinomio a coefficienti numerici nell'anello delle trasformazioni lineari (o delle matrici quadrate). Più precisamente, se A è la trasformazione lineare nello spazio n-dimensionale (o, equivalentemente, una matrice n×n) e In è l'operatore identità (o, equivalentemente, la matrice identità), allora vale: Questo risultato implica che il polinomio minimo divide il polinomio caratteristico, ed è quindi utile per trovare la forma canonica di Jordan di una applicazione o matrice. Il teorema di Cayley–Hamilton vale anche per matrici quadrate su anelli commutativi. Polinomi, applicazioni e matrici Un endomorfismo di uno spazio vettoriale V su un campo K è una trasformazione lineare T:V → V. Gli endomorfismi con le operazioni di addizione, moltiplicazione per scalare e composizione formano una K-algebra, chiamata EndK(V) o più semplicemente End(V). Analogamente, le matrici quadrate con n righe a valori in K con le operazioni di somma, prodotto per scalare e prodotto formano una K-algebra, chiamata M(n, K) o più semplicemente M(n). Se V ha dimensione n, una base B per V trasforma ogni endomorfismo in una matrice, tramite un isomorfismo di algebre Consideriamo adesso un polinomio p(x) a coefficienti in K. Se a è un qualsiasi elemento di una K-algebra, definiamo l'elemento p(a) dell'algebra come quello ottenuto da a tramite le operazioni prescritte da p (somma, prodotto per scalare e fra elementi dell'algebra). In particolare, se T è un endomomorfismo allora p(T) è un endomomorfismo, e se A è una matrice allora p(A) è una matrice. Il teorema Il teorema di Hamilton-Cayley asserisce che: Se f è un endomorfismo di uno spazio vettoriale V a dimensione finita e p(x) è il suo polinomio caratteristico, allora p(f) = 0. Analogamente, se A è una matrice quadrata e p(x) il suo polinomio caratteristico, allora p(A) = 0. Esempio Consideriamo per esempio la matrice Il suo polinomio caratteristico è dato da Il teorema di Cayley–Hamilton sostiene che: il che si può facilmente verificare. 83 Teorema di Hamilton-Cayley 84 Applicazioni Diagonalizzabilità Il teorema introduce alla definizione di polinomio minimo, uno strumento molto potente per verificare se una matrice o applicazione è diagonalizzabile. Ad esempio, in questo modo si verifica rapidamente se una matrice A che soddisfa alcune relazioni polinomiali, quali A2 = In oppure A2 = A, è diagonalizzabile. Potenze di matrici Il teorema permette di calcolare potenze di matrici più semplicemente che con la moltiplicazione diretta. Ad esempio, usando il risultato precedente: si può calcolare A4 nel modo seguente: Dimostrazione Forniamo una dimostrazione analitica nel caso in cui K sia il campo dei numeri reali o complessi: sia A una matrice quadrata con n righe. Supponiamo inizialmente che A sia diagonalizzabile sul campo dei numeri complessi. Quindi A è simile a D, in altre parole esiste una matrice invertibile M tale che Le matrici D e A hanno lo stesso polinomio caratteristico, che si spezza come dove λ1, ..., λn sono gli autovalori di D (con molteplicità), presenti sulla diagonale di D. Qui è facile verificare che p(D) è il prodotto di matrici diagonali con zeri che variano sulla diagonale, e perciò è la matrice nulla. D'altra parte, si verifica che Abbiamo dimostrato il teorema per le matrici diagonalizzabili. L'insieme delle matrici diagonalizzabili su C formano un insieme denso nello spazio topologico delle matrici n per n in C. La funzione che associa ad una matrice A la matrice p(A) è continua. Una funzione continua che vale sempre zero su un denso vale zero ovunque, da cui la tesi. Nel caso di matrici su un campo estende per cominciare qualsiasi, si può ottenere una dimostrazione secondo la traccia seguente. Si alla sua chiusura algebrica . In la matrice ha dunque autovalori (contando le molteplicità), e può quindi essere messa in forma triangolare. Ora per le matrici triangolari il teorema è facilmente verificato, in modo simile a quanto appena visto per le matrici diagonali. Teorema di Hamilton-Cayley 85 Voci correlate • polinomio caratteristico • polinomio minimo • forma canonica di Jordan Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Diagonalizzabilità In matematica, e più precisamente in algebra lineare, una trasformazione lineare di uno spazio vettoriale di dimensione n (ad esempio, il piano o lo spazio euclideo) è diagonalizzabile o semplice[1] se esistono n "assi" passanti per l'origine che rimangono invariati nella trasformazione. Su ciascuno di questi assi, la trasformazione effettua una omotetia. Le trasformazioni diagonalizzabili sono importanti perché più facili da studiare: la trasformazione è infatti completamente nota quando si conosce il suo comportamento su questi assi. Ciascun vettore (diverso dall'origine) su uno di questi assi è un autovettore, ed il tipo di omotetia con cui viene trasformato l'asse è il suo autovalore. Il nome diagonalizzabile deriva dal fatto che una tale trasformazione, scritta rispetto ad una base contenuta negli assi, si scrive tramite una matrice diagonale. Esiste anche la nozione di matrice diagonalizzabile. Esempi informali La trasformazione del piano cartesiano che sposta ogni punto (x, y) nel punto (2x, -y) è diagonalizzabile. Infatti gli assi x e y rimangono invariati: l'asse x è espanso di un fattore 2, mentre l'asse y è ribaltato rispetto all'origine. Notiamo che nessuna altra retta passante per l'origine rimane invariata. Una rotazione oraria o antioraria del piano di 90 gradi intorno all'origine non è diagonalizzabile, perché nessun asse viene fissato. Definizioni Un endomorfismo T di uno spazio vettoriale V, cioè una trasformazione lineare T:V → V, è diagonalizzabile se esiste una base di V fatta di autovettori per T. Una matrice quadrata è diagonalizzabile se è simile ad una matrice diagonale, ovvero se valgono le condizioni seguenti: 1. tutte le radici del polinomio caratteristico stanno nello stesso campo K; 2. per ogni si ha che (cioè ), dove è la dimensione del sottospazio mentre è la dimensione dello spazio . Ricordiamo che, fissata una base B per V, ogni endomorfismo T si descrive come una matrice, detta matrice associata a T rispetto a B. Le seguenti affermazioni sono equivalenti (cioè sono connesse dalla doppia implicazione): 1. una trasformazione T è diagonalizzabile; 2. esiste una base B tale che la matrice associata a T rispetto a B è diagonale; 3. la matrice associata a T rispetto a qualsiasi base B è diagonalizzabile. L'equivalenza discende dalle seguenti proprietà: • la matrice associata a T rispetto ad una base B è diagonale se e solo se tutti gli elementi di B sono autovettori per T; • due matrici quadrate sono associate alla stessa applicazione T rispetto a basi diverse se e solo se sono simili. Diagonalizzabilità 86 Algoritmo Generalmente, per vedere se una applicazione è diagonalizzabile si studia la diagonalizzabilità della sua matrice associata A nei riferimenti dello spazio di partenza e di quello di arrivo. Si procede, pertanto, calcolandone il polinomio caratteristico, gli autovalori con la loro molteplicità e quindi applicando il teorema di diagonalizzabilità. Elenchiamo qui due situazioni in cui è più facile dare una risposta: 1. se il polinomio caratteristico ha n radici distinte (ciascuna con molteplicità algebrica 1), la matrice è diagonalizzabile; 2. se la somma delle molteplicità algebriche delle radici del polinomio caratteristico è minore di n, allora la matrice non è diagonalizzabile. Nel caso più complesso in cui la somma delle molteplicità è n, ma ci sono radici multiple, la matrice può essere diagonalizzabile o no, e per avere una risposta si devono fare dei calcoli ulteriori: si veda il teorema di diagonalizzabilità. Ricordiamo i fatti seguenti: • il polinomio caratteristico ha grado n, • la somma delle molteplicità delle radici di un polinomio di grado n è minore o uguale ad n; è proprio n se e solo se il polinomio si fattorizza in polinomi di primo grado, cioè si scrive come e in questo caso le radici sono a1, ..., an, e la molteplicità di ciascuna è il numero di volte in cui compare. • se V è uno spazio vettoriale sul campo dei numeri reali (ad esempio, se V è il piano o un qualsiasi spazio euclideo), la somma delle molteplicità delle radici di p(x) è n se e solo se p non ha radici complesse non reali. Esempi Esempio di calcolo Consideriamo la matrice Il polinomio caratteristico è: che si annulla per gli autovalori Quindi ha 3 autovalori distinti. Per il primo criterio esposto precedentemente, la matrice è diagonalizzabile. Se si è interessati a trovare esplicitamente una base di autovettori, dobbiamo fare del lavoro ulteriore: per ogni autovalore, si imposta l'equazione: e si risolve cercando i valori del vettore che la soddisfano, sostituendo volta per volta i tre autovalori precedentemente calcolati. Una base di autovettori per esempio è data da: Si vede facilmente che sono indipendenti, quindi formano una base, e che sono autovettori, infatti . Diagonalizzabilità 87 Possiamo scrivere esplicitamente la matrice di cambiamento di base incolonnando i vettori trovati: Quindi la matrice invertibile P diagonalizza A, come si verifica calcolando: La matrice finale deve essere diagonale e contenere gli autovalori, ciascuno con la sua molteplicità. Numeri complessi Se il campo su cui lavoriamo è quello dei numeri complessi, una matrice n per n ha n autovalori (contando ciascuno con la relativa molteplicità, per il teorema fondamentale dell'algebra). Se le molteplicità sono tutte 1, la matrice è diagonalizzabile. Altrimenti, dipende. Un esempio di matrice complessa non diagonalizzabile è descritto sotto. Il fatto che vi siano comunque n autovalori implica che è sempre possibile ridurre una matrice complessa ad una forma triangolare: questa proprietà, più debole della diagonalizzabilità, è detta triangolabilità. Numeri reali Sui numeri reali le cose cambiano, perché la somma delle molteplicità di un polinomio di grado n può essere inferiore a n. Ad esempio la matrice non ha autovalori, perché il suo polinomio caratteristico nessuna matrice reale Q tale che non ha radici reali. Quindi non esiste sia diagonale! D'altro canto, la stessa matrice B vista con i numeri complessi ha due autovalori distinti i e -i, e quindi è diagonalizzabile. Infatti prendendo troviamo che è diagonale. La matrice considerata sui reali invece non è neppure triangolabile. Ci sono anche matrici che non sono diagonalizzabili né sui reali né sui complessi. Questo accade in alcuni casi, in cui ci sono degli autovalori con molteplicità maggiore di uno. Ad esempio, consideriamo Questa matrice non è diagonalizzabile: ha 0 come unico autovalore con molteplicità 2, e se fosse diagonalizzabile sarebbe simile alla matrice nulla, cosa impossibile a prescindere dal campo reale o complesso. Diagonalizzabilità 88 Voci correlate • • • • polinomio caratteristico autovettore e autovalore teorema spettrale forma canonica di Jordan Note [1] Il termine "semplice" è usato ad esempio in Elementi di Algebra Lineare e Geometria Analitica, di Odetti - Raimondo, 2ª edizione novembre 1992, pag. 246, ed. ECIG, ISBN 88-7545-717-4. Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Forma canonica di Jordan In matematica, più precisamente in algebra lineare, la forma canonica di Jordan di una matrice quadrata A definisce una matrice triangolare J simile ad A che ha una struttura il più possibile vicina ad una matrice diagonale. La matrice è diagonale se e solo se A è diagonalizzabile, altrimenti è divisa in blocchi detti blocchi di Jordan. La forma canonica caratterizza univocamente la classe di similitudine di una matrice. In altre parole, due matrici sono simili se e solo se hanno la stessa forma di Jordan (a meno di permutazione dei blocchi). Il nome è dovuto al matematico francese Camille Jordan che si è occupato di matrici diagonalizzabili. Definizione Blocco di Jordan Un blocco di Jordan di ordine k è una matrice triangolare superiore con k righe costituita nel seguente modo: in cui ogni elemento della diagonale è uguale a caratteristico è l'autospazio relativo a , e quindi ha ed in ogni posizione (i, i+1) si trova un 1. Il suo polinomio come unico autovalore con la molteplicità algebrica k. D'altra parte, è: avente, quindi, dimensione 1. Dal teorema di diagonalizzabilità segue che se k>1 il blocco di Jordan non è diagonalizzabile. Forma canonica di Jordan 89 Matrice di Jordan Una matrice di Jordan è una matrice a blocchi del tipo dove Ji è un blocco di Jordan con autovalore λi. Ogni blocco di Jordan contribuisce con un autospazio unidimensionale relativo a λi. Come sopra, si vede che la molteplicità geometrica di λi, definita come la dimensione del relativo autospazio, è pari al numero di blocchi con autovalore λi. D'altra parte, la molteplicità algebrica di λi, definita come la molteplicità della radice λi nel polinomio caratteristico di J, è pari alla somma degli ordini di tutti i blocchi con autovalore λi. In questo contesto, il teorema di diagonalizzabilità asserisce, quindi, che J è diagonalizzabile se e solo se le molteplicità algebriche e geometriche coincidono, ovvero se e solo se i blocchi hanno tutti ordine pari ad 1: in altre parole, J è diagonalizzabile se e solo se è già diagonale. Teorema di Jordan Diciamo che una matrice quadrata A con elementi in un campo K ha "tutti gli autovalori nel campo" se la somma delle molteplicità algebriche dei suoi autovalori è pari al numero di righe di A. Questo equivale a dire che il suo polinomio caratteristico ha "tutte le radici nel campo", cioè che si spezza come prodotto di polinomi di primo grado. Questo è sempre vero se K è algebricamente chiuso, ad esempio se K = C è il campo dei numeri complessi. Il teorema di Jordan asserisce che ogni matrice ha una "forma canonica di Jordan", e che due matrici sono simili se e solo se hanno la stessa forma canonica: Sia A una matrice quadrata con elementi in K, avente tutti gli autovalori nel campo. Allora A è simile ad una matrice di Jordan. Due matrici di Jordan J e J' sono simili se e solo se si ottengono l'una dall'altra permutando i blocchi. Esempi Calcoliamo la forma canonica di Jordan della matrice Il suo polinomio caratteristico è , quindi i suoi autovalori sono 4, 4, 2 e 1. Ricordiamo che, se indichiamo con malg(λ) e mgeo(λ) le molteplicità algebrica e geometrica di un autovalore λ, valgono sempre le seguenti disuguaglianze: Quindi in questo caso le molteplicità algebriche e geometriche degli autovalori 2 e 1 sono tutte 1, e l'unica grandezza da trovare è la molteplicità geometrica di 4, che può essere 1 o 2. La molteplicità geometrica di un autovalore indica il numero di blocchi di jordan presenti relativi a quell'autovalore. Vediamo che Segue quindi che A non è diagonalizzabile, e l'autovalore 4 ha un solo blocco di Jordan. I dati che abbiamo sono sufficienti a determinare la matrice di Jordan, che è la seguente: Forma canonica di Jordan 90 Proprietà Polinomio minimo Il polinomio minimo m(x) di una matrice A è calcolabile a partire dalla sua forma di Jordan J. Infatti si decompone come dove λ1, ..., λk sono gli autovalori (distinti, cioè elencati senza molteplicità) di A, e ji è l'ordine del blocco di Jordan più grande fra tutti quelli relativi all'autovalore λi. Ad esempio, la seguente matrice ha come polinomio caratteristico e come polinomio minimo. Usando il teorema di Jordan e la decomposizione del polinomio minimo enunciata, si ha che le due matrici seguenti hanno gli stessi polinomi caratteristici (e quindi anche lo stesso determinante, la stessa traccia e gli stessi autovalori), gli stessi polinomi minimi, ma non sono simili: Voci correlate • • • • autovettore e autovalore diagonalizzabilità polinomio caratteristico polinomio minimo Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Matrice esponenziale 91 Matrice esponenziale In matematica, più precisamente in algebra lineare, la matrice esponenziale (o esponenziale di matrice) è una funzione analoga alla funzione esponenziale. La matrice esponenziale viene utilizzata nella risoluzione dei sistemi lineari di equazioni differenziali. Ha quindi un'importante applicazione nella teoria dei sistemi e nella teoria dei controlli automatici. Definizione Sia A una matrice quadrata è una matrice quadrata a coefficienti reali o complessi. La matrice esponenziale di A, indicata con , ottenuta con lo sviluppo in serie di potenze Questa serie è sempre convergente, quindi la matrice esponenziale è ben definita. Si nota che se A è una matrice (quindi A è un numero reale o complesso), la serie della matrice esponenziale corrisponde alla definizione formale della funzione esponenziale. Proprietà Siano X e Y due matrici complesse di dimensione e siano a e b due numeri complessi. Si indica la matrice identità con I e la matrice nulla con 0. La matrice esponenziale soddisfa le seguenti proprietà: • . • • • Se . . • Se è invertibile allora , allora . . • • , dove indica la matrice trasposta di X. Ne segue che se X è una matrice simmetrica allora è simmetrica; inoltre se X è una Matrice antisimmetrica allora è una matrice ortogonale. , dove indica la matrice trasposta coniugata di X. Ne segue che se X è una matrice hermitiana • allora è una matrice hermitiana; inoltre se X è una matrice antihermitiana allora è la matrice unitaria. Calcolo della matrice esponenziale Per il calcolo della matrice esponenziale non viene utilizzata la serie di potenze dato che è costituita da una sommatoria di infiniti addendi. Utilizzando gli autovettori si ricava una serie con un numero finito di termini. Considerando la diagonalizzabilità della matrice A si hanno due casi distinti. Il caso di A diagonalizzabile Se la matrice A è diagonalizzabile significa che ha n autovettori linearmente indipendenti quindi scrivere Con autovettore associato all'autovalore . . Si può Matrice esponenziale 92 Si raggruppano tutti gli autovettori in un'unica matrice Ponendo la matrice formata dagli autovettori pari a T e la matrice diagonale degli autovalori pari a si ottiene Introducendo la matrice S, inversa di T, si ottengono le seguenti relazioni Dalla seconda relazione si ricava Quindi Si calcola Si considera ora l'ultima relazione precedentemente ricavata e si applica la trasposta Si può quindi scrivere Si nota quindi che gli In questo modo si ottiene sono autovettori sinistri di A. Si può quindi partizionare la matrice S per righe Matrice esponenziale 93 In conclusione, nel caso A sia diagonalizzabile, si ha con autovettore destro e autovettore sinistro, entrambi associati all'autovalore Il caso di A non diagonalizzabile Se A non è diagonalizzabile si ricorre alla forma di Jordan. In questo caso si ha , con J matrice diagonale a blocchi dove il k-esimo blocco è della forma Le matrici vengono detti blocchi di Jordan. Utilizzando il procedimento seguito nel caso di A diagonalizzabile si ottiene dove Si nota che il prodotto delle matrici e è commutativo. Si può quindi scrivere Si calcola ora Si verifica facilmente che si calcola spostando in alto e a destra la diagonale formata dagli 1 Matrice esponenziale Dove 94 è la dimensione di . Per potenze superiori a Quindi il k-esimo blocco di ha la seguente espressione si ha la matrice nulla. Quindi Inoltre La matrice esponenziale vale dove e . T non è costituita dagli autovettori di A. Il calcolo della matrice di trasformazione T è più complesso rispetto al caso di A diagonalizzabile. Voci correlate • Serie esponenziale • Esponenziale di un operatore Collegamenti esterni • Esercizio svolto sulla forma canonica di Jordan [1] • Esercizi sulla forma di Jordan e sull’esponenziale di matrice [2] Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Matrice esponenziale Note [1] http:/ / www. mat. uniroma2. it/ ~tovena/ esjordan. pdf [2] http:/ / www. ce. unipr. it/ automatica/ mat_did/ ca/ jordan14-04-02. pdf Sistema di equazioni lineari In matematica, e più precisamente in algebra lineare, una equazione lineare è una equazione di primo grado con un certo numero di incognite. Un sistema di equazioni lineari (o sistema lineare) è un insieme di equazioni lineari, che devono essere verificate tutte contemporaneamente: in altre parole, una soluzione del sistema è tale se è soluzione di tutte le equazioni. La soluzione è, quindi, l'insieme di valori x1 … xn che, sostituiti alle incognite, rende le equazioni delle identità. Definizione Un sistema di equazioni lineari è dato da un certo numero m di equazioni lineari in n incognite (il numero n delle incognite è detto anche ordine del sistema), e può essere scritto nel modo seguente: dove x1, ... ,xn sono le incognite e i numeri aij, detti i coefficienti, sono elementi di un campo, ad esempio dei numeri reali o complessi. Anche i termini noti bi sono elementi del campo. Una n-pla (x1, ... ,xn) di elementi nel campo è una soluzione se soddisfa tutte le m equazioni. Usando le matrici ed il prodotto fra matrici e vettori si possono separare agevolmente i coefficienti, le incognite ed i termini noti del sistema, e scriverlo nel modo seguente: In modo molto più stringato, si scrive Ax = b, dove A è la matrice m x n dei coefficienti, x è il vettore delle n incognite e b è il vettore degli m termini noti. Caratteristiche In generale, il grado di un sistema di equazioni polinomiali è definito come il prodotto dei gradi delle equazioni che lo compongono. Quindi un sistema lineare è un sistema polinomiale di primo grado. Generalmente, un sistema può essere: • • • • • • Determinato: quando ha una sola soluzione. Impossibile: quando non ha nessuna soluzione. Indeterminato: quando ha infinite soluzioni. Numerico: quando le soluzioni sono rappresentate da numeri. Letterale: quando le soluzioni sono rappresentate da espressioni letterali. Omogeneo: quando i termini noti sono tutti zero. 95 Sistema di equazioni lineari 96 Due sistemi sono equivalenti quando hanno lo stesso insieme di soluzioni. Esempi Gli esempi seguenti sono tutti sul campo dei numeri reali. Il sistema: ha una sola soluzione, data dal vettore . Invece il sistema: non ha soluzioni. Cambiando i termini noti nel modo seguente: si ottiene invece un sistema con un numero infinito di soluzioni, del tipo al variare del parametro t in R. Proprietà Gli esempi appena mostrati elencano le tre casistiche possibili. Infatti, se il campo è infinito (e i numeri reali o complessi sono infiniti), ci sono tre possibilità: • esiste una sola soluzione • non ci sono soluzioni • ci sono infinite soluzioni Il teorema che asserisce questo fatto e che permette di stabilire se e quante soluzioni esistono senza risolvere il sistema è il teorema di Rouché-Capelli. Nel caso in cui esistano soluzioni, queste formano un sottospazio affine di Kn. Sistema di equazioni lineari omogeneo Un sistema lineare omogeneo è un sistema i cui termini noti sono tutti nulli: Un sistema di questo tipo ammette sempre la soluzione Per il teorema di Rouché-Capelli, tale soluzione è unica se e solo se il rango rk( Altrimenti esistono infinite soluzioni (se il campo avente come dimensione la nullitá ) della matrice è è infinito), e queste formano un sottospazio vettoriale di della matrice. . , Sistema di equazioni lineari 97 Voci correlate • • • • • • Sistema di equazioni Sistema non lineare Teorema di Rouché-Capelli Rango Regola di Cramer Principio di sovrapposizione Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Teorema di Rouché-Capelli Il teorema di Rouché-Capelli è un teorema di algebra lineare che permette di calcolare il numero di soluzioni di un sistema di equazioni lineari in funzione del rango di alcune matrici. Prende il nome dal matematico francese Eugène Rouché, suo ideatore, e dal matematico italiano Alfredo Capelli, che lo riscrisse in maniera più semplice. Il teorema Un sistema di equazioni lineari: può essere descritto usando la matrice detta matrice associata al sistema; essa è ottenuta dalla giustapposizione della matrice dei coefficienti: e di un'ulteriore colonna: detta colonna dei termini noti. Le matrici e sono dette rispettivamente incompleta (o dei coefficienti) e completa (o orlata). I coefficienti del sistema lineare (e quindi delle matrici) sono elementi di un campo numeri reali o complessi Rouché-Capelli è il seguente: . Indichiamo con il rango di una matrice , quale ad esempio quello dei . L'enunciato del teorema di Teorema di Rouché-Capelli 98 Esistono soluzioni per il sistema se e solo se il rango della matrice completa è uguale al rango della matrice incompleta. Se esistono soluzioni, queste formano un sottospazio affine di campo di dimensione . In particolare, se il è infinito abbiamo: • se allora la soluzione è unica, • altrimenti ci sono infinite soluzioni. Gradi di libertà Informalmente, il fatto che le soluzioni formano un sottospazio affine di dimensione che queste hanno " equivale al fatto gradi di libertà". Alcuni testi sintetizzano questo fatto asserendo che "ci sono soluzioni". Questa notazione, benché intuitivamente utile, è però errata da un punto di vista matematico, perché lascia intendere che la cardinalità dell'insieme dipenda dalla dimensione è sempre la stessa (se è un campo infinito, gli insiemi e : in realtà la cardinalità contengono lo stesso numero di elementi), mentre quello che varia è la dimensione dell'oggetto (informalmente, il numero di gradi di libertà). Dimostrazione Esistenza Il sistema può essere descritto in modo più stringato, introducendo il vettore delle coordinate ed usando il prodotto fra matrici e vettori, nel modo seguente: In altre parole, è l'immagine del vettore ottenuta mediante l'applicazione lineare Quindi il sistema ammette soluzione se e solo se è nell'immagine di è l'immagine di un qualche vettore . D'altro canto, l'immagine di è nell'immagine se e solo se lo span delle colonne di uguale allo span delle colonne di di , in altre parole se è generata dai vettori dati dalle colonne di contiene . Quindi , cioè se e solo se lo span delle colonne di è . Quest'ultima affermazione è equivalente a chiedere che le due matrici abbiano lo stesso rango. Sottospazio affine Se esiste una soluzione , ogni altra soluzione si scrive come , dove è una soluzione del sistema lineare omogeneo associato: Infatti: Le soluzioni del sistema lineare omogeneo associato sono semplicemente il nucleo dell'applicazione teorema della dimensione, il nucleo è un sottospazio vettoriale di dimensione soluzioni, ottenuto traslando il nucleo con il vettore . Per il ). Quindi lo spazio delle , è un sottospazio affine della stessa dimensione. Teorema di Rouché-Capelli 99 Esempi Il sistema seguente non ha soluzioni, perché la matrice incompleta ha rango 2, mentre la completa ha rango 3. Il sistema seguente ha soluzioni, perché le matrici incompleta e completa hanno entrambe rango 2. La soluzione è unica perché le variabili sono 2, ed è il vettore . Voci correlate • Teorema della dimensione Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Regola di Cramer La regola di Cramer è un teorema di algebra lineare, che prende il nome dal matematico Gabriel Cramer, utile per risolvere un sistema di equazioni lineari usando il determinante, nel caso in cui il sistema abbia esattamente una soluzione. Nel calcolo, è generalmente inefficiente e per questo non viene utilizzato nelle applicazioni pratiche in presenza di molte equazioni. Tuttavia, è di importanza teorica in quanto dà un'espressione esplicita per la soluzione del sistema. La regola Un sistema di equazioni lineari può essere rappresentato usando moltiplicazione fra matrici come: dove è una matrice e sono due vettori. Se A è una matrice quadrata (cioè il numero di incognite del sistema è pari al numero di equazioni) ed è anche invertibile (determinante diverso da zero cioè rango della matrice uguale al numero di incognite), il teorema di Rouché-Capelli asserisce che il sistema ha esattamente una soluzione. In questo caso, la regola di Cramer fornisce un algoritmo per calcolare la soluzione usando il determinante nel modo seguente: dove è la matrice formata sostituendo la iesima colonna di invertibilità di A garantisce che il denominatore abbia sempre senso. con il vettore . Notiamo che la condizione di sia diverso da zero, e quindi che l'espressione descritta Regola di Cramer 100 Dimostrazione La dimostrazione tiene conto di due proprietà dei determinanti: • Se si somma una colonna a un'altra, il valore del determinante non cambia; • Se si moltiplica ogni elemento di una colonna per un certo fattore, il determinante risulterà moltiplicato di altrettanto. Dato un sistema di n equazioni lineari in n variabili La regola di Cramer fornisce, per il valore di : , l'espressione: che può essere verificata adoperando le suddette proprietà del determinante. Infatti, stando al sistema, il quoziente riportato è equivalente a: Sottraendo dalla prima colonna la seconda moltiplicata per colonna moltiplicata per , si ottiene l'espressione: , la terza colonna moltiplicata per , e, stando alla seconda proprietà del determinante, questo equivale a: ecc., e la n-sima Regola di Cramer 101 . Allo stesso modo, se la colonna di b si trova al posto della k-sima colonna della matrice del sistema di equazioni, il risultato sarà uguale a . Pertanto si ottiene: Esempio Due per due Un sistema con 2 equazioni e 2 incognite: espresso in forma matriciale come ha un'unica soluzione se e solo se il determinante di è diverso da zero. In questo caso, la soluzione è data da Regola di Cramer 102 Tre per tre Analogamente, un sistema con 3 equazioni e 3 incognite può essere scritto come prodotto fra matrici e vettori nel modo seguente Se la matrice ha determinante diverso da zero, il sistema ha una sola soluzione data da Applicazioni alla geometria differenziale La regola di Cramer è estremamente utile per scrivere delle formule in geometria differenziale. Ad esempio, date due equazioni in quattro variabili, due delle quali dipendono dalle altre nel modo seguente è possibile calcolare (ipotizzando che tutte queste funzioni siano sufficientemente derivabili) usando la regola di Cramer, nel modo seguente. Prima si calcolino le prime derivate di F, G, x ed y. Sostituendo dx, dy in dF e in dG, abbiamo: Poiché u, v sono entrambe indipendenti, i coefficienti di du, dv devono essere zero. Così possiamo scrivere le equazioni per i coefficienti: Regola di Cramer 103 Ora, dalla regola di Cramer, vediamo che: Questa è ora una formula in termini di due Jacobiane: Formule simili possono essere derivate per , , . Voci correlate • Sistema di equazioni lineari • Determinante Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Spazio affine 104 Spazio affine Lo spazio affine è una struttura matematica strettamente collegata a quella di spazio vettoriale. Intuitivamente, uno spazio affine si ottiene da uno spazio vettoriale facendo in modo che tra i suoi punti non ve ne sia uno, l'origine, "centrale" e "privilegiato" rispetto agli altri. Lo spazio affine tridimensionale è lo strumento naturale per modellizzare lo spazio della fisica classica, le cui leggi sono infatti indipendenti dalla scelta di un sistema di riferimento. Come gli spazi vettoriali, gli spazi affini vengono studiati con gli strumenti dell'algebra lineare. Definizione La nozione di spazio affine può essere definita in molti modi equivalenti. Una possibile definizione è la seguente. Uno spazio affine è un insieme di elementi chiamati punti affini (o semplicemente punti) dotato di una funzione a valori in uno spazio vettoriale su un campo che soddisfi i requisiti seguenti: 1. per ogni punto fissato, la mappa che associa a il vettore 2. per ogni terna di punti , , vale la relazione L'immagine è chiamata vettore applicato da o, più brevemente, con in è una biiezione da in ; ed è indicata generalmente con il simbolo seguente . Definizione alternativa La definizione seguente è equivalente alla precedente. Uno spazio affine dove è un insieme dotato di una funzione è uno spazio vettoriale su un campo , generalmente indicata con il segno + nel modo seguente tale che 1. per ogni punto 2. per ogni punto fissato, la mappa che associa al vettore il punto è una biiezione da in e ogni coppia di vettori in vale la relazione in ; Le due definizoni sono collegate dalla relazione Due elementi di questa relazione determinano il terzo. Ad esempio, a , mentre è l'unico vettore che "collega" i due punti e è il punto raggiunto applicando il vettore . Spazio affine 105 Esempi Spazio vettoriale Ogni spazio vettoriale è uno spazio affine, avente come spazio vettoriale associato stesso. La mappa è definita come mentre la funzione è la semplice somma fra vettori in . Sottospazi affini Definizione Un sottospazio affine dove di è un sottoinsieme del tipo è un punto fissato, che risulta appartenere al sottospazio. Giacitura Lo stesso sottospazio può essere definito in varie forme diverse come rappresentazioni, può variare (può essere un punto qualsiasi di sono "punti privilegiati"), ma . In tutte queste , a conferma che in geometria affine non ci risulta essere sempre lo stesso: questo sottospazio di è chiamato giacitura di . La giacitura è definita intrinsecamente come La dimensione di è definita come la dimensione di . Sottospazio generato Il sottospazio affine generato da alcuni punti in è il più piccolo sottospazio che li contiene. Sottospazi affini in spazi vettoriali Per quanto detto sopra, uno spazio vettoriale sottospazio affine di vettoriale è anche affine, e quindi abbiamo definito anche la nozione di : in questo caso, un sottospazio affine è il risultato di una traslazione di un sottospazio lungo il vettore . Relazioni Due sottospazi affini sono detti: • • • • incidenti quando hanno intersezione non vuota, paralleli quando una delle due giaciture è contenuta nell'altra, sghembi quando l'intersezione è vuota e le due giaciture si intersecano solo nell'origine, esiste un altro caso che si presenta solo in spazi affini di dimensione 4 o superiore, ovvero quando i due sottospazi hanno intersezione vuota, nessuna delle due giaciture è contenuta nell'altra ma queste si intersecano in un sottospazio più grande dell'origine. Per i sottospazi affini non vale la formula di Grassmann: questo è il prezzo da pagare per aver liberato i sottospazi dalla costrizione di passare per un punto privilegiato. La geometria proiettiva risolve questo problema (cioè recupera la formula di Grasmann) aggiungendo allo spazio dei "punti all'infinito". Spazio affine 106 Voci correlate • Geometria affine • Sottospazi affini • Trasformazione affine Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Sottospazio affine In matematica, un sottospazio affine è un sottoinsieme di uno spazio affine avente proprietà tali da farne a sua volta un altro spazio affine. Esempi di sottospazi affini sono i punti, le rette e i piani nell'ordinario spazio euclideo tridimensionale. I sottospazi affini si distinguono dai sottospazi vettoriali per il fatto che non sono forzati a passare per un punto fissato (l'origine dello spazio vettoriale). A differenza dei sottospazi vettoriali, i sottospazi affini possono quindi non intersecarsi ed essere ad esempio paralleli. Questa maggiore libertà ha però una controparte: per i sottospazi affini non vale la formula di Grassmann. I sottospazi affini sono strettamente correlati ai sistemi lineari: l'insieme delle soluzione di un sistema lineare è in effetti uno spazio affine. Definizione In uno spazio vettoriale Un sottospazio affine di uno spazio vettoriale dove è un punto fissato di sottospazio traslato del vettore e è un sottoinsieme del tipo è un sottospazio vettoriale fissato di . Si tratta in altre parole del . In uno spazio affine La definizione all'interno di uno spazio affine è analoga. Sia uno spazio vettoriale è dotato di e di una funzione che viene solitamente indicata con il simbolo "+", quindi sottoinsieme uno spazio affine. Più precisamente, . Un sottospazio affine di è un del tipo La definizione appena data è più generale della precedente, perché ogni spazio vettoriale può essere considerato come spazio affine con , in cui la funzione è l'usuale somma fra vettori. Sottospazio affine 107 Proprietà In uno spazio affine l'unico vettore in , dati due punti di si indica con tale che Giacitura Lo stesso sottospazio può essere definito in varie forme diverse come rappresentazioni, il punto può variare (può essere un punto qualsiasi di non ci sono "punti privilegiati"), ma giacitura di . In tutte queste , a conferma che in geometria affine risulta essere sempre lo stesso: questo sottospazio di è chiamato . La giacitura è infatti definita intrinsecamente come La dimensione di è definita come la dimensione di . Quando la dimensione è 1 o 2 si parla di retta affine o piano affine. Quando la dimensione è pari alla dimensione di meno uno, si parla di iperpiano affine. Sottospazio generato Il sottospazio affine generato da un sottoinsieme del piano affine è il più piccolo sottospazio che contiene (equivalentemente, è l'intersezione di tutti i sottospazi affini che contengono Ad esempio, punti in generano un sottospazio del sottospazio è minore o uguale di : quando è precisamente ). Viene indicato con . . In questo caso la dimensione i punti sono detti affinemente indipendenti. Esempi Nello spazio euclideo tridimensionale Retta affine Sia lo spazio euclideo tridimensionale. Fissato un punto , una retta affine passante per è l'insieme dei punti: dove è un vettore fissato, detto vettore direzione della retta. La giacitura è qui la retta generata da . La stessa retta affine suo multiplo avente . può essere rappresentata sostituendo il vettore direzione con un qualsiasi Sottospazio affine 108 Piano affine Analogamente, un piano affine passante per dove e è del tipo: sono due vettori linearmente indipendenti. Soluzioni di sistemi lineari Negli esempi precedenti, i sottospazi sono definiti tramite l'ausilio di parametri e : le equazioni che li descrivono sono per questo dette parametriche. Un sottospazio affine in uno spazio euclideo (o in un più generale spazio vettoriale ) è anche descrivibile in forma più implicita, come spazio di soluzioni di un sistema lineare. Vale cioè il fatto seguente: Lo spazio delle soluzioni di un sistema lineare con D'altro canto, ogni sottospazio affine in incognite a coefficienti in è un sottospazio affine di . è lo spazio di soluzioni di un sistema lineare. Un sottospazio affine determinato come spazio di soluzioni di un sistema lineare è descritto in forma cartesiana. I coefficienti del sistema lineare formano una matrice, e la dimensione del sottospazio è collegata al rango di questa tramite il teorema di Rouché-Capelli. Ad esempio, una singola equazione descrive un iperpiano in . In particolare, questo è una retta nel piano se . Una retta nello spazio ed un piano nello spazio se può essere descritta da due equazioni Equazioni parametriche e cartesiane Come mostrato negli esempi precedenti, i sottospazi di uno spazio affine possono essere descritti in forma parametrica o cartesiana. Il passaggio da una rappresentazione all'altra può essere svolto nel modo seguente. Da cartesiana a parametrica Il passaggio da cartesiana a parametrica consiste nella risoluzione del sistema lineare. Questa può essere fatta tramite l'algoritmo di Gauss. Da parametrica a cartesiana Il passaggio da parametrica a cartesiana consiste nel determinare equazioni che descrivono il sottospazio. Questo può essere fatto scrivendo delle condizioni che un punto deve soddisfare per appartenere al sottospazio. Ad esempio, se è descritto come dove i vettori formano una base della giacitura , un punto e solo se il vettore appartiene alla giacitura. Questo accade precisamente quando la matrice appartiene a se Sottospazio affine 109 avente come primi vettori colonna la base di ha rango pari a . Quest'ultima condizione può essere espressa come l'annullamento dei determinanti di tutti i minori di ordine . Ciascuno di questi determinanti fornisce una equazione lineare nelle variabili ; queste equazioni lineari insieme formano un sistema lineare che descrive il sottospazio in forma cartesiana. Relazioni fra sottospazi Due sottospazi affini sono detti: • • • • incidenti quando hanno intersezione non vuota, paralleli quando una delle due giaciture è contenuta nell'altra, sghembi quando l'intersezione è vuota e le due giaciture si intersecano solo nell'origine, esiste un altro caso che si presenta solo in spazi affini di dimensione 4 o superiore, ovvero quando i due sottospazi hanno intersezione vuota, nessuna delle due giaciture è contenuta nell'altra ma queste si intersecano in un sottospazio più grande dell'origine. Per i sottospazi affini non vale la formula di Grassmann: questo è il prezzo da pagare per aver liberato i sottospazi dalla costrizione di passare per un punto privilegiato. La geometria proiettiva risolve questo problema (cioè recupera la formula di Grasmann) aggiungendo allo spazio affine dei "punti all'infinito". Esempi Le relazioni di incidenza e parallelismo possono essere determinate con l'ausilio dell'algebra lineare. Ad esempio, due piani in descritti in forma cartesiana sono paralleli precisamente quando la matrice dei coefficienti ha rango 1: Altrimenti per il teorema di Rouché-Capelli i due piani si intersecano in una retta. Due piani nello spazio non possono quindi essere sghembi. Discorso analogo è valido per due iperpiani in (ad esempio, due rette nel piano ). Due rette nello spazio possono però essere sghembe. Formula di Grassmann La formula di Grassmann è valida in geometria affine soltanto se gli spazi affini si intersecano. Quindi se due spazi affini e hanno intersezione non vuota vale la formula dove è il sottospazio affine generato da e . Voci correlate • • • • Geometria affine Spazio affine Fascio di piani Fascio di rette Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Forma bilineare 110 Forma bilineare In matematica, più precisamente in algebra lineare, una forma bilineare è una mappa bilineare V × V → F, dove F è un campo, lineare in entrambe le componenti. Definizione Una forma bilineare su uno spazio vettoriale V con campo che associa ad ogni coppia di elementi è una mappa lo scalare ed è lineare su entrambe le componenti. In altre parole, φ è bilineare se valgono le seguenti: Ovvero se fissato uno dei due argomenti la funzione è lineare rispetto all'altro. Rappresentazione in coordinate Se V ha dimensione n finita, ogni forma bilineare φ su V può essere rappresentata come una matrice quadrata con n righe. Come per le applicazioni lineari, per fare ciò è necessario scegliere una base {v1, ... vn} per V. La matrice risultante dipende dalla base scelta. La matrice B è definita per componenti da . A questo punto, l'azione della forma bilineare su due vettori u e w di V si ricava nel modo seguente, tramite moltiplicazione tra matrici: dove u e w sono le coordinate di u e w rispetto alla base, aventi componenti ui e wj. Relazione con lo spazio duale Ogni forma bilineare B su V definisce una coppia di mappe lineari da V nel suo spazio duale V*, nel modo seguente: definiamo B1, B2:V → V* come In altre parole, B1(v) è l'elemento di V* che manda w in B1(v, w). Per distinguere l'elemento v dall'argomento w della funzione ottenuta si usa la notazione dove ( ) indica il posto per l'argomento della mappa. D'altro canto, ogni mappa lineare T: V → V* definisce una funzione bilineare Forma bilineare 111 Forma degenere Una forma bilineare φ definita su uno spazio V di dimensione finita è degenere se la matrice B che la rappresenta rispetto ad una base ha determinante nullo. Altrimenti, è detta non degenere. La definizione non dipende dalla base scelta per rappresentare la forma come matrice. I fatti seguenti sono equivalenti: • φ è degenere; • esiste un vettore • esiste un vettore non nullo tale che non nullo tale che per ogni per ogni ; . Simmetria Forme simmetriche e antisimmetriche Una forma bilineare φ: V × V → K è detta: • simmetrica se • antisimmetrica o alternante se per ogni v, w in V per ogni v, w in V Una forma bilineare φ è simmetrica se e solo se la sua matrice associata (rispetto ad una base qualsiasi) è simmetrica, ed è antisimmetrica se e solo se la matrice associata è antisimmetrica. Se la forma bilineare è simmetrica, le due mappe φ1, φ2: V → V* definite sopra coincidono. Se K non ha caratteristica 2, allora una caratterizzazione equivalente di una forma antisimmetrica è per ogni v in V. In caso contrario, la condizione precedente è solo sufficiente. Prodotto scalare Una forma bilineare simmetrica è spesso chiamata prodotto scalare. Altri autori definiscono invece il prodotto scalare come una forma bilineare simmetrica a valori nel campo R dei numeri reali che sia definita positiva, ovvero con per ogni v diverso da zero e . Esempi • Il prodotto scalare canonico fra vettori del piano o dello spazio euclideo è una forma bilineare simmetrica. • Sia C[0, 1] lo spazio vettoriale delle funzioni continue sull'intervallo [0,1], a valori reali. Un esempio di forma bilineare simmetrica su C[0, 1] è data da: Voci correlate • Prodotto scalare • Forma quadratica • Forma sesquilineare Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Spazio euclideo 112 Spazio euclideo In matematica, la nozione di spazio euclideo fornisce una generalizzazione degli spazi a due e a tre dimensioni studiati dalla geometria euclidea. Per ogni intero naturale n si dispone di uno spazio euclideo ad n dimensioni: questo si ottiene dallo spazio vettoriale ad n dimensioni arricchendolo con le nozioni che consentono di trattare le nozioni di distanza, lunghezza e angolo. È l'esempio "standard" di spazio di Hilbert reale a dimensione finita. Spazio Definizione Sia il campo dei numeri reali e sia n un numero naturale. Una n-upla di numeri reali è una sequenza (ossia un insieme ordinato) di n numeri reali. Lo spazio di tutte le n-uple di numeri reali forma uno spazio vettoriale di dimensione n su , indicato con . Le operazioni di somma e prodotto per scalare sono definite da Basi di spazi vettoriali Una base dello spazio che presenta vari vantaggi è la sua cosiddetta base canonica . Un vettore arbitrario in Lo spazio è il prototipo di uno spazio vettoriale reale a dimensione n: infatti ogni spazio vettoriale V di dimensione n è isomorfo a tra può dunque essere scritto nella forma . Notiamo che non si impone un isomorfismo canonico: la scelta di un isomorfismo e V è equivalente alla scelta di una base per V. In molte fasi dello sviluppo dell'algebra lineare gli spazi vettoriali a dimensione n vengono comunque studiati in astratto, perché molte considerazioni sono più semplici ed essenziali se svolte senza fare riferimento ad una base particolare. Struttura euclidea Lo spazio euclideo è più che un semplice spazio vettoriale. Per ottenere la geometria euclidea si deve poter parlare di distanze e angoli, iniziando con la distanza fra due punti e l'angolo formato da due rette o da due vettori. Il modo intuitivo per fare questo è l'introduzione di quello che viene chiamato prodotto scalare standard su . Questo prodotto, se i vettori x e y sono riferiti alla base canonica definita sopra, è definito da Lo spazio delle n-uple di numeri reali arricchito con il prodotto scalare, funzione che a due n-uple di reali x e y associa un numero reale, costituisce una struttura più ricca di chiamata spazio euclideo n-dimensionale. Per distinguerlo dallo spazio vettoriale delle n-uple reali in genere viene denotato con En . Il prodotto scalare permette di definire una "lunghezza" non negativa per ogni vettore x di En nel seguente modo Spazio euclideo 113 Questa funzione lunghezza soddisfa le proprietà richieste per una norma e viene chiamata norma euclidea o norma pitagorica su . L'angolo (interno) θ fra due vettori x e y di En è quindi definito come dove arccos è la funzione arcocoseno. Con queste definizioni la base canonica dello spazio vettoriale diventa una base ortonormale per lo spazio euclideo ottenuto arricchendolo con il prodotto scalare standard. A questo punto si può usare la norma per definire una funzione distanza (o metrica) su nel seguente modo La forma di questa funzione distanza è basata sul teorema di Pitagora, ed è chiamata metrica euclidea. Ogni spazio euclideo quindi costituisce un esempio (a dimensione finita) di spazio di Hilbert (v. a. spazio prehilbertiano), di spazio normato e di spazio metrico. Va osservato che in molti contesti, lo spazio euclideo di n dimensioni viene denotato con , dando per scontata la struttura euclidea. In effetti per molti fini applicativi la distinzione che abbiamo fatta non ha gravi conseguenze e la suddetta identificazione va considerata un abuso di linguaggio veniale. Infatti negli spazi euclidei si possono introdurre le nozioni di sottospazio e di trasformazione lineare senza complicazioni rispetto a quanto fatto per gli spazi vettoriali. Osserviamo anche che ogni sottospazio vettoriale W di dimensione m (< n) di En è isometrico allo spazio euclideo Em, ma non in modo canonico: per stabilire una corrispondenza utilizzabile per dei calcoli è necessaria la scelta di una base ortonormale per W e questa, se in W non si trova alcun vettore della base canonica di En, non può servirsi di alcun elemento di tale base. Generalizzazione sui complessi Accanto agli spazi euclidei reali si possono introdurre loro varianti sui numeri complessi, arricchendo lo spazio vettoriale n-dimensionale sul campo dei complessi con un cosiddetto prodotto interno hermitiano costituito da una forma sesquilineare. In questo caso il prodotto scalare tra vettori viene definito con l'espressione: La proprietà riflessiva di tale composizione diventa: e per la moltiplicazione per uno scalare si ha: . Spazio euclideo 114 Topologia euclidea Dal momento che lo spazio euclideo è uno spazio metrico, lo si può considerare anche uno spazio topologico dotandolo della naturale topologia indotta dalla metrica. Questo può farsi definendo come base di insiemi aperti l'insieme delle palle aperte, insiemi dei punti che distano da un punto dato meno di un reale positivo fissato (raggio della palla). Mediante questi insiemi aperti si definiscono tutte le nozioni che servono alla topologia metrica su En. Questa è detta topologia euclidea e si rivela equivalente alla topologia prodotto su considerato come prodotto di n copie della retta reale dotata della sua usuale topologia. Con la "strumentazione" degli spazi vettoriali topologici gli spazi euclidei sono in grado da fornire gli ambienti nei quali sviluppare sistematicamente numerose nozioni dell'analisi matematica, della geometria euclidea, della geometria differenziale e della fisica matematica classica. Invarianza dei domini Un risultato importante per la topologia di è l'invarianza dei domini di Brouwer. Ogni sottoinsieme di la sua topologia del sottospazio), omeomorfo a un altro sottoinsieme aperto di Un'immediata conseguenza di questo è che non è omeomorfo a se (con , è esso stesso aperto. - un risultato intuitivamente "ovvio" ma che è difficile da dimostrare rigorosamente. Varietà e strutture esotiche Lo spazio euclideo è il prototipo di varietà topologica, e anche di varietà differenziabile. I due concetti coincidono in generale, tranne in dimensione 4: come mostrato da Simon Donaldson e da altri, è possibile assegnare a delle "strutture differenziali esotiche", che rendono lo spazio topologico non diffeomorfo allo spazio standard. Voci correlate • • • • Geometria euclidea Prodotto scalare Spazio di Minkowski Superspazio Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Prodotto scalare Prodotto scalare In matematica, il prodotto scalare, detto anche prodotto interno, è un'operazione binaria che associa ad ogni coppia di vettori appartenenti ad uno spazio vettoriale definito su un dato campo un elemento del campo. Nel piano cartesiano il prodotto scalare mette in relazione due vettori e le loro lunghezze con l'angolo fra questi, e permette di definire e trattare le nozioni geometriche di lunghezza, angolo e perpendicolarità in spazi vettoriali di dimensione arbitraria. Si tratta di uno strumento fondamentale sia in fisica che in vari settori della matematica, ad esempio nella classificazione delle coniche, nello studio di una funzione differenziabile intorno ad un punto stazionario, delle trasformazioni del piano o nella risoluzione di alcune equazioni differenziali. Spesso in questi contesti viene fatto uso del teorema spettrale, un importante risultato connesso al prodotto scalare. La nozione di prodotto scalare è generalizzata in algebra lineare dallo spazio euclideo ad uno spazio vettoriale qualsiasi: tale spazio può avere dimensione infinita ed essere definito su un campo arbitrario K. Questa generalizzazione è di fondamentale importanza ad esempio in geometria differenziale e in meccanica razionale. Aggiungendo un'ulteriore proprietà, la completezza, porta inoltre al concetto di spazio di Hilbert, per il quale la teoria si arricchisce di strumenti più sofisticati, basilari nella modellizzazione della meccanica quantistica e in molti campi dell'analisi funzionale. Definizione Si definisce prodotto scalare sullo spazio vettoriale V una forma bilineare simmetrica che associa a due vettori v e w di V uno scalare nel campo K, generalmente indicato con . Si tratta di un operatore binario che verifica le seguenti condizioni per v, w, u vettori arbitrari e k elemento del campo K arbitrario: • Simmetria: • Linearità rispetto al primo termine: Le precedenti richieste implicano anche le seguenti proprietà: • Linearità rispetto al secondo termine: e dal momento che un vettore moltiplicato per 0 restituisce il vettore nullo, segue che: Spesso alcuni autori richiedono anche che il campo K sia quello dei numeri reali e che la forma sia definita positiva, cioè che per ogni v diverso da zero. Per rimanere nella più ampia generalità, scegliamo di non assumere questa ipotesi nella definizione di prodotto scalare. 115 Prodotto scalare 116 Prodotto scalare definito positivo e negativo Nel caso in cui K = R è il campo dei numeri reali, un prodotto scalare su uno spazio vettoriale V è definito positivo se definito negativo se semi-definito positivo semi-definito negativo se Un prodotto scalare semi-definito positivo è (raramente) chiamato anche prodotto pseudoscalare. Queste definizioni non hanno senso se K è un campo non ordinato, ad esempio se K = C. Per questo motivo, per K = C si preferisce solitamente usare una variante del prodotto scalare, definita in modo che sia sempre un numero reale: la forma hermitiana. Tale forma, molto usata in fisica, conserva molte analogie con il prodotto scalare, e per questo è alcune volte chiamata impropriamente anch'essa prodotto scalare. Prodotto scalare nello spazio euclideo Il prodotto scalare di due vettori a e b del piano, applicati sullo stesso punto, è definito come Interpretazione geometrica del prodotto scalare (quando B ha lunghezza unitaria) Prodotto scalare 117 dove |a| e |b| sono le lunghezze di a e b, e θ è l'angolo tra i due vettori. Il prodotto scalare si indica come a·b, e soddisfa le proprietà algebriche di simmetria, per ogni coppia di vettori a e b, e di bilinearità: per ogni tripletta di vettori a, b, c e per ogni numero reale . Le prime due relazioni esprimono la "linearità a destra" e le altre due "a sinistra". Il prodotto scalare di un vettore con se stesso è sempre maggiore o uguale a zero: Inoltre, questo è zero se e solo se il vettore è zero (proprietà di annullamento del prodotto scalare): Questa proprietà può essere espressa affermando che il prodotto scalare è definito positivo. Interpretazione geometrica Poiché |a|·cos(θ) è la lunghezza della proiezione ortogonale di a su b, si può interpretare geometricamente il prodotto scalare come il prodotto delle lunghezze di questa proiezione e di b. Si possono inoltre scambiare i ruoli di a e b, interpretare |b|·cos(θ) come la lunghezza della proiezione di b su a ed il prodotto scalare come il prodotto delle lunghezze di questa proiezione e di a. Prodotto scalare positivo, nullo e negativo Il coseno di un angolo θ è positivo se θ è un angolo acuto (cioè -90° <θ < 90°), nullo se θ è un angolo retto e negativo se è un angolo ottuso. Ne segue che il prodotto scalare a·b è: • positivo se |a| > 0, |b| >0 e l'angolo θ è acuto; • nullo se |a|=0, |b|=0 oppure θ è retto; • negativo se |a|>0, |b|>0 e l'angolo θ è ottuso. I casi in cui θ è acuto ed ottuso sono mostrati in figura. In entrambi i casi il prodotto scalare è calcolato usando l'interpretazione geometrica, ma il segno è differente. In particolare, valgono inoltre le proprietà seguenti: • se θ = 0 i vettori sono paralleli ed a·b = |a|·|b|; • se θ = 90° i vettori sono ortogonali ed a·b = 0; • se θ = 180° i vettori sono paralleli ma orientati in verso opposto, ed a·b = - |a|·|b|. Prodotto scalare 118 Se a e b sono versori, cioè vettori di lunghezza 1, il loro prodotto scalare è semplicemente il coseno dell'angolo compreso. Il prodotto scalare di un vettore a con se stesso a·a = |a|2 è il quadrato della lunghezza |a| del vettore. Applicazioni in fisica Nella fisica classica, il prodotto scalare è usato nei contesti in cui si debba calcolare la proiezione di un vettore lungo una determinata componente. Ad esempio, il lavoro prodotto da una forza su un corpo che si sposta in direzione è il prodotto scalare dei due vettori. Applicazioni in geometria Il teorema del coseno può essere formulato agevolmente usando il prodotto scalare. Dati tre punti qualsiasi del piano, vale la relazione seguente: Il lavoro è il prodotto scalare fra i vettori e . Espressione analitica Il prodotto scalare è definito in geometria analitica in modo differente: si tratta della funzione che, in un qualsiasi spazio euclideo associa a due vettori a = [a1, a2, ... , an] e b = [b1, b2, ... , bn] il numero dove Σ denota una sommatoria. Ad esempio, il prodotto scalare di due vettori tridimensionali [1, 3, −2] e [4, −2, −1] è [1, 3, −2]·[4, −2, −1] = 1×4 + 3×(−2) + (−2)×(−1) = 0. In questo modo è possibile definire l'angolo θ compreso fra due vettori in un qualsiasi spazio euclideo, invertendo la formula data sopra, facendo cioè dipendere l'angolo dal prodotto scalare e non viceversa: Prodotto scalare 119 Notazioni Spesso il prodotto scalare fra a e b si indica anche come o come . Utilizzando il prodotto tra matrici e considerando i vettori come matrici anche come , il prodotto scalare canonico si scrive dove aT è la trasposta di a. L'esempio visto sopra si scrive quindi in notazione matriciale nel modo seguente: Equivalenza fra le due definizioni L'equivalenza fra le due definizioni può essere verificata facendo uso del teorema del coseno. Nella forma descritta sopra, il teorema asserisce che il prodotto scalare di due vettori a e b nel piano, definito in modo geometrico, è pari a Ponendo a = [a1, a2] e b = [b1, b2] ed usando il teorema di Pitagora si ottiene L'equivalenza in uno spazio euclideo di dimensione arbitraria può essere verificata in modo analogo. Applicazioni Norma di un vettore Se K=R ed il prodotto scalare è definito positivo, è possibile dotare lo spazio vettoriale di una norma; più precisamente, la funzione soddisfa per ogni vettori x, y e per ogni scalare • • • le proprietà se e solo se e dunque rende lo spazio vettoriale uno spazio normato. Matrice associata In modo analogo alla matrice associata ad una applicazione lineare, fissata una base , un prodotto scalare φ è identificato dalla matrice simmetrica associata M, definita nel modo seguente: D'altro canto, ogni matrice simmetrica dà luogo ad un prodotto scalare. Vediamo più sotto che molte proprietà del prodotto scalare e della base possono essere lette sulla matrice associata. Prodotto scalare 120 Radicale Il radicale di un prodotto scalare è l'insieme dei vettori v in V per cui per ogni w in V. Il radicale è un sottospazio vettoriale di V. Il prodotto scalare si dice degenere se il radicale ha dimensione maggiore di zero. Se V ha dimensione finita e M è la matrice associata a φ rispetto ad una qualsiasi base, applicando il teorema della dimensione si trova facilmente che: dove rk(M) è il rango di M e rad(V) è il radicale. Quindi un prodotto scalare è non degenere se e solo se la matrice associata è invertibile. Definiamo quindi il rango del prodotto scalare come rk(M). Un prodotto scalare definito positivo o negativo è necessariamente non degenere. Non è vero il contrario: infatti il prodotto scalare sul piano associato (rispetto alla base canonica) alla matrice non è degenere, ma non è né definito positivo né definito negativo. Vettori isotropi Un vettore v è isotropo se = 0. Tutti i vettori del radicale sono isotropi, ma possono esistere vettori isotropi che non appartengono al radicale. Ad esempio, per il prodotto scalare associato alla matrice A descritta sopra il vettore è isotropo ma non è contenuto nel radicale, che ha dimensione zero. Ortogonalità Due vettori v e w si dicono ortogonali se . Il sottospazio ortogonale ad un sottospazio W di V è definito come Il sottospazio ortogonale è appunto un sottospazio vettoriale di V. Contrariamente a quanto accade con il prodotto canonico nello spazio euclideo, un sottospazio ed il suo ortogonale non si intersecano in un punto solo: possono addirittura coincidere! Per quanto riguarda le loro dimensioni, vale la seguente disuguaglianza: Se il prodotto scalare è non degenere, vale l'uguaglianza Infine, se il prodotto scalare è definito positivo o negativo, effettivamente uno spazio ed il suo ortogonale si intersecano solo nell'origine e sono in somma diretta: otteniamo cioè Una base ortogonale di vettori di V è una base di vettori a due a due ortogonali. Una base è ortogonale se e solo se la matrice associata al prodotto scalare rispetto a questa base è diagonale. Prodotto scalare Trasformazione ortogonale Una trasformazione ortogonale è una applicazione lineare invertibile T:V → V in sé che preserva il prodotto scalare, cioè tale che Teorema di Sylvester Se K = R è il campo dei numeri reali e V ha dimensione n, il teorema di Sylvester reale dice che per ogni prodotto scalare esiste una base ortogonale v1, ..., vn tale che per ogni i il numero è uguale a 0, 1 oppure -1. Quindi la matrice associata è una matrice diagonale avente sulla diagonale solo i numeri 0, 1, e -1, in ordine sparso. Siano i0, i+ e i- rispettivamente il numero di volte che compaiono i numeri 0, 1 e -1 sulla diagonale: la terna (i0, i+ e i-) è la segnatura del prodotto scalare. La segnatura è un invariante completo per l'isometria: due spazi vettoriali con prodotto scalare sono isometrici se e solo se hanno la stessa segnatura. Il Teorema di Sylvester complesso dice invece che esiste sempre una base ortogonale v1, ..., vn tale che per ogni i il numero è uguale a 0 oppure 1. In questo caso, il rango è un invariante completo per l'isometria: due spazi vettoriali complessi con prodotto scalare sono isometrici se e solo se hanno lo stesso rango. Endomorfismo simmetrico Un endomorfismo T:V → V è simmetrico (o autoaggiunto) rispetto al prodotto scalare se per ogni coppia di vettori v e w in V. Un endomorfismo è simmetrico se e solo se la matrice associata rispetto ad una qualsiasi base ortonormale è simmetrica. Esempi • Il prodotto scalare canonico fra vettori del piano o dello spazio euclideo è un prodotto scalare definito positivo. • Sia C([0, 1]) lo spazio vettoriale delle funzioni continue sull'intervallo [0,1], a valori reali. Definiamo un prodotto scalare su C[0, 1] ponendo: : Questo prodotto scalare è definito positivo, perché l'integrale di f2 è strettamente positivo se f non è costantemente nulla. • Definiamo sullo spazio vettoriale M([0, 1]) delle funzioni misurabili a valori reali lo stesso prodotto scalare del punto precedente. Qui il prodotto scalare è solo semidefinito positivo: infatti se f è la funzione che vale 1 su 1/2 e 0 su tutto il resto, l'integrale di f2 è zero (f è isotropa). 121 Prodotto scalare 122 Bibliografia • Serge Lang, Linear Algebra, 3rd edition, New York, Springer, 1987. ISBN 0-387-96412-6 Voci correlate • • • • • • Prodotto vettoriale Spazio euclideo Spazio di Hilbert Teorema di Sylvester Teorema spettrale Identità di polarizzazione Altri progetti • Wikibooks contiene testi o manuali su Prodotto scalare Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Ortogonalizzazione di Gram-Schmidt In matematica, e in particolare in algebra lineare, l'ortogonalizzazione Gram-Schmidt è un algoritmo che permette di ottenere un insieme di vettori ortogonali a partire da un generico insieme di vettori linearmente indipendenti in uno spazio vettoriale dotato di un prodotto scalare definito positivo. L'algoritmo Sia V uno spazio vettoriale reale con un prodotto scalare definito positivo. Siano dei vettori indipendenti in V. L'algoritmo di Gram-Schmidt restituisce n vettori linearmente indipendenti tali che: In altre parole, i vettori restituiti sono ortonormali, ed i primi i generano lo stesso sottospazio di prima. Ortogonalizzazione di Gram-Schmidt Procedimento Definiamo la funzione proiezione come La funzione proietta il vettore v in modo ortogonale su u. Il procedimento funziona nel modo seguente: I primi due passi dell'algoritmo. Dimostrazione Per verificare che queste formule producono una sequenza di vettori mutuamente ortogonali, per prima cosa calcoliamo il prodotto scalare fra e1 e e2 sostituendo la precedente espressione per u2: troveremo zero. Successivamente teniamo conto di questo fatto per calcolare il prodotto scalare fra e1 ed e3, ora sostituendo u3 con la relativa espressione: troveremo ancora zero. La dimostrazione generale procede per induzione. Geometricamente, questo metodo viene descritto come segue. Per calcolare ui, si proietta vi ortogonalmente sul sottospazio Ui-1 generato da u1,...,ui-1, che è lo stesso del sottospazio generato da v1,...,vi-1. si definisce allora ui come differenza tra vi e questa proiezione, in modo che risulta garantito che esso sia ortogonale a tutti i vettori nel sottospazio Ui-1. Poiché però vogliamo dei vettori di norma uno, ad ogni passo normalizziamo il vettore ui. 123 Ortogonalizzazione di Gram-Schmidt Generalizzazioni Il processo di Gram-Schmidt si applica anche ad una successione infinita {vi}i di vettori linearmente indipendenti. Il risultato è sempre una successione {ei}i di vettori ortogonali e con norma unitaria, tale che Esempio Consideriamo i vettori seguenti nel piano euclideo R2, con il prodotto scalare standard. Applichiamo il procedimento di Gram-Schmidt per ottenere vettori ortogonali: Verifichiamo che i vettori u1 e u2 sono effettivamente ortogonali: Cenni storici Il procedimento è così chiamato in onore del matematico danese Jørgen Pedersen Gram (1850-1916) e del matematico tedesco Erhard Schmidt (1876-1959); esso però è stato introdotto precedentemente ai loro studi e si trova in lavori di Laplace e Cauchy. Quando si implementa l'ortogonalizzazione su un computer, al processo di Gram-Schmidt di solito si preferisce la trasformazione di Householder, in quanto questa è numericamente più stabile, cioè gli errori causati dall'arrotondamento sono minori. Voci correlate • Teorema di Sylvester • Prodotto scalare • Teorema spettrale Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica 124 Base ortonormale 125 Base ortonormale In matematica, e più precisamente in algebra lineare, la base ortogonale e la base ortonormale sono due concetti che generalizzano la nozione di sistema di riferimento nel piano cartesiano, definito da 2 assi perpendicolari. Tramite queste nozioni è possibile infatti definire degli "assi perpendicolari" e quindi un "sistema di riferimento" che assegna ad ogni punto delle "coordinate" su uno spazio vettoriale con un numero arbitrario di dimensioni. Definizione Base ortogonale Sia uno spazio vettoriale di dimensione finita, dotato di prodotto scalare. Una base ortogonale per è una base composta da vettori a due a due ortogonali. Due vettori sono ortogonali quando il loro prodotto scalare è uguale a zero. In formule: Base ortonormale Se il prodotto scalare è definito positivo, è possibile introdurre la nozione di base ortonormale: questa è una base ortogonale in cui ogni vettore ha norma uno. Questa nozione si generalizza ad uno spazio di Hilbert (che può essere reale o complesso, e con dimensione finita o infinita) nel modo seguente: una base ortonormale è un insieme di vettori indipendenti, ortogonali e di norma 1, che generano un sottospazio denso in . Una tale base è spesso detta base hilbertiana. Esempi • L'insieme {(1,0,0),(0,1,0),(0,0,1)} costituisce una base ortogonale e ortonormale di . • L'insieme {fn : n ∈ } con fn(x) = exp(2πinx) costituisce una base ortonormale dello spazio complesso L2([0,1]). Ciò è di fondamentale importanza nello studio delle Serie di Fourier. • L'insieme {eb : b ∈ B} con eb(c) = 1 se b=c e 0 altrimenti costituisce una base ortonormale di l2(B). Proprietà • Ogni spazio vettoriale di dimensione finita, dotato di un prodotto scalare, possiede basi ortogonali grazie al teorema di Sylvester. • Da ogni base ortogonale si può ottenere una base ortonormale normalizzando (dividendo) i componenti della base per la loro norma. Ad esempio, da che già sappiamo ortogonale, abbiamo . • Ogni spazio euclideo possiede basi ortonormali, grazie all'algoritmo di ortogonalizzazione di Gram-Schmidt. • Una matrice di cambiamento di base fra basi ortonormali è una matrice ortogonale. • Se B è una base ortonormale di uno spazio di Hilbert V, ogni elemento v di V si scrive in modo unico come e la norma di v è data dall'identità di Parseval Inoltre il prodotto scalare fra due vettori è dato da Base ortonormale 126 Queste espressioni hanno senso anche se B è non numerabile: in questo caso solo un insieme numerabile di addendi è non-nullo. Le serie di Fourier sono un esempio. • Una base hilbertiana è numerabile se e solo se lo spazio è separabile Voci correlate • • • • Prodotto scalare Forma hermitiana Spazio di Hilbert Identità di Parseval Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Matrice ortogonale In matematica, e più precisamente in algebra lineare, una matrice ortogonale è una matrice quadrata che può essere definita in vari modi, tutti equivalenti: • Una matrice invertibile la cui trasposta coincide con la sua inversa; • Una matrice che rappresenta una isometria dello spazio euclideo; • Una matrice di cambiamento di base fra due basi ortonormali. Secondo la prima definizione, è ortogonale se e solo se Si può facilmente ricavare che il numero di parametri indipendenti in una matrice ortogonale N × N è . Proprietà basilari Basi ortonormali Una matrice quadrata è ortogonale se e solo se le sue colonne formano una base ortonormale dello spazio euclideo Rn con l'ordinario prodotto scalare. In effetti questa proprietà è semplicemente la rilettura della relazione GTG = In. Rileggendo similmente la relazione G GT = In, si ricava l'enunciato duale del precedente: una matrice quadrata reale è ortogonale se e solo se le sue righe formano una base ortonormale di Rn. Isometrie Geometricamente, le matrici ortogonali descrivono le trasformazioni lineari di Rn che sono anche isometrie. Queste preservano il prodotto scalare dello spazio, e quindi gli angoli e le lunghezze. Ad esempio, le rotazioni e le riflessioni sono isometrie. Viceversa, se V è un qualsiasi spazio vettoriale di dimensione finita dotato di un prodotto scalare definito positivo, e f : V → V è un'applicazione lineare con per tutti gli elementi x, y di V, allora f è una isometria ed è rappresentata in ogni base ortonormale di V da una matrice ortogonale. Matrice ortogonale In uno spazio euclideo di dimensione 2 e 3, ogni matrice ortogonale esprime una rotazione intorno ad un punto o un asse, o una riflessione, o una composizione di queste due trasformazioni. Gruppo ortogonale Dalla definizione segue subito che l'inversa di ogni matrice ortogonale, cioè la sua trasposta, è anch'essa ortogonale. Analogamente, il prodotto di due matrici ortogonali è una matrice ortogonale. Infatti, Questo dimostra che l'insieme delle matrici ortogonali n×n forma un gruppo. Questo è un gruppo di Lie, chiamato gruppo ortogonale e indicato con O(n). La sua dimensione è n(n − 1)/2. Intuitivamente, la dimensione è calcolata nel modo seguente: gli n2 numeri di una matrice ortogonale sono vincolati dalle n2 uguaglianze della definizione, ciascuna delle quali è caratterizzata da una coppia di indici (i,j) che vanno da 1 a n; ma l'equazione relativa a (i,j) con i < j equivale a quella relativa a (j,i) e quindi in verità ci sono solo n(n + 1)/2 equazioni "indipendenti", e quindi n(n − 1)/2 gradi di libertà. Matrice ortogonale speciale Il determinante di ogni matrice ortogonale è 1 o −1. Questo si può dimostrare come segue: Una matrice ortogonale con determinante positivo si dice matrice ortogonale speciale. L'insieme di tutte le matrici ortogonali speciali formano un sottogruppo di O(n) di indice 2, chiamato gruppo ortogonale speciale e denotato SO(n). Autovalori e decomposizioni Autovalori Tutti gli autovalori di una matrice ortogonale, anche quelli complessi, hanno valore assoluto 1. Autovettori relativi a differenti autovalori sono ortogonali. Decomposizioni lungo piani Data una matrice ortogonale Q, esiste una matrice ortogonale P tale che dove R1,...,Rk denotano matrici di rotazione 2 × 2. Intuitivamente, questo risultato dice che ogni matrice ortogonale descrive una combinazione di rotazioni e riflessioni su piani ortogonali. Le matrici R1,...,Rk corrispondono alle coppie di autovalori complessi coniugati di Q. 127 Matrice ortogonale Decomposizione QR Se A è una arbitraria matrice di tipo m × n di rango n (m ≥ n), possiamo sempre scrivere dove Q è una matrice ortogonale di tipo m × m e R è una matrice triangolare superiore di tipo n × n con valori positivi sulla diagonale principale. Questa è conosciuta come decomposizione QR di A e può essere dimostrata applicando l'ortogonalizzazione di Gram-Schmidt alle colonne di A. Questa decomposizione risulta utile per risolvere numericamente i sistemi di equazioni lineari e i problemi di minimi quadrati. Matrici ortogonali e rappresentazione delle algebre di Clifford Alle matrici ortogonali si può attribuire un secondo significato geometrico che si collega alle rappresentazione matriciale delle algebre di Clifford. Qui lo introduciamo in modo semplice attraverso un semplice esempio. I vettori della base canonica di R2 sono e1 = [1 0] e e2 =[0 1] e per un generico vettore di questo piano cartesiano scriviamo [x y]= x·[1 0] + y·[0 1] La matrice ortogonale rappresenta la riflessione rispetto alla bisettrice y=x, poiché scambia le due componenti di ogni vettore piano: La matrice ortogonale rappresenta invece la riflessione rispetto all'asse x, poiché il punto [x y] ha come immagine [x,−y]. Per i due prodotti di queste matrici si trova Si tratta delle due rotazioni nel piano di π/2 e di −π/2, rotazioni opposte: quindi le due matrici Ei anticommutano. In formule: Consideriamo ora E1 ed E2 come vettori di base del piano bidimensionale delle loro combinazioni lineari Consideriamo anche la seguente composizione di due di queste entità MV (matriciali e vettoriali) A e B: 128 Matrice ortogonale 129 In dettaglio si trova Per il quadrato di una di queste entità MV in particolare Si può quindi definire come prodotto interno di A e B la precedente composizione, a meno della matrice unità I2. Questo è lecito in quanto chiaramente si tratta di una forma bilineare simmetrica positiva. Il prodotto interno di una entità MV con sé stessa fornisce il quadrato della sua norma. Dato che le entità base anticommutano vediamo che Le entità E1 ed E2 sono ortogonali secondo entrambe le loro interpretazioni: 1. sono matrici ortogonali 2. rappresentano vettori di base ortogonali in quanto matrici anticommutative. Generalizzazioni L'analogo complesso delle matrici ortogonali sono le matrici unitarie. Voci correlate • Glossario sulle matrici • Algebra di Clifford • Gruppo ortogonale Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Disuguaglianza di Cauchy-Schwarz 130 Disuguaglianza di Cauchy-Schwarz In matematica, la disuguaglianza di Cauchy-Schwarz, nota anche come disuguaglianza di Schwarz, dai nomi dei matematici Augustin Louis Cauchy e Hermann Amandus Schwarz, è una disuguaglianza che compare in algebra lineare e si applica in molti altri settori, quali ad esempio l'analisi funzionale e la probabilità. Negli spazi Lp, la disuguaglianza di Cauchy-Schwarz è un caso particolare della disuguaglianza di Hölder. La disuguaglianza Sia V uno spazio prehilbertiano, cioè uno spazio vettoriale reale dotato di un prodotto scalare definito positivo, o uno spazio vettoriale complesso dotato di un prodotto hermitiano. La disuguaglianza asserisce che il valore assoluto del prodotto scalare di due elementi è minore o uguale al prodotto delle loro norme. Formalmente: , con l'uguaglianza che sussiste solo se x e y sono multipli (giacciono cioè sulla stessa retta). Proprietà La disuguaglianza vale quindi ad esempio nello spazio euclideo n-dimensionale e negli spazi di Hilbert a dimensione infinita. Nel piano, la disuguaglianza segue dalla relazione . dove θ è l'angolo fra i due vettori x e y. Si estende quindi questa relazione ad un qualsiasi spazio vettoriale con prodotto scalare, usandola per definire l'angolo fra due vettori x e y come il che realizza l'uguaglianza. Tra le conseguenze importanti della disuguaglianza, troviamo: • il prodotto scalare (o hermitiano) è una funzione continua da V × V in R; • la norma verifica la disuguaglianza triangolare; • la disuguaglianza di Bessel. Dimostrazione Dimostriamo la disuguaglianza nel caso complesso. Risulta banalmente vera per y = 0, quindi assumiamo <y,y> diverso da zero. Sia un numero complesso. Abbiamo: Scegliendo otteniamo che vale se e solo se o equivalentemente: Dimostriamo la diseguaglianza nel caso reale. Risulta banalmente vera per y = 0, quindi assumiamo <y,y> diverso da zero. Sia un numero reale. Abbiamo: Disuguaglianza di Cauchy-Schwarz 131 Scegliendo otteniamo che vale se e solo se o equivalentemente Dimostrazione algebrica Sia un polinomio di secondo grado in x. Chiaramente non ha radici reali, tranne nel caso in cui gli sono tutti uguali fra loro (e in tal caso ). Svolgendo le parentesi otteniamo Poiché il polinomio ha una o nessuna radice, il discriminante dev'essere minore o uguale a 0. Quindi da cui si ricava che è la disuguaglianza di Cauchy-Schwarz Esempi • Nello spazio euclideo Rn, otteniamo • Nello spazio di Hilbert L2 delle funzioni reali a quadrato integrabile, otteniamo Una generalizzazione di questa disuguaglianza è la disuguaglianza di Hölder. • In dimensione 3, la disuguaglianza è conseguenza della seguente uguaglianza: Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Teorema di Sylvester 132 Teorema di Sylvester In matematica e, più precisamente, in algebra lineare, il Teorema di Sylvester permette di classificare i prodotti scalari su uno spazio vettoriale di dimensione finita, tramite un invariante numerico, che nel caso reale è la segnatura e nel caso complesso è il rango. Definizioni Sia V uno spazio vettoriale di dimensione n, sul campo K dei numeri reali o complessi. Un prodotto scalare φ su V è una forma bilineare simmetrica. Due prodotti scalari φ e ψ sono isometrici se sono collegati da una isometria. Più precisamente, se esiste un automorfismo T: V → V (cioè una trasformazione lineare biunivoca) tale che: Due vettori v e w di V sono ortogonali per φ se φ(v, w) = 0. Il radicale di φ è il sottospazio vettoriale dato dai vettori che sono ortogonali a qualsiasi vettore. Il rango di φ è n meno la dimensione del radicale. Un vettore v è isotropo se . Una base ortogonale di V rispetto a φ è una base di vettori definiamo la segnatura della base come la terna • • • è il numero di vettori è il numero di vettori è il numero di vettori della base per cui della base per cui della base per cui Notiamo che una tale definizione non avrebbe senso per K = che sono a due a due ortogonali. Se K = , di interi, dove: ; ; . , perché non ha un ordinamento naturale. Il teorema Esistono due versioni del teorema di Sylvester: una per il campo reale, ed una per quello complesso. Il teorema di Sylvester reale è il seguente: Sia φ un prodotto scalare sullo spazio vettoriale reale V di dimensione n. • Esiste una base ortogonale di V per φ; • Due basi ortogonali per V hanno la stessa segnatura, che dipende quindi solo da φ; • Due prodotti scalari con la stessa segnatura sono isomorfi. La segnatura è quindi un invariante completo per l'isometria: due spazi vettoriali reali con prodotto scalare sono isometrici se e solo se hanno la stessa segnatura. La versione complessa è la seguente: Sia φ un prodotto scalare sullo spazio vettoriale complesso V di dimensione n. • Esiste una base ortogonale di V per φ; • Due basi ortogonali per V contengono lo stesso numero di vettori isotropi, pari alla dimensione del radicale, che dipende quindi solo da φ; • Due prodotti scalari con lo stesso rango sono isomorfi. Quindi nel caso complesso il rango è un invariante completo per l'isometria. Teorema di Sylvester 133 Voci correlate • • • • Prodotto scalare Teorema spettrale Segnatura Algoritmo di Lagrange Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Teorema spettrale In matematica, in particolare nell'algebra lineare e nell'analisi funzionale, il teorema spettrale si riferisce a una serie di risultati relativi agli operatori lineari oppure alle matrici. In termini generali il teorema spettrale fornisce condizioni sotto le quali un operatore o una matrice possono essere diagonalizzati, cioè rappresentati da una matrice diagonale in una certa base. In dimensione finita, il teorema spettrale asserisce che ogni endomorfismo simmetrico di uno spazio vettoriale reale dotato di un prodotto scalare definito positivo ha una base ortonormale formata da autovettori. Equivalentemente, ogni matrice simmetrica reale è simile ad una matrice diagonale tramite una matrice ortogonale. In dimensione infinita, il teorema spettrale assume forme diverse a seconda del tipo di operatori cui si applica. Ad esempio, esiste una versione per operatori autoaggiunti in uno spazio di Hilbert. Il teorema spettrale fornisce anche una decomposizione canonica, chiamata decomposizione spettrale, dello spazio vettoriale. Dimensione finita Il teorema spettrale è innanzitutto un importante teorema riguardante gli spazi vettoriali (reali o complessi) di dimensione finita. Enunciato Il teorema spettrale può essere enunciato per spazi vettoriali reali (o complessi), muniti di prodotto scalare (o hermitiano) definito positivo. L'enunciato è essenzialmente lo stesso nei due casi. Il teorema nel caso reale può anche essere interpretato come il caso particolare della versione complessa. Come molti altri risultati in algebra lineare, il teorema può essere enunciato in due forme diverse: usando il linguaggio delle applicazioni lineari o delle matrici. Caso reale Sia T un endomorfismo autoaggiunto su uno spazio vettoriale reale V di dimensione n, dotato di un prodotto scalare definito positivo. Allora esiste una base ortonormale di V fatta di autovettori per T. In particolare, l'endomorfismo T è diagonalizzabile. Una versione equivalente del teorema, enunciata con le matrici, afferma che ogni matrice simmetrica è simile ad una matrice diagonale tramite una matrice ortogonale. In altre parole, per ogni matrice simmetrica S esistono una matrice ortogonale M (cioè tale che MTM = I) ed una diagonale D per cui In particolare, gli autovalori di una matrice simmetrica sono tutti reali. Teorema spettrale Caso complesso L'enunciato per spazi vettoriali complessi muniti di un prodotto hermitiano è analogo a quello precedente. Sia T un operatore hermitiano su uno spazio vettoriale complesso V di dimensione n, dotato di un prodotto hermitiano, cioè di una forma hermitiana definita positiva. Allora esiste una base ortonormale di V fatta di autovettori per T, e gli autovalori di T sono tutti reali. In particolare, l'endomorfismo T è diagonalizzabile. Analogamente, per le matrici il teorema afferma che ogni matrice hermitiana è simile ad una matrice diagonale reale tramite una matrice unitaria. In altre parole, per ogni matrice hermitiana H esistono una matrice unitaria U ed una diagonale reale D per cui In particolare, gli autovalori di una matrice hermitiana sono tutti reali. Dimostrazione Nel dimostrare il teorema spettrale, è sufficiente considerare il caso complesso, che è più generale. Per prima cosa si dimostra che tutti gli autovalori di T sono reali. Sia x un autovettore per T, con autovalore λ. Vale la relazione Segue che λ è uguale al suo coniugato e quindi è reale. Per provare l'esistenza di una base di autovettori, è possibile usare l'induzione sulla dimensione di V. Poiché C è algebricamente chiuso, il polinomio caratteristico di T ha almeno una radice: quindi T ha almeno un autovalore e quindi un autovettore v. Lo spazio formato dai vettori ortogonali a v ha dimensione n-1. L'endomorfismo T manda W in sé, poiché: Inoltre T, considerato come endomorfismo di W è ancora simmetrico. Si procede quindi per induzione sulla dimensione n, dimostrando il teorema. Applicazioni Teorema di decomposizione spettrale Come immediata conseguenza del teorema spettrale, sia nel caso reale che nel caso complesso, il teorema di decomposizione spettrale afferma che gli autospazi di T sono ortogonali e in somma diretta: Equivalentemente, se Pλ è la proiezione ortogonale su Vλ, si ha: Operatori normali Il teorema spettrale vale anche per gli operatori normali in uno spazio di Hilbert, per i quali la somma presente nel teorema spettrale a dimensioni finite è sostituita da un integrale della funzione coordinata sullo spettro pesato su una misura di proiezione. Gli autovalori in questo caso sono in generale numeri complessi, e la dimostrazione di questo caso è più complicata. Come sopra, per ogni matrice normale A esistono una matrice unitaria U ed una matrice diagonale D tali che 134 Teorema spettrale In questo caso però la matrice D non è necessariamente reale. Inoltre, ogni matrice che si diagonalizza in questo modo deve essere normale. I vettori colonna di U sono gli autovettori di A e sono ortogonali. Un operatore normale può non avere autovalori, ad esempio la traslazione bilaterale sullo spazio di Hilbert l2(Z) non ha autovalori. Quando l'operatore normale in questione è compatto, il teorema spettrale si riduce al caso finito-dimensionale, a parte il fatto che l'operatore può essere espresso come combinazione lineare di un numero infinito di proiezioni. Altre decomposizioni La decomposizione spettrale è un caso particolare della decomposizione di Schur. È anche un caso particolare della decomposizione ai valori singolari. Dimensione infinita In dimensione infinita, si considera uno spazio di Hilbert V reale o complesso. Come nel caso finito-dimensionale, vi è un operatore autoaggiunto T su V. La tesi del teorema però varia a seconda delle proprietà di tale operatore. Operatori compatti Se T è un operatore compatto, la tesi del teorema spettrale è essenzialmente la stessa del caso finito-dimensionale, sia nel caso reale che complesso: esiste una base ortonormale di V formata da autovettori di T. Ogni autovalore di T è inoltre reale. Nella dimostrazione, il punto cruciale è mostrare l'esistenza di almeno un autovettore. Non è possibile affidarsi ai determinanti per mostrare l'esistenza degli autovalori, e quindi si ricorre ad un argomento di massimizzazione variazionale. Operatori limitati Se T è un più generale operatore limitato, il comportamento può essere molto differente da quello riscontrato in dimensione finita. L'operatore può non avere autovettori né autovalori, neppure nel caso complesso. Ad esempio, è facile vedere che l'operatore S sullo spazio Lp L2[0, 1] definito come è continuo e non ha autovettori. Più in generale, l'operatore che moltiplica ogni funzione per una funzione misurabile fissata f è limitato e autoaggiunto, ma ha autovettori solo per scelte molto particolari di f. Il teorema spettrale per operatori limitati T asserisce che ogni T può essere ricondotto alla forma di una moltiplicazione per una funzione del tipo appena descritto, con un più generale spazio di misura al posto del segmento [0, 1]. L'enunciato è quindi il seguente. Sia T un operatore autoaggiunto limitato su uno spazio di Hilbert V. Esiste uno spazio di misura (X, M, μ), una funzione misurabile a valori reali f su X e un operatore unitario U:V → L2μ(X) tali che dove S è l'operatore di moltiplicazione: Questo risultato è l'inizio di una vasta area di ricerca dell'analisi funzionale chiamata teoria degli operatori. 135 Teorema spettrale 136 Operatori autoaggiunti Molti operatori lineari importanti che si incontrano in analisi, come gli operatori differenziali, non sono limitati. Esiste comunque un teorema spettrale per operatori autoaggiunti che si applica in molti di questi casi. Per dare un esempio, ogni operatore differenziale a coefficienti costanti è unitariamente equivalente a un operatore di moltiplicazione. Di fatto l'operatore unitario che implementa questa equivalenza è la trasformata di Fourier. Voci correlate • Prodotto scalare • Spazio di Hilbert • Decomposizione di Jordan, un analogo della decomposizione spettrale, definito in assenza di prodotto scalare. Bibliografia • (EN) Sheldon Axler, Linear Algebra Done Right, Springer Verlag, 1997 • (IT) Moretti Valter, Teoria Spettrale e Meccanica Quantistica. Operatori in spazi di Hilber, Springer Verlag, 2010 Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Gruppo ortogonale In matematica, il gruppo ortogonale di grado n su un campo K è il gruppo delle matrici ortogonali n × n a valori in K. Si indica con O(n,K). Quando K è il campo dei numeri reali, il gruppo può essere interpretato come il gruppo delle isometrie dello spazio euclideo di dimensione n. Le matrici aventi determinante positivo formano un sottogruppo, che si indica con SO(n), detto gruppo ortogonale speciale. Il gruppo ortogonale speciale è il gruppo delle rotazioni dello spazio. Definizione Il gruppo ortogonale è un sottogruppo del gruppo generale lineare GL(n, K) di tutte le matrici invertibili, definito come segue: In altre parole, è il sottogruppo formato da tutte le matrici ortogonali. Quando il campo K non è menzionato, si sottointende che K è il campo dei numeri reali R. In questa voce, parleremo soltanto del caso K = R. Gruppo ortogonale 137 Proprietà basilari Una matrice ortogonale ha determinante +1 oppure − 1. Il sottoinsieme di O(n) formato da tutte le sottomatrici con determinante +1 è a sua volta un sottogruppo, detto gruppo ortogonale speciale. Viene indicato con SO(n). Gli elementi di questo gruppo sono rotazioni. Il gruppo O(n) è il gruppo delle isometrie della sfera di dimensione n − 1. Il sottogruppo SO(n) è dato da tutte le isometrie che preservano l'orientazione della sfera. Topologia Il gruppo O(n) è una varietà differenziabile, e assieme alla sua struttura di gruppo forma un gruppo di Lie compatto. Non è connesso: ha infatti due componenti connesse, una delle quali è SO(n). Dimensioni basse • Per n = 1, il gruppo O(1) consta di due elementi, 1 e − 1. • Per n = 2, il gruppo SO(2) è isomorfo al gruppo quoziente R/Z dove R sono i numeri reali e Z il sottogruppo dei numeri interi. Questo gruppo è solitamente indicato con S 1 , e topologicamente è una circonferenza. • Per n = 3, il gruppo SO(3) è omeomorfo allo spazio proiettivo reale di dimensione 3, che si indica solitamente come P3(R). Gruppo fondamentale Il gruppo fondamentale di SO(2) è Z, il gruppo dei numeri interi. Per ogni n > 2 il gruppo fondamentale di SO(n) è invece Z/2Z, il gruppo ciclico con due elementi. Ha quindi un rivestimento universale compatto, che viene indicato con Spin(n), e che risulta anch'esso essere un gruppo di Lie. Il gruppo Spin(n) è chiamato gruppo Spin. Voci correlate • Matrice ortogonale • Trasformazione ortogonale • Rotazione (matematica) Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Rotazione (matematica) 138 Rotazione (matematica) In matematica, una rotazione è una trasformazione del piano o dello spazio euclideo che sposta gli oggetti in modo rigido e che lascia fisso almeno un punto (l'origine dello spazio) I punti che restano fissi nella trasformazione formano un sottospazio: quando questo insieme è un punto (l'origine) o una retta, si chiama rispettivamente il centro e l'asse della rotazione. Più precisamente, una rotazione è una isometria di uno spazio euclideo che ne preserva l'orientazione, ed è descritta da una matrice ortogonale speciale. Una sfera che ruota intorno a un asse Due dimensioni In due dimensioni, una rotazione è una trasformazione dipende da un angolo , che , e che trasforma il vettore (x, y) in Rotazione antioraria nel piano Usando la moltiplicazione di matrici la rotazione può essere descritta così: La matrice quadrata presente in questa espressione è una matrice ortonormale di rango due. Questa trasformazione è chiamata rotazione antioraria di angolo intorno all'origine. La matrice 2 × 2 che descrive la rotazione è spesso chiamata matrice di rotazione di angolo . Rotazione (matematica) 139 Dimostrazione Le formule e possono essere ottenute ragionando nel modo seguente. Sia un punto qualsiasi e siano le sue coordinate polari. Si ha il punto , immagine di in una rotazione di un angolo coordinate cartesiane sono perciò date dalle , ove si ponga , ha coordinate polari al posto di applicando le formule di addizione di seno e coseno e tenendo conto anche delle e . Le sue : , si ottengono le formule , infatti: Nel piano complesso Una rotazione si esprime in modo più conciso interpretando il piano come piano complesso: una rotazione equivale al prodotto per un numero complesso di modulo unitario. In questo modo, ad esempio, la rotazione di angolo , con centro nell'origine, si scrive come L'insieme dei numeri complessi con modulo unitario è algebricamente chiuso rispetto al prodotto, formando così un gruppo abeliano, chiamato il gruppo circolare: l'interpretazione complessa delle rotazioni del piano può essere allora espressa come il fatto che il gruppo circolare e il gruppo ortogonale speciale SO(2) sono isomorfi. Tre dimensioni In tre dimensioni, una rotazione è determinata da un asse, dato da una retta r passante per l'origine, e da un angolo di rotazione. Per evitare ambiguità, si fissa una direzione dell'asse, e si considera la rotazione di angolo effettuata in senso antiorario rispetto all'asse orientato. La rotazione è descritta nel modo più sintetico scrivendo i vettori dello spazio in coordinate rispetto ad una base ortonormale , dove è il vettore di lunghezza uno contenuto in r e avente direzione giusta. La rotazione intorno all'asse trasforma il vettore di coordinate in: Rotazione in un sistema tridimensionale Senza cambiare base, la rotazione di angolo intorno ad un asse determinata dal versore vettore di modulo unitario) è descritta dalla matrice seguente: (ossia un Rotazione (matematica) 140 Dimensione arbitraria In uno spazio euclideo di dimensione arbitraria, una rotazione è una trasformazione lineare dello spazio in sé che è anche una isometria, e che mantiene l'orientazione dello spazio. Le matrici n per n che realizzano queste trasformazioni sono le matrici ortogonali speciali. Altri progetti • Wikimedia Commons contiene file multimediali su Rotazione (matematica) Voci correlate • Matrice ortogonale • Isometria Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Gli elementi della rotazione sono: 1) il verso (orario-antiorario); 2) l'ampiezza dell' angolo di rotazione; 3) il centro di rotazione (il punto attorno a cui avviene il movimento rotatorio). Prodotto vettoriale In matematica il prodotto vettoriale è un' operazione binaria interna sui vettori in un spazio euclideo tridimensionale. È anche conosciuto come prodotto vettore. A differenza del prodotto scalare esso genera un vettore e non uno scalare. Notazioni Il prodotto vettoriale è indicato con il simbolo o con il simbolo . Il secondo simbolo è però anche usato per indicare il prodotto esterno (o prodotto wedge) nell'algebra di Grassmann, di Clifford e nelle forme differenziali. Storicamente, il prodotto esterno è stato definito da Grassmann circa trent'anni prima che Gibbs e Heaviside definissero il prodotto vettoriale. Prodotto vettoriale 141 Definizione Il prodotto vettoriale, tra due generici vettori a e b, è definito come il vettore ortogonale sia ad a che a b tale che: Prodotto vettoriale in un sistema destrogiro dove θ è la misura dell'angolo tra a e b (dove 0° ≤ θ ≤ 180°), mentre n è il versore (un vettore di modulo unitario) che determina la direzione del prodotto vettoriale (ed è, come specificato più sopra, ortogonale sia ad a che a b). Il problema riguardo alla definizione del versore n è che vi sono due versori perpendicolari sia ad a che a b, uno di verso opposto all'altro in quanto, se n è perpendicolare ad a ed a b, allora lo sarà anche il versore −n. Convenzionalmente si sceglie n in modo tale che i vettori a, b ed a × b siano orientati secondo un sistema destrogiro se il sistema di assi coordinati (i, j, k) è destrogiro, oppure sinistrogiro se (i, j, k) è sinistrogiro. Quindi l'orientazione del versore n dipenderà dall'orientazione dei vettori nello spazio, ovvero dalla chiralità del sistema di coordinate ortogonali (i, j, k). Un modo semplice per determinare il verso del prodotto vettore è la «regola della mano destra». In un sistema destrogiro si punta il pollice nella direzione del primo vettore, l'indice in quella del secondo, il medio dà la direzione del prodotto vettore. In un sistema di riferimento sinistrogiro basta invertire il verso del prodotto vettore, ovvero usare la mano sinistra. Poiché il prodotto vettore dipende dalla scelta del sistema di coordinate, o più propriamente perché in una formalizzazione rigorosa il prodotto vettoriale tra due vettori non appartiene allo spazio di partenza, ci si riferisce ad esso come uno pseudovettore. Sono ad esempio degli pseudovettori (detti anche vettori assiali) il momento angolare, la velocità angolare, il campo magnetico. Il modulo del prodotto vettore è l'area del parallelogramma individuato dai due vettori a e b ed è pari a infatti, b sen θ è la misura dell'altezza se si fissa a come base, e viceversa a sen θ è la misura dell'altezza se si fissa b come base. Prodotto vettoriale 142 Proprietà Proprietà algebriche • è bilineare cioè, dati tre vettori a,b e c aventi pari dimensione e uno scalare k: (distributivo rispetto all'addizione) • ⇔ linearmente dipendenti, quindi se non sono nulli allora ⇔ sono paralleli. ( ) • è antisimmetrico: (non gode della proprietà commutativa) • il prodotto vettoriale non è un prodotto vero e proprio perché non è associativo • soddisfa l'identità di Jacobi: La proprietà distributiva, la linearità e l'identità di Jacobi fanno si che sia un'algebra di Lie. I versori (o vettori unimodulari della base canonica) i, j, e k relativi ad un sistema cartesiano di coordinate ortogonali in soddisfano le seguenti equazioni: i × j = k j × k = i k × i = j. Notazione matriciale Dato il generico vettore algebrico in il prodotto vettoriale di tale vettore per un altro vettore può essere espresso come il prodotto tra la matrice e il secondo vettore. Sia a = a1i + a2j + a3k = [a1, a2, a3] e b = b1i + b2j + b3k = [b1, b2, b3]. Allora a × b = [a2b3 − a3b2, a3b1 − a1b3, a1b2 − a2b1]. Si noti che non si è dovuto calcolare alcun angolo. La suddetta notazione per componenti può essere scritta formalmente come il determinante di una matrice con un abuso di notazione: Prodotto vettoriale 143 Il determinante di tre vettori può essere ottenuto come: det (a, b, c) = a · (b × c). Intuitivamente, il prodotto vettoriale può essere descritto dalla regola di Sarrus per il calcolo dei determinanti. Notazione con indici Il prodotto vettoriale può essere definito in termini del tensore di Levi-Civita dove si è usata la convenzione di Einstein e gli indici sono le componenti ortogonali del vettore. Formula di Lagrange Questa identità, che coinvolge il prodotto vettoriale, è molto utile. Si può scrivere come a × (b × c) = b(a · c)− c(a · b), che si può ricordare facilmente come "BAC meno CAB (taxi in inglese)". Un caso particolare riguardante il gradiente nel calcolo vettoriale è che si può facilmente ricordare come "gradiva (gra-div) almeno (-) un gelatino (dalla forma grafica del laplaciano)". Un'altra utile identità di Lagrange è Questo è un caso speciale delle moltiplicazione della norma nell'algebra dei quaternioni. Estensioni multidimensionali Un prodotto esterno per vettori 7-dimensionali può essere ottenuto similmente utilizzando gli ottonioni invece dei quaternioni. Invece non possono esistere altre estensioni del prodotto vettoriale, e ciò è collegato al fatto che le sole algebre di divisione normate sono quelle con dimensioni 1,2,4 e 8. Simboli Il prodotto vettoriale × è rappresentato come: • &times; in HTML • \times in LaTeX • U+00D7 in Unicode Voci correlate • • • • • • • Operazione binaria Operazione interna Regola della mano destra Prodotto scalare Prodotto misto Orientazione Rotore • Divergenza Prodotto vettoriale 144 Altri progetti • Wikizionario contiene la voce di dizionario «prodotto vettoriale» Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica Regola della mano destra In geometria e in fisica, la regola della mano destra è una convenzione per determinare una terna di vettori con orientazione positiva. Ci sono tre varianti della regola della mano destra, strettamente legate. La regola della mano destra Orientazione associata ad una coppia ordinata di direzioni La prima di queste accade in situazioni nelle quali un'operazione non-commutativa deve essere svolta su due direzioni a e b (in uno spazio tridimensionale) che costruisce una direzione c perpendicolare ad a e b. Sono possibili infatti due orientazioni. La regola della mano destra impone la seguente procedura per scegliere una di queste due orientazioni. Per prima cosa, la mano è tenuta piatta e posizionata in modo che le dita siano allineate con il versore a. Poi, la mano viene ruotata verso l'avambraccio in modo che le dita indichino il versore b. Il pollice indica il versore c. L'orientamento da mano sinistra è mostrato a sinistra, quello da mano destra a destra. Esiste anche una tecnica alternativa. Il dito indice della mano destra è puntato direttamente nella direzione del versore a; il dito medio è piegato internamente in modo che sia allineato con il versore b; il pollice indicherà il versore c. In alternativa, si consideri una persona che sia posizionata nell'origine che guardi seguendo la direzione del versore a e la direzione del suo sguardo sia coincidente con il versore b. In questo caso il braccio destro indicherà la direzione del versore c. Nell'elettromagnetismo (fisica), viene usata anche una terza tecnica per determinare il verso di una forza dovuta ad una carica positiva che si muove in un campo magnetico (vedi forza di Lorentz). Usando la mano destra, le dita rappresentano il verso del campo magnetico, il pollice è la direzione della corrente elettrica, e la forza risultante è nella direzione del palmo. Regola della mano destra Direzione associata ad una rotazione L'altra forma della regola della mano destra viene usata in situazioni in cui una direzione c deve essere determinata in base alla direzione di rotazione di a o viceversa. In questo caso, le dita della mano destra sono piegate nella direzione di rotazione, ed il pollice indica c. Proporzionalmente: • l'allontanamento dall'osservatore è associato ad una rotazione in senso orario mentre l'avvicinamento all'osservatore con una rotazione antioraria, come una vite; • la direzione verso sinistra è associata con la rotazione delle ruote di un veicolo che avanza; La relazione con la sezione precedente è stabilita associando alle direzioni a e b la rotazione sull'angolo più piccolo da a a b, in senso orario o antiorario. Si noti che in questo caso talvolta si utilizza per tale tecnica anche l'identificativo di regola della vite destrorsa o anche regola del cavaturaccioli. Applicazioni della regola della mano destra Probabilmente l'applicazione più importante di questa regola è rappresentata dal sistema di riferimento cartesiano, dove la prima forma (della regola) è usata per posizionare l'asse z dopo che sono stati fissati gli assi x e y, scegliendo l'angolo di 90 gradi in senso orario o antiorario. La prima forma della regola è anche usata per determinare la direzione del vettore risultante dal prodotto vettoriale di due vettori. Tale operazione infatti è largamente usata in fisica. Qui sotto è presente una lista di quantità fisiche le cui direzioni sono ricavate utilizzando questa regola. (Alcune di queste sono legate al prodotto vettoriale solo indirettamente, e usano la seconda forma.) • La velocità angolare di un oggetto rotante e la velocità di rotazione di un punto qualsiasi di quell'oggetto • Il Momento di una forza, la forza che lo causa, e la posizione del punto di applicazione della forza • Un campo magnetico, la posizione del punto dove esso è determinato, e la corrente elettrica (o carica nel flusso elettrico) che lo causa • Un campo magnetico in una spirale di filo e la corrente elettrica nel filo • La forza di un campo magnetico su un oggetto, il campo magnetico in se, e la velocità dell'oggetto • La corrente indotta dal movimento in un campo magnetico (conosciuta come regola della mano destra di Fleming) Regola della mano sinistra La regola della mano sinistra di Fleming è una regola per trovare la direzione della spinta su un conduttore che porta una corrente in un campo magnetico. La regola della mano sinistra può anche essere vista come l'inverso della regola della mano destra, dove uno dei vettori è invertito e quindi crea una terna orientata a sinistra invece di una orientata a destra. È importante notare come tutte le leggi della fisica che usano la regola della mano destra potrebbero essere descritte usando la regola della mano sinistra, ottenendo ovviamente gli stessi risultati (i campi non sanno qual è la destra o la sinistra!), a patto di usare sempre la stessa regola sia nella definizione dei vettori che nel loro uso. Un esempio di questa situazione è dato dai materiali con indice di rifrazione negativo. Normalmente, per un'onda elettromagnetica, i campi elettrico e magnetico, e la direzione di propagazione dell'onda obbediscono alla regola della mano destra. Ma questi materiali hanno proprietà speciali (l'indice di rifrazione negativo), che fanno si che la direzione di propagazione punti nella direzione opposta. 145 Regola della mano destra 146 Voci correlate • • • • • • • • Chiralità Prodotto vettoriale Rotore Pseudovettore Regola della presa della mano destra Rotazione impropria Riflessione Orientazione Altri progetti • Wikimedia Commons contiene file multimediali su Regola della mano destra Collegamenti esterni • (EN) Esempi dell'uso della regola della mano destra [1] Portale Meccanica: accedi alle voci di Wikipedia che trattano di Meccanica Note [1] http:/ / physics. syr. edu/ courses/ video/ RightHandRule/ index2. html Fonti e autori delle voci Fonti e autori delle voci Anello (algebra) Fonte:: http://it.wikipedia.org/w/index.php?oldid=38739841 Autori:: Achillu, Alberto da Calvairate, Andreas Carter, Ary29, Balabiot, Darth Kule, Davide, Dr Zimbu, Frieda, Melmood, Onnisciente, Piddu, Pracchia-78, Salvatore Ingala, Sandrobt, Sir John, Stan Shebs, Technopop.tattoo, Twice25, Twixt3r, Vargenau, Ylebru, Zetti ~, 23 Modifiche anonime Corpo (matematica) Fonte:: http://it.wikipedia.org/w/index.php?oldid=37943822 Autori:: Achillu, Alberto da Calvairate, Balabiot, Beewan1972, Blakwolf, François:Bois, Luca2b, Melmood, No2, Piddu, Salvatore Ingala, Touriste, Trovatore, Ylebru, 6 Modifiche anonime Matrice Fonte:: http://it.wikipedia.org/w/index.php?oldid=38749343 Autori:: Achillu, Al Pereira, Alberto da Calvairate, Alfio, Alz, Ary29, Bedo2991, Brownout, Cisco79, DarkAp, Davide 91, Dom De Felice, Dr Zimbu, EffeX2, Elwood, Fph, Frieda, Ft1, Gala.martin, Gianluigi, Goemon, Grigio60, Gvnn, Hellis, Ilario, Illinois, Kallsuh, Krdan, Laurentius, Lord Hidelan, Luisa, Mambrucco, Nicola.battiston, Pegua, PersOnLine, Phantomas, Piddu, Pokipsy76, Reim, Riccioli72, Risolutore89, Sandrobt, Simone, Sperimentatore, Taueres, Tridim, Ulisse0, Ylebru, Zio Illy, ^musaz, 73 Modifiche anonime Rappresentazione dei numeri complessi Fonte:: http://it.wikipedia.org/w/index.php?oldid=36090782 Autori:: Brískelly, F l a n k e r, Gim²y, Hellis, Leonardis, Phantomas, Rojelio, Tridim, Wiso, ^musaz, 7 Modifiche anonime Quaternione Fonte:: http://it.wikipedia.org/w/index.php?oldid=37528800 Autori:: .mau., Alberto da Calvairate, Alfio, Aushulz, Baicesare, Balabiot, Banus, Blakwolf, Davide, Dr Zimbu, François:Bois, Frieda, Hashar, Hce, Hellis, L736E, LapoLuchini, Larry Yuma, Leonardis, Lukius, Lyell01, Massimiliano Lincetto, Piddu, Ripepette, Roberto.zanasi, Ruthven, Suisui, Titian1962, Ylebru, 28 Modifiche anonime Spazio vettoriale Fonte:: http://it.wikipedia.org/w/index.php?oldid=38787257 Autori:: Achillu, Alberto da Calvairate, AnyFile, Aushulz, Balabiot, Damnit, Dr Zimbu, Dzag, Gac, Gianluigi, Giulianap, Hashar, Luk.wk, Marcuscalabresus, Maupag, Ndakota73, Nihil, Palica, Phantomas, Piddu, Pracchia-78, Romanm, Rrronny, Salvatore Ingala, Sandrobt, Skyhc, Suisui, Wiso, Ylebru, ^musaz, 50 Modifiche anonime Copertura lineare Fonte:: http://it.wikipedia.org/w/index.php?oldid=33730418 Autori:: DBellavista, Phantomas, Simone Scanzoni, Ylebru, 8 Modifiche anonime Base (algebra lineare) Fonte:: http://it.wikipedia.org/w/index.php?oldid=39342450 Autori:: Andreas Carter, Dissonance, Gac, Giomini, Habemusluigi, Lacurus, Marcok, MrCrow, Nemo bis, Nickanc, Piddu, Sartore, Sbisolo, Simone, Skyhc, Square87, Vonvikken, Ylebru, 12 Modifiche anonime Completamento a base Fonte:: http://it.wikipedia.org/w/index.php?oldid=21370499 Autori:: Ocirnedw, Ylebru Estrazione di una base Fonte:: http://it.wikipedia.org/w/index.php?oldid=22935435 Autori:: MaEr, Megalexandros, Sir marek, Ylebru, 1 Modifiche anonime Matrice di cambiamento di base Fonte:: http://it.wikipedia.org/w/index.php?oldid=31047407 Autori:: Antoniocicone, Dissonance, Linux2004, Piddu, Qgluca, Ylebru, ^musaz, 8 Modifiche anonime Somma diretta Fonte:: http://it.wikipedia.org/w/index.php?oldid=37535214 Autori:: Piddu, Tavyrob, Ylebru, ^musaz, 4 Modifiche anonime Formula di Grassmann Fonte:: http://it.wikipedia.org/w/index.php?oldid=37578262 Autori:: .jhc., Alberto da Calvairate, Alfio, Gabriele Nunzio Tornetta, Giulio84, Piddu, Popop, Roberto Mura, Salvatore Ingala, Senpai, Ylebru, 27 Modifiche anonime Metodo di eliminazione di Gauss Fonte:: http://it.wikipedia.org/w/index.php?oldid=39018951 Autori:: Black mamba, Buggia, CristianCantoro, Dissonance, Dom De Felice, Domenico De Felice, Etienne, Guidomac, Kingfesen, Lnx, Onnisciente, RobertoMM, Shaka, Sperimentatore, Ylebru, 49 Modifiche anonime Determinante Fonte:: http://it.wikipedia.org/w/index.php?oldid=39349218 Autori:: Alberto da Calvairate, AnyFile, Blakwolf, Cruccone, DaniDF1995, Davice, Dom De Felice, Domenico De Felice, Dr Zimbu, Fede Reghe, Frieda, Giulio.orru, Grifone87, Laurentius, Piddu, Pokipsy76, Riccardocc2, Salvatore Ingala, Simone Scanzoni, SquallLeonhart ITA, Square87, Taueres, Ulisse0, Wikinomane, Ylebru, Zio Illy, ^musaz, 42 Modifiche anonime Rango (algebra lineare) Fonte:: http://it.wikipedia.org/w/index.php?oldid=37545753 Autori:: Alberto da Calvairate, Banus, Chionatan, Freddyballo, Google, Guidomac, Piddu, Red Power, Stefanobra, Tizio X, Tridim, Turgon, Ylebru, ^musaz, פ ילא, 17 Modifiche anonime Trasformazione lineare Fonte:: http://it.wikipedia.org/w/index.php?oldid=38612114 Autori:: .jhc., Alberto da Calvairate, Beewan1972, Colom, Den.90, Giulianap, Marco Matassa, Mawerick, Phantomas, Piddu, Pokipsy76, Pracchia-78, Sandrobt, Simone, Skyhc, TheRedOne, Tridim, Unit, Valerio.scorsipa, Wiso, Ylebru, ^musaz, 27 Modifiche anonime Matrice di trasformazione Fonte:: http://it.wikipedia.org/w/index.php?oldid=39265008 Autori:: Alberto da Calvairate, Phantomas, Piddu, Pokipsy76, Pracchia-78, Riccioli72, Sagrael, Simone Scanzoni, TierrayLibertad, Valerio.scorsipa, Ylebru, 5 Modifiche anonime Teorema del rango Fonte:: http://it.wikipedia.org/w/index.php?oldid=33337732 Autori:: Banus, Helios, Pracchia-78, Salvatore Ingala, Ylebru, 2 Modifiche anonime Autovettore e autovalore Fonte:: http://it.wikipedia.org/w/index.php?oldid=39011952 Autori:: AMenteLibera, Alberto da Calvairate, Alfio, Aushulz, Berto, Domenico De Felice, Engineer123, F l a n k e r, Formica rufa, Franz Liszt, Gecob, Ggonnell, Huatulco, Jean85, Luisa, M&M987, Magma, Marco82laspezia, Midnight bird, Onnisciente, Piddu, Piero, Pokipsy76, Pracchia-78, RanZag, Restu20, Rob-ot, Robmontagna, Sandrobt, Sartore, Shony, SimoneMLK, Sir marek, SkZ, Stefano80, Tommaso Ferrara, Tridim, Ulisse0, Vipera, Xander89, Ylak, Ylebru, ^musaz, 28 Modifiche anonime Polinomio caratteristico Fonte:: http://it.wikipedia.org/w/index.php?oldid=38512681 Autori:: Alberto da Calvairate, Claude, Fred Falcon, Kronolf, Luisa, Lupin85, Poeta60, Pokipsy76, Ylebru, ^musaz, 17 Modifiche anonime Teorema di Hamilton-Cayley Fonte:: http://it.wikipedia.org/w/index.php?oldid=38396523 Autori:: Andreas Carter, FrancescoT, Poeta60, Pokipsy76, Pracchia-78, Salvatore Ingala, Ylebru, 5 Modifiche anonime Diagonalizzabilità Fonte:: http://it.wikipedia.org/w/index.php?oldid=39300810 Autori:: CristianCantoro, Ft1, Goemon, Luisa, MartinoK, Pracchia-78, Ylebru, 18 Modifiche anonime Forma canonica di Jordan Fonte:: http://it.wikipedia.org/w/index.php?oldid=32474152 Autori:: .:Andrea:., Bauletto, Geppo985, Piddu, Toobaz, Ylebru, Zio Illy, 10 Modifiche anonime Matrice esponenziale Fonte:: http://it.wikipedia.org/w/index.php?oldid=37445660 Autori:: Mauro742, Piddu, Trixt, ^musaz, 2 Modifiche anonime Sistema di equazioni lineari Fonte:: http://it.wikipedia.org/w/index.php?oldid=39039388 Autori:: Alberto da Calvairate, Archenzo, Blakwolf, Claude, Diablo, Dimpim, DoppioM, Dr Zimbu, Ft1, Ginex101, Hellis, Phantomas, Piddu, Sandman, Tridim, Twilight, Ulisse0, Ylebru, 34 Modifiche anonime Teorema di Rouché-Capelli Fonte:: http://it.wikipedia.org/w/index.php?oldid=38646591 Autori:: Amanconi, Bink, Claude, Continillo, FrancescoT, Freddyballo, Ginosal, Joségiuseppe, Kiado, Leitfaden, Pere prlpz, Pokipsy76, Salvatore Ingala, Senpai, Ulisse0, Ylebru, 17 Modifiche anonime Regola di Cramer Fonte:: http://it.wikipedia.org/w/index.php?oldid=39393463 Autori:: .mau., Asdalol, Buggia, Causa83, Cemg, Diablo, Hellis, Icaro, Kamina, Martin Mystère, Melefabrizio, Piddu, Seics, Square87, Swap83, Ylebru, ^musaz, 51 Modifiche anonime Spazio affine Fonte:: http://it.wikipedia.org/w/index.php?oldid=39184881 Autori:: Alberto da Calvairate, Balabiot, Domenico De Felice, Phantomas, Piddu, Popop, Quatar, Tridim, Ylebru, Zio Illy, ^musaz, 6 Modifiche anonime Sottospazio affine Fonte:: http://it.wikipedia.org/w/index.php?oldid=39109943 Autori:: Phantomas, Piddu, Tridim, Ylebru, 8 Modifiche anonime Forma bilineare Fonte:: http://it.wikipedia.org/w/index.php?oldid=37127650 Autori:: Bordaigorl, Piddu, Pracchia-78, Tridim, Ylebru, ^musaz, 8 Modifiche anonime Spazio euclideo Fonte:: http://it.wikipedia.org/w/index.php?oldid=39168786 Autori:: Airon90, Alberto da Calvairate, B3t, Banus, Boscarol, Damnit, Guidomac, Hellis, Piddu, Pokipsy76, Poldo328, Pracchia-78, Tridim, Ylebru, ^musaz, 11 Modifiche anonime 147 Fonti e autori delle voci Prodotto scalare Fonte:: http://it.wikipedia.org/w/index.php?oldid=39109846 Autori:: Alberto da Calvairate, Ceskino, Eumolpo, F l a n k e r, Gala.martin, Gatto Bianco 1, Giacomo.lucchese, Nihil, No2, Phantomas, Piddu, Pietrodn, Pracchia-78, Sandrobt, Sir marek, SkZ, Superedit, Ticket 2010081310004741, Triph, Ulisse0, Unriccio, Valerio.scorsipa, Voldemort87, Wiso, Ylebru, ^musaz, 45 Modifiche anonime Ortogonalizzazione di Gram-Schmidt Fonte:: http://it.wikipedia.org/w/index.php?oldid=37174290 Autori:: Agnul, Alberto da Calvairate, Alec, AttoRenato, Banus, Ceskino, Colom, Cruccone, Giacomo.lucchese, Hellis, Mess, Piddu, Simone, Snowdog, Ylebru, ^musaz, 8 Modifiche anonime Base ortonormale Fonte:: http://it.wikipedia.org/w/index.php?oldid=38713999 Autori:: AKappa, Alberto da Calvairate, Alez, Ceskino, Goemon, Hellis, M7, Nihil, Piddu, Pracchia-78, TDLemon, The Ouroboros, Tomi, Unriccio, Xufanc, Ylebru, 13 Modifiche anonime Matrice ortogonale Fonte:: http://it.wikipedia.org/w/index.php?oldid=37781207 Autori:: Agnul, Alberto da Calvairate, Alex karate do, Alfio, Ary29, Auro, Ceskino, Larry Yuma, Nick, No2, Phantomas, Piddu, Poldo328, Pracchia-78, Riccioli72, Trianam, Wiso, Ylebru, 12 Modifiche anonime Disuguaglianza di Cauchy-Schwarz Fonte:: http://it.wikipedia.org/w/index.php?oldid=38471928 Autori:: Albor, Aldur, Beewan1972, CavalloRazzo, Hellis, Piddu, Pracchia-78, Sl, Ylebru, 14 Modifiche anonime Teorema di Sylvester Fonte:: http://it.wikipedia.org/w/index.php?oldid=33337748 Autori:: Anne Bauval, Domenico De Felice, Giacomo.lucchese, Pracchia-78, Salvatore Ingala, Ylebru, 4 Modifiche anonime Teorema spettrale Fonte:: http://it.wikipedia.org/w/index.php?oldid=37682659 Autori:: Banus, Fontafox, Leitfaden, Leonardis, Lucha, Nase, Nicolaennio, Piddu, Pracchia-78, Qualc1, Salvatore Ingala, Walter89, Wiso, Ylebru, Zuccaccia, Zviad, ^musaz, 12 Modifiche anonime Gruppo ortogonale Fonte:: http://it.wikipedia.org/w/index.php?oldid=29135942 Autori:: Ceccorossi, Piddu, Poldo328, Ylebru Rotazione (matematica) Fonte:: http://it.wikipedia.org/w/index.php?oldid=36150983 Autori:: Giacomo.lucchese, Lenore, Piddu, Piero, Pokipsy76, Ylebru, 23 Modifiche anonime Prodotto vettoriale Fonte:: http://it.wikipedia.org/w/index.php?oldid=39262809 Autori:: Achillu, Ary29, Eginardo, F l a n k e r, GIM, Gvittucci, Hellis, Karmine, MAcCo, Magma, Marc Lagrange, Nicolaennio, No2, Oleg Alexandrov, Piddu, Pracchia-78, Technopop.tattoo, Ulisse0, Uomodeltuono, Vonvikken, Wiso, Ylebru, ^musaz, 38 Modifiche anonime Regola della mano destra Fonte:: http://it.wikipedia.org/w/index.php?oldid=39071793 Autori:: ARTE, Alez, ArtAttack, Avesan, Guido Magnano, Hasanisawi, Hellis, Luca Stornaiuolo, Luciodem, Luisa, Maxim88, Nspiemonte, Poeta60, Sandr0, Skywolf, Telepso, Ulisse0, Wiso, Ylebru, Zio Illy, 17 Modifiche anonime 148 Fonti, licenze e autori delle immagini Fonti, licenze e autori delle immagini File:Math.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Math.svg Licenza: Public Domain Autori:: User:Joey-das-WBF File:Matrix - it.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Matrix_-_it.svg Licenza: GNU Free Documentation License Autori:: User:Dom De Felice, User:Lakeworks, User:Marozols Immagine:Complex conjugate picture.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Complex_conjugate_picture.svg Licenza: GNU Free Documentation License Autori:: User:Oleg Alexandrov File:Quaternion.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Quaternion.jpg Licenza: GNU Free Documentation License Autori:: D-Kuru, Fedi, Paddy, Saperaud File:Quaternion Plague on Broom Bridge.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Quaternion_Plague_on_Broom_Bridge.jpg Licenza: GNU Free Documentation License Autori:: Captmondo, Darapti, G.dallorto, Man vyi, Quibik, Silverfish, 1 Modifiche anonime File:Stub fisica.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Stub_fisica.png Licenza: GNU Lesser General Public License Autori:: Lucas File:Vector space illust.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Vector_space_illust.svg Licenza: Public Domain Autori:: User:Oleg Alexandrov File:Linear subspaces with shading.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Linear_subspaces_with_shading.svg Licenza: GNU Free Documentation License Autori:: Original uploader was Alksentrs at en.wikipedia File:Determinant Example.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Determinant_Example.png Licenza: Creative Commons Attribution-Sharealike 3.0 Autori:: User:Jakob.scholbach Immagine:Determinant parallelepiped.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Determinant_parallelepiped.svg Licenza: Creative Commons Attribution 3.0 Autori:: User:Rocchini Immagine:Determinant.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Determinant.jpg Licenza: Public Domain Autori:: Darapti, Kilom691, Ylebru File:Determinant 3x3 Example.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Determinant_3x3_Example.svg Licenza: Public Domain Autori:: User:Fiachra, user:Barking Mad142 Immagine:Transvection-1.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Transvection-1.jpg Licenza: GNU Free Documentation License Autori:: GeorgHH, Ylebru, 1 Modifiche anonime Immagine:Transvection-2.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Transvection-2.jpg Licenza: GNU Free Documentation License Autori:: GeorgHH, Ylebru, 1 Modifiche anonime Immagine:Déterminant-3D.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Déterminant-3D.jpg Licenza: GNU Free Documentation License Autori:: Darapti, GeorgHH, Kilom691, Pieter Kuiper, Ylebru File:Eigen.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Eigen.jpg Licenza: Public Domain Autori:: User:Vb File:Rotating Sphere.gif Fonte:: http://it.wikipedia.org/w/index.php?title=File:Rotating_Sphere.gif Licenza: GNU Free Documentation License Autori:: Maksim, Oleg Alexandrov, W!B:, WikipediaMaster, 4 Modifiche anonime File:Rotation illustration.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Rotation_illustration.png Licenza: Public Domain Autori:: HB, Juiced lemon, Maksim, Oleg Alexandrov, Tano4595, W!B: File:Standing wave.gif Fonte:: http://it.wikipedia.org/w/index.php?title=File:Standing_wave.gif Licenza: Public Domain Autori:: BrokenSegue, Cdang, Joolz, Kersti Nebelsiek, Kieff, Mike.lifeguard, Pieter Kuiper, Ptj File:HAtomOrbitals.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:HAtomOrbitals.png Licenza: GNU Free Documentation License Autori:: Admrboltz, Benjah-bmm27, Dbc334, Dbenbenn, Ejdzej, Falcorian, Kborland, MichaelDiederich, Mion, Saperaud, 6 Modifiche anonime File:Eigenfaces.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Eigenfaces.png Licenza: Attribution Autori:: Laurascudder, Liftarn, Man vyi, Ylebru Immagine:Scalarproduct.gif Fonte:: http://it.wikipedia.org/w/index.php?title=File:Scalarproduct.gif Licenza: GNU Free Documentation License Autori:: Darapti, Flappiefh, Rocha, Werckmeister, Ysangkok Immagine:ProdScal1.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:ProdScal1.png Licenza: Creative Commons Attribution-Sharealike 2.5 Autori:: Darapti, HB Immagine:ProdScal2.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:ProdScal2.png Licenza: Creative Commons Attribution-Sharealike 2.5 Autori:: Darapti, HB Immagine:TravailForce2.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:TravailForce2.png Licenza: Creative Commons Attribution-Sharealike 2.5 Autori:: HB Immagine:Wikibooks-logo.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Wikibooks-logo.svg Licenza: logo Autori:: User:Bastique, User:Ramac File:Gram–Schmidt process.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Gram–Schmidt_process.svg Licenza: Public Domain Autori:: Gustavb Immagine:Rotating Sphere.gif Fonte:: http://it.wikipedia.org/w/index.php?title=File:Rotating_Sphere.gif Licenza: GNU Free Documentation License Autori:: Maksim, Oleg Alexandrov, W!B:, WikipediaMaster, 4 Modifiche anonime Immagine:Rotation illustration.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Rotation_illustration.png Licenza: Public Domain Autori:: HB, Juiced lemon, Maksim, Oleg Alexandrov, Tano4595, W!B: File:Rotation in a threedimensional system.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Rotation_in_a_threedimensional_system.png Licenza: GNU Free Documentation License Autori:: User:E^(nix) Immagine:Commons-logo.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Commons-logo.svg Licenza: logo Autori:: User:3247, User:Grunt Immagine:crossproduct.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Crossproduct.png Licenza: Free Art License Autori:: User:Wshun Immagine:Wiktionary-ico-de.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Wiktionary-ico-de.png Licenza: logo Autori:: Bobit, F l a n k e r, Melancholie, Mxn, Rocket000 Immagine:Rechte-hand-regel.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Rechte-hand-regel.jpg Licenza: GNU Free Documentation License Autori:: User:Abdull Immagine:Cartesian coordinate system handedness.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Cartesian_coordinate_system_handedness.svg Licenza: GNU Free Documentation License Autori:: Darapti, Gustavb, 2 Modifiche anonime File:Simple cog.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Simple_cog.svg Licenza: Public Domain Autori:: User:Pluke 149 Licenza Licenza Creative Commons Attribution-Share Alike 3.0 Unported http:/ / creativecommons. org/ licenses/ by-sa/ 3. 0/ 150