Algebra lineare PDF generato attraverso il toolkit opensource ''mwlib''. Per maggiori informazioni, vedi [[http://code.pediapress.com/ http://code.pediapress.com/]]. PDF generated at: Thu, 26 Jan 2012 08:11:20 UTC Indice Voci Premessa 1 Algebra lineare 2 Spazio vettoriale 13 Trasformazione lineare 20 Base (algebra lineare) 24 Teorema del rango 29 Formula di Grassmann 32 Teorema di Rouché-Capelli 35 Rango (algebra lineare) 37 Determinante 40 Diagonalizzabilità 48 Autovettore e autovalore 52 Polinomio caratteristico 60 Polinomio minimo 63 Forma canonica di Jordan 66 Prodotto scalare 68 Forma bilineare 75 Spazio euclideo 78 Base ortonormale 81 Ortogonalizzazione di Gram-Schmidt 83 Forma sesquilineare 86 Teorema spettrale 88 Note Fonti e autori delle voci 93 Fonti, licenze e autori delle immagini 94 Licenze della voce Licenza 95 Premessa 1 Premessa Cos'è questo libro Questo è un libro di Wikipedia. È una raccolta di voci tratte dall'edizione italiana dell'enciclopedia online Wikipedia [1]. Le voci di Wikipedia sono scritte collettivamente e i lettori sono anche gli autori. Nessuno è stato pagato per scrivere questo libro. Come usare questo libro Quest'opera può essere liberamente utilizzata, riprodotta, modificata, distribuita per qualsiasi scopo (anche commerciale), a patto di attribuire correttamente la provenienza dei contenuti e citare gli autori, nel rispetto della licenza Creative Commons Attribuzione-Condividi allo stesso modo (CC-BY-SA) 3.0 [2] per quanto riguarda i testi. Le opere derivate devono mantenere la stessa licenza o una compatibile. In fondo al libro sono riportati l'elenco degli autori dei testi e delle immagini. Prima di distribuire il libro, verifica in particolare che le licenze delle immagini siano riportate correttamente.[3] Proprio per la natura del contributo libero e gratuito di tutti gli autori, compresi gli utenti anonimi, Wikipedia non può fornire garanzie sulla validità e l'accuratezza dei contenuti. Benché la comunità degli utenti cerchi di essere nel complesso vigile e accurata, in ogni istante è sempre possibile che una pagina venga vandalizzata o modificata in modo improprio, seppure in buona fede, con informazioni errate, illegali o non conformi alle consuetudini della comunità o dell'area in cui vivi. Per favore, leggi attentamente le avvertenze [4] e tieni presente che le informazioni qui riportate hanno un valore puramente illustrativo e divulgativo. Wikipedia non fornisce alcun consiglio medico, legale o professionale. Dove trovare altri libri come questo Se desideri scaricare gratuitamente altri libri di Wikipedia, oppure la versione più aggiornata di questo stesso libro, vai alla pagina http://it.wikipedia.org/wiki/Wikipedia:Libri Ce ne sono molti altri, tutti gratuiti, sui più vari argomenti. Se non trovi quello che fa per te, lo puoi costruire tu facilmente, raccogliendo assieme le voci dell'enciclopedia. Come correggere questo libro Se leggendo questo libro incontri degli errori o ritieni di poter migliorare i suoi contenuti per le future edizioni, ti invitiamo a raggiungere il sito web http:/ / it. wikipedia. org , cercare la voce sull'argomento relativo e fare clic su "modifica". In pochi secondi puoi eliminare l'errore. Ricordati che la tua collaborazione è preziosa. Una volta effettuate le correzioni, puoi aggiornare la tua versione del libro e ristampare le pagine interessate dalle modifiche. Buona lettura. Wikipedia, 26/01/2012 Premessa 2 Note [1] http:/ / it. wikipedia. org [2] http:/ / creativecommons. org/ licenses/ by-sa/ 3. 0/ [3] A causa di un problema tecnico, la licenza di alcune immagini potrebbe risultare sconosciuta ("unknown"). Alcune di queste immagini potrebbero non essere utilizzabili al di fuori del sito di Wikipedia. Si consiglia di scaricare il libro in formato ODT per rimuovere i contenuti non liberi e correggere tali licenze. [4] http:/ / it. wikipedia. org/ wiki/ WP:General_disclaimer Algebra lineare Alcuni oggetti studiati in algebra lineare Spazi vettoriali Vettori Trasformazioni lineari Sistemi di equazioni lineari Autovettori e autovalori Matrici Quadriche Tensori L'algebra lineare è la branca della matematica che si occupa dello studio dei vettori, spazi vettoriali (o spazi lineari), trasformazioni lineari e sistemi di equazioni lineari. Gli spazi vettoriali sono un tema centrale nella matematica moderna; l'algebra lineare è usata ampiamente nell'algebra astratta, nella geometria e nell'analisi funzionale. L'algebra lineare ha inoltre una rappresentazione concreta nella geometria analitica. Con l'algebra lineare si studiano completamente tutti i fenomeni fisici "lineari", cioè quelli in cui intuitivamente non entrano in gioco distorsioni, turbolenze e fenomeni caotici in generale. Anche fenomeni più complessi, non solo della fisica ma anche delle scienze naturali e sociali, possono essere studiati "approssimando il sistema" con un modello lineare. Algebra lineare Storia La storia dell'algebra lineare moderna inizia negli anni 1843 e 1844. Nel 1843, William Rowan Hamilton (che ha introdotto il termine vettore) inventò i quaternioni. Nel 1844, Hermann Grassmann pubblicò il suo libro Die lineale Ausdehnungslehre (vedi i Riferimenti). Arthur Cayley introdusse le matrici (2×2), una delle idee fondamentali dell'algebra lineare, nel 1857. Introduzione elementare L'algebra lineare ha le sue origini nello studio dei vettori negli spazi cartesiani a due e a tre dimensioni. Un vettore, in questo caso, è un segmento orientato, caratterizzato da lunghezza (o magnitudine), direzione e verso. I vettori possono essere usati per rappresentare determinate entità fisiche come le forze, e possono essere sommati fra loro e moltiplicati per uno scalare, formando quindi il primo esempio di spazio vettoriale sui reali. L'algebra lineare moderna è stata estesa per comprendere spazi di dimensione arbitraria o infinita. Uno spazio vettoriale di dimensione n è chiamato n-spazio. Molti dei risultati utili nel 2-spazio e nel 3-spazio possono essere estesi agli spazio di dimensione maggiore. Anche se molte persone non sanno visualizzare facilmente i vettori negli n-spazi, questi vettori o n-uple sono utili per rappresentare dati. Poiché i vettori, come n-uple, sono liste ordinate di n componenti, molte persone Uno spazio vettoriale è una collezione di oggetti, comprendono e manipolano i dati efficientemente in questa struttura. chiamati "vettori", che possono essere sommati e riscalati. Ad esempio, in economia, si può creare e usare vettori 8-dimensionali (ottuple) per rappresentare il Prodotto Interno Lordo di 8 stati. Si può decidere di visualizzare il PIL di 8 stati per un particolare anno, ad esempio (Stati Uniti, Gran Bretagna, Francia, Germania, Spagna, India, Giappone, Australia), usando un vettore (v1, v2, v3, v4, v5, v6, v7, v8) dove il PIL di ogni stato è nella sua rispettiva posizione. Uno spazio vettoriale è definito sopra un campo, come il campo dei numeri reali o il campo dei numeri complessi. Gli operatori lineari mappano elementi da uno spazio vettoriale su un altro (o su se stesso), in modo che sia mantenuta la compatibilità con l'addizione e la moltiplicazione scalare definiti negli spazi vettoriali. L'insieme di tutte queste trasformazioni è anch'esso uno spazio vettoriale. Se è fissata una base per uno spazio vettoriale, ogni trasformazione lineare può essere rappresentata da una tabella chiamata matrice. Nell'algebra lineare si studiano quindi le proprietà delle matrici, e gli algoritmi per calcolare delle quantità importanti che le caratterizzano, quali il rango, il determinante e l'insieme dei suoi autovalori. Uno spazio vettoriale (o spazio lineare), come concetto puramente astratto sul quale proviamo teoremi, è parte dell'algebra astratta, e ben integrato in questo campo: alcuni oggetti algebrici correlati ad esempio sono l'anello delle mappe lineari da uno spazio vettoriale in sé, o il gruppo delle mappe lineari (o matrici) invertibili. L'algebra lineare gioca anche un ruolo importante in analisi, specialmente nella descrizione delle derivate di ordine superiore nell'analisi vettoriale e nella risoluzione delle equazioni differenziali. Concludendo, si può dire semplicemente che i problemi lineari della matematica - quelli che esibiscono "linearità" nel loro comportamento - sono quelli più facili da risolvere, e che i problemi "non lineari" vengono spesso studiati approssimandoli con situazioni lineari. Ad esempio nell'analisi, la derivata è un primo tentativo di approssimazione lineare di una funzione. La differenza rispetto ai problemi non lineari è molto importante in pratica: il metodo generale di trovare una formulazione lineare di un problema, in termini di algebra lineare, e risolverlo, se necessario con calcoli matriciali, è uno dei metodi più generali applicabili in matematica. 3 Algebra lineare 4 Nozioni di base Spazio vettoriale La nozione più importante in algebra lineare è quella di spazio vettoriale. Uno spazio vettoriale è un insieme di elementi, detti vettori, aventi delle proprietà che li rendono simili ai vettori applicati in un punto fissato (l'origine) del piano o dello spazio. Più precisamente, sono definite su • due vettori e nuovo vettore un paio di operazioni binarie: possono essere sommati, dando così luogo ad un , • un vettore può essere riscalato, cioè moltiplicato per un numero , dando così luogo ad un nuovo vettore . Un vettore può essere riscalato, cioè moltiplicato per un numero. Qui sono mostrati i vettori e , ottenuti moltiplicando rispettivamente per 2 e -1. Il numero (detto scalare) appartiene ad un campo che viene fissato fin dall'inizio: questo può essere ad esempio il campo reali o il campo Due vettori e possono essere sommati usando la regola del parallelogramma. dei numeri dei numeri complessi. Le due operazioni devono soddisfare una lunga lista di assiomi. Ad esempio, la somma fra vettori deve essere associativa e commutativa. Deve inoltre esistere un elemento neutro per la somma, ovvero un particolare vettore, chiamato origine, vettore nullo, O oppure 0, tale che per ogni vettore . Il piano cartesiano è l'esempio fondamentale di spazio vettoriale. Ogni punto del piano è in realtà identificato univocamente come una coppia di numeri reali. L'origine è il punto . Il punto può essere interpretato alternativamente come punto del piano o come vettore applicato nell'origine che parte da in e arriva . Analogamente lo spazio cartesiano è formato da triple di punti . Più in generale, le ennuple di numeri reali formano uno spazio vettoriale che viene indicato con campo e ottenere quindi lo spazio vettoriale . . Ancora più in generale, si può sostituire con un altro Algebra lineare 5 Applicazioni lineari Una applicazione lineare è una funzione fra due spazi vettoriali che sia compatibile con le operazioni definite su entrambi. Devono cioè valere le proprietà seguenti: per ogni coppia di vettori in e ogni scalare . I termini "applicazione", "funzione", "trasformazione", "mappa" e "omomorfismo" sono in questo contesto tutti sinonimi. Il termine "lineare" sta a indicare la compatibilità con le operazioni. Una applicazione lineare manda necessariamente l'origine (di ) nell'origine (di Una rotazione del piano cartesiano centrata nell'origine (0,0) è una trasformazione lineare. ): Gli spazi e possono coincidere. In questo caso l'applicazione è più propriamente una trasformazione di , ovvero una funzione che sposta i punti di , chiamata anche endomorfismo. Una trasformazione di deve necessariamente tenere fissa l'origine O. Molte trasformazioni del piano cartesiano o dello spazio che tengono fissa l'origine O sono lineari: tra Una trasformazione lineare può distorcere gli oggetti. queste, le rotazioni (intorno a O), le riflessioni rispetto ad una retta o un piano (passante per O), le omotetie (centrate in O) e le proiezioni (su una retta o piano passante per O). Le applicazioni lineari compaiono in contesti molto differenti. Ad esempio, il funzionale che associa ad una funzione il suo integrale è una applicazione lineare dallo spazio reali in . delle funzioni continue a valori Una trasformazione lineare può allargare un oggetto orizzontalmente e comprimerlo verticalmente. Algebra lineare 6 Basi e dimensione Un punto ha dimensione zero, una retta ha dimensione uno, un piano ha dimensione due. L'algebra lineare permette di definire e trattare agevolmente spazi di dimensione più alta. Lo spazio fondamentale di dimensione è lo spazio vettoriale delle ennuple, indicato con . Per , questo è l'usuale piano cartesiano. Ogni spazio vettoriale ha una dimensione. Questa è definita in modo algebrico, come il numero di elementi in una base per : una base è un I vettori e formano la base canonica del piano cartesiano . Ogni altro vettore si scrive (in modo univoco) come combinazione lineare di questi due vettori. Ad esempio, il vettore si scrive come . insieme di vettori che funge da sistema di riferimento per . Rigorosamente, una base è una successione di vettori indipendenti che generano lo spazio . Uno spazio vettoriale può avere anche dimensione infinita: gli spazi vettoriali di dimensione infinita sono spesso più complicati, e molti teoremi di algebra lineare richiedono come ipotesi che abbia dimensione finita. Le nozioni di base e dimensione si applicano a (che ha dimensione ) e ai sottospazi ivi contenuti. Essendo però definite in modo puramente algebrico, si applicano anche in contesti molto differenti: ad esempio, le matrici formano uno spazio vettoriale di dimensione . I polinomi in una variabile formano uno spazio vettoriale di dimensione infinita: restringendo però il grado dei polinomi ad un certo valore massimo uno spazio vettoriale di dimensione . si ottiene Prodotto scalare Due vettori e di uno spazio vettoriale possono essere sommati: il risultato è un vettore . Inoltre un vettore e uno scalare possono essere moltiplicati: il risultato è un vettore . Nella definizione di spazio vettoriale non è però prevista una operazione di prodotto fra due vettori. In alcuni contesti è però utile aggiungere una ulteriore operazione binaria fra vettori, che si comporti come un prodotto. Il risultato di questo prodotto può essere a sua volta un vettore o uno scalare. Nel primo caso, questa operazione si chiama prodotto vettoriale, e nel secondo prodotto scalare. L'operazione di prodotto vettoriale risulta però interessante solo in dimensione tre, mentre i prodotti scalari esistono (e sono utili) in tutte le dimensioni: per questo motivo questi ultimi sono molto più studiati. Il prodotto scalare euclideo nel piano fra due vettori e è definito come il prodotto delle lunghezze di su e della proiezione di . Esistono però molti altri modi utili di definire un prodotto scalare, in spazi di dimensione arbitraria. Algebra lineare 7 Nella definizione di spazio vettoriale non è inoltre neppure prevista una nozione di lunghezza (equivalentemente, norma) per i vettori, né di angolo fra due di questi. Entrambe le nozioni di lunghezza e angolo risultano però definite se è fissato un opportuno prodotto scalare.[1] Applicazioni Sistemi lineari Un sistema di equazioni lineari è il dato di un certo numero di equazioni lineari in alcune variabili . Usando le matrici e la moltiplicazione riga per colonne, un sistema può essere scritto in modo stringato nel modo seguente: In questa espressione è una matrice , è il vettore delle variabili , ..., e è un altro vettore formato da costanti. L'algebra lineare fornisce molti algoritmi per determinare le soluzioni di un sistema lineare. Il legame fra i sistemi di equazioni e l'algebra lineare sta nel fatto che la matrice può essere interpretata come applicazione lineare da in : secondo questa interpretazione, le soluzioni sono esattamente le controimmagini di . Il metodo di eliminazione di Gauss consente di determinare le soluzioni di un sistema. Il teorema di Rouché-Capelli fornisce un metodo per contare le soluzioni, senza necessariamente determinarle completamente.[2] Nel caso in cui il sistema sia quadrato e abbia una sola soluzione, questa può essere determinata usando la regola di Cramer. Geometria analitica In geometria analitica una retta o un piano sono descritti da sistemi di equazioni lineari: come si è appena visto, questi possono essere agevolmente studiati con gli strumenti dell'algebra lineare. Si possono quindi affrontare problemi quali le posizioni reciproche di due rette (o piani) nello spazio (che possono essere incidenti, paralleli o sghembi), e come queste variano per trasformazioni lineari. Una retta nel piano cartesiano è desritta da una equazione lineare del tipo . Due rette distinte sono parallele se il sistema formato dalle loro due equazioni non ha soluzione. Le coniche nel piano come ellisse, parabola e iperbole sono determinate da equazioni di secondo grado. Queste equazioni sono più complicate di quelle lineari, che sono di primo grado. Nonostante ciò, la classificazione delle coniche è realizzata in modo efficace con gli strumenti dell'algebra lineare, grazie a teoremi non banali quali il teorema spettrale e il teorema di Sylvester. Con gli stessi strumenti si classificano le quadriche nello spazio. Calcolo differenziale L'analisi matematica delle funzioni in una variabile non fa uso dell'algebra lineare. L'analisi delle funzioni in più variabili invece dipende fortemente da questo settore. La nozione di derivata è infatti estesa in più variabili a quella di differenziale: mentre la derivata è un semplice numero reale che indica la pendenza di una funzione in un punto, il differenziale è una applicazione lineare, che indica sempre la "pendenza" di una funzione (a più variabili) in un punto. Algebra lineare 8 Anche la nozione di derivata seconda si estende a più variabili: il risultato è una matrice detta matrice hessiana. Questa matrice è simmetrica e può essere agevolmente rappresentata come diagonale grazie al teorema spettrale. Analisi funzionale Molti problemi dell'analisi funzionale, quali la ricerca di una soluzione per una equazione differenziale, vengono affrontati analizzando un particolare spazio di funzioni. Uno spazio di funzioni è uno spazio vettoriale i cui elementi sono funzioni di un certo tipo (ad esempio continue, integrabili, derivabili... definite su un dominio fissato). Spazi di questo tipo sono generalmente di dimensione infinita, e sono dotati di alcune strutture aggiuntive, quali ad esempio un prodotto scalare (negli spazi di Hilbert), una norma (negli spazi di Banach) o una più generale topologia (negli spazi vettoriali topologici). Tre piani nello spazio possono avere varie configurazioni differenti: in questo caso si intersecano in un punto. Ciascun piano è descritto da una equazione. Il punto di intersezione è ottenuto come soluzione di un sistema con 3 equazioni e 3 variabili. Esempi di spazi di funzioni includono gli spazi Lp e gli spazi di Sobolev. Meccanica quantistica La meccanica quantistica fa ampio uso dei teoremi più avanzati dell'algebra lineare. Il modello matematico usato in questo settore della fisica (formalizzato principalmente da Paul Dirac e John Von Neumann) descrive i possibili stati di un sistema quantistico come elementi di un particolare spazio di Hilbert e le grandezze osservabili (quali posizione, velocità, etc.) come operatori autoaggiunti. I valori che possono assumere queste grandezze quando vengono effettivamente misurate sono gli autovalori dell'operatore. L'introduzione e l'uso di questi concetti matematici non banali nella fisica quantistica è stato uno dei maggiori stimoli allo sviluppo dell'algebra lineare nel XIX secolo. Strumenti Le funzioni d'onda associate agli stati di un elettrone in un atomo di idrogeno sono gli autovettori di alcuni particolari operatori autoaggiunti usati in meccanica quantistica. Matrici Una matrice è una tabella di numeri, come ad esempio: Le matrici sono utili in algebra lineare per rappresentare le applicazioni lineari. Questo viene fatto tramite la moltiplicazione riga per colonna. Ad esempio, la matrice descritta rappresenta una trasformazione del piano cartesiano in sé. Questa trasformazione manda il punto nel punto Algebra lineare 9 Questa trasformazione non è nient'altro che una rotazione antioraria di 90º con centro l'origine. La relazione fra matrici e applicazioni lineari è molto forte. Ogni applicazione lineare fra spazi vettoriali di dimensione e è descrivibile tramite una matrice associata di tipo , purché in entrambi gli spazi vettoriali siano fissate delle basi. L'effetto di un cambiamento di base è codificato dalla matrice di cambiamento di base e la composizione di funzioni si traduce in una moltiplicazione fra matrici. Eliminazione di Gauss L'eliminazione di Gauss è un algoritmo che consente di ridurre una matrice in una forma più semplice tramite opportune mosse sulle righe. Questo algoritmo è usato principalmente per determinare le soluzioni di un sistema di equazioni lineari, ma ha anche applicazioni più interne all'algebra lineare: con l'eliminazione di Gauss si può determinare il rango, il determinante o l'inversa di una matrice, si può estrarre una base da un insieme di generatori. Determinante Il determinante è un numero associato ad una matrice quadrata , generalmente indicato come . Da un punto di vista algebrico, il determinante è importante perché vale zero precisamente quando la matrice non è invertibile; quando non è zero, fornisce inoltre un metodo per descrivere la matrice inversa tramite la regola di Cramer. Una trasformazione lineare del piano cartesiano descritta da una matrice quadrata . Il determinante della matrice fornisce delle informazioni sulla trasformazione: il valore assoluto descrive il cambiamento di area, mentre il segno descrive il cambiamento di orientazione. Nell'esempio qui riportato, la matrice ha determinante -1: quindi la trasformazione preserva le aree (un quadrato di area 1 si trasforma in un parallelogramma di area 1) ma inverte l'orientazione del piano (cambia il verso della freccia circolare). Da un punto di vista geometrico, il determinante fornisce molte informazioni sulla trasformazione associata ad : il suo segno (sui numeri reali) indica se la trasformazione mantiene l'orientazione dello spazio, ed il suo valore assoluto indica come cambiano le aree degli oggetti dopo la trasformazione. Algebra lineare 10 Autovalori e autovettori Per caratterizzare un endomorfismo è utile studiare alcuni vettori, chiamati autovettori. Geometricamente, un autovettore è un vettore che non cambia direzione. Da un punto di vista algebrico, si tratta di un vettore tale che per qualche scalare , detto autovalore. L'endomorfismo è particolarmente semplice da descrivere se è diagonalizzabile: geometricamente, questo vuol dire che esiste una base di autovettori; algebricamente, vuol dire che l'endomorfismo può essere rappresentato tramite una matrice diagonale, come ad esempio Gli autovalori possono essere trovati agevolmente calcolando il polinomio caratteristico della matrice associata, definito come Gli autovalori di In questa trasformazione lineare della Gioconda, l'immagine è modificata ma l'asse centrale verticale rimane fisso. Il vettore blu ha cambiato lievemente direzione, mentre quello rosso no. Quindi il vettore rosso è un autovettore della trasformazione e quello blu no. sono precisamente le radici di questo polinomio. Gli autovettori si organizzano in sottospazi vettoriali chiamati autospazi. Quando lo spazio vettoriale è uno spazio di funzioni, l'autovalore è una particolare funzione, chiamata autofunzione. Forma canonica di Jordan Una endomorfismo diagonalizzabile è rappresentabile in modo agevole tramite una matrice diagonale. Non tutti gli endomorfismi sono però diagonalizzabili: ad esempio, una rotazione antioraria del piano cartesiano di angolo è rappresentata dalla matrice che (per diverso da 0 e ) non ha autovalori né autovettori, e quindi a maggior ragione non può essere diagonalizzabile. Un altro esempio di matrice non diagonalizzabile è la seguente Se il campo considerato è però il campo dei numeri complessi, è comunque possibile rappresentare l'endomorfismo tramite una matrice che assomiglia il più possibile ad una matrice diagonale, come nel secondo esempio mostrato. Questa rappresentazione, detta forma canonica di Jordan, caratterizza completamente gli endomorfismi. Esiste una analoga rappresentazione nel campo reale, leggermente più complicata. Algebra lineare 11 Ortogonalizzazione Similmente ad un endomorfismo, anche un prodotto scalare può essere rappresentato da una matrice quadrata. Anche in questo contesto, la forma più semplice da trattare è quella in cui la matrice risulta essere diagonale, e questo accade precisamente quando si fissa una base ortogonale. A differenza degli endomorfismi, in questo contesto è sempre possibile trovare una matrice diagonale. In altre parole, per qualsiasi prodotto scalare è possibile trovare basi ortogonali. Se il prodotto scalare è definito positivo, un algoritmo efficiente a questo scopo è l'ortogonalizzazione di Gram-Schmidt. Per prodotti scalari più generali si può usare l'algoritmo di Lagrange. Teoremi Teorema della dimensione Il teorema della dimensione (o del rango) è un teorema che mette in relazione le dimensioni del nucleo e dell'immagine di una applicazione lineare , secondo la formula: Qui Im e Ker denotano immagine e nucleo, mentre è la dimensione del dominio di . Questo risultato è anche chiamato teorema del rango, perché tradotto nel linguaggio delle matrici assume la forma seguente: Qui rk e null indicano rispettivamente il rango e l'indice di nullità di una matrice del tipo . Teorema di Rouché-Capelli Il teorema di Rouché-Capelli dà alcune informazioni sull'insieme delle soluzioni di un generico sistema lineare: Il teorema afferma due cose: • il sistema ha soluzione se e solo se le matrici e hanno lo stesso rango ; • se ci sono soluzioni, queste formano un sottospazio affine di dimensione , dove incognite (cioè il numero di colonne di è il numero di ). In particolare, il numero di soluzioni può essere solo zero, uno o infinito (se le equazioni sono a coefficienti reali o complessi). Il teorema è generalmente usato per determinare rapidamente se un sistema ammette una o più soluzioni: non può però essere usato per determinarle esplicitamente. Uno strumento per questo scopo è il metodo di eliminazione di Gauss. Relazione di Grassmann La formula di Grassmann mette in relazione le dimensioni di vari sottospazi, definiti a partire da due sottospazi entrambi contenuti uno spazio fissato e . La formula è la seguente: Nell'espressione compaiono i sottospazi ottenuti come somma e intersezione di e . Teorema spettrale Il teorema spettrale fornisce una condizione forte di diagonalizzabilità per alcuni endomorfismi, detti simmetrici o autoaggiunti (a volte il termine operatore è usato come sinonimo di endomorfismo). La nozione di endomorfismo simmetrico (o operatore autoaggiunto) dipende dalla presenza di un fissato prodotto scalare definito positivo (o Algebra lineare hermitiano se si usano spazi vettoriali complessi). Il teorema spettrale asserisce che un tale endomorfismo ha una base ortonormale formata da autovettori. Generalizzazione e argomenti correlati I metodi dell'algebra lineare sono stati estesi ad altre branche della matematica, grazie al loro successo. Nella teoria dei moduli si sostituisce il campo degli scalari con un anello. L'algebra multilineare si occupa dei problemi che mappano linearmente 'molte variabili' in un numero differente di variabili, portando inevitabilmente al concetto di tensore. Nella teoria spettrale degli operatori si riescono a gestire matrici di dimensione infinita applicando l'analisi matematica in una teoria non puramente algebrica. In tutti questi casi le difficoltà tecniche sono maggiori. Inoltre, l'algebra lineare viene a essere fondamentale per ambiti riguardanti l'ottimizzazione, in particolare la Ricerca Operativa. Note [1] Più precisamente, questo accade per uno spazio vettoriale reale dotato di un prodotto scalare definito positivo. [2] Lo spazio delle soluzioni di un sistema è uno spazio affine, ed il teorema di Rouché-Capelli fornisce un metodo per calcolarne la dimensione. Il numero di soluzioni può essere solo 0, 1 o infinito. Bibliografia • (EN) Serge Lang (2002): Algebra. Revised 3rd edition, Springer, ISBN 0-387-95385-X • (EN) Steven Roman (1992): Advanced linear algebra, Springer, ISBN 0-387-97837-2 • (EN) de Boor, Carl, Applied Linear Algebra (http://digital.library.wisc.edu/1793/11635), (University of Wisconsin-Madison, 2002). • (EN) Rife, Susan A, Matrix Algebra. (http://handle.dtic.mil/100.2/ADA316035) (Naval Postgraduate School, Monterey, California, 1996) • (EN) Delatorre, Anthony R. e Cooke, William K., Matrix Algebra. (http://handle.dtic.mil/100.2/ADA350689) (Naval Postgraduate School, Monterey, California, 1998) • (EN) Beezer, Rob, A First Course in Linear Algebra (http://linear.ups.edu/index.html), licenza GFDL. • (EN) J. H. M. Wedderburn Lectures on Matrices (http://www.ams.org/online_bks/coll17/) (American Mathematical Society, Providence, 1934) ISBN 0-8218-3204-2 • (EN) Fearnley-Sander, Desmond, Hermann Grassmann and the Creation of Linear Algebra (http://www.maths. utas.edu.au/People/dfs/Papers/GrassmannLinAlgpaper/GrassmannLinAlgpaper.html), American Mathematical Monthly 86 (1979), pp. 809 – 817. • (EN) Grassmann, Hermann, Die lineale Ausdehnungslehre ein neuer Zweig der Mathematik: dargestellt und durch Anwendungen auf die übrigen Zweige der Mathematik, wie auch auf die Statik, Mechanik, die Lehre vom Magnetismus und die Krystallonomie erläutert (http://books.google.com/books?id=bKgAAAAAMAAJ), O. Wigand, Leipzig, 1844. 12 Algebra lineare Voci correlate • Spazio vettoriale • Matrice Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Linear algebra Collegamenti esterni • (EN) Linear Algebra Toolkit (http://www.math.odu.edu/~bogacki/lat/). • (EN) Linear Algebra Workbench (http://www.algebra.com/algebra/college/linear/): moltiplica e inverte matrici, risolve sistemi, trova autovalori, ecc. • (EN) Linear Algebra (http://mathworld.wolfram.com/topics/LinearAlgebra.html) su MathWorld. Spazio vettoriale In matematica, uno spazio vettoriale, anche detto spazio lineare, è una struttura algebrica composta da: • un campo • un insieme i cui elementi sono detti vettori • due operazioni binarie, dette somma e moltiplicazione per scalare, caratterizzate da determinate proprietà.[1] Si tratta di una struttura algebrica di grande importanza, ed è una generalizzazione dell'insieme formato dai vettori del piano cartesiano ordinario (o dello spazio tridimensionale) dotati delle operazioni di somma di vettori e di moltiplicazione di un vettore per un numero reale. Si incontrano spazi vettoriali in numerosi capitoli della matematica moderna e nelle sue applicazioni: questi servono innanzitutto per studiare le soluzioni dei sistemi di equazioni lineari e delle equazioni differenziali lineari. Con queste equazioni si trattano moltissime situazioni: quindi si incontrano spazi vettoriali nella statistica, nella scienza delle costruzioni, nella meccanica quantistica, nella teoria dei segnali, nella biologia molecolare, ecc. Negli spazi vettoriali si studiano anche sistemi di equazioni e disequazioni e in particolare quelli che servono alla programmazione matematica e in genere alla ricerca operativa. Strutture algebriche preliminari agli spazi vettoriali sono quelle di gruppo, anello e campo. Vi sono poi numerose strutture matematiche che generalizzano e arricchiscono quella di spazio vettoriale; alcune sono ricordate nell'ultima parte di questo articolo. 13 Spazio vettoriale 14 Definizione formale La definizione di uno spazio vettoriale richiede di servirsi di un campo: sono interessanti soprattutto il campo dei numeri reali R e quello dei complessi C. Molti risultati dell'algebra lineare però si possono sviluppare servendosi del semplice campo dei numeri razionali Q e di notevole interesse sono anche i campi finiti, ed in particolare i campi delle classi di resto modulo p Fp, per ogni p numero primo. Sia K un generico campo, e si denotino rispettivamente con 0 e 1 il suo zero e la sua unità. Si dice che l'insieme V è sostegno di uno spazio vettoriale sul campo K se in V è definita un'operazione binaria interna (+) per la quale (V,+) è un gruppo commutativo (ossia un gruppo abeliano) ed è altresì definita una legge di composizione esterna (*) K×V→V - detta prodotto esterno o moltiplicazione per uno scalare per la quale valgono le seguenti proprietà:[2][3] 1. Associatività del prodotto esterno ∀ a,b ∈ K, ∀ v ∈ V: a * (b * v) = (ab) * v. Uno spazio vettoriale è una collezione di oggetti, chiamati "vettori", che possono essere sommati e riscalati. 2. Neutralità di 1 rispetto al prodotto esterno ∀ v ∈ V, 1 * v = v. 3. Distributività del prodotto esterno rispetto all'addizione di vettori ∀ a ∈ K, ∀ u, v ∈ V, a * (u + v) = a * u + a * v. 4. Distributività del prodotto esterno rispetto all'addizione di scalari ∀ a,b ∈ K, ∀ v ∈ V, (a + b) * v = a * v + b * v. La struttura algebrica così definita si simboleggia con (V, K) o semplicemente con V laddove non ci siano equivoci sul campo di definizione. Per uno spazio V sopra un campo K gli elementi di K sono detti scalari o numeri, mentre gli oggetti di V si dicono vettori o punti. I vettori si simboleggiano con caratteri in grassetto, sottolineati o sormontati da una freccia. Tale linguaggio consente di sostituire la dicitura prodotto esterno con prodotto per uno scalare. Poiché la moltiplicazione per uno scalare è una legge di composizione esterna K×V→V si dice che V ha struttura di spazio vettoriale sinistro. Nulla vieta di definire la composizione con uno scalare a destra; in tal caso si parlerà di spazio vettoriale destro. Da queste proprietà, possono essere immediatamente dimostrate le seguenti formule, valide per ogni a in K e ogni v in V: a *0=0*v=0 -(a * v) = (-a) * v = a * (-v) dove 0 è lo zero in K e 0 è lo zero in V. Uno spazio vettoriale reale o complesso è uno spazio vettoriale in cui K è rispettivamente il campo R dei numeri reali o il campo C dei numeri complessi. Spazio vettoriale Primi esempi Di seguito si elencano alcuni importanti esempi di spazi vettoriali; si denotano con m ed n due interi positivi. Spazi Kn L'insieme formato da tutte le sequenze finite e ordinate di elementi di K, con le operazioni di somma e di prodotto per uno scalare definite termine a termine (puntuali), è detto l'n-spazio numerico, spazio delle n-uple o spazio n-dimensionale delle coordinate e può essere considerato il prototipo di spazio vettoriale. Si osserva che gli spazi Rn e Cn posseggono una infinità continua di elementi, mentre Qn ha cardinalità numerabile e per ogni p primo lo spazio Fpn è costituito da un numero finito di vettori, per la precisione pn. Polinomi L'insieme K [x] dei polinomi a coefficienti in K e con variabile x, con le operazioni usuali di somma fra polinomi e prodotto di un polinomio per uno scalare, forma uno spazio vettoriale. Matrici L'insieme delle matrici m×n su K, con le operazioni di somma tra matrici e prodotto di uno scalare per una matrice, forma uno spazio vettoriale. Funzioni L'insieme Fun(X, K) di tutte le funzioni da un fissato insieme X in K, dove: • la somma di due funzioni f e g è definita come la funzione (f + g) che manda x in f(x)+g(x), • il prodotto (λf) di una funzione f per uno scalare λ in K è la funzione che manda x in λf(x) è uno spazio vettoriale. Ad esempio, l'insieme Fun(X, R) di tutte le funzioni da un aperto X dello spazio euclideo Rn in R è uno spazio vettoriale. 15 Spazio vettoriale 16 Nozioni basilari Lo studio della specie di struttura di spazio vettoriale si svolge sviluppando le nozioni di sottospazio vettoriale, di trasformazione lineare (l'omomorfismo per questa specie di struttura), di base e di dimensione. Sottospazi Un sottospazio vettoriale di uno spazio vettoriale è un sottoinsieme che eredita da una struttura di spazio vettoriale. Per ereditare questa struttura, è sufficiente che sia chiuso rispetto alle due operazioni di somma e prodotto per scalare. In particolare, deve contenere lo zero di . Esempi Una retta passante per l'origine è un sottospazio vettoriale del piano cartesiano R2; nello spazio vettoriale R3 tutti i piani e tutte le rette passanti per l'origine sono sottospazi. Gli spazi formati dalle matrici simmetriche o antisimmetriche sono sottospazi vettoriali dell'insieme delle matrici m×n su K. Tre sottospazi distinti di dimensione 2 in : sono piani passanti per l'origine. Due di questi si intersecano in un sottospazio di dimensione 1, cioè una retta passante per l'origine (una di queste è disegnata in blu). Altri importanti sottospazi vettoriali sono quelli di Fun(X, R), quando X è un insieme aperto di Rn: gli insiemi formati dalle funzioni continue, dalle funzioni differenziabili e dalle funzioni misurabili. Generatori e basi Una combinazione lineare di alcuni vettori è una scrittura del tipo Una combinazione lineare è l'operazione più generale che si può realizzare con questi vettori usando le due operazioni di somma e prodotto per scalare. Usando le combinazioni lineari è possibile descrivere un sottospazio (che è generalmente fatto da un insieme infinito di punti[4]) con un numero finito di dati. Si definisce infatti il sottospazio generato da questi vettori come l'insieme di tutte le loro combinazioni lineari. Un sottospazio può essere generato a partire da diversi insiemi di vettori. Tra i possibili insiemi di generatori alcuni risultano più economici di altri: sono gli insiemi di vettori con la proprietà di essere linearmente indipendenti. Un tale insieme di vettori è detto base del sottospazio. Si dimostra che ogni spazio vettoriale possiede una base; alcuni spazi hanno basi costituite da un numero finito di vettori, altri hanno basi costituenti insiemi infiniti. Per questi ultimi la dimostrazione dell'esistenza di una base deve ricorrere al Lemma di Zorn. Alla nozione di base di uno spazio vettoriale si collega quella di sistema di riferimento di uno spazio affine. Spazio vettoriale Dimensione Si dimostra che tutte le basi di uno spazio vettoriale posseggono la stessa cardinalità (questo risultato è dovuto a Felix Hausdorff). Questa cardinalità viene chiamata dimensione di Hamel dello spazio; questa entità in genere viene chiamata semplicemente dimensione dello spazio. La distinzione più rilevante fra gli spazi vettoriali vede da una parte gli spazi finito-dimensionali e dall'altra quelli di dimensione infinita. Per ogni intero naturale n lo spazio Kn ha dimensione n: in effetti una sua base è costituita dalle n n-uple aventi tutte le componenti nulle ad eccezione di una uguale alla unità del campo. In particolare l'insieme costituito dal solo 0 del campo può considerarsi uno spazio a 0 dimensioni, la retta dotata di un'origine è uno spazio monodimensionale su R, il piano cartesiano è uno spazio di dimensione 2, lo spazio R3 ha dimensione 3. Anche i polinomi con grado al più n formano un sottospazio vettoriale di dimensione n+1, mentre la dimensione dell'insieme delle funzioni Fun(X, K) è pari alla cardinalità di X. Tra gli spazi infinito dimensionali si trovano quelli formati dall'insieme dei polinomi in una variabile o in più variabili e quelli formati da varie collezioni di funzioni ad esempio gli spazi Lp. I vettori di uno spazio di n dimensioni, facendo riferimento ad una base fissata di tale spazio, possono essere rappresentati come n-uple di scalari: queste sono le loro coordinate. Questo fatto consente di affermare che ogni spazio n-dimensionale su K è sostanzialmente identificabile con Kn. Trasformazioni lineari e omomorfismi Una trasformazione lineare fra due spazi vettoriali V e W sullo stesso campo K è una applicazione che manda vettori di V in vettori di W rispettando le combinazioni lineari. Dato che le trasformazioni lineari rispettano le operazioni di somma di vettori e di moltiplicazioni per scalari, esse costituiscono gli omomorfismi per le strutture della specie degli spazi vettoriali. Per denotare l'insieme degli omomorfismi da V in W scriviamo Hom(V, W). Particolarmente importanti sono gli insiemi di endomorfismi; questi hanno la forma Hom(V, V). Si osserva che per le applicazioni lineari di Hom(V, W) si possono definire le somme e le moltiplicazioni per elementi di K, come per tutte le funzioni aventi valori in uno spazio su questo campo. L'insieme Hom(V, W) munito di queste operazioni costituisce a sua volta uno spazio vettoriale su K, di dimensione dim(V)×dim(W). Un caso particolare molto importante è dato dallo spazio duale V * := Hom(V, K); questo spazio ha le stesse dimensioni di V e in effetti i suoi vettori sono strettamente collegati ai vettori di V. Esempi più avanzati Spazio vettoriale libero Un esempio particolare spesso usato in algebra (e una costruzione piuttosto comune in questo campo) è quello di spazio vettoriale libero su un insieme. L'obiettivo è creare uno spazio che abbia gli elementi dell'insieme come base. Ricordando che, dato un generico spazio vettoriale, si dice che un suo sottoinsieme U è una base se gli elementi di U sono linearmente indipendenti e ogni vettore si può scrivere come combinazione lineare finita di elementi di U, la seguente definizione nasce naturalmente: uno spazio vettoriale libero V su B e campo K è l'insieme di tutte le combinazioni lineari formali di un numero finito di elementi di B a coefficienti in K, cioè i vettori di V sono del tipo dove i coefficienti non nulli sono in numero finito, e somma e prodotto sono definite come segue 17 Spazio vettoriale Da tener ben presente che queste somme sono dette formali perché sono da considerarsi appunto dei puri simboli. In pratica gli elementi di B servono solo come "segnaposto" per i coefficienti. Oltre a questa definizione più intuitiva ne esiste una del tutto equivalente in termine di funzioni da B su K con supporto finito (supp f := { b ∈ B | f(b) ≠ 0 }), cioè V ≅ { f: B → K | supp f è finito } dove per il secondo insieme le operazioni di somma e prodotto sono quelle naturali e la corrispondenza è Specializzazioni del concetto di spazio vettoriale La nozione di spazio vettoriale è servita innanzi tutto a puntualizzare proprietà algebriche riguardanti ambienti ed entità geometriche; inoltre essa costituisce la base algebrica per lo studio di questioni di analisi funzionale, che possiamo associare ad una geometrizzazione dello studio di funzioni collegate ad equazioni lineari. La sola struttura di spazio vettoriale risulta comunque povera quando si vogliono affrontare in modo più efficace problemi geometrici e dell'analisi funzionale. Infatti va osservato che con la sola struttura di spazio vettoriale non si possono affrontare questioni riguardanti lunghezze di segmenti, distanze ed angoli (anche se la visione intuitiva degli spazi vettoriali a 2 o 3 dimensioni sembra implicare necessariamente queste nozioni di geometria elementare). Per sviluppare le "potenzialità" della struttura spazio vettoriale risulta necessario arricchirla in molteplici direzioni, sia con ulteriori strumenti algebrici (ad es. proponendo prodotti di vettori), sia con nozioni topologiche, sia con nozioni differenziali. In effetti si può prospettare una sistematica attività di arricchimento degli spazi vettoriali con costruzioni che si aggiungono a quella di combinazione lineare al fine di ottenere strutture di elevata efficacia nei confronti di tanti problemi matematici, computazionali e applicativi. Per essere utili, queste costruzioni devono essere in qualche modo compatibili con la struttura dello spazio vettoriale, e le condizioni di compatibilità variano caso per caso. Spazio normato Uno spazio vettoriale in cui è definita una norma, cioè una lunghezza dei suoi vettori, è chiamato spazio normato. L'importanza degli spazi vettoriali normati dipende dal fatto che a partire dalla norma dei singoli vettori si definisce la distanza fra due vettori come norma della loro differenza e questa nozione consente di definire costruzioni metriche e quindi costruzioni topologiche. Spazio di Banach Uno spazio normato completo rispetto alla metrica indotta è detto spazio di Banach. Spazio di Hilbert Uno spazio vettoriale complesso (risp. reale) in cui è definito un prodotto scalare hermitiano (risp. bilineare) definito positivo, e quindi anche i concetti di angolo e perpendicolarità di vettori, è chiamato spazio prehilbertiano. Uno spazio dotato di prodotto scalare è anche normato, mentre in generale non vale il viceversa. Uno spazio dotato di prodotto scalare che sia completo rispetto alla metrica indotta è detto spazio di Hilbert. Spazio vettoriale topologico Uno spazio vettoriale munito anche di una topologia è chiamato spazio vettoriale topologico. 18 Spazio vettoriale Algebra su campo Uno spazio vettoriale arricchito con un operatore bilineare che definisce una moltiplicazione tra vettori costituisce una cosiddetta algebra su campo. Ad esempio, le matrici quadrate di ordine n munite del prodotto di matrici formano un'algebra. Un'altra algebra su un campo qualsiasi è fornita dai polinomi su tale campo muniti dell'usuale prodotto fra polinomi. Generalizzazioni del concetto di spazio vettoriale Una generalizzazione del concetto di spazio vettoriale è invece quella di modulo; essa si basa su richieste analoghe a quelle viste, ma per K non si chiede che sia un campo, ma un più generico anello. Note [1] [2] [3] [4] Hoffman, Kunze, op. cit., Pag. 28 S. Lang, op. cit., Pag. 37 Hoffman, Kunze, op. cit., Pag. 29 Questo è sempre vero se il campo è infinito, come ad esempio Q, R e C, tranne nel caso in cui il sottospazio sia semplicemente un punto (lo zero). Bibliografia • Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2 • Kenneth Hoffman; Ray Kunze, Linear Algebra, Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971. ISBN 01-353-6821-9 • Marco Abate; Chiara de Fabritiis, Geometria analitica con elementi di algebra lineare, Milano, McGraw-Hill, 2006. ISBN 88-386-6289-4. • Luciano Lomonaco, Un'introduzione all'algebra lineare, Roma, Aracne, 2005. ISBN 88-548-0144-5. • Giulio Campanella, Appunti di algebra, Roma, Nuova Cultura, 2005. ISBN 88-89362-22-7. • Werner Greub, Linear Algebra, 4a ed., New York, Springer, 1995. ISBN 0-387-90110-8. • Steven Roman, Advanced linear algebra, Springer, 1992. ISBN 0-387-97837-2. • Edoardo Sernesi, Geometria 1, 2a ed., Torino, Bollati Boringhieri, 1989. ISBN 88-339-5447-1. • Serge Lang, Linear Algebra, 3a ed., New York, Springer, 1987. ISBN 0-387-96412-6. • Georgi Evgen'evich Shilov, Linear Algebra, Tradotto da Richard Silverman, New York, Dover, 1977. ISBN 0-486-63518-X. • Paul Halmos, Finite-Dimensional Vector Spaces, 2a ed., New York, Springer, 1974. ISBN 0-387-90093-4. • Silvana Abeasis, Elementi di algebra lineare e geometria, Bologna, Zanichelli, 1993. ISBN 88-08-16538-8. Voci correlate • • • • • • • Vettore (matematica) Applicazione lineare Dimensione Sottospazio vettoriale Spazio duale Prodotto scalare Norma 19 Trasformazione lineare 20 Trasformazione lineare In matematica, più precisamente in algebra lineare, una trasformazione lineare, detta anche applicazione lineare o mappa lineare, è una funzione tra due spazi vettoriali che preserva la forma delle operazioni di somma di vettori e di moltiplicazione per scalare. In altre parole, preserva le combinazioni lineari, cioè le composizioni che caratterizzano la specie di struttura spazio vettoriale; quindi nel linguaggio dell'algebra astratta, una trasformazione lineare è un omomorfismo di spazi vettoriali, in quanto conserva la forma di ogni istanza dell'operazione che caratterizza gli spazi vettoriali. Definizione Siano e due spazi vettoriali sullo stesso campo . Una funzione è una trasformazione [1][2] lineare se soddisfa le seguenti proprietà: • • per ogni coppia di vettori e in e per ogni scalare in . La prima proprietà è detta additività, la seconda omogeneità di grado 1. Equivalentemente, è lineare se "preserva le combinazioni lineari", ovvero se: per ogni intero positivo m e ogni scelta dei vettori Se è una applicazione lineare e e togliendo e degli scalari e . sono i vettori nulli di e rispettivamente, allora:[3] da ambo i membri si ottiene Sostituendo allo zero una combinazione lineare di vettori linearmente dipendenti si dimostra che un'applicazione lineare non banale manda sottoinsiemi del dominio linearmente indipendenti in sottoinsiemi del codominio linearmente indipendenti.[4] Un'applicazione lineare è descritta completamente attraverso la sua azione sui vettori di una base qualsiasi del dominio.[5] Poiché la scrittura di un vettore in una data base è unica, la linearità dell'applicazione determina l'unicità del vettore immagine. Un'applicazione lineare biunivoca (o invertibile) è inoltre un isomorfismo tra spazi vettoriali.[6] Esistenza ed unicità dell'applicazione lineare Siano e due spazi vettoriali di dimensione finita. Sia vettori di . Allora esiste un'unica applicazione lineare da una base di in e siano [7] tale che: Nel caso non si conosca la forma esplicita dell'applicazione è comunque possibile stabilirne l'esistenza e l'unicità attraverso la conoscenza dell'azione dell'applicazione su un insieme di vettori dati , dei quali si conosce quindi l'immagine. Se l'insieme di vettori è una base del dominio allora l'applicazione è univocamente determinata, mentre se i vettori dati non costituiscono una base vi sono due casi: • I vettori di cui si conosce l'immagine sono linearmente indipendenti: in tal caso l'applicazione esiste ma non è unica. • I vettori di cui si conosce l'immagine non sono linearmente indipendenti: in tal caso uno o più vettori sono combinazione lineare dei restanti. Si ha: Trasformazione lineare 21 L'applicazione esiste (ma non è unica) se e solo se: Matrice associata Siano e due spazi vettoriali di dimensione finita. Scelte due basi trasformazione lineare da Ogni vettore in Se a e per e , ogni è rappresentabile come una matrice. Si ponga: è univocamente determinato dalle sue coordinate , definite in modo che: è una trasformazione lineare si ha: Quindi la funzione La funzione e è determinata dai vettori . Ciascuno di questi è scrivibile come: è dunque interamente determinata dai valori di , che formano la matrice associata a nelle basi [8] . La matrice associata è di tipo , e può essere usata agevolmente per calcolare l'immagine vettore di grazie alla relazione seguente: dove e sono le coordinate di e di ogni nelle rispettive basi. Notiamo che la scelta delle basi è essenziale: la stessa matrice, usata su basi diverse, può rappresentare applicazioni lineari diverse. Struttura di spazio vettoriale L'insieme delle applicazioni lineari da formato da tutte le funzioni da in in è un sottospazio vettoriale dello spazio vettoriale [9] , infatti: • La composizione di trasformazioni lineari è anch'essa una trasformazione lineare. Se e sono applicazioni lineari, allora lo è anche • Se e sono lineari, allora lo è la loro somma • Se è lineare e è un elemento del campo , definita dalla relazione: , allora la mappa , definita da , è anch'essa lineare. Nel caso finito-dimensionale, dopo aver fissato delle basi, le operazioni di composizione, somma e prodotto per scalare di mappe lineari corrispondono rispettivamente a moltiplicazione di matrici, somma di matrici e moltiplicazione di matrici per scalare. Le basi definiscono quindi un isomorfismo lineari e delle matrici , dove e tra gli spazi vettoriali delle applicazioni sono le dimensioni rispettivamente di e . Trasformazione lineare 22 Nucleo e immagine Se è lineare, si definisce nucleo di si definisce immagine di L'insieme ker( l'insieme:[10] [11] l'insieme: ) è un sottospazio di , mentre Im( ) è un sottospazio di . Se e hanno dimensione [12] finita, il teorema della dimensione asserisce che: Tale teorema fornisce un criterio necessario e sufficiente al fine di stabilre l'esistenza di una trasformazione lineare. Endomorfismi e automorfismi Una trasformazione lineare è un endomorfismo di . L'insieme di tutti gli endomorfismi Endo( ) insieme a addizione, composizione e moltiplicazione per uno scalare come descritti sopra formano un'algebra associativa con unità sul campo : in particolare formano un anello e un spazio vettoriale su . L'elemento identità di questa algebra è la trasformazione identità di Un endomorfismo biiettivo di . viene chiamato automorfismo di nuovo un automorfismo, e l'insieme di tutti gli automorfismi di , chiamato Aut( ) o GL( Se la dimensione di ; la composizione di due automorfismi è di forma un gruppo, il gruppo generale lineare di ). è finita basterà che f sia iniettiva per poter affermare che sia anche suriettiva (per il teorema della dimensione). Inoltre l'isomorfismo fra gli endomorfismi e le matrici quadrate automorfismi di in descritto sopra è un isomorfismo di algebre. Il gruppo degli è isomorfo al gruppo lineare generale GL( , ) di tutte le matrici invertibili a valori . Pull-Back di funzioni ed applicazione trasposta Siano A,B,C degli insiemi ed F ( A, C ), F ( B, C ) le famiglie di funzioni da A in C e da B in C rispettivamente. Ogni φ: A → B determina univocamente una corrispondenza φ*: F ( B, C ) → F ( A, C ), chiamata pull-back tramite φ, che manda f in f φ. Se nello specifico prendiamo A = V, B = W due spazi vettoriali su campo k = C, e anziché prendere gli interi F ( V, k ), F ( W, k ) ci restringiamo agli spazi duali V* e W*, abbiamo che ad ogni trasformazione lineare φ : V → W possiamo associare l'opportuna restrizione del pull-back tramite φ, φ*: W* → V*, che prende il nome di trasposta di φ. Segue direttamente da come sono definite le operazioni in V* e W* che φ* è a sua volta lineare. Con un semplice calcolo si vede che fissate delle basi per V e W, e le rispettive duali in V*, W*, la matrice che rappresenta φ* è la trasposta di quella di φ (o, se rappresentiamo i funzionali come matrici riga e quindi viene tutto trasposto, le due matrici sono uguali). Segue dalla definizione che un funzionale w* ∈ W* viene mandato a 0 se e solo se l'immagine di φ è contenuta nel nucleo di w* cioè, indicando con U⊥ il sottospazio dei funzionali che annullano U ⊂ W, si ha ker φ* = (im φ)⊥. Trasformazione lineare 23 Esempi • La moltiplicazione per una costante fissata in è una trasformazione lineare su qualsiasi spazio vettoriale su . • Una rotazione del piano euclideo rispetto all'origine di un angolo fissato. • Una riflessione del piano euclideo rispetto ad una retta passante per l'origine. • La proiezione di uno spazio vettoriale V decomposto in somma diretta su uno dei due sottospazi U o W. • Una matrice di tipo con valori reali definisce una trasformazione lineare dove è il prodotto di e . Ogni trasformazione lineare tra spazi vettoriali di dimensione finita è essenzialmente di questo tipo: si veda la sezione seguente. • L'integrale di una funzione reale su un intervallo definisce una mappa lineare dallo spazio vettoriale delle funzioni continue definite sull'intervallo nello spazio vettoriale R. • La derivata definisce una mappa lineare dallo spazio vettoriale di tutte le funzioni derivabili in qualche intervallo aperto di R nello spazio di tutte le funzioni. • Lo spazio C dei numeri complessi ha una struttura di spazio vettoriale complesso di dimensione 1, e anche di spazio vettoriale reale di dimensione 2. La coniugazione è una mappa R-lineare ma non C-lineare: infatti la proprietà di omogeneità vale solo per scalari reali. Note [1] S. Lang, op. cit., Pag. 82 [2] Hoffman, Kunze, op. cit., Pag. 67 [3] Hoffman, Kunze, op. cit., Pag. 68 [4] Hoffman, Kunze, op. cit., Pag. 80 [5] S. Lang, op. cit., Pag. 86 [6] S. Lang, op. cit., Pag. 96 [7] Hoffman, Kunze, op. cit., Pag. 69 [8] S. Lang, op. cit., Pag. 84 [9] S. Lang, op. cit., Pag. 85 [10] S. Lang, op. cit., Pag. 90 [11] S. Lang, op. cit., Pag. 91 [12] S. Lang, op. cit., Pag. 92 Trasformazione lineare 24 Bibliografia • Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2 • Kenneth Hoffman; Ray Kunze, Linear Algebra, 2a ed., Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971. ISBN 01-353-6821-9 Voci correlate • • • • • • Matrice di trasformazione Autovettore e autovalore Trasformazione affine Funzionale lineare Operatore lineare continuo (EN) wikibooks:Linear Algebra/Linear Transformations Collegamenti esterni • (EN) http://www.falstad.com/matrix/ Base (algebra lineare) In matematica, e più precisamente in algebra lineare, la base di uno spazio vettoriale è un insieme di vettori linearmente indipendenti che generano lo spazio.[1] In modo equivalente, ogni elemento dello spazio vettoriale può essere scritto in modo unico come combinazione lineare dei vettori appartenenti alla base.[2] Se la base di uno spazio vettoriale è composta da un numero finito di elementi allora la dimensione dello spazio è finita.[3] In particolare, il numero di elementi della base è la dimensione dello spazio.[4] Definizione Sia V uno spazio vettoriale su un campo K. L'insieme v1, v2, ..., vn di elementi di V è una base di V se valgono entrambe le seguenti proprietà:[2] • I vettori v1, ..., vn sono linearmente indipendenti in K, ovvero la relazione: è verificata solo se i numeri a1, a2, .., an sono tutti uguali a zero. • I vettori v1, ..., vn generano V, ovvero: In particolare, per ogni vettore v di V i numeri a1, a2, .., an sono le sue coordinate rispetto alla base scelta. Si dice anche che i vettori appartenenti ad una qualsiasi base di V costituiscono un sottoinsieme massimale di vettori linearmente indipendenti dello spazio.[5] Questo significa che i vettori sono tali che esistono a1, a2, .., an tali che: ovvero l'aggiunta al sottoinsieme massimale di un qualsiasi altro elemento dello spazio determina la dipendenza lineare degli elementi del sottoinsieme.[6] Base (algebra lineare) Una base è dunque composta dal minimo numero di vettori linearmente indipendenti che genera lo spazio. Un insieme di infiniti elementi possiede infinite possibili basi diverse. Dimensione di uno spazio vettoriale Uno spazio vettoriale in generale non ha una sola base, e solitamente si trattano spazi con infinite basi possibili. Il teorema della dimensione per spazi vettoriali afferma che tutte le possibili basi di uno stesso spazio hanno la stessa cardinalità, sono formate cioè sempre dallo stesso numero di vettori.[7] Questo numero è la dimensione dello spazio, e permette di definire spazi di dimensione arbitrariamente alta. La dimensione dello spazio è inoltre pari sia al massimo numero di vettori indipendenti che esso contiene, sia al minimo numero di vettori necessari per generare lo spazio stesso. Esistenza Qualsiasi sia lo spazio vettoriale V, è sempre possibile trovarne una base. La dimostrazione richiede l'uso del lemma di Zorn nel caso generale, mentre nel caso particolare degli spazi finitamente generati esistono dimostrazioni più semplici. Si consideri la collezione I(V) dei sottoinsiemi di V linearmente indipendenti. È immediato dedurre che l'inclusione ⊂ è un ordine parziale su I(V), e che per ogni catena {Bi} l'insieme ∪ Bi ne è un maggiorante (è linearmente indipendente in quanto unione di elementi di una catena ordinata per inclusione). Applicando il lemma di Zorn, esiste un insieme massimale linearmente indipendente B in I(V). Dunque B è una base, infatti se v ∈ V e v ∉ B, allora per la massimalità di B l'insieme B ∪ {v} deve essere linearmente dipendente, cioè esistono degli scalari a, a1, ..., an non tutti nulli tali che con a ≠ 0, dal momento che se fosse nulla allora anche gli altri ai dovrebbero esserlo, essendo gli elementi di B linearmente indipendenti. Quindi v può essere scritto come combinazione lineare finita di elementi di B, che oltre a essere linearmente indipendenti generano V. Dunque B è una base. Coordinate rispetto ad una base Per esprimere un vettore in modo unico attraverso una base è necessario definire un ordinamento nell'insieme dei vettori che costituiscono la base. Una base ordinata è una successione di vettori linearmente indipendenti che generano lo spazio. In particolare, se la successione v1, v2, ..., vn di elementi è una base ordinata di V, allora l'insieme di tali vettori è una base di V.[8] Ogni vettore w di V si può scrivere in modo unico come combinazione lineare dei vettori di base: Si definisce l'insieme delle coordinate di w rispetto alla base data il vettore:[8] Si tratta del vettore che ha come componenti i coefficienti della combinazione lineare di vettori di base attraverso i quali si può scrivere w. Tale vettore dipende dalla base scelta. La mappa f: V → Kn che associa ad ogni vettore v le sue coordinate f(v) è un isomorfismo di spazi vettoriali, cioè è una applicazione lineare biettiva.[9] 25 Base (algebra lineare) 26 La base canonica Sia K un campo. L'insieme Kn è uno spazio vettoriale di dimensione n. Si definisce base canonica di Kn l'insieme di vettori:[1] Ogni vettore w di Kn si può allora scrivere come combinazione lineare dei vettori di base: Il vettore: è il vettore delle coordinate di w rispetto alla base canonica.[10] Solitamente si identifica un vettore attraverso le sue coordinate rispetto alla base canonica, ovvero w = a. Ad esempio, i vettori sono una base di R2, infatti ogni vettore ed si scrive come: Generalizzazioni in dimensione infinita Il concetto di base in spazi di dimensione infinita (in cui cioè esista un insieme infinito di vettori linearmente indipendenti) è più problematico. Per tali spazi esistono due nozioni differenti di base: la prima, detta base di Hamel, è definita algebricamente, mentre la seconda, detta base di Schauder, necessita della presenza di una topologia. Base di Hamel Una base di Hamel per uno spazio vettoriale parametrizzato da un insieme ordinato di vettori linearmente indipendenti[11], è un insieme di indici, tale che ogni vettore di è combinazione lineare di un insieme finito di questi. Nel caso in cui è un insieme finito, la definizione coincide con quella data precedentemente. Grazie al lemma di Zorn ogni spazio vettoriale ha una base di Hamel, ed inoltre due basi di Hamel qualsiasi di uno stesso spazio vettoriale hanno la stessa cardinalità, che è pari alla dimensione (di Hamel) dello spazio vettoriale. Infine, continua a rimanere vero il fatto che ogni vettore dello spazio si scrive in modo unico come combinazione lineare dei vettori di una base di Hamel. Ad esempio, una base di Hamel per lo spazio vettoriale campo formato da tutti i polinomi a coefficienti in un è data dall'insieme di tutti i monomi: Infatti ogni polinomio è combinazione lineare di un insieme finito di questi. L'insieme dei numeri reali può essere considerato uno spazio vettoriale su . Ne consegue che ogni numero reale può essere espresso come combinazione lineare finita di elementi presi da un sottoinsieme proprio di sottoinsieme non potrà essere finito o numerabile poiché possono essere fatte considerando : tale ha la potenza del continuo (analoghe considerazioni come spazio vettoriale su ). Base (algebra lineare) 27 Base di Schauder o topologica Se lo spazio è dotato di una topologia, è possibile estendere la definizione di base in modo diverso, ammettendo somme infinite di vettori. Il senso di queste somme infinite è infatti dato dalle nozioni di limite di una successione e di serie. Se è uno spazio vettoriale topologico (ad esempio uno spazio di Hilbert o di Banach), un insieme ordinato di vettori linearmente indipendenti è una base di Schauder (o topologica) se lo spazio da essi generato è denso in . In altre parole, se ogni vettore di può essere approssimato da somme (finite) di vettori in , e quindi come limite di una somma infinita di questi: dove è un sottoinsieme numerabile. Problema di esistenza della base di Schauder Si pone il problema dell'esistenza di una base di Schauder in spazi di Hilbert o di Banach. La risposta, in generale, è negativa: infatti, dalla definizione consegue, in particolare, che uno spazio di Hilbert o di Banach che possiede una base di Schauder deve necessariamente essere separabile (infatti, dallo spazio generato dai , che è denso in è sempre possibile estrarre un sottoinsieme denso e numerabile utilizzando le combinazioni lineari a coefficienti in ) In uno spazio di Hilbert, è di particolare importanza la nozione di base ortonormale: in uno spazio di Hilbert separabile, una base ortonormale è una base di Schauder. L'esistenza di una base di Schauder in uno spazio di Banach non è, in genere, assicurata nemmeno aggiungendo l'ipotesi (peraltro necessaria) che si tratti di uno spazio separabile: un controesempio è stato fornito nel 1973 da Per Enflo. Un teorema di Stanisław Mazur mostra che in uno ogni spazio di Banach (a dimensione infinita) esiste sempre un sottospazio di dimensione infinita che possiede una base di Schauder. L'esistenza di una base di Schauder consente di estendere alcuni teoremi . . Cardinalità Le due nozioni di basi sono generalmente molto differenti, e anche le loro cardinalità possono differire, portando a due concetti diversi di dimensione, chiamati rispettivamente dimensione di Hamel e dimensione di Schauder. La dimensione di Hamel può avere cardinalità superiore a quella di Schauder (pur essendo entrambe infinite). Ad esempio, sia lo spazio delle funzioni continue reali definite sull'intervallo . Questo è uno spazio di Banach con la norma Come conseguenza della teoria delle serie di Fourier, una base di Schauder per è costruita a partire dalle funzioni trigonometriche ed ha cardinalità numerabile. Una base di Hamel ha invece cardinalità non numerabile, ed è molto più difficile da costruire (e scarsamente utilizzata). Base (algebra lineare) 28 Note [1] Hoffman, Kunze, op. cit., Pag. 41 [2] S. Lang, op. cit., Pag. 44 [3] Si ha anche che se la base è composta da un numero infinito di elementi allora la dimensione è infinita, tuttavia questa affermazione non segue direttamente dalla definizione. [4] Hoffman, Kunze, op. cit., Pag. 44 [5] S. Lang, op. cit., Pag. 45 [6] S. Lang, op. cit., Pag. 47 [7] S. Lang, op. cit., Pag. 49 [8] Hoffman, Kunze, op. cit., Pag. 50 [9] Hoffman, Kunze, op. cit., Pag. 51 [10] Hoffman, Kunze, op. cit., Pag. 49 [11] Per definizione è un insieme di vettori indipendenti se ogni suo sottoinsieme finito è formato da vettori indipendenti. Bibliografia • Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2 • Kenneth Hoffman; Ray Kunze, Linear Algebra, 2a ed., Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971. ISBN 01-353-6821-9 Voci correlate • • • • • • • Base ortonormale Completamento a base Estrazione di una base Formula di Grassmann Matrice di cambiamento di base Span lineare Sottospazio vettoriale Teorema del rango 29 Teorema del rango In matematica, in particolare in algebra lineare, il teorema del rango, anche detto teorema di nullità più rango o teorema della dimensione, afferma che la somma della dimensione dell'immagine più la dimensione del nucleo di una trasformazione lineare è pari alla dimensione del dominio. In modo equivalente, la somma del rango e della nullità di una matrice è pari al numero di colonne della matrice. Enunciato Il teorema vale nel contesto delle trasformazioni lineari fra spazi vettoriali, con l'ipotesi che lo spazio vettoriale di partenza abbia dimensione finita. Data una applicazione lineare fra spazi vettoriali: il teorema stabilisce che vale la relazione:[1] dove e sono rispettivamente l'immagine e il nucleo di In modo equivalente, se è una matrice e è la dimensione di . allora: L'equivalenza degli enunciati deriva dal fatto che ogni applicazione lineare può essere scritta nel [2] seguente modo: dove A è la matrice di trasformazione associata ad rispetto ad una data base. Il nucleo di f è lo spazio delle soluzioni del sistema di equazioni lineari omogeneo associato alla matrice A, mentre l'immagine è lo spazio generato dalle sue colonne .[3] Dimostrazione Poiché ha dimensione finita, il sottospazio vettoriale ha anch'esso dimensione finita. Il nucleo ha quindi una base: Per il teorema della base incompleta esistono sia una base di . Per concludere è sufficiente mostrare che i vettori: formano una base di I primi tali che: . L'immagine è generata dai vettori: vettori sono però nulli, quindi l'immagine è generata dagli ultimi vettori: Resta quindi da verificare che questi vettori siano linearmente indipendenti. Si suppone quindi data una combinazione lineare nulla: Per linearità si ottiene: Quindi: Teorema del rango 30 Poiché questo vettore sta nel nucleo, è esprimibile come combinazione lineare dei vettori : In altre parole: Poiché è una base di , tutti i coefficienti qui presenti sono nulli. In particolare, . Quindi i vettori per ogni sono effettivamente indipendenti. L'immagine ha quindi dimensione . Pertanto: Dimostrazione con il teorema di isomorfismo Il teorema del rango può essere visto come corollario al primo teorema di isomorfismo: , dove è un omomorfismo di gruppi (in particolare, di spazî vettoriali) che agisce su V. Si ha infatti: , che è l'asserto del teorema. Caso di dimensione infinita Supponiamo il caso particolare in cui l'applicazione lineare è un endomorfismo, cioè una applicazione lineare dallo spazio V in sé stesso La relazione appena dimostrata dice che l'iniettività e la suriettività dell'applicazione si implicano a vicenda. Nel caso infinito questo cessa di essere vero. Ad esempio considerando come spazio vettoriale su e l'applicazione che agisce "spostando" in avanti le coordinate e mettendo lo zero in prima posizione, cioè è immediato mostrare che tale applicazione è lineare e iniettiva, ma banalmente non suriettiva. Teorema del rango Riformulazioni e generalizzazioni In linguaggio più moderno, il teorema può essere espresso nel seguente modo: se è una successione esatta corta di spazi vettoriali, allora Qui R gioca il ruolo di im T e U è ker T. Nel caso finito-dimensionale questa formulazione è suscettibile di generalizzazione: se è una successione esatta di spazi vettoriali a dimensioni finite, allora Il teorema del rango per gli spazi vettoriali a dimensioni finite può anche essere formulato in termini degli indici di una mappa lineare. L'indice di una mappa lineare T : V → W, dove V e W sono a dimensioni finite, è definito da indice T = dim(ker T) - dim(coker T). Intuitivamente, dim(ker T) è il numero di soluzioni indipendenti x dell'equazione Tx = 0, e dim(coker T) è il numero di restrizioni indipendenti che devono essere poste su y per rendere Tx = y risolvibile. Il teorema del rango per gli spazi vettoriali a dimensioni finite è equivalente all'espressione index T = dim(V) - dim(W). Si vede che possiamo facilmente leggere l'indice della mappa lineare T dagli spazi coinvolti, senza la necessità di esaminare T in dettaglio. Questo effetto si trova anche in un risultato molto più profondo: il teorema dell'indice di Atiyah-Singer afferma che l'indice di determinati operatori differenziali può essere letto dalla geometria degli spazi coinvolti. Note [1] S. Lang, op. cit., Pag. 92 [2] S. Lang, op. cit., Pag. 105 [3] S. Lang, op. cit., Pag. 176 Bibliografia • Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2 • Philippe Ellia, Appunti di Geometria I, Bologna, Pitagora Editrice, 1997, ISBN 88-3710958-X 31 Formula di Grassmann 32 Formula di Grassmann In matematica, la formula di Grassmann è una relazione che riguarda le dimensioni dei sottospazi vettoriali di uno spazio vettoriale o dei sottospazi proiettivi di uno spazio proiettivo. La formula di Grassmann, il cui nome è stato scelto in onore del matematico tedesco Hermann Grassmann, afferna inoltre che i sottospazi di uno spazio vettoriale muniti delle operazioni binarie + e costituiscono un reticolo modulare. Definizione Sia uno spazio vettoriale su un campo due sottospazi di e con dotato di dimensione finita, cioè dotato di una base finita. Siano . Indichiamo con il sottospazio somma di e e [1] , dato da: il loro sottospazio intersezione. La formula di Grassman afferma che:[2] Somma diretta Due sottospazi e sono in somma diretta se . In questo caso la formula di Grassmann asserisce che: Se inoltre , si dice che si decompone in somma diretta di In questo caso il sottospazio è un supplementare di Ad esempio, lo spazio delle matrici quadrate e e si scrive: (e viceversa). a coefficienti in un campo si decompone nei sottospazi delle matrici simmetriche e delle antisimmetriche: La formula di Grassmann porta alla uguaglianza concernente le dimensioni dei due sottospazi della forma: Dimostrazione Struttura della dimostrazione La formula si dimostra individuando due basi per e che hanno in comune i vettori che costituiscono una base per la loro intersezione. Più precisamente, si prende una base di , e ad una base di . I vettori in generano lo spazio per , e si completa ad una base , si verifica che sono indipendenti, e quindi sono una base per degli elementi nelle quattro basi trovate fornisce la formula di Grassmann. . Un conteggio Formula di Grassmann 33 Verifica dell'indipendenza lineare L'unico fatto che necessita di una dimostrazione approfondita è l'indipendenza dei vettori in che viene mostrata nel modo seguente: sia Supponiamo l'esistenza di una combinazione lineare nulla In altre parole, raggruppando si ottiene Da questo segue che a . Quindi , e poiché sia appartiene all'intersezione D'altra parte, come elemento di che appartengono a , ne segue che anche appartiene , e si scrive come combinazione lineare di elementi di , è descritto come combinazione lineare di elementi di . : poiché ogni elemento ha un'unica descrizione come combinazione lineare di elementi di una base, ne segue che entrambe queste combinazioni hanno tutti i coefficienti nulli. Quindi Si ottiene quindi sono una base di . Poiché i vettori , sono quindi indipendenti, e ne segue che anche Quindi i coefficienti sono tutti nulli: l'insieme è formato da elementi indipendenti, ed è quindi una base. Conteggio dimensioni Usando le notazioni appena introdotte, il conteggio delle dimensioni dà proprio Dimostrazione alternativa Si consideri la funzione: che si verifica essere un'applicazione lineare. Si ha: Il nucleo è uno spazio vettoriale isomorfo a Si ha quindi: dove si è applicato il teorema del rango più nullità. , e l'isomorfismo è dato da: Formula di Grassmann 34 Dimostrazione con il teorema di isomorfismo La formula di Grassmann può essere vista come corollario del secondo teorema di isomorfismo: con U e W visti come gruppi (notazione additiva), e dove con si intende l'ordinario quoziente insiemistico. Infatti si ha: che è la formula di Grassmann. Esempi Questa formula si visualizza facilmente e significativamente nel caso in cui tridimensionale sui reali sia lo spazio vettoriale ; le possibilità per i sottospazi portano alla seguente casistica: • Uno dei due sottospazi o ha dimensione 0 o 3: in questo caso (a meno di scambiare i nomi dei due sottospazi) abbiamo e e la formula si riduce a una identità. • e sono sottospazi di dimensione 1 (cioè rette passanti per l'origine): • se le rette sono distinte contiene solo il vettore nullo ed ha dimensione 0 e è il piano contenente le due rette, per cui la formula si riduce a 1 + 1 = 2 + 0. • se coincidono e ancora si ha una identità. • è una retta per l'origine e un piano per l'origine: • se la retta non giace nel piano si ha: 1 + 2 = 3 + 0; • se la retta giace nel piano: 1 + 2 = 2 + 1. • e sono piani per l'origine: • se non coincidono la loro intersezione è una retta e si ha: 2 + 2 = 3 + 1; • se coincidono si ha un'identita` che numericamente afferma: 2 + 2 = 2 + 2. • per il calcolo della dimensione di H si utilizza la seguente formula: H=9-dimA*(3-dimB) Note [1] S. Lang, op. cit., Pag. 52 [2] Hoffman, Kunze, op. cit., Pag. 46 Bibliografia • Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2 • Kenneth Hoffman; Ray Kunze, Linear Algebra, 2a ed., Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971. ISBN 01-353-6821-9 Voci correlate • base • Teorema della dimensione Teorema di Rouché-Capelli 35 Teorema di Rouché-Capelli Il teorema di Rouché-Capelli è un teorema di algebra lineare che permette di calcolare il numero di soluzioni di un sistema di equazioni lineari in funzione del rango di alcune matrici. Prende il nome dal matematico francese Eugène Rouché, suo ideatore, e dal matematico italiano Alfredo Capelli, che lo riscrisse in maniera più semplice. Il teorema Un sistema di equazioni lineari: può essere descritto usando la matrice: detta matrice associata al sistema. Essa è ottenuta dalla giustapposizione della matrice un'ulteriore colonna , detta colonna dei termini noti. Le matrici e dei coefficienti e di sono dette rispettivamente incompleta e completa. I coefficienti del sistema lineare (e quindi delle matrici) sono elementi di un campo quale ad esempio quello dei numeri reali o complessi , . Il teorema di Rouché-Capelli afferma che esistono soluzioni per il sistema se e solo se il rango della matrice completa è uguale al rango della matrice incompleta: Se esistono soluzioni, queste formano un sottospazio affine di campo è infinito si ha che se di dimensione . In particolare, se il allora la soluzione è unica, altrimenti ci sono infinite soluzioni.[1] Dimostrazione Il sistema può essere descritto in modo più stringato, introducendo il vettore delle coordinate: ed usando il prodotto fra matrici e vettori, nel modo seguente: In altre parole, è l'immagine del vettore ottenuta mediante l'applicazione lineare associata alla matrice dei coefficienti: Quindi il sistema ammette soluzione se e solo se nell'immagine di . Del resto l'immagine di è l'immagine di un qualche vettore contenuto nell'immagine se e solo se lo span delle colonne di di è uguale allo span delle colonne di di è generata dai vettori dati dalle colonne di contiene , ovvero se è . Quindi è , cioè se e solo se lo span delle colonne . Quest'ultima affermazione è equivalente a chiedere che le due Teorema di Rouché-Capelli 36 matrici abbiano lo stesso rango. Se esiste una soluzione , ogni altra soluzione si scrive come , dove è una soluzione del sistema [2] lineare omogeneo associato: Infatti: Lo spazio delle soluzioni, ottenuto traslando il nucleo con il vettore , è quindi il sottospazio affine dato da: La dimensione dello spazio delle soluzioni del sistema completo è uguale alla dimensione dello spazio delle soluzioni del sistema omogeneo associato.[3] Le soluzioni del sistema lineare omogeneo associato sono il nucleo dell'applicazione dimensione il nucleo è un sottospazio vettoriale di dimensione ottenuto traslando il nucleo con il vettore , e per il teorema della . Quindi lo spazio delle soluzioni, , è un sottospazio affine della stessa dimensione. Note [1] Informalmente, il fatto che le soluzioni formano un sottospazio affine di dimensione gradi di libertà. Alcuni testi sintetizzano questo fatto asserendo che ci sono equivale al fatto che queste hanno soluzioni, tuttavia questa notazione è errata da un punto di vista matematico in quanto lascia intendere che la cardinalità dell'insieme dipenda dalla dimensione , mentre la cardinalità è sempre la stessa e quello che varia è la dimensione dell'oggetto. [2] S. Lang, op. cit., Pag. 177 [3] S. Lang, op. cit., Pag. 178 Bibliografia • Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2 • Kenneth Hoffman; Ray Kunze, Linear Algebra, 2a ed., Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971. ISBN 01-353-6821-9 • F. Odetti; M. Raimondo, Elementi di Algebra Lineare e Geometria Analitica, ECIG, 1992. ISBN 88-7545-717-4 Voci correlate • Teorema della dimensione Rango (algebra lineare) 37 Rango (algebra lineare) Nell'algebra lineare, il rango o caratteristica di una matrice colonne (o righe) linearmente indipendenti in a valori in un certo campo è il massimo numero di . Il rango di una matrice può essere formulato in numerosi modi equivalenti, ed è una quantità fondamentale in algebra lineare, utile per risolvere i sistemi lineari e studiare le applicazioni lineari. È comunemente indicato con rango( ), rg( )o ( ), o con le versioni inglesi rank( ) o rk( ). Definizione Sia • • • • una matrice, a valori in un campo . Le seguenti definizioni di rango di sono tutte equivalenti: Il massimo numero di colonne linearmente indipendenti Il massimo numero di righe linearmente indipendenti La dimensione del sottospazio di generato dalle colonne di La dimensione del sottospazio di generato dalle righe di • La dimensione dell'immagine dell'applicazione lineare da in seguente: • Il massimo ordine di un minore invertibile di Rango di una trasformazione lineare Si può attribuire un rango anche ad una generica applicazione lineare, definendolo come la dimensione dello spazio vettoriale dato dalla sua immagine. In una esposizione con fini tendenzialmente generali una definizione di questo genere ha il vantaggio di essere applicabile senza la necessità di fare riferimento ad alcuna matrice che rappresenti la trasformazione. Quando invece ci si trova in un ambito di applicazioni concrete, il calcolo effettivo del rango di una trasformazione ben raramente si può ottenere evitando di operare su una matrice. Proprietà del rango di una matrice In quanto segue, è una matrice su un campo , che descrive una mappa lineare come sopra. Proprietà di base • Solo la matrice nulla ha rango 0. • Il rango di è uguale al rango della sua trasposta. • Il rango di è minore o uguale sia di che di . In altre parole, è minore o uguale del minimo dei due valori Rango (algebra lineare) Relazioni fra 38 ed • è iniettiva se e solo se ha rango (in questo caso si dice che ha rango per colonne massimo). • è suriettiva se e solo se ha rango (in questo caso si dice che ha rango per righe massimo). • nel caso di una matrice quadrata (cioè, ), allora è invertibile se e solo se ha rango (e si dice che ha rango massimo). Questo accade se e solo se è biettiva. Prodotto fra matrici • Se è una matrice rango di , allora il rango del prodotto è minore o uguale sia del rango di che del . In altre parole: Come esempio del caso "<", si consideri il prodotto Entrambi i fattori hanno rango 1, ma il prodotto ha rango 0. • Se • Se è una matrice è una matrice • Il rango di invertibile dove è uguale a con rango con rango , allora , allora ha lo stesso rango di ha lo stesso rango di se e solo se esistono una matrice . . invertibile ed una matrice tali che denota la matrice identità . • Dall'ultima proprietà si deduce che il rango di una matrice è un invariante completo per matrici equivalenti destra-sinistra. Teorema del rango-nullità Il rango di una matrice più la nullità della matrice è uguale al numero di colonne della matrice (questo è il teorema del rango, o "teorema del rango-nullità"). SD-equivalenza Il rango è un invariante completo per la equivalenza sinistra-destra tra matrici: due matrici lo stesso rango se e solo se esistono due matrici invertibili e tali che e hanno . Calcolo Algoritmo di Gauss Il modo più semplice per calcolare il rango di una matrice è dato dall'algoritmo di Gauss. L'algoritmo trasforma la matrice in una matrice a scalini con lo stesso rango, dato dal numero di righe non nulle, o equivalentemente di pivot. Si consideri ad esempio la matrice Rango (algebra lineare) 39 Vediamo che la seconda colonna è il doppio della prima colonna, e la quarta colonna è uguale alla somma della prima e della terza. La prima e la terza colonna sono linearmente indipendenti, quindi il rango di è due. Questo può essere confermato dall'algoritmo di Gauss, che produce la seguente matrice a scalini : con due righe non nulle. Criterio dei minori Un altro metodo, in alcuni casi più diretto, sfrutta le proprietà del determinante di una matrice quadrata, e in particolare dei determinanti delle sottomatrici quadrate di , dette minori. Si basa sul fatto seguente: • Il rango di è pari al massimo ordine di un minore invertibile di Ad esempio, la matrice i suoi minori . data sopra ha determinante nullo, e quindi può avere rango al massimo 3. Anche tutti hanno determinante nullo, e quindi può avere rango al massimo 2. Infine, esiste almeno un minore invertibile di ordine 2, ad esempio quello in basso a destra che ha determinante . Quindi ha rango esattamente 2. Questo criterio può essere utile ad esempio per verificare rapidamente se il rango di una matrice è superiore o inferiore ad un certo valore. Generalizzazioni Esistono diverse generalizzazioni del concetto di rango per matrici su anelli arbitrari. In queste generalizzazioni il rango colonna, il rango riga, dimensione dello spazio colonna, dimensione dello spazio riga di una matrice possono essere diversi l'uno dall'altro o non esistere. Un'altra generalizzazione riguarda le matroidi, entità che generalizzano le matrici. Bibliografia • (EN) Werner Greub (1981): Linear algebra, 4th edition, Springer Verlag • (EN) Roger A. Horn, Charles R. Johnson (1985): Matrix Analysis. Cambridge University Press, ISBN 0-521-38632-2. Determinante 40 Determinante In algebra lineare, il determinante è una funzione che associa ad ogni matrice quadrata uno scalare che ne sintetizza alcune proprietà algebriche. Esso viene generalmente indicato con ed a volte con , quest'ultima notazione è più compatta ma ambigua, in quanto utilizzata talvolta per descrivere una norma della matrice.[1] Il determinante è un potente strumento usato in vari settori della matematica: innanzitutto nello studio dei sistemi di equazioni lineari, quindi nel calcolo infinitesimale a più dimensioni (ad esempio nel Jacobiano), nel calcolo tensoriale, nella geometria differenziale, nella teoria combinatoria, etc. Una trasformazione lineare del piano cartesiano è descritta da una matrice quadrata . Il determinante della matrice fornisce delle informazioni sulla trasformazione: il valore assoluto descrive il cambiamento di area, mentre il segno descrive il cambiamento di orientazione. Nell'esempio qui riportato, la matrice ha determinante -1: quindi la trasformazione preserva le aree (un quadrato di area 1 si trasforma in un parallelogramma di area 1) ma inverte l'orientazione del piano. Il significato geometrico principale del determinante si ottiene interpretando la matrice quadrata di ordine come trasformazione lineare di uno spazio vettoriale a dimensioni: con questa interpretazione, il valore assoluto di è il fattore con cui vengono modificati i volumi degli oggetti contenuti nello spazio. Se è diverso da zero, il segno del determinante indica inoltre se la trasformazione preserva o cambia l'orientazione dello spazio rispetto agli assi di riferimento. Definizione Il volume di questo parallelepipedo è il valore assoluto del determinante della matrice formata dai vettori e . Questa relazione fra volume e Definizione determinante è valida in qualsiasi dimensione. Sia V uno spazio vettoriale sul campo C di dimensione n e D una forma n-lineare e alternante e non identicamente nulla da V in C, il determinante di un endomorfismo è definito come: Con una qualsiasi base di V. Definizione tramite assiomi Sia lo spazio vettoriale delle matrici quadrate numeri reali o complessi). a valori in un campo (ad esempio, il campo dei Determinante 41 Il determinante è l'unica funzione avente le proprietà seguenti: • • Si comporta nel modo seguente rispetto all'algoritmo di Gauss-Jordan: • se • se • se è ottenuta scambiando due righe o due colonne di , allora , è ottenuta moltiplicando una riga o una colonna di per , allora è ottenuta sommando una riga o una colonna rispettivamente di ad un'altra, allora dove la matrice , è la matrice identità. Le proprietà elencate hanno un significato geometrico: sono le proprietà che deve verificare una funzione il cui valore assoluto è il volume del poliedro individuato dai vettori riga della matrice B e il cui segno è positivo se e solo se tali vettori sono equiorientati alla base canonica. Definizione costruttiva Il determinante di una matrice Nella formula, può essere definito in un modo più costruttivo, tramite la formula di Leibniz: è l'insieme di tutte le permutazioni il segno della permutazione ( Per esteso: se dell'insieme numerico e denota è una permutazione pari, −1 se è dispari). In particolare: • Se , il determinante di è semplicemente • Se , si ottiene la formula già vista • Se , si ottiene Quest'ultima formula può essere memorizzata tramite la regola di Sarrus (che non è però estendibile ai casi ). La complessità della definizione costruttiva (comprese la generazione delle permutazioni) è elevata: Determinante 42 Metodi di calcolo La definizione costruttiva del determinante è spesso complicata da usare per un calcolo concreto, perché si basa su una somma di ben addendi. Esistono altri algoritmi che consentono di calcolare il determinante più facilmente. Ciascun metodo ha una efficienza variabile, dipendente dalla grandezza della matrice e dalla presenza di zeri. Sviluppo di Laplace Lo sviluppo di Laplace è un metodo di calcolo del determinante, che risulta efficiente per matrici non troppo grandi e contenenti un gran numero di zeri. Si procede scegliendo una riga, la -esima, tramite la formula: dove è il complemento algebrico della coppia , cioè minore di ordine ottenuto dalla matrice eliminando la riga Esiste uno sviluppo analogo anche lungo la -esima colonna. è data da -esima e la colonna per il determinante del -esima. Matrici quadrate di ordine 2 Il determinante di una matrice 2 × 2 è pari a Il valore assoluto di questa espressione è pari all'area del parallelogramma con vertici in e . Il segno del determinante (se questo è diverso da zero) dipende invece dall'ordine ciclico con cui compaiono i vertici del parallelogramma (il segno è negativo se il parallelogramma è stato "ribaltato", e positivo altrimenti). Come spiegato più sotto, questa proprietà L'area del parallelogramma è il determinante della matrice geometrica si estende anche in dimensioni maggiori di 2: il determinante di una matrice è ad esempio il volume del poliedro i cui vertici si ricavano dalle colonne della matrice con lo stesso procedimento visto. Determinante 43 Matrici quadrate di ordine 3 Il determinante di una matrice 3 × 3 è pari a Un metodo mnemonico per ricordare questa formula, espresso dalla regola di Sarrus (questo metodo non si estende a matrici più grandi), prevede di calcolare i prodotti dei termini sulle diagonali "continue": ripetendo a destra della matrice le sue prime due colonne Calcolo del determinante di una matrice tramite un metodo equivalente alla regola di Sarrus. Questo metodo non si estende a matrici più grandi. i prodotti delle componenti sulle 3 "diagonali" che partono dall'alto a sinistra (diagonali principali) sono aei, bfg e cdh, mentre sulle 3 "diagonali" che partono dal basso a sinistra (diagonali secondarie) si trovano gec, hfa, idb. Il determinante della matrice è esattamente la differenza tra la somma dei primi tre termini (aei + bfg + cdh) e la somma degli ultimi tre (gec + hfa + idb). Algoritmo di Gauss La definizione assiomatica fornisce un altro utile strumento di calcolo del determinante, che si basa su questi due principi: • Il determinante di una matrice triangolare è semplicemente il prodotto degli elementi sulla diagonale, cioè . • Usando l'algoritmo di Gauss, è possibile trasformare ogni matrice in una matrice triangolare tramite mosse di Gauss, il cui effetto sul determinante è determinato dagli assiomi. Esempio Supponiamo di voler calcolare il determinante di . Si può procedere direttamente tramite la definizione costruttiva: Alternativamente si può utilizzare lo sviluppo di Laplace secondo una riga o una colonna. Conviene scegliere una riga o una colonna con molti zeri, in modo da ridurre gli addendi dello sviluppo; nel nostro caso sviluppiamo secondo la seconda colonna: Determinante 44 Lo sviluppo di Laplace può essere combinato con alcune mosse di Gauss. Ad esempio qui risulta particolarmente vantaggioso sommare la seconda colonna alla prima: Questa mossa non cambia il determinante. Sviluppando lungo la prima colonna si ottiene quindi ancora: Applicazioni Sistemi lineari Il determinante è utile a calcolare il rango di una matrice e quindi a determinare se un sistema di equazioni lineari ha soluzione, tramite il teorema di Rouché-Capelli. Quando il sistema ha una sola soluzione, questa può essere esplicitata usando il determinante, mediante la regola di Cramer. Matrici e trasformazioni invertibili Una matrice è detta singolare se ha determinante nullo. Una matrice singolare non è mai invertibile, e se è definita su un campo vale anche l'inverso: una matrice non singolare è sempre invertibile. Una trasformazione lineare del piano, dello spazio, o più in generale di uno spazio euclideo o vettoriale (di dimensione finita) è rappresentata (dopo aver scelto una base) da una matrice quadrata dipende dalla base scelta, e quindi solo dalla funzione con . Il determinante è una quantità che non : si può quindi parlare di determinante di , che si indica . Molte affermazioni su sono equivalenti: è una corrispondenza biunivoca è un isomorfismo è iniettiva è suriettiva Quindi ciascuna di queste affermazioni equivalenti è vera se e solo se il determinante non è zero. Autovalori e autovettori Il determinante consente di trovare gli autovalori di una matrice dove è la matrice identità avente stesso numero di righe di mediante il suo polinomio caratteristico . Basi, sistemi di riferimento Dati vettori nello spazio euclideo , sia la matrice avente come colonne questi vettori. Le seguenti affermazioni sono equivalenti: i vettori sono indipendenti Se gli i vettori generano vettori formano una base, allora il segno di i vettori formano una base determina l'orientazione della base: se positivo, la base forma un sistema di riferimento destrorso, mentre se è negativo si parla di sistema di riferimento sinistrorso (in analogia con la regola della mano destra). Determinante 45 Volumi Il valore assoluto del determinante è uguale al volume del parallelepipedo sotteso dai vettori dati dalle colonne di (il parallelepipedo è in realtà un parallelogramma se solido di dimensione , ed un in generale). Più in generale, data una trasformazione lineare rappresentata da una matrice qualsiasi sottoinsieme di , ed un misurabile Cubo prima della trasformazione, di volume 1. secondo Lebesgue, il volume dell'immagine è dato da Ancora più in generale, se la trasformazione lineare è rappresentata da una matrice di tipo sottoinsieme di e è un misurabile secondo Lebesgue, allora il volume di è dato da Proprietà L'immagine del cubo dopo la trasformazione è un parallelepipedo, il cui volume è pari al determinante della trasformazione. Proprietà elementari Dalle proprietà elencate nella definizione assiomatica, è facile dedurre che: • Se tutti gli elementi di una riga (o colonna) sono nulli, allora . • Se ha due righe (o colonne) eguali, o proporzionali, allora . • Se una riga (o colonna) è combinazione lineare di due o più altre righe (o colonne) a essa parallele, allora . • Se viene modificata tramite mosse di Gauss sulle colonne (invece che sulle righe), l'effetto è sempre quello descritto nella definizione assiomatica. • Se una riga (o una colonna) è somma di due righe (o colonne), è la somma dei due determinanti che si ottengono sostituendo a quella riga (o colonna) rispettivamente le due righe (o colonne) di cui è somma. Determinante 46 Moltiplicazione di matrici Il determinante è una funzione moltiplicativa, nel senso che vale il teorema di Binet: Una matrice quadrata campo con valori in un è invertibile se e solo se . In caso affermativo vale l'uguaglianza: Le proprietà appena elencate mostrano che l'applicazione dal gruppo generale lineare negli elementi non nulli di è un omomorfismo di gruppi. Come conseguenza del teorema di Binet, se verificare che Il determinante misura il volume del parallelepipedo generato dai vettori colonna della matrice. Moltiplicando un vettore per due, il volume viene moltiplicato per due (come richiesto dalla definizione assiomatica) è la matrice identità di tipo e uno scalare, è facile . Quindi: Trasposte, matrici simili Una matrice e la sua trasposta hanno lo stesso determinante: Se e sono simili (cioè esiste una matrice invertibile tale che = ) allora per il teorema di Binet Questo significa che il determinante è un invariante per similitudine. Da questo segue che il determinante di una trasformazione lineare è ben definito (non dipende dalla scelta di una base per lo spazio vettoriale ). D'altra parte, esistono matrici con lo stesso determinante che non sono simili. Autovalori Il determinante di una matrice triangolare è il prodotto degli elementi nella diagonale. Se è di tipo con valori reali o complessi e ha tutti gli autovalori nel campo (contati con molteplicità), allora Questa uguaglianza segue dal fatto che è sempre simile alla sua forma normale di Jordan, che è una matrice triangolare superiore con gli autovalori sulla diagonale principale. Dal collegamento fra determinante e autovalori si può derivare una relazione fra la funzione traccia, la funzione esponenziale e il determinante: Determinante 47 Derivata Il determinante può considerarsi una funzione polinomiale quindi essa è differenziabile rispetto ad ogni variabile corrispondente al valore che può assumere in una casella e per qualunque suo valore. Il suo differenziale può essere espresso mediante la formula di Jacobi: dove cofT(A) denota la trasposta della matrice dei cofattori (detta anche dei complementi algebrici) di A, mentre tr(A) ne denota la traccia. In particolare, se A è invertibile abbiamo o, più colloquialmente, se i valori della matrice Il caso particolare di sono sufficientemente piccoli coincidente con la matrice identità comporta Generalizzazioni Pfaffiano Lo pfaffiano è un analogo del determinante per matrici antisimmetriche di tipo di grado . Si tratta di un polinomio il cui quadrato è uguale al determinante della matrice. Infinite dimensioni Per gli spazi ad infinite dimensioni non si trova alcuna generalizzazione dei determinanti e della nozione di volume. Sono possibili svariati approcci, inclusa la utilizzazione dell'estensione della traccia di una matrice. Note [1] La notazione fu introdotta per la prima volta nel 1841 dal matematico inglese Arthur Cayley ( MacTutor (http:/ / www-history. mcs. st-andrews. ac. uk/ HistTopics/ Matrices_and_determinants. html)). Bibliografia In italiano • Ernesto Pascal I determinanti: teoria ed applicazioni. Con tutte le più recenti ricerche (http://name.umdl.umich. edu/ABZ4755.0001.001) (Milano: U. Hoepli, 1897) • Francesco Calderara Trattato dei determinanti (http://resolver.library.cornell.edu/math/1927647) (Palermo: Virzì, 1913) In lingua straniera • (FR) Francesco Brioschi Théorie des déterminants et leurs principales applications; traduit de l'italien par M. Édouard Combescure (http://gallica.bnf.fr/notice?N=FRBNF30162093) (Parigi : Mallet-Bachelier, 1856) • (FR) R. Baltzer Théorie et applications des déterminants, avec l'indication des sources originales; traduit de l'allemand par J. Hoüel, (http://gallica.bnf.fr/notice?N=FRBNF30050936) (Parigi : Mallet-Bachelier, 1861) • (EN) Lewis Carroll An elementary treatise on determinants, with their application to simultaneous linear equations and algebraical geometry (http://www.archive.org/details/elementarytreati00carrrich) (Oxford: University Press, 1867) Determinante • (EN) R. F. Scott e G. B. Matthews The theory of determinants and their applications (http://www.archive.org/ details/theoryofdetermin00scotuoft) (Cambridge: University Press, 1904) • (EN) T. Muir The theory of determinants in the historical order of development (4 vol.) (http://quod.lib.umich. edu/cgi/t/text/text-idx?c=umhistmath&amp;idno=ACM9350) (London: Macmillan and Co., Limited, 1906) • (EN) T. Muir Contributions To The History Of Determinants 1900 1920 (http://www.archive.org/details/ contributionstot032405mbp) (Blackie And Son Limited, 1930) Voci correlate • • • • • • Storia del determinante Sviluppo di Laplace Algoritmo di Gauss Regola di Sarrus Determinante jacobiano Matrice unimodulare Collegamenti esterni • (EN) Storia dell'uso delle matrici e dei determinanti (http://www-history.mcs.st-andrews.ac.uk/HistTopics/ Matrices_and_determinants.html) su MacTutor Diagonalizzabilità In matematica, e più precisamente in algebra lineare, una trasformazione lineare di uno spazio vettoriale è diagonalizzabile o semplice[1] se esiste una base dello spazio rispetto alla quale la matrice di trasformazione è diagonale. In modo equivalente, una matrice quadrata è diagonalizzabile se è simile ad una matrice diagonale. Una trasformazione lineare è diagonalizzabile se esistono n "assi" passanti per l'origine la cui direzione rimane invariata nella trasformazione stessa: ognuno di tali assi è un autospazio relativo ad un autovettore della trasformazione, e la trasformazione effettua una omotetia. Diagonalizzare una trasformazione significa porsi in un sistema di riferimento che rimane "solidale" con essa, e la trasformazione risulta completamente definita quando si conosce il suo comportamento sugli assi del sistema. Ad esempio, la trasformazione del piano cartesiano che sposta ogni punto (x, y) nel punto (2x, -y) è diagonalizzabile. Infatti gli assi x e y rimangono invariati: l'asse x è espanso di un fattore 2, mentre l'asse y è ribaltato rispetto all'origine. Notiamo che nessuna altra retta passante per l'origine rimane invariata. Una rotazione oraria o antioraria del piano di 90 gradi intorno all'origine non è invece diagonalizzabile, perché nessun asse viene fissato. Definizione Sia T un endomorfismo di uno spazio vettoriale V, cioè una trasformazione lineare T:V → V. Si dice che T è diagonalizzabile se esiste una base di V rispetto alla quale la matrice che rappresenta T è diagonale.[2] In particolare, la base che diagonalizza T è composta da suoi autovettori. In modo equivalente, una matrice quadrata è diagonalizzabile se è simile ad una matrice diagonale.[3] La matrice T è quindi diagonalizzabile nel campo di appartenenza se esiste una matrice invertibile P tale che: 48 Diagonalizzabilità ovvero: Scrivendo P in termini dei vettori colonna: la precedente relazione diventa: I vettori colonna di P sono dunque autovettori di T, ed i corrispondenti elementi della matrice diagonale sono i rispettivi autovalori. L'invertibilità di P implica inoltre l'indipendenza lineare degli autovettori, che formano una base dello spazio. Criteri di diagonalizzabilità Una matrice quadrata A di rango n sul campo F è diagonalizzabile se e solo se la somma delle dimensioni dei suoi autospazi è pari a n. Tale condizione si verifica se e solo se esiste una base di Fn composta da autovettori di A. Se la base esiste, è possibile definire una matrice P avente i vettori di tale base come colonne, ed in tal caso P−1AP è diagonale. Gli elementi della diagonale sono gli autovalori di A. Le condizioni di diagonalizzabilità per le applicazioni lineari sono equivalenti a quelle per le matrici rappresentative. Polinomio caratteristico Un modo per verificare che una applicazione è diagonalizzabile è quello di studiare la diagonalizzabilità della sua matrice associata A nelle base degli insiemi di partenza e di arrivo. A tal fine, uno strumento di notevole importanza è il polinomio caratteristico, che permette di ottenere gli autovalori con la loro molteplicità. Sia A una matrice quadrata con n righe a valori in un campo K. Il polinomio caratteristico di A è un polinomio di grado n definito nel modo seguente: Le radici λ1, ..., λk di p(λ) appartenenti al campo K sono gli autovalori di A.[4] Ogni autovalore λi ha una sua molteplicità come radice di p(λ), detta molteplicità algebrica,[5] ed un autovalore con molteplicità algebrica 1 si dice semplice. Il teorema di diagonalizzabilità fornisce un criterio necessario e sufficiente che permette di stabilire se un'applicazione lineare è diagonalizzabile. Una matrice quadrata A con n righe è diagonalizzabile se e solo se valgono entrambi i fatti seguenti: • La somma delle molteplicità algebriche dei suoi autovalori è n, ovvero il polinomio caratteristico può essere fattorizzato nel campo attraverso polinomi di primo grado. • Le molteplicità algebriche e geometriche di ogni autovalore sono coincidenti, ovvero la dimensione degli autospazi è pari alla molteplicità con la quale il relativo autovalore è radice del polinomio caratteristico. Poiché la molteplicità geometrica è sempre minore o uguale di quella algebrica, se l'applicazione ha n autovalori distinti nel campo allora è diagonalizzabile. 49 Diagonalizzabilità 50 Il teorema spettrale Nel caso complesso, che ha validità generale, afferma che un endomorfismo è normale se e solo se esiste una base ortonormale dello spazio fatta di suoi autovettori.[6] L'endomorfismo è quindi unitariamente diagonalizzabile se e solo se è normale. Nel linguaggio matriciale, il teorema afferma che ogni matrice normale è simile ad una matrice diagonale tramite una matrice unitaria. In altre parole, per ogni matrice normale H esistono una matrice unitaria U ed una diagonale D per cui: Come corollario segue che se e solo se l'operatore T è autoaggiunto la base ortonormale conta solo autovalori reali, mentre se T è unitario il modulo degli autovalori è 1. In particolare, gli autovalori di una matrice hermitiana sono tutti reali, mentre quelli di una matrice unitaria sono di modulo 1. Esempi Esempio di calcolo Consideriamo la matrice Il polinomio caratteristico è: che si annulla per gli autovalori Quindi ha 3 autovalori distinti. Per il primo criterio esposto precedentemente, la matrice è diagonalizzabile. Se si è interessati a trovare esplicitamente una base di autovettori, dobbiamo fare del lavoro ulteriore: per ogni autovalore, si imposta l'equazione: e si risolve cercando i valori del vettore che la soddisfano, sostituendo volta per volta i tre autovalori precedentemente calcolati. Una base di autovettori per esempio è data da: Si vede facilmente che sono indipendenti, quindi formano una base, e che sono autovettori, infatti Possiamo scrivere esplicitamente la matrice di cambiamento di base incolonnando i vettori trovati: Quindi la matrice invertibile P diagonalizza A, come si verifica calcolando: La matrice finale deve essere diagonale e contenere gli autovalori, ciascuno con la sua molteplicità. . Diagonalizzabilità 51 Numeri complessi Se il campo su cui lavoriamo è quello dei numeri complessi, una matrice n per n ha n autovalori (contando ciascuno con la relativa molteplicità, per il teorema fondamentale dell'algebra). Se le molteplicità sono tutte 1, la matrice è diagonalizzabile. Altrimenti, dipende. Un esempio di matrice complessa non diagonalizzabile è descritto sotto. Il fatto che vi siano comunque n autovalori implica che è sempre possibile ridurre una matrice complessa ad una forma triangolare: questa proprietà, più debole della diagonalizzabilità, è detta triangolabilità. Numeri reali Sui numeri reali le cose cambiano, perché la somma delle molteplicità di un polinomio di grado n può essere inferiore a n. Ad esempio la matrice non ha autovalori, perché il suo polinomio caratteristico nessuna matrice reale Q tale che non ha radici reali. Quindi non esiste sia diagonale! D'altro canto, la stessa matrice B vista con i numeri complessi ha due autovalori distinti i e -i, e quindi è diagonalizzabile. Infatti prendendo troviamo che è diagonale. La matrice considerata sui reali invece non è neppure triangolabile. Ci sono anche matrici che non sono diagonalizzabili né sui reali né sui complessi. Questo accade in alcuni casi, in cui ci sono degli autovalori con molteplicità maggiore di uno. Ad esempio, consideriamo Questa matrice non è diagonalizzabile: ha 0 come unico autovalore con molteplicità 2, e se fosse diagonalizzabile sarebbe simile alla matrice nulla, cosa impossibile a prescindere dal campo reale o complesso. Note [1] [2] [3] [4] [5] [6] F. Odetti, op. cit., Pag. 246 S. Lang, op. cit., Pag. 114 S. Lang, op. cit., Pag. 115 S. Lang, op. cit., Pag. 228 S. Lang, op. cit., Pag. 230 S. Lang, op. cit., Pag. 251 Bibliografia • Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2 • F. Odetti; M. Raimondo, Elementi di Algebra Lineare e Geometria Analitica, ECIG, 1992. ISBN 88-7545-717-4 Diagonalizzabilità 52 Voci correlate • • • • Polinomio caratteristico Autovettore e autovalore Teorema spettrale Forma canonica di Jordan Autovettore e autovalore In matematica, in particolare in algebra lineare, un autovettore di una trasformazione lineare tra spazi vettoriali è un vettore la cui immagine è il vettore stesso moltiplicato per uno scalare, detto autovalore.[1] Si definisce autospazio il sottospazio generato da tutti gli autovettori aventi in comune lo stesso autovalore.[2] Si tratta di un concetto fondamentale utilizzato in molti settori della matematica e della fisica. In meccanica classica gli autovettori delle equazioni che descrivono un sistema fisico corrispondono spesso ai modi di vibrazione di un corpo, e gli autovalori alle loro frequenze. In meccanica quantistica gli operatori corrispondono a variabili osservabili, gli autovettori sono chiamati anche autostati e gli autovalori di un operatore rappresentano quei valori della variabile corrispondente che hanno probabilità non nulla di essere misurati. In questa trasformazione lineare della Gioconda l'immagine è modificata ma l'asse centrale verticale rimane fisso. Il vettore blu ha cambiato lievemente direzione, mentre quello rosso no. Quindi il vettore rosso è un autovettore della trasformazione e quello blu no. Inoltre, poiché il vettore rosso non è stato né allungato, né compresso, né ribaltato, il suo autovalore è 1. Tutti i vettori sull'asse verticale sono multipli scalari del vettore rosso, e sono tutti autovettori: assieme all'origine formano l'autospazio relativo all'autovalore 1. Il termine autovettore è stato tradotto dalla parola tedesca Eigenvektor, coniata da Hilbert nel 1904. Eigen significa proprio, caratteristico. Anche nella letteratura italiana troviamo spesso l'autovettore indicato come vettore proprio, vettore caratteristico o vettore latente. Introduzione informale Autovettore e autovalore 53 Il piano cartesiano e lo spazio euclideo sono esempi particolari di spazi vettoriali: ogni punto dello spazio può essere descritto tramite un vettore che collega l'origine al punto. Rotazioni, omotetie e riflessioni sono esempi particolari di trasformazioni lineari dello spazio: ciascuna di queste trasformazioni viene descritta agevolmente dall'effetto che produce sui vettori. In particolare, un autovettore è un vettore trasformazione viene moltiplicato per un fattore scalare che nella . Nel piano o nello spazio cartesiano, questo equivale a dire che il vettore non cambia direzione. Può però cambiare verso se , e modulo per un fattore dato dal valore assoluto : • se il modulo resta inalterato, • se il modulo cresce, • se il modulo decresce. Il valore è l'autovalore di Una sfera che ruota intorno ad un suo asse. . Ad esempio, in una rotazione spaziale il vettore coincidente con l'asse di rotazione resta fisso: in altre parole, è un vettore che non cambia né direzione, né verso, né modulo, ed è quindi un autovettore con autovalore 1. I vettori perpendicolari all'asse, invece, ruotano di un certo angolo e cambiano direzione: ogni rotazione piana (di angolo diverso da e ) non possiede autovettori. Rotazione del piano intorno ad un punto Autovettori e autovalori sono definiti ed usati in matematica e fisica nell'ambito di spazi più complessi e astratti di quello tridimensionale della fisica classica. Questi spazi possono avere dimensione maggiore di 3 o addirittura infinita (ad Un'onda stazionaria in una corda fissata agli estremi è una autofunzione esempio, possono essere uno spazio di Hilbert). Ad della trasformazione data dallo scorrere del tempo. esempio, le possibili posizioni di una corda vibrante in una chitarra formano uno spazio di questo tipo: una vibrazione della corda è quindi interpretata come trasformazione di questo spazio, e i suoi autovettori (più precisamente, le sue autofunzioni) sono le onde stazionarie. Autovettore e autovalore 54 Definizione Dal punto di vista formale, autovettori e autovalori sono definiti come segue: sia campo , che può essere ad esempio il campo dei numeri reali endomorfismo di Se Poiché . Sia un , cioè una trasformazione lineare: è un vettore non nullo in allora uno spazio vettoriale su un o il campo dei complessi e è uno scalare tali che: è un autovettore della trasformazione è lineare, se ,e è il suo autovalore.[1] è un autovettore con autovalore autovettore con lo stesso autovalore , allora ogni multiplo non-nullo di è anch'esso un . Più in generale, gli autovettori aventi lo stesso fissato autovalore insieme al vettore nullo, generano un sottospazio di chiamato l'autospazio relativo all'autovalore , , solitamente [2] indicato con . Lo spettro di è l'insieme dei suoi autovalori. Il raggio spettrale di è l'estremo superiore dei moduli dei suoi autovalori. Nel caso in cui sia di dimensione finita, per ogni scelta di basi a è associata univocamente una matrice, detta matrice di trasformazione.[3] Gli autovettori e autovalori associati ad un'applicazione possono essere associati alla matrice di trasformazione nel medesimo modo. Sia il vettore delle coordinate di rispetto ad una base e sia A la matrice di trasformazione rappresentante rispetto alla medesima base. Si ha:[4] In particolare, gli autovalori di A non dipendono dalla base scelta. Polinomio caratteristico Si definisce polinomio caratteristico p(x) nella variabile x associato ad una matrice quadrata A il determinante:[5] dove I è la matrice identità con lo stesso numero di righe di A. In particolare, le radici del polinomio caratteristico sono tutti gli autovalori di T.[6] Due matrici che rappresentano un endomorfismo di uno spazio vettoriale a dimensione finita sono simili, ed in particolare hanno il medesimo polinomio caratteristico, e dunque gli stessi autovalori. Si tratta di uno strumento di grande importanza, che ha permesso di sviluppare un metodo generale per l'individuazione di autovalori e autovettori di un endomorfismo nel caso in cui lo spazio vettoriale V abbia dimensione finita.[7] Il polinomio permette inoltre di stabilire l'esistenza di autovalori e autovettori per un'applicazione lineare: • Il polinomio caratteristico di T ha grado n, e quindi ha al più n radici: segue che T ha al più n autovalori distinti. • Se K è algebricamente chiuso allora il polinomio caratteristico ha sempre almeno una radice: segue che T ha almeno un autovalore, e quindi anche almeno un autovettore.[8] Nel caso reale questo non succede sempre, ad esempio si possono trovare autovalori complessi. • Se la dimensione n di V è dispari, e K = R è il campo dei numeri reali, il polinomio caratteristico ha grado dispari, e quindi ha sempre almeno una radice reale. Ad esempio, ogni endomorfismo di R3 ha almeno un autovettore. Autovettore e autovalore 55 Diagonalizzabilità L'endomorfismo è diagonalizzabile se esiste una base di V rispetto alla quale la matrice che rappresenta T è diagonale, e si ha che gli elementi della diagonale sono gli autovalori di .[9] In particolare, la base che diagonalizza T è composta da suoi autovettori. Inoltre, una proprietà generale di T è che se autovettori con autovalori sono suoi a due a due distinti, allora questi sono linearmente indipendenti. Il teorema spettrale Nel caso complesso, che ha validità generale, afferma che un endomorfismo è normale se e solo se esiste una base ortonormale dello spazio fatta di suoi autovettori.[10] L'endomorfismo è quindi unitariamente diagonalizzabile se e solo se è normale. Nel linguaggio matriciale, il teorema afferma che ogni matrice normale è simile ad una matrice diagonale tramite una matrice unitaria. In altre parole, per ogni matrice normale H esistono una matrice unitaria U ed una diagonale D per cui: Come corollario segue che se e solo se l'operatore T è autoaggiunto allora la base ortonormale conta solo autovalori reali, mentre se T è unitario allora il modulo degli autovalori è 1. In particolare, gli autovalori di una matrice hermitiana sono tutti reali, mentre quelli di una matrice unitaria sono di modulo 1. Per il teorema spettrale, in particolare, ogni endomorfismo di Rn dato da una matrice simmetrica è diagonalizzabile, ed ha una base di autovettori ortogonali fra loro.[11] Se il polinomio caratteristico di T non ha tutte le radici in K, allora T non è diagonalizzabile. Ad esempio, una rotazione ha un polinomio caratteristico di secondo grado con delta negativo e quindi non ha soluzioni reali: quindi non è diagonalizzabile. Spazi di dimensione infinita In uno spazio di dimensione infinita la definizione di autovalore è identica al caso di dimensione finita. Tuttavia, Il polinomio caratteristico non è uno strumento disponibile in questo caso. Per questo ed altri motivi, si definisce come spettro l'insieme di quei valori λ per cui l'inverso dell'operatore (T - λ I) non è limitato; tale insieme è solitamente indicato con σ(T). A differenza del caso finito-dimensionale lo spettro e l'insieme degli autovalori, generalmente detto spettro puntuale, in generale non coincidono. Compito della teoria spettrale è l'estensione delle tecniche valide in dimensione finita nel caso in cui l'operatore T e lo spazio V abbiano delle buone proprietà. Seguono alcuni esempi classici. • Un operatore limitato su uno spazio di Banach V ha spettro compatto e non vuoto. • Un operatore compatto su uno spazio di Banach V ha spettro e spettro puntuale coincidenti a meno dello 0. Gli operatori compatti si comportano in modo molto simile agli operatori con immagine a dimensione finita. • Un operatore autoaggiunto su uno spazio di Hilbert H ha spettro reale. Tali operatori sono fondamentali nella teoria della meccanica quantistica. Autovettore e autovalore 56 Applicazioni Operatori in meccanica quantistica Un esempio di operatore definito su uno spazio infinito-dimensionale è dato dall'operatore hamiltoniano indipendente dal tempo in meccanica quantistica: dove H è l'operatore che agendo sull'autovettore (o autoket) restituisce l'autovettore moltiplicato per l'autovalore E, che è interpretato come l'energia dello stato. Teniamo presente che H è un operatore hermitiano, per cui i suoi autostati formano una base ortonormale dello spazio degli stati e gli autovalori sono tutti reali. Proiettando sulla base della posizione otteniamo la rappresentazione tramite funzione d'onda: dove stavolta Hx indica l'operatore differenziale che rappresenta l'operatore astratto nella base della posizione mentre la funzione d'onda è l'autofunzione corrispondente all'autovalore E. Dati i postulati della meccanica quantistica gli stati accessibili ad un sistema sono vettori in uno spazio di Hilbert e quindi è definito un prodotto scalare fra di essi del tipo: Le funzioni d'onda associate agli stati di un elettrone in un atomo d'idrogeno sono gli autovettori sia della Hamiltoniana dell'atomo di idrogeno che del momento angolare. Gli autovalori associati sono interpretati come le loro energie (crescenti dall'alto in basso n=1,2,3,...) e momenti angolari (crescenti da sinistra a destra: s, p, d,...). Sono disegnati qui i quadrati dei valori assoluti delle autofunzioni. Aree più luminose corrispondono a densità di probabilità maggiori per la posizione in una misurazione. Il centro di ogni figura è il nucleo dell'atomo, un protone. . dove la stella * indica il passaggio alla complessa coniugata della funzione d'onda. Questo limita la possibilità di scelta dello spazio di Hilbert allo spazio delle funzioni a quadrato integrabile sul dominio scelto D, che può al limite essere tutto . Teoria dei numeri Lo studio degli autovalori di una matrice ha importanti applicazioni anche nella teoria dei numeri. In particolare, si congettura che alcune statistiche sugli zeri non banali della funzione zeta di Riemann, quali ad esempio quelle sulla distanza tra zeri consecutivi, siano le stesse di quelle relative alle matrici hermitiane aleatorie (rispetto alla Misura di Haar) di dimensione N al tendere di N all'infinito. Inoltre, è stato congetturato che anche la distribuzione dei valori della funzione zeta di Riemann sia ben approssimata, in media, dai valori assunti dal polinomio caratteristico di tali matrici. Analoghe considerazioni si possono fare su altre famiglie di funzioni speciali, quali ad esempio le funzioni L di Dirichlet, coinvolgendo anche altre famiglie di matrici aleatorie, come ad esempio le matrici simplettiche o ortogonali. Dacché un gran numero di statistiche sono molto più facili da calcolare all'interno della teoria delle matrici aleatorie che investigando direttamente queste funzioni speciali, questa connessione ha avuto come risultato un fiorire di una serie di nuove congetture in teoria dei numeri.[12] Autovettore e autovalore 57 Autofacce Nella elaborazione digitale delle immagini, l'immagine di una faccia si associa ad un vettore le cui componenti rappresentano la luminosità dei singoli pixel. Gli autovettori di una particolare matrice, detta matrice di covarianza, sono chiamati autofacce. Essi sono molto utili per esprimere ogni faccia come una combinazione lineare di queste autofacce, e sono quindi anche un ottimo strumento di compressione dei dati per memorizzare ed identificare un alto numero di facce. Tensore d'inerzia In meccanica, gli autovettori del tensore di inerzia definiscono gli assi principali di un corpo rigido. Il tensore di inerzia è una quantità chiave, necessaria per determinare la rotazione di un corpo rigido intorno al suo baricentro. Gli autovettori del tensore delle deformazioni definiscono gli assi principali di deformazione. Le autofacce sono esempi di autovettori. Esempi nel piano e nello spazio Fra le trasformazioni del piano cartesiano R2 possiamo distinguere i seguenti casi speciali: • Rotazione antioraria di angolo θ: se θ non è un multiplo intero di π non esiste alcun autovettore: infatti ogni vettore viene ruotato e cambia di direzione. Nei casi particolari relativi a θ = k π, con k intero dispari, ogni vettore viene trasformato nell'opposto, quindi ogni vettore non nullo è autovettore, con autovalore -1. Se invece k è pari, la trasformazione non è altro che l'identità, per cui ogni vettore non nullo è autovettore, con autovalore +1. • Riflessione rispetto ad una retta r passante per l'origine: i vettori in r restano fermi e sono quindi autovettori con autovalore 1, quelli della retta s perpendicolare a r e passante per l'origine vengono ribaltati, e quindi sono autovettori con autovalore -1. Non esistono altri autovettori. • Omotetia: ogni vettore viene moltiplicato per uno scalare λ e quindi tutti i vettori non nulli sono autovettori con autovalore λ. • Proiezione ortogonale su una retta r passante per l'origine: i vettori su r restano fermi e quindi sono autovettori con autovalore 1, i vettori sulla retta s ortogonale a r e passante per l'origine vanno tutti sull'origine e quindi sono autovettori con autovalore 0. Non ci sono altri autovettori. Gli esempi appena elencati possono essere rappresentati rispettivamente dalle seguenti matrici (per semplicità, la retta r è l'asse orizzontale): • Non tutte le trasformazioni del piano e dello spazio ricadono in uno degli esempi mostrati sopra. In generale, un endomorfismo (cioè una trasformazione) di Rn è rappresentabile tramite una matrice quadrata con n righe. Consideriamo per esempio l'endomorfismo di R3 indotto dalla matrice: Usando la moltiplicazione fra matrice e vettore vediamo che: Autovettore e autovalore e quindi l'endomorfismo rappresentato da A ha un autovettore con autovalore 2. Si vuole ora trovare il polinomio caratteristico di A. Poiché la trasformazione è già scritta in forma di matrice, saltiamo al punto 2 e calcoliamo il polinomio caratteristico: quindi gli autovalori di A sono 2, 1 e −1. I tre autovettori ortogonali sono: Per quanto detto prima, la trasformazione assume una forma molto semplice rispetto a questa base: ogni vettore x in R3 può essere scritto in modo unico come: e quindi abbiamo • Se il polinomio caratteristico di T ha tutte le radici in K con molteplicità 1, allora T è diagonalizzabile. • Se il polinomio caratteristico di T ha tutte le radici in K, alcune delle quali con molteplicità maggiore di 1, non è necessariamente diagonalizzabile: ad esempio la matrice seguente, che rappresenta la trasformazione della Gioconda in figura ha come polinomio caratteristico (x-1)2 e non è diagonalizzabile (per ): Note [1] [2] [3] [4] [5] [6] [7] S. Lang, op. cit., Pag. 220 S. Lang, op. cit., Pag. 221 S. Lang, op. cit., Pag. 104 S. Lang, op. cit., Pag. 105 S. Lang, op. cit., Pag. 227 S. Lang, op. cit., Pag. 228 Nella pratica gli autovalori di grandi matrici non vengono calcolati usando il polinomio caratteristico, esistendo metodi numerici più veloci e sufficientemente stabili. [8] S. Lang, op. cit., Pag. 223 [9] S. Lang, op. cit., Pag. 114 [10] S. Lang, op. cit., Pag. 251 [11] S. Lang, op. cit., Pag. 245 [12] Jon Keating, L-functions and the Characteristic Polynomials of Random Matrices in Francesco Mezzadri e Nina Snaith (a cura di), Recent perspectives in random matrix theory and number theory (in inglese), Cambridge, Cambridge University Press, 2005, pp. 251-278. ISBN 978-0-521-62058-1 58 Autovettore e autovalore Bibliografia • • • • • • • • • • • Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2 Marius Stoka, Corso di geometria, Cedam, ISBN 88-13-19192-8 Serge Lang (2002): Algebra, 3rd edition, Springer, ISBN 0-387-95835-X Steven Roman (1992): Advanced Linear Algebra, Springer, ISBN 0-387-97837-2 Paul Richard Halmos (1993): Finite-dimensional Vector Spaces, Springer, ISBN 0-387-90093-3 Werner H. Greub (1981): Linear Algebra, Springer, 4th edition, ISBN 0-387-90110-8 Jim Hefferon (2001): Linear Algebra, Online book (http://joshua.smcvt.edu/linearalgebra/), St Michael's College, Colchester, Vermont, USA Gene H. Golub, Charles F. van Loan (1996): Matrix computations, 3rd Edition, Johns Hopkins University Press, ISBN 0-8018-5414-9 Nelson Dunford, Jacob Schwartz (1958): Linear Operator. Part I General Theory Wiley-Interscience, ISBN 0-471-60848-3 V. G. Prikazchikov: Eigen values of differential operators, numerical methods accessibile (http://eom.springer. de/E/e035160.htm) in Encyclopaedia of Mathematics A. B. Bakushinskii: Eigen values of integral operators, numerical methods accessibile (http://eom.springer.de/ E/e035170.htm) in Encyclopaedia of Mathematics • T. S. Pigolkina, V. S. Shul'man: Eigen vector accessibile (http://eom.springer.de/E/e035180.htm) in Encyclopaedia of Mathematics • Leonid Vital'evič Kantorovič, G. P. Akilov (1982): "Functional analysis", Pergamon Press Voci correlate • • • • • • • • • Autofunzione Autostato Diagonalizzabilità Forma canonica di Jordan Polinomio caratteristico Spazio vettoriale Teorema spettrale Teoremi di Gerschgorin Trasformazione lineare Altri progetti • Wikizionario contiene la voce di dizionario: http://it.wiktionary.org/wiki/autovettore • Wikizionario contiene la voce di dizionario: http://it.wiktionary.org/wiki/autovalore Collegamenti esterni • (EN) Eigenvector (http://mathworld.wolfram.com/Eigenvector.html) in MathWorld • (EN) Earliest Known Uses of Some of the Words of Mathematics: E - vedi eigenvector e termini correlati (http:// members.aol.com/jeff570/e.html) • (EN) Numerical solution of eigenvalue problems (http://www.cs.utk.edu/~dongarra/etemplates/index.html) Edited by Zhaojun Bai, James Demmel, Jack Dongarra, Axel Ruhe, Henk van der Vorst Calcolatrici in linea • Calculator for Eigenvalues (http://www.arndt-bruenner.de/mathe/scripts/engl_eigenwert.htm) nel sito di Arndt Brünner 59 Autovettore e autovalore 60 • Online Matrix Calculator (http://www.bluebit.gr/matrix-calculator/) presso BlueBit Software • Matrix calculator (http://wims.unice.fr/wims/wims.cgi?session=6S051ABAFA.2&+lang=en&+ module=tool/linear/matrix.en) in WIMS, WWW Interactive Multipurpose Server, presso l'Université Nice Sophia Antipolis Polinomio caratteristico In matematica, e in particolare in algebra lineare, il polinomio caratteristico di una matrice quadrata su un campo è un polinomio definito a partire dalla matrice che ne descrive molte proprietà essenziali. Il polinomio caratteristico è un oggetto che dipende solo dalla classe di similitudine di una matrice, e pertanto fornisce molte informazioni sulla natura intrinseca delle trasformazioni lineari, caratterizzate attraverso la traccia e il determinante. In particolare, le radici del polinomio sono gli autovalori della trasformazione lineare associata alla matrice. I coefficienti del polinomio sono pertanto detti invarianti della matrice e dell'applicazione ad essa associata. Il polinomio è anche utilizzato per determinare la forma canonica di luoghi geometrici esprimibili mediante matrici, come coniche e quadriche. Definizione Sia A una matrice quadrata a valori in un campo K. Il polinomio caratteristico di A nella variabile x è il polinomio definito nel modo seguente:[1] cioè è il determinante della matrice avente la stessa dimensione di , ottenuta sommando , e quindi e . Qui denota la matrice identità, è la matrice diagonale avente il valore su ciascuna delle n caselle della diagonale principale. In particolare, è autovalore di A se e solo se è radice del suo polinomio caratteristico.[2] Grado e coefficienti del polinomio Sia una matrice quadrata di ordine . Il polinomio caratteristico di ha grado . Alcuni dei suoi coefficienti sono (a meno di segno) quantità notevoli per la matrice, come la traccia ed il determinante: Il coefficiente di Ad esempio, se Se del polinomio è la somma moltiplicata per "centrati" sulla diagonale. è una matrice 2 per 2 si ha: è una matrice 3 per 3 si ha: con: dove è l'elemento di nella posizione . dei determinanti dei minori Polinomio caratteristico 61 Autovalori Le radici in K del polinomio caratteristico sono gli autovalori di Questo si dimostra formalmente ponendo .[2] autovettore di A. Si ha allora Si ha quindi che il nucleo dell'applicazione , ed in particolare: è non nullo se è autovalore, e tale condizione è soddisfatta se e solo se: . Se è una matrice triangolare (superiore o inferiore) avente i valori sulla diagonale principale, allora . Quindi il polinomio caratteristico di una matrice triangolare ha radici nel campo, date dai valori nella diagonale principale. In particolare, questo fatto è vero per le matrici diagonali. Invarianza per similitudine e diagonalizzabilità Due matrici simili hanno lo stesso polinomio caratteristico.[3] Infatti, se: per qualche matrice invertibile , si ottiene: In tale catena di uguaglianze si fa uso del fatto che la matrice della forma commuta con qualsiasi altra e del teorema di Binet. Poiché due matrici che rappresentano un endomorfismo di uno spazio vettoriale simili, il polinomio caratteristico è una grandezza intrinseca di a dimensione finita sono che riassume molte delle caratteristiche dell'endomorfismo considerato, come traccia, determinante ed autovalori. Come conseguenza di questo fatto si ha che è diagonalizzabile se esiste una base di V rispetto alla quale la matrice che rappresenta T è diagonale, e gli elementi della diagonale sono gli autovalori.[4] In particolare, la base che diagonalizza T è composta da suoi autovettori. Il teorema di diagonalizzabilità fornisce, inoltre, un criterio necessario e sufficiente che permette di stabilire se un'applicazione lineare è diagonalizzabile. Una matrice quadrata A con n righe è diagonalizzabile se e solo se valgono entrambi i fatti seguenti: • La somma delle molteplicità algebriche dei suoi autovalori è n, ovvero il polinomio caratteristico può essere fattorizzato nel campo attraverso polinomi di primo grado. • Le molteplicità algebriche e geometriche di ogni autovalore sono coincidenti, ovvero la dimensione degli autospazi è pari alla molteplicità con la quale il relativo autovalore è radice del polinomio caratteristico. Poiché la molteplicità geometrica è sempre minore o uguale di quella algebrica, se l'applicazione ha n autovalori distinti nel campo allora è diagonalizzabile. Polinomio caratteristico 62 Invarianza per trasposizione La matrice trasposta ha lo stesso polinomio caratteristico di . Infatti Qui si fa uso del fatto che il determinante è invariante per trasposizione. Esempio • Data: allora e quindi Gli autovalori di A sono le radici del polinomio: 4 e 1. • Data: in modo analogo si trova Note [1] [2] [3] [4] S. Lang, op. cit., Pag. 227 S. Lang, op. cit., Pag. 228 S. Lang, op. cit., Pag. 229 S. Lang, op. cit., Pag. 114 Bibliografia • Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2 Voci correlate • • • • Polinomio minimo Autovettore e autovalore Determinante Teorema di Hamilton-Cayley Polinomio minimo 63 Polinomio minimo In matematica, e più precisamente in algebra lineare, il polinomio minimo di una trasformazione lineare di uno spazio vettoriale o di una matrice quadrata è il polinomio monico di grado minore fra tutti quelli che annullano la trasformazione o matrice. Il polinomio minimo è utile per determinare la diagonalizzabilità e la forma canonica di Jordan della trasformazione o matrice. Definizione Matrici quadrate Data una matrice quadrata a valori in un certo campo di tutti i polinomi che si annullano in polinomi con coefficienti in L'anello , si considera l'insieme . Questo insieme risulta essere un ideale nell'anello di tutti i . è un anello euclideo: è infatti possibile fare una divisione fra polinomi con resto. Conseguentemente, è un anello ad ideali principali: ogni ideale è generato da un unico elemento. In particolare, è generato da un elemento . Tale elemento è unico solo a meno di moltiplicazione per una costante non nulla: è quindi unico se lo si suppone monico (cioè con coefficiente 1 nel termine polinomio minimo di tale polinomio più grande). Si definisce quindi il . Endomorfismi Dato un endomorfismo di uno spazio vettoriale su di dimensione finita, il polinomio minimo di è definito in modo analogo come il generatore monico dell'ideale formato da tutti i polinomi che annullano . L'endomorfismo è costruito interpretando la moltiplicazione come composizione di endomorfismi. Proprietà Le proprietà qui elencate per le matrici quadrate valgono anche per gli endomorfismi. Polinomio caratteristico Per il teorema di Hamilton-Cayley, se è un elemento dell'ideale è il polinomio caratteristico di una matrice , e perciò il polinomio minimo è un divisore del polinomio caratteristico. Più precisamente, se il polinomio caratteristico si decompone in fattori primi come allora il polinomio minimo si decompone in fattori primi come dove allora . Quindi Polinomio minimo 64 In particolare, i polinomi minimo e caratteristico hanno gli stessi fattori primi. Triangolarizzabilità Una matrice è triangolarizzabile se e solo se il suo polinomio minimo ha tutte le radici nel campo . Diagonalizzabilità Una matrice è diagonalizzabile se e solo se ha tutti gli autovalori nel campo K e la molteplicità algebrica di ogni autovalore è uguale alla sua molteplicità geometrica. In particolare ogni matrice è diagonalizzabile se e solo se il polinomio minimo ad essa associato ha tutte radici nel campo K di molteplicità pari a 1. Esempi Grado uno Il polinomio minimo di una matrice D'altra parte, se ottenuta moltiplicando uno scalare è di grado uno, la matrice è necessariamente del tipo Diagonale Il polinomio minimo della matrice diagonale è mentre il polinomio caratteristico è Blocco di Jordan Il polinomio minimo di un blocco di Jordan è per la matrice identità . è pari a Polinomio minimo 65 Applicazioni Diagonalizzabilità Il polinomio minimo è uno strumento potente per determinare la diagonalizzabilità di un endomorfismo. Proiezioni Una proiezione, nella sua accezione più generale, è un endomorfismo tale che Una proiezione è sempre diagonalizzabile: infatti prendendo vale Poiché . Ne segue che appartiene all'ideale ha due radici 0 e 1 di molteplicità 1, anche , ed è quindi diviso dal polinomio minimo ha radici di molteplicità 1, e quindi di . è diagonalizzabile. Involuzioni Una involuzione è un endomorfismo Analogamente, tale che è radice del polinomio diagonalizzabile. Voci correlate • Polinomio caratteristico • Forma canonica di Jordan che ha due radici distinte. Quindi è Forma canonica di Jordan 66 Forma canonica di Jordan In matematica, più precisamente in algebra lineare, la forma canonica di Jordan di una matrice quadrata A definisce una matrice triangolare J simile ad A che ha una struttura il più possibile vicina ad una matrice diagonale. La matrice è diagonale se e solo se A è diagonalizzabile, altrimenti è divisa in blocchi detti blocchi di Jordan. La forma canonica caratterizza univocamente la classe di similitudine di una matrice. In altre parole, due matrici sono simili se e solo se hanno la stessa forma di Jordan (a meno di permutazione dei blocchi). Il nome è dovuto al matematico francese Camille Jordan che si è occupato di matrici diagonalizzabili. Definizione Blocco di Jordan Un blocco di Jordan di ordine k è una matrice triangolare superiore con k righe costituita nel seguente modo: in cui ogni elemento della diagonale è uguale a caratteristico è l'autospazio relativo a , e quindi ha ed in ogni posizione (i, i+1) si trova un 1. Il suo polinomio come unico autovalore con la molteplicità algebrica k. D'altra parte, è: avente, quindi, dimensione 1. Dal teorema di diagonalizzabilità segue che se k>1 il blocco di Jordan non è diagonalizzabile. Matrice di Jordan Una matrice di Jordan è una matrice a blocchi del tipo dove Ji è un blocco di Jordan con autovalore λi. Ogni blocco di Jordan contribuisce con un autospazio unidimensionale relativo a λi. Come sopra, si vede che la molteplicità geometrica di λi, definita come la dimensione del relativo autospazio, è pari al numero di blocchi con autovalore λi. D'altra parte, la molteplicità algebrica di λi, definita come la molteplicità della radice λi nel polinomio caratteristico di J, è pari alla somma degli ordini di tutti i blocchi con autovalore λi. In questo contesto, il teorema di diagonalizzabilità asserisce, quindi, che J è diagonalizzabile se e solo se le molteplicità algebriche e geometriche coincidono, ovvero se e solo se i blocchi hanno tutti ordine pari ad 1: in altre parole, J è diagonalizzabile se e solo se è già diagonale. Forma canonica di Jordan 67 Teorema di Jordan Diciamo che una matrice quadrata A con elementi in un campo K ha "tutti gli autovalori nel campo" se la somma delle molteplicità algebriche dei suoi autovalori è pari al numero di righe di A. Questo equivale a dire che il suo polinomio caratteristico ha "tutte le radici nel campo", cioè che si spezza come prodotto di polinomi di primo grado. Questo è sempre vero se K è algebricamente chiuso, ad esempio se K = C è il campo dei numeri complessi. Il teorema di Jordan asserisce che ogni matrice ha una "forma canonica di Jordan", e che due matrici sono simili se e solo se hanno la stessa forma canonica: • Sia A una matrice quadrata con elementi in K avente tutti gli autovalori nel campo. Allora A è simile ad una matrice di Jordan. • Due matrici di Jordan J e J' sono simili se e solo se si ottengono l'una dall'altra permutando i blocchi. Esempi Calcoliamo la forma canonica di Jordan della matrice Il suo polinomio caratteristico è , quindi i suoi autovalori sono 4, 4, 2 e 1. Ricordiamo che, se indichiamo con malg(λ) e mgeo(λ) le molteplicità algebrica e geometrica di un autovalore λ, valgono sempre le seguenti disuguaglianze: Quindi in questo caso le molteplicità algebriche e geometriche degli autovalori 2 e 1 sono tutte 1, e l'unica grandezza da trovare è la molteplicità geometrica di 4, che può essere 1 o 2. La molteplicità geometrica di un autovalore indica il numero di blocchi di jordan presenti relativi a quell'autovalore. Vediamo che Segue quindi che A non è diagonalizzabile, e l'autovalore 4 ha un solo blocco di Jordan. I dati che abbiamo sono sufficienti a determinare la matrice di Jordan, che è la seguente: Polinomio minimo Il polinomio minimo m(x) di una matrice A è calcolabile a partire dalla sua forma di Jordan J. Infatti si decompone come dove λ1, ..., λk sono gli autovalori (distinti, cioè elencati senza molteplicità) di A, e ji è l'ordine del blocco di Jordan più grande fra tutti quelli relativi all'autovalore λi. Ad esempio, la seguente matrice Forma canonica di Jordan ha come polinomio caratteristico e 68 come polinomio minimo. Usando il teorema di Jordan e la decomposizione del polinomio minimo enunciata, si ha che le due matrici seguenti hanno gli stessi polinomi caratteristici (e quindi anche lo stesso determinante, la stessa traccia e gli stessi autovalori), gli stessi polinomi minimi, ma non sono simili: Voci correlate • • • • Autovettore e autovalore Diagonalizzabilità Polinomio caratteristico Polinomio minimo Prodotto scalare In matematica, il prodotto scalare è un'operazione binaria che associa ad ogni coppia di vettori appartenenti ad uno spazio vettoriale definito sul campo reale un elemento del campo.[1] Si tratta di un prodotto interno sul campo reale, ovvero una forma bilineare simmetrica definita positiva a valori reali. Alcuni autori propongono una definizione più generale di prodotto scalare, senza specificarne l'appartenenza al campo reale. Talvolta si identifica il prodotto scalare con il prodotto interno o con il concetto di forma bilineare simmetrica.[2] Si tratta di uno strumento fondamentale sia in fisica che in vari settori della matematica, ad esempio nella classificazione delle coniche, nello studio di una funzione differenziabile intorno ad un punto stazionario, delle trasformazioni del piano o nella risoluzione di alcune equazioni differenziali. Spesso in questi contesti viene fatto uso del teorema spettrale, un importante risultato connesso al prodotto scalare. Nel piano cartesiano il prodotto scalare mette in relazione due vettori e le loro lunghezze con l'angolo fra questi, e permette di definire e trattare le nozioni geometriche di lunghezza, angolo e perpendicolarità in spazi vettoriali di dimensione arbitraria. La nozione di prodotto scalare è generalizzata in algebra lineare dallo spazio euclideo ad uno spazio vettoriale qualsiasi: tale spazio può avere dimensione infinita ed essere definito su un campo arbitrario K. Questa generalizzazione è di fondamentale importanza ad esempio in geometria differenziale e in meccanica razionale. Aggiungendo un'ulteriore proprietà, la completezza, porta inoltre al concetto di spazio di Hilbert, per il quale la teoria si arricchisce di strumenti più sofisticati, basilari nella modellizzazione della meccanica quantistica e in molti campi dell'analisi funzionale. Prodotto scalare Definizione Si definisce prodotto scalare sullo spazio vettoriale V una forma bilineare simmetrica che associa a due vettori v e w di V uno scalare nel campo reale R, generalmente indicato con o .[3] Si tratta di un operatore binario che verifica le seguenti condizioni per v, w, u vettori arbitrari e k elemento del campo: • Simmetria: • Linearità rispetto al primo termine: Diversi autori richiedono anche che la forma sia definita positiva, cioè che:[1] per ogni v diverso da zero. Le precedenti richieste implicano anche le seguenti proprietà: • Linearità rispetto al secondo termine: e dal momento che un vettore moltiplicato per 0 restituisce il vettore nullo, segue che: Se il prodotto scalare tra un vettore ed i restanti elementi dello spazio vettoriale è nullo solo se l'elemento considerato è il vettore nullo, il prodotto scalare è detto non degenere. Prodotto scalare definito positivo e negativo Un prodotto scalare su uno spazio vettoriale V è definito positivo se:[4] definito negativo se: semi-definito positivo: semi-definito negativo se: Un prodotto scalare semi-definito positivo è (raramente) chiamato anche prodotto pseudoscalare. 69 Prodotto scalare 70 Prodotto scalare nello spazio euclideo Il prodotto scalare di due vettori a e b del piano, applicati sullo stesso punto, è definito come dove |a| e |b| sono le lunghezze di a e b, e θ è l'angolo tra i due vettori. Il prodotto scalare si indica come a·b, e soddisfa le proprietà algebriche di simmetria, per ogni coppia di vettori a e b, e di bilinearità: Interpretazione geometrica del prodotto scalare (quando B ha lunghezza unitaria) per ogni tripletta di vettori a, b, c e per ogni numero reale . Le prime due relazioni esprimono la "linearità a destra" e le altre due "a sinistra". Il prodotto scalare di un vettore con se stesso è sempre maggiore o uguale a zero: Inoltre, questo è zero se e solo se il vettore è zero (proprietà di annullamento del prodotto scalare): Questa proprietà può essere espressa affermando che il prodotto scalare è definito positivo. Interpretazione geometrica Poiché |a|·cos(θ) è la lunghezza della proiezione ortogonale di a su b, si può interpretare geometricamente il prodotto scalare come il prodotto delle lunghezze di questa proiezione e di b. Si possono inoltre scambiare i ruoli di a e b, interpretare |b|·cos(θ) come la lunghezza della proiezione di b su a ed il prodotto scalare come il prodotto delle lunghezze di questa proiezione e di a. Prodotto scalare 71 Prodotto scalare positivo, nullo e negativo Il coseno di un angolo θ è positivo se θ è un angolo acuto (cioè -90° <θ < 90°), nullo se θ è un angolo retto e negativo se è un angolo ottuso. Ne segue che il prodotto scalare a·b è: • positivo se |a| > 0, |b| >0 e l'angolo θ è acuto; • nullo se |a|=0, |b|=0 oppure θ è retto; • negativo se |a|>0, |b|>0 e l'angolo θ è ottuso. I casi in cui θ è acuto ed ottuso sono mostrati in figura. In entrambi i casi il prodotto scalare è calcolato usando l'interpretazione geometrica, ma il segno è differente. In particolare, valgono inoltre le proprietà seguenti • se θ = 0 i vettori sono paralleli ed a·b = |a|·|b|; • se θ = 90° i vettori sono ortogonali ed a·b = 0; • se θ = 180° i vettori sono paralleli ma orientati in verso opposto, ed a·b = - |a|·|b|. Se a e b sono versori, cioè vettori di lunghezza 1, il loro prodotto scalare è semplicemente il coseno dell'angolo compreso. Il prodotto scalare di un vettore a con se stesso a·a = |a|2 è il quadrato della lunghezza |a| del vettore. Applicazioni in fisica Nella fisica classica, il prodotto scalare è usato nei contesti in cui si debba calcolare la proiezione di un vettore lungo una determinata componente. Ad esempio, il lavoro prodotto da una forza su un corpo che si sposta in direzione è il prodotto scalare dei due vettori. Applicazioni in geometria Il teorema del coseno può essere formulato agevolmente usando il prodotto scalare. Dati tre punti qualsiasi del piano, vale la relazione seguente: Il lavoro è il prodotto scalare fra i vettori e . Espressione analitica Il prodotto scalare è definito in geometria analitica in modo differente: si tratta della funzione che, in un qualsiasi spazio euclideo associa a due vettori a = [a1, a2, ... , an] e b = [b1, b2, ... , bn] il numero dove Σ denota una sommatoria. Ad esempio, il prodotto scalare di due vettori tridimensionali [1, 3, −2] e [4, −2, −1] è [1, 3, −2]·[4, −2, −1] = 1×4 + 3×(−2) + (−2)×(−1) = 0. In questo modo è possibile definire l'angolo θ compreso fra due vettori in un qualsiasi spazio euclideo, invertendo la formula data sopra, facendo cioè dipendere l'angolo dal prodotto scalare e non viceversa: Prodotto scalare 72 Notazioni Spesso il prodotto scalare fra a e b si indica anche come o come . Utilizzando il prodotto tra matrici e considerando i vettori come matrici anche come , il prodotto scalare canonico si scrive dove aT è la trasposta di a. L'esempio visto sopra si scrive quindi in notazione matriciale nel modo seguente: Equivalenza fra le due definizioni L'equivalenza fra le due definizioni può essere verificata facendo uso del teorema del coseno. Nella forma descritta sopra, il teorema asserisce che il prodotto scalare di due vettori a e b nel piano, definito in modo geometrico, è pari a Ponendo a = [a1, a2] e b = [b1, b2] ed usando il teorema di Pitagora si ottiene L'equivalenza in uno spazio euclideo di dimensione arbitraria può essere verificata in modo analogo. Applicazioni Norma di un vettore Se K=R ed il prodotto scalare è definito positivo, è possibile dotare lo spazio vettoriale di una norma. Più precisamente, la funzione: soddisfa per ogni vettori x, y e per ogni scalare • • • le proprietà: se e solo se e dunque rende lo spazio vettoriale uno spazio normato. Matrice associata In modo analogo alla matrice associata ad una applicazione lineare, fissata una base , un prodotto scalare φ è identificato dalla matrice simmetrica associata M, definita nel modo seguente: D'altro canto, ogni matrice simmetrica dà luogo ad un prodotto scalare. Molte proprietà del prodotto scalare e della base possono essere lette sulla matrice associata. Prodotto scalare 73 Radicale Il radicale di un prodotto scalare è l'insieme dei vettori v in V per cui: per ogni w in V. Il radicale è un sottospazio vettoriale di V. Il prodotto scalare si dice degenere se il radicale ha dimensione maggiore di zero. Se V ha dimensione finita e M è la matrice associata a φ rispetto ad una qualsiasi base, applicando il teorema della dimensione si trova facilmente che: dove rk(M) è il rango di M e rad(V) è il radicale. Quindi un prodotto scalare è non degenere se e solo se la matrice associata è invertibile. Si definisce il rango del prodotto scalare come rk(M). Un prodotto scalare definito positivo o negativo è necessariamente non degenere. Non è vero il contrario, infatti il prodotto scalare associato rispetto alla base canonica alla matrice: non è degenere, ma non è né definito positivo né definito negativo. Vettori isotropi Un vettore v è isotropo se = 0. Tutti i vettori del radicale sono isotropi, ma possono esistere vettori isotropi che non appartengono al radicale. Ad esempio, per il prodotto scalare associato alla matrice A descritta sopra il vettore è isotropo ma non è contenuto nel radicale, che ha dimensione zero. Ortogonalità Due vettori v e w si dicono ortogonali se . Il sottospazio ortogonale ad un sottospazio W di V è definito come: Il sottospazio ortogonale è appunto un sottospazio vettoriale di V. Contrariamente a quanto accade con il prodotto canonico nello spazio euclideo, un sottospazio ed il suo ortogonale non si intersecano in generale in un punto solo (possono addirittura coincidere). Per quanto riguarda le loro dimensioni, vale la seguente disuguaglianza: Se il prodotto scalare è non degenere, vale l'uguaglianza Infine, se il prodotto scalare è definito positivo o negativo, effettivamente uno spazio e il suo ortogonale si intersecano solo nell'origine e sono in somma diretta. Si ottiene: Una base ortogonale di vettori di V è una base di vettori a due a due ortogonali. Una base è ortogonale se e solo se la matrice associata al prodotto scalare rispetto a questa base è diagonale. Prodotto scalare Trasformazione ortogonale Una trasformazione ortogonale è una applicazione lineare invertibile T:V → V in sé che preserva il prodotto scalare, cioè tale che: Teorema di Sylvester Se K = R è il campo dei numeri reali e V ha dimensione n, il teorema di Sylvester reale afferma che, dato un prodotto scalare φ su V, si ha: • Esiste una base ortogonale di V per φ. • Due basi ortogonali per V hanno la stessa segnatura, che dipende quindi solo da φ• Due prodotti scalari con la stessa segnatura sono isomorfi. Quindi la matrice associata è una matrice diagonale avente sulla diagonale solo i numeri 0, 1, e -1, in ordine sparso. Siano i0, i+ e i- rispettivamente il numero di volte che compaiono i numeri 0, 1 e -1 sulla diagonale: la terna (i0, i+ e i-) è la segnatura del prodotto scalare. La segnatura è un invariante completo per l'isometria: due spazi vettoriali con prodotto scalare sono isometrici se e solo se hanno la stessa segnatura. Il teorema di Sylvester complesso dice invece che esiste sempre una base ortogonale v1, ..., vn tale che per ogni i il numero è uguale a 0 oppure 1. In questo caso, il rango è un invariante completo per l'isometria: due spazi vettoriali complessi con prodotto scalare sono isometrici se e solo se hanno lo stesso rango. Endomorfismo simmetrico Un endomorfismo T:V → V è simmetrico o autoaggiunto rispetto al prodotto scalare se: per ogni coppia di vettori v e w in V. Un endomorfismo è simmetrico se e solo se la matrice associata rispetto ad una qualsiasi base ortonormale è simmetrica. Esempi • Il prodotto scalare canonico fra vettori del piano o dello spazio euclideo è un prodotto scalare definito positivo. • Sia C([0, 1]) lo spazio vettoriale delle funzioni continue sull'intervallo [0,1], a valori reali. Definiamo un prodotto scalare su C[0, 1] ponendo: : Questo prodotto scalare è definito positivo, perché l'integrale di f2 è strettamente positivo se f non è costantemente nulla. • Definiamo sullo spazio vettoriale M([0, 1]) delle funzioni misurabili a valori reali lo stesso prodotto scalare del punto precedente. Qui il prodotto scalare è solo semidefinito positivo: infatti se f è la funzione che vale 1 su 1/2 e 0 su tutto il resto, l'integrale di f2 è zero (f è isotropa). 74 Prodotto scalare 75 Note [1] [2] [3] [4] Hoffman, Kunze, op. cit., Pag. 271 S. Lang, op. cit., Pag. 149 S. Lang, op. cit., Pag. 185 S. Lang, op. cit., Pag. 151 Bibliografia • Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2 • Kenneth Hoffman; Ray Kunze, Linear Algebra, 2a ed., Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971. ISBN 01-353-6821-9 Voci correlate • • • • • Prodotto vettoriale Spazio euclideo Spazio di Hilbert Teorema di Sylvester Teorema spettrale • Identità di polarizzazione Altri progetti • Wikibooks contiene testi o manuali: http://it.wikibooks.org/wiki/Implementazioni di algoritmi/Prodotto scalare Forma bilineare In matematica, più precisamente in algebra lineare, una forma bilineare è una mappa bilineare V × W → F, dove F è un campo, lineare in entrambe le componenti. Definizione Siano V e W spazi vettoriali. Una forma bilineare sul campo che associa ad ogni coppia di elementi , è una mappa lo scalare componenti, cioè:[1] con e . Fissato uno dei due argomenti la funzione è quindi lineare rispetto all'altro. Se V e W coincidono, la forma si dice bilineare su V (o su W).[2] ed è lineare su entrambe le Forma bilineare 76 Rappresentazione in coordinate Se V ha dimensione n finita, ogni forma bilineare φ su V può essere rappresentata come una matrice quadrata con n righe. Come per le applicazioni lineari, per fare ciò è necessario scegliere una base {v1, ... vn} per V, in quanto la matrice risultante dipende dalla base scelta. La matrice B è definita per componenti da . A questo punto, l'azione della forma bilineare su due vettori u e w di V si ricava nel modo seguente, tramite moltiplicazione tra matrici: dove u e w sono le coordinate di u e w rispetto alla base, aventi componenti ui e wj. Relazione con lo spazio duale Ogni forma bilineare B su V definisce una coppia di mappe lineari da V nel suo spazio duale V*. Si definiscano B1, B2:V → V* nel modo seguente: In altre parole, B1(v) è l'elemento di V* che manda w in B1(v, w). Per distinguere l'elemento v dall'argomento w della funzione ottenuta si usa la notazione: dove ( ) indica il posto per l'argomento della mappa. Ogni mappa lineare T: V → V* definisce analogamente una funzione bilineare: Forme simmetriche e antisimmetriche Una forma bilineare φ: V × V → K è detta simmetrica se:[3] per ogni v, w in V. Una forma bilineare φ: V × V → K è detta antisimmetrica o alternante se: per ogni v, w in V. Una forma bilineare φ è simmetrica se e solo se la sua matrice associata (rispetto ad una base qualsiasi) è simmetrica, ed è antisimmetrica se e solo se la matrice associata è antisimmetrica. Se la forma bilineare è simmetrica, le due mappe φ1, φ2: V → V* definite sopra coincidono. Se K non ha caratteristica 2, allora una caratterizzazione equivalente di una forma antisimmetrica è: per ogni v in V. In caso contrario, la condizione precedente è solo sufficiente. Forma bilineare 77 Prodotto scalare Una forma bilineare simmetrica è spesso chiamata prodotto scalare.[3] Altri autori definiscono invece il prodotto scalare come una forma bilineare simmetrica a valori nel campo R dei numeri reali che sia definita positiva, ovvero con per ogni v diverso da zero e . Forma degenere Una forma bilineare φ definita su uno spazio V di dimensione finita è degenere se la matrice B che la rappresenta rispetto ad una base ha determinante nullo. Altrimenti, è detta non degenere. La definizione non dipende dalla base scelta per rappresentare la forma come matrice. I fatti seguenti sono equivalenti: • φ è degenere; • esiste un vettore • esiste un vettore non nullo tale che non nullo tale che per ogni per ogni ; . Esempi • Il prodotto scalare canonico fra vettori del piano o dello spazio euclideo è una forma bilineare simmetrica. • Sia C[0, 1] lo spazio vettoriale delle funzioni continue sull'intervallo [0,1], a valori reali. Un esempio di forma bilineare simmetrica su C[0, 1] è data da: Note [1] S. Lang, op. cit., Pag. 182 [2] S. Lang, op. cit., Pag. 183 [3] S. Lang, op. cit., Pag. 185 Bibliografia • Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2 Voci correlate • Prodotto scalare • Forma quadratica • Forma sesquilineare Spazio euclideo 78 Spazio euclideo In matematica, la nozione di spazio euclideo fornisce una generalizzazione degli spazi a due e a tre dimensioni studiati dalla geometria euclidea. Per ogni intero naturale n si dispone di uno spazio euclideo ad n dimensioni: questo si ottiene dallo spazio vettoriale ad n dimensioni arricchendolo con le nozioni che consentono di trattare le nozioni di distanza, lunghezza e angolo. È l'esempio "standard" di spazio di Hilbert reale a dimensione finita. Spazio Definizione Sia il campo dei numeri reali e sia n un numero naturale. Una n-upla di numeri reali è una sequenza (ossia un insieme ordinato) di n numeri reali. Lo spazio di tutte le n-uple di numeri reali forma uno spazio vettoriale di dimensione n su , indicato con . Le operazioni di somma e prodotto per scalare sono definite da Basi di spazi vettoriali Una base dello spazio che presenta vari vantaggi è la sua cosiddetta base canonica . Un vettore arbitrario in Lo spazio è il prototipo di uno spazio vettoriale reale a dimensione n: infatti ogni spazio vettoriale V di dimensione n è isomorfo a tra può dunque essere scritto nella forma . Notiamo che non si impone un isomorfismo canonico: la scelta di un isomorfismo e V è equivalente alla scelta di una base per V. In molte fasi dello sviluppo dell'algebra lineare gli spazi vettoriali a dimensione n vengono comunque studiati in astratto, perché molte considerazioni sono più semplici ed essenziali se svolte senza fare riferimento ad una base particolare. Struttura euclidea Lo spazio euclideo è più che un semplice spazio vettoriale. Per ottenere la geometria euclidea si deve poter parlare di distanze e angoli, iniziando con la distanza fra due punti e l'angolo formato da due rette o da due vettori. Il modo intuitivo per fare questo è l'introduzione di quello che viene chiamato prodotto scalare standard su . Questo prodotto, se i vettori x e y sono riferiti alla base canonica definita sopra, è definito da Lo spazio delle n-uple di numeri reali arricchito con il prodotto scalare, funzione che a due n-uple di reali x e y associa un numero reale, costituisce una struttura più ricca di chiamata spazio euclideo n-dimensionale. Per distinguerlo dallo spazio vettoriale delle n-uple reali in genere viene denotato con En . Il prodotto scalare permette di definire una "lunghezza" non negativa per ogni vettore x di En nel seguente modo Spazio euclideo 79 Questa funzione lunghezza soddisfa le proprietà richieste per una norma e viene chiamata norma euclidea o norma pitagorica su . L'angolo (interno) θ fra due vettori x e y di En è quindi definito come dove arccos è la funzione arcocoseno. Con queste definizioni la base canonica dello spazio vettoriale diventa una base ortonormale per lo spazio euclideo ottenuto arricchendolo con il prodotto scalare standard. A questo punto si può usare la norma per definire una funzione distanza (o metrica) su nel seguente modo La forma di questa funzione distanza è basata sul teorema di Pitagora, ed è chiamata metrica euclidea. Ogni spazio euclideo quindi costituisce un esempio (a dimensione finita) di spazio di Hilbert (v. a. spazio prehilbertiano), di spazio normato e di spazio metrico. Va osservato che in molti contesti, lo spazio euclideo di n dimensioni viene denotato con , dando per scontata la struttura euclidea. In effetti per molti fini applicativi la distinzione che abbiamo fatta non ha gravi conseguenze e la suddetta identificazione va considerata un abuso di linguaggio veniale. Infatti negli spazi euclidei si possono introdurre le nozioni di sottospazio e di trasformazione lineare senza complicazioni rispetto a quanto fatto per gli spazi vettoriali. Osserviamo anche che ogni sottospazio vettoriale W di dimensione m (< n) di En è isometrico allo spazio euclideo Em, ma non in modo canonico: per stabilire una corrispondenza utilizzabile per dei calcoli è necessaria la scelta di una base ortonormale per W e questa, se in W non si trova alcun vettore della base canonica di En, non può servirsi di alcun elemento di tale base. Generalizzazione sui complessi Accanto agli spazi euclidei reali si possono introdurre loro varianti sui numeri complessi, arricchendo lo spazio vettoriale n-dimensionale sul campo dei complessi con un cosiddetto prodotto interno hermitiano costituito da una forma sesquilineare. In questo caso il prodotto scalare tra vettori viene definito con l'espressione: La proprietà riflessiva di tale composizione diventa: e per la moltiplicazione per uno scalare si ha: . Spazio euclideo 80 Topologia euclidea Dal momento che lo spazio euclideo è uno spazio metrico, lo si può considerare anche uno spazio topologico dotandolo della naturale topologia indotta dalla metrica. Questo può farsi definendo come base di insiemi aperti l'insieme delle palle aperte, insiemi dei punti che distano da un punto dato meno di un reale positivo fissato (raggio della palla). Mediante questi insiemi aperti si definiscono tutte le nozioni che servono alla topologia metrica su En. Questa è detta topologia euclidea e si rivela equivalente alla topologia prodotto su considerato come prodotto di n copie della retta reale dotata della sua usuale topologia. Con la "strumentazione" degli spazi vettoriali topologici gli spazi euclidei sono in grado da fornire gli ambienti nei quali sviluppare sistematicamente numerose nozioni dell'analisi matematica, della geometria euclidea, della geometria differenziale e della fisica matematica classica. Invarianza dei domini Un risultato importante per la topologia di è l'invarianza dei domini di Brouwer. Ogni sottoinsieme di la sua topologia del sottospazio), omeomorfo a un altro sottoinsieme aperto di Un'immediata conseguenza di questo è che non è omeomorfo a se (con , è esso stesso aperto. - un risultato intuitivamente "ovvio" ma che è difficile da dimostrare rigorosamente. Varietà e strutture esotiche Lo spazio euclideo è il prototipo di varietà topologica, e anche di varietà differenziabile. I due concetti coincidono in generale, tranne in dimensione 4: come mostrato da Simon Donaldson e da altri, è possibile assegnare a delle "strutture differenziali esotiche", che rendono lo spazio topologico Voci correlate • • • • Geometria euclidea Prodotto scalare Spazio di Minkowski Superspazio non diffeomorfo allo spazio standard. Base ortonormale 81 Base ortonormale In matematica, e più precisamente in algebra lineare, una base ortonormale di uno spazio vettoriale munito di prodotto scalare definito positivo è una base composta da vettori di norma unitaria. Una base ortogonale è una base di vettori ortogonali rispetto al prodotto scalare definito sullo spazio vettoriale, non necessariamente definito positivo. Si tratta di una condizione meno restrittiva rispetto a quella di ortonormalizzazione, e solitamente si costruiscono basi ortonormali a partire da basi ortogonali. I concetti di base ortonormale e ortogonale generalizzano la nozione di sistema di riferimento nel piano cartesiano, e rendono possibile definire degli assi perpendicolari, e quindi un sistema di riferimento che assegna ad ogni punto delle coordinate su uno spazio vettoriale con dimensione arbitraria. Definizione Sia uno spazio vettoriale di dimensione finita sul campo K, nel quale sia definito un prodotto scalare. Una base ortogonale per è una base composta da vettori a due a due ortogonali, cioè tali che:[1] Si ponga il prodotto scalare definito positivo. Una base ortonormale è una base ortogonale in cui ogni vettore ha norma uno, cioè tale che:[2] Questa nozione si generalizza ad uno spazio di Hilbert (che può essere reale o complesso, e con dimensione finita o infinita) nel modo seguente: una base ortonormale è un insieme di vettori indipendenti, ortogonali e di norma 1, che generano un sottospazio denso in . Una tale base è spesso detta base hilbertiana. Se B è una base ortogonale di , ogni elemento x di può essere scritto in maniera unica come: ed il numero: è detto coefficiente di fourier di x rispetto al vettore di base vi.[3] Se B è una base ortonormale si ha: La norma di x è quindi data da:[4] Se B è unabase ortonormale di , allora Φ : H -> ℓ 2(B) tale che: per ogni coppia di vettori x e y di . è isomorfo a ℓ 2(B) nel senso che esiste una mappa lineare e biunivoca Base ortonormale 82 Esempi • L'insieme {(1,0,0),(0,1,0),(0,0,1)} costituisce una base ortogonale e ortonormale di . • L'insieme {fn : n ∈ } con fn(x) = exp(2πinx) costituisce una base ortonormale dello spazio complesso L2([0,1]). Ciò è di fondamentale importanza nello studio delle Serie di Fourier. • L'insieme {eb : b ∈ B} con eb(c) = 1 se b=c e 0 altrimenti costituisce una base ortonormale di l2(B). Proprietà • Ogni spazio vettoriale di dimensione finita, dotato di un prodotto scalare, possiede basi ortogonali grazie al teorema di Sylvester. • Da ogni base ortogonale si può ottenere una base ortonormale normalizzando (dividendo) i componenti della base per la loro norma. Ad esempio, da che già sappiamo ortogonale, abbiamo . • Ogni spazio euclideo possiede basi ortonormali, grazie all'algoritmo di ortogonalizzazione di Gram-Schmidt. • Una matrice di cambiamento di base fra basi ortonormali è una matrice ortogonale. • Se B è una base ortonormale di uno spazio di Hilbert V, ogni elemento v di V si scrive in modo unico come e la norma di v è data dall'identità di Parseval Inoltre il prodotto scalare fra due vettori è dato da Queste espressioni hanno senso anche se B è non numerabile: in questo caso solo un insieme numerabile di addendi è non-nullo. Le serie di Fourier sono un esempio. • Una base hilbertiana è numerabile se e solo se lo spazio è separabile Note [1] [2] [3] [4] S. Lang, op. cit., Pag. 151 S. Lang, op. cit., Pag. 155 S. Lang, op. cit., Pag. 152 S. Lang, op. cit., Pag. 154 Bibliografia • Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2 Voci correlate • • • • Prodotto scalare Forma hermitiana Spazio di Hilbert Identità di Parseval Ortogonalizzazione di Gram-Schmidt 83 Ortogonalizzazione di Gram-Schmidt In matematica, e in particolare in algebra lineare, l'ortogonalizzazione Gram-Schmidt è un algoritmo che permette di ottenere un insieme di vettori ortogonali a partire da un generico insieme di vettori linearmente indipendenti in uno spazio vettoriale dotato di un prodotto scalare definito positivo.[1] L'algoritmo Sia V uno spazio vettoriale reale con un prodotto scalare definito positivo. Siano dei vettori indipendenti in V. L'algoritmo di Gram-Schmidt restituisce n vettori linearmente indipendenti tali che: In altre parole, i vettori restituiti sono ortonormali, ed i primi i generano lo stesso sottospazio di prima.[1] Procedimento Definiamo la proiezione ortogonale come la funzione che proietta il vettore v in modo ortogonale su u:[2] Il procedimento di Gram–Schmidt permette di costruire una base ortogonale generica a partire da una base . Normalizzando quindi la base ortogonale si ottiene una base ortonormale dello spazio. Il procedimento è il seguente:[3] I primi due passi dell'algoritmo. Ortogonalizzazione di Gram-Schmidt Dimostrazione Per verificare che queste formule producono una sequenza di vettori mutuamente ortogonali, per prima cosa calcoliamo il prodotto scalare fra e1 e e2 sostituendo la precedente espressione per u2: troveremo zero. Successivamente teniamo conto di questo fatto per calcolare il prodotto scalare fra e1 ed e3, ora sostituendo u3 con la relativa espressione: troveremo ancora zero. La dimostrazione generale procede per induzione. Geometricamente, questo metodo viene descritto come segue. Per calcolare ui, si proietta vi ortogonalmente sul sottospazio Ui-1 generato da u1,...,ui-1, che è lo stesso del sottospazio generato da v1,...,vi-1. si definisce allora ui come differenza tra vi e questa proiezione, in modo che risulta garantito che esso sia ortogonale a tutti i vettori nel sottospazio Ui-1. Poiché però vogliamo dei vettori di norma uno, ad ogni passo normalizziamo il vettore ui. Generalizzazioni Il processo di Gram-Schmidt si applica anche ad una successione infinita {vi}i di vettori linearmente indipendenti. Il risultato è sempre una successione {ei}i di vettori ortogonali e con norma unitaria, tale che Uso del determinante Il risultato del procedimento di Gram–Schmidt può essere espresso in modo non ricorsivo utilizzando la seguente formula: dove D 0=1, e per j ≥ 1 D j è la matrice di Gram: L'espressione per uk è un determinante "formale", ovvero la matrice contiene sia scalari che vettori. Esempio Consideriamo i vettori seguenti nel piano euclideo R2, con il prodotto scalare standard. Applichiamo il procedimento di Gram-Schmidt per ottenere vettori ortogonali: Verifichiamo che i vettori u1 e u2 sono effettivamente ortogonali: 84 Ortogonalizzazione di Gram-Schmidt Cenni storici Il procedimento è così chiamato in onore del matematico danese Jørgen Pedersen Gram (1850-1916) e del matematico tedesco Erhard Schmidt (1876-1959); esso però è stato introdotto precedentemente ai loro studi e si trova in lavori di Laplace e Cauchy. Quando si implementa l'ortogonalizzazione su un computer, al processo di Gram-Schmidt di solito si preferisce la trasformazione di Householder, in quanto questa è numericamente più stabile, cioè gli errori causati dall'arrotondamento sono minori. Note [1] Hoffman, Kunze, op. cit., Pag. 280 [2] S. Lang, op. cit., Pag. 152 [3] S. Lang, op. cit., Pag. 154 Bibliografia • Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2 • Kenneth Hoffman; Ray Kunze, Linear Algebra, 2a ed., Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971. ISBN 01-353-6821-9 Voci correlate • • • • Teorema di Sylvester Prodotto scalare Teorema spettrale Algoritmo di Lagrange 85 Forma sesquilineare 86 Forma sesquilineare In matematica una forma sesquilineare sopra uno spazio vettoriale complesso è una funzione che associa ad ogni coppia di vettori dello spazio un numero complesso e che è antilineare nel primo argomento e lineare nel secondo. Il nome trae origine dal prefisso sesqui che significa "uno e mezzo", in sintonia con il termine forma bilineare, funzione con due argomenti che è lineare in entrambi. Talora si chiede invece che una trasformazione sesquilineare sia lineare nel primo argomento e antilineare nel secondo: questa è infatti la convenzione utilizzata dai matematici. La convenzione qui scelta è invece quella seguita dai fisici quando trattano di meccanica quantistica, e trae origine dalla notazione bra-ket introdotta da Paul Dirac nel formalismo della meccanica quantistica. Inoltre vari autori che studiano implicitamente soltanto spazi vettoriali complessi, usano per brevità il termine forma bilineare al posto di sesquilineare. Una forma sesquilineare simmetrica è detta forma hermitiana, ed è analoga alla forma bilineare simmetrica nel caso reale.[1] Una forma hermitiana definita positiva è inoltre detta prodotto interno o prodotto hermitiano. Se si considera il campo reale tale prodotto è detto prodotto scalare.[2] Definizione Sia V uno spazio vettoriale complesso. Una forma sesquilineare sul campo è una mappa: che associa ad ogni coppia di elementi . e lo scalare Si tratta di un'applicazione lineare su una componente ed antilineare sull'altra, cioè: • • • con e . In altre parole, per ogni z in V fissato, le applicazioni sono rispettivamente lineare e antilineare. Forma hermitiana Data una qualsiasi forma sesquilineare su V, è sempre possibile associare una seconda forma sesquilineare che si dice ottenuta per trasposizione coniugata: e si ha: Una forma hermitiana è una forma sesquilineare : V × V → C tale che:[3] La forma hermitiana standard sullo spazio Cn è definita nel modo seguente: Tali forme sono l'equivalente complesso delle forme bilineari simmetrica e antisimmetrica. Analogamente a quanto accade nel caso reale, ogni forma sesquilineare può essere scritta come somma di una hermitiana e di una antihermitiana: Forma sesquilineare 87 Prodotto interno Il prodotto interno, anche detto prodotto hermitiano, è una forma hermitiana definita positiva, cioè tale che:[2] se . Un prodotto hermitiano è sovente indicato con , ed uno spazio vettoriale complesso munito di prodotto hermitiano si dice spazio prehilbertiano. Il prodotto interno è in generale definito sul campo complesso, e nel caso si consideri il campo reale tale prodotto è detto prodotto scalare. Forma antihermitiana Una forma antihermitiana è una forma sesquilineare : V × V → C tale che: ovvero: Ogni forma antihermitiana si può esprimere come: dove i è l'unità immaginaria e è una forma hermitiana. Analogamente al caso precedente, in dimensione finita una forma antihermitiana è rappresentabile tramite una matrice antihermitiana. La forma quadratica associata ad una forma antihermitiana ha solo valori immaginari. Matrice associata Supponiamo che V abbia dimensione finita. Sia una base di V. Ogni forma hermitiana è rappresentata da una matrice hermitiana H definita come e vale la relazione dove è il vettore in Cn delle coordinate di v rispetto a B. D'altra parte, ogni matrice hermitiana definisce un prodotto hermitianwo. Come per le applicazioni lineari, questa corrispondenza fra forme e matrici dipende fortemente dalla scelta della base B. Forma sesquilineare Forma quadratica Ad una forma hermitiana è possibile associare una forma quadratica definita come: Tale forma ha tutti valori reali: una forma sesquilineare è hermitiana se e solo se la forma quadratica a lei associata ha solo valori reali. Note [1] S. Lang, op. cit., Pag. 197 [2] Hoffman, Kunze, op. cit., Pag. 271 [3] S. Lang, op. cit., Pag. 158 Bibliografia • Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2 • Kenneth Hoffman; Ray Kunze, Linear Algebra, 2a ed., Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971. ISBN 01-353-6821-9 Voci correlate • • • • forma bilineare teorema spettrale spazio prehilbertiano spazio di Hilbert Teorema spettrale In matematica, in particolare nell'algebra lineare e nell'analisi funzionale, il teorema spettrale si riferisce a una serie di risultati relativi agli operatori lineari oppure alle matrici. In termini generali il teorema spettrale fornisce condizioni sotto le quali un operatore o una matrice possono essere diagonalizzati, cioè rappresentati da una matrice diagonale in una certa base. In dimensione finita, il teorema spettrale asserisce che ogni endomorfismo simmetrico di uno spazio vettoriale reale dotato di un prodotto scalare definito positivo ha una base ortonormale formata da autovettori. Equivalentemente, ogni matrice simmetrica reale è simile ad una matrice diagonale tramite una matrice ortogonale. In dimensione infinita, il teorema spettrale assume forme diverse a seconda del tipo di operatori cui si applica. Ad esempio, esiste una versione per operatori autoaggiunti in uno spazio di Hilbert. Il teorema spettrale fornisce anche una decomposizione canonica, chiamata decomposizione spettrale, dello spazio vettoriale. 88 Teorema spettrale Caso finito-dimensionale Il teorema spettrale è innanzitutto un importante teorema riguardante gli spazi vettoriali (reali o complessi) di dimensione finita. Enunciato Il teorema spettrale può essere enunciato per spazi vettoriali reali o complessi muniti di prodotto scalare o hermitiano definito positivo. L'enunciato è essenzialmente lo stesso nei due casi. Il teorema nel caso reale può anche essere interpretato come il caso particolare della versione complessa. Come molti altri risultati in algebra lineare, il teorema può essere enunciato in due forme diverse: usando il linguaggio delle applicazioni lineari o delle matrici. Nel caso complesso l'enunciato per spazi vettoriali complessi muniti di un prodotto hermitiano è analogo a quello reale, ma sotto ipotesi più deboli: anziché autoaggiunto, è sufficiente richiedere che l'operatore sia normale, cioè che commuti con il proprio aggiunto. Caso reale Sia T un endomorfismo su uno spazio vettoriale reale V di dimensione n, dotato di un prodotto scalare definito positivo. Allora T è autoaggiunto se e solo se esiste una base ortonormale di V fatta di autovettori per T.[1] L'endomorfismo T è quindi diagonalizzabile. Una versione equivalente del teorema, enunciata con le matrici, afferma che ogni matrice simmetrica è simile ad una matrice diagonale tramite una matrice ortogonale.[2] Come conseguenza del teorema, per ogni matrice simmetrica S esistono una matrice ortogonale M (cioè tale che MTM = I) ed una diagonale D per cui:[3] In particolare, gli autovalori di una matrice simmetrica sono tutti reali. Caso complesso Sia T un operatore lineare su uno spazio vettoriale complesso V di dimensione n, dotato di un prodotto hermitiano, cioè di una forma hermitiana definita positiva. Allora T è un operatore normale se e solo se esiste una base ortonormale di V fatta di autovettori per T.[4] Nel linguaggio matriciale, il teorema afferma che ogni matrice normale è simile ad una matrice diagonale tramite una matrice unitaria. In altre parole, per ogni matrice normale H esistono una matrice unitaria U ed una diagonale D per cui: Un operatore è quindi normale se e solo se è unitariamente diagonalizzabile. Come corollario segue che se e solo se l'operatore T è autoaggiunto la base ortonormale conta solo autovalori reali, mentre se T è unitario il modulo degli autovalori è 1. In particolare, gli autovalori di una matrice hermitiana sono tutti reali, mentre quelli di una matrice unitaria sono di modulo 1. 89 Teorema spettrale 90 Dimostrazione Nel dimostrare il teorema spettrale è sufficiente considerare il caso complesso, e per provare l'esistenza di una base di autovettori si utilizza il principio d'induzione sulla dimensione di V. Se la dimensione di V è pari a 1 non c'è nulla da dimostrare. Si ponga che l'enunciato valga per gli spazi vettoriali di dimensione n - 1: si vuole mostrare che questo implica la validità del teorema per gli spazi di dimensione n. Poiché C è un campo algebricamente chiuso, il polinomio caratteristico di T ha almeno una radice: quindi T ha almeno un autovalore ed un autovettore relativo a tale autovalore. Si consideri lo spazio: formato dai vettori di V ortogonali a . W ha dimensione L'endomorfismo T manda W in sé, ossia , poiché i due sottospazi sono in somma diretta. . Infatti, l'immagine di T è ortogonale a : essendo v e w ortogonali per ipotesi. La restrizione di T a W è ancora un endomorfismo di W normale: Poiché W ha dimensione si può applicare l'ipotesi induttiva per , e supporre che esista una base ortonormale di suoi autovettori. Dal momento che v può essere supposto di norma unitaria, v e la base ortonormale di W costituiscono una base ortonormale di V, come richiesto. Nel caso in cui T sia autoaggiunto si dimostra che tutti i suoi autovalori sono reali. Infatti, sia x un autovettore per T con autovalore λ. Essendo T =T* si ha: Segue che λ è uguale al suo coniugato, e quindi è reale. Questo permette di considerare il teorema spettrale enunciato nel caso reale come corollario di quello complesso. Viceversa, si supponga che esista una base ortonormale di V composta da autovettori di T. Allora la matrice che rappresenta l'operatore rispetto a tale base è diagonale, da cui segue che T è normale. Teorema di decomposizione spettrale Come immediata conseguenza del teorema spettrale, sia nel caso reale che nel caso complesso, il teorema di decomposizione spettrale afferma che gli autospazi di T sono ortogonali e in somma diretta: Equivalentemente, se Pλ è la proiezione ortogonale su Vλ, si ha: La decomposizione spettrale è un caso particolare della decomposizione di Schur. È anche un caso particolare della decomposizione ai valori singolari. Teorema spettrale 91 Caso infinito-dimensionale Il caso infinito-dimensionale costituisce una generalizzazione del caso precedente, ed esistono diverse formulazioni del teorema a seconda della classe di operatori che si vuole considerare. La principale distinzione riguarda gli operatori limitati e non limitati. Operatori limitati Il teorema spettrale afferma che un operatore limitato e autoaggiunto definito su uno spazio di Hilbert è un operatore di moltiplicazione. In modo equivalente, esiste una famiglia di misure su ed un operatore unitario: tali che:[5] con: Una tale scrittura di è detta rappresentazione spettrale dell'operatore. Come corollario, segue che esiste una misura su uno spazio di misura ed esiste un operatore unitario: tali che:[6] per una qualche funzione misurabile limitata ed a valori reali su . Operatori non limitati Sia un operatore non limitato e autoaggiunto su uno spazio di Hilbert separabile esistono uno spazio di misura • Se è una misura finita, un operatore unitario: misurabile quasi ovunque tali che:[7] ed esiste una funzione • , dove se e solo se: allora: con dominio . Allora Teorema spettrale Note [1] [2] [3] [4] [5] [6] [7] S. Lang, op. cit., Pag. 245 S. Lang, op. cit., Pag. 248 S. Lang, op. cit., Pag. 246 S. Lang, op. cit., Pag. 251 Reed, Simon, op. cit., Pag. 227 Reed, Simon, op. cit., Pag. 221 Reed, Simon, op. cit., Pag. 261 Bibliografia • Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2 • (EN) Michael Reed; Barry Simon, Methods of Modern Mathematical Physics, Vol. 1: Functional Analysis, 2a ed., San Diego, California, Academic press inc., 1980. ISBN 0125850506 Voci correlate • Autovettore e autovalore • Decomposizione di Jordan • • • • • • Operatore autoaggiunto Operatore lineare limitato Prodotto scalare Spazio di Hilbert Teoria spettrale Trasformazione lineare 92 Fonti e autori delle voci Fonti e autori delle voci Premessa Fonte:: http://it.wikipedia.org/w/index.php?oldid=41050131 Autori:: M7, Marcok, Oile11, 1 Modifiche anonime Algebra lineare Fonte:: http://it.wikipedia.org/w/index.php?oldid=46382625 Autori:: Aepasto, Amarvudol, Ary29, Banus, Dom De Felice, Fire90, Hellis, Jollyroger, Laurentius, Neta, No2, Phantomas, Piddu, Pracchia-78, Sandrobt, Thedoctor90, Vanalon, Ylebru, 28 Modifiche anonime Spazio vettoriale Fonte:: http://it.wikipedia.org/w/index.php?oldid=44849064 Autori:: Achillu, Alberto da Calvairate, AnyFile, Aushulz, Balabiot, Damnit, Dr Zimbu, Dzag, Gac, Gianluigi, Giulianap, Hashar, Luk.wk, Marcuscalabresus, Maupag, Ndakota73, Nihil, Palica, Phantomas, Piddu, Pracchia-78, Romanm, Rrronny, Salvatore Ingala, Sandrobt, Skyhc, Suisui, Wiso, Ylebru, ^musaz, 61 Modifiche anonime Trasformazione lineare Fonte:: http://it.wikipedia.org/w/index.php?oldid=46431431 Autori:: .jhc., Alberto da Calvairate, Beewan1972, Cls-classic, Colom, Den.90, Eumolpo, Giulianap, Marco Matassa, Mawerick, Phantomas, Piddu, Pokipsy76, Pracchia-78, Sandrobt, Simone, Skyhc, TheRedOne, Tridim, Unit, Valerio.scorsipa, Wiso, Ylebru, ^musaz, 30 Modifiche anonime Base (algebra lineare) Fonte:: http://it.wikipedia.org/w/index.php?oldid=46441089 Autori:: Andreas Carter, Dissonance, Eumolpo, Gac, Giomini, Habemusluigi, Lacurus, Marcok, MrCrow, Nemo bis, Nickanc, Piddu, Sartore, Sbisolo, Simone, Skyhc, Square87, Vonvikken, Ylebru, ^musaz, 23 Modifiche anonime Teorema del rango Fonte:: http://it.wikipedia.org/w/index.php?oldid=46409801 Autori:: Banus, Helios, IESteve, Kamina, Pracchia-78, Salvatore Ingala, Ylebru, ^musaz, 4 Modifiche anonime Formula di Grassmann Fonte:: http://it.wikipedia.org/w/index.php?oldid=46494111 Autori:: .jhc., Alberto da Calvairate, Alfio, Faucct, Gabriele Nunzio Tornetta, Giulio84, Kamina, Piddu, Popop, Roberto Mura, Salvatore Ingala, Senpai, Ylebru, ^musaz, 37 Modifiche anonime Teorema di Rouché-Capelli Fonte:: http://it.wikipedia.org/w/index.php?oldid=46302170 Autori:: Amanconi, Bink, Claude, Continillo, FrancescoT, Freddyballo, Ginosal, Goemon, Joségiuseppe, Kiado, Leitfaden, Pere prlpz, Pokipsy76, Salvatore Ingala, Senpai, Ulisse0, Ylebru, Zénon Kitieùs, ^musaz, 19 Modifiche anonime Rango (algebra lineare) Fonte:: http://it.wikipedia.org/w/index.php?oldid=46653927 Autori:: Alberto da Calvairate, Banus, Chionatan, Freddyballo, Google, Guidomac, Piddu, Red Power, Stefanobra, Tizio X, Tridim, Turgon, Ylebru, ^musaz, 17 , אלי פModifiche anonime Determinante Fonte:: http://it.wikipedia.org/w/index.php?oldid=46697655 Autori:: Alberto da Calvairate, AnyFile, Blakwolf, Cruccone, DaniDF1995, Davice, Dom De Felice, Domenico De Felice, Dr Zimbu, Fede Reghe, Frieda, Giulio.orru, Grifone87, Laurentius, Marco Ciaramella, Piddu, Pokipsy76, Riccardocc2, Salvatore Ingala, Simone Scanzoni, SquallLeonhart ITA, Square87, Taueres, Ulisse0, Wikinomane, Ylebru, Zio Illy, ^musaz, 46 Modifiche anonime Diagonalizzabilità Fonte:: http://it.wikipedia.org/w/index.php?oldid=43883996 Autori:: CristianCantoro, Eumolpo, Ft1, Goemon, Luisa, Mark91, MartinoK, Pracchia-78, Ylebru, ^musaz, 22 Modifiche anonime Autovettore e autovalore Fonte:: http://it.wikipedia.org/w/index.php?oldid=46570853 Autori:: AMenteLibera, Alberto da Calvairate, Alfio, Aushulz, Berto, Domenico De Felice, Engineer123, F l a n k e r, Formica rufa, Franz Liszt, Gecob, Ggonnell, Huatulco, Jean85, Luisa, M&M987, Magma, Marco82laspezia, Midnight bird, Onnisciente, Piddu, Piero, Pokipsy76, Pracchia-78, RanZag, Restu20, Rob-ot, Robmontagna, Sandrobt, Sartore, Shony, SimoneMLK, Sir marek, SkZ, Stefano80, Tommaso Ferrara, Tridim, Ulisse0, Valepert, Vipera, Xander89, Ylak, Ylebru, ^musaz, 36 Modifiche anonime Polinomio caratteristico Fonte:: http://it.wikipedia.org/w/index.php?oldid=46621269 Autori:: Alberto da Calvairate, Claude, Eumolpo, Fred Falcon, Kronolf, Luisa, Lupin85, Poeta60, Pokipsy76, Ylebru, ^musaz, 23 Modifiche anonime Polinomio minimo Fonte:: http://it.wikipedia.org/w/index.php?oldid=44973233 Autori:: Franci237, Kronolf, Piddu, Wiso, Ylebru, 2 Modifiche anonime Forma canonica di Jordan Fonte:: http://it.wikipedia.org/w/index.php?oldid=43530181 Autori:: .:Andrea:., Bauletto, Geppo985, MaiDireChiara, Piddu, Tino 032, Toobaz, Ylebru, Zio Illy, ^musaz, 12 Modifiche anonime Prodotto scalare Fonte:: http://it.wikipedia.org/w/index.php?oldid=46690340 Autori:: Alberto da Calvairate, Ceskino, Eumolpo, F l a n k e r, Gala.martin, Gatto Bianco 1, Giacomo.lucchese, Goemon, MaEr, Moroboshi, Nihil, No2, Phantomas, Piddu, Pietrodn, Pracchia-78, Sandrobt, Sir marek, SkZ, Superedit, Ticket 2010081310004741, Triph, Ulisse0, Unriccio, Valerio.scorsipa, Voldemort87, Wiso, Ylebru, ^musaz, 47 Modifiche anonime Forma bilineare Fonte:: http://it.wikipedia.org/w/index.php?oldid=43301956 Autori:: Bordaigorl, Piddu, Pracchia-78, Sandrobt, Tridim, Ylebru, ^musaz, 10 Modifiche anonime Spazio euclideo Fonte:: http://it.wikipedia.org/w/index.php?oldid=45859342 Autori:: Airon90, Alberto da Calvairate, B3t, Banus, Boscarol, Damnit, Guidomac, Hellis, Piddu, Pokipsy76, Poldo328, Pracchia-78, Tridim, Ylebru, ^musaz, 11 Modifiche anonime Base ortonormale Fonte:: http://it.wikipedia.org/w/index.php?oldid=43509243 Autori:: AKappa, Alberto da Calvairate, Alez, Ceskino, Goemon, Hellis, M7, Nihil, Piddu, Pracchia-78, TDLemon, The Ouroboros, Tomi, Unriccio, Xufanc, Ylebru, ^musaz, 14 Modifiche anonime Ortogonalizzazione di Gram-Schmidt Fonte:: http://it.wikipedia.org/w/index.php?oldid=45967134 Autori:: Agnul, Alberto da Calvairate, Alec, AttoRenato, Banus, Ceskino, Colom, Cruccone, Giacomo.lucchese, Hellis, Laurusnobilis, Mess, Piddu, Simone, Snowdog, Ylebru, ^musaz, 8 Modifiche anonime Forma sesquilineare Fonte:: http://it.wikipedia.org/w/index.php?oldid=43615548 Autori:: Alberto da Calvairate, Piddu, Pracchia-78, Toobaz, Wiso, Ylebru, ^musaz, 10 Modifiche anonime Teorema spettrale Fonte:: http://it.wikipedia.org/w/index.php?oldid=46451251 Autori:: Almadannata, Banus, Chionatan, Eumolpo, Fontafox, Kamina, Leitfaden, Leonardis, Lucha, Nase, Nicolaennio, Piddu, Pracchia-78, Qualc1, Salvatore Ingala, Walter89, Wiso, Ylebru, Zuccaccia, Zviad, ^musaz, 12 Modifiche anonime 93 Fonti, licenze e autori delle immagini Fonti, licenze e autori delle immagini File:Vector space illust.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Vector_space_illust.svg Licenza: Public Domain Autori:: Oleg Alexandrov File:Linear subspaces with shading.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Linear_subspaces_with_shading.svg Licenza: Creative Commons Attribution-Sharealike 3.0 Autori:: en:User:Alksentrs Original uploader was Alksentrs at en.wikipedia File:Rotation illustration.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Rotation_illustration.png Licenza: Public Domain Autori:: HB, Juiced lemon, Maksim, Oleg Alexandrov, Tano4595, W!B: File:Intersecting Lines.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Intersecting_Lines.svg Licenza: Public Domain Autori:: Jim.belk File:Matrix.gif Fonte:: http://it.wikipedia.org/w/index.php?title=File:Matrix.gif Licenza: Creative Commons Attribution-ShareAlike 3.0 Unported Autori:: Steven Fox File:Eigenvector.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Eigenvector.png Licenza: Public Domain Autori:: Sandycx File:Ellipsoide.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Ellipsoide.png Licenza: Public Domain Autori:: Anarkman, Cwbm (commons), Darapti, Denniss, EugeneZelenko, Helder.wiki File:Epsilontensor.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Epsilontensor.svg Licenza: Creative Commons Attribution 2.5 Autori:: Arian Kriesch, corrections made by Xmaster1123 and Luxo File:Scalar multiplication of vectors.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Scalar_multiplication_of_vectors.svg Licenza: Public Domain Autori:: User:Bdesham File:Vector addition3.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Vector_addition3.svg Licenza: Creative Commons Attribution-Sharealike 3.0 Autori:: Jakob.scholbach File:Rotation illustration2.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Rotation_illustration2.svg Licenza: Public Domain Autori:: Oleg Alexandrov File:VerticalShear m=1.25.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:VerticalShear_m=1.25.svg Licenza: Public Domain Autori:: RobHar File:Squeeze r=2.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Squeeze_r=2.svg Licenza: Public Domain Autori:: RobHar File:Basis graph (no label).svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Basis_graph_(no_label).svg Licenza: Creative Commons Attribution-ShareAlike 3.0 Unported Autori:: Original uploader was Spindled at en.wikipedia. Later version(s) were uploaded by Cic at en.wikipedia. File:Scalarproduct.gif Fonte:: http://it.wikipedia.org/w/index.php?title=File:Scalarproduct.gif Licenza: GNU Free Documentation License Autori:: Darapti, Flappiefh, Rocha, Werckmeister, Ysangkok File:Parallel Lines.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Parallel_Lines.svg Licenza: Public Domain Autori:: Jim.belk File:Secretsharing-3-point.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Secretsharing-3-point.png Licenza: GNU Free Documentation License Autori:: stib File:HAtomOrbitals.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:HAtomOrbitals.png Licenza: GNU Free Documentation License Autori:: Admrboltz, Benjah-bmm27, Dbc334, Dbenbenn, Ejdzej, Falcorian, Kborland, MichaelDiederich, Mion, Saperaud, 6 Modifiche anonime File:Determinant Example.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Determinant_Example.png Licenza: Creative Commons Attribution-Sharealike 3.0,2.5,2.0,1.0 Autori:: Jakob.scholbach File:Eigen.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Eigen.jpg Licenza: Public Domain Autori:: User:Vb Immagine:Commons-logo.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Commons-logo.svg Licenza: logo Autori:: SVG version was created by User:Grunt and cleaned up by 3247, based on the earlier PNG version, created by Reidab. File:Determinant parallelepiped.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Determinant_parallelepiped.svg Licenza: Creative Commons Attribution 3.0 Autori:: Claudio Rocchini File:Determinant.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Determinant.jpg Licenza: Public Domain Autori:: Darapti, Kilom691, Ylebru File:Determinant 3x3 Example.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Determinant_3x3_Example.svg Licenza: Public Domain Autori:: derivative work: Fiachra (talk) Determinant_3x3_Example_Barking_Mad_1.jpg: user:Barking Mad142 File:Transvection-1.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Transvection-1.jpg Licenza: GNU Free Documentation License Autori:: GeorgHH, Ylebru, 1 Modifiche anonime File:Transvection-2.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Transvection-2.jpg Licenza: GNU Free Documentation License Autori:: GeorgHH, Ylebru, 1 Modifiche anonime File:Déterminant-3D.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Déterminant-3D.jpg Licenza: GNU Free Documentation License Autori:: Darapti, GeorgHH, Kilom691, Pieter Kuiper, Ylebru File:Rotating Sphere.gif Fonte:: http://it.wikipedia.org/w/index.php?title=File:Rotating_Sphere.gif Licenza: Creative Commons Attribution-ShareAlike 3.0 Unported Autori:: Maksim, Oleg Alexandrov, W!B:, WikipediaMaster, 4 Modifiche anonime File:Standing wave.gif Fonte:: http://it.wikipedia.org/w/index.php?title=File:Standing_wave.gif Licenza: Public Domain Autori:: BrokenSegue, Cdang, Joolz, Kersti Nebelsiek, Kieff, Mike.lifeguard, Pieter Kuiper, Ptj File:Eigenfaces.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Eigenfaces.png Licenza: Attribution Autori:: Laurascudder, Liftarn, Man vyi, Ylebru Immagine:Wiktionary-ico-de.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Wiktionary-ico-de.png Licenza: logo Autori:: Bobit, F l a n k e r, Melancholie, Mxn, Nodulation, Rocket000, Saibo Immagine:Scalarproduct.gif Fonte:: http://it.wikipedia.org/w/index.php?title=File:Scalarproduct.gif Licenza: GNU Free Documentation License Autori:: Darapti, Flappiefh, Rocha, Werckmeister, Ysangkok Immagine:ProdScal1.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:ProdScal1.png Licenza: Creative Commons Attribution-ShareAlike 3.0 Unported Autori:: Darapti, HB Immagine:ProdScal2.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:ProdScal2.png Licenza: Creative Commons Attribution-ShareAlike 3.0 Unported Autori:: Darapti, HB Immagine:TravailForce2.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:TravailForce2.png Licenza: Creative Commons Attribution-ShareAlike 3.0 Unported Autori:: HB Immagine:Wikibooks-logo.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Wikibooks-logo.svg Licenza: logo Autori:: User:Bastique, User:Ramac et al. File:Gram–Schmidt process.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Gram–Schmidt_process.svg Licenza: Public Domain Autori:: Gustavb 94 Licenza Licenza Creative Commons Attribution-Share Alike 3.0 Unported //creativecommons.org/licenses/by-sa/3.0/ 95