Indice Voci Spazio vettoriale 1 Sottospazio vettoriale 7 Sottospazio generato 9 Teorema del rango 11 Nucleo (matematica) 13 Immagine (matematica) 16 Trasformazione lineare 18 Matrice di trasformazione 21 Spazio di Hilbert 24 Teorema spettrale 29 Autovettore e autovalore 33 Operatore autoaggiunto 40 Polinomio caratteristico 41 Diagonalizzabilità 43 Isomorfismo 47 Omomorfismo 49 Riferimenti Fonti e autori del articolo 50 Fonti, licenze e autori delle immagini 51 Licenze della voce Licenza 52 Spazio vettoriale 1 Spazio vettoriale In matematica, lo spazio vettoriale (chiamato più raramente spazio lineare) è una struttura algebrica di grande importanza. Si tratta di una generalizzazione dell'insieme formato dai vettori del piano cartesiano ordinario e dell'insieme dei vettori dello spazio tridimensionale dotati delle operazioni di somma di vettori e di moltiplicazione di un vettore per un numero reale (cioè dell'ambiente nel quale si studiano i fenomeni della fisica classica, quella sviluppata da personalità quali Galileo, Newton, Lagrange, Laplace, Hamilton, Maxwell). Si incontrano spazi vettoriali in numerosi capitoli della matematica moderna e nelle sue applicazioni: questi servono innanzi tutto per studiare le soluzioni dei sistemi di equazioni lineari e delle equazioni differenziali lineari. Con queste equazioni si trattano moltissime situazioni: quindi si incontrano spazi vettoriali nella statistica, nella scienza delle costruzioni, nella meccanica quantistica, nella biologia molecolare, ecc. Negli spazi vettoriali si studiano anche sistemi di equazioni e disequazioni e in particolare quelli che servono alla programmazione matematica e in genere alla ricerca operativa. Strutture algebriche preliminari agli spazi vettoriali sono quelle di gruppo, anello e campo. Vi sono poi numerose strutture matematiche che generalizzano e arricchiscono quella di spazio vettoriale; alcune sono ricordate nell'ultima parte di questo articolo. Definizione formale La definizione di uno spazio vettoriale richiede di servirsi di un campo: sono interessanti soprattutto il campo dei numeri reali R e quello dei complessi C; molti risultati dell'algebra lineare però si possono sviluppare servendosi del semplice campo dei numeri razionali Q e di notevole interesse sono anche i campi finiti e in particolare i campi delle classi di resto modulo p Fp, per ogni p numero primo. In questa voce denotiamo con K un generico campo e indichiamo rispettivamente con 0 e 1 il suo zero e la sua unità. Si dice che l'insieme V è sostegno di uno spazio vettoriale sul campo K se in V è definita un'operazione binaria interna (+) per la quale (V,+) è un gruppo commutativo (ossia un gruppo abeliano) ed è altresì definita una legge di composizione esterna (*) K×V→V - detta prodotto esterno o moltiplicazione per uno scalare - per la quale valgono le seguenti proprietà: Uno spazio vettoriale è una collezione di oggetti, chiamati "vettori", che possono essere sommati e riscalati. 1. ∀ a,b ∈ K, ∀ v ∈ V : a * (b * v) = (a * b) * v Associatività del prodotto esterno. 2. ∀ v ∈ V, 1 * v = v Neutralità di 1 rispetto al prodotto esterno. 3. ∀ a ∈ K, ∀ u,v ∈ V, a * (u + v) = a * u + a * v Distributività del prodotto esterno rispetto all'addizione di vettori. 4. ∀ a,b ∈ K, ∀ v ∈ V, (a + b) * v = a * v + b * v Distributività del prodotto esterno rispetto all'addizione di scalari. La struttura algebrica così definità si simboleggia con (V,K) o semplicemente con V laddove non ci siano equivoci sul campo di definizione. Per uno spazio V sopra un campo K gli elementi di K sono detti scalari o numeri, mentre gli oggetti di V si dicono vettori o punti. I vettori si simboleggiano con caratteri in grassetto, sottolineati o sormontati da una freccia. Tale linguaggio consente di sostituire la dicitura prodotto esterno con prodotto per uno scalare. Spazio vettoriale Poiché la moltiplicazione per uno scalare è una legge di composizione esterna K×V→V si dice che V ha struttura di spazio vettoriale sinistro. Nulla vieta di definire la composizione con uno scalare a destra; in tal caso si parlerà di spazio vettoriale destro. Da queste proprietà, possono essere immediatamente dimostrate le seguenti formule, valide per ogni a in K e ogni v in V: a*0=0*v=0 -(a * v) = (-a) * v = a * (-v) dove 0 è lo zero in K e 0 è lo zero in V. Uno spazio vettoriale reale o complesso è uno spazio vettoriale in cui K è rispettivamente il campo R dei numeri reali o il campo C dei numeri complessi. Primi esempi In questo paragrafo dove si elencano alcuni importanti esempi di spazi vettoriali denotiamo con m ed n due interi positivi. Spazi K n L'insieme formato da tutte le sequenze finite e ordinate di elementi di K, con le operazioni di somma e di prodotto per uno scalare definite termine a termine (puntuali), è detto l' n-spazio numerico, spazio delle n-uple o spazio n-dimensionale delle coordinate e può essere considerato il prototipo di spazio vettoriale. Si osserva che gli spazi Rn e Cn posseggono una infinità continua di elementi, mentre Qn ha cardinalità numerabile e per ogni p primo lo spazio Fpn è costituito da un numero finito di vettori, per la precisione pn. Polinomi L'insieme K [x] dei polinomi a coefficienti in K e con variabile x, con le operazioni usuali di somma fra polinomi e prodotto di un polinomio per uno scalare, forma uno spazio vettoriale. Matrici L'insieme delle matrici m×n su K, con le operazioni di somma tra matrici e prodotto di uno scalare per una matrice, forma uno spazio vettoriale. Funzioni L'insieme Fun(X, K) di tutte le funzioni da un fissato insieme X in K, dove: • la somma di due funzioni f e g è definita come la funzione (f + g) che manda x in f(x)+g(x), • il prodotto (λf) di una funzione f per uno scalare λ in K è la funzione che manda x in λf(x) è uno spazio vettoriale. Ad esempio, l'insieme Fun(X, R) di tutte le funzioni da un aperto X dello spazio euclideo Rn in R è uno spazio vettoriale. 2 Spazio vettoriale 3 Nozioni basilari Lo studio della specie di struttura di spazio vettoriale si svolge sviluppando le nozioni di → sottospazio vettoriale, di → trasformazione lineare (l'→ omomorfismo per questa specie di struttura), di base e di dimensione. Sottospazi Un → sottospazio vettoriale di uno spazio vettoriale è un sottoinsieme che eredita da una struttura di spazio vettoriale. Per ereditare questa struttura, è sufficiente che sia chiuso rispetto alle due operazioni di somma e prodotto per scalare. In particolare, deve contenere lo zero di . Esempi Una retta passante per l'origine è un sottospazio vettoriale del piano cartesiano R2; nello spazio vettoriale R3 tutti i piani e tutte le rette passanti per l'origine sono sottospazi. Gli spazi formati dalle matrici simmetriche o antisimmetriche sono sottospazi vettoriali dell'insieme delle matrici m×n su K. Tre sottospazi distinti di dimensione 2 in : sono piani passanti per l'origine. Due di questi si intersecano in un sottospazio di dimensione 1, cioè una retta passante per l'origine (una di queste è disegnata in blu). Altri importanti sottospazi vettoriali sono quelli di Fun(X, R), quando X è un insieme aperto di Rn: gli insiemi formati dalle funzioni continue, dalle funzioni differenziabili e dalle funzioni misurabili. Generatori e basi Una combinazione lineare di alcuni vettori è una scrittura del tipo Una combinazione lineare è l'operazione più generale che si può realizzare con questi vettori usando le due operazioni di somma e prodotto per scalare. Usando le combinazioni lineari è possibile descrivere un sottospazio (che è generalmente fatto da un insieme infinito di punti[1] ) con un numero finito di dati. Si definisce infatti il sottospazio generato da questi vettori come l'insieme di tutte le loro combinazioni lineari. Un sottospazio può essere generato a partire da diversi insiemi di vettori. Tra i possibili insiemi di generatori alcuni risultano più economici di altri: sono gli insiemi di vettori con la proprietà di essere linearmente indipendenti. Un tale insieme di vettori è detto base del sottospazio. Si dimostra che ogni spazio vettoriale possiede una base; alcuni spazi hanno basi costituite da un numero finito di vettori, altri hanno basi costituenti insiemi infiniti. Per questi ultimi la dimostrazione dell'esistenza di una base deve ricorrere al Lemma di Zorn. Alla nozione di base di uno spazio vettoriale si collega quella di sistema di riferimento di uno spazio affine. Spazio vettoriale Dimensione Si dimostra che tutte le basi di uno spazio vettoriale posseggono la stessa cardinalità (questo risultato è dovuto a Felix Hausdorff). Questa cardinalità viene chiamata dimensione di Hamel dello spazio; questa entità in genere viene chiamata semplicemente dimensione dello spazio. La distinzione più rilevante fra gli spazi vettoriali vede da una parte gli spazi finito-dimensionali e dall'altra quelli di dimensione infinita. Per ogni intero naturale n lo spazio Kn ha dimensione n: in effetti una sua base è costituita dalle n n-uple aventi tutte le componenti nulle ad eccezione di una uguale alla unità del campo. In particolare l'insieme costituito dal solo 0 del campo può considerarsi uno spazio a 0 dimensioni, la retta dotata di un'origine è uno spazio monodimensionale su R, il piano cartesiano è uno spazio di dimensione 2, lo spazio R3 ha dimensione 3. Anche i polinomi con grado al più n formano un → sottospazio vettoriale di dimensione n+1, mentre la dimensione dell'insieme delle funzioni Fun(X, K) è pari alla cardinalità di X. Tra gli spazi infinito dimensionali si trovano quelli formati dall'insieme dei polinomi in una variabile o in più variabili e quelli formati da varie collezioni di funzioni ad esempio gli spazi Lp. I vettori di uno spazio di n dimensioni, facendo riferimento ad una base fissata di tale spazio, possono essere rappresentati come n-uple di scalari: queste sono le loro coordinate. Questo fatto consente di affermare che ogni spazio n-dimensionale su K è sostanzialmente identificabile con Kn. Trasformazioni lineari e omomorfismi Una → trasformazione lineare fra due spazi vettoriali V e W sullo stesso campo K è una applicazione che manda vettori di V in vettori di W rispettando le combinazioni lineari. Dato che le trasformazioni lineari rispettano le operazioni di somma di vettori e di moltiplicazioni per scalari, esse costituiscono gli → omomorfismi per le strutture della specie degli spazi vettoriali. Per denotare l'insieme degli omomorfismi da V in W scriviamo Hom(V, W). Particolarmente importanti sono gli insiemi di endomorfismi; questi hanno la forma Hom(V, V). Si osserva che per le applicazioni lineari di Hom(V, W) si possono definire le somme e le moltiplicazioni per elementi di K, come per tutte le funzioni aventi valori in uno spazio su questo campo. L'insieme Hom(V, W) munito di queste operazioni costituisce a sua volta uno spazio vettoriale su K, di dimensione dim(V)×dim(W). Un caso particolare molto importante è dato dallo spazio duale V * := Hom(V, K); questo spazio ha le stesse dimensioni di V e in effetti i suoi vettori sono strettamente collegati ai vettori di V. Spazio vettoriale libero Un esempio particolare spesso usato in algebra (e una costruzione piuttosto comune in questo campo) è quello di spazio vettoriale libero su un insieme. L'obiettivo è creare uno spazio che abbia gli elementi dell'insieme come base. Ricordando che, dato un generico spazio vettoriale, si dice che un suo sottoinsieme U è una base se ogni vettore si può scrivere come combinazione lineare finita di elementi di U, la seguente definizione nasce naturalmente: uno spazio vettoriale libero V su B e campo K è l'insieme di tutte le combinazioni lineari formali di un numero finito di elementi di B a coefficienti in K, cioè i vettori di V sono del tipo dove i coefficienti non nulli sono in numero finito, e somma e prodotto sono definite come segue 4 Spazio vettoriale Da tener ben presente che queste somme sono dette formali perché sono da considerarsi appunto dei puri simboli. In pratica gli elementi di B servono solo come "segnaposto" per i coefficienti. Oltre a questa definizione più intuitiva ne esiste una del tutto equivalente in termine di funzioni da B su K con supporto finito (supp f := { b ∈ B | f(b) ≠ 0 }), cioè V ≅ { f: B → K | supp f è finito } dove per il secondo insieme le operazioni di somma e prodotto sono quelle naturali e la corrispondenza è Arricchimenti della struttura di spazio vettoriale La nozione di spazio vettoriale è servita innanzi tutto a puntualizzare proprietà algebriche riguardanti ambienti ed entità geometriche; inoltre essa costituisce la base algebrica per lo studio di questioni di analisi funzionale, che possiamo associare ad una geometrizzazione dello studio di funzioni collegate ad equazioni lineari. La sola struttura di spazio vettoriale risulta comunque povera quando si vogliono affrontare in modo più efficace problemi geometrici e dell'analisi funzionale. Infatti va osservato che con la sola struttura di spazio vettoriale non si possono affrontare questioni riguardanti lunghezze di segmenti, distanze ed angoli (anche se la visione intuitiva degli spazi vettoriali a 2 o 3 dimensioni sembra implicare necessariamente queste nozioni di geometria elementare). Per sviluppare le "potenzialità" della struttura spazio vettoriale risulta necessario arricchirla in molteplici direzioni, sia con ulteriori strumenti algebrici (ad es. proponendo prodotti di vettori), sia con nozioni topologiche, sia con nozioni differenziali. In effetti si può prospettare una sistematica attività di arricchimento degli spazi vettoriali con costruzioni che si aggiungono a quella di combinazione lineare al fine di ottenere strutture di elevata efficacia nei confronti di tanti problemi matematici, computazionali e applicativi. Per essere utili, queste costruzioni devono essere in qualche modo compatibili con la struttura dello spazio vettoriale, e le condizioni di compatibilità variano caso per caso. Spazio normato Uno spazio vettoriale in cui è definita una norma, cioè una lunghezza dei suoi vettori, è chiamato spazio normato. L'importanza degli spazi vettoriali normati dipende dal fatto che a partire dalla norma dei singoli vettori si definisce la distanza fra due vettori come norma della loro differenza e questa nozione consente di definire costruzioni metriche e quindi costruzioni topologiche. Spazio di Banach Uno spazio normato completo rispetto alla metrica indotta è detto spazio di Banach. Spazio di Hilbert Uno spazio vettoriale complesso (risp. reale) in cui è definito un prodotto scalare hermitiano (risp. bilineare) definito positivo, e quindi anche i concetti di angolo e perpendicolarità di vettori, è chiamato spazio prehilbertiano. Uno spazio dotato di prodotto scalare è anche normato, mentre in generale non vale il viceversa. Uno spazio dotato di prodotto scalare che sia completo rispetto alla metrica indotta è detto → spazio di Hilbert. Spazio vettoriale topologico Uno spazio vettoriale munito anche di una topologia è chiamato spazio vettoriale topologico. 5 Spazio vettoriale Algebra su campo Uno spazio vettoriale arricchito con un operatore bilineare che definisce una moltiplicazione tra vettori costituisce una cosiddetta algebra su campo. Ad esempio, le matrici quadrate di ordine n munite del prodotto di matrici formano un'algebra. Un'altra algebra su un campo qualsiasi è fornita dai polinomi su tale campo muniti dell'usuale prodotto fra polinomi. Moduli Una generalizzazione del concetto di spazio vettoriale è invece quella di modulo; essa si basa su richieste analoghe a quelle viste, ma per K non si chiede che sia un campo, ma un più generico anello. Bibliografia • Marco Abate; Chiara de Fabritiis, Geometria analitica con elementi di algebra lineare, Milano, McGraw-Hill, 2006. ISBN 8838662894. • Luciano Lomonaco, Un'introduzione all'algebra lineare, Roma, Aracne, 2005. ISBN 8854801445. • Giulio Campanella, Appunti di algebra, Roma, Nuova Cultura, 2005. ISBN 8889362227. • Werner Greub, Linear Algebra, 4a ed. New York, Springer, 1995. ISBN 0387901108. • • • • Steven Roman, Advanced linear algebra, Springer, 1992. ISBN 0387978372. Edoardo Sernesi, Geometria 1, 2a ed. Torino, Bollati Boringhieri, 1989. ISBN 8833954471. Serge Lang, Linear Algebra, 3a ed. New York, Springer, 1987. ISBN 0387964126. Georgi Evgen'evich Shilov, Linear Algebra, Tradotto da Richard Silverman, New York, Dover, 1977. ISBN 048663518X. • Paul Halmos, Finite-Dimensional Vector Spaces, 2a ed. New York, Springer, 1974. ISBN 0387900934. • Kenneth Hoffman; Ray Kuze, Linear Algebra, 2a ed. Upper Saddle RIver, N.J., Prentice Hall, 1971. ISBN 0135367972. Voci correlate • • • • • • • Vettore (matematica) Applicazione lineare Dimensione → Sottospazio vettoriale Spazio duale Prodotto scalare Norma Riferimenti [1] Questo è sempre vero se il campo è infinito, come ad esempio Q, R e C, tranne nel caso in cui il sottospazio sia semplicemente un punto (lo zero). 6 Sottospazio vettoriale 7 Sottospazio vettoriale In matematica, un sottospazio vettoriale è un sottoinsieme di uno → spazio vettoriale, avente proprietà tali da farne a sua volta un altro spazio vettoriale. Esempi di sottospazi vettoriali sono le rette ed i piani nello spazio euclideo tridimensionale passanti per l'origine. Definizione Sia K un campo (ad esempio il campo dei numeri reali R). Sia V uno → spazio vettoriale su K e denotiamo con 0V il suo vettore nullo. Un sottoinsieme non vuoto W di V è un sottospazio vettoriale di V se valgono le seguenti proprietà: Tre sottospazi distinti di dimensione 2 in . Due di questi si intersecano in un sottospazio di dimensione 1 (uno di questi è disegnato in blu). 1. se u e v sono elementi di W, allora anche la loro somma u + v è un elemento di W; 2. se u è un elemento di W e λ è uno scalare in K, allora il prodotto λu è un elemento di W. Queste due condizioni sono equivalenti alla seguente: Se u e v sono elementi di W, λ e μ sono elementi di K, allora λu + μv è un elemento di W. Dalla definizione, segue che, per ogni → spazio vettoriale V, gli insiemi {0V} e V sono suoi sottospazi vettoriali, detti sottospazi impropri, o banali. Si ottiene facilmente dalla condizione 2) che il vettore nullo 0V appartiene ad ogni sottospazio vettoriale W di V e costituisce il vettore nullo di W. Queste proprietà garantiscono che le operazioni di somma e di prodotto per scalare di V siano ben definite anche quando sono ristrette a W. A questo punto, i 10 assiomi che garantiscono che V sia uno spazio vettoriale valgono anche per W, e quindi anche W è uno spazio vettoriale. Si trova facilmente anche che il sottospazio di un sottospazio di uno spazio V è sottospazio di X. Esempi Molti esempi di spazi vettoriali si costruiscono come sottospazi di spazi vettoriali standard, quali Kn, le matrici m x n, o i polinomi a coefficienti in K. • L'origine da sola forma il sottospazio più piccolo di qualsiasi spazio vettoriale. • Una retta o un piano passanti per l'origine sono sottospazi di R3. • Le soluzioni di un sistema lineare omogeneo a coefficienti in K ed in n variabili sono un sottospazio vettoriale di Kn. • Le matrici diagonali, le simmetriche e le antisimmetriche formano tre sottospazi dello spazio delle matrici quadrate n x n. • Il → nucleo e l'→ immagine di una applicazione lineare f: V → W sono sottospazi rispettivamente di V e di W. • I polinomi di gradi al più k sono un sottospazio dello spazio K[x] dei polinomi a coefficienti in K con variabile x. • Se X è un insieme ed x un punto di X, le funzioni da X in K che si annullano in x (cioè le f tali che f(x) = 0) costituiscono un sottospazio dello spazio Fun(X, K) di tutte le funzioni da X in K. Inoltre le funzioni da X in K Sottospazio vettoriale 8 che si annullano sia in x che in un secondo punto y di X costituiscono un sottospazio del precedente. • L'insieme delle funzioni continue Cont(R, R) da R in R fornisce un sottospazio di Fun(R, R), e l'insieme delle funzioni derivabili Der(R, R) costituisce un sottospazio di Cont(R, R). Operazioni sui sottospazi L'intersezione U ∩ W di due sottospazi U e W di V è ancora un sottospazio. Ad esempio, l'intersezione di due piani distinti in R3 passanti per l'origine è una retta, sempre passante per l'origine. L'unione U ∪ W invece generalmente non è un sottospazio. U ∪ W è un sottospazio se e solo se U ⊆ W oppure W ⊆ U. Una composizione di due sottospazi U e W che fornisce un nuovo sottospazio è la cosiddetta somma U + W, definita come l'insieme di tutti i vettori che sono somma u + w di un vettore u di U e di uno w di W. Ad esempio, la somma di due rette distinte (sempre passanti per l'origine) in R3 è il piano che le contiene. La formula di Grassmann mette in relazione le dimensioni dei quattro spazi U, W, U ∩ W e U + W. L'ortogonale di uno sottospazio vettoriale W di uno spazio V su cui sia definita una forma bilineare b è l'insieme dei vettori v tali che b(v,w)=0 per ogni w in V. Quoziente di uno spazio vettoriale Se W è un sottospazio vettoriale di V, si può costruire il gruppo quoziente V/W e munirlo a sua volta di una naturale struttura di spazio vettoriale. Con precisione, si definisce la relazione di equivalenza v ≈ w se e solo se v - w ∈ N. Una singola classe di equivalenza è spesso denotata come v + N. Somma e moltiplicazione per scalari sono definiti mediante: (v + N) + (w + N) = (v + w) + N λ (v + N) = (λv) + N Voci correlate • • • • • → Spazio vettoriale → Sottospazio generato Dimensione Formula di Grassmann Applicazione lineare Bibliografia • A. Cavicchioli e F. Spaggiari, Primo modulo di geometria, Pitagora Editrice Bologna, 2002, ISBN 8837113560 Sottospazio generato 9 Sottospazio generato In matematica, e più precisamente in algebra lineare, un sottospazio generato da alcuni vettori è un particolare → sottospazio vettoriale di uno → spazio vettoriale. Si tratta dell'insieme ottenuto prendendo tutte le combinazioni lineari di questi vettori, detti generatori. A volte si usa il termine span lineare. Definizione Sia uno → spazio vettoriale su un campo da questi vettori è il sottoinsieme di . Siano alcuni vettori di . Il sottospazio generato formato da tutte le combinazioni lineari di questi vettori. In altre parole: A volte si usa il termine inglese span lineare (da cui segue la notazione appena usata). La definizione data può essere estesa facilmente ad una famiglia qualsiasi di vettori indicizzata da una che varia in un insieme di cardinalità arbitraria (finita, numerabile, ...): una combinazione lineare è semplicemente una combinazione che si serve di un numero finito di questi, ed il sottospazio generato è sempre definito come l'insieme dei risultati di tali composizioni. Proprietà Sottospazio vettoriale Il sottospazio generato è effettivamente un → sottospazio vettoriale. Infatti ogni combinazione lineare di combinazioni lineari di dati vettori si può esprimere come una combinazione lineare degli stessi vettori. Insieme di generatori Dati un sottospazio di ed un insieme di vettori , si dice che questi vettori sono dei generatori di se Sottospazio più piccolo Il sottospazio generato è il sottospazio vettoriale più piccolo fra tutti quelli che contengono i vettori , nel senso che è contenuto in ciascun sottospazio contenente questi vettori. In altre parole, il sottospazio generato è l'intersezione di tutti i sottospazi contenenti . Lo stesso risultato vale per un insieme infinito di vettori. Sottospazio generato 10 Chiusura La trasformazione di un insieme di vettori di V nel sottospazio da loro generato, cioè la funzione Span, costituisce un esempio di funzione di chiusura. Come per tutte queste funzioni di insieme, vale la seguente proprietà di isotonia: se e sono insiemi di vettori di tali che , allora In particolare, se e è ottenuto da aggiungendo un vettore , il sottospazio generato può restare invariato o diventare più esteso. Come mostra la relazione seguente, il sottospazio resta invariato se e solo se il vettore è già contenuto in questo: Basi e dimensione Un insieme di vettori è una base del sottospazio che genera se e solo se questi sono linearmente indipendenti. Se i vettori non sono indipendenti, esiste un loro sottoinsieme formato da vettori indipendenti: un sottoinsieme di questo tipo può essere trovato tramite l'algoritmo di estrazione di una base. Da quanto appena detto segue quindi che la dimensione di un sottospazio generato da proprio se e solo se questi sono indipendenti. vettori è al più , ed è Esempi Nel piano In , i vettori e non sono indipendenti. Il loro span quindi ha dimensione minore di due, e infatti è una retta. Formalmente scriviamo . I vettori sono indipendenti, e perciò il loro span è uno spazio di dimensione 2 dentro solo sé stesso come sottospazio di dimensione , e perciò e invece : uno spazio di dimensione ha . Nello spazio In , i vettori , , sono dipendenti, perché l'ultimo è la differenza dei primi due. Abbiamo quindi questi due vettori sono indipendenti, sono una base del loro span che ha dimensione 2, ovvero è un piano. Voci correlate • Insieme di generatori • Combinazione lineare • Base (algebra lineare) , e poiché Teorema del rango 11 Teorema del rango In matematica, il teorema del rango (detto anche teorema di nullità più rango) dell'algebra lineare, nella sua forma più semplice, mette in relazione il rango e la → nullità di una matrice con il numero di colonne della matrice. Nello specifico, se è una matrice allora Nella sua forma più generale, il teorema vale nel contesto delle → trasformazioni lineari fra → spazi vettoriali. Data una applicazione lineare fra spazi vettoriali, vale la relazione dove e sono rispettivamente l'→ immagine e il → nucleo di e è la dimensione di . Il teorema del rango è a volte chiamato teorema della dimensione ed è un risultato fondamentale in algebra lineare. Enunciato Sia un'applicazione lineare fra due spazi vettoriali, entrambi definiti su un campo dimensione finita Qui . Allora anche l'immagine è il → nucleo di . Si suppone che abbia ha dimensione finita e vale la relazione seguente: . Dimostrazione Poiché ha dimensione finita, il → sottospazio vettoriale ha anch'esso dimensione finita. Il nucleo ha quindi una base Per il teorema della base incompleta esistono sia una base di . Per concludere è sufficiente mostrare che i vettori formano una base di I primi tali che . L'immagine è generata dai vettori vettori sono però nulli, quindi l'immagine è generata dagli ultimi vettori Resta quindi da verificare che questi vettori siano linearmente indipendenti. Si suppone quindi data una combinazione lineare nulla Per linearità si ottiene . Quindi Teorema del rango 12 Poiché questo vettore sta nel nucleo, è esprimibile come combinazione lineare dei vettori : In altre parole: Poiché è una base di , tutti i coefficienti qui presenti sono nulli. In particolare, . Quindi i vettori per ogni sono effettivamente indipendenti. L'immagine ha quindi dimensione . Pertanto Riformulazioni e generalizzazioni In linguaggio più moderno, il teorema può essere espresso nel seguente modo: se 0→U→V→R→0 è una successione esatta corta di spazi vettoriali, allora dim(U) + dim(R) = dim(V) Qui R gioca il ruolo di im T e U è ker T. Nel caso finito-dimensionale questa formulazione è suscettibile di generalizzazione: se 0 → V1 → V2 → ... → Vr → 0 è una successione esatta di spazi vettoriali a dimensioni finite, allora Il teorema del rango per gli spazi vettoriali a dimensioni finite può anche essere formulato in termini degli indici di una mappa lineare. L'indice di una mappa lineare T : V → W, dove V e W sono a dimensioni finite, è definito da indice T = dim(ker T) - dim(coker T). Intuitivamente, dim(ker T) è il numero di soluzioni indipendenti x dell'equazione Tx = 0, e dim(coker T) è il numero di restrizioni indipendenti che devono essere poste su y per rendere Tx = y risolvibile. Il teorema del rango per gli spazi vettoriali a dimensioni finite è equivalente all'espressione index T = dim(V) - dim(W). Si vede che possiamo facilmente leggere l'indice della mappa lineare T dagli spazi coinvolti, senza la necessità di esaminare T in dettaglio. Questo effetto si trova anche in un risultato molto più profondo: il teorema dell'indice di Atiyah-Singer afferma che l'indice di determinati operatori differenziali può essere letto dalla geometria degli spazi coinvolti. Bibliografia • Philippe Ellia, Appunti di Geometria I, Bologna, Pitagora Editrice, 1997, ISBN 88-3710958-X Nucleo (matematica) 13 Nucleo (matematica) In algebra lineare, il nucleo di una applicazione tra gruppi o → spazi vettoriali è l'insieme degli elementi tali che Il nucleo è quindi l'insieme degli elementi che vengono mandati in zero da dominio di . Viene spesso indicato come . Si tratta quindi di un sottoinsieme del , dall'inglese Kernel. Il nucleo eredita le stesse proprietà algebriche dello spazio in cui vive, ed è strettamente collegato all'→ immagine di f: generalmente nucleo e immagine si comportano in maniera complementare, una funzione con nucleo "grande" ha immagine "piccola" e viceversa. Poiché una matrice definisce una applicazione lineare tramite prodotto riga per colonna, si parla di nucleo (o spazio nullo) di una matrice come dell'insieme dei vettori tali che Definizione Omomorfismi Il nucleo di un → omomorfismo di gruppi è il sottoinsieme di X costituito dai punti che vengono portati dalla funzione nell'elemento neutro di Y. Ovvero Il nucleo è indicato generalmente con il simbolo "Ker", abbreviazione del termine inglese Kernel. In altre parole, il nucleo è l'insieme dei punti che vengono annullati dalla funzione. Il nucleo è sempre un sottogruppo di X, in particolare contiene sempre l'elemento neutro di X. Nel caso in cui X sia uno → spazio vettoriale (che è un gruppo rispetto all'addizione) e f sia una applicazione lineare (quindi un → omomorfismo tra i rispettivi gruppi additivi) il nucleo Ker(f) è un → sottospazio vettoriale di X (oltre ad esserne un sottogruppo). Matrici Sia una matrice di tipo con elementi in un campo . Il nucleo di è l'insieme dei vettori tali che Questa definizione è coerente con la precedente: infatti la matrice definisce una applicazione lineare ed il nucleo di Il nucleo di così definito è proprio il nucleo di è un → sottospazio vettoriale di . In altre parole, , la cui dimensione è chiamata la nullità di A. in Nucleo (matematica) 14 Esempi Matrici Data la matrice dove è un qualsiasi numero reale, il nucleo di è l'insieme di vettori: Proprietà Gruppi Il nucleo di un omomorfismo di gruppi è un sottogruppo normale. Il gruppo quoziente è quindi ben definito. Per il primo teorema di isomorfismo, questo gruppo è naturalmente isomorfo all'immagine di . D'altra parte, ogni sottogruppo normale di un gruppo è nucleo di una applicazione lineare. L'applicazione è la proiezione sul sottogruppo quoziente: Iniettività Sia un → omomorfismo (o applicazione lineare) fra gruppi (o spazi vettoriali). Vale la proprietà seguente. La funzione è iniettiva se e solo se il suo nucleo è costituito soltanto dall'elemento neutro. L'ipotesi di linearità per è qui essenziale. Poiché , l'iniettività di implica chiaramente che il nucleo consiste del solo elemento neutro 0. L'implicazione opposta è però meno immediata. Si suppone per ipotesi che il nucleo di consista del solo elemento neutro 0. Se allora per linearità e quindi per ipotesi. In altre parole : la funzione è effettivamente iniettiva. Nucleo (matematica) 15 Teorema del rango Se è una applicazione fra spazi vettoriali le dimensioni del nucleo e dell'→ immagine di sono collegate tramite la seguente uguaglianza Matrice La nullità di una matrice può essere calcolata facendo uso della formula appena descritta. In questo contesto la formula si traduce nel modo seguente: Nell'equazione, è il numero di colonne di , null è l'indice di nullità e rk è il rango di . Il calcolo della nullità si riduce quindi al calcolo del rango, per il quale esistono vari algoritmi. I metodi più noti fanno uso del determinante o dell'algoritmo di Gauss. Generalizzazioni Teoria degli insiemi Nell'ambito più generale di teoria degli insiemi, il nucleo di una funzione dall'insieme X all'insieme Y è definito alternativamente come la relazione d'equivalenza che lega gli elementi caratterizzati dalla stessa immagine o come la partizione che tale relazione genera in X. Nei due casi, viene dunque definito simbolicamente da e da L'insieme quoziente X/ker f (detto anche coimmagine di f) è naturalmente → isomorfo all'→ immagine di f. La funzione risulta iniettiva se e solo se tale nucleo è la "diagonale" in . Immergendosi in morfismi tra strutture algebriche, la definizione risulta coerente con quella data sopra. Voci correlate • • • • • → Omomorfismo Nullità Rango di una matrice → Teorema del rango Funzione iniettiva Immagine (matematica) 16 Immagine (matematica) Data una funzione f : A → B, si definisce immagine di A tramite f, o, tout court, immagine di f il sottoinsieme di B così definito: Immagine (insieme tratteggiato) all'interno del codominio ove l'uguaglianza con B sussiste se e solo se la funzione f è suriettiva. Si tratta, quindi, di quegli elementi b di B per i quali esiste un elemento di A che venga portato in B da f. Notare che nello scrivere f(A) si è attuato un leggero abuso di notazione, in quanto f è una trasformazione che agisce sugli elementi di A, non su A stesso. Tale uso è però talmente diffuso che sarebbe inutile provare a combatterlo. Altre notazioni, che non provocano alcun imbarazzo formale e che trovano comunque un certo seguito, sono: e Più in generale, se A1 ⊆ A è un sottoinsieme del dominio A si chiama immagine di A1 tramite f l'insieme: Se a ∈ A, si chiama immagine di a tramite f l'unico elemento f(a) ∈ B associato ad a da f. Proprietà Considerata una funzione f : A → B, valgono le seguenti proprietà: • • Se allora • L'immagine dell'unione di due insiemi è l'unione delle due immagini. In simboli: • In generale: • L'immagine dell'intersezione di due insiemi è contenuta nell'intersezione delle due immagini. In simboli: e l'uguaglianza vale se e solo se la funzione f è iniettiva. Immagine (matematica) 17 • In generale: • L'immagine della differenza di due insiemi contiene la differenza delle due immagini. In simboli: e l'uguaglianza vale se e solo se Metodi di calcolo È un esercizio utile e proposto regolarmente nelle scuole quello, data una funzione, di identificare la sua immagine. Per fare questo, se non si è in grado di farlo a priori (ad esempio, è noto senza fare alcun calcolo che la funzione ha come immagine tutta la semiretta positiva delle ordinate , compreso lo zero), ci sono due metodi: o, con gli strumenti dell'analisi matematica, si identificano gli intervalli di monotonia e i massimi e i minimi, o, con calcoli puramente algebrici, si esplicita la in funzione della , trovando in pratica la funzione inversa; ad esempio, se allora la sua inversa si ottiene mediante: Visto che nei vari passaggi si è applicato prima un logaritmo e poi una radice quadrata, si ottengono delle restrizioni, le uniche, per la , precisamente e L'intersezione di queste due condizioni dà l'immagine, poiché i valori di risultanti possiedono, per costruzione, un valore di partenza (dato dall'espressione trovata); in questo caso, dunque, l'immagine è Bibliografia • Marco Abate e Chiara de Fabritiis, Geometria analitica con elementi di algebra lineare. Milano, McGraw-Hill, 2006. ISBN 8838662894. Voci correlate • Controimmagine • Funzione iniettiva • • • • • Funzione suriettiva Studio di funzione Immersione Insieme vuoto → Nucleo Trasformazione lineare 18 Trasformazione lineare In matematica, più precisamente in algebra lineare, una trasformazione lineare (chiamata anche applicazione lineare o mappa lineare) è una funzione tra due → spazi vettoriali che preserva la forma delle operazioni di somma di vettori e di moltiplicazione per scalare. In altre parole, preserva le combinazioni lineari, cioè le composizioni che caratterizzano la specie di struttura spazio vettoriale; quindi nel linguaggio dell'algebra astratta, una trasformazione lineare è un → omomorfismo di spazi vettoriali, in quanto conserva la forma di ogni istanza dell'operazione che caratterizza gli spazi vettoriali. Definizione e prime conseguenze Siano e due spazi vettoriali sullo stesso campo . Una funzione è una trasformazione lineare se soddisfa le seguenti proprietà • • (linearità) (omogeneità di grado 1) per ogni coppia di vettori Equivalentemente, e in e per ogni scalare e . è lineare se "preserva le combinazioni lineari", ovvero se per ogni intero positivo m e ogni scelta dei vettori Quando in e degli scalari . possono essere considerati come spazi vettoriali su differenti campi (ad esempio sul campo dei reali e sul campo dei complessi), è importante evitare ogni ambiguità e specificare quale campo è stato utilizzato nella definizione di "lineare". Se si fa riferimento al campo K si parla di mappe -lineari. Se è una applicazione lineare e e togliendo e sono i vettori nulli di e rispettivamente, allora da ambo i membri si ottiene . Esempi • La moltiplicazione per una costante fissata in è una trasformazione lineare su qualsiasi spazio vettoriale su . • Una rotazione del piano euclideo rispetto all'origine di un angolo fissato. • Una riflessione del piano euclideo rispetto ad una retta passante per l'origine. • La proiezione di uno spazio vettoriale V decomposto in somma diretta su uno dei due → sottospazi U o W. • Una matrice di tipo con valori reali definisce una trasformazione lineare dove è il prodotto di e . Ogni trasformazione lineare tra spazi vettoriali di dimensione finita è essenzialmente di questo tipo: si veda la sezione seguente. • L'integrale di una funzione reale su un intervallo definisce una mappa lineare dallo spazio vettoriale delle funzioni continue definite sull'intervallo nello spazio vettoriale R. Trasformazione lineare 19 • La derivata definisce una mappa lineare dallo spazio vettoriale di tutte le funzioni derivabili in qualche intervallo aperto di R nello spazio di tutte le funzioni. • Lo spazio C dei numeri complessi ha una struttura di spazio vettoriale complesso di dimensione 1, e anche di spazio vettoriale reale di dimensione 2. La coniugazione è una mappa R-lineare ma non C-lineare: infatti la proprietà di omogeneità vale solo per scalari reali. Matrice associata Siano e due spazi vettoriali di dimensione finita. Scelte due basi trasformazione lineare da a e per e , ogni è rappresentabile come una matrice nel modo seguente. Scriviamo nel dettaglio le basi Ogni vettore in Se è univocamente determinato dalle sue coordinate , definite in modo che è una trasformazione lineare, Quindi la funzione è determinata dai vettori Quindi la funzione è interamente determinata dai valori di e Ciascuno di questi è scrivibile come , che formano la matrice associata a nelle basi . La matrice associata è di tipo , e può essere usata agevolmente per calcolare l'immagine vettore di grazie alla relazione seguente: dove e sono le coordinate di e di ogni nelle rispettive basi. Notiamo che la scelta delle basi è essenziale: la stessa matrice, usata su basi diverse, può rappresentare applicazioni lineari diverse. Struttura di spazio vettoriale • La composizione di trasformazioni lineari è anch'essa una trasformazione lineare: se e sono applicazioni lineari, allora lo è anche • Se e sono lineari, allora lo è la loro somma • Se è lineare e è un elemento del campo , definita dalla relazione , allora la mappa , definita da , è anch'essa lineare. Le proprietà precedenti implicano che l'insieme Hom( , ) delle applicazioni lineari da sottospazio vettoriale dello spazio vettoriale formato da tutte le funzioni da in in è un → . Nel caso finito-dimensionale, dopo aver fissato delle basi, composizione, somma e prodotto per scalare di mappe lineari corrispondono rispettivamente a moltiplicazione di matrici, somma di matrici e moltiplicazione di matrici per scalare. In altre parole, le basi definiscono un → isomorfismo Trasformazione lineare 20 tra gli spazi vettoriali delle applicazioni lineari e delle matrici rispettivamente di e , dove e sono le dimensioni . Nucleo e immagine Se è lineare, si definisce il → nucleo (in inglese kernel) e l'→ immagine di ker( ) è un → sottospazio di e im( ) è un sottospazio di . Se e come hanno dimensione finita, il → teorema della dimensione asserisce che: Isomorfismi Se V e W sono due spazi vettoriali su K. Un isomorfismo di V con W è una applicazione lineare biunivoca f: V→W. Conseguenza immediata di questa definizione è che f è isomorfismo se e solo se Kerf = 0V e Imf= W. Endomorfismi e automorfismi Una trasformazione lineare è un endomorfismo di . L'insieme di tutti gli endomorfismi Endo( ) insieme a addizione, composizione e moltiplicazione per uno scalare come descritti sopra formano un'algebra associativa con unità sul campo : in particolare formano un anello e un → spazio vettoriale su . L'elemento identità di questa algebra è la trasformazione identità di Un endomorfismo biiettivo di . viene chiamato automorfismo di nuovo un automorfismo, e l'insieme di tutti gli automorfismi di , chiamato Aut( ) o GL( Se la dimensione di ; la composizione di due automorfismi è di forma un gruppo, il gruppo generale lineare di ). è finita basterà che f sia iniettiva per poter affermare che sia anche suriettiva (per il teorema della dimensione). Inoltre l'isomorfismo fra gli endomorfismi e le matrici quadrate automorfismi di in descritto sopra è un isomorfismo di algebre. Il gruppo degli è isomorfo al gruppo lineare generale GL( , ) di tutte le matrici invertibili a valori . Pull-Back di funzioni ed applicazione trasposta Siano A,B,C degli insiemi ed F ( A, C ), F ( B, C ) le famiglie di funzioni da A in C e da B in C rispettivamente. Ogni φ: A → B determina univocamente una corrispondenza φ*: F ( B, C ) → F ( A, C ), chiamata pull-back tramite φ, che manda f in f φ. Se nello specifico prendiamo A = V, B = W due → spazi vettoriali su campo k = C, e anzich'è prendere gli interi F ( V, k ), F ( W, k ) ci restringiamo agli spazi duali V* e W*, abbiamo che ad ogni trasformazione lineare φ : V → W possiamo associare l'opportuna restrizione del pull-back tramite φ, φ*: W* → V*, che prende il nome di trasposta di φ. Seque direttamente da come sono definite le operazioni in V* e W* che φ* è a sua volta lineare. Con un semplice calcolo si vede che fissate delle basi per V e W, e le rispettive duali in V*, W*, la matrice che rappresenta φ* è la trasposta di quella di φ (o, se rappresentiamo i funzionali come matrici riga e quindi viene tutto trasposto, le due matrici sono uguali). Trasformazione lineare 21 Segue dalla definizione che un funzionale w* ∈ W* viene mandato a 0 se e solo se l'immagine di φ è contenuta nel → nucleo di w* cioè, indicando con U⊥ il sottospazio dei funzionali che annullano U ⊂ W, si ha ker φ* = (im φ)⊥. Generalizzazioni Le trasformazioni lineari possono essere definite anche per i moduli, strutture della specie che generalizza quella di spazio vettoriale. Voci correlate • • • • • • → Matrice di trasformazione → Autovettore e autovalore Trasformazione affine Funzionale lineare Operatore lineare continuo (EN) wikibooks:Linear_Algebra/Linear_Transformations Collegamenti esterni • (EN) http://www.falstad.com/matrix/ Matrice di trasformazione In matematica, e più precisamente in algebra lineare, per matrice di trasformazione o matrice associata ad una trasformazione si intende una matrice che rappresenta una → trasformazione lineare fra → spazi vettoriali. Per definire una matrice di trasformazione è necessario scegliere una base per ciascuno degli spazi. Fissata una base per il dominio e una per il codominio, ogni trasformazione lineare è descrivibile agevolmente tramite una matrice nel modo seguente: dove è il vettore colonna delle coordinate di un punto del dominio rispetto alla base del dominio e colonna delle coordinate dell'immagine e il prodotto è il vettore è il prodotto righe per colonne. Definizione Siano e due spazi vettoriali su un campo di dimensione finita, e una applicazione lineare. Siano infine due basi rispettivamente per La matrice associata a del vettore e nelle basi rispetto alla base In altre parole, la matrice associata è dove . e . è la matrice avente nella -esima colonna le coordinate Matrice di trasformazione è l'immagine arrivo dell' 22 -esimo vettore della base di partenza . Qui si usa la notazione , letta però in coordinate rispetto alla base di per indicare le coordinate di rispetto alla base scelta. Proprietà Le rappresentazioni di vettori e trasformazioni mediante vettori colonna e matrici consentono di effettuare sistematicamente molte operazioni su queste entità mediante operazioni numeriche che, tra l'altro, possono essere demandate abbastanza facilmente al computer. Ad esempio, le immagini di singoli vettori e le composizioni di trasformazioni vengono rappresentate mediante prodotti fra matrici. Immagine di un vettore Tramite la matrice associata matrice-vettore. Indicando è possibile calcolare l'immagine di un qualsiasi vettore e le coordinate dei vettori in e in facendo uso del prodotto , rispettivamente alle basi e , si ottiene Il prodotto tra la matrice ed il vettore è l'usuale prodotto di una matrice per un vettore colonna. La relazione permette di tradurre trasformazioni lineari in matrici e vettori in vettori numerici di . Fattore essenziale di questa traduzione è la scelta di basi: scelte diverse portano a matrici e vettori diversi. Composizione di applicazioni lineari Nella rappresentazione di applicazioni come matrici, la composizione si traduce nell'usuale prodotto fra matrici. In verità il prodotto riga-per-colonna tra matrici è così definito proprio per rappresentare le composizioni di funzioni. In altre parole, in presenza di due applicazioni lineari e dopo aver scelto delle basi per i tre spazi, vale la relazione ovvero la matrice associata alla composizione è il prodotto delle matrici associate a ea . Da matrici a applicazioni Ogni applicazione può essere descritta come matrice. D'altra parte, una matrice descrive una applicazione lineare nel modo seguente: In altre parole, l'immagine è il vettore di le cui coordinate sono date da . La corrispondenza biunivoca così definita fra applicazioni lineari e matrici è in realtà un → isomorfismo fra gli spazi vettoriali delle applicazioni lineari da in e delle matrici fortemente dalle basi scelte inizialmente per entrambi gli spazi. . Tale isomorfismo dipende Matrice di trasformazione 23 Endomorfismi In presenza di un endomorfismo è naturale scegliere la stessa base arrivo. La matrice associata in partenza ed in è una matrice quadrata . Molte proprietà dell'endomorfismo possono essere più agevolmente lette sulla matrice. Ad esempio: • è l'identità se e solo se è la matrice identica. • è la funzione costantemente nulla se e solo se è la matrice nulla. • è un → isomorfismo se e solo se è invertibile, ovvero se ha determinante diverso da zero. • preserva l'orientazione dello spazio se Endomorfismo rappresentato da una matrice. Il determinante della matrice è -1: questo implica che l'endomorfismo è invertibile e inverte l'orientazione del piano. L'angolo orientato infatti viene mandato nell'angolo con orientazione opposta. . La inverte se L'invertibilità di una matrice è verificata usando il determinante. Altre proprietà più complesse come la → diagonalizzabilità possono essere più facilmente studiate sulle matrici. Esempi • Nel piano cartesiano, indicando con (x, y) un punto generico, la trasformazione lineare T(x, y) = (x, y) viene rappresentata rispetto ad una qualsiasi base dalla matrice identità di ordine 2. Una tale trasformazione è conosciuta anche come funzione identità. • Nel piano cartesiano, sia T la riflessione rispetto alla bisettrice del I e III quadrante. Le matrici associate a T usando rispettivamente la base canonica e la base B = ((1, 1), (1, -1)) sono:: • Nel piano la rotazione di un angolo θ in senso antiorario intorno all'origine è lineare e definita da e . In forma matriciale si esprime con: Analogamente per una rotazione in senso orario attorno all'origine la funzione è definita da e ed in forma matriciale è: • La funzione T: R2[x] → R2[x] dallo spazio dei polinomi di grado al più due in sé, che associa ad un polinomio p la sua derivata T(p) = p' è lineare. La matrice associata rispetto alla base B = (1, x, x2) è: Matrice di trasformazione 24 Voci correlate • • • • Glossario sulle matrici Algebra lineare Coordinate di un vettore Matrice di cambiamento di base Spazio di Hilbert In matematica uno spazio di Hilbert è uno → spazio vettoriale che generalizza la nozione di spazio euclideo. Gli spazi di Hilbert sono stati introdotti dal celebre matematico David Hilbert all'inizio del XX secolo, ed hanno fornito un enorme contributo allo sviluppo dell'analisi funzionale ed armonica. L'interesse della nozione introdotta da Hilbert risiede nel fatto che essa evidenzia la conservazione di alcune proprietà degli spazi euclidei in spazi di funzioni infinito dimensionali. Grazie agli spazi di Hilbert è possibile formalizzare la teoria delle serie di Fourier e generalizzarla a basi arbitrarie. Inoltre, il loro ruolo è cruciale nella formalizzazione matematica della meccanica quantistica. Euristicamente, uno spazio di Hilbert è un insieme con una struttura lineare (→ spazio vettoriale), su cui è definito un prodotto scalare (in particolare, quindi, è possibile parlare di distanze, angoli, ortogonalità), e tale che sia garantita la completezza (ossia, che non vi siano dei comportamenti patologici nel processo di passaggio al limite). Nelle applicazioni, gli elementi di uno spazio di Hilbert (vettori) sono spesso successioni di numeri complessi o funzioni. In meccanica quantistica uno stato fisico può essere rappresentato da un elemento (vettore o ket) o da una opportuna combinazione lineare di elementi dello spazio di Hilbert. Lo stato fisico contiene informazioni le quali possono essere esplicitate proiettando il ket di stato su un autostato di una osservabile. Tale operazione genera un elemento il quale appartiene ad un nuovo spazio vettoriale di Hilbert (detto duale) e tale elemento è chiamato funzione d'onda. Nello spazio di Hilbert dei ket a volte si considerano gli spazi di Hilbert allargati, che consentono di formalizzare sia stati liberi che stati legati. Storia Gli spazi di Hilbert sono stati introdotti da David Hilbert nell'ambito delle equazioni integrali[1] . John von Neumann fu il primo ad utilizzare la denominazione der abstrakte Hilbertsche Raum (lo spazio di Hilbert astratto) nel suo celebre lavoro sugli operatori hermitiani non limitati del 1929[2] . Allo stesso von Neumann si deve la comprensione dell'importanza di questa struttura matematica, che egli utilizzò ampiamente nel suo approccio rigoroso alla meccanica quantistica[3] . Ben presto il nome spazio di Hilbert divenne di largo uso nella matematica[4] . Definizione Preliminari Un prodotto scalare definito positivo definisce una norma, che definisce a sua volta una distanza: si dimostrano infatti facilmente i fatti seguenti. • Se è uno → spazio vettoriale sul campo reale o complesso, e una forma hermitiana) definito positivo su , allora è naturalmente definita una norma ponendo: , per ogni vettore un prodotto scalare (nel caso complesso, ; sullo stesso spazio Spazio di Hilbert 25 Con questa norma lo spazio ha la struttura di spazio normato. • A uno spazio normato è associata una naturale struttura metrica, ottenuta definendo la distanza come: per ogni . Secondo la usuale indentificazione di uno spazio vettoriale con uno spazio affine costruito prendendo come punti i vettori stessi, si pone come distanza tra due vettori la norma della loro differenza. Nel caso in cui la norma derivi da un prodotto scalare, vale dunque la seguente uguaglianza: . Definizione matematica Uno spazio di Hilbert è una coppia prodotto scalare (o una forma hermitiana) su metrico dove è uno spazio vettoriale reale o complesso[5] e , tale che, detta la distanza da esso indotta su è un , lo spazio sia completo. Altre definizioni La presenza di un prodotto scalare dà modo di definire in generale alcune nozioni che qui richiamiamo brevemente nell'ambito degli spazi di Hilbert[6] . • Dati due vettori possiamo definire l'angolo da essi formato mediante la relazione: . • Coerentemente con la precedente definizione di angolo, dato un insieme qualsiasi complemento ortogonale di In particolare, due vettori si definisce il come il → sottospazio: e . si diranno ortogonali se , ossia se l'uno è nel complemento ortogonale dell'altro; inoltre, una famiglia di vettori si dirà ortonormale se i vettori che la compongono sono a due a due ortogonali ed hanno norma 1. • Dati due vettori , si definisce la componente di su lungo lo scalare , e la proiezione di il vettore . Esempi Spazi di Hilbert di dimensione finita • Lo spazio vettoriale dei vettori di numeri reali: con il prodotto scalare euclideo: è uno spazio di Hilbert reale di dimensione finita , detto spazio euclideo • Lo spazio vettoriale dei vettori di numeri complessi: dotato della forma hermitiana standard -dimensionale. Spazio di Hilbert 26 è uno spazio di Hilbert complesso di dimensione finita . Successioni a quadrato sommabile l2 Lo spazio delle successioni di numeri reali a quadrato sommabile: dotato del prodotto scalare è uno spazio di Hilbert separabile di dimensione infinita. Lo stesso vale per l'analogo complesso: dotato del prodotto hermitiano . Lo spazio L2 Lo spazio delle funzioni misurabili su un aperto , a valori complessi e di quadrato sommabile è uno spazio vettoriale complesso, e la forma è hermitiana. Tale spazio non è però di Hilbert, poiché la forma hermitiana è solo semi-definita positiva: esistono infatti funzioni non nulle, ma tali che è nullo. Ad esempio una funzione che vale 1 su un punto fissato di , e 0 in tutti gli altri punti di ha questa proprietà (più in generale, l'integrale di una funzione che vale 0 fuori di un insieme di misura nulla ha integrale nullo). Per ovviare a questo problema, si definisce lo spazio come quoziente di tramite la relazione di equivalenza che identifica due funzioni misurabili se differiscono solo su un insieme di misura nulla. La proiezione della forma hermitiana su questo spazio è definita positiva, e la struttura che ne risulta è uno spazio di Hilbert, che viene indicato con . Spazio di Hilbert 27 Spazi di Sobolev Gli elementi di non sono, in generale, funzioni continue. Per questo motivo non è possibile definirne direttamente la derivata, che deve essere definita quindi in maniera diversa. Lo spazio delle funzioni derivabili debolmente k volte viene indicato tramite . Di questi tipi di spazi si occupa la teoria degli spazi di Sobolev. Prime proprietà degli spazi di Hilbert Le proprietà seguenti, valide per gli spazi euclidei, si estendono anche agli spazi di Hilbert. • Vale la disuguaglianza di Cauchy-Schwarz: • La norma indotta dal prodotto scalare soddisfa l'identità del parallelogramma: • Vale il teorema di Pitagora (sotto il nome di identità di Parseval): se è una successione di vettori a due a due ortogonali, allora: • Vale l'identità di polarizzazione: • Vale la disuguaglianza di Bessel: se è un insieme numerabile di vettori ortonormali allora per ogni vale: . • Ogni spazio di Hilbert è naturalmente uno spazio di Banach. Viceversa, uno spazio di Banach è anche di Hilbert se e solo se la sua norma è indotta da un prodotto scalare, o equivalentemente se esso è autoduale (ossia, se esso si può identificare con il suo spazio duale). • Ogni spazio di Hilbert ha una base ortonormale, detta solitamente base hilbertiana. Una tale base è un insieme di vettori ortonormali, che generano un sottospazio denso in . Spazi di Hilbert separabili Ricordiamo che uno spazio topologico è detto separabile se contiene un sottoinsieme denso e numerabile. Gli spazi di Hilbert finito dimensionali sono sempre separabili. Nel caso infinito dimensionale, invece, ci sono sia esempi di spazi separabili che non separabili. I primi sono di grande interesse nelle applicazioni, e su di essi si è costruita una teoria piuttosto ricca. Potremmo dire che, tra gli spazi infinito dimensionali, gli spazi di Hilbert separabili sono quelli che più assomigliano agli spazi finito dimensionali, e sono pertanto più facili da studiare. Spazio di Hilbert 28 Proprietà di base Uno spazio di Hilbert ha elementi allora è isomorfo allo spazio è separabile se e solo se ha una base ortonormale è → isomorfo a oppure . Se di cardinalità finita o numerabile. Se ha un'infinita numerabile di elementi allora descritto sopra. Una base ortonormale è ottenuta applicando l'algoritmo di Gram-Schmidt ad un insieme denso numerabile. Viceversa, il sottospazio generato da una base ortonormale è un insieme denso nello spazio di Hilbert. In conclusione, in uno spazio di Hilbert provvisto di una base hilbertiana numerabile è possibile esprimere ogni vettore, norma o prodotto scalare come somma di una serie convergente: Applicazioni in meccanica quantistica Dualità negli spazi di Hilbert Voci correlate • • • • • • • • • Spazio prehilbertiano Spazio di Banach Spazio vettoriale topologico Prodotto scalare Forma hermitiana Spazio duale Operatore Operatore hermitiano Meccanica quantistica Bibliografia • Carl B. Boyer, History of Mathematics, 2nd edition, New York, John Wiley & Sons, 1989. ISBN 0-471-54397-7 • Jean Dieudonné, Foundations of Modern Analysis, Academic Press, 1960. • Avner Friedman, Foundations of Modern Analysis, New York, Courier Dover Publications, 1982. ISBN 0-48664-062-0 • von Neumann, John (1929) Allgemeine Eigenwerttheorie Hermitescher Funktionaloperatoren . Mathematische Annalen 102: 49-131. • Hermann Weyl, Dover Press (a cura di) The Theory of Groups and Quantum Mechanics, , 1950. ISBN 0-486-60269-9 Spazio di Hilbert 29 Riferimenti [1] Per un'introduzione storica più dettagliata al contesto intellettuale in cui sono nate le idee che hanno dato vita allo studio degli spazi di Hilbert, si veda Boyer History of Mathematics cap. 27 e 28. [2] von Neumann J. Allgemeine Eigenwerttheorie Hermitescher Funktionaloperatoren. [3] Nell'approccio di von Neumann, la meccanica quantistica viene studiata mediante C*-algebre. Tuttavia ogni C*-algebra è una sottoalgebra dell'algebra degli operatori limitati su di uno spazio di Hilbert. Di qui l'importanza di tali spazi in questo contesto. È interessante notare che questo approccio alla meccanica quantistica è stato iniziato da von Neumann proprio insieme ad Hilbert. [4] Dopo von Neumann, uno dei primi usi documentati del nome spazio di Hilbert si trova in Weyl, The Theory of Groups and Quantum Mechanics. [5] Per semplicità, omettiamo nella definizione la presenza delle operazioni di somma e moltiplicazione per scalari proprie di uno spazio vettoriale, ed identifichiamo H con l'insieme stesso su cui lo spazio vettoriale è costruito. Si veda la voce spazio vettoriale per ulteriori chiarimenti. [6] Nella voce prodotto scalare questi concetti sono trattati più approfonditamente. Teorema spettrale In matematica, in particolare nell'algebra lineare e nell'analisi funzionale, il teorema spettrale si riferisce a una serie di risultati relativi agli operatori lineari oppure alle matrici. In termini generali il teorema spettrale fornisce condizioni sotto le quali un operatore o una matrice possono essere diagonalizzati, cioè rappresentati da una matrice diagonale in una certa base. In dimensione finita, il teorema spettrale asserisce che ogni endomorfismo simmetrico di uno spazio vettoriale reale dotato di un prodotto scalare definito positivo ha una base ortonormale formata da autovettori. Equivalentemente, ogni matrice simmetrica reale è simile ad una matrice diagonale tramite una matrice ortogonale. In dimensione infinita, il teorema spettrale assume forme diverse a seconda del tipo di operatori cui si applica. Ad esempio, esiste una versione per → operatori autoaggiunti in uno → spazio di Hilbert. Il teorema spettrale fornisce anche una decomposizione canonica, chiamata decomposizione spettrale, dello spazio vettoriale. In dimensione finita Caso reale Sia T un endomorfismo simmetrico su uno spazio vettoriale reale V di dimensione n, dotato di un prodotto scalare definito positivo. La condizione di simmetria dice che per ogni in . Il teorema spettrale asserisce che Esiste una base ortonormale di V fatta di autovettori per T. In particolare, l'endomorfismo T è → diagonalizzabile. Una versione equivalente del teorema, enunciata con le matrici, è la seguente. Ogni matrice simmetrica è simile ad una matrice diagonale tramite una matrice ortogonale. In altre parole, per ogni matrice simmetrica S esistono una matrice ortogonale M (cioè tale che MtM = I) ed una diagonale D per cui In particolare, gli autovalori di una matrice simmetrica sono tutti reali. Teorema spettrale Caso complesso Sia T un operatore hermitiano su uno spazio vettoriale complesso V di dimensione n, dotato di un prodotto hermitiano (cioè di una forma hermitiana definita positiva). Il teorema spettrale complesso asserisce che Esiste una base ortonormale di V fatta di autovettori per T. Gli autovalori di T sono tutti reali. In particolare, l'endomorfismo T è → diagonalizzabile. Analogamente, con le matrici otteniamo Ogni matrice hermitiana è simile ad una matrice diagonale reale tramite una matrice unitaria. In altre parole, per ogni matrice hermitiana H esistono una matrice unitaria U ed una diagonale reale D per cui In particolare, gli autovalori di una matrice hermitiana sono tutti reali. Dimostrazione nel caso complesso Per prima cosa dimostriamo che tutti gli autovalori di T sono reali. Sia x un autovettore per T, con autovalore λ. Abbiamo Segue che λ è uguale al suo coniugato e quindi è reale. Per provare l'esistenza di una base di autovettori, usiamo l'induzione sulla dimensione di V. Poiché C è algebricamente chiuso, il → polinomio caratteristico di T ha almeno una radice: quindi T ha almeno un autovalore e quindi un autovettore v. Lo spazio formato dai vettori ortogonali a v ha dimensione n-1. L'endomorfismo T manda W in sé, poiché: Inoltre T, considerato come endomorfismo di W è ancora simmetrico. Si procede quindi per induzione sulla dimensione n, dimostrando il teorema. Decomposizione spettrale Ricordiamo che l'autospazio relativo all'autovalore λ è il sottospazio Come immediata conseguenza del teorema spettrale otteniamo (sia nel caso reale che complesso) il teorema di decomposizione spettrale: Gli autospazi di T sono ortogonali, e sono in somma diretta Equivalentemente, se Pλ è la proiezione ortogonale su Vλ 30 Teorema spettrale Operatori normali Il teorema spettrale vale anche per gli operatori normali. Gli autovalori in questo caso sono numeri complessi in generale. La dimostrazione di questo caso è più complicata. Come sopra, per ogni matrice normale A esistono una matrice unitaria U ed una matrice diagonale D tali che In questo caso però la matrice D non è necessariamente reale. Inoltre, ogni matrice che si diagonalizza in questo modo deve essere normale. I vettori colonna di U sono gli autovettori di A e sono ortogonali. Altre decomposizioni La decomposizione spettrale è un caso particolare della decomposizione di Schur. È anche un caso particolare della decomposizione ai valori singolari. In dimensione infinita In dimensione infinita, ovvero negli → spazi di Hilbert, l'enunciato del teorema spettrale per → operatori autoaggiunti compatti è essenzialmente lo stesso del caso finito-dimensionale, sia nel caso reale che complesso. Sia A un → operatore autoaggiunto e compatto su uno → spazio di Hilbert V. Esiste una base ortonormale di V formata da autovettori di A. Ogni autovalore è reale. Nella dimostrazione, il punto cruciale è mostrare l'esistenza di almeno un autovettore. Non è possibile affidarsi ai determinanti per mostrare l'esistenza degli autovalori, e quindi si ricorre a un argomento di massimizzazione analogo alla dimostrazione del teorema min-max. Operatori limitati La generalizzazione che consideriamo ora è quella ad un → operatore autoaggiunto limitato T su uno spazio di Hilbert V. In contrasto con gli operatori compatti, che ricalcano molto il caso finito-dimensionale, questi si comportano in modo molto diverso: possono non avere autovalori, neppure nel caso complesso. Ad esempio, è facile vedere che l'operatore S su L2[0, 1] definito come è continuo e non ha autovalori. Il teorema spettrale assume quindi una forma differente. Sia T un operatore autoaggiunto limitato su uno spazio di Hilbert V. Esiste uno spazio di misura (X, M, μ), una funzione misurabile a valori reali f su X e un operatore unitario U:H → L2μ(X) tali che dove S è l'operatore di moltiplicazione: Questo risultato è l'inizio di una vasta area di ricerca dell'analisi funzionale chiamata teoria degli operatori. 31 Teorema spettrale Operatori normali Un operatore normale su uno → spazio di Hilbert può non avere autovalori; ad esempio la traslazione bilaterale sullo spazio di Hilbert l2(Z) non ha autovalori. Esiste anche un teorema spettrale per gli operatori normali sugli spazi di Hilbert, nei quali la somma presente nel teorema spettrale a dimensioni finite è sostituita da un integrale della funzione coordinata sullo spettro pesato su una misura di proiezione. Quando l'operatore normale in questione è compatto, questo teorema spettrale si riduce al caso finito-dimensionale, a parte il fatto che l'operatore può essere espresso come combinazione lineare di un numero infinito di proiezioni. Operatori autoaggiunti Molti operatori lineari importanti che si incontrano in analisi, come gli operatori differenziali, non sono limitati. Esiste comunque un teorema spettrale per → operatori autoaggiunti che si applica in molti di questi casi. Per dare un esempio, ogni operatore differenziale a coefficienti costanti è unitariamente equivalente a un operatore di moltiplicazione. Di fatto l'operatore unitario che implementa questa equivalenza è la trasformata di Fourier. Voci correlate • Prodotto scalare • → Spazio di Hilbert • Decomposizione di Jordan, un analogo della decomposizione spettrale, definito in assenza di prodotto scalare. Bibliografia • (EN) Sheldon Axler, Linear Algebra Done Right, Springer Verlag, 1997 32 Autovettore e autovalore 33 Autovettore e autovalore In algebra lineare, un autovettore di una → trasformazione lineare è un → vettore non nullo che non cambia direzione nella trasformazione. Il vettore può cambiare quindi solo per moltiplicazione di uno scalare, chiamato autovalore. L'autospazio è il → sottospazio formato da tutti gli autovettori aventi un fissato autovalore, più il vettore nullo. Un esempio è mostrato in Fig.1. In matematica, questi concetti fondamentali si applicano in algebra lineare, in analisi funzionale, in geometria. In molti contesti, questi hanno anche un significato fisico importante. In meccanica classica gli autovettori delle equazioni che descrivono un sistema fisico corrispondono spesso ai modi di vibrazione di un corpo e gli autovalori alle loro frequenze. In meccanica quantistica, gli operatori corrispondono a variabili osservabili, gli autovettori sono chiamati anche autostati e gli autovalori di un operatore rappresentano quei valori della variabile corrispondente che hanno probabilità non nulla di essere misurati. Il termine autovettore è stato tradotto dalla parola tedesca Eigenvektor, coniata da Hilbert nel 1904. Eigen significa proprio, caratteristico. Anche nella letteratura italiana troviamo spesso l'autovettore indicato come vettore proprio, vettore caratteristico o vettore latente. Fig. 1. In questa trasformazione lineare della Gioconda, l'immagine è modificata ma l'asse centrale verticale rimane fisso. Il vettore blu ha cambiato lievemente direzione, mentre quello rosso no. Quindi il vettore rosso è un autovettore della trasformazione e quello blu no. Inoltre, poiché il vettore rosso non è stato né allungato, né compresso, né ribaltato, il suo autovalore è 1. Tutti i vettori sull'asse verticale sono multipli scalari del vettore rosso, e sono tutti autovettori: assieme all'origine formano l'autospazio relativo all'autovalore 1. Definizione Introduzione informale Il piano cartesiano e lo spazio euclideo sono esempi particolari di → spazi vettoriali: ogni punto dello spazio può essere descritto tramite un vettore che collega l'origine al punto. Rotazioni, omotetie e riflessioni sono esempi particolari di → trasformazioni lineari dello spazio: ciascuna di queste trasformazioni viene descritta agevolmente dall'effetto che produce sui vettori. In particolare, un autovettore è un vettore moltiplicato per un fattore scalare che nella trasformazione viene . Nel piano o nello spazio cartesiano, questo equivale a dire che il vettore non cambia direzione. Può però cambiare verso se , e modulo per un fattore dato dal valore assoluto : Fig. 2. Una sfera che ruota intorno ad un suo asse. Autovettore e autovalore 34 • se il modulo resta inalterato, • se il modulo cresce, • se il modulo decresce. Il valore è l'autovalore di . Ad esempio, nella rotazione spaziale descritta in Fig. 2 ogni vettore verticale dell'asse resta fisso: in altre parole, è un vettore che non cambia né direzione, né verso, né modulo, ed è quindi un autovettore con autovalore 1. Nella rotazione planare descritta in Fig. 3, ogni vettore ruota in senso antiorario di un certo angolo, e quindi cambia direzione: quindi in questo caso non ci sono autovettori. Fig. 3. Rotazione del piano intorno ad un punto Autovettori e autovalori sono definiti ed usati in matematica e fisica dentro a → spazi più grandi e astratti di quello tridimensionale in cui viviamo. Questi spazi possono avere dimensione maggiore di 3 o addirittura infinita (ad esempio, possono Fig. 4. Un'onda stazionaria in una corda fissata agli estremi è una essere uno → spazio di Hilbert). Ad esempio, le autofunzione della trasformazione data dallo scorrere del tempo. possibili posizioni di una corda vibrante in una chitarra formano uno spazio di questo tipo: una vibrazione della corda è quindi interpretata come trasformazione di questo spazio, e i suoi autovettori (più precisamente, le sue autofunzioni) sono le onde stazionarie, che si ripetono come mostrato in Fig. 4. Definizione formale Dal punto di vista formale, autovettori e autovalori sono definiti come segue: sia campo uno → spazio vettoriale su un , che può essere ad esempio il campo dei numeri reali R o complessi C. Sia un endomorfismo di , cioè una → trasformazione lineare Se è un vettore non nullo in allora Poiché e è uno scalare (che può essere nullo) tali che è un autovettore della trasformazione è lineare, se ,e è il suo autovalore. è un autovettore con autovalore autovettore con lo stesso autovalore insieme al vettore nullo, generano un → sottospazio di solitamente indicato con Lo spettro di , allora ogni multiplo non-nullo di è anch'esso un . Più in generale, gli autovettori aventi lo stesso fissato autovalore chiamato l'autospazio relativo all'autovalore , . Viene . è l'insieme dei suoi autovalori. Il raggio spettrale di è l'estremo superiore dei moduli dei suoi sia di dimensione finita, per ogni scelta di basi a è associata univocamente una matrice. Per autovalori. Nel caso in cui questo motivo si parla anche di autovettori e autovalori associati direttamente ad una matrice, rispettivamente come un vettore e uno scalare tali che . Autovettore e autovalore Esempi nel piano e nello spazio Fra le trasformazioni del piano cartesiano R2 possiamo distinguere i seguenti casi speciali: • Rotazione antioraria di angolo θ: se θ è diverso da 0 e π non esiste nessun autovettore: infatti ogni vettore viene ruotato e cambia di direzione. I casi θ = 0 e π sono casi particolari, in cui ogni vettore sta fisso o è ribaltato: allora ogni vettore è autovettore, con autovalore rispettivamente 1 e -1. • Riflessione lungo una retta r passante per l'origine: i vettori in r restano fermi e sono quindi autovettori con autovalore 1, quelli della retta s perpendicolare a r e passante per l'origine vengono ribaltati, e quindi sono autovettori con autovalore -1. Non esistono altri autovettori. • Omotetia: ogni vettore viene moltiplicato per uno scalare λ e quindi tutti i vettori sono autovettori con autovalore λ. • Proiezione ortogonale su una retta r passante per l'origine: i vettori su r restano fermi e quindi sono autovettori con autovalore 1, i vettori sulla retta s ortogonale a r e passante per l'origine vanno tutti sull'origine e quindi sono autovettori con autovalore 0. Non ci sono altri autovettori. Gli esempi appena elencati possono essere rappresentati rispettivamente dalle seguenti matrici (per semplicità, la retta r è l'asse orizzontale): • Non tutte le trasformazioni del piano e dello spazio ricadono in uno degli esempi mostrati sopra. In generale, un endomorfismo (cioè una trasformazione) di Rn è rappresentabile tramite una matrice quadrata con n righe. Consideriamo per esempio l'endomorfismo di R3 dato dalla matrice: Usando la moltiplicazione fra matrice e vettore vediamo che: e quindi l'endomorfismo rappresentato da A ha un autovettore con autovalore 2. Il polinomio caratteristico Un metodo generale per l'individuazione di autovalori e autovettori di un endomorfismo, nel caso in cui lo spazio vettoriale V abbia dimensione finita, è il seguente: 1. Si costruisce una base per V, così da rappresentare l'endomorfismo tramite una matrice quadrata. 2. Dalla matrice si calcola un polinomio, detto → polinomio caratteristico, le cui radici (cioè i valori che lo annullano) sono gli autovalori. 3. Per ogni autovalore, si trovano i relativi autovettori con tecniche standard di algebra lineare, tramite risoluzione di un sistema di equazioni lineari. Il polinomio caratteristico p(x), con variabile x, associato ad una matrice quadrata A, è il seguente: dove I è la matrice identità con lo stesso numero di righe di A, e det(M) è il determinante di M. Le radici del polinomio sono proprio gli autovalori di A. Applichiamo quindi il nostro algoritmo all'esempio in R3 descritto sopra. Poiché la trasformazione è già scritta in forma di matrice, saltiamo al punto 2 e calcoliamo il polinomio caratteristico: 35 Autovettore e autovalore quindi gli autovalori di A sono 2, 1 e −1. Nella pratica, gli autovalori di grandi matrici non vengono calcolati usando il polinomio caratteristico: esistono infatti metodi numerici più veloci e sufficientemente stabili. Nel punto 1 dell'algoritmo è richiesta la scelta di una base. Basi diverse danno generalmente matrici diverse. I polinomi caratteristici che ne risultano sono però sempre gli stessi: il polinomio caratteristico dipende quindi soltanto dall'endomorfismo T (da cui l'aggettivo "caratteristico"). La dimostrazione di questo fatto poggia sul teorema di Binet. Proprietà Elenchiamo alcune proprietà importanti degli autovettori, nel caso finito-dimensionale. Indichiamo quindi con T un endomorfismo in uno spazio V di dimensione n su un campo K. Proprietà generali • Se v1, ..., vm sono autovettori con autovalori λ1, ..., λm, a due a due distinti, allora questi sono linearmente indipendenti. Esistenza di autovalori e autovettori • Il polinomio caratteristico di T ha grado n, e quindi ha al più n radici: segue che T ha al più n autovalori distinti. • Se K è algebricamente chiuso (ad esempio se K = C è il campo dei numeri complessi), allora il polinomio caratteristico ha sempre qualche radice: segue che T ha sempre qualche autovalore, e quindi qualche autovettore. Notiamo che questo è falso nel caso reale: le rotazioni descritte sopra non hanno autovettori. • Se la dimensione n di V è dispari, e K = R è il campo dei numeri reali, il polinomio caratteristico ha grado dispari, e quindi ha sempre almeno una radice reale: segue che ogni endomorfismo di R3 ha almeno un autovettore. Diagonalizzabilità Un endomorfismo T è diagonalizzabile se esiste una base di autovettori per T. La matrice associata a T in questa base è diagonale. Le matrici diagonali sono molto più semplici da trattare: questa è una delle motivazioni per lo studio degli autovettori di T. • Se il polinomio caratteristico di T non ha tutte le radici in K, allora T non è diagonalizzabile. Ad esempio, una rotazione ha un polinomio caratteristico di secondo grado con delta negativo e quindi non ha soluzioni reali: quindi non è diagonalizzabile. • Per il → teorema spettrale, ogni endomorfismo di Rn dato da una matrice simmetrica è diagonalizzabile, ed ha una base di autovettori ortogonali fra loro. Tra questi rientra l'esempio in R3 mostrato sopra: i tre vettori ortogonali sono Per quanto detto prima, la trasformazione assume una forma molto semplice rispetto a questa base: ogni vettore x in R3 può essere scritto in modo unico come: e quindi abbiamo 36 Autovettore e autovalore • Se il polinomio caratteristico di T ha tutte le radici in K con molteplicità 1, allora T è diagonalizzabile. • Se il polinomio caratteristico di T ha tutte le radici in K, alcune delle quali con molteplicità maggiore di 1, non è necessariamente diagonalizzabile: ad esempio la matrice seguente, che rappresenta la trasformazione della Gioconda in Fig.1, ha come polinomio caratteristico (x-1)2 e non è diagonalizzabile: Spazi di dimensione infinita In uno spazio di dimensione infinita la definizione di autovalore è identica al caso di dimensione finita. Tuttavia, Il polinomio caratteristico non è uno strumento disponibile in questo caso. Per questo ed altri motivi, si definisce come spettro l'insieme di quei valori λ per cui l'inverso dell'operatore (T - λ I) non è limitato; tale insieme è solitamente indicato con σ(T). A differenza del caso finito-dimensionale lo spettro e l'insieme degli autovalori, generalmente detto spettro puntuale, in generale non coincidono. Compito della teoria spettrale è l'estensione delle tecniche valide in dimensione finita nel caso in cui l'operatore T e lo spazio V abbiano delle buone proprietà. Seguono alcuni esempi classici. • Un operatore limitato su uno spazio di Banach V ha spettro compatto e non vuoto. • Un operatore compatto su uno spazio di Banach V ha spettro e spettro puntuale coincidenti a meno dello 0. Gli operatori compatti si comportano in modo molto simile agli operatori con immagine a dimensione finita. • Un → operatore autoaggiunto su uno spazio di Hilbert H ha spettro reale. Tali operatori sono fondamentali nello teoria della meccanica quantistica. 37 Autovettore e autovalore 38 Applicazioni Operatori in meccanica quantistica Un esempio di operatore definito su uno spazio infinito-dimensionale è dato dall'operatore hamiltoniano indipendente dal tempo in meccanica quantistica: Fig. 4. Le funzioni d'onda associate agli stati di un elettrone in un atomo d'idrogeno sono gli autovettori sia della Hamiltoniana dell'atomo di idrogeno che del momento angolare. Gli autovalori associati sono interpretati come le loro energie (crescenti dall'alto in basso n=1,2,3,...) e momenti angolari (crescenti da sinistra a destra: s, p, d,...). Sono disegnati qui i quadrati dei valori assoluti delle autofunzioni. Aree più luminose corrispondono a densità di probabilità maggiori per la posizione in una misurazione. Il centro di ogni figura è il nucleo dell'atomo, un protone. dove H è l'operatore che agendo sull'autovettore (o autoket) restituisce l'autovettore moltiplicato per l'autovalore E, che è interpretato come l'energia dello stato. Teniamo presente che H è un operatore hermitiano, percui i suoi autostati formano una base ortonormale dello spazio degli stati e gli autovalori sono tutti reali. Proiettando sulla base della posizione otteniamo la rappresentazione tramite funzione d'onda: dove stavolta Hx indica l'operatore differenziale che rappresenta l'operatore astratto nella base della posizione mentre la funzione d'onda è l'autofunzione corrispondente all'autovalore E. Dati i postulati della meccanica quantistica gli stati accessibili ad un sistema sono vettori in uno → spazio di Hilbert e quindi è definito un prodotto scalare fra di essi del tipo: . dove la stella * indica il complesso coniugato della funzione d'onda. Questo limita la possibilità di scelta dello spazio di Hilbert allo spazio delle funzioni a quadrato integrabile sul dominio scelto D, che può al limite essere tutto . La fig.4 qui a destra mostra le prime autofunzioni della Hamiltoniana dell'atomo di idrogeno. Autovettore e autovalore 39 Autofacce Nel trattamento di immagini digitali, il disegno di una faccia è un vettore le cui componenti rappresentano la luminosità dei singoli pixel. Gli autovettori di una particolare matrice, detta matrice di covarianza, sono chiamati autofacce. Sono molto utili per esprimere ogni faccia come una combinazione lineare di queste autofacce, e sono quindi anche un ottimo strumento di compressione dei dati per memorizzare ed identificare un alto numero di facce. Tensore d'inerzia In meccanica, gli autovettori del tensore di inerzia definiscono gli assi principali di un corpo rigido. Il tensore di inerzia è una quantità chiave, necessaria per determinare la rotazione di un corpo rigido intorno al suo baricentro. Fig. 5. Le autofacce sono esempi di autovettori. Bibliografia • Marius Stoka, Corso di geometria, Cedam, ISBN 8813191928 Voci correlate • • • • • • • • → Spazio vettoriale → Trasformazione lineare → Polinomio caratteristico → Diagonalizzabilità Autostato → Teorema spettrale Forma canonica di Jordan Teoremi di Gerschgorin Collegamenti esterni • (EN) MathWorld: Eigenvector [1] • (EN) Earliest Known Uses of Some of the Words of Mathematics: E - vedi eigenvector e termini correlati [2] Riferimenti [1] http:/ / mathworld. wolfram. com/ Eigenvector. html [2] http:/ / members. aol. com/ jeff570/ e. html Operatore autoaggiunto 40 Operatore autoaggiunto In matematica, e più specificatamente in algebra lineare, un operatore autoaggiunto è un operatore lineare su uno → spazio di Hilbert che è uguale al suo aggiunto. I termini "endomorfismo" e "simmetrico" sono spesso usati al posto di "operatore" e "autoaggiunto" nel caso in cui sia uno spazio di Hilbert reale. Il → teorema spettrale è un importante risultato riguardante gli operatori autoaggiunti. Tali operatori sono fondamentali in vari settori della matematica e della fisica, come ad esempio la geometria differenziale, l'analisi funzionale e la meccanica quantistica. Definizione formale Si consideri uno → spazio di Hilbert e un operatore limitato definito su di esso. L'operatore aggiunto è definito tramite la condizione Se vale allora l'operatore è detto autoaggiunto. Nel caso di un operatore non limitato è necessario tenere conto dei domini. Si supponga che l'operatore densamente definito su un dominio Per ogni elemento sia . Il dominio dell'operatore aggiunto è si ponga Un operatore non limitato è quindi detto autoaggiunto se e per ogni . Proprietà degli operatori autoaggiunti limitati Un operatore limitato A su uno spazio di Hilbert H è autoaggiunto se e solo se è simmetrico, cioè se e solo se la relazione vale per ogni Siano . operatori autoaggiunti, e numeri reali. Dalla linearità del prodotto scalare si ottiene e quindi lo spazio degli operatori autoaggiunti è uno spazio lineare sui reali. Dalla relazione si ottiene che è un operatore autoaggiunto se e solo se e commutano. L'insieme degli autovalori di un operatore autoaggiunto giace sull'asse reale. Per vederlo, si consideri un autovettore dell'operatore autoaggiunto associato all'autovalore . Allora da segue che che è reale. o . Dato che la seconda possibilità è esclusa in quanto è un autovettore, ne segue Operatore autoaggiunto 41 Voci correlate • Operatore • Operatore unitario • Operatore aggiunto Polinomio caratteristico In matematica, e in particolare in algebra lineare, il polinomio caratteristico di una matrice quadrata A su un campo è un polinomio definito a partire da A che ne descrive molte proprietà essenziali. I suoi coefficienti codificano quantità importanti di A, quali la traccia e il determinante, mentre le sue radici sono gli autovalori di A. Il polinomio caratteristico fornisce molte informazioni sulla natura intrinseca delle trasformazioni lineari. Se la matrice A è associata ad una trasformazione lineare T di uno → spazio vettoriale V, il polinomio caratteristico dipende infatti solo dalle proprietà intrinseche di T. I coefficienti del polinomio sono detti invarianti di T. Definizione Sia A una matrice quadrata a valori in un campo K. Il polinomio caratteristico di A nella variabile x è il polinomio definito nel modo seguente: , cioè è il determinante della matrice avente lo stesso numero di righe di n caselle della diagonale principale. Esempi Se allora e quindi Se allora in modo analogo si trova , ottenuta sommando , e quindi e . Qui denota la matrice identità è la matrice diagonale avente il valore su ciascuna delle Polinomio caratteristico 42 Proprietà Sia una matrice quadrata con righe. Grado e coefficienti del polinomio Il polinomio caratteristico di ha grado . Alcuni dei suoi coefficienti sono (a meno di segno) quantità notevoli per la matrice, come la traccia ed il determinante: Ad esempio, se Se è una matrice 2 per 2 abbiamo è una matrice 3 per 3 abbiamo con dove è l'elemento di nella posizione In generale, il coefficiente di minori . del polinomio è la somma moltiplicata per dei determinanti dei "centrati" sulla diagonale. Autovalori Le radici in K del polinomio caratteristico sono gli autovalori di . Questo si dimostra formalmente nel modo seguente: . Per il teorema di diagonalizzabilità, se ha radici distinte allora è diagonalizzabile. Per quanto detto sopra, in questo caso il determinante è proprio il prodotto degli n autovalori distinti. Va però notato che questa condizione non è necessaria per la diagonalizzabilità. Matrici particolari Se è una matrice triangolare (superiore o inferiore) avente i valori sulla diagonale principale, allora . Quindi il polinomio caratteristico di una matrice triangolare ha radici nel campo, date dai valori nella diagonale principale. In particolare, questo fatto è vero per le matrici diagonali. Invarianza per similitudine Due matrici simili hanno lo stesso polinomio caratteristico. Infatti se per qualche matrice invertibile , si ottiene In tale catena di uguaglianze si fa uso del fatto che la matrice della forma teorema di Binet. commuta con qualsiasi altra e del Polinomio caratteristico 43 Poiché due matrici che rappresentano un endomorfismo di uno spazio vettoriale simili, il polinomio caratteristico è una grandezza intrinseca di a dimensione finita sono , che riassume molte delle caratteristiche intrinseche di un endomorfismo: traccia, determinante, autovalori. Invarianza per trasposizione La matrice trasposta ha lo stesso polinomio caratteristico di . Infatti Qui si fa uso del fatto che il determinante è invariante per trasposizione. Applicazioni Il polinomio caratteristico è usato soprattutto per determinare gli autovalori di una matrice. In altri casi, è anche usato come invariante, cioè come oggetto che dipende solo dalla classe di similitudine di una matrice. In questo contesto è utilizzato per determinare la forma canonica di luoghi geometrici esprimibili mediante matrici come coniche e quadriche. Voci correlate • → Autovettore e autovalore • Determinante • Teorema di Hamilton-Cayley Diagonalizzabilità In matematica, e più precisamente in algebra lineare, una → trasformazione lineare di uno → spazio vettoriale di dimensione n (ad esempio, il piano o lo spazio euclideo) è diagonalizzabile se esistono n "assi" passanti per l'origine che rimangono invariati nella trasformazione. Su ciascuno di questi assi, la trasformazione effettua una omotetia. Le trasformazioni diagonalizzabili sono importanti perché più facili da studiare: la trasformazione è infatti completamente nota quando si conosce il suo comportamento su questi assi. Ciascun vettore (diverso dall'origine) su uno di questi assi è un autovettore, ed il tipo di omotetia con cui viene trasformato l'asse è il suo autovalore. Il nome diagonalizzabile deriva dal fatto che una tale trasformazione, scritta rispetto ad una base contenuta negli assi, si scrive tramite una matrice diagonale. Esiste anche la nozione di matrice diagonalizzabile. Esempi informali La trasformazione del piano cartesiano che sposta ogni punto (x, y) nel punto (2x, -y) è diagonalizzabile. Infatti gli assi x e y rimangono invariati: l'asse x è espanso di un fattore 2, mentre l'asse y è ribaltato rispetto all'origine. Notiamo che nessuna altra retta passante per l'origine rimane invariata. Una rotazione oraria o antioraria del piano di 90 gradi intorno all'origine non è diagonalizzabile, perché nessun asse viene fissato. Diagonalizzabilità Definizioni Un endomorfismo T di uno → spazio vettoriale V, cioè una → trasformazione lineare T:V → V, è diagonalizzabile se esiste una base di V fatta di autovettori per T. Una matrice quadrata è diagonalizzabile se è simile ad una matrice diagonale. Ricordiamo che, fissata una base B per V, ogni endomorfismo T si descrive come una matrice, detta matrice associata a T rispetto a B. I seguenti fatti sono tutti equivalenti: 1. una trasformazione T è diagonalizzabile; 2. esiste una base B tale che la matrice associata a T rispetto a B è diagonale; 3. la matrice associata a T rispetto a qualsiasi base B è diagonalizzabile. L'equivalenza discende dai fatti seguenti: • la matrice associata a T rispetto ad una base B è diagonale se e solo se tutti gli elementi di B sono autovettori per T; • due matrici quadrate sono associate alla stessa applicazione T rispetto a basi diverse se e solo se sono simili. Algoritmo Generalmente, per vedere se una applicazione è diagonalizzabile si prende una base qualsiasi e la si traduce in matrice quadrata n x n. Quindi si studia se la matrice ottenuta è diagonalizzabile, calcolandone il → polinomio caratteristico, gli autovalori con la loro molteplicità, e quindi usando il teorema di diagonalizzabilità. Elenchiamo qui due situazioni in cui è più facile dare una risposta: 1. se il polinomio caratteristico ha n radici distinte (ciascuna con molteplicità algebrica 1), la matrice è diagonalizzabile; 2. se la somma delle molteplicità algebriche delle radici del polinomio caratteristico è minore di n, allora la matrice non è diagonalizzabile. Nel caso più complesso in cui la somma delle molteplicità è n, ma ci sono radici multiple, la matrice può essere diagonalizzabile o no, e per avere una risposta si devono fare dei calcoli ulteriori: si veda il teorema di diagonalizzabilità. Ricordiamo i fatti seguenti: • il polinomio caratteristico ha grado n, • la somma delle molteplicità delle radici di un polinomio di grado n è minore o uguale ad n; è proprio n se e solo se il polinomio si fattorizza in polinomi di primo grado, cioè si scrive come e in questo caso le radici sono a1, ..., an, e la molteplicità di ciascuna è il numero di volte in cui compare. • se V è uno spazio vettoriale sul campo dei numeri reali (ad esempio, se V è il piano o un qualsiasi spazio euclideo), la somma delle molteplicità delle radici di p(x) è n se e solo se p non ha radici complesse non reali. 44 Diagonalizzabilità 45 Esempi Esempio di calcolo Consideriamo la matrice Trovando e scomponendo il → polinomio caratteristico, troviamo che i suoi autovalori sono Quindi ha 3 autovalori distinti, ed è diagonalizzabile. Se siamo interessati a trovare esplicitamente una base di autovettori, dobbiamo fare del lavoro ulteriore: per ogni autovalore, si imposta l'equazione : e si risolve cercando i valori del vettore che la soddisfano, sostituendo volta per volta i tre autovalori precedentemente calcolati. Una base di autovettori per esempio è data da: Si vede facilmente che sono indipendenti, quindi formano una base, e che sono autovettori, infatti . Possiamo scrivere esplicitamente la matrice di cambiamento di base incolonnando i vettori trovati: Quindi la matrice invertibile P diagonalizza A, come si verifica calcolando: La matrice finale deve essere diagonale e contenere gli autovalori, ciascuno con la sua molteplicità. Numeri complessi Se il campo su cui lavoriamo è quello dei numeri complessi, una matrice n per n ha n autovalori (contando ciascuno con la relativa molteplicità, per il teorema fondamentale dell'algebra). Se le molteplicità sono tutte 1, la matrice è diagonalizzabile. Altrimenti, dipende. Un esempio di matrice complessa non diagonalizzabile è descritto sotto. Il fatto che vi siano comunque n autovalori implica che è sempre possibile ridurre una matrice complessa ad una forma triangolare: questa proprietà, più debole della diagonalizzabilità, è detta triangolabilità. Diagonalizzabilità 46 Numeri reali Sui numeri reali le cose cambiano, perché la somma delle molteplicità di un polinomio di grado n può essere inferiore a n. Ad esempio la matrice non ha autovalori, perché il suo polinomio caratteristico nessuna matrice reale Q tale che non ha radici reali. Quindi non esiste sia diagonale! D'altro canto, la stessa matrice B vista con i numeri complessi ha due autovalori distinti i e -i, e quindi è diagonalizzabile. Infatti prendendo troviamo che è diagonale. La matrice considerata sui reali invece non è neppure triangolabile. Ci sono anche matrici che non sono diagonalizzabili né sui reali né sui complessi. Questo accade in alcuni casi, in cui ci sono degli autovalori con molteplicità maggiore di uno. Ad esempio, consideriamo Questa matrice non è diagonalizzabile: ha 0 come unico autovalore con molteplicità 2, e se fosse diagonalizzabile sarebbe simile alla matrice nulla, cosa impossibile a prescindere dal campo reale o complesso. Voci correlate • • • • → polinomio caratteristico → autovettore e autovalore → teorema spettrale forma canonica di Jordan Isomorfismo 47 Isomorfismo In matematica, un isomorfismo (dal Greco isos = uguale e morphé = forma) è un tipo di applicazione fra oggetti matematici, intuitivamente definito dalle parole del matematico Douglas Hofstadter: « La parola isomorfismo si usa quando due strutture complesse possono essere mappate una nell'altra, in modo che per ogni parte di una struttura c'è una parte corrispondente nell'altra struttura, dove corrispondente significa che le due parti giocano ruoli simili nelle loro rispettive strutture. » (Douglas Hofstadter - Gödel, Escher, Bach: Un'Eterna Ghirlanda Brillante, p. 49) Definizione Si definisce isomorfismo un'applicazione biiettiva f tra due insiemi dotati di strutture della stessa specie tale che sia f che la sua inversa f −1 siano → omomorfismi, cioè applicazioni che preservano le caratteristiche strutture. Questa nozione ha portata molto vasta, in quanto si possono prendere in considerazione molte specie di strutture e moltissime strutture specifiche. Si possono inoltre considerare isomorfismi tra oggetti non costruiti su un insieme sostegno, ad esempio su due processi. Se esiste un isomorfismo fra due strutture, chiamiamo le due strutture isomorfe. Due strutture isomorfe, a un certo livello di astrazione, si possono considerare essenzialmente uguali; ignorando le identità specifiche degli elementi degli insiemi sottostanti ad esse e focalizzandosi solo su aspetti rilevanti delle strutture stesse, le due strutture si possono identificare. Ecco alcuni esempi quotidiani di strutture isomorfe. • Un cubo compatto composto da legno e un cubo compatto composto da piombo sono entrambi cubi compatti; anche se il loro materiale è differente, le loro strutture geometriche sono isomorfe. • Un normale mazzo di 52 carte da gioco con dorso verde e un normale mazzo di carte con dorso marrone; anche se il colore del dorso è differente, i mazzi sono strutturalmente isomorfi: le regole per un gioco con 52 carte o l'andamento di una partita di un tale gioco sono indifferrenti, indipendentemente dal mazzo che scegliamo. • La Torre dell'Orologio di Londra (che contiene il Big Ben) e un orologio da polso; anche se gli orologi variano molto in dimensione, i loro meccanismi di calcolo del tempo sono isomorfi. • Un dado a sei facce e una borsa da cui viene scelto un numero da 1 a 6; anche se il metodo usato per ottenere un numero è differente, le loro capacità di generare successioni di numeri pseudocasuali sono isomorfe. Questo è un esempio di isomorfismo funzionale, senza l'assunzione di un isomorfismo geometrico. Strutture isomorfe Per ogni struttura assegnata ad un insieme esiste una definizione formale "naturale" di isomorfismo. Insiemi ordinati Se un oggetto consiste in un insieme X con un ordinamento ≤ e un altro oggetto consiste in un insieme Y con un ordinamento , allora un isomorfismo da X a Y è una funzione biiettiva f : X → Y tale che se u ≤ v. Tale isomorfismo è detto isomorfismo d'ordine o isotonia. Isomorfismo 48 Operazioni binarie Se su due insiemi X e Y sono definite le operazioni binarie arbitrarie e rispettivamente, allora un isomorfismo da X a Y è una funzione biiettiva f : X → Y tale che per ogni u, v in X. Quando gli oggetti in questione sono gruppi, tale isomorfismo è detto isomorfismo di gruppi. Analogamente, se gli oggetti sono campi, quindi dotati ciascuno di due operazioni, e la funzione biiettiva si comporta come sopra per entrambe, è detto isomorfismo di campi. Nell'algebra universale si può dare una definizione generale di isomorfismo che copre questi e molti altri casi. La definizione di isomorfismo data nella teoria delle categorie è ancora più generale. Grafi Nella teoria dei grafi, un isomorfismo fra due grafi G e H è un'applicazione biiettiva f dai vertici di G ai vertici di H che preserva la "struttura relazionale" nel senso che c'è uno spigolo o un arco dal vertice u al vertice v se e solo se c'è un analogo collegamento dal vertice f(u) al vertice f(v) in H. Spazi vettoriali Nell'algebra lineare un isomorfismo fra due → spazi vettoriali è una trasformazione biiettiva che sia anche → lineare. Spazi topologici In topologia un isomorfismo tra spazi topologici è una mappa biiettiva e continua che preserva le topologie, cioè manda aperti in aperti; una tale funzione si dice un omeomorfismo. Voci correlate • • • • • • • Automorfismo → Omomorfismo Epimorfismo Classe di isomorfismo Monomorfismo Morfismo Endomorfismo Omomorfismo 49 Omomorfismo In algebra astratta, un omomorfismo è un'applicazione tra due strutture algebriche dello stesso tipo che conserva le operazioni in esse definite. Questo oggetto, calato nel contesto più astratto della teoria delle categorie, prende il nome di morfismo. Ad esempio, considerando insiemi con una singola operazione binaria (un magma), la funzione è un omomorfismo se vale per ogni coppia u, v di elementi di A, dove e sono le operazioni binarie di A e B rispettivamente. Ogni tipo di struttura algebrica ha i suoi specifici omomorfismi: • omomorfismo di gruppi • omomorfismo di anelli • applicazione lineare (omomorfismo tra → spazi vettoriali) • omomorfismo di algebre Una definizione rigorosa generale di omomorfismo può essere data nel modo seguente: Siano A e B due strutture algebriche dello stesso tipo, una funzione φ : A → B è un omomorfismo se, per ogni operazione f (su n elementi) delle strutture e per ogni n-upla x1,…,xn di A si ha φ(fA (x1,…,xn)) = fB(φ(x1),…,φ(xn)) dove fA e fB rappresentano l'operazione f nelle strutture A e B rispettivamente. Classificazione In algebra astratta: • Si chiama monomorfismo ogni omomorfismo iniettivo; • Si chiama epimorfismo ogni omomorfismo suriettivo; • Si chiama → isomorfismo ogni omomorfismo biiettivo. Se in particolare A e B coincidono: • Si chiama endomorfismo della struttura A ogni omomorfismo di A in se stesso; • Si chiama automorfismo della struttura A ogni → isomorfismo di A in se stesso. Notare che dei concetti di monomorfismo e epimorfismo, in teoria delle categorie, vengono date delle definizioni più deboli. Voci correlate • Morfismo • Algebra astratta • Struttura algebrica Fonti e autori del articolo Fonti e autori del articolo Spazio vettoriale Source: http://it.wikipedia.org/w/index.php?oldid=27147311 Contributors: Achillu, Alberto da Calvairate, AnyFile, Aushulz, Damnit, Dr Zimbu, Dzag, Gac, Gianluigi, Giulianap, Hashar, Marcuscalabresus, Maupag, Ndakota73, Nihil, Palica, Piddu, Romanm, Salvatore Ingala, Skyhc, Suisui, Wiso, Ylebru, 43 anonymous edits Sottospazio vettoriale Source: http://it.wikipedia.org/w/index.php?oldid=25903684 Contributors: Alberto da Calvairate, Dissonance, Eberk89, Magma, Pegua, Piddu, Rossa1, Salvatore Ingala, Ylebru, ^musaz, 4 anonymous edits Sottospazio generato Source: http://it.wikipedia.org/w/index.php?oldid=25037482 Contributors: Simone Scanzoni, Ylebru, 1 anonymous edits Teorema del rango Source: http://it.wikipedia.org/w/index.php?oldid=23792193 Contributors: Banus, Helios, Salvatore Ingala, Ylebru, 2 anonymous edits Nucleo (matematica) Source: http://it.wikipedia.org/w/index.php?oldid=25385576 Contributors: Alberto da Calvairate, AnyFile, Davide, FollowTheMedia, Piddu, Pokipsy76, Ylebru, 13 anonymous edits Immagine (matematica) Source: http://it.wikipedia.org/w/index.php?oldid=22305875 Contributors: Amarvudol, Andre Engels, Cinex, Hellis, Melmood, Piddu, Pokipsy76, Salvatore Ingala, Snake664, 23 anonymous edits Trasformazione lineare Source: http://it.wikipedia.org/w/index.php?oldid=25978955 Contributors: .jhc., Alberto da Calvairate, Beewan1972, Colom, Giulianap, Marco Matassa, Mawerick, Piddu, Pokipsy76, Sandrobt, Simone, Skyhc, TheRedOne, Tridim, Unit, Valerio.scorsipa, Wiso, Ylebru, ^musaz, 22 anonymous edits Matrice di trasformazione Source: http://it.wikipedia.org/w/index.php?oldid=25256568 Contributors: Alberto da Calvairate, Piddu, Pokipsy76, Riccioli72, Sagrael, Simone Scanzoni, TierrayLibertad, Valerio.scorsipa, Ylebru, 3 anonymous edits Spazio di Hilbert Source: http://it.wikipedia.org/w/index.php?oldid=27335376 Contributors: Archenzo, Ary29, Ayanami Rei, Basilero, Cisco79, Damnit, Eginardo, Gala.martin, Giaccone Paolo, Hashar, Hellis, Hill, Maurice Carbonaro, Megalexandros, Nevermore, Paolocos, Piddu, Pokipsy76, Quatar, Stefano80, Tridim, Wiso, Ylebru, 17 anonymous edits Teorema spettrale Source: http://it.wikipedia.org/w/index.php?oldid=25842411 Contributors: Banus, Fontafox, Leitfaden, Leonardis, Lucha, Nase, Nicolaennio, Piddu, Qualc1, Salvatore Ingala, Walter89, Wiso, Ylebru, Zuccaccia, Zviad, 6 anonymous edits Autovettore e autovalore Source: http://it.wikipedia.org/w/index.php?oldid=27517783 Contributors: Alfio, Aushulz, Berto, Domenico De Felice, Engineer123, F l a n k e r, Franz Liszt, Gecob, Ggonnell, Huatulco, Jean85, Luisa, M&M987, Magma, Marco82laspezia, Onnisciente, Piddu, Piero, Pokipsy76, Restu20, Rob-ot, Robmontagna, Sartore, Shony, SimoneMLK, Sir marek, SkZ, Stefano80, Tridim, Ulisse0, Vipera, Xander89, Ylak, Ylebru, 22 anonymous edits Operatore autoaggiunto Source: http://it.wikipedia.org/w/index.php?oldid=21899419 Contributors: Alberto da Calvairate, DanGarb, Frieda, Hellis, M&M987, Maedhros1978, Piddu, Retaggio, Sandinista, Simone, Stefano80, Tridim, Wiso, Ylebru, 9 anonymous edits Polinomio caratteristico Source: http://it.wikipedia.org/w/index.php?oldid=26726076 Contributors: Alberto da Calvairate, Claude, Fred Falcon, Luisa, Lupin85, Poeta60, Pokipsy76, Ylebru, 15 anonymous edits Diagonalizzabilità Source: http://it.wikipedia.org/w/index.php?oldid=21156304 Contributors: CristianCantoro, Ft1, Luisa, MartinoK, Ylebru, 11 anonymous edits Isomorfismo Source: http://it.wikipedia.org/w/index.php?oldid=27370432 Contributors: Alberto da Calvairate, Banus, Buggia, Hellis, Massimiliano Lincetto, Moongateclimber, Onnisciente, Piddu, Pokipsy76, Toobaz, Ylebru, ^musaz, 9 anonymous edits Omomorfismo Source: http://it.wikipedia.org/w/index.php?oldid=25989772 Contributors: Alberto da Calvairate, Ary29, Blaisorblade, F l a n k e r, Laurentius, Megalexandros, Melmood, Piddu, Ylebru, ^musaz, 2 anonymous edits 50 Fonti, licenze e autori delle immagini Fonti, licenze e autori delle immagini Immagine:Vector space illust.svg Source: http://it.wikipedia.org/w/index.php?title=File:Vector_space_illust.svg License: Public Domain Contributors: User:Oleg Alexandrov File:Linear_subspaces_with_shading.svg Source: http://it.wikipedia.org/w/index.php?title=File:Linear_subspaces_with_shading.svg License: GNU Free Documentation License Contributors: Original uploader was Alksentrs at en.wikipedia File:Linear subspaces with shading.svg Source: http://it.wikipedia.org/w/index.php?title=File:Linear_subspaces_with_shading.svg License: GNU Free Documentation License Contributors: Original uploader was Alksentrs at en.wikipedia Immagine:Funcoes x2.png Source: http://it.wikipedia.org/w/index.php?title=File:Funcoes_x2.png License: GNU Free Documentation License Contributors: Darapti, Dcoetzee, EugeneZelenko, HiTe, Ilmari Karonen, Marcelo Reis File:Determinant Example.png Source: http://it.wikipedia.org/w/index.php?title=File:Determinant_Example.png License: unknown Contributors: User:Jakob.scholbach Immagine:Eigen.jpg Source: http://it.wikipedia.org/w/index.php?title=File:Eigen.jpg License: Public Domain Contributors: User:Vb Immagine:Rotating Sphere.gif Source: http://it.wikipedia.org/w/index.php?title=File:Rotating_Sphere.gif License: unknown Contributors: Maksim, Oleg Alexandrov, W!B:, 3 anonymous edits Immagine:Rotation illustration.png Source: http://it.wikipedia.org/w/index.php?title=File:Rotation_illustration.png License: Public Domain Contributors: HB, Juiced lemon, Maksim, Oleg Alexandrov, Tano4595, W!B: Immagine:Standing wave.gif Source: http://it.wikipedia.org/w/index.php?title=File:Standing_wave.gif License: Public Domain Contributors: BrokenSegue, Cdang, Joolz, Kersti Nebelsiek, Kieff, Mike.lifeguard, Pieter Kuiper, Ptj Immagine:HAtomOrbitals.png Source: http://it.wikipedia.org/w/index.php?title=File:HAtomOrbitals.png License: GNU Free Documentation License Contributors: Admrboltz, Benjah-bmm27, Dbenbenn, Ejdzej, Falcorian, Kborland, MichaelDiederich, Mion, Saperaud, 2 anonymous edits Immagine:Eigenfaces.png Source: http://it.wikipedia.org/w/index.php?title=File:Eigenfaces.png License: Attribution Contributors: Laurascudder, Liftarn, Man vyi, Ylebru 51 Licenza Licenza Creative Commons Attribution-Share Alike 3.0 Unported http:/ / creativecommons. org/ licenses/ by-sa/ 3. 0/ 52