Indice
Voci
Spazio vettoriale
1
Sottospazio vettoriale
7
Sottospazio generato
9
Teorema del rango
11
Nucleo (matematica)
13
Immagine (matematica)
16
Trasformazione lineare
18
Matrice di trasformazione
21
Spazio di Hilbert
24
Teorema spettrale
29
Autovettore e autovalore
33
Operatore autoaggiunto
40
Polinomio caratteristico
41
Diagonalizzabilità
43
Isomorfismo
47
Omomorfismo
49
Riferimenti
Fonti e autori del articolo
50
Fonti, licenze e autori delle immagini
51
Licenze della voce
Licenza
52
Spazio vettoriale
1
Spazio vettoriale
In matematica, lo spazio vettoriale (chiamato più raramente spazio lineare) è una struttura algebrica di grande
importanza. Si tratta di una generalizzazione dell'insieme formato dai vettori del piano cartesiano ordinario e
dell'insieme dei vettori dello spazio tridimensionale dotati delle operazioni di somma di vettori e di moltiplicazione
di un vettore per un numero reale (cioè dell'ambiente nel quale si studiano i fenomeni della fisica classica, quella
sviluppata da personalità quali Galileo, Newton, Lagrange, Laplace, Hamilton, Maxwell).
Si incontrano spazi vettoriali in numerosi capitoli della matematica moderna e nelle sue applicazioni: questi servono
innanzi tutto per studiare le soluzioni dei sistemi di equazioni lineari e delle equazioni differenziali lineari. Con
queste equazioni si trattano moltissime situazioni: quindi si incontrano spazi vettoriali nella statistica, nella scienza
delle costruzioni, nella meccanica quantistica, nella biologia molecolare, ecc. Negli spazi vettoriali si studiano anche
sistemi di equazioni e disequazioni e in particolare quelli che servono alla programmazione matematica e in genere
alla ricerca operativa.
Strutture algebriche preliminari agli spazi vettoriali sono quelle di gruppo, anello e campo. Vi sono poi numerose
strutture matematiche che generalizzano e arricchiscono quella di spazio vettoriale; alcune sono ricordate nell'ultima
parte di questo articolo.
Definizione formale
La definizione di uno spazio vettoriale richiede di servirsi di un campo:
sono interessanti soprattutto il campo dei numeri reali R e quello dei
complessi C; molti risultati dell'algebra lineare però si possono
sviluppare servendosi del semplice campo dei numeri razionali Q e di
notevole interesse sono anche i campi finiti e in particolare i campi
delle classi di resto modulo p Fp, per ogni p numero primo. In questa
voce denotiamo con K un generico campo e indichiamo
rispettivamente con 0 e 1 il suo zero e la sua unità.
Si dice che l'insieme V è sostegno di uno spazio vettoriale sul campo
K se in V è definita un'operazione binaria interna (+) per la quale (V,+)
è un gruppo commutativo (ossia un gruppo abeliano) ed è altresì
definita una legge di composizione esterna (*) K×V→V - detta prodotto
esterno o moltiplicazione per uno scalare - per la quale valgono le
seguenti proprietà:
Uno spazio vettoriale è una collezione di oggetti,
chiamati "vettori", che possono essere sommati e
riscalati.
1. ∀ a,b ∈ K, ∀ v ∈ V : a * (b * v) = (a * b) * v
Associatività del prodotto esterno.
2. ∀ v ∈ V, 1 * v = v
Neutralità di 1 rispetto al prodotto esterno.
3. ∀ a ∈ K, ∀ u,v ∈ V, a * (u + v) = a * u + a * v
Distributività del prodotto esterno rispetto all'addizione di vettori.
4. ∀ a,b ∈ K, ∀ v ∈ V, (a + b) * v = a * v + b * v
Distributività del prodotto esterno rispetto all'addizione di scalari.
La struttura algebrica così definità si simboleggia con (V,K) o semplicemente con V laddove non ci siano equivoci
sul campo di definizione. Per uno spazio V sopra un campo K gli elementi di K sono detti scalari o numeri, mentre
gli oggetti di V si dicono vettori o punti. I vettori si simboleggiano con caratteri in grassetto, sottolineati o sormontati
da una freccia. Tale linguaggio consente di sostituire la dicitura prodotto esterno con prodotto per uno scalare.
Spazio vettoriale
Poiché la moltiplicazione per uno scalare è una legge di composizione esterna K×V→V si dice che V ha struttura di
spazio vettoriale sinistro. Nulla vieta di definire la composizione con uno scalare a destra; in tal caso si parlerà di
spazio vettoriale destro.
Da queste proprietà, possono essere immediatamente dimostrate le seguenti formule, valide per ogni a in K e ogni v
in V:
a*0=0*v=0
-(a * v) = (-a) * v = a * (-v)
dove 0 è lo zero in K e 0 è lo zero in V.
Uno spazio vettoriale reale o complesso è uno spazio vettoriale in cui K è rispettivamente il campo R dei numeri
reali o il campo C dei numeri complessi.
Primi esempi
In questo paragrafo dove si elencano alcuni importanti esempi di spazi vettoriali denotiamo con m ed n due interi
positivi.
Spazi K n
L'insieme
formato da tutte le sequenze finite e ordinate di elementi di K, con le operazioni di somma e di prodotto per uno
scalare definite termine a termine (puntuali), è detto l' n-spazio numerico, spazio delle n-uple o spazio
n-dimensionale delle coordinate e può essere considerato il prototipo di spazio vettoriale.
Si osserva che gli spazi Rn e Cn posseggono una infinità continua di elementi, mentre Qn ha cardinalità numerabile e
per ogni p primo lo spazio Fpn è costituito da un numero finito di vettori, per la precisione pn.
Polinomi
L'insieme K [x] dei polinomi a coefficienti in K e con variabile x, con le operazioni usuali di somma fra polinomi e
prodotto di un polinomio per uno scalare, forma uno spazio vettoriale.
Matrici
L'insieme delle matrici m×n su K, con le operazioni di somma tra matrici e prodotto di uno scalare per una matrice,
forma uno spazio vettoriale.
Funzioni
L'insieme Fun(X, K) di tutte le funzioni da un fissato insieme X in K, dove:
• la somma di due funzioni f e g è definita come la funzione (f + g) che manda x in f(x)+g(x),
• il prodotto (λf) di una funzione f per uno scalare λ in K è la funzione che manda x in λf(x) è uno spazio vettoriale.
Ad esempio, l'insieme Fun(X, R) di tutte le funzioni da un aperto X dello spazio euclideo Rn in R è uno spazio
vettoriale.
2
Spazio vettoriale
3
Nozioni basilari
Lo studio della specie di struttura di spazio vettoriale si svolge sviluppando le nozioni di → sottospazio vettoriale, di
→ trasformazione lineare (l'→ omomorfismo per questa specie di struttura), di base e di dimensione.
Sottospazi
Un → sottospazio vettoriale di uno spazio
vettoriale
è un sottoinsieme
che
eredita da
una struttura di spazio
vettoriale. Per ereditare questa struttura, è
sufficiente che
sia chiuso rispetto alle
due operazioni di somma e prodotto per
scalare. In particolare,
deve contenere lo
zero di
.
Esempi
Una retta passante per l'origine è un
sottospazio vettoriale del piano cartesiano
R2; nello spazio vettoriale R3 tutti i piani e
tutte le rette passanti per l'origine sono
sottospazi.
Gli spazi formati dalle matrici simmetriche
o antisimmetriche sono sottospazi vettoriali
dell'insieme delle matrici m×n su K.
Tre sottospazi distinti di dimensione 2 in
: sono piani passanti per l'origine.
Due di questi si intersecano in un sottospazio di dimensione 1, cioè una retta
passante per l'origine (una di queste è disegnata in blu).
Altri importanti sottospazi vettoriali sono quelli di Fun(X, R), quando X è un insieme aperto di Rn: gli insiemi
formati dalle funzioni continue, dalle funzioni differenziabili e dalle funzioni misurabili.
Generatori e basi
Una combinazione lineare di alcuni vettori
è una scrittura del tipo
Una combinazione lineare è l'operazione più generale che si può realizzare con questi vettori usando le due
operazioni di somma e prodotto per scalare. Usando le combinazioni lineari è possibile descrivere un sottospazio
(che è generalmente fatto da un insieme infinito di punti[1] ) con un numero finito di dati. Si definisce infatti il
sottospazio generato da questi vettori come l'insieme di tutte le loro combinazioni lineari.
Un sottospazio può essere generato a partire da diversi insiemi di vettori. Tra i possibili insiemi di generatori alcuni
risultano più economici di altri: sono gli insiemi di vettori con la proprietà di essere linearmente indipendenti. Un
tale insieme di vettori è detto base del sottospazio.
Si dimostra che ogni spazio vettoriale possiede una base; alcuni spazi hanno basi costituite da un numero finito di
vettori, altri hanno basi costituenti insiemi infiniti. Per questi ultimi la dimostrazione dell'esistenza di una base deve
ricorrere al Lemma di Zorn.
Alla nozione di base di uno spazio vettoriale si collega quella di sistema di riferimento di uno spazio affine.
Spazio vettoriale
Dimensione
Si dimostra che tutte le basi di uno spazio vettoriale posseggono la stessa cardinalità (questo risultato è dovuto a
Felix Hausdorff). Questa cardinalità viene chiamata dimensione di Hamel dello spazio; questa entità in genere viene
chiamata semplicemente dimensione dello spazio. La distinzione più rilevante fra gli spazi vettoriali vede da una
parte gli spazi finito-dimensionali e dall'altra quelli di dimensione infinita.
Per ogni intero naturale n lo spazio Kn ha dimensione n: in effetti una sua base è costituita dalle n n-uple aventi tutte
le componenti nulle ad eccezione di una uguale alla unità del campo. In particolare l'insieme costituito dal solo 0 del
campo può considerarsi uno spazio a 0 dimensioni, la retta dotata di un'origine è uno spazio monodimensionale su R,
il piano cartesiano è uno spazio di dimensione 2, lo spazio R3 ha dimensione 3.
Anche i polinomi con grado al più n formano un → sottospazio vettoriale di dimensione n+1, mentre la dimensione
dell'insieme delle funzioni Fun(X, K) è pari alla cardinalità di X.
Tra gli spazi infinito dimensionali si trovano quelli formati dall'insieme dei polinomi in una variabile o in più
variabili e quelli formati da varie collezioni di funzioni ad esempio gli spazi Lp.
I vettori di uno spazio di n dimensioni, facendo riferimento ad una base fissata di tale spazio, possono essere
rappresentati come n-uple di scalari: queste sono le loro coordinate. Questo fatto consente di affermare che ogni
spazio n-dimensionale su K è sostanzialmente identificabile con Kn.
Trasformazioni lineari e omomorfismi
Una → trasformazione lineare fra due spazi vettoriali V e W sullo stesso campo K è una applicazione che manda
vettori di V in vettori di W rispettando le combinazioni lineari. Dato che le trasformazioni lineari rispettano le
operazioni di somma di vettori e di moltiplicazioni per scalari, esse costituiscono gli → omomorfismi per le strutture
della specie degli spazi vettoriali. Per denotare l'insieme degli omomorfismi da V in W scriviamo Hom(V, W).
Particolarmente importanti sono gli insiemi di endomorfismi; questi hanno la forma Hom(V, V).
Si osserva che per le applicazioni lineari di Hom(V, W) si possono definire le somme e le moltiplicazioni per
elementi di K, come per tutte le funzioni aventi valori in uno spazio su questo campo. L'insieme Hom(V, W) munito
di queste operazioni costituisce a sua volta uno spazio vettoriale su K, di dimensione dim(V)×dim(W). Un caso
particolare molto importante è dato dallo spazio duale V * := Hom(V, K); questo spazio ha le stesse dimensioni di V e
in effetti i suoi vettori sono strettamente collegati ai vettori di V.
Spazio vettoriale libero
Un esempio particolare spesso usato in algebra (e una costruzione piuttosto comune in questo campo) è quello di
spazio vettoriale libero su un insieme. L'obiettivo è creare uno spazio che abbia gli elementi dell'insieme come
base. Ricordando che, dato un generico spazio vettoriale, si dice che un suo sottoinsieme U è una base se ogni
vettore si può scrivere come combinazione lineare finita di elementi di U, la seguente definizione nasce
naturalmente: uno spazio vettoriale libero V su B e campo K è l'insieme di tutte le combinazioni lineari formali di un
numero finito di elementi di B a coefficienti in K, cioè i vettori di V sono del tipo
dove i coefficienti non nulli sono in numero finito, e somma e prodotto sono definite come segue
4
Spazio vettoriale
Da tener ben presente che queste somme sono dette formali perché sono da considerarsi appunto dei puri simboli. In
pratica gli elementi di B servono solo come "segnaposto" per i coefficienti. Oltre a questa definizione più intuitiva ne
esiste una del tutto equivalente in termine di funzioni da B su K con supporto finito (supp f := { b ∈ B | f(b) ≠ 0 }),
cioè V ≅ { f: B → K | supp f è finito } dove per il secondo insieme le operazioni di somma e prodotto sono quelle
naturali e la corrispondenza è
Arricchimenti della struttura di spazio vettoriale
La nozione di spazio vettoriale è servita innanzi tutto a puntualizzare proprietà algebriche riguardanti ambienti ed
entità geometriche; inoltre essa costituisce la base algebrica per lo studio di questioni di analisi funzionale, che
possiamo associare ad una geometrizzazione dello studio di funzioni collegate ad equazioni lineari. La sola struttura
di spazio vettoriale risulta comunque povera quando si vogliono affrontare in modo più efficace problemi geometrici
e dell'analisi funzionale. Infatti va osservato che con la sola struttura di spazio vettoriale non si possono affrontare
questioni riguardanti lunghezze di segmenti, distanze ed angoli (anche se la visione intuitiva degli spazi vettoriali a 2
o 3 dimensioni sembra implicare necessariamente queste nozioni di geometria elementare). Per sviluppare le
"potenzialità" della struttura spazio vettoriale risulta necessario arricchirla in molteplici direzioni, sia con ulteriori
strumenti algebrici (ad es. proponendo prodotti di vettori), sia con nozioni topologiche, sia con nozioni differenziali.
In effetti si può prospettare una sistematica attività di arricchimento degli spazi vettoriali con costruzioni che si
aggiungono a quella di combinazione lineare al fine di ottenere strutture di elevata efficacia nei confronti di tanti
problemi matematici, computazionali e applicativi. Per essere utili, queste costruzioni devono essere in qualche
modo compatibili con la struttura dello spazio vettoriale, e le condizioni di compatibilità variano caso per caso.
Spazio normato
Uno spazio vettoriale in cui è definita una norma, cioè una lunghezza dei suoi vettori, è chiamato spazio normato.
L'importanza degli spazi vettoriali normati dipende dal fatto che a partire dalla norma dei singoli vettori si definisce
la distanza fra due vettori come norma della loro differenza e questa nozione consente di definire costruzioni
metriche e quindi costruzioni topologiche.
Spazio di Banach
Uno spazio normato completo rispetto alla metrica indotta è detto spazio di Banach.
Spazio di Hilbert
Uno spazio vettoriale complesso (risp. reale) in cui è definito un prodotto scalare hermitiano (risp. bilineare) definito
positivo, e quindi anche i concetti di angolo e perpendicolarità di vettori, è chiamato spazio prehilbertiano. Uno
spazio dotato di prodotto scalare è anche normato, mentre in generale non vale il viceversa.
Uno spazio dotato di prodotto scalare che sia completo rispetto alla metrica indotta è detto → spazio di Hilbert.
Spazio vettoriale topologico
Uno spazio vettoriale munito anche di una topologia è chiamato spazio vettoriale topologico.
5
Spazio vettoriale
Algebra su campo
Uno spazio vettoriale arricchito con un operatore bilineare che definisce una moltiplicazione tra vettori costituisce
una cosiddetta algebra su campo. Ad esempio, le matrici quadrate di ordine n munite del prodotto di matrici formano
un'algebra. Un'altra algebra su un campo qualsiasi è fornita dai polinomi su tale campo muniti dell'usuale prodotto
fra polinomi.
Moduli
Una generalizzazione del concetto di spazio vettoriale è invece quella di modulo; essa si basa su richieste analoghe a
quelle viste, ma per K non si chiede che sia un campo, ma un più generico anello.
Bibliografia
• Marco Abate; Chiara de Fabritiis, Geometria analitica con elementi di algebra lineare, Milano, McGraw-Hill,
2006. ISBN 8838662894.
• Luciano Lomonaco, Un'introduzione all'algebra lineare, Roma, Aracne, 2005. ISBN 8854801445.
• Giulio Campanella, Appunti di algebra, Roma, Nuova Cultura, 2005. ISBN 8889362227.
• Werner Greub, Linear Algebra, 4a ed. New York, Springer, 1995. ISBN 0387901108.
•
•
•
•
Steven Roman, Advanced linear algebra, Springer, 1992. ISBN 0387978372.
Edoardo Sernesi, Geometria 1, 2a ed. Torino, Bollati Boringhieri, 1989. ISBN 8833954471.
Serge Lang, Linear Algebra, 3a ed. New York, Springer, 1987. ISBN 0387964126.
Georgi Evgen'evich Shilov, Linear Algebra, Tradotto da Richard Silverman, New York, Dover, 1977. ISBN
048663518X.
• Paul Halmos, Finite-Dimensional Vector Spaces, 2a ed. New York, Springer, 1974. ISBN 0387900934.
• Kenneth Hoffman; Ray Kuze, Linear Algebra, 2a ed. Upper Saddle RIver, N.J., Prentice Hall, 1971. ISBN
0135367972.
Voci correlate
•
•
•
•
•
•
•
Vettore (matematica)
Applicazione lineare
Dimensione
→ Sottospazio vettoriale
Spazio duale
Prodotto scalare
Norma
Riferimenti
[1] Questo è sempre vero se il campo è infinito, come ad esempio Q, R e C, tranne nel caso in cui il sottospazio sia semplicemente un punto (lo
zero).
6
Sottospazio vettoriale
7
Sottospazio vettoriale
In matematica, un sottospazio vettoriale è
un sottoinsieme di uno → spazio vettoriale,
avente proprietà tali da farne a sua volta un
altro spazio vettoriale. Esempi di sottospazi
vettoriali sono le rette ed i piani nello spazio
euclideo tridimensionale passanti per
l'origine.
Definizione
Sia K un campo (ad esempio il campo dei
numeri reali R). Sia V uno → spazio
vettoriale su K e denotiamo con 0V il suo
vettore nullo. Un sottoinsieme non vuoto W
di V è un sottospazio vettoriale di V se
valgono le seguenti proprietà:
Tre sottospazi distinti di dimensione 2 in
. Due di questi si intersecano in un
sottospazio di dimensione 1 (uno di questi è disegnato in blu).
1. se u e v sono elementi di W, allora anche la loro somma u + v è un elemento di W;
2. se u è un elemento di W e λ è uno scalare in K, allora il prodotto λu è un elemento di W.
Queste due condizioni sono equivalenti alla seguente:
Se u e v sono elementi di W, λ e μ sono elementi di K, allora λu + μv è un elemento di W.
Dalla definizione, segue che, per ogni → spazio vettoriale V, gli insiemi {0V} e V sono suoi sottospazi vettoriali,
detti sottospazi impropri, o banali.
Si ottiene facilmente dalla condizione 2) che il vettore nullo 0V appartiene ad ogni sottospazio vettoriale W di V e
costituisce il vettore nullo di W.
Queste proprietà garantiscono che le operazioni di somma e di prodotto per scalare di V siano ben definite anche
quando sono ristrette a W. A questo punto, i 10 assiomi che garantiscono che V sia uno spazio vettoriale valgono
anche per W, e quindi anche W è uno spazio vettoriale.
Si trova facilmente anche che il sottospazio di un sottospazio di uno spazio V è sottospazio di X.
Esempi
Molti esempi di spazi vettoriali si costruiscono come sottospazi di spazi vettoriali standard, quali Kn, le matrici m x
n, o i polinomi a coefficienti in K.
• L'origine da sola forma il sottospazio più piccolo di qualsiasi spazio vettoriale.
• Una retta o un piano passanti per l'origine sono sottospazi di R3.
• Le soluzioni di un sistema lineare omogeneo a coefficienti in K ed in n variabili sono un sottospazio vettoriale di
Kn.
• Le matrici diagonali, le simmetriche e le antisimmetriche formano tre sottospazi dello spazio delle matrici
quadrate n x n.
• Il → nucleo e l'→ immagine di una applicazione lineare f: V → W sono sottospazi rispettivamente di V e di W.
• I polinomi di gradi al più k sono un sottospazio dello spazio K[x] dei polinomi a coefficienti in K con variabile x.
• Se X è un insieme ed x un punto di X, le funzioni da X in K che si annullano in x (cioè le f tali che f(x) = 0)
costituiscono un sottospazio dello spazio Fun(X, K) di tutte le funzioni da X in K. Inoltre le funzioni da X in K
Sottospazio vettoriale
8
che si annullano sia in x che in un secondo punto y di X costituiscono un sottospazio del precedente.
• L'insieme delle funzioni continue Cont(R, R) da R in R fornisce un sottospazio di Fun(R, R), e l'insieme delle
funzioni derivabili Der(R, R) costituisce un sottospazio di Cont(R, R).
Operazioni sui sottospazi
L'intersezione U ∩ W di due sottospazi U e W di V è ancora un sottospazio. Ad esempio, l'intersezione di due piani
distinti in R3 passanti per l'origine è una retta, sempre passante per l'origine.
L'unione U ∪ W invece generalmente non è un sottospazio. U ∪ W è un sottospazio se e solo se U ⊆ W oppure
W ⊆ U. Una composizione di due sottospazi U e W che fornisce un nuovo sottospazio è la cosiddetta somma U + W,
definita come l'insieme di tutti i vettori che sono somma u + w di un vettore u di U e di uno w di W. Ad esempio, la
somma di due rette distinte (sempre passanti per l'origine) in R3 è il piano che le contiene.
La formula di Grassmann mette in relazione le dimensioni dei quattro spazi U, W, U ∩ W e U + W.
L'ortogonale
di uno sottospazio vettoriale W di uno spazio V su cui sia definita una forma bilineare b è
l'insieme dei vettori v tali che b(v,w)=0 per ogni w in V.
Quoziente di uno spazio vettoriale
Se W è un sottospazio vettoriale di V, si può costruire il gruppo quoziente V/W e munirlo a sua volta di una naturale
struttura di spazio vettoriale.
Con precisione, si definisce la relazione di equivalenza v ≈ w se e solo se v - w ∈ N. Una singola classe di equivalenza
è spesso denotata come v + N. Somma e moltiplicazione per scalari sono definiti mediante:
(v + N) + (w + N) = (v + w) + N
λ (v + N) = (λv) + N
Voci correlate
•
•
•
•
•
→ Spazio vettoriale
→ Sottospazio generato
Dimensione
Formula di Grassmann
Applicazione lineare
Bibliografia
• A. Cavicchioli e F. Spaggiari, Primo modulo di geometria, Pitagora Editrice Bologna, 2002, ISBN 8837113560
Sottospazio generato
9
Sottospazio generato
In matematica, e più precisamente in algebra lineare, un sottospazio generato da alcuni vettori è un particolare →
sottospazio vettoriale di uno → spazio vettoriale. Si tratta dell'insieme ottenuto prendendo tutte le combinazioni
lineari di questi vettori, detti generatori.
A volte si usa il termine span lineare.
Definizione
Sia
uno → spazio vettoriale su un campo
da questi vettori è il sottoinsieme di
. Siano
alcuni vettori di
. Il sottospazio generato
formato da tutte le combinazioni lineari di questi vettori. In altre parole:
A volte si usa il termine inglese span lineare (da cui segue la notazione appena usata).
La definizione data può essere estesa facilmente ad una famiglia qualsiasi di vettori
indicizzata da una
che varia in un insieme
di cardinalità arbitraria (finita, numerabile, ...): una combinazione
lineare è semplicemente una combinazione che si serve di un numero finito di questi, ed il sottospazio generato è
sempre definito come l'insieme dei risultati di tali composizioni.
Proprietà
Sottospazio vettoriale
Il sottospazio generato è effettivamente un → sottospazio vettoriale. Infatti ogni combinazione lineare di
combinazioni lineari di dati vettori si può esprimere come una combinazione lineare degli stessi vettori.
Insieme di generatori
Dati un sottospazio
di
ed un insieme di vettori
, si dice che questi vettori sono dei generatori di
se
Sottospazio più piccolo
Il sottospazio generato
è il sottospazio vettoriale più piccolo fra tutti quelli che contengono i vettori
, nel senso che è contenuto
in ciascun sottospazio contenente questi vettori. In altre parole, il sottospazio generato è l'intersezione di tutti i
sottospazi contenenti
. Lo stesso risultato vale per un insieme infinito di vettori.
Sottospazio generato
10
Chiusura
La trasformazione di un insieme di vettori di V nel sottospazio da loro generato, cioè la funzione Span, costituisce un
esempio di funzione di chiusura. Come per tutte queste funzioni di insieme, vale la seguente proprietà di isotonia: se
e sono insiemi di vettori di tali che
, allora
In particolare, se
e
è ottenuto da
aggiungendo un vettore
, il sottospazio generato può restare invariato o diventare più esteso. Come mostra la relazione seguente, il
sottospazio resta invariato se e solo se il vettore
è già contenuto in questo:
Basi e dimensione
Un insieme di vettori è una base del sottospazio che genera se e solo se questi sono linearmente indipendenti. Se i
vettori non sono indipendenti, esiste un loro sottoinsieme formato da vettori indipendenti: un sottoinsieme di questo
tipo può essere trovato tramite l'algoritmo di estrazione di una base.
Da quanto appena detto segue quindi che la dimensione di un sottospazio generato da
proprio se e solo se questi sono indipendenti.
vettori è al più
, ed è
Esempi
Nel piano
In
, i vettori
e
non sono indipendenti. Il loro span quindi ha dimensione minore di due, e infatti è
una retta. Formalmente scriviamo
. I vettori
sono indipendenti, e perciò il loro span è uno spazio di dimensione 2 dentro
solo sé stesso come sottospazio di dimensione
, e perciò
e
invece
: uno spazio di dimensione
ha
.
Nello spazio
In
, i vettori
,
,
sono dipendenti, perché l'ultimo è la differenza dei primi
due. Abbiamo quindi
questi due vettori sono indipendenti, sono una base del loro span che ha dimensione 2, ovvero è un piano.
Voci correlate
• Insieme di generatori
• Combinazione lineare
• Base (algebra lineare)
, e poiché
Teorema del rango
11
Teorema del rango
In matematica, il teorema del rango (detto anche teorema di nullità più rango) dell'algebra lineare, nella sua
forma più semplice, mette in relazione il rango e la → nullità di una matrice con il numero di colonne della matrice.
Nello specifico, se
è una matrice
allora
Nella sua forma più generale, il teorema vale nel contesto delle → trasformazioni lineari fra → spazi vettoriali. Data
una applicazione lineare
fra spazi vettoriali, vale la relazione
dove
e
sono rispettivamente l'→ immagine e il → nucleo di
e
è la dimensione di
.
Il teorema del rango è a volte chiamato teorema della dimensione ed è un risultato fondamentale in algebra lineare.
Enunciato
Sia
un'applicazione lineare fra due spazi vettoriali, entrambi definiti su un campo
dimensione finita
Qui
. Allora anche l'immagine
è il → nucleo di
. Si suppone che
abbia
ha dimensione finita e vale la relazione seguente:
.
Dimostrazione
Poiché
ha dimensione finita, il → sottospazio vettoriale
ha anch'esso dimensione finita. Il nucleo ha
quindi una base
Per il teorema della base incompleta esistono
sia una base di
. Per concludere è sufficiente mostrare che i vettori
formano una base di
I primi
tali che
. L'immagine è generata dai vettori
vettori sono però nulli, quindi l'immagine è generata dagli ultimi
vettori
Resta quindi da verificare che questi vettori siano linearmente indipendenti. Si suppone quindi data una
combinazione lineare nulla
Per linearità si ottiene
.
Quindi
Teorema del rango
12
Poiché questo vettore sta nel nucleo, è esprimibile come combinazione lineare dei vettori
:
In altre parole:
Poiché
è una base di
, tutti i coefficienti qui presenti sono nulli. In particolare,
. Quindi i vettori
per ogni
sono effettivamente indipendenti. L'immagine ha quindi dimensione
. Pertanto
Riformulazioni e generalizzazioni
In linguaggio più moderno, il teorema può essere espresso nel seguente modo: se
0→U→V→R→0
è una successione esatta corta di spazi vettoriali, allora
dim(U) + dim(R) = dim(V)
Qui R gioca il ruolo di im T e U è ker T.
Nel caso finito-dimensionale questa formulazione è suscettibile di generalizzazione: se
0 → V1 → V2 → ... → Vr → 0
è una successione esatta di spazi vettoriali a dimensioni finite, allora
Il teorema del rango per gli spazi vettoriali a dimensioni finite può anche essere formulato in termini degli indici di
una mappa lineare. L'indice di una mappa lineare T : V → W, dove V e W sono a dimensioni finite, è definito da
indice T = dim(ker T) - dim(coker T).
Intuitivamente, dim(ker T) è il numero di soluzioni indipendenti x dell'equazione Tx = 0, e dim(coker T) è il numero
di restrizioni indipendenti che devono essere poste su y per rendere Tx = y risolvibile. Il teorema del rango per gli
spazi vettoriali a dimensioni finite è equivalente all'espressione
index T = dim(V) - dim(W).
Si vede che possiamo facilmente leggere l'indice della mappa lineare T dagli spazi coinvolti, senza la necessità di
esaminare T in dettaglio. Questo effetto si trova anche in un risultato molto più profondo: il teorema dell'indice di
Atiyah-Singer afferma che l'indice di determinati operatori differenziali può essere letto dalla geometria degli spazi
coinvolti.
Bibliografia
• Philippe Ellia, Appunti di Geometria I, Bologna, Pitagora Editrice, 1997, ISBN 88-3710958-X
Nucleo (matematica)
13
Nucleo (matematica)
In algebra lineare, il nucleo di una applicazione
tra gruppi o → spazi vettoriali è l'insieme degli elementi
tali
che
Il nucleo è quindi l'insieme degli elementi che vengono mandati in zero da
dominio di
. Viene spesso indicato come
. Si tratta quindi di un sottoinsieme del
, dall'inglese Kernel.
Il nucleo eredita le stesse proprietà algebriche dello spazio in cui vive, ed è strettamente collegato all'→ immagine di
f: generalmente nucleo e immagine si comportano in maniera complementare, una funzione con nucleo "grande" ha
immagine "piccola" e viceversa.
Poiché una matrice definisce una applicazione lineare tramite prodotto riga per colonna, si parla di nucleo (o spazio
nullo) di una matrice
come dell'insieme dei vettori tali che
Definizione
Omomorfismi
Il nucleo di un → omomorfismo di gruppi
è il sottoinsieme di X costituito dai punti che vengono portati dalla funzione nell'elemento neutro di Y. Ovvero
Il nucleo è indicato generalmente con il simbolo "Ker", abbreviazione del termine inglese Kernel.
In altre parole, il nucleo è l'insieme dei punti che vengono annullati dalla funzione. Il nucleo è sempre un
sottogruppo di X, in particolare contiene sempre l'elemento neutro di X.
Nel caso in cui X sia uno → spazio vettoriale (che è un gruppo rispetto all'addizione) e f sia una applicazione lineare
(quindi un → omomorfismo tra i rispettivi gruppi additivi) il nucleo Ker(f) è un → sottospazio vettoriale di X (oltre
ad esserne un sottogruppo).
Matrici
Sia
una matrice di tipo
con elementi in un campo
. Il nucleo di
è l'insieme dei vettori
tali che
Questa definizione è coerente con la precedente: infatti la matrice definisce una applicazione lineare
ed il nucleo di
Il nucleo di
così definito è proprio il nucleo di
è un → sottospazio vettoriale di
. In altre parole,
, la cui dimensione è chiamata la nullità di A.
in
Nucleo (matematica)
14
Esempi
Matrici
Data la matrice
dove
è un qualsiasi numero reale, il nucleo di
è l'insieme di vettori:
Proprietà
Gruppi
Il nucleo di un omomorfismo di gruppi
è un sottogruppo normale. Il gruppo quoziente
è quindi ben definito. Per il primo teorema di isomorfismo, questo gruppo è naturalmente isomorfo all'immagine di
.
D'altra parte, ogni sottogruppo normale
di un gruppo
è nucleo di una applicazione lineare. L'applicazione è la
proiezione sul sottogruppo quoziente:
Iniettività
Sia
un → omomorfismo (o applicazione lineare) fra gruppi (o spazi vettoriali). Vale la proprietà seguente.
La funzione
è iniettiva se e solo se il suo nucleo è costituito soltanto dall'elemento neutro.
L'ipotesi di linearità per
è qui essenziale. Poiché
, l'iniettività di
implica chiaramente che il nucleo
consiste del solo elemento neutro 0. L'implicazione opposta è però meno immediata. Si suppone per ipotesi che il
nucleo di
consista del solo elemento neutro 0. Se
allora per linearità
e quindi
per ipotesi. In altre parole
: la funzione è effettivamente iniettiva.
Nucleo (matematica)
15
Teorema del rango
Se
è una applicazione fra spazi vettoriali
le dimensioni del nucleo e dell'→ immagine di
sono collegate tramite la seguente uguaglianza
Matrice
La nullità di una matrice
può essere calcolata facendo uso della formula appena descritta. In questo contesto la
formula si traduce nel modo seguente:
Nell'equazione,
è il numero di colonne di
, null
è l'indice di nullità e rk
è il rango di
. Il calcolo
della nullità si riduce quindi al calcolo del rango, per il quale esistono vari algoritmi. I metodi più noti fanno uso del
determinante o dell'algoritmo di Gauss.
Generalizzazioni
Teoria degli insiemi
Nell'ambito più generale di teoria degli insiemi, il nucleo di una funzione dall'insieme X all'insieme Y è definito
alternativamente come la relazione d'equivalenza che lega gli elementi caratterizzati dalla stessa immagine o come la
partizione che tale relazione genera in X.
Nei due casi, viene dunque definito simbolicamente da
e da
L'insieme quoziente X/ker f (detto anche coimmagine di f) è naturalmente → isomorfo all'→ immagine di f. La
funzione risulta iniettiva se e solo se tale nucleo è la "diagonale" in
. Immergendosi in morfismi tra
strutture algebriche, la definizione risulta coerente con quella data sopra.
Voci correlate
•
•
•
•
•
→ Omomorfismo
Nullità
Rango di una matrice
→ Teorema del rango
Funzione iniettiva
Immagine (matematica)
16
Immagine (matematica)
Data una funzione f : A → B, si definisce
immagine di A tramite f, o, tout court,
immagine di f il sottoinsieme di B così
definito:
Immagine (insieme tratteggiato) all'interno del codominio
ove l'uguaglianza con B sussiste se e solo se la funzione f è suriettiva.
Si tratta, quindi, di quegli elementi b di B per i quali esiste un elemento di A che venga portato in B da f.
Notare che nello scrivere f(A) si è attuato un leggero abuso di notazione, in quanto f è una trasformazione che agisce
sugli elementi di A, non su A stesso. Tale uso è però talmente diffuso che sarebbe inutile provare a combatterlo. Altre
notazioni, che non provocano alcun imbarazzo formale e che trovano comunque un certo seguito, sono:
e Più in generale, se A1 ⊆ A è un sottoinsieme del dominio A si chiama immagine di A1 tramite f l'insieme:
Se a ∈ A, si chiama immagine di a tramite f l'unico elemento f(a) ∈ B associato ad a da f.
Proprietà
Considerata una funzione f : A → B, valgono le seguenti proprietà:
•
• Se
allora
• L'immagine dell'unione di due insiemi è l'unione delle due immagini. In simboli:
• In generale:
• L'immagine dell'intersezione di due insiemi è contenuta nell'intersezione delle due immagini. In simboli:
e l'uguaglianza vale se e solo se la funzione f è iniettiva.
Immagine (matematica)
17
• In generale:
• L'immagine della differenza di due insiemi contiene la differenza delle due immagini. In simboli:
e l'uguaglianza vale se e solo se
Metodi di calcolo
È un esercizio utile e proposto regolarmente nelle scuole quello, data una funzione, di identificare la sua immagine.
Per fare questo, se non si è in grado di farlo a priori (ad esempio, è noto senza fare alcun calcolo che la funzione
ha come immagine tutta la semiretta positiva delle ordinate
, compreso lo zero), ci sono due metodi: o, con gli
strumenti dell'analisi matematica, si identificano gli intervalli di monotonia e i massimi e i minimi, o, con calcoli
puramente algebrici, si esplicita la in funzione della , trovando in pratica la funzione inversa; ad esempio, se
allora la sua inversa si ottiene mediante:
Visto che nei vari passaggi si è applicato prima un logaritmo e poi una radice quadrata, si ottengono delle restrizioni,
le uniche, per la , precisamente
e L'intersezione di queste due condizioni dà
l'immagine, poiché i valori di
risultanti possiedono, per costruzione, un valore di partenza (dato dall'espressione
trovata); in questo caso, dunque, l'immagine è
Bibliografia
• Marco Abate e Chiara de Fabritiis, Geometria analitica con elementi di algebra lineare. Milano, McGraw-Hill,
2006. ISBN 8838662894.
Voci correlate
• Controimmagine
• Funzione iniettiva
•
•
•
•
•
Funzione suriettiva
Studio di funzione
Immersione
Insieme vuoto
→ Nucleo
Trasformazione lineare
18
Trasformazione lineare
In matematica, più precisamente in algebra lineare, una trasformazione lineare (chiamata anche applicazione
lineare o mappa lineare) è una funzione tra due → spazi vettoriali che preserva la forma delle operazioni di somma
di vettori e di moltiplicazione per scalare. In altre parole, preserva le combinazioni lineari, cioè le composizioni che
caratterizzano la specie di struttura spazio vettoriale; quindi nel linguaggio dell'algebra astratta, una trasformazione
lineare è un → omomorfismo di spazi vettoriali, in quanto conserva la forma di ogni istanza dell'operazione che
caratterizza gli spazi vettoriali.
Definizione e prime conseguenze
Siano
e
due spazi vettoriali sullo stesso campo
. Una funzione
è una trasformazione
lineare se soddisfa le seguenti proprietà
•
•
(linearità)
(omogeneità di grado 1)
per ogni coppia di vettori
Equivalentemente,
e
in
e per ogni scalare
e
.
è lineare se "preserva le combinazioni lineari", ovvero se
per ogni intero positivo m e ogni scelta dei vettori
Quando
in
e degli scalari
.
possono essere considerati come spazi vettoriali su differenti campi (ad esempio sul campo dei
reali e sul campo dei complessi), è importante evitare ogni ambiguità e specificare quale campo è stato utilizzato
nella definizione di "lineare". Se si fa riferimento al campo K si parla di mappe
-lineari.
Se
è una applicazione lineare e
e togliendo
e
sono i vettori nulli di
e
rispettivamente, allora
da ambo i membri si ottiene
.
Esempi
• La moltiplicazione per una costante fissata
in
è una trasformazione lineare su qualsiasi spazio vettoriale su
.
• Una rotazione del piano euclideo rispetto all'origine di un angolo fissato.
• Una riflessione del piano euclideo rispetto ad una retta passante per l'origine.
• La proiezione di uno spazio vettoriale V decomposto in somma diretta
su uno dei due → sottospazi U o W.
• Una matrice
di tipo
con valori reali definisce una trasformazione lineare
dove
è il prodotto di
e
. Ogni trasformazione lineare tra spazi vettoriali di dimensione finita è
essenzialmente di questo tipo: si veda la sezione seguente.
• L'integrale di una funzione reale su un intervallo definisce una mappa lineare dallo spazio vettoriale delle funzioni
continue definite sull'intervallo nello spazio vettoriale R.
Trasformazione lineare
19
• La derivata definisce una mappa lineare dallo spazio vettoriale di tutte le funzioni derivabili in qualche intervallo
aperto di R nello spazio di tutte le funzioni.
• Lo spazio C dei numeri complessi ha una struttura di spazio vettoriale complesso di dimensione 1, e anche di
spazio vettoriale reale di dimensione 2. La coniugazione
è una mappa R-lineare ma non C-lineare: infatti la proprietà di omogeneità vale solo per scalari reali.
Matrice associata
Siano
e
due spazi vettoriali di dimensione finita. Scelte due basi
trasformazione lineare da
a
e
per
e
, ogni
è rappresentabile come una matrice nel modo seguente.
Scriviamo nel dettaglio le basi
Ogni vettore
in
Se
è univocamente determinato dalle sue coordinate
, definite in modo che
è una trasformazione lineare,
Quindi la funzione
è determinata dai vettori
Quindi la funzione
è interamente determinata dai valori di
e
Ciascuno di questi è scrivibile come
, che formano la matrice associata a
nelle basi
.
La matrice associata
è di tipo
, e può essere usata agevolmente per calcolare l'immagine
vettore di
grazie alla relazione seguente:
dove
e
sono le coordinate di
e
di ogni
nelle rispettive basi.
Notiamo che la scelta delle basi è essenziale: la stessa matrice, usata su basi diverse, può rappresentare applicazioni
lineari diverse.
Struttura di spazio vettoriale
• La composizione di trasformazioni lineari è anch'essa una trasformazione lineare: se
e
sono applicazioni lineari, allora lo è anche
• Se
e
sono lineari, allora lo è la loro somma
• Se
è lineare e
è un elemento del campo
, definita dalla relazione
, allora la mappa
, definita da
, è anch'essa lineare.
Le proprietà precedenti implicano che l'insieme Hom(
,
) delle applicazioni lineari da
sottospazio vettoriale dello spazio vettoriale formato da tutte le funzioni da
in
in
è un →
.
Nel caso finito-dimensionale, dopo aver fissato delle basi, composizione, somma e prodotto per scalare di mappe
lineari corrispondono rispettivamente a moltiplicazione di matrici, somma di matrici e moltiplicazione di matrici per
scalare. In altre parole, le basi definiscono un → isomorfismo
Trasformazione lineare
20
tra gli spazi vettoriali delle applicazioni lineari e delle matrici
rispettivamente di
e
, dove
e
sono le dimensioni
.
Nucleo e immagine
Se
è lineare, si definisce il → nucleo (in inglese kernel) e l'→ immagine di
ker(
) è un → sottospazio di
e im(
) è un sottospazio di
. Se
e
come
hanno dimensione finita, il →
teorema della dimensione asserisce che:
Isomorfismi
Se V e W sono due spazi vettoriali su K. Un isomorfismo di V con W è una applicazione lineare biunivoca f: V→W.
Conseguenza immediata di questa definizione è che f è isomorfismo se e solo se Kerf = 0V e Imf= W.
Endomorfismi e automorfismi
Una trasformazione lineare
è un endomorfismo di
. L'insieme di tutti gli endomorfismi Endo(
)
insieme a addizione, composizione e moltiplicazione per uno scalare come descritti sopra formano un'algebra
associativa con unità sul campo
: in particolare formano un anello e un → spazio vettoriale su
. L'elemento
identità di questa algebra è la trasformazione identità di
Un endomorfismo biiettivo di
.
viene chiamato automorfismo di
nuovo un automorfismo, e l'insieme di tutti gli automorfismi di
, chiamato Aut(
) o GL(
Se la dimensione di
; la composizione di due automorfismi è di
forma un gruppo, il gruppo generale lineare di
).
è finita basterà che f sia iniettiva per poter affermare che sia anche suriettiva (per il teorema
della dimensione). Inoltre l'isomorfismo
fra gli endomorfismi e le matrici quadrate
automorfismi di
in
descritto sopra è un isomorfismo di algebre. Il gruppo degli
è isomorfo al gruppo lineare generale GL(
,
) di tutte le matrici
invertibili a valori
.
Pull-Back di funzioni ed applicazione trasposta
Siano A,B,C degli insiemi ed F ( A, C ), F ( B, C ) le famiglie di funzioni da A in C e da B in C rispettivamente. Ogni
φ: A → B determina univocamente una corrispondenza φ*: F ( B, C ) → F ( A, C ), chiamata pull-back tramite φ,
che manda f in f φ.
Se nello specifico prendiamo A = V, B = W due → spazi vettoriali su campo k = C, e anzich'è prendere gli interi F (
V, k ), F ( W, k ) ci restringiamo agli spazi duali V* e W*, abbiamo che ad ogni trasformazione lineare φ : V → W
possiamo associare l'opportuna restrizione del pull-back tramite φ, φ*: W* → V*, che prende il nome di trasposta di
φ.
Seque direttamente da come sono definite le operazioni in V* e W* che φ* è a sua volta lineare. Con un semplice
calcolo si vede che fissate delle basi per V e W, e le rispettive duali in V*, W*, la matrice che rappresenta φ* è la
trasposta di quella di φ (o, se rappresentiamo i funzionali come matrici riga e quindi viene tutto trasposto, le due
matrici sono uguali).
Trasformazione lineare
21
Segue dalla definizione che un funzionale w* ∈ W* viene mandato a 0 se e solo se l'immagine di φ è contenuta nel
→ nucleo di w* cioè, indicando con U⊥ il sottospazio dei funzionali che annullano U ⊂ W, si ha ker φ* = (im φ)⊥.
Generalizzazioni
Le trasformazioni lineari possono essere definite anche per i moduli, strutture della specie che generalizza quella di
spazio vettoriale.
Voci correlate
•
•
•
•
•
•
→ Matrice di trasformazione
→ Autovettore e autovalore
Trasformazione affine
Funzionale lineare
Operatore lineare continuo
(EN) wikibooks:Linear_Algebra/Linear_Transformations
Collegamenti esterni
• (EN) http://www.falstad.com/matrix/
Matrice di trasformazione
In matematica, e più precisamente in algebra lineare, per matrice di trasformazione o matrice associata ad una
trasformazione si intende una matrice che rappresenta una → trasformazione lineare fra → spazi vettoriali. Per
definire una matrice di trasformazione è necessario scegliere una base per ciascuno degli spazi.
Fissata una base per il dominio e una per il codominio, ogni trasformazione lineare è descrivibile agevolmente
tramite una matrice
nel modo seguente:
dove
è il vettore colonna delle coordinate di un punto del dominio rispetto alla base del dominio e
colonna delle coordinate dell'immagine e il prodotto
è il vettore
è il prodotto righe per colonne.
Definizione
Siano
e
due spazi vettoriali su un campo
di dimensione finita, e
una applicazione lineare. Siano infine
due basi rispettivamente per
La matrice associata a
del vettore
e
nelle basi
rispetto alla base
In altre parole, la matrice associata è
dove
.
e
.
è la matrice
avente nella
-esima colonna le coordinate
Matrice di trasformazione
è l'immagine
arrivo
dell'
22
-esimo vettore della base di partenza
. Qui si usa la notazione
, letta però in coordinate rispetto alla base di
per indicare le coordinate di
rispetto alla base scelta.
Proprietà
Le rappresentazioni di vettori e trasformazioni mediante vettori colonna e matrici consentono di effettuare
sistematicamente molte operazioni su queste entità mediante operazioni numeriche che, tra l'altro, possono essere
demandate abbastanza facilmente al computer. Ad esempio, le immagini di singoli vettori e le composizioni di
trasformazioni vengono rappresentate mediante prodotti fra matrici.
Immagine di un vettore
Tramite la matrice associata
matrice-vettore. Indicando
è possibile calcolare l'immagine di un qualsiasi vettore
e
le coordinate dei vettori
in
e
in
facendo uso del prodotto
, rispettivamente alle basi
e
, si ottiene
Il prodotto
tra la matrice
ed il vettore
è l'usuale prodotto di una matrice per un vettore colonna. La
relazione permette di tradurre trasformazioni lineari in matrici e vettori in vettori numerici di
. Fattore
essenziale di questa traduzione è la scelta di basi: scelte diverse portano a matrici e vettori diversi.
Composizione di applicazioni lineari
Nella rappresentazione di applicazioni come matrici, la composizione si traduce nell'usuale prodotto fra matrici. In
verità il prodotto riga-per-colonna tra matrici è così definito proprio per rappresentare le composizioni di funzioni.
In altre parole, in presenza di due applicazioni lineari
e dopo aver scelto delle basi
per i tre spazi, vale la relazione
ovvero la matrice associata alla composizione è il prodotto delle matrici associate a
ea
.
Da matrici a applicazioni
Ogni applicazione può essere descritta come matrice. D'altra parte, una matrice
descrive una applicazione lineare
nel modo seguente:
In altre parole, l'immagine
è il vettore di
le cui coordinate sono date da
.
La corrispondenza biunivoca così definita fra applicazioni lineari e matrici è in realtà un → isomorfismo
fra gli spazi vettoriali delle applicazioni lineari da
in
e delle matrici
fortemente dalle basi scelte inizialmente per entrambi gli spazi.
. Tale isomorfismo dipende
Matrice di trasformazione
23
Endomorfismi
In presenza di un endomorfismo
è naturale scegliere la stessa base
arrivo. La matrice associata
in partenza ed in
è una matrice quadrata
. Molte proprietà dell'endomorfismo possono
essere più agevolmente lette sulla matrice. Ad esempio:
•
è l'identità se e solo se
è la matrice identica.
•
è la funzione costantemente nulla se e solo se
è la matrice nulla.
•
è un → isomorfismo se e solo se
è
invertibile, ovvero se ha determinante
diverso da zero.
•
preserva l'orientazione dello spazio se
Endomorfismo rappresentato da una matrice. Il determinante della
matrice è -1: questo implica che l'endomorfismo è invertibile e
inverte l'orientazione del piano. L'angolo orientato infatti viene
mandato nell'angolo con orientazione opposta.
. La inverte se
L'invertibilità di una matrice è verificata usando il determinante. Altre proprietà più complesse come la →
diagonalizzabilità possono essere più facilmente studiate sulle matrici.
Esempi
• Nel piano cartesiano, indicando con (x, y) un punto generico, la trasformazione lineare T(x, y) = (x, y) viene
rappresentata rispetto ad una qualsiasi base dalla matrice identità di ordine 2. Una tale trasformazione è
conosciuta anche come funzione identità.
• Nel piano cartesiano, sia T la riflessione rispetto alla bisettrice del I e III quadrante. Le matrici associate a T
usando rispettivamente la base canonica e la base B = ((1, 1), (1, -1)) sono::
• Nel piano la rotazione di un angolo θ in senso antiorario intorno all'origine è lineare e definita da
e
. In forma matriciale si esprime con:
Analogamente per una rotazione in senso orario attorno all'origine la funzione è definita da
e
ed in forma matriciale è:
• La funzione T: R2[x] → R2[x] dallo spazio dei polinomi di grado al più due in sé, che associa ad un polinomio p
la sua derivata T(p) = p' è lineare. La matrice associata rispetto alla base B = (1, x, x2) è:
Matrice di trasformazione
24
Voci correlate
•
•
•
•
Glossario sulle matrici
Algebra lineare
Coordinate di un vettore
Matrice di cambiamento di base
Spazio di Hilbert
In matematica uno spazio di Hilbert è uno → spazio vettoriale che generalizza la nozione di spazio euclideo.
Gli spazi di Hilbert sono stati introdotti dal celebre matematico David Hilbert all'inizio del XX secolo, ed hanno
fornito un enorme contributo allo sviluppo dell'analisi funzionale ed armonica. L'interesse della nozione introdotta da
Hilbert risiede nel fatto che essa evidenzia la conservazione di alcune proprietà degli spazi euclidei in spazi di
funzioni infinito dimensionali. Grazie agli spazi di Hilbert è possibile formalizzare la teoria delle serie di Fourier e
generalizzarla a basi arbitrarie. Inoltre, il loro ruolo è cruciale nella formalizzazione matematica della meccanica
quantistica.
Euristicamente, uno spazio di Hilbert è un insieme con una struttura lineare (→ spazio vettoriale), su cui è definito
un prodotto scalare (in particolare, quindi, è possibile parlare di distanze, angoli, ortogonalità), e tale che sia
garantita la completezza (ossia, che non vi siano dei comportamenti patologici nel processo di passaggio al limite).
Nelle applicazioni, gli elementi di uno spazio di Hilbert (vettori) sono spesso successioni di numeri complessi o
funzioni.
In meccanica quantistica uno stato fisico può essere rappresentato da un elemento (vettore o ket) o da una opportuna
combinazione lineare di elementi dello spazio di Hilbert. Lo stato fisico contiene informazioni le quali possono
essere esplicitate proiettando il ket di stato su un autostato di una osservabile. Tale operazione genera un elemento il
quale appartiene ad un nuovo spazio vettoriale di Hilbert (detto duale) e tale elemento è chiamato funzione d'onda.
Nello spazio di Hilbert dei ket a volte si considerano gli spazi di Hilbert allargati, che consentono di formalizzare sia
stati liberi che stati legati.
Storia
Gli spazi di Hilbert sono stati introdotti da David Hilbert nell'ambito delle equazioni integrali[1] . John von Neumann
fu il primo ad utilizzare la denominazione der abstrakte Hilbertsche Raum (lo spazio di Hilbert astratto) nel suo
celebre lavoro sugli operatori hermitiani non limitati del 1929[2] . Allo stesso von Neumann si deve la comprensione
dell'importanza di questa struttura matematica, che egli utilizzò ampiamente nel suo approccio rigoroso alla
meccanica quantistica[3] . Ben presto il nome spazio di Hilbert divenne di largo uso nella matematica[4] .
Definizione
Preliminari
Un prodotto scalare definito positivo definisce una norma, che definisce a sua volta una distanza: si dimostrano
infatti facilmente i fatti seguenti.
• Se
è uno → spazio vettoriale sul campo reale o complesso, e
una forma hermitiana) definito positivo su
, allora è naturalmente definita una norma
ponendo:
, per ogni vettore
un prodotto scalare (nel caso complesso,
;
sullo stesso spazio
Spazio di Hilbert
25
Con questa norma lo spazio ha la struttura di spazio normato.
• A uno spazio normato
è associata una naturale struttura metrica, ottenuta definendo la distanza
come:
per ogni
.
Secondo la usuale indentificazione di uno spazio vettoriale con uno spazio affine costruito prendendo come punti
i vettori stessi, si pone come distanza tra due vettori la norma della loro differenza. Nel caso in cui la norma derivi
da un prodotto scalare, vale dunque la seguente uguaglianza:
.
Definizione matematica
Uno spazio di Hilbert è una coppia
prodotto scalare (o una forma hermitiana) su
metrico
dove
è uno spazio vettoriale reale o complesso[5] e
, tale che, detta
la distanza da esso indotta su
è un
, lo spazio
sia completo.
Altre definizioni
La presenza di un prodotto scalare dà modo di definire in generale alcune nozioni che qui richiamiamo brevemente
nell'ambito degli spazi di Hilbert[6] .
• Dati due vettori
possiamo definire l'angolo
da essi formato mediante la relazione:
.
• Coerentemente con la precedente definizione di angolo, dato un insieme qualsiasi
complemento ortogonale di
In particolare, due vettori
si definisce il
come il → sottospazio:
e
.
si diranno ortogonali se
, ossia se l'uno è nel complemento
ortogonale dell'altro; inoltre, una famiglia di vettori si dirà ortonormale se i vettori che la compongono sono a
due a due ortogonali ed hanno norma 1.
• Dati due vettori
, si definisce la componente di
su
lungo
lo scalare
, e la proiezione di
il vettore
.
Esempi
Spazi di Hilbert di dimensione finita
• Lo spazio vettoriale
dei vettori di numeri reali:
con il prodotto scalare euclideo:
è uno spazio di Hilbert reale di dimensione finita , detto spazio euclideo
• Lo spazio vettoriale
dei vettori di numeri complessi:
dotato della forma hermitiana standard
-dimensionale.
Spazio di Hilbert
26
è uno spazio di Hilbert complesso di dimensione finita
.
Successioni a quadrato sommabile l2
Lo spazio delle successioni di numeri reali a quadrato sommabile:
dotato del prodotto scalare
è uno spazio di Hilbert separabile di dimensione infinita.
Lo stesso vale per l'analogo complesso:
dotato del prodotto hermitiano
.
Lo spazio L2
Lo spazio
delle funzioni misurabili
su un aperto
, a valori complessi e di quadrato sommabile
è uno spazio vettoriale complesso, e la forma
è hermitiana. Tale spazio non è però di Hilbert, poiché la forma hermitiana è solo semi-definita positiva: esistono
infatti funzioni non nulle, ma tali che
è nullo. Ad esempio una funzione che vale 1 su un punto fissato di
, e 0 in tutti gli altri punti di
ha questa proprietà (più in generale, l'integrale di una funzione che vale 0 fuori
di un insieme di misura nulla ha integrale nullo).
Per ovviare a questo problema, si definisce lo spazio come quoziente di
tramite la relazione di equivalenza che
identifica due funzioni misurabili se differiscono solo su un insieme di misura nulla. La proiezione della forma
hermitiana
su questo spazio è definita positiva, e la struttura che ne risulta è uno spazio di Hilbert, che viene
indicato con
.
Spazio di Hilbert
27
Spazi di Sobolev
Gli elementi di
non sono, in generale, funzioni continue. Per questo motivo non è possibile definirne
direttamente la derivata, che deve essere definita quindi in maniera diversa. Lo spazio delle funzioni derivabili
debolmente k volte viene indicato tramite
. Di questi tipi di spazi si occupa la teoria degli spazi di Sobolev.
Prime proprietà degli spazi di Hilbert
Le proprietà seguenti, valide per gli spazi euclidei, si estendono anche agli spazi di Hilbert.
• Vale la disuguaglianza di Cauchy-Schwarz:
• La norma indotta dal prodotto scalare soddisfa l'identità del parallelogramma:
• Vale il teorema di Pitagora (sotto il nome di identità di Parseval): se
è una successione di vettori a due a
due ortogonali, allora:
• Vale l'identità di polarizzazione:
• Vale la disuguaglianza di Bessel: se
è un insieme numerabile di vettori ortonormali allora per ogni
vale:
.
• Ogni spazio di Hilbert è naturalmente uno spazio di Banach. Viceversa, uno spazio di Banach è anche di Hilbert
se e solo se la sua norma è indotta da un prodotto scalare, o equivalentemente se esso è autoduale (ossia, se esso
si può identificare con il suo spazio duale).
• Ogni spazio di Hilbert ha una base ortonormale, detta solitamente base hilbertiana. Una tale base è un insieme di
vettori ortonormali, che generano un sottospazio denso in
.
Spazi di Hilbert separabili
Ricordiamo che uno spazio topologico è detto separabile se contiene un sottoinsieme denso e numerabile. Gli spazi
di Hilbert finito dimensionali sono sempre separabili. Nel caso infinito dimensionale, invece, ci sono sia esempi di
spazi separabili che non separabili. I primi sono di grande interesse nelle applicazioni, e su di essi si è costruita una
teoria piuttosto ricca. Potremmo dire che, tra gli spazi infinito dimensionali, gli spazi di Hilbert separabili sono quelli
che più assomigliano agli spazi finito dimensionali, e sono pertanto più facili da studiare.
Spazio di Hilbert
28
Proprietà di base
Uno spazio di Hilbert
ha
elementi allora
è isomorfo allo spazio
è separabile se e solo se ha una base ortonormale
è → isomorfo a
oppure
. Se
di cardinalità finita o numerabile. Se
ha un'infinita numerabile di elementi allora
descritto sopra.
Una base ortonormale è ottenuta applicando l'algoritmo di Gram-Schmidt ad un insieme denso numerabile.
Viceversa, il sottospazio generato da una base ortonormale è un insieme denso nello spazio di Hilbert.
In conclusione, in uno spazio di Hilbert provvisto di una base hilbertiana
numerabile è possibile esprimere
ogni vettore, norma o prodotto scalare come somma di una serie convergente:
Applicazioni in meccanica quantistica
Dualità negli spazi di Hilbert
Voci correlate
•
•
•
•
•
•
•
•
•
Spazio prehilbertiano
Spazio di Banach
Spazio vettoriale topologico
Prodotto scalare
Forma hermitiana
Spazio duale
Operatore
Operatore hermitiano
Meccanica quantistica
Bibliografia
• Carl B. Boyer, History of Mathematics, 2nd edition, New York, John Wiley & Sons, 1989. ISBN 0-471-54397-7
• Jean Dieudonné, Foundations of Modern Analysis, Academic Press, 1960.
• Avner Friedman, Foundations of Modern Analysis, New York, Courier Dover Publications, 1982. ISBN
0-48664-062-0
• von Neumann, John (1929) Allgemeine Eigenwerttheorie Hermitescher Funktionaloperatoren . Mathematische
Annalen 102: 49-131.
• Hermann Weyl, Dover Press (a cura di) The Theory of Groups and Quantum Mechanics, , 1950. ISBN
0-486-60269-9
Spazio di Hilbert
29
Riferimenti
[1] Per un'introduzione storica più dettagliata al contesto intellettuale in cui sono nate le idee che hanno dato vita allo studio degli spazi di
Hilbert, si veda Boyer History of Mathematics cap. 27 e 28.
[2] von Neumann J. Allgemeine Eigenwerttheorie Hermitescher Funktionaloperatoren.
[3] Nell'approccio di von Neumann, la meccanica quantistica viene studiata mediante C*-algebre. Tuttavia ogni C*-algebra è una sottoalgebra
dell'algebra degli operatori limitati su di uno spazio di Hilbert. Di qui l'importanza di tali spazi in questo contesto. È interessante notare che
questo approccio alla meccanica quantistica è stato iniziato da von Neumann proprio insieme ad Hilbert.
[4] Dopo von Neumann, uno dei primi usi documentati del nome spazio di Hilbert si trova in Weyl, The Theory of Groups and Quantum
Mechanics.
[5] Per semplicità, omettiamo nella definizione la presenza delle operazioni di somma e moltiplicazione per scalari proprie di uno spazio
vettoriale, ed identifichiamo H con l'insieme stesso su cui lo spazio vettoriale è costruito. Si veda la voce spazio vettoriale per ulteriori
chiarimenti.
[6] Nella voce prodotto scalare questi concetti sono trattati più approfonditamente.
Teorema spettrale
In matematica, in particolare nell'algebra lineare e nell'analisi funzionale, il teorema spettrale si riferisce a una serie
di risultati relativi agli operatori lineari oppure alle matrici. In termini generali il teorema spettrale fornisce
condizioni sotto le quali un operatore o una matrice possono essere diagonalizzati, cioè rappresentati da una matrice
diagonale in una certa base.
In dimensione finita, il teorema spettrale asserisce che ogni endomorfismo simmetrico di uno spazio vettoriale reale
dotato di un prodotto scalare definito positivo ha una base ortonormale formata da autovettori. Equivalentemente,
ogni matrice simmetrica reale è simile ad una matrice diagonale tramite una matrice ortogonale.
In dimensione infinita, il teorema spettrale assume forme diverse a seconda del tipo di operatori cui si applica. Ad
esempio, esiste una versione per → operatori autoaggiunti in uno → spazio di Hilbert.
Il teorema spettrale fornisce anche una decomposizione canonica, chiamata decomposizione spettrale, dello spazio
vettoriale.
In dimensione finita
Caso reale
Sia T un endomorfismo simmetrico su uno spazio vettoriale reale V di dimensione n, dotato di un prodotto scalare
definito positivo. La condizione di simmetria dice che
per ogni
in
. Il teorema spettrale asserisce che
Esiste una base ortonormale di V fatta di autovettori per T.
In particolare, l'endomorfismo T è → diagonalizzabile. Una versione equivalente del teorema, enunciata con le
matrici, è la seguente.
Ogni matrice simmetrica è simile ad una matrice diagonale tramite una matrice ortogonale.
In altre parole, per ogni matrice simmetrica S esistono una matrice ortogonale M (cioè tale che MtM = I) ed una
diagonale D per cui
In particolare, gli autovalori di una matrice simmetrica sono tutti reali.
Teorema spettrale
Caso complesso
Sia T un operatore hermitiano su uno spazio vettoriale complesso V di dimensione n, dotato di un prodotto
hermitiano (cioè di una forma hermitiana definita positiva). Il teorema spettrale complesso asserisce che
Esiste una base ortonormale di V fatta di autovettori per T. Gli autovalori di T sono tutti reali.
In particolare, l'endomorfismo T è → diagonalizzabile. Analogamente, con le matrici otteniamo
Ogni matrice hermitiana è simile ad una matrice diagonale reale tramite una matrice unitaria.
In altre parole, per ogni matrice hermitiana H esistono una matrice unitaria U ed una diagonale reale D per cui
In particolare, gli autovalori di una matrice hermitiana sono tutti reali.
Dimostrazione nel caso complesso
Per prima cosa dimostriamo che tutti gli autovalori di T sono reali. Sia x un autovettore per T, con autovalore λ.
Abbiamo
Segue che λ è uguale al suo coniugato e quindi è reale.
Per provare l'esistenza di una base di autovettori, usiamo l'induzione sulla dimensione di V. Poiché C è
algebricamente chiuso, il → polinomio caratteristico di T ha almeno una radice: quindi T ha almeno un autovalore e
quindi un autovettore v. Lo spazio
formato dai vettori ortogonali a v ha dimensione n-1. L'endomorfismo T manda W in sé, poiché:
Inoltre T, considerato come endomorfismo di W è ancora simmetrico. Si procede quindi per induzione sulla
dimensione n, dimostrando il teorema.
Decomposizione spettrale
Ricordiamo che l'autospazio relativo all'autovalore λ è il sottospazio
Come immediata conseguenza del teorema spettrale otteniamo (sia nel caso reale che complesso) il teorema di
decomposizione spettrale:
Gli autospazi di T sono ortogonali, e sono in somma diretta
Equivalentemente, se Pλ è la proiezione ortogonale su Vλ
30
Teorema spettrale
Operatori normali
Il teorema spettrale vale anche per gli operatori normali. Gli autovalori in questo caso sono numeri complessi in
generale. La dimostrazione di questo caso è più complicata. Come sopra, per ogni matrice normale A esistono una
matrice unitaria U ed una matrice diagonale D tali che
In questo caso però la matrice D non è necessariamente reale. Inoltre, ogni matrice che si diagonalizza in questo
modo deve essere normale. I vettori colonna di U sono gli autovettori di A e sono ortogonali.
Altre decomposizioni
La decomposizione spettrale è un caso particolare della decomposizione di Schur. È anche un caso particolare della
decomposizione ai valori singolari.
In dimensione infinita
In dimensione infinita, ovvero negli → spazi di Hilbert, l'enunciato del teorema spettrale per → operatori
autoaggiunti compatti è essenzialmente lo stesso del caso finito-dimensionale, sia nel caso reale che complesso.
Sia A un → operatore autoaggiunto e compatto su uno → spazio di Hilbert V. Esiste una base ortonormale di V
formata da autovettori di A. Ogni autovalore è reale.
Nella dimostrazione, il punto cruciale è mostrare l'esistenza di almeno un autovettore. Non è possibile affidarsi ai
determinanti per mostrare l'esistenza degli autovalori, e quindi si ricorre a un argomento di massimizzazione analogo
alla dimostrazione del teorema min-max.
Operatori limitati
La generalizzazione che consideriamo ora è quella ad un → operatore autoaggiunto limitato T su uno spazio di
Hilbert V. In contrasto con gli operatori compatti, che ricalcano molto il caso finito-dimensionale, questi si
comportano in modo molto diverso: possono non avere autovalori, neppure nel caso complesso. Ad esempio, è facile
vedere che l'operatore S su L2[0, 1] definito come
è continuo e non ha autovalori. Il teorema spettrale assume quindi una forma differente.
Sia T un operatore autoaggiunto limitato su uno spazio di Hilbert V. Esiste uno spazio di misura (X, M, μ), una
funzione misurabile a valori reali f su X e un operatore unitario U:H → L2μ(X) tali che
dove S è l'operatore di moltiplicazione:
Questo risultato è l'inizio di una vasta area di ricerca dell'analisi funzionale chiamata teoria degli operatori.
31
Teorema spettrale
Operatori normali
Un operatore normale su uno → spazio di Hilbert può non avere autovalori; ad esempio la traslazione bilaterale sullo
spazio di Hilbert l2(Z) non ha autovalori. Esiste anche un teorema spettrale per gli operatori normali sugli spazi di
Hilbert, nei quali la somma presente nel teorema spettrale a dimensioni finite è sostituita da un integrale della
funzione coordinata sullo spettro pesato su una misura di proiezione.
Quando l'operatore normale in questione è compatto, questo teorema spettrale si riduce al caso finito-dimensionale, a
parte il fatto che l'operatore può essere espresso come combinazione lineare di un numero infinito di proiezioni.
Operatori autoaggiunti
Molti operatori lineari importanti che si incontrano in analisi, come gli operatori differenziali, non sono limitati.
Esiste comunque un teorema spettrale per → operatori autoaggiunti che si applica in molti di questi casi. Per dare un
esempio, ogni operatore differenziale a coefficienti costanti è unitariamente equivalente a un operatore di
moltiplicazione. Di fatto l'operatore unitario che implementa questa equivalenza è la trasformata di Fourier.
Voci correlate
• Prodotto scalare
• → Spazio di Hilbert
• Decomposizione di Jordan, un analogo della decomposizione spettrale, definito in assenza di prodotto scalare.
Bibliografia
• (EN) Sheldon Axler, Linear Algebra Done Right, Springer Verlag, 1997
32
Autovettore e autovalore
33
Autovettore e autovalore
In algebra lineare, un autovettore di una → trasformazione lineare è un → vettore non nullo che non cambia
direzione nella trasformazione. Il vettore può cambiare quindi solo per moltiplicazione di uno scalare, chiamato
autovalore. L'autospazio è il → sottospazio formato da tutti gli autovettori aventi un fissato autovalore, più il
vettore nullo. Un esempio è mostrato in Fig.1.
In matematica, questi concetti fondamentali si
applicano in algebra lineare, in analisi funzionale,
in geometria. In molti contesti, questi hanno anche
un significato fisico importante. In meccanica
classica gli autovettori delle equazioni che
descrivono un sistema fisico corrispondono spesso
ai modi di vibrazione di un corpo e gli autovalori
alle loro frequenze. In meccanica quantistica, gli
operatori corrispondono a variabili osservabili, gli
autovettori sono chiamati anche autostati e gli
autovalori di un operatore rappresentano quei
valori della variabile corrispondente che hanno
probabilità non nulla di essere misurati.
Il termine autovettore è stato tradotto dalla parola
tedesca Eigenvektor, coniata da Hilbert nel 1904.
Eigen significa proprio, caratteristico. Anche nella
letteratura italiana troviamo spesso l'autovettore
indicato
come
vettore
proprio,
vettore
caratteristico o vettore latente.
Fig. 1. In questa trasformazione lineare della Gioconda, l'immagine è
modificata ma l'asse centrale verticale rimane fisso. Il vettore blu ha
cambiato lievemente direzione, mentre quello rosso no. Quindi il vettore
rosso è un autovettore della trasformazione e quello blu no. Inoltre, poiché
il vettore rosso non è stato né allungato, né compresso, né ribaltato, il suo
autovalore è 1. Tutti i vettori sull'asse verticale sono multipli scalari del
vettore rosso, e sono tutti autovettori: assieme all'origine formano
l'autospazio relativo all'autovalore 1.
Definizione
Introduzione informale
Il piano cartesiano e lo spazio euclideo sono esempi particolari di → spazi vettoriali:
ogni punto dello spazio può essere descritto tramite un vettore che collega l'origine al
punto. Rotazioni, omotetie e riflessioni sono esempi particolari di → trasformazioni
lineari dello spazio: ciascuna di queste trasformazioni viene descritta agevolmente
dall'effetto che produce sui vettori.
In particolare, un autovettore è un vettore
moltiplicato per un fattore scalare
che nella trasformazione viene
. Nel piano o nello spazio cartesiano, questo
equivale a dire che il vettore non cambia direzione. Può però cambiare verso se
, e modulo per un fattore dato dal valore assoluto
:
Fig. 2. Una sfera che ruota
intorno ad un suo asse.
Autovettore e autovalore
34
• se
il modulo resta inalterato,
• se
il modulo cresce,
• se
il modulo decresce.
Il valore
è l'autovalore di
.
Ad esempio, nella rotazione spaziale descritta in Fig. 2 ogni vettore
verticale dell'asse resta fisso: in altre parole, è un vettore che non
cambia né direzione, né verso, né modulo, ed è quindi un autovettore
con autovalore 1. Nella rotazione planare descritta in Fig. 3, ogni
vettore ruota in senso antiorario di un certo angolo, e quindi cambia
direzione: quindi in questo caso non ci sono autovettori.
Fig. 3. Rotazione del piano intorno ad un punto
Autovettori e autovalori sono definiti ed usati in
matematica e fisica dentro a → spazi più grandi e
astratti di quello tridimensionale in cui viviamo.
Questi spazi possono avere dimensione maggiore
di 3 o addirittura infinita (ad esempio, possono
Fig. 4. Un'onda stazionaria in una corda fissata agli estremi è una
essere uno → spazio di Hilbert). Ad esempio, le
autofunzione della trasformazione data dallo scorrere del tempo.
possibili posizioni di una corda vibrante in una
chitarra formano uno spazio di questo tipo: una
vibrazione della corda è quindi interpretata come trasformazione di questo spazio, e i suoi autovettori (più
precisamente, le sue autofunzioni) sono le onde stazionarie, che si ripetono come mostrato in Fig. 4.
Definizione formale
Dal punto di vista formale, autovettori e autovalori sono definiti come segue: sia
campo
uno → spazio vettoriale su un
, che può essere ad esempio il campo dei numeri reali R o complessi C. Sia
un endomorfismo di
,
cioè una → trasformazione lineare
Se
è un vettore non nullo in
allora
Poiché
e
è uno scalare (che può essere nullo) tali che
è un autovettore della trasformazione
è lineare, se
,e
è il suo autovalore.
è un autovettore con autovalore
autovettore con lo stesso autovalore
insieme al vettore nullo, generano un → sottospazio di
solitamente indicato con
Lo spettro di
, allora ogni multiplo non-nullo di
è anch'esso un
. Più in generale, gli autovettori aventi lo stesso fissato autovalore
chiamato l'autospazio relativo all'autovalore
,
. Viene
.
è l'insieme dei suoi autovalori. Il raggio spettrale di
è l'estremo superiore dei moduli dei suoi
sia di dimensione finita, per ogni scelta di basi a
è associata univocamente una matrice. Per
autovalori.
Nel caso in cui
questo motivo si parla anche di autovettori e autovalori associati direttamente ad una matrice, rispettivamente come
un vettore
e uno scalare tali che
.
Autovettore e autovalore
Esempi nel piano e nello spazio
Fra le trasformazioni del piano cartesiano R2 possiamo distinguere i seguenti casi speciali:
• Rotazione antioraria di angolo θ: se θ è diverso da 0 e π non esiste nessun autovettore: infatti ogni vettore viene
ruotato e cambia di direzione. I casi θ = 0 e π sono casi particolari, in cui ogni vettore sta fisso o è ribaltato: allora
ogni vettore è autovettore, con autovalore rispettivamente 1 e -1.
• Riflessione lungo una retta r passante per l'origine: i vettori in r restano fermi e sono quindi autovettori con
autovalore 1, quelli della retta s perpendicolare a r e passante per l'origine vengono ribaltati, e quindi sono
autovettori con autovalore -1. Non esistono altri autovettori.
• Omotetia: ogni vettore viene moltiplicato per uno scalare λ e quindi tutti i vettori sono autovettori con autovalore
λ.
• Proiezione ortogonale su una retta r passante per l'origine: i vettori su r restano fermi e quindi sono autovettori
con autovalore 1, i vettori sulla retta s ortogonale a r e passante per l'origine vanno tutti sull'origine e quindi sono
autovettori con autovalore 0. Non ci sono altri autovettori.
Gli esempi appena elencati possono essere rappresentati rispettivamente dalle seguenti matrici (per semplicità, la
retta r è l'asse orizzontale):
• Non tutte le trasformazioni del piano e dello spazio ricadono in uno degli esempi mostrati sopra. In generale, un
endomorfismo (cioè una trasformazione) di Rn è rappresentabile tramite una matrice quadrata con n righe.
Consideriamo per esempio l'endomorfismo di R3 dato dalla matrice:
Usando la moltiplicazione fra matrice e vettore vediamo che:
e quindi l'endomorfismo rappresentato da A ha un autovettore con autovalore 2.
Il polinomio caratteristico
Un metodo generale per l'individuazione di autovalori e autovettori di un endomorfismo, nel caso in cui lo spazio
vettoriale V abbia dimensione finita, è il seguente:
1. Si costruisce una base per V, così da rappresentare l'endomorfismo tramite una matrice quadrata.
2. Dalla matrice si calcola un polinomio, detto → polinomio caratteristico, le cui radici (cioè i valori che lo
annullano) sono gli autovalori.
3. Per ogni autovalore, si trovano i relativi autovettori con tecniche standard di algebra lineare, tramite risoluzione
di un sistema di equazioni lineari.
Il polinomio caratteristico p(x), con variabile x, associato ad una matrice quadrata A, è il seguente:
dove I è la matrice identità con lo stesso numero di righe di A, e det(M) è il determinante di M. Le radici del
polinomio sono proprio gli autovalori di A.
Applichiamo quindi il nostro algoritmo all'esempio in R3 descritto sopra. Poiché la trasformazione è già scritta in
forma di matrice, saltiamo al punto 2 e calcoliamo il polinomio caratteristico:
35
Autovettore e autovalore
quindi gli autovalori di A sono 2, 1 e −1.
Nella pratica, gli autovalori di grandi matrici non vengono calcolati usando il polinomio caratteristico: esistono
infatti metodi numerici più veloci e sufficientemente stabili.
Nel punto 1 dell'algoritmo è richiesta la scelta di una base. Basi diverse danno generalmente matrici diverse. I
polinomi caratteristici che ne risultano sono però sempre gli stessi: il polinomio caratteristico dipende quindi soltanto
dall'endomorfismo T (da cui l'aggettivo "caratteristico"). La dimostrazione di questo fatto poggia sul teorema di
Binet.
Proprietà
Elenchiamo alcune proprietà importanti degli autovettori, nel caso finito-dimensionale. Indichiamo quindi con T un
endomorfismo in uno spazio V di dimensione n su un campo K.
Proprietà generali
• Se v1, ..., vm sono autovettori con autovalori λ1, ..., λm, a due a due distinti, allora questi sono linearmente
indipendenti.
Esistenza di autovalori e autovettori
• Il polinomio caratteristico di T ha grado n, e quindi ha al più n radici: segue che T ha al più n autovalori distinti.
• Se K è algebricamente chiuso (ad esempio se K = C è il campo dei numeri complessi), allora il polinomio
caratteristico ha sempre qualche radice: segue che T ha sempre qualche autovalore, e quindi qualche autovettore.
Notiamo che questo è falso nel caso reale: le rotazioni descritte sopra non hanno autovettori.
• Se la dimensione n di V è dispari, e K = R è il campo dei numeri reali, il polinomio caratteristico ha grado dispari,
e quindi ha sempre almeno una radice reale: segue che ogni endomorfismo di R3 ha almeno un autovettore.
Diagonalizzabilità
Un endomorfismo T è diagonalizzabile se esiste una base di autovettori per T. La matrice associata a T in questa base
è diagonale. Le matrici diagonali sono molto più semplici da trattare: questa è una delle motivazioni per lo studio
degli autovettori di T.
• Se il polinomio caratteristico di T non ha tutte le radici in K, allora T non è diagonalizzabile. Ad esempio, una
rotazione ha un polinomio caratteristico di secondo grado con delta negativo e quindi non ha soluzioni reali:
quindi non è diagonalizzabile.
• Per il → teorema spettrale, ogni endomorfismo di Rn dato da una matrice simmetrica è diagonalizzabile, ed ha
una base di autovettori ortogonali fra loro. Tra questi rientra l'esempio in R3 mostrato sopra: i tre vettori
ortogonali sono
Per quanto detto prima, la trasformazione assume una forma molto semplice rispetto a questa base: ogni vettore x
in R3 può essere scritto in modo unico come:
e quindi abbiamo
36
Autovettore e autovalore
• Se il polinomio caratteristico di T ha tutte le radici in K con molteplicità 1, allora T è diagonalizzabile.
• Se il polinomio caratteristico di T ha tutte le radici in K, alcune delle quali con molteplicità maggiore di 1, non è
necessariamente diagonalizzabile: ad esempio la matrice seguente, che rappresenta la trasformazione della
Gioconda in Fig.1, ha come polinomio caratteristico (x-1)2 e non è diagonalizzabile:
Spazi di dimensione infinita
In uno spazio di dimensione infinita la definizione di autovalore è identica al caso di dimensione finita. Tuttavia, Il
polinomio caratteristico non è uno strumento disponibile in questo caso. Per questo ed altri motivi, si definisce come
spettro l'insieme di quei valori λ per cui l'inverso dell'operatore (T - λ I) non è limitato; tale insieme è solitamente
indicato con σ(T). A differenza del caso finito-dimensionale lo spettro e l'insieme degli autovalori, generalmente
detto spettro puntuale, in generale non coincidono. Compito della teoria spettrale è l'estensione delle tecniche valide
in dimensione finita nel caso in cui l'operatore T e lo spazio V abbiano delle buone proprietà.
Seguono alcuni esempi classici.
• Un operatore limitato su uno spazio di Banach V ha spettro compatto e non vuoto.
• Un operatore compatto su uno spazio di Banach V ha spettro e spettro puntuale coincidenti a meno dello 0. Gli
operatori compatti si comportano in modo molto simile agli operatori con immagine a dimensione finita.
• Un → operatore autoaggiunto su uno spazio di Hilbert H ha spettro reale. Tali operatori sono fondamentali nello
teoria della meccanica quantistica.
37
Autovettore e autovalore
38
Applicazioni
Operatori in meccanica quantistica
Un esempio di operatore definito su uno spazio
infinito-dimensionale è dato dall'operatore hamiltoniano
indipendente dal tempo in meccanica quantistica:
Fig. 4. Le funzioni d'onda associate agli stati di un elettrone
in un atomo d'idrogeno sono gli autovettori sia della
Hamiltoniana dell'atomo di idrogeno che del momento
angolare. Gli autovalori associati sono interpretati come le
loro energie (crescenti dall'alto in basso n=1,2,3,...) e
momenti angolari (crescenti da sinistra a destra: s, p, d,...).
Sono disegnati qui i quadrati dei valori assoluti delle
autofunzioni. Aree più luminose corrispondono a densità di
probabilità maggiori per la posizione in una misurazione. Il
centro di ogni figura è il nucleo dell'atomo, un protone.
dove H è l'operatore che agendo sull'autovettore (o autoket)
restituisce l'autovettore moltiplicato per
l'autovalore E, che è interpretato come l'energia dello stato. Teniamo presente che H è un operatore hermitiano,
percui i suoi autostati formano una base ortonormale dello spazio degli stati e gli autovalori sono tutti reali.
Proiettando sulla base della posizione otteniamo la rappresentazione tramite funzione d'onda:
dove stavolta Hx indica l'operatore differenziale che rappresenta l'operatore astratto nella base della posizione mentre
la funzione d'onda
è l'autofunzione corrispondente all'autovalore E. Dati i postulati della meccanica
quantistica gli stati accessibili ad un sistema sono vettori in uno → spazio di Hilbert e quindi è definito un prodotto
scalare fra di essi del tipo:
.
dove la stella * indica il complesso coniugato della funzione d'onda. Questo limita la possibilità di scelta dello spazio
di Hilbert allo spazio delle funzioni a quadrato integrabile sul dominio scelto D, che può al limite essere tutto
.
La fig.4 qui a destra mostra le prime autofunzioni della Hamiltoniana dell'atomo di idrogeno.
Autovettore e autovalore
39
Autofacce
Nel trattamento di immagini digitali, il disegno di una faccia è un
vettore le cui componenti rappresentano la luminosità dei singoli
pixel. Gli autovettori di una particolare matrice, detta matrice di
covarianza, sono chiamati autofacce. Sono molto utili per
esprimere ogni faccia come una combinazione lineare di queste
autofacce, e sono quindi anche un ottimo strumento di
compressione dei dati per memorizzare ed identificare un alto
numero di facce.
Tensore d'inerzia
In meccanica, gli autovettori del tensore di inerzia definiscono gli
assi principali di un corpo rigido. Il tensore di inerzia è una
quantità chiave, necessaria per determinare la rotazione di un
corpo rigido intorno al suo baricentro.
Fig. 5. Le autofacce sono esempi di autovettori.
Bibliografia
• Marius Stoka, Corso di geometria, Cedam, ISBN 8813191928
Voci correlate
•
•
•
•
•
•
•
•
→ Spazio vettoriale
→ Trasformazione lineare
→ Polinomio caratteristico
→ Diagonalizzabilità
Autostato
→ Teorema spettrale
Forma canonica di Jordan
Teoremi di Gerschgorin
Collegamenti esterni
• (EN) MathWorld: Eigenvector [1]
• (EN) Earliest Known Uses of Some of the Words of Mathematics: E - vedi eigenvector e termini correlati [2]
Riferimenti
[1] http:/ / mathworld. wolfram. com/ Eigenvector. html
[2] http:/ / members. aol. com/ jeff570/ e. html
Operatore autoaggiunto
40
Operatore autoaggiunto
In matematica, e più specificatamente in algebra lineare, un operatore autoaggiunto è un operatore lineare su uno
→ spazio di Hilbert
che è uguale al suo aggiunto. I termini "endomorfismo" e "simmetrico" sono spesso usati al
posto di "operatore" e "autoaggiunto" nel caso in cui
sia uno spazio di Hilbert reale.
Il → teorema spettrale è un importante risultato riguardante gli operatori autoaggiunti. Tali operatori sono
fondamentali in vari settori della matematica e della fisica, come ad esempio la geometria differenziale, l'analisi
funzionale e la meccanica quantistica.
Definizione formale
Si consideri uno → spazio di Hilbert
e un operatore limitato
definito su di esso. L'operatore aggiunto
è
definito tramite la condizione
Se vale
allora l'operatore
è detto autoaggiunto.
Nel caso di un operatore non limitato è necessario tenere conto dei domini. Si supponga che l'operatore
densamente definito su un dominio
Per ogni elemento
sia
. Il dominio dell'operatore aggiunto è
si ponga
Un operatore non limitato è quindi detto autoaggiunto se
e
per ogni
.
Proprietà degli operatori autoaggiunti limitati
Un operatore limitato A su uno spazio di Hilbert H è autoaggiunto se e solo se è simmetrico, cioè se e solo se la
relazione
vale per ogni
Siano
.
operatori autoaggiunti, e
numeri reali. Dalla linearità del prodotto scalare si ottiene
e quindi lo spazio degli operatori autoaggiunti è uno spazio lineare sui reali.
Dalla relazione
si ottiene che
è un operatore autoaggiunto se e solo se
e
commutano.
L'insieme degli autovalori di un operatore autoaggiunto giace sull'asse reale. Per vederlo, si consideri un autovettore
dell'operatore autoaggiunto
associato all'autovalore . Allora da
segue che
che
è reale.
o
. Dato che la seconda possibilità è esclusa in quanto
è un autovettore, ne segue
Operatore autoaggiunto
41
Voci correlate
• Operatore
• Operatore unitario
• Operatore aggiunto
Polinomio caratteristico
In matematica, e in particolare in algebra lineare, il polinomio caratteristico di una matrice quadrata A su un campo
è un polinomio definito a partire da A che ne descrive molte proprietà essenziali. I suoi coefficienti codificano
quantità importanti di A, quali la traccia e il determinante, mentre le sue radici sono gli autovalori di A.
Il polinomio caratteristico fornisce molte informazioni sulla natura intrinseca delle trasformazioni lineari. Se la
matrice A è associata ad una trasformazione lineare T di uno → spazio vettoriale V, il polinomio caratteristico
dipende infatti solo dalle proprietà intrinseche di T. I coefficienti del polinomio sono detti invarianti di T.
Definizione
Sia A una matrice quadrata a valori in un campo K. Il polinomio caratteristico di A nella variabile x è il polinomio
definito nel modo seguente:
,
cioè è il determinante della matrice
avente lo stesso numero di righe di
n caselle della diagonale principale.
Esempi
Se
allora
e quindi
Se
allora in modo analogo si trova
, ottenuta sommando
, e quindi
e
. Qui
denota la matrice identità
è la matrice diagonale avente il valore
su ciascuna delle
Polinomio caratteristico
42
Proprietà
Sia
una matrice quadrata con
righe.
Grado e coefficienti del polinomio
Il polinomio caratteristico di
ha grado
. Alcuni dei suoi coefficienti sono (a meno di segno) quantità notevoli
per la matrice, come la traccia ed il determinante:
Ad esempio, se
Se
è una matrice 2 per 2 abbiamo
è una matrice 3 per 3 abbiamo
con
dove
è l'elemento di
nella posizione
In generale, il coefficiente di
minori
.
del polinomio è la somma moltiplicata per
dei
determinanti dei
"centrati" sulla diagonale.
Autovalori
Le radici in K del polinomio caratteristico sono gli autovalori di
. Questo si dimostra formalmente nel modo
seguente:
.
Per il teorema di diagonalizzabilità, se
ha
radici distinte allora
è diagonalizzabile. Per quanto detto sopra,
in questo caso il determinante è proprio il prodotto degli n autovalori distinti. Va però notato che questa condizione
non è necessaria per la diagonalizzabilità.
Matrici particolari
Se
è una matrice triangolare (superiore o inferiore) avente i valori
sulla diagonale principale,
allora
.
Quindi il polinomio caratteristico di una matrice triangolare ha radici nel campo, date dai valori nella diagonale
principale. In particolare, questo fatto è vero per le matrici diagonali.
Invarianza per similitudine
Due matrici simili hanno lo stesso polinomio caratteristico. Infatti se
per qualche matrice invertibile
, si ottiene
In tale catena di uguaglianze si fa uso del fatto che la matrice della forma
teorema di Binet.
commuta con qualsiasi altra e del
Polinomio caratteristico
43
Poiché due matrici che rappresentano un endomorfismo
di uno spazio vettoriale
simili, il polinomio caratteristico è una grandezza intrinseca di
a dimensione finita sono
, che riassume molte delle caratteristiche
intrinseche di un endomorfismo: traccia, determinante, autovalori.
Invarianza per trasposizione
La matrice trasposta
ha lo stesso polinomio caratteristico di
. Infatti
Qui si fa uso del fatto che il determinante è invariante per trasposizione.
Applicazioni
Il polinomio caratteristico è usato soprattutto per determinare gli autovalori di una matrice. In altri casi, è anche
usato come invariante, cioè come oggetto che dipende solo dalla classe di similitudine di una matrice. In questo
contesto è utilizzato per determinare la forma canonica di luoghi geometrici esprimibili mediante matrici come
coniche e quadriche.
Voci correlate
• → Autovettore e autovalore
• Determinante
• Teorema di Hamilton-Cayley
Diagonalizzabilità
In matematica, e più precisamente in algebra lineare, una → trasformazione lineare di uno → spazio vettoriale di
dimensione n (ad esempio, il piano o lo spazio euclideo) è diagonalizzabile se esistono n "assi" passanti per l'origine
che rimangono invariati nella trasformazione. Su ciascuno di questi assi, la trasformazione effettua una omotetia.
Le trasformazioni diagonalizzabili sono importanti perché più facili da studiare: la trasformazione è infatti
completamente nota quando si conosce il suo comportamento su questi assi. Ciascun vettore (diverso dall'origine) su
uno di questi assi è un autovettore, ed il tipo di omotetia con cui viene trasformato l'asse è il suo autovalore.
Il nome diagonalizzabile deriva dal fatto che una tale trasformazione, scritta rispetto ad una base contenuta negli
assi, si scrive tramite una matrice diagonale. Esiste anche la nozione di matrice diagonalizzabile.
Esempi informali
La trasformazione del piano cartesiano che sposta ogni punto (x, y) nel punto (2x, -y) è diagonalizzabile. Infatti gli
assi x e y rimangono invariati: l'asse x è espanso di un fattore 2, mentre l'asse y è ribaltato rispetto all'origine.
Notiamo che nessuna altra retta passante per l'origine rimane invariata.
Una rotazione oraria o antioraria del piano di 90 gradi intorno all'origine non è diagonalizzabile, perché nessun asse
viene fissato.
Diagonalizzabilità
Definizioni
Un endomorfismo T di uno → spazio vettoriale V, cioè una → trasformazione lineare T:V → V, è diagonalizzabile
se esiste una base di V fatta di autovettori per T.
Una matrice quadrata è diagonalizzabile se è simile ad una matrice diagonale. Ricordiamo che, fissata una base B
per V, ogni endomorfismo T si descrive come una matrice, detta matrice associata a T rispetto a B. I seguenti fatti
sono tutti equivalenti:
1. una trasformazione T è diagonalizzabile;
2. esiste una base B tale che la matrice associata a T rispetto a B è diagonale;
3. la matrice associata a T rispetto a qualsiasi base B è diagonalizzabile.
L'equivalenza discende dai fatti seguenti:
• la matrice associata a T rispetto ad una base B è diagonale se e solo se tutti gli elementi di B sono autovettori per
T;
• due matrici quadrate sono associate alla stessa applicazione T rispetto a basi diverse se e solo se sono simili.
Algoritmo
Generalmente, per vedere se una applicazione è diagonalizzabile si prende una base qualsiasi e la si traduce in
matrice quadrata n x n. Quindi si studia se la matrice ottenuta è diagonalizzabile, calcolandone il → polinomio
caratteristico, gli autovalori con la loro molteplicità, e quindi usando il teorema di diagonalizzabilità. Elenchiamo qui
due situazioni in cui è più facile dare una risposta:
1. se il polinomio caratteristico ha n radici distinte (ciascuna con molteplicità algebrica 1), la matrice è
diagonalizzabile;
2. se la somma delle molteplicità algebriche delle radici del polinomio caratteristico è minore di n, allora la matrice
non è diagonalizzabile.
Nel caso più complesso in cui la somma delle molteplicità è n, ma ci sono radici multiple, la matrice può essere
diagonalizzabile o no, e per avere una risposta si devono fare dei calcoli ulteriori: si veda il teorema di
diagonalizzabilità.
Ricordiamo i fatti seguenti:
• il polinomio caratteristico ha grado n,
• la somma delle molteplicità delle radici di un polinomio di grado n è minore o uguale ad n; è proprio n se e solo
se il polinomio si fattorizza in polinomi di primo grado, cioè si scrive come
e in questo caso le radici sono a1, ..., an, e la molteplicità di ciascuna è il numero di volte in cui compare.
• se V è uno spazio vettoriale sul campo dei numeri reali (ad esempio, se V è il piano o un qualsiasi spazio
euclideo), la somma delle molteplicità delle radici di p(x) è n se e solo se p non ha radici complesse non reali.
44
Diagonalizzabilità
45
Esempi
Esempio di calcolo
Consideriamo la matrice
Trovando e scomponendo il → polinomio caratteristico, troviamo che i suoi autovalori sono
Quindi ha 3 autovalori distinti, ed è diagonalizzabile.
Se siamo interessati a trovare esplicitamente una base di autovettori, dobbiamo fare del lavoro ulteriore: per ogni
autovalore, si imposta l'equazione :
e si risolve cercando i valori del vettore
che la soddisfano,
sostituendo volta per volta i tre autovalori precedentemente calcolati.
Una base di autovettori per esempio è data da:
Si vede facilmente che sono indipendenti, quindi formano una base, e che sono autovettori, infatti
.
Possiamo scrivere esplicitamente la matrice di cambiamento di base incolonnando i vettori trovati:
Quindi la matrice invertibile P diagonalizza A, come si verifica calcolando:
La matrice finale deve essere diagonale e contenere gli autovalori, ciascuno con la sua molteplicità.
Numeri complessi
Se il campo su cui lavoriamo è quello dei numeri complessi, una matrice n per n ha n autovalori (contando ciascuno
con la relativa molteplicità, per il teorema fondamentale dell'algebra). Se le molteplicità sono tutte 1, la matrice è
diagonalizzabile. Altrimenti, dipende. Un esempio di matrice complessa non diagonalizzabile è descritto sotto.
Il fatto che vi siano comunque n autovalori implica che è sempre possibile ridurre una matrice complessa ad una
forma triangolare: questa proprietà, più debole della diagonalizzabilità, è detta triangolabilità.
Diagonalizzabilità
46
Numeri reali
Sui numeri reali le cose cambiano, perché la somma delle molteplicità di un polinomio di grado n può essere
inferiore a n. Ad esempio la matrice
non ha autovalori, perché il suo polinomio caratteristico
nessuna matrice reale Q tale che
non ha radici reali. Quindi non esiste
sia diagonale! D'altro canto, la stessa matrice B vista con i numeri
complessi ha due autovalori distinti i e -i, e quindi è diagonalizzabile. Infatti prendendo
troviamo che
è diagonale. La matrice
considerata sui reali invece non è neppure triangolabile.
Ci sono anche matrici che non sono diagonalizzabili né sui reali né sui complessi. Questo accade in alcuni casi, in
cui ci sono degli autovalori con molteplicità maggiore di uno. Ad esempio, consideriamo
Questa matrice non è diagonalizzabile: ha 0 come unico autovalore con molteplicità 2, e se fosse diagonalizzabile
sarebbe simile alla matrice nulla, cosa impossibile a prescindere dal campo reale o complesso.
Voci correlate
•
•
•
•
→ polinomio caratteristico
→ autovettore e autovalore
→ teorema spettrale
forma canonica di Jordan
Isomorfismo
47
Isomorfismo
In matematica, un isomorfismo (dal Greco isos = uguale e morphé = forma) è un tipo di applicazione fra oggetti
matematici, intuitivamente definito dalle parole del matematico Douglas Hofstadter:
« La parola isomorfismo si usa quando due strutture complesse possono essere mappate una nell'altra, in modo che per ogni
parte di una struttura c'è una parte corrispondente nell'altra struttura, dove corrispondente significa che le due parti giocano
ruoli simili nelle loro rispettive strutture. »
(Douglas Hofstadter - Gödel, Escher, Bach: Un'Eterna Ghirlanda Brillante, p. 49)
Definizione
Si definisce isomorfismo un'applicazione biiettiva f tra due insiemi dotati di strutture della stessa specie tale che sia f
che la sua inversa f −1 siano → omomorfismi, cioè applicazioni che preservano le caratteristiche strutture. Questa
nozione ha portata molto vasta, in quanto si possono prendere in considerazione molte specie di strutture e
moltissime strutture specifiche. Si possono inoltre considerare isomorfismi tra oggetti non costruiti su un insieme
sostegno, ad esempio su due processi.
Se esiste un isomorfismo fra due strutture, chiamiamo le due strutture isomorfe. Due strutture isomorfe, a un certo
livello di astrazione, si possono considerare essenzialmente uguali; ignorando le identità specifiche degli elementi
degli insiemi sottostanti ad esse e focalizzandosi solo su aspetti rilevanti delle strutture stesse, le due strutture si
possono identificare. Ecco alcuni esempi quotidiani di strutture isomorfe.
• Un cubo compatto composto da legno e un cubo compatto composto da piombo sono entrambi cubi compatti;
anche se il loro materiale è differente, le loro strutture geometriche sono isomorfe.
• Un normale mazzo di 52 carte da gioco con dorso verde e un normale mazzo di carte con dorso marrone; anche se
il colore del dorso è differente, i mazzi sono strutturalmente isomorfi: le regole per un gioco con 52 carte o
l'andamento di una partita di un tale gioco sono indifferrenti, indipendentemente dal mazzo che scegliamo.
• La Torre dell'Orologio di Londra (che contiene il Big Ben) e un orologio da polso; anche se gli orologi variano
molto in dimensione, i loro meccanismi di calcolo del tempo sono isomorfi.
• Un dado a sei facce e una borsa da cui viene scelto un numero da 1 a 6; anche se il metodo usato per ottenere un
numero è differente, le loro capacità di generare successioni di numeri pseudocasuali sono isomorfe. Questo è un
esempio di isomorfismo funzionale, senza l'assunzione di un isomorfismo geometrico.
Strutture isomorfe
Per ogni struttura assegnata ad un insieme esiste una definizione formale "naturale" di isomorfismo.
Insiemi ordinati
Se un oggetto consiste in un insieme X con un ordinamento ≤ e un altro oggetto consiste in un insieme Y con un
ordinamento
, allora un isomorfismo da X a Y è una funzione biiettiva f : X → Y tale che
se u ≤ v.
Tale isomorfismo è detto isomorfismo d'ordine o isotonia.
Isomorfismo
48
Operazioni binarie
Se su due insiemi X e Y sono definite le operazioni binarie arbitrarie
e
rispettivamente, allora un isomorfismo
da X a Y è una funzione biiettiva f : X → Y tale che
per ogni u, v in X. Quando gli oggetti in questione sono gruppi, tale isomorfismo è detto isomorfismo di gruppi.
Analogamente, se gli oggetti sono campi, quindi dotati ciascuno di due operazioni, e la funzione biiettiva si
comporta come sopra per entrambe, è detto isomorfismo di campi.
Nell'algebra universale si può dare una definizione generale di isomorfismo che copre questi e molti altri casi. La
definizione di isomorfismo data nella teoria delle categorie è ancora più generale.
Grafi
Nella teoria dei grafi, un isomorfismo fra due grafi G e H è un'applicazione biiettiva f dai vertici di G ai vertici di H
che preserva la "struttura relazionale" nel senso che c'è uno spigolo o un arco dal vertice u al vertice v se e solo se c'è
un analogo collegamento dal vertice f(u) al vertice f(v) in H.
Spazi vettoriali
Nell'algebra lineare un isomorfismo fra due → spazi vettoriali è una trasformazione biiettiva che sia anche → lineare.
Spazi topologici
In topologia un isomorfismo tra spazi topologici è una mappa biiettiva e continua che preserva le topologie, cioè
manda aperti in aperti; una tale funzione si dice un omeomorfismo.
Voci correlate
•
•
•
•
•
•
•
Automorfismo
→ Omomorfismo
Epimorfismo
Classe di isomorfismo
Monomorfismo
Morfismo
Endomorfismo
Omomorfismo
49
Omomorfismo
In algebra astratta, un omomorfismo è un'applicazione tra due strutture algebriche dello stesso tipo che conserva le
operazioni in esse definite. Questo oggetto, calato nel contesto più astratto della teoria delle categorie, prende il
nome di morfismo.
Ad esempio, considerando insiemi con una singola operazione binaria (un magma), la funzione
è
un omomorfismo se vale
per ogni coppia u, v di elementi di A, dove
e
sono le operazioni binarie di A e B rispettivamente.
Ogni tipo di struttura algebrica ha i suoi specifici omomorfismi:
• omomorfismo di gruppi
• omomorfismo di anelli
• applicazione lineare (omomorfismo tra → spazi vettoriali)
• omomorfismo di algebre
Una definizione rigorosa generale di omomorfismo può essere data nel modo seguente:
Siano A e B due strutture algebriche dello stesso tipo, una funzione φ : A → B è un omomorfismo se, per ogni
operazione f (su n elementi) delle strutture e per ogni n-upla x1,…,xn di A si ha
φ(fA (x1,…,xn)) = fB(φ(x1),…,φ(xn))
dove fA e fB rappresentano l'operazione f nelle strutture A e B rispettivamente.
Classificazione
In algebra astratta:
• Si chiama monomorfismo ogni omomorfismo iniettivo;
• Si chiama epimorfismo ogni omomorfismo suriettivo;
• Si chiama → isomorfismo ogni omomorfismo biiettivo.
Se in particolare A e B coincidono:
• Si chiama endomorfismo della struttura A ogni omomorfismo di A in se stesso;
• Si chiama automorfismo della struttura A ogni → isomorfismo di A in se stesso.
Notare che dei concetti di monomorfismo e epimorfismo, in teoria delle categorie, vengono date delle definizioni più
deboli.
Voci correlate
• Morfismo
• Algebra astratta
• Struttura algebrica
Fonti e autori del articolo
Fonti e autori del articolo
Spazio vettoriale Source: http://it.wikipedia.org/w/index.php?oldid=27147311 Contributors: Achillu, Alberto da Calvairate, AnyFile, Aushulz, Damnit, Dr Zimbu, Dzag, Gac, Gianluigi,
Giulianap, Hashar, Marcuscalabresus, Maupag, Ndakota73, Nihil, Palica, Piddu, Romanm, Salvatore Ingala, Skyhc, Suisui, Wiso, Ylebru, 43 anonymous edits
Sottospazio vettoriale Source: http://it.wikipedia.org/w/index.php?oldid=25903684 Contributors: Alberto da Calvairate, Dissonance, Eberk89, Magma, Pegua, Piddu, Rossa1, Salvatore Ingala,
Ylebru, ^musaz, 4 anonymous edits
Sottospazio generato Source: http://it.wikipedia.org/w/index.php?oldid=25037482 Contributors: Simone Scanzoni, Ylebru, 1 anonymous edits
Teorema del rango Source: http://it.wikipedia.org/w/index.php?oldid=23792193 Contributors: Banus, Helios, Salvatore Ingala, Ylebru, 2 anonymous edits
Nucleo (matematica) Source: http://it.wikipedia.org/w/index.php?oldid=25385576 Contributors: Alberto da Calvairate, AnyFile, Davide, FollowTheMedia, Piddu, Pokipsy76, Ylebru, 13
anonymous edits
Immagine (matematica) Source: http://it.wikipedia.org/w/index.php?oldid=22305875 Contributors: Amarvudol, Andre Engels, Cinex, Hellis, Melmood, Piddu, Pokipsy76, Salvatore Ingala,
Snake664, 23 anonymous edits
Trasformazione lineare Source: http://it.wikipedia.org/w/index.php?oldid=25978955 Contributors: .jhc., Alberto da Calvairate, Beewan1972, Colom, Giulianap, Marco Matassa, Mawerick,
Piddu, Pokipsy76, Sandrobt, Simone, Skyhc, TheRedOne, Tridim, Unit, Valerio.scorsipa, Wiso, Ylebru, ^musaz, 22 anonymous edits
Matrice di trasformazione Source: http://it.wikipedia.org/w/index.php?oldid=25256568 Contributors: Alberto da Calvairate, Piddu, Pokipsy76, Riccioli72, Sagrael, Simone Scanzoni,
TierrayLibertad, Valerio.scorsipa, Ylebru, 3 anonymous edits
Spazio di Hilbert Source: http://it.wikipedia.org/w/index.php?oldid=27335376 Contributors: Archenzo, Ary29, Ayanami Rei, Basilero, Cisco79, Damnit, Eginardo, Gala.martin, Giaccone
Paolo, Hashar, Hellis, Hill, Maurice Carbonaro, Megalexandros, Nevermore, Paolocos, Piddu, Pokipsy76, Quatar, Stefano80, Tridim, Wiso, Ylebru, 17 anonymous edits
Teorema spettrale Source: http://it.wikipedia.org/w/index.php?oldid=25842411 Contributors: Banus, Fontafox, Leitfaden, Leonardis, Lucha, Nase, Nicolaennio, Piddu, Qualc1, Salvatore
Ingala, Walter89, Wiso, Ylebru, Zuccaccia, Zviad, 6 anonymous edits
Autovettore e autovalore Source: http://it.wikipedia.org/w/index.php?oldid=27517783 Contributors: Alfio, Aushulz, Berto, Domenico De Felice, Engineer123, F l a n k e r, Franz Liszt, Gecob,
Ggonnell, Huatulco, Jean85, Luisa, M&M987, Magma, Marco82laspezia, Onnisciente, Piddu, Piero, Pokipsy76, Restu20, Rob-ot, Robmontagna, Sartore, Shony, SimoneMLK, Sir marek, SkZ,
Stefano80, Tridim, Ulisse0, Vipera, Xander89, Ylak, Ylebru, 22 anonymous edits
Operatore autoaggiunto Source: http://it.wikipedia.org/w/index.php?oldid=21899419 Contributors: Alberto da Calvairate, DanGarb, Frieda, Hellis, M&M987, Maedhros1978, Piddu, Retaggio,
Sandinista, Simone, Stefano80, Tridim, Wiso, Ylebru, 9 anonymous edits
Polinomio caratteristico Source: http://it.wikipedia.org/w/index.php?oldid=26726076 Contributors: Alberto da Calvairate, Claude, Fred Falcon, Luisa, Lupin85, Poeta60, Pokipsy76, Ylebru,
15 anonymous edits
Diagonalizzabilità Source: http://it.wikipedia.org/w/index.php?oldid=21156304 Contributors: CristianCantoro, Ft1, Luisa, MartinoK, Ylebru, 11 anonymous edits
Isomorfismo Source: http://it.wikipedia.org/w/index.php?oldid=27370432 Contributors: Alberto da Calvairate, Banus, Buggia, Hellis, Massimiliano Lincetto, Moongateclimber, Onnisciente,
Piddu, Pokipsy76, Toobaz, Ylebru, ^musaz, 9 anonymous edits
Omomorfismo Source: http://it.wikipedia.org/w/index.php?oldid=25989772 Contributors: Alberto da Calvairate, Ary29, Blaisorblade, F l a n k e r, Laurentius, Megalexandros, Melmood,
Piddu, Ylebru, ^musaz, 2 anonymous edits
50
Fonti, licenze e autori delle immagini
Fonti, licenze e autori delle immagini
Immagine:Vector space illust.svg Source: http://it.wikipedia.org/w/index.php?title=File:Vector_space_illust.svg License: Public Domain Contributors: User:Oleg Alexandrov
File:Linear_subspaces_with_shading.svg Source: http://it.wikipedia.org/w/index.php?title=File:Linear_subspaces_with_shading.svg License: GNU Free Documentation License Contributors:
Original uploader was Alksentrs at en.wikipedia
File:Linear subspaces with shading.svg Source: http://it.wikipedia.org/w/index.php?title=File:Linear_subspaces_with_shading.svg License: GNU Free Documentation License Contributors:
Original uploader was Alksentrs at en.wikipedia
Immagine:Funcoes x2.png Source: http://it.wikipedia.org/w/index.php?title=File:Funcoes_x2.png License: GNU Free Documentation License Contributors: Darapti, Dcoetzee,
EugeneZelenko, HiTe, Ilmari Karonen, Marcelo Reis
File:Determinant Example.png Source: http://it.wikipedia.org/w/index.php?title=File:Determinant_Example.png License: unknown Contributors: User:Jakob.scholbach
Immagine:Eigen.jpg Source: http://it.wikipedia.org/w/index.php?title=File:Eigen.jpg License: Public Domain Contributors: User:Vb
Immagine:Rotating Sphere.gif Source: http://it.wikipedia.org/w/index.php?title=File:Rotating_Sphere.gif License: unknown Contributors: Maksim, Oleg Alexandrov, W!B:, 3 anonymous
edits
Immagine:Rotation illustration.png Source: http://it.wikipedia.org/w/index.php?title=File:Rotation_illustration.png License: Public Domain Contributors: HB, Juiced lemon, Maksim, Oleg
Alexandrov, Tano4595, W!B:
Immagine:Standing wave.gif Source: http://it.wikipedia.org/w/index.php?title=File:Standing_wave.gif License: Public Domain Contributors: BrokenSegue, Cdang, Joolz, Kersti Nebelsiek,
Kieff, Mike.lifeguard, Pieter Kuiper, Ptj
Immagine:HAtomOrbitals.png Source: http://it.wikipedia.org/w/index.php?title=File:HAtomOrbitals.png License: GNU Free Documentation License Contributors: Admrboltz,
Benjah-bmm27, Dbenbenn, Ejdzej, Falcorian, Kborland, MichaelDiederich, Mion, Saperaud, 2 anonymous edits
Immagine:Eigenfaces.png Source: http://it.wikipedia.org/w/index.php?title=File:Eigenfaces.png License: Attribution Contributors: Laurascudder, Liftarn, Man vyi, Ylebru
51
Licenza
Licenza
Creative Commons Attribution-Share Alike 3.0 Unported
http:/ / creativecommons. org/ licenses/ by-sa/ 3. 0/
52