Geometria
Un corso gratuito da Wikipedia
PDF generato attraverso il toolkit opensource ''mwlib''. Per maggiori informazioni, vedi [[http://code.pediapress.com/ http://code.pediapress.com/]].
PDF generated at: Sat, 26 Mar 2011 09:25:37 UTC
Indice
Voci
Anello (algebra)
1
Corpo (matematica)
6
Matrice
7
Rappresentazione dei numeri complessi
16
Quaternione
18
Spazio vettoriale
26
Copertura lineare
33
Base (algebra lineare)
35
Completamento a base
38
Estrazione di una base
39
Matrice di cambiamento di base
40
Somma diretta
42
Formula di Grassmann
44
Metodo di eliminazione di Gauss
46
Determinante
50
Rango (algebra lineare)
60
Trasformazione lineare
63
Matrice di trasformazione
67
Teorema del rango
70
Autovettore e autovalore
72
Polinomio caratteristico
80
Teorema di Hamilton-Cayley
83
Diagonalizzabilità
85
Forma canonica di Jordan
88
Matrice esponenziale
91
Sistema di equazioni lineari
95
Teorema di Rouché-Capelli
97
Regola di Cramer
99
Spazio affine
104
Sottospazio affine
106
Forma bilineare
110
Spazio euclideo
112
Prodotto scalare
115
Ortogonalizzazione di Gram-Schmidt
122
Base ortonormale
125
Matrice ortogonale
126
Disuguaglianza di Cauchy-Schwarz
130
Teorema di Sylvester
132
Teorema spettrale
133
Gruppo ortogonale
136
Rotazione (matematica)
138
Prodotto vettoriale
140
Regola della mano destra
144
Note
Fonti e autori delle voci
147
Fonti, licenze e autori delle immagini
149
Licenze della voce
Licenza
150
Anello (algebra)
1
Anello (algebra)
In matematica un anello è una struttura algebrica composta da un insieme A su cui sono definite due operazioni
binarie, chiamate somma e prodotto, indicate rispettivamente con e , che godono di proprietà simili a quelle
verificate dai numeri interi. La parte della matematica che li studia è detta teoria degli anelli.
Definizione formale
L'insieme A, dotato di due operazioni binarie + e ·, è un anello se valgono i seguenti assiomi:
(A, +) è un gruppo abeliano con elemento neutro 0:
•
•
•
•
(a + b) + c = a + (b + c)
a+b=b+a
0+a=a+0=a
∀a ∃(−a) tale che a + −a = −a + a = 0
(A, ·) è un semigruppo:
• (a·b)·c = a·(b·c)
La moltiplicazione è distributiva rispetto alla somma:
• a·(b + c) = (a·b) + (a·c)
• (a + b)·c = (a·c) + (b·c)
(le relazioni devono valere per ogni a, b e c in A)
Come per i numeri, il simbolo · per la moltiplicazione è spesso omesso.
Spesso vengono studiati anelli che posseggono ulteriori proprietà: se anche la moltiplicazione è commutativa, A è
detto anello commutativo, se ammette un elemento neutro (generalmente indicato con 1; cioè (A, ·) è un monoide)
allora l'anello è unitario; se poi l'anello è commutativo e non esistono divisori dello 0 (cioè se ab=0 allora almeno
uno tra a e b è 0) si è in presenza di un dominio d'integrità.
Un corpo è un anello con unità i cui elementi non nulli hanno inverso moltiplicativo. Un campo è un anello
commutativo con unità i cui elementi non nulli hanno inverso moltiplicativo, ossia un corpo commutativo. L'esempio
più importante di corpo non commutativo è il corpo
dei quaternioni, mentre gli insiemi
(numeri razionali),
(numeri reali) e
(numeri complessi) sono esempi di campi.
A volte la definizione di anello è lievemente diversa. La più importante di queste differenze è la richiesta che l'anello
possegga anche l'unità: tra i matematici che adottano questa definizione vi sono Bourbaki[1] e Serge Lang[2] . In
questo caso, per riferirsi alla struttura qui presentata come anello, viene usato il termine pseudoanello. Altri autori
non richiedono l'associatività del prodotto.
Esempi
L'esempio più basilare della struttura di anello è l'insieme
dei numeri interi, dotato delle usuali operazioni di
somma e prodotto. Tale anello è commutativo ed è un dominio d'integrità. L'insieme dei numeri naturali non è invece
un anello, perché non esistono gli inversi rispetto all'addizione.
Allo stesso modo, l'insieme A[x] dei polinomi con variabile x e coefficienti in un anello A formano un anello con le
usuali operazioni di somma e prodotto fra polinomi. Tale anello eredita molte proprietà da quelle di A, quali la
commutatività e l'assenza di divisori dello 0. Anche l'insieme F(X, A) delle funzioni da un insieme qualsiasi X ad un
anello A forma un altro anello con le usuali operazioni di somma e prodotto fra funzioni punto a punto, definite nel
modo seguente:
Anello (algebra)
Un anello non commutativo è invece l'anello delle matrici n x n a valori in un anello A (indicato con M(n, A)), con le
operazioni di somma e prodotto fra matrici. Generalmente questo anello possiede anche dei divisori dello zero. Ad
esempio, in M(2, R) valgono le relazioni:
e
Teoremi di base
A partire dagli assiomi, si può dedurre immediatamente che per ogni a e b in un anello A:
• 0a = a0 = 0,
• (−a)b = a(−b) = −(ab).
Se poi l'anello A è unitario, allora
•
•
•
•
l'unità è unica,
(−1)a = −a,
(ab)−1 = b−1 a−1 se a e b hanno inversi rispetto al prodotto.,
se 0 = 1 allora l'anello è formato da un solo elemento,
Un altro importante teorema, che non richiede l'esistenza dell'unità, è il teorema del binomio:
valido per ogni coppia di elementi x e y che commutano (cioè tali che xy = yx).
Sottostrutture
Un sottoanello di un anello A è un sottogruppo S di (A, +) che sia chiuso rispetto al prodotto. In altre parole, S è un
sottoinsieme non vuoto di A, e se a e b sono in S, allora anche
e ab sono in S. Poiché gli assiomi elencati
sopra continuano a valere per S, anch'esso è un anello rispetto alle operazioni + e · di A. In questo modo costruiamo
facilmente altri esempi:
•
•
•
•
•
•
I numeri interi divisibili per n sono un sottoanello di Z.
I numeri razionali con denominatore dispari sono un sottoanello di Q.
L'insieme di tutti i numeri reali della forma a + b√2 con a e b interi è un sottoanello di R.
Gli interi gaussiani a + bi in C, dove a e b sono interi, sono un sottoanello di C.
I polinomi in A[x] del tipo p(x) = a0 + a1x2 + a2x4 + ... + anx2n sono un sottoanello di A[x].
L'insieme delle frazioni diadiche costituisce un sottoanello dei numeri razionali.
Un particolare sottoanello è il centro di un anello A: esso comprende tutti gli elementi che commutano
(moltiplicativamente) con qualsiasi elemento di A. Esso coincide con l'intero anello se e solo se A è un anello
commutativo.
A partire da un sottoanello S di A e da un sottoinsieme X, si può costruire il più piccolo sottoanello contenente S ed
X: esso è indicato con S[X], ed è uguale all'insieme delle combinazioni degli elementi di
mediante le
operazioni di anello. Tale operazione è detta estensione di anelli, ed è "finitamente generata" se X è finito.
2
Anello (algebra)
3
Ideali
Spesso tuttavia al posto di questa struttura si preferisce usare quella, più forte, di ideale: esso è definito in un anello
commutativo come un particolare sottoanello tale che tutti i prodotti ai, dove a è un elemento dell'anello e i
appartiene all'ideale, sono ancora elementi dell'ideale. Se invece l'anello non è commutativo, è necessario distinguere
tra ideali destri e sinistri: i primi sono quelli tali che ia appartiene all'ideale per ogni i nell'ideale e a nell'anello,
mentre per i secondi, allo stesso modo, ai appartiene all'ideale. Se un ideale è sia destro che sinistro, viene detto
bilatero o bilaterale.
L'importanza di questa struttura risiede nel fatto che il nucleo di un omomorfismo tra due anelli è sempre un ideale
bilatero di A, e che a partire da un ideale bilatero I è possibile costruire l'anello quoziente A/I. Inoltre la presenza di
ideali permette di stabilire un'importante proprietà dell'anello: esso è infatti un campo se e solo se è privo di ideali
non banali (cioè diversi dall'insieme {0} e dall'anello stesso).
A seconda del rapporto di un ideale con il resto dell'anello, sono possibili ulteriori specificazioni: un ideale primo I è
un ideale tale che, per ogni prodotto ab che appartiene ad I, almeno uno tra a e b appartiene ad I (il nome deriva dalla
similitudine di questa definizione con il lemma di Euclide riguardante i numeri primi); se invece non esistono ideali
"intermedi" tra I ed A (cioè se l'unico ideale di A che contiene I è A stesso) si parla di ideale massimale. Questi due
tipi di ideali sono particolarmente importanti in relazione ai loro quozienti: in un anello commutativo, infatti, I è
primo se e solo se A/I è un dominio d'integrità, mentre se l'anello è anche unitario I è massimale se e solo se A/I è un
campo. Questo implica anche che, in un anello commutativo unitario, ogni ideale massimale è primo.
Il lemma di Krull (la cui dimostrazione si basa sul lemma di Zorn) afferma che ogni anello unitario possiede almeno
un ideale massimale; se esso è unico, l'anello si dice locale. L'insieme degli ideali primi di un anello commutativo A
forma il cosiddetto spettro di A.
Elementi invertibili
Un elemento a di un anello A con unità è invertibile se esiste un b tale che
.
Gli elementi invertibili di un anello sono spesso chiamati unità. Normalmente è il contesto che chiarisce se si parla di
unità intesa come l'elemento neutro moltiplicativo, o di unità intesa come elemento invertibile.
L'insieme degli elementi invertibili in A è generalmente descritto come
. L'insieme
forma un gruppo con
l'operazione prodotto, chiamato gruppo moltiplicativo di A.
Ad esempio, nei numeri interi il gruppo moltiplicativo è dato dai due elementi
. In un corpo o in un
campo, il gruppo moltiplicativo coincide con tutto l'anello privato dell'elemento neutro.
Omomorfismi
Un omomorfismo tra due anelli A e B è una funzione che preserva le operazioni, cioè una funzione f tale che, per
ogni coppia di elementi a e b di A, si ha
e
. Gli omomorfismi
quindi preservano in qualche modo la struttura algebrica; particolarmente importanti tra di essi sono gli isomorfismi,
ovvero gli omomorfismi biunivochi, che la conservano completamente: due anelli isomorfi possono essere
considerati "uguali" per tutte le proprietà algebriche.
Ogni omomorfismo mappa lo zero di A nello zero di B, mentre questo non avviene per l'unità, nemmeno se entrambi
gli anelli sono unitari: condizioni sufficienti peché questo avvenga è che l'omomorfismo sia suriettivo oppure che nel
codominio non esistano divisori dello zero. Il nucleo di un omomorfismo è un ideale bilatero di A, e viceversa ogni
ideale è il nucleo di un omomorfismo: invece l'immagine di A è un sottoanello di B. Gli omomorfismi preservano in
una certa misura anche le sottostrutture: l'immagine di un sottoanello è un sottoanello, mentre l'immagine di un
ideale è un ideale nell'immagine di A, ma non necessariamente in B.
Anello (algebra)
4
Una relazione molto importante è il teorema fondamentale di omomorfismo, che permette di trovare degli
isomorfismi a partire da degli omomorfismi: se f è un omomorfismo tra A e B e I è il suo nucleo, allora il quoziente
A/I è isomorfo all'immagine f(A).
Un omomorfismo suriettivo può essere considerato una proiezione di un anello A su un suo quoziente A/I (dove I è il
nucleo); un omomorfismo iniettivo, invece, può essere considerato un'inclusione di un anello nell'altro, perché, per il
teorema di omomorfismo, esiste nel codominio un'immagine isomorfa ad A, che quindi può essere considerata
uguale ad A. Se A è un campo, inoltre, tutti gli omomorfismi non nulli sono iniettivi, in quanto gli unici ideali sono
quelli banali.
Prodotto diretto
Il prodotto diretto di due anelli A e B è il prodotto cartesiano A×B con le operazioni definite termine a termine:
(a1, b1) + (a2, b2) = (a1+a2, b1+b2),
(a1, b1)(a2, b2) = (a1a2, b1b2).
Questo nuovo insieme forma un anello, in cui lo 0 è la coppia
. Diverse proprietà di questo nuovo anello
possono essere dedotte dalle proprietà degli anelli di partenza: A×B è commutativo se e solo se lo sono entrambi i
fattori, mentre se A e B sono unitari allora
è l'unità di A×B. Una proprietà che invece non passa al prodotto
è l'assenza di divisori degli zeri: infatti il prodotto
è sempre uguale a
, anche se a e b non
sono zeri. Questo implica che il prodotto diretto di campi non è mai un campo, a meno che uno non sia ridotto al solo
0.
Questa definizione si può estendere naturalmente al prodotto cartesiano di n anelli.
Elementi primi ed irriducibili
In un dominio d'integrità è possibile come in
studiare la fattorizzazione di un dato elemento (non invertibile). In
questo contesto, la definizione di divisibilità si estende naturalmente al caso di qualsiasi dominio: a divide b se esiste
un elemento r tale che ar=b. Se r è invertibile, a e b si dicono associati.
Due definizioni emergono naturalmente in questo studio:
• un elemento a è irriducibile se, ogniqualvolta che a=bc, allora o b o c è invertibile;
• un elemento a è primo se, quando a divide il prodotto bc, allora a divide almeno uno tra b e c.
In
, queste due definizioni sono equivalenti, ma questo non è vero in generale: gli elementi primi sono
irriducibili,
ma
gli
irriducibili
primo, perché divide il prodotto
non
sono
sempre
primi.
Ad
esempio,
nell'anello
, 2 è irriducibile ma non
, ma non divide né un fattore né l'altro.
Questa seconda implicazione è tuttavia verificata negli anelli a fattorizzazione unica, ovvero in quegli anelli in cui,
date due fattorizzazioni in irriducibili
allora m=n, e ogni
è associato ad un
. In ogni dominio a fattorizzazione unica esistono il massimo comun
divisore e il minimo comune multiplo tra ogni coppia di elementi.
Anelli con ancora maggiori proprietà sono gli anelli ad ideali principali e gli anelli euclidei, in cui è possibile
effettuare la divisione euclidea come negli interi. A quest'ultima classe appartengono anche gli anelli di polinomi
, dove
è un campo.
Anello (algebra)
5
Voci correlate
•
•
•
•
•
•
•
•
•
Storia della teoria degli anelli
Teoria degli anelli
Ideale
Anello commutativo
Pseudoanello
Semianello
Dominio di integrità
Campo
Struttura algebrica
Note
[1] (EN) Elements of Mathematics, Vol. II Algebra, Ch. 1, Springer
[2] (EN) Algebra, 3rd edition, Springer, ch. II
Bibliografia
• Giulia Maria Piacentini Cattaneo, Algebra - un approccio algoritmico. Decibel-Zanichelli, Padova 1996, ISBN
978-88-08-16270-0
Collegamenti esterni
• (EN) Anello (http://mathworld.wolfram.com/Ring.html) su MathWorld.
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Corpo (matematica)
6
Corpo (matematica)
In matematica, un corpo è una particolare struttura algebrica, che può essere considerata come intermedia fra quella
di anello e quella di campo.
Un corpo è infatti un insieme munito di due operazioni binarie, chiamate somma e prodotto e indicate
rispettivamente con e , che abbia tutte le proprietà usuali di un campo, tranne la proprietà commutativa per il
prodotto. Equivalentemente, è un anello in cui ogni elemento non nullo ha un inverso moltiplicativo.
Definizione
Un corpo è un insieme
, dotato di due operazioni binarie interne
è un gruppo abeliano con elemento neutro
e
, che soddisfa i seguenti assiomi:
:
•
•
•
• per ogni
esiste un elemento
tale che
è un gruppo con elemento neutro
:
•
•
• per ogni
esiste un elemento
tale che
La moltiplicazione è distributiva rispetto alla somma:
•
•
(le relazioni devono valere per ogni
Nella definizione,
e
in
)
.
Un corpo in cui la moltiplicazione è commutativa è detto corpo commutativo, e più usualmente campo.
Esempi
Ogni campo è anche un corpo: sono quindi corpi i campi
L'insieme
dei quaternioni è un corpo (non commutativo).
Proprietà
Equazioni
In un corpo sono risolubili in modo unico le equazioni
,
per ogni
appartenenti a
con
diverso da 0.
dei numeri razionali, reali e complessi.
Corpo (matematica)
7
Spazi vettoriali
Un corpo è la struttura su cui si basa la costruzione di spazio vettoriale. In particolare, ogni corpo è uno spazio
vettoriale su se stesso.
Voci correlate
• Anello
• Campo
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Matrice
In matematica, una matrice è uno
schieramento rettangolare di oggetti; le
matrici di maggiore interesse sono costituite
da numeri come, per esempio, la seguente:
Gli elementi di una matrice vengono in genere indicati con una coppia di indici a
pedice.
Le matrici sono ampiamente usate in matematica e in tutte le scienze per la loro capacità di rappresentare in maniera
utile e concisa diversi oggetti matematici, come valori che dipendono da due parametri o anche sistemi lineari, cosa,
quest'ultima, che le rende uno strumento centrale dell'algebra lineare.
Matrice
Storia
Tracce dell'utilizzo di matrici risalgono fino ai primi secoli a.C. Nel corso della storia più volte è capitato che
matematici vissuti in epoche e luoghi diversi, durante lo studio di sistemi lineari, abbiano disposto i coefficienti del
sistema in forma tabellare, fatto che evidenzia come le matrici siano una struttura particolarmente intuitiva e
conveniente per questi scopi.[1]
Interessanti reperti sono anche i quadrati latini e i quadrati magici.
Fu solo a partire dal XVII secolo comunque che l'idea delle matrici fu ripresa e sviluppata, prima con risultati e idee
ottenuti in contesti di studio specifici, poi con la loro generalizzazione. Lo sviluppo infine è continuato fino a dare
alla teoria delle matrici la forma che oggi conosciamo.[1]
I primi a sfruttare le matrici per agevolare i propri calcoli furono i matematici cinesi, proprio nell'affrontare i sistemi
lineari.
Nel Jiuzhang Suanshu (Nove capitoli sulle arti matematiche), steso durante la dinastia Han, l'ottavo capitolo è
interamente dedicato allo svolgimento di un problema matematico formulato sottoforma di sistema lineare. L'autore
dispone ingegnosamente i coefficienti di ogni equazione parallelamente in senso verticale, in maniera quindi
differente dalla notazione odierna, che li vuole disposti orizzontalmente, per righe: una semplice differenza di
notazione.[1] [2]
Ai numeri così disposti venivano poi applicate una serie di operazioni portandoli in una forma tale da rendere
evidente quale fosse la soluzione del sistema: era stato applicato quello che oggi conosciamo come metodo di
eliminazione gaussiana, che sarà scoperto in occidente solo agli inizi del XIX secolo con gli studi del matematico
tedesco Carl Friedrich Gauss.[1]
All'interno dello stesso Jiuzhang Suanshu comparve anche il concetto di determinante, inteso come metodo per
determinare se un sistema lineare ammette un'unica soluzione.[2]
Un'idea più moderna di determinante fece la sua comparsa nel 1683, a distanza di poco tempo sia in Giappone, con
Kowa Seki (Method of solving the dissimulated problems), che in Europa, con Leibniz.
Nella prima metà del XVIII secolo, il matematico scozzese Colin Maclaurin scrisse un'opera, pubblicata postuma
solo nel 1748, due anni dopo la sua morte, dal titolo Treatise of Algebra (Trattato di algebra)[3] , nella quale
mostrava il calcolo dei determinanti per matrici quadrate di ordine 2 e 3.
Successivamente Cramer ampliò quanto scoperto, presentando l'algoritmo per il calcolo del determinante per matrici
quadrate di ordine qualunque, oggi noto come regola di Cramer nel 1750 (Introduction à l'analyse des lignes courbes
algébriques).
Ulteriori sviluppi sul concetto di determinante furono poi apportati dai matematici Étienne Bézout (Sur le degré des
équations résultantes de l'évanouissement des inconnues, 1764), Vandermonde (Mémoire sur l'élimination, 1772)[4] ,
Laplace (1772), Lagrange (1773), Gauss (1801) che introdusse per la prima volta il termine determinante, Cauchy
(1812) che usò per la prima volta il determinante nella sua concezione moderna, ottenendo anche importanti risultati
sui minori e le matrici aggiunte, e Jacobi.[1]
All'inizio del XIX secolo venne usato per la prima volta in occidente il metodo di eliminazione gaussiana da parte di
Gauss, per lo studio dell'orbita dell'asteroide Pallas in base alle osservazioni ottenute fra il 1803 ed il 1809.[1]
Altri concetti ed idee fondamentali della teoria delle matrici furono poi studiati, sempre in contesti specifici, da
Cauchy, Sturm, Jacobi, Kronecker, Weierstrass e Eisenstein.
Nel 1848 il matematico e avvocato inglese James Joseph Sylvester introdusse per la prima volta il termine matrice. Il
matematico inglese Arthur Cayley, anch'egli avvocato nonché collega di Sylvester, introdusse nel 1853 l'inversa di
una matrice.[1]
Fu poi lo stesso Cayley nel 1858 a fornire la prima definizione astratta di matrice, in Memoir on the theory of
matrices (Memorie sulla teoria delle matrici)[5] , mostrando come tutti gli studi precedenti non fossero altro che casi
8
Matrice
9
specifici del suo concetto generale. All'interno del testo Cayley forniva inoltre un'algebra delle matrici, definendo le
operazioni basilari di somma, moltiplicazione tra matrici, moltiplicazione per scalari e inversa di una matrice.[1]
Ancora ignaro di tali opere, nel 1878 il matematico tedesco Frobenius pubblicò Ueber lineare Substitutionen und
bilineare Formen (Sulle sostituzioni lineari e forme bilineari), nel quale riportava importanti risultati sulle matrici,
quale per esempio la definizione di rango.[1]
Nel 1888 il geodeta Wilhelm Jordan nella terza edizione del suo Handbuch der Vermessungskunde (Manuale di
geodesia) ampliò il metodo di eliminazione di Gauss in quello che oggi è noto come metodo di eliminazione di
Gauss-Jordan.[6]
Altri contributi importanti furono dati da Maxime Bôcher nel 1907 con Introduction to higher algebra; altri testi di
rilievo furono scritti da Herbert Westren Turnbull ed Alexander Craig Aitken negli anni trenta (The Theory of
Canonical Matrices e Determinants and Matrices) e da Leon Mirsky nel 1955 (An introduction to linear algebra).[1]
A partire dalla seconda metà del XX secolo l'avvento dei computer ha dato un'impressionante accelerazione alla
diffusione delle matrici e dei metodi matriciali. Grazie ai computer infatti è stato possibile applicare in maniera
efficiente metodi iterativi precedentemente ritenuti troppo onerosi, portando di conseguenza allo sviluppo di nuove
tecniche per la risoluzione di importanti problemi dell'algebra lineare, quali il calcolo degli autovettori e autovalori,
il calcolo dell'inversa di una matrice e la risoluzione di sistemi lineari.[7]
Ciò a sua volta ha permesso l'introduzione delle matrici in altre discipline applicate, come per esempio l'economia e
la probabilità, che grazie ad esse hanno potuto rappresentare concetti complessi in maniera più semplice. Altri campi
relativamente più recenti, invece, come per esempio la ricerca operativa, hanno basato ampiamente la propria
disciplina sull'utilizzo delle matrici.[7]
Definizioni e notazioni
Righe, colonne, elementi
Le righe orizzontali di una matrice sono chiamate righe, mentre quelle verticali sono le colonne. Ad esempio, la
matrice mostrata sopra ha due righe e tre colonne. In generale, una matrice
è una matrice con
righe e
colonne, dove
e
sono interi positivi fissati. Una matrice
generica è descritta solitamente nel modo
seguente:
indicando con
l'elemento posizionato alla riga
-esima e alla colonna
-esima.
I vettori possono essere considerati matrici molto semplici, aventi una sola riga o una sola colonna. Più
precisamente, una matrice con una sola riga, di dimensione
, è detta matrice riga, mentre una matrice con
una sola colonna, di dimensione
, è detta matrice colonna.
Qui sotto sono mostrati in ordine una matrice
, una matrice colonna ed una matrice riga.
Come mostrato negli esempi, i valori presenti nella matrice possono essere di vario tipo: interi, reali o anche
complessi. Generalmente, in algebra lineare si suppone che i valori siano elementi di un campo
fissato.
Matrice
10
Notazioni
Generalmente una matrice è indicata con una lettera dell'alfabeto (spesso maiuscola):
L'elemento posizionato nella riga
tramite parentesi quadre
e nella colonna
può essere indicato in vari modi: ad esempio come
. Si usa talvolta la notazione
per indicare che
,o
è una matrice e che i
suoi elementi sono denotati con
.
costituiscono la diagonale principale della matrice.
Algebra delle matrici
Sulle matrici si possono definire numerose operazioni: due matrici (aventi dei numeri opportuni di righe e colonne)
possono essere sommate, sottratte, moltiplicate fra loro, e moltiplicate per un numero (detto scalare).
Somma
Due matrici
e
, entrambe di tipo
come la matrice
, possono essere sommate. La loro somma
i cui elementi sono ottenuti sommando i corrispettivi elementi di
è definita
e
. Formalmente:
Per esempio
Moltiplicazione per uno scalare
La moltiplicazione per uno scalare è un'operazione che, data una matrice
costruisce una nuova matrice
ed un numero
(detto scalare),
, il cui elemento è ottenuto moltiplicando l'elemento corrispondente di
per
; la matrice e lo scalare scelti devono appartenere allo stesso campo. Formalmente:
Per esempio:
Prodotto
La moltiplicazione tra due matrici
e
è un'operazione più complicata delle precedenti. A differenza della
somma, non è definita moltiplicando semplicemente gli elementi aventi lo stesso posto. La definizione di
moltiplicazione che segue è motivata dal fatto che una matrice modellizza una applicazione lineare, e in questo modo
il prodotto di matrici corrisponde alla composizione di applicazioni lineari.
La moltiplicazione è definita soltanto se le matrici
parole, il numero
di tipo
di colonne di
e
sono rispettivamente di tipo
deve coincidere con il numero
di righe di
e
: in altre
. Il risultato è una matrice
.
Esempio: siano
e
due matrici rispettivamente
ed ottenere una matrice
, poiché le colonne di
e
: tra queste si può effettuare la moltiplicazione
. Le stesse matrici, però, non possono essere moltiplicate nel modo
non sono tante quante le righe di
.
Matrice
11
Il prodotto di
e
è la matrice
di dimensione
, il cui elemento di posizione
è dato dalla somma
Questo è il prodotto scalare tra la riga
di
e la colonna
di
, che hanno lo stesso numero
di elementi.
Per questo motivo il prodotto è chiamato prodotto riga per colonna.
Per esempio:
Moltiplicando una matrice
per una
si ottiene una matrice
.
1ª riga:
2ª riga:
Risultato
:
A differenza dell'usuale moltiplicazione fra numeri, questa non è un'operazione commutativa, cioè
generale diverso da
è in
, quando si possono effettuare entrambi questi prodotti.
Un caso particolare, ampiamente usato in algebra lineare per rappresentare le trasformazioni lineari (come rotazioni e
riflessioni) è il prodotto tra una matrice
ed un vettore colonna
, che viene chiamato anche prodotto
matrice-vettore.
Proprietà
Le operazioni di somma e prodotto di matrici soddisfano tutte le proprietà usuali della somma e del prodotto di
numeri, ad eccezione, nel caso del prodotto di matrici, della proprietà commutativa.
Sia
la matrice nulla, fatta di soli zeri (e della stessa taglia di
moltiplicando
per lo scalare
). Sia inoltre
. Valgono le relazioni seguenti, per ogni
la matrice ottenuta
matrici
per cui
queste operazioni hanno senso.
1.
(la matrice nulla è l'elemento neutro della somma)
2.
3.
4.
5.
6.
7.
(esistenza di un opposto per la somma)
(proprietà associativa della somma)
(proprietà commutativa della somma)
(proprietà associativa del prodotto)
(proprietà distributiva)
(proprietà distributiva)
Le prime 4 proprietà affermano che le matrici
formano un gruppo abeliano rispetto all'operazione di
somma. Come mostrato sopra, il prodotto non è commutativo in generale.
Matrice
12
Altre operazioni
Sulle matrici sono definite numerose altre operazioni. Tra queste:
•
•
•
•
•
•
Trasposizione di una matrice
Somma diretta
Prodotto diretto (o di Kronecker)
Esponenziale di una matrice
Inversione di una matrice invertibile
Diagonalizzazione di una matrice diagonalizzabile
Matrici quadrate
Fra le matrici, occupano un posto di rilievo le matrici quadrate, cioè le matrici
, che hanno lo stesso numero
di righe e di colonne.
Nozioni di base
Una matrice quadrata ha una diagonale principale, quella formata da tutti gli elementi
con indici uguali. La
somma di questi elementi è chiamata traccia. L'operazione di trasposizione trasforma una matrice quadrata
matrice
ottenuta scambiando ogni
con
nella
, in altre parole ribaltando la matrice intorno alla sua diagonale
principale.
Una matrice tale che
è una matrice simmetrica. In altre parole,
è simmetrica se
. Se tutti
gli elementi che non stanno nella diagonale principale sono nulli, la matrice è detta diagonale.
Prodotto di matrici quadrate
La più importante matrice
è forse la matrice identità
: è una matrice avente 1 su ogni elemento della
diagonale e 0 altrove. La matrice è importante perché rappresenta l'elemento neutro rispetto al prodotto: infatti le
matrici
possono essere moltiplicate fra loro, e vale (oltre a quelle scritte sopra) la proprietà seguente per
ogni
:
(elemento neutro del prodotto)
Nello spazio delle matrici
sono quindi definiti una somma ed un prodotto, e le proprietà elencate fin qui
asseriscono che l'insieme è un anello, simile all'anello dei numeri interi, con l'unica differenza che il prodotto di
matrici non è commutativo.
Determinante
Un' importante quantità definita a partire da una matrice quadrata
è il suo determinante. Indicato con
,
questo numero fornisce molte informazioni essenziali sulla matrice. Ad esempio, determina se la matrice è
invertibile, cioè se esiste una matrice
tale che
Il determinante è l'ingrediente fondamentale della regola di Cramer, utile a risolvere alcuni sistemi lineari.
Matrice
13
Polinomio caratteristico, autovettori, diagonalizzabilità
La traccia ed il determinante possono essere racchiuse in un oggetto ancora più raffinato, di fondamentale
importanza nello studio delle trasformazioni lineari: il polinomio caratteristico.
Questo polinomio è importante nello studio delle trasformazioni lineari. Le sue radici sono gli autovalori della
matrice, quantità associate ai corrispondenti autovettori. In particolare, questi concetti sono utili a capire se una data
matrice è simile ad una matrice diagonale.
Applicazioni delle matrici
Sistemi lineari
Le matrici sono utili soprattutto a rappresentare sistemi di equazioni lineari. Il sistema lineare
può essere rappresentato con il suo equivalente matriciale, tramite il prodotto matrice-vettore:
Applicazioni lineari
Più in generale, le matrici permettono di rappresentare le trasformazioni lineari fra spazi vettoriali. Ogni operatore
lineare
da uno spazio vettoriale di dimensione
a uno spazio vettoriale
di dimensione ,
e per ogni possibile scelta di una coppia di basi
matrice
e
, si associa a
la
tale che
Questa matrice rappresenta l'applicazione
: questa rappresentazione dipende però dalle basi scelte. Molte
operazioni fra matrici si traducono in operazioni fra applicazioni lineari:
• L'immagine
di un vettore corrisponde alla moltiplicazione matrice-vettore.
• La somma di applicazioni (quando possibile) corrisponde alla somma fra matrici.
• La composizione di applicazioni lineari (quando possibile) corrisponde al prodotto fra matrici.
Classi di matrici reali e complesse
Oltre alle matrici diagonali e simmetriche già introdotte, vi sono altre categorie di matrici importanti.
• Le matrici antisimmetriche, in cui i valori nelle caselle in posizioni simmetriche rispetto alla diagonale principale
sono opposti:
.
• Le matrici hermitiane (o auto-aggiunte), in cui i valori nelle caselle di posizioni simmetriche rispetto alla
diagonale principale sono complessi coniugati:
.
• Un quadrato magico è una matrice quadrata in cui la somma dei valori su ogni riga, colonna o diagonale è sempre
la stessa.
• Le matrici di Toeplitz hanno valori costanti sulle diagonali parallele alla principale:
Matrice
14
• Le matrici stocastiche sono matrici quadrate le cui colonne sono vettori di probabilità, cioè sequenze di reali
compresi tra 0 e 1 con somma uguale a 1; esse sono usate per definire le catene di Markov.
Spazio di matrici
Spazio vettoriale
Lo spazio di tutte le matrici
Mat
a valori in un fissato campo
è indicato generalmente con
o
. Per quanto già visto, questo spazio è un gruppo abeliano con la somma. Considerato anche con la
moltiplicazione per scalare, l'insieme ha una struttura di spazio vettoriale su
.
Questo spazio ha una base canonica, composta da tutte le matrici
aventi valore 1 sulla casella di posto
zero in tutte le altre. La base consta di
elementi, e quindi lo spazio
e
ha dimensione
.
Algebra su campo
Nel caso
delle matrici quadrate, è definito anche il prodotto. Con questa ulteriore operazione, lo spazio
, generalmente indicato con
, eredita una struttura di anello con unità. Tale struttura è
compatibile con quella di spazio vettoriale definita sopra, e fornisce quindi un esempio basilare di algebra su campo.
Generalizzazioni
Una matrice infinita può essere definita come una serie di elementi
, indicizzati da coppie di numeri naturali
, senza nessun limite superiore per entrambi.
Più in generale, una generalizzazione del concetto di matrice è costruita prendendo due insiemi di indici
qualsiasi (parametrizzanti le "righe" e le "colonne") e definendo una matrice come un'applicazione
a valori in un altro dato insieme
. La matrice usuale
corrisponde al caso in cui
e
, e è ad esempio l'insieme dei numeri reali o complessi.
Questa definizione generale si serve solo di nozioni insiemistiche e non ricorre a nozioni visive e intuitive come
quella di schieramento rettangolare. Consente di trattare casi molto generali: ad esempio matrici le cui righe e
colonne sono etichettate da indici in un qualunque sottoinsieme degli interi , matrici etichettate da coppie o in
generale da -uple di interi come quelle che si incontrano nella meccanica quantistica o nella chimica molecolare,
matrici infinite etichettate con gli insiemi
e
come quelle che permettono di rappresentare successioni
polinomiali o serie formali con due variabili.
Per poter definire somma, prodotto e altre operazioni sulle matrici, è opportuno che l'insieme
operazioni, ad esempio che sia un anello.
sia dotato di tali
Matrice
15
Note
[1] (EN) Storia dell'uso delle matrici e dei determinanti (http:/ / www-history. mcs. st-andrews. ac. uk/ HistTopics/ Matrices_and_determinants.
html) su MacTutor
[2] (EN) Il Nove cpitoli sulle arti matematiche (http:/ / www-history. mcs. st-andrews. ac. uk/ HistTopics/ Nine_chapters. html) su MacTutor
[3] Il testo è consultabile on-line: Treatise of Algebra (http:/ / books. google. it/ books?id=QoAHAAAAcAAJ& printsec=frontcover&
source=gbs_navlinks_s#v=onepage& q=& f=false).
[4] (EN) Biografia di Vandermonde (http:/ / www-history. mcs. st-and. ac. uk/ Biographies/ Vandermonde. html) su MacTutor
[5] L'abstract del testo è consultabile on-line: Memoir on the theory of matrices in Proceedings of the Royal Society of London, Volume 9 (http:/ /
books. google. com/ books?id=xOkAAAAAYAAJ& pg=PA100& ei=A6kkS5v5Lpe6yQS9kMyGCw& hl=it& cd=1#v=onepage& q=&
f=false).
[6] S. C. Althoen and R. McLaughlin, "Gauss-Jordan Reduction: A Brief History," American Mathematical Monthly, 94:130–142 (1987).
[7] Bronson 1989, op. cit., Preface
Bibliografia
In lingua straniera
• Richard Bronson, Schaum's Outline of Theory and Problems of Matrix Operations (in inglese), New York,
McGraw-Hill, 1989, 230 pagine.. ISBN 978-0-07-007978-1
• David M. Burton, The History of Mathematics: An Introduction, 6a edizione (in inglese), McGraw-Hill,
2005-12-01. ISBN 978-0-07-110635-1
• Richard W. Jr. Feldmann, Arthur Cayley - Founder of Matrix Theory (in inglese), The Mathematics Teacher, 55,
1962, Pagine 482-484..
• Gene H. Golub; Charles F. Van Loan, Matrix computations, 3a edizione (in inglese), Johns Hopkins University
Press, 1996. ISBN 0-8018-5414-8
Voci correlate
•
•
•
•
•
•
•
•
Glossario sulle matrici per una lista dei vari tipi di matrici esistenti.
Determinante
Autovettore e autovalore
Rango
Matrice associata ad una trasformazione lineare
Norma matriciale
Sistema lineare
Collegamenti tra combinatoria e matrici
Collegamenti esterni
• (EN) Calcolatrice per matrici (http://www.webalice.it/simoalessia/SuperiorMath/matrix.html)
• (EN) Matrice (http://planetmath.org/encyclopedia/Matrix.html) su PlanetMath
• (EN) Storia dell'uso delle matrici e dei determinanti (http://www-history.mcs.st-andrews.ac.uk/HistTopics/
Matrices_and_determinants.html) su MacTutor
• (EN) Matrice (http://mathworld.wolfram.com/Matrix.html) su MathWorld
• (EN) Matrice (http://planetmath.org/encyclopedia/Matrix.html) su PlanetMath
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Rappresentazione dei numeri complessi
16
Rappresentazione dei numeri complessi
I numeri complessi hanno differenti rappresentazioni, tutte
equivalenti. Essendo il campo dei numeri complessi
isomorfo a
, ogni numero complesso è rappresentabile come un vettore nel piano
complesso. Si tratta di scegliere il sistema di coordinate.
Rappresentazione cartesiana
La rappresentazione cartesiana (o rettangolare) è quella più vicina alla
definizione dei numeri complessi:
Rappresentazione grafica dei numeri complessi.
L'asse Y mostra la parte complessa, l'asse X la
parte reale del numero.
con
e
l'unità immaginaria.
Questa non è altro che una generica combinazione lineare di elementi della base di
,
e
con coefficienti reali a, b.
Rappresentazione polare
Usare la rappresentazione polare dei numeri complessi significa usare le coordinate polari
dove
è il modulo (positivo o nullo) del numero complesso, mentre
è la fase o argomento. Dato un numero
complesso espresso in coordinate cartesiane a+ib, il modulo si ottiene banalmente come:
La fase può essere ottenuta a partire dalla funzione trigonometrica di arcotangente come[1] :
Ciò si rende necessario per ovviare al fatto che l'arcotangente fornisce valori ristretti a mezzo angolo giro
(convenzionalmente nell'intervallo
), il che comporterebbe la perdita dell'informazione relativa al
semipiano entro cui si colloca il numero complesso dato.
Quando
formula: per
il rapporto
si intende il
non è definito. Ciononostante si può attribuire un significato alla precedente
.
In generale, data la periodicità delle funzioni trigonometriche, non sussiste una corrispondenza biunivoca tra numeri
complessi e rappresentazioni polari. È facilmente dimostrabile l'identità tra tutti i numeri espressi nella forma
, in virtù della quale lo spazio delle rappresentazioni polari risulta partizionato in classi di
equivalenza: queste sono in corrispondenza biunivoca con i numeri complessi, eccezion fatta per lo 0, per il quale
non è possibile individuare una rappresentazione univoca (ogni rappresentazione polare con
e
qualsiasi è
Rappresentazione dei numeri complessi
17
una rappresentazione dello 0).
Rappresentazione esponenziale
Usando la formula di Eulero o equivalentemente la definizione di esponenziale complesso, dalla rappresentazione
polare discende direttamente la cosiddetta rappresentazione esponenziale:
Questa è la notazione che viene più frequentemente utilizzata nelle applicazioni in cui modulo e fase abbiano un
significato preminente rispetto a parte reale ed immaginaria (ad esempio per la descrizione dei fasori), e preferita alla
rappresentazione polare per la maggior compattezza e per la maggior praticità nello svolgimento di operazioni di
moltiplicazione (e conseguentemente di elevamento a potenza).
Rappresentazione matriciale dei numeri complessi
Le rappresentazioni alternative del campo dei numeri complessi possono dare una migliore comprensione della loro
natura. Una rappresentazione particolarmente elegante interpreta ogni numero complesso come una matrice 2×2 di
numeri reali che dilata/contrae e ruota i punti del piano. La matrice ha la forma
con a e b numeri reali. La somma ed il prodotto di due tali matrici è ancora di questa forma. Ogni matrice non nulla
di questa forma è invertibile ed il relativo inverso è ancora di questa forma. Di conseguenza, le matrici di questa
forma sono un campo. Di fatto, questo è esattamente il campo dei numeri complessi. Ciascuna di queste matrici può
essere scritta come:
questa rappresentazione implica che il numero reale 1 va rappresentato con la matrice identità
mentre l'unità immaginaria i si rappresenta con la matrice
che rappresenta una rotazione in senso antiorario di 90 gradi. Si noti che il quadrato di questa matrice è
effettivamente uguale alla matrice
che rappresenta il numero reale -1.
Il valore assoluto di un numero complesso espresso come matrice è uguale alla radice quadrata del determinante di
quella matrice. Se la matrice è considerata come la trasformazione di un punto nel piano, allora la trasformazione
ruota i punti con un angolo uguale al coefficiente direzionale del numero complesso e scala il punto di un fattore
uguale al valore assoluto del numero complesso. Il coniugato del numero complesso z corrisponde alla
trasformazione che contrae/dilata i punti del piano del medesimo fattore di scala che z (il valore assoluto) e li ruota
dello stesso angolo che l'argomento di z, ma nel senso opposto; quest'operazione corrisponde alla trasposta della
tabella che rappresenta z.
Una notazione analoga si ha per il corpo dei quaternioni.
Rappresentazione dei numeri complessi
18
Note
[1] Molti linguaggi di programmazione forniscono una funzione apposita corrispondente a questa arcotangente estesa, spesso denominata
atan2.
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Quaternione
In matematica, i quaternioni sono entità
introdotte da William Rowan Hamilton nel
1843 come estensioni dei numeri complessi.
L'insieme
dei quaternioni è un corpo non
commutativo: soddisfa quindi tutte le
proprietà usuali dei campi, quali i numeri
reali o complessi, tranne la proprietà
commutativa del prodotto.
I quaternioni contengono i numeri
complessi, e, sul campo reale, sono anche
uno spazio vettoriale a 4 dimensioni
(analogamente ai complessi, che sono uno
spazio sui reali a 2 dimensioni). Le due
proprietà di corpo e di spazio vettoriale
conferiscono ai quaternioni una struttura di
algebra di divisione non commutativa.
Frattale costruito come insieme di Julia-Menge, definito con i quaternioni.
I quaternioni hanno importanti applicazioni nello studio del gruppo delle rotazioni dello spazio tridimensionale, nella
fisica (nella teoria della relatività e nella meccanica quantistica). Impieghi "sorprendenti" dei quaternioni sono la
robotica, in cui trovano impiego per individuare la posizione spaziale dei bracci meccanici a più snodi, e il controllo
d'assetto, in quanto il calcolo tramite quaternioni è più stabile.
Quaternione
19
Storia
I quaternioni furono scoperti dal matematico
irlandese William Rowan Hamilton nel 1843.
Hamilton era alla ricerca di un metodo per
estendere i numeri complessi (che possono essere
visti come punti su un piano) su un numero
maggiore di dimensioni spaziali. Dopo aver
ricercato invano un'estensione tridimensionale, ne
formulò una con 4 dimensioni: i quaternioni. In
seguito raccontò di aver fatto questa scoperta nel
corso di una passeggiata con sua moglie, quando
improvvisamente gli venne in mente la soluzione
nella forma dell'equazione
Sul Broom Bridge c'è ora una lapide che recita: «Here as he walked byon
the 16th of October 1843Sir William Rowan Hamiltonin a flash of genius
discoveredthe fundamental formula forquaternion multiplicationi2 = j2 =
k2 = i j k = −1& cut it on a stone of this bridge.»(Mentre qui passeggiava,
il 16 ottobre 1843 Sir William Rowan Hamilton, in un lampo d'ispirazione
scoprì la formula fondamentale per la moltiplicazione dei quaternioni, e la
incise su una pietra di questo ponte.)
Eccitato dalla scoperta, incise l'equazione sul lato del vicino ponte Brougham (noto ora come Broom Bridge) a
Dublino.
Questa scoperta necessitava l'abbandono della commutatività della moltiplicazione, una scelta radicale per quel
tempo, in cui non erano ancora disponibili l'algebra lineare ed il prodotto fra matrici. Più in generale, Hamilton ha in
un certo senso inventato il prodotto vettoriale e il prodotto scalare negli spazi vettoriali. Hamilton descrisse un
quaternione come una quadrupla ordinata (4-upla) di numeri reali, dove la prima coordinata è la parte 'scalare', e le
rimanenti tre sono la parte 'vettoriale'. Se due quaternioni con parte scalare nulla sono moltiplicati, la parte scalare
del prodotto è il prodotto scalare della parte vettoriale cambiato di segno, mentre la parte vettoriale del prodotto è il
prodotto vettoriale. Hamilton continuò a rendere popolari i quaternioni con molti libri, l'ultimo dei quali, Elementi
sui quaternioni aveva 800 pagine e fu pubblicato poco dopo la sua morte.
L'uso dei quaternioni suscitò delle controversie. Alcuni dei sostenitori di Hamilton si opposero veementemente allo
studio dei settori emergenti dell'algebra lineare e del calcolo vettoriale (sviluppato fra gli altri da Oliver Heaviside e
Willard Gibbs), affermando che i quaternioni offrivano una notazione migliore. Oggi però sappiamo che i
quaternioni sono una struttura molto particolare, che non offre molte altre generalizzazioni in altre dimensioni (se si
escludono gli ottetti in dimensione otto). Una prima versione delle equazioni di Maxwell utilizzava una notazione
basata sui quaternioni.
Oggi, i quaternioni vengono utilizzati principalmente nella rappresentazione di rotazioni e direzioni nello spazio
tridimensionale. Hanno quindi applicazioni nella grafica computerizzata, nella teoria del controllo, nell'elaborazione
dei segnali, nel controllo dell'assetto, in fisica e in astrodinamica. Ad esempio, è comune per i veicoli spaziali un
sistema di controllo dell'assetto comandato mediante quaternioni, che sono anche usati per misurare mediante
telemetria l'assetto attuale. La ragione è che la combinazione di molte trasformazioni descritte da quaternioni è più
stabile numericamente della combinazione di molte trasformazioni matriciali.
Quaternione
20
Definizione
Un quaternione è un elemento scrivibile come
con
e
numeri reali ed
simboli letterali.
Somma e prodotto di due quaternioni sono definiti tenendo conto delle relazioni
che implicano in particolare le relazioni seguenti:
I risultati delle moltiplicazioni fra due di questi elementi sono riassunti nella tabella:
La somma ed il prodotto di due quaternioni sono calcolate con gli usuali passaggi algebrici, usando le relazioni di
moltiplicazione appena descritte. La somma di due quaternioni è quindi data da:
mentre il loro prodotto risulta essere il seguente:
I quaternioni contengono in modo naturale i numeri reali (i quaternioni del tipo
numeri complessi (i quaternioni del tipo
Esempio
Due quaternioni:
Somma e prodotto sono dati da:
, con
).
, con
) ed i
Quaternione
21
Proprietà basilari
I quaternioni hanno molte caratteristiche proprie ai numeri complessi: anche per i quaternioni, in analogia con i
complessi, possono essere definiti concetti come norma e coniugato; ogni quaternione, se diverso da zero, possiede
un inverso rispetto al prodotto. Si differenziano però dai numeri complessi per il fatto che il loro prodotto può non
essere commutativo.
Prodotto non commutativo
Il prodotto di due quaternioni non è in generale commutativo. Ad esempio, come si è già visto,
è diverso da
.
Coniugato
Il coniugato di un quaternione
(a volte indicato anche con
è il quaternione
).
Il coniugato soddisfa le proprietà seguenti:
Il coniugato può anche essere espresso da una combinazione lineare di q, con coefficienti contenenti i, j, k, nel
seguente modo:
Norma
La norma di
è il numero reale non negativo
La norma di
è sempre positiva, e nulla soltanto se
. Valgono le relazioni seguenti:
Inverso
Un quaternione
diverso da zero ha un inverso per la moltiplicazione, dato da
Infatti
e similmente
. Valgono le proprietà seguenti:
Quaternione
22
Struttura algebrica
Con le operazioni di somma e prodotto, l'insieme dei quaternioni, indicato a volte con
, forma un anello non
commutativo, più precisamente un corpo non commutativo.
Con le operazioni di somma e di moltiplicazione per un numero reale
, data da
i quaternioni formano anche uno spazio vettoriale reale di dimensione 4: una base per lo spazio è data dagli elementi
.
Le due strutture di corpo e di spazio vettoriale sono riassunte dal concetto di algebra di divisione. I quaternioni, i
numeri complessi e i numeri reali sono le uniche algebre di divisione associative costruite sui numeri reali aventi
dimensione finita.
Struttura metrica
Usando la funzione distanza
i quaternioni formano uno spazio metrico, isometrico allo spazio
coordinate
la norma
di un quaternione
4
dotato della usuale metrica euclidea. Le
lo identificano come elemento di
, e tramite questa identificazione,
è semplicemente la norma euclidea.
Con la norma, i quaternioni formano un'algebra di Banach reale.
Quaternioni unitari
Gruppo di Lie
I quaternioni unitari sono i quaternioni di norma 1. Ad esempio,
e
sono unitari. Nell'identificazione con
, i quaternioni unitari formano una ipersfera quadridimensionale.
I quaternioni unitari formano un gruppo moltiplicativo rispetto al prodotto. Tale gruppo, a differenza del suo analogo
complesso, non è abeliano. Con la struttura di varietà differenziabile data da
, esso formano un gruppo di Lie.
Gruppo di rotazioni
Ogni quaternione unitario
definisce una rotazione dello spazio
scalare-vettore
, e si identifica
rotazione determinata da
è data dall'operazione di coniugio
Si verifica infatti facilmente che se
nel modo seguente. Si usa la notazione
con l'insieme dei quaternioni
ha prima coordinata nulla, anche
definita un'azione del gruppo dei quaternioni unitari su
con prima coordinata nulla. La
ha prima coordinata nulla: è quindi
. Ogni mappa definita in questo modo è effettivamente
una rotazione, poiché preserva la norma:
I quaternioni unitari sono quindi un utile strumento per descrivere sinteticamente le rotazioni in
è esprimibile in questo modo, e due quaternioni
definiscono la stessa rotazione se e solo se
. Ogni rotazione
.
Quaternione
23
Rivestimenti
Associando ad ogni quaternione unitario una rotazione, si è definito una mappa
dal gruppo dei quaternioni unitari sul gruppo ortogonale speciale delle rotazioni dello spazio tridimensionale. Per
quanto appena detto, la mappa è suriettiva, ma non iniettiva: la controimmagine di un punto è data da due punti
opposti
. In particolare, tale mappa è un rivestimento di grado 2.
Poiché
è semplicemente connesso, questo è il rivestimento universale di
fondamentale il gruppo ciclico
proiettivo
, che ha quindi come gruppo
con due elementi. Topologicamente,
è omeomorfo allo spazio
.
Sottogruppo finito
Il sottogruppo generato dagli elementi
è un gruppo finito: ha ordine 8, e viene spesso indicato con
. I suoi otto elementi sono
Il gruppo
è il più piccolo gruppo non abeliano dopo il gruppo di permutazioni
, che ha ordine 6.
Notazioni e rappresentazioni alternative
Notazione scalare/vettore
Il quaternione
vettore in
può essere descritto anche dalla coppia
, dove
è un
. Con questa notazione, somma e prodotto possono essere descritti nel modo seguente:
dove si usano il prodotto scalare ed il prodotto vettoriale fra vettori di
. Le nozioni di coniugato e norma
diventano:
usando l'usuale norma di un vettore in
.
Coppia di numeri complessi
Grazie alla relazione
, ogni quaternione può essere scritto usando soltanto i simboli
e
nel
modo seguente:
Quindi
dove
e
sono due numeri complessi. Le operazioni di somma e prodotto si svolgono in
modo usuale, applicando la relazione
Per quanto riguarda coniugato e norma, risulta rispettivamente
Quaternione
24
Matrici
I quaternioni possono essere espressi tramite matrici
di numeri complessi, oppure matrici
di numeri
reali.
Matrici
Gli elementi
complesse
sono rappresentati rispettivamente da:
Il quaternione
è quindi rappresentato da
Questa rappresentazione ha diverse interessanti proprietà:
• Tutti i numeri complessi (i quaternioni con
) corrispondono a matrici a valori solo reali.
• Il quadrato della norma di un quaternione è uguale al determinante della matrice corrispondente.
• Il coniugato di un quaternione corrisponde alla coniugata trasposta della matrice corrispondente.
• Limitandola ai quaternioni unitari, questa rappresentazione fornisce un isomorfismo di gruppo tra le sfere
ed
il gruppo unitario speciale SU(2). Questo gruppo è strettamente collegato alle matrici di Pauli, ed è importante
nella meccanica quantistica per rappresentare lo spin.
Matrici
Gli elementi
reali antisimmetriche
sono rappresentati rispettivamente da:
Il quaternione
è quindi rappresentato da
In questa rappresentazione, il coniugato di un quaternione corrisponde alla trasposta della matrice.
Equazioni sui quaternioni
La non commutatività della moltiplicazione porta una conseguenza inaspettata: le soluzioni dei polinomi definiti con
i quaternioni possono essere più di quelle definite dal grado del polinomio. L'equazione
per esempio
ha infinite soluzioni nei quaternioni, date da tutti i
con
.
Quaternione
25
Generalizzazioni
Se F è un generico campo e a e b sono elementi di F, è possibile definire un'algebra associativa unitaria a quattro
dimensioni su F usando due generatori i e j e le relazioni i2 = a, j2 = b e ij = −ji. Queste algebre sono isomorfe
all'algebra delle matrici 2×2 su F, e inoltre sono delle algebre di divisione su F. Sono chiamate algebre di
quaternioni.
Bibliografia
•
•
•
•
•
•
•
•
Hime, Henry William Lovett (1894) The outlines of quaternions [1] Longman Greens.
Hamilton, William Rowan (1899) Elements of quaternions (t.1) [2] . Longman Greens.
Hamilton, William Rowan (1901) Elements of quaternions (t.2) [3] . Longman Greens.
Kelland, Philip and Tait, Peter Guthrie (1882) Introduction to quaternions, with numerous examples [4] McMillan
& co. Ltd.
Hardy, A. S. (1891) Elements of quaternions [5]. Ginn.
MacAulay, Alexander (1893) Utility of Quaternions in Physics [6]
Hathaway, Arthur S. (1896) A Primer of Quaternions [7] London, Macmillan & co., ltd.
Joly, Charles Japser (1905) A Manual Of Quaternions [8]. McMillan & co. Ltd.
• MacFarlane, Alexander (1906) Vector Analysis and Quaternions [9] New York, J. Wiley & Sons.
• Kuipers, Jack (2002). Quaternions and Rotation Sequences: A Primer With Applications to Orbits, Aerospace,
and Virtual Reality (Reprint edition). Princeton University Press. ISBN 0-691-10298-8
Voci correlate
•
•
•
•
•
•
•
Numeri complessi
Ottonione
Sedenione
Numero ipercomplesso
Algebra di divisione
Algebra associativa
Teoria dei gruppi
Collegamenti esterni
•
•
•
•
Definizione e riferimenti [10] su mathworld.wolfram.com
Doing Physics with Quaternions [11]
Quaternion Calculator [12] [Java]
The Physical Heritage of Sir W. R. Hamilton [13] (PDF)
Portale Fisica
Portale Matematica
Quaternione
Note
[1] http:/ / www. archive. org/ details/ outlinesofquater00himeuoft
[2] http:/ / www. archive. org/ details/ 117770258_001
[3] http:/ / www. archive. org/ details/ 117770258_002
[4] http:/ / www. archive. org/ details/ introductiontoqu00kelliala
[5] http:/ / www. archive. org/ details/ elementsofquater028860mbp
[6] http:/ / resolver. library. cornell. edu/ math/ 1849283
[7] http:/ / www. archive. org/ details/ aprimerofquatern09934gut
[8] http:/ / www. archive. org/ details/ manualofquaterni028692mbp
[9] http:/ / www. archive. org/ details/ vectoranalysisan13609gut
[10] http:/ / mathworld. wolfram. com/ Quaternion. html
[11] http:/ / world. std. com/ ~sweetser/ quaternions/ qindex/ qindex. html
[12] http:/ / theworld. com/ ~sweetser/ java/ qcalc/ qcalc. html
[13] http:/ / arxiv. org/ pdf/ math-ph/ 0201058
Spazio vettoriale
In matematica, lo spazio vettoriale (chiamato più raramente spazio lineare) è una struttura algebrica di grande
importanza. Si tratta di una generalizzazione dell'insieme formato dai vettori del piano cartesiano ordinario (o dello
spazio tridimensionale) dotati delle operazioni di somma di vettori e di moltiplicazione di un vettore per un numero
reale (cioè dell'ambiente nel quale si studiano i fenomeni della fisica classica, quella sviluppata da personalità quali
Galileo, Newton, Lagrange, Laplace, Hamilton, Maxwell).
Si incontrano spazi vettoriali in numerosi capitoli della matematica moderna e nelle sue applicazioni: questi servono
innanzi tutto per studiare le soluzioni dei sistemi di equazioni lineari e delle equazioni differenziali lineari. Con
queste equazioni si trattano moltissime situazioni: quindi si incontrano spazi vettoriali nella statistica, nella scienza
delle costruzioni, nella meccanica quantistica, nella biologia molecolare, ecc. Negli spazi vettoriali si studiano anche
sistemi di equazioni e disequazioni e in particolare quelli che servono alla programmazione matematica e in genere
alla ricerca operativa.
Strutture algebriche preliminari agli spazi vettoriali sono quelle di gruppo, anello e campo. Vi sono poi numerose
strutture matematiche che generalizzano e arricchiscono quella di spazio vettoriale; alcune sono ricordate nell'ultima
parte di questo articolo.
26
Spazio vettoriale
27
Definizione formale
La definizione di uno spazio vettoriale richiede di servirsi di un campo:
sono interessanti soprattutto il campo dei numeri reali R e quello dei
complessi C; molti risultati dell'algebra lineare però si possono
sviluppare servendosi del semplice campo dei numeri razionali Q e di
notevole interesse sono anche i campi finiti e in particolare i campi
delle classi di resto modulo p Fp, per ogni p numero primo. In questa
voce denotiamo con K un generico campo e indichiamo
rispettivamente con 0 e 1 il suo zero e la sua unità.
Si dice che l'insieme V è sostegno di uno spazio vettoriale sul campo
K se in V è definita un'operazione binaria interna (+) per la quale (V,+)
è un gruppo commutativo (ossia un gruppo abeliano) ed è altresì
definita una legge di composizione esterna (*) K×V→V - detta prodotto
esterno o moltiplicazione per uno scalare - per la quale valgono le
seguenti proprietà:
Uno spazio vettoriale è una collezione di oggetti,
chiamati "vettori", che possono essere sommati e
riscalati.
1. Associatività del prodotto esterno
∀ a,b ∈ K, ∀ v ∈ V: a * (b * v) = (ab) * v.
2. Neutralità di 1 rispetto al prodotto esterno
∀ v ∈ V, 1 * v = v.
3. Distributività del prodotto esterno rispetto all'addizione di vettori
∀ a ∈ K, ∀ u, v ∈ V, a * (u + v) = a * u + a * v.
4. Distributività del prodotto esterno rispetto all'addizione di scalari
∀ a,b ∈ K, ∀ v ∈ V, (a + b) * v = a * v + b * v.
La struttura algebrica così definità si simboleggia con (V, K) o semplicemente con V laddove non ci siano equivoci
sul campo di definizione. Per uno spazio V sopra un campo K gli elementi di K sono detti scalari o numeri, mentre
gli oggetti di V si dicono vettori o punti. I vettori si simboleggiano con caratteri in grassetto, sottolineati o sormontati
da una freccia. Tale linguaggio consente di sostituire la dicitura prodotto esterno con prodotto per uno scalare.
Poiché la moltiplicazione per uno scalare è una legge di composizione esterna K×V→V si dice che V ha struttura di
spazio vettoriale sinistro. Nulla vieta di definire la composizione con uno scalare a destra; in tal caso si parlerà di
spazio vettoriale destro.
Da queste proprietà, possono essere immediatamente dimostrate le seguenti formule, valide per ogni a in K e ogni v
in V:
a*0=0*v=0
-(a * v) = (-a) * v = a * (-v)
dove 0 è lo zero in K e 0 è lo zero in V.
Uno spazio vettoriale reale o complesso è uno spazio vettoriale in cui K è rispettivamente il campo R dei numeri
reali o il campo C dei numeri complessi.
Spazio vettoriale
Primi esempi
Di seguito si elencano alcuni importanti esempi di spazi vettoriali; si denotano con m ed n due interi positivi.
Spazi Kn
L'insieme
formato da tutte le sequenze finite e ordinate di elementi di K, con le operazioni di somma e di prodotto per uno
scalare definite termine a termine (puntuali), è detto l'n-spazio numerico, spazio delle n-uple o spazio
n-dimensionale delle coordinate e può essere considerato il prototipo di spazio vettoriale.
Si osserva che gli spazi Rn e Cn posseggono una infinità continua di elementi, mentre Qn ha cardinalità numerabile e
per ogni p primo lo spazio Fpn è costituito da un numero finito di vettori, per la precisione pn.
Polinomi
L'insieme K [x] dei polinomi a coefficienti in K e con variabile x, con le operazioni usuali di somma fra polinomi e
prodotto di un polinomio per uno scalare, forma uno spazio vettoriale.
Matrici
L'insieme delle matrici m×n su K, con le operazioni di somma tra matrici e prodotto di uno scalare per una matrice,
forma uno spazio vettoriale.
Funzioni
L'insieme Fun(X, K) di tutte le funzioni da un fissato insieme X in K, dove:
• la somma di due funzioni f e g è definita come la funzione (f + g) che manda x in f(x)+g(x),
• il prodotto (λf) di una funzione f per uno scalare λ in K è la funzione che manda x in λf(x) è uno spazio vettoriale.
Ad esempio, l'insieme Fun(X, R) di tutte le funzioni da un aperto X dello spazio euclideo Rn in R è uno spazio
vettoriale.
28
Spazio vettoriale
29
Nozioni basilari
Lo studio della specie di struttura di spazio vettoriale si svolge sviluppando le nozioni di sottospazio vettoriale, di
trasformazione lineare (l'omomorfismo per questa specie di struttura), di base e di dimensione.
Sottospazi
Un sottospazio vettoriale di uno spazio
vettoriale
è un sottoinsieme
che
eredita da
una struttura di spazio
vettoriale. Per ereditare questa struttura, è
sufficiente che
sia chiuso rispetto alle
due operazioni di somma e prodotto per
scalare. In particolare,
deve contenere lo
zero di
.
Esempi
Una retta passante per l'origine è un
sottospazio vettoriale del piano cartesiano
R2; nello spazio vettoriale R3 tutti i piani e
tutte le rette passanti per l'origine sono
sottospazi.
Gli spazi formati dalle matrici simmetriche
o antisimmetriche sono sottospazi vettoriali
dell'insieme delle matrici m×n su K.
Tre sottospazi distinti di dimensione 2 in
: sono piani passanti per l'origine.
Due di questi si intersecano in un sottospazio di dimensione 1, cioè una retta
passante per l'origine (una di queste è disegnata in blu).
Altri importanti sottospazi vettoriali sono quelli di Fun(X, R), quando X è un insieme aperto di Rn: gli insiemi
formati dalle funzioni continue, dalle funzioni differenziabili e dalle funzioni misurabili.
Generatori e basi
Una combinazione lineare di alcuni vettori
è una scrittura del tipo
Una combinazione lineare è l'operazione più generale che si può realizzare con questi vettori usando le due
operazioni di somma e prodotto per scalare. Usando le combinazioni lineari è possibile descrivere un sottospazio
(che è generalmente fatto da un insieme infinito di punti[1] ) con un numero finito di dati. Si definisce infatti il
sottospazio generato da questi vettori come l'insieme di tutte le loro combinazioni lineari.
Un sottospazio può essere generato a partire da diversi insiemi di vettori. Tra i possibili insiemi di generatori alcuni
risultano più economici di altri: sono gli insiemi di vettori con la proprietà di essere linearmente indipendenti. Un
tale insieme di vettori è detto base del sottospazio.
Si dimostra che ogni spazio vettoriale possiede una base; alcuni spazi hanno basi costituite da un numero finito di
vettori, altri hanno basi costituenti insiemi infiniti. Per questi ultimi la dimostrazione dell'esistenza di una base deve
ricorrere al Lemma di Zorn.
Alla nozione di base di uno spazio vettoriale si collega quella di sistema di riferimento di uno spazio affine.
Spazio vettoriale
Dimensione
Si dimostra che tutte le basi di uno spazio vettoriale posseggono la stessa cardinalità (questo risultato è dovuto a
Felix Hausdorff). Questa cardinalità viene chiamata dimensione di Hamel dello spazio; questa entità in genere viene
chiamata semplicemente dimensione dello spazio. La distinzione più rilevante fra gli spazi vettoriali vede da una
parte gli spazi finito-dimensionali e dall'altra quelli di dimensione infinita.
Per ogni intero naturale n lo spazio Kn ha dimensione n: in effetti una sua base è costituita dalle n n-uple aventi tutte
le componenti nulle ad eccezione di una uguale alla unità del campo. In particolare l'insieme costituito dal solo 0 del
campo può considerarsi uno spazio a 0 dimensioni, la retta dotata di un'origine è uno spazio monodimensionale su R,
il piano cartesiano è uno spazio di dimensione 2, lo spazio R3 ha dimensione 3.
Anche i polinomi con grado al più n formano un sottospazio vettoriale di dimensione n+1, mentre la dimensione
dell'insieme delle funzioni Fun(X, K) è pari alla cardinalità di X.
Tra gli spazi infinito dimensionali si trovano quelli formati dall'insieme dei polinomi in una variabile o in più
variabili e quelli formati da varie collezioni di funzioni ad esempio gli spazi Lp.
I vettori di uno spazio di n dimensioni, facendo riferimento ad una base fissata di tale spazio, possono essere
rappresentati come n-uple di scalari: queste sono le loro coordinate. Questo fatto consente di affermare che ogni
spazio n-dimensionale su K è sostanzialmente identificabile con Kn.
Trasformazioni lineari e omomorfismi
Una trasformazione lineare fra due spazi vettoriali V e W sullo stesso campo K è una applicazione che manda vettori
di V in vettori di W rispettando le combinazioni lineari. Dato che le trasformazioni lineari rispettano le operazioni di
somma di vettori e di moltiplicazioni per scalari, esse costituiscono gli omomorfismi per le strutture della specie
degli spazi vettoriali. Per denotare l'insieme degli omomorfismi da V in W scriviamo Hom(V, W). Particolarmente
importanti sono gli insiemi di endomorfismi; questi hanno la forma Hom(V, V).
Si osserva che per le applicazioni lineari di Hom(V, W) si possono definire le somme e le moltiplicazioni per
elementi di K, come per tutte le funzioni aventi valori in uno spazio su questo campo. L'insieme Hom(V, W) munito
di queste operazioni costituisce a sua volta uno spazio vettoriale su K, di dimensione dim(V)×dim(W). Un caso
particolare molto importante è dato dallo spazio duale V * := Hom(V, K); questo spazio ha le stesse dimensioni di V e
in effetti i suoi vettori sono strettamente collegati ai vettori di V.
Esempi più avanzati
Spazio vettoriale libero
Un esempio particolare spesso usato in algebra (e una costruzione piuttosto comune in questo campo) è quello di
spazio vettoriale libero su un insieme. L'obiettivo è creare uno spazio che abbia gli elementi dell'insieme come base.
Ricordando che, dato un generico spazio vettoriale, si dice che un suo sottoinsieme U è una base se gli elementi di U
sono linearmente indipendenti e ogni vettore si può scrivere come combinazione lineare finita di elementi di U, la
seguente definizione nasce naturalmente: uno spazio vettoriale libero V su B e campo K è l'insieme di tutte le
combinazioni lineari formali di un numero finito di elementi di B a coefficienti in K, cioè i vettori di V sono del tipo
dove i coefficienti non nulli sono in numero finito, e somma e prodotto sono definite come segue
30
Spazio vettoriale
Da tener ben presente che queste somme sono dette formali perché sono da considerarsi appunto dei puri simboli. In
pratica gli elementi di B servono solo come "segnaposto" per i coefficienti. Oltre a questa definizione più intuitiva ne
esiste una del tutto equivalente in termine di funzioni da B su K con supporto finito (supp f := { b ∈ B | f(b) ≠ 0 }),
cioè V ≅ { f: B → K | supp f è finito } dove per il secondo insieme le operazioni di somma e prodotto sono quelle
naturali e la corrispondenza è
Arricchimenti della struttura di spazio vettoriale
La nozione di spazio vettoriale è servita innanzi tutto a puntualizzare proprietà algebriche riguardanti ambienti ed
entità geometriche; inoltre essa costituisce la base algebrica per lo studio di questioni di analisi funzionale, che
possiamo associare ad una geometrizzazione dello studio di funzioni collegate ad equazioni lineari. La sola struttura
di spazio vettoriale risulta comunque povera quando si vogliono affrontare in modo più efficace problemi geometrici
e dell'analisi funzionale. Infatti va osservato che con la sola struttura di spazio vettoriale non si possono affrontare
questioni riguardanti lunghezze di segmenti, distanze ed angoli (anche se la visione intuitiva degli spazi vettoriali a 2
o 3 dimensioni sembra implicare necessariamente queste nozioni di geometria elementare). Per sviluppare le
"potenzialità" della struttura spazio vettoriale risulta necessario arricchirla in molteplici direzioni, sia con ulteriori
strumenti algebrici (ad es. proponendo prodotti di vettori), sia con nozioni topologiche, sia con nozioni differenziali.
In effetti si può prospettare una sistematica attività di arricchimento degli spazi vettoriali con costruzioni che si
aggiungono a quella di combinazione lineare al fine di ottenere strutture di elevata efficacia nei confronti di tanti
problemi matematici, computazionali e applicativi. Per essere utili, queste costruzioni devono essere in qualche
modo compatibili con la struttura dello spazio vettoriale, e le condizioni di compatibilità variano caso per caso.
Spazio normato
Uno spazio vettoriale in cui è definita una norma, cioè una lunghezza dei suoi vettori, è chiamato spazio normato.
L'importanza degli spazi vettoriali normati dipende dal fatto che a partire dalla norma dei singoli vettori si definisce
la distanza fra due vettori come norma della loro differenza e questa nozione consente di definire costruzioni
metriche e quindi costruzioni topologiche.
Spazio di Banach
Uno spazio normato completo rispetto alla metrica indotta è detto spazio di Banach.
Spazio di Hilbert
Uno spazio vettoriale complesso (risp. reale) in cui è definito un prodotto scalare hermitiano (risp. bilineare) definito
positivo, e quindi anche i concetti di angolo e perpendicolarità di vettori, è chiamato spazio prehilbertiano. Uno
spazio dotato di prodotto scalare è anche normato, mentre in generale non vale il viceversa.
Uno spazio dotato di prodotto scalare che sia completo rispetto alla metrica indotta è detto spazio di Hilbert.
Spazio vettoriale topologico
Uno spazio vettoriale munito anche di una topologia è chiamato spazio vettoriale topologico.
31
Spazio vettoriale
32
Algebra su campo
Uno spazio vettoriale arricchito con un operatore bilineare che definisce una moltiplicazione tra vettori costituisce
una cosiddetta algebra su campo. Ad esempio, le matrici quadrate di ordine n munite del prodotto di matrici formano
un'algebra. Un'altra algebra su un campo qualsiasi è fornita dai polinomi su tale campo muniti dell'usuale prodotto
fra polinomi.
Moduli
Una generalizzazione del concetto di spazio vettoriale è invece quella di modulo; essa si basa su richieste analoghe a
quelle viste, ma per K non si chiede che sia un campo, ma un più generico anello.
Note
[1] Questo è sempre vero se il campo è infinito, come ad esempio Q, R e C, tranne nel caso in cui il sottospazio sia semplicemente un punto (lo
zero).
Bibliografia
• Marco Abate; Chiara de Fabritiis, Geometria analitica con elementi di algebra lineare, Milano, McGraw-Hill,
2006. ISBN 88-386-6289-4.
• Luciano Lomonaco, Un'introduzione all'algebra lineare, Roma, Aracne, 2005. ISBN 88-548-0144-5.
• Giulio Campanella, Appunti di algebra, Roma, Nuova Cultura, 2005. ISBN 88-89362-22-7.
• Werner Greub, Linear Algebra, 4a ed., New York, Springer, 1995. ISBN 0-387-90110-8.
• Steven Roman, Advanced linear algebra, Springer, 1992. ISBN 0-387-97837-2.
• Edoardo Sernesi, Geometria 1, 2a ed., Torino, Bollati Boringhieri, 1989. ISBN 88-339-5447-1.
• Serge Lang, Linear Algebra, 3a ed., New York, Springer, 1987. ISBN 0-387-96412-6.
• Georgi Evgen'evich Shilov, Linear Algebra, Tradotto da Richard Silverman, New York, Dover, 1977. ISBN
0-486-63518-X.
• Paul Halmos, Finite-Dimensional Vector Spaces, 2a ed., New York, Springer, 1974. ISBN 0-387-90093-4.
• Kenneth Hoffman; Ray Kuze, Linear Algebra, 2a ed., Upper Saddle RIver, N.J., Prentice Hall, 1971. ISBN
0-13-536797-2.
• Silvana Abeasis, Elementi di algebra lineare e geometria, Bologna, Zanichelli, 1993. ISBN 88-08-16538-8.
Voci correlate
•
•
•
•
•
•
•
Vettore (matematica)
Applicazione lineare
Dimensione
Sottospazio vettoriale
Spazio duale
Prodotto scalare
Norma
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Copertura lineare
33
Copertura lineare
In matematica, e più precisamente in algebra lineare, il sottospazio generato da alcuni vettori (anche indicato come
la copertura lineare di tali vettori) è l'insieme costituito da tutte le combinazioni lineari di questi vettori, detti
generatori. Il risultato è un sottospazio dello spazio vettoriale di partenza.
A volte si usa il termine span lineare.
Definizione
Sia
uno spazio vettoriale su un campo
questi vettori è il sottoinsieme di
. Siano
alcuni vettori di
. Il sottospazio generato da
formato da tutte le combinazioni lineari di questi vettori. In altre parole:
A volte si usa il termine inglese span lineare (da cui segue la notazione appena usata).
La definizione data può essere estesa facilmente ad una famiglia qualsiasi di vettori
indicizzata da una
che varia in un insieme
di cardinalità arbitraria (finita, numerabile, ...): una combinazione
lineare è semplicemente una combinazione che si serve di un numero finito di questi, ed il sottospazio generato è
sempre definito come l'insieme dei risultati di tali composizioni.
Proprietà
Sottospazio vettoriale
Il sottospazio generato è effettivamente un sottospazio vettoriale. Infatti ogni combinazione lineare di combinazioni
lineari di dati vettori si può esprimere come una combinazione lineare degli stessi vettori.
Insieme di generatori
Dati un sottospazio
di
ed un insieme di vettori
, si dice che questi vettori sono dei generatori di
se
Sottospazio più piccolo
Il sottospazio generato
è il sottospazio vettoriale più piccolo fra tutti quelli che contengono i vettori
, nel senso che è contenuto
in ciascun sottospazio contenente questi vettori. Oppure il sottospazio generato si può intendere come l'intersezione
di tutti i sottospazi contenenti
. Lo stesso risultato vale per un insieme infinito di vettori.
Copertura lineare
34
Chiusura
La trasformazione di un insieme di vettori di V nel sottospazio da loro generato, cioè la funzione Span, costituisce un
esempio di funzione di chiusura. Come per tutte queste funzioni di insieme, vale la seguente proprietà di isotonia: se
e sono insiemi di vettori di tali che
, allora
In particolare, se
e
è ottenuto da
aggiungendo un vettore
, il sottospazio generato può restare invariato o diventare più esteso. Come mostra la relazione seguente, il
sottospazio resta invariato se e solo se il vettore
è già contenuto in questo:
Basi e dimensione
Un insieme di vettori è una base del sottospazio che genera se e solo se questi sono linearmente indipendenti. Se i
vettori non sono indipendenti, esiste un loro sottoinsieme formato da vettori indipendenti: un sottoinsieme di questo
tipo può essere trovato tramite l'algoritmo di estrazione di una base.
Da quanto appena detto segue quindi che la dimensione di un sottospazio generato da
proprio se e solo se questi sono indipendenti.
vettori è al più
, ed è
Esempi
Nel piano
In
, i vettori
e
sono dipendenti. Il loro span quindi ha dimensione minore di due, e infatti è una
retta. Formalmente scriviamo
. I vettori
indipendenti, e perciò il loro span è uno spazio di dimensione 2 dentro
: uno spazio di dimensione
stesso come sottospazio di dimensione
, e perciò
e
invece sono
ha solo sé
.
Nello spazio
In
, i vettori
,
,
sono dipendenti, perché l'ultimo è la differenza dei primi
due. Abbiamo quindi
, e poiché
questi due vettori sono indipendenti, sono una base del loro span che ha dimensione 2, ovvero è un piano.
Voci correlate
• Insieme di generatori
• Combinazione lineare
• Base (algebra lineare)
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Base (algebra lineare)
Base (algebra lineare)
In matematica, e più precisamente in algebra lineare, un insieme di vettori di uno spazio vettoriale è una base se
questi vettori sono indipendenti e generano lo spazio vettoriale.
La base è un concetto chiave dell'algebra lineare, simile a quello di sistema di riferimento usato in fisica, che
permette di definire la dimensione di uno spazio vettoriale.
Definizione
Sia V uno spazio vettoriale su un campo K. Un insieme ordinato (sequenza) di vettori (v1, ..., vn) è una base per V se
valgono entrambe queste proprietà:
1. I vettori v1, ..., vn sono linearmente indipendenti;
2. I vettori v1, ..., vn generano V, cioè V = Span(v1, ..., vn).
Proprietà
Dimensione
Uno spazio vettoriale generalmente non ha una sola base, anzi solitamente ha una infinità di basi molto diverse fra
loro; però grazie al teorema della dimensione per spazi vettoriali queste basi hanno tutte la stessa cardinalità, sono
formate cioè sempre dallo stesso numero di vettori.
Questo numero, che dipende quindi solo da V, è la dimensione di V e permette di definire spazi di dimensione
arbitrariamente alta, superando i limiti dell'umana intuizione tridimensionale.
La dimensione di V è inoltre pari al massimo numero di vettori indipendenti in V, e al minimo numero di vettori
necessari per generare V.
Combinazione lineare
Un insieme B = (v1, ..., vn) di vettori è una base per V se e solo se ogni elemento v di V si può scrivere in un modo
solo come combinazione lineare dei vettori v1, ..., vn. Tale combinazione lineare identifica le coordinate di v rispetto
a B.
Condizioni sufficienti
Le due proprietà seguenti mostrano che, conoscendo già la dimensione dello spazio, per verificare che un insieme del
numero giusto di elementi sia una base è sufficiente provare una sola delle due proprietà necessarie:
• Un insieme B di n vettori in uno spazio V di dimensione n è una base se e solo se sono indipendenti.
• Un insieme B di n vettori in uno spazio V di dimensione n è una base se e solo se generano V.
Esistenza
Qualsiasi sia lo spazio vettoriale V, possiamo sempre trovare una base. Vediamo il perché (la cosa non è banale, e
richiede l'uso del lemma di Zorn nel caso generale). Consideriamo la collezione I(V) dei sottoinsiemi di V
linearmente indipendenti. È immediato che l'inclusione ⊂ sia un ordine parziale su I(V), e che per ogni catena {Bi}
l'insieme ∪ Bi sia un maggiorante (è linearmente indipendente in quanto unione di elementi di una catena ordinata
per inclusione). Applicando il lemma di Zorn sappiamo che esiste un insieme massimale linearmente indipendente B
in I(V). Adesso è facile concludere che B è una base, infatti se v ∈ V e v ∉ B, allora per la massimalità di B l'insieme
B ∪ {v} deve essere linearmente dipendente, cioè esistono degli scalari a, a1, ..., an non tutti nulli tali che
a v + a1 b1 + ... + an bn = 0, b1, ..., bn ∈ B
35
Base (algebra lineare)
36
notiamo che a ≠ 0 (se fosse nulla allora anche gli altri ai dovrebbero esserlo essendo gli elementi di B linearmente
indipendenti), ne deriviamo che v può essere scritto come combinazione lineare finita di elementi di B, che quindi,
oltre a essere linearmente indipendente, genera V, ovvero è una base.
Esempi
• I vettori (1,0) e (0,1) sono una base di R2, perché sono indipendenti e generano R2 (infatti ogni altro (a, b) si
scrive come (a, b) = a(1,0) + b(0,1)).
• In dimensione arbitraria, una base dello spazio vettoriale Rn è data dai vettori
e1 = (1, 0, 0, ..., 0), e2 = (0, 1, 0, ...,0), ..., en = (0, ..., 0, 1).
Questa base si chiama base canonica di Rn.
• La base canonica di Cn, cioè lo spazio vettoriale delle n-uple di numeri complessi, è sempre
e1 = (1, 0, 0, ..., 0), e2 = (0, 1, 0, ...,0), ..., en = (0, ..., 0, 1).
È facile infatti scrivere un qualsiasi vettore di Cn come combinazione di questi. Ad esempio il vettore (i, 0, 0) si
scrive come
i * (1 , 0 , 0) = (i , 0 , 0)
• I vettori (2,1) e (-1,2) formano una base di R2, diversa da quella canonica: visto che sono 2 vettori in uno spazio
che sappiamo già avere dimensione 2, grazie alla proprietà descritta sopra per dimostrare questo fatto ci basta
notare che sono indipendenti.
Generalizzazioni in dimensione infinita
Il concetto di base in spazi di dimensione infinita (in cui cioè esista un insieme infinito di vettori linearmente
indipendenti) è più problematico. Per tali spazi esistono due nozioni differenti di base: la prima, detta base di Hamel,
è definita algebricamente, mentre la seconda, detta base di Schauder, necessita della presenza di una topologia.
Base di Hamel
Una base di Hamel per uno spazio vettoriale
parametrizzato da un insieme ordinato
di vettori linearmente indipendenti[1] ,
è un insieme
di indici, tale che ogni vettore
di
è combinazione lineare di un
insieme finito di questi.
Nel caso in cui è un insieme finito, la definizione coincide con quella data precedentemente.
Ad esempio, una base di Hamel per lo spazio vettoriale
campo
formato da tutti i polinomi a coefficienti in un
è data dall'insieme di tutti i monomi
Infatti ogni polinomio
è combinazione lineare di un insieme finito di questi.
Ogni spazio vettoriale ha una base di Hamel, grazie al lemma di Zorn (vedi la proprietà di esistenza). Inoltre due basi
di Hamel qualsiasi di uno stesso spazio vettoriale hanno la stessa cardinalità, che può dunque essere presa come
dimensione (di Hamel) dello spazio vettoriale. Infine, continua a rimanere vero il fatto che ogni vettore dello spazio
si scrive in modo unico come combinazione lineare dei vettori di una base di Hamel.
Base (algebra lineare)
37
Base di Schauder o topologica
Se lo spazio è dotato di una topologia, è possibile estendere la definizione di base in modo diverso, ammettendo
somme infinite di vettori. Il senso di queste somme infinite è infatti dato dalle nozioni di limite di una successione e
di serie.
Se
è uno spazio vettoriale topologico, ad esempio uno spazio di Hilbert o di Banach, un insieme ordinato
di vettori linearmente indipendenti è una base di Schauder (o topologica) se lo spazio da essi generato è
denso in
. In altre parole, se ogni vettore
di
può essere approssimato da somme (finite) di vettori in
, e quindi come limite di una somma infinita di questi:
dove
è un sottoinsieme numerabile.
In uno spazio di Hilbert, è di particolare importanza la nozione di base ortonormale.
L'esistenza di una base di Schauder in uno spazio di Banach non è, in genere, assicurata. Vedi .
L'esistenza di una base di Schauder consente di estendere alcuni teoremi . .
Cardinalità
Le due nozioni di basi sono generalmente molto differenti, e anche le loro cardinalità possono differire, portando a
due concetti diversi di dimensione, chiamati rispettivamente dimensione di Hamel e dimensione di Schauder. La
dimensione di Hamel può avere cardinalità superiore a quella di Schauder (pur essendo entrambe infinite).
Ad esempio, sia
lo spazio delle funzioni continue reali definite sull'intervallo
. Questo è uno spazio di
Banach con la norma
Come conseguenza della teoria delle serie di Fourier, una base di Schauder per
è costruita a partire dalle funzioni
trigonometriche
ed ha cardinalità numerabile. Una base di Hamel ha invece cardinalità non numerabile, ed è molto più difficile da
costruire (e scarsamente utilizzata).
Note
[1] Per definizione,
è un insieme di vettori indipendenti se ogni suo sottoinsieme finito è formato da vettori indipendenti.
Voci correlate
•
•
•
•
•
•
•
Base ortonormale
Completamento a base
Estrazione di una base
Formula di Grassmann
Matrice di cambiamento di base
Span lineare
Sottospazio vettoriale
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Completamento a base
38
Completamento a base
Il completamento a base è un algoritmo utile in algebra lineare a completare un insieme di vettori linearmente
indipendenti in uno spazio vettoriale ad una base.
Il teorema
Sia
uno spazio vettoriale su un campo
, di dimensione
. Il teorema di completamento a base (o teorema
della base incompleta) asserisce che:
Se
sono vettori linearmente indipendenti in
•
è minore o uguale a
• se
, esistono
, allora:
,
vettori
tali che l'insieme ordinato
è una base.
Dimostrazione e algoritmo
La dimostrazione fornisce un algoritmo che consente di trovare concretamente i vettori
L'algoritmo funziona nel modo seguente: si aggiunga all'insieme
spazio
(ad esempio, questa può essere la base canonica se
.
una base nota
dello
). Si ottiene quindi l'insieme ordinato
.
L'insieme
genera tutto lo spazio
, poiché contiene dei generatori
. Si applica quindi ad
l'algoritmo di estrazione di una base. Questo algoritmo elimina, partendo da sinistra, quei vettori che sono dipendenti
dai vettori precedenti. Poiché i primi sono indipendenti, l'algoritmo eliminerà soltanto alcuni dei vettori
: il
risultato è quindi una base contenente
.
Esempio
I vettori
e
in
sono indipendenti. Quindi esiste un terzo vettore che forma una base con
questi due, e può essere trovato usando l'algoritmo di completamento. Si aggiunge quindi ai due vettori la base
canonica:
L'algoritmo di estrazione mantiene i primi due vettori, quindi elimina il terzo e il quarto (entrambi generati dai primi
due), e tiene di conseguenza il quinto. Si ottiene quindi la base
Completamento a base
39
Voci correlate
• Estrazione di una base
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Estrazione di una base
L'estrazione di una base è un algoritmo utile in algebra lineare ad estrarre una base da un insieme finito di
generatori di uno spazio vettoriale
Il teorema
Sia
uno spazio vettoriale su un campo
, di dimensione
. Il teorema di estrazione di una base asserisce
che:
Se
sono vettori in
•
è maggiore o uguale a
• esistono vettori
che generano
, allora:
,
che formano una base di
.
Dimostrazione e algoritmo
La dimostrazione fornisce un algoritmo che consente di trovare concretamente i vettori
L'algoritmo funziona nel modo seguente: per ogni
.
, si controlla se il vettore
-esimo
è
dipendente dai precedenti; questo accade se e solo se
In questo caso, si elimina
dalla lista; altrimenti, si tiene. Per
, non ci sono vettori precedenti e si considera
quindi lo span come l'insieme formato dal solo vettore nullo: quindi il primo vettore viene tenuto solo se diverso da
zero.
Il risultato finale è quindi un insieme di vettori indipendenti che continuano a generare
una base di
, ossia, per definizione,
.
Esempio
Si estrae una base di
dall'insieme
Il primo vettore non è nullo e quindi viene tenuto. Il secondo non è multiplo del primo, e quindi viene tenuto. Il terzo
è però combinazione dei primi due, infatti
Quindi il terzo vettore è eliminato. Il quarto risulta indipendente dagli altri. Si ottiene quindi la base
Estrazione di una base
40
Voci correlate
• Completamento a base
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Matrice di cambiamento di base
In matematica, e più precisamente in algebra lineare, la matrice di cambiamento di base è una matrice quadrata che
codifica il cambiamento di una base di uno spazio vettoriale.
Definizione
Sia
uno spazio vettoriale di dimensione finita su un campo
cambiamento di base da
partenza) e
in
. Siano
e
due basi per
è la matrice associata alla funzione identità da
. La matrice di
in sé, rispetto alle basi
(in
(in arrivo).
In altre parole, la matrice di cambiamento di base da
-esimo vettore di
rispetto a
a
ha nella
-esima colonna le coordinate dell'
.
Proprietà
Cambio di coordinate
La matrice di cambiamento di base è utile soprattutto a tradurre le coordinate di un vettore fra due basi diverse. Sia
un vettore di , e siano
le sue coordinate rispetto alle basi
dove
e
, dove
è la matrice di cambiamento di base da
è la dimensione di
in
. Vale allora la relazione
e si fa uso del prodotto fra matrici.
Composizione
La matrice di cambiamento di base serve a codificare la relazione fra basi diverse. Le proprietà seguenti mostrano
che questa codifica è compatibile con le operazioni di composizione.
Se
e
Segue che se
in
sono tre basi per
,e
è la matrice di cambiamento di base da
è la matrice di cambiamento di base da
in
, vale la seguente relazione
In particolare, la matrice
è invertibile e M' è la sua inversa.
e
a
, abbiamo:
è la matrice di cambiamento di base da
Matrice di cambiamento di base
41
Cambio di matrici associate a endomorfismi
Sia
un endomorfismo di uno spazio vettoriale
base da
in
. Siano
e
. Siano
e
due basi per
le matrici associate a
,e
la matrice di cambiamento di
ottenute usando rispettivamente la base
e
(in entrambi i casi si usa la stessa base in partenza ed in arrivo).
Vale la relazione
L'ultima proprietà implica che due matrici che rappresentano lo stesso endomorfismo con basi diverse sono simili.
Orientazione
Se
è il campo dei numeri reali, la matrice di cambiamento di base è utile a verificare se due basi hanno la
stessa orientazione: questo accade precisamente quando il determinante della matrice di cambiamento di base che le
collega è positivo.
Esempi
• Nel piano cartesiano, sia
la base canonica e
. La matrice di cambiamento di base da
• Nello spazio euclideo
in
ottenuta permutando
è
, la matrice di cambiamento fra le basi
viene trovata risolvendo il sistema lineare
con 9 equazioni (tre per ogni
La matrice
) e 9 incognite
. Il risultato è la matrice
può quindi essere usata per cambiare le coordinate di un vettore fissato. Ad esempio, il vettore
ha coordinate rispetto a
Le sue coordinate rispetto a
sono quindi calcolate nel modo seguente:
Matrice di cambiamento di base
42
Voci correlate
• Matrice associata ad una applicazione lineare
• Matrici simili
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Somma diretta
In matematica, e più precisamente in algebra lineare, la somma diretta indica una particolare proprietà di due o più
sottospazi vettoriali.
Definizione
Due sottospazi
e
di uno spazio vettoriale
, si dice che
In questo caso il sottospazio
sono in somma diretta se
si decompone in somma diretta di
è un complementare di
e
. Inoltre se
e si scrive
(e viceversa).
Dimensioni
Per la formula di Grassmann, due spazi sono in somma diretta se e solo se
Quando due spazi non sono in somma diretta, il termine a sinistra è strettamente minore di quello a destra.
Esempi
Lo spazio
delle matrici quadrate
matrici simmetriche e antisimmetriche:
Le dimensioni relative dei sottospazi sono:
a coefficienti in un campo
si decompone nei sottospazi delle
Somma diretta
43
Componenti e proiezione
Se
dove
e
sono in somma diretta, ogni elemento
e
sono elementi rispettivamente di
del sottospazio somma
e
. Gli elementi
e
si scrive unicamente come
sono le componenti di
lungo i due
sottospazi. Grazie all'unicità di queste, è possibile definire due proiezioni
semplicemente ponendo
Esempio
Ad esempio, nella decomposizione con
e
descritta sopra, le proiezioni sono le seguenti:
Queste proiezioni rappresentano concretamente ogni matrice in una somma di una matrice simmetrica e una
antisimmetrica. Difatti,
e inoltre
mostra che la matrice
analogamente che
è effettivamente simmetrica (perché uguale alla sua trasposta: si verifica
è antisimmetrica).
Voci correlate
• Proiezione (geometria)
• Formula di Grassmann
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Formula di Grassmann
44
Formula di Grassmann
In matematica, la formula di Grassmann è una relazione che riguarda le dimensioni dei sottospazi vettoriali di uno
spazio vettoriale o dei sottospazi proiettivi di uno spazio proiettivo.
Il nome è stato scelto in onore del matematico tedesco Hermann Grassmann (1809-1877).
Definizione
Sia
uno spazio vettoriale su un campo
due sottospazi di
e con
dotato di dimensione finita, cioè dotato di una base finita; siano
. Indichiamo con
il sottospazio somma di
e
e
, dato da:
il loro sottospazio intersezione.
La formula di Grassman afferma che:
Esempi
Spazio tridimensionale
Questa formula si visualizza facilmente e significativamente nel caso in cui
tridimensionale sui reali
sia lo spazio vettoriale
; le possibilità per i sottospazi portano alla seguente casistica:
• Uno dei due sottospazi
o
ha dimensione 0 o 3: in questo caso (a meno di scambiare i nomi dei due
sottospazi) abbiamo
e
e la formula si riduce a una identità.
•
e sono sottospazi di dimensione 1 (cioè rette passanti per l'origine):
• se le rette sono distinte
contiene solo il vettore nullo ed ha dimensione 0 e
è il piano
contenente le due rette, per cui la formula si riduce a 1 + 1 = 2 + 0.
• se coincidono
e ancora si ha una identità.
•
è una retta per l'origine e un piano per l'origine:
• se la retta non giace nel piano si ha: 1 + 2 = 3 + 0;
• se la retta giace nel piano: 1 + 2 = 2 + 1.
•
e sono piani per l'origine:
• se non coincidono la loro intersezione è una retta e si ha: 2 + 2 = 3 + 1;
• se coincidono si ha un'identita` che numericamente afferma: 2 + 2 = 2 + 2.
Somma diretta
Definizione
Due sottospazi
e
sono in somma diretta se
. In questo caso la formula di Grassmann
asserisce che
Se inoltre
, si dice che
In questo caso il sottospazio
si decompone in somma diretta di
è un supplementare di
(e viceversa).
e
e si scrive
Formula di Grassmann
45
Esempi
Lo spazio
delle matrici quadrate
a coefficienti in un campo
si decompone nei sottospazi delle
matrici simmetriche e delle antisimmetriche:
La formula di Grassmann porta alla uguaglianza concernente le dimensioni dei due sottospazi della forma:
Dimostrazione
Struttura della dimostrazione
La formula si dimostra individuando due basi per
e
che hanno in comune i vettori che costituiscono una base
per la loro intersezione. Più precisamente, si prende una base
di
, e ad una base
di
. I vettori in
generano lo spazio
per
, e si completa ad una base
, si verifica che sono indipendenti, e quindi sono una base per
. Un conteggio
degli elementi nelle quattro basi trovate fornisce la formula di Grassmann.
Verifica dell'indipendenza lineare
L'unico fatto che necessita di una dimostrazione approfondita è l'indipendenza dei vettori in
che viene mostrata nel modo seguente: sia
Supponiamo l'esistenza di una combinazione lineare nulla
In altre parole, raggruppando
si ottiene
Da questo segue che
a
. Quindi
, e poiché sia
appartiene all'intersezione
D'altra parte, come elemento di
che
appartengono a
, ne segue che anche
appartiene
, e si scrive come combinazione lineare di elementi di
, è descritto come combinazione lineare di elementi di
.
: poiché ogni
elemento ha un'unica descrizione come combinazione lineare di elementi di una base, ne segue che entrambe queste
combinazioni hanno tutti i coefficienti nulli. Quindi
Si ottiene quindi
sono una base di
. Poiché i vettori
, sono quindi indipendenti, e ne segue che anche
Formula di Grassmann
46
Quindi i coefficienti sono tutti nulli: l'insieme
è formato da elementi indipendenti, ed è quindi una base.
Conteggio dimensioni
Usando le notazioni appena introdotte, il conteggio delle dimensioni dà proprio
Proprietà
• La formula di Grassmann dice che i sottospazi di uno spazio vettoriale muniti delle operazioni binarie + e
costituiscono un reticolo modulare.
Voci correlate
• base
• Teorema della dimensione
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Metodo di eliminazione di Gauss
In matematica, il metodo di eliminazione di Gauss, spesso abbreviato in MEG, è un algoritmo, che prende il nome
dal matematico tedesco Carl Friedrich Gauss, usato in algebra lineare per determinare le soluzioni di un sistema di
equazioni lineari, per calcolare il rango o l'inversa di una matrice.
L'algoritmo, attraverso l'applicazione di operazioni elementari dette mosse di Gauss, riduce la matrice in una forma
detta a scalini. La matrice così ridotta permette il calcolo del rango della matrice (che sarà pari al numero di
scalini/pivot) nonché la risoluzione del sistema lineare ad essa associato.
Un'estensione a tale metodo, nota come metodo di eliminazione di Gauss-Jordan, dal matematico tedesco Wilhelm
Jordan, riduce ulteriormente la matrice, permettendo di calcolarne anche l'inversa.
Nonostante sia attribuito a Gauss e Jordan, il primo matematico ad aver usato questo algoritmo è stato Liu Hui nel
263 a.C.
Matrice completa dei coefficienti
Un sistema di equazioni lineari
può essere descritto tramite una matrice
Metodo di eliminazione di Gauss
47
detta matrice completa dei coefficienti del sistema. I coefficienti del sistema lineare (e quindi della matrice) sono
elementi di un campo K, quale ad esempio quello dei numeri reali R o complessi C. L'ultima colonna è la colonna
dei termini noti.
Mosse di Gauss
Le mosse di Gauss sono operazioni che modificano una matrice in uno dei modi seguenti:
• scambiando due righe;
• moltiplicando una riga per un numero diverso da zero;
• sommando una riga ad un'altra.
Le righe della matrice qui sono intese come vettori dello spazio vettoriale Kn, e quindi si possono moltiplicare per un
numero oppure sommare, semplicemente termine a termine.
Le mosse di Gauss hanno la seguente importante proprietà: se applicate alla matrice completa dei coefficienti di un
sistema lineare, non modificano lo spazio delle soluzioni del sistema. In altre parole, cambia il sistema ma le
soluzioni restano invariate: un vettore (x1, ..., xn) è soluzione del vecchio sistema se e solo se lo è del nuovo.
D'altra parte è semplice notare che le mosse di Gauss applicate alla matrice completa dei coefficienti corrispondono,
nella classica maniera di esprimere un sistema di equazioni (con la parentesi graffa), a nient'altro se non:
• scambiare l'ordine di scrittura di due equazioni;
• moltiplicare entrambi i membri di un'equazione per un numero diverso da zero;
• sommare ad ogni membro di un'equazione la stessa quantità a sinistra e a destra.
Matrice a scalini
Una matrice a scalini è una matrice A avente la proprietà seguente: il primo elemento diverso da zero di una riga
deve essere più a destra del primo elemento diverso da zero della riga precedente. Ad esempio, la matrice
è ridotta a scalini, mentre la matrice
non lo è. Il primo elemento diverso da zero su ogni riga (quando c'è) è detto pivot. Ad esempio, la matrice a scalini
descritta sopra ha tre pivot, contenenti le cifre 3, -1 e 5.
Algoritmo di Gauss
L'algoritmo di Gauss trasforma una qualsiasi matrice in una matrice a scalini tramite mosse di Gauss. Funziona nel
modo seguente:
1. Se la prima riga ha il primo elemento nullo, scambiala con una riga che ha il primo elemento non nullo. Se tutte
le righe hanno il primo elemento nullo, vai al punto 3.
2. Per ogni riga
con primo elemento non nullo, eccetto la prima (
coefficiente scelto in maniera tale che la somma tra la prima riga e
), moltiplica la prima riga per un
abbia il primo elemento nullo (quindi
coefficiente =
). Sostituisci
con la somma appena ricavata.
3. Adesso sulla prima colonna tutte le cifre, eccetto forse la prima, sono nulle. A questo punto ritorna al punto 1
considerando la sottomatrice che ottieni cancellando la prima riga e la prima colonna.
Metodo di eliminazione di Gauss
Mostriamo qui un esempio:
Dalla matrice di partenza abbiamo moltiplicato la prima riga per -1, sommato la prima riga con la seconda (scrivendo
il risultato nella seconda riga in modo da ottenere uno zero in prima posizione), moltiplicato la riga ottenuta per -2 ed
infine sommata alla terza riga.
NOTA IMPORTANTE: questa procedura, scritta ed utilizzata come sopra, funziona per risolvere un sistema lineare
applicando le mosse di Gauss alla matrice completa dei coefficienti del sistema o per capire quale sia il rango di una
generica matrice in esame. Nel caso che si voglia sfruttare questa procedura per il calcolo veloce del determinante di
una generica matrice quadrata (una volta triangolarizzata si fa il prodotto degli elementi diagonali) si devono fare un
numero pari di scambi di righe altrimenti il determinante cambia segno! Ci si deve inoltre limitare a sommare ad una
riga un'altra riga eventualmente moltiplicata per un numero diverso da zero, lasciando la seconda riga invariata: nel
calcolo del determinante, sfruttando questa procedura, se moltiplicassimo semplicemente una riga per una costante il
determinante cambierebbe! Cambierebbe proprio del fattore per cui si moltiplica la riga! Infine applicando la
procedura per il calcolo veloce del determinante si può operare anche sulle colonne.
Mostriamo qui un esempio per il calcolo del determinante sulla stessa matrice sopra:
Dalla matrice di partenza abbiamo sommato alla seconda riga la prima riga moltiplicata per -1 per azzerare il primo
elemento (lasciando la prima riga invariata); la terza riga ha già uno zero come primo elemento a sinistra quindi
abbiamo sommato alla terza riga la seconda riga moltiplicata per -2 per azzerare il secondo elemento (lasciando la
seconda riga invariata). Adesso si può calcolare facilmente il determinante che è il prodotto degli elementi diagonali
cioè vale -12 ed è lo stesso determinante di quello della matrice iniziale.
Nell'esempio precedente invece si otterrebbe -24 dal prodotto degli elementi diagonali cioè -12 moltiplicato per un
fattore 2: questo fattore 2 è proprio il prodotto -1 x -2, i fattori per cui si erano moltiplicate le righe nell'esempio
sopra.
Il calcolo del determinante tramite questa procedura è il sistema meno impegnativo che si conosca dal punto di vista
computazionale (crescita polinomiale invece che fattoriale) ed è l'unico applicabile quando le dimensioni delle
matrici diventano grandi.
Algoritmo di Jordan-Gauss
Dopo aver ridotto la matrice a scalini, è possibile usare una versione dell'algoritmo di Gauss in senso inverso, cioè
dal basso verso l'alto, per ottenere una matrice che in ogni colonna contenente un pivot abbia solo il pivot come
numero non nullo: basta usare ogni riga, partendo dall'ultima, per eliminare tutte le cifre diverse da zero che stanno
sopra al pivot di questa riga. Infine, sempre con mosse di Gauss (moltiplicando righe), possiamo ottenere che ogni
pivot abbia valore 1.
Ad esempio, portando avanti l'algoritmo descritto sopra otteniamo:
48
Metodo di eliminazione di Gauss
49
Soluzioni del sistema
L'algoritmo di Gauss-Jordan trasforma la matrice dei coefficienti di un sistema in una matrice fatta nel modo
seguente: le variabili corrispondenti alle colonne che non contengono pivot sono dette libere; ciascuna altra variabile
compare in una sola equazione, e quindi può essere espressa in funzione delle variabili libere e dei termini noti. Lo
spazio delle soluzioni si ottiene assegnando valori arbitrari alle variabili libere, e calcolando le altre variabili di
conseguenza.
Se i termini noti bi sono tutti nulli, le soluzioni sono un sottospazio vettoriale di 'Kn. Altrimenti sono ottenute da un
sottospazio vettoriale tramite traslazione.
Inversa di una matrice
L'algoritmo di Gauss-Jordan è anche usato per trovare (quando esiste) l'inversa di una matrice. Funziona nel modo
seguente: sia A una matrice invertibile. Costruiamo la matrice B = (A | I) con n righe e 2n colonne, costruita
affiancando A e la matrice identità I. A questo punto, dopo aver reso la matrice a scalini con uno o più passi
dell'algoritmo di Gauss, applichiamo la variante di Gauss-Jordan alla nuova B per ottenere nella parte sinistra I
Poiché A è invertibile, le sue colonne sono indipendenti, e quindi conterranno tutte dei pivot alla fine dell'algoritmo.
Quindi il risultato sarà una matrice del tipo (I | C). Ebbene la matrice C è proprio l'inversa di A.
L'esempio seguente mostra che l'inversa di
è
:
Nel primo passaggio si è moltiplicata la prima riga per -2, nel secondo si è sommata alla seconda riga la prima, nel
terzo si è moltiplicata la seconda riga per -4, nel quarto passaggio si è sommata alla prima riga la seconda e infine
nell'ultimo passaggio si è divisa la prima riga per -2 e la seconda per 4. In questo modo si è partiti da una matrice di
(A | I) e si è arrivati a (I | C). Si ha che C è l'inversa di A.
Proprietà
• Il rango di una matrice è pari al numero dei pivot di una qualsiasi matrice a scalini ottenuta da questa tramite
mosse di Gauss
• Lo spazio delle soluzioni non cambia tramite mosse di Gauss
• Per estrarre da un insieme di vettori in Kn un sottoinsieme di vettori indipendenti, dunque anche una base del
sottospazio da essi generato basta applicare l'algoritmo di Gauss alla matrice ottenuta affiancando questi vettori, e
quindi prendere solo quei vettori iniziali sulla cui colonna compare (alla fine dell'algoritmo) un pivot.
Metodo di eliminazione di Gauss
50
Voci correlate
•
•
•
•
Matrice
Determinante
Rango
Teorema di Rouché-Capelli
Collegamenti esterni
•
•
•
•
•
Programma che calcola l'inversa di una matrice [1]
Programma interattivo o automatico per utilizzare l'algoritmo di Gauss-Jordan [2]
(EN) Eliminazione gaussiana [3] su MathWorld
(EN) Eliminazione di Gauss-Jordan [4] MathWorld
(EN) Eliminazione gaussiana [5] su PlanetMath
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Note
[1]
[2]
[3]
[4]
[5]
http:/ / evinive. altervista. org
http:/ / ww2. unime. it/ weblab/ ita/ Gauss/
http:/ / mathworld. wolfram. com/ GaussianElimination. html
http:/ / mathworld. wolfram. com/ Gauss-JordanElimination. html
http:/ / planetmath. org/ encyclopedia/ GaussianElimination2. html
Determinante
In algebra lineare, il determinante è una
funzione che associa ad ogni matrice
quadrata
uno scalare che ne sintetizza
alcune proprietà algebriche.
Esso viene generalmente indicato con
e a volte con
, notazione
compatta ma ambigua, in quanto utilizzata
talvolta per descrivere una norma della
matrice.[1]
Il determinante è un potente strumento usato
in vari settori della matematica: innanzitutto
nello studio dei sistemi di equazioni lineari,
quindi nel calcolo infinitesimale a più
dimensioni (ad esempio nel Jacobiano), nel
calcolo
tensoriale,
nella
geometria
differenziale, nella teoria combinatoria, etc.
Una trasformazione lineare del piano cartesiano è descritta da una matrice quadrata
. Il determinante della matrice fornisce delle informazioni sulla
trasformazione: il valore assoluto descrive il cambiamento di area, mentre il segno
descrive il cambiamento di orientazione. Nell'esempio qui riportato, la matrice ha
determinante -1: quindi la trasformazione preserva le aree (un quadrato di area 1 si
trasforma in un parallelogramma di area 1) ma inverte l'orientazione del piano.
Determinante
51
Il significato geometrico principale del
determinante si ottiene interpretando la
matrice quadrata
di ordine
come
trasformazione lineare di uno spazio
vettoriale a
dimensioni: con questa
interpretazione, il valore assoluto di
è il fattore con cui vengono
modificati i volumi degli oggetti contenuti
nello spazio. Se è diverso da zero, il segno
del determinante indica inoltre se la
trasformazione
preserva o cambia
l'orientazione dello spazio.
Definizione
Il volume di questo parallelepipedo è il valore assoluto del determinante della
matrice
formata dai vettori
e
. Questa relazione fra volume e
determinante è valida in qualsiasi dimensione.
Definizione
Sia V uno spazio vettoriale sul campo C di dimensione n e D una forma n-lineare e alternante e non identicamente
nulla da V in C, il determinante di un endomorfismo
è definito come:
Con
una qualsiasi base di V.
Definizione tramite assiomi
Sia
lo spazio vettoriale delle matrici quadrate
a valori in un campo
(ad esempio, il campo dei
numeri reali o complessi).
Il determinante è l'unica funzione
avente le proprietà seguenti:
•
• Si comporta nel modo seguente rispetto all'algoritmo di Gauss-Jordan:
• se
• se
• se
è ottenuta scambiando due righe o due colonne di
, allora
,
è ottenuta moltiplicando una riga o una colonna di
per , allora
è ottenuta sommando una riga o una colonna rispettivamente di
ad un'altra, allora
dove la matrice
,
è la matrice identità.
Le proprietà elencate hanno un significato geometrico: sono le proprietà che deve verificare una funzione il cui
valore assoluto è il volume del poliedro individuato dai vettori riga della matrice B e il cui segno è positivo se e solo
se tali vettori sono equiorientati alla base canonica.
Determinante
52
Definizione costruttiva
Il determinante di una matrice
Nella formula,
può essere definito in un modo più costruttivo, tramite la formula di Leibniz:
è l'insieme di tutte le permutazioni
il segno della permutazione (
Per esteso:
se
dell'insieme numerico
e
denota
è una permutazione pari, −1 se è dispari).
In particolare:
• Se
, il determinante di
è semplicemente
• Se
, si ottiene la formula già vista
• Se
, si ottiene
Quest'ultima formula può essere memorizzata tramite la regola di Sarrus (che non è però estendibile ai casi
).
La complessità della definizione costruttiva (comprese la generazione delle permutazioni) è elevata:
Metodi di calcolo
La definizione costruttiva del determinante è spesso complicata da usare per un calcolo concreto, perché si basa su
una somma di ben
addendi. Esistono altri algoritmi che consentono di calcolare il determinante più facilmente.
Ciascun metodo ha una efficienza variabile, dipendente dalla grandezza della matrice e dalla presenza di zeri.
Sviluppo di Laplace
Lo sviluppo di Laplace è un metodo di calcolo del determinante, che risulta efficiente per matrici non troppo grandi e
contenenti un gran numero di zeri. Si procede scegliendo una riga, la -esima, tramite la formula:
dove
è il complemento algebrico della coppia
, cioè
minore di ordine
ottenuto dalla matrice
eliminando la riga
Esiste uno sviluppo analogo anche lungo la -esima colonna.
è data da
-esima e la colonna
per il determinante del
-esima.
Determinante
53
Matrici quadrate di ordine 2
Il determinante di una matrice 2 × 2 è pari a
L'area del parallelogramma è il determinante della matrice
Il valore assoluto di questa espressione è pari all'area del parallelogramma con vertici in
e
. Il segno del determinante (se questo è diverso da zero) dipende invece dall'ordine ciclico con cui
compaiono i vertici del parallelogramma (il segno è negativo se il parallelogramma è stato "ribaltato", e positivo
altrimenti).
Come spiegato più sotto, questa proprietà geometrica si estende anche in dimensioni maggiori di 2: il determinante
di una matrice
è ad esempio il volume del poliedro i cui vertici si ricavano dalle colonne della matrice con lo
stesso procedimento visto.
Matrici quadrate di ordine 3
Il determinante di una matrice 3 × 3 è pari a
Calcolo del determinante di una matrice
tramite un metodo
equivalente alla regola di Sarrus. Questo metodo non si estende a
matrici più grandi.
Determinante
54
Un metodo mnemonico per ricordare questa formula, espresso dalla regola di Sarrus (questo metodo non si estende a
matrici più grandi), prevede di calcolare i prodotti dei termini sulle diagonali "continue": ripetendo a destra della
matrice le sue prime due colonne
i prodotti delle componenti sulle 3 "diagonali" che partono dall'alto a sinistra (diagonali principali) sono aei, bfg e
cdh, mentre sulle 3 "diagonali" che partono dal basso a sinistra (diagonali secondarie) si trovano gec, hfa, idb. Il
determinante della matrice è esattamente la differenza tra la somma dei primi tre termini (aei + bfg + cdh) e la
somma degli ultimi tre (gec + hfa + idb).
Algoritmo di Gauss
La definizione assiomatica fornisce un altro utile strumento di calcolo del determinante, che si basa su questi due
principi:
• Il determinante di una matrice triangolare è semplicemente il prodotto degli elementi sulla diagonale, cioè
.
• Usando l'algoritmo di Gauss, è possibile trasformare ogni matrice in una matrice triangolare tramite mosse di
Gauss, il cui effetto sul determinante è determinato dagli assiomi.
Esempio
Supponiamo di voler calcolare il determinante di
.
Si può procedere direttamente tramite la definizione costruttiva:
Alternativamente si può utilizzare lo sviluppo di Laplace secondo una riga o una colonna. Conviene scegliere una
riga o una colonna con molti zeri, in modo da ridurre gli addendi dello sviluppo; nel nostro caso sviluppiamo
secondo la seconda colonna:
Lo sviluppo di Laplace può essere combinato con alcune mosse di Gauss. Ad esempio qui risulta particolarmente
vantaggioso sommare la seconda colonna alla prima:
Questa mossa non cambia il determinante. Sviluppando lungo la prima colonna si ottiene quindi ancora:
Determinante
55
Applicazioni
Sistemi lineari
Il determinante è utile a calcolare il rango di una matrice e quindi a determinare se un sistema di equazioni lineari ha
soluzione, tramite il teorema di Rouché-Capelli. Quando il sistema ha una sola soluzione, questa può essere
esplicitata usando il determinante, mediante la regola di Cramer.
Matrici e trasformazioni invertibili
Una matrice è detta singolare se ha determinante nullo. Una matrice singolare non è mai invertibile, e se è definita
su un campo vale anche l'inverso: una matrice non singolare è sempre invertibile.
Una trasformazione lineare del piano, dello spazio, o più in generale di uno spazio euclideo o vettoriale (di
dimensione finita)
è rappresentata (dopo aver scelto una base) da una matrice quadrata
dipende dalla base scelta, e quindi solo dalla funzione
con
. Il determinante è una quantità che non
: si può quindi parlare di determinante di
, che si indica
.
Molte affermazioni su
sono equivalenti:
è una corrispondenza biunivoca
è un isomorfismo
è iniettiva
è suriettiva
Quindi ciascuna di queste affermazioni equivalenti è vera se e solo se il determinante non è zero.
Autovalori e autovettori
Il determinante consente di trovare gli autovalori di una matrice
dove
è la matrice identità avente stesso numero di righe di
mediante il suo polinomio caratteristico
.
Basi, sistemi di riferimento
Dati
vettori nello spazio euclideo
, sia
la matrice avente come colonne questi vettori. Le seguenti
affermazioni sono equivalenti:
i vettori sono indipendenti
Se gli
i vettori generano
vettori formano una base, allora il segno di
i vettori formano una base
determina l'orientazione della base: se positivo, la
base forma un sistema di riferimento destrorso, mentre se è negativo si parla di sistema di riferimento sinistrorso
(in analogia con la regola della mano destra).
Determinante
56
Volumi
Il
valore
assoluto
del
determinante è uguale al volume del
parallelepipedo sotteso dai vettori dati dalle
colonne di
(il parallelepipedo è in realtà
un parallelogramma se
solido di dimensione
, ed un
in generale).
Più in generale, data una trasformazione
lineare
Cubo prima della trasformazione, di volume 1.
L'immagine del cubo dopo la trasformazione è un parallelepipedo, il cui volume è
pari al determinante della trasformazione.
rappresentata da una matrice
dell'immagine
, ed un qualsiasi sottoinsieme
misurabile secondo Lebesgue, il volume
è dato da
Ancora più in generale, se la trasformazione lineare
e
di
è un sottoinsieme di
è rappresentata da una matrice
misurabile secondo Lebesgue, allora il volume di
è dato da
di tipo
Determinante
57
Proprietà
Proprietà elementari
Dalle proprietà elencate nella definizione assiomatica, è facile dedurre che:
• Se tutti gli elementi di una riga (o colonna) sono nulli, allora
.
• Se
ha due righe (o colonne) eguali, o proporzionali, allora
.
• Se una riga (o colonna) è combinazione lineare di due o più altre righe (o colonne) a essa parallele, allora
.
• Se
viene modificata tramite mosse di Gauss sulle colonne (invece che sulle righe), l'effetto è sempre quello
descritto nella definizione assiomatica.
• Se una riga (o una colonna) è somma di due righe (o colonne),
è la somma dei due determinanti che si
ottengono sostituendo a quella riga (o colonna) rispettivamente le due righe (o colonne) di cui è somma.
Moltiplicazione di matrici
Il
determinante
è
una
funzione
moltiplicativa, nel senso che vale il teorema
di Binet:
Il determinante misura il volume del parallelepipedo generato dai vettori colonna
della matrice. Moltiplicando un vettore per due, il volume viene moltiplicato per
due (come richiesto dalla definizione assiomatica)
Una matrice quadrata
con valori in un campo
è invertibile se e solo se
. In caso affermativo
vale l'uguaglianza:
Le proprietà appena elencate mostrano che l'applicazione
dal gruppo generale lineare negli elementi non nulli di
Come conseguenza del teorema di Binet, se
verificare che
. Quindi:
è un omomorfismo di gruppi.
è la matrice identità di tipo
e
uno scalare, è facile
Determinante
58
Trasposte, matrici simili
Una matrice e la sua trasposta hanno lo stesso determinante:
Se
e
sono simili (cioè esiste una matrice invertibile
tale che
=
) allora per il teorema di
Binet
Questo significa che il determinante è un invariante per similitudine. Da questo segue che il determinante di una
trasformazione lineare
è ben definito (non dipende dalla scelta di una base per lo spazio vettoriale
).
D'altra parte, esistono matrici con lo stesso determinante che non sono simili.
Autovalori
Il determinante di una matrice triangolare è il prodotto degli elementi nella diagonale.
Se
è di tipo
con valori reali o complessi e ha tutti gli autovalori
nel campo (contati con
molteplicità), allora
Questa uguaglianza segue dal fatto che
è sempre simile alla sua forma normale di Jordan, che è una matrice
triangolare superiore con gli autovalori sulla diagonale principale.
Dal collegamento fra determinante e autovalori si può derivare una relazione fra la funzione traccia, la funzione
esponenziale e il determinante:
Derivata
Il determinante può considerarsi una funzione polinomiale
quindi essa è differenziabile rispetto ad ogni variabile corrispondente al valore che può assumere in una casella e per
qualunque suo valore. Il suo differenziale può essere espresso mediante la formula di Jacobi:
dove cofT(A) denota la trasposta della matrice dei cofattori (detta anche dei complementi algebrici) di A, mentre tr(A)
ne denota la traccia. In particolare, se A è invertibile abbiamo
o, più colloquialmente, se i valori della matrice
Il caso particolare di
sono sufficientemente piccoli
coincidente con la matrice identità
comporta
Determinante
59
Generalizzazioni
Pfaffiano
Lo pfaffiano è un analogo del determinante per matrici antisimmetriche di tipo
di grado
. Si tratta di un polinomio
il cui quadrato è uguale al determinante della matrice.
Infinite dimensioni
Per gli spazi ad infinite dimensioni non si trova alcuna generalizzazione dei determinanti e della nozione di volume.
Sono possibili svariati approcci, inclusa la utilizzazione dell'estensione della traccia di una matrice.
Note
[1] La notazione
fu introdotta per la prima volta nel 1841 dal matematico inglese Arthur Cayley ( MacTutor (http:/ / www-history. mcs.
st-andrews. ac. uk/ HistTopics/ Matrices_and_determinants. html)).
Bibliografia
In italiano
• Ernesto Pascal I determinanti: teoria ed applicazioni. Con tutte le più recenti ricerche (http://name.umdl.umich.
edu/ABZ4755.0001.001) (Milano: U. Hoepli, 1897)
• Francesco Calderara Trattato dei determinanti (http://resolver.library.cornell.edu/math/1927647) (Palermo:
Virzì, 1913)
In lingua straniera
• (FR) Francesco Brioschi Théorie des déterminants et leurs principales applications; traduit de l'italien par M.
Édouard Combescure (http://gallica.bnf.fr/notice?N=FRBNF30162093) (Parigi : Mallet-Bachelier, 1856)
• (FR) R. Baltzer Théorie et applications des déterminants, avec l'indication des sources originales; traduit de
l'allemand par J. Hoüel, (http://gallica.bnf.fr/notice?N=FRBNF30050936) (Parigi : Mallet-Bachelier, 1861)
• (EN) Lewis Carroll An elementary treatise on determinants, with their application to simultaneous linear equations
and algebraical geometry (http://www.archive.org/details/elementarytreati00carrrich) (Oxford: University
Press, 1867)
• (EN) R. F. Scott e G. B. Matthews The theory of determinants and their applications (http://www.archive.org/
details/theoryofdetermin00scotuoft) (Cambridge: University Press, 1904)
• (EN) T. Muir The theory of determinants in the historical order of development (4 vol.) (http://quod.lib.umich.
edu/cgi/t/text/text-idx?c=umhistmath&idno=ACM9350) (London: Macmillan and Co., Limited, 1906)
• (EN) T. Muir Contributions To The History Of Determinants 1900 1920 (http://www.archive.org/details/
contributionstot032405mbp) (Blackie And Son Limited, 1930)
Determinante
60
Voci correlate
•
•
•
•
•
•
Storia del determinante
Sviluppo di Laplace
Algoritmo di Gauss
Regola di Sarrus
Determinante jacobiano
Matrice unimodulare
Collegamenti esterni
• (EN) Storia dell'uso delle matrici e dei determinanti (http://www-history.mcs.st-andrews.ac.uk/HistTopics/
Matrices_and_determinants.html) su MacTutor
Portale Matematica: accedi alle voci di Wikipedia che trattano di Matematica
Rango (algebra lineare)
Nell'algebra lineare, il rango o caratteristica di una matrice
colonne (o righe) linearmente indipendenti in
a valori in un certo campo è il massimo numero di
.
Il rango di una matrice può essere formulato in numerosi modi equivalenti, ed è una quantità fondamentale in algebra
lineare, utile per risolvere i sistemi lineari e studiare le applicazioni lineari. È comunemente indicato con rango(
), rg(
)o
(
), o con le versioni inglesi rank(
) o rk(
).
Definizione
Sia
•
•
•
•
una matrice, a valori in un campo
. Le seguenti definizioni di rango di
sono tutte equivalenti:
Il massimo numero di colonne linearmente indipendenti
Il massimo numero di righe linearmente indipendenti
La dimensione del sottospazio di
generato dalle colonne di
La dimensione del sottospazio di
generato dalle righe di
• La dimensione dell'immagine dell'applicazione lineare
da
in
seguente:
• Il massimo ordine di un minore invertibile di
Rango di una trasformazione lineare
Si può attribuire un rango anche ad una generica applicazione lineare, definendolo come la dimensione dello spazio
vettoriale dato dalla sua immagine.
In una esposizione con fini tendenzialmente generali una definizione di questo genere ha il vantaggio di essere
applicabile senza la necessità di fare riferimento ad alcuna matrice che rappresenti la trasformazione. Quando invece
ci si trova in un ambito di applicazioni concrete, il calcolo effettivo del rango di una trasformazione ben raramente si
può ottenere evitando di operare su una matrice.
Rango (algebra lineare)
61
Proprietà del rango di una matrice
In quanto segue,
è una matrice
su un campo
, che descrive una mappa lineare
come
sopra.
Proprietà di base
• Solo la matrice nulla ha rango 0.
• Il rango di
è uguale al rango della sua trasposta.
• Il rango di
è minore o uguale sia di
che di . In altre parole, è minore o uguale del minimo dei due valori
Relazioni fra
ed
•
è iniettiva se e solo se
ha rango (in questo caso si dice che
ha rango per colonne massimo).
•
è suriettiva se e solo se
ha rango
(in questo caso si dice che
ha rango per righe massimo).
• nel caso di una matrice quadrata
(cioè,
), allora
è invertibile se e solo se
ha rango (e si
dice che
ha rango massimo). Questo accade se e solo se
è biettiva.
Prodotto fra matrici
• Se
è una matrice
rango di
, allora il rango del prodotto
è minore o uguale sia del rango di
che del
. In altre parole:
Come esempio del caso "<", si consideri il prodotto
Entrambi i fattori hanno rango 1, ma il prodotto ha rango 0.
• Se
è una matrice
• Se è una matrice
• Il rango di
è uguale a
invertibile
dove
con rango , allora
ha lo stesso rango di
.
con rango
, allora
ha lo stesso rango di
.
se e solo se esistono una matrice
invertibile
ed una matrice
tali che
denota la matrice identità
.
• Dall'ultima proprietà si deduce che il rango di una matrice è un invariante completo per matrici equivalenti
destra-sinistra.
Rango (algebra lineare)
62
Teorema del rango-nullità
Il rango di una matrice più la nullità della matrice è uguale al numero di colonne della matrice (questo è il teorema
del rango, o "teorema del rango-nullità").
SD-equivalenza
Il rango è un invariante completo per la equivalenza sinistra-destra tra matrici: due matrici
lo stesso rango se e solo se esistono due matrici invertibili
e
tali che
e
hanno
.
Calcolo
Algoritmo di Gauss
Il modo più semplice per calcolare il rango di una matrice
è dato dall'algoritmo di Gauss. L'algoritmo trasforma
la matrice in una matrice a scalini con lo stesso rango, dato dal numero di righe non nulle, o equivalentemente di
pivot.
Si consideri ad esempio la matrice
Vediamo che la seconda colonna è il doppio della prima colonna, e la quarta colonna è uguale alla somma della
prima e della terza. La prima e la terza colonna sono linearmente indipendenti, quindi il rango di
è due. Questo
può essere confermato dall'algoritmo di Gauss, che produce la seguente matrice a scalini
:
con due righe non nulle.
Criterio dei minori
Un altro metodo, in alcuni casi più diretto, sfrutta le proprietà del determinante di una matrice quadrata, e in
particolare dei determinanti delle sottomatrici quadrate di
, dette minori. Si basa sul fatto seguente:
• Il rango di
è pari al massimo ordine di un minore invertibile di
Ad esempio, la matrice
i suoi minori
.
data sopra ha determinante nullo, e quindi può avere rango al massimo 3. Anche tutti
hanno determinante nullo, e quindi può avere rango al massimo 2. Infine, esiste almeno un
minore invertibile di ordine 2, ad esempio quello in basso a destra
che ha determinante
. Quindi
ha rango esattamente 2. Questo criterio può essere utile ad esempio per verificare
rapidamente se il rango di una matrice è superiore o inferiore ad un certo valore.
Rango (algebra lineare)
63
Generalizzazioni
Esistono diverse generalizzazioni del concetto di rango per matrici su anelli arbitrari. In queste generalizzazioni il
rango colonna, il rango riga, dimensione dello spazio colonna, dimensione dello spazio riga di una matrice possono
essere diversi l'uno dall'altro o non esistere.
Un'altra generalizzazione riguarda le matroidi, entità che generalizzano le matrici.
Bibliografia
• (EN) Werner Greub (1981): Linear algebra, 4th edition, Springer Verlag
• (EN) Roger A. Horn, Charles R. Johnson (1985): Matrix Analysis. Cambridge University Press, ISBN
0-521-38632-2.
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Trasformazione lineare
In matematica, più precisamente in algebra lineare, una trasformazione lineare (chiamata anche applicazione
lineare o mappa lineare) è una funzione tra due spazi vettoriali che preserva la forma delle operazioni di somma di
vettori e di moltiplicazione per scalare. In altre parole, preserva le combinazioni lineari, cioè le composizioni che
caratterizzano la specie di struttura spazio vettoriale; quindi nel linguaggio dell'algebra astratta, una trasformazione
lineare è un omomorfismo di spazi vettoriali, in quanto conserva la forma di ogni istanza dell'operazione che
caratterizza gli spazi vettoriali.
Definizione e prime conseguenze
Siano
e
due spazi vettoriali sullo stesso campo
. Una funzione
è una trasformazione
lineare se soddisfa le seguenti proprietà
•
•
per ogni coppia di vettori
e
in
e per ogni scalare
in
.
La prima proprietà è detta additività, la seconda omogeneità di grado 1.
Equivalentemente,
è lineare se "preserva le combinazioni lineari", ovvero se
per ogni intero positivo m e ogni scelta dei vettori
Quando
e
e degli scalari
.
possono essere considerati come spazi vettoriali su differenti campi (ad esempio sul campo dei
reali e sul campo dei complessi), è importante evitare ogni ambiguità e specificare quale campo è stato utilizzato
nella definizione di "lineare". Se si fa riferimento al campo K si parla di mappe
-lineari.
Se
e togliendo
è una applicazione lineare e
da ambo i membri si ottiene
.
e
sono i vettori nulli di
e
rispettivamente, allora
Trasformazione lineare
64
Esempi
• La moltiplicazione per una costante fissata
in
è una trasformazione lineare su qualsiasi spazio vettoriale su
.
• Una rotazione del piano euclideo rispetto all'origine di un angolo fissato.
• Una riflessione del piano euclideo rispetto ad una retta passante per l'origine.
• La proiezione di uno spazio vettoriale V decomposto in somma diretta
su uno dei due sottospazi U o W.
• Una matrice
di tipo
con valori reali definisce una trasformazione lineare
dove
è il prodotto di
e
. Ogni trasformazione lineare tra spazi vettoriali di dimensione finita è
essenzialmente di questo tipo: si veda la sezione seguente.
• L'integrale di una funzione reale su un intervallo definisce una mappa lineare dallo spazio vettoriale delle funzioni
continue definite sull'intervallo nello spazio vettoriale R.
• La derivata definisce una mappa lineare dallo spazio vettoriale di tutte le funzioni derivabili in qualche intervallo
aperto di R nello spazio di tutte le funzioni.
• Lo spazio C dei numeri complessi ha una struttura di spazio vettoriale complesso di dimensione 1, e anche di
spazio vettoriale reale di dimensione 2. La coniugazione
è una mappa R-lineare ma non C-lineare: infatti la proprietà di omogeneità vale solo per scalari reali.
Matrice associata
Siano
e
due spazi vettoriali di dimensione finita. Scelte due basi
trasformazione lineare da
a
e
per
e
, ogni
è rappresentabile come una matrice nel modo seguente.
Scriviamo nel dettaglio le basi
Ogni vettore
in
Se
è univocamente determinato dalle sue coordinate
, definite in modo che
è una trasformazione lineare,
Quindi la funzione
è determinata dai vettori
Quindi la funzione
è interamente determinata dai valori di
e
Ciascuno di questi è scrivibile come
, che formano la matrice associata a
nelle basi
.
La matrice associata
è di tipo
, e può essere usata agevolmente per calcolare l'immagine
vettore di
grazie alla relazione seguente:
dove
e
sono le coordinate di
e
nelle rispettive basi.
di ogni
Trasformazione lineare
65
Notiamo che la scelta delle basi è essenziale: la stessa matrice, usata su basi diverse, può rappresentare applicazioni
lineari diverse.
Struttura di spazio vettoriale
• La composizione di trasformazioni lineari è anch'essa una trasformazione lineare: se
e
sono applicazioni lineari, allora lo è anche
• Se
e
sono lineari, allora lo è la loro somma
• Se
è lineare e
è un elemento del campo
, definita dalla relazione
, allora la mappa
, definita da
, è anch'essa lineare.
Le proprietà precedenti implicano che l'insieme Hom(
,
) delle applicazioni lineari da
sottospazio vettoriale dello spazio vettoriale formato da tutte le funzioni da
in
in
è un
.
Nel caso finito-dimensionale, dopo aver fissato delle basi, composizione, somma e prodotto per scalare di mappe
lineari corrispondono rispettivamente a moltiplicazione di matrici, somma di matrici e moltiplicazione di matrici per
scalare. In altre parole, le basi definiscono un isomorfismo
tra gli spazi vettoriali delle applicazioni lineari e delle matrici
rispettivamente di
e
, dove
e
sono le dimensioni
.
Nucleo e immagine
Se
ker(
è lineare, si definisce il nucleo (in inglese kernel) e l'immagine di
) è un sottospazio di
e Im(
) è un sottospazio di
. Se
e
come
hanno dimensione finita, il teorema
della dimensione asserisce che:
Isomorfismi
Se V e W sono due spazi vettoriali su K. Un isomorfismo di V con W è un'applicazione lineare biunivoca f: V→W.
Conseguenza immediata di questa definizione è che f è isomorfismo se e solo se Kerf = 0V e Imf= W.
Endomorfismi e automorfismi
Una trasformazione lineare
è un endomorfismo di
. L'insieme di tutti gli endomorfismi Endo(
)
insieme a addizione, composizione e moltiplicazione per uno scalare come descritti sopra formano un'algebra
associativa con unità sul campo
: in particolare formano un anello e un spazio vettoriale su
. L'elemento
identità di questa algebra è la trasformazione identità di
Un endomorfismo biiettivo di
.
viene chiamato automorfismo di
nuovo un automorfismo, e l'insieme di tutti gli automorfismi di
, chiamato Aut(
) o GL(
Se la dimensione di
; la composizione di due automorfismi è di
forma un gruppo, il gruppo generale lineare di
).
è finita basterà che f sia iniettiva per poter affermare che sia anche suriettiva (per il teorema
della dimensione). Inoltre l'isomorfismo
Trasformazione lineare
66
fra gli endomorfismi e le matrici quadrate
automorfismi di
in
descritto sopra è un isomorfismo di algebre. Il gruppo degli
è isomorfo al gruppo lineare generale GL(
,
) di tutte le matrici
invertibili a valori
.
Pull-Back di funzioni ed applicazione trasposta
Siano A,B,C degli insiemi ed F ( A, C ), F ( B, C ) le famiglie di funzioni da A in C e da B in C rispettivamente. Ogni
φ: A → B determina univocamente una corrispondenza φ*: F ( B, C ) → F ( A, C ), chiamata pull-back tramite φ,
che manda f in f φ.
Se nello specifico prendiamo A = V, B = W due spazi vettoriali su campo k = C, e anziché prendere gli interi F ( V, k
), F ( W, k ) ci restringiamo agli spazi duali V* e W*, abbiamo che ad ogni trasformazione lineare φ : V → W
possiamo associare l'opportuna restrizione del pull-back tramite φ, φ*: W* → V*, che prende il nome di trasposta di
φ.
Segue direttamente da come sono definite le operazioni in V* e W* che φ* è a sua volta lineare. Con un semplice
calcolo si vede che fissate delle basi per V e W, e le rispettive duali in V*, W*, la matrice che rappresenta φ* è la
trasposta di quella di φ (o, se rappresentiamo i funzionali come matrici riga e quindi viene tutto trasposto, le due
matrici sono uguali).
Segue dalla definizione che un funzionale w* ∈ W* viene mandato a 0 se e solo se l'immagine di φ è contenuta nel
nucleo di w* cioè, indicando con U⊥ il sottospazio dei funzionali che annullano U ⊂ W, si ha ker φ* = (im φ)⊥.
Generalizzazioni
Le trasformazioni lineari possono essere definite anche per i moduli, strutture della specie che generalizza quella di
spazio vettoriale.
Voci correlate
•
•
•
•
•
•
Matrice di trasformazione
Autovettore e autovalore
Trasformazione affine
Funzionale lineare
Operatore lineare continuo
(EN) wikibooks:Linear Algebra/Linear Transformations
Collegamenti esterni
• (EN) http://www.falstad.com/matrix/
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Matrice di trasformazione
67
Matrice di trasformazione
In matematica, e più precisamente in algebra lineare, per matrice di trasformazione anche matrice associata ad
una trasformazione o matrice rappresentativa dell'operatore rispetto alle sue basi si intende una matrice che
rappresenta una trasformazione lineare fra spazi vettoriali. Per definire una matrice di trasformazione è necessario
scegliere una base per ciascuno degli spazi.
Fissata una base per il dominio e una per il codominio, ogni trasformazione lineare è descrivibile agevolmente
tramite una matrice
nel modo seguente:
dove
è il vettore colonna delle coordinate di un punto del dominio rispetto alla base del dominio e
colonna delle coordinate dell'immagine e il prodotto
è il vettore
è il prodotto righe per colonne.
Definizione
Siano
e
due spazi vettoriali su un campo
di dimensione finita, e
una applicazione lineare. Siano infine
due basi rispettivamente per
La matrice associata a
del vettore
e
.
nelle basi
rispetto alla base
e
è la matrice
avente nella
-esima colonna le coordinate
.
In altre parole, la matrice associata è
dove
è l'immagine
arrivo
dell'
-esimo vettore della base di partenza
. Qui si usa la notazione
, letta però in coordinate rispetto alla base di
per indicare le coordinate di
rispetto alla base scelta.
Proprietà
Le rappresentazioni di vettori e trasformazioni mediante vettori colonna e matrici consentono di effettuare
sistematicamente molte operazioni su queste entità mediante operazioni numeriche che, tra l'altro, possono essere
demandate abbastanza facilmente al computer. Ad esempio, le immagini di singoli vettori e le composizioni di
trasformazioni vengono rappresentate mediante prodotti fra matrici.
Immagine di un vettore
Tramite la matrice associata
matrice-vettore. Indicando
è possibile calcolare l'immagine di un qualsiasi vettore
e
le coordinate dei vettori
in
e
in
facendo uso del prodotto
, rispettivamente alle basi
e
, si ottiene
Il prodotto
tra la matrice
ed il vettore
è l'usuale prodotto di una matrice per un vettore colonna. La
relazione permette di tradurre trasformazioni lineari in matrici e vettori in vettori numerici di
essenziale di questa traduzione è la scelta di basi: scelte diverse portano a matrici e vettori diversi.
. Fattore
Matrice di trasformazione
68
Composizione di applicazioni lineari
Nella rappresentazione di applicazioni come matrici, la composizione si traduce nell'usuale prodotto fra matrici. In
verità il prodotto riga-per-colonna tra matrici è così definito proprio per rappresentare le composizioni di funzioni.
In altre parole, in presenza di due applicazioni lineari
e dopo aver scelto delle basi
per i tre spazi, vale la relazione
ovvero la matrice associata alla composizione è il prodotto delle matrici associate a
ea
.
Da matrici ad applicazioni
Ogni applicazione può essere descritta come matrice. D'altra parte, una matrice
descrive una applicazione lineare
nel modo seguente:
In altre parole, l'immagine
è il vettore di
le cui coordinate sono date da
.
La corrispondenza biunivoca così definita fra applicazioni lineari e matrici è in realtà un isomorfismo
fra gli spazi vettoriali delle applicazioni lineari da
in
e delle matrici
. Tale isomorfismo dipende
fortemente dalle basi scelte inizialmente per entrambi gli spazi.
Endomorfismi
In presenza di un endomorfismo
è naturale scegliere la stessa base
arrivo. La matrice associata
in partenza ed in
è una matrice quadrata
. Molte proprietà dell'endomorfismo possono
essere più agevolmente lette sulla matrice. Ad esempio:
•
è l'identità se e solo se
è la matrice identica.
•
è la funzione costantemente nulla se e solo se
è la matrice nulla.
•
è un isomorfismo se e solo se
ovvero se ha determinante
•
è invertibile,
diverso da zero.
preserva l'orientazione dello spazio se
Endomorfismo rappresentato da una matrice. Il determinante della
matrice è -1: questo implica che l'endomorfismo è invertibile e
inverte l'orientazione del piano. L'angolo orientato infatti viene
mandato nell'angolo con orientazione opposta.
. La inverte se
L'invertibilità di una matrice è verificata usando il determinante. Altre proprietà più complesse come la
diagonalizzabilità possono essere più facilmente studiate sulle matrici.
Matrice di trasformazione
69
Esempi
• Nel piano cartesiano, indicando con (x, y) un punto generico, la trasformazione lineare T(x, y) = (x, y) viene
rappresentata rispetto ad una qualsiasi base dalla matrice identità di ordine 2. Una tale trasformazione è
conosciuta anche come funzione identità.
• Nel piano cartesiano, sia T la riflessione rispetto alla bisettrice del I e III quadrante. Le matrici associate a T
usando rispettivamente la base canonica e la base B = ((1, 1), (1, -1)) sono::
• Nel piano la rotazione di un angolo θ in senso antiorario intorno all'origine è lineare e definita da
e
. In forma matriciale si esprime con:
Analogamente per una rotazione in senso orario attorno all'origine la funzione è definita da
e
ed in forma matriciale è:
• La funzione T: R2[x] → R2[x] dallo spazio dei polinomi di grado al più due in sé, che associa ad un polinomio p
la sua derivata T(p) = p' è lineare. La matrice associata rispetto alla base B = (1, x, x2) è:
Voci correlate
•
•
•
•
Glossario sulle matrici
Algebra lineare
Coordinate di un vettore
Matrice di cambiamento di base
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Teorema del rango
70
Teorema del rango
In matematica, il teorema del rango (detto anche teorema di nullità più rango) dell'algebra lineare, nella sua
forma più semplice, mette in relazione il rango e la nullità di una matrice con il numero di colonne della matrice.
Nello specifico, se
è una matrice
allora
Nella sua forma più generale, il teorema vale nel contesto delle trasformazioni lineari fra spazi vettoriali. Data una
applicazione lineare
fra spazi vettoriali, vale la relazione
dove
e
sono rispettivamente l'immagine e il nucleo di
e
è la dimensione di
.
Il teorema del rango è a volte chiamato teorema della dimensione ed è un risultato fondamentale in algebra lineare.
Enunciato
Sia
un'applicazione lineare fra due spazi vettoriali, entrambi definiti su un campo
dimensione finita
Qui
. Allora anche l'immagine
è il nucleo di
. Si suppone che
abbia
ha dimensione finita e vale la relazione seguente:
.
Dimostrazione
Poiché
ha dimensione finita, il sottospazio vettoriale
ha anch'esso dimensione finita. Il nucleo ha quindi
una base
Per il teorema della base incompleta esistono
sia una base di
. Per concludere è sufficiente mostrare che i vettori
formano una base di
I primi
tali che
. L'immagine è generata dai vettori
vettori sono però nulli, quindi l'immagine è generata dagli ultimi
vettori
Resta quindi da verificare che questi vettori siano linearmente indipendenti. Si suppone quindi data una
combinazione lineare nulla
Per linearità si ottiene
.
Quindi
Teorema del rango
71
Poiché questo vettore sta nel nucleo, è esprimibile come combinazione lineare dei vettori
:
In altre parole:
Poiché
è una base di
, tutti i coefficienti qui presenti sono nulli. In particolare,
. Quindi i vettori
per ogni
sono effettivamente indipendenti. L'immagine ha quindi dimensione
. Pertanto
Riformulazioni e generalizzazioni
In linguaggio più moderno, il teorema può essere espresso nel seguente modo: se
0→U→V→R→0
è una successione esatta corta di spazi vettoriali, allora
dim(U) + dim(R) = dim(V)
Qui R gioca il ruolo di im T e U è ker T.
Nel caso finito-dimensionale questa formulazione è suscettibile di generalizzazione: se
0 → V1 → V2 → ... → Vr → 0
è una successione esatta di spazi vettoriali a dimensioni finite, allora
Il teorema del rango per gli spazi vettoriali a dimensioni finite può anche essere formulato in termini degli indici di
una mappa lineare. L'indice di una mappa lineare T : V → W, dove V e W sono a dimensioni finite, è definito da
indice T = dim(ker T) - dim(coker T).
Intuitivamente, dim(ker T) è il numero di soluzioni indipendenti x dell'equazione Tx = 0, e dim(coker T) è il numero
di restrizioni indipendenti che devono essere poste su y per rendere Tx = y risolvibile. Il teorema del rango per gli
spazi vettoriali a dimensioni finite è equivalente all'espressione
index T = dim(V) - dim(W).
Si vede che possiamo facilmente leggere l'indice della mappa lineare T dagli spazi coinvolti, senza la necessità di
esaminare T in dettaglio. Questo effetto si trova anche in un risultato molto più profondo: il teorema dell'indice di
Atiyah-Singer afferma che l'indice di determinati operatori differenziali può essere letto dalla geometria degli spazi
coinvolti.
Bibliografia
• Philippe Ellia, Appunti di Geometria I, Bologna, Pitagora Editrice, 1997, ISBN 88-3710958-X
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Autovettore e autovalore
72
Autovettore e autovalore
In algebra lineare, un autovettore di una trasformazione lineare è un vettore non nullo che non cambia direzione
nella trasformazione. Il vettore può cambiare quindi solo per moltiplicazione di uno scalare, chiamato autovalore.
L'autospazio è il sottospazio formato da tutti gli autovettori aventi un fissato autovalore, più il vettore nullo. Un
esempio è mostrato in Fig.1.
In matematica, questi concetti fondamentali sono
introdotti basicamente in algebra lineare, ma
trovano applicazione in vari settori della
matematica e delle sue applicazioni: geometria
euclidea, analisi funzionale, meccanica classica,
meccanica quantistica, economia, elaborazione
digitale delle immagini, ... . In molti contesti,
questi concetti si arricchiscono di significati fisici
importanti. In meccanica classica gli autovettori
delle equazioni che descrivono un sistema fisico
corrispondono spesso ai modi di vibrazione di un
corpo e gli autovalori alle loro frequenze. In
meccanica quantistica, gli operatori corrispondono
a variabili osservabili, gli autovettori sono chiamati
anche autostati e gli autovalori di un operatore
rappresentano quei valori della variabile
corrispondente che hanno probabilità non nulla di
essere misurati.
Fig. 1. In questa trasformazione lineare della Gioconda, l'immagine è
modificata ma l'asse centrale verticale rimane fisso. Il vettore blu ha
cambiato lievemente direzione, mentre quello rosso no. Quindi il vettore
rosso è un autovettore della trasformazione e quello blu no. Inoltre, poiché
il vettore rosso non è stato né allungato, né compresso, né ribaltato, il suo
autovalore è 1. Tutti i vettori sull'asse verticale sono multipli scalari del
vettore rosso, e sono tutti autovettori: assieme all'origine formano
l'autospazio relativo all'autovalore 1.
Il termine autovettore è stato tradotto dalla parola
tedesca Eigenvektor, coniata da Hilbert nel 1904.
Eigen significa proprio, caratteristico. Anche nella
letteratura italiana troviamo spesso l'autovettore
indicato come vettore proprio, vettore caratteristico o vettore latente.
Definizione
Introduzione informale
Il piano cartesiano e lo spazio euclideo sono esempi particolari di spazi vettoriali: ogni
punto dello spazio può essere descritto tramite un vettore che collega l'origine al punto.
Rotazioni, omotetie e riflessioni sono esempi particolari di trasformazioni lineari dello
spazio: ciascuna di queste trasformazioni viene descritta agevolmente dall'effetto che
produce sui vettori.
In particolare, un autovettore è un vettore
moltiplicato per un fattore scalare
che nella trasformazione viene
. Nel piano o nello spazio cartesiano, questo
equivale a dire che il vettore non cambia direzione. Può però cambiare verso se
, e modulo per un fattore dato dal valore assoluto
:
Fig. 2. Una sfera che ruota
intorno ad un suo asse.
Autovettore e autovalore
73
• se
il modulo resta inalterato,
• se
il modulo cresce,
• se
il modulo decresce.
Il valore
è l'autovalore di
.
Ad esempio, nella rotazione spaziale descritta in Fig. 2 ogni vettore
verticale dell'asse resta fisso: in altre parole, è un vettore che non
cambia né direzione, né verso, né modulo, ed è quindi un autovettore
con autovalore 1. Nella rotazione planare descritta in Fig. 3, ogni
vettore ruota in senso antiorario di un certo angolo, e quindi cambia
direzione: quindi ogni rotazione piana (di angolo diverso da e )
non possiede autovettori.
Fig. 3. Rotazione del piano intorno ad un punto
Autovettori e autovalori sono definiti ed usati in
matematica e fisica nell'ambito di spazi più
complessi e astratti di quello tridimensionale della
fisica classica. Questi spazi possono avere
dimensione maggiore di 3 o addirittura infinita (ad
Fig. 4. Un'onda stazionaria in una corda fissata agli estremi è una
esempio, possono essere uno spazio di Hilbert). Ad
autofunzione della trasformazione data dallo scorrere del tempo.
esempio, le possibili posizioni di una corda
vibrante in una chitarra formano uno spazio di
questo tipo: una vibrazione della corda è quindi interpretata come trasformazione di questo spazio, e i suoi
autovettori (più precisamente, le sue autofunzioni) sono le onde stazionarie, che si ripetono come mostrato in Fig. 4.
Definizione formale
Dal punto di vista formale, autovettori e autovalori sono definiti come segue: sia
campo
endomorfismo di
Se
Poiché
e
è uno scalare (che può essere nullo) tali che
è un autovettore della trasformazione
è lineare, se
,e
, allora ogni multiplo non-nullo di
è anch'esso un
. Più in generale, gli autovettori aventi lo stesso fissato autovalore
insieme al vettore nullo, generano un sottospazio di
solitamente indicato con
è il suo autovalore.
è un autovettore con autovalore
autovettore con lo stesso autovalore
Lo spettro di
un
, cioè una trasformazione lineare
è un vettore non nullo in
allora
uno spazio vettoriale su un
, che può essere ad esempio il campo dei numeri reali R o il campo dei complessi C. Sia
chiamato l'autospazio relativo all'autovalore
,
. Viene
.
è l'insieme dei suoi autovalori. Il raggio spettrale di
è l'estremo superiore dei moduli dei suoi
sia di dimensione finita, per ogni scelta di basi a
è associata univocamente una matrice. Per
autovalori.
Nel caso in cui
questo motivo si parla anche di autovettori e autovalori associati direttamente ad una matrice, rispettivamente come
un vettore
e uno scalare tali che
.
Autovettore e autovalore
Esempi nel piano e nello spazio
Fra le trasformazioni del piano cartesiano R2 possiamo distinguere i seguenti casi speciali:
• Rotazione antioraria di angolo θ: se θ non è un multiplo intero di π non esiste alcun autovettore: infatti ogni
vettore viene ruotato e cambia di direzione. Nei casi particolari relativi a θ = k π, con k intero dispari, ogni vettore
viene trasformato nell'opposto, quindi ogni vettore non nullo è autovettore, con autovalore -1. Se invece k è pari,
la trasformazione non è altro che l'identità, per cui ogni vettore non nullo è autovettore, con autovalore +1.
• Riflessione rispetto ad una retta r passante per l'origine: i vettori in r restano fermi e sono quindi autovettori con
autovalore 1, quelli della retta s perpendicolare a r e passante per l'origine vengono ribaltati, e quindi sono
autovettori con autovalore -1. Non esistono altri autovettori.
• Omotetia: ogni vettore viene moltiplicato per uno scalare λ e quindi tutti i vettori non nulli sono autovettori con
autovalore λ.
• Proiezione ortogonale su una retta r passante per l'origine: i vettori su r restano fermi e quindi sono autovettori
con autovalore 1, i vettori sulla retta s ortogonale a r e passante per l'origine vanno tutti sull'origine e quindi sono
autovettori con autovalore 0. Non ci sono altri autovettori.
Gli esempi appena elencati possono essere rappresentati rispettivamente dalle seguenti matrici (per semplicità, la
retta r è l'asse orizzontale):
• Non tutte le trasformazioni del piano e dello spazio ricadono in uno degli esempi mostrati sopra. In generale, un
endomorfismo (cioè una trasformazione) di Rn è rappresentabile tramite una matrice quadrata con n righe.
Consideriamo per esempio l'endomorfismo di R3 indotto dalla matrice:
Usando la moltiplicazione fra matrice e vettore vediamo che:
e quindi l'endomorfismo rappresentato da A ha un autovettore con autovalore 2.
Il polinomio caratteristico
Un metodo generale per l'individuazione di autovalori e autovettori di un endomorfismo, nel caso in cui lo spazio
vettoriale V abbia dimensione finita, è il seguente:
1. Si costruisce una base per V, così da rappresentare l'endomorfismo tramite una matrice quadrata.
2. Dalla matrice si calcola un polinomio, detto polinomio caratteristico, le cui radici (cioè i valori che lo annullano)
sono gli autovalori.
3. Per ogni autovalore, si trovano i relativi autovettori con tecniche standard di algebra lineare, tramite risoluzione
di un sistema di equazioni lineari.
Il polinomio caratteristico p(x), con variabile x, associato ad una matrice quadrata A, è il seguente:
dove I è la matrice identità con lo stesso numero di righe di A, e det(A - xI) è il determinante di A - xI. Le radici del
polinomio sono proprio gli autovalori di A.
Applichiamo quindi il nostro algoritmo all'esempio in R3 descritto sopra. Poiché la trasformazione è già scritta in
forma di matrice, saltiamo al punto 2 e calcoliamo il polinomio caratteristico:
74
Autovettore e autovalore
quindi gli autovalori di A sono 2, 1 e −1.
Nella pratica, gli autovalori di grandi matrici non vengono calcolati usando il polinomio caratteristico: esistono
infatti metodi numerici più veloci e sufficientemente stabili.
Nel punto 1 dell'algoritmo è richiesta la scelta di una base. Basi diverse danno generalmente matrici diverse. I
polinomi caratteristici che ne risultano sono però sempre gli stessi: il polinomio caratteristico dipende quindi soltanto
dall'endomorfismo T (da cui l'aggettivo "caratteristico"). La dimostrazione di questo fatto poggia sul teorema di
Binet.
Proprietà per spazi finito-dimensionali
Elenchiamo alcune proprietà importanti degli autovettori, nel caso finito-dimensionale. Indichiamo quindi con T un
endomorfismo in uno spazio V di dimensione n su un campo K.
Proprietà generali
• Se v1, ..., vm sono autovettori con autovalori λ1, ..., λm, a due a due distinti, allora questi sono linearmente
indipendenti.
Esistenza di autovalori e autovettori
• Il polinomio caratteristico di T ha grado n, e quindi ha al più n radici: segue che T ha al più n autovalori distinti.
• Se K è algebricamente chiuso (ad esempio se K = C è il campo dei numeri complessi), allora il polinomio
caratteristico ha sempre qualche radice: segue che T ha sempre qualche autovalore, e quindi qualche autovettore.
Notiamo che questo è falso nel caso reale: le rotazioni descritte sopra non hanno autovettori.
• Se la dimensione n di V è dispari, e K = R è il campo dei numeri reali, il polinomio caratteristico ha grado dispari,
e quindi ha sempre almeno una radice reale: segue che ogni endomorfismo di R3 ha almeno un autovettore.
Diagonalizzabilità
Un endomorfismo T è diagonalizzabile se esiste una base di autovettori per T. La matrice associata a T in questa base
è diagonale. Le matrici diagonali sono molto più semplici da trattare: questa è una delle motivazioni per lo studio
degli autovettori di T.
• Se il polinomio caratteristico di T non ha tutte le radici in K, allora T non è diagonalizzabile. Ad esempio, una
rotazione ha un polinomio caratteristico di secondo grado con delta negativo e quindi non ha soluzioni reali:
quindi non è diagonalizzabile.
• Per il teorema spettrale, ogni endomorfismo di Rn dato da una matrice simmetrica è diagonalizzabile, ed ha una
base di autovettori ortogonali fra loro. Tra questi rientra l'esempio in R3 mostrato sopra: i tre vettori ortogonali
sono
Per quanto detto prima, la trasformazione assume una forma molto semplice rispetto a questa base: ogni vettore x in
R3 può essere scritto in modo unico come:
e quindi abbiamo
75
Autovettore e autovalore
• Se il polinomio caratteristico di T ha tutte le radici in K con molteplicità 1, allora T è diagonalizzabile.
• Se il polinomio caratteristico di T ha tutte le radici in K, alcune delle quali con molteplicità maggiore di 1, non è
necessariamente diagonalizzabile: ad esempio la matrice seguente, che rappresenta la trasformazione della
Gioconda in Fig.1, ha come polinomio caratteristico (x-1)2 e non è diagonalizzabile (per
):
Spazi di dimensione infinita
In uno spazio di dimensione infinita la definizione di autovalore è identica al caso di dimensione finita. Tuttavia, Il
polinomio caratteristico non è uno strumento disponibile in questo caso. Per questo ed altri motivi, si definisce come
spettro l'insieme di quei valori λ per cui l'inverso dell'operatore (T - λ I) non è limitato; tale insieme è solitamente
indicato con σ(T). A differenza del caso finito-dimensionale lo spettro e l'insieme degli autovalori, generalmente
detto spettro puntuale, in generale non coincidono. Compito della teoria spettrale è l'estensione delle tecniche valide
in dimensione finita nel caso in cui l'operatore T e lo spazio V abbiano delle buone proprietà.
Seguono alcuni esempi classici.
• Un operatore limitato su uno spazio di Banach V ha spettro compatto e non vuoto.
• Un operatore compatto su uno spazio di Banach V ha spettro e spettro puntuale coincidenti a meno dello 0. Gli
operatori compatti si comportano in modo molto simile agli operatori con immagine a dimensione finita.
• Un operatore autoaggiunto su uno spazio di Hilbert H ha spettro reale. Tali operatori sono fondamentali nella
teoria della meccanica quantistica.
76
Autovettore e autovalore
77
Applicazioni
Operatori in meccanica quantistica
Un esempio di operatore definito su uno spazio
infinito-dimensionale è dato dall'operatore hamiltoniano
indipendente dal tempo in meccanica quantistica:
Fig. 4. Le funzioni d'onda associate agli stati di un elettrone
in un atomo d'idrogeno sono gli autovettori sia della
Hamiltoniana dell'atomo di idrogeno che del momento
angolare. Gli autovalori associati sono interpretati come le
loro energie (crescenti dall'alto in basso n=1,2,3,...) e
momenti angolari (crescenti da sinistra a destra: s, p, d,...).
Sono disegnati qui i quadrati dei valori assoluti delle
autofunzioni. Aree più luminose corrispondono a densità di
probabilità maggiori per la posizione in una misurazione. Il
centro di ogni figura è il nucleo dell'atomo, un protone.
dove H è l'operatore che agendo sull'autovettore (o autoket)
restituisce l'autovettore moltiplicato per
l'autovalore E, che è interpretato come l'energia dello stato. Teniamo presente che H è un operatore hermitiano, per
cui i suoi autostati formano una base ortonormale dello spazio degli stati e gli autovalori sono tutti reali. Proiettando
sulla base della posizione otteniamo la rappresentazione tramite funzione d'onda:
dove stavolta Hx indica l'operatore differenziale che rappresenta l'operatore astratto nella base della posizione mentre
la funzione d'onda
è l'autofunzione corrispondente all'autovalore E. Dati i postulati della meccanica
quantistica gli stati accessibili ad un sistema sono vettori in uno spazio di Hilbert e quindi è definito un prodotto
scalare fra di essi del tipo:
.
dove la stella * indica il passaggio alla complessa coniugata della funzione d'onda. Questo limita la possibilità di
scelta dello spazio di Hilbert allo spazio delle funzioni a quadrato integrabile sul dominio scelto D, che può al limite
essere tutto
.
La fig.4 qui a destra mostra le prime autofunzioni della Hamiltoniana dell'atomo di idrogeno.
Autovettore e autovalore
78
Teoria dei numeri
Lo studio degli autovalori di una matrice ha importanti applicazioni anche nella teoria dei numeri. In particolare, si
congettura che alcune statistiche sugli zeri non banali della funzione zeta di Riemann, quali ad esempio quelle sulla
distanza tra zeri consecutivi, siano le stesse di quelle relative alle matrici hermitiane aleatorie (rispetto alla Misura di
Haar) di dimensione N al tendere di N all'infinito. Inoltre, è stato congetturato che anche la distribuzione dei valori
della funzione zeta di Riemann sia ben approssimata, in media, dai valori assunti dal polinomio caratteristico di tali
matrici. Analoghe considerazioni si possono fare su altre famiglie di funzioni speciali, quali ad esempio le funzioni L
di Dirichlet, coinvolgendo anche altre famiglie di matrici aleatorie, come ad esempio le matrici simplettiche o
ortogonali. Dacché un gran numero di statistiche sono molto più facili da calcolare all'interno della teoria delle
matrici aleatorie che investigando direttamente queste funzioni speciali, questa connessione ha avuto come risultato
un fiorire di una serie di nuove congetture in teoria dei numeri.[1]
Autofacce
Nella elaborazione digitale delle immagini, l'immagine di una
faccia si associa ad un vettore le cui componenti rappresentano la
luminosità dei singoli pixel. Gli autovettori di una particolare
matrice, detta matrice di covarianza, sono chiamati autofacce. Essi
sono molto utili per esprimere ogni faccia come una combinazione
lineare di queste autofacce, e sono quindi anche un ottimo
strumento di compressione dei dati per memorizzare ed
identificare un alto numero di facce.
Tensore d'inerzia
In meccanica, gli autovettori del tensore di inerzia definiscono gli
assi principali di un corpo rigido. Il tensore di inerzia è una
quantità chiave, necessaria per determinare la rotazione di un
corpo rigido intorno al suo baricentro. Gli autovettori del tensore
delle deformazioni definiscono gli assi principali di deformazione
di un corpo rigido
Fig. 5. Le autofacce sono esempi di autovettori.
Note
[1] Jon Keating, L-functions and the Characteristic Polynomials of Random Matrices in Francesco Mezzadri e Nina Snaith (a cura di), Recent
perspectives in random matrix theory and number theory (in inglese), Cambridge, Cambridge University Press, 2005, pp. 251-278. ISBN
978-0-521-62058-1
Bibliografia
•
•
•
•
•
•
Marius Stoka, Corso di geometria, Cedam, ISBN 88-13-19192-8
Serge Lang (2002): Algebra, 3rd edition, Springer, ISBN 0-387-95835-X
Serge Lang (2004): Linear Algebra, 3rd edition, Springer, ISBN 0-387-96412-6
Steven Roman (1992): Advanced Linear Algebra, Springer, ISBN 0-387-97837-2
Paul Richard Halmos (1993): Finite-dimensional Vector Spaces, Springer, ISBN 0-387-90093-3
Werner H. Greub (1981): Linear Algebra, Springer, 4th edition, ISBN 0-387-90110-8
• Jim Hefferon (2001): Linear Algebra, Online book (http://joshua.smcvt.edu/linearalgebra/), St Michael's
College, Colchester, Vermont, USA
Autovettore e autovalore
79
• Gene H. Golub, Charles F. van Loan (1996): Matrix computations, 3rd Edition, Johns Hopkins University Press,
ISBN 0-8018-5414-9
• Nelson Dunford, Jacob Schwartz (1958): Linear Operator. Part I General Theory Wiley-Interscience, ISBN
0-471-60848-3
• V. G. Prikazchikov: Eigen values of differential operators, numerical methods accessibile (http://eom.springer.
de/E/e035160.htm) in Encyclopaedia of Mathematics
• A. B. Bakushinskii: Eigen values of integral operators, numerical methods accessibile (http://eom.springer.de/
E/e035170.htm) in Encyclopaedia of Mathematics
• T. S. Pigolkina, V. S. Shul'man: Eigen vector accessibile (http://eom.springer.de/E/e035180.htm) in
Encyclopaedia of Mathematics
• Leonid Vital'evič Kantorovič, G. P. Akilov (1982): "Functional analysis", Pergamon Press
Voci correlate
•
•
•
•
Autofunzione
Autostato
Diagonalizzabilità
Forma canonica di Jordan
•
•
•
•
•
Polinomio caratteristico
Spazio vettoriale
Teorema spettrale
Teoremi di Gerschgorin
Trasformazione lineare
Collegamenti esterni
• (EN) Eigenvector (http://mathworld.wolfram.com/Eigenvector.html) in MathWorld
• (EN) Earliest Known Uses of Some of the Words of Mathematics: E - vedi eigenvector e termini correlati (http://
members.aol.com/jeff570/e.html)
• (EN) Numerical solution of eigenvalue problems (http://www.cs.utk.edu/~dongarra/etemplates/index.html)
Edited by Zhaojun Bai, James Demmel, Jack Dongarra, Axel Ruhe, Henk van der Vorst
Calcolatrici in linea
• Calculator for Eigenvalues (http://www.arndt-bruenner.de/mathe/scripts/engl_eigenwert.htm) nel sito di
Arndt Brünner
• Online Matrix Calculator (http://www.bluebit.gr/matrix-calculator/) presso BlueBit Software
• Matrix calculator (http://wims.unice.fr/wims/wims.cgi?session=6S051ABAFA.2&+lang=en&+
module=tool/linear/matrix.en) in WIMS, WWW Interactive Multipurpose Server, presso l'Université Nice
Sophia Antipolis
Portale Fisica
Portale Matematica
Polinomio caratteristico
80
Polinomio caratteristico
In matematica, e in particolare in algebra lineare, il polinomio caratteristico di una matrice quadrata A su un campo
è un polinomio definito a partire da A che ne descrive molte proprietà essenziali. I suoi coefficienti codificano
quantità importanti di A, quali la traccia e il determinante, mentre le sue radici sono gli autovalori di A.
Il polinomio caratteristico fornisce molte informazioni sulla natura intrinseca delle trasformazioni lineari. Se la
matrice A è matrice associata ad un endomorfismo T di uno spazio vettoriale V, il polinomio caratteristico dipende
solo dalle proprietà intrinseche di T. I coefficienti del polinomio sono detti invarianti di T.
Definizione
Sia A una matrice quadrata a valori in un campo K. Il polinomio caratteristico di A nella variabile x è il polinomio
definito nel modo seguente:
,
cioè è il determinante della matrice
avente la stessa dimensione di
, ottenuta sommando
, e quindi
e
. Qui
denota la matrice identità,
è la matrice diagonale avente il valore
su ciascuna delle n
caselle della diagonale principale.
Proprietà
Sia
una matrice quadrata con
righe.
Grado e coefficienti del polinomio
Il polinomio caratteristico di
ha grado
. Alcuni dei suoi coefficienti sono (a meno di segno) quantità notevoli
per la matrice, come la traccia ed il determinante:
Ad esempio, se
Se
è una matrice 2 per 2 abbiamo
è una matrice 3 per 3 abbiamo
con
dove
è l'elemento di
nella posizione
In generale, il coefficiente di
minori
.
del polinomio è la somma moltiplicata per
"centrati" sulla diagonale.
dei
determinanti dei
Polinomio caratteristico
81
Autovalori
Le radici in K del polinomio caratteristico sono gli autovalori di
. Questo si dimostra formalmente nel modo
seguente:
.
Per il teorema di diagonalizzabilità, se
ha
radici distinte allora
è diagonalizzabile. Per quanto detto sopra,
in questo caso il determinante è proprio il prodotto degli n autovalori distinti. Va però notato che questa condizione
non è necessaria per la diagonalizzabilità.
Matrici particolari
Se
è una matrice triangolare (superiore o inferiore) avente i valori
sulla diagonale principale,
allora
.
Quindi il polinomio caratteristico di una matrice triangolare ha radici nel campo, date dai valori nella diagonale
principale. In particolare, questo fatto è vero per le matrici diagonali.
Invarianza per similitudine
Due matrici simili hanno lo stesso polinomio caratteristico. Infatti se
per qualche matrice invertibile
, si ottiene
In tale catena di uguaglianze si fa uso del fatto che la matrice della forma
commuta con qualsiasi altra e del
teorema di Binet.
Poiché due matrici che rappresentano un endomorfismo
di uno spazio vettoriale
simili, il polinomio caratteristico è una grandezza intrinseca di
a dimensione finita sono
, che riassume molte delle caratteristiche
intrinseche di un endomorfismo: traccia, determinante, autovalori.
Invarianza per trasposizione
La matrice trasposta
ha lo stesso polinomio caratteristico di
. Infatti
Qui si fa uso del fatto che il determinante è invariante per trasposizione.
Applicazioni
Il polinomio caratteristico è usato soprattutto per determinare gli autovalori di una matrice. In altri casi, è anche
usato come invariante, cioè come oggetto che dipende solo dalla classe di similitudine di una matrice. In questo
contesto è utilizzato per determinare la forma canonica di luoghi geometrici esprimibili mediante matrici come
coniche e quadriche.
Polinomio caratteristico
82
Esempio
• Data:
allora
e quindi
Gli autovalori di A sono le radici del polinomio: 4 e 1.
• Data:
in modo analogo si trova
Voci correlate
•
•
•
•
Polinomio minimo
Autovettore e autovalore
Determinante
Teorema di Hamilton-Cayley
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Teorema di Hamilton-Cayley
Teorema di Hamilton-Cayley
In matematica, e più precisamente in algebra lineare, il teorema di Hamilton-Cayley (così nominato in onore dei
matematici William Hamilton e Arthur Cayley) asserisce che ogni trasformazione lineare di uno spazio vettoriale (o
equivalentemente ogni matrice quadrata) è una radice del suo polinomio caratteristico, visto come polinomio a
coefficienti numerici nell'anello delle trasformazioni lineari (o delle matrici quadrate).
Più precisamente, se A è la trasformazione lineare nello spazio n-dimensionale (o, equivalentemente, una matrice
n×n) e In è l'operatore identità (o, equivalentemente, la matrice identità), allora vale:
Questo risultato implica che il polinomio minimo divide il polinomio caratteristico, ed è quindi utile per trovare la
forma canonica di Jordan di una applicazione o matrice.
Il teorema di Cayley–Hamilton vale anche per matrici quadrate su anelli commutativi.
Polinomi, applicazioni e matrici
Un endomorfismo di uno spazio vettoriale V su un campo K è una trasformazione lineare T:V → V. Gli
endomorfismi con le operazioni di addizione, moltiplicazione per scalare e composizione formano una K-algebra,
chiamata EndK(V) o più semplicemente End(V).
Analogamente, le matrici quadrate con n righe a valori in K con le operazioni di somma, prodotto per scalare e
prodotto formano una K-algebra, chiamata M(n, K) o più semplicemente M(n). Se V ha dimensione n, una base B
per V trasforma ogni endomorfismo in una matrice, tramite un isomorfismo di algebre
Consideriamo adesso un polinomio p(x) a coefficienti in K. Se a è un qualsiasi elemento di una K-algebra, definiamo
l'elemento p(a) dell'algebra come quello ottenuto da a tramite le operazioni prescritte da p (somma, prodotto per
scalare e fra elementi dell'algebra). In particolare, se T è un endomomorfismo allora p(T) è un endomomorfismo, e se
A è una matrice allora p(A) è una matrice.
Il teorema
Il teorema di Hamilton-Cayley asserisce che:
Se f è un endomorfismo di uno spazio vettoriale V a dimensione finita e p(x) è il suo polinomio caratteristico, allora
p(f) = 0.
Analogamente, se A è una matrice quadrata e p(x) il suo polinomio caratteristico, allora p(A) = 0.
Esempio
Consideriamo per esempio la matrice
Il suo polinomio caratteristico è dato da
Il teorema di Cayley–Hamilton sostiene che:
il che si può facilmente verificare.
83
Teorema di Hamilton-Cayley
84
Applicazioni
Diagonalizzabilità
Il teorema introduce alla definizione di polinomio minimo, uno strumento molto potente per verificare se una matrice
o applicazione è diagonalizzabile. Ad esempio, in questo modo si verifica rapidamente se una matrice A che soddisfa
alcune relazioni polinomiali, quali A2 = In oppure A2 = A, è diagonalizzabile.
Potenze di matrici
Il teorema permette di calcolare potenze di matrici più semplicemente che con la moltiplicazione diretta. Ad
esempio, usando il risultato precedente:
si può calcolare A4 nel modo seguente:
Dimostrazione
Forniamo una dimostrazione analitica nel caso in cui K sia il campo dei numeri reali o complessi: sia A una matrice
quadrata con n righe. Supponiamo inizialmente che A sia diagonalizzabile sul campo dei numeri complessi. Quindi A
è simile a D, in altre parole esiste una matrice invertibile M tale che
Le matrici D e A hanno lo stesso polinomio caratteristico, che si spezza come
dove λ1, ..., λn sono gli autovalori di D (con molteplicità), presenti sulla diagonale di D. Qui è facile verificare che
p(D) è il prodotto di matrici diagonali con zeri che variano sulla diagonale, e perciò è la matrice nulla. D'altra parte,
si verifica che
Abbiamo dimostrato il teorema per le matrici diagonalizzabili. L'insieme delle matrici diagonalizzabili su C formano
un insieme denso nello spazio topologico delle matrici n per n in C. La funzione che associa ad una matrice A la
matrice p(A) è continua. Una funzione continua che vale sempre zero su un denso vale zero ovunque, da cui la tesi.
Nel caso di matrici su un campo
estende per cominciare
qualsiasi, si può ottenere una dimostrazione secondo la traccia seguente. Si
alla sua chiusura algebrica
. In
la matrice
ha dunque
autovalori (contando le
molteplicità), e può quindi essere messa in forma triangolare. Ora per le matrici triangolari il teorema è facilmente
verificato, in modo simile a quanto appena visto per le matrici diagonali.
Teorema di Hamilton-Cayley
85
Voci correlate
• polinomio caratteristico
• polinomio minimo
• forma canonica di Jordan
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Diagonalizzabilità
In matematica, e più precisamente in algebra lineare, una trasformazione lineare di uno spazio vettoriale di
dimensione n (ad esempio, il piano o lo spazio euclideo) è diagonalizzabile o semplice[1] se esistono n "assi"
passanti per l'origine che rimangono invariati nella trasformazione. Su ciascuno di questi assi, la trasformazione
effettua una omotetia.
Le trasformazioni diagonalizzabili sono importanti perché più facili da studiare: la trasformazione è infatti
completamente nota quando si conosce il suo comportamento su questi assi. Ciascun vettore (diverso dall'origine) su
uno di questi assi è un autovettore, ed il tipo di omotetia con cui viene trasformato l'asse è il suo autovalore.
Il nome diagonalizzabile deriva dal fatto che una tale trasformazione, scritta rispetto ad una base contenuta negli
assi, si scrive tramite una matrice diagonale. Esiste anche la nozione di matrice diagonalizzabile.
Esempi informali
La trasformazione del piano cartesiano che sposta ogni punto (x, y) nel punto (2x, -y) è diagonalizzabile. Infatti gli
assi x e y rimangono invariati: l'asse x è espanso di un fattore 2, mentre l'asse y è ribaltato rispetto all'origine.
Notiamo che nessuna altra retta passante per l'origine rimane invariata.
Una rotazione oraria o antioraria del piano di 90 gradi intorno all'origine non è diagonalizzabile, perché nessun asse
viene fissato.
Definizioni
Un endomorfismo T di uno spazio vettoriale V, cioè una trasformazione lineare T:V → V, è diagonalizzabile se
esiste una base di V fatta di autovettori per T.
Una matrice quadrata è diagonalizzabile se è simile ad una matrice diagonale, ovvero se valgono le condizioni
seguenti:
1. tutte le radici del polinomio caratteristico stanno nello stesso campo K;
2. per ogni
si ha che
(cioè
), dove
è la dimensione del sottospazio
mentre è la dimensione dello spazio .
Ricordiamo che, fissata una base B per V, ogni endomorfismo T si descrive come una matrice, detta matrice associata
a T rispetto a B. Le seguenti affermazioni sono equivalenti (cioè sono connesse dalla doppia implicazione):
1. una trasformazione T è diagonalizzabile;
2. esiste una base B tale che la matrice associata a T rispetto a B è diagonale;
3. la matrice associata a T rispetto a qualsiasi base B è diagonalizzabile.
L'equivalenza discende dalle seguenti proprietà:
• la matrice associata a T rispetto ad una base B è diagonale se e solo se tutti gli elementi di B sono autovettori per
T;
• due matrici quadrate sono associate alla stessa applicazione T rispetto a basi diverse se e solo se sono simili.
Diagonalizzabilità
86
Algoritmo
Generalmente, per vedere se una applicazione è diagonalizzabile si studia la diagonalizzabilità della sua matrice
associata A nei riferimenti dello spazio di partenza e di quello di arrivo. Si procede, pertanto, calcolandone il
polinomio caratteristico, gli autovalori con la loro molteplicità e quindi applicando il teorema di diagonalizzabilità.
Elenchiamo qui due situazioni in cui è più facile dare una risposta:
1. se il polinomio caratteristico ha n radici distinte (ciascuna con molteplicità algebrica 1), la matrice è
diagonalizzabile;
2. se la somma delle molteplicità algebriche delle radici del polinomio caratteristico è minore di n, allora la matrice
non è diagonalizzabile.
Nel caso più complesso in cui la somma delle molteplicità è n, ma ci sono radici multiple, la matrice può essere
diagonalizzabile o no, e per avere una risposta si devono fare dei calcoli ulteriori: si veda il teorema di
diagonalizzabilità.
Ricordiamo i fatti seguenti:
• il polinomio caratteristico ha grado n,
• la somma delle molteplicità delle radici di un polinomio di grado n è minore o uguale ad n; è proprio n se e solo
se il polinomio si fattorizza in polinomi di primo grado, cioè si scrive come
e in questo caso le radici sono a1, ..., an, e la molteplicità di ciascuna è il numero di volte in cui compare.
• se V è uno spazio vettoriale sul campo dei numeri reali (ad esempio, se V è il piano o un qualsiasi spazio
euclideo), la somma delle molteplicità delle radici di p(x) è n se e solo se p non ha radici complesse non reali.
Esempi
Esempio di calcolo
Consideriamo la matrice
Il polinomio caratteristico è:
che si annulla per gli autovalori
Quindi ha 3 autovalori distinti. Per il primo criterio esposto precedentemente, la matrice è diagonalizzabile.
Se si è interessati a trovare esplicitamente una base di autovettori, dobbiamo fare del lavoro ulteriore: per ogni
autovalore, si imposta l'equazione:
e si risolve cercando i valori del vettore
che la soddisfano,
sostituendo volta per volta i tre autovalori precedentemente calcolati.
Una base di autovettori per esempio è data da:
Si vede facilmente che sono indipendenti, quindi formano una base, e che sono autovettori, infatti
.
Diagonalizzabilità
87
Possiamo scrivere esplicitamente la matrice di cambiamento di base incolonnando i vettori trovati:
Quindi la matrice invertibile P diagonalizza A, come si verifica calcolando:
La matrice finale deve essere diagonale e contenere gli autovalori, ciascuno con la sua molteplicità.
Numeri complessi
Se il campo su cui lavoriamo è quello dei numeri complessi, una matrice n per n ha n autovalori (contando ciascuno
con la relativa molteplicità, per il teorema fondamentale dell'algebra). Se le molteplicità sono tutte 1, la matrice è
diagonalizzabile. Altrimenti, dipende. Un esempio di matrice complessa non diagonalizzabile è descritto sotto.
Il fatto che vi siano comunque n autovalori implica che è sempre possibile ridurre una matrice complessa ad una
forma triangolare: questa proprietà, più debole della diagonalizzabilità, è detta triangolabilità.
Numeri reali
Sui numeri reali le cose cambiano, perché la somma delle molteplicità di un polinomio di grado n può essere
inferiore a n. Ad esempio la matrice
non ha autovalori, perché il suo polinomio caratteristico
nessuna matrice reale Q tale che
non ha radici reali. Quindi non esiste
sia diagonale! D'altro canto, la stessa matrice B vista con i numeri
complessi ha due autovalori distinti i e -i, e quindi è diagonalizzabile. Infatti prendendo
troviamo che
è diagonale. La matrice
considerata sui reali invece non è neppure triangolabile.
Ci sono anche matrici che non sono diagonalizzabili né sui reali né sui complessi. Questo accade in alcuni casi, in
cui ci sono degli autovalori con molteplicità maggiore di uno. Ad esempio, consideriamo
Questa matrice non è diagonalizzabile: ha 0 come unico autovalore con molteplicità 2, e se fosse diagonalizzabile
sarebbe simile alla matrice nulla, cosa impossibile a prescindere dal campo reale o complesso.
Diagonalizzabilità
88
Voci correlate
•
•
•
•
polinomio caratteristico
autovettore e autovalore
teorema spettrale
forma canonica di Jordan
Note
[1] Il termine "semplice" è usato ad esempio in Elementi di Algebra Lineare e Geometria Analitica, di Odetti - Raimondo, 2ª edizione novembre
1992, pag. 246, ed. ECIG, ISBN 88-7545-717-4.
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Forma canonica di Jordan
In matematica, più precisamente in algebra lineare, la forma canonica di Jordan di una matrice quadrata A
definisce una matrice triangolare J simile ad A che ha una struttura il più possibile vicina ad una matrice diagonale.
La matrice è diagonale se e solo se A è diagonalizzabile, altrimenti è divisa in blocchi detti blocchi di Jordan.
La forma canonica caratterizza univocamente la classe di similitudine di una matrice. In altre parole, due matrici
sono simili se e solo se hanno la stessa forma di Jordan (a meno di permutazione dei blocchi).
Il nome è dovuto al matematico francese Camille Jordan che si è occupato di matrici diagonalizzabili.
Definizione
Blocco di Jordan
Un blocco di Jordan di ordine k è una matrice triangolare superiore con k righe costituita nel seguente modo:
in cui ogni elemento della diagonale è uguale a
caratteristico è
l'autospazio relativo a
, e quindi ha
ed in ogni posizione (i, i+1) si trova un 1. Il suo polinomio
come unico autovalore con la molteplicità algebrica k. D'altra parte,
è:
avente, quindi, dimensione 1. Dal teorema di diagonalizzabilità segue che se k>1 il blocco di Jordan non è
diagonalizzabile.
Forma canonica di Jordan
89
Matrice di Jordan
Una matrice di Jordan è una matrice a blocchi del tipo
dove Ji è un blocco di Jordan con autovalore λi. Ogni blocco di Jordan contribuisce con un autospazio
unidimensionale relativo a λi.
Come sopra, si vede che la molteplicità geometrica di λi, definita come la dimensione del relativo autospazio, è pari
al numero di blocchi con autovalore λi. D'altra parte, la molteplicità algebrica di λi, definita come la molteplicità
della radice λi nel polinomio caratteristico di J, è pari alla somma degli ordini di tutti i blocchi con autovalore λi.
In questo contesto, il teorema di diagonalizzabilità asserisce, quindi, che J è diagonalizzabile se e solo se le
molteplicità algebriche e geometriche coincidono, ovvero se e solo se i blocchi hanno tutti ordine pari ad 1: in altre
parole, J è diagonalizzabile se e solo se è già diagonale.
Teorema di Jordan
Diciamo che una matrice quadrata A con elementi in un campo K ha "tutti gli autovalori nel campo" se la somma
delle molteplicità algebriche dei suoi autovalori è pari al numero di righe di A. Questo equivale a dire che il suo
polinomio caratteristico ha "tutte le radici nel campo", cioè che si spezza come prodotto di polinomi di primo grado.
Questo è sempre vero se K è algebricamente chiuso, ad esempio se K = C è il campo dei numeri complessi.
Il teorema di Jordan asserisce che ogni matrice ha una "forma canonica di Jordan", e che due matrici sono simili se e
solo se hanno la stessa forma canonica:
Sia A una matrice quadrata con elementi in K, avente tutti gli autovalori nel campo. Allora A è simile ad una matrice
di Jordan.
Due matrici di Jordan J e J' sono simili se e solo se si ottengono l'una dall'altra permutando i blocchi.
Esempi
Calcoliamo la forma canonica di Jordan della matrice
Il suo polinomio caratteristico è
, quindi i suoi autovalori sono 4, 4, 2 e 1. Ricordiamo
che, se indichiamo con malg(λ) e mgeo(λ) le molteplicità algebrica e geometrica di un autovalore λ, valgono sempre le
seguenti disuguaglianze:
Quindi in questo caso le molteplicità algebriche e geometriche degli autovalori 2 e 1 sono tutte 1, e l'unica grandezza
da trovare è la molteplicità geometrica di 4, che può essere 1 o 2. La molteplicità geometrica di un autovalore indica
il numero di blocchi di jordan presenti relativi a quell'autovalore. Vediamo che
Segue quindi che A non è diagonalizzabile, e l'autovalore 4 ha un solo blocco di Jordan. I dati che abbiamo sono
sufficienti a determinare la matrice di Jordan, che è la seguente:
Forma canonica di Jordan
90
Proprietà
Polinomio minimo
Il polinomio minimo m(x) di una matrice A è calcolabile a partire dalla sua forma di Jordan J. Infatti si decompone
come
dove λ1, ..., λk sono gli autovalori (distinti, cioè elencati senza molteplicità) di A, e ji è l'ordine del blocco di Jordan
più grande fra tutti quelli relativi all'autovalore λi.
Ad esempio, la seguente matrice
ha
come polinomio caratteristico e
come polinomio minimo.
Usando il teorema di Jordan e la decomposizione del polinomio minimo enunciata, si ha che le due matrici seguenti
hanno gli stessi polinomi caratteristici (e quindi anche lo stesso determinante, la stessa traccia e gli stessi autovalori),
gli stessi polinomi minimi, ma non sono simili:
Voci correlate
•
•
•
•
autovettore e autovalore
diagonalizzabilità
polinomio caratteristico
polinomio minimo
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Matrice esponenziale
91
Matrice esponenziale
In matematica, più precisamente in algebra lineare, la matrice esponenziale (o esponenziale di matrice) è una
funzione analoga alla funzione esponenziale.
La matrice esponenziale viene utilizzata nella risoluzione dei sistemi lineari di equazioni differenziali. Ha quindi
un'importante applicazione nella teoria dei sistemi e nella teoria dei controlli automatici.
Definizione
Sia A una matrice quadrata
è una matrice quadrata
a coefficienti reali o complessi. La matrice esponenziale di A, indicata con
,
ottenuta con lo sviluppo in serie di potenze
Questa serie è sempre convergente, quindi la matrice esponenziale è ben definita. Si nota che se A è una matrice
(quindi A è un numero reale o complesso), la serie della matrice esponenziale corrisponde alla definizione
formale della funzione esponenziale.
Proprietà
Siano X e Y due matrici complesse di dimensione
e siano a e b due numeri complessi. Si indica la matrice
identità con I e la matrice nulla con 0. La matrice esponenziale soddisfa le seguenti proprietà:
•
.
•
•
• Se
.
.
• Se
è invertibile allora
, allora
.
.
•
•
, dove
indica la matrice trasposta di X. Ne segue che se X è una matrice simmetrica allora
è simmetrica; inoltre se X è una Matrice antisimmetrica allora
è una matrice ortogonale.
, dove
indica la matrice trasposta coniugata di X. Ne segue che se X è una matrice hermitiana
•
allora
è una matrice hermitiana; inoltre se X è una matrice antihermitiana allora
è la matrice unitaria.
Calcolo della matrice esponenziale
Per il calcolo della matrice esponenziale
non viene utilizzata la serie di potenze dato che è costituita da una
sommatoria di infiniti addendi. Utilizzando gli autovettori si ricava una serie con un numero finito di termini.
Considerando la diagonalizzabilità della matrice A si hanno due casi distinti.
Il caso di A diagonalizzabile
Se la matrice A è diagonalizzabile significa che ha n autovettori linearmente indipendenti
quindi scrivere
Con
autovettore associato all'autovalore
.
. Si può
Matrice esponenziale
92
Si raggruppano tutti gli autovettori in un'unica matrice
Ponendo la matrice formata dagli autovettori pari a T e la matrice diagonale degli autovalori pari a
si ottiene
Introducendo la matrice S, inversa di T, si ottengono le seguenti relazioni
Dalla seconda relazione si ricava
Quindi
Si calcola
Si considera ora l'ultima relazione precedentemente ricavata e si applica la trasposta
Si può quindi scrivere
Si nota quindi che gli
In questo modo si ottiene
sono autovettori sinistri di A. Si può quindi partizionare la matrice S per righe
Matrice esponenziale
93
In conclusione, nel caso A sia diagonalizzabile, si ha
con
autovettore destro e
autovettore sinistro, entrambi associati all'autovalore
Il caso di A non diagonalizzabile
Se A non è diagonalizzabile si ricorre alla forma di Jordan.
In questo caso si ha
, con J matrice diagonale a blocchi
dove il k-esimo blocco è della forma
Le matrici
vengono detti blocchi di Jordan.
Utilizzando il procedimento seguito nel caso di A diagonalizzabile si ottiene
dove
Si nota che il prodotto delle matrici
e
è commutativo. Si può quindi scrivere
Si calcola ora
Si verifica facilmente che
si calcola spostando in alto e a destra la diagonale formata dagli 1
Matrice esponenziale
Dove
94
è la dimensione di
. Per potenze superiori a
Quindi il k-esimo blocco di
ha la seguente espressione
si ha la matrice nulla.
Quindi
Inoltre
La matrice esponenziale vale
dove
e
.
T non è costituita dagli autovettori di A. Il calcolo della matrice di trasformazione T è più complesso rispetto al caso
di A diagonalizzabile.
Voci correlate
• Serie esponenziale
• Esponenziale di un operatore
Collegamenti esterni
• Esercizio svolto sulla forma canonica di Jordan [1]
• Esercizi sulla forma di Jordan e sull’esponenziale di matrice [2]
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Matrice esponenziale
Note
[1] http:/ / www. mat. uniroma2. it/ ~tovena/ esjordan. pdf
[2] http:/ / www. ce. unipr. it/ automatica/ mat_did/ ca/ jordan14-04-02. pdf
Sistema di equazioni lineari
In matematica, e più precisamente in algebra lineare, una equazione lineare è una equazione di primo grado con un
certo numero di incognite. Un sistema di equazioni lineari (o sistema lineare) è un insieme di equazioni lineari,
che devono essere verificate tutte contemporaneamente: in altre parole, una soluzione del sistema è tale se è
soluzione di tutte le equazioni. La soluzione è, quindi, l'insieme di valori x1 … xn che, sostituiti alle incognite, rende
le equazioni delle identità.
Definizione
Un sistema di equazioni lineari è dato da un certo numero m di equazioni lineari in n incognite (il numero n delle
incognite è detto anche ordine del sistema), e può essere scritto nel modo seguente:
dove x1, ... ,xn sono le incognite e i numeri aij, detti i coefficienti, sono elementi di un campo, ad esempio dei numeri
reali o complessi. Anche i termini noti bi sono elementi del campo. Una n-pla (x1, ... ,xn) di elementi nel campo è
una soluzione se soddisfa tutte le m equazioni.
Usando le matrici ed il prodotto fra matrici e vettori si possono separare agevolmente i coefficienti, le incognite ed i
termini noti del sistema, e scriverlo nel modo seguente:
In modo molto più stringato, si scrive
Ax = b,
dove A è la matrice m x n dei coefficienti, x è il vettore delle n incognite e b è il vettore degli m termini noti.
Caratteristiche
In generale, il grado di un sistema di equazioni polinomiali è definito come il prodotto dei gradi delle equazioni che
lo compongono. Quindi un sistema lineare è un sistema polinomiale di primo grado.
Generalmente, un sistema può essere:
•
•
•
•
•
•
Determinato: quando ha una sola soluzione.
Impossibile: quando non ha nessuna soluzione.
Indeterminato: quando ha infinite soluzioni.
Numerico: quando le soluzioni sono rappresentate da numeri.
Letterale: quando le soluzioni sono rappresentate da espressioni letterali.
Omogeneo: quando i termini noti sono tutti zero.
95
Sistema di equazioni lineari
96
Due sistemi sono equivalenti quando hanno lo stesso insieme di soluzioni.
Esempi
Gli esempi seguenti sono tutti sul campo dei numeri reali.
Il sistema:
ha una sola soluzione, data dal vettore
. Invece il sistema:
non ha soluzioni. Cambiando i termini noti nel modo seguente:
si ottiene invece un sistema con un numero infinito di soluzioni, del tipo
al variare del
parametro t in R.
Proprietà
Gli esempi appena mostrati elencano le tre casistiche possibili. Infatti, se il campo è infinito (e i numeri reali o
complessi sono infiniti), ci sono tre possibilità:
• esiste una sola soluzione
• non ci sono soluzioni
• ci sono infinite soluzioni
Il teorema che asserisce questo fatto e che permette di stabilire se e quante soluzioni esistono senza risolvere il
sistema è il teorema di Rouché-Capelli. Nel caso in cui esistano soluzioni, queste formano un sottospazio affine di
Kn.
Sistema di equazioni lineari omogeneo
Un sistema lineare omogeneo è un sistema i cui termini noti sono tutti nulli:
Un sistema di questo tipo ammette sempre la soluzione
Per il teorema di Rouché-Capelli, tale soluzione è unica se e solo se il rango rk(
Altrimenti esistono infinite soluzioni (se il campo
avente come dimensione la nullitá
) della matrice
è
è infinito), e queste formano un sottospazio vettoriale di
della matrice.
.
,
Sistema di equazioni lineari
97
Voci correlate
•
•
•
•
•
•
Sistema di equazioni
Sistema non lineare
Teorema di Rouché-Capelli
Rango
Regola di Cramer
Principio di sovrapposizione
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Teorema di Rouché-Capelli
Il teorema di Rouché-Capelli è un teorema di algebra lineare che permette di calcolare il numero di soluzioni di un
sistema di equazioni lineari in funzione del rango di alcune matrici.
Prende il nome dal matematico francese Eugène Rouché, suo ideatore, e dal matematico italiano Alfredo Capelli, che
lo riscrisse in maniera più semplice.
Il teorema
Un sistema di equazioni lineari:
può essere descritto usando la matrice
detta matrice associata al sistema; essa è ottenuta dalla giustapposizione della matrice dei coefficienti:
e di un'ulteriore colonna:
detta colonna dei termini noti. Le matrici
e
sono dette rispettivamente incompleta (o dei coefficienti) e
completa (o orlata).
I coefficienti del sistema lineare (e quindi delle matrici) sono elementi di un campo
numeri reali
o complessi
Rouché-Capelli è il seguente:
. Indichiamo con
il rango di una matrice
, quale ad esempio quello dei
. L'enunciato del teorema di
Teorema di Rouché-Capelli
98
Esistono soluzioni per il sistema se e solo se il rango della matrice completa è uguale al rango della matrice
incompleta.
Se esistono soluzioni, queste formano un sottospazio affine di
campo
di dimensione
. In particolare, se il
è infinito abbiamo:
• se
allora la soluzione è unica,
• altrimenti ci sono infinite soluzioni.
Gradi di libertà
Informalmente, il fatto che le soluzioni formano un sottospazio affine di dimensione
che queste hanno "
equivale al fatto
gradi di libertà". Alcuni testi sintetizzano questo fatto asserendo che "ci sono
soluzioni". Questa notazione, benché intuitivamente utile, è però errata da un punto di vista matematico,
perché lascia intendere che la cardinalità dell'insieme dipenda dalla dimensione
è sempre la stessa (se
è un campo infinito, gli insiemi
e
: in realtà la cardinalità
contengono lo stesso numero di elementi),
mentre quello che varia è la dimensione dell'oggetto (informalmente, il numero di gradi di libertà).
Dimostrazione
Esistenza
Il sistema può essere descritto in modo più stringato, introducendo il vettore delle coordinate
ed usando il prodotto fra matrici e vettori, nel modo seguente:
In altre parole,
è l'immagine del vettore
ottenuta mediante l'applicazione lineare
Quindi il sistema ammette soluzione se e solo se
è nell'immagine di
è l'immagine di un qualche vettore
. D'altro canto, l'immagine di
è nell'immagine se e solo se lo span delle colonne di
uguale allo span delle colonne di
di
, in altre parole se
è generata dai vettori dati dalle colonne di
contiene
. Quindi
, cioè se e solo se lo span delle colonne di
è
. Quest'ultima affermazione è equivalente a chiedere che le due matrici
abbiano lo stesso rango.
Sottospazio affine
Se esiste una soluzione
, ogni altra soluzione si scrive come
, dove
è una soluzione del sistema lineare
omogeneo associato:
Infatti:
Le soluzioni del sistema lineare omogeneo associato sono semplicemente il nucleo dell'applicazione
teorema della dimensione, il nucleo è un sottospazio vettoriale di dimensione
soluzioni, ottenuto traslando il nucleo con il vettore
. Per il
). Quindi lo spazio delle
, è un sottospazio affine della stessa dimensione.
Teorema di Rouché-Capelli
99
Esempi
Il sistema seguente
non ha soluzioni, perché la matrice incompleta ha rango 2, mentre la completa ha rango 3.
Il sistema seguente
ha soluzioni, perché le matrici incompleta e completa hanno entrambe rango 2. La soluzione è unica perché le
variabili sono 2, ed è il vettore
.
Voci correlate
• Teorema della dimensione
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Regola di Cramer
La regola di Cramer è un teorema di algebra lineare, che prende il nome dal matematico Gabriel Cramer, utile per
risolvere un sistema di equazioni lineari usando il determinante, nel caso in cui il sistema abbia esattamente una
soluzione.
Nel calcolo, è generalmente inefficiente e per questo non viene utilizzato nelle applicazioni pratiche in presenza di
molte equazioni. Tuttavia, è di importanza teorica in quanto dà un'espressione esplicita per la soluzione del sistema.
La regola
Un sistema di equazioni lineari può essere rappresentato usando moltiplicazione fra matrici come:
dove
è una matrice e
sono due vettori. Se A è una matrice quadrata (cioè il numero di incognite del sistema
è pari al numero di equazioni) ed è anche invertibile (determinante diverso da zero cioè rango della matrice uguale al
numero di incognite), il teorema di Rouché-Capelli asserisce che il sistema ha esattamente una soluzione.
In questo caso, la regola di Cramer fornisce un algoritmo per calcolare la soluzione
usando il
determinante nel modo seguente:
dove
è la matrice formata sostituendo la iesima colonna di
invertibilità di A garantisce che il denominatore
abbia sempre senso.
con il vettore
. Notiamo che la condizione di
sia diverso da zero, e quindi che l'espressione descritta
Regola di Cramer
100
Dimostrazione
La dimostrazione tiene conto di due proprietà dei determinanti:
• Se si somma una colonna a un'altra, il valore del determinante non cambia;
• Se si moltiplica ogni elemento di una colonna per un certo fattore, il determinante risulterà moltiplicato di
altrettanto.
Dato un sistema di n equazioni lineari in n variabili
La regola di Cramer fornisce, per il valore di
:
, l'espressione:
che può essere verificata adoperando le suddette proprietà del determinante. Infatti, stando al sistema, il quoziente
riportato è equivalente a:
Sottraendo dalla prima colonna la seconda moltiplicata per
colonna moltiplicata per
, si ottiene l'espressione:
, la terza colonna moltiplicata per
,
e, stando alla seconda proprietà del determinante, questo equivale a:
ecc., e la n-sima
Regola di Cramer
101
.
Allo stesso modo, se la colonna di b si trova al posto della k-sima colonna della matrice del sistema di equazioni, il
risultato sarà uguale a
. Pertanto si ottiene:
Esempio
Due per due
Un sistema con 2 equazioni e 2 incognite:
espresso in forma matriciale come
ha un'unica soluzione se e solo se il determinante di
è diverso da zero. In questo caso, la soluzione
è data da
Regola di Cramer
102
Tre per tre
Analogamente, un sistema con 3 equazioni e 3 incognite
può essere scritto come prodotto fra matrici e vettori nel modo seguente
Se la matrice
ha determinante diverso da zero, il sistema ha una sola soluzione
data da
Applicazioni alla geometria differenziale
La regola di Cramer è estremamente utile per scrivere delle formule in geometria differenziale. Ad esempio, date due
equazioni
in quattro variabili, due delle quali dipendono dalle altre nel modo seguente
è possibile calcolare
(ipotizzando che tutte queste funzioni siano sufficientemente derivabili) usando la regola di Cramer, nel modo
seguente.
Prima si calcolino le prime derivate di F, G, x ed y.
Sostituendo dx, dy in dF e in dG, abbiamo:
Poiché u, v sono entrambe indipendenti, i coefficienti di du, dv devono essere zero. Così possiamo scrivere le
equazioni per i coefficienti:
Regola di Cramer
103
Ora, dalla regola di Cramer, vediamo che:
Questa è ora una formula in termini di due Jacobiane:
Formule simili possono essere derivate per
,
,
.
Voci correlate
• Sistema di equazioni lineari
• Determinante
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Spazio affine
104
Spazio affine
Lo spazio affine è una struttura matematica strettamente collegata a quella di spazio vettoriale. Intuitivamente, uno
spazio affine si ottiene da uno spazio vettoriale facendo in modo che tra i suoi punti non ve ne sia uno, l'origine,
"centrale" e "privilegiato" rispetto agli altri.
Lo spazio affine tridimensionale è lo strumento naturale per modellizzare lo spazio della fisica classica, le cui leggi
sono infatti indipendenti dalla scelta di un sistema di riferimento. Come gli spazi vettoriali, gli spazi affini vengono
studiati con gli strumenti dell'algebra lineare.
Definizione
La nozione di spazio affine può essere definita in molti modi equivalenti. Una possibile definizione è la seguente.
Uno spazio affine
è un insieme di elementi chiamati punti affini (o semplicemente punti) dotato di una funzione
a valori in uno spazio vettoriale
su un campo
che soddisfi i requisiti seguenti:
1. per ogni punto fissato, la mappa che associa a
il vettore
2. per ogni terna di punti ,
,
vale la relazione
L'immagine
è chiamata vettore applicato da
o, più brevemente, con
in
è una biiezione da
in
;
ed è indicata generalmente con il simbolo seguente
.
Definizione alternativa
La definizione seguente è equivalente alla precedente.
Uno spazio affine
dove
è un insieme dotato di una funzione
è uno spazio vettoriale su un campo
, generalmente indicata con il segno + nel modo seguente
tale che
1. per ogni punto
2. per ogni punto
fissato, la mappa che associa al vettore il punto
è una biiezione da
in
e ogni coppia di vettori
in vale la relazione
in
;
Le due definizoni sono collegate dalla relazione
Due elementi di questa relazione determinano il terzo. Ad esempio,
a
, mentre
è l'unico vettore che "collega" i due punti
e
è il punto raggiunto applicando il vettore
.
Spazio affine
105
Esempi
Spazio vettoriale
Ogni spazio vettoriale
è uno spazio affine, avente come spazio vettoriale associato
stesso. La mappa
è
definita come
mentre la funzione
è la semplice somma fra vettori in
.
Sottospazi affini
Definizione
Un sottospazio affine
dove
di
è un sottoinsieme del tipo
è un punto fissato, che risulta appartenere al sottospazio.
Giacitura
Lo stesso sottospazio può essere definito in varie forme diverse come
rappresentazioni,
può variare (può essere un punto qualsiasi di
sono "punti privilegiati"), ma
. In tutte queste
, a conferma che in geometria affine non ci
risulta essere sempre lo stesso: questo sottospazio di
è chiamato giacitura di
. La giacitura è definita intrinsecamente come
La dimensione di
è definita come la dimensione di
.
Sottospazio generato
Il sottospazio affine generato da alcuni punti
in
è il più piccolo sottospazio che li contiene.
Sottospazi affini in spazi vettoriali
Per quanto detto sopra, uno spazio vettoriale
sottospazio affine di
vettoriale
è anche affine, e quindi abbiamo definito anche la nozione di
: in questo caso, un sottospazio affine è il risultato di una traslazione di un sottospazio
lungo il vettore
.
Relazioni
Due sottospazi affini sono detti:
•
•
•
•
incidenti quando hanno intersezione non vuota,
paralleli quando una delle due giaciture è contenuta nell'altra,
sghembi quando l'intersezione è vuota e le due giaciture si intersecano solo nell'origine,
esiste un altro caso che si presenta solo in spazi affini di dimensione 4 o superiore, ovvero quando i due sottospazi
hanno intersezione vuota, nessuna delle due giaciture è contenuta nell'altra ma queste si intersecano in un
sottospazio più grande dell'origine.
Per i sottospazi affini non vale la formula di Grassmann: questo è il prezzo da pagare per aver liberato i sottospazi
dalla costrizione di passare per un punto privilegiato. La geometria proiettiva risolve questo problema (cioè recupera
la formula di Grasmann) aggiungendo allo spazio dei "punti all'infinito".
Spazio affine
106
Voci correlate
• Geometria affine
• Sottospazi affini
• Trasformazione affine
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Sottospazio affine
In matematica, un sottospazio affine è un sottoinsieme di uno spazio affine avente proprietà tali da farne a sua volta
un altro spazio affine. Esempi di sottospazi affini sono i punti, le rette e i piani nell'ordinario spazio euclideo
tridimensionale.
I sottospazi affini si distinguono dai sottospazi vettoriali per il fatto che non sono forzati a passare per un punto
fissato (l'origine dello spazio vettoriale). A differenza dei sottospazi vettoriali, i sottospazi affini possono quindi non
intersecarsi ed essere ad esempio paralleli. Questa maggiore libertà ha però una controparte: per i sottospazi affini
non vale la formula di Grassmann.
I sottospazi affini sono strettamente correlati ai sistemi lineari: l'insieme delle soluzione di un sistema lineare è in
effetti uno spazio affine.
Definizione
In uno spazio vettoriale
Un sottospazio affine di uno spazio vettoriale
dove
è un punto fissato di
sottospazio
traslato del vettore
e
è un sottoinsieme
del tipo
è un sottospazio vettoriale fissato di
. Si tratta in altre parole del
.
In uno spazio affine
La definizione all'interno di uno spazio affine è analoga. Sia
uno spazio vettoriale
è dotato di
e di una funzione
che viene solitamente indicata con il simbolo "+", quindi
sottoinsieme
uno spazio affine. Più precisamente,
. Un sottospazio affine di
è un
del tipo
La definizione appena data è più generale della precedente, perché ogni spazio vettoriale può essere considerato
come spazio affine con
, in cui la funzione è l'usuale somma fra vettori.
Sottospazio affine
107
Proprietà
In uno spazio affine
l'unico vettore in
, dati due punti
di
si indica con
tale che
Giacitura
Lo stesso sottospazio può essere definito in varie forme diverse come
rappresentazioni, il punto
può variare (può essere un punto qualsiasi di
non ci sono "punti privilegiati"), ma
giacitura di
. In tutte queste
, a conferma che in geometria affine
risulta essere sempre lo stesso: questo sottospazio di
è chiamato
. La giacitura è infatti definita intrinsecamente come
La dimensione di
è definita come la dimensione di
. Quando la dimensione è 1 o 2 si parla di retta affine o
piano affine. Quando la dimensione è pari alla dimensione di
meno uno, si parla di iperpiano affine.
Sottospazio generato
Il sottospazio affine generato da un sottoinsieme
del piano affine
è il più piccolo sottospazio che contiene
(equivalentemente, è l'intersezione di tutti i sottospazi affini che contengono
Ad esempio,
punti
in
generano un sottospazio
del sottospazio è minore o uguale di
: quando è precisamente
). Viene indicato con
.
. In questo caso la dimensione
i punti sono detti affinemente
indipendenti.
Esempi
Nello spazio euclideo tridimensionale
Retta affine
Sia
lo spazio euclideo tridimensionale. Fissato un punto
, una retta affine passante per
è
l'insieme dei punti:
dove
è un vettore fissato, detto vettore direzione della retta. La giacitura è qui la retta
generata da . La stessa retta affine
suo multiplo
avente
.
può essere rappresentata sostituendo il vettore direzione
con un qualsiasi
Sottospazio affine
108
Piano affine
Analogamente, un piano affine passante per
dove
e
è del tipo:
sono due vettori linearmente indipendenti.
Soluzioni di sistemi lineari
Negli esempi precedenti, i sottospazi sono definiti tramite l'ausilio di parametri e : le equazioni che li
descrivono sono per questo dette parametriche. Un sottospazio affine in uno spazio euclideo
(o in un più
generale spazio vettoriale
) è anche descrivibile in forma più implicita, come spazio di soluzioni di un sistema
lineare. Vale cioè il fatto seguente:
Lo spazio delle soluzioni di un sistema lineare con
D'altro canto, ogni sottospazio affine in
incognite a coefficienti in
è un sottospazio affine di
.
è lo spazio di soluzioni di un sistema lineare.
Un sottospazio affine determinato come spazio di soluzioni di un sistema lineare è descritto in forma cartesiana. I
coefficienti del sistema lineare formano una matrice, e la dimensione del sottospazio è collegata al rango di questa
tramite il teorema di Rouché-Capelli.
Ad esempio, una singola equazione
descrive un iperpiano in
. In particolare, questo è una retta nel piano se
. Una retta nello spazio
ed un piano nello spazio se
può essere descritta da due equazioni
Equazioni parametriche e cartesiane
Come mostrato negli esempi precedenti, i sottospazi di uno spazio affine
possono essere descritti in forma
parametrica o cartesiana. Il passaggio da una rappresentazione all'altra può essere svolto nel modo seguente.
Da cartesiana a parametrica
Il passaggio da cartesiana a parametrica consiste nella risoluzione del sistema lineare. Questa può essere fatta tramite
l'algoritmo di Gauss.
Da parametrica a cartesiana
Il passaggio da parametrica a cartesiana consiste nel determinare equazioni che descrivono il sottospazio. Questo può
essere fatto scrivendo delle condizioni che un punto deve soddisfare per appartenere al sottospazio. Ad esempio, se
è descritto come
dove i vettori
formano una base della giacitura
, un punto
e solo se il vettore
appartiene alla giacitura. Questo accade precisamente quando la matrice
appartiene a
se
Sottospazio affine
109
avente come primi vettori colonna la base di
ha rango pari a
. Quest'ultima condizione può essere espressa
come l'annullamento dei determinanti di tutti i minori di ordine
. Ciascuno di questi determinanti fornisce
una equazione lineare nelle variabili
; queste equazioni lineari insieme formano un sistema lineare che
descrive il sottospazio in forma cartesiana.
Relazioni fra sottospazi
Due sottospazi affini sono detti:
•
•
•
•
incidenti quando hanno intersezione non vuota,
paralleli quando una delle due giaciture è contenuta nell'altra,
sghembi quando l'intersezione è vuota e le due giaciture si intersecano solo nell'origine,
esiste un altro caso che si presenta solo in spazi affini di dimensione 4 o superiore, ovvero quando i due sottospazi
hanno intersezione vuota, nessuna delle due giaciture è contenuta nell'altra ma queste si intersecano in un
sottospazio più grande dell'origine.
Per i sottospazi affini non vale la formula di Grassmann: questo è il prezzo da pagare per aver liberato i sottospazi
dalla costrizione di passare per un punto privilegiato. La geometria proiettiva risolve questo problema (cioè recupera
la formula di Grasmann) aggiungendo allo spazio affine dei "punti all'infinito".
Esempi
Le relazioni di incidenza e parallelismo possono essere determinate con l'ausilio dell'algebra lineare. Ad esempio,
due piani in
descritti in forma cartesiana
sono paralleli precisamente quando la matrice dei coefficienti ha rango 1:
Altrimenti per il teorema di Rouché-Capelli i due piani si intersecano in una retta. Due piani nello spazio non
possono quindi essere sghembi.
Discorso analogo è valido per due iperpiani in
(ad esempio, due rette nel piano
). Due rette nello spazio
possono però essere sghembe.
Formula di Grassmann
La formula di Grassmann è valida in geometria affine soltanto se gli spazi affini si intersecano. Quindi se due spazi
affini e
hanno intersezione non vuota vale la formula
dove
è il sottospazio affine generato da
e
.
Voci correlate
•
•
•
•
Geometria affine
Spazio affine
Fascio di piani
Fascio di rette
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Forma bilineare
110
Forma bilineare
In matematica, più precisamente in algebra lineare, una forma bilineare è una mappa bilineare V × V → F, dove F è
un campo, lineare in entrambe le componenti.
Definizione
Una forma bilineare su uno spazio vettoriale V con campo
che associa ad ogni coppia di elementi
è una mappa
lo scalare
ed è lineare su entrambe le
componenti.
In altre parole, φ è bilineare se valgono le seguenti:
Ovvero se fissato uno dei due argomenti la funzione è lineare rispetto all'altro.
Rappresentazione in coordinate
Se V ha dimensione n finita, ogni forma bilineare φ su V può essere rappresentata come una matrice quadrata con n
righe. Come per le applicazioni lineari, per fare ciò è necessario scegliere una base {v1, ... vn} per V. La matrice
risultante dipende dalla base scelta.
La matrice B è definita per componenti da
. A questo punto, l'azione della forma bilineare su due
vettori u e w di V si ricava nel modo seguente, tramite moltiplicazione tra matrici:
dove u e w sono le coordinate di u e w rispetto alla base, aventi componenti ui e wj.
Relazione con lo spazio duale
Ogni forma bilineare B su V definisce una coppia di mappe lineari da V nel suo spazio duale V*, nel modo seguente:
definiamo B1, B2:V → V* come
In altre parole, B1(v) è l'elemento di V* che manda w in B1(v, w). Per distinguere l'elemento v dall'argomento w della
funzione ottenuta si usa la notazione
dove ( ) indica il posto per l'argomento della mappa.
D'altro canto, ogni mappa lineare T: V → V* definisce una funzione bilineare
Forma bilineare
111
Forma degenere
Una forma bilineare φ definita su uno spazio V di dimensione finita è degenere se la matrice B che la rappresenta
rispetto ad una base ha determinante nullo. Altrimenti, è detta non degenere. La definizione non dipende dalla base
scelta per rappresentare la forma come matrice.
I fatti seguenti sono equivalenti:
• φ è degenere;
• esiste un vettore
• esiste un vettore
non nullo tale che
non nullo tale che
per ogni
per ogni
;
.
Simmetria
Forme simmetriche e antisimmetriche
Una forma bilineare φ: V × V → K è detta:
• simmetrica se
• antisimmetrica o alternante se
per ogni v, w in V
per ogni v, w in V
Una forma bilineare φ è simmetrica se e solo se la sua matrice associata (rispetto ad una base qualsiasi) è
simmetrica, ed è antisimmetrica se e solo se la matrice associata è antisimmetrica.
Se la forma bilineare è simmetrica, le due mappe φ1, φ2: V → V* definite sopra coincidono.
Se K non ha caratteristica 2, allora una caratterizzazione equivalente di una forma antisimmetrica è
per ogni v in V.
In caso contrario, la condizione precedente è solo sufficiente.
Prodotto scalare
Una forma bilineare simmetrica è spesso chiamata prodotto scalare. Altri autori definiscono invece il prodotto
scalare come una forma bilineare simmetrica a valori nel campo R dei numeri reali che sia definita positiva, ovvero
con
per ogni v diverso da zero e
.
Esempi
• Il prodotto scalare canonico fra vettori del piano o dello spazio euclideo è una forma bilineare simmetrica.
• Sia C[0, 1] lo spazio vettoriale delle funzioni continue sull'intervallo [0,1], a valori reali. Un esempio di forma
bilineare simmetrica su C[0, 1] è data da:
Voci correlate
• Prodotto scalare
• Forma quadratica
• Forma sesquilineare
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Spazio euclideo
112
Spazio euclideo
In matematica, la nozione di spazio euclideo fornisce una generalizzazione degli spazi a due e a tre dimensioni
studiati dalla geometria euclidea. Per ogni intero naturale n si dispone di uno spazio euclideo ad n dimensioni: questo
si ottiene dallo spazio vettoriale ad n dimensioni arricchendolo con le nozioni che consentono di trattare le nozioni di
distanza, lunghezza e angolo. È l'esempio "standard" di spazio di Hilbert reale a dimensione finita.
Spazio
Definizione
Sia
il campo dei numeri reali e sia n un numero naturale. Una n-upla di numeri reali è una sequenza (ossia un
insieme ordinato)
di n numeri reali. Lo spazio di tutte le n-uple di numeri reali forma uno spazio
vettoriale di dimensione n su
, indicato con
. Le operazioni di somma e prodotto per scalare sono definite da
Basi di spazi vettoriali
Una base dello spazio
che presenta vari vantaggi è la sua cosiddetta base canonica
.
Un vettore arbitrario in
Lo spazio
è il prototipo di uno spazio vettoriale reale a dimensione n: infatti ogni spazio vettoriale V di
dimensione n è isomorfo a
tra
può dunque essere scritto nella forma
. Notiamo che non si impone un isomorfismo canonico: la scelta di un isomorfismo
e V è equivalente alla scelta di una base per V. In molte fasi dello sviluppo dell'algebra lineare gli spazi
vettoriali a dimensione n vengono comunque studiati in astratto, perché molte considerazioni sono più semplici ed
essenziali se svolte senza fare riferimento ad una base particolare.
Struttura euclidea
Lo spazio euclideo è più che un semplice spazio vettoriale. Per ottenere la geometria euclidea si deve poter parlare di
distanze e angoli, iniziando con la distanza fra due punti e l'angolo formato da due rette o da due vettori. Il modo
intuitivo per fare questo è l'introduzione di quello che viene chiamato prodotto scalare standard su
. Questo
prodotto, se i vettori x e y sono riferiti alla base canonica definita sopra, è definito da
Lo spazio delle n-uple di numeri reali arricchito con il prodotto scalare, funzione che a due n-uple di reali x e y
associa un numero reale, costituisce una struttura più ricca di
chiamata spazio euclideo n-dimensionale. Per
distinguerlo dallo spazio vettoriale delle n-uple reali in genere viene denotato con En .
Il prodotto scalare permette di definire una "lunghezza" non negativa per ogni vettore x di En nel seguente modo
Spazio euclideo
113
Questa funzione lunghezza soddisfa le proprietà richieste per una norma e viene chiamata norma euclidea o norma
pitagorica su
. L'angolo (interno) θ fra due vettori x e y di En è quindi definito come
dove arccos è la funzione arcocoseno.
Con queste definizioni la base canonica dello spazio vettoriale
diventa una base ortonormale per lo spazio
euclideo ottenuto arricchendolo con il prodotto scalare standard.
A questo punto si può usare la norma per definire una funzione distanza (o metrica) su
nel seguente modo
La forma di questa funzione distanza è basata sul teorema di Pitagora, ed è chiamata metrica euclidea.
Ogni spazio euclideo quindi costituisce un esempio (a dimensione finita) di spazio di Hilbert (v. a. spazio
prehilbertiano), di spazio normato e di spazio metrico.
Va osservato che in molti contesti, lo spazio euclideo di n dimensioni viene denotato con
, dando per scontata la
struttura euclidea. In effetti per molti fini applicativi la distinzione che abbiamo fatta non ha gravi conseguenze e la
suddetta identificazione va considerata un abuso di linguaggio veniale. Infatti negli spazi euclidei si possono
introdurre le nozioni di sottospazio e di trasformazione lineare senza complicazioni rispetto a quanto fatto per gli
spazi vettoriali.
Osserviamo anche che ogni sottospazio vettoriale W di dimensione m (< n) di En è isometrico allo spazio euclideo
Em, ma non in modo canonico: per stabilire una corrispondenza utilizzabile per dei calcoli è necessaria la scelta di
una base ortonormale per W e questa, se in W non si trova alcun vettore della base canonica di En, non può servirsi di
alcun elemento di tale base.
Generalizzazione sui complessi
Accanto agli spazi euclidei reali si possono introdurre loro varianti sui numeri complessi, arricchendo lo spazio
vettoriale n-dimensionale sul campo dei complessi con un cosiddetto prodotto interno hermitiano costituito da una
forma sesquilineare.
In questo caso il prodotto scalare tra vettori viene definito con l'espressione:
La proprietà riflessiva di tale composizione diventa:
e per la moltiplicazione per uno scalare si ha:
.
Spazio euclideo
114
Topologia euclidea
Dal momento che lo spazio euclideo è uno spazio metrico, lo si può considerare anche uno spazio topologico
dotandolo della naturale topologia indotta dalla metrica. Questo può farsi definendo come base di insiemi aperti
l'insieme delle palle aperte, insiemi dei punti che distano da un punto dato meno di un reale positivo fissato (raggio
della palla). Mediante questi insiemi aperti si definiscono tutte le nozioni che servono alla topologia metrica su En.
Questa è detta topologia euclidea e si rivela equivalente alla topologia prodotto su
considerato come prodotto
di n copie della retta reale
dotata della sua usuale topologia.
Con la "strumentazione" degli spazi vettoriali topologici gli spazi euclidei sono in grado da fornire gli ambienti nei
quali sviluppare sistematicamente numerose nozioni dell'analisi matematica, della geometria euclidea, della
geometria differenziale e della fisica matematica classica.
Invarianza dei domini
Un risultato importante per la topologia di
è l'invarianza dei domini di Brouwer. Ogni sottoinsieme di
la sua topologia del sottospazio), omeomorfo a un altro sottoinsieme aperto di
Un'immediata conseguenza di questo è che
non è omeomorfo a
se
(con
, è esso stesso aperto.
- un risultato intuitivamente
"ovvio" ma che è difficile da dimostrare rigorosamente.
Varietà e strutture esotiche
Lo spazio euclideo è il prototipo di varietà topologica, e anche di varietà differenziabile. I due concetti coincidono in
generale, tranne in dimensione 4: come mostrato da Simon Donaldson e da altri, è possibile assegnare a
delle
"strutture differenziali esotiche", che rendono lo spazio topologico
non diffeomorfo allo spazio standard.
Voci correlate
•
•
•
•
Geometria euclidea
Prodotto scalare
Spazio di Minkowski
Superspazio
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Prodotto scalare
Prodotto scalare
In matematica, il prodotto scalare, detto anche prodotto interno, è un'operazione binaria che associa ad ogni
coppia di vettori appartenenti ad uno spazio vettoriale definito su un dato campo un elemento del campo.
Nel piano cartesiano il prodotto scalare mette in relazione due vettori e le loro lunghezze con l'angolo fra questi, e
permette di definire e trattare le nozioni geometriche di lunghezza, angolo e perpendicolarità in spazi vettoriali di
dimensione arbitraria.
Si tratta di uno strumento fondamentale sia in fisica che in vari settori della matematica, ad esempio nella
classificazione delle coniche, nello studio di una funzione differenziabile intorno ad un punto stazionario, delle
trasformazioni del piano o nella risoluzione di alcune equazioni differenziali. Spesso in questi contesti viene fatto
uso del teorema spettrale, un importante risultato connesso al prodotto scalare.
La nozione di prodotto scalare è generalizzata in algebra lineare dallo spazio euclideo ad uno spazio vettoriale
qualsiasi: tale spazio può avere dimensione infinita ed essere definito su un campo arbitrario K. Questa
generalizzazione è di fondamentale importanza ad esempio in geometria differenziale e in meccanica razionale.
Aggiungendo un'ulteriore proprietà, la completezza, porta inoltre al concetto di spazio di Hilbert, per il quale la
teoria si arricchisce di strumenti più sofisticati, basilari nella modellizzazione della meccanica quantistica e in molti
campi dell'analisi funzionale.
Definizione
Si definisce prodotto scalare sullo spazio vettoriale V una forma bilineare simmetrica che associa a due vettori v e w
di V uno scalare nel campo K, generalmente indicato con
.
Si tratta di un operatore binario che verifica le seguenti condizioni per v, w, u vettori arbitrari e k elemento del campo
K arbitrario:
• Simmetria:
• Linearità rispetto al primo termine:
Le precedenti richieste implicano anche le seguenti proprietà:
• Linearità rispetto al secondo termine:
e dal momento che un vettore moltiplicato per 0 restituisce il vettore nullo, segue che:
Spesso alcuni autori richiedono anche che il campo K sia quello dei numeri reali e che la forma sia definita positiva,
cioè che
per ogni v diverso da zero. Per rimanere nella più ampia generalità, scegliamo di non assumere questa ipotesi nella
definizione di prodotto scalare.
115
Prodotto scalare
116
Prodotto scalare definito positivo e negativo
Nel caso in cui K = R è il campo dei numeri reali, un prodotto scalare su uno spazio vettoriale V è definito positivo
se
definito negativo se
semi-definito positivo
semi-definito negativo se
Un prodotto scalare semi-definito positivo è (raramente) chiamato anche prodotto pseudoscalare.
Queste definizioni non hanno senso se K è un campo non ordinato, ad esempio se K = C. Per questo motivo, per K =
C si preferisce solitamente usare una variante del prodotto scalare, definita in modo che
sia sempre un
numero reale: la forma hermitiana. Tale forma, molto usata in fisica, conserva molte analogie con il prodotto scalare,
e per questo è alcune volte chiamata impropriamente anch'essa prodotto scalare.
Prodotto scalare nello spazio euclideo
Il prodotto scalare di due vettori a e b del piano, applicati sullo
stesso punto, è definito come
Interpretazione geometrica del prodotto scalare
(quando B ha lunghezza unitaria)
Prodotto scalare
117
dove |a| e |b| sono le lunghezze di a e b, e θ è l'angolo tra i due vettori. Il prodotto scalare si indica come a·b, e
soddisfa le proprietà algebriche di simmetria,
per ogni coppia di vettori a e b, e di bilinearità:
per ogni tripletta di vettori a, b, c e per ogni numero reale
. Le prime due relazioni esprimono la "linearità a
destra" e le altre due "a sinistra".
Il prodotto scalare di un vettore con se stesso è sempre maggiore o uguale a zero:
Inoltre, questo è zero se e solo se il vettore è zero (proprietà di annullamento del prodotto scalare):
Questa proprietà può essere espressa affermando che il prodotto scalare è definito positivo.
Interpretazione geometrica
Poiché |a|·cos(θ) è la lunghezza della proiezione ortogonale di a su b, si può interpretare geometricamente il prodotto
scalare come il prodotto delle lunghezze di questa proiezione e di b. Si possono inoltre scambiare i ruoli di a e b,
interpretare |b|·cos(θ) come la lunghezza della proiezione di b su a ed il prodotto scalare come il prodotto delle
lunghezze di questa proiezione e di a.
Prodotto scalare positivo, nullo e negativo
Il coseno di un angolo θ è positivo se θ è un angolo acuto (cioè -90° <θ < 90°), nullo se θ è un angolo retto e
negativo se è un angolo ottuso. Ne segue che il prodotto scalare a·b è:
• positivo se |a| > 0, |b| >0 e l'angolo θ è acuto;
• nullo se |a|=0, |b|=0 oppure θ è retto;
• negativo se |a|>0, |b|>0 e l'angolo θ è ottuso.
I casi in cui θ è acuto ed ottuso sono mostrati in figura. In entrambi i casi il prodotto scalare è calcolato usando
l'interpretazione geometrica, ma il segno è differente.
In particolare, valgono inoltre le proprietà seguenti:
• se θ = 0 i vettori sono paralleli ed a·b = |a|·|b|;
• se θ = 90° i vettori sono ortogonali ed a·b = 0;
• se θ = 180° i vettori sono paralleli ma orientati in verso opposto, ed a·b = - |a|·|b|.
Prodotto scalare
118
Se a e b sono versori, cioè vettori di lunghezza 1, il loro prodotto scalare è semplicemente il coseno dell'angolo
compreso.
Il prodotto scalare di un vettore a con se stesso a·a = |a|2 è il quadrato della lunghezza |a| del vettore.
Applicazioni in fisica
Nella fisica classica, il prodotto scalare è usato nei contesti in cui si
debba calcolare la proiezione di un vettore lungo una determinata
componente. Ad esempio, il lavoro
prodotto da una forza su un
corpo che si sposta in direzione
è il prodotto scalare
dei due vettori.
Applicazioni in geometria
Il teorema del coseno può essere formulato agevolmente usando il
prodotto scalare. Dati tre punti
qualsiasi del piano, vale la
relazione seguente:
Il lavoro è il prodotto scalare fra i vettori
e
.
Espressione analitica
Il prodotto scalare è definito in geometria analitica in modo differente: si tratta della funzione che, in un qualsiasi
spazio euclideo associa a due vettori a = [a1, a2, ... , an] e b = [b1, b2, ... , bn] il numero
dove Σ denota una sommatoria.
Ad esempio, il prodotto scalare di due vettori tridimensionali [1, 3, −2] e [4, −2, −1] è [1, 3, −2]·[4, −2, −1] = 1×4 +
3×(−2) + (−2)×(−1) = 0.
In questo modo è possibile definire l'angolo θ compreso fra due vettori in un qualsiasi spazio euclideo, invertendo la
formula data sopra, facendo cioè dipendere l'angolo dal prodotto scalare e non viceversa:
Prodotto scalare
119
Notazioni
Spesso il prodotto scalare fra a e b si indica anche come
o come
.
Utilizzando il prodotto tra matrici e considerando i vettori come matrici
anche come
, il prodotto scalare canonico si scrive
dove aT è la trasposta di a. L'esempio visto sopra si scrive quindi in notazione matriciale nel modo seguente:
Equivalenza fra le due definizioni
L'equivalenza fra le due definizioni può essere verificata facendo uso del teorema del coseno. Nella forma descritta
sopra, il teorema asserisce che il prodotto scalare di due vettori a e b nel piano, definito in modo geometrico, è pari a
Ponendo a = [a1, a2] e b = [b1, b2] ed usando il teorema di Pitagora si ottiene
L'equivalenza in uno spazio euclideo di dimensione arbitraria può essere verificata in modo analogo.
Applicazioni
Norma di un vettore
Se K=R ed il prodotto scalare è definito positivo, è possibile dotare lo spazio vettoriale di una norma; più
precisamente, la funzione
soddisfa per ogni vettori x, y e per ogni scalare
•
•
•
le proprietà
se e solo se
e dunque rende lo spazio vettoriale uno spazio normato.
Matrice associata
In modo analogo alla matrice associata ad una applicazione lineare, fissata una base
, un prodotto
scalare φ è identificato dalla matrice simmetrica associata M, definita nel modo seguente:
D'altro canto, ogni matrice simmetrica dà luogo ad un prodotto scalare. Vediamo più sotto che molte proprietà del
prodotto scalare e della base possono essere lette sulla matrice associata.
Prodotto scalare
120
Radicale
Il radicale di un prodotto scalare è l'insieme dei vettori v in V per cui
per ogni w in V. Il radicale è un sottospazio vettoriale di V. Il prodotto scalare si dice degenere se il radicale ha
dimensione maggiore di zero.
Se V ha dimensione finita e M è la matrice associata a φ rispetto ad una qualsiasi base, applicando il teorema della
dimensione si trova facilmente che:
dove rk(M) è il rango di M e rad(V) è il radicale. Quindi un prodotto scalare è non degenere se e solo se la matrice
associata è invertibile. Definiamo quindi il rango del prodotto scalare come rk(M).
Un prodotto scalare definito positivo o negativo è necessariamente non degenere. Non è vero il contrario: infatti il
prodotto scalare sul piano associato (rispetto alla base canonica) alla matrice
non è degenere, ma non è né definito positivo né definito negativo.
Vettori isotropi
Un vettore v è isotropo se
= 0. Tutti i vettori del radicale sono isotropi, ma possono esistere vettori isotropi
che non appartengono al radicale. Ad esempio, per il prodotto scalare associato alla matrice A descritta sopra il
vettore
è isotropo ma non è contenuto nel radicale, che ha dimensione zero.
Ortogonalità
Due vettori v e w si dicono ortogonali se
. Il sottospazio ortogonale ad un sottospazio W di V è definito
come
Il sottospazio ortogonale è appunto un sottospazio vettoriale di V. Contrariamente a quanto accade con il prodotto
canonico nello spazio euclideo, un sottospazio ed il suo ortogonale non si intersecano in un punto solo: possono
addirittura coincidere! Per quanto riguarda le loro dimensioni, vale la seguente disuguaglianza:
Se il prodotto scalare è non degenere, vale l'uguaglianza
Infine, se il prodotto scalare è definito positivo o negativo, effettivamente uno spazio ed il suo ortogonale si
intersecano solo nell'origine e sono in somma diretta: otteniamo cioè
Una base ortogonale di vettori di V è una base di vettori a due a due ortogonali. Una base è ortogonale se e solo se la
matrice associata al prodotto scalare rispetto a questa base è diagonale.
Prodotto scalare
Trasformazione ortogonale
Una trasformazione ortogonale è una applicazione lineare invertibile T:V → V in sé che preserva il prodotto
scalare, cioè tale che
Teorema di Sylvester
Se K = R è il campo dei numeri reali e V ha dimensione n, il teorema di Sylvester reale dice che per ogni prodotto
scalare esiste una base ortogonale v1, ..., vn tale che per ogni i il numero
è uguale a 0, 1 oppure -1.
Quindi la matrice associata è una matrice diagonale avente sulla diagonale solo i numeri 0, 1, e -1, in ordine sparso.
Siano i0, i+ e i- rispettivamente il numero di volte che compaiono i numeri 0, 1 e -1 sulla diagonale: la terna (i0, i+ e
i-) è la segnatura del prodotto scalare.
La segnatura è un invariante completo per l'isometria: due spazi vettoriali con prodotto scalare sono isometrici se e
solo se hanno la stessa segnatura.
Il Teorema di Sylvester complesso dice invece che esiste sempre una base ortogonale v1, ..., vn tale che per ogni i il
numero
è uguale a 0 oppure 1. In questo caso, il rango è un invariante completo per l'isometria: due spazi
vettoriali complessi con prodotto scalare sono isometrici se e solo se hanno lo stesso rango.
Endomorfismo simmetrico
Un endomorfismo T:V → V è simmetrico (o autoaggiunto) rispetto al prodotto scalare se
per ogni coppia di vettori v e w in V. Un endomorfismo è simmetrico se e solo se la matrice associata rispetto ad una
qualsiasi base ortonormale è simmetrica.
Esempi
• Il prodotto scalare canonico fra vettori del piano o dello spazio euclideo è un prodotto scalare definito positivo.
• Sia C([0, 1]) lo spazio vettoriale delle funzioni continue sull'intervallo [0,1], a valori reali. Definiamo un prodotto
scalare su C[0, 1] ponendo: :
Questo prodotto scalare è definito positivo, perché l'integrale di f2 è strettamente positivo se f non è costantemente
nulla.
• Definiamo sullo spazio vettoriale M([0, 1]) delle funzioni misurabili a valori reali lo stesso prodotto scalare del
punto precedente. Qui il prodotto scalare è solo semidefinito positivo: infatti se f è la funzione che vale 1 su 1/2 e
0 su tutto il resto, l'integrale di f2 è zero (f è isotropa).
121
Prodotto scalare
122
Bibliografia
• Serge Lang, Linear Algebra, 3rd edition, New York, Springer, 1987. ISBN 0-387-96412-6
Voci correlate
•
•
•
•
•
•
Prodotto vettoriale
Spazio euclideo
Spazio di Hilbert
Teorema di Sylvester
Teorema spettrale
Identità di polarizzazione
Altri progetti
•
Wikibooks contiene testi o manuali su Prodotto scalare
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Ortogonalizzazione di Gram-Schmidt
In matematica, e in particolare in algebra lineare, l'ortogonalizzazione Gram-Schmidt è un algoritmo che permette
di ottenere un insieme di vettori ortogonali a partire da un generico insieme di vettori linearmente indipendenti in
uno spazio vettoriale dotato di un prodotto scalare definito positivo.
L'algoritmo
Sia V uno spazio vettoriale reale con un prodotto scalare definito positivo. Siano
dei vettori indipendenti in V. L'algoritmo di Gram-Schmidt restituisce n vettori linearmente indipendenti
tali che:
In altre parole, i vettori restituiti sono ortonormali, ed i primi i generano lo stesso sottospazio di prima.
Ortogonalizzazione di Gram-Schmidt
Procedimento
Definiamo la funzione proiezione come
La funzione proietta il vettore v in modo ortogonale su u. Il procedimento funziona nel modo seguente:
I primi due passi dell'algoritmo.
Dimostrazione
Per verificare che queste formule producono una sequenza di vettori mutuamente ortogonali, per prima cosa
calcoliamo il prodotto scalare fra e1 e e2 sostituendo la precedente espressione per u2: troveremo zero.
Successivamente teniamo conto di questo fatto per calcolare il prodotto scalare fra e1 ed e3, ora sostituendo u3 con la
relativa espressione: troveremo ancora zero. La dimostrazione generale procede per induzione.
Geometricamente, questo metodo viene descritto come segue. Per calcolare ui, si proietta vi ortogonalmente sul
sottospazio Ui-1 generato da u1,...,ui-1, che è lo stesso del sottospazio generato da v1,...,vi-1. si definisce allora ui come
differenza tra vi e questa proiezione, in modo che risulta garantito che esso sia ortogonale a tutti i vettori nel
sottospazio Ui-1.
Poiché però vogliamo dei vettori di norma uno, ad ogni passo normalizziamo il vettore ui.
123
Ortogonalizzazione di Gram-Schmidt
Generalizzazioni
Il processo di Gram-Schmidt si applica anche ad una successione infinita {vi}i di vettori linearmente indipendenti. Il
risultato è sempre una successione {ei}i di vettori ortogonali e con norma unitaria, tale che
Esempio
Consideriamo i vettori seguenti nel piano euclideo R2, con il prodotto scalare standard.
Applichiamo il procedimento di Gram-Schmidt per ottenere vettori ortogonali:
Verifichiamo che i vettori u1 e u2 sono effettivamente ortogonali:
Cenni storici
Il procedimento è così chiamato in onore del matematico danese Jørgen Pedersen Gram (1850-1916) e del
matematico tedesco Erhard Schmidt (1876-1959); esso però è stato introdotto precedentemente ai loro studi e si
trova in lavori di Laplace e Cauchy.
Quando si implementa l'ortogonalizzazione su un computer, al processo di Gram-Schmidt di solito si preferisce la
trasformazione di Householder, in quanto questa è numericamente più stabile, cioè gli errori causati
dall'arrotondamento sono minori.
Voci correlate
• Teorema di Sylvester
• Prodotto scalare
• Teorema spettrale
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
124
Base ortonormale
125
Base ortonormale
In matematica, e più precisamente in algebra lineare, la base ortogonale e la base ortonormale sono due concetti
che generalizzano la nozione di sistema di riferimento nel piano cartesiano, definito da 2 assi perpendicolari. Tramite
queste nozioni è possibile infatti definire degli "assi perpendicolari" e quindi un "sistema di riferimento" che assegna
ad ogni punto delle "coordinate" su uno spazio vettoriale con un numero arbitrario di dimensioni.
Definizione
Base ortogonale
Sia
uno spazio vettoriale di dimensione finita, dotato di prodotto scalare. Una base ortogonale per
è una base
composta da vettori a due a due ortogonali.
Due vettori sono ortogonali quando il loro prodotto scalare è uguale a zero. In formule:
Base ortonormale
Se il prodotto scalare è definito positivo, è possibile introdurre la nozione di base ortonormale: questa è una base
ortogonale in cui ogni vettore ha norma uno.
Questa nozione si generalizza ad uno spazio di Hilbert
(che può essere reale o complesso, e con dimensione finita
o infinita) nel modo seguente: una base ortonormale è un insieme di vettori indipendenti, ortogonali e di norma 1,
che generano un sottospazio denso in . Una tale base è spesso detta base hilbertiana.
Esempi
• L'insieme {(1,0,0),(0,1,0),(0,0,1)} costituisce una base ortogonale e ortonormale di
.
• L'insieme {fn : n ∈ } con fn(x) = exp(2πinx) costituisce una base ortonormale dello spazio complesso L2([0,1]).
Ciò è di fondamentale importanza nello studio delle Serie di Fourier.
• L'insieme {eb : b ∈ B} con eb(c) = 1 se b=c e 0 altrimenti costituisce una base ortonormale di l2(B).
Proprietà
• Ogni spazio vettoriale di dimensione finita, dotato di un prodotto scalare, possiede basi ortogonali grazie al
teorema di Sylvester.
• Da ogni base ortogonale si può ottenere una base ortonormale normalizzando (dividendo) i componenti della base
per la loro norma. Ad esempio, da
che già sappiamo ortogonale, abbiamo
.
• Ogni spazio euclideo possiede basi ortonormali, grazie all'algoritmo di ortogonalizzazione di Gram-Schmidt.
• Una matrice di cambiamento di base fra basi ortonormali è una matrice ortogonale.
• Se B è una base ortonormale di uno spazio di Hilbert V, ogni elemento v di V si scrive in modo unico come
e la norma di v è data dall'identità di Parseval
Inoltre il prodotto scalare fra due vettori è dato da
Base ortonormale
126
Queste espressioni hanno senso anche se B è non numerabile: in questo caso solo un insieme numerabile di addendi è
non-nullo. Le serie di Fourier sono un esempio.
• Una base hilbertiana è numerabile se e solo se lo spazio è separabile
Voci correlate
•
•
•
•
Prodotto scalare
Forma hermitiana
Spazio di Hilbert
Identità di Parseval
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Matrice ortogonale
In matematica, e più precisamente in algebra lineare, una matrice ortogonale è una matrice quadrata che può essere
definita in vari modi, tutti equivalenti:
• Una matrice invertibile la cui trasposta coincide con la sua inversa;
• Una matrice che rappresenta una isometria dello spazio euclideo;
• Una matrice di cambiamento di base fra due basi ortonormali.
Secondo la prima definizione,
è ortogonale se e solo se
Si può facilmente ricavare che il numero di parametri indipendenti in una matrice ortogonale N × N è
.
Proprietà basilari
Basi ortonormali
Una matrice quadrata è ortogonale se e solo se le sue colonne formano una base ortonormale dello spazio euclideo
Rn con l'ordinario prodotto scalare. In effetti questa proprietà è semplicemente la rilettura della relazione GTG = In.
Rileggendo similmente la relazione G GT = In, si ricava l'enunciato duale del precedente: una matrice quadrata reale
è ortogonale se e solo se le sue righe formano una base ortonormale di Rn.
Isometrie
Geometricamente, le matrici ortogonali descrivono le trasformazioni lineari di Rn che sono anche isometrie. Queste
preservano il prodotto scalare dello spazio, e quindi gli angoli e le lunghezze. Ad esempio, le rotazioni e le riflessioni
sono isometrie.
Viceversa, se V è un qualsiasi spazio vettoriale di dimensione finita dotato di un prodotto scalare definito positivo, e f
: V → V è un'applicazione lineare con
per tutti gli elementi x, y di V, allora f è una isometria ed è rappresentata in ogni base ortonormale di V da una
matrice ortogonale.
Matrice ortogonale
In uno spazio euclideo di dimensione 2 e 3, ogni matrice ortogonale esprime una rotazione intorno ad un punto o un
asse, o una riflessione, o una composizione di queste due trasformazioni.
Gruppo ortogonale
Dalla definizione segue subito che l'inversa di ogni matrice ortogonale, cioè la sua trasposta, è anch'essa ortogonale.
Analogamente, il prodotto di due matrici ortogonali è una matrice ortogonale. Infatti,
Questo dimostra che l'insieme delle matrici ortogonali n×n forma un gruppo. Questo è un gruppo di Lie, chiamato
gruppo ortogonale e indicato con O(n).
La sua dimensione è n(n − 1)/2. Intuitivamente, la dimensione è calcolata nel modo seguente: gli n2 numeri di una
matrice ortogonale sono vincolati dalle n2 uguaglianze della definizione, ciascuna delle quali è caratterizzata da una
coppia di indici (i,j) che vanno da 1 a n; ma l'equazione relativa a (i,j) con i < j equivale a quella relativa a (j,i) e
quindi in verità ci sono solo n(n + 1)/2 equazioni "indipendenti", e quindi n(n − 1)/2 gradi di libertà.
Matrice ortogonale speciale
Il determinante di ogni matrice ortogonale è 1 o −1. Questo si può dimostrare come segue:
Una matrice ortogonale con determinante positivo si dice matrice ortogonale speciale.
L'insieme di tutte le matrici ortogonali speciali formano un sottogruppo di O(n) di indice 2, chiamato gruppo
ortogonale speciale e denotato SO(n).
Autovalori e decomposizioni
Autovalori
Tutti gli autovalori di una matrice ortogonale, anche quelli complessi, hanno valore assoluto 1. Autovettori relativi a
differenti autovalori sono ortogonali.
Decomposizioni lungo piani
Data una matrice ortogonale Q, esiste una matrice ortogonale P tale che
dove R1,...,Rk denotano matrici di rotazione 2 × 2. Intuitivamente, questo risultato dice che ogni matrice ortogonale
descrive una combinazione di rotazioni e riflessioni su piani ortogonali. Le matrici R1,...,Rk corrispondono alle
coppie di autovalori complessi coniugati di Q.
127
Matrice ortogonale
Decomposizione QR
Se A è una arbitraria matrice di tipo m × n di rango n (m ≥ n), possiamo sempre scrivere
dove Q è una matrice ortogonale di tipo m × m e R è una matrice triangolare superiore di tipo n × n con valori
positivi sulla diagonale principale. Questa è conosciuta come decomposizione QR di A e può essere dimostrata
applicando l'ortogonalizzazione di Gram-Schmidt alle colonne di A.
Questa decomposizione risulta utile per risolvere numericamente i sistemi di equazioni lineari e i problemi di minimi
quadrati.
Matrici ortogonali e rappresentazione delle algebre di Clifford
Alle matrici ortogonali si può attribuire un secondo significato geometrico che si collega alle rappresentazione
matriciale delle algebre di Clifford. Qui lo introduciamo in modo semplice attraverso un semplice esempio.
I vettori della base canonica di R2 sono e1 = [1 0] e e2 =[0 1] e per un generico vettore di questo piano cartesiano
scriviamo
[x y]= x·[1 0] + y·[0 1]
La matrice ortogonale
rappresenta la riflessione rispetto alla bisettrice y=x, poiché scambia le due componenti di ogni vettore piano:
La matrice ortogonale
rappresenta invece la riflessione rispetto all'asse x, poiché il punto [x y] ha come immagine [x,−y].
Per i due prodotti di queste matrici si trova
Si tratta delle due rotazioni nel piano di π/2 e di −π/2, rotazioni opposte: quindi le due matrici Ei anticommutano. In
formule:
Consideriamo ora E1 ed E2 come vettori di base del piano bidimensionale delle loro combinazioni lineari
Consideriamo anche la seguente composizione di due di queste entità MV (matriciali e vettoriali) A e B:
128
Matrice ortogonale
129
In dettaglio si trova
Per il quadrato di una di queste entità MV in particolare
Si può quindi definire come prodotto interno di A e B la precedente composizione, a meno della matrice unità I2.
Questo è lecito in quanto chiaramente si tratta di una forma bilineare simmetrica positiva. Il prodotto interno di una
entità MV con sé stessa fornisce il quadrato della sua norma.
Dato che le entità base anticommutano vediamo che
Le entità E1 ed E2 sono ortogonali secondo entrambe le loro interpretazioni:
1. sono matrici ortogonali
2. rappresentano vettori di base ortogonali in quanto matrici anticommutative.
Generalizzazioni
L'analogo complesso delle matrici ortogonali sono le matrici unitarie.
Voci correlate
• Glossario sulle matrici
• Algebra di Clifford
• Gruppo ortogonale
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Disuguaglianza di Cauchy-Schwarz
130
Disuguaglianza di Cauchy-Schwarz
In matematica, la disuguaglianza di Cauchy-Schwarz, nota anche come disuguaglianza di Schwarz, dai nomi dei
matematici Augustin Louis Cauchy e Hermann Amandus Schwarz, è una disuguaglianza che compare in algebra
lineare e si applica in molti altri settori, quali ad esempio l'analisi funzionale e la probabilità. Negli spazi Lp, la
disuguaglianza di Cauchy-Schwarz è un caso particolare della disuguaglianza di Hölder.
La disuguaglianza
Sia V uno spazio prehilbertiano, cioè uno spazio vettoriale reale dotato di un prodotto scalare definito positivo, o uno
spazio vettoriale complesso dotato di un prodotto hermitiano. La disuguaglianza asserisce che il valore assoluto del
prodotto scalare di due elementi è minore o uguale al prodotto delle loro norme. Formalmente:
,
con l'uguaglianza che sussiste solo se x e y sono multipli (giacciono cioè sulla stessa retta).
Proprietà
La disuguaglianza vale quindi ad esempio nello spazio euclideo n-dimensionale e negli spazi di Hilbert a dimensione
infinita.
Nel piano, la disuguaglianza segue dalla relazione
.
dove θ è l'angolo fra i due vettori x e y. Si estende quindi questa relazione ad un qualsiasi spazio vettoriale con
prodotto scalare, usandola per definire l'angolo fra due vettori x e y come il
che realizza l'uguaglianza.
Tra le conseguenze importanti della disuguaglianza, troviamo:
• il prodotto scalare (o hermitiano) è una funzione continua da V × V in R;
• la norma verifica la disuguaglianza triangolare;
• la disuguaglianza di Bessel.
Dimostrazione
Dimostriamo la disuguaglianza nel caso complesso. Risulta banalmente vera per y = 0, quindi assumiamo <y,y>
diverso da zero. Sia un numero complesso. Abbiamo:
Scegliendo
otteniamo
che vale se e solo se
o equivalentemente:
Dimostriamo la diseguaglianza nel caso reale. Risulta banalmente vera per y = 0, quindi assumiamo <y,y> diverso da
zero. Sia un numero reale. Abbiamo:
Disuguaglianza di Cauchy-Schwarz
131
Scegliendo
otteniamo
che vale se e solo se
o equivalentemente
Dimostrazione algebrica
Sia
un polinomio di secondo grado in x.
Chiaramente non ha radici reali, tranne nel caso in cui gli
sono tutti uguali fra loro (e in tal caso
).
Svolgendo le parentesi otteniamo
Poiché il polinomio ha una o nessuna radice, il discriminante dev'essere minore o uguale a 0. Quindi
da cui si ricava
che è la disuguaglianza di Cauchy-Schwarz
Esempi
• Nello spazio euclideo Rn, otteniamo
• Nello spazio di Hilbert L2 delle funzioni reali a quadrato integrabile, otteniamo
Una generalizzazione di questa disuguaglianza è la disuguaglianza di Hölder.
• In dimensione 3, la disuguaglianza è conseguenza della seguente uguaglianza:
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Teorema di Sylvester
132
Teorema di Sylvester
In matematica e, più precisamente, in algebra lineare, il Teorema di Sylvester permette di classificare i prodotti
scalari su uno spazio vettoriale di dimensione finita, tramite un invariante numerico, che nel caso reale è la segnatura
e nel caso complesso è il rango.
Definizioni
Sia V uno spazio vettoriale di dimensione n, sul campo K dei numeri reali o complessi. Un prodotto scalare φ su V è
una forma bilineare simmetrica. Due prodotti scalari φ e ψ sono isometrici se sono collegati da una isometria. Più
precisamente, se esiste un automorfismo T: V → V (cioè una trasformazione lineare biunivoca) tale che:
Due vettori v e w di V sono ortogonali per φ se φ(v, w) = 0. Il radicale di φ è il sottospazio vettoriale dato dai vettori
che sono ortogonali a qualsiasi vettore. Il rango di φ è n meno la dimensione del radicale. Un vettore v è isotropo se
.
Una base ortogonale di V rispetto a φ è una base di vettori
definiamo la segnatura della base come la terna
•
•
•
è il numero di vettori
è il numero di vettori
è il numero di vettori
della base per cui
della base per cui
della base per cui
Notiamo che una tale definizione non avrebbe senso per K =
che sono a due a due ortogonali. Se K =
,
di interi, dove:
;
;
.
, perché
non ha un ordinamento naturale.
Il teorema
Esistono due versioni del teorema di Sylvester: una per il campo reale, ed una per quello complesso. Il teorema di
Sylvester reale è il seguente:
Sia φ un prodotto scalare sullo spazio vettoriale reale V di dimensione n.
• Esiste una base ortogonale di V per φ;
• Due basi ortogonali per V hanno la stessa segnatura, che dipende quindi solo da φ;
• Due prodotti scalari con la stessa segnatura sono isomorfi.
La segnatura è quindi un invariante completo per l'isometria: due spazi vettoriali reali con prodotto scalare sono
isometrici se e solo se hanno la stessa segnatura.
La versione complessa è la seguente:
Sia φ un prodotto scalare sullo spazio vettoriale complesso V di dimensione n.
• Esiste una base ortogonale di V per φ;
• Due basi ortogonali per V contengono lo stesso numero di vettori isotropi, pari alla dimensione del radicale, che
dipende quindi solo da φ;
• Due prodotti scalari con lo stesso rango sono isomorfi.
Quindi nel caso complesso il rango è un invariante completo per l'isometria.
Teorema di Sylvester
133
Voci correlate
•
•
•
•
Prodotto scalare
Teorema spettrale
Segnatura
Algoritmo di Lagrange
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Teorema spettrale
In matematica, in particolare nell'algebra lineare e nell'analisi funzionale, il teorema spettrale si riferisce a una serie
di risultati relativi agli operatori lineari oppure alle matrici. In termini generali il teorema spettrale fornisce
condizioni sotto le quali un operatore o una matrice possono essere diagonalizzati, cioè rappresentati da una matrice
diagonale in una certa base.
In dimensione finita, il teorema spettrale asserisce che ogni endomorfismo simmetrico di uno spazio vettoriale reale
dotato di un prodotto scalare definito positivo ha una base ortonormale formata da autovettori. Equivalentemente,
ogni matrice simmetrica reale è simile ad una matrice diagonale tramite una matrice ortogonale.
In dimensione infinita, il teorema spettrale assume forme diverse a seconda del tipo di operatori cui si applica. Ad
esempio, esiste una versione per operatori autoaggiunti in uno spazio di Hilbert.
Il teorema spettrale fornisce anche una decomposizione canonica, chiamata decomposizione spettrale, dello spazio
vettoriale.
Dimensione finita
Il teorema spettrale è innanzitutto un importante teorema riguardante gli spazi vettoriali (reali o complessi) di
dimensione finita.
Enunciato
Il teorema spettrale può essere enunciato per spazi vettoriali reali (o complessi), muniti di prodotto scalare (o
hermitiano) definito positivo. L'enunciato è essenzialmente lo stesso nei due casi. Il teorema nel caso reale può anche
essere interpretato come il caso particolare della versione complessa. Come molti altri risultati in algebra lineare, il
teorema può essere enunciato in due forme diverse: usando il linguaggio delle applicazioni lineari o delle matrici.
Caso reale
Sia T un endomorfismo autoaggiunto su uno spazio vettoriale reale V di dimensione n, dotato di un prodotto scalare
definito positivo. Allora esiste una base ortonormale di V fatta di autovettori per T. In particolare, l'endomorfismo T è
diagonalizzabile.
Una versione equivalente del teorema, enunciata con le matrici, afferma che ogni matrice simmetrica è simile ad una
matrice diagonale tramite una matrice ortogonale.
In altre parole, per ogni matrice simmetrica S esistono una matrice ortogonale M (cioè tale che MTM = I) ed una
diagonale D per cui
In particolare, gli autovalori di una matrice simmetrica sono tutti reali.
Teorema spettrale
Caso complesso
L'enunciato per spazi vettoriali complessi muniti di un prodotto hermitiano è analogo a quello precedente.
Sia T un operatore hermitiano su uno spazio vettoriale complesso V di dimensione n, dotato di un prodotto
hermitiano, cioè di una forma hermitiana definita positiva. Allora esiste una base ortonormale di V fatta di
autovettori per T, e gli autovalori di T sono tutti reali. In particolare, l'endomorfismo T è diagonalizzabile.
Analogamente, per le matrici il teorema afferma che ogni matrice hermitiana è simile ad una matrice diagonale reale
tramite una matrice unitaria.
In altre parole, per ogni matrice hermitiana H esistono una matrice unitaria U ed una diagonale reale D per cui
In particolare, gli autovalori di una matrice hermitiana sono tutti reali.
Dimostrazione
Nel dimostrare il teorema spettrale, è sufficiente considerare il caso complesso, che è più generale.
Per prima cosa si dimostra che tutti gli autovalori di T sono reali. Sia x un autovettore per T, con autovalore λ. Vale
la relazione
Segue che λ è uguale al suo coniugato e quindi è reale.
Per provare l'esistenza di una base di autovettori, è possibile usare l'induzione sulla dimensione di V. Poiché C è
algebricamente chiuso, il polinomio caratteristico di T ha almeno una radice: quindi T ha almeno un autovalore e
quindi un autovettore v. Lo spazio
formato dai vettori ortogonali a v ha dimensione n-1. L'endomorfismo T manda W in sé, poiché:
Inoltre T, considerato come endomorfismo di W è ancora simmetrico. Si procede quindi per induzione sulla
dimensione n, dimostrando il teorema.
Applicazioni
Teorema di decomposizione spettrale
Come immediata conseguenza del teorema spettrale, sia nel caso reale che nel caso complesso, il teorema di
decomposizione spettrale afferma che gli autospazi di T sono ortogonali e in somma diretta:
Equivalentemente, se Pλ è la proiezione ortogonale su Vλ, si ha:
Operatori normali
Il teorema spettrale vale anche per gli operatori normali in uno spazio di Hilbert, per i quali la somma presente nel
teorema spettrale a dimensioni finite è sostituita da un integrale della funzione coordinata sullo spettro pesato su una
misura di proiezione.
Gli autovalori in questo caso sono in generale numeri complessi, e la dimostrazione di questo caso è più complicata.
Come sopra, per ogni matrice normale A esistono una matrice unitaria U ed una matrice diagonale D tali che
134
Teorema spettrale
In questo caso però la matrice D non è necessariamente reale. Inoltre, ogni matrice che si diagonalizza in questo
modo deve essere normale. I vettori colonna di U sono gli autovettori di A e sono ortogonali.
Un operatore normale può non avere autovalori, ad esempio la traslazione bilaterale sullo spazio di Hilbert l2(Z) non
ha autovalori. Quando l'operatore normale in questione è compatto, il teorema spettrale si riduce al caso
finito-dimensionale, a parte il fatto che l'operatore può essere espresso come combinazione lineare di un numero
infinito di proiezioni.
Altre decomposizioni
La decomposizione spettrale è un caso particolare della decomposizione di Schur. È anche un caso particolare della
decomposizione ai valori singolari.
Dimensione infinita
In dimensione infinita, si considera uno spazio di Hilbert V reale o complesso. Come nel caso finito-dimensionale, vi
è un operatore autoaggiunto T su V. La tesi del teorema però varia a seconda delle proprietà di tale operatore.
Operatori compatti
Se T è un operatore compatto, la tesi del teorema spettrale è essenzialmente la stessa del caso finito-dimensionale, sia
nel caso reale che complesso: esiste una base ortonormale di V formata da autovettori di T. Ogni autovalore di T è
inoltre reale.
Nella dimostrazione, il punto cruciale è mostrare l'esistenza di almeno un autovettore. Non è possibile affidarsi ai
determinanti per mostrare l'esistenza degli autovalori, e quindi si ricorre ad un argomento di massimizzazione
variazionale.
Operatori limitati
Se T è un più generale operatore limitato, il comportamento può essere molto differente da quello riscontrato in
dimensione finita. L'operatore può non avere autovettori né autovalori, neppure nel caso complesso. Ad esempio, è
facile vedere che l'operatore S sullo spazio Lp L2[0, 1] definito come
è continuo e non ha autovettori. Più in generale, l'operatore che moltiplica ogni funzione per una funzione misurabile
fissata f è limitato e autoaggiunto, ma ha autovettori solo per scelte molto particolari di f.
Il teorema spettrale per operatori limitati T asserisce che ogni T può essere ricondotto alla forma di una
moltiplicazione per una funzione del tipo appena descritto, con un più generale spazio di misura al posto del
segmento [0, 1].
L'enunciato è quindi il seguente. Sia T un operatore autoaggiunto limitato su uno spazio di Hilbert V. Esiste uno
spazio di misura (X, M, μ), una funzione misurabile a valori reali f su X e un operatore unitario U:V → L2μ(X) tali che
dove S è l'operatore di moltiplicazione:
Questo risultato è l'inizio di una vasta area di ricerca dell'analisi funzionale chiamata teoria degli operatori.
135
Teorema spettrale
136
Operatori autoaggiunti
Molti operatori lineari importanti che si incontrano in analisi, come gli operatori differenziali, non sono limitati.
Esiste comunque un teorema spettrale per operatori autoaggiunti che si applica in molti di questi casi. Per dare un
esempio, ogni operatore differenziale a coefficienti costanti è unitariamente equivalente a un operatore di
moltiplicazione. Di fatto l'operatore unitario che implementa questa equivalenza è la trasformata di Fourier.
Voci correlate
• Prodotto scalare
• Spazio di Hilbert
• Decomposizione di Jordan, un analogo della decomposizione spettrale, definito in assenza di prodotto scalare.
Bibliografia
• (EN) Sheldon Axler, Linear Algebra Done Right, Springer Verlag, 1997
• (IT) Moretti Valter, Teoria Spettrale e Meccanica Quantistica. Operatori in spazi di Hilber, Springer Verlag,
2010
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Gruppo ortogonale
In matematica, il gruppo ortogonale di grado n su un campo K è il gruppo delle matrici ortogonali n × n a valori in
K. Si indica con O(n,K).
Quando K è il campo dei numeri reali, il gruppo può essere interpretato come il gruppo delle isometrie dello spazio
euclideo di dimensione n. Le matrici aventi determinante positivo formano un sottogruppo, che si indica con SO(n),
detto gruppo ortogonale speciale. Il gruppo ortogonale speciale è il gruppo delle rotazioni dello spazio.
Definizione
Il gruppo ortogonale è un sottogruppo del gruppo generale lineare GL(n, K) di tutte le matrici invertibili, definito
come segue:
In altre parole, è il sottogruppo formato da tutte le matrici ortogonali.
Quando il campo K non è menzionato, si sottointende che K è il campo dei numeri reali R. In questa voce, parleremo
soltanto del caso K = R.
Gruppo ortogonale
137
Proprietà basilari
Una matrice ortogonale ha determinante +1 oppure − 1. Il sottoinsieme di O(n) formato da tutte le sottomatrici con
determinante +1 è a sua volta un sottogruppo, detto gruppo ortogonale speciale. Viene indicato con SO(n). Gli
elementi di questo gruppo sono rotazioni.
Il gruppo O(n) è il gruppo delle isometrie della sfera di dimensione n − 1. Il sottogruppo SO(n) è dato da tutte le
isometrie che preservano l'orientazione della sfera.
Topologia
Il gruppo O(n) è una varietà differenziabile, e assieme alla sua struttura di gruppo forma un gruppo di Lie compatto.
Non è connesso: ha infatti due componenti connesse, una delle quali è SO(n).
Dimensioni basse
• Per n = 1, il gruppo O(1) consta di due elementi, 1 e − 1.
• Per n = 2, il gruppo SO(2) è isomorfo al gruppo quoziente R/Z dove R sono i numeri reali e Z il sottogruppo dei
numeri interi. Questo gruppo è solitamente indicato con S 1 , e topologicamente è una circonferenza.
• Per n = 3, il gruppo SO(3) è omeomorfo allo spazio proiettivo reale di dimensione 3, che si indica solitamente
come P3(R).
Gruppo fondamentale
Il gruppo fondamentale di SO(2) è Z, il gruppo dei numeri interi. Per ogni n > 2 il gruppo fondamentale di SO(n) è
invece Z/2Z, il gruppo ciclico con due elementi. Ha quindi un rivestimento universale compatto, che viene indicato
con Spin(n), e che risulta anch'esso essere un gruppo di Lie. Il gruppo Spin(n) è chiamato gruppo Spin.
Voci correlate
• Matrice ortogonale
• Trasformazione ortogonale
• Rotazione (matematica)
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Rotazione (matematica)
138
Rotazione (matematica)
In matematica, una rotazione è una trasformazione del piano o dello spazio euclideo
che sposta gli oggetti in modo rigido e che lascia fisso almeno un punto (l'origine dello
spazio) I punti che restano fissi nella trasformazione formano un sottospazio: quando
questo insieme è un punto (l'origine) o una retta, si chiama rispettivamente il centro e
l'asse della rotazione.
Più precisamente, una rotazione è una isometria di uno spazio euclideo che ne preserva
l'orientazione, ed è descritta da una matrice ortogonale speciale.
Una sfera che ruota intorno a
un asse
Due dimensioni
In due dimensioni, una rotazione è una trasformazione
dipende da un angolo
, che
, e che trasforma il vettore (x, y) in
Rotazione antioraria nel piano
Usando la moltiplicazione di matrici la rotazione può essere descritta così:
La matrice quadrata presente in questa espressione è una matrice ortonormale di rango due. Questa trasformazione è
chiamata rotazione antioraria di angolo intorno all'origine.
La matrice 2 × 2 che descrive la rotazione è spesso chiamata matrice di rotazione di angolo
.
Rotazione (matematica)
139
Dimostrazione
Le formule
e
possono essere ottenute ragionando nel modo seguente. Sia
un punto qualsiasi e siano
le sue coordinate polari. Si ha
il punto
, immagine di
in una rotazione di un angolo
coordinate cartesiane sono perciò date dalle
, ove si ponga
, ha coordinate polari
al posto di
applicando le formule di addizione di seno e coseno e tenendo conto anche delle
e
. Le sue
:
, si ottengono le formule
,
infatti:
Nel piano complesso
Una rotazione si esprime in modo più conciso interpretando il piano come piano complesso: una rotazione equivale
al prodotto per un numero complesso di modulo unitario.
In questo modo, ad esempio, la rotazione di angolo
, con centro nell'origine, si scrive come
L'insieme dei numeri complessi con modulo unitario è algebricamente chiuso rispetto al prodotto, formando così un
gruppo abeliano, chiamato il gruppo circolare: l'interpretazione complessa delle rotazioni del piano può essere allora
espressa come il fatto che il gruppo circolare e il gruppo ortogonale speciale SO(2) sono isomorfi.
Tre dimensioni
In tre dimensioni, una rotazione è determinata da un asse, dato da una
retta r passante per l'origine, e da un angolo di rotazione. Per evitare
ambiguità, si fissa una direzione dell'asse, e si considera la rotazione di
angolo effettuata in senso antiorario rispetto all'asse orientato. La
rotazione è descritta nel modo più sintetico scrivendo i vettori dello
spazio in coordinate rispetto ad una base ortonormale
, dove
è il vettore di lunghezza uno contenuto in r e avente direzione
giusta. La rotazione intorno all'asse
trasforma il vettore di
coordinate
in:
Rotazione in un sistema tridimensionale
Senza cambiare base, la rotazione di angolo
intorno ad un asse determinata dal versore
vettore di modulo unitario) è descritta dalla matrice seguente:
(ossia un
Rotazione (matematica)
140
Dimensione arbitraria
In uno spazio euclideo di dimensione arbitraria, una rotazione è una trasformazione lineare dello spazio in sé che è
anche una isometria, e che mantiene l'orientazione dello spazio. Le matrici n per n che realizzano queste
trasformazioni sono le matrici ortogonali speciali.
Altri progetti
•
Wikimedia Commons contiene file multimediali su Rotazione (matematica)
Voci correlate
• Matrice ortogonale
• Isometria
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Gli elementi della rotazione sono: 1) il verso (orario-antiorario); 2) l'ampiezza dell' angolo di rotazione; 3) il centro
di rotazione (il punto attorno a cui avviene il movimento rotatorio).
Prodotto vettoriale
In matematica il prodotto vettoriale è un' operazione binaria interna sui vettori in un spazio euclideo
tridimensionale. È anche conosciuto come prodotto vettore. A differenza del prodotto scalare esso genera un vettore
e non uno scalare.
Notazioni
Il prodotto vettoriale è indicato con il simbolo
o con il simbolo
. Il secondo simbolo è però anche usato per
indicare il prodotto esterno (o prodotto wedge) nell'algebra di Grassmann, di Clifford e nelle forme differenziali.
Storicamente, il prodotto esterno è stato definito da Grassmann circa trent'anni prima che Gibbs e Heaviside
definissero il prodotto vettoriale.
Prodotto vettoriale
141
Definizione
Il prodotto vettoriale, tra due generici vettori a e b, è definito come il
vettore ortogonale sia ad a che a b tale che:
Prodotto vettoriale in un sistema destrogiro
dove θ è la misura dell'angolo tra a e b (dove 0° ≤ θ ≤ 180°), mentre n è il versore (un vettore di modulo unitario)
che determina la direzione del prodotto vettoriale (ed è, come specificato più sopra, ortogonale sia ad a che a b).
Il problema riguardo alla definizione del versore n è che vi sono due versori perpendicolari sia ad a che a b, uno di
verso opposto all'altro in quanto, se n è perpendicolare ad a ed a b, allora lo sarà anche il versore −n.
Convenzionalmente si sceglie n in modo tale che i vettori a, b ed a × b siano orientati secondo un sistema destrogiro
se il sistema di assi coordinati (i, j, k) è destrogiro, oppure sinistrogiro se (i, j, k) è sinistrogiro. Quindi l'orientazione
del versore n dipenderà dall'orientazione dei vettori nello spazio, ovvero dalla chiralità del sistema di coordinate
ortogonali (i, j, k).
Un modo semplice per determinare il verso del prodotto vettore è la «regola della mano destra». In un sistema
destrogiro si punta il pollice nella direzione del primo vettore, l'indice in quella del secondo, il medio dà la direzione
del prodotto vettore. In un sistema di riferimento sinistrogiro basta invertire il verso del prodotto vettore, ovvero
usare la mano sinistra.
Poiché il prodotto vettore dipende dalla scelta del sistema di coordinate, o più propriamente perché in una
formalizzazione rigorosa il prodotto vettoriale tra due vettori non appartiene allo spazio di partenza, ci si riferisce ad
esso come uno pseudovettore. Sono ad esempio degli pseudovettori (detti anche vettori assiali) il momento
angolare, la velocità angolare, il campo magnetico.
Il modulo del prodotto vettore è l'area del parallelogramma individuato dai due vettori a e b ed è pari a
infatti, b sen θ è la misura dell'altezza se si fissa a come base, e viceversa a sen θ è la misura dell'altezza se si fissa b
come base.
Prodotto vettoriale
142
Proprietà
Proprietà algebriche
• è bilineare cioè, dati tre vettori a,b e c aventi pari dimensione e uno scalare k:
(distributivo rispetto all'addizione)
•
⇔ linearmente dipendenti, quindi se non sono nulli allora ⇔ sono paralleli.
(
)
• è antisimmetrico: (non gode della proprietà commutativa)
• il prodotto vettoriale non è un prodotto vero e proprio perché non è associativo
• soddisfa l'identità di Jacobi:
La proprietà distributiva, la linearità e l'identità di Jacobi fanno si che
sia un'algebra di Lie.
I versori (o vettori unimodulari della base canonica) i, j, e k relativi ad un sistema cartesiano di coordinate ortogonali
in
soddisfano le seguenti equazioni:
i × j = k j × k = i k × i = j.
Notazione matriciale
Dato il generico vettore algebrico in
il prodotto vettoriale di tale vettore per un altro vettore può essere espresso come il prodotto tra la matrice
e il secondo vettore.
Sia
a = a1i + a2j + a3k = [a1, a2, a3]
e
b = b1i + b2j + b3k = [b1, b2, b3].
Allora
a × b = [a2b3 − a3b2, a3b1 − a1b3, a1b2 − a2b1].
Si noti che non si è dovuto calcolare alcun angolo.
La suddetta notazione per componenti può essere scritta formalmente come il determinante di una matrice con un
abuso di notazione:
Prodotto vettoriale
143
Il determinante di tre vettori può essere ottenuto come:
det (a, b, c) = a · (b × c).
Intuitivamente, il prodotto vettoriale può essere descritto dalla regola di Sarrus per il calcolo dei determinanti.
Notazione con indici
Il prodotto vettoriale può essere definito in termini del tensore di Levi-Civita
dove si è usata la convenzione di Einstein e gli indici
sono le componenti ortogonali del vettore.
Formula di Lagrange
Questa identità, che coinvolge il prodotto vettoriale, è molto utile. Si può scrivere come
a × (b × c) = b(a · c)− c(a · b),
che si può ricordare facilmente come "BAC meno CAB (taxi in inglese)".
Un caso particolare riguardante il gradiente nel calcolo vettoriale è
che si può facilmente ricordare come "gradiva (gra-div) almeno (-) un gelatino (dalla forma grafica del laplaciano)".
Un'altra utile identità di Lagrange è
Questo è un caso speciale delle moltiplicazione
della norma nell'algebra dei quaternioni.
Estensioni multidimensionali
Un prodotto esterno per vettori 7-dimensionali può essere ottenuto similmente utilizzando gli ottonioni invece dei
quaternioni. Invece non possono esistere altre estensioni del prodotto vettoriale, e ciò è collegato al fatto che le sole
algebre di divisione normate sono quelle con dimensioni 1,2,4 e 8.
Simboli
Il prodotto vettoriale × è rappresentato come:
• × in HTML
• \times in LaTeX
• U+00D7 in Unicode
Voci correlate
•
•
•
•
•
•
•
Operazione binaria
Operazione interna
Regola della mano destra
Prodotto scalare
Prodotto misto
Orientazione
Rotore
• Divergenza
Prodotto vettoriale
144
Altri progetti
•
Wikizionario contiene la voce di dizionario «prodotto vettoriale»
Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Regola della mano destra
In geometria e in fisica, la regola della mano destra è una
convenzione per determinare una terna di vettori con orientazione
positiva.
Ci sono tre varianti della regola della mano destra, strettamente legate.
La regola della mano destra
Orientazione associata ad una coppia ordinata di direzioni
La prima di queste accade in situazioni nelle quali un'operazione
non-commutativa deve essere svolta su due direzioni a e b (in uno
spazio tridimensionale) che costruisce una direzione c perpendicolare
ad a e b. Sono possibili infatti due orientazioni. La regola della mano
destra impone la seguente procedura per scegliere una di queste due
orientazioni.
Per prima cosa, la mano è tenuta piatta e posizionata in modo che le
dita siano allineate con il versore a. Poi, la mano viene ruotata verso
l'avambraccio in modo che le dita indichino il versore b. Il pollice
indica il versore c.
L'orientamento da mano sinistra è mostrato a
sinistra, quello da mano destra a destra.
Esiste anche una tecnica alternativa. Il dito indice della mano destra è puntato direttamente nella direzione del
versore a; il dito medio è piegato internamente in modo che sia allineato con il versore b; il pollice indicherà il
versore c.
In alternativa, si consideri una persona che sia posizionata nell'origine che guardi seguendo la direzione del versore a
e la direzione del suo sguardo sia coincidente con il versore b. In questo caso il braccio destro indicherà la direzione
del versore c.
Nell'elettromagnetismo (fisica), viene usata anche una terza tecnica per determinare il verso di una forza dovuta ad
una carica positiva che si muove in un campo magnetico (vedi forza di Lorentz). Usando la mano destra, le dita
rappresentano il verso del campo magnetico, il pollice è la direzione della corrente elettrica, e la forza risultante è
nella direzione del palmo.
Regola della mano destra
Direzione associata ad una rotazione
L'altra forma della regola della mano destra viene usata in situazioni in cui una direzione c deve essere determinata
in base alla direzione di rotazione di a o viceversa. In questo caso, le dita della mano destra sono piegate nella
direzione di rotazione, ed il pollice indica c.
Proporzionalmente:
• l'allontanamento dall'osservatore è associato ad una rotazione in senso orario mentre l'avvicinamento
all'osservatore con una rotazione antioraria, come una vite;
• la direzione verso sinistra è associata con la rotazione delle ruote di un veicolo che avanza;
La relazione con la sezione precedente è stabilita associando alle direzioni a e b la rotazione sull'angolo più piccolo
da a a b, in senso orario o antiorario.
Si noti che in questo caso talvolta si utilizza per tale tecnica anche l'identificativo di regola della vite destrorsa o
anche regola del cavaturaccioli.
Applicazioni della regola della mano destra
Probabilmente l'applicazione più importante di questa regola è rappresentata dal sistema di riferimento cartesiano,
dove la prima forma (della regola) è usata per posizionare l'asse z dopo che sono stati fissati gli assi x e y, scegliendo
l'angolo di 90 gradi in senso orario o antiorario.
La prima forma della regola è anche usata per determinare la direzione del vettore risultante dal prodotto vettoriale di
due vettori. Tale operazione infatti è largamente usata in fisica. Qui sotto è presente una lista di quantità fisiche le cui
direzioni sono ricavate utilizzando questa regola. (Alcune di queste sono legate al prodotto vettoriale solo
indirettamente, e usano la seconda forma.)
• La velocità angolare di un oggetto rotante e la velocità di rotazione di un punto qualsiasi di quell'oggetto
• Il Momento di una forza, la forza che lo causa, e la posizione del punto di applicazione della forza
• Un campo magnetico, la posizione del punto dove esso è determinato, e la corrente elettrica (o carica nel flusso
elettrico) che lo causa
• Un campo magnetico in una spirale di filo e la corrente elettrica nel filo
• La forza di un campo magnetico su un oggetto, il campo magnetico in se, e la velocità dell'oggetto
• La corrente indotta dal movimento in un campo magnetico (conosciuta come regola della mano destra di Fleming)
Regola della mano sinistra
La regola della mano sinistra di Fleming è una regola per trovare la direzione della spinta su un conduttore che porta
una corrente in un campo magnetico.
La regola della mano sinistra può anche essere vista come l'inverso della regola della mano destra, dove uno dei
vettori è invertito e quindi crea una terna orientata a sinistra invece di una orientata a destra.
È importante notare come tutte le leggi della fisica che usano la regola della mano destra potrebbero essere descritte
usando la regola della mano sinistra, ottenendo ovviamente gli stessi risultati (i campi non sanno qual è la destra o la
sinistra!), a patto di usare sempre la stessa regola sia nella definizione dei vettori che nel loro uso.
Un esempio di questa situazione è dato dai materiali con indice di rifrazione negativo. Normalmente, per un'onda
elettromagnetica, i campi elettrico e magnetico, e la direzione di propagazione dell'onda obbediscono alla regola
della mano destra. Ma questi materiali hanno proprietà speciali (l'indice di rifrazione negativo), che fanno si che la
direzione di propagazione punti nella direzione opposta.
145
Regola della mano destra
146
Voci correlate
•
•
•
•
•
•
•
•
Chiralità
Prodotto vettoriale
Rotore
Pseudovettore
Regola della presa della mano destra
Rotazione impropria
Riflessione
Orientazione
Altri progetti
•
Wikimedia Commons contiene file multimediali su Regola della mano destra
Collegamenti esterni
• (EN) Esempi dell'uso della regola della mano destra [1]
Portale Meccanica: accedi alle voci di Wikipedia che trattano di Meccanica
Note
[1] http:/ / physics. syr. edu/ courses/ video/ RightHandRule/ index2. html
Fonti e autori delle voci
Fonti e autori delle voci
Anello (algebra) Fonte:: http://it.wikipedia.org/w/index.php?oldid=38739841 Autori:: Achillu, Alberto da Calvairate, Andreas Carter, Ary29, Balabiot, Darth Kule, Davide, Dr Zimbu, Frieda,
Melmood, Onnisciente, Piddu, Pracchia-78, Salvatore Ingala, Sandrobt, Sir John, Stan Shebs, Technopop.tattoo, Twice25, Twixt3r, Vargenau, Ylebru, Zetti ~, 23 Modifiche anonime
Corpo (matematica) Fonte:: http://it.wikipedia.org/w/index.php?oldid=37943822 Autori:: Achillu, Alberto da Calvairate, Balabiot, Beewan1972, Blakwolf, François:Bois, Luca2b, Melmood,
No2, Piddu, Salvatore Ingala, Touriste, Trovatore, Ylebru, 6 Modifiche anonime
Matrice Fonte:: http://it.wikipedia.org/w/index.php?oldid=38749343 Autori:: Achillu, Al Pereira, Alberto da Calvairate, Alfio, Alz, Ary29, Bedo2991, Brownout, Cisco79, DarkAp, Davide 91,
Dom De Felice, Dr Zimbu, EffeX2, Elwood, Fph, Frieda, Ft1, Gala.martin, Gianluigi, Goemon, Grigio60, Gvnn, Hellis, Ilario, Illinois, Kallsuh, Krdan, Laurentius, Lord Hidelan, Luisa,
Mambrucco, Nicola.battiston, Pegua, PersOnLine, Phantomas, Piddu, Pokipsy76, Reim, Riccioli72, Risolutore89, Sandrobt, Simone, Sperimentatore, Taueres, Tridim, Ulisse0, Ylebru, Zio Illy,
^musaz, 73 Modifiche anonime
Rappresentazione dei numeri complessi Fonte:: http://it.wikipedia.org/w/index.php?oldid=36090782 Autori:: Brískelly, F l a n k e r, Gim²y, Hellis, Leonardis, Phantomas, Rojelio, Tridim,
Wiso, ^musaz, 7 Modifiche anonime
Quaternione Fonte:: http://it.wikipedia.org/w/index.php?oldid=37528800 Autori:: .mau., Alberto da Calvairate, Alfio, Aushulz, Baicesare, Balabiot, Banus, Blakwolf, Davide, Dr Zimbu,
François:Bois, Frieda, Hashar, Hce, Hellis, L736E, LapoLuchini, Larry Yuma, Leonardis, Lukius, Lyell01, Massimiliano Lincetto, Piddu, Ripepette, Roberto.zanasi, Ruthven, Suisui, Titian1962,
Ylebru, 28 Modifiche anonime
Spazio vettoriale Fonte:: http://it.wikipedia.org/w/index.php?oldid=38787257 Autori:: Achillu, Alberto da Calvairate, AnyFile, Aushulz, Balabiot, Damnit, Dr Zimbu, Dzag, Gac, Gianluigi,
Giulianap, Hashar, Luk.wk, Marcuscalabresus, Maupag, Ndakota73, Nihil, Palica, Phantomas, Piddu, Pracchia-78, Romanm, Rrronny, Salvatore Ingala, Sandrobt, Skyhc, Suisui, Wiso, Ylebru,
^musaz, 50 Modifiche anonime
Copertura lineare Fonte:: http://it.wikipedia.org/w/index.php?oldid=33730418 Autori:: DBellavista, Phantomas, Simone Scanzoni, Ylebru, 8 Modifiche anonime
Base (algebra lineare) Fonte:: http://it.wikipedia.org/w/index.php?oldid=39342450 Autori:: Andreas Carter, Dissonance, Gac, Giomini, Habemusluigi, Lacurus, Marcok, MrCrow, Nemo bis,
Nickanc, Piddu, Sartore, Sbisolo, Simone, Skyhc, Square87, Vonvikken, Ylebru, 12 Modifiche anonime
Completamento a base Fonte:: http://it.wikipedia.org/w/index.php?oldid=21370499 Autori:: Ocirnedw, Ylebru
Estrazione di una base Fonte:: http://it.wikipedia.org/w/index.php?oldid=22935435 Autori:: MaEr, Megalexandros, Sir marek, Ylebru, 1 Modifiche anonime
Matrice di cambiamento di base Fonte:: http://it.wikipedia.org/w/index.php?oldid=31047407 Autori:: Antoniocicone, Dissonance, Linux2004, Piddu, Qgluca, Ylebru, ^musaz, 8 Modifiche
anonime
Somma diretta Fonte:: http://it.wikipedia.org/w/index.php?oldid=37535214 Autori:: Piddu, Tavyrob, Ylebru, ^musaz, 4 Modifiche anonime
Formula di Grassmann Fonte:: http://it.wikipedia.org/w/index.php?oldid=37578262 Autori:: .jhc., Alberto da Calvairate, Alfio, Gabriele Nunzio Tornetta, Giulio84, Piddu, Popop, Roberto
Mura, Salvatore Ingala, Senpai, Ylebru, 27 Modifiche anonime
Metodo di eliminazione di Gauss Fonte:: http://it.wikipedia.org/w/index.php?oldid=39018951 Autori:: Black mamba, Buggia, CristianCantoro, Dissonance, Dom De Felice, Domenico De
Felice, Etienne, Guidomac, Kingfesen, Lnx, Onnisciente, RobertoMM, Shaka, Sperimentatore, Ylebru, 49 Modifiche anonime
Determinante Fonte:: http://it.wikipedia.org/w/index.php?oldid=39349218 Autori:: Alberto da Calvairate, AnyFile, Blakwolf, Cruccone, DaniDF1995, Davice, Dom De Felice, Domenico De
Felice, Dr Zimbu, Fede Reghe, Frieda, Giulio.orru, Grifone87, Laurentius, Piddu, Pokipsy76, Riccardocc2, Salvatore Ingala, Simone Scanzoni, SquallLeonhart ITA, Square87, Taueres, Ulisse0,
Wikinomane, Ylebru, Zio Illy, ^musaz, 42 Modifiche anonime
Rango (algebra lineare) Fonte:: http://it.wikipedia.org/w/index.php?oldid=37545753 Autori:: Alberto da Calvairate, Banus, Chionatan, Freddyballo, Google, Guidomac, Piddu, Red Power,
Stefanobra, Tizio X, Tridim, Turgon, Ylebru, ^musaz, ‫פ ילא‬, 17 Modifiche anonime
Trasformazione lineare Fonte:: http://it.wikipedia.org/w/index.php?oldid=38612114 Autori:: .jhc., Alberto da Calvairate, Beewan1972, Colom, Den.90, Giulianap, Marco Matassa, Mawerick,
Phantomas, Piddu, Pokipsy76, Pracchia-78, Sandrobt, Simone, Skyhc, TheRedOne, Tridim, Unit, Valerio.scorsipa, Wiso, Ylebru, ^musaz, 27 Modifiche anonime
Matrice di trasformazione Fonte:: http://it.wikipedia.org/w/index.php?oldid=39265008 Autori:: Alberto da Calvairate, Phantomas, Piddu, Pokipsy76, Pracchia-78, Riccioli72, Sagrael, Simone
Scanzoni, TierrayLibertad, Valerio.scorsipa, Ylebru, 5 Modifiche anonime
Teorema del rango Fonte:: http://it.wikipedia.org/w/index.php?oldid=33337732 Autori:: Banus, Helios, Pracchia-78, Salvatore Ingala, Ylebru, 2 Modifiche anonime
Autovettore e autovalore Fonte:: http://it.wikipedia.org/w/index.php?oldid=39011952 Autori:: AMenteLibera, Alberto da Calvairate, Alfio, Aushulz, Berto, Domenico De Felice, Engineer123,
F l a n k e r, Formica rufa, Franz Liszt, Gecob, Ggonnell, Huatulco, Jean85, Luisa, M&M987, Magma, Marco82laspezia, Midnight bird, Onnisciente, Piddu, Piero, Pokipsy76, Pracchia-78,
RanZag, Restu20, Rob-ot, Robmontagna, Sandrobt, Sartore, Shony, SimoneMLK, Sir marek, SkZ, Stefano80, Tommaso Ferrara, Tridim, Ulisse0, Vipera, Xander89, Ylak, Ylebru, ^musaz, 28
Modifiche anonime
Polinomio caratteristico Fonte:: http://it.wikipedia.org/w/index.php?oldid=38512681 Autori:: Alberto da Calvairate, Claude, Fred Falcon, Kronolf, Luisa, Lupin85, Poeta60, Pokipsy76,
Ylebru, ^musaz, 17 Modifiche anonime
Teorema di Hamilton-Cayley Fonte:: http://it.wikipedia.org/w/index.php?oldid=38396523 Autori:: Andreas Carter, FrancescoT, Poeta60, Pokipsy76, Pracchia-78, Salvatore Ingala, Ylebru, 5
Modifiche anonime
Diagonalizzabilità Fonte:: http://it.wikipedia.org/w/index.php?oldid=39300810 Autori:: CristianCantoro, Ft1, Goemon, Luisa, MartinoK, Pracchia-78, Ylebru, 18 Modifiche anonime
Forma canonica di Jordan Fonte:: http://it.wikipedia.org/w/index.php?oldid=32474152 Autori:: .:Andrea:., Bauletto, Geppo985, Piddu, Toobaz, Ylebru, Zio Illy, 10 Modifiche anonime
Matrice esponenziale Fonte:: http://it.wikipedia.org/w/index.php?oldid=37445660 Autori:: Mauro742, Piddu, Trixt, ^musaz, 2 Modifiche anonime
Sistema di equazioni lineari Fonte:: http://it.wikipedia.org/w/index.php?oldid=39039388 Autori:: Alberto da Calvairate, Archenzo, Blakwolf, Claude, Diablo, Dimpim, DoppioM, Dr Zimbu,
Ft1, Ginex101, Hellis, Phantomas, Piddu, Sandman, Tridim, Twilight, Ulisse0, Ylebru, 34 Modifiche anonime
Teorema di Rouché-Capelli Fonte:: http://it.wikipedia.org/w/index.php?oldid=38646591 Autori:: Amanconi, Bink, Claude, Continillo, FrancescoT, Freddyballo, Ginosal, Joségiuseppe, Kiado,
Leitfaden, Pere prlpz, Pokipsy76, Salvatore Ingala, Senpai, Ulisse0, Ylebru, 17 Modifiche anonime
Regola di Cramer Fonte:: http://it.wikipedia.org/w/index.php?oldid=39393463 Autori:: .mau., Asdalol, Buggia, Causa83, Cemg, Diablo, Hellis, Icaro, Kamina, Martin Mystère, Melefabrizio,
Piddu, Seics, Square87, Swap83, Ylebru, ^musaz, 51 Modifiche anonime
Spazio affine Fonte:: http://it.wikipedia.org/w/index.php?oldid=39184881 Autori:: Alberto da Calvairate, Balabiot, Domenico De Felice, Phantomas, Piddu, Popop, Quatar, Tridim, Ylebru, Zio
Illy, ^musaz, 6 Modifiche anonime
Sottospazio affine Fonte:: http://it.wikipedia.org/w/index.php?oldid=39109943 Autori:: Phantomas, Piddu, Tridim, Ylebru, 8 Modifiche anonime
Forma bilineare Fonte:: http://it.wikipedia.org/w/index.php?oldid=37127650 Autori:: Bordaigorl, Piddu, Pracchia-78, Tridim, Ylebru, ^musaz, 8 Modifiche anonime
Spazio euclideo Fonte:: http://it.wikipedia.org/w/index.php?oldid=39168786 Autori:: Airon90, Alberto da Calvairate, B3t, Banus, Boscarol, Damnit, Guidomac, Hellis, Piddu, Pokipsy76,
Poldo328, Pracchia-78, Tridim, Ylebru, ^musaz, 11 Modifiche anonime
147
Fonti e autori delle voci
Prodotto scalare Fonte:: http://it.wikipedia.org/w/index.php?oldid=39109846 Autori:: Alberto da Calvairate, Ceskino, Eumolpo, F l a n k e r, Gala.martin, Gatto Bianco 1, Giacomo.lucchese,
Nihil, No2, Phantomas, Piddu, Pietrodn, Pracchia-78, Sandrobt, Sir marek, SkZ, Superedit, Ticket 2010081310004741, Triph, Ulisse0, Unriccio, Valerio.scorsipa, Voldemort87, Wiso, Ylebru,
^musaz, 45 Modifiche anonime
Ortogonalizzazione di Gram-Schmidt Fonte:: http://it.wikipedia.org/w/index.php?oldid=37174290 Autori:: Agnul, Alberto da Calvairate, Alec, AttoRenato, Banus, Ceskino, Colom,
Cruccone, Giacomo.lucchese, Hellis, Mess, Piddu, Simone, Snowdog, Ylebru, ^musaz, 8 Modifiche anonime
Base ortonormale Fonte:: http://it.wikipedia.org/w/index.php?oldid=38713999 Autori:: AKappa, Alberto da Calvairate, Alez, Ceskino, Goemon, Hellis, M7, Nihil, Piddu, Pracchia-78,
TDLemon, The Ouroboros, Tomi, Unriccio, Xufanc, Ylebru, 13 Modifiche anonime
Matrice ortogonale Fonte:: http://it.wikipedia.org/w/index.php?oldid=37781207 Autori:: Agnul, Alberto da Calvairate, Alex karate do, Alfio, Ary29, Auro, Ceskino, Larry Yuma, Nick, No2,
Phantomas, Piddu, Poldo328, Pracchia-78, Riccioli72, Trianam, Wiso, Ylebru, 12 Modifiche anonime
Disuguaglianza di Cauchy-Schwarz Fonte:: http://it.wikipedia.org/w/index.php?oldid=38471928 Autori:: Albor, Aldur, Beewan1972, CavalloRazzo, Hellis, Piddu, Pracchia-78, Sl, Ylebru, 14
Modifiche anonime
Teorema di Sylvester Fonte:: http://it.wikipedia.org/w/index.php?oldid=33337748 Autori:: Anne Bauval, Domenico De Felice, Giacomo.lucchese, Pracchia-78, Salvatore Ingala, Ylebru, 4
Modifiche anonime
Teorema spettrale Fonte:: http://it.wikipedia.org/w/index.php?oldid=37682659 Autori:: Banus, Fontafox, Leitfaden, Leonardis, Lucha, Nase, Nicolaennio, Piddu, Pracchia-78, Qualc1,
Salvatore Ingala, Walter89, Wiso, Ylebru, Zuccaccia, Zviad, ^musaz, 12 Modifiche anonime
Gruppo ortogonale Fonte:: http://it.wikipedia.org/w/index.php?oldid=29135942 Autori:: Ceccorossi, Piddu, Poldo328, Ylebru
Rotazione (matematica) Fonte:: http://it.wikipedia.org/w/index.php?oldid=36150983 Autori:: Giacomo.lucchese, Lenore, Piddu, Piero, Pokipsy76, Ylebru, 23 Modifiche anonime
Prodotto vettoriale Fonte:: http://it.wikipedia.org/w/index.php?oldid=39262809 Autori:: Achillu, Ary29, Eginardo, F l a n k e r, GIM, Gvittucci, Hellis, Karmine, MAcCo, Magma, Marc
Lagrange, Nicolaennio, No2, Oleg Alexandrov, Piddu, Pracchia-78, Technopop.tattoo, Ulisse0, Uomodeltuono, Vonvikken, Wiso, Ylebru, ^musaz, 38 Modifiche anonime
Regola della mano destra Fonte:: http://it.wikipedia.org/w/index.php?oldid=39071793 Autori:: ARTE, Alez, ArtAttack, Avesan, Guido Magnano, Hasanisawi, Hellis, Luca Stornaiuolo,
Luciodem, Luisa, Maxim88, Nspiemonte, Poeta60, Sandr0, Skywolf, Telepso, Ulisse0, Wiso, Ylebru, Zio Illy, 17 Modifiche anonime
148
Fonti, licenze e autori delle immagini
Fonti, licenze e autori delle immagini
File:Math.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Math.svg Licenza: Public Domain Autori:: User:Joey-das-WBF
File:Matrix - it.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Matrix_-_it.svg Licenza: GNU Free Documentation License Autori:: User:Dom De Felice, User:Lakeworks,
User:Marozols
Immagine:Complex conjugate picture.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Complex_conjugate_picture.svg Licenza: GNU Free Documentation License Autori::
User:Oleg Alexandrov
File:Quaternion.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Quaternion.jpg Licenza: GNU Free Documentation License Autori:: D-Kuru, Fedi, Paddy, Saperaud
File:Quaternion Plague on Broom Bridge.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Quaternion_Plague_on_Broom_Bridge.jpg Licenza: GNU Free Documentation License
Autori:: Captmondo, Darapti, G.dallorto, Man vyi, Quibik, Silverfish, 1 Modifiche anonime
File:Stub fisica.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Stub_fisica.png Licenza: GNU Lesser General Public License Autori:: Lucas
File:Vector space illust.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Vector_space_illust.svg Licenza: Public Domain Autori:: User:Oleg Alexandrov
File:Linear subspaces with shading.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Linear_subspaces_with_shading.svg Licenza: GNU Free Documentation License Autori::
Original uploader was Alksentrs at en.wikipedia
File:Determinant Example.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Determinant_Example.png Licenza: Creative Commons Attribution-Sharealike 3.0 Autori::
User:Jakob.scholbach
Immagine:Determinant parallelepiped.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Determinant_parallelepiped.svg Licenza: Creative Commons Attribution 3.0 Autori::
User:Rocchini
Immagine:Determinant.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Determinant.jpg Licenza: Public Domain Autori:: Darapti, Kilom691, Ylebru
File:Determinant 3x3 Example.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Determinant_3x3_Example.svg Licenza: Public Domain Autori:: User:Fiachra, user:Barking Mad142
Immagine:Transvection-1.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Transvection-1.jpg Licenza: GNU Free Documentation License Autori:: GeorgHH, Ylebru, 1 Modifiche
anonime
Immagine:Transvection-2.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Transvection-2.jpg Licenza: GNU Free Documentation License Autori:: GeorgHH, Ylebru, 1 Modifiche
anonime
Immagine:Déterminant-3D.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Déterminant-3D.jpg Licenza: GNU Free Documentation License Autori:: Darapti, GeorgHH, Kilom691,
Pieter Kuiper, Ylebru
File:Eigen.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Eigen.jpg Licenza: Public Domain Autori:: User:Vb
File:Rotating Sphere.gif Fonte:: http://it.wikipedia.org/w/index.php?title=File:Rotating_Sphere.gif Licenza: GNU Free Documentation License Autori:: Maksim, Oleg Alexandrov, W!B:,
WikipediaMaster, 4 Modifiche anonime
File:Rotation illustration.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Rotation_illustration.png Licenza: Public Domain Autori:: HB, Juiced lemon, Maksim, Oleg Alexandrov,
Tano4595, W!B:
File:Standing wave.gif Fonte:: http://it.wikipedia.org/w/index.php?title=File:Standing_wave.gif Licenza: Public Domain Autori:: BrokenSegue, Cdang, Joolz, Kersti Nebelsiek, Kieff,
Mike.lifeguard, Pieter Kuiper, Ptj
File:HAtomOrbitals.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:HAtomOrbitals.png Licenza: GNU Free Documentation License Autori:: Admrboltz, Benjah-bmm27, Dbc334,
Dbenbenn, Ejdzej, Falcorian, Kborland, MichaelDiederich, Mion, Saperaud, 6 Modifiche anonime
File:Eigenfaces.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Eigenfaces.png Licenza: Attribution Autori:: Laurascudder, Liftarn, Man vyi, Ylebru
Immagine:Scalarproduct.gif Fonte:: http://it.wikipedia.org/w/index.php?title=File:Scalarproduct.gif Licenza: GNU Free Documentation License Autori:: Darapti, Flappiefh, Rocha,
Werckmeister, Ysangkok
Immagine:ProdScal1.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:ProdScal1.png Licenza: Creative Commons Attribution-Sharealike 2.5 Autori:: Darapti, HB
Immagine:ProdScal2.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:ProdScal2.png Licenza: Creative Commons Attribution-Sharealike 2.5 Autori:: Darapti, HB
Immagine:TravailForce2.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:TravailForce2.png Licenza: Creative Commons Attribution-Sharealike 2.5 Autori:: HB
Immagine:Wikibooks-logo.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Wikibooks-logo.svg Licenza: logo Autori:: User:Bastique, User:Ramac
File:Gram–Schmidt process.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Gram–Schmidt_process.svg Licenza: Public Domain Autori:: Gustavb
Immagine:Rotating Sphere.gif Fonte:: http://it.wikipedia.org/w/index.php?title=File:Rotating_Sphere.gif Licenza: GNU Free Documentation License Autori:: Maksim, Oleg Alexandrov,
W!B:, WikipediaMaster, 4 Modifiche anonime
Immagine:Rotation illustration.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Rotation_illustration.png Licenza: Public Domain Autori:: HB, Juiced lemon, Maksim, Oleg
Alexandrov, Tano4595, W!B:
File:Rotation in a threedimensional system.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Rotation_in_a_threedimensional_system.png Licenza: GNU Free Documentation
License Autori:: User:E^(nix)
Immagine:Commons-logo.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Commons-logo.svg Licenza: logo Autori:: User:3247, User:Grunt
Immagine:crossproduct.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Crossproduct.png Licenza: Free Art License Autori:: User:Wshun
Immagine:Wiktionary-ico-de.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Wiktionary-ico-de.png Licenza: logo Autori:: Bobit, F l a n k e r, Melancholie, Mxn, Rocket000
Immagine:Rechte-hand-regel.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Rechte-hand-regel.jpg Licenza: GNU Free Documentation License Autori:: User:Abdull
Immagine:Cartesian coordinate system handedness.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Cartesian_coordinate_system_handedness.svg Licenza: GNU Free
Documentation License Autori:: Darapti, Gustavb, 2 Modifiche anonime
File:Simple cog.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Simple_cog.svg Licenza: Public Domain Autori:: User:Pluke
149
Licenza
Licenza
Creative Commons Attribution-Share Alike 3.0 Unported
http:/ / creativecommons. org/ licenses/ by-sa/ 3. 0/
150