1. ALGEBRALINEARE File - e-Learning

Struttura della Materia II
Prof. Francesco Montalenti. U5 II piano
Ricevimento Martedì e Mercoledì 15.30, previo
appuntamento tramite email ([email protected])
Lezioni: Lunedì 9.30-11.30; Giovedì 9.30-11.30
Pausa didattica: 18/11-22/11
Corso strutturato in 5 crediti frontali (40 ore) e 1 di esercitazioni (12 ore)
Modalità esame: scritto con giudizio e sbarramento + orale con voto finale.
Testi consigliati
1. Griffiths, Introduzione alla Meccanica Quantistica
(Casa Editrice Ambrosiana), o equivalente versione inglese
2. Demtröder, Atoms, Molecules and Photons (Springer)
Per approfondire ...
Cohen-Tannoudji, Diu & Laloë, Quantum Mechanics (Wiley)
Brandsen & Joachain, Physics of Atoms and Molecules
(Prentice Hall)
Gruppi e gruppi abeliani
Consideriamo un insieme X, e supponiamo di avere definito l’operazione “*”
tra elementi di X
(* : X x X -> X; attribuisce ad ogni coppia uno e un solo elemento), di modo
che siano verificate le seguenti proprietà:
1. (x*y)*z=x*(y*z) ∀x,y,z∈X -- proprietà associativa
2. ∃ e∈X: e*x=x*e=x ∀x∈X -- esistenza elemento neutro
3. ∀x∈X ∃ xs∈X: x*xs=xs*x=e -- esistenza simmetrico
(1.->3. X è un gruppo)
4. ∀x,y∈X si ha x*y=y*x
Bene, allora (X,*) è un gruppo abeliano (rispetto all’operazione *).
Gruppi e gruppi abeliani
Proprietà semplici da dimostrare:
. elemento neutro e simmetrico di un gruppo sono unici
.. x*y=x*z->y=z
Def. Se X è un gruppo (abeliano), H⊂X, e H è un gruppo (abeliano) rispetto
alla stessa operazione, allora H è detto sottogruppo (abeliano) di X.
Esempi di gruppi abeliani
Es: X=R, e *=usuale somma (+) tra numeri reali -> (R,+) è un gruppo
abeliano. In tal caso, e=0, xs=-x
Es: X=R, e *=usuale prodotto (・) tra numeri reali. 2. e=1. Lo zero non
ammette reciproco. NO!
Es: R\{0}, e *=usuale prodotto (・) tra numeri reali -> (R\{0},・) è un gruppo
abeliano. In tal caso, e=1, xs=x-1
Anche Q\{0}, C\{0} sono gruppi abeliani rispetto al prodotto. Z non è un
gruppo abeliano rispetto al prodotto (non ammette simmetrico, ovvero
reciproco, in Z).
Es: Z,Q,R,C sono gruppi rispetto alla somma. Dato che Z⊂Q⊂R⊂C, ognuno è
sottogruppo (rispetto a +) di quelli che lo contengono.
Esercizio: Si consideri l’insieme {z∈C; |z|=1}. 1. E’ un gruppo rispetto
all’usuale somma tra numeri complessi? 2. E rispetto al prodotto?
Esercizio: Si consideri l’insieme {z∈C; |z|=1}. 1. E’ un gruppo rispetto
all’usuale somma tra numeri complessi? 2. E rispetto al prodotto?
1. z=a+ib; a,b∈R; |z|2=z*z=(a-ib)(a+ib)=a2+b2;
z1=1; z2=(1/√2)+i (1/√2); z3=z1+z2=[1+ (1/√2)]+i (1/√2);
|z3|2=1+0.5+√2+0.5>1 NO GRUPPO RISPETTO A SOMMA
2. z1=a+ib; z2=c+id, con a2+b2=1=c2+d2
z3=z1*z2=ac+iad+ibc-bd=(ac-bd)+i(ad+bc);
|z3|2=(ac-bd)2+(ad+bc)2]=a2c2+b2d22acbd+a2d2+b2c2+2adbc=a2(c2+d2)+b2(c2+d2)->
|z3|2= (c2+d2) (a2+b2)=1. E’ UN GRUPPO (ABELIANO)
Oss: per il punto 2. poteva essere utile la rappresentazione nel piano di
Gauss (a,b):
z=a+ib=ρeiφ; eiφ=cos(φ)+isin(φ); ρ2=(a2+b2);
φ=atan(b/a) se a>0; φ=π+atan(b/a) se a<0
Infatti z3=z1*z2=ρ1ρ2ei(φ1+φ2)->|z3|2=|ρ1|2|ρ2|2=1
b
z(a,b)
ρ
φ
a
Campi
Consideriamo un insieme k, e supponiamo siano definite due operazioni
(ovvero due applicazioni k X k -> k) “+” (“somma”) e “・” (“prodotto”) tali per cui
(k,+) e (k\{0},・) siano gruppi abeliani, con “0” -> elemento neutro rispetto
all’operazione “+”.
Esempi: Q,R,C
Campi
Bene, k è un campo (rispetto a tali somma e prodotto) se vale la proprietà
distributiva del prodotto rispetto alla somma:
∀ a,b,c∈k -> a・(b+c)=a・b + a・c
Esempi: Q,R,C
Def. Se k è un campo, H⊂k, e H è un campo (abeliano) rispetto alle
stesse operazioni, allora H è detto sottocampo di k. Es: Q è un
sottocampo di R e C;
R è un sottocampo di C.
Spazi vettoriali
Sia k un campo. Chiameremo “scalari” gli elementi di k. Si dice che un
insieme V è uno spazio vettoriale sul campo k se:
1. V è un gruppo abeliano rispetto all’operazione di somma
2. Detti “vettori” gli elementi di V, è definita una legge di composizione esterna
f: k X V -> V detta “prodotto di uno scalare per un vettore” che associa ad
ogni coppia (scalare λ,vettore v) uno e un solo vettore denotato λv , con le
seguenti proprietà:
Spazi vettoriali
∀λ,μ∈k, ∀ v1,v2∈V->
1. λ(v1+v2)=λv1+λv2
2. (λ+μ)v1=λv1+μv2
3. (λμ)v1=λ(μv1)
4. 1v1=v1
Def. Il fatto che la somma di due vettori di V sia un elemento di v, così come il
prodotto fra un elemento di k e uno di V di esprime dicendo che V è chiuso
rispetto alla somma di vettori e al prodotto per uno scalare.
Def. Se V è uno spazio vettoriale su k, U⊂V, e U è chiuso rispetto alla
somma di vettori e al prodotto per uno scalare indotti da V, allora U è
detto sottospazio vettoriale di V.
Spazi vettoriali
Sia V uno spazio vettoriale sul campo k, indico con lettere greche gli elementi
del campo, con lettere latine i vettori. Evidentemente, la “combinazione
lineare”:
v=αa+βb+γc+.. è ancora un vettore.
Def. Se un vettore v NON può essere scritto come combinazione lineare di un
insieme di vettori (a,b,c,...), allora v è detto essere linearmente indipendente
dai vettori (a,b,c,...).
Spazi vettoriali
Sia V uno spazio vettoriale sul campo k
Def. 2. Un insieme di vettori (a,b,c,...) è detto linearmente indipendente (come
insieme) se ciascuno di essi è linearmente indipendente da tutti gli altri.
Def. 3. Un insieme di vettori “ricopre” (in inglese “span”) tutto lo spazio
(oppure “è completo”) se qualsiasi vettore dello spazio può essere scritto
come combinazione lineare dei vettori di tale insieme.
Spazi vettoriali
Sia V uno spazio vettoriale sul campo k
Def. 4. Un insieme completo di vettori è detto “base dello spazio vettoriale” se
è linearmente indipendente (come insieme). Il numero di vettori di una base
fornisce la dimensione dello spazio.
Componenti di un vettore
Se indico con (e1,e2,...,en) una possibile base, allora so che ogni vettore può
essere scritto come:
v=α1e1+α2e2+...+αnen
Quindi, se la dimensione dello spazio è pari a n, ogni vettore può essere
rappresentato in maniera univoca dalla sua n-upla di “componenti” rispetto
alla base assegnata, ovvero dagli n scalari che determinano i coefficienti
della combinazione lineare della base.
v↔(α1,.....,αn)
Componenti di un vettore
v↔(α1,.....,αn)
Le componenti permettono di eseguire le operazioni direttamente sugli
scalari. Evidentemente la somma di due vettori è il vettore che ha come
componente i-esima la somma delle componenti i-esime dei due vettori, il
prodotto di uno scalare per un vettore si ottiene moltiplicando ogni
componente per lo scalare, l’elemento neutro è una n-upla di zeri, il vettore
inverso è ottenuto cambiando segno ad ogni componente. Questo può
facilitare molto le cose, riduce conti tra vettori “astratti” a semplici operazioni
(tipicamente su numeri complessi).
Attenzione però alla dipendenza dalla base!
Esempi di spazi vettoriali (I)
Sia k un campo. Lo 0 della somma definita su k è uno spazio vettoriale, detto
nullo. A questo spazio appartiene un unico elemento, lo 0. Si attribuisce a
tale spazio dimensione nulla.
Sia k un campo. Le due operazioni di somma e prodotto definite sul campo
possono anche essere interpretate come operazioni di somma di vettori e di
prodotto di uno scalare per un vettore. A dire che un campo k può sempre
essere visto come spazio vettoriale su se stesso. (R è un campo, ma è
anche uno spazio vettoriale su R).
Esempi di spazi vettoriali (I)
Fisso n≥1 e un campo k. Considero l’insieme V di tutte le n-uple che posso
formare con gli elementi del campo. Bene, definendo in V la somma di vettori
come somma delle componenti, e il prodotto scalare per vettore come
prodotto per uno scalare di tutte le componenti creo uno spazio vettoriale, kn.
Esempi di spazi vettoriali (II)
Considero k[x]=insieme dei polinomi in una variabile a coefficienti complessi.
Utilizzando le note regole di somma tra i polinomi (sommo i coefficienti di
termini di pari grado), e di prodotto di un polinomio per uno scalare, vedo
subito che k[x] è uno spazio vettoriale (di dimensione infinita)
Esempi di spazi vettoriali (II)
Sia dato un insieme S, e si costruisca kS= insieme composto da tutte le
funzioni f:S->k, dove k è un campo. Bene, kS è uno spazio vettoriale su k, pur
di definire puntualmente (è quello che facciamo sempre) somma di funzioni e
prodotto di una funzione per uno scalare:
∀ x ∈ S, ∀ f,g ∈ kS, (f+g)(x)=f(x)+g(x);
∀ Φ ∈ k, ∀ f ∈ kS, (Φ f)(x)= Φf(x).
Esempi di basi
1. Considero un campo k, e lo spazio vettoriale kn costituito dalle n-uple formate
con gli elementi di k. Una base ovvia di kn è data dalla “base standard” (in cui
“1” rappresenta l’elemento neutro del prodotto sul campo k)
e1=(1 0 0 0 ...), ....., en=(0 0 ... 0 1)
2. I due elementi 1 e i costituiscono una base per lo spazio vettoriale C su R
(dim=2). (E per C su C?)
3. L’insieme {1,x2,x3,x4,....,xn} è una base per lo spazio kn[x] dei polinomi a
coefficienti complessi (ma anche reali) di grado inferiore o uguale a n.
Ne vedremo molte altre ....
Spazi pre-hilbertiani e spazi di Hilbert
Sia V uno spazio vettoriale su campo complesso, e sia definita
un’applicazione V X V -> C che associa ad ogni coppia di vettori u,v lo
scalare ≺u∣v≻. Se valgono le seguenti proprietà ∀ u,v,w∈V e ∀λ∈C⇒
1. ≺u+v∣w≻= ≺u∣v≻+≺v∣w≻
2. ≺u∣λv≻=λ≺u∣v≻
3. ≺u∣v≻=≺v∣u≻* (indicheremo con * il complesso coniugato)
4. ≺u∣u≻>0 se u≠0; ≺u∣u≻=0 se u=0 (che sia reale segue dalla 3.)
allora l’applicazione è detta prodotto interno, e lo spazio V è detto spazio
vettoriale con prodotto interno, o spazio vettoriale hermitiano o spazio
vettoriale unitario o spazio vettoriale pre-hilbertiano.
Spazi pre-hilbertiani e spazi di Hilbert
Oss. L’estrazione di uno scalare dalla parte sinistra del prodotto interno porta
a una coniugazione complessa:
≺λu∣v≻=≺v∣λu≻*=(λ≺v∣u≻)*=λ*≺v∣u≻*=λ*≺u∣v≻
Noi avremo a che fare con spazi di Hilbert, che godono di qualche proprietà
in più degli spazi pre-hilbertiani che però non utilizzeremo per cui non stiamo
a specificarla.
Spazi pre-hilbertiani e spazi di Hilbert
Si è detto che ∀u∈C, u≠0, ≺u∣u≻>0
Def. La norma di un vettore è il numero reale positivo ∣∣u∣∣≡ ≺u∣u≻
Def. Due vettori u e v sono detti ortogonali se ≺u∣v≻=0
Def. Un gruppo di vettori (a1,a2,...,an) mutuamente ortogonali e di norma
unitaria è detto insieme ortonormale. Al suo interno varrà la relazione:
≺ai∣aj≻=δ
Spazi pre-hilbertiani e spazi di Hilbert
ATTENZIONE: Dato uno spazio di (pre-)Hilbert, è sempre possibile trovare
una base ortonormale (procedura di Gram-Schmidt)
Parto da una base qualunque (e1,e2,...,en), poi costruisco
f1=e1/∣∣e1∣∣; g2=e2-≺f1∣e2≻f1 ⇒
≺f1∣g2≻=≺f1∣e2≻-≺f1∣e2≻≺f1∣f1≻=0; pongo f2=g2/∣∣g2∣∣;
g3=e3-≺f1∣e3≻f1-≺f2∣e3≻f2; pongo f3=g3/∣∣g3∣∣ .....
Spazi pre-hilbertiani e spazi di Hilbert
Scelta una possibile base ortonormale per lo spazio di Hilbert, emerge nel
caso più generale, il “tipico” prodotto interno che conosciamo. Cioè:
Sia e1,e2,e3,...,en la base ortonormale (detta anche “sistema ortonormale
completo, o “sonc”), e siano u e v due vettori dello spazio. Sarà sempre
possibile scrivere:
u=α1e1+α2e2+...+αnen;
v=β1e1+β2e2+...+βnen ⇒
Spazi pre-hilbertiani e spazi di Hilbert
u=α1e1+α2e2+...+αnen;
v=β1e1+β2e2+...+βnen ⇒
≺u∣v≻=α1*β1+α2*β2+...+αn*βn;
≺u∣u≻=|α1|2+|α2|2+...+|αn|2
Oss: u=α1e1+α2e2+...+αnen⇒αi=≺ei∣u≻
Tutto molto comodo!
In seguito, se non altrimenti specificato, useremo sempre basi ortonormali.
Operatori lineari
Dati due spazi vettoriali V e V’ sul medesimo campo k, si dice che
Â: V->V’ è un omomorfismo (o applicazione lineare) se:
. ∀v1,v2∈V, Â(v1+v2)=Â(v1)+Â(v2) (additiva)
.. ∀v∈V, ∀λ∈k, Â(λv)=λÂ(v) (omogenea di grado 1)
Se poi V=V’, allora  è detta endomorfisimo, o operatore lineare.
Un endomorfismo biiettivo è detto isomorfismo.
Operatori lineari
Oss: Se so come un operatore lineare  agisce su una base (e1, ....,en) di
V, allora so come agisce su un qualunque vettore. Infatti:
Âe1∈V⇒posso sempre scrivere:
Âe1=T11 e1 + T21 e2 + T31 e3 + .... +Tn1 en; con Tij opportuni scalari. Inoltre:
Âe2=T12 e1 + T22 e2 + T32 e3 + .... +Tn2 en;
....
Âen=T1n e1 + T2n e2 + T3n e3 + .... +Tnn en⇒
Âej= ∑i Aij ei (i=1,n)
Operatori lineari
Âej= ∑i Aij ei (i=1,n)
nota: è uguale il primo indice
Ora, dato v∈V, posso scrivere v=v1e1+v2e2+.....+vnen
v= ∑l vl el (l=1,n)
Âv= Â∑l vl el=∑l vlÂel (l=1,n)⇒
Âv=∑l vl ∑i Ail ei=∑l ∑i vlAil ei⇒
Âv= ∑i(∑l vlAil)ei (l=1,n; i=1,n)⇒
v= ∑i vi ei (i=1,n)
Âv= ∑i vi’ ei; vi’ = ∑jAijvj
nota: è uguale il secondo indice
Operatori lineari
v= ∑i vi ei (i=1,n)
Âv= ∑i vi’ ei; vi’ = ∑jAijvj (*)
Quindi, fissata una base, un operatore lineare che agisce su un vettore
altro non fa che trasformare un le sue componenti secondo la (*).
Gli n2 elementi Aij caratterizzano univocamente l’operatore lineare
rispetto alla base data. La matrice di elementi Aij viene detta matrice
rappresentativa dell’operatore  (rispetto alla base assegnata).
Operatori lineari
A=
( )
A11 ... A1n
A21 ... A2n
...
An1 .... Ann
Oss. Se gli ej sono una base ortonormale, da
subito che Aij= ≺ei∣Âej>
Âej= ∑l Alj el si vede
Somma di operatori lineari
Dovrebbe ormai apparire naturale la definizione di somma tra operatori
lineari:
(Â+Ĉ)v≡Â(v)+Ĉ(v)≡Ĝ(v). Ovviamente, la matrice rappresentativa
dell’operatore somma Ĝ è ottenibile con le usuali regole di somma tra
matrici:
G=
( )
G11 ... G1n
G21 ... G2n
...
Gn1 .... Gnn
Gij=Aij+Cij
Prodotto di operatori lineari
Definisco il “prodotto” tra operatori lineari come risultato dell’applicazione
successiva dei due operatori.
Sia v’=Âv e v’’=Ĉ(v’)=Ĉ(Âv)≡ĈÂv≡Ĝv. Cerco la matrice
rappresentativa dell’applicazione prodotto (composta):
so che, in generale, se le componenti di v sono (v1,..,vn), allora le
componenti di Ĝv, (v’’1,..,v’’n) sono del tipo:
v’’i=∑jGijvj; D’altro canto
v’’i=∑jCijv’j, e v’j=∑lAjlvl⇒
v’’i=∑jGijvj = ∑jCij∑lAjlvl = ∑l∑j(CijAjl)vl
=∑j∑l(CilAlj)vj
Prodotto di operatori lineari
v’’i=∑jGijvj=∑jCij∑lAjlvl=∑l∑j(CijAjl)vl=∑j∑l(CilAlj)vj⇒
Gij=∑l(CilAlj)
Per trovare l’elemento ij del prodotto seleziono la riga i-esima di C e la
colonna j-esima di A, moltiplico il primo elemento della riga per il primo
della seconda, il secondo col secondo, etc., e sommo tutto. E’ proprio il
prodotto tra matrici!!!
Trovato per matrici quadrate, ma vale anche come def. di prodotto tra
matrici rettangolari, purchè il numero di colonne della prima sia pari al
numero di righe della seconda. A tale proposito, notare che:
Prodotto di operatori lineari
la trasformazione di coordinate di v prodotta dall’applicazione
dell’operatore Â:
v’j=∑lAjlvl può anche essere vista come prodotto matriciale riga per
colonna, pur di rappresentare v come vettore colonna di n righe e 1
colonna:
v’=Av.
Notare l’assenza di “cappuccio”, è del tipo
(nx1)=(nxn)x(nx1)
Data una matrice A di elementi Aij, la sua trasposta è la matrice At di
elementi Aji.
Una matrice quadrata A è simmetrica se A=At; è antisimmetrica se A=-At
La matrice (complessa) coniugata di A, A*, è la matrice di elementi Aij*
Una matrice è reale (immaginaria) se tutti gli Aij sono reali (immaginari),
per cui A=A* (A=-A*);
L’hermitiana coniugata, o aggiunta, di una matrice A è la sua trasposta
coniugata: A=(A*)t≡A†.
Una matrice quadrata è hermitiana, o autoaggiunta, se
A=A† e antihermitiana se A=-A†
Oss: dati due vettori dello spazio di Hilbert u e v, il loro prodotto interno
può essere espresso in modo immediato in forma matriciale:
<u∣v>=u†v,
inteso come prodotto matriciale tra la matrice (1xn) u†, ottenuta
coniugando le n componenti di u e disponendole in riga, e la matrice
(nx1) data dal vettore-colonna con le componenti di v.
Attenzione: date due matrici quadrate (per le altre non ha senso)A e C, in
generale:
AC≠CA;
[A,C]≡AC-CA si dice commutatore tra A e C.
Inolte:
(AC)t=CtAt
(AC)†=C†A†
Def. L’inversa di una matrice A, detta A-1, è definita da:
A-1A=AA-1=I; Iij=δij
Una matrice A ammette inversa se e solo se il suo determinante è ≠0. In
tal caso:
A-1=(1/detA)Cof t
dove Cof è la matrice dei cofattori. Il suo elemento (ij) è dato da (-1)i+j
moltiplicato per il determinante della sottomatrice di A ottenuta
cancellando la riga i e la colonna j.
Se una matrice NON è invertibile (non ammette inversa), si dice
singolare.
Se il prodotto tra matrici AC ammette inversa, allora:
(AC)-1=C-1A-1
Una matrice è unitaria se la sua inversa è uguale alla sua coniugata
hermitiana:
A-1=A†.
Se poi gli elementi di A sono reali, allora l’inversa di A coincide con la
sua trasposta, e si parla di matrice ortogonale (es, rotazioni in 3D in
R3)
Proprietà fondamentale delle matrici unitarie.
Considero due vettori u e v dello spazio di Hilbert. Sappiamo che:
<u∣v>=u†v (l’uso delle maiuscole è inutile ..)
Adesso considero A unitaria e calcolo il prodotto interno tra Au e Av:
<Au∣Av>=(Au)†(Av)=u†A†Av=u† A-1Av=u†v=<u∣v>.
Gli operatori lineari rappresentati da matrici unitarie lasciano inalterati i
prodotti interni!
Cambiamenti di base
Consideriamo due basi (e1,...,en) e (f1,...,fn) di uno stesso spazio di
Hilbert. Come tutti i vettori dello spazio, quelli della prima base saranno
esprimibili mediante opportuna combinazione lineare di quelli della
seconda:
e1=S11f1+...+Sn1fn
...
en=S1nf1+...+Snnfn
ej=∑i Sijfi (*)
in R3 sarebbe ej=∑iSijfi do’ per scontato che
si capisca che ej è un vettore, non la
componente di un vettore ...
ej=∑i Sijfi (*)
v=v1e1+...+vnen=∑kvkek
Dato che lavoro con due basi esplicito meglio il fatto che vk indica la
componente k-esima nella base e:
v=∑k(vk)eek;
v=∑k(vk)e∑iSikfi=∑i(∑kSik(vk)e)fi➞
(vi)f=∑jSij(vj)e➞in forma matriciale:
vf=Sve
vf=Sve
Oss: Deve valere anche per i vettori della base, per cui (fi)f=S(fi)e.
Oss. (II) Nel passaggio da una base a un’altra, le coordinate di un vettore
si trasformano in modo analogo a quello che succede se, fissata la base,
un operatore lineare agisce sul vettore.
Come cambia invece la matrice rappresentativa di una trasformazione
lineare Â?
Sappiamo che (v)f=S(v)e da cui (v)e=S-1(v)f; D’altronde, se (v’)e=(A)e(v)e,
allora (v’)f=S(v’)e=S(A)e(v)e=S(A)eS-1(v)f≡(A)f(v)f con
(A)f=S(A)eS-1
In generale due matrici A e B tali per cui esiste una S non singolare che
garantisce l’eguaglianza:
A=SBS-1 sono dette simili.
Quindi, matrici che rappresentano lo stesso operatore lineare  in basi
diverse sono simili tra loro.
Esercizio: si trovi la matrice del cambiamento di base S e la sua inversa per le due
basi qui sotto riportate
base
standard
e1=
base alternativa
()() ()
()() ()
e2=
f1=
1
0
0 e3=
0
1
0
0
0
1
0
1f2=
0
1
0
1
2
1-i
1
f3=
(fi)f=S(fi)e
base
standard
()() ()
()() ()
1
0
0
e1=
e2=
base alternativa
f1=
0
1
0
0
0
1
1
0
1
2
1-i
1
e3=
0
1
f2=
0
f3=
x es: (f3)f=S(f3)e
( )(
1
0
0
=
S11 S12 S13
S21 S22 S23
S31 S32 S33
)( )
2
1-i
1
base
standard
()() ()
()() ()
1
0
0
e1=
e2=
base alternativa
f1=
0
1
0
0
0
1
1
0
1
2
1-i
1
e3=
0
1
f2=
0
f3=
E’ più facile trovare l’inversa (f1)e=S-1(f1)f≡A(f1)f
( )(
0
1
0
=
A11 A12 A13
A21 A22 A23
A31 A32 A33
)( )
1
0
0
(f1)e=S-1(f1)f≡A(f1)f
f1=
()() ()
0
1
f2=
0
f3=
1
0
1
2
1-i
1
(f1)e=S-1(f1)f≡A(f1)f
( )(
0
1
0
A11 A12 A13
A21 A22 A23
A31 A32 A33
=
)( )
1
0
0
(I) 0=A11 (II) 1=A21 (III) 0=A31
(f2)e=S-1(f2)f≡A(f2)f
( )(
1
0
1
=
A11 A12 A13
A21 A22 A23
A31 A32 A33
)( )
(IV) 1=A12 (V) 0=A22 (VI) 1=A32
0
1
0
(I) 0=A11 (II) 1=A21 (III) 0=A31
(IV) 1=A12 (V) 0=A22 (VI) 1=A32
(f3)e=S-1(f3)f≡A(f3)f
( )(
2
1-i
1
=
A11 A12 A13
A21 A22 A23
A31 A32 A33
)( )
(VIII) 2=A13 (IX) 1-i=A23 (X) 1=A33
0
0
1
(I) 0=A11 (II) 1=A21 (III) 0=A31
(IV) 1=A12 (V) 0=A22 (VI) 1=A32
(VIII) 2=A13 (IX) 1-i=A23 (X) 1=A33
( )
( )( )
S-1
=
0 1 2
1 0 1-i
0 1 1
(Oss: det=1)
t
S=
i-1 -1 1
1 0 0
1-i 2 -1
=
i-1 1 1-i
-1 0 2
1 0 -1
Risultati utili (I/II):
I. Se la base di partenza è ortonormale, quella di arrivo rimane
ortonormale se e solo se S è unitaria, per cui: (A)f=S(A)eS†
II. se S è unitaria e (A)e è hermitiana, allora (A)f è hermitiana
III. l’operazione di similitudine conserva il prodotto tra matrici, ovvero:
se (A)e(B)e=(C)e, allora (A)f(B)f=(C)f.
Risultati utili (II/II):
Da proprietà note delle matrici (il determinante di
un prodotto è uguale al prodotto dei determinanti + la traccia di un
prodotto è uguale al prodotto delle tracce) seguono immediatamente la
seguente proprietà importante:
IV. Il determinante e la traccia della matrice associata a un operatore
lineare NON dipendono dalla scelta della base. Infatti, ad esempio:
det[(A)f]= det[S(A)eS-1]=det[S]det[(A)e]det [S -1]=
= det[(A)e]
Autovettori e autovalori.
Consideriamo l’operatore lineare Â. Se un vettore (non nullo) v dello
spazio su cui opera  è tale da verificare:
Âv=λv, con λ∈C, allora v è detto autovettore di Â, e lo scalare λè
l’autovalore associato a v. Adesso scegliamo una base e consideriamo la
relazione matriciale:
Av=λv (*); v≠vettore nullo.
dove, per semplicità, non ho indicato esplicitamente che A=(A)e, e che
v=(v)e. La (*) equivale a:
(A-λI)v=0 dove I è la matrice identità e “0” rappresenta la matrice nulla.
(A-λI)v=0.
Se esistesse (A-λI)-1, allora potrei applicarla ad ambo i membri, ottenendo
v=0, contrariamente all’assunzione iniziale. Quindi, v può essere
autovettore solo se
det(A-λI)=0, ovvero:
|
(A11-λ) A12 ... A1n
A21 (A22-λ) ... A2n
...
An1 An2 ... (Ann-λ)
|
=0
|
(A11-λ) A12 ... A1n
A21 (A22-λ) ... A2n
...
An1 An2 ... (Ann-λ)
|
=0
Imporre detA=0 porta ad un’equazione algebrica di grado n in λ:
Cnλn+Cn-1λn-1+...+C0=0 (*)
dove i coefficienti Ci nell’equazione caratteristica (*) sono numeri complessi che dipendono
dagli elementi di A.
Gli n autovalori sono determinati dalle n radici dell’equazione caratteristica. Ovviamente,
alcune radici possono essere multiple.
L’insieme di tutti gli autovalori di A si chiama spettro di A.
Cnλn+Cn-1λn-1+...+C0=0 (*)
Uno spettro è non degenere se non esistono due autovettori linearmente indipendenti che
condividono lo stesso autovalore.
(Notare che se u è autovettore di A corrispondente all’autovalore λ, allora cu è ancora
autovettore di A corrispondente a λ, ma cu è linearmente dipendente, non porta a
degenerazione).
Altrimenti è degenere.
Se Afi=λifi, i=1,...n, e l’insieme degli fi ricopre tutto lo spazio (non sempre è
vero) allora posso usare gli autovettori fi come base per rappresentare A. E’
particolarmente conveniente ....
Nella vecchia base e, ogni fi avrà certe componenti ...
(fi)e=
( )
(fi)1e
...
...
(fi)ne
Costruisco la matrice (F-1)e (sarà una nxn) di modo che la sua colonna i-sima
sia composta dalle componenti dell’i-esimo autovettore:
(F-1)e=
( )
(f1)1e... (fn)1
...
...
(f1)ne ... (fn)ne
( )
( )
-1
e
(F ) =
(f1)1e... (fn)1
...
...
(f1)ne ... (fn)ne
Considero la matrice Λ
(Λ)e=
Λ1 0 0 ... 0
0 Λ3 0 ... 0
...
0 0 ... Λn
-1
e
(F ) =
( ) ( )
(
)
(f1)1e... (fn)1e
...
...
(f1)ne ... (fn)ne
(F-1Λ)e=
(Λ)e=
Λ1(f1)1e Λ2(f2)1e... Λn(fn)1e
Λ1(f1)2e Λ2(f2)2e... Λn(fn)2e
...
....
Λ1(f1)ne Λ2(f2)ne... Λn(fn)ne
Λ1 0 0 ... 0
0 Λ2 0 ... 0
...
0 0 ... Λn
-1
(F
Λ
e
)=
(
Λ1(f1)1e Λ2(f2)1e... Λn(fn)1
Λ1(f1)2e Λ2(f2)2e... Λn(fn)2
...
....
Λ1(f1)ne Λ2(f2)ne... Λn(fn)n
)
-1
e
=(AF )
Infatti. Il generico elemento lm di AF-1 è dato dalla riga l di A per la
colonna m di F-1, che è fm.
Ma Afm=λmfm, il che vuol dire che se moltiplico la riga l-sima di A per
fm ottengo λm x la componente l-sima di fm. Che è proprio (F-1Λ)lm.
(F-1Λ)=(AF-1)→
Λ=FAF-1
La matrice A è simile a una matrice diagonale (con gli autovalori sulla diagonale
stessa)!
Per definizione, si dice allora che A è diagonalizzabile.
Di nuovo, attenzione!Il fatto di trovare gli autovalori e gli autovettori di una
matrice non mi garantisce che questa sia diagonalizzabile. Non tutte le matrici
sono simili a quella diagonale degli autovalori, non scordiamoci la richiesta che
gli autovettori coprano l’intero spazio.
Risultato: se l’equazione caratteristica ha n soluzioni distinte, allora la matrice è
sicuramente diagonalizzabile. Ma è solo condizione sufficiente, posso avere
matrici diagonalizzabili anche con autovalori di molteplicità superiore a 1.
Vale il seguente risultato: una matrice è diagonalizzabile se e solo se i suoi
autovettori ricoprono tutto lo spazio.
Si trova anche così (teorema di diagonalizzabilità): una matrice è
diagonalizzabile se e solo se la molteplicità (algebrica) di ogni suo autovalore è
pari alla sua molteplicità geometrica (dimensione del sottospazio generato dai
corrispondenti autovettori)
A=
( )
11
01
→
A-λI=
(1-λ)2=0→λ=1(m.a. 2)
b=0, a qualunque:
non posso generare
autovettori indip. da
1-λ 1
0 1-λ
( )
; A-λI=0 →
1
0
()
; det(A-λI)=0
0 1
0 0
a
b
0
0
( ) () ()
=
(m.g. 1, non posso diag.)
Una matrice è diagonalizzabile se e solo se la molteplicità (algebrica) di ogni
suo autovalore è pari alla sua molteplicità geometrica (dimensione del
sottospazio generato dai corrispondenti autovettori)
A=
( )
10
01
→
(1-λ)2=0→λ=1(m.a.
A-λI=
2)
1-λ 0
0 1-λ
( )
; A-λI=0 →
; det(A-λI)=0
0 0
0 0
a
b
a qualunque, b qualunque:
1
0
(m.g. 2, posso diagonalizzare. Ok, era ovvio ..)
0
1
() ()
0
0
( ) () ()
=
Ricordiamo che la matrice rappresentativa di un’applicazione lineare è definita
dalla sua azione sulla base:
Âfj= ∑i Aij fi (i=1,n). Se come base scelgo gli autovettori, allora
∑i Aij fi=λjfj, ovvero Aij=λjδij. Se due matrici sono simili, allora esiste un cambiamento
di base che porta una matrice nell’altra. Dire che Λ=FAF-1 equivale a dire che la
base d’arrivo è quella degli autovettori, e la F ha proprio il significato della S
(matrice di trasformazione di base).
Esercizio: trovare autovettori e autovalori di
M=
( )
2 0 -2
-2i i 2i
1 0 -1
E’ diagonalizzabile? Se sì, verificare che sia effettivamente simile alla matrice
diagonale costruita con gli autovalori
M=
( )
2 0 -2
-2i i 2i
1 0 -1
Esercizio: trovare autovettori e autovalori di
M=
( )
2 0 -2
-2i i 2i
1 0 -1
Oss: detM
=(2*i*-1)+(-2i*0*-2)+(1*0*2i)-(-2*i*1)-(2i*0*2)-(-1*0*-2i)
detM=0; ok, mi aspetto che (almeno) un autovalore sia nullo.
Esercizio: trovare autovettori e autovalori di
M-λI=
(
2-λ 0 -2
-2i i-λ 2i
1 0 -1-λ
)
Oss: det(M-λI)=
=[(2-λ)*(i-λ)*(-1-λ)]-[-2*(i-λ)]
=(i-λ)[(λ-2)(λ+1)+2]=0 ⇔
λ=λ1=i; [λ2-λ]=0; λ=λ2=0; λ=λ3=1
Ok, ho 3 autovalori non degeneri. In realtà già questo mi
assicura che sia diagonalizzabile, ma controlliamo m.a.
e m.g. in ogni caso.
Esercizio: trovare autovettori e autovalori di
M-λ1I=0→
( )( )
2-i 0 -2
-2i 0 2i
1 0 -1-i
1. λ1=i
2a-ia-2c=0(1)
-2ia+2ic=0 (2)
a-c-ic=0 (3)
Dalla (2) a=c, inserisco in (1): a(3-i)=0→a=0=c
λ1=i;v1=
()
0
1
0
m.g.=m.a=1
a
b
c
=0
Esercizio: trovare autovettori e autovalori di
M-λ2I=0→
( )( )
2 0 -2
-2i i 2i
1 0 -1
1. λ2=0
2a-2c=0 (1)
-2ia+ib+2ic=0 (2)
a=c (3)
Dalla (2) con a=c, b=0
λ2=0;v2=
()
1
0
1
m.g.=m.a=1
a
b
c
=0
Esercizio: trovare autovettori e autovalori di
M-λ3I=0→
( )( )
1 0 -2
-2i i-1 2i
1 0 -2
a
b
c
=0
1. λ3=1
a-2c=0 (1)
-2ia+ib-b+2ic=0 (2)
a=2c (3)
Dalla (2) con a=2c, b(i-1)=ia→b=ia/(i-1)=-ia(i+1)/2=a(1-i)/2
λ3=1;v3=
()
2
1-i
1
m.g.=m.a=1 (OK, è diagonalizzabile)
Espressi nella base
standard e
e1=
Gli autovettori
sono
()() ()
()() ()
e2=
f1=
E’ l’esercizio di prima!!!
1
0
0 e3=
0
1
0
0
0
1
0
1f2=
0
1
0
1
2
1-i
1
f3=
( )
( )( )
( )( ) ( )
S-1=
0 1 2
1 0 1-i
0 1 1
Vedi esercizio precedente!
t
S
=
M
2 0 -2
-2i i 2i
1 0 -1
i-1 -1 1
1 0 0
1-i 2 -1
i-1 1 1-i
-1 0 2
1 0 -1
=
S-1
0 1 2
-1 0 1-i
0 1 1
=
0 0 2
i 0 -i+1
0 0 1
MS-1
S
(
i-1 1 1-i
-1 0 2
1 0 -1
)(
0 0 2
i 0 -i+1
0 0 1
)(
=
Ok, trovando autovalori e autovettori e esprimento M
nella base dei suoi autovettori ottengo una matrice
diagonale, con gli autovalori sulla diagonale.
i 0 0
0 0 0
0 0 1
)
A=A†
Risultati importanti (non li dimostriamo):
Le matrici hermitiane
e quelle unitarie
(matrice unitaria E hermitiana?)
A-1=A†
sono sempre diagonalizzabili!
Due matrici che commutano in una certa base commutano
in ogni base.
Due matrici sono diagonalizzabili simultaneamente (quindi, esiste un’unica base in
cui entrambe sono diagonali) se e solo se commutano.
A=A†
Matrici e trasformazioni hermitiane.
Abbiamo definito una MATRICE hermitiana se
Ora diamo una definizione più generale di
OPERATORE lineare hermitiano (o Trasformazione lineare hermitiana).
Def. Dato un operatore lineare A rappresentato dalla matrice A, l’operatore
coniugato hermitiano di Â, detto †, è definito da:
<u∣Âv>≡<†u∣v>
l’operatore coniugato hermitiano di Â, detto †, è definito da:
<u∣Âv>≡<†u∣v>
Reminder sulla notazione: se scrivo Âv vuol dire che sto pensando v (e Âv) come
semplice elemento dello spazio di Hilbert, senza alcun riferimento ad una base
fissata.
Quando scrivo Av, con A=matrice rappresentativa in una base fissata, allora
perchè la scrittura abbia un senso, devo immaginare v come vettore colonna delle
sue componenti nella stessa base.
l’operatore coniugato hermitiano di Â, o “aggiunto” di Â, detto †, è definito da:
<u∣Âv>≡<†u∣v> (è una buona definizione? Sì, per il teorema di
rappresentazione di Riesz sullo spazio duale ...).
Connessione con il concetto di matrice coniugata hermitiana:
In una base ortonormale l’aggiunto † di un operatore lineare  è rappresentato
dalla coniugata hermitiana della matrice A.
In una base ortonormale l’aggiunto † di un operatore lineare  è rappresentato
dalla coniugata hermitiana della matrice A.
Dim
<u∣v>=u†v (con u e v intesi come vettori colonna)
<u∣Âv>=u†(Av)=(u†A)(v) =(A†u)†v
<†u∣v>=(Bu)†v (inizio a indicare con B la matrice rappresentativa di †
Ma dalla definizione di † (<u∣Âv>=<†u∣v>)→B= A†
Un operatore di dice hermitiano, o autoaggiunto, se Â=†.
Proprietà fondamentali:
1. Gli autovalori di un operatore hermitiano sono reali.
Dim
Âv=λv⇒ <v∣Âv>= <v∣λv>=λ<v∣v>
D’altronde <v∣Âv>=<†v∣v>=<Âv∣v>=<λv∣v>=λ*<v∣v>⇒λ=λ*
2. Gli autovettori di un operatore hermitiano che appartengono
ad autovalori distinti sono ortogonali.
Dim
Âv=λv; Âu=μu; <v∣Âu>=μ<v∣u>; ma se l’operatore è hermitiano, allora
<v∣Âu>=<Âv∣u>=λ*<v∣u>=λ<v∣u>=μ<v∣u>. Dato che λ≠μ⇒<v∣u>=0
3. Gli autovettori di un operatore hermitiano ricoprono tutto lo
spazio (sono un sistema completo).