1. ALGEBRALINEARE File - e-Learning

annuncio pubblicitario
Struttura della Materia II
Prof. Francesco Montalenti. U5 II piano
Ricevimento Martedì e Mercoledì 15.30, previo
appuntamento tramite email ([email protected])
Lezioni: Lunedì 9.30-11.30; Giovedì 9.30-11.30
Pausa didattica: 18/11-22/11
Corso strutturato in 5 crediti frontali (40 ore) e 1 di
esercitazioni (12 ore)
Modalità esame: scritto con giudizio e sbarramento + orale
con voto finale.
Testi consigliati
1. Griffiths, Introduzione alla Meccanica Quantistica
(Casa Editrice Ambrosiana), o equivalente versione inglese
2. Demtröder, Atoms, Molecules and Photons (Springer)
Per approfondire ...
Cohen-Tannoudji, Diu & Laloë, Quantum Mechanics (Wiley)
Brandsen & Joachain, Physics of Atoms and Molecules
(Prentice Hall)
Gruppi e gruppi abeliani
Consideriamo un insieme X, e supponiamo di avere
definito l’operazione “*” tra elementi di X
(* : X x X -> X; attribuisce ad ogni coppia uno e un solo
elemento), di modo che siano verificate le seguenti
proprietà:
1. (x*y)*z=x*(y*z) ∀x,y,z∈X -- proprietà associativa
2. ∃ e∈X: e*x=x*e=x ∀x∈X
-- esistenza elemento neutro
3. ∀x∈X ∃ xs∈X: x*xs=xs*x=e -- esistenza simmetrico
(1.->3. X è un gruppo)
4. ∀x,y∈X si ha x*y=y*x
Bene, allora (X,*) è un gruppo abeliano (rispetto
all’operazione *).
Gruppi e gruppi abeliani
Proprietà semplici da dimostrare:
. elemento neutro e simmetrico di un gruppo sono unici
.. x*y=x*z->y=z
!
Def. Se X è un gruppo (abeliano), H⊂X, e H è un gruppo
(abeliano) rispetto alla stessa operazione, allora H è detto
sottogruppo (abeliano) di X.
Esempi di gruppi abeliani
Es: X=R, e *=usuale somma (+) tra numeri reali -> (R,+) è
un gruppo abeliano. In tal caso, e=0, xs=-x
Es: X=R, e *=usuale prodotto (・) tra numeri reali. 2. e=1. Lo
zero non ammette reciproco. NO!
Es: R\{0}, e *=usuale prodotto (・) tra numeri reali -> (R
\{0},・) è un gruppo abeliano. In tal caso, e=1, xs=x-1
Anche Q\{0}, C\{0} sono gruppi abeliani rispetto al
prodotto. Z non è un gruppo abeliano rispetto al prodotto
(non ammette simmetrico, ovvero reciproco, in Z).
Es: Z,Q,R,C sono gruppi rispetto alla somma. Dato che
Z⊂Q⊂R⊂C, ognuno è sottogruppo (rispetto a +) di quelli che
lo contengono.
Esercizio: Si consideri l’insieme {z∈C; |z|=1}. 1. E’ un
gruppo rispetto all’usuale somma tra numeri complessi? 2.
E rispetto al prodotto?
Esercizio: Si consideri l’insieme {z∈C; |z|=1}. 1. E’ un
gruppo rispetto all’usuale somma tra numeri complessi? 2.
E rispetto al prodotto?
!
1. z=a+ib; a,b∈R; |z|2=z*z=(a-ib)(a+ib)=a2+b2;
z1=1; z2=(1/√2)+i (1/√2); z3=z1+z2=[1+ (1/√2)]+i (1/√2);
|z3|2=1+0.5+√2+0.5>1 NO GRUPPO RISPETTO A SOMMA
!
2. z1=a+ib; z2=c+id, con a2+b2=1=c2+d2
z3=z1*z2=ac+iad+ibc-bd=(ac-bd)+i(ad+bc);
|z3|2=(ac-bd)2+(ad+bc)2]=a2c2+b2d2-2acbd
+a2d2+b2c2+2adbc=a2(c2+d2)+b2(c2+d2)->
|z3|2= (c2+d2) (a2+b2)=1. E’ UN GRUPPO (ABELIANO)
Oss: per il punto 2. poteva essere utile la rappresentazione
nel piano di Gauss (a,b):
z=a+ib=ρeiφ; eiφ=cos(φ)+isin(φ); ρ2=(a2+b2);
φ=atan(b/a) se a>0; φ=π+atan(b/a) se a<0
Infatti z3=z1*z2=ρ1ρ2ei(φ1+φ2)->|z3|2=|ρ1|2|ρ2|2=1
b
z(a,b)
ρ
φ
a
Campi
Consideriamo un insieme k, e supponiamo siano definite
due operazioni (ovvero due applicazioni k X k -> k)
“+” (“somma”) e “・” (“prodotto”) tali per cui (k,+) e (k
\{0},・) siano gruppi abeliani, con “0” -> elemento neutro
rispetto all’operazione “+”.
Esempi: Q,R,C
Campi
Bene, k è un campo (rispetto a tali somma e prodotto) se
vale la proprietà distributiva del prodotto rispetto alla
somma:
∀ a,b,c∈k -> a・(b+c)=a・b + a・c
Esempi: Q,R,C
Def. Se k è un campo, H⊂k, e H è un campo (abeliano)
rispetto alle stesse operazioni, allora H è detto
sottocampo di k. Es: Q è un sottocampo di R e C;
R è un sottocampo di C.
Spazi vettoriali
Sia k un campo. Chiameremo “scalari” gli elementi di k. Si
dice che un insieme V è uno spazio vettoriale sul campo k
se:
1. V è un gruppo abeliano rispetto all’operazione di
somma
2. Detti “vettori” gli elementi di V, è definita una legge di
composizione esterna f: k X V -> V detta “prodotto di uno
scalare per un vettore” che associa ad ogni coppia (scalare
λ,vettore v) uno e un solo vettore denotato λv , con le
seguenti proprietà:
Spazi vettoriali
∀λ,μ k, ∀ v1,v2∈V->
1. λ(v1+v2)=λv1+λv2
2. (λ+μ)v1=λv1+μv2
3. (λμ)v1=λ(μv1)
4. 1v1=v1
Def. Il fatto che la somma di due vettori di V sia un
elemento di v, così come il prodotto fra un elemento di k
e uno di V di esprime dicendo che V è chiuso rispetto alla
somma di vettori e al prodotto per uno scalare.
Def. Se V è uno spazio vettoriale su k, U⊂V, e U è chiuso
rispetto alla somma di vettori e al prodotto per uno
scalare indotti da V, allora U è detto sottospazio
vettoriale di V.
Spazi vettoriali
Sia V uno spazio vettoriale sul campo k, indico con lettere
greche gli elementi del campo, con lettere latine i vettori.
Evidentemente, la “combinazione lineare”:
v=αa+βb+γc+.. è ancora un vettore.
!
Def. Se un vettore v NON può essere scritto come
combinazione lineare di un insieme di vettori (a,b,c,...),
allora v è detto essere linearmente indipendente dai
vettori (a,b,c,...).
!
Spazi vettoriali
Sia V uno spazio vettoriale sul campo k
!
Def. 2. Un insieme di vettori (a,b,c,...) è detto linearmente
indipendente (come insieme) se ciascuno di essi è
linearmente indipendente da tutti gli altri.
!
Def. 3. Un insieme di vettori “ricopre” (in inglese “span”)
tutto lo spazio (oppure “è completo”) se qualsiasi vettore
dello spazio può essere scritto come combinazione lineare
dei vettori di tale insieme.
!
Spazi vettoriali
Sia V uno spazio vettoriale sul campo k
!
Def. 4. Un insieme completo di vettori è detto “base dello
spazio vettoriale” se è linearmente indipendente (come
insieme). Il numero di vettori di una base fornisce la
dimensione dello spazio.
Componenti di un vettore
Se indico con (e1,e2,...,en) una possibile base, allora so che
ogni vettore può essere scritto come:
v=α1e1+α2e2+...+αnen
Quindi, se la dimensione dello spazio è pari a n, ogni
vettore può essere rappresentato in maniera univoca dalla
sua n-upla di “componenti” rispetto alla base assegnata,
ovvero dagli n scalari che determinano i coefficienti
della combinazione lineare della base.
v (α1,.....,αn)
Componenti di un vettore
v (α1,.....,αn)
Le componenti permettono di eseguire le operazioni
direttamente sugli scalari. Evidentemente la somma di
due vettori è il vettore che ha come componente i-esima
la somma delle componenti i-esime dei due vettori, il
prodotto di uno scalare per un vettore si ottiene
moltiplicando ogni componente per lo scalare, l’elemento
neutro è una n-upla di zeri, il vettore inverso è ottenuto
cambiando segno ad ogni componente. Questo può
facilitare molto le cose, riduce conti tra vettori “astratti”
a semplici operazioni (tipicamente su numeri complessi).
Attenzione però alla dipendenza dalla base!
Esempi di spazi vettoriali (I)
Sia k un campo. Lo 0 della somma definita su k è uno
spazio vettoriale, detto nullo. A questo spazio appartiene
un unico elemento, lo 0. Si attribuisce a tale spazio
dimensione nulla.
!
Sia k un campo. Le due operazioni di somma e prodotto
definite sul campo possono anche essere interpretate come
operazioni di somma di vettori e di prodotto di uno
scalare per un vettore. A dire che un campo k può sempre
essere visto come spazio vettoriale su se stesso. (R è un
campo, ma è anche uno spazio vettoriale su R).
!
Esempi di spazi vettoriali (I)
!
Fisso n≥1 e un campo k. Considero l’insieme V di tutte le
n-uple che posso formare con gli elementi del campo.
Bene, definendo in V la somma di vettori come somma
delle componenti, e il prodotto scalare per vettore come
prodotto per uno scalare di tutte le componenti creo uno
spazio vettoriale, kn.
!
Esempi di spazi vettoriali (II)
Considero k[x]=insieme dei polinomi in una variabile a
coefficienti complessi. Utilizzando le note regole di
somma tra i polinomi (sommo i coefficienti di termini di
pari grado), e di prodotto di un polinomio per uno
scalare, vedo subito che k[x] è uno spazio vettoriale (di
dimensione infinita)
Esempi di spazi vettoriali (II)
Sia dato un insieme S, e si costruisca kS= insieme
composto da tutte le funzioni f:S->k, dove k è un campo.
Bene, kS è uno spazio vettoriale su k, pur di definire
puntualmente (è quello che facciamo sempre) somma di
funzioni e prodotto di una funzione per uno scalare:
∀ x ∈ S, ∀ f,g ∈ kS, (f+g)(x)=f(x)+g(x);
∀ Φ ∈ k, ∀ f ∈ kS, (Φ f)(x)= Φf(x).
!
!
Esempi di basi
1. Considero un campo k, e lo spazio vettoriale kn costituito
dalle n-uple formate con gli elementi di k. Una base ovvia
di kn è data dalla “base standard” (in cui “1” rappresenta
l’elemento neutro del prodotto sul campo k)
e1=(1 0 0 0 ...), ....., en=(0 0 ... 0 1)
2. I due elementi 1 e i costituiscono una base per lo spazio
vettoriale C su R (dim=2). (E per C su C?)
3. L’insieme {1,x2,x3,x4,....,xn} è una base per lo spazio kn[x]
dei polinomi a coefficienti complessi (ma anche reali) di
grado inferiore o uguale a n.
Ne vedremo molte altre ....
!
Spazi pre-hilbertiani e spazi di Hilbert
Sia V uno spazio vettoriale su campo complesso, e sia
definita un’applicazione V X V -> C che associa ad ogni
coppia di vettori u,v lo scalare ≺u∣v≻. Se valgono le
seguenti proprietà ∀ u,v,w∈V e ∀λ∈C
1. ≺u+v∣w≻= ≺u∣v≻+≺v∣w≻
2. ≺u∣λv≻=λ≺u∣v≻
3. ≺u∣v≻=≺v∣u≻* (indicheremo con
*
il complesso coniugato)
4. ≺u∣u≻>0 se u≠0; ≺u∣u≻=0 se u=0 (che sia reale segue dalla
3.)
allora l’applicazione è detta prodotto interno, e lo spazio
V è detto spazio vettoriale con prodotto interno, o spazio
vettoriale hermitiano o spazio vettoriale unitario o spazio
vettoriale pre-hilbertiano.
Spazi pre-hilbertiani e spazi di Hilbert
Oss. L’estrazione di uno scalare dalla parte sinistra del
prodotto interno porta a una coniugazione complessa:
≺λu∣v≻=≺v∣λu≻*=(λ≺v∣u≻)*=λ*≺v∣u≻*=λ*≺u∣v≻
!
Noi avremo a che fare con spazi di Hilbert, che godono di
qualche proprietà in più degli spazi pre-hilbertiani che
però non utilizzeremo per cui non stiamo a specificarla.
Spazi pre-hilbertiani e spazi di Hilbert
Si è detto che ∀u∈C, u≠0, ≺u∣u≻>0
Def. La norma di un vettore è il numero reale positivo
∣∣u∣∣≡ ≺u∣u≻
Def. Due vettori u e v sono detti ortogonali se ≺u∣v≻=0
Def. Un gruppo di vettori (a1,a2,...,an) mutuamente
ortogonali e di norma unitaria è detto insieme
ortonormale. Al suo interno varrà la relazione: ≺ai∣aj≻=δ
Spazi pre-hilbertiani e spazi di Hilbert
ATTENZIONE: Dato uno spazio di (pre-)Hilbert, è sempre
possibile trovare una base ortonormale (procedura di
Gram-Schmidt)
!
Parto da una base qualunque (e1,e2,...,en), poi costruisco
f1=e1/∣∣e1∣∣; g2=e2-≺f1∣e2≻f1
≺f1∣g2≻=≺f1∣e2≻-≺f1∣e2≻≺f1∣f1≻=0; pongo f2=g2/∣∣g2∣∣;
g3=e3-≺f1∣e3≻f1-≺f2∣e3≻f2; pongo f3=g3/∣∣g3∣∣ .....
!
!
Spazi pre-hilbertiani e spazi di Hilbert
Scelta una possibile base ortonormale per lo spazio di
Hilbert, emerge nel caso più generale, il “tipico” prodotto
interno che conosciamo. Cioè:
Sia e1,e2,e3,...,en la base ortonormale (detta anche “sistema
ortonormale completo, o “sonc”), e siano u e v due vettori
dello spazio. Sarà sempre
possibile scrivere:
u=α1e1+α2e2+...+αnen;
v=β1e1+β2e2+...+βnen
Spazi pre-hilbertiani e spazi di Hilbert
u=α1e1+α2e2+...+αnen;
v=β1e1+β2e2+...+βnen
≺u∣v≻=α1*β1+α2*β2+...+αn*βn;
≺u∣u≻=|α1|2+|α2|2+...+|αn|2
Oss: u=α1e1+α2e2+...+αnen αi=≺ei∣u≻
Tutto molto comodo!
In seguito, se non altrimenti specificato, useremo sempre
basi ortonormali.
!
!
Operatori lineari
Dati due spazi vettoriali V e V’ sul medesimo campo k, si
dice che
Â: V->V’ è un omomorfismo (o applicazione lineare) se:
. ∀v1,v2∈V, Â(v1+v2)=Â(v1)+Â(v2) (additiva)
.. ∀v∈V, ∀λ∈k, Â(λv)=λÂ(v) (omogenea di grado 1)
Se poi V=V’, allora  è detta endomorfisimo, o operatore
lineare.
Un endomorfismo biiettivo è detto isomorfismo.
Operatori lineari
Oss: Se so come un operatore lineare  agisce su una
base (e1, ....,en) di V, allora so come agisce su un
qualunque vettore. Infatti:
Âe1∈V posso sempre scrivere:
Âe1=T11 e1 + T21 e2 + T31 e3 + .... +Tn1 en; con Tij
opportuni scalari. Inoltre:
Âe2=T12 e1 + T22 e2 + T32 e3 + .... +Tn2 en;
....
Âen=T1n e1 + T2n e2 + T3n e3 + .... +Tnn en
Âej= ∑i Aij ei (i=1,n)
Operatori lineari
Âej= ∑i Aij ei (i=1,n)
nota: è uguale il primo indice
Ora, dato v∈V, posso scrivere v=v1e1+v2e2+.....+vnen
v= ∑l vl el (l=1,n)
Âv= Â∑l vl el=∑l vlÂel (l=1,n)
Âv=∑l vl ∑i Ail ei=∑l ∑i vlAil ei
Âv= ∑i(∑l vlAil)ei (l=1,n; i=1,n)
v= ∑i vi ei (i=1,n)
Âv= ∑i vi’ ei; vi’ = ∑jAijvj
nota: è uguale il secondo indice
Operatori lineari
v= ∑i vi ei (i=1,n)
Âv= ∑i vi’ ei; vi’ = ∑jAijvj (*)
Quindi, fissata una base, un operatore lineare che
agisce su un vettore altro non fa che trasformare un le
sue componenti secondo la (*).
Gli n2 elementi Aij caratterizzano univocamente
l’operatore lineare rispetto alla base data. La matrice di
elementi Aij viene detta matrice rappresentativa
dell’operatore  (rispetto alla base assegnata).
Operatori lineari
( )
A11 ... A1n
A=
A21 ... A2n
...
An1 .... Ann
Oss. Se gli ej sono una base ortonormale, da
Âej= ∑l Alj el si vede subito che Aij= ≺ei∣Âej>
Somma di operatori lineari
Dovrebbe ormai apparire naturale la definizione di
somma tra operatori lineari:
(Â+Ĉ)v≡Â(v)+Ĉ(v)≡Ĝ(v). Ovviamente, la matrice
rappresentativa dell’operatore somma Ĝ è ottenibile
con le usuali regole di somma tra matrici:
( )
G11 ... G1n
G=
G21 ... G2n
...
Gn1 .... Gnn
Gij=Aij+Cij
Prodotto di operatori lineari
Definisco il “prodotto” tra operatori lineari come
risultato dell’applicazione successiva dei due operatori.
Sia v’=Âv e v’’=Ĉ(v’)=Ĉ(Âv)≡ĈÂv≡Ĝv. Cerco la matrice
rappresentativa dell’applicazione prodotto (composta):
so che, in generale, se le componenti di v sono (v1,..,vn),
allora le componenti di Ĝv, (v’’1,..,v’’n) sono del tipo:
v’’i=∑jGijvj; D’altro canto
v’’i=∑jCijv’j, e v’j=∑lAjlvl
v’’i=∑jGijvj = ∑jCij∑lAjlvl = ∑l∑j(CijAjl)vl
=∑j∑l(CilAlj)vj
Prodotto di operatori lineari
v’’i=∑jGijvj=∑jCij∑lAjlvl=∑l∑j(CijAjl)vl=∑j∑l(CilAlj)vj
Gij=∑l(CilAlj)
Per trovare l’elemento ij del prodotto seleziono la riga
i-esima di C e la colonna j-esima di A, moltiplico il
primo elemento della riga per il primo della seconda,
il secondo col secondo, etc., e sommo tutto. E’ proprio
il prodotto tra matrici!!!
Trovato per matrici quadrate, ma vale anche come def.
di prodotto tra matrici rettangolari, purchè il numero
di colonne della prima sia pari al numero di righe
della seconda. A tale proposito, notare che:
Prodotto di operatori lineari
la trasformazione di coordinate di v prodotta
dall’applicazione dell’operatore Â:
v’j=∑lAjlvl può anche essere vista come prodotto
matriciale riga per colonna, pur di rappresentare v
come vettore colonna di n righe e 1 colonna:
v’=Av.
Notare l’assenza di “cappuccio”, è del tipo
(nx1)=(nxn)x(nx1)
Data una matrice A di elementi Aij, la sua trasposta è la
matrice At di elementi Aji.
Una matrice quadrata A è simmetrica se A=At; è
antisimmetrica se A=-At
La matrice (complessa) coniugata di A, A*, è la matrice
di elementi Aij*
Una matrice è reale (immaginaria) se tutti gli Aij sono
reali (immaginari), per cui A=A* (A=-A*);
L’hermitiana coniugata, o aggiunta, di una matrice A è
la sua trasposta coniugata: A=(A*)t≡A†.
Una matrice quadrata è hermitiana, o autoaggiunta, se
A=A† e antihermitiana se A=-A†
Oss: dati due vettori dello spazio di Hilbert u e v, il
loro prodotto interno può essere espresso in modo
immediato in forma matriciale:
<u∣v>=u†v,
inteso come prodotto matriciale tra la matrice (1xn) u†,
ottenuta coniugando le n componenti di u e
disponendole in riga, e la matrice (nx1) data dal
vettore-colonna con le componenti di v.
Attenzione: date due matrici quadrate (per le altre non
ha senso) A e C, in generale:
AC≠CA;
[A,C]≡AC-CA si dice commutatore tra A e C.
Inolte:
(AC)t=CtAt
(AC)†=C†A†
Def. L’inversa di una matrice A, detta A-1, è definita da:
A-1A=AA-1=I; Iij=δij
Una matrice A ammette inversa se e solo se il suo
determinante è ≠0. In tal caso:
t
-1
A =(1/detA)Cof
dove Cof è la matrice dei cofattori. Il suo elemento (ij)
è dato da (-1)i+j moltiplicato per il determinante della
sottomatrice di A ottenuta cancellando la riga i e la
colonna j.
Se una matrice NON è invertibile (non ammette inversa),
si dice singolare.
Se il prodotto tra matrici AC ammette inversa, allora:
(AC)-1=C-1A-1
Una matrice è unitaria se la sua inversa è uguale
alla sua coniugata hermitiana:
A-1=A†.
Se poi gli elementi di A sono reali, allora l’inversa
di A coincide con la sua trasposta, e si parla di
matrice ortogonale (es, rotazioni in 3D in R3)
Proprietà fondamentale delle matrici unitarie.
!
Considero due vettori u e v dello spazio di Hilbert.
Sappiamo che:
<u∣v>=u†v (l’uso delle maiuscole è inutile ..)
Adesso considero A unitaria e calcolo il prodotto
interno tra Au e Av:
<Au∣Av>=(Au)†(Av)=u†A†Av=u† A-1Av=u†v=<u∣v>.
Gli operatori lineari rappresentati da matrici unitarie
lasciano inalterati i prodotti interni!
Cambiamenti di base
!
Consideriamo due basi (e1,...,en) e (f1,...,fn) di uno stesso
spazio di Hilbert. Come tutti i vettori dello spazio,
quelli della prima base saranno esprimibili mediante
opportuna combinazione lineare di quelli della
seconda:
e1=S11f1+...+Sn1fn
...
en=S1nf1+...+Snnfn
ej=∑i Sijfi (*)
in R3 sarebbe ej=∑iSijfi do’ per scontato che
ej=∑i Sijfi (*)
si capisca che ej è un vettore, non la
componente di un vettore ...
v=v1e1+...+vnen=∑kvkek
Dato che lavoro con due basi esplicito meglio il fatto
che vk indica la componente k-esima nella base e:
v=∑k(vk)eek;
v=∑k(vk)e∑iSikfi=∑i(∑kSik(vk)e)fi➞
(vi)f=∑jSij(vj)e➞in forma matriciale:
vf=Sve
!
vf=Sve
Oss: Deve valere anche per i vettori della base, per cui
(fi)f=S(fi)e.
Oss. (II) Nel passaggio da una base a un’altra, le
coordinate di un vettore si trasformano in modo
analogo a quello che succede se, fissata la base, un
operatore lineare agisce sul vettore.
Come cambia invece la matrice rappresentativa di una
trasformazione lineare Â?
Sappiamo che (v)f=S(v)e da cui (v)e=S-1(v)f; D’altronde, se
(v’)e=(A)e(v)e, allora
(v’)f=S(v’)e=S(A)e(v)e=S(A)eS-1(v)f≡(A)f(v)f con
(A)f=S(A)eS-1
In generale due matrici A e B tali per cui esiste una S
non singolare che garantisce l’eguaglianza:
A=SBS-1 sono dette simili.
Quindi, matrici che rappresentano lo stesso operatore
lineare  in basi diverse sono simili tra loro.
!
Esercizio: si trovi la matrice del cambiamento di base S e la
sua inversa per le due basi qui sotto riportate
!
base
standard
!
base alternativa
()() ()
()() ()
1
e1=
f1=
0
0
0
e2=
1
e3=
0
0
0
1
0
1
2
1
0
f2=
0
1
(fi)f=S(fi)e
f3=
1-i
1
base
standard
e1=
!
base alternativa
()() ()
()() ()
1
0
0
0
1
0
0
f1=
e2=
0
e3=
0
1
2
1
0
1-i
0
f2=
1
f3=
x es: (f3)f=S(f3)e
( )(
1
0
0
=
1
)( )
S11 S12 S13
2
S21 S22 S23
1-i
S31 S32 S33
1
1
base
standard
e1=
!
base alternativa
()() ()
()() ()
1
0
0
0
1
0
0
f1=
e2=
0
e3=
0
1
2
1
0
1-i
0
f2=
1
f3=
E’ più facile trovare l’inversa (f1)e=S-1(f1)f≡A(f1)f
( )(
0
1
0
=
1
)( )
A11 A12 A13
1
A21 A22 A23
0
A31 A32 A33
0
1
(f1
)e=S-1(f
1
)f≡A(f
1
)f
f1=
()() ()
0
1
2
1
0
1-i
0
f2=
1
f3=
1
(f1)e=S-1(f1)f≡A(f1)f
( )(
0
1
=
0
)( )
A11 A12 A13
1
A21 A22 A23
0
A31 A32 A33
0
(I) 0=A11 (II) 1=A21 (III) 0=A31
(f2)e=S-1(f2)f≡A(f2)f
( )(
1
0
1
=
)( )
A11 A12 A13
0
A21 A22 A23
1
A31 A32 A33
0
(IV) 1=A12 (V) 0=A22 (VI) 1=A32
(I) 0=A11 (II) 1=A21 (III) 0=A31
(IV) 1=A12 (V) 0=A22 (VI) 1=A32
(f3)e=S-1(f3)f≡A(f3)f
( )(
2
1-i
1
=
)( )
A11 A12 A13
0
A21 A22 A23
0
A31 A32 A33
1
(VIII) 2=A13 (IX) 1-i=A23 (X) 1=A33
(I) 0=A11 (II) 1=A21 (III) 0=A31
(IV) 1=A12 (V) 0=A22 (VI) 1=A32
(VIII) 2=A13 (IX) 1-i=A23 (X) 1=A33
( )
( )( )
S-1 =
0 1 2
(Oss: det=1)
1 0 1-i
0 1 1
S=
i-1 -1 1
1
0
1-i 2
0
-1
t
=
i-1 1 1-i
-1
1 0
0
2
-1
Risultati utili (I/II):
!
I. Se la base di partenza è ortonormale, quella di
arrivo rimane ortonormale se e solo se S è unitaria,
per cui: (A)f=S(A)eS†
II. se S è unitaria e (A)e è hermitiana, allora (A)f è
hermitiana
III. l’operazione di similitudine conserva il prodotto
tra matrici, ovvero:
se (A)e(B)e=(C)e, allora (A)f(B)f=(C)f.
Risultati utili (II/II):
!
Da proprietà note delle matrici (il determinante di
un prodotto è uguale al prodotto dei determinanti + la
traccia di un prodotto è uguale al prodotto delle
tracce) seguono immediatamente la seguente proprietà
importante:
!
IV. Il determinante e la traccia della matrice associata
a un operatore lineare NON dipendono dalla scelta
della base. Infatti, ad esempio:
det[(A)f]= det[S(A)eS-1]=det[S]det[(A)e]det [S -1]=
= det[(A)e]
Autovettori e autovalori.
!
Consideriamo l’operatore lineare Â. Se un vettore (non
nullo) v dello spazio su cui opera  è tale da
verificare:
Âv=λv, con λ C, allora v è detto autovettore di Â, e lo
scalare λè l’autovalore associato a v. Adesso scegliamo
una base e consideriamo la relazione matriciale:
Av=λv (*); v≠vettore nullo.
dove, per semplicità, non ho indicato esplicitamente
che A=(A)e, e che v=(v)e. La (*) equivale a:
(A-λI)v=0 dove I è la matrice identità e “0”
rappresenta la matrice nulla.
(A-λI)v=0.
Se esistesse (A-λI)-1, allora potrei applicarla ad ambo i
membri, ottenendo v=0, contrariamente all’assunzione
iniziale. Quindi, v può essere autovettore solo se
det(A-λI)=0, ovvero:
|
|
(A11-λ) A12 ... A1n
A21 (A22-λ) ... A2n
...
An1 An2 ... (Ann-λ)
=0
|
|
(A11-λ) A12 ... A1n
A21 (A22-λ) ... A2n
...
=0
An1 An2 ... (Ann-λ)
Imporre detA=0 porta ad un’equazione algebrica di grado n in λ:
Cnλn+Cn-1λn-1+...+C0=0 (*)
dove i coefficienti Ci nell’equazione caratteristica (*) sono numeri
complessi che dipendono dagli elementi di A.
Gli n autovalori sono determinati dalle n radici dell’equazione
caratteristica. Ovviamente, alcune radici possono essere multiple.
L’insieme di tutti gli autovalori di A si chiama spettro di A.
Cnλn+Cn-1λn-1+...+C0=0 (*)
Uno spettro è non degenere se non esistono due autovettori
linearmente indipendenti che condividono lo stesso autovalore.
(Notare che se u è autovettore di A corrispondente all’autovalore λ,
allora cu è ancora autovettore di A corrispondente a λ, ma cu è
linearmente dipendente, non porta a degenerazione).
Altrimenti è degenere.
Se Afi=λifi, i=1,...n, e l’insieme degli fi ricopre tutto lo
spazio (non sempre è vero) allora posso usare gli
autovettori fi come base per rappresentare A. E’
particolarmente conveniente ....
Nella vecchia base e, ogni fi avrà certe componenti ...
( )
(fi)1e
(fi
e
) =
...
...
(fi)ne
Costruisco la matrice (F-1)e (sarà una nxn) di modo che la
sua colonna i-sima sia composta dalle componenti dell’iesimo autovettore:
( )
(f1)1e... (fn)1
-1
e
(F ) =
...
...
(f1)ne ... (fn)ne
( )
( )
(f1)1e... (fn)1
(F-1)e=
...
...
(f1)ne ... (fn)ne
Considero la matrice Λ
Λ1 0 0 ... 0
(Λ)e=
0 Λ3 0 ... 0
...
0 0 ...
Λn
( ) ( )
(
)
(f1)1e... (fn)1e
(F-1)e=
...
Λ1 0 0 ... 0
(Λ)e=
...
(f1)ne ... (fn)ne
0 Λ2 0 ... 0
...
0 0 ...
Λ1(f1)1e Λ2(f2)1e... Λn(fn)1e
(F-1Λ)e=
Λ1(f1)2e Λ2(f2)2e... Λn(fn)2e
...
....
Λ1(f1)ne Λ2(f2)ne... Λn(fn)ne
Λn
(
Λ1(f1)1e Λ2(f2)1e... Λn(fn)1
(F-1Λ)e=
Λ1(f1)2e Λ2(f2)2e... Λn(fn)2
...
....
Λ1(f1)ne Λ2(f2)ne... Λn(fn)n
)
-1
e
=(AF )
Infatti. Il generico elemento lm di AF-1 è dato
dalla riga l di A per la colonna m di F-1, che è fm.
Ma Afm=λmfm, il che vuol dire che se moltiplico la
riga l-sima di A per fm ottengo λm x la
componente l-sima di fm. Che è proprio (F-1Λ)lm.
(F-1Λ)=(AF-1)→
Λ=FAF-1
La matrice A è simile a una matrice diagonale (con gli
autovalori sulla diagonale stessa)!
Per definizione, si dice allora che A è diagonalizzabile.
Di nuovo, attenzione!Il fatto di trovare gli autovalori e gli
autovettori di una matrice non mi garantisce che questa sia
diagonalizzabile. Non tutte le matrici sono simili a quella
diagonale degli autovalori, non scordiamoci la richiesta che
gli autovettori coprano l’intero spazio.
Risultato: se l’equazione caratteristica ha n soluzioni
distinte, allora la matrice è sicuramente diagonalizzabile.
Ma è solo condizione sufficiente, posso avere matrici
diagonalizzabili anche con autovalori di molteplicità
superiore a 1.
Vale il seguente risultato: una matrice è diagonalizzabile se
e solo se i suoi autovettori ricoprono tutto lo spazio.
Si trova anche così (teorema di diagonalizzabilità): una
matrice è diagonalizzabile se e solo se la molteplicità
(algebrica) di ogni suo autovalore è pari alla sua
molteplicità geometrica (dimensione del sottospazio
generato dai corrispondenti autovettori)
A=
( )
1 1
0 1
→
(
A-λI=
(1-λ)2=0→λ=1(m.a.
); det(A-λI)=0
( )( )= ( )
1-λ 1
0 1-λ
; A-λI=0 →
2)
b=0, a qualunque:
non posso generare
()
autovettori indip. da
1
0
0 1
a
0
0 0
b
0
(m.g. 1, non posso diag.)
Una matrice è diagonalizzabile se e solo se la molteplicità
(algebrica) di ogni suo autovalore è pari alla sua
molteplicità geometrica (dimensione del sottospazio
generato dai corrispondenti autovettori)
A=
( )
1 0
0 1
→
(
A-λI=
(1-λ)2=0→λ=1(m.a.
); det(A-λI)=0
( )( )= ( )
1-λ 0
0 1-λ
; A-λI=0 →
2)
0 0
a
0
0 0
b
0
a qualunque, b qualunque:
()()
1
0
0
1
(m.g. 2, posso diagonalizzare. Ok, era ovvio ..)
Ricordiamo che la matrice rappresentativa di un’applicazione
lineare è definita dalla sua azione sulla base:
Âfj= ∑i Aij fi (i=1,n). Se come base scelgo gli autovettori, allora
∑i Aij fi=λjfj, ovvero Aij=λjδij. Se due matrici sono simili, allora
esiste un cambiamento di base che porta una matrice
nell’altra. Dire che Λ=FAF-1 equivale a dire che la base
d’arrivo è quella degli autovettori, e la F ha proprio il
significato della S (matrice di trasformazione di base).
Esercizio: trovare autovettori e autovalori di
M=
( )
2 0 -2
-2i i 2i
1 0 -1
E’ diagonalizzabile? Se sì, verificare che sia effettivamente
simile alla matrice diagonale costruita con gli autovalori
M=
( )
2 0 -2
-2i i 2i
1 0 -1
Esercizio: trovare autovettori e autovalori di
M=
( )
2 0 -2
-2i i 2i
1 0 -1
Oss: detM
=(2*i*-1)+(-2i*0*-2)+(1*0*2i)-(-2*i*1)-(2i*0*2)-(-1*0*-2i)
detM=0; ok, mi aspetto che (almeno) un autovalore sia nullo.
Esercizio: trovare autovettori e autovalori di
(
M-λI=
2-λ 0 -2
-2i i-λ 2i
)
1 0 -1-λ
Oss: det(M-λI)=
=[(2-λ)*(i-λ)*(-1-λ)]-[-2*(i-λ)]
=(i-λ)[(λ-2)(λ+1)+2]=0
λ=λ1=i; [λ2-λ]=0; λ=λ2=0; λ=λ3=1
Ok, ho 3 autovalori non degeneri. In realtà già questo mi
assicura che sia diagonalizzabile, ma controlliamo m.a.
e m.g. in ogni caso.
Esercizio: trovare autovettori e autovalori di
M-λ1I=0→
( )( )
2-i 0 -2
a
-2i 0 2i
b
1 0 -1-i
c
=0
1. λ1=i
2a-ia-2c=0(1)
-2ia+2ic=0 (2)
a-c-ic=0
(3)
Dalla (2) a=c, inserisco in (1): a(3-i)=0→a=0=c
()
!
λ1=i;v1=
0
1
0
m.g.=m.a=1
Esercizio: trovare autovettori e autovalori di
M-λ2I=0→
( )( )
2 0 -2
a
-2i i 2i
b
1 0 -1
c
1. λ2=0
2a-2c=0 (1)
-2ia+ib+2ic=0 (2)
a=c
(3)
()
Dalla (2) con a=c, b=0
!
λ2=0;v2=
1
0
1
m.g.=m.a=1
=0
Esercizio: trovare autovettori e autovalori di
M-λ3I=0→
( )( )
1
0
-2
a
-2i i-1 2i
b
1
c
0
-2
=0
1. λ3=1
a-2c=0 (1)
-2ia+ib-b+2ic=0 (2)
a=2c
(3)
Dalla (2) con a=2c, b(i-1)=ia→b=ia/(i-1)=-ia(i+1)/2=a(1-i)/2
()
!
λ3=1;v3=
2
1-i
1
m.g.=m.a=1 (OK, è diagonalizzabile)
standard e
!
Gli autovettori
sono
()() ()
()() ()
1
Espressi nella base
e1=
f1=
0
0
0
e2=
1
e3=
0
0
0
1
0
1
2
1
0
E’ l’esercizio di prima!!!
f2=
0
1
f3=
1-i
1
( )
( )( )
( )( ) ( )
0 1
S-1=
2
Vedi esercizio precedente!
1 0 1-i
0 1 1
t
S=
M
i-1 -1
1
1
0
0
1-i
2 -1
i-1 1 1-i
=
-1
0
2
1
0
-1
S-1
2 0 -2
0 1
2
-2i i 2i
-1 0 1-i
1 0 -1
0 1 1
=
0 0 2
i
0 -i+1
0 0 1
(
S
i-1 1 1-i
-1
0
2
1
0
-1
)(
MS-1
0 0 2
i
)(
0 -i+1
0 0 1
=
i 0
0
0 0
0
0 0
1
)
Ok, trovando autovalori e autovettori e esprimento M
nella base dei suoi autovettori ottengo una matrice
diagonale, con gli autovalori sulla diagonale.
Risultati importanti (non li dimostriamo):
!
Le matrici hermitiane A=A† e quelle unitarie A-1=A† sono
sempre diagonalizzabili!
(matrice unitaria E hermitiana?)
!
Due matrici che commutano in una certa base commutano
in ogni base.
!
Due matrici sono diagonalizzabili simultaneamente (quindi,
esiste un’unica base in cui entrambe sono diagonali) se e solo
se commutano.
Matrici e trasformazioni hermitiane. A=A†
!
Abbiamo definito una MATRICE hermitiana se
Ora diamo una definizione più generale di
OPERATORE lineare hermitiano (o Trasformazione lineare
hermitiana).
Def. Dato un operatore lineare A rappresentato dalla matrice A,
l’operatore coniugato hermitiano di Â, detto †, è definito da:
<u∣Âv>≡<†u∣v>
!
l’operatore coniugato hermitiano di Â, detto †, è definito da:
<u∣Âv>≡<†u∣v>
!
Reminder sulla notazione: se scrivo Âv vuol dire che sto
pensando v (e Âv) come semplice elemento dello spazio di
Hilbert, senza alcun riferimento ad una base fissata.
Quando scrivo Av, con A=matrice rappresentativa in una base
fissata, allora perchè la scrittura abbia un senso, devo
immaginare v come vettore colonna delle sue componenti
nella stessa base.
l’operatore coniugato hermitiano di Â, o “aggiunto” di Â, detto
†, è definito da:
<u∣Âv>≡<†u∣v>
(è una buona definizione? Sì, per il teorema di
rappresentazione di Riesz sullo spazio duale ...).
!
Connessione con il concetto di matrice coniugata hermitiana:
In una base ortonormale l’aggiunto † di un operatore lineare
 è rappresentato dalla coniugata hermitiana della matrice A.
In una base ortonormale l’aggiunto † di un operatore lineare
 è rappresentato dalla coniugata hermitiana della matrice A.
!
!
!
!
Dim
<u∣v>=u†v (con u e v intesi come vettori colonna)
<u∣Âv>=u†(Av)=(u†A)(v) =(A†u)†v
<†u∣v>=(Bu)†v
(inizio a indicare con B la matrice rappresentativa di
Ma dalla definizione di † (<u∣Âv>=<†u∣v>)→B= A†
†
Un operatore di dice hermitiano, o autoaggiunto, se Â=†.
Proprietà fondamentali:
!
1. Gli autovalori di un operatore hermitiano sono reali.
Dim
Âv=λv <v∣Âv>= <v∣λv>=λ<v∣v>
D’altronde <v∣Âv>=<†v∣v>=<Âv∣v>=<λv∣v>=λ*<v∣v> λ=λ*
2. Gli autovettori di un operatore hermitiano che appartengono
ad autovalori distinti sono ortogonali.
Dim
Âv=λv; Âu=μu; <v∣Âu>=μ<v∣u>; ma se l’operatore è hermitiano, allora
<v∣Âu>=<Âv∣u>=λ*<v∣u>=λ<v∣u>=μ<v∣u>. Dato che λ≠μ <v∣u>=0
3. Gli autovettori di un operatore hermitiano ricoprono tutto lo
spazio (sono un sistema completo).
!
!
Scarica