Presentazione di PowerPoint - Dipartimento di Filosofia

Dispense per il corso di Filosofia
della Fisica (parte I)
Mauro Dorato, Dipartimento di Filosofia,
Università di Roma3
NB
•Le note che seguono sono per uso strettamente
didattico. Si prega quindi di non far circolare il
materiale che segue e di non usarlo per
citazioni.
•Aggiornate al 05/06/2017
1
Parte I
Introduzione “matematica” alla MQ
• Queste note sono state elaborate a partire dai seguenti testi:
• R.I.G. Hughes, The Structure and Interpretation of QM Harvard
University Press, 1989,
• R. Shankar, Principles of QM, Plenum Press, 1988,
• C. Isham, Lectures on QM, Imperial Press, 1997,
• Lang, Algebra Lineare, Boringhieri,
• T. Apostol, Calcolo, vol. 2 Geometria, Boringhieri,
• G.C Ghirardi, I fondamenti concettuali e le implicazioni epistemologiche
della meccanica quantistica, in G. Boniolo, Filosofia della Fisica, Bruno
Mondadori, 1997
• F.Byron, R. Fuller, Mathematics of Classical and Quantum Physics,
Dover, 1992
• Allori e Zanghì, Un viaggio nel mondo quantistico, in Allori, Dorato,
Laudisa, Zanghì, La natura delle cose, Carocci, Roma, 2005
2
Indice
Prima Parte
•
•
•
•
•
1) Vettori e spazi vettoriali
2) Operatori lineari
3) Autovalori e autovettori
4) Numeri complessi
5) Indipendenza lineare e
dimensionalità
• 6) Prodotti scalari e vettori
normalizzati; vettori
ortonormali
• 7) La notazione di P.A.Dirac
• 8) Operatori aggiunti,
hermitiani e unitari
• Seconda parte
• 9) Generalizzazione a infinite
dimensioni
• 10) Gli operatori coniugati X e
K
• 10) Spazi di Hilbert
• 11) I postulati della MQ
3
1.Vettori e spazi vettoriali
Operazioni con vettori in R2
Addizione tra vettori
Moltiplicazioni con scalari
4
Nel piano R2 ogni vettore (punto) corrisponde a
una coppia ordinata di numeri reali e viceversa
y
 vx 
0

v=  v  ; 0   
 y
0
vx
v
0
vy
x
5
w=u+v
u
v
Addizione di due vettori (vista geometricamente,
è la regola del parallelogramma)
6
Addizione (vista analiticamente)
v


x
v=  
v
 y
ux 

u=  
u
 y
vx  u x 

v  u  v  u 
y 
 y
7
2
1




u   v 
1 
 3
2

1
3




uv 
 w

1  3   4 
4
w
v
u
3
Ovvamente i due punti di vista convergono!
8
• Moltiplicazione di un vettore con uno scalare a
(è come un “cambiamento di scala”, dilatazione
o contrazione, indotte dal numero reale a)
avx 

av   av 
 y
w=2v
v
a=2
a = -1.5
0
wx = 2 vx
u= -1.5v
9
Sommando un vettore e il suo inverso…
avx 

av   av 
 y
a = -1
 vx
v  ( 1) v   v
 y
   vx
    v
y
 

 

 vx  vx    0   0
 v  v   0
 y y  
10
2 base
1 base
Lo stesso vettore (in nero) può avere differenti
rappresentazioni o scomposizioni, in funzione di “basi”
diverse, qui rappresentate dai due sistemi di coordinate rosse
11
e blu, uno ruotato rispetto all’altro
Spazio vettoriale lineare V
•Sia dato un campo F, ovvero (in modo informale), un insieme di
scalari reali o complessi (immaginari) con due operazioni binarie + e .
Uno spazio vettoriale su F è una strutturaV = <V, +, ., 0> chiusa
rispetto a + e alla moltiplicazione . di un vettore con uno scalare e tale
che, per ogni vettore u, v e w in V e per ogni a e b in F, valgono i
seguenti assiomi:
1 (u + v) + w = u + (v + w)
associatività +
2 u+v=v+u
commutatività +
3 v+0=v
esistenza el. neutro +
4 v + (- v ) = 0
esistenza inverso +
5 (a + b) . v = a . v + b . v
distribut. + per scalari
6 a . ( v + w) = a . v + a . w
distrib . per vettori
7 a .(b v) = (ab) . v
associatività .
8 1.u=u
esistenza el. neutro12.
• In breve, uno spazio vettoriale lineare V è uno spazio di
elementi qualsiasi (numeri, funzioni, serie, vettori etc.)
che si possono sommare tra loro e moltiplicare per scalari
obbedendo alle regole appena viste
• Dal punto di vista assiomatico, un spazio vettoriale è una
qualunque entità che soddisfi le leggi viste sopra.
** Per la MQ, il concetto di vettore in un particolare
spazio vettoriale, detto di Hilbert, si rileverà
fondamentale, perché, come vedremo, corrisponderà
allo stato di un sistema quantistico. **
13
Esercizi
•
•
•
•
•
•
•
(a , b , c) + (d , e , f) = (a + d, b + e, c + f)
a(a , b , c )= (aa , ab , ac)
Mostrare che entità di questo tipo (triple di reali) formano
uno spazio vettoriale con queste due operazioni
Scrivere il vettore nullo e l’inverso di (a , b , c)
Abbiamo uno spazio vettoriale se richiediamo che a , b , c
siano reali positivi?
Mostrare che vettori del tipo (a , b , 1) non formano uno
spazio vettoriale
Dimostrare che:
0v = 0
(aggiungi 0v a av);
a0 = 0
(aggiungi a0 a av)
(-1) v = (-v)
(aggiungi v a (-1) v)
14
2. Indipendenza lineare
• Serve tra l’altro a generalizzare il nostro spazio di partenza R2 allo
spazio Rn. Consideriamo una n-pla di vettori
v1 ,v2 ,....vn1 , vn 
• Definiamo la somma di n vettori per n scalari così
n
a1v1  a2v2  a3v3  ...anvn   ai vi
i 1
• Def 0) Un insieme di vettori è detto linearmente indipendente (LI)
se e solo se l’unico modo affinché la somma sopra data dia il
vettore nullo è che siano nulli tutti i coefficienti per tutti gli i. In
simboli, se accade
n
a v
i 1
i
i
 0  (i )ai  0 allora i vettori sono LI
15
Infatti, se uno dei coefficienti non fosse nullo, per esempio a3
a1
a2
an
v3   v1  v2  ...  vn 
a3
a3
a3
Si ottiene
v3 
n 1
 ai ' vi
i 1
i 3
ponendo
a 'i  
ai
a3
Cioè il vettore v3 si scrive
come combinazione
lineare degli altri
Def 1. Uno spazio vettoriale Vn è n-dimensionale se ammette al
massimo n vettori linearmente indipendenti
Teor 1. Dato un insieme di n vettori linearmente indipendenti,
ogni altro vettore v in Vn può essere scritto come una
combinazione lineare di questi. In questo caso gli n vettori che
ricoprono lo spazio Vn formano una base e le componenti
16
dell’espansione di v si chiamano coefficienti
Dimostrazione del teorema precedente
•Dati n+1 scalari ai e n+1 vettori vi , per definizione di indip. lineare di
n vettori, deve valere la seguente relazione
n
av   a ' i v i  0
i 1
con qualche a diverso da 0: altrimenti, se tutti gli n+1 scalari fossero
nulli, avremmo n+1 vettori LI in uno spazio n-dimensionale, il che è
impossibile per la def. 1. In più a è non nullo, perché altrimenti, causa
la definizione di ind.lineare di n vettori, (def 0), ci sarebbe qualche
scalare nella sommatoria diverso da 0, ciò che contrasta con l’ipotesi
che n vettori siano LI (def.. Ne segue che, ponendo
a '
i
ai 
a
si ha
v
n
a v
i 1
i
i
17
• Teor. I coefficienti dell’espansione di v, dati n vettori
fissati della base, sono unici.
n
Siano
v   ai vi
v 
i 1
n
b v
i 1
i
i
per assurdo due diverse espansioni di v. Sottraendo, si ha
n
0  v - v   (ai  bi )vi
i 1
Se non si avesse ai = bi per tutti gli i, gli n vettori vi non sarebbero LI, contro
l’ipotesi del teorema; in tal caso esisterebbe infatti uno scalare diverso da 0 tra
gli n scalari ai - bi. Si noti che questo risultato di unicità vale rispetto a una
base fissata, e non contraddice quindi la esprimibilità multipla di uno stesso
18
vettore in basi diverse vista sopra
• Il prossimo concetto, quello di operatore
lineare, ci servirà a specificare la nozione di
osservabile di un sistema quantistico
19
3. Operatori lineari su spazi vettoriali
• Un operatore A che agisce su un insieme di vettori
ha un vettore come input e un vettore come output:
Av = v’
A: V
V
• Un operatore A è lineare se soddisfa i due assiomi
seguenti:
1
A (v + w) = Av + Aw
2
A (av) = a(Av)
20
Esempi di operatori lineari in
2
R
Px v  Px  x    x   v'
 y 0
• Operatore di proiezione
v
Px proietta sull’asse x,
azzerando la coordinata y di
qualunque vettore
w
Px w
Px v
x
21
Il cateto rosso di un triang. rett. è uguale all’ipotenusa
per il seno dell’angolo opposto (quello blu è uguale
all’ipotenusa per il coseno dell’angolo adiacente)
r=1
1.sen q
q
1.cos q
22
Le matrici
• Una matrice è una generalizzazione di un vettore, che è
a sua volta la generalizzazione di numero
• In generale, una matrice a n righe e n colonne è fatta da
n2 elementi (qui n =4). Il prodotto tra due matrici A e B
si effettua righe per colonne
a f v t 


e t y j
e f
ae  bg af  bh 
a
b




 g e r g  A   c d ; B   g h ; AB   ce  dg cf  dh 


 s c b n


23
Un operatore di rotazione Rf muta l’orientamento di
un vettore v di un angolo q, ma lascia inalterata la sua
lunghezza. Non confondere Rf con una proiezione
v’x
v’=Rqv v’ = v’cos(q f)  v(cosqcosfsinqsinf)
x
cosq vx – sinq vy
v’y
v’y = v’sin(q f) v(sinqcosfcosqsinf)
sinqvx + cos q vy
q
v
f
 v' x   cosq v x – sin q v y 
 cosq


R q v  v'    
 def 


 sin q
 v' y   sin qv x  cos qv y 
matrice
– sin q  v x

cos q 24
 v y




Ne segue che l’operatore di rotazione Rq in
R2 corrisponde biunivocamente alla
seguente matrice quadrata 2 x 2
Rq 
 cosq

 sin q
– sin q
cos q



La corrispondenza in questione è generale: ogni
operatore lineare di R2 è esprimibile tramite una
matrice 2x2 di numeri reali e, viceversa, una
matrice soddisfa le due condizioni di un
25
operatore lineare
Operatore di riflessione attorno all’asse x
v
Esercizio: Trovare la matrice (operatore) corrispondente a
Sx
x
v’= Sx v
vx   vx 
a
b



Sxv  


v
'





 c d  v y    v y 
avx  bv y  v x
cvx  dv y  v y
1

Sx  
0
a =1; b = 0
c =0; d = -1
0

 1
26
• Esercizi: trovare le matrici corrispondenti all’operatore di
identità I, a Sy , a Py e a Px
Imponiamo che Px v   a b  x    x 
 c d  y   0 


Si ha allora v'   ax  by    x   ax  by  x  a  1 e b  0
cx  dy  0
cd 0
 cx  dy   0 
1

Px  
0
0

0
27
Prodotto tra 2 operatori (matrici):
scopriamo la non-commutatività
e
a
b



A
;B  

c d 
g
f
ae  bg af  bh 

; AB  


h
 ce  dg cf  dh 
Non sempre il prodotto tra due operatori è commutativo: il
commutatore [A, B] =def AB - BA può essere diverso da zero. Per
esempio, se q  0 e q  
R q Px   cosq - sin q  1 0   Px R q   1 0  cosq - sin q 
 sin q cosq  0 0 
 0 0  sin q cosq 
Il prodotto a destra proietta sull’asse x, mentre se q non è 0 o , per quello a sinistra
28
questo non è vero
Operatore di proiezione Pq su una generica linea
L che passa per l’origine ma diversa da x e y
2q
cos

Pq =  cosqsin q

cosqsin q 
sin 2 q 
v
vL^
Perché vale l’espressione di cui
sopra? (suggerimento:
vL
q
Pq v = vL
L
Pq = Rq Px Rq
NB. La direzione antioraria di rotazione ha per
convenzione il segno + e gli operatori si applicano dal
29
più esterno al più interno
Svolgimento dell’esercizio precedente
 cos  sin  

R  
  sin  cos  
1 0

Px  
0 0
 1 0  cos  sin    cos  sin  

  

Px R  
0 
 0 0   sin  cos    0
 cos   sin  

R  
 sin  cos  
cos  sin  
 cos   sin   cos  sin    cos  2


  
P  R Px R  
2

sin

cos

0
0
sin

cos

sin



 

30
Lo spazio delle matrici è uno spazio
vettoriale!
• Poiché l’addizione tra due matrici (ovvero, due operatori lineari A e
B) è facilmente definibile (il primo elemento in alto a sinistra della
matrice somma C è la somma dei due elementi corrispondenti delle
matrici addende A e B), e il prodotto di una matrice per uno scalare
obbedisce alle leggi lineari viste per la struttura di uno spazio
vettoriale, anche lo spazio delle matrici 2x2 è uno spazio vettoriale
lineare
e
a
b



A
B 

c d 
g
(aA)v = a (Av)
f
ae b f 

C


h
c  g d  h
r
a
t
s
 ar
v  
v
 at
as 
v
av 
31
4. Autovalori e autovettori
• Un vettore non nullo v è un autovettore di
un operatore A con autovalore a se e solo se
Av = av
• In questo caso, l’azione dell’operatore A sul
suo autovettore v produce un multiplo di v
(av), dato dalla moltiplicazione di v per
l’autovalore scalare a.
32
1

I 
0
0
1

3

A
0
0 ; v   x 
 y
3 
 
3
x

0
y
x



Av  
 3   3v

 0x  3y   y 
I è l’operatore identità, con autovalore 1. Nel secondo esempio, v
è un autovettore dell’operatore rappresentato da A, con
autovalore 3. I e A sono matrici simmetriche (ovvero gli elementi
fuori diagonale sono uguali). Non tutti gli operatori hanno
autovettori. Studiare gli autovettori di questo operatore A :
0

A
3
3 ; v   x 
 y
0 
 
(l’effetto di A è prima di triplicare, poi di ruotare di 90 in senso antiorario
e poi riflettere v attorno all’asse y)
33
0
3
x



A
; v   

 3 0
 y
 0x  3y 
 y
  3  
Av  
 3x  0 y 
 x
A ha autovettori v solo se v è tale che x = y (e l’autovalore = 3) e v
giace lungo la bisettrice del primo quadrante, oppure se v giace lungo
quella del secondo quadrante (l’autovalore è -3). In generale, per
matrici simmetriche cosiffatte si ha:
0 a
  Av 
A  
a 0
 x
 y
A   a  
 y
 x
 x
 x
A   a  
 y
 y
 x  v forma un angolo di 45
v   
L’autovalore in questo caso è +a
 x
  x  v forma un angolo L’autovalore in questo caso è - a
34
v   
di 45+90=135
 x 
S y    1 0 
 0 1
v   x 
 y
Syv
v
y
-x
Lq90

1
x

0
y

x



S y v  v'  
  

 0 x  1y   y 
Quali sono gli autovettori e gli autovalori
di Sy ? Autovalore: 1 (per x = 0) e -1 (per
y = 0). Quali quelli di Rq ? Risp: 1 per
q0, 1 per q1800
x
Pq vL = 1vL = vL
Pq vL90  0  0 vL90
v non è
autovettore di Pq
Lq
v
vL
q
Pq (che proietta lungo Lq)
ha solo due autovalori: 1
e 0 (che è ammissibile) e i
suoi autovettori sono tutti
lungo vL e vL+90 35
Riassumendo, abbiamo tre tipi di operatori (Hughes p.24)
1 Alcuni, come Rq (se si eccettua R0 e R180) in genere non
hanno alcun autovettore (per q0, R0I e l’autovalore è
+1 mentre per q180o l’ autovalore è –1)
2
In altri casi, come per Sy, Pq e
A   0
a
a
0 
gli autovettori sono su due linee distinte e tra loro
ortogonali (per le matrici simmetriche) e abbiamo due
autovalori distinti
3 Per l’operatore identità I e per R180 tutti i vettori dello
spazio sono autovettori aventi il medesimo autovalore
(rispettivamente 1 e -1)
36
0
3


A
 3 0
Esprimiamo ora questo operatore, che come
abbiamo visto ha autovettori lungo 45 e 135,
come somma di altri due operatori di
proiezione, moltiplicati per i relativi autovalori
cosqsin q 
 cos 2 q
Pq  cosqsin q
2q 
sin


Studiamo l’operatore
1/2

P45  
1 / 2
P135   1/2
 1/ 2
1/ 2
1/2  cos45=sin45=
 1 / 2  sin135= 1/2  cos135=21/2/2
a1P1  a2 P2  3P45  (3)P135 
 3 / 2 3 / 2     3 / 2 3 / 2    3 / 2  3 / 2 3 / 2  3 / 2    0 3   A
3 / 2 3 / 2  3 / 2  3 / 2 3 / 2  3 / 2 3 / 2  3 / 2  3 0
NB Questo tipo di decomposizione A= a1 P1 +a2 P2 vale se e
solo se A è simmetrico, cioè se a12 = a21
37
Teorema di decomposizione spettrale in R2
• Se A è un operatore simmetrico su R2, esistono
due operatori di proiezione P1 e P2 che
proiettano su due direzioni mutuamente
ortogonali, e tali che A= a1 P1 +a2 P2
Se i due autovalori sono distinti la decomposizione di A è unica
e tutti gli autovettori stanno o sulla linea su cui proietta P1 o su
quella su cui proietta P2 con i rispettivi autovalori. Se i due
autovalori sono uguali, la decomposizione non è unica, e tutti i
vettori del piano sono autovettori di A
38
5. Cenni sui numeri complessi
• Importanza di estrarre radici di numeri negativi: x2 +1=0 non
ha soluzioni reali: il sistema dei reali non è chiuso rispetto a
• I numeri complessi possono essere definiti a partire da coppie
ordinate di numeri reali (a,b). Si chiama numero complesso
una coppia di numeri reali che soddisfi a queste condizioni
• Uguaglianza
(a, b) = (c, d) sse a = c e b = d
• Addizione
(a, b) + (c, d) = (a+c, b+d)
• Moltiplicazione (a, b)(c, d) = (ac-bd, ad+bc)
• In (a, b), la prima componente a è la parte reale del numero,
b è la parte immaginaria
• Le due operazioni viste sono commutative, associative e
distributive
39
• Il numero (0,0) è l’elemento neutro per l’addizione, così
come (1,0) è l’elemento neutro per la moltiplicazione.
• I numeri complessi sono un’estensione di quelli reali,
che sono tutte e sole le coppie della forma (a, 0), con
a numero reale qualsiasi, ovvero le coppie con parte
immaginaria nulla. L’insieme dei reali C0 è un
sottoinsieme di C
• Il numero (0,1) è indicato con i
i = (0,1)2 = (0,1)(0,1) = (0.0-1.1,0.1+1.0) = (-1,0)
Per esempio:
 36   1 36  6i
40
• Si noti che ib = bi = (b,0)(0,1) = (0, b)
• Quindi (a, b) = (a, 0)+(0, b)= (a, 0)+[(b,0)(0,1)] = a+ib
• Ogni numero complesso (a, b) è esprimibile nella forma
a+ib
y
x + iy= z=(r cosq, i r sinq)
Piano complesso
r
iy= irsinq
q
x
x = rcosq
r=x+iy= modulo del numero   z = (x2 + y2)1/2
Se r=1, z = cosq  isinq = eiq (vedi pagina successiva)
41
• Se z = x+iy, z* = x – iy è detto complesso coniugato di z
• zz* = (x+iy)(x – iy) = x2 + y2 = z2 = modulo quadro di z
• (z1+z2)* = z1* +z2 *
• Notiamo che sinx = x - x3/3! + x5/5! -….(sviluppo in serie di McLaurin)
che cosx = 1 – x2/2! + x4/4! -….
e che ex = 1+ x + x2/2! + x3/3! + x4/4! +….
Sostituendo iq a x nell’ultimo sviluppo, per “vettori” complessi unitari (r =1)
otteniamo la seguente, notevole relazione di Eulero:
eiq = cosq  isinq
che Feynman definisce come “la formula più notevole della matematica”
(Feynman Lectures on Physics, vol. 1, cap. 22)
Per numeri complessi qualsiasi si ha
z = r eiq
42
Esercizi
• Mettere (1+i)2 1/i e
1/1+i nella forma a +ib
• Calcolare il modulo dei seguenti numeri 1+i 3+4i 1+i/1-i
• Determinare i numeri reali che soddisfano x+iy = x-iy
La prossima nozione, quella di “prodotto scalare”,
servirà a definire la nozione di probabilità
43
6. Prodotto scalare definito in V sopra un campo
(corpo) complesso F
• Un prodotto scalare, indicato con < uv> in
base alla notazione di P. Dirac, è una funzione
che associa a coppie di vettori u, v uno scalare
e che soddisfa i seguenti tre assiomi:
(i) v v  0
(= 0 solo se v =0)
(ii) u v  v u *
(iii) u av  bw  a u v  b u w
Il prodotto è lineare nel secondo vettore
44
• Utilizziamo (ii) e (iii) per mostrare che il prodotto
scalare è antilineare nel primo vettore
au  bv w ( ii) w au  bv
*
( iii)
(a( w u  b w v )  a w u  b w v
*
*
*
*
*
( ii)
a * u w  b* v w
1. Se
v u  0 allora v è ortogonale a u
2. Per definizione,
3. Se
u u
 u è la norma di u
v  1 il vettore è normalizzato
3 nozioni
da
ricordare
(vedi p.46)
45
In R2, per due vettori u e v si ha
 u1 
 v1 
u   ; v     u v  u1v1  u 2 v2
 u2 
 v2 
u u  u1u1  u 2 u 2  u1  u 2  u
2
2
Ponendo u = v
spieghiamo la 2 della
pagina precedente
2
teorema di Pitagora
Determiniamo un numero c tale che < u-cv|v> = 0
u-cv
u
0 = <u|v> - c <v|v> => c = <u|v>/ <v|v> Poiché
c|v| = |u| cosq => c = cosq |u|/|v|
q
cv
v
Uguagliando i due valori di c si ha
cosq |u|/|v| = <u|v>/|v|2, ovvero <u|v> = |u||v|cosq;
se q/2, <u|v>=0 perché cos(/2)=0 (vedi la 1 della pagina
46
precedente: i due vettori u e v sono ortogonali)
Un insieme di vettori e1, e2, … en è detto ortonormale sse
ei e j  ij
1

 ij  
0
se i = j
altrimenti
<u, v>= u v cos q , dove q è l’angolo compreso tra i due
vettori. Se |v|=1, Pv=cosq
|v| =1
v Pv  v Pv cos q  (1)(cos q)2
cosq2 è una probabilità!
q
Pv
Esercizio: Tenendo presenti gli assiomi, verificare che
2
v v'  a1v1  a2v2 a1 ' v1  a2 ' v2  
i 1
2
a a
j 1
*
i
'
j
vi v j
47
• Se al posto di due qualsiasi v1 , v2 non complanari, utilizziamo i
due vettori ortonormali e1 , e2 i vettori v , v’ si scrivono
• v = v1 e1 + v2 e2
v’= v’1 e1 + v’2 e2 e
v v' 
2
2
 v
i 1
j 1
*
i
2
v j e i e j   vi vi
'
*
'
i 1
• Il senso del secondo assioma <u/v)=<v/u)*, che implica
l’antilinearità, è dato dall’esigenza di avere, anche in Vn (C), una
norma positiva: ogni vettore v in R2 (C ) è esprim. come v = v1 e1
+ v2 e2 con vi complesso. Se v=v’, i termini vi 2
sono reali, come dev’essere per delle norme, mentre vi2 non sono
necessariamente positivi per vi complesso:
2
n
v v   vi vi   vi
i 1
*
i 1
2
48
Due teoremi solo “enunciati”…
1) La disuguaglianza di Schwarz
u v
2
 u
2
 v
2
In R3 ha un’interpretazione ovvia, se si tolgono i quadrati e si considera
che
u v  u v cos q  u  v
2) La disuguaglianza triangolare
vu  u  v
In R2 ha un’interpretazione ovvia: la lunghezza di una somma di vettori (di
49
un lato di un triangolo) è inferiore alla somma degli altri due lati
7. La notazione di
Dir ac
Data una base, un vettore v in Vn è in corrispondenza biunivoca con
una n-pla di coefficienti complessi
 v1 
v   v2 
 .. 
 .. 
 .. 
data una base
v 
 n
trasponendo
e passando al
“coniugato complesso
v1*, v2*,..,..,.., vn *) 
v1 ' 
 v2 ' 
n
.. 
*
v v'   vi vi '  v1*, v2 *,..,..,.., vn *) .. 
i 1
.. 
vn '
v
data una base
50
v  v1*, v2 *,..,..,.., vn *)
v
v1 
v2 
.. 
 
.. 
.. 

vn 

v
v
è definito come “bra”
è definito come “ket”
bra ket
Lo spazio dei bra è detto duale di quello dei ket e c’è una
corrispondenza biunivoca tra gli elementi corrispondenti
51
0 
0 
.. 
ei  i  1 
.. 
.. 
0
Vettore colonna
ket
bra
ei  i  0,0,..,1,..,..,0,0 ) Vettore
riga
Per una base ortonormale, si ha
n
n
i 1
n
i 1
v   vi ei   vi i
n
v   vi * ei   vi * i
i 1
i 1
Bra e ket si corrispondono come un numero e il suo complesso coniugato, e, come
sappiamo, <v’|v> è il complesso coniugato di <v|v’>, ovvero <v’|v>= <v|v’>*
av  b v' v'' v'''  c v''''  ...
v a*  v''' v'' v' b *  v''' c * ..
Invertendo l’ordine del prodotto scalare e dei
fattori, “coniugando” i coefficienti complessi
otteniamo l’equazione aggiunta alla prima
52
n
n
i 1
i 1
v   vi | e i   vi i
Moltiplicando “scalarmente” entrambi
i lati per il bra j si ha
n
n
n
i 1
i 1
i 1
j v  j  vi i   j i vi   ji vi  v j
Infatti l’ultima sommatoria è diversa da 0 solo per un valore di i, quello
uguale a j. Poiché la i-esima componente del vettore v è data da i v  vi
riscriviamo la prima formula in alto a sinistra sostituendo al posto della iesima componente di v il suo valore espresso come prodotto scalare
n
n
i 1
i 1
v  i v i  i i v
L’ultima uguaglianza dell’equazione qui sopra si giustifica con il fatto che la
moltiplicazione tra il coefficiente complesso vi = <i| v e la sua base i è
53
commutativa e si può quindi invertire l’ordine
n
n
i 1
i 1
v   vi * i  v j   vi * i j  v j *
n
v  v i i
i 1
Provare a trovare l’aggiunta della seguente equazione
n
v  i i v
i 1
aggiunta
n
v  v i i
i 1
Come si vede, la regola è la seguente: si trasforma un ket in un bra e
viceversa, si inverte l’ordine dei fattori (ovvero si passa al
complesso coniugato del prodotto scalare), e si “coniugano” gli
54
eventuali coefficienti complessi, qui assenti
ESERCIZIO
Teorema di Gram-Schmidt:
v1 , v2 ,...., vn
Data una qualunque n-pla di vettori LI
possiamo sempre trovare n vettori ortonormali
1 , 2 , 3 ,...., n
costruendo opportune combinazioni lineari
Idea della dimostrazione: prima si costruiscono n vettori mutuamente
ortogonali 1' , 2' ,..., n' e poi si normalizzano,ottenendo |1>, |2>, |3>….
esempio
con n=3
3 
0 
0 
v1  0; v2  1 ; v3  2
0
2
5 
1'  v1
Tre vettori LI
3 
1' 1' v2
 0; 2'  v2 
1' 1'

0 

3'  v3
1' 1' v3
2' 2' v3


1' 1'
2' 2'
55
In R2 la proiezione del vettore |v2> su |1’> = | t 1’ >, è un
multiplo di |1’ >, ed è uguale al prodotto scalare tra i due
vettori <1’|v2> diviso il modulo di | 1’ >
| t1’> + | 2’ > = |v2>
|v2>
|2’>
Moltiplicando per <1’|
t<1’|1’>+ <1’| 2’>= <1’|v2>
Si noti che | 2’ >= |v2> - t |1’> è
ortogonale a |1’>
q
|t1’>
|1’>
quindi t = <1’|v2>/<1’|1’>, perché <1’|2’>= 0
La proiezione di v2 su 1’, t|1’> = (|1’> <1’|v2>)/ <1’|1’>
56
v1
1'  v1
3 
1' 1' v2
 0; 2'  v2 
1' 1'

0 

3'  v3
1' 2'  1' v2
3 
0 
0 
 0; v2  1 ; v3  2
0
2
5 
1' 1' v3
2' 2' v3


1' 1'
2' 2'
1' 1' 1' v2

0
1' 1'
Come si vede, |1’> e |2> sono
ortogonali
3
 3
0 (3.0  0.1  0.2)
0 
  0 
0   
0 
0
0  




2'  1  
 1   0
 1 
1' 1'
9
2
2
2
57
0 
1 0.0  1x 2  2 x5)
0 
 0  0  0

2
3'  2  0 
 2  12 / 5    2 / 5
0  1  4)
5 
5  24 / 5 1 / 5 
3
0
 0   1    1
1'
    0    0  Normalizzazione (|1> è unitario)
1 

1/ 2
9  0   0 
1' 1'
e
|1’|=(<1’ | 1’>)1/2
0
1 
0

 2
2'
 
Verificare che i tre vettori
2 

 1 / 5 
2'
1x1  2 x 2  2 / 5 


|1>, |2> e |3> sono a due a
0

due ortogonali e che hanno
 2 / 5
norma unitaria
0


3'
1 / 5 
3  
  2/ 5
58
3'
4 / 25  1 / 25 1/ 5 


Alcune osservazioni
• Da questa procedura costruttiva segue che il massimo numero di vettori a due
a due ortogonali eguaglia il numero massimo di vettori LI (provare l’asserto
verificando anzitutto che un insieme di vettori a due a due ortogonali è LI)
• Dato uno spazio vettoriale V, un sottoinsieme di suoi elementi che
formino essi stessi uno spazio vettoriale si chiama sottospazio.
• Denotiamo il sottospazio i-esimo di dimensione ni con
• Dati due sottospazi
Vi
Vi
ni
ni
e
Vj
Vj
mj
mj
Vi
ni
la loro somma si definisce
 Vk
mk
• e contiene tutti gli elementi dei due sottospazi e delle loro combinazioni
lineari. In V3, il sottospazio costituito dal piano xy per esempio è dato da Vxy2
59
Prima di arrivare alla nozione di aggiunto di un operatore lineare, riscriviamo
alcuni operatori noti nel linguaggio di Dirac in uno spazio a n dimensioni.
Intanto, operatori lineari possono agire su kets A|v> = |v’ > o su “bras” <v|A=<v’
|
Supponiamo che l’azione di A su |>i sia |i’>  A|i> = |i’>
l’azione di un operatore lineare A è completamente determinata dalla sua azione
sui vettori di base
n
n
n
i 1
i 1
i 1
A v  A vi i   vi A i   vi i'
Scriviamo le componenti della nuova base i’ in funzione di quella originale j, ovvero
le proiezioni dei vari |i’ > su j
j i '  j A i  A ji
60
Le componenti del ket trasformato da A sono
esprimibili in termini di una matrice A ji n x n .
Poniamo che sia A|v> = |v’>
n
v'i  i v'  i A v  i A  v j j
j 1
n
n
j 1
j 1
n
 i v j A j 
j 1
  v j i A j   Aij v j
 v'1   1 A 1
 v '2   2 A 1
 .  .
v '   n A 1
 n  
1A 2
.
.
nA2
.
.
.
.
1A n
.
.
nAn
  v1 
 v 
 2 
 . 
 vn 
Le componenti della prima colonna della matrice sono le proiezioni del primo vettore
della base di v’ sulla base di v, ovvero le componenti del primo vettore |1’> della base
di v’ rispetto alla base originaria| i > di v; tali componenti (proiezioni) risultano
61
dall’azione dell’operatore sul primo vettore della base, <1|A|1> = <1|1’>, <2|A|1>=
<2|1’>, etc.
Esempio: sia A l’operatore di rotazione di 90 gradi attorno all’asse z = R(z /2)
R(z /2) |1>= |1’> =|2> è la prima colonna di R
z
R(z /2) |2>= =|2’>= -|1> è la seconda colonna di R
R(z /2) |3>= |3> è la terza colonna di R
3>
2>
1>
x
y
1
0
0
1   0 ; 2   1 ; 3   0 
0
0
1
 
 
 
x
 1R1

R(z /2)   2 R 1
 3R1

1R 2
2R2
3R 2
1R 3
2R3
3R3
  12
 
 2 2
  32
 
 0 1 0
1 0 0
0 0 1


1 1
2 1
3 1
13
23
33





Quest’ultima matrice esprime
quanto detto sopra 62
Ripetiamo la p. 53)
n
V   vi i  j V  j
i 1
n

i 1
n
n
v
i 1
i
i
  j i vi 
i 1
n
v    ij vi  v j
ji i
i 1
Poichè <i |V>= vi sostituiamo questo valore
nella seconda espressione in alto a sinistra
n
n
n
i 1
i 1
i 1
V   vi i   i V i   i i V
L’ultima uguaglianza si spiega perché il prodotto tra lo scalare vi e la base
è commutativo
63
L’operatore di identità in forma matriciale è
I ij  i I j  i j  ij
• L’operatore di proiezione: poiché la prima uguaglianza qui sotto
vale per ogni v, l’oggetto tra parentesi è il proiettore identità
n
 n

 n

v    i i  v    i i   I   Pi
i 1
 i 1

 i 1

Pi è il proiettore per il ket | i>
n
n
i 1
i 1
I   i i   Pi  i i  Pi
n
n
I   i i   Pi
i 1
i 1
Equazione di completezza
64
Pi v  i i v  vi
vi è la componente di v lungo i, ovvero la sua proiezione lungo i. Un vettore v è
quindi la somma delle sue proiezioni lungo n direzioni. Gli operatori P agiscono
anche su “bras”
v   vi * i
i
v Pi  v i i  vi * i
Pi Pj  i i j
j  i ij j i  j ij Pj
L’operatore di proiezione è idempotente (PP=P), come due filtri
polarizzatori con uguale direzione nello spazio.
Per
i j
il secondo proiettore da lo scalare 0, come due filtri
polarizzatori ortogonali l’uno rispetto all’altro
65
Scriviamo Pi = i><i in forma matriciale
0 0 .
0 
0 0 .
0 
. . .
 
P

i    i  0 0 . 1 . 0)
i
. . .
1
. . .
.
0 0 .
0
.
.
.
1
.
.
. 0
. 0
. .
. .
. .
. 0
Mentre <v v’> è uno scalare, v v è un operatore.
L’operatore di proiezione Pi ha solo un elemento diverso da
0, un 1 sull’i-esimo elemento della diagonale. Sommando gli
altri proiettori, sappiamo che si deve ottenere l’identità e
infatti la diagonale della matrice somma sarà costituita da
tutti 1
v
 Pi v
i
I 
 Pi
i
66
8. L’aggiunto di un operatore
Così come un ket (vettore colonna) si trasforma nel bra che gli
corrisponde (vettore riga) con una trasposizione e coniugazione
complessa dei suoi coefficienti, anche un operatore A è legato in modo
analogo al suo aggiunto A†
a v  av  av  a * v  v a *
A v  Av  Av  v A†
Questa eguaglianza
vale per
definizione
Mostriamo ora che la matrice corrispondente all’aggiunto di un operatore A, ovvero
A† è la matrice trasposta (scambio righe con colonne) e complessa coniugata di A
 A† )ij 
i A† j  Ai j  j Ai *  j A i *   A ) * ji
 A† )ij   A) * ji
67
esempio
1

i
4
i


A
3  8i i 

trasponendo

At 1  i 3  8i 
i 
 4i

coniugando

A† 1  i 3  8i 
 i 
 4i
 AB )
†
Dim.
 B † A†
ABC  (AB)C  C (AB)†
ABC  A(BC)  BC A †  C B† A †
Dalla 2 e 3 espressione segue la 1
Trovare l’aggiunta di
a1 v1  a 2 v 2  a3 v3 v 4 v5  a 4 AB v6
v1 a1 *  v 2 a 2 *  v5 v 4 v3 a3 *  v6 B † A † a 4 *
Risposta
68
Operatori hermitiani, anti-hermitiani e unitari (In MQ i
primi rappresentano le osservabili)
Un operatore A è hermitiano se
A†  A
Un operatore A è anti-hermitiano se
A†   A
Come un numero complesso, un operatore hermitiano si può scrivere come una
somma di una parte puramente reale e di una puramente immaginaria
A  A† A  A†
A

2
2
69
Esempio: sia A un operatore sui complessi C2 e v un ket
A   2 1  i 
1  i 3 
v   1 
1  i 
Notiamo che v è un autovettore di A con
autovalore 4, che è un numero reale
(2)(1)  (1  i )(1  i )   4 

Av 

4v


4
(
1

i
)

 (1  i )(1)  (3)(1  i )  
A†

AT
*
2
1

i
2
1

i



)*  1  i 3   1  i 3   A

 

Poiché A è uguale al suo aggiunto A^, allora è un operatore hermitiano, e
“corrisponde” nei complessi a una matrice simmetrica in R2: i suoi elementi fuoridiagonale sono l’uno il complesso coniugato dell’altro, mentre gli elementi sulla
diagonale sono reali e, come vedremo, hanno una somma, che si chiama traccia, che
è uguale alla somma degli autovalori associati ad A
70
Vediamo ora perché
Gli autovalori di un operatore hermitiano sono numeri reali
A v  a v  av moltiplica

 v A v  a v v  a v
ndo scal.
per v entrambi i
membri
Passiamo ora all’equazione aggiunta, si ottiene
v
A†
v  a* v v  a* v
2
PER DEFINIZIONE DI OPERATORE HERMITIANO, A=A† e
quindi vale anche
;
v A v  v A† v
sottraendo le due equazioni membro a membro si ha
2
v 0
0  (a  a*) v 
 a  a* 
a è reale perché
uguale al suo a*.
71
2
Riassumendo, un operatore lineare A su V si dice hermitiano se per
ogni v e u, si ha
u Av  uA v
Un operatore lineare A su V si dice di proiezione se è (i) hermitiano e (ii)
idempotente, ovvero AA=A. L’insieme di proiettori P è in corrispondenza
biunivoca con l’insieme di sottospazi di V su cui i vari P proiettano
Dimostriamo ora una relazione estremamente importante che incontreremo dopo.
Sia P un operatore di proiezione; allora vale la seguente:
2
v Pv  Pv
v Pv idemp. v
P 2v
 hermiticit à Pv Pv  Pv
2
72
Esercizi:
Se A e B sono hermitiani, che cosa si può dire di
(i) AB; (ii)AB+BA;(iii)[A, B] ; i[A, B] ?
La regola per passare agli aggiunti è (oltre a invertire l’ordine dei fattori)
sostituire:
A  A†
(i)
R. sì solo se [AB]=0

a  a*
(NB: agg.(A) = aggiunto di A)
agg(AB) = agg(B)agg.(A)=(per hermiticità) BA in generale diverso da AB
R. (ii) sì
agg(AB+BA)=agg(AB)+agg(BA)=agg(B)agg(A)+agg(A)agg(B)=BA+AB=AB+BA
(iii) agg(AB-BA)=agg(B)agg(A)- agg(A)agg(B)=BA-AB= -(AB-BA) anti-hermitiano
(iv)agg(i[A, B])= -i(agg(AB)-agg(BA))=-i (agg(B)agg(A)- agg(A)agg(B))=
-i(BA-AB)= - iBA + iAB= i(AB-BA)= i[A, B] ovvero i[A,B] è uguale al suo aggiunto
73
e quindi è hermitiano
Operatori unitari
Un operatore U è unitario se
UU †  I
Quest’equazione ci dice che U e U† sono l’uno l’inverso dell’altro. Poiché si
dimostra che quando un operatore A ha un inverso vale
AA-1 =A-1A= I
Anche per U si ha
U†U= I
in analogia ai numeri complessi unitari, u
= eiq
per i quali vale
uu* = eiq e-iq = e0 =1
Esercizio: Mostrare che il prodotto di operatori unitari è unitario
74
Siano U e U1 i due operatori unitari. Allora
UU† = I = U†U e U1 U1† = I = U1† U1
Dobbiamo dimostrare che UU1 (UU1)† = I
Poiché si ha (UU1)† = U1†U† (p.68), UU1 (UU1)† = U U1 U1† U†
Ma dato che U1 è unitario, possiamo scrivere U1 U1† =I e si ha
UU1 (UU1)† =U I U† = U U† = I, dove la penultima uguaglianza
vale perché I U† = U† (I è l’operatore identità)
Gli operatori unitari preservano il prodotto scalare tra i vettori sui quali
agiscono
v'1  U v1
v'2  U v2
v'1 v'2  Uv1 Uv2  v1 U †U v2  v1 v2
75
Gli operatori unitari sono quindi una generalizzazione in Vn(C) degli
operatori di rotazione in R2, i quali ultimi preservano la lunghezza dei
vettori e il prodotto scalare. Poiché la matrice che esprime l’aggiunto di un
operatore è la coniugata della matrice trasposta, nel caso di un campo
reale come R2 la parte immaginaria di ogni numero è nulla e l’inversa di
U, che è U† è semplicemente la sua trasposta: U†=UT (ricordiamo che
quando in spazi reali Rn AAT = I, A si dice matrice ortogonale)
Teorema: Le colonne e le righe di matrici unitarie U n x n, se viste
come componenti di n vettori, sono ortonormali (ortog. e di norma 1)
Dim. poiché (1) la colonna i-esima della matrice che rappresenta U è l’immagine del
vettore di base i> dopo l’applicazione di U, e (2) ogni vettore della base è ortogonale
agli altri, e (3) U preserva il prodotto scalare dei vettori su cui agisce, allora anche la
colonna j della matrice che rappresenta U sarà ortogonale alla colonna i. Ora
consideriamo che le colonne della matrice U† , che è esso stesso corrispondente a una
rotazione, sono, a a parte un fattore di coniugazione complessa, le righe di U: poiché
abbiamo già dimostrato che le colonne di vettori di rotazione come U† sono ortogonali,
lo saranno anche le righe di U. QED
76
Una dimostrazione alternativa del teorema precedente
Le due ipotesi sono
U †U  I ; I   k k
Ricorda l’ Eq. di
completezza a p. 62
k
ij  i I j  i U †U j  i U † IU j   i U † k k U j 
Uik U kj  U ki *U kj 0
†
k
k
k
per i diverso da j
Al variare dell’indice di riga k da 1 a n, per i diverso da j la colonna i-esima e quella
j-esima possono essere pensate come le n coordinate di due diversi vettori colonna
u e v che formano la matrice U. Per la loro ortogonalità, basta mostrare che il
prodotto scalare tra i due vettori <u|v> è nullo; ovvero che le somme Skuk*vk dei
prodotti delle coniugate complesse delle componenti di uk = Uki* per le componenti
di vk=Ukj è 0, proprio come avviene sopra. Per i=j, moltiplichiamo scalarmente il
vettore colonna i per sé stesso (Skuk*uk), determinando quindi il modulo quadrato
del vettore u; ma poiché, per come è definito ij tale prodotto deve valere 1, il
vettore in questione è normalizzato. I vettori colonna della matrice U sono dunque
ortonormali. Per le righe, basta utilizzare l’altra relazione UU † = I
Assumere che (a) det A=det A†
(b) det (AB)= det A det B
det a
c
b   ad  cb
d 
Esercizio: Provare che il determinante (“det”) di una matrice unitaria è un
numero complesso di modulo unitario
Verificare che queste due
matrici sono unitarie, che il loro
determinante è della forma eiq e
vedere se sono hermitiane
1 1

21 / 2  i
1 1  i

2 1  i
i
1

1 i
1 i

La traccia di una matrice A è, come la funzione determinante, una
funzione che associa ad A uno scalare. La traccia, denotata con “Tr”, è
uguale alla somma degli elementi diagonali della matrice stessa:
n
Tr ( A)   Aii
i 1
78
Esercizi
Mostrare che
1) Tr (AB) = Tr (BA)
2) Tr(ABC) = Tr(BCA)=Tr(CAB)
3) La traccia di un operatore è invariante per cambio unitario di
base i>
Ui>; alternativamente, mostrare che
Tr(A)=Tr(U†AU)
4) Mostrare lo stesso per un determinante Det(A)=Det(U†AU),
ovvero che il determinante di una matrice è invariante per
cambio di base unitario
79
9. Equazione caratteristica per matrici finite
Se A è una trasformazione lineare (un operatore lineare dello spazio V),
l’equazione agli autovalori A(v) = av può (portando a sinistra del segno di =
il termine av e aggiungendo l’operatore identità), scriversi nella forma
(A - aI )(v) = 0
Trovare le soluzioni di questa equazione è equivalente a trovare gli autovettori e
gli autovalori di un operatore lineare qualsiasi A. Si può dimostrare che questa
equazione ha soluzioni diverse dall’autovettore v = 0 se e solo se la matrice A-
aI non è invertibile, ovvero se non esiste una matrice inversa (A-aI)-1 tale
che A-aI per la sua inversa sia l’identità I. La non invertibilità, a sua volta, è
equivalente alla seguente condizione sul determinante della matrice di cui sopra
(si veda T. Apostol, Geometria, vol.2, p. 201, oppure Lang, p. 232)
det (A- aI)= 0
80
 3 1  2
det 0 2  2   3 det 2  2   1det 0  2   2 det 0 2 
3 1 1 
1 1 
3 1 
3 1


Esempio di determinazione di autovettori di un operatore A:
Imponiamo che det (A-aI)=0
 3

det  0
 3
3  a

det  0
 3

1
2
1
 2  a
 
 2   0
1   0
1
2a
1
0
a
0
0 

0   0 
a 
2 

 2   0   ci a i  0
i
1  a 
L’ultima sommatoria si ottiene calcolando il determinante di A-aI come indicato
nella prima riga: il polinomio che ne risulta, detto caratteristico, è di grado pari
alla dimensione dello spazio in cui è definito l’operatore. Il polinomio
caratteristico è un equazione di grado n che ha come soluzioni o radici proprio gli
autovalori a di A. In assenza di degenerazione (ovvero quando non si verifica che
uno stesso autovalore sia associato ad autovettori distinti) gli autovalori sono tanti
81
quanti le radici dell’equazione.
Per ogni operatore hermitiano A in Vn esiste almeno una base di
vettori ortonormali. In questa “autobase” l’operatore è diagonale e
ha come elementi diagonali proprio gli autovalori dell’operatore.
Affrontiamo prima il caso (non degenere) in cui tutti gli n autovalori sono distinti
Dato l’operatore hermitiano A, scriviamo prima l’equazione caratteristica
det (A - aI ) = |0>, ricordandoci che il calcolo del determinante ci fornisce il
polinomio caratteristico già introdotto: Si ci ai  0. Tale polinomio in a, grazie al
teorema fondamentale dell’algebra, ha almeno una radice, ovvero un autovalore,
chiamiamolo a1. In corrispondenza a tale autovalore, deve esistere un autovettore
non nullo v1>, perché altrimenti la matrice (A - aI ) sarebbe invertibile e ciò è
escluso dall’ipotesi che il suo determinante sia nullo (vedi la presentazione
sull’equazione caratteristica). Prendiamo adesso in considerazione il sottospazio
Vn-1 _|1 costituito da vettori tutti ortogonali a v1> e scegliamo una base costituita
dall’autovettore normalizzato v1> e da altri n-1 vettori ortonormali scelti nel
sottospazio Vn-1 _|1 ; in questa base l’operatore A ha la forma seguente:
82
 a1 0 0 0 
0


A
0


0

L’immagine del vettore |v1> dopo che a esso applichiamo
A è la prima colonna, che ha tutti zeri sotto l’autovalore a1
perché le sue componenti rispetto agli altri vettori della
base del sottospazio ortogonale a |v1> sono nulle: <2|A|1>=
<3|A|1>=….= 0 e ciò per l’ipotesi di ortogonalità. Lo
stesso dicasi per la prima riga, dato che A è hermitiano,
cioè (AT)* =A† =A, cosicché la prima colonna è uguale
alla prima riga a parte a1
n
Partendo da det(A-aI) = 0, che implica
i
c
a
 i 0
i 1
la nuova equazione caratteristica è (a1- a) det(matrice nel box) = 0, ovvero
n
n 1
 ci a  (a1  a) ci ai  0
i
i 1
i 0
NB: Gli altri termini corrispondenti all’equazione in
alto a p. 81 sono infatti tutti nulli perché la prima riga
e la prima colonna sono nulli tranne a1
Dato che il polinomio di grado n-1 deve a sua volta generare una radice a2 e un
autovettore normalizzato |v2> per le ragioni già viste a proposito di a1, si può
definire il sottospazio Vn-2_|2 i cui vettori sono tutti ortogonali a |v2>. Iterando
la procedura per |v3> fino a vn si ottiene la seguente matrice:
83
 a1
0
A 
 .
0
0
a2
.
. 0
. 0

.
. 
0 an 
Come si vede la matrice che esprime
l’operatore hermitiano A è diagonalizzata
(tutti 0 tranne sulla diagonale, dove
troviamo tutti gli autovalori di A)
Ci può essere più di una base che diagonalizza A, e questo accade quando
c’è degenerazione. Supponiamo che a1  a2  a per due diversi vettori
ortonormali v1 e v2 ; allora si ha:
A v1  a v1 ; A v2  a v2 
Aα v1   v2   aa v1  a v2  aa v1   v2

Poiché v1 v2 sono ortogonali, essi generano un sottospazio bidimensionale
chiamato autospazio i cui elementi sono tutti autovettori di A con lo stesso
autovalore a. Qualunque coppia di vettori ottenuti da una rotazione rigida
di v1 v2 sono una possibile autobase per A: nel caso degenere abbiamo
dunque un’infinità di basi ortonormali. Se il polinomio caratteristico ha una
radice di molteplicità m, la dimensione del sottospazio il cui unico
84
autovalore è a sarà data proprio da m
Vediamo ora il caso degenere con un esempio, in cui abbiamo un operatore
hermitiano in qualche base data
1 0 1
A   0 2 0
1 0 1


Determiniamo l’equazione caratteristica imponendo
1  a
detA  aI )   0
 1

0
1 
2a
0 0
0
1  a 
(1  a )[( 2  a )(1  a )  0]  0  1[0  (2  a )] 
(1  a )[ 2  2a  a  a 2 ]  a  2 
a (a  2) 2  0  a  0,2,2
Per determinare l’autovettore v corrispondente ad a=0, dobbiamo
determinare un’equazione che ci sia utile allo scopo
85
A v  a v  A  aI ) v  0
n
i A  aI ) v  i ( A  a)(
j 1
Scriviamo l’ultima relazione in una base,
moltiplicando per <i| e ricordando che
l’identità I si può decomporre I =Si |i> <i|
 n

j j v )    i A j  a i j v j 
 j 1

 Aij  aij )v j  0
n
j 1
Sostituiamo ora nell’espressione del box rosso i valori dell’esempio precedente per
determinare l’autovettore v di coordinate (x, y, z), corrispondenti all’autovalore a=0
1   x  0 1x  0 y  1z  0  x   z 
1  0 0
 0 2  0 0   y   0    2 y  0  y  0

 1

0 1  0   z  0 1x  0 y  1z  0  x   z 

1
0
 1
v

vv
1
0
 1
1 1

0
2
2  1
Qualunque vettore con z=-x va bene e data
la libertà di scala, scegliamo x=1; se
moltiplichiamo v per un vettore a norma 1,
86
va bene lo stesso
Per le altre due radici (autovalori) coincidenti, a=2, si ottiene un’unica
equazione, come conseguenza della degenerazione. Si trovino per esercizio le
tre seguenti condizioni seguendo la falsariga dell’esempio precedente:
xz0
00
xz0
Le condizioni x=z e y arbitrario (0=0) definiscono un insieme di vettori che è
ortogonale al primo autovettore |v> già trovato, e che giacciono in un piano
ortogonale al primo vettore già trovato |v>. Scegliendo per il primo autovettore
corrispondente ad a=2 y=1 (0=0 non pone alcuna condizione), x=z e
normalizzando, si ha
va 2
v 'a  2
1 1

1
3 1
1

6
1 
  2
1 
Il terzo vettore è scelto in modo che sia ortogonale al
secondo. Ogni distinta scelta della frazione y/z ci dà
coppie distinte di autovettori con il medesimo
autovalore 2
87
Teorema: (Mentre) gli autovalori (di un operatore hermitiano sono
reali, quelli) di un operatore unitario U sono numeri complessi di
modulo 1, e i suoi autovettori sono mutuamente ortogonali
Assumiamo dapprima che non ci sia degenerazione (autovalori tutti distinti):
U vi  ai vi
U v j  a j v j aggiunta

 v j U †  a * j v j
Moltiplichiamo scalarmente l’aggiunta della seconda equazione per la prima
v j U †U vi  a * j ai v j vi  v j I vi  a * j ai v j vi 
(1  a * j ai ) v j vi  0
1) i =j
Poiché gli autovalori a sono tutti distinti, e
ogni autovettore è diverso dal vettore
nullo, abbiamo due casi
2
(i  j )  vi vi  0  a *i ai  ai  1
88
2) caso
i  j )  ( vi
i  j )
Moltiplico entrambi i membri per aj*
 v j  (ai  a j ))  ai a j *  a j a j *  1  ai a j *  1
(1  a * j ai ) v j vi  0  ai a j *  1  v j vi  0
Se U è degenere, per il teorema a p. 76 (che afferma
che le colonne e le righe di matrici unitarie U nxn,
se viste come componenti di n vettori, sono
ortonormali), e ripetendo la dimostrazione a p. 8283, la somma dei moduli quadri degli elementi di
ogni riga deve dare 1 (ortonormalità dei vettori riga);
se scegliamo il primo autovettore con norma unitaria
|v1| = 1, tutti gli altri elementi della prima riga sono
nulli. Iterando la procedura per le altre righe si
ottiene la conclusione
89
Diagonalizzazione di matrici hermitiane
grazie a cambiamenti unitari della base
Consideriamo una base ortogonale per un operatore hermitiano A
in Vn
1 , 2 , 3 ,..., n
A questa base possiamo sempre applicare una trasformazione U
tale che per ogni vettore ortonormale |i> ci dia proprio la base
(autobase) |ai>= U|i>, che è quella che diagonalizza la matrice A.
Tale trasformazione U, preservando gli angoli, sarà unitaria, e da
basi ortonormali porta a basi ortonormali. Ne segue che per ogni
hermitiano A esiste una matrice unitaria U tale che U†AU è
diagonale. Trovare una base che diagonalizza A equivale dunque a
risolvere il problema degli autovalori, cioè trovare i possibili valori
delle osservabili di un sistema.
90
Esercizio
1 3 1
A  0 2 0
 0 1 4


(i) det (A-aI) = 0
(1) Trovare gli autovalori e gli autovettori normalizzati
dell’operatore A; 2) stabilire se la matrice è hermitiana e se 3) i
suoi autovettori sono ortogonali
1 
1  a 3


det (A - aI )   0 2  a 0   0
 0
1 4  a 

(1  a)[( 2  a)( 4  a)]  a1  1; a 2  2; a3  4
1  x1   0 
 x1  1  1 3
  
   
(ii)determiniamo l’autovettore v1 det (A - a1I ) y1    0 2  1 0  y1    0  
1 4  1 z1   0 
 z1   0
0 x1  3 y1  z1  0  3 y1  z1  0
0 x1  y1  0 z1  0  y1  0
0 x1  y1  3z1  0  y1  3z1  0
Non ci sono condizioni sulla prima componente x1,
mentre le altre due sono nulle. Scegliamo quindi x1=1, y1= z1=0
1 
v1  w1  0
091
 x2  1  2
det (A - a2 I ) y2    0
z   0
 2 
3
22
1
1  x2   0 
0  y2    0  
4  2  z2   0 
  5
v2   2
 1 
 x2  3 y2  z2  0  x2  5 z2
0 x2  0 y2  0 z2  0
0 x2  y2  2 z2  0  y2  2 z2
3
1  x3   0 
 x3  1  4
det (A - a3 I ) y3    0 2  4
0  y3    0  
 z   0 
z   0
1
4

4
 3   
 3 
 3 x3  3 y 3  z 3  0
 2 y3  0
y3  0
Normalizziamo i due vettori divedendoli per il rispettivo modulo
  5
  2
 1 
1   5
w2 

  2
25  4  1 30  1 
w3 
1
0 
3
1 1

0 
1 9
10 3
92
1 3 1
A  0 2 0
 0 1 4


Non è simmetrica e dunque non è hermitiana, dato che la
trasposta di A non è identica ad A
w1 w2  x1x2  y1 y2  z1z2 )  0
Non vale l’ortogonalità
(2)Considerando la seguente matrice B, stabilire se è hermitiana, trovare i suoi
autovalori e autovettori e chiamando U la matrice di autovettori di B, verificare
che U† BU è diagonale
0 0 1
B   0 0 0
1 0 0


cosf sin  

C 


sin

cos



(3) Verificare che C è unitaria, mostrare che i suoi autovalori sono di modulo
1 (eif e-if) e trovare i suoi autovettori, mostrando che sono ortogonali.
Verificare che U†BU è diagonale, ponendo U uguale alla matrice degli
autovettori di C
93
Teorema: Se A e B sono due operatori hermitiani commutanti, esiste almeno una
base di autovettori comuni che li diagonalizza entrambi
Dimostriamo solo il caso in cui almeno uno dei due operatori (per es. A) sia non
degenere (per ogni autovalore ai c’è un solo autovettore vi). Per una
dimostrazione in cui entrambi sono degeneri, vedi R. Shankar, pp.48-50
A vi  ai vi  BA vi  B(ai vi )  ai B vi
A, B  0  AB - BA  0  A(B vi
)  BA vi  ai (B vi )
Ne segue che B|vi>è un autovettore di A con autovalore ai. Poiché dagli
esercizi sappiamo che gli autovettori sono individuati a meno un fattore di
scala b, si può scrivere:
B vi  bi vi
Questo mostra che |vi> è anche un autovettore di B con autovalore bi ; poiché ogni
autovettore di A è anche un autovettore di B, ed esiste un’unica base per A (perché
94
è non-degenere), allora la base |vi> diagonalizzerà entrambi gli operatori.