Struttura della Materia II Prof. Francesco Montalenti. U5 II piano Ricevimento Martedì e Mercoledì 15.30, previo appuntamento tramite email ([email protected]) Lezioni: Lunedì 9.30-11.30; Giovedì 9.30-11.30 Pausa didattica: 18/11-22/11 Corso strutturato in 5 crediti frontali (40 ore) e 1 di esercitazioni (12 ore) Modalità esame: scritto con giudizio e sbarramento + orale con voto finale. Testi consigliati 1. Griffiths, Introduzione alla Meccanica Quantistica (Casa Editrice Ambrosiana), o equivalente versione inglese 2. Demtröder, Atoms, Molecules and Photons (Springer) Per approfondire ... Cohen-Tannoudji, Diu & Laloë, Quantum Mechanics (Wiley) Brandsen & Joachain, Physics of Atoms and Molecules (Prentice Hall) Gruppi e gruppi abeliani Consideriamo un insieme X, e supponiamo di avere definito l’operazione “*” tra elementi di X (* : X x X -> X; attribuisce ad ogni coppia uno e un solo elemento), di modo che siano verificate le seguenti proprietà: 1. (x*y)*z=x*(y*z) ∀x,y,z∈X -- proprietà associativa 2. ∃ e∈X: e*x=x*e=x ∀x∈X -- esistenza elemento neutro 3. ∀x∈X ∃ xs∈X: x*xs=xs*x=e -- esistenza simmetrico (1.->3. X è un gruppo) 4. ∀x,y∈X si ha x*y=y*x Bene, allora (X,*) è un gruppo abeliano (rispetto all’operazione *). Gruppi e gruppi abeliani Proprietà semplici da dimostrare: . elemento neutro e simmetrico di un gruppo sono unici .. x*y=x*z->y=z Def. Se X è un gruppo (abeliano), H⊂X, e H è un gruppo (abeliano) rispetto alla stessa operazione, allora H è detto sottogruppo (abeliano) di X. Esempi di gruppi abeliani Es: X=R, e *=usuale somma (+) tra numeri reali -> (R,+) è un gruppo abeliano. In tal caso, e=0, xs=-x Es: X=R, e *=usuale prodotto (・) tra numeri reali. 2. e=1. Lo zero non ammette reciproco. NO! Es: R\{0}, e *=usuale prodotto (・) tra numeri reali -> (R\{0},・) è un gruppo abeliano. In tal caso, e=1, xs=x-1 Anche Q\{0}, C\{0} sono gruppi abeliani rispetto al prodotto. Z non è un gruppo abeliano rispetto al prodotto (non ammette simmetrico, ovvero reciproco, in Z). Es: Z,Q,R,C sono gruppi rispetto alla somma. Dato che Z⊂Q⊂R⊂C, ognuno è sottogruppo (rispetto a +) di quelli che lo contengono. Esercizio: Si consideri l’insieme {z∈C; |z|=1}. 1. E’ un gruppo rispetto all’usuale somma tra numeri complessi? 2. E rispetto al prodotto? Esercizio: Si consideri l’insieme {z∈C; |z|=1}. 1. E’ un gruppo rispetto all’usuale somma tra numeri complessi? 2. E rispetto al prodotto? 1. z=a+ib; a,b∈R; |z|2=z*z=(a-ib)(a+ib)=a2+b2; z1=1; z2=(1/√2)+i (1/√2); z3=z1+z2=[1+ (1/√2)]+i (1/√2); |z3|2=1+0.5+√2+0.5>1 NO GRUPPO RISPETTO A SOMMA 2. z1=a+ib; z2=c+id, con a2+b2=1=c2+d2 z3=z1*z2=ac+iad+ibc-bd=(ac-bd)+i(ad+bc); |z3|2=(ac-bd)2+(ad+bc)2]=a2c2+b2d22acbd+a2d2+b2c2+2adbc=a2(c2+d2)+b2(c2+d2)-> |z3|2= (c2+d2) (a2+b2)=1. E’ UN GRUPPO (ABELIANO) Oss: per il punto 2. poteva essere utile la rappresentazione nel piano di Gauss (a,b): z=a+ib=ρeiφ; eiφ=cos(φ)+isin(φ); ρ2=(a2+b2); φ=atan(b/a) se a>0; φ=π+atan(b/a) se a<0 Infatti z3=z1*z2=ρ1ρ2ei(φ1+φ2)->|z3|2=|ρ1|2|ρ2|2=1 b z(a,b) ρ φ a Campi Consideriamo un insieme k, e supponiamo siano definite due operazioni (ovvero due applicazioni k X k -> k) “+” (“somma”) e “・” (“prodotto”) tali per cui (k,+) e (k\{0},・) siano gruppi abeliani, con “0” -> elemento neutro rispetto all’operazione “+”. Esempi: Q,R,C Campi Bene, k è un campo (rispetto a tali somma e prodotto) se vale la proprietà distributiva del prodotto rispetto alla somma: ∀ a,b,c∈k -> a・(b+c)=a・b + a・c Esempi: Q,R,C Def. Se k è un campo, H⊂k, e H è un campo (abeliano) rispetto alle stesse operazioni, allora H è detto sottocampo di k. Es: Q è un sottocampo di R e C; R è un sottocampo di C. Spazi vettoriali Sia k un campo. Chiameremo “scalari” gli elementi di k. Si dice che un insieme V è uno spazio vettoriale sul campo k se: 1. V è un gruppo abeliano rispetto all’operazione di somma 2. Detti “vettori” gli elementi di V, è definita una legge di composizione esterna f: k X V -> V detta “prodotto di uno scalare per un vettore” che associa ad ogni coppia (scalare λ,vettore v) uno e un solo vettore denotato λv , con le seguenti proprietà: Spazi vettoriali ∀λ,μ∈k, ∀ v1,v2∈V-> 1. λ(v1+v2)=λv1+λv2 2. (λ+μ)v1=λv1+μv2 3. (λμ)v1=λ(μv1) 4. 1v1=v1 Def. Il fatto che la somma di due vettori di V sia un elemento di v, così come il prodotto fra un elemento di k e uno di V di esprime dicendo che V è chiuso rispetto alla somma di vettori e al prodotto per uno scalare. Def. Se V è uno spazio vettoriale su k, U⊂V, e U è chiuso rispetto alla somma di vettori e al prodotto per uno scalare indotti da V, allora U è detto sottospazio vettoriale di V. Spazi vettoriali Sia V uno spazio vettoriale sul campo k, indico con lettere greche gli elementi del campo, con lettere latine i vettori. Evidentemente, la “combinazione lineare”: v=αa+βb+γc+.. è ancora un vettore. Def. Se un vettore v NON può essere scritto come combinazione lineare di un insieme di vettori (a,b,c,...), allora v è detto essere linearmente indipendente dai vettori (a,b,c,...). Spazi vettoriali Sia V uno spazio vettoriale sul campo k Def. 2. Un insieme di vettori (a,b,c,...) è detto linearmente indipendente (come insieme) se ciascuno di essi è linearmente indipendente da tutti gli altri. Def. 3. Un insieme di vettori “ricopre” (in inglese “span”) tutto lo spazio (oppure “è completo”) se qualsiasi vettore dello spazio può essere scritto come combinazione lineare dei vettori di tale insieme. Spazi vettoriali Sia V uno spazio vettoriale sul campo k Def. 4. Un insieme completo di vettori è detto “base dello spazio vettoriale” se è linearmente indipendente (come insieme). Il numero di vettori di una base fornisce la dimensione dello spazio. Componenti di un vettore Se indico con (e1,e2,...,en) una possibile base, allora so che ogni vettore può essere scritto come: v=α1e1+α2e2+...+αnen Quindi, se la dimensione dello spazio è pari a n, ogni vettore può essere rappresentato in maniera univoca dalla sua n-upla di “componenti” rispetto alla base assegnata, ovvero dagli n scalari che determinano i coefficienti della combinazione lineare della base. v↔(α1,.....,αn) Componenti di un vettore v↔(α1,.....,αn) Le componenti permettono di eseguire le operazioni direttamente sugli scalari. Evidentemente la somma di due vettori è il vettore che ha come componente i-esima la somma delle componenti i-esime dei due vettori, il prodotto di uno scalare per un vettore si ottiene moltiplicando ogni componente per lo scalare, l’elemento neutro è una n-upla di zeri, il vettore inverso è ottenuto cambiando segno ad ogni componente. Questo può facilitare molto le cose, riduce conti tra vettori “astratti” a semplici operazioni (tipicamente su numeri complessi). Attenzione però alla dipendenza dalla base! Esempi di spazi vettoriali (I) Sia k un campo. Lo 0 della somma definita su k è uno spazio vettoriale, detto nullo. A questo spazio appartiene un unico elemento, lo 0. Si attribuisce a tale spazio dimensione nulla. Sia k un campo. Le due operazioni di somma e prodotto definite sul campo possono anche essere interpretate come operazioni di somma di vettori e di prodotto di uno scalare per un vettore. A dire che un campo k può sempre essere visto come spazio vettoriale su se stesso. (R è un campo, ma è anche uno spazio vettoriale su R). Esempi di spazi vettoriali (I) Fisso n≥1 e un campo k. Considero l’insieme V di tutte le n-uple che posso formare con gli elementi del campo. Bene, definendo in V la somma di vettori come somma delle componenti, e il prodotto scalare per vettore come prodotto per uno scalare di tutte le componenti creo uno spazio vettoriale, kn. Esempi di spazi vettoriali (II) Considero k[x]=insieme dei polinomi in una variabile a coefficienti complessi. Utilizzando le note regole di somma tra i polinomi (sommo i coefficienti di termini di pari grado), e di prodotto di un polinomio per uno scalare, vedo subito che k[x] è uno spazio vettoriale (di dimensione infinita) Esempi di spazi vettoriali (II) Sia dato un insieme S, e si costruisca kS= insieme composto da tutte le funzioni f:S->k, dove k è un campo. Bene, kS è uno spazio vettoriale su k, pur di definire puntualmente (è quello che facciamo sempre) somma di funzioni e prodotto di una funzione per uno scalare: ∀ x ∈ S, ∀ f,g ∈ kS, (f+g)(x)=f(x)+g(x); ∀ Φ ∈ k, ∀ f ∈ kS, (Φ f)(x)= Φf(x). Esempi di basi 1. Considero un campo k, e lo spazio vettoriale kn costituito dalle n-uple formate con gli elementi di k. Una base ovvia di kn è data dalla “base standard” (in cui “1” rappresenta l’elemento neutro del prodotto sul campo k) e1=(1 0 0 0 ...), ....., en=(0 0 ... 0 1) 2. I due elementi 1 e i costituiscono una base per lo spazio vettoriale C su R (dim=2). (E per C su C?) 3. L’insieme {1,x2,x3,x4,....,xn} è una base per lo spazio kn[x] dei polinomi a coefficienti complessi (ma anche reali) di grado inferiore o uguale a n. Ne vedremo molte altre .... Spazi pre-hilbertiani e spazi di Hilbert Sia V uno spazio vettoriale su campo complesso, e sia definita un’applicazione V X V -> C che associa ad ogni coppia di vettori u,v lo scalare ≺u∣v≻. Se valgono le seguenti proprietà ∀ u,v,w∈V e ∀λ∈C⇒ 1. ≺u+v∣w≻= ≺u∣v≻+≺v∣w≻ 2. ≺u∣λv≻=λ≺u∣v≻ 3. ≺u∣v≻=≺v∣u≻* (indicheremo con * il complesso coniugato) 4. ≺u∣u≻>0 se u≠0; ≺u∣u≻=0 se u=0 (che sia reale segue dalla 3.) allora l’applicazione è detta prodotto interno, e lo spazio V è detto spazio vettoriale con prodotto interno, o spazio vettoriale hermitiano o spazio vettoriale unitario o spazio vettoriale pre-hilbertiano. Spazi pre-hilbertiani e spazi di Hilbert Oss. L’estrazione di uno scalare dalla parte sinistra del prodotto interno porta a una coniugazione complessa: ≺λu∣v≻=≺v∣λu≻*=(λ≺v∣u≻)*=λ*≺v∣u≻*=λ*≺u∣v≻ Noi avremo a che fare con spazi di Hilbert, che godono di qualche proprietà in più degli spazi pre-hilbertiani che però non utilizzeremo per cui non stiamo a specificarla. Spazi pre-hilbertiani e spazi di Hilbert Si è detto che ∀u∈C, u≠0, ≺u∣u≻>0 Def. La norma di un vettore è il numero reale positivo ∣∣u∣∣≡ ≺u∣u≻ Def. Due vettori u e v sono detti ortogonali se ≺u∣v≻=0 Def. Un gruppo di vettori (a1,a2,...,an) mutuamente ortogonali e di norma unitaria è detto insieme ortonormale. Al suo interno varrà la relazione: ≺ai∣aj≻=δ Spazi pre-hilbertiani e spazi di Hilbert ATTENZIONE: Dato uno spazio di (pre-)Hilbert, è sempre possibile trovare una base ortonormale (procedura di Gram-Schmidt) Parto da una base qualunque (e1,e2,...,en), poi costruisco f1=e1/∣∣e1∣∣; g2=e2-≺f1∣e2≻f1 ⇒ ≺f1∣g2≻=≺f1∣e2≻-≺f1∣e2≻≺f1∣f1≻=0; pongo f2=g2/∣∣g2∣∣; g3=e3-≺f1∣e3≻f1-≺f2∣e3≻f2; pongo f3=g3/∣∣g3∣∣ ..... Spazi pre-hilbertiani e spazi di Hilbert Scelta una possibile base ortonormale per lo spazio di Hilbert, emerge nel caso più generale, il “tipico” prodotto interno che conosciamo. Cioè: Sia e1,e2,e3,...,en la base ortonormale (detta anche “sistema ortonormale completo, o “sonc”), e siano u e v due vettori dello spazio. Sarà sempre possibile scrivere: u=α1e1+α2e2+...+αnen; v=β1e1+β2e2+...+βnen ⇒ Spazi pre-hilbertiani e spazi di Hilbert u=α1e1+α2e2+...+αnen; v=β1e1+β2e2+...+βnen ⇒ ≺u∣v≻=α1*β1+α2*β2+...+αn*βn; ≺u∣u≻=|α1|2+|α2|2+...+|αn|2 Oss: u=α1e1+α2e2+...+αnen⇒αi=≺ei∣u≻ Tutto molto comodo! In seguito, se non altrimenti specificato, useremo sempre basi ortonormali. Operatori lineari Dati due spazi vettoriali V e V’ sul medesimo campo k, si dice che Â: V->V’ è un omomorfismo (o applicazione lineare) se: . ∀v1,v2∈V, Â(v1+v2)=Â(v1)+Â(v2) (additiva) .. ∀v∈V, ∀λ∈k, Â(λv)=λÂ(v) (omogenea di grado 1) Se poi V=V’, allora  è detta endomorfisimo, o operatore lineare. Un endomorfismo biiettivo è detto isomorfismo. Operatori lineari Oss: Se so come un operatore lineare  agisce su una base (e1, ....,en) di V, allora so come agisce su un qualunque vettore. Infatti: Âe1∈V⇒posso sempre scrivere: Âe1=T11 e1 + T21 e2 + T31 e3 + .... +Tn1 en; con Tij opportuni scalari. Inoltre: Âe2=T12 e1 + T22 e2 + T32 e3 + .... +Tn2 en; .... Âen=T1n e1 + T2n e2 + T3n e3 + .... +Tnn en⇒ Âej= ∑i Aij ei (i=1,n) Operatori lineari Âej= ∑i Aij ei (i=1,n) nota: è uguale il primo indice Ora, dato v∈V, posso scrivere v=v1e1+v2e2+.....+vnen v= ∑l vl el (l=1,n) Âv= Â∑l vl el=∑l vlÂel (l=1,n)⇒ Âv=∑l vl ∑i Ail ei=∑l ∑i vlAil ei⇒ Âv= ∑i(∑l vlAil)ei (l=1,n; i=1,n)⇒ v= ∑i vi ei (i=1,n) Âv= ∑i vi’ ei; vi’ = ∑jAijvj nota: è uguale il secondo indice Operatori lineari v= ∑i vi ei (i=1,n) Âv= ∑i vi’ ei; vi’ = ∑jAijvj (*) Quindi, fissata una base, un operatore lineare che agisce su un vettore altro non fa che trasformare un le sue componenti secondo la (*). Gli n2 elementi Aij caratterizzano univocamente l’operatore lineare rispetto alla base data. La matrice di elementi Aij viene detta matrice rappresentativa dell’operatore  (rispetto alla base assegnata). Operatori lineari A= ( ) A11 ... A1n A21 ... A2n ... An1 .... Ann Oss. Se gli ej sono una base ortonormale, da subito che Aij= ≺ei∣Âej> Âej= ∑l Alj el si vede Somma di operatori lineari Dovrebbe ormai apparire naturale la definizione di somma tra operatori lineari: (Â+Ĉ)v≡Â(v)+Ĉ(v)≡Ĝ(v). Ovviamente, la matrice rappresentativa dell’operatore somma Ĝ è ottenibile con le usuali regole di somma tra matrici: G= ( ) G11 ... G1n G21 ... G2n ... Gn1 .... Gnn Gij=Aij+Cij Prodotto di operatori lineari Definisco il “prodotto” tra operatori lineari come risultato dell’applicazione successiva dei due operatori. Sia v’=Âv e v’’=Ĉ(v’)=Ĉ(Âv)≡ĈÂv≡Ĝv. Cerco la matrice rappresentativa dell’applicazione prodotto (composta): so che, in generale, se le componenti di v sono (v1,..,vn), allora le componenti di Ĝv, (v’’1,..,v’’n) sono del tipo: v’’i=∑jGijvj; D’altro canto v’’i=∑jCijv’j, e v’j=∑lAjlvl⇒ v’’i=∑jGijvj = ∑jCij∑lAjlvl = ∑l∑j(CijAjl)vl =∑j∑l(CilAlj)vj Prodotto di operatori lineari v’’i=∑jGijvj=∑jCij∑lAjlvl=∑l∑j(CijAjl)vl=∑j∑l(CilAlj)vj⇒ Gij=∑l(CilAlj) Per trovare l’elemento ij del prodotto seleziono la riga i-esima di C e la colonna j-esima di A, moltiplico il primo elemento della riga per il primo della seconda, il secondo col secondo, etc., e sommo tutto. E’ proprio il prodotto tra matrici!!! Trovato per matrici quadrate, ma vale anche come def. di prodotto tra matrici rettangolari, purchè il numero di colonne della prima sia pari al numero di righe della seconda. A tale proposito, notare che: Prodotto di operatori lineari la trasformazione di coordinate di v prodotta dall’applicazione dell’operatore Â: v’j=∑lAjlvl può anche essere vista come prodotto matriciale riga per colonna, pur di rappresentare v come vettore colonna di n righe e 1 colonna: v’=Av. Notare l’assenza di “cappuccio”, è del tipo (nx1)=(nxn)x(nx1) Data una matrice A di elementi Aij, la sua trasposta è la matrice At di elementi Aji. Una matrice quadrata A è simmetrica se A=At; è antisimmetrica se A=-At La matrice (complessa) coniugata di A, A*, è la matrice di elementi Aij* Una matrice è reale (immaginaria) se tutti gli Aij sono reali (immaginari), per cui A=A* (A=-A*); L’hermitiana coniugata, o aggiunta, di una matrice A è la sua trasposta coniugata: A=(A*)t≡A†. Una matrice quadrata è hermitiana, o autoaggiunta, se A=A† e antihermitiana se A=-A† Oss: dati due vettori dello spazio di Hilbert u e v, il loro prodotto interno può essere espresso in modo immediato in forma matriciale: <u∣v>=u†v, inteso come prodotto matriciale tra la matrice (1xn) u†, ottenuta coniugando le n componenti di u e disponendole in riga, e la matrice (nx1) data dal vettore-colonna con le componenti di v. Attenzione: date due matrici quadrate (per le altre non ha senso)A e C, in generale: AC≠CA; [A,C]≡AC-CA si dice commutatore tra A e C. Inolte: (AC)t=CtAt (AC)†=C†A† Def. L’inversa di una matrice A, detta A-1, è definita da: A-1A=AA-1=I; Iij=δij Una matrice A ammette inversa se e solo se il suo determinante è ≠0. In tal caso: A-1=(1/detA)Cof t dove Cof è la matrice dei cofattori. Il suo elemento (ij) è dato da (-1)i+j moltiplicato per il determinante della sottomatrice di A ottenuta cancellando la riga i e la colonna j. Se una matrice NON è invertibile (non ammette inversa), si dice singolare. Se il prodotto tra matrici AC ammette inversa, allora: (AC)-1=C-1A-1 Una matrice è unitaria se la sua inversa è uguale alla sua coniugata hermitiana: A-1=A†. Se poi gli elementi di A sono reali, allora l’inversa di A coincide con la sua trasposta, e si parla di matrice ortogonale (es, rotazioni in 3D in R3) Proprietà fondamentale delle matrici unitarie. Considero due vettori u e v dello spazio di Hilbert. Sappiamo che: <u∣v>=u†v (l’uso delle maiuscole è inutile ..) Adesso considero A unitaria e calcolo il prodotto interno tra Au e Av: <Au∣Av>=(Au)†(Av)=u†A†Av=u† A-1Av=u†v=<u∣v>. Gli operatori lineari rappresentati da matrici unitarie lasciano inalterati i prodotti interni! Cambiamenti di base Consideriamo due basi (e1,...,en) e (f1,...,fn) di uno stesso spazio di Hilbert. Come tutti i vettori dello spazio, quelli della prima base saranno esprimibili mediante opportuna combinazione lineare di quelli della seconda: e1=S11f1+...+Sn1fn ... en=S1nf1+...+Snnfn ej=∑i Sijfi (*) in R3 sarebbe ej=∑iSijfi do’ per scontato che si capisca che ej è un vettore, non la componente di un vettore ... ej=∑i Sijfi (*) v=v1e1+...+vnen=∑kvkek Dato che lavoro con due basi esplicito meglio il fatto che vk indica la componente k-esima nella base e: v=∑k(vk)eek; v=∑k(vk)e∑iSikfi=∑i(∑kSik(vk)e)fi➞ (vi)f=∑jSij(vj)e➞in forma matriciale: vf=Sve vf=Sve Oss: Deve valere anche per i vettori della base, per cui (fi)f=S(fi)e. Oss. (II) Nel passaggio da una base a un’altra, le coordinate di un vettore si trasformano in modo analogo a quello che succede se, fissata la base, un operatore lineare agisce sul vettore. Come cambia invece la matrice rappresentativa di una trasformazione lineare Â? Sappiamo che (v)f=S(v)e da cui (v)e=S-1(v)f; D’altronde, se (v’)e=(A)e(v)e, allora (v’)f=S(v’)e=S(A)e(v)e=S(A)eS-1(v)f≡(A)f(v)f con (A)f=S(A)eS-1 In generale due matrici A e B tali per cui esiste una S non singolare che garantisce l’eguaglianza: A=SBS-1 sono dette simili. Quindi, matrici che rappresentano lo stesso operatore lineare  in basi diverse sono simili tra loro. Esercizio: si trovi la matrice del cambiamento di base S e la sua inversa per le due basi qui sotto riportate base standard e1= base alternativa ()() () ()() () e2= f1= 1 0 0 e3= 0 1 0 0 0 1 0 1f2= 0 1 0 1 2 1-i 1 f3= (fi)f=S(fi)e base standard ()() () ()() () 1 0 0 e1= e2= base alternativa f1= 0 1 0 0 0 1 1 0 1 2 1-i 1 e3= 0 1 f2= 0 f3= x es: (f3)f=S(f3)e ( )( 1 0 0 = S11 S12 S13 S21 S22 S23 S31 S32 S33 )( ) 2 1-i 1 base standard ()() () ()() () 1 0 0 e1= e2= base alternativa f1= 0 1 0 0 0 1 1 0 1 2 1-i 1 e3= 0 1 f2= 0 f3= E’ più facile trovare l’inversa (f1)e=S-1(f1)f≡A(f1)f ( )( 0 1 0 = A11 A12 A13 A21 A22 A23 A31 A32 A33 )( ) 1 0 0 (f1)e=S-1(f1)f≡A(f1)f f1= ()() () 0 1 f2= 0 f3= 1 0 1 2 1-i 1 (f1)e=S-1(f1)f≡A(f1)f ( )( 0 1 0 A11 A12 A13 A21 A22 A23 A31 A32 A33 = )( ) 1 0 0 (I) 0=A11 (II) 1=A21 (III) 0=A31 (f2)e=S-1(f2)f≡A(f2)f ( )( 1 0 1 = A11 A12 A13 A21 A22 A23 A31 A32 A33 )( ) (IV) 1=A12 (V) 0=A22 (VI) 1=A32 0 1 0 (I) 0=A11 (II) 1=A21 (III) 0=A31 (IV) 1=A12 (V) 0=A22 (VI) 1=A32 (f3)e=S-1(f3)f≡A(f3)f ( )( 2 1-i 1 = A11 A12 A13 A21 A22 A23 A31 A32 A33 )( ) (VIII) 2=A13 (IX) 1-i=A23 (X) 1=A33 0 0 1 (I) 0=A11 (II) 1=A21 (III) 0=A31 (IV) 1=A12 (V) 0=A22 (VI) 1=A32 (VIII) 2=A13 (IX) 1-i=A23 (X) 1=A33 ( ) ( )( ) S-1 = 0 1 2 1 0 1-i 0 1 1 (Oss: det=1) t S= i-1 -1 1 1 0 0 1-i 2 -1 = i-1 1 1-i -1 0 2 1 0 -1 Risultati utili (I/II): I. Se la base di partenza è ortonormale, quella di arrivo rimane ortonormale se e solo se S è unitaria, per cui: (A)f=S(A)eS† II. se S è unitaria e (A)e è hermitiana, allora (A)f è hermitiana III. l’operazione di similitudine conserva il prodotto tra matrici, ovvero: se (A)e(B)e=(C)e, allora (A)f(B)f=(C)f. Risultati utili (II/II): Da proprietà note delle matrici (il determinante di un prodotto è uguale al prodotto dei determinanti + la traccia di un prodotto è uguale al prodotto delle tracce) seguono immediatamente la seguente proprietà importante: IV. Il determinante e la traccia della matrice associata a un operatore lineare NON dipendono dalla scelta della base. Infatti, ad esempio: det[(A)f]= det[S(A)eS-1]=det[S]det[(A)e]det [S -1]= = det[(A)e] Autovettori e autovalori. Consideriamo l’operatore lineare Â. Se un vettore (non nullo) v dello spazio su cui opera  è tale da verificare: Âv=λv, con λ∈C, allora v è detto autovettore di Â, e lo scalare λè l’autovalore associato a v. Adesso scegliamo una base e consideriamo la relazione matriciale: Av=λv (*); v≠vettore nullo. dove, per semplicità, non ho indicato esplicitamente che A=(A)e, e che v=(v)e. La (*) equivale a: (A-λI)v=0 dove I è la matrice identità e “0” rappresenta la matrice nulla. (A-λI)v=0. Se esistesse (A-λI)-1, allora potrei applicarla ad ambo i membri, ottenendo v=0, contrariamente all’assunzione iniziale. Quindi, v può essere autovettore solo se det(A-λI)=0, ovvero: | (A11-λ) A12 ... A1n A21 (A22-λ) ... A2n ... An1 An2 ... (Ann-λ) | =0 | (A11-λ) A12 ... A1n A21 (A22-λ) ... A2n ... An1 An2 ... (Ann-λ) | =0 Imporre detA=0 porta ad un’equazione algebrica di grado n in λ: Cnλn+Cn-1λn-1+...+C0=0 (*) dove i coefficienti Ci nell’equazione caratteristica (*) sono numeri complessi che dipendono dagli elementi di A. Gli n autovalori sono determinati dalle n radici dell’equazione caratteristica. Ovviamente, alcune radici possono essere multiple. L’insieme di tutti gli autovalori di A si chiama spettro di A. Cnλn+Cn-1λn-1+...+C0=0 (*) Uno spettro è non degenere se non esistono due autovettori linearmente indipendenti che condividono lo stesso autovalore. (Notare che se u è autovettore di A corrispondente all’autovalore λ, allora cu è ancora autovettore di A corrispondente a λ, ma cu è linearmente dipendente, non porta a degenerazione). Altrimenti è degenere. Se Afi=λifi, i=1,...n, e l’insieme degli fi ricopre tutto lo spazio (non sempre è vero) allora posso usare gli autovettori fi come base per rappresentare A. E’ particolarmente conveniente .... Nella vecchia base e, ogni fi avrà certe componenti ... (fi)e= ( ) (fi)1e ... ... (fi)ne Costruisco la matrice (F-1)e (sarà una nxn) di modo che la sua colonna i-sima sia composta dalle componenti dell’i-esimo autovettore: (F-1)e= ( ) (f1)1e... (fn)1 ... ... (f1)ne ... (fn)ne ( ) ( ) -1 e (F ) = (f1)1e... (fn)1 ... ... (f1)ne ... (fn)ne Considero la matrice Λ (Λ)e= Λ1 0 0 ... 0 0 Λ3 0 ... 0 ... 0 0 ... Λn -1 e (F ) = ( ) ( ) ( ) (f1)1e... (fn)1e ... ... (f1)ne ... (fn)ne (F-1Λ)e= (Λ)e= Λ1(f1)1e Λ2(f2)1e... Λn(fn)1e Λ1(f1)2e Λ2(f2)2e... Λn(fn)2e ... .... Λ1(f1)ne Λ2(f2)ne... Λn(fn)ne Λ1 0 0 ... 0 0 Λ2 0 ... 0 ... 0 0 ... Λn -1 (F Λ e )= ( Λ1(f1)1e Λ2(f2)1e... Λn(fn)1 Λ1(f1)2e Λ2(f2)2e... Λn(fn)2 ... .... Λ1(f1)ne Λ2(f2)ne... Λn(fn)n ) -1 e =(AF ) Infatti. Il generico elemento lm di AF-1 è dato dalla riga l di A per la colonna m di F-1, che è fm. Ma Afm=λmfm, il che vuol dire che se moltiplico la riga l-sima di A per fm ottengo λm x la componente l-sima di fm. Che è proprio (F-1Λ)lm. (F-1Λ)=(AF-1)→ Λ=FAF-1 La matrice A è simile a una matrice diagonale (con gli autovalori sulla diagonale stessa)! Per definizione, si dice allora che A è diagonalizzabile. Di nuovo, attenzione!Il fatto di trovare gli autovalori e gli autovettori di una matrice non mi garantisce che questa sia diagonalizzabile. Non tutte le matrici sono simili a quella diagonale degli autovalori, non scordiamoci la richiesta che gli autovettori coprano l’intero spazio. Risultato: se l’equazione caratteristica ha n soluzioni distinte, allora la matrice è sicuramente diagonalizzabile. Ma è solo condizione sufficiente, posso avere matrici diagonalizzabili anche con autovalori di molteplicità superiore a 1. Vale il seguente risultato: una matrice è diagonalizzabile se e solo se i suoi autovettori ricoprono tutto lo spazio. Si trova anche così (teorema di diagonalizzabilità): una matrice è diagonalizzabile se e solo se la molteplicità (algebrica) di ogni suo autovalore è pari alla sua molteplicità geometrica (dimensione del sottospazio generato dai corrispondenti autovettori) A= ( ) 11 01 → A-λI= (1-λ)2=0→λ=1(m.a. 2) b=0, a qualunque: non posso generare autovettori indip. da 1-λ 1 0 1-λ ( ) ; A-λI=0 → 1 0 () ; det(A-λI)=0 0 1 0 0 a b 0 0 ( ) () () = (m.g. 1, non posso diag.) Una matrice è diagonalizzabile se e solo se la molteplicità (algebrica) di ogni suo autovalore è pari alla sua molteplicità geometrica (dimensione del sottospazio generato dai corrispondenti autovettori) A= ( ) 10 01 → (1-λ)2=0→λ=1(m.a. A-λI= 2) 1-λ 0 0 1-λ ( ) ; A-λI=0 → ; det(A-λI)=0 0 0 0 0 a b a qualunque, b qualunque: 1 0 (m.g. 2, posso diagonalizzare. Ok, era ovvio ..) 0 1 () () 0 0 ( ) () () = Ricordiamo che la matrice rappresentativa di un’applicazione lineare è definita dalla sua azione sulla base: Âfj= ∑i Aij fi (i=1,n). Se come base scelgo gli autovettori, allora ∑i Aij fi=λjfj, ovvero Aij=λjδij. Se due matrici sono simili, allora esiste un cambiamento di base che porta una matrice nell’altra. Dire che Λ=FAF-1 equivale a dire che la base d’arrivo è quella degli autovettori, e la F ha proprio il significato della S (matrice di trasformazione di base). Esercizio: trovare autovettori e autovalori di M= ( ) 2 0 -2 -2i i 2i 1 0 -1 E’ diagonalizzabile? Se sì, verificare che sia effettivamente simile alla matrice diagonale costruita con gli autovalori M= ( ) 2 0 -2 -2i i 2i 1 0 -1 Esercizio: trovare autovettori e autovalori di M= ( ) 2 0 -2 -2i i 2i 1 0 -1 Oss: detM =(2*i*-1)+(-2i*0*-2)+(1*0*2i)-(-2*i*1)-(2i*0*2)-(-1*0*-2i) detM=0; ok, mi aspetto che (almeno) un autovalore sia nullo. Esercizio: trovare autovettori e autovalori di M-λI= ( 2-λ 0 -2 -2i i-λ 2i 1 0 -1-λ ) Oss: det(M-λI)= =[(2-λ)*(i-λ)*(-1-λ)]-[-2*(i-λ)] =(i-λ)[(λ-2)(λ+1)+2]=0 ⇔ λ=λ1=i; [λ2-λ]=0; λ=λ2=0; λ=λ3=1 Ok, ho 3 autovalori non degeneri. In realtà già questo mi assicura che sia diagonalizzabile, ma controlliamo m.a. e m.g. in ogni caso. Esercizio: trovare autovettori e autovalori di M-λ1I=0→ ( )( ) 2-i 0 -2 -2i 0 2i 1 0 -1-i 1. λ1=i 2a-ia-2c=0(1) -2ia+2ic=0 (2) a-c-ic=0 (3) Dalla (2) a=c, inserisco in (1): a(3-i)=0→a=0=c λ1=i;v1= () 0 1 0 m.g.=m.a=1 a b c =0 Esercizio: trovare autovettori e autovalori di M-λ2I=0→ ( )( ) 2 0 -2 -2i i 2i 1 0 -1 1. λ2=0 2a-2c=0 (1) -2ia+ib+2ic=0 (2) a=c (3) Dalla (2) con a=c, b=0 λ2=0;v2= () 1 0 1 m.g.=m.a=1 a b c =0 Esercizio: trovare autovettori e autovalori di M-λ3I=0→ ( )( ) 1 0 -2 -2i i-1 2i 1 0 -2 a b c =0 1. λ3=1 a-2c=0 (1) -2ia+ib-b+2ic=0 (2) a=2c (3) Dalla (2) con a=2c, b(i-1)=ia→b=ia/(i-1)=-ia(i+1)/2=a(1-i)/2 λ3=1;v3= () 2 1-i 1 m.g.=m.a=1 (OK, è diagonalizzabile) Espressi nella base standard e e1= Gli autovettori sono ()() () ()() () e2= f1= E’ l’esercizio di prima!!! 1 0 0 e3= 0 1 0 0 0 1 0 1f2= 0 1 0 1 2 1-i 1 f3= ( ) ( )( ) ( )( ) ( ) S-1= 0 1 2 1 0 1-i 0 1 1 Vedi esercizio precedente! t S = M 2 0 -2 -2i i 2i 1 0 -1 i-1 -1 1 1 0 0 1-i 2 -1 i-1 1 1-i -1 0 2 1 0 -1 = S-1 0 1 2 -1 0 1-i 0 1 1 = 0 0 2 i 0 -i+1 0 0 1 MS-1 S ( i-1 1 1-i -1 0 2 1 0 -1 )( 0 0 2 i 0 -i+1 0 0 1 )( = Ok, trovando autovalori e autovettori e esprimento M nella base dei suoi autovettori ottengo una matrice diagonale, con gli autovalori sulla diagonale. i 0 0 0 0 0 0 0 1 ) A=A† Risultati importanti (non li dimostriamo): Le matrici hermitiane e quelle unitarie (matrice unitaria E hermitiana?) A-1=A† sono sempre diagonalizzabili! Due matrici che commutano in una certa base commutano in ogni base. Due matrici sono diagonalizzabili simultaneamente (quindi, esiste un’unica base in cui entrambe sono diagonali) se e solo se commutano. A=A† Matrici e trasformazioni hermitiane. Abbiamo definito una MATRICE hermitiana se Ora diamo una definizione più generale di OPERATORE lineare hermitiano (o Trasformazione lineare hermitiana). Def. Dato un operatore lineare A rappresentato dalla matrice A, l’operatore coniugato hermitiano di Â, detto †, è definito da: <u∣Âv>≡<†u∣v> l’operatore coniugato hermitiano di Â, detto †, è definito da: <u∣Âv>≡<†u∣v> Reminder sulla notazione: se scrivo Âv vuol dire che sto pensando v (e Âv) come semplice elemento dello spazio di Hilbert, senza alcun riferimento ad una base fissata. Quando scrivo Av, con A=matrice rappresentativa in una base fissata, allora perchè la scrittura abbia un senso, devo immaginare v come vettore colonna delle sue componenti nella stessa base. l’operatore coniugato hermitiano di Â, o “aggiunto” di Â, detto †, è definito da: <u∣Âv>≡<†u∣v> (è una buona definizione? Sì, per il teorema di rappresentazione di Riesz sullo spazio duale ...). Connessione con il concetto di matrice coniugata hermitiana: In una base ortonormale l’aggiunto † di un operatore lineare  è rappresentato dalla coniugata hermitiana della matrice A. In una base ortonormale l’aggiunto † di un operatore lineare  è rappresentato dalla coniugata hermitiana della matrice A. Dim <u∣v>=u†v (con u e v intesi come vettori colonna) <u∣Âv>=u†(Av)=(u†A)(v) =(A†u)†v <†u∣v>=(Bu)†v (inizio a indicare con B la matrice rappresentativa di † Ma dalla definizione di † (<u∣Âv>=<†u∣v>)→B= A† Un operatore di dice hermitiano, o autoaggiunto, se Â=†. Proprietà fondamentali: 1. Gli autovalori di un operatore hermitiano sono reali. Dim Âv=λv⇒ <v∣Âv>= <v∣λv>=λ<v∣v> D’altronde <v∣Âv>=<†v∣v>=<Âv∣v>=<λv∣v>=λ*<v∣v>⇒λ=λ* 2. Gli autovettori di un operatore hermitiano che appartengono ad autovalori distinti sono ortogonali. Dim Âv=λv; Âu=μu; <v∣Âu>=μ<v∣u>; ma se l’operatore è hermitiano, allora <v∣Âu>=<Âv∣u>=λ*<v∣u>=λ<v∣u>=μ<v∣u>. Dato che λ≠μ⇒<v∣u>=0 3. Gli autovettori di un operatore hermitiano ricoprono tutto lo spazio (sono un sistema completo).