Approfondimenti 07-11 A7: La struttura elicoidale In una catena polimerica é possibile individuare l'eventuale presenza di una struttura elicoidale prendendo in considerazione la posizione, in ognuno dei monomeri, di uno degli atomi (scelto in modo arbitrario, ma sempre lo stesso sui vari monomeri) nella parte costante del polimero (nel caso degli acidi nucleici, per esempio, uno qualsiasi degli atomi dello zucchero o del fosfato che costituiscono lo scheletro). Figura A7.1 La posizione del jesimo atomo (e quindi del jesimo residuo monomerico) é determinata, in coordinate cilindriche e con l'asse z coincidente con l'asse di avvitamento dell'elica, dalle seguenti equazioni parametriche zj = hzj + z0 xj = r cos (j2π hz /P + δ0) yj = r sin (j2π hz /P + δ0) dove j = 0,1,2, ..., N, con N = numero di residui presenti nella struttura elicoidale. Come mostrato nella Figura A7.1, r é la distanza dall'asse z della proiezione di un qualsiasi residuo sul piano x-y, ovvero il raggio dell'elica; hz é la distanza, sull'asse z, tra due residui adiacenti; P, o passo dell'elica, é definito come la distanza in z tra i due residui più vicini lungo l'elica che hanno la stessa proiezione sul piano x-y, o, in altre parole, P é la distanza in z che l'elica deve percorrere per fare un giro intero. z0 e δ0 individuano la posizione dello 0esimo residuo (il primo residuo dell'elica). Poiché nell'elica di cui ci stiamo occupando ciascun residuo consiste di molti atomi, é importante notare che il valore di P e hz non dipendono dalla scelta dell'atomo che é stato preso per caratterizzare l'elica, mentre r, z0 e δ0 hanno valori diversi per i diversi atomi dei residui. La quantità P/ hz é il numero di residui per giro dell'elica, che può anche non essere un intero. Un'elica con M residui per giro é detta di molteplicità M. Spesso, in contesto biologico, si parla di passo dell'elica intendendo però indicare la molteplicità. Così quando si parla di α-elica nelle proteine si dice che questa ha un passo di 3.6, intendendo con ciò che ci sono 3.6 residui ogni giro completo dell'elica. Doppie e triple eliche sono abbastanza comuni in natura. In questo tipo di eliche le singole catene possono essere avvolte in direzioni parallele o antiparallele. 18 A8: Le funzioni di stato termodinamiche Con la dizione "sistema termodinamico" si intende genericamente indicare quella parte dell'universo a cui siamo interessati. In pratica si stabilisce un confine arbitrario tra la regione di spazio che ci interessa studiare e il resto dell'universo. Con "sistema termodinamico" si può quindi indicare il sistema solare, la Terra, una singola cellula o una mole di acqua a 15 gradi e alla pressione di un atmosfera. Si possono definire tre tipi di "sistemi termodinamici": 1. Il sistema termodinamico isolato: che non scambia con l'esterno nè materia nè energia; 2. il sistema termodinamico chiuso: che scambia con l'esterno energia, ma non materia; 3. il sistema termodinamico aperto: che scambia con l'esterno sia materia che energia. Due cose occorre innanzitutto chiarire: 1. La scelta di dove porre il confine tra il sistema e l'esterno é una scelta arbitraria, ma va operata in modo intelligente e opportuno. Per fare un esempio supponiamo di avere un contenitore con del perossido di idrogeno in soluzione e aggiungiamo alla soluzione l'enzima catalasi. La presenza dell'enzima come é noto accelererà la reazione H2O2→ H2O + 1/2 O2 e si produrrà ossigeno gassoso che uscirà dal contenitore. Se scegliamo come sistema il liquido nel contenitore il sistema termodinamico andrà trattato come un sistema aperto, ma se scegliamo il liquido più il gas prodotto nella reazione il sistema termodinamico é un sistema chiuso. Mentre sappiamo trattare in modo relativamente semplice la termodinamica del secondo sistema, il primo é di trattazione molto più difficile. 2. L'altra cosa da chiarire é che siamo interessati alle variazioni di energia che caratterizzano l'evolversi del sistema e molto meno al suo valore assoluto. Per fare un esempio concreto pensiamo ad una reazione chimica innescata dall'aggiunta di una certa quantità di un dato composto. L'informazione sulla quantità di materia aggiunta é determinante per definire l'evoluzione della reazione, ma sebbene l'aggiunta di materia abbia come conseguenza anche una variazione dell'energia potenziale del sistema (pari a E = mc2), questa non é di nessun interessa se non ha effetto sulla reazione chimica in studio. Ciò premesso, consideriamo un sistema termodinamico chiuso in assenza di campi esterni (é chiaro che l'assenza di campi esterni é solo una ragionevole approssimazione) costituito, per esempio, da un liquido puro di cui conosco P, V e T. Conoscere il valore di queste tre variabili é 19 sufficiente per derivarne altre, caratteristiche dello stato del sistema, quali per esempio: densità, energia etc. P, V e T , insieme ad altre proprietà del sistema sono dette variabili di stato se dipendono solo dallo stato del sistema e non da come lo stato é stato raggiunto. Esse hanno l'importante caratteristica che, date alcune variabili di stato sufficienti a descrivere lo stato del sistema, le altre sono da queste determinate implicitamente e da esse derivabili. Si definisce inoltre funzione di stato una funzione delle variabili di stato la cui variazione dipende solo dallo stato iniziale e finale del sistema. Il primo principio della termodinamica dU = δQ - δL Eq.A8.1 ci dice che U (la funzione energia interna) é una funzione di stato, mentre lavoro e calore non lo sono (d.significa differenziale, δ significa variazione) Il secondo principio della termodinamica definisce un'altra funzione di stato, la funzione entropia δQ = TdS Eq.A8.2 Per un sistema idrostatico (fluido perfetto) il primo principio può essere espresso dU = TdS - pdV Eq.A8.3 dove si vede che U ≡ U(S,V), ovvero, la funzione di stato energia interna é esprimibile come funzione di S e di V, e che ∂U =T ∂S ∂U = −p ∂V Eq.A8.4 che ci dice che nota U ≡ U(S,V) é possibile ricavare T e p che sono quindi variabili dipendenti. Per specifici problemi é a volte conveniente avere funzioni di stato che sono funzione di variabili di stato diverse da S e V. Vogliamo per esempio costruire la funzione di stato entalpia che sarà una funzione delle variabili S e p in modo tale che rimangano valide le (A8.4). A questo scopo utilizziamo un procedimento che va sotto il nome di trasformata di Legendre. Sia f(x, y) la funzione di partenza delle variabili (x,y) , si definisce differenziale la quantità: 20 df = ∂f ∂f dx + dy ∂x ∂y Eq.A8.6 Definiamo la nuova funzione g(u, y) attraverso la formula g (u, y ) = Min [ f ( x, y ) − xu] Eq.A8.9 x dalla quale si ha ∂f ( x , y ) −u=0 ∂x Eq.A8.10 Una volta ricavata da questa equazione x come funzione di u e y, x = x(u,y), questa espressione va sostituita nella A8.9. In concreto per costruire l'entalpia, utilizzando la A8.9 poniamo H ( S , p) = Min [U ( S ,V ) + pV ] Eq.A8.11 V La condizione ∂U ( S ,V ) + p=0 ∂V Eq.A8.12 risolta rispetto a V fornisce V = f(S,p) ovvero la vecchia variabile come funzione delle nuove variabili, che consente di eliminare V esprimendolo in funzione di S e p. Quindi il differenziale della nuova funzione di stato entalpia si può scrivere dH = ∂H ∂H dS + dp ∂S ∂p Eq.A8.13 confrontando con dH = dU + pdV + Vdp = TdS - pdV + pdV + Vdp = TdS + Vdp si ottiene ∂H =T ∂S e ∂H =V ∂p Eq.A8.14 Eq.A8.15 In modo analogo si procede per definire la funzione energia libera di Helmhotz, F = F (T,V) δU F (T ,V ) = Min [U ( S ,V ) − TS ] usando la condizione = T per eliminare la dipendenza da S. S δS 21 Confrontando dF = ∂F ∂F dT + dV ∂T ∂V Eq.A8.16 con dF = dU - TdS - SdT = TdS - pdV - TdS - SdT = - pdV - SdT ∂F = −p ∂V si ottiene e ∂F = −S ∂T Infine si definisce l'energia libera di Gibbs, G (T , p) = Min [U ( S ,V ) − TS + pV ] ove utilizziamo le condizioni Eq.A8.17 Eq.A8.18 G = G(T,p) , V ,S ∂U =T ∂S e ∂U = −p ∂V Eq.A8.19 per eliminare la dipendenza da S e da V. Al solito confrontando dG = ∂G ∂G dT + dp ∂T ∂p Eq.A8.20 con dG = dU -TdS - SdT + pdV + Vdp = TdS - pdV - TdS - SdT + pdV + Vdp = = Vdp - SdT Eq.A8.21 si trova ∂G =V ∂p e ∂G = −S ∂T Eq.A8.22 Per chiarire meglio il concetto di Funzione di stato diamo un paio di semplici esempi della loro utilizzazione pratica a) Misura dell'entalpia di una reazione a p = costante Dalle A8.14 e A8.2 (definizione di entropia dal secondo principio) dH = TdS + Vdp = TdS = δQ Eq.A8.22 per misurare l'entalpia di una reazione a pressione costante sarà sufficiente quindi misurare la quantità di calore scambiata con l'esterno durante la reazione stessa. b) Variazione di energia libera di Gibbs. 22 Si abbia una reazione che porta il sistema da uno stato 1 ad un stato 2. Per determinare se la reazione può o no avvenire in modo spontaneo è sufficiente determinare il segno della variazione di energia libera di Gibbs. Infatti a ∆Q (II Principio) S 2 − S1 ≥ T ∆Q = U 2 − U1 + p(V2 − V1 ) (I Principio) ne segue che a per una reazione spontanea − G 2 = TS 2 − U 2 − pV2 ≥ −G1 = TS1 − U1 − pV1 ) Dunque a p, T = costanti ∆G < 0 ∆G = 0 ∆G > 0 la reazione procede spontaneamente la reazione é all'equilibrio la reazione non procede spontaneamente 23 A9: La distribuzione Poissoniana Poichè la distribuzione Poissoniana può essere definita come una distribuzione limite della Binomiale vediamo prima com'è fatta quest'ultima. La distribuzione Binomiale misura la probabilità che un evento si presenti con una data modalità, k volte su n prove. Indichiamo con p la probabilità che, in una singola prova, l'evento si verifichi con una data modalità, allora, q = 1 - p, sarà la probabilità che nella singola prova l'evento non si verifichi con quella modalità. Poiché si fa l'ipotesi che le singole prove siano tutte indipendenti una dall'altra1, la probabilità che l'evento si verifichi per k volte con la modalità che ha probabilità p e non si presenti più con questa modalità per le restanti n - k volte è data da p k q n−k Eq. A9.1 ⎛ n⎞ Sappiamo però che ci sono ⎜⎜ ⎟⎟ modi indipendenti diversi in cui l'evento si presenta k volte su n ⎝k ⎠ ⎛ n⎞ prove. Il simbolo ⎜⎜ ⎟⎟ indica il cosiddetto coefficiente binomiale ⎝k ⎠ ⎛ n ⎞ n(n − 1) K (n − k + 1) n! 2 ⎜⎜ ⎟⎟ = = k 1 × 2 × 3 × × k k ! ( n − k )! K ⎝ ⎠ Eq. A9.2 La probabilità totale che l'evento con quella data modalità si presenti k volte su n prove é data da ⎛n⎞ Pn,k (k ) = ⎜⎜ ⎟⎟ p k q n−k ⎝k ⎠ Eq.A9.3 1 Ricordiamo che la probabilità del verificarsi di eventi indipendenti é pari al prodotto delle probabilità dei singoli eventi. Quindi la probabilità che si verifichi k volte l'evento con probabilità p è pari a pxpxpx...xp, k volte, ovvero pk 2 Avendo introdotto la notazione "fattoriale": n!=1×2×3×K×n 24 La distribuzione Poissoniana é la distribuzione limite della Binomiale quando n→ ∞ (n: numero di eventi o prove) e p→ 0 (p: probabilità che l'evento si presenti con una data modalità) in modo che np = m sia finito, fisso e ≠ 0. Poiché la Poissoniana é ottenuta nel limite p→ 0 viene anche detta "Legge degli eventi rari". Si può dimostrare che si ha lim Pn, p (k ) = Pm (k ) = n →∞ p →0 m k e −m k! Eq.A9.4 Si noti che la distribuzione dipende solo dal parametro m, che k é un numero intero ≥0, e che σ2 = m. Si ricorda che la varianza o momento secondo, σ2 , della distribuzione di probabilità , Pm (k ) , ∞ é data da ∑ ( k − m ) 2 Pm ( k ) . k =0 25 A10:Catena di Markov (o Processo di Mrkov) Si definisce Catena (o Processo) di Markov, un processo (o catena di stati) in cui la probabilità di occorrenza di uno stato dipende dalla precedente occorrenza di un numero finito, r, di stati immediatamente precedenti. Parleremo allora di processo di Markov di ordine r. In modo più formale poniamo la seguente definizione. Partiamo dal caso r =1 (processo di Markov di ordine 1) Definizione: Sia {X (t ), t ≥ 0} un processo stocastico (t non é necessariamente la variabile temporale). Il processo é detto di Markov se ∀ n ≥ 0 , detti 0 ≤ t 0 < t1 < K < t n < t n+1 i passi del processo e i 0 , i1 ,K i n , i n+1 i corrispondenti stati si ha che P[ X (t n+1 ) = i n+1 X (t n ) = i n , X (t n−1 ) = i n−1 ,K X (t 0 ) = i 0 ] = P[ X (t n+1 ) = i n+1 X (t n ) = i n ] Questa definizione stabilisce che solo lo stato attuale, i n , dà informazioni sul futuro comportamento del processo. La conoscenza della storia precedente del processo, (i n−1 K i 0 ) , non aggiunge nessuna nuova informazione. Se r > 1 , l'ordine di una catena di Markov corrisponde al numero di stati (precedenti) che concorrono a definire la probabilità dello stato attuale. 26 A11: Teorema di Bayes Il Teorema di Bayes si ottiene come segue. Siano A e B due eventi le cui probabilità sono date rispettivamente da P(A) e P(B). Sia P ( A ∩ B ) la probabilità dell'evento ( A ∩ B ) (che si legge: A intersezione B), ovvero la probabilità dell'evento : A.AND.B. Sia P ( A B) ⋅ P ( B) la probabilità condizionale, ovvero la probabilità che dato A (o B), segua B (o A), allora P ( A ∩ B) = P ( A B) ⋅ P ( B) Eq.A11.1 P ( B ∩ A) = P ( B A) ⋅ P ( A) Eq.A11.2 Poiché P ( A ∩ B ) = P ( B ∩ A) Eq.A11.3 segue P ( A B) ⋅ P ( B) = P ( B A) ⋅ P ( A) Eq.A11.4 e dunque P ( A B ) = P ( B A) P ( A) P ( B) Eq.A11.5 Supponiamo che A1 A2 K An sia un insieme completo di eventi incompatibili, ovvero ⎧ Incompatib ilità : Ai ∩ A j = 0, ∀i ≠ j per cui ⎪ ⎪ P ( Ai ∪ A j ) = P ( Ai ) + P ( A j ) ⎪ A1 A2 K An ⎨ ⎪Completezz a : ∀B → B = ( B ∩ A ) U i ⎪ i ⎪ ⎩ Eq.A11.6 27 Si noti che ( B ∩ Ai ) ∩ ( B ∩ A j ) = 0 e quindi ⎛ ⎞ P ( B ) = P ⎜⎜ U ( B ∩ Ai ) ⎟⎟ = ∑ P ( B ∩ Ai ) = ∑ P ( B Ai ) ⋅ P ( Ai ) i ⎝ i ⎠ i Eq.A11.7 e sostituendo nella A11.5 per ogni j si ha P ( A j B) = P(B A j ) ⋅ P( A j ) ∑i P ( B Ai ) ⋅ P ( Ai ) = P (B A j ) ⋅ P( Aj ) P ( B) Eq.A11.8 che é la formulazione più generale del Teorema di Bayes, nella quale P ( A j B) é la cosiddetta probabilità "a posteriori" mentre P ( A j ) é quella "a priori". 28