Laboratorio IV Author: Valerio Busillo Indice I Analisi dati 6 1 Fondamenti di statistica 1.1 Modello degli errori di Laplace . . . . . . . . . . . . . . . . . . 1.2 Teorema del limite centrale . . . . . . . . . . . . . . . . . . . . 1.3 Misura di una grandezza fisica . . . . . . . . . . . . . . . . . . 1.4 Stima dei parametri delle distribuzioni . . . . . . . . . . . . . 1.5 Legge dei grandi numeri e disuguaglianza di Bienayme-Cebicev per la media aritmetica . . . . . . . . . . . . . . . . . . . . . . 1.6 Metodo della massima verosimiglianza . . . . . . . . . . . . . 1.7 Funzione di distribuzione di più variabili aleatorie e covarianza 1.7.1 Dimostrazione del fatto che ρ ∈ [−1, 1] . . . . . . . . . 1.8 Gaussiana multivariata . . . . . . . . . . . . . . . . . . . . . . 1.9 Determinazione grafica dei parametri di massima verosimiglianza 1.9.1 Un parametro . . . . . . . . . . . . . . . . . . . . . . . 1.9.2 Due parametri . . . . . . . . . . . . . . . . . . . . . . . 2 Regressione 2.1 Regressione lineare . . . . . . . . . . . . . . . . . . . . . . . 2.2 Estimatori dei minimi quadrati dei parametri di regressione lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Distribuzione degli estimatori . . . . . . . . . . . . . . . . . 2.4 Estimatore della varianza σ 2 . . . . . . . . . . . . . . . . . . 2.5 Test d’ipotesi statistica sui parametri di regressione . . . . . 2.5.1 Test d’ipotesi riguardanti β1 . . . . . . . . . . . . . . 2.5.2 Test d’ipotesi riguardanti β0 . . . . . . . . . . . . . . 2.5.3 Test d’ipotesi riguardante la risposta media β0 + β1 x0 2.6 Coefficiente di determinazione e coefficiente di correlazione lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 7 7 12 13 15 18 19 20 21 22 23 24 25 27 . 27 . . . . . . . 28 29 31 32 32 34 35 . 36 2.7 2.8 2.9 Analisi dei residui . . . . . . . . . . . . . . . . . . . . . . . . . 37 Test d’ipotesi sulla correlazione lineare . . . . . . . . . . . . . 40 Correlazione tra i parametri di regressione lineare . . . . . . . 41 3 Machine Learning 3.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Categorie di machine learning . . . . . . . . . . . . . . . . . . 3.3 Affrontare un problema di supervised learning applicato alla regressione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4 Rumore nel supervised learning . . . . . . . . . . . . . . . . . 3.5 Teoria del learning . . . . . . . . . . . . . . . . . . . . . . . . 3.5.1 Decomposizione bias-varianza di Eout . . . . . . . . . . 3.6 Metodi di Gradient Descent per minimizzare la funzione di costo 3.6.1 Miglioramento dell’algoritmo di gradient descent . . . . 4 Test d’ipotesi 4.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . 4.2 Test χ2 . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Test di Kolmogorov-Smirnov . . . . . . . . . . . . . . 4.4 Confidence belt e intervallo di confidenza per segnali niani con background comparabile col segnale . . . . . . . . . . . . . . . . poisso. . . . 5 Metodi montecarlo 5.1 Integrazione montecarlo . . . . . . . . . . . . . . . . . . . . 5.1.1 Metodo “Crude” montecarlo . . . . . . . . . . . . . . 5.1.1.1 Confronto tra metodo “Crude” montecarlo e altre tecniche d’integrazione numerica . . . 5.1.2 Metodo montecarlo “hit or miss” . . . . . . . . . . . 5.1.3 Campionamento stratificato . . . . . . . . . . . . . . 5.1.4 Campionamento a importanza . . . . . . . . . . . . . 5.1.5 Metodo delle variabili di controllo . . . . . . . . . . . 5.1.6 Metodo delle variabili antitetiche . . . . . . . . . . . 5.1.7 Metodi adattivi . . . . . . . . . . . . . . . . . . . . . 5.2 Generazione di variabili aleatorie che seguono una certa distribuzione di probabilità . . . . . . . . . . . . . . . . . . . . . 5.3 Generatori di numeri casuali con distribuzione di probabilità uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 43 43 48 51 53 55 57 59 63 67 . 67 . 70 . 73 . 74 77 . 77 . 78 . . . . . . . 80 81 83 84 84 85 85 . 86 . 88 II Apparati scientifici 92 6 Proprietà dei materiali e strumenti da lavoro 6.1 Metalli e leghe metalliche . . . . . . . . . . . . 6.2 Proprietà dei materiali . . . . . . . . . . . . . 6.3 Prove di caratterizzazione dei materiali . . . . 6.4 Strumenti per la lavorazione dei materiali . . . 6.4.1 Trapano a colonna . . . . . . . . . . . 6.4.2 Tornio . . . . . . . . . . . . . . . . . . 6.4.3 Fresa . . . . . . . . . . . . . . . . . . . 6.5 Principi di disegno tecnico . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 Pompe a vuoto 7.1 Definizione di vuoto . . . . . . . . . . . . . . . . . 7.2 Teoria cinetica dei gas . . . . . . . . . . . . . . . 7.3 Degassificazione delle pareti e collisioni superficiali 7.4 Flusso viscoso e flusso molecolare . . . . . . . . . 7.5 Parametri per specificare il flusso di gas . . . . . . 7.6 Equazione maestra . . . . . . . . . . . . . . . . . 7.7 Misure di vuoto . . . . . . . . . . . . . . . . . . . 7.8 Pompe a vuoto . . . . . . . . . . . . . . . . . . . 8 Richiami di ottica 8.1 Onde piane . . . . . . . . . . . . . . . . 8.2 Indice di rifrazione . . . . . . . . . . . . 8.3 Velocità di gruppo e pacchetti d’onda . . 8.4 Vettore di Poynting e intensità luminosa 8.5 Coefficienti di riflessione e trasmissione . 8.6 Coating antiriflettenti . . . . . . . . . . . 8.7 Specchio dielettrico (o di Bragg) . . . . . 8.8 Reticolo di diffrazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 93 95 97 100 100 100 101 102 . . . . . . . . . . . . . . . . . . . . . . . . 105 . 105 . 105 . 107 . 107 . 108 . 109 . 110 . 112 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 . 114 . 115 . 116 . 118 . 119 . 122 . 125 . 127 9 Ottica guidata 9.1 Guida d’onda . . . . . . . . . . . . . . . . . . 9.2 Guide d’onda monomodali e multimodali . . . 9.3 Modi TE e TM . . . . . . . . . . . . . . . . . 9.4 Relazione di dispersione per una guida d’onda 9.4.1 Dispersione intermodale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 . . . . . . . . . . . . . . . . 131 131 135 136 137 138 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 139 141 142 144 145 146 147 10 Fotorivelatori 10.1 Principi di funzionamento di base dei fotodiodi . 10.2 Efficienza quantica e responsività . . . . . . . . 10.3 Fotodiodo PIN . . . . . . . . . . . . . . . . . . 10.4 Fotodiodo a valanga . . . . . . . . . . . . . . . 10.5 Rumore associato a un fotodiodo . . . . . . . . 10.6 Metodi di abbattimento del rumore . . . . . . . 10.6.1 Lock-in . . . . . . . . . . . . . . . . . . 10.6.2 Boxcar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150 150 152 155 157 160 163 164 166 . . . . 168 . 168 . 172 . 174 . 175 . . . . 178 . 180 . 181 . 181 . 182 9.5 9.6 9.7 9.8 9.4.2 Dispersione intramodale . . . . . . . Fibra ottica con indice a gradino . . . . . . 9.5.1 Fibra ottica a indice graduato . . . . Apertura numerica di una fibra ottica . . . . Attenuazione del segnale in una fibra ottica 9.7.1 Attenuazione intrinseca . . . . . . . . 9.7.2 Perdite per piegatura . . . . . . . . . Fabbricazione della fibra ottica . . . . . . . . . . . . . . . 11 Dispositivi fotovoltaici 11.1 Principi di base e caratteristica IV del fotovoltaico 11.2 Retta di carico e fill factor . . . . . . . . . . . . . 11.3 Circuiti equivalenti del fotovoltaico . . . . . . . . 11.4 caratteristiche costruttive dei fotovoltaici . . . . . 12 Rivelatori termici 12.1 Bolometri . . . . . . . . 12.2 Rivelatori piroelettrici . 12.3 Cella di Golay . . . . . . 12.4 Termocoppie e termopile . . . . . . . . . . . . 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Parte I Analisi dati 6 Capitolo 1 Fondamenti di statistica 1.1 Modello degli errori di Laplace Consideriamo una grandezza fisica avente valor vero x∗ , e supponiamo di effettuare una misura di tale grandezza, ottenendo il risultato x. A causa degli inevitabili errori di misura casuali1 , in generale x 6= x∗ . Nel modello semplificato di Laplace per gli errori casuali, si considereranno tali errori come un numero estremamente grande di disturbi contemporanei infinitesimi, ciascuno dei quali shifterà di pochissimo il risultato della misura dal valor vero. In particolare, si effettueranno le seguenti ipotesi sulla natura degli errori: 1. Ciascuna perturbazione avrà modulo fisso , con uguale probabilità di shiftare la misura verso sinistra o verso destra dal valor vero. 2. Ciascun errore è statisticamente indipendente dagli altri ciò significa che, date N perturbazioni, la variazione + da x∗ ha probabilità p = 0.5 di verificarsi, mentre quella − ha probabilità q = 1 − p = 0.5 di verificarsi. Indichiamo con M il numero di perturbazioni positive. Quelle negative saranno allora N − M e il valore osservato risulterà essere: x = x∗ + M − (N − M ) = x∗ + (2M − N ) 1 Saranno per il momento trascurati gli errori sistematici. 7 (1.1) La probabilità che in un esperimento si abbiano esattamente M perturbazioni positive su N perturbazioni totali sarà data dalla distribuzione binomiale: P (M, N ) = N! pM q N −M M ! (N − M )! (1.2) il valor medio della distribuzione sarà M̄ = N p, mentre la sua varianza sarà σM = N pq. Indichiamo con λ lo scarto di M dal suo valor atteso: λ := M − M̄ = M − N p (1.3) Se M varia tra 0 ed N quindi, λ varia tra −N p ed N q. Con tale definizione quindi, il numero di perturbazioni + e il numero di perturbazioni − si scriveranno come: N = N p + λ, N− = N q − λ. (1.4) (1.5) La probabilità associata alla variabile aleatoria λ, fissato un numero N di perturbazioni, sarà a sua volta una binomiale: P (λ, N ) = N! pN p+λ q N q−λ (N p + λ)! (N q − λ)! (1.6) Il valore atteso di λ sarà quindi: λ̄ = M̄ − N p = 0, σλ ≡ σM = N pq. (1.7) (1.8) Effettuiamo ora il rapporto tra P (M + 1) e P (M ) (fissato N ). Si ha: M N −M −1 +1 q N! M! p P (M + 1, N ) (M − N ) ! = · ( ( = M −M q N (( P (M, N ) (N(− M(−(1)! (M + 1) ! N! p ( p N −M = · (1.9) q M +1 tale quantità corrisponde al rapporto tra probabilità di due valori successivi di M , e si può riscrivere come: P (M + 1, N ) = pN −M P (M, N ) q M +1 8 (1.10) ciò significa che la probabilità, dato un certo numero di perturbazioni positive M , di avere una successiva perturbazione positiva, è proporzionale alla probabilità di avere M perturbazioni. Ora, tale probabilità può essere maggiore, minore o uguale di P (M, N ), a seconda che il coefficiente di proporzionalità sia maggiore, minore o uguale ad 1. Nel caso in cui sia uguale a 1, si avrebbe: p (N − M ) = q (M + 1) . (1.11) La condizione per la quale 2 valori di M molto vicini abbiano probabilità uguale si realizza quando: Np = M + q → M u Np − q chiamiamo tale quantità µ: (1.12) µ := N p − q (1.13) al crescere di N , µ → N p. Per valori inferiori a µ, la probabilità P (M ) ha un andamento crescente, mentre per valori superiori a µ essa ha andamento decrescente. Questo significa che, anche se N → +∞, la probabilità P (M ) avrà uno e un solo punto di massimo, pari proprio a µ. Tale punto è detto moda. La stessa cosa ovviamente succederà anche per P (λ). Vediamo ora in particolare a cosa tende la distribuzione P (λ) se N → +∞. Ricordiamo la formula di Stirling: √ N +1 2π e−N N 2 (1.14) N! ≈ N →+∞ usando tale approssimazione, la probabilità P (λ) si scrive come: √ −N N +1 N p+λ N q−λ 2πe N 2 p q P (λ) ≈ √ N p+λ+1 √ N q−λ+1 −(N q−λ) 2πe(−N p+λ) (N p + λ) 2 2πe (N q − λ) 2 moltiplico e divido per (N p)(N p+λ+1)/2 e per (N q)(N q−λ+1)/2 . Segue: N +1 e−N N 2 pN p+λ q N q−λ 1 1 P (λ) ≈ √ (N p+λ+1)/2 (N q−λ+1)/2 (N p+λ+1)/2 −N (p+q) (N p+λ) (N q−λ) e 2π (N p) (N q)(N q−λ+1)/2 (N p+λ+1)/2 (N q−λ+1)/2 (N p) (N q) dalle proprietà delle potenze (x/y)n = xn /y n , segue: 1 P (λ) ≈ √ 2π 1 + 1 λ Np (N p+λ+1)/2 N 1− λ Nq 9 (N q−λ+1)/2 N +1 2 pN p+λ q N q−λ (N p)(N p+λ+1)/2 (N q)(N q−λ+1)/2 | √ ≈1/ N pq al prim’ordine {z } In definitiva, un’espressione approssimata (ma asintoticamente valida per N → +∞) per P (λ) è la seguente: λ 1 1+ P (λ) ≈ √ Np 2π N pq !−(N p+λ+1)/2 λ 1− Nq !−(N q−λ+1)/2 (1.15) il valore corrispondente al punto di massimo sarà dunque P (λmax ) = 1 = (2πN pq)− 2 . Tale espressione tuttavia diverge se λ → −N p ∨ λ → N q. Ciò non crea problemi, in quanto a noi interessa solo la zona di valori intermedia a questi due estremi. √ Si noti ora che P (λmax ) tende a zero come 1/ N al crescere di N. Dato che la somma delle probabilità relative a tutti i casi possibili deve essere pari a 1, il numero di valori di λ per cui √ la probabilità non è trascurabile rispetto al massimo deve divergere come N al crescere di N . In definitiva, la formula approssimata è valida già per valori relativamente piccoli di N e per N molto grande è asintoticamente esatta per tuti i valori di λ che non abbiano probabilità tracurabile√di presentarsi. Tali valori non trascurabili sono mediamente dell’ordine di N pq e divergono dunque solo √ come N . Consideriamo ora il fattore: λ k := 1 + Np !−(nP +λ+1)/2 λ 1− Nq !−(N q−λ+1)/2 (1.16) calcoliamone il logaritmo naturale: Np + λ + 1 λ log k = − − log 1 + 2 Np ! Nq − λ + 1 λ − log 1 − = k1 + k2 2 Nq ! (1.17) Poiché sia λ/ (N p) che λ/ (N q) sono molto minori di 1 (nell’intervallo d’interesse in cui i valori di λ non abbiano probabilità trascurabile), è possibile 10 sviluppare k1 e k2 in serie di Taylor attorno a zero: λ (λ + N p + 1) λ + N p + 1 + k1 u − 2N p 4 − λ + Np + 1 6 λ Np !3 λ Np + o λ Nq !3 !2 − !3 λ (N q − λ + 1) (N q − λ + 1) k2 u + 2N q 4 (N q − λ + 1) + 6 λ Np λ + o Nq (1.18) λ Nq !2 + !3 (1.19) Sommando i due termini sviluppati, si ottiene: (p − q) λ [(1 − N p) q 2 + (1 − N q) p2 ] λ2 + + 2pq N 4p2 q 2 N2 [(N p − 2) q 3 + (2 − N q) p3 ] λ3 + + o(λ3 ) 12p3 q 3 N3 log k ≈ ora, poiché i λ interessanti in tale apprrossimazione vanno come √ N , il primo monomio andrà come: √ p−q N p−q 1 1 (p − q) λ √ ∼√ ∼ = 2pq N 2pq N 2pq N N (1.20) √ N pq ≈ (1.21) il secondo monomio andrà invece come: 2 [(1 − N p) q 2 + (1 − N q) p2 ] λ2 (p2 q + pq 2 ) N p2 +q ∼ − ∼ 2 2 2 2 2 2 2 p q 4p q N 4N p q 4 N va a 0 2 ∼− p q + pq 2 4p2 q 2 (1.22) (1.23) mentre il terzo monomio come: 3 [(N p − 2) q 3 + (2 − N q) p3 ] λ3 2p3 −2q ∼ + 3/2 p3 q 3 12p3 q 3 N3 12N + 11 3 0 (pq − p3 q) N 1 ∼√ 3/2 N N (1.24) dunque per N → +∞ l’unico valore che resta finito è il primo monomio, quindi: 2 p2 q + q 2 p 2 N p2 + q 2 (p2 q + q 2 p) λ u − lim log k u − λ u 2 p2 q 2 N →+∞ 4N 4N p2 q 2 4N 2 p2 q 2 p2 q + q 2 p λ2 1 λ2 λ2 · u− · ≈− u− 2N pq 2pq 2N pq 2 2N pq quindi la probabilità P (λ) si riscrive al limite per N → +∞, sostituendo il k appena trovato, come: P (λ) = √ λ2 1 e− 2 N pq 2πN pq (1.25) ma essendo σ = N pq quindi, si ha: λ2 1 e− 2 σ P (λ) = √ 2πσ (1.26) che è l’espressione di una gaussiana centrata attorno al valore atteso λ̄ = 0. Ritornando alla variabile M quindi, si può dire che per N → +∞ il numero di errori positivi rispetto al valor vero x∗ nel modello degli errori di Laplace tende ad assumere una distribuzione di probabilità gaussiana: P (M ) ≈ √ 1.2 (M −M̄ )2 1 − 2σ e 2πσ (1.27) Teorema del limite centrale Siano date n variabili aleatorie xi , ciascuna delle quali dotata di una distribuzione di probabilità associata qualsiasi (a patto che i rispettivi valori attesi µi e le rispettive varianze σi siano finite). Il teorema del limite centrale afferma che, sotto tali ipotesi, una qualsiasi combinazione lineare delle variabili aleatorie xi : y= N X i=1 12 ai x i (1.28) convergerà per n → +∞ ad una distribuzione normale con medie e varianza date da: µy = σy2 = N X i=1 N X ai µ i (1.29) a2i σi2 (1.30) i=1 Affinché il teorema del limite centrale sia valido tuttavia, è importante che le σi2 siano non solo tutte finite, ma anche paragonabili, nel senso che non c’è predominanza di una delle varianze rispetto alle altre. Se le distribuzioni di probabilità fi sono tutte concentrate attorno al loro valore atteso, quindi se le σi sono tutte molto piccole, il teorema risulta praticamente valido anche per piccoli valori di N . Un’applicazione del teorema del limite centrale è quella di ottenere una distribuzione gaussiana che generi numeri casuali “normali” mediante la somma di n numeri casuali aventi distribuzione uniforme in ]0, 1[. Ciò si può fare considerando la combinazione lineare: y= N X i=1 n xi − 2 (1.31) dove xi sono N variabili aleatorie a distribuzione uniforme in ]0, 1[. La media e la varianza di y saranno date da: µ N N − =0 2 2 N σ 2 = 12 = (1.32) l’accordo di y con una gaussiana è buono già per N > 5/10. 1.3 Misura di una grandezza fisica Ammettendo che esista un valore vero x∗ associato ad una grandezza fisica, la cui stima è disturbata da N perturbazioni i ciascuna a varianza finita, per la generica misura xM si avrà: xM = x∗ + N X (i ) :≡ x∗ + i=1 13 (1.33) dove: = N X (1.34) i i=1 per il teorema del limite centrale, se ciascuna i ha distribuzione normale e varianza finita, anche per N molto grande sarà una distribuzione normale con valore atteso e varianza dati da: µ = σ2 = N X µi = 0 i=1 N X σ2i (1.35) (1.36) i=1 la cui distribuzione si espliciterà quindi come: 2 exp − 2 f () = q 2σ 2πσ2 1 ! (1.37) a sua volta xM sarà una variabile aleatoria con distribuzione normale, avente: µ xM = x ∗ + µ = x ∗ σx2M = σ2 (1.38) (1.39) la cui distribuzione si esplicita come: 1 f (xM ) = q 2πσx2M (xM − x∗ )2 exp − 2σx2M ! (1.40) il miglior stimatore di µxM sarà dato in questo caso dalla media aritmetica delle xi : N 1 X xi (1.41) x̄ := N i=1 mentre il miglior stimatore di σx2M sarà lo scarto quadratico medio del campione: N 1 X s2 := (xi − x̄)2 (1.42) N − 1 i=1 14 a sua volta, la media x̄ sarà una variabile aleatoria con distribuzione normale, avente: µ(x̄) = x∗ σ2 σ 2 (x̄) = x N (1.43) (1.44) in definitiva, il risultato di N misure ripetute con la stessa metodologia e nelle stessee condizioni di una grandezza fisica sarà espresso in termini degli stimatori come: sx x = x̄ ± √ (1.45) N ciò significa che c’è la probabilità del 68% che l’intervallo [x̄ − √sxN , x̄ + √sxN ] contenga il valor vero x∗ . Una singola misura xi della stessa grandezza fisica sarà invece da esprimere, assumendo noto sx , come: x = xi ± s x 1.4 (1.46) Stima dei parametri delle distribuzioni Se la distribuzione di probabilità associata ad una variabile aleatoria è ignota, è difficile stimarne i parametri, in quanto in linea di principio sono necessarie infinite prove per determinare quale sia la distribuzione limite. Si procede quindi considerando un campione di dimensione N , cioè un esperimento con N prove. In tal modo è possibile stimare delle proprietà della distribuzione, cioè delle grandezze caratterizzanti completamente la stessa. Tali statistiche (cioè funzioni dei dati disponibili, del tipo S(x1, x2 , . . . , xN )) saranno detti estimatori delle proprietà della distribuzione. Un buon estimatore gode delle seguenti proprietà: 1. L’estimatore è non distorto, cioè il valore atteso dello stimatore â è proprio il valor vero a∗ della proprietà da stimare: E(â) = a∗ ∀N (1.47) se la distorsione tende solo asintoticamente a 0, l’estimatore si dice asintoticamente non distorto. 15 2. L’estimatore è consistente, nel senso che al crescere delle dimensioni del campione l’estimatore converge al valor vero della proprietà: lim σâ2 = 0 n→∞ (1.48) 3. L’estimatore è efficiente, nel senso che la varianza della stima della proprietà ottenuta da uno stimatore è piccola. 4. L’estimatore è invariante sotto trasformazione dei parametri, nel senso che, se f è una generica funzione, allora la stima di f (a) è data proprio da f (â). Come abbiamo detto, lo stimatore del valor vero è la media aritmetica. Vediamo che esso è un buon estimatore del valor vero, in quanto: 1. è non distorto: E(x̄) = µx N 1 = µx (E(x1 ) + · · · + E(xN )) = N N 2. è consistente: σx̄2 = 1 σ2 σx2 = x → 0 · N N N →∞ N 2 (1.49) (1.50) 3. è il più efficiente, in quanto si può dimostrare che la media aritmetica è lo stimatore avente minima varianza tra tutti quelli possibili. La media aritmetica ha due proprietà fondamentali: 1. La somma degli scarti rispetto ad essa è nulla: N X i=1 (xi − x̄) = N · PN (xi ) − N x̄ = N x̄ − N x̄ = 0 N i=1 (1.51) 2. La somma dei quadrati degli scarti rispetto ad essa è la minima possibile, in quanto se invece di scegliere x̄ come valore da cui effettuare lo 16 scarto si sceglie un altro x generico si avrà: N X 2 (xi − x) = i=1 N X [(xi − x̄) + (x̄ − x)]2 = i=1 = N h X (xi − x̄)2 + (x̄ − x)2 + 2 (xi − x̄) (x̄ − x) = i i=1 = = N X i=1 N X 2 (xi − x̄) + N (x̄ − x) 2 N X (xi − x̄) = + 2 (x̄ −x) i=1 (xi − x̄)2 + N (x̄ − x)2 i=1 che è sempre maggiore di P i (xi − x̄)2 ∀x 6= x̄. Lo stimatore della varianza sarà invece lo scarto quadratico medio del campione: N 1 X (xi − x̄)2 (1.52) s2 = N − 1 i=1 si potrebbe pensare di usare invece lo scarto quadratico medio della popolazione: 1 X s02 = (xi − x̄)2 (1.53) N i facendo così tuttavia, notiamo che esso è uno stimatore solo asintoticamente non distorto, in quanto: E s 02 N X 1 = E (xi − x̄)2 = N i=1 ! = N n h io 1 X E ((xi − µ) − (x̄ − µ))2 = N i=1 N n h io i h 1 X E (xi − µ)2 − E (x̄ − µ)2 = N i=1 1 1 2 N −1 2 2 = Nσ − N σ = σ → σ2 N →∞ N N N = mentre invece si può dimostrare che s2 non è distorto in generale. 17 1.5 Legge dei grandi numeri e disuguaglianza di Bienayme-Cebicev per la media aritmetica Consideriamo una popolazione di varianza finita σ 2 . Dati due numeri positivi ε0 e ε00 , la legge dei grandi numeri afferma che esiste sempre un numero N tale che, per ogni campione di dimensione M ≥ N , si ha: P (|x̄ − µx | ≥ ε0 ) ≤ ε00 (1.54) Il che significa che, se si fa il giusto numero di misure, la probabilità che lo scarto della media aritmetica dal valor vero sia maggiore di ε0 diventa sempre più piccola al crescere di N . Vale inoltre la cosiddetta disuguaglianza di Bienayme-Cebicev. Se x è una variabile aleatoria con distribuzione associata f (x) e varianza finita σ 2 , allora: P (|x − µ| ≥ λσ) ≤ 1 λ2 (1.55) per ogni λ ≥ 0. Dimostriamo prima la disuguaglianza di Bienayme-Cebicev, ricordando che: ˆ P (|x − µ| ≥ λσ) = f (x) dx (1.56) C∗ dove C ∗ è il dominio in cui si ha |x − µ| ≥ λσ. In tale regione, sarà anche vero che: (x − µ)2 |x − µ| ≥1⇒ ≥1 (1.57) λσ λ2 σ 2 dunque: ˆ ˆ (x − µ)2 (x − µ)2 P (|x − µ| ≥ λσ) ≤ f (x) dx ≤ f (x) dx (1.58) λ2 σ 2 λ2 σ 2 C∗ C dove C è tutto il dominio di definizione della variabile aleatoria x. Segue quindi: h i 1 1 2 P (|x − µ| ≥ λσ) ≤ E (x − µ) ≤ 2 (1.59) 2 λ (λσ) da cui la tesi: 1 P (|x − µ| ≥ λσ) ≤ 2 . (1.60) λ 18 Ricordando ora che x̄ ha varianza σ 2 /N , possiamo dimostrare la legge dei grandi numeri come conseguenza della disuguaglianza di Bienayme-Chebicev. Difatti: P |x̄ − µ| 1 σ ≥ λ√ ≤ 2 λ N |{z} | {z } ε0 (1.61) ε00 da cui la disuguaglianza è verificata se N è pari a: σ2 ε02 · ε00 N= (1.62) e si sceglie M ≥ N . 1.6 Metodo della massima verosimiglianza Supponiamo che, note le distribuzioni sottostanti a delle variabili aleatorie xi , vogliamo stimare i parametri a = [a1 , a2 , . . . , aN ]T che determinano una relazione funzionale associata alle variabili aleatorie del tipo f (xi , a). Se ad esempio la relazione funzionale è quella lineare, vogliamo un metodo per determinare stimatori che stimino i parametri a = [A, B]T associati alla relazione: y i = A + B · xi (1.63) La probabilità di osservare l’insieme y1 , . . . , yN di valori sarà data dal prodotto delle probabilità di osservare i singoli valori ciascuno, dunque: dP = f (x1 , a) dx · f (x2 , a) dx · · · · · f (xN , a) = N Y [f (xi , a) dx] (1.64) i=1 il principio della massima verosimiglianza asserisce allora che i parametri a che meglio stimano quelli veri saranno allora quelli che massimizzano tale probabilità. Definita funzione di verosimiglianza la quantità: L := N Y [f (xi , a)] (1.65) ∂ 2L ∂L = 0, <0 ∂ai ∂a2i (1.66) i=1 il principio è soddisfatto se: 19 Un estimatore di massima verosimiglianza è sempre asintoticamente non distorto, è sempre consistente, è sempre quello con efficenza migliore e sono sempre invarianti sotto trasformazione dei parametri. Per comodità, si preferisce lavorare con il logaritmo di L nei calcoli, in quanto la produttoria si trasforma in sommatoria: w = log (L) = N X [log (f (xi , a)] (1.67) i=1 1.7 Funzione di distribuzione di più variabili aleatorie e covarianza Se un fenomeno casuale dipende da più variabili aleatorie, è possibile descrivere la distribuzione di probabilità associata a tali variabili mediante una densità di probabilità congiunta: ˆ f (x) = f (x1 , . . . , xN ) : f (x) dx = 1 (1.68) CN i momenti si stimeranno in modo analogo al caso unidimensionale: ˆ E(xi ) = xi · f (x) dx ≡ µi (1.69) CN h 2 E (xi − µi ) ˆ i = (xi − µi )2 f (x) dx ≡ σi2 (1.70) CN oltre a questi momenti banali però, si avrà un nuovo tipo di momento che tiene conto della possibile “mescolanza” tra loro delle variabili aleatorie: ˆ E [(xi − µi ) · (xj − µj )] = (xi − µi ) (xj − µj ) f (x) dx = CN ˆ = (xi xj + µi µj − xi µj − xj µi ) f (x) dx = CN i = E [xi xj ] +µ µj − 2 µi µj = = E (xi xj ) − [E(xi ) · E (xj )] := Vij 20 (1.71) la matrice: V := Vij ≡ E (xi xj ) − E(xi ) E(xj ) (1.72) è detta matrice di covarianza. Essa è una matrice simmetrica (Vij = Vji ), i cui elementi diagonali sono le varianze associate alle variabili aleatorie i-esime: Vii = σ 2 (xi ) (1.73) mentre gli elementi fuori diagonale sono detti termini di covarianza, e possono essere maggiori o minori di zero. In corrispondenza della covarianza, si ha il cosiddetto coefficiente di correlazione per due variabili aleatorie, definito come: cov (xi , xj ) Vij (1.74) := ρ(xi , xj ) := q σi · σj Vii · Vjj Il coefficiente di correlazione assume valori compresi tra −1 e 1: se il valore è ±1, le due variabili aleatorie sono completamente correlate/anticorrelate, mentre se il valore è 0 le due variabili sono completamente scorrelate. Un esempio di perfetta correlazione si ha se x1 ed x2 sono in relazione lineare tra loro, ad esempio x1 = A x2 , nel qual caso si avrà ρ = ±1 a seconda che A sia positivo o negativo; un esempio di perfetta scorrelazione si ha se invece x1 ed x2 generano una distribuzione uniforme del piano [0, 1] × [0, 1], nel qual caso si avrà ρ = 0. In generale, più la distribuzione dei punti (xi , xj ) assomiglia ad una retta, più ρ sarà vicino a 1. Un caso intermedio è dato da una distribuzione di punti (xi , xj ) tale che questa coppia di punti cada nell’area del primo quadrante di un piano cartesiano delimitata dalla relazione x21 + x22 = 1 (dunque nella circonferenza unitaria passante per l’origine). Si noti che, se le xi sono tutte indipendenti tra loro, allora la densità di probabilità congiunta si può fattorizzare come: f (x1 , . . . , xN ) = N Y [f (xi )] (1.75) i=1 1.7.1 Dimostrazione del fatto che ρ ∈ [−1, 1] Supponiamo di avere una relazione lineare. Allora: σ 2 (x1 + Ax2 ) = σ 2 (x1 ) + A2 σ 2 (x2 ) + 2A · cov (x1 , x2 ) (1.76) dato che σ 2 (x1 + Ax2 ) ≥ 0, segue: σ 2 (x1 ) + A2 σ 2 (x2 ) + 2A · cov (x1 , x2 ) ≥ 0 21 (1.77) Divido tutto per σ 2 (x1 ): 1 + A2 σ 2 (x2 ) σ (x2 ) cov (x1 , x2 ) ≥0 + 2A 2 σ (x1 ) σ (x1 ) σ (x1 ) σ (x2 ) | {z ρ(x1 ,x2 ) (1.78) } Definendo il rapporto σ (x2 ) /σ (x1 ) := α, segue: 1 + (Aα)2 + 2Aα ρ(x1 , x2 ) ≥ 0 (1.79) ρ2 ≤ 1 ⇒ ρ ∈ [−1, 1]. (1.80) il che significa che: Se tutte le xi sono tra loro scorrelate, allora posso fattorizzare la densità di probabilità: f (x1 , . . . , xN ) = N Y [f (xi )] (1.81) i=1 quindi: ˆ E (xi xj ) = = = ˆ ˆ xi xj f (xi ) . . . f (xN ) dx1 . . . dxN = xi xj f (xi ) · f (xj ) dxi dxj = ˆ xi f (xi ) dxi · xj f (xj ) dxj = E(xi ) · E(xj ) (1.82) quindi Vij = 0 ⇒ ρ = 0. 1.8 Gaussiana multivariata La funzione di distribuzione associata ad N variabili aleatorie gaussiane correlate tra loro è data dalla cosiddetta gaussiana multivariata: 1 (1.83) φ(x) = k · exp − (x − a)T · B · (x − a) 2 dove: 1 q k := q (1.84) (2π)n · det (B−1 ) a := [µ1 , µ2 , . . . , µN ] B := V = Vij −1 22 (1.85) (1.86) e tale che: ˆ φ(x) · dx = 1 (1.87) RN nel caso di solo 2 variabili aleatorie, si ha: #−1 cov (x1 , x2 ) σx21 B= cov (x1 , x2 ) σx22 " = 1 −cov (x1 , x2 ) σx22 2 −cov (x , x ) σx21 1 2 − [cov (x1 , x2 )] # " = σx21 σx22 (1.88) Supponendo che x1 e x2 siano scorrelate, si avrà: −1 (σ12 ) B= 0 " 0 2 −1 (σ2 ) # (1.89) 1 (x1 − µ1 )2 (x2 − µ2 )2 φ(x1 , x2 ) = exp − exp − 2πσ1 σ2 2σ12 2σ22 ! ! (1.90) dunque la gaussiana bidimensionale nel caso di due variabili aleatorie scorrelate è semplicemente il prodotto di due gaussiane. Nel caso in cui sono correlate invece, si avrà: −1 1 −ρ (σ1 σ2 )−1 (σ12 ) B= −1 1 − ρ2 −ρ (σ1 σ2 )−1 (σ22 ) 1 −G 2 √ φ(x1 , x2 ) = e 2πσ1 σ2 1 − ρ2 " # (1.91) (1.92) dove: 1 (x1 − µ1 )2 (x2 − µ2 )2 x1 − µ 1 G := + − 2ρ 2 2 2 1−ρ σ1 σ2 σ1 " 1.9 x 2 − µ2 σ2 # (1.93) Determinazione grafica dei parametri di massima verosimiglianza l’uso del metodo della massima verosimiglianza presuppone che la forma analitica della densità di probabilità da analizzare sia specificata a priori. Essa può tuttavia essere anche massimizzata con procedure numeriche, nel caso in cui non si può determinare una forma analitica della f (xi , a), o analizzata mediante approssimazioni e metodi grafici nel caso in cui essa sia completamente ignota a priori. 23 1.9.1 Un parametro Notiamo innanzitutto che la funzione di massima verosimiglianza L è asintoticamente normale, dunque se si ha solamente un parametro θ che caratterizza la relazione funzionale: L(xi , θ) ∝ exp − dove: θ − θ̂ V θ̂ ∂ 2 log (L) V θ̂ := − ∂θ2 " 2 (1.94) #−1 (1.95) possiamo allora stimare θ con la sua incertezza analizzando L(θ) graficamente. La stima di massima verosimiglianza di θ sarà quel valore per il quale L(θ) è massimo, mentre l’incertezza si può ottenere stimando per quali valori di θ si ha L = e−0.5 Lmax (cioè la FWAHM della distribuzione): Figura 1.1: determinazione grafica della stima θ̂ di massima verosimiglianza nel caso di L gaussiana (a) e non gaussiana (b). 24 1.9.2 Due parametri Nel caso di due parametri, la funzione L(θ1 , θ2 ) sarà una gaussiana bidimensionale: 1 θ1 − θ̂1 L(θ1 , θ2 ) = Lmax exp − σ12 2 (1 − ρ2 ) 2 + θ2 − θ̂2 σ22 2 + θ1 − θ̂1 θ2 − θ̂2 −2ρ σ1 σ2 (1.96) la miglior stima di (θ1 , θ2 ) si avrà sempre rintracciando il punto di massimo di L, mentre la FWAHM sarà data da una curva di livello, cioè un’equazione implicita in θ1 e θ2 pari a: 1 θ1 − θ̂1 1 − ρ2 σ12 2 + θ2 − θ̂2 σ22 2 θ1 − θ̂1 θ2 − θ̂2 − 2ρ =1 σ1 σ2 (1.97) che è l’equazione di un ellisse, noto come ellisse di covarianza, centrata su (θ1 , θ2 ) e il cui asse principale è inclinato rispetto all’asse θ1 di un angolo pari a: ! 1 2ρσ1 σ2 α = arctan (1.98) 2 σ12 − σ22 25 Figura 1.2: Gaussiana bidimensionale L(θ1 , θ2 ), con sovraimposte le curve di livello associate ad e−0.5 Lmax , e−2 Lmax ed e−4.5 Lmax , rispettivamente dall’alto verso il basso. Figura 1.3: Curve di livello date dall’equazione dell’ellisse di covarianza. 26 Capitolo 2 Regressione 2.1 Regressione lineare Molti problemi scientifici richiedono di determinare una relazione tra insiemi di variabili aleatorie. In molte di queste situazioni, c’è una singola variabile aleatoria di risposta Y ad un input di r variabili aleatorie xj diverse tra loro. La più semplice relazione di questo tipo è quella lineare, cioè quella avente la forma: Y = β0 + β1 x1 + · · · + βr xr (2.1) nella realtà tuttavia, ci sarà sempre una fluttuazione dei punti1 (Yi , xj,i ) rispetto alla retta attesa, dovuta agli errori sperimentali. Ciò significa che la vera relazione sarà del tipo: Y = β 0 + β 1 x1 + · · · + β r xr + ε (2.2) dove ε è l’errore casuale, che sappiamo essere una variabile aleatoria avente media nulla. Questo significa che il valore atteso della variabile aleatoria Yi (xi ) è proprio la retta che ci si aspetterebbe nel caso senza errore, che possiamo scrivere in forma compatta usando la notazione vettoriale come: E[Yi (xi )] = β0 + βi xi (2.3) dove β = [β1 , . . . , βr ] e x = [x1 , . . . , xr ]. L’equazione (2.2) è nota come equazione di regressione lineare. Il caso più semplice è quello di una 1 l’indice “j” indica la j-esima variabile aleatoria considerata, mentre l’indice “i” indica l’i-esimo punto del grafico multidimensionale Y (x1 , . . . , xr ). Nel caso in cui si ha una sola variabile, i è l’indice che definisce quale punto sul piano xY si sta considerando. 27 sola variabile aleatoria, nel qual caso si avrà una equazione di regressione semplice. i coefficienti β sono invece noti come coefficienti di regressione. Si noti che l’equazione di regressione semplice, nel caso in cui i parametri β0 e β1 fossero noti senza errore, effettivamente definisce un fascio improprio di rette, che fluttuano attorno alla “vera retta” a causa dell’errore ε. 2.2 Estimatori dei minimi quadrati dei parametri di regressione lineare I parametri β0 e β1 non sono tuttavia noti senza errore. Vogliamo allora determinare degli stimatori A e B rispettivamente di questi due parametri, associati alla retta di regressione lineare: Yi = A + Bxi (2.4) determinati A e B, questa retta sarà infatti la miglior stima della “retta vera”. Definiamo somma dei quadrati dei residui tra i “veri” output Yi e quelli attesi dallo stimatore A + Bxi come: SSR = N X (Yi − A − Bxi )2 (2.5) i=1 Il metodo dei minimi quadrati sceglie come stimatori di β0 e β1 quei valori di A e B che minimizzano SSR . Deriviamo SSR prima rispetto ad A e poi rispetto a B: N X ∂ (SSR ) = −2 (Yi − A − Bxi ) ∂A i=1 (2.6) N X ∂ (SSR ) = −2 xi (Yi − A − Bxi ) ∂B i=1 (2.7) ponendo tali valori pari a zero, si ottiene il seguente sistema di equazioni, noto come sistema delle equazioni normali: N X Yi i=1 N X i=1 = NA + B xi Y i = A N X xi i=1 N X xi + B i=1 28 N X i=1 (2.8) x2i Possiamo risolvere il sistema rispetto ad A e B per sostituzione. Indicando con Ȳ e x̄ le medie arimetiche: N 1 X Yi N i=1 (2.9) N 1 X xi x̄ := N i=1 (2.10) Ȳ := si può risolvere la prima equazione normale implicitamente rispetto ad A: A = Ȳ − B x̄ (2.11) sostituendo tale valore di A nella seconda equazione, si ha: N X xi Yi = Ȳ − B x̄ N x̄ + B N X x2i → i=1 i=1 →B N X ! x2i − N x̄2 = i=1 N X xi Yi − N x̄Ȳ → i=1 N X B= (xi Yi ) − N x̄Ȳ i=1 N X x2i − N x̄2 i=1 dunque gli stimatori A e B saranno dati da: N X B= (xi Yi ) − x̄ i=1 N X (Yi ) i=1 N X (2.12) x2i − N x̄2 i=1 A = Ȳ − B x̄ 2.3 (2.13) Distribuzione degli estimatori Vediamo ora quale sia la distribuzione associata a tali stimatori. Per fare ciò, supporremo che la variabile aleatoria ε sia associata ad una distribuzione normale avente media 0 e varianza σ 2 . Ciò significa che anche le Yi variabili 29 aleatorie avranno una distribuzione normale, saranno indipendenti tra loro e avranno una varianza che non dipende dai valori in input, ma sarà invece costante e pari proprio a σ 2 . Tale valore si suppone non noto a priori, e va stimato a sua volta a partire dai dati. Per quanto riguarda B quindi, esso può essere riscritto come: N X B= i=1 N X [(xi − x̄) Yi ] (2.14) (x2i ) − N x̄2 i=1 il che significa che B è una combinazione lineare delle variabili aleatorie Yi distribuite normalmente (sotto l’ipotesi effettuata in partenza sulla distribuzione degli errori), e dunque anche B sarà distribuito normalmente. Il valore atteso dello stimatore è: [(xi − x̄) (β0 + β1 xi )] (xi − x̄) E (Yi ) = i P 2 = E (B) = P 2 2 2 i (xi ) − N x̄ i (xi ) − N x̄ P P P P β0 i (xi − x̄) + β1 i [xi (xi − x̄)] [ i x2i − x̄ i xi ] = = β1 P 2 P 2 2 2 i (xi ) − N x̄ i (xi ) − N x̄ P P i Ma essendo i (xi − x̄) = 0, il numeratore della frazione si semplifica con il denominatore, e quindi: E(B) = β1 (2.15) P dunque B è uno stimatore non distorto di β1 . Per quanto riguarda la varianza invece: Var Var (B) = N X ! [(xi − x̄) Yi ] i=1 N X x2i − N x̄ 2 !2 P h = i (xi − x̄)2 Var (Yi ) ( i P i 2 x2i − N x̄2 ) i=1 2 (( 2 σ 2 · i (xi − x̄)2 σ 2( ( (i ( (x( i ) − N x̄ ) = P 2 = 2 = P 2 ( i (xi ) − N x̄2 ) ( i (x2i ) − N x̄2 ) σ2 =P 2 2 i (xi ) − N x̄ P P 30 ( (( = In definitiva, B fluttua attorno a β1 con varianza: σ2 2 2 i (xi ) − N x̄ σB2 = P (2.16) Per quanto riguarda A invece, con ragionamenti analoghi a prima si può dimostrare che A ha anch’essa sotto le stesse ipotesi distribuzione normale, il cui valore atteso è pari a: E (A) = N X i=1 N X E (Yi ) β0 + β1 xi − x̄E (B) = N N i=1 ! ! − x̄β = 1 1 = β0 +β x̄ −β x̄ = β0 (2.17) dunque anche A è uno stimatore non distorto, mentre la sua varianza si può dimostrare essere pari a: σA2 2.4 σ 2 i (x2i ) = P N [ i (x2i ) − N x̄2 ] P (2.18) Estimatore della varianza σ 2 Consideriamo nuovamente la somma dei quadrati dei residui: SSR = N X (Yi − A − Bxi )2 (2.19) i=1 possiamo usare tale quantità per stimare la varianza σ 2 ignota associata agli Yi . Si può dimostrare che: SSR ∼ χ2N −2 (2.20) σ2 dunque la somma dei quadrati dei residui diviso per la varianza degli Yi ha distribuzione chi-quadrato con N − 2 gradi di libertà. Ciò significa che: E SSR σ2 = N − 2 ⇒ σ2 = E SSR N −2 (2.21) quindi lo stimatore della varianza associata agli Yi è la quantità: S= SSR N −2 31 (2.22) Se chiamiamo: SxY := Sxx := SY Y := N h X i=1 N X (xi − x̄) Yi − Ȳ i = N X (xi Yi ) − N x̄Ȳ (2.23) i=1 (xi − x̄)2 = i=1 N X Yi − Ȳ 2 N X x2i − N x̄2 i=1 N X = i=1 Yi2 − N Ȳ 2 (2.24) (2.25) i=1 allora un’identità computazionale per SSR sarà data da: SSR = 2 Sxx SY Y − SxY Sxx (2.26) inoltre è possibile scrivere in forma compatta lo stimatore B come: B= SxY Sxx (2.27) Si noti inoltre che, dalla (2.26), SSR si può riscrivere come: SSR = 1 − 2 SxY ≡ 1 − ρ2 Sxx SY Y (2.28) dove ρ è proprio il coefficiente di correlazione. Possiamo quindi scrivere che: S= 2.5 1 − ρ2 N −2 (2.29) Test d’ipotesi statistica sui parametri di regressione vediamo ora come effettuare dei test d’ipotesi per determinare se una retta di regressione lineare si adatta o meno ai dati da analizzare. 2.5.1 Test d’ipotesi riguardanti β1 Il primo test interessante riguardante il parametro β1 è verificare se esso sia compatibile o no con lo zero. Definiamo innanzitutto ipotesi nulla (e la 32 indichiamo con H0 ) un’ipotesi statistica di default, che solitamente coincide con quella riguardante il fatto che non ci sia “nulla di nuovo” nell’esperimento eseguito (ad esempio nessuna correlazione, nessuna variazione della pendenza della retta, nessuna correlazione tra due variabili aleatorie, etc...). In questo caso, definiremo: H0 : β1 = 0 (2.30) che andrà confrontata con un’ipotesi alternativa, che in questo caso è una sola possibile e sarà quella che il parametro β1 non sia nullo: H1 : β1 6= 0 (2.31) vediamo ora come testare l’ipotesi nulla. Innanzitutto, consideriamo la quantità: B − β1 q (2.32) σ 2 /Sxx essa si può verificare essere pari a: B − β1 q σ 2 /Sxx = q Sxx (B − β1 ) ∼ N (0, 1) σ (2.33) tale quantità è indipendente da: SSR ∼ χ2N −2 σ2 (2.34) Si definisce distribuzione t di Student avente ν gradi di libertà la distribuzione: N (0, 1) tν = q (2.35) χν /ν ciò significa che: B − β1 tN −2 ∼ q σ 2 /Sxx q ·√ SSR σ2 N −2 s = (N − 2) Sxx (B − β) SSR (2.36) quindi, l’ipotesi nulla H0 è vera se e solo se vale l’equivalenza: s (N − 2) Sxx B ∼ tN −2 SSR 33 (2.37) Il test d’ipotesi nulla riguardante β = 0 sarà allora fatto come segue: dato un livello di significatività γ scelto a priori dallo sperimentatore, l’ipotesi nulla sarà: s (N − 2) Sxx |B| > tγ/2, N −2 SSR vera altrimenti (2.38) falsa se (2.39) per verificare ciò, si calcola: s v= (N − 2) Sxx |B| SSR (2.40) e si rigetta l’ipotesi nulla se γ è almeno grande quanto il valore: p-valore = P (|tN −2 | > v) = 2P (tN −2 > v) (2.41) queste probabilità si possono ricavare mediante tabelle online, o programmi di calcolo numerico. Nel caso in cui β1 non sia nullo invece, una stima dell’intervallo di confidenza per β1 al 100 (1 − a) %, con a ∈ [0, 1], è dato da: s " B− 2.5.2 SSR ta/2, N −2 , B + (N − 2) Sxx s SSR ta/2, N −2 (N − 2) Sxx # (2.42) Test d’ipotesi riguardanti β0 La determinazione degli intervalli di confidenza di β0 si fa in modo analogo al caso di β1 . Ciò significa che varrà l’uguaglianza: v u u N (N − 2) Sxx t P (x2 ) SS i R i (A − β0 ) ∼ tN −2 (2.43) l’intervallo di confidenza per β0 al 100 (1 − a) % sarà l’intervallo: v u P 2 u i (xi ) SSR A − t v u P u (x2 ) SSR A+t i i N (N − 2) Sxx ta/2, N −2 , N (N − 2) Sxx ta/2, N −2 (2.44) e l’ipotesi nulla associata a β0 = 0 con livello di significatività γ sarà: falsa se v u u N (N − 2) Sxx t P (x2 ) SS i |A| > tγ/2, N −2 (2.45) R i vera altrimenti (2.46) 34 2.5.3 Test d’ipotesi riguardante la risposta media β0 + β1 x0 Fissato un certo x0 , è interessante analizzare la variabile aleatoria A + Bx0 . Innanzitutto, si noti che questa quantità è uno stimatore non distorto di β0 + β1 x0 , in quanto: E (A + Bx0 ) = E (A) + x0 E (B) = β0 + β1 x0 (2.47) la variabile aleatoria A + Bx0 si può dimostrare essere normalmente distribuita attorno a questo valore atteso. Definito: c= 1 Sxx (2.48) La varianza di A + Bx0 sarà pari a: Var (A + Bx0 ) = N X i=1 =σ 2 N X i=1 =σ 2 =σ 2 2 1 − c (xi − x̄) (x̄ − x0 ) N " Var (Yi ) = (x̄ − x0 ) 1 − c2 (x̄ − x0 )2 (xi − x̄)2 − 2c (xi − x̄) = 2 N N # " N N X X (xi − x̄) 1 + c2 (x̄ − x0 )2 (xi − x̄)2 − 2c (x̄ − x0 ) = N N i=1 i=1 " 1 (x̄ − x0 )2 + N Sxx # # dunque: 2 σA+Bx 0 =σ 2 " (x̄ − x0 )2 1 + N Sxx # (2.49) anche in questo caso, essendo A + Bx0 distribuito normalmente, varrà l’equivalenza: A + Bx0 − (β0 + β1 x0 ) r ∼ tN −2 (2.50) q (x0 −x̄)2 SSR 1 + Sxx N N −2 da cui si può avere un intervallo di confidenza per β0 + β1 x0 , al 100(1 − a)% di confidenza: (A + Bx0 ) ± v u u t 1 (x0 − x̄)2 + N Sxx 35 s SSR ta/2, N −2 N −2 (2.51) 2.6 Coefficiente di determinazione e coefficiente di correlazione lineare Innanzitutto, notiamo che la quantità: SY Y = N X Yi − Ȳ 2 (2.52) i=1 indica quanto le ordinate Yi scartino dal valor medio Ȳ . La quantità: SSR = N X (Yi − A − Bxi )2 (2.53) i=1 indica invece quanto le ordinate Yi scartino dalla retta di regressione. La quantità: SY Y − SSR (2.54) rappresenta la quantità di scarto delle ordinate Yi dal valor medio che è spiegato dai differenti input xi . È dunque interessante definire la quantità: R2 := SSR SY Y − SSR =1− SY Y SY Y (2.55) tale quantità è nota come coefficiente di determinazione. Esso avrà valori compresi nell’intervallo: R2 ∈ [0, 1] (2.56) un valore di R2 vicino ad 1 indica che la maggior parte dello scarto nelle ordinate Yi dal valor medio è spiegato dai differenti input xi , mentre un valore di R2 vicino a 0 indica che nessuno degli scarti delle ordinate Yi dal valor medio è spiegato dagli altri input xi . Ciò significa che il valore di R2 è un indicatore di quanto bene il modello di regressione scelto fitta i dati. In altre parole, se il modello di regressione riesce a spiegare la maggior parte degli scarti degli Yi dal valor medio, allora il modello si ritiene essere buono. Ricordiamo ora che, dalla relazione (2.28), il coefficiente di correlazione si scrive come: i P h (x − x̄) Y − Ȳ i i i (2.57) ρ= r 2 P 2P i (xi − x̄) i Yi − Ȳ 36 Notiamo ora che: 2 SxY Sxx SY Y − SSR Sxx SSR ρ = = =1− ≡ R2 Sxx SY Y Sxx Syy SY Y 2 dunque: |ρ| = √ R2 (2.58) (2.59) e quindi, eccetto per un segno che indichi se si ha correlazione o anticorrelazione, R2 è proprio pari al quadrato del coefficiente di correlazione. 2.7 Analisi dei residui Il primo passo per capire se un modello di regressione lineare è appropriato per fittare dei dati è quello di guardare il diagramma di dispersione, cioè il grafico dei punti (xi , Yi ). Se l’ “aspetto” del grafico non permette di convincersi del fatto che il modello sia corretto o meno, allora bisogna effettuare un’analisi dei residui Yi − A − Bxi . √ L’analisi inizia normalizzando i residui, dividendoli per S: Yi − (A + Bxi ) Yi − A − Bxi √ =q S SSR / (N − 2) (2.60) quantità nota come residui standardizzati. Se il modello di regressione lineare è corretto, essi sono approssimativamente delle variabili aleatorie indipendenti con distribuzione normale, e dovrebbero dunque essere distribuiti normalmente attorno a 0 con il 95% dei valori che cadono tra −2 e 2. Un diagramma di dispersione dei residui standardizzati inoltre non dovrebbe mostrare alcun pattern funzionale. Ogni indicazione di un “grafico” associato allo diagramma di dispersione dei residui standardizzati è un indice che pone sospetto sulla validità di un modello di regressione lineare associato ai dati. Nel primo grafico seguente, verrà mostrato un caso in cui i residui standardizzati si comportano correttamente, mentre nel secondo grafico verrà mostrato un diagramma di dispersione in cui i residui hanno un andamento non distribuito casualmente tra −2 e 2. 37 Figura 2.1: Caso 1: la correlazione lineare non è sospetta 38 Figura 2.2: Caso 2: la correlazione lineare è sospetta. Si noti inoltre che non sempre è così semplice riconoscere “ad occhio” se i residui sono distribuiti per bene: nella figura seguente si ha un’analisi dei residui che pone sospetto nel modello di regressione lineare, in quanto c’è un aumento dello scarto degli Yi per alti valori di xi . Ciò non significa tuttavia che l’ipotesi di regressione lineare sia per forza falsa: solitamente questo caso significa che la varianza associata agli Yi non è costante, ma aumenta in modo correlato al valore in input xi . 39 Figura 2.3: Caso 3: l’ipotesi di linearità non è completamente trascurabile, ma la varianza associata ai punti potrebbe semplicemente non essere costante. 2.8 Test d’ipotesi sulla correlazione lineare Una volta determinato il coefficiente di correlazione lineare, è necessario verificare delle ipotesi statistiche su di esso. Se innanzitutto si vuole verificare che la correlazione tra due variabili x ed y sia significativamente diversa da zero, si può calcolare il valore di: √ ρ N −2 (2.61) t= √ 1 − ρ2 tale variabile aleatoria si può dimostrare essere distribuita come una distribuzione t di Student con N − 2 gradi di libertà. A questo punto si può rigettare l’ipotesi nulla ρ = 0 se tale variabile è significativamente diversa da zero. Rispetto al valor vero ρvero della correlazione lineare inoltre, il valore ρ della correlazione lineare stimato dai dati (coefficiente di correlazione lineare del campione) è distribuito in modo tale che la variabile aleatoria: s Z(ρ) = log 1+ρ 1−ρ ! = 1 [log (1 + ρ) − log (1 − ρ)] 2 40 (2.62) detta variabile di Fisher, sia associata ad una distribuzione approssimativamente normale, con valor medio e varianza pari a: E (Z(ρ)) = Z(ρvero ) 1 2 σZ(ρ) = N −3 (2.63) (2.64) la variabile di Fisher è invertibile, e l’inversa è data da: ρ(Z) = e2Z − 1 e2Z + 1 (2.65) a questo punto: 1. Se si vuole verificare se il valore della correlazione lineare ρ ottenuto è compatibile con un certo valore ρvero , si può controllare la compatibilità di Z(ρ) con la distribuzione normale N (Z(ρvero , σZ )) 2. Se si vuole calcolare un intervallo di confidenza per ρvero , si può usare l’intervallo di confidenza corrispondente alla distribuzione normale associata, avente deviazione standard σZ 3. Per verificare se due coefficienti di correlazione lineare ρ1 e ρ2 , associati rispettivamente ad un set di dati (xi , yi ) con N1 e con N2 punti disponibili, sono o meno significativamente differenti, si può calcolare la variabile aleatoria: Z1 (ρ1 ) − Z2 (ρ2 ) δ := s 1 1 + N1 − 3 N2 − 3 (2.66) tale variabile aleatoria segue asintoticamente la distribuzione normale avente media E(Z1 ) − E(Z2 ) e varianza 1. Si può a questo punto verificare se il risultato ottenuto per δ è compatibile o meno con lo zero. 2.9 Correlazione tra i parametri di regressione lineare I parametri della retta di regressione devono essere necessariamente correlati. Si può dimostrare che la covarianza tra i parametri A e B della correlazione 41 lineare è data da: Cov (A, B) = − dove: ∆ := N N X x2i P ! (xj ) 2 σ ∆ j − i=1 N X (2.67) !2 xi (2.68) i=1 e σ 2 è ancora la varianza comune associata alle ordinate Yi . L’espressione della covarianza si può inoltre riscrivere come: Cov (A, B) = − dove: Var (x) := σ2 x̄ · N Var (x) x2i − N "P i P xi N i 2 # (2.69) (2.70) che è sempre diversa da zero se x̄ 6= 0. Si noti inoltre che il segno della covarianza è opposto a quello di x̄, cosa che è dovuta al fatto che la retta di regressione deve necessariamente passare per il punto (x̄, Ȳ ): se dunque supponiamo che x̄ sia positivo, un aumento della pendenza della retta deve essere necessariamente controbilanciato da una diminuzione del valore dell’intercetta all’origine, in modo che la retta di regressione continui a passare per il punto (x̄, Ȳ ). 42 Capitolo 3 Machine Learning 3.1 Introduzione Il machine learning è una branca dell’intelligenza artificiale che raccoglie una serie di metodi basati sul miglioramento progressivo e autonomo di un algoritmo preposto ad elaborare o identificare pattern nei dati forniti. A differenza dei metodi classici, gli algoritmi di machine learning si focalizzano sul predire il risultato, piuttosto che stimarlo numericamente. Questo, e la focalizzazione sui risultati empirici e sull’intuizione piuttosto che sulla formalizzazione analitica del problema, rendono tali algoritmi efficaci per affrontare problemi complessi, con strutture di dati ad alta dimensionalità. Per comprendere come mai sia importante il machine learning, si può partire da un esempio concreto. Supponiamo di avere un certo numero di lettere, da recapitare a dei codici postali numerici scritti a mano sulle stesse. Il fatto che i grafemi siano scritti a mano è un problema, in quanto ogni numero sarà in linea di principio scritto in modo leggermente diverso, e dunque c’è bisogno di un metodo per interpretare i simboli e associarli ad un numero oggettivo. L’idea è quella di costruire una macchina dotata di telecamera, la quale idealmente è capace di interpretare il grafema e di ricostruire il simbolo corrispondente. Nella pratica, per realizzare un algoritmo di questo tipo ci si ispira al modo in cui un cervello animale riesce ad effettuare la stessa operazione. Nel caso biologico infatti, sono presenti dei neuroni, che essenzialmente prendono mediante un certo numero di dendriti dei segnali di input in parallelo, li elabora e restituisce attraverso gli assoni un output “elaborato” in modo 43 non-lineare, come in questa figura: Ciò che si fa quindi è considerare un sistema informatico formato da unità computazionali simili a neuroni, che ricevono gli input, li elaborano applicando una funzione non-lineare e li restituiscono in output: nel nostro caso d’esempio, supponendo per semplicità che gli “hidden layers” non esistano, avremo solo gli input layer e l’output layer. Negli input 44 layer arriveranno i valori xj di luminosità associati ciascuno al j-esimo pixel dell’immagine scattata dalla fotocamera. L’input layer utilizzerà dei pesi, cioè una certa matrice wij , e un bias, cioè un valore b costante, per generare una funzione vettoriale lineare di input hi del tipo: hj = N X wij xi + b ⇒ h = w · x + b (3.1) i=1 a questo punto sempre gli input layer applicheranno una particolare funzione nonlineare σ(h) al vettore di input (che può essere ad esempio σ(h) = tanh (h), oppure σ (h) = (1 + exp (−h))−1 , o altri tipi più intricati), in modo da restituire un vettore di output y = yj le cui coordinate siano valori compresi tra 0 e 1 che descrivono la probabilità che l’immagine corrisponda ad un numero intero tra 0 e 9. Avendo fissato il processo, si procede con il cosiddetto learning. Esso consiste nel sottoporre la macchina a delle immagini di training, cioè un particolare campione esemplificativo che mostri un certo numero di tipologie di numeri da 0 a 9 scritti in modi relativamente diversi tra loro, su cui la macchina dovrà allenarsi per massimizzare la probabilità che l’output sia effettivamente quello associato al numero inviato in input. Il modo in cui si procede è quello di fornire l’immagine, e far restituire all’algoritmo un output con una matrice dei pesi wij inizializzata a certi valori casuali. Si utilizza poi una funzione di costo, che funge da criterio per determinare quantitativamente la discrepanza dell’output ottenuto nella pratica dal valore vero che ci si aspetta di ottenere. Solitamente si sceglie la cosiddetta cross-entropy, cioè la funzione: E (y0 , y) = − 10 X yj0 log (yj ) (3.2) j=1 dove yj sono i valori di probabilità ottenuti effettivamente dal neurone di output, e yj0 quelli ideali che ci si aspetta di ottenere dall’immagine (nel nostro caso di esempio, 1 per un certo numero e 0 per tutti gli altri). Ottenuto il valore della funzione di costo, si modificano i pesi wij in modo tale da avvicinarsi quanto più possibile al minimo assoluto1 di E(y0 , y), e si riprova con 1 Si noti che tale minimo si deve cercare in uno spazio dei parametri a dimensione enorme, tanto più grande quante più variabili si introducono: il costo computazionale degli algoritmi di minimizzazione di funzioni iterativi che studieremo è quasi sempre molto elevato, in quanto si basano su calcoli del gradiente e dell’hessiano. 45 un’altra immagine di training. Il processo si itera finché l’output ottenuto è soddisfacente: a questo punto si fissa la matrice wij come quella migliore possibile per ottenere l’output desiderato e si ritiene completato il learning. La macchina a questo punto è pronta per svolgere il suo lavoro, seppur è necessario accettare il fatto che con questo meccanismo ci sarà sempre la probabilità di avere saltuariamente un risultato sbagliato (in quanto gli algoritmi di machine learning si può dimostrare che convergono al risultato atteso in modo asintotico e solo probabilisticamente). È possibile inoltre dotare la macchina di hidden layers aggiuntivi. Il loro scopo è molteplice: generalmente è quello di trasformare l’output σ(h) degli input layer in un valore accettabile dall’output layer, oppure di fornire all’algoritmo la possibilità di calcolare elementi complicati del fenomeno che solo una funzione nonlineare non è capace di riprodurre (ad esempio una funzione composta σ1 (σ2 (h)) che non è riproducibile con solo una funzione nonlineare), oppure di separare il problema di riconoscimento in più sottoproblemi (ad esempio se si vuole riconoscere l’immagine di un furgone tra tante immagini di veicoli, si può utilizzare un hidden layer per riconoscere le ruote, un altro hidden layer per riconoscere figure rettangolari e un altro hidden layer per discriminare la dimensione). A seconda di quanti hidden layer sono presenti nell’algoritmo, esso si definirà: • A single layer: nessun hidden layer • Shallow: un hidden layer • Deep: molti hidden layers In definitiva quindi, un algoritmo di machine learning si può generalizzare con questo diagramma di flusso: 46 fornire vettore xi in input modifica dei pesi wij Input layer: linearizzazione mediante pesi hi =wij xj +b nonlinearità: f(hi) modifica dei pesi w'ij hidden layer(s): trasformazione ulteriore dei dati g(w'ijf(hi)+b') output layer: predizione yi valori attesi y'i Ottimizzazione dei pesi (algoritmi GD) funzione di costo Il processo di learning ed il programma finale saranno più o meno complicati a seconda delle seguenti tipologie di complessità: • Complessità computazionale: quanto è difficile in termini di memoria trovare il minimo della funzione di costo • Complessità del modello: la dimensione dello spazio dei parametri in gioco • Complessità dei dati: quanto gli esempi forniti alla macchina sono rappresentativi dell’intera popolazione possibile dei dati esistenti in 47 natura (ad esempio se si è utilizzato un training di lettere scritte in america, e poi si considerano lettere scritte in russia, i dati potrebbero cambiare in maniera troppo significativa) 3.2 Categorie di machine learning Esistono due2 sottocategorie principali associate al machine learning: l’ unsupervised learning, che si occupa di raggruppare ( clustering) e interpretare i dati basandosi solo sul set di dati in input, e il supervised learning, che si occupa di generare algoritmi capaci di predirre l’output di input successivi sulla base di un set di dati in input e in output forniti precedentemente. Quest’ultimo tipo di learning si suddivide a sua volta in due sottocategorie principali: problemi di classificazione, che si occupano di prevedere a quale categoria appartiene un successivo input, e problemi di regressione, che si occupano di determinare quale sia il valore di output associato ad un successivo input. Graficamente quindi, si hanno le seguenti sottocategorie: Vediamo ora un esempio che rappresenti ciascuna sottocategoria. 1. Unsupervised learning: consideriamo come input 18 coppie di misure, associate rispettivamente alle larghezze dei sepali (asse x) e alle larghezze dei petali (asse y) di alcuni fiori. L’algoritmo di machine learning di questa sottocategoria verrà allenato a raggruppare i punti a seconda delle due specie possibili: “versicolore” o “virginica”. Tale 2 in realtà esiste anche una terza sottocategoria, chiamata reinforcement learning, ma esula dagli scopi del corso. 48 classificazione viene effettuata allenando la macchina su un training set di misure associate alle versicolore e di misure associate alle virginiche, e il risultato del clustering effettuato è mostrato nel grafico seguente: in definitiva, questo algoritmo ha preso i punti in input e li ha clusterizzati in due sottocategorie, con due segnalini diversi a seconda della specie, basandosi su un gran numero di caratteristiche di questo tipo associate alle due specie e imparate durante il learning. In questo caso quindi, non c’è nessuna predizione, solo una categorizzazione di elementi. 2. Supervised learning, classificazione: consideriamo come input sempre le 18 coppie di misure associate alle lunghezze dei sepali e dei petali dei fiori. L’algoritmo di machine learning di questa sottocategoria verrà allenato a prevedere se i nuovi input forniti al programma faranno parte della categoria “versicolore” o “virginica”. Un esempio è mostrato nel grafico seguente, dove la macchina dovrà decidere se il nuovo punto rosso in input va colorato di blu o di arancione: 49 Questo algoritmo ha quindi preso i punti in input già clusterizzati e dovrà decidere se quelli nuovi che verranno forniti al programma appartengono ad una o all’altra categoria. 3. Supervised learning, regressione: Consideriamo questa volta come input solo la coordinata x (cioè la larghezza del sepalo). L’algoritmo di machine learning di questa sottocategoria verrà allenato a prevedere quale sia il valore della coordinata y associata ad un nuovo input x, sulla base di un set di dati precedente. Un esempio è mostrato nel grafico seguente, dove la macchina dovrà capire dove si colloca il nuovo punto sul grafico a partire dalla coordinata x tratteggiata in rosso: 50 questo algoritmo quindi ha preso le coordinate x in input e, sulla base degli output precedenti, prevede l’output di quelle nuove fornite al programma. 3.3 Affrontare un problema di supervised learning applicato alla regressione vediamo innanzitutto di chiarire cosa significa predire un risultato. Siano x tutte le possibili osservazioni, w i parametri veri di un modello che fitta le osservazioni, ŵ gli estimatori di w e X il set di osservazioni già fatte sperimentalmente. Si definisce stima, o fitting, il processo di determinare il set di stimatori ŵ che meglio descrive il set di osservazioni già effettuate: ŵ = argmax [p (X|w)] w (3.3) dove la formula si legge così: “gli estimatori ŵ di un processo di stima sono determinati come quell’insieme dei valori dei parametri w di un modello tali che la probabilità di ottenere proprio il set di dati osservato, tenuto conto dei parametri w, sia massima”. Questo è il processo che si esegue quando si fa una regressione lineare, dove supposto che l’andamento sottostante al set di dati su cui fare la regressione sia modellizzato da una retta, si cercano gli stimatori â e b̂ tale che la retta y = âx + b̂ sia quella che descrive meglio il set di dati. Da un processo di stima si possono estrapolare nuove possibili osservazioni x, cioè dire “se l’andamento è quello previsto dal modello, al di fuori del set di dati X osservato stimiamo che si abbiano certi valori di output a partire da certi valori di input”. Questo tipo di predizione tuttavia è molto fallace, in quanto al di fuori del set di dati X l’andamento potrebbe essere completamente diverso dal modello scelto per fittare il set noto. Con il processo di stima si fa dunque un’assunzione: che il modello per un particolare campione X si adatti a tutta la popolazione x, a.k.a. si presuppone di sapere a priori che il modello scelto a partire dal campione sia effettivamente quello che descrive il fenomeno globalmente. Si definisce invece predizione in machine learning il processo di determinare il set di stimatori che meglio determina in modo corretto le nuove 51 osservazioni: ŵ : p (x|ŵ) sia alta (3.4) dove la formula si legge così: “in una predizione gli stimatori devono essere tali che la probabilità di avere le osservazioni cercate, tenuto conto degli stimatori stessi, sia la più alta possibile”. Questo è ciò che si fa nel machine learning, dove si aggiustano i pesi wij tramite il learning in modo tale da poter in futuro predire al meglio possibile i dati veri. Vediamo quindi come svolgere la predizione. Consideriamo un dataset X, un modello g(w) dotato di certi parametri w (ad esempio g(w) = a+bx, con w = {a, b}) e una funzione di costo E = C(X|g(w)), dove con questa notazione si intende “la funzione di costo associata ad un algoritmo di machine learning che opera su un dataset X, tenuto conto del modello g(w) che usa i parametri w”. Innanzitutto, si divide il dataset in due gruppi distinti: il training set Xtrain e il test set Xtest . L’algoritmo dovrà effettuare il learning sul training set, e poi predire i valori associati al test set. Durante il learning sul training set, il miglior modello sarà quello associato a dei pesi ŵ (che fungono in questo caso da stimatori del modello, e sono i parametri che si vanno ad aggiustare mano a mano durante il learning fino a diventare i migliori possibili) tali che la funzione di costo rispetto al training set sia minima, cioè in formule: g(ŵ) : ŵ = argmin (Ein ) w (3.5) dove Ein := C (Xtrain |g (ŵ)) è la funzione di costo associata al training set, che va minimizzata durante il learning mediante il processo visto nella Sezione 3.1 (anche detta in-sample error). Una volta completato il learning, si avranno dei pesi ŵ che generano un certo modello g(ŵ) che in linea di principio dovrebbe prevedere al meglio anche i dati del test set. Per vedere se ciò accade, si fa funzionare il programma sul test set, e si calcola la funzione di costo derivante dal processo: Eout = C (Xtest |g (ŵ)) (3.6) che è detta anche out-of-sample error. Solitamente, Eout ≥ Ein , in quanto nel best case scenario l’errore sulla predizione basandosi sui dati del test set sarà lo stesso del valore minimo di errore sulla predizione ottenuto alla fine del processo di learning. Si noti che è fondamentale separare il set di dati X a disposizione in un 52 training set e in un test set in maniera adeguata, onde evitare di ottenere una stima erronea della performance dell’algoritmo. Per fare ciò, ci sono vari processi, noti come validazioni incrociate (crossvalidation in inglese): • Random partition: Si fanno due partizioni a caso dei punti disponibili, tali che il 90% delle osservazioni cada nel training set ed il 10% rimanente cada nel test set • Leave-one-out: il training set viene formato da tutte le osservazioni disponibili, tranne una. Il test set è fatto invece da una sola osservazione. • K-fold: il dataset viene suddiviso in k partizioni: il training set è formato da k −1 partizioni, mentre il test set è formato dalla partizione rimanente. 3.4 Rumore nel supervised learning In molte situazioni pratiche i dati disponibili sono generati da una sorgente che possiede anche rumore. Il fatto che i dati provengano da tale sorgente fa sì che il modello che minimizza la funzione di costo Ein non sia automaticamente quello che minimizza Eout . Supponiamo per esempio che il nostro dataset sia formato da un insieme di punti (xi , yi ) generato da un certo fenomeno naturale “rumoroso”, che possiamo fingere sia esattamente equivalente alla seguente relazione funzionale “rumorosa”: yi = 2xi − 10x5i + 15x10 (3.7) i + ηi dove ηi fa le veci del rumore intrinseco al fenomeno, ed è tale che: hηi i = 0 hηi ηj i = δij σ (3.8) (3.9) con σ intensità del rumore. In pratica, stiamo supponendo che il fenomeno naturale rumoroso sia emulabile dalla funzione (3.7). In assenza di rumore (σ = 0), anche con un piccolo numero di elementi del training set è possibile ottenere la miglior predizione sui dati del test set scegliendo come base dell’algoritmo un modello polinomiale quanto più complesso possibile (che minimizza Ein sicuramente, in quanto abbiamo detto che il fenomeno è 53 equivalente ad un polinomio di ordine 10). Questo si può vedere dai risultati mostrati nella figura seguente: Figura 3.1: Grafico di sinistra: risultati finali del learning di un programma basato sul machine learning che prova a effettuare una previsione dei dati derivanti dalla funzione generatrice (3.7) priva di rumore, utilizzando modelli polinomiali di diversa complessità (cioè di grado diverso). Grafico di destra: previsione dello stesso programma sui dati del test set. Come si vede, in assenza di rumore la previsione è perfetta. nella realtà tuttavia σ 6= 0, e a causa del numero di osservazioni N finito durante il learning si può avere una situazione in cui le fluttuazioni dei dati dovute al rumore sono ritenute genuine dal programma, e quindi il modello più complesso finisce per “fittare” anche il rumore, non riuscendo così a predire bene i dati del test set. Questo si può vedere dai risultati mostrati nella figura seguente: 54 3.5 Teoria del learning Lo scopo del machine learning è quello di produrre una macchina che, mediante il learning, è capace di minimizzare Eout su un qualsiasi test set. Mentre il modello impara tuttavia, si hanno informazioni solo su Ein . Ci si chiede dunque se ci sono delle relazioni tra Ein ed Eout . Iniziamo notando che il tipico andamento di Ein ed Eout in funzione di N è il seguente: dove il bias è l’errore intrinseco al modello utilizzato, che coincide con il valore di Eout che otterremmo se avessimo un numero infinito di dati, e quindi il rumore non ha più effetto sul learning, mentre la varianza è la discrepanza da tale valore che si ottiene a causa del numero finito di dati. Inoltre, fissato un certo N , l’andamento di Eout in funzione della complessità del modello (∼ ordine del polinomio di regressione nel caso dell’esempio fatto prima) è il seguente: 55 ciò significa che al crescere della complessità del modello, il bias diminuisce ma l’errore aumenta lo stesso perché aumenta la varianza legata al rumore nei dati che il modello prova a riprodurre. In generale quindi, si ha un Eout ottimale a complessità intermedia. Assumendo che esista un modello vero che descrive il fenomeno (come nel caso del nostro esempio con fenomeno modellizzabile da un polinomio di ordine 10), si hanno quindi due casi: 1. Un modello semplice, con varianza piccola ma bias molto grande, che a causa di ciò per N → +∞ non converge al modello vero 2. Un modello complesso, con varianza elevata ma bias molto piccolo, che per N finito fitta troppo il rumore ma per N → +∞ converge asintoticamente al modello “vero”. Graficamente, le due situazioni si rappresentano in questo modo: 56 3.5.1 Decomposizione bias-varianza di Eout Supponiamo di avere un fenomeno descrivibile dalla funzione y = f (x) + , dove = N (0, σ ) è una particolare istanza di rumore gaussiano con media µ = 0 e varianza σ = σ . Il dataset con cui si ottimizza il modello sarà un certo insieme di punti XL = {xi , yi }N i=1 , mentre il modello predittore con cui l’algoritmo di machine learning prova a predire i nuovi punti sarà indicato con ĝL (x). Si sceglie come funzione di costo lo scarto quadratico tra i punti del dataset e il modello predittore: C (X|ĝL (x)) ≡ N X (yi − ĝL (xi ))2 (3.10) i=1 sia inoltre EL il valore atteso rispetto ad un insieme infinito di diversi dataset, e E il valore atteso rispetto a tante diverse istanze di rumore (quindi rispetto a diversi rumori ciascuno con σ diverso). L’errore Eout sarà quindi il valore atteso della funzione di costo rispetto a infiniti dataset diversi e a molte diverse istanze del rumore, quindi: Eout = EL, [C (X|ĝL (x))] (3.11) per definizione di C (X|ĝL (x)), segue: Eout = EL, "N X 2 (yi − ĝL (xi )) i=1 57 # (3.12) sommo e sottraggo f (xi ) all’interno della parentesi: Eout = N X EL, yi | i=1 = EL, = EL, "N X 2 − f (xi ) + f (xi ) − ĝL (xi ) {z } | {z } A B A2 + B 2 + 2AB i=1 (N " X = EL, "N X 2 # (A + B) i=1 # = (yi − f (xi ))2 + (f (xi ) − ĝL (xi ))2 + i=1 #) ((( ( ( ( (f( (x(i ) − ĝL (xi )) +2 (yi −(f((x(i )) (( ((( E =µ=0 = N X σ2 + EL (f (xi ) − ĝL (xi ))2 h = i i=1 aggiungo e sottraggo EL (ĝL (xi )) all’interno dell’argomento di EL come segue: 2 ∵ EL f (xi ) − EL [ĝL (xi )] + EL [ĝL (xi )] − ĝL (xi ) = | {z } A 2 h = EL (A + B) i h | 2 {z B 2 } i = EL A + B + 2AB = " = EL (f (xi ) − EL [ĝL (xi )])2 + (EL [ĝL (xi )] − ĝL (xi ))2 + (( (((( ( ( ( (( [ĝ((x(i )]) (E(L( [ĝL (xi )] − ĝL (xi )) + 2 (f (xi ) − E(L( ( ( 0 ( ( ((h i h = EL (f (xi ) − EL [ĝL (xi )])2 + EL (EL [ĝL (xi )] − ĝL (xi ))2 i da cui si ha la cosiddetta scomposizione bias-varianza di Eout : Eout = N X σ2 + EL (f (xi ) − EL [ĝL (xi )])2 + |{z} {z } i=1 rumore | h i (bias)2 + EL (EL [ĝL (xi )] − ĝL (xi ))2 h | {z (varianza) 58 i } (3.13) 3.6 Metodi di Gradient Descent per minimizzare la funzione di costo Abbiamo visto che la chiave per far apprendere all’algoritmo di machine learning risiede nel minimizzare la funzione di costo E (θ) = C (X|g (θ)), dove θ è il vettore dei parametri del modello. Intuitivamente, vogliamo una procedura che aggiusti le coordinate θi fino ad ottenere il minimo (almeno locale) della funzione E(θ). Il problema è che la funzione E (θ) è generalmente complicata, non globalmente convessa (quindi non c’è la certezza che, se la funzione ha un minimo, esso è unico ed è anche punto di minimo globale) quindi con molti possibili minimi locali, e con un dominio a dimensionalità enorme (praticamente sempre 3 dimensioni, nelle applicazioni moderne tipicamente d ∼ 106 ). Il modello g(θ) inoltre non è generalmente noto, e va stimato dai dati stessi. Vogliamo dunque trovare un algoritmo che, partendo da un punto a caso sulla ipersuperficie generata dalla cost function su questo dominio a N dimensioni, permetta mediante un certo numero finito di “passi” di giungere al minimo della funzione (possibilmente quello globale). Graficamente, si vuole un processo di questo tipo: l’algoritmo tipicamente utilizzato per fare ciò è il cosiddetto gradient descent. L’algoritmo funziona in questo modo: 1. Si inizializza il vettore dei parametri θ con dei valori casuali θ0 59 2. Allo step t-esimo, si calcola la quantità: ν t = ηt ∇θ [E (θ t )] (3.14) cioè il gradiente, moltiplicato per un fattore ηt noto come learning rate, che definisce di quanto sia “grande” il passo da compiere tra t e t+1 3. Si aggiornano i parametri effettuando il passo t → t + 1, mediante la formula: θ t+1 = θ t − ν t (3.15) dunque ci si sposta di un passo il cui modulo è dato da ηt e lungo la direzione opposta in segno al gradiente di E(θ) (dunque lungo la direzione di discesa più veloce, ricordando che il campo vettoriale gradiente indica punto per punto la direzione di massima pendenza in salita di una funzione multidimensionale, quindi il negativo del gradiente indica punto per punto la direzione di massima pendenza in discesa). Si noti che, se ηt è troppo piccolo, si assicura la convergenza ad un minimo locale, però il costo computazionale è molto alto. Se invece ηt è troppo grande il costo computazionale è basso, ma si rischia di non giungere mai al minimo locale. Per vedere quale sia il rate ottimale ηopt , consideriamo il caso semplice di un solo parametro θ e di una funzione di costo del tipo parabolico3 : E (θ) = (θ − θmin )2 (3.16) con punto di minimo dato da θmin . Si avranno in generale le 4 situazioni rappresentate nella figura seguente, a seconda del valore di η: 3 Si sceglie tale situazione come esempio in quanto è il prototipo di ogni regione intorno di un minimo locale, per tutte le funzioni di costo localmente di classe C 2 . 60 Sviluppiamo quindi E(θ) in serie di Taylor attorno a θ0 , supponendo di aver effettuato un certo passo ν: ∂E (θ) ∂θ 1 ∂ 2 E (θ) 2 ∂θ2 ν2 + o ν2 (3.17) E (θ0 + ν) u (θ0 − θmin )2 + 2 (θ0 − θmin ) ν + ν 2 = (θ0 − θmin + ν)2 (3.18) E (θ0 + ν) = E (θ0 ) + ν+ θ=θ0 θ=θ0 che nel nostro caso particolare diventerà: da cui, se θ0 + ν = θmin , si ha E (θ0 + ν) = 0, che è il minimo globale della funzione quadratica raggiunto in un solo step del processo. Questo vuol dire che, in un intorno del minimo, dobbiamo imporre θ0 + ν = θmin per ottenere ηopt , cioè per raggiungere il minimo in un solo step. Imponiamo in (3.17) θ0 + ν = θmin , cosa che come abbiamo visto annulla E (θ0 + ν): E (θmin ) u 0 ⇒ E (θ0 ) + ∂E (θ) ∂θ ν+ θ0 61 1 ∂ 2 E (θ) 2 ∂θ2 ν2 = 0 θ0 (3.19) deriviamo rispetto a ν: ∂E (θ) ∂θ + θ0 2 ∂ 2 E (θ) 2 ∂θ2 ν=0 (3.20) θ0 risolvo per ν per trovare la condizione cercata: ν=− ∂ 2 E (θ) ∂θ2 !−1 θ0 ∂E (θ) ∂θ (3.21) considerando che in una dimensione la derivata prima è il gradiente, si ha quindi: !−1 ∂ 2 E (θ) −ν = ∇θ (E) (3.22) ∂θ2 θ0 ma ricordiamo che, a parte il segno negativo di ν che compare nel passaggio θt+1 = θt − ν, e che ci ricorda che lo step va preso in direzione opposta a quella del gradiente, la definizione di νt nell’algoritmo di gradient descent era: νt = ηt ∇θ (E) (3.23) quindi, uguagliando i fattori uguali, si ha ηopt : ηopt = ∂ 2 E (θ) ∂θ2 !−1 (3.24) θ0 ripetendo il ragionamento in N dimensioni, e ricordando che l’hessiano di una funzione multidimensionale è la matrice delle derivate seconde della funzione, abbiamo anche il learning rate ottimale in N dimensioni: ηopt = H−1 (θ) θ0 (3.25) dove H−1 è l’inversa della matrice hessiana associata ad E (θ), calcolata nel punto θ0 . Seppur analiticamente il problema è risolto, numericamente non lo è, in quanto seppur con questo approccio η si aggiusta diversamente per ogni singolo parametro (quindi ηt non è costante lungo ogni direzione, ma si adatta in base ai “pesi” assegnati alle diverse direzioni) si hanno comunque i seguenti problemi: 62 • Calcolare l’hessiano in un punto è computazionalmente molto costoso se la dimensionalità è alta. • Invertire una matrice ad alta dimensione è computazionalmente molto costoso. • Il processo è perfettamente valido solo nell’ intorno di un minimo di una funzione di classe C 2 . 3.6.1 Miglioramento dell’algoritmo di gradient descent Il gradient descent “classico” descritto finora è molto limitato, in quanto ci sono i seguenti problemi: • Il rate ηt rimane fissato e anche se si definisce una procedura che accresce il learning rate per ogni ciclo d’iterazione, esso sarà sempre uniforme rispetto a tutte le direzioni, a differenza del caso in cui si usa η = H−1 (θ0 ). • A seconda della grandezza di ηt , ci sono vari regimi, e se ηt è troppo grande si rischia di non arrivare mai al minimo • Se E (θ) ha molti minimi locali la performance dell’algoritmo risulterà scarsa • L’algoritmo è sensibile alla scelta del parametro iniziale θ0 : se si inizia in un punto “sfortunato” l’algoritmo sarà molto meno performante • Il gradiente è a sua volta computazionalmente costoso da calcolare • Se si finisce in un punto di sella, ci vuole un tempo esponenziale per uscire dalla zona A causa di tutte queste limitazioni, esso è raramente utilizzato. Un primo miglioramento è il cosiddetto stochastic gradient descent (SGD), in cui si suddividono le N osservazioni in dei minibatch, ciascuno con M osservazioni distinte. Si considerano poi le funzioni di costo E MB (θ), calcolate con i dati associati solamente ai suddetti minibatch, che cambieranno a ogni iterazione dell’algoritmo. A questo punto si utilizza lo stesso algoritmo già visto, ma con E MB invece che con E: 63 1. Inizializza i parametri a θ0 2. Aggiornare iteramente i parametri secondo le equazioni seguenti: ν t θ = ηt ∇θ E MB (θ t ) h t+1 i = θt − ν t (3.26) il vantaggio dello scegliere casualmente un minibatch per ogni iterazione riduce la probabilità di trovare dei minimi locali isolati. Facilita inoltre il calcolo del gradiente, che viene calcolato solo su un sottoinsieme di dati, e previene l’overfitting in minimi isolati troppo profondi. A causa del fatto che l’ipersuperficie descritta dalla funzione E (θ) può essere piatta in alcune direzioni e molto ripida in altre (ad es. punti di sella molto schiacciati), lo SGD viene generalmente modificato con un termine di momento: h i ν t = γν t−1 + ηt ∇θ E MB (θ t ) (3.27) θ t+1 = θ t − ν t in questo caso, ν t svolgerà il ruolo di una media a runtime del gradiente, con un tempo caratteristico di conservazione dei dati di (1 − γ)−1 . Il termine di momento γν t−1 funge infatti da sorta di “memoria” dell’algoritmo, in quanto tiene traccia delle direzioni in cui E (θ) è più ripida anche in presenza della stocasticità. Il nome “momento” del termine viene dal considerare per esempio il moto di una particella di massa m in un mezzo viscoso, con viscosità µ e sottoposto ad un potenziale E(x). La legge del moto infatti sarà: dx d2 x +µ = −∇x (E) (3.28) 2 dt dt discretizzo, ponendo d2 x → (xt+∆t − xt ) − (xt − xt−∆t ) = ∆xt+∆t − ∆xt e dx = xt+∆t − xt = ∆xt+∆t : m ∆xt+∆t − ∆xt ∆xt+∆t + µ = −∇x (E) ∆t2 ∆t manipolando l’equazione, si arriva a: m ∆xt+∆t = (3.29) m ∆t2 ∆xt − ∇x (E) ⇒ m + µ∆t m + µ∆t | {z γ } | {z η } ⇒ ∆xt = γ∆xt−1 − η∇x E (x) 64 (3.30) dunque γ è proporzionale alla massa m, e il termine γ∆xt−1 rappresenta effettivamente un termine d’inerzia. Si noti che il learning rate svolge invece il ruolo di una sorta di inverso della viscosità: se µ 0, η 1 e si è in regime di “alta viscosità”. Sotto tali condizioni, il tempo caratteristico sarà: (1 − γ)−1 = m + µ∆t ≈1 µ∆t (3.31) Possiamo ulteriormente migliorare la performance dell’algoritmo, calcolando il gradiente tenendo conto anche del termine di momento: ν t θ = γν t−1 + ηt ∇θ E MB (θ t + γν t−1 ) t+1 h i (3.32) = θt − ν t questo algoritmo è noto come Nesterov Accelerated Gradient Descent. Con l’aggiunta del termine di momento, si sono ottenuti i seguenti miglioramenti: • Se E (θ) presenta molti minimi locali, la performance non sarà più scarsa • A causa della stocasticità intrinseca, non c’è più elevata sensibilità della performance a seconda della scelta del punto iniziale θ0 • Il gradiente stocastico è computazionalmente meno costoso da calcolare • Non si impiega più un tempo esponenziale per uscire dai punti di sella Tuttavia: • Il learning rate è ancora fissato per tutte le direzioni • Si è ancora sensibili alla scelta del learning rate, in quanto la procedura non rimuove i vari “regimi” a seconda di quanto η disti da ηopt . Per risolvere tale problema, si può utilizzare la quantità st := E ∇θ E MB (θ t )2 , cioè il momento secondo del gradiente, per approssimare l’hessiano. all’iterazione t-esima quindi, definisco il gradiente come: h g t := ∇θ E MB (θ t ) h 65 i h ii (3.33) e quindi: st = βst−1 + (1 − β) g 2t (3.34) gt st + ε (3.35) da cui si esegue lo step: θ t+1 = θ t − ηt √ in definitiva: = ∇θ E MB (θ t ) gt h i st = βst−1 + (1 − β) |g t |2 (3.36) gt θ t+1 = θ t − ηt √ st + ε dove β è un parametro che permette di mediare il momento secondo del gradiente nel tempo, ed ε è una piccola regolarizzazione che impedisce divergenze per st → 0. In tal modo, il learning rate non è più costante per tutte in quanto viene ridotto nelle direzioni in cui la norma di h le direzioni, √ i MB gt / st è piccola. Questo assicura una convergenza più veloce. ∇θ E Tale metodo è detto RMS prop. L’algoritmo è ulteriormente migliorabile introducendo il momento primo del gradiente: h i mt = E ∇θ E MB (θ t ) (3.37) e le quantità “normalizzate”: mt (1 − β1 ) st ŝt := (1 − β2 ) (3.38) m̂t := (3.39) dove β1 e β2 sono tempi caratteristici di memoria del momento primo e secondo del gradiente, rispettivamente. L’algoritmo, detto ADAMS, si riassume quindi come segue: h i MB g = ∇ E (θ ) t θ t mt = β1 mt−1 + (1 − β1 ) g t 2 st = β2 st−1 + (1 − β2 ) |g t | m̂t θ t+1 = θ t − ηt √ (3.40) ŝt + ε ADAMS ed RMS prop sono gli algoritmi più performanti: essi giungono al minimo molto più velocemente degli altri algoritmi. 66 Capitolo 4 Test d’ipotesi 4.1 Introduzione Un test d’ipotesi è una verifica dell’attendibilità o meno di una data ipotesi fisica, come ad esempio la consistenza tra un valore ottenuto sperimentalmente ed un valore atteso, che sia effettuato sulla base di criteri scientifici e statistici razionali. Un esperimento fisico è solitamente formato da 3 fasi: 1. Ottenimento dei dati sperimentali 2. stima dei parametri legati al modello che cerca di descrivere il fenomeno, sulla base dei dati sperimentali ottenuti 3. test d’ipotesi per verificare se i parametri stimati sono compatibili o meno con quelli previsti dalla teoria Supponiamo per semplicità di avere solo due ipotesi, completamente specificate da due diversi valori di un parametro θ: la cosiddetta ipotesi nulla H0 sarà quella di assumere che θ = θ0 , mentre l’ipotesi alternativa sarà quella che θ = θ1 . In questo caso, si può procedere considerando vera a priori l’ipotesi nulla, e considerando la densità di probabilità f (x|θ0 ) per una certa variabile aleatoria x legata a θ0 (solitamente f è una gaussiana). Si considera poi un certo valore critico xc , che divida l’area sottostante f (x|θ0 ), indicata con W , in due parti: la cosiddetta regione critica R per l’ipotesi nulla H0 , tale che se un valore xobs cade proprio all’interno della regione R allora c’è motivo di rigettare H0 , e la regione di accettazione per H0 , pari alla parte di area 67 rimanente W − R. Poiché in questo esempio xc caratterizza completamente tali regioni, possiamo dire che: • Se xobs < xc , allora sarà ritenuta vera l’ipotesi nulla H0 • Se xobs > xc , allora sarà ritenuta vera l’ipotesi H1 Figura 4.1: Regione critica R e regione di accettazione W − R associati ad una certa densità di probabilità f (x|θ0 ). La probabilità, assegnata a priori, che xobs > xc è detta significatività del test d’ipotesi. Se indichiamo tale probabilità con α, allora α sarà anche la probabilità che l’osservazione xobs cada in R seppur H0 è vera. Questo significa che, nel 100α% delle volte, l’ipotesi nulla verrà rigettata anche quando essa è vera. Chiameremo questo tipo di errore nel giudizio di quale ipotesi sia vera errore di prima specie. Questo significa che, per commettere quanto meno possibile questo tipo di errore, α deve essere scelto il più piccolo possibile. C’è un altro tipo di errore possibile, cioè quello in cui viene accettata l’ipotesi nulla quando in realtà è falsa. Questo errore è noto come errore di seconda specie: la probabilità che esso accada verrà indicata con β, e dipende dall’ipotesi alternativa H1 . Considerando la densità di probabilità f (x|θ0 ) e la sua alternativa f (x|θ1 ), possiamo definire queste probabilità mediante i 68 loro integrali: ˆ α := ˆ f (x|θ0 ) dx = f (x|θ0 ) dx (4.1) xc ˆ ˆ R f (x|θ1 ) dx = β := +∞ xc f (x|θ1 ) dx (4.2) −∞ W −R Figura 4.2: Illustrazione che mostra graficamente le probabilità α e β di commettere rispettivamente un errore di prima specie o un errore di seconda specie. si definisce potenza di un test d’ipotesi la probabilità di rigettare un’ipotesi quando è falsa. Essa può essere definita in termini di integrali come: ˆ ˆ +∞ P := 1 − β = f (x|θ1 ) dx = f (x|θ1 ) dx (4.3) xc R ovviamente, per migliorare i risultati di un esperimento, conviene scegliere la regione critica R in modo tale che, per una certa significatività, la potenza 69 sia quanto più alta possibile. Facciamo come esempio quello di determinare se una misura associata ad una grandezza fisica avente distribuzione gaussiana abbia, a parità di varianza σ 2 , un valore atteso pari a µ0 oppure a µ1 . In questo caso, si avrà: • H0 : il valor vero è µ0 • H1 : il valor vero è in realtà non µ0 , ma µ1 Si rigetterà dunque l’ipotesi nulla H0 per un esperimento che produce un certo valore osservato xobs se xobs cade al di fuori di nσ dal valor medio µ0 . Il valore n è detto livello di significatività dell’esperimento. La significatività dell’esempio considerato sarà pari a: ˆ µ0 + nσ (x − µ0 )2 1 √ α=1− dx exp − 2σ 2 2πσ µ0 − nσ ! (4.4) mentre la potenza sarà pari a: ˆ µ1 + nσ 1 (x − µ1 )2 √ dx 1−β = exp − 2σ 2 2πσ µ1 − nσ 4.2 ! (4.5) Test χ2 Date n variabili aleatorie indipendenti che abbiano ciascuna distribuzione gaussiana xi (µi , σi ), la quantità: 2 χ := N X i=1 " (xi − µi )2 σi2 # (4.6) è ancora una variabile aleatoria, detta variabile chi quadrato avente una distribuzione di densità di probabilità associata data da: fn (χ2 ) = 1 2n/2 Γ e− n 2 χ2 2 · χ2 dove Γ è la funzione gamma, definita come: ˆ ∞ Γ(x) := tx−1 e−t dt 0 70 n −1 2 (4.7) (4.8) tale che: n n −1 ! Γ = 2 2 n n 1 n Γ −1 − 2 ··· = π 2 2 2 2 se n pari se n dispari (4.9) (4.10) ed n sono i gradi di libertà, cioè il numero di variabili indipendenti. Il valore atteso di χ2 e la sua varianza sono rispettivamente: E χ2 = n (4.11) σχ2 2 = 2n (4.12) per n > 30 gradi di libertà, la distribuzione associata a χ2 risulta ben descritta da una distribuzione gaussiana. Supponiamo di aver effettuato N misure di una grandezza fisica, e di voler verificare (ipotesi nulla H0 ) se questa variabile segue o meno una certa distribuzione f (x) ipotizzata a priori. Si effettua allora il cosiddetto binning della variabile aleatoria x, cioè si considerano degli intervalli ∆x arbitrariamente scelti e si conteggia per ogni intervallo il numero di volte che si è osservato . Per ciascun generico intervallo i-esimo si dovrebbe avere il valore xi ± ∆x 2 allora, se f è la distribuzione associata a x: pi = f (xi ) ∆x ni := Neventi in i N = r X ni = N (4.13) (4.14) (4.15) i=1 dove r è il numero di intervalli con cui si è scelto di binnare la variabile x. Innanzitutto, si noti che ni avrà una distribuzione binomiale, dunque: µi = N pi σi2 = N pi (1 − pi ) (4.16) (4.17) dato che per il teorema del limite centrale la binomiale tende ad una distribuzione gaussiana per N → +∞, possiamo dire che la variabile: r X χ2 = r X (ni − µi )2 i=1 σi2 = 71 (ni − N pi )2 i=1 N pi (1 − pi ) (4.18) ha come funzione di distribuzione quella associata al chi-quadrato con r − 1 gradi di libertà, in quanto sussiste il vincolo (4.15) e dunque uno degli ni non è indipendente. Utilizzeremo come statistica di controllo proprio la variabile χ2 appena definita. Fisseremo allora a priori la significatività del test, e la indicheremo con α. Fissato α (solitamente α = 0.05), è possibile ottenere il valore critico χ2c dalla relazione integrale: ˆ ∞ fr−1 χ2 dχ2 = α (4.19) χ2c che si può risolvere per χ2c in quanto è nota la distribuzione fr−1 (χ2 ) della statistica di controllo. A questo punto si può dire che: • Se χ2mis ≤ χ2c , allora si accetta l’ipotesi nulla H0 . • Se χ2mis > χ2c , allora si rigetta l’ipotesi nulla H0 . Si noti però che: 1. Il test è valido se ni è una variabile aleatoria a distribuzione gaussiana, dunque se µi ≥ 10 per ogni bin 2. C’è un’arbitrarietà intrinseca nel test, in quanto bisogna scegliere arbitrariamente gli intervalli ∆x nel processo di binning 3. La statistica di controllo χ2 opera sui quadrati dei valori, dunque non si possono evidenziare discrepanze sistematiche del segno. Il test del χ2 permette anche di testare un fit ai minimi quadrati. Supponiamo di avere N variabili aleatorie xi (ritenute convenzionalmente senza incertezza) ed N variabili aleatorie associate in output yi ± σi , dove σi è solitamente data dalla risoluzione1 dello strumento (e che DOVREBBE coincidere con la σ ottenibile mediante la regressione lineare, se le incertezze su yi non dipendono a loro volta dal valore xi in input). Il test χ2 procede allora allo 1 Si ricordi che si definisce risoluzione (o riproducibilità) di uno strumento la varianza della distribuzione gaussiana associata alle misure effettuate dallo strumento; si definisce invece accuratezza l’errore sistematico che ha intrinsecamente uno strumento rispetto al valore vero che dovrebbe misurare. 72 stesso identico modo visto prima per il fit rispetto ad una data distribuzione f (x), con la differenza che adesso il valore da calcolare per χ2 è: χ2Np−2 = P i [yi − (Bxi + A)]2 σi2 (4.20) è infine possibile effettuare un test di compatibilità per N istogrammi sperimentali di una stessa grandezza fisica, della quale si ignora però la distribuzione, calcolando come χ2 : χ2 = N X r X j=1 i=1 " (nij − p̂i Nj )2 p̂i Nj # (4.21) dove: • r è il numero di intervalli con cui si è effettuato il binning • nij è il numero di eventi associati all’intervallo i, dell’istogramma j • Nj è il numero totale di eventi associato all’istogramma j PN • p̂i := Pj=1 N (nij ) j=1 4.3 (Nj ) Test di Kolmogorov-Smirnov il test di Kolmogorov-Smirnov è un metodo di analisi statistica che permette di confrontare tra loro due campioni di dati, o un campione di dati con una distribuzione teorica attesa, allo scopo di verificare che essi siano compatibili. La differenza con il test χ2 è che in questo caso non è richiesto il binning, in quanto il test si basa sulla frequenza cumulativa relativa dei dati in esame (cioè l’integrale della distribuzione di probabilità sperimentale). Per effettuare il test di confronto tra un campione di dati e la distribuzione teorica attesa, bisogna confrontare la frequenza cumulativa relativa F (x) del campione di dati a disposizione con quella associata alla distribuzione di probabilità cumulativa Φ(x) attesa, in modo da ricavare il valore assoluto del massimo scarto tra di esse: δ := max (|F (x) − Φ(x)|) 73 (4.22) si può dimostrare che, se l’ipotesi da testare è vera, allora la probabilità di ottenere casualmente un certo valore di δ maggiore o uguale ad un certo valore δ0 prefissato è data da: P (δ ≥ δ0 ) = FKS (δ00 ) (4.23) dove FKS è la serie di Kolmogorov-Smirnov: FKS (x) = 2 ∞ X (−1)k−1 e−2k 2 x2 (4.24) k=1 e: √ 0.11 = δ0 (4.25) N + 0.12 + √ N dove N è il numero di misure. Nel caso invece in cui si vogliono confrontare due campioni indipendenti per verificare se essi sono compatibili, bisogna ricavare il massimo scarto tra le due frequenze cumulative relative δ, e ricavare a questo punto la probabilità che questo valore sia avvenuto, ammessa vera l’ipotesi di compatibilità, per motivi puramente casuali. Il procedimento è analogo a quello visto prima, con la differenza che l’N che compare nella definizione di δ00 sarà pari a: ! δ00 N1 N2 (4.26) N1 + N2 dove N1 è il numero di misure del primo campione ed N2 è il numero di misure del secondo campione. Lo svantaggio di questo metodo risiede nel fatto che, per valori molto piccoli o molto grandi della variabile aleatoria usata, le distribuzioni di probabilità cumulative vanno a plateau o verso 0, o verso 1 rispettivamente. Questo significa che il test di Kolmogorov-Smirnov è efficace solo per analizzare valori centrali, mentre non è affatto efficace per determinare discrepanze tra due distribuzioni che differiscono significativamente solo nella zona delle code. N= 4.4 Confidence belt e intervallo di confidenza per segnali poissoniani con background comparabile col segnale Si definisce confidence belt un’area del piano µx (dove µ è un parametro da stimare, come ad esempio la media di una distribuzione gaussiana e x la 74 variabile aleatoria associata) che permette di stimare l’intervallo di confidenza associato a µ per qualsiasi valore di x ottenibile da un esperimento. Per costruire la confidence belt, si sceglie per ogni valore di µ un intervallo di accettazione [x1 , x2 ] arbitrario tale che la probabilità che la misura x cada nell’intervallo [x1 , x2 ] sia pari alla significatività α scelta: P (x ∈ [x1 , x2 ]|µ) = α (4.27) alternativamente, si sceglie un certo valore critico xc tale che: P (x > xc |µ) = α (4.28) a questo punto, si può determinare l’intervallo di confidenza per µ associato ad un certo esperimento che fornisce il risultato x0 tracciando una retta verticale e vedendo quali sono i valori di µ tali che la retta x = x0 intercetta la confidence belt. Figura 4.3: Confidence belt. La retta tratteggiata è quella x = x0 . Per valori di µ molto grandi, tale procedimento funziona, ma se µ è molto piccolo ci sono dei dubbi. I fisici Feldman e Cousins, in un loro paper pubblicato recentemente, hanno fornito in particolare un procedimento che permette di determinare quale sia 75 l’intervallo di confidenza associato a valori di medie poissoniane per le quali gli esperimenti hanno conteggi che sono paragonabili con quelli dati dal rumore di fondo. Supponiamo di avere una distribuzione poissoniana a cui è soggetta la variabile di conteggio n: e−(µ+b) (4.29) P (n|µ) = (µ + b)n · n! dove b è la media associata ai conteggi del rumore di fondo, e µ quella associata al segnale atteso, entrambe supposte note. I conteggi n misurabili in laboratorio saranno ovviamente un misto tra entrambi. Il procedimento per determinare l’intervallo di confidenza [n1 , n2 ] associati ad un dato µ procede come segue: 1. Dato un certo valore di conteggio n, si calcola P (n|µ). 2. Si calcola µbest := max (0, n − b), che è il valore di µ che ci si aspetterebbe, dato un certo conteggio n, se non si sapesse a priori che µ ha un certo valore noto 3. Si calcola P (n|µbest ) 4. Si effettua il rapporto: R= P (n|µ) P (n|µbest ) (4.30) a questo punto si costruisce l’intervallo di confidenza sulla base di quanto sia grande R: si inseriscono i valori di n associati ad un R grande nell’intervallo di confidenza in ordine decrescente, finché la somma dei P (n|µ) non soddisfa o supera il livello di confidenza desiderato. 76 Capitolo 5 Metodi montecarlo I metodi montecarlo sono una classe di metodi computazionali che cercano di risolvere problemi mediante algoritmi incentrati sul campionamento casuale. Secondo la definizione di Halton (1970), mediante i metodi montecarlo si può ottenere la soluzione di un problema considerandola come se fosse un particolare parametro associato ad una certa popolazione, della quale si considera un campione estratto aleatoriamente. Ottenuto un campione casuale della popolazione da analizzare, si può effettuare una stima del parametro mediante metodi statistici. I metodi montecarlo sono tanto più efficaci quanto più la macchina su cui gira il programma è capace di effettuare un gran numero di operazioni al secondo, in quanto è necessario un gran numero di prove per ottenere una buona convergenza della stima al valor vero. Le tecniche montecarlo si usano per risolvere sia problemi intrinsecamente statistici, come simulazioni di processi fisici aleatori (ad es. decadimento radiattivo, interazione radiazione-materia), sia per risolvere problemi in linea di principio risolubili in modo analitico o numerico deterministico, ma i cui algoritmi diventano velocemente inefficienti (ad es. integrazioni multidimensionali). 5.1 Integrazione montecarlo Formalmente, tutti i metodi montecarlo possono essere visti come applicazioni dell’integrazione montecarlo. L’integrazione montecarlo stima un 77 integrale N -dimensionale del tipo: ˙ I= f (x1 , x2 , . . . , xN ) dx1 dx2 . . . dxN (5.1) [0,1]N mediante una funzione F (r1 , . . . , rn ) di n numeri casuali distribuiti in maniera uniforme sul dominio [0, 1]N , tale che F sia uno stimatore unbiased di I: E (F ) = I (5.2) si noti che F , cioè il risultato dell’integrazione montecarlo, sarà a sua volta una variabile aleatoria, il cui valore atteso è I e la cui varianza si desidera sia molto piccola. A tal fine, sono stati sviluppati diversi metodi per ottenere una stima montecarlo dell’integrale I, che mostreremo di seguito. 5.1.1 Metodo “Crude” montecarlo Supponiamo di voler valutare l’integrale unidimensionale (per semplicità): ˆ b I= f (x) dx (5.3) a un metodo numerico non-montecarlo per stimare I è quello di usare la regola del punto medio: N b−aX f (xi ) (5.4) Istima = N i=1 dove: b−a i (5.5) N graficamente, questo significa dividere l’intervallo [a, b] in N sottointervalli uguali, valutando la funzione f in ogni punto medio xi del singolo sottointervallo e calcolando la somma delle aree rettangolari infinitesime f (xi ) · δxi . La regola del punto medio integra esattamente il termine costante dello sviluppo in serie di Taylor di f attorno ad xi per ogni sottointervallo. L’errore commesso in questa stima numerica va, sottointervallo per sottointervallo, come la derivata prima di f (x) calcolata in xi , cioè come N −1 . xi = a + La stima “crude” montecarlo dello stesso integrale invece si basa sulla 78 stima del valor medio di f (x). Ricordiamo che, per il teorema di Lagrange, si ha la seguente relazione tra il valor medio di f (x) ed un suo integrale definito: ˆ b ˆ b 1 f (x) dx → f (x) dx = (b − a) hf i (5.6) hf i = b−a a a il metodo consiste dunque nel valutare la funzione in N punti xi scelti casualmente, mediante la regola: xi = a + (b − a) ri (5.7) dove ri è un numero estratto casualmente nell’intervallo [0, 1], e calcolando: F = N b−aX f (xi ) = (b − a) f (x) N i=1 (5.8) Se in particolare a = 0 e b = 1, allora la stima “crude” montecarlo dell’integrale: ˆ 1 f (x) dx (5.9) I= 0 sarà: N 1 X F = f (xi ) N i=1 (5.10) cioè F sarà esattamente il valor medio delle variabili aleatorie f (xi ). Dalla legge dei grandi numeri quindi, si avrà: ˆ 1 lim (F ) = E (f ) = f (x) dx (5.11) N →+∞ 0 dunque F è una stima consistente dell’integrale I. La varianza di F al limite per N → +∞ sarà invece: σf (5.12) σF = N dove: ˆ 1 σf := [f (x) − E (f )]2 dx (5.13) 0 la cui stima montecarlo per N finito sarà: σf (xi ) := N n o 1 X [f (xi ) − F ]2 N − 1 i=1 79 (5.14) −1 lo stimatore montecarlo F ha quindi una varianza che va come √ N . La deviazione standard associata alla stima andrà quindi come 1/ N . Dal teorema del limite centrale quindi, qualsiasi sia la distribuzione di probabilità associata a F , per N grande √ essa tenderà ad una gaussiana con µ = I e deviazione standard s ∝ 1/ N → 0. Questo significa che per N molto grande la stima montecarlo converge al valor vero dell’integrale in modo esatto. In definitiva, l’estimatore mediante metodo montecarlo è solitamente non distorto e consistente. La distribuzione di probabilità associata è asintoticamente gaussiana per √ N sufficientemente grande, ed ha una deviazione standard che va come 1/ N ∀N . 5.1.1.1 Confronto tra metodo “Crude” montecarlo e altre tecniche d’integrazione numerica In generale, tutte le formule d’integrazione numerica approssimano l’integrale con una quantità del tipo: Iq = N X f (xi ) · wi (5.15) i=1 i diversi metodi variano nella definizione dei valori f (xi ), dei punti xi o dei pesi wi . Abbiamo già visto la regola del punto medio, ma altre possibilità standard sono: • Regola del trapezoide: sul sottointervallo [xi−1 , xi ] si sostituisce f (x) con il segmento di retta ∆f i avente estremi (xi−1 , f (xi−1 )) e (xi , f (xi )), e si calcola la somma dei valori ∆f i · δxi . Il metodo del trapezoide integra perfettamente il termine costante + il termine lineare dell’espansione in serie di Taylor della funzione f attorno ai valori xi di ogni subintervallo considerato. L’errore sulla stima dell’integrale va come la derivata seconda della funzione calcolata nel punto medio di δxi , cioè come la sagitta1 di f (x), cioè come N −2 . 1 Si definisce sagitta di un arco di circonferenza la distanza tra il punto medio dell’arco e il punto medio della corda sottesa a tale arco. Il nome è dato dal fatto che, nella figura geometrica associata a tale costruzione, la sagitta corrisponde alla freccia inserita in un arco. Essendo l’altezza del segmento circolare rispetto alla corda sottesa, essa vale: r c2 h = R · (1 − cos (θ/2)) = R − R2 − 4 80 • Regola di Cavalieri-Simpson: definito zi := 12 (xi−1 + xi ), si sod che passa per i tre punti stituisce f (x) con l’arco di parabola ∆f i (xi−1 , f (xi−1 )) , (zi , f (zi )) , (xi , f (xi )) e si calcola la somma dei valori d · δx . L’errore va come N −4 . ∆f i i • Regola di Gauss: come la regola di Cavalieri-Simpson, ma si calcola g · δx , dove ∆f g è la curva che passa per m la somma dei valori ∆f i i i punti in ogni sottointervallo δxi . L’errore va come N −2m+1 . All’aumentare della dimensione, aumentano le valutazioni della funzione, e dunque diminuisce la velocità di convergenza. Confrontiamo ora l’andamento degli errori nei principali metodi: metodo 1 dim. √ Crude m.c. 1/ N Rettangoli N −1 Trapezi N −2 Cav-Simpson N −4 −(2m−1) Gauss N d dim. √ 1/ N N −1/d N −2/d N −4/d −(2m−1)/d N da cui si può capire che, qualsiasi sia la dimensionalità d, l’errore associato alla stima montecarlo rimane sempre lo stesso (ad N fissato), mentre il più semplice metodo numerico deterministico cresce (ad N fissato) al crescere di d. Per controbilanciare questa crescita bisogna utilizzare l’algoritmo di Gauss con m elevato, ma anche in questo caso la difficoltà computazionale del metodo aumenta al crescere di m. In definitiva, il metodo montecarlo è l’unico metodo che aumenta in efficienza all’aumentare della dimensione del dominio d’integrazione. Il metodo montecarlo inoltre fornisce stime di I distribuite aleatoriamente (in quanto F è variabile aleatoria), dunque si presta bene alle situazioni fisiche, in cui il processo sottostante è a sua volta aleatorio. 5.1.2 Metodo montecarlo “hit or miss” Il metodo hit or miss è il più noto tra i metodi montecarlo per stimare numericamente il valore di un integrale definito. Supposto che f (x) sia lidove R è il raggio del cerchio osculatore e θ è l’angolo al centro che sottende la corda di lunghezza c. 81 mitata nell’intervallo ]0, c[ del codominio e che sia continua a tratti in [a, b], vogliamo stimare quanto vale: ˆ b I= f (x) dx (5.16) a se il metodo “crude” montecarlo si basava sullo stimare il valor medio di f e approssimare I = E(f ), il metodo hit or miss si basa invece sulla stima campionaria dell’area sottesa a f (x). Consideriamo la regione Ω rettangolare dei punti (x, y) del piano tali che x ∈ [a, b] e y ∈ [0, c], e supponiamo di “sparare” con un proiettile un punto a caso in Ω. La probabilità di colpire l’area sottesa dalla funzione f (x) nella regione Ω sarà pari a: Area sottesa da f (x) Area totale di Ω ma la regione Ω è un rettangolo, quindi: p= Area totale di Ω = (b − a) · c (5.17) (5.18) mentre l’area sottesa da f (x) è proprio l’integrale I che stiamo cercando. Quindi: I → I = p · (b − a) c (5.19) p= c (b − a) il prodotto (b − a) c è noto, in quanto è l’area di Ω complessiva. Ciò che va stimato è quindi la probabilità p che un colpo sparato a caso finisca nell’area sottostante ad f (x). Invece di usare p, possiamo stimare aleatoriamente p considerando il suo estimatore: la frequenza relativa del campione p̂, cioè: p̂ = # di punti estratti a sorte che cadono sotto f (x) # di punti totali estratti a sorte (5.20) si estraggono dunque N volte due coordinate xi e yi a caso nella regione Ω, e si verifica se yi ≤ f (xi ) per ciascun xi associato ad yi . Se ciò è vero, si incrementa di uno il valore del denominatore di p̂ e di uno il valore del numeratore di p̂, mentre se è falso si incrementa solo di 1 il valore del denominatore. In tal modo, stimando aleatoriamente p̂ si può stimare aleatoriamente l’integrale montecarlo: F = p̂ · (b − a) c (5.21) che è l’approssimazione hit or miss cercata. 82 5.1.3 Campionamento stratificato Per ridurre la varianza della stima montecarlo di un integrale o si aumenta il numero N di sampling, o si riduce la varianza σf . Sono dunque state messe a punto una serie di metodi che cercano di ridurre la varianza σf a parità di N. La prima di queste è il metodo del campionamento stratificato. Alla base di questa tecnica c’è la proprietà degli integrali di Riemann di poter suddividere l’intervallo d’integrazione in sottointervalli scelti a piacimento, come ad esempio: ˆ 1 ˆ a ˆ 1 f (x) dx = f (x) dx + f (x) dx (5.22) I= 0 0 a per un qualsiasi valore di a. Per applicare il metodo del campionamento stratificato quindi, si suddivide l’intervallo d’integrazione in N sottointervalli (eventualmente diseguali) e si effettua una stima montecarlo con i metodi appena discussi. Le stime montecarlo su ciascun sottointervallo vengono quindi sommate: Ftot = N X Fj (5.23) σFj (5.24) j=1 in modo tale che: σFtot = N X j=1 ciò conduce generalmente ad una riduzione della varianza rispetto al metodo crude montecarlo applicato su un solo intervallo. I sottointervalli vanno tuttavia scelti accuratamente attraverso qualche informazione nota a priori sulla funzione per ottenere una riduzione valida di σFtot . Il caso più semplice di campionamento stratificato è con una suddivisione in due sottoregioni uguali, con ugual numero di punti di campionamento n1 ed n2 nelle due sottoregioni. Versioni modificate di questo caso prevedono la suddivisione in due regioni diseguali, oppure una suddivisione in due regioni uguali ma con numero di punti di campionamento maggiore dove la funzione varia più rapidamente. 83 perché? la somma di varianze non aumenta la varianza totale? 5.1.4 Campionamento a importanza La tecnia del campionamento a importanza consiste nel trasformare l’integranda f (x) mediante la seguente trasformazione: f (x) dx → dove: f (x) dG(x) g(x) (5.25) ˆ G(x) := g(x) dx (5.26) con g(x) funzione arbitraria scelta in modo tale che la nuova funzione da integrare abbia variazioni più piccole. In tal modo, la varianza σf diventa σf /g e può essere resa piccola a piacere se g(x) è scelta opportunamente. Tale metodo presenta alcuni problemi: innanzitutto, la g(x) deve essere una funzione integrabile, e G(x) deve essere invertibile. Se g(x) ∼ 0 inoltre, f /g ∼ ∞ e questo non solo aumenta di molto il valore della varianza, ma rischia anche di generare problemi di overflow numerico. Questo significa che bisogna escludere funzioni g(x) che possiedono zeri o che vanno a zero molto rapidamente (ad es. rette e parabole in un intorno dell’origine, gaussiane molto piccate etc...). Si noti che, se g(x) ≡ f (x), allora la varianza σf si annulla. Facendo così però G(x) diventa l’integrale di f (x), e quindi si entra in un circolo vizioso in quanto bisogna conoscere l’integrale analitico di f (x) per procedere col metodo. Nonostante tutti i problemi però, questo metodo è solitamente il più conveniente da utilizzare. 5.1.5 Metodo delle variabili di controllo Nel metodo delle variabili di controllo, si sottrae ad f (x) una funzione g(x) opportuna, in modo che, sommando e sottraendo g(x) nell’integrale, si abbia: ˆ ˆ ˆ f (x) dx = [f (x) − g(x)] dx + g(x) dx (5.27) ´ se g(x) dx è noto, allora la varianza σf −g sarà automaticamente minore di σf . 84 5.1.6 Metodo delle variabili antitetiche Nel metodo delle variabili antitetiche, si utilizza la proprietà che, se due variabili aleatorie sono negativamente correlate tra loro, allora la varianza della variabile somma è minore della somma delle varianze associate alle due variabili prese singolarmente, in quanto: σf1 +f2 = σf1 + σf2 + 2 cov (f1 , f2 ) , con cov (f1 , f2 ) < 0 (5.28) data una funzione f (x) con variabile x ad esempio, consideriamo anche la variabile x0 = 1 − x. L’integrale sarà: F ∝ N 1 X [f (x) + f (1 − x)] 2N i=1 (5.29) che ha varianza più piccola di σf /N . 5.1.7 Metodi adattivi I metodi adattivi sono una classe di metodi montecarlo che hanno la proprietà di modificarsi a run-time (cioè durante l’esecuzione del programma), sulla base delle informazioni ottenute dalle integrazioni precedenti. Alcuni esempi sono: • Programma RIWIAD: Si suddivide il volume d’integrazione in sottovolumi, e per ciascuno di essi viene stimato l’integrale (e la sua varianza) con il metodo “crude” montecarlo. Successivamente, sulla base delle informazioni ottenute dall’integrazione, si procede a ulteriori suddivisioni a run-time, in modo da ridurre la varianza per ciascun sottovolume. Tale processo di suddivisione è spesso non soddisfacente, in quanto avviene solitamente parallelamente alle direzioni iniziali, oppure in casi in cui non è necessario effettuare ulteriori suddivisioni. • Programma DIVONNEA: L’algoritmo si basa su due fasi. Nella prima fase, si esegue in modo ricorsivo una partizione del dominio, scelta in modo che la funzione vari il meno possibile all’interno delle partizioni eseguite (per far ciò si usano anche tecniche di minimizzazione di funzioni). Nella seconda fase avviene invece la valutazione dell’integrale mediante la tecnica del campionamento stratificato. 85 5.2 Generazione di variabili aleatorie che seguono una certa distribuzione di probabilità Una seconda applicazione possibile delle tecniche montecarlo è quella di generare istanze (“eventi”, “misure”) di una variabile aleatoria x che segue una certa distribuzione di probabilità f (x). Nel caso di variabili aleatorie discrete, la distribuzione di probabilità associata sarà descrivibile mediante una tabella del tipo: x1 x2 x3 .. . p1 p2 p3 .. . xn pn dove xi sono i possibili valori assumibili dalla variabile aleatoria x, ciascuno P associato ad una sua probabilità pi con la proprietà che i pi = 1. Per procedere con l’algoritmo quindi, si suddivide l’intervallo [0, 1] in n + 1 punti yi (con i che va da 0 ad n), in modo tale che ogni segmento ∆yi := yi+1 − yi generato dalla suddivisione sia proprio pari alla probabilità pi (∆yi ≡ pi ) che descrive la distribuzione di probabilità discreta associata alla variabile aleatoria che si vuole simulare2 . A questo punto, per simulare un evento si genera un numero casuale r (con distribuzione di probabilità uniforme) nell’intervallo [0,1]. Tale numero cadrà in un certo ∆yi , che a sua volta sarà associato ad un pi . In definitiva, estraendo a sorte r si sceglie a caso un certo pi , dal quale indice si può risalire al valore xi misurato nell’ “esperimento”. Nel caso di variabili aleatorie continue invece, consideriamo l’intervallo ]a, b[ continuo (associato a tutti gli infiniti valori assumibili dalla variabile aleatoria x) su cui è definita la densità di probabilità associata f (x). Si può procedere quindi mediante il metodo del cambiamento di variabile: sia β una variabile aleatoria a distribuzione uniforme con dominio [0, 1]. Sia inoltre G(x) la distribuzione di probabilità cumulativa associata a x, cioè 2 Si noti che i valori pi sono noti a priori, perché stiamo “costruendo” la variabile aleatoria sapendo che essa segue una certa distribuzione, ad esempio gaussiana, poissoniana etc... 86 l’integrale della densità di probabilità f (x) tale che G(a) = 0 e G(b) = 1. Poiché f (x) è una distribuzione di probabilità, essa sarà sempre maggiore di zero, quindi G(x) è una funzione monotòna crescente, nel senso che: G(x1 ) < G(x2 ) se x1 < x2 (5.30) possiamo a questo punto utilizzare G(x) (che è nota perché conosciamo la f (x) che vogliamo simulare) a sua volta come variabile aleatoria da cui ottenere, invertendo G(x), un valore x che segua f (x). Per fare ciò, si estrarre a sorte un certo valore di β, che essendo compreso tra 0 e 1 può essere associato ad un certo valore di G(x): ˆ x f (z) dz ⇒ dβ = f (x) dx (5.31) β |= G(x) = a dove con |= si indica il fatto che una certa istanza della variabile aleatoria β “fa le veci” di un certo valore G(x) estratto a sorte. Estratto a sorte un particolare valore di β quindi, possiamo trovare un particolare valore della variabile aleatoria x mediante l’inversa di G(x): β |= G(x) ⇒ x = G−1 (β) (5.32) in definitiva, si estrae a sorte un certo valore di G(x) mediante una variabile aleatoria fantoccia β che ha distribuzione perfettamente uniforme tra 0 e 1, dal quale è possibile ricavare una particolare istanza di x mediante la funzione inversa della distribuzione di probabilità cumulativa. Dobbiamo però dimostrare che, estraendo un certo β particolare e associandolo automaticamente ad uno stesso valore di G(x), otteniamo una particolare istanza di x tale che essa sia ancora descritta dalla densità di probabilità f (x). Per fare ciò, notiamo che β |= G(x) ha un solo valore. Scelto un sottointervallo [c, d] ⊆ [a, b], si ha per monotonia che: G(c) < G(x) < G(d) se x ∈ [c, d] (5.33) P (x ∈ [c, d]) = P (β ∈ [G(c), G(d)]) (5.34) questo vuol dire che: poiché β ha distribuzione di probabilità uniforme su [0, 1], segue che: ˆ d P (β ∈ [G(c), G(d)]) = G(d) − G(c) = f (x) dx (5.35) c 87 quindi: ˆ d f (x) dx P (x ∈ [c, d]) = (5.36) c quindi la probabilità di avere x che cade in un certo sottointervallo è pari all’integrale della densità di probabilità sul sottointervallo stesso, che è ciò che volevamo dimostrare (perché significa che la probabilità infinitesima che un x estratto cada in un intervallo dx è ancora descritta da f (x) dx, quindi il valore generato con questo metodo è ancora distribuito secondo la distribuzione di probabilità f (x)). 5.3 Generatori di numeri casuali con distribuzione di probabilità uniforme Come abbiamo visto, praticamente tutte le tecniche montecarlo necessitano di numeri estraibili a sorte con probabilità che siano uguali per ogni possibile valore estraibile, quindi necessitano di un generatore di variabili aleatorie che abbiano distribuzione di probabilità perfettamente uniforme. Nella realtà però, è molto complesso ottenere generatori di numeri casuali che si comportino sulla base di una distribuzione di probabilità uniforme. In generale, esistono 3 tipi di numeri casuali generabili realmente: 1. Numeri “veramente” casuali: Questi tipi di numeri casuali hanno la proprietà di essere impredicibili e irriproducibili con qualsiasi tipo di algoritmo. In quanto tali, un generatore di numeri “veramente” casuali che sia “comodo” da utilizzare è molto ricercato in crittografia. Questo tipo di numeri casuali purtroppo non sono producibili da nessun programma, ma è noto che possono essere prodotti dalla natura come risultato di processi fisici intrinsecamente casuali, come decadimenti radioattivi o interazioni di particelle con la materia. In particolare, un esperimento di Frigeric e Clark (1978) ha dimostrato per la prima volta come si possano generare numeri casuali a partire dal decadimento di una sorgente di radiazioni α. Per fare ciò, si è posto un rivelatore di particelle α vicino alla sorgente, conteggiando quante volte è stato rivelato un segnale ogni 20 ms. A questo punto, se n conteggiato è risultato essere pari, si produce un bit pari ad 1, altrimenti un bit pari a 0. Si crea in questo modo una successione di 88 31 bit prodotti in modo completamente casuale, a cui sarà associato un numero “veramente” casuale. 2. Numeri pseudocasuali: sono generati al computer attraverso degli algoritmi, e simulano un generatore di numeri “veramente” casuali mediante algoritmi che provano a modellizzare un fenomeno casuale, pur essendo in realtà deterministici. Poiché sono i più facili da produrre, sono i generatori più utilizzati nelle simulazioni montecarlo, ma non sono “veramente” casuali in quanto seppur la distribuzione di probabilità associata risultante è uniforme, conoscendo l’algoritmo è possibile prevedere il prossimo numero estratto e anche riprodurre l’intera serie di numeri estratti precedentemente. I numeri pseudocasuali hanno quindi all’apparenza lo stesso comportamento di un numero “veramente” casuale, finché non si conosce l’algoritmo deterministico che li produce. Una volta compreso tale algoritmo, l’apparente casualità cade e si possono prevedere le sequenze di numeri prodotte in questo modo. Per tale motivo, non sono adatti per avere una crittografia sicura. I numeri pseudocasuali hanno in particolare la seguente caratteristica: non c’è quasi correlazione fra elementi successivi di una sequenza di numeri pseudocasuali estratti a sorte, dunque è complicato estrarre tot numeri pseudocasuali e distribuirli uniformemente nell’intero dominio di definizione. Questo significa che, se si cerca ad esempio di riempire un piano con punti generati pseudocasualmente, è complesso produrli in modo “ordinato” (ma sempre casuale). 3. Numeri quasicasuali: sono generati al computer attraverso semplici algoritmi, e sono in natura molto simili ai numeri pseudocasuali, con la differenza che c’è forte correlazione tra elementi successivi di una sequenza di numeri quasicasuali estratti a sorte. I numeri quasicasuali hanno quindi il vantaggio di potersi distribuire uniformemente nell’intero dominio di definizione. Questo significa che, se si cerca di riempire un piano con punti generati quasicasualmente, è facile produrli in modo “ordinato” (ma sempre casuale). 89 Figura 5.1: 100 punti prodotti in modo quasicasuale confrontati con 100 punti prodotti in modo pseudocasuale. Si noti che nel secondo caso si ha la formazione di “cluster”, cioè gruppi di punti molto ravvicinati tra loro, mentre nel primo caso ciò non avviene. Si noti tuttavia che, usando numeri quasicasuali o pseudocasuali nei metodi montecarlo, la deviazione standard associata alla stima non va più come √ 1/ N , ma come N −1 . Il più famoso generatore di numeri quasicasuali è il generatore di Van Der Corput. Si sceglie un certo sistema di numerazione in base p, e si converte una sequenza di interi dalla base 10 alla base p. Si invertono poi le cifre, e si antepone “0.”, riconvertendo poi tutto in base 10. In questo modo si ha una serie di numeri prodotti quasicasualmente compresi tra 0 e 1. Esempio. Generatore di Van Der Corput in base 2 base 10 1 2 3 4 5 6 7 8 base 2 1 10 11 100 101 110 111 1000 base 2 inv. 0.1 0.01 0.11 0.001 0.101 0.011 0.111 0.0001 90 numero quasicasuale 0.5 0.25 0.75 0.125 0.625 0.375 0.875 0.0625 si è dunque prodotta la sequenza {0.5,0.25,0.75,0.125,0.625,0.375,0.875,0.0625}, apparentemente casuale se non fosse che è stata prodotta mediante un metodo deterministico. Se io conosco in anticipo che sto producendo numeri in modo casuale usando il generatore di Van Der Corput in base due con numeri che vanno da 1 in poi, posso prevedere facilmente che il prossimo numero della sequenza sarà 0.5625, anche se la distribuzione di probabilità associata a questi numeri è uniforme. 91 Parte II Apparati scientifici 92 Capitolo 6 Proprietà dei materiali e strumenti da lavoro 6.1 Metalli e leghe metalliche Uno dei materiali più utilizzati nella costruzione degli apparati scientifici è il metallo. I metalli puri vengono ritrovati nei silicati in miniera, e per essere purificati devono subire prima un processo di raffinazione, cioè un processo di eliminazione delle sostanze estranee appartenenti al composto in cui risiede il metallo: il materiale viene riscaldato ad alte temperature, filtrato e successivamente raffreddato lentamente. Se il raffreddamento è sufficientemente lento, gli atomi del metallo si riarrangiano in modo da formare reticoli cristallini. Invece di un solo cristallo gigante di metallo, solitamente il materiale tende a formarsi come un insieme di domìni cristallini. I reticoli cristallini più stabili sono quelli a massimo impacchettamento, come il reticolo esagonale compatto e il reticolo cubico a facce centrate. Reticoli meno ideali sono invece quelli come il reticolo cubico a corpo centrato. Di queste 3 possibilità, i metalli che cristallizzano nel primo modo sono i più fragili, quelli che cristallizzano nel secondo modo sono duttili e malleabili, mentre quelli che cristallizzano nel terzo modo sono caratterizzati da elevata durezza e bassa duttilità. Oltre ai metalli puri è possibile considerare delle leghe metalliche, cioè miscele tra più metalli diversi. Come in tutte le soluzioni, il metallo presente in percentuale maggiore è detto solvente, mentre quello presente in percen93 tuale minore è detto soluto. I 3 possibili tipi di leghe metalliche sono: 1. Miscuglio semplice: si portano a fusione i due metalli e li si miscela ad alte temperature. Il miscuglio è solitamente non omogeneo, nel senso che alcuni dei domini cristallini che si formeranno saranno relativi solo al primo elemento, mentre altri saranno relativi solo al secondo elemento. Anche al microscopio ottico, è possibile distinguere i due domini. 2. Combinazioni chimiche: i due metalli vengono legati assieme mediante reazioni chimiche, che generano un nuovo metallo completamente diverso da quelli di partenza. Tale miscela è omogenea, in quanto non è possibile distinguere i due metalli diversi nella soluzione. 3. Soluzione solida: se i due metalli sono molto simili tra loro, può avvenire il cosiddetto fenomeno della vicarianza, in cui gli atomi del soluto sostituiscono alcuni atomi del solvente, in certe posizioni del reticolo molecolare. Un’altra possibilità è che essi si infilino negli interstizi lasciati liberi dal solvente. In entrambi i casi si ha una miscela omogenea, indistinguibile a occhio nudo. Solitamente si utilizzano le leghe del ferro. Quelle più diffuse sono la ghisa, prodotta dagli altiforni, formata da ferro + carbonio con titolo di carbonio superiore al 2.05%, e l’acciaio, simile alla ghisa ma con titolo di carbonio inferiore al 2.05%. La ghisa è un materiale molto duro, difficilmente lavorabile, che però può essere utilizzata per la fabbricazione di componenti meccanici ad alta resistenza termica. Per quanto riguarda l’acciaio invece, esso si può ricoprire mediante uno strato superficiale di ossido di cromo (mediante un processo detto di cromatura). Mediante questo processo, si ha come risultato che l’acciaio risulta protetto da questa barriera rispetto all’ambiente esterno, impedendo le reazioni con l’ossigeno e quindi l’ossidazione dell’acciaio: questa tipologia di lega è nota come acciaio inossidabile (inox). Altre leghe metalliche note sono quelle del rame, come l’ottone (rame + zinco) ed il bronzo (rame + stagno). Il primo è un materiale molto malleabile, sia in fogli che in forme più complesse, che tuttavia tende a scurirsi nel tempo. Il secondo invece è caratterizzato da un’elevata durezza ma allo stesso tempo elevata malleabilità, la qual cosa lo ha reso il materiale principe delle ere arcaiche (come nell’età del bronzo). 94 6.2 Proprietà dei materiali I materiali da lavorazione hanno molte proprietà fisiche che li caratterizzano: • Densità • Calore specifico (o la capacità termica, moltiplicando per la massa) • Fusibilità: essa è riferita ai valori di temperatura che assume l’intervallo di fusione del metallo (a differenza degli altri materiali, che solitamente hanno una singola temperatura di fusione costante). Le leghe ad alta fusibilità hanno un intervallo di fusione a temperature abbastanza basse. Se il punto di fusione della lega metallica è più basso dei punti di fusione associati agli elementi componenti la lega, il materiale è detto eutettico. Se la temperatura di fusione è in particolare più bassa dei 1000 °C, il materiale è detto fusibile. • Dilatazione termica: i metalli si dilatano mediante le seguenti leggi di dilatazione: l = l0 (1 + α∆T ) S = S0 (1 + β∆T ) V = V0 (1 + γ∆T ) (6.1) (6.2) (6.3) i coefficienti α, β e γ vengono utilizzati per caratterizzare questa proprietà rispettivamente nel caso di dilatazione lineare, superficiale e volumica. • Conducibilità termica: parametro k che interviene nella legge di Fourier per la conduzione del calore in un singolo materiale: S dQ = k (T − T0 ) dt l (6.4) esiste anche un coefficiente di conducibilità esterna ke che interviene nella legge di conduzione del calore “esterna”, cioè tra due materiali diversi: dQ = ke S (T − T0 ) (6.5) dt tale coefficiente caratterizza le sensazioni di caldo e di freddo umane. 95 • Conducibilità elettrica: parametro ρ che compare nella seconda legge di Ohm, la quale caratterizza quanto gli elettroni fluiscono senza impedimento all’interno di un conduttore: R= l ρ S (6.6) i materiali con più bassa conducibilità elettrica sono l’argento, l’oro e il rame, in ordine decrescente. Tenendo in conto anche la densità del mezzo tuttavia, l’alluminio è a parità di dimensioni geometriche il mezzo che ha la conducibilità per unità di volume più bassa. • Elasticità: parametro che caratterizza le deformazioni plastiche, solitamente associato al modulo di Young: E= l0 F S0 ∆l (6.7) • Durezza: parametro che caratterizza la resistenza di un materiale alla scalfitura. • Resilienza: parametro che caratterizza l’energia necessaria per rompere di un materiale. Oltre alle proprietà fisiche, è importante tenere conto anche delle proprietà chimiche: • Corrodibilità: è un parametro associato alle corrosioni sia chimiche che elettrochimiche, e dipendono dall’interazione del materiale con l’ambiente circostante. La corrosione è un processo che può avvenire sia per l’interazione chimica con i gas, detta corrosione a secco, sia per interazione chimica con dei liquidi, detta corrosione a umido. La corrosione di tipo elettrochimico può avvenire soltanto in quest’ultimo modo. Questo tipo di corrosione avviene nella pratica soprattutto quando due materiali di natura diversa sono a contatto in presenza di umidità. A causa della differenza di umidità infatti, si generano delle correnti elettrochimiche che alla lunga corrodono il materiale. Un modo per proteggere i materiali dalla corrosione è quello di rivestirli con un materiale che reagisce scarsamente con l’atmosfera, come nel processo di cromatura già discusso. 96 E delle proprietà plastiche: • Malleabilità: capacità di deformazione plastica del materiale • Duttilità: capacità di un materiale a essere modellato in fili sottili • Estrudibilità: Capacità di un materiale di assumere determinate forme mediante compressione attraverso fori modellati • Immutabilità: capacità di un materiale a essere modellato in forme prestabilite Particolari materiali aventi buone proprietà plastiche sono il PET, il PVC, il Nylon, il Teflon, il Pexiglass e il Kapton. 6.3 Prove di caratterizzazione dei materiali Vediamo alcune prove per caratterizzare alcune delle grandezze quì sopra definite. Per quanto riguarda l’elasticità, la prova più nota è la prova di trazione: si sottopone un provino standard di un certo materiale da analizzare ad un carico monoassiale F che viene incrementato fino ad un valore massimo che determina la rottura del materiale. La macchina solitamente fornisce un diagramma, noto come diagramma sforzo-deformazione, che descrive lo sforzo in funzione delle deformazioni. Si definisce sforzo la quantità: σ= F S0 (6.8) dove S0 è la sezione iniziale del provino, e deformazione la quantità: ε= ∆l l0 (6.9) il diagramma sforzo-deformazione tipico ottenuto dalla prova di trazione è il seguente: 97 Figura 6.1: Prova di trazione. Identifichiamo i seguenti punti principali del diagramma: 1. Regime di comportamento elastico: corrisponde al comportamento elastico lineare del campione, in cui il materiale obbedisce alla legge di Hooke: σ =Eε (6.10) dove E è il modulo di Young. 2. Fase di snervamento: in questa fase inizia la deviazione dal comportamento lineare; tale zona corrisponde ad una caduta di resistenza meccanica del mezzo, dovuta alla formazione di micro-cricche all’interno del materiale. 3. Regime di comportamento plastico: in questa zona le deformazioni sono plastiche, nel senso che azzerando il carico dopo aver sottoposto il provino a questo tipo di deformazione, esso presenterà delle deformazioni irreversibili. 4. Fase di strizione: arrivato al punto di massimo della curva, inizia la cosiddetta strizione, cioè un fenomeno per il quale la sezione del materiale inizia a ridursi rispetto al suo valore originario in modo significativo. Da questo punto in poi la curva sarà decrescente, in quanto ad una deformazione maggiore sarà associata una resistenza minore del materiale, che non è più capace di reagire allo stress. 98 5. Carico di rottura: il punto finale è noto come carico di rottura, ed è la fase in cui la strizione è massima e il materiale si separa in due parti. Esso corrisponde al massimo valore di deformazione che il provino può sopportare prima di rompersi. Altri tipi di prove elastiche importanti sono la prova di flessione, in cui si prende un campione a forma di trave e si imprime una forza F perpendicolare all’asse della trave stessa: Figura 6.2: Prova di flessione. e la prova di resilienza, che stima l’energia di rottura di un materiale mediante un pendolo: si pone il provino alla base del pendolo e lo si rompe con lo stesso. Dalla differenza di altezza necessaria a rompere il provino, si riesce a stimare l’energia potenziale iniziale del pendolo, e quindi l’energia di rottura. Un tipo di prova molto famoso è la prova di durezza, in cui si determina la resistenza di un materiale alla scalfitura. Esistono vari tipi di prove di durezza: • Prova di durezza Brinell: si utilizza una pallina di diamante per indentare un materiale. Il risultato viene fornito in termini di 3 numeri: diametro della pallina, carico e tempo di attesa per la scalfitura. 99 • Prova di durezza Vickers: si utilizza una piramide a base quadrata di diamante che incide sul materiale. Il risultato è fornito mediante 2 numeri: carico e tempo di attesa. • Prova di durezza Rockwell: SSi utilizza una punta di diamante a forma di cono. In questo caso, si pone prima un materiale di massa standard (10 kg) sulla base del cono. Si misura la profondità di penetrazione, e si pone successivamente il carico di prova: dalla differenza di profondità, si può ricavare la durezza del materiale. A cui corrisponderanno varie definizioni di durezza. La durezza è anche misurata, solitamente dai mineralogisti, mediante la scala Mohs: Essa è una scala basata su vari materiali, che rispettivamente incidono quelli a durezza inferiore. Il diamante viene posto per convenzione con durezza pari a 10, cioè il massimo, mentre il talco viene posto per convenzione pari a 1, in quanto si scalfisce anche solo con un’unghia. 6.4 6.4.1 Strumenti per la lavorazione dei materiali Trapano a colonna Il trapano a colonna è uno strumento utilizzabile per effettuare fori di diametro controllato in un materiale. Le punte sono solitamente fatte in acciaio super rapido (HSS), e sono disponibili in vari diametri: esse vanno da diametri di 1.00 mm a 10.00 mm con passo di 0.10 mm; per diametri successivi, il passo è di 0.50 mm. 6.4.2 Tornio Il Tornio è uno strumento utilizzabile per effettuare incisioni a simmetria cilindrica o conica in un materiale. In un tornio, il materiale da incidere è fermato mediante un mandrino, posto in rotazione da un motore. Un set di punte per incidere il materiale sono a quel punto avvicinate all’oggetto da incidere mediante un carrellino semovente, capace di generare incisioni sia all’interno che all’esterno del materiale: 100 Figura 6.3: Sezione schematica di un tornio, con le punte che incidono il mezzo in vari modi. 6.4.3 Fresa La fresa è uno strumento utilizzabile per tagliare o effettuare incisioni rettilinee in un materiale. In una fresa, il materiale da tagliare è portato in contatto con una lama rotante: Figura 6.4: Schema di una fresa. le frese hanno varie forme, ma in generale permettono di incidere il materiale a piacimento, per tagliare vari tipi di forme senza una particolare simmetria. 101 6.5 Principi di disegno tecnico Per chiedere ad un costruttore di creare un oggetto, è necessario prima mostrarne la forma. Le forme dell’oggetto vengono descritte da una proiezione ortografica, cioè il tipo di proiezione ottenuta quando un oggetto è talmente lontano dagli occhi da privarlo di qualsiasi tipo di prospettiva apparente. Per schematizzare l’oggetto, si utilizzano solitamente 6 viste principali mostrate in Figura 6.5: Figura 6.5: Viste principali dell’oggetto mostrato in proiezione ortografica a sinistra. Le figure sbarrate sono quelle che non sono fondamentali alla descrizione dell’oggetto. non tutte sono fondamentali però: quelle necessarie alla descrizione completa di un oggetto sono solitamente solo 3. Si distinguono due scuole di pensiero sulla descrizione della vista prospettica laterale di un oggetto: la scuola di pensiero americana e la scuola di pensiero europea. Nella prima, che è quella adoperata nella Figura 6.5, si preferisce usare la proiezione a terzo angolo per le proiezioni laterali: la vista laterale è proiettata sul piano posto dall’altro lato dell’oggetto, come accadrebbe se si illuminasse con una luce di una torcia il lato dell’oggetto e si disegnasse l’ombra su uno schermo posto dall’altro lato dell’illuminazione. Nella seconda, che è quella adoperata nella Figura 6.6, si preferisce usare la proiezione a prim’angolo: la vista laterale è proiettata sul piano di 102 proiezione concorde al lato dell’oggetto, come accadrebbe se si illuminasse dall’interno dell’oggetto le pareti dello stesso e si disegnassero le proiezioni delle ombre sui muri della stanza circostante l’oggetto. Figura 6.6: Lo stesso oggetto della Figura 6.5, con proiezioni laterali mostrate mediante la convenzione europea. I simboli che si utilizzano per specificare quale di queste due convenzioni si sta adoperando per fare un disegno sono quelle mostrate in Figura 6.7: Figura 6.7: Pittogrammi utilizzati per identificare quale convenzione si sta utilizzando, tra quella europea e quella americana. Per disegnare le parti interne ad un oggetto, si utilizzano delle linee tratteggiate sottili. Per disegnare le parti visibili invece, si usano dei tratti continui e doppi. Una volta disegnato l’oggetto, è necessario specificare le dimensioni dei segmenti, cioè la distanza (in unità S.I.) tra due punti associati ai 103 segmenti del disegno. Le dimensioni sono indicate con delle frecce, che possono essere messe in serie (cioè una in fila all’altra) o in parallelo (cioè una sopra l’altra), come in Figura 6.8: Figura 6.8: (a) dimensioni in serie di un oggetto; (b) dimensioni in parallelo di un oggetto. 104 Capitolo 7 Pompe a vuoto 7.1 Definizione di vuoto Si definisce solitamente vuoto un sistema avente pressione interna 1 minore di 10−3 torr. La corretta definizione di “vuoto” è variabile a seconda del lavoro che bisogna compiere, ma in generale: • Se p > 10−3 torr: situazione di vuoto scarso • Se p ∈ [10−3 , 10−6 ] torr: situazione di vuoto elevato • Se p ∈ [10−6 , 10−9 ] torr: situazione di vuoto molto elevato • Se p ∈ [10−9 , 10−12 ] torr: situazione di vuoto ultra elevato 7.2 Teoria cinetica dei gas Per comprendere il flusso di massa in un sistema a vuoto, è necessario comprendere le variazioni nella libertà di movimento di una molecola di gas al diminuire della pressione. Dalla teoria cinetica dei gas, la velocità media di una molecola può essere dedotta dalla distribuzione di Maxwell Boltzmann: s v̄ = 1 8kB T πm Ricordiamo che 1 atm = 760 torr = 105 Pa = 1.013 bar. 105 (7.1) supponendo di avere un’atmosfera composta principalmente da N2 e O2 a temperatura ambiente: s v̄ ' 8 · 1.4 · 10−25 · 300 ' 3 · 30 · 1.66 · 10−27 s 8 · 10−22 ' 5 · 102 m/s 3 · 10−27 (7.2) che è circa la velocità del suono nell’aria. Ogni secondo, una molecola di diametro ξ spazza un volume pari a quello di un cilindro con raggio 2ξ e altezza v̄. La molecola colliderà con qualsiasi altra molecola che ha il centro di massa interno a questo cilindro in questo intervallo di tempo: Figura 7.1: Il volume spazzato in un secondo da una molecola di diametro ξ e velocità media v̄. il numero di collisioni al secondo Z effettuato da questa molecola sarà pari al prodotto tra la densità numerica di “centri” delle altre molecole, pari a n, moltiplicato per il volume spazzato dalla molecola in un secondo: Z ≈ n · πξ 2 · v̄ (7.3) tenendo conto anche del moto relativo delle molecole, un valore più accurato di Z è: √ Z = 2 nπξ 2 v̄ (7.4) Il tempo medio che intercorre tra un urto e l’altro sarà allora 1/Z. Si definisce cammino libero medio la distanza media tra una collisione e l’altra: v̄ 1 λ := = √ (7.5) Z 2nπξ 2 Nel caso dell’aria, se p = 10−3 torr: λ ' 1.4 · 3.5 · 1013 · 3 · 9 · 10−16 106 −1 u 6 cm (7.6) quindi, se anche la densità è molto elevata in condizioni di scarso vuoto, gli urti tra le particelle sono improbabili: questo è il motivo per cui si può ritenere che un oggetto è sotto vuoto se anche non è stata eliminata la presenza di ogni molecola. 7.3 Degassificazione delle pareti e collisioni superficiali Uno dei problemi principali nella creazione del vuoto è la degassificazione delle pareti, cioè la rimozione di quelle molecole che hanno aderito alle superfici della camera tramite interazioni di Van der Waals. Il numero di collisioni con le pareti del contenitore nell’unità di tempo sarà dato da: nv̄ (7.7) Zs = 4 Assumendo che la probabilità di adesione è pari al 100% e che il diametro delle molecole di aria sia 3 · 10−8 cm, il tempo che impiega il gas a riempire completamente la parete di aria (supponendo che le molecole si allineino una vicina all’altra a formare uno strato monomolecolare) è pari a: t= 2.5 · 10−6 s p (7.8) dove p è la pressione del gas espressa in torr. Questo significa che, per mantenere le pareti degassificate a lungo, è necessaria una pressione inferiore a 10−9 torr, e quindi un vuoto ultra elevato. 7.4 Flusso viscoso e flusso molecolare La pressione del gas può fluttuare molto mentre il sistema viene portato dalla pressione atmosferica a quella minima ottenibile dalla camera a vuoto. A pressioni elevate, quando λ V (con V volume del contenitore), il comportamento del gas è determinato dalle interazioni intermolecolari. Queste interazioni risultano solitamente in forze viscose, e il gas si comporta come un fluido omogeneo. Il flusso di gas in queste condizioni è detto per questi motivi flusso viscoso. A pressioni più basse, quando λ V , le molecole 107 iniziano a comportarsi come in un gas perfetto e il comportamento è determinato dal moto casuale delle molecole. In questo caso, il flusso di gas verrà detto flusso molecolare. Nel caso di flusso viscoso, il flusso migliora all’aumentare della pressione, e peggiora a causa della turbolenza e dell’attrito viscoso rispetto alle pareti dei tubi che cercano di fare il vuoto. Nel caso di flusso molecolare, il gas ha viscosità quasi nulla, e fluisce spontaneamente da regioni di alta pressione a regioni di bassa pressione semplicemente a causa delle leggi di conservazione fluidodinamiche: il flusso molecolare si comporta in generale da processo stocastico. 7.5 Parametri per specificare il flusso di gas Si definisce velocità di pompaggio la quantità di materia che fluisce attraverso il tubo di pompaggio, cioè il volume di gas che fluisce nell’unità di tempo: dV (7.9) S := dt uso la legge dei gas perfetti: d S= dt N kB T p ! → kB T dN = pS dt (7.10) definisco portata la quantità: Q := kB T da cui si ottiene la relazione: dN dt Q = pS (7.11) (7.12) la portata si misura in Pa m3 s−1 . Definisco inoltre conduttanza la quantità: C := Q ∆p (7.13) R−1 = I ∆V (7.14) che è analogo alla legge di Ohm: 108 invero, C si comporta come la conduttanza elettrica. Nel caso di più tubi in serie infatti, si ha: N X 1 1 = (7.15) Cserie i=1 Ci nel caso di più tubi in parallelo invece: Cpar. = N X Ci (7.16) i=1 questo permette di applicare le stesse leggi di semplificazione dei circuiti elettrici ai circuiti idraulici. 7.6 Equazione maestra Consideriamo la seguente figura: Figura 7.2: Rappresentazione di un sistema idraulico. in riferimento alla figura, in cima al tubo si ha: S= Q Q → p1 = p1 S 109 (7.17) all’ingresso della pompa si ha: Sp = e vale la relazione: Q Q → Sp = p2 = p2 Sp Q = C (p1 − p2 ) (7.18) (7.19) sostituendo le espressioni per p1 e p2 , si ha: Q =C Q S − Q Sp ! ⇒ 1 1 1 = − C S Sp (7.20) questa è l’equazione maestra che lega la velocità di pompaggio di un sistema alla conduttanza dei tubi (che in realtà possono essere ridotti ad un solo tubo equivalente, mediante le leggi di semplificazione già viste) e alla velocità di pompaggio associata alla pompa, Sp . Si noti che, se anche Sp è molto elevato, se non si hanno alti valori di S e C non si può generare un buon vuoto. Questo significa che non ha senso spendere troppi soldi per una pompa super efficiente se i tubi e il contenitore sono scarsi. Si noti inoltre che, per conservazione della portata: Sp1 = Sp p2 ⇒ Sp p1 = p2 S (7.21) bisogna dunque stare attenti a misurare il vuoto all’ingresso della camera, e non all’ingresso della pompa, in quanto solitamente: dunque: Sp =6 S (7.22) p1 = 6p2 (7.23) quindi si sottostimerebbe di 6 volte la pressione all’interno della camera. 7.7 Misure di vuoto Esistono vari strumenti per misurare il vuoto: 110 • Manometro: è un tubo a U riempito con mercurio o particolari oli, che possono misurare tra 1 e 0.1 torr a seconda del fluido utilizzato. Un’estremità del manometro è lasciata verso l’atmosfera, mentre l’altra estremità è in collegamento diretto con l’ambiente di misura. Il liquido si sposterà verso l’alto in uno dei due rami, di un valore h tale che: |ρgh| = |∆p| (7.24) da cui è possibile misurare ∆p. Lo svantaggio è la scarsa sensibilità dello strumento ed il fatto che il liquido evapora, la qual cosa impedisce di effettuare un buon vuoto. • Trasduttore piezoelettrico: si utilizza un cristallo piezoelettrico che converte una differenza di pressione tra le due facce in segnali elettrici, proporzionali a ∆p. Essi funzionano bene nel range di pressione tra 10−1 e 10−3 torr. • Manometro capacitivo: è un manometro a diaframma, dove la posizione del diaframma è determinata da una misura di capacità elettrica. Il manometro è diviso in due camere, da un diaframma che funge da un’armatura di un condensatore; la seconda armatura è invece fissa in una delle due camere. Una variazione di pressione risulta in una variazione di capacità, visto che sposta l’armatura da una parte o dall’altra del manometro. Questi strumenti misurano pressioni tra 10−3 e 10−4 torr. • Gauge a termocoppia: sono misuratori di pressione che si basano sulla variazione di conducibilità termica di un gas. Un filo viene riscaldato dal passaggio di corrente elettrica, e la temperatura risultante del filamento dipenderà dalla conducibilità termica del gas, che a sua volta dipende dalla pressione. La pressione è determinabile dalla forza elettromotrice prodotta da una termocoppia in contatto con il filamento. • Gauge pirani: il funzionamento è analogo a quello della termocoppia, con la differenza che il filamento è posto come un ramo di un ponte di Wheatstone. una variazione nella temperatura del filamento produce una variazione di resistività, e quindi una variazione di tensione ai capi del filo. Questo sbilancia il ponte di wheatstone, e utilizzando un amperometro è possibile determinare dalla corrente passante nel ponte 111 la differenza di pressione. Questi due tipi di misuratori funzionano in un range che va dai 10 ai 10−3 torr. • Misuratori a ionizzazione: sono dispositivi utilizzati per misurare il vuoto spinto (< 10−3 torr). In tale regione, il flusso di gas è prevalentemente molecolare. Il misuratore funziona ionizzando le molecole del gas mediante urti con elettroni; gli ioni positivi risultanti vengono raccolti ad un elettrodo caricato negativamente. Dalla variazione di corrente nell’elettrodo è possibile determinare la variazione di pressione. 7.8 Pompe a vuoto Esistono vari tipi di pompe a vuoto: • Pompa rotatoria ad olio: La pompa più utilizzata per ottenere pressioni fino a qualche mtorr è questo tipo di pompa. Essa è formata da un disco rotante incastonato in un cilindro; il gas entra nel cilindro ed è forzato dal disco verso l’uscita della pompa mediante una valvola. L’olio è utilizzato come isolante, ed è solitamente formato da olio idrocarbonico di alta qualità. • Pompa molecolare: è una pompa formata da un cilindro rotante incastrato all’interno di un contenitore cilindrico più largo. Il pompaggio avviene quando la velocità superficiale del cilindro rotante si avvicina alla velocità delle molecole, in modo tale che le molecole che urtano il cilindro acquistano una velocità molto elevata tangenzialmente al cilindro: delle scanalature nel cilindro permettono in tal modo di trascinarle verso la valvola di sfogo della pompa. • Pompa turbomolecolare: è la versione migliorata della pompa molecolare; esse operano in regimi di flusso molecolare, ed è formato in modo analogo alle turbine degli aeroplani. Una serie di lame legate ad un rotore cilindrico girano a velocità estremamente elevata (100, 000 rpm). Una molecola che urta le lame, leggermente incurvate verso il fondo del contenitore, riceve una componente significativa di velocità tangenziale, in direzione del fondo, su cui è localizzata la valvola di sfogo. Solitamente questo tipo di pompa viene messa in serie ad una pompa rotatoria ad olio, per ottenere il massimo dell’efficienza. 112 • Crio-pompa: è una pompa che si basa sulla condensazione del gas rispetto ad una superficie fredda. Queste pompe utilizzano un circuito refrigerante a elio raffreddato a temperature al di sotto dei 20 K. Nel primo stage della pompa, una superficie metallica è mantenuta a 50 K in modo da intrappolare il valore acqueo, il biossido di carbonio e le principali componenti dell’aria in generale. Nel secondo stage della pompa, si ha il circuito ad elio mantenuto a 20 K, ricoperto di un materiale crioassorbente (come carbone attivo) utilizzato per pompare i restanti atomi di neon, idrogeno ed elio. Questi tipi di pompe professionali riescono a raggiungere vuoti ultra elevati, di circa 10−12 torr. 113 Capitolo 8 Richiami di ottica 8.1 Onde piane Si definisce onda piana la soluzione più semplice possibile dell’equazione delle onde, avente fronti d’onda (cioè superfici a fase costante) a forma di piano. Matematicamente, esse sono soluzioni espresse come: E(r, t) = E0 cos (k · r − ωt + φ0 ) (8.1) che si può scrivere in modo analogo anche invertendo i segni all’interno dell’argomento del coseno: E(r, t) = E0 cos (ωt − k · r + φ0 ) (8.2) dove k è il vettore d’onda, che indica la direzione di propagazione e il cui modulo è pari a: 2π (8.3) |k| = λ mentre: 2π ω := = 2πν (8.4) T è la frequenza angolare, laddove T è il periodo e ν è la frequenza intrinseca associata all’onda. Le quantità E0 e φ0 rappresentano infine rispettivamente l’ampiezza e la fase iniziale dell’onda. La quantità: Φ := k · r − ωt + φ0 114 (8.5) è detta fase globale dell’onda. Ai fronti d’onda di un’onda sarà associata una velocità, detta velocità di fase. Supponiamo di avere una fase Φ associata ad un’onda piana che si muove lungo la direzione z. Calcoliamo lo spostamento infinitesimo dz associato ad un intervallo di tempo infinitesimo dt, differenziando membro a membro Φ = cost: d (Φ) = d (cost.) → k dz − ω dt = 0 → ω dz = dt k (8.6) Si ha quindi l’espressione della velocità di fase, definita come vf := dz/dt: ω k vf = (8.7) le onde piane non possono esistere nella realtà, in quanto l’integrale della densità di energia elettromagnetica diverge se integrata su un intero fronte d’onda. Esse possono però essere considerate approssimazioni locali di altri tipi di soluzioni fisicamente valide, ad esempio delle onde sferiche. Inoltre le onde piane possono essere considerate i “costitutenti” dei pacchetti d’onda, cioè sovrapposizioni di infinite onde piane aventi frequenze diverse. 8.2 Indice di rifrazione Assumendo che il mezzo sia isotropo, nel senso che la permittività dielettrica relativa del mezzo εr non è funzione della posizione nel mezzo, e semplice, nel senso che la relazione tra campi elettromagnetici E e B e campi ausiliari D e H è di semplice proporzionalità, allora possiamo definire indice di rifrazione di un mezzo la quantità: n= c vf (8.8) in un mezzo, la velocità di fase sarà: 1 vf = √ εµ dove ε := ε0 εr e µ := µ0 µr . quindi ricordando che c = (ε0 µ0 )−1/2 : √ √ ε0 µ 0 εr µ r √ √ n = εµc = → n = εr µ r √ ε0 µ 0 115 (8.9) (8.10) Solitamente, µr ∼ 1, quindi: n' √ (8.11) εr in un mezzo, le relazioni tra kmezzo e k e λmezzo e λ sono date come proporzionalità rispettivamente diretta e inversa tramite l’indice di rifrazione: kmezzo = nk, λmezzo = 1 λ n (8.12) la relazione di dispersione, cioè la relazione che lega k a ω, nei mezzi isotropi e semplici viene a sua volta modificata dall’indice di rifrazione: ω mezzi ω k(ω) = ⇒ k(ω) = n (8.13) c c 8.3 Velocità di gruppo e pacchetti d’onda si definisce pacchetto d’onda una serie infinita di onde piane monocromatiche, su tutte le possibili frequenze e lunghezze d’onda dell’onda, ciascuna pesata in base ad una certa funzione. Non analizzeremo nel dettaglio i pacchetti d’onda, ma ci limiteremo a mostrarne delle semplici proprietà sulla base dell’interferenza tra solamente due onde piane monocromatiche aventi frequenze leggermente diverse tra loro. Consideriamo due onde piane del tipo: E1 (x, t) = E0 cos [(ω + δω) t − (k + δk) x] E2 (x, t) = E0 cos [(ω − δω) t − (k − δk) x] (8.14) (8.15) facciamo propagare contemporaneamente queste due onde. Esse effettueranno interferenza tra loro, cioè si sommeranno per dare vita ad un’onda risultante pari a: Etot (x, t) = E1 + E2 = E0 cos [(ω + δω) t − (k + δk) x] + + E0 cos [(ω − δω) t − (k − δk) x] usando le formule di prostaferesi, cos (A) + cos (B) = 2 cos Segue quindi: A−B 2 Etot (x, t) = 2E0 cos [δω t − δk x] cos (ωt − kx) cos A+B 2 . (8.16) che è un’onda armonica modulata in ampiezza da una sinusoide di frequenza δω e lunghezza d’onda 2π/δk. Il “pacchetto” sarà proprio l’inviluppo, 116 cos [δω t − δk x], che conterrà l’onda e la trasporterà con una certa velocità. Il picco massimo dell’inviluppo si avrà per: Φinviluppo = 2πm, (8.17) m∈Z dunque, differenziando ambo i membri: d (δω t − δk x) = d (2πm) → δω dt − δk dx = 0 → dx δω = dt δk (8.18) definisco dunque velocità di gruppo questa velocità associata all’inviluppo del pacchetto d’onda, quindi: vg := dω dk (8.19) Si noti che la velocità di fase e di gruppo non per forza coincidono. Questo perché vf dipende solo da ω/k = c/n, mentre vg := dω/dk dipende da come la propagazione cambia nel mezzo al variare della frequenza o della lunghezza d’onda. Se dunque il mezzo ha un indice di rifrazione che varia al variare della frequenza (come nei mezzi dispersivi), vg 6= vf . Possiamo trovare un’espressione alternativa della velocità di gruppo nei mezzi dispersivi, supponendo quindi che n = n(λv ), dove λv è la lunghezza d’onda associata ad un’onda piana che si propaga nel vuoto, notando che: ω = vf k = 2π c · n(λv ) λv (8.20) uso la regola di derivazione delle funzioni composte su dω/dk: dω ∂ω ∂λv = = − dk ∂λv ∂k dn 2πc λv dλ +n v λ2v n2 · 2π − 2 = k dn dn 4π2 c λv dλ 4π 2 c λv dλ +n 1 +n λ2v v v = = · = λ2v n2 k2 4π2 λ2v n2 ! c dn = 2 λv +n n dλv 117 dn , supponendo che tale quantità sia diversa moltiplico e divido per n − λv dλ v da zero. Segue: c n2 ! 2 2 2 dn dn c n − λv dλv λv +n · = 2 dn dλv n n − λv dn n − λv dλ dλv v dn n − λv dλ v n2 c u 2 n n − λv dn dλv = u trasc. term. 2° ord. c n − λv dn dλv definisco indice di gruppo del mezzo la quantità: dn(λv ) Ng := n(λv ) − λv (8.21) dλv da cui: c vg = (8.22) Ng si noti che vg si riduce a c/n = vf solo se dn/dλv = 0. In generale invece, vg < vf . 8.4 Vettore di Poynting e intensità luminosa Definisco vettore di Poynting la quantità. S := E × H = mezzi semplici E×B µ (8.23) definisco intensità luminosa la quantità: I := h|S|i (8.24) da cui si può dimostrare facilmente, nel caso di onde piane, che: 1 I = vε0 εr E02 (8.25) 2 ma v = c/n e εr = n2 , quindi: 1 I = cε0 nE02 (8.26) 2 supponiamo di avere un raggio laser rosso che ha un’intensità pari a I = 1 mW cm−2 . Quanto è l’intensità del campo elettrico risentita da un mezzo avente indice di rifrazione n = 1.45? Dalla formula appena trovata, si ha: s E0 = 2I = cε0 n s 2 (1 · 10−3 · 104 ) u 72 V m−1 3 · 108 · 8.85 · 10−12 · 1.45 118 (8.27) 8.5 Coefficienti di riflessione e trasmissione Consideriamo un’interfaccia tra due mezzi, il primo avente indice di rifrazione n1 ed il secondo avente indice di rifrazione n2 < n1 : Figura 8.1: Raggio di luce passante tra due mezzi ad indice di rifrazione costante e diverso l’uno dall’altro. Il mezzo superiore ha indice di rifrazione n2 ed il mezzo inferiore ha indice di rifrazione n1 . in riferimento alla figura, definisco coefficiente di riflessione la quantità: q n2 − sin2 θi Er,⊥ q r⊥ := = Ei,⊥ cos (θi ) + n2 − sin2 θi cos (θi ) − (8.28) dove n := n2 /n1 . Definisco invece coefficiente di trasmissione la quantità: t⊥ := Et,⊥ 2 cos (θi ) q = Ei,⊥ cos (θi ) + n2 − sin2 θi 119 (8.29) i corrispondenti coefficienti per le componenti Ek del campo elettrico saranno: q n2 − sin2 θi − n2 cos θi Er,k rk := =q Ei,k n2 − sin2 θi + n2 cos θi Et,k 2n cos θi q tk := = Ei,k n2 cos θi + n2 − sin2 θi (8.30) (8.31) A incidenza normale, cioè per θi = 0, si ha: n1 − n2 n1 + n2 2n1 t⊥ ≡ tk = n1 + n2 r⊥ ≡ rk = (8.32) (8.33) definiamo inoltre riflettanza le quantità: |Er,⊥ |2 R⊥ := ≡ |r⊥ |2 |Ei,⊥ |2 Rk := Er,k Ei,k 2 2 ≡ rk 2 (8.34) (8.35) nel caso di incidenza normale: n1 − n2 R= n1 + n2 2 L’andamento di |r⊥ | ed rk è mostrato in Figura 8.2: 120 (8.36) Figura 8.2: Andamento dei coefficienti di riflessione per un’interfaccia ariavetro. Si noti che, per qualsiasi angolo d’incidenza, in riflessione si ottiene prevalentemente un campo elettrico polarizzato in modo perpendicolare al piano di incidenza. In particolare, per un angolo detto angolo di Brewster (pari a circa θp = 35◦ ) la componente parallela alla direzione di propagazione si annulla completamente. La condizione associata all’angolo di Brewsted è: tan (θp ) := n2 n1 (8.37) per angoli θ > θc (con θc = 44◦ ) detto angolo critico, si ha solo un’onda evanescente nel secondo mezzo e riflessione totale nel primo mezzo. I coefficienti di riflessione sono tuttavia quantità intrinsecamente complesse. Per caratterizzare completamente il loro andamento, dobbiamo controllare anche le fasi associate: 121 Figura 8.3: Fasi associate ai coefficienti di riflessione. da cui si può notare che per riflessioni parziali con θi ∈ [θp , θc ] si ha uno sfasamento della componente parallela all’interfaccia del campo elettrico pari a −π, mentre per riflessione interna totale si ha un generico sfasamento del campo elettrico ϕ. Ciò ritornerà utile successivamente nei calcoli sulle condizioni di interferenze costruttive/distruttive. 8.6 Coating antiriflettenti Consideriamo un raggio di luce, viaggiante in un mezzo con indice di rifrazione n1 , che incide su un mezzo formato da due strati: uno n2 di spessore d ed uno più profondo n3 , che può ad esempio essere lo strato interno di un dispositivo fotovoltaico: 122 tutte le riflessioni all’interno del mezzo n2 successive alla prima saranno trascurabili, e nell’immagine sono mostrate con linee tratteggiate. Supponiamo preliminariamente che lo strato n2 non ci sia, e che quindi n1 = 1 sia l’indice di rifrazione dell’aria e n3 = 3.5 sia l’indice di rifrazione del Silicio per un pacchetto d’onda incidente con λ ∈ [600, 800] nm, la riflettanza sarà: n1 − n3 R= n1 + n3 2 u 0.309 ≈ 30% (8.38) questo significa che il 30% della luce incidente è riflessa con la prima riflessione parziale, e ciò spiega come mai le riflessioni successive alla prima sono trascurabili: le riflessioni successive alla prima porterano via il 30% di percentuali sempre inferiori associate al 30% del 70% di luce che viene rifratta la prima volta, percentuali già trascurabili per quanto riguarda la seconda riflessione parziale. Se questa fosse la struttura di una cella fotovoltaica inoltre, questo risultato mostrerebbe che il 30% della luce è riflessa via, e non è più disponibile per la conversione in energia elettrica. Ciò che si fa è quindi interporre lo strato con indice di rifrazione n2 , noto come coating antiriflettente, solitamente fatto da un materiale dielettrico come nitrito di silicone idrogenato amorfo, per ridurre l’intensità della luce riflessa. Nell’esempio mostrato, n1 = 1, n2 = 1.9 ed n3 = 3.5. Analizziamo nel dettaglio gli sfasamenti prodotti sui raggi riflessi dal percorso della luce mostrato in figura. La prima riflessione parziale indicata con A ha uno sfasamento pari a π rad, in quanto ha subito riflessione parziale. L’onda che viene rifratta in 123 n2 viene poi riflessa nuovamente in modo parziale dallo strato n3 , e questa riflessione è indicata con B. Questa onda è sfasata anch’essa di π rad, e il fatto che deve percorrere uno spazio al ritorno pari a d dopo aver percorso uno spazio all’andata pari a d la sfasa ulteriormente di una differenza di fase pari a: 2π (2d) (8.39) ∆φ = kc · (2d) = λc dove λc = λ/n2 è la lunghezza d’onda della luce che si propaga nel mezzo n2 . Per fare in modo che la luce riflessa sia ridotta al minimo, la prima condizione da imporrre è che A e B devono interferire distruttivamente, il che significa che la differenza di fase ∆φ deve essere pari ad un multiplo dispari di π: ∆φ = (2m + 1) π, m∈N (8.40) risolvo per d: 4πn2 (2m + 1) π 2π (2d) = (2m + 1) π → λ→ d = (2m + 1) π → d = λc λ 4 πn2 λ → d = (2m + 1) 4n2 ! m∈N , (8.41) quindi il coating antiriflettente deve avere uno spessore quantizzato, pari ad un multiplo dispari della lunghezza d’onda divisa per 4 n2 . Una volta soddisfatta tale condizione, si deve calcolare la riflettanza minima associata al coating, che si può dimostrare essere pari a: Rmin = n22 − n1 n3 n22 + n1 n3 !2 (8.42) Come seconda condizione quindi, si impone che Rmin = 0: Rmin = 0 ⇒ n22 − n1 n3 n22+n1 n3 = c.e.:n2 ∈C 0 → n22 = n1 n3 in tal modo, la seconda condizione per avere il coating antiriflettente è: n2 = √ n1 n3 124 (8.43) 8.7 Specchio dielettrico (o di Bragg) Lo specchio di Bragg è una sovrapposizione di strati dielettrici di indice di rifrazione n1 ed n2 alternati e poggiati tutti su un substrato di indice di rifrazione n3 , come mostrato in Figura 8.4: Figura 8.4: Schema strutturale di uno specchio di Bragg. Ciascuno strato deve essere profondo λstrato /4, dove λstrato = λ/nstrato è la lunghezza d’onda della luce che si propaga nello strato considerato. Si può dimostrare che, sotto questa condizione, tutte le onde riflesse A, B, C e D interferiscono costruttivamente, generando una riflessione quasi del 100% in una data banda centrata attorno a λ0 , cioè la lunghezza d’onda della luce considerata nel vuoto. Il vantaggio rispetto agli specchi metallici tradizionali consiste nel fatto che gli specchi metallici, a causa dell’effetto pelle, generano correnti superficiali che riscaldano la superficie se colpiti da laser ad alta intensità. In questi casi quindi è necessario raffreddare lo specchio, come ad esempio con una piastra di rame, mentre con gli specchi dielettrici ciò non è necessario. Il numero di coppie di strati n1 ed n2 è legato alla massima riflettanza dall’equazione: RN = n2N 1 − n2N 1 + n0 n2N 2 n3 n0 n2N 2 n3 2 (8.44) dove n0 è l’indice di rifrazione dello spazio esterno allo specchio di Bragg. La larghezza ∆λ della banda in lunghezza d’onda nella quale la riflettanza è 125 praticamente del 100% è legata agli indici di rifrazione dall’equazione: 4 n1 − n2 ∆λ ≈ λ0 arcsin (8.45) π n1 + n2 Mediante i coating, giocando sulla riflettanza, è possibile realizzare un cosiddetto beam splitter, cioè una struttura vetrosa formata da 2 prismi retti incollati tra loro mediante un coating multistrato: Figura 8.5: Schema di un beam splitter. tale coating viene realizzato in modo tale che la riflettanza e la trasmittanza siano entrambi del 50%, in modo tale da riuscire a dividere un raggio incidente in due raggi dalla pari intensità. Questo è utile ad esempio negli interferometri, per ottenere due raggi di luce identici da utilizzare per controllare differenze di fase su uno schermo dopo aver fatto fare alla luce due percorsi diversi. Giocando sempre con la riflettanza, è possibile inoltre generare filtri elettromagnetici che fungono da passa-alto, passa-basso e passa-banda per le onde elettromagnetiche. Altri filtri, noti come filtri a densità media, discriminano invece per assorbimento sull’intero spettro in frequenza. Essi risultano essere più o meno scuri a seconda della loro densità ottica, definita come: 1 D = log10 = − log10 (T ) (8.46) T 126 dove T è la trasmittanza del filtro. Se T = 1, allora D = 0 e il filtro è semplicemente un pezzo di vetro trasparente. Se invece ad esempio T = 10−5 , allora D = 5. 8.8 Reticolo di diffrazione Si defiisce reticolo di diffrazione un dispositivo ottico avente una serie periodica di fenditure in un muro opaco. Un raggio di luce monocromatico incidente sul reticolo viene diffratto dalle fenditure, generando su uno schermo picchi molto intensi a causa dell’interferenza in direzioni predefinite e quantizzate che dipendono dalla lunghezza d’onda λ incidente e dalle caratteristiche del reticolo. Un esempio di reticolo di diffrazione e del risultato ottenuto su uno schermo è mostrato in Figura 8.6: Figura 8.6: reticolo di diffrazione con N slitte di larghezza a e passo d. ricordiamo che, se la diffrazione avviene alla Fraunhofer, l’interferenza sarà costruttiva quando vale la condizione di diffrazione di Bragg (anche nota come equazione del reticolo): d sin (θ) = mλ, m∈Z (8.47) dove θ è l’angolo di inclinazione rispetto alla perpendicolare allo schermo e d è il passo del reticolo. Il picco più intenso si ha per m = 0. Se 127 tuttavia il raggio incidente non è perpendicolare al reticolo di diffrazione, allora l’equazione del reticolo va modificata in: d (sin θm − sin θi ) = mλ, m∈Z (8.48) con θi angolo d’incidenza e θm angolo di uscita. Oltre ai reticoli di diffrazione già visti, ne esistono altri due tipi: i reticoli a trasmissione e i reticoli a riflessione. Il reticolo a trasmissione ha il raggio incidente e i raggi diffratti dal lato opposto del reticolo, che solitamente è fatto di un materiale trasparente. Un reticolo a riflessione ha invece il raggio incidente e i raggi diffratti dallo stesso lato del dispositivo, come visibile in Figura 8.7: Figura 8.7: reticoli a trasmissione e riflessione, rispettivamente. anche per questi reticoli va bene l’equazione (8.48). Nella pratica, si è soliti utilizzare prevalentemente i reticoli a riflessione (come tutti i reticoli di diffrazione) per identificare le lunghezze d’onda che compongono un raggio di luce incidente. Se si utilizza il reticolo a riflessione della Figura 8.7 tuttavia, il raggio a intensità massima sarà quello per m = 0, in quanto il reticolo a riflessione segue la legge della riflessione θi = θm . Poiché questo risultato sarà vero per tutte le lunghezze d’onda, non si può effettuare nessuna spettroscopia e non è possibile discriminare due lunghezze d’onda diverse. Ciò che si fa è “shiftare” l’intensità massima associata a m = 0 verso ordini superiori (ad esempio all’ordine m = 1) mediante una procedura nota come blazing all’ordine n del reticolo a riflessione. Questa procedura consiste nel generare delle scanalature a forma di piano inclinato con angolo γ, con lunghezza di base di ciascun triangolo rettangolo pari a d, come mostrato in Figura 8.8: 128 Figura 8.8: un reticolo a riflessione blazed al prim’ordine. In tal modo l’equazione (8.48) vale ancora, ma con angoli misurati rispetto alla normale della base del reticolo, mentre il prim’ordine verrà riflesso con legge di riflessione che considera la normale rispetto alla superficie del piano inclinato con angolo d’inclinazione γ, noto come angolo di blazing. In tal modo, si è riusciti a spostare la massima intensità sul prim’ordine di diffrazione. Per determinare l’angolo di blazing, se l’angolo d’incidenza non è normale alla base del reticolo come mostrato nella Figura 8.8 ma è pari a θi , allora la riflessione accade ad un angolo γ + θi rispetto alla normale della faccia del piano inclinato, come mostrato in Figura 8.9: Figura 8.9: incidenza di un raggio di luce su un reticolo blazed al prim’ordine con angolo d’incidenza θi 6= 0. 129 la riflessione del prim’ordine accadrà dunque ad un angolo θm pari a: θm = 2γ + θi (8.49) questo si vede facilmente dalla Figura 8.9. Solitamente, l’angolo di blazing è scelto per massimizzare l’efficienza del reticolo per una determinata lunghezza d’onda. Se si ruota il reticolo blazed, è possibile portare il raggio riflesso nella stessa direzione del raggio incidente. Questa configurazione è detta configurazione Littrow. Per la configurazione Littrow, la legge (8.48) si riscriverà come: 2d sin γ = mλ (8.50) da cui si può capire a quale angolo blazare il reticolo per avere configurazione littrow associata ad una certa lunghezza d’onda λ: mλ γλ = arcsin 2d ! (8.51) la configurazione Littrow è utilizzata per formare specchi nei cosiddetti laser accordabili, in modo da riuscire a variare la lunghezza d’onda della luce emessa utilizzando diversi angoli di inclinazione del reticolo. 130 Capitolo 9 Ottica guidata 9.1 Guida d’onda La guida d’onda è un sistema dielettrico capace di trasmettere onde elettromagnetiche lungo una certa direzione. La guida d’onda più semplice da modellizzare è una fetta di dielettrico avente indice di rifrazione n1 circondato da due fette di dielettrico avente indice di rifrazione n2 < n1 : Figura 9.1: Una guida d’onda planare dielettrica. analizziamo le condizioni che consentono alla guida d’onda di funzionare correttamente. Consideriamo una sezione della guida d’onda dielettrica planare, e supponiamo che il campo elettrico E associato ad un’onda piana incidente sull’apertura laterale della guida d’onda sia diretto lungo l’asse x, mentre l’asse z è diretto verso l’interno della guida d’onda: 131 Figura 9.2: Sezione di una guida d’onda con un raggio di luce incidente. Le linee tratteggiate sono fronti d’onda a fase costante associati ai raggi diretti verso l’asse y positivo. Il raggio di luce sarà guidato in modo a zig zag lungo l’asse z da riflessioni successive all’interfaccia tra i due mezzi. Si noti che, per avere la propagazione dell’onda, i raggi che partono da A e da C devono interferire costruttivamente, altrimenti essi si distruggeranno a vicenda per interferenza distruttiva e l’onda smetterà di propagarsi. Analizziamo quindi le condizioni di interferenza costruttiva. Supponendo che k1 sia inclinato di un angolo θ rispetto alla direzione y, per avere interferenza costruttiva la differenza di fase ∆φAC deve essere un multiplo di 2π: ∆φAC = m (2π) , m∈N (9.1) notando che la differenza di fase tra i punti A e C corrisponde all’aver percorso un cammino geometrico AB + BC, tolte due variazioni φ dovute alle riflessioni interne in B e in C, questa condizione si riscrive come: k1 AB + BC − 2φ = m (2π) (9.2) usiamo la trigonometria per determinare AB + BC. Se d è la larghezza dello strato n1 , si ha: AB = BC cos (2θ) d d cos θ = → BC = cos θ BC 132 (9.3) (9.4) questo significa che: d [cos (2θ) + 1] cos θ i d d h 2d cos2 θ d + ⇒ = 2 cos2 θ − 1 + 1 = − cos θ cos θ cos θ cos θ ⇒ AB + BC = 2d cos θ AB + BC = BC cos (2θ) + BC = BC [cos (2θ) + 1] = quindi la condizione (9.2) si riscrive come: k1 2d cos θ − 2φ = 2mπ, m∈N (9.5) si ha dunque una quantizzazione dei θm possibili per l’interferenza costruttiva di un’onda che si propaga in una guida d’onda, a cui sarà associato uno sfasamento per riflessione interna φm . Ricordando che k1 = (2π/λ) n1 , e considerando a := d/2, possiamo riscrivere la condizione di interferenza costruttiva come: 4π n1 (2 a) cos θm − 2 φm = 2 mπ → λ 4πn1 a cos θm − φm = mπ λ (9.6) dove φm sarà funzione di θm e dello stato di polarizzazione dell’onda elettromagnetica incidente. Possiamo scomporre il vettore d’onda k1 in due costanti di propagazione β e κ, rispettivamente lungo l’asse z e lungo l’asse y. Poiché θ soddisfa la quantizzazione data dalla condizione (9.6), anche β e κ saranno a loro volta quantizzati se si vuole avere interferenza costruttiva, in quanto: βm = k1 sin (θm ) κm = k1 cos (θm ) (9.7) (9.8) Nel caso in cui si hanno onde incidenti con k1 diretto verso la direzione negativa dell’asse y, il ragionamento è perfettamente analogo, con −κ invece che +κ. Consideriamo ora il caso mostrato in Figura 9.3, con due onde che incidono nella guida d’onda: una diretta “verso il basso” e una diretta “verso l’alto”: 133 Figura 9.3: Onde incidenti nella guida d’onda verso l’alto e verso il basso interferiscono per generare un’onda stazionaria nella guida d’onda rispetto all’asse y. in questo caso, avremo due onde identiche che viaggiano parzialmente in direzioni opposte e che effettuano interferenza tra loro, la qual cosa genera onde stazionarie rispetto all’asse in cui avviene la propagazione opposta. Poiché le componenti βm sono dirette lungo la stessa direzione per entrambi i vettori d’onda e le componenti opposte sono quelle ±κm , l’onda stazionaria si genererà rispetto all’asse y. Possiamo calcolare il profilo di campo elettrico risultante considerando la sovrapposizione dei campi elettrici associati ai due raggi in un generico punto P ad altezza y rispetto al centro della guida. Si può dimostrare che il campo elettrico risultante ammesso nel caso di propagazione nella guida d’onda di due onde piane viaggianti lungo direzioni opposte rispetto all’asse y e comunemente verso l’asse z si scrive come: dove: E(y, z, t) = Em (y) cos (ωt − βm z + δ) (9.9) Em (y) = 2E0 cos (κm y + δ) (9.10) questo significa che i possibili risultati per il campo elettrico, detti modi di propagazione, sono quantizzati rispetto ad un numero m, detto numero di modo, e in generale il campo può essere scomposto come un’onda piana viaggiante lungo la direzione z con vettore d’onda βm modulata in ampiezza da una funzione Em (y) pari a quella che descrive onde stazionarie presenti 134 in una cavità con condizioni al bordo di Dirichlet 1 . Alcuni possibili modi di propagazione sono mostrati in Figura 9.4: Figura 9.4: Modulazione in ampiezza del campo elettrico viaggiante in una guida d’onda rispetto all’asse y, per i modi m = 0, 1, 2. 9.2 Guide d’onda monomodali e multimodali Seppur la condizione (9.6) specifica i possibili θm permessi, tale angolo deve soddisfare anche la condizione di riflessione interna totale, cioè: θm > θc ⇒ sin (θm ) ≥ sin (θc ) (9.11) a partire da questa condizione, si può dimostrare che si ha un valore massimo possibile per m, in quanto deve sussistere la disuguaglianza: m≤ la quantità: 2V − φm π (9.12) 2πa q 2 n1 − n22 (9.13) λ è detta V-number della guida d’onda, ed è un parametro caratteristico della guida ad una data lunghezza d’onda. Si vuol sapere adesso se esiste un valore di V che rende la guida monomodale, nel senso che l’unico numero di modo ammesso sia m = 0. Supponiamo V := 1 cfr. particella quantistica nella scatola a bordi infiniti in M.Q. 135 che la propagazione sia dovuta ad un’onda che incide con θm ∼ 90◦ , e supponiamo che all’inizio della propagazione si abbia solo m = 0. Questo significa che φ ∼ π, e dal vincolo (9.12) si ottiene come estremo superiore2 : 0= 2V π 2V − π → =1→ V = π π 2 (9.14) questo significa che se V ≤ π/2, allora l’unica possibilità è che si propaghi solamente il modo fondamentale m = 0. Tale struttura si chiama guida d’onda planare monomodale. La lunghezza d’onda λc tale che mediante la (9.13) si abbia V = π/2 è detta lunghezza d’onda di cutoff. Per ogni lunghezza d’onda λ > λc , si avrà una guida d’onda monomodale, invece di una multimodale in cui si propagano modi m > 0 oltre a quello fondamentale. 9.3 Modi TE e TM Finora, abbiamo considerato la situazione in cui il campo elettrico E è diretto lungo l’asse x, mentre il campo magnetico giace sul piano yz. Questo tipo di onde si dicono onde TE. Il caso contrario, in cui è il campo magnetico B ad essere diretto lungo l’asse x, è quello delle onde TM. A ciascuna di queste possibilità saranno associati diversi modi per il campo elettrico, detti rispettivamente modi TEm e modi TMm . È interessante notare che, nel caso di onde TE e TM, si può avere rispettivamente una componente del campo magnetico/campo elettrico che è diretto lungo la direzione del vettore d’onda, come mostrato in Figura 9.5: 2 N.d.R. Tuttavia, usando la disuguaglianza invece dell’uguaglianza, mi trovo: 0≤ 2V − π 2V π →0≤ − 1 → π ≤ 2V → V ≥ π π 2 dunque non capisco come mai il risultato è V ≤ π/2. 136 Figura 9.5: Onde TE e onde TM. Si noti che Bk e Ek hanno una componente Bz ed Ez non nulla, cosa impossibile nello spazio libero. questo fenomeno è caratteristico delle onde vincolate a percorrere una guida d’onda, e non può accadere nello spazio vuoto. 9.4 Relazione di dispersione per una guida d’onda Abbiamo visto che la velocità di gruppo di un’onda elettromagnetica è data da dω/dk. In questo caso, ciò che ci interessa è la velocità di gruppo lungo l’asse z, dunque siamo interessati a dω/dβ. Per ciascun modo m, si avrà un certo θm determinato dalla condizione (9.6), condizione che tuttavia dipende dalla lunghezza d’onda considerata, e quindi dalla frequenza ω. Questo significa che θm = θm (ω), e quindi anche βm = k1 sin (θm ) sarà una funzione βm (ω). Ha quindi senso chiedersi quale sia la sua funzione inversa, detta relazione di dispersione ω(βm ) per ciascun modo m. Un grafico di questa relazione è mostrato in Figura 9.6: 137 Figura 9.6: Relazione di dispersione ω(βm ) per vari modi TEm . La velocità di gruppo dell’onda lungo l’asse z sarà dato dal coefficiente angolare della retta tangente a queste curve. Le curve mostrate portano a due conseguenze immediate. 9.4.1 Dispersione intermodale Se ci si trova in una guida d’onda multimodale, il modo m = 0 si vede dalla Figura 9.6 avere la più bassa velocità di gruppo, mentre il modo più elevato ha la maggior velocità di gruppo. Il motivo di ciò è dato dal fatto che, per modi elevati, la maggior parte del campo si muove all’interno del mezzo con n2 , che è un indice di rifrazione più basso. Questo significa che i diversi modi coesistenti nella guida d’onda impiegheranno tempi differenti per viaggiare lungo un certo tratto della guida. Questo fenomeno è noto come dispersione intermodale. Una diretta conseguenza è che, se si invia un impulso di luce nella guida d’onda, questo impulso sarà composto da un numero infinitamente grande di onde piane associate a infinite frequenze (per le proprietà della trasformata di Fourier). Poiché ciascuna di queste componenti viaggerà a velocità di gruppo differenti, il segnale finale risulterà allargato. Il motivo per cui si cerca una guida d’onda monomodale è dunque per impedire che avvenga il fenomeno della dispersione intermodale. 138 9.4.2 Dispersione intramodale Oltre che al variare del modo considerato, la velocità di gruppo varia anche considerando un singolo modo, in quanto la pendenza della curva associata solo a TE0 varia al variare di ω. Poiché tutte le onde creabili in natura non sono onde piane perfettamente monocromatiche ma pacchetti d’onda formati da più onde piane monocromatiche, anche nel caso di una guida d’onda monomodale si avrà un fenomeno di dispersione dovuto alle differenti velocità di gruppo associati alle differenti componenti della sorgente, noto come dispersione intramodale. La maggior parte dell’energia trasportata dal segnale luminoso sarà allora in ogni caso dissipata dal rivestimento, nel quale tendono a viaggiare le componenti a più bassa frequenza (che penetrano maggiormente nel mezzo). Questo tipo di dispersione non è risolvibile, in quanto è una caratteristica intrinseca alla natura del segnale e dei materiali formanti la guida d’onda. 9.5 Fibra ottica con indice a gradino La fibra ottica con indice a gradino è una guida d’onda dielettrica cilindrica il cui nucleo ha un indice di rifrazione n1 maggiore dell’indice di rifrazione n2 del dielettrico più esterno, noto come rivestimento: Figura 9.7: Una fibra ottica con indice a gradino. Solitamente, il rivestimento è ricoperto di un polimero di protezione. Tutti i ragionamenti per la guida d’onda planare sono simili al caso della fibra, con la differenza che in questo caso la simmetria cilindrica genererà interferenze 139 rispetto a due dimensioni invece che una sola, e quindi le condizioni di interferenza costruttiva saranno due, descritte da due numeri di modo diversi m ed l. Nel caso di fibre debolmente guidanti, cioè quelle fibre ottiche che rispettano la condizione: n1 − n2 1 (9.15) n1 i campi elettromagnetici generati dalle onde che percorrono la fibra sono ortogonali tra loro e alla direzione di propagazione, ma non hanno un’ ampiezza costante per un certo fronte d’onda. Questo tipo di onde sono dette linearmente polarizzate (LP), e possono essere rappresentate con la seguente espressione: ELP = El,m (r, φ) e(ωt−βl,m z)i (9.16) dove El,m è la distribuzione del campo elettrico assunta su un piano ortogonale all’asse z che è propagato lungo la fibra con vettore d’onda lungo z pari a βl,m mediante un’onda piana. Un’immagine di E0,1 (anche detto modo fondamentale) e dell’intensità dei modi di propagazione LP0,1 , LP1,1 ed LP2,1 su un certo piano perpendicolare all’asse della fibra ottica è mostrata in Figura 9.8: Figura 9.8: (a) Distribuzione del campo elettrico su un fronte d’onda nella fibra ottica per il modo fondamentale. (b) Distribuzione dell’intensità del campo elettrico su un fronte d’onda per il modo LP0,1 . (c) Distribuzione dell’intensità per il modo LP1,1 (si notino le due diverse possibilità). (d) Distribuzione dell’intensità per il modo LP2,1 . 140 l’indice l è solitamente noto come numero di modo radiale, e descrive quanto è il contributo della propagazione “fuori asse” dell’onda elettromagnetica (cioè, nella visione “a raggio di luce” del fenomeno, quanti raggi di luce si propagano in modo elicoidale attorno all’asse z senza intersecarlo) per un certo modo di propagazione. Anche per una fibra ottica con indice a gradino è possibile definire un Vnumber, che sarà pari a: V = 2πa q 2 n1 − n22 λ (9.17) dove a è il raggio del nucleo della fibra ottica e λ è la lunghezza d’onda dell’onda viaggiante nella fibra. Quando il V-number è inferiore a 2.405 la fibra diventa monomodale, con solo il modo fondamentale ammissibile nella fibra ottica. Questo tipo di fibre sono dette fibre ottiche monomodali. 9.5.1 Fibra ottica a indice graduato Oltre alla fibra ottica con indice a gradino, esiste anche la fibra ottica con indice graduato, nella quale l’indice di rifrazione viene variato con continuità rispetto alla distanza dall’asse di simmetria del cilindro. In questo modo, la propagazione dei raggi ottici all’interno della fibra non sarà più quella a zig-zag dovuta alle riflessioni totali tra n1 ed n2 , ma sarà un moto similsinusoidale attorno a z: Figura 9.9: Mezzo a indice di rifrazione graduato in cui la traiettoria del raggio di luce è continuamente piegata. il vantaggio della fibra ottica a indice graduato è quello di avere una maggiore apertura numerica (vedi Sezione 9.6), la qual cosa permette non solo un maggior accoppiamento con la luce incidente, ma anche la possibilità di veicolare più potenza tramite il segnale luminoso. Tale tipo di fibra riesce 141 anche a ridurre al minimo la dispersione intermodale, in quanto la velocità dei raggi luminosi non è costante (c/n con n variabile lungo il percorso del raggio), e aumenta quanto più il raggio si allontana dal centro della fibra. Questo significa che i raggi aventi un percorso più lungo viaggiano a velocità maggiore, la qual cosa permette a tutti i raggi di arrivare in un dato punto dell’asse z praticamente allo stesso tempo se la scelta dell’indice di rifrazione graduato è fatta in modo accurato. 9.6 Apertura numerica di una fibra ottica Supponiamo di inviare dei raggi di luce da un mezzo a indice di rifrazione n0 verso l’ingresso di una fibra ottica il cui nucleo ha indice di rifrazione n1 , a diversi angoli α d’incidenza, come in Figura 9.10: Figura 9.10: Figura che mostra il percorso di due diversi raggi di luce, inviati rispettivamente ad un angolo d’incidenza minore del massimo angolo d’accettazione e ad un angolo superiore allo stesso. Non tutti questi raggi potranno essere trasportati all’interno della fibra ottica. In particolare, solamente i raggi che rientrano nel volume di un cono con vertice posto sul punto dell’asse z che giace all’ingresso della fibra ottica potranno subire riflessione totale all’interfaccia tra n1 ed n2 . Gli altri raggi avranno un angolo θ rispetto alla verticale dell’interfaccia più piccolo dell’angolo di Brewsted, e dunque subiranno rifrazione attraverso il rivestimento. 142 Il massimo angolo d’incidenza αmax che permette al raggio di propagarsi all’interno della fibra ottica sarà quello per il quale si ha esattamente θ ≡ θc . Dalla legge di Snell applicata all’interfaccia tra l’esterno ed il nucleo della fibra ottica, si ha: n1 sin (α) n1 sin (i) = = ⇒ π sin (r) n0 n0 sin 2 − θ (9.18) Impongo la condizione di angolo d’incidenza massimo: sin (αmax ) sin π 2 − θc = n1 n0 (9.19) ma: sin (θc ) = n2 ⇒ cos(θc ) = n1 q 1 − sin2 (θc ) = v u u t1 − n22 n21 (9.20) quindi: sin (αmax ) sin π π cos (θ ) sin (θc ) − cos c 2 2 = n1 n1 sin (αmax ) = → → n0 cos (θc ) n0 cos(π/2)=0 → sin (αmax ) = v u n1 u t1 − n0 n22 n21 1 → sin (αmax ) = n0 v u u 2 n21 − n22 tn 1 n2 1 q = n21 − n22 n0 in definitiva, definendo apertura numerica di una fibra ottica la quantità: NA := q n21 − n22 (9.21) il massimo angolo d’accettazione sarà dato da: αmax NA = arcsin n0 ! (9.22) l’apertura angolare del cono d’accettazione sarà 2αmax . Questa quantità è detta angolo totale di accettazione e dipende dall’indice di rifrazione n0 dell’ambiente esterno alla fibra ottica e dall’apertura numerica NA, che è 143 una funzione del materiale della fibra ottica3 . Poiché NA compare anche all’interno della definizione del V-number, possiamo collegare NA con V : V = 9.7 2πa NA λ (9.23) Attenuazione del segnale in una fibra ottica In generale, quando un raggio di luce si propaga in un mezzo, esso si attenua nella direzione di propagazione a causa di un certo numero di processi diversi che dipendono dalla lunghezza d’onda della luce incidente. Supponiamo di avere un pezzo di fibra ottica di lunghezza L che all’ingresso riceve una potenza Pin e all’uscita ne emette una certa frazione Pout < Pin . Per un qualsiasi punto z lungo l’asse di simmetria della fibra, si definisce coefficiente di attenuazione la quantità: α=− 1 dP P dz (9.24) integriamo quindi per ottenere una versione di α dipendente dal ∆P : ˆ L ˆ Pout dP Pout dP →α dz = − → αL = − log α dz = − → P P Pin Pin 0 Pin 1 → α = log (9.25) L Pout Integrando invece da 0 ad una generica coordinata z e da Pin ad una generica perdita di potenza P < Pin , vediamo che: P = Pin e−αz (9.26) dunque α indica proprio quanto velocemente decresce la potenza trasmessa all’interno della fibra ottica. 3 Si noti che questo ragionamento vale rigorosamente solo per i cosiddetti raggi meridionali, cioè quelli che passano esattamente per l’asse di simmetria della fibra ottica. I raggi storti, cioè quelli che non passano per l’asse di simmetria, hanno un angolo di accettazione massimo più ampio. 144 Seppur α viene misurato in m−1 , il coefficiente di attenuazione viene per comodità espresso solitamente in dB km−1 , mediante la relazione: α= Pin 10 log10 L Pout (9.27) Vediamo ora alcune tipologie di attenuazione che contribuiscono al valore del coefficiente di attenuazione in una fibra ottica. 9.7.1 Attenuazione intrinseca Il primo fenomeno di attenuazione possibile è intrinseco al materiale, ed è causato generalmente da due fenomeni: lo scattering Rayleigh a lunghezze d’onda più basse e l’assorbimento da parte delle molecole del cristallo a lunghezze d’onda più elevate. Nel caso dell’assorbimento da parte del cristallo, ciò che accade è che l’energia elettromagnetica viene convertita in vibrazioni del reticolo crisallino dovute all’elasticità dei legami tra silicio e ossigeno, o tra germanio e ossigeno a lunghezze d’onda elevate (> 1.6 µm), mentre l’onda subisce scattering Rayleigh a causa delle variazioni locali dell’indice di rifrazione per colpa delle impurità del cristallo a lunghezze d’onda più basse (< 1.1 µm). A lunghezze d’onda ancora più basse (∼ 500 nm) si ha inoltre un picco di assorbimento dovuto all’assorbimento di fotoni da parte degli elettroni nella banda di valenza del cristallo, che vengono eccitati a livelli energetici superiori. A parte quest’ultimo picco, l’andamento di α con λ è mostrato in Figura 9.11: 145 Figura 9.11: Andamento di α in funzione di λ, per una regione che va tra i 0.6 e i 2.0 µm. Il picco di assorbimento per λ ∼ 500 nm non è mostrato. dalla figura, si notano due picchi di assorbimento per 1.38 µm e 1.24 µm. Questi sono dovuti a causa della presenza di ioni OH− nella struttura del vetro, che subiscono risonanza vibrazionale a queste lunghezze d’onda. In particolare, la seconda armonica ha una lunghezza d’onda caratteristica pari a 1.38 µm che generano il picco più alto, mentre la combinazione di questa con la terza armonica a 0.94 µm (che nelle fibre ottiche buone è trascurabile) generano il picco leggermente più basso a 1.24 µm. Per eliminare questi picchi sarebbe necessario rimuovere le tracce di molecole OH− , che compaiono sia a causa del fatto che nel processo di produzione delle fibre ottiche si utilizza l’acqua, sia a causa del fatto che gli atomi d’idrogeno possono diffondere nella struttura vetrosa ad alte temperature durante la produzione, il che forma legami tra H e Si lasciando un ossidrile OH− libero nella fibra ottica. La rimozione di questi elementi è possibile, ma la loro rimozione completa risulta essere molto difficile. 9.7.2 Perdite per piegatura Ai fattori intrinseci si aggiungono fattori estrinseci che attenuano il segnale. Il più tipico è il cosiddetto bending loss, cioè quei tipi di perdite che accadono quando la fibra ottica viene piegata eccessivamente: 146 Figura 9.12: Forti piegature della fibra ottica variano la geometria locale, generando perdite per piegatura. Quando una fibra ottica viene piegata, la geometria della guida d’onda e il profilo dell’indice di rifrazione variano localmente attorno alla piegatura. Quando un raggio di luce giunge in un luogo di bending, all’improvviso si ritrova ad un angolo d’incidenza θ0 più stretto del normale angolo di riflessione interna θ > θc la qual cosa può generare un’onda rifratta all’interno del rivestimento, che porta via energia all’onda che si propaga nella fibra. Se inoltre la fibra è piegata ad un punto tale che θ0 < θc , allora la riflessione interna totale non avviene e si ha una sostanziale quantità di energia che penetra all’interno del rivestimento, che viene poi dissipata a causa del passaggio nel rivestimento polimerico esterno. Poiché i modi superiori a quello fondamentale sono quelli che tipicamente viaggiano più vicini al rivestimento, le fibre multimodali sono quelle che vengono più afflitte da perdite per bending. 9.8 Fabbricazione della fibra ottica Solitamente la fibra ottica viene fabbricata mediante la tecnica OVD (Outside Vapor Deposition). Il primo passo è quello di preparare una preforma, che è un’asta di vetro che ha il giusto indice di rifrazione (o profilo di indice di rifrazione, nel caso di una fibra a indice graduato) e il minimo quantitativo di impurità possibile. Per fare ciò, si utilizza un’asta di ceramica come 147 struttura portante, che viene costantemente ruotato. Il materiale vetroso richiesto per creare la fibra ottica viene fatto crescere sulla superficie dell’asta depositando mano a mano le particelle di vetro sull’asta rotante. La deposizione avviene bruciando vari gas mediante una torcia a metano, e il vetro si forma direttamente sull’asta come prodotti di reazione, così come mostrato nella seguente figura: Figura 9.13: Formazione della preforma. La fibra ottica è estratta da questa preforma utilizzando il seguente strumento: 148 Figura 9.14: Schema per uno strumento di estrazione per la fibra ottica. la preforma viene spinta verso una fornace, nella quale il vetro inizia a diventare filiforme. Si estrae quindi la punta di questo filo, il cui diametro viene controllato, lo si riveste con il polimero di copertura e lo si avvolge su un rullo di cattura, che raccoglie il prodotto finale. 149 Capitolo 10 Fotorivelatori 10.1 Principi di funzionamento di base dei fotodiodi si definisce fotorivelatore uno strumento che converte la radiazione incidente in un segnale elettrico (tensione o corrente). Il processo mediante cui avviene tale conversione è solitamente quello della creazione di coppie elettrone-lacuna ad opera di un fotone incidente nel mezzo, che eccita un elettrone del materiale formante il fotodiodo (solitamente silicio o germanio) dalla banda di valenza alla banda di conduzione. I fotorivelatori più utilizzati nelle applicazioni di elettronica sono quelli formati a partire da un diodo a giunzione pn, con opportune modifiche per aumentare le prestazioni nell’uso come fotorivelatore invece che come elemento circuitale. La struttura tipica di un diodo a giunzione pn è schematizzata in modo semplificato in Figura 10.1: 150 Figura 10.1: (a) Diagramma schematico di un diodo a giunzione pn polarizzato inversamente. (b) Andamento della densità di carica all’interno della giunzione pn. (c) Andamento del campo elettrico all’interno della giunzione pn. solitamente, si droga in modo molto forte la zona p (che viene indicata con p+ ), in modo che dalla conservazione della carica totale e considerando che il materiale è neutro si abbia: Na Wn − e− Na Wp + e− Nd Wn = 0 ⇒ = (10.1) Nd Wp 151 se dunque Na è molto alto, Wp → 0 e la zona di svuotamento del diodo risulta essere fortemente allargata all’interno della zona n. Il lato che dovrà essere esposto ai fotoni è solitamente dotato anche di un’apertura, circondata da un elettrodo anulare, in modo da permettere ai fotoni di entrare nel dispositivo. Si ricopre inoltre il fotorivelatore di un coating antiriflettente, in modo da ridurre le riflessioni della luce e garantire l’assorbimento dei fotoni da parte del mezzo. Il fotodiodo generalmente opera in polarizzazione inversa. La tensione inversa Vr alza la barriera di potenziale a Vo + Vr , dove Vo è la barriera di potenziale intrinseca presente nel diodo che si instaura per contrastare la diffusione dei portatori maggioritari all’interno del diodo, la qual cosa rende più intenso il campo elettrico che si instaura all’interno della zona di svuotamento del diodo e abbatte la corrente diretta del diodo, lasciando solo quella di diffusione inversa che solitamente è molto bassa. Quando un fotone con un’energia Eγ = hν più elevata del salto energetico Eg necessario per promuovere un elettrone alla banda di conduzione incide sul fotodiodo, esso viene assorbito per generare una coppia elettrone-lacuna, solitamente nella zona di svuotamento. Il campo elettrico E(x) che si instaura all’interno della zona di svuotamento quindi farà driftare la coppia elettrone-lacuna in direzioni opposte, finché non raggiungono le zone neutre esterne alla zona di svuotamento. Questi portatori di carica così generati indurranno una corrente, chiamata fotocorrente (indicata con Iph ), nel circuito esterno collegato alla giunzione, che fornisce il segnale elettrico cercato. Tale fotocorrente dura il tempo necessario alla coppia per raggiungere le zone esterne alla zona di svuotamento, dove poi si ricombineranno con i portatori indotti nel circuito esterno dallo sbilanciamento di carica nel diodo causato dalla creazione di coppie elettrone-lacuna. 10.2 Efficienza quantica e responsività Essendo l’interazione radiazione-materia un processo intrinsecamente stocastico, non tutti i fotoni che incidono nel fotodiodo verranno assorbiti dal mezzo per creare le coppie elettrone-lacuna che generano la fotocorrente. L’efficienza intrinseca del mezzo nel convertire fotoni incidenti in coppie elettronelacuna è quantificata dalla cosiddetta efficienza quantica esterna del rivelatore, definita come: ηe := Ne− ,raccolti Nγ,incidenti 152 (10.2) il numero di elettroni raccolti è legato alla fotocorrente dalla relazione1 : Iph ' |Qtot | Ne− |e− | = t t (10.3) nell’unità di tempo (1 s) quindi, si avrà la relazione: Iph = Ne− ,raccolti e− → Ne− ,raccolti = Iph |e− | (10.4) analogamente, se P0 è la potenza ottica del fascio di fotoni incidente, il numero di fotoni incidenti è legato alla potenza ottica dalla relazione: Nγ,incidenti · Eγ Etot,fascio = t t dunque, per t = 1 s si ha la relazione: P0 ' Nγ,incidenti = P0 P0 = Eγ hν (10.5) (10.6) da cui si può legare l’efficienza quantica esterna alle caratteristiche misurabili del fotodiodo: Iph hν ηe = (10.7) P0 |e− | si noti che, anche i fotoni vengono assorbiti e riescono a generare coppie elettrone-lacuna, non tutte riescono a essere raccolte dagli elettrodi. Alcune coppie scompaiono prima per ricombinazione senza riuscire a generare una fotocorrente, o vengono intrappolate dalle impurità/discontinuità del mezzo. L’efficienza quantica sarà quindi sempre minore di 1, e dipenderà dal coefficiente di assorbimento del fotodiodo. Definiamo inoltre responsività del fotodiodo la quantità: R= Iph P0 (10.8) essa caratterizza le performance del fotodiodo in termini di fotocorrente e potenza ottica del fascio incidente. Dalla definizione di efficienza quantica, si ha: hν |e− | |e− | λ ηe = R − → R = ηe = ηe (10.9) |e | hν hcSi 1 Si noti che non si deve tenere conto della carica delle lacune, in quanto non sono veramente cariche elettriche, quanto “mancanza” di carica elettrica di cui tiene già conto l’elettrone della coppia. 153 dove cSi è la velocità della luce nel mezzo semiconduttore (solitamente silicio). La responsività dunque dipende dalla lunghezza d’onda del fotone incidente. Un grafico di R in funzione di λ è mostrato in Figura 10.2: Figura 10.2: Responsività di un fotodiodo in funzione della lunghezza d’onda. per un fotodiodo perfetto avente efficienza quantica ηe = 1, R(λ) ha un andamento rettilineo fino a λg , oltre il quale l’energia del fotone non è sufficiente a promuovere l’elettrone nella banda di conduzione. Nella pratica, l’efficienza quantica limita la responsività a rimanere al di sotto dell’andamento lineare. Il punto X mostrato in figura, punto in cui la curva R(λ) reale è tangente ad una retta passante per l’origine del grafico, si può dimostrare essere proprio il punto per il quale il fotodiodo lavora ad efficienza quantica massima. L’andamento di R(λ) reale dipende da molti fattori, i più importanti dei quale sono la struttura del dispositivo, il coefficiente di assorbimento α del semiconduttore e l’efficienza quantica del fotodiodo. Per migliorare ulteriormente le prestazioni dei fotodiodi, sono state create varie sottotipologie specializzate. Ne vedremo adesso alcuni tipi. 154 10.3 Fotodiodo PIN Il fotodiodo pn normale ha due problemi principali: il primo è che la capacità equivalente della zona di svuotamento2 di un fotodiodo pn non è sufficientemente piccola da permettere fotorivelazioni ad alte frequenze di rivelazione; il secondo è che la zona di svuotamento è larga circa 1 µm. Questo significa che per fotoni ad alta lunghezza d’onda, per i quali la profondità di penetrazione è maggiore della larghezza della zona di svuotamento, l’assorbimento avviene al di fuori della zona di svuotamento, la qual cosa abbassa drasticamente l’efficienza quantica del dispositivo a queste lunghezze d’onda. Questi problemi sono ridotti dal fotodiodo a giunzione pin. La struttura di un fotodiodo pin è schematizzata in Figura 10.3: 2 Si ricordi che la zona di svuotamento si comporta come un condensatore dalle facce piane e parallele, con capacità associata pari a: C=ε S w (10.10) con S sezione di taglio del diodo e w larghezza della zona di svuotamento. Tipicamente, C ≈ 10 pF nei diodi a giunzione pn. Capacità di questo tipo generano tempi di risposta del dispositivo pari a circa 100 ns. 155 Figura 10.3: (a) Struttura di un fotodiodo pin. (b) Densità di carica di un fotodiodo pin. (c) Campo elettrico all’interno di un fotodiodo pin. (d) Fotodiodo pin in modalità di fotorivelazione (polarizzazione inversa). La differenza principale risiede in uno strato intrinseco interposto tra la zona p+ e la zona n del diodo, a bassissimo drogaggio e dalla larghezza wpin molto ampia (5-50 µm), che allarga di molto la zona di svuotamento del dio156 do, e quindi la zona in cui il campo elettrico necessario per la migrazione delle coppie elettrone-lacuna risiede. Avendo allargato la zona di svuotamento, la capacità della zona di svuotamento associata al fotodiodo pin diminuisce, il che abbatte i tempi di reazione del dispositivo e aumenta la possibilità di catturare fotoni ad alta lunghezza d’onda nella zona di svuotamento, invece che nella zona neutra. Si noti tuttavia che è comunque necessario del tempo affinché le coppie elettrone-lacuna escano dalla zona di svuotamento, tempo che aumenta all’aumentare di wpin . Per diminuire il tempo, è necessario aumentare la velocità di drift, che per gli elettroni e le lacune è data da: ve− = µe− E vl = µl E (10.11) (10.12) dove µe− è la motilità elettronica e µl quella delle lacune (solitamente, µe− > µl ). Questo significa che è necessario avere campi elettrici molto intensi, il che significa che bisogna spingere il diodo in forte polarizzazione inversa, avvicinandosi molto alla sua zona di breakdown. In ogni caso tuttavia, non è possibile eccedere la velocità di 105 m/s, il che limita il guadagno in tempo di risposta del dispositivo. 10.4 Fotodiodo a valanga Lo schema di un fotodiodo a valanga (APD, Avalanche PhotoDiode) è mostrato in Figura 10.4: 157 Figura 10.4: (a) Schema della struttura di un APD in polarizzazione inversa. (b) Densità di carica nell’APD. (c) Campo elettrico all’interno dell’APD. A differenza delle giunzioni pn, in questo caso si hanno tre strati di tipo p, ciascuno con differente livello di drogaggio, affiancati ad un singolo strato n++ ad altissimo drogaggio. Ciò è fatto in modo da modificare la struttura del campo elettrico all’interno del fotodiodo quando esso è posto in condizioni di forte polarizzazione inversa, in modo da differenziare le zone operative del fotodiodo. L’interno del fotodiodo consisterà principalmente in due zone: la prima sarà una zona π ampia con un campo elettrico relativamente basso e costante, associata ad un drogaggio tipo p molto basso, nota come zona 158 di assorbimento. Tale zona si occuperà principalmente di generare singole coppie elettrone-lacuna. Gli elettroni fotogenerati in tale zona vengono poi driftati dal campo elettrico verso la zona n+ (su cui giacciono cariche localizzate positive dopo la ricombinazione dei maggioritari), attraversando necessariamente una zona p con campo elettrico avente elevata intensità, nota come zona di moltiplicazione a valanga. L’aumento del campo elettrico nella zona di moltiplicazione incrementa di molto l’energia cinetica degli elettroni che passano al suo interno, al punto tale da ionizzare alcuni degli atomi di silicio e produrre altre coppie elettrone-lacuna, gli elettroni delle quali a loro volta verranno accelerati generando a cascata un’enorme quantità di coppie elettrone-lacuna. Da un singolo elettrone quindi è possibile generare un gran numero di coppie elettrone-lacuna, le quali contribuiranno alla fotocorrente osservata. Esistono particolari fotodiodi a valanga, noti come SAM APD (Separate Absorption and Multiplication Avalanche PhotoDiode), nei quali le zone di assorbimento e di moltiplicazione a valanga sono completamente separate con materiali diversi, come mostrato schematicamente in Figura 10.5: Figura 10.5: Schema di un SAM APD utilizzante una eterostruttura basata sull’arsenuro di indio e gallio e fosfuro di indio. 159 La separazione avviene mediante le cosiddette eterogiunzioni tra zone di materiale differente, solitamente formate da arsenuro di indio e gallio e fosfuro di indio. In tal modo, i fotoni incidenti sul fotodiodo attraversano lo strato di InP senza essere proprio assorbiti, in quanto l’energia dei fotoni è minore dell’energia di gap dell’InP, venendo invece assorbiti dallo strato di InGaAs. 10.5 Rumore associato a un fotodiodo I fotodiodi sono dispositivi afflitti da rumore abbastanza elevato. Il segnale che un fotorivelatore può rivelare è limitato inferiormente dalle fluttuazioni stocastiche della corrente causate da vari processi casuali all’interno del dispositivo. Per quanto riguarda i fotodiodi a giunzione pn in particolare, anche se ci si trova in polarizzazione inversa continua a esistere una corrente di buio Id causata fondamentalmente dalle coppie elettrone-lacuna generate nella zona di svuotamento per fluttuazioni termiche. Se tuttavia la corrente di buio fosse sempre costante, non ci sarebbero problemi, in quanto basterebbe stimare questo valore e sottrarlo all’output del dispositivo. Ciò che impedisce questo processo è la formazione dei cosiddetti shot noise, cioè fluttuazioni stocastiche rispetto ad Id causate dal fatto che la conduzione della corrente di buio all’interno del fotodiodo è causata da un numero ristretto di cariche discrete. Poiché le cariche sono relativamente poche infatti, ci sarà una distribuzione statistica associata a quando i portatori di carica riescono a raggiungere gli elettrodi, in quanto i portatori di carica discreti arriveranno non in modo continuo, ma discretamente e in tempi casuali3 . Il valore quadratico medio delle fluttuazioni rispetto alla corrente di buio è detto shot noise current, ed è dato da: in,buio = q 2 |e− | B Id (10.13) dove B è la banda in frequenza del fotorivelatore. Per essere rivelato, il segnale deve essere maggiore di in,buio . Un altro tipo di rumore è causato dal fatto che il flusso di luce incidente sul fotorivelatore è formato a sua volta da particelle discrete, che interagiscono 3 Se si considera l’analogia della corrente con un flusso idraulico, in questo caso invece di un flusso liquido continuo attraverso un tubo si ha un flusso discreto di molecole che attraversano il tubo a tempi casuali. 160 stocasticamente con gli elettroni di valenza per produrre coppie elettronelacuna. Questo significa che c’è un’inevitabile fluttuazione nel processo di fotogenerazione di coppie elettrone-lacuna, che si ripercuote su una fluttuazione nella fotocorrente associata al segnale, generando un ulteriore contributo al rumore noto come quantum noise. Tale tipo di rumore è fenomenologicamente equivalente allo shot noise, in quanto anche in questo caso la causa è associabile a particelle discrete; se Iph è la fotocorrente media associata al segnale, il valore quadratico medio delle fluttuazioni rispetto a tale corrente è detto shot quantum noise current, ed è dato da: in,quantum = q 2 |e− | B Iph (10.14) questi due tipi di rumore sono i contributi principali al rumore totale delle giunzioni pn e pin. Poiché questi due processi sono indipendenti e casuali, il valore quadratico medio della shot noise current totale sarà dato dalla somma in quadratura dei due valori quadratici medi: in = q i2n,buio + i2n,quantum = q 2 |e− | B (Id + Iph ) (10.15) associato ad un fotorivelatore, si ha solitamente un circuito amplificatore, sorgente anch’esso di rumore. I rumori tipici del circuito amplificatore sono il cosiddetto Johnson noise, causato da fluttuazioni stocastiche della tensione ai capi di un conduttore ad opera dell’agitazione casuale degli elettroni di conduzione, e lo shot noise del segnale rivelato che abbiamo già discusso. I valori quadratici medi del rumore Johnson e dello shot noise sono dati da: s vJ = q 4kB T B Rs , iJ = in = q 2 |e− | B (Id + Iph ) 4kB T B Rs (10.16) (10.17) dove Rs è la resistenza (o la resistenza equivalente) del conduttore considerato. Questi rumori sono detti rumori bianchi, in quanto agiscono su tutto lo spettro in frequenza, mentre un esempio di rumore associato al circuito amplificatore che agisce solo sulle basse frequenze (rumore rosa) è il cosiddetto flicker noise, cioè una tipologia di rumore ancora non ben compreso presente solo a basse frequenze, causato probabilmente da fluttuazioni termiche che modulano la resistività del conduttore. il valore quadratico medio del flicker noise è dato da: s KB α hii (10.18) if = νn 161 dove K è una costante che dipende dal dispositivo, hii è il valor medio della corrente che attraversa il dispositivo, α ∈ [0.5, 2] e n ∼ 1. Nella realizzazione di circuiti con rivelatori, si definisce rapporto segnale/rumore il rapporto tra la potenza del segnale e la potenza del rumore: SNR := Ps Pn (10.19) nel caso di un fotorivelatore, si avrà semplicemente: SNR = 2 Iph i2n (10.20) dove in è dato dalla (10.15). Si definisce inoltre noise equivalent power la potenza ottica del segnale incidente sul fotorivelatore necessaria per produrre una fotocorrente pari a in ad una certa lunghezza d’onda e per una larghezza di banda in frequenza pari a 1 Hz. Se B è la larghezza di banda effettiva del rivelatore e P1 è la potenza ottica incidente tale che si abbia SNR = 1, allora per definizione: P1 (10.21) NEP := √ B un valore basso di NEP è associato ad una migliore fotorivelazione. Il reciproco del NEP è detto invece detectivity. Si definisce infine noise figure di un amplificatore la quantità (misurata in decibel): NF (dB) := 10 log10 SNRin SNRout consideriamo come esempio il seguente circuito: 162 ! (10.22) Figura 10.6: circuito equivalente a quello di un fotorivelatore che fornisce un segnale vs in output verso un amplificatore reale. Il rumore è modellizzato da una resistenza equivalente Rs , un generatore di corrente di noise in ed un generatore di tensione di noise vn . il SNR del circuito sarà: SNR = vs q B 4kB T Rs + vn2 + (Rs in )2 se si riesce a trasformare Rs nella resistenza ottimale: vn Rs,o = in allora si può dimostrare che NF verrà minimizzato al valore: NFmin = 10 log10 vn2 1+ 2kB T Rs,o (10.23) (10.24) ! (10.25) per trasformare Rs in Rs,o si utilizza solitamente un trasformatore, in quanto si può dimostrare che se α è il rapporto tra il numero di avvolgimenti del secondario ed il numero di avvolgimenti del primario, allora: α2 Rs = Rs,o 10.6 (10.26) Metodi di abbattimento del rumore A causa della presenza del flicker noise, si preferisce solitamente lavorare a frequenze abbastanza elevate affinché il rumore dominante sia quello bianco4 . 4 Bisogna tuttavia fare attenzione a non trasformare il segnale ad una frequenza che sia vicina a quella della linea elettrica, o a quella di sorgenti di rumore note. 163 A questo punto, è possibile utilizzare un certo numero di tecniche per migliorare il segnale ed estrarlo dal mare di rumore tipico dei fotorivelatori. Queste tecniche sono principalmente basate sulla riduzione della larghezza di banda. Poiché la potenza del white noise per unità di larghezza di banda è costante infatti, ridurre la banda ridurrà proporzionalmente la potenza associata al rumore. Vedremo principalmente due tipi di tecniche: l’amplificatore lock-in e l’integratore boxcar. 10.6.1 Lock-in Un tipico sistema di rivelazione ha la forma mostrata in Figura 10.7: Figura 10.7: Tipico sistema di rivelazione e miglioramento del segnale. l’amplificatore lock-in funziona agganciando in fase (da cui il nome) il segnale vs (t) in ingresso con un segnale di riferimento vref (t), solitamente pari ad un’onda quadra con frequenza associata a quella del chopper. Si estraggono poi le componenti di Fourier corrispondenti alle rispettive frequenze fondamentali, e le si inviano ad un primo amplificatore operazionale che ne svolge la moltiplicazione. L’output sarà un prodotto di seni del tipo: vn,1 (t) = V0,ref V0,s sin (ωref t + θref ) sin (ωs t + θs ) = 1 (ω −ωs ) t + θref − θs + = V0,ref V0,s cos ref 2 0 ( " ) ((( ( ( ( (s( −cos [(ω ) t + θref + θs ] (ω ref(+ (((( 0 1 = V0,ref V0,s cos [θref − θs ] 2 164 # = (10.27) dove la parentesi tonda nel primo coseno è nulla perché ωref ≡ ωs , mentre il secondo coseno è nullo perché si può utilizzare un filtro passa-basso per fare una media temporale del segnale. Si ha in definitiva: 1 vn,1 (t) = V0,ref V0,s cos (θref − θs ) 2 (10.28) contemporaneamente, si invia la prima armonica fondamentale del segnale vs (t) ad un secondo amplificatore operazionale che fa il prodotto di questa armonica fondamentale con quella del riferimento sfasata di 90◦ . All’uscita dell’operazionale si avrà allora: 1 vn,2 (t) = V0,ref V0,s sin (θref − θs ) 2 (10.29) a questo punto, operando sui segnali vn,1 e vn,2 è possibile ricostruire il segnale dal mare di rumore. Si portano innanzitutto i due segnali in un circuito operazionale che li eleva al quadrato e li somma, ottenendo così: 2 2 h i (( · V0,s V0,ref 1 2 2(((( 2 2 2 ( ( sin2 (θref − ( θs( )+ cos (θ − θ ) = vn,1 + vn,2 V0,s = V0,ref ( ref s 4 4 (( 1 (((( (10.30) da cui, conoscendo V0,ref , è possibile determinare V0,s . Si portano inoltre i due segnali anche in un circuito in grado di farne il rapporto, in quanto: 1 V0,sV0,ref sin (θref − θs ) 2 1 V 0,s 0,ref cos (θref − θs ) V = tan (θref − θs ) (10.31) 2 da cui è anche possibile determinare θs , essendo noto θref . La diminuzione della banda avviene dal fatto che è stato utilizzato un filtro passa-basso per fare la media temporale. se τ := RC è la costante di tempo del circuito, allora: 1 B= (10.32) 4τ per un singolo passa-basso, e: B= 1 4nτ (10.33) per n passa-basso concatenati con la stessa costante di tempo. Con tale sistema, scegliendo adeguatamente τ è possibile ottenere valori molto piccoli di B. La limitazione del sistema è che, dovendo scegliere τ grandi, il tempo necessario per effettuare la misura aumenta come all’incirca B −1 . 165 10.6.2 Boxcar Quando il segnale da rivelare è un treno di impulsi periodico a basso valore di duty cycle5 , l’informazione associata al segnale è disponibile solo per una frazione infinitesima del tempo totale, mentre il rumore è sempre presente. È tuttavia possibile, mediante circuiti di timing e di gating, connettere il segnale ad un circuito integratore RC solo in quei periodi di tempo in cui il segnale è supposto essere presente. Questo tipo di circuito descrive la struttura generale di un integratore boxcar, cioè uno strumento che permette di integrare il segnale di input solo in certe finestre di integrazione specificate da un impulso di trigger a forma di onda quadra (che somigliano ai vagoni di un treno, da cui il nome “boxcar”). Il principio di funzionamento è basato su due step fondamentali: integrazione del segnale in una certa finestra di tempo e operazione di media del segnale su un certo numero di eventi: 1. Si programma l’interruttore a chiudersi automaticamente per un tempo di gate scelto in modo tale da far passare solo la parte del treno di inpulsi che trasmette l’informazione. 2. Ai capi di C si ha il segnale di carica del condensatore durante tgate , e la tensione tende asintoticamente ad S raggiungendo a t = tgate un certo valore Si vicino ad S. Quando finisce il tempo di gate, il condensatore si scarica e il processo ricomincia. In tal modo si hanno varie “stime” di Si che permettono di determinare il picco degli impulsi, anche se il segnale è immerso nel rumore. Supponendo che τ = RC del circuito sia sufficientemente ampio rispetto al periodo del treno d’onda, la tensione in uscita sarà l’integrale del segnale in ingresso con larghezza di banda pari a: 1 (10.34) B= 4RC l’integrazione del segnale non solo funge da prima operazione di media, ma sopprime anche fortemente il rumore a frequenze pari o superiori al reciproco della larghezza di banda. Si selezionano poi le parti del segnale che effettivamente trasportano l’informazione, e si trascurano tutte le parti del segnale 5 Il duty cycle è definito come la frazione di tempo associata ad un periodo per il quale il segnale di un treno ad impulsi è “alto” (nel senso booleiano del termine). 166 dove è ancora presente il rumore. A questo punto si effettua la media su un certo numero di periodi, in modo tale che il rapporto segnale/rumore sia: S1 + S2 + · · · + Sn SNRn = q N12 + N22 + · · · + Nn2 (10.35) con Ni i-esima istanza del rumore. Dunque: √ hSi nhSi SNRn = q = nq nhN 2 i hN 2 i (10.36) Ma per un singolo impulso, il SNR è: hSi SNR1 = q hN 2 i (10.37) quindi: SNRn √ = n SNR1 ergo all’aumentare di n il SNR migliora. 167 (10.38) Capitolo 11 Dispositivi fotovoltaici 11.1 Principi di base e caratteristica IV del fotovoltaico I fotovoltaici, o celle solari, sono dispositivi che convertono l’energia elettromagnetica irraggiata dal Sole in energia elettrica. Se possiamo approssimativamente modellizzare lo spettro elettromagnetico della radiazione emessa dal Sole con quello di un corpo nero, la radianza spettrale in termini di lunghezza d’onda seguirà il seguente andamento: Bλ (T ) = 1 8πhc 5 λ exp hc − 1 kB T il massimo λmax è a circa 500 nm per lo spettro solare. spostamento di Wien: λmax Teff. = cost. (11.1) Dalla legge di (11.2) si ha una temperatura efficace di circa Teff. = 6000 K. Effettuando una cosiddetta misura ad airmass 0, cioè al di fuori dell’atmosfera terrestre e con il Sole a incidenza perpendicolare sul fotovoltaico, si dovrebbe misurare idealmente una luminosità solare pari a: L = 1353 W/m2 (11.3) La radiazione emessa dal Sole tuttavia viene assorbita in piccola parte dal mezzo interstellare e in gran parte dall’atmosfera terrestre. Si definisce quindi 168 airmass la quantità: AM := 1 cos ξ (11.4) dove ξ è l’angolo di elevazione solare, cioè l’angolo compreso tra la congiungente rivelatore-sole (linea solare) e il piano equatoriale locale. Se la linea solare è ortogonale al piano equatoriale locale, allora ξ = 0 e la misura di luminosità si dice effettuata ad airmass 1, in quanto: AM = 1 =1 cos (0) (11.5) La potenza misurata ad airmass 1 è solitamente inferiore a L , e all’aumentare dell’airmass diminuisce sempre di più. Per questo motivo, si utilizza nei fotovoltaici un inseguitore solare, in modo da mantenere il pannello fotovoltaico ad AM = 1. Esistono vari tipi di fotovoltaici: alcuni tipi contengono dell’acqua all’interno del pannello, che viene riscaldata mediante effetto serra e utilizzata per generare corrente. Altri tipi invece sfruttano gli specchi parabolici per focalizzare i raggi solari verso un cilindro dalla superficie annerita, contenente dei sali la cui temperatura di fusione è di circa 100 ◦ C. L’intensità luminosa risulterà tale da provocare un rapido aumento di temperatura all’interno della ceramica, che fa fondere il sale. Esso verrà quindi convogliato ad un impianto di circolazione, generando corrente elettrica. Esistono anche impianti fotovoltaici a forma di torre, contenente degli specchi alla loro base. La radiazione solare viene convogliata dagli specchi verso la cima della torre, su cui si trova un ricevitore. Tutti questi modelli di fotovoltaico funzionano trasformando l’energia elettromagnetica proveniente dal Sole in energia termica. È tuttavia possibile utilizzare anche rivelatori a semiconduttore per svolgere la conversione, solitamente convertendo la radiazione incidente in coppie elettrone-lacuna, che successivamente passeranno attraverso un circuito di carico per generare lavoro elettrico. Un modello schematizzato della cella fotovoltaica a semiconduttore è mostrato in Figura 11.1: 169 Figura 11.1: Tipica cella fotovoltaica a giunzione pn. Gli elettrodi posizionati sulla zona n devono permettere l’ingresso dei fotoni, e allo stesso tempo fungere da resistenza in serie abbastanza piccola da non dissipare troppa energia: essi vengono dunque strutturati a forma di “spina di pesce”. Lo strato viene quindi ricoperto da 2 strati di coating antiriflettente, in modo da ridurre significativamente la riflettanza associata all’interfaccia aria-semiconduttore. Solitamente, la zona n della giunzione è molto stretta, in modo da permettere alla maggior parte dei fotoni di essere assorbiti nella zona di svuotamento e nella zona tipo p sottostante. La fotogenerazione delle coppie elettronelacuna avverrà quindi in queste due zone principalmente, e il campo elettrico creato dalla zona di svuotamento sposterà rispettivamente gli elettroni verso la zona n e le lacune verso la zona p. Se la cella fotovoltaica è a circuito aperto, allora semplicemente le coppie elettrone-lacuna migrate ai bordi del fotovoltaico genereranno una tensione di circuito aperto Voc che si opporrà alla migrazione di altre coppie elettrone-lacuna, controbilanciando la fotocorrente Iph mediante un campo elettrico che si oppone a quello prodotto dalla zona di svuotamento. La cella a questo punto si troverà in equilibrio e non passerà più corrente. Se invece si effettua un corto circuito del fotovoltaico, allora V = 0 ma la fotogenerazione di coppie elettrone-lacuna ad opera della radiazione solare continua, producendo una fotocorrente di corto circuito |Iph | creata dal moto di elettroni che, migrando verso la zona n, passano nel corto circuito e si 170 ricombinano con le lacune in eccesso nella zona p. Essendo la corrente convenzionale opposta al moto degli elettroni, si ha −Iph diretta quindi in modo opposto al segno convenzionale del diodo a giunzione pn. Se infine si collega un carico R alla cella fotovoltaica, si avranno due correnti: la fotocorrente Iph che si muove sempre in modo opposto al segno del diodo, e una corrente di diodo Idiodo che si viene a creare in quanto l’eccesso di elettroni nella zona n e l’eccesso di lacune nella zona p creano una differenza di potenziale V che polarizza il diodo in modo diretto. Le 3 differenti possibilità sono mostrate in Figura 11.2: Figura 11.2: (a) Circuito equivalente ad una cella fotovoltaica a circuito aperto. (b) Circuito equivalente ad una cella fotovoltaica in corto circuito. (c) Circuito equivalente ad una cella fotovoltaica collegata ad un carico R. A questo punto possiamo analizzare le caratteristiche IV del fotovoltaico. Se la cella fotovoltaica è oscurata dalla radiazione incidente, si avrà una caratteristica amperovoltmetrica di buio data semplicemente dalla caratteristica I/V del diodo normale: |e− | V exp ηkB T " Icella ≡ Idiodo = Is ! # −1 (11.6) dove Is è la corrente inversa di saturazione del diodo ed η è il fattore di merito del diodo, compreso solitamente tra 1 e 2. Se invece si espone la cella fotovoltaica alla corrente, si avrà uno shift della caratteristica I/V del diodo verso il basso, di una quantità pari a |Iph |. Infatti: |e− | V exp ηkB T " Icella = Idiodo − Iph = −Iph + I0 171 ! # −1 (11.7) Si noti che Iph varia a seconda di quanto vale la luminosità L ricevuta dalla cella fotovoltaica, mediante la relazione: Iph = KL (11.8) dove K è una costante specifica del dispositivo. Questo significa che, al variare della luminosità, si avrà un fascio di caratteristiche I/V della cella solare che dipenderanno dalla corrente Iph , come mostrato in Figura 11.3: Figura 11.3: Caratteristiche I/V della cella solare per diversi valori di luminosità. La prima curva è la curva di buio, la seconda è quella corrispondente a L = 400 W m−2 e la terza è quella corrispondente a L = 800 W m−2 . 11.2 Retta di carico e fill factor Trovata la caratteristica amperovoltmetrica, vogliamo capire una volta connesso un carico R a che tensione e a che corrente si stabilizza il circuito, cioè trovare il cosiddetto punto di lavoro. Riferendoci al circuito (c) della Figura 11.2, è evidente che per trovare i valori I 0 e V 0 che effettivamente si instaurano nel circuito bisogna risolvere simultaneamente le equazioni: |e− | V exp ηkB T " I = −Iph + Is I V =− R 172 ! # −1 (11.9) dove il segno nella legge di Ohm è negativo in quanto nel circuito la corrente totale sta scorrendo da una zona a potenziale più basso verso una zona a potenziale più alto. Per fare ciò solitamente si procede per via grafica, costruendo una retta di carico come quella mostrata in Figura 11.4: Figura 11.4: Retta di carico per trovare il punto di lavoro in un circuito con cella fotovoltaica connessa ad un carico R da 15 Ω. Dalla figura, si vede che la retta di carico è una retta passante per l’origine e con pendenza pari a −1/R. il punto di lavoro sarà l’intersezione della retta di carico con la caratteristica I/V del fotovoltaico, cioè il punto P della figura. Una volta trovato il punto di lavoro, la potenza trasferita al carico dal fotovoltaico sarà pari a: Pout = I 0 V 0 (11.10) la potenza massima si ottiene quando si massimizza tale prodotto, che corrisponde graficamente al massimizzare l’area rettangolare compresa tra le linee tratteggiate della Figura 11.4, cambiando la resistenza R o l’intensità dell’illuminazione che giunge sul fotovoltaico. la potenza massima si ha per: Pmax = Isc Voc (11.11) dove Isc = Iph è la corrente di cortocircuito nel circuito (cioè quella che si ha per V = 0) mentre Voc è la tensione a circuito aperto che si ha ai capi della cella solare. Ha senso quindi comparare Pout con Pmax mediante la quantità nota come fill factor: I 0V 0 Pout = (11.12) FF := Pmax Isc Voc 173 il fill factor è una misura di quanto sia vicina la caratteristica I/V della cella solare al caso ideale. Valori tipici del fattore di fill sono compresi tra il 70% e l’85%, e dipendono dalla struttura del dispositivo. Solitamente, si ha Pout massimizzato quando il punto di lavoro si trova attorno al “ginocchio” della caratteristica I/V del fotovoltaico. 11.3 Circuiti equivalenti del fotovoltaico Le celle fotovoltaiche reali possono deviare sostanzialmente dal modello ideale studiato finora. Innanzitutto, il trasporto di elettroni all’interno dello strato n per raggiungere l’elettrodo non avviene senza impedenza nel mezzo: questo introduce una resistenza in serie effettiva Rs di cui bisogna tenere conto quando si modellizza il fotovoltaico1 . Una piccola frazione dei portatori di carica fotogenerati inoltre possono fluire attraverso le superfici del cristallo (cioè i bordi del dispositivo) o essere intrappolati nelle impurità del materiale, invece di procedere attraverso il circuito. Questi effetti possono essere tenuti in conto inserendo nel modello anche una resistenza di shunt Rp . In definitiva, un modello più realistico di cella fotovoltaica è rappresentata in Figura 11.5: 1 Ci dovrebbe teoricamente essere anche una resistenza in serie dovuta alla zona p, ma solitamente questa è piccola e si trascura. 174 Figura 11.5: Un modello equivalente della cella fotovoltaica, mostrata nel riquadro tratteggiato, in serie ad una resistenza di carico RL . Il circuito nel riquadro grigio è il modello ideale di fotovoltaico visto nella sezione precedente. Il risultato di tutto ciò è una modifica della caratteristica I/V del fotovoltaico, che diventerà: ( I = −Iph + Is V |e− | (V − Rs I) − 1 + exp ηkB T Rp # " ) (11.13) nella pratica, ciò che cambia è che la resistenza Rs sposta il ginocchio della curva verso l’origine del piano I/V, riducendo la potenza emessa dal dispositivo e quindi limitandone le prestazioni. La resistenza di shunt inoltre, se bassa, riduce il valore di Voc , che a sua volta inficia le prestazioni del dispositivo. 11.4 caratteristiche costruttive dei fotovoltaici Solitamente, per creare le celle solari si utilizza il cosiddetto silicio amorfo, cioè silicio avente un reticolo cristallino fortemente disordinato. Seppur 175 questo tipo di materiale fa crollare l’efficienza del fotovoltaico, essa rimane comunque attorno al 13%, in quanto la scelta del silicio amorfo aumenta il numero di fotoni che generano coppie elettrone-lacuna, perché questo tipo di materiale ha la capacità di catturare fotoni principalmente associati alle lunghezze d’onda del visibile. Un’altra scelta è il silicio policristallino, che produce efficienze tra il 13 ed il 30%. Ci sono due possibilità per aumentare ancora di più l’efficienza. La prima è quella di utilizzare il cosiddetto fotovoltaico a convergenza, in cui si utilizza una lente convergente per focalizzare la luce sulla cella fotovoltaica direttamente. Questo approccio però ha come svantaggio il fatto che la cella viene posta sotto fortissimo stress termico, il che rischia di rompere il dispositivo. La ricerca in anni recenti ha portato allo sviluppo delle cosiddette celle tandem, anche note come celle solari a eterogiunzione. Questi tipi di fotovoltaici utilizzano due o più celle solari “in tandem” (cioè una in cascata ad un’altra), per aumentare la probabilità di assorbire fotoni incidenti sul dispositivo. La prima cella è caratterizzata da una certa energia di gap tra banda di valenza e banda di conduzione pari a Eg,1 , mentre la seconda cella ha un’energia di gap più piccola e pari a Eg,2 . La prima cella assorbirà solo fotoni con Eγ > Eg,1 , mentre la seconda cella assorbirà tutti i fotoni che sfuggono alla prima cella, e aventi energie Eγ > Eg,2 . Le due celle devono inoltre essere connesse, in modo da permettere il passaggio dei portatori di carica. Ciò si realizza utilizzando una sottilissima giunzione pn tra le due celle, che funge da “giunzione di tunnel” tra le due celle, attraverso cui i portatori di carica possono passare. La migliore efficienza è stata prodotta con un fotovoltaico a celle tandem formato da 3 giunzioni, mostrato schematicamente in Figura 11.6: 176 Figura 11.6: Cella solare tandem. la prima cella è formata da fosfuro di indio e gallio, avente Eg,1 ≈ 1.95 eV. La seconda è formata da arsenuro di gallio, con Eg,2 ≈ 1.42 eV. La terza è infine formata da germanio puro, con Eg,3 ≈ 0.66 eV. L’efficienza raggiunta da questo dispositivo nella pratica è pari al 29.5%. 177 Capitolo 12 Rivelatori termici I rivelatori termici sono particolari tipi di fotorivelatori basati sulla rivelazione di variazioni di temperatura indotte dall’assorbimento di radiazione elettromagnetica. I rivelatori termici hanno in principio una detectivity (D := 1/NEP) che è indipendente dalla lunghezza d’onda della luce incidente, anche se alcune proprietà assorbenti delle superfici del rivelatore mostreranno leggere dipendenze funzionali di D da λ. La necessità di avere finestre protettive su alcuni elementi del rivelatore inoltre limita la banda di risposta di questi tipi di rivelatori; in ogni caso, la maggior parte dei rivelatori termici mostra risposte anche per lunghezze d’onda nell’infrarosso spinto, perfino operando a temperatura ambiente. Le funzioni D(λ) per i tipi di rivelatori termici che studieremo sono mostrate in Figura 12.1: 178 Figura 12.1: Detectivity in funzione della lunghezza d’onda per vari tipi di rivelatori termici. Sono mostrate anche in parentesi la temperatura operativa e la frequenza di modulazione. Dal dominio di queste curve è possibile capire la banda di funzionamento in lunghezza d’onda dei rispettivi strumenti. Vediamo ora alcuni tipi di rivelatori termici. 179 12.1 Bolometri In generale, la resistenza di un solido varia con la temperatura mediante una relazione del tipo: R(T ) = R0 [1 + γ (T − T0 )] (12.1) in quanto nei metalli, all’aumentare della temperatura, aumenta anche la resistività (mentre nei semiconduttori è il contrario). Un bolometro è uno strumento costruito da un materiale con un valore molto elevato di γ. La radiazione incidente riscalda il bolometro, e ne varia la resistenza. Il tempo di risposta di questi strumenti è abbastanza lungo (più di 1 ms), ma possono operare a lunghezze d’onda fino addirittura a 1000 µm. Esistono anche bolometri a semiconduttore, chiamati termistori, che fungono da elementi circuitali e che ormai hanno sostituito quasi completamente i bolometri a metallo. Per funzionare hanno bisogno di un circuito di bias, in quanto la loro caratteristica voltamperometrica mostra pendenza negativa per valori di I che superano una certa soglia (vedi Figura 12.2), il che può resistenza portare il termistore a generare processi di autoriscaldamento distruttivo se negatila corrente che fluisce al suo interno è troppo elevata. va? Figura 12.2: Caratteristiche voltamperometriche di alcuni termistori. 180 12.2 Rivelatori piroelettrici i rivelatori piroelettrici sfruttano la proprietà di particolari cristalli asimmetrici (quelli che posseggono un dipolo elettrico intrinseco) di mostrare variazioni della carica superficiale in risposta ad un gradiente di temperatura. I materiali cristallini vengono posti come dielettrico all’interno di un condensatore, e la variazione di carica superficiale viene misurata come variazione di tensione ai capi del condensatore quando il cristallo viene irraggiato dalla radiazione elettromagnetica. A causa del fatto che le variazioni avvengono solo con i gradienti di temperatura, questi dispositivi sono inerenti rivelatori in corrente alternata. Per una risposta ottimale, bisogna inserire il rivelatore piroelettrico come elemento circuitale in ingresso ad un amplificatore a bassa impedenza di ingresso e bassa impedenza di uscita. Operando sui transienti, questi strumenti hanno solitamente brevissimi tempi di risposta, operando con frequenze da pochi Hz fino a 100 GHz. 12.3 Cella di Golay La cella di Golay è un rivelatore termico avente la struttura mostrata in Figura 12.3. La radiazione incidente viene assorbita da una sottile pellicola di metallo che forma un lato di una camera sigillata contenente xenon (utilizzato a causa della bassa conducibilità termica), che inizia a riscaldarsi in risposta all’assorbimento della radiazione. Un’altra parete della camera è formata da una membrana flessibile, che si muove al riscaldarsi dello xenon. La variazione della tensione della membrana è utilizzata per variare la quantità di luce che, inviata da un led verso la membrana, viene riflessa verso un fotorivelatore. La variazione di intensità luminosa raccolta dal fotorivelatore sarà convertita in un segnale V (t, T ) che rivelerà la radiazione elettromagnetica incidente. 181 Figura 12.3: Struttura tipica di una cella di Golay. Seppur questo tipo di rivelatore è molto fragile, esso risulta essere anche molto sensibile ed è utilizzato solitamente per la spettroscopia nell’infrarosso spinto. 12.4 Termocoppie e termopile Le termocoppie, sono rivelatori termici che sfruttano l’effetto Seeback1 , per il quale una differenza di temperatura ai capi di una giunzione formata da due metalli dissimili induce una differenza di potenziale elettrico attraverso la giunzione stessa. Solitamente, oltre alla termocoppia “illuminata” si aggiunge una termocoppia “al buio” di riferimento, in modo da compensare per variazioni della temperatura ambientale circostante il circuito. Più termocoppie in parallelo formano le cosiddette termopile. Poiché la termopila ha un’impedenza di uscita molto bassa, il segnale in uscita è solitamente una variazione di tensione ∆V (associata alla variazione di 1 L’opposto dell’effetto Seeback è l’effetto Peltier, mediante il quale è possibile generare una differenza di temperatura ponendo due metalli diversi connessi tra loro a tensione diversa. Questo effetto si usa per costruire le cosiddette celle Peltier, che vengono usate per raffreddare limitatamente alcuni oggetti. Il problema principale delle celle Peltier è che all’aumentare di ∆T e delle dimensioni dell’oggetto da raffreddare aumentano i contributi associati al riscaldamento per effetto Joule ed al calore trasmesso per conduzione, il che rende il raffreddamento mediante cella peltier molto inefficiente per grossi oggetti. 182 temperatura ∆T ) molto piccola. Ciò che si fa è quindi usare dei trasformatori e degli amplificatori operazionali per migliorare il segnale in uscita. Un esempio di tale circuito è mostrato in Figura 12.4. Figura 12.4: Circuito operativo per una termopila. 183