Appunti di Fisica Ambientale Per la classe quarta dell’articolazione di Biotecnologie Ambientali degli Istituti Tecnici Alessandro Ciucci [email protected] Luce Ottica Energia solare Elettromagnetismo CLIL “the optics of rainbow” 1 Introduzione Questi appunti sono la prosecuzione del percorso di Fisica Ambientale iniziato nella classe terza dove, a partire dalle nozioni di fisica generale appresi nel biennio, sono stati approfonditi alcuni argomenti specifici (trasmissione del calore e termodinamica) e altri sono stati introdotti come nuovi (fisica dell’atmosfera, le onde, il suono). A fine di ogni modulo è stato affrontato un tema specifico ambientale come competenza da acquisire in capo ambientale (la trasmittanza termica e il risparmio energetico, il funzionamento delle pompe di calore, la dispersione di inquinanti, le onde sismiche, il rumore). In questa seconda parte saranno affrontati i seguenti argomenti: - Ottica geometrica e ondulatoria e funzionamento dei principali strumenti (telescopio, microscopio, spettrometro Onde elettromagnetiche, generazione propagazione e assorbimento. Inquinamento elettromagnetico Sistemi energetici rinnovabili (energia solare). In preparazione alla classe quinta saranno introdotto un argomento in lingua inglese da affrontare con metodologia CLIL (Content and Language Integrated Learning) e anche una delle verifiche sarà svolta mediante una esposizione orale con ausilio di slide e/o altri strumenti multimediali. Ciascun argomento è affrontato con il duplice obiettivo di offrire un compendio di conoscenze di fisica specifico del settore e fornire gli strumenti interpretativi di alcune problematiche ambientali di rilievo. 2 Argomenti: - - Strumenti matematici o Le funzioni goniometriche o La funzione esponenziale o I logaritmi Ottica o Natura della Luce o Misura della velocità della luce o Propagazione della luce Riflessione Rifrazione o Ottica geometrica Specchi piani e sferici Diottro sferico Lenti sottili Sistemi ottici (microscopio e telescopio) o Ottica ondulatoria Dispersione della luce: il prisma - - - Diffrazione e interferenza Polarizzazione Equazioni di Fresnel Intensità della luce e assorbimento Funzionamento di uno spettrometro Elettromagnetismo o Le grandezze elettriche o Richiami circuiti in CC Circuito RC Circuito RL Circuito RCL o Sorgenti di Onde EM Lo spettro EM o Energia delle onde EM Misure di campo elettrico e di campo magnetico o Inquinamento EM Fonti ambientali di radiazione EM Effetti biologici della radiazione EM Energia solare o Solare termico o Fotovoltaico CLIL o Rainbow 3 Funzioni goniometriche Consideriamo un triangolo rettangolo come in figura: c b a Chiamiamo i cateti a e b, l’ipotenusa c. Chiamiamo l’angolo opposto al cateto a. Definiamo delle funzioni che dipendono solo dall’angolo SEN() = a/c (si legge “seno di alpha”, sulla calcolatrice è il tasto “SIN”) COS() = b/c (si legge “coseno di alpha”, sulla calcolatrice è il tasto “COS”) TAN() = SEN()/COS() = a/b (si legge “tangente di alpha”, sulla calcolatrice è tasto “TAN”) Il seno di un angolo è il rapporto tra il cateto che sta davanti all’angolo e l’ipotenusa, il coseno di un angolo è il rapporto tra il cateto adiacente all’angolo e l’ipotenusa. La tangente di un angolo è il rapporto tra il cateto opposto all’angolo e quello adiacente Calcolare il seno e il coseno di un angolo è un operazione che non si può fare a mente, i calcoli sono semplici solo in alcuni casi particolari, per questa ragione si ricorre alle calcolatrici tascabili oppure alle applicazioni di calcolo per personal computer o telefono, in passato si usavano delle tavole. I valori del seno e del coseno un angolo sono sempre compresi tra -1 e +1. Di seguito si riporta una tabella riassuntiva dei valori per i principali angoli compresi tra 0° e 180° ANGOLO gradi 0° 30° 45° 60° 90° 120° 135° 150° 180° radianti 0 /6 /4 /3 /2 /3 /4 /6 SEN() esatto 0 1/2 √2/2 √3/2 1 √3/2 √2/2 1/2 0 SEN() approssimato 0 0.5 0.707 0.866 1 0.866 0.707 0.5 0 COS() esatto 1 √3/2 √2/2 1/2 0 -1/2 -√2/2 -√3/2 -1 COS() TAN() approssimato 1 0.866 0.707 0.5 0 -0.5 -0.707 -0.866 -1 TAN() approssimato 0 √3/3 1 √3 non def. −√3 -1 -√3/3 0 0 0.577 1 1.732 -1.732 -1 -0.577 0 (notiamo che la funzione SENO è crescente tra 0° e 90°, decrescente tra 90° e 180°, sempre positiva. La funzione COSENO è sempre decrescente tra 0° e 180°, positiva tra 0° e 90°, negativa tra 90° e 180°. Vale per ogni angolo l’identità goniometrica 𝑆𝐸𝑁 2 (𝛼) + 𝐶𝑂𝑆 2 (𝛼) = 1 ) Nella tabella gli angoli sono espressi nei gradi sessagesimali (i normali gradi ai quali siamo abituati) e in radianti, quest’ultimo modo di esprime gli angoli è diffuso in ambiente scientifico, in radianti l’angolo piatto vale (pi greco = 3.1459….). Le formule necessarie per fare la conversione da una scala all’altra sono: (angolo in gradi) = (angolo in radianti) × 180 𝜋 4 𝜋 (angolo in radianti) = (angolo in gradi) × 180 Per calcolare il valore delle funzioni SEN e COS (sulla calcolatrice sono SIN e COS) dobbiamo verificare la modalità di espressione dell’angolo. Per usare i normali gradi è necessario che sul display ci sia una scritta “DEG” o la semplice lettera “D”, per i radianti ci deve essere la scritta “RAD” o la lettera “R”. C’è poi una terza modalità di esprimere gli angoli (angolo retto = 100) detta “gradi centesimali”, in questo caso ci sarà la scritta “GRAD” o la lettera “G”. Per passare da una modalità all’altra è necessario usare il tasto “DRG” (Deg – Rad – Grad). L’utilizzo delle funzioni goniometriche in geometria permettere di “risolvere” un triangolo rettangolo conoscendo un lato e un angolo (che non sia quello retto) piuttosto che due dei tre lati. Sfruttando la definizione data all’inizio e potendo ricavare il valore delle funzioni SEN e COS con un calcolatore o con le tabelle, è possibile determinare i cateti conoscendo l’ipotenusa: a = c x SEN() b = c x COS() oppure l’ipotenusa conoscendo uno dei due cateti: c = a / SEN() c = b / COS() L’utilità pratica delle funzioni goniometriche è legata al fatto che spesso è più semplice misurare un anglo piuttosto che una distanza. Le misure degli angoli si fanno con strumenti ottici h Come esempio di applicazione vediamo come sia possibile misurare l’altezza di un edificio. Si misura la distanza dalla base dell’edificio d e a quella distanza si misura sotto quale angolo è visibile la l’altezza dell’edificio. L’ipotenusa c sarà c = d/COS(), mentre l’altezza h = c SEN() d Nel caso non sia possibile misurare la distanza dalla base dell’oggetto di cui si intende misurare l’altezza h si procederà in due fasi. Dopo una prima misura di angolo 1, si avanzerà di un tratto d e si farà una seconda h misura di angolo 2. Per determinare l’altezza h sono necessari i seguenti passaggi: c1 = h/SEN(1), c2 = h/SEN(2). Osserviamo che la d distanza d è la differenza tra i cateti adiacenti agli angoli che si ottengono moltiplicando l’ipotenusa per il coseno. d = c1COS(1)-c2COS(2). Sostituendo i valori di c1 e c2 si ha: 𝑑=ℎ 𝐶𝑂𝑆(𝛼1 ) 𝑆𝐸𝑁(𝛼1 ) −ℎ 𝐶𝑂𝑆(𝛼2 ) 𝑆𝐸𝑁(𝛼2 ) , quindi per h avremo: ℎ = 𝑑 𝐶𝑂𝑆(𝛼1 ) 𝐶𝑂𝑆(𝛼2 ) − 𝑆𝐸𝑁(𝛼1 ) 𝑆𝐸𝑁(𝛼2 ) 5 Facciamo un esempio numerico: Utilizzando i dati nella figura otteniamo: ℎ= 2 = 30° = 20° 𝑑 𝐶𝑂𝑆(𝛼1 ) 𝐶𝑂𝑆(𝛼2 ) − 𝑆𝐸𝑁(𝛼1 ) 𝑆𝐸𝑁(𝛼2 ) 90.0 = 0.940 0.866 − 0.342 0.500 = 90.0 2.75− 1.73 = 88 𝑚 1 d = 90.0 m Se il lettore ha riconosciuto la figura, sa anche che si tratta di una misura più che realistica. Le misure ottiche di angoli di elevazione posso essere fatte con semplicissimi strumenti (anche fatti in casa) come quello descritto nella figura sottostante Un semplice strumento per misurare l'altezza angolare (angolo rispetto al piano orizzontale) di un oggetto celeste. Un cartoncino a forma di quarto di cerchio su cui è riportato un goniometro, nel centro è attaccato un sottile filo con un “pesetto”, su un piccolo tubo (cannuccia) che fa di mirino. L’angolo che il tubo fa con il piano orizzontale è uguale a quello che il filo (sempre verticale per via del peso) fa con l’altro lato del goniometro. Ecco come appare il grafico delle funzioni SENO e COSENO con gli angoli espressi rispettivamente in gradi sessagesimali e radianti Alcune considerazioni sui piccoli angoli L’utilità di esprimere gli angoli in radianti risiede nella proporzionalità diretta tra arco ed angolo che si esprime attraverso il raggio Arco = angolo x raggio. Se gli angoli sono piccoli (inferiori a 5° e quindi inferiori a 5/180 = 0,087 rad) il seno è praticamente indistinguibile dall’angolo stesso (poiché il seno rappresenta la corda, per angoli piccoli corda e arco sono molto simili), infatti sen(0,087) = 0,087 (la differenza è sulla quarta cifra dopo la virgola), in questi limiti il coseno è circa uno. Per cui, per angoli inferiori a 5° si ha 6 sin 𝜗 ≅ 𝜗 cos 𝜗 ≅ 1 tan 𝜗 ≅ 𝜗 La funzione Esponenziale Abbiamo familiarità con il concetto di elevamento a potenza di un numero intero, scrivere 3 4 significa che il dobbiamo moltiplicare i numero quattro volte per se stesso, 3 4 = 81. Non è difficile pensare a nemmeno a 34.5, sarà un qualcosa di intermedio tra 34 e 35 (infatti 34.5 = 140.3, 35 = 243). Se raffiniamo questo ragionamento possiamo pensare ad un numero intero elevato ad un esponente che sia, in generale, un numero reale (non necessariamente intero e non necessariamente un numero originato da una frazione) 3 . Ma lo stesso ragionamento lo possiamo portare a pensare ad un numero reale elevato ad un esponente che sia anch’esso reale. Questa funzione è spesso riportata nelle calcolatrici tascabili o nelle applicazioni da PC, smartphone e altro con il tasto xy. . Tra tutte le possibili basi x assume particolare importanza quella che usa il numero e, detto numero di Eulero (o numero di Nepero). Tale numero (come è irrazionale e vale approssimativamente 2,71828. Pertanto il grafico della funzione ex sarà compreso (per x > 0) tra quello di 2x e quello di 3x. L’importanza di questa funzione in fisica è grandissima perché ogni volta che la variazione temporale dell’intensità di un fenomeno risulta essere proporzionale all’intensità stessa del fenomeno, si ha che l’andamento nel tempo è descritto dalla funzione esponenziale (crescente o decrescente). In fisica, sono descritti da esponenziali le leggi del decadimento radioattivo, la distribuzione delle particelle in relazione all’energia e alla temperatura, ma anche l’andamento della velocità di un corpo soggetto al peso e ad una forza di attrito viscoso proporzionale alla velocità. Di una certa importanza è anche la funzione y = xe-x, il cui grafico è riportato nella figura sottostante solo per i valori di x > 0. 7 y = xe-x 0.5 0.4 0.3 0.2 0.1 0 0.0 1.0 2.0 3.0 4.0 5.0 6.0 7.0 8.0 Tale funzione passa dall’origine e va asintoticamente a zero per x tendente all’infinito, essendo una funzione continua essa ha almeno un massimo (1; 1/e). Anche l’integrale indefinito (cioè l’area individuata dalla funzione e dall’asse x estesi all’infinito) ha un valore “finito” uguale a 1. I Logaritmi Abbiamo tutti una certa familiarità con la seguente espressione 23 = 8, si impara nella scuola primaria che l’espressione precedente è equivalente a 23 = 2 ∙ 2 ∙ 2 = 8, di questa scrittura 3 sappiamo fare anche il procedimento inverso, possiamo scrivere cioè √8 = 2, esiste una diversa domanda legata a questa espressione e cioè: quale esponente devo applicare al numero 2 per ottenere 8? La risposta alla domanda la si ottiene con i Logaritmi. Possiamo scrivere log 2 8 = 3 Si legge: il logaritmo in base 2 di 8 è uguale a 3. Il numero 2 è chiamato base del logaritmo, il numero 8 è l’argomento. L’argomento deve essere necessariamente un numero maggiore di zero. I logaritmi hanno alcune importanti proprietà che rendevano il loro uso indispensabile prima dell’avvento dei calcolatori elettronici: log 𝑎 ( 𝑏 ∙ 𝑐) = log 𝑎 𝑏 + log 𝑎 𝑐 (trasforma il prodotto in una somma) log 𝑎 𝑏 𝑐 = c ∙ log 𝑎 𝑏 (porta fuori l’esponente, riduce il grado) log 𝑎 𝑏 = log𝑐 𝑏 log𝑐 𝑎 (cambio di base) Tali proprietà, che non dimostriamo, sono dirette conseguenze delle proprietà delle potenze. Tra tutte le possibili basi hanno particolare importanza la base 10 e la base e. Le calcolatrici tascabili riportano queste operazioni con i tasti Log e ln . La funzione ln è detta logaritmo naturale (e in analisi matematica semplicemente logaritmo). Notiamo che la funzione ln(x) è la funzione inversa di quella esponenziale. Le applicazioni dei logaritmi sono molteplici, dalla fisica all’elettronica, spesso legate alla prima proprietà illustrata. 8 Facciamo un esempio. Si deve eseguire la seguente moltiplicazione 1.234 x 5.678, senza la calcolatrice ma con la possibilità di usare una tabella di logaritmi. Inizieremo osservando che log (1.234 × 5.678) = log (1.234) + log (5.678) = 0.0913 + 0.7524 = 0.8455 Quindi il risultato della moltiplicazione sarà 1.234 × 5.678 = 100.8455 = 7.006 che possiamo ottenere usando la tabella al contrario. Se lo confrontiamo con il risultato “esatto” troviamo 1.234 × 5.678 = 7.007, una discrepanza più che accettabile se confrontata con la necessità di fare una moltiplicazione (in colonna) di due numeri di 4 cifre ciascuno. Log10(x) 1.50 1.20 0.90 0.60 0.30 0.00 -0.30 0 -0.60 -0.90 -1.20 -1.50 1 2 3 4 5 Una importante applicazione dei logaritmi è la scala dei “deciBel”, usata in alcuni settori tecnologici per descrivere grandezze la cui variabilità è molto grande. Il decibel è una grandezza derivata dal Bel. Facciamo un esempio legato al suono. Supponiamo di avere un sistema fatto da microfono, amplificatore e casse audio. Il nostro amplificatore ha la capacità di moltiplicare per 100 il segnale ricevuto dal microfono, cioè se sul microfono incide una potenza P in = 1 W, alle casse esce una potenza Pout = 100 W. La capacità di amplificazione (o guadagno) G viene descritta nel seguente modo: 𝐺 = log10 𝑃𝑜𝑢𝑡 100 = log10 = 2 [𝐵𝑒𝑙] 𝑃𝑖𝑛 1 Il guadagno G è 2 Bel. Se ridefiniamo il guadagno come la scala Bel moltiplicata per 10 otteniamo 𝐺 = 10 ∙ log10 𝑃𝑜𝑢𝑡 100 = 10 ∙ log10 = 20 [𝑑𝑒𝑐𝑖𝐵𝑒𝑙] 𝑃𝑖𝑛 1 O semplicemente G = 20 dB. Notiamo che se la potenza in uscita raddoppia, cioè se passa 100 a 200 W, il guadagno cresce di 10Log(2), circa 3 dB G= 10∙log 10 Pout 200 = 10∙log 10 = 10∙( log 10 2 + log 10 100)= 10 ∙(0.31+2)=23.1 dB Pin 1 L’utilità pratica della scala dei Decibel risiede nel trasformare una catena di amplificazioni o perdite (pensate ai segnali delle antenne televisive) in somma di guadagni o perdite (dB negativi) espressi di decibel. 9 La luce Sappiamo che la luce è un particolare tipo di onde elettro-magnetiche di lunghezza d’onda compresa all’incirca tra i 400 e i 700 nm, può sembrare una considerazione banale ma la conoscenza dalla natura della luce non è sempre stata tale, d’altronde le onde elettromagnetiche (come le onde radio) hanno prevalentemente origine antropica anche se non mancano le sorgenti cosmiche mentre la luce è sempre stata presente, per questo motivo lo studi della luce, de suo comportamento e della sua natura è antecedente all’elettromagnetismo, nel quale ambito la luce è stata ricondotta solo alla fine del diciannovesimo secolo. Natura della luce Alcune osservazioni sul comportamento della luce sono note: le ombre riproducono i contorni degli oggetti in modo netto quindi la luce si propaga in linea retta (la luce non sembra aver la capacità di aggirare gli ostacoli), esistono dei corpi in grado di emettere luce e sono detti sorgenti, alcuni corpi si lasciano attraversare dalla luce senza modificarne (in modo apprezzabile) la traiettoria e sono detti trasparenti, altri “sparpagliano” la luce e sono detti traslucidi, altri non si lasciano attraversare e sono detti opachi. Alcuni corpi appaiono di diversi “colori” e legato al comportamento della luce ci sono curiosi fenomeni che hanno affascinato umanità e studiosi per secoli come i miraggi e gli arcobaleni. Una teoria in grado di spiegare tutti questi fenomeni non è affatto semplice e le due idee che storicamente si sono contrapposte sono quella “corpuscolare” (luce composta da piccoli oggetti dotati di massa) e quella “ondulatoria” (luce è fatta da onde che si propagano in mezzo speciale, l’etere). Alcuni fenomeno come la riflessione e la rifrazione potevano essere descritti con grande accuratezza anche senza una teoria sottostante, pertanto le leggi che descrivono il comportamento degli specchi e delle lenti erano note anche se non era chiara la natura della luce. I protagonisti del dibattito onda- corpuscolo sono Christiaan Huygens (1629 – 1695) e Isaac Newton (1643 -1727) La velocità della luce. (da “Libro di Fisica” di Isaac Asimov) Ovviamente, la luce viaggia a velocità straordinaria: se girate l'interruttore, piombate immediatamente nel buio, nell'attimo stesso in cui effettuate il gesto. Il suono non è altrettanto veloce: se guardate da una certa distanza un uomo che taglia la legna, udite il colpo solo qualche istante dopo aver visto abbattersi l'ascia; evidentemente, il suono ha impiegato qualche istante per raggiungere l'orecchio. In effetti, è facile misurarne la velocità: 332 metri al secondo, nell'aria al livello del mare. Galileo fu il primo a cercare di misurare la velocità della luce; stando su un'altura mentre un suo assistente stava su un'altra, Galileo scopriva una lanterna e l'assistente, non appena ne scorgeva il lampo, segnalava la cosa scoprendo a sua volta un'altra lanterna. Galileo effettuò quest'esperimento a distanze sempre maggiori, presumendo che il tempo necessario all'assistente per dare la sua risposta restasse sempre uguale, così che ogni aumento dell'intervallo di tempo tra il momento in cui egli scopriva la sua lanterna e quello in cui vedeva la risposta avrebbe rappresentato il tempo impiegato dalla luce a coprire la distanza in più. L'idea era buona, ma la luce è di gran lunga troppo veloce perché con un metodo così rudimentale si possa registrare una differenza. 10 Metodo usato da Galilei per misurare la velocità della luce. Galilei e un assistente, posti sulla cima di due colline, misurano il tempo impiegato a rispondere al segnale. Ripetono il procedimento su distanze sempre maggiori. Il metodo non permise a Galilei di ottenere una misura ma solo di ipotizzare che la velocità della luce fosse altissima Nel 1676, l'astronomo danese Olaus Roemer riuscì invece a misurare la velocità della luce, ricorrendo alle distanze astronomiche; studiando le eclissi dei quattro satelliti di Giove (eclissi prodotte dal pianeta stesso), Roemer notò che gli intervalli tra eclissi successive diventavano più lunghi quando la terra si allontanava da Giove e più brevi quando gli si avvicinava. Era presumibile che la differenza nei periodi delle eclissi riflettesse la differenza delle distanze tra la terra e Giove, cioè che fosse una misura dei diversi tempi impiegati dalla luce per percorrere la distanza da Giove alla terra. In base a una stima approssimativa delle dimensioni dell'orbita terrestre e alla massima discrepanza tra i periodi delle eclissi (ritardo), che Roemer considerò come il tempo impiegato dalla luce per attraversare in tutta la sua ampiezza l'orbita terrestre, egli calcolò la velocità della luce: la sua stima fu di 212 mila chilometri al secondo, valore notevolmente prossimo alla velocità reale per quello che può essere considerato un primo tentativo, e anche sufficientemente elevato per suscitare l'incredulità dei suoi contemporanei. I risultati di Roemer vennero però confermati mezzo secolo dopo in base a considerazioni del tutto diverse. 11 Giove ha un periodo di rivoluzione intorno al sole di circa 12 anni, nel tempo che la terra passa da punto A al punto B della sua orbita (6 mesi) Giove ha compiuto un ventiquattresimo della sua (si è mosso poco). Il satellite “Io”, il più interno, ha un periodo di rivoluzione intorno a Giove di circa 42 ore, pertanto le eclissi si ripetono con regolarità e frequenza tale da poter essere previste e osservate più volte alla settimana. Roemer osservò che mentre la terra andava dal punto A al punto B il ritardo tra l’orario previsto per l’eclissi e la sua osservazione aumentava (di poco) fino a raggiungere un ritardo massimo di venti minuti circa (t = 20 x 60 = 1200 s). Roemer imputò questo ritardo al maggior percorso che la luce doveva fare per raggiungere la terra da A a B e, in base alle conoscenze astronomiche del tempo che davano per il diametro medio dell’orbita terrestre AB = 254 milioni Km (ora si considera AB circa 300 milioni di Km), calcolo la velocità della luce c = AB / t = 214000 Km/s Nel 1728, l'astronomo inglese James Bradley scoprì che le stelle sembravano cambiare posizione a causa del moto della terra - non per via della parallasse, ma perché la velocità del moto della terra intorno al sole costituisce una frazione misurabile, benché piccola, della velocità della luce. Di solito per illustrare questo concetto si ricorre all'analogia di un uomo che cammina sotto un ombrello durante un temporale: anche se le gocce cadono verticalmente, l'uomo deve inclinare l'ombrello in avanti, perché si sta spostando rispetto alle gocce; più svelto cammina, più deve inclinare l'ombrello. Analogamente, la terra si muove rispetto ai raggi luminosi che provengono dalle stelle, e l'astronomo deve inclinare un pochino il telescopio, e in direzioni diverse, via via che la terra muta la sua direzione di moto. Dall'entità dell'inclinazione ("aberrazione della luce"), Bradley poté stimare il valore della velocità della luce, che risultò pari a 283 mila chilometri al secondo - un valore più elevato, e anche più esatto, di quello di Roemer, benché ancora troppo basso del 5,5 per cento circa. Infine gli scienziati ottennero misurazioni ancora più precise, perfezionando l'idea originale di Galileo. 12 Metodo di Bardley. L’astronomo studiò il moto apparente di alcune stelle, in particolare studiò il moto della Draconis (la stella del costellazione del Drago), chiamata Etamin. Questa stella ha la caratteristica di trovarsi quasi esattamente sull’asse dell’eclittica, ossia sull’asse dell’orbita di rivoluzione della terra attorno al sole. Bradley intuì che questo spostamento non ha nulla a che vedere col moto vero della stella, ma che è una conseguenza del moto della Terra attorno al Sole. Per lo stesso motivo la pioggia, che in assenza di vento cade verticale, non appare più tale se ci si mette in corsa. La luce di una stella lontana che illumina la Terra perpendicolarmente rispetto alla sua velocità è vista inclinata di un angolo rispetto alla verticale da un osservatore terrestre. Misurando tale angolo e conoscendo la velocità orbitale della Terra si trova facilmente c dalla relazione tg = v/c Nel 1849, il fisico francese Armand Hippolyte Louis Fizeau ideò un dispositivo nel quale un lampo di luce veniva inviato su uno specchio situato a 8 chilometri di distanza; lo specchio lo rifletteva fino all'osservatore: il tempo trascorso per percorrere i 16 chilometri non superava di molto 1 su 20 mila di secondo, ma Fizeau riuscì a misurarlo ponendo sul percorso del raggio luminoso una ruota dentata in rapida rotazione; quando la ruota girava a una data velocità, il lampo, passato tra un dente e l'altro all'andata, colpiva il dente successivo al ritorno; quindi Fizeau, situato dietro alla ruota, non lo vedeva. Se poi si aumentava la velocità di rotazione della ruota, il raggio sulla via del ritorno non veniva più bloccato, ma passava nel successivo intervallo tra un dente e l'altro. Così, regolando e misurando la velocità di rotazione della ruota, Fizeau riuscì a calcolare il tempo trascorso, e quindi la velocità con cui viaggiava il lampo luminoso; egli trovò che questa era di 315 mila chilometri al secondo, un valore troppo alto del 5,2 per cento. 13 La luce emessa dalla sorgente S viene collimata mediante la lente L1, la successiva lente L2 focalizza il fascio in corrispondenza della ruota dentata R dopo averla fatta incidere sullo specchio semi riflettente M1, il cammino ottico sarà ostruito dai denti della ruota altrimenti proseguirà per un tratto lungo a e verrà riflesso dallo specchio M2 e tronerà indietro. Un osservatore posto in asse con gli specchi nel punto O osserva la luce riflessa dallo specchio M2 (illuminato a intervalli) fintanto che essa passa tra due denti della ruota. Aumentando la velocità di rotazione nel tempo t in cui la luce percorre il tratto a in avanti e indietro un dente si troverà al posto della gola e l’osservatore non vedrà la luce da M2. Aumentando ulteriormente la velocità di rotazione nel tempo t una gola sarà sostituita dalla successiva e quindi l’osservatore vedrà nuovamente la luce riflessa. Questa condizione permette di determinare l’intervallo t che risulterà essere una frazione del periodo di rotazione, se la ruota R ha n denti e gira con frequenza f, t = 1/(nf) e la velocità della luce sarà c = 2xa/t Un anno dopo, Jean Foucault (che poco tempo più tardi avrebbe effettuato il famoso esperimento del pendolo, perfezionò il metodo usando uno specchio rotante al posto della ruota dentata. Ora il tempo trascorso veniva misurato da un leggero cambiamento della direzione in cui veniva riflesso il raggio di luce da parte dello specchio in rapida rotazione. La migliore misurazione ottenuta da Foucault nel 1862 fornì, come velocità della luce nell'aria, 298 mila chilometri al secondo. Un valore troppo basso solo dello 0,7 per cento. In più, Foucault usò il suo metodo per determinare la velocità della luce in vari liquidi e trovò che essa era considerevolmente inferiore alla velocità della luce nell'aria. Anche questo risultato confortava la teoria ondulatoria di Huygens. Una precisione ancora maggiore nella misurazione della velocità della luce fu resa possibile dall'opera di Michelson, il quale - per più di quarant'anni, a partire dal 1879 - applicò il metodo di Fizeau e Foucault, perfezionandolo progressivamente. Michelson, alla fine, fece passare la luce attraverso il vuoto anziché attraverso l'aria (anche l'aria, infatti, rallenta leggermente la luce): a questo scopo egli usò tubi d'acciaio lunghi oltre un chilometro e mezzo in cui veniva fatto il vuoto. In tal modo stabilì che la velocità della luce nel vuoto era pari a 299774 chilometri al secondo - un valore troppo basso solo dello 0,006 per cento. Egli dimostrò inoltre che le onde luminose di qualsiasi lunghezza viaggiano nel vuoto con la stessa velocità. Nel 1972, un'équipe di ricerca diretta da Kenneth M. Evenson effettuò delle misurazioni ancora più precise, trovando una velocità di 299792,4494 chilometri al secondo; una volta che tale velocità fu nota con una precisione così 14 stupefacente, divenne possibile usare la luce per misurare le lunghezze. (Tuttavia ciò era conveniente anche quando si conosceva la velocità della luce con minor precisione.) La luce emessa dalla sorgente S passa attraverso lo specchio semiriflettente P, incide sullo specchio rotante N, viene focalizzata dalla lente L sullo specchio fisso R. La luce tornando indietro incontrerà lo specchio rotante spostato (di poco) e verrà poi focalizzata sullo schermo in un punto che dipende dal tratto 2f + a e dall’angolo fatto dallo specchio durante il tempo impiegato dalla luce a percorrere due volte il tratto a + 2f. Se chiamiamo lo spostamento lineare dell’immagine sullo schermo, avremo che = (2f-a)xTan(2) La luce per percorrere due volte il tratto a + 2f impiega un tempo t = 2(a+2f)/c, in questo tempo lo specchio ruota di un angolo = t ( è la velocità angolare = 2/T), l’angolo è espresso in radianti. Per angoli piccoli (minori di 5°) la tangente è uguale all’angolo (espresso in radianti). Dalla misura di si risale ad ( = /(4f-2a)), per cui t = /ec = (4f+2a) / t (la figura riporta la configurazione usata da Michelson per semplificare i calcoli) La riflessione della Luce Nel nostro percorso consideriamo a luce come onda pertanto valgono per la luce le considerazioni fatte per le onde elastiche in generale e i fenomeni associati (riflessione, rifrazione, diffrazione, interferenza). Convenzionalmente la luce come onda non viene descritta mediante i suoi fronti (con una serie di linee parallele poste a distanza pari alla lunghezza d’onda) ma mediante un segmento orientato (raggio di luce) perpendicolare al fronte d’onda. Pertanto, per un raggio di luce che incide su una superficie riflettente, vale la legge della riflessione: - - Raggio di luce incidente, raggio di luce riflesso e retta perpendicolare alla superficie passante per il punto in cui il raggio di luce incide (normale nel punto di incidenza) giacciono sullo stesso semi piano Angolo di incidenza 𝑖̂ (angolo formato dal raggio incidente e dalla normale) e angolo di riflessione 𝑟̂ (angolo formato dal raggio riflesso e dalla normale) sono uguali Se la superficie è piana la riflessione avviene come nella figura seguente 15 Specchi piani Lo specchio piano è il comune specchio, ci siamo così abituati che spesso non notiamo le sue proprietà. Un oggetto posto davanti alla superficie riflettente viene percepito come “se si trovasse al di là della superficie riflettente”, l’immagine si forma sul prolungamento dei raggi riflessi che originano da un punto posto simmetricamente all’oggetto rispetto alla superficie. L’immagine che si forma è orientata (alto-basso) come l’oggetto che l’ha prodotta mentre ha SPECCHIO rotazione invertita (destra e sinistra scambiate). L’immagine dello specchio piano è “virtuale” perché i raggi che arrivano all’occhio dell’osservatore sono percepiti “come provenienti” da un punto posto dietro lo specchio, cioè sul prolungamento virtuale dei raggi stessi oltre la superficie dello specchio. La relazione che lega la distanza p dell’oggetto dallo specchio e della sua immagine q è semplicemente p + q = 0, in quanto si considerano positive le distanze misurate davanti allo specchio. Specchi sferici Uno specchio è sferico se la superficie riflettente è una sfera o (molto più comunemente) una parte di essa. Gli specchi sferici (e gli specchi curvi in generale) si dividono in due gruppi: - Specchi concavi (la superficie riflettente è rivolta verso un semispazio convesso) - Specchi convessi (la superficie riflettente è rivolta verso un semispazio concavo, un loro comune utilizzo è nei segnali stradali) Per comprendere il “funzionamento” degli specchi sferici (e trovare una relazione tra la distanza di un oggetto dalla superficie riflettente e la sua immagine), facciamo una costruzione geometrica applicando la legge della riflessione. Chiamiamo “asse ottico” la linea retta congiungente l’oggetto e il centro della sfera AO (quindi perpendicolare alla superficie). Applichiamo il teorema dei seni al triangolo formato dall’asse ottico, il raggio incidente AB e il raggio di B i r curvatura dello specchio R, abbiamo R A O 𝐴𝐵 𝑝−𝑅 C = p sin(180° − 𝛽) sin(𝑖) q Mentre applicandolo al triangolo formato dal raggio R, il raggio di luce riflesso e l’asse ottico otteniamo 𝐵𝐶 𝑅−𝑞 = sin(𝛽) sin(𝑟) Facendo il rapporto membro a membro delle due ultime equazioni, ricordando che per la legge della riflessione abbiamo i = r e che sin(180° - ) = sin(), otteniamo 16 𝐴𝐵 sin 𝛽 𝑝−𝑅 ∙ = 𝐵𝐶 sin 𝛽 𝑞−𝑅 Usiamo l’approssimazione di Gauss di raggi quasi paralleli, allora 𝐴𝐵 ≅ 𝑝 𝑒 𝐵𝐶 ≅ 𝑞, otteniamo 𝑝 ∙ (𝑞 − 𝑅) = 𝑞 ∙ (𝑅 − 𝑝) Dividendo per pqR abbiamo 2 1 1 = + 𝑅 𝑝 𝑞 2 Definendo 𝑅 = 1 𝑓 , la legge dei punti coniugati assume la sua forma classica 1 1 1 + = 𝑝 𝑞 𝑓 p è la distanza del punto oggetto dalla superficie dello specchio misurata lungo l’asse ottico, q è la distanza dell’immagine dallo specchio, f è la distanza focale, il punto dove convergono le riflessioni dei raggi paralleli (sorgente all’infinito). Le distanze p, q, f hanno lo stesso segno se si trovano dalla stessa parte rispetto allo specchio. La distanza focale è la metà del raggio di curvatura (f = R / 2). Formazione delle immagini La formazione dell’immagine è dovuta al meccanismo per il quale raggi di luce provenienti da un medesimo punto dell’oggetto, dopo la riflessione convergono in un stesso punto, pertanto un osservatore percepisce i raggi come uscenti dal punto di convergenza a colloca l’immagine dell’oggetto nel punto di convergenza. In tal caso parliamo di immagine “reale” di un oggetto. L’immagine reale di un oggetto è generalmente “rovesciata” come è possibile verificare specchiandosi da una certa distanza in specchio da toilette. L’eq uazi one dei punt i coniugati è risolvibile con semplici passaggi algebrici. In particolare abbiamo 1 1 1 = − 𝑞 𝑓 𝑝 1 𝑝−𝑓 = 𝑞 𝑝𝑓 𝑞= 𝑝𝑓 𝑝−𝑓 Esaminiamo alcuni casi particolari 17 - p = f, l’equazione perde significato, ciò significa che un oggetto posto nel fuoco di uno specchio sferico non produce immagine (facilmente verificabile con una costruzione grafica). p < f, l’equazione ha significato e q < 0, significa che l’immagine si forma “dietro” lo specchio ed è pertanto un’immagine virtuale, non rovesciata. f < 0, lo specchio è convesso, poiché p deve essere necessariamente positivo ne consegue che q < 0, immagine sempre virtuale, non rovesciata. Ingrandimento Metodi grafici di costruzione dell’immagine. Specchi concavi, figure (a) e (b). Nella figura (a) si considerano due raggi uscenti dall’oggetto (O), uno parallelo all’asse ottico che verrà riflesso passante per il fuoco, un secondo esce e incide sullo specchio passando per il fuoco e viene riflesso parallelo all’asse ottico. L’immagine (i) si forma dove i raggi riflessi si incontrano poiché un osservatore li percepisce uscenti da lì. Nella figura (b) un raggio (4) esce dall’oggetto (o) e incide sulla superficie dello specchio nel punto di contatto con l’asse ottico e viene riflesso simmetricamente rispetto all’asse ottico. Il secondo raggio (3) incide sullo specchio passando per il centro e viene riflesso su se stesso. L’immagine che si forma è reale rovesciata. Specchi convessi, figure (c) e (d). Nella figura (c) il raggio (1) incide sullo specchio parallelamente all’asse ottico, viene riflesso lungo una retta passante per il fuoco (che si trova dietro lo specchio), il raggio (2) incide sullo specchio lungo una retta passante per il fuoco e viene riflesso parallelamente all’asse ottico. I raggi riflessi non si incontrano ma un osservatore li percepisce come provenienti da un punto posto dietro lo specchio. Nella figura (d) un raggio incide sullo specchio nel punto di incontro con l’asse ottico ed è riflesso ribaltato orizzontalmente, il secondo raggio incide sullo specchio lungo una retta passante per lo specchio ed è riflesso su se stesso. L’immagine è virtuale non rovesciata. E’ possibile definire l’ingrandimento di uno specchio come il rapporto tra l’altezza (distanza dall’asse ottico) apparente dell’immagine HI di un oggetto con la sua altezza reale HO. Considerando la prima costruzione geometrica in alto a sinistra, osserviamo due triangoli simili, possiamo pertanto scrivere la seguente proporzione: 𝐻0 : (𝑝 − 𝑓) = 𝐻1 : 𝑓 18 𝐻0 𝐻1 = 𝑝−𝑓 𝑓 𝐻0 𝑝−𝑓 1 1 𝑝+𝑞 𝑝2 − 𝑝𝑓 + 𝑞𝑝 − 𝑞𝑓 𝑝 𝑓 𝑓 = = ( + ) ∙ (𝑝 − 𝑓) = ( ) ∙ (𝑝 − 𝑓) = = − +1− 𝐻1 𝑓 𝑝 𝑞 𝑝𝑞 𝑝𝑞 𝑞 𝑞 𝑝 𝑓 Osserviamo che la somma degli ultimi tre termini è nulla 𝑝 + della legge dei punti coniugati, pertanto l’ingrandimento 𝐺 = 𝑓 − 1 = 0, come conseguenza diretta 𝑞 𝐻1 𝐻0 = 𝑞 𝑝 La rifrazione della luce Secondo il modello ondulatorio la luce ha una velocità di propagazione caratteristica del mezzo in cui si propaga (nota: l’enorme velocità della luce portava ad immaginare l’esistenza di un mezzo dalle caratteristiche singolari: rigido e allo stesso tempo impalpabile, dal nome di etere, fu Einstein ha proporre la propagazione nel vuoto e quindi a “spazzare via” la teoria dell’etere cosmico), se quindi la luce attraversa la superficie di separazione tra due mezzi diversi incidendo con angolo diverso da zero si ha il ben noto fenomeno della rifrazione descritto dalla legge di Snell. Con riferimento alla figura abbiamo: la luce propagandosi passa da un primo mezzo di indice n1 ad un secondo di indice n2 (con n2 > n1) la legge della rifrazione che dice: 1 – raggio incidente PO, raggio rifratto OQ e normale alla superficie di separazione nel punto di incidenza, giacciono sullo stesso piano; 2 - l’angolo di incidenza i (1) e di rifrazione r (2) seguono la legge di Snell sin 𝑖 𝑛2 = sin 𝑟 𝑛1 Per cui, con riferimento alla figura, se la luce passa da un mezzo meno rifrangente ad uno più rifrangente il raggio rifratto si avvicina alla normale, cioè l’angolo di rifrazione è in generale minore di quello di incidenza. In ottica vale il principio di reversibilità del cammino ottico, per cui se la luce si propagasse dal mezzo 2 al mezzo 1 avremmo la stessa figura soltanto con la freccia orientata in verso opposto. mezzo aria acetone acqua alcol etilico quarzo vetro crown vetro flint indice di rifrazione n 1,000292 1,359 1,334 1,365 1,458 1,517 1,732 nota l'aria si comporta in pratica come il vuoto 19 vetro pesantissimo 1,890 diamante 2,419 il diamante è il mezzo più rifrangente Angolo limite Il passaggio da un mezzo più rifrangente ad uno meno, con conseguente aumento dell’angolo (allontanamento dalla normale), comporta l’esistenza di un angolo di incidenza iL (inferiore a 90°) che comporta un angolo di rifrazione r = 90°. La situazione è facilmente ricostruibile nel caso di passaggio della luce dall’acqua all’aria, in tal caso n1 = 1.33 e n2 = 1, la legge di Snell assume la seguente forma Il raggio passando in mezzo meno rifrangente si allontana dalla perpendicolare. L’angolo limite di incidenza produce un raggio rifratto parallelo alla superficie di separazione. sin 𝑖𝐿 𝑛2 = 1 𝑛1 𝑛2 1 𝑖𝐿 = sin−1 ( ) = sin−1 ( ) = 49° 𝑛1 1.33 L’esistenza di un angolo di incidenza per il quale l’angolo di rifrazione è 90° pone la domanda su cosa succede ad un raggio di luce che incida con angolo superiore a quello limite. In questa situazione la legge di Snell perde significato. Ciò significa che non si ha raggio rifratto ma il raggio viene riflesso totalmente (riflessione totale). Nel caso del passaggio dal vetro all’aria l’angolo limite è di circa 42°, questo permette di usare un prisma ottenuto dividendo in due un cubo come specchio perfetto, sia per deviare un raggio di 90° sia per rimandarlo indietro. Utilizzo di un prisma retto in due importanti configurazioni: riflettore a 180° e 90°. E entrambe le situazioni si sfruttano incidenze con angoli maggiori di quello limite che per il vetro-aria è 42° La riflessione totale ha importanti applicazioni, dalla più semplice che permette di utilizzare dei prismi vetro o cristallo come specchi perfetti, oppure utilizzare dei materiali trasparenti e flessibili (fibre ottiche) per convogliare la luce che non “esce” perché incide sulla superficie con un angolo che è sempre maggiore dell’angolo limite. 20 L’utilizzo delle fibre ottiche come mezzo di trasmissione delle informazioni ha alcuni vantaggi evidenti: la luce attraversa il mezzo dissipando pochissima energia permettendo la riduzione dei sistemi intermedi di amplificazione e permettono la sovrapposizione di più segnali sulla stessa fibra con poche interferenze, gli svantaggi sono altrettanto evidenti, la fibra è una materiale delicato, non può essere “piegato” oltre un certo raggio di curvatura, la giunzione di diversi spezzoni di fibra necessita di un accoppiatore ottico che è più complesso di un accoppiatore elettrico. Lo sviluppo della trasmissione in fibra ottica è stato possibile solo dopo l’introduzione dei materiali adatti alla costruzione delle fibre e di sorgenti di luce monocromatiche e collimate (laser). Curiosità sulla riflessione totale E’ esperienza relativamente comune aver osservato in estate che le superfici esposte al sole in lontananza appaiono riflettenti tanto che danno l’impressione di essere bagnate, questo fenomeno è dovuto alla variazione dell’indice di rifrazione dell’aria in relazione alla densità, e quindi alla pressione e alla temperatura. L’asfalto appare riflettente per ché la luce proveniente dall’alto incontra strati di aria sempre più caldi per effetto della vicinanza alla superficie stradale, l’aria più caldo e meno densa ha un indice di rifrazione “minore” per cui il raggio rifratto si allontana progressivamente dalla perpendicolare fino superare l’angolo limite e ed essere completamente riflesso. Per la dipendenza dell’indice di rifrazione dalla densità possiamo usare la seguente formula approssimata: 𝑛 ≅1+ 𝛼∙𝜌 21 Con = 1.2 kg/m3 e = 2.5 x 10-4 che produce per l’indici di rifrazione n = 1.0003. Ricordiamo che la densità dell’aria dipende dalla temperatura secondo la legge dei gas perfetti applicata all’aria 𝑝 = 𝜌 ∙ 𝑅𝑎 ∙ 𝑇 Quindi 𝜌 = 𝑝 𝑅𝑎 ∙ 𝑇 L’equazione ci dice che, a parità di pressione (aria stabile), all’aumentare della temperatura la densità diminuisce e, quindi, diminuisce anche l’indice di rifrazione. L’aria a contatto con una superficie esposta al sole può avere una temperatura superiore a quella degli strati vicini di decine di gradi con conseguente variazione dell’indice di rifrazione. In quest’ultima situazione anche la stabilità della colonna d’aria viene meno e la pressione negli strati superficiali è maggiore di quella sovrastante con conseguenti moti convettivi. A sinistra la formazione di un miraggio, a destra quella di un “fata morgana”. Gli eventi tipo fata morgana sono meno frequenti ed hanno portato alla formazione di leggende come “navi fantasma” o roba simile 22 Il diottro sferico Il sistema ottico più semplice dopo la superficie piana è rappresentato da una superficie di separazione sferica. Si considerano due mezzi di indici di rifrazione n1 e n2 separati da una superficie sferica, generalmente n2 > n1 e la luce proviene dal mezzo 1. Si chiama asse ottico la retta che unisce il punto oggetto (la sorgente) e il centro della sfera. Si chiama p la distanza della sorgente dei raggi di luce e la superficie di separazione (oggetto) e q la distanza del punto di convergenza (reale o virtuale) dei raggi rifratti dalla superficie si separazione. Se p e q si trovano rispettivamente nei mezzi 1 e 2 avranno valore positivo, altrimenti è negativo. Cerchiamo una relazione tra p e q che dipenda esclusivamente dai parametri del sistema (n1, n2 e R). n2 n1 i P p A R C r B O q Q Il raggio di luce che emerge da P, incide sulla superficie sferica nel punto A e viene rifratto. Incontra l’asse ottico nel punto Q. Osserviamo che per gli angoli di incidenza e di rifrazione valgono le relazioni i = + , r = – , mentre le distanze sull’asse ottico sono p = PC e q = CQ, applicando il teorema dei seni ai triangoli APO ed AOQ sin 𝑖 sin 𝛽 = 𝑝+𝑅 𝑃𝐴 sin 𝑟 sin(𝜋 − 𝛽) = 𝑞−𝑅 𝐴𝑄 Eseguendo il rapporto membro a membro delle due espressioni, otteniamo sin 𝑖 𝑞 − 𝑅 𝐴𝑄 ∙ = sin 𝑟 𝑝 + 𝑅 𝑃𝐴 Sostituendo la legge di Snell sin 𝑖 𝑛2 = sin 𝑟 𝑛1 Con piccoli arrangiamenti abbiamo 𝑛2 𝑞 − 𝑅 𝐴𝑄 𝑃𝐴 𝐴𝑄 𝑛1 (𝑝 + 𝑅) 𝑛2 (𝑞 − 𝑅) ∙ = → = → = 𝑛1 𝑝 + 𝑅 𝑃𝐴 𝑛1 (𝑝 + 𝑅) 𝑛2 (𝑞 − 𝑅) 𝑃𝐴 𝐴𝑄 23 Quest’ultima espressione non è ulteriormente semplificabile e ci dice che, in generale, non c’è una relazione semplice tra p e q, essa dipende dal cammino ottico fatto (PA e AQ), quindi un oggetto puntiforme non forma un’immagine puntiforme, il diottro è astigmatico. Introduciamo un’approssimazione di raggi che sono quasi paralleli all’asse ottico (raggi parassiali), in tal caso 𝑃𝐴 ≅ 𝑝 𝑒 𝑄𝐴 ≅ 𝑞, allora dopo opportune semplificazioni (dividendo per R) otteniamo 𝑛1 𝑛2 𝑛2 − 𝑛1 + = 𝑝 𝑞 𝑅 L’approssimazione utilizzata è nota come approssimazione di Gauss e la formula trovata è nota come equazione di Cartesio per i punti coniugati. L’approssimazione di Gauss, nella pratica, non è molto stringente perché se immaginiamo una superficie sferica che delimita una lente di 4 cm di diametro, con un oggetto posto a 25 cm di distanza tutti i raggi incidenti rispetteranno tale approssimazione tan() = ((diametro/2))/distanza = 2/25 = 0.08, quindi è inferiore a 5°. Analizziamo la formula di Cartesio nel caso di un oggetto molto lontano dalla superficie, (𝑝 → ∞), in tal caso n1/p sarà così piccolo da poter essere trascurato e tutti i raggi convergeranno in un punto chiamato fuoco, la distanza di questo punto dalla superficie di separazione prende il nome di distanza focale (f2 nel nostro caso) 𝑛2 𝑛2 − 𝑛1 𝑛2 = → 𝑓2 = 𝑅 𝑓2 𝑅 𝑛2 − 𝑛1 Osserviamo che in caso di n1 = n2 l’espressione perde di significato, mentre per un passaggio da un mezzo meno rifrangente ad uno più rifrangente (aria – vetro, n2 > n1 come in figura) f2 > R. Chiediamoci se esiste una distanza f1 dalla superficie di separazione per la quale non si forma immagine, cioè q = ∞, quindi 1/q è trascurabile 𝑛1 𝑛2 − 𝑛1 𝑛1 = → 𝑓1 = 𝑅 𝑓1 𝑅 𝑛2 − 𝑛1 Anche in questo caso f1 è positiva ma non è necessariamente maggiore di R (f1 < f2). Con l’aiuto delle distanze focali è abbastanza semplice costruire graficamente l’immagine e determinarne l’ingrandimento. n1 n2 A f1 B p f2 B’ O q A’ 24 Osserviamo che l’immagine è reale rovesciata, la relazione tra le distanze dell’oggetto e dell’immagine è data dalla formula di Cartesio, per calcolare il fattore di ingrandimento, osserviamo che dentro il mezzo 2 si formano due triangoli simili, pertanto 𝐴′𝐵′ 𝐴𝐵 𝐴′𝐵′ 𝑓2 = → 𝑖𝑛𝑔𝑟𝑎𝑛𝑑𝑖𝑚𝑒𝑛𝑡𝑜 𝐺 = = 𝑞 − 𝑓2 𝑓2 𝐴𝐵 𝑞 − 𝑓2 Analogamente nel mezzo 1 abbiamo 𝐴′𝐵′ 𝐴𝐵 𝐴′𝐵′ 𝑝 − 𝑓1 = → 𝑖𝑛𝑔𝑟𝑎𝑛𝑑𝑖𝑚𝑒𝑛𝑡𝑜 𝐺 = = 𝑓1 𝑝 − 𝑓1 𝐴𝐵 𝑝 Lente sottile Consideriamo il sistema di due superfici sferiche di raggi R1 e R2 che delimitano una regione di spazio con indice di rifrazione n12 (n12 = n2/n1, se il mezzo 1 è l’aria n1 = 1 e n12 = n2). Osserviamo la figura e notiamo che le distanze p e q sono calcolate relativamente all’asse centrale, applicando la legge del diottro sferico alla prima superficie di curvatura R1 abbiamo n12 o q p i’ i q’ d 1 𝑛12 𝑛12 − 1 + ′ = 𝑝−𝑑 𝑞 +𝑑 𝑅1 Con questa formula possiamo determinare dove si formerebbe l’immagine i’ se non ci fosse la seconda superficie, notiamo che i’ è a destra della seconda superficie, quindi essendo per quest’ultima un oggetto ha coordinate negative, infatti applicando la formula di Cartesio rispetto alla seconda superficie (di curvatura R2 negativa) troviamo 1 𝑛12 1 − 𝑛12 − ′ = − 𝑞−𝑑 𝑞 −𝑑 𝑅2 Osserviamo che il passaggio è dal mezzo 2 al mezzo 1. Introduciamo l’ipotesi di sistema sottile, cioè d << p e q, allora sommando le due equazioni abbiamo 1 1 1 1 1 + = (𝑛12 − 1) ( + )= 𝑝 𝑞 𝑅1 𝑅2 𝑓 Determinata la geometria del sistema (raggi di curvatura e materiale), se lo spessore della lente è piccolo, l’oggetto e l’immagine sono determinati da una semplice legge (punti coniugati) formalmente analoga a quella degli specchi sferici ma con convenzione diversa per i segni, p e q hanno lo stesso segno se si trovano da parti opposte della lente. Osserviamo che anche la distanza 1 focale può essere negativa nel caso in cui (almeno una curvatura è negativa) risulti (𝑅 + 1 1 𝑅2 ) < 0. 25 L’ingrandimento angolare L’occhio umano è sicuramente un organo importante ma le sue capacità possono essere migliorate in diversi modi con strumenti ottici come occhiali, microscopi e telescopi. Molti di questi dispositivi espandono la capacità del nostro occhio oltre la regione visibile, ad esempio i satelliti sono equipaggiati con sensori infrarossi e microscopi a raggi X. La legge dei punti coniugati aplicabile agli specchi e alle lenti sottili può essere applicata agli strumenti solo come prima approssimazione, infatti in molti strumenti ottici le lenti sono “lenti composte” e spesso le superfici non sono sferiche, ciò nonostante descriviamo il principio di funzionamento degli strumenti ottici come se la legge dei punti coniugati fosse esatta. Un normale occhio umano è in grado di mettere a fuoco sulla retina l’immagine definite di u oggetto se questo è posto ad una distanza compresa tra l’infinito e una determinata distanza detta “punto prossimo”. Avvicinando l’oggetto ulteriormente all’occhio l’immagine appare sfocata. La distanza di punto prossimo cambia con l’età, generalmente aumenta. Possiamo affermare che la distanza media per il punto prossimo sia 25 cm. La figura mostra un oggetto O posto nella vicinanza del punto prossimo di un occhio umano. La dimensione dell’immagine sulla retina dipende dall’angolo che l’oggetto occupa nel campo visivo. Muovendo l’oggetto verso l’occhio (come in figura) l’angolo aumenta e, quindi, anche la possibilità di distinguere dei dettagli dell’oggetto. Comunque, poiché l’oggetto si avvicina al punto prossimo, l’immagine non sarà a più a fuoco e perderà definizione. E’ possibile recuperare la nitidezza dell’immagine osservando l’oggetto attraverso una lente convergente posta in modo che l’oggetto sia a distanza inferiore alla distanza focale f1 della lente. Ciò che si osserva è l’immagine virtuale dell’oggetto prodotta dalla lente. L’immagine è allontanata dal punto prossimo e l’occhio la distingue nitidamente. L’angolo q’ sotto il quale è percepita l’immagine virtuale è maggiore dell’angolo q sotto il quale era percepito l’oggetto. L’ingrandimento angolare, da non confondere con l’ingrandimento lineare sarà 𝜃′ 𝐺𝜃 = 𝜃 26 L’occhio La parte anteriore dell'occhio si comporta come un sistema ottico centrato, le cui caratteristiche geometriche sono controllate dai muscoli del corpo ciliare i quali modificano la curvatura delle superfici rifrangenti, regolando le distanze focali del sistema. La parete posteriore dell'occhio è il supporto della retina, uno strato di cellule fotosensibili sul quale viene a formarsi l'immagine reale degli oggetti della visione. Schematizzazioni dell’occhio umano In condizioni di riposo del muscolo ciliare la seconda distanza focale dell'occhio f2, il cui valore è essenzialmente fissato dalla curvatura della cornea, cade sulla retina. Su di essa si formano le immagini reali degli oggetti posti a grande distanza. Può capitare per ragioni patologiche o congenite che la lunghezza dell'occhio, ovvero la distanza tra il sistema rifrangente e la retina sia maggiore di f2. In questo caso si dice che l'occhio è miope e l'immagine degli oggetti distanti si forma di fronte alla retina e su di essa arriva sfuocata. In una lente, le immagini reali di oggetti vicini si mettono a fuoco a distanze maggiori della distanza focale. Affinché nell'occhio siano a fuoco sulla retina, occorre che f2 sia minore della lunghezza oculare. Per ottenere questo risultato va variata la curvatura del cristallino. Questa procedura ha un limite fisiologico che impedisce di mettere a fuoco oggetti più prossimi di una certa distanza, detta di minima visione distinta. Per un adulto giovane questa distanza vale all'incirca d0=25 cm e diventa sempre maggiore con l'età (un bambino di 10 anni ha una distanza di visione distinta di 7 cm). La dimensione apparente di un oggetto è legata all'angolo visuale che esso individua. Questo è approssimativamente dato dal rapporto tra le dimensioni lineari dell'oggetto e la distanza alla quale esso si trova dall'occhio dell'osservatore. È questo il motivo per cui uno stesso oggetto ci pare più o meno grande a seconda della sua distanza dal nostro occhio. Dunque avvicinando all'occhio un oggetto se ne aumenta la dimensione apparente. Tuttavia, come già detto, l'occhio umano è in grado di mettere a fuoco un oggetto solo se questo si trova ad una distanza superiore al cosiddetto limite della visione distinta (o punto prossimo), che corrisponde all'incirca a 25 cm. Per questo motivo non è possibile apprezzare i dettagli di un oggetto molto piccolo semplicemente aumentandone la dimensione apparente, ossia avvicinandolo indefinitamente all'occhio. Questo problema può essere risolto facendo uso di dispositivi ottici noti come microscopi. 27 Sistemi Ottici: il microscopio Il microscopio semplice, ovvero la comune lente di ingrandimento, è costituito da una singola lente convergente (biconvessa). L'osservatore mantiene il suo occhio in corrispondenza di uno dei fuochi della lente, e fa sì che l'oggetto si trovi tra la lente e il secondo fuoco. In queste condizioni si forma un'immagine virtuale dell'oggetto, ingrandita e non capovolta. Quanto più l'oggetto è vicino al secondo fuoco, tanto più lontana dalla lente (e dall'occhio) si forma l'immagine virtuale. Quando l'oggetto si trova in corrispondenza del secondo fuoco, la sua immagine virtuale si forma all'infinito. Dunque, aggiustando la distanza tra l'oggetto reale e il secondo fuoco, si può far sì che l'immagine virtuale si formi oltre il limite della visione distinta. Poiché in condizioni rilassate l'occhio focalizza all'infinito Il microscopio composto è in grado di produrre ingrandimenti maggiori di quelli possibili con un microscopio semplice. Esso è costituito da due lenti convergenti poste sullo stesso asse ottico. La prima, detta obiettivo (focale foc), ha lo scopo di produrre un'immagine reale e fortemente ingrandita dell'oggetto sulla quale la seconda lente, detta oculare (focale fob), agisce come un microscopio semplice, producendone un'immagine virtuale ulteriormente ingrandita. Perché ciò possa succedere, l'immagine reale prodotta dall'obiettivo deve cadere tra il primo fuoco dell'oculare e l'oculare stesso. l'immagine reale prodotta da una lente risulta capovolta rispetto all'oggetto. Ne segue che l'immagine prodotta da un microscopio composto è capovolta. Dovendo produrre ingrandimenti elevati, l'obiettivo di un microscopio composto ha in genere una lunghezza focale piuttosto breve. Inoltre, la distanza tra obiettivo e oculare, detta tiraggio ottico del microscopio, è solitamente fissa (circa 16,5 cm). Regolando la distanza tra il campione e il blocco obiettivo-oculare si modifica la posizione dell'immagine reale e quindi di quella virtuale. Quando quest'ultima si trova al di là del limite della visione distinta, essa può essere messa a fuoco dall'occhio. Come discusso sopra, se si porta l'immagine reale esattamente sul fuoco dell'oculare, l'immagine virtuale viene prodotta da quest'ultimo all'infinito. In queste condizioni l'occhio deve fare il minimo sforzo per metterla a fuoco. Rappresentazione non in scala di un microscopio composto. La lente Obiettivo produce un’immagine reale dell’oggetto O a una distanza di poco inferiore alla distanza focale delle F 1 della lente Oculare. L’immagine I è l’oggetto per la lente oculare che produce un’immagine virtuale I’ che viene percepita dall’osservatore. S è la lunghezza del tubo che separa le due lenti 28 Il sistema ottico del microscopio fa sì che l’immagine I dell’oggetto O rispetto all’obbiettivo si formi sufficientemente vicino al fuoco f1’ dell’oculare, di modo che l’immagine I’ rispetto all’oculare si formi in un punto più lontano del punto prossimo e sia ingrandita (si agisce sulla distanza s). La grandezza s (distanza tra i due fuochi f2 e f1’) è detta tiraggio e normalmente nei microscopi s>>fob per cui si ha 2 fob + s s mentre l’oculare agisce come una lente. I due ingrandimenti Gob e Goc sono: 𝐺𝑜𝑏 = − 𝑖 𝑠 25 𝑐𝑚 ≈ − 𝐺𝑜𝑐 = , 𝑝 𝑓 𝑓𝑜𝑐 𝐺 = 𝐺𝑜𝑏 ∙ 𝐺𝑜𝑐 ≈ − 𝑠 25 (𝑐𝑚) ∙ 𝑓𝑜𝑏 𝑓𝑜𝑐 Il telescopio Il telescopio serve ad osservare oggetti molto distanti, la sua configurazione è abbastanza simile a quella del microscopio composto. Come il microscopio composto, anche il telescopio è formato da un obiettivo e da un oculare. Il sistema è costruito in modo che i fuochi delle due lenti siano coincidenti. L’immagine dell’oggetto O posto a distanza quasi infinita e visto sotto l’angolo qob ad occhio nudo viene fatta convergere nel fuoco F2 F1’ e vista dall’occhio sotto l’angolo qoc (invertita). L’ingrandimento (angolare) vale 𝑓𝑜𝑏 𝐺𝑞 = − 𝑓𝑜𝑐 Rappresentazione non in scala di un telescopio rifrattore. I raggi provenienti da un oggetto lontano raggiungono la lente Obiettivo approssimativamente paralleli. L’Obiettivo crea un’immagine I reale approssimativamente nel fuoco F 2 che coincide con il fuoco F1 della lente Oculare. Contrariamente a quanto succede per il microscopio composto, nel telescopio è l'oculare ad avere la distanza focale minore. Poiché l'oggetto osservato è molto lontano, i raggi che provengono da esso arrivano praticamente paralleli all'obiettivo, è allora chiaro che quest'ultimo produce un'immagine capovolta nel suo piano focale rivolto verso l'oculare. La dimensione di tale immagine coincide con quella apparente con cui vediamo l'oggetto lontano ad occhio nudo. Anche in questo caso l'oculare funge da microscopio semplice, producendo un'immagine virtuale fortemente ingrandita dell'immagine reale creata dall'obiettivo. A differenza del microscopio semplice, nel telescopio il tiraggio ottico non è fissato. Infatti, essendo l'oggetto da osservare molto lontano, la sua distanza dall'obiettivo non può essere variata sensibilmente. I raggi provenienti dall'oggetto sono paralleli (o quasi), per cui l'obiettivo ne forma un'immagine reale in prossimità del suo secondo piano focale. Ne segue che, per spostare al di là del limite della visione distinta l'immagine virtuale formata dall'oculare, conviene aggiustare opportunamente il tiraggio ottico. 29 Il prisma (non dispersivo) i r r’ i’ n12 Consideriamo un prisma (un solido di sezione triangolare) di materiale trasparente il cui indice di rifrazione rispetto al mezzo esterno sia n12 > 1, sia l’angolo di apertura del prisma, consideriamo un raggio di luce che incide (come in figura) ci chiediamo con quale angolo emergerà dal prisma, cioè quale angolo ci sarà tra il raggio incidente su una faccia del prisma e il raggio che emerge dalla faccia opposta. Applichiamo la legge di Snell alla prima rifrazione, avremo sin 𝑖 = 𝑛12 sin 𝑟 Analogamente per la seconda rifrazione abbiamo sin 𝑖′ 1 = sin 𝑟′ 𝑛12 Ora un’osservazione geometrica, consideriamo il quadrilatero formato dai lati del prisma e dalle due perpendicolari nel punto incidenze ed emergenza, sappiamo che la somma degli angoli interni di un quadrilatero è un angolo giro, dal momento che in questo quadrilatero ci sono due angoli retti, risulta che l’angolo opposto ad sarà 180° - , per cui l’angolo in figura risulta essere . Allora = r + i’, quindi i’ = - r. Osserviamo il triangolo formato dal raggio dentro il prisma e dai prolungamenti del raggio incidente ed emergente, l’angolo esterno è l’angolo di deviazione tra il raggio incidente ed emergente, = (i - r) + (r’ – i’), cioè 𝛿 = (𝑖 + 𝑟 ′ ) − (𝑟 + 𝑖 ′ ) = (𝑖 + 𝑟 ′ ) − 𝜔 Si trova sperimentalmente (ma anche teoricamente) che questo angolo ha un minimo al variare dell’angolo i. In condizione di minimo si ha 𝛿 + 𝜔 sin 𝑚𝑖𝑛2 𝑛12 = 𝜔 sin 2 Condizione che permette la misura dell’indice di rifrazione del materiale con cui è fatto il prisma con grande precisone. 30 La dispersione della luce Fino a questo punto abbiamo parlato di luce in modo indistinto pur sapendo che si tratta di un gruppo di onde elettromagnetiche di lunghezza d’onda compresa tra 400 e 700 nm, abbiamo descritto quei fenomeni (riflessione e rifrazione) che in prima analisi non dipendono dalla lunghezza d’onda. Dipendenza dell’indice di rifrazione dalla lunghezza d’onda L’indice di rifrazione di un mezzo materiale manifesta una debole (ma non troppo) dipendenza dalla lunghezza d’onda della luce che lo attraversa. Si osserva sperimentalmente una diminuzione dell’indice n al crescere della lunghezza d’onda (dispersione normale). In prossimità di un assorbimento (quando cioè l’energia dei singoli fotoni è vicina all’energia necessaria ad un elettrone a salire di livello, l’indice di rifrazione varia in modo sensibile con la lunghezza d’onda e può essere anche minore di uno! Ciò non significa che l’onda viaggia ad una velocità cn = cv/n > cv, ma che l’onda si disperde, cioè onde con diverse lunghezza d’onda emesse contemporaneamente dalla stessa sorgente, viaggiando a velocità diversa perdono il “loro stare insieme” pur mantenendo una velocità media complessiva (velocità di gruppo) inferiore alla velocità della luce nel vuoto. Si trova che, per la maggior parte delle sostanze, l'indice di rifrazione decresce con regolarità all'aumentare della lunghezza d'onda della radiazione visibile considerata; la relazione che lega l'indice di rifrazione alla lunghezza d'onda, n=n(λ), è detta relazione di dispersione. In buon accordo con i dati sperimentali, vale la formula dovuta ad A. Cauchy: 𝑛=𝑎+ 𝑏 𝑐 + 𝜆2 𝜆3 dedotta dalla teoria elettromagnetica dell'interazione della radiazione elettromagnetica con la materia, in cui a, b e c sono costanti positive. Poiché la dispersione, come grandezza fisica, è definita dal rapporto n/λ tra la variazione infinitesima dell'indice di rifrazione e la corrispondente variazione infinitesima di lunghezza d'onda, per la formula di Cauchy si ha: 𝑑𝑛 2𝑏 = − 3 𝑑𝜆 𝜆 31 essendosi trascurato, come è lecito, il che dipende da potenze superiori. Risulta pertanto che le radiazioni di lunghezza d'onda maggiore subiscono una deviazione minore; in altre parole, le radiazioni nella zona del rosso dello spettro visibile hanno una dispersione minore di quelle della zona del violetto. In pratica, la dispersione di un mezzo si misura mediante il numero di Abbe, detto anche potere dispersivo, o costringenza, o coefficiente di dispersione media. Si noti, tuttavia, che, talvolta, si definisce potere dispersivo l'inverso del numero di Abbe. Il fenomeno della dispersione sopra trattato fu definito dispersione normale, in contrapposizione al fenomeno della dispersione anomala presentato da alcune sostanze (per esempio, la parafucsina solida) e consistente nel fatto che per esse la formula di Cauchy non è più valida e, in particolare, si ha un incremento dell'indice di rifrazione all'aumentare della lunghezza d'onda della radiazione. In realtà, le radiazioni luminose costituiscono una piccola porzione dello spettro elettromagnetico, che va dalle radioonde ai raggi infrarossi e, dall'altra parte del visibile, dai raggi ultravioletti ai raggi X e ai raggi γ. La teoria completa dell'interazione elettromagnetica con la materia prevede nei materiali la presenza di bande di assorbimento in corrispondenza di determinati valori della lunghezza d'onda della radiazione che le attraversa; vicino a queste bande di assorbimento non è più valida la formula di Cauchy e la relazione di dispersione presenta una forma molto complessa che, in particolare, descrive il comportamento caratteristico della dispersione anomala. Tutte le sostanze presentano quindi dispersione anomala, solo che per la maggior parte di esse le bande di assorbimento non cadono nel visibile e pertanto il fenomeno non poté nei primi tempi, essere osservato. Per quanto detto, quindi, la distinzione tra dispersione normale e dispersione anomala ha sostanzialmente un significato storico. L’interferenza della luce – L’esperimento di Young Nel 1801 l’inglese Thomas Young (1773-1829) eseguì un esperimento di importanza fondamentale che confermò l’ipotesi della natura ondulatoria della luce e fornì un metodo operativo per misurarne la lunghezza d’onda. La figura seguente mostra uno schema dell’esperimento, in cui la luce di una sola lunghezza d’onda (detta luce monocromatica) passa prima attraverso una fenditura singola molto sottile e poi va a incidere su altre due fenditure S1 e S2, molto sottili e molto vicine tra loro. Le due fenditure S1 e S2 si comportano come sorgenti coerenti di luce perché la luce emessa da ciascuna di esse proviene dalla stessa sorgente, cioè dalla fenditura singola. Queste due fenditure producono su uno schermo una figura d’interferenza formata da frange chiare alternata a frange scure. 32 La figura seguente mostra il cammino delle onde che incidono nel punto centrale dello schermo. Nella parte A della figura le distanze ℓ1 e ℓ2 tra questo punto e le fenditure sono uguali e ciascuna contiene lo stesso numero di lunghezze d’onda. Perciò le onde interferiscono costruttivamente e danno origine a una frangia chiara. La parte B della figura mostra che le onde interferiscono costruttivamente perché la differenza di cammino è uguale ad una lunghezza d’onda producendo due frange chiare in posizioni simmetriche rispetto alla frangia centrale quando la differenza dei cammini è uguale a una lunghezza d’onda (nella figura è mostrato solo il caso ℓ2 − ℓ1 = 𝜆). Le onde interferiscono costruttivamente, producendo altre frange chiare (non rappresentate nella figura) da entrambe le parti della frangia centrale, ogni volta che la differenza tra i cammini ℓ2 e ℓ1 è uguale a un numero intero di lunghezze d’onda: λ, 2λ, 3λ ecc. La parte C della figura mostra come si forma la prima frangia scura. In questo caso la distanza ℓ2 è maggiore di ℓ1 e la differenza ℓ2 − ℓ1 è esattamente uguale a mezza lunghezza d’onda, perciò le onde interferiscono distruttivamente e danno origine alla frangia scura. Le onde interferiscono distruttivamente, producendo altre frange scure da entrambe le parti della frangia centrale, ogni volta che la differenza tra ℓ1 e ℓ2 è uguale a un numero dispari di mezze lunghezze d’onda: ℓ2 − ℓ1 = (2𝑛 + 1) 𝜆 2 𝑛 = 0, 1, 2, 3, … … … Ai tempi in cui l’esperimento fu condotto fu considerato una prova molto convincente in favore della teoria ondulatoria della luce. 33 Condizione di interferenza Le posizioni delle frange sullo schermo possono essere calcolate osservando la figura seguente. Se la distanza dello schermo dalla doppia fenditura è molto grande rispetto alla distanza d tra le due fenditure, le rette indicate con ℓ1 e ℓ2 nella parte A della figura sono praticamente parallele e quindi formano angoli θ praticamente uguali rispetto alla retta perpendicolare allo schermo con le due fenditure. La differenza Δℓ tra le distanze ℓ1 e ℓ2 nella figura è uguale alla lunghezza del lato minore del triangolo colorato rappresentato nella parte B della figura. Poiché questo triangolo è rettangolo, si ha che ∆ℓ = 𝑑 sin 𝜗 L’interferenza è costruttiva quando le distanze ℓ1 e ℓ2 differiscono di un numero intero di lunghezze d’onda, cioè quando ∆ℓ = 𝑑 sin 𝜗 = 𝑚 𝜆 . Perciò le ampiezze dell’angolo θ che danno luogo ai massimi di interferenza possono essere calcolate con la formula seguente: 𝑓𝑟𝑎𝑛𝑔𝑒 𝑖𝑛𝑡𝑒𝑟𝑓𝑒𝑟𝑒𝑛𝑧𝑎 𝑐ℎ𝑖𝑎𝑟𝑒: sin 𝜃 = 𝑚 𝜆 𝑑 𝑚 = 0, 1, 2, 3, … .. Il valore di m è chiamato ordine della frangia; per esempio, m = 2 indica la frangia chiara «di secondo ordine». Gli angoli θ che si ricavano dall’equazione precedente individuano le posizioni delle frange chiare su entrambi i lati della frangia centrale (figura C). Ragionando in modo analogo si giunge alla conclusione che le posizioni delle frange scure che si formano tra quelle chiare possono essere calcolate con la formula seguente: 𝑓𝑟𝑎𝑛𝑔𝑒 𝑖𝑛𝑡𝑒𝑟𝑓𝑒𝑟𝑒𝑛𝑧𝑎 𝑠𝑐𝑢𝑟𝑒: 1 𝜆 sin 𝜃 = (𝑚 + ) 2 𝑑 𝑚 = 0, 1, 2, 3, … .. Interferenza su lamine sottili Nella vita quotidiana è piuttosto frequente osservare il fenomeno dell’interferenza delle onde luminose riflesse da lamine sottili (figura seguente). La parte B della figura schematizza una sottile 34 pellicola di benzina che galleggia sull’acqua e sulla quale incide in direzione quasi perpendicolare un fascio di luce monocromatica. Nel punto d’incidenza si hanno due raggi luminosi: il raggio riflesso 1 e il raggio rifratto che attraversa la pellicola. Dove il raggio rifratto incontra la superficie di separazione benzina-acqua si origina un fascio riflesso 2 che attraversa la pellicola e torna a propagarsi nell’aria. Le onde 1 e 2 possono interferire fra loro come le onde luminose provenienti dalle due fenditure nell’esperimento di Young. Per determinare le condizioni d’interferenza bisogna valutare i due fattori che cambiano la fase delle onde: la distanza percorsa e la riflessione. L’indice di rifrazione di un mezzo materiale è legato alla costante dielettrica, il campo elettrico dell’onda luminosa nel passaggio da un mezzo materiale ad un altro subisce una variazione (se il passaggio è verso un mezzo ad indice di rifrazione maggiore il campo si riduce), la grandezza campo elettrico però non può essere discontinua, ciò significa che nel mezzo da cui proviene la luce deve prodursi una nuova onda con fase opposta che compensi il valore del campo. Ciò significa che il fenomeno della rifrazione è accompagnato da quello della riflessione. Se il passaggio è da un mezzo rifrangente ad uno più rifrangente si ha necessariamente un’inversione di fase dell’onda riflessa, non succede nel caso contrario. Ricordiamo che la frequenza dell’onda non è modificata nella rifrazione ma, cambiando la velocità, si modifica la lunghezza d’onda, abbiamo cioè: 𝜆𝑚𝑒𝑧𝑧𝑜 = 𝜆𝑣𝑢𝑜𝑡𝑜 𝑛 Questo fatto spiega come mai un sottile strato di idrocarburo galleggiante sull’acqua appare iridescente. Un raggio di luce nel passaggio dall’aria all’idrocarburo viene rifratto e la lunghezza d’onda nell’idrocarburo si riduce, il raggio riflesso subisce un’inversione di fase. Nel passaggio dall’idrocarburo all’acqua (che ha indice di rifrazione inferiore) il raggio riflesso è in fase con il raggio incidente. Un osservatore vede la luce emergere dalla superficie dell’idrocarburo con diverse fasi per cui è possibile che si formi interferenza. La condizione di interferenza costruttiva si avrà se la luce emergente dall’idrocarburo riflessa dall’acqua sia in fase con la luce riflessa dall’idrocarburo, se lo sfasamento è di mezza lunghezza d’onda avremo interferenza distruttiva. Se chiamiamo t lo spessore dell’idrocarburo, i raggi 1 e 2 della figura faranno interferenza distruttiva se la differenza di 35 cammino 2t sommata all’inversione di fase per riflessione sia un multiplo della lunghezza d’onda più mezza lunghezza d’onda, ricordando che nell’idrocarburo la lunghezza d’onda è ridotta si ha: 2𝑡 = 𝑚 𝜆 , 𝑛 𝑚 = 1, 2, 3 … .. La superficie dell’acqua (all’aperto) difficilmente è stazionaria, per cui sulla stessa direzione si hanno interferenze di diverse lunghezze d’onda, da cui l’iridescenza. In caso di osservazione quasi perpendicolare l’osservazione della “luce mancante” permette di risalire allo spessore dello strato. Questo meccanismo è alla base dei così detti filtri interferenziali utili per ridurre determinate lunghezza d’onda. Diffrazione (fonte Cutnell and Johnson – elementi di fisica) L’interferenza produce i suoi effetti anche quando la luce attraversa anche una sola fenditura. L’intensità del fenomeno è legata alla larghezza d della fenditura ed è apprezzabile se 𝑑 ≈ 𝜆 cioè se la larghezza della fenditura è confrontabile con lunghezza d’onda (es: luce verde, = 500 nm, per osservare la diffrazione d deve essere la massimo 10 – 100 volte , cioè 𝑑 ≈ 0.05 𝑚𝑚). Consideriamo un fronte d’onda piano che incide perpendicolarmente su una fenditura molto stretta e determiniamo le caratteristiche della figura di diffrazione che si forma su uno schermo molto lontano dalla fenditura. Immaginiamo come in figura che la fenditura si comporta come un fronte d’onda caratterizzato da cinque sorgenti in fase che, secondo il principio di Huygens emettono onde circolari. La figura mostra cinque delle sorgenti di onde sferiche secondarie descritte dal principio di Huygens. Consideriamo il modo in cui la luce emessa da queste cinque sorgenti raggiunge il punto centrale dello schermo. Tutte le onde sferiche secondarie percorrono la stessa distanza per arrivare al punto centrale dello schermo (se lo schermo è molto distante e la fenditura è piccola), dove arrivano in concordanza di fase. Esse quindi danno origine a interferenza costruttiva, producendo una frangia centrale chiara nel centro dello schermo, direttamente davanti alla fenditura. Figura 1 36 Figura 2 La figura precedente mostra le onde sferiche secondarie dirette verso la prima frangia scura della figura di diffrazione. Queste onde sono parallele e formano un angolo θ rispetto alla direzione del fronte d’onda incidente. L’onda emessa dalla sorgente 1 percorre il cammino più breve per arrivare allo schermo, mentre l’onda emessa dalla sorgente 5 percorre il cammino più lungo. L’interferenza distruttiva dà luogo alla prima frangia scura quando la differenza tra i loro cammini è esattamente uguale a una lunghezza d’onda. In queste condizioni la differenza tra i cammini dell’onda emessa dalla sorgente 3 al centro della fenditura e dell’onda emessa dalla sorgente 1 è esattamente uguale a mezza lunghezza d’onda. Perciò, come mostra la parte B della figura, queste due onde sono in opposizione di fase e interferiscono distruttivamente quando raggiungono lo schermo. Lo stesso ragionamento vale per due onde qualunque emesse da due sorgenti poste rispettivamente nella metà superiore e nella metà inferiore della fenditura alla stessa distanza dalla sorgente 1 e dalla sorgente 3. L’angolo θ che individua la posizione della prima frangia scura può essere ricavato dalla figura B. Il triangolo colorato è rettangolo e la sua ipotenusa è la larghezza d della fenditura: quindi sen θ = λ/d. La figura mostra la condizione in cui le onde sferiche secondarie interferiscono distruttivamente dando origine alla seconda frangia scura su ciascun lato della frangia luminosa centrale. In questo caso il cammino percorso dall’onda emessa dalla sorgente 5 per arrivare allo schermo differisce esattamente di due lunghezze d’onda dal cammino percorso dall’onda emessa dalla sorgente 1. In queste condizioni la differenza tra il cammino percorso dall’onda emessa dalla sorgente 5 e quello percorso dall’onda emessa dalla sorgente 3 è esattamente uguale a una lunghezza d’onda, e lo stesso avviene per le onde emesse dalla sorgente 3 e dalla sorgente 1. Perciò ciascuna metà della fenditura può essere descritta come abbiamo fatto nel caso della prima frangia scura: tutte le onde secondarie emesse dalle sorgenti poste nella metà superiore della fenditura interferiscono distruttivamente con le corrispondenti onde secondarie generate nella metà inferiore della fenditura e danno origine alla seconda frangia scura che si osserva sullo schermo ai due lati del punto centrale. Il triangolo colorato della figura mostra che l’angolo θ che individua la posizione della seconda frangia scura può essere ricavato dalla relazione sen θ = 2λ/d. 37 Ripetendo lo stesso tipo di ragionamento per le frange scure di ordine maggiore, si giunge alla conclusione che le posizioni delle frange scure possono essere calcolate con la formula seguente: 𝑖𝑛𝑡𝑒𝑟𝑓𝑒𝑟𝑒𝑛𝑧𝑎 𝑑𝑖𝑠𝑡𝑟𝑢𝑡𝑡𝑖𝑣𝑎: sin 𝜗 = 𝑚 𝜆 𝑑 𝑚 = 1, 2, 3, … Notiamo che la stessa relazione per l’esperimento Young dove d è la distanza tra le due fenditure permetteva di individuare le frange chiare (interferenza costruttiva). Potere risolutivo La diffrazione dovuta ad un’apertura di forma circolare ha una forma analitica leggermente diversa. Se consideriamo la figura Figura di diffrazione prodotta da un fascio di luce monocromatico che attraversa un’apertura circolare di raggio a. La relazione che lega l’angolo q sotto il quale si produce un “anello scuro” è legata alla simmetria circolare del problema (funzioni di Bessel) da cui il fattore 1.22 La prima frangia scura (n = 1, in questo caso n sta per numero intero) si ha per un angolo secondo la seguente legge sin(𝜗) = 1.22 ∙ 𝜆 𝑛𝑎 Dove è lunghezza d’onda nel vuoto, n è l’indice di rifrazione del mezzo in cui avviene la diffrazione e a è il diametro dell’apertura circolare, 1.22 è un coefficiente delle funzioni di Bessel. Anche l’occhio umano si comporta come un’apertura circolare e la luce produce una figura di diffrazione sulla retina limitando la capacità dell’ottico di distinguere oggetti diversi. Per poter affermare che due immagini sono distinte si usa il criterio di lord Rayleigh: “Due sorgenti distinte avranno immagini anch’esse distinte se il massimo centrale della figura di diffrazione della prima cade nel primo minimo della figura di diffrazione della seconda” che, nel caso di due sorgenti di uguale intensità, si traduce nell’osservare due picchi distinti con un avvallamento corrispondente all’ottanta percento del massimo. 38 L’occhio è un sistema ottico in cui la pupilla è il foro attraverso il quale passa la luce e la retina lo schermo sul quale si forma l’immagine e la figura di diffrazione. La pupilla mediamente ha un diametro d = 5 mm e la distanza della retina dal foro è D = 2.3 cm (23 mm). Se assumiamo come lunghezza d’onda della luce il verde abbiamo = 500 nm Senza entrare nel dettaglio della funzione che descrive la figura di diffrazione, si considerano due figure identiche i cui massimi sono considerati distinti se tra loro si osserva una riduzione dell’intensità massima fino all’80% (circa) Nel caso dell’occhio umano possiamo assumere come apertura la pupilla d = 5 mm, luce = 500 nm, n = 1.33, otteniamo quindi 𝜗 ≅ sin(𝜗) = 1.22 ∙ 𝜆 5x10−7 180 = 1.22 ∙ ≈ 10−4 𝑟𝑎𝑑 = x10−4 = 0.0057° ≈ 0,34′ −3 𝑛𝑎 1.33 ∙ 5x10 3.1416 Nota sulla conversione degli angoli: il risultato 0,0057° ottenuto dalla conversione dei radianti è espresso in gradi decimali. I gradi corrispondono alla cifra intera, nel nostro caso 0°, i primi si ottengono moltiplicando per 60 i gradi decimali diminuiti dei gradi interi, (0,0057 – 0) x 60 = 0,342’, quindi 0’, i secondi si ottengono con lo sesso procedimento (0,342 – 0) x 60 = 20,5’’. Il nostro angolo è quindi 0° 0’ 21’’ Assumendo come distanza media tra la pupilla e la cornea la distanza D = 2.3 cm, la minima distanza x risolvibile sulla retina è 𝑥 = 𝐷 ∙ 𝜗 = 2.3x10−2 x 10−4 ≈ 10−6 𝑚 (approssimativamente la larghezza di una cellula) Reticolo di diffrazione La diffrazione è il fenomeno che sta alla base di uno dei principali strumenti della spettroscopia: il reticolo di diffrazione si ottiene affiancando più fenditure uguali con una distanza costante tra esse. La combinazione degli effetti di molte fenditure produce un rafforzamento delle figure di interferenza costruttiva. Sul massimo centrale (ordine zero) tutte le lunghezze d’onda producono 39 interferenza costruttiva, ma già al primo ordine (m = 1, angolo ) l’angolo è leggermente diverso per le diverse lunghezze d’onda L’ordine zero (m =0) è centrale ed indipendente dalla lunghezza d’onda, il primo ordine (m = 1) si produce sotto un angolo che dipende dalla lunghezza d’onda, pertanto una luce non monocromatica che attraversa un reticolo produce un sistema di figure di diffrazione che per m > 0 non sono sovrapposti permettendo l’analisi della luce 40 Reticoli in riflessione Nei reticoli a riflessione invece che fenditure ci sono tanti diversi piani riflettenti, inclinati di un certo angolo (angolo che la superficie riflettente forma con il piano del reticolo, tale angolo prende il nome di angolo di blaze, da cui il nome reticoli blazed). Visto in sezione parallela al piano di incidenza della luce si può schematizzare questa geometria. Il vantaggio principale (oltre all’assenza di fenomeni di assorbimento della luce) è che il fattore dovuto alla diffrazione non presenta il valore massimo in corrispondenza dell’ordine 0, ma di un ordine superiore (per il quale non si ha sovrapposizione dei massimi di tutte le lunghezze d’onda), che dipende dall’angolo di blaze. IL MONOCROMATORE Il reticolo è il componente principale del monocromatore, la cui funzione è far uscire in una certa direzione una precisa . A tal fine, invece di cambiare la direzione della luce bianca rispetto al reticolo, si ruota il reticolo di una piccola frazione di angolo, in modo da ritornare nella condizione di concordanza di fase con una diversa. Costruttivamente il monocromatore ha una fenditura di ingresso, su cui viene inviata la luce bianca (o comunque quella da analizzare), e che funge da sorgente puntiforme del sistema. Essa illumina uno specchio concavo, il quale trasforma il fascio divergente che arriva dalla fenditura in un fascio parallelo, che illumina uniformemente il reticolo a riflessione. Funzionamento di un monocromatore. La fenditura di ingresso 41 La luce riflessa segue un percorso ottico analogo ma inverso (specchio concavo che fa convergere i raggi prima paralleli), in una direzione di uscita che è selezionata da un’altra piccola fenditura. La luce che passerà dalla fenditura sarà solo quella che avrà una tale da realizzare, per quell’angolo, un’interferenza costruttiva tra tutte le migliaia di raggi riflessi. Le altre lunghezze d’onda faranno interferenza costruttiva ad angoli diversi, e quindi prima e dopo la fenditura, in differenti punti del piano AB. Tuttavia, ruotando il reticolo attorno ad un asse perpendicolare al foglio, esse verranno man mano a trovarsi allineate con la fenditura, e potranno essere utilizzate successivamente. Ovviamente il monocromatore è tanto più efficace quanto più riesce a separare due vicine (in figura 1 e 2), e questo potere risolvente va scelto in base all’intervallo spettrale a cui si è interessati (UV, VIS, NIR, cioè ultravioletto, visibile, vicino infrarosso). Diffrazione di raggi X I raggi X sono onde elettromagnetiche di lunghezza d’onda dell’ordine di 1 Å (1Å = 10-10 m). Molto inferiore alla lunghezza d’onda della luce visibile = 550 nm. I Raggi X vengono generati facendo urtare elettroni veloci su un bersaglio metallico. Un reticolo di diffrazione non può essere usato per discriminare diverse lunghezza d’onda nel range dei raggi X. Ad esempio: = 1 Å, d = 3000 nm, l’equazione di reticolo afferma che il primo massimo 𝜆 𝛼 = sin−1 ( ) = 0,0019° 𝑑 Un angolo troppo piccolo per poter essere apprezzato. E’ impossibile costruire un reticolo che abbia una densità di linee per millimetro tale da raggiungere le dimensioni intra-atomiche. Pertanto si usa un reticolo tridimensionale naturale. L’idea consiste nell’utilizzare un cristallo si NaCl la cui cella base (cubica di lato a0) si ripete. Quando un fascio di raggi X attraversa un cristallo di NaCl, i raggi X sono deviati (scatterati) in tutte le direzioni dalla struttura del cristallo. In alcune direzioni si ha interferenza distruttiva, in altre costruttiva. Piani virtuali Sebbene il processo di diffrazione dei raggi X da parte di un cristallo sia alquanto complicato, si ha che i massimi sono nelle direzioni come se i raggi X fossero riflessi da una famiglia di piani paralleli che si estendono dentro il cristallo. 42 La figura (b) mostra tre piani di riflessione separate da una distanza d. L’angolo di incidenza e quello di riflessione sono indicati con la lettera q. Contrariamente all’ottica geometrica questi angoli sono riferiti al piano di riflessione e non alla perpendicolare nel punto di incidenza. La figura (c) mostra una vista laterale della riflessione prodotta da una coppia di piani adiacenti. Osserviamo che dopo la riflessione le onde suono nuovamente in fase. Diversamente dalla luce i raggi X non si rifrangono alla superficie di separazione aria-cristallo e non si definisce un indice di rifrazione per questa situazione. La differenza di fase dei raggi emergenti è dovuta esclusivamente alla differenza di cammino, quindi due raggi saranno in fase se la differenza di cammino è un multiplo intero della lunghezza d’onda dei raggi X. Dalla figura (c) si deduce che la differenza di cammino è 2𝑑 𝑠𝑖𝑛𝜃, questo vale per ogni coppia di piani adiacenti, questo fornisce un criterio per l’intensità dei massimi nella figura di diffrazione: 2𝑑 𝑠𝑖𝑛𝜃 = 𝑚𝜆, 𝑚 = 1, 2, 3, … Il fascio di raggi X può incidere sulla superficie del cristallo con differenti angoli e individuare una diversa famiglia di piani come in figura (d) permettendo la misura di una diversa distanza interplanare. Polarizzazione (fonte Hallyday Resnik) Le antenne VHF (Very High Frequency) della televisione inglese sono orientate verticalmente mentre quelle del Nord America sono orizzontali. La differenza è dovuta alla direzione su cui oscilla il campo elettromagnetico che trasporta il segnale TV. In Inghilterra gli apparati di trasmissione sono progettati per generare onde che sono polarizzate verticalmente cioè, il campo elettrico di oscilla verticalmente. Così le onde generano una corrente nelle antenne. Nel Nord America le antenne sono orizzontali 43 In figura (a) è riportata un’onda elettromagnetica il cui campo elettrico oscilla parallelamente all’asse verticale y. Il piano che contiene i vettori del campo elettrico è detto piano di oscillazione (e l’onda è detta polarizzata linearmente). Possiamo rappresentare un’onda polarizzata mediante la direzione di oscillazione del campo elettrico come in figura (b). . Luce Polarizzata Le onde elettromagnetiche emesse da una stazione televisiva hanno tutte la medesima polarizzazione mentre le onde elettromagnetiche emesse da una normale sorgente di luce (lampada ad Luce non polarizzata incandescenza) hanno polarizzazione casuale (o che si propaga verso semplicemente sono non polarizzate), ciò significa l’osservatore. Il campo elettrico è orientato in che il campo elettrico, pur restando perpendicolare tutte le direzioni alla direzione di propagazione dell’onda, può avere una qualunque orientazione. La luce non polarizzata è rappresentata con una doppia freccia E’ possibile trasformare luce non polarizzata in luce polarizzata facendola passare attraverso in filtro polarizzatore (noto anche come polaroid) inventato nel 1932 da Edwin Land. Un filtro polarizzatore consiste in una serie di lunghe molecole parallele fissate in plastica. Quando la luce è indirizzata sul Rappresentazione semplificata di filtro, solo la componente con il campo elettrico luce polarizzata parallelo (non è del tutto esatto) alle lunghe molecole riesce ad attraversarlo, l’altra componente no, viene assorbita dal filtro e “rimossa” dal fascio di luce. E’ possibile quindi assegnare al filtro una direzione di polarizzazione e usarlo per produrre luce polarizzata. Intensità della luce polarizzata trasmessa Poiché l’intensità è proporzionale al modulo quadrato del campo elettrico, solo metà della luce non polarizzata attraversa un filtro. 𝐼𝑇 = 𝐼𝐼 2 44 La direzione di polarizzazione del filtro è verticale, solo la luce polarizzata verticalmente attraversa il filtro Raggio di luce incidente Filtro polarizzatore con asse verticale. Solo la componente verticale del campo elettrico attraversa il filtro (quindi anche la proiezione del campo lungo l’asse del filtro) Luce non polarizzata Filtro polarizzatore Luce polarizzata verticalmente Nel caso in cui ad incidere sul filtro sia luce polarizzata l’intensità della luce trasmessa dipenderà dall’angolo tra la direzione del campo elettrico e l’asse del filtro. 𝐸𝑇 = 𝐸𝐼 cos 𝜃 Per cui l’intensità trasmessa sarà 𝐼𝑇 = 𝐼𝐼 ∙ cos 𝜃 2 Riflessione e rifrazione di luce polarizzata (Equazioni di Fresnel - fonte ITIS Lanciano) La luce è una perturbazione elettromagnetica e propaga come un’onda in cui i vettori del campo elettrico E e del campo magnetico B (in elettromagnetismo il campo magnetico è indicato con la lettera H quando si fa riferimento al vuoto e con la lettera B se si fa riferimento ai materiali) sono sempre perpendicolari fra loro. Quando il vettore campo elettrico, o quello del campo magnetico, oscillano sempre nello stesso piano, diciamo che la luce è polarizzata linearmente. 45 Ci proponiamo, ora, di determinare le situazioni che si vengono a creare per i campi elettrici e magnetici nella riflessione e nella rifrazione su una superficie di separazione di due mezzi con indici di rifrazione n1 e n2, nel caso di luce polarizzata linearmente. Si suppone che i mezzi di propagazione siano dielettrici, cioè non conduttori, e non magnetici (la permeabilità magnetica del primo e quella del secondo mezzo sono uguali). Se definiamo “piano di incidenza” il piano contenente le direzioni di propagazione dell’onda diretta, individuata dal vettore d’onda ki, dell’onda riflessa, individuata da kr, e dell’onda rifratta, individuata da kt, possiamo analizzare due particolari situazioni che si possono avere nel caso di onde polarizzate linearmente, a seconda che il vettore campo elettrico E oscilli perpendicolarmente al piano di incidenza (onda polarizzata di tipo s ) oppure parallelamente al piano di incidenza (onda polarizzata di tipo p ). (Da ora in poi utilizzeremo il pedice i per l’onda incidente, il pedice r per l’onda riflessa e il pedice t per l’onda rifratta o trasmessa. Indicheremo inoltre con gli angoli di incidenza e di riflessione, che devono essere uguali, e con l’angolo di rifrazione). La prima situazione, riportata nella figura seguente, si ha quando il vettore campo elettrico E oscilla perpendicolarmente al “piano di incidenza”, e di conseguenza il vettore campo magnetico H (o vettore induzione magnetica B = ·H, con permeabilità magnetica del mezzo di propagazione) oscilla parallelamente ad esso. L’onda con queste caratteristiche, come abbiamo detto, è comunemente indicata come onda polarizzata di tipo S. (𝑬⊥ → 𝒐𝒏𝒅𝒂 𝑺) -- (𝑬∥ → 𝒐𝒏𝒅𝒂 𝑷) Piano di incidenza ki mezzo 1, n1 Bi kr Ei Er Br interfaccia mezzo 2, n2 Bt Et kt Le equazioni di Maxwell (l’insieme delle equazioni che descrivono il comportamento del campo elettromagnetico) impongono che le componenti tangenziali del campo elettrico E sul piano di interfaccia siano continue (cioè la grandezza fisica campo elettrico E non cambia il suo valore sulla superficie di separazione o interfaccia), così come quelle del vettore induzione magnetica B, il che 46 equivale a dire che le componenti tangenziali complessive nel primo mezzo siano uguali a quelle nel secondo: eq. S1 E1,tan = E2, tan B1,tan = B2, tan Riferendoci alla figura, osservando che il campo elettrico E oscilla parallelamente alla superficie di separazione e che il campo magnetico B fa un angolo con la superficie di separazione possiamo allora scrivere: eq. S2 𝐵𝑖 cos 𝛼 − 𝐵𝑟 cos 𝛼 = 𝐵𝑡 cos 𝛽 𝐸𝑖 + 𝐸𝑟 = 𝐸𝑡 Un’altra relazione importante, sempre derivante dalle equazioni di Maxwell, valida nel caso di materiali non magnetici ( = 2) e non conduttori, è: eq. S3 𝐸 𝑣 𝐵= = 𝑛𝐸 𝑐 (questa relazione si ricava dalle equazioni di Maxwell in regime sinusoidale) Sostituendo la eq. S3 nella seconda delle eq. S2, possiamo scrivere: 𝐸𝑖 𝑛1 cos 𝛼 eq. S4 𝑐 − 𝐸𝑟 𝑛1 cos 𝛼 𝑐 = 𝐸𝑡 𝑛2 cos 𝛽 𝑐 Ricordando la prima delle eq. S2 e sostituendo, abbiamo: 𝐸𝑖 𝑛1 cos 𝛼 − 𝐸𝑟 𝑛1 cos 𝛼 = 𝐸𝑖 𝑛2 cos 𝛽 + 𝐸𝑟 𝑛2 cos 𝛽 e finalmente: 𝐸𝑟⊥ eq. S5 𝐸𝑖⊥ = 𝑛1 cos 𝛼− 𝑛2 cos 𝛽 𝑛1 cos 𝛼+ 𝑛2 cos 𝛽 Osserviamo che se n2 > n1 avremo > e Er sarà di segno opposto ad Ei, cioè in opposizione di fase, tale relazione si mantiene anche per incidenza normale = = 0. Allo stesso modo, ricavando dalle eq.2 Er = Et - Ei e sostituendo nella eq.4, abbiamo: 𝐸𝑖 𝑛1 cos 𝛼 − 𝐸𝑡 𝑛1 cos 𝛼 + 𝐸𝑖 𝑛1 cos 𝛼 = 𝐸𝑡 𝑛2 cos 𝛽 2 ∙ 𝐸𝑖 𝑛1 cos 𝛼 = 𝐸𝑡 (𝑛1 cos 𝛼 + 𝑛2 cos 𝛽) e finalmente: eq. 6 𝐸𝑡⊥ 𝐸𝑖⊥ = 2∙𝑛1 cos 𝛼 𝑛1 cos 𝛼+ 𝑛2 cos 𝛽 Le equazioni S5 e S6 sono le equazioni di Fresnel valide per un’onda polarizzata di tipo S. Le stesse equazioni, dividendo numeratore e denominatore per n1 e ricordando la legge di Snell, sin 𝛼 𝑛2 = sin 𝛽 𝑛1 47 assumono la forma eq. S7 eq. S8 𝐸𝑟⊥ 𝐸𝑖⊥ 𝐸𝑡⊥ 𝐸𝑖⊥ = = sin 𝛼 cos 𝛽 sin 𝛽 sin 𝛼 cos 𝛼+ cos 𝛽 sin 𝛽 cos 𝛼− = 2 cos 𝛼 sin 𝛼 cos 𝛼+ cos 𝛽 sin 𝛽 = sin 𝛽 cos 𝛼−sin 𝛼 cos 𝛽 sin 𝛽 cos 𝛼+sin 𝛼 cos 𝛽 sin(𝛽−𝛼) = sin(𝛽+𝛼) 2 sin 𝛽 cos 𝛼 sin 𝛽 cos 𝛼+sin 𝛼 cos 𝛽 = 2 sin 𝛽 cos 𝛼 sin(𝛽+𝛼) Il segno nei rapporti fra Er, Ei ed Et ci dà indicazioni sulla fase relativa fra i vettori. Il segno positivo indica la conservazione della fase, mentre il segno negativo indica un ribaltamento di fase, cioè uno sfasamento di . In entrambe le eq. S7 e S8 il denominatore è sempre positivo, essendo la somma di e sicuramente compresa fra 0 e , dove la funzione seno è positiva. Tutto dipende quindi dal segno del numeratore. Nella eq. S8 il numeratore è positivo poiché sia che sono compresi fra 0 e /2, intervallo in cui sia il seno che il coseno sono positivi; questo comporta che l’onda trasmessa è in fase con quella incidente. Nella eq. S7, invece, bisogna tener conto del valore di . Se , cioè n1 > n2, sen( ) > 0. In questo caso l’onda riflessa è in fase con quella incidente. Se, invece < , cioè n1 < n2, e quindi sen( – ) < 0, allora l'onda riflessa è in opposizione di fase rispetto all’onda incidente. E’ questo quello che comunemente si verifica essendo quasi sempre n1 < n2. Analizziamo ora il caso, illustrato nella figura seguente, in cui il vettore campo elettrico sia parallelo al piano di incidenza (onda polarizzata di tipo p). Piano di incidenza Ei mezzo 1, n1 Br Bi ki Er interfaccia Et mezzo 2, n2 kr kt Bt 48 Le stesse considerazioni fatte in precedenza ci portano a scrivere: eq. P1 E1,tan = E2, tan B1,tan = B2, tan eq. P2 𝐸𝑖 cos 𝛼 + 𝐸𝑟 cos 𝛼 = 𝐸𝑡 cos 𝛽 𝐵𝑖 − 𝐵𝑟 = 𝐵𝑡 𝐸𝑖 𝑛1 − 𝐸𝑟 𝑛1 = 𝐸𝑡 𝑛2 𝐸𝑡 = eq. P3 𝐸𝑖 𝑛1 𝑛2 − 𝐸𝑟 𝑛1 𝑛2 Ricordando la prima delle eq P2 e sostituendo, abbiamo: 𝐸𝑖 𝑛1 cos 𝛽 − 𝐸𝑖 𝑛2 cos 𝛼 = 𝐸𝑟 𝑛2 cos 𝛼 + 𝐸𝑟 𝑛1 cos 𝛽 e finalmente: 𝐸𝑟∥ eq. P4 𝐸𝑖∥ = 𝑛1 cos 𝛽− 𝑛2 cos 𝛼 𝑛1 cos 𝛽+𝑛2 cos 𝛼 Ricavando invece Er dalla P3 𝐸𝑟 = 𝐸𝑡 cos 𝛽 − 𝐸𝑖 cos 𝛼 cos 𝛼 E sostituendo questa espressione nella P4, 𝑛1 𝐸𝑖 − 𝑛1 𝐸𝑡 𝑐𝑜𝑠 𝛽 𝑛1 𝐸𝑖 𝑐𝑜𝑠 𝛼 + = 𝑛2 𝐸𝑡 𝑐𝑜𝑠 𝛼 𝑐𝑜𝑠 𝛼 2𝑛1 𝐸𝑖 𝑐𝑜𝑠 𝛼 = 𝐸𝑡 (𝑛2 𝑐𝑜𝑠 𝛼 + 𝑛1 𝑐𝑜𝑠 𝛽) eq. P5 𝐸𝑡∥ 𝐸𝑖∥ = 2 𝑛1 cos 𝛼 𝑛1 cos 𝛽+ 𝑛2 cos 𝛼 Le P4 e P5 sono le equazioni di Fresnel valide per onde polarizzate di tipo p. Anche queste possono essere riscritte tenendo conto della legge di Snell, per cui abbiamo: eq. P6 eq. P7 𝐸𝑟∥ 𝐸𝑖∥ 𝐸𝑡∥ 𝐸𝑖∥ sin 𝛼 = = cos 𝛽−sin 𝛽 cos 𝛼 sin 𝛼 cos 𝛽+sin 𝛽 cos 𝛼 = 2 cos 𝛼 sin 𝛼 cos 𝛽+ cos 𝛼 sin 𝛽 sin 𝛽 cos 𝛽−sin 𝛼 cos 𝛼 sin 𝛽 cos 𝛽+sin 𝛼 cos 𝛼 = 2 sin 𝛽 cos 𝛼 = sin(𝛽−𝛼) cos(𝛽+𝛼) sin(𝛽+𝛼) cos(𝛽−𝛼) = sin 𝛽 cos 𝛽+sin 𝛼 cos 𝛼 = 𝐭𝐚𝐧(𝜷−𝜶) 𝐭𝐚𝐧(𝜷+𝜶) 𝟐 𝐬𝐢𝐧 𝜷 𝐜𝐨𝐬 𝜶 𝐬𝐢𝐧(𝜶+𝜷) 𝐜𝐨𝐬(𝜶−𝜷) Nella P7 numeratore e denominatore sono entrambi positivi per cui è ancora l’onda trasmessa, cioè rifratta, in fase con l’onda incidente. La P6, invece è positiva se: 𝛽 > 𝛼 (𝑛1 > 𝑛2 ) 𝑒 𝛽+𝛼 < 𝜋 2 49 oppure 𝛽 < 𝛼 (𝑛1 < 𝑛2 ) 𝑒 𝛽+𝛼 > 𝜋 2 La conseguenza di quanto appena scritto è cha la fase dell’onda riflessa dipende sia dagli indici di rifrazione che dall’angolo di incidenza. Le equazioni di Fresnel, che riportiamo di seguito per ricapitolare, determinano quelli che normalmente sono definiti coefficienti di riflessione r = Er/Ei e di trasmissione t = Et / Ei eq. P8 𝑡⊥ = 𝑡∥ = 𝐸𝑡⊥ 𝐸𝑖⊥ 𝐸𝑡∥ 𝐸𝑖∥ = = 2 sin 𝛽 cos 𝛼 𝑟⊥ = sin(𝛽+𝛼) 2 sin 𝛽 cos 𝛼 𝑟∥ = sin(𝛼+𝛽) cos(𝛼−𝛽) 𝐸𝑟⊥ 𝐸𝑖⊥ 𝐸𝑟∥ 𝐸𝑖∥ sin(𝛽−𝛼) = sin(𝛽+𝛼) tan(𝛽−𝛼) = tan(𝛽+𝛼) Nel caso particolare di angoli di incidenza pari a 0, anche l’angolo di rifrazione è 0, per cui abbiamo: 𝑟⊥ = 𝑟∥ = 𝑛1 − 𝑛2 𝑛1 + 𝑛2 𝑡⊥ = 𝑡∥ = 2𝑛1 𝑛1 + 𝑛2 Come si vede non c’è differenza per i due tipi di polarizzazione. Possiamo passare ora ad analizzare il problema delle intensità dei fasci incidenti, riflessi e rifratti, passando così alla definizione di riflettanza R e trasmittanza T. Le equazioni di Maxwell e l’espressione dell’energia per unità di volume di un’onda elettromagnetica E = ½ E2 , portano a scrivere la proporzionalità dell’intensità di un’onda elettromagnetica con il vettore campo elettrico: 𝑅= 𝐼𝑟 𝐼𝑖 𝑇= 𝐼𝑡 𝐼𝑖 Nel caso delle riflettanza l’onda incidente e quella riflessa viaggiano nello stesso mezzo, per cui eq. P9 𝑅= 𝐼𝑟 𝐼𝑖 2 𝐸 𝑛 −𝑛 2 = ( 𝐸𝑟 ) = (𝑛1 +𝑛2 ) 𝑖 1 2 Per la trasmittanza, invece, abbiamo: 𝐼𝑡 𝐸𝑡 2 𝑛2 2𝑛1 2 𝑛2 𝑇= = ( ) = ( ) 𝐼𝑖 𝐸𝑖 𝑛1 𝑛1 + 𝑛2 𝑛1 Si può notare, per inciso, come: 𝑛1 − 𝑛2 2 2𝑛1 2 𝑛2 𝑅+𝑇 = ( ) + ( ) =1 𝑛1 + 𝑛2 𝑛1 + 𝑛2 𝑛1 Questa relazione non rappresenta altro che la conservazione dell’energia, dovendo essere la somma delle energie riflesse e trasmesse uguali a quella incidente. Angolo di Brewster 50 Dalle equazioni di Fresnel si può osservare come il coefficiente di riflessione 𝑟⊥ si annulla solo nel caso banale in cui = , cioè n1 = n2, il che equivale a dire che l’onda incidente viaggia sempre nello stesso mezzo, per cui non può esserci riflessione, mentre una situazione particolarmente importante si ha, invece, se + . In questo caso il coefficiente di riflessione 𝑟∥ = 𝐸𝑟∥ tan(𝛽 − 𝛼) = → 0 (tan(𝛼 + 𝛽) → ∞) 𝐸𝑖∥ tan(𝛽 + 𝛼) L’angolo di incidenza a cui si verifica questo viene indicato come angolo di Brewster . E’ facile verificare che con queste condizioni, la legge di Snell può essere scritta: 𝑛2 sin 𝛼𝐵 sin 𝛼𝐵 sin 𝛼𝐵 = = = = tan 𝛼𝐵 𝜋 𝑛1 sin 𝛽 sin( ⁄2 − 𝛼𝐵 ) cos 𝛼𝐵 Quello che succede è che se un’onda polarizzata linearmente, ma con il vettore del campo elettrico formante un angolo qualsiasi con il piano di incidenza, incide sull’interfaccia tra i due mezzi con l’angolo di Brewster , l’onda riflessa avrà solo la componente perpendicolare al piano di incidenza, dando origine ad un’onda polarizzata di tipo S qualunque sia il tipo di polarizzazione dell’onda incidente. La componente parallela, infatti, si annullerà, come appena detto. La figura illustra la situazione. ( Si è riportato solo il vettore campo elettrico). Piano di incidenza Ei Ei// Mezzo 1, n1 Ei┴ ki kr Er┴= Er Interfaccia Et Et// Et┴ Mezzo 2, n2 kt 51 Andamento della riflettività R in funzione dell’angolo di incidenza i. Per una interfaccia aria-vetro (n relativo = 1,5). Osserviamo che le due componenti di polarizzazione (perpendicolare e parallela) hanno andamenti diversi, in particolare la componente parallela ha un minimo all’angolo di Brewster. Ciò significa che nella luce riflessa sarà presente solo la componente perpendicolare che risulta quindi polarizzata. Su questo fenomeno si basa il funzionamento degli occhiali polaroid. Polarizzazione per birifrangenza Molte sostanze cristalline trasparenti alla luce, benché omogenee, non sono isotrope e il loro comportamento ottico dipende dalla direzione del fascio di luce incidente rispetto agli assi di simmetria del cristallo. In generale nei mezzi cristallini anisotropi si verifica il fenomeno della doppia rifrazione, detto anche birifrangenza, consistente nel fatto che un raggio luminoso che incida sul cristallo, a seconda della sua direzione di polarizzazione può procedere all’interno di questo in una o due diverse direzioni di propagazione. Così se un fascio di luce non polarizzata incide su un cristallo di calcite (CaC03), perpendicolarmente a una delle sue facce, alla superficie del cristallo il raggio si divide in due. In questo modo si può spiegare il fatto che, quando un cristallo di calcite ben levigato è posto sopra alcune lettere stampate, di ciascuna lettera appare un'immagine doppia. 52 Sdoppiamento dell’immagine per effetto della birifrangenza Le due componenti compiono percorsi diversi. I raggi emergenti sono detti raggio ordinario (O) e raggio straordinario (E) 53 Interazione radiazione – materia I fenomeni legati all’interazione tra radiazione e materia sono moti e diversi tra loro, gli elenchiamo brevemente a titolo informativo per avere la consapevolezza che molti sono i meccanismi con cui la radiazione elettromagnetica (e quindi la luce) e la materia interagiscono. Effetto fotoelettrico: il fenomeno consiste nell’emissione di elettroni da parte di un materiale (generalmente un metallo). La corrente elettrica che si genera è proporzionale all’intensità della radiazione incidente mentre si osserva un effetto soglia in funzione della lunghezza d’onda, cioè il fenomeno è osservabile solo se la lunghezza d’onda è inferiore ad un valore limite caratteristico della sostanza. Effetto Compton: radiazione incide sulla materia e viene deviata e si modifica anche la frequenza (diminuisce). Il fenomeno è interpretato come un urto elastico tra un elettrone legato in un atomo e un fotone (che quindi trasporta una quantità di moto). Se l’elettrone è estratto dall’atomo è possibile verificare la conservazione dell’energia e della quantità di moto. L’atomo di Bohr (fonte wikipedia) Cenni storici All'inizio del XX secolo lo studio dell'atomo aveva raggiunto un buon grado di conoscenza. Erano noti, infatti, moltissimi spettri di emissione di luce proveniente dagli atomi: ovvero delle linee discrete e ben distinte poste a differenti frequenze. Una delle prime osservazioni interessanti avvenne nel 1884 quando Johann Balmer, insegnante svizzero, osservò che alcune righe dello spettro di emissione dell'idrogeno potevano essere calcolate utilizzando la formula: 𝜆 = (364,6 𝑛𝑚) Schema atomo di Bohr 𝑛2 𝑛2 − 4 Balmer suppose che tale formula fosse, in realtà, un caso particolare di una legge più generale, ora nota come legge di Rydberg-Ritz: 1 1 1 = 𝑅 ( 2 − 2) 𝜆 𝑛2 𝑛1 con n1>n2 ed R la costante di Rydberg (che è il reciproco di una lunghezza e vale 1.09737315685 x 107 m-1). Con questa legge fu possibile completare lo spettro osservato da Balmer e si riescono ad ottenere anche le serie di Lyman (n2=1) e Paschen (n2=3). Furono fatti numerosi tentativi per spiegare teoricamente tali osservazioni sperimentali, ma il meglio che si riuscì a realizzare fu il modello di Thomson, lo scopritore dell'elettrone, che suppose che l'atomo fosse un corpo compatto 54 contenente al suo interno sia la carica positiva, che quella negativa. Tale modello aveva, però, una pecca: poiché si basava solo sulla presenza delle forze elettriche, non era in grado di spiegare come mai il sistema fosse all'equilibrio, né Thomson riuscì mai a determinare una frequenza tra quelle osservate. Nel 1911 Hans Wilhelm Geiger e Ernest Marsden, sotto la supervisione di Ernest Rutherford, realizzarono un esperimento importantissimo per la comprensione della struttura dell'atomo: bombardando una sottile lamina d'oro con particelle alfa, notarono che, mentre la maggior parte di esse subiva deviazioni minime dalla traiettoria iniziale, altre venivano deviate in misura considerevole, e una minima parte veniva respinta dalla lamina. Nell'interpretare questo esperimento, Rutherford stabilì che l'atomo fosse composto da un centro massivo (il nucleo) circondato da cariche negative. Il modello di atomo proposto da Rutherford soffriva, però, di una instabilità elettromagnetica e di una instabilità meccanica: poiché l'elettrone, nel suo moto intorno al nucleo positivo, è sottoposto a un'accelerazione, esso irraggia energia elettromagnetica della stessa frequenza del suo moto di rivoluzione, finendo così per perdere energia e quindi cadere sul nucleo con un moto a spirale. Nel caso di atomi più pesanti, attorno ai quali ruotino più elettroni, questi ultimi sarebbero stati soggetti a una repulsione elettrostatica che avrebbe reso inoltre meccanicamente instabili le loro orbite, cosicché, a prescindere dall'irraggiamento, una qualsiasi perturbazione esterna sarebbe stata sufficiente ad alterare pesantemente la distribuzione di elettroni negli atomi. Fu Niels Bohr a risolvere le difficoltà del modello di Rutherford, spiegando anche lo spettro dell'atomo di idrogeno. I postulati di Bohr Bohr, che a quel tempo lavorava con Rutherford, propose un modello che, applicando all'atomo di Rutherford la quantizzazione dell'energia introdotta da Planck, riusciva a giustificare lo spettro dell'idrogeno. La soluzione di Bohr è basata su tre postulati: Il primo postulato di Bohr: Il valore del modulo del momento angolare dell'elettrone che ruota intorno al nucleo deve essere un multiplo intero (numero quantico) della costante di Planck ridotta, e di conseguenza l'energia di un elettrone dipende solo dal valore del numero quantico principale. 𝑚𝑣𝑟=𝑛 ℎ 2𝜋 (m è la massa dell’elettrone, v la velocità, r il raggio dell’orbita supposta circolare, n è un numero intero, n = 1, 2, 3, …. Il prodotto della quantità di moto per il raggio dell’orbità prende il nome di momento angolare) Il secondo postulato di Bohr: L'atomo irraggia energia solamente quando, per un qualche motivo, un elettrone effettua una transizione da uno stato stazionario ad un altro. La frequenza della radiazione è legata all'energia del livello di partenza e di quello di arrivo dalla relazione: |𝐸𝑓 − 𝐸𝑖 | = ℎ 𝜈 dove h è la costante di Planck, mentre Ei ed Ef sono le energie connesse alle orbite finale ed iniziale (è presente il modulo in quanto la frequenza ha significato fisico se e soltanto se è un numero 55 positivo, invece il ΔE= (Ef - Ei) può essere negativa, e indica se viene emessa una radiazione o se viene assorbita energia con frequenza . Derivata dalla suddetta formula, secondo la teoria classica, invece, la frequenza della radiazione emessa avrebbe dovuto essere uguale a quella del moto periodico della particella carica). L'energia che l'atomo scambia con il campo elettromagnetico soddisfa dunque sia il principio della conservazione dell'energia, sia la relazione tra l'energia e la frequenza introdotta da Planck. Il terzo postulato di Bohr: Nel modello semplice di Bohr, il numero atomico è Z, la carica dell'elettrone è e, l'energia potenziale a distanza r è: 𝑈= − 𝑘 𝑍 𝑒2 𝑟 dove k è la costante di Coulomb. L'energia totale di un elettrone nell'ipotesi semplificativa che si muova su un'orbita circolare con velocità v è quindi: 1 1 𝑘 𝑍 𝑒2 2 2 𝐸 = 𝑚𝑣 +𝑈 = 𝑚𝑣 − 2 2 𝑟 Per ottenere il valore della velocità, e quindi quello dell'energia cinetica, basta eguagliare la relazione F = ma, dove per l'accelerazione si utilizza l'espressione per quella centripeta (a = v2/r), con l'attrazione coulombiana: 𝑘 𝑍 𝑒2 𝑣2 = 𝑚 𝑟2 𝑟 e quindi l'energia cinetica risulta essere pari alla metà del valore assoluto dell'energia potenziale. L'energia totale risulta quindi essere pari a: 1 𝑘 𝑍 𝑒2 1 𝐸= − = − 𝑚 𝑣2 2 𝑟 2 (Non deve sorprendere il segno meno, significa che l’energia totale del sistema protone + elettrone è negativa e che lo stato è legato, il valore dell’enegia rappresenta quanto necessario a estrarre l’elettrone portandolo fuori dal campo elettrico del protone). Sostituendo questa nella legge matematica del secondo postulato di Bohr, si ottiene un'espressione per le frequenze in funzione delle distanze finale ed iniziale dei livelli interessati dalla transizione: 1 𝑘 𝑍 𝑒2 1 1 𝜈= ( − ) 2 ℎ 𝑟𝑖 𝑟𝑓 Questa equazione deve essere consistente con la formula di Rydberg-Ritz, sapendo che ν = c/λ, con c velocità della luce. I raggi delle orbite stabili, quindi, dovevano essere proporzionali ai quadrati di numeri interi. Una simile legge di proporzionalità poteva essere ottenuta ipotizzando che il momento angolare dell'elettrone in un'orbita stabile fosse pari a: 56 𝑚𝑣𝑟=𝑛 ℎ 2𝜋 =𝑛ℏ Questo è il terzo postulato di Bohr, che, in pratica, quantizza il momento della quantità di moto della particella. Raggio di Bohr ed energia del livello fondamentale A questo punto è abbastanza semplice determinare il raggio dell'orbita, combinando quest'ultima con la relazione tra le forze otteniamo: 𝑣= 𝑛ℏ 𝑚𝑟 𝑘 𝑍 𝑒2 𝑣2 𝑚 𝑛ℏ 2 =𝑚 = ( ) 𝑟2 𝑟 𝑟 𝑚𝑟 𝑘 𝑍 𝑒2 = 𝑟 = 𝑛2 Dove 1 2 2 𝑛 ℏ 𝑚𝑟 ℎ2 𝑎0 = 𝑛2 2 2 4𝜋 𝑚 𝑘 𝑍 𝑒 𝑍 𝑎0 = ℎ2 4𝜋 2 𝑚 𝑘 𝑒 2 è il raggio di Bohr del livello fondamentale dell'atomo di idrogeno. Il valore della prima orbita di Bohr è considerato la misura di riferimento per le dimensioni degli atomi. Merita di essere calcolato. 𝑎0 = (6.626 x 10−34 )2 ℎ2 = = 0.0053 𝑥 10−8 𝑚 = 0.53 𝑥10−10 𝑚 4𝜋 2 𝑚 𝑘 𝑒 2 4𝜋 2 9.109 x 10−31 9x109 (1.602 x 10−19 )2 A partire dal raggio delle orbite otteniamo la quantizzazione dell’energia, cioè quali valori dell’energia sono possibili in funzione del numero intero n che prende il nome di numero quantico principale. 1 𝑘 𝑍 𝑒2 1 𝑘 𝑒2 1 4𝜋2 𝑚 𝑘2 𝑍 𝑒4 𝐸0 𝐸𝑛 = − = − = − = −𝑍 2 2 2 𝑟 2 2 2 𝑛2 ℎ 𝑛2 ℎ 𝑛 4𝜋2 𝑚 𝑘 𝑒2 𝐸0 = − 2𝜋 2 𝑚 𝑘 2 𝑒 4 ℎ 2 Anche questo valore merita di essere calcolato perché, oltre alle lunghezze d’onda osservate, è un parametro misurabile. 𝐸0 = − 2𝜋 2 𝑚 𝑘 2 𝑒 4 ℎ 2 18 2 ∙ 3.14162 9.109 x 10−31 81x10 (1.602 x 10−19 )4 = − = − 21.74 x 10−19 𝐽 (6.626 x 10−34 )2 57 Ricordiamo che l’energia può essere espressa come prodotto della differenza di potenziale per la carica, a livello atomico risulta conveniente usare la seguente unità: elettronvolt (eV) che corrisponde all’energia necessaria a spostare la carica di un elettrone nella differenza di potenziale di un Volt. Per esprimere l’energia della prima orbita di Bohr (che corrisponda in valore assoluto all’energia necessaria per portare l’elettrone dallo stato legato allo stato libero) è sufficiente dividere per il valore della carica elementare. 𝐸0 = − 21.74 x 10−19 1.602 x 10−19 = −13.6 𝑒𝑉 Dalla chimica si ricava che l’energia di prima ionizzazione è 1312.06 kJ/mol, valore che diviso per il numero di Avogadro fornisce il valore di 21.79 x 10-19 J in ottimo accordo con il calcolo di Bohr. Infine si possono scrivere tutti i valori possibili dell'energia di un elettrone in un atomo, scritti in funzione dell'energia fondamentale dell'atomo di idrogeno: 1 𝑘 𝑍 𝑒2 1 𝐸𝑛 = − = − 2 𝑟 2 𝑘 𝑍 𝑒2 𝑛2 ℎ2 4𝜋2 𝑚 𝑘 𝑍 𝑒2 1 = − 2 4𝜋2 𝑚 𝑘2 𝑍2 𝑒2 𝑛2 ℎ2 𝑍2 = − 2 𝐸0 𝑁 Riportiamo una tabella dei raggi, energie e lunghezze d’onda associate alle transizioni tra livelli vicini, per i primi 10 livelli dell’atomo di idrogeno secondo lo schema di Bohr Livello n Raggio [Å] Energia [eV] Å 1 0.53 -13.60 1216 2 2.12 -3.40 6565 3 4.77 -1.51 18756 4 8.48 -0.85 40523 5 13.25 -0.54 74599 6 19.08 -0.38 123719 7 25.97 -0.28 190620 8 33.92 -0.21 278035 9 42.93 -0.17 388700 10 53 -0.14 525350 regione UV ROSSO NIR IR IR IR IR IR IR IR Legge di Lambert-Beer (Fonte Wikipedia) La legge di Lambert-Beer è una relazione empirica che correla la quantità di luce assorbita da un mezzo alla natura chimica, alla concentrazione ed allo spessore del mezzo attraversato. Quando un fascio di luce (monocromatica) di intensità I0 attraversa uno strato di spessore L di un mezzo, una parte di esso viene assorbita dal mezzo stesso e una parte ne viene trasmessa con intensità residua I1. Il rapporto tra le intensità della luce trasmessa e incidente sul mezzo attraversato è espresso dalla seguente relazione (si veda dimostrazione seguente) 58 𝐼1 = 𝑒 −𝑘𝜆𝐿 = 𝑇 = 𝑒 −𝐴 𝐼0 dove kλ è il coefficiente di attenuazione (che è una costante tipica del mezzo attraversato e dipende dalla lunghezza d'onda λ) e L è lo spessore di soluzione attraversata. Definita quindi la trasmittanza (T) come il rapporto I1/I0 e come assorbanza (A) l'opposto del logaritmo naturale della trasmittanza, la legge assume una forma ancora più semplificata: 𝐴 = 𝑘𝜆 𝐿 che per una soluzione viene ulteriormente modificata in 𝐴 = 𝜀𝜆 𝐿 𝑀 dove ελ è detta estinzione molare, M è la molarità della soluzione e L è il cammino geometrico. Il valore di ελ è considerato costante per una data sostanza ad una data lunghezza d'onda, benché possa subire lievi variazioni con la temperatura. Inoltre, la sua costanza è garantita solo all'interno di un dato intervallo di concentrazioni, al di sopra delle quali la linearità tra assorbanza e concentrazione può essere inficiata da fenomeni chimico-fisici (ad esempio la precipitazione della specie chimica colorata). La misura dell'assorbanza di soluzioni chimiche a lunghezze d'onda tipiche è il principio su cui si basa l'analisi per spettrofotometria. Dimostrazione della legge di attenuazione dell'intensità luminosa Si può derivare la legge di attenuazione dell'intensità luminosa di un fascio di radiazione elettromagnetica monocromatica con intensità iniziale I0 dalle seguenti assunzioni: si suppone che il fascio viaggi parallelo ad un asse di riferimento x; si possa definire una intensità locale funzione della distanza 𝐼 = 𝐼(𝑥); l'attenuazione di intensità I sia proporzionale all'intensità I, alla concentrazione del campione C, al cammino infinitesimo x attraverso un certo coefficiente ’ Si ottiene la seguente relazione: ∆𝐼 = − 𝜖𝜆′ 𝐶 𝐼(𝑥) ∆𝑥 Questa è un'equazione differenziale a variabili separabili, quindi può essere integrata, ottenendo: 𝐼 𝑙𝑛 ( ) = −𝜖𝜆′ 𝐶 𝐿 𝐼0 ed infine: ′ I(𝐿) = I0 𝑒 −𝜖𝜆 𝐶 𝐿 59 60 Richiami di elettromagnetismo ed inquinamento elettromagnetico Le grandezze elettriche - La carica La sorgente della forza elettrica è detta carica elettrica ed è una caratteristica delle particelle che compongono la materia. L’osservazione di forze attrattive e repulsive tra le cariche ha portato gli scienziati a suddividere le cariche in due tipi che per convenzione sono chiamate positive e negative (definizione che risale a Benjamin Franklin che definì le cariche positive quelle ottenute sul vetro dopo che è stato strofinato con la lana e negative quelle ottenute sull’ambra dopo che è stata strofinata con la lana). La forza generata dalle cariche è descritta dalla legge di Coulomb. q1 F F d q2 Poste due cariche puntiformi q1 e q2 nel vuoto ad una distanza d, tra esse si genera una forza F diretta lungo la congiungente i centri delle cariche. La forza può essere attrattiva o repulsiva a secondo del segno delle cariche (repulsiva in caso di segni uguali, attrattiva in caso di segni diversi) l’intensità della forza è descritta dalla relazione: 𝐹𝐶 = 𝐾 ∙ 𝑞1 ∙ 𝑞2 1 𝑞1 ∙ 𝑞2 = ∙ 2 𝑑 4𝜋𝜖0 𝑑2 Nel S.I. il valore della costante K è 8,99 x 109 [Nxm2/C2], nella seconda forma la costante 0 che prende il nome di costante dielettrica del vuoto ha il valore di 8,85x10 -12 [C2/Nxm2]. Dalla legge di coulomb discende l’unità di misura della carica. La carica unitaria (1 Coulomb, [C]) è quella che ne respinge una uguale posta ad un metro di distanza nel vuoto con una forza di 9x109 N (8,99 circa 9). In caso di presenza di materia interposta tra le cariche la forza risulta essere inferiore a quella che si esercita nel vuoto. Il rapporto tra questi due valori dipende dal tipo di materiale interposto tra le cariche e prende il nome di costante dielettrica relativa r (non ha unità di misura ed è sempre maggiore di uno). Pertanto in presenza di materia la forza di Coulomb assume la forma 𝐹𝐶 = 1 𝑞1 ∙ 𝑞2 ∙ 4𝜋𝜖0 𝜖𝑟 𝑑2 In natura si osserva che esistono solo cariche elettriche che sono multipli interi di un valore che viene detto carica elementare ed è indicato con la lettera e (corsivo) che vale 𝑒 = 1,602 ∙ 10−19 [𝐶] I protoni hanno carica +e, gli elettroni –e. Il campo elettrico In presenza di più cariche elettriche o, in generale, di una distribuzione di cariche, la forza elettrica agente su una carica esploratrice q positiva, sarà data dalla somma vettoriale dei contributi che le singole cariche esercitano su q. Si definisce campo elettrico E il rapporto tra la forza elettrica che la carica esploratrice sente e la carica q stessa. Pertanto il campo elettrico è una grandezza vettoriale diretto ed orientato come la forza elettrica 61 a. Un sistema di n cariche elettriche Q1, Q2, …… Qn generano sulla carica q, n forze F1, F2, ….., Fn b. Il rapporto tra le forze e la carica esploratrice è il campo elettrico E Quindi il campo elettrico in un determinato punto dello spazio è una grandezza vettoriale orientata come la forza elettrica che una carica esploratrice q sperimenta la cui intensità è data dal rapporto tra forza elettrica e la carica 𝐸= 𝐹𝐸 [𝑁/𝐶] 𝑞 Di conseguenza se è noto il campo elettrico E la forza elettrica sarà 𝐹𝐸 = 𝐸 ∙ 𝑞 Differenza di Potenziale (ddp) Se la carica q sperimenta una forza elettrica sarà possibile definire il lavoro fatto da (o contro) la forza elettrica. Supponiamo che in una regione di spazio sia presente un campo elettrico omogeneo E ed immaginiamo due punti A e B disposti lungo il campo a distanza d. Il lavoro L fatto dalla forza elettrica per spostare la carica q da A a B sarà 𝐿𝐴𝐵 = 𝐹𝐸 ∙ 𝑑 = 𝐸 ∙ 𝑞 ∙ 𝑑 Si definisce differenza di potenziale (ddp) tra i punti A e B il rapporto tra il lavoro fatto dalla forza elettrica e la carica esploratrice q 𝑑𝑑𝑝𝐴𝐵 = 𝐿𝐴𝐵 𝐸 ∙ 𝑞 ∙ 𝑑 = = 𝐸 ∙ 𝑑 [𝐽/𝐶] 𝑞 𝑞 L’unità di misura della differenza di potenziale prende il nome di Volt [V] (1 V = 1J/1C) dal nome dello scienziato italiano che a fine settecento inventò la prima pila elettrica. Pertanto spesso la differenza di potenziale ddp è indicata con il simbolo V o semplicemente V (oppure tensione elettrica). Notiamo che la presenza di campo elettrico permette di definire la differenza di potenziale, vale anche il viceversa cioè se siamo in presenza di ddp avremo un campo elettrico. Un generatore di differenza di potenziale si rappresenta con il simbolo seguente: 62 Conduttori ed isolanti La carica elettrica è una caratteristica della materia, fu subito evidente agli sperimentatori che alcuni materiali permettevano il passaggio della carica elettrica al loro interno ed altro no. Pertanto i materiali si distinguono in conduttori ed isolanti. I metalli sono conduttori. Capacità elettrica Immaginiamo una coppia di lastre metalliche piatte parallele (di superficie A) poste a distanza d tra loro (la distanza sia molto piccola rispetto alle dimensioni delle lastre) e poniamo sulle due lastre una medesima quantità di carica +Q e –Q. Nella regione di spazio compresa tra le due lastre sarà presente un campo elettrico E (immaginiamolo omogeneo ed uniforme), pertanto tra le due lastre si è stabilità una differenza di potenziale V = E·d. Si definisce capacità elettrica C del sistema (le due piastre) il rapporto tra la carica Q accumulata e la differenza di potenziale che si è stabilita 𝐶= 𝑄 𝐶 [ ] = [𝐹] Δ𝑉 𝑉 L’unità di misura della capacità elettrica è il Farad, dal nome dello scienziato Michael Faraday che nell’ottocento fu uno dei pionieri dello studio dell’elettromagnetismo. Un Farad è una capacità molto grande, nella pratica si usano i sottomultipli mF, F, nF e pF. (milliFarad = 10-3 F, microFarad = 10-6 F, nanoFarad = 10-9 F, picoFarad = 10-12 F). Se immaginiamo di allontanare una delle due piastre all’infinito possiamo estendere la definizione di capacità per un singolo conduttore carico considerando zero il valore del potenziale all’infinito, in questo caso si parla di potenziale. Le leggi di Ohm Il flusso di carica attraverso un conduttore è detto intensità di corrente, è indicato con la lettera i (anche in maiuscolo I) e si misura in Ampère (A). La corrente unitaria si ha quando una sezione di un conduttore è attraversata dalla carica di un Coulomb in un secondo (1 A = 1 C / 1 s). Il verso della corrente è il verso delle cariche positive (quindi da alto potenziale verso basso potenziale o, semplicemente “dal più verso il meno”) Osserviamo che verso della corrente è unico (è il verso del campo elettrico), sotto l'azione di un campo elettrico le cariche positive e quelle negative si muovono in versi opposti, il diverso segno della velocità compensa quello della carica 63 Esiste una relazione di proporzionalità diretta tra la corrente che attraversa un conduttore e la differenza di potenziale agli estremi, tale relazione prende il nome di prima legge di Ohm e la costante di proporzionalità prende il nome di resistenza elettrica ed è indicata con la lettera R Δ𝑉 = 𝑅 ∙ 𝐼 𝑅= Δ𝑉 𝑉 [ ] = [Ω] 𝐼 𝐴 Un conduttore ha la resistenza unitaria (1 ) se applicando ai sui estremi la differenza di potenziale di un Volt è attraversato dalla corrente di un Ampère. La resistenza elettrica è una grandezza che dipende dalle dimensioni del conduttore e dal materiale. Se pensiamo ad un conduttore omogeneo di forma cilindrica (un filo) di lunghezza L e sezione S, la resistenza elettrica dipende dai seguenti parametri 𝐿 𝑅 =𝜌∙ 𝑆 il parametro (rho) prende il nome di resistenza specifica o resistività e si esprime in ·m. E’ questo il parametro che distingue i conduttori dagli isolanti, infatti la resistenza specifica dei metalli è dell’ordine 10-8 [·m], quella delle rocce può arrivare a 10+6 [·m]. Energia in un circuito elettrico La corrente elettrica comporta uno spostamento di carica attraverso il conduttore, per cui usando la prima legge di Ohm abbiamo che il lavoro L fatto per spostare la carica Q attraverso il conduttore ai cui estremi è applicata la differenza di potenziale V sarà 𝐿 = Δ𝑉 ∙ 𝑄 Se la carica è stata spostata in un tempo t da una corrente i significa che 𝑄 = 𝑖 ∙ Δ𝑡 e 𝐿 = Δ𝑉 ∙ 𝑖 ∙ Δ𝑡 Per cui la potenza P dissipata dal conduttore sarà 𝑃= 𝐿 Δ𝑉 ∙ 𝑖 ∙ Δ𝑡 𝐽 𝐶 𝐽 = = Δ𝑉 ∙ 𝑖 [𝑉 ∙ 𝐴] = [ ∙ ] = [ ] = [𝑊] Δ𝑡 Δ𝑡 𝐶 𝑠 𝑠 Applicando la prima legge di Ohm si hanno altri modi di descrivere la potenza dissipata da un componente è 64 Δ𝑉 2 𝑃 = Δ𝑉 ∙ 𝑖 = = 𝑅 ∙ 𝑖2 𝑅 L’ultima espressione prende il nome di legge di Joule. Campo magnetico I fenomeni magnetici hanno delle analogie con fenomeni elettrici, le forze magnetiche sono attrattive e repulsive, quindi ci sono due sorgenti di carica che sono chiamate poli (Nord e Sud). La presenza di sorgenti magnetiche (calamite) e rivelata dal fatto che un ago di una bussola tende ad orientarsi per questo motivo i poli si chiamano Nord e Sud. Sin dai primi esperimenti con la corrente elettrica (dopo l’invenzione della pila) si osservò che le correnti generavano deboli campi magnetici che erano comunque in grado di deviare l’ago di una bussola e che fili percorsi da corrente elettrica nella vicinanza di calamite sentiva una forza. In relazione alla forza sperimentata dal filo percorso da corrente è stato definito il campo magnetico (campo di induzione magnetica) generalmente indicato con la lettera B. Con riferimento all’immagine accanto, il verso del campo magnetico è dal polo nord al polo sud della calamita (verso in cui si orienta l’ago di una bussola), considerando un filo di lunghezza ℓ percorso da una corrente i entrante nel piano del foglio, si osserva che sul filo agisce una forza la cui intensità è proporzionale sia alla corrente sia alla lunghezza del filo, il campo magnetico è la costante di proporzionalità 𝐵= 𝐹 𝑁 [ ] = [𝑇] 𝑖 ∙ ℓ 𝐴𝑚 L’unità di misura del campo magnetico è il Tesla [T], il campo di un Tesla genera la forza di un Newton su un metro di filo percorso dalla corrente di un Ampère. Direzione e verso della forza sono determinati dalla regola della mano sinistra. Disponendo le prime tre dita della mano mutuamente perpendicolari tra loro come in figura, la forza F è diretta come il pollice quando il campo B è diretto come l’indice e la corrente i è diretta come il medio. La forza è diretta perpendicolarmente al piano individuato da corrente e filo ed è massima quando corrente e campo magnetico sono perpendicolari e nulla quado sono paralleli. Detto l’angolo tra corrente e campo magnetico si ha 𝐹 = 𝐵 ∙ 𝑖 ∙ ℓ ∙ sin 𝛼 Il campo magnetico generato da un filo percorso da corrente descrive delle circonferenze su un piano perpendicolare al filo e centrate nel filo stesso. Il verso del campo magnetico è quello delle dita della mano destra quando il pollice indica il verso della corrente. L’intensità del campo magnetico decresce con l’aumentare della distanza dal filo Di conseguenza due fili percorsi da corrente interagiranno tra loro a causa dei campi magnetici 65 generati. Questa osservazione porta alla così detta legge sperimentale di Ampère che lega direttamente le correnti alla forza. Si ha che dati due fili paralleli (indefinitamente lunghi) percorsi da corrente elettrica (rispettivamente I1 e I2) e posti ad una distanza d nel vuoto, tra loro ci sarà una forza per unità di lunghezza data dalla seguente relazione: 𝐹 𝜇0 𝐼1 ∙ 𝐼2 = ∙ ℓ 2𝜋 𝑑 La forza sarà attrattiva in caso di correnti concordi e repulsiva in caso di correnti discordi. La costante 0 che compare nella legge Ampère prende il nome di permeabilità magnetica del vuoto e nel sistema internazionale ha il valore di 4x10-7 [N/A2]. Mediante questa legge si ha la definizione ufficiale dell’unità di misura dell’intensità di corrente: la corrente di 1 A è quella che fatta fluire in due conduttori paralleli indefinitamente lunghi posti nel vuoto ad un metro di distanza fra loro produce una forza pari 2x10-7 N per ogni metro di lunghezza dei fili. Combinando insieme la legge sperimentale di Ampère e la definizione operativa di campo magnetico si ottiene la legge di Biot-Savart che descrive la relazione tra campo magnetico B, intensità di corrente I e distanza dal filo d 𝐵(𝑑) = 𝜇0 𝐼 ∙ 2𝜋 𝑑 Forza di Lorentz Una carica q in moto con velocità v in un campo magnetico B sente una forza diretta perpendicolarmente al piano individuato dai vettori velocità e campo magnetico, il verso della forza è quello del pollice della mano sinistra quando l’indice è orientato come il campo magnetico e il medio come la velocità (della carica positiva). Detto l’angolo (inferiore a 180°) determinato dei vettori velocità e campo magnetico, l’intensità della forza sarà B=0 𝐹𝐿 = 𝑞 ∙ 𝑣 ∙ 𝐵 ∙ sin 𝛼 B≠0 Nel caso di velocità e campo paralleli (o antiparalleli) l’intensità della forza e zero. La forza di Lorentz non compie lavoro e la traiettoria di una carica in moto in un campo magnetico uniforme è una circonferenza. d a v b L c d a FL b L c Induzione elettromagnetica Faraday si accorse che durante la chiusura e l’apertura di circuiti elettrici era possibile osservare deboli correnti in circuiti vicini elettricamente separati. L’interpretazione di questi fenomeni (noti come induzione elettro66 magnetica) può essere fatta consideriamo la seguente situazione: una spira di filo conduttore quadrata di lato L e resistenza elettrica R è in moto a velocità costante v. Nel moto passa da una regione di spazio priva di campo magnetico (B = 0) ad una dove il campo è diverso da zero, uniforme e diretto in verso uscente dal piano del foglio. Gli elettroni all’interno dei fili risentono della forza di Lorentz diretta in senso opposto a quello della figura la cui intensità è 𝐹𝐿 = 𝑒 ∙ 𝑣 ∙ 𝐵 Tale forza ha efficacia solo per gli elettroni contenuti nel tratto di filo cd poiché il tratto ab è all’esterno del camp magnetico e nei tratti bc e da la forza agisce perpendicolarmente al filo e pertanto non produce effetti sugli elettroni. Agli estremi del tratto cd avremo una differenza di potenziale (femindotta) 𝐹𝐿 ∙ 𝐿 𝑑𝑑𝑝𝑐𝑑 = 𝑓𝑒𝑚𝑖𝑛𝑑𝑜𝑡𝑡𝑎 = =𝑣∙𝐵∙𝐿 𝑒 Il polo positivo sarà il c e quello negativo il d. La corrente generata girerà in senso orario. Osserviamo che la corrente girerà sono durante l’intervallo di tempo t che la spira impiega transitare dalla zona di campo nullo a quella con B ≠ 0. Δ𝑡 = Quindi 𝑣= 𝐿 𝑣 𝐿 Δ𝑡 Che se sostituita nell’espressione della femindotta 𝑓𝑒𝑚𝑖𝑛𝑑 = 𝐵 ∙ 𝐿2 Δ𝑡 Il termine B·L2 rappresenta una grandezza nuova, il flusso del campo magnetico indicato con (B). attraverso il circuito. Tale flusso passa da essere nullo quando la spira è fuori dalla zona di campo al valore B·L2 (quindi è una variazione di flusso). Questo risultato, ottenuto in un caso semplice, ha valore generale e ci dice che ogni volta che il flusso del campo magnetico attraverso un circuito varia nel tempo, nel circuito si induce una differenza di potenziale pari alla variazione di flusso nel tempo 𝑓𝑒𝑚𝑖𝑛𝑑 = − ΔΦ(𝐵) [𝑉] Δ𝑡 Tale legge prende il nome di legge di Lenz. Il segno meno è spiegato dall’osservazione che la corrente indotta (che nel nostro esempio gira in senso orario) genera a sua volta un campo magnetico (entrante nel nostro caso) che, quindi, “si oppone” alla variazione del flusso del campo esterno. Il fenomeno si osserva (e così successe a Faraday) anche quando non c’è moto relativo ma il campo magnetico varia nel tempo perché varia la corrente che lo genera. Osserviamo che la 67 corrente indotta dissipa energia che viene sottratta all’energia cinetica della spira (che tende a rallentare). Generazioni di onde Elettromagnetiche (considerazioni non del tutto corrette) A questo punto sarebbe opportuno fare una derivazione delle equazioni di Maxwell e da quelle ottenere l’equazione per le onde elettromagnetiche. I manuali presentano questa trattazione in modo corretto. Le conoscenze matematica necessarie esulano da quelle degli studenti del quarto anno della scuola superiore pertanto la riflessione seguente non ha la pretesa di essere formalmente corretta ma vuole trasmettere un’idea. Consideriamo la definizione di campo elettrico generato da una carica puntiforme q ad una distanza d: 1 𝑞 𝐸(𝑑) = ∙ 2 4𝜋𝜖0 𝑑 Il termine 4𝜋𝑑 2 è la superficie di una sfera di raggio d con centro nella carica, definiamo il flusso del campo elettrico come prodotto tra campo e superficie attraversata dal campo e otteniamo Φ(𝐸) = 𝐸(𝑑) ∙ 4𝜋𝑑 2 = 𝑞 𝜖0 Se il flusso varia nel tempo avremo che il secondo termine diventa (almeno come unità di misura) una corrente e quindi una sorgente di campo magnetico ΔΦ(𝐸) Δ𝐸(𝑑) 1 Δ𝑞 1 = ∙ 4𝜋𝑑 2 = ∙ = ∙𝐼 Δ𝑡 Δ𝑡 𝜖0 Δ𝑡 𝜖0 Ricordando la legge di Biot-Savart 𝐵(𝑑) = 𝜇0 𝐼 ∙ 2𝜋 𝑑 Unendo abbiamo Δ𝐸(𝑑) 1 1 2𝜋 ∙ 4𝜋𝑑 2 = ∙ 𝐼 = ∙ ∙ 𝐵(𝑑) ∙ 𝑑 Δ𝑡 𝜖0 𝜖 0 𝜇0 Semplificando otteniamo Δ𝐸(𝑑) 1 ∙𝑑 = ∙ 𝐵(𝑑) Δ𝑡 𝜇0 𝜖 0 Δ𝐸(𝑑) 1 𝐵(𝑑) = ∙ Δ𝑡 𝜇0 𝜖 0 𝑑 Ricordiamo che campo magnetico e corrente sono perpendicolari tra loro e così sono campo elettrico e campo magnetico, l’ultima equazione ci dice che una variazione temporale del campo elettrico è legata ad una variazione spaziale del campo magnetico, questa equazione vista insieme 68 alla legge di Lenz, dove ricordiamo che campo magnetico e corrente (quindi campo elettrico) sono perpendicolari) ΔΦ(𝐵) 𝑓𝑒𝑚𝑖𝑛𝑑 = − Δ𝑡 se immaginiamo una superficie circolare raggio d otteniamo 𝐸 ∙ 2𝜋𝑑 = −𝜋𝑑 2 ∙ 𝐸 Δ𝐵 = − 𝑑 Δ𝑡 Δ𝐵 Δ𝑡 Si dimostra (noi non lo facciamo) che le due equazioni sono compatibili con un’onda in cui le grandezze che si propagano sono il campo elettrico E e il campo magnetico B, in ogni punto dell’onda il rapporto E/B è √𝜖0 ∙ 𝜇0 . Già Maxwell osservò che il valore di questa costante non poteva essere casuale: 𝜖0 = 8,85 ∙ 10−12 [𝐶 2 ∙ 𝑁 −1 ∙ 𝑚−2 ] 𝜇0 = 4𝜋 ∙ 10−7 [𝑁 ∙ 𝐴−2 ] 1 √𝜖0 ∙ 𝜇0 = 1 √8,85 ∙ 10−12 ∙ 4𝜋 ∙ 10−7 = 3 ∙ 108 [ = 1 √111 ∙ 10−19 = 1 3,33 ∙ 10−9 1 𝑚 ] = 3 ∙ 108 [ ] ‼! 𝑠 √[𝐶 2 ∙ 𝑁 −1 ∙ 𝑚−2 ∙ 𝑁 ∙ 𝐴−2 La velocità della luce che quindi doveva essere una manifestazione elettromagnetica. IL CIRCUITO RC Consideriamo il circuito in figura composto da un generatore di differenza di potenziale ℰ, una resistenza R e un condensatore di capacità C inizialmente scarico. Il circuito è aperto e quindi non è attraversato da corrente. Alla chiusura dell’interruttore (t = 0) inizierà a fluire una corrente I(t) (del valore iniziale 𝐼(𝑡 = 0) = V(t) ℰ 𝑅 , che accumulando carica sulle armature del condensatore, si ridurrà progressivamente diventando “asintoticamente” nulla R perché il condensatore non permette il passaggio della corrente. E La corrente fluisce attraverso la resistenza R fintanto che la I(t) differenza di potenziale ℰ del generatore si mantiene maggiore di + quella che si stabilisce ai capi del condensatore a causa dell’accumulo delle cariche. Andiamo in dettaglio. Chiamiamo V(t) la differenza di potenziale ai capi del condensatore di capacità C, ricordiamo che secondo la definizione di capacità, su ciascuna armatura è accumulata una carica q(t) secondo la relazione C 69 𝐶= 𝑞(𝑡) = 𝑐𝑜𝑠𝑡𝑎𝑛𝑡𝑒 𝑉(𝑡) Applichiamo la legge di Ohm alla resistenza (o se vogliamo la legge di Kirchhoff), otteniamo 𝐼(𝑡) = ℰ − 𝑉(𝑡) ℰ 𝑉(𝑡) ℰ 𝑞(𝑡) = − = − 𝑅 𝑅 𝑅 𝑅 𝑅𝐶 Ricordando che la corrente elettrica è un flusso di carica, quindi carica diviso tempo, abbiamo ∆𝑞 ℰ 𝑞(𝑡) = − ∆𝑡 𝑅 𝑅𝐶 Il flusso di carica (e quindi l’accumulo di carica sul condensatore) è inizialmente uguale a quello che si avrebbe in assenza del condensatore e si riduce all’aumentare della carica accumulata. Osserviamo le dimensioni di RC: (V/A) x (Q/V) cioè Q/A = tempo. Il prodotto RC ha le dimensioni di un tempo e regola quanto rapidamente la carica si accumula nel condensatore (maggiore la resistenza minore sarà il flusso di carica, maggiore la capacità maggiore il tempo necessario per “riempire il serbatoio di carica”). IL prodotto RC prende il nome di tempo caratteristico del circuito e viene indicato con il simbolo c. Si può dimostrare che l’andamento della carica accumulata q(t) in funzione del tempo è il seguente: 𝑡 𝑞(𝑡) = 𝐶ℰ (1 − 𝑒 −𝑅𝐶 ) = 𝐶ℰ (1 − 𝑒 − 𝑡 𝜏𝑐 ) Analogamente si dimostra che la corrente che fluisce nel circuito ha la seguente espressione 𝐼(𝑡) = ℰ −𝑡 𝑒 𝑅𝐶 𝑅 Così come la differenza di potenziale ai capi del condensatore è 𝑡 𝑉𝐶 (𝑡) = ℰ (1 − 𝑒 −𝑅𝐶 ) La differenza di potenziale ai capi della resistenza sarà direttamente proporzionale alla corrente, cioè 𝑡 𝑡 ℰ 𝑉𝑅 (𝑡) = 𝑅 𝐼(𝑡) = 𝑅 𝑒 −𝑅𝐶 = ℰ𝑒 −𝑅𝐶 𝑅 Il grafici che ne conseguono sono (ai capi del condensatore) 70 VC Se quando il condensatore è carico viene rimosso il generatore e sostituito con un filo, si ha il processo di scarica. La corrente fluirà nel circuito nel senso inverso a quello del processo di carica e diminuirà lentamente secondo la stessa legge della carica. Chiediamoci cosa rappresenta la costante tempo RC del circuito spesso indicata con la lettera c (tau). E’ l’intervallo di tempo in cui la corrente che circola nel circuito dopo la chiusura si riduce di un fattore 1/e (ridotta al 37%) e la tensione (differenza di potenziale) ai capi del condensatore raggiunge il 63% del valore di tensione del generatore. Dopo un tempo pari al doppio del tempo caratteristico (2) la corrente è scesa al 14% mentre la tensione è salita all’86%; dopo un tempo pari al triplo (3) la corrente è scesa al 5% del suo valore iniziale e la tensione ai capi del condensatore ha raggiunto il 95% di quella del generatore. Lavoro di carica del condensatore. Tra le armature di un condensatore carico c’è un campo elettrico E generato dalle distribuzioni di carica accumulata. Per l’operazione di accumulo è richiesto lavoro da compiere contro le forze elettrostatiche. Consideriamo il processo di carica di un condensatore. Ad un determinato istante t, sulle armature è presente una carica e, quindi, tra le armature si è stabilita una differenza di potenziale V(t). Per portare (aggiungere) una carica positiva q sull’armatura positiva, che ha una differenza di potenziale V(t) rispetto a quella negativa, il lavoro necessario sarà: ∆𝐿 = 𝑉(𝑡) ∆𝑞 Nel processo di carica la differenza di potenziale ai capi del condensatore passa da zero al valore di quella del generatore ℰ, ricordando che il rapporto tra carica accumulata e differenza di potenziale che si stabilisce è costante (è la capacità del generatore), otteniamo che 𝐿= 1 𝑞2 1 = 𝐶 ℰ2 2 𝐶 2 L’energia spesa per caricare il condensatore non è persa, è accumulata nello spazio interno come energia del campo elettrico. Durante la fase di carica dell’energia è stata dissipata dalla resistenza secondo la legge di Joule. In un intervallo di tempo t l’energia spesa è ∆𝐸 = 𝑅 𝐼 2 (𝑡) ∆𝑡 71 Per determinare l’energia complessiva dobbiamo sommare i contributi su un tempo molto lungo (infinito), l’operazione matematica si chiama calcolo integrale, dove al posto dell’intervallo di tempo t è stato messo un intervallo di tempo piccolissimo (infinitesimo) dt e la somma è rappresentata da quella “specie di S allungata” ∞ 𝐸𝑡𝑒𝑟𝑚𝑖𝑐𝑎 = ∫ 𝑅 𝐼 ∞ 2 (𝑡) 𝑑𝑡 = ∫ 𝑅 ( 0 0 ∞ 𝐸𝑡𝑒𝑟𝑚𝑖𝑐𝑎 = ∫ 𝑅 ( 0 ℰ −𝑡 2 𝑒 𝑅𝐶 ) 𝑑𝑡 𝑅 ℰ −𝑡 2 𝜀 2 ∞ − 2𝑡 𝑒 𝑅𝐶 ) 𝑑𝑡 = ∫ 𝑒 𝑅𝐶 𝑑𝑡 𝑅 𝑅 0 Definendo y = 2t/RC, l’integrale può essere così riscritto 𝐸𝑡𝑒𝑟𝑚𝑖𝑐𝑎 𝜀 2 𝑅𝐶 ∞ −𝑦 1 = ∫ 𝑒 𝑑𝑦 = 𝐶 𝜀 2 𝑅 2 0 2 Una quantità di energia identica a quella accumulata nel condensatore. Esempio numerico: in un circuito RC la resistenza ha valore R = 1 k e C = 500 F e la fem del generatore sia ℰ = 5 𝑉, la costante tempo del circuito sarà = RC = 1000 x 500 x 10-6 = 0,5 (s), 1 l’energia immagazzinata nel condensatore carico sarà 𝐸 = 2 𝐶 ℰ 2 = 5 × 10−4 × 25 = 0,0125 J , considerando un tempo dieci volte maggiore del tempo caratteristico, la potenza media erogata dal generatore sarà 𝑃𝑜𝑡𝑒𝑛𝑧𝑎 = 𝐸 𝑡 = 0,0125 5 = 2,5 𝑚𝑊 . Circuito RL Un filo rettilineo percorso da corrente genera intorno a se un campo magnetico le cui linee di forza descrivono circonferenze centrate nel filo poste su piani perpendicolari al filo. L’intensità del campo è proporzionale all’intensità di corrente che fluisce nel filo e inversamente proporzionale alla distanza dal filo stesso. Il verso del campo è determinato dall’orientazione delle dita della mano destra se il pollice indica il verso della corrente. Se il filo è chiuso a formare un cerchio (spira) il campo magnetico tende a concentrarsi nel centro della spira. Aumentando il numero di giri fatti dal filo si rafforza il campo magnetico, si ottiene così una bobina che è il dispositivo usato per generare campo magnetico. Si stabilisce una relazione di proporzionalità diretta tra la corrente I e il flusso del campo magnetico all’interno della bobina (flusso = prodotto del campo magnetico all’interno per l’area della sezione trasversa (B) = B x Area), tale costante, indicata V(t) con la lettera L, prende il nome di induttanza. Stante la relazione L Φ𝐵 = 𝐿 ∙ 𝐼 R E I(t) + - L’unità di misura dell’induttanza sarà Txm2/A (tesla per metro quadro diviso ampere) che prende il nome di Henry (H) dal nome di Joseph Henry (scienziato americano del diciannovesimo secolo, inventore dell’elettromagnete e co-inventore, insieme a Morse, del telegrafo). 72 Secondo la legge di Faraday-Neumann-Lenz una variazione di corrente in una bobina “induce” una differenza di potenziale ai capi della bobina stessa, proporzionale alla variazione nel tempo del flusso del campo magnetico, il verso della corrente indotta è tale da contrastare la variazione del flusso del campo generata dalla variazione di corrente (una specie di inerzia del campo magnetico). Tale legge è così descritta: 𝑓𝑒𝑚𝑖𝑛𝑑𝑜𝑡𝑡𝑎 = − ∆Φ Δ𝑡 Nel caso di una bobina in cui il flusso del campo è determinato dalla corrente abbiamo 𝑓𝑒𝑚𝑖𝑛𝑑𝑜𝑡𝑡𝑎 = −𝐿 Δ𝐼 Δ𝑡 Dall’ultima relazione possiamo dare una diversa interpretazione delle unità di misura [𝑉][𝑠] dell’induttanza, facendo una semplice analisi dimensionale risulta [𝐿] = = [Ω][𝑠], una [𝐴] resistenza per un tempo. Consideriamo quindi un circuito composto da un generatore di fem ℰ, una resistenza R e una induttanza L, inizialmente aperto, alla chiusura dell’interruttore la corrente non fluirà immediatamente a causa della fem indotta che si opporrà al passaggio della corrente (la bobina, nell’istante iniziale, si comporta come un circuito aperto). La corrente inizierà gradualmente a fluire e raggiungerà il suo valore massimo stabilito dalla prima legge di Ohm (come se la bobina fosse assente). Secondo la legge di Kirchhoff, ai capi della resistenza abbiamo ℰ−𝐿 Che può essere riscritta come ∆𝐼 = 𝑅 ∙ 𝐼(𝑡) ∆𝑡 ℰ 𝐿 ∆𝐼 − 𝐼(𝑡) = 𝑅 𝑅 ∆𝑡 𝑅 ∆𝐼 ∆𝑡 = ℰ 𝐿 𝑅 − 𝐼(𝑡) La soluzione di questa relazione è la seguente 𝐼(𝑡) = 𝑅 ℰ (1 − 𝑒 − 𝐿 𝑡 ) 𝑅 La corrente è inizialmente nulla, aumenta gradualmente nel tempo fino al valore limite determinato dalla prima legge di Ohm. Il rapporto L/R ha le dimensioni di un tempo ed è chiamato tempo caratteristico o costante tempo del circuito RL (L). Per gli andamenti valgono le stesse riflessioni proposte per il circuito RC. In particolare gli aspetti energetici, se nel condensatore carico si ha un accumulo di energia legato al campo elettrico che si è generato, così nell’induttanza si ha un accumulo di energia legata al campo magnetico che si è generato all’interno. Il lavoro speso dal generatore per stabilire il campo è 73 𝐿𝑎𝑣𝑜𝑟𝑜 = 1 𝐿 𝐼2 2 Dove I è la corrente di regime ℰ/R. Tale energia viene dissipata dalla resistenza “dopo” la rimozione del generatore presente nel circuito, quando la corrente non passa “istantaneamente” dal valore di regime a zero, ma si smorza lentamente, con la solita costante tempo. La corrente che circola dopo l’apertura del circuito prende il nome di extracorrente e, in particolari situazioni, può essere di brevissima durata ma molto intensa specialmente se il circuito si chiude su una resistenza molto piccola, magari diversa da quella con la quale si è caricato il solenoide. Principio di funzionamento delle lampade a fluorescenza: consideriamo lo schema, la rete domestica è rappresentata dai contatti a sinistra contrassegnati con F (fase), G (ground), N (neutral). Sul contatto F c’è una tensione sinusoidale oscillante tra i valori di -300 e + 300 V (valore efficace 220 V) con una frequenza di 50 Hz (Negli Stati Uniti troviamo 110 V 60 Hz). Sul filo della fase troviamo un fusibile (che si interrompe in caso di eccessiva corrente) e un reattore (un bobina). Gli estremi del tubo a fluorescenza sono inizialmente collegati in serie mediante un dispositivo detto starter. La corrente fluisce nell’induttore, in un estremo del tubo, nello starter e nell’altro estremo. Per effetto Joule i filamenti agli estremi del tubo e lo starter si surriscaldano, i filamenti emettono elettroni mentre lo starter si interrompe. Il brusco cambiamento nella corrente provoca, per la legge di Lenz, un sovraccarico di tensione al reattore che porta all’innesco di una scarica elettrica all’interno del tubo e conseguente emissione di luce. Come funziona un trasformatore Il trasformatore e un dispositivo largamente usato sia in elettronica che nelle apparecchiature che comunque funzionano con l’elettricità. La sua enorme utilità deriva dal fatto che esso consente di variare (o, come dice il nome, di “trasformare”) il valore di una tensione, alzandola o abbassandola a piacere, purché si tratti di una tensione alternata. Come tutte le macchine, anche i trasformatori hanno un loro rendimento, e una piccola parte della potenza che li attraversa viene dissipata in calore. Un trasformatore e costituito schematicamente come si vede in figura: intorno ad un nucleo di materiale magnetico (generalmente ferro dolce), chiuso ad anello, sono realizzati due avvolgimenti di filo di rame; il filo e smaltato ed e completamente isolato, quindi non esiste alcun collegamento elettrico fra i due avvolgimenti ed il nucleo. 74 Tranne casi particolari, i due avvolgimenti hanno un diverso numero di spire: quello con più spire viene in genere chiamato “primario” e l'altro “secondario”. Supponiamo di applicare al primario (l’avvolgimento di sinistra, quello formato da più spire) la tensione alternata di 220 volt, che e quella delle nostre case; noteremo che ai capi dell’altro avvolgimento (quello con meno spire) risulterà presente una tensione più bassa, e questo, come già e stato detto, senza che esista alcun collegamento elettrico fra i due avvolgimenti. Quest’ultima osservazione e molto importante, perché mette in evidenza un altro grande pregio dei trasformatori: il circuito di uscita e completamente isolato da quello di entrata, e quindi, anche toccando i fili dell’avvolgimento a bassa tensione, non si corre il pericolo di entrare in contatto con la tensione di rete a 220 volt! Vediamo adesso cosa succede nel trasformatore: quando noi diamo tensione all’avvolgimento di sinistra, la corrente che circola nelle spire dell’avvolgimento crea un campo magnetico che varia con le stesse caratteristiche della tensione alternata che vi abbiamo applicato; per il fenomeno detto “induzione”, tutto il nucleo si magnetizza, e diventa sede di un campo magnetico alternato, la cui polarità si inverte esattamente come si inverte la tensione che lo ha generato. Il fenomeno funziona nei due sensi: - la corrente alternata che circola nelle spire fa nascere nel nucleo un campo magnetico alternato; - il campo magnetico alternato presente nel nucleo fa nascere, per induzione elettromagnetica, una corrente alternata nelle spire avvolte intorno ad esso. Questo spiega quindi due principi fondamentali: 1) applicando una tensione alternata ad uno dei due avvolgimenti, appare una tensione indotta sull’altro avvolgimento 2) il trasformatore funziona esclusivamente con la corrente alternata, poiché solo un campo magnetico variabile e in grado di dare origine a una corrente indotta. Per quanto detto, un trasformatore non deve mai essere collegato ad una tensione continua: la corrente assorbita ne brucerebbe gli avvolgimenti in pochi istanti! Da cosa dipende il valore delle tensioni sui due avvolgimenti? Semplicemente dal numero di spire. Se il primo ha 1000 spire e il secondo ne ha 100, la tensione che appare sul secondo e sempre un decimo di quella che si applica sul primo. Se per esempio applichiamo 220 volt sull’avvolgimento con 1000 spire, troviamo in uscita 22 volt sull’avvolgimento con 100 spire, e quindi otteniamo una tensione più bassa. Ma e vero anche il contrario: applicando 22 volt sull’avvolgimento di 100 spire, otteniamo 220 su quello di 1000 spire, realizzando quindi una trasformazione “in salita”. Il numero di spire che occorre avvolgere non dipende solo dalla tensione a cui deve lavorare il trasformatore, ma anche dalle caratteristiche del 75 nucleo; il flusso magnetico che si genera dipende infatti dalla sezione del nucleo stesso e dal materiale di cui esso e fatto: senza scendere in particolari, diremo che un nucleo avente una maggiore sezione, consente di ottenere un flusso magnetico più intenso, per cui, a parità di tensione, si richiedono avvolgimenti formati da meno spire; d'altra parte, esistono certi materiali magnetici che consentono di lavorare con densità di flusso più elevate (cioè con una induzione maggiore), ottenendo lo stesso risultato di un nucleo di maggiori dimensioni. In il nucleo magnetico ha una forma simile a quella mostrata in figura accanto, ed e formato da tanti lamierini di acciaio al silicio affiancati fino a formare un pacco dello spessore voluto. In teoria il nucleo potrebbe essere anche realizzato con ferro massiccio, ma l’uso di lamierini, isolati fra loro da fogli di carta, consente di ridurre le perdite dovute alle correnti parassite; più sottili e numerosi sono i lamierini, più basse sono le perdite. Per avere un’idea di tali perdite, diremo che con lamierini dello spessore di 0,35 mm esse ammontano a 1,3 watt per ogni chilo di peso; con lamierini di maggior spessore (0,5 mm) le perdite salgono a 2,3 watt per chilo. Circuito RLC Riprendiamo le ipotesi dei due esempi precedenti: sia un circuito dove sono presenti un generatore di fem 𝜀, una resistenza R, un condensatore C e un’induttanza L. Il condensatore è inizialmente scarico e il V(t) circuito è aperto, quindi la corrente è nulla. Sia V(t) la tensione ai capi del condensatore dopo la chiusura L C dell’interruttore, applicando la legge di Ohm abbiamo R I(t) E ℰ = 𝑅 𝐼(𝑡) + 𝑉(𝑡) + 𝐿 + - Δ𝐼(𝑡) Δ𝑡 Determinare l’andamento della corrente in funzione del tempo a partire dall’ultima equazione esula dallo scopo di questi appunti, però alcune riflessioni posso erre messe in campo: la corrente è inizialmente nulla per la presenza dell’induttanza e asintoticamente nulla per la presenza del condensatore. Consideriamo un piccolo intervallo di tempo t dopo la chiusura dell’interruttore durante il quale circola una corrente I(t), sul condensatore si aumento di carica q = I(t) t, per cui ai capi si ha un aumento della differenza di potenziale V = I(t)t/C, se potessimo sommare questi aumenti avremmo per la tensione ai capi del condensatore la seguente espressione 𝑡 𝑉(𝑡) = ∫ 0 𝐼(𝑡) 𝑞(𝑡) 𝑑𝑡 = 𝐶 𝐶 Quindi la legge di Kirchhoff risulta 76 ℰ = 𝑅 𝐼(𝑡) + 𝑞(𝑡) Δ𝐼(𝑡) +𝐿 𝐶 Δ𝑡 Dal momento che la corrente è un flusso di carica nel tempo possiamo riscrivere quanto sopra nel seguente modo ℰ=𝑅 Δ𝑞(𝑡) 𝑞(𝑡) Δ2 𝑞(𝑡) + +𝐿 Δ𝑡 𝐶 Δ𝑡 2 L’andamento della carica sul condensatore in funzione del tempo può essere ottenuto discretizzando il problema. Siano C = RC e L =L/R ℰ Δ𝑞(𝑡) 𝑞(𝑡) 𝐿 Δ2 𝑞(𝑡) = + + 𝑅 Δ𝑡 𝑅𝐶 𝑅 Δ𝑡 2 ℰ Δ𝑞(𝑡) 𝑞(𝑡) Δ2 𝑞(𝑡) = + + 𝜏𝐿 𝑅 Δ𝑡 𝜏𝐶 Δ𝑡 2 Δ2 𝑞(𝑡) 1 Δ𝑞(𝑡) 𝑞(𝑡) 1 ℰ = − − + 2 Δ𝑡 𝜏𝐿 Δ𝑡 𝜏𝐿 𝜏𝐶 𝜏𝐿 𝑅 Da cui è possibile ricavare Δ𝑞(𝑡 + Δ𝑡) Δ𝑞(𝑡) Δ2 𝑞(𝑡) = + Δ𝑡 Δ𝑡 Δ𝑡 Δ𝑡 2 𝑞(𝑡 + Δ𝑡) = 𝑞(𝑡) + Δ𝑞(𝑡) Δ𝑡 Δ𝑡 Per determinare l’evoluzione temporale della carica sul condensatore dobbiamo individuare le condizioni iniziali q(t=0) = 0 e q(t=0)/t = 0 (condensatore inizialmente scarico, corrente iniziale nulla per la presenza dell’induttanza). L’andamento della corrente in funzione del tempo può essere ottenuto discretizzando il problema. Siano C = RC e L =L/R. Consideriamo la variazione nel tempo della tensione del generatore, abbiamo 𝐼(𝑡) Δ𝐼(𝑡) Δ2 𝐼(𝑡) 0= +𝑅 +𝐿 𝐶 Δ𝑡 Δ𝑡 2 Dividendo per R e con le sostituzioni di cui sopra abbiamo Δ2 𝐼(𝑡) 𝐼(𝑡) 1 Δ𝐼(𝑡) = − − 2 Δ𝑡 𝜏𝐿 𝜏𝐶 𝜏𝐿 Δ𝑡 Da cui è possibile ricavare 77 Δ𝐼(𝑡 + Δ𝑡) Δ𝐼(𝑡) Δ2 𝐼(𝑡) = + Δ𝑡 Δ𝑡 Δ𝑡 Δ𝑡 2 𝐼(𝑡 + Δ𝑡) = 𝐼(𝑡) + Considerando le condizioni inziali (t = 0) I(t=0) = 0 e Δ𝐼(𝑡) Δ𝑡 Δ𝑡 Δ𝐼(𝑡=0) Δ𝑡 = ε L , è possibile iterare le equazioni di cui sopra e ottenere l’andamento approssimato della corrente in funzione del tempo. Nel caso di R, C, L, 𝜀 prossimi all’unità otteniamo il seguenti grafici che rappresentano la corrente che fluisce nel circuito (quindi la corrente nella resistenza) e la carica che si accumula sul condensatore. Corrente I(t) [A] Andamento della corrente dopo la chiusura dell'interruttore 1.00 0.80 0.60 0.40 0.20 0.00 -0.20 -0.40 -0.60 -0.80 -1.00 0.0 1.0 2.0 3.0 4.0 5.0 6.0 7.0 8.0 9.0 10.0 Tempo [s] Andamento della carica dopo la chiusura dell'interruttore 0.50 Carica q(t) [C] 0.40 0.30 0.20 0.10 0.00 0.0 1.0 2.0 3.0 4.0 5.0 6.0 7.0 8.0 9.0 10.0 Tempo [s] Osserviamo le caratteristiche principali: - L’andamento è oscillante e il periodo (e quindi la frequenza) è poco inferiore ai 2 (s); - L’oscillazione tende a smorzarsi perché la resistenza dissipa energia e la presenza del condensatore impedisce (dopo tempi lunghi) il passaggio della corrente; 78 - Osserviamo che le semionde positive hanno aree rispettivamente maggiori delle semionde negative, ciò giustifica l’accumularsi della carica sul condensatore; Quando la corrente è “alta” in valore assoluto significa che l’energia è accumulata nell’induttanza sotto forma di campo magnetico; Quando la corrente è “bassa” (cioè alla fine di una semionda) significa che l’energia è accumulata nel condensatore sotto forma di campo elettrico L’energia fluisce avanti e indietro tra il condensatore e l’induttanza, poiché la resistenza dissipa, questo processo non prosegue indefinitamente ma più o meno lentamente si smorza. Questo sistema è analogo ad una molla verticale con massa attaccata, la massa si trova nella posizione di riposo della molla e viene improvvisamente lasciata all’azione della forza di gravità. La massa scenderà ed inizierà ad oscillare intorno alla posizione di equilibrio delle forze, l’oscillazione si smorzerà per effetto dell’attrito dell’aria. In questa analogia la molla rappresenta il condensatore (che si può scaricare e caricare), l’induttanza rappresenta la massa inerziale (l’ostacolo a modificare la condizione di quiete o moto) e la resistenza è l’attrito dell’aria. Abbiamo osservato che la relazione tra differenza di potenziale e corrente non è sempre lineare come per le resistenze. In regime di corrente alternata (che non approfondiamo) è possibile comunque determinare una relazione univoca tra differenza di potenziale e corrente (purché si usino regimi sinusoidali e numeri complessi). Il rapporto tra la ddp e la corrente prende il nome di Impedenza e si indica con la lettera Z. La combinazione dei tre parametri del circuito R, C, ed L da luogo a comportamenti diversi. (sin istr a) An da me nto sov rasmorzato: l’oscillazione è quasi del tutto assente, questa situazione si verifica con una resistenza grande. (destra) Andamento risonante, l’oscillazione è persistente e si smorza molto lentamente, situazione che si verifica con piccoli valori della resistenza e per particolari condizioni dei due altri parametri. Si dimostra (ma non lo facciamo) che la frequenza angolare per la quale le ampiezze delle oscillazioni sono massime (frequenza di risonanza) è data da 𝜔0 = 1 √(𝐿 ∙ 𝐶) Con capacità ed induttanze molto piccole si possono ottenere frequenza estremamente alte. Il trasporto di segnali ad alta frequenza: il cavo coassiale In telecomunicazioni il cavo coassiale (in inglese coaxial cable, usualmente abbreviato in coax) è un mezzo trasmissivo di segnali informativi, appartenente alle linee di trasmissione e molto usato nelle 79 comunicazioni elettriche. È composto da un singolo conduttore di rame posto al centro del cavo (anima) e da un dielettrico (generalmente in polietilene o PTFE) che separa l'anima centrale da uno schermo esterno costituito da fili metallici intrecciati (maglia) o da una lamina avvolta a spirale, garantendo costantemente l'isolamento tra i due conduttori. Lo schermo di metallo aiuta a bloccare le interferenze. Il cavo è munito poi di connettori ai suoi estremi di connessione. Il segnale viaggia sotto forma di campo elettromagnetico tra l'anima e la maglia ad una velocità v che è una frazione di quella della luce nel vuoto e pari a c/n con n indice di rifrazione del dielettrico frapposto. L'analisi della propagazione del campo elettromagnetico nel cavo coassiale fa parte della teoria delle linee di trasmissione, mentre l'effetto di convogliamento è paragonabile a quello di una guida d'onda metallica. I cavi coassiali vengono prodotti in diverse tipologie in funzione della frequenza del segnale da trasportare e della potenza dello stesso. I valori di impedenza sono principalmente due: 50 ohm, utilizzato per le trasmissioni digitali (come le prime versioni della rete Ethernet) o radioamatoriali, nonché per segnali standard nel campo degli strumenti di misura elettronici; 75 ohm, utilizzato per il segnale video analogico, per la televisione (collegamento con l'antenna di ricezione terrestre o satellitare) e per le connessioni Internet via cavo. Esistono anche cavi con impedenza caratteristica di 93 ohm e 105 ohm utilizzati per reti di connessione dati. Una tipologia particolare, caratterizzata da estrema flessibilità e buona resistenza allo strappo, è utilizzata nelle sonde per oscilloscopio. Il cavo coassiale, nato per le trasmissioni analogiche e simile al cavo che trasporta i segnali radio e TV su lunghe distanze, fu in seguito adattato alla comunicazione dati digitali. I dati digitali sono molto più suscettibili rispetto ai dati analogici al rumore e alle distorsioni di segnale che vengono introdotte quando i segnali viaggiano su grandi distanze. Cavo coassiale RG-59 A: guaina esterna di plastica B: maglia di rame intrecciata o massa Quindi, le reti che usano come mezzo trasmissivo il cavo coassiale possono estendersi solo per distanze limitate a meno che non vengano utilizzati dei ripetitori di segnale che rigenerano il segnale periodicamente (repeater). Semplici amplificatori non sarebbero adatti, perché questi amplificherebbero anche il rumore e la distorsione che il segnale raccoglie mentre viaggia sul mezzo. Per molto tempo il cavo coassiale è stata inoltre la sola scelta economica da usare nella cablatura di reti locali ad alta velocità perché rispetto al classico doppino garantisce una capacità di banda e dunque una velocità di trasmissione superiore. Gli svantaggi di installare e mantenere un sistema in cavo coassiale includono il fatto che il cavo è complesso e costoso da fabbricare, è 80 difficile da utilizzare in spazi confinati in quanto non può essere piegato eccessivamente intorno ad angoli stretti ed è soggetto a frequenti rotture meccaniche ai connettori. Va però segnalata l'alta resistenza all'interferenza del segnale. In tali ambiti il cavo coassiale è stato soppiantato dalla fibra ottica e dalle relative comunicazioni ottiche. Generazione di Onde ElettroMagnetiche Antenna a dipolo Dal circuito LC all’antenna a dipolo (fonte Wikipedia). Nel circuito LC (a sinistra) il campo elettrico è concentrato nel condensatore mentre quello magnetico nell’induttanza. Consideriamo la deformazione progressiva del condensatore da forma chiusa a forma aperta. Il campo elettrico si espande in zone sempre più lontane dal condensatore così come il campo magnetico, inizialmente confinato nella bobina, si sposta gradualmente anche intorno al campo elettrico, generando un’onda elettromagnetica 81 Esempio di antenna a dipolo su un palo In telecomunicazioni l'antenna a dipolo (o più semplicemente dipolo) è il più semplice tipo di antenna per le comunicazioni radio, costituito da due bracci uguali aperti realizzati con un conduttore elettrico lineare su cui scorrono le correnti elettriche che irradiano il campo elettromagnetico a distanza. Il dipolo hertziano è la sorgente utilizzata da Heinrich Rudolf Hertz nel 1887 per compiere i suoi celebri esperimenti di rilevazione sperimentale delle onde elettromagnetiche, previste teoricamente da Maxwell a partire dalle sue equazioni. È costituito da un conduttore elettrico filiforme di lunghezza molto minore della lunghezza d'onda del segnale elettrico in ingresso, collegato a due sfere metalliche che fungono da serbatoi per le cariche. Esso di fatto è un tipo di antenna a dipolo. Il dipolo equivalente di antenna è il dipolo hertziano con cui si può sostituire un'antenna senza variare il campo elettromagnetico irradiato dall'antenna stessa. Classificazione Appartiene in generale alla categoria delle "antenne filari" e può essere classificato nei seguenti modi: In base alla lunghezza assoluta del filo conduttore radiante: "dipolo elementare" ovvero costituito da un filo conduttore con lunghezza infinitesima su cui scorre una densità di corrente J. Si tratta dunque di un'astrazione ideale. "non elementare" ovvero con lunghezza finita del conduttore con lievi differenze in termini di irradiazione. È il caso tipicamente reale. In base alla lunghezza del filo conduttore radiante rispetto alla lunghezza d'onda λ o equivalentemente alla frequenza del segnale elettrico dell'alimentazione: "a semionda": lunghezza del conduttore pari a λ/2. È il tipo di dipolo più diffuso in virtù del funzionamento in condizioni di risonanza e quindi massima efficienza di radiazione potendo essere anche facilmente adattato con la linea di trasmissione di alimentazione. "a onda intera": lunghezza del conduttore pari a λ. "a 3/2 dell'onda": lunghezza del conduttore pari a 3λ/2. In base alla disposizione del filo conduttore radiante: "lineare" se il filo conduttore è un segmento di retta perpendicolare all'alimentazione. "non lineare" se il segmento non è rettilineo ovvero un "dipolo ripiegato" o a V invertita. La lunghezza del conduttore radiante del dipolo è quindi in stretta relazione con i parametri operativi/applicativi in termini di frequenza e quindi di lunghezza d'onda dell'onda elettromagnetica irradiata/captata: tanto maggiore è la lunghezza del conduttore tanto maggiore è la lunghezza d'onda e minore la frequenza operativa centrale dell'onda captata/emessa e viceversa. Tuttavia grazie a particolari implementazioni si riescono ad ottenere antenne a dipolo che irradiano/ricevono 82 a diverse bande centrate su rispettive frequenze di risonanza come nel caso delle antenne per telefoni cellulari. Se si combinano tra loro più elementi o dipoli allineati lungo un asse si ottiene un'antenna ad array. Caratteristiche Tipico diagramma di radiazione a forma toroidale di un'antenna a dipolo; si nota la quasi totale omnidirezionalità La caratteristica fondamentale del dipolo è la forte "omnidirezionalità" di irradiazione/ricezione del suo "diagramma di radiazione" con dei nulli di radiazione solo nell'intorno degli estremi dell'asse del dipolo stesso: tale caratteristica è sfruttabile in molti tipi di applicazioni di radiocomunicazione. Le caratteristiche approssimate di quasi-omnidirezionalità possono essere ulteriormente incrementate ricorrendo a più antenne a dipolo ad esempio con 3 dipoli ciascuno dei quali disposto lungo un asse cartesiano. Realizzazione Il dipolo è diviso in due rami lineari di pari lunghezza collegati insieme nella parte centrale, dalla quale viene prelevato il segnale tramite un cavo coassiale e viene portato al dispositivo sorgente in caso di trasmissione o ricevente in caso di ricezione. La lunghezza del conduttore del dipolo misura complessivamente circa la metà della lunghezza d'onda, nel caso di dipolo a semionda, corrispondente alla frequenza utilizzata. Ad esempio, volendo realizzare un dipolo per ascoltare le stazioni di radiodiffusione nella banda dei 31 m (banda di frequenze da 9400 a 9900 kHz), la lunghezza dell'antenna (calcolata per il centro della banda di trasmissione) deve essere di circa 15,5 m. Una semplice antenna a dipolo, a semi onda La connessione all'apparato radio è normalmente realizzata con un cavo coassiale, il quale rappresenta una linea sbilanciata, mentre il dipolo è un'antenna bilanciata e per adattare le due linee viene solitamente interposto un balun (adattatore di linea balanced - unbalanced). L'assenza del balun renderebbe la calza del cavo coassiale parte dell'antenna alterando il lobo di radiazione e causando interferenze nelle apparecchiature poste nelle vicinanze della linea. Per ottenere buone prestazioni con questa antenna, sia in trasmissione che in ricezione, la si deve posizionare ad un'altezza di almeno mezza lunghezza d'onda. 83 Esempio di un sistema (detto anche cortina) di antenne direttive Yagi per radiodiffusione, un sistema è composto da 2 o più antenne collegate tra loro tramite degli accoppiatori; le antenne direttive Yagi sono composte da un dipolo e da uno o più elementi riflettori e direttori Il dipolo può essere orientato orizzontalmente, verticalmente oppure può essere anche inclinato rispetto al terreno (in questo caso si parlerà di dipolo a V invertita). L'orientamento determina la polarizzazione del campo elettromagnetico trasmesso e si ottiene il massimo segnale quando la polarizzazione dell'antenna ricevente è identica a quella dell'antenna trasmittente (adattamento di polarizzazione). Se la differenza tra le due polarizzazioni è di 90 gradi si ha invece la massima perdita, pari a circa 20 dB (cioè il 99% del segnale potenziale). La corretta polarizzazione è importante solo per le comunicazioni per onda di terra o riflessione lunare in quanto la ionosfera modifica la polarizzazione dei segnali in modo casuale e dunque essa non è un fattore critico per le comunicazioni su onde corte (HF). Il ripiegamento del dipolo ha effetti anche sull'adattamento di impedenza tra dipolo stesso e linea di alimentazione. L'impedenza caratteristica del dipolo è infatti di circa 75 Ohm, quando i suoi bracci sono posizionati paralleli al piano di massa o al terreno, se trattasi di filare per bande HF, e visto che i normali cavi coassiali usati per alimentare questo tipo di antenne hanno invece un'impedenza caratteristica di circa 52 ohm, si tende a modificare la posizione degli elementi in modo che formino angoli inferiori a 180° (dipolo a V invertita) per ottenere l'adattamento: portandoli a 120° si ha un'impedenza nel punto di alimentazione prossima ai 52 ohm, abbassando ancora l'angolo si scende a 35 ohm. In casi particolari, per portare l'impedenza caratteristica vicina ai 52 ohm si utilizzano degli adattatori di impedenza che sono solitamente inseriti nel punto di alimentazione dall'antenna, ma qualora ciò fosse possibile, gli adattatori possono trovarsi nel punto di origine della radiofrequenza in modo da dare all'emettitore l'impedenza corretta, ma lasciando l'antenna disadattata elettricamente ottenendo per cui uno scarso rendimento o efficienza. Oltre a ridurne l'impedenza, inclinando i rami del dipolo si ottiene una diminuzione della frequenza di risonanza e della banda passante dell'antenna e la lunghezza del dipolo deve essere diminuita. Poiché a volte si hanno difficoltà pratiche nella realizzazione dei due bracci del dipolo tenuti separati tra loro con alimentazione al centro, ricorrendo al cosiddetto metodo delle immagini è possibile sostituire un braccio del dipolo con una superficie metallica o un insieme di bracci metallici disposti su una superficie piana perpendicolare all'altro braccio del dipolo ottenendo così in maniera più versatile un "monopolo" (è il caso delle antenne dei veicoli stradali) il quale presenta caratteristiche di equivalenza in termini di irradiazione del dipolo originario con la sola differenza che la potenza elettromagnetica irradiata, a parità di intensità di corrente, risulta dimezzata. La caratteristica di ottima omni-direzionalità del dipolo è sfruttabile in trasmissione in tutti i tipi di telediffusione, in trasmissione e ricezione nelle radiodiffusioni (si pensi alle antenne di ricezione 84 radio delle vetture), nelle reti cellulari sia nei tipi più semplici di stazioni radio base sia nei ricevitori ovvero i telefoni cellulari per poter trasmettere e ricevere da qualunque posizione rispetto alla BTS, nei telefoni cordless domestici, nei sistemi radio walkie-talkie, nelle antenne di ricezione per TV non connesse alle usuali antenne di ricezione televisiva sui tetti, nei sistemi di automazione dei cancelli, dai radioamatori ecc. Teorema di reciprocità Un’antenna è un dispositivo che ha la funzione di trasduttore per operare la trasformazione di una segnale elettrico in energia radiante, oppure di effettuare al conversione inversa. La singola antenna può essere caratterizzata da una serie di parametri. Uno dei più significativi è il diagramma di irradiazione nel quale si riporta, nelle varie direzioni, la radiazione relativa che l’antenna emette. Il diagramma di ricezione rappresenta invece la risposta relativa dell’antenna alla radiazione elettromagnetica incidente nelle diverse direzioni. Il teorema di reciprocità afferma che il diagramma di irradiazione e quello di ricezione coincidono. Guadagno di antenna Il guadagno di antenna è definito come rapporto tra la potenza irradiata da un’antenna in una certa direzione (di solito si intende la direzione di massima irradiazione) e quella irradiata dall’antenna di riferimento; tale antenna di riferimento è l’antenna isotropa ideale o il dipolo a semionda. Se, per esempio un’antenna ha un guadagno G = 20 dB rispetto al radiatore isotropo avremo 𝐺 = 10 𝐿𝑜𝑔 ( 𝑃 ) = 20 [𝑑𝐵𝑖 ] 𝑃𝑖𝑠𝑜 E quindi 𝑃 = 100 𝑃𝑖𝑠𝑜 Se invece i riferimento è il dipolo a semionda il guadagno si esprime in [dBd], poiché il dipolo ha già un guadagno di 2,14 [dBi], abbiamo la seguente relazione 𝐺𝑖 [𝑑𝐵𝑖 ] = 𝐺𝑑 [𝑑𝐵𝑑 ] + 2,14 Campo elettrico in funzione della distanza Lo studio della propagazione delle onde radio non è questione semplice, molti fattori influenzano il fenomeno. Una condizione semplificata per avere una valutazione del campo è quella di considerare un’antenna in campo aperto (senza riflessioni e assorbimenti), il campo elettrico E 0 sarà 𝐸0 = √30 ∙ 𝐺 ∙ 𝑃 𝑑 G: guadagno di antenna in potenza rispetto al radiatore isotropo P: potenza irraggiata d: distanza in metri dall’antenna 85 Il dipolo a semionda e il relativo diagramma di irradiazione Un paio di teoremi e il campo elettrico delle punte Il campo elettrico generato da una carica puntiforme +Q1 alla distanza r nel vuoto, è radiale (nel senso che dipende dalla sola distanza r ed è diretto come i raggi che escono dalla carica, l’intensità ha la seguente espressione: 𝐸1 (𝑟) = 1 𝑄1 4𝜋𝜀0 𝑟 2 Introduciamo la grandezza “flusso del campo elettrico” come il prodotto del campo E per la superficie S che esso attraversa Φ𝐸 (𝑆) = ∫ 𝐸 𝑑𝑆 Se consideriamo una superficie chiusa sferica S di raggio r centrata nella carica Q1, per il flusso di E otteniamo Φ𝐸 (𝑆) = 1 𝑄1 𝑄1 4𝜋𝑟 2 = 2 4𝜋𝜀0 𝑟 𝜀0 Questa relazione ha carattere generale, prende il nome di teorema di Gauss e può essere riassunta nel seguente modo: “il flusso del campo elettrico attraverso una superficie chiusa è uguale alla carica contenuta all’interno della superficie (diviso 0)”. Le applicazioni di questo semplice teorema sono innumerevoli. Esso permette di calcolare il campo attraverso considerazioni di simmetria e la conoscenza della posizione delle cariche. Ad esempio ci dice che il campo elettrico all’interno di un conduttore cavo in equilibrio è nullo (e la cosa non può non sorprendere), con considerazioni simili si deduce che anche il campo all’interno di un conduttore pieno è nullo così come il campo generato all’esterno di una sfera carica è analogo al campo generato da un carica puntiforme del valore della carica totale della sfera e posta nel centro della sfera stessa. Consideriamo il caso di un conduttore sferico di raggio r1 e carico con una carica +Q1 in equilibrio, la carica, per simmetria, è distribuita omogeneamente sulla superficie, pertanto possiamo definire la densità superficiale si carica 𝜎1 = 𝑄1 4𝜋𝑟12 Quindi, considerando il teorema di Gauss con superfice quella della sfera abbiamo 86 1 𝑄1 𝑄1 𝜎1 4𝜋𝑟12 2 4𝜋𝑟 = = 4𝜋𝜀0 𝑟 2 𝜀0 𝜀0 Φ𝐸 (𝑆) = 𝐸1 4𝜋𝑟 2 = 𝜎1 𝜀0 𝐸1 = → 𝜎1 = 𝜀0 𝐸1 Anche questo teorema ha valenza generale (Teorema di Coulomb) e afferma che il campo elettrico in prossimità di un conduttore è proporzionale alla densità superficiale di carica. Chiediamoci ora quanta energia serve per aggiungere una carica q alla nostra sfera partendo dall’infinito. Si tratta di sommare infiniti lavori elementari (infinitesimali) partendo dall’infinto fino alla distanza r1 dal centro della sfera. Poiché il campo fuori dalla sfera è uguale a quello generato da una carica puntiforme per il calcolo del lavoro abbiamo: 𝑟1 𝑟1 𝐿 = ∫ −𝐹 𝑑𝑟 = ∫ − ∞ ∞ 1 𝑄1 1 𝑄1 𝑟 𝑞 𝑑𝑟 = 𝑞 |∞1 2 4𝜋𝜀0 𝑟 4𝜋𝜀0 𝑟 Si associa a questo lavoro il concetto di potenziale della sfera come il rapporto tra il lavoro (calcolato come sopra) e la carica q, quindi la nostra sfera, carica, assume un potenziale rispetto all’infinto 𝑉= 𝐿 1 𝑄1 = [𝑉] 𝑞 4𝜋𝜀0 𝑟1 Analogamente possiamo definire la capacità C del conduttore come il rapporto tra la carica e il potenziale assunto rispetto all’infinito 𝐶= 𝑄 = 𝑉 𝑄1 = 4𝜋𝜀0 𝑟1 1 𝑄1 4𝜋𝜀0 𝑟1 Potere delle punte e il parafulmine Consideriamo ora il caso di due sfere cariche (raggio r1 e r2 con r1 > r2) collegate tra loro da un sottile filo (in modo da non alterare il campo ma mantenerle allo stesso potenziale), ci chiediamo come si distribuirà la carica sulle due sfere in modo da avere il medesimo potenziale rispetto all’infinito, avremo quindi Q1/r1 = Q2/r2 E2 = (r1/r2)E1 r1 r2 𝑉= 𝑄1 𝑄2 𝑄1 𝑄2 = = = 𝐶1 𝐶2 4𝜋𝜀0 𝑟1 4𝜋𝜀0 𝑟2 𝑄1 𝑄2 = 𝑟1 𝑟2 Utilizzando il teorema di Coulomb abbiamo 𝜎1 4𝜋𝑟12 𝜎2 4𝜋𝑟22 = 𝑟1 𝑟2 𝜎1 𝑟1 = 𝜎2 𝑟2 𝐸1 𝑟1 = 𝐸2 𝑟2 𝐸2 = 𝑟1 𝐸 𝑟2 1 87 Il campo elettrico in prossimità della sfera più piccola sarà “maggiore” di quello in prossimità della sfera più grande di un fattore r1/r2, quindi, a parità di potenziale, tanto più è piccola la sfera e tanto maggiore sarà la sua densità di carica e quindi il campo in prossimità della sua superficie. Una punta può essere pensata come una superficie con curvatura molto piccola così come una superficie piana è immaginabile come una superficie sferica con raggio di curvatura molto grande. E grande alta densità di carica capacità di ionizzare l’aria circostante Collegamento Il parafulmine è un’asta metallica appuntita collegata elettricamente a terra. L’asta si carica elettricamente per induzione sotto l’azione delle nuvole (caricate a loro volta per strofinio). La densità di carica è massima in prossimità della punta. L’aria circostante (per urto con la punta stessa) tende a ionizzarsi caricandosi come la punta e subendo l’attrazione delle nuvole. Si produce un flusso di carica che tende a neutralizzare la ddp che si stabilisce tra nuvole e terra. In caso contrario si genera una scarica a terra 88 Sorgenti di campo EM Possiamo affermare che esistono due categorie di sorgenti di campi elettromagnetici, quelle naturali e quelle artificiali. Le prime sono quelle presenti in natura, mentre le seconde sono prodotte dall’uomo. Analizziamo nel dettaglio: Le sorgenti naturali possono essere classificate in quattro tipologie: 1. la radiazione solare, che quotidianamente incide sulla superficie terrestre, è costituita da onde elettromagnetiche ad ampio spettro di frequenza. 2. il campo magnetico terrestre, che può essere considerato un campo quasi statico, avente delle piccole variazioni quotidiane, annuali e ogni undici anni; esso è prodotto da correnti elettriche che circolano negli strati profondi della terra. 3. le correnti biologiche che sono presenti nei tessuti viventi, nei quali permettono lo svolgimento di tutte le funzioni fisiologiche. 4. le scariche atmosferiche, sono fenomeni di natura elettrostatica e sono dovuti all’accumulo di altissime concentrazioni di cariche nelle nubi e conseguentemente elevatissime differenze di potenziale elettrico rispetto alla superficie terrestre. Quando tale differenza di potenziale (ddp) raggiunge livelli tanto elevati da rompere il dielettrico tra le nubi ed un punto della superficie terrestre si forma il fulmine. Durante la scarica si genera un improvviso ed intensissimo passaggio di cariche elettriche dal punto a potenziale elettrico più elevato (di solito la nube) al terreno, si forma cioè una corrente elettrica di intensità molto elevata. Il passaggio impulsivo di corrente elettrica genera la manifestazione di forti campi elettromagnetici in un ampio spettro di frequenze. Le sorgenti artificiali possono essere classificate essenzialmente in tre tipologie: 1. le linee e gli impianti per la distribuzione dell’energia elettrica, che portano ad un incremento del campo elettrico e magnetico a bassa frequenza. 2. gli impianti per le telecomunicazioni tv, radio e telefonia cellulare che hanno incrementato il livello ambientale di campo elettromagnetico nell’ambito delle radiofrequenze e delle microonde. 3. l’uso di apparecchi elettrici, sia nelle case sia in ambito lavorativo, che porta ad un aumento dell’esposizione personale, dell’intero corpo o di qualche sua parte. 89 Effetti biologici dei campi elettromagnetici I campi elettromagnetici a bassa frequenza ELF, dall’inglese Extremly Low Frequency, sono campi elettrici (E) e magnetici (B) oscillanti a frequenze comprese tra 0 – 300Hz. Questi campi rientrano nella gamma delle radiazioni non ionizzanti, sono cioè caratterizzati da un’energia insufficiente ad indurre fenomeni di ionizzazione o rompere legami macromolecolari. I campi ELF d’origine naturale sono estremamente bassi, rispettivamente dell’ordine di 0,0001 V/m e 0,0001 T (50/60 Hz) è associata alla produzione, trasmissione ed uso dell’energia elettrica. Fino a qualche decennio fa tali radiazioni non erano considerate in grado di interagire con i sistemi biologici. Con il passare degli anni sono stati condotti diversi studi e sono state portate evidenze di molti effetti biologici dell’esposizione ai campi elettromagnetici, anche se persistono opinioni contrastanti sulle possibili conseguenze avverse per la salute. Quando un organismo biologico viene immerso in un campo elettromagnetico si ha una perturbazione dell’equilibrio elettrico a livello molecolare, in quanto tali campi generano correnti e campi elettrici variabili nel tempo che a loro volta inducono una stimolazione diretta delle cellule eccitabili, come quelle dei tessuti nervoso e muscolare. Una prima e importante distinzione va fatta tra: EFFETTI BIOLOGICI e EFFETTI SANITARI. 90 Quest’aspetto è stato precisato dall’OMS - Organizzazione mondiale della sanità – nel Promemoria n° 182 del 1998: Si verifica un effetto biologico quando l’esposizione alle onde elettromagnetiche provoca qualche variazione fisiologica notevole o rilevabile in un sistema biologico Si ha invece un effetto sanitario (di danno alla salute) quando l’effetto biologico è tale da non poter essere compensato naturalmente dall’organismo, portando a qualche condizione di danno alla salute, intesa come stato di completo benessere fisico-mentale e sociocomportamentale. Gli effetti biologici sono a loro volta distinti in DIRETTI e INDIRETTI: gli effetti diretti risultano dall’interazione diretta dei campi con il corpo del soggetto esposto; quelli indiretti implicano l’interazione con oggetti ad un potenziale elettrico diverso da quello del corpo. Esistono due possibili meccanismi di accoppiamento indiretto: correnti di contatto, che risultano dal contatto con un oggetto a diverso potenziale, e accoppiamento con strumentazione medica impiantata in un individuo, come pacemaker e protesi. Il termine “effetto biologico” viene utilizzato in modo neutro sia per indicare effetti positivi, come la stimolazione tissutale che si applica per migliorare ad esempio la guarigione di fratture ossee, sia per effetti negativi, come l’induzione di tumori o la produzione di danni ai sistemi nervoso, immunitario, cardiovascolare e riproduttivo. Tra gli effetti sanitari si distinguono effetti: a breve termine o immediati, di natura acuta o deterministica, effetto con presenza di soglia di esposizione. a lungo termine o stocastici, di natura cronica, senza la presenza di soglia (classico esempio è l’insorgenza di tumori). Si deduce facilmente da questa distinzione che per gli effetti con soglia di esposizione la protezione è molto semplice, basta infatti limitare l’esposizione all’agente nocivo ad un valore inferiore a quello di soglia perché l’effetto non si verifichi. Allo stato attuale si hanno conoscenze certe solo per quanto concerne gli effetti acuti di natura deterministica, per gli effetti cronici sono necessari ulteriori studi. Effetti acuti e cronici possono essere diversi a seconda della frequenza (f): effetto acuto con f < 100 Hz: abbiamo un’interferenza delle correnti indotte con i meccanismi fisiologici di attivazione muscolare e della percezione sensoriale, quindi per esposizioni sufficientemente intense si possono verificare sensazioni tattili o visive disturbate o contrazioni muscolari involontarie; effetto cronico con f < 100 Hz: si possono verificare sintomi soggettivi come cefalee ed insonnia e sintomi oggettivi come malattie degenerative e tumori; effetto acuto con f > 100 Hz: sono dovuti al riscaldamento locale dei tessuti provocati per effetto Joule delle correnti indotte; effetto cronico con f > 100Hz: si hanno degli effetti a livello del sistema nervoso centrale e sugli apparati circolatorio, neurovegetativo e neuroendocrino. 91 Proprietà elettromagnetiche dei tessuti biologici In ambito elettromagnetico i tessuti biologici sono caratterizzati, alla stregua di altri materiali, dalle grandezze macroscopiche quali la conducibilità elettrica () la permeabilità elettrica() e la permeabilità magnetica () che dipendono dalla frequenza. Nei meccanismi d’interazione sono rilevanti i fenomeni di cessione dell’energia del campo elettromagnetico al tessuto. L’energia del campo è ceduta alle cariche elettriche (elettroni, ioni, molecole dipolari e unipolari) che sono poste in movimento. Durante il loro moto le cariche collidono con le altre molecole del tessuto trasformando così la loro energia meccanica in calore. Le cariche elettriche, a seconda della loro massa, reagiscono più o meno rapidamente alle variazioni del campo, dando così luogo a diversi fenomeni che dipendono dalla frequenza. In generale i tessuti biologici sono materiali non ferromagnetici, la loro permeabilità magnetica (m) è praticamente uguale a quella dell’aria. La permettività elettrica (e) varia invece con la frequenza e con il tipo di tessuto umano. Al di sotto del MHz il tessuto umano ha un comportamento anisotropico, la conduttività varia cioè da una direzione all’altra. Generalmente la permettività decresce all’aumentare della frequenza. In generale i tessuti biologici non presentano proprietà magnetiche e possono quindi essere considerati “trasparenti” al campo magnetico. Un buon conduttore riflette quasi completamente le onde elettromagnetiche e dissipa energia a causa delle correnti indotte che in esso si producono. Al contrario, un dielettrico è quasi completamente trasparente alle onde elettromagnetiche, ma può immagazzinare una parte di energia. Il corpo umano, in una certa misura, può fare entrambe le cose. Il suo comportamento, conduttore o dielettrico, è descritto da due grandezze fondamentali: Conducibilità elettrica Costante dielettrica assoluta [(m)-1 = S/m] [C2/N m2] Viene definito fattore di dispersione (o tangente di perdita) per valutare se un tessuto è più o meno un buon conduttore, la quantità tan 𝛼 = 𝜎 2𝜋 𝜀 𝑓 dove f è la frequenza dell’onda. Un tessuto si comporta tanto più da buon conduttore quanto più è elevato il valore di tan, alle basse frequenze, quindi, possiamo assimilare tali tessuti a buoni conduttori. I modelli dosimetrici costituiscono gli strumenti fisico matematici che permettono di risalire dalle grandezze derivate, campo elettrico e magnetico, a quelle primarie, densità di corrente indotta e distribuzione superficiale di carica (per campi con frequenza fino a 50 Hz), una volta note le condizioni di esposizione e le caratteristiche del campo. L’IRPA-INIRC ha definito dei limiti primari, espressi cioè da una grandezza dosimetrica, direttamente correlabile agli effetti biologici osservabili. Tali grandezze sono il SAR (Specific Absorption Rate) 92 (W/Kg), per esposizione a campi elettromagnetici ad alta frequenza, e la densità di corrente J(A/m2) indotta nel corpo umano, per campi a bassa frequenza. La densità di corrente indotta, dall’esposizione ad un CEM di bassissima frequenza, è la grandezza fisica maggiormente correlata all’effetto biologico di tipo acuto. Essendo però interna ai tessuti non è possibile misurare nell’uomo, in condizioni reali di esposizione, il valore di tale grandezza primaria se non con metodi invasivi, è stato pertanto necessario sviluppare dei modelli fisici e numerici attraverso i quali tale grandezza possa essere correlata al campo elettrico e magnetico, che essendo esterni al corpo umano risultano direttamente misurabili. Si parla di limiti secondari facendo riferimento quindi a valori limite di campo elettrico E(V/m), campo magnetico H(A/m) e densità di potenza incidente (W/m2). Campo elettromagnetico ad alta frequenza A frequenze superiori ai 100Hz, il meccanismo d’interazione CEM – materia, consiste principalmente nell’assorbimento dell’energia elettromagnetica incidente. Il modello più semplice per lo studio dei meccanismi d’accoppiamento alle alte frequenze sfrutta l’ipotesi che le dimensioni del soggetto esposto siano molto maggiori della lunghezza d’onda. Si ha quindi che una parte della radiazione in arrivo viene riflessa ed un’altra parte penetra nel materiale biologico, depositandovi potenza e attenuandosi quindi esponenzialmente. La profondità di penetrazione è inversamente proporzionale alla frequenza del campo e alla conducibilità elettrica del tessuto esaminato (quindi proporzionale alla lunghezza d’onda). Più alta è la frequenza meno profondamente penetra nel corpo, depositando tutta l’energia negli strati superficiali. La grandezza dosimetrica che meglio descrive lo scambio energetico che c’è tra radiazioni elettromagnetiche e materia vivente è il SAR, cioè la quantità di energia ceduta nell’unità di tempo divisa per la massa corporea (W/Kg). 𝑆𝐴𝑅 = 2 𝜎𝐸𝑖𝑛𝑡 𝜌 = coducibilità del tessuto (S/m) Eint = campo elettrico indotto internamente (V/m) = del tessuto (Kg/m3) L’energia elettromagnetica viene dissipata nel corpo sotto forma di calore: ed è proprio il riscaldamento dei tessuti a provocare effetti nocivi per la salute nel caso di CEM ad alta frequenza. I valori di SAR indicati dall’ICNIRP come limiti sono 0,4 W/Kg per lavoratori e 0,08 W/Kg per la popolazione. Campo elettromagnetico a bassa frequenza L’esposizione a campi elettrici e magnetici di bassa frequenza implica un assorbimento trascurabile di energia elettromagnetica con, di conseguenza, un aumento non apprezzabile della temperatura corporea. In questo caso l’unico effetto da considerare è l’induzione di correnti all’interno del corpo. L’approssimazione adottata comunemente è quella statica, che ci permette di considerare i campi elettrico e magnetico disaccoppiati. Le condizioni applicabili fino a 50-100 kHz che consentono di affrontare il problema dei due campi separatamente devono essere: 93 - dimensioni dell’oggetto esposto molto minori della lunghezza d’onda dimensioni e distanza piccole rispetto alla lunghezza d’onda o alla profondità di penetrazione i tessuti biologici devono poter essere considerati buoni conduttori Vediamo come si procede. Accoppiamento ai campi elettrico e magnetico Campo elettrico Consideriamo un corpo immerso in un campo elettrico, vogliamo calcolare il valore del campo internamente al corpo; a tale scopo bisogna distinguere il campo nella sua componente tangenziale (Et) e nella sua componente normale (En) alla superficie di separazione dei due mezzi. Per le componenti tangenziali sarà valida la seguente uguaglianza nei due mezzi: Et1 = Et2 e per le componenti normali risulterà: 1En1 = 2 En2 considerando i valori di s nell’aria e nel tessuto biologico aria=10-13 ,biologico=10-1), la componente delle linee di forza che risulta predominante sarà quella perpendicolare alla superficie di separazione tra l’interno e l’esterno del corpo. Per i campi statici il rapporto tra i valori esterno ed interno, in queste condizioni, di E è circa 10 -12. a 50 Hz diventa dell’ordine di 10-8. Poiché in realtà il campo elettrico dovuto ad un CEM non è costante, ma varia nel tempo in modo sinusoidale, si generano delle correnti indotte, che costituiscono la primaria conseguenza dell’esposizione. La loro intensità è proporzionale alla frequenza e all’ampiezza del campo elettrico secondo la seguente formula: Jind=AE f E La costante AE dipende dalla dimensione e dall’orientamento del corpo, ma soprattutto dal particolare tessuto considerato, vale circa 3x10-9 [As/Vm] in zone come la testa o la regione cardiaca. I risultati egli studi attualmente disponibili mostrano che gli effetti per esposizioni fino a 20 kV/m sono pochi ed innocui. Campo magnetico Nel caso di fenomeni statici si può dire che un organismo non risente in modo significativo della presenza di un campo magnetico. La situazione cambia notevolmente per campi oscillanti: per la legge d’induzione di Faraday, ogni campo magnetico variabile nel tempo induce in un conduttore delle correnti interne. A loro volta, tali correnti sono sorgenti di un campo magnetico secondario in grado di perturbare il campo originario. È possibile dimostrare che la perturbazione (dipendente dalla frequenza, dalla conducibilità dei tessuti e dalle dimensioni del soggetto esposto) nel caso dell’uomo è trascurabile per frequenze fino ai 100 kHz. Le condizioni di raccordo tra i due mezzi per il campo magnetico sono: 94 Bn1 = Bn2 Ht1 = Ht2 con B =H La permeabilità magnetica della maggior parte dei tessuti biologici ha valori prossimi a quella dello spazio libero 0 = 4 10-7 H/m. La distribuzione di campo magnetico è uguale a quella che si avrebbe in assenza dell’individuo esposto; il campo al suo interno è pari a quello esterno. La relazione che lega la densità di corrente indotta all’ampiezza del campo magnetico è data da: 𝐽𝑖𝑛𝑑 = 𝜋 𝐿 𝜎𝑓𝐵 2 Le correnti indotte attraversano completamente l’individuo, interessando anche gli organi interni e scegliendo i percorsi a minore resistenza (cioè i tessuti a più alta conducibilità), fino a scaricarsi a terra attraverso le piante dei piedi. Queste correnti, fortunatamente, non hanno mai intensità troppo elevate, perché le costanti che troviamo nelle formule precedenti sono molto minori di 1; ciò garantisce una limitazione degli effetti anche nel caso di campi molto intensi. Infine, nel caso di un’esposizione a corpo intero ad un campo sinusoidale a 50 Hz si giunge ai valori riportati in tabella: 95 Environmental Physisc for Biotech. High School CLIL unit: the rainbow Why English? You have never heard of Jesus? Maybe yes. Jesus spoke with Peter and John in Aramaic, a kind of dialect of the time. Dante Alighieri spoke Italian but wrote in Latin, so Newton, spoke English but his scientific texts are written in Latin. Currently the international language is English, and most of the scientific and technical texts are written in English CLIL, what is it? (wikipedia en) Content and Language Integrated Learning is a term created in 1994 by David Marsh and Anne Maljers as a methodology similar to language immersion and content-based instruction. It's an approach for learning content through an additional language, thus teaching both the subject and the language. The idea of its proponents was to create an "umbrella term" which encompasses different forms of using language as the medium of instruction. This kind of approach has been identified as very important by the European Commission because: "It can provide effective opportunities for pupils to use their new language skills now, rather than learn them now for use later. It opens doors on languages for a broader range of learners, nurturing self-confidence in young learners and those who have not responded well to formal language instruction in general education. It provides exposure to the language without requiring extra time in the curriculum, which can be of particular interest in vocational settings." The European Commission has therefore decided to promote the training of teachers to "..enhancing the language competences in general, in order to promote the teaching of non-linguistic subjects in foreign languages". The rainbow, introduction You have probably seen several times a rainbow. You certainly were fascinated by the spectacle, but think it looked good? For example, how many of the following questions could you answer? How big is a rainbow? That is how high on the horizon? What is the radius of the arc described by the rainbow? What is the sequence of the colors? The red is inside or outside? Sometimes you see a second arc. The prior applications are also valid for this. There is also a third and fourth arc, etc ...? The sun is behind us or ahead of us? You see something under the main arch? In the thirteenth century, it was known that the rainbow was produced by water droplets suspended in the air, for example after storms. Isaac Newton, in his treatise on optics, showed that white light can be decomposed by a prism into monochromatic components, and thus gave an explanation of the phenomenon. His theory, however, was based on the idea that light was a particle nature, and, as we shall see later, this prevents describe some special features of the phenomenon. First we show the reasoning of Newton, and then we'll try to find out what all this has to do with the waves. 96 97 Optics of rainbow If water droplets have a diameter of a few millimeters, the explanation of the formation and characteristics of the rainbow can be performed entirely by applying the geometrical optics. Consider first the refraction of white light by a drop. We choose the x axis along the direction from which the light comes. Referring to the drawing, for which the light beam indicates the path of a wavefront in the droplet, that is the law of refraction (Snell law) sin 𝛼 = 𝑛 sin 𝛽 where is that 𝑛𝑤𝑎𝑡𝑒𝑟 𝑛= 𝑛𝑎𝑖𝑟 and the index of refraction of air that is O B approximately 1, while that of the water varies depending on the color. On average that is 1,336, ranging from 1.331 to 1.343 for the red to violet. A The angle φ of the output from the drop with respect to the input direction can be expressed in terms of the angles of incidence α and β as refractive Note that: 𝛼 + (𝜋 − 2 𝛽) + 𝛿 = 𝜋 𝛿 = 2𝛽 − 𝛼. 𝛿 + 𝛾 + 2𝛽 = 𝜋 𝛾 + 𝛼 + 𝜙 = 𝜋, replacing and in the last expression we got 𝜙 = 4𝛽 − 2𝛼 Substituting the Snell's law in the previous, and plotting the graph of φ in terms of the incidence angle α (see figure) observe that: 1) for α = 0, the light is reflected back. 2) increases of α, φ initially grows. But for α≈ 60 ° φ reaches a maximum value that depends on the color. 3) for higher values of α the angle φ returns to decrease. A detailed solution can be derived as follows 𝜙 = 4𝛽 − 2𝛼 = 4 sin−1 𝑑𝜙 =4 𝑑𝛼 1 2 √1 − (sin 𝛼 ) 𝑛 sin 𝛼 − 2𝛼 𝑛 cos 𝛼 −2 = 𝑛 cos 𝛼 sin 𝛼 2 4 𝑛 − 2 √1 − ( 𝑛 ) 2 √1 − (sin 𝛼 ) 𝑛 𝑑𝜙 cos 𝛼 sin 𝛼 2 cos 𝛼 sin 𝛼 2 √ √ =0→ 4 −2 1−( ) =0→ 4 = 2 1−( ) 𝑑𝛼 𝑛 𝑛 𝑛 𝑛 98 4(cos 𝛼)2 sin 𝛼 2 4(cos 𝛼)2 + (sin 𝛼)2 = 1−( ) → =1→ 𝑛2 𝑛 𝑛2 3(cos 𝛼)2 + (cos 𝛼)2 + (sin 𝛼)2 = 1 → 3(cos 𝛼)2 + 1 = 𝑛2 𝑛2 𝑛2 − 1 1,332 − 1 cos 𝛼 = √ ≈√ ≈ √0,2563 = 0,506 3 3 𝛼 = cos −1 0,506 ≈ 60° Keep in mind that the value that maximize is a function of the refraction index n that is a function of the wavelength. Now, for each color we are able to calculate the angle of incidence for which the angle of exit from the water drop is maximum (see table) colour n max red 1.331 59°53' 40°36' 42°37' ... ... ... ... ... violet 1.343 58°83' 39°58' 40°65' This means that the angle is greater for red, and the lower for the violet. The drop has spherical symmetry, then these angles define the cones, which border the region within which each color can be refracted. For angles less than 40 ° 65 'all the colors are refracted, and then the original light white remains white. The light, however, cannot exit the drop for angles greater than 42 ° 37. cone color parallel light rays light rays diverging 99 So: the maximum amplitude of the arc is about 42 ° 37 '. This angle is calculated with respect to the elevation of the sun. Therefore sunrise or sunset rainbow is larger, while it is practically invisible at noon. Red occupies the outermost arc, while the violet is inside at an angle of 40 ° 65 '. To the upper corners of the beam shape can make the reverse path. This produces the second rainbow. This time the reasoning is reversed, and so there is a minimum angle φ, instead of one maximum. The second rainbow is outside of the first. The inside is red with an angle of 50 ° 37 ', while the violet on the outside with an angle 53 ° 47'. Over the rainbow: answers from wave optics If the diameter of the drops is smaller (about 1 mm), the interference of light waves inside the droplets becomes important, and dark bands may appear inside the rainbow, because the areas in which the destructive interference. For drops of a diameter between 0.1 mm and 50 um of the diffraction effects become significant. For drops of a diameter less than 50 um diffraction prevents the separation of colors, but not the reflection of light, and has the so-called "white rainbow". 100 CHAPTER 5 (Walter Lewin: “For the love of Physics”) Over and Under—Outside and Inside—the Rainbow So many of the little wonders of the everyday world—which can be truly spectacular—go unobserved most of the time because we haven’t been trained how to see them. I remember one morning, four or five years ago, when I was drinking my morning espresso in my favorite red and blue. Rietveld chair, and suddenly I noticed this beautiful pattern of round spots of light on the wall, amidst the flickering of shadows thrown by the leaves of a tree outside the window. I was so delighted to have spotted them that my eyes lit up. Not sure what had happened, but with her usual astuteness, my wife, Susan, wondered if something was the matter. “Do you know what that is?” I responded, pointing to the light circles. “Do you understand why that’s happening?” Then I explained. You might expect the light to make lots of little shimmerings on the wall rather than circles, right? But each of the many small openings between the leaves was acting like a camera obscura, a pinhole camera, and such a camera reproduces the image of the light source —in this case the Sun. No matter what the shapes of the openings through which the light is streaming, as long as the opening is small, it’s the shape of the light source itself that’s re-created on the wall. So during a partial solar eclipse, sunlight pouring through my window wouldn’t make circles on my wall anymore—all the circles would have a bite taken out of them, because that would be the shape of the Sun. Aristotle knew this more than two thousand years ago! It was fantastic to see those light spots, right there on my bedroom wall, demonstrating the remarkable properties of light. Secrets of the Rainbow In truth, the marvelous effects of the physics of light are everywhere we look, sometimes in the most ordinary sights, and at other times in some of nature’s most beautiful creations. Take rainbows, for example: fantastic, wonderful phenomena. And they’re everywhere. Great scientists—Ibn al- Haytham, the eleventh-century Muslim scientist and mathematician known as the father of optics, the French philosopher, mathematician, and physicist René Descartes; and Sir Isaac Newton himself— found them captivating and tried to explain them. Yet most physics teachers ignore rainbows in their classes. I can’t believe this; in fact, I think it’s criminal. Not that the physics of rainbows is simple. But so what? How can we refuse to tackle something that pulls so powerfully on our imaginations? How can we not want to understand the mystery behind the intrinsic beauty of these glorious creations? I have always loved lecturing about them, and I tell my students, “At the end of this lecture, your life will never be the same again, never.” The same goes for you. Former students and others who’ve watched my lectures on the web have been mailing and emailing me wonderful images of rainbows and other atmospheric phenomena for decades. I feel as though I have a network of rainbow scouts spread across the world. Some of these shots are extraordinary—especially those from Niagara Falls, which has so much spray that the bows are spectacular. Maybe you will want to send me pictures too. Feel free! I’m sure you’ve seen at least dozens, if not hundreds, of rainbows in your life. If you’ve spent time in Florida or Hawaii, or other tropical locations where there are frequent rain showers while the Sun shines, you’ve seen even more. If you’ve watered your garden with a hose or sprinkler when the Sun is shining, you’ve 101 probably created rainbows. Most of us have looked at many rainbows, yet very few of us have ever seen rainbows. Ancient mythologies have called them gods’ bows, bridges or paths between the homes of mortals and the gods. Most famously in the West, the rainbow represented God’s promise in the Hebrew Bible never again to bring an all-destroying flood to the earth: “I do set my bow in the clouds.” Part of the charm of rainbows is that they are so expansive, spreading majestically, and so ephemerally, across the entire sky. But, as is so often true in physics, their origins lie in extraordinarily large numbers of something exceptionally minute: tiny spherical balls of water, sometimes less than 1 millimeter (1/25 of an inch) across, floating in the sky. While scientists have been trying to explain the origins of rainbows for at least a millennium, it was Isaac Newton who offered the first truly convincing explanation in his 1704 work Opticks. Newton understood several things at once, all of which are essential for producing rainbows. First, he demonstrated that normal white light was composed of all the colors (I was going to say of “all the colors of the rainbow,” but that would be getting ahead of ourselves). By refracting (bending) light through a glass prism, he separated it into its component colors. Then, by sending the refracted light back through another prism, he combined the colored light back into white light, proving that the prism itself wasn’t creating the colors in some way. He also figured out that many different materials could refract light, including water. And this is how he came to understand that raindrops refracting and reflecting light were the key to producing a rainbow. A rainbow in the sky, Newton concluded correctly, is a successful collaboration between the Sun, zillions of raindrops, and your eyes, which must be observing those raindrops at just the right angles. In order to understand just how a rainbow is produced, we need to zero in on what happens when light enters a raindrop. But remember, everything I’m going to say about this single raindrop in reality applies to the countless drops that make up the rainbow. For you to see a rainbow, three conditions need to be met. First, the Sun needs to be behind you. Second, there must be raindrops in the sky in front of you—this could be miles or just a few hundred yards away. Third, the sunlight must be able to reach the raindrops without any obstruction, such as clouds. When a ray of light enters a raindrop and refracts, it separates into all of its component colors. Red light refracts, or bends, the least, while violet light refracts the most. All of these different-colored rays continue traveling toward the back of the raindrop. Some of the light keeps going and exits the raindrop, but some of it bounces back, or reflects, at an angle, toward the front of the raindrop. In fact, some of the light reflects more than once, but that only becomes important later. For the time being, we are only interested in the light that reflects just once. When the light exits the front of the drop, some of the light again refracts, separating the different colored rays still further. After these rays of sunlight refract, reflect, and refract again on their way out of the raindrop, they have pretty much reversed direction. Key to why we see rainbows is that red light exits the raindrop at angles that are always smaller than about 42 degrees from the original direction of the sunlight entering the drop. And this is the same for all raindrops, because the Sun for all practical purposes is infinitely far away. The angle at which the red light exits can be anything between 0 degrees and 42 degrees but never more than 42 degrees, and this maximum angle is different for each of the different colors. For violet light, the maximum angle is about 40 degrees. These different maximum angles for each color account for the stripes of colors in the rainbow. 102 There is an easy way to spot a rainbow when conditions are right. As seen in the following figure, if I trace a line from the Sun through my head to the far end of my shadow on the ground, that line is precisely parallel to the direction from the Sun to the raindrops. The higher the Sun in the sky, the steeper this line will be, and the shorter my shadow. The converse is also the case. This line, from the Sun, through my head, to the shadow of my head on the ground, we will call the imaginary line. This line is very important as it will tell you where in the sky you should look to see the rainbow. All raindrops at 42 degrees from the “imaginary line” will be red. Those at 40 degrees will be blue. raindrops at angles smaller than 40 degrees will be white (like the sunlight). We will see no light from drops at angles larger than 42 degrees (see text). If you look about 42 degrees away from that imaginary line—it doesn’t matter whether it’s straight up, to the right, or to the left—that’s where you will see the red band of the rainbow. At about 40 degrees away from it—up, right, or left—you will see the violet band of the rainbow. But the truth is that violet is hard to see in a rainbow, so you’ll see the blue much more easily. Therefore we’ll just say blue from now on. Aren’t these the same angles I mentioned earlier, talking about the maximum angles of the light leaving the raindrop? Yes, and it’s no accident. Look again at the figure. What about the blue band in the rainbow? Well, remember its magic number is just about 40 degrees, 2 degrees less than the red band. So blue light can be found refracting, reflecting, and refracting out of different raindrops at a maximum angle of 40 degrees. Thus we see blue light 40 degrees away from the imaginary line. Since the 40-degree band is closer to the imaginary line than the 42-degree band, the blue band will always be on the inside of the red band of the rainbow. The other colors making up the bow—orange, yellow, green—are found between the red and blue bands. For more about this you can take a look at my lecture on rainbows online, at: http://ocw.mit.edu/courses/physics/8-03-physics-iii-vibrations-and-waves-fall-2004/videolectures/lecture-22/. 103 Now you might wonder, at the maximum angle for blue light, are we seeing only blue light? After all, red light can also emerge at 40 degrees, as it is smaller than 42 degrees. If you’ve asked this question, more power to you—it’s a very astute one. The answer is that at the maximum angle for any given color, that color dominates all other colors. With red, though, because its angle is the highest, it is the only color. Why is the rainbow a bow and not a straight line? Go back to that imaginary line from your eyes to the shadow of your head, and the magic number 42 degrees. When you measure 42 degrees—in all directions—away from the imaginary line, you are tracing an arc of color. But you know that not all rainbows are full arcs—some are just little pieces in the sky. That happens when there aren’t enough raindrops in all directions in the sky or when certain parts of the rainbow are in the shadow of obstructing clouds. There’s another important aspect to this collaboration between the Sun, the raindrops, and your eyes, and once you see it, you’ll understand lots more about why rainbows—natural as well as artificial—are the way they are. For example, why are some rainbows enormous, while others just hug the horizon? And what accounts for the rainbows you sometimes see in pounding surf, or in fountains, waterfalls, or the spray of your garden hose? Let’s go back to the imaginary line that runs from your eyes to the shadow of your head. This line starts at the Sun, behind you, and extends to the ground. However, in your mind, you can extend this line as far as you want, even much farther than the shadow of your head. This imaginary line is very useful, as you can imagine it going through the center (called the antisolar point) of a circle, on the circumference of which is the rainbow. This circle represents where the rainbow would form if the surface of Earth didn’t get in its way. Depending upon how high in the sky the Sun is, a rainbow will also be lower or higher above the horizon. When the Sun is very high, the rainbow may only just peek above the horizon, whereas late in the afternoon just before sunset, or early in the morning just around sunrise, when the Sun is low in the sky and when your shadow is long, then a rainbow may be enormous, reaching halfway up into the sky. Why halfway? Because the maximum angle it can be over the horizon is 42 degrees, or close to 45 degrees, which is half of the 90 degrees that would be right overhead. So how can you go rainbow hunting? First of all, trust your instincts about when a rainbow might form. Most of us tend to have a good intuitive sense of that: those times when the Sun is shining just before a rainstorm, or when it comes out right after one. Or when there’s a light shower and the sunlight can still reach the raindrops. When you feel one coming on, here’s what you do. First, turn your back to the Sun. Then locate the shadow of your head, and look about 42 degrees in any direction away from the imaginary line. If there’s enough sunlight, and if there are enough raindrops, the collaboration will work and you will see a colorful bow. Suppose you cannot see the Sun at all—it’s somehow hidden by clouds or buildings, but it’s clearly shining. As long as there are no clouds between the Sun and the raindrops, you still ought to be able to see a rainbow. I can see rainbows in the late afternoon from my living room facing east when I cannot see the Sun that is in the west. Indeed, most of the time you don’t need the imaginary line and the 42- degree trick to spot a rainbow, but there is one situation where paying attention to both can make a big difference. I love to walk on the beaches of Plum Island off the Massachusetts coast. Late in the afternoon the sun is in the west and the ocean is to the east. If the waves are high enough and if they make lots of small water drops, these droplets act like raindrops and you can see two small pieces of the rainbow: one piece at about 42 degrees to the left of the imaginary line and a second piece about 104 42 degrees to the right. These rainbows only last for a split second, so it’s a huge help in spotting them if you know where to look in advance. Since there are always more waves coming, you will always succeed if you can be patient enough. More about this later in this chapter. Here is another thing you can try to look for, the next time you spot a rainbow. Remember our discussion of the maximum angle at which certain light can refract out of the raindrop? Well, even though you will see blue, or red, or green from certain raindrops, raindrops themselves cannot be so choosy: they refract, reflect, and refract lots of light at less than a 40-degree angle too. This light is a mixture of all the different colors at roughly equal intensities, which we see as white light. That’s why, inside the blue band of a rainbow, the sky is very bright and white. At the same time, none of the light that refracts, reflects, and refracts again can exit raindrops beyond the 42-degree angle, so the sky just outside the bow is darker than inside the bow. This effect is most visible if you compare the brightness of the sky on either side of the rainbow. If you’re not specifically looking for it, you probably won’t even notice it. There are excellent images of rainbows in which you can see this effect on the Atmospheric Optics website, at www.atoptics.co.uk. Once I began explaining rainbows to my students, I realized just how rich a subject they are—and how much more I had to learn. Take double rainbows, which you’ve probably seen from time to time. In fact, there are almost always two rainbows in the sky: the so-called primary bow, the one I’ve been discussing, and what we call the secondary bow. If you’ve seen a double rainbow, you’ve probably noticed that the secondary bow is much fainter than the primary bow. You probably haven’t noticed, though, that the order of colors in the secondary bow is blue on the outside and red on the inside, the reverse of that in the primary. There is an excellent photograph of a double rainbow in this book’s photo insert (not enclosed). In order to understand the origin of the secondary bow, we have to go back to our ideal raindrop— remember, of course, that it actually takes zillions of drops to make up a secondary rainbow as well. Some of the light rays entering the drops reflect just once; others reflect twice before exiting. While light rays entering any given raindrop can reflect many times inside it, the primary bow is only created by those that reflect once. The secondary bow, on the other hand, is created only by those that reflect twice inside before refracting on the way out. This extra bounce inside the raindrop is the reason the colors are reversed in the secondary bow. The reason the secondary bow is in a different position from the primary bow—always outside it— is that twice-reflected red rays exit the drop at angles always larger (yes, larger) than about 50 degrees, and the twice-reflected blue rays come out at angles always larger than about 53 degrees. You therefore need to look for the secondary bow about 10 degrees outside the primary bow. The reason that the secondary bow is much fainter is that so much less light reflects inside the raindrops twice than reflects once, so there’s less light to make the bow. This is, of course, why it can be hard to see the secondary bow, but now that you know they often accompany primary rainbows, and where to look for them, I’m confident you’ll see lots more. I also suggest that you spend a few minutes on the Atmospheric Optics website. Now that you know what makes rainbows, you can perform a little optical magic in your own backyard or on your driveway or even on the sidewalk, with just a garden hose. But because you can manipulate the raindrops, and they are physically close to you, there are a couple of big differences. For one thing, you can make a rainbow even when the Sun is high in the sky. Why? Because you can make raindrops between you and your shadow on the ground, something that 105 rarely happens naturally. As long as there are raindrops that the sunlight can reach, there can be rainbows. You may have done this already, but perhaps not as purposefully. If you have a nozzle on the end of the hose, adjust it to a fine spray, so the droplets are quite small, and when the Sun is high in the sky, point the nozzle toward the ground and start spraying. You cannot see the entire circle all at once, but you will see pieces of the rainbow. As you continue moving the nozzle in a circle, piece by piece you will see the entire circle of the rainbow. Why do you have to do it this way? Because you don’t have eyes in the back of your head! You will see red at about 42 degrees from the imaginary line, the inside edge of the circular bow will be blue, and inside the bow you will see white light. I love performing this little act of creation while watering my garden, and it’s especially satisfying to be able to turn all the way around and make a complete 360-degree rainbow. (The Sun, of course, will then not always be behind you.) One cold winter day in 1972 I was so determined to get some good photos of these homemade rainbows for my class that I made my poor daughter Emma, who was just seven, hold the hose in my yard, squirting the water high in the air, while I snapped away with the camera. But I guess when you’re the daughter of a scientist you have to suffer a little bit for the sake of science. And I did get some great pictures; I even managed to photograph the secondary bow, using my contrasting blacktop driveway as the background. You can see the picture of Emma in the insert. I hope you’ll try this experiment—but do it in the summer. And don’t be too disappointed if you don’t see the secondary bow—it may be too faint to show up if your driveway isn’t dark enough. From now on, with this understanding of how to spot rainbows, you’ll find yourself compelled to look for them more and more. I often can’t help myself. The other day as Susan and I were driving home, it started to rain, but we were driving directly west, into the Sun. So I pulled over, even though there was a good deal of traffic; I got out of the car and turned around, and there it was, a real beauty! I confess that whenever I walk by a fountain when the sun is shining, I position myself so I can search for the rainbow I know will be there. If you’re passing by a fountain on a sunny day, give it a try. Stand between the Sun and the fountain with your back to the Sun, and remember that the spray of a fountain works just like raindrops suspended in the sky. Find the shadow of your head— that establishes the imaginary line. Then look 42 degrees away from that line. If there are enough raindrops in that direction, you’ll spy the red band of the rainbow and then the rest of the bow will come immediately into view. It’s rare that you see a full semicircular arc in a fountain—the only way 106 you can see one is to be very close to the fountain—but the sight is so beautiful, it’s always worth trying. Once you’ve found it, I warn you that you may just feel the urge to let your fellow pedestrians know it’s there. I often point these fountain rainbows out to passersby, and I’m sure some of them think I’m weird. But as far as I’m concerned, why should I be the only one to enjoy such hidden wonders? Of course I show them to people. If you know a rainbow could be right in front of you, why not look for it, and why not make sure others see it too? They are just so beautiful. Students often ask me whether there is also a tertiary bow. The answer is yes and no. The tertiary bow results, as you might have guessed, from three reflections inside the raindrop. This bow is centered on the Sun and, like the primary bow, which is centered on the antisolar point, it also has a radius of about 42 degrees and red is on the outside. Thus you have to look toward the Sun to see it and it has to rain between you and the Sun. But when that is the case, you will almost never see the Sun. There are additional problems: a lot of sunlight will go through the raindrops without reflecting at all and that produces a very bright and very large glow around the Sun which makes it effectively impossible to see the tertiary bow. The tertiary bow is even fainter than the secondary. It is also much broader than the primary and the secondary bow; thus the already faint light of the bow is spread out even more over the sky and that makes it even more difficult to see it. As far as I know, no pictures of tertiary bows exist, and I do not know of anyone who has ever seen a tertiary bow. Yet there are some reports of sightings. Inevitably, people want to know if rainbows are real. Maybe they’re mirages, they wonder, receding endlessly as we approach them. After all, why can’t we see the end of the rainbow? If this thought has been at the back of your mind, breathe easy. Rainbows are real, the result of real sunlight interacting with real raindrops and your real eyes. But since they result from a precise collaboration between your eyes, the Sun, and the raindrops, you will see a different rainbow from the person across the street. Equally real, but different. The reasons we usually cannot see the end of the rainbow touching the Earth are not because it doesn’t exist, but because it’s too far away, or hidden by buildings or trees or mountains, or because there are fewer raindrops in the air there and the bow is too faint. But if you can get close enough to a rainbow, you can even touch it, which you should be able to do with the rainbow you make with your garden hose. I have even taken to holding rainbows in my hand while I shower. I accidentally discovered this one day. When I faced the shower spray, I suddenly saw two (yes two!) bright primary rainbows inside my shower, each one about a foot long and an inch wide. This was so exciting, so beautiful; it was like a dream. I reached out and held them in my hands. Such a feeling! I’d been lecturing on rainbows for forty years, and never before had I seen two primary rainbows within arm’s reach. Here’s what had happened. A sliver of sunlight had shone into my shower through the bathroom window. In a way, it was as though I was standing not in front of a fountain, but inside the fountain. Since the water was so close to me and since my eyes are about three inches apart, each eye had its own, distinct imaginary line. The angles were just right, the amount of water was just right, and each of my eyes saw its own primary rainbow. When I closed one eye, one of the rainbows would disappear; when I closed the other eye, the other bow vanished. I would have loved to photograph this astonishing sight, but I couldn’t because my camera has only one “eye.” Being so close to those rainbows that day made me appreciate in a new way just how real they were. When I moved my head, they too moved, but as long as my head stayed where it was, so did they. 107 Occasionally I time my morning showers whenever possible to catch these rainbows. The Sun has to be at the right location in the sky to peek through my bathroom window at the right angle and this only happens between mid-May and mid-July. You probably know that the Sun rises earlier and goes higher in the sky in certain months, and that in the Northern Hemisphere it rises more to the south (of east) than in the winter months, and more to the north (of east) in summer. My bathroom window faces south, and there’s a building on the south side, making sure that light can never enter from due south. So sunlight only comes in roughly from the southeast. The time I first saw the shower bows was while I was taking a very late shower, around ten o’clock. In order to see rainbows in your own shower you will need a bathroom window through which sunlight can reach the spray. In fact, if you can never see the Sun by looking out your bathroom window, there’s no point in looking for shower bows—there just won’t be any. The sunlight must be able to actually reach your shower. And even if it does come directly in, that’s no guarantee, because many water drops have to be present at 42 degrees from your imaginary line, and that may not be the case. These are probably difficult conditions to meet, but why not try? And if you discover that the Sun enters your shower just right late in the afternoon, well, then, you could always think about changing your shower schedule. Why Sailors Wear Sunglasses Whenever you do decide to go rainbow hunting, be sure to take off your sunglasses if they are the kind we call polarized, or you might miss out on the show. I had a funny experience with this one day. As I said, I love to take walks along the beaches of Plum Island. And I’ve explained how you can see little bows in the spray of the waves. Years ago I was walking along the beach. The sun was bright and the wind was blowing, and when the waves rolled over as they got close to the beach, there was lots of spray—so I was frequently seeing small pieces of bows as I mentioned earlier in this chapter. I started pointing them out to my friend, who said he couldn’t see what I was talking about. We must have gone back and forth half a dozen times like this. “There’s one,” I would shout, somewhat annoyed. “I don’t see anything!” he would shout back. But then I had a bright moment and I asked him to take off his sunglasses, which I looked at—sure enough, they were polarized sunglasses. Without his sunglasses he did see the bows, and he even started to point them out to me! What was going on? Rainbows are something of an oddity in nature because almost all of their light is polarized. Now you probably know the term “polarized” as a description of sunglasses. The term is not quite technically correct, but let me explain about polarized light—then we’ll get to the sunglasses and rainbows. Waves are produced by vibrations of “something.” A vibrating tuning fork or violin string produces sound waves, which I talk about in the next chapter. Light waves are produced by vibrating electrons. Now, when the vibrations are all in one direction and are perpendicular to the direction of the wave’s propagation, we call the waves linearly polarized. For simplicity I will drop the term “linearly” in what follows as I am only talking in this chapter about this kind of polarized light. Sound waves can never be polarized, because they always propagate in the same direction as the oscillating air molecules in the pressure waves; like the waves you can generate in a Slinky. Light, however, can be polarized. Sunlight or light from lightbulbs in your home is not polarized. However, 108 we can easily convert nonpolarized light into polarized light. One way is to buy what are known as polarized sunglasses. You now know why their name isn’t quite right. They are really polarizing sunglasses. Another is to buy a linear polarizer (invented by Edwin Land, founder of the Polaroid Corporation) and look at the world through it. Land’s polarizers are typically 1 millimeter thick and they come in all sizes. Almost all the light that passes through such a polarizer (including polarizing sunglasses) has become polarized. If you put two rectangular polarizers on top of each other (I hand out two of them to each of my students, so they can experiment with them at home) and you turn them 90 degrees to each other, no light will pass through. Nature produces lots of polarized light without the help of one of Land’s polarizers. Light from the blue sky 90 degrees away from the direction of the Sun is nearly completely polarized. How can we tell? You look at the blue sky (anywhere at 90 degrees away from the Sun) through one linear polarizer and rotate it slowly while looking through it. You will notice that the brightness of the sky will change. When the sky becomes almost completely dark, the light from that part of the sky is nearly completely polarized. Thus, to recognize polarized light, all you need is one polarizer (but it’s much more fun to have two). In the first chapter I described how in class I “create” blue light by scattering white light off cigarette smoke. I arrange this in such a way that the blue light that scatters into the lecture hall has scattered over an angle of about 90 degrees; it too is nearly completely polarized. The students can see this with their own polarizers, which they always bring with them to lectures. Sunlight that has been reflected off water or glass can also become nearly completely polarized if the sunlight (or light from a lightbulb) strikes the water or glass surface at just the right angle, which we call the Brewster angle. That’s why boaters and sailors wear polarizing sunglasses—they block much of the light reflecting off the water’s surface. (David Brewster was a nineteenth-century Scottish physicist who did a lot of research in optics.) I always carry at least one polarizer with me in my wallet—yes, always—and I urge my students to do the same. Why am I telling you all this about polarized light? Because the light from rainbows is nearly completely polarized. The polarization occurs as the sunlight inside the water drops reflects, which, as you now know, is a necessary condition for rainbows to be formed. I make a special kind of rainbow in my classes (using a single, though very large, water drop) and I am able to demonstrate that (1) red is on the outside of the bow, (2) blue is on the inside, (3) inside the bow the light is bright and white, which is not the case outside the bow, and (4) the light from the bow is polarized. The polarization of the bows for me is very fascinating (one reason why I always carry polarizers on me). You can see this wonderful demonstration in my lecture at: http://ocw.mit.edu/courses/physics/8-03-physics-iii-vibrations-and-waves-fall-2004/videolectures/lecture22/. Beyond the Rainbow Rainbows are the best known and most colorful atmospheric creations, but they are far from alone. There is an entire host of atmospheric phenomena, some of them really quite strange and striking, others deeply mysterious. But let’s stay with rainbows for a bit and see where they take us. When you look carefully at a very bright rainbow, on its inner edge you may sometimes see a series of 109 alternating bright-colored and dark bands—which are called supernumerary bows. You can see one in the insert. To explain these we must abandon Newton’s explanation of light rays. He thought that light was composed of particles, so when he imagined individual rays of light entering, bouncing around in, and exiting raindrops, he assumed that these rays acted as though they were little particles. But in order to explain supernumerary bows we need to think of light as consisting of waves. And in order to make a supernumerary bow, light waves must go through raindrops that are really small, smaller than a millimeter across. One of the most important experiments in all of physics (generally referred to as the double-slit experiment) demonstrated that light is made of waves. In this famous experiment performed around 1801–03, the English scientist Thomas Young split a narrow beam of sunlight into two beams and observed on a screen a pattern (the sum of the two beams) that could only be explained if light consists of waves. Later in time this experiment was done differently actually using two slits (or two pinholes). I will proceed here assuming that a narrow beam of light strikes two very small pinholes (close together) made in a thin piece of cardboard. The light passes through the pinholes and then strikes a screen. If light was made of particles, a given particle would either go through one pinhole or through the other (it cannot go through both) and thus you would see two bright spots on the screen. However, the pattern observed is very different. It precisely mimics what you’d expect if two waves had hit the screen— one wave coming from one pinhole and simultaneously one identical wave coming from the other. Adding two waves is subject to what we call interference. When the crests of the waves from one pinhole line up with the valleys of waves from the other, the waves cancel each other, which is called destructive interference, and the locations on the screen where that happens (and there are several) remain dark. Isn’t that amazing—light plus light turns into darkness! On the other hand, at other locations on the screen where the two waves are in sync with one another, cresting and falling with one another, we have constructive interference and we end up with bright spots (and there will be several). Thus we will see a spread out pattern on the screen consisting of alternating dark and bright spots, and that is precisely what Young observed with his split-beam experiment. I demonstrate this in my classes using red laser light and also with green laser light. It’s truly spectacular. Students notice that the pattern of the green light is very similar to that of the red light except that the separation between the dark and the bright spots is somewhat smaller for the green light. This separation depends on the color (thus wavelength) of light (more about wavelength in the next chapter). Scientists had been battling for centuries over whether light consisted of particles or waves, and this experiment led to the stunning and indisputable conclusion that light is a wave. We now know that light can act both as a particle and as a wave, but that astounding conclusion 110 had to wait another century, for the development of quantum mechanics. We don’t need to go further into that at the moment. Going back to supernumerary bows, interference of light waves is what creates the dark and bright bands. This phenomenon is very pronounced when the diameter of the drops is near 0.5 millimeters. You can see some images of supernumerary bows at: www.atoptics.co.uk/rainbows/supdrsz.htm. The effects of interference (often called diffraction) become even more dramatic when the diameters of the droplets are smaller than about 40 microns (0.04 millimeters, or 1/635 of an inch). When that happens, the colors spread out so much that the waves of different colors completely overlap; the colors mix and the rainbow becomes white. White rainbows often show one or two dark bands (supernumerary bows). They are very rare and I have never seen one. A student of mine, Carl Wales, sent me pictures in the mid-1970s of several beautiful white rainbows. He had taken the pictures in the summer at two a.m. (yes, two a.m.) from Fletcher Ice Island, which is a large drifting iceberg (about 3 × 7 miles). At the time, it was about 300 miles from the North Pole. You can see a nice picture of a white rainbow in the insert. These white bows can also be seen in fog, which consists of exceptionally tiny water droplets. White fogbows can be hard to spot; you may have seen them many times without realizing it. They are likely to appear whenever fog is thin enough for sunlight to shine through it. When I’m on a riverbank or in a harbor in the early morning, when the Sun is low in the sky, and where fog is common, I hunt for them and I have seen many. Sometimes you can even create a fogbow with your car headlights. If you’re driving and the night fog rolls in around you, see if you can find a safe place to park. Or, if you’re at home and the fog comes, face your car toward the fog and turn on your headlights. Then walk away from your car and look at the fog where your headlight beams are. If you’re lucky, you might be able to see a fogbow. They make the gloom of a foggy night even spookier. You can see the results of a fellow stumbling across fogbows that he made with his car headlights at www.extremeinstability.com/08-9-9.htm. Did you notice the dark bands in the white bows? The size of water droplets and the wave nature of light also explain another of the most beautiful phenomena that grace the skies: glories. They can best be seen when flying over clouds. Trust me, it’s worth trying to find them. In order to do so, you must, of course, be in a window seat—and not over the wings, which block your view down. You want to make certain that the Sun is on the side of the plane opposite your seat, so you’ll have to pay attention to the time of day and the direction of the flight. If you can see the Sun out your window, the experiment is over. (I have to ask you to trust me here; a convincing explanation requires a lot of very complicated math.) If these conditions are met, then try to figure out where the antisolar point is and look down at it. If you’ve hit the jackpot you may see colorful rings in the clouds and if your plane is flying not too far above the clouds, you may even see the glory circling the shadow of the plane—glories have diameters that can vary from a few degrees to about 20 degrees. The smaller the drops, the larger the glories. I have taken many pictures of glories, including some where the shadow of my plane was clearly visible and the really fun part is that the position of my seat is at the center of the glory, which is the antisolar point. One of these pictures is in the insert. You can find glories in all kinds of places, not just from airplanes. Hikers often see them when they have the Sun to their backs and look down into misty valleys. In these cases, a quite spooky effect happens. They see their own shadow projected onto the mist, surrounded by the glory, sometimes several colorful rings of it, and it looks positively ghostly. This phenomenon is 111 also known as the Brocken spectre (also called Brocken bow), named for a high peak in Germany where sightings of glories are common. In fact, glories around people’s shadows look so much like saintly halos, and the figures themselves look so otherworldly, that you will not be surprised to learn that glory is actually an old word for the circle of light around the heads of various saints. In China, glories are known as Buddha’s light. I once took a marvelous photo of my own shadow surrounded by a glory that I refer to as the image of Saint Walter. A good many years ago I was invited by some of my Russian astronomer friends to their 6-meter telescope in the Caucasus Mountains. This was the world’s largest telescope at the time. The weather was just awful for observing. Every day I was there, at about five thirty in the afternoon a wall of fog would come rolling up out of the valley below and completely engulf the telescope. I mean totally; we couldn’t make any observations at all during my visit. A picture of the fog ascending is shown in the insert. In talking to the astronomers, I learned that the fog was very common. So I asked, “Why then was this telescope built here?” They told me that the telescope was built on that site because the wife of a Party official wanted it right there, and that was that. I almost fell off my chair. Anyway, after a few days, I got the idea that I might be able to take a fantastic photo. The Sun was still strong in the west every day when the fog came up from the valley, which was to the east, the perfect setup for glories. So the next day I brought my camera to the observatory, and I was getting nervous that the fog might not cooperate. But sure enough, the wall of fog swelled up, and the Sun was still shining, and my back was to it. I waited and waited and then, boom, there was the glory around my shadow and I snapped. I couldn’t wait to develop the film—this was in the pre-digital age—and there it was! My shadow is long and ghostly, and the shadow of my camera is at the center of the rings of a gorgeous glory. You can see the picture in the insert. You don’t need to be in such an exotic location to see a halo around your head. On a sunlit early morning if you look at your shadow on a patch of dewy grass (of course with the Sun right behind you), you can often see what in German is called Heiligenschein, or “holy light”: a glow around the shadow of your head. (It’s not multicolored; it’s not a glory.) Dewdrops on the grass reflect the sunlight and create this effect. If you try this—and I hope you will—they’re easier to find than glories. You will see that since it’s early morning and the Sun is low, your shadow will be quite long, and you appear much like the elongated and haloed saints of medieval art. The many different types of bows and halos can surprise you in the most unexpected places. My favorite sighting happened one sunny day in June 2004—I remember it was the summer solstice, June 21—when I was visiting the deCordova Museum in Lincoln, Massachusetts, with Susan (who was not yet my wife at the time), my son, and his girlfriend. We were walking across the grounds toward the entrance when my son called out to me. There in front of us, on the ground, was a stunning, colorful, nearly circular bow. (Because it was the solstice, the Sun was as high as it ever gets in Boston, about 70 degrees above the horizon.) It was breathtaking! I pulled out my camera and snapped a bunch of photos as quickly as I could. How unexpected. There were no water droplets on the ground, and I quickly realized the bow could not have been made from water drops in any event because the radius of the bow was much smaller than 42 degrees. And yet it looked just like a rainbow: the red was on the outside, the blue was on the inside, and there was bright white light inside the bow. What could have caused it? I realized that it must have been made by transparent, spherical particles of something, but what could they be? One of my photographs of the bow, which you can see in the insert, turned out so well that it became NASA’s astronomical 112 mystery picture of the day, posted on the web on September 13, 2004.* (This, by the way, is a terrific website, and you should look at it every day at: http://apod.nasa.gov/apod/astropix.html.) I received about three thousand guesses as to what it was. My favorite response was a handwritten note from Benjamin Geisler, age four, who wrote, “I think your mystery photo is made by light, crayons, markers and colored pencils.” It’s posted on the bulletin board outside my office at MIT. Of all the answers, about thirty were on the right track, but only five were dead on. The best clue to this puzzle is that there was a good bit of construction going on at the museum when we visited. In particular, there had been a lot of sandblasting of the museum’s walls. Markos Hankin, who was in charge of the physics demonstrations at MIT and with whom I have worked for many years, told me—I didn’t know this at the time—that some kinds of sandblasting use glass beads. And there were lots of tiny glass beads lying on the ground. I had taken a few spoonfuls of the beads home. What we had seen was a glassbow, which has now become an official category of bow, a bow formed by glass beads; it has a radius of about 28 degrees, but the exact value depends on the kind of glass. Markos and I couldn’t wait to see if we could make one of our own for my lectures. We bought several pounds of glass beads, glued them on big sheets of black paper, and attached the paper to a blackboard in the lecture hall. Then, at the end of my lecture on rainbows, we aimed a spotlight on the paper from the back of the lecture hall. It worked! I invited the students to come, one by one, to the front of the class, where they stood before the blackboard and cast their shadow smack in the middle of their own private glassbow. This was such a thrilling experience for the students that you might want to try it at home; making a glassbow is not too difficult. It does depend on what your objectives are. If you just want to see the colors of the bow, it’s quite easy. If you want to see the entire bow encircling your head it’s more work. To see a small piece of the bow, all you need is a piece of black cardboard about one foot square, some clear spray adhesive (we used 3M’s Spray Mount Artist’s Adhesive, but any clear spray glue will do), and transparent spherical glass beads. They must be transparent and spherical. We used “coarse glass bead blast media,” with diameters ranging from 150 to 250 microns, which you can find here: http://tinyurl.com/glassbeads4rainbow. Spray glue on your cardboard, and then sprinkle the beads on it. The average distance between the beads isn’t critical, but the closer the beads are, the better. Be careful with these beads—you probably want to do this outside so you don’t spill beads all over your floor. Let the glue dry, and if you have a sunny day, go outside. Establish the imaginary line (from your head to the shadow of your head). Place the cardboard somewhere on that line; thus you will see the shadow of your head on the cardboard (if the Sun is low in the sky, you could put the cardboard on a chair; if the Sun is high in the sky you could put it on the ground—remember the glass beads at the de Cordova museum were also on the ground. You may select how far away from your head you place the cardboard. Let’s assume that you place it 1.2 meters (about 4 feet) away. Then move the cardboard about 0.6 meters (2 feet) away from the imaginary line in a direction perpendicular to the line. You may do that in any direction (left, right, up, down)! You will then see the colors of the glassbow. If you prefer to place the cardboard farther away, say 1.5 meters (5 feet), then you have to move the cardboard about 0.75 meters (2.5 feet) to see the colors of the bow. You may wonder how I arrived at these numbers. The reason is simple, the radius of a glassbow is about 28 degrees. Once you see the colors, you can move the cardboard in a circle around the imaginary line to search for other parts of the bow. By so doing, you are mapping out the entire circular bow in portions, just as you 113 did with the garden hose. If you want to see the entire bow around your shadow all at once, you’ll need a bigger piece of black cardboard—one full square meter will do—and with a lot more glass beads glued to it. Place the shadow of your head near the center of the cardboard. If the distance from the cardboard to your head is about 80 centimeters (about 2.5 feet), you will immediately see the entire glass bow. If you bring the cardboard too far out, e.g., 1.2 meters (4.0 feet), you will not be able to see the entire bow. The choice is yours; have fun! If it’s not a sunny day, you can try the experiment indoors, as I did in lectures, by aiming a very strong light—like a spotlight—at a wall, on which you’ve taped or hung the cardboard. Position yourself so the light is behind you, and the shadow of your head is in the center of the one square meter cardboard. If you stand 80 centimeters away from the board, you should be able to see the entire bow circling your shadow. Welcome to the glass bow! We don’t need to understand why a rainbow or fogbow or glassbow is formed in order to appreciate its beauty, of course, but understanding the physics of rainbows does give us a new set of eyes (I call this the beauty of knowledge). We become more alert to the little wonders we might just be able to spot on a foggy morning, or in the shower, or when walking by a fountain, or peeking out of an airplane window when everyone else is watching movies. I hope you will find yourself turning your back to the Sun the next time you feel a rainbow coming on, looking about 42 degrees away from the imaginary line and spotting the red upper rim of a glorious rainbow across the sky. Here’s my prediction. The next time you see a rainbow, you’ll check to make sure that red is on the outside, blue is on the inside; you’ll try to find the secondary bow and will confirm that the colors are reversed; you’ll see that the sky is bright inside the primary bow and much darker outside of it; and if you carry a linear polarizer on you (as you always should), you will confirm that both bows are strongly polarized. You won’t be able to resist it. It’s a disease that will haunt you for the rest of your life. It’s my fault, but I will not be able to cure you, and I’m not even sorry for that, not at all! 114