Appunti di Fisica Ambientale

annuncio pubblicitario
Appunti di
Fisica
Ambientale
Per la classe quarta
dell’articolazione di
Biotecnologie Ambientali
degli Istituti Tecnici
Alessandro Ciucci
[email protected]
Luce
Ottica
Energia solare
Elettromagnetismo
CLIL “the optics of rainbow”
1
Introduzione
Questi appunti sono la prosecuzione del percorso di Fisica Ambientale iniziato nella classe terza
dove, a partire dalle nozioni di fisica generale appresi nel biennio, sono stati approfonditi alcuni
argomenti specifici (trasmissione del calore e termodinamica) e altri sono stati introdotti come
nuovi (fisica dell’atmosfera, le onde, il suono). A fine di ogni modulo è stato affrontato un tema
specifico ambientale come competenza da acquisire in capo ambientale (la trasmittanza termica e il
risparmio energetico, il funzionamento delle pompe di calore, la dispersione di inquinanti, le onde
sismiche, il rumore).
In questa seconda parte saranno affrontati i seguenti argomenti:
-
Ottica geometrica e ondulatoria e funzionamento dei principali strumenti (telescopio,
microscopio, spettrometro
Onde elettromagnetiche, generazione propagazione e assorbimento. Inquinamento
elettromagnetico
Sistemi energetici rinnovabili (energia solare).
In preparazione alla classe quinta saranno introdotto un argomento in lingua inglese da affrontare
con metodologia CLIL (Content and Language Integrated Learning) e anche una delle verifiche sarà
svolta mediante una esposizione orale con ausilio di slide e/o altri strumenti multimediali.
Ciascun argomento è affrontato con il duplice obiettivo di offrire un compendio di conoscenze di
fisica specifico del settore e fornire gli strumenti interpretativi di alcune problematiche ambientali
di rilievo.
2
Argomenti:
-
-
Strumenti matematici
o Le funzioni goniometriche
o La funzione esponenziale
o I logaritmi
Ottica
o Natura della Luce
o Misura della velocità della luce
o Propagazione della luce
 Riflessione
 Rifrazione
o Ottica geometrica
 Specchi piani e sferici
 Diottro sferico
 Lenti sottili
 Sistemi ottici (microscopio e telescopio)
o Ottica ondulatoria
 Dispersione della luce: il prisma
-
-
-
 Diffrazione e interferenza
 Polarizzazione
 Equazioni di Fresnel
 Intensità della luce e assorbimento
 Funzionamento di uno spettrometro
Elettromagnetismo
o Le grandezze elettriche
o Richiami circuiti in CC
 Circuito RC
 Circuito RL
 Circuito RCL
o Sorgenti di Onde EM
 Lo spettro EM
o Energia delle onde EM
 Misure di campo elettrico e di campo magnetico
o Inquinamento EM
 Fonti ambientali di radiazione EM
 Effetti biologici della radiazione EM
Energia solare
o Solare termico
o Fotovoltaico
CLIL
o Rainbow
3
Funzioni goniometriche
Consideriamo un triangolo rettangolo come in figura:

c

b
a
Chiamiamo i cateti a e b, l’ipotenusa c. Chiamiamo  l’angolo opposto
al cateto a.
Definiamo delle funzioni che dipendono solo dall’angolo 
SEN() = a/c
(si legge “seno di alpha”, sulla calcolatrice è il tasto “SIN”)
COS() = b/c
(si legge “coseno di alpha”, sulla calcolatrice è il tasto “COS”)
TAN() = SEN()/COS() = a/b
(si legge “tangente di alpha”, sulla calcolatrice è tasto “TAN”)
Il seno di un angolo è il rapporto tra il cateto che sta davanti all’angolo e l’ipotenusa, il coseno di un
angolo è il rapporto tra il cateto adiacente all’angolo e l’ipotenusa. La tangente di un angolo è il
rapporto tra il cateto opposto all’angolo e quello adiacente
Calcolare il seno e il coseno di un angolo è un operazione che non si può fare a mente, i calcoli sono
semplici solo in alcuni casi particolari, per questa ragione si ricorre alle calcolatrici tascabili oppure
alle applicazioni di calcolo per personal computer o telefono, in passato si usavano delle tavole.
I valori del seno e del coseno un angolo sono sempre compresi tra -1 e +1. Di seguito si riporta una
tabella riassuntiva dei valori per i principali angoli compresi tra 0° e 180°
ANGOLO
gradi
0°
30°
45°
60°
90°
120°
135°
150°
180°

radianti
0
/6
/4
/3
/2
/3
/4
/6

SEN()
esatto
0
1/2
√2/2
√3/2
1
√3/2
√2/2
1/2
0
SEN()
approssimato
0
0.5
0.707
0.866
1
0.866
0.707
0.5
0
COS()
esatto
1
√3/2
√2/2
1/2
0
-1/2
-√2/2
-√3/2
-1
COS()
TAN()
approssimato
1
0.866
0.707
0.5
0
-0.5
-0.707
-0.866
-1
TAN()
approssimato
0
√3/3
1
√3
non def.
−√3
-1
-√3/3
0
0
0.577
1
1.732
-1.732
-1
-0.577
0
(notiamo che la funzione SENO è crescente tra 0° e 90°, decrescente tra 90° e 180°, sempre positiva. La funzione
COSENO è sempre decrescente tra 0° e 180°, positiva tra 0° e 90°, negativa tra 90° e 180°. Vale per ogni angolo l’identità
goniometrica 𝑆𝐸𝑁 2 (𝛼) + 𝐶𝑂𝑆 2 (𝛼) = 1 )
Nella tabella gli angoli sono espressi nei gradi sessagesimali (i normali gradi ai quali siamo abituati) e
in radianti, quest’ultimo modo di esprime gli angoli è diffuso in ambiente scientifico, in radianti
l’angolo piatto vale  (pi greco = 3.1459….). Le formule necessarie per fare la conversione da una
scala all’altra sono:
(angolo in gradi) = (angolo in radianti) ×
180
𝜋
4
𝜋
(angolo in radianti) = (angolo in gradi) × 180
Per calcolare il valore delle funzioni SEN e COS (sulla calcolatrice sono SIN e COS) dobbiamo
verificare la modalità di espressione dell’angolo. Per usare i normali gradi è necessario che sul
display ci sia una scritta “DEG” o la semplice lettera “D”, per i radianti ci deve essere la scritta “RAD”
o la lettera “R”. C’è poi una terza modalità di esprimere gli angoli (angolo retto = 100) detta “gradi
centesimali”, in questo caso ci sarà la scritta “GRAD” o la lettera “G”. Per passare da una modalità
all’altra è necessario usare il tasto “DRG” (Deg – Rad – Grad).
L’utilizzo delle funzioni goniometriche in geometria permettere di “risolvere” un triangolo
rettangolo conoscendo un lato e un angolo (che non sia quello retto) piuttosto che due dei tre lati.
Sfruttando la definizione data all’inizio e potendo ricavare il valore delle funzioni SEN e COS con un
calcolatore o con le tabelle, è possibile determinare i cateti conoscendo l’ipotenusa:
a = c x SEN()
b = c x COS()
oppure l’ipotenusa conoscendo uno dei due cateti:
c = a / SEN()
c = b / COS()
L’utilità pratica delle funzioni goniometriche è legata al fatto che spesso è più semplice misurare un
anglo piuttosto che una distanza. Le misure degli angoli
si fanno con strumenti ottici
h

Come esempio di applicazione vediamo come sia
possibile misurare l’altezza di un edificio.
Si misura la distanza dalla base dell’edificio d e a quella
distanza si misura sotto quale angolo  è visibile la
l’altezza dell’edificio. L’ipotenusa c sarà c = d/COS(),
mentre l’altezza h = c SEN()
d
Nel caso non sia possibile misurare la distanza dalla base
dell’oggetto di cui si intende misurare l’altezza h si
procederà in due fasi. Dopo una prima misura di angolo
1, si avanzerà di un tratto d e si farà una seconda
h
misura di angolo 2. Per determinare l’altezza h sono
necessari i seguenti passaggi:


c1 = h/SEN(1), c2 = h/SEN(2). Osserviamo che la
d
distanza d è la differenza tra i cateti adiacenti agli angoli
 che si ottengono moltiplicando l’ipotenusa per il
coseno. d = c1COS(1)-c2COS(2). Sostituendo i valori di c1 e c2 si ha:
𝑑=ℎ
𝐶𝑂𝑆(𝛼1 )
𝑆𝐸𝑁(𝛼1 )
−ℎ
𝐶𝑂𝑆(𝛼2 )
𝑆𝐸𝑁(𝛼2 )
, quindi per h avremo: ℎ =
𝑑
𝐶𝑂𝑆(𝛼1 ) 𝐶𝑂𝑆(𝛼2 )
−
𝑆𝐸𝑁(𝛼1 ) 𝑆𝐸𝑁(𝛼2 )
5
Facciamo un esempio numerico:
Utilizzando i dati nella figura otteniamo:
ℎ=
2 = 30°
 = 20°
𝑑
𝐶𝑂𝑆(𝛼1 ) 𝐶𝑂𝑆(𝛼2 )
−
𝑆𝐸𝑁(𝛼1 ) 𝑆𝐸𝑁(𝛼2 )
90.0
= 0.940
0.866
−
0.342 0.500
=
90.0
2.75− 1.73
= 88 𝑚
1
d = 90.0 m
Se il lettore ha riconosciuto la figura, sa anche che si
tratta di una misura più che realistica.
Le misure ottiche di angoli di elevazione posso essere fatte con semplicissimi strumenti (anche fatti
in casa) come quello descritto nella figura sottostante
Un semplice strumento per misurare l'altezza angolare (angolo rispetto al piano
orizzontale) di un oggetto celeste. Un cartoncino a forma di quarto di cerchio su
cui è riportato un goniometro, nel centro è attaccato un sottile filo con un
“pesetto”, su un piccolo tubo (cannuccia) che fa di mirino. L’angolo che il tubo
fa con il piano orizzontale è uguale a quello che il filo (sempre verticale per via
del peso) fa con l’altro lato del goniometro.
Ecco come appare il grafico delle funzioni SENO e COSENO con gli angoli espressi rispettivamente in
gradi sessagesimali e radianti
Alcune considerazioni sui piccoli angoli
L’utilità di esprimere gli angoli in radianti
risiede nella proporzionalità diretta tra arco ed
angolo che si esprime attraverso il raggio Arco
= angolo x raggio. Se gli angoli sono piccoli
(inferiori a 5° e quindi inferiori a 5/180 =
0,087 rad) il seno è praticamente
indistinguibile dall’angolo stesso (poiché il seno rappresenta la corda, per angoli piccoli corda e arco
sono molto simili), infatti sen(0,087) = 0,087 (la differenza è sulla quarta cifra dopo la virgola), in
questi limiti il coseno è circa uno. Per cui, per angoli  inferiori a 5° si ha
6
sin 𝜗 ≅ 𝜗
cos 𝜗 ≅ 1
tan 𝜗 ≅ 𝜗
La funzione Esponenziale
Abbiamo familiarità con il concetto di elevamento a potenza di un numero intero, scrivere 3 4
significa che il dobbiamo moltiplicare i numero quattro volte per se stesso, 3 4 = 81. Non è difficile
pensare a nemmeno a 34.5, sarà un qualcosa di intermedio tra 34 e 35 (infatti 34.5 = 140.3, 35 = 243).
Se raffiniamo questo ragionamento possiamo pensare ad un numero intero elevato ad un
esponente che sia, in generale, un numero reale (non necessariamente intero e non
necessariamente un numero originato da una frazione) 3 . Ma lo stesso ragionamento lo possiamo
portare a pensare ad un numero reale elevato ad un esponente che sia anch’esso reale. Questa
funzione è spesso riportata nelle calcolatrici tascabili o nelle applicazioni da PC, smartphone e altro
con il tasto xy. . Tra tutte le possibili basi x assume particolare importanza quella che usa il numero
e, detto numero di Eulero (o numero di Nepero). Tale numero (come  è irrazionale e vale
approssimativamente 2,71828. Pertanto il grafico della funzione ex sarà compreso (per x > 0) tra
quello di 2x e quello di 3x. L’importanza di questa funzione in fisica è grandissima perché ogni volta
che la variazione temporale dell’intensità di un fenomeno risulta essere proporzionale all’intensità
stessa del fenomeno, si ha che l’andamento nel tempo è descritto dalla funzione esponenziale
(crescente o decrescente).
In fisica, sono descritti da esponenziali le leggi
del decadimento radioattivo, la distribuzione
delle particelle in relazione all’energia e alla
temperatura, ma anche l’andamento della
velocità di un corpo soggetto al peso e ad una forza di attrito viscoso proporzionale alla velocità.
Di una certa importanza è anche la funzione y = xe-x, il cui grafico è riportato nella figura sottostante
solo per i valori di x > 0.
7
y = xe-x
0.5
0.4
0.3
0.2
0.1
0
0.0
1.0
2.0
3.0
4.0
5.0
6.0
7.0
8.0
Tale funzione passa dall’origine e va asintoticamente a zero per x tendente all’infinito, essendo una
funzione continua essa ha almeno un massimo (1; 1/e). Anche l’integrale indefinito (cioè l’area
individuata dalla funzione e dall’asse x estesi all’infinito) ha un valore “finito” uguale a 1.
I Logaritmi
Abbiamo tutti una certa familiarità con la seguente espressione 23 = 8, si impara nella scuola
primaria che l’espressione precedente è equivalente a 23 = 2 ∙ 2 ∙ 2 = 8, di questa scrittura
3
sappiamo fare anche il procedimento inverso, possiamo scrivere cioè √8 = 2, esiste una diversa
domanda legata a questa espressione e cioè: quale esponente devo applicare al numero 2 per
ottenere 8? La risposta alla domanda la si ottiene con i Logaritmi. Possiamo scrivere
log 2 8 = 3
Si legge: il logaritmo in base 2 di 8 è uguale a 3. Il numero 2 è chiamato base del logaritmo, il
numero 8 è l’argomento. L’argomento deve essere necessariamente un numero maggiore di zero.
I logaritmi hanno alcune importanti proprietà che rendevano il loro uso indispensabile prima
dell’avvento dei calcolatori elettronici:
log 𝑎 ( 𝑏 ∙ 𝑐) = log 𝑎 𝑏 + log 𝑎 𝑐
(trasforma il prodotto in una somma)
log 𝑎 𝑏 𝑐 = c ∙ log 𝑎 𝑏
(porta fuori l’esponente, riduce il grado)
log 𝑎 𝑏 =
log𝑐 𝑏
log𝑐 𝑎
(cambio di base)
Tali proprietà, che non dimostriamo, sono dirette conseguenze delle proprietà delle potenze.
Tra tutte le possibili basi hanno particolare importanza la base 10 e la base e. Le calcolatrici tascabili
riportano queste operazioni con i tasti Log e ln . La funzione ln è detta logaritmo naturale (e in
analisi matematica semplicemente logaritmo). Notiamo che la funzione ln(x) è la funzione inversa di
quella esponenziale. Le applicazioni dei logaritmi sono molteplici, dalla fisica all’elettronica, spesso
legate alla prima proprietà illustrata.
8
Facciamo un esempio. Si deve eseguire la seguente moltiplicazione 1.234 x 5.678, senza la
calcolatrice ma con la possibilità di usare una tabella di logaritmi. Inizieremo osservando che
log (1.234 × 5.678) = log (1.234) + log (5.678) = 0.0913 + 0.7524 = 0.8455
Quindi il risultato della moltiplicazione sarà
1.234 × 5.678 = 100.8455 = 7.006
che
possiamo ottenere usando la tabella al
contrario. Se lo confrontiamo con il risultato
“esatto” troviamo 1.234 × 5.678 = 7.007,
una discrepanza più che accettabile se
confrontata con la necessità di fare una
moltiplicazione (in colonna) di due numeri di
4 cifre ciascuno.
Log10(x)
1.50
1.20
0.90
0.60
0.30
0.00
-0.30 0
-0.60
-0.90
-1.20
-1.50
1
2
3
4
5
Una importante applicazione dei logaritmi è
la scala dei “deciBel”, usata in alcuni settori
tecnologici per descrivere grandezze la cui variabilità è molto grande. Il decibel è una grandezza
derivata dal Bel. Facciamo un esempio legato al suono. Supponiamo di avere un sistema fatto da
microfono, amplificatore e casse audio. Il nostro amplificatore ha la capacità di moltiplicare per 100
il segnale ricevuto dal microfono, cioè se sul microfono incide una potenza P in = 1 W, alle casse esce
una potenza Pout = 100 W.
La capacità di amplificazione (o guadagno) G viene descritta nel seguente modo:
𝐺 = log10
𝑃𝑜𝑢𝑡
100
= log10
= 2 [𝐵𝑒𝑙]
𝑃𝑖𝑛
1
Il guadagno G è 2 Bel. Se ridefiniamo il guadagno come la scala Bel moltiplicata per 10 otteniamo
𝐺 = 10 ∙ log10
𝑃𝑜𝑢𝑡
100
= 10 ∙ log10
= 20 [𝑑𝑒𝑐𝑖𝐵𝑒𝑙]
𝑃𝑖𝑛
1
O semplicemente G = 20 dB. Notiamo che se la potenza in uscita raddoppia, cioè se passa 100 a 200
W, il guadagno cresce di 10Log(2), circa 3 dB
G= 10∙log 10
Pout
200
= 10∙log 10
= 10∙( log 10 2 + log 10 100)= 10 ∙(0.31+2)=23.1 dB
Pin
1
L’utilità pratica della scala dei Decibel risiede nel trasformare una catena di amplificazioni o perdite
(pensate ai segnali delle antenne televisive) in somma di guadagni o perdite (dB negativi) espressi di
decibel.
9
La luce
Sappiamo che la luce è un particolare tipo di onde elettro-magnetiche di lunghezza d’onda
compresa all’incirca tra i 400 e i 700 nm, può sembrare una considerazione banale ma la conoscenza
dalla natura della luce non è sempre stata tale, d’altronde le onde elettromagnetiche (come le onde
radio) hanno prevalentemente origine antropica anche se non mancano le sorgenti cosmiche
mentre la luce è sempre stata presente, per questo motivo lo studi della luce, de suo
comportamento e della sua natura è antecedente all’elettromagnetismo, nel quale ambito la luce è
stata ricondotta solo alla fine del diciannovesimo secolo.
Natura della luce
Alcune osservazioni sul comportamento della luce sono note: le ombre riproducono i contorni degli
oggetti in modo netto quindi la luce si propaga in linea retta (la luce non sembra aver la capacità di
aggirare gli ostacoli), esistono dei corpi in grado di emettere luce e sono detti sorgenti, alcuni corpi
si lasciano attraversare dalla luce senza modificarne (in modo apprezzabile) la traiettoria e sono
detti trasparenti, altri “sparpagliano” la luce e sono detti traslucidi, altri non si lasciano attraversare
e sono detti opachi. Alcuni corpi appaiono di diversi “colori” e legato al comportamento della luce ci
sono curiosi fenomeni che hanno affascinato umanità e studiosi per secoli come i miraggi e gli
arcobaleni. Una teoria in grado di spiegare tutti questi fenomeni non è affatto semplice e le due
idee che storicamente si sono contrapposte sono quella “corpuscolare” (luce composta da piccoli
oggetti dotati di massa) e quella “ondulatoria” (luce è fatta da onde che si propagano in mezzo
speciale, l’etere). Alcuni fenomeno come la riflessione e la rifrazione potevano essere descritti con
grande accuratezza anche senza una teoria sottostante, pertanto le leggi che descrivono il
comportamento degli specchi e delle lenti erano note anche se non era chiara la natura della luce. I
protagonisti del dibattito onda- corpuscolo sono Christiaan Huygens (1629 – 1695) e Isaac Newton
(1643 -1727)
La velocità della luce. (da “Libro di Fisica” di Isaac Asimov)
Ovviamente, la luce viaggia a velocità straordinaria: se girate l'interruttore, piombate
immediatamente nel buio, nell'attimo stesso in cui effettuate il gesto. Il suono non è altrettanto
veloce: se guardate da una certa distanza un uomo che taglia la legna, udite il colpo solo qualche
istante dopo aver visto abbattersi l'ascia; evidentemente, il suono ha impiegato qualche istante per
raggiungere l'orecchio. In effetti, è facile misurarne la velocità: 332 metri al secondo, nell'aria al
livello del mare. Galileo fu il primo a cercare di misurare la velocità della luce; stando su un'altura
mentre un suo assistente stava su un'altra, Galileo scopriva una lanterna e l'assistente, non appena
ne scorgeva il lampo, segnalava la cosa scoprendo a sua volta un'altra lanterna. Galileo effettuò
quest'esperimento a distanze sempre maggiori, presumendo che il tempo necessario all'assistente
per dare la sua risposta restasse sempre uguale, così che ogni aumento dell'intervallo di tempo tra il
momento in cui egli scopriva la sua lanterna e quello in cui vedeva la risposta avrebbe
rappresentato il tempo impiegato dalla luce a coprire la distanza in più. L'idea era buona, ma la luce
è di gran lunga troppo veloce perché con un metodo così rudimentale si possa registrare una
differenza.
10
Metodo usato da Galilei per misurare la
velocità della luce. Galilei e un
assistente, posti sulla cima di due
colline, misurano il tempo impiegato a
rispondere al segnale. Ripetono il
procedimento su distanze sempre
maggiori. Il metodo non permise a
Galilei di ottenere una misura ma solo
di ipotizzare che la velocità della luce
fosse altissima
Nel 1676, l'astronomo danese Olaus Roemer riuscì invece a misurare la velocità della luce,
ricorrendo alle distanze astronomiche; studiando le eclissi dei quattro satelliti di Giove (eclissi
prodotte dal pianeta stesso), Roemer notò che gli intervalli tra eclissi successive diventavano più
lunghi quando la terra si allontanava da Giove e più brevi quando gli si avvicinava. Era presumibile
che la differenza nei periodi delle eclissi riflettesse la differenza delle distanze tra la terra e Giove,
cioè che fosse una misura dei diversi tempi impiegati dalla luce per percorrere la distanza da Giove
alla terra. In base a una stima approssimativa delle dimensioni dell'orbita terrestre e alla massima
discrepanza tra i periodi delle eclissi (ritardo), che Roemer considerò come il tempo impiegato dalla
luce per attraversare in tutta la sua ampiezza l'orbita terrestre, egli calcolò la velocità della luce: la
sua stima fu di 212 mila chilometri al secondo, valore notevolmente prossimo alla velocità reale per
quello che può essere considerato un primo tentativo, e anche sufficientemente elevato per
suscitare l'incredulità dei suoi contemporanei. I risultati di Roemer vennero però confermati mezzo
secolo dopo in base a considerazioni del tutto diverse.
11
Giove ha un periodo di rivoluzione intorno al sole di circa 12 anni, nel tempo che la terra passa da
punto A al punto B della sua orbita (6 mesi) Giove ha compiuto un ventiquattresimo della sua (si è
mosso poco). Il satellite “Io”, il più interno, ha un periodo di rivoluzione intorno a Giove di circa 42
ore, pertanto le eclissi si ripetono con regolarità e frequenza tale da poter essere previste e
osservate più volte alla settimana. Roemer osservò che mentre la terra andava dal punto A al punto
B il ritardo tra l’orario previsto per l’eclissi e la sua osservazione aumentava (di poco) fino a
raggiungere un ritardo massimo di venti minuti circa (t = 20 x 60 = 1200 s). Roemer imputò questo
ritardo al maggior percorso che la luce doveva fare per raggiungere la terra da A a B e, in base alle
conoscenze astronomiche del tempo che davano per il diametro medio dell’orbita terrestre AB =
254 milioni Km (ora si considera AB circa 300 milioni di Km), calcolo la velocità della luce c = AB / t
= 214000 Km/s
Nel 1728, l'astronomo inglese James Bradley scoprì che le stelle sembravano cambiare posizione a
causa del moto della terra - non per via della parallasse, ma perché la velocità del moto della terra
intorno al sole costituisce una frazione misurabile, benché piccola, della velocità della luce. Di solito
per illustrare questo concetto si ricorre all'analogia di un uomo che cammina sotto un ombrello
durante un temporale: anche se le gocce cadono verticalmente, l'uomo deve inclinare l'ombrello in
avanti, perché si sta spostando rispetto alle gocce; più svelto cammina, più deve inclinare
l'ombrello. Analogamente, la terra si muove rispetto ai raggi luminosi che provengono dalle stelle, e
l'astronomo deve inclinare un pochino il telescopio, e in direzioni diverse, via via che la terra muta la
sua direzione di moto. Dall'entità dell'inclinazione ("aberrazione della luce"), Bradley poté stimare il
valore della velocità della luce, che risultò pari a 283 mila chilometri al secondo - un valore più
elevato, e anche più esatto, di quello di Roemer, benché ancora troppo basso del 5,5 per cento
circa. Infine gli scienziati ottennero misurazioni ancora più precise, perfezionando l'idea originale di
Galileo.
12
Metodo di Bardley. L’astronomo studiò il moto apparente di alcune stelle, in particolare studiò il
moto della Draconis (la stella  del costellazione del Drago), chiamata Etamin. Questa stella ha la
caratteristica di trovarsi quasi esattamente sull’asse dell’eclittica, ossia sull’asse dell’orbita di
rivoluzione della terra attorno al sole. Bradley intuì che questo spostamento non ha nulla a che
vedere col moto vero della stella, ma che è una conseguenza del moto della Terra attorno al
Sole. Per lo stesso motivo la pioggia, che in assenza di vento cade verticale, non appare più tale
se ci si mette in corsa. La luce di una stella lontana che illumina la Terra perpendicolarmente
rispetto alla sua velocità è vista inclinata di un angolo rispetto alla verticale da un osservatore
terrestre. Misurando tale angolo e conoscendo la velocità orbitale della Terra si trova facilmente
c dalla relazione tg = v/c
Nel 1849, il fisico francese Armand Hippolyte Louis Fizeau ideò un dispositivo nel quale un lampo di
luce veniva inviato su uno specchio situato a 8 chilometri di distanza; lo specchio lo rifletteva fino
all'osservatore: il tempo trascorso per percorrere i 16 chilometri non superava di molto 1 su 20 mila
di secondo, ma Fizeau riuscì a misurarlo ponendo sul percorso del raggio luminoso una ruota
dentata in rapida rotazione; quando la ruota girava a una data velocità, il lampo, passato tra un
dente e l'altro all'andata, colpiva il dente successivo al ritorno; quindi Fizeau, situato dietro alla
ruota, non lo vedeva. Se poi si aumentava la velocità di rotazione della ruota, il raggio sulla via del
ritorno non veniva più bloccato, ma passava nel successivo intervallo tra un dente e l'altro. Così,
regolando e misurando la velocità di rotazione della ruota, Fizeau riuscì a calcolare il tempo
trascorso, e quindi la velocità con cui viaggiava il lampo luminoso; egli trovò che questa era di 315
mila chilometri al secondo, un valore troppo alto del 5,2 per cento.
13
La luce emessa dalla sorgente S viene collimata mediante la lente L1, la successiva lente L2 focalizza
il fascio in corrispondenza della ruota dentata R dopo averla fatta incidere sullo specchio semi
riflettente M1, il cammino ottico sarà ostruito dai denti della ruota altrimenti proseguirà per un
tratto lungo a e verrà riflesso dallo specchio M2 e tronerà indietro. Un osservatore posto in asse
con gli specchi nel punto O osserva la luce riflessa dallo specchio M2 (illuminato a intervalli)
fintanto che essa passa tra due denti della ruota. Aumentando la velocità di rotazione nel tempo
t in cui la luce percorre il tratto a in avanti e indietro un dente si troverà al posto della gola e
l’osservatore non vedrà la luce da M2. Aumentando ulteriormente la velocità di rotazione nel
tempo t una gola sarà sostituita dalla successiva e quindi l’osservatore vedrà nuovamente la luce
riflessa. Questa condizione permette di determinare l’intervallo t che risulterà essere una
frazione del periodo di rotazione, se la ruota R ha n denti e gira con frequenza f, t = 1/(nf) e la
velocità della luce sarà c = 2xa/t
Un anno dopo, Jean Foucault (che poco tempo più tardi avrebbe effettuato il famoso esperimento
del pendolo, perfezionò il metodo usando uno specchio rotante al posto della ruota dentata. Ora il
tempo trascorso veniva misurato da un leggero cambiamento della direzione in cui veniva riflesso il
raggio di luce da parte dello specchio in rapida rotazione. La migliore misurazione ottenuta da
Foucault nel 1862 fornì, come velocità della luce nell'aria, 298 mila chilometri al secondo. Un valore
troppo basso solo dello 0,7 per cento. In più, Foucault usò il suo metodo per determinare la velocità
della luce in vari liquidi e trovò che essa era considerevolmente inferiore alla velocità della luce
nell'aria. Anche questo risultato confortava la teoria ondulatoria di Huygens.
Una precisione ancora maggiore nella misurazione della velocità della luce fu resa possibile
dall'opera di Michelson, il quale - per più di quarant'anni, a partire dal 1879 - applicò il metodo di
Fizeau e Foucault, perfezionandolo progressivamente. Michelson, alla fine, fece passare la luce
attraverso il vuoto anziché attraverso l'aria (anche l'aria, infatti, rallenta leggermente la luce): a
questo scopo egli usò tubi d'acciaio lunghi oltre un chilometro e mezzo in cui veniva fatto il vuoto. In
tal modo stabilì che la velocità della luce nel vuoto era pari a 299774 chilometri al secondo - un
valore troppo basso solo dello 0,006 per cento. Egli dimostrò inoltre che le onde luminose di
qualsiasi lunghezza viaggiano nel vuoto con la stessa velocità. Nel 1972, un'équipe di ricerca diretta
da Kenneth M. Evenson effettuò delle misurazioni ancora più precise, trovando una velocità di
299792,4494 chilometri al secondo; una volta che tale velocità fu nota con una precisione così
14
stupefacente, divenne possibile usare la luce per misurare le lunghezze. (Tuttavia ciò era
conveniente anche quando si conosceva la velocità della luce con minor precisione.)
La luce emessa dalla sorgente S passa
attraverso lo specchio semiriflettente P,
incide sullo specchio rotante N, viene
focalizzata dalla lente L sullo specchio
fisso R. La luce tornando indietro
incontrerà lo specchio rotante spostato
(di poco) e verrà poi focalizzata sullo
schermo in un punto che dipende dal
tratto 2f + a e dall’angolo  fatto dallo
specchio durante il tempo impiegato
dalla luce a percorrere due volte il tratto
a + 2f. Se chiamiamo  lo spostamento
lineare dell’immagine sullo schermo,
avremo che  = (2f-a)xTan(2)
La luce per percorrere due volte il tratto a + 2f impiega un tempo t =
2(a+2f)/c, in questo tempo lo specchio ruota di un angolo  = t ( è la
velocità angolare  = 2/T), l’angolo è espresso in radianti. Per angoli piccoli
(minori di 5°) la tangente è uguale all’angolo (espresso in radianti). Dalla
misura di  si risale ad  ( = /(4f-2a)), per cui t = /ec = (4f+2a) / t
(la figura riporta la configurazione usata da Michelson per semplificare i
calcoli)
La riflessione della Luce
Nel nostro percorso consideriamo a luce come onda pertanto valgono per la luce le considerazioni
fatte per le onde elastiche in generale e i fenomeni associati (riflessione, rifrazione, diffrazione,
interferenza). Convenzionalmente la luce come onda non viene descritta mediante i suoi fronti (con
una serie di linee parallele poste a distanza pari alla lunghezza d’onda) ma mediante un segmento
orientato (raggio di luce) perpendicolare al fronte d’onda. Pertanto, per un raggio di luce che incide
su una superficie riflettente, vale la legge della riflessione:
-
-
Raggio di luce incidente, raggio di luce
riflesso e retta perpendicolare alla
superficie passante per il punto in cui il
raggio di luce incide (normale nel punto di
incidenza) giacciono sullo stesso semi piano
Angolo di incidenza 𝑖̂ (angolo formato dal
raggio incidente e dalla normale) e angolo
di riflessione 𝑟̂ (angolo formato dal raggio
riflesso e dalla normale) sono uguali
Se la superficie è piana la riflessione avviene come nella figura seguente
15
Specchi piani
Lo specchio piano è il comune specchio, ci
siamo così abituati che spesso non notiamo le
sue proprietà. Un oggetto posto davanti alla
superficie riflettente viene percepito come
“se si trovasse al di là della superficie
riflettente”, l’immagine si forma sul
prolungamento dei raggi riflessi che originano
da un punto posto simmetricamente
all’oggetto rispetto alla superficie. L’immagine
che si forma è orientata (alto-basso) come
l’oggetto che l’ha prodotta mentre ha
SPECCHIO
rotazione invertita (destra e sinistra
scambiate). L’immagine dello specchio piano è
“virtuale” perché i raggi che arrivano
all’occhio dell’osservatore sono percepiti “come provenienti” da un punto posto dietro lo specchio,
cioè sul prolungamento virtuale dei raggi stessi oltre la superficie dello specchio.
La relazione che lega la distanza p dell’oggetto dallo specchio e della sua immagine q è
semplicemente p + q = 0, in quanto si considerano positive le distanze misurate davanti allo
specchio.
Specchi sferici
Uno specchio è sferico se la superficie riflettente è una sfera o (molto più comunemente) una parte
di essa. Gli specchi sferici (e gli specchi curvi in generale) si dividono in due gruppi:
- Specchi concavi (la superficie riflettente è rivolta verso un semispazio convesso)
- Specchi convessi (la superficie riflettente è rivolta verso un semispazio concavo, un loro
comune utilizzo è nei segnali stradali)
Per comprendere il “funzionamento” degli specchi sferici (e trovare una relazione tra la distanza di
un oggetto dalla superficie riflettente e la sua immagine), facciamo una costruzione geometrica
applicando la legge della riflessione. Chiamiamo “asse ottico” la linea retta congiungente l’oggetto e
il centro della sfera AO (quindi perpendicolare alla
superficie).
Applichiamo il teorema dei seni al triangolo formato
dall’asse ottico, il raggio incidente AB e il raggio di
B
i r
curvatura dello specchio R, abbiamo
R 
A
O
𝐴𝐵
𝑝−𝑅
C
=
p
sin(180° − 𝛽)
sin(𝑖)
q
Mentre applicandolo al triangolo formato dal raggio R,
il raggio di luce riflesso e l’asse ottico otteniamo
𝐵𝐶
𝑅−𝑞
=
sin(𝛽)
sin(𝑟)
Facendo il rapporto membro a membro delle due ultime equazioni, ricordando che per la legge
della riflessione abbiamo i = r e che sin(180° -  ) = sin(), otteniamo
16
𝐴𝐵 sin 𝛽
𝑝−𝑅
∙
=
𝐵𝐶 sin 𝛽
𝑞−𝑅
Usiamo l’approssimazione di Gauss di raggi quasi paralleli, allora 𝐴𝐵 ≅ 𝑝 𝑒 𝐵𝐶 ≅ 𝑞, otteniamo
𝑝 ∙ (𝑞 − 𝑅) = 𝑞 ∙ (𝑅 − 𝑝)
Dividendo per pqR abbiamo
2
1 1
= +
𝑅
𝑝 𝑞
2
Definendo 𝑅 =
1
𝑓
, la legge dei punti coniugati assume la sua forma classica
1 1
1
+ =
𝑝 𝑞
𝑓
p è la distanza del punto oggetto dalla superficie dello specchio misurata lungo l’asse ottico, q è la
distanza dell’immagine dallo specchio, f è la distanza focale, il punto dove convergono le riflessioni
dei raggi paralleli (sorgente all’infinito). Le distanze p, q, f hanno lo stesso segno se si trovano dalla
stessa parte rispetto allo specchio. La distanza focale è la metà del raggio di curvatura (f = R / 2).
Formazione delle immagini
La formazione dell’immagine è dovuta al meccanismo per il quale raggi di luce provenienti da un
medesimo punto dell’oggetto, dopo la riflessione convergono in un stesso punto, pertanto un
osservatore percepisce i raggi come uscenti dal punto di convergenza a colloca l’immagine
dell’oggetto nel punto di convergenza. In tal caso parliamo di immagine “reale” di un oggetto.
L’immagine reale di un oggetto è generalmente “rovesciata” come è possibile verificare
specchiandosi da una certa distanza in specchio da toilette.
L’eq
uazi
one
dei
punt
i
coniugati è risolvibile con semplici passaggi algebrici. In particolare abbiamo
1
1 1
= −
𝑞
𝑓 𝑝
1
𝑝−𝑓
=
𝑞
𝑝𝑓
𝑞=
𝑝𝑓
𝑝−𝑓
Esaminiamo alcuni casi particolari
17
-
p = f, l’equazione perde significato, ciò significa che un oggetto posto nel fuoco di uno
specchio sferico non produce immagine (facilmente verificabile con una costruzione grafica).
p < f, l’equazione ha significato e q < 0, significa che l’immagine si forma “dietro” lo specchio
ed è pertanto un’immagine virtuale, non rovesciata.
f < 0, lo specchio è convesso, poiché p deve essere necessariamente positivo ne consegue
che q < 0, immagine sempre virtuale, non rovesciata.
Ingrandimento
Metodi grafici di costruzione dell’immagine. Specchi concavi, figure (a) e (b). Nella figura (a) si considerano
due raggi uscenti dall’oggetto (O), uno parallelo all’asse ottico che verrà riflesso passante per il fuoco, un
secondo esce e incide sullo specchio passando per il fuoco e viene riflesso parallelo all’asse ottico.
L’immagine (i) si forma dove i raggi riflessi si incontrano poiché un osservatore li percepisce uscenti da lì.
Nella figura (b) un raggio (4) esce dall’oggetto (o) e incide sulla superficie dello specchio nel punto di
contatto con l’asse ottico e viene riflesso simmetricamente rispetto all’asse ottico. Il secondo raggio (3)
incide sullo specchio passando per il centro e viene riflesso su se stesso. L’immagine che si forma è reale
rovesciata.
Specchi convessi, figure (c) e (d). Nella figura (c) il raggio (1) incide sullo specchio parallelamente all’asse
ottico, viene riflesso lungo una retta passante per il fuoco (che si trova dietro lo specchio), il raggio (2) incide
sullo specchio lungo una retta passante per il fuoco e viene riflesso parallelamente all’asse ottico. I raggi
riflessi non si incontrano ma un osservatore li percepisce come provenienti da un punto posto dietro lo
specchio. Nella figura (d) un raggio incide sullo specchio nel punto di incontro con l’asse ottico ed è riflesso
ribaltato orizzontalmente, il secondo raggio incide sullo specchio lungo una retta passante per lo specchio
ed è riflesso su se stesso. L’immagine è virtuale non rovesciata.
E’ possibile definire l’ingrandimento di uno specchio come il rapporto tra l’altezza (distanza dall’asse
ottico) apparente dell’immagine HI di un oggetto con la sua altezza reale HO. Considerando la prima
costruzione geometrica in alto a sinistra, osserviamo due triangoli simili, possiamo pertanto scrivere
la seguente proporzione:
𝐻0 : (𝑝 − 𝑓) = 𝐻1 : 𝑓
18
𝐻0
𝐻1
=
𝑝−𝑓
𝑓
𝐻0
𝑝−𝑓
1 1
𝑝+𝑞
𝑝2 − 𝑝𝑓 + 𝑞𝑝 − 𝑞𝑓
𝑝 𝑓
𝑓
=
= ( + ) ∙ (𝑝 − 𝑓) = (
) ∙ (𝑝 − 𝑓) =
= − +1−
𝐻1
𝑓
𝑝 𝑞
𝑝𝑞
𝑝𝑞
𝑞 𝑞
𝑝
𝑓
Osserviamo che la somma degli ultimi tre termini è nulla 𝑝 +
della legge dei punti coniugati, pertanto l’ingrandimento 𝐺 =
𝑓
− 1 = 0, come conseguenza diretta
𝑞
𝐻1
𝐻0
=
𝑞
𝑝
La rifrazione della luce
Secondo il modello ondulatorio la luce ha una velocità di propagazione caratteristica del mezzo in
cui si propaga (nota: l’enorme velocità della luce portava ad immaginare l’esistenza di un mezzo
dalle caratteristiche singolari: rigido e allo stesso tempo impalpabile, dal nome di etere, fu Einstein
ha proporre la propagazione nel vuoto e quindi a “spazzare via” la teoria dell’etere cosmico), se
quindi la luce attraversa la superficie di separazione tra due mezzi diversi incidendo con angolo
diverso da zero si ha il ben noto fenomeno della rifrazione descritto dalla legge di Snell. Con
riferimento alla figura abbiamo: la luce propagandosi passa da un primo mezzo di indice n1 ad un
secondo di indice n2 (con n2 > n1) la legge della rifrazione che dice:
1 – raggio incidente PO, raggio rifratto OQ e normale alla
superficie di separazione nel punto di incidenza,
giacciono sullo stesso piano;
2 - l’angolo di incidenza i (1) e di rifrazione r (2) seguono
la legge di Snell
sin 𝑖
𝑛2
=
sin 𝑟
𝑛1
Per cui, con riferimento alla figura, se la luce passa da un mezzo meno rifrangente ad uno più
rifrangente il raggio rifratto si avvicina alla normale, cioè l’angolo di rifrazione è in generale minore
di quello di incidenza.
In ottica vale il principio di reversibilità del cammino ottico, per cui se la luce si propagasse dal
mezzo 2 al mezzo 1 avremmo la stessa figura soltanto con la freccia orientata in verso opposto.
mezzo
aria
acetone
acqua
alcol etilico
quarzo
vetro crown
vetro flint
indice di
rifrazione n
1,000292
1,359
1,334
1,365
1,458
1,517
1,732
nota
l'aria si comporta in pratica come il vuoto
19
vetro pesantissimo 1,890
diamante
2,419
il diamante è il mezzo più rifrangente
Angolo limite
Il passaggio da un mezzo più rifrangente ad uno
meno, con conseguente aumento dell’angolo
(allontanamento dalla normale), comporta
l’esistenza di un angolo di incidenza iL (inferiore a
90°) che comporta un angolo di rifrazione r = 90°.
La situazione è facilmente ricostruibile nel caso di
passaggio della luce dall’acqua all’aria, in tal caso
n1 = 1.33 e n2 = 1, la legge di Snell assume la
seguente forma
Il raggio passando in mezzo meno rifrangente si allontana
dalla perpendicolare. L’angolo limite di incidenza produce
un raggio rifratto parallelo alla superficie di separazione.
sin 𝑖𝐿
𝑛2
=
1
𝑛1
𝑛2
1
𝑖𝐿 = sin−1 ( ) = sin−1 (
) = 49°
𝑛1
1.33
L’esistenza di un angolo di incidenza per il quale l’angolo di rifrazione è 90° pone la domanda su
cosa succede ad un raggio di luce che incida con angolo superiore a quello limite. In questa
situazione la legge di Snell perde significato. Ciò significa che non si ha raggio rifratto ma il raggio
viene riflesso totalmente (riflessione totale).
Nel caso del passaggio dal vetro all’aria l’angolo limite è di circa 42°, questo permette di usare un
prisma ottenuto dividendo in due un cubo come specchio perfetto, sia per deviare un raggio di 90°
sia per rimandarlo indietro.
Utilizzo di un prisma retto in
due importanti configurazioni:
riflettore a 180° e 90°. E
entrambe le situazioni si
sfruttano incidenze con angoli
maggiori di quello limite che
per il vetro-aria è 42°
La riflessione totale ha importanti applicazioni, dalla più semplice che permette di utilizzare dei
prismi vetro o cristallo come specchi perfetti, oppure utilizzare dei materiali trasparenti e flessibili
(fibre ottiche) per convogliare la luce che non “esce” perché incide sulla superficie con un angolo
che è sempre maggiore dell’angolo limite.
20
L’utilizzo delle fibre ottiche come mezzo di trasmissione delle informazioni ha alcuni vantaggi
evidenti: la luce attraversa il mezzo dissipando pochissima energia permettendo la riduzione dei
sistemi intermedi di amplificazione e permettono la sovrapposizione di più segnali sulla stessa fibra
con poche interferenze, gli svantaggi sono altrettanto evidenti, la fibra è una materiale delicato, non
può essere “piegato” oltre un certo raggio di curvatura, la giunzione di diversi spezzoni di fibra
necessita di un accoppiatore ottico che è più complesso di un accoppiatore elettrico. Lo sviluppo
della trasmissione in fibra ottica è stato possibile solo dopo l’introduzione dei materiali adatti alla
costruzione delle fibre e di sorgenti di luce monocromatiche e collimate (laser).
Curiosità sulla riflessione totale
E’ esperienza relativamente comune aver osservato in estate che le superfici esposte al sole in
lontananza appaiono riflettenti tanto che danno l’impressione di essere bagnate, questo fenomeno
è dovuto alla variazione dell’indice di rifrazione dell’aria in relazione alla densità, e quindi alla
pressione e alla temperatura.
L’asfalto appare riflettente per ché la luce proveniente dall’alto incontra strati di aria sempre più
caldi per effetto della vicinanza alla superficie stradale, l’aria più caldo e meno densa ha un indice di
rifrazione “minore” per cui il raggio rifratto si allontana progressivamente dalla perpendicolare fino
superare l’angolo limite e ed essere completamente riflesso.
Per la dipendenza dell’indice di rifrazione dalla densità possiamo usare la seguente formula
approssimata:
𝑛 ≅1+ 𝛼∙𝜌
21
Con  = 1.2 kg/m3 e  = 2.5 x 10-4 che produce per l’indici di rifrazione n = 1.0003. Ricordiamo che la
densità dell’aria dipende dalla temperatura secondo la legge dei gas perfetti applicata all’aria
𝑝 = 𝜌 ∙ 𝑅𝑎 ∙ 𝑇
Quindi
𝜌 =
𝑝
𝑅𝑎 ∙ 𝑇
L’equazione ci dice che, a parità di pressione (aria stabile), all’aumentare della temperatura la
densità diminuisce e, quindi, diminuisce anche l’indice di rifrazione. L’aria a contatto con una
superficie esposta al sole può avere una temperatura superiore a quella degli strati vicini di decine
di gradi con conseguente variazione dell’indice di rifrazione. In quest’ultima situazione anche la
stabilità della colonna d’aria viene meno e la pressione negli strati superficiali è maggiore di quella
sovrastante con conseguenti moti convettivi.
A sinistra la formazione di un miraggio, a destra quella di un “fata morgana”. Gli eventi tipo fata
morgana sono meno frequenti ed hanno portato alla formazione di leggende come “navi fantasma”
o roba simile
22
Il diottro sferico
Il sistema ottico più semplice dopo la superficie piana è rappresentato da una superficie di
separazione sferica. Si considerano due mezzi di indici di rifrazione n1 e n2 separati da una superficie
sferica, generalmente n2 > n1 e la luce proviene dal mezzo 1. Si chiama asse ottico la retta che unisce
il punto oggetto (la sorgente) e il centro della sfera. Si chiama p la distanza della sorgente dei raggi
di luce e la superficie di separazione (oggetto) e q la distanza del punto di convergenza (reale o
virtuale) dei raggi rifratti dalla superficie si separazione. Se p e q si trovano rispettivamente nei
mezzi 1 e 2 avranno valore positivo, altrimenti è negativo. Cerchiamo una relazione tra p e q che
dipenda esclusivamente dai parametri del sistema (n1, n2 e R).
n2
n1
i

P
p
A
R
C
r

B

O
q
Q
Il raggio di luce che emerge
da P, incide sulla superficie
sferica nel punto A e viene
rifratto. Incontra l’asse
ottico nel punto Q.
Osserviamo che per gli angoli di incidenza e di rifrazione valgono le relazioni i =  + , r =  – ,
mentre le distanze sull’asse ottico sono p = PC e q = CQ, applicando il teorema dei seni ai triangoli
APO ed AOQ
sin 𝑖
sin 𝛽
=
𝑝+𝑅
𝑃𝐴
sin 𝑟
sin(𝜋 − 𝛽)
=
𝑞−𝑅
𝐴𝑄
Eseguendo il rapporto membro a membro delle due espressioni, otteniamo
sin 𝑖 𝑞 − 𝑅
𝐴𝑄
∙
=
sin 𝑟 𝑝 + 𝑅
𝑃𝐴
Sostituendo la legge di Snell
sin 𝑖
𝑛2
=
sin 𝑟
𝑛1
Con piccoli arrangiamenti abbiamo
𝑛2 𝑞 − 𝑅
𝐴𝑄
𝑃𝐴
𝐴𝑄
𝑛1 (𝑝 + 𝑅)
𝑛2 (𝑞 − 𝑅)
∙
=
→
=
→
=
𝑛1 𝑝 + 𝑅
𝑃𝐴
𝑛1 (𝑝 + 𝑅)
𝑛2 (𝑞 − 𝑅)
𝑃𝐴
𝐴𝑄
23
Quest’ultima espressione non è ulteriormente semplificabile e ci dice che, in generale, non c’è una
relazione semplice tra p e q, essa dipende dal cammino ottico fatto (PA e AQ), quindi un oggetto
puntiforme non forma un’immagine puntiforme, il diottro è astigmatico. Introduciamo
un’approssimazione di raggi che sono quasi paralleli all’asse ottico (raggi parassiali), in tal caso
𝑃𝐴 ≅ 𝑝 𝑒 𝑄𝐴 ≅ 𝑞, allora dopo opportune semplificazioni (dividendo per R) otteniamo
𝑛1 𝑛2
𝑛2 − 𝑛1
+
=
𝑝
𝑞
𝑅
L’approssimazione utilizzata è nota come approssimazione di Gauss e la formula trovata è nota
come equazione di Cartesio per i punti coniugati. L’approssimazione di Gauss, nella pratica, non è
molto stringente perché se immaginiamo una superficie sferica che delimita una lente di 4 cm di
diametro, con un oggetto posto a 25 cm di distanza tutti i raggi incidenti rispetteranno tale
approssimazione tan() = ((diametro/2))/distanza = 2/25 = 0.08, quindi  è inferiore a 5°.
Analizziamo la formula di Cartesio nel caso di un oggetto molto lontano dalla superficie, (𝑝 → ∞),
in tal caso n1/p sarà così piccolo da poter essere trascurato e tutti i raggi convergeranno in un punto
chiamato fuoco, la distanza di questo punto dalla superficie di separazione prende il nome di
distanza focale (f2 nel nostro caso)
𝑛2
𝑛2 − 𝑛1
𝑛2
=
→ 𝑓2 =
𝑅
𝑓2
𝑅
𝑛2 − 𝑛1
Osserviamo che in caso di n1 = n2 l’espressione perde di significato, mentre per un passaggio da un
mezzo meno rifrangente ad uno più rifrangente (aria – vetro, n2 > n1 come in figura) f2 > R.
Chiediamoci se esiste una distanza f1 dalla superficie di separazione per la quale non si forma
immagine, cioè q = ∞, quindi 1/q è trascurabile
𝑛1
𝑛2 − 𝑛1
𝑛1
=
→ 𝑓1 =
𝑅
𝑓1
𝑅
𝑛2 − 𝑛1
Anche in questo caso f1 è positiva ma non è necessariamente maggiore di R (f1 < f2). Con l’aiuto delle
distanze focali è abbastanza semplice costruire graficamente l’immagine e determinarne
l’ingrandimento.
n1
n2
A
f1
B
p
f2
B’
O
q
A’
24
Osserviamo che l’immagine è reale rovesciata, la relazione tra le distanze dell’oggetto e
dell’immagine è data dalla formula di Cartesio, per calcolare il fattore di ingrandimento, osserviamo
che dentro il mezzo 2 si formano due triangoli simili, pertanto
𝐴′𝐵′
𝐴𝐵
𝐴′𝐵′
𝑓2
=
→ 𝑖𝑛𝑔𝑟𝑎𝑛𝑑𝑖𝑚𝑒𝑛𝑡𝑜 𝐺 =
=
𝑞 − 𝑓2
𝑓2
𝐴𝐵
𝑞 − 𝑓2
Analogamente nel mezzo 1 abbiamo
𝐴′𝐵′
𝐴𝐵
𝐴′𝐵′
𝑝 − 𝑓1
=
→ 𝑖𝑛𝑔𝑟𝑎𝑛𝑑𝑖𝑚𝑒𝑛𝑡𝑜 𝐺 =
=
𝑓1
𝑝 − 𝑓1
𝐴𝐵
𝑝
Lente sottile
Consideriamo il sistema di due superfici
sferiche di raggi R1 e R2 che delimitano una
regione di spazio con indice di rifrazione n12
(n12 = n2/n1, se il mezzo 1 è l’aria n1 = 1 e n12 =
n2). Osserviamo la figura e notiamo che le
distanze p e q sono calcolate relativamente
all’asse centrale, applicando la legge del
diottro sferico alla prima superficie di
curvatura R1 abbiamo
n12
o
q
p
i’
i
q’
d
1
𝑛12
𝑛12 − 1
+ ′
=
𝑝−𝑑 𝑞 +𝑑
𝑅1
Con questa formula possiamo determinare dove si formerebbe l’immagine i’ se non ci fosse la
seconda superficie, notiamo che i’ è a destra della seconda superficie, quindi essendo per
quest’ultima un oggetto ha coordinate negative, infatti applicando la formula di Cartesio rispetto
alla seconda superficie (di curvatura R2 negativa) troviamo
1
𝑛12
1 − 𝑛12
− ′
= −
𝑞−𝑑 𝑞 −𝑑
𝑅2
Osserviamo che il passaggio è dal mezzo 2 al mezzo 1. Introduciamo l’ipotesi di sistema sottile, cioè
d << p e q, allora sommando le due equazioni abbiamo
1 1
1
1
1
+ = (𝑛12 − 1) ( +
)=
𝑝 𝑞
𝑅1 𝑅2
𝑓
Determinata la geometria del sistema (raggi di curvatura e materiale), se lo spessore della lente è
piccolo, l’oggetto e l’immagine sono determinati da una semplice legge (punti coniugati)
formalmente analoga a quella degli specchi sferici ma con convenzione diversa per i segni, p e q
hanno lo stesso segno se si trovano da parti opposte della lente. Osserviamo che anche la distanza
1
focale può essere negativa nel caso in cui (almeno una curvatura è negativa) risulti (𝑅 +
1
1
𝑅2
) < 0.
25
L’ingrandimento angolare
L’occhio umano è sicuramente un organo importante ma le sue capacità possono essere migliorate
in diversi modi con strumenti ottici come occhiali, microscopi e telescopi. Molti di questi dispositivi
espandono la capacità del nostro occhio oltre la regione visibile, ad esempio i satelliti sono
equipaggiati con sensori infrarossi e microscopi a raggi X. La legge dei punti coniugati aplicabile agli
specchi e alle lenti sottili può essere applicata agli strumenti solo come prima approssimazione,
infatti in molti strumenti ottici le lenti sono “lenti composte” e spesso le superfici non sono sferiche,
ciò nonostante descriviamo il principio di funzionamento degli strumenti ottici come se la legge dei
punti coniugati fosse esatta.
Un normale occhio umano è in grado di mettere a fuoco sulla retina l’immagine definite di u oggetto
se questo è posto ad una distanza compresa tra l’infinito e una determinata distanza detta “punto
prossimo”. Avvicinando l’oggetto ulteriormente all’occhio l’immagine appare sfocata. La distanza di
punto prossimo cambia con l’età, generalmente aumenta. Possiamo affermare che la distanza
media per il punto prossimo sia 25 cm. La figura mostra un oggetto O posto nella vicinanza del
punto prossimo di un occhio umano. La dimensione dell’immagine sulla retina dipende dall’angolo 
che l’oggetto occupa nel campo visivo. Muovendo l’oggetto verso l’occhio (come in figura) l’angolo
aumenta e, quindi, anche la possibilità di distinguere dei dettagli dell’oggetto. Comunque, poiché
l’oggetto si avvicina al punto prossimo, l’immagine non sarà a più a fuoco e perderà definizione. E’
possibile recuperare la nitidezza dell’immagine osservando l’oggetto attraverso una lente
convergente posta in modo che l’oggetto sia a distanza inferiore alla distanza focale f1 della lente.
Ciò che si osserva è l’immagine virtuale dell’oggetto prodotta dalla lente. L’immagine è allontanata
dal punto prossimo e l’occhio la distingue nitidamente. L’angolo q’ sotto il quale è percepita
l’immagine virtuale è maggiore dell’angolo q sotto il quale era percepito l’oggetto. L’ingrandimento
angolare, da non confondere con l’ingrandimento lineare sarà
𝜃′
𝐺𝜃 =
𝜃
26
L’occhio
La parte anteriore dell'occhio si comporta come un sistema ottico centrato, le cui caratteristiche
geometriche sono controllate dai muscoli del corpo ciliare i quali modificano la curvatura delle
superfici rifrangenti, regolando le distanze focali del sistema. La parete posteriore dell'occhio è il
supporto della retina, uno strato di cellule fotosensibili sul quale viene a formarsi l'immagine reale
degli oggetti della visione.
Schematizzazioni dell’occhio
umano
In condizioni di riposo del muscolo ciliare la seconda distanza focale dell'occhio f2, il cui valore è
essenzialmente fissato dalla curvatura della cornea, cade sulla retina. Su di essa si formano le
immagini reali degli oggetti posti a grande distanza. Può capitare per ragioni patologiche o
congenite che la lunghezza dell'occhio, ovvero la distanza tra il sistema rifrangente e la retina sia
maggiore di f2. In questo caso si dice che l'occhio è miope e l'immagine degli oggetti distanti si
forma di fronte alla retina e su di essa arriva sfuocata. In una lente, le immagini reali di oggetti vicini
si mettono a fuoco a distanze maggiori della distanza focale. Affinché nell'occhio siano a fuoco sulla
retina, occorre che f2 sia minore della lunghezza oculare. Per ottenere questo risultato va variata la
curvatura del cristallino. Questa procedura ha un limite fisiologico che impedisce di mettere a fuoco
oggetti più prossimi di una certa distanza, detta di minima visione distinta. Per un adulto giovane
questa distanza vale all'incirca d0=25 cm e diventa sempre maggiore con l'età (un bambino di 10
anni ha una distanza di visione distinta di 7 cm).
La dimensione apparente di un oggetto è legata all'angolo visuale che esso individua. Questo è
approssimativamente dato dal rapporto tra le dimensioni lineari dell'oggetto e la distanza alla quale
esso si trova dall'occhio dell'osservatore. È questo il motivo per cui uno stesso oggetto ci pare più o
meno grande a seconda della sua distanza dal nostro occhio. Dunque avvicinando all'occhio un
oggetto se ne aumenta la dimensione apparente. Tuttavia, come già detto, l'occhio umano è in
grado di mettere a fuoco un oggetto solo se questo si trova ad una distanza superiore al cosiddetto
limite della visione distinta (o punto prossimo), che corrisponde all'incirca a 25 cm.
Per questo motivo non è possibile apprezzare i dettagli di un oggetto molto piccolo semplicemente
aumentandone la dimensione apparente, ossia avvicinandolo indefinitamente all'occhio. Questo
problema può essere risolto facendo uso di dispositivi ottici noti come microscopi.
27
Sistemi Ottici: il microscopio
Il microscopio semplice, ovvero la comune lente di ingrandimento, è costituito da una singola lente
convergente (biconvessa). L'osservatore mantiene il suo occhio in corrispondenza di uno dei fuochi
della lente, e fa sì che l'oggetto si trovi tra la lente e il secondo fuoco. In queste condizioni si forma
un'immagine virtuale dell'oggetto, ingrandita e non capovolta. Quanto più l'oggetto è vicino al
secondo fuoco, tanto più lontana dalla lente (e dall'occhio) si forma l'immagine virtuale. Quando
l'oggetto si trova in corrispondenza del secondo fuoco, la sua immagine virtuale si forma all'infinito.
Dunque, aggiustando la distanza tra l'oggetto reale e il secondo fuoco, si può far sì che l'immagine
virtuale si formi oltre il limite della visione distinta. Poiché in condizioni rilassate l'occhio focalizza
all'infinito
Il microscopio composto è in grado di produrre ingrandimenti maggiori di quelli possibili con un
microscopio semplice. Esso è costituito da due lenti convergenti poste sullo stesso asse ottico. La
prima, detta obiettivo (focale foc), ha lo scopo di produrre un'immagine reale e fortemente
ingrandita dell'oggetto sulla quale la seconda lente, detta oculare (focale fob), agisce come un
microscopio semplice, producendone un'immagine virtuale ulteriormente ingrandita. Perché ciò
possa succedere, l'immagine reale prodotta dall'obiettivo deve cadere tra il primo fuoco dell'oculare
e l'oculare stesso. l'immagine reale prodotta da una lente risulta capovolta rispetto all'oggetto. Ne
segue che l'immagine prodotta da un microscopio composto è capovolta. Dovendo produrre
ingrandimenti elevati, l'obiettivo di un microscopio composto ha in genere una lunghezza focale
piuttosto breve. Inoltre, la distanza tra obiettivo e oculare, detta tiraggio ottico del microscopio, è
solitamente fissa (circa 16,5 cm). Regolando la distanza tra il campione e il blocco obiettivo-oculare
si modifica la posizione dell'immagine reale e quindi di quella virtuale. Quando quest'ultima si trova
al di là del limite della visione distinta, essa può essere messa a fuoco dall'occhio. Come discusso
sopra, se si porta l'immagine reale esattamente sul fuoco dell'oculare, l'immagine virtuale viene
prodotta da quest'ultimo all'infinito. In queste condizioni l'occhio deve fare il minimo sforzo per
metterla a fuoco.
Rappresentazione non in scala di un microscopio composto. La lente Obiettivo produce un’immagine reale dell’oggetto
O a una distanza di poco inferiore alla distanza focale delle F 1 della lente Oculare. L’immagine I è l’oggetto per la lente
oculare che produce un’immagine virtuale I’ che viene percepita dall’osservatore. S è la lunghezza del tubo che separa le
due lenti
28
Il sistema ottico del microscopio fa sì che l’immagine I dell’oggetto O rispetto all’obbiettivo si formi
sufficientemente vicino al fuoco f1’ dell’oculare, di modo che l’immagine I’ rispetto all’oculare si
formi in un punto più lontano del punto prossimo e sia ingrandita (si agisce sulla distanza s). La
grandezza s (distanza tra i due fuochi f2 e f1’) è detta tiraggio e normalmente nei microscopi s>>fob
per cui si ha 2 fob + s  s mentre l’oculare agisce come una lente. I due ingrandimenti Gob e Goc sono:
𝐺𝑜𝑏 = −
𝑖
𝑠
25 𝑐𝑚
≈ −
𝐺𝑜𝑐 =
,
𝑝
𝑓
𝑓𝑜𝑐
𝐺 = 𝐺𝑜𝑏 ∙ 𝐺𝑜𝑐 ≈ −
𝑠 25 (𝑐𝑚)
∙
𝑓𝑜𝑏
𝑓𝑜𝑐
Il telescopio
Il telescopio serve ad osservare oggetti molto distanti, la sua configurazione è abbastanza simile a
quella del microscopio composto. Come il microscopio composto, anche il telescopio è formato da
un obiettivo e da un oculare. Il sistema è costruito in modo che i fuochi delle due lenti siano
coincidenti. L’immagine dell’oggetto O posto a distanza quasi infinita e visto sotto l’angolo qob ad
occhio nudo viene fatta convergere nel fuoco F2  F1’ e vista dall’occhio sotto l’angolo qoc (invertita).
L’ingrandimento (angolare) vale
𝑓𝑜𝑏
𝐺𝑞 = −
𝑓𝑜𝑐
Rappresentazione non in scala di un telescopio rifrattore. I raggi provenienti da un oggetto lontano raggiungono la lente
Obiettivo approssimativamente paralleli. L’Obiettivo crea un’immagine I reale approssimativamente nel fuoco F 2 che
coincide con il fuoco F1 della lente Oculare.
Contrariamente a quanto succede per il microscopio composto, nel telescopio è l'oculare ad avere
la distanza focale minore. Poiché l'oggetto osservato è molto lontano, i raggi che provengono da
esso arrivano praticamente paralleli all'obiettivo, è allora chiaro che quest'ultimo produce
un'immagine capovolta nel suo piano focale rivolto verso l'oculare. La dimensione di tale immagine
coincide con quella apparente con cui vediamo l'oggetto lontano ad occhio nudo. Anche in questo
caso l'oculare funge da microscopio semplice, producendo un'immagine virtuale fortemente
ingrandita dell'immagine reale creata dall'obiettivo. A differenza del microscopio semplice, nel
telescopio il tiraggio ottico non è fissato. Infatti, essendo l'oggetto da osservare molto lontano, la
sua distanza dall'obiettivo non può essere variata sensibilmente. I raggi provenienti dall'oggetto
sono paralleli (o quasi), per cui l'obiettivo ne forma un'immagine reale in prossimità del suo
secondo piano focale. Ne segue che, per spostare al di là del limite della visione distinta l'immagine
virtuale formata dall'oculare, conviene aggiustare opportunamente il tiraggio ottico.
29
Il prisma (non dispersivo)

i

r

r’
i’
n12
Consideriamo un prisma (un solido di sezione triangolare) di materiale trasparente il cui indice di
rifrazione rispetto al mezzo esterno sia n12 > 1, sia  l’angolo di apertura del prisma, consideriamo
un raggio di luce che incide (come in figura) ci chiediamo con quale angolo  emergerà dal prisma,
cioè quale angolo ci sarà tra il raggio incidente su una faccia del prisma e il raggio che emerge dalla
faccia opposta. Applichiamo la legge di Snell alla prima rifrazione, avremo
sin 𝑖
= 𝑛12
sin 𝑟
Analogamente per la seconda rifrazione abbiamo
sin 𝑖′
1
=
sin 𝑟′
𝑛12
Ora un’osservazione geometrica, consideriamo il quadrilatero formato dai lati del prisma e dalle due
perpendicolari nel punto incidenze ed emergenza, sappiamo che la somma degli angoli interni di un
quadrilatero è un angolo giro, dal momento che in questo quadrilatero ci sono due angoli retti,
risulta che l’angolo opposto ad  sarà 180° - , per cui l’angolo in figura risulta essere . Allora  = r
+ i’, quindi i’ =  - r. Osserviamo il triangolo formato dal raggio dentro il prisma e dai prolungamenti
del raggio incidente ed emergente, l’angolo esterno  è l’angolo di deviazione tra il raggio incidente
ed emergente,  = (i - r) + (r’ – i’), cioè
𝛿 = (𝑖 + 𝑟 ′ ) − (𝑟 + 𝑖 ′ ) = (𝑖 + 𝑟 ′ ) − 𝜔
Si trova sperimentalmente (ma anche teoricamente) che questo angolo ha un minimo al variare
dell’angolo i. In condizione di  minimo si ha
𝛿
+ 𝜔
sin 𝑚𝑖𝑛2
𝑛12 =
𝜔
sin 2
Condizione che permette la misura dell’indice di rifrazione del materiale con cui è fatto il prisma con
grande precisone.
30
La dispersione della luce
Fino a questo punto abbiamo parlato di luce in modo indistinto pur sapendo che si tratta di un
gruppo di onde elettromagnetiche di lunghezza d’onda compresa tra 400 e 700 nm, abbiamo
descritto quei fenomeni (riflessione e rifrazione) che in prima analisi non dipendono dalla lunghezza
d’onda.
Dipendenza dell’indice di rifrazione dalla lunghezza d’onda
L’indice di rifrazione di un mezzo materiale manifesta una debole (ma non troppo) dipendenza dalla
lunghezza d’onda della luce che lo attraversa. Si osserva sperimentalmente una diminuzione dell’indice n
al crescere della lunghezza d’onda (dispersione normale). In prossimità di un assorbimento (quando cioè
l’energia dei singoli fotoni è vicina all’energia necessaria ad un elettrone a salire di livello, l’indice di
rifrazione varia in modo sensibile con la lunghezza d’onda e può essere anche minore di uno! Ciò non
significa che l’onda viaggia ad una velocità cn = cv/n > cv, ma che l’onda si disperde, cioè onde con diverse
lunghezza d’onda emesse contemporaneamente dalla stessa sorgente, viaggiando a velocità diversa
perdono il “loro stare insieme” pur mantenendo una velocità media complessiva (velocità di gruppo)
inferiore alla velocità della luce nel vuoto.
Si trova che, per la maggior parte delle sostanze, l'indice di rifrazione decresce con regolarità
all'aumentare della lunghezza d'onda della radiazione visibile considerata; la relazione che lega
l'indice di rifrazione alla lunghezza d'onda, n=n(λ), è detta relazione di dispersione. In buon accordo
con i dati sperimentali, vale la formula dovuta ad A. Cauchy:
𝑛=𝑎+
𝑏
𝑐
+
𝜆2 𝜆3
dedotta dalla teoria elettromagnetica dell'interazione della radiazione elettromagnetica con la
materia, in cui a, b e c sono costanti positive. Poiché la dispersione, come grandezza fisica, è definita
dal rapporto n/λ tra la variazione infinitesima dell'indice di rifrazione e la corrispondente
variazione infinitesima di lunghezza d'onda, per la formula di Cauchy si ha:
𝑑𝑛
2𝑏
= − 3
𝑑𝜆
𝜆
31
essendosi trascurato, come è lecito, il che dipende da potenze superiori. Risulta pertanto che le
radiazioni di lunghezza d'onda maggiore subiscono una deviazione minore; in altre parole, le
radiazioni nella zona del rosso dello spettro visibile hanno una dispersione minore di quelle della
zona del violetto. In pratica, la dispersione di un mezzo si misura mediante il numero di Abbe, detto
anche potere dispersivo, o costringenza, o coefficiente di dispersione media. Si noti, tuttavia, che,
talvolta, si definisce potere dispersivo l'inverso del numero di Abbe. Il fenomeno della dispersione
sopra trattato fu definito dispersione normale, in contrapposizione al fenomeno della dispersione
anomala presentato da alcune sostanze (per esempio, la parafucsina solida) e consistente nel fatto
che per esse la formula di Cauchy non è più valida e, in particolare, si ha un incremento dell'indice di
rifrazione all'aumentare della lunghezza d'onda della radiazione. In realtà, le radiazioni luminose
costituiscono una piccola porzione dello spettro elettromagnetico, che va dalle radioonde ai raggi
infrarossi e, dall'altra parte del visibile, dai raggi ultravioletti ai raggi X e ai raggi γ. La teoria
completa dell'interazione elettromagnetica con la materia prevede nei materiali la presenza di
bande di assorbimento in corrispondenza di determinati valori della lunghezza d'onda della
radiazione che le attraversa; vicino a queste bande di assorbimento non è più valida la formula di
Cauchy e la relazione di dispersione presenta una forma molto complessa che, in particolare,
descrive il comportamento caratteristico della dispersione anomala. Tutte le sostanze presentano
quindi dispersione anomala, solo che per la maggior parte di esse le bande di assorbimento non
cadono nel visibile e pertanto il fenomeno non poté nei primi tempi, essere osservato. Per quanto
detto, quindi, la distinzione tra dispersione normale e dispersione anomala ha sostanzialmente un
significato storico.
L’interferenza della luce – L’esperimento di Young
Nel 1801 l’inglese Thomas Young (1773-1829) eseguì un esperimento di importanza fondamentale
che confermò l’ipotesi della natura ondulatoria della luce e fornì un metodo operativo per
misurarne la lunghezza d’onda. La figura seguente mostra uno schema dell’esperimento, in cui la
luce di una sola lunghezza d’onda (detta luce monocromatica) passa prima attraverso una fenditura
singola molto sottile e poi va a incidere su altre due fenditure S1 e S2, molto sottili e molto vicine tra
loro. Le due fenditure S1 e S2 si comportano come sorgenti coerenti di luce perché la luce emessa da
ciascuna di esse proviene dalla stessa sorgente, cioè dalla fenditura singola. Queste due fenditure
producono su uno schermo una figura d’interferenza formata da frange chiare alternata a frange
scure.
32
La figura seguente mostra il cammino delle onde che incidono nel punto centrale dello schermo.
Nella parte A della figura le distanze ℓ1 e ℓ2 tra questo punto e le fenditure sono uguali e ciascuna
contiene lo stesso numero di lunghezze d’onda. Perciò le onde interferiscono costruttivamente e
danno origine a una frangia chiara. La parte B della figura mostra che le onde interferiscono
costruttivamente perché la differenza di cammino è uguale ad una lunghezza d’onda producendo
due frange chiare in posizioni simmetriche rispetto alla frangia centrale quando la differenza dei
cammini è uguale a una lunghezza d’onda (nella figura è mostrato solo il caso ℓ2 − ℓ1 = 𝜆).
Le onde interferiscono costruttivamente, producendo altre frange chiare (non rappresentate nella
figura) da entrambe le parti della frangia centrale, ogni volta che la differenza tra i cammini ℓ2 e ℓ1
è uguale a un numero intero di lunghezze d’onda: λ, 2λ, 3λ ecc.
La parte C della figura mostra come si forma la prima frangia scura. In questo caso la distanza ℓ2 è
maggiore di ℓ1 e la differenza ℓ2 − ℓ1 è esattamente uguale a mezza lunghezza d’onda, perciò le
onde interferiscono distruttivamente e danno origine alla frangia scura. Le onde interferiscono
distruttivamente, producendo altre frange scure da entrambe le parti della frangia centrale, ogni
volta che la differenza tra ℓ1 e ℓ2 è uguale a un numero dispari di mezze lunghezze d’onda:
ℓ2 − ℓ1 = (2𝑛 + 1)
𝜆
2
𝑛 = 0, 1, 2, 3, … … …
Ai tempi in cui l’esperimento fu condotto fu considerato una prova molto convincente in favore
della teoria ondulatoria della luce.
33
Condizione di interferenza
Le posizioni delle frange sullo schermo possono essere calcolate osservando la figura seguente. Se la
distanza dello schermo dalla doppia fenditura è molto grande rispetto alla distanza d tra le due
fenditure, le rette indicate con ℓ1 e ℓ2 nella parte A della figura sono praticamente parallele e
quindi formano angoli θ praticamente uguali rispetto alla retta perpendicolare allo schermo con le
due fenditure. La differenza Δℓ tra le distanze ℓ1 e ℓ2 nella figura è uguale alla lunghezza del lato
minore del triangolo colorato rappresentato nella parte B della figura. Poiché questo triangolo è
rettangolo, si ha che
∆ℓ = 𝑑 sin 𝜗
L’interferenza è costruttiva quando le distanze ℓ1 e ℓ2 differiscono di un numero intero di lunghezze
d’onda, cioè quando ∆ℓ = 𝑑 sin 𝜗 = 𝑚 𝜆
.
Perciò le ampiezze dell’angolo θ che danno luogo ai massimi di interferenza possono essere
calcolate con la formula seguente:
𝑓𝑟𝑎𝑛𝑔𝑒 𝑖𝑛𝑡𝑒𝑟𝑓𝑒𝑟𝑒𝑛𝑧𝑎 𝑐ℎ𝑖𝑎𝑟𝑒:
sin 𝜃 = 𝑚
𝜆
𝑑
𝑚 = 0, 1, 2, 3, … ..
Il valore di m è chiamato ordine della frangia; per esempio, m = 2 indica la frangia chiara «di
secondo ordine». Gli angoli θ che si ricavano dall’equazione precedente individuano le posizioni
delle frange chiare su entrambi i lati della frangia centrale (figura C).
Ragionando in modo analogo si giunge alla conclusione che le posizioni delle frange scure che si
formano tra quelle chiare possono essere calcolate con la formula seguente:
𝑓𝑟𝑎𝑛𝑔𝑒 𝑖𝑛𝑡𝑒𝑟𝑓𝑒𝑟𝑒𝑛𝑧𝑎 𝑠𝑐𝑢𝑟𝑒:
1 𝜆
sin 𝜃 = (𝑚 + )
2 𝑑
𝑚 = 0, 1, 2, 3, … ..
Interferenza su lamine sottili
Nella vita quotidiana è piuttosto frequente osservare il fenomeno dell’interferenza delle onde
luminose riflesse da lamine sottili (figura seguente). La parte B della figura schematizza una sottile
34
pellicola di benzina che galleggia sull’acqua e sulla quale incide in direzione quasi perpendicolare un
fascio di luce monocromatica. Nel punto d’incidenza si hanno due raggi luminosi: il raggio riflesso 1
e il raggio rifratto che attraversa la pellicola. Dove il raggio rifratto incontra la superficie di
separazione benzina-acqua si origina un fascio riflesso 2 che attraversa la pellicola e torna a
propagarsi nell’aria. Le onde 1 e 2 possono interferire fra loro come le onde luminose provenienti
dalle due fenditure nell’esperimento di Young. Per determinare le condizioni d’interferenza bisogna
valutare i due fattori che cambiano la fase delle onde: la distanza percorsa e la riflessione. L’indice
di rifrazione di un mezzo materiale è legato alla costante dielettrica, il campo elettrico dell’onda
luminosa nel passaggio da un mezzo materiale ad un altro subisce una variazione (se il passaggio è
verso un mezzo ad indice di rifrazione maggiore il campo si riduce), la grandezza campo elettrico
però non può essere discontinua, ciò significa che nel mezzo da cui proviene la luce deve prodursi
una nuova onda con fase opposta che compensi il valore del campo. Ciò significa che il fenomeno
della rifrazione è accompagnato da quello della riflessione. Se il passaggio è da un mezzo
rifrangente ad uno più rifrangente si ha necessariamente un’inversione di fase dell’onda riflessa,
non succede nel caso contrario. Ricordiamo che la frequenza dell’onda non è modificata nella
rifrazione ma, cambiando la velocità, si modifica la lunghezza d’onda, abbiamo cioè:
𝜆𝑚𝑒𝑧𝑧𝑜 =
𝜆𝑣𝑢𝑜𝑡𝑜
𝑛
Questo fatto spiega come mai un sottile strato di idrocarburo galleggiante sull’acqua appare
iridescente. Un raggio di luce nel passaggio dall’aria all’idrocarburo viene rifratto e la lunghezza
d’onda nell’idrocarburo si riduce, il raggio riflesso subisce un’inversione di fase. Nel passaggio
dall’idrocarburo all’acqua (che ha indice di rifrazione inferiore) il raggio riflesso è in fase con il raggio
incidente. Un osservatore vede la luce emergere dalla superficie dell’idrocarburo con diverse fasi
per cui è possibile che si formi interferenza. La condizione di interferenza costruttiva si avrà se la
luce emergente dall’idrocarburo riflessa dall’acqua sia in fase con la luce riflessa dall’idrocarburo, se
lo sfasamento è di mezza lunghezza d’onda avremo interferenza distruttiva. Se chiamiamo t lo
spessore dell’idrocarburo, i raggi 1 e 2 della figura faranno interferenza distruttiva se la differenza di
35
cammino 2t sommata all’inversione di fase per riflessione sia un multiplo della lunghezza d’onda più
mezza lunghezza d’onda, ricordando che nell’idrocarburo la lunghezza d’onda è ridotta si ha:
2𝑡 = 𝑚
𝜆
,
𝑛
𝑚 = 1, 2, 3 … ..
La superficie dell’acqua (all’aperto) difficilmente è stazionaria, per cui sulla stessa direzione si hanno
interferenze di diverse lunghezze d’onda, da cui l’iridescenza. In caso di osservazione quasi
perpendicolare l’osservazione della “luce mancante” permette di risalire allo spessore dello strato.
Questo meccanismo è alla base dei così detti filtri interferenziali utili per ridurre determinate
lunghezza d’onda.
Diffrazione (fonte Cutnell and Johnson – elementi di fisica)
L’interferenza produce i suoi effetti anche quando la luce attraversa anche una sola fenditura.
L’intensità del fenomeno è legata alla larghezza d della fenditura ed è apprezzabile se 𝑑 ≈ 𝜆 cioè
se la larghezza della fenditura è confrontabile con lunghezza d’onda (es: luce verde, = 500 nm, per
osservare la diffrazione d deve essere la massimo 10 – 100 volte , cioè 𝑑 ≈ 0.05 𝑚𝑚).
Consideriamo un fronte d’onda piano che incide perpendicolarmente su una fenditura molto stretta
e determiniamo le caratteristiche della figura di diffrazione che si forma su uno schermo molto
lontano dalla fenditura. Immaginiamo come in figura che la fenditura si comporta come un fronte
d’onda caratterizzato da cinque sorgenti in fase che, secondo il principio di Huygens emettono onde
circolari. La figura mostra cinque delle sorgenti di onde sferiche secondarie descritte dal principio di
Huygens. Consideriamo il modo in cui la luce emessa da queste cinque sorgenti raggiunge il punto
centrale dello schermo. Tutte le onde sferiche secondarie percorrono la stessa distanza per arrivare
al punto centrale dello schermo (se lo schermo è molto distante e la fenditura è piccola), dove
arrivano in concordanza di fase. Esse quindi danno origine a interferenza costruttiva, producendo
una frangia centrale chiara nel centro dello schermo, direttamente davanti alla fenditura.
Figura 1
36
Figura 2
La figura precedente mostra le onde sferiche secondarie dirette verso la prima frangia scura della
figura di diffrazione. Queste onde sono parallele e formano un angolo θ rispetto alla direzione del
fronte d’onda incidente. L’onda emessa dalla sorgente 1 percorre il cammino più breve per arrivare
allo schermo, mentre l’onda emessa dalla sorgente 5 percorre il cammino più lungo. L’interferenza
distruttiva dà luogo alla prima frangia scura quando la differenza tra i loro cammini è esattamente
uguale a una lunghezza d’onda. In queste condizioni la differenza tra i cammini dell’onda emessa
dalla sorgente 3 al centro della fenditura e dell’onda emessa dalla sorgente 1 è esattamente uguale
a mezza lunghezza d’onda. Perciò, come mostra la parte B della figura, queste due onde sono in
opposizione di fase e interferiscono distruttivamente quando raggiungono lo schermo. Lo stesso
ragionamento vale per due onde qualunque emesse da due sorgenti poste rispettivamente nella
metà superiore e nella metà inferiore della fenditura alla stessa distanza dalla sorgente 1 e dalla
sorgente 3.
L’angolo θ che individua la posizione della prima frangia scura può essere ricavato dalla figura B. Il
triangolo colorato è rettangolo e la sua ipotenusa è la larghezza d della fenditura: quindi sen θ = λ/d.
La figura mostra la condizione in cui le onde sferiche secondarie interferiscono distruttivamente
dando origine alla seconda frangia scura su ciascun lato della frangia luminosa centrale. In questo
caso il cammino percorso dall’onda emessa dalla sorgente 5 per arrivare allo schermo differisce
esattamente di due lunghezze d’onda dal cammino percorso dall’onda emessa dalla sorgente 1. In
queste condizioni la differenza tra il cammino percorso dall’onda emessa dalla sorgente 5 e quello
percorso dall’onda emessa dalla sorgente 3 è esattamente uguale a una lunghezza d’onda, e lo
stesso avviene per le onde emesse dalla sorgente 3 e dalla sorgente 1. Perciò ciascuna metà della
fenditura può essere descritta come abbiamo fatto nel caso della prima frangia scura: tutte le onde
secondarie emesse dalle sorgenti poste nella metà superiore della fenditura interferiscono
distruttivamente con le corrispondenti onde secondarie generate nella metà inferiore della
fenditura e danno origine alla seconda frangia scura che si osserva sullo schermo ai due lati del
punto centrale. Il triangolo colorato della figura mostra che l’angolo θ che individua la posizione
della seconda frangia scura può essere ricavato dalla relazione sen θ = 2λ/d.
37
Ripetendo lo stesso tipo di ragionamento per le frange scure di ordine maggiore, si giunge alla
conclusione che le posizioni delle frange scure possono essere calcolate con la formula seguente:
𝑖𝑛𝑡𝑒𝑟𝑓𝑒𝑟𝑒𝑛𝑧𝑎 𝑑𝑖𝑠𝑡𝑟𝑢𝑡𝑡𝑖𝑣𝑎:
sin 𝜗 = 𝑚
𝜆
𝑑
𝑚 = 1, 2, 3, …
Notiamo che la stessa relazione per l’esperimento Young dove d è la distanza tra le due fenditure
permetteva di individuare le frange chiare (interferenza costruttiva).
Potere risolutivo
La diffrazione dovuta ad un’apertura di forma circolare ha una forma analitica leggermente diversa.
Se consideriamo la figura
Figura di diffrazione prodotta da
un fascio di luce monocromatico
che attraversa un’apertura
circolare di raggio a. La relazione
che lega l’angolo q sotto il quale si
produce un “anello scuro” è legata
alla simmetria circolare del
problema (funzioni di Bessel) da
cui il fattore 1.22
La prima frangia scura (n = 1, in questo caso n sta per numero intero) si ha per un angolo  secondo
la seguente legge
sin(𝜗) = 1.22 ∙
𝜆
𝑛𝑎
Dove  è lunghezza d’onda nel vuoto, n è l’indice di rifrazione del mezzo in cui avviene la diffrazione
e a è il diametro dell’apertura circolare, 1.22 è un coefficiente delle funzioni di Bessel.
Anche l’occhio umano si comporta come un’apertura circolare e la luce produce una figura di
diffrazione sulla retina limitando la capacità dell’ottico di distinguere oggetti diversi. Per poter
affermare che due immagini sono distinte si usa il criterio di lord Rayleigh: “Due sorgenti distinte
avranno immagini anch’esse distinte se il massimo centrale della figura di diffrazione della prima
cade nel primo minimo della figura di diffrazione della seconda” che, nel caso di due sorgenti di
uguale intensità, si traduce nell’osservare due picchi distinti con un avvallamento corrispondente
all’ottanta percento del massimo.
38
L’occhio è un sistema ottico in cui la pupilla è il
foro attraverso il quale passa la luce e la retina
lo schermo sul quale si forma l’immagine e la
figura di diffrazione. La pupilla mediamente ha
un diametro d = 5 mm e la distanza della retina
dal foro è D = 2.3 cm (23 mm). Se assumiamo
come lunghezza d’onda della luce il verde
abbiamo = 500 nm
Senza entrare nel dettaglio della funzione che
descrive la figura di diffrazione, si considerano
due figure identiche i cui massimi sono
considerati distinti se tra loro si osserva una
riduzione dell’intensità massima fino all’80%
(circa)
Nel caso dell’occhio umano possiamo assumere come apertura la pupilla d = 5 mm, luce  = 500 nm,
n = 1.33, otteniamo quindi
𝜗 ≅ sin(𝜗) = 1.22 ∙
𝜆
5x10−7
180
= 1.22 ∙
≈ 10−4 𝑟𝑎𝑑 =
x10−4 = 0.0057° ≈ 0,34′
−3
𝑛𝑎
1.33 ∙ 5x10
3.1416
Nota sulla conversione degli angoli: il risultato 0,0057° ottenuto dalla conversione dei radianti è espresso in
gradi decimali. I gradi corrispondono alla cifra intera, nel nostro caso 0°, i primi si ottengono moltiplicando per
60 i gradi decimali diminuiti dei gradi interi, (0,0057 – 0) x 60 = 0,342’, quindi 0’, i secondi si ottengono con lo
sesso procedimento (0,342 – 0) x 60 = 20,5’’. Il nostro angolo è quindi 0° 0’ 21’’
Assumendo come distanza media tra la pupilla e la cornea la distanza D = 2.3 cm, la minima distanza
x risolvibile sulla retina è
𝑥 = 𝐷 ∙ 𝜗 = 2.3x10−2 x 10−4 ≈ 10−6 𝑚
(approssimativamente la larghezza di una cellula)
Reticolo di diffrazione
La diffrazione è il fenomeno che sta alla base di uno dei principali strumenti della spettroscopia: il
reticolo di diffrazione si ottiene affiancando più fenditure uguali con una distanza costante tra esse.
La combinazione degli effetti di molte fenditure produce un rafforzamento delle figure di
interferenza costruttiva. Sul massimo centrale (ordine zero) tutte le lunghezze d’onda producono
39
interferenza costruttiva, ma già al primo ordine (m = 1, angolo ) l’angolo è leggermente diverso per
le diverse lunghezze d’onda
L’ordine zero (m =0) è centrale ed
indipendente dalla lunghezza d’onda, il primo
ordine (m = 1) si produce sotto un angolo 
che dipende dalla lunghezza d’onda, pertanto
una luce non monocromatica che attraversa
un reticolo produce un sistema di figure di
diffrazione che per m > 0 non sono
sovrapposti permettendo l’analisi della luce
40
Reticoli in riflessione
Nei reticoli a riflessione invece che fenditure ci sono tanti diversi piani riflettenti, inclinati di un
certo angolo (angolo che la superficie riflettente forma con il piano del reticolo, tale angolo prende
il nome di angolo di blaze, da cui il nome reticoli blazed). Visto in sezione parallela al piano di
incidenza della luce si può schematizzare questa geometria. Il vantaggio principale (oltre all’assenza
di fenomeni di assorbimento della luce) è che il fattore dovuto alla diffrazione non presenta il valore
massimo in corrispondenza dell’ordine 0, ma di un ordine superiore (per il quale non si ha
sovrapposizione dei massimi di tutte le lunghezze d’onda), che dipende dall’angolo di blaze.
IL MONOCROMATORE
Il reticolo è il componente principale del monocromatore, la cui funzione è far uscire in una certa
direzione una precisa . A tal fine, invece di cambiare la direzione della luce bianca rispetto al
reticolo, si ruota il reticolo di una piccola frazione di angolo, in modo da ritornare nella condizione di
concordanza di fase con una  diversa. Costruttivamente il monocromatore ha una fenditura di
ingresso, su cui viene inviata la luce bianca (o comunque quella da analizzare), e che funge da
sorgente puntiforme del sistema. Essa illumina uno specchio concavo, il quale trasforma il fascio
divergente che arriva dalla fenditura in un fascio parallelo, che illumina uniformemente il reticolo a
riflessione.
Funzionamento di un monocromatore. La fenditura di ingresso
41
La luce riflessa segue un percorso ottico analogo ma inverso (specchio concavo che fa convergere i
raggi prima paralleli), in una direzione di uscita che è selezionata da un’altra piccola fenditura. La
luce che passerà dalla fenditura sarà solo quella che avrà una  tale da realizzare, per quell’angolo,
un’interferenza costruttiva tra tutte le migliaia di raggi riflessi. Le altre lunghezze d’onda faranno
interferenza costruttiva ad angoli diversi, e quindi prima e dopo la fenditura, in differenti punti del
piano AB. Tuttavia, ruotando il reticolo attorno ad un asse perpendicolare al foglio, esse verranno
man mano a trovarsi allineate con la fenditura, e potranno essere utilizzate successivamente.
Ovviamente il monocromatore è tanto più efficace quanto più riesce a separare due  vicine (in
figura 1 e 2), e questo potere risolvente va scelto in base all’intervallo spettrale a cui si è
interessati (UV, VIS, NIR, cioè ultravioletto, visibile, vicino infrarosso).
Diffrazione di raggi X
I raggi X sono onde elettromagnetiche di lunghezza d’onda  dell’ordine di 1 Å (1Å = 10-10 m). Molto
inferiore alla lunghezza d’onda della luce visibile  = 550 nm. I Raggi X vengono generati facendo
urtare elettroni veloci su un bersaglio metallico. Un reticolo di diffrazione non può essere usato per
discriminare diverse lunghezza d’onda nel range dei raggi X. Ad esempio:  = 1 Å, d = 3000 nm,
l’equazione di reticolo afferma che il primo massimo
𝜆
𝛼 = sin−1 ( ) = 0,0019°
𝑑
Un angolo troppo piccolo per poter essere apprezzato. E’ impossibile costruire un reticolo che abbia
una densità di linee per millimetro tale da raggiungere le dimensioni intra-atomiche. Pertanto si usa
un reticolo tridimensionale naturale. L’idea consiste nell’utilizzare un cristallo si NaCl la cui cella
base (cubica di lato a0) si ripete.
Quando un fascio di raggi X attraversa un cristallo di NaCl, i raggi X sono deviati (scatterati) in tutte
le direzioni dalla struttura del cristallo. In alcune direzioni si ha interferenza distruttiva, in altre
costruttiva.
Piani virtuali
Sebbene il processo di diffrazione dei raggi X da parte di un cristallo sia alquanto complicato, si ha
che i massimi sono nelle direzioni come se i raggi X fossero riflessi da una famiglia di piani paralleli
che si estendono dentro il cristallo.
42
La figura (b) mostra tre piani di riflessione separate da una distanza d. L’angolo di incidenza e quello
di riflessione sono indicati con la lettera q. Contrariamente all’ottica geometrica questi angoli sono
riferiti al piano di riflessione e non alla perpendicolare nel punto di incidenza. La figura (c) mostra
una vista laterale della riflessione prodotta da una coppia di piani adiacenti. Osserviamo che dopo la
riflessione le onde suono nuovamente in fase. Diversamente dalla luce i raggi X non si rifrangono
alla superficie di separazione aria-cristallo e non si definisce un indice di rifrazione per questa
situazione. La differenza di fase dei raggi emergenti è dovuta esclusivamente alla differenza di
cammino, quindi due raggi saranno in fase se la differenza di cammino è un multiplo intero della
lunghezza d’onda  dei raggi X.
Dalla figura (c) si deduce che la differenza di cammino è 2𝑑 𝑠𝑖𝑛𝜃, questo vale per ogni coppia di
piani adiacenti, questo fornisce un criterio per l’intensità dei massimi nella figura di diffrazione:
2𝑑 𝑠𝑖𝑛𝜃 = 𝑚𝜆,
𝑚 = 1, 2, 3, …
Il fascio di raggi X può incidere sulla superficie del cristallo con differenti angoli e individuare una
diversa famiglia di piani come in figura (d) permettendo la misura di una diversa distanza
interplanare.
Polarizzazione (fonte Hallyday Resnik)
Le antenne VHF (Very High Frequency) della televisione inglese sono orientate verticalmente
mentre quelle del Nord America sono orizzontali. La differenza è dovuta alla direzione su cui oscilla
il campo elettromagnetico che trasporta il segnale TV. In Inghilterra gli apparati di trasmissione sono
progettati per generare onde che sono polarizzate verticalmente cioè, il campo elettrico di oscilla
verticalmente. Così le onde generano una corrente nelle antenne. Nel Nord America le antenne
sono orizzontali
43
In figura (a) è riportata un’onda elettromagnetica il cui campo elettrico oscilla parallelamente
all’asse verticale y. Il piano che contiene i vettori del campo elettrico è detto piano di oscillazione (e
l’onda è detta polarizzata linearmente). Possiamo rappresentare un’onda polarizzata mediante la
direzione di oscillazione del campo elettrico come in figura (b).
.
Luce Polarizzata
Le onde elettromagnetiche emesse da una stazione televisiva hanno tutte la medesima
polarizzazione mentre le onde elettromagnetiche
emesse da una normale sorgente di luce (lampada ad
Luce non polarizzata
incandescenza) hanno polarizzazione casuale (o
che si propaga verso
semplicemente sono non polarizzate), ciò significa
l’osservatore. Il campo
elettrico è orientato in
che il campo elettrico, pur restando perpendicolare
tutte le direzioni
alla direzione di propagazione dell’onda, può avere
una qualunque orientazione. La luce non polarizzata
è rappresentata con una doppia freccia
E’ possibile trasformare luce non polarizzata in luce
polarizzata facendola passare attraverso in filtro
polarizzatore (noto anche come polaroid) inventato
nel 1932 da Edwin Land. Un filtro polarizzatore
consiste in una serie di lunghe molecole parallele
fissate in plastica. Quando la luce è indirizzata sul
Rappresentazione
semplificata di
filtro, solo la componente con il campo elettrico
luce polarizzata
parallelo (non è del tutto esatto) alle lunghe
molecole riesce ad attraversarlo, l’altra componente
no, viene assorbita dal filtro e “rimossa” dal fascio di
luce. E’ possibile quindi assegnare al filtro una
direzione di polarizzazione e usarlo per produrre luce
polarizzata.
Intensità della luce polarizzata trasmessa
Poiché l’intensità è proporzionale al modulo quadrato del campo elettrico, solo metà della luce non
polarizzata attraversa un filtro.
𝐼𝑇 =
𝐼𝐼
2
44
La direzione di polarizzazione del filtro
è verticale, solo la luce polarizzata
verticalmente attraversa il filtro
Raggio di luce incidente
Filtro polarizzatore con
asse verticale. Solo la
componente verticale del
campo elettrico attraversa
il filtro (quindi anche la
proiezione del campo
lungo l’asse del filtro)
Luce non polarizzata
Filtro polarizzatore
Luce polarizzata verticalmente
Nel caso in cui ad incidere sul filtro sia luce polarizzata l’intensità della luce trasmessa dipenderà
dall’angolo tra la direzione del campo elettrico e l’asse del filtro.
𝐸𝑇 = 𝐸𝐼 cos 𝜃
Per cui l’intensità trasmessa sarà
𝐼𝑇 = 𝐼𝐼 ∙ cos 𝜃 2
Riflessione e rifrazione di luce polarizzata (Equazioni di Fresnel - fonte ITIS Lanciano)
La luce è una perturbazione elettromagnetica e propaga come un’onda in cui i vettori del campo
elettrico E e del campo magnetico B (in elettromagnetismo il campo magnetico è indicato con la
lettera H quando si fa riferimento al vuoto e con la lettera B se si fa riferimento ai materiali) sono
sempre perpendicolari fra loro. Quando il vettore campo elettrico, o quello del campo magnetico,
oscillano sempre nello stesso piano, diciamo che la luce è polarizzata linearmente.
45
Ci proponiamo, ora, di determinare le situazioni che si vengono a creare per i campi elettrici e
magnetici nella riflessione e nella rifrazione su una superficie di separazione di due mezzi con indici
di rifrazione n1 e n2, nel caso di luce polarizzata linearmente. Si suppone che i mezzi di propagazione
siano dielettrici, cioè non conduttori, e non magnetici (la permeabilità magnetica  del primo e
quella del secondo mezzo sono uguali). Se definiamo “piano di incidenza” il piano contenente le
direzioni di propagazione dell’onda diretta, individuata dal vettore d’onda ki, dell’onda riflessa,
individuata da kr, e dell’onda rifratta, individuata da kt, possiamo analizzare due particolari
situazioni che si possono avere nel caso di onde polarizzate linearmente, a seconda che il vettore
campo elettrico E oscilli perpendicolarmente al piano di incidenza (onda polarizzata di tipo s )
oppure parallelamente al piano di incidenza (onda polarizzata di tipo p ). (Da ora in poi utilizzeremo
il pedice i per l’onda incidente, il pedice r per l’onda riflessa e il pedice t per l’onda rifratta o
trasmessa. Indicheremo inoltre con  gli angoli di incidenza e di riflessione, che devono essere
uguali, e con  l’angolo di rifrazione). La prima situazione, riportata nella figura seguente, si ha
quando il vettore campo elettrico E oscilla perpendicolarmente al “piano di incidenza”, e di
conseguenza il vettore campo magnetico H (o vettore induzione magnetica B = ·H, con 
permeabilità magnetica del mezzo di propagazione) oscilla parallelamente ad esso. L’onda con
queste caratteristiche, come abbiamo detto, è comunemente indicata come onda polarizzata di tipo
S.
(𝑬⊥ → 𝒐𝒏𝒅𝒂 𝑺) -- (𝑬∥ → 𝒐𝒏𝒅𝒂 𝑷)
Piano di incidenza
ki
mezzo 1, n1
Bi
kr
Ei


Er
Br
interfaccia

mezzo 2, n2
Bt
Et
kt
Le equazioni di Maxwell (l’insieme delle equazioni che descrivono il comportamento del campo
elettromagnetico) impongono che le componenti tangenziali del campo elettrico E sul piano di
interfaccia siano continue (cioè la grandezza fisica campo elettrico E non cambia il suo valore sulla
superficie di separazione o interfaccia), così come quelle del vettore induzione magnetica B, il che
46
equivale a dire che le componenti tangenziali complessive nel primo mezzo siano uguali a quelle nel
secondo:
eq. S1
E1,tan = E2, tan
B1,tan = B2, tan
Riferendoci alla figura, osservando che il campo elettrico E oscilla parallelamente alla superficie di
separazione e che il campo magnetico B fa un angolo  con la superficie di separazione possiamo
allora scrivere:
eq. S2
𝐵𝑖 cos 𝛼 − 𝐵𝑟 cos 𝛼 = 𝐵𝑡 cos 𝛽
𝐸𝑖 + 𝐸𝑟 = 𝐸𝑡
Un’altra relazione importante, sempre derivante dalle equazioni di Maxwell, valida nel caso di
materiali non magnetici (  = 2) e non conduttori, è:
eq. S3
𝐸
𝑣
𝐵=
=
𝑛𝐸
𝑐
(questa relazione si ricava dalle equazioni di Maxwell in regime sinusoidale)
Sostituendo la eq. S3 nella seconda delle eq. S2, possiamo scrivere:
𝐸𝑖 𝑛1 cos 𝛼
eq. S4
𝑐
−
𝐸𝑟 𝑛1 cos 𝛼
𝑐
=
𝐸𝑡 𝑛2 cos 𝛽
𝑐
Ricordando la prima delle eq. S2 e sostituendo, abbiamo:
𝐸𝑖 𝑛1 cos 𝛼 − 𝐸𝑟 𝑛1 cos 𝛼 = 𝐸𝑖 𝑛2 cos 𝛽 + 𝐸𝑟 𝑛2 cos 𝛽
e finalmente:
𝐸𝑟⊥
eq. S5
𝐸𝑖⊥
=
𝑛1 cos 𝛼− 𝑛2 cos 𝛽
𝑛1 cos 𝛼+ 𝑛2 cos 𝛽
Osserviamo che se n2 > n1 avremo  >  e Er sarà di segno opposto ad Ei, cioè in opposizione di fase,
tale relazione si mantiene anche per incidenza normale  =  = 0. Allo stesso modo, ricavando dalle
eq.2 Er = Et - Ei e sostituendo nella eq.4, abbiamo:
𝐸𝑖 𝑛1 cos 𝛼 − 𝐸𝑡 𝑛1 cos 𝛼 + 𝐸𝑖 𝑛1 cos 𝛼 = 𝐸𝑡 𝑛2 cos 𝛽
2 ∙ 𝐸𝑖 𝑛1 cos 𝛼 = 𝐸𝑡 (𝑛1 cos 𝛼 + 𝑛2 cos 𝛽)
e finalmente:
eq. 6
𝐸𝑡⊥
𝐸𝑖⊥
=
2∙𝑛1 cos 𝛼
𝑛1 cos 𝛼+ 𝑛2 cos 𝛽
Le equazioni S5 e S6 sono le equazioni di Fresnel valide per un’onda polarizzata di tipo S. Le stesse
equazioni, dividendo numeratore e denominatore per n1 e ricordando la legge di Snell,
sin 𝛼 𝑛2
=
sin 𝛽 𝑛1
47
assumono la forma
eq. S7
eq. S8
𝐸𝑟⊥
𝐸𝑖⊥
𝐸𝑡⊥
𝐸𝑖⊥
=
=
sin 𝛼
cos 𝛽
sin 𝛽
sin 𝛼
cos 𝛼+
cos 𝛽
sin 𝛽
cos 𝛼−
=
2 cos 𝛼
sin 𝛼
cos 𝛼+
cos 𝛽
sin 𝛽
=
sin 𝛽 cos 𝛼−sin 𝛼 cos 𝛽
sin 𝛽 cos 𝛼+sin 𝛼 cos 𝛽
sin(𝛽−𝛼)
= sin(𝛽+𝛼)
2 sin 𝛽 cos 𝛼
sin 𝛽 cos 𝛼+sin 𝛼 cos 𝛽
=
2 sin 𝛽 cos 𝛼
sin(𝛽+𝛼)
Il segno nei rapporti fra Er, Ei ed Et ci dà indicazioni sulla fase relativa fra i vettori. Il segno positivo
indica la conservazione della fase, mentre il segno negativo indica un ribaltamento di fase, cioè uno
sfasamento di .
In entrambe le eq. S7 e S8 il denominatore è sempre positivo, essendo la somma di  e 
sicuramente compresa fra 0 e , dove la funzione seno è positiva. Tutto dipende quindi dal segno
del numeratore. Nella eq. S8 il numeratore è positivo poiché sia  che  sono compresi fra 0 e /2,
intervallo in cui sia il seno che il coseno sono positivi; questo comporta che l’onda trasmessa è in
fase con quella incidente.
Nella eq. S7, invece, bisogna tener conto del valore di . Se  , cioè n1 > n2, sen( ) > 0.
In questo caso l’onda riflessa è in fase con quella incidente. Se, invece  <  , cioè n1 < n2, e quindi
sen(  –  ) < 0, allora l'onda riflessa è in opposizione di fase rispetto all’onda incidente. E’ questo
quello che comunemente si verifica essendo quasi sempre n1 < n2.
Analizziamo ora il caso, illustrato nella figura seguente, in cui il vettore campo elettrico sia parallelo
al piano di incidenza (onda polarizzata di tipo p).
Piano di incidenza
Ei
mezzo 1, n1
Br
Bi
ki 

Er
interfaccia
Et

mezzo 2, n2
kr
kt
Bt
48
Le stesse considerazioni fatte in precedenza ci portano a scrivere:
eq. P1
E1,tan = E2, tan
B1,tan = B2, tan
eq. P2
𝐸𝑖 cos 𝛼 + 𝐸𝑟 cos 𝛼 = 𝐸𝑡 cos 𝛽
𝐵𝑖 − 𝐵𝑟 = 𝐵𝑡
𝐸𝑖 𝑛1 − 𝐸𝑟 𝑛1 = 𝐸𝑡 𝑛2
𝐸𝑡 =
eq. P3
𝐸𝑖 𝑛1
𝑛2
−
𝐸𝑟 𝑛1
𝑛2
Ricordando la prima delle eq P2 e sostituendo, abbiamo:
𝐸𝑖 𝑛1 cos 𝛽 − 𝐸𝑖 𝑛2 cos 𝛼 = 𝐸𝑟 𝑛2 cos 𝛼 + 𝐸𝑟 𝑛1 cos 𝛽
e finalmente:
𝐸𝑟∥
eq. P4
𝐸𝑖∥
=
𝑛1 cos 𝛽− 𝑛2 cos 𝛼
𝑛1 cos 𝛽+𝑛2 cos 𝛼
Ricavando invece Er dalla P3
𝐸𝑟 =
𝐸𝑡 cos 𝛽 − 𝐸𝑖 cos 𝛼
cos 𝛼
E sostituendo questa espressione nella P4,
𝑛1 𝐸𝑖 −
𝑛1 𝐸𝑡 𝑐𝑜𝑠 𝛽 𝑛1 𝐸𝑖 𝑐𝑜𝑠 𝛼
+
= 𝑛2 𝐸𝑡
𝑐𝑜𝑠 𝛼
𝑐𝑜𝑠 𝛼
2𝑛1 𝐸𝑖 𝑐𝑜𝑠 𝛼 = 𝐸𝑡 (𝑛2 𝑐𝑜𝑠 𝛼 + 𝑛1 𝑐𝑜𝑠 𝛽)
eq. P5
𝐸𝑡∥
𝐸𝑖∥
=
2 𝑛1 cos 𝛼
𝑛1 cos 𝛽+ 𝑛2 cos 𝛼
Le P4 e P5 sono le equazioni di Fresnel valide per onde polarizzate di tipo p. Anche queste possono
essere riscritte tenendo conto della legge di Snell, per cui abbiamo:
eq. P6
eq. P7
𝐸𝑟∥
𝐸𝑖∥
𝐸𝑡∥
𝐸𝑖∥
sin 𝛼
=
=
cos 𝛽−sin 𝛽 cos 𝛼
sin 𝛼
cos 𝛽+sin 𝛽 cos 𝛼
=
2 cos 𝛼
sin 𝛼
cos 𝛽+
cos 𝛼
sin 𝛽
sin 𝛽 cos 𝛽−sin 𝛼 cos 𝛼
sin 𝛽 cos 𝛽+sin 𝛼 cos 𝛼
=
2 sin 𝛽 cos 𝛼
=
sin(𝛽−𝛼) cos(𝛽+𝛼)
sin(𝛽+𝛼) cos(𝛽−𝛼)
=
sin 𝛽 cos 𝛽+sin 𝛼 cos 𝛼
=
𝐭𝐚𝐧(𝜷−𝜶)
𝐭𝐚𝐧(𝜷+𝜶)
𝟐 𝐬𝐢𝐧 𝜷 𝐜𝐨𝐬 𝜶
𝐬𝐢𝐧(𝜶+𝜷) 𝐜𝐨𝐬(𝜶−𝜷)
Nella P7 numeratore e denominatore sono entrambi positivi per cui è ancora l’onda trasmessa, cioè
rifratta, in fase con l’onda incidente. La P6, invece è positiva se:
𝛽 > 𝛼 (𝑛1 > 𝑛2 )
𝑒
𝛽+𝛼 <
𝜋
2
49
oppure
𝛽 < 𝛼 (𝑛1 < 𝑛2 )
𝑒
𝛽+𝛼 >
𝜋
2
La conseguenza di quanto appena scritto è cha la fase dell’onda riflessa dipende sia dagli indici di
rifrazione che dall’angolo di incidenza. Le equazioni di Fresnel, che riportiamo di seguito per
ricapitolare, determinano quelli che normalmente sono definiti coefficienti di riflessione r = Er/Ei e
di trasmissione t = Et / Ei
eq. P8
𝑡⊥ =
𝑡∥ =
𝐸𝑡⊥
𝐸𝑖⊥
𝐸𝑡∥
𝐸𝑖∥
=
=
2 sin 𝛽 cos 𝛼
𝑟⊥ =
sin(𝛽+𝛼)
2 sin 𝛽 cos 𝛼
𝑟∥ =
sin(𝛼+𝛽) cos(𝛼−𝛽)
𝐸𝑟⊥
𝐸𝑖⊥
𝐸𝑟∥
𝐸𝑖∥
sin(𝛽−𝛼)
=
sin(𝛽+𝛼)
tan(𝛽−𝛼)
= tan(𝛽+𝛼)
Nel caso particolare di angoli di incidenza pari a 0, anche l’angolo di rifrazione è 0, per cui abbiamo:
𝑟⊥ = 𝑟∥ =
𝑛1 − 𝑛2
𝑛1 + 𝑛2
𝑡⊥ = 𝑡∥ =
2𝑛1
𝑛1 + 𝑛2
Come si vede non c’è differenza per i due tipi di polarizzazione.
Possiamo passare ora ad analizzare il problema delle intensità dei fasci incidenti, riflessi e rifratti,
passando così alla definizione di riflettanza R e trasmittanza T. Le equazioni di Maxwell e
l’espressione dell’energia per unità di volume di un’onda elettromagnetica E = ½ E2 , portano a
scrivere la proporzionalità dell’intensità di un’onda elettromagnetica con il vettore campo elettrico:
𝑅=
𝐼𝑟
𝐼𝑖
𝑇=
𝐼𝑡
𝐼𝑖
Nel caso delle riflettanza l’onda incidente e quella riflessa viaggiano nello stesso mezzo, per cui
eq. P9
𝑅=
𝐼𝑟
𝐼𝑖
2
𝐸
𝑛 −𝑛
2
= ( 𝐸𝑟 ) = (𝑛1 +𝑛2 )
𝑖
1
2
Per la trasmittanza, invece, abbiamo:
𝐼𝑡
𝐸𝑡 2 𝑛2
2𝑛1 2 𝑛2
𝑇= = ( )
= (
)
𝐼𝑖
𝐸𝑖 𝑛1
𝑛1 + 𝑛2 𝑛1
Si può notare, per inciso, come:
𝑛1 − 𝑛2 2
2𝑛1 2 𝑛2
𝑅+𝑇 = (
) + (
)
=1
𝑛1 + 𝑛2
𝑛1 + 𝑛2 𝑛1
Questa relazione non rappresenta altro che la conservazione dell’energia, dovendo essere la somma
delle energie riflesse e trasmesse uguali a quella incidente.
Angolo di Brewster
50
Dalle equazioni di Fresnel si può osservare come il coefficiente di riflessione 𝑟⊥ si annulla solo nel
caso banale in cui  = , cioè n1 = n2, il che equivale a dire che l’onda incidente viaggia sempre nello
stesso mezzo, per cui non può esserci riflessione, mentre una situazione particolarmente
importante si ha, invece, se  + . In questo caso il coefficiente di riflessione
𝑟∥ =
𝐸𝑟∥
tan(𝛽 − 𝛼)
=
→ 0 (tan(𝛼 + 𝛽) → ∞)
𝐸𝑖∥
tan(𝛽 + 𝛼)
L’angolo di incidenza a cui si verifica questo viene indicato come angolo di Brewster . E’ facile
verificare che con queste condizioni, la legge di Snell può essere scritta:
𝑛2 sin 𝛼𝐵
sin 𝛼𝐵
sin 𝛼𝐵
=
=
=
= tan 𝛼𝐵
𝜋
𝑛1
sin 𝛽
sin( ⁄2 − 𝛼𝐵 ) cos 𝛼𝐵
Quello che succede è che se un’onda polarizzata linearmente, ma con il vettore del campo elettrico
formante un angolo qualsiasi con il piano di incidenza, incide sull’interfaccia tra i due mezzi con
l’angolo di Brewster  , l’onda riflessa avrà solo la componente perpendicolare al piano di
incidenza, dando origine ad un’onda polarizzata di tipo S qualunque sia il tipo di polarizzazione
dell’onda incidente. La componente parallela, infatti, si annullerà, come appena detto. La figura
illustra la situazione. ( Si è riportato solo il vettore campo elettrico).
Piano di incidenza
Ei
Ei//
Mezzo 1, n1
Ei┴
ki

kr
Er┴= Er

Interfaccia
Et
Et//
Et┴
Mezzo 2, n2

kt
51
Andamento della riflettività R in funzione dell’angolo
di incidenza i. Per una interfaccia aria-vetro (n
relativo = 1,5). Osserviamo che le due componenti di
polarizzazione (perpendicolare e parallela) hanno
andamenti diversi, in particolare la componente
parallela ha un minimo all’angolo di Brewster. Ciò
significa che nella luce riflessa sarà presente solo la
componente perpendicolare che risulta quindi
polarizzata. Su questo fenomeno si basa il
funzionamento degli occhiali polaroid.
Polarizzazione per birifrangenza
Molte sostanze cristalline trasparenti alla luce, benché omogenee, non sono isotrope e il loro
comportamento ottico dipende dalla direzione del fascio di luce incidente rispetto agli assi di
simmetria del cristallo. In generale nei mezzi cristallini anisotropi si verifica il fenomeno della doppia
rifrazione, detto anche birifrangenza, consistente nel fatto che un raggio luminoso che incida sul
cristallo, a seconda della sua direzione di polarizzazione può procedere all’interno di questo in una o
due diverse direzioni di propagazione. Così se un fascio di luce non polarizzata incide su un cristallo
di calcite (CaC03), perpendicolarmente a una delle sue facce, alla superficie del cristallo il raggio si
divide in due. In questo modo si può spiegare il fatto che, quando un cristallo di calcite ben levigato
è posto sopra alcune lettere stampate, di ciascuna lettera appare un'immagine doppia.
52
Sdoppiamento dell’immagine per effetto della birifrangenza
Le due componenti compiono percorsi diversi. I raggi emergenti
sono detti raggio ordinario (O) e raggio straordinario (E)
53
Interazione radiazione – materia
I fenomeni legati all’interazione tra radiazione e materia sono moti e diversi tra loro, gli elenchiamo
brevemente a titolo informativo per avere la consapevolezza che molti sono i meccanismi con cui la
radiazione elettromagnetica (e quindi la luce) e la materia interagiscono.
Effetto fotoelettrico: il fenomeno consiste nell’emissione di elettroni da parte di un materiale
(generalmente un metallo). La corrente elettrica che si genera è proporzionale all’intensità della
radiazione incidente mentre si osserva un effetto soglia in funzione della lunghezza d’onda, cioè il
fenomeno è osservabile solo se la lunghezza d’onda è inferiore ad un valore limite caratteristico
della sostanza.
Effetto Compton: radiazione incide sulla materia e viene deviata e si modifica anche la frequenza
(diminuisce). Il fenomeno è interpretato come un urto elastico tra un elettrone legato in un atomo e
un fotone (che quindi trasporta una quantità di moto). Se l’elettrone è estratto dall’atomo è
possibile verificare la conservazione dell’energia e della quantità di moto.
L’atomo di Bohr (fonte wikipedia)
Cenni storici
All'inizio del XX secolo lo studio dell'atomo aveva
raggiunto un buon grado di conoscenza. Erano noti,
infatti, moltissimi spettri di emissione di luce
proveniente dagli atomi: ovvero delle linee discrete e
ben distinte poste a differenti frequenze. Una delle
prime osservazioni interessanti avvenne nel 1884
quando Johann Balmer, insegnante svizzero, osservò
che alcune righe dello spettro di emissione
dell'idrogeno potevano essere calcolate utilizzando la
formula:
𝜆 = (364,6 𝑛𝑚)
Schema atomo di Bohr
𝑛2
𝑛2 − 4
Balmer suppose che tale formula fosse, in realtà, un
caso particolare di una legge più generale, ora nota
come legge di Rydberg-Ritz:
1
1
1
= 𝑅 ( 2 − 2)
𝜆
𝑛2 𝑛1
con n1>n2 ed R la costante di Rydberg (che è il reciproco di una lunghezza e vale 1.09737315685 x
107 m-1). Con questa legge fu possibile completare lo spettro osservato da Balmer e si riescono ad
ottenere anche le serie di Lyman (n2=1) e Paschen (n2=3). Furono fatti numerosi tentativi per
spiegare teoricamente tali osservazioni sperimentali, ma il meglio che si riuscì a realizzare fu il
modello di Thomson, lo scopritore dell'elettrone, che suppose che l'atomo fosse un corpo compatto
54
contenente al suo interno sia la carica positiva, che quella negativa. Tale modello aveva, però, una
pecca: poiché si basava solo sulla presenza delle forze elettriche, non era in grado di spiegare come
mai il sistema fosse all'equilibrio, né Thomson riuscì mai a determinare una frequenza tra quelle
osservate.
Nel 1911 Hans Wilhelm Geiger e Ernest Marsden, sotto la supervisione di Ernest Rutherford,
realizzarono un esperimento importantissimo per la comprensione della struttura dell'atomo:
bombardando una sottile lamina d'oro con particelle alfa, notarono che, mentre la maggior parte di
esse subiva deviazioni minime dalla traiettoria iniziale, altre venivano deviate in misura
considerevole, e una minima parte veniva respinta dalla lamina.
Nell'interpretare questo esperimento, Rutherford stabilì che l'atomo fosse composto da un centro
massivo (il nucleo) circondato da cariche negative. Il modello di atomo proposto da Rutherford
soffriva, però, di una instabilità elettromagnetica e di una instabilità meccanica: poiché l'elettrone,
nel suo moto intorno al nucleo positivo, è sottoposto a un'accelerazione, esso irraggia energia
elettromagnetica della stessa frequenza del suo moto di rivoluzione, finendo così per perdere
energia e quindi cadere sul nucleo con un moto a spirale. Nel caso di atomi più pesanti, attorno ai
quali ruotino più elettroni, questi ultimi sarebbero stati soggetti a una repulsione elettrostatica che
avrebbe reso inoltre meccanicamente instabili le loro orbite, cosicché, a prescindere
dall'irraggiamento, una qualsiasi perturbazione esterna sarebbe stata sufficiente ad alterare
pesantemente la distribuzione di elettroni negli atomi. Fu Niels Bohr a risolvere le difficoltà del
modello di Rutherford, spiegando anche lo spettro dell'atomo di idrogeno.
I postulati di Bohr
Bohr, che a quel tempo lavorava con Rutherford, propose un modello che, applicando all'atomo di
Rutherford la quantizzazione dell'energia introdotta da Planck, riusciva a giustificare lo spettro
dell'idrogeno. La soluzione di Bohr è basata su tre postulati:
Il primo postulato di Bohr: Il valore del modulo del momento angolare dell'elettrone che ruota
intorno al nucleo deve essere un multiplo intero (numero quantico) della costante di Planck ridotta,
e di conseguenza l'energia di un elettrone dipende solo dal valore del numero quantico principale.
𝑚𝑣𝑟=𝑛
ℎ
2𝜋
(m è la massa dell’elettrone, v la velocità, r il raggio dell’orbita supposta circolare, n è un numero
intero, n = 1, 2, 3, …. Il prodotto della quantità di moto per il raggio dell’orbità prende il nome di
momento angolare)
Il secondo postulato di Bohr: L'atomo irraggia energia solamente quando, per un qualche motivo,
un elettrone effettua una transizione da uno stato stazionario ad un altro. La frequenza  della
radiazione è legata all'energia del livello di partenza e di quello di arrivo dalla relazione:
|𝐸𝑓 − 𝐸𝑖 | = ℎ 𝜈
dove h è la costante di Planck, mentre Ei ed Ef sono le energie connesse alle orbite finale ed iniziale
(è presente il modulo in quanto la frequenza ha significato fisico se e soltanto se è un numero
55
positivo, invece il ΔE= (Ef - Ei) può essere negativa, e indica se viene emessa una radiazione o se
viene assorbita energia con frequenza . Derivata dalla suddetta formula, secondo la teoria classica,
invece, la frequenza della radiazione emessa avrebbe dovuto essere uguale a quella del moto
periodico della particella carica). L'energia che l'atomo scambia con il campo elettromagnetico
soddisfa dunque sia il principio della conservazione dell'energia, sia la relazione tra l'energia e la
frequenza introdotta da Planck.
Il terzo postulato di Bohr: Nel modello semplice di Bohr, il numero atomico è Z, la carica
dell'elettrone è e, l'energia potenziale a distanza r è:
𝑈= −
𝑘 𝑍 𝑒2
𝑟
dove k è la costante di Coulomb. L'energia totale di un elettrone nell'ipotesi semplificativa che si
muova su un'orbita circolare con velocità v è quindi:
1
1
𝑘 𝑍 𝑒2
2
2
𝐸 = 𝑚𝑣 +𝑈 = 𝑚𝑣 −
2
2
𝑟
Per ottenere il valore della velocità, e quindi quello dell'energia cinetica, basta eguagliare la
relazione F = ma, dove per l'accelerazione si utilizza l'espressione per quella centripeta (a = v2/r),
con l'attrazione coulombiana:
𝑘 𝑍 𝑒2
𝑣2
=
𝑚
𝑟2
𝑟
e quindi l'energia cinetica risulta essere pari alla metà del valore assoluto dell'energia potenziale.
L'energia totale risulta quindi essere pari a:
1 𝑘 𝑍 𝑒2
1
𝐸= −
= − 𝑚 𝑣2
2 𝑟
2
(Non deve sorprendere il segno meno, significa che l’energia totale del sistema protone + elettrone
è negativa e che lo stato è legato, il valore dell’enegia rappresenta quanto necessario a estrarre
l’elettrone portandolo fuori dal campo elettrico del protone).
Sostituendo questa nella legge matematica del secondo postulato di Bohr, si ottiene un'espressione
per le frequenze in funzione delle distanze finale ed iniziale dei livelli interessati dalla transizione:
1 𝑘 𝑍 𝑒2 1
1
𝜈=
( − )
2
ℎ
𝑟𝑖 𝑟𝑓
Questa equazione deve essere consistente con la formula di Rydberg-Ritz, sapendo che ν = c/λ, con
c velocità della luce. I raggi delle orbite stabili, quindi, dovevano essere proporzionali ai quadrati di
numeri interi. Una simile legge di proporzionalità poteva essere ottenuta ipotizzando che il
momento angolare dell'elettrone in un'orbita stabile fosse pari a:
56
𝑚𝑣𝑟=𝑛
ℎ
2𝜋
=𝑛ℏ
Questo è il terzo postulato di Bohr, che, in pratica, quantizza il momento della quantità di moto
della particella.
Raggio di Bohr ed energia del livello fondamentale
A questo punto è abbastanza semplice determinare il raggio dell'orbita, combinando quest'ultima
con la relazione tra le forze otteniamo:
𝑣=
𝑛ℏ
𝑚𝑟
𝑘 𝑍 𝑒2
𝑣2
𝑚 𝑛ℏ 2
=𝑚
=
(
)
𝑟2
𝑟
𝑟 𝑚𝑟
𝑘 𝑍 𝑒2 =
𝑟 = 𝑛2
Dove
1 2 2
𝑛 ℏ
𝑚𝑟
ℎ2
𝑎0
= 𝑛2
2
2
4𝜋 𝑚 𝑘 𝑍 𝑒
𝑍
𝑎0 =
ℎ2
4𝜋 2 𝑚 𝑘 𝑒 2
è il raggio di Bohr del livello fondamentale dell'atomo di idrogeno. Il valore della prima orbita di
Bohr è considerato la misura di riferimento per le dimensioni degli atomi. Merita di essere calcolato.
𝑎0 =
(6.626 x 10−34 )2
ℎ2
=
= 0.0053 𝑥 10−8 𝑚 = 0.53 𝑥10−10 𝑚
4𝜋 2 𝑚 𝑘 𝑒 2
4𝜋 2 9.109 x 10−31 9x109 (1.602 x 10−19 )2
A partire dal raggio delle orbite otteniamo la quantizzazione dell’energia, cioè quali valori
dell’energia sono possibili in funzione del numero intero n che prende il nome di numero quantico
principale.
1 𝑘 𝑍 𝑒2
1
𝑘 𝑒2
1 4𝜋2 𝑚 𝑘2 𝑍 𝑒4
𝐸0
𝐸𝑛 = −
= −
=
−
=
−𝑍
2
2
2 𝑟
2 2
2
𝑛2
ℎ
𝑛2 ℎ
𝑛
4𝜋2 𝑚 𝑘 𝑒2
𝐸0 = −
2𝜋 2 𝑚 𝑘 2 𝑒 4
ℎ
2
Anche questo valore merita di essere calcolato perché, oltre alle lunghezze d’onda osservate, è un
parametro misurabile.
𝐸0 = −
2𝜋 2 𝑚 𝑘 2 𝑒 4
ℎ
2
18
2 ∙ 3.14162 9.109 x 10−31 81x10 (1.602 x 10−19 )4
= −
= − 21.74 x 10−19 𝐽
(6.626 x 10−34 )2
57
Ricordiamo che l’energia può essere espressa come prodotto della differenza di potenziale per la
carica, a livello atomico risulta conveniente usare la seguente unità: elettronvolt (eV) che
corrisponde all’energia necessaria a spostare la carica di un elettrone nella differenza di potenziale
di un Volt. Per esprimere l’energia della prima orbita di Bohr (che corrisponda in valore assoluto
all’energia necessaria per portare l’elettrone dallo stato legato allo stato libero) è sufficiente
dividere per il valore della carica elementare.
𝐸0 = −
21.74 x 10−19
1.602 x 10−19
= −13.6 𝑒𝑉
Dalla chimica si ricava che l’energia di prima ionizzazione è 1312.06 kJ/mol, valore che diviso per il
numero di Avogadro fornisce il valore di 21.79 x 10-19 J in ottimo accordo con il calcolo di Bohr.
Infine si possono scrivere tutti i valori possibili dell'energia di un elettrone in un atomo, scritti in
funzione dell'energia fondamentale dell'atomo di idrogeno:
1 𝑘 𝑍 𝑒2
1
𝐸𝑛 = −
= −
2 𝑟
2
𝑘 𝑍 𝑒2
𝑛2
ℎ2
4𝜋2 𝑚 𝑘 𝑍 𝑒2
1
= −
2
4𝜋2 𝑚 𝑘2 𝑍2 𝑒2
𝑛2 ℎ2
𝑍2
= − 2 𝐸0
𝑁
Riportiamo una tabella dei raggi, energie e lunghezze d’onda associate alle transizioni tra livelli
vicini, per i primi 10 livelli dell’atomo di idrogeno secondo lo schema di Bohr
Livello n Raggio [Å] Energia [eV] Å
1
0.53
-13.60
1216
2
2.12
-3.40
6565
3
4.77
-1.51
18756
4
8.48
-0.85
40523
5
13.25
-0.54
74599
6
19.08
-0.38 123719
7
25.97
-0.28 190620
8
33.92
-0.21 278035
9
42.93
-0.17 388700
10
53
-0.14 525350
regione
UV
ROSSO
NIR
IR
IR
IR
IR
IR
IR
IR
Legge di Lambert-Beer (Fonte Wikipedia)
La legge di Lambert-Beer è una relazione empirica che correla la quantità di luce assorbita da un
mezzo alla natura chimica, alla concentrazione ed allo spessore del mezzo attraversato. Quando un
fascio di luce (monocromatica) di intensità I0 attraversa uno strato di spessore L di un mezzo, una
parte di esso viene assorbita dal mezzo stesso e una parte ne viene trasmessa con intensità residua
I1.
Il rapporto tra le intensità della luce trasmessa e incidente sul mezzo attraversato è espresso dalla
seguente relazione (si veda dimostrazione seguente)
58
𝐼1
= 𝑒 −𝑘𝜆𝐿 = 𝑇 = 𝑒 −𝐴
𝐼0
dove kλ è il coefficiente di attenuazione (che è una costante tipica del mezzo attraversato e dipende
dalla lunghezza d'onda λ) e L è lo spessore di soluzione attraversata. Definita quindi la trasmittanza
(T) come il rapporto I1/I0 e come assorbanza (A) l'opposto del logaritmo naturale della trasmittanza,
la legge assume una forma ancora più semplificata:
𝐴 = 𝑘𝜆 𝐿
che per una soluzione viene ulteriormente modificata in
𝐴 = 𝜀𝜆 𝐿 𝑀
dove ελ è detta estinzione molare, M è la molarità della soluzione e L è il cammino geometrico. Il
valore di ελ è considerato costante per una data sostanza ad una data lunghezza d'onda, benché
possa subire lievi variazioni con la temperatura. Inoltre, la sua costanza è garantita solo all'interno di
un dato intervallo di concentrazioni, al di sopra delle quali la linearità tra assorbanza e
concentrazione può essere inficiata da fenomeni chimico-fisici (ad esempio la precipitazione della
specie chimica colorata). La misura dell'assorbanza di soluzioni chimiche a lunghezze d'onda tipiche
è il principio su cui si basa l'analisi per spettrofotometria.
Dimostrazione della legge di attenuazione dell'intensità luminosa
Si può derivare la legge di attenuazione dell'intensità luminosa di un fascio di radiazione
elettromagnetica monocromatica con intensità iniziale I0 dalle seguenti assunzioni:



si suppone che il fascio viaggi parallelo ad un asse di riferimento x;
si possa definire una intensità locale funzione della distanza 𝐼 = 𝐼(𝑥);
l'attenuazione di intensità I sia proporzionale all'intensità I, alla concentrazione del
campione C, al cammino infinitesimo x attraverso un certo coefficiente ’
Si ottiene la seguente relazione:
∆𝐼 = − 𝜖𝜆′ 𝐶 𝐼(𝑥) ∆𝑥
Questa è un'equazione differenziale a variabili separabili, quindi può essere integrata, ottenendo:
𝐼
𝑙𝑛 ( ) = −𝜖𝜆′ 𝐶 𝐿
𝐼0
ed infine:
′
I(𝐿) = I0 𝑒 −𝜖𝜆 𝐶 𝐿
59
60
Richiami di elettromagnetismo ed inquinamento elettromagnetico
Le grandezze elettriche - La carica
La sorgente della forza elettrica è detta carica elettrica ed è una caratteristica delle particelle che
compongono la materia. L’osservazione di forze attrattive e repulsive tra le cariche ha portato gli
scienziati a suddividere le cariche in due tipi che per convenzione sono chiamate positive e negative
(definizione che risale a Benjamin Franklin che definì le cariche positive quelle ottenute sul vetro
dopo che è stato strofinato con la lana e negative quelle ottenute sull’ambra dopo che è stata
strofinata con la lana). La forza generata dalle cariche è descritta dalla legge di Coulomb.
q1
F
F
d
q2
Poste due cariche puntiformi q1 e q2 nel vuoto ad una distanza
d, tra esse si genera una forza F diretta lungo la congiungente i
centri delle cariche. La forza può essere attrattiva o repulsiva a
secondo del segno delle cariche (repulsiva in caso di segni
uguali, attrattiva in caso di segni diversi) l’intensità della forza è
descritta dalla relazione:
𝐹𝐶 = 𝐾 ∙
𝑞1 ∙ 𝑞2
1 𝑞1 ∙ 𝑞2
=
∙
2
𝑑
4𝜋𝜖0
𝑑2
Nel S.I. il valore della costante K è 8,99 x 109 [Nxm2/C2], nella seconda forma la costante 0 che
prende il nome di costante dielettrica del vuoto ha il valore di 8,85x10 -12 [C2/Nxm2]. Dalla legge di
coulomb discende l’unità di misura della carica. La carica unitaria (1 Coulomb, [C]) è quella che ne
respinge una uguale posta ad un metro di distanza nel vuoto con una forza di 9x109 N (8,99 circa 9).
In caso di presenza di materia interposta tra le cariche la forza risulta essere inferiore a quella che si
esercita nel vuoto. Il rapporto tra questi due valori dipende dal tipo di materiale interposto tra le
cariche e prende il nome di costante dielettrica relativa r (non ha unità di misura ed è sempre
maggiore di uno). Pertanto in presenza di materia la forza di Coulomb assume la forma
𝐹𝐶 =
1
𝑞1 ∙ 𝑞2
∙
4𝜋𝜖0 𝜖𝑟
𝑑2
In natura si osserva che esistono solo cariche elettriche che sono multipli interi di un valore che
viene detto carica elementare ed è indicato con la lettera e (corsivo) che vale
𝑒 = 1,602 ∙ 10−19 [𝐶]
I protoni hanno carica +e, gli elettroni –e.
Il campo elettrico
In presenza di più cariche elettriche o, in generale, di una distribuzione di cariche, la forza elettrica
agente su una carica esploratrice q positiva, sarà data dalla somma vettoriale dei contributi che le
singole cariche esercitano su q. Si definisce campo elettrico E il rapporto tra la forza elettrica che la
carica esploratrice sente e la carica q stessa. Pertanto il campo elettrico è una grandezza vettoriale
diretto ed orientato come la forza elettrica
61
a. Un sistema di n cariche elettriche Q1,
Q2, …… Qn generano sulla carica q, n
forze F1, F2, ….., Fn
b. Il rapporto tra le forze e la carica
esploratrice è il campo elettrico E
Quindi il campo elettrico in un determinato punto dello spazio è una grandezza vettoriale orientata
come la forza elettrica che una carica esploratrice q sperimenta la cui intensità è data dal rapporto
tra forza elettrica e la carica
𝐸=
𝐹𝐸
[𝑁/𝐶]
𝑞
Di conseguenza se è noto il campo elettrico E la forza elettrica sarà
𝐹𝐸 = 𝐸 ∙ 𝑞
Differenza di Potenziale (ddp)
Se la carica q sperimenta una forza elettrica sarà possibile definire il lavoro fatto da (o contro) la
forza elettrica. Supponiamo che in una regione di spazio sia presente un campo elettrico omogeneo
E ed immaginiamo due punti A e B disposti lungo il campo a distanza d. Il lavoro L fatto dalla forza
elettrica per spostare la carica q da A a B sarà
𝐿𝐴𝐵 = 𝐹𝐸 ∙ 𝑑 = 𝐸 ∙ 𝑞 ∙ 𝑑
Si definisce differenza di potenziale (ddp) tra i punti A e B il rapporto tra il lavoro fatto dalla forza
elettrica e la carica esploratrice q
𝑑𝑑𝑝𝐴𝐵 =
𝐿𝐴𝐵 𝐸 ∙ 𝑞 ∙ 𝑑
=
= 𝐸 ∙ 𝑑 [𝐽/𝐶]
𝑞
𝑞
L’unità di misura della differenza di potenziale prende il nome di Volt [V] (1 V = 1J/1C) dal nome
dello scienziato italiano che a fine settecento inventò la prima pila elettrica. Pertanto spesso la
differenza di potenziale ddp è indicata con il simbolo V o semplicemente V (oppure tensione
elettrica). Notiamo che la presenza di campo elettrico permette di definire la differenza di
potenziale, vale anche il viceversa cioè se siamo in presenza di ddp avremo un campo elettrico.
Un generatore di differenza di potenziale si rappresenta con il simbolo seguente:
62
Conduttori ed isolanti
La carica elettrica è una caratteristica della materia, fu subito evidente agli sperimentatori che
alcuni materiali permettevano il passaggio della carica elettrica al loro interno ed altro no. Pertanto
i materiali si distinguono in conduttori ed isolanti. I metalli sono conduttori.
Capacità elettrica
Immaginiamo una coppia di lastre metalliche piatte parallele (di superficie A) poste a distanza d tra
loro (la distanza sia molto piccola rispetto alle dimensioni delle lastre) e poniamo sulle due lastre
una medesima quantità di carica +Q e –Q. Nella regione di spazio compresa tra le due lastre sarà
presente un campo elettrico E (immaginiamolo omogeneo ed uniforme), pertanto tra le due lastre si
è stabilità una differenza di potenziale V = E·d.
Si definisce capacità elettrica C del sistema (le due piastre)
il rapporto tra la carica Q accumulata e la differenza di
potenziale che si è stabilita
𝐶=
𝑄 𝐶
[ ] = [𝐹]
Δ𝑉 𝑉
L’unità di misura della capacità elettrica è il Farad, dal
nome dello scienziato Michael Faraday che nell’ottocento
fu uno dei pionieri dello studio dell’elettromagnetismo. Un
Farad è una capacità molto grande, nella pratica si usano i
sottomultipli mF, F, nF e pF. (milliFarad = 10-3 F,
microFarad = 10-6 F, nanoFarad = 10-9 F, picoFarad = 10-12 F). Se immaginiamo di allontanare una
delle due piastre all’infinito possiamo estendere la definizione di capacità per un singolo conduttore
carico considerando zero il valore del potenziale all’infinito, in questo caso si parla di potenziale.
Le leggi di Ohm
Il flusso di carica attraverso un conduttore è detto intensità di corrente, è indicato con la lettera i
(anche in maiuscolo I) e si misura in Ampère (A). La corrente unitaria si ha quando una sezione di un
conduttore è attraversata dalla carica di un Coulomb in un secondo (1 A = 1 C / 1 s). Il verso della
corrente è il verso delle cariche positive (quindi da alto potenziale verso basso potenziale o,
semplicemente “dal più verso il meno”)
Osserviamo che verso della corrente è unico (è il verso del campo elettrico), sotto l'azione di un campo elettrico le cariche positive e
quelle negative si muovono in versi opposti, il diverso segno della velocità compensa quello della carica
63
Esiste una relazione di proporzionalità diretta tra la corrente che attraversa un conduttore e la
differenza di potenziale agli estremi, tale relazione prende il nome di prima legge di Ohm e la
costante di proporzionalità prende il nome di resistenza elettrica ed è indicata con la lettera R
Δ𝑉 = 𝑅 ∙ 𝐼
𝑅=
Δ𝑉 𝑉
[ ] = [Ω]
𝐼 𝐴
Un conduttore ha la resistenza unitaria (1 ) se applicando ai sui estremi la differenza di potenziale
di un Volt è attraversato dalla corrente di un Ampère. La resistenza elettrica è una grandezza che
dipende dalle dimensioni del conduttore e dal materiale. Se pensiamo ad un conduttore omogeneo
di forma cilindrica (un filo) di lunghezza L e sezione S, la resistenza elettrica dipende dai seguenti
parametri
𝐿
𝑅 =𝜌∙
𝑆
il parametro  (rho) prende il nome di resistenza specifica o
resistività e si esprime in ·m. E’ questo il parametro che distingue
i conduttori dagli isolanti, infatti la resistenza specifica dei metalli è
dell’ordine 10-8 [·m], quella delle rocce può arrivare a 10+6 [·m].
Energia in un circuito elettrico
La corrente elettrica comporta uno spostamento di carica attraverso il conduttore, per cui usando la
prima legge di Ohm abbiamo che il lavoro L fatto per spostare la carica Q attraverso il conduttore ai
cui estremi è applicata la differenza di potenziale V sarà
𝐿 = Δ𝑉 ∙ 𝑄
Se la carica è stata spostata in un tempo t da una corrente i significa che
𝑄 = 𝑖 ∙ Δ𝑡
e
𝐿 = Δ𝑉 ∙ 𝑖 ∙ Δ𝑡
Per cui la potenza P dissipata dal conduttore sarà
𝑃=
𝐿
Δ𝑉 ∙ 𝑖 ∙ Δ𝑡
𝐽 𝐶
𝐽
=
= Δ𝑉 ∙ 𝑖 [𝑉 ∙ 𝐴] = [ ∙ ] = [ ] = [𝑊]
Δ𝑡
Δ𝑡
𝐶 𝑠
𝑠
Applicando la prima legge di Ohm si hanno altri modi di descrivere la potenza dissipata da un
componente è
64
Δ𝑉 2
𝑃 = Δ𝑉 ∙ 𝑖 =
= 𝑅 ∙ 𝑖2
𝑅
L’ultima espressione prende il nome di legge di Joule.
Campo magnetico
I fenomeni magnetici hanno delle analogie con fenomeni elettrici, le forze magnetiche sono
attrattive e repulsive, quindi ci sono due sorgenti di carica che sono chiamate poli (Nord e Sud). La
presenza di sorgenti magnetiche (calamite) e rivelata dal fatto che un ago di una bussola tende ad
orientarsi per questo motivo i poli si chiamano Nord e Sud. Sin dai primi esperimenti con la corrente
elettrica (dopo l’invenzione della pila) si osservò che le correnti generavano deboli campi magnetici
che erano comunque in grado di deviare l’ago di una bussola e che fili percorsi da corrente elettrica
nella vicinanza di calamite sentiva una forza. In relazione alla forza sperimentata dal filo percorso da
corrente è stato definito il campo magnetico (campo di induzione magnetica) generalmente
indicato con la lettera B.
Con riferimento all’immagine accanto, il verso del campo magnetico è
dal polo nord al polo sud della calamita (verso in cui si orienta l’ago di
una bussola), considerando un filo di lunghezza ℓ percorso da una
corrente i entrante nel piano del foglio, si osserva che sul filo agisce una
forza la cui intensità è proporzionale sia alla corrente sia alla lunghezza
del filo, il campo magnetico è la costante di proporzionalità
𝐵=
𝐹
𝑁
[ ] = [𝑇]
𝑖 ∙ ℓ 𝐴𝑚
L’unità di misura del campo magnetico è il Tesla [T], il campo di un Tesla
genera la forza di un Newton su un metro di filo percorso dalla corrente
di un Ampère. Direzione e verso della forza sono determinati dalla
regola della mano sinistra. Disponendo le prime tre dita della mano mutuamente perpendicolari tra
loro come in figura, la forza F è diretta come il pollice quando il campo B è diretto come l’indice e la
corrente i è diretta come il medio. La forza è diretta perpendicolarmente al piano individuato da
corrente e filo ed è massima quando corrente e campo magnetico sono perpendicolari e nulla
quado sono paralleli. Detto  l’angolo tra corrente e campo magnetico si ha
𝐹 = 𝐵 ∙ 𝑖 ∙ ℓ ∙ sin 𝛼
Il campo magnetico generato da un filo percorso da corrente
descrive delle circonferenze su un piano perpendicolare al filo e
centrate nel filo stesso. Il verso del campo magnetico è quello delle
dita della mano destra quando il pollice indica il verso della
corrente. L’intensità del campo magnetico decresce con
l’aumentare della distanza dal filo
Di conseguenza due fili percorsi da corrente interagiranno tra loro a causa dei campi magnetici
65
generati. Questa osservazione porta alla così detta legge sperimentale di Ampère che lega
direttamente le correnti alla forza. Si ha che dati due fili paralleli (indefinitamente lunghi) percorsi
da corrente elettrica (rispettivamente I1 e I2) e posti ad una distanza d nel vuoto, tra loro ci sarà una
forza per unità di lunghezza data dalla seguente relazione:
𝐹 𝜇0 𝐼1 ∙ 𝐼2
=
∙
ℓ 2𝜋
𝑑
La forza sarà attrattiva in caso di correnti concordi e repulsiva in caso
di correnti discordi. La costante 0 che compare nella legge Ampère
prende il nome di permeabilità magnetica del vuoto e nel sistema
internazionale ha il valore di 4x10-7 [N/A2]. Mediante questa legge si
ha la definizione ufficiale dell’unità di misura dell’intensità di corrente:
la corrente di 1 A è quella che fatta fluire in due conduttori paralleli
indefinitamente lunghi posti nel vuoto ad un metro di distanza fra loro
produce una forza pari 2x10-7 N per ogni metro di lunghezza dei fili.
Combinando insieme la legge sperimentale di Ampère e la definizione
operativa di campo magnetico si ottiene la legge di Biot-Savart che descrive
la relazione tra campo magnetico B, intensità di corrente I e distanza dal
filo d
𝐵(𝑑) =
𝜇0 𝐼
∙
2𝜋 𝑑
Forza di Lorentz
Una carica q in moto con velocità v in un campo magnetico B sente una forza diretta
perpendicolarmente al piano individuato dai vettori velocità e campo magnetico, il verso della forza
è quello del pollice della mano sinistra quando l’indice è orientato come il campo magnetico e il
medio come la velocità (della carica positiva). Detto  l’angolo (inferiore a 180°) determinato dei
vettori velocità e campo magnetico, l’intensità della forza sarà
B=0
𝐹𝐿 = 𝑞 ∙ 𝑣 ∙ 𝐵 ∙ sin 𝛼
B≠0
Nel caso di velocità e campo paralleli (o antiparalleli)
l’intensità della forza e zero. La forza di Lorentz non
compie lavoro e la traiettoria di una carica in moto in un
campo magnetico uniforme è una circonferenza.
d
a
v
b
L
c
d
a
FL
b
L
c
Induzione elettromagnetica
Faraday si accorse che durante la chiusura e l’apertura di
circuiti elettrici era possibile osservare deboli correnti in
circuiti vicini elettricamente separati. L’interpretazione
di questi fenomeni (noti come induzione elettro66
magnetica) può essere fatta consideriamo la seguente situazione: una spira di filo conduttore
quadrata di lato L e resistenza elettrica R è in moto a velocità costante v. Nel moto passa da una
regione di spazio priva di campo magnetico (B = 0) ad una dove il campo è diverso da zero, uniforme
e diretto in verso uscente dal piano del foglio.
Gli elettroni all’interno dei fili risentono della forza di Lorentz diretta in senso opposto a quello della
figura la cui intensità è
𝐹𝐿 = 𝑒 ∙ 𝑣 ∙ 𝐵
Tale forza ha efficacia solo per gli elettroni contenuti nel tratto di filo cd poiché il tratto ab è
all’esterno del camp magnetico e nei tratti bc e da la forza agisce perpendicolarmente al filo e
pertanto non produce effetti sugli elettroni. Agli estremi del tratto cd avremo una differenza di
potenziale (femindotta)
𝐹𝐿 ∙ 𝐿
𝑑𝑑𝑝𝑐𝑑 = 𝑓𝑒𝑚𝑖𝑛𝑑𝑜𝑡𝑡𝑎 =
=𝑣∙𝐵∙𝐿
𝑒
Il polo positivo sarà il c e quello negativo il d. La corrente generata girerà in senso orario.
Osserviamo che la corrente girerà sono durante l’intervallo di tempo t che la spira impiega
transitare dalla zona di campo nullo a quella con B ≠ 0.
Δ𝑡 =
Quindi
𝑣=
𝐿
𝑣
𝐿
Δ𝑡
Che se sostituita nell’espressione della femindotta
𝑓𝑒𝑚𝑖𝑛𝑑 =
𝐵 ∙ 𝐿2
Δ𝑡
Il termine B·L2 rappresenta una grandezza nuova, il flusso del campo magnetico indicato con (B).
attraverso il circuito. Tale flusso passa da essere nullo quando la spira è fuori dalla zona di campo al
valore B·L2 (quindi è una variazione di flusso). Questo risultato, ottenuto in un caso semplice, ha
valore generale e ci dice che ogni volta che il flusso del campo magnetico attraverso un circuito
varia nel tempo, nel circuito si induce una differenza di potenziale pari alla variazione di flusso nel
tempo
𝑓𝑒𝑚𝑖𝑛𝑑 = −
ΔΦ(𝐵)
[𝑉]
Δ𝑡
Tale legge prende il nome di legge di Lenz. Il segno meno è spiegato dall’osservazione che la
corrente indotta (che nel nostro esempio gira in senso orario) genera a sua volta un campo
magnetico (entrante nel nostro caso) che, quindi, “si oppone” alla variazione del flusso del campo
esterno. Il fenomeno si osserva (e così successe a Faraday) anche quando non c’è moto relativo ma
il campo magnetico varia nel tempo perché varia la corrente che lo genera. Osserviamo che la
67
corrente indotta dissipa energia che viene sottratta all’energia cinetica della spira (che tende a
rallentare).
Generazioni di onde Elettromagnetiche (considerazioni non del tutto corrette)
A questo punto sarebbe opportuno fare una derivazione delle equazioni di Maxwell e da quelle
ottenere l’equazione per le onde elettromagnetiche. I manuali presentano questa trattazione in
modo corretto. Le conoscenze matematica necessarie esulano da quelle degli studenti del quarto
anno della scuola superiore pertanto la riflessione seguente non ha la pretesa di essere
formalmente corretta ma vuole trasmettere un’idea.
Consideriamo la definizione di campo elettrico generato da una carica puntiforme q ad una distanza
d:
1
𝑞
𝐸(𝑑) =
∙ 2
4𝜋𝜖0 𝑑
Il termine 4𝜋𝑑 2 è la superficie di una sfera di raggio d con centro nella carica, definiamo il flusso del
campo elettrico come prodotto tra campo e superficie attraversata dal campo e otteniamo
Φ(𝐸) = 𝐸(𝑑) ∙ 4𝜋𝑑 2 =
𝑞
𝜖0
Se il flusso varia nel tempo avremo che il secondo termine diventa (almeno come unità di misura)
una corrente e quindi una sorgente di campo magnetico
ΔΦ(𝐸) Δ𝐸(𝑑)
1 Δ𝑞
1
=
∙ 4𝜋𝑑 2 = ∙
= ∙𝐼
Δ𝑡
Δ𝑡
𝜖0 Δ𝑡 𝜖0
Ricordando la legge di Biot-Savart
𝐵(𝑑) =
𝜇0 𝐼
∙
2𝜋 𝑑
Unendo abbiamo
Δ𝐸(𝑑)
1
1 2𝜋
∙ 4𝜋𝑑 2 = ∙ 𝐼 = ∙
∙ 𝐵(𝑑) ∙ 𝑑
Δ𝑡
𝜖0
𝜖 0 𝜇0
Semplificando otteniamo
Δ𝐸(𝑑)
1
∙𝑑 =
∙ 𝐵(𝑑)
Δ𝑡
𝜇0 𝜖 0
Δ𝐸(𝑑)
1 𝐵(𝑑)
=
∙
Δ𝑡
𝜇0 𝜖 0 𝑑
Ricordiamo che campo magnetico e corrente sono perpendicolari tra loro e così sono campo
elettrico e campo magnetico, l’ultima equazione ci dice che una variazione temporale del campo
elettrico è legata ad una variazione spaziale del campo magnetico, questa equazione vista insieme
68
alla legge di Lenz, dove ricordiamo che campo magnetico e corrente (quindi campo elettrico) sono
perpendicolari)
ΔΦ(𝐵)
𝑓𝑒𝑚𝑖𝑛𝑑 = −
Δ𝑡
se immaginiamo una superficie circolare raggio d otteniamo
𝐸 ∙ 2𝜋𝑑 = −𝜋𝑑 2 ∙
𝐸
Δ𝐵
= −
𝑑
Δ𝑡
Δ𝐵
Δ𝑡
Si dimostra (noi non lo facciamo) che le due equazioni sono compatibili con un’onda in cui le
grandezze che si propagano sono il campo elettrico E e il campo magnetico B, in ogni punto
dell’onda il rapporto E/B è √𝜖0 ∙ 𝜇0 . Già Maxwell osservò che il valore di questa costante non
poteva essere casuale:
𝜖0 = 8,85 ∙ 10−12 [𝐶 2 ∙ 𝑁 −1 ∙ 𝑚−2 ]
𝜇0 = 4𝜋 ∙ 10−7 [𝑁 ∙ 𝐴−2 ]
1
√𝜖0 ∙ 𝜇0
=
1
√8,85 ∙ 10−12 ∙ 4𝜋 ∙ 10−7
= 3 ∙ 108 [
=
1
√111 ∙ 10−19
=
1
3,33 ∙ 10−9
1
𝑚
] = 3 ∙ 108 [ ] ‼!
𝑠
√[𝐶 2 ∙ 𝑁 −1 ∙ 𝑚−2 ∙ 𝑁 ∙ 𝐴−2
La velocità della luce che quindi doveva essere una manifestazione elettromagnetica.
IL CIRCUITO RC
Consideriamo il circuito in figura composto da un generatore di differenza di potenziale ℰ, una
resistenza R e un condensatore di capacità C inizialmente scarico. Il circuito è aperto e quindi non è
attraversato da corrente. Alla chiusura dell’interruttore (t = 0)
inizierà a fluire una corrente I(t) (del valore iniziale 𝐼(𝑡 = 0) =
V(t)
ℰ
𝑅
,
che accumulando carica sulle armature del condensatore, si
ridurrà progressivamente diventando “asintoticamente” nulla
R
perché il condensatore non permette il passaggio della corrente.
E
La corrente fluisce attraverso la resistenza R fintanto che la
I(t)
differenza di potenziale ℰ del generatore si mantiene maggiore di
+ quella che si stabilisce ai capi del condensatore a causa
dell’accumulo delle cariche. Andiamo in dettaglio. Chiamiamo V(t)
la differenza di potenziale ai capi del condensatore di capacità C, ricordiamo che secondo la
definizione di capacità, su ciascuna armatura è accumulata una carica q(t) secondo la relazione
C
69
𝐶=
𝑞(𝑡)
= 𝑐𝑜𝑠𝑡𝑎𝑛𝑡𝑒
𝑉(𝑡)
Applichiamo la legge di Ohm alla resistenza (o se vogliamo la legge di Kirchhoff), otteniamo
𝐼(𝑡) =
ℰ − 𝑉(𝑡)
ℰ 𝑉(𝑡)
ℰ 𝑞(𝑡)
= −
= −
𝑅
𝑅
𝑅
𝑅
𝑅𝐶
Ricordando che la corrente elettrica è un flusso di carica, quindi carica diviso tempo, abbiamo
∆𝑞
ℰ 𝑞(𝑡)
=
−
∆𝑡
𝑅
𝑅𝐶
Il flusso di carica (e quindi l’accumulo di carica sul condensatore) è inizialmente uguale a quello che
si avrebbe in assenza del condensatore e si riduce all’aumentare della carica accumulata.
Osserviamo le dimensioni di RC: (V/A) x (Q/V) cioè Q/A = tempo. Il prodotto RC ha le dimensioni di
un tempo e regola quanto rapidamente la carica si accumula nel condensatore (maggiore la
resistenza minore sarà il flusso di carica, maggiore la capacità maggiore il tempo necessario per
“riempire il serbatoio di carica”). IL prodotto RC prende il nome di tempo caratteristico del circuito e
viene indicato con il simbolo c. Si può dimostrare che l’andamento della carica accumulata q(t) in
funzione del tempo è il seguente:
𝑡
𝑞(𝑡) = 𝐶ℰ (1 − 𝑒 −𝑅𝐶 ) = 𝐶ℰ (1 − 𝑒
−
𝑡
𝜏𝑐 )
Analogamente si dimostra che la corrente che fluisce nel circuito ha la seguente espressione
𝐼(𝑡) =
ℰ −𝑡
𝑒 𝑅𝐶
𝑅
Così come la differenza di potenziale ai capi del condensatore è
𝑡
𝑉𝐶 (𝑡) = ℰ (1 − 𝑒 −𝑅𝐶 )
La differenza di potenziale ai capi della resistenza sarà direttamente proporzionale alla corrente,
cioè
𝑡
𝑡
ℰ
𝑉𝑅 (𝑡) = 𝑅 𝐼(𝑡) = 𝑅 𝑒 −𝑅𝐶 = ℰ𝑒 −𝑅𝐶
𝑅
Il grafici che ne conseguono sono (ai capi del condensatore)
70
VC
Se quando il condensatore è carico viene rimosso il generatore e sostituito con un filo, si ha il
processo di scarica. La corrente fluirà nel circuito nel senso inverso a quello del processo di carica e
diminuirà lentamente secondo la stessa legge della carica.
Chiediamoci cosa rappresenta la costante tempo RC del circuito spesso indicata con la lettera c
(tau). E’ l’intervallo di tempo in cui la corrente che circola nel circuito dopo la chiusura si riduce di
un fattore 1/e (ridotta al 37%) e la tensione (differenza di potenziale) ai capi del condensatore
raggiunge il 63% del valore di tensione del generatore. Dopo un tempo pari al doppio del tempo
caratteristico (2) la corrente è scesa al 14% mentre la tensione è salita all’86%; dopo un tempo pari
al triplo (3) la corrente è scesa al 5% del suo valore iniziale e la tensione ai capi del condensatore
ha raggiunto il 95% di quella del generatore.
Lavoro di carica del condensatore.
Tra le armature di un condensatore carico c’è un campo elettrico E generato dalle distribuzioni di
carica accumulata. Per l’operazione di accumulo è richiesto lavoro da compiere contro le forze
elettrostatiche. Consideriamo il processo di carica di un condensatore. Ad un determinato istante t,
sulle armature è presente una carica e, quindi, tra le armature si è stabilita una differenza di
potenziale V(t). Per portare (aggiungere) una carica positiva q sull’armatura positiva, che ha una
differenza di potenziale V(t) rispetto a quella negativa, il lavoro necessario sarà:
∆𝐿 = 𝑉(𝑡) ∆𝑞
Nel processo di carica la differenza di potenziale ai capi del condensatore passa da zero al valore di
quella del generatore ℰ, ricordando che il rapporto tra carica accumulata e differenza di potenziale
che si stabilisce è costante (è la capacità del generatore), otteniamo che
𝐿=
1 𝑞2
1
= 𝐶 ℰ2
2 𝐶
2
L’energia spesa per caricare il condensatore non è persa, è accumulata nello spazio interno come
energia del campo elettrico. Durante la fase di carica dell’energia è stata dissipata dalla resistenza
secondo la legge di Joule. In un intervallo di tempo t l’energia spesa è
∆𝐸 = 𝑅 𝐼 2 (𝑡) ∆𝑡
71
Per determinare l’energia complessiva dobbiamo sommare i contributi su un tempo molto lungo
(infinito), l’operazione matematica si chiama calcolo integrale, dove al posto dell’intervallo di tempo
t è stato messo un intervallo di tempo piccolissimo (infinitesimo) dt e la somma è rappresentata da
quella “specie di S allungata”
∞
𝐸𝑡𝑒𝑟𝑚𝑖𝑐𝑎 = ∫ 𝑅 𝐼
∞
2 (𝑡)
𝑑𝑡 = ∫ 𝑅 (
0
0
∞
𝐸𝑡𝑒𝑟𝑚𝑖𝑐𝑎 = ∫ 𝑅 (
0
ℰ −𝑡 2
𝑒 𝑅𝐶 ) 𝑑𝑡
𝑅
ℰ −𝑡 2
𝜀 2 ∞ − 2𝑡
𝑒 𝑅𝐶 ) 𝑑𝑡 =
∫ 𝑒 𝑅𝐶 𝑑𝑡
𝑅
𝑅 0
Definendo y = 2t/RC, l’integrale può essere così riscritto
𝐸𝑡𝑒𝑟𝑚𝑖𝑐𝑎
𝜀 2 𝑅𝐶 ∞ −𝑦
1
=
∫ 𝑒 𝑑𝑦 = 𝐶 𝜀 2
𝑅 2 0
2
Una quantità di energia identica a quella accumulata nel condensatore.
Esempio numerico: in un circuito RC la resistenza ha valore R = 1 k e C = 500 F e la fem del
generatore sia ℰ = 5 𝑉, la costante tempo del circuito sarà  = RC = 1000 x 500 x 10-6 = 0,5 (s),
1
l’energia immagazzinata nel condensatore carico sarà 𝐸 = 2 𝐶 ℰ 2 = 5 × 10−4 × 25 = 0,0125 J ,
considerando un tempo dieci volte maggiore del tempo caratteristico, la potenza media erogata dal
generatore sarà 𝑃𝑜𝑡𝑒𝑛𝑧𝑎 =
𝐸
𝑡
=
0,0125
5
= 2,5 𝑚𝑊 .
Circuito RL
Un filo rettilineo percorso da corrente genera intorno a se un campo magnetico le cui linee di forza
descrivono circonferenze centrate nel filo poste su piani perpendicolari al filo. L’intensità del campo
è proporzionale all’intensità di corrente che fluisce nel filo e inversamente proporzionale alla
distanza dal filo stesso. Il verso del campo è determinato dall’orientazione delle dita della mano
destra se il pollice indica il verso della corrente. Se il filo è chiuso a formare un cerchio (spira) il
campo magnetico tende a concentrarsi nel centro della spira. Aumentando il numero di giri fatti dal
filo si rafforza il campo magnetico, si ottiene così una bobina che è il dispositivo usato per generare
campo magnetico. Si stabilisce una relazione di proporzionalità diretta tra la corrente I e il flusso del
campo magnetico all’interno della bobina (flusso = prodotto del campo magnetico all’interno per
l’area della sezione trasversa (B) = B x Area), tale costante, indicata
V(t)
con la lettera L, prende il nome di induttanza. Stante la relazione
L
Φ𝐵 = 𝐿 ∙ 𝐼
R
E
I(t)
+
-
L’unità di misura dell’induttanza sarà Txm2/A (tesla per metro quadro
diviso ampere) che prende il nome di Henry (H) dal nome di Joseph
Henry (scienziato americano del diciannovesimo secolo, inventore
dell’elettromagnete e co-inventore, insieme a Morse, del telegrafo).
72
Secondo la legge di Faraday-Neumann-Lenz una variazione di corrente in una bobina “induce” una
differenza di potenziale ai capi della bobina stessa, proporzionale alla variazione nel tempo del
flusso del campo magnetico, il verso della corrente indotta è tale da contrastare la variazione del
flusso del campo generata dalla variazione di corrente (una specie di inerzia del campo magnetico).
Tale legge è così descritta:
𝑓𝑒𝑚𝑖𝑛𝑑𝑜𝑡𝑡𝑎 = −
∆Φ
Δ𝑡
Nel caso di una bobina in cui il flusso del campo è determinato dalla corrente abbiamo
𝑓𝑒𝑚𝑖𝑛𝑑𝑜𝑡𝑡𝑎 = −𝐿
Δ𝐼
Δ𝑡
Dall’ultima relazione possiamo dare una diversa interpretazione delle unità di misura
[𝑉][𝑠]
dell’induttanza, facendo una semplice analisi dimensionale risulta [𝐿] =
= [Ω][𝑠], una
[𝐴]
resistenza per un tempo.
Consideriamo quindi un circuito composto da un generatore di fem ℰ, una resistenza R e una
induttanza L, inizialmente aperto, alla chiusura dell’interruttore la corrente non fluirà
immediatamente a causa della fem indotta che si opporrà al passaggio della corrente (la bobina,
nell’istante iniziale, si comporta come un circuito aperto). La corrente inizierà gradualmente a fluire
e raggiungerà il suo valore massimo stabilito dalla prima legge di Ohm (come se la bobina fosse
assente). Secondo la legge di Kirchhoff, ai capi della resistenza abbiamo
ℰ−𝐿
Che può essere riscritta come
∆𝐼
= 𝑅 ∙ 𝐼(𝑡)
∆𝑡
ℰ
𝐿 ∆𝐼
− 𝐼(𝑡) =
𝑅
𝑅 ∆𝑡
𝑅
∆𝐼
∆𝑡 =
ℰ
𝐿
𝑅 − 𝐼(𝑡)
La soluzione di questa relazione è la seguente
𝐼(𝑡) =
𝑅
ℰ
(1 − 𝑒 − 𝐿 𝑡 )
𝑅
La corrente è inizialmente nulla, aumenta gradualmente nel tempo fino al valore limite determinato
dalla prima legge di Ohm. Il rapporto L/R ha le dimensioni di un tempo ed è chiamato tempo
caratteristico o costante tempo del circuito RL (L). Per gli andamenti valgono le stesse riflessioni
proposte per il circuito RC. In particolare gli aspetti energetici, se nel condensatore carico si ha un
accumulo di energia legato al campo elettrico che si è generato, così nell’induttanza si ha un
accumulo di energia legata al campo magnetico che si è generato all’interno. Il lavoro speso dal
generatore per stabilire il campo è
73
𝐿𝑎𝑣𝑜𝑟𝑜 =
1
𝐿 𝐼2
2
Dove I è la corrente di regime ℰ/R. Tale energia viene dissipata dalla resistenza “dopo” la rimozione
del generatore presente nel circuito, quando la corrente non passa “istantaneamente” dal valore di
regime a zero, ma si smorza lentamente, con la solita costante tempo. La corrente che circola dopo
l’apertura del circuito prende il nome di extracorrente e, in particolari situazioni, può essere di
brevissima durata ma molto intensa specialmente se il circuito si chiude su una resistenza molto
piccola, magari diversa da quella con la quale si è caricato il solenoide.
Principio di funzionamento delle lampade a fluorescenza: consideriamo lo schema, la rete
domestica è rappresentata dai contatti a sinistra contrassegnati con F (fase), G (ground), N
(neutral). Sul contatto F c’è una tensione sinusoidale oscillante tra i valori di -300 e + 300 V (valore
efficace 220 V) con una frequenza di 50 Hz (Negli Stati Uniti troviamo 110 V 60 Hz). Sul filo della
fase troviamo un fusibile (che si interrompe in caso di eccessiva corrente) e un reattore (un bobina).
Gli estremi del tubo a fluorescenza sono inizialmente collegati in serie mediante un dispositivo
detto starter. La corrente fluisce nell’induttore, in un estremo del tubo, nello starter e nell’altro
estremo. Per effetto Joule i filamenti agli estremi del tubo e lo starter si surriscaldano, i filamenti
emettono elettroni mentre lo starter si interrompe. Il brusco cambiamento nella corrente provoca,
per la legge di Lenz, un sovraccarico di tensione al reattore che porta all’innesco di una scarica
elettrica all’interno del tubo e conseguente emissione di luce.
Come funziona un trasformatore
Il trasformatore e un dispositivo largamente usato sia in elettronica che nelle apparecchiature che
comunque funzionano con l’elettricità. La sua enorme utilità deriva dal fatto che esso consente di
variare (o, come dice il nome, di “trasformare”) il valore di una tensione, alzandola o abbassandola a
piacere, purché si tratti di una tensione alternata. Come tutte le macchine, anche i trasformatori
hanno un loro rendimento, e una piccola parte della potenza che li attraversa viene dissipata in
calore. Un trasformatore e costituito schematicamente come si vede in figura: intorno ad un nucleo
di materiale magnetico (generalmente ferro dolce), chiuso ad anello, sono realizzati due
avvolgimenti di filo di rame; il filo e smaltato ed e completamente isolato, quindi non esiste alcun
collegamento elettrico fra i due avvolgimenti ed il nucleo.
74
Tranne casi particolari, i due avvolgimenti hanno un diverso numero di spire: quello con più spire
viene in genere chiamato “primario” e l'altro “secondario”. Supponiamo di applicare al primario
(l’avvolgimento di sinistra, quello formato da più spire) la tensione alternata di 220 volt, che e quella
delle nostre case; noteremo che ai capi dell’altro avvolgimento (quello con meno spire) risulterà
presente una tensione più bassa, e questo, come già e stato detto, senza che esista alcun
collegamento elettrico fra i due avvolgimenti. Quest’ultima osservazione e molto importante,
perché mette in evidenza un altro grande pregio dei trasformatori: il circuito di uscita e
completamente isolato da quello di entrata, e quindi, anche toccando i fili dell’avvolgimento a bassa
tensione, non si corre il pericolo di entrare in contatto con la tensione di rete a 220 volt!
Vediamo adesso cosa succede nel trasformatore: quando noi diamo tensione all’avvolgimento di
sinistra, la corrente che circola nelle spire dell’avvolgimento crea un campo magnetico che varia con
le stesse caratteristiche della tensione alternata che vi abbiamo applicato; per il fenomeno detto
“induzione”, tutto il nucleo si magnetizza, e diventa sede di un campo magnetico alternato, la cui
polarità si inverte esattamente come si inverte la tensione che lo ha generato. Il fenomeno funziona
nei due sensi: - la corrente alternata che circola nelle spire fa nascere nel nucleo un campo
magnetico alternato;
- il campo magnetico alternato presente nel nucleo fa nascere, per induzione elettromagnetica, una
corrente alternata nelle spire avvolte intorno ad esso. Questo spiega quindi due principi
fondamentali:
1) applicando una tensione alternata ad uno dei due avvolgimenti, appare una tensione indotta
sull’altro avvolgimento
2) il trasformatore funziona esclusivamente con la corrente alternata, poiché solo un campo
magnetico variabile e in grado di dare origine a una corrente indotta.
Per quanto detto, un trasformatore non deve mai essere collegato ad una tensione continua: la
corrente assorbita ne brucerebbe gli avvolgimenti in pochi istanti!
Da cosa dipende il valore delle tensioni sui due avvolgimenti? Semplicemente dal numero di spire.
Se il primo ha 1000 spire e il secondo ne ha 100, la tensione che appare sul secondo e sempre un
decimo di quella che si applica sul primo.
Se per esempio applichiamo 220 volt sull’avvolgimento con 1000 spire, troviamo in uscita 22 volt
sull’avvolgimento con 100 spire, e quindi otteniamo una tensione più bassa. Ma e vero anche il
contrario: applicando 22 volt sull’avvolgimento di 100 spire, otteniamo 220 su quello di 1000 spire,
realizzando quindi una trasformazione “in salita”. Il numero di spire che occorre avvolgere non
dipende solo dalla tensione a cui deve lavorare il trasformatore, ma anche dalle caratteristiche del
75
nucleo; il flusso magnetico che si genera dipende infatti dalla sezione del nucleo stesso e dal
materiale di cui esso e fatto: senza scendere in particolari, diremo che un nucleo
avente una maggiore sezione, consente di ottenere un flusso magnetico più intenso, per cui, a
parità di tensione, si richiedono avvolgimenti formati da
meno spire; d'altra parte, esistono certi materiali magnetici
che consentono di lavorare con densità di flusso più
elevate (cioè con una induzione maggiore), ottenendo lo
stesso risultato di un nucleo di maggiori dimensioni.
In il nucleo magnetico ha una forma simile a quella
mostrata in figura accanto, ed e formato da tanti lamierini
di acciaio al silicio affiancati fino a formare un pacco dello
spessore voluto. In teoria il nucleo potrebbe essere anche
realizzato con ferro massiccio, ma l’uso di lamierini, isolati fra loro da fogli di carta, consente di
ridurre le perdite dovute alle correnti parassite; più sottili e numerosi sono i lamierini, più basse
sono le perdite. Per avere un’idea di tali perdite, diremo che con lamierini dello spessore di 0,35
mm esse ammontano a 1,3 watt per ogni chilo di peso; con lamierini di maggior spessore (0,5 mm)
le perdite salgono a 2,3 watt per chilo.
Circuito RLC
Riprendiamo le ipotesi dei due esempi precedenti: sia un circuito dove sono presenti un generatore
di fem 𝜀, una resistenza R, un condensatore C e
un’induttanza L. Il condensatore è inizialmente scarico e il
V(t)
circuito è aperto, quindi la corrente è nulla. Sia V(t) la
tensione ai capi del condensatore dopo la chiusura
L
C
dell’interruttore, applicando la legge di Ohm abbiamo
R
I(t)
E
ℰ = 𝑅 𝐼(𝑡) + 𝑉(𝑡) + 𝐿
+ -
Δ𝐼(𝑡)
Δ𝑡
Determinare l’andamento della corrente in funzione del
tempo a partire dall’ultima equazione esula dallo scopo di questi appunti, però alcune riflessioni
posso erre messe in campo: la corrente è inizialmente nulla per la presenza dell’induttanza e
asintoticamente nulla per la presenza del condensatore.
Consideriamo un piccolo intervallo di tempo t dopo la chiusura dell’interruttore durante il quale
circola una corrente I(t), sul condensatore si aumento di carica q = I(t) t, per cui ai capi si ha un
aumento della differenza di potenziale V = I(t)t/C, se potessimo sommare questi aumenti
avremmo per la tensione ai capi del condensatore la seguente espressione
𝑡
𝑉(𝑡) = ∫
0
𝐼(𝑡)
𝑞(𝑡)
𝑑𝑡 =
𝐶
𝐶
Quindi la legge di Kirchhoff risulta
76
ℰ = 𝑅 𝐼(𝑡) +
𝑞(𝑡)
Δ𝐼(𝑡)
+𝐿
𝐶
Δ𝑡
Dal momento che la corrente è un flusso di carica nel tempo possiamo riscrivere quanto sopra nel
seguente modo
ℰ=𝑅
Δ𝑞(𝑡) 𝑞(𝑡)
Δ2 𝑞(𝑡)
+
+𝐿
Δ𝑡
𝐶
Δ𝑡 2
L’andamento della carica sul condensatore in funzione del tempo può essere ottenuto
discretizzando il problema. Siano C = RC e L =L/R
ℰ
Δ𝑞(𝑡) 𝑞(𝑡) 𝐿 Δ2 𝑞(𝑡)
=
+
+
𝑅
Δ𝑡
𝑅𝐶
𝑅 Δ𝑡 2
ℰ
Δ𝑞(𝑡) 𝑞(𝑡)
Δ2 𝑞(𝑡)
=
+
+ 𝜏𝐿
𝑅
Δ𝑡
𝜏𝐶
Δ𝑡 2
Δ2 𝑞(𝑡)
1 Δ𝑞(𝑡) 𝑞(𝑡) 1 ℰ
= −
−
+
2
Δ𝑡
𝜏𝐿 Δ𝑡
𝜏𝐿 𝜏𝐶 𝜏𝐿 𝑅
Da cui è possibile ricavare
Δ𝑞(𝑡 + Δ𝑡)
Δ𝑞(𝑡) Δ2 𝑞(𝑡)
=
+
Δ𝑡
Δ𝑡
Δ𝑡
Δ𝑡 2
𝑞(𝑡 + Δ𝑡) = 𝑞(𝑡) +
Δ𝑞(𝑡)
Δ𝑡
Δ𝑡
Per determinare l’evoluzione temporale della carica sul condensatore dobbiamo individuare le
condizioni iniziali q(t=0) = 0 e q(t=0)/t = 0 (condensatore inizialmente scarico, corrente iniziale
nulla per la presenza dell’induttanza).
L’andamento della corrente in funzione del tempo può essere ottenuto discretizzando il problema.
Siano C = RC e L =L/R. Consideriamo la variazione nel tempo della tensione del generatore,
abbiamo
𝐼(𝑡)
Δ𝐼(𝑡)
Δ2 𝐼(𝑡)
0=
+𝑅
+𝐿
𝐶
Δ𝑡
Δ𝑡 2
Dividendo per R e con le sostituzioni di cui sopra abbiamo
Δ2 𝐼(𝑡)
𝐼(𝑡) 1 Δ𝐼(𝑡)
= −
−
2
Δ𝑡
𝜏𝐿 𝜏𝐶 𝜏𝐿 Δ𝑡
Da cui è possibile ricavare
77
Δ𝐼(𝑡 + Δ𝑡)
Δ𝐼(𝑡) Δ2 𝐼(𝑡)
=
+
Δ𝑡
Δ𝑡
Δ𝑡
Δ𝑡 2
𝐼(𝑡 + Δ𝑡) = 𝐼(𝑡) +
Considerando le condizioni inziali (t = 0) I(t=0) = 0 e
Δ𝐼(𝑡)
Δ𝑡
Δ𝑡
Δ𝐼(𝑡=0)
Δ𝑡
=
ε
L
, è possibile iterare le equazioni di
cui sopra e ottenere l’andamento approssimato della corrente in funzione del tempo. Nel caso di R,
C, L, 𝜀 prossimi all’unità otteniamo il seguenti grafici che rappresentano la corrente che fluisce nel
circuito (quindi la corrente nella resistenza) e la carica che si accumula sul condensatore.
Corrente I(t) [A]
Andamento della corrente dopo la chiusura dell'interruttore
1.00
0.80
0.60
0.40
0.20
0.00
-0.20
-0.40
-0.60
-0.80
-1.00
0.0
1.0
2.0
3.0
4.0
5.0
6.0
7.0
8.0
9.0
10.0
Tempo [s]
Andamento della carica dopo la chiusura dell'interruttore
0.50
Carica q(t) [C]
0.40
0.30
0.20
0.10
0.00
0.0
1.0
2.0
3.0
4.0
5.0
6.0
7.0
8.0
9.0
10.0
Tempo [s]
Osserviamo le caratteristiche principali:
- L’andamento è oscillante e il periodo (e quindi la frequenza) è poco inferiore ai 2 (s);
- L’oscillazione tende a smorzarsi perché la resistenza dissipa energia e la presenza del
condensatore impedisce (dopo tempi lunghi) il passaggio della corrente;
78
-
Osserviamo che le semionde positive hanno aree rispettivamente maggiori delle semionde
negative, ciò giustifica l’accumularsi della carica sul condensatore;
Quando la corrente è “alta” in valore assoluto significa che l’energia è accumulata
nell’induttanza sotto forma di campo magnetico;
Quando la corrente è “bassa” (cioè alla fine di una semionda) significa che l’energia è
accumulata nel condensatore sotto forma di campo elettrico
L’energia fluisce avanti e indietro tra il condensatore e l’induttanza, poiché la resistenza
dissipa, questo processo non prosegue indefinitamente ma più o meno lentamente si
smorza.
Questo sistema è analogo ad una molla verticale con massa attaccata, la massa si trova nella
posizione di riposo della molla e viene improvvisamente lasciata all’azione della forza di gravità. La
massa scenderà ed inizierà ad oscillare intorno alla posizione di equilibrio delle forze, l’oscillazione si
smorzerà per effetto dell’attrito dell’aria. In questa analogia la molla rappresenta il condensatore
(che si può scaricare e caricare), l’induttanza rappresenta la massa inerziale (l’ostacolo a modificare
la condizione di quiete o moto) e la resistenza è l’attrito dell’aria.
Abbiamo osservato che la relazione tra differenza di potenziale e corrente non è sempre lineare
come per le resistenze. In regime di corrente alternata (che non approfondiamo) è possibile
comunque determinare una relazione univoca tra differenza di potenziale e corrente (purché si
usino regimi sinusoidali e numeri complessi). Il rapporto tra la ddp e la corrente prende il nome di
Impedenza e si indica con la lettera Z.
La combinazione dei tre parametri del circuito R, C, ed L da luogo a comportamenti diversi.
(sin
istr
a)
An
da
me
nto
sov
rasmorzato: l’oscillazione è quasi del tutto assente, questa situazione si verifica con una resistenza
grande. (destra) Andamento risonante, l’oscillazione è persistente e si smorza molto lentamente,
situazione che si verifica con piccoli valori della resistenza e per particolari condizioni dei due altri
parametri.
Si dimostra (ma non lo facciamo) che la frequenza angolare per la quale le ampiezze delle
oscillazioni sono massime (frequenza di risonanza) è data da
𝜔0 =
1
√(𝐿 ∙ 𝐶)
Con capacità ed induttanze molto piccole si possono ottenere frequenza estremamente alte.
Il trasporto di segnali ad alta frequenza: il cavo coassiale
In telecomunicazioni il cavo coassiale (in inglese coaxial cable, usualmente abbreviato in coax) è un
mezzo trasmissivo di segnali informativi, appartenente alle linee di trasmissione e molto usato nelle
79
comunicazioni elettriche. È composto da un singolo conduttore di rame posto al centro del cavo
(anima) e da un dielettrico (generalmente in polietilene o PTFE) che separa l'anima centrale da uno
schermo esterno costituito da fili metallici intrecciati (maglia) o da una lamina avvolta a spirale,
garantendo costantemente l'isolamento tra i due conduttori. Lo schermo di metallo aiuta a bloccare
le interferenze. Il cavo è munito poi di connettori ai suoi estremi di connessione.
Il segnale viaggia sotto forma di campo elettromagnetico tra l'anima e la maglia ad una velocità v
che è una frazione di quella della luce nel vuoto e pari a c/n con n indice di rifrazione del dielettrico
frapposto. L'analisi della propagazione del campo elettromagnetico nel cavo coassiale fa parte della
teoria delle linee di trasmissione, mentre l'effetto di convogliamento è paragonabile a quello di una
guida d'onda metallica. I cavi coassiali vengono prodotti in diverse tipologie in funzione della
frequenza del segnale da trasportare e della potenza dello stesso. I valori di impedenza sono
principalmente due:
 50 ohm, utilizzato per le trasmissioni digitali (come le prime versioni della rete Ethernet) o
radioamatoriali, nonché per segnali standard nel campo degli strumenti di misura elettronici;
 75 ohm, utilizzato per il segnale video analogico, per la televisione (collegamento con
l'antenna di ricezione terrestre o satellitare) e per le connessioni Internet via cavo.
Esistono anche cavi con impedenza caratteristica di 93 ohm e 105 ohm utilizzati per reti di
connessione dati. Una tipologia particolare, caratterizzata da estrema flessibilità e buona resistenza
allo strappo, è utilizzata nelle sonde per oscilloscopio.
Il cavo coassiale, nato per le trasmissioni analogiche e simile al cavo che trasporta i segnali radio e
TV su lunghe distanze, fu in seguito adattato alla comunicazione dati digitali. I dati digitali sono
molto più suscettibili rispetto ai dati analogici al rumore e alle distorsioni di segnale che vengono
introdotte quando i segnali viaggiano su grandi distanze.
Cavo coassiale RG-59
A: guaina esterna di plastica
B: maglia di rame intrecciata o massa
Quindi, le reti che usano come mezzo trasmissivo il cavo coassiale possono estendersi solo per
distanze limitate a meno che non vengano utilizzati dei ripetitori di segnale che rigenerano il
segnale periodicamente (repeater). Semplici amplificatori non sarebbero adatti, perché questi
amplificherebbero anche il rumore e la distorsione che il segnale raccoglie mentre viaggia sul
mezzo. Per molto tempo il cavo coassiale è stata inoltre la sola scelta economica da usare nella
cablatura di reti locali ad alta velocità perché rispetto al classico doppino garantisce una capacità di
banda e dunque una velocità di trasmissione superiore. Gli svantaggi di installare e mantenere un
sistema in cavo coassiale includono il fatto che il cavo è complesso e costoso da fabbricare, è
80
difficile da utilizzare in spazi confinati in quanto non può essere piegato eccessivamente intorno ad
angoli stretti ed è soggetto a frequenti rotture meccaniche ai connettori. Va però segnalata l'alta
resistenza all'interferenza del segnale. In tali ambiti il cavo coassiale è stato soppiantato dalla fibra
ottica e dalle relative comunicazioni ottiche.
Generazione di Onde ElettroMagnetiche
Antenna a dipolo
Dal circuito LC all’antenna a dipolo (fonte Wikipedia). Nel circuito LC (a sinistra) il campo elettrico è concentrato
nel condensatore mentre quello magnetico nell’induttanza. Consideriamo la deformazione progressiva del
condensatore da forma chiusa a forma aperta. Il campo elettrico si espande in zone sempre più lontane dal
condensatore così come il campo magnetico, inizialmente confinato nella bobina, si sposta gradualmente anche
intorno al campo elettrico, generando un’onda elettromagnetica
81
Esempio di antenna a dipolo su un palo
In telecomunicazioni l'antenna a dipolo (o più semplicemente dipolo) è il più semplice tipo di
antenna per le comunicazioni radio, costituito da due bracci uguali aperti realizzati con un
conduttore elettrico lineare su cui scorrono le correnti elettriche che irradiano il campo
elettromagnetico a distanza.
Il dipolo hertziano è la sorgente utilizzata da Heinrich Rudolf Hertz nel 1887 per compiere i suoi
celebri esperimenti di rilevazione sperimentale delle onde elettromagnetiche, previste
teoricamente da Maxwell a partire dalle sue equazioni. È costituito da un conduttore elettrico
filiforme di lunghezza molto minore della lunghezza d'onda del segnale elettrico in ingresso,
collegato a due sfere metalliche che fungono da serbatoi per le cariche. Esso di fatto è un tipo di
antenna a dipolo.
Il dipolo equivalente di antenna è il dipolo hertziano con cui si può sostituire un'antenna senza
variare il campo elettromagnetico irradiato dall'antenna stessa.
Classificazione
Appartiene in generale alla categoria delle "antenne filari" e può essere classificato nei seguenti
modi:
In base alla lunghezza assoluta del filo conduttore radiante:
 "dipolo elementare" ovvero costituito da un filo conduttore con lunghezza infinitesima su cui
scorre una densità di corrente J. Si tratta dunque di un'astrazione ideale.
 "non elementare" ovvero con lunghezza finita del conduttore con lievi differenze in termini
di irradiazione. È il caso tipicamente reale.
In base alla lunghezza del filo conduttore radiante rispetto alla lunghezza d'onda λ o
equivalentemente alla frequenza del segnale elettrico dell'alimentazione:
 "a semionda": lunghezza del conduttore pari a λ/2. È il tipo di dipolo più diffuso in virtù del
funzionamento in condizioni di risonanza e quindi massima efficienza di radiazione potendo
essere anche facilmente adattato con la linea di trasmissione di alimentazione.
 "a onda intera": lunghezza del conduttore pari a λ.
 "a 3/2 dell'onda": lunghezza del conduttore pari a 3λ/2.
In base alla disposizione del filo conduttore radiante:
 "lineare" se il filo conduttore è un segmento di retta perpendicolare all'alimentazione.
 "non lineare" se il segmento non è rettilineo ovvero un "dipolo ripiegato" o a V invertita.
La lunghezza del conduttore radiante del dipolo è quindi in stretta relazione con i parametri
operativi/applicativi in termini di frequenza e quindi di lunghezza d'onda dell'onda elettromagnetica
irradiata/captata: tanto maggiore è la lunghezza del conduttore tanto maggiore è la lunghezza
d'onda e minore la frequenza operativa centrale dell'onda captata/emessa e viceversa. Tuttavia
grazie a particolari implementazioni si riescono ad ottenere antenne a dipolo che irradiano/ricevono
82
a diverse bande centrate su rispettive frequenze di risonanza come nel caso delle antenne per
telefoni cellulari.
Se si combinano tra loro più elementi o dipoli allineati lungo un asse si ottiene un'antenna ad array.
Caratteristiche
Tipico diagramma di radiazione a forma
toroidale di un'antenna a dipolo; si nota la
quasi totale omnidirezionalità
La caratteristica fondamentale del dipolo è la forte "omnidirezionalità" di irradiazione/ricezione del
suo "diagramma di radiazione" con dei nulli di radiazione solo nell'intorno degli estremi dell'asse del
dipolo stesso: tale caratteristica è sfruttabile in molti tipi di applicazioni di radiocomunicazione. Le
caratteristiche approssimate di quasi-omnidirezionalità possono essere ulteriormente incrementate
ricorrendo a più antenne a dipolo ad esempio con 3 dipoli ciascuno dei quali disposto lungo un asse
cartesiano.
Realizzazione
Il dipolo è diviso in due rami lineari di pari lunghezza collegati insieme nella parte centrale, dalla
quale viene prelevato il segnale tramite un cavo coassiale e viene portato al dispositivo sorgente in
caso di trasmissione o ricevente in caso di ricezione. La lunghezza del conduttore del dipolo misura
complessivamente circa la metà della lunghezza d'onda, nel caso di dipolo a semionda,
corrispondente alla frequenza utilizzata. Ad esempio, volendo realizzare un dipolo per ascoltare le
stazioni di radiodiffusione nella banda dei 31 m (banda di frequenze da 9400 a 9900 kHz), la
lunghezza dell'antenna (calcolata per il centro della banda di trasmissione) deve essere di circa
15,5 m.
Una semplice antenna a dipolo, a semi onda
La connessione all'apparato radio è normalmente realizzata con un cavo coassiale, il quale rappresenta una
linea sbilanciata, mentre il dipolo è un'antenna bilanciata e per adattare le due linee viene solitamente
interposto un balun (adattatore di linea balanced - unbalanced). L'assenza del balun renderebbe la calza del
cavo coassiale parte dell'antenna alterando il lobo di radiazione e causando interferenze nelle
apparecchiature poste nelle vicinanze della linea. Per ottenere buone prestazioni con questa antenna, sia in
trasmissione che in ricezione, la si deve posizionare ad un'altezza di almeno mezza lunghezza d'onda.
83
Esempio di un sistema (detto anche cortina) di antenne direttive Yagi
per radiodiffusione, un sistema è composto da 2 o più antenne
collegate tra loro tramite degli accoppiatori; le antenne direttive Yagi
sono composte da un dipolo e da uno o più elementi riflettori e
direttori
Il dipolo può essere orientato orizzontalmente, verticalmente oppure può essere anche inclinato
rispetto al terreno (in questo caso si parlerà di dipolo a V invertita). L'orientamento determina la
polarizzazione del campo elettromagnetico trasmesso e si ottiene il massimo segnale quando la
polarizzazione dell'antenna ricevente è identica a quella dell'antenna trasmittente (adattamento di
polarizzazione). Se la differenza tra le due polarizzazioni è di 90 gradi si ha invece la massima
perdita, pari a circa 20 dB (cioè il 99% del segnale potenziale). La corretta polarizzazione è
importante solo per le comunicazioni per onda di terra o riflessione lunare in quanto la ionosfera
modifica la polarizzazione dei segnali in modo casuale e dunque essa non è un fattore critico per le
comunicazioni su onde corte (HF).
Il ripiegamento del dipolo ha effetti anche sull'adattamento di impedenza tra dipolo stesso e linea di
alimentazione. L'impedenza caratteristica del dipolo è infatti di circa 75 Ohm, quando i suoi bracci
sono posizionati paralleli al piano di massa o al terreno, se trattasi di filare per bande HF, e visto che
i normali cavi coassiali usati per alimentare questo tipo di antenne hanno invece un'impedenza
caratteristica di circa 52 ohm, si tende a modificare la posizione degli elementi in modo che formino
angoli inferiori a 180° (dipolo a V invertita) per ottenere l'adattamento: portandoli a 120° si ha
un'impedenza nel punto di alimentazione prossima ai 52 ohm, abbassando ancora l'angolo si scende
a 35 ohm. In casi particolari, per portare l'impedenza caratteristica vicina ai 52 ohm si utilizzano
degli adattatori di impedenza che sono solitamente inseriti nel punto di alimentazione dall'antenna,
ma qualora ciò fosse possibile, gli adattatori possono trovarsi nel punto di origine della
radiofrequenza in modo da dare all'emettitore l'impedenza corretta, ma lasciando l'antenna
disadattata elettricamente ottenendo per cui uno scarso rendimento o efficienza. Oltre a ridurne
l'impedenza, inclinando i rami del dipolo si ottiene una diminuzione della frequenza di risonanza e
della banda passante dell'antenna e la lunghezza del dipolo deve essere diminuita.
Poiché a volte si hanno difficoltà pratiche nella realizzazione dei due bracci del dipolo tenuti separati
tra loro con alimentazione al centro, ricorrendo al cosiddetto metodo delle immagini è possibile
sostituire un braccio del dipolo con una superficie metallica o un insieme di bracci metallici disposti
su una superficie piana perpendicolare all'altro braccio del dipolo ottenendo così in maniera più
versatile un "monopolo" (è il caso delle antenne dei veicoli stradali) il quale presenta caratteristiche
di equivalenza in termini di irradiazione del dipolo originario con la sola differenza che la potenza
elettromagnetica irradiata, a parità di intensità di corrente, risulta dimezzata.
La caratteristica di ottima omni-direzionalità del dipolo è sfruttabile in trasmissione in tutti i tipi di
telediffusione, in trasmissione e ricezione nelle radiodiffusioni (si pensi alle antenne di ricezione
84
radio delle vetture), nelle reti cellulari sia nei tipi più semplici di stazioni radio base sia nei ricevitori
ovvero i telefoni cellulari per poter trasmettere e ricevere da qualunque posizione rispetto alla BTS,
nei telefoni cordless domestici, nei sistemi radio walkie-talkie, nelle antenne di ricezione per TV non
connesse alle usuali antenne di ricezione televisiva sui tetti, nei sistemi di automazione dei cancelli,
dai radioamatori ecc.
Teorema di reciprocità
Un’antenna è un dispositivo che ha la funzione di trasduttore per operare la trasformazione di una
segnale elettrico in energia radiante, oppure di effettuare al conversione inversa. La singola antenna
può essere caratterizzata da una serie di parametri. Uno dei più significativi è il diagramma di
irradiazione nel quale si riporta, nelle varie direzioni, la radiazione relativa che l’antenna emette. Il
diagramma di ricezione rappresenta invece la risposta relativa dell’antenna alla radiazione
elettromagnetica incidente nelle diverse direzioni. Il teorema di reciprocità afferma che il
diagramma di irradiazione e quello di ricezione coincidono.
Guadagno di antenna
Il guadagno di antenna è definito come rapporto tra la potenza irradiata da un’antenna in una certa
direzione (di solito si intende la direzione di massima irradiazione) e quella irradiata dall’antenna di
riferimento; tale antenna di riferimento è l’antenna isotropa ideale o il dipolo a semionda. Se, per
esempio un’antenna ha un guadagno G = 20 dB rispetto al radiatore isotropo avremo
𝐺 = 10 𝐿𝑜𝑔 (
𝑃
) = 20 [𝑑𝐵𝑖 ]
𝑃𝑖𝑠𝑜
E quindi
𝑃 = 100 𝑃𝑖𝑠𝑜
Se invece i riferimento è il dipolo a semionda il guadagno si esprime in [dBd], poiché il dipolo ha già
un guadagno di 2,14 [dBi], abbiamo la seguente relazione
𝐺𝑖 [𝑑𝐵𝑖 ] = 𝐺𝑑 [𝑑𝐵𝑑 ] + 2,14
Campo elettrico in funzione della distanza
Lo studio della propagazione delle onde radio non è questione semplice, molti fattori influenzano il
fenomeno. Una condizione semplificata per avere una valutazione del campo è quella di
considerare un’antenna in campo aperto (senza riflessioni e assorbimenti), il campo elettrico E 0 sarà
𝐸0 =
√30 ∙ 𝐺 ∙ 𝑃
𝑑
G: guadagno di antenna in potenza rispetto al radiatore isotropo
P: potenza irraggiata
d: distanza in metri dall’antenna
85
Il dipolo a semionda e il relativo diagramma di irradiazione
Un paio di teoremi e il campo elettrico delle punte
Il campo elettrico generato da una carica puntiforme +Q1 alla distanza r nel vuoto, è radiale (nel senso che
dipende dalla sola distanza r ed è diretto come i raggi che escono dalla carica, l’intensità ha la seguente
espressione:
𝐸1 (𝑟) =
1 𝑄1
4𝜋𝜀0 𝑟 2
Introduciamo la grandezza “flusso del campo elettrico” come il prodotto del campo E per la superficie S che
esso attraversa
Φ𝐸 (𝑆) = ∫ 𝐸 𝑑𝑆
Se consideriamo una superficie chiusa sferica S di raggio r centrata nella carica Q1, per il flusso di E otteniamo
Φ𝐸 (𝑆) =
1 𝑄1
𝑄1
4𝜋𝑟 2 =
2
4𝜋𝜀0 𝑟
𝜀0
Questa relazione ha carattere generale, prende il nome di teorema di Gauss e può essere riassunta nel
seguente modo: “il flusso del campo elettrico attraverso una superficie chiusa è uguale alla carica contenuta
all’interno della superficie (diviso 0)”. Le applicazioni di questo semplice teorema sono innumerevoli. Esso
permette di calcolare il campo attraverso considerazioni di simmetria e la conoscenza della posizione delle
cariche. Ad esempio ci dice che il campo elettrico all’interno di un conduttore cavo in equilibrio è nullo (e la
cosa non può non sorprendere), con considerazioni simili si deduce che anche il campo all’interno di un
conduttore pieno è nullo così come il campo generato all’esterno di una sfera carica è analogo al campo
generato da un carica puntiforme del valore della carica totale della sfera e posta nel centro della sfera
stessa.
Consideriamo il caso di un conduttore sferico di raggio r1 e carico con una carica +Q1 in equilibrio, la carica,
per simmetria, è distribuita omogeneamente sulla superficie, pertanto possiamo definire la densità
superficiale si carica 
𝜎1 =
𝑄1
4𝜋𝑟12
Quindi, considerando il teorema di Gauss con superfice quella della sfera abbiamo
86
1 𝑄1
𝑄1
𝜎1 4𝜋𝑟12
2
4𝜋𝑟
=
=
4𝜋𝜀0 𝑟 2
𝜀0
𝜀0
Φ𝐸 (𝑆) = 𝐸1 4𝜋𝑟 2 =
𝜎1
𝜀0
𝐸1 =
→ 𝜎1 = 𝜀0 𝐸1
Anche questo teorema ha valenza generale (Teorema di Coulomb) e afferma che il campo elettrico in
prossimità di un conduttore è proporzionale alla densità superficiale di carica.
Chiediamoci ora quanta energia serve per aggiungere una carica q alla nostra sfera partendo dall’infinito. Si
tratta di sommare infiniti lavori elementari (infinitesimali) partendo dall’infinto fino alla distanza r1 dal centro
della sfera. Poiché il campo fuori dalla sfera è uguale a quello generato da una carica puntiforme per il
calcolo del lavoro abbiamo:
𝑟1
𝑟1
𝐿 = ∫ −𝐹 𝑑𝑟 = ∫ −
∞
∞
1 𝑄1
1 𝑄1
𝑟
𝑞 𝑑𝑟 =
𝑞 |∞1
2
4𝜋𝜀0 𝑟
4𝜋𝜀0 𝑟
Si associa a questo lavoro il concetto di potenziale della sfera come il rapporto tra il lavoro (calcolato come
sopra) e la carica q, quindi la nostra sfera, carica, assume un potenziale rispetto all’infinto
𝑉=
𝐿
1 𝑄1
=
[𝑉]
𝑞 4𝜋𝜀0 𝑟1
Analogamente possiamo definire la capacità C del conduttore come il rapporto tra la carica e il potenziale
assunto rispetto all’infinito
𝐶=
𝑄
=
𝑉
𝑄1
= 4𝜋𝜀0 𝑟1
1 𝑄1
4𝜋𝜀0 𝑟1
Potere delle punte e il parafulmine
Consideriamo ora il caso di due sfere cariche (raggio r1
e r2 con r1 > r2) collegate tra loro da un sottile filo (in
modo da non alterare il campo ma mantenerle allo
stesso potenziale), ci chiediamo come si distribuirà la
carica sulle due sfere in modo da avere il medesimo
potenziale rispetto all’infinito, avremo quindi
Q1/r1 = Q2/r2  E2 = (r1/r2)E1
r1
r2
𝑉=
𝑄1
𝑄2
𝑄1
𝑄2
=
=
=
𝐶1
𝐶2 4𝜋𝜀0 𝑟1
4𝜋𝜀0 𝑟2
𝑄1
𝑄2
=
𝑟1
𝑟2
Utilizzando il teorema di Coulomb abbiamo
𝜎1 4𝜋𝑟12
𝜎2 4𝜋𝑟22
=
𝑟1
𝑟2
𝜎1 𝑟1 = 𝜎2 𝑟2
𝐸1 𝑟1 = 𝐸2 𝑟2
𝐸2 =
𝑟1
𝐸
𝑟2 1
87
Il campo elettrico in prossimità della sfera più piccola sarà “maggiore” di quello in prossimità della sfera più
grande di un fattore r1/r2, quindi, a parità di potenziale, tanto più è piccola la sfera e tanto maggiore sarà la
sua densità di carica e quindi il campo in prossimità della sua superficie.
Una punta può essere pensata come una superficie con curvatura molto piccola così come una superficie
piana è immaginabile come una superficie sferica con raggio di curvatura molto grande.
E grande alta densità di carica  capacità di ionizzare l’aria circostante
Collegamento
Il parafulmine è un’asta metallica
appuntita collegata elettricamente a terra.
L’asta si carica elettricamente per
induzione sotto l’azione delle nuvole
(caricate a loro volta per strofinio). La
densità di carica è massima in prossimità
della punta. L’aria circostante (per urto
con la punta stessa) tende a ionizzarsi
caricandosi come la punta e subendo
l’attrazione delle nuvole. Si produce un
flusso di carica che tende a neutralizzare la
ddp che si stabilisce tra nuvole e terra. In
caso contrario si genera una scarica
a terra
88
Sorgenti di campo EM
Possiamo affermare che esistono due categorie di sorgenti di campi elettromagnetici, quelle
naturali e quelle artificiali. Le prime sono quelle presenti in natura, mentre le seconde sono
prodotte dall’uomo. Analizziamo nel dettaglio:
Le sorgenti naturali possono essere classificate in quattro tipologie:
1. la radiazione solare, che quotidianamente incide sulla superficie terrestre, è costituita da onde
elettromagnetiche ad ampio spettro di frequenza.
2. il campo magnetico terrestre, che può essere considerato un campo quasi statico, avente delle
piccole variazioni quotidiane, annuali e ogni undici anni; esso è prodotto da correnti elettriche che
circolano negli strati profondi della terra.
3. le correnti biologiche che sono presenti nei tessuti viventi, nei quali permettono lo svolgimento di
tutte le funzioni fisiologiche.
4. le scariche atmosferiche, sono fenomeni di natura elettrostatica e sono dovuti all’accumulo di
altissime concentrazioni di cariche nelle nubi e conseguentemente elevatissime differenze di
potenziale elettrico rispetto alla superficie terrestre. Quando tale differenza di potenziale (ddp)
raggiunge livelli tanto elevati da rompere il dielettrico tra le nubi ed un punto della superficie
terrestre si forma il fulmine. Durante la scarica si genera un improvviso ed intensissimo passaggio di
cariche elettriche dal punto a potenziale elettrico più elevato (di solito la nube) al terreno, si forma
cioè una corrente elettrica di intensità molto elevata. Il passaggio impulsivo di corrente elettrica
genera la manifestazione di forti campi elettromagnetici in un ampio spettro di frequenze.
Le sorgenti artificiali possono essere classificate essenzialmente in tre tipologie:
1. le linee e gli impianti per la distribuzione dell’energia elettrica, che portano ad un incremento del
campo elettrico e magnetico a bassa frequenza.
2. gli impianti per le telecomunicazioni tv, radio e telefonia cellulare che hanno incrementato il
livello ambientale di campo elettromagnetico nell’ambito delle radiofrequenze e delle microonde.
3. l’uso di apparecchi elettrici, sia nelle case sia in ambito lavorativo, che porta ad un aumento
dell’esposizione personale, dell’intero corpo o di qualche sua parte.
89
Effetti biologici dei campi elettromagnetici
I campi elettromagnetici a bassa frequenza ELF, dall’inglese Extremly Low Frequency, sono campi
elettrici (E) e magnetici (B) oscillanti a frequenze comprese tra 0 – 300Hz. Questi campi rientrano
nella gamma delle radiazioni non ionizzanti, sono cioè caratterizzati da un’energia insufficiente ad
indurre fenomeni di ionizzazione o rompere legami macromolecolari. I campi ELF d’origine naturale
sono estremamente bassi, rispettivamente dell’ordine di 0,0001 V/m e 0,0001 T (50/60 Hz) è
associata alla produzione, trasmissione ed uso dell’energia elettrica. Fino a qualche decennio fa tali
radiazioni non erano considerate in grado di interagire con i sistemi biologici. Con il passare degli
anni sono stati condotti diversi studi e sono state portate evidenze di molti effetti biologici
dell’esposizione ai campi elettromagnetici, anche se persistono opinioni contrastanti sulle possibili
conseguenze avverse per la salute. Quando un organismo biologico viene immerso in un campo
elettromagnetico si ha una perturbazione dell’equilibrio elettrico a livello molecolare, in quanto tali
campi generano correnti e campi elettrici variabili nel tempo che a loro volta inducono una
stimolazione diretta delle cellule eccitabili, come quelle dei tessuti nervoso e muscolare. Una prima
e importante distinzione va fatta tra:
EFFETTI BIOLOGICI e EFFETTI SANITARI.
90
Quest’aspetto è stato precisato dall’OMS - Organizzazione mondiale della sanità – nel Promemoria
n° 182 del 1998:
 Si verifica un effetto biologico quando l’esposizione alle onde elettromagnetiche provoca
qualche variazione fisiologica notevole o rilevabile in un sistema biologico
 Si ha invece un effetto sanitario (di danno alla salute) quando l’effetto biologico è tale da
non poter essere compensato naturalmente dall’organismo, portando a qualche condizione
di danno alla salute, intesa come stato di completo benessere fisico-mentale e sociocomportamentale.
Gli effetti biologici sono a loro volta distinti in DIRETTI e INDIRETTI: gli effetti diretti risultano
dall’interazione diretta dei campi con il corpo del soggetto esposto; quelli indiretti implicano
l’interazione con oggetti ad un potenziale elettrico diverso da quello del corpo. Esistono due
possibili meccanismi di accoppiamento indiretto: correnti di contatto, che risultano dal contatto con
un oggetto a diverso potenziale, e accoppiamento con strumentazione medica impiantata in un
individuo, come pacemaker e protesi.
Il termine “effetto biologico” viene utilizzato in modo neutro sia per indicare effetti positivi, come la
stimolazione tissutale che si applica per migliorare ad esempio la guarigione di fratture ossee, sia
per effetti negativi, come l’induzione di tumori o la produzione di danni ai sistemi nervoso,
immunitario, cardiovascolare e riproduttivo.
Tra gli effetti sanitari si distinguono effetti:


a breve termine o immediati, di natura acuta o deterministica, effetto con presenza di soglia
di esposizione.
a lungo termine o stocastici, di natura cronica, senza la presenza di soglia (classico esempio
è l’insorgenza di tumori).
Si deduce facilmente da questa distinzione che per gli effetti con soglia di esposizione la protezione
è molto semplice, basta infatti limitare l’esposizione all’agente nocivo ad un valore inferiore a quello
di soglia perché l’effetto non si verifichi.
Allo stato attuale si hanno conoscenze certe solo per quanto concerne gli effetti acuti di natura
deterministica, per gli effetti cronici sono necessari ulteriori studi.
Effetti acuti e cronici possono essere diversi a seconda della frequenza (f):
 effetto acuto con f < 100 Hz: abbiamo un’interferenza delle correnti indotte con i
meccanismi fisiologici di attivazione muscolare e della percezione sensoriale, quindi per
esposizioni sufficientemente intense si possono verificare sensazioni tattili o visive
disturbate o contrazioni muscolari involontarie;
 effetto cronico con f < 100 Hz: si possono verificare sintomi soggettivi come cefalee ed
insonnia e sintomi oggettivi come malattie degenerative e tumori;
 effetto acuto con f > 100 Hz: sono dovuti al riscaldamento locale dei tessuti provocati per
effetto Joule delle correnti indotte;
 effetto cronico con f > 100Hz: si hanno degli effetti a livello del sistema nervoso centrale e
sugli apparati circolatorio, neurovegetativo e neuroendocrino.
91
Proprietà elettromagnetiche dei tessuti biologici
In ambito elettromagnetico i tessuti biologici sono caratterizzati, alla stregua di altri materiali, dalle
grandezze macroscopiche quali la conducibilità elettrica () la permeabilità elettrica() e la
permeabilità magnetica () che dipendono dalla frequenza.
Nei meccanismi d’interazione sono rilevanti i fenomeni di cessione dell’energia del campo
elettromagnetico al tessuto. L’energia del campo è ceduta alle cariche elettriche (elettroni, ioni,
molecole dipolari e unipolari) che sono poste in movimento. Durante il loro moto le cariche
collidono con le altre molecole del tessuto trasformando così la loro energia meccanica in calore. Le
cariche elettriche, a seconda della loro massa, reagiscono più o meno rapidamente alle variazioni
del campo, dando così luogo a diversi fenomeni che dipendono dalla frequenza. In generale i tessuti
biologici sono materiali non ferromagnetici, la loro permeabilità magnetica (m) è praticamente
uguale a quella dell’aria. La permettività elettrica (e) varia invece con la frequenza e con il tipo di
tessuto umano. Al di sotto del MHz il tessuto umano ha un comportamento anisotropico, la
conduttività varia cioè da una direzione all’altra. Generalmente la permettività decresce
all’aumentare della frequenza. In generale i tessuti biologici non presentano proprietà magnetiche e
possono quindi essere considerati “trasparenti” al campo magnetico. Un buon conduttore riflette
quasi completamente le onde elettromagnetiche e dissipa energia a causa delle correnti indotte che
in esso si producono. Al contrario, un dielettrico è quasi completamente trasparente alle onde
elettromagnetiche, ma può immagazzinare una parte di energia. Il corpo umano, in una certa
misura, può fare entrambe le cose. Il suo comportamento, conduttore o dielettrico, è descritto da
due grandezze fondamentali:
Conducibilità elettrica
Costante dielettrica assoluta


[(m)-1 = S/m]
[C2/N m2]
Viene definito fattore di dispersione (o tangente di perdita) per valutare se un tessuto è più o meno
un buon conduttore, la quantità
tan 𝛼 =
𝜎
2𝜋 𝜀 𝑓
dove f è la frequenza dell’onda.
Un tessuto si comporta tanto più da buon conduttore quanto più è elevato il valore di tan, alle
basse frequenze, quindi, possiamo assimilare tali tessuti a buoni conduttori.
I modelli dosimetrici costituiscono gli strumenti fisico matematici che permettono di risalire dalle
grandezze derivate, campo elettrico e magnetico, a quelle primarie, densità di corrente indotta e
distribuzione superficiale di carica (per campi con frequenza fino a 50 Hz), una volta note le
condizioni di esposizione e le caratteristiche del campo.
L’IRPA-INIRC ha definito dei limiti primari, espressi cioè da una grandezza dosimetrica, direttamente
correlabile agli effetti biologici osservabili. Tali grandezze sono il SAR (Specific Absorption Rate)
92
(W/Kg), per esposizione a campi elettromagnetici ad alta frequenza, e la densità di corrente J(A/m2)
indotta nel corpo umano, per campi a bassa frequenza.
La densità di corrente indotta, dall’esposizione ad un CEM di bassissima frequenza, è la grandezza
fisica maggiormente correlata all’effetto biologico di tipo acuto. Essendo però interna ai tessuti non
è possibile misurare nell’uomo, in condizioni reali di esposizione, il valore di tale grandezza primaria
se non con metodi invasivi, è stato pertanto necessario sviluppare dei modelli fisici e numerici
attraverso i quali tale grandezza possa essere correlata al campo elettrico e magnetico, che essendo
esterni al corpo umano risultano direttamente misurabili. Si parla di limiti secondari facendo
riferimento quindi a valori limite di campo elettrico E(V/m), campo magnetico H(A/m) e densità di
potenza incidente (W/m2).
Campo elettromagnetico ad alta frequenza
A frequenze superiori ai 100Hz, il meccanismo d’interazione CEM – materia, consiste principalmente
nell’assorbimento dell’energia elettromagnetica incidente. Il modello più semplice per lo studio dei
meccanismi d’accoppiamento alle alte frequenze sfrutta l’ipotesi che le dimensioni del soggetto
esposto siano molto maggiori della lunghezza d’onda. Si ha quindi che una parte della radiazione in
arrivo viene riflessa ed un’altra parte penetra nel materiale biologico, depositandovi potenza e
attenuandosi quindi esponenzialmente. La profondità di penetrazione è inversamente
proporzionale alla frequenza del campo e alla conducibilità elettrica del tessuto esaminato (quindi
proporzionale alla lunghezza d’onda). Più alta è la frequenza meno profondamente penetra nel
corpo, depositando tutta l’energia negli strati superficiali. La grandezza dosimetrica che meglio
descrive lo scambio energetico che c’è tra radiazioni elettromagnetiche e materia vivente è il SAR,
cioè la quantità di energia ceduta nell’unità di tempo divisa per la massa corporea (W/Kg).
𝑆𝐴𝑅 =
2
𝜎𝐸𝑖𝑛𝑡
𝜌
 = coducibilità del tessuto (S/m)
Eint = campo elettrico indotto internamente (V/m)
 = del tessuto (Kg/m3)
L’energia elettromagnetica viene dissipata nel corpo sotto forma di calore: ed è proprio il
riscaldamento dei tessuti a provocare effetti nocivi per la salute nel caso di CEM ad alta frequenza.
I valori di SAR indicati dall’ICNIRP come limiti sono 0,4 W/Kg per lavoratori e 0,08 W/Kg per la
popolazione.
Campo elettromagnetico a bassa frequenza
L’esposizione a campi elettrici e magnetici di bassa frequenza implica un assorbimento trascurabile
di energia elettromagnetica con, di conseguenza, un aumento non apprezzabile della temperatura
corporea. In questo caso l’unico effetto da considerare è l’induzione di correnti all’interno del
corpo. L’approssimazione adottata comunemente è quella statica, che ci permette di considerare i
campi elettrico e magnetico disaccoppiati. Le condizioni applicabili fino a 50-100 kHz che
consentono di affrontare il problema dei due campi separatamente devono essere:
93
-
dimensioni dell’oggetto esposto molto minori della lunghezza d’onda
dimensioni e distanza piccole rispetto alla lunghezza d’onda o alla profondità di
penetrazione
i tessuti biologici devono poter essere considerati buoni conduttori
Vediamo come si procede.
Accoppiamento ai campi elettrico e magnetico
Campo elettrico
Consideriamo un corpo immerso in un campo elettrico, vogliamo calcolare il valore del campo
internamente al corpo; a tale scopo bisogna distinguere il campo nella sua componente tangenziale
(Et) e nella sua componente normale (En) alla superficie di separazione dei due mezzi.
Per le componenti tangenziali sarà valida la seguente uguaglianza nei due mezzi:
Et1 = Et2
e per le componenti normali risulterà:
1En1 = 2 En2
considerando i valori di s nell’aria e nel tessuto biologico aria=10-13 ,biologico=10-1), la componente
delle linee di forza che risulta predominante sarà quella perpendicolare alla superficie di
separazione tra l’interno e l’esterno del corpo.
Per i campi statici il rapporto tra i valori esterno ed interno, in queste condizioni, di E è circa 10 -12. a
50 Hz diventa dell’ordine di 10-8.
Poiché in realtà il campo elettrico dovuto ad un CEM non è costante, ma varia nel tempo in modo
sinusoidale, si generano delle correnti indotte, che costituiscono la primaria conseguenza
dell’esposizione.
La loro intensità è proporzionale alla frequenza e all’ampiezza del campo elettrico secondo la
seguente formula:
Jind=AE f E
La costante AE dipende dalla dimensione e dall’orientamento del corpo, ma soprattutto dal
particolare tessuto considerato, vale circa 3x10-9 [As/Vm] in zone come la testa o la regione
cardiaca.
I risultati egli studi attualmente disponibili mostrano che gli effetti per esposizioni fino a 20 kV/m
sono pochi ed innocui.

Campo magnetico
Nel caso di fenomeni statici si può dire che un organismo non risente in modo significativo della
presenza di un campo magnetico. La situazione cambia notevolmente per campi oscillanti: per la
legge d’induzione di Faraday, ogni campo magnetico variabile nel tempo induce in un conduttore
delle correnti interne. A loro volta, tali correnti sono sorgenti di un campo magnetico secondario in
grado di perturbare il campo originario. È possibile dimostrare che la perturbazione (dipendente
dalla frequenza, dalla conducibilità dei tessuti e dalle dimensioni del soggetto esposto) nel caso
dell’uomo è trascurabile per frequenze fino ai 100 kHz.
Le condizioni di raccordo tra i due mezzi per il campo magnetico sono:
94
Bn1 = Bn2
Ht1 = Ht2
con B =H
La permeabilità magnetica della maggior parte dei tessuti biologici ha valori prossimi a quella dello
spazio libero 0 = 4 10-7 H/m.
La distribuzione di campo magnetico è uguale a quella che si avrebbe in assenza dell’individuo
esposto; il campo al suo interno è pari a quello esterno. La relazione che lega la densità di corrente
indotta all’ampiezza del campo magnetico è data da:
𝐽𝑖𝑛𝑑 = 𝜋
𝐿
𝜎𝑓𝐵
2
Le correnti indotte attraversano completamente l’individuo, interessando anche gli organi interni e
scegliendo i percorsi a minore resistenza (cioè i tessuti a più alta conducibilità), fino a scaricarsi a
terra attraverso le piante dei piedi. Queste correnti, fortunatamente, non hanno mai intensità
troppo elevate, perché le costanti che troviamo nelle formule precedenti sono molto minori di 1; ciò
garantisce una limitazione degli effetti anche nel caso di campi molto intensi. Infine, nel caso di
un’esposizione a corpo intero ad un campo sinusoidale a 50 Hz si giunge ai valori riportati in tabella:
95
Environmental Physisc for Biotech. High School
CLIL unit: the rainbow
Why English?
You have never heard of Jesus? Maybe yes. Jesus spoke with Peter and John in Aramaic, a kind of dialect of
the time. Dante Alighieri spoke Italian but wrote in Latin, so Newton, spoke English but his scientific texts are
written in Latin. Currently the international language is English, and most of the scientific and technical texts
are written in English
CLIL, what is it? (wikipedia en)
Content and Language Integrated Learning is a term created in 1994 by David Marsh and Anne Maljers as a
methodology similar to language immersion and content-based instruction. It's an approach for learning
content through an additional language, thus teaching both the subject and the language. The idea of its
proponents was to create an "umbrella term" which encompasses different forms of using language as the
medium of instruction. This kind of approach has been identified as very important by the European
Commission because: "It can provide effective opportunities for pupils to use their new language skills now,
rather than learn them now for use later. It opens doors on languages for a broader range of learners,
nurturing self-confidence in young learners and those who have not responded well to formal language
instruction in general education. It provides exposure to the language without requiring extra time in the
curriculum, which can be of particular interest in vocational settings." The European Commission has
therefore decided to promote the training of teachers to "..enhancing the language competences in general,
in order to promote the teaching of non-linguistic subjects in foreign languages".
The rainbow, introduction
You have probably seen several times a rainbow. You certainly were fascinated by the spectacle, but think it
looked good? For example, how many of the following questions could you answer? How big is a rainbow?
That is how high on the horizon? What is the radius of the arc described by the rainbow? What is the
sequence of the colors? The red is inside or outside? Sometimes you see a second arc. The prior applications
are also valid for this. There is also a third and fourth arc, etc ...?
The sun is behind us or ahead of us? You see something under the main arch? In the thirteenth century, it
was known that the rainbow was produced by water droplets suspended in the air, for example after storms.
Isaac Newton, in his treatise on optics, showed that white light can be decomposed by a prism into
monochromatic components, and thus gave an explanation of the phenomenon. His theory, however, was
based on the idea that light was a particle nature, and, as we shall see later, this prevents describe some
special features of the phenomenon.
First we show the reasoning of Newton, and then we'll try to find out what all this has to do with the waves.
96
97
Optics of rainbow
If water droplets have a diameter of a few millimeters, the explanation of the formation and characteristics
of the rainbow can be performed entirely by applying the geometrical optics.
Consider first the refraction of white light by a drop. We choose the x axis along the direction from which the
light comes. Referring to the drawing, for which the light beam indicates the path of a wavefront in the
droplet, that is the law of refraction (Snell
law)
sin 𝛼 = 𝑛 sin 𝛽
where is that

𝑛𝑤𝑎𝑡𝑒𝑟
𝑛=

𝑛𝑎𝑖𝑟


and the index of refraction of air that is
O 
B
approximately 1, while that of the water
varies depending on the color. On average
that is 1,336, ranging from 1.331 to 1.343 for
the red to violet.
A
The angle φ of the output from the drop with
respect to the input direction can be
expressed in terms of the angles of incidence
α and β as refractive
Note that:
𝛼 + (𝜋 − 2 𝛽) + 𝛿 = 𝜋
𝛿 = 2𝛽 − 𝛼.
𝛿 + 𝛾 + 2𝛽 = 𝜋
𝛾 + 𝛼 + 𝜙 = 𝜋,
replacing  and  in the last expression we got
𝜙 = 4𝛽 − 2𝛼
Substituting the Snell's law in the previous,
and plotting the graph of φ in terms of the
incidence angle α (see figure) observe that:
1) for α = 0, the light is reflected back.
2) increases of α, φ initially grows. But for α≈ 60 ° φ reaches a maximum value that depends on the color.
3) for higher values of α the angle φ returns to decrease.
A detailed solution can be derived as follows
𝜙 = 4𝛽 − 2𝛼 = 4 sin−1
𝑑𝜙
=4
𝑑𝛼
1
2
√1 − (sin 𝛼 )
𝑛
sin 𝛼
− 2𝛼
𝑛
cos 𝛼
−2 =
𝑛
cos 𝛼
sin 𝛼 2
4 𝑛 − 2 √1 − ( 𝑛 )
2
√1 − (sin 𝛼 )
𝑛
𝑑𝜙
cos 𝛼
sin 𝛼 2
cos 𝛼
sin 𝛼 2
√
√
=0→ 4
−2 1−(
) =0→ 4
= 2 1−(
)
𝑑𝛼
𝑛
𝑛
𝑛
𝑛
98
4(cos 𝛼)2
sin 𝛼 2
4(cos 𝛼)2 + (sin 𝛼)2
= 1−(
) →
=1→
𝑛2
𝑛
𝑛2
3(cos 𝛼)2 + (cos 𝛼)2 + (sin 𝛼)2
= 1 → 3(cos 𝛼)2 + 1 = 𝑛2
𝑛2
𝑛2 − 1
1,332 − 1
cos 𝛼 = √
≈√
≈ √0,2563 = 0,506
3
3
𝛼 = cos −1 0,506 ≈ 60°
Keep in mind that the  value that maximize  is a function of the refraction index n that is a function of the
wavelength.
Now, for each color we are able to calculate the angle of incidence for which the angle of exit from the water
drop is maximum (see table)
colour
n


max
red
1.331
59°53'
40°36'
42°37'
...
...
...
...
...
violet
1.343
58°83'
39°58'
40°65'
This means that the angle is greater for red, and the lower for the violet. The drop has spherical symmetry,
then these angles define the cones, which border the region within which each color can be refracted.
For angles less than 40 ° 65 'all the colors are refracted, and then the original light white remains white. The
light, however, cannot exit the drop for angles greater than 42 ° 37.
cone color
parallel light rays
light rays diverging
99
So: the maximum amplitude of the arc is about 42 ° 37 '. This angle is calculated with respect to the elevation
of the sun. Therefore sunrise or sunset rainbow is larger, while it is practically invisible at noon. Red occupies
the outermost arc, while the violet is inside at an angle of 40 ° 65 '.
To the upper corners of the beam shape can make the reverse path. This produces the second rainbow. This
time the reasoning is reversed, and so there is a minimum angle φ, instead of one maximum. The second
rainbow is outside of the first. The inside is red with an angle of 50 ° 37 ', while the violet on the outside with
an angle 53 ° 47'.
Over the rainbow: answers from wave optics
If the diameter of the drops is smaller (about 1 mm), the interference of light waves inside the droplets
becomes important, and dark bands may appear inside the rainbow, because the areas in which the
destructive interference.
For drops of a diameter between 0.1 mm and 50 um of the diffraction effects become significant.
For drops of a diameter less than 50 um diffraction prevents the separation of colors, but not the reflection
of light, and has the so-called "white rainbow".
100
CHAPTER 5 (Walter Lewin: “For the love of Physics”)
Over and Under—Outside and Inside—the Rainbow
So many of the little wonders of the everyday world—which can be truly spectacular—go
unobserved most of the time because we haven’t been trained how to see them. I remember one
morning, four or five years ago, when I was drinking my morning espresso in my favorite red and
blue. Rietveld chair, and suddenly I noticed this beautiful pattern of round spots of light on the wall,
amidst the flickering of shadows thrown by the leaves of a tree outside the window. I was so
delighted to have spotted them that my eyes lit up. Not sure what had happened, but with her
usual astuteness, my wife, Susan, wondered if something was the matter. “Do you know what that
is?” I responded, pointing to the light circles. “Do you understand why that’s happening?” Then I
explained. You might expect the light to make lots of little shimmerings on the wall rather than
circles, right? But each of the many small openings between the leaves was acting like a camera
obscura, a pinhole camera, and such a camera reproduces the image of the light source —in this
case the Sun. No matter what the shapes of the openings through which the light is streaming, as
long as the opening is small, it’s the shape of the light source itself that’s re-created on the wall. So
during a partial solar eclipse, sunlight pouring through my window wouldn’t make circles on my wall
anymore—all the circles would have a bite taken out of them, because that would be the shape of
the Sun. Aristotle knew this more than two thousand years ago! It was fantastic to see those light
spots, right there on my bedroom wall, demonstrating the remarkable properties of light.
Secrets of the Rainbow
In truth, the marvelous effects of the physics of light are everywhere we look, sometimes in the
most ordinary sights, and at other times in some of nature’s most beautiful creations. Take
rainbows, for example: fantastic, wonderful phenomena. And they’re everywhere. Great
scientists—Ibn al- Haytham, the eleventh-century Muslim scientist and mathematician known as
the father of optics, the French philosopher, mathematician, and physicist René Descartes; and Sir
Isaac Newton himself— found them captivating and tried to explain them. Yet most physics
teachers ignore rainbows in their classes. I can’t believe this; in fact, I think it’s criminal. Not that the
physics of rainbows is simple. But so what? How can we refuse to tackle something that pulls so
powerfully on our imaginations? How can we not want to understand the mystery behind the
intrinsic beauty of these glorious creations? I have always loved lecturing about them, and I tell my
students, “At the end of this lecture, your life will never be the same again, never.” The same goes
for you.
Former students and others who’ve watched my lectures on the web have been mailing and
emailing me wonderful images of rainbows and other atmospheric phenomena for decades. I feel as
though I have a network of rainbow scouts spread across the world. Some of these shots are
extraordinary—especially those from Niagara Falls, which has so much spray that the bows are
spectacular. Maybe you will want to send me pictures too. Feel free! I’m sure you’ve seen at least
dozens, if not hundreds, of rainbows in your life. If you’ve spent time in Florida or Hawaii, or other
tropical locations where there are frequent rain showers while the Sun shines, you’ve seen even
more. If you’ve watered your garden with a hose or sprinkler when the Sun is shining, you’ve
101
probably created rainbows. Most of us have looked at many rainbows, yet very few of us have ever
seen rainbows. Ancient mythologies have called them gods’ bows, bridges or paths between the
homes of mortals and the gods. Most famously in the West, the rainbow represented God’s
promise in the Hebrew Bible never again to bring an all-destroying flood to the earth: “I do set my
bow in the clouds.” Part of the charm of rainbows is that they are so expansive, spreading
majestically, and so ephemerally, across the entire sky. But, as is so often true in physics, their
origins lie in extraordinarily large numbers of something exceptionally minute: tiny spherical balls of
water, sometimes less than 1 millimeter (1/25 of an inch) across, floating in the sky. While scientists
have been trying to explain the origins of rainbows for at least a millennium, it was Isaac Newton
who offered the first truly convincing explanation in his 1704 work Opticks. Newton understood
several things at once, all of which are essential for producing rainbows. First, he demonstrated that
normal white light was composed of all the colors (I was going to say of “all the colors of the
rainbow,” but that would be getting ahead of ourselves). By refracting (bending) light through a
glass prism, he separated it into its component colors. Then, by sending the refracted light back
through another prism, he combined the colored light back into white light, proving that the prism
itself wasn’t creating the colors in some way. He also figured out that many different materials
could refract light, including water. And this is how he came to understand that raindrops refracting
and reflecting light were the key to producing a rainbow. A rainbow in the sky, Newton concluded
correctly, is a successful collaboration between the Sun, zillions of raindrops, and your eyes, which
must be observing those raindrops at just the right angles. In order to understand just how a
rainbow is produced, we need to zero in on what happens when light enters a raindrop. But
remember, everything I’m going to say about this single raindrop in reality applies to the countless
drops that make up the rainbow. For you to see a rainbow, three conditions need to be met.
First, the Sun needs to be behind you.
Second, there must be raindrops in the sky in front of you—this could be miles or just a few
hundred yards away.
Third, the sunlight must be able to reach the raindrops without any obstruction, such as clouds.
When a ray of light enters a raindrop and refracts, it separates into all of its component colors. Red
light refracts, or bends, the least, while violet light refracts the most. All of these different-colored
rays continue traveling toward the back of the raindrop. Some of the light keeps going and exits the
raindrop, but some of it bounces back, or reflects, at an angle, toward the front of the raindrop. In
fact, some of the light reflects more than once, but that only becomes important later. For the time
being, we are only interested in the light that reflects just once. When the light exits the front of the
drop, some of the light again refracts, separating the different colored rays still further. After these
rays of sunlight refract, reflect, and refract again on their way out of the raindrop, they have pretty
much reversed direction. Key to why we see rainbows is that red light exits the raindrop at angles
that are always smaller than about 42 degrees from the original direction of the sunlight entering
the drop. And this is the same for all raindrops, because the Sun for all practical purposes is
infinitely far away. The angle at which the red light exits can be anything between 0 degrees and 42
degrees but never more than 42 degrees, and this maximum angle is different for each of the
different colors. For violet light, the maximum angle is about 40 degrees. These different maximum
angles for each color account for the stripes of colors in the rainbow.
102
There is an easy way to spot a rainbow when conditions are right. As seen in the following figure, if I
trace a line from the Sun through my head to the far end of my shadow on the ground, that line is
precisely parallel to the direction from the Sun to the raindrops. The higher the Sun in the sky, the
steeper this line will be, and the shorter my shadow. The converse is also the case. This line, from
the Sun, through my head, to the shadow of my head on the ground, we will call the imaginary line.
This line is very important as it will tell you where in the sky you should look to see the rainbow.
All raindrops at 42 degrees from the “imaginary line” will be red. Those at 40 degrees will be blue. raindrops at angles smaller than 40
degrees will be white (like the sunlight). We will see no light from drops at angles larger than 42 degrees (see text).
If you look about 42 degrees away from that imaginary line—it doesn’t matter whether it’s straight
up, to the right, or to the left—that’s where you will see the red band of the rainbow. At about 40
degrees away from it—up, right, or left—you will see the violet band of the rainbow. But the truth is
that violet is hard to see in a rainbow, so you’ll see the blue much more easily. Therefore we’ll just
say blue from now on. Aren’t these the same angles I mentioned earlier, talking about the
maximum angles of the light leaving the raindrop? Yes, and it’s no accident. Look again at the figure.
What about the blue band in the rainbow? Well, remember its magic number is just about 40
degrees, 2 degrees less than the red band. So blue light can be found refracting, reflecting, and
refracting out of different raindrops at a maximum angle of 40 degrees. Thus we see blue light 40
degrees away from the imaginary line. Since the 40-degree band is closer to the imaginary line than
the 42-degree band, the blue band will always be on the inside of the red band of the rainbow. The
other colors making up the bow—orange, yellow, green—are found between the red and blue
bands. For more about this you can take a look at my lecture on rainbows online, at:
http://ocw.mit.edu/courses/physics/8-03-physics-iii-vibrations-and-waves-fall-2004/videolectures/lecture-22/.
103
Now you might wonder, at the maximum angle for blue light, are we seeing only blue light? After
all, red light can also emerge at 40 degrees, as it is smaller than 42 degrees. If you’ve asked this
question, more power to you—it’s a very astute one. The answer is that at the maximum angle for
any given color, that color dominates all other colors. With red, though, because its angle is the
highest, it is the only color. Why is the rainbow a bow and not a straight line? Go back to that
imaginary line from your eyes to the shadow of your head, and the magic number 42 degrees.
When you measure 42 degrees—in all directions—away from the imaginary line, you are tracing an
arc of color. But you know that not all rainbows are full arcs—some are just little pieces in the sky.
That happens when there aren’t enough raindrops in all directions in the sky or when certain parts
of the rainbow are in the shadow of obstructing clouds. There’s another important aspect to this
collaboration between the Sun, the raindrops, and your eyes, and once you see it, you’ll understand
lots more about why rainbows—natural as well as artificial—are the way they are. For example,
why are some rainbows enormous, while others just hug the horizon? And what accounts for the
rainbows you sometimes see in pounding surf, or in fountains, waterfalls, or the spray of your
garden hose? Let’s go back to the imaginary line that runs from your eyes to the shadow of your
head. This line starts at the Sun, behind you, and extends to the ground. However, in your mind, you
can extend this line as far as you want, even much farther than the shadow of your head. This
imaginary line is very useful, as you can imagine it going through the center (called the antisolar
point) of a circle, on the
circumference of which is the rainbow. This circle represents where the rainbow would form if the
surface of Earth didn’t get in its way. Depending upon how high in the sky the Sun is, a rainbow will
also be lower or higher above the horizon. When the Sun is very high, the rainbow may only just
peek above the horizon, whereas late in the afternoon just before sunset, or early in the morning
just around sunrise, when the Sun is low in the sky and when your shadow is long, then a rainbow
may be enormous, reaching halfway up into the sky. Why halfway? Because the maximum angle it
can be over the horizon is 42 degrees, or close to 45 degrees, which is half of the 90 degrees that
would be right overhead.
So how can you go rainbow hunting? First of all, trust your instincts about when a rainbow might
form. Most of us tend to have a good intuitive sense of that: those times when the Sun is shining
just before a rainstorm, or when it comes out right after one. Or when there’s a light shower and
the sunlight can still reach the raindrops. When you feel one coming on, here’s what you do. First,
turn your back to the Sun. Then locate the shadow of your head, and look about 42 degrees in any
direction away from the imaginary line. If there’s enough sunlight, and if there are enough
raindrops, the collaboration will work and you will see a colorful bow. Suppose you cannot see the
Sun at all—it’s somehow hidden by clouds or buildings, but it’s clearly shining. As long as there are
no clouds between the Sun and the raindrops, you still ought to be able to see a rainbow. I can see
rainbows in the late afternoon from my living room facing east when I cannot see the Sun that is in
the west. Indeed, most of the time you don’t need the imaginary line and the 42- degree trick to
spot a rainbow, but there is one situation where paying attention to both can make a big difference.
I love to walk on the beaches of Plum Island off the Massachusetts coast. Late in the afternoon the
sun is in the west and the ocean is to the east. If the waves are high enough and if they make lots of
small water drops, these droplets act like raindrops and you can see two small pieces of the
rainbow: one piece at about 42 degrees to the left of the imaginary line and a second piece about
104
42 degrees to the right. These rainbows only last for a split second, so it’s a huge help in spotting
them if you know where to look in advance. Since there are always more waves coming, you will
always succeed if you can be patient enough. More about this later in this chapter. Here is another
thing you can try to look for, the next time you spot a rainbow. Remember our discussion of the
maximum angle at which certain light can refract out of the raindrop? Well, even though you will
see blue, or red, or green from certain raindrops, raindrops themselves cannot be so choosy: they
refract, reflect, and refract lots of light at less than a 40-degree angle too. This light is a mixture of
all the different colors at roughly equal intensities, which we see as white light. That’s why, inside
the blue band of a rainbow, the sky is very bright and white. At the same time, none of the light that
refracts, reflects, and refracts again can exit raindrops beyond the 42-degree angle, so the sky just
outside the bow is darker than inside the bow. This effect is most visible if you compare the
brightness of the sky on either side of the rainbow. If you’re not specifically looking for it, you
probably won’t even notice it. There are excellent images of rainbows in which you can see this
effect on the Atmospheric Optics website, at www.atoptics.co.uk.
Once I began explaining rainbows to my students, I realized just how rich a subject they are—and
how much more I had to learn. Take double rainbows, which you’ve probably seen from time to
time. In fact, there are almost always two rainbows in the sky: the so-called primary bow, the one
I’ve been discussing, and what we call the secondary bow. If you’ve seen a double rainbow, you’ve
probably noticed that the secondary bow is much fainter than the primary bow. You probably
haven’t noticed, though, that the order of colors in the secondary bow is blue on the outside and
red on the inside, the reverse of that in the primary. There is an excellent photograph of a double
rainbow in this book’s photo insert (not enclosed).
In order to understand the origin of the secondary bow, we have to go back to our ideal raindrop—
remember, of course, that it actually takes zillions of drops to make up a secondary rainbow as well.
Some of the light rays entering the drops reflect just once; others reflect twice before exiting. While
light rays entering any given raindrop can reflect many times inside it, the primary bow is only
created by those that reflect once. The secondary bow, on the other hand, is created only by those
that reflect twice inside before refracting on the way out. This extra bounce inside the raindrop is
the reason the colors are reversed in the secondary bow. The reason the secondary bow is in a
different position from the primary bow—always outside it— is that twice-reflected red rays exit
the drop at angles always larger (yes, larger) than about 50
degrees, and the twice-reflected blue rays come out at angles always larger than about 53 degrees.
You therefore need to look for the secondary bow about 10 degrees outside the primary bow. The
reason that the secondary bow is much fainter is that so much less light reflects inside the raindrops
twice than reflects once, so there’s less light to make the bow. This is, of course, why it can be hard
to see the secondary bow, but now that you know they often accompany primary rainbows, and
where to look for them, I’m confident you’ll see lots more. I also suggest that you spend a few
minutes on the Atmospheric Optics website.
Now that you know what makes rainbows, you can perform a little optical magic in your own
backyard or on your driveway or even on the sidewalk, with just a garden hose. But because you
can manipulate the raindrops, and they are physically close to you, there are a couple of big
differences. For one thing, you can make a rainbow even when the Sun is high in the sky. Why?
Because you can make raindrops between you and your shadow on the ground, something that
105
rarely happens naturally. As long as there are raindrops that the sunlight can reach, there can be
rainbows. You may have done this already, but perhaps not as purposefully. If you have a nozzle on
the end of the hose, adjust it to a fine spray, so the droplets are quite small, and when the Sun is
high in the sky, point the nozzle toward the ground and start spraying. You cannot see the entire
circle all at once, but you will see pieces of the rainbow. As you continue moving the nozzle in a
circle, piece by piece you will see the entire circle of the rainbow. Why do you have to do
it this way? Because you don’t have eyes in the back of your head!
You will see red at about 42 degrees from the imaginary line, the inside edge of the circular bow will
be blue, and inside the bow you will see white light. I love performing this little act of creation while
watering my garden, and it’s especially satisfying to be able to turn all the way around and make a
complete 360-degree rainbow. (The Sun, of course, will then not always be behind you.)
One cold winter day in 1972 I was so determined to get some good photos of these homemade
rainbows for my class that I made my poor daughter Emma, who was just seven, hold the hose in
my yard, squirting the water high in the air, while I snapped away with the camera. But I guess
when you’re the daughter of a scientist you have to suffer a little bit for the sake of science. And I
did get some great pictures; I even managed to photograph the secondary bow, using my
contrasting blacktop driveway as the background. You can see the picture of Emma in the insert. I
hope you’ll try this experiment—but do it in the summer. And don’t be too disappointed if you
don’t see the secondary bow—it may be too faint to show up if your driveway isn’t dark enough.
From now on, with this understanding of how to spot rainbows, you’ll find yourself compelled to
look for them more and more. I often can’t help myself. The other day as Susan and I were driving
home, it started to rain, but we were driving directly west, into the Sun. So I pulled over, even
though there was a good deal of traffic; I got out of the car and turned around, and there it was, a
real beauty!
I confess that whenever I walk by a fountain when the sun is shining, I position myself so I can
search for the rainbow I know will be there. If you’re passing by a fountain on a sunny day, give it a
try. Stand between the Sun and the fountain with your back to the Sun, and remember that the
spray of a fountain works just like raindrops suspended in the sky. Find the shadow of your head—
that establishes the imaginary line. Then look 42 degrees away from that line. If there are enough
raindrops in that direction, you’ll spy the red band of the rainbow and then the rest of the bow will
come immediately into view. It’s rare that you see a full semicircular arc in a fountain—the only way
106
you can see one is to be very close to the fountain—but the sight is so beautiful, it’s always worth
trying.
Once you’ve found it, I warn you that you may just feel the urge to let your fellow pedestrians know
it’s there. I often point these fountain rainbows out to passersby, and I’m sure some of them think
I’m weird. But as far as I’m concerned, why should I be the only one to enjoy such hidden wonders?
Of course I show them to people. If you know a rainbow could be right in front of you, why not look
for it, and why not make sure others see it too? They are just so beautiful. Students often ask me
whether there is also a tertiary bow. The answer is yes and no. The tertiary bow results, as you
might have guessed, from three reflections inside the raindrop. This bow is centered on the Sun
and, like the primary bow, which is centered on the antisolar point, it also has a radius of about 42
degrees and red is on the outside. Thus you have to look toward the Sun to see it and it has to rain
between you and the Sun. But when that is the case, you will almost never see the Sun. There are
additional problems: a lot of sunlight will go through the raindrops without reflecting at all and that
produces a very bright and very large glow around the Sun which makes it effectively impossible to
see the tertiary bow. The tertiary bow is even fainter than the secondary. It is also much broader
than the primary and the secondary bow; thus the already faint light of the bow is spread out even
more over the sky and that makes it even more difficult to see it. As far as I know, no pictures of
tertiary bows exist, and I do not know of anyone who has ever seen a tertiary bow. Yet there are
some reports of sightings.
Inevitably, people want to know if rainbows are real. Maybe they’re mirages, they wonder, receding
endlessly as we approach them. After all, why can’t we see the end of the rainbow? If this thought
has been at the back of your mind, breathe easy. Rainbows are real, the result of real sunlight
interacting with real raindrops and your real eyes. But since they result from a precise collaboration
between your eyes, the Sun, and the raindrops, you will see a different rainbow from the person
across the street. Equally real, but different. The reasons we usually cannot see the end of the
rainbow touching the Earth are not because it doesn’t exist, but because it’s too far away, or hidden
by buildings or trees or mountains, or because there are fewer raindrops in the air there and the
bow is too faint. But if you can get close enough to a rainbow, you can even touch it, which you
should be able to do with the rainbow you make with your garden hose. I have even taken to
holding rainbows in my hand while I shower. I accidentally discovered this one day. When I faced
the shower spray, I suddenly saw two (yes two!) bright primary rainbows inside my shower, each
one about a foot long and an inch wide. This was so exciting, so beautiful; it was like a dream. I
reached out and held them in my hands. Such a feeling! I’d been lecturing on rainbows for forty
years, and never before had I seen two primary rainbows within arm’s reach. Here’s what had
happened. A sliver of sunlight had shone into my shower through the bathroom window. In a way, it
was as though I was standing not in front of a fountain, but inside the fountain. Since the water was
so close to me and since my eyes are about three inches apart, each eye had its own, distinct
imaginary line. The angles were just right, the amount of water was just right, and each of my eyes
saw its own primary rainbow. When I closed one eye, one of the rainbows would disappear; when I
closed the other eye, the other bow vanished. I would have loved to photograph this astonishing
sight, but I couldn’t because my camera has only one “eye.” Being so close to those rainbows that
day made me appreciate in a new way just how real they were. When I moved my head, they too
moved, but as long as my head stayed where it was, so did they.
107
Occasionally I time my morning showers whenever possible to catch these rainbows. The Sun has to
be at the right location in the sky to peek through my bathroom window at the right angle and this
only happens between mid-May and mid-July. You probably know that the Sun rises earlier and
goes higher in the sky in certain months, and that in the Northern Hemisphere it rises more to the
south (of east) than in the winter months, and more to the north (of east) in summer.
My bathroom window faces south, and there’s a building on the south side, making sure that light
can never enter from due south. So sunlight only comes in roughly from the southeast. The time I
first saw the shower bows was while I was taking a very late shower, around ten o’clock. In order to
see rainbows in your own shower you will need a bathroom window through which sunlight can
reach the spray. In fact, if you can never see the Sun by looking out your bathroom window, there’s
no point in looking for shower bows—there just won’t be any. The sunlight must be able to actually
reach your shower. And even if it does come directly in, that’s no guarantee, because many water
drops have to be present at 42 degrees from your imaginary line, and that may not be the case.
These are probably difficult conditions to meet, but why not try? And if you discover that the Sun
enters your shower just right late in the afternoon, well, then, you could always think about
changing your shower schedule.
Why Sailors Wear Sunglasses
Whenever you do decide to go rainbow hunting, be sure to take off your sunglasses if they are the
kind we call polarized, or you might miss out on the show. I had a funny experience with this one
day. As I said, I love to take walks along the beaches of Plum Island. And I’ve explained how you can
see little bows in the spray of the waves. Years ago I was walking along the beach. The sun was
bright and the wind was blowing, and when the waves rolled over as they got close to the beach,
there was lots of spray—so I was frequently seeing small pieces of bows as I mentioned earlier in
this chapter. I started pointing them out to my friend, who said he couldn’t see what I was talking
about. We must have gone back and forth half a dozen times like this. “There’s one,” I would shout,
somewhat annoyed. “I don’t see anything!” he would shout back. But then I had a bright moment
and I asked him to take off his sunglasses, which I looked at—sure enough, they were polarized
sunglasses. Without his sunglasses he did see the bows, and he even started to point them out to
me! What was going on? Rainbows are something of an oddity in nature because almost all of their
light is polarized. Now you probably know the term “polarized” as a description of sunglasses. The
term is not quite technically correct, but let me explain about polarized light—then we’ll get to the
sunglasses and rainbows.
Waves are produced by vibrations of “something.” A vibrating tuning fork or violin string produces
sound waves, which I talk about in the next chapter. Light waves are produced by vibrating
electrons. Now, when the vibrations are all in one direction and are perpendicular to the direction
of the wave’s propagation, we call the waves linearly polarized. For simplicity I will drop the term
“linearly” in what follows as I am only talking in this chapter about this kind of polarized light. Sound
waves can never be polarized, because they always propagate in the same direction as the
oscillating air molecules in the pressure waves; like the waves you can generate in a Slinky. Light,
however, can be polarized. Sunlight or light from lightbulbs in your home is not polarized. However,
108
we can easily convert nonpolarized light into polarized light. One way is to buy what are known as
polarized sunglasses. You now know why their name isn’t quite right. They are really polarizing
sunglasses. Another is to buy a linear polarizer (invented by Edwin Land, founder of the Polaroid
Corporation) and look at the world through it. Land’s polarizers are typically 1 millimeter thick and
they come in all sizes. Almost all the light that passes through such a polarizer (including polarizing
sunglasses) has become polarized. If you put two rectangular polarizers on top of each other (I hand
out two of them to each of my students, so they can experiment with them at home) and you turn
them 90 degrees to each other, no light will pass through.
Nature produces lots of polarized light without the help of one of Land’s polarizers. Light from the
blue sky 90 degrees away from the direction of the Sun is nearly completely polarized. How can we
tell? You look at the blue sky (anywhere at 90 degrees away from the Sun) through one linear
polarizer and rotate it slowly while looking through it. You will notice that the brightness of the sky
will change. When the sky becomes almost completely dark, the light from that part of the sky is
nearly completely polarized. Thus, to recognize polarized light, all you need is one polarizer (but it’s
much more fun to have two).
In the first chapter I described how in class I “create” blue light by scattering white light off cigarette
smoke. I arrange this in such a way that the blue light that scatters into the lecture hall has
scattered over an angle of about 90 degrees; it too is nearly completely polarized. The students can
see this with their own polarizers, which they always bring with them to lectures. Sunlight that has
been reflected off water or glass can also become nearly completely polarized if the sunlight (or
light from a lightbulb) strikes the water or glass surface at just the right angle, which we call the
Brewster angle. That’s why boaters and sailors wear polarizing sunglasses—they block much of the
light reflecting off the water’s surface. (David Brewster was a nineteenth-century Scottish physicist
who did a lot of research in optics.) I always carry at least one polarizer with me in my wallet—yes,
always—and I urge my students to do the same.
Why am I telling you all this about polarized light? Because the light from rainbows is nearly
completely polarized. The polarization occurs as the sunlight inside the water drops reflects, which,
as you now know, is a necessary condition for rainbows to be formed. I make a special kind of
rainbow in my classes (using a single, though very large, water drop) and I am able to demonstrate
that (1) red is on the outside of the bow, (2) blue is on the inside, (3) inside the bow the light is
bright and white, which is not the case outside the bow, and (4) the light from the bow is polarized.
The polarization of the bows for me is very fascinating (one reason why I always carry polarizers on
me). You can see this wonderful demonstration in my lecture at:
http://ocw.mit.edu/courses/physics/8-03-physics-iii-vibrations-and-waves-fall-2004/videolectures/lecture22/.
Beyond the Rainbow
Rainbows are the best known and most colorful atmospheric creations, but they are far from alone.
There is an entire host of atmospheric phenomena, some of them really quite strange and striking,
others deeply mysterious. But let’s stay with rainbows for a bit and see where they take us. When
you look carefully at a very bright rainbow, on its inner edge you may sometimes see a series of
109
alternating bright-colored and dark bands—which are called supernumerary bows. You can see one
in the insert. To explain these we must abandon Newton’s explanation of light rays. He thought that
light was composed of particles, so when he imagined individual rays of light entering, bouncing
around in, and exiting raindrops, he assumed that these rays acted as though they were little
particles. But in order to explain supernumerary bows we need to think of light as consisting of
waves. And in order to make a supernumerary bow, light waves must go through raindrops that are
really small, smaller than a millimeter across. One of the most important experiments in all of
physics (generally referred to as the double-slit experiment) demonstrated that light is made of
waves. In this famous experiment performed around 1801–03, the English scientist Thomas Young
split a narrow beam of sunlight into two beams and observed on a screen a pattern (the sum of the
two beams) that could only be explained if light consists of waves. Later in time this experiment was
done differently actually using two slits (or two pinholes). I will proceed here assuming that a
narrow beam of light strikes two very small pinholes (close together) made in a thin piece of
cardboard. The light passes through the pinholes and then strikes a screen. If light was made of
particles, a given particle would either go through one pinhole or through the other (it cannot go
through both) and thus you would see two bright spots on the screen. However, the pattern
observed is very different. It precisely mimics what you’d expect if two waves had hit the screen—
one wave coming from one pinhole and simultaneously one identical wave coming from the other.
Adding two waves is subject to what we call interference. When the crests of the waves from one
pinhole line up with the valleys of waves from the other, the waves cancel each other, which is
called destructive interference, and the locations on the screen where that happens (and there are
several) remain dark. Isn’t that amazing—light plus light turns into darkness! On the other hand, at
other locations on the screen where the two waves are in sync with one another, cresting and
falling with one another, we have constructive interference and we end up with bright spots (and
there will be several). Thus we will see a spread out pattern on the screen consisting of alternating
dark and bright spots, and that is precisely what Young observed with his split-beam experiment.
I demonstrate this in my classes using red laser light and also with green laser light. It’s truly
spectacular. Students notice that the pattern of the green light is very similar to that of the red light
except that the separation between the dark and the bright spots is somewhat smaller for the green
light. This separation depends on the color (thus wavelength) of light (more about wavelength in
the next chapter). Scientists had been battling for centuries over whether light consisted of particles
or waves, and this experiment led to the stunning and indisputable conclusion that light is a wave.
We now know that light can act both as a particle and as a wave, but that astounding conclusion
110
had to wait another century, for the development of quantum mechanics. We don’t need to go
further into that at the moment.
Going back to supernumerary bows, interference of light waves is what creates the dark and bright
bands. This phenomenon is very pronounced when the diameter of the drops is near 0.5
millimeters. You can see some images of supernumerary bows at:
www.atoptics.co.uk/rainbows/supdrsz.htm.
The effects of interference (often called diffraction) become even more dramatic when the
diameters of the droplets are smaller than about 40 microns (0.04 millimeters, or 1/635 of an inch).
When that happens, the colors spread out so much that the waves of different colors completely
overlap; the colors mix and the rainbow becomes white. White rainbows often show one or two
dark bands (supernumerary bows). They are very rare and I have never seen one. A student of mine,
Carl Wales, sent me pictures in the mid-1970s of several beautiful white rainbows. He had taken the
pictures in the summer at two a.m. (yes, two a.m.) from Fletcher Ice Island, which is a large drifting
iceberg (about 3 × 7 miles). At the time, it was about 300 miles from the North Pole. You can see a
nice picture of a white rainbow in the insert. These white bows can also be seen in fog, which
consists of exceptionally tiny water droplets. White fogbows can be hard to spot; you may have
seen them many times without realizing it. They are likely to appear whenever fog is thin enough
for sunlight to shine through it. When I’m on a riverbank or in a harbor in the early morning, when
the Sun is low in the sky, and where fog is common, I hunt for them and I have seen many.
Sometimes you can even create a fogbow with your car headlights. If you’re driving and the night
fog rolls in around you, see if you can find a safe place to park. Or, if you’re at home and the fog
comes, face your car toward the fog and turn on your headlights. Then walk away from your car and
look at the fog where your headlight beams are. If you’re lucky, you might be able to see a fogbow.
They make the gloom of a foggy night even spookier. You can see the results of a fellow stumbling
across fogbows that he made with his car headlights at www.extremeinstability.com/08-9-9.htm.
Did you notice the dark bands in the white bows? The size of water droplets and the wave nature of
light also explain another of the most beautiful phenomena that grace the skies: glories. They can
best be seen when flying over clouds. Trust me, it’s worth trying to find them. In order to do so, you
must, of course, be in a window seat—and not over the wings, which block your view down. You
want to make certain that the Sun is on the side of the plane opposite your seat, so you’ll have to
pay attention to the time of day and the direction of the flight. If you can see the Sun out your
window, the experiment is over. (I have to ask you to trust me here; a convincing explanation
requires a lot of very complicated math.) If these conditions are met, then try to figure out where
the antisolar point is and look down at it. If you’ve hit the jackpot you may see colorful rings in the
clouds and if your plane is flying not too far above the clouds, you may even see the glory circling
the shadow of the plane—glories have diameters that can vary from a few degrees to about 20
degrees. The smaller the drops, the larger the glories. I have taken many pictures of glories,
including some where the shadow of my plane was clearly visible and the really fun part is that the
position of my seat is at the center of the glory, which is the antisolar point. One of these pictures is
in the insert. You can find glories in all kinds of places, not just from airplanes. Hikers often see
them when they have the Sun to their backs and look down into misty valleys. In these cases, a
quite spooky effect happens. They see their own shadow projected onto the mist, surrounded by
the glory, sometimes several colorful rings of it, and it looks positively ghostly. This phenomenon is
111
also known as the Brocken spectre (also called Brocken bow), named for a high peak in Germany
where sightings of glories are common. In fact, glories around people’s shadows look so much like
saintly halos, and the figures themselves look so otherworldly, that you will not be surprised to
learn that glory is actually an old word for the circle of light around the heads of various saints. In
China, glories are known as
Buddha’s light. I once took a marvelous photo of my own shadow surrounded by a glory that I refer
to as the image of Saint Walter. A good many years ago I was invited by some of my Russian
astronomer friends to their 6-meter telescope in the Caucasus Mountains. This was the world’s
largest telescope at the time. The weather was just awful for observing. Every day I was there, at
about five thirty in the afternoon a wall of fog would come rolling up out of the valley below and
completely engulf the telescope. I mean totally; we couldn’t make any observations at all during my
visit. A picture of the fog ascending is shown in the insert. In talking to the astronomers, I learned
that the fog was very common. So I asked, “Why then was this telescope built here?” They told me
that the telescope was built on that site because the wife of a Party official wanted it right there,
and that was that. I almost fell off my chair. Anyway, after a few days, I got the idea that I might be
able to take a fantastic photo. The Sun was still strong in the west every day when the fog came up
from the valley, which was to the east, the perfect setup for glories. So the next day I brought my
camera to the observatory, and I was getting nervous that the fog might not cooperate. But sure
enough, the wall of fog swelled up, and the Sun was still shining, and my back was to it. I waited and
waited and then, boom, there was the glory around my shadow and I snapped. I couldn’t wait to
develop the film—this was in the pre-digital age—and there it was! My shadow is long and ghostly,
and the shadow of my camera is at the center of the rings of a gorgeous glory. You can see the
picture in the insert. You don’t need to be in such an exotic location to see a halo around your head.
On a sunlit early morning if you look at your shadow on a patch of dewy grass (of course with the
Sun right behind you), you can often see what in German is called Heiligenschein, or “holy light”: a
glow around the shadow of your head. (It’s not multicolored; it’s not a glory.) Dewdrops on the
grass reflect the sunlight and create this effect. If you try this—and I hope you will—they’re easier
to find than glories. You will see that since it’s early morning and the Sun is low, your shadow will be
quite long, and you appear much like the elongated and haloed saints of medieval art.
The many different types of bows and halos can surprise you in the most unexpected places. My
favorite sighting happened one sunny day in June 2004—I remember it was the summer solstice,
June 21—when I was visiting the deCordova Museum in Lincoln, Massachusetts, with Susan (who
was not yet my wife at the time), my son, and his girlfriend. We were walking across the grounds
toward the entrance when my son called out to me. There in front of us, on the ground, was a
stunning, colorful, nearly circular bow. (Because it was the solstice, the Sun was as high as it ever
gets in Boston, about 70 degrees above the horizon.) It was breathtaking! I pulled out my camera
and snapped a bunch of photos as quickly as I could. How unexpected. There were no water
droplets on the ground, and I quickly realized the bow could not have been made from water drops
in any event because the radius of the bow was much smaller than 42 degrees. And yet it looked
just like a rainbow: the red was on the outside, the blue was on the inside, and there was bright
white light inside the bow. What could have caused it? I realized that it must have been made by
transparent, spherical particles of something, but what could they be? One of my photographs of
the bow, which you can see in the insert, turned out so well that it became NASA’s astronomical
112
mystery picture of the day, posted on the web on September 13, 2004.* (This, by the way, is a
terrific website, and you should look at it every day at: http://apod.nasa.gov/apod/astropix.html.) I
received about three thousand guesses as to what it was. My favorite response was a handwritten
note from Benjamin Geisler, age four, who wrote, “I think your mystery photo is made by light,
crayons, markers and colored pencils.” It’s posted on the bulletin board outside my office at MIT. Of
all the answers, about thirty were on the right track, but only five were dead on. The best clue to
this puzzle is that there was a good bit of construction going on at the museum when we visited. In
particular, there had been a lot of sandblasting of the museum’s walls. Markos Hankin, who was in
charge of the physics demonstrations at MIT and with whom I have worked for many years, told
me—I didn’t know this at the time—that some kinds of sandblasting use glass beads. And there
were lots of tiny glass beads lying on the ground. I had taken a few spoonfuls of the beads home.
What we had seen was a glassbow, which has now become an official category of bow, a bow
formed by glass beads; it has a radius of about 28 degrees, but the exact value depends on the kind
of glass. Markos and I couldn’t wait to see if we could make one of our own for my lectures. We
bought several pounds of glass beads, glued them on big sheets of black paper, and attached the
paper to a blackboard in the lecture hall. Then, at the end of my lecture on rainbows, we aimed a
spotlight on the paper from the back of the lecture hall. It worked! I invited the students to come,
one by one, to the front of the class, where they stood before the blackboard and cast their shadow
smack in the middle of their own private glassbow. This was such a thrilling experience for the
students that you might want to try it at home; making a glassbow is not too difficult. It does
depend on what your objectives are. If you just want to see the colors of the bow, it’s quite easy. If
you want to see the entire bow encircling your head it’s more work. To see a small piece of the bow,
all you need is a piece of black cardboard about one foot square, some clear spray adhesive (we
used 3M’s Spray Mount Artist’s Adhesive, but any clear spray glue will do), and transparent
spherical glass beads. They must be transparent and spherical. We used “coarse glass bead blast
media,” with diameters ranging from 150 to 250 microns, which you can find here:
http://tinyurl.com/glassbeads4rainbow.
Spray glue on your cardboard, and then sprinkle the beads on it. The average distance between the
beads isn’t critical, but the closer the beads are, the better. Be careful with these beads—you
probably want to do this outside so you don’t spill beads all over your floor. Let the glue dry, and if
you have a sunny day, go outside. Establish the imaginary line (from your head to the shadow of
your head). Place the cardboard somewhere on that line; thus you will see the shadow of your head
on the cardboard (if the Sun is low in the sky, you could put the cardboard on a chair; if the Sun is
high in the sky you could put it on the ground—remember the glass beads at the de Cordova
museum were also on the ground. You may select how far away from your head you place the
cardboard. Let’s assume that you place it 1.2 meters (about 4 feet) away. Then move the cardboard
about 0.6 meters (2 feet) away from the imaginary line in a direction perpendicular to the line. You
may do that in any direction (left, right, up, down)! You will then see the colors of the glassbow. If
you prefer to place the cardboard farther away, say 1.5 meters (5 feet), then you have to move the
cardboard about 0.75 meters (2.5 feet) to see the colors of the bow. You may wonder how I arrived
at these numbers. The reason is simple, the radius of a glassbow is about 28 degrees. Once you see
the colors, you can move the cardboard in a circle around the imaginary line to search for other
parts of the bow. By so doing, you are mapping out the entire circular bow in portions, just as you
113
did with the garden hose. If you want to see the entire bow around your shadow all at once, you’ll
need a bigger piece of black cardboard—one full square meter will do—and with a lot more glass
beads glued to it. Place the shadow of your head near the center of the cardboard. If the distance
from the cardboard to your head is about 80 centimeters (about 2.5 feet), you will immediately see
the entire glass bow. If you bring the cardboard too far out, e.g., 1.2 meters (4.0 feet), you will not
be able to see the entire bow. The choice is yours; have fun! If it’s not a sunny day, you can try the
experiment indoors, as I did in lectures, by aiming a very strong light—like a spotlight—at a wall, on
which you’ve taped or hung the cardboard. Position yourself so the light is behind you, and the
shadow of your head is in the center of the one square meter cardboard. If you stand 80
centimeters away from the board, you should be able to see the entire bow circling your shadow.
Welcome to the glass bow! We don’t need to understand why a rainbow or fogbow or glassbow is
formed in order to appreciate its beauty, of course, but understanding the physics of rainbows does
give us a new set of eyes (I call this the beauty of knowledge). We become more alert to the little
wonders we might just be able to spot on a foggy morning, or in the shower, or when walking by a
fountain, or peeking out of an airplane window when everyone else is watching movies. I hope you
will find yourself turning your back to the Sun the next time you feel a rainbow coming on, looking
about 42 degrees away from the imaginary line and spotting the red upper rim of a glorious rainbow
across the sky. Here’s my prediction. The next time you see a rainbow, you’ll check to make sure
that red is on the outside, blue is on the inside; you’ll try to find the secondary bow and will confirm
that the colors are reversed; you’ll see that the sky is bright inside the primary bow and much
darker outside of it; and if you carry a linear polarizer on you (as you always should), you will
confirm that both bows are strongly polarized. You won’t be able to resist it. It’s a disease that will
haunt you for the rest of your life. It’s my fault, but I will not be able to cure you, and I’m not even
sorry for that, not at all!
114
Scarica