Fisica
Introduzione
La massa è una misura della resistenza di un corpo a variare il suo stato di moto. Nel SI, la sua unità di misura è il
chilogrammo (kg), definito come la massa di un cilindro di lega platino-iridio conservato all’Ufficio Internazionale di
Pesi e Misure di Sèvres, in Francia.
La lunghezza è una grandezza fondamentale, misurata nel SI in metri (m), unità di misura definita nel 1983 come la
distanza percorsa dalla luce nel vuoto durante il tempo di 1/299792458 secondi.
Il tempo è un’altra grandezza fondamentale, misurata nel SI in secondi (s), definito nel 1967 come 9192631770 volte il
periodo di oscillazione della radiazione dell’atomo di cesio (Cs).
Ogni unità di misura possiede multipli e sottomultipli ed è inoltre convertibile in altre unità di misura, purché l’analisi
dimensionale lo consenta. Es. 1 miglio = 1609 m = 1.609 km.
Metodo usato dal testo Jewett & Serway: 15.0 𝑖𝑛 = (15.0 𝑖𝑛) (
2.54 𝑐𝑚
1 𝑖𝑛
) = 38.1 𝑐𝑚
N.B. Il rapporto fra parentesi è uguale ad 1! Le unità di misura sono poste in modo da elidersi e dare l’unità di misura
desiderata.
Sistemi di coordinate
La collocazione spaziale degli eventi è rappresentata in fisica tramite coordinate geometriche: un punto su di una linea
retta è rappresentabile da una sola coordinata, un punto in un piano è individuato da due coordinate, un punto nello
spazio da tre coordinate.
Il sistema di coordinate usato consiste di un’origine (fissa), detta O, un insieme di assi o direzioni, ciascuno con scala di
misura e nome appropriati ed istruzioni che ci dicano come etichettare un punto dello spazio rispetto all’origine ed agli
assi. Il sistema di coordinate generalmente adoperato è quello cartesiano:
y
(x, y)
O
x
Vettori e Scalari
Le grandezze fisiche possono essere suddivise in due categorie: scalari e vettori. Gli scalari sono completamente
specificati da un numero (positivo o negativo) seguito da un’unità di misura. Un vettore, invece, necessita di
informazioni diverse per essere completamente specificato: intensità (o modulo), direzione e verso. Esempi di
grandezze scalari sono il tempo o la massa, esempi di vettori sono gli spostamenti, la forza, la velocità.
Proprietà dei Vettori
⃗⃗ sono per definizione uguali se hanno le stesse unità di misura, lo stesso
Uguaglianza di due vettori: due vettori 𝐴⃗ e 𝐵
⃗⃗ solo se 𝐴 = 𝐵 ed 𝐴⃗ e 𝐵
⃗⃗ sono concordi. Questa proprietà
modulo e puntano nella stessa direzione e verso. Cioè, 𝐴⃗ = 𝐵
permette di traslare un vettore parallelamente a se stesso, senza alterarlo.
Addizione: due o più vettori possono essere sommati solo se hanno tutti la stessa unità di misura (come per gli scalari);
inoltre, si disegnano i vettori l’uno adiacente all’altro (cioè il secondo a partire dalla punta del primo, e così via) ed il
vettore somma risultante sarà un vettore che congiunge l’inizio della freccia del primo vettore con la punta della
⃗⃗ = 𝐵
⃗⃗ + 𝐴⃗) e di quella associativa
freccia dell’ultimo. La somma di vettori gode della proprietà commutativa (𝐴⃗ + 𝐵
⃗⃗ + 𝐶⃗) = (𝐴⃗ + 𝐵
⃗⃗) + 𝐶⃗].
[𝐴⃗ + (𝐵
Opposto di un vettore: l’opposto del vettore 𝐴⃗ è definito come il vettore che ha stesso modulo e direzione di 𝐴⃗ ma verso
opposto. La somma di un vettore con il suo opposto dà zero come vettore somma. Cioè, 𝐴⃗ + (−𝐴⃗) = 0.
⃗⃗ equivale alla somma del vettore 𝐴⃗ con l’opposto del vettore 𝐵
⃗⃗. Cioè, 𝐴⃗ −
Sottrazione di vettori: la sottrazione 𝐴⃗ − 𝐵
⃗⃗ = 𝐴⃗ + (−𝐵
⃗⃗).
𝐵
Moltiplicazione di un vettore per uno scalare:se un vettore 𝐴⃗ viene moltiplicato per una quantità scalare positiva s, il
prodotto 𝑠𝐴⃗ è un vettore che ha la stessa direzione e lo stesso verso di 𝐴⃗, ma modulo uguale al prodotto sA. Se s è,
invece, una grandezza negativa,il vettore 𝑠𝐴⃗ sarà diretto nel verso opposto ad 𝐴⃗.
⃗⃗ possono essere moltiplicati in due diversi modi: tramite il prodotto
Moltiplicazione di due vettori: due vettori 𝐴⃗ e 𝐵
scalare (che origina una grandezza scalare) e tramite il prodotto vettoriale (che origina una grandezza vettoriale). Nel
⃗⃗ = 𝐴𝐵 𝑐𝑜𝑠 𝜗, dove 𝜗 è l’angolo compreso fra i due vettori 𝐴⃗ e 𝐵
⃗⃗. Nel secondo caso,
primo caso, il prodotto scalare 𝐴⃗ ∙ 𝐵
⃗⃗ è uguale ad un vettore che ha modulo uguale ad 𝐴𝐵 𝑠𝑖𝑛 𝜗.
invece, il prodotto vettoriale 𝐴⃗ × 𝐵
Moto in una dimensione
Dall’esperienza quotidiana sappiamo che il moto rappresenta il cambiamento continuo della posizione di un oggetto. Il
moto di un oggetto attraverso lo spazio (traslazione) può essere accompagnato dalla rotazione e dalla vibrazione
dell’oggetto; è spesso possibile, tuttavia, semplificare le cose, trascurando rotazione e moti interni dell’oggetto in
movimento, almeno inizialmente. Il risultato è un modello semplificato che chiamiamo modello del punto materiale, in
cui qualsiasi oggetto è approssimato ad un punto materiale che si muove in uno spazio delimitato da assi cartesiani.
La velocità scalare media è una grandezza che trascura le variazioni di velocità che può avere un punto in movimento
ed approssima la velocità sempre costante durante lo spostamento. Essa si calcola come 𝑣𝑚𝑒𝑑 ≡
𝑑
∆𝑡
, dove d è la
distanza percorsa in un intervallo di tempo ∆𝑡 e ∆𝑡 è l’intervallo di tempo stesso. È, appunto, uno scalare e non
necessita, pertanto, di alcuna direzione o verso.
La velocità media è, invece, un vettore, definito come il rapporto fra lo spostamento ∆𝑥 e l’intervallo di tempo ∆𝑡 in cui
avviene questo spostamento (𝑣𝑥,𝑚𝑒𝑑 ≡
∆𝑥
∆𝑡
=
𝑥1 −𝑥0
𝑡1 −𝑡0
). N.B. Il pedice x indica lo spostamento lungo l’asse x.
ATTENZIONE: il modulo della velocità media NON è uguale alla velocità scalare media! Es. una particella si muove
dall’origine fino a 𝑥 = 10𝑚 per poi tornare indietro in un intervallo di tempo complessivo ∆𝑡 = 4.0𝑠. Il modulo della
velocità media sarà 0 (perché il punto di inizio 𝑥0 coincide con il punto di fine 𝑥1 ), ma la velocità scalare media sarà
𝑣𝑚𝑒𝑑 =
20𝑚
4.0𝑠
= 5.0 𝑚⁄𝑠.
La velocità media, essendo il rapporto fra lo spostamento e l’intervallo di tempo, non ci fornisce alcuna informazione
sul moto, ma solo sul risultato del moto: essa è, infatti, indipendente dal cammino seguito dal punto materiale e
dipende soltanto dalle sue coordinate iniziali e finali.
Infine, è da notare che la velocità media può avere segno positivo o negativo, a seconda del segno dello spostamento
(l’intervallo di tempo è sempre positivo). Se 𝑥1 > 𝑥0 , la velocità media è positiva, cioè è nella direzione delle x positive.
Se, invece, 𝑥1 < 𝑥0 , la velocità media è negativa, cioè è nella direzione delle x negative.
La velocità istantanea è, invece, la velocità (vettoriale) di una particella ad un qualsiasi istante di tempo ed è uguale al
valore limite del rapporto ∆𝑥 ⁄∆𝑡 quando ∆𝑡 tende a zero1. Con la terminologia dell’analisi matematica, questo limite si
chiama derivata di x rispetto a t. Quindi 𝑣𝑥 ≡ 𝑙𝑖𝑚
∆𝑥
∆𝑡→0 ∆𝑡
=
𝑑𝑥
𝑑𝑡
. Il termine generico Velocità è adoperato per riferirsi alla
Velocità Istantanea.
Esiste anche una velocità scalare istantanea, che non è altro che il modulo del vettore Velocità Istantanea e non
necessita di ulteriori chiarimenti.
Quando la velocità varia nel tempo, si dice che la particella è accelerata. Se una particella in moto lungo l’asse x ha
velocità 𝑣𝑥𝑖 all’istante 𝑡𝑖 e velocità 𝑣𝑥𝑓 all’istante 𝑡𝑓 , l’accelerazione media 𝑎𝑥,𝑚𝑒𝑑 nell’intervallo di tempo ∆𝑡 = 𝑡𝑓 − 𝑡𝑖
è definita come il rapporto ∆𝑣𝑥 ⁄∆𝑡 in cui ∆𝑣𝑥 = 𝑣𝑥1 − 𝑣𝑥0 è la variazione di velocità nell’intervallo di tempo. Quindi,
𝑎𝑥,𝑚𝑒𝑑 ≡
𝑣𝑥1 −𝑣𝑥0
𝑡1 −𝑡0
=
∆𝑣𝑥
∆𝑡
. L’accelerazione è una misura della velocità scalare di variazione della velocità, ma è una
grandezza vettoriale.
Se il valore dell’accelerazione media è diverso in diversi intervalli di tempo, è utile definire l’accelerazione istantanea
come il limite dell’accelerazione media quando ∆𝑡 tende a zero, analogamente alla velocità istantanea. Quindi, 𝑎𝑥 ≡
𝑙𝑖𝑚
∆𝑣𝑥
∆𝑡→0 ∆𝑡
=
𝑑𝑣𝑥
𝑑𝑡
. Cioè, l’accelerazione istantanea è uguale alla derivata della velocità rispetto al tempo, che per
definizione è la pendenza del grafico velocità-tempo. Quando l’accelerazione e la velocità sono nello stesso verso,
l’oggetto sta aumentando il modulo della velocità in quel verso; se, invece, l’accelerazione e la velocità hanno verso
discorde, la velocità scalare dell’oggetto sta diminuendo nel tempo.
Se l’accelerazione di una particella varia nel tempo, descrivere il moto di tale particella può essere complicato. Se,
invece, l’accelerazione è costante, possiamo utilizzare un modello molto pratico, appunto quello della particella
sottoposta ad accelerazione costante. In questo caso, l’accelerazione media relativa a qualsiasi intervallo di tempo è
uguale all’accelerazione istantanea in ogni istante di tempo contenuto nell’intervallo. Se consideriamo, per
convenienza, 𝑡0 = 0 e 𝑡1 = 𝑡, possiamo esprimere la velocità 𝑣𝑥 = 𝑣𝑥0 + 𝑎𝑥 𝑡. Questa espressione ci permette di
prevedere la velocità ad ogni istante t se la velocità iniziale e l’accelerazione (costante) sono note. Per conoscere,
invece, la posizione della particella, sapendo velocità (iniziale e finale) ed istante di tempo, utilizziamo l’equazione 𝑥 =
1
𝑥0 + (𝑣𝑥0 + 𝑣𝑥 )𝑡. Possiamo inoltre arrivare alla posizione anche conoscendo l’accelerazione (costante) invece della
2
1
velocità finale: 𝑥 = 𝑥0 + 𝑣𝑥0 𝑡 + 𝑎𝑥 𝑡 2 . Infine, esiste anche una formula per la velocità in funzione della posizione:
2
𝑣𝑥 2 = 𝑣𝑥0 2 + 2𝑎𝑥 (𝑥 − 𝑥0 ).
Queste equazioni sono utilizzabili anche per un corpo in caduta libera: l’accelerazione 𝑎⃗ diventerà però l’accelerazione
di gravità 𝑔⃗ = 9.80 𝑚⁄𝑠 2 = 980 𝑐𝑚⁄𝑠 2 = 32 𝑓𝑡⁄𝑠 2 . La direzione del vettore 𝑔⃗ è diretta in basso verso il centro della
Terra.
1
Lo spostamento ∆𝑥 tende a zero quando ∆𝑡 tende a zero, ma il rapporto ∆𝑥 ⁄∆𝑡 tende al valore della vera pendenza
della retta tangente alla curva x in funzione di t.
Moto in due dimensioni
Il moto di una particella lungo una retta è completamente determinato se è nota la sua posizione in funzione del
tempo. Nel piano xy, invece, la posizione della particella sarà espressa da un vettore posizione 𝑟⃗, tracciato a partire
dall’origine del sistema di riferimento alla posizione della particella. Quindi, ∆𝑟⃗ ≡ ⃗⃗⃗⃗
𝑟1 − ⃗⃗⃗⃗.
𝑟0
La velocità media 𝑣⃗𝑚𝑒𝑑 della particella nell’intervallo di tempo ∆𝑡 è il rapporto fra lo spostamento e l’intervallo di
tempo stesso. Cioè, 𝑣⃗𝑚𝑒𝑑 ≡
∆𝑟⃗
∆𝑡
. Poiché lo spostamento è una grandezza vettoriale, anche la velocità media è un
vettore, diretto lungo ∆𝑟⃗. Come quella unidimensionale, anche questa velocità media è indipendente dal percorso e
dipende soltanto dalle coordinate iniziali e da quelle finali.
La velocità istantanea 𝑣⃗ è, invece, il limite della velocità media ∆𝑟⃗⁄∆𝑡 allorquando ∆𝑡 tende a 0. Ovvero, in simboli,
𝑣⃗ ≡ 𝑙𝑖𝑚
∆𝑟⃗
∆𝑡→0 ∆𝑡
=
𝑑𝑟⃗
𝑑𝑡
. La direzione del vettore velocità istantanea in ogni punto della traiettoria è quella della retta
tangente alla traiettoria in quel punto e nel verso del moto. Il modulo della velocità istantanea è la velocità scalare.
Se la velocità cambia (anche solo in direzione), il vettore velocità istantanea cambia da 𝑣⃗0 al tempo 𝑡0 a 𝑣⃗1 al tempo
𝑡1 . L’accelerazione media 𝑎⃗𝑚𝑒𝑑 è definita come il rapporto della variazione della velocità istantanea ∆𝑣⃗ in un intervallo
di tempo ∆𝑡 e l’intervallo di tempo stesso. In simboli, 𝑎⃗𝑚𝑒𝑑 ≡
𝑣⃗⃗1 −𝑣⃗⃗0
𝑡1 −𝑡0
=
∆𝑣⃗⃗
∆𝑡
. L’accelerazione media è una grandezza
vettoriale (poiché la velocità istantanea è un vettore) diretta lungo ∆𝑣⃗.
L’accelerazione istantanea 𝑎⃗ è, infine, il valore limite del rapporto ∆𝑣⃗⁄∆𝑡, allorché ∆𝑡 tende a zero, cioè la derivata del
vettore velocità rispetto al tempo: 𝑎⃗ ≡ 𝑙𝑖𝑚
∆𝑣⃗⃗
∆𝑡→0 ∆𝑡
=
𝑑𝑣
𝑑𝑡
.
Consideriamo ora il moto in due dimensioni in cui modulo e direzione dell’accelerazione rimangono costanti; esso può
essere descritto conoscendo il suo vettore posizione 𝑟⃗ in ogni istante. Nel piano xy, il vettore posizione si può scrivere
come 𝑟⃗ = 𝑥𝑖̂ + 𝑦𝑗̂, dove x, y ed 𝑟⃗ variano nel tempo al muoversi della particella. Anche il vettore velocità può essere
espresso in termini simili: 𝑣⃗ = 𝑣𝑥 𝑖̂ + 𝑣𝑦 𝑗̂. Assumendo il vettore accelerazione 𝑎⃗ costante, anche le sue componenti 𝑎𝑥
ed 𝑎𝑦 lo sono. Pertanto, possiamo applicare le equazioni della cinematica unidimensionale anche in questo caso,
1
modificandole opportunamente. Otteniamo, così, le seguenti equazioni: 𝑣⃗ = 𝑣⃗0 + 𝑎⃗𝑡 ed 𝑟⃗ = 𝑟⃗0 + 𝑣⃗0 𝑡 + 𝑎⃗𝑡 2 . In altre
2
parole, il moto di due dimensioni con accelerazione costante è equivalente a due moti indipendenti nelle direzioni x ed
y aventi accelerazioni 𝑎𝑥 ed 𝑎𝑦 costanti, giacché il moto nella direzione x non influenza quello nella direzione y e
viceversa.
Il moto di un proiettile, sparato su un suolo piano dall’origine a 𝑡 = 0 con una componente 𝑣𝑦 positiva è un moto in
due dimensioni. Vi sono due punti nel moto interessanti da analizzare: il picco massimo, di coordinate cartesiane (R/2,
h) ed il punto di atterraggio, di coordinate (R,0). La distanza R è detta gittata del proiettile ed h è la sua altezza
massima. A causa della simmetria della traiettoria, il proiettile raggiunge la sua massima altezza h quando la sua
posizione x è la metà della gittata R. Si possono determinare R ed h in funzione di 𝑣0 , 𝜗0 e g. L’altezza massima sarà
determinata dall’equazione ℎ =
𝑣0 2 𝑠𝑖𝑛 𝜗0
2𝑔
, da cui si evince che per aumentare l’altezza massima si può agire in due
modi: imprimere una maggiore velocità iniziale 𝑣0 oppure spararlo ad un angolo 𝜗0 maggiore (oppure andare in un
posto con una minore accelerazione di gravità, come sulla Luna!). La gittata R, cioè la distanza orizzontale percorsa in
un tempo doppio di quello necessario a raggiungere il punto più alto, è, invece, calcolabile con l’equazione 𝑅 =
𝑣0 2 𝑠𝑖𝑛 2𝜗0 𝑐𝑜𝑠 𝜗0
𝑔
=
𝑣0 2 𝑠𝑖𝑛 2𝜗0
𝑔
, da cui si evince che per aumentare la gittata si può agire in due modi: imprimere una
velocità iniziale maggiore oppure andare in un posto con una minore accelerazione di gravità (come sulla Luna!).
Se il percorso è circolare e la velocità è (di modulo) costante, si parla di moto circolare uniforme; la particella che si
muove con questo moto ha comunque un’accelerazione, anche se la velocità non cambia di modulo, dal momento che
la velocità cambia in ogni istante, per rimanere tangente alla traiettoria. Questo tipo di accelerazione si chiama
accelerazione centripeta ed il suo modulo è dato da 𝑎𝑐 =
𝑣2
𝑟
, dove r è il raggio della circonferenza. L’accelerazione
centripeta è diretta verso il centro della circonferenza. In molte situazioni, è conveniente descrivere il moto di una
particella che si muove con velocità costante di modulo lungo una circonferenza di raggio r in funzione del periodo T,
definito come il tempo necessario per una rivoluzione completa: nel tempo T, la particella si muove su un percorso di
2𝜋𝑟, uguale alla lunghezza della traiettoria circolare. Quindi, poiché il modulo della velocità è uguale alla lunghezza
della circonferenza diviso per il periodo, ossia 𝑣 = 2𝜋𝑟 ⁄𝑇, segue che il periodo sarà definito dall’equazione 𝑇 =
2𝜋𝑟
𝑣
.
Nel caso in cui, invece, la velocità di una particella, lungo un percorso curvo, vari di modulo e di direzione, la velocità
della particella sarà sempre tangente al percorso e l’accelerazione sarà individuata dalla somma vettoriale 𝑎⃗ = 𝑎⃗𝑟 +
𝑎⃗𝑡 , dove 𝑎⃗𝑟 è la cosiddetta accelerazione radiale (dovuta alla variazione della direzione del vettore velocità ed il cui
modulo è uguale a −𝑎𝑐 ), mentre 𝑎⃗𝑡 è l’accelerazione tangenziale (dovuta alla variazione del modulo del vettore
velocità ed il cui modulo è uguale a
𝑎𝑟
𝑑|𝑣⃗⃗|
𝑑𝑡
).
𝑎⃗
𝑎𝑡
Le Leggi del Moto
Ciascuno di noi ha una comprensione elementare del concetto di forza, tratta dall’esperienza quotidiana; dal punto di
vista fisico, si distingue fra forze di contatto, che rappresentano il risultato di un contatto fisico fra due oggetti, e campi
di forze, che non necessitano di contatto e possono agire attraverso lo spazio vuoto. La distinzione fra i due non è così
netta come sembrerebbe, dal momento che le forze di contatto sembrano in realtà dovute a campi di forze a livello
atomico. Sperimentalmente, le forze si comportano come vettori, per cui è conveniente adoperare la regola della
somma fra vettori per ottenere la forza risultante su un corpo.
La prima legge di Newton, talvolta detta principio di inerzia, definisce un insieme speciale di sistemi di riferimento
chiamati riferimenti inerziali. La legge può essere espressa come: “Se un corpo non interagisce con altri corpi, è
possibile individuare un sistema di riferimento nel quale esso abbia accelerazione nulla.” Un tale sistema di riferimento
è chiamato sistema di riferimento inerziale. Un qualsiasi sistema di riferimento che si muova con velocità costante
relativa ad un sistema di riferimento inerziale è esso stesso un sistema di riferimento inerziale (es. una nave che si
muove con velocità costante rispetto alla Terra è inerziale per i suoi occupanti; la Terra stessa, che si muove con
velocità costante rispetto al Sole, è inerziale per i suoi abitanti). La Terra, che si muove, oltre che intorno al Sole, anche
intorno al proprio asse, è approssimabile ad un sistema inerziale perché le velocità dei suoi due moti sono del tutto
trascurabili se confrontate con l’accelerazione di gravità g. Consideriamo, quindi, inerziale qualsiasi sistema in moto
solidale a quello della Terra.
Un enunciato più pratico della legge di Newton è il seguente: in assenza di forze esterne, quando visto da un sistema
inerziale, un oggetto in quiete rimarrà in quiete ed un oggetto in moto persevererà nel suo stato di moto rettilineo
uniforme. In termini ulteriormente semplificati, quando su un corpo non agisce alcuna forza, la sua accelerazione è
zero.
La tendenza di un corpo a resistere alle variazioni della sua velocità è detta inerzia; una misura di questa tendenza è la
massa (detta per l’appunto massa inerziale), proprietà intrinseca ai corpi la cui unità di misura nel SI è il kilogrammo (è
una grandezza scalare). Maggiore è la massa di un oggetto, minore sarà l’accelerazione che assumerà se è sottoposto
ad una determinata forza. Poiché sperimentalmente la forza (risultante) agente su di un oggetto è proporzionale
all’accelerazione prodotta (𝐹 ∝ 𝑎), chiamiamo il fattore di proporzionalità massa. Attenzione: questa massa è
concettualmente differente dalla massa inerziale, tuttavia esse si identificano a livello numerico, per cui possiamo
ritenerle una stessa grandezza.
La massa non deve essere confusa con il peso, che è il modulo della forza gravitazionale 𝐹⃗𝑔 (la forza esercitata
sull’oggetto dal pianeta su cui risiede), proporzionale sì alla massa del corpo, ma anche all’accelerazione di gravità
(𝐹⃗𝑔 = 𝑝⃗ = 𝑚𝑔⃗). Pertanto, il peso è una grandezza vettoriale, mentre la massa è uno scalare.
La seconda legge di Newton afferma che l’accelerazione di un oggetto è direttamente proporzionale alla forza
risultante agente su di esso ed inversamente proporzionale alla sua massa: 𝑎⃗ ∝
∑ 𝐹⃗
𝑚
, dove ∑ 𝐹⃗ è la forza risultante,
ovvero la somma vettoriale di tutte le forze agenti sull’oggetto di massa m. In forma matematica, ∑ 𝐹⃗ = 𝑚𝑎⃗,
espressione equivalente alle tre equazioni componenti ∑ 𝐹𝑥 = 𝑚𝑎𝑥 , ∑ 𝐹𝑦 = 𝑚𝑎𝑦 ed ∑ 𝐹𝑧 = 𝑚𝑎𝑧 .
L’unità di misura della forza nel SI è il Newton (N), definito come la forza che agendo su una massa di 1 kg produce
un’accelerazione di 1 𝑚⁄𝑠 2 .
La terza legge di Newton (detta anche Principio di Azione e Reazione), infine, afferma che se due corpi interagiscono,
la forza 𝐹⃗12 esercitata dal corpo 1 sul corpo 2 è uguale in modulo, ma di verso opposto, alla forza 𝐹⃗21 esercitata dal
corpo 2 sul corpo 1. Ovvero, le forze si presentano sempre in coppia. Es. la Terra esercita su un oggetto, come un
monitor di computer fermo su di un tavolo, una forza 𝐹⃗𝑇𝑚 diretta verso il basso, mentre il monitor esercita una forza di
reazione sulla Terra𝐹⃗𝑚𝑇 = −𝐹⃗𝑇𝑚 . Il monitor non accelera perché esso è sostenuto dal tavolo, che esercita sul monitor
una forza verso l’alto 𝑛⃗⃗ = 𝐹⃗𝑡𝑚 , chiamata forza normale. Dalla seconda legge di Newton si evince che, poiché il monitor
ha accelerazione nulla, ma massa non nulla, la risultante delle forze deve essere nulla: ∑ 𝐹⃗ = 𝑛⃗⃗ − 𝑚𝑔⃗ = 0, da cui 𝑛 =
𝑚𝑔. La forza normale bilancia la forza gravitazionale sul monitor, quindi la forza risultante è zero.
Le Forze
Quando un corpo è in movimento su una superficie scabra o attraverso un mezzo viscoso (come l’acqua, ma anche
l’aria), c’è una resistenza al moto, dovuta all’interazione del corpo con ciò che lo circonda. Chiamiamo tale resistenza
forza di attrito. Se applichiamo ad un oggetto una forza piccola, esso rimane fermo finché non si raggiunge una certa
soglia: questa soglia è rappresentata dalla forza che bilancia la forza d’attrito statico 𝑓⃗𝑠 , che impedisce all’oggetto di
muoversi. Quando l’oggetto comincia a muoversi, la forza esercitata 𝐹⃗ ha superato la forza d’attrito statico massima
𝑓⃗𝑠,𝑚𝑎𝑥 . Quando l’oggetto è in movimento, la forza di attrito diventa minore di 𝑓⃗𝑠,𝑚𝑎𝑥 e prende il nome di forza d’attrito
dinamico 𝑓⃗𝑑 . L’accelerazione è prodotta ora non dalla forza 𝐹⃗ , bensì dalla forza netta 𝐹⃗ − 𝑓⃗𝑑 . Se riduciamo l’intensità
di 𝐹⃗ fino ad eguagliarla in modulo ad 𝑓⃗𝑑 , l’accelerazione diventa zero e l’oggetto si muoverà con velocità costante. Se
la forza applicata viene rimossa, la forza di attrito fornirà un’accelerazione nel verso opposto (cioè una decelerazione),
fermando il corpo.
Il modulo della forza di attrito statico fra due qualsiasi superfici a contatto può assumere valori dati da 𝑓𝑠 ≤ 𝜇𝑠 𝑛, dove
𝜇𝑠 è una costante adimensionale che rappresenta il coefficiente di attrito statico ed n è il modulo della forza normale.
La disuguaglianza ha valore fino al momento in cui il corpo è sul punto di iniziare a scivolare (in cui 𝑓𝑠 = 𝑓𝑠,𝑚𝑎𝑥 ≡ 𝜇𝑠 𝑛),
situazione detta di moto imminente.
Il modulo della forza di attrito dinamico agente fra due superfici è, invece, uguale ad 𝑓𝑑 = 𝜇𝑑 𝑛, dove 𝜇𝑑 è il
coefficiente di attrito dinamico, indipendente (almeno per i nostri scopi) dalla velocità relativa delle superfici. In
generale, comunque, 𝜇𝑑 è minore di 𝜇𝑠 .
La direzione della forza d’attrito è opposta al moto reale (attrito cinetico) o al moto imminente (moto statico)
dell’oggetto, relativamente alla superficie con la quale è a contatto.
La forza gravitazionale è la forza di attrazione reciproca fra due corpi qualsiasi nell’Universo. Sebbene essa sia
estremamente intensa fra corpi macroscopici, è la più debole di tutte le forze fondamentali. La legge di gravitazione
universale di Newton afferma che ogni particella nell’Universo attrae ogni altra particella con una forza direttamente
proporzionale al prodotto delle due masse ed inversamente proporzionale al quadrato della distanza. In simboli, 𝐹𝑔 =
𝐺
𝑚1 𝑚2
𝑟2
, dove G è la costante di gravitazione universale, corrispondente a 6.67 × 10−11 𝑁 ∙ 𝑚2 ⁄𝑘𝑔2 .
La forza elettromagnetica è la forza che lega atomi e molecole in composti che formano la materia ordinaria ed è
molto più intensa della forza gravitazionale. In realtà, tutte le forze che agiscono a livello macroscopico (eccetto quella
gravitazionale) sono manifestazioni della forza elettromagnetica (forze di contatto, forze di tensione, forze di attrito,
ecc.). La forza elettromagnetica prevede l’interazione fra due tipi di particelle, quelle con carica positiva e quelle con
carica negative: cariche di segno opposto si attraggono, cariche dello stesso segno di respingono (diversamente dalla
forza gravitazionale, che è sempre di tipo attrattivo). Il modulo della forza elettrostatica (cioè della forza
elettromagnetica fra due particelle cariche a riposo) è direttamente proporzionale alle cariche ed inversamente
proporzionale al quadrato della distanza fra le cariche. In simboli, la cosiddetta legge di Coulomb si scrive come 𝐹𝑒 =
𝑘𝑒
𝑞1 𝑞2
𝑟2
, dove 𝑘𝑒 è detta costante di Coulomb ed è uguale a 8.99 × 109 𝑁 ∙ 𝑚2 ⁄𝐶 2 .
Esistono, inoltre, altre due forze fondamentali: una è la cosiddetta forza forte, forza di attrazione fra quark (particelle
che compongono elettroni e protoni), che supera la forza elettrostatica, per esempio nel tenere insieme protoni e
neutroni all’interno dei nuclei degli atomi; l’altra è detta forza debole, una forza a corto raggio che tende a produrre
instabilità in certi nuclei. Nel tentativo di unificare i tipi di forze, nel 1967 è stato proposto (e poi confermato
sperimentalmente nel 1984) che la forza elettromagnetica e la forza debole siano un’unicum, denominato oggi forza
elettrodebole. L’obiettivo è unificare tutte e quattro le forze in una singola superforza, con leggi uniche valide per tutti i
fenomeni fisici.
Energia e Trasferimento di Energia
L’energia è presente nell’Universo in molteplici forme. Ogni processo fisico nell’Universo coinvolge l’energia e
trasferimenti o trasformazioni di energia. Essa, pur essendo concettualmente così importante, è ben difficile da
definire, poiché non rappresenta una variabile “concreta” quale può essere la massa o la forza. Utilizziamo, quindi, due
concetti strettamente legati fra loro, quello di lavoro e quello di energia.
Innanzitutto, è bene definire il concetto di sistema come modello di semplificazione in cui concentriamo la nostra
attenzione su una piccola regione dell’Universo, ignorando i dettagli al di fuori di esso. Il contorno del sistema è
un’immaginaria superficie (spesso ma non necessariamente coincidente con una superficie fisica), che divide l’Universo
fra il sistema e l’ambiente circostante al sistema.
Se un sistema compie uno spostamento sotto l’azione di una forza costante, quella forza ha compiuto un lavoro sul
sistema. Questo lavoro si calcola come 𝐿 ≡ 𝐹∆𝑟 𝑐𝑜𝑠 𝜗, che non è altro che il prodotto scalare del modulo della forza
per il modulo dello spostamento. Si noti che per trovare il lavoro svolto non abbiamo bisogno di conoscere la durata
dello spostamento o la sua velocità o accelerazione. Il lavoro è, quindi, una grandezza scalare, misurata nel SI in 𝑁 ∙ 𝑚
o J (Joule). Dalla formula si nota che il lavoro è zero se sono nulli: la forza, lo spostamento oppure il coseno dell’angolo
compreso, il che accade quando l’angolo è di 90°, cioè quando la forza è perpendicolare allo spostamento. Se, invece,
la forza è parallela alla direzione (e ha lo stesso verso) dello spostamento (e quindi 𝜗 = 0 e 𝑐𝑜𝑠 𝜗 = 1), il lavoro
diventa uguale a 𝐹∆𝑟.
Nel caso di una forza variabile, quindi non costante, basta applicare la formula di cui sopra per spostamenti
infinitesimali (tendenti a zero) in cui la forza può ritenersi costante e sommare tutti questi piccoli lavori (di numero
tendente ad infinito): il valore totale tenderà ad un valore finito, ovvero l’area sottesa dalla curva forza-spostamento.
𝑥
In formula, 𝐿 = ∫𝑥 𝐹𝑥 𝑑𝑥 , cioè il lavoro svolto da 𝐹𝑥 durante lo spostamento da 𝑥0 ad 𝑥 è uguale all’integrale definito
0
(da 𝑥0 ad 𝑥) di 𝐹𝑥 in 𝑑𝑥. Se sul sistema agiscono più forze, il lavoro totale svolto sul sistema sarà il lavoro compiuto
dalla forza risultante.
Un sistema fisico costituito da un blocco, su una superficie orizzontale liscia, collegato ad una molla. Se la molla è
allungata o compressa di un tratto ∆𝑥 (a partire dalla sua posizione di equilibrio 𝑥0 = 0), essa eserciterà sul blocco una
forza data da 𝑓𝑚 = −𝑘𝑥, dove 𝑘 è una costante propria di ogni specifica molla, detta costante elastica della molla.
Questa legge è nota come legge di Hooke e risulta accurata purché lo spostamento non sia molto grande. E dunque il
𝑥
1
1
0
2
2
lavoro compiuto dalla molla sarà uguale a 𝐿𝑚 = ∫𝑥 (−𝑘𝑥)𝑑𝑥 = 𝑘𝑥02 − 𝑘𝑥 2 , da cui si nota che il lavoro sarà nullo
per qualsiasi moto i cui punti estremi coincidono (𝑥0 = 𝑥).
Un oggetto su cui è applicata una forza (che quindi compie un lavoro), che provoca uno spostamento, e quindi modifica
la sua velocità in modulo, avrà una certa energia cinetica. Il teorema delle forze vive (o teorema dell’energia cinetica)
dice, appunto, che: “quando è svolto lavoro su un sistema e la sola variazione nel sistema è il modulo della sua
velocità, il lavoro compiuto dalla forza risultante è uguale alla variazione dell’energia cinetica del sistema”. In formula,
1
𝐿 = 𝐸𝑘 = 𝑚𝑣 2 .
2
Va fatta una precisazione sui tipi di sistema: se un sistema è sottoposto a varie forze esterne, che ne causano una
variazione dell’energia cinetica, esso è un sistema non isolato. In tale sistema, il lavoro è inquadrato come un mezzo di
trasferimento di energia fra il sistema e l’ambiente. Tuttavia, esso non è l’unico: altri mezzi di trasferimento di energia
sono le onde meccaniche (propagazione in aria o in un altro mezzo), il calore (per mezzo di urti microscopici), la
trasmissione elettrica (per mezzo della corrente elettrica), la radiazione elettromagnetica, il trasferimento di materia.
Una nozione basilare è il principio di conservazione dell’energia: l’energia non si crea né si distrugge. Quando, infatti,
un sistema “perde” energia, vuol dire che essa ha attraversato il contorno ed è stata trasferita all’ambiente;
ugualmente, quando un sistema “acquista” energia, vuol dire che l’ambiente ne ha ceduto una quantità equivalente.
Oltre alla quantità di energia trasferita al sistema, è interessante conoscere anche la rapidità con cui essa viene
trasmessa. Si usa quindi il concetto di potenza. La potenza media è uguale al rapporto fra il lavoro svolto da una forza
esterna in un intervallo di tempo e l’intervallo di tempo stesso. In simboli, 𝑊𝑚𝑒𝑑 ≡
𝐿
∆𝑡
. La potenza istantanea, a un
particolare istante di tempo t, è il valore limite della potenza media quando ∆𝑡 tende a zero: 𝑊 ≡ 𝑙𝑖𝑚
𝐿
∆𝑡→0 ∆𝑡
=
𝑑𝐿
𝑑𝑡
generale, però, la potenza è definita non solo per il lavoro, ma per ogni tipo di trasferimento di energia, come 𝑊 =
. In
𝑑𝐸
𝑑𝑡
,
ovvero la rapidità con cui l’energia attraversa il contorno del sistema. L’unità di misura della potenza nel SI è il 𝑊
(Watt) o 𝐽⁄𝑠 . Un’altra unità, in uso nel sistema convenzionale USA, è il cavallo vapore (hp), corrispondente a 746 W. In
funzione del Watt si definisce una nuova unità di energia, il chilowatt-ora (kWh), corrispondente all’energia trasferita
in un’ora al tasso costante di 1 kW. ATTENZIONE: il kWh è un’unità di energia, NON di potenza!
Energia Potenziale
Immaginiamo un sistema costituito da un libro e dalla Terra, che interagiscono tramite la forza gravitazionale.
Sollevando (lentamente) il libro di una quota ∆𝑦 = 𝑦𝑏 − 𝑦𝑎 , faremo certamente un certo lavoro sul sistema. Tuttavia,
poiché il libro era fermo all’inizio e resta fermo anche dopo lo spostamento, la sua energia cinetica non cambia. Ma ci
deve essere un’altra forma di energia immagazzinata, dal momento che rilasciando il libro, esso cade al suolo,
acquisendo una certa velocità. Mentre il libro era sollevato, esso possedeva la potenziale capacità di acquisire energia
cinetica, donatagli dal sollevamento iniziale. Questo meccanismo di immagazzinamento è, quindi, chiamato energia
potenziale (nello specifico, energia potenziale gravitazionale). Matematicamente, l’energia potenziale gravitazionale
si esprime con la relazione 𝑈𝑔 ≡ 𝑚𝑔ℎ, dove m è la massa dell’oggetto, g è l’accelerazione di gravità ed h è lo
spostamento in senso verticale. Ebbene, il lavoro compiuto dalla forza che ha sollevato l’oggetto è uguale alla
variazione dell’energia potenziale: 𝐿 = ∆𝑈𝑔 = 𝑈𝑔 − 𝑈𝑔0 , dove, poiché il libro era inizialmente a terra, 𝑈𝑔0 era uguale a
zero, per cui 𝐿 = 𝑈𝑔 . L’energia potenziale gravitazionale dipende solamente dall’altezza che raggiunge l’oggetto e non
cambia se esso viene sollevato verticalmente o trascinato su di un piano inclinato.
Possiamo definire anche l’energia potenziale elastica come l’energia immagazzinata nella molla deformata (che sia
1
compressa o allungata): 𝑈𝑚 ≡ 𝑘𝑥 2 . Poiché 𝑥 2 è sempre una quantità positiva, l’energia potenziale elastica, per una
2
molla deformata, è sempre una quantità positiva.
La somma dell’energia potenziale e dell’energia cinetica di un sistema si chiama energia meccanica totale del sistema.
La legge della conservazione dell’energia meccanica afferma, appunto, che l’energia meccanica di un sistema isolato
non cambia: se aumenta l’energia cinetica, diminuirà quella potenziale e viceversa. In simboli, 𝐸𝑚 = 𝐸𝑘 + 𝑈 = 𝐸𝑚0 =
𝐸𝑘0 + 𝑈0 . Quest’equazione è vera soltanto se non c’è attrito fra le parti del sistema.
La forza di gravità è un esempio di una categoria di forze per le quali l’energia meccanica di un sistema si conserva.
Queste sono chiamate forze conservative. L’altra possibilità di immagazzinare energia in un sistema oltre quella
cinetica e potenziale è l’energia interna; quindi, una forza conservativa è una forza tra i membri di un sistema che non
causa trasformazioni di energia meccanica in energia interna dentro il sistema. Il lavoro svolto da una forza
conservativa ha una particolare proprietà: è indipendente dalla traiettoria seguita dai componenti del sistema e
dipende soltanto dalla configurazione iniziale e finale del sistema. Da questo segue che, quando un componente del
sistema si muove lungo un percorso chiuso, il lavoro svolto dalla forza conservativa è zero.
Una forza non-conservativa, invece, è una forza fra i componenti di un sistema che causa dentro il sistema
trasformazioni di energia meccanica in energia interna. Un comune esempio è la forza d’attrito, che causa il
riscaldamento dell’oggetto e della superficie su cui scorre. Per forze non conservative, inoltre, il lavoro dipende dalla
traiettoria seguita e non è nulla su un percorso chiuso.
Indipendentemente dal fatto che le forze agenti siano conservative o non-conservative, l’energia totale di un sistema
isolato (cinetica, potenziale ed interna) si conserva. Mai alcuna violazione di questo principio di conservazione critico è
stata osservata: se consideriamo, infatti, l’Universo come un sistema isolato, questa affermazione dichiara che nel
nostro Universo esiste una quantità fissa di energia e che tutti i processi all’interno dell’Universo rappresentano
trasformazioni di energia da un tipo ad un altro.
La formula per l’energia potenziale gravitazionale 𝑈𝑔 = 𝑚𝑔ℎ è valida per oggetti posti in prossimità della superficie
terrestre; tuttavia, esiste una formula più generale indipendente dalla distanza di separazione fra l’oggetto e la Terra.
Tale formula è la seguente: 𝑈𝑔 = −𝐺
𝑚1 𝑚2
𝑟
, dove r è la distanza fra i centri dei due oggetti. Anche la forza
elettrostatica fra due particelle, che ha un’espressione simile alla legge di gravitazione universale di Newton, consente
di ricavare una formula che esprima l’energia potenziale elettrica: 𝑈𝑒 = 𝑘𝑒
𝑞1 𝑞2
𝑟
. La differenza maggiore, oltre alla
presenza delle cariche al posto delle masse e la differente costante in uso, è la mancanza del segno negativo. Questo è
dovuto al fatto che il segno è automaticamente fornito dai segni delle cariche: se sono concordi, l’energia potenziale
elettrica sarà positiva (poiché la forza è repulsiva), se invece sono discordi, l’energia potenziale sarà negativa (e la
forza attrattiva).
Urti e Quantità di Moto
Per descrivere un oggetto in moto, si può far ricorso al concetto di quantità di moto (o momento lineare), la cui
somma per le particelle in un sistema isolato si conserva. Essa è il prodotto della massa della particella per la velocità a
cui si muove. In simboli, 𝑝⃗ ≡ 𝑚𝑣⃗. La quantità di moto è, dunque, un vettore, dal momento che è il prodotto di un
vettore per uno scalare. La sua direzione e verso sono gli stessi della velocità. Nel SI si misura in 𝑘𝑔 ∙ 𝑚⁄𝑠 . Per un corpo
che si muova nello spazio tridimensionale, l’equazione può essere scomposta in 𝑝𝑥 = 𝑚𝑣𝑥 , 𝑝𝑦 = 𝑚𝑣𝑦 e 𝑝𝑧 = 𝑚𝑣𝑧 .
Applicando la Seconda Legge di Newton alla quantità di moto, otteniamo che la forza risultante agente su una
particella avente quantità di moto 𝑝⃗ è uguale alla variazione nel tempo di detta quantità di moto. In formula, ∑ 𝐹⃗ =
𝑑𝑝⃗
𝑑𝑡
=
𝑑(𝑚𝑣⃗⃗)
𝑑𝑡
=𝑚
𝑑𝑣⃗⃗
𝑑𝑡
= 𝑚𝑎⃗ (se la massa della particella è costante).
In un sistema isolato, le componenti del moto nelle direzioni x, y e z si conservano indipendentemente. Questo
risultato, noto come principio di conservazione della quantità di moto, può essere riassunto come “la quantità di
moto totale di un sistema isolato è costante”; questo principio è valido indipendentemente dalla natura delle forze
considerate, anche, cioè, se le forze non sono conservative.
Come detto prima, se la forza risultante è uguale alla variazione della quantità di moto nell’unità di tempo, allora la
quantità di moto sarà uguale al prodotto della forza (risultante) per l’intervallo di tempo entro cui essa agisce.
𝑡
L’integrazione di questa espressione ci porta alla formula ∆𝑝⃗ = 𝑝⃗ − ⃗⃗⃗⃗⃗
𝑝0 = ∫𝑡 ∑ 𝐹⃗ 𝑑𝑡. L’integrale della forza rispetto
0
all’intervallo di tempo durante il quale essa agisce si chiama impulso della forza ed è un vettore avente stessa
direzione e verso della quantità di moto (e stesse dimensioni).
Il cosiddetto teorema dell’impulso afferma che l’impulso totale di una forza risultante ∑ 𝐹⃗ su una particella eguaglia la
variazione della quantità di moto della particella. In simboli, 𝐼⃗ = ∆𝑝⃗. Useremo spesso un’approssimazione sull’impulso:
assumeremo che l’intervallo di tempo sia breve e che una delle forze che contribuiscono alla forza risultante superi di
molto le altre per intensità; con questa approssimazione, possiamo trascurare gli effetti delle altre forze senza
problemi.
La legge di conservazione della quantità di moto può essere utilizzata per descrivere ciò che avviene negli urti fra due
oggetti. Useremo l’approssimazione dell’impulso, assumendo che le forze dovute all’urto siano molto più intense di
tutte le forze esterne presenti. L’urto può essere macroscopicamente inteso come il risultato di un contatto fra due
oggetti, ma questa definizione mal si applica agli urti microscopici, dal momento che due particelle con la stessa carica
(per esempio, un protone ed una particella alfa, entrambi carichi positivamente) si respingono senza che avvenga alcun
contatto: l’urto, tuttavia, è avvenuto.
L’urto si definisce urto anelastico quando l’energia cinetica non si conserva (anche se la quantità di moto si conserva).
Per esempio, l’urto di una palla di gomma contro un tavolo è anelastico, poiché parte dell’energia cinetica della palla si
trasforma in energia interna con la deformazione. Gli urti anelastici sono utilizzati in medicina per la rilevazione della
pressione intraoculare: una macchina detta tonometro invia uno sbuffo di aria contro la superficie esterna dell’occhio e
misura la velocità con cui essa viene riflessa. A pressione normale, molta energia cinetica viene dissipata (poiché
l’occhio è morbido) e la velocità è bassa. A pressioni più alte (patologiche), l’occhio è rigido e dissipa poca energia
cinetica, con il risultato di riflettere l’aria a velocità maggiore. Quando due oggetti che si urtano rimangono uniti l’uno
all’altro (quindi viene dissipata TUTTA l’energia cinetica), l’urto è detto perfettamente anelastico. È quanto accade
quando, per esempio, un meteorite cade sulla Terra e vi rimane sepolto.
Un urto elastico, invece, è un urto in cui l’energia cinetica si conserva (così come la quantità di moto): nel mondo
macroscopico, gli urti sono elastici solo approssimativamente, poiché parte dell’energia cinetica è sempre dispersa
sotto forma di calore o suono (come in una partita a biliardo). A livello atomico e subatomico, invece, si possono avere
delle vere e proprie collisioni elastiche. Ad ogni modo, è bene convenire che elasticità ed anelasticità degli urti sono
condizioni limite: nella realtà avvengono sempre casi intermedi.
Moto Rotazionale
Quando un corpo esteso, come una ruota, ruota intorno al proprio asse, il moto non può essere analizzato
considerando il corpo come una particella, in quanto ad ogni istante le differenti parti del corpo si muovono con
velocità differenti ed in direzioni differenti. Possiamo, comunque, analizzare il moto considerando il corpo esteso come
composto da un insieme di particelle in moto.
Per indicare la posizione di un corpo rotante (posizione rotazionale o posizione angolare), possiamo utilizzare la sua
orientazione (cioè l’angolo) relativa a una qualche direzione fissa di riferimento. Quando un corpo ruota, una sua
particella situata sul punto P descriverà un arco di lunghezza s sul percorso circolare di raggio r; la sua posizione
𝑠
angolare sarà uguale a 𝜗 = . ATTENZIONE: l’angolo 𝜗 è il rapporto fra un arco ed un raggio, pertanto è un numero
𝑟
puro. Gli attribuiamo, tuttavia, l’unità di misura artificiale di radiante (rad), definito come “l’angolo sotteso da un arco
di lunghezza uguale al raggio”. Poiché la lunghezza della circonferenza è 2𝜋𝑟, 360° corrispondono ad un angolo di 2𝜋
rad. Per convertire, quindi, un angolo espresso in gradi in un angolo in radianti, usiamo la formula 𝜗(𝑟𝑎𝑑) =
𝜋
𝜋
𝜋
3
4
6
𝜋
180°
𝜗(𝑑𝑒𝑔)
(es. 60° = ; 45° = ; 30° = ).
La velocità angolare media si definisce come il rapporto dello spostamento angolare del corpo rigido e l’intervallo di
tempo ∆𝑡 entro cui avviene lo spostamento: 𝜔𝑚𝑒𝑑 ≡
𝜗−𝜗0
𝑡−𝑡0
=
∆𝜗
∆𝑡
.
Analogamente alla velocità lineare, la velocità angolare istantanea è definita come il limite, per ∆𝑡 tendente a zero,
del rapporto ∆𝜗⁄∆𝑡: 𝜔 ≡ 𝑙𝑖𝑚
∆𝜗
∆𝑡→0 ∆𝑡
=
𝑑𝜗
𝑑𝑡
. L’unità di misura è il 𝑟𝑎𝑑 ⁄𝑠 oppure il 𝑠 −1 (essendo il radiante una grandezza
adimensionale).
Se la velocità angolare istantanea di una particella varia dal valore 𝜔0 ad 𝜔 nell’intervallo di tempo ∆𝑡, la particella ha
un’accelerazione angolare. L’accelerazione angolare media 𝛼𝑚𝑒𝑑 di una particella in moto lungo una traiettoria
circolare è definita dal rapporto fra la variazione di velocità angolare e l’intervallo di tempo: 𝛼𝑚𝑒𝑑 ≡
𝜔−𝜔0
𝑡−𝑡0
=
∆𝜔
∆𝑡
.
In analogia con l’accelerazione lineare, l’accelerazione angolare istantanea è definita come il limite, per ∆𝑡 tendente a
zero, del rapporto ∆𝜔⁄∆𝑡: 𝛼 ≡ 𝑙𝑖𝑚
∆𝜔
∆𝑡→0 ∆𝑡
=
𝑑𝜔
𝑑𝑡
. L’accelerazione angolare si misura in 𝑟𝑎𝑑 ⁄𝑠 2 oppure in 𝑠 −2 .
Quando un corpo rigido ruota attorno ad un asse fisso, ogni particella del corpo ruota attorno a quest’asse dello stesso
angolo, in un dato intervallo di tempo, ed ha la stessa velocità angolare e la stessa accelerazione angolare.
Le leggi del moto traslazionale unidimensionale possono essere applicate anche al moto rotazionale, sostituendo
l’accelerazione angolare all’accelerazione, la velocità angolare alla velocità e la posizione angolare alla posizione: 𝜔 =
1
1
2
2
𝜔0 + 𝛼𝑡, 𝜗 = 𝜗0 + 𝜔0 𝑡 + 𝛼𝑡 2, 𝜔2 = 𝜔0 2 + 2𝛼(𝜗 − 𝜗0 ) e 𝜗 = 𝜗0 + (𝜔0 + 𝜔)𝑡.
Poiché, quando un corpo rigido ruota intorno ad un asse fisso, ogni sua particella percorre una circonferenza, esiste
anche una velocità traslazionale sempre tangente alla traiettoria, detta velocità tangenziale, il cui modulo è dato, per
definizione, da 𝑑𝑠 ⁄𝑑𝑡, dove s è lo spazio percorso dalla particella lungo la circonferenza, ovvero 𝑠 = 𝑟𝜗; poiché r è
costante, si ha: 𝑣 =
𝑑𝑠
𝑑𝑡
=𝑟
𝑑𝜗
𝑑𝑡
= 𝑟𝜔, cioè il modulo delle velocità tangenziale della particella è uguale al prodotto della
distanza della particella dall’asse di rotazione per la velocità angolare della particella stessa.
Possiamo calcolare anche un’accelerazione tangenziale, uguale alla variazione della velocità tangenziale nel tempo,
come 𝑎𝑡 =
𝑑𝑣
𝑑𝑡
=𝑟
𝑑𝜔
𝑑𝑡
= 𝑟𝛼, cioè la componente tangenziale dell’accelerazione traslazionale della particella sottoposta
al moto circolare è uguale al prodotto della distanza della particella dall’asse di rotazione per l’accelerazione angolare.
Come abbiamo visto in precedenza, una particella in moto in una traiettoria circolare è sottoposta ad un’accelerazione
centripeta, o radiale, di modulo 𝑣 2 ⁄𝑟 , diretta verso il centro di rotazione. Poiché 𝑣 = 𝑟𝜔, possiamo esprimere
l’accelerazione centripeta della particella in funzione della velocità angolare, come 𝑎𝑐 =
𝑣2
𝑟
= 𝑟𝜔2 . L’accelerazione
traslazionale totale della particella è 𝑎⃗ = 𝑎⃗𝑡 + 𝑎⃗𝑟 , quindi il suo modulo sarà 𝑎 = √𝑎𝑡 2 + 𝑎𝑟 2 = √𝑟 2 𝛼 2 + 𝑟 2 𝜔 2 =
𝑟√𝛼 2 + 𝜔 4 .
Assimilando un corpo rigido ad un insieme di particelle ed assumendo che esso ruoti attorno ad un asse fisso con
velocità angolare 𝜔, possiamo dire che ciascuna particella è in moto, cosicché ha una certa energia cinetica,
determinata dalla massa e dalla velocità tangenziale. Sia 𝑚𝑖 la massa dell’i-esima particella e 𝑣𝑖 la sua velocità,
1
l’energia cinetica di questa particella sarà uguale a 𝐸𝑘𝑖 = 𝑚𝑖 𝑣𝑖 2 . Possiamo, quindi, esprimere l’energia cinetica totale
2
1
del corpo come la somma delle energie cinetiche delle singole particelle. Cioè, 𝐸𝑘(𝑇𝑂𝑇) = ∑𝑖 𝐸𝑘𝑖 = ∑𝑖 𝑚𝑖 𝑣𝑖 2 =
2
1
2
1
∑𝑖 𝑚𝑖 𝑟𝑖 2 𝜔2 = (∑𝑖 𝑚𝑖 𝑟𝑖 2 )𝜔2 , dove abbiamo messo in evidenza 𝜔2 perché è uguale per tutte le particelle. La
2
grandezza in parentesi è chiamata momento d’inerzia del corpo rigido: 𝐼 = ∑𝑖 𝑚𝑖 𝑟𝑖 2 . Possiamo, quindi, esprimere
1
l’energia cinetica del corpo rigido che ruota attorno all’asse, cioè l’energia cinetica rotazionale, come 𝐸𝑘(𝑇𝑂𝑇) = 𝐼𝜔2 .
2
Quando su un corpo rigido imperniato su un certo asse si esercita una forza risultante e la retta d’azione (cioè la linea
immaginaria co-lineare al vettore forza ed estesa all’infinito nei due versi) della forza non passa attraverso il perno, il
corpo tende a ruotare attorno a quest’asse. La tendenza di una forza a far ruotare un corpo attorno a un certo asse si
misura con una grandezza (vettoriale) chiamata momento della forza (o momento meccanico). Esso è l’analogo nel
moto rotazionale della forza che causa le variazioni nel moto traslazionale, poiché è la causa delle variazioni nel moto
rotatorio. La forza applicata 𝐹⃗ che agisce formando un angolo 𝜑 rispetto al vettore posizione 𝑟⃗ che localizza il punto di
applicazione della forza, ha un momento di modulo 𝜏 ≡ 𝑟𝐹 𝑠𝑖𝑛 𝜑. La grandezza 𝑟 𝑠𝑖𝑛 𝜑, indicata con d, è chiamata
braccio del momento (o braccio della forza) e rappresenta la distanza fra l’asse di rotazione e la retta d’azione di 𝐹⃗ .
Quindi, possiamo definire il momento della forza come 𝜏 = 𝐹(𝑟 𝑠𝑖𝑛 𝜑) = 𝐹𝑑, oppure come prodotto vettoriale di 𝑟⃗ ed
𝐹⃗ , cioè 𝜏⃗ ≡ 𝑟⃗ × 𝐹⃗ ≡ 𝑟𝐹 𝑠𝑖𝑛 𝜑. Il momento di una forza non deve essere confuso con la forza: esso dipende dalla forza,
ma anche da dove essa è applicata. Inoltre, esso ha le dimensioni di una forza per una lunghezza e si misura in 𝑁 ∙ 𝑚.
Alla luce del moto rotazionale, perché un corpo sia in equilibrio sono necessarie due condizioni: la risultante delle forze
esterne agenti sul corpo deve essere uguale a zero: in simboli, ∑ 𝐹⃗ = 0 (condizione di equilibrio traslazionale); inoltre,
anche la risultante dei momenti delle forze esterne deve essere uguale a zero (rispetto a qualsiasi asse): in simboli,
∑ 𝜏⃗ = 0 (condizione di equilibrio rotazionale). Le due equazioni vettoriali sono equivalenti a sei equazioni scalari: tre
derivanti dalla prima e tre dalla seconda. Limitando, però, il campo di interesse (ovvero considerando le forze tutte
giacenti nel piano xy), bastano tre equazioni per definire l’equilibrio statico: ∑ 𝐹𝑥 = 0, ∑ 𝐹𝑦 = 0 e ∑ 𝜏𝑧 = 0.
Possiamo ricavare un analogo rotazionale della Seconda Legge di Newton, ovvero: ∑ 𝜏 = 𝐼𝛼, cioè il momento
risultante delle forze agenti su un corpo rigido è proporzionale alla sua accelerazione angolare, e la costante di
proporzionalità è il momento d’inerzia.
Il momento della quantità di moto è chiamato momento angolare ed è uguale al prodotto vettoriale del vettore
posizione 𝑟⃗ e del vettore quantità di moto 𝑝⃗. In simboli, 𝐿⃗⃗ ≡ 𝑟⃗ × 𝑝⃗. Poiché 𝑝⃗ = 𝑚𝑣⃗, il modulo di 𝐿⃗⃗ è dato da 𝐿 =
𝑚𝑣𝑟 𝑠𝑖𝑛 𝜑, dove 𝜑 è l’angolo compreso fra 𝑟⃗ e 𝑝⃗. Ne segue che L è zero quando 𝑟⃗ è parallelo a 𝑝⃗. D’altra parte, quando
𝑟⃗ è perpendicolare a 𝑝⃗, L assumerà il suo valore massimo 𝑚𝑣𝑟. Sulla base del momento angolare, possiamo affermare
che il momento di una forza non è altro che la variazione nel tempo del momento angolare della particella: in simboli,
𝜏⃗ =
⃗⃗
𝑑𝐿
𝑑𝑡
(analogo rotazionale della formula 𝐹⃗ =
𝑑𝑝⃗
𝑑𝑡
). Come, inoltre, la quantità di moto totale di un sistema di particelle
rimane costante quando la risultante delle forze esterne agenti sul sistema è nulla, così il momento angolare totale di
un sistema resta costante se il momento risultante delle forze esterne agenti sul sistema è nullo.
Moto Oscillatorio
Nel caso del moto oscillatorio, il modello sperimentale di uso corrente è quello di un oggetto di massa m attaccato ad
una molla orizzontale. Se la molla non è deformata, l’oggetto rimane fermo (su una superficie priva di attrito) nella sua
posizione di equilibrio, definita come 𝑥 = 0. Se l’oggetto è tirato di lato nella posizione 𝑥, e poi rilasciato, esso oscillerà
avanti e indietro fra le posizioni 𝑥 e – 𝑥. Per eliminare gli effetti della dimensione dell’oggetto, si usa il modello del
punto materiale. Quando una particella è soggetta ad una forza di richiamo lineare (data dalla legge di Hooke 𝐹 =
−𝑘𝑥), il moto che essa segue è un particolare tipo di moto oscillatorio detto moto armonico semplice. Un sistema
sottoposto a tale moto si chiama oscillatore armonico semplice. Se 𝐹 = −𝑘𝑥, allora – 𝑘𝑥 = 𝑚𝑎, da cui segue che 𝑎 =
−
𝑘
𝑚
𝑥, ovvero l’accelerazione di una particella in moto armonico semplice è proporzionale allo spostamento della
particella dalla sua posizione di equilibrio ed è in verso opposto. La particella completa un intero ciclo del suo moto
quando ritorna alla sua posizione iniziale, passando ancora per 𝑥 = 0 con la sua velocità massima.
Il periodo T del moto è definito come il tempo necessario alla particella per compiere un ciclo completo;
matematicamente, 𝑇 =
2𝜋
𝜔
𝑚
, dove 𝜔 è la frequenza angolare (misurata in radianti/s): 𝜔 = 2𝜋√ , dove m è la massa
𝑘
della particella e k la costante elastica della molla. In funzione del periodo, la frequenza angolare può anche essere
calcolata come 𝜔 =
2𝜋
𝑇
.
Il reciproco del periodo di chiama frequenza f del moto e rappresenta il numero di oscillazioni che la particella compie
nell’unità di tempo. L’unità di misura della frequenza è l’Hertz (Hz), equivalente al 𝑠 −1 . In formula, 𝑓 =
1
𝑇
=
𝜔
2𝜋
. In
funzione della frequenza, la frequenza angolare può essere espressa come 𝜔 = 2𝜋𝑓.
Se un oggetto attaccato ad una molla scivola su una superficie priva di attrito, possiamo considerare la combinazione
molla-oggetto come un sistema isolato ed applicarvi le relative leggi. Pertanto, l’energia meccanica del sistema è pari
1
ad 𝐸𝑚 = 𝑘𝐴2 , dove k è la costante elastica della molla ed A è l’ampiezza del moto (ovvero lo spostamento massimo).
2
Il pendolo semplice è un altro sistema meccanico che si muove di moto periodico. Esso consiste di un punto materiale
di massa m sospeso ad un filo (di massa trascurabile) di lunghezza L, la cui estremità superiore è fissata. Un pendolo
reale, purché la dimensione dell’oggetto sia piccola rispetto alla lunghezza del filo, può essere assimilato ad un pendolo
semplice. Quando il pendolo è tirato lateralmente e poi rilasciato, esso oscilla intorno al punto più basso, la posizione
di equilibrio. Poiché il moto è dovuto alla forza di gravità 𝑚𝑔⃗, possiamo calcolare delle formule valide per piccoli angoli
𝑔
(minori di 10°). In particolare, la frequenza angolare è uguale a 𝜔 = √ (dove g è il modulo dell’accelerazione di
𝐿
gravità ed L la lunghezza del filo). Il periodo, di conseguenza, è pari a 𝑇 =
2𝜋
𝜔
𝐿
= 2𝜋√ . Si dimostra, quindi, che per
𝑔
piccole oscillazioni il periodo e la frequenza angolare di un pendolo semplice dipendono soltanto dalla lunghezza del
filo e non dalla massa dell’oggetto, per cui sperimentalmente si troverà che tutti i pendoli semplici di uguale lunghezza
oscillano con lo stesso periodo (purché g sia costante).
Onde Meccaniche
Le onde meccaniche (ad es. le onde acustiche o l’ondulazione dell’acqua dovuta ad un sasso gettatovi) sono onde la cui
perturbazione si propaga attraverso un mezzo, come l’aria o l’acqua. Esse si distinguono dalle onde elettromagnetiche
(ad es. le onde luminose o le onde radio) che, invece, non necessitano di un mezzo per propagarsi.
La propagazione di una perturbazione è un trasferimento di energia senza trasferimento di materia; tutte le onde
trasportano energia, ma la quantità di energia trasmessa differisce da caso a caso, così come il meccanismo
responsabile del trasferimento. Tutte le onde meccaniche richiedono una sorgente di perturbazione, un mezzo che
possa essere perturbato e un meccanismo fisico per cui le particelle del mezzo possano influenzarsi (cioè che consenta
la propagazione della perturbazione). Le onde possono essere trasversali o longitudinali: nel primo caso, le particelle
del mezzo perturbato si muovono perpendicolarmente alla velocità dell’onda; nel secondo, invece, esse subiscono uno
spostamento parallelo alla direzione del moto dell’onda (è questo il caso delle onde sonore).
Partendo da un esempio di una corda con un’estremità fissata, cui diamo un impulso all’altra estremità, possiamo
verificare come lo scuotimento continuo generi un’onda continua, detta onda sinusoidale, per la forma che essa
assume. Il punto di massimo spostamento positivo della corda si chiama cresta, mentre il punto più basso è detto
avvallamento. La cresta e l’avvallamento si muovono con l’onda, per cui un particolare punto della corda alternerà la
sua posizione fra una cresta ed un avvallamento.
Per descrivere un’onda sinusoidale, si fa riferimento a tre caratteristiche fisiche: la lunghezza d’onda, la frequenza e la
velocità. La lunghezza d’onda è la distanza minima fra due punti che si comportano identicamente (ad es. due creste o
due avvallamenti adiacenti) e si indica con il simbolo λ. La frequenza f delle onde sinusoidali è identica alla frequenza
del moto armonico semplice ed è, quindi, l’inverso del periodo T, definito come il tempo necessario affinché un
elementino del mezzo effettui un’oscillazione completa. La velocità d’onda v è la velocità con cui le onde si propagano
in uno specifico mezzo e dipende, pertanto, dalle sue caratteristiche. Un altro parametro importante è l’ampiezza
dell’onda A, che corrisponde al massimo spostamento della particella del mezzo dalla sua posizione d’equilibrio.
Velocità, lunghezza d’onda, frequenza e periodo sono legati dalla relazione 𝑣 =
identica a quella del moto armonico semplice, cioè: 𝜔 ≡
2𝜋
𝑇
𝜆
𝑇
= 𝜆𝑓. La frequenza angolare è
= 2𝜋𝑓.
Quando un impulso che si propaga raggiunge una discontinuità, una parte o tutto l’impulso verrà riflesso. La parte non
riflessa si dice che viene trasmessa attraverso la discontinuità. Nell’esempio della corda fissata ad un’estremità al
muro, quando l’impulso raggiunge l’estremità fissa, poiché la superficie è rigida, nessuna parte dell’impulso è
trasmessa ed esso è totalmente riflesso. Si noti che l’impulso riflesso ha esattamente la stessa ampiezza dell’impulso in
arrivo, ma è invertito.
Se due o più onde che si propagano si muovono in un mezzo e si combinano in un dato punto, lo spostamento
risultante del mezzo in quel punto è la somma degli spostamenti delle singole onde (principio di sovrapposizione). Non
tutte le onde obbediscono, però, a questo principio: quelle che lo fanno sono dette onde lineari ed hanno un’ampiezza
piccola rispetto alla lunghezza d’onda. La combinazione di onde diverse nella stessa regione di spazio è detta
interferenza (ma essa non è un effetto permanente, esiste soltanto fintanto che le onde condividono la stessa regione
di spazio). Se le onde sono “in fase”, cioè i picchi e gli zeri delle singole onde si presentano sempre nella stessa
posizione, esse interferiscono “costruttivamente”, generando, cioè, un’onda risultante che ha un’ampiezza pari alla
somma delle singole ampiezze. Se, invece, le onde sono “fuori fase”, ovvero ad un picco dell’una corrisponde una valle
dell’altra, i loro spostamenti si annullano in ogni punto e l’onda risultante ha ampiezza zero ovunque: esse
interferiscono “distruttivamente”. Esistono, infine, casi intermedi.
Statica dei Fluidi
La materia viene abitualmente considerata in uno dei tre stati: solido, liquido o gassoso. Un solido ha forma e volume
definiti, un liquido ha un volume definito, ma assume la forma del recipiente che lo contiene ed un gas non ha né forma
né volume definiti. Un insieme di molecole sistemate in modo casuale e tenute insieme da deboli forze di coesione e da
forze esercitate dalle pareti del contenitore si chiama fluido. Questa definizione risulta comprendere sia i liquidi sia i
gas.
Se applichiamo una forza non perpendicolare sulla superficie di un oggetto solido, esso subirà una distorsione. Nel
nostro modello semplificato, i fluidi non sono viscosi (non hanno, cioè, attrito fra strati adiacenti) e non sostengono,
pertanto, questo tipo do forze (dette forze di taglio): l’unico tipo di forza applicabile è, quindi, quella perpendicolare
alla superficie. La forza che un fluido esercita su una superficie trae origine dall’urto delle molecole del fluido con la
superficie: ciascuna collisione produce una forza sulla superficie. Ogni secondo, avviene un numero enorme di queste
forze, che danno luogo ad una forza macroscopica che si distribuisce uniformemente su tutta l’area della superficie.
Questa forza è in relazione con una grandezza chiamata pressione. La pressione (che è uno scalare!) è misurata come
𝐹
la forza esercitata dal fluido sulla superficie dello strumento di misura. In simboli, 𝑝 ≡ . La sua unità di misura è il
𝐴
𝑁⁄𝑚2 , anche detto Pascal (Pa). Attenzione a non confondere forza e pressione: oltre al fatto che la prima è un vettore,
mentre la seconda è uno scalare, esse possono anche avere valori molto diversi fra loro. Es. un ago ipodermico esercita
una grandissima pressione (tale da perforare la cute) in virtù di una piccola forza, ma applicata in un’ancor più piccola
superficie. All’opposto, le racchette usate per camminare sulla neve distribuiscono una grande forza (la forza-peso) su
una grande superficie, generando una pressione minore, tale da non far sprofondare la persona.
L’atmosfera esercita una pressione sulla superficie della Terra e su tutti gli oggetti sulla superficie. Tale pressione,
detta pressione atmosferica, è uguale a 𝑝0 = 1.00 𝑎𝑡𝑚 ≈ 1.013 × 105 𝑃𝑎.
Come ben sanno i subacquei, la pressione nel mare o in un lago aumenta quando il sub nuota verso il fondo.
Analogamente, la pressione atmosferica decresce con l’altitudine. Questo fenomeno è descritto dalla seguente
equazione, che indica come la pressione esercitata su un immaginario cilindro di liquido vari linearmente con la
profondità: 𝑝 = 𝑝0 + 𝜌𝑔ℎ, dove 𝑝0 è la pressione atmosferica, 𝜌 è la densità del fluido, g è l’accelerazione di gravità ed
h è la profondità (o l’altitudine). La pressione è, perciò, la stessa in tutti i punti che hanno la stessa profondità,
indipendentemente dalla forma del recipiente.
Sulla base dell’equazione di cui sopra, ogni aumento della pressione alla superficie deve essere trasmesso in tutti i
punti del liquido. Questa legge, scoperta dal francese Blaise Pascal e perciò detta legge di Pascal, enuncia quanto
segue: una variazione di pressione applicata ad un fluido chiuso è trasmessa integralmente in ogni punto del fluido ed
alle pareti del contenitore. La legge di Pascal è il principio della pressa idraulica, ma anche del tubetto di dentifricio.
La forza di galleggiamento è una forza (o spinta) verso l’alto che si esercita su un oggetto circondato da un fluido,
relativa al sostegno parziale offerto dall’acqua a qualsiasi oggetto che vi si trovi immerso. Secondo il principio di
Archimede, “ogni oggetto immerso parzialmente o totalmente in un fluido subisce una spinta verso l’alto la cui
intensità è uguale al peso del fluido spostato dall’oggetto”. In simboli, 𝐵 = 𝜌𝑓 𝑔𝑉, dove 𝜌𝑓 è la densità del fluido, NON
del corpo. Perciò, la spinta che agisce su un cubo d’acciaio è la stessa che agisce su di un cubo di fluido delle stesse
dimensioni.
Nel caso di un oggetto completamente immerso, il volume del liquido spostato è lo stesso dell’oggetto (𝑉 = 𝑉0 ). Se la
densità dell’oggetto è minore di quella del fluido, la forza risultante è positiva e l’oggetto accelera verso l’alto. Al
contrario, se il corpo ha densità maggiore di quella del liquido, la forza risultante è negativa e l’oggetto affonda.
Nel caso di un oggetto in equilibrio statico, che galleggi sulla superficie di un fluido (cioè che sia solo parzialmente
immerso), il volume del fluido spostato è solo una frazione del volume totale dell’oggetto, giacché il volume del fluido
spostato è uguale al volume al di sotto della superficie del fluido. Poiché l’oggetto è in equilibrio, la spinta di Archimede
è equilibrata dalla forza di gravità. In simboli, 𝐵 = 𝑀𝑔 → 𝜌𝑓 𝑔𝑉 = 𝜌0 𝑔𝑉0 →
𝜌0
𝜌𝑓
=
𝑉
𝑉0
, cioè la frazione di volume
dell’oggetto al di sotto della superficie del fluido è uguale al rapporto fra la densità dell’oggetto e quella del fluido.
Dinamica dei Fluidi
La dinamica dei fluidi è lo studio dei fluidi in movimento; invece di affrontare lo studio del moto di ciascuna particella
del fluido in funzione del tempo, si descrivono le proprietà del fluido nel suo insieme.
In un fluido in moto, si possono caratterizzare due tipi di flusso: il flusso è detto stazionario o laminare quando i
cammini seguiti da ciascuna particella del fluido non si intersecano fra di loro. In queste condizioni, la velocità del
flusso in ogni punto rimane costante nel tempo. Per velocità superiori ad un valore critico, il flusso del fluido diventa
turbolento. Il flusso turbolento è un flusso irregolare caratterizzato da alcune regioni simili a piccoli vortici.
La viscosità è il grado di attrito interno nel flusso di un fluido, associato alla resistenza tra due strati adiacenti di liquido
in moto relativo. Nel nostro modello semplificato di fluidi ideali, il fluido è considerato non viscoso, oltre che
incomprimibile e dotato di flusso stazionario ed irrotazionale (cioè il momento angolare del fluido è nullo in ogni
punto).
Il cammino seguito da una particella di fluido in un flusso stazionario è chiamato linea di corrente. La velocità di una
particella del fluido risulta sempre tangente in ogni punto alla linea di corrente. Due linee di corrente non possono mai
intersecarsi, altrimenti non sarebbe un flusso stazionario.
Considerando un fluido che si muova in una conduttura di sezione variabile, l’equazione di continuità dei fluidi indica
che il prodotto dell’area del tubo per la velocità del fluido (chiamato anche portata Q) in tutti i punti del tubo è
costante. In simboli, 𝐴1 𝑣1 = 𝐴2 𝑣2 (o 𝑄 = 𝑐𝑜𝑠𝑡). Perciò, la velocità del fluido è maggiore dove il tubo è più stretto e
minore dove è più ampio.
Quando un fluido si muove in una regione in cui la sua altezza al di sopra della superficie terrestre o la sua velocità
cambia, la pressione del fluido varia con questo cambiamento. Questa relazione è stata scoperta dal fisico svizzero
1
Daniel Bernoulli nel 1738. L’equazione di Bernoulli, applicata al caso di un fluido ideale, recita: 𝑝 + 𝜌𝑣 2 + 𝜌𝑔ℎ =
2
𝑐𝑜𝑠𝑡, ovvero che la somma di pressione, energia cinetica per unità di volume ed energia potenziale gravitazionale per
unità di volume del fluido è costante in tutti i punti di una linea di corrente. Applicazioni del teorema di Bernoulli sono
restringimenti (stenosi, aterosclerosi) e dilatazioni (aneurismi, ectasie) dei vasi sanguigni.
Termologia e Termodinamica
La termodinamica si occupa dei concetti relativi al trasferimento di energia fra un sistema e l’ambiente circostante e le
conseguenti variazioni di temperatura o variazioni di stato. Il concetto di temperatura è connesso alla percezione di
caldo o freddo che un oggetto produce al tatto; tuttavia, la nostra pelle è sensibile alla rapidità di energia trasferita
(cioè la potenza), non alla quantità dell’energia o alla temperatura.
Immaginando due oggetti posti in un contenitore isolato in modo da formare un sistema isolato, se gli oggetti sono a
temperature diverse, dell’energia può essere scambiata fra di essi per mezzo di calore (o di radiazione
elettromagnetica). Oggetti che possono scambiare energia fra di loro in questo modo si dicono in contatto termico.
Alla fine, le temperature dei due oggetti diventeranno uguali, raggiungendo, cioè, l’equilibrio termico, ovvero la
situazione in cui due oggetti in contatto termico cessano di avere qualunque scambio di energia mediante calore.
Sulla base di queste definizioni basilari, possiamo enunciare il principio zero della termodinamica come segue: se gli
oggetti A e B sono separatamente in equilibrio termico con un terzo oggetto C, allora A e B sono in equilibrio termico
fra loro. Possiamo riferirci alla temperatura come alla proprietà che determina se un oggetto è in equilibrio termico
con altri oggetti oppure no: due oggetti in equilibrio termico fra di loro sono alla stessa temperatura.
I termometri sono dispositivi usati per misurare la temperatura, in base ad una qualche proprietà che varia al variare
della temperatura: il volume di un liquido, la pressione di un gas (mantenuto a volume costante), il colore di un oggetto
caldo, la resistenza elettrica di un conduttore, la lunghezza di un solido. Il termometro di uso comune consiste di una
massa liquida (mercurio o alcool) che si dilata in un capillare di vetro quando la sua temperatura aumenta. Poiché la
sezione del capillare è uniforme, la variazione varia linearmente con la sua lunghezza nel tubo. Il termometro può
essere tarato ponendolo in contatto con una temperatura costante ed associandovi una scala.
Una delle scale in uso è la scala centigrada o scala Celsius, che pone ai due estremi il punto di congelamento
dell’acqua (chiamato 0°C) ed il punto di ebollizione dell’acqua (chiamato 100°C). La distanza fra di essi viene divisa in
100 segmenti uguali, ciascuno dei quali indica una variazione di temperatura di un grado Celsius.
Un’altra scala, più accurata e con il vantaggio di presentare solo temperature positive, è la scala Kelvin o della
temperatura assoluta. Il limite inferiore di questa scala (0 K) corrisponde a -273,15°C, chiamato zero assoluto, la
temperatura più bassa raggiungibile in natura. L’ampiezza di un grado nella scala Kelvin è identica all’ampiezza di un
grado nella scala Celsius, per cui la conversione dall’una all’altra scala è facile: 𝑇𝐶 = 𝑇 − 273.15.
Un’altra scala, in uso nei paesi di lingua e cultura anglosassone, è la scala Fahrenheit, la cui unità (il grado Fahrenhait)
5
è uguale a di un kelvin (e di un Celsius). In questa scala, lo zero centigrado corrisponde a 32°F e il punto di ebollizione
9
9
dell’acqua è a 212°F. La conversione fra le due scale si effettua tramite la relazione 𝑇𝐹 = 𝑇𝐶 + 32°𝐹.
5
Nei termometri a liquido si utilizza una delle proprietà dell’energia termica: quella di dilatare oggetti solidi e liquidi. La
dilatazione termica complessiva di un oggetto è la conseguenza della variazione della distanza media di separazione
tra gli atomi o le molecole che lo costituiscono. Se la dilatazione termica di un oggetto è sufficientemente piccola
confrontata con le sue dimensioni iniziali, allora la variazione di ogni dimensione è approssimativamente dipendente
dalla prima potenza della variazione di temperatura.
Per un oggetto di lunghezza iniziale 𝐿𝑖 , che aumenta di una quantità ∆𝐿 per una variazione di temperatura ∆𝑇, la
variazione della lunghezza è uguale a ∆𝐿 = 𝛼𝐿𝑖 ∆𝑇, dove 𝛼 è una costante di proporzionalità propria di un determinato
materiale, chiamata coefficiente medio di dilatazione lineare (espressa in (℃)−1 ).
L’aumento di superficie di un oggetto dovuto alla variazione di temperatura è, invece, uguale a ∆𝐴 = 𝛾𝐴𝑖 ∆𝑇, dove 𝛾 è
il coefficiente medio di dilatazione quadratica (o superficiale), dato da 𝛾 = 2𝛼.
Infine, la variazione di volume di un oggetto dovuto alla variazione di temperatura è uguale a ∆𝑉 = 𝛽𝑉𝑖 ∆𝑇, dove 𝛽 è il
coefficiente medio di dilatazione cubica (o volumica), dato da 𝛽 = 3𝛼.
Introduciamo un modello semplificato per descrivere i gas: il modello dei gas perfetti. Un gas perfetto (o ideale) è un
insieme di atomi o molecole che si muovono di moto caotico (anche detto “browninao”), che hanno dimensioni così
piccole da occupare una frazione trascurabile del volume del loro contenitore e che interagiscono, fra di loro e con le
superfici del contenitore, per mezzo di urti elastici; inoltre, tra essi non si esercitano forze (di attrazione o repulsione) a
lunga distanza. Un gas reale è assimilabile ad un gas perfetto a temperature lontane dalla temperatura di liquefazione
e/o a bassa pressione. La maggior parte dei gas, a temperatura ambiente ed a pressione atmosferica, si comporta
approssimativamente come un gas perfetto.
La quantità di gas in un dato volume viene espressa comunemente in termini di numero di moli. Una mole di una
qualunque sostanza è quella massa di sostanza che contiene un numero di Avogadro (𝑁𝐴 = 6.022 × 1023 ) di molecole.
𝑚
Il numero di moli n presente in un campione è legato alla sua massa dalla relazione 𝑛 = , dove M è la massa molare
𝑀
della sostanza, espressa in 𝑔⁄𝑚𝑜𝑙 .
Si supponga che un gas sia contenuto in un recipiente cilindrico il cui volume possa essere variato per mezzo di un
pistone mobile. Assumeremo che il cilindro non abbia perdite e che il numero di moli del gas rimanga costante. Per un
sistema di questo tipo, gli esperimenti forniscono le seguenti informazioni:
-
Legge di Boyle-Mariotte: quando il gas viene tenuto a temperatura costante, la sua pressione è inversamente
proporzionale al volume. In formula, 𝑝 × 𝑉 = 𝑐𝑜𝑠𝑡 (per 𝑇 = 𝑐𝑜𝑠𝑡);
Legge di Charles (o prima legge di Gay-Lussac): quando la pressione del gas è tenuta costante, il volume è
direttamente proporzionale alla temperatura. In formula,
-
𝑉
𝑇
= 𝑐𝑜𝑠𝑡 (per 𝑝 = 𝑐𝑜𝑠𝑡);
Legge di Gay-Lussac (o seconda legge di Gay-Lussac): quando il volume del gas è tenuto costante, la
pressione è direttamente proporzionale alla temperatura. In formula,
𝑝
𝑇
= 𝑐𝑜𝑠𝑡 (per 𝑉 = 𝑐𝑜𝑠𝑡).
Le tre leggi possono essere riassunte nell’equazione di stato dei gas perfetti: 𝑝𝑉 = 𝑛𝑅𝑇, dove p è la pressione, V è il
volume, n è il numero di moli, T è la temperatura assoluta ed R è una costante di proporzionalità chiamata costante
universale dei gas e uguale ad 8.314 𝐽⁄𝑚𝑜𝑙 ∙ 𝐾 (oppure a 0.082 𝐿 ∙ 𝑎𝑡𝑚⁄𝐾 ∙ 𝑚𝑜𝑙 ). La legge può essere riscritta
utilizzando il numero di molecole N invece del numero di moli n; in questo caso, prende la forma di 𝑝𝑉 =
𝑁𝑘𝐵 𝑇, dove 𝑘𝐵 è la costante di Boltzmann, uguale ad
𝑅
𝑁𝐴
𝑁
𝑁𝐴
𝑅𝑇 =
= 1.38 × 10−23 𝐽⁄𝐾 .
Il modello strutturale del gas perfetto costituisce la teoria cinetica dei gas, basata sui seguenti assunti: 1) Il numero di
molecole del gas è grande e la distanza media di separazione fra di esse è grande se confrontata con le loro
dimensioni; 2) Le molecole obbediscono alle leggi del moto di Newton, ma nell’insieme il loto moto è isotropico
(ovvero, ogni molecola si può muovere in qualsiasi direzione a qualsiasi velocità); 3) Le molecole interagiscono con urti
elastici esclusivamente mediante forze che hanno effetto a breve distanza; 4) Le molecole interagiscono con urti
elastici con le pareti; 5) Il gas considerato è una sostanza pura (ovvero, tutte le molecole sono identiche).
È necessario fornire una distinzione fra energia interna e calore, prima di procedere con le leggi della termodinamica.
L’energia interna è l’energia associata con le componenti microscopiche (atomi e molecole) di un sistema, viste da un
sistema di riferimento a riposo rispetto al sistema. Essa è associata al moto traslazionale degli atomi di un gas
perfetto: più alta è la temperatura del gas, più è alta la sua energia cinetica e più è alta la sua energia interna.
Il calore, invece, è un meccanismo col quale l’energia è trasferita fra un sistema ed il suo ambiente circostante a causa
di una differenza di temperatura fra essi. Esso è anche la quantità di calore Q trasferita in questo modo. Non ha senso,
quindi, usare il termine calore in condizioni di equilibrio: si parlerà, più propriamente, della temperatura del sistema.
Unità di misura del calore sono la caloria ed il joule: una caloria (cal) è la quantità di calore necessaria per innalzare di
un grado la temperatura di 1g di acqua (precisamente da 14.5℃ a 15.5℃); un suo multiplo è la chilocaloria (kcal o
Cal). Poiché, però, il calore è un sistema di trasferimento di energia come il lavoro, si è pensato di utilizzare l’unità di
misura del lavoro, il Joule (J), anche per il calore. La conversione è effettuata per mezzo della corrispondenza esatta
1 𝑐𝑎𝑙 ≡ 4.186 𝐽 (da cui consegue che 1 𝐶𝑎𝑙 ≡ 4186 𝐽).
Dalla definizione originaria di caloria, abbiamo visto che per aumentare la temperatura di un chilogrammo di acqua di
un grado occorrono 4186 joule; ma la quantità di calore necessaria per aumentare di un grado la temperatura di un
chilogrammo di una sostanza qualsiasi dipende dalla sostanza. Introduciamo, quindi, il concetto di calore specifico,
inteso come la quantità di calore necessaria per aumentare la temperatura di un kg di sostanza di un grado Celsius (o
Kelvin, è equivalente). In simboli, 𝑐 ≡
𝑄
𝑚∆𝑡
; la sua unità di misura è 𝐽⁄𝑘𝑔 ∙ ℃.
Da questa definizione, possiamo calcolare la quantità di calore come 𝑄 = 𝑚𝑐∆𝑡. La quantità 𝑚𝑐, data dal prodotto del
calore specifico della sostanza (per unità di massa) per la sua massa è chiamata capacità termica ed è, in ultima
analisi, il rapporto fra la quantità di calore fornita ad una sostanza e l’aumento di temperatura derivatone. In formula,
𝑚𝑐 =
𝑄
∆𝑡
.
Quando dell’energia viene trasferita tra una sostanza ed il suo ambiente circostante, generalmente la sostanza subisce
un aumento di temperatura. Vi sono, tuttavia, situazioni in cui un trasferimento di energia non corrisponde ad un
aumento di temperatura: ciò accade ogni volta che le caratteristiche fisiche della sostanza mutano: ogni volta, cioè,
che avviene un passaggio di stato. L’energia trasferita necessaria per il cambiamento di fase di una data massa m di
una sostanza pura è uguale a 𝑄 = ±𝑚𝐿, dove L è chiamato calore latente della sostanza e dipende sia dalle proprietà
della sostanza sia dalla natura del cambiamento di fase. Il segno appropriato è scelto in base alle convenzioni sui segni
ed in base alla direzione del flusso di energia. Il calore latente di fusione, in particolare, è l’energia necessaria per
rompere tutti i legami intermolecolari in un chilogrammo di una sostanza, in modo da convertire la fase solida in fase
liquida. Il calore latente di vaporizzazione, invece, è l’energia che si deve fornire ad un chilogrammo di una sostanza
per rompere tutti i legami del liquido per formare un gas. Il secondo è generalmente maggiore del primo, in virtù della
differente forza dei legami in fase solida e liquida.
Nell’approccio macroscopico alla termodinamica, si descrive lo stato di un sistema con grandezze quali pressione,
volume, temperatura ed energia interna, dette appunto variabili di stato. Per ogni condizione del sistema, possiamo
identificare dei particolari valori delle variabili di stato che la identificano univocamente. L’identificazione delle variabili
di stato richiede, ovviamente, che il sistema sia in equilibrio termico interno (per esempio, che un determinato gas
abbia la stessa pressione e temperatura in tutte le sue parti). Il calore, invece, è una variabile di trasferimento, ovvero è
possibile assegnargli un valore soltanto se si realizza un processo in cui energia viene trasferita attraverso le superfici
che delimitano il sistema.
Nei sistemi termodinamici esiste anche un’altra importante variabile di trasferimento: il lavoro termodinamico. Si
consideri un gas contenuto in un cilindro chiuso da un pistone mobile privo di attrito ed in equilibrio termico. Il gas
occupa il volume V ed esercita una pressione p uniforme sulle pareti del cilindro e sul pistone. Se il gas è compresso
quasi - staticamente, ovvero così lentamente da permettere al sistema di essere in equilibrio termico in ogni istante
(modello semplificativo), il lavoro compiuto dal pistone sul sistema (se il gas è compresso) o dal sistema sul pistone (se
il gas si espande) sarà uguale a 𝑑𝐿 = ±𝑝 𝑑𝑉. Se il volume rimane costante, il lavoro è, ovviamente, zero. Il lavoro
𝑉
totale, quando il suo volume varia da 𝑉0 a 𝑉 sarà uguale a 𝐿 = ± ∫𝑉 𝑝 𝑑𝑉 .
0
In generale, in una trasformazione che porti il gas da uno stato iniziale ad uno finale, la pressione non è costante, ma
dipende dalla temperatura e dal volume. Se la pressione ed il volume sono noti in ogni istante della trasformazione, gli
stati del gas possono essere rappresentati in un diagramma PV, un tipo di grafico molto importante in termodinamica
per visualizzare una trasformazione. In tale rappresentazione, la curva (detta cammino fra lo stato iniziale e finale)
sottende un’area pari al lavoro svolto nella trasformazione.
Il primo principio della termodinamica non è che un caso particolare dell’equazione di continuità dell’energia in cui i
soli meccanismi di trasferimento sono il calore ed il lavoro. In simboli, ∆𝐸𝑖𝑛𝑡 = 𝑄 − 𝐿, ovvero la variazione dell’energia
interna di un sistema è uguale alla somma dell’energia trasferita attraverso il contorno del sistema tramite il calore e
dell’energia trasferita tramite il lavoro (compiuto SUL gas, da cui il segno negativo).
Una trasformazione adiabatica è una trasformazione in cui l’energia non entra né esce dal sistema attraverso il calore
(cioè 𝑄 = 0). Possiamo immaginare, nella situazione del pistone, che le pareti del recipiente e del pistone siano
perfettamente isolanti. Applicando in questo caso il primo principio, otteniamo che ∆𝐸𝑖𝑛𝑡 = −𝐿. Un particolare caso di
trasformazione adiabatica è l’espansione libera, in cui non viene compiuto alcun lavoro sul gas. Poiché in questo caso
𝑄 = 0 e 𝐿 = 0, anche ∆𝐸𝑖𝑛𝑡 = 0. L’energia interna iniziale e finale di un gas in un’espansione libera sono uguali.
Pertanto, non ci aspettiamo alcuna differenza di temperatura dallo stato iniziale a quello finale (in realtà si riscontra
sperimentalmente un leggero aumento o una leggera diminuzione della temperatura dovuta alle interazioni fra le
molecole).
Una trasformazione che avviene a pressione costante è detta trasformazione isobara (nell’esempio del pistone,
immaginiamo che esso sia libero di muoversi, ma in equilibrio). In questo caso, il lavoro compiuto sul gas è
semplicemente il prodotto della pressione (costante) per la variazione di volume 𝐿 = 𝑝(𝑉 − 𝑉0 ). Su un diagramma PV,
un’isobara appare come una linea orizzontale.
Una trasformazione che avviene a volume costante è detta trasformazione isocora (immaginiamo di fermare con un
morsetto il pistone, affinché esso non sia libero di muoversi). In una tale trasformazione, il lavoro è nullo, poiché la
variazione di volume è nulla. Il primo principio è, quindi, espresso da ∆𝐸𝑖𝑛𝑡 = 𝑄. Questo ci dice che se si fornisce calore
ad un sistema mantenuto a volume costante, tutta l’energia va ad aumentare l’energia interna e non esce dal sistema
sotto forma di lavoro. Su un diagramma PV, l’isocora appare come una linea verticale.
Una trasformazione che avviene a temperatura costante è detta trasformazione isoterma. Poiché l’energia interna di
un gas perfetto è solo funzione della temperatura, una variazione di temperatura pari a zero rende nulla anche
l’energia interna. Il primo principio diventa, di conseguenza, 𝑄 = 𝐿. Quindi, se nel sistema entra dell’energia sotto
forma di calore, ne uscirà una quantità equivalente sotto forma di lavoro, in modo tale che l’energia interna del
sistema non cambi. Sul diagramma PV, un’isoterma appare come una linea curva. Il lavoro compiuto è stato calcolato
𝑉
come 𝐿 = 𝑛𝑅𝑇 𝑙𝑛 ( ).
𝑉0
Nel caso di una trasformazione ciclica, ovvero una trasformazione che inizia e finisce nello stesso stato, l’energia
cinetica interna deve essere zero (poiché è una variabile di stato e gli stati iniziale e finale coincidono), per cui il primo
principio diventa 𝑄 = 𝐿. Il lavoro compiuto, per ogni ciclo, coincide con l’area racchiusa dal cammino che rappresenta
la trasformazione nel diagramma PV.
Il processo di trasferimento di energia tramite il calore si chiama conduzione termica. Questo processo, su scala
atomica, non è che uno scambio di energia cinetica fra le molecole, in cui le particelle meno energetiche guadagnano
energia urtando con le particelle più energetiche. La velocità della conduzione dipende dalle proprietà della sostanza
che viene riscaldata: in generale, i metalli sono buoni conduttori termici, poiché contengono un grande numero di
elettroni relativamente liberi di muoversi attraverso il metallo, che possono, quindi, trasportare energia da una regione
all’altra. Materiali come amianto, sughero, carta e lana di vetro sono, invece, cattivi conduttori, così come i gas, a
causa della distanza molto grande fra le molecole. La conduzione avviene solo se c’è una differenza di temperatura fra
due parti del mezzo conduttore, che guida il flusso di energia. Considerando una lastra di materiale di spessore ∆𝑥 e
sezione 𝐴, con le sue facce opposte a temperature differenti 𝑇𝑓 e 𝑇𝑐 , dove 𝑇𝑐 > 𝑇𝑓 , la lastra permette all’energia di
trasferirsi dalla regione ad alta temperatura a quella a bassa temperatura per conduzione termica con velocità
(potenza) proporzionale alla sezione della lastra ed alla differenza di temperatura ed inversamente proporzionale allo
spessore. In simboli, la legge della conduzione si esprime come 𝑊 =
𝑄
∆𝑡
∝𝐴
∆𝑇
∆𝑥
𝑑𝑇
= 𝑘𝐴 | |, dove k è una costante
𝑑𝑥
𝑑𝑇
chiamata conducibilità termica del materiale e | | è noto come gradiente di temperatura (la variazione della
𝑑𝑥
temperatura con la posizione). I buoni conduttori hanno, naturalmente, valori elevati di conducibilità termica, mentre i
buoni isolanti hanno valori bassi.
L’energia trasferita dal moto di un fluido è un processo detto convezione. Quando il moto è dovuto a differenze di
densità, come avviene per l’aria vicino ad una fiamma, si tratta di convezione naturale. Se la sostanza calda è messa in
moto da un ventilatore o una pompa, il processo è detto convezione forzata.
Un altro meccanismo di trasferimento di energia che può essere correlato con una variazione di temperatura è la
radiazione elettromagnetica. Tutti gli oggetti irradiano continuamente energia sotto forma di onde
elettromagnetiche. La radiazione elettromagnetica è prodotta accelerando cariche elettriche: poiché la temperatura
corrisponde al moto casuale delle molecole, che cambiano costantemente direzione, e quindi accelerano, e le molecole
contengono cariche elettriche, qualsiasi oggetto emette radiazione elettromagnetica dovuta al moto termico delle sue
molecole. Questa radiazione si chiama radiazione termica. La rapidità alla quale un oggetto emette energia per mezzo
della radiazione termica dalla sua superficie è proporzionale alla quarta potenza delle temperatura assoluta della sua
superficie. Questo principio, noto come legge di Stefan, è espresso in forma di equazione come 𝑃 = 𝜎𝐴𝑒𝑇 4 , dove 𝜎 è
la costante di Stefan-Boltzmann (uguale a 5.669 × 10−8 𝑊 ⁄𝑚2 ∙ 𝐾 4), 𝐴 è l’area della superficie dell’oggetto (in 𝑚2 ),
𝑒 è una costante detta emittanza e 𝑇 è la temperatura assoluta del corpo in kelvin. L’emittanza è uguale alla sua
assorbanza, ovvero alla frazione di radiazione incidente che la sostanza assorbe. Infatti, un oggetto, mentre irradia,
assorbe allo stesso tempo radiazione elettromagnetica dall’ambiente circostante: se ciò non avvenisse, un oggetto
potrebbe continuare ad irradiare la sua energia e la sua temperatura decrescerebbe spontaneamente fino allo zero
assoluto. Quando un oggetto è in equilibrio con l’ambiente, esso irradia ed assorbe energia alla stessa velocità, per cui
la sua temperatura resta costante. Quando, invece, un oggetto è più caldo dell’ambiente, irradia più energia di quanta
ne assorba e quindi si raffredda.
Un dispositivo che risulta utile per capire il secondo principio della termodinamica è la macchina termica. Una
macchina termica è un dispositivo che incamera energia sotto forma di calore e, operando in modo ciclico, espelle una
frazione di quell’energia sotto forma di lavoro. Per esempio, in una centrale elettrica viene bruciato carbone (o qualche
altro combustibile) e l’energia interna risultante viene usata per trasformare l’acqua in vapore. Questo vapore viene
convogliato alle pale di una turbina, ponendola in rotazione. Infine, l’energia meccanica associata a questa rotazione
viene utilizzata per far funzionare un generatore elettrico. In generale, una macchina termica fa compiere ad una
qualche sostanza una trasformazione ciclica durante la quale: (1) la sostanza assorbe energia sotto forma di calore da
un termostato ad alta temperatura, (2) viene compiuto lavoro dalla macchina e (3) viene ceduta energia dalla
macchina ad un termostato a più bassa temperatura; questa energia in uscita è spesso indicata come energia persa,
energia di scarico o inquinamento termico. La macchina, rappresentata schematicamente, assorbe una quantità di
calore 𝑄𝑐 dal termostato caldo. Poi compie il lavoro 𝐿𝑚𝑎𝑐 e cede l’energia 𝑄𝑓 al termostato freddo. Poiché la sostanza
compie un ciclo, la sua energia iniziale e finale è la stessa, per cui ∆𝐸𝑖𝑛𝑡 = 0. Quindi, dal primo principio, ∆𝐸𝑖𝑛𝑡 = 𝑄 −
𝐿 → 𝑄𝑡𝑜𝑡 = 𝐿𝑚𝑎𝑐 e vediamo che il lavoro compiuto dalla macchina è uguale all’energia totale assorbita dalla
macchina. Come possiamo vedere dalla figura, 𝑄𝑛𝑒𝑡 = |𝑄𝑐 | − |𝑄𝑓 | → 𝐿𝑚𝑎𝑐 = |𝑄𝑐 | − |𝑄𝑓 |. Se la sostanza impiegata è
un gas, il lavoro totale svolto in una trasformazione ciclica è l’area racchiusa dalla curva che rappresenta la
trasformazione in un diagramma PV.
Il rendimento 𝜂 di una macchina termica è definito come il
rapporto fra il lavoro svolto dalla macchina e l’energia assorbita
Termostato caldo a 𝑇𝑐
alla temperatura più alta durante un ciclo: 𝜂 =
𝐿𝑚𝑎𝑐
|𝑄𝑐 |
=
|𝑄𝑐 |−|𝑄𝑓 |
|𝑄𝑐 |
=
|𝑄 |
= 1 − |𝑄𝑓| . Il rendimento può essere considerato il rapporto fra
𝑐
𝐿𝑚𝑎𝑐
Macchina
Termostato freddo a 𝑇𝑓
ciò che si ottiene e ciò che si spende. Una macchina termica,
quindi, avrebbe un rendimento del 100% (𝜂 = 1) soltanto se 𝑄𝑓 =
0, cioè se non venisse trasferita energia al termostato freddo. In
altre parole, una macchina termica con rendimento unitario
trasformerebbe tutta l’energia assorbita in lavoro meccanico.
L’enunciato di Kelvin-Planck del secondo principio della
termodinamica può esprimersi come segue: “È impossibile
costruire una macchina termica che, operando in un ciclo, abbia
come unico risultato quello di assorbire energia da un termostato
e produrre una uguale quantità di lavoro”. L’essenza di questa
forma dell’enunciato è che è teoricamente impossibile costruire
una macchina che lavori con il 100% di rendimento: tutte le
macchine devono scaricare una parte di energia 𝑄𝑓 nell’ambiente.
Una trasformazione è detta reversibile se il sistema può ritornare nelle condizioni iniziali lungo lo stesso percorso nel
quale ogni punto lungo il cammino sia in uno stato di equilibrio. Una trasformazione che non soddisfi tali requisiti è
detta, invece, irreversibile. La maggior parte delle trasformazioni, in natura, sono irreversibili: la trasformazione
reversibile è, in realtà, un’idealizzazione. Se una trasformazione reale avviene molto lentamente, di modo che il
sistema sia sempre molto vicino all’equilibrio, la trasformazione può essere considerata reversibile.
Nel 1824, l’ingegnere francese Sadi Carnot descrisse una macchina, nota oggi come macchina di Carnot, di grande
importanza dal punto di vista sia pratico che teorico. Egli mostrò che una macchina termica che opera fra due
termostati in un ciclo ideale reversibile, detto ciclo di Carnot, è la macchina con il più alto rendimento possibile. Una
tale macchina determina il limite superiore per il rendimento di tutte le macchine. Cioè, il lavoro complessivo svolto da
una sostanza sottoposta ad un ciclo di Carnot è la massima quantità di lavoro possibile per una data quantità di
energia fornita alla sostanza dal termostato a temperatura più alta. Assumiamo che la sostanza sia un gas perfetto
contenuto in un cilindro chiuso da un pistone mobile, con le pareti del cilindro ed il pistone termicamente isolati. Il ciclo
consiste di due trasformazioni adiabatiche e due isoterme, tutte reversibili:

La trasformazione 𝐴 → 𝐵 è una espansione isotermica alla temperatura 𝑇𝑐 , nella quale il gas è mantenuto in
contatto termico con un termostato alla temperatura 𝑇𝑐 . Durante la trasformazione, il gas assorbe l’energia
𝑄𝑐 dal termostato e compie il lavoro 𝐿𝐴𝐵 sollevando il pistone.

Nella trasformazione 𝐵 → 𝐶 , la base del cilindro viene isolata termicamente ed il gas si espande
adiabaticamente, cioè senza che avvenga alcuno scambio di energia sotto forma di calore. Durante la
trasformazione, la temperatura si abbassa dal valore 𝑇𝑐 al valore 𝑇𝑓 ed il gas compie il lavoro 𝐿𝐵𝐶 sollevando il
pistone.

Nella trasformazione 𝐶 → 𝐷, il gas è posto in contatto termico con il termostato a temperatura 𝑇𝑓 ed è
compresso isotermicamente alla temperatura 𝑇𝑓 . Durante questo tempo, il gas cede la quantità di energia 𝑄𝑓
al termostato e viene compiuto sul gas il lavoro 𝐿𝐶𝐷 .

Nella trasformazione finale, 𝐷 → 𝐴, la base del cilindro viene di nuovo isolata termicamente ed il gas è
compresso adiabaticamente. La temperatura del gas aumenta al valore 𝑇𝑐 ed il lavoro svolto sul gas è 𝐿𝐷𝐴 .
|𝑄 |
Carnot ha dimostrato che per questo ciclo |𝑄𝑓| =
𝑐
𝑇𝑓
𝑇𝑐
, poiché c’è scambio di calore soltanto nelle due isoterme; quindi, il
rendimento di una macchina di Carnot è uguale a 𝜂𝐶𝑎𝑟𝑛𝑜𝑡 = 1 −
𝑇𝑓
𝑇𝑐
; da questo risultato si ricava che tutte le macchine
di Carnot che operano fra le stesse temperature hanno lo stesso rendimento.
Se desideriamo raffreddare una pizza ponendola su un blocco di ghiaccio, la cosa certamente funzionerà, poiché, in
ogni caso, l’energia fluisce spontaneamente dal corpo caldo a quello freddo. Eppure, nulla nel primo principio della
termodinamica dice che quest’energia non possa trasferirsi in senso contrario. La direzione del fenomeno è stabilita dal
secondo principio. Le trasformazioni reali evolvono, infatti, lungo una direzione preferenziale. L’enunciato di Clausius
del secondo principio della termodinamica, che si può dimostrare essere equivalente all’enunciato di Kelvin-Planck,
recita che “il calore non fluisce spontaneamente da un oggetto freddo ad un oggetto caldo”. Si può anche dimostrare
che se è falso uno dei due enunciati, lo è anche l’altro.
Un’altra funzione di stato può essere usata per descrivere lo stato termodinamico di un sistema: l’entropia.
L’equazione che descrive la macchina di Carnot può essere riscritta come
|𝑄𝑓 |
𝑇𝑓
=
|𝑄𝑐 |
𝑇𝑐
; quindi, il rapporto fra l’energia
trasferita in un ciclo di Carnot e la temperatura (costante) alla quale avviene il trasferimento ha lo stesso valore in
entrambe le trasformazioni isoterme. Generalizzando, lasciamo cadere la nozione di valore assoluto ed esprimiamo
l’equazione come −
𝑄𝑓
𝑇𝑓
=
𝑄𝑐
𝑇𝑐
(poiché 𝑄𝑓 è l’energia che esce dal sistema mentre 𝑄𝑐 è quella che vi entra. Questa può, a
sua volta, essere riscritta come
𝑄𝑐
𝑇𝑐
+
𝑄𝑓
𝑇𝑓
𝑄
= 0 → ∑ = 0. Ciò suggerisce che il rapporto 𝑄 ⁄𝑇 possa avere un significato
𝑇
particolare. Considerando una trasformazione infinitesima fra due stati di equilibrio di un sistema, se 𝑑𝑄 è l’energia
trasferita tramite il calore quando il sistema segue un cammino reversibile fra gli stati, la variazione di entropia,
indipendentemente dal reale cammino seguito, è uguale a questa energia trasferita tramite il calore lungo il cammino
reversibile diviso per la temperatura assoluta del sistema. In simboli, 𝑑𝑆 =
𝑑𝑄
𝑇
. Da notare che questa equazione non
definisce l’entropia, bensì la sua variazione, che è la quantità significativa nella descrizione di una trasformazione.
I sistemi isolati tendono al disordine e l’entropia è una misura di questo disordine. Per capire questo concetto,
possiamo introdurre la distinzione fra microstati e macrostati di un sistema, attraverso un paragone con il lancio di
dadi. Per due dadi, un microstato è la particolare combinazione di numeri sulle facce superiori (es. 1-3, 2-4); il
macrostato, invece, è la somma dei numeri (nei due casi precedenti, 4 e 6). Il numero di microstati associati con un
determinato macrostato non è lo stesso per tutti i macrostati, cosicché il macrostato che ha il maggior numero di
microstati possibili è il macrostato più probabile. Macrostati altamente probabili (es. ai dadi, 7, che ha ben 6 possibili
microstati) sono macrostati disordinati, mentre macrostati di bassa probabilità (es. 2, che ha un solo microstato) sono
macrostati ordinati. Quindi, possiamo dire che tutte le trasformazioni fisiche tendono verso stati più probabili per il
sistema e per il suo ambiente circostante e che lo stato più probabile è sempre quello con un grado di disordine più
alto. Tutto ciò si riflette nella formula per l’entropia a livello microscopico trovata da Boltzmann: 𝑆 = 𝑘𝐵 𝑙𝑛 𝑊, dove W
è il numero di microstati associati ad un macrostato la cui entropia è S (e 𝑘𝐵 è la costante di Boltzmann).
Poiché l’entropia è una misura del disordine e i sistemi fisici tendono verso macrostati disordinati, possiamo affermare
che “l’entropia dell’Universo aumenta in tutte le trasformazioni naturali”. Questo è un altro enunciato del secondo
principio della termodinamica (il cosiddetto enunciato entropico), spiegabile attraverso una semplice considerazione:
nel caso di trasformazioni irreversibili, l’entropia totale di un sistema isolato aumenta; nel caso di una trasformazione
reversibile, l’entropia totale di un sistema isolato rimane costante: essa non può, quindi, in alcun caso, diminuire. Per
calcolare la variazione di entropia per una trasformazione finita, dobbiamo tenere presente che T generalmente non è
costante. Se dQ è l’energia trasferita reversibilmente tramite il calore quando il sistema si trova a temperatura T, allora
𝑓
la variazione di entropia in una trasformazione arbitraria reversibile fra uno stato iniziale ed uno finale è ∆𝑆 = ∫𝑖 𝑑𝑆 =
𝑓 𝑑𝑄
∫𝑖
𝑇
. La variazione di entropia di un sistema dipende solo dalle proprietà degli stati iniziale e finale, poiché l’entropia,
come l’energia interna, è una funzione di stato.
Nel caso di una trasformazione adiabatica, nessuna energia viene trasferita tramite il calore fra il sistema e l’ambiente
circostante, quindi ∆𝑆 = 0. Tale trasformazione è, per questo motivo, detta anche trasformazione isoentropica. In una
macchina di Carnot che funzioni fra le temperature 𝑇𝑐 e 𝑇𝑓 , ∆𝑆 = 0 all’interno di un ciclo.
Forze Elettriche e Campi Elettrici
Un certo numero di semplici esperimenti dimostrano l’esistenza delle cariche elettriche. Gli esperimenti dimostrano
pure che esistono due differenti specie di cariche elettriche, chiamate da Benjamin Franklin positiva e negativa.
Cariche dello stesso segno si respingono, mentre cariche di segno opposto si attraggono. Un’altra importante
caratteristica della carica elettrica è che la carica netta in un sistema isolato si conserva sempre. Esiste anche un
principio di conservazione della carica elettrica per un sistema isolato: quando due oggetti inizialmente neutri
vengono caricati strofinandoli insieme, nel processo non vengono create cariche, ma gli oggetti divengono carichi in
quanto elettroni vengono trasferiti da un corpo all’altro: un oggetto guadagna una certa quantità di carica negativa,
mentre l’altro perde la stessa quantità di carica negativa e quindi rimane con una carica positiva. Un’altra proprietà
della carica elettrica è la seguente: la carica elettrica posseduta da un oggetto è dovuta ad un eccesso di elettroni
oppure ad una mancanza di elettroni, per questo motivo la carica elettrica complessiva di un oggetto è quantizzata in
multipli della carica elementare dell’elettrone 𝑒 = 1.60 × 10−19 𝐶.
È possibile per una carica elettrica muoversi da un posto all’altro all’interno di un oggetto: tale moto delle cariche si
chiama conduzione elettrica. È conveniente classificare i materiali secondo la capacità delle cariche di muoversi al loro
interno: conduttori sono i materiali in cui le cariche si muovono relativamente libere ed isolanti sono i materiali in cui
le cariche elettriche non si muovono liberamente. Quando un isolante (es. vetro, bachelite, leucite) è caricato per
strofinio, soltanto l’area strofinata si carica e la carica non si muove verso altre zone del materiale. Quando, invece,
carichiamo, anche in una zona piccolissima, un conduttore (es. rame, alluminio, argento), la carica si distribuisce
rapidamente sull’intera superficie del materiale. Una terza classe di materiali sono i semiconduttori, con proprietà
elettriche a metà fra quelle dei conduttori e quelle degli isolanti: le cariche possono muoversi in un semiconduttore (es.
silicio, germanio) piuttosto liberamente, ma vi sono molte meno cariche in un semiconduttore che in un conduttore.
Quando un conduttore è collegato alla Terra per mezzo di un filo conduttore, si dice che esso è messo a terra; la Terra
può, quindi, essere considerata un serbatoio infinito per gli elettroni, nel senso che può ricevere o fornire un numero
illimitato di elettroni: in elettrostatica la Terra si comporta in modo analogo a come i termostati si comportano in
termodinamica. Tenendo presente ciò, possiamo comprendere come un conduttore possa essere caricato mediante il
procedimento noto come carica per induzione. La carica di un oggetto per induzione non richiede alcun contatto con
l’oggetto che induce la carica, diversamente dalla carica per strofinio.
Un processo simile al fenomeno dell’induzione avviene negli isolanti: nella maggior parte degli atomi e delle molecole
neutre, la posizione media della carica positiva coincide con la posizione media della carica negativa. Tuttavia, in
presenza di un oggetto carico, queste posizioni possono spostarsi leggermente, a causa delle forze attrattive e
repulsive dovute all’oggetto carico. Questo fenomeno è chiamato polarizzazione.
Le forze elettriche fra oggetti carichi furono misurate quantitativamente da Charles Coulomb, che confermò che la
forza elettrica fra due piccole sfere cariche è proporzionale al reciproco del quadrato della loro distanza. La legge di
Coulomb, in simboli, afferma che 𝐹𝑒 = 𝑘𝑒
|𝑞1 ||𝑞2 |
𝑟2
, dove 𝑞1 e 𝑞2 indicano due cariche puntiformi separate da una
distanza r e 𝑘𝑒 è la costante di Coulomb, uguale a 8.99 × 109 𝑁 ∙ 𝑚2 ⁄𝐶 2 , che si può anche scrivere come
−12
2⁄
1
4𝜋𝜀0
, dove 𝜀0
2
è la costante dielettrica del vuoto, che ha il valore di 8.8542 × 10
𝐶 𝑁 ∙ 𝑚 . Questa equazione fornisce soltanto il
modulo della forza, mentre la direzione ed il verso si devono trovare considerando dove si trovano le particelle ed il loro
segno. La legge di Coulomb è valida esattamente solo per cariche puntiformi o particelle (o per oggetti estesi purché si
possano assimilare a punti materiali).
Il campo gravitazionale 𝑔⃗ in un punto dello spazio è stato definito come la forza gravitazionale ⃗⃗⃗⃗
𝐹𝑔 agente su una massa
di prova 𝑚0 diviso per la massa di prova. Analogamente, un campo elettrico in un punto dello spazio può essere
definito in funzione della forza elettrica agente su una carica di prova 𝑞0 posta in quel punto. Poiché la carica può
avere due diversi segni, dobbiamo scegliere una convenzione per la nostra particella di prova. Scegliamo per
convenzione che una particella di prova trasporta sempre una carica elettrica positiva. Il campo elettrico 𝐸⃗⃗ in un punto
dello spazio è definito come la forza elettrica 𝐹⃗𝑒 agente su una carica di prova posta in quel punto diviso per la carica
𝑞0 della particella di prova. In simboli, 𝐸⃗⃗ ≡
𝐹⃗𝑒
𝑞0
. Quindi, un campo elettrico esiste in un punto se una particella carica di
prova posta a riposo in quel punto subisce una forza elettrica. Poiché la forza è un vettore, anche il campo elettrico lo
è. Si noti che il campo elettrico è prodotto da una carica (o più) diversa dalla particella di prova, detta sorgente (così
come il campo gravitazionale non è prodotto dalla carica di prova, ma da un oggetto massivo, come la Terra).
Pertanto, il campo elettrico esiste indipendentemente che si introduca o no una carica di prova nel campo, che viene
usata solo per misurare l’intensità e rivelare l’esistenza del campo. Dobbiamo, quindi, assumere che la carica di prova
sia sufficientemente piccola da non perturbare la distribuzione di carica responsabile del campo. Il vettore 𝐸⃗⃗ ha le unità
SI di newton su coulomb (𝑁⁄𝐶 ) e direzione orientata identica a quella di 𝐹⃗𝑒 (poiché abbiamo detto che, per
convenzione, la carica di prova ha carica positiva).
Una volta noto il campo elettrico in un punto dello spazio, la forza su qualsiasi particella con carica q posta in quel
punto si può calcolare a partire dalla formula 𝐹⃗𝑒 = 𝑞𝐸⃗⃗ . Il campo elettrico totale in un dato punto dello spazio,
generato da un insieme di particelle cariche, è uguale alla somma vettoriale dei campi elettrici in quel punto generati
da tutte le particelle. Questo principio di sovrapposizione deriva direttamente dalla proprietà di sovrapposizione delle
forze elettriche.
In molti casi pratici, la distanza media di separazione fra le cariche è piccola rispetto a quella dal punto in cui si vuole
calcolare il campo; in questi casi, il sistema di cariche può essere considerato continuo, cioè si immagina che il sistema
di cariche molto vicine sia equivalente ad una carica totale distribuita con continuità in un dato volume o su una data
superficie. Per calcolare il campo elettrico in una distribuzione continua di carica si opera come segue: si divide la
distribuzione di carica in piccoli elementi ∆𝑞, assunti puntiformi; poi, si calcola il campo elettrico ∆𝐸⃗⃗ nel punto P dovuto
ad uno di questi elementi; infine, si calcola il campo elettrico totale in P, sommando vettorialmente i contributi di tutti
gli elementi di carica (ossia applicando il principio di sovrapposizione). In formula, un generico campo elettrico di un
elemento ∆𝑞 è dato da ∆𝐸⃗⃗𝑖 = 𝑘𝑒
∆𝑞𝑖
𝑟̂ ,
𝑟𝑖 2 𝑖
dove l’indice i si riferisce all’i-esimo elemento della distribuzione, 𝑟𝑖 è la distanza
dell’elemento dal punto P ed 𝑟̂𝑖 è il versore diretto dall’elemento di carica verso P. il campo elettrico totale nel punto P
è, quindi, uguale a 𝐸⃗⃗ ≈ 𝑘𝑒 ∑𝑖
∆𝑞𝑖
𝑟̂ .
𝑟𝑖 2 𝑖
Considerando gli elementi di carica infinitesimi, il campo elettrico nel punto P, nel
limite ∆𝑞𝑖 → 0, diventa 𝐸⃗⃗ = 𝑙𝑖𝑚 𝑘𝑒 ∑𝑖
∆𝑞𝑖 →0
∆𝑞𝑖
𝑟̂
𝑟𝑖 2 𝑖
= 𝑘𝑒 ∫
𝑑𝑞
𝑟2
𝑟̂ , dove dq è una quantità infinitesima di carica e l’integrazione
è estesa a tutta la carica che crea il campo.
Più semplicemente, è conveniente utilizzare il concetto di densità di carica; se una carica Q è uniformemente
𝑄
distribuita in un volume V, la carica per unità di volume ρ è definita da 𝜌 ≡ ; se Q è uniformemente distribuita su una
𝑉
𝑄
superficie di area A, la densità superficiale di carica σ è definita come 𝜎 ≡ ; se, infine, Q è uniformemente distribuita
𝐴
𝑄
lungo una linea di lunghezza ℓ, la densità lineare di carica λ è definita come 𝜆 ≡ .
ℓ
Una rappresentazione grafica conveniente consiste nel tracciare delle linee che hanno in ogni punto la direzione
orientata del campo elettrico; queste linee, chiamate linee di campo, sono legate al campo elettrico in qualunque
regione dello spazio nel seguente modo: il vettore campo elettrico 𝐸⃗⃗ è tangente alle linee di forza in ogni punto ed il
numero di linee di forza per unità di area che attraversano una superficie perpendicolare alle linee stesse è
proporzionale all’intensità del campo elettrico in quella regione. Quindi, E è intenso dove le linee sono fitte, è debole
dove si diradano. Le linee di forza che rappresentano il campo di forza generato da una carica puntiforme positiva sono
dirette dalla carica in tutte le direzioni: nella raffigurazione, si mostrano solo quelle che giacciono nel piano che
contiene la carica, ma nella realtà dovrebbero essere come gli aculei di un porcospino. Nel campo elettrico generato da
una carica puntiforme negativa, invece, le linee di campo hanno la stessa direzione, ma sono “entranti”, cioè rivolte
verso la carica. Le linee di campo nel caso di due cariche puntiformi uguali, ma di segno opposto (dipolo elettrico) sono
uscenti dalla carica positiva ed entranti in quella negativa; in questo caso, il numero di linee di forza che hanno origine
dalla prima deve eguagliare il numero di quelle che terminano sulla seconda; lo spazio compreso fra le due cariche ha
un’alta densità di linee di campo, il che indica una regione in cui il campo elettrico è intenso. Nel caso di due cariche
puntiformi positive ed uguali, le cariche sono quasi radiali nelle vicinanze delle due cariche, tuttavia la natura repulsiva
della forza elettrica fra le due particelle fa sì che le linee di forza siano tutte dirette verso l’esterno: nessuna linea di
campo collega le particelle, benché il numero di linee di campo che esce dalla prima sia uguale a quello che esce dalla
seconda, e nello spazio compreso fra le due cariche le linee di campo si incurvano. A grande distanza, il campo è
approssimativamente uguale a quello generato da una singola carica puntiforme positiva.
Quando una particella di carica q e massa m è posta in un campo elettrico 𝐸⃗⃗ , la forza elettrica che agisce sulla carica è
data da 𝐹⃗𝑒 = 𝑞𝐸⃗⃗ ; se questa è l’unica forza agente sulla particella, essa è la forza risultante, che causa l’accelerazione
della particella. Applicando la legge di Newton, otteniamo che 𝐹⃗𝑒 = 𝑞𝐸⃗⃗ = 𝑚𝑎⃗. L’accelerazione della particella è,
quindi, data da 𝑎⃗ =
𝑞𝐸⃗⃗
𝑚
. Se 𝐸⃗⃗ è uniforme, l’accelerazione è costante; se la particella ha carica positiva, la sua
accelerazione sarà nel verso del campo elettrico; se la particella ha carica negativa, la sua accelerazione sarà nel verso
opposto. Il campo elettrico può dirsi uniforme nello spazio racchiuso fra due piastre metalliche cariche di segno
opposto; supponiamo che un elettrone di carica –e venga sparato
- - - - - - - - - - - - - -
orizzontalmente in questo campo con una velocità iniziale 𝑣𝑖 𝑖̂: poiché il campo
elettrico è nel verso positivo di y, l’accelerazione dell’elettrone sarà nel verso
negativo di y, ovvero, in simboli, 𝑎⃗ = −
𝑒𝐸
𝑚𝑒
𝑗̂. Poiché l’accelerazione è costante,
possiamo applicare le equazioni della cinematica: 𝑣𝑦 = 𝑎𝑦 𝑡 = −
+ + + + + + + + + + + + +
1
1 𝑒𝐸
2
2 𝑚𝑒
𝑥 = 𝑣0 𝑡 e 𝑦 = 𝑎𝑦 𝑡 2 = −
𝑒𝐸
𝑚𝑒
𝑡,
𝑡 2 . Sostituendo il valore 𝑡 = 𝑥 ⁄𝑣0 , vediamo
che y è proporzionale ad 𝑥 2 , quindi la traiettoria è una parabola. Inoltre, dopo aver abbandonato il campo elettrico,
l’elettrone continua a muoversi di moto rettilineo, seguendo la prima legge di Newton. È da notare che abbiamo
trascurato la forza gravitazionale, poiché per un tipico campo elettrico di 104 𝑁⁄𝐶 , il rapporto fra il modulo della forza
elettrica eE ed il modulo della forza gravitazionale mg, per l’elettrone è nell’ordine di 1014 e per un protone di 1011 .
Introduciamo ora un nuovo concetto, quello di flusso elettrico, una grandezza proporzionale al numero di linee di
campo che attraversano una determinata superficie. Consideriamo un campo elettrico uniforme (in modulo ed in
direzione e verso) E, le cui linee di campo attraversino una superficie rettangolare di area A, perpendicolare al campo.
In questo caso, il numero di linee di campo è proporzionale al prodotto dell’intensità del campo elettrico per la
superficie, chiamato appunto flusso elettrico 𝛷𝐸 . In simboli, 𝛷𝐸 = 𝐸𝐴. L’unità di misura del flusso, è, quindi, 𝑁 ∙ 𝑚2 ⁄𝐶 .
Se la superficie considerata non è perpendicolare al campo, il numero di linee che la attraversano deve essere minore
di questo prodotto. La formula, infatti, diventa 𝛷𝐸 = 𝐸𝐴 𝑐𝑜𝑠 𝜗, dove ϑ è l’angolo formato dalla normale alla superficie
di area A con la direzione del campo elettrico uniforme. Da questa formula vediamo come il flusso sia massimo quando
la superficie è perpendicolare al campo (per cui la normale è parallela al campo: 𝜗 = 0° → 𝑐𝑜𝑠 𝜗 = 1), mentre esso è
nullo quando la superficie è parallela al campo (per cui la normale è perpendicolare al campo: 𝜗 = 0° → 𝑐𝑜𝑠 𝜗 = 0).
Nel caso più generale, il campo elettrico può variare sia in modulo sia in direzione e verso sulla superficie in questione;
quindi, suddividiamo la superficie in un gran numero di piccoli elementi, ciascuno di area ∆𝐴 (se l’elemento è
sufficientemente piccolo, la variazione di campo elettrico nell’elemento può essere trascurata). Definiamo, quindi, un
vettore ∆𝐴⃗𝑖 , il cui modulo rappresenta l’area dell’i-esimo elemento e la cui direzione è, per definizione, perpendicolare
alla superficie: il flusso elettrico ∆𝛷𝐸 è dato da 𝐸𝑖 ∆𝐴𝑖 𝑐𝑜𝑠 𝜗𝑖 = 𝐸⃗⃗𝑖 ∙ ∆𝐴⃗𝑖 (usando la definizione di prodotto scalare). Il
flusso totale è, quindi, dato dalla somma di tutti gli elementi. Facendo tendere l’area di ciascun elemento a zero ed il
numero degli elementi ad infinito, la somma è sostituita da un integrale. In formula, 𝛷𝐸 ≡ 𝑙𝑖𝑚 ∑ 𝐸⃗⃗𝑖 ∙ ∆𝐴⃗𝑖 =
∆𝐴𝑖 →0
∫𝑠𝑢𝑝𝑒𝑟𝑓𝑖𝑐𝑖𝑒 𝐸⃗⃗ ∙ 𝑑𝐴⃗. Poiché ci interessano soltanto superfici chiuse, possiamo riscrivere la formula come 𝛷𝐸 = ∮ 𝐸⃗⃗ ∙ 𝑑𝐴⃗ =
∮ 𝐸𝑛 𝑑𝐴, dove 𝐸𝑛 rappresenta la componente del campo elettrico normale alla superficie.
Il flusso elettrico totale attraverso una superficie chiusa è in relazione con la carica contenuta all’interno di questa
superficie tramite il teorema di Gauss. Consideriamo una carica puntiforme positiva q posta al centro di una sfera di
raggio r; le linee di campo sono radiali ed hanno verso uscente, per cui sono normali alla superficie in ogni punto. Cioè,
in ogni punto 𝐸⃗⃗ è parallelo al vettore ∆𝐴⃗𝑖 , che rappresenta l’elemento locale di area ∆𝐴𝑖 . Quindi, per tutti i punti della
superficie, 𝐸⃗⃗ ∙ ∆𝐴𝑖 = 𝐸𝑛 ∆𝐴𝑖 = 𝐸∆𝐴𝑖 ed il flusso totale è uguale a 𝛷𝐸 = ∮ 𝐸𝑛 𝑑𝐴 = ∮ 𝐸𝑑𝐴 = 𝐸 ∮ 𝑑𝐴 = 𝐸𝐴, poiché E è
costante sull’intera superficie. Poiché l’intensità del campo elettrico ovunque sulla superficie della sfera è uguale ad
𝐸 = 𝑘𝑒 𝑞⁄𝑟 2 e poiché la superficie di una sfera è uguale ad 𝐴 = 4𝜋𝑟 2 , il flusso totale diventa: 𝛷𝐸 = 𝐸𝐴 =
(
𝑘𝑒 𝑞
𝑟2
) (4𝜋𝑟 2 ) = 4𝜋𝑘𝑒 𝑞. Ricordando, poi, che 𝑘𝑒 =
1
4𝜋𝜀0
, possiamo scrivere questa relazione come 𝛷𝐸 =
𝑞
𝜀0
. Questo
risultato ci dice che il flusso totale attraverso una superficie sferica è proporzionale alla carica all’interno della
superficie, indipendentemente da r. in effetti, il flusso totale che attraversa una qualunque superficie chiusa (non per
forza una sfera) che circonda una carica puntiforme q è dato da 𝑞⁄𝜀0; inoltre, poiché potremmo scegliere anche una
superficie sferica che circonda una carica che non è posta al centro della sfera, possiamo dedurre che il flusso
attraverso la superficie è indipendente dalla posizione della carica all’interno della superficie. Considerando, invece,
una carica posta al di fuori di una superficie chiusa, poiché il numero di linee di forza che entrano nella superficie è
identico al numero di quelle che ne escono, il flusso elettrico totale che attraversa una superficie chiusa che non
circonda alcuna carica è nullo. Dunque, il teorema di Gauss, che è una generalizzazione della discussione precedente,
𝑞
afferma che il flusso totale attraverso una qualunque superficie chiusa è dato da 𝛷𝐸 = ∮ 𝐸⃗⃗ ∙ 𝑑𝐴⃗ = 𝑖𝑛, dove 𝑞𝑖𝑛
𝜀0
rappresenta la carica totale interna alla superficie. In linea di principio, il teorema di Gauss può essere utilizzato
sempre. In pratica, però, la tecnica è utile solo in un limitato numero di casi in cui vi sia un alto grado di simmetria: in
particolare, le superfici per cui il teorema è valido, dette superfici Gaussiane, prevedono simmetria sferica, cilindrica o
piana. Ad ogni modo, la superficie gaussiana è una superficie matematica e non è necessario che corrisponda ad una
superficie fisica.
Potenziale Elettrico e Capacità
Poiché la forza elettrostatica o di Coulomb è conservativa, i fenomeni elettrostatici possono essere convenientemente
descritti in termini di una funzione energia potenziale elettrica, che ci permette a sua volta di definire una quantità,
detta potenziale elettrico, che è una funzione scalare della posizione. In particolare, quando una carica puntiforme 𝑞0 è
immersa in un campo elettrico 𝐸⃗⃗ , la forza elettrica agente su di essa è 𝑞0 𝐸⃗⃗ . Questa forza è la somma vettoriale delle
singole forze esercitate dalle cariche che generano il campo. Poiché le singole forze, governate dalla legge di Coulomb,
sono conservative, lo è anche la forza 𝑞0 𝐸⃗⃗ . Quando, quindi, la carica 𝑞0 si muove all’interno del campo, sollecitata
dalla forza elettrica all’interno del campo elettrico, il campo compie lavoro sulla carica. Per un infinitesimo
spostamento 𝑑𝑠⃗, il lavoro compiuto dal campo elettrico sulla carica è 𝐹⃗𝑒 ∙ 𝑑𝑠⃗ = 𝑞0 𝐸⃗⃗ ∙ 𝑑𝑠⃗. Il lavoro svolto dal campo
elettrico sulla particella carica varia l’energia potenziale del sistema isolato carica-campo di una quantità 𝑑𝑈 =
−𝑑𝐿 = −𝑞0 𝐸⃗⃗ ∙ 𝑑𝑠⃗. Per uno spostamento finito della particella di prova di carica 𝑞0 fra i punti A e B, la variazione di
𝐵
energia potenziale del sistema carica-campo è ∆𝑈 = 𝑈𝐵 − 𝑈𝐴 = −𝑞0 ∫𝐴 𝐸⃗⃗ ∙ 𝑑𝑠⃗. Questo integrale non dipende dal
cammino seguito per andare da A a B, poiché la forza 𝑞0 𝐸⃗⃗ è conservativa.
Poiché l’energia potenziale dipende sia dalle cariche che generano il campo sia dalla carica di prova 𝑞0 , è più
conveniente introdurre una nuova grandezza che sia indipendente dalla carica di prova. Questa grandezza è il
potenziale elettrico, corrispondente all’energia potenziale elettrica per unità di carica di prova. In simboli, 𝑉 ≡
𝑈
𝑞0
.
Poiché l’energia potenziale è uno scalare, lo è anche il potenziale. Inoltre, esso non è una proprietà del sistema caricacampo, poiché abbiamo diviso per la carica, bensì è una proprietà soltanto del campo.
La differenza di potenziale (chiamata anche tensione o voltaggio) ∆𝑉 = 𝑉𝐵 − 𝑉𝐴 fra i punti A e B è definita come la
variazione di energia potenziale del sistema carica-campo, quando la carica di prova 𝑞0 si muove fra i due punti, divisa
per la carica 𝑞0 della particella di prova. In simboli, ∆𝑉 =
∆𝑈
𝑞0
𝐵
= − ∫𝐴 𝐸⃗⃗ ∙ 𝑑𝑠⃗. È da notare che questa formula definisce
soltanto la differenza di potenziale: la funzione potenziale elettrica è spesso presa uguale a zero in un punto
conveniente, chiamato terra o massa. Abitualmente, fissiamo il potenziale dovuto ad una o più cariche sorgenti uguale
a zero in un punto posto all’infinito. Con questa scelta, diciamo che il potenziale elettrico di un punto arbitrario è
uguale al lavoro per unità di carica necessario per portare una particella di prova dall’infinito al punto, diviso per la
carica della particella di prova. In questo modo, se prendiamo 𝑉𝐴 = 0 all’infinito, il potenziale in ogni punto P sarà
𝑃
uguale a 𝑉𝑃 = − ∫∞ 𝐸⃗⃗ ∙ 𝑑𝑠⃗, essendo 𝑉𝑃 , in realtà, la differenza di potenziale fra il punto P ed un punto all’infinito.
L’unità di misura del potenziale è il volt (V), equivalente ad 1𝐽⁄𝐶 ; cioè, se poniamo una particella con carica di 1C in un
campo elettrico ed essa si muove da un punto a potenziale più alto ad uno a potenziale più basso attraverso una
differenza di potenziale di 1V, il campo avrà svolto 1J di lavoro su di essa ed essa raggiungerà un’energia cinetica di 1J.
Inoltre, la differenza di potenziale ha anche le dimensioni del campo elettrico moltiplicato per una distanza; da questo
consegue che il campo elettrico, oltre che in 𝑁⁄𝐶 , si può anche esprimere come 𝑉 ⁄𝑚, il che suggerisce che il campo
elettrico può essere interpretato come la derivata spaziale del potenziale elettrico. Un intenso campo elettrico
corrisponde ad un potenziale che varia rapidamente nello spazio, mentre un debole campo elettrico rappresenta un
potenziale che varia lentamente.
Un’unità d’energia comunemente usata in fisica è l’elettronvolt (eV). 1𝑒𝑉 = (1𝑒)(1𝑉) = (1.60 × 10−19 𝐶)(1𝐽⁄𝐶 ) =
1.60 × 10−19 𝐽. Un eV è l’energia cinetica guadagnata da una particella con carica e accelerata attraverso una
differenza di potenziale di 1V. Nonostante il nome possa trarre in inganno, quindi, l’elettronvolt non è un’unità di
potenziale elettrico, ma di energia potenziale.
In un campo elettrico uniforme, diretto lungo l’asse y negativo, la differenza di potenziale fra due punti A e B separati
𝐵
𝐵
da una distanza d, misurata parallelamente alle linee di campo, è uguale a ∆𝑉 = − ∫𝐴 𝐸⃗⃗ ∙ 𝑑𝑠⃗ = − ∫𝐴 𝐸 𝑐𝑜𝑠 0° 𝑑𝑠 =
𝐵
𝐵
− ∫𝐴 𝐸𝑑𝑠 . Ma poiché E è costante, può essere portato fuori dal segno di integrale: ∆𝑉 = −𝐸 ∫𝐴 𝑑𝑠 = −𝐸𝑑, in cui il
segno meno deriva dal fatto che il punto B si trova ad un potenziale minore del punto A: in generale, le linee di campo
elettrico sono sempre dirette nella direzione di un potenziale elettrico decrescente. Supponiamo, ora, che una particella
di prova con carica 𝑞0 si muova da A a B; la variazione dell’energia potenziale elettrica del sistema carica-campo si può
calcolare come ∆𝑈 = 𝑞0 ∆𝑉 = −𝑞0 𝐸𝑑. Da questo risultato vediamo che se 𝑞0 è positivo, ∆𝑈 è negativo. Quindi,
quando una carica positiva si muove nel verso del campo elettrico, l’energia potenziale elettrica del sistema caricacampo diminuisce, analogamente ad un oggetto che cade da un’altezza d in un campo gravitazionale (uniforme).
Inoltre, se una particella carica positivamente 𝑞0 è abbandonata in un campo elettrico uniforme 𝐸⃗⃗ , essa subisce una
forza elettrica 𝑞0 𝐸⃗⃗ nella direzione (e verso) del campo elettrico, guadagnando energia cinetica. Poiché la particella
guadagna energia cinetica, il sistema carica-campo perde una uguale quantità di energia potenziale. Questo risultato è
anch’esso analogo al caso gravitazionale ed è l’affermazione del principio di conservazione dell’energia meccanica nel
caso di un sistema isolato costituito da una carica immersa in un campo elettrico. Viceversa, se 𝑞0 è negativa, ∆𝑈 è
positiva e, se abbandonata in quiete nel campo 𝐸⃗⃗ , essa viene accelerata nel verso opposto a quello del campo elettrico
ed il sistema carica-campo perde energia potenziale elettrica (questo caso non ha un analogo nel campo
gravitazionale, poiché la massa è sempre positiva). Infine, questi risultati dimostrano che tutti i punti che giacciono in
un piano perpendicolare ad un campo elettrico uniforme si trovano allo stesso potenziale; una qualunque superficie
costituita da un insieme di punti allo stesso potenziale elettrico è detta superficie equipotenziale.
Una carica puntiforme positiva isolata q produce un campo elettrico radiale uscente dalla carica il cui potenziale
𝑞
elettrico a distanza r è pari a 𝑉 = 𝑘𝑒 . Da ciò si deduce che V è costante su una superficie sferica di raggio r: infatti, le
𝑟
superfici equipotenziali per una particella puntiforme isolata sono rappresentate da una famiglia di sfere
concentriche alla carica; si noti che esse sono perpendicolari alle linee di campo, come accade per un campo elettrico
uniforme. Il potenziale elettrico generato da una o più cariche puntiformi si ottiene applicando il principio di
sovrapposizione: il potenziale in un punto P dovuto a più cariche puntiformi è la somma (algebrica, non vettoriale) dei
𝑞
potenziali dovuti alle singole cariche. In formula, 𝑉 = 𝑘𝑒 ∑𝑖 𝑖, assumendo il potenziale nullo all’infinito. Se 𝑉2 è il
𝑟𝑖
potenziale dovuto alla carica 𝑞2 in un punto P, il lavoro necessario per portare una seconda carica 𝑞1 dall’infinito a P
senza accelerazione è dato da 𝑞1 𝑉2 . Questo lavoro corrisponde all’energia immagazzinata nel sistema, ovvero
all’energia potenziale elettrica di una coppia di particelle cariche, data da 𝑈 = 𝑞1 𝑉2 = 𝑘𝑒
𝑞1 𝑞2
𝑟12
. Si noti che se le
cariche sono di segno uguale, U è positiva: ciò è consistente col fatto che cariche uguali si respingono, e quindi bisogna
compiere un lavoro positivo sul sistema per avvicinarle. Al contrario, se le cariche sono di segno opposto, si attrarranno
e l’agente esterno deve compiere un lavoro negativo per evitare che la carica 𝑞1 acceleri su 𝑞2 .
Il potenziale elettrico dovuto ad una distribuzione continua di carica può essere calcolato considerando il potenziale
generato da un piccolo elemento 𝑑𝑞 come una carica puntiforme; il potenziale 𝑑𝑉 in un certo punto P dovuto a dq è
quindi 𝑑𝑉 = 𝑘𝑒
𝑑𝑞
𝑟
. Per ottenere il potenziale totale integriamo l’equazione per sommare i contributi di tutti gli
elementi della distribuzione di carica. In formula, 𝑉 = 𝑘𝑒 ∫
𝑑𝑞
𝑟
.
Quando un conduttore in equilibrio elettrostatico è carico, la carica è distribuita sulla superficie esterna del
conduttore. Inoltre, il campo elettrico nelle vicinanze immediate della superficie di un conduttore in equilibrio
elettrostatico è perpendicolare alla superficie, mentre il campo all’interno del conduttore è nullo. Ogni punto sulla
superficie di un conduttore carico, inoltre, si trova allo stesso potenziale, poiché per due punti sulla sua superficie 𝐸⃗⃗ è
sempre perpendicolare allo spostamento 𝑑𝑠⃗, per cui 𝐸⃗⃗ ∙ 𝑑𝑠⃗ = 0. Quindi, la differenza di potenziale fra due punti sulla
superficie di un conduttore carico è necessariamente zero. Una tale superficie è, quindi, equipotenziale. Inoltre, poiché
il campo elettrico all’interno è nullo, possiamo concludere che il potenziale all’interno è costante dovunque ed uguale
al suo valore sulla superficie. Quindi, non è necessario compiere lavoro per muovere una carica di prova dall’interno di
un conduttore carico fin sulla superficie.
Un circuito elettrico consiste di un certo numero di componenti elettrici (o elementi circuitali), collegati fra di loro da
fili conduttori, a formare uno o più circuiti chiusi, che si possono considerare come sistemi che mostrano un particolare
comportamento. Uno degli elementi di circuito più importanti è il condensatore. Un condensatore consiste di due
conduttori di forma qualsiasi, con cariche opposte di segno ma uguali di modulo, tra i quali è stabilita una differenza di
potenziale. Il condensatore, dunque, immagazzina cariche (collegando i due conduttori scarichi ai poli di una batteria).
La differenza di potenziale ∆𝑉 ai capi di un condensatore è il modulo della differenza di potenziale fra i due conduttori,
proporzionale alla carica 𝑄 del condensatore, definita come la quantità di carica presente su una delle due armature.
La capacità 𝐶 di un condensatore è definita come il rapporto fra la carica del condensatore ed il valore assoluto della
differenza di potenziale ai capi del condensatore, ovvero è una misura della quantità di carica che può essere
immagazzinata in un dato condensatore, per una certa differenza di potenziale. In simboli, 𝐶 ≡
𝑄
∆𝑉
. Per definizione, la
capacità è una grandezza sempre positiva; inoltre, per un dato condensatore, la quantità 𝑄 ⁄∆𝑉 è costante, poiché la
differenza di potenziale è proporzionale alla carica. L’unità di misura della capacità è il farad (𝐹), equivalente ad 1𝐶 ⁄𝑉,
così chiamato in onore di Michael Faraday. Il farad è un’unità di misura molto grande: nella pratica, i condensatori
hanno capacità nell’ordine del 𝜇𝐹 o 𝑝𝐹. La capacità di un condensatore dipende dalle caratteristiche geometriche dei
conduttori. Un condensatore piano, per esempio, costituito da due piastre parallele della stessa area A, separate da
una distanza D, ha una capacità C che dipende appunto dall’area e dalla distanza, cosa che appare alquanto intuitiva.
In simboli, 𝐶 =
𝜀0 𝐴
𝑑
. Un condensatore cilindrico, invece, è costituito da un conduttore cilindrico di raggio a e carica Q
contenuto in un altro conduttore cilindrico coassiale di raggio b e carica –Q. La sua capacità è data da 𝐶 =
ℓ
𝑏
𝑎
,
2𝑘𝑒 𝑙𝑛( )
dove ℓ è la lunghezza del dispositivo. Un esempio di tale condensatore è un cavo coassiale, costituito appunto da due
conduttori cilindrici separati da un isolane. Il cavo è percorso da correnti di verso opposto nei conduttori interno ed
esterno. Questa geometria viene usata allo scopo di schermare il segnale elettrico da influenze esterne.
Nei circuiti elettrici, due o più condensatori possono essere collegati in vari modi ed è possibile calcolare la capacità
equivalente di queste combinazioni. Due condensatori possono essere collegati in parallelo secondo questo
procedimento: le armature di sinistra di entrambi i condensatori sono collegate mediante un filo conduttore al polo
positivo di una batteria e sono, quindi, al suo stesso potenziale. Analogamente, le armature di destra sono collegate al
polo negativo della batteria e sono quindi al suo stesso potenziale. La tensione applicata ai capi della combinazione e
la tensione applicata ai capi di ciascun condensatore sono, quindi, la stessa tensione dei morsetti della batteria. Le
armature di sinistra diventano, quindi, cariche positivamente, mentre quelle di destra si caricano negativamente.
Quando la tensione ai capi è uguale a quella ai terminali della batteria, il flusso di cariche cessa. A questo punto, i
condensatori hanno raggiunto la loro carica massima, che chiamiamo 𝑄1 e 𝑄2 . La carica totale immagazzinata nei due
condensatori è, dunque, pari a 𝑄 = 𝑄1 + 𝑄2 . Un condensatore equivalente che abbia una capacità equivalente 𝐶𝑒𝑞
deve avere sul circuito esattamente lo stesso effetto dei due condensatori in parallelo, cioè deve accumulare una carica
Q e la sua tensione deve essere uguale a ∆𝑉. Per cui, 𝑄 = 𝐶𝑒𝑞 ∆𝑉 e, per i singoli condensatori, 𝑄1 = 𝐶1 ∆𝑉 e 𝑄2 =
𝐶2 ∆𝑉. Sostituendo queste relazioni, si ottiene che 𝐶𝑒𝑞 ∆𝑉 = 𝐶1 ∆𝑉 + 𝐶2 ∆𝑉, ossia, per due (o più) condensatori collegati
in parallelo, la capacità equivalente è pari alla somma algebrica delle singole capacità ed è maggiore di quella di
ciascuno dei singoli condensatori. In simboli, 𝐶𝑒𝑞 = 𝐶1 + 𝐶2 + 𝐶3 + ⋯.
Due condensatori possono anche essere collegati in serie. In questo caso, il valore assoluto della carica è lo stesso su
tutte le armature. Infatti, subito dopo l’inserimento della batteria nel circuito, l’armatura di destra di 𝐶1 e quella di
sinistra di 𝐶2 formano un conduttore isolato, per cui qualsiasi carica negativa entri in un’armatura dal filo di
collegamento deve essere uguale alla carica positiva dell’altra armatura, per mantenere la neutralità del conduttore
isolato: ciò è l’equivalente del modello del sistema isolato per la carica elettrica. La capacità di un conduttore
equivalente, che svolga la stessa funzione del collegamento in serie, quindi, deve consentire una carica −𝑄
sull’armatura destra ed una +𝑄 su quella sinistra. In formula, ∆𝑉 =
𝑄
𝐶𝑒𝑞
. Poiché l’armatura di destra di 𝐶1 e l’armatura
di sinistra di 𝐶2 formano un conduttore isolato, ambedue le armature si trovano allo stesso potenziale 𝑉𝑖 . Chiamando il
potenziale dell’armatura sinistra di 𝐶1 𝑉𝑠𝑖𝑛𝑖𝑠𝑡𝑟𝑎 e quello dell’armatura destra di 𝐶2 𝑉𝑑𝑒𝑠𝑡𝑟𝑎 , la differenza di potenziale
tra di loro, poiché esse sono collegate direttamente alla batteria, deve essere uguale a ∆𝑉 = 𝑉𝑠𝑖𝑛𝑖𝑠𝑡𝑟𝑎 − 𝑉𝑑𝑒𝑠𝑡𝑟𝑎 . Se
sommiamo e sottraiamo 𝑉𝑖 a questa equazione, otteniamo ∆𝑉 = (𝑉𝑠𝑖𝑛𝑖𝑠𝑡𝑟𝑎 − 𝑉𝑖 ) + (𝑉𝑖 − 𝑉𝑑𝑒𝑠𝑡𝑟𝑎 ) = ∆𝑉𝑖 + ∆𝑉2 , dove
∆𝑉1 e ∆𝑉2 sono le differenze di potenziale ai capi dei condensatori 𝐶1 e 𝐶2 . In generale, la differenza di potenziale ai
capi di un qualsiasi numero di condensatori in serie è uguale alla somma delle differenze di potenziale ai capi dei
singoli condensatori. Poiché la relazione 𝑄 = 𝐶∆𝑉 può essere applicata a ciascun condensatore, la differenza di
potenziale ai capi di ognuno di essi è data da ∆𝑉1 =
𝑄
𝐶1
e ∆𝑉2 =
𝑄
𝐶2
. Eliminando ∆𝑉 e semplificando Q, otteniamo la
relazione secondo cui il reciproco della capacità equivalente è la somma algebrica delle singole capacità e, quindi, la
capacità equivalente di un collegamento in serie è sempre minore delle capacità dei singoli condensatori. In simboli,
1
𝐶𝑒𝑞
=
1
𝐶1
+
1
𝐶2
+
1
𝐶3
+ ⋯.
In tutti i contesti in cui fluisce una carica, si dice che vi è una corrente. Supponendo che le cariche si muovano
perpendicolarmente ad una superficie di area 𝐴 (per esempio, la sezione trasversale di un filo), la corrente elettrica è
definita come la rapidità con cui la carica elettrica fluisce attraverso questa superficie. In simboli, 𝑖𝑚𝑒𝑑 =
∆𝑄
∆𝑡
. Se la
rapidità varia nel tempo, la corrente istantanea è il limite per ∆𝑡 tendente a zero dell’espressione precedente. In
simboli, 𝑖 ≡ 𝑙𝑖𝑚
∆𝑄
∆𝑡→0 ∆𝑡
=
𝑑𝑄
𝑑𝑡
. L’unità di corrente nel SI è l’ampere (𝐴), equivalente ad 1𝐶 ⁄𝑠, ossia 1 A di corrente equivale
al passaggio della carica di 1 C attraverso una superficie in 1 s. Per convenzione, si sceglie come verso positivo della
corrente quello in cui fluisce la carica positiva, indipendentemente dal segno reale della particelle in moto. Per
esempio, in un filo di rame, dove la corrente è dovuta al moto di elettroni, carichi negativamente, il verso della corrente
è opposto a quello del flusso degli elettroni. Viceversa, per un fascio di protoni in un acceleratore di particelle, la
corrente ha lo stesso verso del moto dei protoni.
Per un campo elettrico uniforme in un conduttore di sezione uniforme, la differenza di potenziale ai capi del conduttore
è proporzionale al campo elettrico; allora, quando una differenza di potenziale viene applicata agli estremi di un
conduttore metallico, la corrente nel conduttore è proporzionale alla tensione applicata, cioè 𝑖 ∝ ∆𝑉. Questa costante
di proporzionalità è la resistenza R del conduttore, definita appunto come il rapporto fra la tensione ai capi del
conduttore e la corrente elettrica che esso trasporta. In simboli, 𝑅 ≡
∆𝑉
𝑖
. L’unità di misura della resistenza è il volt su
ampere, chiamato ohm (𝛺). Ossia, se la differenza di potenziale di 1 V ai capi di un conduttore determina una corrente
di 1 A, la resistenza del conduttore è di 1 Ω.
Per molti materiali, inclusi la maggior parte dei metalli, gli esperimenti dimostrano che la resistenza è costante su un
grande intervallo di tensioni applicate. Questo comportamento è noto come legge di Ohm, da Georg Simon Ohm, il
primo a condurre uno studio sistematico sulla resistenza elettrica. La legge di Ohm non è una legge fondamentale della
natura, ma una relazione empirica valida soltanto per certi materiali e certi dispositivi e soltanto in un campo limitato
di condizioni. I materiali o dispositivi che obbediscono alla legge di Ohm e presentano, quindi, una resistenza costante
in un grande intervallo di tensioni, si chiamano ohmici. Un resistore è un semplice elemento circuitale che fornisce una
specifica resistenza in un circuito elettrico. La tensione ai capi di un resistore è il prodotto della resistenza e della
corrente nel resistore.
La resistenza di un filo conduttore ohmico è proporzionale alla sua lunghezza ℓ ed inversamente proporzionale alla sua
ℓ
sezione 𝐴. Cioè, 𝑅 = 𝜌 , dove la costante di proporzionalità 𝜌 è chiamata resistività del materiale ed ha unità ohm per
𝐴
metro (𝛺 ∙ 𝑚). Ogni materiale ohmico ha una specifica resistività, parametro che dipende dalle proprietà del materiale
e dalla temperatura. Il reciproco della resistività è definito conducibilità 𝜎. Quindi, la resistenza di un conduttore
ohmico si può anche esprimere in termini della sua conducibilità come 𝑅 =
ℓ
𝜎𝐴
. La resistenza di un conduttore è, quindi
direttamente proporzionale alla sua lunghezza ed inversamente proporzionale alla sua sezione, analogamente al flusso
di un liquido attraverso un condotto.
La resistività dipende da numerosi fattori, uno dei quali è la temperatura. Per la maggior parte dei metalli, in un
intervallo limitato di temperature, la resistività varia in maniera approssimativamente lineare, secondo la legge della
variazione della resistività con la temperatura 𝜌 = 𝜌0 [1 + 𝛼(𝑇 − 𝑇0 )] , dove 𝜌 è la resistività ad una certa
temperatura T (in gradi Celsius), 𝜌0 è la resistività ad una temperatura di riferimento 𝑇0 (ordinariamente 20°𝐶) ed 𝛼 è
il coefficiente termico della resistività, che può essere espresso come 𝛼 =
1 ∆𝜌
𝜌0 ∆𝑇
. Poiché la resistenza è proporzionale
alla resistività, la variazione della resistenza con la temperatura può essere scritta come 𝑅 = 𝑅0 [1 + 𝛼(𝑇 − 𝑇0 )].
Esiste una classe di metalli e composti per cui la resistenza diventa zero al di sotto di una particolare temperatura
critica 𝑇𝑐 . Essi sono noti come superconduttori.
Quando una carica passa attraverso un resistore, il sistema perde energia potenziale elettrica. Ovviamente, il sistema
riacquista questa energia quando la carica attraversa la batteria, a spese dell’energia chimica della batteria. La
rapidità con cui il sistema perde energia potenziale quando la carica passa attraverso il resistore è uguale alla rapidità
con cui il sistema guadagna energia interna nel resistore e rappresenta la potenza elettrica 𝑊 = 𝑖∆𝑉. Questa
equazione si può usare per determinare la potenza trasferita da una sorgente di tensione a qualsiasi dispositivo che
trasporti una corrente 𝑖 avente una differenza di potenziale ∆𝑉 ai suoi capi. Possiamo esprimere la potenza fornita ad
un resistore anche come 𝑊 = 𝑖 2 𝑅 =
(∆𝑉)2
𝑅
. L’unità di potenza è sempre il Watt (𝑊); l’unità di energia usata dalle
società elettriche per calcolare il trasferimento di energia è il kilowattora, che è la quantità di energia trasferita in 1
ora alla potenza costante di 1 kW.
L’entità che mantiene costante la tensione si chiama sorgente di f.e.m. (abbreviazione di forza elettromotrice, termine
scorretto, poiché essa non è una forza, bensì una differenza di potenziale). Le sorgenti di f.e.m. sono costituite da
qualsiasi dispositivo che aumenta l’energia potenziale di un sistema circuitale mantenendo una differenza di potenziale
tra punti del circuito mentre le cariche si muovono lungo il circuito stesso. Si può pensare, quindi, ad una sorgente di
f.e.m. come ad una “pompa di carica”. La f.e.m. di una sorgente esprime il lavoro svolto per unità di carica e, quindi, la
sua unità di misura nel SI è il volt. Ma la differenza di potenziale ai capi di una batteria non è uguale alla f.e.m. della
batteria, poiché una batteria reale contiene sempre una resistenza interna r. Di conseguenza, la tensione ai capi della
batteria è data da ∆𝑉 = 𝑓. 𝑒. 𝑚. −𝑖𝑟; la f.e.m. è, quindi, uguale alla differenza di potenziale a circuito aperto, cioè la
tensione quando la corrente è zero. Si osserva che la tensione ai capi ∆𝑉 deve essere uguale anche alla differenza di
potenziale ai capi della resistenza esterna 𝑅, chiamata resistenza di carico; cioè, ∆𝑉 = 𝑖𝑅. Mettendo a sistema questa
e l’equazione precedente, otteniamo la relazione 𝑓. 𝑒. 𝑚. = 𝐼𝑅 + 𝐼𝑟, da cui si ottiene la seguente relazione per la
corrente: 𝑖 =
𝑓.𝑒.𝑚.
𝑅+𝑟
. Ciò dimostra che la corrente dipende sia dalla resistenza esterna 𝑅 alla batteria che da quella
interna 𝑟. Si può notare anche che se 𝑅 è molto più grande di 𝑟, possiamo adottare un modello semplificato in cui
trascuriamo 𝑟.
Quando due o più resistori sono collegati insieme in modo che abbiano un solo estremo in comune per ogni coppia, si
dice che sono collegati in serie; è importante notare che la carica 𝑄 che passa nei due resistori è la stessa, poiché la
carica che fluisce attraverso 𝑅1 deve essere uguale a quella che fluisce attraverso 𝑅2 . Poiché la stessa quantità di
carica passa attraverso entrambi i resistori in un dato intervallo di tempo, anche la corrente è la stessa in entrambi i
resistori. Quindi, la differenza di potenziale applicata è uguale a ∆𝑉 = 𝑖𝑅1 + 𝑖𝑅2 = 𝑖(𝑅1 + 𝑅2 ); la differenza di
potenziale è, quindi, applicata anche alla resistenza equivalente: ∆𝑉 = 𝑖𝑅𝑒𝑞 . Mettendo insieme queste equazioni,
vediamo che possiamo sostituire i due resistori in serie con una sola resistenza equivalente il cui valore è la somma
delle singole resistenze: ∆𝑉 = 𝑖𝑅𝑒𝑞 = 𝑖(𝑅1 + 𝑅2 ) → 𝑅𝑒𝑞 = 𝑅1 + 𝑅2 . La resistenza equivalente di un insieme di resistori
collegati in serie è uguale alla somma algebrica delle singole resistenze ed è sempre maggiore di ciascuna di esse. In
simboli, 𝑅𝑒𝑞 = 𝑅1 + 𝑅2 + 𝑅3 + ⋯.
Consideriamo ora due resistori collegati in parallelo: in questo caso, la differenza di potenziale ai capi dei resistori è la
stessa, poiché ciascun resistore è collegato direttamente ai capi della batteria. Invece, la corrente in ciascun resistore è
generalmente diversa. Quando le cariche arrivano al primo nodo, la corrente si divide in due parti, 𝑖1 che passa
attraverso 𝑅1 ed 𝑖2 che passa attraverso 𝑅2 . Se 𝑅1 è maggiore di 𝑅2 , 𝑖1 sarà minore di 𝑖2 . Naturalmente, per la legge
della conservazione della carica, la corrente 𝑖 che entra nel nodo deve essere uguale alla corrente totale che ne esce. In
simboli, 𝑖 = 𝑖1 + 𝑖2 . Poiché la differenza di potenziale ai capi di ogni resistore deve essere la stessa, dalla legge 𝑖 =
∆𝑉⁄𝑅 si ottiene: 𝑖 = 𝑖1 + 𝑖2 =
∆𝑉
𝑅1
+
∆𝑉
𝑅2
= ∆𝑉 (
1
𝑅1
+
1
𝑅2
)=
∆𝑉
𝑅𝑒𝑞
, dove 𝑅𝑒𝑞 è una singola resistenza equivalente che ha lo
stesso effetto sul circuito; cioè, essa fa sì che vi sia la stessa corrente nella batteria. Da questo risultato si ottiene che il
reciproco della resistenza equivalente di due o più resistori collegati in parallelo è uguale alla somma algebrica dei
reciproci delle singole resistenze e la resistenza equivalente è sempre minore della più piccola resistenza dell’insieme.
In simboli,
1
𝑅𝑒𝑞
=
1
𝑅1
+
1
𝑅2
+
1
𝑅3
+ ⋯.
Come abbiamo visto, circuiti semplici possono essere analizzati usando l’equazione ∆𝑉 = 𝑖𝑅 e le regole per i
collegamenti in serie e in parallelo dei resistori. Tuttavia, i resistori possono essere collegati in modo tale che i circuiti
non possano essere ridotti ad un singolo resistore equivalente. Il procedimento per analizzare circuiti complessi è
enormemente semplificato con l’uso di due semplici regole, dette leggi di Kirchhoff: la prima, spesso chiamata legge
dei nodi, afferma che la somma delle correnti che entrano in un nodo è uguale alla somma delle correnti che ne
escono; in simboli, ∑𝑛𝑜𝑑𝑖 𝐼 = 0. La seconda, invece, detta legge delle maglie, afferma che la somma delle differenze di
potenziale ai capi di ogni elemento all’interno di una maglia deve essere uguale a zero; in simboli, ∑𝑚𝑎𝑔𝑙𝑖𝑒 ∆𝑉 = 0. La
legge dei nodi è una conseguenza della conservazione della carica: qualsiasi corrente entri in un dato punto di un
circuito, deve poi lasciare quel punto, poiché la carica non può nascere o scomparire in un punto. La seconda legge è,
invece, una conseguenza della conservazione dell’energia: supponendo che una carica si muova in un qualsiasi
percorso chiuso in un circuito, il circuito deve guadagnare e perdere la stessa quantità di energia.
Forze e Campi Magnetici
Il fenomeno del magnetismo era conosciuto già dai Greci nell’800 a.C. e la bussola, strumento che sfrutta questo
fenomeno, pare fosse utilizzata in Cina già dal XIII secolo a.C. A differenza delle cariche elettriche, che possono essere
isolate, i poli magnetici si trovano sempre a coppie: ogni pezzetto di magnete permanente, tagliato un numero
grandissimo di volte, sarà sempre un dipolo magnetico. I poli sono chiamati Nord (N) e Sud (S). Hans Christian Oersted,
nel 1819, scoprì poi la relazione fra elettricità e magnetismo, notando che una corrente elettrica che percorre un filo fa
deflettere un ago magnetico che si trovi nelle vicinanze.
È conveniente descrivere le interazioni fra oggetti carichi in termini di campi elettrici che circondano cariche elettriche
stazionarie. Lo spazio che circonda una carica elettrica in moto, invece, è sede di un campo magnetico, oltre che di un
⃗⃗ in ogni punto è la direzione verso cui punta il polo
campo elettrico. La direzione ed il verso di un campo magnetico 𝐵
nord dell’ago di una bussola in quel punto. Si può tracciare il campo magnetico di una sbarretta magnetica con l’aiuto
di una bussola, definendo una linea di campo magnetico, analogamente a quanto fatto per il campo elettrico.
L’esistenza di un campo magnetico in un certo punto dello spazio può essere determinata misurando la forza 𝐹⃗𝐵 che si
esercita su una appropriata particella di prova (elettricamente carica, per esempio un protone) posta in quel punto. Si
trova sperimentalmente che la forza magnetica è proporzionale alla carica 𝑞 ed al modulo della velocità 𝑣 della
particella. Inoltre, quando una particella carica si muove parallelamente al vettore campo magnetico, la forza
magnetica che agisce sulla carica è nulla, mentre quando il vettore velocità forma un angolo 𝜗 con il campo
⃗⃗ : cioè, la forza magnetica è
magnetico, la forza magnetica agisce in direzione perpendicolare sia a 𝑣⃗ che a 𝐵
⃗⃗. Inoltre, si trova sperimentalmente che la forza magnetica su una carica
perpendicolare al piano formato da 𝑣⃗ e 𝐵
negativa è diretta in verso opposto a quella che agisce su una carica positiva che si muova nello stesso verso. Questi
risultati mostrano che la forza magnetica agente su una particella è più complicata della forza elettrica. Queste
⃗⃗. L’unità di misura nel SI del campo magnetico
osservazioni si possono riassumere in una forma compatta: 𝐹⃗𝐵 = 𝑞𝑣⃗ × 𝐵
è il tesla (T), uguale ad 1 𝑁 ∙ 𝑠⁄𝐶 ∙ 𝑚. Il modulo della forza magnetica è, quindi, uguale a |𝑞|𝑣𝐵 𝑠𝑖𝑛 𝜗: è, quindi,
⃗⃗; è, invece, nulla quando 𝑣⃗ è parallela o antiparallela a 𝐵
⃗⃗ (𝜗 =
massima (|𝑞|𝑣𝐵) quando 𝑣⃗ è perpendicolare a 𝐵
0° 𝑜 180°). La direzione ed il verso si ricavano con la regola della mano destra.
La forza magnetica che agisce su una particella carica in moto in un campo magnetico è perpendicolare alla velocità
della particella e, di conseguenza, il lavoro svolto dalla forza magnetica sulla particella è zero. Consideriamo il caso di
una particella carica positivamente che si muova in un campo magnetico uniforme quando il vettore velocità iniziale
della particella è perpendicolare al campo. La particella si muove lungo una traiettoria circolare il cui piano è
perpendicolare al campo magnetico. Il raggio della traiettoria può essere determinato con l’applicazione della seconda
legge di Newton: ∑ 𝐹 = 𝐹𝐵 = 𝑚𝑎 → 𝑞𝑣𝐵 =
𝑚𝑣 2
𝑟
→𝑟=
𝑚𝑣
𝑞𝐵
; il raggio della traiettoria è, quindi, proporzionale alla
quantità di moto della particella ed inversamente proporzionale alla sua carica e all’intensità del campo magnetico. Il
periodo del moto è uguale alla lunghezza della circonferenza diviso per la velocità della particella. In simboli, 𝑇 =
2𝜋𝑟
𝑣
=
2𝜋
𝜔
=
2𝜋𝑚
𝑞𝐵
. Questi risultati mostrano che la velocità angolare della particella ed il periodo del moto circolare non
dipendono dalla velocità traslazionale della particella o dal raggio dell’orbita di una data particella in un campo
magnetico uniforme. La velocità angolare 𝜔 è spesso indicata come frequenza di ciclotrone, poiché particelle cariche
ruotano con questa velocità angolare in un tipo di acceleratore chiamato ciclotrone.
Se una particella carica si muova in un campo magnetico uniforme con la sua velocità che forma un certo angolo con
⃗⃗ , la sua traiettoria è elicoidale. Per esempio, se il campo è nella direzione 𝑥, non c’è alcuna componente della forza
𝐵
nella direzione 𝑥. Di conseguenza, 𝑎𝑥 = 0 e la componente 𝑥 della velocità rimane costante. Tuttavia, la forza
⃗⃗ fa variare nel tempo le componenti 𝑣𝑦 e 𝑣𝑧 ed il moto risultante è un’elica che ha il suo asse
magnetica 𝑞𝑣⃗ × 𝐵
parallelo al campo magnetico.
Poiché su una singola particella carica che si muove in un campo magnetico esterno si esercita una forza magnetica,
non dovrebbe meravigliare che anche un filo percorso da corrente sia soggetto ad una forza magnetica quando venga
posto in un campo magnetico esterno. Tutto ciò deriva dal fatto che la corrente non è altro che un insieme di molte
particelle cariche in movimento, quindi la forza magnetica risultante sul filo è dovuta alla somma di tutte le singole
forze magnetiche sulle particelle cariche. Si può osservare la forza magnetica che agisce su un filo percorso da corrente
sospendendo un filo tra le facce di un magnete. Il filo si piega a sinistra o a destra quando è attraversato da corrente (a
seconda del verso stesso della corrente). Per rendere questa discussione quantitativa, possiamo esprimere la forza
⃗⃗ × 𝐵
⃗⃗ è un vettore diretto nel verso della
⃗⃗ , dove ℓ
magnetica su un conduttore percorso da corrente come 𝐹⃗𝐵 = 𝑖ℓ
corrente 𝑖, il cui modulo è uguale alla lunghezza del tratto. Questa espressione si applica unicamente al caso di un
tratto rettilineo di un filo in un campo magnetico esterno uniforme. Per un filo di forma arbitraria e sezione
𝑏
⃗⃗ → 𝐹⃗𝐵 = 𝑖 ∫ 𝑑𝑠⃗ × 𝐵
⃗⃗, dove a e b sono due punti arbitrari e 𝑑𝑠⃗ è un
uniforme, l’espressione diventa 𝑑𝐹⃗𝐵 = 𝑖𝑑𝑠⃗ × 𝐵
𝑎
vettore che rappresenta la lunghezza del tratto, con il suo verso uguale a quello della corrente.
All’inizio del XIX secolo, Jean-Baptiste Biot e Félix Savart giunsero ad un’espressione per il campo magnetico in un
punto dello spazio in funzione della corrente che genera il campo. La legge di Biot-Savart può essere espressa, in
⃗⃗ = 𝑘𝑚
simboli, come segue: 𝑑𝐵
𝑖 𝑑𝑠⃗×𝑟̂
𝑟2
, dove 𝑑𝑠 è l’elemento di corrente di lunghezza infinitesima del filo,𝑟̂ è il versore
diretto dall’elemento al punto P dove si vuole calcolare il campo magnetico, 𝑟 è la distanza fra l’elemento ed il punto P
e 𝑘𝑚 è una costante che, nel SI, vale esattamente 10−7 𝑇 ∙ 𝑚⁄𝐴. La costante 𝑘𝑚 viene anche scritta comunemente
come
𝜇0
4𝜋
, dove 𝜇0 è un’altra costante, nota come permeabilità magnetica nel vuoto, uguale a 4𝜋𝑘𝑚 . La legge di Biot-
⃗⃗ =
Savart può, quindi, essere scritta anche nella forma 𝑑𝐵
𝜇0 𝑖 𝑑𝑠⃗×𝑟̂
4𝜋
𝑟2
.
Immaginiamo un filo metallico rettilineo che si trovi in un campo magnetico uniforme entrante nel foglio; all’interno
del filo, vi sono elettroni liberi. Supponiamo, ora, che il filo si muova con velocità 𝑣⃗ verso destra: una forza magnetica
(diretta verso il basso) agisce sugli elettroni del filo. Poiché questa direzione è lungo il filo, gli elettroni si muovono
lungo il filo in risposta a questa forza: quindi, si produce una corrente nel filo quando esso si muove nel campo
magnetico! Un altro semplice esperimento consiste nel collegare una spira di filo conduttore ad un galvanometro. Se si
avvicina un magnete alla spira, l’indice del galvanometro si sposterà in un certo verso, mentre quando il magnete è
tenuto fermo, l’ago non si sposterà. Se, poi, il magnete è allontanato dalla spira, l’indice si sposterà nel verso opposto.
Le stesse osservazioni si ottengono se il magnete è tenuto fermo ed è la spira ad essere avvicinata o allontanata da
esso. Si può, quindi, concludere che una corrente elettrica circola nel galvanometro ogni volta che vi è un moto relativo
del magnete rispetto alla spira. Questa corrente, generata senza che vi sia una batteria nel circuito, è chiamata
corrente indotta ed è generata da una f.e.m. indotta. Michael Faraday concluse da un esperimento effettuato con una
bobina che una corrente elettrica può essere generata da un campo magnetico variabile nel tempo (e non da un
campo magnetico stazionario). Per rendere questa affermazione quantitativa, è necessario definire una grandezza
chiamata flusso magnetico, proporzionale al numero di linee di campo associate al campo magnetico (analogamente
alla proporzionalità del flusso elettrico al numero di linee di campo associate al campo elettrico). Considerando un
elemento di area 𝑑𝐴 su una superficie di forma arbitraria, se il campo magnetico in questo punto di questo elemento è
⃗⃗ , allora il flusso magnetico attraverso l’elemento è 𝐵
⃗⃗ ∙ 𝑑𝐴⃗, dove 𝑑𝐴⃗ è un vettore perpendicolare alla superficie, il cui
𝐵
⃗⃗ ∙ 𝑑𝐴⃗. L’unità di misura del
modulo è uguale all’area 𝑑𝐴. Quindi, il flusso totale 𝛷𝐵 attraverso la superficie è 𝛷𝐵 = ∫ 𝐵
flusso nel SI è il tesla per metro quadrato, chiamato Weber (Wb).
Si ha, quindi, una forza elettromotrice indotta in un circuito quando il flusso magnetico attraverso la superficie che
limita il circuito varia nel tempo. La legge di Faraday dell’induzione afferma, infatti, che la f.e.m. indotta in un circuito
è uguale alla rapidità con cui varia il flusso magnetico attraverso il circuito. In simboli, 𝑓. 𝑒. 𝑚. = −
𝑑𝛷𝐵
𝑑𝑡
, dove 𝛷𝐵 è il
flusso magnetico attraverso la superficie che limita il circuito. Se il circuito è una bobina di N spire, tutte concentriche e
di uguale superficie, e il flusso è concatenato con tutte le spire, la f.e.m. indotta sarà uguale a 𝑓. 𝑒. 𝑚. = −𝑁
𝑑𝛷𝐵
𝑑𝑡
: la
f.e.m. aumenta di un fattore N poiché tutte le spire sono in serie, cosicché le f.e.m. delle singole spire si sommano a
dare la f.e.m. totale.
Il segno negativo della legge di Faraday è espressione della legge di Lenz (una legge espressa a parole, a cui non è
associata alcuna equazione): la polarità della f.e.m. indotta nell’avvolgimento tende a produrre una corrente il cui
campo magnetico si oppone alla variazione del flusso concatenato con il circuito. Ovvero, la corrente indotta è in una
direzione tale che il campo magnetico indotto tende a mantenere il flusso iniziale attraverso il circuito.
Consideriamo un circuito formato da un interruttore, un resistore ed una sorgente di f.e.m.: quando si chiude
l’interruttore, la corrente non passa istantaneamente da zero al suo valore massimo 𝑓. 𝑒. 𝑚.⁄𝑅; la legge di Faraday
predice il reale comportamento: aumentando la corrente nel tempo, aumenta anche il flusso magnetico concatenato
con il circuito, dovuto a questa corrente. Questo aumento di flusso magnetico da parte del circuito induce una f.e.m.
nel circuito, che si oppone alla variazione del flusso magnetico concatenato con il circuito. Dalla legge di Lenz, il campo
elettrico indotto nel filo deve essere opposto al verso della corrente e la presenza di questa f.e.m. opposta porta ad un
graduale aumento della corrente. Questo effetto è detto autoinduzione, perché la variazione di flusso magnetico
concatenato con il circuito ha origine dal circuito stesso. La f.e.m. che ha origine in questo caso è chiamata f.e.m.
autoindotta. Dalla legge di Faraday, sappiamo che la f.e.m. indotta è data dalla rapidità con cui varia il flusso
magnetico concatenato con il circuito, con il segno cambiato. Quindi, la f.e.m. autoindotta è sempre proporzionale alla
rapidità con cui varia la corrente nel tempo. Per una bobina costituita da 𝑁 spire, addossate l’una all’altra (solenoide
ideale o bobina toroidale), si trova che 𝑓. 𝑒. 𝑚.𝑎𝑢𝑡𝑜𝑖𝑛𝑑𝑜𝑡𝑡𝑎 = −𝑁
𝑑𝛷𝐵
𝑑𝑡
𝑑𝑖
= −𝐿 , dove 𝐿 è una costante di proporzionalità
𝑑𝑡
chiamata induttanza della bobina, che dipende dalle caratteristiche geometriche e fisiche della bobina. Da questa
espressione, vediamo che l’induttanza di una bobina avente 𝑁 spire è data da: 𝐿 =
𝑁𝛷𝐵
𝑖
, assumendo che il flusso
attraverso ciascuna spira sia lo stesso. Possiamo anche scrivere l’induttanza come rapporto 𝐿 = −
𝑓.𝑒.𝑚.𝑎𝑢𝑡𝑜𝑖𝑛𝑑𝑜𝑡𝑡𝑎
𝑑𝑖 ⁄𝑑𝑡
,
indipendentemente dalla forma o dalla grandezza del circuito. L’unità di misura dell’induttanza nel SI è l’henry (H),
equivalente ad 1 𝑉 ∙ 𝑠⁄𝐴.
Le Onde Elettromagnetiche
Nella sua teoria unificata dell’elettromagnetismo, James Clerk Maxwell dimostrò che i campi elettrici e magnetici
dipendenti dal tempo soddisfano un’equazione d’onda lineare. La più importante conseguenza di questa teoria è la
previsione dell’esistenza delle onde elettromagnetiche. Le equazioni mi di Maxwell prevedono che un’onda
elettromagnetica consista di campi elettrici e magnetici oscillanti; la variazione dei campi crea reciprocamente il
mantenimento della propagazione dell’onda: il campo elettrico variabile induce un campo magnetico ed un campo
⃗⃗ sono perpendicolari fra di loro e con la direzione di
magnetico variabile induce un campo elettrico. I vettori 𝐸⃗⃗ e 𝐵
⃗⃗ . La velocità a cui si muovono le onde
propagazione, ovvero la direzione del prodotto vettoriale 𝐸⃗⃗ × 𝐵
elettromagnetiche è data dalla relazione 𝑐 =
1
√𝜀0 𝜇0
= 299792 × 108 𝑚⁄𝑠. Poiché questa è esattamente uguale alla
velocità della luce (nel vuoto), si è (correttamente) portati a credere che la luce sia un’onda elettromagnetica. Inoltre,
in ogni istante, in un’onda elettromagnetica, il rapporto fra il campo elettrico ed il campo magnetico è uguale alla
velocità della luce. In simboli,
𝐸
𝐵
= 𝑐.
Le onde elettromagnetiche viaggiano nel vuoto con velocità 𝑐, frequenza 𝑓 e lunghezza d’onda 𝜆. L’intervallo di
lunghezze d’onda e frequenze è molto vasto e si distinguono, al suo interno, molti tipi diversi di onde
elettromagnetiche. Le onde radio sono il prodotto di cariche accelerate, per esempio, nel filo conduttore di un’antenna
radio. Le microonde sono onde radio di piccola lunghezza d’onda (tra 1mm e 30cm), utilizzate nei sistemi radar, nella
navigazione aerea e per studiare le proprietà atomiche e molecolari della materia, oltre a trovare un’applicazione
domestica nei forni a microonde. Le onde infrarosse hanno lunghezze d’onda che vanno da circa 1mm alla più lunga
lunghezza d’onda della luce visibile, pari a 7 × 10−7 𝑚, sono prodotte dai corpi caldi e dalle molecole e sono facilmente
assorbite dalla maggior parte dei materiali; la radiazione infrarossa ha molte applicazioni pratiche e scientifiche: la
fotografia all’infrarosso, la terapia fisica, la spettroscopia vibrazionale, nonché i telecomandi per TV, DVD e
videoregistratore. La luce visibile è certamente la più familiare forma di onde elettromagnetiche, definita come quella
parte di spettro elettromagnetico che l’occhio umano può rivelare; è prodotta dagli oggetti incandescenti, come il filo
di una lampadina, e dalla disposizione degli elettroni in atomi e molecole; le varie lunghezze d’onda sono classificate
con colori che vanno dal violetto (𝜆 ≈ 4 × 10−7 𝑚) al rosso (𝜆 ≈ 7 × 10−7 𝑚); la sensibilità dell’occhio umano è una
funzione della lunghezza d’onda ed è massima alla lunghezza d’onda di circa 5.5 × 10−7 𝑚 (giallo-verde). La luce
ultravioletta copre le lunghezze d’onda che vanno da circa 4 × 10−7 𝑚 (400 nm) fino a 6 × 10−10 𝑚 (0.6 nm); il Sole è
una sorgente importante di luce ultravioletta, la principale responsabile dell’abbronzatura; la maggior parte della
radiazione ultravioletta proveniente dal Sole viene assorbita dagli atomi della parte superiore dell’atmosfera, chiamata
stratosfera, costituita principalmente da ozono (𝑂3 ), che risulta dall’interazione della radiazione ultravioletta con
l’ossigeno: questo schermo di ozono converte la letale radiazione ultravioletta di alta energia in innocua radiazione
infrarossa. I raggi X sono onde elettromagnetiche con lunghezze d’onda comprese in un intervallo che va da circa
10−8 𝑚 (10 nm) fino a 10−13 𝑚 (10−4 nm); i raggi X vengono comunemente prodotti mediante la decelerazione di
elettroni ad alta energia che bombardano un bersaglio metallico; sono usati come strumento diagnostico in medicina e
per il trattamento di alcune forme di cancro, oltre che nello studio della struttura cristallina, poiché hanno lunghezze
d’onda confrontabili con le distanze interatomiche nei solidi. I raggi gamma, infine, sono onde elettromagnetiche
emesse da nuclei radioattivi ed in alcune reazioni nucleari, hanno lunghezze d’onda comprese fra circa 10−10 𝑚 e meno
di 10−14 𝑚, sono altamente penetranti e producono seri danni quando vengono assorbiti dai tessuti viventi.
Ottica
Sebbene incontriamo la luce ogni giorno, non appena apriamo gli occhi al mattino, a questa esperienza è associato un
fenomeno fisico davvero complicato. Il modello corpuscolare (capofila del quale era Isaac Newton) vedeva la luce
formata da un flusso di particelle emesse da una sorgente: esso spiegava molti fenomeni, quali la riflessione e la
rifrazione. Nel 1600 Christiaan Huygens propose una teoria alternativa, che vedeva la luce come un fenomeno
ondulatorio, dimostrando che anche un simile modello poteva spiegare riflessione e rifrazione. Tuttavia, per la grande
fama di Newton e per l’evidenza che la luce, a differenza delle onde conosciute all’epoca (onde sonore, onde
nell’acqua, etc.), avrebbe dovuto propagarsi nel vuoto (per giungere dal Sole a noi), la teoria non fu accettata. Nel
1801 Thomas Young dimostrò chiaramente la natura ondulatoria della luce, mostrando che, sotto appropriate
condizioni, essa dava origine a fenomeni di interferenza. In seguito, grazie agli ulteriori sviluppi della scienza e,
soprattutto, al lavoro di James Clerk Maxwell, il modello ondulatorio della luce fu accettato dalla comunità scientifica.
Tuttavia, alcuni esperimenti successivi, quali l’effetto fotoelettrico, non potevano essere spiegati supponendo che la
luce fosse un’onda. Considerando tutto ciò, oggi si afferma unanimemente che la luce possiede una doppia natura: in
alcuni casi corpuscolare, in altri ondulatoria.
La natura ondulatoria della luce si basa sul modello a raggi luminosi (o approssimazione geometrica dell’ottica). Un
raggio è una linea retta tracciata lungo la direzione di propagazione di una singola onda che mostra il percorso
dell’onda quando essa viaggia nello spazio. Se un’onda piana incontra un ostacolo con un’apertura circolare, il cui
diametro sia grande rispetto alla lunghezza d’onda, l’onda che emerge dall’apertura continua a muoversi secondo una
linea retta (a meno di alcuni piccoli effetti di bordo) e l’approssimazione geometrica continua ad essere valida; se,
invece, il diametro dell’apertura dell’ostacolo è dell’ordine della lunghezza d’onda, le onde (e conseguentemente i
raggi che tracciamo) si diffondono dall’apertura in tutte le direzioni: l’onda entrante subisce diffrazione quando passa
attraverso l’apertura. Infine, se l’apertura è piccola rispetto alla lunghezza d’onda, la diffrazione è così forte che
l’apertura può essere approssimata ad una sorgente puntiforme di onde: pertanto, l’effetto della diffrazione è tanto
più pronunciato quanto più il rapporto 𝑑 ⁄𝜆 si avvicina a zero. Supponendo che l’apertura sia un cerchio di diametro 𝑑,
l’approssimazione dei raggi luminosi assume che 𝜆 ≪ 𝑑, cosicché non avremo a che fare con gli effetti della
diffrazione, che dipendono totalmente dalla natura ondulatoria della luce. L’approssimazione geometrica è ottima per
lo studio di specchi, lenti, prismi e strumenti ottici composti, quali telescopi, macchine fotografiche ed occhiali.
Consideriamo dei raggi luminosi incidenti su una superficie: a meno che la superficie sia perfettamente assorbente, una
certa parte della luce è riflessa dalla superficie. Se la superficie è molto liscia, i raggi riflessi saranno paralleli: tale
riflessione è chiamata riflessione speculare. D’altro canto, se la superficie riflettente è ruvida, la superficie rifletterà i
raggi in varie direzioni: tale riflessione è detta riflessione diffusa. Una superficie si comporterà come una superficie
liscia fintantoché le rugosità superficiali sono piccole se confrontate con la lunghezza d’onda della luce incidente. Per
esempio, la luce passa attraverso i piccoli buchi della porta di un forno a microonde, permettendo di guardare dentro,
mentre le microonde, a causa della loro grande lunghezza d’onda, vengono riflesse dalla porta come se fosse un pezzo
di metallo pieno. Considerato un raggio luminoso che viaggia in aria ed incide con un certo angolo su di una superficie
piana e liscia, i raggi incidente e riflesso formano angoli 𝜗1 e 𝜗1′ rispetto ad una linea tracciata perpendicolarmente alla
superficie nel punto in cui il raggio incidente colpisce la superficie. Gli esperimenti mostrano che l’angolo di riflessione è
uguale all’angolo di incidenza. In simboli, 𝜗1 = 𝜗1′ , equazione nota come legge della riflessione. Il cammino di un
raggio di luce è, inoltre, reversibile. Un’applicazione pratica della legge della riflessione è la proiezione digitale delle
pellicole cinematografiche, spettacoli televisivi e presentazioni al computer.
Una parte dell’energia di un’onda incidente su una discontinuità viene trasmessa attraverso la discontinuità. Quando
un raggio di luce che viaggia in un mezzo trasparente incide obliquamente su una superficie di separazione con un altro
mezzo trasparente (per esempio, aria-qcqua), parte del raggio è riflessa, ma parte è trasmessa nel secondo mezzo. Il
raggio luminoso che entra nel secondo mezzo subisce una variazione di direzione sul confine dei due mezzi e si dice che
è rifratto. Il raggio incidente, il raggio riflesso ed il raggio rifratto giacciono sullo stesso piano. L’angolo di rifrazione 𝜗2
dipende dalle proprietà dei due mezzi e dall’angolo di incidenza secondo la relazione
𝑠𝑖𝑛 𝜗2
𝑠𝑖𝑛 𝜗1
=
𝑣2
𝑣1
= 𝑐𝑜𝑠𝑡𝑎𝑛𝑡𝑒, dove 𝑣1 è
la velocità nel mezzo 1 e 𝑣2 quella nel mezzo 2. Come nel caso della riflessione, la traiettoria di un raggio luminoso
attraverso una superficie rifrangente è reversibile. La luce, passando da un mezzo ad un altro, viene rifratta poiché la
sua velocità media è diversa nei due mezzi. Infatti, la luce viaggia con la sua massima velocità nel vuoto. È conveniente
definire l’indice di rifrazione 𝑛 di un mezzo come il rapporto 𝑛 ≡
𝑣𝑒𝑙𝑜𝑐𝑖𝑡à 𝑑𝑒𝑙𝑙𝑎 𝑙𝑢𝑐𝑒 𝑛𝑒𝑙 𝑣𝑢𝑜𝑡𝑜
𝑣𝑒𝑙𝑜𝑐𝑖𝑡à 𝑚𝑒𝑑𝑖𝑎 𝑑𝑒𝑙𝑙𝑎 𝑙𝑢𝑐𝑒 𝑛𝑒𝑙 𝑚𝑒𝑧𝑧𝑜
𝑐
= . Da questa
𝑣
definizione vediamo che l’indice di rifrazione è una grandezza adimensionale maggiore o uguale all’unità, poiché 𝑣 in
un mezzo è minore di 𝑐. Inoltre, 𝑛 è uguale all’unità per il vuoto. Quando un’onda passa da un mezzo all’altro, la sua
frequenza non varia. Poiché la relazione 𝑣 = 𝑓𝜆 deve essere valida, e le velocità sono diverse, le due lunghezze d’onda
sono differenti. Possiamo, quindi, esprimere una relazione nota come legge della rifrazione o legge di Snell (o, in
Francia, come legge di Descartes): 𝑛1 𝑠𝑖𝑛 𝜗1 = 𝑛2 𝑠𝑖𝑛 𝜗2 .
L’indice di rifrazione quando la luce entra in un materiale dipende, effettuando misure molto accurate, dalla lunghezza
d’onda della luce, poiché la velocità dell’onda dipende dalla sua lunghezza d’onda (questa dipendenza è nota come
dispersione). Ciò significa che la luce viola viene rifratta più della luce rossa quando passa dall’aria ad un materiale.
Ecco perché quando una luce bianca (ovvero una combinazione di tutte le lunghezze d’onda visibili) passa attraverso
un prisma, i raggi che emergono dalla seconda faccia del prisma si diffondono in una serie di colori nota come spettro
visibile (rosso – arancione – giallo – verde – blu – indaco – violetto). Questo è anche alla base del fenomeno
dell’arcobaleno, dovuto alla rifrazione della luce solare attraverso le gocce di pioggia sospese nell’atmosfera: essa
viene prima riflessa, poi rifratta ed infine riflessa una seconda volta, generando la serie dello spettro visibile. Si può
generare un arcobaleno secondario, meno intenso del primario e con i colori invertiti, se la luce subisce due riflessioni
all’interno della goccia. In laboratorio sono stati generati anche arcobaleni in cui la luce subisce 30 riflessioni prima di
uscire dalla goccia d’acqua.
Un effetto interessante è chiamato riflessione interna totale e può verificarsi quando la luce si propaga da un mezzo di
un dato indice di rifrazione ad uno con un indice di rifrazione minore. Ad un certo angolo di incidenza, chiamato angolo
limite, il raggio di luce si muoverà parallelo alla superficie; per angoli di incidenza maggiori, nessun raggio è rifratto ed
il raggio incidente è totalmente riflesso dalla superficie di separazione. Questo raggio è riflesso dalla superficie come se
avesse incontrato una superficie perfettamente riflettente e segue la legge della riflessione: l’angolo di incidenza, cioè,
è uguale all’angolo di riflessione. Per trovare l’angolo limite possiamo usare la legge di Snell: se 𝜗1 = 𝜗𝑙𝑖𝑚𝑖𝑡𝑒 e 𝜗2 =
90°, 𝑛1 𝑠𝑖𝑛 𝜗𝑙 = 𝑛2 𝑠𝑖𝑛 90° = 𝑛2 , per cui 𝜗𝑙 =
𝑛2
𝑛1
. Si ricordi che questa equazione può essere usata solo quando la luce
si propaga da un mezzo di un dato indice di rifrazione ad uno di indice minore, ovvero quando 𝑛1 > 𝑛2 . L’angolo limite
per la riflessione interna totale è piccolo quando 𝑛1 è considerevolmente maggiore di 𝑛2 , come nel diamante (𝑛 = 2.42
e 𝜗𝑙 = 24°), il che (insieme con la sua sfaccettatura) fa sì che esso scintilli quando si osserva alla luce.
Un’applicazione interessante della riflessione interna totale è l’uso di bacchette di vetro o di plastica trasparente per
guidare la luce da un posto all’altro. Nell’industria delle comunicazioni, impulsi di luce laser si muovono lungo questi
tipi di guide, portando informazioni ad alta velocità. La luce che viaggia all’interno di una bacchetta stretta e
trasparente è confinata a propagarsi entro la bacchetta, anche lungo curve dolci, come risultato di successive
riflessioni interne. Una tale guida di luce sarà flessibile se si usano fibre sottili, piuttosto che bacchette spesse: tali fibre
sono dette fibre ottiche. Se si usa un fascio di fibre ottiche parallele per costruire una linea di trasmissione ottica, si
possono trasferire immagini da un punto ad un altro. Una fibra ottica consiste di un nucleo trasparente circondato da
un rivestimento di un materiale che ha un basso indice di rifrazione rispetto al nucleo; l’insieme deve essere circondato
da una guaina protettiva di plastica per prevenire danni meccanici. Poiché l’indice di rifrazione del rivestimento è
minore di quello del nucleo, la luce che viaggia nel nucleo subisce riflessione interna totale quando arriva all’interfaccia
nucleo-rivestimento con un angolo di incidenza che supera l’angolo limite. In questo caso, la luce “rimbalza” lungo il
nucleo della fibra ottica, perdendo pochissimo della sua intensità mentre si propaga. Una singola fibra ottica può
portare un segnale digitale. Se si vuole trasportare un’immagine, serve un fascio di fibre ottiche: questi fasci sono
utilizzati in medicina nel fibroscopio.
L’elemento ottico più semplice possibile è lo specchio piano. Consideriamo una sorgente puntiforme di luce posta nel
punto 𝑂 ad una distanza 𝑝 davanti ad uno specchio piano, indicata come distanza dell’oggetto. I raggi di luce
provenienti dalla sorgente sono riflessi dallo specchio. Dopo la riflessione, i raggi continuano a divergere (cioè, si
allontanano l’uno dall’altro). I raggi divergenti appaiono all’osservatore come provenienti da un punto 𝐼 dietro allo
specchio, chiamato immagine dell’oggetto posto in 𝑂. In tutti i sistemi ottici, localizzeremo le immagini con i
prolungamenti dei raggi divergenti, fino al punto immagine in cui tali prolungamenti si incontrano. Le immagini sono
localizzate o in un punto da cui i raggi luminosi realmente divergono o in un punto da dove appaiono divergere. La
distanza 𝑞 tra l’immagine e lo specchio è chiamata distanza dell’immagine. Le immagini sono divise in reali e virtuali:
un’immagine reale è quella in cui la luce passa attraverso il punto immagine e diverge; un’immagine virtuale è quella
in cui la luce non passa attraverso il punto immagine, ma appare soltanto divergere da quel punto. L’immagine
formata dallo specchio appena descritto, così come ogni immagine di un oggetto reale visto in uno specchio piano, è
virtuale. Le immagini reali possono essere esposte su uno schermo (come in una proiezioni), le immagini virtuali no.
L’immagine che si forma al di là di uno specchio e l’oggetto che sta di fronte sono equidistanti dall’oggetto: ovvero,
usando la convenzione stabilita precedentemente, 𝑝 = |𝑞| (usiamo il simbolo di valore assoluto perché, come vedremo
fra breve, ai valori di 𝑝 e 𝑞 è associata una convenzione sui segni. Inoltre, nel modello geometrico, l’altezza
dell’oggetto, che chiamiamo ℎ, è uguale all’altezza dell’immagine, che chiamiamo ℎ′ . Possiamo, quindi, definire
l’ingrandimento lineare trasversale (o semplicemente ingrandimento) 𝑀 di un’immagine come: 𝑀 ≡
𝑎𝑙𝑡𝑒𝑧𝑧𝑎 𝑑𝑒𝑙𝑙′𝑖𝑚𝑚𝑎𝑔𝑖𝑛𝑒
𝑎𝑙𝑡𝑒𝑧𝑧𝑎 𝑑𝑒𝑙𝑙′𝑜𝑔𝑔𝑒𝑡𝑡𝑜
=
ℎ′
ℎ
. Per uno specchio piano, in cui ℎ = ℎ′ , 𝑀 = 1. Inoltre, come indica il valore positivo
dell’ingrandimento, l’immagine è dritta. Tuttavia, uno specchio piano forma un’immagine che ha un’apparente
inversione destra-sinistra: tuttavia, questa non è realmente un’inversione destra-sinistra, bensì un’inversione fronteretro, giacché, per esempio, considerando l’immagine di una mano destra, è pur vero che essa appare come una mano
sinistra, ma il pollice, a sinistra nella mano reale, è a sinistra anche nella mano allo specchio! Essa è un’inversione
fronte-retro causata dai raggi di luce che arrivano allo specchio e poi sono riflessi indietro da esso.
Consideriamo, adesso, uno specchio sferico, formato, come dice il nome, da una calotta sferica. Se la luce è riflessa
dalla superficie interna, lo specchio è detto concavo. Un tale specchio possiede un raggio di curvatura 𝑅 ed un centro
di curvatura 𝐶; inoltre, il centro della calotta sferica è chiamato 𝑉 e la linea tracciata da 𝐶 a 𝑉 si chiama asse
principale dello specchio. Consideriamo una sorgente puntiforme di luce posta nel punto 𝑂, situato sull’asse principale,
oltre il punto 𝐶 all’esterno. Due raggi divergenti originati in 𝑂, dopo essere riflessi dallo specchio, convergono e si
incontrano nel punto immagine 𝐼. Poi, i raggi continuano a divergere da 𝐼 come se lì vi fosse una sorgente di luce. Se gli
occhi rivelano i raggi divergenti dal punto 𝐼, si può affermare che una sorgente di luce è posta in quel punto. A
differenza di quanto abbiamo visto nello specchio piano, stavolta i raggi di luce passano attraverso il punto immagine
e l’immagine è, quindi, reale. Adottiamo, ora, un modello semplificato, assumendo che tutti i raggi divergenti da un
oggetto formino un piccolo angolo con l’asse principale. Questi raggi, detti raggi parassiali, si riflettono sempre
attraverso il punto immagine; i raggi che formano grandi angoli, invece, convergono in altri punti sull’asse principale,
producendo un’immagine sfocata. Possiamo calcolare la distanza dell’immagine 𝑞 conoscendo la distanza dell’oggetto
𝑝 ed il raggio di curvatura 𝑅. Consideriamo due raggi di luce provenienti dalla punta dell’oggetto, immaginandolo
come una freccia. Uno di questi raggi passa attraverso il centro di curvatura 𝐶 dello specchio, colpisce lo specchio
perpendicolarmente alla superficie speculare e si riflette all’indietro su se stesso. Il secondo raggio, invece, colpisce lo
specchio dal vertice 𝑉 e si riflette, obbedendo alla legge di riflessione. L’immagine della punta della freccia è collocata
nel punto in cui questi due raggi si intersecano. I due raggi identificano due triangoli, da cui vediamo che 𝜗 = ℎ⁄𝑝 per
il triangolo formato dal secondo raggio, mentre 𝜗 = − ℎ′ ⁄𝑞 per il triangolo individuato dal primo raggio. Il segno
meno indica che l’immagine è capovolta. Da questi risultati, troviamo che l’ingrandimento dell’immagine è uguale a
𝑀=
𝑅−𝑞
𝑝−𝑅
ℎ′
ℎ
𝑞
=
𝑝
=
−𝑞 𝑡𝑎𝑛 𝜗
𝑝 𝑡𝑎𝑛 𝜗
1
1
𝑞
ℎ′
𝑝
ℎ
= − . Da questa equazione e dai due triangoli, possiamo trovare che
=−
𝑅−𝑞
𝑝−𝑅
, da cui segue che
2
→ + = , chiamata equazione dello specchio, applicabile solo al modello dei raggi parassiali. Se l’oggetto
𝑝
𝑞
𝑅
è molto lontano dallo specchio, cioè la distanza dell’oggetto 𝑝 è abbastanza grande confrontata con 𝑅, al punto che si
𝑅
possa dire che 𝑝 tende all’infinito, allora 1⁄𝑝 → 0 per cui 𝑞 ≈ , cioè quando l’oggetto è molto lontano dallo specchio,
2
il punto immagine è in un punto medio fra il vertice dello specchio ed il centro di curvatura. Il punto in cui i raggi
(paralleli) si intersecano, dopo la riflessione dello specchio, si chiama punto focale dello specchio, a distanza 𝑓 dallo
𝑅
specchio, detta distanza focale. In simboli, 𝑓 = . L’equazione dello specchio, espressa in funzione della distanza
2
1
1
1
𝑝
𝑞
𝑓
focale, diventa: + = .
Uno specchio convesso è uno specchio che riflette la luce dalla superficie esterna, anche chiamato specchio divergente
poiché i raggi che provengono da qualsiasi punto divergono dopo la riflessione, come se provenissero da un punto
dietro lo specchio. L’immagine prodotta da un simile specchio è virtuale, invece che reale, poiché la posizione da cui i
raggi sembrano aver origine è dietro lo specchio. In generale, l’immagine formata da uno specchio convesso sarà
sempre virtuale, dritta e più piccola dell’oggetto.
In conclusione, per uno specchio concavo, quando l’oggetto è collocato al di là del punto focale, l’immagine sarà reale
e capovolta (e la sua grandezza varierà con la posizione). Se, invece, l’oggetto è collocato tra lo specchio ed il punto
focale, l’immagine sarà virtuale, dritta ed ingrandita. Per uno specchio convesso, invece, in qualsiasi punto l’oggetto
sia collocato, l’immagine ottenuta sarà virtuale, dritta e rimpicciolita.
Fisica Quantistica
Un oggetto emette ad ogni temperatura una radiazione che viene chiamata radiazione termica. Le caratteristiche di
questa radiazione dipendono sia dalla temperatura sia dalle proprietà dell’oggetto. Se la superficie dell’oggetto è a
temperatura ambiente, le radiazioni ricadono principalmente nelle infrarosse (e non sono, quindi, visibili); al crescere
della temperatura, l’oggetto comincia a diventare rosso, a temperature sufficientemente elevate diventa bianco (come
nel filamento di tungsteno di una lampadina). La radiazione termica ha origine dalle particelle cariche accelerate vicine
alla superficie dell’oggetto. Tali cariche, soggette ad accelerazione termica, possono avere una distribuzione di
accelerazioni che può dare luogo ad uno spettro continuo della radiazione emessa dall’oggetto. Verso la fine del XIX
secolo, il problema era spiegare le caratteristiche osservate della distribuzione delle lunghezze d’onda della radiazione
emessa da un oggetto ideale chiamato corpo nero, un sistema (ideale) che assorbe tutta la radiazione che lo colpisce.
Furono notate le seguenti caratteristiche:
-
La potenza di radiazione emessa aumenta con la temperatura, secondo la legge di Stefan: 𝑊 = 𝜎𝐴𝑒𝑇 4 .
Il picco della distribuzione delle lunghezze d’onda si sposta verso lunghezze d’onda più corte al crescere della
temperatura, secondo la legge dello spostamento di Wien: 𝜆𝑚𝑎𝑥 𝑇 = 2.898 × 10−3 𝑚 ∙ 𝐾.
Per lunghezze d’onda lunghe, la teoria classica è in buon accordo con i dati sperimentali. A lunghezze d’onda sempre
più corte, tuttavia, aumenta il disaccordo esistente fra teoria e dati sperimentali. Questa contraddizione è chiamata
catastrofe ultravioletta (ultravioletta perché le lunghezze d’onda nella regione UV sono corte e catastrofe significa
energia infinita, il che avviene quando la lunghezza d’onda tende a zero).
Nel 1900, Max Planck sviluppò un modello strutturale per la radiazione di un corpo nero che condusse all’equazione
teorica per la distribuzione delle lunghezze d’onda, che rappresentò l’inizio della Fisica Quantistica. Planck immaginò
che esistessero degli oscillatori sulla superficie del corpo nero, correlati alle cariche all’interno delle molecole, in base a
due ardite e controverse ipotesi:
-
-
L’energia degli oscillatori è quantizzata – cioè essi possono avere soltanto certi valori discreti della quantità
di energia 𝐸𝑛 data da 𝐸𝑛 = 𝑛ℎ𝑓, dove 𝑛 è un intero positivo chiamato numero quantico, 𝑓 è la frequenza di
oscillazione dell’oscillatore ed ℎ è la costante di Planck. Ciascun valore discreto rappresenta un diverso stato
quantico, con ciascun valore di 𝑛 rappresentante uno specifico stato quantico: quando l’oscillatore si trova
nello stato quantico 1, la sua energia è ℎ𝑓; quando si trova nello strato quantico 2, la sua energia è 2ℎ𝑓.
Gli oscillatori emettono ed assorbono energia in unità discrete. Gli oscillatori emettono ed assorbono queste
unità di energia compiendo una transizione da uno stato quantico ad un altro. L’intera differenza di energia
fra gli stati iniziale e finale della transizione è emessa come un singolo quanto di radiazione. Se la transizione
avviene da uno stato adiacente – diciamo, dallo stato 𝑛 = 3 allo stato 𝑛 = 2 – l’equazione mostra che la
quantità di energia irradiata dall’oscillatore è pari a ℎ𝑓.
Un oscillatore irradia o assorbe energia solo quando cambia stato quantico. Se rimane in uno stato quantico, non viene
emessa né assorbita alcuna energia. Sulla base del modello di Planck, nel 1913 Niels Bohr introdusse il suo modello
dell’atomo.
Noi non vediamo effetti quantistici nella vita quotidiana, perché il salto energetico nei sistemi macroscopici legato a
transizione fra due livelli adiacenti rappresenta una frazione così piccola dell’energia totale del sistema che non
potremo mai aspettarci di rivelarla. Quindi, benché i cambiamenti di energia nei sistemi macroscopici siano pure
quantizzati e procedono per piccoli salti quantici, i nostri sensi li percepiscono come continui. Gli effetti quantistici
divengono importanti e misurabili solo al livello submicroscopico di atomi e molecole. Inoltre, i risultati della fisica
quantistica devono accordarsi con quelli della fisica classica per alti numeri quantici. Questo postulato è noto come
principio di corrispondenza. È oggi frequente misurare la temperatura corporea con un termometro ad orecchio, che
legge la temperatura in pochi secondi. Questo termometro misura l’intensità della radiazione infrarossa emessa dal
timpano in una frazione di secondo e converte l’intensità rilevata in una temperatura. Il termometro è molto sensibile,
perché la potenza dipende dalla quarta potenza della temperatura, in accordo con la legge di Stefan.
Effetto Fotoelettrico
La radiazione di corpo nero fu, storicamente, il primo fenomeno ad essere spiegato con un modello quantistico.
Nell’ultima parte del XIX secolo, nello stesso tempo in cui si raccolsero i dati sulla radiazione termica, fu dimostrato
sperimentalmente che, quando la luce incide su certe superfici metalliche, queste emettono elettroni. Questo
fenomeno, scoperto per primo da Hertz, è noto come effetto fotoelettrico e gli elettroni emessi sono chiamati
fotoelettroni.
Un tubo di vetro o quarzo in cui è stato fatto il vuoto contiene una placca metallica E, collegata al polo negativo di una
batteria. Un’altra placca C viene mantenuta ad un potenziale positivo dalla batteria. Quando il tubo è mantenuto al
buio, l’amperometro segna zero, indicando che non passa corrente nel circuito. Tuttavia, quando luce di opportuna
lunghezza d’onda illumina la placca E, l’amperometro rivela una corrente, indicando, così, che un flusso di cariche
attraversa lo spazio vuoto fra E e C. questa corrente è dovuta agli elettroni emessi dalla placca negativa E (emettitore)
e raccolti dalla placca positiva C (collettore). Per grandi valori di ∆𝑉, la corrente raggiunge un valore massimo. Inoltre,
la corrente cresce al crescere dell’intensità della luce incidente, così come ci aspetteremmo. Infine, quando ∆𝑉 è
negativo, cioè quando vengono invertiti i poli della batteria per rendere E positivo e C negativo, la corrente cade a
valori molto bassi, poiché la maggior parte dei fotoelettroni emessi viene respinta dal collettore C. Solo quegli elettroni
che hanno un’energia cinetica maggiore di 𝑒|∆𝑉| raggiungeranno C, dove 𝑒 è la carica dell’elettrone. Quando ∆𝑉 è
uguale a ∆𝑉𝑎 , il potenziale d’arresto, nessun elettrone arriva in C e la corrente si annulla.
Consideriamo che la combinazione del campo elettrico fra le placche ed un elettrone emesso dalla placca E con la
massima energia cinetica sia un sistema isolato. Supponiamo che questo elettrone si fermi proprio quando raggiunge
la placca C. Applicando il modello del sistema isolato, l’energia totale del sistema si deve conservare: 𝐸𝑓 = 𝐸𝑖 → 𝐾𝑓 +
𝑈𝑓 = 𝐾𝑖 + 𝑈𝑖 , dove la configurazione iniziale si riferisce all’istante in cui l’elettrone abbandona il metallo con l’energia
cinetica massima possibile 𝐾𝑚𝑎𝑥 e la configurazione finale quando l’elettrone si ferma appena prima di toccare la
placca C. Se definiamo zero l’energia potenziale elettrica del sistema nella configurazione iniziale, abbiamo: 0 +
(−𝑒)(−∆𝑉𝑎 ) = 𝐾𝑚𝑎𝑥 + 0 → 𝐾𝑚𝑎𝑥 = 𝑒∆𝑉𝑎 . Questa equazione permette di misurare sperimentalmente 𝐾𝑚𝑎𝑥
misurando la tensione alla quale la corrente cade a zero.
Le seguenti sono alcune caratteristiche dell’effetto fotoelettrico:
1) Dipendenza dell’energia cinetica dei fotoelettroni dall’intensità di luce = la fisica classica prevede questa
dipendenza, ma sperimentalmente si trova che l’energia cinetica dei fotoelettroni è indipendente
dall’intensità di luce, poiché la differenza di potenziale, per luce a qualsiasi intensità, cade a zero alla stessa
tensione negativa.
2) Tempo fra l’emissione della luce e l’emissione dei fotoelettroni = la fisica classica prevede che per luce molto
debole deve passare un intervallo di tempo misurabile fra l’incidenza della luce e l’emissione di un elettrone.
Sperimentalmente, invece, si trova che gli elettroni sono emessi dalla superficie quasi istantaneamente (meno
di 10−9 𝑠 dopo l’illuminazione della superficie), anche per bassissime intensità della luce.
3) Dipendenza dell’emissione degli elettroni dalla frequenza della luce = la fisica classica prevede che gli elettroni
devono essere emessi per ogni frequenza della luce incidente, finché vi è luce sufficiente, poiché l’energia
viene trasferita al metallo indipendentemente dalla frequenza; sperimentalmente, invece, si rileva
4)
che non vengono emessi elettroni se la frequenza della luce incidente cade al di sotto di una frequenza di
taglio 𝑓𝑡 , la quale è caratteristica del materiale che viene illuminato. Nessun elettrone è emesso al di sotto
della frequenza di taglio, indipendentemente dall’intensità della luce.
5) Dipendenza dell’energia cinetica degli elettroni dalla frequenza della luce = la fisica classica prevede che non
può esistere alcuna relazione fra la frequenza della luce e l’energia cinetica degli elettroni, ma
sperimentalmente si trova che l’energia cinetica massima dei fotoelettroni cresce al crescere della frequenza
della luce.
Tutte e quattro le previsioni della fisica classica risultano errate. Albert Einstein, nel 1905, spiegò con successo l’effetto
fotoelettrico e per quest’articolo vinse il premio Nobel nel 1921. Egli estese il concetto di Planck di quantizzazione alle
onde elettromagnetiche, ipotizzando che la luce (o una qualunque onda elettromagnetica) di frequenza 𝑓 possa essere
considerata come una corrente di quanti indipendentemente dalla sorgente di radiazione. Oggi chiamiamo questi
quanti fotoni. Ciascun fotone ha un’energia 𝐸 data dall’equazione 𝐸 = ℎ𝑓 e si muove nel vuoto con la velocità della
luce 𝑐 = 3.00 × 108 𝑚⁄𝑠 . Nel modello di Einstein, un fotone della luce incidente cede tutta la sua energia ℎ𝑓 ad un
singolo elettrone del metallo. Quindi, l’assorbimento di energia da parte degli elettroni non è un processo continuo,
come previsto dal modello ondulatorio, ma piuttosto un processo discontinuo, in cui l’energia è fornita agli elettroni a
pacchetti. Il trasferimento di energia avviene attraverso l’evento un-fotone/un-elettrone.
Gli elettroni emessi dalla superficie del metallo posseggono l’energia cinetica massima 𝐾𝑚𝑎𝑥 . Secondo Einstein,
l’energia cinetica massima per questi elettroni liberati è 𝐾𝑚𝑎𝑥 = ℎ𝑓 − 𝜙, dove 𝜙 è l’energia di estrazione del metallo.
L’energia di estrazione rappresenta l’energia minima con la quale un elettrone è legato al metallo ed è nell’ordine di
alcuni elettronvolt. L’aumento di energia potenziale quando l’elettrone viene rimosso dal metallo è l’energia di
estrazione 𝜙.
Con il modello dei fotoni per la luce, si possono spiegare le caratteristiche osservate dell’effetto fotoelettrico che non si
possono comprendere usando i concetti classici:
-
-
-
-
Il fatto che 𝐾𝑚𝑎𝑥 sia indipendente dall’intensità della luce può essere spiegato con il seguente argomento:
l’energia cinetica massima di ciascun elettrone, uguale a ℎ𝑓 − 𝜙, dipende soltanto dalla frequenza della luce
e dall’energia di estrazione, non dall’intensità della luce. Se si raddoppia l’intensità della luce, raddoppia il
numero dei fotoni che arrivano nell’unità di tempo, i quali fanno raddoppiare il numero di fotoelettroni
emessi, ma l’energia cinetica massima di ciascun elettrone rimane invariata.
Il fatto che gli elettroni siano emessi quasi istantaneamente è in accordo con il modello a fotoni della luce, in
cui l’energia incidente appare in piccoli pacchetti e si verifica un’interazione tra un singolo fotone ed un
singolo elettrone. Quindi, per una luce incidente estremamente debole, possono arrivare pochissimi fotoni
nell’unità di tempo, ma ciascuno ha energia sufficiente per emettere un elettrone immediatamente.
Che l’effetto non venga osservato al di sotto di una certa frequenza di taglio discende dal fatto che il fotone
deve avere un’energia maggiore dell’energia di estrazione 𝜙 per poter emettere l’elettrone. Se l’energia di un
fotone incidente non soddisfa questa condizione, un elettrone non può essere emesso dalla superficie,
indipendentemente dall’intensità della luce.
Il fatto che 𝐾𝑚𝑎𝑥 cresca al crescere della frequenza si capisce facilmente dall’equazione 𝐾𝑚𝑎𝑥 = ℎ𝑓 − 𝜙.
Una delle prime applicazioni pratiche dell’effetto fotoelettrico è stato come rivelare nell’esposimetro delle macchine
fotografiche. La luce riflessa dall’oggetto da fotografare colpisce una superficie fotoelettrica nell’esposimetro,
causando emissione di fotoelettroni, che passano quindi attraverso un amperometro molto sensibile. L’intensità della
corrente nell’amperometro dipende dalla intensità luminosa. Altra applicazione dell’effetto fotoelettrico è il fototubo,
una sorte di interruttore in un circuito elettrico. Si produce una corrente nel circuito quando luce di frequenza
sufficientemente elevata incide sul piatto metallico del fototubo, mentre non si produce corrente al buio. I fototubi
sono stati usati negli antifurti e per la rivelazione della colonna sonora nei film. Negli ultimi anni, però, i fototubi sono
stati sostituiti da moderni dispositivi a semiconduttore.
Effetto Compton
Nel 1919 Einstein aveva proposto che un fotone di energia 𝐸 trasportasse una quantità di moto uguale ad 𝐸 ⁄𝑐 =
ℎ𝑓 ⁄𝑐 . Nel 1923, Arthur Holly Compton sviluppò ulteriormente l’idea di Einstein della quantità di moto del fotone con il
cosiddetto effetto Compton.
Prima del 1922, Compton e i suoi collaboratori avevano accumulato evidenza per mostrare che la teoria ondulatoria
classica della luce fallisce nella spiegazione della diffusione dei raggi X da parte degli elettroni.