A02 68 Simone Franchetti, Anedio Ranfagni Daniela Mugnai, Gabriele Viliani Struttura della materia Volume primo Teoria cinetica dei gas fisica atomica e molecolare Copyright © MMXI ARACNE editrice S.r.l. www.aracneeditrice.it [email protected] via Raffaele Garofalo, 133/A–B 00173 Roma (06) 93781065 ISBN 978–88–548–4413-1 I diritti di traduzione, di memorizzazione elettronica, di riproduzione e di adattamento anche parziale, con qualsiasi mezzo, sono riservati per tutti i Paesi. Non sono assolutamente consentite le fotocopie senza il permesso scritto dell’Editore. I edizione: dicembre 2011 In memoria di Simone Franchetti Indice xi Prefazione xiii Introduzione 1 1. Elementi della teoria cinetica dei gas 1.1. Richiamo delle nozioni elementari sul concetto di probabilità 1.2. Teoria del viriale. Equazione di Kronig e Clausius 1.3. La distribuzione maxwelliana delle velocità molecolari 1.4. Cammino libero delle molecole 1.5. Teoria elementare della viscosità dei gas 1.6. Conducibilità termica 1.7. Moto browniano. Random walk Problemi 31 2. Elementi della meccanica statistica classica 2.1. Carattere del moto dei punti rappresentativi nel caso di un gas 2.2. Lo spazio delle fasi 2.3. Considerazioni sulla forma della distribuzione nel μ-Raum 2.4. Caso dei sistemi con interazioni interne 2.5. Connessione con la termodinamica 2.6. Alcune applicazioni della distribuzione canonica 2.7. Significato statistico dell’entropia 2.8. Fluttuazioni 2.9. I calori specifici in statistica classica Problemi 67 3. Le basi empiriche dei concetti quantistici fondamentali 3.1. Il problema dell’irraggiamento termico 3.2. Tentativo di interpretazione classica dei dati sperimentali 3.3. Il tentativo di Plance. Quantizzazione dell’ energia 3.4. La nascita del concetto di fotone 3.5. L’effetto Compton 3.6. Conseguenze del carattere fotonico della luce 3.7. L’atomo di Bohr. Stati stazionari 3.8. Regole di Sommerfeld-Wilson viii I NDICE 3. 9. Dimostrazione sperimentale degli stati stazionari 3.10. Probabilità di transizione. Larghezza naturale delle righe spettrali 3.11. Diffrazione di corpuscoli materiali. Pacchetti d’onde 3.12. Sovrapposizione degli stati 3.13. Il principio di indeterminazione Problemi 115 4. Richiamo di elementi della meccanica quantistica 4.1. Osservabili, operatori, matrici, funzioni d’onda. I postulati fondamentali 4.2. Qualche proprietà e conseguenza dell’equazione generale di Schrödinger 4.3. Sistemi che contengono particelle uguali 4.4. Approssimazione semiclassica 4.5. (*) Livelli energetici nel caso semiclassico 4.6. Il metodo degli integrali di Feynman 4.7. (*) Calcolo delle fluttuazioni quantistiche Problemi 177 5. Atomi. Struttura elettronica ed elementi di spettroscopia 5.1. L’atomo di idrogeno secondo la meccanica quantistica 5.2. L’elettrone di valenza negli atomi dei metalli alcalini 5.3.Regole di selezione 5.4. Spettri degli alcalini. Spin ell’elettrone. Interazione fra momenti magnetici 5.5. Aromi con più di an elettrone di valenza 5.6. Gli atomi in un campo magnetico esterno. L’effetto Zeeman 5.7. Precessione di Larmor e regola di selezione per m in un caso semplice 5.8. L’effetto Paschen-Back 5.9. II sistema periodico degli elementi 5.10. Gli spettri dei raggi X. Legge di Moseley. Livelli 5.11. Raggi X. Assorbimento 5.12. Raggi X e γ. Altri processi 5.13. Funzioni d’onda ed energie dei termini spettroscopici 5.14. (*) Interazione colombiana. Classificazione dei termini spettroscopici 5.15. (*) Interazione spin-orbita 5.16. (*) Interazione con un campo magnetico Problemi 263 6. Struttura e spettroscopia delle molecole più semplici 6.1. La molecola dell’idrogeno 6.2. Nozione di risonanza. Metodi approssimati nello studio di sistemi complessi 6.3. Struttura di alcune molecole semplici. Valenza direzionale 6.4. Approssimazione adiabatica. Moto elettronico e nucleare 6.5. Teoria dell’orbitale molecolare 6.6. Livelli energetici delle molecole biatomiche 6.7. Bande di rotazione pura 6.8. Spettri di rotazione e oscillazione 6.9. Bande elettroniche ix I NDICE 6.10. (*) Molecole poliatomiche a struttura centrata. Classificazione dei termini con la teoria della simmetria 6.11. (*) Moto nucleare. Effetto Jahn-Teller 6.12. Altri processi nella spettroscopia molecolare Problemi xvii Bibliografia essenziale xix Indice analitico Prefazione Questo libro trae origine dagli “appunti per un corso di struttura della materia” svolto dal Prof. Franchetti prima per la Scuola di Perfezionamento in Fisica, poi per un corso istituzionale di laurea in fisica all’Università di Firenze. La presente opera si basa pertanto su un aggiornamento di tali appunti con numerose integrazioni che costituiscono da un lato l’approfondimento di tematiche già svolte e dall’altro l’inclusione di argomenti nuovi, compresi anche aspetti recenti ed avanzati. In generale si è cercato di concentrarci su quegli argomenti che appaiono più fondamentali o di più difficile acquisizione autodidattica. Rispetto ad una prima edizione1 il testo, a cui è stato aggiunto un capitolo che tratta dei solidi amorfi, è suddiviso adesso in due volumi, prevalentemente per venire incontro ad esigenze di tipo didattico. Questo primo volume spazia dalla teoria cinetica dei gas alla spettroscopia molecolare, mentre il secondo volume sarà dedicato allo studio della meccanica statistica quantistica fino ai solidi cristallini e amorfi. I primi due capitoli del questo volume sono dedicati alla teoria cinetica dei gas e alla sua generalizzazione, la meccanica statistica classica, argomenti che possono essere svolti utilmente anche a livello elementare. Questo consente di introdurre, nel terzo capitolo, i primi concetti quantistici con la teoria del corpo nero di Planck e l’atomo di Bohr, fino al principio di indeterminazione che costituisce la base della meccanica quantistica propriamente detta. Ai principi della meccanica quantistica è dedicato il quarto capitolo sia per quanto riguarda il formalismo di Schrödinger, sia per quanto concerne l’approssimazione semiclassica (WKB) e la più recente formulazione basata sugli integrali di Feynman. I capitoli 5 e 6 trattano ampiamente della spettroscopia atomica e molecolare includendo, insieme agli usuali argomenti, anche aspetti più approfonditi destinati ad un’analisi più quantitativa. Tutti i capitoli sono corredati di problemi svolti che in alcuni casi sono da considerarsi come complementi del testo, Alcuni paragrafi, contrassegnati con un asterisco nell’indice, possono essere omessi in una prima lettura. Essi costituiscono l’approfondimento di alcuni aspetti da affrontare una volta acquista una certa “confidenza” con la materia. GLI AUTORI 1 S. Franchetti, A. Ranfagni, D. Mugnai, Elementi di Struttura della Materia, Zanichelli Ed., Bologna (1986). Introduzione Breve cenno storico Lo studio della struttura della materia ha le sue radici storiche nelle teorie atomistiche dell’antichità (Leucippo, Democrito, Epicuro, Lucrezio). Queste teorie proponevano la spiegazione del mondo fisico e dei cambiamenti che vi si osservano, in termini di aggregazioni e di moti di invisibili e piccolissime particelle appartenenti a un numero grande ma finito di specie. Queste particelle considerate inalterabili, anzi indistruttibili (la frase “nulla si crea e nulla si distrugge” è nata in connessione con queste idee), dovevano essere pensate come muoventisi nel vuoto, obbedendo a leggi meccaniche: ineluttabilmente, secondo Democrito, oppure, secondo Epicuro, con una certa possibilità di compiere qualche piccola deviazione ( “clinamen” nella terminologia di Lucrezio) dalle loro prestabilite traiettorie. Quest’ultimo particolare era introdotto per sfuggire alle conseguenze di un universo completamente meccanizzato, ossia essenzialmente per salvare ciò che più tardi sarà chiamato il libero arbitrio. È chiaro che questo antico schema atomistico, quando anche in germe, o magari soltanto in forma qualitativa, contiene già diversi degli aspetti essenziali del pensiero scientifico moderno: in particolare l’idea di particella elementare, quella della conservazione di certe grandezze fondamentali, il determinismo delle leggi fisiche. Con una buona volontà molto probabilmente eccessiva, anche il “clinamen” di Epicuro– Lucrezio potrebbe essere paragonato all’indeterminazione della meccanica quantistica che da qualcuno è stata infatti invocata per soddisfare alla medesima esigenza di evitare un determinismo totale, soprattutto in vista delle conseguenze etiche di una simile idea. Ma soprattutto è la base stessa dell’impostazione dello studio del mondo fisico che rimane valida, cioè l’idea di cercare la spiegazione di fenomeni disparati e complessi, apparentemente non correlati, in meccanismi semplici che fanno intervenire degli enti semplici. In questo senso il pensiero di Democrito e quello del fisico moderno si può dire che coincidano. Attraverso lo studio della filosofia greca queste idee sono sempre state più o meno presenti alla mente dell’uomo colto occidentale, specialmente dopo che il Rinascimento italiano ebbe riacceso l’interesse per la cultura antica. Non deve perciò meravigliare che dopo i successi della meccanica di Newton si cercasse d’interpretare questo o quel fenomeno fisico adoperando modelli di ispirazione democritea. Newton stesso ne dette l’esempio nella sua teoria meccanica della luce, interpretando questa come un flusso di corpuscoli governati dalle leggi xiv I NTRODUZIONE della meccanica da lui formulate. La grande differenza rispetto all’antichità sta nel fatto che ora, proprio per mezzo delle leggi meccaniche e del calcolo infinitesimale che permette di poterle applicare in pratica, i ragionamenti da qualitativi che erano diventano quantitativi. È in questo ordine d’idee che troviamo, nella seconda metà del 1600, quello che appare come il primo tentativo di formulare una teoria quantitativa sulla struttura di un corpo e precisamente di un gas (qualitativamente il modello di un gas come uno sciame di particelle si trova già in Lucrezio). Il tentativo è, anche questo, dovuto a Newton e segue la scoperta, pubblicata nel 1661, della legge di Boyle. Newton cerca di interpretare questa legge domandandosi quale forza si deve esercitare fra le particelle di cui il gas si pensa composto, perché il prodotto pV rimanga costante e trova che questo avviene se si sceglie una forza di repulsione inversamente proporzionale alla distanza. Questa teoria è naturalmente solo una curiosità storica. Ma la successiva teoria dei gas di Daniele Bernoulli (1700-1782), circa un secolo più tardi, può a buon diritto considerarsi come la prima delle teorie molecolari quantitative della fisica moderna. Bernoulli riconosce infatti che la pressione non è un fatto statico ma dinamico, cioè la interpreta come dovuta al bombardamento delle molecole contro le pareti del recipiente (qualitativamente, questa nozione era probabilmente nota anche ad autori precedenti) e riesce con questo non solo a ritrovare la legge di Boyle, ma anche a riconoscere una relazione fra il moto delle molecole e la temperatura. Questo contributo di Daniele Bernoulli ebbe poca influenza sullo sviluppo scientifico perché fu presto dimenticato. Soltanto dopo ancora un secolo, e cioè verso la metà dell’Ottocento, la teoria cinetica dei gas diventa un importante campo di ricerca (Kröning, Clausius, e un po’ più tardi Maxwell e Boltzmann). I metodi della teoria cinetica dei gas furono poi generalizzati per opera di Boltzmann, Gibbs, Einstein (fine dell’Ottocento-primi del Novecento) in modo da poterli applicare a sistemi comunque complessi e non ai soli gas. Nasce così la meccanica statistica che è un elemento essenziale nello studio della struttura della materia in quanto ci dà i mezzi per passare dalle proprietà degli elementi microscopici a quelle macroscopiche dei corpi. Nel frattempo, cioè a partire dalla fine del Settecento, il concetto di atomo, nel senso moderno della parola, fu introdotto, essenzialmente per opera dei chimici, specialmente dopo che Dalton (1766-1844) lo ebbe fondato sulla legge delle proporzioni multiple e sulle relazioni semplici che si hanno fra i volumi dei partecipanti a una reazione chimica quando questi sono allo stato gassoso. Tuttavia, ancora verso la fine del secolo scorso, perfino fra i chimici qualcuno avanzava dei dubbi sulla reale esistenza degli atomi (cosiddetta scuola energetica di Ostwald). Effettivamente, ancora a quel tempo nozioni come le dimensioni o le masse degli atomi, quindi anche il loro numero nella grammomolecola, erano molto vaghe. Breve cenno storico xv Spetterà alla fisica, mediante una delle più brillanti applicazioni della meccanica statistica, cioè lo studio delle fluttuazioni, e in particolare dei moti browniani (via indicata da Einstein), di dare quelle che saranno considerate le prove irrefutabili dell’ipotesi atomica. Nello stesso tempo si impareranno a misurare anche le grandezze atomiche (Perrin e altri, primi del 1900). Da allora in poi lo sforzo dei fisici si svolge essenzialmente in due direzioni: da un lato si cerca di investigare la struttura interna degli atomi e in particolare di metterne in evidenza i componenti, cioè l’elettrone (J.J. Thompson e altri, intorno al 1897) e il nucleo (Rutherford 1911); dall’altro si cerca di spiegare le proprietà dei corpi, come aggregati di atomi. E qui in primo luogo vengono le molecole più semplici e poi i solidi che a causa della regolarità della struttura presentano problemi meno complessi di quelli dei liquidi. Si rivelerà ben presto (primi del Novecento) che le leggi della meccanica e dell’elettrodinamica quali erano allora conosciute non sono in grado di render conto dei fenomeni alla scala atomica. Questa difficoltà sarà risolta in un tempo relativamente breve con la scoperta della meccanica quantistica verso il 1926. Questa epoca, insieme agli anni successivi, vede una delle più straordinarie avanzate di qualsiasi scienza in qualsiasi tempo, grazie anche alla fioritura di un notevole numero di ingegni eccezionali come Bohr, Heisenberg, De Broglie, Schrödinger, Pauli, Dirac e altri ancora. Con la meccanica quantistica e la scoperta del neutrone (1932) si hanno le premesse per investigare non solo la struttura degli atomi e dei loro aggregati, ma anche quella dei nuclei. Qui però compaiono nuove forze, le forze nucleari, che hanno caratteristiche molto diverse da quelle delle forze elettromagnetiche che dominano all’esterno dei nuclei. Infatti il loro raggio d’azione è molto piccolo (per un fattore intorno a 10−5 ) rispetto alle dimensioni degli atomi, mentre mettono in gioco delle energie molto più grandi (fattore circa 106 ) di quelle che si incontrano nell’analizzare la struttura degli atomi e le interazioni di questi fra loro. Queste circostanze permettono di separare — senza minimamente sacrificare il rigore — l’indagine delle interazioni interne ai nuclei (fisica del nucleo) da quella delle interazioni che hanno luogo esternamente ad essi. I principi fondamentali necessari a studiare quest’ultimo, già di per sé vastissimo, campo erano già acquisiti fino dal 1926-28. Da allora la risoluzione dei singoli problemi non è dipesa altro che dall’ingegnosità dei fisici, volta soprattutto a sormontare le difficoltà del numero rilevante degli elementi che compongono i sistemi studiati, difficoltà che si presenta già tanto più grande quando si tratta di edifici molecolari, di solidi — cristallini o no — oppure di liquidi o di gas reali. Nel presente testo, anche per restare entro limiti ragionevoli, ci limiteremo al campo extra–nucleare. Ma la fisica, naturalmente, non si è fermata qui. Accanto alla xvi I NTRODUZIONE fisica dei nuclei, considerati come aggregati di nucleoni (protoni e neutroni) è nata infatti, a partire all’incirca degli inizi del 1940, la fisica delle particelle elementari. In questo campo che è il più profondo raggiunto fino ad oggi dell’indagine fisica, il concetto di struttura perde il suo significato usuale. Perché esso continuasse a valere bisognerebbe infatti che le particelle elementari — come del resto la parola stessa sembrerebbe suggerire — fossero delle entità semplici che combinandosi riproducessero i componenti già noti della materia. Ma le cose stanno ben diversamente. Si ha infatti a che fare con delle particelle instabili, quindi normalmente inesistenti, che vengono prodotte, per esempio, nell’urto di due nucleoni a spese dell’energia cinetica di questi, purché essa sia abbastanza elevata. Più elevata è tale energia, tanto maggiore è il numero delle particelle prodotte e più elevate sono le loro masse, con una varietà di tipi probabilmente illimitata: da qui l’interesse a costruire macchine acceleratrici sempre più potenti e il nome di fisica delle alte energie. Ovviamente lo studio della natura e delle interrelazioni di queste particelle fra loro e con le particelle stabili è un soggetto affascinante, all’avanguardia della ricerca fisica attuale. Non ha però niente a che fare con la fisica alla quale intendiamo limitarci in questo testo. Capitolo 1 Elementi della teoria cinetica dei gas 1.1 1.1.1 Richiamo di nozioni elementari sul concetto di probabilità Definizione elementare a priori (Laplace) Dato un certo numero di eventi (ad es. osservazioni, misure) che si considerano ugualmente possibili e che possono dare un certo numero di risultati mutuamente esclusivi, si definisce come probabilità p di ottenere un certo risultato il rapporto fra il numero di casi favorevoli (cioè quelli in cui si realizza il risultato considerato) e quello dei casi possibili: p= n◦ dei casi favorevoli . n◦ dei casi possibili (1.1) Per esempio i risultati 1, 2, 3, 4, 5, 6 ottenibili gettando un dado non truccato sono, per quanto si può giudicare, ugualmente possibili. La probabilità di ottenere un numero prefissato è perciò 1/6. Quella di ottenere un numero pari è 1/2 ecc.. Se tutti i casi possibili si considerano favorevoli, sarà p = 1. In tal caso siamo certi che ogni evento sarà favorevole: si suol dire perciò che la probabilità p = 1 caratterizza la certezza. Una conseguenza immediata della definizione è che la probabilità che si realizzi l’uno o l’altro di due eventi (1,2) è la somma delle rispettive probabilità. Infatti ciò equivale a classificare come favorevoli tanto gli f1 casi in cui si realizza il risultato 1 che gli f2 in cui si realizza il risultato 2. Si ha perciò, indicando con N il numero dei casi possibili, f1 f2 f1 + f2 = + = p1 + p 2 . (1.2) p1+2 = N N N 2 1. E LEMENTI DELLA TEORIA CINETICA DEI GAS Il teorema si estende evidentemente a qualsiasi raggruppamento di casi favorevoli: p1+2+3+... = p1 + p2 + p3 + · · · . (1.3) Se la somma f1 +f2 +...+fν assorbe tutti i casi possibili, cioè si ha f1 +f2 +..+fν = N , si ritorna al caso della certezza e si dovrà avere ν pi = 1 (1.4) i=1 dove la somma è estesa a tutti i casi possibili. Si suole chiamare questa relazione la legge di normalizzazione delle probabilità. Segue immediatamente dalle considerazioni precedenti che, se p è la probabilità che si verifichi un certo evento, la probabilità p− che non si verifichi sarà p− = 1 − p . (1.5) Infatti la somma delle due probabilità p + p− deve essere 1, perché si comprendono tutti i casi possibili. Accade spesso di dover considerare l’occorrenza associata di due o più eventi indipendenti. Per esempio si può chiedere la probabilità di ottenere un certo numero in un primo getto del dato A e un secondo numero (pure prefissato) in un secondo getto del dado, oppure gettando un secondo dado B. I casi possibili sono ora 36 e il numero dei casi favorevoli è ancora uno: la probabilità è perciò 1/36, che è il prodotto delle probabilità degli eventi singoli (1/6)(1/6). Questo risultato è generale: quando due eventi indipendenti hanno probabilità p1 e p2 , la probabilità p12 che si verifichino insieme è (1.6) p12 = p1 p2 . Infatti se F1 , N1 e F2 , N2 sono rispettivamente i numeri di casi favorevoli e possibili nelle due eventualità che si considerano, il numero complessivo dei casi è N1 N2 , mentre il numero dei casi favorevoli è F1 F2 e perciò p12 = F1 F2 = p1 p2 . N1 N2 Analogamente, per più di due eventi indipendenti sarà p123 ... = p1 p2 p3 , . . . . (1.7) Il difetto della definizione a priori della probabilità sta nella necessità di specificare che gli eventi considerati devono essere ugualmente possibili, ciò che comporta una grave petizione di principio, in quanto ugualmente possibili non può che significare 1.1. Richiamo di nozioni elementari sul concetto di probabilità 3 aventi uguali probabilità di verificarsi. Ciò non toglie che in problemi semplici l’intuizione possa fornire un ragionevole criterio per giudicare della equiprobabilità, così da non far nascere confusione. Ci sono poi dei casi in cui l’equiprobabilità di certe situazioni è addirittura postulata, salvo naturalmente verificare il postulato attraverso le sue conseguenze indirette. In questi casi la definizione a priori è la più appropriata. 1.1.2 Definizione a posteriori (Von Mises e altri) Ci si basa sull’osservazione di un certo numero di eventi del tipo considerato prima (aggregato statistico) e si definisce la probabilità come il limite a cui tende il rapporto fra il numero di eventi favorevoli Nf e il numero totale N quando l’aggregato statistico diventa infinitamente numeroso: Nf p = lim . (1.8) N →∞ N Una ovvia condizione per la validità della definizione, o meglio perché si possa parlare di probabilità, è che il limite in questione esista. Ciò però non basta a caratterizzare un aggregato statistico. Per esempio, nel quoziente 1:7 si ripete indefinitamente il gruppo di cifre 142857 per cui esiste una frequenza limite 1/6 per ciascuna di tali cifre e una frequenza zero per tutte le altre (3,6,9,0). Ma l’aggregato non ha carattere statistico a causa della sua regolarità. Il carattere statistico si può specificare esigendo che ogni aggregato parziale, ottenuto da quello originario con una qualunque legge che non faccia riferimento al carattere dei singoli elementi, ma solo al loro posto nella successione, dia gli stessi valori per le probabilità ossia per le frequenze. Esempio di leggi del tipo richiesto: prendete tutti gli elementi di posto pari o dispari, oppure ogni n–esimo elemento, oppure tutti gli elementi il cui numero d’ordine è primo e così via, o anche scegliere un certo numero di elementi a sorte. È chiaro che se nell’esempio portato prendiamo ogni 6◦ elemento, si ottiene un aggregato parziale che contiene soltanto la cifra 7, con probabilità uno per questa e zero per tutte le altre, cioè qualcosa di interamente diverso da quello che dà l’aggregato originario. Questo modo di considerare la probabilità è più soddisfacente del primo, ma neppure questo elimina interamente le difficoltà logiche. Infatti il passaggio al limite, che permette di ottenere la probabilità, ha un carattere essenzialmente diverso dal passaggio al limite per una variabile ordinaria. Per il carattere irregolare dell’accrescimento di Nf al crescere di N , non esiste un N0 tale che per ogni N > N0 la differenza |(Nf /N ) − p | diventi e resti minore di un prefissato . Si potrà soltanto dire che al crescere di N diminuirà la probabilità che sia superato. Cioè, si riaffaccia anche qui, se anche in forma meno appariscente, una petizione di principio. I teoremi della somma e del prodotto delle probabilità si ritrovano come segue. 4 1. E LEMENTI DELLA TEORIA CINETICA DEI GAS Somma. Per la realizzazione alternativa di due casi 1, 2 (o più), per esempio l’uscita di un 5 oppure di un 3 nel getto di un dato, è chiaro che se Nf 1 è il numero dei casi 1 e Nf 2 quello dei casi 2, in N gettate del dado, sarà Nf 1 Nf 2 Nf 1 + Nf 2 = lim + lim = p1 + p2 . N →∞ N N N p1+2 = lim Prodotto. Date due successioni di eventi indipendenti associati, per esempio il getto di un dado A, accompagnato da quello di un dado B, l’evento 1, per esempio il risultato 1 per il dado A, si verificherà (al limite) in un numero p1 N di eventi A ai quali saranno associati altrettanti eventi del tipo B nei quali si potrà presentare il caso 2, per esempio l’uscita del 2 per il dado B. Questi p1 N eventi del tipo B costituiscono un aggregato parziale degli eventi di questo tipo e perciò (al limite) il caso 2 vi si troverà un numero (P1 N )P2 di volte. Sarà dunque (p1 N ) p2 = p1 p2 . N →∞ N p12 = lim La formulazione a posteriori si presta molto bene a trattare le probabilità continue. Queste si presentano per grandezze fluttuanti che possono prendere insiemi continui di valori, ad esempio i valori della velocità di una molecola di un gas a certi prefissati istanti t1 , t2 , . . . , tN . La probabilità perché una tale grandezza x abbia un valore compreso fra x e x+dx sarà evidentemente proporzionale a dx e perciò la scriveremo nella forma P dx dove P prende il nome di densità di probabilità. Per determinarla basterà, in un insieme N di risultati, contare quelli che cadono nell’intervallo prescelto, il cui numero indichiamo con n(dx), e prendere il limite del rapporto n(dx)/N quando N si fa tendere a ∞, cioè n (dx) . N →∞ N P dx = lim (1.9) In generale P sarà una funzione P (x) di x che si chiama legge di distribuzione o semplicemente distribuzione della grandezza x. Se x varia fra i limiti xA e xB (eventualmente ±∞) si dovrà avere B P (x) dx = 1 (1.10) A equazione che si dice condizione di normalizzazione per la P (x) e che è l’equivalente, per il caso continuo, della condizione (1.4). Una formula importante è quella che dà la media di una grandezza fluttuante. Se P (x) è la distribuzione di questa grandezza, in un numero molto grande N di