St tt Struttura della d ll materia t i Bibliografia J.D. Jackson Classical Electrodynamics Nardelli Chimica generale M. Born Atomic Physics A.Bohm Quantum Mechanics P.E. Hodgson, E. Gadioli, E. Gadioli Erba Introductory Nuclear Physics M Di Ventra M. Ventra, S.Evoy, S Evoy J. J R. R Heflin Jr. Jr Introduction to Nanoscale Science and Technology E. L. Wolf nanophysics p y and Nanotechology gy Materiale dal sito dell’ MIT ………… Le teorie, i p principi p g generali, i modi di descrivere la struttura della materia si sono sviluppati ed approfonditi nel corso degli ultimi quattro secoli secoli, spesso in modo non lineare. I concetto stessi di “materia” materia , “spazio” e “tempo” sono stati esaminati i ti e dib dibattuti tt ti llungamente t da fisici e filosofi. Nell’ esperienza p comune lo spazio p ed il tempo sono visti come modi in cui il mondo reale esiste, esiste mentre la materia è la sua sostanza. Nelle teorie fisiche lo spazio spazio, il tempo e la materia possono essere interpretati come rappresentazioni mentali introdotte per descrivere i fenomeni osservati.i I metodi elaborati già da Galilei Galilei, Descartes, Hobbes per descrivere gli eventi osservati impongono di evitare le osservazioni legate a qualità del fenomeno (impressioni soggettive), per costruire, invece, procedure che portino a risultati quantitativi. Un esperimento o “processo di misura” è una sequenza di operazioni i i condotte d tt iin modo d controllato e tale da potere essere riprodotto o replicato, li t ffornendo d glili stessi t i risultati i lt ti entro t l’ errore sperimentale. L’ esame dei dati e la loro interpretazione, per via induttiva o deduttiva deduttiva, permette di ottenere informazioni sul fenomeno osservato, che portano alla costruzione di una teoria, cioè di una spiegazione degli eventi fondamentali, la quale deve essere verificabile e falsificabile. Storicamente, si sono suddivise le proprietà dell’ oggetto da esaminare o “sistema” sistema in quelle che meglio ne descrivono le caratteristiche macroscopiche ed in grandezze legate alla natura dell’ oggetto (analisi chimica) hi i ) o all modo d iin cuii lla struttura t tt possa combinarsi con altri oggetti formando un sistema differente (sintesi chimica). Il sistema i t può ò essere sottoposto tt t a misurazioni che non ne alterano lo stato: valutazione di densità, volume, massa, conducibilità elettrica o termica, … L’ oggetto gg p può subire anche trasformazioni del suo stato, provocate da cambiamenti opportuni dell’ intorno. Le trasformazioni fisiche modificano qualche caratteristica,, ma non la composizione p del sistema, cioè la sua identità chimica: le trasformazioni di stato ne sono un esempio. Le trasformazioni o reazioni chimiche inducono cambiamenti della composizione del sistema: si possono identificare oggetti iniziali, o “reagenti”, che, per mescolamento fra loro o per variazioni di t temperatura, t pressione, i … cambiano bi lla lloro natura macroscopica, diventando sistemi differenti,, chiamati “prodotti”. p Una reazione chimica può manifestarsi all’ osservatore con la formazione di precipitati, cambiamenti di colore, variazioni della temperatura temperatura, formazione di aeriformi. Le caratteristiche misurabili del sistema possono essere proprietà fisiche,, ricavabili senza modificare fisiche la composizione del sistema (colore densità temperatura di (colore, solidificazione, …), oppure proprietà i tà chimiche, chimiche hi i h , rappresentate t t da q quelle g grandezze legate g alla capacità del materiale di subire reazioni chimiche chimiche, come la scarsa reattività del platino con l’ ossigeno. ossigeno S t Sostanza (pura) ( ) Un materiale è una sostanza pura qualora le trasformazioni o i metodi fisici non riescano a separarlo in p porzioni aventi p proprietà p differenti fra loro. Da un punto di vista macroscopo una sostanza chimica è un materiale di composizione definita ed uniforme, caratterizzata ed identificabile da proprietà fisiche quali la densità, il punto di fusione o ebollizione, l’ indice di rifrazione, … . P ti diverse Parti di di una sostanza t pura manifestano if t lle stesse proprietà, quando sono esaminati nelle stesse condizioni. Le sostanze pure possono essere classificate in elementi e composti. Elementi e composti p chimici (visuale macroscopica) macroscopica) Un elemento chimico è una sostanza pura che non può essere decomposta in sostanze ancora più semplici con mezzi fisici e chimici comuni. Un composto chimico è una sostanza pura formata da due o più elementi chimici. Una reazione chimica ((decomposizione p )p può separare il composto in sostanze più semplici, rappresentate dagli elementi chimici che lo costituiscono. Atomi L’ idea che una sostanza fosse formata da L oggetti di dimensioni microscopiche, rispetto all’ osservatore, fu dedotta inizialmente osservando che le trasformazioni chimiche ed il comportamento degli aeriformi if i di dimostravano regolarità l i à che h potevano essere tradotte in vere e proprie leggi,, interpretabili in modo semplice leggi ammettendo che la materia fosse composta da unità di dimensioni troppo piccole per potere essere visualizzate direttamente. Leggi sperimentali In una reazione chimica la massa di un sistema chiuso si conserva ((legge legge gg di Lavoisier)) Lavoisier Le sostanze pure si possono suddividere in elementi l ti e composti ti e, nella ll fformazione i di un composto a partire dagli elementi, si verifica che le proporzioni in massa degli elementi che lo generano sono definite e costanti ed indipendenti dalla genesi del composto t e dalla d ll maniera i iin cuii è stato t t ottenuto (legge (legge di Proust o delle proporzioni definite) definite) Quando due elementi possono combinarsi in rapporti in massa diff differenti, ti le l quantità tità in i massa dell’ uno che si combinano con una quantità fissa dell’ altro stanno fra loro in rapporti di numeri interi e semplici (legge di Dalton o delle proporzioni multiple)) multiple Reazioni chimiche di aeriformi Quando due g gas si combinano, i loro volumi stanno fra loro in rapporto semplice e e, se il prodotto della reazione è gassoso, anche il suo volume sta in rapporto semplice con i volume dei gas reagenti, alla stessa pressione i e temperatura (l (legge di Gay Gayy-Lussac). ) Ipotesi di Dalton Le leggi precedenti indussero Dalton, nell 1808 1808, a proporre cinque i iipotesi t i che riguardano la struttura della materia e spiegano in modo semplice i fenomeni osservati. Tutta la materia è composta da atomi indivisibili. Un atomo è una particella estremamente piccola piccola, che mantiene la sua identità nel corso di una trasformazione chimica. Un elemento chimico è una forma di materia costituita da atomi uguali, aventi, cioè, le stesse proprietà fra le quali la massa proprietà, massa. Elementi chimici diversi sono formati da atomi differenti, con massa diversa Gli atomi sono indistruttibili e mantengono la loro identità nel corso delle trasformazioni. La L fformazione i di un composto, t a partire ti d daglili elementi che lo realizzano, si ha mediante combinazione degli g atomi degli g elementi differenti,, in rapporti espressi da numeri interi. La teoria proposta da Dalton afferma che deve esistere un limite inferiore alla suddivisione della materia e tale soglia è l’ atomo e che deve essere possibile contare questi oggetti microscopici che formano le sostanze. sostanze I postulati introdotti da Dalton permettono di comprendere la legge sulla conservazione della massa in una trasformazione chimica (gli atomi si conservano) e le leggi di Proust e Dalton sulle proporzioni definite definite. Le ipotesi di Dalton sulla struttura della materia t i furono f modificate difi t nell corso d deii secoli successivi, come sarà esaminato nel seguito, ma l’ assunto fondamentale che la materia sia formata da oggetti distinti, gli atomi, è alla base della Chimica e della Fisica moderna moderna. Secondo Dalton g gli atomi erano caratterizzati dalle loro masse, che, però dovevano essere estremamente però, piccole (rispetto al grammo) e, per questo, t la l scelta lt più iù conveniente i t d dall punto di vista sperimentale fu quella di considerare una massa atomica pp fra la relativa,, definita dal rapporto relativa massa dell’ atomo di un elemento e quella dell’ dell atomo di un altro elemento preso come riferimento. Le masse atomiche relative,, però, p , non potevano essere dedotte solo in base alle leggi delle combinazioni combinazioni, poiché esse forniscono solo rapporti i massa o iin peso e d in da ttalili d dati ti sii può ottenere la massa di combinazione di un elemento, ma non conoscendo il numero di atomi coinvolti, non è possibile ricavare la massa atomica relativa relativa. Ipotesi di Avogadro Avogadro, g , nei p primi decenni del 1800,, p prese in esame le proprietà dei gas ed il loro comportamento durante trasformazioni chimiche. Avogadro scelse di esaminare quello che riteneva un sistema semplice: già all’ epoca un gas era descritto come un insieme di particelle microscopiche in movimento e tanto lontane fra loro da permettere ad Avogadro di ipotizzare, almeno l iin prima i approssimazione, i i che h il volume l di un gas, a temperatura e pressione costanti, dipendesse solo dal numero delle particelle presentiti iin esso e non dalla d ll lloro natura t . Avogadro, inoltre, ammise che le particelle ti ll microscopiche i i h presenti ti iin gas quali idrogeno, ossigeno, azoto non fossero f atomi t i isolati, i l ti ma molecole,, cioè gruppi di atomi legati molecole f di lloro almeno fra l per iintervalli t lli di tempo sufficienti a determinarne la struttura. Con tali ipotesi Avogadro riuscì a spiegare la legge di GayGay-Lussac e ad enunciare quella che era una congettura ed ora è una legge legge. Legge di Avogadro “ Volumi eguali di sostanze gassose, a eguale temperatura e pressione, rappresentano lo stesso numero di molecole, in modo che le densità dei diversi gas sono la misura delle masse delle loro molecole e i rapporti dei volumi nelle combinazioni fra gas altro non sono che i rapporti fra i numeri di molecole che si combinano per formare molecole composte “. Si consideri, ad esempio, la reazione di formazione dell’ acqua sotto forma di vapore a partire da idrogeno ed ossigeno allo stato aeriforme. Sperimentalmente p si osserva che,, nelle stesse condizioni di temperatura e pressione sono necessari due volumi di pressione, idrogeno ed uno di ossigeno e si f formano due d volumi l i di vapore d’ acqua. acqua. Se la reazione avesse come reagenti atomi i l ti ((rappresentati isolati t ti dai d i simboli i b li H ed d O) O), allora la trasformazione dovrebbe essere descritta dall’ dall equazione chimica seguente seguente, sapendo che una molecola di acqua è formata da due atomi di idrogeno ed uno di ossigeno): 2H + O → H2O La conservazione della massa e del numero di atomi implica che si debba formare un numero di molecole di acqua uguale a quello degli atomi di ossigeno g e, dalla legge gg di Avogadro, g lo stesso volume, mentre i dati sperimentali indicano un volume doppio. Secondo le ipotesi di Avogadro, g invece, i reagenti sono formati da molecole biatomiche ( H2 ed O2 ) e l’l equazione chimica diviene 2H2 +O O2 → 2H2O che prevede, correttamente, la f formazione i di due d molecole l l di acqua (e ( di due volumi) a partire da due molecole (e volumi) di idrogeno e da una molecola ( e volume)) di ossigeno. g La legge di Avogadro permette di ottenere in modo diretto la massa atomica o molecolare (somma delle masse atomiche) per sostanze allo stato aeriforme,, poiché, p , alla stessa temperatura e pressione, il rapporto fra le masse di volumi uguali di due gas è anche il rapporto fra le masse delle molecole, molecole, visto che i due gas contengono lo stesso numero di molecole . Le teorie sviluppate da Avogadro permisero di determinare le masse atomiche relative e le formule molecolari,, come fu sottolineato ( metà del 1800) da Cannizzaro secondo cui un elemento può Cannizzaro, fornire solo un numero intero di atomi per formare una molecola di un composto ed è per questo che le differenti quantità in massa con cui un elemento si rintraccia nelle masse molecolari dei suoi diversi composti devono essere uguali o multipli interi della massa atomica. atomica Con le p procedure indicate da Cannizzaro fu possibile ricavare la massa atomica degli elementi che formano composti gassosi e l’ atomo di idrogeno fu scelto come riferimento, scegliendo di attribuire ad esso massa atomica 1,000u (u è l’ unità di massa atomica) atomica). Vista la difficoltà sperimentale di manipolare singoli atomi, t i sii d decise i di ffare riferimento a quantità q antità che corrispondessero a numeri uguali di atomi t i dei d i differenti diff ti elementi. l ti Si introdusse, così, il concetto di grammoatomo e di grammomolecola l l ((mole), l ) che h rappresenta t lla massa in grammi numericamente uguale alla massa atomica t i o molecolare l l espressa iin u. Il g grammoatomo di ciascun elemento deve contenere lo stesso numero di atomi e tale numero è detto “numero di Avogadro” g ed è p pari a 6,022· 6,022· 1023 mol-1 . La massa atomica dell’ dell idrogeno, ad esempio, è pari ad 1,000 u e per ottenere 1,0 g di idrogeno saranno necessari 6,022 6,022·· 1023 atomi di idrogeno. Il gas “idrogeno” è formato da molecole biatomiche la massa della singola molecola biatomiche, sarà 2,0u ed una grammomolecola o mole corrisponderà ad una massa di 2 2,0 0 g e conterrà 6,022·· 1023 molecole . 6,022 Nei decenni successivi furono utilizzati altri metodi, quali la regola di Dulong e Petit, secondo cui cui, a temperature prossime a quella ambiente, il prodotto del calore specifico ifi per lla massa di una mole l di un solido elementare o di un composto è uguale, approssimativamente, a 6 cal K-1 mol-1 . Altri metodi si basavano sulla analogia di formule per sostanze chimicamente simili simili, oppure sulla periodicità delle proprietà degli elementi. Agli inizi del ventesimo secolo fu messa a punto una tecnica molto affinata per d t determinare i lla massa di atomi t i o molecole, l l la spettrometria di massa. Anche l’ atomo preso come riferimento per l’unità l unità di massa atomica fu modificato e e, attualmente 1,000 u ( che non è un’ unità d lS del S.I.) I ) è parii ad d un d dodicesimo di i d della ll massa a riposo di un atomo di 12C nel suo stato fondamentale. Elettricità, magnetismo, g teorie della luce e struttura atomica Nella prima metà del 1800 si riteneva che l’ atomo fosse una p particella indivisibile, che i fenomeni elettrici e magnetici (quali la possibilità di formare materiali con carica p elettrica positiva o negativa o di produrre campi p magnetici g da cariche elettriche in movimento in conduttori) non dipendessero dagli atomi dag ato stessi stess e che c e la a luce uce non o fosse osse legata al magnetismo o all’ elettricità. Negli ultimi decenni del 1800 la descrizione della luce subì una serie di cambiamenti assai profondi. I fenomeni f i di riflessione, ifl i rifrazione, if i diff diffusione i e, soprattutto, dell’ interferenza e della diffrazione avevano portato i fisici a ritenere che la luce potesse essere interpretata come un fenomeno ondulatorio ma Maxwell fu in grado di costruire una teoria dell’ elettromagnetismo in cui la luce era interpretata p come una sovrapposizione pp di campi magnetici ed elettrici concatenati che si propagano p p g nello spazio p come onde sinusoidali. Questa descrizione della luce, però, non era in grado d di spiegare i i ffenomenii llegati ti all’ ll’ irraggiamento da parte della materia. Un oggetto cavo le cui pareti siano mantenute ad una certa temperatura emette energia sotto forma di luce. Kirckhhoff elaborò un teorema secondo cui il rapporto fra la potenza emessa (energia luminosa emessa nell’ unità di tempo) e quella assorbita ( frazione dell’ energia luminosa incidente assorbita) da un oggetto dipende solo dalla temperatura del sistema. Un oggetto che assorba tutta l’ energia della luce incidente è detto “corpo nero” e la luce emessa da questo è detta “radiazione del corpo nero”. Un dispositivo sperimentale che simuli un corpo nero può ò essere una sfera f cava, rivestita internamente di nero di platino e con una apertura t minuscola. i l T Tutta tt la l lluce che entra dall’ apertura è riflessa più volte d ll pareti dalle ti fifino ad d essere assorbita bit completamente dalle pareti. La luce che è emessa all’ interno e che può emergere g dall’ apertura p èq quella caratteristica del corpo nero. Stefan dimostrò che la potenza totale emessa è proporzionale alla temperatura dell’ oggetto elevata alla quarta potenza potenza. Wien provò che l’ energia emessa per unità di volume ((densità di energia) g ) non è uguale g a tutte le frequenze della luce emessa, che esiste una frequenza q della luce che corrisponde p ad un massimo di energia emessa, che il prodotto della temperatura p p per la lunghezza g d’ onda corrispondente al massimo di emissione è costante ( tale massimo dipende p dalla temperatura p dell’ oggetto) . La dimostrazione di tali leggi per via t termodinamica di i interpreta i t t la l luce l come un motore t che può mettere in movimento uno specchio virtuale, a causa del fenomeno della pressione della luce. La p pressione della luce è associata al momento che luce porta con sé: secondo Maxwell la luce, nella sua propagazione, trasporta energia, la cui densità u ed il cui flusso di energia S sono correlati alla “densità del momento elettromagnetico” g nel modo seguente g = S· S·1/c2 Applicando il primo ed il secondo principio della termodinamica al trasferimento di energia allo specchio si dimostra la legge di Stefan. Il trasferimento del momento della luce allo specchio (virtuale) provoca un moto dello specchio che specchio, che, al contempo contempo, riflette la luce e diviene una sorgente luminosa in movimento. i t U Un osservatore t a riposo i rispetto i tt allo specchio rileva che la frequenza della luce è modificata per effetto Doppler e tale fenomeno p porta ad ottenere la legge gg di Wien, senza ricavare, però, una funzione che descriva l’l andamento della densità di energia in funzione della frequenza alle diverse temperature temperature. Ammettendo che la luce sia emessa da un oggetto che oscilli ad una determinata frequenza (un oscillatore armonico) e che l’ energia irraggiata sia quella di un dipolo oscillante, si ottiene la legge di Rayleigh e Jeans, secondo la quale la densità di energia cresce con il quadrato della frequenza e, per frequenze elevate, tende all’ infinito, in netto contrasto con i dati sperimentali (“catastrofe nell’ ultravioletto”). Planck, nel tentativo di risolvere tale problema, ipotizzò p che l’ energia g degli g oscillatori p potesse essere pari ad un valore ε0 o ad un multiplo intero di ε0 . Planck (fine 1800), 1800) dunque dunque, giunse alla conclusione che gli oggetti materiali ad una certa temperatura sono in grado di emettere energia sotto forma di luce, ma tale t l energia i non è ceduta d t iin modo d “continuo”,, bensì in “pacchetti p di energia” ε0 o “quanti”, la cui energia è direttamente proporzionale alla frequenza della luce emessa. emessa. ε0 = h ν ε0 è l’ energia del singolo quanto di luce h è la l costante t t di Planck Pl k 34 J s h = 6,62 6 62 ·10-34 ν è la a frequenza eque a de della a luce uce Einstein si spinse oltre ed avanzò l’ ipotesi che la quantizzazione dell’ dell energia non fosse legata solo ai processi di emissione ed assorbimento, ma fosse una caratteristica della luce stessa stessa. In questa teoria la luce è descritta come un insieme di oggetti, tti i ““quanti ti di lluce”” o “f “fotoni”,aventi t i” ti energia i hν, i quali si propagano nello spazio alla velocità d ll lluce. della Tale teoria è in grado di spiegare fenomeni quale l’ effetto fotoelettrico, non interpretabile con una teoria ondulatoria della luce. Nella seconda metà del 1800 anche la descrizione della materia subì cambiamenti bi ti che h permisero i di associare l’ atomo ai fenomeni elettromagnetici ed a comprendere come l’l atomo stesso avesse una sua struttura. Intorno alla metà del 1800 g gli studi condotti da Faraday sull’ effetto del passaggio di cariche elettriche in soluzioni liquide dimostrarono che esiste una corrispondenza tra la massa di una sostanza t che h reagisce i iin un processo elettrolitico e la quantità di corrente che passa nel circuito e che la quantità di elettricità per ottenere un equivalente q (quantità (q richiesta p in grammi di una sostanza che, in una reazione equivale ad una mole di atomi di reazione, idrogeno) è sempre la stessa. G J Stoney (intorno al 1874) interpretò questi G.J.Stoney dati sperimentali ammettendo che, se una quantità fissa di elettricità reagisce con un numero fisso di atomi, allora anche l’ elettricità deve avere una natura p e definì tali p particelle corpuscolare “elettroni”. Helmholtz (1883) contribuì a chiarire ulteriormente gli aspetti particellari della corrente t elettrica. l tt i Nella seconda metà del 1800 una lunga serie di studi (Pluecher, Hitthorf, Crookes, Geissler Thomson ed altri) sul passaggio di Geissler, corrente in gas rarefatti si rivelarono fondamentali per comprendere la struttura atomica. U gas iin condizioni Un di i i normalili è uno scarso conduttore elettrico, ma in condizioni di b bassa d densità ità ed d iin presenza di un iintenso t campo elettrico, permette il passaggio di corrente elettrica l i e manifesta if emissione i i di luce a frequenze che dipendono dalla natura del gas. Negli esperimenti in esame, un aeriforme, alla pressione di qualche migliaio di Pa (qualche centesimo di atm)) è chiuso in un tubo di vetro ai cui capi sono posti due elettrodi (catodo negativo ed anodo positivo, positivo spesso a geometria planare o cilindrica). Quando la differenza di potenziale sui due elettrodi è di qualche migliaio di Volt, si osserva che nel circuito in cui è inserito il passa corrente elettrica e si ha tubo p emissione di luce nella zona fra i due elettrodi Diminuendo la densità del gas elettrodi. gas, l’l emissione di luce avviene solo in fasce ben definite alternate da zone prive di definite, luminosità e non si ha più l’ emissione intorno all’ elettrodo negativo o catodo ((spazio p oscuro di Crookes). ) Quando la pressione del g gas è ridotta ad un centinaio di Pa, non si ha più l’ emissione di luce, ma si osserva una fluorescenza sulle pareti di vetro dal lato opposto al catodo (raggi catodici). catodici catodici)). ) Se un oggetto è posto fra il catodo e la parete del vetro fluorescente, si osserva un’ ombra proiettata p o ettata sulla su a parte pa te fluorescente. uo esce te L’ azione di un campo elettrico esterno ottenuto ponendo entro il dispositivo un placche,, in modo che i raggi gg condensatore a p catodici passino fra le armature del condensatore provoca una deflessione condensatore, (spostamento) della zona fluorescente verso la placca a potenziale elettrico più alto alto. L’ azione di un campo magnetico esterno, ottenuto mediante due bobine e trasversale rispetto alla traiettoria dei raggi catodici, induce uno spostamento della regione fluorescente. Tali fenomeni furono interpretati nel modo seguente: i raggi catodici sono formati da particelle con carica negativa che si spostano rapidamente (frazioni della velocità della luce) ed in modo rettilineo entro il dispositivo: sono gli elettroni elettroni.. Quando la densità del gas è più alta (e provoca una pressione di qualche centesimo di atm) gli atomi o le molecole del gas formano particelle con carica elettrica a causa del campo elettrico intenso che elettrica, separa dagli atomi (non più indivisibili) particelle con carica i negativa, ti glili elettroni, l tt i d dall resto t d dell’ ll’ atomo. t Secondo tale interpretazione, dovuta a Thomson, gli atomi sono oggetti globalmente privi di carica elettrica (neutri) solo perché al loro interno deve essere presente una sorta di matrice carica positivamente in cui sono immersi gli elettroni. La carica positiva globale della matrice deve essere g compensata da quella degli elettroni. Nel caso in cui un elettrone si separi p dall’ atomo,, questo assume una carica positiva. La luminosità è attribuita al processo di ricombinazione fra l’ elettrone e l’ atomo carico positivamente. (I fenomeni che avvengono all’ interno del tubo, però attualmente richiedono una descrizione molto più complessa.) Nel corso di esperimenti p in p presenza di campo p elettrici e magnetici esterni fu possibile determinare il rapporto carica/massa degli elettroni.. elettroni Una particella con carica elettrica che si muova entro un campo magnetico subisce una forza fH, che è perpendicolare sia alla direzione del campo magnetico, sia a quella d ll traiettoria della i i e, secondo d lla llegge di Lorentz, fH = e(v e((v x H)). Nel caso in cui il vettore velocità sia perpendicolare ad H, la traiettoria della particella coincide con una circonferenza che giace su un piano perpendicolare ad H, la forza di Lorentz (in modulo H H··e·v) è diretta verso il centro della circonferenza e deve essere uguale alla forza centrifuga mv2/r (Hev = mv2/r). Applicando un campo elettrico perpendicolare a quello magnetico , si possono trovare le condizioni in cui la forza elettrica eE eE e q quella magnetica g siano uguali g in modulo e con verso opposto: in tale caso la regione luminescente non si sposta e vale eE = eHv = mv2/r. Conoscendo E ed H e misurando r è possibile determinare e/m = 1840 F ((F è la costante di Faraday), y) si ricava che la carica elettrica dell’ elettrone è negativa e che e/m è indipendente dal tipo di tubo utilizzato. utilizzato La carica dell’ elettrone fu misurata, nel corso dei primi anni del 1900 da diversi ricercatori, ma l’ esperimento più conosciuto è quello ideato da R. Millikan: un condensatore ad armatura piane è caricato, in modo da ottenere un campo elettrico di intensità uniforme e nota e direzione perpendicolare alle piastre. Nella regione fra le p piastre si mantiene una p pressione sufficientemente bassa e l’ apparato è p minimizzare immerso in un termostato,, per eventuali correnti convettive. Il condensatore è interfacciato con una camera di nebulizzazione necessaria per ottenere piccolissime gocce sferiche di olio olio, alcune delle quali con carica elettrica q positiva iti o negativa. ti T Talili gocce possono entrare nel campo elettrico del condensatore attraverso un foro nell’ p del condensatore,, sono armatura superiore illuminate lateralmente ed appaiono come punti luminosi attraverso un microscopio ottico. Su ciascuna g goccia agiscono g la forza g gravitazionale e quella elettrica, che hanno versi opposti. Quando le due forze hanno risultante nulla la goccia appare in quiete e vale: qE = mg. La massa m della goccia può essere determinata attraverso la densità (m/V) ed il volume V della goccia pari a 4/3 π r3. Il raggio di una goccia può essere ricavato misurando la velocità di caduta dell’ olio in assenza del campo elettrico. La viscosità del mezzo rende la velocità costante e si può applicare la legge di Stokes v = mg/6π mg/6πξr, dove ξ è il coefficiente di viscosità del mezzo. Le misure ottenute dimostrarono che la carica i elettrica l tt i su ciascuna i goccia i è sempre p un multiplo p intero di una carica elementare fissa, pari a 1,60·10 1,60·10-19 C, associata alla carica dell’ dell elettrone. elettrone Contemporaneamente ai raggi catodici catodici, Goldstein riuscì ad ottenere fasci di particelle con carica positiva i raggi anodici positiva, anodici,, ottenuti dalla collisione di elettroni con atomi o molecole di gas molto rarefatti presenti nei tubi tubi, mentre Roegten dimostrò l’ esistenza di altri raggi, i raggi X, X, ottenuti dall’ dall interazione dei raggi catodici con il vetro del tubo o con un opportuno bersaglio (anticatodo) I raggi anodici si dimostrarono atomi (anticatodo). o molecole con carica positiva, mentre i raggi X furono identificati come luce a frequenza elevatissima, dell’ ordine dei 1019 Hz. Negli ultimi anni del 1800 si studiarono non gg ottenuti artificialmente, ma, solo raggi anche, raggi “naturali”, prodotti da sostanze dette “radioattive” radioattive , in eventi che coinvolgono trasformazioni spontanee di atomi di queste sostanze in altri atomi (Becquerel, (Becquerel i Curie Curie, Rutherford, Soddy ed altri). I fenomeni legati alla radioattività danno luogo a tre di diverse ““radiazioni”: di i i” i raggii alfa, alfa lf , il cuii comportamento in campi elettrici e magnetici permette tt di classificarli l ifi li come particelle ti ll con carica i positiva e con un rapporto carica/massa corrispondente i d t all’ ll’ atomo t di elio li con d due cariche i h positive. I raggi beta, beta, identificati come elettroni, con velocità maggiore di quella dei raggi catodici. I raggi gamma, gamma, che non subiscono deflessioni in campi p elettrici e magnetici g e sono descritti come radiazione di altissima frequenza, superiore a quella dei raggi q gg X. Agli inizi del 1900 alcune particelle con carica elettrica erano ben caratterizzate e furono utilizzate,, accanto alla luce,, per p sondare la struttura atomica, applicando, inizialmente le leggi fisiche elaborate per inizialmente, descrivere gli oggetti macroscopici. Le discrepanze fra i risultati sperimentali e le previsioni teoriche obbligarono i fisici a modificare profondamente le teorie teorie, con la costruzione di strutture fisico matematiche che h prendono d il nome di “fi “fisica i quantistica”. ti ti ” La teoria atomica elaborata da J.J.Thomson, J.J.Thomson, descrive gli atomi come una struttura compatta sferica a carica positiva in cui si trovano immersi gli elettroni elettroni, sottoposti alla forza elettrica attrattiva centrale della carica positiva ed a quella repulsiva degli altri elettroni. In questa teoria è possibile che gli elettroni siano perturbati o da luce incidente o da collisioni con altri atomi o molecole e che essi emettano luce monocromatica a seguito di oscillazioni armoniche entro la matrice positiva. p Le frequenze calcolate con la teoria di J J Thomson J.J. Thomson, però però, non spiegano in modo adeguato gli spettri di emissione e di assorbimento di gas monoatomici. Per spettro p di assorbimento/emissione si intende la luce assorbita/emessa dagli atomi separata in funzione della atomi, frequenza. Bohr, sulla base della teoria della luce avanzata da Ei t i riuscì Einstein, i ì a fornire f i un’’ interpretazione i t t i delle d ll caratteristiche degli spettri di assorbimento e di emissione della luce da parte di atomi allo stato aeriforme, ammettendo che gli atomi possano trovarsi solo in alcuni stati, caratterizzati da energie definite, E0, E1, E2, …(quantizzazione dell’ energia g atomica). ) E0 corrisponde p allo stato di minima energia, detto “stato fondamentale” L’ assorbimento dell’ energia g hν hν associata alla luce può aversi solo se corrisponde alla differenza di energia fra due stati dell’ atomo: hν1 = E1-E0 hν2 = E2-E0 … L’ ipotesi di J. J. Thomson sulla struttura atomica atomica, inoltre inoltre, era in netto contrasto con i risultati sperimentali derivanti dall’ interazione di particelle cariche con atomi atomi. Il g gruppo pp di ricerca di Lenard ideò ed eseguì g esperimenti di collisione fra atomi e fasci di elettroni ((i raggi gg catodici), ), verificando che g gli atomi erano “trasparenti” per gli elettroni (e ciò era in netto contrasto con la teoria atomica di Thomson). La conoscenza dei raggi alfa permise a gruppi di ricerca i come quello ll guidato id t d da R Rutherford th f d di progettare e realizzare una serie di lavori che h rivoluzionarono i l i lla d descrizione i i d della ll struttura atomica. Il g gruppo di Rutherford dal 1910 al 1930, circa, progettò e realizzò eventi di collisione fra atomi e fasci di particelle alfa (con carica positiva), emesse con alta energia (qualche MeV, MeV circa 10-13J) e molto più massicce degli elettroni, tanto da non subire modifiche apprezzabili bili d della ll ttraiettoria i tt i a causa d deglili elettroni atomici. Il bersaglio era rappresentato da fogli molto sottili (circa 10-4 mm) di metalli metalli. La sorgente di raggi α era costituita da un tubo a pareti molto sottili contenente radon. Lo scopo degli esperimenti era quello di rilevare ciò che accadeva nell’ impatto fra le particelle alfa e gli atomi bersaglio, disponendo rilevatori dei raggi α (inizialmente lastre fotografiche) intorno alla lamina metallica, al fine di misurare le particelle alfa diffuse in funzione dell’ angolo di deflessione. I dati sperimentali dimostrarono che la maggior parte delle particelle (più del 90%) dopo l’l impatto modificava la sua traiettoria di angoli compresi fra 0° e 60° 60°, ma il dato più incredibile fu che un certo numero di particelle subiva deflessioni anche di 140°°-180 140 180°°. Rutherford e gli altri del suo gruppo (Geiger, Marsden, …) furono indotti ad ipotizzare che la massa atomica fosse concentrata in una regione centrale (nucleo) di dimensioni piccolissime, rispetto a quelle dell’ atomo, mentre il resto d l volume del l atomico t i era privo i di masse di distribuite t ib it (“ (“vuoto”). t ”) In questo modo le particelle α potevano subire una modificazione rilevante della loro traiettoria solo per collisione con il nucleo. Dall’ analisi delle modalità con cui le particelle alfa erano diffuse (legge di distribuzione in funzione dell’ angolo di deflessione), si ricavò che la forza all’ origine della diffusione era quella di Coulomb Coulomb, f = k 2Ze2/r2 (2e rappresenta la carica della particella α, Ze la carica del nucleo atomico, e rappresenta il valore assoluto della carica i di un elettrone) l tt ) e ttale l fforza era di titipo repulsivo, l i indicando che il nucleo ha carica positiva come le particelle p proiettile. Gli esperimenti dimostrarono, inoltre, che il numero Z era i t intero, intero , dipendeva di d dal d l titipo di metallo t ll b bersaglio li e coincideva i id con il numero che era stato assegnato a tale elemento nella numerazione p progressiva g della Tavola degli g Elementi (numero atomico). L’ osservazione che Z fosse un numero intero suggerì che nel nucleo l ffossero presentiti particelle, ti ll ciascuna i con carica i elettrica esattamente uguale, in valore assoluto, a quella di un elettrone,, ma con segno g p positivo: i p protoni. Tale ipotesi era stata già avanzata (Prout) per spiegare il fatto che ciascun elemento chimico ha una massa atomica con valore l iintero t iin u oppure consiste i t di un miscuglio i li di atomi con proprietà chimiche uguali, ma con massa atomica diversa ed espressa, p , ciascuna con un numero intero: gli isotopi. isotopi. La condizione di neutralità elettrica di un atomo impone che il numero di cariche positive nel nucleo nucleo, Ze Ze, coincida con il numero di elettroni, che devono trovarsi nella regione attorno al nucleo stesso. Dall’ Dall analisi dello schema di diffusione delle particelle alfa fu possibile determinare anche le dimensioni lineari del nucleo atomico, stimate interno a 10-15 m, mentre le di dimensioni i i lilinearii di un atomo t sono d dell’ ll’ ordine di 10-10 m. Mosely, y, nel secondo decennio del 1900,, riuscì a correlare la frequenza ν di emissione di raggi X da parte di atomi di vari elementi chimici (perturbati attraverso processi di collisione lli i o per assorbimento bi t di lluce)) con il numero atomico Z: ν = 3/4R0(Z (Z--S)2 R0 è la costante di Rydberg S è la costante di schermatura della carica nucleare da parte degli elettroni più vicini al nucleo. Negli anni intorno al 1930 Bothe e Becker osservarono che il bombardamento di nuclei di berillio con particelle alfa produceva l’ emissione di particelle ritenute inizialmente raggi p gg g gamma. Altri esperimenti condotti da Curie e Joliot dimostrarono che le particelle emesse dovevano essere di altro lt genere e Ch Chadwick d i k riuscì i ì a ffornire i un’ interpretazione coerente dei dati sperimentali, ammettendo che le particelle emesse fossero oggetti neutri, i neutroni, che dovevano trovarsi entro il nucleo atomico. Il nucleo atomico, dunque, consiste di un insieme di Z protoni e (A(A-Z) neutroni. A è il numero di massa atomica ed è pari alla somma dei nucleoni nucleoni, cioè della somma di protoni e neutroni nel nucleo atomico ((un nucleone è un p protone o un neutrone). Intorno al 1930 H. Yukawa per spiegare l’ evidenza sperimentale p che i nuclei,, formati da protoni p e neutroni, sono stabili, avanzò l’ ipotesi che esista una interazione,, molto più p intensa di q quella repulsiva coulombiana tra le cariche elettriche dei protoni: l’ interazione forte. p Tale forza deve avere un raggio d’ d azione di qualche fm (10-15 m sono le dimensioni del nucleo), deve agire tra protoni protoni-protoni, protoni protoni protoni-neutroni neutroni e neutroni-neutroni in uguale modo ed è attrattiva per valori di qualche fm e repulsiva per distanze inferiori a 10−1 fm. La teoria di Yukawa descrive l’ interazione fra nucleoni come uno scambio tra neutrone e protone di un tipo di particella particella, identificata prima come un mesone e, successivamente con un pione. i La teoria ipotizza p che la interazione fra i nucleoni sia dovuta allo scambio di quanti (pioni) che sono i messaggeri della forza (pioni), forza, di cui i nucleoni sono le “sorgenti”. Per analogia con il campo elettrostatico, è possibile descrivere l’l interazione forte nel modo seguente: Si consideri un nucleone come la sorgente delle particelle messaggere di Yukawa ed un altro nucleone “sonda” vicino. vicino Si può pensare che il nucleone sorgente della forza nucleare generi un potenziale V (r) = -g g2 e-r/a·1/r 1/r g è considerata come la carica nucleare, in analogia con la carica elettrica e che il nucleone sonda abbia un'energia potenziale derivante dall'interazione della carica forte g di un nucleone l con il campo U( U(r)) generato t d dall'altro ll' lt nucleone: V(r) = gU(r) ammettendo che il nucleone sorgente sia nell'origine di un sistema di riferimento e l'altro in r. Yukawa,ammette che neutroni e protoni abbiano comportamenti t ti equivalenti i l ti riguardo i d all’interazione ll’i t i forte. H i Heisenberg b avanzò ò l’ iipotesi, t i allora, ll che h id due di diversii nucleoni siano due differenti stati di un nucleone N e che siano distinguibili per il diverso valore di una caratteristica, definita “spin isotopico forte” I. Neutroni e protoni, dunque, sono due stati degeneri per l’interazione l interazione forte e l’interazione l interazione forte è indipendente dalla carica elettrica. Attualmente la Teoria Standard prevede che l’l Attualmente, interazione forte coinvolga i quark, particelle che formano protoni e neutroni. Intorno al 1930,dunque, 1930 dunque si stabilizza una descrizione dell’ atomo come una struttura che consiste di un nucleo in cui si trova più del 99.9% della massa atomica ed in cui si hanno Z cariche positive (i protoni) e particelle prive di carica elettrica, i neutroni, mentre le particelle con carica negativa negativa, gli elettroni, sono confinati in regioni attorno al n cleo (gli orbitali atomici), nucleo atomici) i q quali ali determinano il volume atomico L’ identità chimica di un elemento è legata al numero atomico Z, cioè al numero di protoni nel nucleo. Acceleratori di particelle Dopo p il lavoro del g gruppo pp di Rutherford,, in cui si utilizzarono particelle alfa (nuclei di 4He)) prodotte p dalla disintegrazione g spontanea di nuclei radioattivi, gli sperimentatori p compresero p che si sarebbero potute ottenere altre informazioni sulla struttura del nucleo utilizzando fasci ben collimati di particelle cariche con energie cinetiche molto superiori a quelle delle particelle radioattive. radioattive Gli acceleratori di particelle sono strumenti p progettati g e costruiti p per ottenere fasci di particelle cariche quali elettroni protoni elettroni, protoni, ioni pesanti,antiparticelle o particelle i t bili come i mesonii K ed instabili d i pioni i io fasci di neutroni da inviare come proiettili su bersagli fissi o da preparare produrre collisioni ad alta in modo da p energia (10n MeV) Andamento A d t delle d ll energie ottenibili nei diversi tipi di acceleratori Gli esperimenti condotti nei primi decenni del 1900 tendevano a dimostrare con esperimenti diretti l’ esistenza di oggetti microscopici che si propagano a velocità elevate (frazioni della velocità della luce), ) anche h mediante di t l’ uso di rilevatori il t i che h rendono visibili le tracce delle particelle stesse (camere a nebbia sviluppate da Wilson), avvalorando l’l ipotesi che la materia sia costituita da particelle. Contemporaneamente lavori condotti da Davisson e Germer sulla riflessione di fasci di elettroni da parte di metalli dimostrarono che gli elettroni subivano fenomeni di diffrazione provocata dal reticolo cristallino, proprio come i raggi X negli esperimenti di Laue, mentre lavori di G.P. Th Thomson, Rupp R ed d altri lt i evidenziarono id i che h fasci f i di elettroni l tt i che passano attraverso lamine sottili di metalli ed altri materiali manifestano fenomeni di diffrazione. De Broglie, intorno al 1925, aveva avanzato l’ i t i che ipotesi h il d dualismo li ttra il comportamento t t ondulatorio e quello corpuscolare associati alla ll lluce potesse t essere esteso t anche h alla ll materia. Ad una particella della materia deve essere connessa un’ onda materiale,, la cui lunghezza d’ onda λ è legata al momento p= mv)) dalla relazione: lineare p ( p p=h/λ ottenuta dalla teoria della relatività relatività, secondo cui il momento e l’ energia sono componenti di un n vettore ettore a q quattro attro dimensioni dimensioni. Nei decenni successivi si osservò il fenomeno della diffrazione anche per fasci di neutroni lenti e fasci di molecole o di atomi ( H2 ed He). I dati sperimentali dimostrano dimostrano, dunque, dunque che il comportamento ondulatorio è associabile ad oggetti microscopici anche complessi, quali atomi e molecole. L’ ipotesi di De Broglie suggerì a E. Schroedinger una teoria, la “meccanica ondulatoria”, in cui le particelle sono interpretate come “pacchetti pacchetti d d’ onda onda”, la cui evoluzione è descritta da una funzione, detta “funzione d’ onda”. Tale rappresentazione si dimostrò equivalente ad un’ un altra, elaborata nello stesso periodo da Heisenberg, nella quale le grandezze fisiche sono associate a matrici. I lavori l i ffondamentali d t li di S Schroedinger, h di H Heisenberg i b e di B Born, Jordan, von Neumann e molti altri permisero la costruzione di un apparato teorico conosciuto come “meccanica meccanica quantistica” il cui formalismo fu generalizzato da Dirac. Meccanica quantistica I fenomeni f i legati l ti aii sistemi i t i atomici t i i manifestano if t un carattere di discontinuità: Planck per primo fu indotto a pensare che l’l emissione di luce da parte di un corpo nero avvenisse in modo discreto,, attraverso quanti q di energia e riuscì a definire la curva sperimentale che descrive l’ andamento della densità dell’ energia emessa in funzione della luce solo ammettendo che l’ energia di ciascun quanto fosse hν, con h = 6,55∙10-34 J s (attualmente h = 6,625 ∙10-34 J s ). Il carattere discontinuo dei fenomeni microscopici appare molto lt chiaramente hi t nell’ ll’ effetto ff tt ffotoelettrico, t l tt i in cui un metallo sottoposto a luce di frequenza variabile i bil emette tt elettroni l tt i ma solo l se la l ffrequenza della luce incidente è superiore ad un valore di soglia. li Gli spettri di assorbimento e di emissione di gas monoatomici evidenziano il carattere discreto anche delle proprietà atomiche. La luce è assorbita o emessa da un atomo solo a certe frequenze q caratteristiche e ciò si p può spiegare ammettendo che l’ energia degli elettroni nell’ atomo sia quantizzata. q Molte grandezze quantizzate e le equazioni della meccanica quantistica contengono h in modo implicito o esplicito. Una particella può avere un momento ed una posizione misurabili entrambi con precisione voluta se h/2π è trascurabile trascurabile. Gli esperimenti sulla diffusione di elettroni, atomi o molecole l l di dimostrano t che h lle particelle ti ll su scala l atomica non possono essere descritte come oggetti localizzati localizzati, ma come enti con proprietà ondulatorie. Ad ogni particella è possibile correlare un campo che ha caratteristiche di onde. Schroedinger generalizza tali idee ed associa ad un sistema quantistico (elettrone, protone, …) una funzione, detta “funzione funzione d’ d onda onda” Ψ(r,t) di cui è possibile calcolare l’ evoluzione nel tempo attraverso regole g di corrispondenza p fra le leggi gg della meccanica classica e quella quantistica. Ψ(r,t) ( , ) permette p di ottenere i valori attesi delle grandezze fisiche del sistema ed il suo significato è di tipo statistico. statistico Il valore di Ψ2(r,t) fornisce la probabilità di trovare la particella in una regione infinitesima attorno ad r. Le teorie quantistiche non consentono di avere informazioni dettagliate sul singolo oggetto, ma forniscono informazioni sul comportamento medio di di un gran numero di quegli g oggetti gg microscopici. Nel processo di misurazione su scala atomica non è possibile controllare gli eventi, separando l’ ente da esaminare dallo strumento, che, nel rilevamento, perturba il sistema in modo non prevedibile. Nella determinazione contemporanea di proprietà fisiche p , x correlate fra loro, (quale momento e posizione) si ha un’ posizione), un incertezza ∆x e ∆p sulle grandezze , il cui prodotto è maggiore o uguale ad h/2π h/2 π ∆x · ∆p ≥ h/2 π (principio di indeterminazione di Heisenberg) Heisenberg) Per descrivere un sistema microscopico è necessario utilizzare un sistema di leggi e principi differenti da quelli sviluppati per descrivere il mondo macroscopico. Esiste un principio “di di stratificazione stratificazione” , secondo cui la materia è pensabile come costituita da livelli livelli. Stratificazione di oggetti macroscopici Le proprietà di uno strato sono determinate solo da quelle dello strato immediatamente al di sotto di questo. La meccanica classica si occupa di descrivere oggetti macroscopici le cui dimensioni sono dell’ ordine di grandezza dell’ osservatore o maggiori mentre su scala atomica le leggi maggiori, sono quelle della meccanica quantistica. Un sistema fisico può essere esaminato su più piani di osservazione. Un sistema macroscopico A livello macroscopico A livello microscopico (dimensioni lineari È formato da un numero intorno al m) enorme (1023) di oggetti le cui dimensioni lineari sono È descritto mediante poche inferiori al nm (10-9m): grandezze fisiche glili atomi. Meccaniche M i h (P P, V V, durezza, resilienza,…) Per descrivere lo stato di tutti Elettriche ((momento di gli ato g atomi sa sarebbe ebbe dipolo elettrico, o necessario conoscere la magnetico,…) posizione e la velocità di questi ed in intervalli di Termodinamiche tempo più brevi delle (composizione, variazioni che gli atomi temperatura, energia compiono compiono. termica …)) termica, L’ iintervallo t ll di ttempo necessario i nell processo macroscopico di misura è, nella maggior i parte t d deii casi,i molto lt più iù ampio i di quelli tipici dei moti relativi all’ atomo ( 10-15 s). Come conseguenza: La misura macroscopica è sensibile ad una sorta di valore medio delle coordinate atomiche Solo S l alcune l variabili i bili atomiche t i h “sopravvivono” ed assumono un significato macroscopico. Una sostanza pura o un miscuglio di più sostanze pure sono oggetti macroscopici formati, di solito, da un numero estremamente elevato di specie microscopiche: si ricordi che una mole contiene 6*1023 unità e che una mole di acqua corrisponde ad una massa di 18 g. Ciascuna unità è influenzata dalla presenza di quelle che le sono più vicine e si instaurano forze di tipo elettrico (talora magnetico) fra gli atomi o le molecole o gli ioni e tali interazioni (azioni reciproche) rappresentano le forze coesive coesive, che permettono al sistema di esistere in “modi” diversi, detti “stati fisici della materia” materia o “stati stati di aggregazione” aggregazione . E’ opportuno sottolineare che un sistema formato da un numero molto grande di atomi o molecole o gruppi ionici possiede alcune proprietà “intrinseche” intrinseche che dipendono proprio dalla presenza di tantissime unità che interagiscono fra loro. I cambiamenti di stato o transizioni di stato corrispondono ad una variazione delle proprietà intrinseche, a causa di una alterazione della temperatura, della pressione,…,che provocano una modificazione delle distanze, della efficacia delle forze coesive fra le particelle e del tipo di “ “organizzazione” i i ”d delle ll unità, ità ma non modificano difi la composizione della sostanza in esame o le caratteristiche degli atomi /molecole/ioni di segno opposto, che la formano. Le proprietà intrinseche sono: La viscosità, viscosità, definibile come la capacità dell’ dell oggetto (sistema) di opporsi alle forze esterne a cui venga sottoposto. In altri termini, è una misura della resistenza al flusso, se la sostanza è sottoposta ad una tensione. Più la sostanza è rigida più mantiene la sua forma sotto sforzo. Volume molare, rappresentato dal volume che occupa una mole di sostanza pura, in un determinato stato della materia materi Compressibilità,, grandezza che indica quanto varia il volume se la Compressibilità sostanza è compressa compressa. Espansione termica, termica, indica la variazione di volume provocata da una variazione di temperatura specificata. Tensione superficiale, superficiale, indica la resistenza della superficie di un liquido ad aumentare la sua area. Diffusione , fenomeno che permette a due o più sostanze diverse di diffondere reciprocamente reciprocamente, provocando un mescolamento; il coefficiente di diffusione è una grandezza che misura la velocità di diffusione nel mescolamento. Tensione di vapore p di un solido o di un liquido q è la p pressione esercitata dalle unità della sostanza che, ad una determinata temperatura, sono riuscite a passare allo stato aeriforme. I sistemi macroscopici sono caratterizzati da un numero rilevante di atomi (≈ (≈ 1023 ), al contrario i microsistemi, le mesofasi ed i nanosistemi sono formati da un numero di atomi che va dalle centinaia nelle nanostrutture a qualche milione nei microsistemi. Le nanotecnologie rappresentano la capacità di osservare misurare e manipolare la materia su osservare, scala atomica e molecolare. molecolare. 1 nanometro (nm) è un miliardesimo di metro e corrisponde a circa 10 volte la dimensione lineare dell’atomo dell’idrogeno mentre le dimensioni di una macromolecola quale una proteina semplice sono intorno a 10 nm. Le nanotecnologie si occupano di strutture con dimensioni comprese p tra 1 e 100 nanometri e sono “nanoprodotti” quei materiali o dispositivi nei quali vi è almeno un componente con dimensioni inferiori a 100 nm. La definizione data nel 2000 nell’ambito della National Nanotechnology Initiative (NNI) USA: “Nanotechnology is the understanding and control of matter at dimensions of roughly 1 to 100 nanometres nanometres, where unique phenomena enable novel applications... applications... At this level, the physical, chemical, and biological properties of materials differ in fundamental and valuable ways from the properties of individual atoms and molecules or bulk matter” matter . Nanostrutture La materia ha una struttura discreta, formata da atomi, le cui dimensioni lineari (≈ (≈ 10-10 m) rappresentano una sorta di limite inferiore alle dimensioni di un manufatto. Si osservi che nelle trasformazioni chimiche gli atomi si assemblano in modo spontaneo e formano aggregati (molecole), ma disporre nella geometria voluta o u a 100 00 molecole o eco e ad ese esempio pod di CO2, 2 attualmente non è realizzabile. Anche le macromolecole di interesse biologico g (proteine, DNA, RNA,…) si formano spontaneamente e le più piccole strutture viventi, quali cellule di batteri, rappresentano nanostrutture che si replicano replicano. La sintesi proteica, inoltre, è un esempio di costruzione di una macromolecola che avviene assemblando piccoli aggregati di atomi. t i Le leggi fisiche che governano i nanosistemi sono quelle della meccanica quantistica quantistica. Proprietà microscopiche quali la distanza interatomica, la densità di massa, l’ energia di coesione, la funzione lavoro di un metallo paiono rimanere gli stessi anche nel cambiamento di scala da 10-3 m a 10-8 m. Alcune p proprietà, p , invece,, evidenziano cambiamenti notevoli nel passaggio dalla dimensione macroscopica p aq quella nanometrica. Esistono due metodologie per ottenere una nanostruttura: nella procedura “top “top--down” si procede a modellare la superficie di un materiale, in modo da ottenere una nanostruttura bidimensionale, mantenendo inalterate le caratteristiche del substrato. Nella procedura “bottom “bottom--up” si utilizzano atomi o aggregati (cluster) di atomi composti da qualche unità a qualche migliaio e si assemblano bl tali t li unità, ità per fformare nanostrutture quali strati monoatomici, nanocristalli, … . Sperimentalmente p è molto complesso p costruire dispositivi con forma e funzioni specifiche assemblando i singoli atomi atomi. Non si hanno metodi codificati per costruire un qualsiasi dispositivo che abbia dimensioni inferiori a 10-4 m, ad eccezione delle tecniche di fotolitografia fotolitografia, che permettono di realizzare circuiti elettronici su scala dei micrometri, sebbene bb questii siano i strutture bidi bidimensionali. i li La fotolitografia è una tecnica che permette di modellare circuiti elettronici con dimensioni p , sono divenute sempre p p più che,, nel tempo, piccole. La progressione segue la legge empirica di Moore Moore,, che sintetizza l’l economia di scala realizzata quando la stessa funzionalità si ottiene con dispositivi sempre più piccoli. La a fotolitografia o o og a a u utilizzata a a pe per ccircuiti cu microelettronici c oe e o c impiega p ega luce ultravioletta, mentre la realizzazione di nanodispositivi richiede lo sviluppo di tecniche di modellamento diverse, denominate “nanolitografie “nanolitografie nanolitografie””, che appartengono al metodo “top--bottom “top bottom”. ”. Esistono alcuni metodi efficaci, ma il più comune utilizza materiali quasi sempre polimerici (resist) disposti sul materiale da modellare. L’ irraggiamento del resist con fotoni ad altissima energia o con fasci di particelle ben collimati (ioni o elettroni) produce modificazioni della struttura polimerica, a causa della formazione di legami fra le catene polimeriche (cross(cross-linking) o di rottura di legami entro le catene. Tali danni inducono un abbassamento o un innalzamento della solubilità del polimero irraggiato (resist negativi e positivi, rispettivamente). L’ azione sul resist può essere condotta per L scrittura diretta, diretta, punto dopo punto con un f fascio i di iionii o elettroni,o l tt i nella ll modalità d lità iin parallelo, in cui si trasferisce il modello di una maschera con le caratteristiche volute sulla su a supe superficie c e de del resist es st mediante ed a te proiezione con un sistema ottico,oppure allineando la maschera per contatto o per vicinanza con la superficie del resist. Il materiale materiale, dopo l’l irraggiamento con luce UV, raggi X ( o fasci elettronici con microscopi i i elettronici l tt i i a scansione) i )è sottoposto a trattamenti chimici che rimuovono il resist esposto, nel caso di un es st negativo, egat o, mentre e t e nel e caso de del resist es st resist positivo è il polimero a permanere dopo lo sviluppo mentre il substrato è rimosso dal sviluppo, trattamento chimico. Nella litografia con fasci di ioni focalizzati, focalizzati, gli ioni ad alta energia sono indirizzati e scanditi sulla superficie bersaglio e possono spazzare via gli atomi superficiali (litografia per sottrazione), sottrazione) oppure oppure, per decomposizione di un vapore organico con il fascio ionico ionico, si ha la deposizione di uno strato di atomi (litografia addittiva). Il fascio ionico ionico, inoltre inoltre, può provocare una modificazione della struttura molecolare del resist operando in modo eq resist, equivalente i alente alla radiazione elettromagnetica ad alta energia ed d all ffascio i elettronico. l tt i Le tecniche di nanolitografia hanno limiti legati, fra l’ altro alle dimensioni del fascio incidente ed al altro, fatto che si possono modellare strutture bidimensionali (superfici), non tridimensionali. I metodi “bottom“bottom-up” che si basano sull’ aggregazione molecolare spontanea possono essere più versatili versatili. Con tali tecniche si costruiscono unità molecolari che si assemblino in modo da formare strutture di forme desiderate. Il punto critico è legato alla necessità di progettare adeguatamente i blocchi molecolari, in modo che l schema lo h di montaggio t i sia i iincorporato t nelle ll caratteristiche chimiche e fisiche delle unità, pilotando l’l aggregazione mediante la struttura dei blocchi singoli. Evoluzione dell’ elettricità e del magnetismo negli ultimi quattro secoli Elettricità, magnetismo g e struttura della materia Sin dall dall’’ antichità si conoscevano le proprietà di alcuni materiali come la magnetite, sostanza in grado di attirare frammenti di ferro ferro, si sapeva che l’l ambra o il vetro, strofinati, attiravano frammenti di opportune sostanze e che che, avvicinando alla magnetite piccole barre di ferro, queste t acquistavano i t le l stesse t proprietà i tà della magnetite, cioè “si magnetizzavano” Nel 1300 Petrus Peregrinus g de Maricourt,, che aveva costruito bussole (compassi magnetici) utilizzando aghi magnetizzati appoggiati alla superficie di un liquido, riuscì i ì a costruire t i piccole i l sfere f magnetizzate ed a dimostrare che aghi magnetizzati si orientavano sempre in g Tracciando le linee modo longitudinale. individuate dalla direzione degli aghi, Petrus Peregrinus dimostrò che esse si intersecavano in due punti opposti della sfera definiti “poli magnetici” . sfera, Solo dal 1600 si intrapresero lavori sistematici suii ffenomenii elettrici l tt i i e magnetici. ti i Willi William Gilb Gilbertt ffu uno d deii primi i i studiosi t di i ad d ideare ed eseguire esperimenti, raccolti nell’ opera “De De magnete, Magneticisique Corporibus” Corporibus (Sul Magnetismo). Gilbert creò i termini “forza elettrica”, “polo magnetico” ed “attrazione elettrica” per spiegare il comportamento dei materiali studiati e si interessò ai fenomeni magnetici, approfondendo le conoscenze sviluppate nei secoli precedenti, ampliando il numero di materiali elettrizzabili ed identificando solo azioni attrattive nei fenomeni elettrici. elettrici Otto von Guericke (nel 1600) , Charles Francois Du Fay, e Stephen St h Gray G (primi (primi i id decennii d dell 1700) 1700) ebbero bb modo d di conoscere il lavoro di Gilbert e di proseguire nella ricerca. Von Guericke si occupò di meccanica e pneumatica, dimostrando per primo la presenza della pressione atmosferica t f i e costruendo t d dispositivi di iti i per produrre d il “vuoto” e la prima rudimentale macchina a strofinio per avere elettricità statica. Gray dimostrò che le carica elettrica poteva distribuirsi da alcuni materiali, ( “conduttori”), mentre ciò non accadeva per altri lt i (i (isolanti) l ti) Du Fay dimostrò che l’ elettricità poteva essere solo di due tipi, tipi classificati come “vetroso” vetroso e “resinoso” resinoso e che oggetti con la stessa carica tendevano a respingersi, mentre oggetti con carica diversa subivano attrazione. Gli eventi sperimentali raccolti ed esaminati sino alla metà del 1700 possono essere sintetizzati nel modo seguente: Esistono materiali come vetro, resine naturali, … che, per strofinio con panni di lana, manifestano la capacità di attrarre oggetti di piccola massa massa, come sfere di sambuco del diametro dell’ dell ordine dei centimetri appese a fili di seta in una sorta di pendolo. Il materiale, allora, è detto “elettrizzato” o “carico di elettricità”. può trasmettere da un corpo p ad La condizione di elettrizzazione si p un altro per contatto diretto. Se la sferetta di sambuco è elettrizzata per contatto con una resina elettrizzata e ad essa si avvicinano materiali diversi elettrizzati per strofinio, t fi i sii osserva che h il piccolo i l pendolo d l è attratto tt tt d da alcuni l i ed dè respinto da altri. Questi eventi portano a concludere che esistano solo due stati di elettrizzazione, quello vetroso e quello resinoso. Se la stessa procedura si applica utilizzando il vetro per elettrizzare la sfera di sambuco, allora si verifica che tutti i materiali che prima erano attratti dal sambuco, ora sono respinti e quelli prima allontanati ora sono attratti dalla sfera. Ciò porta a concludere che oggetti tti con llo stesso t titipo di elettrizzazione l tt i i ttendono d a subire bi fforze elettriche repulsive e quelli con tipo di elettrizzazione diverso sono sottoposti a forze elettriche attrattive. Elettrizzando la sfera di sambuco per contatto con una resina elettrizzata per strofinio con un panno di lana e avvicinando i i d questo t ultimo lti alla ll sfera, f sii osserva che h sii hanno forze elettriche attrattive fra i due materiali. Eseguendo anche altri esperimenti con sostanze di diverse, sii giunge i alla ll conclusione l i che h nell processo di strofinio un materiale assume quella che appare come una proprietà della materia chiamata carica elettrica vetrosa e resinosa. Un materiale metallico inserito su un supporto quale vetro o resine e strofinato con un panno di lana si elettrizza e tale stato scompare se l’ oggetto è toccato da un altro metallo o da una persona. Se il metallo è tenuto in mano non si ha elettrizzazione alcuna per strofinio strofinio. Queste osservazioni dimostrano che esistono oggetti in cui lo stato di elettrizzazione si disperde attraverso il materiale stesso e e, per questo questo, tali sostanze sono definite “conduttori “conduttori elettrici”, elettrici”, mentre altre non evidenziano tale fenomeno e sono dette “isolanti “isolanti elettrici””. elettrici Pieter van Musschenbroek ed Ewald Christian Von Kleist in modo q quasi contemporaneo p ((metà del 1700), costruirono il primo dispositivo in grado di accumulare grandi quantità di elettricità (condensatore condensatore): ): la bottiglia di Leyden Leyden, utilizzata anche per studiare le caratteristiche della conducibilità elettrica,, mentre William Watson avanzò l’ ipotesi che le cariche elettriche si conservassero. H Henry C Cavendish, di h iintorno t all 1750 1750, sii iinteressò t òa misure della capacità di sostanze diverse di disperdere la carica elettrica elettrica, trasportandola nel materiale (conducibilità elettrica) e le caratteristiche dei condensatori, intesi come dispositivi in grado di accumulare l cariche i h elettriche l tt i h iin quantità tità variabile i bil iin funzione di una loro caratteristica definita con il termine“capacità” termine capacità . Nello stesso periodo Benjamin Franklin studiò i fenomeni elettrici e comprese p come i fulmini siano una manifestazione di fenomeni elettrici. Pare che sia stato Franklin a definire la carica vetrosa “positiva” + e quella resinosa “negativa” - , ad introdurre lo schema del flusso dei due tipi p di carica elettrica e della conservazione di questa, mentre per Cavendish si p p poteva p parlare di “fluido elastico” . Secondo Franklin, inoltre, inoltre, in una sostanza sono contenute cariche positive e negative in numero uguale e tale situazione corrisponde alla neutralità del materiale, mentre l’l elettrizzazione corrisponde ad una separazione delle cariche positive e negative, con il vincolo che la somma delle cariche elettriche rimanga uguale a zero.. Alla fine del 1700 A. Volta, ispirandosi ai lavori di Galvani sull’ elettricità animale, giunse alla conclusione che la fonte dell’ dell elettricità non risiedesse nei tessuti animali, ma nella combinazione dei metalli utilizzati (zinco ed ottone) e del tessuto animale. Volta sostituì la parte organica con carta imbevuta di una soluzione di acqua e sale e dimostrò come una pila di lastrine di zinco ed ottone alternate e separate dalla carta imbibita fosse in grado di generare una scarica elettrica se la prima e l’ ultima lastra erano collegate ad un conduttore metallico metallico. Volta o a non o u utilizzò ò tale aed dispositivo, spos o, la a ba batteria, e a, co come e ge generatore eaoe di una elevata quantità di carica elettrica, mentre in Inghilterra Carlisle e Nicholson costruirono batterie in grado di fornire quantità di cariche elettriche ben superiori ad altri dispositivi, (quali la bottiglia di Leyden). Con batterie sempre più complesse dimostrarono che il passaggio di cariche elettriche in acqua con sale generava i gas idrogeno ed ossigeno in rapporto di volume due di idrogeno ed uno di ossigeno ed affermarono che il passaggio di cariche elettriche in acqua produceva la decomposizione dell’ acqua nei suoi elementi. Gli effetti delle scariche elettriche prodotte delle batterie di V lt erano ttanto Volta t più iù evidenti, id ti rispetto i tt a quelle ll prodotte d tt d da macchine elettrostatiche, da indurre i ricercatori dell’ epoca a coniare il termine “corrente corrente galvanica galvanica”.. Nello stesso periodo (metà del 1700) si cercò di tradurre in espressioni matematiche le caratteristiche regolari che i diversi fenomeni elettrici e magnetici dimostravano. John Michell descrisse le interazione tra poli magnetici con una legge che prevedeva che l’ intensità della forza dipendesse dall’ inverso del quadrato d t della d ll di distanza t f i polili e llo stesso fra t ti tipo di andamento fu previsto da Joseph Priestley per la forza elettrica. Egli, infatti, dimostrò che all’ interno di sfere metalliche cave elettrizzate non si manifestano forze elettriche e, per spiegare i ttale l ffenomeno, ammise i che h cariche i h di uguale segno tendono a disporsi il più lontano possibile fra loro e che la forza agente dovesse avere un’ intensità che dipende dall’ inverso del quadrato della distanza fra le cariche. John Robinson dimostrò la correttezza di tale ipotesi, pur non pubblicando i risultati. Alla fine del diciottesimo secolo Coulomb Coulomb,, utilizzando bilance a torsione torsione, di sua invenzione ed una notevole abilità sperimentale, giunse alla formulazione della legge gg che p porta il suo nome e che permette di ottenere l’ intensità della forza F che agisce fra due sfere piccolissime elettrizzate: F = k q1·q2/r2 q1 e q2 sono le cariche elettriche su ciascuna sfera mentre t r rappresenta t la l distanza di t ffra le l sfere f cariche e k è una costante di proporzionalità. (si osser osservii come la str struttura tt ra matematica di q questa esta legge sia confrontabile con quella di Newton sulla gravitazione) Nella p prima metà del 1800 le teorie sull’ azione a distanza e gli sviluppi del calcolo differenziale ed integrale ad opera di Lagrange, Laplace, Gauss, Poisson, G Green ed d altri lt i portarono t alla ll fformulazione l i del concetto di “potenziale “potenziale elettrico” elettrico” ed all’ ipotesi della sovrapposizione degli effetti provocati da p p più cariche elettriche e,, successivamente, di “campo “campo di forze” forze” (Faraday). (Faraday) Poisson sviluppò la teoria del potenziale per i fenomeni elettrici a partire dalla teoria a due fluidi elettrici, fluidi. Nell'introduzione a “Mémoire sur la distribution de l'électricité à p conducteurs” Poisson afferma: la surface des corps “La teoria dell'elettricità più generalmente accettata è quella che attribuisce i fenomeni a due fluidi differenti che sono contenuti t ti in i ttutti tti i corpii materiali. t i li Si suppone che h molecole l l dello stesso fluido si respingono reciprocamente ed gg le molecole dell'altro fluido,, q queste forze di attraggono attrazione e repulsione obbediscono alle leggi del quadrato inverso della distanza; e alla stessa distanza il potere attrattivo è uguale al potere repulsivo, repulsivo da cui segue che quando tutte le parti del corpo contengono uguali quantità dei due fluidi, questo non esercita alcuna influenza sui fluidi contenuti nei corpi circostanti e di conseguenza non sono discernibili effetti elettrici.” Secondo Poisson uno stato naturale è uno stato di equilibrio dei due fluidi, lo stato metallico è quello in cui i fluidi possono muoversi liberamente mentre in altri, non conduttori, non possono spostarsi. Da queste condizioni Poisson deriva i teoremi sulla distribuzione delle cariche; se se, ad esempio esempio, un eccesso di fluido viene comunicato ad un corpo metallico questa carica si distribuisce sulla metallico, superficie formando uno strato il cui spessore dipende p dalla curvatura della superficie p e la forza risultante dovuta alla repulsione di tutte le particelle dello strato deve essere nulla in un punto qualsiasi interno del conduttore (ma non sulla superficie), per la condizione di equilibrio precedente. In una memoria del 1813 estende l'uso dell'equazione di Laplace al caso elettrico. L'equazione di Poisson è: δ2V/ δx2 + δ2V/ δy2 + δ2V/ δz2 = ∆V = 4πρ ρ rappresenta la densità di carica elettrica (carica per unità di superficie) V(x,y,z), (in analogia con il caso gravitazionale), it i l ) rappresenta t lla somma di tutte le cariche del sistema, divise ciascuna i per lla di distanza t d da quell punto t ed d ognuna diversa per la sua distanza dal punto in i cuii sii calcola l l il llaplaciano l i ∆V. V Gli studi sul magnetismo rimasero confinati all’ all esame del comportamento di magneti naturali almeno l sino i aii primi i id decennii d dell 1800 1800, quando Oersted, utilizzando batterie come generatori di “corrente galvanica” dimostrò cche e ag aghi magnetizzati ag et at modificavano od ca a o il loro oo orientamento se posti vicino ai generatori durante la scarica, scarica dimostrando che i fenomeni elettrici e magnetici sono legati fra lloro. oro. Ampere a partire dai lavori di Oersted Ampere, Oersted, ideò una serie di esperimenti in cui si dimostrava che h d due conduttori d i filif filiformii collegati ll ia generatori in modo che le cariche elettriche g si muovessero in verso opposto nei due fili subivano forze repulsive, mentre se il verso delle cariche nei due conduttori era lo stesso le forze erano di tipo attrattivo attrattivo. Nei lavori successivi Ampere fu in grado di descrivere i fenomeni magnetici g con una teoria matematica coerente ed efficace. Ampere dimostrò che l’ intensità delle forze agenti fra i conduttori dipende dall’ dall inverso del quadrato della distanza fra i cavi e dall’ intensità della corrente e che l’ effetto magnetico di un magnete naturale è del tutto equivalente a quello di una spira in cui fluiscono cariche elettriche elettriche. Biot e Savart dimostrarono, p poi, la legge gg che p porta il loro nome. Nei primi decenni del 1800 Faraday ed Ohm contribuirono in modo determinante all’ evoluzione delle teorie elettromagnetiche. Ohm si interessò ai fenomeni legati al fluire delle cariche elettriche in conduttori e riuscì a dimostrare che esiste una proporzionalità diretta fra a la ad differenza ee ad di pote potenziale aee elettrico ett co app applicato cato ai capi di un conduttore e il numero di cariche elettriche che passano nell’ unità di tempo attraverso una sezione qualsiasi del conduttore (corrente elettrica). La costante di proporzionalità fu definita “resistenza” resistenza (al passaggio di cariche nel materiale) ((prima prima legge di Ohm). Ohm). Ohm dimostrò,, inoltre,, che tale resistenza dipende dal tipo di materiale, è direttamente proporzionale alla lunghezza del materiale ed inversamente proporzionale alla sua sezione (seconda legge di Ohm). Ohm). Faraday descrisse il comportamento delle cariche elettriche e dei fenomeni magnetici utilizzando il concetto di” di campo di forze”: le cariche elettriche statiche o in movimento o i magneti permanenti inducono una perturbazione nello spazio intorno, definito “campo” (elettrico, magnetico). L’ effetto del campo si manifesta lungo curve dette “linee del campo di forze” forze . Faraday, come Oersted, riteneva che i fenomeni magnetici ed elettrici potessero essere descritti in una teoria unificatrice e che, se una corrente elettrica poteva produrre un “campo magnetico”, anche un campo magnetico poteva produrre una corrente elettrica. elettrica Dimostrò che un conduttore che cambiava la posizione rispetto ad un magnete era in grado di modificare l’ intensità del campo magnetico ti iin ffunzione i d dell ttempo, scoprendo d ciò iò che h che h attualmente è detto “induzione elettromagnetica”. Faraday utilizzando cariche statiche Faraday, statiche, “correnti galvaniche” da batterie ed elettricità animale per ottenere fenomeni di attrazione elettrostatica ed osservando le caratteristiche di elettrolisi e magnetismo, giunse alla conclusione che esiste g un'unica elettricità e che le diverse manifestazioni erano provocate da quantità diverse di carica elettrica e di differenza di potenziale elettrico elettrico. James Clerk Maxwell,, nella seconda metà del 1800 riuscì ad unificare in una teoria globale i fenomeni elettrici elettrici, magnetici e quelli relativi ai fenomeni luminosi, costruendo equazioni che h permettono tt di calcolare l l lla variazioni i i id deii campi elettrico e magnetico. Tali equazioni dimostrano che esiste una correlazione tra p elettrico,, campo p magnetico g e velocità campo della luce. Maxwell da tale relazione Maxwell, relazione, descrisse la luce in termini di campi elettrici e magnetici concatenati che si propagano nello spazio. Nei decenni successivi H. Lorentz, a partire dalle equazioni di Maxwell, derivò le leggi dell’ ottica e dimostrò la legge che porta il dell suo nome che lega l’ intensità della forza che agisce su una carica elettrica in moto con velocità v al campo magnetico in cui la carica i sii ttrova. Heaviside, ea s de, inoltre, o t e, introdusse t odusse nelle e e equa equazioni o dell’ elettromagnetismo il calcolo vettoriale nella forma utilizzata attualmente attualmente. Gli esperimenti di Coulomb sull’ sull elettricità introdusse il concetto di forza che agisce fra cariche i h puntiformi, tif i mentre t A Ampere osservò ò le forze mutue fra spire percorse da cariche elettriche in movimento. Successivamente si ritenne significativo introdurre il concetto di “campo elettrico” E come forza p per unità di carica ((E E = 1/q q F) e di “campo magnetico” B come una forza per unità di corrente corrente. È opportuno pp osservare che i concetti di “campo p elettrico” E e “campo magnetico” B furono introdotti inizialmente nell’ equazione q di Lorentz: F = q ( E +v/cx B) che permette di calcolare la forza che agisce su una carica puntiforme che si trova in un campo elettrico E e magnetico B B. Tali grandezze permettono di separare idealmente le sorgenti del campo dalle sonde: se due sorgenti producessero lo stesso effetto in una regione, allora la forza su una carica campione sarebbe la stessa, indipendentemente dal tipo di sorgente. I campi elettrico e magnetico, inoltre, possono manifestarsi anche in regioni prive di sorgenti. Attualmente si ritiene che la legge di Coulomb sia corretta su scale che vanno dai 10-15 m a 107 m e, quindi, che la massa dei fotoni possa essere considerata nulla. Le equazioni di Maxwell per sorgenti nel vuoto di E =4π div =4 4π ρ rot B -1/c ((δ δE/ δt) = 4 π/c J, rot E + 1/c (δ (δB/ δt) = 0 div B = 0 descrivono i fenomeni elettromagnetici globalmente. l b l t Le equazioni di Maxwell precedenti sono lineari per i campi elettrico e magnetico: gruppii di cariche i h e correnti ti producono d fforze elettriche e magnetiche globali che si calcolano sommando le forze dovute alle ssingole go e ca cariche c e o co correnti. e t La sovrapposizione lineare dei campi E e B è adeguata d t sia i su scala l macroscopica i sia i a livello atomico, sebbene siano evidenti effetti non lineari, ad esempio su cristalli p ad intensi fasci luminosi sottoposti Formule chimiche La determinazione della composizione di una sostanza pura richiede metodiche spesso lunghe e complesse per ottenere un composto puro da sottoporre p p all’ analisi elementare,, p per avere i dati sulle masse degli elementi che costituiscono la sostanza e ricavare, in tale modo, la sua formula chimica, attraverso calcoli che si basano sul numero di moli degli elementi presenti. presenti Avendo la possibilità di conoscere le formule chimiche è opportuno ridefinire il termine “sostanza pura”. Una sostanza pura ha una composizione uniforme e costante ed è caratterizzata adeguatamente specificando il tipo di unità microscopiche ( tutte uguali fra loro) loro) che la formano Tali unità possono essere atomi atomi, gruppi di atomi legati stabilmente fra di loro (ed allora si parla di molecole), ), ….,, le quali q ne determinano il comportamento chimico e fisico. Per identificare una sostanza pura è necessario utilizzare un nome, assegnato mediante una serie di regole stabilite attualmente a livello mondiale (norme IUPAC), o una formula chimica che indica la composizione p della unità microscopica che caratterizza la sostanza. sostanza.