Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO UNO SGUARDO ATTRAVERSO L’OBIETTIVO La Magia della Luce A.S 2014-2015 MAHDI SARHAN Classe 5ASA Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO INDICE MAPPA DEI CONCETTI INTRODUZIONE LA FOTOCAMERA E I SUOI ELEMENTI PARTE TECNICA LA FISICA DELLA FOTOGRAFIA: DALL’OTTICA AL DIGITALE o L’OTTICA o DALLA CHIMICA ALLE ONDE ELETTROMAGNETICHE L’ISOMERIA OTTICA DEGLI IDROCARBURI E LA POLARIZZAZIONE o LE ONDE ELETTROMAGNETICHE o DALLE ONDE ELETTROMAGNETICHE AI FOTONI o DALLA FISICA AL DIGITALE LA MATEMATICA DEI PIXEL: LA SERIE DI FOURIER LA COMPUTER GRAPHICS E L’EQUAZIONE DI RENDERING FOTOGRAFIA COME ARTE UNO SGUARDO SULLA FOTOGRAFIA IN TERMINI LETTERARI LA BIBLIOGRAFIA 1 1 2 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO Mappe Concettuali AlHazen Arte: Land Art Fisica: Ottica e Luce Fotografia Dalle onde elettromagnetiche al dualismo ondaparticella Chimica: Isomeria Ottica e Polarizzazione Fotografia Ottica Letteratura: Verismo Fotografia Digitale Informatica: Computer Graphics ed Equazione di Rendering Matematica: Serie di Fourier 2 Luce e fotoni Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO Molto più che una semplice tesina sulla fotografia… La fotografia PICCOLA DEFINIZIONE Una fotografia è una immagine ottenuta tramite un processo di registrazione permanente e statica delle emanazioni luminose di oggetti presenti nel mondo fisico, selezionate e proiettate da un sistema ottico su una superficie fotosensibile: emulsione chimica per la fotografia fotochimica, cioè quella tradizionale dalle origini ai giorni nostri, sensore elettronico per la fotografia elettronica, oggi digitale. Il termine deriva dal francese photographie, proveniente dall'inglese photography, composizione di foto- (dal greco luce) e -grafia (dal greco disegno). Con il termine fotografia si indicano tanto la tecnica quanto l'immagine ripresa. L'estrema versatilità di questa tecnica ne ha consentito l'utilizzo nei campi più diversi delle attività umane, dalla ricerca scientifica all'intrattenimento, dalla pubblicità al giornalismo, fino a consacrarla come autentica forma d'arte. INTRODUZIONE La fotografia è un’immagine che rappresenta la realtà effettiva delle cose e per molte persone è sinonimo di ricordo. Quando qualcuno scatta una fotografia lo fa con l’intento di fermare quell’attimo per riviverlo in futuro. Ma la fotografia non è solo una semplice immagine in grado di stimolare le nostre emozioni, perché ha rivelato la sua utilità in molti ambiti della scienza. Sin dalla sua invenzione, agli inizi del 1800, essa fu utilizzata dai pittori come documentazione visiva più fedele che qualsiasi schizzo realizzato osservando “il vero”. Gli scrittori, invece, quali i veristi la utilizzarono come “metodo” per realizzare i loro racconti; essi quindi dovevano essere oggettivi e realisti, dovevano cioè descrivere la situazione delle persone com’era veramente. Con il passare del tempo e l’evolversi delle tecnologie, la fotografia iniziò a essere utilizzata sempre in più campi. Divenne, ad esempio, strumento di sviluppo per il giornalismo e l’editoria e un ottimo strumento per le testimonianze storiche; In conclusione ciò di cui voglio parlare nella mia tesina sono i vari aspetti della fotografia, partendo dagli aspetti tecnici e scientifici, più importanti secondo me, e analizzando in seguito il suo uso nel corso del tempo in ambito letterario e artistico. “La fotografia è probabilmente fra tutte le forme d'arte la più accessibile e la più gratificante. Può registrare volti o avvenimenti oppure narrare una storia. Può sorprendere, divertire ed educare. Può cogliere e comunicare emozioni e documentare qualsiasi dettaglio con rapidità e precisione”. John Hedgecoe 3 3 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO LA FOTOCAMERA E I SUOI ELEMENTI Gli elementi della fotocamera sono: OBBIETTIVO: Messa a fuoco; Sistema di lenti; Diaframma (una lente che si apre e si chiude): regola la quantità di luce che entra nella camera oscura, qui l’immagine giungerà ribaltata e rimpicciolita; Zoom, nell’obbiettivo a distanza focale variabile. CORPO MACCHINA: Pellicola Tempo di posa (scatto) o otturazione: regola il tempo Sistema di specchi (reflex) o pentaprisma: impiegato nel mirino delle reflex, affinché l’immagine riflessa nello specchio non appaia capovolta. IRIDE/DIAFRAMMA: regolano l’esatta quantità di luce in ingresso necessaria ad un giusto contrasto dell’immagine. CRISTALLINO/LENTE: Regolano la nitidezza dell’immagine (messa a fuoco). RETINA/PELLICOLA: Sono superfici fotosensibili ossia sensibili alla luce. Nella superficie retinica dell’occhio la fovea è sensibile ai colori. Nelle fotocamere digitali la pellicola è stata sostituita da un sensore. 4 4 OCCHIO Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO MACCHINA FOTOGRAFICA 5 Pellicola, superficie piatta, fotosensibile, chimicamente trattata. Riceve l’immagine ribaltata (anche nei colori) Retina, superficie dell’occhio fotosensibile alla luce e rimpicciolita. La pellicola può essere colorata o e alla sua assenza. bianca e nera. Superficie retinea (2%), piccola repressione della fovea, sensibile ai colori. Pellicola colorata. Diaframma, dispositivo ottico a lamelle che regola l’esatta quantità di luce che deve entrare attraverso l’obbiettivo e giungere alla pellicola. Si chiude al momento dello scatto. Iride, muscolo che si contrae quando vi è mancanza Regola anche la messa a fuoco (foto ben esposta, né troppo di luce, quando c’è molta luce si rilassa facendone chiara né troppo scura). Per esempio, in situazioni di luce entrare poca. scarsa, si può usare un diaframma molto aperto oppure un maggior tempo di esposizione per catturare più luce; in caso di forte luce, si ridurranno i tempi o si chiuderà il diaframma. Cristallino, lente naturale, trasparente del nostro occhio, costituita da particolari proteine, consente la messa a fuoco. Sistema di lenti, consentono la messa a fuoco. Vi è uno strumento, l’ESPOSIMETRO, che misura la giusta esposizione di luce. Diaframma e tempo di scatto sono collegati tra loro: all’aumentare dell’uno, l’altro diminuisce ANGOLO DI VISIONE dipende dal tipo di obbiettivo: Grandangolari, a distanza focale (40mm) Normali da 40 a 80 Teleobbiettivi Zoom a distanza focale variabile 5 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO Parte Tecnica 1 Obiettivi Caratteristiche degli obiettivi 2 Pellicole e Sensori Confronto tra formati 3 Il diaframma Il Diaframma e la quantità di luce Il Diaframma e la Profondità di campo 6 6 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO Ingrandimento Formula approssimata La formula relativa all’ingrandimento per un obiettivo fotografico di focale ‘f’ quando fotografa un oggetto a distanza ‘So’ è: 𝒇 𝑴 = ⁄𝑺 𝒐 Maggiore è la focale della lente e maggiore sarà l’ingrandimento. Ingrandimento e sensore La relazione L’immagine fotografica deve formarsi su un negativo o un CCD di dimensione fissa: maggiore è l’ingrandimento e minore sarà il campo di visione inquadrato. Mentre le dimensioni di un oggetto su di un negativo dipendono esclusivamente dalla focale di un obiettivo, l’angolo di campo inquadrato dipende invece dalle dimensioni del negativo. Sia α l’angolo di campo: obiettivi di corta focale sono quelli che hanno α ≥ 65° e obiettivi di lunga focale quelli per cui α ≤ 35°. Si definisce talvolta una “focale normale”, cioè quella che rende la prospettiva la più vicina possibile alla visione umana. In genere si fissa tale valore come α = 53°. Nel caso del formato 35 mm o di una macchina digitale in cui il sensore misuri 24x36 mm si possono trovare le relazioni di questa tabella. f (mm) α◦ 28 75 50 47 105 23 135 18 300 8 Tabella: Corrispondenza tra focale e angolo di campo per il formato 24x36 La pellicola “classica” La pellicola più utilizzata all’epoca della fotografia analogica era quella nel formato 24X36 millimetri. Essa `e detta anche 35 millimetri, poiché questa è la misura di un lato tenendo conto anche della parte con i buchi per l’aggancio della pellicola 7 7 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO Dalla pellicola ai sensori Un passaggio epocale Al giorno d’oggi è sempre più evidente il passaggio da pellicola a sensore digitale, al punto che la foto di inizio mandato del Presidente degli Stati Uniti Obama è stata la prima della storia ad essere stata realizzata utilizzando un sensore digitale A differenza della pellicola, in cui il formato 24X36 aveva assunto il significato di uno “standard”, nei sensori digitali vi sono molte dimensioni diverse. Al momento attuale le macchine aventi un sensore di dimensioni 24X36 sono 5, anche se è prevedibile che aumentino sempre più. Tutte le altre macchine digitali hanno sensori di dimensioni minori. 8 8 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO Se il sensore è più piccolo l’area inquadrata sarà minore, come se stessimo utilizzando un obiettivo di focale maggiore: ma le dimensioni dell’oggetto sul sensore non cambiano. Il Diaframma A cosa serve Il diaframma è un foro che serve a far passare la luce che formerà l’immagine. Più aperto è il diaframma e maggiore sarà la luce che arriverà sul sensore. L’apertura relativa N di un obiettivo è data dal rapporto tra la focale f e il diametro del diaframma D: 𝒇 𝑵 = ⁄𝑫 Esempio: un obiettivo con diametro di 2.5 cm e con focale di 100 mm ha un’apertura relativa di N = 10/2.5 = 4. In genere si tende a scrivere tale valore come f-numero: f/4. Più piccolo l’fnumero e più aperto l’obiettivo. 9 9 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO Gli f/numero: loro significato I numeri che compaiono sulla ghiera del diaframma sembrano essere scelti a caso: 2.8 4 5.6 8 11 16 22 In realtà sono selezionati in modo tale che passando da un numero a quello immediatamente inferiore l’area del diaframma raddoppia. La messa a fuoco Limiti dell’obiettivo Un obiettivo riesce a mettere a fuoco (cioè a creare un’immagine puntiforme) solo un piano a una distanza data. Ogni punto oggetto a un’altra distanza formerà un’immagine circolare detta “disco di confusione” Il disco di minima confusione Non è necessario che l’immagine sia perfettamente a fuoco per essere accettabile. Basta che l’immagine di un punto sia un disco sufficientemente piccolo, così da essere visto come un punto. Cioè l’immagine di un punto deve essere più piccola di un “disco di minima confusione”. In queste condizioni diremo che l’immagine è nitida. Per il tradizionale formato 24X36 nelle normali condizioni di visione il disco di minima confusione ha un diametro di circa 0.03 mm. Profondità di campo 10 10 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO La profondità di campo è quella distanza (misurata sull’asse della lente) per cui si ha un’immagine sufficientemente nitida. A parità di distanza dell’oggetto dall’obiettivo, più chiuso è il diaframma e minore sarà la dimensione del disco di confusione. Alcune considerazioni che nascono dall’esperienza La profondità di campo aumenta chiudendo il diaframma La profondità di campo è maggiore per le focali corte rispetto alle focali lunghe La profondità di campo aumenta all’aumentare della distanza del soggetto Tali condizioni possono essere anche viste sotto forma matematica Punto prossimo e punto remoto Punto Prossimo E` il punto più vicino all’obiettivo che può ancora essere considerato nitido. Lo indicheremo con PP Punto Remoto E` il punto più lontano dall’obiettivo che può ancora essere considerato nitido. Lo indicheremo con PR Formule matematiche Punto prossimo 𝑷𝑷 = 𝒖𝒇𝟐 𝒇𝟐 + 𝑵𝑪𝒖 𝑷𝑹 = 𝒖𝒇𝟐 𝒇𝟐 − 𝑵𝑪𝒖 Punto remoto Dove ‘u’ è la distanza su cui è messo a fuoco l’obiettivo, f la focale dell’obiettivo, N l’f/numero e C il diametro del disco di minima confusione. Dalle formule del punto prossimo e punto remoto è possibile ricavare la formula per la profondità di campo T 𝑻= 𝟐𝒖𝟐 𝒇𝟐 𝑵𝑪 𝒇𝟒 + 𝑵𝟐 𝑪𝟐 𝒖𝟐 Esiste anche una formula approssimata di più semplice lettura 𝑻 ≈ 𝟐𝒖𝟐 𝑵𝑪 𝒇𝟐 11 11 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO Profondità di campo Dipendenza dalla focale Dipendenza dall’apertura del diaframma Dipendenza dalla distanza del soggetto 12 12 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO La Fisica della Fotografia Dall’Ottica al Digitale L'ottica AlHazen e l’origine dell’Ottica Moderna Alhazen, o Abū ʿAlī al-Ḥasan ibn al-Ḥasan ibn al-Haytham (in arabo: ( )ابن الهيثمBassora, 965 circa – Il Cairo, 1039), è stato un medico, filosofo, matematico, fisico ed astronomo arabo. Fu sicuramente uno dei più importanti e geniali scienziati del mondo islamico (ed in genere del principio del secondo millennio). Inoltre è considerato l'iniziatore dell'ottica moderna. Fu soprattutto nell'ottica che le sue ricerche produssero risultati d'eccezione. Studiando l'ottica euclidea, enunciò teorie sulla prospettiva, della quale focalizzò il suo interesse sui tre punti fondamentali (il punto di vista, la parte visibile dell'oggetto e l'illuminazione), riformulando i modelli geometrici che ne descrivevano le relazioni. Demolizione delle vecchie teorie sull'ottica In epoche successive sarebbe stato considerato il maggior esponente della "scuola araba" dell'ottica anche perché i suoi studi furono di notevole influenza nella demolizione delle vecchie teorie sulla natura e sulla diffusione delle immagini visive: in antico, con i primi studi si riteneva che la luce fosse una soggettiva (e per questo relativa) elaborazione della psiche umana. In seguito si era cominciato a parlare di "scorze" (o "èidola") sostenendo che particelle di ogni oggetto osservato (sorta di "ombre" che ne riproducevano la forma ed i colori) si staccassero dall'oggetto per raggiungere l'occhio umano (sebbene questa teoria non potesse spiegare l'accesso all'occhio delle "ombre" di grandi montagne se non supponendo una misteriosa progressiva riduzione dimensionale in corso di tragitto). A questa teoria seguì quella dei "raggi visuali", per la quale l'analisi dell'assunzione delle informazioni visive da parte del cieco, che le ricava con un bastone, avrebbe dovuto spiegare che l'occhio sarebbe stato dotato di una sorta di "bastoni" coi quali percuotere il mondo visibile e ricavarne le informazioni ottiche. La teoria era esposta alle argomentazioni di chi eccepiva che questa non avrebbe spiegato la mancanza di visione notturna (o in assenza di luce), non avrebbe spiegato quella che oggi si conosce come rifrazione e, soprattutto, non spiegava come potesse fare l'occhio umano a "toccare" coi suoi supposti bastoncini sensoriali oggetti lontanissimi come il Sole e le stelle. La scuola araba delle scorzettine dell'ottica Della scuola araba dell'ottica, Alhazen è in genere considerato il primo e massimo, geniale, esponente. Fu grazie ai suoi studi che si poterono formulare nuove ipotesi, fresche anche per mancanza di inerzie culturali, e che lo studio di queste materie ebbe la possibilità di costituirsi in "scuola", destinata a formare un numero (per i tempi assai rilevante) di studiosi specialistici. Un elemento che attrasse la sua attenzione fu la persistenza delle immagini retinee, insieme alla sensazione dolorosa procurata dall'osservazione di fonti di intensa luminosità, come il Sole. Se infatti, fu il suo ragionamento, davvero fosse stato l'occhio a "cercare" con raggi o bastoncini l'oggetto, non vi sarebbe potuta essere persistenza delle immagini durante la pur rapida chiusura delle palpebre (mentre questo rapido movimento è comunemente impercettibile proprio per la persistenza dell'immagine - oggi sappiamo - sul fondo della retina). Inoltre, se 13 13 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO l'occhio, organo di senso, davvero gestisse autonomamente le informazioni visive, non "toccherebbe" lo "scottante" Sole e nessun'altra fonte fastidiosa, non procurandosi dolore né abbacinamento. Demolita così la teoria dei raggi visuali, Alhazen si rifece a quella delle scorze, supponendo stavolta che l'acquisizione delle informazioni luminose fosse sì dovuta ad un agente esterno, ma che questo non rilasciasse "ombre", viaggianti in forma di "scorze" appositamente in direzione dell'occhio dell'osservatore, bensì delle "scorzettine", emesse dall'oggetto in tutte le direzioni. Per questo, dovette affrontare una ipotesi di scomposizione rudimentalmente particellare di ciascuno degli oggetti osservati, ed attribuire a ciascuna infinitesima componente di ciascun oggetto la capacità di emissione di scorzettine in ogni direzione. Le "scorzettine" La genialità della scomposizione particellare consisteva nella prima monizione (elaborata in forma, si noti, squisitamente logica) di un embrione della teoria corpuscolare: da ciascun oggetto, anzi da ciascuna delle piccolissime parti componenti l'oggetto si sarebbero staccate "informazioni luminose" (scorzettine) che avrebbero raggiunto l'occhio, attraversato il cristallino, penetrata la pupilla, attraversato il globo oculare fermandosi sul fondo. Per ogni oggetto, poi, per ogni particella di questo, di tutte le scorzettine emesse in tutte le direzioni, una sola avrebbe potuto colpire la cornea normalmente (cioè, secondo una traiettoria rettilinea perpendicolare al piano della cornea), attraversarlo e giungere a destinazione. L'unicità della scorzettina evitava la duplicazione di immagini e la confusione sulla retina di ciascuna particella, consentendo una visione ordinata. A questa teoria lo scienziato aggiungeva per corollario l'ipotesi che vi fossero due tipi di scorzettine, alcune "normali" (secondanti appieno la sua teoria) ed altre "irregolari". Mentre le normali avrebbero raggiunto regolarmente la retina procedendo in linea retta e con velocità finita, le altre sarebbero state fermate dalla rifrazione e respinte, negando la visione di talune parti di oggetti. Della rifrazione andava del resto abbozzando rudimenti teorici, avendo effettuato esperimenti su oggetti trasparenti (vetrosi) di forma sferica o cilindrica, e della riflessione e dell'assorbimento stava per dedicarsi a studi più profondi. Sulla retina, le scorzettine regolari (una per ciascuna delle componenti particellari dell'oggetto) si sarebbero fermate a fornire l'informazione visiva che, insieme alle altre scorzettine regolari giunte a destinazione, avrebbe consentito di ricostruire una informazione generale sull'oggetto che le aveva emesse. L'immagine sarebbe dunque stata il risultato della ricezione-percezione della somma delle scorzettine emesse da ciascuna particella dell'oggetto, ordinate dall'occhio in una visione finalmente comprensibile. Avendo studiato a fondo l'anatomia dell'occhio, ed avendo per questo maturato una profonda consuetudine con le teorie di Galeno (dal quale aveva appreso della cornea e delle tuniche), Alhazen si rese conto (ben prima che la nozione divenisse di generale accettazione) che le scorzettine, attraversando il globo (nell'allora solo supposta traiettoria rettilinea), si sarebbero disposte sulla retina in ordine inverso, come in effetti accade: l'immagine risultante sulla retina è effettivamente capovolta, e Alhazen lo aveva intuito con semplici schemi di geometria. La ricerca del sensorio Non disponendo di migliori elementi, e non potendo accettare che l'immagine si capovolgesse (giacché l'uomo la vede "correttamente" - oggi si sa però che non è così), ma comunque ben saldo nella consapevolezza del valore della sua teoria, si risolse a cercare il "sensorio", cioè il nervoche trasmette le informazioni al cervello, in un punto della 14 14 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO traiettoria delle scorzettine che fosse raggiunto precedentemente al punto di "capovolgimento" (il centro del globo oculare). E davanti al centro del globo vi erano l'ininfluente liquido, il foro della pupilla ed il solo elemento trasparente ma solido, il cristallino. Fu in questo perciò che Alhazen dedusse doversi trovare il sensorio e quindi doversi raccogliere l'immagine corretta. La specialità della luce solare La considerazione delle caratteristiche dell'illuminazione, ormai senza più dubbio attribuita all'effetto della luce solare, unita alla considerazione delle sensazioni dolorose arrecate dall'osservazione diretta del massimo Astro, condusse Alhazen ad ipotizzare che dal Sole promanasse qualcosa (forse non propriamente scorzettine nel senso che aveva già individuato) capace di provocare l'emissione di scorzettine "ordinarie" da parte degli oggetti colpiti dalla luce solare. Intuì dunque una sorta di forza, di energia emessa dal Sole (ma non pervenne ad una sua precisa definizione), tanto forte da suscitare la produzione di informazioni visive provenienti dagli oggetti e troppo forte per l'occhio, che di tali scorzettine doveva riceverne, non produrne. Questa sorta di radiazione gli consentì di ipotizzare che il colore fosse effetto d'una radiazione secondaria, emessa dagli oggetti colorati che fossero stati sollecitati da un agente primario, come la luce del Sole; si spinse ad ipotizzare, per primo, che la luce solare illuminasse la Luna e che questa la riflettesse sulla Terra. Sintetizzando, Alhazen introdusse l'ipotesi che (come poi sarebbe stato sviluppato dalla teoria corpuscolare) la visione dipendesse da un agente esterno (il lumen, concetto innovativo rispetto alla lux) e che le informazioni fornite dai lumen fossero in realtà un flusso di particelle materiali emesse dagli oggetti. La camera oscura e le illusioni ottiche Lo studio sul capovolgimento dell'immagine all'interno del globo oculare, dovuto al passaggio per lo stretto foro della pupilla, diede lo spunto ad Alhazen per sviluppare il primo studio in assoluto sulla camera oscura. Lo scienziato descrisse con grande anticipazione ed esattezza il meccanismo di capovolgimento dell'immagine che attraversando un foro si fermava sul fondo della camera. Dalla Chimica alle Onde Elettromagnetiche L’Isomeria Ottica degli Idrocarburi e la Polarizzazione L’isomeria è quel fenomeno per cui a una stessa composizione chimica corrispondono diverse disposizioni spaziali degli atomi costituenti. Sono isomeri quei composti che hanno la stessa formula bruta ma che differiscono per il modo in cui gli atomi sono legati tra loro o sono disposti nello spazio. In English: compounds that have the same molecular formula but differs for the structure. Negli isomeri di struttura gli stessi atomi sono legati in modo diverso. Esistono 2 tipi di isomeri di struttura: isomeri di catena, nei quali la catena può essere lineare o ramificata isomeri di posizione se le molecole contengono atomi diversi da C e H Esiste anche l’isomero di gruppo funzionale. L’isomeria ottica, invece, come quella geometrica, è un tipo di stereoisomeria. Tutti gli oggetti che, come le mani, mancano di un piano di 15 15 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO simmetria, vengono chiamati chirali, ovvero distinguibili dalla loro immagine speculare. Sono invece achirali tutti gli oggetti (una palla, un cubo) che presentano un piano di simmetria, perché sono sovrapponibili alla loro immagine speculare tramite traslazioni e rotazioni. Anche le molecole possono essere chirali, a patto che la loro struttura non presenti piani di simmetria. Ciò accade quando, per esempio, un atomo di carbonio lega a sé, secondo una geometria tetraedrica, 4 atomi (o gruppi atomici) diversi; in tal caso si dice che l’atomo di carbonio è un centro chirale o stereocentro. Coppie di molecole non sovrapponibili l’una alla sua immagine speculare, comunuqe la si ruoti nello spazio, vengono chiamate isomeri ottici o enantiomeri. Gli enantiomeri hanno proprietà achirali identiche: punto di fusione, punto di ebollizione, densità, solubilità e reattività con reagenti achirali. Hanno invece proprietà chirali diverse. A livello macroscopico la chiralità si può mettere in evidenza con un fenomeno fisico: la capacità di far ruotare il piano della luce polarizzata. Ma cos’è la luce polarizzata? La luce visibile è un’onda elettromagnetica dove le oscillazioni dei campi magnetici ed elettrici avvengono casualmente in tuttti i piani perpendicolari alla propagazione dell’onda luminosa. Se la luce attraversa un filtro polaroid viene polarizzata, cioè oscilla in un solo piano. Gli enantiomeri fanno ruotare il piano della luce polarizzata di uno stesso angolo, ma in direzione opposta. Per questo motivo si chiamano anche antipodi ottici. Proprio perché hanno identiche proprietà fisiche, è molto difficile separare una coppia di antipodi ottici. Gli enantiomeri, o antipodi ottici, sono stereoisomeri che risultano l’uno l’immagine speculare dell’altro e presentano attività ottica opposta. In English: stereoisomers of a chiral substance that have a mirror-image relationship. Lo strumento che serve a studiare l’attività ottica delle sostanze chimiche è il polarimetro. Esso è dotato di una sorgente di luce, di due filtri polarizzatori e di un tubo porta-campioni. Il primo filtro polarizza la luce (polarizzatore); il raggio polarizzato attraversa il secondo filtro (analizzatore) e arriva al nostro occhio soltanto se i due filtri hanno assi di polarizzazione paralleli. Se interponiamo un campione fra due filtri con assi paralleli, vediamo il raggio luminoso a patto che il campione sia otticamente inattivo. In caso contrario, il campione ruota di un certo angolo il piano della luce polarizzante e il raggio non può emergere dal filtro polarizzatore. Per vederlo nuovamente è necessario ruotare il 16 16 17 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO filtro analizzatore dello stesso angolo ; se la rotazione è verso destra si dice che la sostanza è destrogira ( + ), se verso sinistra levogira ( - ). Il miscuglio al 50% di due enantiomeri è detto racemo e non è otticamente attivo. In English: Racemate A mixture consisting of equal parts (+) & (-) enantiomers of a chiral substance. E’ da qui che parto spiegando le onde elettromagnetiche e la luce Le Onde Elettromagnetiche Il Campo Elettrico Indotto Il campo elettrico che causa una corrente indotta, detto campo elettrico indotto, è generato da un campo magnetico che varia nel tempo. Il campo magnetico variabile dà origine a un campo elettrico indotto. Quindi un campo elettrico può essere generato da: cariche elettriche campi magnetici variabili La Circuitazione del Campo Elettrico Indotto Il campo elettrico indotto è caratterizzato dal valore della sua circuitazione, che è dato dalle formule: 𝚪 (⃗⃗⃗𝑬) = − ∆𝚽(⃗⃗⃗⃗ 𝑩) ∆𝒕 oppure 𝚪 (⃗⃗⃗𝑬) = − 𝒅𝚽(⃗⃗⃗⃗ 𝑩) 𝒅𝒕 (1) Il comportamento del campo elettrico dipende quindi dal valore assunto dal secondo membro della formule precedenti: ⃗ nullo ) e delle correnti continue ( 𝐵 ⃗ costante ) con circuiti nel caso dell’elettrostatica ( 𝐵 ⃗)=0e fissi, la variazione del flusso di campo magnetico è nulla; in questo caso si ha 𝛤(𝐸 si conferma che il campo elettrostatico è conservativo, per cui si può definire la grandezza «energia potenziale»; se il campo magnetico è variabile oppure i circuiti sono in movimento, il secondo membro delle formule (1) può essere diverso da zero. In tali situazioni, quindi, la circuitazione del campo elettrico è diversa da zero e ne risulta che il campo eletttrico indotto non è conservativo, e il potenziale elettrico non può essere definito. Calcolo della Circuitazione del Campo Elettrico Indichiamo con 𝐹(𝑖𝑒) la forza elettrica, dovuta all’induzione elettromagnetica, che agisce su una carica di prova q, presente nell’anello conduttore in cui scorre la corrente indotta. Il campo elettrico indotto si calcola, al solito modo, mediante la formula ⃗ ⃗𝑬 ⃗ = 𝑭(𝒊𝒆) 𝒒 (2) Sappiamo che la forza elettromotrice è definita come: 𝑓𝑒𝑚 = 17 𝑊 𝑞 (3) Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO dove W è il lavoro fatto dalle forze non elettrostatiche nel trasportare la carica q. Il lavoro elementare ∆𝑊𝑘 compiuto dalla forza 𝐹𝑘 (𝑖𝑒) ,dovuta al campo elettrico indotto, per spostare q del tratto ∆𝑙𝑘 è ∆𝑊𝑘 = 𝐹𝑘 (𝑖𝑒) ∙ ∆𝑙𝑘 e il lavoro totale si ottiene sommando tutti i lavori elementari 𝑛 𝑛 𝑊 = ∑ ∆𝑊𝑘 = ∑ 𝐹𝑘 (𝑖𝑒) ∙ ∆𝑙𝑘 𝑘=1 𝑘=1 A questo punto si può calcolare la forza elettromotrice che, secondo la formula (3), risulta 𝑛 𝑓𝑒𝑚 𝐹𝑘 (𝑖𝑒) 𝑊 = =∑ ∙ ∆𝑙𝑘 𝑞 𝑞 𝑘=1 Per la formula (2), il rapporto F⃗ k (ie) q ⃗ 𝑘 che esistenella zona descritta è il campo elettrico indotto 𝐸 dallo spostamento ∆𝑙𝑘 . La formula precedente si può riscrivere quindi come 𝑛 𝑓𝑒𝑚 = ∑ 𝐸⃗𝑘 ∙ ∆𝑙𝑘 𝑘=1 Sappiamo che il valore di 𝑓𝑒𝑚 è dato dalla legge di Faraday-Newmann-Lenz 𝑓𝑒𝑚 = − ⃗) ∆Φ(𝐵 ∆𝑡 sostituendo otteniamo Γ(𝐸⃗ ) = − ⃗) ∆Φ(𝐵 ∆𝑡 Il termine mancante La scoperta dell’induzione elettromagnetica porta a modificare la legge che fornisce la circuitazione del campo elettrico: da ⃗ )/ ∆t. Γ(𝐸⃗ ) = 0 a Γ(𝐸⃗ ) = −∆Φ(𝐵 Ci si può chiedere allora se debba essere cambiata anche la legge di Ampère, ⃗ ) = µ0 ∑𝑛𝑘=1 𝑖𝑘 , che descrive la circuitazione del campo magnetico. Γ(𝐵 Il fisico scozzese James Clerk Maxwell scoprì una ragione che obbligava a modificare la legge di Ampère. Consideriamo un condensatore che si sta caricando perché nei fili collegati ad esso fluisce una corrente elettrica i. ►Per la legge di Ampère, le circui- ►A S3 non è concatenata alcuna cor- ►Non si può calcolare la cir- tazioni calcolate lungo S1 e S2 val- rente elettrica. Quindi, per la legge di cuitazione lungo S4 perché valgono µ0i,perché a essi è conca- ⃗ lungo S3 Ampère, la circuitazione di 𝐵 non si sa se i è concatenata tenata una corrente di valore i. vale zero. a S4. 18 18 19 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO Appicando la legge di Ampère, la circuitazione del campo magnetico deve diventare uguale a zero all’interno del condensatore. Inoltre, in corrispondenza del bordo del condensatore il ⃗ ) è indeterminato. valore di Γ(𝐵 Per evitare questo risultato, logicamente insoddisfacente, Maxwell corresse la legge di Ampère: ⃗ ⃗ ) = µ0 (𝑖 + ε0 ∆Φ(𝐸)) Γ(𝐵 ∆𝑡 (4) dove il flusso del campo elettrico è calcolato attraverso una superficie che ha come contorno il cammino lungo il quale si esegue la circuitazione. Il termine aggiunto 𝑖𝑠 = ε0 ∆Φ(𝐸⃗ ) ∆𝑡 (5) è detto corrente di spostamento. Dalla formula (4) risulta che un campo elettrico variabile genera un campo magnetico Quindi un campo magnetico può essere generato da: cariche elettriche campi elettrici variabili Il calcolo della corrente di spostamento Adesso calcoliamo il flusso del campo elettrico attraverso una superficie di area S uguale a quella delle armature e posta all’interno del condensatore. Utilizzando il teorema di Gauss, consideriamo la superficie che ci interessa come parte di un cilindro chiuse che racchiude l’armatura positiva del condensatore. Il campo elettrico prodotto dal condensatore è nullo al di fuori di esso e, all’interno, è parallelo alla superficie laterale del cilindro. Se indichiamo con 𝑄 la carica che si trova sull’armatura positiva, per il teorema di Gauss il flusso del campo elettrico attraverso 𝑆 è uguale a Φ1 (𝐸⃗ ) = 𝑄 ε0 Dopo un breve intervallo di tempo ∆𝑡 la carica sul condensatore è 𝑄 + ∆𝑄 = 𝑄 + 𝑖∆𝑡, per cui il flusso di campo elettrico è cambiato e diviene 19 20 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO Φ2 (𝐸⃗ ) = 𝑄 + 𝑖∆𝑡 ε0 Siamo quindi in grado di calcolare con la formula (5) la corrente di spostamento: 𝑖𝑠 = ε0 ∆Φ(𝐸⃗ ) Φ2 (𝐸⃗ ) − Φ1 (𝐸⃗ ) 1 𝑄 + 𝑖∆𝑡 𝑄 1 𝑖∆𝑡 = ε0 ε0 ( − ) = ε0 = 𝑖; ∆𝑡 ∆𝑡 ∆𝑡 ε0 ε0 ∆𝑡 ε0 è 𝑣𝑒𝑟𝑖𝑓𝑖𝑐𝑎𝑡𝑜 𝑐ℎ𝑒 𝑖 = 𝑖𝑠. Le Equazioni di Maxwell e il Campo Elettromagnetico A questo punto sono state ricavate due nuove equazioni: Γ(𝐸⃗ ) = − ⃗) ∆Φ(𝐵 ∆𝑡 ⃗ ) = µ0 (∑ 𝑖𝑘 + ε0 Γ(𝐵 𝑘 ⃗) Rispetto alla formula (4), l’equazione Γ(𝐵 ∆Φ(𝐸⃗ ) ) ∆𝑡 = µ0 ∑𝑘 𝑖𝑘 è stata scritta nel caso più generale in cui ci sono diverse correnti elettriche concatenate al circuito S. Prima Equazione Che cosa dice La prima eq. stabilisce che la circuitazione del campo elettrico lungo un campo chiuso S è direttamente proporzionale alla rapidità di variazione del flusso del campo magnetico, calcolato attraverso una superficie Ω che ha S come contorno. Che cosa significa Nel caso non statico, il campo elettrico non è conservativo. Quali sono le conseguenze Il fenomeno dell’induzione elettromagnetica Un campo magnetico variabile genera un campo elettrico Seconda Equazione Che cosa dice La legge per la circuitazione del campo magnetico era incompleta Che cosa significa ⃗ )/Δt contribuisce alla circuitazione di La corrente di spostamento is = ε0 Δϕ(𝐸 correnti convenzionali. ⃗ alla pari delle 𝐵 Quali sono le conseguenze Il primo addendo mostra che il campo magnetico è generato da cariche in moto (correnti elettriche); il secondo stabilisce che un campo elettrico variabile genera un campo magnetico. Le Equazioni di Maxwell Nella sua opera fondamentale Treatise on Electricity and Magnetism (Trattato sull’elettricità e il magnetismo), pubblicato nel 1873, James Clerk Maxwell dimostrò che tutte le proprietà dell’elettricità, del magnetismo e dell’induzione elettromagnetica possono essere derivate 20 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO partendo da quattro sole equazioni, che hanno quindi il ruolo di assiomi della teoria. Per questa ragione le quattro eq. sono dette, nel loro insieme, equazioni di Maxwell. Equazione Campo 𝑄 ϕΩ (𝐸⃗ ) = 𝑡𝑜𝑡 𝜀 (6) 𝐸⃗ 21 Grandezza interessata Principali conseguenze Flusso Le cariche sono sorgenti del campo elettrico. (Teorema di Gauss per il campo elettrico) Γ𝑆 (𝐸⃗ ) = − ⃗) Δϕ(𝐵 Δ𝑡 (7) ⃗ 𝐸⃗ , 𝐵 (8) ⃗ 𝐵 (9) ⃗ 𝐸⃗ , 𝐵 Circuitazione · · (Teorema della circuitazione per Correnti indotte. Un campo magnetico variabile è sorgente di un campo elettrico. il campo magnetico) ϕΩ (𝐸⃗ ) = 0 Flusso Non esistono monopoli magnetici isolati. (Teorema di Gauss per il campo magnetico) ⃗ ⃗ ) = µ0 (∑𝑘 𝑖𝑘 + ε0 ∆Φ(𝐸)) Γ𝑆 (𝐵 ∆𝑡 Circuitazione Sorgenti del campo magnetico sono: · · (Teorema della circuitazione per il campo magnetico) le correnti elettriche(primo addendo); i campi elettrici variabili (secondo addendo). Il Campo Elettromagnetico Nel caso statico vi sono due eq. che descrivono il comportamento del campo elettrico e altre due che regolano i fenomeni magnetici. Nel caso generale nella seconda e nella quarta eq. ⃗ e𝐵 ⃗ . Ciò implica che non è più possibile studiarli in modo isolato, compaiono entrambi i campi 𝐸 ma che essi sono due facce della stessa medaglia, due aspetti diversi dello stesso ente fisico: il campo elettromagnetico. La teoria che viene sviluppata si chiama elettromagnetismo. Le Onde Elettromagnetiche Il campo elettromagnetico si propaga nello spazio vuoto. Cio che si crea è un onda elettromagnetica, prevista teoricamente da James Clerk Maxwell nel 1861 e provata sperimentalmente dal fisico tedesco Heinrich Rudolph Hertz tra il 1886 e il 1889. Un′ onda elettromagnetica trasporta energia e continua a propagarsi anche quando la carica che l′ ha generata smette di muoversi. La Velocità della Luce 21 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO Partendo dalle equazioni (6), (7), (8), e (9), Maxwell dimostrò che la velocità di propagazione delle onde elettromagnetiche nello spazio vuoto è 𝑣𝑜𝑛𝑑𝑒 𝑒𝑙𝑒𝑡𝑡𝑟𝑜𝑚𝑎𝑔𝑛𝑒𝑡𝑖𝑐ℎ𝑒 = 1 √ε0 µ0 Ecco cosa si ottiene calcolando il valore numerico di questa quantità: 1 √ε0 µ0 = 1 √(8,854 × 10−12 C2 /(N ∙ m2 )) × (4π × 10−7 N/A2 ) = 2,998 × 108 m s Questo valore è uguale alla velocità della luce misurata nel vuoto, per cui si ha 1 √ ε0 μ 0 =c (10) Sulla base di questo risultato, Maxwell concluse che la luce è un particolare tipo di onda elettromagnetica. Le Onde Elettromagnetiche Piane Il profilo spaziale dell’onda Consideriamo una delle infinite rette che si dipartono da un’antenna. Essa rappresenta la direzione di propagazione dell’onda.In ogni punto di questa retta troviamo un campo elettrico ⃗ , legati (nel vuoto) dalla condizione 𝐸⃗ e un campo magnetico 𝐵 𝐸 = 𝑐𝐵 (17) ⃗ sono perpendicolari e proporzionali tra loro; inoltre sono perpendicolari alla direzione di I campi 𝐸⃗ e 𝐵 propagazione dell′onda. L’onda elettromagnetica è, quindi, un onda trasversale, in quanto le due grandezze che variano oscillano in senso perpendicolare allo spostamento dell’onda. Si osserva che i valori dei due campi variano nello spazio in modo regolare, descrivendo un’onda che ha lunghezza d’onda λ. 22 22 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO L’Onda Elettromagnetica nel tempo In un punto fissato, i campi ⃗𝐸 e ⃗𝐵 oscillano in modo concorde, entrambi con frequenza 𝑓 = 𝑐/𝜆. La Polarizzazione della Luce In un’onda elettromagnetica il campo elettrico può oscillare in modi diversi: ⃗ oscilla sempre in un piano ►se oscilla sempre in un piano ►se ruota attorno alla dire►se 𝐸 verticale, l’onda è polarizzata ver- orizzontale , è polarizzata oriz- zione di propagazione,è poticalmente. zontalmente. larizzata circolarmente. 23 23 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO ⃗ ha caratteristiche ben definite. Un′ onda si dice 𝐩𝐨𝐥𝐚𝐫𝐢𝐳𝐳𝐚𝐭𝐚 quando l′ oscillazione dei vettori 𝐸⃗ e 𝐵 Il Polarizzatore Esistono particolari filtri, detti polarizzatori, che permottono il passaggio soltanto di un determinato tipo di luce polarizzata. Questo particolare tipo di filtri viene utilizzato anche in fotografia. I filtri polarizzati per fotografia sono disponibili di due tipologie: 24 24 25 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO lineare: spesso indicato con la sigla PL circolare: indicato con la sigla C-PL, PL-CIR o CPL (Fonte: Wikipedia) Dalle Onde Elettromagnetiche ai Fotoni La Quantizzazione della Luce secondo Einstein Per spiegare le leggi sperimentali dell’effetto fotoelettrico, nel 1905 Albert Einstein prese in considerazione l’ipotesi di Plank sulla quantizzazione dell’energia scambiata tra atomi e radiazione elettromagnetica: La radiazione elettromagnetica è composta da singoli pacchetti di energia, i quanti del campo elettroma − gnetico, che più tardi furono chiamati 𝐟𝐨𝐭𝐨𝐧𝐢. Ogni fotone ha massa nulla e trasporta un’energia E direttamente proporzionale alla sua frequenza f; secondo Einstein, la costante di proporzionalità non è altro che la costante di Plank h, data dalla relazione: 𝐸 = ℎ𝑓 (6) Quindi,nella radiazione elettromagnetica,l’energia è quantizzata: data la frequenza f dell’onda, l’energia trasportata da un fascio luminoso monocromatico può assumere soltanto un insieme discreto di valori, tutti multipli di una quantità fondamentale. Ma non è quantizzata soltanto l’energia. Infatti, secondo la relatività, l’energia totale E e la quantità di moto p di un corpo di massa m sono legati secondo la relazione 𝐸 = √𝑐 2 𝑝2 + 𝑚2 𝑐 4 . Con m = 0, un fotone trasporta una quantità di moto di modulo 𝑝= 𝐸 𝑐 = ℎ𝑓 𝑐 (7) anch’essa proporzionale a f e, di conseguenza, quantizzata. La Dualità Onda-Particella I risultati degli esperimenti condotti durante questo periodo portarono a dire che la luce sia provvista di una dualità onda-particella. Dalla Fisica al Digitale La fotografia digitale La percezione del colore Per capire la fotografia digitale riassumiamo alcune nozioni sulla percezione del colore da parte dell’occhio umano. La percezione del colore è solitamente descritta con tre termini: Tinta - il colore che vediamo; Saturazione - quanto “profondo” è il colore. Un’alta saturazione significa meno “bianchezza”; Contrasto - indica l’intensità della luce (luce che arriva al detector, occhio umano). Illuminando simultaneamente un oggetto con due sorgenti luminose di differenti colori si percepisce l’oggetto di un colore diverso da ognuno dei colori originali; per esempio, a parità di contrasto, illuminando l’oggetto contemporaneamente con luce verde e rossa esso ci apparirà giallo. Colori primari e Pixel Si definiscono colori “primari” quei colori che in combinazione di tre danno luce bianca; tuttavia usando rosso (R), verde (G) e blue (B) si può produrre il più ampio spettro di colori. Questi tre 25 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO colori primari sono quelli usati nei moderni mezzi elettronici per visualizzare anche le immagini più complesse. Il colore del pixel risulta da una opportuna miscelazione di questi tre colori. Il termine pixel indica ciascuno degli elementi puntiformi che compongono la rappresentazione raster di una immagine. In questa tecnica l’immagine è rappresentata, semplificando, come una scacchiera con tanti quadratini ognuno dei quali è un punto (o pixel) dell’immagine. La densità dei pixel che costituiscono una immagine, espressa in pixel/pollice o pixel/centimetro, è detta risoluzione. Il numero di pixel che costituiscono un’immagine può essere espressa da un solo numero, come tre megapixel detto di una fotocamera che ha tre milioni di pixel, o da una coppia di numeri come in 'schermo 640 x 480', che ha 640 pixel in larghezza e 480 in altezza (come nei display VGA), perciò con un numero totale di pixel di 640*480 = 307.200. I punti sono così piccoli e numerosi da non essere distinguibili ad occhio nudo, apparendo fusi in un'unica immagine quando vengono stampati su carta o visualizzati su un monitor. Ciascun pixel, che rappresenta il più piccolo elemento rappresentabile dell'immagine, è caratterizzato dalla propria posizione e da valori quali colore e intensità, variabili in funzione del sistema di rappresentazione (monitor, stampante, macchina fotografica ecc.) adottato. Il colore di un pixel si ottiene dalla combinazione dei tre colori rosso, verde, blu. Ad esempio in un monitor CRT il colore del pixel, quando usato nel modo più efficiente, è la risultante della combinazione dei colori emessi da un gruppo di tre fosfori puntiformi (triade, una sorta di sotto-pixel molto ravvicinati e piccoli) residenti sulla superficie interna del monitor colorati uno rosso, uno verde, e uno blu. Dirigendo su di essi differenti quantità di elettroni, la triade sarà percepita come un punto (pixel) del colore risultante dalla combinazione delle diverse intensità dei colori rosso, verde e blu. Negli schermi LCD e nelle stampanti a colori, i pixel colorati si ottengono in maniera simile combinando i tre colori R, G, B. Rilevatori allo stato solido Molti materiali solidi emettono un elettrone quando colpiti da un fotone. Si ottiene una immagine elettronica catturando questi elettroni in prossimità della loro fonte di emissione e “leggendoli” elettronicamente. Le cariche elettriche possono essere “contate” ed inviate ad un’altro apparecchio, come un computer, capace di analizzare l’informazione. Finora il più comune di questi rilevatori è il CCD (Charge Coupled Device) usato nelle fotocamere digitali. CCD: Charge Coupled Device Sequenza di eventi e spostamento di carica in tre pixel consecutivi Un CCD consiste in un circuito integrato(chip in silicio) sul quale è costruita una riga, o una griglia, di siti fotosensibili (photosite) in grado di accumulare una carica elettrica (charge) proporzionale all'intensità della radiazione elettromagnetica che li colpisce. 26 26 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO CCD illuminato da sopra CCD illuminato da sotto Normalmente i CCD sono illuminati da sopra; questo, tuttavia, non permette all’elettronica di vedere tutta la luce che deve essere misurata: L’uso di composti metallo polimerici parzialmente trasparenti usati per costruire i contatti elettrici può alleviare il problema. Per migliorare la sensibilità il substrato sul quale giace lo strato fotosensibile è inciso (etched away) con acidi ed il CCD è illuminato da dietro. Questo tipo di CCD sono fragili e facilmente distorti. La maggior parte dei CCD sono sensibili al rosso, per renderli più sensibili al blue sono ricoperti con coloranti che fluorescono (fluorescenza: fenomeno radiativo per cui una sostanza o un elemento colpito da radiazione elettromagnetica ad un certa lunghezza d’onda emette della radiazione a lunghezza d’onda maggiore di quella incidente) quando colpiti da radiazione a lunghezza d’onda corta. In questo modo si riesce ad ampliare lo spettro luminoso al quale il CCD risponde. Questi elementi sono accoppiati (coupled) in modo che ognuno di essi, sollecitato da un impulso elettrico, possa trasferire la propria carica ad un altro elemento adiacente. Inviando al dispositivo (device) una sequenza temporizzata d'impulsi, si ottiene in uscita un segnale elettrico grazie al quale è possibile ricostruire la matrice dei pixel che compongono l'immagine proiettata sulla superficie del CCD stesso. Questa informazione può essere utilizzata direttamente nella sua forma analogica, per riprodurre l'immagine su di un monitor o per registrarla su supporti magnetici, oppure può essere convertita in formato digitale per l'immagazzinamento in file che ne garantiscano il riutilizzo futuro. Storia Il CCD fu ideato alla divisione componenti semiconduttori dei Bell Laboratories da Willard S. Boyle e George E. Smith nel 1969. L'anno seguente venne realizzato un prototipo funzionante. Nel 1975 fu realizzata la prima videocamera con CCD con una qualità dell'immagine sufficiente per le riprese televisive. Agli inizi del XXI secolo il CCD è il cuore delle moderne macchine fotografiche e videocamere digitali, ma anche dei fax e degli scanner. La scelta di una buona macchina passa per la scelta di un buon CCD, caratterizzato dalla dimensione in pollici (1/2,1/3,2/3, ...) e dal numero di pixel che compongono l'immagine catturata. La ricerca attuale è volta anche ad ottimizzare la forma del singolo pixel e la sua posizione. 27 27 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO Megapixel Le macchine fotografiche digitali più vecchie usano i CCD per registrare i livelli di luminosità alle diverse lunghezze d’onda. Si usano filtri colorati rossi, verdi e blu, in modo che ogni pixel possa registrare la luminosità di un singolo colore primario. I pixel in questo tipo di fotocamere digitali sono simili a sotto-pixel; la fotocamera interpola l'informazione di colore per creare l'immagine finale. Questo metodo può creare difficoltà, a differenza della pellicola fotografica, nel riprodurre i toni caldi delle immagini. Con i più moderni sensori CCD Foveon X3 si è sviluppata una tecnica che assomiglia a quella della cattura della luce con una pellicola a colori, ogni pixel in realtà è costituito da una stratificazione di tre sottopixel, ognuno sensibile ad un diverso colore RGB, che acquisiscono l’intero spettro contemporaneamente e nella stessa locazione. I tre strati sottopixel sono immersi nel silicio (in circa 3 micrometri di profondità) cosicché i diversi colori della luce sono percepiti a diversa profondità nel silicio. In questo modo la fotografia digitale è diventata di qualità comparabile a quella con pellicola analogica. Il concetto di “Digitale” Nell’esperienza quotidiana l’espressione “digitale” è talmente comune che forse si è perduto il senso di questo aggettivo. “Digitale”, nel senso che gli si attribuisce parlando di “immagini digitali” o di “musica digitale” è una delle tante parole di origine latina reimportate in italiano tramite l’inglese: in questo caso la parola “digit”, che ha lo stesso significato dell’italiana “cifra”. Quindi “digitale” è tutto quello che viene affidato per la conservazione e la fruizione alla codifica (e decodifica) tramite una successione di numeri (di 0 e 1). La Matematica dei Pixel: la Serie di Fourier È abbastanza ovvio che in questi processi la matematica debba avere la sua parte accanto all’informatica (anche senza voler pensare a quest’ultima come a una forma moderna della matematica stessa). Ma per quasi tutti gli utenti del “mondo digitale” non è per niente chiaro quale e quanta matematica sia coinvolta nella visione di una fotografia sulla schermo di un computer o nell’ascolto di una brano musicale su Ipod. Scopo di questa lezione è quello di far emergere una parte della matematica che giace nascosta nella fruizione “digitale” delle immagini. Oggi la fotografia digitale ha quasi completamente soppiantato il vecchio 28 28 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO procedimento fotografico basato sulla pellicola fotosensibile, tanto che il 30 dicembre 2010 a Pearson nel Kansas è stato sviluppato l’ultimo rotolino di pellicola Kodachrome, la più usata pellicola per foto a colori. In una fotografia digitale possiamo individuare tre processi fondamentali. Il primo è quello ottico, del tutto analogo a quello delle vecchie macchine fotografiche, che consente di formare l’immagine su una superficie (la pellicola nella vecchia foto, il “sensore elettronico” per la foto digitale). Il sensore è una griglia occupata da minuscoli semiconduttori (CCD o CMOS nello stato dell’arte attuale) il cui scopo è trasformare l’intensità della luce in un segnale elettrico. Questo viene a sua volta trasformato in un numero (questo avviene direttamente nel sensore nella tecnologia CMOS). I colori vengono “suddivisi” in tre colori fondamentali: rosso, verde e blu – red, green, blue, da cui la sigla RGB, in inglese – catturati da tre differenti sensori adiacenti. Il luogo da essi occupato è comunemente detto pixel. Una fotocamera di oggi (per uso meno che amatoriale) ha una “risoluzione” di almeno 10 megapixel, ovvero di dieci milioni di pixel. Il terzo processo è lo stoccaggio di tutti questi numeri in un file. Il file prodotto (nel formato detto RAW) ha una dimensione ragguardevole. Infatti, ogni pixel produce tre numeri (in formato binario, cioè fatti da 0 e 1) che rappresentano l’intensità del rispettivo colore. Questa intensità è suddivisa in una scala che dipende da quanti bit sono dedicati a ogni colore (si usa la sigla bpp, bit per pixel). Una buona fotocamera usa 8 bit per colore (quindi 24 bpp) permettendo così di rappresentare un totale di 2 elevato alla 24, ovvero circa 16,8 milioni di colori. Quindi un file RAW per una foto occupa circa 240 milioni di bit, ovvero circa 30 Megabyte per ogni foto. Nonostante le capacità di memoria sempre più grandi dei dispositivi odierni, questa è una dimensione veramente grande. La grande dimensione di questi file è un difetto molto grave se si vogliono trasferire queste immagini tramite Internet. Si pone quindi il problema di come ridurre la dimensione dei file (cioè dell’informazione “bruta” legata a ogni foto) senza un’eccessiva perdita di qualità delle immagini. A questo scopo sono nati vari algoritmi di compressione. Alcuni sono basati sulla creazione di “dizionari” che assegnano un “nome” (breve) a una serie di lunghezza fissata di bit: più sequenze uguali ci sono nel file (per esempio, se si ha una foto con molte zone di colore uniforme) più ci saranno serie uguali di bit, tutte condensate da un solo nome. Su questa strategia, che potremmo definire “informatica”, si basano i formati GIF e PNG. Ma il formato di compressione più noto per le fotografie a colori è certamente il formato JPG (o JPEG, acronimo di Joint Photographic Experts Group, la sigla del gruppo di esperti che creò lo standard verso la metà degli anni Ottanta). Il formato JPEG si basa essenzialmente su una teoria della matematica classica, ovvero la trasformata e le serie di Fourier. Le serie di Fourier appaiono per la prima volta nel lavoro dedicato dal matematico francese J.B. Joseph Fourier alla teoria della propagazione del calore. In tale lavoro, egli sostiene che ogni funzione di una variabile può essere ottenuta come la somma di infiniti termini del tipo seno e coseno della variabile stessa, ciascuno moltiplicato per un’opportuna costante. Queste costanti, dette coefficienti di Fourier della funzione, permettono di identificare univocamente la funzione stessa e quindi la loro conoscenza equivale alla conoscenza della funzione di partenza. Questa scomposizione di una funzione in somma di funzioni trigonometriche può essere fatta anche per funzioni di due variabili (x, y), moltiplicando funzioni trigonometriche della x con funzioni trigonometriche della y. Nella nostre fotografie digitali, il file in formato RAW può essere pensato come la raccolta dei valori che una funzione delle variabili (x, y), rispettivamente l’ascissa e l’ordinata dei punti del sensore, assume nei punti della griglia corrispondenti ai pixel (in realtà le funzioni sono tre, una per ogni colore della terna RGB). Ora possiamo pensare di sviluppare questa funzione usando la tecnica delle serie di Fourier. I dati del nostro file RAW sono quindi trasformati nei coefficienti di Fourier di una opportuna funzione. Non sembra di aver fatto molti progressi, visto che abbiamo appena detto che le somme sono 29 29 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO fatte da infiniti termini e quindi abbiamo infiniti coefficienti di Fourier. Ma quello che è importante per il nostro problema è che i coefficienti di Fourier decrescono molto rapidamente, ossia solo un numero molto piccolo di essi ha valori sensibilmente diversi da zero, e tutti gli altri (infiniti) termini possono essere trascurati. Perciò, conservando solo pochi termini della somma otteniamo una approssimazione della funzione che ha una forte somiglianza con la soluzione di partenza. Il punto chiave è che, se ci accontentiamo di quest’approssimazione, basta ricordarsi i pochi coefficienti di Fourier che abbiamo selezionato al posto di tutti i valori della funzione contenuti nel file RAW. Vediamo un esempio (unidimensionale) per capire come funziona l’approssimazione. Prendiamo la funzione f(x)=x nell’insieme (-π, π) ed estendiamola periodicamente fuori da questo intervallo, rappresentata in blu nel grafico Nel grafico abbiamo sovrapposto (curva in rosso) il primo addendo della somma di Fourier. Continuiamo aggiungendo via via i termini successivi fino al quinto addendo. Nell’ultima figura abbiamo già un buon accordo tra il grafico della funzione originaria e la sua approssimazione di Fourier. Quello che conta ora è che il grafico rosso è ricostruibile ricordando solo i coefficienti di Fourier (che in questo caso sono 2, -1, 2/3,-1/2 e 2/5) tramite la formula Al posto delle valutazioni della funzione su tutti i punti della nostra griglia, ora dobbiamo ricordare solo i coefficienti dello sviluppo, con un notevole risparmio di memoria (dimensione del file). C’è tuttavia una sostanziale differenza tra la curva blu e quella rossa: la prima è discontinua, ovvero mostra salti bruschi tra tratti di grafico in punti di ascissa vicina, la seconda è una curva continua anche se con tratti molto ripidi. Quando questa differenza viene trasformata nella “colorazione” dei differenti pixel, la figura generata dal formato JPEG mostra dei pixel colorati in zone dove non dovrebbero esserlo e viceversa pixel non sufficientemente colorati in zone che magari dovrebbero risultare uniformemente colorate (ciò avviene nelle zone di transizione da un colore all’altro). Questo fenomeno è particolarmente evidente se si salva in formato JPEG un documento che contiene caratteri a stampa o disegni fatti da curve molto nette (come questa pagina), mentre diventa assai poco percettibile nelle fotografie, dove i colori tendono naturalmente a “sfumare“ uno nell’altro. Tutto ciò ha una qualche importanza pratica: se dovete digitalizzare un documento scritto, il formato JPEG dà risultati piuttosto deludenti (la scrittura risulta “sbavata”) mentre una codifica con il formato PNG dà un risultato di gran lunga migliore per la leggibilità del documento (i grafici e la formula riportate qui sopra sono state digitalizzate in formato PNG). La situazione si ribalta nelle foto: per ottenere risultati paragonabili all’effetto visivo di un file JPEG, la codifica PNG (o GIFF) produce file di dimensioni considerevolmente maggiori. L’analisi di Fourier è alla base anche delle codifiche digitali dei segnali sonori. La più comune codifica attuale (il formato MP3) è ottenuta con 30 30 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO l’algoritmo di codifica MPEG che lavora sul cosiddetto dominio delle frequenze, ovvero sulla rappresentazione del segnale sonoro non in funzione del tempo (la rappresentazione “naturale”) ma in funzione delle componenti del segnale ottenute tramite una trasformata di Fourier (è una generalizzazione dei coefficienti di Fourier di cui abbiamo parlato). Tuttavia il processo è molto più complesso di quanto sia quello per la digitalizzazione delle immagini e non può essere descritto in questa sede. La Computer Graphics e l’Equazione di Rendering Figura 1. Figura realizzata dagli studenti del corso di Computer Graphics tenuto da Alberto Mancini (Dipartimento di Matematica, Università di Firenze). La computer graphics (ormai il nome inglese ha soppiantato ogni tentativo di traduzione italiana) ha per scopo quello di creare immagini digitali senza che queste debbano essere ottenute da fotografie o filmati di oggetti reali. Questa lezione contiene una descrizione di molta della matematica coinvolta nella computer graphics, in particolare la geometria proiettiva e l’interpolazione polinomiale. Il ruolo della prima è essenzialmente quello di gestire la rappresentazione prospettica delle figure nello spazio, necessaria quando si voglia ottenere un effetto realistico come nelle due figure qui riportate. I suoi principi fondamentali datano dai grandi pittori e teorici della pittura del Rinascimento: Brunelleschi, Alberti, Piero della Francesca (autore di un trattato matematico sulla prospettiva). Come si costruisce un’immagine al computer? Il primo passo è dare una descrizione matematica della forma degli oggetti. Per prima cosa dobbiamo individuare nel piano rappresentativo (che poi verrà visualizzato sullo schermo) gli oggetti presenti nella scena. Se ci riferiamo alla Figura 1, abbiamo una sfera e una sorta di “tappeto” quadrettato. La sfera sarà descritta da una griglia di punti che uniremo con dei segmenti ottenendo una cosa del tipo raffigurato nella Figura 2. Figura 2. Figura 3. 31 31 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO Ma la sfera è un oggetto solido, quindi possiamo vedere solo i punti che stanno dalla parte dell’osservatore. Dobbiamo quindi rimuovere le “linee nascoste” ovvero quelle linee che delimitano parti della superficie che si trovano “dietro” (oppure che sono nascoste da altri oggetti). Questo è abbastanza facile da fare per un oggetto convesso come una sfera: la superficie è rimossa se la sua normale esterna, cioè la direzione perpendicolare alla superficie nel verso uscente dall’oggetto, forma un angolo acuto con la direzione dello sguardo dell’osservatore. Lo si può fare al computer tramite un algorit- mo matematico noto come backface culling. Più complicato è eliminare parti nascoste di oggetti non convessi. Per esempio, se rappresentiamo un bicchiere, possiamo vedere alcune parti della superficie interna, ma altre saranno nascoste dal resto del bicchiere anche se la normale esterna guarda verso l’osservatore. Stessa cosa se dobbiamo eliminare parti di un oggetto coperte alla vista da un altro oggetto presente nella scena. In questo caso si usa l’algoritmo detto “del pittore” che consiste nel rappresentare prima gli oggetti (parti di oggetti) più lontani e poi “dipingendoci sopra” quelli più vicini (Z-sorting). Si deve quindi decidere “matematicamente” quali sono gli oggetti più lontani, e per far ciò dobbiamo “ricordarci” della coordinata nella direzione della profondità (l’operazione è molto costosa dal punto di vista del calcolo perché si deve lavorare al livello dei singoli pixel e viene spesso implementata in un hardware dedicato, con acceleratori grafici). Figura 4. Da M. Slater, The radiance equation. Ma per raggiungere un effetto realistico è necessario integrare al disegno gli effetti della luce. Poiché gli oggetti rappresentati sono “nati dal nulla”, cioè ottenuti tramite descrizioni matematiche degli oggetti e del loro posizionamento nello spazio, è necessario che anche l’illuminazione di questi oggetti venga “creata” da un algoritmo matematico.Per capire la complessità del problema basta guardare con attenzione le due immagini qui presentate: Fig. 1 e Fig. 4. La seconda (che NON è una fotografia digitalizzata, ma un’immagine creata direttamente al computer) è di impressionante realismo, forse un po’ troppo complessa per essere descritta nella sua interezza. Va però notata una sua caratteristica fondamentale: la luce proviene dall’alto a sinistra, per chi guarda, e illumina direttamente solo una parte della scena. La parte sinistra del portico si trova in ombra, ma è a sua volta illuminata dalla luce (parzialmente) riflessa dalle zone illuminate. A sua volta, per quanto in misura minore, anche gli oggetti illuminati di riflesso rinvieranno la luce nelle altre parti della scena, e così via. Una situazione scenograficamente più semplice è presente nella Fig. 1 (risultato di una “esercitazione” di un corso tenuto da A. Mancini presso il Dipartimento di Matematica dell’Università di Firenze). Qui la luce proviene sempre dall’alto, ma dalla destra della scena. 32 32 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO Colpisce direttamente una parte del pavimento e una parte della sfera che vi è appoggiata sopra. La sfera s’immagina che debba avere una superficie riflettente (almeno parzialmente) visto che la sua parte inferiore rispecchia il disegno del pavimento. Anche qui si ha un gioco di riflessione parziale della luce che illumina le parti in ombra. Dobbiamo ricordarci che le figure qui riprodotte sono la visualizzazione di file numerici a loro volta prodotti “matematicamente”. Se gli effetti che vi si possono osservare sono realistici, ciò è ottenuto grazie alla possibilità di dare un “buon” modello matematico della propagazione, riflessione e diffusione della luce. La luce è un fenomeno fisico complesso che presenta aspetti che possono essere descritti talora in termini di onde luminose e talora tramite particelle (fotoni). Nel modello usato si fa uso del concetto di radianza, una misura dell’energia luminosa che si assume come propagantesi in raggi luminosi che, quando incontrano un oggetto, vengono in parte assorbiti e in parte riemessi dalla superficie dell’oggetto secondo caratteristiche tipiche della superficie dell’oggetto stesso (trascuriamo qui gli effetti di “attraversamento” di oggetti “trasparenti”). L’equazione che regola questo comportamento è nota in computer graphics con il nome di rendering equation, che esprime una particolare forma di conservazione dell’energia. Se indichiamo con L la radianza, abbiamo che a ogni punto della super- ficie e in ogni direzione, la luce uscente Lo è la somma della luce emessa Le e della luce riflessa. Questa, a sua volta, è data dalla luce incidente Li da tutte le direzioni, moltiplicata per una funzione di riflessione dipendente dalle caratteristiche della superficie e per il coseno dell’angolo di incidenza. Tutte queste quantità dipendono dalla lunghezza d’onda della luce stessa. Il risultato è la seguente equazione di rendering Figura 5. L’equazione di rendering. L’equazione di rendering è un caso di equazione integrale, un tipo di equazione molto studiato in fisica matematica (un altro celebre esempio è l’equazione di Boltzmann della meccanica statistica). Per determinare la corretta illuminazione di una scena dobbiamo trovare la soluzione dell’equazione di radianza in funzione della sorgente che illumina la scena (la luce “esterna”) e della forma, posizione e caratteristiche degli oggetti presenti, calcolando la luce che finisce nel punto in cui si trova l’occhio dell’osservatore. La soluzione tuttavia può essere costruita solo in modo approssimato. Negli anni sono state sviluppate diverse strategie di soluzione, molte delle quali si basano sul principio del Metodo Montecarlo, che consiste nel generare un numero elevato di prove casuali (in questo caso si tratta di raggi luminosi) e fare una sorta di media dei risultati ottenuti. Questi metodi (ray tracing, path tracing, Metropolis light trasport) richiedono un enorme sforzo di calcolo e quindi molto tempo per ottenere un’immagine realistica. Ciò li rende adatti solo per immagini statiche, mentre non possono essere utilizzati per immagini in movimento come quelle dei videogiochi. Fotografia come Arte “LAND ART” L a Land art nasce negli Stati Uniti negli anni ’70, per indicare un’esperienza creativa nell’ambito dell’arte concettuale, ossia quell’espressione artistica, dove l’idea o il concetto è più importante della realizzazione stessa. 33 33 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO Per Land art s’intende una corrente artistica che rinuncia alla volontà di creare una forma nuova, cioè fatta dall’uomo a partire da zero, ma assume come forma la realtà stessa di un paesaggio o di un ambiente che vengono trasformati attraverso delle modifiche per renderlo un’opera d’arte. L’azione dell’artista prevede l’obsolescenza, ossia il “consumarsi” dell’opera, programmata già in partenza dall’artista o affidata agli agenti naturali, in modo tale da rendere il tempo, partecipe dell’opera stessa. Questi artisti avvertirono l’esigenza di un ritorno alla natura e di sciogliere le catene della civilizzazione e della vita cittadina degli anni ’70. Il loro obiettivo è di far entrare in sintonia l’opera con l’ambiente circostante dove l’osservatore si trova completamente immerso nell’opera stessa a 360 gradi, creando un impatto con uno spazio, libero da qualsiasi condizionamento. L’artista “Land” non ha confini, né uno spazio stabilito in cui agire, ma la sua coscienza dimostra una grande attenzione ecologica nei confronti della natura con la quale si trova a interagire. E questo accade perché l’uomo moderno è convinto che l’arte debba riguardare tutte le sfere dell’agire umano e diventa impossibile, in questo senso racchiudere l’opera in uno spazio limitato. Egli si fonda con l’ambiente e opera su di esso utilizzando materiali come sabbia, foglie, vegetali, ecc. e in questo la “Land art” assomiglia all’arte povera poiché consiste nell’utilizzare materiali umili e ridurre l’opera ai minimi termini. L’utilizzabilità dell’opera è affidata a videoclip e fotografie che quindi eliminano ogni forma di collezionismo. Nella foto viene mostrato un esempio di “Land art” in cui l’artista Sylvain Mayer utilizza un pezzo di legno spezzato in più punti, un mucchio di foglie colorate, resti di corteccia e sassi per realizzare un enorme ragno. Uno sguardo sulla Fotografia in termini letterari VERISMO opo l’unità d’Italia e in particolare dopo la salita al potere della Sinistra, in Italia si assistette a un leggero sviluppo nell’attività economica e furono poste le prime basi per il settore industriale e realizzate le prime opere pubbliche. Nonostante questo clima che caratterizzò il paese, in questo periodo gran parte della popolazione viveva ancora in uno stato di miseria e povertà. Come conseguenza le dottrine socialiste ebbero larga diffusione fra la popolazione. In questo clima nella seconda metà del XIX secolo, più precisamente tra il 1870 e il 1890, si sviluppa il movimento letterario del verismo italiano, il D 34 34 35 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO cui primo teorizzatore fu Luigi Capuana e il miglior interprete Giovanni Verga. Questa corrente letteraria fu fortemente influenzata dal Positivismo, dal quale riprende l’impersonalità dell’osservatore, e dal naturalismo francese, un movimento diffuso in Francia a metà ottocento, i cui teorici affermano che la letteratura deve fotografare oggettivamente la realtà sociale e umana, rappresentandone rigorosamente le classi, comprese quelle più umili, in ogni aspetto anche sgradevole; gli autori devono comportarsi come gli scienziati analizzando gli aspetti concreti della vita, in modo oggettivo e distaccato. Il verismo si sviluppa a Milano, la città dalla vita culturale più feconda, in cui si raccolgono intellettuali di regioni diverse, anche se le opere veriste rappresentano in particolar modo le realtà sociali dell’Italia centrale, meridionale e insulare; per esempio la Sicilia che è descritta nelle opere di Giovanni Verga. Le caratteristiche principali di questo movimento furono: Impersonalità dell’autore; Attenzione alla realtà vista dal lato quotidiano; Narrazione realistica e scientifica degli ambienti e dei soggetti del racconto; Accettazione delle leggi che regolano la società, dal ceto più alto a quello più basso e i comportamenti degli uomini; Nessuno spazio alle emozioni, anche l’interiore dell’uomo viene descritto in modo scientifico; L’artista deve trarre il materiale per le sue opere da fatti contemporanei realmente accaduti; Largo uso dei dialetti, eliminando le forme retoriche più elevate; Uso della mimesi linguistica (da mimetizzazione = nascondersi nell'ambiente circostante in modo da non essere visibile); I temi e i soggetti trattati: Situazioni quotidiane e problemi dell’Italia post-unità: es. plebe meridionale, lavoro minorile, emigrazione, ecc; Ambienti regionali, della plebe rurale, della piccola borghesia, dell’ aristocrazia decaduta; Poiché il verismo si sviluppa molto a livello regionale, i temi si diversificano a seconda della regione che viene trattata; Nord si amplia il numero dei lettori, degli scrittori e in particolare delle varietà letterarie. L’attenzione viene spostata su nuovi problemi e nuovi protagonisti: l’impiegato, l’industriale, il maestro … I nuovi temi sono quelli della famiglia, dell’adulterio e della prostituzione; Sud interesse verso la vita dei contadini e dei pastori; questa divenne la vera centralità del verismo, tanto che gli artisti veristi ottennero i migliori risultati trattando questo tema. Non a caso gli esponenti più importanti erano meridionali o isolani. “La fotografia non mostra la realtà, mostra l'idea che se ne ha.” Neil Leifer 35 Liceo Scientifico “P. Levi” a. s. 2014-2015 ESAME DI STATO BIBLIOGRAFIA E SITOGRAFIA LA FOTOCAMERA E I SUOI ELEMENTI - http://goo.gl/BGok7L PARTE TECNICA - http://goo.gl/GBLs4a L’OTTICA - https://it.wikipedia.org/wiki/Alhazen L’ISOMERIA OTTICA DEGLI IDROCARBURI E LA POLARIZZAZIONE: “Dal carbonio agli OGM PLUS Chimica organica, biochimica e biotecnologie”, di Valitutti, Taddei, Kreuzer, Massey, Sadava, Hillis, Heller, Berenbaum. LE ONDE ELETTROMAGNETICHE: “L’Amaldi per i licei scientifici Campo magnetico Induzione e onde elettromagnetiche Relatività e quanti”, di Ugo Amaldi. LA FOTOGRAFIA DIGITALE - http://goo.gl/3cs77o LA MATEMATICA DEI PIXEL: LA SERIE DI FOURIER E LA COMPUTER GRAPHICS E L’EQUAZIONE DI RENDERING - http://goo.gl/QyAfqW FOTOGRAFIA COME ARTE E UNO SGUARDO SULLA FOTOGRAFIA IN TERMINI LETTERARI - http://goo.gl/qNkCOa 36 36