Tesina sulla fotografia [Mahdi Sarhan]

annuncio pubblicitario
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
UNO SGUARDO
ATTRAVERSO L’OBIETTI
L’OBIETTIVO
La Magia della Luce
A.S 2014-2015
MAHDI SARHAN
Classe 5ASA
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
INDICE
•
MAPPA DEI CONCETTI
•
INTRODUZIONE
•
LA FOTOCAMERA E I SUOI ELEMENTI
•
PARTE TECNICA
•
LA FISICA DELLA FOTOGRAFIA: DALL’OTTICA AL DIGITALE
o
L’OTTICA
o
DALLA CHIMICA ALLE ONDE ELETTROMAGNETICHE
L’ISOMERIA OTTICA DEGLI IDROCARBURI E LA
POLARIZZAZIONE
o
LE ONDE ELETTROMAGNETICHE
o
DALLE ONDE ELETTROMAGNETICHE AI FOTONI
o
DALLA FISICA AL DIGITALE
LA MATEMATICA DEI PIXEL: LA SERIE DI FOURIER
LA COMPUTER GRAPHICS E L’EQUAZIONE DI RENDERING
•
FOTOGRAFIA COME ARTE
•
UNO SGUARDO SULLA FOTOGRAFIA IN TERMINI LETTERARI
•
LA BIBLIOGRAFIA
1
1
2
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
Mappe Concettuali
AlHazen
Arte: Land Art
Fisica: Ottica e
Luce
Fotografia
Dalle onde
elettromagnetiche
al dualismo ondaparticella
Chimica:
Isomeria Ottica
e Polarizzazione
Fotografia
Ottica
Letteratura:
Verismo
Fotografia
Digitale
Informatica:
Computer
Graphics ed
Equazione di
Rendering
Matematica:
Serie di Fourier
2
Luce e
fotoni
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
Molto più che una semplice tesina sulla fotografia…
La fotografia
PICCOLA DEFINIZIONE
Una fotografia è una immagine ottenuta tramite un processo di registrazione permanente e
statica delle emanazioni luminose di oggetti presenti nel mondo fisico, selezionate e proiettate
da un sistema ottico su una superficie fotosensibile: emulsione chimica per la fotografia
fotochimica, cioè quella tradizionale dalle origini ai giorni nostri, sensore elettronico per la
fotografia elettronica, oggi digitale. Il termine deriva dal francese photographie, proveniente
dall'inglese photography, composizione di foto- (dal greco luce) e -grafia (dal greco disegno).
Con il termine fotografia si indicano tanto la tecnica quanto l'immagine ripresa. L'estrema
versatilità di questa tecnica ne ha consentito l'utilizzo nei campi più diversi delle attività umane,
dalla ricerca scientifica all'intrattenimento, dalla pubblicità al giornalismo, fino a consacrarla
come autentica forma d'arte.
INTRODUZIONE
La fotografia è un’immagine che rappresenta la realtà effettiva delle cose e per molte persone
è sinonimo di ricordo. Quando qualcuno scatta una fotografia lo fa con l’intento di fermare
quell’attimo per riviverlo in futuro. Ma la fotografia non è solo una semplice immagine in grado
di stimolare le nostre emozioni, perché ha rivelato la sua utilità in molti ambiti della scienza. Sin
dalla sua invenzione, agli inizi del 1800, essa fu utilizzata dai pittori come documentazione visiva
più fedele che qualsiasi schizzo realizzato osservando “il vero”. Gli scrittori, invece, quali i veristi la
utilizzarono come “metodo” per realizzare i loro racconti; essi quindi dovevano essere oggettivi
e realisti, dovevano cioè descrivere la situazione delle persone com’era veramente. Con il
passare del tempo e l’evolversi delle tecnologie, la fotografia iniziò a essere utilizzata sempre in
più campi. Divenne, ad esempio, strumento di sviluppo per il giornalismo e l’editoria e un ottimo
strumento per le testimonianze storiche;
In conclusione ciò di cui voglio parlare nella mia tesina sono i vari aspetti della fotografia,
partendo dagli aspetti tecnici e scientifici, più importanti secondo me, e analizzando in seguito il
suo uso nel corso del tempo in ambito letterario e artistico.
“La fotografia è probabilmente fra tutte le forme d'arte la più accessibile e la più gratificante.
Può registrare volti o avvenimenti oppure narrare una storia. Può sorprendere, divertire ed
educare. Può cogliere e comunicare emozioni e documentare qualsiasi dettaglio con rapidità e
precisione”.
John Hedgecoe
3
3
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
LA FOTOCAMERA E I SUOI ELEMENTI Gli elementi della fotocamera sono:
•
•
OBBIETTIVO:
Messa a fuoco;
Sistema di lenti;
Diaframma (una lente che si apre e si chiude): regola la quantità di luce che
entra nella camera oscura, qui l’immagine giungerà ribaltata e
rimpicciolita;
Zoom, nell’obbiettivo a distanza focale variabile.
CORPO MACCHINA:
Pellicola
Tempo di posa (scatto) o otturazione: regola il tempo
Sistema di specchi (reflex) o pentaprisma: impiegato nel mirino delle reflex,
affinché l’immagine riflessa nello specchio non appaia capovolta.
IRIDE/DIAFRAMMA: regolano l’esatta
quantità di luce in ingresso necessaria
ad un giusto contrasto dell’immagine.
CRISTALLINO/LENTE:
Regolano
la
nitidezza dell’immagine (messa a
fuoco).
RETINA/PELLICOLA: Sono superfici
fotosensibili ossia sensibili alla luce.
Nella superficie retinica dell’occhio la
fovea è sensibile ai colori.
Nelle fotocamere digitali la pellicola è
stata sostituita da un sensore.
4
4
5
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
OCCHIO
MACCHINA FOTOGRAFICA
Pellicola, superficie piatta, fotosensibile, chimicamente
trattata. Riceve l’immagine ribaltata (anche nei colori)
Retina, superficie dell’occhio fotosensibile alla luce
e rimpicciolita. La pellicola può essere colorata o
e alla sua assenza.
bianca e nera.
Superficie retinea (2%), piccola repressione della
fovea, sensibile ai colori.
Pellicola colorata.
Diaframma, dispositivo ottico a lamelle che regola l’esatta
quantità di luce che deve entrare attraverso l’obbiettivo e
giungere alla pellicola. Si chiude al momento dello scatto.
Iride, muscolo che si contrae quando vi è mancanza Regola anche la messa a fuoco (foto ben esposta, né troppo
di luce, quando c’è molta luce si rilassa facendone chiara né troppo scura). Per esempio, in situazioni di luce
entrare poca.
scarsa, si può usare un diaframma molto aperto oppure un
maggior tempo di esposizione per catturare più luce; in caso
di forte luce, si ridurranno i tempi o si chiuderà il
diaframma.
Cristallino, lente naturale, trasparente del nostro
occhio, costituita da particolari proteine, consente
la messa a fuoco.
Sistema di lenti, consentono la messa a fuoco.
Vi è uno strumento, l’ESPOSIMETRO, che misura la giusta esposizione di luce.
Diaframma e tempo di scatto sono collegati tra loro:
all’aumentare dell’uno, l’altro diminuisce
ANGOLO DI VISIONE
dipende dal tipo di obbiettivo: Grandangolari, a distanza focale (40mm)
Normali da 40 a 80
Teleobbiettivi
Zoom a distanza focale variabile
5
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
Parte Tecnica
1
Obiettivi
Caratteristiche degli obiettivi
2
Pellicole e Sensori
Confronto tra formati
3
Il diaframma
Il Diaframma e la quantità di luce
Il Diaframma e la Profondità di campo
6
6
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
Ingrandimento
Formula approssimata
La formula relativa all’ingrandimento per un obiettivo fotografico di focale
‘f’ quando fotografa un oggetto a distanza ‘So’ è:
=
Maggiore è la focale della lente e maggiore sarà l’ingrandimento.
Ingrandimento e sensore
La relazione
L’immagine fotografica deve formarsi su un negativo o un CCD di dimensione fissa: maggiore è
l’ingrandimento e minore sarà il campo di visione inquadrato. Mentre le dimensioni di un
oggetto su di un negativo dipendono esclusivamente dalla focale di un obiettivo, l’angolo di
campo inquadrato dipende invece dalle dimensioni del negativo. Sia α l’angolo di campo:
obiettivi di corta focale sono quelli che hanno α ≥ 65° e obiettivi di lunga focale quelli per cui α ≤
35°.
Si definisce talvolta una “focale normale”, cioè quella che rende la prospettiva la più vicina
possibile alla visione umana. In genere si fissa tale valore come α = 53°. Nel caso del formato 35
mm o di una macchina digitale in cui il sensore misuri 24x36 mm si possono trovare le relazioni di
questa tabella.
f (mm) α◦
28
75
50
47
105
23
135
18
300
8
Tabella: Corrispondenza tra focale e angolo di campo per il formato 24x36
La pellicola “classica”
7
7
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
La pellicola più utilizzata all’epoca della fotografia analogica era quella nel formato 24X36
millimetri. Essa `e detta anche 35 millimetri,
mi
poiché questa è la misura di un lato tenendo conto
anche della parte con i buchi per l’aggancio della pellicola
Dalla pellicola ai sensori
Un passaggio epocale
Al giorno d’oggi è sempre più evidente il passaggio da pellicola a sensore digitale, al punto che
la foto di inizio mandato del Presidente degli Stati Uniti Obama è stata la prima della storia ad
essere stata realizzata utilizzando un sensore digitale
A differenza della pellicola, in cui il formato 24X36 aveva assunto il
significato di uno “standard”, nei sensori digitali vi sono molte
dimensioni
ni diverse. Al momento attuale le macchine aventi un
sensore di dimensioni 24X36 sono 5, anche se è prevedibile che
aumentino sempre più. Tutte le altre macchine digitali hanno sensori
di dimensioni minori.
8
8
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
Se il sensore è più piccolo l’area inquadrata sarà minore, come se stessimo utilizzando un
obiettivo di focale maggiore: ma le dimensioni dell’oggetto sul sensore non cambiano.
Il Diaframma
A cosa serve
Il diaframma è un foro che serve a far passare la luce che formerà
formerà l’immagine. Più aperto è il
diaframma e maggiore sarà
à la luce che arriverà sul sensore.
L’apertura relativa N di un obiettivo è data dal rapporto tra la focale f e il diametro del
diaframma D:
=
Esempio:: un obiettivo con diametro di 2.5 cm e con focale di 100 mm ha un’apertura relativa di
N = 10/2.5 = 4. In genere si tende a scrivere tale valore come f-numero:
numero: f/4. Più piccolo l’fnumero e più aperto l’obiettivo.
9
9
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
Gli f/numero: loro significato
I numeri che compaiono sulla ghiera del diaframma sembrano essere scelti a caso: 2.8 4 5.6 8 11
16 22
In realtà sono selezionati in modo tale che passando da un numero a quello immediatamente
inferiore
feriore l’area del diaframma raddoppia.
La messa a fuoco
Limiti dell’obiettivo
Un obiettivo riesce a mettere a fuoco (cioè a creare un’immagine puntiforme) solo un piano a
una distanza data. Ogni punto oggetto
oggetto a un’altra distanza formerà un’immagine cir
circolare
detta “disco di confusione”
Il disco di minima confusione
Non è necessario che
e l’immagine sia perfettamente a fuoco per essere accettabile. Basta che
l’immagine di un punto sia un disco sufficientemente piccolo, così da essere
sere visto come un
punto. Cioè l’immagine
ine di un punto deve essere più piccola di un “disco di minima confusione”.
10
10
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
In queste condizioni diremo che l’immagine è nitida. Per il tradizionale formato 24X36 nelle
normali condizioni di visione il disco di minima confusione ha un diametro di circa 0.03 mm.
Profondità di campo
La profondità di campo è quella distanza (misurata sull’asse della lente) per cui si ha
un’immagine sufficientemente nitida. A parità di distanza dell’oggetto dall’obiettivo, più chiuso
è il diaframma e minore sarà la dimensione del disco di confusione.
Alcune considerazioni che nascono dall’esperienza
•
•
•
La profondità di campo aumenta chiudendo il diaframma
La profondità di campo è maggiore per le focali corte rispetto alle focali lunghe
La profondità di campo aumenta all’aumentare della distanza del soggetto
Tali condizioni possono essere anche viste sotto forma matematica
Punto prossimo e punto remoto
Punto Prossimo
E` il punto più vicino all’obiettivo che può ancora essere considerato nitido. Lo indicheremo con
PP
Punto Remoto
E` il punto più lontano dall’obiettivo che può ancora essere considerato nitido. Lo indicheremo
con PR
Formule matematiche
Punto prossimo
=
+
Punto remoto
=
−
Dove ‘u’ è la distanza su cui è messo a fuoco l’obiettivo, f la focale dell’obiettivo, N l’f/numero e
C il diametro del disco di minima confusione.
Dalle formule del punto prossimo e punto remoto è possibile ricavare la formula per la
profondità di campo T
=
+
Esiste anche una formula approssimata di più semplice lettura
≈
11
11
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
Profondità di campo
Dipendenza dalla focale
Dipendenza dall’apertura del diaframma
Dipendenza dalla distanza del soggetto
12
12
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
La Fisica della Fotografia
Dall’Ottica al Digitale
L'ottica
AlHazen e l’origine dell’Ottica Moderna
Alhazen, o Abū ʿAlī al-Ḥasan ibn al-Ḥasan ibn al-Haytham (in arabo: ‫( )ا ن ا م‬Bassora, 965 circa –
Il Cairo, 1039), è stato un medico, filosofo, matematico, fisico ed astronomo arabo. Fu
sicuramente uno dei più importanti e geniali scienziati del mondo islamico (ed in genere del
principio del secondo millennio). Inoltre è considerato l'iniziatore dell'ottica moderna. Fu
soprattutto nell'ottica che le sue ricerche produssero risultati d'eccezione. Studiando l'ottica
euclidea, enunciò teorie sulla prospettiva, della quale focalizzò il suo interesse sui tre punti
fondamentali (il punto di vista, la parte visibile dell'oggetto e l'illuminazione), riformulando i
modelli geometrici che ne descrivevano le relazioni.
Demolizione delle vecchie teorie sull'ottica In epoche successive sarebbe stato considerato il
maggior esponente della "scuola araba" dell'ottica anche perché i suoi studi furono di notevole
influenza nella demolizione delle vecchie teorie sulla natura e sulla diffusione
delle immagini visive: in antico, con i primi studi si riteneva che la luce fosse una soggettiva (e
per questo relativa) elaborazione della psiche umana.
In seguito si era cominciato a parlare di "scorze" (o "èidola") sostenendo che particelle di ogni
oggetto osservato (sorta di "ombre" che ne riproducevano la forma ed i colori) si staccassero
dall'oggetto per raggiungere l'occhio umano (sebbene questa teoria non potesse spiegare
l'accesso all'occhio delle "ombre" di grandi montagne se non supponendo una misteriosa
progressiva riduzione dimensionale in corso di tragitto).
A questa teoria seguì quella dei "raggi visuali", per la quale l'analisi dell'assunzione
delle informazioni visive da parte del cieco, che le ricava con un bastone, avrebbe dovuto
spiegare che l'occhio sarebbe stato dotato di una sorta di "bastoni" coi quali percuotere il
mondo visibile e ricavarne le informazioni ottiche. La teoria era esposta alle argomentazioni di
chi eccepiva che questa non avrebbe spiegato la mancanza di visione notturna (o in assenza
di luce), non avrebbe spiegato quella che oggi si conosce come rifrazione e, soprattutto, non
spiegava come potesse fare l'occhio umano a "toccare" coi suoi supposti bastoncini sensoriali
oggetti lontanissimi come il Sole e le stelle.
La scuola araba delle scorzettine dell'ottica Della scuola araba dell'ottica, Alhazen è in genere
considerato il primo e massimo, geniale, esponente. Fu grazie ai suoi studi che si poterono
formulare nuove ipotesi, fresche anche per mancanza di inerzie culturali, e che lo studio di
queste materie ebbe la possibilità di costituirsi in "scuola", destinata a formare un numero (per i
tempi assai rilevante) di studiosi specialistici.
Un elemento che attrasse la sua attenzione fu la persistenza delle immagini retinee, insieme alla
sensazione dolorosa procurata dall'osservazione di fonti di intensa luminosità, come il Sole. Se
infatti, fu il suo ragionamento, davvero fosse stato l'occhio a "cercare" con raggi o bastoncini
l'oggetto, non vi sarebbe potuta essere persistenza delle immagini durante la pur rapida
chiusura delle palpebre (mentre questo rapido movimento è comunemente impercettibile
proprio per la persistenza dell'immagine - oggi sappiamo - sul fondo della retina). Inoltre, se
13
13
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
l'occhio, organo di senso, davvero gestisse autonomamente le informazioni visive, non
"toccherebbe" lo "scottante" Sole e nessun'altra fonte fastidiosa, non procurandosi dolore
né abbacinamento.
Demolita così la teoria dei raggi visuali, Alhazen si rifece a quella delle scorze, supponendo
stavolta che l'acquisizione delle informazioni luminose fosse sì dovuta ad un agente esterno, ma
che questo non rilasciasse "ombre", viaggianti in forma di "scorze" appositamente in direzione
dell'occhio dell'osservatore, bensì delle "scorzettine", emesse dall'oggetto in tutte le direzioni. Per
questo, dovette affrontare una ipotesi di scomposizione rudimentalmente particellare di
ciascuno degli oggetti osservati, ed attribuire a ciascuna infinitesima componente di ciascun
oggetto la capacità di emissione di scorzettine in ogni direzione.
Le "scorzettine" La genialità della scomposizione particellare consisteva nella prima monizione
(elaborata in forma, si noti, squisitamente logica) di un embrione della teoria corpuscolare: da
ciascun oggetto, anzi da ciascuna delle piccolissime parti componenti l'oggetto si sarebbero
staccate "informazioni luminose" (scorzettine) che avrebbero raggiunto l'occhio, attraversato
il cristallino, penetrata la pupilla, attraversato il globo oculare fermandosi sul fondo. Per ogni
oggetto, poi, per ogni particella di questo, di tutte le scorzettine emesse in tutte le direzioni, una
sola avrebbe potuto colpire la cornea normalmente (cioè, secondo una traiettoria rettilinea
perpendicolare al piano della cornea), attraversarlo e giungere a destinazione. L'unicità della
scorzettina evitava la duplicazione di immagini e la confusione sulla retina di ciascuna particella,
consentendo una visione ordinata.
A questa teoria lo scienziato aggiungeva per corollario l'ipotesi che vi fossero due tipi di
scorzettine, alcune "normali" (secondanti appieno la sua teoria) ed altre "irregolari". Mentre le
normali avrebbero raggiunto regolarmente la retina procedendo in linea retta e
con velocità finita, le altre sarebbero state fermate dalla rifrazione e respinte, negando la
visione di talune parti di oggetti. Della rifrazione andava del resto abbozzando rudimenti teorici,
avendo effettuato esperimenti su oggetti trasparenti (vetrosi) di forma sferica o cilindrica, e
della riflessione e dell'assorbimento stava per dedicarsi a studi più profondi.
Sulla retina, le scorzettine regolari (una per ciascuna delle componenti particellari dell'oggetto)
si sarebbero fermate a fornire l'informazione visiva che, insieme alle altre scorzettine regolari
giunte a destinazione, avrebbe consentito di ricostruire una informazione generale sull'oggetto
che le aveva emesse. L'immagine sarebbe dunque stata il risultato della ricezione-percezione
della somma delle scorzettine emesse da ciascuna particella dell'oggetto, ordinate dall'occhio
in una visione finalmente comprensibile.
Avendo studiato a fondo l'anatomia dell'occhio, ed avendo per questo maturato una profonda
consuetudine con le teorie di Galeno (dal quale aveva appreso della cornea e delle tuniche),
Alhazen si rese conto (ben prima che la nozione divenisse di generale accettazione) che le
scorzettine, attraversando il globo (nell'allora solo supposta traiettoria rettilinea), si sarebbero
disposte sulla retina in ordine inverso, come in effetti accade: l'immagine risultante sulla retina è
effettivamente capovolta, e Alhazen lo aveva intuito con semplici schemi di geometria.
La ricerca del sensorio Non disponendo di migliori elementi, e non potendo accettare che
l'immagine si capovolgesse (giacché l'uomo la vede "correttamente" - oggi si sa però che non è
così), ma comunque ben saldo nella consapevolezza del valore della sua teoria, si risolse a
cercare il "sensorio", cioè il nervoche trasmette le informazioni al cervello, in un punto della
14
14
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
traiettoria delle scorzettine che fosse raggiunto precedentemente al punto di "capovolgimento"
(il centro del globo oculare).
E davanti al centro del globo vi erano l'ininfluente liquido, il foro della pupilla ed il solo elemento
trasparente ma solido, il cristallino. Fu in questo perciò che Alhazen dedusse doversi trovare il
sensorio e quindi doversi raccogliere l'immagine corretta.
La specialità della luce solare La considerazione delle caratteristiche dell'illuminazione, ormai
senza più dubbio attribuita all'effetto della luce solare, unita alla considerazione delle sensazioni
dolorose arrecate dall'osservazione diretta del massimo Astro, condusse Alhazen ad ipotizzare
che dal Sole promanasse qualcosa (forse non propriamente scorzettine nel senso che aveva già
individuato) capace di provocare l'emissione di scorzettine "ordinarie" da parte degli oggetti
colpiti dalla luce solare.
Intuì dunque una sorta di forza, di energia emessa dal Sole (ma non pervenne ad una sua
precisa definizione), tanto forte da suscitare la produzione di informazioni visive provenienti dagli
oggetti e troppo forte per l'occhio, che di tali scorzettine doveva riceverne, non produrne.
Questa sorta di radiazione gli consentì di ipotizzare che il colore fosse effetto d'una radiazione
secondaria, emessa dagli oggetti colorati che fossero stati sollecitati da un agente primario,
come la luce del Sole; si spinse ad ipotizzare, per primo, che la luce solare illuminasse la Luna e
che questa la riflettesse sulla Terra.
Sintetizzando, Alhazen introdusse l'ipotesi che (come poi sarebbe stato sviluppato dalla teoria
corpuscolare) la visione dipendesse da un agente esterno (il lumen, concetto innovativo
rispetto alla lux) e che le informazioni fornite dai lumen fossero in realtà un flusso di particelle
materiali emesse dagli oggetti.
La camera oscura e le illusioni ottiche Lo studio sul capovolgimento dell'immagine all'interno del
globo oculare, dovuto al passaggio per lo stretto foro della pupilla, diede lo spunto ad Alhazen
per sviluppare il primo studio in assoluto sulla camera oscura. Lo scienziato descrisse con grande
anticipazione ed esattezza il meccanismo di capovolgimento dell'immagine che attraversando
un foro si fermava sul fondo della camera.
Dalla Chimica alle Onde Elettromagnetiche
L’Isomeria Ottica degli Idrocarburi e la Polarizzazione
L’isomeria è quel fenomeno per cui a una stessa composizione chimica corrispondono diverse
disposizioni spaziali degli atomi costituenti.
Sono isomeri quei composti che hanno la stessa formula bruta ma che differiscono per il modo
in cui gli atomi sono legati tra loro o sono disposti nello spazio.
In English: compounds that have the same molecular formula but differs for the structure.
Negli isomeri di struttura gli stessi atomi sono legati in modo diverso. Esistono 2 tipi di isomeri di
struttura:
•
•
isomeri di catena, nei quali la catena può essere lineare o ramificata
isomeri di posizione se le molecole contengono atomi diversi da C e H
Esiste anche l’isomero di gruppo funzionale. L’isomeria ottica, invece, come quella geometrica,
è un tipo di stereoisomeria. Tutti gli oggetti che, come le mani, mancano di un piano di
15
15
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
simmetria, vengono chiamati chirali, ovvero distinguibili dalla loro immagine speculare. Sono
invece achirali tutti gli oggetti (una palla, un cubo) che presentano un piano di simmetria,
perché sono sovrapponibili alla loro immagine speculare tramite traslazioni e rotazioni. Anche le
molecole possono essere chirali, a patto che la loro struttura non presenti piani di simmetria. Ciò
accade quando, per esempio, un atomo di carbonio lega a sé, secondo una geometria
tetraedrica, 4 atomi (o gruppi atomici) diversi; in tal caso si dice che l’atomo di carbonio è un
centro chirale o stereocentro. Coppie di molecole non sovrapponibili l’una alla sua immagine
speculare, comunuqe la si ruoti nello spazio, vengono chiamate isomeri ottici o enantiomeri. Gli
enantiomeri hanno proprietà achirali identiche: punto di fusione, punto di ebollizione, densità,
solubilità e reattività con reagenti achirali. Hanno invece proprietà chirali diverse. A livello
macroscopico la chiralità si può mettere in evidenza con un fenomeno fisico: la capacità di far
ruotare il piano della luce polarizzata. Ma cos’è la luce polarizzata? La luce visibile è un’onda
elettromagnetica dove le oscillazioni dei campi magnetici ed elettrici avvengono casualmente
in tuttti i piani perpendicolari alla propagazione dell’onda luminosa. Se la luce attraversa un filtro
polaroid viene polarizzata, cioè oscilla in un solo piano. Gli enantiomeri fanno ruotare il piano
della luce polarizzata di uno stesso angolo, ma in direzione opposta. Per questo motivo si
chiamano anche antipodi ottici. Proprio perché hanno identiche proprietà fisiche, è molto
difficile separare una coppia di antipodi ottici.
Gli enantiomeri, o antipodi ottici, sono stereoisomeri che risultano l’uno l’immagine speculare
dell’altro e presentano attività ottica opposta.
In English: stereoisomers of a chiral substance that have a mirror-image relationship.
Lo strumento che serve a studiare l’attività ottica delle sostanze chimiche è il polarimetro. Esso è
dotato di una sorgente di luce, di due filtri polarizzatori e di un tubo porta-campioni. Il primo filtro
polarizza la luce (polarizzatore); il raggio polarizzato attraversa il secondo filtro (analizzatore) e
arriva al nostro occhio soltanto se i due filtri hanno assi di polarizzazione paralleli. Se
interponiamo un campione fra due filtri con assi paralleli, vediamo il raggio luminoso a patto
che il campione sia otticamente inattivo.
16
16
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
In caso contrario, il campione ruota di un certo angolo α il piano della luce polarizzante e il
raggio non può emergere dal filtro polarizzatore. Per vederlo nuovamente è necessario ruotare il
filtro analizzatore dello stesso angolo α; se la rotazione è verso destra si dice che la sostanza è
destrogira ( + ), se verso sinistra levogira ( - ).
Il miscuglio al 50% di due enantiomeri è detto racemo e non è otticamente attivo.
In English: Racemate
A mixture consisting of equal parts (+) & (-) enantiomers of a chiral substance.
E’ da qui che parto spiegando le onde elettromagnetiche e la luce
Le Onde Elettromagnetiche
Il Campo Elettrico Indotto
Il campo elettrico che causa una corrente indotta, detto campo elettrico indotto, è generato
da un campo magnetico che varia nel tempo. Il campo magnetico variabile dà origine a un
campo elettrico indotto.
Quindi un campo elettrico può essere generato da:
•
•
cariche elettriche
campi magnetici variabili
La Circuitazione del Campo Elettrico Indotto
Il campo elettrico indotto è caratterizzato dal valore della sua circuitazione, che è dato dalle
formule:
=−
∆
∆
oppure
=−
#
#
(1)
Il comportamento del campo elettrico dipende quindi dal valore assunto dal secondo membro
della formule precedenti:
•
•
nel caso dell’elettrostatica ( $ nullo ) e delle correnti continue ( $ costante ) con circuiti
fissi, la variazione del flusso di campo magnetico è nulla; in questo caso si ha %&' ( = 0 e
si conferma che il campo elettrostatico è conservativo, per cui si può definire la
grandezza «energia potenziale»;
se il campo magnetico è variabile oppure i circuiti sono in movimento, il secondo
membro delle formule (1) può essere diverso da zero. In tali situazioni, quindi, la
circuitazione del campo elettrico è diversa da zero e ne risulta che il campo eletttrico
indotto non è conservativo, e il potenziale elettrico non può essere definito.
Calcolo della Circuitazione del Campo Elettrico
Indichiamo con *(,-) la forza elettrica, dovuta all’induzione elettromagnetica, che agisce su una
carica di prova q, presente nell’anello conduttore in cui scorre la corrente indotta. Il campo
elettrico indotto si calcola, al solito modo, mediante la formula
=
/(01)
2
Sappiamo che la forza elettromotrice è definita come:
17
(2)
17
18
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
5
3-4 =
6
(3)
dove W è il lavoro fatto dalle forze non elettrostatiche nel trasportare la carica q.
Il lavoro elementare ∆78 compiuto dalla forza *8(,-) ,dovuta al campo elettrico indotto, per
spostare q del tratto ∆98 è
∆78 = *8(,-) ∙ ∆98
e il lavoro totale si ottiene sommando tutti i lavori elementari
<
<
8=>
8=>
7 = ; ∆78 = ; *8(,-) ∙ ∆98
A questo punto si può calcolare la forza elettromotrice che, secondo la formula (3), risulta
3-4
Per la formula (2), il rapporto
Fk(ie)
q
<
*8(,-)
7
=
=;
∙ ∆98
?
?
8=>
è il campo elettrico indotto '8 che esistenella zona descritta
dallo spostamento ∆98 . La formula precedente si può riscrivere quindi come
<
3-4 = ; '8 ∙ ∆98
8=>
Sappiamo che il valore di 3-4 è dato dalla legge di Faraday-Newmann-Lenz
3-4 = −
sostituendo otteniamo
∆Φ($)
∆E
Γ&' ( = −
Il termine mancante
∆Φ($)
∆E
La scoperta dell’induzione elettromagnetica porta a modificare la legge che fornisce la
circuitazione del campo elettrico: da Γ&' (
= 0 a Γ&' ( = −∆Φ($ )/∆t.
Ci si può chiedere allora se debba essere cambiata anche la legge di Ampère,
Γ&$( = μJ ∑<8=> L8 , che descrive la circuitazione del campo magnetico.
Il fisico scozzese James Clerk Maxwell scoprì una ragione che obbligava a modificare la legge
di Ampère. Consideriamo un condensatore che si sta caricando perché nei fili collegati ad esso
fluisce una corrente elettrica i.
►Per la legge di Ampère, le circui-
►A S3 non è concatenata alcuna cor-
►Non si può calcolare la cir-
tazioni calcolate lungo S1 e S2 val-
rente elettrica. Quindi, per la legge di
cuitazione lungo S4 perché
18
19
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
valgono µ0i,perché a essi è conca-
Ampère, la circuitazione di $ lungo S3
non si sa se i è concatenata
tenata una corrente di valore i.
vale zero.
a S4.
Appicando la legge di Ampère, la circuitazione del campo magnetico deve diventare uguale
a zero all’interno del condensatore. Inoltre, in corrispondenza del bordo del condensatore il
valore di Γ&$ ( è indeterminato.
Per evitare questo risultato, logicamente insoddisfacente, Maxwell corresse la legge di Ampère:
Γ&$(
μJ L
εJ
∆N&O(
∆P
(4)
dove il flusso del campo elettrico è calcolato attraverso una superficie che ha come contorno il
cammino lungo il quale si esegue la circuitazione. Il termine aggiunto
LQ
εJ
∆N&O (
∆P
(5)
è detto corrente di spostamento. Dalla formula (4) risulta che
uncampoelettricovariabilegenerauncampomagnetico
Quindi un campo magnetico può essere generato da:
•
•
cariche elettriche
campi elettrici variabili
Il calcolo della corrente di spostamento
Adesso calcoliamo il flusso del campo elettrico attraverso una superficie di area S uguale a
quella delle armature e posta all’interno del condensatore. Utilizzando il teorema di Gauss,
consideriamo la superficie che ci interessa come parte di un cilindro chiuse che racchiude
l’armatura positiva del condensatore. Il campo elettrico prodotto dal condensatore è nullo al di
fuori di esso e, all’interno, è parallelo alla superficie laterale del cilindro. Se indichiamo con Z la
carica che si trova sull’armatura positiva, per il teorema di Gauss il flusso del campo elettrico
attraverso [ è uguale a
Φ> &' (
19
Z
εJ
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
Dopo un breve intervallo di tempo ∆E la carica sul condensatore è Z + ∆Z = Z + L∆E, per cui il
flusso di campo elettrico è cambiato e diviene
Φ\ &' ( =
Z + L∆E
εJ
Siamo quindi in grado di calcolare con la formula (5) la corrente di spostamento:
L Q = εJ
∆Φ(' )
Φ\ &' ( − Φ> &' ( 1 Z + L∆E Z
1 L∆E
= εJ
εJ ^
− _ = εJ
= L; èbcdL3LefEgeℎcL = LQ.
∆E
∆E
∆E
εJ
εJ
∆E εJ
Le Equazioni di Maxwell e il Campo Elettromagnetico
A questo punto sono state ricavate due nuove equazioni:
Γ&' ( = −
∆Φ($ )
∆E
Γ&$ ( = μJ j; L8 + εJ
Rispetto alla formula (4), l’equazione Γ&$ (
8
∆Φ&' (
k
∆E
= μJ ∑8 L8 è stata scritta nel caso più generale in cui
ci sono diverse correnti elettriche concatenate al circuito S.
Prima Equazione
Che cosa dice
La prima eq. stabilisce che la circuitazione del campo elettrico lungo un campo chiuso S è
direttamente proporzionale alla rapidità di variazione del flusso del campo magnetico,
calcolato attraverso una superficie Ω che ha S come contorno.
Che cosa significa
Nel caso non statico, il campo elettrico non è conservativo.
Quali sono le conseguenze
•
•
Il fenomeno dell’induzione elettromagnetica
Un campo magnetico variabile genera un campo elettrico
Seconda Equazione
Che cosa dice
La legge per la circuitazione del campo magnetico era incompleta
Che cosa significa
La corrente di spostamento is = ε0 Δϕ(' )/Δt contribuisce alla circuitazione di $ alla pari delle
correnti convenzionali.
Quali sono le conseguenze
Il primo addendo mostra che il campo magnetico è generato da cariche in moto (correnti
elettriche); il secondo stabilisce che un campo elettrico variabile genera un campo magnetico.
Le Equazioni di Maxwell
20
20
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
Nella sua opera fondamentale Treatise on Electricity and Magnetism (Trattato sull’elettricità e il
magnetismo), pubblicato nel 1873, James Clerk Maxwell dimostrò che tutte le proprietà
dell’elettricità, del magnetismo e dell’induzione elettromagnetica possono essere derivate
partendo da quattro sole equazioni, che hanno quindi il ruolo di assiomi della teoria.
Per questa ragione le quattro eq. sono dette, nel loro insieme, equazioni di Maxwell.
Equazione
ϕo &' ( =
Campo
pqrq
s
(6)
(Teorema di Gauss per il campo elettrico)
Γt &' ( = −
uv(w )
uP
'
21
Grandezza
interessata
Principali conseguenze
Flusso
Le cariche sono sorgenti del campo
elettrico.
(7)
' , $
(8)
$
(9)
' , $
Circuitazione
·
·
Correnti indotte.
Un campo magnetico variabile è sorgente di un campo elettrico.
(Teorema della circuitazione per
il campo magnetico)
ϕo &' ( = 0
Flusso
Non esistono monopoli magnetici
isolati.
(Teorema di Gauss per
il campo magnetico)
Γt &$ ( = μJ ∑8 L8 + εJ
∆N&O (
∆P
(Teorema della circuitazione per il campo
magnetico)
Circuitazione
Sorgenti del campo magnetico sono:
·
·
le correnti elettriche(primo addendo);
i campi elettrici variabili (secondo addendo).
Il Campo Elettromagnetico
Nel caso statico vi sono due eq. che descrivono il comportamento del campo elettrico e altre
due che regolano i fenomeni magnetici. Nel caso generale nella seconda e nella quarta eq.
compaiono entrambi i campi ' e$. Ciò implica che non è più possibile studiarli in modo isolato,
ma che essi sono due facce della stessa medaglia, due aspetti diversi dello stesso ente fisico: il
campo elettromagnetico. La teoria che viene sviluppata si chiama elettromagnetismo.
Le Onde Elettromagnetiche
Il campo elettromagnetico si propaga nello spazio vuoto. Cio che si crea è un onda
elettromagnetica, prevista teoricamente da James Clerk Maxwell nel 1861 e provata
sperimentalmente dal fisico tedesco Heinrich Rudolph Hertz tra il 1886 e il 1889.
21
22
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
Unz ondaelettromagneticatrasportaenergiaecontinuaapropagarsianchequandolacaricachelz ha
generatasmettedimuoversi.
La Velocità della Luce
Partendo dalle equazioni (6), (7), (8), e (9), Maxwell dimostrò che la velocità di propagazione
delle onde elettromagnetiche nello spazio vuoto è
b~<•--€-PP•~4‚ƒ<-P,„…- =
1
†εJ μJ
Ecco cosa si ottiene calcolando il valore numerico di questa quantità:
1
† ε J μJ
=
†(8,854 ×
10‹>\ C\ /(N ∙
1
m\ )) ×
(4π
× 10‹• N/A\ )
= 2,998 × 10“
m
s
Questo valore è uguale alla velocità della luce misurata nel vuoto, per cui si ha
>
†”• –•
=c
(10)
Sulla base di questo risultato, Maxwell concluse che
laluceèunparticolaretipodiondaelettromagnetica.
Le Onde Elettromagnetiche Piane
Il profilo spaziale dell’onda
Consideriamo una delle infinite rette che si dipartono da un’antenna. Essa rappresenta la
direzione di propagazione dell’onda.In ogni punto di questa retta troviamo un campo elettrico
' e un campo magnetico $, legati (nel vuoto) dalla condizione
' = e$
(17)
Icampi'e$sonoperpendicolarieproporzionalitraloro; inoltresonoperpendicolarialladirezionedi
propagazionedell′onda.
L’onda elettromagnetica è, quindi, un onda trasversale, in quanto le due grandezze che
variano oscillano in senso perpendicolare allo spostamento dell’onda.
Si osserva che i valori dei due campi variano nello spazio in modo regolare, descrivendo
un’onda che ha lunghezza d’onda λ.
22
23
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
L’Onda Elettromagnetica nel tempo
In un punto ›issato, i campi ' e $ oscillano in modo concorde, entrambi con frequenza 3
e/•.
La Polarizzazione della Luce
In un’onda elettromagnetica il campo elettrico può oscillare in modi diversi:
►se ' oscilla sempre in un piano ►se oscilla sempre in un piano ►se
se ruota attorno alla direverticale, l’onda è polarizzata ver
ver- orizzontale , è polarizzata oriz- zione di propagazione,è popo
ticalmente.
zontalmente.
larizzata circolarmente.
23
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
Unz ondasidicežŸ ¡¢£¤¤¡¥¡quandolz oscillazionedeivettori'e$hacaratteristichebende›inite.
Il Polarizzatore
Esistono particolari filtri, detti polarizzatori, che permottono il passaggio soltanto di un
determinato tipo di luce polarizzata.
Questo particolare tipo di filtri viene utilizzato anche in fotografia.
I filtri polarizzati per fotografia sono disponibili di due tipologie:
24
24
25
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
•
lineare: spesso indicato con la sigla PL
•
circolare: indicato con la sigla C-PL, PL-CIR o CPL (Fonte: Wikipedia)
Dalle Onde Elettromagnetiche ai Fotoni
La Quantizzazione della Luce secondo Einstein
Per spiegare le leggi sperimentali dell’effetto fotoelettrico, nel 1905 Albert Einstein prese in
considerazione l’ipotesi di Plank sulla quantizzazione dell’energia scambiata tra atomi e
radiazione elettromagnetica:
Laradiazioneelettromagneticaècompostadasingolipacchettidienergia, iquantidelcampoelettroma −
gnetico, chepiùtardifuronochiamati¨Ÿ¥Ÿ©£.
Ogni fotone ha massa nulla e trasporta un’energia E direttamente proporzionale alla sua
frequenza f; secondo Einstein, la costante di proporzionalità non è altro che la costante di Plank
h, data dalla relazione:
' = ℎ3
(6)
Quindi,nella radiazione elettromagnetica,l’energia è quantizzata: data la frequenza f dell’onda,
l’energia trasportata da un fascio luminoso monocromatico può assumere soltanto un insieme
discreto di valori, tutti multipli di una quantità fondamentale.
Ma non è quantizzata soltanto l’energia. Infatti, secondo la relatività, l’energia totale E e la
quantità di moto p di un corpo di massa m sono legati secondo la relazione ' = †e \ ª\ + «\ e ¬.
Con m = 0, un fotone trasporta una quantità di moto di modulo
ª=
O
„
=
…„
(7)
anch’essa proporzionale a f e, di conseguenza, quantizzata.
La Dualità Onda-Particella
I risultati degli esperimenti condotti durante questo periodo portarono a dire che la luce sia
provvista di una dualità onda-particella.
Dalla Fisica al Digitale
La fotografia digitale
La percezione del colore
Per capire la fotografia digitale riassumiamo alcune nozioni sulla percezione del colore da parte
dell’occhio umano. La percezione del colore è solitamente descritta con tre termini:
Tinta - il colore che vediamo;
Saturazione - quanto “profondo” è il colore. Un’alta saturazione significa meno “bianchezza”;
Contrasto - indica l’intensità della luce (luce che arriva al detector, occhio umano).
Illuminando simultaneamente un oggetto con due sorgenti luminose di differenti colori si
percepisce l’oggetto di un colore diverso da ognuno dei colori originali; per esempio, a parità di
contrasto, illuminando l’oggetto contemporaneamente con luce verde e rossa esso ci apparirà
giallo.
Colori primari e Pixel
Si definiscono colori “primari” quei colori che in combinazione di tre danno luce bianca; tuttavia
usando rosso (R), verde (G) e blue (B) si può produrre il più ampio spettro di colori. Questi tre
25
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
colori primari sono quelli usati nei moderni mezzi elettronici per visualizzare anche le immagini più
complesse. Il colore del pixel risulta da una opportuna miscelazione di questi tre colori.
Il termine pixel indica ciascuno degli elementi puntiformi che compongono la rappresentazione
raster di una immagine. In questa tecnica l’immagine è rappresentata,
rappresentata, semplificando, come
una scacchiera con tanti quadratini ognuno dei quali è un punto (o pixel) dell’immagine. La
densità dei pixel che costituiscono una immagine, espressa in pixel/pollice o pixel/centimetro, è
detta risoluzione. Il numero di pixel che c
costituiscono
ostituiscono un’immagine può essere espressa da un
solo numero, come tre megapixel detto di una fotocamera che ha tre milioni di pixel, o da una
coppia di numeri come in 'schermo 640 x 480', che ha 640 pixel in larghezza e 480 in altezza
(come nei display VGA), perciò con un numero totale di pixel di 640*480 = 307.200. I punti sono
così piccoli e numerosi da non essere distinguibili ad occhio nudo, apparendo fusi in un'unica
immagine quando vengono stampati su carta o visualizzati su un monitor. Ciascun pixel,
pix che
rappresenta il più piccolo elemento rappresentabile dell'immagine, è caratterizzato dalla
propria posizione e da valori quali colore e intensità, variabili in funzione del sistema di
rappresentazione (monitor, stampante, macchina fotografica ecc.) adottato. Il colore di un
pixel si ottiene dalla combinazione dei tre colori rosso, verde, blu. Ad esempio in un monitor CRT
il colore del pixel, quando usato nel modo più efficiente, è la risultante della combinazione dei
colori emessi da un gruppo di tre fosfori puntiformi (triade, una sorta di sotto
sotto-pixel molto
ravvicinati e piccoli) residenti sulla superficie interna del monitor colorati uno rosso, uno verde, e
uno blu. Dirigendo su di essi differenti quantità di elettroni, la triade sarà percepita come un
punto (pixel) del colore risultante dalla combinazione delle diverse intensità dei colori rosso,
verde e blu. Negli schermi LCD e nelle stampanti a colori, i pixel colorati si ottengono in maniera
simile combinando i tre colori R, G, B.
Rilevatori allo stato solido
Molti materiali solidi emettono un elettrone quando colpiti da un fotone. Si ottiene una
immagine elettronica catturando questi elettroni in prossimità della loro fonte di emissione e
“leggendoli” elettronicamente. Le cariche elettriche possono
possono essere “contate” ed inviate ad
un’altro apparecchio, come un computer, capace di analizzare l’informazione. Finora il più
comune di questi rilevatori è il CCD (Charge Coupled Device) usato nelle fotocamere digitali.
CCD: Charge Coupled Device
Sequenza di eventi e spostamento di carica in tre pixel consecutivi
Un CCD consiste in un circuito integrato(chip in silicio) sul quale è costruita una riga, o una
griglia, di siti fotosensibili (photosite) in grado di accumulare una carica elettrica (charge)
proporzionale all'intensità della radiazione elettromagnetica che li colpisce.
26
26
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
CCD illuminato da sopra
CCD illuminato da sotto
Normalmente i CCD sono illuminati da sopra; questo, tuttavia, non permette all’elettronica di
vedere tutta la luce che deve essere misurata: L’uso di composti metallo polimerici
parzialmente trasparenti usati per costruire i contatti elettrici può alleviare il problema. Per
migliorare la sensibilità il substrato sul quale giace lo strato fotosensibile è inciso (etched away)
con acidi ed il CCD è illuminato da dietro. Questo tipo di CCD sono fragili e facilmente distorti.
La maggior parte dei CCD sono sensibili al rosso, per renderli più sensibili al blue sono ricoperti
con coloranti che fluorescono (fluorescenza: fenomeno radiativo per cui una sostanza o un
elemento colpito da radiazione elettromagnetica ad un certa lunghezza d’onda emette della
radiazione a lunghezza d’onda maggiore di quella incidente) quando colpiti da radiazione a
lunghezza d’onda corta. In questo modo si riesce ad ampliare lo spettro luminoso al quale il
CCD risponde. Questi elementi sono accoppiati (coupled) in modo che ognuno di essi,
sollecitato da un impulso elettrico, possa trasferire la propria carica ad un altro elemento
adiacente. Inviando al dispositivo (device) una sequenza temporizzata d'impulsi, si ottiene in
uscita un segnale elettrico grazie al quale è possibile ricostruire la matrice dei pixel che
compongono l'immagine proiettata sulla superficie del CCD stesso. Questa informazione può
essere utilizzata direttamente nella sua forma analogica, per riprodurre l'immagine su di un
monitor o per registrarla su supporti magnetici, oppure può essere convertita in formato digitale
per l'immagazzinamento in file che ne garantiscano il riutilizzo futuro.
Storia
Il CCD fu ideato alla divisione componenti semiconduttori dei Bell Laboratories da Willard S.
Boyle e George E. Smith nel 1969. L'anno seguente venne realizzato un prototipo funzionante.
Nel 1975 fu realizzata la prima videocamera con CCD con una qualità dell'immagine sufficiente
per le riprese televisive. Agli inizi del XXI secolo il CCD è il cuore delle moderne macchine
fotografiche e videocamere digitali, ma anche dei fax e degli scanner. La scelta di una buona
macchina passa per la scelta di un buon CCD, caratterizzato dalla dimensione in pollici
(1/2,1/3,2/3, ...) e dal numero di pixel che compongono l'immagine catturata. La ricerca attuale
è volta anche ad ottimizzare la forma del singolo pixel e la sua posizione.
27
27
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
Megapixel
Le macchine fotografiche digitali più vecchie usano i CCD per registrare i livelli di luminosità alle
diverse lunghezze d’onda. Si usano filtri colorati rossi, verdi e blu, in modo che ogni pixel possa
registrare la luminosità di un singolo colore primario. I pixel in questo tipo di fotocamere digitali
sono simili a sotto-pixel; la fotocamera interpola l'informazione di colore per creare l'immagine
finale. Questo metodo può creare difficoltà, a differenza della pellicola fotografica, nel
riprodurre i toni caldi delle immagini. Con i più moderni sensori CCD Foveon X3 si è sviluppata
una tecnica che assomiglia a quella della cattura della luce con una pellicola a colori, ogni
pixel in realtà è costituito da una stratificazione di tre sottopixel, ognuno sensibile ad un diverso
colore RGB, che acquisiscono l’intero spettro contemporaneamente e nella stessa locazione. I
tre strati sottopixel sono immersi nel silicio (in circa 3 micrometri di profondità) cosicché i diversi
colori della luce sono percepiti a diversa profondità nel silicio. In questo modo la fotografia
digitale è diventata di qualità comparabile a quella con pellicola analogica.
Il concetto di “Digitale”
Nell’esperienza quotidiana l’espressione “digitale” è talmente comune che forse si è perduto il
senso di questo aggettivo. “Digitale”, nel senso che gli si attribuisce parlando di “immagini
digitali” o di “musica digitale” è una delle tante parole di origine latina reimportate in italiano
tramite l’inglese: in questo caso la parola “digit”, che ha lo stesso significato dell’italiana “cifra”.
Quindi “digitale” è tutto quello che viene affidato per la conservazione e la fruizione alla
codifica (e decodifica) tramite una successione di numeri (di 0 e 1).
La Matematica dei Pixel: la Serie di Fourier
È abbastanza ovvio che in questi processi la matematica debba avere la sua parte accanto
all’informatica (anche senza voler pensare a quest’ultima come a una forma moderna della
matematica stessa). Ma per quasi tutti gli utenti del “mondo digitale” non è per niente chiaro
quale e quanta matematica sia coinvolta nella visione di una fotografia sulla schermo di un
computer o nell’ascolto di una brano musicale su Ipod. Scopo di questa lezione è quello di far
emergere una parte della matematica che giace nascosta nella fruizione “digitale” delle
immagini. Oggi la fotografia digitale ha quasi completamente soppiantato il vecchio
procedimento fotografico basato sulla pellicola fotosensibile, tanto che il 30 dicembre 2010 a
28
28
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
Pearson nel Kansas è stato sviluppato l’ultimo rotolino di pellicola Kodachrome, la più usata
pellicola per foto a colori. In una fotografia digitale possiamo individuare tre processi
fondamentali. Il primo è quello ottico, del tutto analogo a quello delle vecchie macchine
fotografiche, che consente di formare l’immagine su una superficie (la pellicola nella vecchia
foto, il “sensore elettronico” per la foto digitale). Il sensore è una griglia occupata da minuscoli
semiconduttori (CCD o CMOS nello stato dell’arte attuale) il cui scopo è trasformare l’intensità
della luce in un segnale elettrico. Questo viene a sua volta trasformato in un numero (questo
avviene direttamente nel sensore nella tecnologia CMOS). I colori vengono “suddivisi” in tre
colori fondamentali: rosso, verde e blu – red, green, blue, da cui la sigla RGB, in inglese –
catturati da tre differenti sensori adiacenti. Il luogo da essi occupato è comunemente detto
pixel. Una fotocamera di oggi (per uso meno che amatoriale) ha una “risoluzione” di almeno 10
megapixel, ovvero di dieci milioni di pixel. Il terzo processo è lo stoccaggio di tutti questi numeri
in un file. Il file prodotto (nel formato detto RAW) ha una dimensione ragguardevole. Infatti, ogni
pixel produce tre numeri (in formato binario, cioè fatti da 0 e 1) che rappresentano l’intensità
del rispettivo colore. Questa intensità è suddivisa in una scala che dipende da quanti bit sono
dedicati a ogni colore (si usa la sigla bpp, bit per pixel). Una buona fotocamera usa 8 bit per
colore (quindi 24 bpp) permettendo così di rappresentare un totale di 2 elevato alla 24, ovvero
circa 16,8 milioni di colori. Quindi un file RAW per una foto occupa circa 240 milioni di bit, ovvero
circa 30 Megabyte per ogni foto. Nonostante le capacità di memoria sempre più grandi dei
dispositivi odierni, questa è una dimensione veramente grande. La grande dimensione di questi
file è un difetto molto grave se si vogliono trasferire queste immagini tramite Internet. Si pone
quindi il problema di come ridurre la dimensione dei file (cioè dell’informazione “bruta” legata a
ogni foto) senza un’eccessiva perdita di qualità delle immagini. A questo scopo sono nati vari
algoritmi di compressione. Alcuni sono basati sulla creazione di “dizionari” che assegnano un
“nome” (breve) a una serie di lunghezza fissata di bit: più sequenze uguali ci sono nel file (per
esempio, se si ha una foto con molte zone di colore uniforme) più ci saranno serie uguali di bit,
tutte condensate da un solo nome. Su questa strategia, che potremmo definire “informatica”, si
basano i formati GIF e PNG. Ma il formato di compressione più noto per le fotografie a colori è
certamente il formato JPG (o JPEG, acronimo di Joint Photographic Experts Group, la sigla del
gruppo di esperti che creò lo standard verso la metà degli anni Ottanta). Il formato JPEG si basa
essenzialmente su una teoria della matematica classica, ovvero la trasformata e le serie di
Fourier. Le serie di Fourier appaiono per la prima volta nel lavoro dedicato dal matematico
francese J.B. Joseph Fourier alla teoria della propagazione del calore. In tale lavoro, egli
sostiene che ogni funzione di una variabile può essere ottenuta come la somma di infiniti termini
del tipo seno e coseno della variabile stessa, ciascuno moltiplicato per un’opportuna costante.
Queste costanti, dette coefficienti di Fourier della funzione, permettono di identificare
univocamente la funzione stessa e quindi la loro conoscenza equivale alla conoscenza della
funzione di partenza. Questa scomposizione di una funzione in somma di funzioni
trigonometriche può essere fatta anche per funzioni di due variabili (x, y), moltiplicando funzioni
trigonometriche della x con funzioni trigonometriche della y. Nella nostre fotografie digitali, il file
in formato RAW può essere pensato come la raccolta dei valori che una funzione delle variabili
(x, y), rispettivamente l’ascissa e l’ordinata dei punti del sensore, assume nei punti della griglia
corrispondenti ai pixel (in realtà le funzioni sono tre, una per ogni colore della terna RGB). Ora
possiamo pensare di sviluppare questa funzione usando la tecnica delle serie di Fourier. I dati
del nostro file RAW sono quindi trasformati nei coefficienti di Fourier di una opportuna funzione.
Non sembra di aver fatto molti progressi, visto che abbiamo appena detto che le somme sono
fatte da infiniti termini e quindi abbiamo infiniti coefficienti di Fourier. Ma quello che è
29
29
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
importante per il nostro problema è che i coefficienti di Fourier decrescono molto rapidamente,
ossia solo un numero molto piccolo di essi ha valori sensibilmente diversi da zero, e tutti gli altri
(infiniti) termini possono essere trascurati. Perciò, conservando solo pochi termini della somma
otteniamo una approssimazione della funzione che ha una forte somiglianza con la soluzione di
partenza. Il punto chiave è che,
he, se ci accontentiamo di quest’approssimazione, basta ricordarsi
i pochi coefficienti di Fourier che abbiamo selezionato al posto di tutti i valori della funzione
f
contenuti nel file RAW. Vediamo un esempio (unidimensionale) per capire come
c
funziona
l’approssimazione. Prendiamo la funzione f(x)=x nell’
nell’insieme (-π,
π, π) ed estendiamola
periodicamente fuori da questo intervallo, rappresentata in blu nel grafico
Nel grafico abbiamo sovrapposto (curva in rosso) il primo addendo della somma di Fourier.
Continuiamo aggiungendo via via i termini successivi fino al quinto addendo.
Nell’ultima figura abbiamo già un buon accordo tra il grafico della funzione originaria e la sua
approssimazione di Fourier. Quello che conta or
ora
a è che il grafico rosso è ricostruibile
rico
ricordando
solo i coefficienti di Fourier (che in questo caso sono 2, -1, 2/3,-1/2
1/2 e 2/5) tramite la formula
Al posto delle valutazioni della funzione su tutti i punti della
della nostra griglia, ora dobbiamo
ricordare solo i coefficienti dello sviluppo,
sviluppo, con un notevole risparmio di memoria (dimensione del
file). C’è tuttavia una sostanziale differenza tra la curva blu e quella rossa: la prima è discontinua,
ovvero mostra salti bruschi tra tratti di grafico in punti di ascissa vicina, la seconda è una curva
continua anche se con tratti molto ripidi. Quando questa differenza
ferenza viene trasformata nella
“colorazione” dei differenti pixel, la figura generata dal formato JPEG mostra dei pixel colorati in
zone dove non dovrebbero
o esserlo e viceversa pixel non sufficientemente
ufficientemente colorati in zone che
magari dovrebbero risultare uniforme
uniformemente
mente colorate (ciò avviene nelle zone di transizione da
un colore all’altro). Questo fenomeno è particolarmente evidente se si salva in formato JPEG un
documento che contiene caratte
caratteriri a stampa o disegni fatti da curve molto nette (come questa
pagina), mentre diventa assai poco percettibile nelle fotografie, dove i colori tendono
naturalmente
mente a “sfumare“ uno nell’altro. Tutto ciò ha una qualche
qualche importanza pratica: se
dovete digitalizzare un documento scritto, il formato JPEG dà risultati piuttosto deludenti (la
scrittura risulta “sbavata”) mentre una codifica con il formato PNG dà un risultato di gran lunga
migliore per la leggibilità del documento (i grafici e la formula rip
riportate
ortate qui sopra sono state
digitalizzate in formato PNG). La situazione si ribalta nelle foto: per ottenere risultati paragonabili
all’effetto visivo di un file JPEG, la codifica PNG (o GIFF) produce file di dimensioni
dimensi
considerevolmente maggiori. L’analisii di Fourier è alla base anche delle codifiche digitali dei
segnali sonori. La più comune codifica attuale (il formato MP3) è ottenuta con l’algoritmo di
codifica MPEG che lavora sul cosiddetto dominio delle frequenze,
frequenze, ovvero sulla
30
30
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
rappresentazione del segnale
nale sonoro non in funzione del tempo (la rappresentazione
“naturale”) ma in funzione delle componenti del segnale ottenute tramite una trasformata di
Fourier (è una generalizzazione dei coefficienti di Fourier di cui abbiamo parlato). Tuttavia il
processo è molto più complesso di quanto sia quello per la digitalizzazione delle imma
immagini e non
può essere descritto in questa sede.
La Computer Graphics e l’Equazione di Rendering
Figura 1. Figura realizzata dagli studenti del corso di Computer Graphics tenuto
tenuto da Alberto Mancini
(Dipartimento di Matematica, Università di Firenze).
La computer graphics (ormai il nome inglese ha soppiantato ogni tentativo di traduzione
italiana) ha per scopo quello di creare immagini digitali senza che queste debbano essere
ottenute da fotografie o filmati di oggetti reali. Questa lezione contiene una descrizione di molta
della matematica coinvolta nella computer graphics, in particolare la geometria proiettiva e
l’interpolazione polinomiale. Il ruolo della prima è essenzialmente
essenzialmente quello di gestire la
rappresentazione
entazione prospettica delle figure
figure nello spazio, necessaria quando si voglia ottenere un
effetto realistico come nelle due figure qui riportate. I suoi principi fondamentali datano dai
grandi pittori e teorici della pittura del Rinascimento: Brunelleschi, Alberti, Piero della Francesca
(autore di un trattato matematico sulla prospett
prospettiva). Come si costruisce un’immagine al
computer? Il primo passo è dare una descrizione matematica della forma degli oggetti. Per
prima cosa dobbiamo
biamo individuare nel piano rappresentativo (che poi verrà visualizzato sullo
schermo) gli oggetti presenti nella
nell scena.
na. Se ci riferiamo alla Figura 1, abbiamo una sfera e una
sorta di “tappeto” quadrettato. La sfera sarà descritta da una griglia di punti che uniremo con
dei segmenti ottenendo una cosa del tipo raffigurato nella Figura 2.
Figura 2.
Figura 3.
31
31
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
Ma la sfera è un oggetto solido, quindi possiamo vedere solo i punti che sstanno
tanno dalla parte
dell’osservatore. Dobbiamo quindi rimuovere le “linee nascoste” ovvero quelle linee che
delimitano parti della superficie che si trovano “dietro” (oppure che sono nascoste da altri
oggetti). Questo è abbastanza facile da fare per un oggetto
oggetto convesso come una sfera: la
superficie è rimossa se la sua normale esterna, cioè la direzione perpendicolare
pendicolare alla superficie
nel verso uscente dall’oggetto, forma un angolo acuto con la direzione dello sguardo
dell’osservatore. Lo si può fare al computer
compute tramite un algorit- mo matematico
matemat
noto come
backface culling. Più complicato è eliminare parti nascoste di oggetti non convessi. Per
esempio, se rappresentiamo un bicchiere, possiamo vedere alcune parti della superficie interna,
ma altre saranno nascoste dal resto del bicchiere anche se la normale esterna guarda verso
l’osservatore. Stessa cosa se dobbiamo eliminare parti di un oggetto coperte alla vista da un
altro oggetto presente nella scena. In questo caso si usa l’algoritmo detto “del pittore” che
consiste
nsiste nel rappresentare prima gli oggetti (parti di oggetti) più lontani e poi “dipingendoci
sopra” quelli più vicini (Z-sorting).
sorting). Si
S deve quindi decidere “matematicamente”
ticamente” quali sono gli
oggetti più lontani, e per far ciò dobbiamo “ricordarci” della coordinata
coordinata nella direzione della
profondità (l’operazione è molto costosa dal punto di vista del calcolo perché si deve lavorare
al livello dei singoli
oli pixel e viene spesso imple
implementata
mentata in un hardware dedicato, con
acceleratori grafici).
Figura 4. Da M. Slater,
Slat The radiance equation.
Ma per raggiungere un effetto realistico è necessario integrare al disegno gli effetti della luce.
Poiché gli oggetti rappresentati sono “nati dal nulla”, cioè ottenuti tramite descrizioni
matematiche degli oggetti e del loro posizionamento
po
nello spazio, è necessario
cessario che anche
l’illuminazione di questi oggetti venga “creata” da un algoritm
algoritmo
o matematico.Per
matematico.
capire la
complessità del problema basta guard
guardare con attenzione le due immagini
gini qui presentate: Fig. 1
e Fig. 4. La seconda (che NON è una fotografia digitalizzata, ma un’immagine creata
direttamente al computer) è di impressionante realismo, forse un po’ troppo complessa per
essere descritta nella sua interezza. Va però notata una sua caratteristica fondamentale: la luce
proviene
ene dall’alto a sinistra, per chi guarda, e illumina direttamente solo una parte della scena.
La parte sinistra del portico si trova in ombra, ma è a sua volta illuminata dalla luce
(parzialmente)
e) riflessa dalle zone illumi
illuminate. A sua volta, per quanto in misura minore, anche gli
oggetti illuminati di riflesso rinvieranno la luce nelle altre parti della scena, e così via. Una
situazione scenograficamente più semplice è presente nella Fig. 1 (risultato di una “esercitazione”
di un corso tenuto da A. Mancini presso il Dipartimento di Matematica dell’Università di Firenze).
Qui la luce proviene sempre dall’alto, ma dalla destra della scena. Colpisce direttamente una
parte del pavimento e una parte della sfera che vi è appoggiata
appoggiata sopra. La sfera s’immagina
32
32
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
che debba avere una superficie riflettente (almeno parzialmente) visto che la sua parte
inferiore rispecchia il disegno del pavimento. Anche qui si ha un gioco di riflessione parziale della
luce che illumina le parti in ombra. Dobbiamo ricordarci che le figure qui riprodotte sono la
visualizzazione di file numerici a loro volta prodotti “matematicamente”. Se gli effetti che vi si
possono osservare sono realistici, ciò è ottenuto grazie alla possibilità di dare un “buon” modello
matematico della propagazione, riflessione e diffusione della luce. La luce è un fenomeno fisico
complesso che presenta aspetti che possono essere descritti talora in termini di onde luminose e
talora tramite particelle (fotoni). Nel modello usato si fa uso del concetto di radianza, una
misura dell’energia luminosa che si assume come propagantesi in raggi luminosi che, quando
incontrano un oggetto, vengono in parte assorbiti e in parte riemessi dalla superficie
dell’oggetto secondo caratteristiche tipiche della superficie dell’oggetto stesso (trascuriamo qui
gli effetti di “attraversamento” di oggetti “trasparenti”). L’equazione che regola questo
comportamento è nota in computer graphics con il nome di rendering equation, che esprime
una particolare forma di conservazione dell’energia. Se indichiamo con L la radianza, abbiamo
che a ogni punto della super- ficie e in ogni direzione, la luce uscente Lo è la somma della luce
emessa Le e della luce riflessa. Questa, a sua volta, è data dalla luce incidente Li da tutte le
direzioni, moltiplicata per una funzione di riflessione dipendente dalle caratteristiche della
superficie e per il coseno dell’angolo di incidenza. Tutte queste quantità dipendono dalla
lunghezza d’onda della luce stessa. Il risultato è la seguente equazione di rendering
Figura 5. L’equazione di rendering.
L’equazione di rendering è un caso di equazione integrale, un tipo di equazione molto studiato
in fisica matematica (un altro celebre esempio è l’equazione di Boltzmann della meccanica
statistica). Per determinare la corretta illuminazione di una scena dobbiamo trovare la soluzione
dell’equazione di radianza in funzione della sorgente che illumina la scena (la luce “esterna”) e
della forma, posizione e caratteristiche degli oggetti presenti, calcolando la luce che finisce nel
punto in cui si trova l’occhio dell’osservatore. La soluzione tuttavia può essere costruita solo in
modo approssimato. Negli anni sono state sviluppate diverse strategie di soluzione, molte delle
quali si basano sul principio del Metodo Montecarlo, che consiste nel generare un numero
elevato di prove casuali (in questo caso si tratta di raggi luminosi) e fare una sorta di media dei
risultati ottenuti. Questi metodi (ray tracing, path tracing, Metropolis light trasport) richiedono un
enorme sforzo di calcolo e quindi molto tempo per ottenere un’immagine realistica. Ciò li rende
adatti solo per immagini statiche, mentre non possono essere utilizzati per immagini in
movimento come quelle dei videogiochi.
Fotografia come Arte
“LAND ART”
L
a Land art nasce negli Stati Uniti negli anni ’70, per indicare un’esperienza creativa
nell’ambito dell’arte concettuale, ossia quell’espressione artistica, dove l’idea o il
concetto è più importante della realizzazione stessa.
33
33
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
Per Land art s’intende una corrente artistica che rinuncia alla volontà di creare una forma
nuova, cioè fatta dall’uomo a partire da zero, ma assume come forma la realtà stessa di un
paesaggio o di un ambiente che vengono trasformati attraverso delle modifiche per renderlo
un’opera d’arte. L’azione dell’artista prevede l’obsolescenza, ossia il “consumarsi” dell’opera,
programmata già in partenza dall’artista o affidata agli agenti naturali, in modo tale da rendere
il tempo, partecipe dell’opera stessa. Questi artisti avvertirono l’esigenza di un ritorno alla natura
e di sciogliere le catene della civilizzazione e della vita cittadina degli anni ’70. Il loro obiettivo è
di far entrare in sintonia l’opera
con l’ambiente circostante
dove l’osservatore si trova
completamente immerso
nell’opera stessa a 360 gradi,
creando un impatto con uno
spazio, libero da qualsiasi
condizionamento. L’artista
“Land” non ha confini, né uno
spazio stabilito in cui agire, ma
la sua coscienza dimostra una
grande attenzione ecologica
nei confronti della natura con
la quale si trova a interagire. E
questo accade perché l’uomo
moderno è convinto che l’arte
debba riguardare tutte le sfere
dell’agire umano e diventa
impossibile, in questo senso
racchiudere l’opera in uno
spazio limitato. Egli si fonda con l’ambiente e opera su di esso utilizzando materiali come sabbia,
foglie, vegetali, ecc. e in questo la “Land art” assomiglia all’arte povera poiché consiste
nell’utilizzare materiali umili e ridurre l’opera ai minimi termini. L’utilizzabilità dell’opera è affidata
a videoclip e fotografie che quindi eliminano ogni forma di collezionismo. Nella foto viene
mostrato un esempio di “Land art” in cui l’artista Sylvain Mayer utilizza un pezzo di legno
spezzato in più punti, un mucchio di foglie colorate, resti di corteccia e sassi per realizzare un
enorme ragno.
Uno sguardo sulla Fotografia in termini letterari
VERISMO
D
opo l’unità d’Italia e in particolare dopo la salita al potere della Sinistra, in Italia si assistette a un
leggero sviluppo nell’attività economica e furono poste le prime basi per il settore industriale e
realizzate le prime opere pubbliche. Nonostante questo clima che caratterizzò il paese, in questo
periodo gran parte della popolazione viveva ancora in uno stato di miseria e povertà. Come conseguenza
le dottrine socialiste ebbero larga diffusione fra la popolazione. In questo clima nella seconda metà del
XIX secolo, più precisamente tra il 1870 e il 1890, si sviluppa il movimento letterario del verismo
34
34
35
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
italiano, il cui primo teorizzatore fu Luigi Capuana e il miglior interprete Giovanni Verga. Questa
corrente letteraria fu fortemente influenzata dal Positivismo, dal quale riprende l’impersonalità
dell’osservatore, e dal naturalismo francese, un movimento diffuso in Francia a metà ottocento, i cui
teorici affermano che la letteratura deve fotografare oggettivamente la realtà sociale e umana,
rappresentandone rigorosamente le classi, comprese quelle più umili, in ogni aspetto anche sgradevole; gli
autori devono comportarsi come gli scienziati analizzando gli aspetti concreti della vita, in modo
oggettivo e distaccato. Il verismo si sviluppa a Milano, la città dalla vita culturale più feconda, in cui si
raccolgono intellettuali di regioni diverse, anche se le opere veriste rappresentano in particolar modo le
realtà sociali dell’Italia centrale, meridionale e insulare; per esempio la Sicilia che è descritta nelle opere
di Giovanni Verga. Le caratteristiche principali di questo movimento furono:
•
Impersonalità dell’autore;
•
Attenzione alla realtà vista dal lato quotidiano;
•
Narrazione realistica e scientifica degli ambienti e dei soggetti del racconto;
•
Accettazione delle leggi che regolano la società, dal ceto più alto a quello più basso e i
comportamenti degli uomini;
•
Nessuno spazio alle emozioni, anche l’interiore dell’uomo viene descritto in modo scientifico;
•
L’artista deve trarre il materiale per le sue opere da fatti contemporanei realmente accaduti;
•
Largo uso dei dialetti, eliminando le forme retoriche più elevate;
•
Uso della mimesi linguistica (da mimetizzazione = nascondersi nell'ambiente circostante in modo
da non essere visibile);
I temi e i soggetti trattati:
•
Situazioni quotidiane e problemi dell’Italia post-unità: es. plebe meridionale, lavoro minorile,
emigrazione, ecc;
•
Ambienti regionali, della plebe rurale, della piccola borghesia, dell’ aristocrazia decaduta;
•
Poiché il verismo si sviluppa molto a livello regionale, i temi si diversificano a seconda della
regione che viene trattata;
•
Nord
si amplia il numero dei lettori, degli scrittori e in particolare delle varietà letterarie.
L’attenzione viene spostata su nuovi problemi e nuovi protagonisti: l’impiegato, l’industriale, il
maestro … I nuovi temi sono quelli della famiglia, dell’adulterio e della prostituzione;
•
Sud
interesse verso la vita dei contadini e dei pastori; questa divenne la vera centralità del
verismo, tanto che gli artisti veristi ottennero i migliori risultati trattando questo tema. Non a caso
gli esponenti più importanti erano meridionali o isolani.
“La fotografia non mostra la realtà, mostra l'idea che se ne ha.”
Neil Leifer
35
Liceo Scientifico “P. Levi”
a. s. 2014-2015
ESAME DI STATO
BIBLIOGRAFIA E SITOGRAFIA
• LA FOTOCAMERA E I SUOI ELEMENTI - http://goo.gl/BGok7L
• PARTE TECNICA - http://goo.gl/GBLs4a
• L’OTTICA - https://it.wikipedia.org/wiki/Alhazen
• L’ISOMERIA OTTICA DEGLI IDROCARBURI E LA POLARIZZAZIONE:
“Dal carbonio agli OGM PLUS
Chimica organica, biochimica e biotecnologie”, di Valitutti, Taddei,
Kreuzer, Massey, Sadava, Hillis, Heller, Berenbaum.
• LE ONDE ELETTROMAGNETICHE: “L’Amaldi per i licei scientifici
Campo magnetico
Induzione e onde elettromagnetiche
Relatività e quanti”, di Ugo Amaldi.
• LA FOTOGRAFIA DIGITALE - http://goo.gl/3cs77o
• LA MATEMATICA DEI PIXEL: LA SERIE DI FOURIER E LA COMPUTER
GRAPHICS E L’EQUAZIONE DI RENDERING - http://goo.gl/QyAfqW
• FOTOGRAFIA COME ARTE E UNO SGUARDO SULLA FOTOGRAFIA IN
TERMINI LETTERARI - http://goo.gl/qNkCOa
36
36
Scarica