CLASSE : VA E.T.A. ALUNNO: Bovino Silvano Mappa concettuale: 1 Percorso disciplinare Percorso di Italiano e Storia: Lo sviluppo sostenibile • Le problematiche derivate dal consumismo: o Problema demografico o Inquinamento delle acque e del suolo o Deforestazione o Calamità naturali • Le principali problematiche ambientali: o Effetto serra o Buco dell'ozono • Le soluzioni al problema ambientale: o L'orientamento verso lo sviluppo sostenibile o La conferenza di Kyoto del 1997 e i numerosi vertici sulla questione ambientale o La politica del risparmio energetico Percorso di telecomunicazioni: I satelliti • • • • • Sistemi satellitari in orbita; Progetti Italiani nel campo satellitare; Bande di frequenza dei sistemi satellitari; Satelliti geostazionari; Strumenti di bordo dei satelliti: o Pannelli fotovoltaici o Sistema di alimentazione o Trasponder • Tecniche di multiplazione dei canali satellitari; • Applicazioni dei satelliti: o Sistema GPS o Satelliti Meteorologici 2 Percorso di sistemi: Sistemi di acquisizione dati(S.A.D) • • • • • • • • Definizione di sistema di acquisizione dati; Schema a blocchi di un sottosistema di misura; Circuito di rilevamento; Caratteristiche e classificazione dei trasduttori; Circuito di condizionamento; Circuito di Sample/Hold; Convertitore ADC; Sistemi multicanale. Percorso di T.D.P. : Sensori di temperatura Termoresistenze e Termistori • Cenni teorici sui sensori e i trasduttori; • Termoresistenze; • Termistori. Percorso di Diritto: L’attività economica e l’azienda • Definizione di attività economica; o Le fasi dell’attività economica; o Obbiettivi e fasi dell’attività economica; • Concetto di azienda; o Elementi costitutivi di un azienda 3 CLASSE : VA E.T.A. ALUNNO: Bovino Silvano Indice: 1. Definizione di sviluppo sostenibile 2. Le problematiche derivate dal consumismo: • Problema demografico • Inquinamento delle acque e del suolo • Deforestazione • Calamità naturali 3. Le principali problematiche ambientali: • Effetto serra • Buco dell'ozono 4. Le soluzioni al problema ambientale: • L'orientamento verso lo sviluppo sostenibile 4 • La conferenza di Kyoto e i numerosi vertici sulla questione ambientale • La politica del risparmio energetico 5 Definizione: Lo sviluppo sostenibile è una forma di sviluppo che non compromette la possibilità delle future generazioni di perdurare nello sviluppo, preservando la qualità e la quantità del patrimonio e delle riserve naturali (che sono esauribili, mentre le risorse sono considerabili come inesauribili). L'obiettivo è di mantenere uno sviluppo economico compatibile con l'equità sociale e gli ecosistemi, operante quindi in regime di equilibrio ambientale. Nell’ultimo secolo e in particolare in anni recenti l’attenzione per il problema ecologico si è intensificata. Questo perché è cresciuto quello che viene definito l’impatto ambientale delle attività umane. Se nei secoli precedenti lo sviluppo tecnologico e intellettivo dell’uomo aveva consentito un rapporto equilibrato uomo-natura che non alterasse il mondo naturale, gli eventi dell’ultimo secolo hanno suscitato dei cambiamenti nella società e negli stili di vita umani introducendo tecnologie e forme di sviluppo ad alto impatto ambientale. Questo significa che negli ultimi anni lo stile di vita assunto dalla popolazione umana ha influenzato fortemente l’ambiente naturale del pianeta influenzando sempre più i microequilibri naturali. Per questo motivo al contrario di quanto avveniva nel passato l’uomo ha iniziato a imporsi sull’ambiente naturale e a modificarlo. Le possibilità di dominare la natura e di alterarla si sono moltiplicate enormemente man mano che l’uomo ha acquisito maggiori conoscenze tecniche ed è riuscito a realizzare armi e strumenti sempre più innovativi e potenti, talvolta distruttivi. Tuttavia il problema ecologico non deriva dai mezzi di cui l’uomo ha potuto disporre ma al contrario l’uso che l’uomo stesso ha fatto di questi ultimi. Con l’avvento della odierna società basata sul sistema economico e commerciale gli stili di vita umani mirano sempre più alla ricerca di uno sviluppo obbiettato al profitto piuttosto che alla sopravvivenza o soddisfazione dei veri bisogni della società. La società del consumismo che ne è derivata ha promosso settori industriali per ottenere maggiori profitti trascurando quelli socialmente più utili e meno inquinanti. Soltanto dopo ci si è accorti che le risorse naturali non sono inesauribili, ma limitate e non rinnovabili se non in tempi lunghissimi. Solo in tempi recenti inoltre ci si è resi conto che la natura non è in grado ad oggi di sopportare tale sfruttamento derivato dallo stile di vita consumistico. Nonostante ciò il progresso di un paese e l’efficienza del suo sistema produttivo è ancora oggi valutato in base alla sua capacità di imporsi sui mercati internazionali. L’orientamento verso uno sviluppo in questo senso ha causato nel giro di pochi anni, la distruzione di ingenti giacimenti di materie prime e un incremento esponenziale dei livelli di inquinamento. 6 L’insieme di tali fattori ha causato nel giro di pochi anni la morte di milioni di persone, il problema della deforestazione, l’incremento dei disastri naturali e della loro distruttività, l’estinzione del 10% delle specie animali e vegetali e tanti altri problemi che magari non sono stati ancora collegati al problema dell’inquinamento. Le maggiori preoccupazioni che affliggono gli esponenti politici mondiali e della scienza e che evidenziano il difficile momento attraversato dal nostro pianeta sono: • Il problema demografico • Degrado ambientale: Inquinamento delle acque e del suolo • Deforestazione • Calamità naturali • Effetto serra • Il buco nell’ozono PROBLEMA DEMOGRAFICO: Alla nascita di Cristo si contavano circa 350 milioni di unità umane sulla terra. Alla fine del XVIII secolo si contavano invece 1 miliardo di esseri umani, 2 miliardi nel 1930, 5 a metà degli anni ’80, 6 nel 2000 e, secondo le stime ONU ben presto si conteranno 8 miliardi di esseri umani. Questa crescita esponenziale verificatasi negli ultimi secoli si è tradotta in un aumento delle richieste di cibo e dei bisogni con un conseguente incremento della richiesta di risorse naturali e materie prime. E’ da evidenziare però che l’incremento demografico si diversifica a seconda delle aree geografiche del pianeta. In generale però si nota come la crescita sia stata enorme soprattutto nei paesi sottosviluppati mentre in quelli sviluppati(o industrializzati) è quasi statica. Nonostante ciò,sono proprio i paesi sviluppati ad essere i maggiori colpevoli del degrado delle risorse ambientali. Alcuni dati pratici ci illuminano su quest’ultimo aspetto. Si consideri infatti che un cittadino europeo consuma in media 400 litri d’acqua contro i soli 50 di un cittadino di un paese emergente. Negli stati uniti si stima che per ogni cittadino siano necessari ben 800 litri d’acqua al giorno, distribuiti tra il fabbisogno personale e i consumi civili(piscine, irrigazione pubblica etc….). I dati riguardanti il consumo d’acqua suggeriscono analoghe considerazioni riguardo i consumi di petrolio, produzione di rifiuti e inquinamento e quindi emissioni di anidride carbonica, molto più elevati come al solito, nei paesi industrializzati. INQUINAMENTO DELLE ACQUE E DEL SUOLO Il danno più considerevole arrecato dall’uomo alla natura è proprio quello dell’inquinamento. Tale problema si traduce in vari aspetti e quindi tipologie di inquinamento. Uno di quelli che desta maggiori preoccupazioni è quello che riguarda le acque del pianeta. I rifiuti cittadini, gli scarichi industriali, l’insensibilità per la questione del riciclaggio hanno fatto si, che nel giro di pochi anni, si accumulassero enormi quantitativi di sostanze e materiali inquinanti nei mari del nostro pianeta. Se le acque risultano inquinate ne deriva che lo sia anche il cibo e l’acqua che beviamo. Non solo, il rischio più elevato riguarda anche gli esseri viventi che popolano le acque marine. La presenza elevata di fosfati e nitrati, immessi attraverso gli scarichi industriali, nelle acque ha provocato il fenomeno dell’eutrofizzazione ossia un eccessivo nutrimento di alghe e flora marina. La conseguenza di tale fenomeno è il consumo elevato di 7 ossigeno, che viene sottratto alla fauna marina e ai microorganismi, come il Plancton, necessari al sostentamento della maggior parte della fauna acquatica. L’inquinamento delle acque inoltre costituisce una minaccia diretta per il suolo, sempre più inquinato dai fertilizzanti e sostanze chimiche usate nell’agricoltura e addirittura talvolta soggetto alle radiazioni nucleari che ne compromettono la produttività per lunghissimi periodi di tempo con seri danni all’agricoltura e rischi per la salute. L’esempio più eclatante fu quello della centrale di Chernobyl in Ucraina, dove un danno ai reattori provoco la fuoriuscita di sostanze radioattive. La nube radioattiva si diffuse su gran parte dell’Europa, provocando decine di vittime e paurosi effetti sulla salute dei neonati, generati con anomalie di carattere genetico ricollegabili direttamente a tale evento. Se il disastro di Chernobyl rappresenta l’esempio maggiore dei pericoli del nucleare è anche vero che ad oggi si contano nel mondo episodi analoghi di minore intensità e che hanno provocato in ogni caso l’inquinamento di interi ettari di suolo. Deforestazione: La crescita delle richieste di materie prime si è tradotta in un aumento della richiesta di legname. Per questo motivo la deforestazione, cioè l’abbattimento nel giro di un breve periodo di tempo di interi ettari di foreste, è cresciuta a ritmi elevatissimi. Le stime in merito parlano di un ritmo di circa 11 milioni di ettari di foreste, abbattute in un anno. E’ come se in un solo anno, una foresta che si estende su una superficie pari alla Grecia, venisse abbattuta. Il fenomeno è accentuato soprattutto nelle zone tropicali ed in particolare in Amazzonia, dove l’omonima foresta Amazzonica, rischia di scomparire entro i prossimi anni. Nell’immagine si nota il ritmo con il quale procede l’abbattimento degli alberi in queste zone: In questo modo viene meno l’azione fondamentale svolta dagli alberi nella protezione del suolo da frane e straripamento delle acque. I disastri naturali collegati a tale fenomeno sono cresciuti negli ultimi anni in maniera proporzionale ad esso. In Italia, ad esempio, si contano tantissimi casi di alluvioni e allagamenti che sarebbero potuti essere evitati attraverso la conservazione dello scenario naturale e delle foreste, abbattute in maniera scriteriata per dar spazio alle costruzioni, talvolta abusive. Casi come quello dei paesi di Quindici e Lauro, in provincia di Avellino e Siano, Bracigliano e Sarno in provincia di Salerno sono una testimonianza della forza distruttiva delle acque, causata 8 dalla mancanza di un adeguata vegetazione. In secondo luogo la riduzione delle aree “verdi del pianeta” contribuisce all’innalzamento dei livelli di anidride carbonica, in quanto una delle funzioni naturali svolte dagli alberi è proprio quella di assorbire anidride carbonica per svolgere alcuni processi fondamentali come la fotosintesi. Calamità naturali: Sebbene inizialmente la maggior parte delle calamità vengano definite fenomeni naturali, spesso queste sono direttamente collegate all’inquinamento. Difatti alcuni studi hanno dimostrato che l’alto tasso di inquinamento insieme ai comportamenti irresponsabili dell’uomo ha contribuito negli ultimi anni ad aumentare la frequenza e l’intensità di questi eventi catastrofici. Un esempio è quello dei terremoti. Questi fenomeni sono provocati dal continuo movimento delle placche terrestri. Nel momento in cui le enormi masse terrestri vengono a contatto tra loro o si verifica una fase di instabilità, il terremoto è la conseguenza di tale situazione. L’intensità dei terremoti è aumentata nell’ultimo periodo a causa di diversi motivi. In primo luogo vi è la costruzione scriteriata di abitazioni in luoghi sismici; in secondo luogo vi è l’inadeguatezza e la scarsa qualità dei materiali di costruzione utilizzati per gli edifici. In ultimo il continuo assorbimento di risorse dal sottosuolo, come il petrolio, i gas, il metano, hanno provocato situazioni di instabilità, tali che un piccolo terremoto provocherebbe crolli ed effetti inimmaginabili. Un altro problema legato alle azioni dell’uomo è quello delle piogge acide. Tale fenomeno è provocato nei paesi industrializzati dall’emissione di sostanze come l’anidride solforosa e l’ossido di azoto. Il risultato è che tali sostanze, combinandosi con la particelle di vapore acqueo nell’atmosfera, si riversano al suolo sottoforma di precipitazioni. Le piogge acide sono responsabili dell’erosione dei monumenti artistici, degli edifici ed inoltre privano il terreno di sostanze nutritive, provocando la morte di foreste, l’inquinamento dei laghi e la scomparsa di alcune forme di vita. Ennesimo problema è rappresentato dagli tsunami, dirette conseguenze di terremoti con epicentro in mare. Lo tsunami è un sistema complesso di onde che raggiunge gli 800Km di velocità con una lunghezza d’onda di 200Km. Uno dei più violenti tsunami si abbatté nel 2004 sulle coste di alcuni paesi asiatici(Sri Lanka, Indonesia, India; Thailandia) provocando migliaia di vittime e danni per milioni di dollari. Anche nel caso degli Tsunami è riconosciuta la responsabilità dell’uomo. Infatti l’inquinamento delle acque insieme all’aumento delle temperatura ha contribuito al degrado delle barriere coralline, strutture calcaree che hanno la funzione di proteggere le coste. Un ultimo fenomeno in cui è riconosciuta la non estraneità dell’uomo è quello degli uragani, definiti per eccellenza spettacolari ed alquanto distruttivi fenomeni naturali. Anche in questo caso i cambiamenti climatici provocati dall’inquinamento hanno accresciuto l’intensità e la frequenza di tali fenomeni. Gli uragani sono la conseguenza dell’evaporazione-condensazione dell’aria umida in corrispondenza delle zone dove si è registrato un aumento della temperatura. Secondo alcuni studiosi, l’aumento delle temperature medie del pianeta ha accresciuto 9 la frequenza degli uragani e alcuni sostengono addirittura che la loro frequenza è direttamente proporzionale alla quantità di gas serra presente nell’atmosfera. Le problematiche maggiormente rilevanti: Queste che abbiamo elencato sono solo alcune delle problematiche legate al comportamento irresponsabile dell’uomo. Lo sviluppo legato al consumismo ha generato oltre a queste, 2 problematiche maggiormente rilevanti. Alla loro risoluzione è legato il futuro del nostro pianeta: Il primo grave problema è l’effetto serra. Questi è un fenomeno naturale che contribuisce alla regolazione della temperatura del pianeta. L’anidride carbonica presente nell’atmosfera contribuisce all’intrappolamento della giusta quantità del calore dei raggi solari. Se tale fenomeno non si verificasse la temperatura della terra sarebbe più bassa di 30-40o e la vita non sarebbe possibile. Negli ultimi anni però si sono registrate delle anomalie in questo processo naturale, causate in sostanza dalla presenza eccessiva di anidride carbonica( e di altri gas ad effetto serra), nell’atmosfera, il che ha modificato gli equilibri termici del pianeta. L'interferenza dei gas serra alla dissipazione della radiazione infrarossa comporta l'innalzamento della temperatura superficiale fino al raggiungimento di un punto di equilibrio tra radiazione solare in arrivo e infrarossa in uscita. La presenza eccessiva di gas serra nell’atmosfera ha provocato un innalzamento delle temperature medie del pianeta con effetti che potrebbero rivelarsi catastrofici se non saranno elaborate delle valide soluzioni. Nell’immagine che segue si possono notare alcune delle cause dell’effetto serra ed in particolare dell’aumento di gas serra. 10 Il secondo grave problema è la riduzione dello strato di ozono registrata negli ultimi anni dai laboratori NASA. Come per i gas serra, l’ozono è un elemento dell’atmosfera essenziale per la vita ma anch’esso svolge il suo ruolo benefico solo in determinate condizioni. Fino a qualche decennio fa lo strato di ozono era presente nella nostra atmosfera in quantità ideali e così è stato per milioni di anni. Come si osserva nella figura seguente però negli ultimi anni si è registrato un assottigliamento dello strato di ozono che si manifesta ancor più in maniera evidente in Antartide dove i venti polari accentuano tale carenza. Nella figura le rilevazioni effettuate a distanza di 6 anni l’una dall’altra, rivelano la diradazione graduale dello strato di ozono. Secondo gli scienziati, alcune sostanze chimiche sono le principali responsabili del problema. Queste sostanze chimiche sono dette "sostanze che consumano l' ozono" ( ODS, Ozone Depleting Substancies) e comprendono molti gas contenenti cloro o bromo, come : i clorofluorocarburi (CFC) , che contengono cloro, fluoro e carbonio, usati nei frigoriferi e come agenti espandenti nelle schiume; gli "Halons", usati come antifiamma; il bromuro di metile, usato in agricoltura. Tali sostanze sono emesse quotidianamente nell’atmosfera in quanto l’attuale stile di vita umano ne richiede l’utilizzo(Si veda il caso dei CFC emessi dai frigoriferi).Gli effetti che ne derivano sono tutt’altro che ignorabili. Nella tabella seguente si può notare come le emissioni di C02 derivano dall’utilizzo di materiali che vengono quotidianamente consumati dalla nostra società: 11 La riduzione dello strato di ozono causerà un incremento delle radiazioni UV a livello del suolo. Un eccesso di raggi UV è stato associato a bruciature della pelle, cancro della pelle, cataratte, e danni ad alcune tipologie di raccolti agricoli e agli organismi marini. Un modo di vivere compatibile con l’ambiente: LO SVILUPPO SOSTENIBILE Questi motivi abbastanza convincenti, hanno spinto alcuni esponenti della politica e dell’economia mondiale ad orientarsi su un nuovo tipo di sviluppo, abbandonando difatti gli stili di vita consumistici e dannosi effettuando una svolta sullo sviluppo sostenibile. Lo sviluppo sostenibile si basa sull’idea che non è possibile ritornare indietro rinunciando agli standard di vita del nostro secolo, ma piuttosto è necessario trovare un compromesso. Lo sviluppo sostenibile si basa dunque sull’idea di una produzione e una crescita economica compatibile con l’ambiente, cioè un consumo delle risorse naturali disponibili senza comprometterne l’uso alle future generazioni. Questo richiede d’altra parte una modifica delle logiche industriali, con l’ideazione di produzioni mirate e programmate di beni senza danneggiare l’ambiente. Le soluzioni più accreditate sono una maggiore politica di riciclaggio delle materie prime e dell’energia e l’utilizzo delle fonti rinnovabili. A questo proposito in anni recenti si sono svolte importanti manifestazioni e campagne di sensibilizzazione al problema ambiente. L’ONU ha indetto la giornata internazionale dell’ambiente, che si tiene ogni 5 Giugno. Il 5 Giugno del 2007 fu varato lo slogan “Ghiaccio che si scioglie, terra che scotta”, volto a sottolineare gli effetti disastrosi dei cambiamenti climatici. Un'altra campagna indetta il 5 Giugno è stata “Una pianta per il pianeta” con la quale si incoraggiavano giovani e meno giovani a piantare alberi con l’obbiettivo di far crescere almeno 1 miliardo di alberi nel 2007. Anche i governi hanno risposto positivamente ed in particolare il comune di Roma si prefisse di raddoppiare il verde urbano nel giro di 5 anni. Il protocollo di Kyoto 12 Dato che la risoluzione del problema è legata maggiormente a scelte politiche ed economiche e ad interventi tecnici e finanziari che spettano solo ai governi, a partire dal 1989 la Comunità internazionale ha indetto numerose conferenza per prendere delle decisioni per la risoluzione di tale problema ambientale. Inizialmente nessuna di queste conferenze produsse alcun risultato, anzi si poté assistere a discussioni furibonde tra i vertici dei vari paesi. Uno scatto che riprende un vertice tra i rappresentanti delle nazioni mondiali La conferenza tenutasi a Kyoto nel 1997 sortì i primi risultati positivi. A tale conferenza parteciparono i vertici di 170 paesi e aveva come obbiettivo principale la riduzione dei gas serra prodotti dal’uso di combustibili fossili. Anche in questo caso, non mancarono le polemiche e le discussioni in particolare tra i paesi Europei e gli USA. Gli Stati Uniti, considerati i maggiori responsabili delle emissioni inquinanti, rifiutavano di provvedere alla riduzione di gas serra in quanto ciò avrebbe provocato seri danni alla loro economia. Gli Europei invece proponevano una riduzione del 15% delle emissioni inquinanti. Alla fine si raggiunse un compromesso: I paesi industrializzati avrebbero provveduto a ridurre le emissioni di gas serra del 5,2% entro il 2012. Inoltre fu deciso che tutti i paesi partecipanti alla conferenza avrebbero ratificato ufficialmente entro il 2002 e solo quando il 55% dei paesi rappresentanti il 55% delle emissioni avrebbe ratificato la loro adesione , il protocollo sarebbe divenuto valido. Moltissimi movimenti ambientalisti tra cui il WWF e Greenpeace sottolinearono a ragione che il 5,2% era insufficiente per salvare il pianeta dal disastro annunciato. Nonostante ciò, nelle successive conferenze sul clima molti paesi si coalizzarono manifestando la loro decisione di non aderire o piuttosto far si che fossero soprattutto gli altri a risolvere il problema. Si formarono quindi 2 schieramenti: da una parte i paesi Europei insieme ai meno industrializzati che avevano deciso di aderire al protocollo di Kyoto in tutte le sue clausole, dall’altra gli Stati Uniti, il Canada, Nuova Zelanda, lo stesso Giappone, Cina, Australia che si opponevano nel timore che l’adesione al protocollo avrebbe provocato delle considerevoli perdite economiche. 13 In particolare gli Stati Uniti sostenevano che i tagli alla loro produzione di CO2 dovevano essere ridotti in quanto essi erano pronti a finanziare progetti antinquinamento nei paesi in via di sviluppo. Inizialmente l’Europa si oppose sottolineando che l’inquinamento dei paesi in via di sviluppo era molto minore di quello Americano. Successivamente nel 2001 il presidente americano Bush manifestò la volontà di non aderire al protocollo di Kyoto in nessuna delle sue parti. Le intense polemiche portarono finalmente ad un compromesso, proposto dall’unione Europee. La riduzione delle emissioni inquinanti sarebbe stata valutata sia attraverso la riduzione diretta dei gas serra emessi nell’atmosfera sia indirettamente attraverso i finanziamenti verso i paesi sottosviluppati per la costruzione di dispositivi antinquinamento. Aderirono in virtù di tale compromesso il Canada e il Giappone mentre ancora una volta gli Stati Uniti si isolarono dal gruppo. Nel 2002 a Johannesburg, un'altra conferenza sullo sviluppo sostenibile ebbe esiti negativi in merito all’adesione degli USA che rifiutarono l’adesione a tutti gli argomenti di discussione tra cui la riduzione dell’emissioni dei gas serra, i contributi per l’aumento della quantità di acqua potabile, per la riduzione delle infezioni da HIV. Stesso risultato fu sortito nel 2003 nella conferenza internazionale sul clima tenutasi a Milano tra l’1 e il 12 Dicembre, durante la quale gli Stati Uniti confermarono il loro pensiero in merito alla questione ambientale. Finalmente nel 2004, con l’adesione della Russia fu raggiunto il fatidico 55%, che rese a tutti gli effetti operativo il protocollo di Kyoto, tanto che il 16 Febbraio 2006 esso divenne finalmente legge. Durante i successivi vertici tenutisi tra il 2005 e il 2006 si discusse molto sul rendere vincolanti o volontarie le riduzioni di gas serra. Ovviamente gli Stati Uniti optavano per la seconda possibilità e le discussioni furono rinviate al 2008. Per quanto concerne l’Italia, la risposta al protocollo fu più che positiva, tant’è che il ministro dell’ambiente invitò le industrie Italiane, in particolar modo quelle del settore termoelettrico ad attuare una riduzione del 10% delle emissioni inquinanti entro il 2008. In totale, ben 141 paesi aderirono al protocollo in tutte le sue parti. Il fondamentale vertice del 2007: 14 Nel 2007 durante il consiglio dei capi di stato e di governo dei 27 paesi membri della UE, presieduto dalla cancelliera tedesca Angela Merkel sono stati raggiunti importanti accordi in merito alla questione ambientale. Durante la riunione è stata confermata la volontà dell’Unione Europea di fare da guida mondiale nella campagna contro l’inquinamento ed il surriscaldamento del pianeta. Sono stati inoltre definiti i tetti massimi di emissioni inquinanti a seconda delle necessità e della situazione dei singoli paesi. Inoltre finalmente durante l’incontro del G8 svoltosi a Giugno in Germania, gli Stati Uniti si sono dimostrati favorevoli alla proposta di ridurre del 50% il totale delle emissioni inquinanti entro il 2050. Il percorso per giungere a tale risultato è stato molto lungo. Difatti le tappe per l’adesione ad uno sviluppo sostenibile sono state numerose. Di seguito sono elencati cronologicamente gli eventi principali che hanno anteceduto la conferenza di Kyoto e che hanno permesso nel loro insieme di formare un consiglio di nazioni unito per la risoluzione del problema ambientale: • • • • • • • • • • • Nel 1972 si tenne “La conferenza di Stoccolma”. Questa città è stata la prima che ha toccato i temi ambientali ed ha inoltre adottato una “dichiarazione” all’interno della quale si propone la salvaguardia dell’ambiente. Nel 1979 a Ginevra viene firmata la convenzione sull’inquinamento atmosferico regionale per affrontare problemi legati all’ acidificazione, eutrofizzazione e smog. 1987 protocollo di Montreal: coinvolge i paesi per diminuire lo sfruttamento dell’ozono stratosferico. 1989: Convenzione di Basilea sottoscritta per eliminare rifiuti dannosi. 1992 Rio de Janeiro: conferenza mondiale sull’ ambiente e lo sviluppo --> approvazione della dichiarazione di Rio sull’ ambiente e lo sviluppo. Proprio nel XXl sec. Si e ritenuto opportuno creare un documento inerente le proposte e gli obbiettivi da raggiungere per l’ambiente: L’agenda 21 delle nazioni unite è stata costituita da 170 Paesi di tutto il mondo e provvede a stabilire i programmi e le attività per lo sviluppo sostenibile. In Italia si è concretizzata nel 1994, in seguito alla conferenza di Aaalborg in Danimarca. Da qui nasce inoltre la “CAMPAGNA EUROPEA: CITTA’ SOSTENIBILE”; le diverse città che hanno aderito a questa campagna ne stanno promuovendo altre per attuare diverse strategie ecologiche nel proprio territorio. 1993: Convenzione sulla diversità biologica --> protezione di animali e vegetali. 1997: Conferenza di Kyoto. 2001: Convenzione di Stoccolma --> eliminazione di inquinanti organici non degradabili. 2002: Johannesburg --> Summit mondiale sullo sviluppo sostenibile: vengono messi a fuoco problemi sociali ed economici. 2006: Entra in vigore il protocollo di Kyoto che diviene legge per i paesi aderenti Lo sviluppo sostenibile si realizza con comportamenti responsabili e con la ricerca e l'applicazione di TECNOLOGIE per L'AMBIENTE: • • • • la difesa delle risorse naturali; le fonti di energia rinnovabile; la riduzione dell’ inquinamento; il riciclaggio dei rifiuti. Argomento di discussione delle ultime conferenze sull’ambiente ha riguardato anche l’introduzione della politica sul risparmio energetico dove per risparmio energetico non si intende esclusivamente la riduzione degli sprechi energetici ma si intende in maniera più accentuata la ricerca di tecnologie e sistemi in grado di ridurre il consumo di energia a parità di produzione. Questo implica la ricerca di tecnologie che permettano la produzione di energia in modo più efficiente ed evoluto. In altre parole si vuole ottenere gli stessi risultati a parità di una produzione minore di energia. 15 Emblema di tale politica è l’esempio delle lampadine fluorescenti moderne che consentono un illuminazione maggiore rispetto alle vecchie lampadine consumando inoltre meno energia. La seconda soluzione è la ricerca di fonti rinnovabili in grado di sostituire quelle inquinanti e limitate per ottenere energia in modo pulito e senza limiti nel tempo. Tra i dispositivi in grado di fornire energia elettrica ottenuta da fonti rinnovabili vi sono: • • • • • • Impianti fotovoltaici Impianti eolici Impianti solari Centrali a biomassa per produzione energia elettrica e/o termica Centrali idroelettriche Centrali di combustione biogas Tra quelli citati i sistemi su cui si basa tuttora l’attenzione dei maggiori produttori di energia, sono i sistemi fotovoltaici. Questi sistemi sono valorizzati in quanto sfruttano una energia naturale di tipo illimitato e soprattutto maggiormente costante e subito disponibile rispetto alle altre. CLASSE : VA E.T.A. ALUNNO: Bovino Silvano Progetto personale 16 • Definizione • Funzionamento • Caratteristiche I-V del generatore fotovoltaico • Efficienza dei fotovoltaici e parametri: 1. Radiazione solare 2. Temperatura 3. Inclinazione 4. Orientamento 5. Fattore di albero 6. Ombreggiamento 7. Tipologia dei moduli fotovoltaici 8. Tipologia dell’installazione • Costo di un impianto 17 Definizione: Si definisce impianto fotovoltaico un sistema in grado di convertire l’energia solare in energia elettrica. I vantaggi di tale impianto sono: • Non inquinano • minimo rapporto massa/energia • Contributo in conto energia per 20 anni; • Costi di esercizio e manutenzione dell’impianto molto contenuti; • Alta affidabilità dell’impianto in quanto non esistono parti in movimento; • Possibilità di accesso a strumenti di finanziamento; • Possibilità di aumentare successivamente il numero dei moduli (modularità del sistema); • Utilizzo di superfici marginali o altrimenti inutilizzabili; Gli Svantaggi invece sono: • Investimento iniziale molto elevato; • Necessità di avere a disposizione un’elevata superficie rispetto alla potenza installata ( circa 10 m2 per ogni kWp installato); • Variabilità ed aleatorietà della fonte energetica (irraggiamento solare). Una persona che decide di investire nel fotovoltaico deve considerare tali elementi. Per prima cosa è necessario considerare che tipo di applicazione progettare e verificare teoricamente la produttività energetica dell’impianto. In base a quest’ultimo dato si può di conseguenza valutare il periodo di ammortamento dell’investimento iniziale. Sulla base di quanto detto è fondamentale quindi valutare la produttività di un impianto fotovoltaico e considerare quelle che sono le sue applicazioni ideali. Prima di fare questo è necessario conoscere il principio di funzionamento di un modulo fotovoltaico e comprendere quali elementi influiscono sulla sua efficienza. 18 Come funziona il fotovoltaico? Un impianto fotovoltaico è costituito essenzialmente da silicio. La produzione di energia deriva dal fenomeno secondo il quale se una giunzione fra una piastrina di silicio drogato di tipo p e una drogata di tipo n, viene esposta al sole e quindi alla radiazione solare, si crea una differenza di potenziale di tipo continuo tra i 2 strati. In particolare si viene a creare una differenza di potenziale di circa 0.5V che non dipende dalla superficie delle celle del modulo fotovoltaico, mentre la corrente di corto circuito dipenderà principalmente dalla quantità di radiazione solare che investe la cella e quindi dalla sua superficie. Tale fenomeno denominato appunto “effetto fotovoltaico” deriva dal fatto che le onde elettromagnetiche della radiazione solare conferiscono sufficiente energia alla cella composta dalla giunzione di silicio PN tale che gli elettroni situati più esternamente siano eccitati abbastanza da abbandonare l’atomo, passando ad una banda di valenza più esterna. Se l’energia della radiazione solare è abbastanza elevata da superare la barriera di potenziale della giunzione si crea così un flusso continuo di fotoni. La maggioranza di questi fotoni contribuirà alla produzione di corrente elettrica mentre una parte di essi si ricombinerà lungo il suo cammino con altre lacune. Gli impianti fotovoltaici moderni utilizzano come materiale principale il Silicio poiché questi è largamente disponibile sulla terra ed inoltre è facilmente reperibile come scarto dell’industria elettronica. I materiali più utilizzati attualmente risultano: • Silicio mono, policristallino e amorfo • Arseniuro di Gallio(Ga-As),(utlizzato per le applicazioni spaziali) • Seleniuro di Indio e rame(Cu-In-Se2), il solfuro di Cadmio e rame, etc… Il flusso luminoso che investe la cella è costituito da fotoni di diversa lunghezza d’onda. A seconda della loro energia essi provocano la liberazione delle coppie elettrone-lacuna. Da notare che tale effetto si verifica sia in presenza di raggi diretti che diffusi e riflessi. Questo è il motivo per cui i sistemi fotovoltaici sono in grado di funzionare anche nei giorni di meteo nuvoloso. 19 Caratteristiche I-V del generatore fotovoltaico Nel momento in cui la cella fotovoltaica elementare è sottoposta all’irraggiamento solare, se si immagina di collegare ai suoi morsetti di uscita un resistore di resistenza variabile da zero (corto circuito) fino a infinito (corto aperto), si potranno misurare per ogni condizione di resistenza un valore di tensione e uno di corrente. Se si riportano tali valori in un piano cartesiano I-V si ottiene la “caratteristica I-V del generatore fotovoltaico” Caratteristica I-V del generatore fotovoltaico Dall’esame di questa caratteristica si può notare che il generatore non può essere schematizzato né come un generatore di tensione né di tensione né di corrente, né come un generatore di tensione con in serie una resistenza interna ,poiché la caratteristica non è una retta. La caratteristica può essere però suddivisa in tre parti: • nella zona “vicina” alla condizione di corto circuito (Tratto AB) la corrente è quasi costante, ovvero si comporta da generatore di corrente; • nella zona “vicina” alla condizione di circuito aperto (Tratto CD) la tensione è quasi costante e in questo tratto il comportamento è simile a quello del generatore di tensione; • nella zona rimanente BC, chiamata anche “ginocchio” per la pronunciata curvatura, il generatore non è schematizzabile in alcuno dei modi visti e per lo studio delle prestazioni farà uso dei metodi grafici. 20 Per quello che si è già visto, la potenza erogata in un punto della caratteristica è rappresentabile dall’area che l’ascissa e l’ordinata del punto formano con gli assi cartesiani. Si nota che il punto di massima potenza si trova nel ginocchio della caratteristica. Le prestazioni di una cella fotovoltaica sono influenzate prevalentemente dalla temperatura e dalla “quantità di luce” o “irraggiamento” che investe la cella. Nella successiva Figura si evidenzia il comportamento di un generatore fotovoltaico alla temperatura costante di 25° C e con irraggiamento variabile da 100 a 1000W/m2. Caratteristiche I-V con temperatura di 25° e irraggiamento variabile Si può notare come la corrente di corto circuito risulti proporzionale all’irraggiamento mentre la tensione a vuoto varia di molto poco (da 0.5 a 0.6V quando l’irraggiamento aumenta di dieci volte, da 100 a 1000W/m2). Da ciò consegue che risulta fattibile la misura dell’irraggiamento dalla misura della corrente di corto circuito di una cella campione (per la quale sia nota cioè con molta precisione la corrente Icc0 relativa ad una condizione di irraggiamento nota Irrag0); si avrà infatti: Irragmis = Irrag0 • Iccmis/Icc0 (12) Per esempio una cella al silicio monocristallino con area pari a 100 cm2 eroga all’irraggiamento di 1000 W/m2 una corrente di corto circuito di circa 3 A; pertanto se viene misurata una corrente Iccmis = 2.4 A la condizione di irraggiamento sarà di 800 W/m2. 21 Di tutta l’energia che giunge su di un impianto fotovoltaico, le tecnologie odierne permettono di convertirne il 44%. Questo perché l’efficienza di conversione di una cella è limitata da: • non tutti i fotoni incidenti sulla cella penetrano al suo interno(alcuni sono riflessi dalla superficie della cella, altri incidono sulla griglia metallica dei contatti); • fotoni che non hanno energia sufficiente per liberare una coppia elettrone/lacuna; • una parte degli elettroni “liberati” dai fotoni non arrivano al carico esterno in quanto trovano lungo il percorso delle cariche di segno opposto con cui ricombinarsi (effetto di “ricombinazione”); • esistono le cosiddette “resistenze parassite”: i contatti metallici posti sul fronte e sul retro della cella presentano una resistenza che provoca dissipazioni di potenza. 22 Efficienza degli impianti fotovoltaici L’efficienza del fotovoltaico è legata quindi a: • Radiazione solare • Temperatura dei moduli • Orientamento dei moduli • Inclinazione dei moduli • Fattore di albero • Ombreggiamento • Tipologia dei moduli fotovoltaici • Tipologia dell’installazione Radiazione solare: Per radiazione solare intendiamo l’energia elettromagnetica emessa dal sole a seguito dei processi di fusione dell’idrogeno in esso contenuto, e si propaga con simmetria sferica nello spazio. L’unità di misura della radiazione solare è dunque il Wh/m2. Per irraggiamento solare invece intendiamo la potenza del campo elettromagnetico incidente sull’unità di superficie.(W/m2). Si consideri che un irraggiamento di 1000 W/m2 corrisponde a quello di mezzogiorno in una giornata serena estiva, mentre quello di 100 W/m2 corrisponde a quello di mezzogiorno in una giornata con cielo completamente coperto da nuvole bianche. All’esterno dell’atmosfera tale irraggiamento ha un valore di 1.367 W/m2±3.3%(variazione della distanza Terra-Sole). Tale valore rappresenta la COSTANTE SOLARE. A livello internazionale sono stati definiti alcuni indici matematici che definiscono l’irraggiamento solare terrestre ed extraterrestre: Indice AM(air mass):funzione dell’angolo di elevazione del sole sull’orizzonte nell’istante considerato. • AM0: Indice AM valido fuori dall’atmosfera 23 • AM1: Spessore di atmosfera standard attraversato dai raggi solari in direzione perpendicolare alla superficie terrestre e misurato al livello del mare (1.000 W/m2) • AM1,5:Standard di riferimento sulla superficie terrestre Nella zona in cui è valido l’indice AM1,5 si notano attenuazioni e perdite della radiazione solare. Influiscono su tale fenomeno diversi fattori: • Assorbimento delle molecole aria, acqua e pulviscolo atmosferico • Riflessione Nell’immagine che segue si nota come l’irraggiamento sia influenzato da questo indice e che all’interno dell’atmosfera questi risulta attenuato(area della zona m=1) Al contrario di quanto avviene nello spazio quindi, i raggi solari incontrano, una volta entrati nell’atmosfera terrestre, diversi ostacoli. Alcuni di questi sono le particelle molecolari di acqua e i diversi elementi che costituiscono l’atmosfera. Si deduce quindi che dell’irraggiamento solare complessivo che raggiunge la terra, solo una parte viene effettivamente a contatto con la superficie terrestre. Come si nota nella figura di fianco, l’irraggiamento solare che raggiunge la superficie terrestre dipende dall’irraggiamento DIRETTO e DIFFUSO: Irraggiamento solare globale=Diretto+Diffuso 24 Il resto dei raggi solari subiscono riflessione e rifrazione atmosferica e in parte vengono assorbiti dalla terra. Gli strumenti a disposizione dei tecnici per effettuare misura precise dell’energia della radiazione solare incidente nell’unità di tempo(W/m2), sono il Piranometro e il Solarimetro. Tali strumenti considerano misurazioni istantanee o sulla base di medie giornaliere. Dei 2 strumenti è preferito il Solarimetro, che offre un costo contenuto, una buona precisione nelle misurazioni con un errore massimo del 5% e una ridotta necessità di calibrazioni. Nella foto, un esempio di solarimetro: Temperatura dei moduli: La temperatura è un parametro estremamente importante in quanto da esso dipende l’efficienza dei singoli moduli e quindi dell’impianto fotovoltaico. Se si considera il grafico I-V generato dalla cella fotovoltaica si nota come al variare della temperatura la corrente I si mantiene quasi costante mentre la tensione V è fortemente influenzata da tale temperatura. Come si può notare l’aumento di temperatura costituisce una diminuzione della tensione del modulo e di conseguenza provoca una riduzione della potenza fornita dall’impianto. Per questo motivo in fase di progettazione è necessario considerare quali saranno le temperature alle quali sarà sottoposto l’impianto. Si deduce inoltre che a parità di irraggiamento solare, l’efficienza dei moduli subirà delle variazioni nel corso dell’anno. La stagione in cui il fotovoltaico ha un rendimento più elevato è la primavera in quanto durante tale periodo le giornate di sole sono caratterizzate da una temperatura ottimale. La giornata ideale per un impianto, è invece quella del “sole d’inverno” ma come si può immaginare nella stagione invernale la probabilità di giornate piovose o nuvolose è molto elevata e il rendimento dell’impianto risulta ridotto. 25 Per il silicio cristallino la tensione si riduce del 4 % per 10 °C di aumento della temperatura. In definitiva la temperatura influenza la tensione mentre l’irraggiamento determina la corrente del dispositivo fotovoltaico. Per questo motivo, un altro aspetto da tener conto in fase di progettazione è la temperatura che caratterizzerebbe la zona di montaggio dei moduli. ORIENTAMENTO E INCLINAZIONE DEI MODULI: Ai fini di una maggiore efficienza degli impianti risulta fondamentale scegliere un adatta inclinazione e orientamento del modulo. Tali fattori sono dipendenti dal luogo di ubicazione cioè di installazione dei moduli. Per Angolo di inclinazione di tilt β intendiamo l’angolo di inclinazione del modulo rispetto al piano orizzontale: Rispettando le tabelle di inclinazione ottimale dei moduli si è in grado di massimizzare l’irraggiamento solare diretto. L’angolo di inclinazione dipende anche dalla posizione del sole nel corso delle varie stagioni. Nel caso di installazioni fisse però è necessario trovare un compromesso e scegliere un anglo di inclinazione ottimale. 26 Per anglo di orientamento o di azimut α si intende l’angolo di orientazione del piano dei moduli rispetto al meridiano 0o . Si misura quindi lo scostamento del piano rispetto all’orientazione verso sud(per i siti nell’’emisfero settentrionale) e verso nord (per i siti nell’emisfero meridionale). La seguente immagine ci chiarisce quindi quali sono i fattori che individuano il posizionamento del modulo: A livello internazionale sono stati fissati i valori ottimali di inclinazione(angolo di tilt) e orientamento (angolo di azimut). Nella tabella seguente si mostrano i valori ottimali di orientamento a seconda dell’angolo di inclinazione e le conseguenti perdite di efficienza in caso di errata ottimizzazione: 27 Fattore di albero Un terzo fattore importante nelle valutazioni pre -installazione è il fattore di ALBERO. Tale fattore fa riferimento alla quantità di radiazioni riflesse che colpiscono il modulo aumentando di conseguenza la produzione di energia. Tale fattore dipende moltissimo dal tipo di superficie che circonda il sito di installazione. La tabella seguente mostra alcuni esempi di superfici e il relativo fattore di ALBERO: La scelta di superfici circostanti dal colore prevalente vicino al bianco è ottimale per ottenere un buon indice di albero. 28 Ombreggiamento: Un ultimo fattore che influenza l’efficienza degli impianti fotovoltaici è l’ombreggiamento prodotto dalle costruzioni che circondano l’impianto o dalle file di moduli vicine. Per individuare gli ombreggiamenti si ricorre a: • bussola,con la quale si individua l’angolo tra la direzione del sud e l’ostacolo α; • con il clinometro si determina l’angolo rispetto all’orizzontale con cui l’osservatore vede l’ostacolo β. Gli ombreggiamenti possono essere locali e non locali. Si definiscono non locali, gli ombreggiamenti prodotti dalle costruzioni circostanti: A questo proposito è necessario verificare, a seconda del percorso solare e dell’altezza dell’ostacolo, se nel corso dell’anno questi produce ombra sull’impianto. 29 30 Nell’esempio è illustrato il percorso solare inerente alla città di Bari. Per calcolare se gli ostacoli che circondano il nostro impianto producono ombreggiamento si disegna il seguente grafico: Come si osserva, nel caso dell’ostacolo rosso, l’impianto non risente nel corso dell’anno di ombreggiamenti. Nel caso dell’ostacolo blu invece, vi sono alcuni mesi dell’anno durante i quali l’impianto subisce l’effetto delle ombre. Di conseguenza sarà necessario adattare l’impianto per una produzione elettrica compatibile con questo inconveniente. Si definiscono locali, gli ombreggiamenti provocato da moduli vicini. Nell’immagine si può notare come, nel momento in cui viene superato l’angolo limite β, i moduli fotovoltaici delle file vicine subiscono ombreggiamento locale. Per poter ovviare al problema degli ombreggiamenti locali è necessario stabilire una distanza minima tra le file dei moduli. Questa distanza nel sud Italia è pari a: 31 Tipologia dei moduli: Per quanto riguarda i moduli, a seconda della natura dei materiali che li compongono, si ottengono diversi valori di efficienza. Nel caso del Silicio, questo elemento può essere lavorato con tecniche diverse che consentono di ottenere i seguenti tipi di Silicio: Le tipologie di moduli maggiormente utilizzate, a seconda del tipo di Silicio utilizzato sono: • Moduli monocristallini • Moduli policristallini • Moduli amorfi I monocristallini, sono moduli realizzati con Silicio monocristallino, i cui cristalli sono orientati nella stessa direzione. Questa tipologia di moduli vanta una efficienza maggiore a fronte di un costo più elevato derivata dai complessi processi di lavorazione. I policristallini, sono moduli che utilizzano il Silicio policristallino. Hanno rendimento leggermente inferiore ai monocristallini ed un costo relativamente inferiore. I moduli fotovoltaici realizzati con Silicio amorfo hanno un rendimento molto più basso ma sono ottimi nel caso di installazioni in luoghi ombreggiati dove è presente in prevalenza un tipo di irraggiamento diffuso. Le caratteristiche che distinguono le diverse tipologie di moduli sono riassunte nella seguente tabella: 32 Tipologie di installazione per gli impianti fotovoltaici: • Integrato • Parzialmente integrato • Non integrato Gli Impianti fotovoltaici integrati costituiscono una delle più promettenti applicazioni del fotovoltaico. Si tratta di sistemi che vengono installati su costruzioni civili o industriali per essere collegati alla rete elettrica di distribuzione in bassa tensione. I moduli fotovoltaici in questo tipo di installazione possono essere utilizzati come elementi di rivestimento degli edifici anche in sostituzione di componenti tradizionali come tettoie. L’impiego di tali moduli fotovoltaici può essere di grande utilità come schermi frangisole o per ombreggiare ampie zone nel caso delle coperture. Gli impianti fotovoltaici sono completamente integrati quando: • • • • • • • i moduli sostituiscono i materiali di rivestimento di tetti, coperture, facciate di edifici e fabbricati, avendo quindi la stessa inclinazione e funzionalità architettonica i moduli e i relativi sistemi di supporto costituiscono la struttura di copertura di pensiline, pergole e tettoie i moduli sostituiscono la parte trasparente o semi trasparente di facciate o lucernari, garantendo l’illuminazione naturale degli ambienti interni all’edificio i moduli sostituiscono parte dei pannelli fonoassorbenti delle barriere acustiche i moduli e i relativi sistemi di supporto costituiscono dei frangi sole i moduli sostituiscono o integrano i vetri di finestre i moduli costituiscono gli elementi strutturali di persiane Gli impianti fotovoltaici parzialmente integrati si hanno quando i moduli fotovoltaici non sostituiscono i materiali che costituiscono la superficie d'appoggio e vengono installati su tetti piani e terrazze, in modo complanare ad esempio sul manto di copertura. Possono essere considerati parzialmente integrati anche quei pannelli installati ad esempio su terrazza la quale sia circondata da balaustra la 33 quale nasconda parzialmente i pannelli fotovoltaici. Generalmente gli impianti fotovoltaici parzialmente integrati vengono utilizzati su fabbricati o parti di questi che risultano già esistenti. Gli impianti fotovoltaici non integrati sono cosiddetti perché appunto non si integrano armoniosamente con le strutture o superfici che li ospitano. Trattasi di impianti generalmente realizzati a terra o anche su parti strutturali di edifici quali terrazzi, falde, pensiline e/o elementi di arredo urbano e viario (*). I pannelli fotovoltaici sono installati in maniera non complanare alle superfici su cui sono fissati. Generalmente hanno un impatto maggiore dal punto di vista estetico e quindi non sono gradevoli alla vista. Per questo genere di impianti le tariffe incentivanti sono inferiori rispetto alle tipologie integrati e parzialmente integrati. Le differenze nell’utilizzo delle varie tipologie di impianti sta sia nel diverso impatto visivo che esse hanno, sia nella diversità degli incentivi previsti. Infatti nella seguente tabella si nota come gli incentivi sono maggiori se l’impianto è integrato con la struttura dove vengono installati: Anche se in alcuni casi, preferire l’integrazione significa rinunciare ai livelli ottimali di inclinazione e orientamento, spesso gli incentivi garantiscono un risparmio di lunga superiore alle perdite derivate da tali fattori. 34 Tipologie di impianti: Vi sono 2 importanti tipologie di impianti: Grid connected Gli impianti grid connected o connessi alla rete, lavoro in un regime di interscambio con la rete elettrica. Quest’ultima svolge il ruolo di un immensa batteria inesauribile e affidabile nel tempo. Di giorno, cioè nelle ore di luce in cui l’impianto produce energia il carico assorbe l’energia prodotta dai moduli. Di notte invece, l’utenza preleva l’energia dalla rete. Se nelle ore di produzione, l’impianto produce più di quanto l’utenza consuma, l’energia viene immessa nella rete e il GSE paga le unità di energia immesse nella rete all’utente, convertendole in sconti sulle future bollette. Negli impianti che prevedono la sola vendita dell’energia, cioè gli impianti di produzione, il GSE, calcolata la quantità mensile di energia immessa nella rete, recapita il corrispettivo in denaro al proprietario dell’impianto. Le tariffe nei 2 casi sono diverse e sono più remunerative per gli impianti di vendita. Di conseguenza è consigliato il dimensionamento corretto dell’impianto, in quanto il guadagno nel caso di impianti grid connected consiste nel prelevare meno possibile dalla rete più che vendere l’energia in eccesso. Stand alone Prevedono l’alimentazione di utenze isolate dalla rete (Stand alone)come ad esempio stazioni di pompaggio, Illuminazione pubblica, elettrificazione di villaggi o utenze isolate. 35 L’energia prodotto dai moduli viene accumulata attraverso la batteria, che rappresenta l’elemento critico di tale applicazione in quanto richiede una costante manutenzione. Il più famoso esempio di applicazione stand alone sono i satelliti per telecomunicazioni. Costo degli impianti: I fattori che influenzano il costo finale dell’impianto sono numerosi. Difatti bisogna tener conto del costo dei moduli, dei supporti dei moduli, dei cavi, dell’inverter, del contatore, del collegamento alla rete, della manodopera, del costo di permessi e degli atti amministrativi ecc. A livello generale però è possibile effettuare una stima approssimativa del costo dell’impianto a seconda del wattaggio che si desidera ottenere. Si tiene conto dunque dei seguenti parametri: • • • • • • Generatore fotovoltaico: 5.9€/W Inverter: 0.8€/W Struttura di sostegno: 0.3€/W Quadro elettrico: 0.5€/W Cablaggio e installazione: 0.3€/W Totale: 7.8€/W A questi costi si aggiunge una spesa fissa che tiene conto del costo del contatore di energia e di tutte quelle spese indipendenti dalla potenza dell’impianto. Questo ammontare fisso equivale a 260€. Esempio: Progettazione di un impianto di potenza pari a 3000W, collegato alla rete pubblica di distribuzione: Calcolo dei costi: 36 A questo totale parziale si aggiungono i costi per oneri professionali e amministrativi. Questi costi sono variabili e vengono calcolati di volta in volta a seconda dei casi. Esempio di modulo fotovoltaico al silicio policristallino Nella scheda che segue, un esempio di modulo fotovoltaico policristallino, realizzato da SHARP. Si riportano caratteristiche e parametri definiti dal costruttore: 37 38 39 CLASSE : VA E.T.A. ALUNNO: Bovino Silvano Indice: • Introduzione 1. Sistemi satellitari in orbita 2. Progetti Italiani nel campo satellitare 3. Bande di frequenza dei sistemi satellitari • Satelliti geostazionari • Strumenti di bordo dei satelliti: 1. Pannelli fotovoltaici 2. Sistema di alimentazione 3. Trasponder • Tecniche di multiplazione dei canali satellitari • Applicazioni dei satelliti: 1. Sistema GPS 2. Satelliti Meteorologici 40 Introduzione: Una delle prime fondamentali applicazioni del fotovoltaico si è avuta negli anni ’60, con la costruzione dei primi satelliti. I satelliti sono stati creati inizialmente per gestire tramite ponte radio, le comunicazioni per scopi militari o per la raccolta di dati meteorologici e scientifici. I primi satelliti lanciati nello spazio furono costruiti attraverso un progetto che vedeva riuniti 11 paesi (tra cui anche l’Italia). Questo consorzio venne denominato International Telecommunications consorsum INTELSAT. Il primo satellite lanciato in orbita attraverso tale progetto, venne denominati Intelsat 101. Col passare del tempo gli scienziati si resero conto dell’enorme potenziale e contributo che i satelliti avevano da offrire sia in merito alla raccolta dati ma anche per quanto riguarda la gestione delle telecomunicazioni del pianeta. Per questo motivo furono finanziati diversi progetti che miravano a migliorare le potenzialità dei satelliti cercando di aumentare la loro vita media, le loro prestazioni e i loro consumi. La serie più recente di satelliti lanciati in orbita tramite il consorzio INTELSAT sono della serie VIII e sono stati per questo denominati INTELSAT 801 , 802 e 803, lanciati rispettivamente nel Marzo, Giugno e Settembre del 1997. Successivamente nuove organizzazioni e consorzi locali e mondiali progettarono la messa in orbita di altri satelliti deputati allo svolgimento di nuovi obbiettivi. Alcuni di questi sono: • • Sistema satellitare INMARSAT (International Maritime Satellite Organizzation): avvalendosi di 4 satelliti geostazionari, questo sistema consente le comunicazioni telefoniche e dati tra stazioni marittime o aeronautiche con la terra ferma. Su questo sistema si basano anche le comunicazioni di emergenza per i servizi di soccorso e salvataggio. Sistema GPS: Tale sistema è costituito da una ventina di satelliti(attualmente ne sono operativi 13) situati in orbita bassa con distanza di 20000Km dalla terra. Questo sistema consente agli apparecchi portatili di conoscere in maniera sempre più precisa la propria posizione, con un margine di errore di pochi metri. In particolare si tratta di sistemi di posizionamento in grado di fornire all’utente longitudine, latitudine e quota in base alla propria posizione e in alcuni casi anche la velocità dell’utente o del mezzo mobile. • Questo è possibile poiché il satellite invia un segnale da cui è possibile ricavare la propria esatta posizione e le relative coordinate attraverso un dispositivo capace di decodificare il segnale satellitare. Sistema satellitare EUTELSAT: Tale sistema è costituito da una decina di satelliti lanciati a partire dal 1983 capaci di gestire il traffico telefonico e radiotelevisivo dei paesi EUROPEI. Il miglioramento delle potenzialità dei satelliti, verificatosi negli ultimi anni, ha accresciuto l’attenzione dei maggiori gestori delle telecomunicazioni (telefoniche, radiotelevisive, dati etc…) e ha fatto si che il numero di satelliti e di progetti per il loro lancio in orbita stia crescendo in maniera esponenziale. I progetti Italiani: Per quanto riguarda il programma satellitare Italiano, la nostra nazione oltre ad essere coinvolta nel progetto INTELSAT, è riuscita a lanciare in orbita 2 satelliti attraverso il progetto nazionale ITALSAT. I 2 satelliti denominati ITALSAT F1 e ITALSAT F2 operano per la gestione delle comunicazioni telefoniche. Difatti ITALSAT F2 è dotato di un sistema di bordo paragonabile ad una vera e propria centrale telefonica in grado di multiplare 12000 comunicazioni, lavorando nella banda compresa tra 20GHz e 30GHz. Tale satellite collega tra loro le centrali di Bari, Torino, Milano, Roma, Palermo, Milano, Verona e Fucino. Oltre a gestire le comunicazioni telefoniche per la società italiana TELECOM, tale satellite è in grado di fornire servizi aggiuntivi in merito alla videotelefonia, videoconferenze e trasmissione di dati. 41 BANDE DI FREQUENZA DEI SISTEMI SATELLITARI: Le bande utilizzate dai satelliti per gli scopi commerciali, quindi per la gestione delle normali comunicazioni sono distribuite in questo modo: • • • • banda L compresa tra banda C compresa tra banda Ku compresa tra banda Ka compresa tra 1GHz – 2 GHz 4GHz – 8 GHz 12GHz – 18GHz 27GHz – 40GHz Per le comunicazioni di tipo militare invece si utilizzano apparecchiature più sofisticati in modo tale che queste ultime non siano facilmente intercettabili. Per questo motivo si lavora con le seguenti bande di frequenza: • • • UHF compresa tra 225 MHz – 400 MHz SHF compresa tra 5 GHz – 8 GHz EHF compresa tra 20 GHz – 40 GHz Le bande di frequenza attualmente più utilizzate sono la C e la Ku che difatti è la usata anche dai satelliti INTELSAT, ARABAT, PANAMSAT, ASIASAT, ecc… Satelliti Geostazionari: Come abbiamo visto, la maggior parte dei satelliti svolge operazioni deputate alla gestione di servizi di telecomunicazioni per aree geografiche più o meno estese. Affinché questo sia possibile, è necessario che durante la rotazione della terra , il satellite rimanga 24 ore su 24 nello stesso punto rispetto all’area geografica coperta. I satelliti che soddisfano questo requisito sono detti geostazionari. Questi si trovano su orbite equatoriali a distanze opportunamente calcolate, in modo tale che il periodo di rivoluzione del satellite che percorre tale orbita, coincida con il periodo di rivoluzione della terra. Tale orbita viene definita geostazionaria in quanto per un osservatore a terra, il satellite appare fermo in cielo, sospeso sempre al di sopra del medesimo punto dell'equatore. Nel caso della terra la velocità di rotazione è tale da permettere orbite situate a distanze ideali dal centro terrestre in modo tale da coprire e gestire vaste aree. Affinché, il satellite conservi la sua orbita è necessario che la forza centrifuga a cui è sottoposto sia uguale alla forza di attrazione che la terra esercita su di esso. Se non venisse verificata tale condizione, nell’arco di un certo periodo di tempo, il satellite devierebbe dall’orbita prestabilita disperdendosi nello spazio o, avvicinandosi troppo alla terra, verrebbe attratto in maniera sempre più violenta verso l’atmosfera terrestre. Per questo motivo definendo M la massa della terra e m la massa del satellite deve valere la seguente relazione: 42 Da cui: In questo formula G è la costante di Gravitazione Universale ed è costante in natura a prescindere dalle proprietà dei corpi che interagiscono(in questo caso la terra ed il satellite). Il valore di tale costante è: La massa della terra invece è: Il fattore “r” invece definisce la distanza tra il centro della terra e il satellite ed è calcolato sommando la distanza della terra dal suo centro(RT) e la distanza tra la terra ed il satellite(h). Di conseguenza si ottiene: Per far si che il satellite percorra la sua orbita in un tempo T pari al periodo di rotazione terrestre deve verificarsi che: Il satellite deve essere in grado di percorrere l’orbita intorno alla terra in un tempo di 86400 secondi. Di conseguenza la velocità di rotazione vale: Da questa formula siamo in grado di determinare che la velocità di rotazione è pari a 3070m/sec. Infatti dalle relazioni precedenti si ottiene che: Questa è la distanza complessiva tra il satellite ed il centro della terra. Se vogliamo conoscere la distanza tra la terra ed il satellite basta eseguire il seguente calcolo tenendo conto che il raggio della terra è di 6370km: 43 Da tale distanza, il satellite è in grado di ricoprire teoricamente un angolo di 17030’ che definisce l’IMPRONTA (FOOTPRINT) che copre un area di circa 17000km2 cioè il 40% della superficie del globo. In questo caso sarebbe possibile attraverso 3 soli satelliti disposti in maniera equidistante, la copertura di un area equivalente all’intera superficie terrestre. Fig.1 Orbita Geostazionaria Attualmente vi sono numerosi satelliti geostazionari operativi. Tra i più famosi citiamo l’INTELSAT701, Superbird B2, i satelliti Hotbird della EUTELSAT e tanti altri, dei quali alcuni risultano non più operativi per via di malfunzionamenti o addirittura a causa di presunte collisioni con detriti spaziali. In casi diversi da quello dell’orbita circolare geostazionaria, i satelliti possono ruotare intorno a orbite di tipo ellittico dove la terra rappresenta uno dei 2 fuochi. Il punto più distante del satellite dalla terra viene denominato apogeo mentre quello più distante è detto perigeo. Queste orbite sono ottenute modificando la velocità di rotazione del satellite. Affinché il satellite conservi l’orbita devono essere rispettate le leggi delle gravitazione a cui abbiamo accennato. Di conseguenza la velocità di rotazione del satellite sarà compresa tra 2 valori Vmin e Vmax tali che entro tale intervallo sia garantito l’equilibrio tra la forza centrifuga e la forza di attrazione gravitazionale che la terra esercita sul satellite. Orbite diverse da quelle geostazionarie sono utilizzate per le rilevazione di dati meteorologici e scientifici o in ambito militare. Quanto appena detto è valido se la terra fosse caratterizzata da una superficie regolare intorno a tutto il globo. L’esistenza delle catene montuose e di perturbazioni che interessano i criteri della gravitazione del satellite quali l’attrazione della luna, la diversa distribuzione delle acque del nostro pianeta fanno si che il satellite sia sottoposto a forze inattese che se non bilanciate potrebbero modificare l’orbita del satellite. Inoltre, tenendo conto che da tali fattori è influenzata anche la velocità di rotazione del satellite, ne consegue che è necessario equipaggiare ogni sistema satellitare di una opportuna strumentazione di bordo affinché sia possibile gestirne da terra il corretto funzionamento e posizionamento. Per questo motivo consideriamo quali sono le caratteristiche dei tipici strumenti di bordo di un comune satellite. STRUMENTAZIONE DI BORDO: I satelliti utilizzati per le telecomunicazioni sono a tutti gli effetti dei ponti radio, in quanto il loro ruolo è quello di una stazione ripetitrice che consente il collegamento tra una stazione terrestre, marittima o aerea con una seconda o più stazioni situate nelle diverse aree del globo sotto la copertura del satellite. Il collegamento che si realizza pertanto si definisce: 44 • Punto - punto: in questo caso, il satellite collega tra loro una stazione trasmittente ed una ricevente. Utilizzano questo tipo di collegamento le centrali telefoniche. La figura seguente mostra un esempio di questo caso: Fig.2 Esempio di collegamento punto-punto via satellite • • Punto - multipunto: in questo caso una stazione trasmittente viene connessa a più stazioni riceventi, come nel caso delle trasmissioni radiotelevisive. Multipunto - punto: si realizza nel caso dei sistemi di rilevazione dati meteorologici quando più stazioni trasmittenti(ad esempio i sistemi di acquisizione dati), inviano i loro dati ad una sola stazione ricevente deputata all’elaborazione simultanea dei dati raccolti. Per questo motivo, un primo blocco fondamentale di un satellite è il TRASPONDER, cioè l’insieme di tutti i dispositivi che consentono le operazioni di ricetrasmissione dei segnali, utilizzando le opportune tecniche di modulazione dati utilizzando 2 diverse frequenze di portante, una per l’up-link e l’altra per il down-link. In questo modo si evitano le possibili interferenze tra i segnali in ricezione e i segnali in trasmissione. 45 Fig.3 Schema a blocchi della strumentazione di un satellite Come si osserva nello schema a blocchi, vi sono diversi strumenti che garantiscono le funzionalità del satellite: • Pannelli solari: I pannelli solari o meglio fotovoltaici, come sappiamo sono quei dispositivi in grado di convertire l’energie solare del sole in energia elettrica sfruttando il fenomeno dell’effetto “fotovoltaico” ottenuto dall’esposizione diretta alla radiazione solare di materiali semiconduttori come il silicio. Sfruttando tali dispositivi è possibile provvedere al sostentamento energetico del satellite. Questi pannelli infatti vengono orientati automaticamente verso il sole ed è possibile ricavare una potenza di circa 2 o 3 KW. Durante la rotazione però il satellite viene spesso a trovarsi in condizioni di ombra. Per questo motivo, trattandosi di una applicazione stand-alone è necessario implementare un sistema di alimentazione. • Sistema di alimentazione: Questo sistema svolge la funzione fondamentale di immagazzinare l’energia prodotta dai fotovoltaici, nel periodo in cui il satellite è esposto alla radiazione solare. Nel momento in cui la terra si interpone tra il satellite ed il sole, gli accumulatori rendono disponibile l’energia accumulata agli strumenti di bordo. Per poter garantire il funzionamento duraturo nel tempo gli accumulatori devono soddisfare alcuni requisiti: 1. Elevata durata di esercizio in modo da garantire una vita minima del satellite di 15 anni. 2. Elevate energie specifiche in modo da ottenere un buon rapporto energia/massa (wh/Kg) tenendo conto che in genere gli accumulatori costituiscono il 15-20% della massa del satellite e, come abbiamo visto, il calcolo della massa dell’intero corpo satellitare è indispensabili per la definizione dei criteri della sua orbita. 3. Nessuna richiesta di manutenzione. A volte però nei casi di satelliti particolarmente costosi ed indispensabili, vengono disposte missioni spaziali per la loro manutenzione che hanno proprio l’obbiettivo di eseguire la manutenzione del sistema di alimentazione o addirittura la sostituzione di alcuni dei suo componenti. In ogni caso è richiesta una tecnologia particolarmente sofisticata e costosa. Gli accumulatori maggiormente utilizzati sono quelli al Nichel/Cadmio o quelli al Nichel/Ioduri - metallici. Il rapporto energia/massa in questi casi è elevato e si attesta rispettivamente per il primo e il secondo tipo intorno ai 25 e 35 Wh/Kg. Data la natura ferromagnetica del Nichel questi accumulatori devono essere schermati affinché il satellite non sia soggetto a tali campi. Il problema può essere eliminato utilizzando le batterie agli ioni di litio di recente scoperta che generano una tensione di 3V per elemento con un ottimo rapporto energia (50Wh/Kg) e garantendo una quasi totale immunità ai campi magnetici. • Trasponder: Come abbiamo accennato, il trasponder comprende tutti i dispositivi per la gestione dei canali di trasmissione. Alcuni satelliti ne montano più di uno in modo tale da aumentare le capacità di multiplazione dell’intero ponte radio satellitare. Le principali funzioni svolte dai blocchi che compongono il trasponder riguardano la conversione di frequenza del segnale ricevuto in modo tale che, ricevuto il segnale di frequenza portante di up-link, il segnale sia poi trasmesso con portante di frequenza di down-link. Le 2 frequenze, di up-link e down-link sono assegnate in modo tale che quella di up-link sia la maggiore delle 2. In questo modo viene semplificata la tecnologia di bordo. I valori delle frequenze di up e down link sono stati fissati a livello internazionale dall’ITU-T e sono suddivisi a seconda delle varie aree geografiche: 1. REGIONE 1: Europa, Africa, Medio Oriente, Nord Asia. 2. REGIONE 2: Le Americhe e il Giappone. 3. REGIONE 3: India, Cina, Australia. Di seguito troviamo elencate le principali frequenze utilizzate dai trasponder dei satelliti Europei: 46 Bande di frequenza GHz Banda • 2 4/6 S C 7/8 12/14 X Ku 20/30 40/50 Ka Q Frequenza f1 di up-link Tratta Terra - Spazio 2.665-2.690 4.4-4.7 5.925-6.425 7.9-8.4 14.0-14.5 17.700-21.200 42.5-43.5 47.2-50.2 50.4-51.4 Frequenza f2 di down-link tratta Spazio - Terra 2.500-2.535 3.4-3.7 3.7-4.2 7.250-7.750 10.950-11.200 11.450-11.700 11.700-12.200 27.500-31.000 37.5-40.5 Larghezza di banda (MHz) 35 500 500 500 500 500 500 3500 3000 3000 3000 Antenne: Per quanto concerne le antenne situate a bordo dei satelliti e che consentono la ricezione e la trasmissione, queste sono di tipo parabolico e il loro numero è proporzionale al numero dei trasponder che si trovano a bordo del satellite. E’ proprio dalle antenne, che dipende la copertura radioelettrica, che il satellite garantisce sull’area terrestre. Si distinguono a questo proposito due tipologie di satelliti: 1. Satelliti a copertura globale: I satelliti a copertura globale coprono l’angolo massimo di 17030’ per cui consentono di garantire la copertura radioelettrica di un area pari al 40% della superficie terrestre. 2. Satelliti multifascio: Questo tipo di satelliti monta delle antenne realizzate in modo tale da ricoprire con fasci radio direzionali(spot) una regione geografica ben definita. In questo caso la potenza del segnale non è costante su tutta l’area geografica ma decresce man mano che ci si avvicina ai limiti dell’area interessata dal fascio direttivo. Si evince quindi che l’EIRP del segnale è massimo nel centro e decresce allontanandosi da tale punto. Alcuni grafici forniscono il footprint del satellite che fa riferimento proprio al fattore EIRP del segnale a seconda del punto della zona geografica interessata dalla copertura satellitare. Di seguito si riporta un esempio di footprint di un satellite: 47 Fig.4 Esempio di footprint di un satellite Per poter aumentare la qualità del segnale nelle zone ai limiti dei grafici di footprint satellitare, è necessario aumentare il diametro delle antenne paraboliche. Dal grafico inoltre si evince che affinché non vi siano interferenze tra i segnali degli spot adiacenti, è necessario suddividere la banda totale in sottobande eseguendo la suddivisione in celle, una tecnica utilizzata anche nella telefonia cellulare. In questo modo gli spot adiacenti lavorano sempre con frequenze diverse ed inoltre è possibile introdurre il riuso delle frequenze. 48 Fig.5 Esempio di suddivisione a celle del territorio Come si nota nella figura in alto, se il fascio direttivo del satellite è suddiviso in tanti piccoli fasci di diversa frequenza, si può riutilizzare la frequenza di un determinato sottofascio, facendo si che un altro fascio direttivo situato ad un opportuna distanza usi la medesima frequenza del primo fascio. Il riuso delle frequenze è una tecnica che può essere ulteriormente potenziata attraversa l’implementazione della tecnica della polarizzazione delle onde elettromagnetiche. Con il termine polarizzazione elettromagnetica si intende la direzione del piano di oscillazione del campo elettrico associato all’onda elettromagnetica. Di conseguenza, se la componente del campo elettrico, oscilla in un piano parallelo alla terra si dice che la polarizzazione è del tipo orizzontale (H); se invece oscilla in un piano perpendicolare alla terra si dice che la polarizzazione è verticale(V). La potenzialità di questa tecnica si evince dal fatto che sfruttando tali concetti è possibile trasmettere dei segnali con medesime frequenze, nella stessa area geografica e senza il rischio di interferenze. Concludendo, le antenne che montano sul satellite devono quindi essere in grado di sfruttare tali tecniche ed inoltre devono garantire una sufficiente potenza di trasmissione affinché il fattore di attenuazione dello spazio libero (ASL) non comprometta l’intelligibilità delle trasmissioni. Tale parametro deve essere considerato in fase di progettazione attraverso la seguente relazione: Dove con R indichiamo ovviamente la distanza tra il satellite e la stazione a terra. Questa distanza può essere calcolata dalla seguente formula: RT vale come abbiamo visto circa 6370km essendo il raggio della terra e la distanza del satellite tra la terra è invece r=42200km. L invece fa riferimento alla latitudine del luogo di ricezione ed in ultimo il parametro Δl si definisce come: Il parametro L fa quindi riferimento alla differenza tra la longitudine del satellite e quella del luogo di ricezione, assumendo come positive, le longitudini est e negative quelle riferite a ovest. Tecniche di multiplazione per la gestione dei canali satellitari: 49 Come abbiamo accennato, i satelliti rappresentano uno degli esempi più comuni di ponte radio. Questi sistemi consentono di ripetere i segnali proveniente dalle stazioni trasmittenti, amplificarli e ritrasmetterli alla stazione ricevente, utilizzando 2 frequenze portanti diverse, una per l’up-link e l’altra per il down link. Per poter gestire un gran numero di canali si intuisce che i satelliti siano in grado di adoperare le tecniche di multiplazione. Queste sono possibili grazie a particolari e sofisticati dispositivi, situati all’interno dei trasponder e che effettuano i seguenti tipi di multiplazione: • • • • FDMA (Frequency Division Multiple Access) TDMA (Time Division Multiple Access) SDMA (Space Division Multiple Access) CDMA (Code Division Multiple Access) Queste tecniche non sono altro che versioni più sofisticate delle convenzionali tecniche di multiplazione utilizzate nei normali collegamenti per le telecomunicazioni. Per questo motivo queste tecniche si basano inevitabilmente sui principi quali: • • FDM: LA FDM è la multiplazione in frequenza. Essa sfrutta la modulazione di ampiezza per traslare in alta frequenza un numero definito di canali utilizzando portanti a frequenza diversa di 4KHz l’una dall’altra. In questo modo la banda assegnata ai singoli canali telefonici sarebbe di 4KHz. Ogni canale occuperebbe una banda di 4KHz. Nel caso della Telecom si utilizza un sistema di tipo gerarchico. Nel primo livello sono multiplati 12 canali nel range di frequenze che va da 60 a 108KHz.(48/4=12 canali telefonici). Nel secondo livello viene effettuata la traslazione in frequenze dei singoli gruppi gerarchici di primo livello. In questo modo, arrivando alle gerarchie di quinto livello si giunge a multiplare nello stesso canale migliaia di utenti telefonici. L’utilizzo di schede realizzate seguendo le gerarchie di vario livello garantisce una migliore manutenzione dell’impianto in caso di guasti delle singolo schede. In questo modo non viene compromesso l’intero sistema ma i possibili guasti sono localizzati e facilmente individuabili. TDM: La tecnica TDM invece consente la multiplazione nel tempo. Sfruttando la modulazione PCM i segnali fonici degli utenti vengono convertiti in veri e propri dati digitali. Nell’eseguire la conversione Analogico/Digitali dei segnali fonici, viene considerata la formula di Shannon che definisce qual è la minima frequenza di campionamento per poter eseguire una corretta conversione: Dalla formula indicata deduciamo che la conversione avviene, nel caso dei segnali fonici con una frequenza di campionamento pari a : Essendo la banda fonica lorda di 4KHz si ottiene una fc di 8KHz. Da ciò si evince che del nostro segnale preleviamo 8000 campioni al secondo e più precisamente preleviamo un campione da convertire in digitale, ad intervalli regolari di 125us. La conversione effettiva dura invece poco più di qualche microsecondo. Il tempo restante dei 125us complessivi viene inutilizzato e come possiamo immaginare per i sistemi di elaborazione questo è un grande spreco in quanto in 125us è possibile eseguire diverse operazioni. Sulla base di queste affermazioni gli scienziati elaborarono la tecnica TDM che consente di affasciare durante i 125us più canali utente. In questo modo il canale di comunicazione è pienamente utilizzato e il sistema di elaborazione lavora continuamente e, riducendo i tempi, si aumentano le velocità di trasmissione. Sono state elaborate varie gerarchie PCM. La più semplice, cioè quella di 1o livello consente di affasciare 30 canali utente e 2 canali per la segnalazioni , nell’arco de 125us complessivi. Il sistema di primo livello gerarchico quindi è progettato secondo i seguenti criteri: 50 Il tempo in cui viene inviato ogni singolo canale è di: Tenendo conto che i segnali PCM sono costituiti da 8bit, la velocità Tbit è pari a: La velocità del sistema PCM di primo livello è quindi: Tale velocità si definisce velocità di ripetizione e aumenta al crescere della gerarchia PCM considerata. Le moderne centrali utilizzano gerarchie PCM che consentono di affasciare e multiplare nel tempo di 125us più di 7680 utenti telefonici. Il traffico PCM da trasmettere via ponte radio è modulato tramite modulazioni di tipo digitale PSK o QAM, in modo tale da poter trasmettere le informazioni e i dati vocali al satellite, che a sua volta ritrasmetterà le informazioni ricevute alla stazione di terra ricevente. • • Le multiplazioni SDM, alla base della SDMA satellitare, consiste in una divisione di spazio in modo tale da trasmettere più canali alla stessa frequenze, usando antenne direttive multifascio in grado di produrre spot di stessa frequenza diretti in diverse e separate zone della terra. Questa tecnica si avvale inoltre della tecnica della divisione in celle del territorio, di cui abbiamo parlato precedentemente. La multiplazione CDM, alla base della CDMA consiste invece nell’assegnare ad ogni canale, una determinata frequenza entro un determinato intervallo di tempo. In questo modo ad ogni canale è assegnato una sorta di codice informativo dal quale dedurne la posizione sia nel tempo che in frequenza garantendo inoltre la segretezza delle informazioni, in quanto il ricevitore deve essere impostato in modo da essere in grado di ricevere quel codice(frequenza-tempo) del canale satellitare. SISTEMA GPS 51 Il sistema GPS, acronimo di Global Positioning System è un sistema satellitare di posizionamento di proprietà degli Stati Uniti d’America. Questo sistema ebbe origine nel 1991 quando iniziò il programma spaziale per il lancio di 24 satelliti più altri allo scopo di fornire supporto oppure per intervenire in caso di guasti. I 24 satelliti principali sono distribuiti su 6 piani orbitali paralleli con orbite circolari ed inclinate di 550 rispetto all’equatore. Inoltre ogni satellite ha un periodo di rivoluzione tale che, in un giorno, passi 2 volte dallo stesso punto. Il funzionamento del sistema è reso possibile dal fatto che i 24 satelliti, distanti dalla terra 20000Km circa, siano disposti in modo tale che, in ogni istante del giorno, ogni punto della terra sia coperto dal segnale di almeno 4 satelliti. I segnali ricevuti a terra vengono di conseguenza controllati da apposite stazioni e decodificati dai ricevitori GPS. Dunque i componenti fondamentali di un sistema GPS sono i seguenti: • • • 24 Satelliti orbitanti, disposti in modo che ogni punto della terra, ne veda un minimo di 4 4 Stazioni di controllo a terra, che svolgono il ruolo fondamentale di verificare il corretto posizionamento dei satelliti e verificare di continuo la presenza di errori per intervenire di conseguenza, attivando gli strumenti a bordo dei satelliti o aggiornando il loro sistema di elaborazione. Tale compito è fondamentale, in quanto si calcola che nel caso in cui il sistema fosse lasciato a se stesso, diverrebbe obsoleto e non funzionante nel giro di pochi giorni. Ricevitore Gps: Il ricevitore Gps svolge le seguenti funzioni: 1. Rileva il segnale provenienti dai 4 satelliti che in quel momento coprono la sua area 2. Calcola le loro distanze 3. Calcola le coordinate della propria posizione in base ai dati ricevuti attraverso un procedimento definito trilaterazione. Per spiegare in cosa consiste questo calcolo complesso basato sulla trilaterazione possiamo fare un semplice esempio chiarificatore. Il ragionamento che segue tiene conto dello spazio bidimensionale anche se nella realtà si dovrebbe considerare quello tridimensionale ma il metodo teorico vale per entrambi: Immaginiamo di voler conoscere la nostra posizione trovandoci in un luogo dove non siamo in grado di orientarci. Per capire esattamente dove ci troviamo ci vengono fornite 3 informazioni: La prima informazione ci dice che siamo distanti 215 Km da una città,come ad esempio Napoli. Ne deduciamo che ci troviamo in un punto della circonferenza con raggio 215Km che ha il suo centro a Napoli. Una seconda informazione ci dice inoltre che distiamo 271Km da Firenze. Facendo il medesimo ragionamento valido per la prima informazione si ottiene il grafico seguente: 52 Secondo questo grafico saremmo in grado di affermare con certezza che ci troviamo in uno dei 2 punti evidenziati in blu. Questo perché solo questi 2 punti corrispondono alle informazioni forniteci in base alle quali distiamo 271Km da Firenze e 215Km da Napoli. Per stabilire qual è dei 2 il punto esatto che raffigura la nostra posizione abbiamo bisogno di un ulteriore dato. Mediante la terza informazione infatti, veniamo a conoscenza che ci troviamo alla distanza di 80Km da Roma. Il nostro grafico si arricchisce e assume la seguente configurazione: In base al grafico ottenuto siamo in grado di stabilire la nostra esatta posizione, che è quella evidenziata dal punto Blu. Nella situazione reale del GPS lo spazio considerato è tridimensionale ed infatti una quarta informazione ricevuta dal quarto satellite orbitante fornisce i dati necessari al calcolo della trilaterazione nello spazio 3D. Il ragionamento che abbiamo fatto è comunque valido in quanto basterebbe immaginare che nella realtà le circonferenze illustrate siano invece delle sfere tridimensionali che si intersecano tra loro. Il GPS riesce a comunicare con i satelliti analizzando le alte frequenze con cui essi trasmettono segnali a terra (le bande usate sono 1575.42 Mhz e 1227.60 Mhz). Per capire la distanza tra il receiver ed il satellite viene misurato il tempo che un segnale impiega per arrivare a terra. Nella realtà bisogna però considerare che il sistema diviene molto più complesso che nella teoria in quanto sia i trasmettitori GPS, cioè i satelliti, che i ricevitori devono essere perfettamente sincronizzati tra di loro, in modo tale che il ricevitore GPS, ricevuto il segnale del satellite, sia in grado di calcolare con esattezza il tempo impiegato da tale segnale per giungere a destinazione, conoscendo con assoluta precisione l’istante in cui il segnale è “partito dal satellite”. Per rispondere a tale necessità, i satelliti montano orologi atomici sofisticati e molto costosi(si parla di 160000 euro per orologio) che hanno un errore di 1 secondo ogni 30000 anni fornendo così un assoluta precisione nel calcolo dei tempi e delle sincronizzazioni. I ricevitori di terra, anche se non sono dotati di sistemi a cosi alta 53 precisione sono programmati in modo tale da aggiornare e correggere i loro orologi interni attraverso i segnali inviati direttamente dai satelliti. Un ultimo importante aspetto da considerare è che il sistema GPS è disponibile in 2 versioni. La prima detta PPS(Precision Positioning System) è quella che sfrutta al massimo le potenzialità dei satelliti vantando errori di calcolo di pochissimi metri. Questa è la versione disponibile alle forze militari Statunitensi. La seconda versione invece, definita SPS(Standard Positioning System), è destinata all’uso civile e si caratterizza della disponibilità selettiva. La disponibile selettiva è un provvedimento emanato dal ministero della difesa degli USA per indurre un errore intenzionale nei calcoli del posizionamento che eleva il margine di errore a 30m. Nonostante molti paesi abbiano contestato a lungo questo provvedimento, gli Stati Uniti hanno chiarito che il motivo di tale limitazione è legato alla sicurezza militare. Attualmente, molti centri spaziali del mondo sono intenzionati a studiare ed avviare progetti per un proprio sistema GPS. Difatti, essendo l’attuale sistema, di proprietà USA, esso è soggetto non solo alle restrizioni imposte dal governo Statunitense ma inoltre la disponibilità dei servizi derivanti dal GPS dipende dalla volontà degli Stati Uniti di rendere disponibile alla comunità mondiale, il loro servizio. Per questi motivi il centro spaziale Europeo ha avviato un progetto simile a quello del GPS. Il sistema è stato chiamato “GALILEO” e la sua entrata in servizio è prevista per il 2013 e conterà su 30 satelliti orbitanti su 3 piani inclinati rispetto al piano equatoriale terrestre e ad una quota di circa 24.000 km. Si ipotizza che questo sistema, oltre a fornire una valida alternativa al GPS Americano, garantirà una precisione nei calcoli ancora maggiore e chissà se queste sue complete potenzialità saranno garantite in futuro a tutta la popolazione Europea. 54 SATELLITI METEOROLOGICI: Un altra applicazione fondamentale dei satelliti è quella della meteorologia, cioè quella branca della scienza che studia i fenomeni fisici responsabili dei cambiamenti del tempo atmosferico. Le moderne rilevazioni meteorologiche si basano sulla elaborazione dei numerosi dati ottenuti attraverso la strumentazione di misura, dislocata in maniera omogenea sul territorio. Esistono numerosi strumenti che sono deputati alla rilevazione di grandezze fisiche responsabili del tempo atmosferico o premonitrici di fenomeni atmosferici come le precipitazioni, i temporali ecc… Tra gli strumenti che intervengono nel complesso sistema meteorologico vi sono: • • • • • • • • barometri (per la misurazione della pressione atmosferica) termometri (per la misurazione della temperatura) igrometri (per la misurazione dell’umidità) termoigrografi (per la registrazione della temperatura e dell’umidità) pluviometri (per la misurazione delle quantità di pioggia) anemometri (per la misurazione della forza e della direzione dei venti) radiosondaggi (mediante palloni sonda ) boe galleggianti e navi meteorologiche (per l’osservazione delle condizioni meteorologiche in mare aperto) I seguenti strumenti sono stati approvati dal W.M.O. (World Meteorological Organization) e vengono utilizzati in ogni stazione meteorologica mondiale: Termometro a mercurio - Termometri di minima e di massima - Termoigrografo - Anemometro - Anemografo Barometro - Barografo - Pluviografo - Radiometro - Psicrometro In ultimo lo strumento essenziale per le rilevazioni meteorologiche è costituito proprio dall’insieme di satelliti meteorologici situati su orbite geostazionarie o polari. Questi tipo di satelliti sono dotati a bordo di una specifica strumentazione che permette di fotografare la terra dallo spazio ottenendo immagini nello spettro del visibile, dell’infrarosso e del vapor acqueo. Queste immagini in alta risoluzione sono inviate mediante trasmissioni criptate alle stazioni meteorologiche di terra. Successivamente i centri di elaborazione elaborano queste immagini per renderle disponibili alle utenze civili, in un formato di risoluzione minore per motivi di sicurezza (la precisione delle rilevazioni satellitari e delle immagini ottenute via satellite è spesso soggetta al controllo degli organi militari che, per ovvii motivi di sicurezza, consente un accesso civile ai sistemi satellitari ma con minore risoluzione e precisione dei dati). I dati raccolti a intervalli regolari, attraverso la strumentazione di terra e attraverso i satelliti, vengono trasmessi a centri nazionali ed internazionali, che attraverso elaborazioni computerizzate o in certi casi di tipo manuale consente di stilare rapporti sulle condizioni meteo di elevata qualità. I satelliti più importanti nel campo meteorologico sono diversi. 55 Queste applicazioni dei satelliti rappresentano dei veri e propri modelli di Sistemi di Acquisizione Dati(SAD) in quanto i satelliti Meteorologici sono dotati di sensori, trasduttori e i relativi circuiti di condizionamento e i relativi circuiti per le conversioni e l’adattamento ai sistemi di elaborazione. Nelle pagine seguenti sono raffigurati alcuni esempi di satelliti lanciati in orbita da diverse agenzie spaziali. Tutti e 4 gli esempi raffigurati e descritti sono utilizzati nel campo della meteorologia. Operatore: EUMETSAT Nome: Meteosat 8 Data del lancio: 03/1991 (Meteosat 5), 08/2002 (Meteosat 8 MSG-1) Tipo di orbita: Geostazionario Questo satellite, oltre alla possibilità di scattare foto dallo spazio, consente di effettuare diverse rilevazioni tramite strumenti come il radiometro attraverso il quale esplora la superficie della Terra, linea per linea. Ogni linea consiste di una serie di immagini elementari o pixel. Per ogni pixel, il radiometro misura l'energia radiativa delle differenti fasce spettrali. Questa misura è digitalizzata, quindi trasmessa ad una stazione di terra dove viene trattata, prima di essere inviato alla comunità degli utenti. Le rilevazioni sono eseguite a intervalli di 15 minuti. Operatore: Agenzia Meteorologica del Giappone. Nome: MTSAT Data del lancio: 02/2005 (MTSAT-1R), 02/2006 (MTSAT-2) Tipo di orbita: Geostazionario Questo satellite, di proprietà del Giappone è munito della medesima strumentazione del Meteosat. Operatore:SRC PLANETA Nome: METEOR Data del lancio: Tipo di orbita: Sole-sincrono, il satellite passa sempre sopra lo stesso punto alla stessa ora del giorno. altezza: 1200 km Inclinazione dell'orbita: 82 gradi rispetto al piano equatoriale Strumento: MR-900 Il MR-900 è un radiometro. 56 Questo strumento esplora una falciata larga circa 2600 chilometri. La risoluzione è di 2 chilometri. Operatore: NASA Data del lancio: 19 giugno 1999 Tipo di orbita: Sole-sincrono, il satellite passa sempre sopra lo stesso punto alla stessa ora del giorno. altezza: 800 km Inclinazione dell'orbita: 98,6 gradi rispetto al piano equatoriale Questo satellite, ruota intorno alla terra ad una velocità tale da ritornare in linea con l’equatore per ben 14 volte al giorni. Dotato di diffusometro, consente le rilevazioni dell’intensità e della velocità dei venti. 57 CLASSE : VA E.T.A. ALUNNO: Bovino Silvano Indice: • • • • • • • • Definizione; Schema a blocchi di un sottosistema di misura; Circuito di rilevamento; Caratteristiche e classificazione dei trasduttori; Circuito di condizionamento; Circuito di Sample/Hold; Convertitore ADC; Sistemi multicanale. 58 59 Definizione: Un sistema di acquisizione dati è un sistema di misura elettronico realizzato per monitorare, registrare ed eventualmente post-elaborare le misure di una o più grandezze fisiche. Un sistema di acquisizione e distribuzione dati tradizionale è costituito da 3 blocchi fondamentali: • • • Sottosistema di misura(SAD) Sottosistema di elaborazione Sottosistema di uscita I 3 blocchi sono interfacciati tra di loro in modo da ottimizzare al meglio i collegamenti. Il sottosistema di misura rappresenta effettivamente il sistema di acquisizione dati in quanto è il blocco a diretto a contatto con il mondo fisico. Si distinguono dunque 2 fasi fondamentali: • ACQUISIZIONE:Per sistema di acquisizione dati, si deve intendere qualsiasi sistema in grado di rilevare e memorizzare grandezze analogiche e/o digitali. • DISTRIBUZIONE:Consiste nell’inviare segnali analogici o digitali ad attuatori come motori,dispositivi riscaldati, relè, teleruttori. La fase che consideriamo è quella dell’acquisizione, svolta dal sottosistema di misura. Schema a blocchi di un sottosistema di misura: Il sottosistema di misura è costituito generalmente dai seguenti blocchi: • • circuito di rilevamento circuito di condizionamento 60 • convertitore analogico/digitale Circuito di rilevamento: Il blocco rilevatore trasforma una grandezza fisica di ingresso in una grandezza elettrica ad essa proporzionale. il rilevamento avviene tramite dei trasduttori. Circuito di condizionamento: Il circuito di condizionamento adatta il segnale in uscita dal rilevatore per il convertitore. Ha quindi la funzione di adattare il segnale elettrico proveniente dal rilevatore all'ingresso del convertitore che rappresenta il blocco successivo a quello di condizionamento. Il circuito di condizionamento viene suddiviso in due blocchi: • • circuito di condizionamento primario circuito di condizionamento secondario Convertitore Analogico/Digitale: Questo dispositivo ha la funzione di convertire il segnale analogico proveniente dai circuiti di condizionamento in un segnale digitale adatto ad essere acquisito, memorizzato ed elaborato dal sottosistema di controllo. Circuito di Rilevamento: Il circuito di rilevamento è costituito da due blocchi fondamentali, il sensore e il circuito di conversione. Questi due blocchi costituiscono il trasduttore cioè quel dispositivo in grado di convertire una grandezza fisica in una grandezza elettrica. Si definisce sensore un dispositivo in grado di rilevare variazioni di una grandezza fisica e fornire in uscita ancora una grandezza fisica diversa e proporzionale alla precedente. Un esempio che definisce questo dispositivo è il termometro che, a variazioni di temperatura corporea, fa corrispondere variazioni di altezza della colonnina di mercurio. Il circuito di conversione, invece, svolge il ruolo di convertire la grandezza fisica in uscita dal sensore, in una grandezza elettrica(solitamente una tensione). Generalmente, sia il sensore, che il circuito di conversione, sono integrati nello stesso circuito e non divisi. 61 Caratteristiche e classificazione dei trasduttori Il trasduttore, per poter garantire una corretta acquisizione dei dati informativi deve rispettare alcuni criteri basilari. Le caratteristiche fondamentali dei trasduttori utilizzati nella pratica sono le seguenti: • • • • • • linearità sensibilità campo di funzionamento tempo di risposta risoluzione caratteristica di trasferimento • La linearità si riferisce ad una proprietà di un sistema che indica come le sue uscite (risposte) possano mettersi in relazione lineare con i suoi ingressi. E’ uno dei parametri fondamentali del trasduttore, dalle cui caratteristiche è possibile definire l'errore massimo. Si può ovviare all'errore di linearità operando in un campo più ristretto dove la caratteristica è lineare. In caso contrario bisogna linearizzare la caratteristica del traduttore mediante appositi circuiti di linearizzazione. • La sensibilità di un trasduttore è il rapporto tra la variazione della grandezza di uscita e quella di ingresso: • Il campo di funzionamento è la differenza tra il valore massimo e quello minimo che può assumere la grandezza di ingresso, in corrispondenza della quale l'uscita è lineare. • Si definisce tempo di risposta, il tempo che impiega il traduttore a raggiungere un valore di uscita conforme a quello della grandezza di ingresso quando questa subisce una variazione improvvisa. • La risoluzione di i un trasduttore invece, è la minima variazione della grandezza di ingresso percepibile in uscita. Si esprime in percentuale. Generalmente esistono diversi tipi di trasduttori e diversi modi per classificarli. Le classificazioni moderne avvengono in base a 3 diversi fattori caratteristici: • Tipo di segnale di uscita del trasduttore; • Tipo di grandezza fisica in ingresso al trasduttore; • Fonte di energia esterna La classificazione in base al tipo di segnale di ingresso permette di distinguere 2 tipologie di trasduttori: 1. Analogici 62 2. Digitali La classificazione in base alla fonte di energia esterna consente di distinguerli invece in: 1. Attivi(Non richiedono energia esterna ma forniscono direttamente una grandezza elettrica in uscita, ES:PANNELLI FOTOVOLTAICI,SOLARI…) 2. Passivi(Necessitano di energia esterna per effettuare la conversione della grandezza fisica, in elettrica) Se invece, si utilizza la classificazione in base al tipo di grandezza fisica di uscita(la più utilizzata nella pratica), si ottiene la seguente classificazione: • • • • • • TRASDUTTORI DI TEMPERATURA TRASDUTTORI DI UMIDITA’ TRASDUTTORI DI PRESSIONE TRASDUTTORI DI LUMINOSITA’ TRASDUTTORI DI POSIZIONE TRASDUTTORI DI VELOCITA’ I trasduttori che risultano più utilizzati nella pratica, sono quelli di temperatura. Infatti i sistemi meteorologici ad esempio si basano prevalentemente sull’acquisizione regolare di dati sulle temperature medie delle varie zone geografiche, che insieme ai dati sulla pressione e quelli relativi alla nuvolosità consentono le previsioni per i giorni successivi. Un esempio di trasduttore di temperatura è il PT100, una termo resistenza al platino dalla caratteristica lineare. Attraverso i trasduttori, siamo quindi in grado di ottenere il segnale elettrico che dobbiamo elaborare. Dall’esigenza di dover trasmettere i segnali ottenuti a dei veri e propri centri di elaborazione, nasce il bisogno di progettare dispositivi che possano adattare questi segnali ai sistemi di elaborazione. Un primo circuito, deputato a questo ruolo è il CIRCUITO DI CONDIZIONAMENTO. CIRCUITI DI CONDIZIONAMENTO Il circuito di condizionamento svolge la funzione fondamentale di adattare il segnale elettrico proveniente dai sensori, ai blocchi successivi della catena di acquisizione dati. A questo scopo, tale circuito svolge le seguenti funzioni: • • • • • Conversione corrente/tensione Amplificazione e traslazione di livello Filtraggio Isolamento Linearizzazione Conversione corrente/tensione: Questa operazione si rende indispensabile a causa del fatto che molti trasduttori restituiscono in uscita una corrente e non direttamente una tensione. Affinché il segnale possa essere “lavorato” dal successivo ADC(Analogic to Digital 63 converter), è necessario utilizzare un circuito di condizionamento costituito da un operazionale che svolge la funzione di convertitore corrente tensione. Nell’immagine che segue, un esempio di convertitore I/V: L’utilizzo di tale circuito inoltre, produce isolamento tra i blocchi, in quanto in caso di guasti o corto circuiti, l’operazionale funge da buffer e protegge i circuiti che seguono. Amplificazione e traslazione di livello: La maggior parte dei trasduttori esistenti e che sono reperibili in commercio, restituisce in uscita un segnale di tensione di ampiezza molto bassa. Per questo motivo, si utilizzano operazionali in grado di effettuare sia l’amplificazione e traslazione di livello in un range di tensione compreso tra 0 e 5mv. Filtraggio: Un importante funzione dei circuiti di condizionamento è quella di far ottenere in uscita un segnale privo di distorsioni o rumore, in quanto un segnale ben filtrato consente una buona conversione ed elaborazione dei dati. Si utilizzano a questo scopo i filtri passa – basso, che consentono inoltre l’eliminazione del fenomeno di aliasing durante la fase di campionamento, che causerebbe la sovrapposizione delle bande nello spettro in frequenza. Isolamento: Come abbiamo accennato in precedenza, l’isolamento dei circuiti è essenziale per garantire la protezione del sistema. Soprattutto per le applicazione elettromedicali, l’isolamento è indispensabile per salvaguardare sia le apparecchiature che le persone. Linearizzazione: Un ulteriore funzione svolta da questi circuiti è la linearizzazione analogica delle curve di risposta che un trasduttore fornisce secondo una caratteristica non lineare. Nella figura in basso, segue un esempio di linearizzazione della caratteristica di uscita di un trasduttore di temperatura: 64 Esempio di linearizzazione della curva di risposta La linearizzazione si rende indispensabile, per le successive fasi di conversione analogico/digitale in quanto una caratteristica lineare consente di ottenere segnali digitali corrispondenti e proporzionali alla grandezza fisica misurata. Sample/Hold Un altro componente fondamentale per i SAD, è il sample/Hold. Questo circuito va inserito a monte dell’ADC e permette di campionare il segnale proveniente dal circuito di condizionamento. Questa operazione si rende necessaria in quanto, spesso, il segnale emesso in uscita dal trasduttore, varia molto velocemente e non rimane costante per tutto il tempo della conversione. 65 Circuito di Sample and Hold Il circuito sample/hold è costituito da 2 buffer tra i quali è posto un interruttore comandato da un segnale di tipo impulsivo, proveniente dalla logica di controllo del sistema che provvede all’invio dei tempi di sincronismo tra i vari circuiti. Quando l’interruttore è chiuso, (fase di sample, cioè di acquisizione), il condensatore C si carica sino al valore di ampiezza del segnale Vi, che viene contemporaneamente trasferito all’uscita. Nel momento in cui arriva un impulso dalla logica di controllo, l’interruttore si chiude e contemporaneamente inizia la fase di conversione nel blocco ADC. Durante questo intervallo di tempo(fase di Hold), il condensatore conserva l’ultimo valore di tensione acquisito e trasferisce tale tensione all’uscita mantenendola costante per tutta la fase di hold. Si ottiene di conseguenza il seguente grafico: L’intervallo di tempo che intercorre tra l’apertura dell’interruttore e la disponibilità del dato in uscita equivale a: 66 Dove ta rappresenta il ritardo di apertura dell’interruttore. Tac è il tempo di acquisizione, cioè il tempo che impiega l’ingresso per essere trasferito in uscita. Tu è il tempo di incertezza di apertura; tset invece rappresenta il tempo di assestamento del modo di hold, cioè il tempo che impiega l’uscita per l’assestamento. Dato che ta è un tempo molto più elevato rispetto agli altri valori, insieme al tempo tac, si considera che: Da queste considerazioni, è possibile ottenere la massima frequenza del segnale campionabile: La frequenza di campionamento è la misura espressa in Hertz del numero di volte al secondo in cui un segnale analogico viene misurato e memorizzato in forma digitale(da "digit" che in inglese significa numero). Frequenza di campionamento con S/H Dove con n si indica il numero di bit dell’ADC Frequenza di campionamento con ADC Dove tc è il tempo di conversione Frequenza di campionamento con ADC e S/H Secondo il teorema di Shannon si ottiene: Di conseguenza: Convertitore ADC: 67 Il convertitore A/D ha il compito di trasformare il segnale analogico presente al suo ingresso in un segnale digitale a N bit. Ad un convertitore viene applicata una corrente continua particolarmente stabile detta tensione di riferimento (Vref), questa tensione viene anche detta tensione di fondo scala (Vfs). Il rapporto tra Vfs e il modulo 2n, rappresenta la risoluzione del convertitore, ovvero la più piccola tensione che applicata all’ingresso produce un cambiamento del dato digitale in uscita. Il segnale ottenuto in uscita dal convertitore ADC è inviato successivamente al microprocessore tramite cavo seriale . Un esempio di convertitore Analogico/Digitale è il convertitore A/D C ad approssimazione successiva: Questo circuito, basato sull’integrato ADC0804 svolge le seguenti operazioni: Al 1o impulso di clock, la rete logica SAR pone a 1 l’MSB mentre i restanti bit rimangono a 0. La VDAC che si ottiene all’uscita del convertitore digitale/analogico, viene confrontata con la Vi. In questo modo il bit viene “pesato” e solo se Vi<VDAC esso rimane a 1. Se invece Vi>VDAC, l’MSB viene posto nuovamente a 0. Al successivo impulso di clock, il bit successivo viene posto a 1, indipendentemente dal valore che il bit precedente ha assunto in base al confronto con Vi. Questa operazione viene svolta per ogni bit ed infine, una volta che anche l’ultimo bit è stato pesato, il valore dei singoli bit è trasferito in modo parallelo in uscita. L’inizio e la fine della conversione sono segnalati dai segnali SC e EOC rispettivamente di START ed END of conversion. La conversione avviene entro un tempo Tc che dipende dal numero di bit del convertitore. Se il numero di bit è 4, occorreranno 5 impulsi di clock per eseguire la conversione(il primo impulso è quello che pone l’MSB a 1, mentre l’ultimo rende i dati disponibili in uscita). Se il numero di bit è elevato, occorrerà maggiore tempo per la conversione, ma in compenso la risoluzione del convertitore migliora, dato che il valore del QUANTO Q=VFS/M, consente di apprezzare valori molto piccoli di tensione, convertibili in digitale. Una volta che il dato digitale è trasferito in modo seriale al microprocessore, questi viene elaborato e successivamente l’elaboratore invierà un segnale che attiva i circuiti del sottosistema di uscita, dove un DAC provvederà a fornire i segnali necessari ad attivare gli attuatori. 68 SISTEMI MULTICANALE Quanto abbiamo detto, si applica a quei sistemi in grado di elaborare una sola grandezza fisica di ingresso. Lo schema dettagliato per i sistemi monocanale è dunque il seguente: Schema a blocchi SAD monocanale La quasi totalità dei sistemi d'acquisizione è progettata per registrare contemporaneamente più misure. Ciò nasce dall'esigenza degli utilizzatori di mettere in relazione tra loro diverse grandezze, in modo da ricavare le relazioni esistenti tra gli elementi che compongono l'oggetto dell'analisi. Questi sistemi vengono realizzati creando diverse catene di misura che hanno in comune il medesimo strumento di registrazione (l'acquisitore). Quest'ultimo è in grado di ricevere i vari segnali e collegarli a linee di registrazione indipendenti chiamate canali; pertanto questi sistemi sono definiti sistemi multicanale. Nel momento in cui è necessario elaborare un numero maggiore di grandezze fisiche si deve implementare un MULTIPLEXER ANALOGICO. Questo circuito, schematizzabile come un commutatore elettronico a più ingressi e uscita comune, permette di elaborare sequenzialmente le grandezze fisiche ed eseguire la loro conversione. 69 Schema a blocchi SAD multicanale Con una logica programmata, i segnali provenienti dai trasduttori vengono elaborati, ad uno ad uno, a intervalli regolari. I tempi di conversione nei sistemi multicanale tengono conto del tempo TMUX: Dove Ts è il tempo di setting, cioè l’intervallo di tempo che intercorre tra l’istante in cui l’interruttore è chiuso e l’istante in cui l’uscita raggiunge il valore finale. TON invece rappresenta il tempo richiesto per convertire / connettere l’ingresso all’uscita del MUX. Per un numero N di canali, si ottiene una frequenza di campionamento: Dove fc rappresenta la frequenza di campionamento per un singolo canale, che è pari a: La configurazione illustrata nella figura precedente, prevede l’utilizzo di un circuito di condizionamento per ogni sensore. Quando il sistema di acquisizione dati è progettato per l’elaborazione di grandezze fisiche simili, è possibile d’altronde implementare un unico circuito di condizionamento, in quanto le operazioni di adattamento svolte da tale circuito, divengono uguali per ogni uscita dei trasduttori. In questo modo, è possibile risparmiare sui costi. 70 CLASSE : VA E.T.A. ALUNNO: Bovino Silvano Indice: • Cenni teorici sui sensori e i trasduttori; • Termoresistenze: o Descrizione o Tipologie • Termistori: o Descrizione dei PTC o Descrizione degli NTC 71 Cenni teorici sui sensori: Si definiscono sensori quei circuiti in grado di convertire una grandezza fisica in ingresso, in un'altra grandezza facilmente convertibile ed elaborabile dai sistemi di elaborazione dati. Il sensore, è l’elemento di un circuito maggiormente a contatto con il mondo naturale esterno. L’utilizzo dei sensori, consentiva in passato la lettura immediata delle grandezze fisiche, convertendole in grandezze di altra natura facilmente misurabili. Il termometro al mercurio, infatti ha la funzione di convertire le variazioni di temperatura in una variazione del livello di altezza della colonnina di mercurio. L’esempio del termometro al mercurio(nella foto un esempio), illustra come è fondamentale lì utilizzo di materiali adatti, che modificano le loro caratteristiche a seconda della temperatura o comunque della grandezza fisica che si apprestano a misurare. Fig.1 Esempio di termometro al mercurio Con l’avvento dell’elettronica è nata la necessità di progettare dei sensori che si adattassero alle nuove tecnologie e consentissero la misurazione in maniera elettronica, della grandezza fisica misurata. Un altro dei motivi che ha provocato l’avvento dei sensori elettronici è stata la messa al bando di alcuni sensori ritenuti prericolosi per i materiali che li costituivano. Il termometro al mercurio difatti, sarà ritenuto fuorilegge a partire dal 3 OTTOBRE 2009, proprio perché ritenuto pericoloso per il suo contenuto. Si sa infatti che il mercurio è una sostanza potenzialmente nociva, in quanto un suo errato utilizzo può provocare danni alla salute e alla natura. Questi effetti dannosi possono essere riassunti nei seguenti: - Distruzione del sistema nervoso - Danneggiamento delle funzioni cerebrali - Danni al DNA e danni cromosomici - Reazioni allergiche, che risultano in chiazze cutanee, stanchezza ed emicranie - Effetti riproduttivi negativi, quali danni allo sperma, i difetti di nascita ed aborti Il danneggiamento delle funzioni cerebrali può causare la degradazione della capacità di apprendimento, cambiamenti di personalità, tremore, cambiamenti di visione, sordità, scoordinamento muscolare e perdita di memoria. Danni cromosomici sono noti causare il mongolismo. I motivi che abbiamo citato rivelano quanto la ricerca di trasduttori e quindi sensori utilizzabili nel campo dell’elettronica, sia quanto mai indispensabile per garantire una sicurezza migliore ma anche una precisione maggiore nel campo degli utilizzi professionali. 72 Fig.2 Il mercurio che fuoriesce da un comune termometro, costituisce un pericolo per la salute in quanto se ingerito o smaltito in modo errato costituisce un pericolo per l’uomo e la natura. Attualmente in commercio, vi sono moltissimi tipi di trasduttori di temperatura. Quelli che ci apprestiamo ad analizzare sono tra i più conosciuti: • • Termoresistenze Termistori Descrizione delle termoresistenze: Un esempio di trasduttori molto conosciuti in campo pratico, è quello delle termoresistenze. Le termoresistenze si costituiscono di materiale metallico, che ha la caratteristica di alterare il suo valore resistivo al variare della temperatura secondo una precisa legge matematica: Dove RO: E’ la resistenza a 0 oC; α :è il coefficiente di temperatura (oC-1); T :E’ la temperatura in oC. Le termoresistenze maggiormente utilizzate, sono costituite da metalli come il Platino, il Rame ed il Nichel che consentono di operare in un campo di temperatura che va da -2000C ad alcune centinaia di 0C. Come possiamo osservare dalla formula, la presenza del coefficiente α, che è positivo, indica che la resistenza di questi materiali è direttamente proporzionale all’aumento della temperatura. Per cui se la temperatura aumenta, cresce anche il valore resistivo del materiali che costituisce la termo resistenza. Nella pratica, il Platino viene utilizzato per applicazioni che richiedono elevata precisione. Difatti, le termoresistenze che sfruttano il rame o il nichel, presentano lo svantaggio di avere un basso rapporto massa/resistività nel primo caso, e scarsa linearità nel secondo. Il Platino, invece ha una caratteristica più lineare entro un range di temperature abbastanza ampio. Questo materiale costituisce la termo resistenza PT100 le cui iniziali fanno riferimento proprio all’utilizzo di tale materiale e alla sua temperatura a 0oC che equivale a 100Ω(nel caso del PT1000 infatti a 0oC si ha una resistenza di 1000Ω.. Esistono due categorie di termoresistenze al platino: • • termoresistenze a film sottile termoresistenze a filo Le termoresistenze a film si realizzano deponendo, sotto vuoto, un sottilissimo strato di platino su un substrato di ceramica (tipicamente di forma rettangolare di 2 mm x 5 mm). Dopo aver fissato i terminali per il collegamento elettrico esterno, tipicamente si effettua una taratura del dispositivo al laser. Secondo la norma IEC 751 (1995) le Pt100 sono classificate a seconda della tolleranza nella misura fornita: • • Pt100 Classe A ±0,15 °C [0 °C] ±0,06 Ω [0 °C] Pt100 Classe B ±0,30 °C [0 °C] ±0,12 Ω [0 °C] Descrizione dei termistori: Si definiscono termistori, quei trasduttori di temperatura realizzati attraverso materiale semiconduttore, per i quali il legame tra resistenza e temperatura è di tipo esponenziale. Ad una piccola variazione di temperatura, corrisponde quindi una elevata variazione di resistenza del componente. I termistori si dividono in 2 categorie principali: 73 • • PTC NTC I PTC hanno un coefficiente di temperatura positivo, il che equivale a dire che se la temperatura aumenta, vi è un aumento della resistenza. I materiali che rispondono a queste caratteristiche sono il titanato di bario, di stronzio e il silicio policristallino. La legge esponenziale che caratterizza i termistori è la seguente: Tenendo conto che A,B e C sono delle costanti si nota subito come l’aumento di resistenza è di tipo esponenziale ed è proporzionale all’aumento della temperatura. La curva di risposta tipica di un termistore, ottenuta da tale relazione è illustrata nella figura in basso: Come si può notare il campo di funzionamento, di tale componente è limitato ad un range di temperature entro il quale la curva di risposta è conforme alla legge matematica citata in precedenza. I parametri tipici per un termistore commerciale sono i seguenti: Tolleranza Resistenza di riferimento Temperatura di riferimento Resistenza finale a 125 oC Temperatura finale Tensione di esercizio 5% R1=100Ω T1=80oC R2=50kΩ T2=125 oC Vmax=30V Per quanto concerne gli NTC invece, il coefficiente di temperatura, essendo negativo fa si che il valore della resistenza di tale componente, diminuisca con l’aumentare della temperatura. In questo caso i materiali utilizzati sono l’ossido di ferro, di cobalto, di cromo, di manganese e di nichel. L’utilizzo di tali componenti permette di ottenere valori di resistenza regolati dalla seguente legge matematica: Dove: T = temperatura espressa in gradi kelvin RT = resistenza alla temperatura T R0 = resistenza alla temperatura di riferimento T0 74 B = costante indipendente (ha valore compreso tra 2500 e 5700K) Il vantaggio di utilizzare gli NTC deriva dal fatto che la relazione matematica che li caratterizza permette un campo di funzionamento molto più ampio dei PTC, caratterizzato da temperature di lavoro anche al di sotto dello zero. I parametri caratteristici di un NTC commerciale sono quelli elencati in tabella: Resistenza a 25 oC Coefficiente B Dissipazione di potenza Tolleranza Fattore di dissipazione Costante termica di tempo Temperatura di funzionamento: -Alla dissipazione massima -Alla dissipazione zero 47kΩ 3300K 0,6W a 25 oC 20% 5mW/ oC 30s Da 0 oC a 55 oC Da -25 oC a 155 oC Nell’immagine seguente possiamo notare la diversa curva di risposta degli NTC e i PTC: Si nota inoltre come la caratteristica di un NTC sia lineare in un intervallo di temperature più ampio rispetto ai PTC. I trasduttori di temperatura sono utilizzati moltissimo sia nei SAD e nei sistemi satellitari sia per utilizzi industriali o domestici all’interno di apparati elettrodomestici. La loro funzione dunque è fondamentale per garantire il corretto funzionamento delle macchine automatiche che svolgono delle specifiche funzioni in base alla temperatura presente nell’ambiente o nel luogo di misurazione. 75 CLASSE : VA E.T.A. ALUNNO: Bovino Silvano Indice: Definizione di attività economica; • Le fasi dell’attività economica; • Obbiettivi dell’attività economica; Concetto di azienda; • • • • Elementi costitutivi di un azienda L’azienda intesa come sistema Il rapporto azienda-ambiente Classificazione delle aziende o In base al fine o In base al luogo di ubicazione o In base alla natura giuridica del soggetto o In base alle dimensioni dell’azienda 76 Definizione di attività economica: Si definisce attività economica, l’insieme delle attività svolte dall’uomo per ottenere beni e servizi per il soddisfacimento dei propri bisogni. Nel corso della vita, ogni uomo avverte una serie di bisogni. Questi possono essere distinti in 2 categorie principali: • • Bisogni primari: Sono quei bisogni il cui soddisfacimento è necessario alla vita. Fanno parte di questa categoria, il bisogno di mangiare, bere, coprirsi e dormire, essenziali per la sopravvivenza umana. Bisogni secondari: Sono quei bisogni marginali, il cui mancato soddisfacimento non mette a repentaglio la sopravvivenza umana. Esempio di bisogni primari sono: bisogno di studiare, svagarsi, vacanze ecc… Per poter soddisfare tali bisogni, l’uomo necessità di procurarsi beni(o servizi) che possano essere utilizzati per eliminare il corrispondente bisogno. I beni che rispondono a tale necessità si definiscono beni economici in quanto limitati e non sempre immediatamente disponibili. I processi che consentono, di ottenere beni utilizzabili a questo scopo, costituiscono l’attività economica. Nell’attività economica è possibile distinguere 4 fasi principali: • • • • Produzione: si riferisce all’insieme di operazioni e attività svolte dall’uomo che partendo da una risorsa naturale(grezza e inutilizzabile), consente di ottenere come prodotto finito, un bene consumabile. Per ottenere il prodotto finito(il bene), l’uomo può avvalersi di una produzione diretta o indiretta. In entrambi i casi, la combinazione sapiente di mezzi e lavoro consente l’ottenimento di nuovi beni o l’accrescimento della loro utilità. Scambio: consiste nella cessione di un bene contro un altro bene. Consumo: consiste nell’utilizzo dei beni prodotti e porta al soddisfacimento dei bisogni. Risparmio: attraverso il risparmio, si sottraggono alcuni beni dal consumo immediato, per destinarli o preservarli per un consumo futuro. Generalmente, il concetto di bene fa riferimento ad un qualcosa di tangibile(cioè che possiamo toccare). Difatti anche se esistono beni immateriali(software informatici), spesso l’idea di bene economico fa riferimento ad un qualcosa che si può osservare e toccare. Il concetto di servizio invece, fa riferimento ad una prestazione(come ad esempio quella offerta da un medico) e di conseguenza può essere definito come un prodotto intangibile cioè privo di consistenza fisica. Sia i beni che i servizi, nel loro insieme sono in grado di produrre utilità, cioè quella capacità di soddisfare i bisogni dei soggetti che li richiedono. L’obbiettivo principale dell’attività di produzione è proprio quello di accrescere l’utilità delle risorse disponibili in un dato momento. Essa si caratterizza principalmente di 3 sottofasi che riguardano la produzione diretta e indiretta: • Produzione fisica di beni e prestazione di servizi: Consente, partendo da una risorsa iniziale, di ottenerne altre di tipo diverso attraverso la trasformazione fisica dei beni(come ad esempio avviene nel caso delle materie prime che, attraverso una serie di processi, consentono di ottenere un prodotto finale, cioè il bene utile). 77 • • Trasferimento di beni nello spazio: questa operazione consiste nello spostamento di beni da luoghi dove vi è un eccedenza, in luoghi dove vi è scarsità di risorse o dove vi è uno squilibrio tra produzione e consumo. E’ il caso del petrolio o della frutta esotica. Nel luogo di destinazione si ottiene, in questo modo, una produzione indiretta di beni. Trasferimento di beni nel tempo: Consiste nella conservazione dei beni per renderli disponibili in un momento futuro. Nel momento in cui sono messi a disposizione, si ha una produzione indiretta di beni in quanto si accresce, anche in questo caso, la disponibilità di risorse. L’intera attività di produzione necessità dei fattori produttivi che sono distinti in risorse naturali, lavoro umano e capitale, dove per capitale intendiamo l’insieme di tutti quei fattori che consentono di ottenere beni e generare reddito e che includono la natura, gli essere umani e le risorse prodotte dall’uomo. Nell’economia moderna, la produzione di beni e servizi utili per il soddisfacimento dei bisogni, è affidata ad istituti economici produttivi e organizzati denominati aziende. L’azienda: Si definisce azienda un istituto economico destinato a durare nel tempo che, mediante l’impiego di un complesso differenziato di risorse, produce beni e servizi per il soddisfacimento dei bisogni umani. All’interno delle aziende, la combinazione di lavoro e capitale, consente di ottenere un sistema di operazioni che costituisce l’attività economica. Gli elementi che costituiscono un azienda sono: • • • • • Organizzazione stabile, creata in modo tale da compiere operazioni durature e garantire di conseguenza, l’esistenza duratura dell’organismo aziendale. Insieme di persone, che a vario titolo svolge diverse operazioni contribuendo allo svolgimento dell’attività aziendale(si distinguono a questo proposito le diverse figure professionali come i dirigenti, gli impiegati, gli operai ecc). Complesso di beni economici, che vengono destinato allo scambio sul mercato o utilizzati all’interno dell’azienda sia come beni di consumo che come fattori produttivi. L’insieme dei beni economici costituisce il patrimonio aziendale. Fine da raggiungere, che si concreta con il soddisfacimento dei bisogni umani attraverso la produzione e il consumo di beni economici. Il soddisfacimento può essere: o Diretto, se l’azienda mira direttamente a soddisfare i bisogni attraverso il consumo della ricchezza(cioè dei beni economici e i prodotti finiti). o Indiretto, se invece l’obbiettivo principale dell’azienda è quello del lucro cioè del guadagno attraverso al produzione e distribuzione di beni e servizi. Il conseguimento degli obbiettivi aziendali in questo caso, produce comunque indirettamente il soddisfacimento dei bisogni. Insieme ordinato e sistematico di operazioni, svolte dalle figure professionali dell’azienda che consentono di raggiungere il fine aziendale. L’azienda intesa come sistema Il modo in cui è organizzata un azienda fa si che essa possa essere intesa come un sistema costituito da uomini e mezzi, cioè da blocchi interdipendenti tra loro ma combinati in modo tale da raggiungere uno scopo specifico interagendo con l’ambiente circostante. 78 Il sistema azienda, dunque, è considerato un: • • • • • • sistema aperto sistema socio-tecnico sistema finalizzato sistema dinamico sistema autoregolato sistema economico. o L’azienda viene considerata un sistema aperto in quanto per poter sussistere nel tempo, deve continuamente intraprendere rapporti di scambio con l’ambiente esterno in cui è operativa. Come sistema aperto è caratterizzata da input, cioè le materie e le risorse necessarie allo svolgimento dell’attività economica aziendale, e di output cioè i prodotti finiti (beni e servizi) che vengono ceduti a terzi. o L’azienda è considerata un sistema socio-tecnico in quanto si avvale di persone(elemento sociale) da una parte e di macchine e attrezzature tecnologiche dall’altra(elemento tecnico). o L’azienda è un sistema finalizzato in quanto, indipendentemente dai precisi obbiettivi aziendali, tende ad uno scopo generale: il soddisfacimento dei bisogni umani. o L’azienda è un sistema dinamico poiché, per poter perdurare nel tempo, necessità di mutare i suoi equilibri adeguandosi alle esigenze dei consumatori, in modo tale da ottenere un vantaggio competitivo rispetto alle aziende concorrenti. o L’azienda è un sistema autoregolato in quanto tutte le operazioni svolte nel corso della storia dell’azienda vengono registrato in modo tale da regolare l’attività economica futura evitando di commettere ripetutamente gli stessi errori. Le informazioni registrate si definiscono di feed-back in quanto ritornano utili nel futuro. o L’azienda inoltre è considerata un sistema economico poiché per poter soddisfare i bisogni illimitati e risorgenti(che si ripresentano continuamente nel tempo) ricorre all’utilizzo di risorse limitate che producano beni limitati(beni economici). Il rapporto azienda-ambiente L’azienda che opera in un determinato luogo è soggetta ad una serie di input. Per questo motivo l’azienda deve essere in grado di elaborare questi input in modo tale da tradurli in eventuali possibilità di sviluppo e sopravvivenza. 79 Gli input che l’azienda riceve provengono non solo dagli specifici ambienti di operatività(mercati), ma anche dall’ambiente generale o macroambiente. Si individua di conseguenza un vero e proprio sistema ambiente che interagisce con l’azienda. Il sistema ambiente è caratterizzato da diversi sottoblocchi strutturati nel modo seguente: Come possiamo osservare l’ambiente generale(o macroambiente) si divide in: o Ambiente fisico naturale: fa riferimento alla geografia e demografia del luogo di ubicazione dell’azienda. Questo ambiente tiene conto della rete di trasporti e della reperibilità delle materie prime, fattori rilevanti per l’azienda. o Ambiente Culturale: tiene conto del grado di istruzione, della cultura, ideologia e religioni di un determinato luogo e di tutti i fattori che fanno riferimento alla conoscenza e ai comportamenti delle persone che vi abitano. o Ambiente tecnologico: tiene conto del livello di conoscenze in campo scientifico e tecnologico. Da queste conoscenze, l’azienda è stimolata al progresso tecnologico e all’adozione di moderne tecniche di produzione. o Ambiente sociale: fa riferimento alla sussistenza o meno di classi o caste sociali che influenzano la mobilità sociale, cioè al possibilità all’interno di un gruppo sociale, di passare da una determinata condizione ad un'altra, migliore e superiore. Di conseguenza si riferisce alle condizioni di vita della comunità sociale. 80 o Ambiente economico: tiene conto dei vari fattori che caratterizzano l’economia locale, come l’inflazione, scambi commerciali con l’estero, importazioni e tutti quegli elementi che influiscono sul PIL(prodotto interno lordo). o Ambiente politico legislativo: tiene conto della tipologia di governo che caratterizza il paese di ubicazione dell’azienda. Da tale ambiente è condizionata l’attività economica a seconda delle norme vigenti che regolano il mercato e gli scambi commerciali e il fisco. L’azienda a seconda dei rapporti di scambio commerciali che opererà, ritaglia all’interno del macroambiente, un ambiente specifico (microambiente). Gli scambi commerciali riguardano sia l’acquisizione di risorse, sia la cessione dei beni e servizi prodotti. Si individuano dunque 2 tipi di mercato: • • Mercato di acquisizione dei fattori produttivi Mercato di vendita dei beni e servizi prodotti Per quanto concerne il primo tipo di mercato, cioè quello per l’acquisizione dei fattori produttivi, si individuano i seguenti mercati: • • • • • Mercato del lavoro Mercato delle materie prime Mercato delle tecnologie Mercato delle fonti di energia Mercato dei capitali. Classificazione delle aziende Le aziende sono classificabili seguendo diversi punti di vista. I principali metodi di classificazione tengono conto di: • • • • Fine dell’azienda Luogo di ubicazione o operatività Natura giuridica del soggetto che assume i diritti e gli obblighi derivanti dall’attività aziendale Dimensioni dell’azienda Classificazione in base al fine aziendale: A seconda del fine aziendale si individuano 3 tipi di aziende: • • • Aziende di produzione Aziende di erogazione Aziende composte. Le aziende di produzione comunemente chiamate imprese, sono aziende che producono beni e servizi al fine di rivenderli per ottenere un utile, cioè una differenza positiva tra guadagni provenienti dalla cessione a terzi dei beni e i servizi prodotti, e i costi di produzione. Esse si dividono in: o o imprese di produzione diretta di beni: sono quelle imprese, che attraverso una serie di operazioni e processi di trasformazione, manipolazione e trattamento delle materie prime, svolgono l’attività di produzione dei beni economici. Esempio di questa tipologia di azienda sono le imprese industriali che ricevono come input le materie prime e attraverso la combinazione di lavoro umano e meccanico, ottengono un prodotto finito. Imprese di produzione indiretta di beni: sono imprese che operano il trasporto nel tempo e nello spazio delle risorse. Di conseguenza non eseguono le operazioni di trasformazione e manipolazione. Esempio di tale azienda sono le imprese di 81 o trasporto che acquistano beni da un luogo e li trasportano in un altro luogo per rivenderle. La loro attività è dunque prevalentemente commerciale. Imprese di servizi: sono imprese che svolgono attività di supporto per le imprese o le persone. Esempio di tali aziende sono le imprese bancarie e di assicurazione. Esse hanno l’obbiettivo di agevolare le attività aziendali o individuali. Le aziende di erogazione invece svolgono un attività diretta al consumo della ricchezza per il soddisfacimento dei beni. La ricchezza dunque diviene il mezzo per svolgere l’attività di gestione. Le aziende di erogazione con soggetto giuridico privato sono gestite da cittadini o organizzazioni private che non hanno il fine del lucro ma il diretto obbiettivo di erogare servizi di utilità collettiva. Esempi di tali aziende sono: • • • • associazioni e fondazioni i cui mezzi provengono dalle donazioni dei soci comitati organizzati da persone che raccolgono fondi per promuovere iniziative volte, direttamente o indirettamente a soddisfare dei bisogni umani. Cooperative sociali Organizzazioni di volontariato Le aziende di erogazione con soggetto giuridico pubblico sono invece: • • • • Stato Enti locali IPAB(istituti pubblici di assistenza e beneficenza) Aziende degli enti istituzionali(camera di commercio, INPS, INAIL). Le aziende composte o miste sono quelle aziende nelle quali, oltre ad un attività di consumo della ricchezza, viene svolta anche un attività di produzione intesa in senso ampio. Esempi di questo tipo di attività sono i Bar, ristoranti ecc… Classificazione in base all’ubicazione: A seconda del luogo di operatività delle aziende, si individuano: • • aziende indivise aziende divise Le aziende indivise operano in una sede unica, dove sono localizzati uffici e stabilimenti dell’azienda stessa. Le aziende divise invece, dispongono di diversi uffici e stabilimenti, dislocati sul territorio (le banche ad esempio hanno una sede centrale e diverse filiali distribuite sul territorio). Classificazione in base alla natura dei soggetti giuridici: A seconda del tipo di soggetto giuridico che fa capo ad una azienda si riconoscono i diritti e gli obblighi a cui di conseguenza è sottoposta l’attività aziendale. In base alla natura del soggetto giuridico si distinguono: • • aziende private, soggette alle norme di diritto privato, divise in: o individuali (singolo soggetto giuridico). o Collettive (soggetto giuridico composto da una pluralità di persone fisiche). aziende pubbliche, soggette alle norme di diritto pubblico. Nel nostro ordinamento si distinguono 2 tipologie di società: Società di persone: 82 o prive di personalità giuridica o prive di organi della società o responsabilità personale, solidale ed illimitata dei soci. Si individuano a questo propositi 3 tipi di società di persone: società semplice(S.S.), società a nome collettivo(S.n.c.) e la società in accomandita semplice(S.A.S.). Società di capitali: o provviste di personalità giuridica o provviste di organi deliberativi, di gestione e di controllo o rispondono delle obbligazioni sociali con il proprio patrimonio Sono società di capitali le società per azioni(S.p.A.), le società a responsabilità limitata(S.r.l.) e le società in accomandita per azioni(S.A.P.A.). Classificazione in base alle dimensioni dell’azienda: La classificazione delle aziende in base alle loro dimensioni è fondamentale in quanto in base alla grandezza dimensionale sono previste delle relative leggi e regolamenti specifici a cui verrà sottoposta l’azienda. Le aziende vengono perciò classificate in piccole, medie, grandi. • • • • • • Per poterle classificare si tiene conto dei seguenti parametri: fatturato annuo numero dei lavoratori capitale investito valore aggiunto(utile creato) capacità di produzione degli impianti 83