- Introduzione Vorrei cominciare il discorso con i motivi che mi hanno spinto ad affrontare un argomento di questo tipo per una tesina di maturità. Innanzitutto l'informatica è una mia passione da veramente tanto tempo, e addirittura sarà presumibilmente la mia occupazione futura, visto che ho intenzione di conseguire la laurea in Ingegneria Informatica al Politecnico di Milano. In secondo luogo ho riflettuto molto sulla possibilità di collegamenti che l'argomento comporta, e sono davvero notevoli: dalla Storia alla Fisica, dalla Geologia addirittura all'Educazone Fisica. Naturalmente saranno un pò penalizzate le materie di tipo umanistico, ma la possibilità di collegarsi ad argomenti attuali mi ha allettato a tal punto da affrontare con decisione l'argomento. Per ultimo, ma non per questo il motivo meno importante, l'appartenenza ad un liceo scientifico. Spero che ne sia valsa la pena. - La tecnologia Cosa si intende per Tecnologia? Si sente così tanto parlare di "Nuove Tecnologie", "Tecnologie Innovative", "Soluzioni Tecnologiche", ma forse il significato di questo termine viene a volte confuso. Per "Tecnologia" si intende l'insieme delle procedure e dei metodi di applicazione delle conoscenze scientifiche alle attività produttive. La tecnologia è quindi un campo estremamente vasto, caratterizzato da molteplici aspetti: consiste sia nel complesso di conoscenze e di studi teorici mirati a risolvere problemi pratici, sia nella progettazione e nella realizzazione di prodotti di vario tipo quali vestiario, alimenti, manufatti, strutture, dispositivi elettronici e sistemi informatici; in generale, quindi, contribuisce a realizzare il cosiddetto "mondo artificiale". Il processo tecnologico nasce per soddisfare un'esigenza umana o per concretizzare un'aspirazione e a questo fine utilizza risorse di vario tipo, come l'immaginazione, le conoscenze scientifiche e multidisciplinari, le competenze tecniche e gli strumenti. Essendo una dinamica della società umana, anche la Tecnologia ha avuto una storia, che comincia addirittura nell'età della pietra per finire, o quasi, ai giorni nostri. Tuttavia occorre fare una distinzione: fino alla fine dell'Settecento non si può parlare di un grande sviluppo della Tecnologia, dato che la produzione industriale non era su larga scala, le industrie non erano quasi del tutto sviluppate e soprattutto non era ancora diffusa la mentalità capitalistica, ovvero, in parole povere, la "voglia di rischiare del proprio denaro in un'attività". Cosa ha fatto scattare la molla? La Rivoluzione Industriale Il 1700 ha portato con sè la sua mentalità illuministica, e tra le sue tematiche vi era anche la fiducia quasi totale nella scienza e nella tecnica. E' stato proprio in questo anno che si costruirono le prime linee ferroviarie, lo sviluppo delle vie di comunicazione, le più importanti scoperte nel campo medico e scientifico in generale. Tuttavia il grande sviluppo economico e tecnologico lo si avrà soltanto in quella che verrà definita "Seconda Fase della Rivoluzione Industriale", periodo di tempo che va dal 1860 circa al 1920. Gli elementi che caratterizzarono la Seconda Fase della Rivoluzione Industriale furono di vario tipo: Le nuove scoperte scientifiche e le invenzioni; Nonostante l'ambiente scientifico si era già mosso dallo stato di quiete che derivava ancora dal 1700 con l'invenzione della macchina a vapore, il vero boom lo abbiamo negli ultimi trent'anni del 1800. Nel 1879 Edison realizzò la prima lampadina a filamenti di carbone, Marconi riuscì per la prima volta al mondo a comunicare a distanza tramite la radio, Bell e Meucci inventarono il telefono nel 1874. Nel campo della chimica vi furono importanti scoperte e formulazioni di nuove teorie che permisero una crescita immediata della fiducia nelle industrie chimiche: si introdussero nuove materie prime nella produzione di esplosivi, di saponi, dei coloranti artificiali, delle lastre e delle pellicole fotografiche, della celluloide... Faraday, Oersted, Millikan, Maxwell, Ohm sono solo alcuni degli scienziati che contribuirono allo studio sul magnetismo e alla "nascita" delle onde elettromagnetiche La cosa importante da sottolineare è comunque la fiducia che gli imprenditori ebbero nella produzione chimica, investendo immensi capitali e guadagnando molto e in un tempo relativamente breve. Sempre riguardo alle innovazioni tecnologiche, durante la seconda fase della rivoluzione industriale abbiamo la nascita dell'aereonautica, che prese l'avvio con il collaudo del primo aereoplano nel 1903 coi fratelli Wright L'introduzione nell'attività produttiva di nuove macchine I nuovi macchinari prodotti dalla ricerca e dallo sviluppo scientifico-tecnologico furono subito introdotti in larga scala nella produzione industriale, con delle conseguenze importanti: il numero di addetti alla lavorazione di un prodotto calava vertiginosamente, dato che la macchina si occupava di tutto; inoltre vi fu la necessità di addestrare operai qualificati che sapessero usare le macchine a disposizione, conttribuendo così ad una politica industriale presente anche al giorno d'oggi, la necessità di formare gli operai per renderli più produttivi. Il campo dove più massiccio fu questo fenomeno fu senz'altro il campo dell'industria pesante, metallurgica e siderurgica, dove impressionante fu il numero di licenziamenti, dato che i molti artigiani che vi lavoravano furono sostituiti da pochi addetti specializzati. L'introduzione e il massiccio uso di energie nuove: il petrolio e l'elettricità L'aspetto energetico ha veramente sconvolto il vivere della popolazione mondiale in seguito alle scoperte di Edison (lampadina) e di tutti gli scienziati che scoprirono il possibile utilizzo dell''elettricità. L'illuminazione ha stravolto la vita nelle città e nella case, mentre l'uso della corrente elettrica contribuì allo sviluppo di una rete che smistava la corrente nelle abitazioni e negli uffici che permise negli anni successivi all'enorme uso di elettrodomestici e apparecchiature elettriche quali i telegrafi, inventati da Morse nel 1840. Fu scalzato quindi l'utilizzo del petrolio dal campo dell'illuminazione ma l'oro nero fu utilizzato in nuovi campi; la ricerca permise la nascita delle materie plastiche e il loro utilizzo massiccio nel commercio. La plastica infatti era molto più semplice da utilizzare, meno costosa e più versatile, poteva essere utilizzata in vari campi e in varie forme, anche se negli ultimi 20 anni è nato il problema dell'inquinamento, sottovalutato all'inizio della produzione plastica. Comunque l'aspetto più importante dello sviluppo del petrolio fu il suo utilizzo come carburante, fenomeno che contribuì allo sviluppo delle automobili. Un altro materiale introdotto in questo periodo fu l'acciaio, utilizzato prevalentemente per la fabbricazione di macchinari, che divenne in poco tempo la materia prima più richiesta dall'industria La nascita di nuove industrie Tante furono infatti le industrie che nacquero in seguito al boom industriale; questo fenomeno fu possibile proprio grazie all'investimento di denaro, di capitale, da parte di "pionieri dell'occidente" che vollero tentare la fortuna. Le industrie si occuparono o di sviluppare settori già attivi in precedenza o addirittura si occuparono coraggiosamente della produzione di nuovi articoli di mercato, legati soprattutto all'industria chimica (Solvay) o tecnologica (Siemens). Le nuove industrie erano caratterizzate da una concentrazione di molti operai in imponenti complessi di fabbrica, fenomeno a cui si applica la definizione di Grande Industria. Si costituirono immediatamente rapporti tra le industrie nate: i cartelli, la collaborazione momentanea a livello economico o produttivo, e i trust, vere e proprie fusioni di industrie che portarono alla formazione di immensi colossi industriali. La rivoluzione dei mezzi di trasporto La Rivoluzione Industriale ebbe per la prima volta la necessità di far transitare la merce in tutto il globo terrestre; ecco quindi un immenso sviluppo dei trasporti. Nel mondo marittimo di notevole importanza vi fu la realizzazione dei canali, di Suez e di Panama, oltre a quelli di Kiev e di Corinto. Le ferrovie, già utilizzate ma in condizioni pessime, furono riorganizzate e l'utilizzo di rotaie in acciaio le rese molto più sicure e durature. Le ferrovie assunsero valore internazionale e furono quindi costruiti i trafori, come il Frejus (1871) e il S.Gottardo (1882) in Europa, mentre furono allestite linee "Coast to Coast", da costa a costa, in America e in Russia (Transiberiana). Oltre al miglioramento delle vie di comunicazione sorsero anche numerose strutture, centri di carico-scarico, centri di smistamento e di ausilio al trasporto, che si preparavano a diventare nodi fondamentali del commercio. L'organizzazione delle fabbriche L'uso di macchine sempre più potenti consentì di trasferire alla macchina molte attività da sempre prerogativa dell'uomo; in questo modo il lavoro umano perse una gran parte di creatività e divenne sempre più ripetitivo e semplice; inoltre nacque la figura dell'operaio qualificato, del tecnico, che conosce la macchina e deve intervenire per farla funzionare o per ripararla e che si differenzia dall'operaiomassa, che compie un lavoro di ausilio alle macchine e uguale per molti. Inoltre l'attività produttiva dei grandi complessi industriali richiese un rigido coordinamento e una solida programmazione. Si verificò pertanto una divisione del lavoro: ai dirigenti e ai tecnici spettò il compito di programmare i processi produttivi, agli operai il semplice e ripetitivo lavoro. La divisione del lavoro aprì la strada ad altre innovazioni nell'organizzazione del lavoro: - il CICLO CONTINUO, ovvero lavorazioni che procedono per turni di operai senza fermare quasi mai le macchine; - la PRODUZIONE IN SERIE, la produzione di pezzi tutti uguali l'uno all'altro e intercambiabili; - le CATENE DI MONTAGGIO, teorizzate da Taylor nella sua "Organizzazione scientifica del lavoro", rendevano la produzione efficiente, data la brevità e l'efficienza di produzione, che però limità molto la creatività dell'operaio, costretto a vedere e a intervenire solo su un pezzo del prodotto. - La rivoluzione dei computer Il Microprocessore. E' il cuore attorno al quale ruota la vita del moderno "Homo tecnologicus". La scoperta indispensabile per mandare l'uomo nello spazio. Per far viaggiare la voce in ogni angolo del mondo grazie a telefonini sempre più piccoli. Per impegnare i giovani in avvincenti sfide contro mostri ipergalattici, tanto minuziosi da sembrare veri. E i continui progressi della sua tecnologia sono anche la causa per cui ogni due anni (nel migliore dei casi) i suddetti giovani vorranno un computer sempre più veloce. E' il microprocessore, la più grande conquista del XX secolo, a detta di molti la porta spalancata sul XXI. In ogni momento sono circa quindici miliardi i microchip (è così che vengono chiamati) in uso nel mondo, l'equivalente di due computer molto potenti per ogni uomo, donna e bambino del pianeta. E questo è solo il numero di "contenitori". All'interno di ogni singolo chip infatti, sono contenuti milioni e milioni di transistor (gli "interruttori elettronici" che consentono al chip di svolgere le sue funzioni). Secondo una stima di Intel, la società americana che nel 1971 ha realizzato il primo microprocessore della storia, il numero totale dei transistor contenuti nei microchip prodotti in un anno è pari a quello delle gocce di pioggia cadute su una nazione più grande dell'Italia nello stesso periodo. Senza questi minuscoli interruttori non ci sarebbe possibile accendere la realtà, e non ci si riferisce solo agli oggetti che rendono più confortevole la vita. Le reti di comunicazione, i trasporti aerei e su rotaia, l'illuminazione pubblica, e ancora il funzionamento di pacemaker, respiratori artificiali e incubatrici, tutto dipende dagli intricati circuiti incisi su una minuscola lastra di silicio, una scheggia più piccola di un'unghia e più leggera di un francobollo. La legge di Moore. La vera rivoluzione apportata dalla tecnologia del transistor di silicio è stata quella di poter dare una sorta di "intelligenza" (meccanica o comunque indotta) agli oggetti, in modo da renderli più funzionali e interattivi con l'essere umano. E in un certo senso i transistor hanno anche "liberato" l'uomo. Il basso consumo energetico di questi dispositivi, infatti, ha reso portatili (perché alimentabili a pile) una serie di apparecchi - in testa a tutti il computer - per i quali erano indispensabili un cavo elettrico e una presa. Per capire quanto la realtà sia mutata grazie ai chip, basta dare un'occhiata al cruscotto di una delle nuove automobili di lusso: solo dieci anni fa una simile strumentazione era ancora fantascienza. Gli apparecchi del futuro parleranno, ma soprattutto sapranno ascoltare e capire i nostri comandi. Per far questo è necessario che cresca la capacità di calcolo dei microprocessori, e questo si realizza aumentando la densità dei circuiti, ovvero il numero dei transistor contenuti in un singolo chip, e la loro velocità. Il transistor, unità di base del circuito integrato, fu inventato nel 1947 (l'anno seguente alla nascita del primo computer, Eniac, un "mostro" di 30 tonnellate) da tre fisici americani dei laboratori della compagnia telefonica Bell: John Bardeen, Walter Brattain e William Shockley. Alla ricerca di un sostituto per le fragili e costose valvole di vetro utilizzate nelle apparecchiature radio, gli scienziati inventarono un amplificatore solido che svolgeva le stesse funzioni della "valvola a vuoto" di Fleming. Il dispositivo riusciva a trasmettere corrente attraverso un resistore, e fu chiamato transistor dalla contrazione dei due termini inglesi "transferring" e "resistor" (trasferimento di resistenza). Elemento fondamentale del transistor è l'impiego di uno speciale materiale detto semiconduttore. Questo ha caratteristiche intermedie tra un materiale perfettamente conduttore (come il rame o il ferro) e un isolante (per esempio vetro e plastica). Per i primi esperimenti venne utilizzato il costosissimo germanio, ma il boom dei transistor si ebbe quando a questo fu sostituito il silicio (nel 1954), uno dei materiali più abbondanti sulla crosta terrestre. Negli stessi anni si scoprì che aggiungendo alcune "impurità" al semiconduttore, questo poteva servire da amplificatore, raddrizzatore, sorgente di onde elettromagnetiche: l'epoca delle valvole si era definitivamente chiusa. Il passo successivo nella tecnologia del silicio fu l'assemblaggio, su un'unica base, di più elementi (come transistor e condensatori): è il passaggio dal singolo chip al circuito integrato (IC). I primi IC, realizzati negli anni Sessanta, contenevano (il termine tecnico è integravano) tra 100 e 1000 elementi, collegati fra loro da piste spesse fra i 5 e i 15 micron (il micron è circa cento volte inferiore al diametro del capello umano). Il microprocessore 4004, primogenito di casa Intel (1971), era un insieme di quattro circuiti elettronici, che integrava al suo interno 2300 transistor ed elaborava 60 mila istruzioni al secondo. L'evoluzione delle tecniche di miniaturizzazione e la nascita del CAD (Computer Aided Design), uno strumento indispensabile per riuscire a disegnare gli intricati circuiti che collegano i milioni di elementi dell'IC, sono le strade che la tecnologia ha percorso per realizzare microprocessori sempre più potenti e veloci. Per far questo la parola d'ordine dell'industria dei chip è "integrazione", e l'avanzare della tecnologia ha seguito una precisa regola matematica: la legge di Moore. Formulata quasi trent'anni fa dal fisico Gordon Moore, oggi presidente onorario di Intel, la legge prevede che ogni diciotto mesi, a parità di dimensioni, il numero di transistor per chip raddoppi. Infatti gli anni Settanta sono stati dominati dai circuiti LSI (Large Scale Integration, integrazione su larga scala), che contavano alcune decine di migliaia di elementi, poi si è arrivati ai Super LSI (oltre 100 mila elementi), e si è aperta l'epoca dei computer domestici. I microprocessori dell'ultima generazione, definiti ULSI (Ultra Large Scale Integration), contano oltre 10 milioni di transistor, collegati tra loro da "fili" spessi solo 0,18 micron, e sono in grado di elaborare miliardi di operazioni al secondo. L'importanza delle impurità. Così come il carbone è stato il motore della prima rivoluzione industriale (alla metà del 1700), la scoperta dei semiconduttori ha permesso il realizzarsi della "rivoluzione elettronica". La loro caratteristica fondamentale è quella di avere un grado di resistività (l'attitudine di un corpo a condurre corrente elettrica) intermedio tra i conduttori (come il rame o l'oro, in cui l'elettricità passa agevolmente) e gli isolanti (la porcellana o il vetro, che non si lasciano attraversare dalla corrente). In natura ci sono vari tipi di semiconduttori: tra gli elementi chimici trionfa il silicio, che forma oltre il 20 per cento della crosta terrestre. La caratteristica che ha reso i semiconduttori elementi ideali per le applicazioni elettroniche, è la possibilità di controllare la loro resistività e il grado di conduzione (e questo permette di creare al loro interno dei veri e propri interruttori) semplicemente modificando la composizione dell'elemento base con il cosiddetto "drogaggio", ovvero l'introduzione di altre sostanze: le impurità. A cavallo tra gli anni Trenta e Quaranta gli scienziati del centro di ricerche sui semiconduttori dei laboratori Bell notarono che fondendo la silice sottovuoto si ottenevano due tipi di cristalli: uno (il silicio di tipo "p") in cui l'elettricità passava grazie a un eccesso di carica positiva, e l'altro (detto tipo "n") in cui la conduzione avveniva tramite un eccesso di carica negativa. La differenza tra i due tipi è dovuta proprio alle impurità presenti nei cristalli. Nel tipo "p" in cui l'impurità è costituita da boro e indio, questa rende disponibile una lacuna (portatrice di carica positiva) e il passaggio di corrente avviene perché le lacune si spostano verso il polo negativo. Il silicio di tipo "n", in cui l'impurità è dovuta a elementi come arsenico e fosforo, si comporta diversamente: le impurità liberano un elettrone (portatore di carica negativa) e la corrente passa per il movimento degli elettroni verso il polo positivo. L'introduzione di queste impurità (ne basta solo un atomo ogni dieci milioni) fa diminuire proporzionalmente la resistività del silicio. In tal modo in laboratorio si può modificare in maniera controllata la conduttività. L'arte di incidere con la luce. Lavorare nel mondo dei microprocessori significa entrare in un'altra dimensione della realtà, una dimensione nella quale l'uomo è sicuramente troppo "grande" e l'ambiente nel quale si muove ricchissimo di pericoli. Uno starnuto, un frammento di capello caduto, una particella di polvere in più, per i delicati circuiti dei microprocessori hanno la potenza di un tornado, l'impatto distruttivo di un meteorite. Per questo, nelle fabbriche in cui si producono i chip, è necessario seguire delle regole rigidissime. La "clean room" (è questo il nome tecnico dei locali asettici degli impianti di produzione) ha un'atmosfera che ricorda molto i laboratori superprotetti (i cosiddetti P4) dove si fanno ricerche sui virus letali. Separati dal resto del mondo da una serie di porte a tenuta ermetica, i tecnici (chiamati "bunny men", che significa uomini-coniglio) si muovono con cautela, avvolti in tute immacolate che danno loro l'aspetto di astronauti. Le "clean room" sono circa dieci volte più pulite delle sale operatorie degli ospedali: è ammessa una sola particella di polvere ogni trenta centimetri quadrati. In ciascun locale l'aria viene continuamente pompata dal soffitto e risucchiata attraverso il pavimento, in modo che si rinnovi completamente ogni dieci minuti. Per evitare ulteriormente rischi di "contaminazione", la pressione dell'aria all'interno è leggermente superiore rispetto a quella dell'esterno. In tal modo, se nel locale asettico si verifica una lesione, l'aria pulita dell'interno tende a uscire, impedendo all'aria esterna, contaminata, di entrare. Esiste un vero e proprio "rituale di vestizione" al quale chiunque entri nelle "clean room" deve sottoporsi: tutto il corpo va protetto e ci si deve sottoporre a speciali doccie ad aria più volte durante la vestizione. Ogni possibile fonte di contaminazione deve essere evitata, e ai tecnici è richiesto di attenersi a regole che possono anche far sorridere. La produzione di microchip va avanti incessantemente, 24 ore al giorno, i "bunny men" svolgono pesanti turni (da 8 a 12 ore) e la concentrazione richiesta provoca una tale tensione che sono state rese obbligatorie due pause per ogni turno. Durante queste pause ci si rilassa, si fanno esercizi di stretching e infine si passano le consegne all'altra squadra. Per creare un processore moderno (per esempio i nuovi tipi di Intel) ci vogliono circa 45 giorni, ed è un lavoro di squadra realizzato negli impianti di dodici nazioni diverse, collegati per via telematica. Che si tratti del circuitino per una calcolatrice tascabile o di un sofisticatissimo processore di ultima generazione, il processo di produzione dei chip è lo stesso. Quel che cambia è la complessità dei circuiti che si devono incidere sul minuscolo quadratino di silicio chiamato "die". Il "die" è talmente piccolo che può essere facilmente tenuto sulla punta di un dito. Eppure, su questa "scheggia" sono disposti alcuni milioni di transistor, collegati tra loro da incredibili architetture spesse solo qualche frazione di micron. La produzione di un microchip dura circa tre mesi. Si parte da una "carota" di silicio, un cilindro lungo circa un metro e dal diametro di 20 centimetri. Da questa si ricavano dei dischi sottilissimi, detti wafer, lamine spesse circa 500 micron che vanno accuratamente levigate. Prima di passare alla fase di incisione dei circuiti, ogni singolo wafer viene esaminato da un raggio laser che evidenzia imperfezioni e irregolarità superficiali da uno a tre micron (limite massimo di tolleranza). Il secondo passo consiste nel rivestire la superficie del wafer con uno strato di diossido di silicio (SiO2). Questa è la sostanza utilizzata per condurre la corrente attraverso il microprocessore. Il disco di silicio viene poi rivestito con una sostanza fotosensibile chiamata "gelatina", che diventa molto morbida e viscida quando viene esposta alla luce ultravioletta. L'incisione dei circuiti sul wafer, infatti, avviene tramite un processo simile a quello fotografico chiamato "fotolitografia". È il metodo migliore per realizzare disegni così piccoli. Nella fase detta "mascheramento", la maschera fotografica con il disegno del circuito del microprocessore viene collocata sopra lo strato di gelatina. La maschera e il wafer vengono quindi esposti alla luce ultravioletta. La maschera consente alla luce di colpire solo alcune aree del wafer, in questo modo il disegno viene "riportato" sul silicio. Le parti di gelatina che diventano morbide dopo l'esposizione alla luce vengono rimosse con un solvente, (è il "processo ad acquaforte") che mette allo scoperto il diossido di silicio sottostante. La parte finale di questo processo consiste nel rimuovere il diossido di silicio esposto e quindi il resto della gelatina, e nel "drogare" il silicio in corrispondenza dei circuiti, per modificare (solo in quei punti) le caratteristiche elettriche del semiconduttore. Il processo di mascheramento e di incisione viene ripetuto per ogni strato della circuiteria, fino a 20 volte, a seconda della complessità del microprocessore da produrre. A questo punto il dischetto di silicio può contenere circa 200 chip, pronti per essere testati, separati, confezionati e montati su altre schede o circuiti. Ogni chip viene testato a più riprese, sotto speciali luci e con simulazioni elettroniche. Il test finale chiamato "wafer sort", viene effettuato con una speciale sonda sottilissima chiamata "sonda ago", capace di effettuare diecimila controlli al secondo su ogni wafer. Un chip che non passa il test viene segnato con inchiostro rosso, e verrà eliminato prima della fase successiva. Al termine del controllo i wafer sono tagliati con una punta di diamante per separare ogni chip, che a questo punto può finalmente essere chiamato "die". I "die" sono quindi posti su un vassoio antistatico pronti per essere "impacchettati" in specifici involucri protettivi (il termine tecnico con cui si indica questa fase è "packaging"), che proteggono i chip dall'ambiente esterno e contengono le connessioni elettriche necessarie perchè esso possa "comunicare" con gli altri chip della scheda dove sarà montato. Così parla il computer. Sono gesti che ripetiamo quotidianamente: accendiamo il computer, facciamo apparire sul monitor il programma che ci serve (ovvero lo "carichiamo"), ci lavoriamo, salviamo il lavoro fatto (ovvero memorizziamo) e lo stampiamo.Magari contemporaneamente abbiamo un Cd audio in sottofondo, o ci concediamo una sosta per dare un'occhiata alla posta elettronica. Per fare tutte queste operazioni ci limitiamo a spingere qualche tasto o a cliccare con il mouse sugli appositi comandi. Tutto semplice, all'apparenza, ma cosa accade nel micromondo di silicio della CPU (la Central Processing Unit), il "cervello" del computer, quando cerca di obbedire ai nostri comandi? Se potessimo entrare in questa dimensione sarebbe come assistere, affacciati dal parapetto di un grattacielo, allo spettacolo di milioni e milioni di auto che si muovono (i dati immessi); impulsi elettrici che schizzano da una parte all'altra dei circuiti, in un moto regolato da sincronizzatissimi semafori: i transistor. Qualsiasi ordine che diamo al computer, infatti, viene tradotto dalla macchina in una serie di zero e uno, (i bit del linguaggio binario), simboli a cui corrispondono le due possibili posizioni dei transistor nel chip di silicio: aperto (fa passare corrente) o chiuso (la corrente non passa più). E' traducendo gli ordini in questo semplicissimo linguaggio che il computer "capisce" cosa fare. Il microprocessore è fornito di diversi tipi di "interruttori" (i transistor), che corrispondono alle diverse operazioni logiche possibili. La combinazione di queste operazioni permette alla macchina di eseguire anche gli ordini più difficili. Nei microprocessori ogni area è realizzata secondo un preciso schema di circuiti, a seconda della funzione logica che ogni modulo deve svolgere (memoria, gestione di dati, o di codici di istruzioni, per esempio). La velocità con la quale gli elettroni si muovono nel microprocessore con il loro carico di informazioni (e quindi la velocità di esecuzione dei comandi) è data dal "clock" (in inglese, orologio). Questo, infatti, è proprio un orologio che dà il segnale di partenza agli elettroni, per evitare "imbottigliamenti" e disturbi. Nei microprocessori più potenti questo segnale si ripete con una frequenza di centinaia di Megahertz (un Megahertz equivale a un milione di impulsi al secondo): in un miliardesimo di secondo un elettrone deve percorrere 15 centimetri. Un altro elemento importante per la velocità (e quindi la capacità di compiere operazioni complesse) del microprocessore è il numero di "fili" elettrici con cui esso trasferisce i dati al suo interno e verso l'esterno. In linguaggio informatico questa specie di "autostrada" lungo cui viaggiano i bit si chiama "bus" e, a seconda delle "corsie" che contiene, può essere a 32 o a 64 bit (nei processori di ultima generazione). Com'è facile dedurre, la complessità dei circuiti di un microprocessore è notevole: esistono miliardi di linee di codice con cui i singoli chip devono interagire. Il progettista di microchip, oggi, utilizza sofisticati programmi CAD (Computer Aided Design) eseguiti su calcolatori potentissimi, per creare le mappe dei circuiti elettronici. In strutture così piccole la precisione è fondamentale: per questo, una volta assemblato il circuito sul computer, il progetto viene stampato con enormi macchine (i plotter) su fogli grandi 5 metri per 5, dove verrano effettuati tutti i controlli prima di procedere alla produzione. Sempre più piccoli e veloci. Secondo la legge di Moore la densità di integrazione raddoppia ogni ventiquattro mesi. Ciò equivale a un aumento annuo della capacità di calcolo del 50-60 per cento. Cosa hanno fatto i ricercatori, quali meccanismi fisici hanno sfruttato e, soprattutto, hanno in progetto di sfruttare, per migliorare così consistentemente la tecnologia del silicio? La strada che i colossi dell'elettronica hanno deciso di imboccare è una sola: miniaturizzazione. "Miniaturizzare significa agire sulle dimensioni geometriche degli elementi di base dei circuiti integrati: i transistor" spiega l'ingegner Vincenzo Giustino, responsabile dello sviluppo applicazioni nella divisione microelettronica di IBM. "Infatti, al diminuire delle dimensioni del transistor, l'elettrone (che corrisponde al singolo bit) ha un percorso più breve da compiere, e quindi lo attraverserà in un tempo minore. Ne consegue che il transistor può svolgere il suo compito fondamentale (funzionare come un interruttore), più velocemente, consentendo all'intero circuito integrato, al processore e infine al computer, di funzionare più rapidamente". Il primo mezzo con cui percorrere la strada della miniaturizzazione è lo sviluppo di tecniche fotolitografiche sempre più precise. Per fare questo è necessario che il raggio luminoso che incide il circuito abbia una lunghezza d'onda molto ridotta (questa, in pratica, deve essere più piccola delle dimensioni del circuito). "Finora è stata impiegata la gamma degli ultravioletti, ed è stato fatto un primo passo per l'utilizzo dei raggi x "soft", ovvero quelli la cui lunghezza d'onda più si avvicina agli ultravioletti", spiega Vincenzo Giustino. "La meta da raggiungere è quella dei raggi X cosiddetti "strong", a lunghezza d'onda molto inferiore. Che però, allo stato attuale della tecnologia trapassano il silicio e la fotoresina senza farli reagire". Ma c'è una strada alternativa alla miniaturizzazione: aumentare la velocità dei bit agendo sui materiali: il silicio e le sue connessioni. "Sono tre le innovazioni proposte da IBM in questo campo" continua l'esperto: "la prima, che agisce sulla fisica dei materiali, è la creazione di chip che utilizzano una particolare miscela di silicio e germanio. Ciò li rende più veloci, ideali per operare nel campo delle alte frequenze, nella trasmissione di voce e dati". La seconda scoperta è chiamata tecnologia SOI (Silicon On Insulator, ovvero silicio su un isolante). Grazie a questa tecnica i milioni di minuscoli transistor presenti sul chip verranno protetti per mezzo di uno strato isolante, riducendo gli effetti elettrici nocivi che assorbono inutile energia e diminuiscono le prestazioni. "è stato così possibile creare un chip che richiede solo un terzo dell'energia e fornisce prestazioni superiori fino al 35 per cento rispetto agli altri processori", spiega l'esperto. Legato alla tecnologia dell'isolante, l'ultima innovazione di IBM riguarda le connessioni. In genere i chip sono collegati tra loro da minuscoli fili di alluminio, buon conduttore certo, ma non come il rame. Quest'ultimo materiale finora non veniva usato perché risultava tecnicamente difficile integrarlo con il silicio (gli atomi di rame vi si "spandevano" all'interno senza possibilità di controllo)."La scoperta e l'applicazione del filtro isolante, che consente di realizzare le connessioni in rame", conclude Giustino, "aumenta la velocità di prestazione dei chip del 33 per cento (possono avere una velocità di clock fino a 450 MHz) consentendo nello stesso tempo dimensioni molto ridotte e un basso consumo d'energia. L'ideale, per esempio, per i computer portatili. - Il Computer: come funziona Quando guardiamo con "occhio tecnico" un programma all'opera, o quando passiamo un pò di tempo ascoltando l'ultimo DVD o giocando con il nostro videogioco preferito, dobbiamo allontanarci dal modo comune di vedere un elaboratore: un computer infatti, è costituito da una parte hardware, costituita da tutte le componenti fisiche e da una parte software, ovvero tutti i programmi che verranno fatti "girare". Per quanto riguarda l'hardware un computer è costituito dalle seguenti componenti: - case, il contenitore all'interno del quale sono montati i diversi componenti e che comprende anche l'alimentatore; - floppy drive, il lettore per floppy disk; - lettore di CD-Rom,o DVD, indispensabile per installare il sistema operativo e il software che verrà in seguito utilizzato; - hard disk, nel quale vengono caricati il software e salvati i dati; - motherboard, il vero e proprio centro vitale del computer, alla quale vengono collegate, in modo differnte, tutte le periferiche presenti nel sistema; - memoria; - processore; - scheda video, sia solo 2D che dotata anche di funzioni di accelerazione 3D; - cablaggi vari (in genere forniti in dotazione con la motherboard); - mouse; - tastiera; - monitor; - eventuale scheda audio con sistema di altoparlanti; - eventuale scheda acceleratrice 3D, per sistemi orientati ad un utilizzo con giochi; - eventuale scheda di rete - modem interno - modem esterno; - scanner, stampante o ogni tipo di periferiche attualmente in commercio. Il software invece è costituito dal Sistema Operativo e dalle varie applicazioni. Un Sistema Operativo è un programma particolare, che si occupa di mettere in comunicazione l'utente e la macchina, traducendo letteralmente ogni tipo di informazione fornitagli in linguaggio binario, che si caratterizza da una serie di 1 o 0 in successione; naturalmente il Sistema Operativo si occupa di molte altre funzioni, quali l'immagazzinamento di dati nell'hard disk, la trasmissione dei dati tramite le porte di comunicazione verso le periferiche e di rendere visibile dall'utente le informazioni volute. I Sistemi Operativi più diffusi sono l'MS DOS, il primo in assoluto che risale al 1981, MS Windows 3.11, MS Windows 95, MS Windows 98 e il nuovissimo MS Windows Neptune, l'ultimo uscito da casa Microsoft. Altri sistemi operativi sono l'OS di Machintosh, Linux e Unix; altri sistemi operativi invece sono specifici per una gestione di una serie di computer, una Rete, quali MS Windows 3.11 for Workgroup, MS Windows NT, MS Windows 2000, Linux stesso. Le applicazioni invece sono programmi che permettono di facilitare molte attività umane, quali l'organizzazione di dati, la stampa di materiale, il gioco, e moltissime altre ancora. Le più conosciote sono senz'altro MS Word, MS Excel, Adobe Photoshop, MS Explorer (quella con cui probabilmente state vedendo queste pagine!) e moltissime altre, che ausiliano l'uomo nelle attività quotidiane. Il funzionamento di un computer non è molto semplice, per il fatto che un computer moderno è caratterizzato da un'evoluzione progressiva di altri modelli precedenti, per cui molte sono le differenze tra i vari computer; tuttavia è possibile schematizzare un modello base valido per tutti. Innanzitutto l'alimentazione: l'alimentatore fornisce corrente continua, trasformandola da quella alternata della rete elettrica, a tutte le apparecchiature interne. La corrente poi passa nei circuiti, grandi meno di un micron, che simulano il sistema binario: se passa corrente è rappresentato un ipotetico "1", se il circuito non è attivato allora è rappresentato uno "0". In effetti il processore, l'apparecchio che fornisce l'elaborazione dei dati, compie il suo lavoro semplicemente accendendo milioni di circuiti al secondo, compiendo operazioni in sistema binario. Il computer, come dicevamo prima, ha bisogno di dati da elaborare, che vengono forniti da sorgenti di "input", mouse e tastiera. I dati vengono trasformati in linguaggio binario dal sistema operativo e elaborati dal processore; vengono poi eventualmente divisi in pacchetti, depositati in una memoria momentanea ma superveloce, la Cache, che permette il riutilizzo di dati appena elaborati. Per ultimo i dati vengono mandati alla memoria fondamentale, la RAM, una memoria capiente ma con l'unico difetto di perdere i dati depositati quando manca corrente (infatti quando manca corrente ogni circuito diventa spento!). Allora subentrano i floppy disk e gli hard disk, e ogni tipo di memoria di massa, che sfruttano un campo magnetico prodotto da una corrente elettrica per orientare minuscoli aghetti ferromagnetici che con la loro posizione (orientata o meno) simulano di nuovo un numero binario, leggibile con un campo magnetico più leggero per non cambiarne l'orientamento. Un altro tipo di supporto magnetico è il CD-ROM, disco ottico caratterizzato da una maggior capienza di dati ma dal limite di non poter essere riscritto. I dati salvati poi possono avere diversi utilizzilizzati per diversi scopi: possono essere inviati ad una stampante, per essere fissati su un supporto cartaceo, visualizzati a video tramite monitor e scheda video, che elabora la grafica; i file sonori sono invece inviati alla scheda audio che li invia a sua volta agli speaker esterni mentre tutti i file possono essere inviati nella grande Rete tramite un modem, interno o esterno. I collegamenti tra processore e le periferiche sono forniti da apposite porte di comunicazione (le più famose sono le LPT1 per le stampanti, COM, per modem, scanner..., USB, SCSI, Firewire...) e i BUS di sistema, appositi collegamenti con il processore. Approfondimenti (on site!): CD-ROM DVD HARD DISK MONITOR MOUSE MODEM DIGITALE - La società dei computer La società è stata fortemente influenzata dallo sviluppo dei computer, ma non da subito, cioè non dalla loro nascita. Infatti lo scopo principale per cui fu messo a punto il primo elaboratore era quello di ausiliare la ricerca scientifica con calcoli veloci, precisi e senza il minimo errore. Per cui a partire dagli anni '70 fino agli anni '80 il computer era destinato solo a ricchi centri di ricerca. Gli anni '80 si aprirono con la nascita dei primi Personal Computer, grazie a Bill Gates e il suo socio Paul Allen che compilarono il DOS, nel 1981, il quale permise la diffusione delle macchine negli ambienti lavorativi; i primi computer erano dei semplici 286, caratterizzati dal processore 8086 di casa Intel che per l'epoca era ritenuto il migliore; il lavoro diventava più veloce, non si rendevano più necessarie tante carte o gli archivi diventavano più leggeri. Tuttavia era indispensabile formare i nuovi tecnici, con corsi adeguati per permettere il cambio di tecnologia. Adesso, pensandoci, sembra una bazzeccola, ma allora molti impiegati persero il posto di lavoro per non essere riusciti ad adattarsi alle nuove tecniche; e si era solo agli inizi. Ai giorni nostri la situazione è veramente cambiata: in ogni casa di media c'è un computer, considerando anche le famiglie che ancora non ne usufruiscono e quelle che ne possiedono più esemplari. Soprattutto ne son cambiati gli usi: sono scomparsi gli usi originari e ne sono apparsi alcuni completamente nuovi: Il computer ormai non viene più acquistato per accelerare i tempi o per compiere calcoli senza errori, se fatta eccezione per la ricerca e la scienza in generale, che soprattutto nel campo della medicina ormai non può fare più a meno dei PC, che addirittura compiono operazioni complicatissime da soli. E' comparso il fattore ludico, prima occupato solo dalle consolle, ma adesso veramente surclassate dai PC domestici, a volte veramente sofisticati e caratterizzati da potenti capacità grafiche e di calcolo; infatti un moderno videogioco necessita di una componente hardware aggiornata e potente, schede video con grafica da capogiro e processori dedicati che elaborano le immagini, monitor ad alta risoluzione, schede audio e diffusori per vivere l'avventura in prima persona, periferiche specializzate (volanti, pedaliere...). Dati statistici dicono infatti che il 60% dei PC domestici viene comprato per essere utilizzato come piattaforma di gioco. Anche la produzione artistica ormai non può più fare a meno di un computer, basta pensare per esempio alla composizione di un brano audio di un cantante o di un gruppo rock: la registrazione viene effattuata in digitale, direttamente su computer appositamente asssemblati, e non tutta in una sola volta, come si crede: vi sono diverse piste, o tracce, che vengono filtrate (pulite dai rumori di fondo o delle apparecchiature), effettate, amplificate, accorciate, tagliate e infine accorpate in un'unica traccia. A questo punto subentra la voce del cantante. La vita sociale è caratterizzata da una grande influenza dei computer e soprattutto di Internet. E' la Rete il Mass-Media per eccellenza, dove le notizie corrono in tempo reale, gratutite (o quasi) e numerose. Internet sta invadendo ogni angolo della Terra e nessuno sa come si svilupperà in futuro: certo si sa che lo sviluppo non avrà fine. Mai. Sembra che semza computer non siamo più in grado di stare. Ci ha talmente coinvolto che ho letto tempo fa un articolo di un professore di filosofia che annoverava tra le categorie dell'intelletto di Kant anche il computer, senza il quale non saremmo in grado di interpretare molti dati sensibili. Come andrà a finire? - Internet Un pò di storia Come tutte le grandi scoperte dell’umanità, Internet nasce per ragioni del tutto diverse da quelle per le quali si è sviluppata e affermata.Negli anni ’60, dopo la crisi della Baia dei Porci, in piena guerra fredda, il Pentagono scoprì che il sistema di difesa missilistico degli Stati Uniti aveva un punto debole: era sufficiente bloccare le comunicazioni tra i computer della Difesa in un punto qualunque per isolare intere zone del paese ed impedire così la risposta agli ordini provenienti dal Comando generale. Allora i computer erano pachidermici macchinoni costosi quanto un Boeing 747, grandi come un appartamento e mille volte meno potenti dei PC che sono sulla scrivania di milioni di persone. Malgrado ciò erano naturalmente molto più efficaci quanto a capacità di puntamento e tempestività del migliore armiere in circolazione e, soprattutto, era sufficiente un solo comando per consentire a tutti i missili di partire per annientare il nemico e con esso anche il resto dell’umanità. Però i computer avevano il difetto di avere bisogno di un collegamento diretto tramite un cavo specifico (dedicato) ed era sufficiente interrompere questo cavo in un punto qualunque per isolare tutti i computer situati dopo quel cavo. Nacque così ARPANET, progettato dall’ARPA (Advanced Research Projects Agency) del Ministero della Difesa statunitense per studiare un sistema che consentisse ai computer di collegarsi tra di loro senza dover necessariamente passare per un collegamento dedicato. La via naturale era quella di usare il collegamento telefonico, ma la maggiore difficoltà consisteva nel fatto che questo collegamento è spesso disturbato da fruscii e rumori vari che a volte impediscono anche a due esseri umani di capire ciò che dicono. Questo sembrava un ostacolo insormontabile poiché la trasmissione di dati via computer deve essere invece assolutamente precisa. E’ sufficiente, infatti, che un solo carattere non sia comprensibile per rendere inutilizzabile tutto il testo trasmesso. La tecnologia elaborata da ARPANET fu quella della commutazione di pacchetto, che consiste nello scomporre i dati da trasmettere in piccole unità composte ciascuna da pochi dati da inviare separatamente ad un computer in grado di leggere e ricomporre il messaggio. In questo modo l’eventuale disturbo per una parte della trasmissione non rende incomprensibile l’intera conversazione ma induce il computer ricevente a chiedere la ritrasmissione del pacchetto mancante. Il primo tentativo di trasmissione avvenne un giorno del 1969 tra due computers uno dell’Università di S. Barbara e l’altro dell’Università dell’Utah. Quello che segue è il resoconto di quello storico evento in un’intervista ad uno dei protagonisti il prof. Kleinrock:"Abbiamo digitato al computer la lettera "L" e chiesto al telefono: vedete la "L" ? "Si, vediamo la "L," fu la risposta. "Abbiamo digitato, allora, la O, e chiesto, "vedete la "O." ? "Si, vediamo la O." "Allora abbiamo digitato la G, e il sistema si sfasciò"... " Così è cominciata la rivoluzione"... Il grande vantaggio della trasmissione dati via telefono consiste nel fatto che esistono infinite vie per effettuarla, a volte anche con effetti paradossali : per esempio per connettere due computer di Milano è possibile che la trasmissione passi per..... Londra o Istanbul! Tutto ciò, però, non comporta alcun ritardo significativo nella trasmissione poiché i dati viaggiano a velocità enormi e all’atto pratico il percorso seguito è del tutto ininfluente. Nel 1973, poi, venne elaborato il TCP/IP (Transmission Control Protocol/Internet Protocol) che consentiva a tutti i computer di intendersi tra loro anche se programmati con linguaggi differenti. Il TCP/IP venne reso immediatamente obbligatorio per tutti i computer connessi in ARPANET ed è tuttora lo standard usato per la connessione via Internet. Ad ARPANET partecipavano oltre ai vari enti militari interessati al programma di difesa anche svariate università e centri di ricerca che, come abbiamo visto, hanno dato un impulso decisivo per lo sviluppo della tecnologia della rete. Mano a mano, malgrado le proteste dei militari, i professori e gli studenti delle università connesse alla rete cominciarono a scambiarsi oltre alle informazioni tecniche anche messaggi personali ed a inserire notizie sui corsi di studio e le altre iniziative della propria università. Altre università chiesero – e per lo più ottennero - l’accesso alla rete per poter contribuire allo sviluppo tecnologico della struttura ma incrementando, così, il numero di utenti della rete anche per fini non propriamente istituzionali. Nel 1983 i militari decisero di uscire da una rete dove ormai si parlava di tutto tranne che dei loro affari e crearono MILNET una rete dedicata esclusivamente alle loro esigenze. Nel frattempo tutte quelle istituzioni universitarie, enti vari, società private o singoli che avevano chiesto e non ottenuto l’accesso ad ARPANET avevano scoperto che in barba ai divieti era estremamente semplice connettersi tra di loro e creare una rete di computers che poteva comunicare con quelli di ARPANET purché utilizzasse lo stesso protocollo TCP/IP. La CIA per un po’ di tempo controllò tutte le comunicazioni che avvenivano tra i computers ma quando nel 1989 il numero degli utenti raggiunse le 500.000 unità decise di smettere anche perché il controllo era divenuto praticamente impossibile. Nasce così Internet, ovvero la rete delle reti nella quale confluirono ARPANET, NSFNET (la rete della National Science Foundation) e tutti i privati ed altre istituzioni che avevano creato reti virtuali connettendosi tra di loro. Da allora sono passati solo otto anni, ma è come se ne fossero trascorsi ottanta. Quei cinquecentomila utenti sono divenuti oltre cento milioni e crescono con progressione geometrica stracciando regolarmente tutte le previsioni. Con lo sviluppo del WWW (World Wide Web) dal 1994 in poi centinaia di migliaia di aziende si sono gettate su Internet attirando milioni di utenti che a loro volta stanno coinvolgendo altri milioni di aziende. Internet ha ormai superato la massa critica, vale a dire quella dimensione che comporta l’autoalimentazione del proprio sviluppo e pertanto la sua crescita è divenuta inarrestabile. Ogni nuovo utente, infatti, attira nuove aziende e queste a loro volta attirano nuovi utenti in una spirale di crescita che procede al ritmo del raddoppio del numero di utenti ogni anno. Come funziona Internet può essere comparata ad una tela di un ragno: è composta di tanti fili connessi tra di loro a mezzo di nodi posti alle intersezioni di quei fili. Si può immaginare che un ragno particolarmente laborioso abbia confezionato una gigantesca rete estesa più o meno fittamente su tutta la terra nella quale si trovano decine di milioni di nodi. Se al posto di ogni nodo si mette un computer si ha un’idea di come funziona Internet. Se ogni computer acceso fosse segnalato da una lampadina colorata, sorvolando di notte la terra assisteremmo allo spettacolo fantasmagorico di milioni di luci colorate che si rincorrono per tutto il pianeta accendendosi e spegnendosi senza posa. La copertura del globo terrestre, a parte vaste zone dell’Africa ed alcune aree del Sud America e del Medio Oriente, è praticamente totale. Attualmente il collegamento alla rete avviene esclusivamente a mezzo di una rete di cavi connessa alla rete telefonica mondiale, anche se ci sono personal computer portatili in grado di collegarsi tramite un’antenna parabolica che riceve dati da un satellite.Con il satellite o con la creazione delle autostrade informatiche, ovvero di una rete di cavi ad altissima velocità in grado di portare quantità crescenti di informazioni da una parte all’altra della terra, sarà stato creato un elemento decisivo per la costruzione di un effettivo mercato globale ed Internet sarà sottratto definitivamente alla tentazione di qualche Stato di imporre tasse o restrizioni all’accesso. Infatti, qualunque azienda o prestatore di opera avrà la possibilità di scegliere il luogo fisico dove effettuare la propria attività o prestazione senza doversi muovere da casa e praticamente senza costi. Per continuare a mantenere gli attuali livelli di pressione fiscale gli Stati dovranno allora imporre una "tassa sulla vita" ai propri cittadini, svelando così la brutale natura oppressiva del sistema dietro la maschera pseudo democratica, oppure dovranno ridurre le tasse al livello necessario per consentire alle imprese nazionali di restare sul mercato globale e liberalizzare completamente le proprie economie. Il problema dello Stato sociale dovrà essere affrontato da una prospettiva completamente diversa se si vuole evitare l’esplosione di violenti conflitti sociali, così come pure la questione del prelievo fiscale dovrà essere affrontata in maniera da non gravare più sulla produzione e sul lavoro ma soltanto sulla rendita finanziaria Gli strumenti Gli strumenti che servono ad un normale utente per utilizzare la Rete mondiale sono in continua evoluzione, essendo strettamente collegati all'hardware di un personal computer o alla telefonia. In generale comunque serve un Personal Computer dotato di un processore di media fascia, non è necessario essere in possesso infatti dell'ultimo ritrovato tecnologico dato che la velocità di connessione dipende solamente dalla possibilità di inviare e ricevere dati, compito che spetta al modem e alla linea telefonica; anche la RAM non è richiesta in quantità eccessive, bastano anche 32 Mbyte, ormai lo standard minimo nella media dei computer domestici; occorre invece puntare molto sul modem, e qui la scelta si fa molto ampia: c'è chi preferisce avere una velocità di connessione più elevata ma pagare un doppio traffico telefonico (è il caso dei modem ISDN) oppure chi si limita ad un modem analogico a 56 Kbit per secondo, che permette una discreta velocità di trasmissione ma che limita molto il download di materiale. Scendere con la velocità di connessione (utilizzando modem a 28 Kbit o 14 Kbit) significa rendere lenta e inefficace la navigazione, anche se si risparmia di molto sulla spesa dell'apparecchio, entrato ormai fuori commercio. Invece è importante che il modem abbia lo standard V.90, indispensabile per il corretto invio e la corretta ricazione di dati. Una scheda audio è invece importante per l'eventuale utilizzo da parte dell'utente di formati audio di qualità, come MP3 o WAV ad alto livello di campionamento; una scheda audio di bassa fascia comprometterebbe la precisione e la qualità del suono. Per quanto riguarda la scheda video l'utilizzo di Internet non richiede per il momento la necessità di possedere strumenti di codifica video particolarmente potenti, data l'esigua capacità di trasmissione della rete telefonica, che non permette la visualizzazione di file di grosse dimensioni. Un accessorio che in questi tempi si sta affermandonel mondo di Internet è la Web Cam, una videocamera digitale che permette l'invo di fotografie o di effettuare videoconferenze, ancora però poco performanti e di scarsa qualità per i limiti fisici della rete. Una volta in possesso dei requisiti minimi trichiesti si è pronti per immergersi nella Grande Rete! I Browser e i Provider Per navigare in Internet occorrono tuttavia ancora due importanti strumenti: innanzitutto un gestore che permette di accadere alla Rete Mondiale, e poi un programma che permette la codifica dei pacchetti di dati e la loro corretta visualizzazione su monitor. Nel primo caso stiamo parlando dei Provider, nel secondo dei Browser. Un Provider è di solito una società che utilizza dei server, grossi computer dalla memoria impressionante sui quali sono memorizzati i siti, collegati alla Rete; il compito del Provider è quello di fornire un accesso telefonico (POP) agli utenti domestici che lo richiedono, fornendo un software per il collegamento e delle password. A questo punto è necessario una precisazione; vi sono due tipi di Provider: quelli che richiedono un abbonamento annuo alla loro linea e quelli che offrono un servizio gratuito. Nel primo caso il costo annuale è più elevato, costituisce il principale guadagno del Provider e gli strumenti di connessione son più efficienti; nel secondo caso il guadagno del Provider consiste in una percentuale della tariffa telefonica utilizzata dall'utente; per cui più utenti utilizzano il Provider più guadagna. Da questo fatto si ricavano due ovvie conseguenze: I Provider a pagamento sono meno trafficati, più veloci ma molto più costosi di quelli a servizio gratuito; I Provider a servizio gratuito tentano in ogni modo di attirare lienti e di farli stare il più tempo possibile collegati ad Internet, dato che in ciò consiste il loro guadagno. Ultimamente si è affermato un ulteriore servizio che permette una totale gratuità per un paio d'ore al giorno ma che obbliga a visualizzare una piccola finestra sullo schermo contenente messaggi pubblicitari. E' attivo solo in alcune città. Il Browser invece è un programma relativamente piccolo come dimensione occupata sull'Hard Disk che permette la traduzione dei pacchetti di dati che giungono dalla via telefonica; i due più conosciuti sono MS Explorer e Netscape, che solo dopo molte versioni hanno deciso di mettere in comune alcune delle loro caratteristiche più importanti, andando così verso uno standard. Entrambi sono gratuiti. Il funzionamento è semplicissimo: basta inserire l'indirizzo cercato e il browser si connette al server dove è memorizzato automaticamente; inoltre permette il salvataggio delle pagine visualizzate e il download di file. L'E-mail Per mandare una lettera, dobbiamo comprare la carta e la busta, scrivere il testo (ma questa è un’operazione che dovremo comunque sempre fare!), comprare il francobollo dal tabaccaio facendo bene attenzione al peso, trovare una buca delle lettere, imbucare ed aspettare almeno una settimana per cominciare a sperare che il messaggi sia giunto a destinazione. Il tutto con una spesa di almeno cinquemila lire, oltre al tempo perso per le varie operazioni.Con l’E-mail è possibile mandare una lettera di qualunque dimensione, magari allegandoci una vostra foto, un libro, un brano musicale o un omaggio floreale virtuale, spendendo al massimo venti lire ISTANTANEAMENTE - poiché non è necessario acquistare alcunché - e soprattutto con la certezza che il destinatario riceverà il vostro messaggio in meno di un secondo, ovunque si trovi nel mondo (ovviamente purché abbia un indirizzo E-mail).Il problema della sicurezza delle trasmissioni su Internet è ormai superato poiché ci sono sistemi di segretezza assolutamente efficienti. Per cercare infatti di intercettare una lettera elettronica è necessario vigilare giorno e notte, intercettarla esattamente nel momento in cui la si spedisce e nel lasso di tempo che impiega per il viaggio (meno di un secondo), decifrare la chiave numerica che accompagna la trasmissione (una possibilità su 1000 milioni circa), decifrare l’altra chiave per decrittare il testo e poi finalmente leggere il messaggio.Vediamo ora come funziona la gestione dell’Email.Tutti gli indirizzi E-mail sono composti da due parti collegate dal segno @. La prima, a sinistra del segno, serve ad identificare l’utente mentre la seconda, a destra del segno serve ad individuare il computer presso il quale quell’utente ha la propria casella postale (Mail box). La casella postale elettronica non è altro che uno spazio di memoria messo a disposizione da un server. Gli indirizzi possono contenere anche il vostro nome e cognome oppure possono essere sigle dalle quali non si può risalire ai vostri dati personali. C’è un sistema per inviare messaggi assolutamente anonimi utilizzando siti Web dove il vostro indirizzo viene mutato in altro anonimo e da lì la posta viene spedita al destinatario che non conoscerà mai il vostro indirizzo. Ci sono poi numerosi siti dove è possibile ottenere gratuitamente un indirizzo E-mail. Come descritto sopra, l'e-mail durante il tragitto viene cifrata, divisa in piccoli pacchetti per evitare errori o mancanza di dati e ricomposta e ricifrata dal computer ricevente. Tutto questo in circa 2 secondi. Allegato al testo è anche possibile inviare un file ma in questo caso il tempo d'invio può salre vertiginosamente, così come quello di ricezione.Attualmente l'e-mail è, dopo il telefono (ma se vogliamo essere pignoli è proprio grazie al telefono che si invia la posta elettronica!), il più diffuso mezzo di comunicazione a distanza sulla Terra. Il Commercio Ogni commerciante deve mettersi l’animo in pace: con ogni probabilità nel giro di qualche anno dovrà chiudere bottega e mettersi a trafficare su Internet per vendere i prodotti. Tranne che per alcune merci, infatti, la vendita via Internet è molto più sicura, economica e redditizia sia per gli acquirenti che per i venditori. Pensate che nel 1999 il 35% delle auto usate vendute negli Stati Uniti sono transitate via Internet e che gli imprenditori del settore prevedono che nel 2003 l’90% delle autovetture americane sarà venduto via Internet, con soddisfazione generale sia degli acquirenti che dei venditori. Il motivo è il seguente: se si vuole comprare un’auto usata di un certo tipo, ci si deve recare da diversi rivenditori o concessionari, trovarla, magari provarla perdendo un sacco di tempo e senza avere alcuna certezza di aver speso il prezzo giusto per quel prodotto, poiché il metro di comparazione è la limitata selezione che avete potuto fare tra i rivenditori della vostra città. Se invece si manda un’E-mail ad un sito organizzato per le vendite di auto, al quale fanno riferimento numerosi rivenditori del vostro paese, in pochi minuti è possibile ottenere una vastissima gamma di offerte per il tipo di auto che avete richiesto e la vostra capacità di scelta incrementa notevolmente. Per i rivenditori la vendita tramite Internet comporta un notevole risparmio di personale del salone di esposizione e di spese di pubblicità che possono allo stesso tempo fargli abbassare i prezzi ed incrementare i suoi guadagni.Oltretutto, stando su Internet, l’offerta del venditore non è limitata a quelli che passano davanti al suo negozio o che vedono la sua pubblicità, ma raggiunge un numero enorme di persone in tutto il mondo a costi praticamente bassissimi. E’ chiaro che la vendita tramite Internet è una tecnologia superiore rispetto al tradizionale negozio, poiché comporta vantaggi sia per l’acquirente che per i venditori e ne segue, pertanto, che Internet sostituirà in breve tempo i normali canali di vendita. Le stesse considerazioni valgono, naturalmente, per le attività di produzione e vendita di prodotti artigianali, che già oggi fanno fatica a raggiungere il pareggio di bilancio gravati dagli onerosissimi costi per l’affitto dei locali, per le utenze etc. per fornire i propri prodotti alla sola clientela che passa davanti alla loro bottega. Andare su Internet significa per molte piccole aziende poter ridurre notevolmente i costi, allargare enormemente la propria potenziale clientela ed allo stesso tempo offrire gli stessi prodotti a prezzi inferiori con un margine di guadagno più elevato.Per molte piccole aziende italiane, in bilico tra la chiusura e l’evasione fiscale come unico sistema per reggere i costi, lo spostamento su Internet rappresenta l’unica soluzione seria possibile. Anche la grande distribuzione è destinata a finire in rete in tempi brevi. Per mettere su un supermercato di medie dimensioni occorre un investimento di un paio di miliardi e costi fissi per l’affitto ed i 40/50 dipendenti necessari di almeno altrettanto. Mettendosi a vendere su Internet e consegnando a casa la merce scelta, l’investimento si riduce ad un quarto, i costi del personale a un ottavo, quelli dell’affitto del locale pure ad un quarto e i supermercati possono offrire un servizio migliore a prezzi più bassi e guadagnare di più!Lo stesso discorso vale per le attività professionali e per i relativi servizi. A parte l’aumento di clientela potenziale, Internet consente al professionista di gestire la propria attività dal luogo che meglio gli aggrada e di risparmiare notevolmente sulle spese per la gestione dell’ufficio.Ci vuole molto ad immaginare un futuro in cui la produzione di merci sarà possibile in qualunque posto del mondo lavorando dovunque e senza costi aggiuntivi?Su Internet c’è la libreria più grande del mondo, con un magazzino di oltre 2.500.000 titoli che vende al 30% di meno rispetto alle librerie tradizionali e consegna in tre giorni qualunque titolo del proprio catalogo in qualunque parte del mondo. Si trova al seguente indirizzo: www.amazon.com ed è possibile ordinare qualunque libro e vederselo recapitare a casa propria entro due o tre giorni. Anche l'acquisto di musica, vestiti, computer conviene in Internet... l'importante è avere una carta di credito.Esplorando i motori di ricerca italiani si scopre che anche qui è possibile comprare via Internet tutto (o quasi) quello che vi serve, soprattutto in materia di computers e suoi accessori. Insomma, la nostra vita è destinata a cambiare radicalmente con l’evoluzione della rete: Il segreto è essere intelligenti, capire subito i veri affari ed essere lungimiranti, investire rischiando un pò. Per quelli invece che pensano di poter restare fuori del mercato globale di cui Internet è solo l’inizio è riservato soltanto un futuro di decadenza e impoverimento. Il WWW Ogni computer connesso alla rete costituisce un nodo ed il modo per identificare ciascun terminale nel sistema è quello di dargli un numero identificativo generalmente composto da dieci o undici cifre separate da punti del tipo 194.54.345.120 che si chiama indirizzo I.P., ovvero "Internet Protocol address". Per raggiungere il computer che ci interessa non dobbiamo, però, ricordare il numero I.P., né segnarlo sulla nostra rubrica come facciamo per i numeri telefonici. Infatti, la maggior parte dei siti Internet ha anche un nome come identificativo e digitando questo nome i computers riescono a trovare il numero I.P. giusto. Così per raggiungere il sito del Comune di Roma non è necessario che scriviate il numero I.P. ma sarà sufficiente digitare il nome del sito che per il Comune di Roma è http://www.comune.roma.it/ . L’indirizzo del comune di Roma è preceduto da una sigla, http://, che sta ad indicare il tipo di connessione che il vostro computer deve cercare. La sigla http è l’acronimo di Hyper Text Transfer Protocol e dice al vostro computer che deve apprestarsi a prendere delle immagini e dei testi costruiti con il sistema WWW, il WORLD WIDE WEB Il WWW è stato creato in Europa, a Ginevra presso il laboratorio di fisica del CERN nel 1991. E’ il sistema a mezzo del quale il vostro navigatore è in grado di trovare e visualizzare sia i testi che le immagini ed i suoni in altre pagine che operano nello stesso ambiente. Prima del WWW, in Internet le comunicazioni avvenivano praticamente solo a mezzo di testi e la trasmissione di immagini e suoni era molto lunga e complessa. In pratica Internet veniva usato quasi esclusivamente per l’E-mail e per le News. Dopo la creazione del WWW, Internet, che nel 1993 contava 20 milioni di utenti, ha avuto una crescita ancora più spettacolare. Con la prima versione di un navigatore, Mosaic, il numero delle pagine e degli utenti raddoppiò in poco meno di un anno, e il creatore di Mosaic, un californiano di nome Andreesen, elaborò Netscape, un programma molto più completo e fondò la Netscape Corporation, una società oggi quotata in borsa ed in continua crescita. Da allora il WWW è cresciuto dentro Internet al punto, ormai, da identificarsi con la rete. Il vantaggio della trasmissione di suoni, immagini anche in movimento oltre che del testo è evidente. A chiunque è consentito esporre non solo le proprie idee ma anche i propri prodotti, le immagini della propria città o magari della propria famiglia, fare ascoltare la musica preferita, insomma dare agli altri, del tutto gratuitamente, il meglio di sé. E’ questo il punto di maggior vantaggio del WWW, il fatto che la stragrande maggioranza delle pagine in rete hanno l’accesso gratuito. Potete girare per innumerevoli siti e scoprire poeti straordinari, fantasie cromatiche sbalorditive, composizioni musicali mozzafiato! La caratteristica principale dei siti WWW, oltre a quella di consentire una comunicazione integrale di testi, suoni ed immagini, è che ciascuna pagina consente un rimando automatico ad altre pagine WWW, sia all’interno dello stesso sito che verso altri siti. Questa caratteristica, che ha fatto definire il testo in WWW un "ipertesto", rende particolarmente agevole e piacevole la navigazione tra le pagine di Internet. Praticamente in ogni pagina di Internet troverete un collegamento (Link) ad altre pagine del Web, cosicché potrete navigare da un sito ad un altro, cambiando continuamente argomento, utilizzando solo il vostro mouse per cliccare sui links che mano a mano sceglierete. Un’altra curiosità stuzzicante del WWW è che consente di copiare sia le pagine che vedete che ciascuna delle immagini e dei suoni che trovate senza limiti di copyright. Questo perché sin dall’inizio tra gli utenti di Internet si è costituito un clima di solidarietà e di amicizia per cui le scoperte di uno sono sempre state a disposizione di tutti i navigatori, e questo spirito è rimasto sempre vivo. Il Lavoro Quello del lavoro è un argomento doloroso da affrontare dal lato dei computers che hanno reso obsoleti tanti mestieri e molti di più ne manderanno in soffitta nel prossimo futuro. C’è però il rovescio della medaglia, ovvero tutta l’infinita gamma di mestieri che si sono creati intorno ai computers ed alla rete di Internet. Fatto sta che la rete è destinata a modificare in maniera radicale il nostro modo di affrontare il lavoro e con esso la nostra vita. La prima considerazione da fare è che Internet permette in maniera concreta ed economica il tele-lavoro, vale a dire la possibilità di svolgere le proprie mansioni per l’azienda presso la quale si lavora da casa invece di doversi spostare tutte le mattine per raggiungere l’ufficio o la fabbrica. Il lavoro manuale tende a scomparire nelle industrie e nei servizi poiché viene sostituito da robot sempre più efficienti ed economici, così è sempre meno necessaria la presenza fisica per effettuare una prestazione che può essere ben svolta in qualunque altro luogo se il risultato della prestazione viene tempestivamente comunicato all’ufficio che l’ha richiesta. Con Internet questo è possibile, così come è possibile stare in contatto continuo con il proprio ufficio a costi bassissimi che tendono a diventare nulli. E’ quindi economicamente conveniente smantellare i grandi uffici che costano per manutenzione, affitto, utenze etc. e distribuire il lavoro tra gli impiegati liberandoli dall’obbligo di eseguire la prestazione di lavoro nell’ufficio centrale. Oltretutto con il tele-lavoro c’è anche un grande risparmio di costi sociali, per la notevole riduzione del traffico che comporta, la diminuzione dell’inquinamento, degli incidenti stradali e del tempo perso in viaggi divenuti inutili. Già sin d’ora molte aziende statunitensi si stanno riconvertendo al tele-lavoro e persino alcune aziende italiane hanno cominciato a farlo. D’altra parte i vantaggi sono enormi, soprattutto di tempo e denaro. - Il Futuro Quello che ci riserva il mondo dell'informatica sarà sempre più connesso alla realtà di Internet, che sta assumendo sempre più l'aspetto della linfa vitale delle comunicazioni nel Mondo. Senz'altro per quanto riguarda la tecnologia è da tenere presente la legge di Moore, che afferma un andamento esponenziale del progresso tecnologico che ci porterà in miglioramenti soprattutto di velocità e di quantità di dati a disposizione. Un esempio: 10 anni fa i dati venivano passati tramite floppy disk da 1,4 MB, abbastanza lenti e rovinabili facilmente; poi hanno preso il sopravvento i CD, 650 MB di spazio, veloci e resistenti; adesso si stanno affermando i DVD, delle stesse dimensioni ma contenenti per adesso 17 GB, 17000 MB velocissimi e quasi indistruttibili. Per quanto riguarda Internet e le velocità di connessione si è passati da pochi bit per secondo allo standard dei 56000 bps, arrivando alla tecnologia ADSL con 640000 bps in download e 128000 bps in upload. E' opportuno pensare inoltre che già come da tempo avviene in U.S.A. l'offerta di un collegamento internet ad alta velocità diventi gratuita e soprattutto via cavo, tecnologia che permettendo l'utilizzo di fibre ottiche, garantisce un passaggio di dati sufficiente a vedere un filmato DVD in real time. La miniaturizzazione dei macchinari la fa da padrone, soprattutto per quanto riguarda i computer portatili e i microprocessori: per i primi le componenti più piccole hanno permesso di raggiungere prestazioni elevatissime, per i secondi le nuove tecnologie a 0.18 micron (al posto di 0.56) hanno permesso di ridurre spazio, resistenza e aumentato le prestazioni. C'è chi afferma di voler realizzare la prima casa totalmente tecnologica, con elettrodomestici collegati costantemente nella rete e di conseguenza comandabili anche dall'esterno con dei semplici cellulari. Già adesso si parla di robot che potrebbero aiutare lo svolgimento della vita domestica: sono ancora in progettazione ma si pensa che in non molto tempo si possa giungere ad avere un piccolo androide in casa sfruttando il primo chip biologico, costituito da una piastra di silicio applicata su un neurone di sanguisuga, soluzione che permette enormi possibilità ma che suscita molti dubbi in ambito morale. La tecnologia comunque la farà da padrone, questo è inevitabile. C'è il rischio che sfugga di mano un domani, anche questo è inevitabile purtroppo. Sta allora all'uomo capire i limiti dell'informatica e i propri, e cercare di legare le due cose in modo tale da non farsi schiacciare dale macchine continuando a camminare fianco a fianco nel progresso. - Bibliografia Per la realizzazione di questa tesina ho consultato i seguenti testi: - Processi economici dell'era moderna, edito da Mondadori, 1989, per la trattazione sulla rivoluzione industriale; - sito Internet http://www.hwupgrade.it , da dove ho reperito il materiale tecnico sull'hardware del computer; - sito Internet http://www.rcs.newton.it , dove ho potuto trovare diversi argomenti già digitalizzati della rivista Newton; - sito internet http://www.programmazione.it , indispensabile per la programmazione in HTML; - il resto è di mia realizzazone.