Vorrei cominciare il discorso con i motivi che mi hanno spinto ad affrontare un argomento di questo tipo per una tesina di maturità. Innanzitutto l'informatica è una mia passione da veramente tanto tempo, e addirittura sarà presumibilmente la mia occupazione futura, visto che ho intenzione di conseguire la laurea in Ingegneria Informatica al Politecnico di Milano. In secondo luogo ho riflettuto molto sulla possibilità di collegamenti che l'argomento comporta, e sono davvero notevoli: dalla Storia alla Fisica, dalla Geologia addirittura all'Educazone Fisica. Naturalmente saranno un pò penalizzate le materie di tipo umanistico, ma la possibilità di collegarsi ad argomenti attuali mi ha allettato a tal punto da affrontare con decisione l'argomento. Per ultimo, ma non per questo il motivo meno importante, l'appartenenza ad un liceo scientifico: ho notato infatti che nelle maturità passate si è tentato di evitare argomenti scientifici; io invece ho accettato il rischio e così è nata questa tesina. Spero che ne sia valsa la pena. La Tecnologia Cosa si intende per Tecnologia? Si sente così tanto parlare di "Nuove Tecnologie", "Tecnologie Innovative", "Soluzioni Tecnologiche", ma forse il significato di questo termine viene a volte confuso. Per "Tecnologia" si intende l'insieme delle procedure e dei metodi di applicazione delle conoscenze scientifiche alle attività produttive. La tecnologia è quindi un campo estremamente vasto, caratterizzato da molteplici aspetti: consiste sia nel complesso di conoscenze e di studi teorici mirati a risolvere problemi pratici, sia nella progettazione e nella realizzazione di prodotti di vario tipo quali vestiario, alimenti, manufatti, strutture, dispositivi elettronici e sistemi informatici; in generale, quindi, contribuisce a realizzare il cosiddetto "mondo artificiale". Il processo tecnologico nasce per soddisfare un'esigenza umana o per concretizzare un'aspirazione e a questo fine utilizza risorse di vario tipo, come l'immaginazione, le conoscenze scientifiche e multidisciplinari, le competenze tecniche e gli strumenti. Essendo una dinamica della società umana, anche la Tecnologia ha avuto una storia, che comincia addirittura nell'età della pietra per finire (!) ai giorni nostri. Tuttavia occorre fare una distinzione: fino alla fine dell'Settecento non si può parlare di un grande sviluppo della Tecnologia, dato che la produzione industriale non era su larga scala, le industrie non erano quasi del tutto sviluppate e soprattutto non era ancora diffusa la mentalità capitalistica, ovvero, in parole povere, la "voglia di rischiare del proprio denaro in un'attività". Cosa ha fatto scattare la molla? La Rivoluzione Industriale Il 1700 ha portato con sè la sua mentalità illuministica, e tra le sue tematiche vi era anche la fiducia quasi totale nella scienza e nella tecnica. E' stato proprio in questo anno che si hanno avute le prime linee ferroviarie, lo sviluppo delle vie di comunicazione, le più importanti scoperte nel campo medico e scientifico in generale. Tuttavia il grande sviluppo economico e tecnologico lo si avrà soltanto in quella che verrà definita "Seconda Fase della Rivoluzione Industriale", periodo di tempo che va dal 1860 circa al 1920. Gli elementi che caratterizzarono la Seconda Fase della Rivoluzione Industriale furono di vario tipo: Le nuove scoperte scientifiche e le invenzioni; L'introduzione nell'attività produttiva di nuove macchine; L'introduzione e il massiccio uso di energie nuove: il petrolio e l'elettricità; La nascita di nuove industrie; La rivoluzione dei mezzi di trasporto; L'organizzazione delle fabbriche. Le nuove scoperte Nonostante l'ambiente scientifico si era già mosso dallo stato di quiete che derivava ancora dal 1700 con l'invenzione della macchina a vapore, il vero boom lo abbiamo negli ultimi trent'anni del 1800. Nel 1879 Edison realizzò la prima lampadina a filamenti di carbone, Marconi riuscì per la prima volta al mondo a comunicare a distanza tramite il telefono, Bell e Meucci inventarono il telefono nel 1874. Con queste invenzioni si mettevano le basi per lo sviluppo della tecnologia moderna. Nel campo della chimica vi furono importanti scoperte e formulazioni di nuove teorie che permisero una crescita immediata della fiducia nelle industrie chimiche: si introdussero nuove materie prime nella produzione di esplosivi, di saponi, dei coloranti artificiali, delle lastre e delle pellicole fotografiche, della celluloide... Faraday, Oersted, Millikan, Maxwell, Ohm sono solo alcuni degli scienziati che contribuirono allo studio sul magnetismo e alla "nascita" delle onde elettromagnetiche La cosa importante da sottolineare è comunque la fiducia che gli imprenditori ebbero nella produzione chimica, investendo immensi capitali e guadagnando parecchio. Sempre riguardo alle innovazioni tecnologiche, durante la seconda fase della rivoluzione industriale abbiamo la nascita dell'aereonautica, che prese l'avvio con il collaudo del primo aereoplano nel 1903 coi fratelli Wright L'introduzione nell'attività produttiva di nuove macchine I nuovi macchinari prodotti dalla ricerca e dallo sviluppo scientifico-tecnologico furono da subito introdotti in larga scala nella produzione industriale, con delle conseguenze importanti: il numero di addetti alla lavorazione di un prodotto cadeva vertiginosamente, dato che la macchina si occupava di tutto; inoltre vi fu la necessità di addestrare operai qualificati che sapessero usare le macchine a disposizione, conttribuendo così ad una politica industriale presente anche al giorno d'oggi, la necessità di formare gli operai per renderli più produttivi. Il campo dove più massiccio fu questo fenomeno fu senz'altro il campo dell'industria pesante, metallurgica e siderurgica, dove impressionante fu il numero di licenziamenti. L'introduzione e il massiccio uso di energie nuove: il petrolio e l'elettricità L'aspetto energetico ha veramente sconvolto il vivere della popolazione mondiale in seguito alle scoperte di Edison (lampadina), di Maxwell, di Lorentz e di tutti gli scienziati che scoprirono l'elettricità. L'illuminazione ha stravolto la vita nelle città e nella case, mentre l'uso della corrente elettrica contribuì allo sviluppo di una rete elettrica che permise negli anni successivi all'enorme uso di elettrodomestici e apparecchiature elettriche quali i telegrafi, inventati da Morse nel 1840. Fu scalzato quindi l'utilizzo del petrolio dal campo dell'illuminazione ma l'oro nero fu utilizzato in nuovi campi; la ricerca permise la nascita delle materie plastiche e il loro utilizzo massiccio nel commercio. La plastica infatti era molto più semplice da utilizzare, meno costosa e più versatile, poteva essere utilizzata in vari campi e in varie forme, anche se negli ultimi 20 anni è nato il problema dell'inquinamento, sottovalutato all'inizio della produzione plastica. Comunque l'aspetto più importante dello sviluppo del petrolio fu il suo utilizzo come carburante. Un altro materiale introdotto in questo periodo fu l'acciaio, utilizzato prevalentemente per la fabbricazione di macchinari, che divenne in poco tempo la materia prima più richiesta dall'industria La nascita di nuove industrie Tante furono infatti le industrie che nacquero in seguito al boom industriale; questo fenomeno fu possibile proprio grazie all'investimento di denaro, di capitale, da parte di "pionieri dell'occidente" che vollero tentare la fortuna. Le industrie si occuparono o di sviluppare settori già attivi in precedenza o addirittura si occuparono coraggiosamente della produzione di nuovi articoli di mercato, legati soprattutto all'industria chimica (Solvay) o tecnologica (Siemens). Le nuove industrie erano caratterizzate da una concentrazione di molti operai in imponenti complessi di fabbrica, fenomeno a cui si applica la definizione di Grande Industria. La rivoluzione dei mezzi di trasporto La Rivoluzione Industriale ebbe per la prima volta la necessità di far transitare la merce in tutto il globo terrestre; ecco quindi un immenso sviluppo dei trasporti. Nel mondo marittimo di notevole importanza vi fu la realizzazione dei canali, di Suez e di Panama, oltre a quelli di Kiev e di Corinto. Le ferrovie, già utilizzate ma in condizioni pessime, furono riorganizzate e l'utilizzo di rotaie in acciaio le rese molto più sicure e durature. Le ferrovie assunsero valore internazionale e furono quindi costruiti i trafori, come il Frejus (1871) e il S.Gottardo (1882) in Europa, mentre furono allestite linee "Coast to Coast", da costa a costa, in America e in Russia (Transiberiana). L'organizzazione delle fabbriche L'uso di macchine sempre più potenti consentì di trasferire alla macchina molte attività da sempre prerogativa dell'uomo; in questo modo il lavoro umano perse una gran parte di creatività e divenne sempre più ripetitivo e semplice; inoltre nacque la figura dell'operaio qualificato, del tecnico, che conosce la macchina e deve intervenire per farla funzionare o per ripararla e che si differenzia dall'operaio-massa, che compie un lavoro di ausilio alle macchine e uguale per molti. Inoltre l'attività produttiva dei grandi complessi industriali richiese un rigido coordinamento e una solida programmazione. Si verificò pertanto una divisione del lavoro: ai dirigenti e ai tecnici spettò il compito di programmare i processi produttivi, agli operai il semplice e ripetitivo lavoro. La divisione del lavoro apre la strada ad altre innovazioni nell'organizzazione del lavoro: - il CICLO CONTINUO, ovvero lavorazioni che procedono per turni di operaisenza fermare quasi mai le macchine; - la PRODUZIONE IN SERIE, la produzione di pezzi tutti uguali l'uno all'altro e intercambiabili; - le CATENE DI MONTAGGIO, teorizzate da Taylor nella sua organizzazione scientifica del lavoro, rendevano la produzione efficiente, data la brevità e l'efficienza di produzione, ma che limità molto la creatività dell'operaio, costretto a vedere e ad operare solo su un pezzo del prodotto. Il Microprocessore E' il cuore attorno al quale ruota la vita del moderno "Homo tecnologicus". La scoperta indispensabile per mandare l'uomo nello spazio. Per far viaggiare la voce in ogni angolo del mondo grazie a telefonini sempre più piccoli. Per impegnare i giovani in avvincenti sfide contro mostri ipergalattici, tanto minuziosi da sembrare veri. E i continui progressi della sua tecnologia sono anche la causa per cui ogni due anni (nel migliore dei casi) i suddetti giovani vorranno un computer sempre più veloce. E' il microprocessore, la più grande conquista del XX secolo, a detta di molti la porta spalancata sul XXI. In ogni momento sono circa quindici miliardi i microchip (è così che vengono chiamati) in uso nel mondo, l'equivalente di due computer molto potenti per ogni uomo, donna e bambino del pianeta. E questo è solo il numero di "contenitori". All'interno di ogni singolo chip infatti, sono contenuti milioni e milioni di transistor (gli "interruttori elettronici" che consentono al chip di svolgere le sue funzioni). Secondo una stima di Intel, la società americana che nel 1971 ha realizzato il primo microprocessore della storia, il numero totale dei transistor contenuti nei microchip prodotti in un anno è pari a quello delle gocce di pioggia cadute su una nazione più grande dell'Italia nello stesso periodo. Senza questi minuscoli interruttori non ci sarebbe possibile accendere la realtà, e non ci si riferisce solo agli oggetti che rendono più confortevole la vita. Le reti di comunicazione, i trasporti aerei e su rotaia, l'illuminazione pubblica, e ancora il funzionamento di pacemaker, respiratori artificiali e incubatrici, tutto dipende dagli intricati circuiti incisi su una minuscola lastra di silicio, una scheggia più piccola di un'unghia e più leggera di un francobollo. Ma come funzionano i semiconduttori? Che cos'è la "rivoluzione del silicio"? Come si passa da un pugno di sabbia ai sofisticati circuiti integrati? A che punto è la tecnologia e, soprattutto, dove arriverà La legge di Moore La vera rivoluzione apportata dalla tecnologia del transistor di silicio è stata quella di poter dare una sorta di "intelligenza" (meccanica o comunque indotta) agli oggetti, in modo da renderli più funzionali e interattivi con l'essere umano. E in un certo senso i transistor hanno anche "liberato" l'uomo. Il basso consumo energetico di questi dispositivi, infatti, ha reso portatili (perché alimentabili a pile) una serie di apparecchi - in testa a tutti il computer - per i quali erano indispensabili un cavo elettrico e una presa. Per capire quanto la realtà sia mutata grazie ai chip, basta dare un'occhiata al cruscotto di una delle nuove automobili di lusso: solo dieci anni fa una simile strumentazione era ancora fantascienza. Gli apparecchi del futuro parleranno, ma soprattutto sapranno ascoltare e capire i nostri comandi. Per far questo è necessario che cresca la capacità di calcolo dei microprocessori, e questo si realizza aumentando la densità dei circuiti, ovvero il numero dei transistor contenuti in un singolo chip, e la loro velocità. Il transistor, unità di base del circuito integrato, fu inventato nel 1947 (l'anno seguente alla nascita del primo computer, Eniac, un "mostro" di 30 tonnellate) da tre fisici americani dei laboratori della compagnia telefonica Bell: John Bardeen, Walter Brattain e William Shockley. Alla ricerca di un sostituto per le fragili e costose valvole di vetro utilizzate nelle apparecchiature radio, gli scienziati inventarono un amplificatore solido che svolgeva le stesse funzioni della "valvola a vuoto" di Fleming. Il dispositivo riusciva a trasmettere corrente attraverso un resistore, e fu chiamato transistor dalla contrazione dei due termini inglesi "transferring" e "resistor" (trasferimento di resistenza). Elemento fondamentale del transistor è l'impiego di uno speciale materiale detto semiconduttore. Questo ha caratteristiche intermedie tra un materiale perfettamente conduttore (come il rame o il ferro) e un isolante (per esempio vetro e plastica). Per i primi esperimenti venne utilizzato il costosissimo gemanio, ma il boom dei transistor si ebbe quando a questo fu sostituito il silicio (nel 1954), uno dei materiali più abbondanti sulla crosta terrestre. Negli stessi anni si scoprì che aggiungendo alcune "impurità" al semiconduttore, questo poteva servire da amplificatore, raddrizzatore, sorgente di onde elettromagnetiche: l'epoca delle valvole si era definitivamente chiusa. Il passo successivo nella tecnologia del silicio fu l'assemblaggio, su un'unica base, di più elementi (come transistor e condensatori): è il passaggio dal singolo chip al circuito integrato (IC). I primi IC, realizzati negli anni Sessanta, contenevano (il termine tecnico è integravano) tra 100 e 1000 elementi, collegati fra loro da piste spesse fra i 5 e i 15 micron (il micron è circa cento volte inferiore al diametro del capello umano). Il microprocessore 4004, primogenito di casa Intel (1971), era un insieme di quattro circuiti elettronici, che integrava al suo interno 2300 transistor ed elaborava 60 mila istruzioni al secondo. L'evoluzione delle tecniche di miniaturizzazione e la nascita del CAD (Computer Aided Design), uno strumento indispensabile per riuscire a disegnare gli intricati circuiti che collegano i milioni di elementi dell'IC, sono le strade che la tecnologia ha percorso per realizzare microprocessori sempre più potenti e veloci. Per far questo la parola d'ordine dell'industria dei chip è "integrazione", e l'avanzare della tecnologia ha seguito una precisa regola matematica: la legge di Moore. Formulata quasi trent'anni fa dal fisico Gordon Moore, oggi presidente onorario di Intel, la legge prevede che ogni diciotto mesi, a parità di dimensioni, il numero di transistor per chip raddoppi. Infatti gli anni Settanta sono stati dominati dai circuiti LSI (Large Scale Integration, integrazione su larga scala), che contavano alcune decine di migliaia di elementi, poi si è arrivati ai Super LSI (oltre 100 mila elementi), e si è aperta l'epoca dei computer domestici. I microprocessori dell'ultima generazione, definiti ULSI (Ultra Large Scale Integration), contano oltre 10 milioni di transistor, collegati tra loro da "fili" spessi solo 0,18 micron, e sono in grado di elaborare miliardi di operazioni al secondo. Appena sufficienti per guardare un breve filmato su Internet. Così come il carbone è stato il motore della prima rivoluzione industriale (alla metà del 1700), la scoperta dei semiconduttori ha permesso il realizzarsi della "rivoluzione elettronica". La loro caratteristica fondamentale è quella di avere un grado di resistività (l'attitudine di un corpo a condurre corrente elettrica) intermedio tra i conduttori (come il rame o l'oro, in cui l'elettricità passa agevolmente) e gli isolanti (la porcellana o il vetro, che non si lasciano attraversare dalla corrente). In natura ci sono vari tipi di semiconduttori: tra gli elementi chimici trionfa il silicio, che forma oltre il 20 per cento della crosta terrestre. La caratteristica che ha reso i semiconduttori elementi ideali per le applicazioni elettroniche, è la possibilità di controllare la loro resistività e il grado di conduzione (e questo permette di creare al loro interno dei veri e propri interruttori) semplicemente modificando la composizione dell'elemento base con il cosiddetto "drogaggio", ovvero l'introduzione di altre sostanze: le impurità. A cavallo tra gli anni Trenta e Quaranta gli scienziati del centro di ricerche sui semiconduttori dei laboratori Bell notarono che fondendo la silice sottovuoto si ottenevano due tipi di cristalli: uno (il silicio di tipo "p") in cui l'elettricità passava grazie a un eccesso di carica positiva, e l'altro (detto tipo "n") in cui la conduzione avveniva tramite un eccesso di carica negativa. La differenza tra i due tipi è dovuta proprio alle impurità presenti nei cristalli. Nel tipo "p" in cui l'impurità è costituita da boro e indio, questa rende disponibile una lacuna (portatrice di carica positiva) e il passaggio di corrente avviene perché le lacune si spostano verso il polo negativo. Il silicio di tipo "n", in cui l'impurità è dovuta a elementi come arsenico e fosforo, si comporta diversamente: le impurità liberano un elettrone (portatore di carica negativa) e la corrente passa per il movimento degli elettroni verso il polo positivo. L'introduzione di queste impurità (ne basta solo un atomo ogni dieci milioni) fa diminuire proporzionalmente la resistività del silicio. In tal modo in laboratorio si può modificare in maniera controllata la conduttività. Dove nascono i microchip Lavorare nel mondo dei microprocessori significa entrare in un'altra dimensione della realtà, una dimensione nella quale l'uomo è sicuramente troppo "grande" e l'ambiente nel quale si muove ricchissimo di pericoli. Uno starnuto, un frammento di capello caduto, una particella di polvere in più, per i delicati circuiti dei microprocessori hanno la potenza di un tornado, l'impatto distruttivo di un meteorite. Per questo, nelle fabbriche in cui si producono i chip, è necessario seguire delle regole rigidissime. La "clean room" (è questo il nome tecnico dei locali asettici degli impianti di produzione) ha un'atmosfera che ricorda molto i laboratori superprotetti (i cosiddetti P4) dove si fanno ricerche sui virus letali. Separati dal resto del mondo da una serie di porte a tenuta ermetica, i tecnici (chiamati "bunny men", che significa uomini-coniglio) si muovono con cautela, avvolti in tute immacolate che danno loro l'aspetto di astronauti. Le "clean room" sono circa dieci volte più pulite delle sale operatorie degli ospedali: è ammessa una sola particella di polvere ogni trenta centimetri quadrati. In ciascun locale l'aria viene continuamente pompata dal soffitto e risucchiata attraverso il pavimento, in modo che si rinnovi completamente ogni dieci minuti. Per evitare ulteriormente rischi di "contaminazione", la pressione dell'aria all'interno è leggermente superiore rispetto a quella dell'esterno. In tal modo, se nel locale asettico si verifica una lesione, l'aria pulita dell'interno tende a uscire, impedendo all'aria esterna, contaminata, di entrare. Esiste un vero e proprio "rituale di vestizione" al quale chiunque entri nelle "clean room" deve sottoporsi: tutto il corpo va protetto e ci si deve sottoporre a speciali doccie ad aria più volte durante la vestizione. Ogni possibile fonte di contaminazione deve essere evitata, e ai tecnici è richiesto di attenersi a regole che possono anche far sorridere. La produzione di microchip va avanti incessantemente, 24 ore al giorno, i "bunny men" svolgono pesanti turni (da 8 a 12 ore) e la concentrazione richiesta provoca una tale tensione che sono state rese obbligatorie due pause per ogni turno. Durante queste pause ci si rilassa, si fanno esercizi di stretching e infine si passano le consegne all'altra squadra. Per creare un processore moderno (per esempio i nuovi tipi di Intel) ci vogliono circa 45 giorni, ed è un lavoro di squadra realizzato negli impianti di dodici nazioni diverse, collegati per via telematica. Che si tratti del circuitino per una calcolatrice tascabile o di un sofisticatissimo processore di ultima generazione, il processo di produzione dei chip è lo stesso. Quel che cambia è la complessità dei circuiti che si devono incidere sul minuscolo quadratino di silicio chiamato "die". Il "die" è talmente piccolo che può essere facilmente tenuto sulla punta di un dito. Eppure, su questa "scheggia" sono disposti alcuni milioni di transistor, collegati tra loro da incredibili architetture spesse solo qualche frazione di micron. La produzione di un microchip dura circa tre mesi. Si parte da una "carota" di silicio, un cilindro lungo circa un metro e dal diametro di 20 centimetri. Da questa si ricavano dei dischi sottilissimi, detti wafer, lamine spesse circa 500 micron che vanno accuratamente levigate. Prima di passare alla fase di incisione dei circuiti, ogni singolo wafer viene esaminato da un raggio laser che evidenzia imperfezioni e irregolarità superficiali da uno a tre micron (limite massimo di tolleranza). Il secondo passo consiste nel rivestire la superficie del wafer con uno strato di diossido di silicio (SiO2). Questa è la sostanza utilizzata per condurre la corrente attraverso il microprocessore. Il disco di silicio viene poi rivestito con una sostanza fotosensibile chiamata "gelatina", che diventa molto morbida e viscida quando viene esposta alla luce ultravioletta. L'incisione dei circuiti sul wafer, infatti, avviene tramite un processo simile a quello fotografico chiamato "fotolitografia". È il metodo migliore per realizzare disegni così piccoli. Nella fase detta "mascheramento", la maschera fotografica con il disegno del circuito del microprocessore viene collocata sopra lo strato di gelatina. La maschera e il wafer vengono quindi esposti alla luce ultravioletta. La maschera consente alla luce di colpire solo alcune aree del wafer, in questo modo il disegno viene "riportato" sul silicio. Le parti di gelatina che diventano morbide dopo l'esposizione alla luce vengono rimosse con un solvente, (è il "processo ad acquaforte") che mette allo scoperto il diossido di silicio sottostante. La parte finale di questo processo consiste nel rimuovere il diossido di silicio esposto e quindi il resto della gelatina, e nel "drogare" il silicio in corrispondenza dei circuiti, per modificare (solo in quei punti) le caratteristiche elettriche del semiconduttore. Il processo di mascheramento e di incisione viene ripetuto per ogni strato della circuiteria, fino a 20 volte, a seconda della complessità del microprocessore da produrre. A questo punto il dischetto di silicio può contenere circa 200 chip, pronti per essere testati, separati, confezionati e montati su altre schede o circuiti. Ogni chip viene testato a più riprese, sotto speciali luci e con simulazioni elettroniche. Il test finale chiamato "wafer sort", viene effettuato con una speciale sonda sottilissima chiamata "sonda ago", capace di effettuare diecimila controlli al secondo su ogni wafer. Un chip che non passa il test viene segnato con inchiostro rosso, e verrà eliminato prima della fase successiva. Al termine del controllo i wafer sono tagliati con una punta di diamante per separare ogni chip, che a questo punto può finalmente essere chiamato "die". I "die" sono quindi posti su un vassoio antistatico pronti per essere "impacchettati" in specifici involucri protettivi (il termine tecnico con cui si indica questa fase è "packaging"), che proteggono i chip dall'ambiente esterno e contengono le connessioni elettriche necessarie perchè esso possa "comunicare" con gli altri chip della scheda dove sarà montato. Sono gesti che ripetiamo quotidianamente: accendiamo il computer, facciamo apparire sul monitor il programma che ci serve (ovvero lo "carichiamo"), ci lavoriamo, salviamo il lavoro fatto (ovvero memorizziamo) e lo stampiamo. Magari contemporaneamente abbiamo un Cd audio in sottofondo, o ci concediamo una sosta per dare un'occhiata alla posta elettronica. Per fare tutte queste operazioni ci limitiamo a spingere qualche tasto o a cliccare con il mouse sugli appositi comandi. Tutto semplice, all'apparenza, ma cosa accade nel micromondo di silicio della CPU (la Central Processing Unit), il "cervello" del computer, quando cerca di obbedire ai nostri comandi? Se potessimo entrare in questa dimensione sarebbe come assistere, affacciati dal parapetto di un grattacielo, allo spettacolo di milioni e milioni di auto che si muovono (i dati immessi); impulsi elettrici che schizzano da una parte all'altra dei circuiti, in un moto regolato da sincronizzatissimi semafori: i transistor. Qualsiasi ordine che diamo al computer, infatti, viene tradotto dalla macchina in una serie di zero e uno, (i bit del linguaggio binario), simboli a cui corrispondono le due possibili posizioni dei transistor nel chip di silicio: aperto (fa passare corrente) o chiuso (la corrente non passa più, come abbiamo visto nei disegni alle pagine 28-29). E' traducendo gli ordini in questo semplicissimo linguaggio che il computer "capisce" cosa fare. Il microprocessore è fornito di diversi tipi di "interruttori" (i transistor), che corrispondono alle diverse operazioni logiche possibili. La combinazione di queste operazioni permette alla macchina di eseguire anche gli ordini più difficili. Nei microprocessori ogni area è realizzata secondo un preciso schema di circuiti, a seconda della funzione logica che ogni modulo deve svolgere (memoria, gestione di dati, o di codici di istruzioni, per esempio). La velocità con la quale gli elettroni si muovono nel microprocessore con il loro carico di informazioni (e quindi la velocità di esecuzione dei comandi) è data dal "clock" (in inglese, orologio). Questo, infatti, è proprio un orologio che dà il segnale di partenza agli elettroni, per evitare "imbottigliamenti" e disturbi. Nei microprocessori più potenti questo segnale si ripete con una frequenza di centinaia di Megahertz (un Megahertz equivale a un milione di impulsi al secondo): in un miliardesimo di secondo un elettrone deve percorrere 15 centimetri. Un altro elemento importante per la velocità (e quindi la capacità di compiere operazioni complesse) del microprocessore è il numero di "fili" elettrici con cui esso trasferisce i dati al suo interno e verso l'esterno. In linguaggio informatico questa specie di "autostrada" lungo cui viaggiano i bit si chiama "bus" e, a seconda delle "corsie" che contiene, può essere a 32 o a 64 bit (nei processori di ultima generazione). Com'è facile dedurre, la complessità dei circuiti di un microprocessore è notevole: esistono miliardi di linee di codice con cui i singoli chip devono interagire. Il progettista di microchip, oggi, utilizza sofisticati programmi CAD (Computer Aided Design) eseguiti su calcolatori potentissimi, per creare le mappe dei circuiti elettronici. In strutture così piccole la precisione è fondamentale: per questo, una volta assemblato il circuito sul computer, il progetto viene stampato con enormi macchine (i plotter) su fogli grandi 5 metri per 5, dove verrano effettuati tutti i controlli prima di procedere alla produzione. Secondo la legge di Moore la densità di integrazione raddoppia ogni ventiquattro mesi. Ciò equivale a un aumento annuo della capacità di calcolo del 5060 per cento. Cosa hanno fatto i ricercatori, quali meccanismi fisici hanno sfruttato e, soprattutto, hanno in progetto di sfruttare, per migliorare così consistentemente la tecnologia del silicio? La strada che i colossi dell'elettronica hanno deciso di imboccare è una sola: miniaturizzazione. 6 "Miniaturizzare significa agire sulle dimensioni geometriche degli elementi di base dei circuiti integrati: i transistor" spiega l'ingegner Vincenzo Giustino, responsabile dello sviluppo applicazioni nella divisione microelettronica di IBM. "Infatti, al diminuire delle dimensioni del transistor, l'elettrone (che corrisponde al singolo bit) ha un percorso più breve da compiere, e quindi lo attraverserà in un tempo minore. Ne consegue che il transistor può svolgere il suo compito fondamentale (funzionare come un interruttore), più velocemente, consentendo all'intero circuito integrato, al processore e infine al computer, di funzionare più rapidamente". Il primo mezzo con cui percorrere la strada della miniaturizzazione è lo sviluppo di tecniche fotolitografiche sempre più precise. Per fare questo è necessario che il raggio luminoso che incide il circuito abbia una lunghezza d'onda molto ridotta (questa, in pratica, deve essere più piccola delle dimensioni del circuito). "Finora è stata impiegata la gamma degli ultravioletti, ed è stato fatto un primo passo per l'utilizzo dei raggi x "soft", ovvero quelli la cui lunghezza d'onda più si avvicina agli ultravioletti", spiega Vincenzo Giustino. "La meta da raggiungere è quella dei raggi X cosiddetti "strong", a lunghezza d'onda molto inferiore. Che però, allo stato attuale della tecnologia trapassano il silicio e la fotoresina senza farli reagire". Ma c'è una strada alternativa alla miniaturizzazione: aumentare la velocità dei bit agendo sui materiali: il silicio e le sue connessioni. "Sono tre le innovazioni proposte da IBM in questo campo" continua l'esperto: "la prima, che agisce sulla fisica dei materiali, è la creazione di chip che utilizzano una particolare miscela di silicio e germanio. Ciò li rende più veloci, ideali per operare nel campo delle alte frequenze, nella trasmissione di voce e dati". La seconda scoperta è chiamata tecnologia SOI (Silicon On Insulator, ovvero silicio su un isolante). Grazie a questa tecnica i milioni di minuscoli transistor presenti sul chip verranno protetti per mezzo di uno strato isolante, riducendo gli effetti elettrici nocivi che assorbono inutile energia e diminuiscono le prestazioni. "è stato così possibile creare un chip che richiede solo un terzo dell'energia e fornisce prestazioni superiori fino al 35 per cento rispetto agli altri processori", spiega l'esperto. Legato alla tecnologia dell'isolante, l'ultima innovazione di IBM riguarda le connessioni. In genere i chip sono collegati tra loro da minuscoli fili di alluminio, buon conduttore certo, ma non come il rame. Quest'ultimo materiale finora non veniva usato perché risultava tecnicamente difficile integrarlo con il silicio (gli atomi di rame vi si "spandevano" all'interno senza possibilità di controllo). "La scoperta e l'applicazione del filtro isolante, che consente di realizzare le connessioni in rame", conclude Giustino, "aumenta la velocità di prestazione dei chip del 33 per cento (possono avere una velocità di clock fino a 450 MHz) consentendo nello stesso tempo dimensioni molto ridotte e un basso consumo d'energia. L'ideale, per esempio, per i computer portatili". E Intel, quale asso ha nella manica per la nuova generazione di processori? La tecnologia è ancora un segreto, quel che è noto è il risultato che si vuole raggiungere con i successori del Pentium II: raddoppiare la quantità di bit immagazzinabile su un singolo chip. Di questi processori per ora si conoscono solo i nomi in codice, Katmai, Merced e Tanner, e le finalità: potenziare i programmi per realizzare animazioni su immagini tridimensionali, le applicazioni video e la riproduzione audio. Con queste tecnologie siamo vicini a raggiungere il limite delle prestazioni? Assolutamente no, rispondono i ricercatori. Siamo solo a metà del cammino e ci vorrà ancora un secolo per comprendere e sfruttare tutte le opportunità che i microchip possono offrirci. Ieri mero strumento, oggi indispensabile partner, negli anni a venire c'è il rischio che la macchina diventi più in gamba dell'uomo? Un computer è costituito da una parte hardware, costituita da tutte le componenti fisiche e da una parte software, ovvero tutti i programmi che verranno fatti "girare". Per quanto riguarda l'hardware un computer è costituito dalle seguenti componenti: case, il contenitore all'interno del quale sono montati i diversi componenti; floppy drive, il lettore per floppy disk; lettore di CD-Rom,o DVD, indispensabile per installare il sistema operativo e il software che verrà in seguito utilizzato; hard disk, nel quale vengono caricati il software e salvati i dati; motherboard, il vero e proprio centro vitale del computer, alla quale vengono collegate, in modo differnte, tutte le periferiche presenti nel sistema; memoria; processore; scheda video, sia solo 2D che dotata anche di funzioni di accelerazione 3D; cablaggi vari (in genere forniti in dotazione con la motherboard); mouse; tastiera; monitor; eventuale scheda audio con sistema di altoparlanti; eventuale scheda acceleratrice 3D, per sistemi orientati ad un utilizzo con giochi; eventuale scheda di rete - modem interno - modem esterno; scanner, stampante o ogni tipo di periferiche attualmente in commercio. Il software invece è costituito dal Sistema Operativo e dalle varie applicazioni. Un Sistema Operativo è un programma particolare, che si occupa di mettere in comunicazione l'utente e la macchina, traducendo letteralmente ogni tipo di informazione fornitagli in linguaggio binario, che si caratterizza da una serie di 1 o 0 in successione; naturalmente il Sistema Operativo si occupa di molte altre funzioni, quali l'immagazzinamento di dati nell'hard disk, la comunicazione tramite le porte di comunicazione, quelle che si trovano nel retro della CPU (Central Processing Unit), e di rendere visibile dall'utente le informazioni volute. I Sistemi Operativi più diffusi sono l'MS DOS, il primo in assoluto che risale al 1981, MS Windows 3.11, MS Windows 95, MS Windows 98 e il nuovissimo MS Windows Neptune, l'ultimo uscito da casa Microsoft. Altri sistemi operativi sono l'OS di Machintosh, Linux e Unix; altri sistemi operativi invece sono specifici per una gestione di una serie di computer, una Rete, quali MS Windows 3.11 for Workgroup, MS Windows NT, MS Windows 2000, Linux stesso. Le applicazioni invece sono programmi che permettono di facilitare molte attività umane, quali l'organizzazione di dati, la stampa di materiale, il gioco, e moltissime altre ancora. Le più conosciote sono senz'altro MS Word, MS Excel, Adobe Photoshop, MS Explorer (quella con cui probabilmente state vedendo queste pagine!) e moltissime altre. Il funzionamento di un computer non è molto semplice, per il fatto che un computer moderno è caratterizzato da un'evoluzione progressiva di altri modelli precedenti, per cui molte sono le differenze tra i vari computer; tuttavia è possibile schematizzare un modello base valido per tutti. Innanzitutto l'alimentazione: l'alimentatore fornisce corrente continua, trasformandola da quella alternata della rete elettrica, a tutte le apparecchiature interne. La corrente poi passa nei circuiti, grandi poco più di qualche micron, che simulano il sistema binario: se passa corrente rappresenta un ipotetico "1", se il circuito non è attivato allora è rappresentato uno "0". In effetti il processore, l'apparecchio che fornisce l'elaborazione dei dati, compie il suo lavoro semplicemente accendendo milioni di circuiti al secondo, lavorando quindi col sistema binario. Il computer, come dicevamo prima, ha bisogno di dati da elaborare, che vengono forniti da sorgenti di "input", mouse e tastiera. I dati vengono trasformati in linguaggio binario dal sistema operativo e elaborati dal processore; vengono poi eventualmente divisi in pacchetti, depositati in una memoria momentanea ma superveloce, la Cache, che permette il riutilizzo di dati appena elaborati. Per ultimo i dati vengono mandati alla memoria fondamentale, la RAM, una memoria capiente ma con l'unico difetto di perdere i dati depositati quando manca corrente (infatti quando manca corrente ogni circuito diventa spento!). Allora subentrano i floppy disk e gli hard disk, e ogni tipo di memoria di massa, che sfruttano un campo magnetico prodotto da una corrente elettrica per orientare minuscoli aghetti ferromagnetici che con la loro posizione (orientata o meno) simulano di nuovo un numero binario, leggibile con un campo magnetico più leggero per non cambiare l'orientamento. Un altro tipo di supporto magnetico è il CD-ROM, disco ottico caratterizzato da una maggior capienza di dati ma dal limite di non poter essere riscritto. I dati salvati poi possono avere diversi utilizzilizzati per diversi scopi: possono essere inviati ad una stampante, per essere fissati su un supporto cartaceo, visualizzati a video tramite monitor e scheda video, che elabora la grafica; i file sonori sono invece inviati alla scheda audio che li invia a sua volta agli speaker esterni mentre tutti i file possono essere inviati nella grande Rete tramite un modem, interno o esterno. I collegamenti tra processore e le periferiche sono forniti da apposite porte di comunicazione (le più famose sono le LPT1 per le stampanti, COM, per modem, scanner..., USB, SCSI, Firewire...) e i BUS di sistema, appositi collegamenti veloci interni. Invece i collegamenti tra transistor e mini circuiti all'interno di un processore avvengono grazie alla tecnologia della semiconduzione, tecnologia che permette la realizzazione di cavi, fili, collegamenti a resistenza quasi nulla ma che hanno bisogno di una ventola di refrigerazione che raffredda i materiali, semiconduttori solo a temperature ambiente. CD-ROM Acronimo per Compact Disc Read-Only Memory, un dispositivo WORM (di sola lettura), di capacità pari a 650 MB, diffusosi a partire dall'inizio degli anni Novanta. Il processo di memorizzazione consiste nell'incisione con un fascio laser di un sottile disco metallico, che viene successivamente ricoperto da un film di materiale plastico trasparente. I CD-R sono compact disc in cui il processo di memorizzazione può essere condotto in maniera più semplice, utilizzando un apposito dispositivo detto masterizzatore: l'operazione può essere quindi effettuata anche da un utente non professionale. Di norma, per i CD-R si utilizzano gli stessi lettori dei CDROM. Un ulteriore progresso tecnologico ha portato all'introduzione dei CD-RW. Su questo tipo di supporto i dati possono essere scritti, modificati e cancellati; per quanto anche i CD-RW utilizzino tecnologie magneto-ottiche, necessitano di lettori dedicati, non essendo compatibili con i CD-ROM e i CD-R. Accanto ai CD sta emergendo un nuovo tipo di supporto magneto-ottico, detto DVD (acronimo per Digital Versatile Disk, ovvero Digital Video Disk); sviluppato per la memorizzazione di film come alternativa alle cassette a nastro magnetico (videocassette), può contenere da 5 a 20 MB a seconda del formato utilizzato (è ancora in corso la definizione di uno standard). Un normale CD può contenere un'enorme mole di informazioni, circa 650 milioni di byte (megabyte, Mb), l'equivalente di più di 400 dischetti da 1,44 Mb. Ciò significa che un singolo CD può contenere più di un'ora di musica di alta qualità o un intero film, oltre allo spazio (il 15% della memoria disponibile) destinato alla verifica dell'integrità dei dati contenuti. Il tipo più comune, il CD audio, sta assumendo un ruolo sempre più importante, poiché consente di fruire di registrazioni musicali di alta qualità; il CD-ROM è invece ideale per la diffusione di enciclopedie e altro materiale di consultazione. A differenza dei dischetti del computer, però, i CD-ROM non possono essere usati per raccogliere altre informazioni. Infatti la registrazione di un CD viene eseguita incidendo una sequenza di microscopiche cavità sulla superficie riflettente di un disco vergine (master), dal quale si ottiene una matrice che serve come forma per produrre una serie di copie mediante lo stampaggio a iniezione della materia plastica (policarbonato o polimetilmetacrilato) che funge da supporto. La sequenza delle cavità è incisa sul master da un laser di potenza e successivamente, quando il disco viene fatto girare nel lettore, è interpretata come informazione digitale da un diodo laser: il raggio laser proiettato sul CD può venire riflesso oppure no, a seconda che incontri la superficie riflettente o una microcavità. Si ottiene così una successione di 0 e 1 che viene decodificata in musica, testo, immagine o qualsiasi altra informazione che possa essere memorizzata in forma digitale. Il metodo di lettura del CD, non richiedendo alcun contatto meccanico diretto, permette in teoria una durata del disco eccezionalmente lunga. I compact disc si basano tutti sulla stessa tecnologia, e utilizzano il medesimo sistema di codifica; è tuttavia possibile una classificazione in base alle applicazioni specifiche cui sono destinati: tra i più noti, ad esempio, sono i CD-I, o dischi interattivi. La famiglia dei CD è in rapida espansione, e iniziano a essere disponibili anche CD scrivibili, benché per ora siano notevolmente costosi. Contrariamente al CD-ROM, realizzato incidendo con il laser la superficie riflettente, questi nuovi CD vengono prodotti riscaldando un materiale magnetico in modo da modificarne le proprietà ottiche. Nonostante l'elevata capacità di memorizzazione, l'affermazione del compact disc non è stata immediata, soprattutto a causa dei problemi tecnici causati dalla lentezza con cui si riusciva ad accedere alle informazioni. I primi lettori infatti presentavano una bassa velocità di reperimento dei dati (circa 150 kilobit al secondo), e un tempo medio di accesso di alcune centinaia di millisecondi, considerevolmente svantaggioso rispetto ai 10,5 millisecondi del disco rigido di un computer. Questo problema è stato risolto nei lettori più recenti. CD-I Acronimo di Compact Disc Interactive (compact disc interattivo); un disco ottico che può immagazzinare immagini, audio, video e testi, permettendo presentazioni multimediali interattive. Si tratta di un tipo di CD-ROM che consente la visualizzazione e la scomposizione di immagini statiche, di animazioni e di effetti speciali; impiega specifici metodi di codifica, compressione, decompressione e visualizzazione delle informazioni memorizzate. A differenza di quanto richiesto da un comune CD-ROM, per la riproduzione di un CD-I non è necessario l'uso di un computer: basta disporre di un apposito lettore e di un ordinario apparecchio televisivo (vedi Televisione); lo stesso lettore per CD-I può riprodurre anche CD video e CD audio. Masterizzatore Un dispositivo capace di scrivere informazioni su CD-ROM. Il masterizzatore permette generalmente di registrare su un supporto ottico in modalità compatibile con i diversi standard: può dunque creare compact disc (CD) musicali o PhotoCD oltre che, naturalmente, CD utilizzabili per la distribuzione di software o di dati per computer. I masterizzatori multisessione permettono di compiere il processo di registrazione in momenti diversi, detti sessioni. Alcuni modelli sono specifici per CD-RW (compact disc read and write), supporti ottici che consentono sia la lettura che la riscrittura, a differenza dei CD-R (read) standard, che consentono la sola lettura. Al momento si stanno anche diffondendo nel mercato della masterizzazione anche alcuni masterizzatori per DVD. DVD o Digital Video Disc Dispositivo di immagazzinamento di dati digitali del tutto simile nell'aspetto a un CD audio o a un CD-ROM, ma con capacità e velocità di lettura di gran lunga superiori a entrambi. Esistono DVD video, destinati a sostituire le videocassette a nastro magnetico per la riproduzione delle immagini, e DVD-ROM, che sostituiranno i CD-ROM come dispositivi di memoria per computer. La tecnologia dei DVD-audio è ancora in fase di definizione. DVD video Numerosi sono i vantaggi del DVD rispetto ai tradizionali sistemi di registrazione e riproduzione delle immagini. Ultimo prodotto della tecnologia dei dischi ottici superdensi (Super Density Disc, SD), è caratterizzato da un'elevata capacità, più che doppia rispetto a quella dei nastri magnetici delle videocassette, che garantisce un'alta definizione delle immagini e una lunga durata della registrazione (da 2 a 8 ore). Anche la velocità di lettura è molto superiore a quella dei dispositivi esistenti: se un CD audio viene letto alla velocità di 0,15 megabit (milioni di bit) al secondo, un DVD viene letto a circa 4,7 megabit al secondo, vale a dire a una velocità più di trenta volte maggiore. Come nei CD audio, l'informazione digitale nei DVD è non lineare, il che significa che non deve essere letta necessariamente nell'ordine in cui è stata registrata, ma permette un accesso casuale. Sono previste inoltre fino a 8 piste audio su un medesimo disco, che possono contenere ad esempio la versione originale di un film e le versioni doppiate in diverse lingue, e fino a 32 piste per i sottotitoli. La qualità dell'audio è pure molto alta. Quelli che possono essere considerati svantaggi del DVD sono in realtà caratteristiche in via di perfezionamento per un prodotto ancora nuovo. Primo fra tutti è la possibilità di sola lettura: i DVD video di prima generazione disponibili sul mercato non possono essere registrati, ma solo letti con appositi riproduttori; è prevista tuttavia la messa a punto di sistemi che permetteranno in futuro di utilizzare il DVD anche per la videoregistrazione casalinga. DVD-ROM I DVD-ROM (DVD Read Only Memory, a sola lettura), destinati alla memorizzazione in forma digitale di dati e di elementi audio e video leggibili da un computer, godono delle stesse caratteristiche di alta capacità (attualmente 3,95 o 2,58 miliardi di byte) e velocità di lettura descritte per i DVD video. La maggior parte dei computer più sofisticati, dotati di lettori per DVD, possono riprodurre anche le immagini di un DVD video. Le principali case produttrici mondiali all'avanguardia nel campo della tecnologia dei dischi superdensi, tra cui Philips, Sony e Hewlett-Packard, continuano ad annunciare l'uscita di nuove versioni di DVD-ROM, con capacità e prestazioni sempre migliori. Esistono inoltre DVD riscrivibili (DVD-RAM), destinati alla registrazione e allo svilupo di software, e DVD scrivibili una sola volta (DVD-R, recordable), anch'essi utilizzati per la memorizzazione di dati leggibili da un computer. Hard Disk Dispositivo di memoria di massa sul quale possono essere immagazzinate informazioni. Si distinguono diversi tipi di dischi a seconda del supporto (disco rigido o hard disk; disco flessibile o floppy disk) e della tecnica di scrittura e memorizzazione (magnetizzazione o incisione). Nella maggior parte dei computer, un disco è il supporto primario per l'immagazzinamento permanente o semi-permanente dei dati. Il sistema di memorizzazione di un computer è composto da un supporto per i dati, un dispositivo di lettura e scrittura e da un'interfaccia tra quest'ultimo e gli altri componenti del sistema. Floppy Disk: un supporto per la memorizzazione dei dati costituito da un sottile disco di materiale plastico (comunemente Mylar o poliestere) ricoperto da una vernice magnetica a base di ossido ferrico e racchiuso in una custodia protettiva quadrata di plastica rigida o semirigida. Sviluppato dall'IBM a partire dal 1970 nel formato 8 pollici, fu successivamente prodotto nei formati 5,25 pollici e 3,5 pollici, quest'ultimo con custodia rigida. I dati sono memorizzati sotto forma di bit dalla testina di lettura/scrittura, che modifica la magnetizzazione del disco (vedi Magnetismo): una determinata orientazione del campo magnetico rappresenta un 1, la direzione opposta rappresenta uno 0. La capacità di un floppy può andare da qualche centinaia di migliaia a oltre un milione di bit. I primi floppy disk da 5,25 pollici per IBM PC contenevano 180 kilobyte (kB) di dati; in seguito, i dischi a doppia densità, ovvero con densità (bit per pollice) doppia rispetto a quella dei dischi preesistenti, portarono la capacità a 360 kB. Nei dischi a doppia densità viene usata una codifica modificata a modulazione di frequenza per la registrazione delle informazioni e dei dati. Attualmente vengono utilizzati dischi da 3,5 pollici scritti su entrambi i lati del supporto magnetico, di capacità pari a 720 o 1400 kB nei sistemi MS-DOS e pari a 800 o 1400 kB negli Apple Macintosh. Hard Disk: è un dispositivo di memoria di massa di elevata velocità e capacità (da decine a migliaia di Megabyte), costituito da uno o più dischi di materiale rigido, con un rivestimento che permette la registrazione magnetica dei dati. Un disco rigido tipico ruota a 3600 giri al minuto, mentre le testine di lettura/scrittura viaggiano a distanza infinitesima dalla sua superficie. Gli hard disk, la cui realizzazione richiede strumenti e procedure di alta precisione, vengono sigillati in contenitori rigidi per evitare che le impurità interferiscano con le strettissime tolleranze comprese fra testine e disco. Grazie alla loro struttura rigida possono essere impilati, in modo che un solo drive possa avere accesso a più dischi. Nel complesso un hard disk può essere costituito da un numero di elementi compreso tra due e otto. Disk Drive: è un dispositivo elettromeccanico in grado di eseguire operazioni di lettura e scrittura dei dati su un disco. I principali componenti di un disk drive sono il perno su cui è montato il disco, il motore che mette il disco in rotazione quando il drive è in funzione, una o più testine di lettura/scrittura, un secondo motore che posiziona le testine sul disco e la circuiteria di controllo che sincronizza le operazioni di lettura e scrittura e trasferisce le informazioni dal computer al disco e viceversa. Disk Controller: il trasferimento di informazioni tra il disco e il computer è gestito da un dispositivo chiamato disk controller, costituito da un circuito integrato dedicato e da un insieme di circuiti associati. Esso svolge funzioni quali il posizionamento della testina di lettura/scrittura, il coordinamento tra il drive e il microprocessore e il controllo dello scambio di informazioni con la memoria. Il disk controller viene usato sia con il drive del disco rigido sia con quello del floppy disk. In alcuni computer è realizzato come parte del sistema: nei computer Macintosh, ad esempio, il controller del floppy disk è un integrato speciale detto Integrated Woz Machine (IWM, dal nome di Steven Wozniak, suo principale creatore). In altre macchine, come i personal originali IBM, il disk controller è realizzato su una scheda che si inserisce in uno slot di espansione dell'unità di sistema, mentre nei PC più recenti esso è integrato sulla scheda madre. Un singolo disk controller può essere in grado di gestire più di un disk drive. Monitor Dispositivo che visualizza le immagini generate dall'adattatore video di un computer, attraverso un tubo a raggi catodici. Il termine si riferisce al visualizzatore e al suo contenitore. Esistono monitor di diverse misure, tra cui le più diffuse sono quelle comprese tra i 14 e i 19 pollici. Un parametro significativo che quantifica la capacità di riproduzione delle immagini di un monitor è la sua risoluzione; essa dipende dalle dimensioni dello schermo, dal numero di pixel e dall'intensità del fascio elettronico del tubo. Nelle applicazioni di grafica computerizzata, con l'aiuto di una penna ottica l'utente può creare le immagini agendo direttamente sulla superficie dello schermo. Tubo a raggi catodici Dispositivo elettronico che permette di visualizzare un segnale elettrico su uno schermo luminescente. Si tratta di un particolare tipo di tubo elettronico, costituito da un contenitore di vetro in cui è stato realizzato il vuoto, recante a un'estremità un dispositivo (cannone elettronico) che emette un fascio di elettroni contro lo schermo luminescente posto all'altra estremità. Il tubo a raggi catodici sta alla base del principio di funzionamento di televisori, apparecchi radar, computer e oscilloscopi. Gli elettroni emessi dal catodo del cannone elettronico (da cui il nome di raggi catodici) vengono accelerati da una serie di griglie a potenziale positivo rispetto al catodo; quindi passano attraverso anodi di forma opportuna, che focalizzano il fascio fino a renderlo di sezione puntiforme. Tra il cannone elettronico e lo schermo sono situate due coppie di piastre elettriche o di solenoidi magnetici, che deflettono il fascio a seconda del segnale elettrico a esse applicato. In tal modo, gli elettroni vanno a colpire un punto preciso dello schermo, la cui posizione è determinata dal segnale applicato alle placche o ai solenoidi. Nei tubi a deflessione elettrica, la coppia di piastre orizzontali controlla i movimenti verticali del fascio, quella di piastre verticali ne controlla i movimenti orizzontali; la deflessione in questo caso è proporzionale alla differenza di potenziale tra le piastre. Il sistema di deflessione magnetica, basato sull'azione di opportuni campi magnetici, funziona in modo analogo sul fascio di elettroni. Risoluzione In informatica, la precisione con cui un'immagine viene riprodotta sul monitor, su carta dalla stampante o su altro supporto. Si distingue in alta e bassa risoluzione e viene espressa in numero di punti nell'unità di superficie o come distanza lineare tra i singoli pixel. Nella grafica computerizzata e nella stampa si utilizza il termine dot; esso indica un singolo punto che viene combinato con altri in una matrice di righe e colonne per formare un carattere o un elemento grafico. Dot non ha lo stesso significato di spot, termine che indica un gruppo di punti usato per produrre tinte sfumate (vedi Dithering). alta risoluzione: il termine, spesso abbreviato con Hi-Res (High Resolution), indica un alto livello di precisione nella riproduzione dei testi e delle immagini. L'alta risoluzione è correlata al numero di pixel (punti elementari) che compongono un'immagine: maggiore è tale numero, maggiore è la risoluzione. Per quanto riguarda i computer, la risoluzione dipende sia dalle caratteristiche della scheda video che da quelle del monitor. Ad esempio, un scheda Enhanced Graphics Adaptor (EGA) può produrre un'immagine con risoluzione di 640 x 350 pixel, maggiore di quella possibile per un IBM Colour/Graphics Adaptor, che produce immagini con risoluzione di 640 x 200. Le risoluzioni possibili per il monitor si spingono ben oltre quelle esemplificate, superando il megapixel (1000 x 1000 pixel). Per quanto riguarda i monitor il valore di riferimento è dato dalla distanza (in inglese, dot pitch), espressa in millimetri, tra i singoli punti dello schermo di un tubo a raggi catodici o tra gli elementi di una matrice di cristalli liquidi; minore è tale distanza, maggiore è la risoluzione dello schermo. Nella stampa, per la quale la risoluzione è definita come numero di punti di stampa per pollice (dpi, dall'inglese dots per inch), le migliori prestazioni si ottengono dalle stampanti laser e dagli apparati di composizione tipografica. La risoluzione media di una stampante laser è di 600 dpi; quella degli impianti di composizione ordinari è di circa 1000 dpi, nel caso di stampa di alta qualità può superare i 2000 dpi. bassa risoluzione: il termine, spesso abbreviato con Lo-Res (Low Resolution), indica un livello di precisione relativamente basso nella riproduzione dei testi e delle immagini. Esso si riferisce solitamente alle stampanti e ai visualizzatori a scansione per computer. Nella stampa, una bassa risoluzione è comparabile all'uscita a matrice di punti draft-quality (qualità bozza). Quando la risoluzione dello schermo non è abbastanza raffinata, le linee curve non vengono rappresentate fedelmente, ma assumono un andamento a gradini dando luogo all'effetto dell'aliasing. La risoluzione di uno schermo dipende dal numero di pixel di cui si compone, ossia dei singoli punti che nel loro insieme creano l'immagine. Poiché i pixel hanno forma rettangolare e ciascuno di essi può assumere un solo colore per volta, uno schermo composto da un numero di pixel relativamente basso, ossia a bassa risoluzione, crea immagini dai contorni spigolosi. Pixel Abbreviazione per Picture Element (unità elementare di immagine): ciascuno degli innumerevoli punti che, disposti ordinatamente in righe e colonne, compongono le immagini così come vengono visualizzate da un computer o riprodotte da una stampante. Come il bit è la più piccola quantità d'informazione che un computer può elaborare, così il pixel è il più piccolo elemento manipolabile dall'hardware e dal software per la visualizzazione e la stampa di lettere dell'alfabeto, cifre numeriche o immagini. Nel diagramma che segue appare evidente la disposizione dei pixel che compongono una lettera A corsiva: Nella riproduzione di immagini in bianco e nero, ogni pixel è codificato da un singolo bit, che può assumere alternativamente il valore 1 (nero) o il valore 0 (bianco). Nella riproduzione di immagini a colori, invece, sono necessari due o più bit: due bit per quattro colori o quattro diverse tonalità di grigio, quattro bit per sedici colori e così via. Usualmente, un'immagine a due colori è detta "mappa di bit", una a più colori è detta "mappa di pixel". Il video di un computer è suddiviso in migliaia di unità dette pixel (dall'inglese, picture element, o "elemento dell'immagine"). Ciascuna di esse, colorata individualmente, contribuisce all'effetto d'insieme di un'immagine completa. A seconda del numero e delle dimensioni dei pixel varia la qualità e il grado di risoluzione dell'immagine. Penna ottica Dispositivo di puntamento sensibile alla luce dello schermo di un computer; l'operatore seleziona voci o comandi visualizzati sul video appoggiandovi l'estremità della penna e azionando un apposito tasto, oppure semplicemente esercitando una leggera pressione sullo schermo, operazioni che equivalgono a un "clic" con il mouse. La penna contiene sensori ottici che inviano un segnale al computer ogni volta che rilevano un impulso luminoso; ciò avviene quando il fascio di elettroni che compone le immagini sul video colpisce il punto in cui è posizionata l'estremità attiva della penna ottica. Le immagini visualizzate su uno schermo, infatti, non sono stabili: il fascio elettronico del tubo a raggi catodici in esso contenuto percorre lo schermo riga per riga, illuminando ogni singolo punto ogni cinquantesimo di secondo. Il computer può quindi determinare l'esatta posizione della penna ottica registrando l'istante in cui questa rileva il passaggio del fascio elettronico. La penna ottica non richiede schermi speciali, ma presenta lo svantaggio di affaticare l'operatore se occorre sostenerla contro il video per lungo tempo. Viene utilizzata diffusamente nel campo della progettazione assistita da elaboratore Mouse Dispositivo di posizionamento messo a punto dalla Xerox presso il centro di ricerca di Palo Alto, in California, e divenuto popolare dopo la sua introduzione nella dotazione standard del computer Apple Macintosh. L'introduzione del mouse e dell'interfaccia grafica di utente, che permette di scegliere e attivare comandi sullo schermo per mezzo di un puntatore controllato dal mouse stesso, ha reso più familiare e accessibile l'uso del computer, permettendone una diffusione su più vasta scala. Il principio di funzionamento è uguale per tutti i tipi di mouse, che possono differire al più per forma e numero di pulsanti: quando l'operatore sposta il mouse, una sferetta collocata sulla sua faccia inferiore mette in rotazione una coppia di rotelle disposte in direzioni perpendicolari tra loro. Il movimento delle rotelle viene convertito in un segnale elettrico mediante il conteggio di punti conduttori o di fessure intagliate presenti su di esse. I più recenti mouse "optomeccanici" hanno eliminato la necessità di molte operazioni di manutenzione o di riparazione collegate alla struttura dei mouse interamente meccanici. Mouse optomeccanico Trascinando il mouse su una superficie liscia si fa girare una sferetta al suo interno, che a sua volta mette in rotazione, mediante due perni perpendicolari tra loro, due dischi con una serie di fessure incise lungo il bordo. Attraverso queste fessure un LED illumina un fototransistor: quando un disco ruota, l'illuminazione è intermittente e il transistor produce un segnale elettrico impulsivo. Il computer riceve il segnale e sposta il cursore sullo schermo. Modem Dispositivo che converte i segnali prodotti da un computer dalla forma digitale a quella analogica, per permetterne la trasmissione lungo linee adatte alla conduzione di segnali analogici. I segnali digitali sono costituiti da combinazioni di cifre binarie (0 e 1), mentre i segnali analogici variano con continuità in un range di valori possibili. I modem vengono generalmente usati per permettere la comunicazione tra computer collegati in rete tramite le linee telefoniche. Il modem connesso al computer trasmittente converte i segnali digitali in segnali analogici (modulazione); una volta giunto a destinazione, il segnale analogico viene riconvertito nel segnale digitale originale (demodulazione), in modo che possa essere elaborato dal computer ricevente. Il nome "modem" deriva dalle lettere iniziali delle due parole che esprimono le due funzioni fondamentali di questo apparecchio: modulazione e demodulazione. Per convertire un segnale digitale in forma analogica, il modem genera un'onda portante, modulata in conformità con il segnale digitale. L'onda portante è un'onda elettromagnetica che nei sistemi di telecomunicazioni viene utilizzata per consentire la trasmissione di informazioni contenute in un altro segnale, detto modulante. Il procedimento, con cui le informazioni, contenute ad esempio nei segnali dei programmi radio o televisivi, vengono associate a una portante, viene detto modulazione. Esso consiste nel modificare l'ampiezza, la frequenza o la fase della portante in modo da renderle proporzionali al relativo valore istantaneo del segnale modulante. Esistono, di conseguenza, tre tipi di modulazione per portanti armoniche: di ampiezza (AM), di frequenza (FM) e di fase (PM). Le ultime due, ottenute con circuiti simili, presentano forti analogie. Il tipo di modulazione adottato dipende dal particolare programma applicativo di gestione del sistema e dalla velocità del modem. Molti modem ad alta velocità, ad esempio, usano una combinazione di modulazione d'ampiezza (variazione dell'ampiezza della portante in base alle caratteristiche dell'onda modulante) e di modulazione di fase (variazione della fase della portante in base alle caratteristiche dell'onda modulante). Si parla di duplex totale per i modem che possono trasmettere e ricevere dati simultaneamente; di semiduplex per i modem che possono compiere una sola operazione alla volta. Mentre i primi modem erano voluminosi e potevano trasmettere dati a una velocità di soli 100 bit al secondo, i modem moderni sono schede da inserire nel corpo del personal computer, che raggiungono una velocità di trasmissione di 56 kbit al secondo. Esistono inoltre modem più sofisticati, detti modem/fax, che permettono a un PC di comunicare direttamente con un fax, ovvero di spedire e ricevere messaggi via fax. Esistono tre diversi tipi di modulazione: di frequenza (FM, Frequency Modulation), di ampiezza (AM, Amplitude Modulation) e di fase (PM, Phase Modulation). Essi consistono nel trattamento dell'onda portante in modo che, istante per istante, la sua frequenza, la sua ampiezza o la sua fase, rispettivamente, varino in misura proporzionale alle relative variazioni del segnale da trasportare. La banda di frequenze, vale a dire l'intervallo entro cui varia la frequenza dell'onda portante modulata, è diversa a seconda del tipo di modulazione. La modulazione permette di adattare segnali diversi a uno stesso canale e di rendere la trasmissione più efficiente, con effetti di interferenza e attenuazione ridotti. Prima della ricezione, il segnale viene sottoposto all'operazione inversa a quella di modulazione, detta demodulazione. Vedi anche Radio. I tre tipi di modulazione: AM Il sistema AM fu il primo sistema di modulazione impiegato nel campo della radiofonia per trasmissioni a breve e grande distanza. Può essere utilizzato per la trasmissione di segnali audio, nella telefonia a corrente portante e nella trasmissione di immagini fisse via cavo. La modulazione di ampiezza produce onde la cui ampiezza è massima nei punti in cui la modulante presenta i picchi positivi, minima in corrispondenza dei picchi negativi. Il sistema di trasmissione in AM è particolarmente soggetto a effetti di distorsione, interferenza e rumore, che non possono essere eliminati in fase di demodulazione: diversi disturbi elettrici, prodotti ad esempio dai temporali e dai sistemi di accensione delle auto, generano radiosegnali modulati in ampiezza, che i ricevitori AM riproducono sotto forma di rumore. FM Il primo sistema a modulazione di frequenza (FM) per le comunicazioni radio fu messo a punto nel 1936, dall'inventore statunitense Edwin H. Armstrong. Il principale vantaggio di questo sistema rispetto a quello a modulazione di ampiezza consiste nell'essere meno soggetto a scariche e interferenze. Un ricevitore FM non è sensibile a disturbi generati dai temporali, se è sintonizzato su un segnale d'intensità sufficiente: il rapporto segnale/disturbo è molto più alto in FM che in AM. Le stazioni radio FM, inoltre, possono trasmettere in bande ad altissima frequenza (VHF), nelle quali l'interferenza in AM è spesso molto intensa. La portata di trasmissione su tali bande è piuttosto limitata per cui stazioni che operano sulla stessa frequenza possono trovarsi a poche centinaia di chilometri l'una dall'altra senza interferire reciprocamente. Queste caratteristiche, sommate al costo relativamente basso dell'apparecchiatura necessaria per attrezzare una stazione radiotrasmittente FM, determinarono nel dopoguerra la rapida espansione della modulazione di frequenza. Poiché necessita di un'ampiezza di banda maggiore della modulazione di ampiezza, ma è meno sensibile alle interferenze, la modulazione di frequenza viene usata per trasmettere musica in stereofonia ad alta fedeltà, per il segnale audio delle trasmissioni televisive e per la trasmissione via satellite. PM Il sistema a modulazione di fase (PM) presenta caratteristiche molto simili a quelle della modulazione di frequenza; per questo, entrambe vengono spesso riunite sotto la denominazione comune di modulazioni angolari. La PM e la FM si distinguono fondamentalmente per le bande di frequenza del segnale modulato e per la maggiore stabilità della frequenza portante nella modulazione di fase rispetto a quella della modulazione di frequenza. Il sistema PM, che consiste nella variazione della fase dell'onda portante in base alla forma del segnale modulante da trasmettere, viene spesso impiegato in alcune fasi dell'amplificazione nei sistemi in FM. Digitale Nell'elaborazione di dati, digitale è praticamente sinonimo di binario, poiché i computer elaborano informazioni codificate sotto forma di combinazioni di cifre binarie. Un'immagine, un filmato video o un segnale acustico vengono rappresentati da gruppi di bit. Un disegno o una fotografia, ad esempio, possono essere digitalizzati da uno scanner, che converte linee e colori in combinazioni di 0 e 1, rilevando punto per punto intensità e colore della luce riflessa. Quando si rappresentano grandezze che variano con continuità in un certo intervallo (analogiche), non è possibile rappresentare tutti i valori che esse assumono: i valori compresi tra due valori distinti esprimibili per mezzo di due combinazioni contigue vengono quindi rappresentati mediante l'una o l'altra di queste combinazioni. Indipendentemente dall'estensione del campo di variazione della grandezza in questione, perciò, il numero dei valori distinti rappresentabili è limitato dal numero di bit impiegati per la codifica, ovvero la precisione con cui una grandezza viene rappresentata è limitata dal numero totale di combinazioni possibili. Al giorno d'oggi la digitalizzazione è una tecnica comunemente adottata in ogni campo dell'elettronica, delle comunicazioni e dell'informatica. Per realizzare la codifica e la decodifica vengono usati circuiti detti rispettivamente un convertitore analogico-digitale e un convertitore digitale-analogico. Sono dispositivi per la conversione dei dati dalla forma analogica alla forma digitale o viceversa. Tale conversione si rende necessaria per l'elaborazione, la memorizzazione e la trasmissione di grandezze analogiche (che variano con continuità) con dispositivi digitali, che invece funzionano in modo "discreto". La conversione inversa, da digitale ad analogico, è espletata dai convertitori digitale-analogico. In un convertitore analogico-digitale (ADC, Analogue to Digital Converter), i segnali analogici applicati vengono campionati con cadenza assegnata, cioè se ne prelevano i valori in istanti separati da intervalli di tempo fissi. I valori dei campioni vengono quindi espressi in forma binaria, come combinazioni di 0 e 1. Ne risultano dei codici che possono essere impiegati in diversi sistemi di elaborazione o di comunicazione. Un convertitore digitale-analogico (DAC, Digital to Analogue Converter) è un dispositivo per la conversione di una combinazione digitale in un livello analogico di tensione o di corrente. I DAC sono oggi largamente impiegati nei lettori di compact disc, nei riproduttori di nastri o videocassette e, in generale, negli apparati per l'elaborazione digitale di segnali audio e video. La maggior parte dei DAC usa una rete resistiva, ai cui componenti viene applicato il gruppo di bit che costituisce un dato digitale. Le resistenze incluse nella rete sono scalate secondo precisi rapporti in modo che ciascuna sia percorsa da una corrente elettrica di intensità proporzionale al valore del bit applicato. Il digit è un elemento di un sistema numerico, cioè una cifra. Si può parlare di "binary digit", cioè di cifra binaria (0 o 1) in un sistema di numerazione binario; di "octal digit", cioè di cifra ottale, in un sistema di numerazione in base 8; di "decimal digit", o cifra decimale, in un sistema decimale; di "exadecimal digit", o cifra esadecimale, in un sistema di numerazione in base 16. Quest'ultimo sistema è composto da 6 simboli, espressi con le lettere A, B C, D, E e F, che vengono aggiunti ai 10 (da 0 a 9) del sistema in base 10. La società dei computer La società è stata fortemente influenzata dallo sviluppo dei computer, ma non da subito, cioè non dalla loro nascita. Infatti lo scopo principale per cui fu messo a punto il primo elaboratore era quello di ausiliare la ricerca scientifica con calcoli veloci, precisi e senza il minimo errore. Per cui a partire dagli anni '70 fino agli anni '80 il computer era destinato solo a ricchi centri di ricerca. Gli anni '80 si aprirono con la nascita dei primi Personal Computer, grazie a Bill Gates e il suo socio Allen che compilarono il DOS, nel 1981, il quale permise la diffusione delle macchine negli ambienti lavorativi; i primi computer erano dei semplici 286, caratterizzati dal processore 8086 di casa Intel che per l'epoca era ritenuto il migliore; il lavoro diventava più veloce, non si rendevano più necessarie tante carte o gli archivi diventavano più leggeri. Tuttavia era indispensabile formare i nuovi tecnici, con corsi adeguati per permettere il cambio di tecnologia. Adesso, pensandoci, sembra una bazzeccola, ma allora molti impiegati persero il posto di lavoro per non essere riusciti ad adattarsi alle nuove tecniche; e si era solo agli inizi. Ai giorni nostri la situazione è veramente cambiata: in ogni casa di media c'è un computer, considerando anche le famiglie che ancora non ne usufruiscono e quelle che ne possiedono più esemplari. Soprattutto ne son cambiati gli usi: sono scomparsi gli usi originari e ne sono apparsi alcuni completamente nuovi: Il computer ormai non viene più acquistato per accelerare i tempi o per compiere calcoli senza errori, se fatta eccezione per la ricerca e la scienza in generale, che soprattutto nel campo della medicina ormai non può fare più a meno dei PC, che addirittura compiono operazioni complicatissime da soli. E' comparso il fattore ludico, prima occupato solo dalle consolle, ma adesso veramente surclassate dai PC domestici, a volte veramente sofisticati e caratterizzati da potenti capacità grafiche e di calcolo; infatti un moderno videogioco necessita di una componente hardware aggiornata e potente, schede video con grafica da capogiro e processori dedicati che elaborano le immagini, monitor ad alta risoluzione, schede audio e diffusori per vivere l'avventura in prima persona, periferiche specializzate (volanti, pedaliere...). Anche la produzione artistica ormai non può più fare a meno di un computer, basta pensare per esempio alla composizione di un brano audio di un cantante o di un gruppo rock: la registrazione viene effattuata in digitale, direttamente su computer appositamente asssemblati, e non tutta in una sola volta, come si crede: vi sono diverse piste, o tracce, che vengono filtrate (pulite dai rumori di fondo o delle apparecchiature), effettate, amplificate, accorciate, tagliate e infine accorpate in un'unica traccia. A questo punto subentra la voce del cantante. La vita sociale è caratterizzata da una grande influenza dei computer e soprattutto di Internet. E' la Rete il Mass-Media per eccellenza, dove le notizie corrono in tempo reale, gratutite (o quasi) e numerose. Internet sta invadendo ogni angolo della Terra e nessuno sa come si svilupperà in futuro: certo si sa che lo sviluppo non avrà fine. Mai. Sembra che semza computer non siamo più in grado di stare. Ci ha talmente coinvolto che ho letto tempo fa un articolo di un professore di filosofia che annoverava tra le categorie dell'intelletto di Kant anche il computer, senza il quale non saremmo in grado di interpretare molti dati sensibili. Come andrà a finire? Come tutte le grandi scoperte dell’umanità, Internet nasce per ragioni del tutto diverse da quelle per le quali si è sviluppata e affermata. Negli anni ’60, dopo la crisi della Baia dei Porci, in piena guerra fredda, il Pentagono scoprì che il sistema di difesa missilistico degli Stati Uniti aveva un punto debole: era sufficiente bloccare le comunicazioni tra i computer della Difesa in un punto qualunque per isolare intere zone del paese ed impedire così la risposta agli ordini provenienti dal Comando generale. Allora i computer erano pachidermici macchinoni costosi quanto un Boeing 747, grandi come un appartamento e mille volte meno potenti dei PC che sono sulla scrivania di milioni di persone. Malgrado ciò erano naturalmente molto più efficaci quanto a capacità di puntamento e tempestività del migliore armiere in circolazione e, soprattutto, era sufficiente un solo comando per consentire a tutti i missili di partire per annientare il nemico e con esso anche il resto dell’umanità. Però i computer avevano il difetto di avere bisogno di un collegamento diretto tramite un cavo specifico (dedicato) ed era sufficiente interrompere questo cavo in un punto qualunque per isolare tutti i computer situati dopo quel cavo. Nacque così ARPANET, progettato dall’ARPA (Advanced Research Projects Agency) del Ministero della Difesa statunitense per studiare un sistema che consentisse ai computer di collegarsi tra di loro senza dover necessariamente passare per un collegamento dedicato. La via naturale era quella di usare il collegamento telefonico, ma la maggiore difficoltà consisteva nel fatto che questo collegamento è spesso disturbato da fruscii e rumori vari che a volte impediscono anche a due esseri umani di capire ciò che dicono. Questo sembrava un ostacolo insormontabile poiché la trasmissione di dati via computer deve essere invece assolutamente precisa. E’ sufficiente, infatti, che un solo carattere non sia comprensibile per rendere inutilizzabile tutto il testo trasmesso. La tecnologia elaborata da ARPANET fu quella della commutazione di pacchetto, che consiste nello scomporre i dati da trasmettere in piccole unità composte ciascuna da pochi dati da inviare separatamente ad un computer in grado di leggere e ricomporre il messaggio. In questo modo l’eventuale disturbo per una parte della trasmissione non rende incomprensibile l’intera conversazione ma induce il computer ricevente a chiedere la ritrasmissione del pacchetto mancante. Il primo tentativo di trasmissione avvenne un giorno del 1969 tra due computers uno dell’Università di S. Barbara e l’altro dell’Università dell’Utah. Quello che segue è il resoconto di quello storico evento in un’intervista ad uno dei protagonisti il prof. Kleinrock: "Abbiamo digitato al computer la lettera "L" e chiesto al telefono: vedete la "L" ? "Si, vediamo la "L," fu la risposta. "Abbiamo digitato, allora, la O, e chiesto, "vedete la "O." ? "Si, vediamo la O." "Allora abbiamo digitato la G, e il sistema si sfasciò"... " Così è cominciata la rivoluzione"... Il grande vantaggio della trasmissione dati via telefono consiste nel fatto che esistono infinite vie per effettuarla, a volte anche con effetti paradossali : per esempio per connettere due computer di Milano è possibile che la trasmissione passi per..... Londra o Istanbul! Tutto ciò, però, non comporta alcun ritardo significativo nella trasmissione poiché i dati viaggiano a velocità enormi e all’atto pratico il percorso seguito è del tutto ininfluente. Nel 1973, poi, venne elaborato il TCP/IP (Transmission Control Protocol/Internet Protocol) che consentiva a tutti i computer di intendersi tra loro anche se programmati con linguaggi differenti. Il TCP/IP venne reso immediatamente obbligatorio per tutti i computer connessi in ARPANET ed è tuttora lo standard usato per la connessione via Internet. Ad ARPANET partecipavano oltre ai vari enti militari interessati al programma di difesa anche svariate università e centri di ricerca che, come abbiamo visto, hanno dato un impulso decisivo per lo sviluppo della tecnologia della rete. Mano a mano, malgrado le proteste dei militari, i professori e gli studenti delle università connesse alla rete cominciarono a scambiarsi oltre alle informazioni tecniche anche messaggi personali ed a inserire notizie sui corsi di studio e le altre iniziative della propria università. Altre università chiesero – e per lo più ottennero - l’accesso alla rete per poter contribuire allo sviluppo tecnologico della struttura ma incrementando, così, il numero di utenti della rete anche per fini non propriamente istituzionali. Nel 1983 i militari decisero di uscire da una rete dove ormai si parlava di tutto tranne che dei loro affari e crearono MILNET una rete dedicata esclusivamente alle loro esigenze. Nel frattempo tutte quelle istituzioni universitarie, enti vari, società private o singoli che avevano chiesto e non ottenuto l’accesso ad ARPANET avevano scoperto che in barba ai divieti era estremamente semplice connettersi tra di loro e creare una rete di computers che poteva comunicare con quelli di ARPANET purché utilizzasse lo stesso protocollo TCP/IP. La CIA per un po’ di tempo controllò tutte le comunicazioni che avvenivano tra i computers ma quando nel 1989 il numero degli utenti raggiunse le 500.000 unità decise di smettere anche perché il controllo era divenuto praticamente impossibile. Nasce così Internet, ovvero la rete delle reti nella quale confluirono ARPANET, NSFNET (la rete della National Science Foundation) e tutti i privati ed altre istituzioni che avevano creato reti virtuali connettendosi tra di loro. Da allora sono passati solo otto anni, ma è come se ne fossero trascorsi ottanta. Quei cinquecentomila utenti sono divenuti oltre cento milioni e crescono con progressione geometrica stracciando regolarmente tutte le previsioni. Con lo sviluppo del WWW (World Wide Web) dal 1994 in poi centinaia di migliaia di aziende si sono gettate su Internet attirando milioni di utenti che a loro volta stanno coinvolgendo altri milioni di aziende. Internet ha ormai superato la massa critica, vale a dire quella dimensione che comporta l’autoalimentazione del proprio sviluppo e pertanto la sua crescita è divenuta inarrestabile. Ogni nuovo utente, infatti, attira nuove aziende e queste a loro volta attirano nuovi utenti in una spirale di crescita che procede al ritmo del raddoppio del numero di utenti ogni anno. Internet può essere comparata ad una tela di un ragno: è composta di tanti fili connessi tra di loro a mezzi di nodi posti alle intersezioni di quei fili. Si può immaginare che un ragno particolarmente laborioso abbia confezionato una gigantesca rete estesa più o meno fittamente su tutta la terra nella quale si trovano decine di milioni di nodi. Se al posto di ogni nodo si mette un computer si ha un’idea di come funziona Internet. Se ogni computer acceso fosse segnalato da una lampadina colorata, sorvolando di notte la terra assisteremmo allo spettacolo fantasmagorico di milioni di luci colorate che si rincorrono per tutto il pianeta accendendosi e spegnendosi senza posa. La copertura del globo terrestre, a parte vaste zone dell’Africa ed alcune aree del Sud America e del Medio Oriente, è praticamente totale. Attualmente il collegamento alla rete avviene esclusivamente a mezzo di una rete di cavi connessa alla rete telefonica mondiale, anche se ci sono personal computer portatili in grado di collegarsi tramite un’antenna parabolica che riceve dati da un satellite. Con il satellite o con la creazione delle autostrade informatiche, ovvero di una rete di cavi ad altissima velocità in grado di portare quantità crescenti di informazioni da una parte all’altra della terra, sarà stato creato un elemento decisivo per la costruzione di un effettivo mercato globale ed Internet sarà sottratto definitivamente alla tentazione di qualche Stato di imporre tasse o restrizioni all’accesso. Infatti, qualunque azienda o prestatore di opera avrà la possibilità di scegliere il luogo fisico dove effettuare la propria attività o prestazione senza doversi muovere da casa e praticamente senza costi. Per continuare a mantenere gli attuali livelli di pressione fiscale gli Stati dovranno allora imporre una "tassa sulla vita" ai propri cittadini, svelando così la brutale natura oppressiva del sistema dietro la maschera pseudo democratica, oppure dovranno ridurre le tasse al livello necessario per consentire alle imprese nazionali di restare sul mercato globale e liberalizzare completamente le proprie economie. Il problema dello Stato sociale dovrà essere affrontato da una prospettiva completamente diversa se si vuole evitare l’esplosione di violenti conflitti sociali, così come pure la questione del prelievo fiscale dovrà essere affrontata in maniera da non gravare più sulla produzione e sul lavoro ma soltanto sulla rendita finanziaria Gli strumenti che servono ad un normale utente per utilizzare la Rete mondiale sono in continua evoluzione, essendo strettamente collegati all'hardware di un personal computer o alla telefonia. In generale comunque serve un Personal Computer dotato di un processore di media fascia, non è necessario essere in possesso infatti dell'ultimo ritrovato tecnologico dato che la velocità di connessione dipende solamente dalla possibilità di inviare e ricevere dati, compito che spetta al modem e alla linea telefonica; anche la RAM non è richiesta in quantità eccessive, bastano anche 32 Mbyte, ormai lo standard minimo nella media dei computer domestici; occorre invece puntare molto sul modem, e qui la scelta si fa molto ampia: c'è chi preferisce avere una velocità di connessione più elevata ma pagare un doppio traffico alla Telecom (è il caso dei modem ISDN) oppure chi si limita ad un modem analogico a 56 Kbit per secondo, che permette una discreta velocità di trasmissione ma che limita molto il download di materiale. Scendere con la velocità di connessione (utilizzando modem a 38 Kbit o 19 Kbit) significa rendere lenta e inefficace la navigazione, anche se si risparmia di moltosulla spesa dell'apparecchio, entrato ormai fuori commercio. Invece è importante che il modem abbia lo standard V.90, indispensabile per il corretto invio e la corretta ricazione di dati. Una scheda audio è invece importante per l'eventuale utilizzo da parte dell'utente di formati audio di qualità, come MP3 o WAV ad alto livello di campionamento; una scheda audio di bassa fascia comprometterebbe la precisione e la qualità del suono. Per quanto riguarda la scheda video l'utilizzo di Internet non richiede per il momento la necessità di possedere strumenti di codifica video particolarmente potenti, data l'esigua capacità di trasmissione della rete telefonica, che non permette la visualizzazione di file di grosse dimensioni. Un accessorio che in questi tempi si sta affermandonel mondo di Internet è la Web Cam, una videocamera digitale che permette l'invo di fotografie o di effettuare videoconferenze, ancora però poco performanti e di scarsa qualità per i limiti fisici della rete. Una volta in possesso dei requisiti minimi trichiesti si è pronti per immergersi nella Grande Rete! Per navigare in Internet occorrono tuttavia ancora due importanti strumenti: innanzitutto un gestore che permette di accadere alla Rete Mondiale, e poi un programma che permette la codifica dei pacchetti di dati e la loro corretta visualizzazione su monitor. Nel primo caso stiamo parlando dei Provider, nel secondo dei Browser. Un Provider è di solito una società che utilizza dei server, grossi computer dalla memoria impressionante, collegati alla Rete; il compito del Provider è quello di fornire un accesso telefonico agli utenti domestici che lo richiedono, fornendo un software per il collegamento e delle password. A questo punto è necessario una precisazione; vi sono due tipi di Provider: quelli che richiedono un abbonamento annuo alla loro linea e quelli che offrono un servizio gratuito. Nel primo caso il costo annuale è più elevato, costituisce il principale guadagno del Provider e gli strumenti di connessione son più efficienti; nel secondo caso il guadagno del Provider consiste in una percentuale della tariffa telefonica utilizzata dall'utente; per cui più utenti utilizzano il Provider più guadagna. Da questo fatto si ricavano due ovvie conseguenze: I Provider a pagamento sono meno trafficati, più veloci ma molto più costosi di quelli a servizio gratuito; I Provider a servizio gratuito tentano in ogni modo di attirare lienti e di farli stare il più tempo possibile collegati ad Internet, dato che in ciò consiste il loro guadagno. Il Browser invece è un programma relativamente piccolo come dimensione occupata sull'Hard Disk che permette la traduzione dei pacchetti di dati che giungono dalla via telefonica; i due più conosciuti sono MS Explorer e Netscape, che solo dopo molte versioni hanno deciso di mettere in comune alcune delle loro caratteristiche più importanti, andando così verso uno standard. Entrambi sono gratuiti. Per mandare una lettera, dobbiamo comprare la carta e la busta, scrivere il testo (ma questa è un’operazione che dovremo comunque sempre fare!), comprare il francobollo dal tabaccaio facendo bene attenzione al peso, trovare una buca delle lettere, imbucare ed aspettare almeno una settimana per cominciare a sperare che il messaggi sia giunto a destinazione. Il tutto con una spesa di almeno cinquemila lire, oltre al tempo perso per le varie operazioni. Con l’E-mail è possibile mandare una lettera di qualunque dimensione, magari allegandoci una vostra foto, un libro, un brano musicale o un omaggio floreale virtuale, spendendo al massimo venti lire ISTANTANEAMENTE - poiché non è necessario acquistare alcunché - e soprattutto con la certezza che il destinatario riceverà il vostro messaggio in meno di un secondo, ovunque si trovi nel mondo (ovviamente purché abbia un indirizzo E-mail). Il problema della sicurezza delle trasmissioni su Internet è ormai superato poiché ci sono sistemi di segretezza assolutamente efficienti. Per cercare infatti di intercettare una lettera elettronica è necessario vigilare giorno e notte, intercettarla esattamente nel momento in cui la si spedite nel lasso di tempo che impiega per il viaggio (meno di un secondo), decifrare la chiave numerica che accompagna la trasmissione (una possibilità su 1000 miliardi circa), decifrare l’altra chiave per decrittare il testo e poi finalmente leggere il messaggio. Vediamo ora come funziona la gestione dell’E-mail. Tutti gli indirizzi E-mail sono composti da due parti collegate dal segno @. La prima, a sinistra del segno, serve ad identificare l’utente mentre la seconda, a destra del segno serve ad individuare il computer presso il quale quell’utente ha la propria casella postale (Mail box). La casella postale elettronica non è altro che uno spazio di memoria messo a disposizione da un server. Gli indirizzi possono contenere anche il vostro nome e cognome oppure possono essere sigle dalle quali non si può risalire ai vostri dati personali. C’è un sistema per inviare messaggi assolutamente anonimi utilizzando siti Web dove il vostro indirizzo viene mutato in altro anonimo e da lì la posta viene spedita al destinatario che non conoscerà mai il vostro indirizzo. Ci sono poi numerosi siti dove è possibile ottenere gratuitamente un indirizzo E-mail. Come descritto sopra l'e-mail durante il tragitto viene cifrata, divisa in piccoli pacchetti per evitare errori o mancanza di dati e ricomposta e ricifrata dal computer ricevente. Tutto questo in circa 2 secondi. Allegato al testo è anche possibile inviare un file ma in questo caso il tempo d'invio può salre vertiginosamente, così come quello di ricezione. Attualmente l'e-mail è, dopo il telefono (ma se vogliamo essere pignoli è proprio grazie al telefono che si invia la posta elettronica!), il più diffuso mezzo di comunicazione a distanza sulla Terra. Ogni commerciante deve mettersi l’animo in pace: con ogni probabilità nel giro di qualche anno dovrà chiudere bottega e mettersi a trafficare su Internet per vendere i prodotti. Tranne che per alcune merci, infatti, la vendita via Internet è molto più sicura, economica e redditizia sia per gli acquirenti che per i venditori. Pensate che nel 1999 il 35% delle auto usate vendute negli Stati Uniti sono transitate via Internet e che gli imprenditori del settore prevedono che nel 2003 l’90% delle autovetture americane sarà venduto via Internet, con soddisfazione generale sia degli acquirenti che dei venditori. Il motivo è il seguente: se si vuole comprare un’auto usata di un certo tipo, ci si deve recare da diversi rivenditori o concessionari, trovarla, magari provarla perdendo un sacco di tempo e senza avere alcuna certezza di aver speso il prezzo giusto per quel prodotto, poiché il metro di comparazione è la limitata selezione che avete potuto fare tra i rivenditori della vostra città. Se invece si manda un’E-mail ad un sito organizzato per le vendite di auto, al quale fanno riferimento numerosi rivenditori del vostro paese, in pochi minuti è possibile ottenere una vastissima gamma di offerte per il tipo di auto che avete richiesto e la vostra capacità di scelta incrementa notevolmente. Per i rivenditori la vendita tramite Internet comporta un notevole risparmio di personale del salone di esposizione e di spese di pubblicità che possono allo stesso tempo fargli abbassare i prezzi ed incrementare i suoi guadagni. Oltretutto, stando su Internet, l’offerta del venditore non è limitata a quelli che passano davanti al suo negozio o che vedono la sua pubblicità, ma raggiunge un numero enorme di persone in tutto il mondo a costi praticamente bassissimi. E’ chiaro che la vendita tramite Internet è una tecnologia superiore rispetto al tradizionale negozio, poiché comporta vantaggi sia per l’acquirente che per i venditori e ne segue, pertanto, che Internet sostituirà in breve tempo i normali canali di vendita. Le stesse considerazioni valgono, naturalmente, per le attività di produzione e vendita di prodotti artigianali, che già oggi fanno fatica a raggiungere il pareggio di bilancio gravati dagli onerosissimi costi per l’affitto dei locali, per le utenze etc. per fornire i propri prodotti alla sola clientela che passa davanti alla loro bottega. Andare su Internet significa per molte piccole aziende poter ridurre notevolmente i costi, allargare enormemente la propria potenziale clientela ed allo stesso tempo offrire gli stessi prodotti a prezzi inferiori con un margine di guadagno più elevato. Per molte piccole aziende italiane, in bilico tra la chiusura e l’evasione fiscale come unico sistema per reggere i costi, lo spostamento su Internet rappresenta l’unica soluzione seria possibile. Anche la grande distribuzione è destinata a finire in rete in tempi brevi. Per mettere su un supermercato di medie dimensioni occorre un investimento di un paio di miliardi e costi fissi per l’affitto ed i 40/50 dipendenti necessari di almeno altrettanto. Mettendosi a vendere su Internet e consegnando a casa la merce scelta, l’investimento si riduce ad un quarto, i costi del personale a un ottavo, quelli dell’affitto del locale pure ad un quarto e i supermercati possono offrire un servizio migliore a prezzi più bassi e guadagnare di più! Lo stesso discorso vale per le attività professionali e per i relativi servizi. A parte l’aumento di clientela potenziale, Internet consente al professionista di gestire la propria attività dal luogo che meglio gli aggrada e di risparmiare notevolmente sulle spese per la gestione dell’ufficio. Ci vuole molto ad immaginare un futuro in cui la produzione di merci sarà possibile in qualunque posto del mondo lavorando da qualunque altra parte del mondo e senza costi aggiuntivi? Su Internet c’è la libreria più grande del mondo, con un magazzino di oltre 2.500.000 titoli che vende al 30% di meno rispetto alle librerie tradizionali e consegna in tre giorni qualunque titolo del proprio catalogo in qualunque parte del mondo. Si trova al seguente indirizzo: www.amazon.com ed è possibile ordinare qualunque libro e vederselo recapitare a casa propria entro due o tre giorni Esplorando i motori di ricerca italiani si scopre che anche qui è possibile comprare via Internet tutto (o quasi) quello che vi serve, soprattutto in materia di computers e suoi accessori. Insomma, la nostra vita è destinata a cambiare radicalmente con l’evoluzione della rete: Il segreto è essere intelligenti, capire subito i veri affari ed essere lungimiranti, investire rischiando un pò. Per quelli invece che pensano di poter restare fuori del mercato globale di cui Internet è solo l’inizio è riservato soltanto un futuro di decadenza e impoverimento. Ogni computer connesso alla rete costituisce un nodo o sito o host ed il modo per identificare ciascun terminale nel sistema è quello di dargli un numero identificativo generalmente composto da dieci o undici cifre separate da punti del tipo 194.54.345.120 che si chiama indirizzo I.P., ovvero "Internet Protocol address". Per raggiungere il computer che ci interessa non dobbiamo, però, ricordare il numero I.P., né segnarlo sulla nostra rubrica come facciamo per i numeri telefonici. Infatti, la maggior parte dei siti Internet ha anche un nome come identificativo e digitando questo nome i computers riescono a trovare il numero I.P. giusto. Così per raggiungere il sito del Comune di Roma non è necessario che scriviate il numero I.P. ma sarà sufficiente digitare il nome del sito che per il Comune di Roma è http://www.comune.roma.it/ . L’indirizzo del comune di Roma è preceduto da una sigla, http://, che sta ad indicare il tipo di connessione che il vostro computer deve cercare. La sigla http è l’acronimo di Hyper Text Transfer Protocol e dice al vostro computer che deve apprestarsi a prendere delle immagini e dei testi costruiti con il sistema WWW, il WORLD WIDE WEB Il WWW è stato creato in Europa, a Ginevra presso il laboratorio di fisica del CERN nel 1991. E’ il sistema a mezzo del quale il vostro navigatore è in grado di trovare e visualizzare sia i testi che le immagini ed i suoni in altre pagine che operano nello stesso ambiente. Prima del WWW, in Internet le comunicazioni avvenivano praticamente solo a mezzo di testi e la trasmissione di immagini e suoni era molto lunga e complessa. In pratica Internet veniva usato quasi esclusivamente per l’E-mail e per le News. Dopo la creazione del WWW, Internet, che nel 1993 contava 20 milioni di utenti, ha avuto una crescita ancora più spettacolare. Con la prima versione di un navigatore, Mosaic, il numero delle pagine e degli utenti raddoppiò in poco meno di un anno, e il creatore di Mosaic, un californiano di nome Andreesen, elaborò Netscape, un programma molto più completo e fondò la Netscape Corporation, una società oggi quotata in borsa ed in continua crescita. Da allora il WWW è cresciuto dentro Internet al punto, ormai, da identificarsi con la rete. Il vantaggio della trasmissione di suoni, immagini anche in movimento oltre che del testo è evidente. A chiunque è consentito esporre non solo le proprie idee ma anche i propri prodotti le immagini della propria città o magari della propria famiglia, fare ascoltare la musica preferita, insomma dare agli altri, del tutto gratuitamente, il meglio di sé. E’ questo il punto di maggior vantaggio del WWW, il fatto che la stragrande maggioranza delle pagine in rete hanno l’accesso gratuito. Potete girare per innumerevoli siti e scoprire poeti straordinari, fantasie cromatiche sbalorditive, composizioni musicali mozzafiato! La caratteristica principale dei siti WWW, oltre a quella di consentire una comunicazione integrale di testi, suoni ed immagini, è che ciascuna pagina consente un rimando automatico ad altre pagine WWW, sia all’interno dello stesso sito che verso altri siti. Questa caratteristica, che ha fatto definire il testo in WWW un "ipertesto", rende particolarmente agevole e piacevole la navigazione tra le pagine di Internet. Praticamente in ogni pagina di Internet troverete un collegamento (Link) ad altre pagine del Web, cosicché potrete navigare da un sito ad un altro, cambiando continuamente argomento, utilizzando solo il vostro mouse per cliccare sui links che mano a mano sceglierete. Un’altra curiosità stuzzicante del WWW è che consente di copiare sia le pagine che vedete che ciascuna delle immagini e dei suoni che trovate senza limiti di copyright. Questo perché sin dall’inizio tra gli utenti di Internet si è costituito un clima di solidarietà e di amicizia per cui le scoperte di uno sono sempre state a disposizione di tutti i navigatori, e questo spirito è rimasto sempre vivo. Quello del lavoro è un argomento doloroso da affrontare dal lato dei computers che hanno reso obsoleti tanti mestieri e molti di più ne manderanno in soffitta nel prossimo futuro. C’è però il rovescio della medaglia, ovvero tutta l’infinita gamma di mestieri che si sono creati intorno ai computers ed alla rete di Internet. Fatto sta che la rete è destinata a modificare in maniera radicale il nostro modo di affrontare il lavoro e con esso la nostra vita. La prima considerazione da fare è che Internet permette in maniera concreta ed economica il tele-lavoro, vale a dire la possibilità di svolgere le proprie mansioni per l’azienda presso la quale si lavora da casa invece di doversi spostare tutte le mattine per raggiungere l’ufficio o la fabbrica. Il lavoro manuale tende a scomparire nelle industrie e nei servizi poiché viene sostituito da robot sempre più efficienti ed economici, così è sempre meno necessaria la presenza fisica per effettuare una prestazione che può essere ben svolta in qualunque altro luogo se il risultato della prestazione viene tempestivamente comunicato all’ufficio che l’ha richiesta. Con Internet questo è possibile, così come è possibile stare in contatto continuo con il proprio ufficio a costi bassissimi che tendono a diventare nulli. E’ quindi economicamente conveniente smantellare i grandi uffici che costano per manutenzione, affitto, utenze etc. e distribuire il lavoro tra gli impiegati liberandoli dall’obbligo di eseguire la prestazione di lavoro nell’ufficio centrale. Oltretutto con il tele-lavoro c’è anche un grande risparmio di costi sociali, per la notevole riduzione del traffico che comporta, la diminuzione dell’inquinamento, degli incidenti stradali e del tempo perso in viaggi divenuti inutili. Già sin d’ora molte aziende statunitensi si stanno riconvertendo al tele-lavoro e persino alcune aziende italiane hanno cominciato a farlo. D’altra parte i vantaggi sono enormi, soprattutto di tempo e denaro. Quello che ci riserva il mondo dell'informatica sarà sempre più connesso alla realtà di Internet, che sta assumendo sempre più l'aspetto della linfa vitale delle comunicazioni nel Mondo. Senz'altro per quanto riguarda la tecnologia è da tenere presente la legge di Moore, che afferma un andamento esponenziale del progresso tecnologico che ci porterà in miglioramenti soprattutto di velocità e di quantità di dati a disposizione. Un esempio: 10 anni fa i dati venivano passati tramite floppy disk da 1,4 MB, abbastanza lenti e rovinabili facilmente; poi hanno preso il sopravvento i CD, 650 MB di spazio, veloci e resistenti; adesso si stanno affermando i DVD, delle stesse dimensioni ma contenenti per adesso 17 GB, 17000 MB velocissimi e quasi indistruttibili. Per quanto riguarda Internet e le velocità di connessione si è passati da pochi bit per secondo allo standard dei 56000 bps, arrivando alla tecnologia ADSL con 640000 bps in download e 128000 bps in upload. La miniaturizzazione dei macchinari la fa da padrone, soprattutto per quanto riguarda i computer portatili e i microprocessori: per i primi le componenti più piccole hanno permesso di raggiungere prestazioni elevatissime, per i secondi le nuove tecnologie a 0.18 micron (al posto di 0.56) hanno permesso di ridurre spazio, resistenza e aumentato le prestazioni.